Meta 3D Gen 震撼發(fā)布:1 分鐘打造頂級 3D 模型
AIGC動態(tài)歡迎閱讀
原標(biāo)題:Meta 3D Gen 震撼發(fā)布:1 分鐘打造頂級 3D 模型
關(guān)鍵字:華為,報(bào)告,模型,紋理,微軟
文章來源:AI前線
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者 | 趙明華
7 月 3 日凌晨,Meta 正式公布了一款文生 3D 模型——Meta 3D Gen,在文生 3D 賽道上掀起一陣熱潮。
據(jù)悉,3D Gen 可以在一分鐘內(nèi)根據(jù)用戶輸入的文本提示詞,快速構(gòu)建出包括 3D 模型、紋理貼圖、材質(zhì)等在內(nèi)的全方位 3D 資產(chǎn)。GenAI 團(tuán)隊(duì)稱,這一速度相較于當(dāng)前市場上的同類產(chǎn)品,實(shí)現(xiàn)了 3 至 10 倍的提升,極大地縮短了創(chuàng)作周期。
不僅如此,Meta 3D Gen 在追求速度的同時(shí),也可以保證生成內(nèi)容的質(zhì)量。相比于以往具有同等速度的模型,3D Gen 在模型的視覺保真度、生成的 3D 網(wǎng)格質(zhì)量、材料的質(zhì)量和控制方面,都能夠有更好的表現(xiàn)。
Meta 3D Gen 結(jié)合了 Meta 的兩個(gè)現(xiàn)有模型:用于生成 3D 網(wǎng)格素材的 AssetGen 和用于精細(xì)紋理化的 TextureGen。通過結(jié)合這兩個(gè)模型的優(yōu)勢,3DGen 可同時(shí)以三種方式表示三維物體:視圖空間、體積空間和 UV(或紋理)空間。在 Meta 的一則報(bào)告中提到,與單階段模型相比,這兩項(xiàng)技術(shù)的集成實(shí)現(xiàn)了 68% 的勝率。
在生成過程中 3D Gen 采用的是兩階段的方法:第一階段
原文鏈接:Meta 3D Gen 震撼發(fā)布:1 分鐘打造頂級 3D 模型
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發(fā)者和科學(xué)家,提供大模型最新資訊、AI技術(shù)分享干貨、一線業(yè)界實(shí)踐案例,助你全面擁抱AIGC。