單個A100生成3D圖像只需30秒,這是Adobe讓文本、圖像都動起來的新方法
AIGC動態(tài)歡迎閱讀
原標(biāo)題:單個A100生成3D圖像只需30秒,這是Adobe讓文本、圖像都動起來的新方法
文章來源:機器之心
內(nèi)容字?jǐn)?shù):8448字
內(nèi)容摘要:機器之心報道編輯:杜偉、佳琪3D 生成是 AI 視覺領(lǐng)域的研究熱點之一。本文中,來自 Adobe 研究院和斯坦福大學(xué)等機構(gòu)的研究者利用基于 transformer 的 3D 大型重建模型來對多視圖擴散進行去噪,并提出了一種新穎的 3D 生成方法 DMV3D,實現(xiàn)了新的 SOTA 結(jié)果。2D 擴散模型極大地簡化了圖像內(nèi)容的創(chuàng)作流程,2D 設(shè)計行業(yè)也因此發(fā)生了變革。近來,擴散模型已擴展到 3D 創(chuàng)作領(lǐng)域,減少了應(yīng)用程序(如 VR、AR、機器人技術(shù)和游戲等)中的人工成本。有許多研究已經(jīng)對使用預(yù)訓(xùn)練的 2D 擴散模型,生成具有評分蒸餾采樣(SDS)損失的 NeRFs 方法進行了探索。然而,基于 SDS 的方法通常需要花費數(shù)小時來優(yōu)化資源,并且經(jīng)常引發(fā)圖形中的幾何問題,比如多面 Janus 問題。另一方面,研究者對無需花費大量時間優(yōu)化每個資源,也能夠?qū)崿F(xiàn)多樣化生成的 3D 擴散模型也進行了多種嘗試。…
原文鏈接:點此閱讀原文:單個A100生成3D圖像只需30秒,這是Adobe讓文本、圖像都動起來的新方法
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...