AIGC動態歡迎閱讀
原標題:單個A100生成3D圖像只需30秒,這是Adobe讓文本、圖像都動起來的新方法
文章來源:機器之心
內容字數:8448字
內容摘要:機器之心報道編輯:杜偉、佳琪3D 生成是 AI 視覺領域的研究熱點之一。本文中,來自 Adobe 研究院和斯坦福大學等機構的研究者利用基于 transformer 的 3D 大型重建模型來對多視圖擴散進行去噪,并提出了一種新穎的 3D 生成方法 DMV3D,實現了新的 SOTA 結果。2D 擴散模型極大地簡化了圖像內容的創作流程,2D 設計行業也因此發生了變革。近來,擴散模型已擴展到 3D 創作領域,減少了應用程序(如 VR、AR、機器人技術和游戲等)中的人工成本。有許多研究已經對使用預訓練的 2D 擴散模型,生成具有評分蒸餾采樣(SDS)損失的 NeRFs 方法進行了探索。然而,基于 SDS 的方法通常需要花費數小時來優化資源,并且經常引發圖形中的幾何問題,比如多面 Janus 問題。另一方面,研究者對無需花費大量時間優化每個資源,也能夠實現多樣化生成的 3D 擴散模型也進行了多種嘗試。…
原文鏈接:點此閱讀原文:單個A100生成3D圖像只需30秒,這是Adobe讓文本、圖像都動起來的新方法
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...