AIGC動態歡迎閱讀
原標題:Stability AI開源上新:3D生成引入視頻擴散模型,質量一致性up,4090可玩
關鍵字:騰訊,模型,視頻,圖像,相機
文章來源:量子位
內容字數:3809字
內容摘要:
魚羊 發自 凹非寺量子位 | 公眾號 QbitAIStable Diffusion背后公司Stability AI又上新了。
這次帶來的是圖生3D方面的新進展:
基于Stable Video Diffusion的Stable Video 3D(SV3D),只用一張圖片就能生成高質量3D網格。
Stable Video Diffusion(SVD)是Stability AI此前推出的高分辨率視頻生成模型。也就是說,此番登場的SV3D首次將視頻擴散模型應用到了3D生成領域。
官方表示,基于此,SV3D大大提高了3D生成的質量和視圖一致性。
模型權重依然開源,不過僅可用于非商業用途,想要商用的話還得買個Stability AI會員~
話不多說,還是來扒一扒論文細節。
將視頻擴散模型用于3D生成引入潛在視頻擴散模型,SV3D的核心目的是利用視頻模型的時間一致性來提高3D生成的一致性。
并且視頻數據本身也比3D數據更容易獲得。
Stability AI這次提供兩個版本的SV3D:
SV3D_u:基于單張圖像生成軌道視頻。
SV3D_p:擴展了SV3D_u的功能,可以根據指定的相機路徑創建3D模型
原文鏈接:Stability AI開源上新:3D生成引入視頻擴散模型,質量一致性up,4090可玩
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...