只需一張圖片、一句動作指令,Animate124輕松生成3D視頻
AIGC動態(tài)歡迎閱讀
原標(biāo)題:只需一張圖片、一句動作指令,Animate124輕松生成3D視頻
關(guān)鍵字:模型,視頻,華為,階段,靜態(tài)
文章來源:機器之心
內(nèi)容字?jǐn)?shù):4853字
內(nèi)容摘要:
機器之心專欄
機器之心編輯部Animate124,輕松將單張圖片變成 3D 視頻。近一年來,DreamFusion 引領(lǐng)了一個新潮流,即 3D 靜態(tài)物體與場景的生成,這在生成技術(shù)領(lǐng)域引發(fā)了廣泛關(guān)注。回顧過去一年,我們見證了 3D 靜態(tài)生成技術(shù)在質(zhì)量和控制性方面的顯著進步。技術(shù)發(fā)展從基于文本的生成起步,逐漸融入單視角圖像,進而發(fā)展到整合多種控制信號。
與此相較,3D 動態(tài)場景生成仍處于起步階段。2023 年初,Meta 推出了 MAV3D,標(biāo)志著首次嘗試基于文本生成 3D 視頻。然而,受限于開源視頻生成模型的缺乏,這一領(lǐng)域的進展相對緩慢。
然而,現(xiàn)在,基于圖文結(jié)合的 3D 視頻生成技術(shù)已經(jīng)問世!
盡管基于文本的 3D 視頻生成能夠產(chǎn)生多樣化的內(nèi)容,但在控制物體的細節(jié)和姿態(tài)方面仍有局限。在 3D 靜態(tài)生成領(lǐng)域,使用單張圖片作為輸入已經(jīng)能夠有效重建 3D 物體。由此受到啟發(fā),來自新加坡國立大學(xué)(NUS)和華為的研究團隊提出了 Animate124 模型。該模型結(jié)合單張圖片和相應(yīng)的動作描述,實現(xiàn)了對 3D 視頻生成的精準(zhǔn)控制。項目主頁: https://animate124.github.io
原文鏈接:只需一張圖片、一句動作指令,Animate124輕松生成3D視頻
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺