AIGC動態歡迎閱讀
原標題:支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate
關鍵字:視頻,時序,方法,模型,噪聲
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com人類跳舞視頻生成是一項引人注目且具有挑戰性的可控視頻合成任務,旨在根據輸入的參考圖像和目標姿勢序列生成高質量逼真的連續視頻。隨著視頻生成技術的快速發展,特別是生成模型的迭代演化,跳舞視頻生成任務取得了前所未有的進展,并展示了廣泛的應用潛力。
現有的方法可以大致分為兩組。第一組通?;谏蓪咕W絡(GAN),其利用中間的姿勢引導表示來扭曲參考外觀,并通過之前扭曲的目標生成合理的視頻幀。然而,基于生成對抗網絡的方法通常存在訓練不穩定和泛化能力差的問題,導致明顯的偽影和幀間抖動。
第二組則使用擴散模型(Diffusion model)來合成逼真的視頻。這些方法兼具穩定訓練和強大遷移能力的優勢,相較于基于 GAN 的方法表現更好,典型方法如 Disco、MagicAn
原文鏈接:支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...