MimicMotion官網(wǎng)
騰訊和上交大出的,具有置信度感知姿勢指導(dǎo)的高質(zhì)量人體視頻生成,MimicMotion可以生成任意長度、具有任何動作指導(dǎo)的高質(zhì)量視頻生成框架。
網(wǎng)站提供:Ai工具箱,Ai開源項目,MimicMotion,Motion,Mimi,KEYWORDSSHOULDBEPLACEDHERE。
MimicMotion簡介
DESCRIPTION META TAG
騰訊和上交大出的,MimicMotion可以生成任意長度、具有任何動作指導(dǎo)的高質(zhì)量視頻生成框架,可以生成細(xì)節(jié)豐富、逼真的人類動作視頻,可以生成任意長度的視頻內(nèi)容,可以對視頻內(nèi)容進(jìn)行精確控制,包括動作、姿勢和視頻風(fēng)格等。

近年來,生成式人工智能在圖像生成領(lǐng)域取得了重大進(jìn)展,催生了多種應(yīng)用。然而,視頻生成在可控性、視頻長度、細(xì)節(jié)豐富度等各方面仍面臨相當(dāng)大的挑戰(zhàn),阻礙了該技術(shù)的應(yīng)用和普及。在這項工作中,我們提出了一種可控視頻生成框架,稱為 MimicMotion,它可以在任何指導(dǎo)下生成任意長度的高質(zhì)量視頻。與以前的方法相比,我們的方法有幾個亮點。
首先,通過置信感知姿勢指導(dǎo),可以實現(xiàn)時間平滑性,從而可以通過大規(guī)模訓(xùn)練數(shù)據(jù)增強(qiáng)模型的魯棒性。
其次,基于姿態(tài)置信度的區(qū)域損失放大顯著減輕了圖像的失真。
最后,為了生成流暢的長視頻,提出了一種漸進(jìn)式潛在融合策略。通過這種方式,可以以可接受的資源消耗生成任意長度的視頻。
通過大量的實驗和用戶研究,MimicMotion 在多個方面比以前的方法有了顯著的改進(jìn)。

MimicMotion代碼:https://github.com/Tencent/MimicMotion
MimicMotion官網(wǎng)入口網(wǎng)址
https://tencent.github.io/MimicMotion/
OpenI小編發(fā)現(xiàn)MimicMotion網(wǎng)站非常受用戶歡迎,請訪問MimicMotion網(wǎng)址入口試用。
數(shù)據(jù)評估
本站OpenI提供的MimicMotion都來源于網(wǎng)絡(luò),不保證外部鏈接的準(zhǔn)確性和完整性,同時,對于該外部鏈接的指向,不由OpenI實際控制,在2024年 7月 3日 上午9:00收錄時,該網(wǎng)頁上的內(nèi)容,都屬于合規(guī)合法,后期網(wǎng)頁的內(nèi)容如出現(xiàn)違規(guī),可以直接聯(lián)系網(wǎng)站管理員進(jìn)行刪除,OpenI不承擔(dān)任何責(zé)任。