CVPR'24 Highlight|一個框架搞定人物動作生成,精細到手部
AIGC動態(tài)歡迎閱讀
原標題:CVPR'24 Highlight|一個框架搞定人物動作生成,精細到手部
關(guān)鍵字:動作,場景,物體,數(shù)據(jù),本文
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文作者蔣楠是北京大學智能學院二年級博士生,指導教師朱毅鑫教授,與北京通用人工智能研究院黃思遠博士聯(lián)合開展研究工作。他的研究重點是人-物交互理解和數(shù)字人的動作生成,并于ICCV,CVPR和ECCV等頂會發(fā)表多篇論文。
近年來,人物動作生成的研究取得了顯著的進展,在眾多領(lǐng)域,如計算機視覺、計算機圖形學、機器人技術(shù)以及人機交互等方面獲得廣泛的關(guān)注。然而,現(xiàn)有工作大多只關(guān)注動作本身,以場景和動作類別同時作為約束條件的研究依然處于起步階段。
為了解決這一問題,北京通用人工智能研究院聯(lián)合北京大學、北京理工大學的研究員提出了一種使用自回歸條件擴散模型的動作生成框架,實現(xiàn)真實、帶有語義、符合場景且無長度限制的動作生成。此外,文章發(fā)布了大規(guī)模人物 – 場景交互數(shù)據(jù)集 TRUM
原文鏈接:CVPR'24 Highlight|一個框架搞定人物動作生成,精細到手部
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務平臺