CVPR 2024 | 合成視頻數(shù)據(jù)集里只有單人數(shù)據(jù)?M3Act人群行為標注難題
AIGC動態(tài)歡迎閱讀
原標題:CVPR 2024 | 合成視頻數(shù)據(jù)集里只有單人數(shù)據(jù)?M3Act人群行為標注難題
關(guān)鍵字:群體,數(shù)據(jù),模型,任務(wù),基線
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com論文鏈接:https://arxiv.org/abs/2306.16772
項目鏈接:https://cjerry1243.github.io/M3Act/
論文標題:M3Act: Learning from Synthetic Human Group Activities
引言
通過視覺信息識別、理解人群的行為是視頻監(jiān)測、交互機器人、自動駕駛等領(lǐng)域的關(guān)鍵技術(shù)之一,但獲取大規(guī)模的人群行為標注數(shù)據(jù)成為了相關(guān)研究的發(fā)展瓶頸。如今,合成數(shù)據(jù)集正成為一種新興的,用于替代現(xiàn)實世界數(shù)據(jù)的方法,但已有研究中的合成數(shù)據(jù)集主要聚焦于人體姿態(tài)與形狀的估計。它們往往只提供單個人物的合成動畫視頻,而這并不適用于人群的視頻識別任務(wù)。在這篇文章中,作者提出了一個適用于多群組人群行為的合成
原文鏈接:CVPR 2024 | 合成視頻數(shù)據(jù)集里只有單人數(shù)據(jù)?M3Act人群行為標注難題
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺