ECCV2024 Oral | 第一視角下的動作圖像生成,Meta等提出LEGO模型

AIGC動態(tài)歡迎閱讀
原標題:ECCV2024 Oral | 第一視角下的動作圖像生成,Meta等提出LEGO模型
關(guān)鍵字:模型,動作,圖像,本文,數(shù)據(jù)
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文的作者主要來自于 Meta 和佐治亞理工大學(xué)。第一作者是佐治亞理工機器學(xué)習(xí)專業(yè)的博士生賴柏霖(目前也是 UIUC 的訪問學(xué)生),導(dǎo)師為 James Rehg 教授(已轉(zhuǎn)入 UIUC),主要研究方向是多模態(tài)學(xué)習(xí),生成模型和視頻理解,并在 CVPR、ECCV、BMVC、ACL 等會議發(fā)表相關(guān)論文,參與 Meta 主導(dǎo)的 EgoExo4D 項目,本文工作是賴柏霖在 Meta 的 GenAI 部門實習(xí)時完成,其余作者均為 Meta 的研究科學(xué)家。
作者主頁:https://bolinlai.github.io/
當(dāng)人們在日常生活和工作中需要完成一項自己不熟悉的任務(wù),或者習(xí)得一項新技能的時候,如何能快速學(xué)習(xí),實現(xiàn)技能遷移(skill transfer)成為一個難點。
原文鏈接:ECCV2024 Oral | 第一視角下的動作圖像生成,Meta等提出LEGO模型
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號