AIGC動態歡迎閱讀
原標題:ECCV2024 Oral | 第一視角下的動作圖像生成,Meta等提出LEGO模型
關鍵字:模型,動作,圖像,本文,數據
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文的作者主要來自于 Meta 和佐治亞理工大學。第一作者是佐治亞理工機器學習專業的博士生賴柏霖(目前也是 UIUC 的訪問學生),導師為 James Rehg 教授(已轉入 UIUC),主要研究方向是多模態學習,生成模型和視頻理解,并在 CVPR、ECCV、BMVC、ACL 等會議發表相關論文,參與 Meta 主導的 EgoExo4D 項目,本文工作是賴柏霖在 Meta 的 GenAI 部門實習時完成,其余作者均為 Meta 的研究科學家。
作者主頁:https://bolinlai.github.io/
當人們在日常生活和工作中需要完成一項自己不熟悉的任務,或者習得一項新技能的時候,如何能快速學習,實現技能遷移(skill transfer)成為一個難點。
原文鏈接:ECCV2024 Oral | 第一視角下的動作圖像生成,Meta等提出LEGO模型
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...