ECCV2024 Oral | 第一視角下的動(dòng)作圖像生成,Meta等提出LEGO模型
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:ECCV2024 Oral | 第一視角下的動(dòng)作圖像生成,Meta等提出LEGO模型
關(guān)鍵字:模型,動(dòng)作,圖像,本文,數(shù)據(jù)
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過(guò)去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報(bào)道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文的作者主要來(lái)自于 Meta 和佐治亞理工大學(xué)。第一作者是佐治亞理工機(jī)器學(xué)習(xí)專業(yè)的博士生賴柏霖(目前也是 UIUC 的訪問(wèn)學(xué)生),導(dǎo)師為 James Rehg 教授(已轉(zhuǎn)入 UIUC),主要研究方向是多模態(tài)學(xué)習(xí),生成模型和視頻理解,并在 CVPR、ECCV、BMVC、ACL 等會(huì)議發(fā)表相關(guān)論文,參與 Meta 主導(dǎo)的 EgoExo4D 項(xiàng)目,本文工作是賴柏霖在 Meta 的 GenAI 部門實(shí)習(xí)時(shí)完成,其余作者均為 Meta 的研究科學(xué)家。
作者主頁(yè):https://bolinlai.github.io/
當(dāng)人們?cè)谌粘I詈凸ぷ髦行枰瓿梢豁?xiàng)自己不熟悉的任務(wù),或者習(xí)得一項(xiàng)新技能的時(shí)候,如何能快速學(xué)習(xí),實(shí)現(xiàn)技能遷移(skill transfer)成為一個(gè)難點(diǎn)。
原文鏈接:ECCV2024 Oral | 第一視角下的動(dòng)作圖像生成,Meta等提出LEGO模型
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:
作者簡(jiǎn)介: