讓智能體像孩子一樣觀察別人學(xué)習(xí)動(dòng)作,跨視角技能學(xué)習(xí)數(shù)據(jù)集EgoExoLearn來(lái)了
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:讓智能體像孩子一樣觀察別人學(xué)習(xí)動(dòng)作,跨視角技能學(xué)習(xí)數(shù)據(jù)集EgoExoLearn來(lái)了
關(guān)鍵字:視角,視頻,數(shù)據(jù),研究者,動(dòng)作
文章來(lái)源:機(jī)器之心
內(nèi)容字?jǐn)?shù):7630字
內(nèi)容摘要:
機(jī)器之心專欄
機(jī)器之心編輯部在探索人工智能邊界時(shí),我們時(shí)常驚嘆于人類孩童的學(xué)習(xí)能力 —— 可以輕易地將他人的動(dòng)作映射到自己的視角,進(jìn)而模仿并創(chuàng)新。當(dāng)我們追求更高階的人工智能的時(shí)候,無(wú)非是希望賦予機(jī)器這種與生俱來(lái)的天賦。
由上海人工智能實(shí)驗(yàn)室,學(xué),中科院深圳先進(jìn)技術(shù)研究院牽頭,聯(lián)合東京大學(xué),復(fù)旦大學(xué),浙江大學(xué),中國(guó)科學(xué)技術(shù)大學(xué)等高校的學(xué)生和研究者,共同公布了跨視角技能學(xué)習(xí)數(shù)據(jù)集EgoExoLearn,為機(jī)器人賦予了通過(guò)觀察他人學(xué)習(xí)新動(dòng)作的能力。論文鏈接:https://arxiv.org/abs/2403.16182
代碼與數(shù)據(jù)集鏈接:https://github.com/OpenGVLab/EgoExoLearn
EgoExoLearn 數(shù)據(jù)集獨(dú)辟蹊徑,采集了第一視角與第三視角的視頻素材。第一視角視頻捕捉了人們學(xué)習(xí)第三視角演示動(dòng)作的全過(guò)程,這種視角的轉(zhuǎn)換與融合,為機(jī)器模擬人類學(xué)習(xí)模式提供了寶貴的數(shù)據(jù)資源。
數(shù)據(jù)集的構(gòu)建不僅涵蓋了日常生活的瑣碎場(chǎng)景,更延伸到了專業(yè)實(shí)驗(yàn)室的復(fù)雜操作。EgoExoLearn 精心收錄了總計(jì) 120 小時(shí)的視角與示范視頻,旨在讓機(jī)器在多種環(huán)境下都能有效學(xué)
原文鏈接:讓智能體像孩子一樣觀察別人學(xué)習(xí)動(dòng)作,跨視角技能學(xué)習(xí)數(shù)據(jù)集EgoExoLearn來(lái)了
聯(lián)系作者
文章來(lái)源:機(jī)器之心
作者微信:almosthuman2014
作者簡(jiǎn)介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺(tái)