朱玉可團隊新作:看一眼就能模仿,大模型讓機器人輕松學會撒鹽
AIGC動態(tài)歡迎閱讀
原標題:朱玉可團隊新作:看一眼就能模仿,大模型讓機器人輕松學會撒鹽
關(guān)鍵字:物體,機器人,人形,任務(wù),人類
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
機器之心報道
編輯:杜偉、Panda在人形機器人領(lǐng)域,有一個非常值錢的問題:既然人形機器人的樣子與人類類似,那么它們能使用網(wǎng)絡(luò)視頻等數(shù)據(jù)進行學習和訓(xùn)練嗎?
如果可以,那考慮到網(wǎng)絡(luò)視頻的龐大規(guī)模,機器人就再也不用擔心沒有學習資源了。
近日,德克薩斯大學奧斯汀分校和 NVIDIA Research 的朱玉可團隊公布了他們的一篇 CoRL 2024 oral 論文,其中提出了一種名為 OKAMI 的方法,可基于單個 RGB-D 視頻生成操作規(guī)劃并推斷執(zhí)行策略。論文地址:OKAMI: Teaching Humanoid Robots Manipulation Skills through Single Video Imitation
論文鏈接:https://arxiv.org/pdf/2410.11792
項目地址:https://ut-austin-rpl.github.io/OKAMI/
先來看看演示視頻:可以看到,機器人在看過人類演示者向袋子中裝東西后,也學會了以同樣的動作向袋子中裝東西。不僅如此,OKAMI 還能讓人形機器人看一眼演示視頻就輕松學會撒鹽、將玩具放進籃子和合上筆記本電腦
原文鏈接:朱玉可團隊新作:看一眼就能模仿,大模型讓機器人輕松學會撒鹽
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...