AIGC動態歡迎閱讀
原標題:CVPR'24 Highlight!清華AIR劉洋教授團隊提出面向具身智能的第一視角多模態模型評價基準 | 講座預告
關鍵字:模型,視角,智能,人稱,清華大學
文章來源:智猩猩GenAI
內容字數:0字
內容摘要:
智猩猩是智一科技打造的AI與硬科技知識分享社區,關注大模型、通用視覺、算力、具身智能機器人與自動駕駛,提供講座、公開課、在線研討會、峰會等線上線下產品。
「智猩猩具身智能前沿講座」由智猩猩機器人新青年講座全新升級而來,致力于邀請來自全球知名高校、頂尖研究機構以及優秀企業的學者與研究人員,主講在具身智能領域的研究成果與系統思考。目前很多評測工作都在探究視覺語言大模型在不同維度上的能力,但已有的評測數據都是以物體為中心或者第三人稱視角,對于模型在第一人稱視角下的能力評測則有顯著欠缺。在真實世界中,人會以第一人稱視角去觀察和理解世界并與之交互。而未來作為具身智能體或機器人的大腦,多模態模型應當具備從第一人稱視角理解世界的能力。
針對當前問題,清華大學劉洋教授團隊提出了第一人稱視角的視覺問答基準數據集EgoThink,相關論文收錄于 CVPR 2024 并獲得 Highlight。其中清華大學萬國數據教授、智能產業研究院執行院長劉洋教授為通訊作者,清華大學計算機系、智能產業研究院 (AIR)在讀博士程思婕是項目負責人及論文一作。該論文提出了一個針對視覺語言大模型在第一人稱視角下思考能力的較為完
原文鏈接:CVPR'24 Highlight!清華AIR劉洋教授團隊提出面向具身智能的第一視角多模態模型評價基準 | 講座預告
聯系作者
文章來源:智猩猩GenAI
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...