i人小助手:Meta推出多模態(tài)對話圖,幫你輕松識別社交狀態(tài)
AIGC動態(tài)歡迎閱讀
原標題:i人小助手:Meta推出多模態(tài)對話圖,幫你輕松識別社交狀態(tài)
關(guān)鍵字:社交,注意力,人稱,特征,對象
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文通訊作者為佐治亞理工學(xué)院計算機系博士生 Wenqi Jia(秋季起將轉(zhuǎn)入伊利諾伊香檳分校),導(dǎo)師為 James M. Rehg 及 Danfei Xu。她的主要研究方向聚焦于第一人稱視角下的人類行為分析及意圖理解,曾參與 Ego4D 項目,并在 CVPR,ECCV,ACL 等頂級會議上發(fā)表多篇論文。個人主頁:https://vjwq.github.io/近年來興起的第一人稱視角視頻研究為理解人類社交行為提供了無法取代的直觀視角,然而,絕大多數(shù)的既往工作都側(cè)重于分析與攝像機佩戴者相關(guān)的行為,并未關(guān)注處于社交場景中其他社交對象的狀態(tài)。此外,多數(shù)現(xiàn)有模型能理解一種社交行為信號,而人類的實際社交行為是多樣且密集的:在一個嘈雜的面對面多人對話場景中,我們總是在主動判
原文鏈接:i人小助手:Meta推出多模態(tài)對話圖,幫你輕松識別社交狀態(tài)
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
相關(guān)文章
