AIGC動態歡迎閱讀
原標題:順著網線爬過來成真了,Audio2Photoreal通過對話就能生成逼真表情與動作
關鍵字:方法,研究者,動作,模型,面部
文章來源:機器之心
內容字數:5572字
內容摘要:
機器之心報道
編輯:大盤雞、佳琪多模態的發展已經開始超乎我們的想象了。
當你和朋友隔著冷冰冰的手機屏幕時,你得猜猜對方的語氣。當 Ta 發語音時,你的腦海中還能浮現出 Ta 的表情甚至動作。如果能視頻通話顯然是最好的,但在實際情況下并不能隨時撥打視頻。
如果你正在與一個遠程朋友,不是通過冰冷的屏幕文字,也不是缺乏表情的虛擬形象,而是一個逼真、動態、充滿表情的數字化虛擬人。這個虛擬人不僅能夠完美地復現你朋友的微笑、眼神,甚至是細微的肢體動作。你會不會感到更加的親切和溫暖呢?真是體現了那一句「我會順著網線爬過來找你的」。
這不是科幻想象,而是在實際中可以實現的技術了。面部表情和肢體動作包含的信息量很大,這會極大程度上影響內容表達的意思。比如眼睛一直看著對方說話和眼神基本上沒有交流的說話,給人的感覺是截然不同的,這也會影響另一方對溝通內容的理解。我們在交流過程中對這些細微的表情和動作都有著極敏銳的捕捉能力,并用它們來形成對交談伙伴意圖、舒適度或理解程度的高級理解。因此,開發能夠捕捉這些微妙之處的高度逼真的對話虛擬人對于互動至關重要。
為此,Meta 與加利福尼亞大學的研究者提出了一種
原文鏈接:順著網線爬過來成真了,Audio2Photoreal通過對話就能生成逼真表情與動作
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...