順著網(wǎng)線爬過來成真了,Audio2Photoreal通過對話就能生成逼真表情與動作
AIGC動態(tài)歡迎閱讀
原標題:順著網(wǎng)線爬過來成真了,Audio2Photoreal通過對話就能生成逼真表情與動作
關(guān)鍵字:方法,研究者,動作,模型,面部
文章來源:機器之心
內(nèi)容字數(shù):5572字
內(nèi)容摘要:
機器之心報道
編輯:大盤雞、佳琪多模態(tài)的發(fā)展已經(jīng)開始超乎我們的想象了。
當你和朋友隔著冷冰冰的手機屏幕時,你得猜猜對方的語氣。當 Ta 發(fā)語音時,你的腦海中還能浮現(xiàn)出 Ta 的表情甚至動作。如果能視頻通話顯然是最好的,但在實際情況下并不能隨時撥打視頻。
如果你正在與一個遠程朋友,不是通過冰冷的屏幕文字,也不是缺乏表情的虛擬形象,而是一個逼真、動態(tài)、充滿表情的數(shù)字化虛擬人。這個虛擬人不僅能夠完美地復(fù)現(xiàn)你朋友的微笑、眼神,甚至是細微的肢體動作。你會不會感到更加的親切和溫暖呢?真是體現(xiàn)了那一句「我會順著網(wǎng)線爬過來找你的」。
這不是科幻想象,而是在實際中可以實現(xiàn)的技術(shù)了。面部表情和肢體動作包含的信息量很大,這會極大程度上影響內(nèi)容表達的意思。比如眼睛一直看著對方說話和眼神基本上沒有交流的說話,給人的感覺是截然不同的,這也會影響另一方對溝通內(nèi)容的理解。我們在交流過程中對這些細微的表情和動作都有著極敏銳的捕捉能力,并用它們來形成對交談伙伴意圖、舒適度或理解程度的高級理解。因此,開發(fā)能夠捕捉這些微妙之處的高度逼真的對話虛擬人對于互動至關(guān)重要。
為此,Meta 與加利福尼亞大學(xué)的研究者提出了一種
原文鏈接:順著網(wǎng)線爬過來成真了,Audio2Photoreal通過對話就能生成逼真表情與動作
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺