AIGC動態歡迎閱讀
原標題:3D大模型助力,15分鐘即可訓練高質量、個性化的數字人模型,代碼已開放
關鍵字:字節跳動,模型,數字,說話,風格
文章來源:機器之心
內容字數:0字
內容摘要:
?AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文的作者主要來自于浙江大學和字節跳動。第一作者是浙江大學計算機學院的博士生葉振輝,導師為趙洲教授,主要研究方向是說話人視頻合成,并在 NeurIPS、ICLR、ACL 等會議發表相關論文。共一作者是來自浙江大學計算機學院的碩士生鐘添蕓。
個性化精品數字人(Personalized Talking Face Generation)強調合成的數字人視頻在感官上與真人具有極高的相似性(不管是說話人的外表還是神態)。目前業界主流的個性化精品數字人通常屬于在單個目標人數據上從頭訓練的小模型,雖然這種小模型能夠有效地學到說話人的外表和說話風格,這種做法存在低訓練效率、低樣本效率、低魯棒性的問題。相比之下,近年來許多工作專注于單圖驅動的通用數字人大模型,這些模型僅需單張
原文鏈接:3D大模型助力,15分鐘即可訓練高質量、個性化的數字人模型,代碼已開放
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...