AIGC動態歡迎閱讀
原標題:清華團隊研發腦啟發AI模型,為感知信息處理提供全新范例
關鍵字:報告,語音,研究者,腦科學,啟發
文章來源:人工智能學家
內容字數:4542字
內容摘要:
來源:腦機接口社區
運營/排版:何晨龍
人類天生具有分離各種音頻信號的能力,比如區分不同的說話者的聲音、或將聲音與背景噪音區分開來。這種天生的能力被稱為“會效應”。
中樞聽覺系統通過分析聲音流中的模式的統計結構(例如頻譜或包絡),可以輕松地在混合的聲音中識別特定的目標聲音。
在 AI 領域,設計與人類一樣強大的語音分離系統長期以來一直是一個重要目標。
先前的神經科學研究提示:人類大腦經常利用視覺信息來幫助聽覺系統解決“會問題”。
受到這一發現的啟發,視覺信息被納入進來以改善語音分離質量,由此產生的方法被稱為多模態語音分離方法。
如果系統能夠捕捉到唇部,這一額外線索將有助于語音處理,因為它在嘈雜環境中補充了語音信號的信息丟失。
然而,現有的多模態語音分離方法的分離能力仍遠遠不及人類大腦。
基于此,清華大學生物醫學工程學院苑克鑫教授團隊打造了一款腦啟發 AI 模型(CTCNet,cortico-thalamo-cortical neural network)。
圖| 苑克鑫(來源:苑克鑫)
該模型的語音分離性能大幅領先于現有方法,不僅為計算機感知信息處理提供了新的腦啟發范例
原文鏈接:清華團隊研發腦啟發AI模型,為感知信息處理提供全新范例
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...