清華團(tuán)隊(duì)研發(fā)腦啟發(fā)AI模型,為感知信息處理提供全新范例

AIGC動態(tài)歡迎閱讀
原標(biāo)題:清華團(tuán)隊(duì)研發(fā)腦啟發(fā)AI模型,為感知信息處理提供全新范例
關(guān)鍵字:報告,語音,研究者,腦科學(xué),啟發(fā)
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):4542字
內(nèi)容摘要:
來源:腦機(jī)接口社區(qū)
運(yùn)營/排版:何晨龍
人類天生具有分離各種音頻信號的能力,比如區(qū)分不同的說話者的聲音、或?qū)⒙曇襞c背景噪音區(qū)分開來。這種天生的能力被稱為“會效應(yīng)”。
中樞聽覺系統(tǒng)通過分析聲音流中的模式的統(tǒng)計(jì)結(jié)構(gòu)(例如頻譜或包絡(luò)),可以輕松地在混合的聲音中識別特定的目標(biāo)聲音。
在 AI 領(lǐng)域,設(shè)計(jì)與人類一樣強(qiáng)大的語音分離系統(tǒng)長期以來一直是一個重要目標(biāo)。
先前的神經(jīng)科學(xué)研究提示:人類大腦經(jīng)常利用視覺信息來幫助聽覺系統(tǒng)解決“會問題”。
受到這一發(fā)現(xiàn)的啟發(fā),視覺信息被納入進(jìn)來以改善語音分離質(zhì)量,由此產(chǎn)生的方法被稱為多模態(tài)語音分離方法。
如果系統(tǒng)能夠捕捉到唇部,這一額外線索將有助于語音處理,因?yàn)樗卩须s環(huán)境中補(bǔ)充了語音信號的信息丟失。
然而,現(xiàn)有的多模態(tài)語音分離方法的分離能力仍遠(yuǎn)遠(yuǎn)不及人類大腦。
基于此,清華大學(xué)生物醫(yī)學(xué)工程學(xué)院苑克鑫教授團(tuán)隊(duì)打造了一款腦啟發(fā) AI 模型(CTCNet,cortico-thalamo-cortical neural network)。
圖| 苑克鑫(來源:苑克鑫)
該模型的語音分離性能大幅領(lǐng)先于現(xiàn)有方法,不僅為計(jì)算機(jī)感知信息處理提供了新的腦啟發(fā)范例
原文鏈接:清華團(tuán)隊(duì)研發(fā)腦啟發(fā)AI模型,為感知信息處理提供全新范例
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:AItists
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)

粵公網(wǎng)安備 44011502001135號