AIGC動態歡迎閱讀
原標題:放棄Scaling Law!中科院、清北提出內生復雜性類腦網絡:讓AI像人腦一樣“小而強”
關鍵字:復雜性,模型,神經元,網絡,動力學
文章來源:人工智能學家
內容字數:0字
內容摘要:
想象一下,如果人工智能(AI)模型能像人腦一樣,規模小,耗能少,但具備同樣復雜功能,那現階段 AI 模型訓練的耗能大、難理解的瓶頸是不是就能解決了?
中國科學院自動化研究所李國齊、徐波研究員團隊聯合清華大學、北京大學等團隊便在這一方面取得了突破——
他們借鑒大腦神經元復雜動力學特性,提出了“基于內生復雜性”的類腦神經元模型構建方法,而非基于 Scaling Law 去構建更大、更深和更寬的神經網絡。這種方法不僅改善了傳統模型通過向外拓展規模帶來的計算資源消耗問題,還保持了性能,內存使用量減少了 4 倍,處理速度提高了 1 倍。
研究論文以“Network model with internal complexity bridges artificial intelligence and neuroscience”為題,發表在權威期刊 Nature Computational Science 上。共同通訊作者為中國科學院自動化所李國齊研究員、徐波研究員,北京大學田永鴻教授。共同一作是清華大學錢學森班的本科生何林軒(自動化所實習生),數理基科班本科生徐蘊輝(自動化所實習生),清華大學精儀系
原文鏈接:放棄Scaling Law!中科院、清北提出內生復雜性類腦網絡:讓AI像人腦一樣“小而強”
聯系作者
文章來源:人工智能學家
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...