AIGC動態歡迎閱讀
原標題:爆火后反轉?「一夜干掉MLP」的KAN:其實我也是MLP
關鍵字:解釋性,作者,參數,論文,線性
文章來源:機器之心
內容字數:8473字
內容摘要:
機器之心報道
編輯:蛋醬、張倩KAN 作者:我想傳達的信息不是「KAN 很棒」,而是「嘗試批判性地思考當前的架構,并尋求從根本上不同的替代方案,這些方案可以完成有趣、有用的事情。」多層感知器(MLP),也被稱為全連接前饋神經網絡,是當今深度學習模型的基礎構建塊。MLP 的重要性無論怎樣強調都不為過,因為它們是機器學習中用于逼近非線性函數的默認方法。
但是最近,來自 MIT 等機構的研究者提出了一種非常有潛力的替代方法 ——KAN。該方法在準確性和可解釋性方面表現優于 MLP。而且,它能以非常少的參數量勝過以更大參數量運行的 MLP。比如,作者表示,他們用 KAN 重新發現了結理論中的數學規律,以更小的網絡和更高的自動化程度重現了 DeepMind 的結果。具體來說,DeepMind 的 MLP 有大約 300000 個參數,而 KAN 只有大約 200 個參數。
這些驚人的結果讓 KAN 迅速走紅,吸引了很多人對其展開研究。很快,有人提出了一些質疑。其中,一篇標題為《KAN is just MLP》的 Colab 文檔成為了議論的焦點。KAN 只是一個普通的 MLP?
上述文檔的作者
原文鏈接:爆火后反轉?「一夜干掉MLP」的KAN:其實我也是MLP
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...