MIT系初創(chuàng)打破Transformer霸權!液體基礎模型刷新SOTA,非GPT架構首次顯著超越Transformer
AIGC動態(tài)歡迎閱讀
原標題:MIT系初創(chuàng)打破Transformer霸權!液體基礎模型刷新SOTA,非GPT架構首次顯著超越Transformer
關鍵字:模型,團隊,架構,神經網絡,序列
文章來源:新智元
內容字數:0字
內容摘要:
新智元報道編輯:Aeneas 好困
【新智元導讀】就在剛剛,MIT系初創(chuàng)公司Liquid AI推出液體基礎模型LFM,1B模型在基準測試中成為SOTA,這是非GPT架構首次顯著超越Transformer模型!背后功臣,就是基于團隊提出的液體神經網絡(LNN)。就在剛剛,MIT系初創(chuàng)公司Liquid AI團隊官宣:推出首批多模態(tài)非Transformer模型——液體基礎模型LFM。
作為通用人工智能模型,LFM可用于建模任何類型的順序數據,包括視頻、音頻、文本、時間序列和信號。
目前,LFM有三種不同的規(guī)模:
1.3B的稠密模型,適用于資源高度受限的環(huán)境
3.1B的稠密模型,為邊緣部署進行了優(yōu)化
40.3B的混合專家(MoE)模型,專為處理更復雜的任務而設計
在各種規(guī)模上,這三個模型都實現了最佳質量表現,同時保持了更小的內存占用和更高效的推理能力。
公司的后訓練主管Maxime Labonne表示,LFM是「我職業(yè)生涯中發(fā)布的最自豪的產品」
這是因為,Liquid AI的新模型保留了液體神經網絡適應性的核心優(yōu)勢,允許在推理過程中進行實時調整,而不會產生與傳統(tǒng)模型相關的計算開銷,能夠高效處
原文鏈接:MIT系初創(chuàng)打破Transformer霸權!液體基礎模型刷新SOTA,非GPT架構首次顯著超越Transformer
聯(lián)系作者
文章來源:新智元
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...