AIGC動態歡迎閱讀
原標題:Mamba論文為什么沒被ICLR接收?AI社區沸騰了
關鍵字:華為,模型,作者,長度,序列
文章來源:機器之心
內容字數:7085字
內容摘要:
機器之心報道
編輯:張倩、蛋醬基于 Mamba 的創新正不斷涌現,但原論文卻被 ICLR 放到了「待定區」。
2023 年,Transformer 在 AI 大模型領域的統治地位被撼動了。發起挑戰的新架構名叫「Mamba」,它是一種選擇性狀態空間模型( selective state space model),在語言建模方面可以媲美甚至擊敗 Transformer。而且,它可以隨上下文長度的增加實現線性擴展,其性能在實際數據中可提高到百萬 token 長度序列,并實現 5 倍的推理吞吐量提升。
在發布之后的一個多月里,Mamba 逐漸展現出自己的影響力,衍生出了 MoE-Mamba、Vision Mamba、VMamba、U-Mamba、MambaByte 等多項工作,在克服 Transformer 短板方面表現出了越來越大的潛力。
但這樣一顆冉冉升起的「新星」,卻在 2024 年的 ICLR 會議中遭遇了滑鐵盧。最新的公開結果顯示,Mamba 的論文至今還沒有被大會接收,我們只能在 Decision Pending(待定)一欄看到它的身影(可能是延遲決定,也可能是被拒)。總體來看,給
原文鏈接:Mamba論文為什么沒被ICLR接收?AI社區沸騰了
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...