我們還需要Transformer中的注意力嗎?
AIGC動態(tài)歡迎閱讀
原標題:我們還需要Transformer中的注意力嗎?
關鍵字:模型,架構(gòu),注意力,矩陣,卷積
文章來源:機器之心
內(nèi)容字數(shù):15431字
內(nèi)容摘要:
選自interconnects
作者:Nathan Lambert
機器之心編譯
機器之心編輯部狀態(tài)空間模型正在興起,注意力是否已到盡頭?最近幾周,AI 社區(qū)有一個熱門話題:用無注意力架構(gòu)來實現(xiàn)語言建模。簡要來說,就是機器學習社區(qū)有一個長期研究方向終于取得了實質(zhì)性的進展,催生出 Mamba 兩個強大的新模型:Mamba 和 StripedHyena。它們在很多方面都能比肩人們熟知的強大模型,如 Llama 2 和 Mistral 7B。這個研究方向就是無注意力架構(gòu),現(xiàn)在也正有越來越多的研究者和開發(fā)者開始更嚴肅地看待它。
近日,機器學習科學家 Nathan Lambert 發(fā)布了一篇題為《狀態(tài)空間 LLM:我們需要注意力嗎?》的文章,詳細介紹了 2023 年無注意力模型的發(fā)展情況。他還表示:2024 年你將會有不同的語言模型架構(gòu)可選。需要說明,這篇文章包含不少數(shù)學內(nèi)容,但深度理解它們是值得的。鑒于這篇文章較長,所以這里先列出分節(jié)目錄,以方便讀者索引:
引言:我們?yōu)槭裁纯赡懿⒉幌胧褂米⒁饬σ约笆裁词茄h(huán)神經(jīng)網(wǎng)絡。
Mamba 模型:這種新的狀態(tài)空間模型能為未來多種類別的語言模型提供功能和硬
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關文章
暫無評論...