誰將取代 Transformer?
AIGC動態(tài)歡迎閱讀
原標題:誰將取代 Transformer?
關(guān)鍵字:模型,架構(gòu),報告,序列,長度
文章來源:人工智能學家
內(nèi)容字數(shù):11972字
內(nèi)容摘要:
來源:AI科技評論
作者:張進( AI科技評論)
2017年谷歌發(fā)表的論文《Attention Is All You Need》成為當下人工智能的一篇,此后席卷全球的人工智能熱潮都可以直接追溯到Transformer 的發(fā)明。
Transformer 由于其處理局部和長程依賴關(guān)系的能力以及可并行化訓練的特點,一經(jīng)問世,逐步取代了過去的 RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與 CNN(卷積神經(jīng)網(wǎng)絡(luò)),成為 NLP(自然語言處理)前沿研究的標準范式。
今天主流的 AI 模型和產(chǎn)品——OpenAI 的ChatGPT、谷歌的 Bard、Anthropic 的 Claude,Midjourney、Sora到國內(nèi)智譜 AI 的 ChatGLM 大模型、百川智能的 Baichuan 大模型、Kimi chat 等等——都是基于Transformer 架構(gòu)。
Transformer 已然代表了當今人工智能技術(shù)無可爭議的黃金標準,其主導地位至今無人能撼動。
在Transformer 大行其道的同時,出現(xiàn)了一些反對的聲音,如:“Transformer 的效率并不高”;“Transformer 的天花板很容易窺見”;
原文鏈接:誰將取代 Transformer?
聯(lián)系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機構(gòu)
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...