AIGC動態歡迎閱讀
原標題:誰將替代 Transformer?
關鍵字:模型,架構,序列,長度,天花板
文章來源:AI科技評論
內容字數:12610字
內容摘要:
非 Transformer 面臨的共同考驗依然是證明自己的天花板有多高。作者丨張進
編輯丨陳彩嫻
2017年谷歌發表的論文《Attention Is All You Need》成為當下人工智能的一篇,此后席卷全球的人工智能熱潮都可以直接追溯到 Transformer 的發明。
Transformer 由于其處理局部和長程依賴關系的能力以及可并行化訓練的特點,一經問世,逐步取代了過去的 RNN(循環神經網絡)與 CNN(卷積神經網絡),成為 NLP(自然語言處理)前沿研究的標準范式。
今天主流的 AI 模型和產品——OpenAI 的ChatGPT、谷歌的 Bard、Anthropic 的 Claude,Midjourney、Sora到國內智譜 AI 的 ChatGLM 大模型、百川智能的 Baichuan 大模型、Kimi chat 等等——都是基于Transformer 架構。
Transformer 已然代表了當今人工智能技術無可爭議的黃金標準,其主導地位至今無人能撼動。
在Transformer 大行其道的同時,出現了一些反對的聲音,如:“Transformer 的效率并不高”
原文鏈接:誰將替代 Transformer?
聯系作者
文章來源:AI科技評論
作者微信:aitechtalk
作者簡介:雷峰網旗下AI新媒體。聚焦AI前沿研究,關注AI工程落地。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...