AIGC動態歡迎閱讀
原標題:多 Transformer 集合可挑戰 GPT-4,推理能力是單一Transformer 的 18 倍
關鍵字:模型,序列,圖靈機,問題,能力
文章來源:AI科技評論
內容字數:8102字
內容摘要:
ICLR 匿名研究:單一 Transformer 不具備圖靈完備性,但多 Transformer 可以。作者丨郭思、賴文昕
編輯丨陳彩嫻
Transformer 自 2017 年出世以來就在 AI 領域高舉高打,ChatGPT 引發全球大型語言模型熱潮后更是在 NLP 領域被賦予了神話般的地位。
但近日,一篇正在審核中的 ICLR 2023 投稿論文(如下)經研究后提出一個觀點:單一 Transformer 并不具備圖靈完備性,其計算能力存在理論上的局限性,在圈內引起關注。
由于該論文正在審核中,作者信息沒有被公開。
論文鏈接:https://openreview.net/pdf?id=MGWsPGogLH
與此同時,該論文新提出了一種名為“Find+Replace Transformer”的多 Transformer 架構,并證明了通過集成多個Transformer,能夠解決單一 Transformer 無法勝任的任務。
這項研究直接對標并超越了當前最先進的GPT-4模型,在一系列極具挑戰性的基準測試中展現了顯著的優勢和潛力。1被神化的 Transformer
局限在哪里?圖靈完備性
原文鏈接:多 Transformer 集合可挑戰 GPT-4,推理能力是單一Transformer 的 18 倍
聯系作者
文章來源:AI科技評論
作者微信:aitechtalk
作者簡介:雷峰網旗下AI新媒體。聚焦AI前沿研究,關注AI工程落地。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...