多 Transformer 集合可挑戰(zhàn) GPT-4,推理能力是單一Transformer 的 18 倍

AIGC動態(tài)歡迎閱讀
原標(biāo)題:多 Transformer 集合可挑戰(zhàn) GPT-4,推理能力是單一Transformer 的 18 倍
關(guān)鍵字:模型,序列,圖靈機(jī),問題,能力
文章來源:AI科技評論
內(nèi)容字?jǐn)?shù):8102字
內(nèi)容摘要:
ICLR 匿名研究:單一 Transformer 不具備圖靈完備性,但多 Transformer 可以。作者丨郭思、賴文昕
編輯丨陳彩嫻
Transformer 自 2017 年出世以來就在 AI 領(lǐng)域高舉高打,ChatGPT 引發(fā)全球大型語言模型熱潮后更是在 NLP 領(lǐng)域被賦予了神話般的地位。
但近日,一篇正在審核中的 ICLR 2023 投稿論文(如下)經(jīng)研究后提出一個(gè)觀點(diǎn):單一 Transformer 并不具備圖靈完備性,其計(jì)算能力存在理論上的局限性,在圈內(nèi)引起關(guān)注。
由于該論文正在審核中,作者信息沒有被公開。
論文鏈接:https://openreview.net/pdf?id=MGWsPGogLH
與此同時(shí),該論文新提出了一種名為“Find+Replace Transformer”的多 Transformer 架構(gòu),并證明了通過集成多個(gè)Transformer,能夠解決單一 Transformer 無法勝任的任務(wù)。
這項(xiàng)研究直接對標(biāo)并超越了當(dāng)前最先進(jìn)的GPT-4模型,在一系列極具挑戰(zhàn)性的基準(zhǔn)測試中展現(xiàn)了顯著的優(yōu)勢和潛力。1被神化的 Transformer
局限在哪里?圖靈完備性
原文鏈接:多 Transformer 集合可挑戰(zhàn) GPT-4,推理能力是單一Transformer 的 18 倍
聯(lián)系作者
文章來源:AI科技評論
作者微信:aitechtalk
作者簡介:雷峰網(wǎng)旗下AI新媒體。聚焦AI前沿研究,關(guān)注AI工程落地。

粵公網(wǎng)安備 44011502001135號