AIGC動態歡迎閱讀
原標題:Transformer能否推理引爭議,DeepMind連夜更新論文開源數據集:Transformer真的很強
關鍵字:模型,算法,規則,國際象棋,人類
文章來源:AI科技評論
內容字數:0字
內容摘要:
小模型干大事,DeepMind重新審視Transformer推理能力。作者丨劉潔
編輯丨岑峰
DeepMind悶聲干大事,悄悄訓練了一個大小只有270M的Transformer模型,居然不需要搜索,就能實現大師級的下棋水平。
這幾天的因為這篇2月份發布的論文吵得不可開交,DeepMind團隊也趕緊放出了更新后的論文版本,開源了有關數據集和代碼,對網上的爭議做了回應。
最開始,有位網友分享了DeepMind的這項研究,并提出“Transformer也能用于邏輯任務”的觀點,沒想到卻激起了一場關于Transformer能不能推理的爭論。
先是顧全全果斷轉發表示贊同,“這表明Transformer具有推理和規劃的能力?!?br />然而,這一觀點很快遭到了激烈反駁,爭論的味十足。
田淵棟直言,短時策略并不等于推理能力。他認為,“Transformer模型的評估基于閃電戰模式(每局限時5-10分鐘),這更依賴直覺和戰術反應,而非傳統的深度搜索和規劃。”
田淵棟還指出,閃電戰下機器人雖然Elo達2713,但未能展示出超越訓練數據的能力?!按送?,機器人在短時間內的閃電戰Elo分數比人類選手要低,這可
原文鏈接:Transformer能否推理引爭議,DeepMind連夜更新論文開源數據集:Transformer真的很強
聯系作者
文章來源:AI科技評論
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...