AIGC動態歡迎閱讀
原標題:大模型是否有推理能力?DeepMind數月前的論文讓AI社區吵起來了
關鍵字:解讀,模型,報告,國際象棋,動作
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
編輯:張倩、陳陳最近一段時間,隨著 OpenAI o1 模型的推出,關于大型語言模型是否擁有推理能力的討論又多了起來。比如蘋果在前段時間的一篇論文中指出,只要給模型一些干擾,最聰明的模型也會犯最簡單的錯誤(參見《給小學數學題加句「廢話」,OpenAI o1 就翻車了,蘋果新論文質疑 AI 推理能力》)。這種現象被歸結為「當前的 LLM 無法進行真正的邏輯推理;相反,它們試圖復制在訓練數據中觀察到的推理步驟」。然而,事實真的是這樣嗎?谷歌 DeepMind 的一篇論文似乎得出了相反的結論。最近,DeepMind 今年 2 月份的一篇論文在社交媒體上掀起了一些波瀾。關于該論文的早期報道。
這篇論文題為「Grandmaster-Level Chess Without Search」。文中介紹說,DeepMind 的研究者訓練了一個參數量為 2.7 億的 Transformer 模型,這個模型無需依賴復雜的搜索算法或啟發式算法就能達到「特級大師( Grandmaster-Level )」的國際象棋水平,優于 AlphaZero 的策略和價值網絡(不含 MCTS)以及 GPT-3.
原文鏈接:大模型是否有推理能力?DeepMind數月前的論文讓AI社區吵起來了
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...