AIGC動態歡迎閱讀
原標題:張俊林:大語言模型無法對數字進行準確運算的主要原因
關鍵字:數字,加法,知乎,侵權,報告
文章來源:算法邦
內容字數:0字
內容摘要:
直播預告 | 7月23日14點,「智猩猩在線研討會 NVIDIA AI for Science 專場」將開講,兩位專家將分別以《AI 驅動下的新能源材料研究與發現》、《NVIDIA Modulus 加速 AI 驅動的材料計算》為主題進行直播講解,歡迎掃名~導讀本文轉載知乎,是張俊林對“LLM(大語言模型)無法對數字進行準確運算的底層原因是什么?”這一問題做的回答。近期大模型無確回答9.11和9.9哪個大成為熱點,轉載此文主要是傳遞來自技術專家的理性分析。
原文來自https://www.zhihu.com/question/654932431,出于技術分享轉載此文,侵權聯系刪除。“LLM能通向AGI”這一觀點的反對者經常提這個問題:你們整天吹LLM會達到AGI,可為啥大模型連最簡單的“多位數加法”都做不好?這質疑對很多AGI信奉者來說是很扎心的,不好反駁,因為大模型做多位數加法這種簡單數學確實有困難。不過,目前基本已能理清其主要原因,大部分也獲得了解決,我歸納了下,有如下幾點:
01其一,LLM的 Tokenizer對數字切分問題早期LLM的Tokenizer一般不會對數字進行
原文鏈接:張俊林:大語言模型無法對數字進行準確運算的主要原因
聯系作者
文章來源:算法邦
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...