張俊林:大語言模型無法對數(shù)字進(jìn)行準(zhǔn)確運算的主要原因

AIGC動態(tài)歡迎閱讀
原標(biāo)題:張俊林:大語言模型無法對數(shù)字進(jìn)行準(zhǔn)確運算的主要原因
關(guān)鍵字:數(shù)字,加法,知乎,侵權(quán),報告
文章來源:算法邦
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
直播預(yù)告 | 7月23日14點,「智猩猩在線研討會 NVIDIA AI for Science 專場」將開講,兩位專家將分別以《AI 驅(qū)動下的新能源材料研究與發(fā)現(xiàn)》、《NVIDIA Modulus 加速 AI 驅(qū)動的材料計算》為主題進(jìn)行直播講解,歡迎掃名~導(dǎo)讀本文轉(zhuǎn)載知乎,是張俊林對“LLM(大語言模型)無法對數(shù)字進(jìn)行準(zhǔn)確運算的底層原因是什么?”這一問題做的回答。近期大模型無確回答9.11和9.9哪個大成為熱點,轉(zhuǎn)載此文主要是傳遞來自技術(shù)專家的理性分析。
原文來自https://www.zhihu.com/question/654932431,出于技術(shù)分享轉(zhuǎn)載此文,侵權(quán)聯(lián)系刪除。“LLM能通向AGI”這一觀點的反對者經(jīng)常提這個問題:你們整天吹LLM會達(dá)到AGI,可為啥大模型連最簡單的“多位數(shù)加法”都做不好?這質(zhì)疑對很多AGI信奉者來說是很扎心的,不好反駁,因為大模型做多位數(shù)加法這種簡單數(shù)學(xué)確實有困難。不過,目前基本已能理清其主要原因,大部分也獲得了解決,我歸納了下,有如下幾點:
01其一,LLM的 Tokenizer對數(shù)字切分問題早期LLM的Tokenizer一般不會對數(shù)字進(jìn)行
原文鏈接:張俊林:大語言模型無法對數(shù)字進(jìn)行準(zhǔn)確運算的主要原因
聯(lián)系作者
文章來源:算法邦
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號