張俊林:大語言模型無法對數(shù)字進(jìn)行準(zhǔn)確運(yùn)算的主要原因
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:張俊林:大語言模型無法對數(shù)字進(jìn)行準(zhǔn)確運(yùn)算的主要原因
關(guān)鍵字:數(shù)字,加法,知乎,侵權(quán),報(bào)告
文章來源:算法邦
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
直播預(yù)告 | 7月23日14點(diǎn),「智猩猩在線研討會(huì) NVIDIA AI for Science 專場」將開講,兩位專家將分別以《AI 驅(qū)動(dòng)下的新能源材料研究與發(fā)現(xiàn)》、《NVIDIA Modulus 加速 AI 驅(qū)動(dòng)的材料計(jì)算》為主題進(jìn)行直播講解,歡迎掃名~導(dǎo)讀本文轉(zhuǎn)載知乎,是張俊林對“LLM(大語言模型)無法對數(shù)字進(jìn)行準(zhǔn)確運(yùn)算的底層原因是什么?”這一問題做的回答。近期大模型無確回答9.11和9.9哪個(gè)大成為熱點(diǎn),轉(zhuǎn)載此文主要是傳遞來自技術(shù)專家的理性分析。
原文來自https://www.zhihu.com/question/654932431,出于技術(shù)分享轉(zhuǎn)載此文,侵權(quán)聯(lián)系刪除。“LLM能通向AGI”這一觀點(diǎn)的反對者經(jīng)常提這個(gè)問題:你們整天吹LLM會(huì)達(dá)到AGI,可為啥大模型連最簡單的“多位數(shù)加法”都做不好?這質(zhì)疑對很多AGI信奉者來說是很扎心的,不好反駁,因?yàn)榇竽P妥龆辔粩?shù)加法這種簡單數(shù)學(xué)確實(shí)有困難。不過,目前基本已能理清其主要原因,大部分也獲得了解決,我歸納了下,有如下幾點(diǎn):
01其一,LLM的 Tokenizer對數(shù)字切分問題早期LLM的Tokenizer一般不會(huì)對數(shù)字進(jìn)行
原文鏈接:張俊林:大語言模型無法對數(shù)字進(jìn)行準(zhǔn)確運(yùn)算的主要原因
聯(lián)系作者
文章來源:算法邦
作者微信:
作者簡介: