AIGC動態歡迎閱讀
原標題:1個token終結LLM數字編碼難題!九大機構聯合發布xVal:訓練集沒有的數字也能預測!
文章來源:新智元
內容字數:11432字
內容摘要:新智元報道編輯:LRS【新智元導讀】LLM的文科腦終于理解數字空間是連續的了,只需一個特殊的[NUM]即可表征所有數字,不僅效率更高,泛化性能也更強!雖然大型語言模型(LLM)在文本分析和生成任務上的性能非常強大,但在面對包含數字的問題時,比如多位數乘法,由于模型內部缺乏統一且完善的數字分詞機制,會導致LLM無法理解數字的語義,從而胡編亂造答案。目前LLM還沒有廣泛應用于科學領域數據分析的一大阻礙…
原文鏈接:點此閱讀原文:1個token終結LLM數字編碼難題!九大機構聯合發布xVal:訓練集沒有的數字也能預測!
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...