比GPT-4還強,20億參數(shù)模型做算術題,準確率幾乎100%
AIGC動態(tài)歡迎閱讀
原標題:比GPT-4還強,20億參數(shù)模型做算術題,準確率幾乎100%
關鍵字:算術,模型,報告,數(shù)據(jù),任務
文章來源:機器之心
內(nèi)容字數(shù):5109字
內(nèi)容摘要:機器之心報道編輯:陳萍、小舟語言模型做數(shù)學題,能力又升級了。當前,大型語言模型 (LLM) 在處理 NLP 領域的各種下游任務方面已經(jīng)表現(xiàn)出卓越的能力。特別是,GPT-4、ChatGPT 等開創(chuàng)性模型已經(jīng)接受了大量文本數(shù)據(jù)的訓練,使它們具備強大的文本理解和生成能力,能夠生成連貫且上下文相關的響應,在各種 NLP 任務中具有高度通用性。然而,LLM 在數(shù)學推理方面的性能卻不盡如人意。LLM 很難準確…
原文鏈接:點此閱讀原文:比GPT-4還強,20億參數(shù)模型做算術題,準確率幾乎100%
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務平臺
? 版權聲明
文章版權歸作者所有,未經(jīng)允許請勿轉載。
相關文章
暫無評論...