以圖靈機為師:通過微調(diào)訓(xùn)練讓大語言模型懂執(zhí)行計算過程

AIGC動態(tài)歡迎閱讀
原標(biāo)題:以圖靈機為師:通過微調(diào)訓(xùn)練讓大語言模型懂執(zhí)行計算過程
關(guān)鍵字:算術(shù),圖靈機,累加器,加法,模型
文章來源:機器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
本文來自學(xué)計算機學(xué)院軟件研究所,聚焦于開放環(huán)境下的智能軟件新技術(shù)研究,定位國際學(xué)術(shù)前沿,面向國家關(guān)鍵需求,承擔(dān)了一系列國家科技部和基金委重大/重點科研項目。團(tuán)隊擁有包括中科院院士等多名國家級人才,重點關(guān)注軟件和智能方向,研究成果發(fā)表于NeurIPS/ICLR/SOSP/ATC/EuroSys/OOPSLA/PLDI/ICSE/FSE等國際頂級會議,其中多篇文章獲得相應(yīng)會議的最佳論文獎。
大型語言模型 (LLM) 在各種自然語言處理和推理任務(wù)中表現(xiàn)出卓越的能力,某些應(yīng)用場景甚至超越了人類的表現(xiàn)。然而,這類模型在最基礎(chǔ)的算術(shù)問題的表現(xiàn)上卻不盡如人意。當(dāng)遇到算術(shù)問題時,LLM 通常依賴記住特定的表達(dá)式及其對應(yīng)結(jié)果的方式輸出算術(shù)問題的結(jié)果。通過簡單的實驗發(fā)現(xiàn),
原文鏈接:以圖靈機為師:通過微調(diào)訓(xùn)練讓大語言模型懂執(zhí)行計算過程
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介:

粵公網(wǎng)安備 44011502001135號