GPT-4 做「世界模型」,讓LLM從「錯題」中學(xué)習(xí),推理能力顯著提升
AIGC動態(tài)歡迎閱讀
原標(biāo)題:GPT-4 做「世界模型」,讓LLM從「錯題」中學(xué)習(xí),推理能力顯著提升
關(guān)鍵字:數(shù)據(jù),研究者,模型,錯誤,路徑
文章來源:機器之心
內(nèi)容字?jǐn)?shù):6057字
內(nèi)容摘要:機器之心報道編輯:蛋醬、杜偉從錯誤中學(xué)習(xí),不只是人類可以做到。近日有研究發(fā)現(xiàn),大模型其實也可以借鑒這種思路。這段時間,大語言模型在各種 NLP 任務(wù)中取得了重大進展,尤其是在需要復(fù)雜的思維鏈(CoT)推理的數(shù)學(xué)問題方面。比如在 GSM8K、MATH 這樣的高難度數(shù)學(xué)任務(wù)的數(shù)據(jù)集中,包括 GPT-4 和 PaLM-2 在內(nèi)的專有模型已取得顯著成果。在這方面,開源大模型還有相當(dāng)?shù)奶嵘臻g。為了進一步提…
原文鏈接:點此閱讀原文:GPT-4 做「世界模型」,讓LLM從「錯題」中學(xué)習(xí),推理能力顯著提升
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...