今日arXiv最熱NLP大模型論文:無需提示也能推理!Google DeepMind新研究揭示AI內(nèi)在推理能力
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:今日arXiv最熱NLP大模型論文:無需提示也能推理!Google DeepMind新研究揭示AI內(nèi)在推理能力
關(guān)鍵字:模型,路徑,提示,任務(wù),能力
文章來源:夕小瑤科技說
內(nèi)容字?jǐn)?shù):9534字
內(nèi)容摘要:
夕小瑤科技說 原創(chuàng)作者 | 松果、Python引言:探索無需特定提示的LLM推理能力在人工智能領(lǐng)域,大語言模型(LLMs)已經(jīng)在各種復(fù)雜的推理基準(zhǔn)測(cè)試中展現(xiàn)出了令人矚目的性能。傳統(tǒng)上,這些推理能力是通過精心設(shè)計(jì)的提示技術(shù)來激發(fā)的,例如少量示例提示(few-shot prompting)或零示例提示(zero-shot prompting)。然而,這些方法往往涉及到手動(dòng)密集的提示工程,限制了它們?cè)诓煌蝿?wù)中的通用性。
本項(xiàng)工作探索了一個(gè)不同的視角,提出了一個(gè)關(guān)鍵的問題:LLMs能否在沒有特定提示的情況下有效地進(jìn)行推理?研究發(fā)現(xiàn)一令人驚訝的結(jié)果,通過簡(jiǎn)單地改變解碼過程,可以從預(yù)訓(xùn)練的LLMs中自然地激發(fā)出鏈?zhǔn)酵评恚–oT)路徑。這種解碼修改繞過了CoT提示,并且是完全無監(jiān)督的,不需要模型調(diào)整。
研究還揭示了預(yù)訓(xùn)練語言模型固有的推理能力,這一發(fā)現(xiàn)與之前側(cè)重于改進(jìn)提示以促進(jìn)推理的研究形成了鮮明對(duì)比。研究發(fā)現(xiàn),當(dāng)模型在其解碼路徑中存在CoT時(shí),對(duì)其最終答案的信心增加。利用這種增加的信心,研究者提出了CoT解碼方法,以選擇更可靠的解碼路徑,從而在各種推理基準(zhǔn)測(cè)試中顯著提高了模型性能。
實(shí)驗(yàn)結(jié)果表明
原文鏈接:今日arXiv最熱NLP大模型論文:無需提示也能推理!Google DeepMind新研究揭示AI內(nèi)在推理能力
聯(lián)系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡(jiǎn)介:更快的AI前沿,更深的行業(yè)洞見。聚集25萬AI一線開發(fā)者、互聯(lián)網(wǎng)中高管和機(jī)構(gòu)投資人。一線作者來自清北、國內(nèi)外頂級(jí)AI實(shí)驗(yàn)室和大廠,兼?zhèn)湫袠I(yè)嗅覺與報(bào)道深度。