AI慢思考蒸餾進(jìn)快思考,Llama2躍升至GPT-4水平,不寫過程也能做對題
AIGC動態(tài)歡迎閱讀
原標(biāo)題:AI慢思考蒸餾進(jìn)快思考,Llama2躍升至GPT-4水平,不寫過程也能做對題
關(guān)鍵字:系統(tǒng),模型,數(shù)據(jù),任務(wù),方法
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAI《思考快與慢》中人類的兩種思考方式,屬實是被Meta給玩明白了。
研究人員通過把AI的“慢思考”結(jié)果蒸餾進(jìn)“快思考”,讓Llama2表現(xiàn)提升了257%,變得比GPT4還能打,同時還能降低推理成本。
這里的快慢兩種思考方式,指的就是2002年諾貝爾經(jīng)濟學(xué)獎得主丹尼爾·卡尼曼推廣的系統(tǒng)1和系統(tǒng)2——
簡單說,系統(tǒng)1是簡單無意識的直覺,速度更快;系統(tǒng)2則是復(fù)雜有意識的推理,準(zhǔn)確性更強。
Meta所做的“蒸餾”,就是用系統(tǒng)2生成數(shù)據(jù),然后對用系統(tǒng)1推理的模型進(jìn)行微調(diào)。
有網(wǎng)友看了后表示,這種模式和人類很像,一旦解決了一個難題,再解決(相似的問題)就變得簡單了。
將系統(tǒng)2蒸餾到系統(tǒng)1對于大模型而言,模仿人類的“系統(tǒng)2”的方式有很多種,在模型中所處的環(huán)節(jié)也不盡相同,這里作者一共研究了四種:
CoT,即Chain of Thought,思維鏈,從提示詞入手讓模型逐步思考;
S2A,即System 2 Attention,由Meta自己提出,直接修改了模型的注意力機制,屏蔽與任務(wù)無關(guān)的信息;
RaR,即Rephase and Respond,先對問題
原文鏈接:AI慢思考蒸餾進(jìn)快思考,Llama2躍升至GPT-4水平,不寫過程也能做對題
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破