o1突發(fā)曝光?谷歌8月論文已揭示原理,大模型光有軟件不存在護(hù)城河
AIGC動態(tài)歡迎閱讀
原標(biāo)題:o1突發(fā)曝光?谷歌8月論文已揭示原理,大模型光有軟件不存在護(hù)城河
關(guān)鍵字:模型,護(hù)城河,策略,測試,效果
文章來源:量子位
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
明敏 發(fā)自 凹非寺量子位 | 公眾號 QbitAI發(fā)布不到1周,OpenAI最強(qiáng)模型o1的護(hù)城河已經(jīng)沒有了。
有人發(fā)現(xiàn),谷歌DeepMind一篇發(fā)表在8月的論文,揭示原理和o1的工作方式幾乎一致。
這項(xiàng)研究表明,增加測試時(shí)(test-time)計(jì)算比擴(kuò)展模型參數(shù)更有效。
基于論文提出的計(jì)算最優(yōu)(compute-optimal)測試時(shí)計(jì)算擴(kuò)展策略,規(guī)模較小的基礎(chǔ)模型在一些任務(wù)上可以超越一個(gè)14倍大的模型。
網(wǎng)友表示:
這幾乎就是o1的原理啊。
眾所周知,奧特曼喜歡領(lǐng)先于谷歌,所以這才是o1搶先發(fā)preview版的原因?
有人由此感慨:
確實(shí)正如谷歌自己所說的,沒有人護(hù)城河,也永遠(yuǎn)不會有人有護(hù)城河。
就在剛剛,OpenAI將o1-mini的速度提高7倍,每天都能使用50條;o1-preview則提到每周50條。
計(jì)算量節(jié)省4倍谷歌DeepMind這篇論文的題目是:優(yōu)化LLM測試時(shí)計(jì)算比擴(kuò)大模型參數(shù)規(guī)模更高效。
研究團(tuán)隊(duì)從人類的思考模式延伸,既然人面對復(fù)雜問題時(shí)會用更長時(shí)間思考改善決策,那么LLM是不是也能如此?
換言之,面對一個(gè)復(fù)雜任務(wù)時(shí),是否能讓LLM更有效利用測試時(shí)的額外計(jì)算以提高準(zhǔn)確
原文鏈接:o1突發(fā)曝光?谷歌8月論文已揭示原理,大模型光有軟件不存在護(hù)城河
聯(lián)系作者
文章來源:量子位
作者微信:
作者簡介: