o1方法的推理能力無上限?LeCun怒懟:兩層網(wǎng)絡(luò)還可以萬能近似呢
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:o1方法的推理能力無上限?LeCun怒懟:兩層網(wǎng)絡(luò)還可以萬能近似呢
關(guān)鍵字:報(bào)告,問題,模型,序列,電路
文章來源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
來源:AI科技前沿
OpenAI的o1大模型一經(jīng)亮相,AI界便熱議如何復(fù)制其成果。OpenAI對技術(shù)細(xì)節(jié)嚴(yán)格保密,試圖從AI中獲取完整推理過程,稍有過問即遭警告。技術(shù)報(bào)告中也難以尋覓線索。
于是,研究者們轉(zhuǎn)向先前類似研究,試圖挖掘線索。例如,GoogleBrain推理團(tuán)隊(duì)創(chuàng)始人Denny Zhou在5月發(fā)布的論文《Chain of Thought Empowers Transformers
to Solve Inherently Serial Problems》,作者陣容強(qiáng)大,包括Denny
Zhou、斯隆獎(jiǎng)得主馬騰宇及他的兩位學(xué)生。
鏈接:https://arxiv.org/abs/2402.12875
Denny Zhou宣稱,通過讓Transformer生成充足的中間推理tokens,已證明其能解決所有問題,并賦予LLM推理無限潛能。論文核心在于展示思維鏈(CoT)極大增強(qiáng)了Transformer的表述能力,使其能應(yīng)對更復(fù)雜問題。
加入 CoT
單層的 Transformer 也能做復(fù)雜推理題
長久以來,尋求Transformer架構(gòu)突破的努力不斷。盡管Transfor
原文鏈接:o1方法的推理能力無上限?LeCun怒懟:兩層網(wǎng)絡(luò)還可以萬能近似呢
聯(lián)系作者
文章來源:人工智能學(xué)家
作者微信:
作者簡介: