連續(xù)思維鏈:顛覆LLM推理的新紀元!
該研究可以通過梯度下降進行端到端的優(yōu)化,因為連續(xù)思維是完全可微的。
原標題:田淵棟團隊論文火了!連續(xù)思維鏈優(yōu)于CoT,打開LLM推理新范式
文章來源:機器之心
內容字數:9402字
提升LLM推理能力的新方法:Coconut
近年來,隨著大語言模型(LLM)和思維鏈(CoT)的發(fā)展,語言已成為機器推理的主要媒介。然而,研究者們提出,語言空間并非始終是推理的最佳選擇。為此,Meta和加州大學圣地亞哥分校的研究團隊提出了一種新方法——Coconut(連續(xù)思維鏈),旨在探索LLM在潛在空間中的推理能力。
1. Coconut方法概述
Coconut通過對傳統思維鏈的簡單修改,解放了推理過程。該方法直接將最后的隱藏狀態(tài)作為下一個token的輸入,而不再依賴語言token。這種方法使得推理過程完全可微,能夠通過梯度下降進行端到端優(yōu)化。
2. 實驗設計與數據集
研究團隊通過三個數據集驗證了Coconut方法的有效性,包括數學推理任務(GSM8k)和邏輯推理任務(ProntoQA與ProsQA)。在實驗中,團隊使用預訓練的GPT-2模型,并進行多階段的漸進式訓練,逐步增加模型的推理難度。
3. 結果與討論
實驗結果表明,Coconut顯著提高了LLM的推理能力,尤其在復雜的邏輯推理任務中表現優(yōu)于傳統的CoT方法。通過鏈式組合的連續(xù)思維,模型能夠在潛在空間中進行高效推理,進一步增強了其規(guī)劃能力。
4. 連續(xù)思維的優(yōu)勢
連續(xù)思維不僅能夠編碼多個潛在的下一個步驟,還能夠在推理過程中避免早期決策的困難。這種從發(fā)散到收斂的推理機制使得模型能夠更有效地處理復雜問題,并且在需要大量規(guī)劃的任務中表現出色。
5. 未來研究方向
盡管Coconut方法取得了顯著成果,但研究者們指出,模型仍需指導來學習潛在空間的推理。未來的研究可以進一步探索如何優(yōu)化這種連續(xù)思維的表示,以提升LLM在不同任務中的適應能力和推理效率。
總之,Coconut方法為提升大語言模型的推理能力提供了新的視角和方法,展現了潛在空間推理的巨大潛力。
聯系作者
文章來源:機器之心
作者微信:
作者簡介:專業(yè)的人工智能媒體和產業(yè)服務平臺