一文理解推理大模型-Understanding Reasoning LLMs
一文帶你理解現(xiàn)在推理大模型,以及DeepSeek R1的技術(shù)實(shí)現(xiàn)
原標(biāo)題:一文理解推理大模型-Understanding Reasoning LLMs
文章來源:智猩猩GenAI
內(nèi)容字?jǐn)?shù):9850字
理解推理大型語(yǔ)言模型
本文概述了Sebastian Raschka關(guān)于理解推理大型語(yǔ)言模型(LLMs)的博客文章。文章探討了推理模型的定義、優(yōu)缺點(diǎn),以及構(gòu)建和改進(jìn)它們的四種主要方法。文章還介紹了DeepSeek R1的訓(xùn)練方法,并分享了在低成本下訓(xùn)練推理模型的技巧。
1. 何謂“推理模型”?
文章首先澄清了“推理模型”這一模糊概念。作者將其定義為能夠回答需要復(fù)雜、多步驟生成并包含中間步驟的問題的模型。例如,“如果一列火車以每小時(shí)60英里的速度行駛3小時(shí),它能走多遠(yuǎn)?”就需要推理能力。與之相對(duì),“法國(guó)的首都是哪里?”則只需事實(shí)檢索。
大多數(shù)LLMs都具備基本的推理能力,但“推理模型”通常指在更復(fù)雜的推理任務(wù)(如解決謎題、謎語(yǔ)和數(shù)學(xué)證明)中表現(xiàn)出色的LLMs。這些模型通常會(huì)在回答中顯示其“思考”過程,這可以通過明確包含在回復(fù)中或通過多個(gè)內(nèi)部迭代實(shí)現(xiàn)。
2. 何時(shí)使用推理模型?
推理模型擅長(zhǎng)解決復(fù)雜任務(wù),例如解決謎題、高級(jí)數(shù)學(xué)問題和具有挑戰(zhàn)性的編程任務(wù)。然而,對(duì)于簡(jiǎn)單的任務(wù)(如摘要、翻譯或基于知識(shí)的問題回答),使用推理模型則效率低下且成本高昂。文章強(qiáng)調(diào)需要根據(jù)任務(wù)選擇合適的工具或LLM。
3. DeepSeek 訓(xùn)練流程概述
文章概述了DeepSeek發(fā)布的三個(gè)不同模型變體:DeepSeek-R1-Zero、DeepSeek-R1和DeepSeek-R1-Distill。DeepSeek-R1-Zero采用純強(qiáng)化學(xué)習(xí)(RL)訓(xùn)練,無(wú)需監(jiān)督微調(diào)(SFT);DeepSeek-R1則在DeepSeek-V3基礎(chǔ)上,先進(jìn)行SFT,再進(jìn)行RL訓(xùn)練;DeepSeek-R1-Distill則通過蒸餾技術(shù),在SFT數(shù)據(jù)上微調(diào)Qwen和Llama模型。
4. 四種構(gòu)建和改進(jìn)推理模型的方法
文章總結(jié)了四種增強(qiáng)LLMs推理能力的關(guān)鍵技術(shù):
- 推理時(shí)間擴(kuò)展:在推理時(shí)增加計(jì)算資源以提高輸出質(zhì)量,例如使用思維鏈(CoT)提示或投票和搜索策略。
- 純強(qiáng)化學(xué)習(xí):DeepSeek R1-Zero證明了僅使用RL即可訓(xùn)練出具備推理能力的模型,其獎(jiǎng)勵(lì)機(jī)制包括準(zhǔn)確性和格式獎(jiǎng)勵(lì)。
- 監(jiān)督微調(diào)和強(qiáng)化學(xué)習(xí):這是目前構(gòu)建高性能推理模型的主要方法,DeepSeek R1即采用了這種方法。
- 純監(jiān)督微調(diào)(SFT)和蒸餾:通過在大型LLMs生成的SFT數(shù)據(jù)集上微調(diào)較小的LLMs,可以創(chuàng)建更高效、成本更低的模型。
5. 對(duì)DeepSeek R1的思考
文章認(rèn)為DeepSeek R1是一個(gè)了不起的工作,其開源和高效性使其成為OpenAI的o1的一個(gè)有趣替代品。但直接比較兩者存在難度,因?yàn)镺penAI沒有公開o1的許多細(xì)節(jié)。
6. 在小成本下訓(xùn)練推理模型
文章指出,訓(xùn)練DeepSeek R1級(jí)別的模型成本高昂,但模型蒸餾提供了一種更具成本效益的替代方案。文章還介紹了Sky-T1和TinyZero兩個(gè)項(xiàng)目,分別展示了在低成本下通過SFT和純RL訓(xùn)練推理模型的可行性。
7. 總結(jié)
文章總結(jié)了當(dāng)前推理模型領(lǐng)域的前沿技術(shù),并展望了未來發(fā)展方向,例如“旅程學(xué)習(xí)”方法,該方法通過讓模型學(xué)習(xí)錯(cuò)誤的解決路徑來提高模型的推理能力和魯棒性。
聯(lián)系作者
文章來源:智猩猩GenAI
作者微信:
作者簡(jiǎn)介:智猩猩旗下賬號(hào),專注于生成式人工智能,主要分享技術(shù)文章、論文成果與產(chǎn)品信息。