原標題:OpenAI最大秘密,竟被中國研究者?復旦等驚人揭秘o1路線圖
文章來源:新智元
內容字數:10851字
復旦大學等機構揭秘OpenAI o1模型:強化學習的AGI探索
近日,一篇來自復旦大學等機構的研究論文在AI社區引發熱議,該論文從強化學習的角度,深入分析了OpenAI神秘的o1和o3模型的潛在實現路線圖,并總結了現有的“開源版o1”項目。雖然論文并未聲稱“”了o1模型,但其對o1模型架構的深入分析,為理解這類新型推理模型提供了寶貴的見解。
o1模型:LLM與AlphaGo的結合
論文指出,o1這類推理模型可以被視為大型語言模型(LLM)和AlphaGo等模型的結合體。其工作流程包括三個階段:首先,利用互聯網數據進行預訓練,讓模型具備基本的語言理解能力;其次,引入強化學習方法,引導模型進行系統性思考;最后,模型通過搜索解決方案空間來尋找答案,并同時利用搜索結果改進自身模型。
四個關鍵部分:策略初始化、獎勵設計、搜索和學習
論文將o1模型的實現分解為四個關鍵部分:策略初始化、獎勵設計、搜索和學習。策略初始化旨在讓模型發展出類人推理行為,高效探索解決方案空間;獎勵設計則通過獎勵塑造或建模,為模型的學習和搜索過程提供有效的指導信號,包括結果獎勵和過程獎勵;搜索在訓練和測試階段都至關重要,通過增加計算資源可以獲得更優質的解決方案,并結合樹搜索和序列修正等方法;學習則主要通過強化學習來實現,避免了昂貴的數據標注成本,并有潛力超越人類表現。
“開源版o1”項目綜述
論文還總結了多個“開源版o1”項目,例如g1、Thinking Claude、Open-o1、o1 Journey、Open-Reasoner等。這些項目在策略初始化、獎勵設計、搜索和學習等方面采用了不同的方法,為研究者提供了寶貴的參考和借鑒。
策略初始化:預訓練、指令微調與類人推理
策略初始化包含預訓練、指令微調和類人推理行為的開發三個核心部分。預訓練階段,模型學習基本的語言理解和推理能力;指令微調階段,模型學習生成符合人類需求的響應;類人推理行為,如問題分析、任務分解、自我糾正等,則需要通過監督微調或精心設計的提示詞來激活。
獎勵設計:結果獎勵與過程獎勵
論文分析了結果獎勵和過程獎勵兩種獎勵設計方法。結果獎勵僅關注最終結果,而過程獎勵則對中間步驟也進行獎勵,后者更能有效引導模型學習復雜的推理過程。o1模型可能結合了多種獎勵設計方法,并可能從偏好數據或專家數據中學習獎勵信號。
搜索策略:樹搜索與序列修正
o1模型的搜索策略可能結合了樹搜索和序列修正兩種方法。樹搜索用于訓練階段,探索更廣泛的解決方案;序列修正則用于推理階段,通過迭代優化來提高效率。o1可能主要依賴內部指導來引導搜索過程。
學習方法:強化學習與行為克隆
o1模型的學習過程可能涉及一個搜索與學習的迭代過程,并結合了策略梯度方法(如PPO和DPO)和行為克隆等學習方法。論文也強調了研究LLM強化學習的Scaling Law的重要性。
總而言之,這篇論文為理解和復現OpenAI o1模型提供了重要的理論框架和實踐指導,為AGI研究開辟了新的方向。
聯系作者
文章來源:新智元
作者微信:
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。