<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        突破!自然語言強化學習(NLRL):一個可處理語言反饋的強化學習框架

        AIGC動態5個月前發布 機器之心
        465 0 0

        AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本論文由倫敦大學學院、上海交通大學、布朗大學、布里斯托大學、新加坡國立大學以及薩里大學的研究者合作完成。馮熙棟是論文第一作者,即將畢業于倫敦大學學院。目前是Google DeepMind的Research Scientist,主要研究方向包括強化學習與生成模型。劉博是本推文作者,新加坡國立大學二年級博士生,研究強化學習、推理及機器學習系統在復雜現實環境中的應用。在人工智能發展史上,強化學習 (RL) 憑借其嚴謹的數學框架解決了眾多復雜的決策問題,從圍棋、國際象棋到機器人控制等領域都取得了突破性進展。然而,隨著應用場景日益復雜,傳統強化學習過度依賴單一數值獎勵的局限性日益凸顯。在現實世界中,反饋信號往往是多維度、多模態的,例如教練的口頭指導、視覺示范,或是詳細的文字說明。來自倫敦大學學院、上海交通大學、布朗大學、新加坡國立大學和布里斯托大學的聯合研究團隊提出了全新的自然語言強化學習(Natural Language Reinforcement Learning, NLRL)范式,成功將強化學習的核心概念類比為基于自然語言的形式,開辟了一條通向更智能、更自然的 AI 決策學習的新道路。論文題目: Natural Language Reinforcement Learning論文鏈接: https://arxiv.org/abs/2411.14251代碼鏈接: https://github.com/waterhorse1/Natural-language-RL從數值到語言:新范式的萌芽隨著大語言模型(LLM)在理解和生成自然語言方面的飛速發展,研究者們開始探索如何讓 AI 系統像人類一樣通過語言來理解任務、制定策略并解釋決策過程。論文第一作者的早期工作 ChessGPT(https://arxiv.org/abs/2306.09200)嘗試通過收集對局評論來訓練語言模型并取得了一定成功。然而,這種基于人類數據的學習方式很快遇到了瓶頸:互聯網數據質量參差不齊,高質量專家標注成本高昂,而對于全新任務更是無從獲取相關經驗數據。這種困境促使研究團隊開始探索一個更具突破性的方向:能否設計一個框架,讓 AI 系統完全通過與環境的交互來學習,而不依賴任何人類標注數據?傳統強化學習為這個問題提供了靈感,但其單一數值獎勵的機制難以滿足復雜場景的需求。團隊意識到需要一個新范式,既要繼承強化學習的數學嚴謹性,又要具備自然語言的表達豐富性。這個思路最終導向了 NLRL 的誕生。自然語言強化學習傳統強化學習雖然在數學上嚴謹優雅,但其單一數值反饋機制與人類學習方式存在巨大差距。研究團隊從象棋教練指導學生的場景獲得啟發:教練不會簡單說 “這步棋的價值是 0.7”,而是會詳細解釋 “這個走法控制了中心,限制了對手的機動性,同時為王翼進攻創造了條件”。這種觀察促使團隊思考:能否將豐富的語言反饋信號整合進學習框架?這個思路的關鍵突破來自對傳統強化學習本質的重新思考:既然傳統 RL 可以通過蒙特卡洛和時序差分等方法進行學習,這些方法是否可以擴展到語言空間?基于這一洞察,團隊提出了 NLRL 框架,將傳統 RL 中的數學概念類比為語言形式。以下是一個對應關系示意圖。具體而言,NLRL 引入 “語言任務指令”(T_L)替代抽象的獎勵函數,并設計了度量函數 F 來評估軌跡描述 D_L (τ_π) 與任務指令的完成度。語言化的決策框架在 NLRL 中,MDP 的每個組成部分都被重新定義為文本形式。狀態變為包含完整上下文的自然語言描述,動作空間轉化為帶有推理過程的語言決策,而環境反饋則擴展為包含原因分析的詳細評估。例如,在迷宮環境中的狀態描述會包含位置、周圍環境、歷史探索等完整信息。語言策略與推理NLRL 中的策略 π_L 被創新性地分解為兩個部分:π_L (a,c|s) = π_L (c|s)π_L (a|c,s),其中 c 代表思維過程。這種分解使得決策過程變得完全透明。以國際象棋為例,系統會先分析局勢(“白方控制中心點,黑方王翼薄弱”),提出計劃(“開展王翼進攻,同時固守中心”),最后給出具體建議(“Nf3-e5,威脅 f7 并加強中心控制”)。語言價值評估NLRL 將傳統的標量值函數 V (s) 和 Q (s,a) 擴展為語言價值函數 V^L_π 和 Q^L_π。這種擴展使得評估變得更加豐富和可解釋。評估結果不僅包含勝率,還涵蓋空間利用、子力配合等多個角度的分析,并提供具體的改進建議。從理論到實踐將強化學習的數學概念轉化為語言形式是一個優雅的構想,但如何在實踐中實現這種轉化卻是一個巨大的挑戰。研究團隊意識到,近年來大語言模型在自然語言處理和推理能力方面的突破,為 NLRL 的實現提供了關鍵工具。通過深入研究大語言模型的能力邊界,團隊發現 LLM 不僅能夠理解和生成自然語言,還具備 information synthesis(信息綜合)、reasoning(推理)和 correlation analysis(相關性分析)等能力,這些能力恰好對應了傳統強化學習中的期望計算、價值估計和策略改進等核心操作。基于這一洞察,研究團隊提出了三個關鍵技術創新,構建了完整的 NLRL 實現框架:語言蒙特卡洛估計在傳統強化學習中,蒙特卡洛方法通過采樣多條軌跡并取平均值來估計狀態價值。但在語言空間中,我們無法直接對文本描述進行算術平均。研究團隊利用大語言模型作為信息聚合器 (aggregator)。具體來說,當系統需要評估某個狀態時,它會:1. 從該狀態開始采樣 K 條完整軌跡2. 將每條軌跡轉化為詳細的文本描述3. 使用專門設計的提示讓 LLM 扮演 “專家評估員” 的角色4.LLM 分析所有軌跡描述,提取關鍵模式和見解5. 生成一個綜合性的評估報告例如,在國際象棋中,系統可能會分析說:“基于觀察到的 20 個可能發展,此位置對白方有利。在 80% 的變化中,白方能夠通過控制中心格和針對 f7 的戰術威脅獲得優勢。但需要注意的是,如果黑方成功完成王翼城堡,局勢可能趨于平衡。”語言時序差分學習傳統的時序差分學習基于貝爾曼方程,將長期價值分解為即時獎勵和未來狀態的折扣價值。NLRL 創新性地提出了語言貝爾曼方程,將這種時序關系擴展到語言空間。在 NLRL 中,語言時序差分學習包含三個關鍵組件:1. 文本描述生成器 d:將狀態轉換 (s,a,r,s’) 轉化為自然語言描述2. 信息聚合函數 G1:綜合多個時間步的信息3. 語言組合函數 G2:將即時反饋與未來評估結合這三個組件協同工作的方式如下:首先,d 將環境反饋轉化為詳細的文本描述,包括采取的動作、即時反饋和到達的新狀態G2(通常是一個經過特殊提示的 LLM)將即時描述與對未來狀態的語言評估結合,生成一個整體性的分析G1 聚合多個這樣的分析,得出最終的狀態評估在實踐中,這種方法表現出了獨特的優勢:可以捕捉到難以量化的微妙因素評估結果具有很強的可解釋性能夠處理長期依賴關系語言策略提升在傳統強化學習中,策略提升通常通過梯度上升來最大化期望回報。但在語言空間中,我們需要一個全新的策略提升機制。研究團隊提出了基于語言相關性分析的策略提升方法。這種提升機制的工作原理是:1. 對當前狀態收集多個候選動作2. 獲取每個動作的語言價值評估3. 使用 LLM 分析這些評估與任務目標的相關性4. 生成改進的決策鏈路,包括:詳細的推理過程對不同選項的權衡分析最終決策的依據例如,在迷宮導航任務中,系統可能會這樣分析:“向右移動是最優選擇,因為:1)根據之前的探索經驗,右側路徑更可能通向目標 2)即使這條路不是最短路徑,也為我們保留了回退的選項 3)相比向上移動可能遇到的死胡同,這個選擇風險更小。”實驗驗證研究團隊在三個具有代表性的環境中系統地驗證了 NLRL 的效果。這些實驗不僅展示了 NLRL 的性能優勢,更重要的是證明了該框架在不同類型任務中的普適性和可擴展性。迷宮導航 – 基于 prompt 的自然語言策略迭代在復雜的迷宮導航任務中,研究團隊測試了純基于 prompt 的自然語言策略迭代算法。研究團隊選擇了兩種具有挑戰性的迷宮環境進行測試:雙 T 型迷宮和中等復雜度迷宮。在這些環境中,智能體需要從隨機初始位置導航到目標位置,同時避免撞墻。通過語言 TD 估計,在雙 T 型迷宮中實現了 – 11.19±2.86 的平均獎勵,遠優于基線方法的 – 27.29±4.43。但 NLRL 真正的優勢不僅僅體現在數字上。系統能夠清晰地解釋每個決策的原因,例如:“選擇向南移動,因為:1)北邊是死胡同,我們之前已經探索過 2)南向路徑似乎更接近目標位置 3)即使這條路不是最優解,我們仍保留了向東撤退的選項。” 實驗還發現,增加變化數量和前瞻步數能進一步提升性能。 突破棋 (Breakthrough)- 自然語言價值函數在 5×5 突破棋(狀態空間達 10^8)這個幾乎沒有人類數據的任務中,NLRL 純依靠環境反饋訓練出了高質量的語言評估器。通過混合不同水平的 MCTS 策略數據構建訓練集,評估器達到了 0.85 的準確率,顯著超越 LLAMA-3.1-70b 的 0.61 以及 GPT-4o 的 0.58。更重要的是,這個評估器能提供專業級別的局勢分析。例如:“黑方略占優勢,原因有三:1)在 d4 和 e4 形成了穩固的雙兵鏈 2)白方右翼的兵形成了薄弱點 3)黑方的推進速度比白方快半步。建議白方通過 c3-c4 來爭奪中心控制權。”井字棋 – 自然語言 Actor-Critic在井字棋環境中,團隊實現了完整的語言 Actor-Critic 系統。通過動作選擇掩碼防止幻覺、經驗緩沖區解決遺忘問題、持續的迭代優化等創新,系統在隨機對手下實現 90% 以上勝率,面對確定性策略甚至能保持 100% 的勝率,同時保持決策過程的清晰可解釋性。?THE END轉載請聯系本公眾號獲得授權投稿或尋求報道:liyazhou@jiqizhixin.com

        閱讀原文
        ? 版權聲明
        Trae官網

        相關文章

        Trae官網

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 久久久青草青青亚洲国产免观| 亚洲国产成人VA在线观看| 亚洲av永久无码精品漫画| 巨胸喷奶水视频www免费视频| 亚洲精品专区在线观看| 免费无毒a网站在线观看| 亚洲成?v人片天堂网无码| 人妻免费久久久久久久了| 亚洲色欲久久久久综合网| 一级做a爱片特黄在线观看免费看| 精品亚洲一区二区三区在线观看| 国产精品玖玖美女张开腿让男人桶爽免费看| 亚洲AⅤ视频一区二区三区| 一级做受视频免费是看美女| 亚洲中文久久精品无码ww16| 免费在线看黄的网站| 亚洲日本国产精华液| 女性自慰aⅴ片高清免费| 国产亚洲精品2021自在线| 亚洲一区日韩高清中文字幕亚洲| 国产区在线免费观看| 老司机亚洲精品影院无码| 四虎永久在线观看免费网站网址| 亚洲熟妇无码一区二区三区| 国产免费131美女视频| 男女一进一出抽搐免费视频 | 亚洲Av高清一区二区三区| 在线观看人成视频免费| 一级毛片大全免费播放| 亚洲综合综合在线| 国产午夜免费福利红片| 日本免费人成网ww555在线| 亚洲av乱码一区二区三区香蕉 | 日韩亚洲国产二区| 中文字幕在线免费看线人| 亚洲黄色一级毛片| 国产一级淫片免费播放电影| 免费国产在线视频| 亚洲国产精品无码中文lv| 久久精品国产亚洲av四虎| 日本成人免费在线|