<span id="3dn8r"></span>
    1. <span id="3dn8r"><optgroup id="3dn8r"></optgroup></span><li id="3dn8r"><meter id="3dn8r"></meter></li>

        如何基于 OpenRLHF 定制內部 RFT 訓練框架

        AIGC動態5個月前發布 智猩猩GenAI
        878 0 0

        在這里做一個簡單的code walkthroug,以release的0.5.3版本為基準。

        如何基于 OpenRLHF 定制內部 RFT 訓練框架

        原標題:如何基于 OpenRLHF 定制內部 RFT 訓練框架
        文章來源:智猩猩GenAI
        內容字數:3218字

        第四屆全球自動駕駛峰會及OpenRLHF框架解讀

        本文首先簡要介紹了將于1月14日在北京舉辦的第四屆全球自動駕駛峰會,并列舉了部分已確認參會的嘉賓及峰會日程安排。隨后,文章重點關注如何將強化學習融入AI訓練框架,特別是針對LLM+RL的訓練。

        強化學習在AI訓練框架中的挑戰

        1. **多模型協調與通信:** RL算法(如PPO、Reinforce)通常涉及多個模型間的協作,其通信方式與傳統的預訓練/微調(pretrain/SFT)中的MPI集合通信有所不同,增加了實現難度。

        2. **參數調優的復雜性:** RL算法參數眾多,對精度要求高,缺乏RL經驗的工程師難以判斷訓練失敗是框架問題還是超參數問題。

        OpenRLHF框架的優勢及推薦

        文章推薦使用OpenRLHF框架進行LLM+RL訓練,并闡述了其優勢:

        1. **基于Ray的多模型調度:** 支持任意擴展每個模型的GPU數量,提高可擴展性。

        2. **模塊化設計:** 訓練和推理模塊分離,方便替換和定制。

        3. **高可靠性和優秀的默認超參數:** 經過大量驗證,默認超參數表現出色,減少了調參的工作量。

        4. **輕量級和易讀性:** 代碼簡潔易懂,方便二次開發。

        5. **功能全面:** 支持主流的LLM+RL算法(PPO、Reinforce)以及關鍵優化功能,例如打包樣本(packing samples)。

        文章建議將現有RL訓練框架中的LLM部分替換成自己的框架,并復用OpenRLHF的多模型調度機制,從而實現事半功倍的效果。

        OpenRLHF框架代碼解讀

        文章對OpenRLHF框架的關鍵文件進行了簡要分析:

        1. openrlhf/cli/train_ppo_ray.py: 訓練入口,包含配置項和模型初始化。

        2. openrlhf/trainer/ppo_trainer.py: 包含PPO訓練的基本流程,包括rollout生成和模型訓練。

        3. openrlhf/trainer/ppo_utils/experience_maker.py: 生成rollout數據,包括調用VLLM和計算logprob、KL、reward等。

        4. openrlhf/trainer/ray/ppo_actor.py: Ray版本的PPOTrainer,包含通信同步邏輯。

        5. openrlhf/utils/deepspeed/deepspeed.py: 進行deepspeed初始化,需要替換deepspeed時需關注此文件。

        實現OpenAI RFT可能遇到的問題及解決方法

        文章還指出了在使用OpenRLHF實現OpenAI RFT時可能遇到的問題以及相應的解決方法:

        1. **Verifier接入:** 使用remote_rm_url接入Verifier,參考openrlhf/cli/serve_rm.py

        2. **數據多樣性:** 通過--n_samples_per_prompt參數設置每個問題采樣多個回答。

        3. **Critic模型缺失:** 使用--freezing_actor_steps預訓練Critic,或使用無需Critic的算法(Reinforce、RLOO)。

        4. **Reward后處理:** 在process_experiences方法中注冊自定義的處理方法。

        總而言之,文章推薦OpenRLHF框架作為LLM+RL訓練的理想選擇,并提供了詳細的代碼解讀和問題解決方法,方便工程師進行二次開發和應用。


        聯系作者

        文章來源:智猩猩GenAI
        作者微信:
        作者簡介:智猩猩旗下公眾號之一,深入關注大模型與AI智能體,及時搜羅生成式AI技術產品。

        閱讀原文
        ? 版權聲明
        Trae官網

        相關文章

        Trae官網

        暫無評論

        暫無評論...
        主站蜘蛛池模板: 羞羞网站免费观看| 性无码免费一区二区三区在线 | 在线观看永久免费视频网站| 亚洲今日精彩视频| 免费可以看黄的视频s色| 亚洲精品色在线网站| 在线免费观看视频你懂的| 国产精品视频全国免费观看| 国产成人精品亚洲精品| 日本黄网站动漫视频免费| 亚洲精品美女在线观看播放| 国产精品免费视频播放器| 美女视频黄的免费视频网页 | 国产男女猛烈无遮挡免费视频网站| 一级午夜a毛片免费视频| 亚洲伊人成无码综合网| 2021国内精品久久久久精免费| 亚洲第一se情网站| 亚洲黄色免费电影| 久久精品免费一区二区| 四虎精品免费永久免费视频| 亚洲永久中文字幕在线| 中文字幕亚洲无线码a| a级毛片100部免费观看| 亚洲国产成人无码AV在线影院| 亚洲∧v久久久无码精品| 四虎免费久久影院| 亚洲第一视频在线观看免费 | 99在线在线视频免费视频观看| 亚洲日本乱码一区二区在线二产线| 免费成人av电影| 中文字幕乱码系列免费| 亚洲av日韩专区在线观看| 久久久久亚洲精品无码网址 | 亚洲 日韩经典 中文字幕| 亚洲国产第一站精品蜜芽| 免费一级毛片无毒不卡| 九九久久精品国产免费看小说| 国产成人亚洲综合网站不卡| 亚洲福利电影在线观看| 亚洲精品乱码久久久久久久久久久久|