AIGC動態歡迎閱讀
原標題:深挖RLHF潛力,復旦語言和視覺團隊創新獎勵模型優化,讓大模型更對齊
關鍵字:報告,模型,復旦,數據,團隊
文章來源:機器之心
內容字數:15856字
內容摘要:
機器之心專欄
機器之心編輯部繼第一份大模型對齊技術報告(Secrets of RLHF in Large Language Models Part I)獲 NeurIPS 2023 workshop best paper 后,第二份報告強勢歸來,復旦語言和視覺團隊聯合推出的第二份報告將進入這一領域更深層的探索和優化之旅。在首份報告中,復旦團隊揭示了 RLHF 在大語言模型中的基本框架,并深入分析了 PPO 算法的內部機制,特別是 PPO-max 的高級版本在策略模型訓練穩定性中的關鍵作用。
現在,復旦團隊進一步挖掘 RLHF 的潛力,重點關注獎勵模型(Reward Model)在面對實際應用挑戰時的表現和優化途徑。Secrets of RLHF in Large Language Models Part I: PPO 論文鏈接:https://arxiv.org/pdf/2307.04964.pdf
Secrets of RLHF in Large Language Models Part II: Reward Modeling 論文鏈接:https://arxiv.org/abs/2
原文鏈接:深挖RLHF潛力,復旦語言和視覺團隊創新獎勵模型優化,讓大模型更對齊
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...