AIGC動態歡迎閱讀
原標題:大模型邊推理邊糾錯,有可能做到嗎?這是ICML爆火的演講
關鍵字:錯誤,模型,數據,正確率,作者
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
即便是最強大的語言模型(LLM),仍會偶爾出現推理錯誤。除了通過提示詞讓模型進行不太可靠的多輪自我糾錯外,有沒有更系統的方法解決這一問題呢?
來自 Meta FAIR、CMU 和 MBZUAI 的葉添、徐子誠、李遠志、朱澤園團隊在最新的 arXiv 論文《語言模型物理學 Part 2.2:如何從錯誤中學習》中,通過可控實驗,探索了讓模型「邊推理邊糾錯」的可能性。
他們在預訓練中加入大量「錯誤的推理」和「錯誤的糾正」,展示了這類數據可以提高語言模型的推理準確性(無需提示詞,無需多輪對話)。文章還深入探討了許多細節,例如(1)這種方法與 beam search 的區別,(2)如何準備此類數據,(3)是否需要對錯誤進行掩碼,(4)所需的錯誤數量,(5)此類數據是否
原文鏈接:大模型邊推理邊糾錯,有可能做到嗎?這是ICML爆火的演講
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...