
AIGC動態歡迎閱讀
原標題:OpenAI超級對齊團隊遺作:兩個大模型博弈一番,輸出更好懂了
關鍵字:模型,答案,可讀性,團隊,人類
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
機器之心編輯部如果 AI 模型給的答案一點也看不懂,你敢用嗎?隨著機器學習系統在更重要的領域得到應用,證明為什么我們可以信任它們的輸出,并明確何時不應信任它們,變得越來越重要。
獲得對復雜系統輸出結果信任的一個可行方法是,要求系統對其輸出產生一種解釋,這種解釋對人類或另一個受信任的系統來說是可讀的,即可以完全理解以至于任何可能的錯誤都可以被發現。例如,為了建立對司法系統的信任,我們要求法院提供清晰易讀的書面意見,解釋并支持其決策。
對于大型語言模型來說,我們也可以采用類似的方法。
不過,在采用這種方法時,確保語言模型生成的是易于理解的文本,這件事非常重要,尤其是在處理數學、編碼這樣的復雜任務時。
如下圖所示,你讓 AI 寫一個快速排序算法,AI 很快就寫出來了,而且答案很簡潔。但不會寫代碼的你要怎么判斷 AI 寫得對不對呢?OpenAI 在一篇最新的論文中研究了這個問題。論文標題:PROVER-VERIFIER GAMES IMPROVE LEGIBILITY OF LLM OUTPUTS
論文鏈接:https://cdn.openai.com/prover-verifi
原文鏈接:OpenAI超級對齊團隊遺作:兩個大模型博弈一番,輸出更好懂了
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...

粵公網安備 44011502001135號