OpenAI超級對齊團(tuán)隊遺作:兩個大模型博弈一番,輸出更好懂了
AIGC動態(tài)歡迎閱讀
原標(biāo)題:OpenAI超級對齊團(tuán)隊遺作:兩個大模型博弈一番,輸出更好懂了
關(guān)鍵字:模型,答案,可讀性,團(tuán)隊,人類
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機(jī)器之心報道
機(jī)器之心編輯部如果 AI 模型給的答案一點也看不懂,你敢用嗎?隨著機(jī)器學(xué)習(xí)系統(tǒng)在更重要的領(lǐng)域得到應(yīng)用,證明為什么我們可以信任它們的輸出,并明確何時不應(yīng)信任它們,變得越來越重要。
獲得對復(fù)雜系統(tǒng)輸出結(jié)果信任的一個可行方法是,要求系統(tǒng)對其輸出產(chǎn)生一種解釋,這種解釋對人類或另一個受信任的系統(tǒng)來說是可讀的,即可以完全理解以至于任何可能的錯誤都可以被發(fā)現(xiàn)。例如,為了建立對司法系統(tǒng)的信任,我們要求法院提供清晰易讀的書面意見,解釋并支持其決策。
對于大型語言模型來說,我們也可以采用類似的方法。
不過,在采用這種方法時,確保語言模型生成的是易于理解的文本,這件事非常重要,尤其是在處理數(shù)學(xué)、編碼這樣的復(fù)雜任務(wù)時。
如下圖所示,你讓 AI 寫一個快速排序算法,AI 很快就寫出來了,而且答案很簡潔。但不會寫代碼的你要怎么判斷 AI 寫得對不對呢?OpenAI 在一篇最新的論文中研究了這個問題。論文標(biāo)題:PROVER-VERIFIER GAMES IMPROVE LEGIBILITY OF LLM OUTPUTS
論文鏈接:https://cdn.openai.com/prover-verifi
原文鏈接:OpenAI超級對齊團(tuán)隊遺作:兩個大模型博弈一番,輸出更好懂了
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:
作者簡介: