AIGC動態歡迎閱讀
原標題:Google DeepMind 最新研究:搞定這三個任務?人類不行,AI 也不行
關鍵字:人類,任務,模型,語言,內容
文章來源:人工智能學家
內容字數:0字
內容摘要:
撰文 | 趙雅琦前言人工智能(AI)并非完美的推理者,即使是當前大熱的語言模型(LMs),也同樣會表現出與人類類似的錯誤傾向,尤其是出現顯著的“內容效應”(Content effects)——人們在處理與已有知識或信念相符的信息時,推理更加準確和自信,而在處理與這些知識或信念相悖的信息時,推理可能會出現偏差或錯誤。這一結論來自 Google DeepMind 團隊近期發表的一篇研究論文。人類存在兩種推理系統,“直覺系統”和“理性系統”,且在推理過程中容易受到已有知識和經驗的影響。例如,當面對合乎邏輯但不合常理的命題時,人們往往會錯誤地判定其無效。
有趣的是,該研究顯示,大型 Transformer 語言模型也可以表現出類似人類的這種行為,既可以展示出直覺性偏見,也可以在提示下表現出一致的邏輯推理。這意味著,語言模型也能模擬人類的雙系統行為,也會表現出“經驗主義”錯誤。在這項工作中,研究團隊對比了 LMs 和人類分別在自然語言推斷(NLI)、判斷三段論(Syllogisms)的邏輯有效性和 Wason 選擇任務三種推理任務上的表現。圖 | 三種推理任務操作內容結果發現,在三種推理任務中,
原文鏈接:Google DeepMind 最新研究:搞定這三個任務?人類不行,AI 也不行
聯系作者
文章來源:人工智能學家
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...