Google DeepMind 最新研究:搞定這三個(gè)任務(wù)?人類不行,AI 也不行
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:Google DeepMind 最新研究:搞定這三個(gè)任務(wù)?人類不行,AI 也不行
關(guān)鍵字:人類,任務(wù),模型,語(yǔ)言,內(nèi)容
文章來(lái)源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
撰文 | 趙雅琦前言人工智能(AI)并非完美的推理者,即使是當(dāng)前大熱的語(yǔ)言模型(LMs),也同樣會(huì)表現(xiàn)出與人類類似的錯(cuò)誤傾向,尤其是出現(xiàn)顯著的“內(nèi)容效應(yīng)”(Content effects)——人們?cè)谔幚砼c已有知識(shí)或信念相符的信息時(shí),推理更加準(zhǔn)確和自信,而在處理與這些知識(shí)或信念相悖的信息時(shí),推理可能會(huì)出現(xiàn)偏差或錯(cuò)誤。這一結(jié)論來(lái)自 Google DeepMind 團(tuán)隊(duì)近期發(fā)表的一篇研究論文。人類存在兩種推理系統(tǒng),“直覺(jué)系統(tǒng)”和“理性系統(tǒng)”,且在推理過(guò)程中容易受到已有知識(shí)和經(jīng)驗(yàn)的影響。例如,當(dāng)面對(duì)合乎邏輯但不合常理的命題時(shí),人們往往會(huì)錯(cuò)誤地判定其無(wú)效。
有趣的是,該研究顯示,大型 Transformer 語(yǔ)言模型也可以表現(xiàn)出類似人類的這種行為,既可以展示出直覺(jué)性偏見(jiàn),也可以在提示下表現(xiàn)出一致的邏輯推理。這意味著,語(yǔ)言模型也能模擬人類的雙系統(tǒng)行為,也會(huì)表現(xiàn)出“經(jīng)驗(yàn)主義”錯(cuò)誤。在這項(xiàng)工作中,研究團(tuán)隊(duì)對(duì)比了 LMs 和人類分別在自然語(yǔ)言推斷(NLI)、判斷三段論(Syllogisms)的邏輯有效性和 Wason 選擇任務(wù)三種推理任務(wù)上的表現(xiàn)。圖 | 三種推理任務(wù)操作內(nèi)容結(jié)果發(fā)現(xiàn),在三種推理任務(wù)中,
原文鏈接:Google DeepMind 最新研究:搞定這三個(gè)任務(wù)?人類不行,AI 也不行
聯(lián)系作者
文章來(lái)源:人工智能學(xué)家
作者微信:
作者簡(jiǎn)介: