擊敗人類又怎樣?“超人”AI簡(jiǎn)直不堪一擊?研究發(fā)現(xiàn):ChatGPT等大模型也不行

AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:擊敗人類又怎樣?“超人”AI簡(jiǎn)直不堪一擊?研究發(fā)現(xiàn):ChatGPT等大模型也不行
關(guān)鍵字:報(bào)告,圍棋,對(duì)抗性,系統(tǒng),機(jī)器人
文章來(lái)源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
來(lái)源:學(xué)術(shù)頭條
撰文:田小婷前言當(dāng)前,關(guān)于“超人”人工智能(superhuman artificial intelligence)的討論正變得愈發(fā)熱烈。然而,或許只需要一點(diǎn)點(diǎn)“對(duì)抗性攻擊”,那些可以輕松擊敗人類冠軍的 AI 系統(tǒng)(如 AlphaGo、KataGo 等),便會(huì)變得不堪一擊。而且,這種脆弱性不僅限于圍棋 AI,也可能擴(kuò)展到 ChatGPT 等機(jī)器人背后的大語(yǔ)言模型。更關(guān)鍵的是,這一問題很難消除。日前,來(lái)自 FAR AI 和麻省理工學(xué)院(MIT)的研究團(tuán)隊(duì)在一項(xiàng)研究中揭示了 AI 本身的這一脆弱性。他們表示,想要構(gòu)建始終優(yōu)于人類智能水平的、魯棒性很強(qiáng)的 AI 系統(tǒng),可能比我們想象得要更加困難。相關(guān)研究論文以 “Can Go AIs be adversarially robust?” 為題,已發(fā)表在預(yù)印本網(wǎng)站arXiv上,尚未經(jīng)過同行評(píng)審。
伊利諾伊大學(xué)計(jì)算機(jī)科學(xué)家 Huan Zhang 指出:“這篇論文為如何實(shí)現(xiàn)建立人們可以信任的、強(qiáng)大的真實(shí)世界 AI 智能體這一宏偉目標(biāo)打了一個(gè)大大的問號(hào)。”MIT 計(jì)算機(jī)科學(xué)家 Stephen Casper 也表示:“這項(xiàng)研究提供了一些
原文鏈接:擊敗人類又怎樣?“超人”AI簡(jiǎn)直不堪一擊?研究發(fā)現(xiàn):ChatGPT等大模型也不行
聯(lián)系作者
文章來(lái)源:人工智能學(xué)家
作者微信:AItists
作者簡(jiǎn)介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)

粵公網(wǎng)安備 44011502001135號(hào)