AIGC動態歡迎閱讀
原標題:擊敗人類又怎樣?“超人”AI簡直不堪一擊?研究發現:ChatGPT等大模型也不行
關鍵字:報告,圍棋,對抗性,系統,機器人
文章來源:人工智能學家
內容字數:0字
內容摘要:
來源:學術頭條
撰文:田小婷前言當前,關于“超人”人工智能(superhuman artificial intelligence)的討論正變得愈發熱烈。然而,或許只需要一點點“對抗性攻擊”,那些可以輕松擊敗人類冠軍的 AI 系統(如 AlphaGo、KataGo 等),便會變得不堪一擊。而且,這種脆弱性不僅限于圍棋 AI,也可能擴展到 ChatGPT 等機器人背后的大語言模型。更關鍵的是,這一問題很難消除。日前,來自 FAR AI 和麻省理工學院(MIT)的研究團隊在一項研究中揭示了 AI 本身的這一脆弱性。他們表示,想要構建始終優于人類智能水平的、魯棒性很強的 AI 系統,可能比我們想象得要更加困難。相關研究論文以 “Can Go AIs be adversarially robust?” 為題,已發表在預印本網站arXiv上,尚未經過同行評審。
伊利諾伊大學計算機科學家 Huan Zhang 指出:“這篇論文為如何實現建立人們可以信任的、強大的真實世界 AI 智能體這一宏偉目標打了一個大大的問號?!盡IT 計算機科學家 Stephen Casper 也表示:“這項研究提供了一些
原文鏈接:擊敗人類又怎樣?“超人”AI簡直不堪一擊?研究發現:ChatGPT等大模型也不行
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...