AIGC動態歡迎閱讀
原標題:谷歌DeepMind最新研究:對抗性攻擊對人類也有效,人類和AI都會把花瓶認成貓!
關鍵字:圖像,對抗性,人類,參與者,像素
文章來源:新智元
內容字數:7245字
內容摘要:
新智元報道編輯:alan
【新智元導讀】神經網絡由于自身的特點而容易受到對抗性攻擊,然而,谷歌DeepMind的最新研究表明,我們人類的判斷也會受到這種對抗性擾動的影響人類的神經網絡(大腦)和人工神經網絡(ANN)的關系是什么?
有位老師曾經這樣比喻:就像是老鼠和米老鼠的關系。
現實中的神經網絡功能強大,但與人類的感知、學習和理解方式完全不同。
比如ANN表現出人類感知中通常沒有的脆弱性,它們容易受到對抗性擾動的影響。
一個圖像,可能只需修改幾個像素點的值,或者添加一些噪聲數據,
從人類的角度,觀察不到區別,而對于圖像分類網絡,就會識別成完全無關的類別。
不過,谷歌DeepMind的最新研究表明,我們之前的這種看法可能是錯誤的!
即使是數字圖像的細微變化也會影響人類的感知。
換句話說,人類的判斷也會受到這種對抗性擾動的影響。
論文地址:https://www.nature.com/articles/s41467-023-40499-0
谷歌DeepMind的這篇文章發表在《自然通訊》(Nature Communications)。
論文探索了人類是否也可能在受控測試條件下,表現出對相
原文鏈接:谷歌DeepMind最新研究:對抗性攻擊對人類也有效,人類和AI都會把花瓶認成貓!
聯系作者
文章來源:新智元
作者微信:AI_era
作者簡介:智能+中國主平臺,致力于推動中國從互聯網+邁向智能+新紀元。重點關注人工智能、機器人等前沿領域發展,關注人機融合、人工智能和機器人對人類社會與文明進化的影響,領航中國新智能時代。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...