AIGC動態歡迎閱讀
原標題:研究發現:人類過于信任AI了,即使在面對生死抉擇時
關鍵字:參與者,人工智能,機器人,智能,標記
文章來源:人工智能學家
內容字數:0字
內容摘要:
來源:學術頭條
在模擬的生死決策中,加州大學默塞德分校的一項研究表明,約有三分之二的人允許機器人在與他們意見相左時改變他們的決定——研究人員稱,這表現出人們對人工智能(AI)過度的信任,令人震驚。
盡管被告知人工智能機器的能力有限,并且提供的建議可能是錯誤的,人類參與者仍然允許機器人影響他們的判斷。實際上,這些所謂的建議都是隨機的。
相關研究論文以“Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”為題,已發表在科學期刊 Scientific Reports 上。
“作為一個社會,隨著人工智能技術的迅速發展,我們必須關注過度信任人工智能的潛在風險,”該論文的通訊作者、加州大學默塞德分校認知與信息科學系副教授 Colin Holbrook 說道。越來越多的研究表明,即使犯錯的后果可能十分嚴重,人們也傾向于過度信任人工智能。
Holbrook 說,我們需要的是保持一貫的懷疑態度。
“我們應該對人工智能持有健康的懷疑態度
原文鏈接:研究發現:人類過于信任AI了,即使在面對生死抉擇時
聯系作者
文章來源:人工智能學家
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...