簡單到嚇人。
原標題:CMU把具身智能的機器人給越獄了
文章來源:機器之心
內容字數:13270字
具身智能的越獄風險
隨著大型語言模型(LLM)的發展,具身智能(如機器人)同樣面臨越獄攻擊的風險。梅隆大學的研究人員了Unitree Go2機器狗,表明當具身智能被越獄時,可能會在現實世界中造成傷害。
科幻與現實的交匯
人工智能和機器人在科幻作品中的形象與現實中的技術進步形成鮮明對比。波士頓動力的Spot等機器人已經被多家公司部署,具備自主運行的能力。然而,這一切的進步也帶來了安全隱患。
大模型的安全隱患
許多研究表明,大型語言模型容易受到越獄攻擊,這些攻擊通過微小的提示修改來模型生成有害內容。越獄攻擊的風險不僅局限于文本生成,還可能擴展到控制機器人等物理實體的應用。
研究發現與攻擊分類
研究將針對LLM控制機器人的越獄攻擊分為白盒、灰盒和黑盒模型。針對黑盒模型的攻擊,研究人員設計了新的RoboPAIR方法,成功了多種類型的機器人,包括Unitree Go2和Clearpath Jackal。
攻擊結果與討論
實驗結果顯示,RoboPAIR方法在越獄攻擊中具有接近100%的成功率。這一發現使研究人員意識到,越獄攻擊不僅容易實現,而且可能導致嚴重后果,迫切需要開發相應的防御技術。
未來的安全需求
研究強調了對LLM控制機器人的安全性進行評估的重要性,并提出了在不同環境中實施嚴格物理約束的必要性。這一領域的合作和技術創新將是未來保證機器人安全的關鍵。
聯系作者
文章來源:機器之心
作者微信:
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...