AIGC動態歡迎閱讀
原標題:Anthropic安全負責人:在超級AI「毀滅」人類之前,我們可以做這些準備
關鍵字:風險,人工智能,模型,系統,階段
文章來源:機器之心
內容字數:0字
內容摘要:
機器之心報道
機器之心編輯部2023 年,Anthropic 發布了負責任擴展策略(Responsible Scaling Policy,RSP),這是一系列技術和組織協議,Anthropic 將采用這些協議來幫助他們管理開發功能日益強大的 AI 系統。Anthropic 認為,AI 模型一方面變得越來越強大,創造巨大的經濟和社會價值,另一方面也帶來了嚴重的風險。RSP 將專注于災難性風險 —— 即人工智能模型直接造成大規模破壞的風險。此類風險可能來自故意濫用模型(例如用它來制造生物武器),也可能來自模型以違背其設計者意圖的方式自主行動而造成破壞。
RSP 還定義了一個稱為 AI 安全等級 (ASL,AI Safety Levels) 的框架,ASL 等級越高,其安全性證明就越嚴格。ASL-1 指的是不構成重大災難風險的系統,例如 2018 年的 LLM 或只會下棋的 AI 系統。
ASL-2 指的是顯示出危險能力早期跡象的系統(例如能夠給出如何制造生物武器的指令),但這些信息由于可靠性不足或無法超越搜索引擎能提供的信息而沒有太多用處。包括 Claude 在內的當前 LLM 似
原文鏈接:Anthropic安全負責人:在超級AI「毀滅」人類之前,我們可以做這些準備
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...