AIGC動態歡迎閱讀
內容摘要:
一種對抗性的網絡安全工具被過度用于保護人工智能安全。2024年2月,OpenAI宣布推出Sora,這是一款令人驚嘆的“文本轉視頻”工具。只需要輸入一個提示,Sora就能夠在幾秒鐘內生成一段逼真的視頻。不過,該工具并未立即向公眾開放。據報道,推遲的部分原因是,該公司稱OpenAI有一支名為“紅隊”的專家團隊,他們將深入調查該模型,了解其處理深度偽造視頻、錯誤信息、偏見和仇恨內容的能力。
雖然紅隊測試已被證明可用于網絡安全應用,但作為一種軍事工具,其開發者從未料想它會被部門廣泛采用。
紐約智庫Data & Society的政策主管布萊恩?陳(Brian Chen)說:“如果做得好,紅隊測試可以識別并幫助解決人工智能中的漏洞。但它不能縮短技術監管在公益方面的結構性差距。”
紅隊測試的做法最早源于《孫子兵法》中的軍事策略:“知己知彼,百戰不殆。”紅隊測試中,由扮演敵人(紅隊)的角色發現藍隊(防守方)在防守過程中隱藏的漏洞,然后由藍隊創造性地思考如何修復漏洞。
這種做法起源于20世紀60年代的美國和軍事界,當時被作為預測威脅的一種方式。如今,它被認為是一種可信賴的網絡安全技術,用于幫
原文鏈接:人工智能紅隊測試為何會出錯
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...