人工智能紅隊(duì)測(cè)試為何會(huì)出錯(cuò)
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:人工智能紅隊(duì)測(cè)試為何會(huì)出錯(cuò)
關(guān)鍵字:人工智能,政策,測(cè)試,報(bào)告,模型
文章來(lái)源:人工智能學(xué)家
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
一種對(duì)抗性的網(wǎng)絡(luò)安全工具被過(guò)度用于保護(hù)人工智能安全。2024年2月,OpenAI宣布推出Sora,這是一款令人驚嘆的“文本轉(zhuǎn)視頻”工具。只需要輸入一個(gè)提示,Sora就能夠在幾秒鐘內(nèi)生成一段逼真的視頻。不過(guò),該工具并未立即向公眾開(kāi)放。據(jù)報(bào)道,推遲的部分原因是,該公司稱(chēng)OpenAI有一支名為“紅隊(duì)”的專(zhuān)家團(tuán)隊(duì),他們將深入調(diào)查該模型,了解其處理深度偽造視頻、錯(cuò)誤信息、偏見(jiàn)和仇恨內(nèi)容的能力。
雖然紅隊(duì)測(cè)試已被證明可用于網(wǎng)絡(luò)安全應(yīng)用,但作為一種軍事工具,其開(kāi)發(fā)者從未料想它會(huì)被部門(mén)廣泛采用。
紐約智庫(kù)Data & Society的政策主管布萊恩?陳(Brian Chen)說(shuō):“如果做得好,紅隊(duì)測(cè)試可以識(shí)別并幫助解決人工智能中的漏洞。但它不能縮短技術(shù)監(jiān)管在公益方面的結(jié)構(gòu)性差距。”
紅隊(duì)測(cè)試的做法最早源于《孫子兵法》中的軍事策略:“知己知彼,百戰(zhàn)不殆。”紅隊(duì)測(cè)試中,由扮演敵人(紅隊(duì))的角色發(fā)現(xiàn)藍(lán)隊(duì)(防守方)在防守過(guò)程中隱藏的漏洞,然后由藍(lán)隊(duì)創(chuàng)造性地思考如何修復(fù)漏洞。
這種做法起源于20世紀(jì)60年代的美國(guó)和軍事界,當(dāng)時(shí)被作為預(yù)測(cè)威脅的一種方式。如今,它被認(rèn)為是一種可信賴(lài)的網(wǎng)絡(luò)安全技術(shù),用于幫
原文鏈接:人工智能紅隊(duì)測(cè)試為何會(huì)出錯(cuò)
聯(lián)系作者
文章來(lái)源:人工智能學(xué)家
作者微信:AItists
作者簡(jiǎn)介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機(jī)構(gòu)