AIGC動態歡迎閱讀
原標題:劍橋大學:基于語音的大模型攻擊,輕松“操縱”多模態大模型
關鍵字:模型,語音,英語,轉錄,方法
文章來源:夕小瑤科技說
內容字數:0字
內容摘要:
夕小瑤科技說 原創作者 | Richard隨著人工智能技術的快速發展,基于語音的大模型正在成為一個熱門領域。這些模型不僅能實現語音識別,還可以執行翻譯等多種任務。然而,最近劍橋大學的研究人員發現了一個令人擔憂的安全隱患 —— 通過簡單的聲音操控,就可以輕松”操縱”這些多模態大模型的行為。
研究人員以OpenAI的Whisper模型為例,展示了如何通過在輸入音頻前添加一小段特制的聲音,就能迫使模型執行翻譯而非預設的轉錄任務。這種攻擊方法不需要接觸模型內部,而且具有普遍適用性,對不同語言都有效。
這項研究揭示了語音大模型面臨的新型安全威脅,同時也為我們敲響了警鐘:在部署這類靈活的多任務模型時需要更加謹慎,采取更嚴格的安全措施。接下來,讓我們深入了解這項有趣而又發人深省的研究。
論文標題:CONTROLLING WHISPER: UNIVERSAL ACOUSTIC ADVERSARIAL ATTACKS TO CONTROL SPEECH FOUNDATION MODELS
論文鏈接:https://arxiv.org/pdf/2407.04482
語音大模型的新威脅Whisper采用了編
原文鏈接:劍橋大學:基于語音的大模型攻擊,輕松“操縱”多模態大模型
聯系作者
文章來源:夕小瑤科技說
作者微信:xixiaoyaoQAQ
作者簡介:專業、有趣、深度價值導向的科技媒體。聚集30萬AI工程師、研究員,覆蓋500多家海內外機構投資人,互聯網大廠中高管和AI公司創始人。一線作者來自清北、國內外頂級AI實驗室和大廠,兼備敏銳的行業嗅覺和洞察深度。商務合作:zym5189
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...