AIGC動態歡迎閱讀
原標題:NeurIPS 2024 | 如何防御對抗性提示攻擊?AdvUnlearn讓圖片生成風險驟降
關鍵字:模型,提示,概念,對抗性,圖像
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文第一作者為密歇根州立大學計算機系博士生張益萌,為 OPTML 實驗室成員,指導教師為劉思佳助理教授。OPtimization and Trustworthy Machine Learning (OPTML) 實驗室的研究興趣涵蓋機器學習 / 深度學習、優化、計算機視覺、安全、信號處理和數據科學領域,重點是開發學習算法和理論,以及魯棒且可解釋的人工智能。
擴散模型(Diffusion Models, DMs)已經成為文本到圖像生成領域的核心技術之一。憑借其卓越的性能,這些模型可以生成高質量的圖像,廣泛應用于各類創作場景,如藝術設計、廣告生成等。然而,隨著擴散模型的日益普及,其帶來的安全問題也逐漸顯現。模型在處理開放式互聯網數據時,可能會在生成過程中輸出有害的
原文鏈接:NeurIPS 2024 | 如何防御對抗性提示攻擊?AdvUnlearn讓圖片生成風險驟降
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...