ACM MM24 | 復(fù)旦提出首個基于擴散模型的視頻非限制性對抗攻擊框架,主流CNN和ViT架構(gòu)都防不住它
AIGC動態(tài)歡迎閱讀
原標(biāo)題:ACM MM24 | 復(fù)旦提出首個基于擴散模型的視頻非限制性對抗攻擊框架,主流CNN和ViT架構(gòu)都防不住它
關(guān)鍵字:視頻,遷移性,模型,限制性,遞歸
文章來源:機器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文作者來自復(fù)旦大學(xué)視覺與學(xué)習(xí)實驗室和人工智能創(chuàng)新與產(chǎn)業(yè)研究院。其中第一作者高子怡為復(fù)旦大學(xué)研二碩士,主要研究方向為 AIGC 和 AI 安全。本文通訊作者是復(fù)旦大學(xué)的陳靜靜副教授。
來自復(fù)旦大學(xué)視覺與學(xué)習(xí)實驗室的研究者們提出了一種新型的面向視頻模型的對抗攻擊方法 – 基于擴散模型的視頻非限制遷移攻擊(ReToMe-VA)。該方法采用逐時間步對抗隱變量優(yōu)化策略,以實現(xiàn)生成對抗樣本的空間不可感知性;同時,在生成對抗幀的去噪過程中引入了遞歸 token 合并策略,通過匹配及合并視頻幀之間的自注意力 token,顯著提升了對抗視頻的遷移性和時序一致性。論文鏈接:http://arxiv.org/abs/2408.05479
代碼鏈接:https://github.c
原文鏈接:ACM MM24 | 復(fù)旦提出首個基于擴散模型的視頻非限制性對抗攻擊框架,主流CNN和ViT架構(gòu)都防不住它
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介: