ACM MM24 | 復(fù)旦提出首個(gè)基于擴(kuò)散模型的視頻非限制性對(duì)抗攻擊框架,主流CNN和ViT架構(gòu)都防不住它
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:ACM MM24 | 復(fù)旦提出首個(gè)基于擴(kuò)散模型的視頻非限制性對(duì)抗攻擊框架,主流CNN和ViT架構(gòu)都防不住它
關(guān)鍵字:視頻,遷移性,模型,限制性,遞歸
文章來源:機(jī)器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
AIxiv專欄是機(jī)器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機(jī)器之心AIxiv專欄接收?qǐng)?bào)道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級(jí)實(shí)驗(yàn)室,有效促進(jìn)了學(xué)術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報(bào)道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文作者來自復(fù)旦大學(xué)視覺與學(xué)習(xí)實(shí)驗(yàn)室和人工智能創(chuàng)新與產(chǎn)業(yè)研究院。其中第一作者高子怡為復(fù)旦大學(xué)研二碩士,主要研究方向?yàn)?AIGC 和 AI 安全。本文通訊作者是復(fù)旦大學(xué)的陳靜靜副教授。
來自復(fù)旦大學(xué)視覺與學(xué)習(xí)實(shí)驗(yàn)室的研究者們提出了一種新型的面向視頻模型的對(duì)抗攻擊方法 – 基于擴(kuò)散模型的視頻非限制遷移攻擊(ReToMe-VA)。該方法采用逐時(shí)間步對(duì)抗隱變量?jī)?yōu)化策略,以實(shí)現(xiàn)生成對(duì)抗樣本的空間不可感知性;同時(shí),在生成對(duì)抗幀的去噪過程中引入了遞歸 token 合并策略,通過匹配及合并視頻幀之間的自注意力 token,顯著提升了對(duì)抗視頻的遷移性和時(shí)序一致性。論文鏈接:http://arxiv.org/abs/2408.05479
代碼鏈接:https://github.c
原文鏈接:ACM MM24 | 復(fù)旦提出首個(gè)基于擴(kuò)散模型的視頻非限制性對(duì)抗攻擊框架,主流CNN和ViT架構(gòu)都防不住它
聯(lián)系作者
文章來源:機(jī)器之心
作者微信:
作者簡(jiǎn)介: