ECCV 2024 | 讓GPT-4圖像理解更易出錯,全新策略增強VLP模型對抗遷移性
AIGC動態(tài)歡迎閱讀
原標題:ECCV 2024 | 讓GPT-4圖像理解更易出錯,全新策略增強VLP模型對抗遷移性
關(guān)鍵字:模型,圖像,遷移性,樣本,多樣性
文章來源:機器之心
內(nèi)容字數(shù):0字
內(nèi)容摘要:
AIxiv專欄是機器之心發(fā)布學術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學術(shù)交流與傳播。如果您有優(yōu)秀的工作想要分享,歡迎投稿或者聯(lián)系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文作者分別來自南開大學、南洋理工大學和新加坡科技局。第一作者高森森為南開大學大四學生,此工作為其在新加坡科技局實習期間完成,實習導師為本文通訊作者郭青研究員(主頁:https://tsingqguo.github.io)。本文的共同第一作者和共同通訊作者是南洋理工大學的加小俊博后研究員(主頁:https://jiaxiaojunqaq.github.io)。
針對視覺-語言預訓練(Vision-Language Pretraining, VLP)模型的對抗攻擊,現(xiàn)有的研究往往僅關(guān)注對抗軌跡中對抗樣本周圍的多樣性,但這些對抗樣本高度依賴于代理模型生成,存在代理模型過擬合的風險。
為了解決這一問題,我們引入了對抗軌跡交集區(qū)域的概念。這個區(qū)域由干凈樣本、當前對抗樣
原文鏈接:ECCV 2024 | 讓GPT-4圖像理解更易出錯,全新策略增強VLP模型對抗遷移性
聯(lián)系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權(quán)聲明
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載。
相關(guān)文章
暫無評論...