ICLR 2024 | 聯(lián)邦學習攻擊的模型關(guān)鍵層
AIGC動態(tài)歡迎閱讀
原標題:ICLR 2024 | 聯(lián)邦學習攻擊的模型關(guān)鍵層
關(guān)鍵字:,模型,關(guān)鍵,成功率,本文
文章來源:機器之心
內(nèi)容字數(shù):3621字
內(nèi)容摘要:
機器之心專欄
機器之心編輯部聯(lián)邦學習使多個參與方可以在數(shù)據(jù)隱私得到保護的情況下訓(xùn)練機器學習模型。但是由于服務(wù)器無法監(jiān)控參與者在本地進行的訓(xùn)練過程,參與者可以篡改本地訓(xùn)練模型,從而對聯(lián)邦學習的全局模型構(gòu)成安全序隱患,如攻擊。
本文重點關(guān)注如何在有防御保護的訓(xùn)練框架下,對聯(lián)邦學習發(fā)起攻擊。本文發(fā)現(xiàn)攻擊的植入與部分神經(jīng)網(wǎng)絡(luò)層的相關(guān)性更高,并將這些層稱為攻擊關(guān)鍵層。
基于關(guān)鍵層的發(fā)現(xiàn),本文提出通過攻擊關(guān)鍵層繞過防御算法檢測,從而可以控制少量的參與者進行高效的攻擊。論文題目:Backdoor Federated Learning By Poisoning Backdoor-Critical Layers
論文鏈接:https://openreview.net/pdf?id=AJBGSVSTT2
代碼鏈接:https://github.com/zhmzm/Poisoning_Backdoor-critical_Layers_Attack
方法本文提出層替換方法識別關(guān)鍵層。具體方法如下:
第一步,先將模型在干凈數(shù)據(jù)集上訓(xùn)練至收斂,并保存模型參數(shù)記為良性模型。再將良性模
原文鏈接:ICLR 2024 | 聯(lián)邦學習攻擊的模型關(guān)鍵層
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺