AIGC動態歡迎閱讀
原標題:ICLR 2024 | 聯邦學習攻擊的模型關鍵層
關鍵字:,模型,關鍵,成功率,本文
文章來源:機器之心
內容字數:3621字
內容摘要:
機器之心專欄
機器之心編輯部聯邦學習使多個參與方可以在數據隱私得到保護的情況下訓練機器學習模型。但是由于服務器無法監控參與者在本地進行的訓練過程,參與者可以篡改本地訓練模型,從而對聯邦學習的全局模型構成安全序隱患,如攻擊。
本文重點關注如何在有防御保護的訓練框架下,對聯邦學習發起攻擊。本文發現攻擊的植入與部分神經網絡層的相關性更高,并將這些層稱為攻擊關鍵層。
基于關鍵層的發現,本文提出通過攻擊關鍵層繞過防御算法檢測,從而可以控制少量的參與者進行高效的攻擊。論文題目:Backdoor Federated Learning By Poisoning Backdoor-Critical Layers
論文鏈接:https://openreview.net/pdf?id=AJBGSVSTT2
代碼鏈接:https://github.com/zhmzm/Poisoning_Backdoor-critical_Layers_Attack
方法本文提出層替換方法識別關鍵層。具體方法如下:
第一步,先將模型在干凈數據集上訓練至收斂,并保存模型參數記為良性模型。再將良性模
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...