AIGC動態歡迎閱讀
原標題:模型被投毒攻擊,如今有了新的安全手段,還被AI頂刊接收
關鍵字:代幣,區塊,參與者,惡意,數據
文章來源:機器之心
內容字數:7274字
內容摘要:
機器之心發布
機器之心編輯部在深度學,聯邦學習(FL)提供了一種分布式的協作學習的方法,允許多機構數據所有者或客戶在不泄漏數據隱私的情況下協作訓練機器學習模型。然而,大多數現有的 FL 方法依賴于集中式服務器進行全局模型聚合,從而導致單點故障。這使得系統在與不誠實的客戶打交道時容易受到惡意攻擊。本文中,FLock 系統采用了點對點投票機制和獎勵與削減機制,這些機制由鏈上智能合約提供支持,以檢測和阻止惡意行為。FLock 理論和實證分析都證明了所提出方法的有效性,表明該框架對于惡意客戶端行為具有魯棒性。現今,機器學習(ML),更具體地說,深度學習已經改變了從金融到醫療等廣泛的行業。在當前的 ML 范式中,訓練數據首先被收集和策劃,然后通過最小化訓練數據上的某些損失標準來優化 ML 模型。學習環境中的一個共同基本假設是訓練數據可以立即訪問或輕松地跨計算節點分發,即數據是「集中式」的。
然而,在一個擁有多個「客戶端」(即數據持有者)的系統中,為了確保數據集中化,客戶端必須將本地數據上傳到一個集中設備(例如中心服務器)以進行上述的集中式訓練。盡管集中式訓練在各種深度學習應用中取得了成功,
原文鏈接:模型被投毒攻擊,如今有了新的安全手段,還被AI頂刊接收
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章

暫無評論...