AIGC動態歡迎閱讀
原標題:CCS 2024 | 如何嚴格衡量機器學習算法的隱私泄露? ETH有了新發現
關鍵字:隱私,樣本,方法,報告,數據
文章來源:機器之心
內容字數:0字
內容摘要:
AIxiv專欄是機器之心發布學術、技術內容的欄目。過去數年,機器之心AIxiv專欄接收報道了2000多篇內容,覆蓋全球各大高校與企業的頂級實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或者聯系報道。投稿郵箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com本文作者張杰是蘇黎世聯邦理工大學的二年級的博士生,導師是 Florian Tramèr。本文發表在 CCS 2024 上, 第一單位是 ETH Zurich,主要探討如何嚴格的衡量某個機器學習算法的隱私保護能力。arXiv地址:https://arxiv.org/pdf/2404.17399
GitHub代碼:https://github.com/ethz-spylab/misleading-privacy-evals
論文標題:Evaluations of Machine Learning Privacy Defenses are Misleading
1.前言
機器學習模型往往容易受到隱私攻擊。如果你的個人數據被用于訓練模型,你可能希望得到一種保障,確保攻
原文鏈接:CCS 2024 | 如何嚴格衡量機器學習算法的隱私泄露? ETH有了新發現
聯系作者
文章來源:機器之心
作者微信:
作者簡介:
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...