Xiaojin Zhang, Hanlin Gu, Lixin Fan, Kai Chen, and Qiang Yang. 2022. No free lunch theorem for security and
utility in federated learning. 1, 1 (September 2022), 37 pages.

  在联合学习场景中,多方从各自的数据中联合学习模型,在选择算法时存在两个相互冲突的目标。一方面需要保护用户的数据隐私,另一方面,为了学习的可用性,不同方之间必须交换一定数量的信息。这样的挑战需要一个能最大化学习模型的效用,并可以维护参与方隐私数据的可证明隐私保证的解决方案。
  该论文从信息论的角度为隐私泄漏和效用损失的均衡评估提供了一个通用的框架。基于该框架,本文给出了关于隐私与模型性能的No-free lunch定理并应用到不同的隐私保护机制中,包括随机方法,使用稀疏性以及同态加密。
  该论文设计了一个新型的贝叶斯隐私泄露(BPL)度量方法,来量化在对公开信息应用了保护机制的情况下,半诚实攻击者仍然可能推断出的隐私数据的信息量。BPL度量方法能够评估一个联邦学习方案的安全性,并证明在BPL小于一个可接受的阈值的情况下,联邦学习所采用的保护机制在应对贝叶斯推理攻击时是安全的。该论文将隐私-效用权衡定义为一个优化问题,使ε-贝叶斯隐私约束下的效用损失最小化。在隐私保护的机器学习场景中,客户的目标是保持最大可能的模型效用,而不披露超出可接受水平的私人信息。该论文对贝叶斯隐私泄露与效用损失之间的权衡进行了分析,并得出No free lunch theorem:
  1. 不能同时达到贝叶斯隐私泄露和性能损失都为0的情况, 即没有免费的午餐;
  2. 在降低隐私安全风险的前提下,模型效用的最大化存在一定上界;
  3. 反之,盲目追求模型效用的最大化,会增大隐私安全风险的下界。

2022年11月25日


原文地址:http://www.cnblogs.com/FBprivacy/p/16926053.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性