L. Lyu et al., “Towards Fair and Privacy-Preserving Federated Deep Models,” in IEEE Transactions on Parallel and Distributed Systems, vol. 31, no. 11, pp. 2524-2541, 1 Nov. 2020, doi: 10.1109/TPDS.2020.2996273.

  本篇论文从联邦学习公平性的角度着手,指出了目前联邦学习存在的公平问题:贡献程度不同的参与方通过训练最终获得相同全局模型,而这将会影响拥有高质量数据者的参与积极性,从而对于建立健康的联邦学习系统产生消极影响。作者提出一种根据各方贡献来返回参与者不同的全局模型的方案,最终根据各方全局模型准确度来衡量各方贡献大小。文中通过设计本地可信度互评的机制以及三层洋葱式的加密方案来实现所提到的公平性、隐私性、准确性。
  这篇论文通过联邦学习进行协作训练,使用DPGAN生成虚假样本保护隐私,并发放样本给其他参与方,再利用收到的反馈计算本地可信度值以此衡量各方本地数据质量,进而评估各方相对贡献,使用区块链技术进行透明可信的交易记录,并对交易的梯度采用三层洋葱式加密保障隐私,最后根据参与方贡献(独立模型精确度)和奖励(最终模型精确度)的方式进行公平量化,通过将这些方法技术融合,达到公平和隐私保护的目的。
  这篇论文提出了一种除了激励机制外实现联邦学习公平性的方案,通过各方贡献大小来返回不同的全局模型,在设想思路上足够创新,但对于论文方案中提到的技术都只是应用,没有进行创新或适应性的变化 ,此外,该方案也只是做了理论研究,我对于其能否应用部署于现实世界存疑,因为虽然此方案中贡献度最高的参与方能获得近似分布式框架精确度的模型,但其他参与方根据不同贡献度所获得的的模型精度可能远低于此,这时低贡献方为了更好的效益又可能会通过金钱激励等方式来获得一个更好的全局模型,这又回到了相关工作中的激励式实现联邦学习公平性的方案,而且,论文中是在IID环境下对公平性进行量化,而在现实世界中出现更多的 NON-IID下如何进行公平性的量化也是需要解决的问题。

2022年10月29日


原文地址:http://www.cnblogs.com/FBprivacy/p/16878004.html

1. 本站所有资源来源于用户上传和网络,如有侵权请邮件联系站长! 2. 分享目的仅供大家学习和交流,请务用于商业用途! 3. 如果你也有好源码或者教程,可以到用户中心发布,分享有积分奖励和额外收入! 4. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解! 5. 如有链接无法下载、失效或广告,请联系管理员处理! 6. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需! 7. 如遇到加密压缩包,默认解压密码为"gltf",如遇到无法解压的请联系管理员! 8. 因为资源和程序源码均为可复制品,所以不支持任何理由的退款兑现,请斟酌后支付下载 声明:如果标题没有注明"已测试"或者"测试可用"等字样的资源源码均未经过站长测试.特别注意没有标注的源码不保证任何可用性