人工智能安全| 抗拜占庭攻击的隐私保护联邦学习

admin 2025年5月5日20:42:17评论0 views字数 745阅读2分29秒阅读模式

西安电子科技大学的博士生穆旭彤、讲师程珂博士、博士生宋安霄、副教授张涛博士、副教授张志为博士和教授沈玉龙博士,在《计算机学报》发表论文“抗拜占庭攻击的隐私保护联邦学习”,该文摘要如下。扫描二维码或点击“阅读原文”可查看全文。

联邦学习是一种隐私保护的分布式机器学习框架,可以让各方参与者在不披露本地数据的前提下共建模型.然而,联邦学习仍然面临拜占庭攻击和用户隐私泄漏等威胁.现有研究结合鲁棒聚合规则和安全计算技术以同时应对上述安全威胁,但是这些方案难以兼顾模型鲁棒性与计算高效性.

针对此问题,本文提出一种抗拜占庭攻击的隐私保护联邦学习框架SecFedDMC,在保护用户数据隐私的条件下实现高效的拜占庭攻击检测与防御.基础方案FedDMC采用“先降维后聚类”的策略,设计了高效精准的恶意客户端检测方法.此外,该方法利用的随机主成分分析降维技术和K-均值聚类技术主要由线性运算构成,从而优化了算法在安全计算环境中的适用性.针对基础方案存在的用户数据隐私泄露问题,提出了基于安全多方计算技术的隐私增强方案SecFedDMC.基于轻量级加法秘密分享技术,设计安全的正交三角分解协议和安全的特征分解协议,从而构建双服务器模型下隐私保护的拜占庭鲁棒联邦学习方案,以保护模型训练和拜占庭节点识别过程中的用户隐私.经实验验证,SecFedDMC在保护用户隐私的前提下,可以高效准确地识别拜占庭攻击节点,具有较好的鲁棒性.其中,本方案与最先进的鲁棒联邦学习算法相比,在CIFAR10数据集上,拜占庭攻击节点检测准确率提升12%~24%,全局模型精度提升4.45%~18.48%,计算效率提升33.21%~47.31%.

人工智能安全| 抗拜占庭攻击的隐私保护联邦学习

文章二维码

原文始发于微信公众号(数据安全矩阵):人工智能安全| 抗拜占庭攻击的隐私保护联邦学习

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年5月5日20:42:17
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   人工智能安全| 抗拜占庭攻击的隐私保护联邦学习https://cn-sec.com/archives/4030398.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息