ML-DOCTOR:对机器学习模型推理攻击的全局性研究

admin 2022年2月5日17:41:27评论337 views字数 2277阅读7分35秒阅读模式

ML-DOCTOR:对机器学习模型推理攻击的全局性研究

原文标题:ML-DOCTOR: Holistic Risk Assessment of Inference Attacks Against Machine Learning Models

原文作者:Yugeng Liu, Rui Wen, Xinlei He, Ahmed Salem, Zhikun Zhang, and Michael Backes, CISPA Helmholtz Center for Information Security; Emiliano De Cristofaro, UCL; Mario Fritz and Yang Zhang, CISPA Helmholtz Center for Information Security

发表会议:USENIX SECURITY '22

原文链接:https://arxiv.org/pdf/2102.02551.pdf

笔记作者:Norns@SecQuan

文章小编:cherry@SecQuan

0x01 INTRODUCTION

针对机器学习模型的推理攻击指的从机器学习模型的非敏感数据推断敏感信息的一类攻击手法,这类攻击方法根据攻击目标不同,可以分为不同的种类。目前,针对各种具体攻击的研究已经取得了一定的成效。可是,研究者们对于这一类的攻击没有一个全局的认识。在这篇论文中,作者的目的是消除这一研究上的缺失,首先对推理攻击作出全局性的研究,这篇论文的主要贡献在于:

  • 提出了一种推理攻击的分类方法

  • 提出了ML-DOCTOR,这是一个用于评估机器学习模型受攻击脆弱性的评估框架

  • 通过实验,探究了影响推理攻击成功率的因素

0x02 THREAT MODELING

作者从两个维度对推理攻击的应用场景进行了划分:

  1. 攻击者对目标模型的访问方式:根据攻击者接入模型方式的不同,可以将攻击方式分为白盒攻击和黑盒攻击。在白盒攻击中,攻击者知道模型的细节,包括模型的参数以及架构。在黑盒攻击中,模型的细节对攻击者是隐藏的,攻击者所知道的信息只有模型对于一个给定输入所对应的输出。

  2. 辅助数据集:在推理攻击中,攻击者需要使用辅助数据集来对攻击模型进行训练,根据攻击者所掌握数据集的情况,可以划分为三种:拥有部分训练数据,拥有阴影数据以及不拥有数据。

在实际的应用场景中,不具有数据的黑盒攻击是难以实现的,因此作者将攻击场景主要划分为5类:具有阴影数据的黑盒攻击,具有部分训练数据的黑盒攻击,不具有数据的白盒攻击,具有阴影数据的白盒攻击以及具有部分训练数据的白盒攻击。

ML-DOCTOR:对机器学习模型推理攻击的全局性研究

0x03 INFERENCE ATTACKS

在这篇文章中主要讨论4种推理攻击方式:成员推理攻击、模型逆向攻击、属性推理攻击以及模型窃取攻击。

A. Membership Inference

成员推理攻击指的是攻击者利用目标模型以及辅助数据,判断一个目标样本是否参与了模型的训练。这种攻击的攻击方式包括:具有阴影数据的黑盒攻击以及具有部分训练数据的黑盒攻击。

B. Model Inversion

模型逆向攻击指的是攻击者利用目标模型和辅助数据,推断出训练模型所使用的样本。这种攻击的攻击方式主要包括:不具有数据的白盒攻击以及具有阴影数据的白盒攻击。

C. Attribute Inference

属性推理攻击指的是攻击者通过机器学习模型,推断目标样本的隐藏信息。这种攻击的攻击方式主要包括具有阴影数据的白盒攻击以及具有部分训练数据的白盒攻击。

D. Model Stealing

模型窃取攻击指的是攻击者通过目标模型以及辅助数据,推断出模型的参数的攻击手段。这种攻击的攻击方式主要包括具有阴影数据的黑盒攻击以及具有部分训练数据的黑盒攻击。

0x04 ML-DOCTOR

ML-DOCTOR的示意图如下图所示:

ML-DOCTOR:对机器学习模型推理攻击的全局性研究

使用者将数据和目标模型作为输入,通过不同的攻击模块和防御模块,判断该模型受攻击的脆弱性以及防御策略的有效性。值得一提的是,该工具基于模块化的设计,所应用的攻击模块和防御模块都可以进行自定义,该工具已经开源。

0x05 EVALUATION

在本文的实验中,作者关注以下三个问题:

  1. 数据集复杂度对推理攻击的影响

  2. 模型过拟合程度对推理攻击的影响

  3. 不同的攻击手段之间的联系是怎么样的

实验结果如图:

ML-DOCTOR:对机器学习模型推理攻击的全局性研究

A. The Role of the Dataset

实验的结果表明,数据集复杂度对攻击的成功率有着深刻的影响,在成员推理攻击和模型窃取攻击中,训练模型的数据集越复杂,攻击的成功率越低。

B. The Effect of Overfitting

实验结果表明模型的过拟合程度对推理攻击的成功率有着影响。但是,根据攻击方式的不同,所产生的影响也不同。比如说,对于一个高度过拟合的模型来说,攻击者进行成员推理攻击的成功率较高,而模型窃取攻击的成功率则较低。

C. Relation Among Different Attacks

通过实验,作者发现成员推理攻击与模型窃取攻击之间存在较强的负相关关系,一个模型若较容易遭受成员推理攻击,则在其上模型窃取攻击的成功率则较低。同样的关系发生在成员推理攻击和模型逆向攻击中。

0x06 Conclusion

在这篇论文中,作者对推理攻击进行了全局性的研究,提出了一种推理攻击攻击手段的分类方法,以及一个判断机器学习模型遭受推理攻击成功率的评估工具。通过实验,作者发现训练数据集的复杂度及模型的过拟合程度对推理攻击的成功率也有不同程度的影响,以及不同攻击方式之间的关联性。除了上文所介绍的内容,作者还探究了现有流行的防御框架对推理攻击的防御效果。


安全学术圈招募队友-ing, 有兴趣加入学术圈的请联系secdr#qq.com

ML-DOCTOR:对机器学习模型推理攻击的全局性研究



原文始发于微信公众号(安全学术圈):ML-DOCTOR:对机器学习模型推理攻击的全局性研究

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2022年2月5日17:41:27
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   ML-DOCTOR:对机器学习模型推理攻击的全局性研究https://cn-sec.com/archives/765871.html

发表评论

匿名网友 填写信息