摘要
在使用第三方数据进行深度学习开发时,后门攻击构成了重大威胁。在这些攻击中,可以操纵数据,使经过训练的模型在应用特定触发模式时行为不当,从而为攻击者提供未经授权的优势。虽然大多数现有工作都侧重于设计触发模式(可见和不可见)来毒害受害者类别,但它们通常在后门攻击成功后导致单个目标类别,这意味着受害者类别只能根据对手的预定义值转换为另一个类别。在本文中,我们通过引入一种新颖的针对样本的多目标后门攻击(即NoiseAttack )来解决这个问题。具体来说,我们采用具有各种功率谱密度 (PSD) 的高斯白噪声 (WGN) 作为我们的基础触发器,并结合独特的训练策略来执行后门攻击。这项工作是同类中第一个发起视觉后门攻击的工作,目的是以最少的输入配置生成多个目标类别。此外,我们大量的实验结果表明,NoiseAttack 可以对流行的网络架构和数据集实现较高的攻击成功率 (ASR),并绕过最先进的后门检测方法。我们的源代码和实验可在此链接中找到。
结论
在本文中,我们证明了攻击者可以利用高斯白噪声的功率谱密度作为触发器,执行针对特定样本的高效多目标后门攻击。详细的理论分析进一步形式化了我们提出的 NoiseAttack 的可行性和普遍性。大量实验表明,NoiseAttack 在图像分类和对象检测的四个数据集和四个模型中实现了较高的平均攻击成功率 (AASR),同时保持了非受害者类别的相当干净的准确率。NoiseAttack 还通过绕过最先进的检测和防御技术证明了其规避性和稳健性。我们相信这种新颖的后门攻击范式开辟了后门攻击的新领域,并激发了进一步的防御研究。
论文地址:https://arxiv.org/html/2409.02251v1
代码仓库地址:https://github.com/SiSL-URI/NoiseAttack/tree/main
原文始发于微信公众号(独眼情报):NoiseAttack:一种利用高斯白噪声进行规避性样本特定多目标后门攻击
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论