研究人员开发了一种名为NoiseAttack的新后门攻击方法,能够以最少的设置同时危害多个类别。
与之前专注于单一类别的方法不同,NoiseAttack在训练阶段使用高斯白噪声 (WGN) 的功率谱密度作为不可见的触发器。
实验测试表明,NoiseAttack在不同模型和数据集上取得了很高的成功率,避开了最先进的后门检测系统。
当我们谈论NoiseAttack中的“多类”时,我们的意思是攻击不仅限于针对分类模型中的一类或一类数据。
相反,它可以同时针对多个类,从而在各种输出类别中引发错误。
这意味着可以操纵模型同时在多个分类中犯错误,从而使攻击更加通用和强大。
NoiseAttack中使用的高斯白噪声 (WGN)难以察觉且普遍应用,但仅在选定的样本上激活,以引起多个目标标签的错误分类。
这种方法可以对深度学习模型进行多目标后门攻击,而不会影响未受损输入的性能。
通过仔细应用WGN在受污染的数据集上训练模型,攻击者可以故意造成错误分类,绕过先进的防御措施,并在控制目标标签方面提供极大的灵活性。
该框架有效地规避了最先进的防御,并在各种数据集和模型上实现了高攻击成功率。
通过将高斯白噪声引入输入图像中,NoiseAttack 可以将它们错误分类到目标标签中,而不会显着影响模型在干净数据上的性能。
通过理论分析和大量实验,作者证明了这种攻击的可行性和普遍性。
NoiseAttack 在各种数据集和模型上实现了较高的平均攻击成功率,而不会显着影响非受害者类别的准确性。
原文始发于微信公众号(网络研究观):NoiseAttack:挑战人工智能防御的新型多目标后门攻击
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论