NoiseAttack:挑战人工智能防御的新型多目标后门攻击

admin 2024年9月13日18:17:50评论9 views字数 696阅读2分19秒阅读模式

NoiseAttack:挑战人工智能防御的新型多目标后门攻击

研究人员开发了一种名为NoiseAttack的新后门攻击方法,能够以最少的设置同时危害多个类别。

与之前专注于单一类别的方法不同,NoiseAttack在训练阶段使用高斯白噪声 (WGN) 的功率谱密度作为不可见的触发器。

实验测试表明,NoiseAttack在不同模型和数据集上取得了很高的成功率,避开了最先进的后门检测系统。

当我们谈论NoiseAttack中的“多类”时,我们的意思是攻击不仅限于针对分类模型中的一类或一类数据。

相反,它可以同时针对多个类,从而在各种输出类别中引发错误。

这意味着可以操纵模型同时在多个分类中犯错误,从而使攻击更加通用和强大。

NoiseAttack:挑战人工智能防御的新型多目标后门攻击
拟议的 NoiseAttack 概述

NoiseAttack中使用的高斯白噪声 (WGN)难以察觉且普遍应用,但仅在选定的样本上激活,以引起多个目标标签的错误分类。

这种方法可以对深度学习模型进行多目标后门攻击,而不会影响未受损输入的性能。

通过仔细应用WGN在受污染的数据集上训练模型,攻击者可以故意造成错误分类,绕过先进的防御措施,并在控制目标标签方面提供极大的灵活性。

NoiseAttack:挑战人工智能防御的新型多目标后门攻击
中毒数据集准备概述

该框架有效地规避了最先进的防御,并在各种数据集和模型上实现了高攻击成功率。

通过将高斯白噪声引入输入图像中,NoiseAttack 可以将它们错误分类到目标标签中,而不会显着影响模型在干净数据上的性能。

NoiseAttack:挑战人工智能防御的新型多目标后门攻击

通过理论分析和大量实验,作者证明了这种攻击的可行性和普遍性。

NoiseAttack 在各种数据集和模型上实现了较高的平均攻击成功率,而不会显着影响非受害者类别的准确性。

原文始发于微信公众号(网络研究观):NoiseAttack:挑战人工智能防御的新型多目标后门攻击

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年9月13日18:17:50
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   NoiseAttack:挑战人工智能防御的新型多目标后门攻击https://cn-sec.com/archives/3152171.html

发表评论

匿名网友 填写信息