Protect AI开源3款AI/ML安全工具

admin 2023年10月27日00:29:03评论11 views字数 1355阅读4分31秒阅读模式

Protect AI开源3款AI/ML安全工具

Protect AI一手打造了开源软件(OSS)漏洞赏金平台Huntr,如今,这家公司更进一步,按Apache 2.0许可条款开源其三款AI/ML安全工具。

01

第一款工具 NB Defense


该公司开发的第一款工具NB Defense,用于保护在 Jupyter Notebooks 中开发的机器学习项目,Jupyter Notebooks 是数据科学家青睐的常见应用程序。Jupyter具有测试代码和软件包的固有功能,随着其广泛应用,黑客开始盯上这款工具。因此,Protech AI开发了NB Defense,一个用于扫描Notebook的工具,可以查找秘密、个人身份信息(PII)、CVE暴露和受限于限制性第三方许可的代码等漏洞。JupityrLab扩展可以发现并修复Notebook中的安全问题,而CLI工具可以同时扫描多个Notebook,并能自动扫描上传到中央存储库的Notebook。

02

第二款工具 ModelScan


第二款工具ModelScan源于团队在互联网上共享ML模型的需求,因为越来越多的公司要开发内部使用的AI/ML工具。ModelScan扫描Pytorch、Tensorflow、Keras和其他格式的模型序列化攻击,比如凭证盗窃、数据投毒、模型中毒和权限提升(武器化模型用以攻击其他公司资产)。

03

第三款工具 Rebuff


三款工具Rebuff是Protect AI在2023年7月获得的现有开源项目,还在持续开发中。Rebuff解决的是提示注入(PI)攻击,防止攻击者将恶意输入发送给大语言模型(LLM),从而避免输出篡改、敏感数据暴露和未授权操作。该自强化提示注入检测框架采用四层防御:启发式方法——过滤潜在恶意输入,防止恶意输入进入模型;专用LLM——分析传入提示,识别潜在攻击;已知攻击数据库——帮助识别和防御后续类似攻击;金丝雀标记——修改提示,从而检测泄露。

AI和LLM在大大小小企业中的广泛应用同样催生了保护或攻击此类模型的工具。比如说,今年RSA大会创新沙箱的胜者HiddenLayer,就以保护这些模型不遭篡改为己任。2021年,微软发布了一个安全框架及其自有开源工具,用于保护AI系统免遭对抗攻击。而最近曝出的TorchServe缺陷,则凸显出即使是沃尔玛和三大云服务提供商这种全球最大玩家也面临着现实世界风险。

Protect AI的这三款工具:NB Defense、ModelScan和Rebuff,均可从GitHub获取。

NB Defensehttps://github.com/protectai/nbdefense
ModelScanhttps://github.com/protectai/modelscan
Rebuffhttps://github.com/protectai/rebuff

* 本文为nana编译,原文地址:https://www.darkreading.com/dr-tech/protect-ai-releases-3-ai-ml-security-tools-as-open-
注:图片均来源于网络,无法联系到版权持有者。如有侵权,请与后台联系,做删除处理。

— 【 THE END 】—

更多推荐


Protect AI开源3款AI/ML安全工具
Protect AI开源3款AI/ML安全工具
Protect AI开源3款AI/ML安全工具

原文始发于微信公众号(数世咨询):Protect AI开源3款AI/ML安全工具

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年10月27日00:29:03
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   Protect AI开源3款AI/ML安全工具http://cn-sec.com/archives/2149932.html

发表评论

匿名网友 填写信息