重要声明: 本文档中的信息和工具仅用于授权的安全测试和研究目的。未经授权使用这些工具进行攻击或数据提取是非法的,并可能导致严重的法律后果。使用本文档中的任何内容时,请确保您遵守所有适用的法律法规,并获...
挖掘隧道 - 猎捕对抗性 Cloudflared 实例
《挖掘隧道 - 猎捕对抗性Cloudflared实例》这篇文章发布于2025年5月28日,主要讲了一个网络安全隐患:一些黑客(比如勒索软件团伙)利用Cloudflare的合法工具Cloudflared...
危险的创新:匆忙上马AI项目带来八大安全隐患
一开始就强调安全基础可以降低AI风险。然而,近三分之二的公司在部署AI工具前未能评估其安全隐患。危险的速度竞赛人工智能(AI)和大语言模型(LLM)正在重塑各行各业,提高效率,并开启新的商业机会,AI...
黑客利用简单的表情符号逃避微软、Nvidia 和 Meta 的 AI 过滤
一项新的研究表明,包括微软、英伟达和 Meta 在内的科技巨头部署的最新基于人工智能的防护系统,仍然极易受到相对简单且低成本的对抗技术的规避。值得注意的是,在文本中插入单个表情符号或细微的 Unico...
对抗性机器学习-攻击和缓解的分类和术语(二)
2.预测性人工智能分类2.1. 攻击分类图1根据攻击者的目标和目的、能力和知识,介绍了PredAI系统上AML攻击的分类。图1.PredAI系统攻击的分类攻击者的目标显示为不连贯的圆圈,每个圆圈的中心...
对抗性机器学习-攻击和缓解的分类和术语(三)
3.生成性人工智能分类GenAI是人工智能的一个分支,它开发的模型可以生成与训练数据具有相似属性的内容(例如图像、文本和其他媒体)。GenAI包括几种不同类型的人工智能技术,它们具有不同的起源、建模方...
对抗性机器学习-攻击和缓解的分类和术语
发布说明:本标准原文全文127页,发布将通过连载方式分三次发布完成,PDF版与全文发布地址将在最后一期提供。由于受到公众号限制,本次发布不包含所有的尾注,将会大大降低可读性。PDF版将包含“译者注”和...
Google DeepMind推出利用人工智能网络弱点的框架
强大的防御源自于攻击敌人的弱点。Google DeepMind 开发了一个评估框架,可以突出显示对抗性 AI 最薄弱的领域,从而让防御者可以优先考虑他们的防御策略。DeepMind 致力于人工智能的前...
美国NIST发布保护AI系统免受对抗性攻击最新指南
编者按美国国家标准与技术研究所(NIST)3月24日正式发布保护AI系统免受对抗性攻击的最新指南《对抗性机器学习:攻击和缓解的分类和术语》(NIST AI 100-2e2025)。该指南描述了对抗性机...
发现对抗性LDAP Tradecraft
TrustedSec 研究主管Carlos Perez和 Binary Defense 研究主管Jonathan Johnson撰写的文章。最初发布在Binary Defense 页面上。介绍虽然发现...
面向GPTs的提示词注入攻击分析
在去年的时候OpenAI推出了可以为特定目的创建的定制版ChatGPT——称为GPTs。GPTs是任何人都可以创建一个定制版本的ChatGPT,以帮助他们在日常生活中、特定任务、工作或家庭中更加有用,...
FuzzyAI:用于自动化 LLM 模糊测试的开源工具
FuzzyAI Fuzzer 是一款功能强大的自动化 LLM 模糊测试工具。它旨在帮助开发人员和安全研究人员识别和缓解其 LLM API 中的潜在安全漏洞。 FuzzyAI 为组织提供了一种系统化的方...