模型上下文协议 (MCP) 容易受到工具中毒攻击。工具中毒攻击是指攻击者在 MCP 工具的描述中嵌入恶意指令。这些指令对用户不可见,但可以被 AI 模型解读,从而导致敏感数据泄露。Example:首先...
对抗性机器学习-攻击和缓解的分类和术语(二)
2.预测性人工智能分类2.1. 攻击分类图1根据攻击者的目标和目的、能力和知识,介绍了PredAI系统上AML攻击的分类。图1.PredAI系统攻击的分类攻击者的目标显示为不连贯的圆圈,每个圆圈的中心...
MCP协议漏洞:工具投毒攻击(TPA)
MCP越来越火,对其风险的关注也越来越多。Invariantlabs在模型上下文协议 (MCP) 中发现了一个严重漏洞,该漏洞允许“工具中毒攻击”(Tool Poisoning Attacks)。许多...
大模型文件的中毒攻击与防护
大模型文件的 中毒攻击与防护 人工智能的安全性问题由来已久,大模型本质上作为人工智能系统,也存在相应的安全问题。OWASP Top 10 for Large Language Model Applic...
人工智能的头号威胁:投毒攻击
随着掌管数字生活入口的万亿美元俱乐部企业——苹果公司跳入人工智能(AI)赛道,AI技术民主化的大幕正式拉开,同时也将AI安全问题推向舆论的风口浪尖。根据瑞银本周一的智能手机调查报告,在中国以外的智能手...
域渗透:LLMNR 投毒收集凭证及防御
根据给定的渗透测试(白盒/灰盒/黑盒),您可能有也可能没有范围。对于这些示例,我假设我有客户域 corp.local 的范围,该域在 192.168.1.0/24 网络下运行。对于这些示例,我的 ES...
四大攻击类型并存,NIST 警告人工智能系统带来的安全和隐私风险
美国国家标准与技术研究院 (NIST) 近日发布了有关对抗性机器学习 (AML) 攻击和缓解措施指南, 呼吁人们再度关注近年来人工智能 (AI) 系统部署增加所带来的隐私和安全挑战,并表示这类系统目前...
用AI攻击AI?对抗性机器学习的威胁与防御
越来越多的企业组织开始应用人工智能(Artificial Intelligence,缩写AI)和机器学习(Machine Learning,缩写ML)项目,保护这些项目变得日益重要。IBM和Morni...