Meta公司周二正式发布开源框架LlamaFirewall,该框架旨在保护人工智能(AI)系统免受即时注入(prompt injection)、越狱攻击(jailbreak)及不安全代码等新兴网络安全...
不要停,继续说下去!——针对大语言模型的推理成本攻击:Engorgio
随着 ChatGPT 等大语言模型(LLMs)在各类任务中大放异彩,越来越多的场景开始依赖它们来提供服务。然而,由于 LLM 在推理阶段对算力的需求极为显著,一个潜在但被忽视的安全威胁也悄然浮现:恶意...
AI安全-提示词注入
攻击技术分类高级 Prompt Injection 技术绕过与混淆策略防御机制与对抗策略攻防手册靶场练习一攻击技术分类类型描述Prompt Injection利用精心设计的提示词操控模型行为,绕过安全...
提示词宝库!NucleiPrompts 助你轻松玩转 Nuclei AI智能漏洞扫描
引言:Nuclei AI智能化扫描!Nuclei 是一款超好用的漏洞扫描工具,而 NucleiPrompts.com 则像它的“金牌助手”,通过分享现成的提示词(Prompts),让扫描漏洞变得像点外...
OpenManus源码理解-自动化渗透测试(一)
由于传播、利用本公众号所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,公众号及作者不为此承担任何责任,一旦造成后果请自行承担!如有侵权烦请告知,我们会立即删除并致歉。谢谢!所有工...
提示词优化器
人工智能时代,提示词就是生产力。这得多重要,不用我赘述。推荐安排上【神器:提示词优化器】。以一本456万字的《雪中悍刀行》小说为例,我们来梳理它的人物关系。一、先来看看结果:根据提供的文本片段,现对《...
逐步突破大语言模型限制
重要声明: 本文档中的信息和工具仅用于授权的安全测试和研究目的。未经授权使用这些工具进行攻击或数据提取是非法的,并可能导致严重的法律后果。使用本文档中的任何内容时,请确保您遵守所有适用的法律法规,并获...
大模型安全评估神器-Garak
字数 950,阅读大约需 5 分钟 大模型安全评估神器---Garak Garak是干什么的? Garak,全称 Generative AI Red-teaming & Assessment ...
2025 CISCN&CCB Half-Final WP
-联合战队|共同成长-2025 CISCN&CCB Half-Final WP AWDPWebrng-assistant(Cain、chu0)FIX抽象check脚本,我修...
大模型如何挖漏洞 | 攻防视角下的AI安全
3月21日,14:00,「AI大模型攻防安全」第15期安全范儿技术沙龙周五见~议题看点大模型产品攻防实践如何设计更安全的Prompt和模型交互机制来防止Jailbreak,Prompt 注入此类攻击掌...
模型安全测试基础:如何精确查找数据集
介绍在对模型进行内容安全方面的测试,或者是Prompt注入、越狱时,我们通常会询问一些不安全的问题,此时我们可以参考一些已有的用来测试的数据集,或者是参考最新的论文寻找一些最新的越狱手法,本篇就来记录...
LLM技术浪潮下,漏挖人能否保住饭碗?
大语言模型(LLM)近期成为安全研究和竞赛中的热门话题,涵盖了大模型在安全领域的应用以及自身的安全性等方向,这一趋势为许多非大模型安全研究领域的研究者提供了了解和探索的机会。得益于强大的上下文理解与模...
15