安全研究员Matt Keeley近期演示了人工智能如何在公开概念验证(PoC)攻击代码发布前,就成功生成针对关键漏洞的有效利用程序。这一突破可能彻底改变漏洞研究领域的现状。Keeley使用GPT-4为...
BurpSuite AI插件 EnhancedBurpGPT
0x01 工具介绍 Enhanced BurpGPT 是一个 Burp Suite 插件,它能帮助你使用 AI(人工智能)来分析 Web 应用的安全问题。简单来说,当你测试网站时,你可以在指定的请求响...
【论文速读】| PiCo:通过图像代码情境化对多模态大语言模型进行越狱攻击
基本信息原文标题:PiCo: Jailbreaking Multimodal Large Language Models via Pictorial Code Contextualization原文作...
学术 | 大型语言模型通过图灵测试
大型语言模型通过图灵测试Large Language Models Pass the Turing Test本文摘要本研究通过两项随机化、对照且预先注册的图灵测试,在两个独立群体中对四类系统(ELIZ...
某高校gpt漏洞
Part-01背景 日常开展src测试,通过信息收集,发现某高校自建的gpt系统,还给注册账号!注册完后,测试发现存在html注入漏洞。分享下过程!Part-02实战秉承见框就插的原则,效果立杆...
本地部署小模型的大风险
随着大语言模型在各行各业展现威力,如何让它们“瘦身”以降低部署成本,成为业界关注焦点。“模型蒸馏”正是在这样的背景下走红:通过让小模型学习大模型的行为,我们可以得到“蒸馏量化”后的“小模型”,既保留大...
代码审计工具箱《支持GPT审计》
CNMistSafety GPT代码审计工具箱 先说一下废话,因为最近openai比较火热,我也观察到公众号也有一些大佬开发了GPT代码审计工具,但是我个人觉得不够完善,并且接入GPT...
利用主流 AI(如 Kimi、DeepSeek、GPT 等)检测越权漏洞的工具
工具介绍 PrivHunterAI一款通过被动代理方式,利用主流 AI(如 Kimi、DeepSeek、GPT 等)检测越权漏洞的工具。其核心检测功能依托相关 AI 引擎的开放 API ...
间接提示注入攻击全面测评
前言大型语言模型(LLMs)正日益被整合到代理框架中,使其能够通过工具执行特定操作。这些代理不仅可以处理复杂的任务,还能够与外部系统交互,例如自动化流程和设备控制等。随着技术的进步,LLM驱动的代理被...
Perplexity新增GPT-4.5和Claude 3.7模型
最近,包括微软、英伟达在内的全球各大平台都已经使用了deepseek的R1模型,这里面也包括perplexity:由于deepseek R1模型的强大血脉压制,OpenAI不得不连夜推出了o3-min...
大模型安全评估神器-Garak
字数 950,阅读大约需 5 分钟 大模型安全评估神器---Garak Garak是干什么的? Garak,全称 Generative AI Red-teaming & Assessment ...
LLM技术浪潮下,漏挖人能否保住饭碗?
大语言模型(LLM)近期成为安全研究和竞赛中的热门话题,涵盖了大模型在安全领域的应用以及自身的安全性等方向,这一趋势为许多非大模型安全研究领域的研究者提供了了解和探索的机会。得益于强大的上下文理解与模...
31