大型语言模型通过图灵测试Large Language Models Pass the Turing Test本文摘要本研究通过两项随机化、对照且预先注册的图灵测试,在两个独立群体中对四类系统(ELIZ...
某高校gpt漏洞
Part-01背景 日常开展src测试,通过信息收集,发现某高校自建的gpt系统,还给注册账号!注册完后,测试发现存在html注入漏洞。分享下过程!Part-02实战秉承见框就插的原则,效果立杆...
本地部署小模型的大风险
随着大语言模型在各行各业展现威力,如何让它们“瘦身”以降低部署成本,成为业界关注焦点。“模型蒸馏”正是在这样的背景下走红:通过让小模型学习大模型的行为,我们可以得到“蒸馏量化”后的“小模型”,既保留大...
代码审计工具箱《支持GPT审计》
CNMistSafety GPT代码审计工具箱 先说一下废话,因为最近openai比较火热,我也观察到公众号也有一些大佬开发了GPT代码审计工具,但是我个人觉得不够完善,并且接入GPT...
利用主流 AI(如 Kimi、DeepSeek、GPT 等)检测越权漏洞的工具
工具介绍 PrivHunterAI一款通过被动代理方式,利用主流 AI(如 Kimi、DeepSeek、GPT 等)检测越权漏洞的工具。其核心检测功能依托相关 AI 引擎的开放 API ...
间接提示注入攻击全面测评
前言大型语言模型(LLMs)正日益被整合到代理框架中,使其能够通过工具执行特定操作。这些代理不仅可以处理复杂的任务,还能够与外部系统交互,例如自动化流程和设备控制等。随着技术的进步,LLM驱动的代理被...
Perplexity新增GPT-4.5和Claude 3.7模型
最近,包括微软、英伟达在内的全球各大平台都已经使用了deepseek的R1模型,这里面也包括perplexity:由于deepseek R1模型的强大血脉压制,OpenAI不得不连夜推出了o3-min...
大模型安全评估神器-Garak
字数 950,阅读大约需 5 分钟 大模型安全评估神器---Garak Garak是干什么的? Garak,全称 Generative AI Red-teaming & Assessment ...
LLM技术浪潮下,漏挖人能否保住饭碗?
大语言模型(LLM)近期成为安全研究和竞赛中的热门话题,涵盖了大模型在安全领域的应用以及自身的安全性等方向,这一趋势为许多非大模型安全研究领域的研究者提供了了解和探索的机会。得益于强大的上下文理解与模...
内存注入攻击:使用简单查询破解 AI 内存
美国和新加坡的科学家开发出一种操纵大型语言模型 (LLM) 内存的新技术,使攻击者能够巧妙地干扰 AI 操作。这种方法被称为 MINJA(内存注入攻击),攻击者无需直接访问 AI 代理的内部机制,而是...
APT攻击全景透视:0day漏洞、AI利用,2024年攻防对抗启示录
2024年,全球APT组织通过技术跃迁、组织升级等不断演化和扩张,已将攻击的魔爪伸向影响更广泛、更具破坏性的领域。高级持续性威胁(APT)正在经历新一轮技术跃迁,攻防对抗再度升级。从利用0day漏洞渗...
AI编码助手的进化历程与思考
一、编码助手的演变我们重新定义为3个时代:代码弱预测时代 --> 代码强预测时代 --> 代码智能交互时代1. 代码弱预测时代(2010-2018)基于统计的马尔可夫链模型 早期工具通过马...