随着人工智能技术的快速普及,新的安全漏洞和越狱方法不断涌现。Palo Alto Networks的Unit 42研究团队近日发现了一种新型越狱技术——“Bad Likert Judge”,该技术能突破...
新型 AI 越狱方法Bad Likert Judge将攻击成功率提升 60% 以上
导 读网络安全研究人员揭示了一种新的越狱技术,该技术可用于突破大型语言模型 (LLM) 的安全护栏并产生潜在的有害或恶意响应。这种多回合(又称多次攻击)攻击策略被Palo Alto Networks ...
ChatGPT-4o 被发现可利用实时语音实施诈骗
研究人员表明,有恶意分子可以滥用 OpenAI 的 ChatGPT-4o的实时语音 API 来实施从低到中等成功率的金融诈骗。ChatGPT-4o 是 OpenAI 最新的 AI 模型,带来了新的增...
USENIX Security 2023论文:声纹识别无查询黑盒对抗攻击
前言这篇文章介绍我们前段时间被计算机安全四大顶会之一的USENIX Security 2023接收的论文,也是笔者作为第一作者的第二篇安全四大。论文题目为“QFA2SR: Query-Free Adv...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
基本信息原文标题:RED QUEEN: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking原文作者...
欺骗性的喜悦:人工智能再次被黑客技术欺骗,成功率达 65%
Palo Alto Networks 专家开发了一种名为“Deceptive Delight”的创新技术,可以绕过语言人工智能(AI) 模型的防御机制。这种技术将安全和不安全的内容结合在看似无害的环境...
研究人员开发出新的 LLM 越狱方法,成功率达 65%
Palo Alto Networks Unit 42 的研究人员周三报告称,一种名为“Deceptive Delight”的大型语言模型 (LLM) 的新越狱方法仅在三次交互中平均成功率就达到 65%...
【论文速读】| 针对大语言模型的有效且具有规避性的模糊测试驱动越狱攻击
基本信息原文标题:Effective and Evasive Fuzz Testing-Driven Jailbreaking Attacks against LLMs原文作者:Xueluan Gon...
G.O.S.S.I.P 阅读推荐 2024-09-27 Certifiable Black-box Attack 可验证黑盒攻击
今天给大家推荐近期被CCS 2024接收的论文Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking ...
AI 绕过 reCAPTCHA v2 的成功率达到 100%
由 Andreas Plesner 领导的苏黎世联邦理工学院研究团队展示了Google 的 reCAPTCHA v2 易受复杂 AI 模型攻击的弱点。他们的 AI 模型 YOLO(You Only L...
G.O.S.S.I.P 阅读推荐 2024-09-23 大模型越狱,攻防战谁更胜一筹
今天给大家推荐的是一篇和大模型安全相关的有趣研究,名为A Comprehensive Study of Jailbreak Attack versus Defense for Large Langua...