基本信息原文标题:Transferable Ensemble Black-box Jailbreak Attacks on Large Language Models原文作者:Yiqi Yang, H...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
G.O.S.S.I.P 阅读推荐 2024-10-28 Query Provenance Analysis
新的一周开始了,今天我们介绍北京大学计算机学院操作系统实验室完成并投稿的,关于使用溯源分析技术(Provenance Analysis)保护深度学习模型的工作Query Provenance Anal...
G.O.S.S.I.P 阅读推荐 2024-09-27 Certifiable Black-box Attack 可验证黑盒攻击
今天给大家推荐近期被CCS 2024接收的论文Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking ...
多模态大语言模型的致命漏洞:语音攻击
OpenAI近日发布的GPT-4o多模态大语言模型震惊了世界,该模型可以通过传感器感知世界并与人类通过语音进行无缝交流,完成各种复杂任务(例如给孩子辅导数学),将科幻电影中的智能机器人场景带入现实。G...
如何阻止针对AI模型的对抗性攻击
人工智能(AI)技术的进步已对人类社会产生了重大影响,但也引起了研究人员的担忧,因为随着AI技术的深入应用,与之相应的对抗性攻击也变得越来越普遍。这些攻击可能会对AI系统的安全性和可靠性造成威胁,甚至...