全文共18526字,阅读大约需28分钟。 往期推荐:【公益译文】对抗式机器学习攻击与缓解措施分类及术语(上) 三 生成式AI分类 生成式AI包括多种人工智能技术,它们具有不同的起源、建模方法和相关属...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
《将LLM用于网络犯罪论坛的威胁情报》
一. 背景 近年来,随着人工智能的快速发展,大语言模型(LLM)已在多种应用场景中展现出其强大的文本生成与处理能力。网络犯罪论坛作为网络威胁信息的关键来源,汇聚了大量关于网络攻击手段、漏洞利用、黑客...
研究人员开发出新的 LLM 越狱方法,成功率达 65%
Palo Alto Networks Unit 42 的研究人员周三报告称,一种名为“Deceptive Delight”的大型语言模型 (LLM) 的新越狱方法仅在三次交互中平均成功率就达到 65%...
【论文速读】| LSAST:通过LLM支持的静态应用安全测试增强网络安全
基本信息原文标题:LSAST: Enhancing Cybersecurity through LLM-supported Static Application Security Testing原文作...
一种大模型端侧隐私保护方案
0x00 简介随着LLM应用的广泛普及,用户对提示词中的隐私信息泄漏的担忧日益增加。我们首次提出了一种可部署在端侧的提示词隐私保护方案,并对其安全性和可用性进行了评估。与安全多方计算(MPC)和Pre...
破解 Auto-GPT 并逃离其 docker 容器
我们展示了一种攻击,当要求 Auto-GPT 执行看似无害的任务(例如在攻击者控制的网站上进行文本摘要)时,该攻击利用间接提示注入来诱骗 Auto-GPT 执行任意代码在默认的非连续模式下,系统会在 ...
开源LLM工具准备嗅探 Python 零日漏洞
西雅图 Protect AI 的研究人员计划发布一款免费的开源工具,该工具可以在 Anthropic 的 Claude AI 模型的帮助下查找 Python 代码库中的零日漏洞。这款名为 Vulnhu...
软件测试顶会——ISSTA 2024 论文清单与摘要(下)
86、HECS: A Hypergraph Learning-Based System for Detecting Extract Class Refactoring OpportunitiesHEC...
软件测试顶会——ISSTA 2024 论文清单与摘要(上)
1、A Large-Scale Empirical Study on Improving the Fairness of Image Classification Models公平性一直是影响深度学习...
使用 LLM 和静态代码分析查找可利用漏洞的工具
在当今不断发展的网络安全环境中,识别代码库中的漏洞对于维护安全的软件和基础设施至关重要。Vulnhuntr 是一款可在 GitHub 上获取的开源工具,它利用大型语言模型(LLM) 和静态代码分析来识...
断路机制和math prompt jailbreak
最近在搞AI自动化渗透的时候刷到了一些资料,关于越狱攻击和防御的。一个是gray swan提出的短路机制,也就是实现类似lora的方式,在推理的过程中记录和观察活跃的节点部分,然后找到共性部分,然后当...