基本信息原文标题:Stealthy Jailbreak Attacks on Large Language Models via Benign Data Mirroring原文作者:Honglin M...
AI大模型用于Fuzzing测试
这两年,随着大模型代码能力的增强,很多公司已经在采用大模型编写代码,大大提升效率。大模型虽然代码写得快,但写的代码并不安全,很多甚至不如成熟程序员写的代码。一方面,代码生成速度大幅提升,另一方面,代码...
[译文] LLM安全:4.绕过 Azure AI 内容安全防护措施(字符注入和对抗机器学习)
“2024年4月28日是Eastmount的安全星球 —— 『网络攻防和AI安全之家』正式创建和运营的日子,该星球目前主营业务为 安全零基础答疑、安全技术分享、AI安全技术分享、AI安全论文交流、威胁...
专题解读 | 大语言模型在序列推荐中的应用
大语言模型在序列推荐中的应用一、简介序列推荐技术通过分析用户的过往交互历史,能够有效挖掘出用户可能感兴趣的项目,对于提升各类应用的服务质量具有重要作用。近期,大语言模型(LLMs)的发展在应对复杂的推...
大语言模型安全,到底是什么的安全
什么是AI安全自ChatGPT问世以来,市场上涌现出了众多大型语言模型和多样化的AI应用。这些应用和模型在为我们的生活带来便利的同时,也不可避免地面临着安全挑战。AI安全,即人工智能安全,涉及在人工智...
安全e刻 | 重大突破!AI首次发现内存安全漏洞
重大突破!AI首次发现内存安全漏洞近日,谷歌宣布其大语言模型(LLM)项目“Big Sleep”成功发现了一个SQLite数据库引擎中的内存安全漏洞,这是人工智能首次在真实软件中发现可利用的内存安全漏...
【论文速读】| F2A:一种利用伪装安全检测智能体进行提示注入的创新方法
基本信息原文标题:F2A: An Innovative Approach for Prompt Injection by Utilizing Feign Security Detection Agen...
【公益译文】对抗式机器学习攻击与缓解措施分类及术语(下)
全文共18526字,阅读大约需28分钟。往期推荐:【公益译文】对抗式机器学习攻击与缓解措施分类及术语(上)三生成式AI分类生成式AI包括多种人工智能技术,它们具有不同的起源、建模方法和相关属性:生成式...
专题解读 | 图检索增强生成研究进展
GraphRAG研究进展一、简介近年来,检索增强生成(Retrieval-Augmented Generation, RAG)在解决大语言模型(LLMs)所面临的挑战方面取得了显著成功,而无需对模型进...
重大突破!AI首次发现内存安全漏洞
近日,谷歌宣布其大语言模型(LLM)项目“Big Sleep”成功发现了一个SQLite数据库引擎中的内存安全漏洞,这是人工智能首次在真实软件中发现可利用的内存安全漏洞(且该漏洞无法通过传统的模糊测试...
谷歌称其人工智能发现了模糊测试遗漏的 SQLite 漏洞
导 读谷歌表示,大型语言模型 (LLM) 项目能够发现 SQLite 中的一个漏洞,而其研究人员无法使用传统的模糊测试发现相同的漏洞。谷歌在 6 月份公布了Naptime 项目的细节,该项目旨在评估 ...
WhiteRabbitNeo:以惊人的速度和精度识别和利用漏洞
导 读WhiteRabbitNeo 的最新版本(2.5 版)代表着网络安全和 DevSecOps 的一次飞跃。这款生成式 AI 工具(现已在Hugging Face上提供)像经验丰富的红队专家一样思考...
42