近日,“AI+Security” 系列第 4 期线下活动于北京成功举办,聚焦 “洞” 见未来:AI 驱动的漏洞挖掘新范式,汇聚了安全领域的众多专家。水木羽林技术专家张强博士以“LLM辅助的模糊测试增强...
专题解读 | 多模态模型和图大模型的词元化(Tokenization)问题
Tokenzation: Beyond Tokenizers of LLMs1 什么是TokenizationTokenzation,指的是将数据转换为离散序列的过程。例如,我们在阅读英语时,我们是一...
使用LLM混淆恶意 JavaScript,88%的恶意样本可以逃避检测
基于大语言模型的对抗性攻击与防御:以恶意JavaScript为例我们开发了一种对抗性机器学习算法,利用大语言模型(LLM)来大规模生成恶意JavaScript代码的变体。通过这项研究,我们提升了对野外...
NDSS 2025|Prompt泄露风险:抖音集团安全研究团队揭露多租户KV缓存共享漏洞
抖音集团安全研究团队和南方科技大学可信系统安全实验室合作的研究论文揭示了大语言模型安全领域服务框架的侧信道漏洞,利用多租户场景下的KV缓存共享机制精确恢复了用户提示词。本工作成果《I Know Wha...
大模型用于代码扫描,论文一
从软件工程的角度说,漏洞(BUG)发现越早,解决的成本越低,所以,很多问题倾向于在代码阶段就解决,伴随着这个需求,产生了一系列的应用,这里边,SAST(Static Application Secur...
强制解码越狱大模型
文章首发奇安信社区:https://forum.butian.net/share/3966前言安全对齐(Safety Alignment)在人工智能(AI)和大规模语言模型(LLM)的研究中,指的是确...
来和大模型斗智斗勇(二)
大模型提示词工程是一个技术活,可以让大模型更好的输出你想要的内容。甚至可以通过prompt来让大模型输出不能输出的内容。继续对之前发现的项目LLM Riddles进行解谜。系列历史文章来和大模型斗智斗...
来和大模型斗智斗勇(一)
大模型提示词工程是一个技术活,可以让大模型更好的输出你想要的内容。甚至可以通过prompt来让大模型输出不能输出的内容。最近发现了一个好玩的项目LLM Riddles,特此开个系列来玩一玩,提高一下咱...
Google 的 XRefer:复杂恶意软件分析的终极工具
为了加快恶意软件逆向工程的进程,Mandiant FLARE 发布了 XRefer,这是一个在Google Gemini上运行的 IDA Pro 开源插件。 XRefer 解决了浏览复杂恶意软件的挑战...
KDD25 | 大语言模型能否提高图神经网络的对抗鲁棒性?
Can Large Language Models Improve the Adversarial Robustness of Graph NeuralNetworks?作者:张中健,王啸,周辉池,于...
浅谈利用AI对微信群聊侦查分析(三)附prompt+工具零成本实操
工欲善其事,必先利其器前段时间发布了《浅谈AI对微信群聊的侦查分析》这篇文章我在侦查要素分解中,首次采用提示工程使用AI对侦查要素进行概念分解,以帮助我发现群聊信息中的关键线索,补充可能存在的信息茧房...
LLM 安全与安全性研究 第一部分:我该做什么?
Research LLM Security & Safety Part 1. What should I do 0. 引言两年前,OpenAI 发布了 ChatGPT 3.5,随后,LLM 充...
44