这是作者新开的一个专栏,主要翻译国外知名安全厂商的技术报告和安全技术,了解它们的前沿技术,学习它们威胁溯源和恶意代码分析的方法,希望对您有所帮助。当然,由于作者英语有限,会借助LLM进行校验和润色,最...
Google如何利用生成式AI加速事件响应流程
本文主要介绍了谷歌如何将生成式AI技术应用到网络安全事件响应流程中,特别是在撰写事件总结和高管更新报告方面。通过对比试验,他们发现AI生成的事件总结在质量和效率上都优于人工撰写。报告还讨论了应用AI的...
开源、离线、免费商用的大模型知识库:Langchain-Chatchat
你是否也有这样的桌面?为了方便找材料,全部放到了桌面,最后结果就是“用起一时爽,找起火葬场”。 (图片来源于网络) 你是否也是盘即个人电脑磁使再怎么不够用,也舍不得删除几年前做的运维方案、架构方案、设...
【论文速读】|理解基于大语言模型的模糊测试驱动程序生成
本次分享论文:Understanding Large Language Model Based Fuzz Driver Generation基本信息原文作者:Cen Zhang, Mingqiang ...
LLM 安全 | 大语言模型应用安全入门
一、背景2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些...
【论文速读】|大语言模型(LLM)智能体可以自主利用1-day漏洞
本次分享论文: LLM Agents can Autonomously Exploit One-day Vulnerabilities 基本信息 原文作者:Richard Fang, Rohan Bi...
【Vidar论文研读分享】一种更安全的LLM指令层次结构
今天是世界读书日,我们一起来简短地读一篇轻松惬意的LLM安全相关的文章。来自OpenAI团队,发布于4月19日,非常的热乎。Intro现代大语言模型 (LLM) 不再单纯得被设计为简单的auto-co...
使用零信任掌控 LLM 人工智能
模型能干的事情越多,干错事的风险就越大,所以必须给它们设置点规矩,就好比给孙大圣带上紧箍咒。如果一个模型能生成一个Envelope并调用REST API,听着是不是很牛?但这也意味着,如果有人想入侵我...
《大语言模型(LLM)攻防实战手册》第一章:提示词注入(LLM01)-概述
前言 从本周开始考虑连载关于大模型安全的文章名字就叫做《大语言模型(LLM)攻防实战手册》,主要基于owasp llm top 10所整理的框架进行编写,并辅以案例、代码进行完善,希望我能有精力持续更...
【论文速读】| MASTERKEY:大语言模型聊天机器人的自动化越狱
本次分享论文为:MASTERKEY: Automated Jailbreaking of Large Language Model Chatbots基本信息原文作者:Gelei Deng, Yi Li...
【论文速读】| 大语言模型平台安全:将系统评估框架应用于OpenAI的ChatGPT插件
本次分享论文为:LLM Platform Security: Applying a Systematic Evaluation Framework to OpenAI’s ChatGPT Plugin...
GPT-4 只需阅读威胁通报即可利用大多数漏洞
导 读配备 GPT-4 的人工智能代理只需在线阅读相关信息,就可以利用影响当今现实世界系统的大多数公共漏洞。伊利诺伊大学厄巴纳-香槟分校 (UIUC) 的新发现(论文下载地址:https://arxi...
42