这是作者新开的一个专栏,主要翻译国外知名安全厂商的技术报告和安全技术,了解它们的前沿技术,学习它们威胁溯源和恶意代码分析的方法,希望对您有所帮助。当然,由于作者英语有限,会借助LLM进行校验和润色,最...
实战解读:Llama 3 安全性对抗分析
近日,腾讯朱雀实验室、科恩实验室和上海人工智能实验室 司南 OpenCompass 团队针对 Llama 3 安全性做了进一步解读。 2024 年 4 月 18 日,Meta 更新了旗下用于保护和加固...
观点 | 视频生成人工智能Sora的法律问题研究
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文|北京师范大学法学院 宋锦近日,美国著名科技公司OpenAI推出了世界首个视频生成模型Sora,再度引发全球高度关注。前...
Google如何利用生成式AI加速事件响应流程
本文主要介绍了谷歌如何将生成式AI技术应用到网络安全事件响应流程中,特别是在撰写事件总结和高管更新报告方面。通过对比试验,他们发现AI生成的事件总结在质量和效率上都优于人工撰写。报告还讨论了应用AI的...
技术实践|大模型内容安全蓝军的道与术
1、引子大语言模型(LLM)在2023年大放异彩,在许多领域展现出强大的能力,包括角色扮演,文本创作,逻辑推理等。然而,随着其应用范围的扩大,生成内容的安全问题也日益凸显。这包括但不限于生成虚假信息、...
【论文速读】|理解基于大语言模型的模糊测试驱动程序生成
本次分享论文:Understanding Large Language Model Based Fuzz Driver Generation基本信息原文作者:Cen Zhang, Mingqiang ...
基于ChatGPT大语言模型,通过聊天机器人自动创建vulhub的漏洞靶机环境
免责声明:由于传播、利用本公众号李白你好所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,公众号李白你好及作者不为此承担任何责任,一旦造成后果请自行承担!如有侵权烦请告知,我们会立...
科恩BinaryAI@ICSE2024论文解读|基于大模型的二进制软件成分分析
0引言随着开源软件在商业及个人项目中变得日益普及,开发团队越来越多地依赖外部组件库以加速开发进程,软件供应链的复杂性不断增加,同时也带来了潜在的安全风险。例如,XZ后门漏洞(CVE-2024-3094...
LLM 安全 | 大语言模型应用安全入门
一、背景2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些...
【论文速读】|大语言模型(LLM)智能体可以自主利用1-day漏洞
本次分享论文: LLM Agents can Autonomously Exploit One-day Vulnerabilities 基本信息 原文作者:Richard Fang, Rohan Bi...
[论文工具] LaTeX常见错误及解决方法汇总笔记(eps2pdf失败 | 特殊符号 | 参考文献未显示或越界)
祝大家中秋国庆双节快乐!回过头来,我们在编程过程中,经常会遇到各种各样的问题。然而,很多问题都无法解决,网上夹杂着各种冗余的回答,甚至需要看自己多年前的博客来解决。为更好地从事科学研究和编程学习,后续...
【Vidar论文研读分享】一种更安全的LLM指令层次结构
今天是世界读书日,我们一起来简短地读一篇轻松惬意的LLM安全相关的文章。来自OpenAI团队,发布于4月19日,非常的热乎。Intro现代大语言模型 (LLM) 不再单纯得被设计为简单的auto-co...
10