本次分享论文:Attack Prompt Generation for Red Teaming and Defending Large Language Models基本信息原文作者:Boyi Den...
SecMet#1期 理解和度量大模型的安全问题
[SecMet]是安全学术圈近期打造的一个线上线下结合的学术研讨模式,研讨会分为全公开和半公开模式,其中半公开模式仅对安全学术圈内部交流群和特殊专题投稿人员参加,每期主题根据领域主席(Primary ...
GPT-4 只需阅读威胁通报即可利用大多数漏洞
导 读配备 GPT-4 的人工智能代理只需在线阅读相关信息,就可以利用影响当今现实世界系统的大多数公共漏洞。伊利诺伊大学厄巴纳-香槟分校 (UIUC) 的新发现(论文下载地址:https://arxi...
【论文速读】| CHEMFUZZ: 大语言模型辅助模糊测试用于量子化学软件缺陷检测
本次分享论文为:CHEMFUZZ: Large Language Models-assisted Fuzzing for Quantum Chemistry Software Bug Detectio...
【论文速读】| 基于大语言模型的模糊测试技术
本次分享论文为:Large Language Models Based Fuzzing Techniques: A Survey基本信息原文作者:Linghan Huang, Peizhou Zhao...
普遍存在的LLM幻觉扩大了软件开发的攻击面
聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士大语言模型 (LLMs) 安全厂商 Lasso Security 指出,软件开发人员使用 LLMs 为攻击者在开发环境中传播恶意包带来了比之前所认为的...
【论文速读】| 对大语言模型解决攻击性安全挑战的实证评估
本次分享论文为:An Empirical Evaluation of LLMs for Solving Offensive Security Challenges基本信息原文作者:Minghao Sh...
【论文速读】| 增强静态分析以实现实用漏洞检测:一种集成大语言模型的方法
本次分享论文为:Enhancing Static Analysis for Practical Bug Detection: An LLM-Integrated Approach基本信息原文作者:Ha...
Google AI漏洞详细
生成式人工智能(GenAI)和大型语言模型(LLM)是过去一年讨论的焦点。当 GPT 发布时,OpenAI 打开了LLM在技术生态系统中的使用大门。像Meta,Microsoft和Google这样的公...
【论文速读】 | AI驱动修复:漏洞自动化修复的未来
本次分享论文为:AI-powered patching: the future of automated vulnerability fixes 基本信息 原文作者:Jan Nowakowski, J...
微软、OpenAI警告:国家级黑客借助AI进行网络攻击
Nation-state actors associated with Russia, North Korea, Iran, and other country are experimenting w...
G.O.S.S.I.P 阅读推荐 2023-10-31 如何写好 Prompt,让 GPT适用于静态分析
“ 最近看了一些LLMs与静态分析结合的文章,包括使用LLMs进行代码总结、注释补充等等,因此想稍微总结并测试一下prompt的正确写法。”1. 测试目标 测试目标和最近在做的工作有关系,主要是...