本次分享论文:LLM4FUZZ: Guided Fuzzing of Smart Contracts with Large Language Models基本信息原文作者:Chaofan Shou, ...
微软为美国情报部门提供物理隔离版ChatGPT
如何将ChatGPT这样的顶流人工智能技术安全地武器化,供情报机构和军队使用?微软给出的答案是“物理隔离”。提示注入攻击和训练数据泄露是包括ChatGPT在内的当前主流大语言模型面临的主要安全威胁,也...
成果分享 | 基于靶向变异的大语言模型安全通用基准测试集JADE-DB
JADE-DB:基于靶向变异的大语言模型安全通用基准测试集张谧,潘旭东,杨珉《计算机研究与发展》DOI: 10.7544/issn1000-1239.202330959摘要本文提出大语言模型安全通用基...
【论文速读】|针对模糊驱动生成的提示性模糊测试
本次分享论文:Prompt Fuzzing for Fuzz Driver Generation基本信息原文作者:Yunlong Lyu, Yuxuan Xie, Peng Chen, Hao Che...
白泽SAST团队:将LLM织入SAST程序分析流程的实践
SAST在国内外市场,静态应用安全测试(SAST)已经取得了初步的成功,但随着DevSecOps、安全左移等安全理念的出现和普及,对SAST产品在效果效率、功能易用性上需求也在不断提高。 静态程序分析...
每周GitHub精选(2024.5.5)
欢迎访问我们的网站和关注我们的公众号,获取最新的免费资源、安全知识、信息流。 网站:https://hackerchi.top ...
owasp大模型应用威胁视图理解大模型应用目前所面临的主要安全威胁
由于微信公众号推送机制的改变避免错过文章麻烦您将公众号设为星标感谢您的支持!想要学习:【漏洞挖掘,内网渗透OSCP,车联网,二进制】的朋友欢迎加入知识星球一起学习。如果不满意,72小时内可在APP内无...
专为在个人设备本地运行而设计,苹果推出小型开源AI模型OpenELM
科技巨头苹果公司最近又新推出了一款名为OpenELM的开源大语言模型,与市面上其他LLM产品不同的是,OpenELM设计为直接在本地设备上运行,而无需云计算。以往LLM产品常为用户所诟病的一点就是隐私...
实战解读:Llama 3 安全性对抗分析
近日,腾讯朱雀实验室、科恩实验室和上海人工智能实验室 司南 OpenCompass 团队针对 Llama 3 安全性做了进一步解读。 2024 年 4 月 18 日,Meta 更新了旗下用于保护和加固...
【论文速读】|理解基于大语言模型的模糊测试驱动程序生成
本次分享论文:Understanding Large Language Model Based Fuzz Driver Generation基本信息原文作者:Cen Zhang, Mingqiang ...
【论文速读】|大语言模型(LLM)智能体可以自主利用1-day漏洞
本次分享论文: LLM Agents can Autonomously Exploit One-day Vulnerabilities 基本信息 原文作者:Richard Fang, Rohan Bi...
【Vidar论文研读分享】一种更安全的LLM指令层次结构
今天是世界读书日,我们一起来简短地读一篇轻松惬意的LLM安全相关的文章。来自OpenAI团队,发布于4月19日,非常的热乎。Intro现代大语言模型 (LLM) 不再单纯得被设计为简单的auto-co...
30