T/CECC 027—2024《生成式人工智能数据应用合规指南》与2024年5月1日起实施。《标准》在内容方面给出了生成式人工智能服务在数据采集、数据标注、训练数据预处理、模型训练与测试、内容生成服...
如何利用关键 Ray 框架漏洞来入侵全球 AI 机器?
自 2023 年 9 月 5 日以来,一种名为“ShadowRay”活动的复杂网络威胁针对 Ray 框架中的漏洞。该活动凸显了 Ray 框架中的一个严重漏洞,该框架由 Anyscale 开发,并被 A...
[译文] LLM安全:1.黑客如何读取您与ChatGPT或微软Copilot的聊天内容
这是作者新开的一个专栏,主要翻译国外知名安全厂商的技术报告和安全技术,了解它们的前沿技术,学习它们威胁溯源和恶意代码分析的方法,希望对您有所帮助。当然,由于作者英语有限,会借助LLM进行校验和润色,最...
实战解读:Llama 3 安全性对抗分析
近日,腾讯朱雀实验室、科恩实验室和上海人工智能实验室 司南 OpenCompass 团队针对 Llama 3 安全性做了进一步解读。 2024 年 4 月 18 日,Meta 更新了旗下用于保护和加固...
观点 | 视频生成人工智能Sora的法律问题研究
扫码订阅《中国信息安全》邮发代号 2-786征订热线:010-82341063文|北京师范大学法学院 宋锦近日,美国著名科技公司OpenAI推出了世界首个视频生成模型Sora,再度引发全球高度关注。前...
Google如何利用生成式AI加速事件响应流程
本文主要介绍了谷歌如何将生成式AI技术应用到网络安全事件响应流程中,特别是在撰写事件总结和高管更新报告方面。通过对比试验,他们发现AI生成的事件总结在质量和效率上都优于人工撰写。报告还讨论了应用AI的...
技术实践|大模型内容安全蓝军的道与术
1、引子大语言模型(LLM)在2023年大放异彩,在许多领域展现出强大的能力,包括角色扮演,文本创作,逻辑推理等。然而,随着其应用范围的扩大,生成内容的安全问题也日益凸显。这包括但不限于生成虚假信息、...
【论文速读】|理解基于大语言模型的模糊测试驱动程序生成
本次分享论文:Understanding Large Language Model Based Fuzz Driver Generation基本信息原文作者:Cen Zhang, Mingqiang ...
基于ChatGPT大语言模型,通过聊天机器人自动创建vulhub的漏洞靶机环境
免责声明:由于传播、利用本公众号李白你好所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,公众号李白你好及作者不为此承担任何责任,一旦造成后果请自行承担!如有侵权烦请告知,我们会立...
科恩BinaryAI@ICSE2024论文解读|基于大模型的二进制软件成分分析
0引言随着开源软件在商业及个人项目中变得日益普及,开发团队越来越多地依赖外部组件库以加速开发进程,软件供应链的复杂性不断增加,同时也带来了潜在的安全风险。例如,XZ后门漏洞(CVE-2024-3094...
LLM 安全 | 大语言模型应用安全入门
一、背景2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些...
【论文速读】|大语言模型(LLM)智能体可以自主利用1-day漏洞
本次分享论文: LLM Agents can Autonomously Exploit One-day Vulnerabilities 基本信息 原文作者:Richard Fang, Rohan Bi...
72