左右滑动查看更多“GPT-5将在6月发布”的消息刷屏了AI朋友圈。这则消息之所以被无数人相信并转发,是因为已经有不少技术人员在社交平台上晒出了「红队进攻测试」邀请。基于 GPT系列庞大的用户体量和影响...
普遍存在的LLM幻觉扩大了软件开发的攻击面
聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士大语言模型 (LLMs) 安全厂商 Lasso Security 指出,软件开发人员使用 LLMs 为攻击者在开发环境中传播恶意包带来了比之前所认为的...
LLM安全 | 大语言模型应用安全入门
一、背景2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些...
【视频图像取证篇】视频模型Sora助力元宇宙,虚拟与现实的真正碰撞如此简单
先说句抱歉,原本想多展开写写Sora、元宇宙技术碰撞的结果,但近期个人时间有限,很多想写的及实验的部分还未附上,仅在此做个记录先!伟大的发明,沉浸式体验,弱化虚拟与现实的壁垒,让沉浸式体验更加逼真,建...
GPT在安全领域是否也那般神奇(下)
上篇分享了生成式预训练Transformer模型技术原理和模型整个的训练过程,本篇我们详细介绍下大模型在安全垂直领域到底有哪些应用场景,以及不同场景下带来的变量和智能化程度。(本文主要聚焦威胁分析、处...
从2023网络安全态势,看2024网络安全趋势
2023年,是网络安全领域瞬息万变的一年。各种大模型被应用于网络攻击与对抗中,带来了新的攻防场景和安全威胁。勒索团伙更是利用多个漏洞对企业数据和财产安全构成严重威胁,数据安全问题频繁出现,个人信息的泄...
恶意插件警报:ChatGPT用户或面临帐户劫持风险
关键词ChatGPT网络安全研究人员发现,可用于 OpenAI ChatGPT 的第三方插件可能会成为希望未经授权访问敏感数据的威胁行为者的新攻击面。根据 Salt Labs 发表的新研究,直接在 C...
【漏洞复现】NextChat cors SSRF 漏洞(CVE-2023-49785)
漏洞描述:NextChat是一个面向用户的GPT类应用程序,用户可以通过这个程序与GPT进行交互,2024年3月,互联网上披露CVE-2023-49785 NextChat cors SSRF 漏洞,...
xAI发布Grok-1 —— 最大的开源LLM
Elon Musk 的人工智能公司 xAI 在 Apache 2.0 许可下发布了其 3140 亿参数MoE混合专家模型 Grok-1 的权重和架构。埃隆·马斯克也兑现了之前向公众免费开放Grok的承...
AI 人工智能面临哪些攻击威胁?
对于这个问题,咱先问问 GPT 的回答:人工智能(AI)系统面临多种安全威胁,这些威胁可能会影响 AI 的性能、可靠性和安全性。以下是一些主要的攻击威胁:数据污染攻击(Data Poisoning A...
FuzzGpt:对深度学习库进行模糊测试的大语言模型|技术进展
基本信息原文名称:Large Language Models are Edge-Case Fuzzers: Testing DeepLearning Libraries via FuzzGPT原文作者...
免费!一键复刻目标网站的开源神器
背景介绍 只需要一张简单的截图,直接复刻一模一样的网站,把制作网站的门槛降到最低。短短几个月就在Github上斩获43.5k Star的开源神器–Screenshot to Code,轻...
30