本次分享论文为:Large Language Models are Edge-Case Fuzzers: Testing Deep Learning Libraries via FuzzGPT基本信息...
HackPack(LLM挑战)Writeup
点击蓝字关注我们声明本文作者:CTF战队本文字数:约8504字阅读时长:约10分钟附件/链接:点击查看原文下载本文属于【狼组安全社区】原创奖励计划,未经许可禁止转载由于传播、利用此文所提供的信息而造成...
利用GPT进行代码审计-Beelt模板注入
概述Beetl 是一款高性能、开源的 Java 模板引擎,它提供了简洁而强大的模板语法,使开发者能够方便地生成动态的文本输出。Beetl 模板引擎具有灵活的配置选项和丰富的功能,可以广泛应用于 Web...
GPT-5将在6月发布前进行「红队进攻测试」
左右滑动查看更多“GPT-5将在6月发布”的消息刷屏了AI朋友圈。这则消息之所以被无数人相信并转发,是因为已经有不少技术人员在社交平台上晒出了「红队进攻测试」邀请。基于 GPT系列庞大的用户体量和影响...
普遍存在的LLM幻觉扩大了软件开发的攻击面
聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士大语言模型 (LLMs) 安全厂商 Lasso Security 指出,软件开发人员使用 LLMs 为攻击者在开发环境中传播恶意包带来了比之前所认为的...
LLM安全 | 大语言模型应用安全入门
一、背景2023年以来,LLM 变成了相当炙手可热的话题,以 ChatGPT 为代表的 LLM 的出现,让人们看到了无限的可能性。ChatGPT能写作,能翻译,能创作诗歌和故事,甚至能一定程度上做一些...
【视频图像取证篇】视频模型Sora助力元宇宙,虚拟与现实的真正碰撞如此简单
先说句抱歉,原本想多展开写写Sora、元宇宙技术碰撞的结果,但近期个人时间有限,很多想写的及实验的部分还未附上,仅在此做个记录先!伟大的发明,沉浸式体验,弱化虚拟与现实的壁垒,让沉浸式体验更加逼真,建...
GPT在安全领域是否也那般神奇(下)
上篇分享了生成式预训练Transformer模型技术原理和模型整个的训练过程,本篇我们详细介绍下大模型在安全垂直领域到底有哪些应用场景,以及不同场景下带来的变量和智能化程度。(本文主要聚焦威胁分析、处...
从2023网络安全态势,看2024网络安全趋势
2023年,是网络安全领域瞬息万变的一年。各种大模型被应用于网络攻击与对抗中,带来了新的攻防场景和安全威胁。勒索团伙更是利用多个漏洞对企业数据和财产安全构成严重威胁,数据安全问题频繁出现,个人信息的泄...
恶意插件警报:ChatGPT用户或面临帐户劫持风险
关键词ChatGPT网络安全研究人员发现,可用于 OpenAI ChatGPT 的第三方插件可能会成为希望未经授权访问敏感数据的威胁行为者的新攻击面。根据 Salt Labs 发表的新研究,直接在 C...
【漏洞复现】NextChat cors SSRF 漏洞(CVE-2023-49785)
漏洞描述:NextChat是一个面向用户的GPT类应用程序,用户可以通过这个程序与GPT进行交互,2024年3月,互联网上披露CVE-2023-49785 NextChat cors SSRF 漏洞,...
xAI发布Grok-1 —— 最大的开源LLM
Elon Musk 的人工智能公司 xAI 在 Apache 2.0 许可下发布了其 3140 亿参数MoE混合专家模型 Grok-1 的权重和架构。埃隆·马斯克也兑现了之前向公众免费开放Grok的承...