您已经在使用ChatGPT了吗?或者您正在考虑使用它来简化操作或改善客户服务?虽然ChatGPT提供了许多好处,但重要的是,您要意识到与ChatGPT这样的人工智能工具共享敏感业务数据相关的安全风险。...
基于LLM的被动扫描工具:burpGpt
基于LLM的被动扫描工具: burpGpt 随着人工智能技术的快速发展,chatgpt这类生成式AI应用已经逐渐渗透进社会的方方面面。作为渗透测试人员,我们也在思考该如何使用大语言模型提高我们的测试效...
黑客攻击各大AI语言模型平台,转卖获取隐私信息
近日。安全公司 Sysdig 发布报告,声称有大量黑客瞄准各大 LLM 大语言模型网络平台发动“LLM 劫持”攻击,黑客通过一系列方式盗取用户账号密码,将模型 API 转卖给第三方,还从用户的对话记录...
ChatGPT 4可利用87%一日漏洞
近年来,随着 ChatGPT 和其他大型语言模型 (LLM) 的广泛使用,网络安全已成为人们最关心的问题。在众多问题中,网络安全专家想知道这些工具在发动攻击时有多有效。网络安全研究人员 Richard...
AttackGen:一款基于LLM的网络安全事件响应测试工具
关于AttackGenAttackGen是一款功能强大的网络安全事件响应测试工具,该工具利用了大语言模型和MITRE ATT&CK框架的强大功能,并且能够根据研究人员选择的威胁行为组织以及自己...
甲方安全建设-利用AI大模型协助安全运营
前言现在AI流行,chatgpt官方和很多公司都开放了类gpts接口,也就是用户可以创建自己的gpt,内置好自己的知识库和处理逻辑,然后根据用户的输入进行处理和输出,那么在安全运营的工作中,我们也可以...
什么是提示词注入攻击?大语言模型为Web安全带来的新风险!
在Web安全领域,最基础的一课就是防范注入攻击。注入攻击是指攻击者在应用程序接收用户输入的地方注入自己精心构造的攻击代码,以达到执行任意操作、篡改数据或者获取敏感信息的目的。注入攻击是 Web 应用程...
GitHub Copilot 聊天:从即时注入到数据泄露
这篇文章重点介绍了GitHub Copilot Chat VS Code Extension在分析不受信任的源代码时如何容易通过提示注入造成数据泄露。 GitHub Copilot 聊天 GitHub...
【论文速读】|MEDFUZZ:探索大语言模型在医学问题回答中的鲁棒性
本次分享论文:MEDFUZZ: EXPLORING THE ROBUSTNESS OF LARGE LANGUAGE MODELS IN MEDICAL QUESTION ANSWERING基本信息原...
【论文速读】| LLAMAFUZZ:大语言模型增强的灰盒模糊测试
本次分享论文:LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing基本信息原文作者:Hongxiang Zhang, Yuyang Rong...
网络安全知识:大模型攻击之什么是即时注入攻击?
什么是即时注入攻击? 提示注入是针对大型语言模型(LLM)的一种网络攻击。黑客将恶意输入伪装成合法提示,操纵生成式人工智能系统 (GenAI) 泄露敏感数据、传播错误信息,甚至造成更糟的情况。 最基...
【公益译文】大语言模型安全测试方法
一前言世界数字技术院(WDTA)开发和发布了“大语言模型安全测试方法”,这表明相关人员始终致力于推进关键进展,保证人工智能技术的可信和安全使用。大语言模型等人工智能系统逐渐成为社会各个领域中不可或缺的...
42