近年来,随着 ChatGPT 和其他大型语言模型 (LLM) 的广泛使用,网络安全已成为人们最关心的问题。在众多问题中,网络安全专家想知道这些工具在发动攻击时有多有效。网络安全研究人员 Richard...
AttackGen:一款基于LLM的网络安全事件响应测试工具
关于AttackGenAttackGen是一款功能强大的网络安全事件响应测试工具,该工具利用了大语言模型和MITRE ATT&CK框架的强大功能,并且能够根据研究人员选择的威胁行为组织以及自己...
甲方安全建设-利用AI大模型协助安全运营
前言现在AI流行,chatgpt官方和很多公司都开放了类gpts接口,也就是用户可以创建自己的gpt,内置好自己的知识库和处理逻辑,然后根据用户的输入进行处理和输出,那么在安全运营的工作中,我们也可以...
什么是提示词注入攻击?大语言模型为Web安全带来的新风险!
在Web安全领域,最基础的一课就是防范注入攻击。注入攻击是指攻击者在应用程序接收用户输入的地方注入自己精心构造的攻击代码,以达到执行任意操作、篡改数据或者获取敏感信息的目的。注入攻击是 Web 应用程...
GitHub Copilot 聊天:从即时注入到数据泄露
这篇文章重点介绍了GitHub Copilot Chat VS Code Extension在分析不受信任的源代码时如何容易通过提示注入造成数据泄露。 GitHub Copilot 聊天 GitHub...
【论文速读】|MEDFUZZ:探索大语言模型在医学问题回答中的鲁棒性
本次分享论文:MEDFUZZ: EXPLORING THE ROBUSTNESS OF LARGE LANGUAGE MODELS IN MEDICAL QUESTION ANSWERING基本信息原...
【论文速读】| LLAMAFUZZ:大语言模型增强的灰盒模糊测试
本次分享论文:LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing基本信息原文作者:Hongxiang Zhang, Yuyang Rong...
网络安全知识:大模型攻击之什么是即时注入攻击?
什么是即时注入攻击? 提示注入是针对大型语言模型(LLM)的一种网络攻击。黑客将恶意输入伪装成合法提示,操纵生成式人工智能系统 (GenAI) 泄露敏感数据、传播错误信息,甚至造成更糟的情况。 最基...
【公益译文】大语言模型安全测试方法
一前言世界数字技术院(WDTA)开发和发布了“大语言模型安全测试方法”,这表明相关人员始终致力于推进关键进展,保证人工智能技术的可信和安全使用。大语言模型等人工智能系统逐渐成为社会各个领域中不可或缺的...
【论文速读】|利用大语言模型实现现实世界代码的翻译:一项针对翻译到Rust语言的研究
本次分享论文:Towards Translating Real-World Code with LLMs: A Study of Translating to Rust基本信息原文作者:Hasan F...
ChatRule—基于LLM挖掘KG中的逻辑规则
一. 引言在本文中,我们提出了一个新的框架 ChatRule,提升LLM在知识图谱上挖掘逻辑规则的能力。具体而言,该框架以基于 LLM 的规则生成器为起点,利用 KGs 的语义和结构信息来促使 LL...
阿里开源的qwen-agent长文本agent RAG
阿里这个方法,其实在langchain之前就实现了,只是说langchain是个框架,不做具体的内容。其实很多论文也有类似的解决多跳,不过我发这个原因是它国产的,自己人干的好就要吹加上qwen2tok...
44