免责声明本文仅用于技术讨论与学习,利用此文所提供的信息而造成的任何直接或者间接的后果及损失,均由使用者本人负责,文章作者及本公众号不为此承担任何责任。start命令在Windows的CMD命令行中,s...
基准发布 | 大语言模型(LLM)安全性测评基准
“大语言模型(LLM)安全性测评基准2023年8月15日国家六个部委发布的《生成式人工智能服务管理暂行办法》正式施行,该办法强调了大语言模型安全的重要性,防止生成潜在隐私泄露、违法犯罪内容。为评估大语...
一个支付逻辑漏洞和一些tips
一个支付逻辑漏洞正文某目标为xxx.com,其网站上面有价格为999元的订阅优惠,这里使用burp suite,在点击支付的时候拦截该支付请求,将价格从999改为1,发现成功了几个高频率的xss的pa...
纽约大学 | 基于大语言模型的零样本漏洞修复研究
原文标题:Examining Zero-Shot Vulnerability Repair with Large Language Models 原文作者:Hammond Pearce, ...
G.O.S.S.I.P 阅读推荐 2023-10-27 LLM支持的协议Fuzzing
https://mpi-softsec.github.io/papers/NDSS24-chatafl.pdf 今天介绍一篇NDSS 2024论文,内容是基于LLM的协议fuzzing工作,来自德国m...
深入剖析大模型安全问题:Langchain框架的隐藏风险
作者:jifeng随着大模型热度持续,基于大模型的各类应用层出不穷。Langchain 作为一个以 LLM 模型为核心的开发框架,可以帮助我们灵活地创建各类应用,同时也为大模型的应用引入新的安全隐患。...
兰州大学 | ChatGPT 驱动的漏洞描述映射及评估
原文标题:Not The End of Story: An Evaluation of ChatGPT-Driven Vulnerability Description Mappings原文作者:Xi...
G.O.S.S.I.P 阅读推荐 2023-09-22 LLMs 支持的通用 Fuzzing
论文:https://arxiv.org/pdf/2308.04748.pdf今天分享一篇来自伊利诺伊大学厄巴纳-香槟分校(UIUC)的一篇研究论文 Universal Fuzzing via Lar...
Prompt Injection Primer for Engineers- 提示注入入门指南
文章首发于个人博客:https://mybeibei.net,点击最下方“阅读原文”可直接跳转查看。背景介绍随着 AI 大语言模型的火爆,其安全性也受到了安全人员的关注。最近国外一位安全研究人员将目前...
一文搞懂大模型框架:LangChain
来源:AI研究局作者:张伟在日常生活中,我们通常致力于构建端到端的应用程序。有许多自动机器学习平台和持续集成/持续交付(CI/CD)流水线可用于自动化我们的机器学习流程。我们还有像 Roboflow ...
深度好文|LLM在工业控制中的应用空气调节系统
cckuailong读完需要3分钟速读仅需 1 分钟1 前言最近,微软亚洲研究院提出可以将 LLM 用于工业控制,而且仅需少量示例样本就能达成优于传统强化学习方法的效果。该研究...
提升ChatGPT性能的实用指南:Prompt Engineering的艺术
作者:mony一起探索 Prompt Engineering 的奥秘,并学习如何用它来让 ChatGPT 发挥出最大的潜力。什么是提示工程?提示工程是一门新兴学科,就像是为大语言模型(LLM)设计的"...