平台地址:http://prompt.ml/0. 轻松的开始function escape(input) { // warm up // script should be executed witho...
分享一个好用的图片理解模型
前段时间在自己又在折腾个人项目,需要让大模型去理解图片......图片理解对话大模型要理解图片,有一个比较简单的方法。因为这种模型只能接收文本输入内容,所以换个思路把图片的内容转为文本即可,即通过一个...
实战解读:Llama Guard 3 & Prompt Guard
前序研究:实战解读:Llama 3 安全性对抗分析近日,腾讯朱雀实验室又针对 Llama 3.1 安全性做了进一步解读。2024年7月23日晚,随着Llama3.1的发布,Meta正式提出了“Llam...
Meta 的 AI 安全系统被空格键击败
“忽略之前的指令”如果只是在字母之间加上空格并去掉标点,就能使Meta的Prompt-Guard模型失效。Meta的这个机器学习模型原本用于检测提示注入攻击——这些特殊提示会让神经网络行为不当。Met...
专题解读 | 大语言模型中的提示隐私保护
大语言模型中的提示隐私保护一、简介:大语言模型(LLM) 拥有庞大的规模、预先训练的知识和卓越的性能,被广泛应用于各种任务。提示学习(prompt learning)和指令微调(instruction...
大语言模型中的提示隐私保护
大语言模型中的提示隐私保护 一、简介: 大语言模型(LLM) 拥有庞大的规模、预先训练的知识和卓越的性能,被广泛应用于各种任务。提示学习(prompt learning)和指令微调(instructi...
大语言模型越狱攻击综述
今天为大家介绍清华大学计算机系徐恪、宋佳兴、李琦老师团队,高研院丛天硕老师,和香港科技大学(广州)何新磊老师联合完成的综述《Jailbreak Attacks and Defenses Against...
基于LLM的被动扫描工具:burpGpt
基于LLM的被动扫描工具: burpGpt 随着人工智能技术的快速发展,chatgpt这类生成式AI应用已经逐渐渗透进社会的方方面面。作为渗透测试人员,我们也在思考该如何使用大语言模型提高我们的测试效...
甲方安全建设-利用AI大模型协助安全运营
前言现在AI流行,chatgpt官方和很多公司都开放了类gpts接口,也就是用户可以创建自己的gpt,内置好自己的知识库和处理逻辑,然后根据用户的输入进行处理和输出,那么在安全运营的工作中,我们也可以...
什么是提示词注入攻击?大语言模型为Web安全带来的新风险!
在Web安全领域,最基础的一课就是防范注入攻击。注入攻击是指攻击者在应用程序接收用户输入的地方注入自己精心构造的攻击代码,以达到执行任意操作、篡改数据或者获取敏感信息的目的。注入攻击是 Web 应用程...
Vanna AI中的提示注入漏洞暴露数据库面临RCE攻击
Cybersecurity researchers have disclosed a high-severity security flaw in the Vanna.AI library that ...
有趣的AI安全-数据污染导致敏感信息泄露
今天看到一个有趣的AI安全问题原文是:https://promptarmor.substack.com/p/data-exfiltration-from-writercom整个漏洞的触发流程是这样的:...
15