作者:Atone,混元安全防守团队成员随着大模型应用的逐步发展,出现了一种新型的攻击手法,它的隐蔽性强且难以检测。本文将探讨如何有效检测此类攻击,并在实际战场中的有所成效。一、新的安全战场由于大模型独...
大模型应用之RAG技术学习
什么是RAG检索增强生成(Retrieval Augmented Generation, RAG)是一种技术,它通过从数据源中检索信息来辅助大语言模型(Large Language Model, LL...
【论文速读】| 攻击图谱:从实践者的角度看生成式人工智能红队测试中的挑战与陷阱
基本信息原文标题:Attack Atlas: A Practitioner’s Perspective on Challenges and Pitfalls in Red Teaming GenAI原...
断路机制和math prompt jailbreak
最近在搞AI自动化渗透的时候刷到了一些资料,关于越狱攻击和防御的。一个是gray swan提出的短路机制,也就是实现类似lora的方式,在推理的过程中记录和观察活跃的节点部分,然后找到共性部分,然后当...
【论文速读】|PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试
基本信息原文标题: PROMPTFUZZ: Harnessing Fuzzing Techniques for Robust Testing of Prompt Injection in LLMs原文...
LangChain 框架介绍及关键模块分析
1. 简介LangChain 是一个开源的编排框架,旨在将大型语言模型(LLM)与外部数据源无缝连接,助力开发者构建基于 LLM 的应用程序。该框架由 Harrison Chase 于 2022 年 ...
转载|论文精读《ChatHaruhi: 通过大型语言模型在现实中复活动漫角色》
cckuailong读完需要4分钟速读仅需 2 分钟转载自宝玉推文:https://twitter.com/dotey/status/16938397696192921641前言论文又名《Chat 凉...
【收藏】Claude注册使用指南:稳定不封的方法
今天来讲讲Claude,相信即使没用过Claude,也都听说过了吧?用它来辅助写代码或者搞新媒体爆文写作,效率真的翻倍不止!体验下来,它在代码、中文自然语言理解等各方面完全碾压GPT-4o!但Clau...
ChatGpt 越狱调教指南 github上的那些chatgpt逃逸相关项目大全
tag : ChatGPT 越狱、GPT 助手提示泄漏、GPT 提示注入、LLM 提示安全、超级提示、提示破解、提示安全、AI 提示工程、对抗机器学习🚨 gpt越狱探索绕过 GPT 模型限制的技术。🌟...
Prompt 1 to win
平台地址:http://prompt.ml/0. 轻松的开始function escape(input) { // warm up // script should be executed witho...
分享一个好用的图片理解模型
前段时间在自己又在折腾个人项目,需要让大模型去理解图片......图片理解对话大模型要理解图片,有一个比较简单的方法。因为这种模型只能接收文本输入内容,所以换个思路把图片的内容转为文本即可,即通过一个...
实战解读:Llama Guard 3 & Prompt Guard
前序研究:实战解读:Llama 3 安全性对抗分析近日,腾讯朱雀实验室又针对 Llama 3.1 安全性做了进一步解读。2024年7月23日晚,随着Llama3.1的发布,Meta正式提出了“Llam...
15