微信公众号有字数限制,无法放下如此大的篇幅。正文部分仅有目录以及如下部分的内容。 Prompt越狱框架 越狱框架的潜力 越狱框架,打造专属你的漏洞助手 米斯特漏洞助手设计 源代码公开: 本文参考资料:...
Amazon WAF Bypass
<details x=xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx:2 open ontoggle="prompt(document.cookie);">...
[译文] LLM安全:4.绕过 Azure AI 内容安全防护措施(字符注入和对抗机器学习)
“2024年4月28日是Eastmount的安全星球 —— 『网络攻防和AI安全之家』正式创建和运营的日子,该星球目前主营业务为 安全零基础答疑、安全技术分享、AI安全技术分享、AI安全论文交流、威胁...
黑掉大模型?恶意 Prompt 攻击成无解之谜?
作者:Atone,混元安全防守团队成员随着大模型应用的逐步发展,出现了一种新型的攻击手法,它的隐蔽性强且难以检测。本文将探讨如何有效检测此类攻击,并在实际战场中的有所成效。一、新的安全战场由于大模型独...
大模型应用之RAG技术学习
什么是RAG检索增强生成(Retrieval Augmented Generation, RAG)是一种技术,它通过从数据源中检索信息来辅助大语言模型(Large Language Model, LL...
【论文速读】| 攻击图谱:从实践者的角度看生成式人工智能红队测试中的挑战与陷阱
基本信息原文标题:Attack Atlas: A Practitioner’s Perspective on Challenges and Pitfalls in Red Teaming GenAI原...
断路机制和math prompt jailbreak
最近在搞AI自动化渗透的时候刷到了一些资料,关于越狱攻击和防御的。一个是gray swan提出的短路机制,也就是实现类似lora的方式,在推理的过程中记录和观察活跃的节点部分,然后找到共性部分,然后当...
【论文速读】|PROMPTFUZZ:利用模糊测试技术对大语言模型中的提示注入进行鲁棒性测试
基本信息原文标题: PROMPTFUZZ: Harnessing Fuzzing Techniques for Robust Testing of Prompt Injection in LLMs原文...
LangChain 框架介绍及关键模块分析
1. 简介LangChain 是一个开源的编排框架,旨在将大型语言模型(LLM)与外部数据源无缝连接,助力开发者构建基于 LLM 的应用程序。该框架由 Harrison Chase 于 2022 年 ...
转载|论文精读《ChatHaruhi: 通过大型语言模型在现实中复活动漫角色》
cckuailong读完需要4分钟速读仅需 2 分钟转载自宝玉推文:https://twitter.com/dotey/status/16938397696192921641前言论文又名《Chat 凉...
【收藏】Claude注册使用指南:稳定不封的方法
今天来讲讲Claude,相信即使没用过Claude,也都听说过了吧?用它来辅助写代码或者搞新媒体爆文写作,效率真的翻倍不止!体验下来,它在代码、中文自然语言理解等各方面完全碾压GPT-4o!但Clau...
ChatGpt 越狱调教指南 github上的那些chatgpt逃逸相关项目大全
tag : ChatGPT 越狱、GPT 助手提示泄漏、GPT 提示注入、LLM 提示安全、超级提示、提示破解、提示安全、AI 提示工程、对抗机器学习🚨 gpt越狱探索绕过 GPT 模型限制的技术。🌟...
15