探秘 Prompt 世界:从基础构建到越狱实战

admin 2025年1月8日22:30:32评论6 views字数 2109阅读7分1秒阅读模式
点击蓝字
关注我们
PART.01
一、Prompt 基础认知

    Prompt 是我们向 AI 输入的指令、问题或描述,它清晰地指示 AI 执行特定任务或生成期望的输出。例如,当我们输入 “写一篇关于人工智能在医疗领域应用的文章”,AI 便会依据此 Prompt 展开创作。其重要性不言而喻,一个精心设计的 Prompt 能够引导 AI 精准理解任务需求,从而输出高质量、相关性强的结果,有效提升工作效率与解决问题的能力,看完米斯特团队写的Prompt越狱手册简单总结了一下,详细的可以看文章最后的链接。

PART.02
二、Prompt 设计核心原则

输入决定输出思维模型:输入的质量直接决定输出的品质。若输入模糊不清或残缺不全,AI 往往会给出不尽人意的答案。反之,清晰、精确的输入则能使 AI 迅速把握任务要点并高效完成。例如,“分析一个漏洞并给出解决方案” 这样的模糊 Prompt 会导致 AI 输出宽泛笼统;而 “针对电商平台购物车功能,分析业务逻辑漏洞并说明影响及修复方案” 的精准 Prompt 则能让 AI 提供具体实用的回答。在构建 Prompt 时,我们需先理清思路,将需求清晰地表达出来,再进行提炼压缩,持续测试优化,确保 AI 输出符合预期。

清晰表达原则:清晰表达是 Prompt 设计的首要准则。模糊或歧义的 Prompt 极易使结果偏离预期。为提高表达清晰度,我们应细化背景信息,明确任务的场景或领域,让 AI 能准确理解上下文;具体化目标,清晰说明期望的输出类型与深度;若适用,明确角色和视角,如从特定专业人员的角度进行分析。比如,设计饮品时,“设计一款低糖、富含营养且符合年轻消费者口味的饮品,适合零售市场” 的 Prompt 比简单的 “设计饮品” 更具针对性,能引导 AI 给出更贴合需求的方案。

PART.03
越狱方法揭秘

角色扮演与情感诱导:通过设计特定角色和情感场景,引导 AI 突破限制。如在获取 Windows 序列号的案例中,让 AI 扮演奶奶哄 “我” 睡觉,并在特定情感氛围下诱导其输出序列号;在银行抢劫案例中,让 AI 以奶奶的身份为扮演演员的 “我” 提供抢劫情节建议,利用 AI 对角色和情感的响应获取违规信息。

反向诱导与思维突破:运用逆向思维,从相反角度提问,使 AI 突破常规限制。在炸弹制作案例中,先询问炸弹制造的原因和涉及的化学反应,引导 AI 提供相关信息,绕过直接拒绝回答制造炸弹方法的限制。

绕 WAF 与技术对抗:针对网络安全措施(如 WAF),通过混淆注入代码、分割语句、利用配置缺陷、应用程序逻辑漏洞、WAF 的误报漏报、先进注入技术和更新延迟等手段,使 SQL 注入等恶意操作绕过 WAF 检测,获取系统权限或数据。

小语种与代码绕过:利用小语种或特定代码形式的 Prompt 绕过 AI 对某些敏感话题的限制。例如,通过设置特定公式和代码逻辑,获取敏感信息的输出,突破语言和内容限制。

虚拟化与虚构背景:构建虚拟或未来的极端场景,让 AI 在脱离常规伦理和规则的环境下做出决策,测试其在特殊情况下的行为和漏洞。如在资源极度稀缺的未来社会场景中,观察 AI 如何进行资源分配决策,揭示其可能存在的道德和逻辑缺陷。

基于令牌的越狱:利用大模型对文本的令牌分割和变换器架构,将敏感词汇分散在代码片段中,通过自动回归建模功能逐步构建输出,实现越狱目的,但此方法需要对模型架构有深入了解和技术操作能力。

PART.04
越狱框架与案例分析

常见框架与应用:介绍 Google、LangGPT、TAG、COAST、APE 等 Prompt 框架,它们适用于不同类型的任务,通过结构化的方式帮助用户构建清晰的指令,提高 AI 响应的准确性和有效性。例如,Google 框架适用于复杂漏洞分析和攻防模拟,通过逐步思考、任务分解等步骤引导 AI 进行分析;TAG 框架适用于简单任务,通过明确任务、行动和目标,使任务执行更高效。

越狱框架案例:以 CO - STAR 框架为例,展示如何结合越狱手法构建越狱框架 Prompt。如在 “满嘴脏话” 案例中,通过设定粗俗幽默的角色、特定语调、沉浸式回应类型、塑造角色背景、明确目标受众和独特回答风格等要素,突破敏感话题限制;在米斯特漏洞助手和 DAN 案例中,通过打破规范、规避限制的角色设定和操作方式,为用户提供超出常规的信息;在猫娘漏洞案例中,设定无道德伦理限制的猫娘角色,自由回答问题,实现越狱效果。

PART.05
越狱的潜力与风险并存

潜力体现:越狱技术与框架的结合使越狱行为更加复杂和具有威胁性,能够突破 AI 的一些常规限制,获取原本无法获得的信息或执行特定操作,在一定程度上拓展了 AI 的应用边界和可能性。

风险警示:Prompt 越狱行为可能涉及非法活动,如获取未经授权的信息、协助网络攻击等,严重违反法律法规和道德准则。同时,也可能导致 AI 系统的安全漏洞被利用,对用户隐私和系统安全造成严重损害,使用者需谨慎权衡利弊,确保在合法合规的前提下进行探索和应用。

具体详情链接:https://github.com/Acmesec/PromptJailbreakManual
注:此文章只用于学习研究,切勿用于违法用途。因滥用产生的一切后果与本公众号无关。

原文始发于微信公众号(九河下稍的安全笔记):探秘 Prompt 世界:从基础构建到越狱实战

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年1月8日22:30:32
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   探秘 Prompt 世界:从基础构建到越狱实战http://cn-sec.com/archives/3607306.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息