【山石说AI】•第15篇大模型在网络安全中的最新应用进展(四)软件漏洞的发现向来是一场与时间的赛跑,而大模型的引入为模糊测试注入了全新的智慧动力。跳脱传统随机变异的局限,大模型精准的语言和逻辑推理能力...
【AI安全】AI安全之提示词注入攻击
背景介绍近年来随着人工智能技术,尤其是大模型(例如:GPT类模型、BERT类模型等)的不断发展,这些模型已被广泛集成到各类应用中,从数字助手到AI驱动的新闻产业,几乎覆盖了各行各业。大模型的应用逐渐成...
AI安全 | 用文字攻击 AI
扫码领资料获网安教程来Track安全社区投稿~ 赢千元稿费!还有保底奖励~(https://bbs.zkaq.cn)什么是提示(Prompt)?提示是用户或程序向 LLM AI 提供的输入或查询,用...
如何组织搜索词可以搜的全面,大模型举一反三来帮忙
TL;DR:使用搜索引擎进行文献检索或资料收集时,由于操作者的背景不同,会使用不同的搜索词,从而导致搜索结果具有了差异性,因此搜索行为具有了一定的技巧性。使用大模型可以对搜索关键词进行同义枚举,增强知...
【AI安全】大模型多轮越狱技术分析与实现
背景介绍大语言模型的 “越狱” 是指用户通过一些巧妙设计的指令或手段,绕过语言模型预先设置的安全策略和使用规则,让模型生成不符合伦理道德、包含有害内容(如暴力、歧视、违法信息等)的内容。而 “多轮越狱...
来和大模型斗智斗勇(四)(完结)
大模型提示词工程是一个技术活,可以让大模型更好的输出你想要的内容。甚至可以通过prompt来让大模型输出不能输出的内容。继续对之前发现的项目LLM Riddles进行解谜,本篇为完结篇。系列历史文章来...
AI+Security系列第4期(三):基于大模型的漏洞挖掘技术与实践
近日,“AI+Security” 系列第 4 期线下活动在北京顺利举行,主题聚焦于 “洞” 见未来:AI 驱动的漏洞挖掘新范式,吸引了众多安全领域专家参与。奇安信安全研究员尹斌先生围绕 “基于大模型的...
AI+Security系列第4期(三):基于大模型的漏洞挖掘技术与实践
近日,“AI+Security” 系列第 4 期线下活动在北京顺利举行,主题聚焦于 “洞” 见未来:AI 驱动的漏洞挖掘新范式,吸引了众多安全领域专家参与。奇安信安全研究员尹斌先生围绕 “基于大模型的...
红队如何暴露人工智能模型中的漏洞
随着生成人工智能 (gen AI) 成为信息安全最前线,红队在识别其他人可能忽视的漏洞方面发挥着至关重要的作用。2024 年,数据泄露的平均成本达到历史最高水平,达到 488 万美元,企业需要确切了解...
AI+Security系列第4期(二):LLM辅助的模糊测试增强技术
近日,“AI+Security” 系列第 4 期线下活动于北京成功举办,聚焦 “洞” 见未来:AI 驱动的漏洞挖掘新范式,汇聚了安全领域的众多专家。水木羽林技术专家张强博士以“LLM辅助的模糊测试增强...
专题解读 | 多模态模型和图大模型的词元化(Tokenization)问题
Tokenzation: Beyond Tokenizers of LLMs1 什么是TokenizationTokenzation,指的是将数据转换为离散序列的过程。例如,我们在阅读英语时,我们是一...
面向GPTs的提示词注入攻击分析
在去年的时候OpenAI推出了可以为特定目的创建的定制版ChatGPT——称为GPTs。GPTs是任何人都可以创建一个定制版本的ChatGPT,以帮助他们在日常生活中、特定任务、工作或家庭中更加有用,...
73