2023年5月,Gartner发布了法律和合规领导者必须评估的六个ChatGPT风险。Gartner认为,法律和合规领导者应解决其组织面临的六种特定ChatGPT风险的问题,并确定建立哪...
ChatGPT的六大合规风险
ChatGPT在全球科技行业掀起了生成式人工智能的“军备竞赛”,但是人们对生成式人工智能(AIGC)的合规风险普遍认识不足。Gartner最近撰文指出,企业法务和合规负责人应该认知并解决企业面临的六种...
真实大揭秘:生成式AI到底对网络安全行业造成了哪些影响?
聚焦源代码安全,网罗国内外最新资讯!作者:ELIAS GROLL、CHRISTIAN VASQUEZ 和AJ VICENS编译:代码卫士在网络安全行业,放眼望去,无论是大会、交易...
大模型在威胁情报中应用可行性研究报告丨安全村
1 背景随着ChatGPT的爆火,基于GPT大模型的应用如雨后春笋般蓬勃发展。在很多应用领域,GPT大模型是一个速度倍增器,发挥出了惊人的作用,它可以用来增强、辅助、加速现有技术,提高生产力和生产效率...
DarkBERT 自动化暗网挖掘以获取网络威胁情报
从如何破解它的角度来看,ChatGPT 也让我们着迷了几个月,通过“快速注入”让它说出它所限制的东西。但是,如果我们直接进入兔子洞,即用暗网网络的地下内容训练的网络会怎样?它叫做 DarkBERT,是...
如何从 ChatGPT 中删除个人数据
OpenAI 新增工具赋予了用户更多的信息管理权限,然而效果却杯水车薪。ChatGPT有可能掌握详细的用户个人信息,但遇到无法回答的问题时则可能会编造错误的答案来回答。随着 OpenAI 发布的生成文...
七大语言模型PK,ChatGPT内容基线评测稳居第一
随着ChatGPT的爆火与流行,大型语言模型(LLM)与生成式人工智能(AIGC)不断跃入大众视野,随之也带来了许多内容风险隐患。 近日,知道创宇内容安全专家对互联网上流行的7款大型语言模型进行了全面...
浅谈ChatGPT|大语言模型安全
2023大语言模型安全ChatGPT大语言模型最近ChatGPT带来的热潮,人工智能产品迎来了一个爆发期,大语言模型(Large Language Model)也越来越受到人们的关注。以ChatGPT...
【ChatGPT及其在电子数据取证领域的应用】
本文由金恒源编译,陈裕铭、Roe校对,转载请注明。在一次电子数据取证社区中关于ChatGPT主题的热烈讨论后诞生写本文的想法。ChatGPT确实令人印象深刻——它能像人一样交流,而且似乎有求必应。它被...
管窥网络安全的未来技术形态
随着现代社会的高度数字化和信息化程度,网络安全问题已经成为各个行业和组织面临的重要挑战之一。随着企业规模和网络架构的不断扩大,网络安全风险也不断增加,传统的手动检测和防御已经难以应对日益复杂的安全威胁...
大型语言模型(LLM)的红队测试
本文翻译参考自:https://huggingface.co/blog/red-teaming大型语言模型(LLM)在大量文本数据的训练下非常擅长生成逼真的文本。然而这些模型经常表现出不良行为,比如泄...
针对ChatGPT的隐私提取攻击:多步骤越狱漏洞
摘要随着大型语言模型(LLM)的快速发展,许多下游的 NLP 任务都可以在友善的提示(即Prompt,是用户或程序向LLM AI 提供的输入或查询)下得到很好的解决。尽管模型开发人员和研究人员在对话安...