字数 950,阅读大约需 5 分钟 大模型安全评估神器---Garak Garak是干什么的? Garak,全称 Generative AI Red-teaming & Assessment ...
2025 AI大模型安全防护:AI 安全部署实战指南
本文14296字 阅读约需 37分钟安全从业者和安全主管的 AI安全防护产品与供应商指南。自 2025 年初以来,人工智能的发展速度令人震撼。企业在广泛采用 AI 时仍面临诸多挑战,包括成本、幻觉...
我对AI大模型安全的一些探索
扫码加圈子获内部资料网络安全领域各种资源,EDUSRC证书站挖掘、红蓝攻防、渗透测试等优质文章,以及工具分享、前沿信息分享、POC、EXP分享。不定期分享各种好玩的项目及好用的工具,欢迎关注。加内部圈...
大模型安全运营场景-漏洞预警-续
创作不易,您的点赞、转发是作者创作的动力源泉!大模型安全运营场景-漏洞预警这篇文章讲到可以通过大模型帮我们分析漏洞细节并按照我们的格式要求输出结果。在漏洞预警工作中还有一个复杂的事情是影响面评估,需要...
从数据库沦陷到供应链投毒:大模型安全危机背后的隐形战场
一. 概述近年来,随着DeepSeek、Ollama等开源大模型的广泛应用,全球企业正加速推进大模型的私有化部署。Gartner预测,到2027年,中国80%的企业将采用多模型生成式AI策略,以满足...
一图看懂2024年全球DDoS攻击态势
相关阅读大模型安全 | 第九期「创造未来,安全同行」度安讲技术沙龙成功举办百度安全获得中国信通院深度伪造视频检测服务评估优秀级CSA GCR 2024 | 百度安全DDoS防护服务荣获安全磐石奖等多项...
Meta大模型安全解决方案——防护篇
一. 背景互联网巨头Meta发布的开源大模型安全解决方案Purple-Llama,整合了多种防护工具和评估方法,旨在保护开源生成式AI模型安全发展。在上一篇文章《Meta大模型安全解决方案——评估》...
多模态大模型安全评估基准MultiTrust
由清华大学、北京航空航天大学、上海交通大学和RealAI联合研究的MultiTrust框架[1]是一个针对多模态大模型的可信评估基准,从真实性、安全性、鲁棒性、公平性和隐私性对多模态大模型安全进行综合...
大模型安全的漏洞
下文主要基于360 安全大模型代码分析能力,对多个开源项目进行代码梳理和风险评估,结合分析报告,快速审计并发现了近 40 个大模型相关安全漏洞,影响范围覆盖llama.cpp、Dify 等知名模型服务...
AISS专栏 | 模型越狱攻击手段与评估框架分析
前言模型越狱是指通过各种手段突破人工智能模型内置的安全性和内容政策,迫使模型执行一些原本被禁止的操作或生成敏感、违法及不当的内容。这类越狱行为通常会涉及绕过模型的过滤系统、道德规范或安全限制,使模型生...
Cross Plugin Request Forgery (CPRF):大模型安全的隐秘威胁
大语言模型(LLMs)如 ChatGPT、Claude 等的应用正在快速扩展。为了实现更多样化的能力,这些模型通过插件扩展与外部系统交互,比如数据库查询、调用外部 API、生成报告等。然而,这种灵活性...
360发布全球首份《大模型安全漏洞报告》,曝光近40个大模型相关安全漏洞
近年来,全球人工智能浪潮持续升温,大模型作为AI领域中的重要一环,其能力随着平台算力的提升、训练数据量的积累、深度学习算法的突破,得到了进一步提升。然而以大模型为核心涌现的大量技术应用背后,也带来...
5