4月6日,Goby安全团队检测发现,AI大模型开源项目 Langflow-ai github issue 提交了一个关于代码注入漏洞反馈(当前该issue已关闭), 攻击者可以通过向特定端点发送精心构...
大模型与安全|第一弹:AI防口误指南之LLM输出安全实践
在数字化转型的浪潮中,大语言模型(以下统称LLM)已成为企业技术栈中不可或缺的智能组件,这种强大的AI技术同时也带来了前所未有的安全挑战。它输出的内容如同双面刃,一面闪耀着效率与创新的光芒,另一面却隐...
2025 AI大模型安全防护:AI安全部署实战指南
本文14296字 阅读约需 37分钟自 2025 年初以来,人工智能的发展速度令人震撼。企业在广泛采用 AI 时仍面临诸多挑战,包括成本、幻觉、以及安全隐患等问题。目前,企业正处于重要的十字路口:...
大模型安全评估神器-Garak
字数 950,阅读大约需 5 分钟 大模型安全评估神器---Garak Garak是干什么的? Garak,全称 Generative AI Red-teaming & Assessment ...
2025 AI大模型安全防护:AI 安全部署实战指南
本文14296字 阅读约需 37分钟安全从业者和安全主管的 AI安全防护产品与供应商指南。自 2025 年初以来,人工智能的发展速度令人震撼。企业在广泛采用 AI 时仍面临诸多挑战,包括成本、幻觉...
我对AI大模型安全的一些探索
扫码加圈子获内部资料网络安全领域各种资源,EDUSRC证书站挖掘、红蓝攻防、渗透测试等优质文章,以及工具分享、前沿信息分享、POC、EXP分享。不定期分享各种好玩的项目及好用的工具,欢迎关注。加内部圈...
大模型安全运营场景-漏洞预警-续
创作不易,您的点赞、转发是作者创作的动力源泉!大模型安全运营场景-漏洞预警这篇文章讲到可以通过大模型帮我们分析漏洞细节并按照我们的格式要求输出结果。在漏洞预警工作中还有一个复杂的事情是影响面评估,需要...
从数据库沦陷到供应链投毒:大模型安全危机背后的隐形战场
一. 概述近年来,随着DeepSeek、Ollama等开源大模型的广泛应用,全球企业正加速推进大模型的私有化部署。Gartner预测,到2027年,中国80%的企业将采用多模型生成式AI策略,以满足...
一图看懂2024年全球DDoS攻击态势
相关阅读大模型安全 | 第九期「创造未来,安全同行」度安讲技术沙龙成功举办百度安全获得中国信通院深度伪造视频检测服务评估优秀级CSA GCR 2024 | 百度安全DDoS防护服务荣获安全磐石奖等多项...
Meta大模型安全解决方案——防护篇
一. 背景互联网巨头Meta发布的开源大模型安全解决方案Purple-Llama,整合了多种防护工具和评估方法,旨在保护开源生成式AI模型安全发展。在上一篇文章《Meta大模型安全解决方案——评估》...
多模态大模型安全评估基准MultiTrust
由清华大学、北京航空航天大学、上海交通大学和RealAI联合研究的MultiTrust框架[1]是一个针对多模态大模型的可信评估基准,从真实性、安全性、鲁棒性、公平性和隐私性对多模态大模型安全进行综合...
大模型安全的漏洞
下文主要基于360 安全大模型代码分析能力,对多个开源项目进行代码梳理和风险评估,结合分析报告,快速审计并发现了近 40 个大模型相关安全漏洞,影响范围覆盖llama.cpp、Dify 等知名模型服务...