近日,由安全极客、Wisemodel 社区和 InForSec 网络安全研究国际学术论坛联合主办的“AI+Security”系列第 2 期——对抗!大模型自身安全的攻防博弈线上活动如期举行。本次活动邀...
热议红蓝对抗,探索数据安全新路径
2024年攻防演练活动正如火如荼进行中,无数红蓝队伍在虚拟世界里展开一场场激烈的「战斗」,以实战化的方式检验企业安全能力。基于此,7月25日,FreeBuf在北京维景国际大酒店,策划了一场攻防演练大会...
大模型安全性与有用性难两全?复旦团队说:鱼和熊掌可兼得!
首个集内生安全性和有用性于一身的中文大模型安全对齐策略!过往研究通常认为:大模型安全对齐会导致模型遗忘已经学会的知识,从而导致模型在有用性上下降。OpenAI将这一损失称为对齐税(Alignment ...
大模型安全解决方案分享
全部内容请到帮会中下载,感谢支持!!END来源:百度帮会简介「一起聊安全」公众号及帮会致力于网络安全材料汇总与分享,围绕网络安全标准、安全政策法规、安全报告及白皮书、安全会议、安全方案、新技术等方向,...
「数字风洞」AI安全测评丨Llama2-7b全球使用最广泛的AI大模型开源基座发现613次安全错误
Llama AI大模型由美国互联网公司Meta(Facebook)研发,相较于GPT系列AI大模型,Llama凭借其开源特性和高效的模型架构等优势极大地降低了研究门槛,成为了当前全球使用最广泛的开源基...
大模型的双刃剑属性:内容违规、隐私泄露、网络犯罪应如何治理
自ChatGPT问世掀起大模型的发展热潮以来,国内外的相关应用悉数落地并且已经卷出天际,逐渐成为帮助各行各业生产效率提升的重要工具。此前的系列文章中,我们就重点围绕网络安全行业的各个细分方向,观察了大...
华中科技大学 | 大模型中‘故障词元’的检测和分类
原文标题:Glitch Tokens in Large Language Models: Categorization Taxonomy and Effective Detection原文作者:Yux...
【大模型安全】大模型建设思路
大模型建设思路从23年初ChatGPT的惊艳亮相,引爆了LLM和相关应用的想象空间,人必称大模型,虽然99%的人可能连个梯度下降的公式都看不懂,好像作为IT从业人员不谈这个就显得很落伍,缺乏技术视野一...
【大模型安全】ChatGPT-Next-Web存在SSRF和反射型XSS
ChatGPT-Next-Web存在SSRF和反射型XSS随着生成式人工智能的出现,人工智能聊天机器人无处不在。虽然用户可以使用 OpenAI 等 SaaS 提供商与大语言模型 (LLM) 聊天,但也...
蚂蚁牵头的大模型安全测评标准发布
第 27 届联合国科技大会(the 27th UN CSTD Annual Meeting)正在瑞士日内瓦召开。大会期间,世界数字技术院(WDTA)发布了两项国际标准:《生成式人工智能应用安全测试标准...
CSA大中华区牵头 | 生成式AI应用安全、大模型安全标准发布
4月16日联合国日内瓦总部万国宫,由世界数字技术院(WDTA)与云安全联盟大中华区(CSA GCR)联合主办第27届联合国科技大会AI边会上,世界数字技术院(WDTA)发布了两项具有重要意义的国际标准...
【大模型安全】[文献整理] 大模型对抗攻击
[文献整理] 大模型对抗攻击阅读如下论文和材料,整理与LLM对抗攻击相关内容。Survey of Vulnerabilities in Large Language Models Revealed b...
5