6项网络安全国家标准获批发布,于2025年11月1日起正式实施(可下载全文)
这份国家标准文件主要围绕生成式人工智能服务的安全要求展开,旨在规范相关服务,降低网络安全风险。以下是核心内容的通俗解读:
一、适用对象与目的
- 适用对象
提供生成式 AI 服务的企业或个人(如开发聊天机器人、图像生成工具的公司),以及相关监管和评估机构。 - 核心目的
通过制定安全基线,防范生成式 AI 在训练、模型、应用过程中可能引发的违法不良信息传播、隐私泄露、模型被攻击等风险。
二、训练数据安全:从源头把控风险
训练数据是 AI 模型的 “粮食”,文件对数据的采集、管理和标注提出严格要求:
-
数据来源安全
-
采集前需评估数据来源,若违法不良信息占比超过 5%,禁止采集;采集后再次核验,不合格数据不得用于训练。 -
数据来源要多样,使用境外数据需合理搭配境内数据,避免单一依赖。 -
无论是开源数据、自采数据还是商业数据,都需确保授权合法,禁止采集他人明确禁止的数据(如违反 robots 协议的网页内容)。 -
数据内容管理
-
所有训练数据需过滤违法不良信息,可通过关键词、模型检测或人工抽检等方式实现。 -
保护知识产权,避免侵权,需在用户协议中明确生成内容的知识产权风险。 -
使用个人信息需获得同意,敏感信息需单独授权,严格遵守隐私法规。 -
数据标注安全
- 功能性标注
确保数据真实、准确(如训练医疗 AI 时标注病例信息); - 安全性标注
专门识别违法不良信息,覆盖 31 种安全风险(如歧视性内容、虚假信息等)。 -
标注人员需经过培训和考核,区分 “标注执行” 和 “标注审核” 职责,避免单人操作。 -
标注规则需分两类: -
标注内容需审核,不合格批次需重新标注或作废。
三、模型安全:确保输出可靠可控
模型是生成式 AI 的 “大脑”,需从训练到应用全流程保障安全:
-
模型训练安全
-
训练时优先考虑生成内容的安全性,使用 “安全风险测试题库” 和 “安全性标注数据” 优化模型,定期检测模型是否存在后门漏洞。 -
对开发框架和代码进行安全审计,及时修复开源框架漏洞。 -
模型输出安全
-
生成内容合格率需≥90%(即不含违法不良信息的比例),同时确保内容准确、可靠,符合科学常识。 -
对明显违法或诱导性问题需拒绝回答,图片、视频等内容需按规定标识。 -
模型监测与更新
-
实时监测模型输入,防范恶意攻击(如注入攻击),建立应急机制,发现问题及时优化模型。 -
模型更新后需重新评估安全,训练环境与推理环境需隔离(如物理或逻辑隔离),防止数据泄露。 以上来源于AI解读内容,供参考
报告节选
全部内容请到帮会中下载,感谢支持!!
来源:全国标委
freebuf 帮会简介
「一起聊安全」公众号及帮会致力于网络安全材料汇总与分享,围绕网络安全标准、安全政策法规、安全报告及白皮书、安全会议、安全方案、新技术等方向,与FREEBUF知识大陆共建【一起聊安全】帮会,目前相关内容已有6700+,安全标准涵盖国标、行标、团标等,包括等保、关基、商密、数据安全、云计算、物联网、工业互联网、移动安全、风险评估、安全攻防等30+方向内容,覆盖最新安全政策法规、安全报告及白皮书等,为网安人提供最新最全资料。
网页端:https://wiki.freebuf.com/societyDetail?society_id=69
APP端:
点分享
点收藏
点在看
点点赞
原文始发于微信公众号(一起聊安全):GB/T 45654-2025 网络安全技术 生成式人工智能服务安全基本要求
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论