近年来,随着生成式人工智能技术的飞速发展,普通人已难以分辨人工智能生成合成内容的真伪,生成式人工智能技术在世界范围内带来诸多现实风险,如用于生成诈骗、色情、涉政、危害公共安全相关的内容。为了避免公众混淆和误认,防范人工智能生成合成内容引发的信息安全风险,国家互联网信息办公室等部门联合发布《人工智能生成合成内容标识办法》(“标识办法”)及配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》(“标识标准”),完善了我国生成式人工智能的治理框架。《标识办法》明确了人工智能生成合成内容全流程中各主体责任和标识义务,《标识标准》进一步提出强制执行标识的具体实施方式和操作方法。两者同步推出,并于2025年9月1日同步实施,可以从不同维度引导相关主体规范开展标识活动。
目前,标识生成合成内容已在国际上形成普遍共识,并且成为人工智能立法和监管优先级最高的事项。联合国发布《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,鼓励开发和部署有效、可获取、适应性强、具有国际互操作性的内容认证和来源识别机制。各国人工智能立法亦对生成合成内容标识进行规定,已经通过的欧盟《人工智能法案》、《加州人工智能透明度法案》,以及正在制定中的英国《人工智能(监管)法案》等法案,均对水印、标识义务有要求。《标识办法》和《标识标准》为人工智能生成合成内容治理提供了细致的“中国方案”。
一、内容标识制度的核心内容
与治理逻辑
《标识办法》的上位法包括《网络安全法》、《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》,标识制度的安排中有多处是对上述规则的细化。一方面基于人工智能多模态的特点对生成合成内容标识义务加以明确,一方面与算法备案、安全评估、互联网应用程序分发平台上线审核等制度衔接,以实现对人工智能安全和发展进行全面治理。
(一)显隐双标识机制
《标识办法》对人工智能生成内容的标识方法提出要求,通过显式标识和隐式标识二种方式确立各类信息的可标识性。其中:
-
显式标识解决了“哪些内容是生成的”的问题。显示标识是在人工智能生成合成内容或交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户明显感知到的标识,主要用途是向公众提示内容由人工智能生成合成,避免公众产生混淆或者误认。 -
隐式标识解决了“是谁生成的”和“由谁传播的”的问题。隐式标识包括元数据隐式标识和内容隐式标识,是指采取技术措施在文件数据中添加的,不易被用户明显感知到的标识,主要用途是记录生成合成内容相关信息,包括内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。文件元数据是指按照特定编码格式嵌入到文件头部的描述性信息,用于记录文件来源、属性、用途等信息内容。
为了满足市场使用需求,《标识办法》也规定了用户获取不添加显式标识内容的方式,在用户主动要求时,服务提供者可以在通过用户协议明确用户的标识义务,并依法留存相关日志信息后予以提供。显隐双标识的有机结合,即能帮助公众识别人工智能生成的内容,可以辨别真伪,也能在不影响用户感观同时确保标识完备性、内容一致性等安全要求。
(二)生成—传播—使用全流程管理
《标识办法》和《标识标准》规定了人工智能生成合成内容从生成—传播—使用的全生命周期中不同主体的合规义务。
-
生成环节:生成合成服务提供者应对生成内容添加显示标识和隐式标识。生成合成服务提供者包括利用人工智能技术(包括通过提供可编程接口等方式)向公众提供生成合成文本、图片、音频、视频、虚拟场景等服务的组织或个人。 -
传播环节:内容传播服务提供者应核验内容的显示或隐式标识,提示平台用户相关内容属于或疑似生成合成的内容;应用程序分发平台应在应用程序上架前履行审核义务,如涉及生产合成服务的,核验其生成合成内容标识相关材料。 -
使用环节:用户同样应履行标识义务,包括理解和阅读用户协议中的标识管理要求,以及发布生成合成内容需主动声明并使用平台标识功能。上述责任分配基本实现对生成合成内容上下游主体的全覆盖,将行为主体作为抓手进行识别和义务分配,使得法律的追责机制和后果承担方得以落实。各主体具体义务总结如下:
|
|
|
生成环节 |
生成合成服务提供者 |
|
传播环节 |
内容传播 服务提供者 |
|
应用程序分发平台 |
|
|
使用环节 |
用户 |
|
(三)管理要求与技术标准一体化
《标识办法》作为规范性文件,细化标识的具体实施规范,侧重构建“责任链闭环”,通过各环节主体义务设定进行管理。而强制性国标《标识标准》聚焦“技术锚点”建设,针对各类别显式标识和隐式标识提供可操作的标识方式和示例,更好地指导相关主体规范开展标识活动。
特别需要向读者说明的是强制性国家标准的性质和效力。根据《标准化法》规定,“国家标准分为强制性标准、推荐性标准,行业标准、地方标准是推荐性标准。强制性标准必须执行”,而《强制性国家标准管理办法》规定“对保障人身健康和生命财产安全、国家安全、生态环境安全以及满足经济社会管理基本需要的技术要求,应当制定强制性国家标准”。标准的起草说明指出“由于人工智能生成合成内容存在被误用、滥用、恶意使用的安全风险,严重影响国家安全,危害广大人民群众在网络空间的合法权益”,因此《标识标准》符合需要制定强制性国标的情况,相关企业不仅是参考《标识标准》的技术标准,而应当达到其要求。
我们以下摘录了《标识标准》几项比较重要的示例,从后面展示的行业实例也能看出,这些示例都经过扎实的调研,是对实践的总结。
文本内容显式标识示例
二、行业实践梳理
(一)生成合成服务提供者
我们对各类人工智产品进行了试用,针对文本(交互场景界面)、图片、视频、虚拟场景等不同生成内容,已经有部分人工智能产品采用了显式标识,但尚未发现音频内容以及下载、复制文本内容后的显式标识。我们挑选了部分有代表性的实例,供读者参考:
-
人工智能智能对话、问答类产品在用户交互界面底部带有“内容由AI生成”等标识。
图片内容的显示标识
-
图片生成类产品中生成图片右下角带有“AI作图”“AI生成”等标识。
-
视频类生成产品中生成视频右下角带有“AI”标识。
虚拟场景的显示标识
-
AI数字人、虚拟角色互动等产品在画面右下角或特定位置有“AI生成”等标识。
(二)内容传播服务提供者
此外,我们还看到主流社交平台在用户上传、发布内容时,向用户提供了添加人工智能生成合成标识的相关功能。具体实例如下:
左右滑动查看更多
三、结 语
《标识办法》和《标识标准》均将于9月1日实施,企业应尽快按照相关规定和要求进行自查和落实相关标识义务。在过渡期结束后,生成合成内容标识合规料将成为相关部门开展人工智能监督检查、专项行动的重点关注领域。
(本文作者:世辉律师事务所 王新锐 余扬横波)
|
世辉律师事务所是一家以服务科技公司为特色的综合性律所,在北京、在上海、深圳设有分支机构。世辉的客户均为行业领军公司和著名投资机构。世辉目前担任多个官方组织和行业协会委员,包括CCIA数据安全委员会副主任委员等。 |
原文始发于微信公众号(CCIA数据安全工作委员会):标准应用 |《人工智能生成合成内容标识办法》解读与行业实践梳理
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论