扫码订阅《中国信息安全》
邮发代号 2-786
征订热线:010-82341063
一、生成式人工智能的数据安全风险引发关注
以 ChatGPT 为代表的生成式人工智能,在语言理解、文本生成和知识推理等方面表现出超强的能力,具有规模性、通用性、扩展性等典型特点。它利用复杂的算法、深度神经网络和大量的模型参数,从海量的数据中识别、提取、分析潜在的语言规则、模式和结构,并根据用户指令生成文本、图片、音频、视频等内容,具备强大的迁移和交互能力,成为实现通用人工智能的一条重要路径。
二、生成式人工智能的数据安全风险分析
数据、算力和算法是生成式人工智能的三大核心要素,庞大的数据资源是支撑算力和算法的基础(如图1所示)。通过使用大量的数据进行训练,模型能够学习到更加广泛的上下文语言规律,从而提高其泛化能力,增加输出的实用性和可靠性。数据贯穿生成式人工智能的研发、训练、部署到运行全过程,在数据采集、标注、训练和优化、内容生成、数据销毁等各个环节均可能产生不同程度的数据安全风险(如图2所示),这些风险威胁人工智能的应用效果,直接或间接挑战我国的数据主权,甚至影响国家安全。
三、生成式人工智能的数据安全治理思路
生成式人工智能数据安全的治理需要厘清治理主体、治理范式、治理规则和治理措施(如图3所示)。
四、生成式人工智能数据安全治理路径
治理路径主要从领导机构、基本原则、合作模式、敏捷治理、基础设施、管控手段、测评服务等方面开展,旨在实现多方协同、多维融合、注重实效的治理效果。
(本文刊登于《中国信息安全》杂志2024年第6期)
分享网络安全知识 强化网络安全意识
欢迎关注《中国信息安全》杂志官方抖音号
《中国信息安全》杂志倾力推荐
“企业成长计划”
点击下图 了解详情
原文始发于微信公众号(中国信息安全):专题·大模型安全 | 生成式人工智能的数据安全风险与应对措施
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论