文件解读:欧洲数据保护监督机构(EDPS)发布首份生成式人工智能与数据安全指南

admin 2024年6月13日14:01:27评论19 views字数 2377阅读7分55秒阅读模式

6月3日,欧洲数据保护监督机构(EDPS)在其官网上发布了题为《生成式人工智能与EUDPR》的指南(注:EUDPR指的是《欧盟2018/1725号条例》),这是首份适用于欧盟机构的人工智能与数据安全指南。

文件解读:欧洲数据保护监督机构(EDPS)发布首份生成式人工智能与数据安全指南

01
指南性质
该指南旨在为欧盟机构、部门、办公室和机构(EUIs)在使用生成性人工智能系统处理个人数据时提供实际操作建议和指示,以帮助其遵守《欧盟2018/1725号条例》中的数据保护义务。指南涵盖尽可能多的情境和应用,不规定具体技术措施,而是强调应遵守的数据保护一般原则
02
主要内容
1. 生成式人工智能的有关定义
  • 生成式人工智能:是人工智能的子集,通过使用专门的机器学习模型来生成包括文本、图像和音频在内的多种输出生成式人工智能依赖于基础模型(Foundation Models),这些模型作为其他生成性AI系统的基线模型,并从中进行“微调”。
  • 基础模型:这些模型训练于大量多样化的数据集,包括公开可用的信息,能够表示复杂的结构如图像、音频、视频或语言,并可用于特定任务或应用的微调。
  • 大语言模型:一种特定类型的基础模型,训练于大量文本数据,能够生成自然语言响应。应用包括代码生成系统、虚拟助手、内容创作工具、语言翻译引擎等。
  • 生命周期:模型生命周期包括定义使用案例和模型范围、训练模型(包括使用特定数据集进行微调)、评估模型(建立定期评估指标)、部署和实施(包括持续监控)。
2. 欧盟机构能否使用生成式人工智能?
欧盟机构在原则上可以开发、部署和使用生成性AI系统提供公共服务,前提是符合所有适用的法律要求,特别是要符合EUDPR(即《欧盟2018/1725号条例》)。公共部门使用新技术时有责任确保充分尊重个人的基本权利和自由,在生成性AI模型供应链中,各参与者的责任需要明确,确保合规。欧盟机构可以开发和部署自己的生成性AI解决方案,或者使用市场上可用的解决方案,但必须明确具体角色(控制者、处理者、联合控制者)的义务和责任。
3.如何确定生成式人工智能系统是否涉及个人数据处理?
生成式人工智能系统中的个人数据处理可能发生在不同阶段,如数据集创建、训练阶段、系统使用中的输入和输出。
如果开发者或供应商声称其系统不处理个人数据,应要求其提供具体控制措施的详细信息,确保个人数据没有被处理。值得注意的是,使用网络爬虫技术收集个人数据可能不符合数据最小化和准确性原则等相关数据保护原则。
4. 数据保护官(DPO)的角色
DPO负责提供有关数据保护义务的建议,监控内部合规性,提供有关DPIA的建议,并作为数据主体和EDPS的联络点,与组织内部各相关职能部门(如法律服务、IT服务、信息安全官等)保持持续对话,以确保遵守信任生成性AI和良好数据治理。
5.何时应进行数据保护影响评估(DPIA)?
在可能对个人基本权利和自由构成高风险的处理操作之前,必须进行DPIA
欧盟机构有责任管理与使用生成式人工智能系统相关的风险,定期和系统性地监控模型运行是否加剧已识别的风险或出现新的风险。并在生成式人工智能系统的整个生命周期内采取数据保护设计和默认保护原则,提前考虑并充分减轻可能的威胁和风险。
6. 设计、开发和验证生成性人工智能系统时个人数据处理的合法性
生成式人工智能系统的个人数据处理涵盖系统生命周期内的所有处理活动,包括数据收集、训练、系统交互和内容生成。欧盟机构处理个人数据必须有法律基础,有关情况下需征求数据被处理方同意。
7. 如何确保数据最小化原则?
数据最小化原则要求处理的个人数据应当是足够的、相关的且限于为处理目的所必需的范围。
在开发生成式人工智能系统时,开发者应使用高质量、标注良好的数据集,并定期审查数据集内容。在评估第三方提供的系统时,应考虑数据最小化原则。
8. 生成性人工智能系统是否要尊重数据准确性原则?
数据准确性原则要求数据应当准确、最新,控制者需更新或删除不准确的数据。欧盟机构在所有阶段都必要措施确保数据准确性,并对输出数据进行定期监控;在使用第三方提供的数据集或系统时,应获得确保数据准确性的合同保证和文档。
9. 如何告知个人关于欧盟机构使用生成式人工智能系统处理个人数据的信息?
欧盟机构应向个人提供详细的处理活动信息,包括数据集来源、标注程序等;在自动化决策情况下,需提供关于决策逻辑及其潜在影响的有关信息。
10. 如何理解关于EUDPR第24条涉及的自动化决策?
生成式人工智能系统的使用不一定意味着自动化决策,但某些系统可能涉及个人评估和自动决策。必须确保个人有权获得人为干预、表达观点和对决策提出异议
11. 如何确保公平处理并避免偏见?
生成式人工智能可能放大现有偏见,需在所有开发阶段实施减少偏见的措施。开发者应当确保训练数据集公平代表现实世界,避免增加对特定群体的潜在危害;应保持持续监控,实施问责和监督机制,防止并纠正偏见行为。
12. 如何行使个人权利?
生成式人工智能系统的特点使得行使个人权利具有挑战性,需在系统生命周期内保持处理活动的可追踪性。
13. 数据安全
生成性AI系统带来新的安全风险,需实施专门的安全控制措施并进行定期风险评估。欧盟机构应持续监控和更新风险评估,确保对高级知识和技术的访问。
03
总   结
总的来说,这分指南为欧盟机构负责任地使用生成性人工智能系统提供了重要参考,指南重点在于数据最小化、数据准确性和数据安全,强调了透明和问责和在人工智能全生命周期内保护个人权利的重要性。
但必须注意的是,EDPS发布的指南是其作为数据保护监督机构的职责之一,而非其在《人工智能法》下的新AI监督机构角色,该指南不影响《人工智能法》的规定,不具有法律效力
来源|EDPS官网     编译|尚健

来源:上海市人工智能与社会发展研究会

|

原文始发于微信公众号(内生安全联盟):文件解读:欧洲数据保护监督机构(EDPS)发布首份生成式人工智能与数据安全指南

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年6月13日14:01:27
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   文件解读:欧洲数据保护监督机构(EDPS)发布首份生成式人工智能与数据安全指南http://cn-sec.com/archives/2842722.html

发表评论

匿名网友 填写信息