国内外人工智能安全战略与政策法规

admin 2023年12月6日10:20:55评论12 views字数 2379阅读7分55秒阅读模式

国内外人工智能安全战略与政策法规

在人工智能技术快速发展、应用规模迅速扩大的背景下,世界各国纷纷开展人工智能安全政策与标准相关工作。

1、联合国持续关注人工智能伦理安全

联合国教科文组织于2021年11月发布《人工智能伦理问题建议书》, 旨在为和平使用人工智能系统、防范人工智能危害提供基础。建议书提出了人工智能价值观和原则,以及落实价值观和原则的具体政策建议,推动全球针对人工智能伦理安全问题形成共识。2023年3月31日,该组织号召各国立即执行《人工智能伦理问题建议书》

2、欧盟严格人工智能监管,持续推进立法进程

欧盟专门立法,试图对人工智能进行整体监管。2021年4月,欧盟委员会发布了立法提案《欧洲议会和理事会关于制定人工智能统一规则(人工智能法)和修订某些欧盟立法的条例》(以下简称《欧盟人工智能法 案》),在对人工智能系统进行分类监管的基础上,针对可能对个人基本权利和安全产生重大影响的人工智能系统建立全面的风险预防体系,该预防体系是在政府立法统一主导和监督下,推动企业建设内部风险管理机 制,但如何判断评估人工智能系统风险等级是《欧盟人工智能法案》的重点和难点。

欧盟及时填补通用目的人工智能监管空白。2023年5月11日,欧洲议会的内部市场委员会和公民自由委员会通过了关于《欧盟人工智能法案》的谈判授权草案,新版本补充了针对“通用目的人工智能”和GPT等基础模型的管理制度,扩充了高风险人工智能覆盖范围,并要求生成式人工智能模型的开发商必须在生成的内容中披露“来自于人工智能”,并公布训练数据中受版权保护的数据摘要等。

3、美国强调安全原则,鼓励企业行业自律

相较于欧盟,美国监管要求少,主要强调安全原则。美国参议院、联邦政府、国防部、白宫等先后发布《算法问责法(草案)》、《人工智能应用的监管指南》、《人工智能道德原则》、《人工智能权利法案》、《国家网络安全战略》等文件,提出风险评估与风险管理方面的原则,指导政府部门与私营企业合作探索人工智能监管规则,并为人工智能实践者提供自愿适用的风险管理工具。

美国鼓励企业依靠行业自律,自觉落实政府安全原则保障安全。美国企业通过产品安全设计,统一将美国的法律法规要求、安全监管原则、主流价值观等置入产品。以生成式人工智能企业提高内容安全水平为例,工作一般集中在三个方面,一是在产品设计阶段加入符合安全要求的定制化内容作为重点训练数据;二是在产品运行阶段的人机交互环节加入自动化内容过滤机制;三是在每个用户使用产品时置入隐藏的安全前提引导生成内容安全合规。

4、其他国家均构建各自人工智能战略

(1)英国:支持创新,建立监管框架,暂缓立法

2021年9月,英国数字、文化、媒体和体育部(DCMS)发布《国家人工智能战略》,旨在推动英国成为人工智能领域的大国。该文件阐述了英国人工智能战略愿景,并提出了人工智能发展、人工智能作为经济支柱、人工智能治理和监管的三个方面的核心目标与行动建议。

2021年12月,英国政府发布《国家网络战略2022》。该文件阐述了英国将如何巩固网络强国地位、保障网络安全、提升网络空间行动能力。其中明确了英国将积极引领人工智能等七项优先技术领域的安全发展。

2023年3月,英国政府发布了人工智能新监管框架的提案《支持创新的人工智能监管方法》。该文件围绕以下五个方面展开:一是自身安全、应用安全和健壮性,二是适度的透明和可解释性,三是公平性,四是问责制和治理,五是竞争和赔偿,并表示近期不会将上述原则立法。

(2)加拿大:聚焦人工智能应用的民众权益保护

2022年6月,加拿大政府公布《2022年数字宪章实施法案》,旨在加强对加拿大私营部门的管理,为负责任的人工智能开发和使用创建新规 则。其中拟议法案《人工智能与数据法》敦促各公司在开发和部署人工智能系统时以减轻伤害和偏见风险为前提,进而维护加拿大民众的权益。

(3)俄罗斯:关注人工智能对国家安全影响

2019年,俄罗斯总统令批准《2030年前国家人工智能发展战略》,旨在加快推进俄人工智能发展与应用,确保国家安全,提升经济实力。

2020年,俄联邦政府批准《至2024年人工智能和机器人技术监管构 想》,旨在积极探索俄罗斯法律、人、机器之间的相互适应关系,为人工智能和机器人技术的安全应用和法律监管提供指导。

(4)新加坡:关注人工智能应用安全治理和评估

2019年11月,新加坡金融管理局(MAS)宣布与多家金融机构共同 设立Veritas计划框架,旨在帮助金融机构评估人工智能和数据分析解决方案,保证其遵循“公平、道德、负责和透明”的安全准则。

2022年5月,新加坡资讯通信媒体发展局(IMDA)和个人数据保护委员会( PDPC)共同发布人工智能安全治理评估框架和工具包— A.I.VERIFY,旨在结合人工智能系统的技术评估和程序检查,提高评估主体与利益相关者之间的透明度。

(5)日本:同时关注人工智能正面和负面影响

2022年4月,日本政府发布了《人工智能战略2022》,旨在推动人工智能克服自身社会问题、提高产业竞争力。其中提出以人为本、多样性、可持续三项原则,围绕社会安全、流行疾病、重大灾害等安全问题提出了具体方针。

5、我国高度重视,有效平衡发展和安全

2021年12月和2022年11月,国家互联网信息办公室先后发布《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》, 针对利用人工智能算法从事传播违法和不良信息、侵害用户权益、操纵社会舆论等问题,加强安全管理,推进算法推荐技术和深度合成技术依法合理有效利用。

2023年4月,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,统筹安全与发展,提出生成式人工智能产品或服务应当遵守的规范要求,保障相关技术产品的良性创新和有序发展。

原文始发于微信公众号(网络安全等保测评):国内外人工智能安全战略与政策法规

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年12月6日10:20:55
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   国内外人工智能安全战略与政策法规http://cn-sec.com/archives/2271109.html

发表评论

匿名网友 填写信息