人工智能伦理审查与监管初探

admin 2023年6月20日17:54:10评论22 views字数 6720阅读22分24秒阅读模式
2022 年 11 月,美国研究机构 OpenAI 发布对话式大规模语言训练模型 ChatGPT,在全球引发了前所未有的热度。然而在其发布后不久,意大利数据保护局就以数据安全问题为由,禁止了 ChatGPT 在意大利境内的使用,并限制开发者OpenAI 处理意大利用户的信息。与此同时,世界多地出现了对生成式人工智能进行规制的提议。在这场关于人工智能安全风险的讨论中,有一部分属于伦理的范畴,不能仅从网络安全的角度去审视。但人工智能伦理与传统的人体和动物伦理有很大不同,相关理论尚未形成。例如,如何界定人工智能伦理的范围?人工智能伦理审查的内容是什么?我国应当采取何种措施对人工智能伦理进行监管?上述问题值得深入研究。

一、人工智能伦理概述

(一)人工智能伦理的定义
人工智能伦理是一个兴起不久的新概念。国家标准 GB/T 41867-2022《信息技术 人工智能 术语》将“人工智能伦理”定义为“开展人工智能技术基础研究和应用实践时遵循的道德规范或准则”。国家人工智能标准化总体组、全国信标委人工智能分委会 2023 年 3 月发布的《人工智能伦理治理标准化指南》将人工智能伦理内涵总结为三方面:一是人类在开发和使用人工智能相关技术、产品及系统时的道德准则及行为规范;二是人工智能体本身所具有的符合伦理准则的道德准则或价值嵌入方法;三是人工智能体通过自我学习推理而形成的伦理规范。
上述概念既有继承,也有发展。一般而言,伦理是人类实现个体利益和社会整体利益协调过程中,处理人与人以及人与自然的关系的价值标准和行为体系。在科技发展的背景下,人工智能伦理增加了人与人工智能技术和产品的关系这一内涵,人工智能伦理的主体依然是人。人工智能的广泛运用,根本意图是为了人类的生活便利。但问题的复杂性在于,并非所有的人工智能技术和产品上的问题都属于伦理问题,只有当其影响或可能影响人类利益时才归属于人工智能伦理的范畴。
除定义外,人们还逐渐对人工智能伦理风险作出了刻画。本质上,人工智能伦理规范的对象是人工智能活动,不同类型的人工智能活动拥有不同的伦理风险。为此,2021 年欧盟的《人工智能法》将人工智能风险划分为不可接受、高风险、有限风险、极小风险四个等级,并要求对不同风险等级实施不同级别的管理体系。显然,人工智能伦理的审查和监管制度应针对不同类型的人工智能活动设置不同的规范,以指引人工智能的活动健康发展。
(二)人工智能伦理发展脉络
人工智能伦理整体上由机器人伦理发展而来。20 世纪 50 年代,美国作家阿西莫夫在其作品《我,机器人》中首次提出机器人三定律,成为机器人伦理的由来。机器人三定律中的第一定律提出,机器人不得伤害人,也不得见人受到伤害而袖手旁观;第二定律明确,机器人应服从人的一切命令,但不得违反第一定律;第三定律指出,机器人应保护自身安全,但不得违反第一、二定律。
1956 年的达特茅斯会议上,学者们第一次对“人工智能”这一概念进行了阐述,随后人工智能进入了漫长而沉寂的发展期,直至 2016 年,谷歌旗下 Deep Mind 公司开发的 AlphaGo 以 4:1 的成绩击败顶尖围棋手李世石后,人工智能重新成为人们关注的焦点。各国政府、企业、科研机构纷纷投入大量资金进行研究,以期早日占据技术高点,获得竞争优势。在人工智能的研发和应用中,人们逐步发现了人工智能领域同传统的医学、实验动物领域一样存在着伦理风险问题,需要进一步规范。
2017 年 7 月 8 日,国务院印发了《新一代人工智能发展规划》,要求初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。2018 年 10 月,习近平总书记在十九届中央政治局第九次集体学习时明确指出:“要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。”
2021 年 9 月 26 日,《新一代人工智能伦理规范》发布,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等 6 项基本伦理要求,并提出了人工智能管理、研发、供应、使用等特定活动的 18 项具体伦理要求。
2022 年 3 月 20 日,国务院办公厅印发《关于加强科技伦理治理的意见》,要求“进一步完善科技伦理体系,提升科技伦理治理能力,有效防控科技伦理风险,不断推动科技向善、造福人类”,将人工智能伦理纳入科技伦理的综合治理中。
(三)人工智能发展面临的伦理风险
1. 算法相关的人工智能伦理风险
算法缺陷:现阶段人工智能技术主要是利用深度学习等算法对海量结构化的数据进行统计学习,实质上仍然是以算法为内核,以数据为驱动。然而算法并不总是尽善尽美的,部分领域的算法缺陷可能会致使公民的生命权、健康权受到严重威胁。以自动驾驶领域为例,特斯拉、Uber 等自动驾驶汽车就曾多次被曝出因算法漏洞而致使车毁人亡的案例。
算法黑箱:算法的规则掌握在开发者手中,使用者并不知晓算法内容,只能被动地接受算法的结果。此外,因采用复杂的神经网络等算法,算法的可解释性有限,有时开发者自己都无法解释某个算法的结果及其生成机理。算法黑箱这一问题,严重侵犯了公民的知情权、监督权等合法权利。
算法歧视:人工智能无法判断数据的对错,只能依据固定的程式保留或丢弃数据。由于开发者个人偏好、训练数据选择误差等原因,人工智能可能会产出歧视性的结果。同时,部分依靠与用户互动进行学习的算法,也会因为某些用户的歧视性观念输入,不断循环反馈增加自身的歧视性,再次产出歧视性结果,侵害人们的平等权。
2. 数据相关的人工智能伦理风险
人工智能要通过收集海量数据进行学习,故必不可免要触及数据保护问题,尤其在个人信息保护方面。现实中,为推动技术进步和获取商业利润,开发者愈发倾向于凭借其优势地位更广泛、纵深地挖掘用户数据,这直接导致违法违规获取个人数据的情况泛滥。ChatGPT 最近受到的批评性意见中,很多针对的是其收集和处理个人信息的过程。国家网信办《生成式人工智能服务管理办法(征求意见稿)》也设置了专门条款保护个人信息。为此,个人信息的合理使用和隐私保护,成为人工智能伦理的又一重要内容。
3. 人工智能带来的社会伦理风险
人工智能与就业:人工智能技术的发展必将推动新一轮的产业革命,从而带来就业岗位的变化。劳动密集型产业、低端制造业等对创新性要求较低的行业,其工作岗位将会大幅度被人工智能所取代,而在科研、设计等对创新性要求较高的行业,将会产生新的岗位需求。社会就业率与就业岗位的大幅变化可能会引发失业危机,增加社会的不确定因素。
人工智能与知识产权:通常情形下,知识产权会当然属于创造出某项智力劳动成果的组织或个人。然而,人工智能技术却可以依据算法和数据在极短的时间内产出大量“创造性”的成果。人工智能技术是否可以作为知识产权的主体,其所创造的成果中哪些可以作为知识产权的客体,目前尚无定论。
人工智能与责任:人工智能技术被应用的领域越来越广,其自主决策能力也不断增强。但人工智能决策的结果并非万无一失,其仍然存在着一定的失误率。在人工智能代替人类进行推理、决策、执行的情形下,如何认定责任主体、划分责任范围、承担责任,都给现存的法律法规带来了新的挑战。从长远看,一旦责任归属划定不当,则会引发责任失衡的风险,削弱人工智能研发与应用的积极性,最终可能会束缚人工智能的发展。

二、研究人工智能伦理的必要性

(一)完善科技伦理理论体系
当前科技风险和科技伦理渐成社会核心关切话题,如何在获得科技福祉的同时最大限度地规避风险成为行业面临的严峻挑战之一。在这一背景下,科技伦理本身成为科学研究的重要内容,各国都在建立科技伦理理论体系,相关的学术成果不断推出。但是,科技伦理研究的最初切入点是人和动物的科学研究,而当前人工智能已经成为科技伦理风险的一个重要来源,这方面的研究却仍处于初级阶段,特别是人工智能科技伦理的内涵与基本要求,亟需完善相关理论。
(二)服务科技伦理审查工作
2019 年 7 月 24 日,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》。根据文件要求,2019 年 10 月,中共中央办公厅、国务院办公厅印发通知,成立国家科技伦理委员会,并先后成立了生命科学、医学、人工智能三个分委员会。前两个分委员会已有成熟运转机制,但人工智能分委员会的工作需从头开始,需要研究全套工作机制,更好服务于科技伦理审查工作。总体而言,人工智能的科技伦理审查在我国尚处于探索阶段。
(三)服务国家监管
在人工智能伦理问题提出以前,我国已有相关的监管制度,典型的是对人工智能极为倚赖的数据的安全监管,部分内容涉及了伦理问题。但这两者并不是同一回事。《国家科技伦理委员会组建方案》指出,要推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系,要抓紧完善制度规范,健全治理机制,强化伦理监管,细化相关法律法规和伦理审查规则,规范各类科学研究活动。但关于人工智能科技伦理监管同现有数据安全监管制度的关系,目前并不明确。为此,需要研究人工智能伦理风险监管框架,并与现有的数据安全、网络空间治理工作实现协调。

三、人工智能伦理审查与监管需要解决的关键问题

(一)对何种人工智能活动进行审查
为预防发生人工智能伦理风险事件,在事前对人工智能活动进行伦理审查尤为重要。然而不同类型的人工智能活动所运用的算法和技术天差地别,其应用范围也是横跨制造、物流、医药等多个领域。对所有的人工智能活动进行伦理审查既不现实,也不必要。如果划定的需进行伦理审查的人工智能活动范围过宽,则会增加相关行业的运营成本,阻碍行业发展;如果划定的范围过窄,则加大了发生伦理风险事件的概率。怎样合理确定需要审查的人工智能活动领域和类型,把握监管伦理风险和促进行业健康发展的平衡点,成为人工智能伦理监管的关键问题之一。
这一点与人体和动物伦理审查有着本质的不同,后两者的审查门槛非常简单明确,只要涉及则必审,申请开展相关研究必须具有伦理委员会的批准。但是否可以要求所有涉及人工智能的研究都必须进行前置伦理审查?这显然做不到。
(二)如何进行人工智能伦理风险评估
人工智能技术广泛应用于自动驾驶、互联网、医疗、传媒等诸多领域,由此带来的伦理风险也愈发复杂多变。其中,既有直观的短期风险,如算法漏洞存在安全隐患、算法偏见导致歧视性政策的制定等,也有相对间接的长期风险,如对产权、竞争、就业市场和社会结构可能产生的影响。为预先研判科技活动中可能涉及的人工智能伦理风险,规避潜在伦理风险,我国的一些学者尝试建立伦理风险评估模板,从动机、过程、结果、监管等审查点形成伦理评估清单。欧盟《人工智能法》、美国《算法问责法案》以及英国《建立一种有利于创新的方法来监管 AI》等世界主要国家的相关法律法规和政策文件则主张依据不同场景采用风险分级管理机制。当前,我国对人工智能活动的伦理风险评估标准尚属空白,有待进一步细化。
(三)如何处置人工智能伦理风险事件
近年来,人工智能伦理安全风险事件频发,AI 换脸引发隐私争议,自动驾驶安全事故屡现,智能算法推荐造成信息茧房……人工智能技术通常与互联网领域相关联,一旦发生伦理风险事件,其影响范围将会远超传统伦理风险事件,而伦理风险事件处置措施却仍处于起步阶段,并未形成规范化的流程和统一化的标准,这就导致了伦理风险事件处置混乱,引起后续争议不断。人工智能伦理风险事件应对机制的不健全,严重阻碍了该行业的未来发展。如何以典型性的人工智能伦理风险事件为参考,总结其中具有较强实践性和借鉴性的处置措施,形成人工智能伦理风险事件标准处置规范,成为当务之急。
(四)如何处理人工智能伦理限制和技术创新的关系
尽管 ChatGPT 迅速火爆全球,但是一封名为“暂停巨型 AI”的公开信却在呼吁暂停开发训练比 GPT-4 更强大的人工智能模型,因为人工智能实验室暂时无法理解、预测或可靠地控制自己开发的巨型人工智能模型。只有在人类确信巨型人工智能模型会产生积极影响并且风险可控的情况下,才能开发更强大的人工智能系统。
随着人工智能伦理观念的普及,人类会出于避免人工智能伦理风险的考量,而限制或暂缓研发更为强大的人工智能系统,但这种限制却有可能对潜在的重大科技突破造成影响。试管婴儿技术诞生之初,曾因伦理限制而备受争议,但如今已成为辅助生殖的主流技术之一。如何在人工智能发展过程中避免重蹈覆辙,正确处理人工智能伦理限制与科技创新的关系,这是人工智能发展所面临的一个重要课题,需要谨慎思考。

四、对我国人工智能伦理风险审查与监管制度的建议

(一)提升对全球人工智能伦理规则制定的影响力
人工智能作为一项蓬勃发展的新兴技术,美国、欧盟、日本等国家或地区均投入大量人力物力进行研发,各国相继出台人工智能相关的法律法规、政策和技术标准,一方面引领全球科技进步,同时也竞争掌握国际话语权。在这场人工智能领域的新国际博弈中,掌控人工智能伦理规则的制定显得尤为重要。在倡导“伦理”这一普世价值的同时,一些国家可能试图向人工智能伦理规则中注入自身的意识形态理念和利益诉求,并据此进一步强化对中国高科技发展的遏制。面对这一“兵家必争之地”,我国应当有所作为,提升对全球人工智能伦理规则制定的影响力,为人工智能的全球治理贡献中国智慧和中国方案。2022 年 11 月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》,文件强调“各国政府应鼓励在人工智能领域开展跨国家、跨领域、跨文化交流与协作,确保各国共享人工智能技术惠益,推动各国共同参与国际人工智能伦理重大议题探讨和规则制定”。这一立场文件的发布具有重要意义,如果中国要推动在人工智能伦理治理领域开启国际对话进程,并为制定全球规则提供蓝本,还需要采取进一步行动。
(二)完善人工智能伦理立法
当前中国关于人工智能伦理相关的官方文件包括《新一代人工智能发展规划》《新一代人工智能伦理规范》《关于加强科技伦理治理的意见》等。但这些文件类型多为宏观指导性政策,缺乏更为细致的强制性法律规范。为更好地规范人工智能发展,建议尽快出台人工智能伦理监管相关法律法规。一是,应明确人工智能伦理领域的相关概念,为伦理问题和非伦理问题划清界限,促进人工智能健康发展;二是,总结归纳人工智能伦理监管的共性规则和一般原则,为不同场景的人工智能伦理监管提供标准的管理、研发、供应和使用规范;三是,完善人工智能伦理责任制,以立法形式明确监管部门与运营单位的具体职责。
(三)提出人工智能伦理委员会建设运行指引
《关于加强科技伦理治理的意见》要求,从事人工智能科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。为此,应积极发挥人工智能伦理委员会的作用,加强人工智能伦理日常管理,主动研判、及时化解有关科技活动中存在的伦理风险。人工智能伦理委员会应在单位开展相关研究前,对其方案计划进行审查,及时阻止或纠正违背人工智能伦理的研究项目,防患于未然。同时,对于已经发生的人工智能伦理风险事件,人工智能伦理委员会也可以进行紧急处置,避免事态进一步扩散与恶化。鉴于人工智能伦理问题的复杂性,宜在国家层面为各类人工智能伦理委员会提供建设运行指引,加强顶层设计,提升人工智能伦理审查的科学性和规范性。
(四)建立数据安全监管和人工智能伦理监管工作协同机制
人工智能伦理治理包括两个方面,一是当事单位的人工智能伦理审查,二是国家主管部门的人工智能伦理监管。由于人工智能应用的基础是数据,故人工智能伦理监管与数据安全监管之间必然会存在交叉。不仅如此,数据安全治理本身也包含对数据伦理问题的关注。从历史发展看,安全监管与伦理监管沿着各自脉络发展,无论在学术研究还是在实践中均未实现协同。目前我国还没有建立起人工智能伦理监管机构,下一步工作中需考虑与数据安全监管的关系,确保两个制度相互协调与配合。

五、结论

人工智能技术的发展与应用既是人类社会的共同福祉,也增添了新的伦理风险。面对如火如荼的人工智能技术发展,人工智能伦理研究已经明显滞后,亟需改变现状。顾名思义,人工智能伦理研究属于典型的交叉学科,它既涉及信息技术领域的人工智能科学,也涉及人文社会科学领域的伦理学。人工智能伦理的审查与监管是一个复杂的课题,需要开展大量务实的基础性研究,重点在于厘清相关问题的边界。本文对人工智能伦理研究重点和方向作了初步的思考,希望能够引发更广泛的讨论,推动人工智能伦理研究的进步。


原文来源:中国信息安全

“投稿联系方式:孙中豪 010-82992251   [email protected]

人工智能伦理审查与监管初探

原文始发于微信公众号(关键基础设施安全应急响应中心):人工智能伦理审查与监管初探

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年6月20日17:54:10
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   人工智能伦理审查与监管初探https://cn-sec.com/archives/1821044.html

发表评论

匿名网友 填写信息