专题·原创 | 人工智能创新需探索发展与监管的平衡

admin 2021年8月5日14:43:13评论47 views字数 6548阅读21分49秒阅读模式
专题·原创 | 人工智能创新需探索发展与监管的平衡
专题·原创 | 人工智能创新需探索发展与监管的平衡

扫码订阅《中国信息安全》杂志

权威刊物 重要平台 关键渠道

邮发代号 2-786


文│ 国务院发展研究中心国际技术经济研究所 唐乾琛
随着技术研究不断深入、水平不断提高, 人工智能(Artificial Intelligence,AI)技术正在数字经济发展中发挥越来越重要的作用。在AI 技术发展过程中,伦理道德、数据隐私和安全性等问题一开始就作为顶层设计的重要内容,保障 AI发展的底线。近年来,欧美主要经济体认识到 AI 技术竞争的重要性,提出多项措施激励 AI 发展;也不断探索 AI 发展与监管的平衡,明确提出 AI 伦理、隐私保护和安全的相关立法与倡议。其中的若干思路值得我国参考借鉴,以切实保障 AI 技术安全、可靠发展。


一、AI 发展应充分重视数据治理与隐私保护问题

AI 的运用涉及大量的数据,尤其是 AI 训练时使用的数据集以及运作后产生的大量数据。这些数据可能是结构化或是非结构化的数据,若需要对这些数据加以利用,必然涉及传输、处理及存储等环节,面临着跨境数据流通、数据泄露等风险。尤其是更多的数据位于传统 IT 的边界之外,或存储于混合云和多云环境中,或是分布式存储,更加大了数据保护的难度。
然而,现实情况比想象中更为复杂。美国网络安全公司 Imperva 的一份调查报告显示,2020 年全球在线数据泄露事件的数量达到 170 万次,同比增长 93%。2021 年 4 月,106 个国家和地区的超 5 亿脸书用户的数据暴露于一个黑客论坛,其中包含用户的电话号码、居住地址等。数据的非正当利用,有可能危害国家安全、个人权益,并带来一系列不可预知的后果。
为加强数据保护,各国均提出了数据保护立法。美国加利福尼亚州于 2018 年提出《加州消费者隐私法案》(California Consumer Privacy Act of 2018,CCPA),对受保护数据的类型作出规定,并赋予消费者数据访问权、数据删除权和知情权等权利。欧盟于 2018 年施行《通用数据保护条例》(GeneralData Protection Regulation,GDPR),规范数据使用,赋予个人用户数据“删除权”和“移植权”,并加强对数据传输至欧盟以外的“第三国”的管控。这两项立法在全球引发广泛的关注,其中的许多条款为多个国家的数据保护立法提供参考。我国《网络安全法》和《个人信息保护法(草案)》等法规条款,也对数据的边界、个人信息的定义等内容进行规范,明确数据使用的权利和义务。
除去数据的非正常利用情况,企业和组织掌握数据量的多寡,将带来 AI 效能的高低不同,这是一件显而易见的事情。拥有更多数据的企业和组织,将有更多机会发展自身的 AI 业务,进一步提高服务水准,形成规模优势。数据量的差异,有可能在周而复始的周期性运作中进一步扩大,进而形成数据垄断的局面,不利于数字经济健康、均衡发展。


二、AI 技术应受到伦理道德约束

科幻作家艾萨克·阿西莫夫(Isaac Asimov)在1950 年出版的小说《我,机器人》中提出“阿西莫夫三大定律”(又称“机器人学三大法则”)。这三大定律分别为:“第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观”“第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外”“第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存”。这三大定律为人类探讨 AI 伦理准则提供了较为早期的参考。目前,各国之间广泛认同的 AI 伦理准则可总结为以下四个方面,分别为可靠性与安全性;透明度与可解释性;非歧视原则;负责任的 AI。
(一)可靠性与安全性
可靠与安全是 AI 进行一切活动的前提,是最基本的要求。正如前文“阿西莫夫三大定律”所述,机器在进行运作活动、服务于人类生产生活时,应确保人类的安全且不具有威胁性。在后期的 AI 伦理研究中,研究者也从安全出发,不断扩充这类研究的内涵,以应对发展中的诸多挑战。
(二)透明度与可解释性
由于传统 AI 系统的处理方式为人类无法了解的“黑箱”模式,人类仅能知道系统的输入(特定的数据与激励)和输出内容(处理后的数据与决策信息),无法理解 AI 做出特定决策的原因。线性回归、决策树和贝叶斯网络等传统算法可被解释,但其精确度十分有限,而深度学习、神经网络等算法的精度较高,但可解释性差、参数规模庞大,人类无法了解 AI 系统的运行路径、无法在必要时候获取有关信息。这就导致人类无法完全设计、控制敏感领域所使用的 AI,如自主武器、自动驾驶汽车等系统发生事故时,难以判断其失误原因;在 AI 信贷评分系统拒绝某人的贷款时,无法给予明确的解释。
美国国防部高级研究计划局(Defense AdvancedResearch Projects Agency,DARPA) 自 2016 年起启动“可解释的人工智能”(Explainable AI,XAI)项目,力争解决人工智能透明度的挑战,打开人工智能的“黑匣子”。这一项目在三个方面开展工作:深度解释、构建更多可解释模型和模型归纳。在这一项目下,研究人员尝试通过可视化等方式对现有 AI 进行解释,并创建本身就可解释的 AI 模型,以便于帮助用户和开发人员理解 AI 算法,了解 AI 所作的决定,最终设法提高 AI 的可信度。
(三)非歧视原则
AI 的部署应当遵循多样性、公平性与包容性的非歧视原则,无论是出于道德原因还是实际需求都非常重要。举例来说,对大量的数据进行汇总分析,可以利用 AI 技术帮助分析贷款申请人的信誉,决定是否给予贷款以及额度;同时也可以对应聘者进行评估,决定是否录取;还可以预测犯罪分子再次犯罪的几率,等等。然而,有些 AI 系统或存在歧视与偏见。举例而言,许多面部识别系统的准确率欠佳,尤其是在识别深色皮肤面孔时。根据美国国家标准与技术研究院(National Institute of Standardsand Technology,NIST)发布的一份报告,2010 年至2018 年间,算法在大型数据库中精确识别人脸的能力提升了 25 倍,只有 0.2% 的概率会出现无法匹配人脸的情况,而算法在识别深色人种面孔方面的能力较差,即使是性能最佳的人脸识别系统,识别深色人种的错误率也比白种人高 5~10 倍。
AI 产生歧视的原因来自两个方面:一是当前 AI技术的发展水平仍然较为有限,其模式识别的能力未能实现对特有模式(较深的肤色、多样化的行为特征等)的有效识别;二是部分 AI 在设计之初并未针对特殊模式(“模式”为环境和客体的统称)进行设计,如人脸识别系统在训练时可能并未针对有色人种进行优化,亦或是其训练数据集中并没有足够数量、保证质量的深色人种面部数据。更甚者,AI 系统可能在自我学习的过程中接受了存在偏见的信息,最终形成了含有偏见的处理模式。这一担忧并非空穴来风,英国伦敦大都会警察局曾于 2020 年初宣布开始大规模部署面部识别系统以打击犯罪,而由于这一系统的误报率曾一度高达 98%,引发了民众的抗议。
(四)负责任的 AI
AI 在运作过程中,很有可能会产生错误决策或失误,从而引起人员伤害、财产损害等状况。如何对 AI 所担负的责任进行明确与划分,一直以来是业界关注的问题。一旦发生纠纷,责任具体是归于设计者还是使用者,亦或是归咎于 AI 本身。当前,这类讨论尚无明确的结果和较为广泛的共识,导致目前许多因使用 AI 系统而产生的案件无法明确责任方。例如,2016 年,我国发生的一起辅助驾驶汽车撞击致死案件至今悬而未决。一辆开启辅助驾驶功能的小轿车在高速公路上撞击前方的道路清扫车,导致小轿车驾驶员当场身亡。然而,在案件调查过程中,汽车生产厂商始终拒绝承担责任,并表示无法提供充足的行驶数据以配合调查。此类案件引起了较大争议,也表明 AI 责任的划分仍需要长期的研究和讨论。而面对复杂的情形,也应当遵循“一案一审”的原则,根据实际情况,通过审慎的调查来明确。


三、欧美主要经济体正探索 AI 创新与监管的平衡

近年来,欧美行政机构相继提出多项倡议与监管措施,以预防伦理和数据隐私问题、规范 AI 技术的研发与部署。一方面,对 AI 采取必要监管是这一行业长期健康发展的必然要求;另一方面,欧美国家已经意识到中国人工智能技术的崛起,为应对激烈竞争,愈发重视人工智能治理和数据可利用性,以期更安全、更规范地进行人工智能研发,激发人工智能应用活力,推动技术革新和行业进步。
(一)美国的相关立法与倡议
2020 年 1 月,美国白宫科技政策办公室(Officeof Science and Technology Policy,OSTP)发布美国人工智能监管原则提案,敦促联邦法规放宽对人工智能的限制,以推动创新并避免监管过度。提案中主要包括初步规范私人部门人工智能技术开发和使用的 10 项监管原则,指示各个联邦监管机构在考虑实施与人工智能相关的监管行动时,坚持“公平、非歧视、公开、透明、安全和保障”等原则,并听取公众对拟出台法规的反馈。2020 年 2 月,美国国防部(United States Department of Defense,DoD)正式采用国防创新委员会(Defense Innovation Board)于2019 年 10 月提出的“负责任、公平、可溯源、可信赖和可控”等人工智能伦理准则。2020 年 8 月,美国国家标准 与技术研究院(National Institute ofStandards and Technology,NIST)提出 4 项原则,以确定人工智能所做决定的“可解释”程度。具体的4 项原则为:人工智能系统应为所有输出提供相关证据或原因;人工智能系统应向个体用户提供有意义且易于理解的解释;所提供的解释应正确反映人工智能系统生成输出结果的过程;人工智能系统仅在预设或系统对其输出有足够信心的情况下运行。该工作旨在通过理解人工智能的理论能力和局限性以及通过提高人工智能使用的准确性(Accuracy)、可靠性(Reliability)、安全性(Security)、鲁棒性(Robustness)和可解释性(Explainability)来建立对人工智能系统的信任。
(二)欧盟的相关立法与倡议
2020 年 2 月,欧盟委员会在布鲁塞尔发布《人工智能白皮书》(White Paper on Artificial Intelligence),旨在促进欧洲在人工智能领域的创新能力,推动道德和可信赖人工智能的发展。白皮书提出一系列人工智能研发和监管的政策措施,并提出构建“卓越生态系统”和“信任生态系统”。2020 年 2 月,欧盟委员会宣布将放弃为期 5 年的面部识别禁令,并鼓励各成员国制定自己的面部识别法规。关于面部识别技术是否压制人权的讨论迫使欧盟放弃全面施行面部识别禁令,转而建议各成员国评估面部识别技术的影响后,再将其推广到公共场所。2020 年 11月,欧盟提出《数据治理法案》(Data GovernanceAct)。该法案将促进整个欧盟以及各部门之间的数据共享,从而在增强公民和企业对数据掌控力度和信任程度的同时,为欧盟经济发展和社会治理提供支撑。法案的相关条款将允许企业获取公共和个人数据,旨在促进欧洲企业与美国和亚洲的同行竞争。一旦获取大量真实数据,欧洲企业将能够分析市场的实际需求,从而推出更好的人工智能产品和服务,提升自身竞争力。在该立法下,企业和研究机构将能够访问通常因隐私、商业机密或知识产权而被屏蔽的数据。同时,欧盟数据隐私保护法规《通用数据保护条例》(GDPR)仍将适用。2020 年 12月,欧盟基本权利机构(European Union Agency forFundamental Rights,FRA)发布《走向正确的未来》(Getting The Future Right)报告,深入讨论必须考虑的人工智能技术伦理问题。报告称,算法存在偏见和歧视,这可能带来社会问题。如果没有适当的透明度,这些偏见可能会对人类产生不利影响。FRA 敦促决策者就现有规则如何适用于人工智能提供更多指导,并确保未来的人工智能法律保护人的基本权利。
2021 年 4 月,欧盟委员会发布《人工智能法律监管框架》(Legal framework on AI)与《2021 年人工智能协调计划》(Coordinated Plan on ArtificialIntelligence 2021 Review)政策提案,旨在规范 AI 技术风险并加强全欧洲对 AI 技术的利用、投资和创新。《监管框架》按照风险级别将 AI 技术及其应用分为四类,一是具有不可接受风险的技术,包括鼓励未成年人危险行为的语音系统、政府“社会评分系统”等操纵人类行为的 AI 系统或应用程序,该类技术被禁止;二是高风险技术,包括用于运输、教育、辅助手术、招聘、移民管理等事项的技术,该类技术在进入市场前需进行风险评估、使用高质量数据集测试、提供详细的记录文件等检验保护措施,其中具有远程生物特征识别的系统使用前需司法授权并受时间和地理位置的限制;三是聊天机器人等风险有限的系统,需履行透明披露义务;四是视频游戏等风险最小的应用程序,法规不予以干预。《协调计划》将统筹“数字欧洲”(Digital Europe)和“地平线欧洲”(Horizon Europe)计划,以促使各国就促进 AI 技术使用和创新提出联合行动计划。欧盟委员会建议由各成员国市场监督主管机构对《监管框架》进行监督,成立欧洲人工智能委员会促进其实施。
(三)加拿大的相关倡议
2020 年 11 月,加拿大隐私事务专员办公室(Officeof the Privacy Commissioner of Canada,OPC)呼吁制定法律,使加拿大人能够负责任地创新并从人工智能中受益,同时确保基本权利得到尊重。该办公室还建议对《个人信息保护和电子文档法案》(PersonalInformation Protection and Electronic Documents Act,PIPEDA)进行修订,允许将受保护的个人信息用于研究目的,以促进人工智能创新和社会进步。加拿大隐私事务专员办公室认为,尽管 AI 可能有助于应对与医学诊断、能源效率提升、个性化学习以及疏导交通流量有关的紧迫挑战,但 AI 系统利用个人信息来分析和预测行为并针对个人作出自动决策可能引起严重后果。因此,需要解决有关公平、准确、偏见和歧视的问题,使 AI 技术以尊重隐私、平等和其他人权的方式部署。


四、对中国的启示

中国是 AI 技术的后起之秀,项目转化快、应用场景丰富,应用层成为 AI 发展的重要支撑。若将算力、算法、算据作为人工智能成功发展的三大要素,中国在算据方面有着最为突出的优势。凭借着众多的人口、机构和复杂的应用场景,以及多年来数字经济发展奠定的基础,中国有大量的数据可供支持人工智能算法与系统创新,这也是中国 AI 技术与数字经济长期快速发展的重要原因之一。
参考欧美在激励创新和监管方面的举措,我国应按照自身发展现状和路径,坚持走发展和监管并重的道路,确保 AI 行业高质量创新,服务于经济建设这一中心。
(一)应始终重视数据和隐私的保护
AI 发展中,需始终坚守数据和隐私保护的底线。随着数字经济不断发展,数据这一生产要素的产生、流动和处理将愈发活跃,对数据保护的要求进一步提高。而数据的海量增长,很可能颠覆传统的数据保护机制,那么必须探索新的路径,如大数据合法交易、探索联邦学习机制等,保障“数据可用不可见,用途可控可计量”的安全使用。
(二)应充分重视 AI 伦理道德规范
AI 的运用场景进一步丰富,与百行百业交融,促进行业发展繁荣。这一过程中,应重视 AI 伦理道德若干准则的探讨,不断丰富、完善其内涵。进而,在这些准则的基础上形成规范化的监管和立法,保障 AI 技术可控、可靠。
(三)应探索发展范式创新,不断激发行业活力
随着时代发展不断向前,技术的进步也将带来发展范式的变化。企业和组织的运作模式很可能因为 AI 技术的出现而发生颠覆性的改变,数字技术与实体经济深度融合,生产效率、服务效能将得到极大地提高,带来社会生产力的大跨度发展。这也意味着 AI 及相关行业的竞争将愈发激烈,唯有政策激励、持续投入、坚持创新,才能在国际竞争中引领重要发展方向。

(本文刊登于《中国信息安全》杂志2021年第6期)



专题·原创 | 人工智能创新需探索发展与监管的平衡
专题·原创 | 人工智能创新需探索发展与监管的平衡
专题·原创 | 人工智能创新需探索发展与监管的平衡
专题·原创 | 人工智能创新需探索发展与监管的平衡

扫码关注我们

更多信息安全资讯

请关注“中国信息安全”

本文始发于微信公众号(中国信息安全):专题·原创 | 人工智能创新需探索发展与监管的平衡

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2021年8月5日14:43:13
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   专题·原创 | 人工智能创新需探索发展与监管的平衡http://cn-sec.com/archives/448451.html

发表评论

匿名网友 填写信息