移动视野:人工智能的响应式和基于风险的监管框架

admin 2024年7月2日22:56:45评论1 views字数 6353阅读21分10秒阅读模式

移动视野:人工智能的响应式和基于风险的监管框架

随着人工智能 (AI) 能力的不断发展,其监管不能再只是一种优化和缓解措施,或者最大限度地利用创新机会并最大限度地降低危害风险。

人工智能相互交织的社会经济和法律影响需要动态治理安排来识别、应对和预测不断变化的监管要求。

本报告提出了一个框架,该框架不仅可以预测、识别和评估风险,还可以对风险进行响应管理。

这样的框架将开辟道路,以协调建设国家能力的主权要求,同时促进多边合作,制定全球公认的标准,以促进负责任地部署人工智能创新。

自 2016 年微软发布人工智能聊天机器人 Tay 以来,人工智能系统取得了长足进步,该机器人在发布种族主义和反犹太主义推文后,一天之内就不得不被关闭。

然而,如果说 Tay 的经历给世界带来了什么教训,那就是需要为人工智能算法设置护栏,这些算法可以动态、交互地从有害的用户行为中学习,或者从普遍存在的、具有负面社会、经济和政治后果的人类行为中得出模式和推论。

虽然自 Tay 以来,人工智能产生明显有害输出的可能性可能已经降低,但由于不同算法和模型广泛使用和重复使用具有固有偏见的通用数据集,其影响已变得不那么明显。

例如,人们越来越担心人工智能算法中普遍存在的性别和种族偏见和歧视。

同时,随着人工智能系统获得越来越强的自主能力,它引发了有关知识产权 (IP) 所有权和作者身份的问题。

从 2018 年开始,美国计算机科学家斯蒂芬·泰勒 (Stephen Thaler) 跨司法管辖区提交了一系列知识产权申请,以指定他的人工智能系统 DABUS(统一感知的自主引导设备)为发明人。

他的申请(有时在单个司法管辖区提交多个申请)被澳大利亚、英国、美国、新西兰以及欧盟专利局拒绝,这些国家都认为一项发明的作者身份只能归属于法人。

南非是唯一对他有利的司法管辖区,2021 年 7 月,南非专利局认定 DABUS 为“发明人”。

在印度,印度版权局于 2020 年拒绝了人工智能系统 RAGHAV 被视为艺术作品共同作者的申请。

围绕知识产权所有权的这些难题将人们的注意力重新引向了人工智能生成输出的责任和义务归属问题,更重要的是在出现不利后果的情况下。

人工智能系统的本质:不透明、不可捉摸和自主,对确定责任规则提出了巨大的挑战。

当生产者由于算法的自学性质而无法预见因果关系时,如何追踪因果关系并确定过错?

这些事例引发的问题多于答案:对于因系统性偏见的延续而导致的、需要归咎和分摊责任的人工智能造成的损害,如何确定责任?

应该通过产品责任制度、委托代理关系,还是人工智能与社会界面的新法律轮廓来实现?

我们应该如何处理由于历史上男性在教育和就业方面代表性过高我们如何应对算法幻觉的新风险、歧视行为的动态学习,这些风险可能是其数据中的系统性问题和无数用户交互的结合?

我们应该如何事后解决数据丰富的大型科技公司所享有的市场集中度问题,这些公司作为 Web 2.0 的先行者享受着连锁效益?

事实上,人工智能的治理和监管就像是九头蛇,给政策制定者和监管者带来了持续而看似棘手的挑战。

人工智能的发展涉及整个利益相关者和条件的生态系统,对资源的控制和分配存在差异。

由于人工智能的不透明性、通用应用和跨领域的交叉影响,它也无法明确划分因果关系或直接评估潜在危害。

这些都让监管者不得不努力解决棘手的问题,以确定个人权利在哪里结束、所有权在哪里开始,以及人工智能权利在哪里接管。

因此,监管不再只是优化或缓解的问题,因为人工智能具有层层叠加的社会经济和法律影响。

试图监管人工智能的某些方面可能会成功,但目标会发生变化,应对这些变化的解决方案必须与人工智能的发展同步。

本报告提出了“移动视野”框架作为人工智能监管的合理指南。

借助响应式和基于风险的监管要素,“移动视野”旨在捕捉不断发展和新兴的监管趋势,并纳入现有法规中本身可能过时的要素。

这种方法认识到潜在的条件和格局的变化,并利用它们来平衡创新机会和不利后果的风险。

这涉及动态治理前景、建立机构能力、通过适应性监管方法简化流程,以及发展监管和技术能力,使监管机构能够应对不断变化的环境和生态系统需求。

潜在条件和转变

有必要概述构成人工智能治理重点的最关键基本条件和重要转变。

这些可以分为以下三大类进行安排和讨论。 

数据和数字公共资源的悲剧 

数据与传统的公共资源不同:它不是有限的资源,也不是自然赋予的,而且是非竞争性的。

现有的用户生成内容库将进一步放大这一现象。

随着数据被收集并整理成复合数据集,并加入算法分析,原始数据被转化为分析输出,而单个数据所有者不再拥有任何权利。

这削弱了原始所有权和用户收益的累积,没有采取任何补救措施或重新分配提取的经济价值来应对负面外部性和不利后果。

生成困境与全球人工智能经济

人工智能的发展依赖于大量的数据和计算能力。

微软、Facebook、亚马逊和谷歌等大型科技公司拥有的数据宝库使他们能够训练具有正反馈回路的大型人工智能模型。

这些系统性问题引发了需要管理的新困境,即竞争或合作的困境,以及人工智能开发和部署中当前的市场结构,这种结构促成或限制了这种困境。

目前,在纳入面向消费者的评估指标以提高透明度和问责制方面开展的工作有限,无法告知消费者使用人工智能系统时可能遇到的偏见和歧视风险。

人工智能游戏中的皮肤

在全球范围内,美国和中国是当前人工智能创新的中心;与此同时,欧盟在 2024 年通过了具有里程碑意义的《人工智能法案》,站在人工智能监管的最前沿。

创新中心和监管中心之间的这种距离预示着欧盟人工智能监管的域外范围。

这导致发展中国家最终要么为人工智能创新提供关键资源,要么成为人工智能监管的对象,从而限制了其创新和参与全球人工智能经济的竞争力。

因此,人工智能的发展仍然既具有提取性又存在偏差,而那些利用个人数据为人工智能解决方案的开发和发展做出贡献的人仍然得不到服务或只能得到边缘服务。

因此,鉴于这些影响节点,企业和平台与发达国家布鲁塞尔等主要首都就监管问题进行接触,而忽略了其他国家,这进一步加深了能力和产能方面的差距。

市场扭曲

当前,人工智能监管担忧的根源在于市场扭曲。

本节概述了两个案例研究:国防领域和性爱机器人行业,以说明人工智能系统带来的负面外部性以及它们迄今为止取得的深远而普遍的进展。

国防部门

全球对两用新兴技术驱动的军事能力的需求正在激增,而且越来越多地由国防工业基础以外的公司来满足。  

主要大国正在投资开发人工智能的军事应用。

例如,美国国防部已为 2024 年人工智能提出了 18 亿美元的预算请求,而中国在人工智能方面的支出略少,每年仅为 16 亿美元。

设计自主和人工智能驱动的智能弹药、系统和武器将影响人工智能的监管或问责设计和原则。

秘书和性爱机器人领域

到目前为止,面向消费者的机器人应用最为广泛,包括语音助手和性伴侣。

2022 年,性爱机器人行业价值 2 亿美元,估计每年售出 56,000 台性爱机器人,每台售价在 5,000 至 15,000 美元之间。

这引发了关于两用技术民用和军用用途的差异化监管以及对民法和刑法的影响的相关问题。

这些担忧被下一节中讨论的另外两个驱动因素所削弱。

合并与负债

人工智能创新的整合和集中化紧随标志着 Web 2.0 出现和发展的变革而来。

在此期间,社交媒体公司成为大量用户生成内容的存储库,这些内容通过持续使用此类平台而得到强化。

这些数据宝库成为此类平台能够扩展并推动其云计算基础设施服务需求的基础。

人工智能可能标志着互联网去中心化创新的终结。

此前,国防研究(例如美国国防高级研究计划局)外包给了许多不同的公司。

由此产生的互联网架构促进了多节点创新,去中心化的计算进步推动了数字社会的出现。

这些是否足够且足够快?当前的商业环境将如何影响有关问责的重要问题?

这一方面很重要。鉴于人工智能系统带来的风险以及对既定责任制度缺乏共识,公司可以将自己置于自己创造的隐形安全港的背后,在那里他们可以否认任何危害风险归咎于自己,并避免承认任何责任。

中介责任保护,以新的形式,可以免除人工智能提供商对有害产品开发和服务提供的责任。

例如,根据谷歌的生成人工智能附加服务条款,该公司将不会主张对人工智能系统生成的内容拥有所有权。

虽然该政策的目的是允许用户在没有任何版权问题的情况下主张所有权,但它使指定不利后果的责任变得复杂。

总的来说,法律架构无法跟上人工智能领域的快速发展,国内和国际制度都存在着真正的磨损。

利益相关方可能正在投资这种关于管理人工智能的法律方法的不断变化的状态。

伦理学混淆了国际法

例如,全球人工智能治理和监管往往局限于人工智能伦理模式;这些伦理原则由于不具约束力而绕过了国际法体系。

联合国大会今年早些时候通过了一项关于人工智能的决议,但并未提出就国际法可能需要做出的改变进行某种形式的讨论。

鉴于人工智能系统的跨国性质、英语作为人工智能系统训练数据的主要形式、人工智能在人工智能开发生命周期中的代表性不足以及各国人工智能能力的全球不平等,这一点尤为重要。

响应式和基于风险的监管“移动视野”框架

正如本报告前面部分所讨论的,人工智能发展的监管必须应对多种相互关联的现实。

这需要管理系统中普遍存在的系统性条件,如市场集中、资源分配不均或数据集和开发者社区代表性不足。

系统性条件来自多个来源,影响生态系统中的不同参与者,并迅速传播,产生多米诺骨牌效应。

这凸显了人工智能系统中普遍危害的性质,因此,当新出现的风险与算法、模型和自学人工智能系统交织在一起时,很难确定这些风险的确切来源。

人工智能设计过程中的这些条件决定了人工智能模型的训练方式和训练内容,导致风险随着算法通过用户交互不断学习而动态出现。

这些风险包括人工智能幻觉以及有偏见、歧视或有害的输出。

虽然《欧盟人工智能法案》采用了风险分类机制,但实践中的风险管理成为注意力塑造和干预的问题。  

这凸显了培养动态治理能力的必要性,以理解和应对系统性条件和新兴风险与利益相关者、部门、社会和国家选择的融合和交叉。

这对于平衡促进创新与降低风险之间的相互冲突也很重要,从而强调了对资源、条件和参与者进行战略协调的必要性。

人工智能的发展往往通过由政府、学术界和工业界组成的三螺旋利益相关者生态系统进行。

此外,系统性条件和新出现的风险凸显了以公民为中心的方法的重要性。

这可以帮助确保监管能够以响应和审慎的方式进行,因为各国正在发展动态能力来应对人工智能创新带来的不断演变的挑战,同时采取措施解决系统性条件。

“移动视野”监管框架借鉴了响应式监管的支持和制裁金字塔,即在努力扩大人工智能系统的优势和潜力的同时解决不利后果。

“移动视野”监管方法涉及以下组成部分:

动态治理能力和战略协调:

政策制定者和监管者需要能够部署动态能力,以感知、规划和重新配置应对人工智能创新的能力。

这将涉及确定要解决的问题领域和预期的影响发生率,并概述监管范围。

这将确保它确定正确的利益相关者并动员适当的政府部门设想如何应对不断发展的人工智能问题,并将其与当前的监管需求以及社会和经济问题保持一致。

绘制风险、影响和责任图:

动态范围划分将通过绘制和分类风险、严重性、原因和影响的漏斗进行。

这将有助于识别、分配和归因于生态系统中涉及的利益相关者的责任和义务。

制定合规和支持框架:一旦确定了风险和责任,就需要制定框架和标准,以帮助企业展示其为降低风险和最大限度减少损害所做的努力。

这将涉及制定程序指导、合规框架以及通过政府、企业、用户和学术界之间的多方利益相关者共识来制定报告标准和基准。

然而,标准和基准需要根据利益相关者的反馈和技术能力的发展进行反复修订。

确定网络化升级的模式和过程:大公司的跨国实力以及人工智能生产和开发资源分配的全球不平等凸显了网络化升级的重要性。

向利益相关者发出实施升级的治理能力信号,会促使各方采取更多合作行为来解决能力不足问题。

根据风险分类和严重程度,它可以从自我监管开始,如果自我监管失败,则与行业和专业机构等非国家监管机构建立网络,然后与与该问题相关的既定监管机构和政府机构建立网络,最后关闭或终止。

这需要发展机构能力,既需要传统的监管专业知识,也需要人工智能的技术专业知识。

迈向响应式协调

随着各国和各机构就必须管理人工智能开发和使用的关键原则达成共识,经济合作与发展组织 (OECD) 和欧盟的原则在许多国家的立场文件中得到了共鸣。

然而,由于人工智能的发展在各国并不统一,全球北方和全球南方之间存在人工智能监管分歧。

因此,人们过度依赖发达国家机构的监管信号,而这些信号可能并不适合所有社会。

这凸显了制定多边举措和战略的必要性,这些举措和战略将国家人工智能能力的主权要求与全球标准、原则和框架保持一致。

首先,发达国家的重点要么是人工智能创新(如美国和中国),要么是监管(如欧盟)。

与此同时,在巴西、阿根廷和印度等全球南方国家,尽管预算有限,但人工智能战略仍在努力建立国家能力,以推动多部门创新。

例如,印度的国家人工智能战略旨在建立负责任的人工智能生态系统,通过安全性和可靠性、非歧视性、隐私性和透明度来促进创新并推动负责任的发展。

然而,鉴于全球层面的高级道德原则与区域和国家层面对发展国家能力的关注之间存在脱节,以主权目标和国际标准形式制定的协调一致的响应性监管成为可持续人工智能治理的关键。

总而言之,“移动视野”监管是一种分析性和敏捷性的方法,以响应性和基于风险的人工智能监管为出发点,同时认识到管理系统性条件和新兴风险融合的必要性。

然而,要取得成功,它需要考虑以下因素:

后果监管:

在非数字世界中,对车辆事故等风险的监管涉及物理和监管措施,包括安装减速带、实施速度限制以及在一天中的某些时间限制重型货车。

在人工智能开发和部署中,系统性条件和新兴风险的管理使人类控制后果的启发式倾向受到质疑。

这是因为人工智能监管既需要充当创新的催化剂,也需要充当风险的威慑。

它加强了责任和义务的作用,以开发、创新和管理人工智能治理中多维风险的融合。

它提出了一种监管模式,其中负责任创新的规则制定以原则性方法为指导,而不是规范性理想成为规则制定的放弃。

这变得尤为重要,因为发展中国家在努力应对人工智能发展资源方面的全球不平等,同时试图保护公民免受多个部门应用激增带来的危害风险。

它强调了建立安全评估程序框架和标准的必要性。

疫情范式:

疫情期间,时间紧迫、可挽救生命的新冠疫苗经历了三个阶段的测试过程。

其中包括在受控环境中使用沙盒测试创新,然后进行大规模人口测试,然后才转向商业应用。

这样做是为了在危及生命的情况下防止意外和不利后果。

三层“从创新到市场”技术吸收框架为安全和质量控制提供了蓝图,并有助于建立程序护栏或减速带,以防止以牺牲安全和保障为代价实现利润最大化的创新。

例如,这可能包括强调在本地和情境应用中导入基础人工智能模型的后果,以及其上的算法层如何决定其对当地人口的影响性质。

算法问责制:

程序护栏只有在辅以适当的评估框架时才能发挥作用。

这需要建立标准、基准和审计机制,以建立问责制和透明度系统,这对于指定系统在操作上是安全的必不可少。

这些需要记录和可追溯性,例如在财务审计的情况下,需要每年或定期评估以发现、管理和减轻新出现的人工智能危害。

虽然确实存在许多技术和评估算法审计方法,但这些方法迫切需要标准化以建立合适的合规实践。 

缺乏通用标准和框架仍然是全球人工智能治理不一致的一个关键挑战。

这凸显了建立多边合作的重要性,一方面,要达成国际认可的协调标准。

与此同时,各国政府必须评估和制定监管机制,以建立机构能力和框架,以驾驭和管理其管辖范围内目前正在进行的人工智能驱动的变革。

“移动视野”方法为寻求利用人工智能潜力产生积极影响同时减轻人工智能系统动态和新兴风险造成的潜在危害的国家提供了一个模板。

原文始发于微信公众号(网络研究观):移动视野:人工智能的响应式和基于风险的监管框架

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年7月2日22:56:45
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   移动视野:人工智能的响应式和基于风险的监管框架https://cn-sec.com/archives/2908534.html

发表评论

匿名网友 填写信息