美国企业研究所(American Enterprise Institute,AEI)研究员Bronwyn Howell发布了题为《在充满不确定性的世界中监管人工智能》(Regulating Artificial Intelligence in a World of Uncertainty)的报告,本文重点介绍报告中有关欧美在人工智能治理方面的主要内容。
与传统基于规则的人工智能不同,生成式人工智能通过持续自我学习和适应,能够产生近乎无限的输出多样性,高度的不可预测性使得传统的风险管理框架难以有效预测和控制AI的行为。此外,生成式人工智能的广泛应用,如自然语言处理、图像生成和自动驾驶等领域,进一步加剧了其潜在风险的不确定性。
在人工智能治理领域,欧盟采取了严格的监管措施,其核心是《欧盟人工智能法案》,寄希望通过风险管理框架确保人工智能技术的安全性和透明度。欧盟的监管策略基于“预防原则”,强调在人工智能系统的开发、部署和应用过程中,必须识别并管理潜在风险。
严格的合规要求:高风险人工智能系统的开发者必须执行全面的风险管理流程,包括识别、评估和缓解潜在风险。欧盟还规定,高风险系统在推向市场前,必须获得成员国监管机构的认证,并在“监管沙箱”中进行测试,以确保新技术的安全性。值得注意的是,欧盟针对开源人工智能模型实施了特定的豁免政策,前提是这些模型不得用于商业目的。
与欧盟采取的严格监管模式不同,美国在人工智能治理领域更倾向于依托行业的自愿性风险管理机制。
2023年,美国国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》,为人工智能开发者提供了一套灵活的风险管理工具,其内容涵盖系统安全性、算法可解释性、决策公平性以及隐私保护等关键维度。
与欧盟具有法律约束力的《人工智能法案》相比,NIST的框架本质上属于非强制性的指导性文件,主要作为人工智能系统设计、开发、部署和使用相关机构的自愿参考标准。
自愿性与灵活性:NIST的框架是自愿性的、非强制性的,旨在为AI开发者提供灵活的风险管理工具。
广泛的风险管理活动:NIST的框架要求开发者进行广泛的风险管理活动,包括风险评估、监测和审查。与欧盟不同,美国的框架并未对AI系统进行风险分类,而是鼓励所有AI开发者,无论其系统风险高低,都采取风险管理措施。
《人工智能风险管理框架》的核心活动
报告提到,欧盟的严格监管框架有助于保障人工智能技术的安全性,但可能对创新造成抑制,并增加合规成本,美国的灵活框架则可能进一步促进创新,但在风险管理上可能存在不足。
因此,面对生成式人工智能带来的不确定性,迫切需要创新的监管思路与策略。
基于保险的风险分散机制:报告提出了一种基于保险的创新解决方案,建议通过建立保险机制来分散由不可预测的人工智能结果所引发的损失风险。保险基金可由开发者、用户及政府共同出资,确保在发生不可预见的损害事件时,能够为受害者提供及时的经济补偿。
独立评估与透明度提升:报告建议加强对人工智能模型的独立评估,特别是由学术界和研究机构进行的第三方评估。这种透明度不仅有助于提升人工智能系统的可信度,也为未来的风险管理提供了更多的数据支持和验证依据。
全球合作与统一标准:鉴于人工智能技术的全球性特征,单一国家或地区的监管框架难以有效应对所有挑战。国际社会应加强合作,推动全球统一的人工智能治理标准,确保不同地区之间的政策兼容性和协调性。
面对生成式人工智能带来的不确定性,传统的风险管理策略已显得力不从心。通过分析欧美在人工智能治理方面的经验,结合创新的监管思路与策略,全球社会可以在促进技术创新的同时,更有效地管理人工智能引发的未知风险,推动人工智能的健康发展。
赛博研究院简介
上海赛博网络安全产业创新研究院(简称赛博研究院),是上海市级民办非企业机构,成立至今,赛博研究院秉持战略、管理和技术的综合服务模式、致力于成为面向数字经济时代的战略科技智库、服务数据要素市场的专业咨询机构和汇聚数智安全技术的协同创新平台。
赛博研究院立足上海服务全国,是包括上海市委网信办、上海市通管局、上海市经信委、上海市数据局等单位的专业支撑机构,同时承担上海人工智能产业安全专家委员会秘书长单位、上海“浦江护航”数据安全工作委员会秘书长单位、上海数据安全协同创新实验室发起单位等重要功能,并组织“浦江护航”数据安全上海论坛、世界人工智能大会安全高端对话等一系列重要专业会议。
欢迎联络咨询:
电话:021-61432693。
原文始发于微信公众号(赛博研究院):报告解读 | 欧美人工智能治理体系的对比分析
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论