生成式人工智能风险规制与保护路径

admin 2024年9月24日12:49:30评论25 views字数 4634阅读15分26秒阅读模式

与传统的依赖于程序计算、概率计算、数据加工、人类创造力的人工智能不同,Open AI公司在2022年末推出的ChatGPT拥有机器学习、深度学习、人类反馈学习等自主学习能力。以ChatGPT为代表的生成式人工智能(Generative Artificial Intelligence),能够模拟和生成类似人类创造的内容,如图像、音频、文本等。生成式人工智能模型的核心是理解数据和任务的能力。通过不断学习大规模数据集,ChatGPT的内容生成能力也会持续提升。目前,以ChatGPT为代表的大语言模型在回答问题、提供建议、总结和优化文本等文本生成任务中已经达到或超过了人类水平。这进一步表明,生成式人工智能在带来潜力和机会的同时,也存在许多诸如数据偏见和不公平、缺乏透明性、法律和伦理、就业和社会稳定等通常风险,以及涉及行政法领域的潜在风险。

生成式人工智能风险规制与保护路径

行政法视域下生成式人工智能具体应用

科学技术的快速发展使得生成式人工智能在文学、艺术、科学等多个领域广泛应用,其无节制地应用也给社会带来了一系列的风险。因篇幅有限,本文只对行政法视域下生成式人工智能应用领域进行探析。生成式人工智能在行政法领域应用境况如下:

1.行政决策辅助化

生成式人工智能通过大数据分析和模拟预测,能够根据预设的规则、训练数据和算法自主进行创作或生成,它可以使用高级算法进行分析和建模。这使得它能够从复杂的数据中提取有价值的信息和趋势,为行政决策提供科学和准确的依据。

2.行政执法

生成式人工智能可以基于大数据分析和模型上的无休止训练,使得执法机构能够更有效地收集、整理和分析证据,通过识别模式和趋势,预测潜在的犯罪活动或违法行为,并帮助执法机构优化资源配置和制定预防措施,提高执法效率和准确性。

3.行政审查与监督

人工智能基于事先设定的规则和算法进行审查与监督,可以确保程序的一致性和公平性。相对于人工操作,其判断更为准确和公正,减少了主观性的影响,使得人工智能在执行行政审查与监督任务时,不受情绪、主观偏见和外部压力的影响,能够客观地进行数据分析和决策。它可以在大量数据中找到隐藏的线索和关联,提供准确且无偏的判断。

生成式人工智能风险规制与保护路径

生成式人工智能的风险与责任归属

行政法可以用来防止生成式人工智能实施的直接或间接侵权,规制和管理生成式人工智能在运营和使用过程中带来的风险,确保生成式人工智能的高质量发展与社会和谐稳定,从而保护公众利益和维护社会秩序。随着当今科技的快速发展,生成式人工智能的运行及使用往往涉及到行政机关的监管和管理,生成式人工智能在行政法中地位的复杂性决定了行政“准立法”行为的必要性。要明晰人工智能在行政法中的责任,首先要明确一个问题,生成式人工智能是否能成为法律意义上的行政相对人。根据传统的法律理论,行政相对人一般指个人和组织,或者至少是具备真正的意识和法律主体性,而生成式人工智能只是由算法和数据驱动的工具,并不具备主体性。可是,生成式人工智能无法成为行政相对人,又该如何对生成式人工智能的侵权和损害行为进行归责呢?

1.通常风险 

一是隐私和数据风险。在强人工智能背景下,人工智能的自主决策能力增强,且具备了相应的自主意识,这使得人工智能可能滥用或者泄露数据,对他人隐私产生严重影响。

二是就业和社会稳定风险。人工智能生成物的广泛应用说明了当前人类对人工智能生成物的依赖性过高。当前立法未能明确人工智能生成物的法律性质使得人工智能生成物存在潜在的不可控风险,可能对社会的稳定造成极大的影响。

三是法律界限模糊。如果人工智能生成物被非法使用,比如,人工智能生成物对数据隐私的侵犯,该行为既触犯了刑法规定的非法侵入、窃取、篡改他人数据的法律规定,又侵犯了行政法对数据隐私的标准和要求,那究竟该采取刑事措施还是行政措施?还是两种措施并用?

2.潜在风险(生成式人工智能的行政法风险)

一是偏见和歧视风险。人工智能生成物本质并未脱离“中文屋”实验的逻辑。在此基础上的人工智能生成物由于本身的算法模式,会使得其带有偏见和歧视。

二是“黑箱”风险。人工智能生成物数据获取和工作过程是缺乏透明度的。基于此不透明性,当人工智能生成物存在错误时,也难以采取合理有效的手段去修正。

三是问责归责机制风险。当人工智能生成物由于其算法和模型的准确性、自主学习能力的强化、复杂情景下的数据机制紊乱发生侵权或者损害等风险时,该对谁问责?对谁归责?

四是技术依赖和消极创新风险。行政机关对人工智能生成物的过度依赖会造成相关工作人员懒政,对于人工智能创新的积极性也会随之降低。

3.明晰责任(是否是行政相对人)

探索是否需要赋予人工智能一定程度的法律地位。这涉及到对人工智能的责任、权利和义务进行思考和界定。当人工智能系统产生错误、造成损害或产生不公平结果时,责任归属是重要问题。“摩尔定律”下的人工智能技术的不断发展和应用,以及人工智能本身的复杂性、自动化、不可控等特性,使得人工智能的法律责任追溯成为一个需要讨论的热点问题。而本文要探讨的是人工智能是否能成为法律意义上的行政相对人。要明确生成式人工智能是否能够成为行政相对人,首先要明晰人工智能是否具有责任主体地位,即是否具有主体资格。但有的学者对此持不同观点,并提出了以下“主体”认定、责任归属的理论。

一是工具或应用。通常理论上的人工智能是一种辅助性的技术工具或者应用,它们本身并不具备自主的法律地位,缺乏真正的情感和人所独具的主观性。人工智能可以被视为人类所有物,目前大多数法律体系仍然将责任主体限定于人类个人或法人组织。

二是虚拟法律人格(电子人)。“电子人”是指拥有人类智能特征,具有自主性,以电子及电子化技术构建的机器设备或系统。有的学者认为,可以赋予人工智能某种法律身份或者法人地位,即引进“虚拟的法律人格说”。

三是代理人。哈贝马斯倡导的该代理制度旨在让人工智能的发明者、制作者、使用者等多方通过协商或者依据法律方式确定人工智能生成物的“代理人”,以便能确保人工智能生成物行为符合法律和伦理要求,并且在其造成损害或者侵权时可以有一个能承担责任的代理人,使得人工智能生成物可以在法律范围内受到监管。

四是“分摊责任”制。笔者更倾向于“分摊责任”。既然现有的理论和法律对人工智能是否能成为行政相对人争议较大,不如跳出固有学说观点,采取分摊责任制,即无论生成式人工智能是否能成为行政相对人,都能将其责任归属于合适的主体,即当发生侵权和损害风险时,由人工智能的投资者、使用者、所有者、未尽到管理职责的国家机关、未完善或者本身存在瑕疵的法律制度本身承担人工智能的侵权或损害责任。此时,便无需再考虑人工智能在学理上、法律上是否符合行政相对人构成要件。

生成式人工智能风险规制与保护路径

行政法对生成式人工智能风险规制现状

生成式人工智能的存在与发展并不是静态的,而是呈现出动态的快速生长状态。它具有自主学习、创新能力、真正的理解和推理能力。人工智能技术的快速发展使其渗透到更多的领域和行业,也给人们的生活和工作带来更多的便利。当然,任何事物都有其两面性,人工智能由于其发展趋势的不可预见性将会给个人和社会带来不可控的风险。为此,不同国家和地区都在加紧制定和修改相关法律法规,以适应人工智能技术的发展。

1.国外相关规定

美国国会两党共同提议设立国家AI委员会,提交《国家人工智能委员会法案》,确保通过监管减轻人工智能带来的风险和可能造成的危害。但该法案目前只是一项提议,还未真正付诸于实施。

英国政府于2023年3月发布《支持创新的人工智能监管方式》(A pro-innovation approach to AI regulation),概述了人工智能监管应考虑的五项原则,即安全性和稳健性、透明度和可解释性、公平性、问责制和管理、可竞争性和补救性,旨在寻求建立社会共识,加深公众对尖端技术的信任,使企业更好地创新发展,从而创造更多就业机会。

2.国内相关规定(行政法规、地方性法规、规章)

随着科学技术的快速发展及人工智能法案发展的不可控性,我国开始积极推进人工智能领域的相关立法工作。本文着重探析行政方面的准立法行为,对刑民方面的立法工作不作赘述。为保护个人权利和社会利益并解决与人工智能相关的风险问题,中央及地方颁布了一系列相关政策及法规文件,对人工智能进行规制。

国家新一代人工智能治理专业委员会于2021年9月25日颁布的《新一代人工智能伦理规范》旨在增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,规范人工智能在日常生活、工作和社会中的广泛应用,促进人工智能健康发展。

3.规制的过度前瞻性

目前,我国虽然颁布了诸多对人工智能风险规制的政策和文件,但是面临着规制过度前瞻性矛盾,对人工智能的规制仍然存在许多缺陷。例如,目前我国法律法规还没有明确规定具有“黑盒”特性的人工智能在决策过程中的可解释性和透明度,因而导致人工智能系统在导致损害、错误或不公平结果时,责任界定和追溯等问题无法确定。

《新一代人工智能发展规划》和《生成式人工智能服务管理暂行办法》中规定了当人工智能发生侵权和损害危险时,由其所有者、研发者、使用者等相关主体承担责任。该规定为了减少争议的纠纷和名义上弥补法律空白性而作,具有明显的针对性。该规定只是系统地、模糊地规定了人工智能责任归属,并未阐述其中理论(上文已对人工智能责任归属进行分析,因而此处不多作赘述)。该规制手段在某种意义上的前瞻性,使得人工智能的研发者、使用者、所有者会对人工智能本身产生质疑,甚至对其危险性存有过多的猜测。

生成式人工智能风险规制与保护路径

生成式人工智能风险规制路径

行政法对人工智能的规制呈现出差异化模式,因而必须跳出传统的人工智能与行政法存在管理与被管理关系的法律思维。人工智能与行政法并非仅存在管理与被管理的关系,两者也可以在一定的法律框架下协同发展,人工智能与行政法存在着某种法律意义上的联动。要实现人工智能风险规制的有效监管,仍然需要进一步完善我国的行政法规体系。

1.建立公众参与和民主监督的有效通道

基于人工智能运行和使用过程中存在的“黑箱”风险,人工智能数据获取和工作过程是缺乏透明度的。行政法可以要求人工智能系统提高透明度和可追溯性,即记录和存档系统的决策依据的同时,鼓励公众参与到人工智能生成物的运作和决策过程中,通过听证会、批评建议等方式保障公民的知情权,这有助于提高信息的透明度。

2.行政法应留有对人工智能规制的“余地”

本文所称的“余地”有两种含义。第一种是对人工智能进行规制时,应避免手段过激,即对人工智能生成物进行规制时要注意手段和限度,切不可采取“一刀切”的模式,而是应综合人工智能生成物的产生背景、法律性质等因素,给予立法空间,避免行政权的大扩张和大膨胀,即某种意义上的“行政国家”和“全能政府”的出现。

第二种“余地”则是指在科学技术快速更迭的背景下,由于人工智能发展的高度复杂性和不可控性,行政法在对其进行规制时,应该给予人工智能“准立法”上的余地,即“弹性立法”,保证法规的灵活性和适应性,以适应人工智能技术的快速发展。如行政法在对人工智能建立合理、合规、合法的法律框架时,应该根据行政法原则和目标的大方向,给予相关监管机构一定的自主权,允许监管机构根据人工智能的实际情况进行灵活地调整和变更,以便能及时应对人工智能带来的新兴风险和挑战。

来源:《网络安全和信息化》杂志

作者:青海民族大学  刘珊珊

(本文不涉密)

-END-
生成式人工智能风险规制与保护路径

原文始发于微信公众号(网络安全和信息化):生成式人工智能风险规制与保护路径

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年9月24日12:49:30
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   生成式人工智能风险规制与保护路径https://cn-sec.com/archives/3198338.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息