来源:人民法院报,作者:北京市东城区人民法院 石魏,北京师范大学 陈渝欣
随着科技的飞速发展,人工智能证据正逐步融入刑事司法领域。我国公安、检察及审判机关已积极投身智能化转型实践,智慧公安、智慧检务、智能审判等模式标志着科技司法改革的显著成就。人工智能驱动下的刑事证据变革已成为前瞻性热点。“人脸识别证据”“智能轨迹分析证据”“自动驾驶睡意检测证据”“算法证据”及“区块链证据”等新兴证据在刑事证明中日益活跃。然而,这些新型证据能否被正式纳入刑事诉讼证据体系并获采纳,是当前司法实践中面临的关键挑战。一、人工智能的不可解释性困境在现实的刑事诉讼活动中,人工智能证据的应用面临着一系列复杂的障碍,这些障碍主要体现为概念界定模糊、未被纳入法定证据范畴、潜在的人权侵害风险以及可靠性争议等。其中,可靠性问题尤为突出。然而,针对人工智能证据可靠性的探讨,尽管看似直击要害,却也在一定程度上模糊了问题的核心焦点,这主要基于以下两点考量:首先,人工智能证据的可靠性并不必然低于传统证据形式。以人脸识别技术为例,其准确率已超越人类水平,在犯罪嫌疑人的身份辨识上展现出更优的性能。其次,理论上任何证据都存在被推翻或修正的可能性,曾一度被奉为圭臬的鉴定意见也可能出错。能被证伪是证据科学性的体现。可见,可靠性缺失并非制约人工智能证据发展的核心障碍。其根本挑战在于算法黑箱现象的存在导致我们难以对人工智能证据进行有效审查与验证。在深度学习驱动的人脸识别系统中,人脸特征提取与表达依赖模型自主学习大量样本数据,减少了对人工模型和规则的依赖,展现出高度自主性,并能自我调整以适应多样数据。深度学习人脸识别结果更难以预测和理解,不仅法官和被告人难以洞悉其识别流程,就连系统操作员和开发者也难以精确解析和阐述。由于知识上的不确定性,导致人工智能证据的可信度存疑。因此,问题的关键在于如何突破人工智能证据的不可解释性困境并建立相对应的审查制度。二、算法黑箱对刑事证明的负面影响算法黑箱是指人工智能算法不公开、不透明。该特性既可能来源于商业目的下的算法保密行为,亦可能源于算法本身无法被彻底解释的属性。决策过程不清晰直接导致人工智能面临论证缺失、质证难题和信任危机这三大环环相扣、呈阶梯式递进的障碍。首先,对人工智能证据的采纳往往缺乏充分论证,对刑事诉讼中的证明标准构成挑战。算法的不透明性(即算法黑箱)导致机器虽能得出结论,却无法说明推理路径,从而使裁判者难以详尽阐述证据认定过程及理由,实质上难以达到“证据确实、充分”的证明标准。人脸识别系统一般以似然比的形式展示最终的识别结果,而其对于图像数据的分析、学习、决策等过程就被无法理解的“黑箱”笼罩。此缺陷使得人工智能证据显得突兀,有被异化为公诉机关定罪工具的风险。其次,辩方在人工智能证据质证方面遭受机会与能力双重缺失,话语权被削弱。质证权是国家保障公民的基本义务,在刑事诉讼中体现为被告人对控方证据进行反驳与质疑的权利,其关乎发现真相与人权保障的双重价值。质证的前提是辩方清晰了解控诉内容、证据及其逻辑链条。在人工智能证据的情境下,辩护方难以获取证据全貌,面临逻辑链条断裂,陷入“无证可质”的困境,严重阻碍其庭审话语权实现,违背了“平等武装”原则。最后,人工智能证据在论证逻辑上的断裂及辩护方质证权受限,直接引发了裁判公信力的危机。当人工智能结论作为定罪量刑证据时,“算法黑箱”导致实体论证不足与程序正当性受损并存。一方面,论证缺失损害实体公正;另一方面,质证权受限削弱程序正当性基础。面对实体与程序均有瑕疵且关乎被告人基本权利的裁判,公众难免产生疑虑与不信任。三、算法黑箱在刑事证明中的化解路径人工智能证据的科学性与其不透明性之间存在着显著张力。问题的核心在于构建目标明确的审查框架,确保相关各方能了解、质疑乃至推翻机器生成的结论,而非追求人工智能证据的绝对准确性,此属技术范畴,非司法职责所在。首先,提高证据生成机制的透明度,以保证审查效能。尽管人工智能证据的证明路径必然会存在一段“盲区”,但对于可能被理解的部分,应积极提高其透明度,并据此建立相应审查制度,具体措施包括:一是促进原始数据资料的透明化,如人脸识别系统自主学习所基于的图像资料,这些数据需经受真实性与全面性的双重检验;二是加强对算法的审查,尽管目前对算法审查的研究尚不充分,但可以借鉴科学证据审查的方法,如美国的“弗赖伊标准”,考虑将是否获得其所属领域的普遍承认作为衡量其可靠性的重要标准;三是对操作人工智能系统的人员进行资格审查。其次,通过引入专家辅助人强化控辩双方的平等性。针对“证据偏在”问题,最直接的策略是增强弱势方的力量。辩护方对控方提出的人工智能证据理解受限,缺乏与之对话的专业能力。因此,应允许辩护方聘请专家辅助人,并将其意见作为质疑人工智能证据的有效依据以实现控辩平衡。鉴于人工智能证据与鉴定意见的相似性,可参照我国鉴定意见制度中的专家辅助人设置。具体实践中,应明确专家辅助人的资格、权利与义务,确立其诉讼地位及意见属性,确保其充分发挥作用,保障被追诉人权益。最后,通过历史数据开示对算法进行实证检验。历史数据披露与专家辅助人的介入,旨在从制度层面确保对人工智能证据的质疑空间,增强裁判结果的逻辑正当性。鉴于人工智能的不可解释性,机器结论证明的路径中将永远存在一部分处于灰色地带。秉持着“补强证据规则”的精神,对证明力存在瑕疵的证据应当进行补强。鉴于人工智能证据的底层逻辑来源于机器学习的科学性,可通过公布算法的历史准确率进行实证检验,以增强裁判结果的公信力。
原文始发于微信公众号(电子物证):【刑事诉讼中人工智能证据的不可解释性困境及其化解路径】
免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
点赞
https://cn-sec.com/archives/4097964.html
复制链接
复制链接
-
左青龙
- 微信扫一扫
-
-
右白虎
- 微信扫一扫
-
评论