随着人工智能(AI)技术的快速发展,各国陆续出台法律法规以规范AI应用。在中国,政府已建立起较为完整的人工智能法律法规体系,包括基础性的法律法规、特定行业的规定,以及针对新兴AI技术的专项管理办法。本文将按照“基础法律”“行业规定”“专项管理”三个层次梳理中国人工智能相关法规,并针对生成式AI、医疗AI、自动驾驶等不同类型的AI应用提出合规建议和行业影响分析。
基础法律框架
人工智能应用首先受到一系列基础法律的规范,这些法律并非专门针对AI,但对AI研发和使用影响深远,包括网络安全、数据安全、个人信息保护、知识产权和民事权利保护等方面 。主要基础法律如下:
• 《中华人民共和国网络安全法》(2017年生效):规定网络产品和服务应当符合国家强制性要求,要求网络运营者履行安全保护义务,包括数据分类、备份加密等措施 。该法还建立了关键信息基础设施安全保护制度,涉及AI应用于关键行业时的安全合规要求。对于提供网络平台的AI应用,需要根据网络安全法进行安全评估和监管审批(如涉及影响国家安全或社会公众利益的功能)。
• 《中华人民共和国数据安全法》(2021年生效):确立数据分级分类保护制度,要求处理重要数据的企业开展定期风险评估并向主管部门报告 。AI模型的训练数据如果包含重要数据或影响国家安全的数据,应当符合数据安全法的管理要求,包括在华存储、出口管制和安全评估等。该法强调数据处理活动应依法、正当,并建立了“核心数据”“重要数据”等分类,对不同行业AI的数据合规提出了不同安全级别要求。
• 《中华人民共和国个人信息保护法》(PIPL,2021年生效):是中国首部个人信息保护的专门法律,对涉及个人信息的AI应用提出严格合规要求 。PIPL要求在处理个人信息时遵循合法、正当、必要原则,并取得个人同意或符合法定情形。特别地,针对人工智能常用的自动化决策(如算法推荐、用户画像等),PIPL第二十四条规定应确保决策过程透明、公平,不得在交易等方面对个人实行不合理差别待遇 。如果利用个人信息进行个性化推荐营销,必须提供不针对个人特征的选项或方便的拒绝方式 。对可能对个人权益有重大影响的自动决策,个人有权要求解释并有权拒绝仅由算法决定的行为 。因此,AI开发者在涉及用户个人数据和自动决策时,应严格遵守PIPL,在获取用户授权、确保算法公平透明、提供用户退出机制等方面做好合规。
• 民事权利和知识产权法律:《中华人民共和国民法典》保障公民的隐私权和肖像权等人格权,禁止AI技术对个人隐私、肖像进行不当利用 。例如,深度合成技术不得擅自生成他人肖像用于商业用途,否则可能侵犯肖像权。若AI应用导致他人名誉权、隐私权受损,相关主体将承担民事责任。知识产权法(如《著作权法》)同样适用于AI领域 。AI模型训练应避免侵犯他人数据或作品的著作权,生成内容如包含受保护的作品片段可能引发版权纠纷。开发者在训练AI时需确保数据来源合法,避免未经授权使用受版权保护的材料 。此外,如果AI生成内容可被视为作品,其版权归属和侵权判断也需依据现行著作权法律进行分析。刑法层面,如果利用AI技术实施诈骗、造谣等违法犯罪行为,相关人员亦可能触犯刑法,被追究刑事责任。
上述基础法律构成了AI合规的底线要求。AI从业机构在任何应用场景下,都需优先确保遵守网络安全、数据安全和个人信息保护等基本法定义务。同时,还应关注民事和刑事法律风险,在设计和部署AI技术时预见并避免可能的法律冲突。
行业规定
在基础法律框架下,不同行业监管机构针对本行业的AI应用特点,出台了更具体的规定和标准,以落实行业合规要求。以下按照行业领域介绍主要的AI相关规定,并提出合规要点和行业影响分析。
医疗行业人工智能规定
相关法规与政策: 医疗领域的AI应用主要指利用人工智能进行疾病诊断、辅助决策、影像识别等。国家药品监督管理局(NMPA)已明确,此类人工智能医用软件若用于实现医疗目的,属于医疗器械范畴,必须按照医疗器械法规进行注册和监管 。2021年NMPA发布《人工智能医用软件产品分类界定指导原则》,将基于医疗器械数据、使用AI技术实现医疗用途的独立软件纳入监管,并指导判定其管理类别(II类、III类医疗器械) 。医疗AI软件通常需要通过严格的临床评价和安全有效性审核后方可获得NMPA的注册批准文号。在医疗服务场景,国家卫生健康委员会也有相关制度规范AI的应用,例如医院在引入AI诊断系统时需遵循医疗质量控制和患者隐私保护要求。
合规要求: 对于开发医疗AI产品的企业,监管合规的重点在于确保产品的安全有效和数据合规:
(1) 医疗器械注册:确保AI软件在用于诊断、治疗前取得相应的医疗器械注册证。依据风险程度确定产品类别,如用于辅助诊断的影像AI通常被归为III类医疗器械,需要更严格的审批。 此外,研发过程中应开展临床试验或验证,并准备详尽的技术文档供监管审评,包括算法说明、风险分析、网络安全措施等。
(2) 数据和隐私合规:医疗AI往往处理敏感的健康数据,必须遵守个人信息保护法和相关隐私标准。采集患者数据需取得知情同意,数据传输和存储要加密,防止泄露。对涉及患者个人信息的算法训练,要采取脱敏等措施保护隐私。
(3) 持续监测与更新:医疗AI投入使用后,企业有义务持续监测产品性能和安全性,及时向监管部门报告不良事件或事故,并按照监管要求对算法进行更新审核。如果AI算法自我迭代更新,需评估其是否属于医疗器械变更,可能需要重新备案或审批。
行业影响分析: 医疗AI的监管严格程度高于很多其它领域,这是由患者安全和公共卫生的重要性决定的。合规成本较高可能在短期内放缓部分AI产品的上市速度,但长远看,这一体系有助于提高医疗AI产品质量和可信度。经过认证的医疗AI有望提高诊断准确性、缓解医生压力,并推动医疗行业向精准医疗方向发展。在法规保障下,医疗机构和患者对AI的接受度将提升,市场规范有序竞争,有利于真正有疗效、安全的AI产品脱颖而出。同时,监管机构的严格把关也促使企业投入更多资源于产品测试和验证,短期看增加了研发成本,但长期看可降低因产品风险引发法律责任的隐患,促进行业健康发展。
汽车行业人工智能规定(自动驾驶)
相关法规与政策: 自动驾驶汽车是AI在交通出行领域的重要应用。中国尚未有统一的《自动驾驶法》,但相关管理规定由多部门联合推进,包括工信部、公安部、交通运输部等发布的一系列文件。例如,工信部等发布了《关于加强智能网联汽车生产企业及产品准入管理的意见》,对搭载自动驾驶功能的汽车产品准入提出要求 。交通运输部在2023年发布了《关于开展智能网联汽车准入和运行管理试点工作的通知(征求意见稿)》等文件,鼓励在特定区域和场景开展自动驾驶车辆测试运营。此外,各地也积极探索立法先行,深圳于2022年实施了《深圳经济特区智能网联汽车管理条例》,成为中国首部允许符合条件的自动驾驶汽车合法上路的地方性法规,对测试主体资格、道路行驶区域和事故责任划分等作出了细致规定 。总体而言,目前自动驾驶监管呈现“地方试点+部门指导”的格局,为技术创新留有空间。
合规要求: 自动驾驶企业需重点关注以下合规要点:
(1) 测试许可和运营审批:在公开道路进行自动驾驶汽车测试,必须取得政府主管部门颁发的测试许可,满足指定驾驶人、测试车辆保险等要求。开展载人载物运营需额外的许可审批,遵守试点城市的管理细则。
(2) 安全员配置:根据交通运输部指南,当前阶段自动驾驶车辆须配备安全员或备用驾驶人。 货运车辆和有条件自动驾驶出租车应配备驾驶员;经主管部门批准的完全自动驾驶出租车可以在限定区域内无人驾驶,但需有一名远程安全监控员实时监控,每名安全员最多可同时监控3辆车 。安全员需经过专门培训,随时能人工介入车辆驾驶。
(3) 运行范围限制:自动驾驶车辆应当在经过安全评估的指定道路和区域内行驶,以确保行驶环境可控。 监管文件强调,在乘用车领域应谨慎使用自动驾驶技术,无人公交车应限定在封闭或简单路况的路线运行,无人出租车也应选择交通状况良好、风险可控的区域 。运输危化品的车辆目前禁止无人驾驶。
(4) 车辆技术标准:自动驾驶汽车需符合现行机动车安全标准和网络安全要求,搭载的感知、决策系统应经过充分测试验证,并按要求接入道路运输监控平台。车辆还需有明显标识提示周边交通其为自动驾驶状态 。
(5) 事故责任与保险:企业需为自动驾驶测试车辆购买足额的交通事故责任保险或提供赔偿保障基金。深圳等地法规已明确,当自动驾驶系统处于接管车辆状态时,发生事故由车辆使用人(企业)承担责任;在有人类驾驶员接管时,则按现行交通法确定责任。这要求企业在技术上记录保存行驶数据以厘清责任,并在法律上完善责任保险机制。
行业影响分析: 自动驾驶法律法规的逐步明确,为产业发展提供了必要的安全框架和社会信任。短期看,严格的安全要求(如必须配备安全员、限定测试区域)会增加运营成本,限制无人驾驶的规模化部署。但这些要求在技术成熟前保障了公众安全,避免因重大事故引发对整个行业的信任危机。随着法规试点推进,企业有机会在政策允许的环境中积累数据和经验,逐步改进算法和硬件。各地差异化的试点也促使企业根据区域法规调整策略,推动技术标准逐步统一。在监管的推动下,自动驾驶产业链上的汽车制造商、AI公司、运输服务商加强合作,注重合规和安全性能,这将提升中国在智能网联汽车领域的国际竞争力。从长期看,监管的完善有望提高大众接受度,一旦法律允许取消安全员、扩大运营区域,企业即可基于先前合规运营经验迅速拓展业务版图。因此,当前阶段法规对行业的影响是促进优胜劣汰:合规能力强、安全水平高的企业将脱颖而出,为未来自动驾驶的全面商业化奠定基础。
其他典型行业和场景
除了上述领域,人工智能在金融、教育等行业的应用也引起监管关注,并催生相应规定:
• 金融行业:金融监管机构强调对AI算法的审慎使用,以防范金融风险和保护消费者权益。中国人民银行等发布了《关于规范金融机构资产管理业务的指导意见》等文件要求金融机构确保算法决策透明、防止歧视性结果 。例如,在消费信贷审批中应用AI时,不得仅依赖算法做出拒贷决定而不进行人工复核,以保证公平。此外,还有金融行业标准如《金融应用人工智能算法评估规范》《基于人工智能算法的金融应用信息披露指引》等 ,推动金融机构评估算法模型的可靠性和信息披露,提高AI模型在风控和合规上的透明度。行业影响:金融AI在风控、投顾等方面提升效率的同时,合规要求促使机构加强算法审计和模型监管,短期增加合规成本,但有助于降低因算法黑箱引发的系统性风险,维护金融市场稳定和用户信任。
• 教育行业:AI用于教育场景(如自适应学习系统、考试评估)的监管目前主要通过政策性文件倡导为主。教育部发布的《关于加强新时代网络教育工作的指导意见》等文件中提出,要规范智能教育产品的数据采集和学生隐私保护,防止利用AI对学生进行过度监控或侵犯隐私。地方教育部门也在探索制定校园内人脸识别等AI应用的规范指引,强调最小必要原则使用学生生物数据。行业影响:随着政策引导和家长舆论关注,教育AI企业需要在产品设计时加强隐私合规,可能减少对敏感数据的依赖,转而优化算法逻辑来提升教学效果。这将推动教育AI更加以人为本,平衡技术便利与学生权益保护。
专项管理与治理政策
面对生成式AI、深度伪造等新兴技术带来的全新挑战,中国监管部门制定了一系列专项管理办法和治理政策,作为对基础法律和行业规定的重要补充。这些专项法规直接针对特定类型的AI应用,明确了提供相关服务的主体义务和监管要求。与此同时,政府也发布人工智能伦理和安全治理框架,指导行业健康发展。以下是主要的专项管理措施及其合规要点:
• 《互联网信息服务算法推荐管理规定》(国家网信办等部门发布,2022年3月施行):这是中国首部针对算法推荐服务的专门规定,适用于提供基于算法对信息进行个性化推送的服务提供者。规定要求算法推荐服务提供者履行备案手续,主要算法需向网信部门备案基本信息 ;同时必须采取措施防范和纠正算法歧视、“大数据杀熟”(根据用户偏好抬高价格)、网络沉迷等问题 。该规定还赋予用户对算法推荐的选择权,要求提供明显的“关闭个性化推荐”选项,保障未成年人得到特殊保护,以及要求定期审核算法模型的伦理和安全风险。合规建议:从事搜索推荐、内容分发的互联网AI企业需要按要求完成算法备案,在产品界面提供个性化推荐的关闭或调整功能,建立算法安全评估机制,确保算法结果公平公正。行业影响:算法推荐规定的实施使互联网平台的内容分发更加透明可控,倒逼企业改进算法以避免歧视和滥用。用户获得一定主动权后,信任度提升,有利于行业的可持续发展。
• 《互联网信息服务深度合成管理规定》(国家网信办等发布,2023年1月施行):该规定主要规范深度合成技术(Deep Synthesis,即“深伪”技术,包括AI生成或修改人脸、人声、影像等)。规定明确深度合成服务提供者、使用者和技术支持者三方主体的责任义务 。要求深度合成服务提供者对生成内容进行显著标识,避免公众混淆虚拟与真实 ;提供者需建立用户实名制和数据安全管理制度,不得用于违法用途。特别地,利用深度合成技术制作发布新闻信息,应报网信部门专项安全评估。合规建议:从事语音仿真、人像合成等AI业务的企业,需在技术上添加水印或标识以表明内容为AI生成 ;在推广应用时避免涉及政治新闻等敏感领域,必要时履行报备和安全评估程序。行业影响:深度合成规定通过强制标识等手段,提高了AI生成内容的透明度,减少因假音频、假视频造成的社会风险。这在一定程度上增加了技术应用成本,但也保护了可信内容生产的环境,促使行业朝着可信AI、可追溯AI方向发展。
• 《生成式人工智能服务管理暂行办法》(国家网信办等七部门发布,2023年8月施行):这是中国首个专门针对生成式AI(Generative AI)服务的行政法规 。办法适用于向中国公众提供生成文本、图片、音频、视频内容的生成式AI服务 。主要要求包括:
(1) 训练数据合规:提供者在进行预训练、优化训练时应使用合法来源的数据和基础模型,不得侵犯他人知识产权,涉及个人信息的须依法取得同意或符合其他合法依据 ;并采取措施保证训练数据的客观、多样和准确,避免数据偏见。
(2) 内容安全:生成式AI服务提供者被视为网络内容生产者,需对生成内容承担信息安全主体责任 。不得生成违法违禁内容,并应建立健全内容审核和过滤机制,一旦发现违法内容要立即停止生成、采取纠正措施并报告主管机关 。对于用户不当使用AI的行为,提供者有义务警示乃至暂停服务 。
(3) 用户管理与个人信息保护:提供者需与使用者签订服务协议,明确双方权责 。对于收集的用户输入和使用记录,不得超范围留存能够识别用户身份的信息,不得非法向他人提供,并应保障用户依法行使更正、删除其个人信息的权利 。
(4) 防范偏见和歧视:办法要求提供者指导用户科学理性认识生成式AI内容,并防止未成年人沉迷 。这实际上要求在产品中增加风险提示,避免过度依赖AI输出。
(5) 安全评估与备案:按照办法要求,新提供生成式AI服务应当履行算法安全评估和备案手续(在提供服务至少10个工作日前向网信部门申报安全评估,服务上线后10个工作日内办理算法备案) 。只有满足安全要求的模型和服务方可向公众开放。
合规建议: Generative AI服务商应建立从研发到上线的全流程合规管控体系。一方面,在训练阶段确保数据合法:建立数据审核机制,过滤版权受限或敏感个人信息的数据集,保存数据来源证明以备查 。另一方面,在部署阶段加强内容审核:可以引入人工审核与机器过滤相结合的策略,对生成内容实时监控,特别关注政治有害、色情、虚假信息等敏感内容。对于提供的开放API接口服务,也需督促下游应用遵守内容合规要求。其次,完善用户管理和隐私政策:为用户提供明确的使用说明和警示,要求用户实名注册并遵守使用规范;制定隐私政策说明如何收集和处理用户输入数据,严格限制留存和用途,保障用户权利。最后,按照要求向监管部门备案算法和产品信息,配合开展安全评估测试,及时更新整改可能的安全隐患。提前关注并遵循监管部门发布的配套标准,例如《生成式人工智能服务安全基本要求》(网安标委发布的指导性国家标准草案)等 ,以衡量自身算法的安全水准。
行业影响分析: 《生成式AI服务管理办法》的出台对行业影响深远。一方面,加大了生成式AI创业公司的合规门槛和成本。企业需要投入人力物力建立合规审查团队、内容安全系统和数据治理流程,一些小型团队可能因此放缓产品上线速度。模型训练的数据限制和备案审批也可能在短期内减缓新品的迭代发布。另一方面,该规章为生成式AI行业设定了明确的运营红线和责任,有利于长远健康发展。在法规指引下,用户对于AI生成内容的可信度将提高,侵权和有害内容风险降低,有望营造一个更安全可靠的应用环境。这将提升主流商业机构采用生成式AI的意愿,推动技术更快融入各产业。同时,办法鼓励基础技术自主创新和国际合作 、公共数据有序开放等措施,有助于行业获取合规的数据和算力支持,降低对违规数据的依赖。总体来说,生成式AI的新规在初期可能让行业增添合规“减速带”,但长期看将成为行业赛道的“护栏”,引导企业走上合规竞争、优质优价的发展轨道。
• 科技伦理与安全治理:除具体法规外,中国高度重视人工智能伦理和安全的宏观治理。2021年发布的《新一代人工智能伦理规范》提出了“以人为本、优化公平、责任可控”等6项AI基本伦理要求 。2023年,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,同年由科技部发布了《科研伦理审查办法(试行)》,其中明确从事AI等前沿科技研发的企业应当建立科技伦理审查制度,并在必要时通过主管部门组织的伦理审查,以确保AI研发遵循伦理准则,不损害公众利益 。在安全标准方面,2024年9月国家网络安全标准化技术委员会发布了《人工智能安全治理框架(1.0版)》,提出了包容审慎、风险导向、开放合作等治理原则,分析了模型算法安全、数据安全、伦理安全等风险,并给出了安全开发和应用的指导 。同时还发布了配套的实践指南,如《生成式人工智能内容标识指南》等国家标准 。这些软法和标准虽非强制性,但为企业合规提供了风向标。合规建议:AI企业应密切关注并落实国家发布的伦理规范和标准要求,在内部建立AI伦理审查委员会或合规岗,对产品可能引发的伦理风险(如偏见歧视、隐私影响)进行评估,提前采取优化措施。采用新模型前,可参考《人工智能安全治理框架》进行风险辨识和技术测试,确保模型行为可控、结果可解释。同时,积极参与行业标准的制定和讨论,与监管部门保持沟通,做到“软法”未强制,企业先自律。
• 最新政策和立法动向:截至2024年,中国AI监管正朝着体系化方向加速推进。2024年6月,工信部等四部门联合发布了《国家人工智能产业综合标准化体系建设指南(2024版)》,规划了AI产业标准化路线图,涵盖基础共性、安全伦理、行业应用等标准研制方向,以标准促进行业规范发展 。2023年国家《人工智能法》已被列入立法计划并启动起草审议 ,未来可能出台人工智能领域的基础性立法,为AI发展和监管提供更高位阶的法律依据。这部《人工智能法》预计将在发展与安全并重、鼓励创新和依法治理相结合的原则下,确立AI产品和服务提供者的综合性义务体系,填补目前法律的空白领域。企业应当持续关注立法进展,提前评估未来的合规影响,例如AI产品的准入许可制度、AI决策责任体系等潜在要求。此外,在国际层面,中国发布了《全球人工智能治理倡议》(2023年),并积极参与联合国、G7等AI治理讨论,为全球AI规则贡献中国方案。这意味着中国企业在走出去时也需关注国外AI监管动向,如欧盟《人工智能法案》等,以全面布局合规战略。
结论:
综上所述,中国围绕人工智能的法律法规体系正日趋完善,从通用的数据安全与个人信息保护法,到行业部门规章,再到专项治理办法,共同构筑了AI合规的多层次框架。在这个框架下,AI相关企业需要根据自身应用类型,既遵守基础法律红线,又深入研读行业规范和专项要求,制定相应的合规措施。例如,生成式AI企业应重点做好数据源合规和内容审核,医疗AI企业则要严把产品注册和临床安全关,而自动驾驶企业需将安全运营和事故责任作为工作重心。在实践中,合规不仅是对法律的被动响应,更是提升AI产品可信度和竞争力的契机。一个遵循法规和伦理要求的AI产品,更容易获得用户和市场的认可。展望未来,随着《人工智能法》等顶层立法的推出,AI行业的监管环境将更加明确透明。企业唯有坚持合规运营,才能在快速发展的人工智能浪潮中行稳致远,推动技术创新真正造福社会。
投稿来源:知识星球-风宁攻防纪元
(星球号:87121563)
END
✦
原文始发于微信公众号(安全419):人工智能相关法律法规合规指南
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论