这些原则可帮助开发人员、工程师、决策者和风险所有者就其机器学习 (ML) 系统的设计、开发、部署和操作做出明智的决策。
原理介绍
人工智能 (AI) 和机器学习 (ML) 系统的使用有可能为社会带来诸多好处。然而,要充分发挥这些机会,必须以安全和负责任的方式开发、部署和运营这些系统。
人工智能和机器学习系统容易受到新型安全漏洞的影响,需要与标准网络安全威胁一起考虑。当开发速度很快时(例如机器学习和人工智能),安全性往往是次要考虑因素。从一开始就设计安全性是我们实现网络弹性的最佳途径,这意味着安全性必须成为一项核心要求,不仅在开发阶段,而且在机器学习系统的整个生命周期中都是如此。
如果不正确理解和减轻这些漏洞,系统设计人员就无法向利益相关者以及最终的用户保证机器学习系统是安全可靠的。
关于这些原则
这些原则面向开发、部署或操作带有机器学习 (ML) 组件的系统的任何人。它们不是用于对系统或工作流程进行评级的全面保证框架,也不提供检查表。相反,它们可帮助开发人员、工程师、决策者和风险所有者就其 ML 系统的 设计、开发、部署和操作做出明智的决策。
这些原则有助于巩固 NCSC 的安全人工智能系统开发指南,该指南针对的是人工智能系统提供商,无论是从头开始创建的还是基于他人提供的工具和服务构建的。
这些原则是在考虑通用机器学习工作流程的基础上制定的,重点关注解决机器学习漏洞的实用方法。这使得这些原则能够涵盖与数据类型、模型算法或部署环境无关的广泛系统。
笔记:
由于强化学习 (RL) 应用程序的开发方式存在根本差异,因此这些原则并未专门涵盖强化学习 (RL)。这些原则可能为进行 RL 开发提供基础,但可能需要额外的安全考虑(超出本文档的范围)。
应用原则
除了既定的网络安全、风险管理和事件响应最佳实践外,还应考虑这些原则。特别是,我们敦促提供商遵循美国网络安全和基础设施安全局 (CISA)、英国国家网络安全中心 (NCSC) 和我们所有国际合作伙伴制定的“安全设计”原则。这些原则优先考虑:
-
为客户承担安全责任
-
拥抱彻底的透明度和问责制
-
建立组织结构和领导力,使“设计安全”成为首要业务重点
请注意,并非所有原则都直接适用于所有组织。复杂程度和攻击方法将因针对 ML 系统的对手而异,因此应结合组织的用例和威胁概况来考虑这些原则。
每项原则均涉及以下内容:
- 1、该原则的目标是什么?
-
2、它为什么如此重要?
- 3、如何落实这一原则?
英国政府的《软件供应商行为准则》将确保安全是开发和分销产品和服务的基础,这也将在这方面提供帮助。
术语
在我们开始之前,先简单了解一下术语。
人工智能 (AI)是指能够执行通常需要人类智能才能完成的任务的计算机系统。这可能包括视觉感知、语音识别或语言间翻译。
机器学习 (ML)是一种人工智能,通过这种人工智能,计算机可以在数据中寻找模式或自动解决问题,而无需明确编程。目前使用的几乎所有人工智能都是使用 ML 技术构建的。
大型语言模型 (LLM)使用经过大量数据训练的算法,将数据之间的关系转化为概率,以根据用户提示预测文本序列(或越来越多的其他内容)。
持续学习 (CL)包括基于操作交互和反馈,在部署模型后调整或继续训练模型的方法。
原文始发于微信公众号(河南等级保护测评):英国NCSC机器学习原理介绍
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论