【AI安全】终章-构建可用的人工智能风险管理框架

admin 2024年3月26日21:53:58评论7 views字数 2586阅读8分37秒阅读模式

【AI安全】终章-构建可用的人工智能风险管理框架

如何降低人工智能风险?

这个问题是被问得最多,也是安全同行最被、也最应该被关注的问题:

如果您的公司计划使用人工智能系统作为长期战略和/或竞争优势,那么框架的建立将至关重要。

各国政府正急于制定法规来控制人工智能,但这需要一段美好的时间才能实施。这意味着公司需要带头并建立框架来减轻人工智能系统带来的独特治理和安全风险。

另一个好处是,当法规真正出台时,那些主动实施人工智能系统治理框架的公司将具有明显的优势,并且会发现更容易遵守新规则。

良好的人工智能治理框架是什么?

人工智能变得越来越可行,也越来越容易被公司采用,并且不需要了解底层模型的用户友好型人工智能软件变得相当流行。

除了内部项目外,供应商驱动的软件还可能包含人工智能组件,如果不及时缓解,可能会带来风险。

公司可能会从供应商那里购买信用评分软件,而不知道存在一个未正确创建的底层人工智能模型,并且可能会歧视某些人!

为了解决风险管理专业人员面临的这些挑战,公司需要创建一个人工智能治理框架,以便建立一个结构化系统来识别、减轻和跟踪这些风险直至关闭。

治理框架是确保事物正常运行并符合行业法规和准则的结构化方式。有效的人工智能治理框架将确保公司以结构化和可重复的方式降低人工智能系统的风险。

这意味着人工智能系统不会成为公司的盲点,而是经过批准、正式化和评估,以确保它们不会引入任何不可预见的风险。

一个有效的框架将是:

  • 技术不可知论:它不关心任何软件技术或提供商,而是无论技术如何都会应用相同的原则

  • 算法不可知论:它不关心人工智能算法的底层技术细节,但关心它是如何设计的,如何捕获其数据以及它是否遵循“人工智能信任”原则(稍后会详细介绍)

人工智能治理框架的关键组成部分

虽然治理框架可能会根据业务性质及其监管框架而发生变化,但某些方面在各行业中是通用的。

人工智能治理框架的高级组成部分如下:

【AI安全】终章-构建可用的人工智能风险管理框架

1. 人工智能和机器学习政策:

任何有实施治理框架经验的人都会知道,最困难的部分始终是改变公司根深蒂固的文化。公司有一种随着时间的推移而发展的做事方式,引入新的控制措施总是会遇到最初的阻力。

管理层推动变革的最佳方法之一是正式制定一项政策,明确阐明公司关于如何在公司内部合乎道德地使用人工智能以及如何减轻人工智能相关风险的愿景。

高层政策将定下如何在整个公司控制人工智能使用的基调,并正式确定人工智能使用的责任以及人工智能系统必须遵守的一般原则。

简而言之,人工智能政策会告知每个人谁可以做什么,以及如果发现人工智能系统是以不合规的方式制造的,责任在哪里。它还将构成后续其他组件的基础。

2.人工智能治理委员会:

另一个关键方面是跨职能治理团队,负责监督人工智能系统并就新的人工智能计划做出是否进行的决定。

管理层必须确定公司的关键人员,并通过让他们成为该委员会的一部分来授权他们进行人工智能控制。

如果正在开发的新人工智能系统可能会让您的公司面临不遵守当地法规的风险,那么该委员会将做出不继续进行的决定。

使该委员会由多个部门的代表组成;它确保采纳不同的观点,并记录所有利益相关者的意见。

委员会至少应有来自以下方面的代表:

  • 法律——确保任何新的人工智能项目不存在法律影响

  • 网络安全——通常最适合标记人工智能系统中的任何安全风险

  • 技术——推动新人工智能技术采用的团队,负责监控/管理底层基础设施。

  • 数据科学——使用数据为人工智能系统提供动力的人们。

  • 商业——大多数人工智能计划的驱动力。

  • 审计和风险——独立成员是该委员会的必要组成部分,以确保有效的治理

  • 由执行级别委员会的一名成员担任主席

3.人工智能风险管理框架

人工智能政策的输出;将建立一个识别关键业务人工智能系统风险的框架,并由指定单位负责。与普通公司的风险管理部门一样,该部门将制定缓解策略,以识别和解决偏见、数据收集、网络安全、弹性等方面的人工智能风险。

4. AI信任原则

为了让人工智能系统被客户接受,他们需要产生“信任”,即客户需要相信所做的决定是公平的,并且人工智能不会以任何方式歧视他们。

该框架的一部分将是建立每个人工智能系统都必须遵守的信任原则,并且这些原则必须根植于公司文化中。数据科学家和其他参与数据收集的团队将接受培训,以确保遵循这些原则,从而最大限度地减少偏见。

人工智能系统至少必须遵循以下原则:

  1. 完整性——确保机器学习算法健全且不可篡改。用于训练算法的任何数据将仅用于收集的目的,而不用于任何其他目的

  2. 可解释性——人工智能不会是一个“黑匣子”,算法做出决策的过程将是透明的并有记录。

  3. 公平——决策公平、道德、无偏见,不会歧视任何年龄、性别、群体或种族

  4. 弹性——人工智能系统应该足够安全和强大,以抵御恶意方对其基础设施或数据的攻击。

为什么要从头开始构建?

如果您真的想为您的公司构建人工智能治理框架,那么好消息是有许多现成的框架可供您用作模板。

我个人最喜欢的是新加坡监管机构发布的模型人工智能治理框架。(https://www.pdpc.gov.sg/-/media/files/pdpc/pdf-files/resource-for-organisation/ai/sgmodelaigovframework2.ashx)它于 2019 年在世界经济论坛 (WEF) 上推出,为公司在创建人工智能系统时如何减轻道德和治理风险提供了详细指导。

【AI安全】终章-构建可用的人工智能风险管理框架

资料来源:https ://www.pdpc.gov.sg/-/media/files/pdpc/pdf-files/resource-for-organization/ai/sgmodelaigovframework2.ashx

该框架为模型框架提供了一个伟大的蓝图,并基于两个指导原则:

  • 人工智能做出的决定应该“可解释、透明和公平”。

  • 人工智能系统应该以人为中心(即人工智能的设计和部署应该保护人们的利益,包括他们的安全和福祉)

您可以在您的组织中使用和实现模型框架的部分内容,并根据您的需求进行定制。该模型最好的一点是,任何公司都可以采用它,无论其规模或行业如何,从大型银行到小型科技初创公司。

人工智能风险管理是未来

人工智能正在改变风险管理专业人士的游戏规则,拥有适当的治理框架是降低风险的关键。管理层必须认识到,降低人工智能风险不仅仅是减缓采用速度的繁文缛节,而且是一种可以赢得客户信任的实际竞争优势。

原文始发于微信公众号(KK安全说):【AI安全】终章-构建可用的人工智能风险管理框架

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年3月26日21:53:58
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   【AI安全】终章-构建可用的人工智能风险管理框架http://cn-sec.com/archives/2605194.html

发表评论

匿名网友 填写信息