IBM探讨人工智能伦理治理框架应该是什么样子?

admin 2024年4月14日03:25:57评论9 views字数 2136阅读7分7秒阅读模式

IBM探讨人工智能伦理治理框架应该是什么样子?

尽管实现生成式人工智能的竞赛愈演愈烈,但围绕该技术的伦理争论也在持续升温。而且赌注越来越高。

根据 Gartner 的说法,“组织有责任确保他们开发、部署或使用的人工智能项目不会产生负面的道德后果。”与此同时,79% 的高管表示人工智能道德对其企业范围内的人工智能方法很重要,但只有不到 25% 的高管实施了道德治理原则。

人工智能也是美国政府关注的重点之一。2 月下旬,众议院议长迈克·约翰逊 (Mike Johnson) 和民主党领袖哈基姆·杰弗里斯 (Hakeem Jeffries)宣布成立两党人工智能工作组,以探讨国会如何确保美国继续引领全球人工智能创新。该工作组还将考虑保护国家免受当前和新出现的威胁并确保安全和值得信赖的技术发展所需的护栏。

显然,良好的治理对于解决人工智能相关风险至关重要。但健全的人工智能治理是什么样的呢?Gartner 的一项以 IBM 为特色的新案例研究提供了一些答案。该研究详细介绍了如何建立治理框架来管理人工智能道德问题。让我们来看看。

为什么人工智能治理很重要

随着企业越来越多地在日常运营中采用人工智能,该技术的道德使用已成为热门话题。问题在于,组织通常依赖广泛的企业原则,结合法律或独立审查委员会来评估单个人工智能用例的道德风险。

然而,根据 Gartner 案例研究,人工智能道德原则可能过于宽泛或抽象。然后,项目负责人很难决定单个人工智能用例是否符合道德规范。与此同时,法律和审查委员会团队缺乏对人工智能在商业中实际应用方式的了解。所有这些都为人工智能的不道德使用(有意或无意)以及随后的业务和合规风险打开了大门。

考虑到潜在的影响,该问题必须首先在治理层面得到解决。然后,随后的组织实施必须进行适当的制衡。

AI治理框架四大核心角色

根据案例研究,IBM 的业务和隐私领导者开发了一个治理框架,以解决围绕人工智能项目的道德问题。该框架由四个核心角色授权:

  1. 政策咨询委员会:高级领导人负责确定全球监管和公共政策目标,以及隐私、数据和技术道德风险和策略。

  2. AI 道德委员会:该委员会由来自 IBM Research 的公司全球 AI 道德负责人以及首席隐私和信任官共同担任主席,该委员会由一个跨职能的集中团队组成,负责定义、维护 IBM 的 AI 道德政策、实践和沟通并提供建议。

  3. 人工智能道德焦点:每个业务部门都有焦点(业务部门代表),他们作为第一联系人,主动识别和评估技术道德问题,降低个别用例的风险,并将项目转发给人工智能道德委员会审查。人工智能治理的很大一部分取决于这些个人,我们稍后会看到。

  4. 倡导网络:一个由员工组成的基层网络,倡导道德、负责任和值得信赖的人工智能技术文化。这些倡导者为开放工作流程做出了贡献,并帮助在整个组织范围内扩展人工智能道德倡议。

基于风险的评估标准

如果发现人工智能道德问题,分配给用例业务部门的联络人将启动评估。联络点在前线执行此流程,从而能够对低风险案件进行分类。对于风险较高的案例,将完成正式的风险评估并升级至人工智能道德委员会进行审查。

每个用例都使用指南进行评估,包括:

  • 相关属性和预期用途:调查特定用例的性质、预期用途和风险级别。该用例会造成伤害吗?最终用户是谁?个人权利是否受到侵犯?

  • 监管合规性:确定是否将根据适用的隐私法和行业法规安全地处理数据。

  • 先前审查的用例:提供人工智能道德委员会先前审查的用例的见解和后续步骤。包括需要董事会批准的人工智能用例列表。

  • 与人工智能道德原则的一致性:确定用例是否满足基本要求,例如与公平、透明、可解释性、稳健性和隐私原则的一致性。

人工智能治理框架的好处

根据 Gartner 报告,人工智能治理框架的实施使 IBM 受益:

  • 扩大人工智能道德:焦点推动合规性并在各自的业务部门发起审查,从而实现大规模的人工智能道德审查。

  • 加强人工智能道德愿景的战略一致性:焦点与整个企业和全球人工智能道德领域的技术、思想和商业领袖建立联系。

  • 加快完成低风险项目和提案:通过对低风险服务或项目进行分类,焦点能够更快地审查项目。

  • 加强董事会的准备和准备:通过授权焦点在流程的早期指导人工智能道德,人工智能道德委员会可以更有效地审查任何剩余的用例。

拥有权利的同时也被赋予了重大的责任

当 ChatGPT 于 2020 年 6 月首次亮相时,全世界都充满了疯狂的期望。现在,当前的人工智能趋势表明人们对该技术有更现实的期望。像 ChatGPT 这样的独立工具可能会激发大众的想象力,但与现有服务的有效集成将在各个行业带来更深刻的变化。

毫无疑问,人工智能为完成工作的强大新工具和技术打开了大门。然而,相关风险也是真实存在的。多模式人工智能能力的提升和进入门槛的降低也会引发滥用行为:深度伪造、隐私问题、偏见的持续存在,甚至逃避验证码保护措施对于威胁组织来说可能变得越来越容易。

虽然不良行为者已经在使用人工智能,但合法的商业世界也必须采取预防措施来确保员工、客户和社区的安全。

ChatGPT 表示:“负面后果可能包括人工智能算法造成的偏见、侵犯隐私、加剧社会不平等或对个人或社区造成意外伤害。此外,不道德的人工智能实践可能会对信任、声誉损害或法律后果产生影响。”

为了防范此类风险,人工智能伦理治理至关重要。

原文始发于微信公众号(河南等级保护测评):IBM探讨人工智能伦理治理框架应该是什么样子?

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年4月14日03:25:57
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   IBM探讨人工智能伦理治理框架应该是什么样子?http://cn-sec.com/archives/2654287.html

发表评论

匿名网友 填写信息