为什么使用微软AI会加剧现有的数据质量和隐私问题

admin 2024年5月2日02:58:17评论3 views字数 1860阅读6分12秒阅读模式

为什么使用微软AI会加剧现有的数据质量和隐私问题

据分析公司Gartner称,约 55% 的组织已经实施或正在试点生成式 AI。对于其中许多服务,Copilot for Microsoft 365 是一个明显的起点,因为它是数百万组织已经使用的服务(例如 M365 和 Office365)的一个简单附加组件。除了易于购买之外,还有一个简化的实施方式,因为 Copilot 拥有大量数据,可以对其进行培训,以使用 Microsoft 服务已经使用的数据。

与全球科技和安全巨头合作还需要信任,因为约有10,000 多个应用程序都在争夺人工智能领域的份额,其中大多数应用程序的数据政策不明确或未经证实。与大多数产品不同的是,微软 Copilot 称赞其“商业数据保护”,并表示“Copilot 不会保存提示或答案,也不用它们来训练人工智能模型。”

被美国国会禁止,Gartner 敦促谨慎

那么一切都好吗?不完全的。最近,美国国会禁止工作人员使用该应用程序,称“网络安全办公室认为 Microsoft Copilot 应用程序对用户构成风险,因为它可能会将众议院数据泄露给未经众议院批准的云服务。”

Gartner 还敦促谨慎行事,指出:“使用 Copilot for Microsoft 365 会暴露敏感数据和内容在内部和外部暴露的风险,因为它支持对不受保护的内容进行简单、自然的语言访问。未充分保护的敏感信息的内部暴露是一个严重而现实的威胁。超出 Microsoft 服务边界的外部 Web 查询也会带来无法监控的风险。”

Copilot 可能会加剧数据安全中现有的缺陷

安全使用 Copilot 时发现的大多数问题都不是新问题,但 GenAI 有能力将现有问题放大到无法控制的程度。权限是一个关键领域。根据微软自己的 2023 年云权限风险状况报告 ( PDF ),超过 50% 的身份是“超级管理员”,超过一半的权限被认为是“高风险”。

更能说明问题的是,只有 1% 的授予权限被实际使用。鉴于 MS 服务中已经存在的这些相同权限将简单地转移到 Copilot 中,因此存在发生重大安全事件的可能性。例如,如果访问权限过多,员工可能能够提取有关高级管理人员薪资的信息。例如,Copilot 最常被问到的问题之一是“首席执行官的薪水是多少”。

此外,如果攻击者接管这些帐户或者存在恶意内部人员,那么利用人工智能的力量,他们对数据的发现将大大增强。事实上,Gartner 发现,“在面临人工智能安全或隐私事件的组织中,60% 的组织报告称数据遭到内部人员泄露。”

数据标签是另一个问题。Copilot 使用其他 Microsoft 产品的现有数据标记实践,这再次引入了继承错误的可能性。这包括敏感材料的标签和分类不一致,这些材料可能已被降级以方便在组织内使用。人工智能的力量使查找和滥用这些数据变得更加容易。

垃圾进,垃圾出——在 GenAI 的世界里从未如此真实

“垃圾进,垃圾出”这句格言长期以来都是正确的,而人工智能现在赋予了它一个新的维度。在任何组织中,都会存在大量过时和不相关的数据,这些数据可能会导致 Copilot 建议不相关或误导性的内容。长期以来被遗忘的头脑风暴笔记或被丢弃的决策可能会扭曲 Copilot 对组织的理解,而丢失的信息可能会给 Copilot 造成盲点,从而阻碍其提供全面解决方案的能力。这就是为什么组织需要特别小心与 Copilot 共享的内容,以确保它只能分析有意义的数据。

尽管如此,Copilot 仍承诺在 Microsoft 365 套件中实现 AI 驱动的工作场所生产力的重大飞跃。它可以从 GPT-4 和 DALLE-3 模型中获得洞察,但在 Microsoft 品牌的相对安全性范围内,并且早期的承诺很好,微软声称 Copilot 用户平均每天节省 14 分钟或每月 5 个小时 - 主要是通过消除平凡的任务以提高员工的生产力和创造力。

在我看来,副驾驶准备就绪的五个基本组成部分是:

从小处开始——只选择三到六个用例来智能处理并吸引一小部分用户群

尽早巩固人工智能政策——与内部利益相关者合作制定适合员工用例的人工智能使用政策。请记住,Copilot 只是您的员工正在使用的一种 GenAI 工具。

确保数据安全且一致- 确定核心数据集的位置,并仅针对那些具有有意义信息的数据集对 Copilot 进行培训。

审查现有控制措施——了解数据分类、共享策略和访问管理。

确保持续的用户培训——使用户能够释放全部潜力,同时了解安全使用其功能的最新信息。保持培训场景和用例的具体性。

报告和基准测试 –建立信任并根据定义的用例跟踪 Copilot 的性能。


原文始发于微信公众号(河南等级保护测评):为什么使用微软AI会加剧现有的数据质量和隐私问题

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年5月2日02:58:17
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   为什么使用微软AI会加剧现有的数据质量和隐私问题http://cn-sec.com/archives/2705253.html

发表评论

匿名网友 填写信息