员工大量使用人工智能应用 数据泄露风险急剧飙升

admin 2023年8月19日22:03:58评论31 views字数 1546阅读5分9秒阅读模式
员工大量使用人工智能应用 数据泄露风险急剧飙升

随着人工智能越发普及,企业正在探索如何平衡其价值与对应的风险。在此背景下,Netskope威胁实验室最近发布了最新版本的《云和威胁报告》, 聚焦于探讨“企业中的人工智能应用程序”。

鉴于媒体的大肆宣传,报告发现企业中访问人工智能应用程序的用户数量呈指数级增长也就不足为奇了。研究显示,2023年5月至6月期间,每天至少访问一款人工智能应用的企业用户比例每周增加2.4%,同期总计增加22.5%。

ChatGPT是最受欢迎的企业人工智能应用程序,其每日活跃用户数量是其他同类应用的八倍多。超过1000名用户的组织平均每天使用3个不同的人工智能应用程序,而用户超过10,000名的组织平均每天使用5个人工智能应用程序。

与之相应的,内部信息意外泄露的风险也在增加,知识产权等敏感信息的意外共享情况愈发严峻,同时企业的攻击面也在不断扩大。

员工大量使用人工智能应用 数据泄露风险急剧飙升
源代码是最常暴露的敏感数据类型

报告显示,一个企业每10,000个用户每天会收到大约660个ChatGPT提示,源代码是最常暴露的敏感数据类型,平均每月产生158起泄露事件。该数量远远领先于每月的违规监管数据(平均18起事件/月)、知识产权泄露(平均4起事件/月)、包含密码和密钥的帖子外泄(平均4起事件/月)。

因此,三星在2023年5月因一些用户通过ChatGPT意外泄露敏感数据后,已经决定禁止其员工使用生成式人工智能应用,并着力开发自己的人工智能工具。

即使用户不是泄露的源头,平台本身也不能免受安全漏洞的影响。比如2023年3月底,开发ChatGPT的公司OpenAI提供的开源库曝出漏洞,导致一些客户的支付相关信息被泄露,非法用户可以查看一些活跃用户的聊天记录,该事件迫使其暂时将应用程序离线。

然而,由于很少有公司有足够的资源效仿三星,在内部开发自己的人工智能工具,因此有必要在企业面对人工智能的风险和机遇之间找到正确的权衡。

因行业属性和监管差异

对人工智能应用的控制水平区别明显

企业应该围绕ChatGPT和其他生成式人工智能应用程序建立特定的控制策略,其干预程度和粒度因行业不同可能会有很大差异。研究显示,诸如金融服务、医疗保健等强监管的行业,更偏向保守的方式,其中近五分之一的企业(18%)对人工智能应用实施完全封锁,完全不允许任何用户使用。

在更具创新和突破的垂直行业中,只有4.8%的企业采用这种保守的做法,例如互联网企业,他们更喜欢基于DLP控制的更细粒度的方法,来检测特定类型的敏感信息是否发布到人工智能应用程序,如源代码、PPI等。这些部门还将用户的角色及其责任置于安全流程的中心,对用户实施实时指引辅导,以提醒用户公司政策和与人工智能应用程序相关的风险。

如何安全地使用人工智能应用

随着每一波技术变革来袭,安全和IT领导者都在努力地平衡安全性和创新性。与其他新技术、新应用的引入一样,企业应当充分识别允许的应用程序并对其实施控制,使用户能够充分发挥应用和工具的潜力,同时保护企业免受安全风险,这应该成为企业IT团队的核心理念,具体的建议包括:

定期审查人工智能应用程序的活动、趋势、行为和数据敏感性,以识别企业面临的风险;

对于用于不合法商业目或带来过重大风险的人工智能应用程序,应当阻止访问;

使用DLP策略来检测包含潜在敏感信息的数据资产,包括源代码、监管数据、密码和密钥以及知识产权;

结合DLP采用实时用户辅导,提醒用户在交互过程中使用人工智能应用的公司政策;
确保所有的安全防御共享情报,并协作各相关部门简化安全操作。

有了这些基于云安全的基本原则,企业应该能够测试和试验主流的人工智能应用程序,以释放显著的业务效率,并确保用户不会无意中暴露企业的敏感信息。

END

原文始发于微信公众号(安全419):员工大量使用人工智能应用 数据泄露风险急剧飙升

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年8月19日22:03:58
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   员工大量使用人工智能应用 数据泄露风险急剧飙升http://cn-sec.com/archives/1964785.html

发表评论

匿名网友 填写信息