生成式人工智能的隐私风险

admin 2024年1月29日22:07:35评论9 views字数 1427阅读4分45秒阅读模式
"尽管创新技术带给我们令人惊叹的新功能,但它们也带来了不可预见的挑战。随着生成式人工智能的崭露头角,其改变我们业务方式的巨大潜力和力量似乎在一夜之间迸发。然而,有一点始终如一:在使用这一神奇技术的过程中,保护用户数据的隐私和机密性至关重要。
根据思科 2024 年数据隐私基准研究,79% 的企业已经从生成式 AI 中获得了巨大的价值。组织和个人纷纷使用生成式 AI 工具来执行生成文档、创建和审查代码以及提高总体生产力等任务。但是,在这样做的过程中,许多人正在输入有关其客户、员工和内部流程的数据。
使用生成式人工智能的消费者也有类似的行为。根据另一项研究,思科 2023 年消费者隐私调查,39% 的人输入了工作信息,超过 25% 的人输入了个人信息、帐号,甚至健康和种族信息。与此同时,这些消费者中有88%表示,他们担心他们输入的数据可能会与他人共享。

生成式人工智能的隐私风险

生成式 AI 应用程序需要隐私和安全控制

在不充分了解潜在影响的情况下将个人或机密信息输入生成式人工智能应用程序会引起严重关注。那些生产或提供这些应用程序的人可能没有实施适当的数据隐私和安全控制,大多数最终用户可能不知道他们的信息会发生什么。个人数据可能会与其他用户共享或向公众发布,从而导致潜在的身份盗用或侵犯隐私,并且机密的公司数据可能会泄露给第三方或竞争对手。
尽管如此,在思科 2023 年的调查中,只有 50% 的受访者表示他们没有在工具中输入个人或机密信息。这意味着另外50%的人可能已经输入了他们不想分享的信息。无论使用何种应用程序,保护个人或机密信息,并且不与不应访问它的任何人共享至关重要。可以使用生成式 AI 工具,但需要适当的护栏来保护某些数据不被泄露或滥用。

生成式人工智能的隐私风险

对于使用生成式人工智能应用程序的组织,一些领先的做法和一些司法管辖区的要求包括限制可用工具或用户可能输入的信息类型,以便其他人无法访问机密数据,选择不与生成式人工智能公司开展业务或使用未充分保护其用户隐私或机密性的生成式人工智能公司的工具;并向公众提供其隐私、安全和使用条款政策,以便人们可以避免使用没有适当保护措施的工具。

为什么信任对生成式 AI 至关重要

信任在社会和商业关系中一直至关重要,在今天更是如此,因为技术可以使一件事看起来像另一件事以 Deepfakes 为例,其中副本、照片、视频和其他数据被伪造。谁负责保护我们的个人信息安全和我们的私人生活的私密性?政府、企业和消费者都可以发挥作用。

研究表明,91% 的组织表示,他们需要采取更多措施来让客户放心他们的数据是如何被使用的。思科 2023 年的研究指出,60% 的消费者表示,他们在使用 AI 方面对供应商失去了信任。

生成式人工智能的隐私风险

如果客户不能信任公司的生成式人工智能政策和做法,则可能需要更严格的监管。然而,由于生成式人工智能仍然如此新,政府需要时间来采用和颁布新的法规,而那些受监管者甚至需要更长的时间才能实施这些要求。

已经有无数组织从生成式人工智能中尝到了巨大的甜头。那么,这项技术怎么可能停止呢?如今,数据在无声无息中被输入到各种工具中,而却常常忧心忡忡,害怕这些数据被滥用或被共享。

红海袭击引发对更广泛“战争”的恐惧

2024-01-25

生成式人工智能的隐私风险

美国中央情报局试图通过新视频在俄罗斯招募双重间谍

2024-01-24

生成式人工智能的隐私风险

什么是机密线人?

2024-01-23

生成式人工智能的隐私风险

英国军情五处的特工能逃脱谋杀吗?

2024-01-18

生成式人工智能的隐私风险

为什么朝鲜网站突然从互联网上消失了?

2024-01-19

生成式人工智能的隐私风险

原文始发于微信公众号(情报分析师Pro):生成式人工智能的隐私风险

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年1月29日22:07:35
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   生成式人工智能的隐私风险https://cn-sec.com/archives/2433875.html

发表评论

匿名网友 填写信息