生成式 AI 应用程序需要隐私和安全控制
对于使用生成式人工智能应用程序的组织,一些领先的做法和一些司法管辖区的要求包括限制可用工具或用户可能输入的信息类型,以便其他人无法访问机密数据,选择不与生成式人工智能公司开展业务或使用未充分保护其用户隐私或机密性的生成式人工智能公司的工具;并向公众提供其隐私、安全和使用条款政策,以便人们可以避免使用没有适当保护措施的工具。
为什么信任对生成式 AI 至关重要
信任在社会和商业关系中一直至关重要,在今天更是如此,因为技术可以使一件事看起来像另一件事以 Deepfakes 为例,其中副本、照片、视频和其他数据被伪造。谁负责保护我们的个人信息安全和我们的私人生活的私密性?政府、企业和消费者都可以发挥作用。
研究表明,91% 的组织表示,他们需要采取更多措施来让客户放心他们的数据是如何被使用的。思科 2023 年的研究指出,60% 的消费者表示,他们在使用 AI 方面对供应商失去了信任。
如果客户不能信任公司的生成式人工智能政策和做法,则可能需要更严格的监管。然而,由于生成式人工智能仍然如此新,政府需要时间来采用和颁布新的法规,而那些受监管者甚至需要更长的时间才能实施这些要求。
已经有无数组织从生成式人工智能中尝到了巨大的甜头。那么,这项技术怎么可能停止呢?如今,数据在无声无息中被输入到各种工具中,而却常常忧心忡忡,害怕这些数据被滥用或被共享。
红海袭击引发对更广泛“战争”的恐惧
2024-01-25
美国中央情报局试图通过新视频在俄罗斯招募双重间谍
2024-01-24
什么是机密线人?
2024-01-23
英国军情五处的特工能逃脱谋杀吗?
2024-01-18
为什么朝鲜网站突然从互联网上消失了?
2024-01-19
原文始发于微信公众号(情报分析师Pro):生成式人工智能的隐私风险
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论