安小圈
第512期
人工智能 安全

在生成式人工智能领域,有两个非常重要的趋势。一方面,人们继续拼命地追求将其人性化,有时甚至不顾后果。与此同时,根据德勤最新的《企业生成式人工智能现状》报告,企业对人工智能的信任在过去几年中全面大幅提升。
然而,许多客户和员工显然不这么认为。超过75% 的消费者担心虚假信息。员工担心被人工智能取代。信任差距越来越大,它已经成为人工智能造假时代的决定性力量。
这对信息安全和治理专业人士意味着什么。
过度信任的危险
人工智能人性化的趋势以及人们对它的信任程度凸显了严重的道德和法律问题。人工智能驱动的“人性化”工具声称可以将人工智能生成的内容转化为“自然”和“类似人类”的叙述。其他人则创造了“数字人类”用于营销和广告。很有可能,你看到的下一个以人为主角的广告根本不是人,而是一种合成媒体。事实上,我们还是直截了当地称呼它——深度伪造。
将人工智能拟人化并非新鲜事。早在 2011 年,苹果就率先推出了 Siri。现在,我们拥有了数不清的数千个此类数字助理,其中一些针对特定用例进行了量身定制,例如数字医疗、客户支持甚至个人陪伴。
许多数字助理都带有虚构的女性形象,包括女性的名字和声音,这并非巧合。毕竟,研究表明,绝大多数人更喜欢女性的声音,这让我们更倾向于信任她们。虽然她们没有实体,但却体现出一位能干、可靠和高效的女人。但正如技术战略家兼演讲者乔治·卡米德 (George Kamide)所说,这“强化了人类的偏见和刻板印象,并危险地混淆了技术的运作方式。”
道德和安全问题
这不仅仅是一个道德问题,也是一个安全问题,因为任何旨在说服他人的东西都可能让我们更容易受到操纵。在网络安全的背景下,这代表着来自社会工程骗子的全新威胁。
人与人建立关系,而不是与机器建立关系。但当几乎无法区分两者时,我们在做出敏感决定时更有可能信任人工智能。我们变得更加脆弱;更愿意分享我们的个人想法,在商业方面,更愿意分享我们的商业机密和知识产权。
这对信息安全和隐私产生了严重影响。大多数大型语言模型(LLM)都会记录每次交互,并可能将其用于训练未来的模型。
我们真的希望我们的虚拟助手向未来的用户透露我们的私人信息吗?企业领导者是否希望他们的知识产权在以后的回应中再次出现?我们是否希望我们的秘密成为大量文本、音频和视频内容的一部分,以训练下一代人工智能?
如果我们开始将机器视为真实人类互动的替代品,那么所有这些事情都有可能发生。
网络威胁的磁石
我们习惯于相信计算机不会撒谎,但事实是,算法可以被编程来做到这一点。即使它们没有经过专门的欺骗训练,它们仍然可能“产生幻觉”或被利用来泄露它们的训练数据。
网络威胁者非常清楚这一点,这就是为什么人工智能是网络犯罪的下一个重大前沿。就像企业可能会使用数字助理来说服潜在客户一样,威胁者也可以使用它来欺骗毫无戒心的受害者采取期望的行动。例如,一个名为 Love-GPT 的聊天机器人最近被指控参与了爱情骗局,因为它能够在约会平台上生成看似真实的个人资料,甚至与用户聊天。
随着算法的不断完善和所需计算能力的不断提高,生成式人工智能只会变得更加复杂。目前已有技术可以创建具有姓名、性别、面孔和个性的所谓“数字人类”。Deepfake 视频比几年前更加逼真。它们已经进入了现场视频会议,一位财务工作者在与 Deepfake 首席财务官进行视频通话后支付了 2500 万美元。
我们越是把算法当做人,就越难分辨两者的区别,我们就越容易受到那些利用技术做坏事的人的伤害。虽然事情不太可能变得更容易,但考虑到人工智能技术的快速发展,合法组织有道德义务在使用人工智能时保持透明。
人工智能超越政策和治理
我们必须接受生成式人工智能将继续存在的事实。我们也不应低估它的好处。智能助手可以大大减少知识工作者的认知负担,并可以释放有限的人力资源,让我们有更多时间专注于更大的问题。但试图将任何类型的机器学习能力作为人类互动的替代品不仅在道德上值得怀疑,而且也违背了良好的治理和政策制定。
人工智能的发展速度之快令政府和监管机构都无法跟上。尽管欧盟正在实施世界上第一部人工智能法规——《欧盟人工智能法案》,但我们还有很长的路要走。因此,企业应该主动对人工智能的安全性、隐私性、完整性和透明度以及其使用方式进行严格的自我监管。
在不断追求人性化人工智能的过程中,人们很容易忽视构成道德商业行为的关键要素。这导致员工、客户和其他相关人员容易受到操纵和过度信任。这种痴迷的结果并不是人性化人工智能,而是我们最终使人类失去人性。
这并不是说企业应该避免使用生成式人工智能和类似技术。但他们必须做的是,公开透明地使用这些技术,并向员工清楚地传达潜在风险。生成式人工智能不仅要成为企业技术战略不可或缺的一部分,而且还要成为安全意识培训、治理和政策制定不可或缺的一部分。
人类与人工智能的分界线
在理想世界中,所有人工智能都会被贴上标签并可验证。如果不是,那么它可能不值得信任。然后,我们可以重新只担心人类骗子,尽管他们当然不可避免地会使用流氓人工智能。换句话说,也许我们应该把人工智能的拟人化留给恶意行为者。这样,我们至少有机会分辨出两者的区别。

原文始发于微信公众号(安小圈):人工智能拟人化的危险:信息安全视角
- 左青龙
- 微信扫一扫
-
- 右白虎
- 微信扫一扫
-
评论