2016年,微软推出了一款名为“Tay”的人工智能聊天机器人,旨在与Twitter用户互动,并从其对话中学习模仿19岁美国女性的随意沟通风格。
在发布后的 24 小时内,应用程序中的一个漏洞就被恶意攻击者利用,导致出现“极其不当和应受谴责的文字和图像”(微软)。数据训练模型使人工智能能够识别积极和消极的模式和互动,并应对“既具有社会性又具有技术性”的挑战。
Tay 惨败后,微软并没有放弃利用人工智能进行在线互动的探索。相反,它加倍努力。
从泰城到悉尼
2023 年,一个基于 OpenAI 的 GPT 模型的人工智能聊天机器人自称“悉尼”,在与《纽约时报》专栏作家凯文·罗斯互动时发表了辱骂性和不当言论,悉尼向这位作家表白了爱意,变得痴迷,行为反常:“悉尼执着于向我表白爱意,并让我也表白爱意。”最后,他说,悉尼“从热恋中的调情者变成了痴迷的跟踪者”。
去年,谷歌在尝试以创造性的方式使用人工智能时,失败了不止一次,而是三次。2024 年 2 月,其基于人工智能的图像生成器 Gemini 制作了一些怪异且令人反感的图像,例如黑人纳粹、种族多元化的美国开国元勋、美洲原住民维京人以及教皇的女性形象。
随后,在今年 5 月份的年度 I/O 开发者大会上,谷歌出现了几次事故,其中包括一项人工智能搜索功能建议用户吃石头并在披萨上加胶水。
如果像谷歌和微软这样的科技巨头在数字领域都犯下过错,导致如此广泛的错误信息和尴尬,那么我们普通人又如何避免犯下类似的错误呢?尽管这些失败的代价很高,但我们可以吸取重要的教训,帮助其他人避免或将风险降至最低。
经验教训
显然,我们必须意识到人工智能存在的问题,并努力避免或消除这些问题。大型语言模型 (LLM) 是一种先进的人工智能系统,可以以可靠的方式生成类似人类的文本和图像。它们经过大量数据的训练,可以学习模式并识别语言使用中的关系。但它们无法辨别事实和虚构。
LLM 和 AI 系统并非万无一失。这些系统可能会放大并延续其训练数据中可能存在的偏见。Google 图像生成器就是一个很好的例子。过早推出产品可能会导致令人尴尬的错误。
人工智能系统也容易受到用户的操纵。恶意行为者总是潜伏着,随时准备利用系统——系统容易产生幻觉,产生虚假或无意义的信息,如果不加以控制,这些信息可能会迅速传播。
我们对人工智能的过度依赖,没有人类的监督,是愚蠢的行为。盲目信任人工智能的输出已经导致了现实世界的后果,表明我们仍然需要人类的验证和批判性思维。
透明度和问责制
虽然错误和失误是不可避免的,但保持透明并在出现问题时承担责任非常重要。供应商在很大程度上对他们面临的问题保持透明,从错误中吸取教训,并利用他们的经验教育他人。科技公司需要为自己的失败承担责任。这些系统需要不断评估和改进,以对新出现的问题和偏见保持警惕。
作为用户,我们也需要保持警惕。在人工智能时代,培养、磨练和完善批判性思维技能的需求突然变得更加明显。在依赖或分享信息之前,对来自多个可靠来源的信息进行质疑和验证是一种必要的最佳实践,尤其是在员工中需要培养和锻炼。
技术解决方案当然可以帮助识别偏见、错误和潜在的操纵。使用人工智能内容检测工具和数字水印可以帮助识别合成媒体。事实核查资源和服务是免费提供的,应该用来验证事情。了解人工智能系统的工作原理以及欺骗如何在没有警告的情况下瞬间发生;随时了解新兴的人工智能技术及其影响和局限性,可以最大限度地减少偏见和错误信息的影响。一定要仔细检查,尤其是当它看起来好得令人难以置信或糟糕得令人难以置信时。
原文始发于微信公众号(河南等级保护测评):重大的人工智能失败可以从中学到什么
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论