AI语音克隆产生安全漏洞

admin 2023年5月24日01:15:30评论25 views字数 2195阅读7分19秒阅读模式

AI语音克隆产生安全漏洞

据迈克菲公司(McAfee)声称,AI技术正促使在线语音诈骗数量激增,只需要短短三秒的音频就能克隆受害者的语音。

迈克菲对来自七个国家的7054人进行了调查,结果发现四分之一的成年人之前遇到过某种形式的AI语音诈骗,10%的人称自己就受到过诈骗,15%的人称熟悉的人受到过诈骗。77%的受害者声称因此赔了钱。

此外,迈克菲研究室的安全研究人员在深入研究AI语音克隆技术及网络犯罪分子的使用后得出了如下的重要结论。

AI语音克隆产生安全漏洞

骗子们使用AI技术来克隆语音

每个人的语音都独一无二,相当于生物特征识别指纹,这就是为什么听某人说话是一种得到广泛接受的确立信任的方式。

但53%的成年人每周在网上至少分享一次语音数据(通过社交媒体和语音便筏等渠道),49%的成年人每周最多分享10次,克隆某人的语音现在是网络犯罪分子的武器库中最强大的工具之一。

随着人工智能工具迅速普及和发展起来,犯罪分子比以往任何时候更容易操纵亲朋好友的图像、视频和语音(后者可能最令人不安)。

迈克菲的研究表明,骗子者如今使用AI技术克隆语音,然后发送虚假的语音邮件或者呼叫受害者的通讯录联系人,佯称自己遇到了困难。70%的成年人表示自己很难区分克隆语音和真人语音,难怪这项技术越来越受到不法分子的追捧。

45%的受访者表示,他们会回复冒充来自亲朋好友的诈骗语音邮件或语音便笺,特别是当这些语音来自他们的伴侣或配偶(40%)、父母(31%)或子女(20%)时。

AI语音克隆产生安全漏洞        AI语音诈骗受害者损失惨重

50岁以上的父母这个群体最有可能对孩子的语音做出回应,比例达到了41%。最可能得到回应的消息是声称发生车祸(48%)、被抢劫(47%)、丢失手机或钱包(43%)或在出国旅行时需要帮助(41%)的信息。

但如果受害者上了AI语音诈骗的当,往往面临重大损失。超过三分之一的受害者声称损失超过1000美元,7%的受害者被骗去5000美元至15000美元。

调查还发现,深度伪造和虚假信息的兴起导致人们对网上看到的内容更加警惕,32%的成年人表示他们现在比以往任何时候都更不信任社交媒体。

迈克菲首席技术官Steve Grobman说:“人工智能带来了令人难以置信的机会,但与任何技术一样,这项技术总是有可能落到不法分子的手里后被滥用。这是我们今天看到的一幕,易于使用AI工具帮助网络犯罪分子以越来越逼真的方式扩大诈骗活动的规模。”

AI语音克隆产生安全漏洞        语音克隆越来越容易

作为迈克菲分析和评估这个新趋势的一部分,迈克菲研究人员花了三周时间来调查AI语音克隆工具的可访问性、易用性和有效性,其团队在网上发现了十多种免费的AI语音克隆工具。

免费工具和收费工具都唾手可得,许多工具只需要基本的经验和专业知识即可使用。其中一种工具甚至只需三秒钟语音就足以生成匹配度达85%的克隆语音。如果犯罪分子投入更大的精力,可以进一步提高准确性。

通过训练数据模型,迈克菲研究人员仅用少量音频文件就实现了95%的语音匹配度。

克隆语音越准确,网络犯罪分子诱骗受害者交出钱财或采取其他所要求的操作的可能性就越大。由于这些骗局利用人类亲密关系中固有的情感脆弱性,骗子可以在短短几个小时内骗到数千美元。

AI语音克隆产生安全漏洞        语音克隆技术的演进

Grobman说:“先进的人工智能工具正在改变网络犯罪分子的游戏规则。现在,他们几乎不费吹灰之力,就可以克隆某个人的语音,欺骗亲朋好友汇钱。”

Grobman得出结论:“重要的是保持警惕,并采取积极主动的措施以确保你和亲朋好友安全。如果你接到遇到困难的配偶或家庭成员打来的电话、要求汇钱,务必验证来电者的真实身份——使用之前约定的暗号,或问一个只有对方知道的问题。身份和隐私保护服务也将有助于限制个人信息的数字足迹,犯罪分子在克隆语音时可以利用数字足迹来捏造令人信服的故事。”

迈克菲的研究人员使用他们发现的克隆工具,发现轻而易举就能克隆全球各地的口音,无论受害者来自美国、英国、印度还是澳大利亚,但比较独特的口音克隆起来比较困难。比如说,以不寻常的语速、节奏或风格说话的人的语音需要花更大的力气才能准确克隆,因此不太可能被盯上。

不过研究团队普遍认为,人工智能已经改变了网络犯罪分子的游戏规则。这方面的准入门槛从未如此之低,这意味着实施网络犯罪从未如此简单。

AI语音克隆产生安全漏洞        AI语音克隆防范要诀

约定语音暗号。与孩子、家人或密友设置一个只有他们才知道的口头暗号。制定一项计划,要求他们在打电话、发短信或发电子邮件寻求帮助时始终需要提供暗号,如果是老年人或小孩子尤其如此。

始终质疑来源。如果是来自来历不明的发件人的电话、短信或电子邮件,或者即便是来自熟人的电话,接到求救电话后也应该冷静思考:这听起来真像是他们的声音吗?他们会问你这个吗?挂断电话,接致电对方,或者在回复之前(当然在汇钱之前)尝试验证信息真伪。

点击和分享应慎重。谁在你的社交媒体网络中?你真的熟悉并信任他们吗?要留意你在网上的朋友和联系人。你的关系网越广、分享的内容越多,被恶意克隆身份的风险就越大。

使用身份监视服务,如果你的私密信息流入到暗网上,身份监视服务有助于确保你的个人身份信息无法被访问或告知隐患。牢牢控制你的个人数据,避免被网络犯罪分子冒充。

参考及来源:https://www.helpnetsecurity.com/2023/05/08/ai-voice-scam/

AI语音克隆产生安全漏洞

AI语音克隆产生安全漏洞

原文始发于微信公众号(嘶吼专业版):AI语音克隆产生安全漏洞

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年5月24日01:15:30
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   AI语音克隆产生安全漏洞https://cn-sec.com/archives/1750780.html

发表评论

匿名网友 填写信息