AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

admin 2024年10月29日13:24:03评论18 views字数 2940阅读9分48秒阅读模式

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

在过去的18个月左右的时间里,我们似乎已经失去了相信自己眼睛的能力。当然,Photoshop 造假并不是什么新鲜事,但生成式人工智能(GenAI)的出现将造假提升到了一个全新的水平。也许第一个病毒式人工智能赝品是 2023 年教皇穿着白色设计师羽绒服的图像,但从那时起,高质量的眼睛欺骗者的数量猛增到数千个。随着人工智能的进一步发展,我们可以预见在不久的将来会有越来越多令人信服的虚假视频。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

最早在全球范围内疯传的深度赝品之一:教皇穿着时尚的白色羽绒服

这只会加剧本已棘手的假新闻和相关图像问题。这些可能会显示一个活动的照片并声称它来自另一个活动,将从未见过的人放在同一张照片中,等等。

图像和视频欺骗对网络安全有直接影响。多年来,诈骗者一直使用虚假图像和视频来诱骗受害者交出现金。他们可能会向您发送一张他们声称需要帮助的悲伤小狗的照片、一张宣传某些不正当计划的名人的照片,甚至是一张他们说属于您认识的人的信用卡的照片。欺诈者还使用人工智能生成的图像作为个人资料,在约会网站和社交媒体上进行钓鱼。

最复杂的诈骗利用受害者老板或亲戚的深度伪造视频和音频来让他们执行诈骗者的命令。就在最近,一家金融机构的一名员工被骗,向网络诈骗者转账了 2500 万美元!他们与受害者的“首席财务官”和“同事”进行了视频通话——全都是深度伪造的。

那么,可以采取什么措施来处理深度伪造品或普通伪造品呢?如何检测到它们?这是一个极其复杂的问题,但可以通过追踪图像的来源来逐步缓解。

等等……我以前没见过吗?

Wait… haven’t I seen that before?

如上所述,“假”有多种类型。有时图像本身并不是假的,但它的使用方式具有误导性。也许来自战区的真实照片被冒充为来自另一场冲突,或者电影中的场景被呈现为纪录片。在这些情况下,寻找图像本身的异常情况并没有多大帮助,但您可以尝试在线搜索图片的副本。幸运的是,我们拥有 Google 反向图像搜索和 TinEye 等工具,它们可以帮助我们做到这一点。

如果您对图像有任何疑问,只需将其上传到其中一个工具,然后看看会出现什么结果。您可能会发现,一张因火灾而无家可归的家庭、一群收容所的狗或其他悲剧受害者的照片多年来一直在网上流传。顺便说一句,当谈到虚假筹款时,除了图像本身之外,还有一些其他危险信号需要警惕。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

收容所的狗?不,来自照片库

Photoshop 处理过吗?我们很快就会知道。

Photoshopped? We’ll soon know.

自从 Photoshop 出现以来,数学家、工程师和图像专家长期以来一直在研究自动检测更改图像的方法。一些流行的方法包括图像元数据分析和错误级别分析 (ELA),它检查 JPEG 压缩伪影以识别图像的修改部分。许多流行的图像分析工具(例如 Fake Image Detector)都应用了这些技术。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

假图像检测器警告说,教皇可能没有在复活节周日……或曾经佩戴过这个

随着生成式人工智能的出现,我们还看到了基于人工智能的新方法来检测生成的内容,但它们都不是完美的。以下是一些相关进展:面部变形检测;检测人工智能生成的图像并确定用于生成它们的人工智能模型;以及用于相同目的的开放人工智能模型。

对于所有这些方法,关键问题是没有一种方法可以让您 100% 确定图像的出处、保证图像不被修改,或者可以验证任何此类修改。

WWW 来救援:验证内容来源

WWW to the rescue: verifying content provenance

如果普通用户有一种更简单的方法来检查图像是否真实,那不是很好吗?想象一下,点击一张照片,看到类似这样的内容:“John 在 3 月 20 日用 iPhone 拍摄了这张照片”,“Ann在 3 月 22 日裁剪了边缘并增加了亮度”,“Peter 在 3 月 23 日以高压缩重新保存了这张照片 ”,或者“没有进行任何更改”——所有这些数据都是不可能伪造的。听起来像一个梦,对吧?嗯,这正是内容来源和真实性联盟 (C2PA) 的目标。C2PA 包括来自计算机、摄影和媒体行业的一些主要参与者:佳能、尼康、索尼、Adobe、AWS、微软、谷歌、英特尔、BBC、美联社以及大约一百个其他成员 - 基本上是所有可以拥有的公司 从创作到在线发布,他们几乎都亲自参与了图像生命周期的每个步骤。

该联盟开发的 C2PA 标准已经发布,甚至已经达到了 1.3 版本,现在我们开始看到使用它所需的工业难题的各个部分都已就位。尼康正计划生产兼容 C2PA 的相机,BBC 已经发表了第一篇带有经过验证的图像的文章。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

BBC 谈论如何验证其文章中的图像和视频

这个想法是,当负责任的媒体机构和大公司转向以经过验证的形式发布图像时,您将能够直接在浏览器中检查任何图像的出处。您会看到一个小“已验证图像”标签,当您单击它时,会弹出一个更大的窗口,显示哪些图像作为源,以及在图像出现在浏览器中之前每个阶段进行了哪些编辑,以及 由谁和何时进行。您甚至可以看到图像的所有中间版本。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

图像创建和编辑的历史

这种方法不仅适用于相机,也适用于相机。它也适用于创建图像的其他方式。Dall-E 和 Midjourney 等服务也可以为他们的创作贴上标签。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

这显然是在 Adobe Photoshop 中创建的

验证过程基于公钥加密,类似于 Web 服务器证书中用于建立安全 HTTPS 连接的保护。这个想法是,每个图像创建者——无论是使用特定类型相机的 Joe Bloggs,还是拥有 Photoshop 许可证的 Angela Smith——都需要从受信任的证书颁发机构获取 X.509 证书。该证书可以在工厂直接硬连线到相机中,而对于软件产品,可以在激活后颁发。当使用来源跟踪处理图像时,文件的每个新版本都将包含大量额外信息:编辑的日期、时间和位置、原始版本和编辑版本的缩略图等。所有这些都将由图像的作者或编辑进行数字签名。这样,经过验证的图像文件将具有所有先前版本的链,每个版本都由编辑它的人签名。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

该视频包含人工智能生成的内容

该规范的作者还关注隐私功能。有时,记者无法透露消息来源。对于这种情况,有一种特殊的编辑类型,称为“编辑”。这允许某人用零替换有关图像创建者的一些信息,然后用他们自己的证书签署该更改。

为了展示 C2PA 的功能,创建了一组测试图像和视频。您可以访问内容凭证网站来查看这些图像的凭证、创建历史记录和编辑历史记录。

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

Content Credentials 网站揭示了 C2PA 图像的完整背景

自然限制

Natural limitations

不幸的是,图像的数字签名无法在一夜之间解决假货问题。毕竟,网上已经有数十亿张图像没有经过任何人签名,也不会传播到任何地方。然而,随着越来越多的信誉良好的信息源转而只发布签名图像,任何没有数字签名的照片都将开始受到怀疑。带有时间戳和位置数据的真实照片和视频几乎不可能被冒充为其他东西,而且人工智能生成的内容将更容易被发现。

文章来源:卡巴斯基网络安全大百科

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?
AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

理事服务 |  会员服务  

      请联系:13810321968(微信同号)     

     商务合作 |  开白转载 | 媒体交流 | 文章投稿       

     请联系:13810321968(微信同号) 

AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?
AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?

原文始发于微信公众号(关键信息基础设施安全保护联盟):AI深度伪造颠覆“有图有真相”,我们如何辨别照片或视频的真假?

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年10月29日13:24:03
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   AI深度伪造颠覆有图有真相,我们如何辨别照片或视频的真假?https://cn-sec.com/archives/3327264.html

发表评论

匿名网友 填写信息