人工智能安全的隐忧:深度伪造技术的挑战与应对(下篇)

admin 2024年3月14日13:21:39评论9 views字数 2483阅读8分16秒阅读模式

深度伪造技术的危害

深度合成技术的滥用和恶意使用不仅带来虚假不良信息、侵犯个人隐私等问题,也给个人合法权益、社会稳定和国家安全等带来诸多安全风险和挑战,主要体现在以下三方面:
1、侵犯个人信息隐私
随着深度伪造技术的开源、普及和各类APP的增多,不法分子利用深度伪造技术制作虚假视频、图像,可能被用于诬陷、诽谤和报复他人,侵犯公民的个人肖像权、名誉权和隐私权。深度伪造人脸应用也可能对基于人脸的各类认证和识别系统提出挑战,对抗攻击人脸识别认证系统,造成安全隐患。色情性的深度合成视频,是深度合成技术滥用的重灾区,有报告显示,全网流传的深度伪造视频中,有超过96%属于色情性的深度合成视频。
2、影响社会安全稳定
深度伪造技术的滥用也会对社会伦理道德、社会经济等方面带来威胁。有案件表明,不法分子利用人工智能技术变声受害者熟悉的人员,成功实施诈骗。2019年3月,《华尔街日报》报道,有犯罪分子使用深度伪造技术成功模仿英国某能源公司在德国母公司CEO的声音,诈骗220,000欧元。深度伪造还可能会被用来制造虚假的经济类新闻,给金融市场造成混乱。不法分子也可能利用该技术制作类似杀人、绑架、爆炸等严重暴力犯罪的音频视频,敲诈勒索,扰乱社会治安,对社会稳定构成严重威胁。深度视频图像伪造技术的出现,需要重新审视图片视频类电子证据的司法有效性,对法律的公正性也提出了极大挑战。
3、危害国家安全
深度伪造技术若被滥用,极有可能为国内外分裂、恐怖势力提供工具,用于抹黑国家领导人,煽动恐怖和暴力情绪,破坏国家政治稳定。通过深度伪造生成一些恶搞政治人物的虚假视频,会误导舆论、扰乱社会秩序,甚至干预政府选举、颠覆国家政权,对国家甚至世界安全构成威胁。例如,2018年特朗普宣布美国退出《巴黎气候协定》后不久,比利时某政党制作了一段特朗普呼吁比利时仿效美国的虚假讲话视频。尽管视频末尾注明了“这不是真的特朗普”,但该视频仍在比利时引起轩然大波。CNBC网站在其报道中曾称,Deepfakes将成为 “2020年美国总统选举中的大事件”,Deepfakes视频将在2020年的美国大选中,掀起强大的血雨腥风。

挑战及应对建议

随着深度合成技术的进化,虚假音视频图像,尤其是虚假换脸视频已经在互联网上广泛传播并造成一些不良影响,深度合成音视频内容的检测和溯源面临巨大挑战。深伪音视频图像生成方法开源代码和工具非常多,生成伪造技术唾手可得,容易修改获得各类变种方法。因此,应该从前沿技术研究、立法律规范和实际应用几个方面对深度伪造技术的应用进行应对。
1、技术应对,安全防御
首先应该重视加强可信数字内容体系建设,利用数字水印、对抗样本、区块链等技术,构建针对互联网数字内容的可信体系,保证数字媒体内容从生产到消费全过程的可溯源、可追踪,抗篡改。
其次应该研究高效、准确的深度伪造内容检测技术。一方面, 探索多方位特征融合提取算法,如在音频方面可以结合语速、声纹、频率分布、音素的过渡与连接等特征的融合,在视觉方面综合使用面部表情动作、五官位置、纹理特征、眨眼和心跳频率、肤色或光照变化以及脸部位置或轮廓变化等特征,进而获取多角度深度融合特征。另一方面,研究能够应对未知类型深度伪造的可泛化虚假音视频检测与防御方法。追踪研究不同的深度伪造生成方法,寻找伪造的特征差异,融合多种网络模型提取不同方法的差异性特征,提出鲁棒性更强的检测方法。同时,在检测模型训练过程中引入对抗攻击技术,进一步提高算法的鲁棒性和抵御对抗样本攻击的能力。深度伪造技术和检测技术发展是一个不断迭代博弈的过程,因此,需要重点研究各类深度伪造生成技术,构建丰富的数据集,基于伪造生成模型训练对应的检测模型,提升深度伪造音视频图像检测方法的泛化能力。
再次应重视加强各类AI系统安全性建设,充分利用知识蒸馏、对抗性训练、对抗样本检测等技术手段,增强对抗样本鲁棒性,强化AI系统抵御对抗攻击的能力。应结合多种判别手段,推动发展对抗样本智能筛查、拦截技术,使攻击过程“无所遁形”。
2、规范立法,制定标准
深度伪造生成技术的迅速发展也给当前的法律法规、社会秩序和道德伦理带来前所未有的挑战,仅仅依靠技术手段不能完全解决深度伪造技术不合理使用问题,需要从国家层面建立相关法律,完善相关政策制度,制定深度伪造相关产业标准、技术标准和行业规范,将深度伪造装进制度的“笼子”里,保证人工智能技术良性健康发展。
目前,各国针对深度伪造的监管问题均已出台了相关的政策法规,欧盟出台《人工智能道德准则》, 将隐私和数据管理作为可信赖人工智能需要满足的七个要素之一。美国已生效《恶意禁令法案》、《2019年深度伪造报告法案》, 以防止深度伪造内容干扰大选,美国加州颁布《AB 730》和《AB 602》法令, 禁止使用深度伪造技术干预选举和制作色情内容。我国国家互联网信息办公室于2019年12月发布的《网络信息内容生态治理规定》,要求网络音视频信息服务提供者,应当具有与新技术新应用发展相适应的安全可控的技术保障,部署违法违规音视频和非真实音视频鉴别技术。明确网络信息内容服务使用者和网络信息内容生产者、网络信息内容服务平台不得开展网络暴力、人肉搜索、深度伪造、流量造假和操纵账号等违法活动,不得利用深度合成等从事法律禁止的活动,明确要求对非真实的音视频信息进行标识。规定在强调底线的同时,也表示允许和鼓励深度合成等新技术发展,结合技术进行一定的治理,充分发挥掌握技术的平台企业的主观能动性,实现共建、共治、共享的治理理念。
3、伦理约束,AI向善
人工智能最大的弱点是缺乏直接的感受能力,在价值判断上存在弱点。国家有关部门、行业组织应当制定人工智能伦理原则和框架并落实到人工智能研发应用中,强化科研人员科技伦理与法律培训,引导全社会正确认识和应用人工智能,确保人工智能健康发展的方向以造福于人类为宗旨。同时加强国际交流与对话,积极参与制定全球人工智能伦理规则。
作者:赵建强,张辉极,杜新胜,张光斌

原文始发于微信公众号(安全牛):人工智能安全的隐忧:深度伪造技术的挑战与应对(下篇)

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2024年3月14日13:21:39
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   人工智能安全的隐忧:深度伪造技术的挑战与应对(下篇)https://cn-sec.com/archives/2090108.html

发表评论

匿名网友 填写信息