民用人工智能已经被坏人滥用

admin 2022年8月29日09:27:06评论45 views字数 2901阅读9分40秒阅读模式

民用人工智能已经被坏人滥用


去年 3 月,一组研究人员因透露他们开发了一种人工智能 (AI) 工具而成为头条新闻,该工具可以发明潜在的新化学武器。更重要的是,它可以以令人难以置信的速度做到这一点:人工智能工具只用了六个小时就提出了 40,000 个建议。


然而,故事中最令人担忧的部分是开发该人工智能工具是多么容易。研究人员简单地采用了一种机器学习模型,该模型通常用于检查新药的毒性。他们没有预测新药的成分是否有危险,而是使用生成模型和毒性数据集设计新的毒性分子。


这篇论文并不是在宣传人工智能的非法使用(化学武器在 1997 年被禁止)。相反,作者想展示人工智能的和平应用是多么容易被恶意行为者滥用——无论是流氓国家、非国家武装团体、犯罪组织还是独狼。恶意行为者对人工智能的利用会给国际和平与安全带来严重且未被充分理解的风险。


许多“负责任的人工智能”计划都有相同的盲点。他们无视国际和平与安全。


由于军备控制专家和科学家之间数十年的合作,生命科学领域的工作人员已经很好地解决了滥用和平研究的问题。


人工智能社区则不能这样说,它已经过时了。


我们与两个非常重视这一事业的组织合作,即联合国裁军事务厅斯德哥尔摩国际和平研究所。我们正试图通过提高认识能力建设活动,将我们的信息传达给更广泛的人工智能社区,尤其是未来几代人工智能从业者。


负责任的人工智能的盲点


人工智能可以改善社会和人类生活的许多方面,但与许多尖端技术一样,它也会产生实际问题,这取决于它的开发和使用方式。这些问题包括失业算法歧视和许多其他可能性。在过去十年中,人工智能社区越来越意识到需要更负责任地进行创新。今天,不乏“负责任的人工智能”倡议——据某些说法,超过 150项——旨在为人工智能从业者提供道德指导,帮助他们预见和减轻工作可能产生的负面影响。


问题是这些举措中的绝大多数都有相同的盲点。他们讨论了人工智能如何影响医疗保健、教育、流动性、就业和刑事司法等领域,但他们忽视了国际和平与安全。人工智能的和平应用可能被滥用于政治虚假信息、网络攻击恐怖主义或军事行动的风险很少被考虑,除非非常肤浅。


这是关于负责任人工智能的对话中必须填补的一个主要空白。


大多数参与负责任的人工智能对话的参与者都在为纯粹的民用最终用途而工作,因此他们忽视和平与安全也许并不奇怪。从潜在的侵犯人权到人工智能不断增长的碳足迹,民用领域已经有很多值得担心的事情。


人工智能从业者可能认为和平与安全风险不是他们的问题,而是民族国家的问题。由于声誉问题,或者担心无意中增加了滥用的可能性,他们也可能不愿讨论与其工作或产品相关的此类风险。


民用人工智能的滥用已经在发生


然而,民用人工智能技术的转移和滥用并不是人工智能社区可以或应该回避的问题。存在非常切实和直接的风险。


长期以来,民用技术一直是恶意行为者的首选,因为滥用此类技术通常比设计或访问军用级技术更便宜、更容易。不乏现实生活中的例子,一个著名的例子是伊斯兰国使用业余爱好无人机作为爆炸装置和工具来拍摄宣传片的镜头。


民用技术的滥用不是一个国家可以轻松解决的问题,或者纯粹通过政府间进程。然而,人工智能研究人员可以成为第一道防线,因为他们最有能力评估他们的工作如何被滥用。


人工智能是一种无形且广泛可用的技术,具有巨大的普遍使用潜力,这一事实使得滥用风险特别严重。在核电技术或生命科学领域,开发和武器化技术所需的人类专业知识和物质资源通常难以获得。在人工智能领域没有这样的障碍。只需点击几下,您所需要的一切。


正如化学武器论文背后的一位研究人员在一次采访中解释的那样:“你可以从任何地方下载毒性数据集。如果你有人知道如何用 Python 编写代码并且有一些机器学习能力,那么在一个美好的周末工作中,他们可以构建类似这种由有毒数据集驱动的生成模型。”


我们已经看到了和平人工智能武器化的例子。例如,使用deepfakes表明风险是真实存在的,其后果可能是深远的。在Ian Goodfellow和他的同事设计第一个生成对抗网络不到 10 年之后,GAN 已成为网络攻击虚假信息的首选工具——而现在,这是第一次在战争中使用。在当前的乌克兰战争期间,社交媒体上出现了一段深度伪造视频,该视频似乎显示乌克兰总统 Volodymyr Zelenskyy告诉他的部队投降


民用人工智能创新的武器化也是自主武器系统 (AWS) 最有可能实现的方式之一。非国家行为者可以利用计算机视觉和自主导航方面的进步,将业余爱好的无人机变成自制的 AWS。这些不仅可能具有高度致命性和破坏性(如生命未来研究所的宣传视频Slaughterbots中所述),而且很可能违反国际法、道德原则和商定的安全和安保标准。


民族国家无法单独解决人工智能风险


人工智能社区应该参与的另一个原因是,民用产品的滥用不是一个国家可以轻松解决的问题,或者纯粹通过政府间进程。这不仅是因为政府官员可能缺乏检测和监测令人担忧的技术发展的专业知识。更重要的是,各州引入监管措施的过程通常是高度政治化的,可能难以跟上人工智能技术的发展速度。


此外,国家和政府间进程可用于解决滥用民用技术的工具,例如严格的出口管制安全认证标准,也可能危及当前人工智能创新生态系统的开放性。从这个角度来看,人工智能从业者不仅可以发挥关键作用,而且发挥它也非常符合他们的利益。


人工智能研究人员可以成为第一道防线,因为他们最有能力评估他们的工作如何被滥用。他们可以在问题发生之前识别并尝试缓解问题——不仅通过设计选择,还通过在研究和创新产品的传播和交易中的自我约束。


例如,人工智能研究人员可能决定不分享他们研究的具体细节(重新利用药物测试人工智能的研究人员没有透露他们实验的细节),而开发人工智能产品的公司可能决定不开发某些功能,限制对可能被恶意使用的代码的访问,或添加设计的安全措施,例如防篡改软件、地理围栏和远程开关。或者他们可以通过使用基于令牌的身份验证来应用了解您的客户的原则。


这些措施当然不会完全消除误用的风险——它们也可能有缺点——但它们至少可以帮助减少它们。这些措施还可以帮助避免潜在的政府限制,例如数据共享,这可能会破坏该领域的开放性并阻碍技术进步。


负责任的人工智能运动拥有可以提供帮助的工具


为了应对滥用人工智能给和平与安全带来的风险,人工智能从业者不必进一步研究现有推荐的负责任创新实践和工具。无需开发全新的工具包或一套原则。重要的是定期考虑和平与安全风险,特别是在技术影响评估中。适当的风险缓解措施将从那里开始。


负责任的人工智能创新并不是应对人工智能进步带来的所有社会挑战的灵丹妙药。然而,这是一种有用且急需的方法,尤其是在涉及和平与安全风险时。它提供了一种自下而上的风险识别方法,在这种情况下,人工智能的多用途性质使得自上而下的治理方法难以开发和实施,并且可能不利于该领域的进展。


当然,期望人工智能从业者独自预见并解决他们的工作可能有害的所有可能性是不公平的。政府和政府间进程是绝对必要的,但和平与安全,以及我们所有的安全,最好由人工智能社区参与。人工智能从业者可以采取的步骤不需要很大,但它们可以发挥作用。


民用人工智能已经被坏人滥用


原文始发于微信公众号(网络研究院):民用人工智能已经被坏人滥用

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2022年8月29日09:27:06
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   民用人工智能已经被坏人滥用http://cn-sec.com/archives/1260438.html

发表评论

匿名网友 填写信息