人工智能对于核战争风险意味几何?

  • A+
所属分类:云安全

   人工智能对于核战争风险意味几何?


   今世界的核平衡依赖于几个不可持久的条件计算能力和数据可用性的进步,让机器能够完成一度需要人类参与或被视为不可能的任务。这种人工智能 (AI) 也许会带来新的军事力量,从而引发军备竞赛,抑或增加国家在危机中有意或无意间动用核武的可能性。兰德公司召开了一系列研讨会,集众多人工智能与核安全领域的专家于一堂,共同探讨在2040年之前人工智能会如何演变成一股稳定或不稳定的力量。

   人工智能对核战略的影响,既取决于敌方对其军事应用能力的认知,也同样取决于其实际能力。例如,一个国家要发展出定位和锁定敌方所有核武发射器的能力, 在技术上极具挑战性,但这项能力却能产生出巨大的战略优势。因此,各国都垂涎三尺,不顾一切技术困难追求这项能力,即使这样做有可能惊动对手,增加冲突的可能性。从技术上说,高级人工智能仍难以克服源自数据局限和信息论论证的障碍,但跟踪和瞄准系统只需要被视为具备这项能力,便可产生破坏稳定的作用。一种近乎实现的能力,也许比已经实现的能力更加危险。

人工智能的发展轨迹,连同辅助信息技术和其他方面的进步,将对未来25年的核安全问题产生重大影响。人工智能技术或延续近年来快速进化的趋势,抑或在现有技术成熟后趋于稳定。一些理论家认为,机器在未来某个时候可能会发展出提高自身智力的能力,形成“超级智能”,具备人类无法理解或控制的能力,但对于人工智能的进化之路包括形成超级智能的可能性仍然众说纷纭。有人设想取得初步突破之后会遭遇挫折;有人则猜测会走循序渐进的道路。

上述两种极端情况与核战争的前途关系不大。发展停滞(又称为人工智能的寒冬只会导致当前核安全环境的微末变化。若超级智能成为现实,人工智能将令整个世界面目全非,在此过程中人类或将得到挽救或将走向毁灭。另外两种情况下,人工智能的发展取得巨大进步,实现许多新的功能,但至少在某些方面仍逊于人类、容易出错,这似乎得到专家群体的更多认可,但对于这些功能给国家安全带来的影响,专家们莫衷一是。有些“ 乐观派”倾向认为,要达到能够执行某些足以打破核平衡的任务的人工智能是非常困难的,不大可能实现。相反,“谨慎派”则认为,人工智能能够执行某些任务,但不应该用于核战争的任何领域。第三种属于“颠覆派”, 他们强调敌方篡改、误导、牵制或以其他方式欺骗人工智能的能力,这本身也可以起到稳定或打破稳定的作用。


研讨会上讨论了一个例子:作为决策支持系统的人工智能。即使不直接连接到核武发射器上,但人工智能仍可以就冲突升级问题为人类提供意见。鉴于人工智能在日益复杂和不甚明确的任务中取得持续进步,我们有理由相信,这项能力——至少在决策过程中的某些环节能够在2040年前实现。谨慎派担心,这项能力可能在还不可靠或尚不清楚其局限性的情况下就派上用场。然而, 如果人工智能顾问经证实是有效的,则可以减小人为错误的可能性,做到彻底透明化,从而降低误判风险,提升稳定性。但许多专家担心,敌方会通过黑客攻击、破坏训练数据或操纵输入因素等手段,颠覆本领高强的人工智能。

在未来几十年维持战略稳定,需要在多极世界背景下重新审视威慑理论的理论基础。要做到有效的威慑,即使不直接连接到核武发射器,人工智能仍可以就冲突升级问题为人类提供意见。

 我们必须抗衡受人工智能进步所推动而快速迭代的各种能力。关键性的考量包括:实际能力的影响,相关能力的可预见潜能(不论是否存在),以及这些能力过早应用或出错性(特别是因敌对行动所致)。只要谨慎行事和一定的前瞻性思考,这些风险是有可能识别和减轻的。

 未来核平衡重大变化的线索

2015年11月,俄罗斯透露正在研发终极“杀手机器人”:核动力海底无人机,用于运载大型热核弹头。俄罗斯电视台在一次“意外”泄密中透露了这种可怕武器的存在, 而大多数西方观察家认定这是故意为之。电视镜头有一瞬间停留在一张给总统普京的看似保密的简报幻灯片上,内容描述“海洋多用途系统斯塔图斯- 6”。斯塔图斯-6外观像巨型鱼雷,由小型核反应堆提供动力(见第3 页的图片),其巡航速度和范围在海洋里几无敌手,能够突破敌人的防御(Sutyagin,2016年)。假设美国先发袭击克里姆林宫,这部无人机将从俄罗斯北极地区的潜艇发射,以大约100公里的时速穿越海洋,同时自动避开反潜防御系统,向美国海岸线投下致命的弹头。由于在水下通信困难,无人机需要具备一定程度的自主能力,而正是由于人工智能的进步,这直到最近才有可能实现。斯塔图斯-6不仅是人工智能的实际应用,还反映了人工智能对核威慑的潜在影响——利用报复威胁来阻拦对方攻击一个国家或其盟国。在美国的核打击瞄准能力和导弹防御系统面前,俄罗斯报复力量的切实有效性堪忧,因此,核武无人机是俄罗斯领导人心底忧虑的最新体现。现今的俄罗斯无法抗衡这些军事力量,因而希望利用人工智能确保其威慑力量的切实有效性。克里姆林宫持续探索将人工智能诉诸于军事用途的创新方式, 该计划有可能在2040年之前取得成功。这符合其数十年来推行的战略,即针对美国的优越军事力量发展“非对称性应对措施”。俄罗斯的海底“末日无人机”只是迄今为止这种现象最极端的例子。


核威慑在2040年是否会被认可?斯塔图斯-6是一个严厉的警告,如果技术进步影响到核大国的安全感,它们可能会试图利用前所未见的新武器系统和军事姿态

 

全部内容在知识星球



本期编辑:SXS

如有侵权,请联系管理员删除

通过“情报学院”知识星球可以阅读该资料的全都内容👇


人工智能对于核战争风险意味几何?


人工智能对于核战争风险意味几何?




本文始发于微信公众号(情报分析师):人工智能对于核战争风险意味几何?

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: