我认为,人们经常低估了人工智能(AI)积极影响的潜力,就像他们经常高估了风险一样。在这篇论文中,我试图描绘出如果一切顺利,拥有强大AI的世界可能会是什么样子。当然,没有人能确切预知未来,尤其是强大AI的影响,因此我的猜测可能大部分细节都是错误的。但我至少希望我的猜测是有教育性和有用的,即使大部分细节最终被证明是错误的。我提供很多细节的主要原因是,我认为具体的视觉比高度模糊和抽象的更能推进讨论。
首先,我想简要解释为什么我和Anthropic没有太多谈论强大AI的积极方面,以及为什么我们可能继续主要讨论风险。特别是,我出于以下愿望做出这个选择:
-
最大化影响力。AI技术的基本发展和许多(不是全部)益处似乎是不可避免的(除非风险破坏了一切),并且基本上由强大的市场力量驱动。另一方面,风险不是预先确定的,我们的行动可以极大地改变它们的可能性。 -
避免宣传的感觉。AI公司谈论AI的所有惊人益处可能会让人觉得像是宣传者,或者好像他们试图分散人们对负面影响的注意力。我还认为,作为原则,花费太多时间“谈论你的书”对你的精神是有害的。 -
避免狂妄自大。我经常对许多AI风险公众人物(更不用说AI公司领导人)谈论后AGI世界的方式感到反感,好像他们的使命是像先知带领人民走向救赎一样单方面地实现它。我认为,将公司视为单方面塑造世界是危险的,将实际技术目标基本上以宗教术语看待也是危险的。 -
避免“科幻”包袱。尽管我认为大多数人低估了强大AI的积极面,但讨论激进AI未来的小圈子经常以过度“科幻”的语气进行(例如,上传意识、太空探索或一般的赛博朋克氛围)。我认为这导致人们不太认真对待这些主张,并且赋予它们一种不切实际的幻想。需要明确的是,问题不在于所描述的技术是否可能或可能——主要论文在细节上讨论了这一点——更多是“氛围”暗示性地走私了大量文化包袱和关于什么是理想未来、各种社会问题将如何发展的未声明假设等。结果往往读起来像是为一个狭窄的亚文化群体准备的幻想,同时对大多数人来说是令人不快的。
尽管有上述所有担忧,我真的认为讨论一个拥有强大AI的好世界可能是什么样子非常重要,同时尽我们最大的努力避免上述陷阱。事实上,我认为有一个真正鼓舞人心的未来愿景是至关重要的,而不仅仅是一个灭火计划。强大AI的许多影响是对抗性的或危险的,但在这一切结束时,必须有一些我们为之奋斗的东西,有一些积极的总和结果,让每个人都更好,有一些东西可以激励人们超越他们的争吵,面对未来的挑战。恐惧是一种动机,但这还不够:我们还需要希望。
强大AI的积极应用清单非常长(包括机器人技术、制造业、能源等等),但我要专注于我认为最有潜力直接提高人类生活质量的几个领域。我最兴奋的五个类别是:
-
生物学和身体健康 -
神经科学和心理健康 -
经济发展和贫困 -
和平与治理 -
工作和意义
我的预测将被大多数人认为是激进的(除了科幻“奇点”愿景),但我是真诚和认真的。我说的一切可能很容易就错了(如上所述),但我已经至少尝试将我的观点建立在半分析性的评估上,即各个领域的进步可能加快多少,以及这可能意味着什么。我有幸在生物学和神经科学领域有专业经验,并且是经济发展领域的知情业余爱好者,但我肯定会犯很多错误。写这篇论文让我意识到,召集一群领域专家(在生物学、经济学、国际关系等领域)来撰写一个更好、更知情的版本将是非常有价值的。最好将我的努力视为该小组的起点。
为了使整篇论文更加精确和有根据,明确我们所说的强大AI(即5-10年倒计时开始的阈值)以及一旦它出现时对其影响的框架是有帮助的。
强大的AI(我不喜欢AGI这个术语)将是什么样子,以及它何时(或是否)会到来,本身就是一个巨大的话题。这是一个我已经公开讨论过的话题,也可能在某个时候单独写一篇论文。显然,许多人怀疑强大的AI会很快被构建,一些人甚至怀疑它是否会被构建。我认为它可能早在2026年就会到来
,尽管也有它可能需要更长的时间。但就这篇论文而言,我想将这些问题放在一边,假设它会在合理的时间内到来,并专注于那之后的5-10年会发生什么。我还希望假设这样一个系统的样子,它的能力是什么,以及它如何互动,尽管在这方面存在分歧的余地。
通过《强大的AI》,我心目中的是一个AI模型——可能与今天的LLM在形式上相似,尽管它可能基于不同的架构,可能涉及几个相互作用的模型,并且可能以不同的方式进行训练——具有以下属性:
-
就纯粹的智力而言,它比大多数相关领域的诺贝尔奖获得者更聪明——生物学、编程、数学、工程、写作等。这意味着它可以证明未解决的数学定理,写出非常好的小说,从头开始编写困难的代码库等。 -
除了作为一个“你与之交谈的智能事物”之外,它还拥有人类虚拟工作时可用的所有“接口”,包括文本、音频、视频、鼠标和键盘控制以及互联网访问。它可以执行任何由这个接口启用的操作、通信或远程操作,包括在互联网上采取行动,给人类提供或接受方向,订购材料,指导实验,观看视频,制作视频等。它再次以超过世界上最能干人类的技能执行所有这些任务。 -
它不仅仅是被动地回答问题;相反,它可以被赋予需要数小时、数天或数周才能完成的任务,然后像一个聪明的员工一样自主地去做这些任务,在必要时请求澄清。 -
它没有物理实体(除了生活在计算机屏幕上),但它可以通过计算机控制现有的物理工具、机器人或实验室设备;理论上,它甚至可以为自己设计机器人或设备。 -
用于训练模型的资源可以被重新用于运行数百万实例(这与2027年左右的预期集群大小相匹配),并且模型可以以大约10倍-100倍于人类的速度吸收信息和生成行动。然而,它可能受到物理世界响应时间或与之交互的软件的限制。 -
这些百万副本中的每一个都可以独立地从事无关的任务,或者如果需要,可以像人类一样协作,也许不同的子群体可以特别擅长特定任务。
我们可以将此总结为“数据中心的天才国家”。
显然,这样的实体将能够非常快速地解决非常困难的问题,但要弄清楚它有多快并不容易。两个“极端”的立场在我看来都是错误的。首先,你可能会认为世界将在几秒钟或几天内瞬间转变(“奇点”),因为更高的智力立即建立在自身之上,并立即解决每一个可能的科学、工程和操作任务。这个问题在于,实际上存在物理和实际限制,例如构建硬件或进行生物实验。即使是一个新的天才国家也会遇到这些限制。智力可能非常强大,但它不是魔法仙尘。
其次,相反,你可能会相信技术进步是饱和的,或者受到现实世界数据或社会因素的速率限制,更好的人类智能将增加很少。在我看来,这同样难以置信——我能想到数百个科学或甚至是社会问题,一群真正聪明的人将极大地加速进步,特别是如果他们不仅限于分析,还可以在现实世界中让事情发生(我们假设的天才国家可以,包括指导或协助人类团队)。
我认为真相可能是这两种极端情况的混合体,这种情况因任务和领域而异,非常微妙。我认为我们需要新的框架来以一种生产性的方式思考这些细节。
经济学家经常谈论“生产要素”:像劳动力、土地和资本这样的事物。“劳动力/土地/资本的边际回报”这个短语捕捉了这样一个想法,即在给定情况下,一个给定因素可能或不可能是限制因素——例如,空军需要飞机和飞行员,如果你没有飞机,雇佣更多的飞行员就没有太多帮助。我相信,在AI时代,我们应该谈论《智力的边际回报》,并试图弄清楚其他因素是什么,这些因素与智力互补,并在智力非常高时成为限制因素。我们不习惯以这种方式思考——问“变得更聪明对这个任务有多大帮助,以及在什么时间尺度上?”——但这似乎是概念化一个拥有非常强大AI的世界的正确方式。
我猜测的一份限制或与智力互补的因素清单包括:
-
外部世界的速度。智能代理需要与世界互动才能完成事情,并且也需要学习。但世界只有这么快。细胞和动物以固定速度运行,因此对它们的实验需要一定的时间,这可能是不可减少的。同样适用于硬件、材料科学、与人交流的任何事情,甚至我们现有的软件基础设施。此外,在科学中,许多实验通常需要顺序进行,每个实验都从前一个实验中学习或建立。所有这些都意味着完成一个主要项目——例如开发癌症治疗方法——的速度可能有一个不可减少的最低限度,即使智力继续增加,也无法进一步减少。 -
对数据的需求。有时原始数据缺乏,缺乏数据时更多的智力也没有帮助。今天的粒子物理学家非常聪明,已经开发了一系列理论,但由于粒子加速器数据非常有限,缺乏选择它们之间的数据。目前尚不清楚,如果他们拥有超智能,他们会做得大大更好——也许通过加速建造一个更大的加速器。 -
固有的复杂性。有些事物本质上是不可预测的或混乱的,即使是最强大的AI也无法比当今的人类或计算机更好地预测或解开它们。例如,即使是非常强大的AI也只能在一般情况9下对混沌系统中的预测稍微提前一点,与当今的人类和计算机相比。 -
来自人类的限制。许多事情不能在不违反法律、伤害人类或扰乱社会的情况下完成。一个对齐的AI不会想做这些事情(如果我们有一个未对齐的AI,我们又回到了谈论风险)。许多人类社会结构效率低下甚至积极有害,但很难在尊重法律要求的临床试验、人们改变习惯的意愿或政府行为等约束的同时进行改变。包括核能、超音速飞行,甚至电梯在内的技术进步,在技术方面运作良好,但其影响因法规或误解的恐惧而大大减少。 -
物理定律。这是第一点的一个更明显的版本。有一些物理定律似乎是不可打破的。不可能比光速旅行得更快。布丁不会自动搅拌。芯片每平方厘米的晶体管数量只能有这么多在它们变得不可靠之前。计算需要每个比特的最小能量被擦除,限制了世界上计算的密度。
还有进一步的区别是基于《时间尺度》。短期内难以约束的事物在长期内可能变得更加容易受到智力的影响。例如,智力可能被用来开发一个新的实验范式,允许我们在体外学习以前需要活体动物实验的知识,或者建造所需的工具来收集新数据(例如更大的粒子加速器),或者(在伦理限制内)找到绕过基于人类约束的方法(例如帮助改进临床试验系统,帮助创建新的管辖区域,其中临床试验的官僚作风较少,或者改进科学本身,使人类临床试验变得不那么必要或更便宜)。
因此,我们应该想象一个画面,其中智力最初受到其他生产要素的严重瓶颈,但随着时间的推移,智力本身越来越多地绕过其他因素,即使它们从未完全消失(有些事物,如物理定律,是绝对的)10。关键问题是一切都发生得有多快,以及以什么顺序发生。
考虑到上述框架,我将尝试回答引言中提到的五个领域的问题。
1. 生物学和健康
生物学可能是科学进步最有潜力直接和明确提高人类生活质量的领域。在上个世纪,一些最古老的人类疾病(如天花)终于被征服,但还有更多的疾病仍然存在,战胜它们将是一个巨大的人道主义成就。甚至超越治愈疾病,生物学科学原则上可以提高人类健康的《基线》质量,通过延长健康人类寿命,增加对我们自己生物过程的控制和自由,并解决我们目前认为是人类条件不可改变的部分的日常问题。
在上一节的“限制因素”语言中,直接应用智力于生物学的主要挑战是数据、物理世界的速度和固有复杂性(实际上,所有三个都相互关联)。人类限制在后期的临床试验阶段也发挥作用。让我们一一解决这些问题。
对细胞、动物甚至化学过程的实验受到物理世界速度的限制:许多生物学协议涉及培养细菌或其他细胞,或者简单地等待化学反应发生,有时这可能需要几天甚至几周的时间,没有明显的方法可以加速。动物实验可能需要数月(甚至更长时间),人类实验通常需要数年(甚至数十年用于长期结果研究)。与此有些相关的是,数据通常缺乏——不是数量,而是质量:总是缺乏清晰、明确的数据,这些数据将感兴趣的生物效应与其他一万件正在发生的事情隔离开来,或者在因果关系中介入某个过程,或者直接测量某种效应(而不是以某种间接或嘈杂的方式推断其后果)。即使是大规模的定量分子数据,如我在使用质谱技术工作时收集的蛋白质组学数据,也是嘈杂的,遗漏了很多(这些蛋白质在哪些类型的细胞中?细胞的哪一部分?在细胞周期的哪个阶段?)。
数据问题的这部分责任在于固有的复杂性:如果你曾经看过一个显示人类代谢生物化学的图表,你就会知道,隔离这个复杂系统的任何部分的效果,甚至更难以精确或可预测的方式干预系统。最后,不仅仅是在人类身上进行实验所需的固有时间,实际的临床试验涉及很多官僚主义和监管要求,(包括我在内,许多人认为)这些要求增加了不必要的额外时间和延迟。
鉴于此,许多生物学家一直对AI和“大数据”的价值持怀疑态度。历史上,数学家、计算机科学家和物理学家在过去30年中将他们的技能应用于生物学,取得了相当的成功,但没有实现最初希望的真正变革性影响。一些怀疑已经因重大和革命性的突破而减少,如AlphaFold和AlphaProteo11,但仍有一种观念,即AI(并且将继续)只能在有限的情况下有用。一个常见的表述是“AI可以更好地分析你的数据,但它不能产生更多的数据或提高数据的质量。垃圾进,垃圾出”。
但我认为这种悲观的观点是以错误的方式思考AI。如果我们对AI进步的核心假设是正确的,那么思考AI的正确方式不是将其视为数据分析方法,而是将其视为一个虚拟生物学家,执行生物学家所做的所有任务,包括设计和在现实世界中运行实验(通过控制实验室机器人或简单地告诉人类应该运行哪些实验——就像主要研究员对他们的研究生一样),发明新的生物学方法或测量技术,等等。正是通过加快《整个研究过程》,AI才能真正加速生物学。我想重复这一点,因为这是我谈论AI转变生物学能力时最常出现的误解:我不是在谈论AI作为仅用于数据分析的工具。根据这篇论文开头对强大AI的定义,我谈论的是使用AI来执行、指导和改进生物学家所做的几乎所有事情。
要更具体地说,我认为加速可能来自哪里,生物学的进步中有相当大一部分来自一个真正微小的发现数量,通常与允许对生物系统进行精确但通用或可编程干预的广泛测量工具或技术有关12。这些发现可能是每年大约1个,并且集体它们可以说推动了超过50%的生物学进步。这些发现之所以如此强大,正是因为它们削减了固有的复杂性和数据限制,直接增加了我们对生物过程的理解和控制。几十年来的一些发现使我们可以对我们的基本科学理解生物学,并且推动了许多最强大的治疗方法。
一些例子包括:
-
CRISPR:一种允许在活体生物中实时编辑任何基因的技术(用任何其他任意序列替换任何任意基因序列)。自从最初的技术开发以来,已经进行了持续的改进,以针对特定细胞类型,提高准确性,并减少错误基因的编辑——所有这些都是安全用于人类所需的。 -
用于观察精确级别的各种显微镜:先进的光学显微镜(具有各种荧光技术、特殊光学等),电子显微镜,原子力显微镜等。 -
基因组测序和合成,在过去几十年中成本下降了几个数量级。 -
光遗传学技术,允许你通过在它上面照射光线来让一个神经元发射。 -
mRNA疫苗,原则上允许我们设计针对任何事物的疫苗,然后迅速适应它(mRNA疫苗当然在COVID期间变得出名)。 -
如CAR-T这样的细胞疗法,允许免疫细胞从体内取出并“重新编程”以攻击,原则上,任何事情。 -
概念性洞察,如疾病细菌理论和免疫系统与癌症之间的联系13。
我之所以不厌其烦地列出所有这些技术,是因为我想就它们提出一个关键主张:我认为,如果有更多的有才华、有创造力的研究人员,这些发现的速率可以增加10倍或更多。或者换句话说,我认为智力对这些发现的回报很高,生物学和医学中的其他一切都基本上跟随它们。
我为什么这么认为?因为我们在试图确定“智力回报”时应该习惯问一些问题的答案。首先,这些发现通常由极少数研究人员做出,通常是同一批人反复做出,这表明技能而不是随机搜索(后者可能表明漫长的实验是限制因素)。其次,它们通常“本可以在几年前就被发现”,例如,CRISPR是细菌的自然免疫系统的一部分,自80年代就已经已知,但直到25年后人们才意识到它可以被重新用于一般基因编辑。它们也常常因科学界对有前景的方向缺乏支持而延迟多年(参见这篇关于mRNA疫苗发明者的简介;类似的故事比比皆是)。第三,成功的项目通常是简陋的或者是人们最初不认为有希望的附带项目,而不是大规模资助的努力。这表明,推动发现的不仅仅是大规模资源集中,而是聪明才智。
最后,尽管其中一些发现具有“序列依赖性”(你需要先做出发现A,然后才能拥有工具或知识来做出发现B)——这可能会再次造成实验延迟——但许多,也许是大多数,是独立的,意味着可以同时并行进行许多工作。这两个事实,以及我作为生物学家的一般经验,强烈暗示我,如果科学家们更聪明,更擅长在人类拥有的大量生物学知识之间建立联系(再次考虑CRISPR的例子),就有数百个这样的发现等待被做出。AlphaFold/AlphaProteo在解决比人类更有效的问题上取得了成功,尽管有数十年精心设计的物理建模,这提供了一个原则证明(虽然是在狭窄领域中使用狭窄工具),应该指明前进的方向。
因此,我猜测强大的AI至少可以将这些发现的速率提高10倍,让我们在5-10年内获得生物学和医学的下一个50-100年的进步。14为什么不提高100倍?也许这是可能的,但在这里,序列依赖性和实验时间变得重要:在1年内获得100年的进步需要很多事情第一次就做对,包括动物实验和设计显微镜或昂贵的实验室设施等事情。我实际上对(听起来可能荒谬的)想法持开放态度,即我们可以在5-10年内获得1000年的进步,但我非常怀疑我们能否在1年内获得100年的进步。另一种说法是,我认为有一个不可避免的恒定延迟:实验和硬件设计有一定的“延迟”,并且需要一定数量的“不可约”的迭代次数,以便学习无法逻辑推断的事物。但在那之上可能可以进行大规模的并行性15。
关于临床试验呢?尽管与它们相关的官僚主义和放缓有很多,但事实是,它们的大部分缓慢最终源于需要严格评估几乎不工作或模糊工作的药物。这在今天的大多数疗法中都是可悲的真相:平均癌症药物可以增加几个月的存活时间,同时具有需要仔细测量的重大副作用(阿尔茨海默病药物也有类似的故事)。这导致了巨大的研究(为了获得统计能力)和困难的权衡,监管机构通常不擅长做出决策,再次是因为官僚主义和竞争利益的复杂性。
当某事物真正有效时,它会快得多:有一个加速批准轨道,当效果大小较大时,批准的容易程度要大得多。COVID的mRNA疫苗在9个月内获得批准——比通常的速度要快得多。尽管如此,即使在这些条件下,临床试验仍然太慢——mRNA疫苗理论上应该在大约2个月内获得批准。但这些延迟(大约1年内完成药物)与大规模并行化和一些但不是太多的迭代需求(“几次尝试”)非常符合在5-10年内进行激进转变。更乐观地,AI驱动的生物学可能会通过开发更好的动物和细胞实验模型(甚至模拟)来减少临床试验中的迭代需求,这些模型在预测人类身上会发生什么方面更准确。这在开发针对衰老过程的药物时尤其重要,衰老过程需要数十年的时间,我们需要一个更快的迭代循环。
最后,在临床试验和社会障碍的话题上,值得明确指出,生物医学创新在成功部署方面有着异常《强大》的记录,与其他一些技术形成对比16。如引言中提到的,许多技术尽管在技术上运作良好,但受到社会因素的阻碍。这可能表明对AI可以完成的事情持悲观态度。但生物医学是独特的,尽管开发药物的过程过于繁琐,一旦开发出来,它们通常被成功部署和使用。
总结上述,我的基本预测是,AI驱动的生物学和医学将使我们能够在5-10年内压缩人类生物学家将在下一个50-100年内取得的进步。我将其称为“压缩的21世纪”:即在开发出强大的AI之后,我们将在几年内取得整个21世纪在生物学和医学方面的进步的概念。尽管预测强大AI在几年内能做什么仍然本质上是困难和投机的,但询问“人类在下一个100年里不借助外力能做什么?”有一些具体性。简单地看看我们在20世纪取得的成就,或者从21世纪的前20年进行外推,或者问“10个CRISPR和50个CAR-T的”会给我们带来什么,都提供了实用的、有根据的方式来估计我们可能从强大AI预期的一般水平的进步。
下面我尝试列出我们可能会预期的事情。这不是基于任何严谨的方法,几乎肯定会在细节上被证明是错误的,但它试图传达我们应该预期的一般《水平》的激进主义:
-
可靠地预防和治疗几乎所有17自然传染病。鉴于20世纪在对抗传染病方面取得了巨大进步,想象我们可以在压缩的21世纪“完成工作”并不激进。mRNA疫苗和类似技术已经指向了“针对任何事物的疫苗”。传染病是否在《完全》上从世界中被根除(而不是只是在某些地方)取决于贫困和不平等的问题,第3节将讨论这个问题。 -
消除大多数癌症。癌症死亡率在过去几十年中每年下降约2%;因此,我们正朝着在21世纪以当前人类科学的速度消除大多数癌症的轨道前进。一些亚型已经被大量治愈(例如,一些类型的白血病CAR-T疗法),我对非常有针对性的药物感到兴奋,这些药物可以在癌症初期就针对癌症,并预防它从增长。AI还将使可能的治疗方案能够非常精细地适应癌症的个体化基因组——这些在今天已经可能,但在时间和人类专业知识方面非常昂贵,AI应该使我们能够扩展。减少95%或更多的死亡率和发病率似乎是可能的。话虽如此,癌症极其多样和适应性强,可能是这些疾病中最难完全根除的。如果一些罕见的、难以治疗的恶性肿瘤持续存在,那将不足为奇。 -
非常有效的预防和有效治疗遗传病。大大提高的胚胎筛查可能使我们能够预防大多数遗传病,一些更安全、更可靠的CRISPR后代可能会治愈大多数现有人群中的遗传病。全身性疾病可能影响到大部分细胞,可能是最后的顽固分子。 -
预防阿尔茨海默病。我们一直很难弄清楚阿尔茨海默病的原因是什么(它与β淀粉样蛋白有关,但实际细节似乎是非常复杂的)。它似乎是可以用更好的测量工具解决的问题,这些工具可以隔离生物效应;因此,我对AI解决它持乐观态度。一旦我们真正了解发生了什么,很有可能它最终可以通过相对简单的干预来预防。话虽如此,已经存在的阿尔茨海默病的损害可能很难逆转。 -
改善大多数其他疾病的治疗。这是一个涵盖其他疾病(包括糖尿病、肥胖症、心脏病、自身免疫疾病等)的类别。这些疾病中的大多数似乎“比癌症和阿尔茨海默病更容易解决”,并且在许多情况下已经在急剧下降。例如,心脏病死亡率已经下降了50%以上,简单的干预措施,如GLP-1激动剂,已经在对抗肥胖和糖尿病方面取得了巨大进步。 -
生物学自由。在过去的70年里,我们在避孕、生育、体重管理等方面取得了进展,但我认为AI加速的生物学将极大地扩展可能性:体重、外貌、生殖和其他生物过程将完全受到人们的控制。我们将这些归类为《生物学自由》:每个人都应该有权选择他们想成为什么样的人,以及以最吸引他们的方式生活。当然,关于全球平等获取的问题也很重要;第3节将讨论这些问题。 -
人类寿命翻倍18。这可能看起来很激进,但预期寿命在20世纪几乎增加了2倍(从大约40岁增加到大约75岁),所以“压缩的21世纪”再次翻倍到150岁是“趋势”19。显然,减缓实际衰老过程所需的干预措施将与上个世纪防止(主要是儿童)过早死于疾病所需的干预措施不同,但变化的幅度并不是前所未有的19。具体来说,已经存在一些药物可以增加老鼠的最大寿命25-50%,副作用有限。一些动物(例如,某些类型的乌龟)已经活了200年,所以人类显然没有达到理论上的上限。至少可以说,最需要的可能是可靠的、非古德哈特可的人类衰老生物标志物,因为这将允许在实验和临床试验中快速迭代。一旦人类寿命达到150岁,我们可能能够达到“逃逸速度”,争取足够的时间,使今天活着的大多数人能够活到他们想要的时间,尽管不能保证这在生物学上是可能的。
值得看看这个清单,反思一下如果所有这些都在7-12年后实现,世界将变得多么不同(这将符合AI时间表的积极版本)。不言而喻,这将是一个难以想象的人文胜利,一次性消除了困扰人类数千年的大多数灾难。我的许多朋友和同事都有孩子,当这些孩子长大后,我希望任何提到疾病的声音对他们来说就像坏血病、天花或鼠疫对我们来说一样。那一代人还将从增加的生物学自由和自我表达中受益,并且幸运的话,也许能够活到他们想要的时间。
很难高估这些变化对每个人来说有多令人惊讶,除了预期强大AI的小圈子之外。例如,在美国,成千上万的经济学家和政策专家目前正在辩论如何保持社会保障和医疗保险的偿付能力,更广泛地说,如何降低医疗保健成本(这些成本主要是由70岁以上的人消费,尤其是那些患有绝症,如癌症的人)。如果所有这些都实现,这些计划的情况可能会根本改善20,因为工作年龄与退休人口的比例将发生巨大变化。毫无疑问,这些挑战将被其他挑战所取代,例如如何确保广泛获取新技术,但值得反思的是,即使生物学是AI成功加速的唯一领域,世界也将发生多么大的变化。
2. 神经科学和心灵
在上一节中,我专注于《身体》疾病和生物学,并没有涵盖神经科学或心理健康。但神经科学是生物学的一个子学科,心理健康至少和身体健康一样重要。事实上,如果有什么的话,心理健康更直接地影响人类的幸福感。数亿人由于成瘾、抑郁、精神分裂症、低功能自闭症、创伤后应激障碍、精神病态21或智力残疾等问题,生活质量非常低。更有数十亿人挣扎在通常被解释为这些严重临床疾病较轻微版本的日常问题中。并且像在一般生物学中一样,可能有可能超越解决问题,提高人类体验的基线质量。
我为生物学概述的基本框架同样适用于神经科学。该领域是由少数与测量或精确干预工具相关的发现推动的——在上述列表中,光遗传学是神经科学发现,最近CLARITY和扩张显微镜也是同一方向的进步,此外,许多一般细胞生物学方法直接转移到神经科学。我认为这些进步的速率将同样受到AI的加速,因此“100年的进步在5-10年内完成”的框架同样适用于神经科学,原因与生物学相同。正如在生物学中一样,20世纪神经科学的进步是巨大的——例如,直到20世纪50年代,我们甚至不了解神经元是如何或为什么发射的直到20世纪50年代。因此,似乎合理的是,AI加速的神经科学将在几年内产生快速进步。
有一件事我们应该在这幅基本画面上加上,那就是我们在过去几年中从AI中学到的一些东西可能会帮助推进神经科学,即使它继续只由人类完成。可解释性是一个明显的例子:尽管生物神经元在表面上与人工神经元的运作方式完全不同(它们通过尖峰和尖峰率进行通信,因此有一个时间元素不在人工神经元中,以及许多与细胞生理学和神经递质相关的细节大大修改了它们的操作),但“如何分布式、训练过的简单单元网络执行组合线性/非线性操作共同执行重要计算”的基本问题是一样的,我强烈怀疑单个神经元通信的细节将在大多数关于计算和电路22的有趣问题中被抽象掉。正如这个的一个例子,可解释性研究人员在AI系统中发现的计算机制最近在小鼠的大脑中被重新发现。
在人工神经网络而不是真实网络上进行实验要容易得多(后者通常需要切割动物大脑),因此可解释性可能会成为提高我们对神经科学理解的工具。此外,强大的AI本身可能会比人类更好地开发和应用这个工具。
当然,除了可解释性之外,我们从AI中学到的关于智能系统如何被《训练》的知识应该(尽管我不确定它是否已经)在神经科学中引起革命。当我在神经科学工作时,很多人专注于我现在会认为是关于学习的错误问题,因为扩展假设/苦涩教训的概念还不存在。一个简单的目标函数加上大量数据可以推动令人难以置信的复杂行为的想法,使得理解目标函数和架构偏见变得更有趣,而不是理解新兴计算的细节。我近年来没有密切关注这个领域,但我有一个模糊的感觉,计算神经科学家还没有完全吸收这个教训。我对扩展假设的态度一直是“啊哈——这是对智能如何运作和如何如此容易进化的高层次解释”,但我认为这不是普通神经科学家的观点,部分原因是扩展假设作为“智能的秘密”甚至在AI内部也没有被完全接受。
我认为神经科学家应该将这种基本见解与人类大脑的特殊性(生物物理限制、进化历史、拓扑结构、运动和感觉输入/输出的细节)结合起来,试图解决神经科学的关键难题。有些可能是,但我认为还不够,AI神经科学家将能够更有效地利用这个角度来加速进步。
我预计AI将通过四个不同的途径加速神经科学的进步,所有这些途径都可以有望一起工作,以治愈大多数精神疾病并改善功能:
-
传统的分子生物学、化学和遗传学。这基本上与第1节中的一般生物学相同,AI可能通过相同的机制加速它。有许多药物可以调节神经递质以改变大脑功能、影响警觉度或感知、改变情绪等,AI可以帮助我们发明更多。AI也可能加速对精神疾病遗传基础的研究。 -
精细的神经测量和干预。这是测量许多单个神经元或神经回路正在做什么的能力,并进行干预以改变它们的行为。光遗传学和神经探针是能够进行活体生物的测量和干预的技术,并且一些非常先进的方法(例如分子磁带,用于读取大量单个神经元的发射模式)已经提出并且原则上似乎是可能的。 -
先进的计算神经科学。如上所述,现代AI的具体见解和《整体》可能可以被成功地应用于系统神经科学的问题,包括可能揭示复杂疾病如精神病或情绪障碍的真实原因和动态。 -
行为干预。鉴于对神经科学的关注在生物学方面,我并没有太多提及它,但精神病学和心理学当然在20世纪开发了广泛的行為干预措施;AI似乎也可以加速这些措施,包括开发新方法和帮助患者坚持现有方法。更广泛地说,一个“AI教练”的概念,他总是帮助你成为最好的自己,研究你的互动并帮助你学会更有效,看起来非常promising.
我猜这四个方面的进展,就像在身体疾病方面一样,将有望在接下来的100年内导致大多数精神疾病的治愈或预防——因此可能在5-10年内完成AI加速的年份。具体来说,我猜会发生什么:
-
大多数精神疾病可能被治愈。我不是精神疾病的专家(我在神经科学上的时间是构建探针以研究小团体的神经元),但我认为像创伤后应激障碍、抑郁、精神分裂症、成瘾等疾病可以通过上述四个方向的某种组合被弄清楚并非常有效地治疗。答案可能是“有些事情在生化上出了问题”(尽管可能非常复杂)和“有些事情在神经网络上出了问题,在高层次上”。那是神经科学问题——尽管这并不否认上述行为干预的影响。用于活体人类测量和干预的工具似乎可能导致快速迭代和进步。 -
非常“结构性”的状况可能更具挑战性,但并非不可能。有一些证据表明精神病态与明显的神经解剖学差异相关——精神变态者的某些大脑区域简单地更小或发育不良。精神变态者也被认为是从很小的时候起就缺乏同情心;无论他们的大脑有什么不同,可能一直都是这样。同样可能适用于某些智力残疾,也许还有其他状况。重组大脑听起来很难,但这似乎是一个对智力有很高回报的任务。也许有办法诱导成年大脑进入早期或更有可塑性的状态,在那里它可以被重塑。我非常不确定这是多么可能,但我的直觉是对AI在这方面可以发明的东西持乐观态度。 -
有效遗传预防精神疾病似乎是可能的。大多数精神疾病部分是遗传的,全基因组关联研究开始获得牵引力,以识别相关因素,这些因素通常数量众多。可以预防这些疾病中的大多数通过胚胎筛查,类似于身体疾病的故事。不同的是,精神疾病更可能是多基因的(许多基因贡献),因此由于复杂性,不知情地选择反对与疾病相关的积极特征的风险增加了。奇怪的是,然而,近年来GWAS研究似乎表明这些相关性可能被高估了。无论如何,AI加速的神经科学可能帮助我们弄清楚这些事情。当然,胚胎筛查对复杂特征提出了许多社会问题,并将是有争议的,尽管我猜大多数人会支持筛查严重或使人虚弱的精神疾病。 -
我们不认为临床疾病的日常问题也会得到解决。我们大多数人都有日常心理问题,通常不被认为是上升到临床疾病水平的。有些人容易生气,其他人有困难集中注意力或经常困倦,有些人害怕或焦虑,或对变化反应不好。今天,已经存在药物来帮助例如警觉或专注(咖啡因、莫达非尼、利他林),但像在许多其他领域一样,可能有更多的可能性。可能会发现更多的这类药物,并且可能存在全新的干预方式,如针对性光刺激(见上文的光遗传学)或磁场。鉴于我们在20世纪开发了多少药物来调节认知功能和情绪状态,我对“压缩的21世纪”非常乐观,每个人都可以使他们的大脑表现得更好,拥有更充实的日常体验。 -
人类基线体验可以变得更好。再进一步,许多人经历过启示、创造性灵感、同情心、成就感、超越、爱、美或冥想和平的非凡时刻。这些经历的性质和频率因人而异,在不同时间也有所不同,有时可以通过各种药物触发(尽管通常有副作用)。所有这些都表明“可能经历的空间”是非常广泛的,更大的人类生活部分可以由这些非凡时刻组成。它也可能改善各种认知功能。这可能是“生物学自由”或“延长寿命”的神经科学版本。
经常在科幻小说中出现的一个话题,但我在这里故意没有讨论的是“意识上传”,捕捉人脑的模式和动态并将它们实例化为软件的想法。这个话题本身就可以成为一篇论文的主题,但可以说,虽然我认为上传原则上几乎肯定可能,但在实践中它面临着重大的技术和社会挑战,即使有强大的AI,也可能把它放在我们讨论的5-10年时间窗口之外。
总之,AI加速的神经科学可能会极大地改善治疗,甚至治愈大多数精神疾病,并大大扩展“认知和心理自由”以及人类的认知和情感能力。它将和在身体健康方面描述的改进一样激进。也许世界在外表上不会有明显的不同,但人类所经历的世界将是一个更好、更人道的地方,也是一个为自我实现提供更多机会的地方。我还怀疑改善的心理健康将缓解许多其他社会问题,包括那些看起来政治或经济的问题。
3. 经济发展和贫困
前两节是关于《开发》新技术开发疾病和改善人类生活质量。然而,从人道主义的角度来看,一个明显的问题:“每个人都能获得这些技术吗?”
开发一种疾病的治疗方法是一回事,从世界上根除这种疾病是另一回事。更广泛地说,许多现有的健康干预措施还没有在世界其他地方应用,同样,(非健康)技术改进通常也是如此。换句话说,许多地方的生活水平仍然极度贫困:人均GDP在撒哈拉以南非洲大约是2000美元,而在美国大约是75000美元。如果AI进一步增加发达国家的经济增长和生活质量,而对发展中世界几乎没有帮助,我们应该将其视为一个可怕的道德失败,以及对前两节中真正的人道主义胜利的污点。理想情况下,强大的AI应该帮助发展中世界《赶上》发达国家,即使它彻底改变了后者。
我不像我相信AI可以发明基本技术那样确信AI可以解决不平等和经济增长问题,因为技术有明显的高智力回报(包括绕过复杂性和缺乏数据的能力),而经济涉及很多来自人类的限制,以及大量的固有复杂性。我有点怀疑AI能解决著名的“社会主义计算问题”23,我不认为政府(或应该)将它们的经济政策交给这样一个实体,即使它能够这样做。还有如何说服人们接受有效但他们可能怀疑的治疗方法等问题。
发展中世界面临的挑战甚至更加复杂,因为公共和私营部门的普遍腐败。腐败创造了一个恶性循环:它加剧了贫困,而贫困反过来又孕育了更多的腐败。AI驱动的经济发展计划需要考虑腐败、薄弱的机构和其他非常人类化的挑战。
尽管如此,我还是看到了明显的理由感到乐观。疾病《已经被根除》,许多国家《已经从贫穷变为富裕》,很明显,这些任务中的决策表现出高智力回报(尽管受到人类限制和复杂性的影响)。因此,AI可能会比它们目前被做得更好。也许还有针对性干预措施可以绕过人类限制,AI可以专注于这些。更重要的是,我们必须尝试。AI公司和发达国家的政策制定者都需要尽自己的一份力量,确保发展中世界不会被遗漏;道德责任太大了。所以在这一部分,我将继续做出乐观的案例,但请记住,成功不是有保证的,取决于我们大家的共同努力。
下面我猜测在强大的AI开发后的5-10年内,我认为发展中世界可能会如何发展:
-
健康干预措施的分配。我可能最乐观的领域是将健康干预措施分配到世界各地。疾病实际上是通过自上而下的活动被根除的:天花在20世纪70年代被完全消除,脊髓灰质炎和几内亚线虫病几乎被根除,每年少于100例。数学上复杂的流行病学建模在疾病根除活动中发挥了积极作用,并且非常有可能,有比人类更聪明的AI系统可以比人类更好地完成这项工作。分配的物流也可以大大优化。我从GiveWell的早期捐赠者那里学到的一件事是,一些健康慈善机构比其他机构更有效;希望AI加速的努力会更有效。此外,一些生物学进步实际上使分配的物流变得更容易:例如,疟疾很难根除,因为它需要每次疾病合同时都进行治疗;只需要接种一次的疫苗使物流变得更简单(并且这样的疫苗目前正在开发中)。更简单的分配机制是可能的:一些疾病可能原则上可以通过针对它们的动物载体来根除,例如释放感染了一种细菌的蚊子,该细菌阻止它们的能力携带疾病(然后感染所有其他蚊子)或者简单地使用基因驱动来消灭蚊子。这需要一个或几个集中行动,而不是必须单独治疗数百万人的协调活动。总的来说,我认为5-10年是一个合理的时间表,可以让AI驱动的健康益处的很大一部分(也许50%)传播到世界上最贫穷的国家。一个好目标可能是发展中世界在强大的AI之后的5-10年内至少比今天发达国家更健康,即使它继续落后于发达国家。实现这一点当然需要在全球卫生、慈善事业、政治倡导等方面做出巨大努力,AI开发人员和政策制定者都应该帮助。
-
经济增长。发展中国家能否迅速赶上发达国家,不仅在健康方面,而且在经济各个方面?有先例:在20世纪最后几十年,几个东亚经济体实现了持续的约10%的年实际GDP增长率,使它们赶上了发达国家。人类经济规划者通过拉动几个关键杠杆(例如出口导向型增长的产业政策,抵制依赖自然资源财富的诱惑)实现了这一成功;“人工智能财政部长和中央银行家”有可能复制甚至超过这一10%的成就。一个重要的问题是,如何让发展中世界政府在尊重自决原则的同时采纳它们——一些可能热衷于此,但其他可能持怀疑态度。从乐观的方面看,前一点中的许多健康干预措施可能会自然地增加经济增长:根除艾滋病/疟疾/寄生虫蠕虫将对生产力产生变革性影响,更不用说一些神经科学干预措施(例如改善情绪和专注)在发达国家和发展中国家都将带来的经济利益。最后,非健康AI加速的技术(如能源技术、运输无人机、改进的建筑材料、更好的物流和分销等)可能会自然地渗透到世界各地;例如,即使在撒哈拉以南非洲,手机也通过市场机制迅速普及,而不需要慈善努力。在更负面的方面,尽管AI和自动化有许多潜在的好处,但它们也对经济发展提出了挑战,特别是对于那些尚未工业化的国家。找到确保这些国家在自动化时代仍能发展和改善其经济的方法,是经济学家和政策制定者需要解决的重要挑战。总的来说,一个梦想场景——也许是一个目标——将是发展中世界每年GDP增长率达到20%,其中10%来自AI驱动的经济决策,另外10%来自AI加速技术的自然传播,包括但不限于健康。如果实现,这将使撒哈拉以南非洲在5-10年内达到当前中国的人均GDP,同时使许多其他发展中世界达到高于当前美国的GDP水平。再次,这是一个梦想场景,不是默认发生的事情:这是我们所有人都必须共同努力使更有可能的事情。
-
**粮食安全24**。像更好的肥料和农药、更多的自动化和更有效的土地利用这样的作物技术进步,在20世纪大幅提高了作物产量,从饥饿中拯救了数百万人。遗传工程目前正在进一步提高许多作物。找到更多的方法做到这一点——以及使农业供应链更加高效——可能会给我们一个AI驱动的第二次绿色革命,帮助缩小发展中国家和发达国家之间的差距。
-
缓解气候变化。气候变化将在发展中世界感受到更大的影响,阻碍其发展。我们可以预期AI将带来改善减缓或防止气候变化的技术,从大气碳去除和清洁能源技术到实验室养殖的肉类,减少我们对碳密集型工厂化农业的依赖。当然,正如上文讨论的,技术不是限制气候变化进展的唯一事物——像文章中讨论的所有其他问题一样,人类社会因素也很重要。但我们有充分的理由认为,AI增强的研究将给我们提供使减缓气候变化变得更少成本和破坏性的手段,使许多反对意见变得无关紧要,释放发展中国家进行更多经济发展。
-
国家内部的不平等。我主要讨论了不平等作为全球现象(我认为这是其最重要的表现),但当然,不平等也存在于国家《内部》。随着先进的健康干预措施,特别是寿命或认知增强药物的大幅增加,肯定会有有效的担忧,即这些技术是“只针对富人”的。我对发达国家内部的不平等特别乐观,有两个原因。首先,市场在发达国家运作得更好,市场通常擅长随着时间的推移降低高价值技术的成本25。其次,发达国家的政治机构对其公民的反应更灵敏,并且拥有更大的国家能力来执行普遍访问计划——我预计公民会要求获得如此根本改善生活质量的技术。当然,这并不是说这样的需求会成功——在这里是另一个地方,我们需要集体尽我们所能确保一个公平的社会。还有在财富不平等的问题(与获得拯救生命和增强生命的技术的不平等相比),这似乎更难,我将在第5节中讨论。
-
选择退出的问题。在发达国家和发展中国家都存在的一个担忧是人们《选择退出》AI驱动的好处(类似于反疫苗运动或更普遍的卢德运动)。最终可能会出现不良的反馈循环,例如,最不能做出好决策的人选择退出可以提高他们决策能力的非常技术,导致差距不断扩大,甚至创造出一个反乌托邦的下层阶级(一些研究人员认为这将破坏民主,这是我在下一节进一步讨论的话题)。这将再次给AI的积极进步蒙上道德污点。这是一个难以解决的问题,因为我认为从伦理上讲不应该强迫人们,但我们至少可以尝试提高人们的科学理解——也许AI本身可以帮助我们加速这个过程。一个希望的迹象是,历史上反技术运动比叫声要多:反对现代技术很受欢迎,但大多数人最终还是会采用它,至少当它是个人选择时。个人倾向于采用大多数健康和消费技术,而真正受到阻碍的技术,如核能,往往是集体政治决策。
总的来说,我对迅速将AI的生物学进步带给发展中世界的人们感到乐观。我抱有希望,尽管不是有信心,AI也可以实现前所未有的经济增长速度,使发展中世界至少超过发达国家目前的水平。我担心在发达国家和发展中国家都存在的“选择退出”问题,但怀疑随着时间的推移它会逐渐消失,AI可以帮助加速这个过程。世界不会完美,落后的人不会完全赶上,至少在最初的几年内不会。但通过我们的努力,我们可以朝着正确的方向快速前进。如果我们这样做,我们可以为尊严和平等的承诺做出至少一部分定金,我们对地球上的每一个人都有这些承诺。
4. 和平与治理
假设前三节中的一切都进展顺利:疾病、贫困和不平等显著减少,人类体验的基线大幅提升。这并不意味着所有导致人类痛苦的主要原因都得到了解决。人类仍然是彼此的威胁。尽管有技术进步和经济发展导致民主和和平的趋势,这是一个非常松散的趋势,经常(并且最近)倒退。在20世纪初,人们认为他们已经把战争抛在了身后;然后就是两次世界大战。三十年前,弗朗西斯·福山写了关于“历史的终结”和自由民主的最终胜利;那还没有发生。我们现在似乎正走向与复兴的威权集团的第二场冷战。令人信服的理论表明,互联网技术实际上可能有利于威权主义,而不是最初认为的民主(例如,在“阿拉伯之春”时期)。似乎重要的是要尝试了解强大的AI将如何与和平、民主和自由的问题相交。
不幸的是,我没有充分的理由相信AI会偏好性或结构性地推进民主和和平,就像我认为它将结构性地推进人类健康和减轻贫困一样。人类冲突是对抗性的,AI原则上可以帮助“好人”和“坏人”。如果有什么的话,一些结构性因素似乎是令人担忧的:AI可能会启用更好的宣传和监控,这两者都是威权主义者工具包中的主要工具。因此,我们作为个体行动者必须努力将事情推向正确的方向:如果我们希望AI支持民主和个人权利,我们将不得不为这一结果而战。我对这个问题的感觉比我对国际不平等的感觉更强:自由民主和政治稳定的胜利《不是》有保证的,也许甚至不是可能的,并将需要我们大家做出巨大的牺牲和承诺,就像过去经常发生的那样。
我认为问题有两个部分:国际冲突和国家内部的结构。在国际方面,似乎非常重要,当强大的AI被创造出来时,民主国家在世界舞台上占据上风。AI驱动的威权主义看起来太可怕了,无法考虑,所以民主国家需要能够设定强大AI进入世界的条件,既要避免被威权主义者压倒,也要防止威权国家内部的人权滥用。
我目前猜测实现这一点的最佳方式是通过一个“协约策略”26,在这个策略中,民主国家的联盟寻求通过确保其供应链、快速扩展和阻止或延迟对手获得关键资源,如芯片和半导体设备,从而获得对强大AI的明确优势(甚至是暂时的)。该联盟将一方面利用AI实现稳健的军事优势(大棒),同时提供将强大AI的好处分发给越来越多国家的提议(胡萝卜),以换取支持联盟推广民主的战略(这将类似于“原子能的和平”)。该联盟的目标是获得越来越多世界的支持,孤立我们最糟糕的对手,最终使他们处于更好的位置,接受与世界其他地区相同的交易:放弃与民主国家竞争,以获得所有的好处,而不是与优越的敌人战斗。
如果我们能做到这一切,我们将拥有一个民主国家在世界舞台上占据主导地位,拥有避免被威权主义破坏、征服或破坏的经济和军事实力,并且可能能够将它们的AI优势转化为持久优势的世界。这可能乐观地导致一个“永恒的1991年”——一个民主国家占据上风,福山的梦想得以实现的世界。再次,这将非常难以实现,特别是需要私营AI公司和民主政府之间的密切合作,以及关于胡萝卜和大棒平衡的极其明智的决策。
即使所有这些都进展顺利,它也留下了每个国家内部民主和威权主义之间的斗争问题。显然很难预测这里会发生什么,但我确实有一些乐观,即《鉴于》一个民主国家控制最强大的AI的全球环境,那么AI实际上可能会在任何地方结构性地支持民主。特别是,在这种环境下,民主政府可以使用它们的超级AI赢得信息战:它们可以反击威权国家的宣传和影响操作,甚至可能通过提供信息和AI服务的渠道,创建一个全球自由的信息环境,威权国家缺乏技术能力来阻止或监控。它可能不是必要的传递宣传,只是反击恶意攻击和开放自由流动的信息。虽然不是立即的,但这样的公平竞争环境有很好的机会逐渐将全球治理转向民主,有几个原因。
首先,第1-3节中提高生活质量的进展应该,一切都相等,促进民主:历史上它们至少在一定程度上做到了。特别是,我预计改善心理健康、幸福感和教育将增加民主,因为所有三个都负相关与支持威权领导人。一般来说,当人们的其他需求得到满足时,他们希望有更多的自我表达,民主是自我表达的一种形式。相反,威权主义在恐惧和怨恨中蓬勃发展。
第二,有很大的机会自由信息确实会破坏威权主义,只要威权主义者不能审查它。并且未审查的AI也可以为个人提供强大的工具,以破坏压迫性政府。压迫性政府通过否认人们某种类型的常识来生存,使他们无法意识到“皇帝没有穿衣服”。例如斯尔贾·波波维奇,他帮助推翻了塞尔维亚的米洛舍维奇政府,已经广泛地写了关于心理学剥夺威权主义者权力的技术,打破咒语和集结对独裁者的支持。在每个人的口袋里有一个超级有效的AI版本的波波维奇(其技能似乎对智力有很高的回报)在每个人的口袋里,独裁者无法阻止或审查,可能会为世界各地的异见者和改革者创造支持。再次说一遍,这将是一场漫长而艰难的战斗,胜利不是有保证的,但如果我们以正确的方式设计和构建AI,它至少可能是一场自由倡导者在任何地方都有优势的战斗。
与神经科学和生物学一样,我们也可以问事情怎样才能“比正常更好”——不仅仅是如何避免威权主义,而是如何使民主国家比今天更好。即使在民主国家,也一直在发生不公正行为。法治社会向其公民承诺,每个人在法律面前都将是平等的,每个人都有权获得基本人权,但显然人们并不总是实际获得这些权利。这个承诺即使部分实现也是值得骄傲的,但AI能帮助我们做得更好吗?
例如,AI可以通过使决策和流程更加公正来改善我们的法律和司法系统吗?今天,人们主要担心在法律或司法背景下AI系统将成为歧视的原因,这些担忧是重要的,需要加以防范。与此同时,民主的活力取决于利用新技术来改善民主机构,而不仅仅是对风险做出反应。一个真正成熟和成功的AI实现可能有助于[减少]偏见,并对每个人都更公平。
几个世纪以来,法律系统一直面临一个困境,即法律旨在是公正的,但本质上是主观的,因此必须由有偏见的人类来解释。试图使法律完全机械化没有奏效,因为现实世界是混乱的,不能总是用数学公式来描述。相反,法律系统依赖于臭名昭著的不精确标准,如“残忍和不寻常的惩罚”或“完全没有挽回社会重要性”,然后由人类来解释——通常以一种表现出偏见、偏袒或任意性的方式。“智能合约”在加密货币中并没有彻底改变法律,因为普通的代码不足以裁决许多有趣的事情。但AI可能足够聪明,可以做到这一点:它是第一个能够以可重复和机械的方式进行广泛的、模糊的判断的技术。
我并不是建议我们用AI系统字面意义上替换法官,但公正性与理解和处理混乱的现实世界情况的能力的结合《感觉》应该对法律和正义有一些严肃的积极应用。至少,这样的系统可以作为人类决策的辅助工具。在任何这样的系统中,透明度都很重要,成熟的AI科学可能提供它:可以广泛研究这些系统的培训过程,并使用先进的可解释性技术查看最终模型内部,评估其是否有隐藏的偏见,这与人类是不可能的。这样的AI工具也可以用来监控司法或警察背景下的基本权利违规行为,使宪法更加自我执行。
类似地,AI可以用来聚合意见,推动公民之间的共识,解决冲突,寻找共同点,并寻求妥协。计算民主项目已经采取了一些这方面的早期想法,包括与 Anthropic 的合作。更知情、更有思想的公民显然会加强民主制度。
人工智能还有一个明显的机会来帮助提供政府服务——比如医疗福利或社会服务——这些服务原则上对每个人都是可用的,但在实践中往往严重缺乏,有些地方比其他地方更糟糕。这包括医疗服务、车辆管理处、税收、社会保障、建筑规范执行等等。拥有一个非常体贴和见多识广的人工智能,它的工作是以你能理解的方式给你政府依法赋予你的一切——同时也帮助你遵守常常令人困惑的政府规定——将是一件大事。提高国家能力既有助于兑现法律面前人人平等的承诺,也加强对民主治理的尊重。目前,实施不当的服务是人们对政府持怀疑态度的主要原因27。
所有这些都是一些模糊的想法,正如我在本节开头所说的那样,我对它们的可行性并不像对生物学、神经科学和扶贫方面的进步那样有信心。它们可能是不切实际的乌托邦。但重要的是要有一个雄心勃勃的愿景,愿意大胆梦想并尝试。人工智能作为自由、个人权利和法律面前平等的保障者的愿景太强大了,不容不为之奋斗。21 世纪的人工智能政体既可以成为个人自由的更强有力的保护者,也可以成为希望的灯塔,帮助自由民主成为全世界都希望采用的政府形式。
5. 工作与意义
即使上述四部分内容进展顺利——我们不仅减轻了疾病、贫困和不平等,而且自由民主成为政府的主导形式,现有的自由民主国家也变得更好——但至少还有一个重要问题。有人可能会反驳说:“我们生活在一个技术如此先进、公平体面的世界,这很好,但人工智能可以做所有事情,人类还有什么意义呢?就此而言,他们将如何在经济上生存?”
我认为这个问题比其他问题更难。我并不是说我对这个问题的看法一定比其他问题更悲观(尽管我确实看到了挑战)。我的意思是,这个问题更模糊,更难提前预测,因为它涉及社会如何组织的宏观问题,这些问题往往只能随着时间的推移和分散的方式自行解决。例如,历史上的狩猎采集社会可能认为,如果没有狩猎和各种与狩猎有关的宗教仪式,生活就毫无意义,并会认为我们这个衣食无忧的科技社会毫无目的。他们可能还不理解我们的经济如何养活每个人,或者人们在机械化社会中可以发挥什么作用。
尽管如此,还是值得至少说几句话,同时请记住,本节的简短并不意味着我不认真对待这些问题 - 相反,这表明缺乏明确的答案。
关于意义的问题,我认为,仅仅因为人工智能可以做得更好就认为自己所从事的任务毫无意义,这种想法很可能是错误的。大多数人在任何方面都不是世界上最优秀的,但这似乎并没有特别困扰他们。当然,今天他们仍然可以通过比较优势做出贡献,并可能从他们创造的经济价值中获得意义,但人们也非常享受那些不产生经济价值的活动。我花了很多时间玩电子游戏、游泳、在外面散步和和朋友聊天,所有这些都没有产生任何经济价值。我可能会花一天时间努力提高电子游戏的水平,或者更快地骑自行车上山,而某个地方的某个人比我更擅长这些事情,对我来说并不重要。无论如何,我认为意义主要来自人际关系和联系,而不是经济劳动。人们确实想要一种成就感,甚至是一种竞争感,在后人工智能时代,人们完全有可能花费数年时间,用复杂的策略尝试一些非常困难的任务,就像今天人们从事研究项目、试图成为好莱坞演员或创办公司时所做的那样28。 (a) 某个地方的人工智能原则上可以更好地完成这项任务,以及 (b) 这项任务不再是全球经济中一个有经济回报的元素,但这些事实在我看来并不重要。
在我看来,经济部分实际上比意义部分更难。本节中的“经济”是指大多数或所有人类可能无法为足够先进的人工智能驱动经济做出有意义的贡献。这是一个比我在第 3 节中讨论的不平等问题(尤其是新技术获取不平等)更宏观的问题。
首先,在短期内,我同意比较优势将继续使 人类保持相关性并实际上提高其生产力的观点,甚至可能在某种程度上使人类之间的竞争环境更加公平。只要人工智能在特定工作的 90% 上表现更好,其余 10% 将导致人类高度杠杆化,增加薪酬,实际上创造大量新的人类工作岗位,补充和放大人工智能擅长的工作,这样“10%”就会扩大到继续雇用几乎所有人。事实上,即使人工智能可以比人类更好地完成 100% 的事情,但在某些任务上仍然效率低下或成本高昂,或者如果人类和人工智能的资源投入存在显著差异,那么比较优势的逻辑仍然适用。人类可能在相当长的时间内保持相对(甚至绝对)优势的一个领域是物理世界。因此,我认为,即使我们达到“数据中心的天才国家”之后,人类经济仍可能继续有意义。
然而,我确实认为,从长远来看,人工智能将变得如此广泛有效且如此便宜,以至于这种情况将不再适用。到那时,我们当前的经济格局将不再合理,社会将需要就经济应如何组织展开更广泛的对话。
虽然这听起来可能很疯狂,但事实是,文明在过去成功地经历了重大的经济转变:从狩猎采集到农耕,从农耕到封建,从封建到工业化。我怀疑,一些新的、更奇怪的东西将会被需要,而这是今天没有人能很好地预见到的。它可能很简单,比如为每个人提供大量的全民基本收入,尽管我怀疑这只是解决方案的一小部分。它可能是人工智能系统的资本主义经济,然后根据人工智能系统认为对人类有意义的某种次级经济(基于最终从人类价值观中得出的某种判断),向人类提供资源(大量的资源,因为整个经济蛋糕将是巨大的)。也许经济是靠Whuffie 点数运转的。或者也许人类毕竟会继续具有经济价值,在某种程度上是通常的经济模型无法预料的。所有这些解决方案都存在大量可能的问题,如果不进行大量的迭代和实验,就不可能知道它们是否有意义。与其他一些挑战一样,我们可能必须努力才能取得好结果:剥削性或反乌托邦的方向显然也是可能的,必须加以预防。关于这些问题还有很多可以写,我希望以后能写出来。
总结
通过上述各种主题,我试图描绘出一个世界愿景, 如果人工智能一切顺利,这个世界将是可行的,而且比当今世界要好得多。我不知道这个世界是否现实,即使现实,如果没有许多勇敢而专注的人付出巨大的努力和奋斗,它也不会实现。每个人(包括人工智能公司!)都需要尽自己的一份力量来预防风险并充分实现利益。
但这是一个值得为之奋斗的世界。如果这一切真的在 5 到 10 年内实现——大多数疾病被击败、生物和认知自由得到增长、数十亿人摆脱贫困并享受新技术、自由民主和人权复兴——我想每个观看的人都会对它对他们的影响感到惊讶。我指的不是亲身受益于所有新技术的经历,尽管那肯定是惊人的。我指的是亲眼目睹一套长期持有的理想突然在我们面前实现的经历。我想很多人会为此感动得流泪。
在写这篇文章的过程中,我注意到一种有趣的张力。从某种意义上说,这里提出的愿景是极其激进的:它几乎不是任何人预期在未来十年内会发生的,而且很可能会让很多人觉得这是一个荒谬的幻想。有些人甚至可能认为它不可取;它体现了并非所有人都会认同的价值观和政治选择。但与此同时,它又有显而易见的东西——某种过度决定的东西——似乎许多不同的设想美好世界的尝试不可避免地会走向这里。
在伊恩·M·班克斯 (Iain M. Banks) 的《游戏玩家》29中,主角是名为“文化”的社会的成员,该社会所基于的原则与我在这里列出的原则类似。他来到一个压迫性的军国主义帝国,这个帝国的领导权由错综复杂的战斗游戏中的竞争来决定。然而,这个游戏非常复杂,玩家在其中的策略往往会反映他们自己的政治和哲学观点。主角成功击败了游戏中的皇帝,表明他的价值观(文化的价值观)代表着一种制胜策略,即使是在一个基于残酷竞争和适者生存的社会设计的游戏中。斯科特·亚历山大 (Scott Alexander) 的一篇著名文章也提出了同样的观点 — — 竞争是弄巧成拙的,往往会导致一个基于同情和合作的社会。“道德宇宙之弧”是另一个类似的概念。
我认为文化的价值观是一种制胜策略,因为它们是一百万个小决定的总和,这些决定具有明确的道德力量,并且倾向于将所有人拉到同一条战线上。公平、合作、好奇心和自主等人类基本直觉很难被反驳,而且是累积的,而我们更具破坏性的冲动往往不是这样。我们很容易争辩说,如果我们能够预防疾病,儿童就不应该死于疾病,从这一点出发,我们很容易争辩说,每个孩子都应该享有同等的权利。从这一点出发,我们很容易争辩说,我们应该团结起来,运用我们的智慧来实现这一结果。很少有人不同意人们应该因不必要地攻击或伤害他人而受到惩罚,从这一点出发,很容易得出这样的观点:惩罚应该对所有人一致且系统化。同样,直觉上,人们应该对自己的生活和选择拥有自主权和责任感。这些简单的直觉,如果合乎逻辑地得出结论,最终将导致法治、民主和启蒙价值观。即便这并非必然,至少从统计趋势来看,人类已经朝着这个方向前进。人工智能只是提供了一个让我们更快到达那里的机会——让逻辑更加清晰,目的地更加明确。
尽管如此,它仍然是一件超凡脱俗的美物。我们有机会为实现它贡献一点绵薄之力。
原文始发于微信公众号(独眼情报):Claude CEO最新雄文,比 Sam Altman 更理性更客观 (长文预警)
- 左青龙
- 微信扫一扫
- 右白虎
- 微信扫一扫
评论