面对人工智能挑战:借鉴核时代的教训

图片源于:https://www.foreignaffairs.com/united-states/henry-kissinger-path-artificial-intelligence-arms-control

今年标志着历史上最致命战争结束的第78个周年,以及现代以来没有大国战争的最长时期。

因为第一次世界大战只隔二十年后随之而来的是第二次世界大战,所以世界大战三的幽灵,尤其是以已经变得如此具有破坏性以至于理论上能威胁全人类的武器,会在接下来的冷战年代徘徊。

当美国对广岛和长崎实施原子弹轰炸促使日本立即无条件投降时,没人会想到世界会看到接下来长达七十年的核武器使用事实上的暂停。

更令人想象不到的是,近八十年后,只有九个拥有核武的国家。

美国在这几 década 的领导表现,在避免核战争、减缓核扩散以及塑造提供几十年大国和平的国际秩序方面,将作为美国最重要的成就之一载入史册。

今天,随着世界面临另一种独特挑战,人工智能(AI)带来的威胁,这种技术在某种程度上甚至更加可怕,很多人正在借鉴历史。

机器具有人类以外的超人能力,会威胁人类作为宇宙主宰的地位吗?

人工智能会削弱国家在大规模暴力手段上的垄断吗?

人工智能能否使个人或小团体产生能够在过去只属于大国的程度上杀死数百万人口的病毒?

人工智能是否会侵蚀核威慑,这种威慑是当今世界秩序的支柱?

此时,没有人可以自信地回答这些问题。

但在过去两年中,我们与处于人工智能革命前沿的一群技术领导者讨论这些问题后,我们得出的结论是:不受限制的人工智能的发展将对美国和世界造成灾难性后果的前景是如此引人注目,以至于各国领导人必须立即采取行动。

即使他们或其他人无法预测未来,但已经理解到的足以让我们开始今天的艰难选择和行动——认识到这些选择将随着更多发现而受到不断修订。

当领导者在做出这些选择时,核时代的教训可以为他们的决策提供参考。

即便是急于开发和部署这种前所未有的技术的对手,双方也发现了共同利益的岛屿作为敌对双方。

作为双头统治者,美国和苏联都有一个共同的利益,即防止这一技术迅速扩散到可能对他们构成威胁的其他国家。

华盛顿和莫斯科认识到,如果核技术落入他们自己境内的流氓行为者或恐怖分子的手中,可能会被用来威胁自己,因此每一方都制定了自己核武库的强大安全体系。

但因为每一方也可能受到对方社会内部流氓行为者获得核武器的威胁,他们发现与对方讨论这一风险是出于自身利益,并描述他们为确保这种情况不会发生而开发的做法和技术。

一旦他们的核武器库达到一个水准,以至于没有一方可以在不引发回击且自毁的情况下打击对方,他们发现了相互确保毁灭的矛盾稳定性(MAD)。

随着这一可怕现实被内化,每个大国学习自我限制并发现说服对手限制其倡议的方法,以避免可能导致战争的对抗。

确实,冷战时期美国和苏联政府的领导们都意识到,避免一场将其国家置于首位受害者的核战争是一个主要责任。

今天所面临的人工智能挑战不仅仅是核时代的第二章。

历史并不是一本可以遵循食谱制作蛋奶酥的食谱。

人工智能和核武器之间的差异至少与相似点一样显著。

然而,经过适当理解和调整后,在过去八十年中,为形成国际秩序而积累的经验提供了应对今天人工智能挑战的最佳指导。

此时,只有两个AI超级大国:美国和中国是唯一拥有必要的人才、研究机构和大规模计算能力来训练最先进的AI模型的国家。

这为他们创造了一个有限的机会,以制定准则来防止最危险的AI进展和应用。

美国总统乔·拜登和中国主席习近平应抓住这个机会,举行一次峰会——或许在11月旧金山的亚太经济合作会议后,进行扩大且直接的面对面讨论,讨论他们视之为当今最重要问题之一的议题。

当原子弹在1945年摧毁日本城市之后,开启潘多拉之箱的科学家们感受到他们所创造的并为之感到恐惧。

曼哈顿计划的首席科学家罗伯特·奥本海默回忆起《博伽瓦达·吉他》中的一句话:”现在我成为死亡,世界的毁灭者。”

奥本海默成为一个热心支持控制原子弹的激进举措 advocating advocates,甚至因此被剥夺安全许可。

1955年由11位科学家签署的拉塞尔-爱因斯坦宣言,警告核武器的可怕力量,并恳请世界领导人永远不要使用它们。

尽管美国总统哈里·杜鲁门从未对此决策表示过任何疑虑,但他与国家安全团队的成员没有一个人对如何将这个令人敬畏的技术整合进战后国际秩序中有可行的观点。

美国应该试图维持作为唯一核大国的垄断地位吗?这种做法到头来是否可行?

为了追求这个目标,美国能否与苏联分享其技术?在有了这种武器的世界中,生存是否要求领导者创造一个高于国家政府的权威?

杜鲁门的战争部长亨利·史汀生(Henry Stimson)曾提议美国与苏联领导人约瑟夫·斯大林(Joseph Stalin)和英国首相温斯顿·丘吉尔(Winston Churchill)分享原子弹的垄断地位,以创造一个可以防止核武器扩散的超级大国“公寓”。

杜鲁门成立了一个由美国副国务卿迪恩·阿奇森(Dean Acheson)负责的委员会,来制定追求史汀生提案的战略。

阿奇森基本同意史汀生的观点:防止核武器竞赛最终导致灾难性战争的唯一方法是创建一个拥有原子武器的国际权威。

这需要美国与苏联和美国国家安全委员会的其他成员分享其核机密,将其核武器转交给新的联合国“原子发展局”,并禁止所有国家开发武器或构建自己的生产武器级核材料能力。

1946年,杜鲁门派遣融资及总统顾问伯纳德·巴鲁赫(Bernard Baruch)前往联合国谈判以实施阿奇森的计划,但这一提案被苏联驻联合国代表安德烈·格罗米科(Andrei Gromyko)断然拒绝。

必须意识到人工智能和核武器之间的差异。

三年后,随着苏联成功实现其建造原子弹的迅速努力,美国和苏联开始进入人们称之为冷战竞争的时期:使用所有不包括弹药和子弹的手段。

这一竞争的核心特征是寻求核优势。

当时两大超级大国的核武库最高峰期超过6万枚核武器,其中一些炸弹的爆炸威力超过人类历史上所有战争使用的武器的总和。

专家们曾认真讨论全面核战争是否意味着地球上每一个生命的终结。

几十年来,华盛顿和莫斯科在核武器上投入了数万亿美元。

如今,美国核事业的年度预算超过500亿美元。

在这一竞争的早期阶段,美国和苏联都做出了以前难以想象的技术进步,以期获得决定性优势。

武器爆炸力的增强要求创造新的标准:从千吨(相当于释放1,000吨TNT的能量)到百万吨(相当于释放1,000,000吨的能量)用于氢聚变炸弹。

这两大超级大国发明了能够在30分钟内将弹头送到地球对面的目标的洲际导弹、环绕地球在数百英里高空飞行的卫星,这些卫星能以几英寸的精确度识别目标坐标,以及能够基本上像子弹击中子弹的防御系统。

一些观察家认真设想的防御系统将使核武器如罗纳德·里根所说的那样,“无效和过时”。

在试图塑造这些进展的过程中,战略家们开发了区分先发和后发的概念武库。

他们明确说明了可靠的报复反应的基本要求。

他们制定了核三位一体:潜艇、轰炸机和陆基导弹,以确保如敌方发现一个脆弱点,武库的其他组成部分仍可用于进行致命反击。

对意外或未经授权的武器发射风险的认知促使了批准采取措施:在核武器中嵌入了电子锁,以防止没有正确的核发射密码时被激活的权限。

冗余的设计意图保护指挥和控制系统免于技术突破的风险,这进一步激励了发明出了一种进化成互联网的计算机网络。

正如战略家赫尔曼·卡恩所说,他们在“思考不可思议的事情”。

核战略的核心是威慑——通过威胁代价超出任何可想象的利益,从而阻止对手攻击。

成功的威慑效果不仅需要能力,还需要威慑的可信度。

潜在受害者需要不仅有能力做出果断回应,而且还有决心。

战略家进一步修订了这一基本想法,提出了扩展威慑,目的是通过一种政治机制——通过同盟的保护承诺,来说服关键国家不自行建构核武器库。

到1962年,当美国总统约翰·F·肯尼迪(John F. Kennedy)与苏联领导人尼基塔·赫鲁晓夫(Nikita Khrushchev)在古巴对峙时,美国情报界估计,即使肯尼迪发起成功的先发打击,现有能力的苏联的报复反应仍可能杀死6200万美国人。

到1969年,理查德·尼克松(Richard Nixon)成为总统时,美国需要重新考虑其方法。

其中一位作者基辛格(Kissinger)曾这样描述这个挑战:“我们在期间依靠的防御策略的思维必须在新现实的严峻光照下重新审视。

没有好战的言辞可以掩盖现有的核库存足以毁灭人类的事实。

防止核战争的悲剧是最高的责任。”

为了使这一条件变得生动,战略家们创造了一个带有讽刺意味的缩略词MAD,核心内容则是里根的常言:“核战争无法赢得——因此绝不应当打。”

操作上,“互相确保脆弱性”意味着双方的相互保证。

虽然美国和苏联寻求逃避这种状况,但最终他们认识到无法做到这一点,必须根本重新概念化彼此的关系。

1955年,丘吉尔指出这样的至关重要的讽刺:“安全将是恐怖的坚实继子,生存是毁灭的双胞胎兄弟。”

在未否认价值观或妥协重要国家利益情况下,这两个致命竞争者必须制定战略,以尽可能地利用一切手段打败对手,除了全面战争。

这些策略的一个支柱是被称为军备控制的一系列明示和暗示的限制。

尽管在MAD形成之前,当每个超级大国竭尽全力追求优势时,他们也发现了共同利益的领域。

为了降低出错的风险,美国和苏联达成非正式协议,不干预对方对其领土的监视。

为了保护公民免受放射性尘埃的威胁,他们禁止大气层测试。

为避免“危机不稳定”现象——即一方感到必须先发制人,认为另一方即将采取军事措施——他们在1972年反弹道导弹条约中达成协议,限制导弹防御。

在1987年,里根与苏联领导人米哈伊尔·戈尔巴乔夫达成中程核力量条约,达成消除中程核武器的协议。

战略武器限制谈判产生的条约分别签署于1972年和1979年,限制导弹发射器的增加,后来签署的战略武器削减条约(START)于1991年生效,而新START则于2010年生效,逐步削减其数量。

或许最重要的是,美国和苏联都意识到其他国家扩散核武器的风险对两国构成威胁,最终导致核无政府状态的风险。

他们促成了现在被称为不扩散机制的协议,其中最重要的是1968年核不扩散条约,通过该条约186个国家如今承诺停止自行发展核武器。

在当前关于控制AI的提议中,可以听到许多来自过去的回声。

亿万富翁埃隆·马斯克要求暂停AI开发六个月,AI研究者艾利泽·尤德科夫斯基(Eliezer Yudkowsky)主张废除AI,心理学家加里·马库斯(Gary Marcus)要求AI由全球政府机构控制,这些基本上重复了核时代未能实现的提议。

原因是这些都会要求领先国家放弃其主权。

在历史上,从未有一个大国因担心竞争对手可能将新技术应用于威胁其生存和安全而放弃自行开发该技术。

即使是美国的密切盟友,如英国和法国,也选择发展自己的国家核能力,而不仅仅依赖于美国的核保护伞。

要想将核历史的教训应用到当前的挑战中,必须认识到人工智能和核武器之间显著的差异。

首先,虽然各国主导核技术开发,民营企业家、科技人才和公司正在推动人工智能的进步。

为了微软、谷歌、亚马逊、Meta、OpenAI和一些小型初创企业工作的科学家,远远超越政府内的任何类似努力。

此外,这些公司现在被锁定在一场对抗中,这无疑推动了创新,但代价就是这些悠久的国家利益必然会受到低估。

其次,人工智能是数字化的。

核武器是难以生产的,需要复杂基础设施来完成从铀浓缩到核武器设计等一切。

武器是物质对象,因此是可计数的。

当可以验证对手在做什么时,限制方案便随之而生。

人工智能则构成一种截然不同的挑战。

它的主要进化过程发生在人脑中。

适用性在实验室中不断变化,且其部署很难观察。

核武器是有形的,而人工智能的本质是概念化的。

第三,人工智能的进展和传播速度使冗长的谈判不可能。

军备控制是在几十年中发展起来的。

对人工智能的约束需要在人工智能在每个社会的安全机构中植入之前进行——也就是说,在机器开始设定自己的目标之前,而一些专家现在认为这可能在未来五年内发生。

在这样的时间要求下,需要首先进行全国性、再而国际性的讨论和分析,同时新动态也要求政府与私营部门之间的关系。

幸运的是,主要开发生成性人工智能的公司,使美国成为领先的人工智能超级大国,认识到他们不单对此负责的还有他们的股东,还有这个国家和整个人类。

他们中的许多人已经制定了在部署之前评估风险、减少训练数据中的偏见和限制有害用途的指导方针。

其他公司正在探索方式来限制训练,以及对云计算提供商实施“了解你的客户”要求。

乔·拜登政府在7月宣布的一项举措是向七家主要人工智能公司领导人发出了联合承诺,确保“安全、保障与信任”的指导方针,这是朝着改善的方向迈出的重要一步。

如同其中一位作者基辛格在《人工智能的时代》中指出,Urgent imperative 创建系统的方法研究人工智能的长期发展带来的进化、奇迹般的发明和应用的影响。

尽管美国目前的分歧程度达到自南北战争以来的最高点,但无需置疑,无限制的人工智能进展所带来的风险的力度,要求政府和商业领导者现在就采取行动。

每一位拥有大规模计算能力来训练新AI模型的公司,以及每一个开发新模型的公司或研究小组,都应创造一个小组来分析其商业AI运营的人员和地缘政治影响。

这个挑战是两党合作的,要求团结的回应。

总统和国会应该以这种精神建立一个国家委员会,由非党派的杰出前领导人组成,涵盖私营部门、国会、军方和情报社区。

该委员会应提出更具体的强制性保护措施。

这些应包括持续评估训练AI模型所需的大规模计算能力的要求,要求公司在发布新模型之前对其进行极端风险的压力测试。

虽然制定规则的任务将是艰巨的,但委员会将有国家安全委员会对人工智能的表率。

该委员会于2021年发布的建议为美国军方和美国情报机构在与中国进行人工智能竞争中所开展的行动提供了刺激和方向。

即使在这一早期阶段,美国还在为国内管理人工智能建立自己的框架,但现在开始与全球唯一其他AI超级大国展开严肃对话也为时不晚。

中国的国家技术冠军——百度(中国的顶尖搜索引擎)、字节跳动(TikTok的创作者)、腾讯(微信的制造者)和阿里巴巴(电子商务的领航者)——正在构建自己的中文类ChatGPT,尽管中国的政治体制为人工智能发展带来了特定困难。

虽然中国在制造先进半导体的技术上仍然滞后,但在近期内它具有向前发展的基础。

拜登和习应该在不久的将来举行一次私下会议,讨论人工智能军备控制。

11月将在旧金山举行的亚太经济合作会议提供了这个机会。

每位领导人应讨论他个人对人工智能所构成的风险的看法,谈及其国家为预防可能产生灾难性风险的应用所做的工作,以及如何确保国内公司不输出风险。

为了为下一轮的讨论提供信息,他们应建立一个咨询小组,由来自美国和中国的AI科学家组成,及其他已经对此发展进行了深入思考的人。

这种做法应借鉴於前在其他领域的第二轨外交,其中小组由在判断和公正方面表现出色的个人组成,虽然没有得到其政府的正式认可。

从我们与两国关键科学家的讨论中,我们相信这次对话将极具成效。

美国和中国的关于这一议题的讨论和行动只是新兴全球关于AI的对话中的一部分,包括英国将主办的AI安全峰会,以及在联合国的持续对话。

因为每一个国家都在寻求利用人工智能提升其公民生活的同时,也确保其自身社会的安全,长远来看,全球人工智能秩序是必需的。

对其工作的开始应该以国家努力为基础,防止人工智能造成的最危险和潜在灾难性后果。

这些倡议应与各国科学家间的对话相辅相成,他们正参与开发大型AI模型,并与提议在这里的国家委员会成员对话。

启动正式政府间谈判,最初聚焦于拥有先进人工智能项目的国家,旨在建立国际框架,以及一个类似国际原子能机构的国际机构。

如果拜登、习以及其他世界领导者能够像其前任应对过去数十年核威胁那样,立即采取相应行动应对人工智能所带来的挑战,他们能否同样成功?

从历史的更大画布和日益加剧的极化现象来看,难以持乐观态度。

尽管如此,我们现在已经标志着核大国之间的和平长达78年的事实,应该激励每个人掌握我们人工智能未来的革命性和不可避免的挑战。

William Zhao

William Zhao is a seasoned correspondent known for his analytical pieces on UK-China relations. His expertise in international politics makes him a trusted voice among readers interested in geopolitical dynamics.

You May Also Like

More From Author