百岁基辛格重磅发声:人工智能将改变全球安全与世界秩序
2023年,亨利·基辛格已经100岁高龄,但是他头脑依然很清醒,思路依然很清晰。他还是一如既往的参加国际问题的讨论,并且还能给出令人佩服的预测。
《经济学人》在4月底与基辛格进行了长达8个小时的对话。在这次对话中,基辛格表示出了对中美两国围绕科技和经济领先地位日益激烈竞争的担忧,他还担心人工智能即将极大程度地加剧中美对立。基辛格认为,人工智能将在五年内成为安全领域的关键因素,其颠覆性潜力堪比活字印刷术。
“我们生活在一个破坏性空前的世界中”,基辛格警告道。尽管原则上人类要介入机器学习的反馈循环,但人工智能还是可能成为全自动的、不可阻挡的武器。
基辛格一直非常关注人工智能的发展,他曾经说过“搞技术的人关心的是应用,我关心的是影响”。最近,基辛格和谷歌前首席执行官埃里克·施密特、麻省理工学院苏世民学院院长丹尼尔·胡腾洛赫尔还共同完成一本书《人工智能时代与人类未来》,基辛格在这本书中提出,人工智能将重塑全球安全和世界秩序,并对人工智能发展对个体和人类自我身份认同的冲击进行了反思。
自有记载的人类历史起,安全始终是一个有组织的社会追求的最低目标。在每一个时代,寻求安全的社会都试图将技术进步转化为日益有效的方法,用以监视威胁,练兵备战,施影响于国界之外,战时则用于加强军事力量以取得胜利。对最早期的有组织社会来说,冶金、防御工事、战马蓄养和造船等方面的进步往往具有决定性的意义。到了近代早期,火器枪炮、海军舰船、航海工具和技术方面的创新也发挥了类似的作用。
随着力量的增强,主要大国之间会相互衡量,以评估哪一方会在冲突中获胜,取得这样的胜利会带来什么风险和损失,开战有什么正当的理由,以及另一个大国及其军事力量介入冲突会对结果产生什么影响。不同国家的战力、目标和战略至少在理论上被设定为一种平衡,或者说是一种力量的均衡。
人工智能时代的网络战争
在过去的一个世纪里,对手段和目的的战略调整已然出现了脱节。用于追求安全的技术层出不穷,破坏性也越来越大,而运用这些技术实现既定目标的战略却变得越来越难以捉摸。在当今时代,网络和人工智能的出现又为这些战略计算增加了超乎寻常的复杂性和抽象性。
在冷战结束后的今天,主要大国和其他国家都利用网络能力增强了本国的武器库,这些网络能力的效用主要源自其不透明性和可否认性,在某些情况下,也源自对其在散播虚假信息、收集情报、蓄意破坏和传统冲突的模糊边界上的运用——这构成了种种尚无公认理论教条的战略。与此同时,每一次进步都伴随着新的弱点被揭露。
人工智能时代可能使现代战略之谜更趋复杂化,这并非人类本意,也许还完全超出人类的理解。即使各国不广泛部署所谓的致命自主武器(即经过训练和授权可以自主选择目标,并在没有进一步人类授权的情况下进行攻击的自动或半自动人工智能武器),人工智能仍有可能增强常规武器、核武器和网络能力,从而使对手之间的安全关系更加难以预测和维护,冲突更加难以限制。
没有哪个大国可以忽视人工智能的安全维度。一场争夺人工智能战略优势的竞赛已经开始,尤其是在美国和中国之间,当然还有俄罗斯。随着对他国正在获得某些人工智能能力的认知或猜疑日益蔓延,将会有更多国家寻求获得这些能力。而一旦被引入,这能力就会快速扩散。虽然创造一种复杂的人工智能需要大量的算力,但对其进行增殖扩散或使用它通常并不需要。
解决这些复杂问题的办法既不是陷入绝望,也不是缴械投降。核技术、网络技术和人工智能技术已经存在,其中每一项技术都将不可避免地在战略中发挥作用。我们已不可能退回到这些技术“未被发明”的时代。如果美国及其盟友因这些能力可能产生的影响而畏缩不前,结果不会是一个更和平的世界。相反,那将是一个不太平衡的世界,身处其中的各国会竞相发展和使用最强大的战略能力,而不考虑民主责任和国际平衡。
今后几十年,我们需要实现一种力量平衡,这种平衡既要考虑到网络冲突和大规模虚假信息传播等无形因素,也要考虑到由人工智能辅助的战争的独特属性。残酷的现实迫使人们认识到,即使是在彼此竞争中,人工智能领域的对手们也应致力于限制极具破坏性、不稳定性和不可预测性的人工智能能力的开发和使用。在人工智能军备控制方面的清醒努力与国家安全并不冲突,它是一种尝试,为的是确保在人类未来的框架下寻求实现安全。
一个社会的数字能力越强,这个社会就变得越脆弱
纵观历史,一个国家的政治影响力往往与其军事力量和战略能力大致匹配,这是一种即使主要通过施加隐性威胁也会对其他社会造成破坏的能力。然而,基于这种力量权衡的均势不是静态的或自我维持的。相反,它首先依赖于各方就这一力量的构成要素及其使用的合法界限达成共识。其次,维持均势需要体系内所有成员,尤其是对手,就各个国家的相对能力、意图和侵略的后果进行一致的评估。最后,保持均势需要一个实际的、公认的平衡。当体系中的一方以一种与其他成员并不成比例的方式增加自身力量时,体系将通过组织对抗力量或者通过适应新的现实来设法做出调整。当均势的权衡变得不确定时,或者当各国对各自相对实力的权衡结果完全不同时,由误算引发冲突的风险就会达到最大。
在当今时代,这些权衡的抽象性更进一步。带来这种转变的原因之一是所谓的网络武器,这类武器涉及军用和民用两个领域,因此其作为武器的地位是模糊的。在某些情况下,网络武器在行使和增强军事力量方面的效用主要源于其使用者未披露其存在或未承认其全部能力。传统上,冲突各方都不难认识到发生了交战,或者认识到交战各方是谁。对手间会计算对方的战力,并评估他们部署武器的速度。可是这些在传统战场上颠扑不破的道理却不能直接套用到网络领域。
常规武器和核武器存在于物理空间中,在那里,它们的部署可以被察觉,它们的能力至少可以被粗略计算出来。相比之下,网络武器的效用很大一部分来自其不透明性;若被公之于众,它们的威力自然有所减损。这些武器利用之前未曾披露的软件漏洞,在未经授权用户许可或知情的情况下侵入网络或系统。在“分布式拒绝服务”(DDoS)攻击(如对通信系统的攻击)的突发事件中,攻击者可能会使用一大堆看似有效的信息请求来压垮系统,使系统无法正常使用。在这种情况下,攻击的真实来源可能被掩盖,使人难以或无法(至少在当时)确定攻击者。即使是最著名的网络工业破坏事件之一——震网(Stuxnet)病毒破坏了伊朗核项目中的制造控制计算机,也没有任何政府对此事做过正式承认。
常规武器和核武器可以相对精确地瞄准目标,道德和法律要求它们瞄准的对象只能是军事力量和设施。而网络武器可以广泛地影响计算和通信系统,往往可对民用系统造成特别有力的打击。网络武器也可以被其他行为体基于其他目的而进行吸纳、修改和重新部署。这使得网络武器在某些方面类似于生物和化学武器,其影响可以非预期和未知的方式传播。在许多情况下,网络武器影响的是大范围的人类社会,而不仅仅是战场上的特定目标。
网络武器的这些用途,使得网络军备控制难以被概念化或被推行。核军备控制的谈判人员可以公开披露或描述一类核弹头,而不必否认该武器的功能。网络军备控制谈判人员(目前尚不存在)则需要解决以下悖论:一旦对网络武器的威力进行讨论,可能就会导致这种威力的丧失(允许对手修补漏洞)或扩散(对手得以复制代码或侵入方法)。
我们所处的数字时代的一个核心悖论是:一个社会的数字能力越强,这个社会就变得越脆弱。计算机、通信系统、金融市场、大学、医院、航空公司和公共交通系统,甚至民主政治的机制,所涉及的系统在不同程度上都容易受到网络操纵或攻击。随着发达经济体将数字指挥和控制系统整合到发电厂和电网中,将政府项目转移到大型服务器和云系统中,并将数据转誊到电子账簿中,它们在网络攻击面前的脆弱性也成倍增加。这些行为提供了更丰富的目标集合,因此仅仅一次成功的攻击就可能造成实质性的破坏。与此相对,如果发生数字破坏的情况,低技术国家、恐怖组织甚至个人攻击者可能会认为他们承受的损失相对要小得多。
人工智能将为战争带来新的变数
各国正在悄无声息地,有时是试探性地,但又确凿无疑地发展和部署那些对各种军事能力的战略行动均有所促进的人工智能,这对安全政策可能产生革命性影响。
战争一直是一个充满不确定性和偶然性的领域,但人工智能进入这个领域将为其带来新的变数。
人工智能和机器学习将通过扩大现有武器类别的打击能力来改变行为者的战略和战术选择。人工智能不仅能使常规武器瞄得更精准,还能使它们以新的、非常规的方式进行瞄准,比如(至少在理论上)瞄准某个特定的个人或物体,而不是某个地点。通过研究大量信息,人工智能网络武器可以学习如何渗透防御,而不需要人类帮它们发现可以利用的软件漏洞。同样,人工智能也可以用于防御,在漏洞被利用之前定位并修复它们。但由于攻击者可以选择目标而防御者不能,人工智能即使未必让进攻方战无不胜,也可令其占得先机。
如果一个国家面对的对手已经训练人工智能来驾驶飞机、独立做出瞄准的决策并开火,那么采用这种技术将在战术、战略或诉诸升级战争规模(甚至是核战)的意愿方面产生什么变化?
人工智能开辟了信息空间能力的新视野,包括虚假信息领域。生成式人工智能可以创造大量似是而非的虚假信息。人工智能推波助澜的信息战和心理战,包括使用伪造的人物、图片、视频和演讲,无时无刻不在暴露出当今社会令人不安的新弱点,尤其是在自由社会。广泛转发的示威活动配上了看似真实的图片和视频,里面的公众人物发表着他们从未真正说过的言论。从理论上讲,人工智能可以决定将这些由人工智能合成的内容以最有效的方式传递给人们,使其符合人们的偏见和期望。如果一个国家领导人的合成形象被对手操纵,以制造不和或发布误导性的指令,公众(甚至其他政府和官员)会及时识破这种骗局吗?
在灾难真正发生之前行动
各个主要的技术先进国家都需要明白,它们正处于战略转型的门槛上,这种转型与当年核武器的出现同等重要,但影响将更加多样化、分散化和不可预测。每个正在扩展人工智能前沿的社会都应致力于成立一个国家层面的机构,来考量人工智能的防御和安全,并在影响人工智能创建和部署的各个部门之间建立桥梁。这个机构应被赋予两项职能:确保维持本国在世界其他地区的竞争力,同时协调研究如何防止或至少限制不必要的冲突升级或危机。在此基础上,与盟友和对手进行某种形式的谈判将是至关重要的。
如果要对这一方向进行探索,那么世界两大人工智能强国——美国和中国——就必须接受这一现实。两国可能会得出这样的结论:无论两国竞争的新阶段可能会出现何种形式的竞赛,两国仍应该寻求达成一项共识,即不会同对方打一场前沿技术战争。双方政府可以委托某个团队或高级官员负责监督,并直接向领导人报告潜在的危险,以及如何避免这些危险。
在人工智能时代,我们应该对长期以来的战略逻辑进行调整。在灾难真正发生之前,我们需要克服,或者至少是遏制这种自动化的驱向。我们必须防止运行速度比人类决策者更快的人工智能做出一些具有战略后果的、不可挽回的行为。防御力量的自动化,必须在不放弃人类控制的基本前提下去实施。
当代领导人可以通过将常规能力、核能力、网络能力和人工智能能力广泛而动态地结合在一起,来实现控制武器装备的六大任务。
第一,对抗和敌对国家的领导人必须准备定期开展相互对话,讨论他们都想要避免的战争形式,就像他们的前任在冷战期间所做的那样。为对此有所助力,美国及其盟友应该围绕它们认为共同的、固有的和不可侵犯的利益与价值观组织起来,这些利益和价值观包括在冷战结束时及冷战后成长起来的几代人的经验。
第二,必须对核战略的未解难题给予新的关注,并认识到其本质正是人类在战略、技术和道德方面遭遇的巨大挑战之一。几十年来,对广岛和长崎被原子弹化为焦土的记忆迫使人们认识到核问题的不寻常性和严峻程度。正如美国前国务卿乔治·舒尔茨在2018 年对国会所说:“我担心人们已经失去了那种恐惧感。”拥核国家的领导人必须认识到,他们有责任共同努力,以防止灾难的发生。
第三,网络与人工智能技术的领先大国应该努力界定其理论和限制(即使其所有方面均未被公开),并找出自身理论与竞争大国之间的关联点。如果我们的意图是威慑而非使用,是和平而非冲突,是有限冲突而非普遍冲突,就需要以反映网络和人工智能独特层面的措辞来重新理解和定义这些术语。
第四,拥核国家应承诺对其指挥控制系统和早期预警系统进行内部检查。这类失效保护检查应确定检查步骤,以加强对网络威胁和在未经授权、疏忽或意外情况下使用大规模毁灭性武器行为的防范。这些检查还应包括排除对核指挥控制系统或早期预警系统相关设施的网络攻击的选项。
第五,世界各国,特别是技术强国,应制定强有力和可接受的方法,在紧张局势加剧和极端情况下尽量延长决策时间。这应该是一个共同的概念性目标,特别是在竞争对手之间,它可以将控制不稳定性和建立共同安全所需的步骤(既有当前的,也有长期的)联系起来。在危机中,人类必须对是否使用先进武器承担最终责任。特别是竞争对手间应该努力就一种机制达成一致,以确保那些可能不可撤销的决定是以有助于人类对其加以思考并有利于人类生存的方式做出的。
第六,主要的人工智能大国应该考虑如何限制军事化人工智能的继续扩散,或者依靠外交手段与武力威胁,开展系统性的防扩散工作。那些野心勃勃地想要将技术用于不可接受的破坏性目的的技术收购者会是谁?有哪些特定的人工智能武器值得我们特别关注?谁来确保这条红线不被逾越?老牌的核大国探索过这种防核扩散概念,结果成败参半。如果一种具有颠覆性和潜在破坏性的新技术被用于武装世界上怀有最强烈敌意或道德上最不受约束的政府的军队,那么战略均势可能难以实现,冲突也可能无法控制。
由于大多数人工智能技术具有军民两用特性,我们有责任在这场技术研发竞赛中保持领先。但这也同样迫使我们去理解它的局限性。等到危机来临才开始讨论这些问题就为时已晚了。一旦在军事冲突中使用,人工智能技术的响应速度之快,几乎注定它将以比外交手段更快的速度产生结果。大国之间必须就网络和人工智能武器展开讨论,哪怕只是为了形成一套共同的战略概念话语,以及感知彼此的红线。
要在最具破坏性的能力上实现相互制约,绝不能等到悲剧发生再去亡羊补牢。当人类开始在创造新的、不断演化的、拥有智能的武器方面展开竞争时,历史不会原谅任何对此设限的失败。在人工智能时代,对国家优势的持久追求,仍须以捍卫人类伦理为前提。
发评论,每天都得现金奖励!超多礼品等你来拿
登录 在评论区留言并审核通过后,即可获得现金奖励,奖励规则可见: 查看奖励规则