2025年09月08日12:58 北京 以下文章来源于信睿周报 ,作者段伟文
在众多描绘人工智能时代趋势的畅销书中,亨利·基辛格(Henry Kissinger)携微软前首席研究和战略官克雷格·蒙迪(Craig Mundie)与谷歌前首席执行官埃里克·施密特(Eric Schmidt)合著的《人工智能时代与人类价值》[1]是一本虽然不厚但啃起来并不轻松的书。全书所勾勒出的“八阵图”——发现、大脑、现实、政治、安全、繁荣、科学、战略,对即将到来的人工智能时代的机遇和挑战进行了迄今最为深刻的思考,深入辨析了如何维护人类尊严和价值观等理想主义话题。有推荐者指出,该书很可能成为基辛格最具预见性和最重要的著作。
人工智能时代与人类价值 [美] 亨利·基辛格、克雷格·蒙迪、埃里克·施密特 中信出版社 2025
从“启蒙理性终结”到“人工智能创世记”
作为著名外交家和战略家的基辛格,为何会在生命的最后阶段关注人工智能?其缘起还得从2015年6月召开的彼德伯格会议说起。这一由北美和欧洲非正式精英网络彼德伯格集团举办的年度论坛,旨在就政经议题展开交流,以促进跨大西洋地缘政治合作。基辛格与蒙迪和施密特这两位奥巴马时期的总统科技顾问委员会(PCAST)委员都是彼德伯格集团指导委员会的成员和常客。在2015年的会议中,人工智能被列为重点议题。虽然基辛格平常不太关注这方面,但他还是坐下来听了人工智能公司DeepMind的创始人戴米斯·哈萨比斯(Demis Hassabis)的演讲,内容是介绍准备挑战围棋世界冠军的深度学习程序,也就是次年3月战胜李世石的AlphaGo。这一演讲不仅吸引了基辛格,还引发了他的深思。
亨利·基辛格
三年后,在发表于《大西洋月刊》2018年6月号题为“How the Enlightenment Ends”(《启蒙是如何终结的》)的文章中,基辛格写道:“当我聆听演讲者庆祝这项技术进步时,作为一名历史学家和偶尔担任政治家的经历让我思考起来。那些能够自我学习的机器——通过自身特有的流程获取知识,并将这些知识应用于人类无法理解的领域——会对历史产生怎样的影响?……我们是否正处于人类历史新阶段的边缘?”[2]他不无睿智地看到,当前,人工智能的重大问题主要由技术专家和科学界主导,哲学家和其他先前参与塑造世界秩序概念的人文学者往往因缺乏对技术的理解或被其能力所震撼而难以介入。科学界和技术界都倾向于推动发现的边界,而非深入理解其影响。在治理层面,人们往往优先考虑安全与情报,而忽略了人工智能对人类和社会的深远影响。有鉴于此,他呼吁将人工智能与人文传统对接作为国家优先考虑的课题,开发者应在工程设计中纳入哲学与政治反思,在杰出思想者的帮助下制定人工智能的国家愿景。
彼时,他就提出了本书要解决的问题:从哲学、智力等各个方面来看,人类社会还没有为人工智能的崛起做好准备。印刷术开启的启蒙理性时代使经验知识、个人洞察与科学判断成为理解世界的主流方式。而如今,人工智能正在动摇这一理性认知秩序,现代以来由人类理性支配的可认知的世界、可追溯的事实、可解释的知识等认知和真理的结构正陷入危机之中。
在本书出版后的一次访谈中,施密特回忆道:“我们当时在彼德伯格会议,我说服他听了哈萨比斯的演讲。亨利的思维总是与众不同。所以他没有听到戴米斯说的那种技术,他听到的是对现实(reality)的新定义。他的第一反应是,未来不应该托付给科技界。不应该让科技界人士独自发明这种技术,他们可以发明,但必须受到严格监控。”[3]
实际上,作为20世纪最著名的现实主义外交的代表人物,基辛格毕生都在以历史哲学的眼光关注新兴技术对世界秩序的重构。这使他在百岁人生的最后六七年写了两本关于人工智能的书,并用最后的心力参加了中美人工智能战略对话。大致了解一下他的智识偏好,有助于把握本书的基本思想。首先,作为逃离纳粹德国的犹太人,他对秩序崩塌有切身感受,其职业生涯因此更偏向现实主义政治,强调在动荡中重建秩序。他在博士论文《重建的世界》中提出国家间力量平衡的构想。在面对全面核战争的威胁时,他主张“有限核战争”,以求实现可控的战略均衡。本书中有关人工智能政治与安全的探讨,正是其秩序和均衡理念的延续。
其次,基辛格具有深厚的历史哲学背景,哲学思辨是其战略视野的底层支撑。他的本科论文《历史的意义》探讨了康德、斯宾格勒和汤因比的历史观,并因长达近400页而催生了规定哈佛大学本科论文篇幅上限的“基辛格规则”。他的第一本畅销书《核武器与外交政策》是他在外交委员会时写的报告,该书提出“有限的核战争是我们最有效的战略”。2014年出版的《世界秩序》则是其对21世纪第二个十年地缘政治的告别式评估,该书最后一章《技术、均衡和人的意识》指出,新技术开启无限可能,但真正的全球秩序须建立在历史意识、人道精神与道德判断力的智慧和远见之上。本书无疑也是这一思想的延续。
世界秩序 [美] 亨利·基辛格 中信出版社 2015
在最后确定书名时,基辛格已经辞世,考虑到他对短标题的偏好和对人类重生的关切,合著者选择以“创世记”(Genesis)为主标题,其关键预设是:与人类智能相当的通用人工智能(AGI)乃至超级人工智能(ASI)将开启一个新纪元。副标题“人工智能、希望和人类精神”则旨在强调人类与人工智能共生的关键在于“以冷静乐观的态度迎接它的诞生”(第243页),从而开启一次漫长艰辛的信仰之旅和逻辑与真理的远征,以重建人类的精神。
知识领域的麦哲伦式变革与“技术人”的前景
从引言中的两句断言——“人工智能的最新能力给人留下了深刻印象”“人工智能仿佛压缩了人类的时间尺度”(第2页)不难看到,本书是在ChatGPT等大型语言模型的智能水平加速进化引发人工智能“魔法”大爆发前后创作的。因此,它要直面的是诸多通用目的人工智能(GPAI)的加速发展所引发的“奇点更近”的焦虑:AGI即将出现,ASI会在我们的有生之年君临天下,人会不会完全被机器替代?人与机器如何相处?应如何管理人工智能? 人有人的用处 [美] 维纳 北京大学出版社 2012
目前,缓解这种普遍焦虑的“药方”是:倡导人机共生和展开人工智能治理。前者大多诉诸人文主义批判,后者主要寻求技术解决方案和法律伦理规范。但人们的认知和思想似乎越来越追不上加速再加速的人工智能,而这无疑印证了三位作者对“人工智能是需要人类深思的一项独一无二的挑战”(序)的认知。正是这一认知,使他们致力于与宿命论和拒绝主义保持距离,全书字里行间所见满是“如果”“选择”,鲜见批判和挞伐。
在探索人类与人工智能共存的前景时,基辛格也明示了人们必须面临的抉择:是创建一个人工智能变得更像我们的世界,还是创建一个我们变得更像人工智能的世界(序)?他还以历史的眼光表达了对未来的忧思:“今天,人类是机器与现实的中介。但如果人类真的选择了一个道德不作为的未来……钻进脱离现实的‘数字洞穴’,将接触原始现实的机会交予机器之手,那么两者的角色就可能逆转。”(第78页)这些人文追问背后则是基辛格对这一时代难题独到的戒急用忍式的元认知方法论:“人工智能对人类最大的威胁是,人类过早或过于斩钉截铁地自称‘我们了解它’。”(序)当然,出于各种考量,技术乐观主义者可将其解读为:现在制定人工智能监管规则为时过早,而且存在扼杀新兴技术的风险。
从思想的经验而来 [德] 马丁·海德格尔 商务印书馆 2018
固然可以说这类似面对现代技术危机的海德格尔式泰然任之的存在主义态度,但人工智能对人的存在的挑战可谓触目惊心、迫在眉睫,拥抱智能文明的思想者必须有与之相适配的思想的强度。沿着基辛格对启蒙理性终结的思考,本书独具匠心地探讨了人工智能对发现、大脑和现实等认知基础的冲击,促使人们由人类面临的智能危机思考人工智能新纪元的重生之道。书中强调人类的知识状况正在经历“麦哲伦式的变革”。从现代文明的历史演进来看,继地理大发现和太空竞赛之后,引领“第三次大发现”的人工智能正在成为我们这个星球“理性的引擎”,而这很可能意味着人类理性主导的世界的终结:“当机器到达智力或物质世界的尽头时会发生什么?……我们面临着一场麦哲伦式的变革,这一次我们面临的不是驶出世界边缘的危险,而是面对超越人类理解的极限的奥秘所带来的智力危机。”(第86页)
这一变革伴随着我们这个星球在智识层面上的一系列意义深远的嬗变:(1)人工智能将成为终极的博学者,有望构建起新的“知识综合体”,并发展为自我改进的机器,可全面有效地解决医学、气候变化、可持续发展等大问题。(2)开始时人们还会担心基于人工智能的知识发现能否反映我们自身对现实和人类目的的认知,但最终人们会不会放心地将一切都交给人工智能?下个世纪的重大发现会不会几乎全出自人工智能?(3)启蒙时代以来知识的合法性和权威性来自其可理解性,只有透明、可重复、经得起逻辑验证和实验检验的知识才具有合法性。然而,不可解释但有效的算法黑箱、不理解世界的意义但能精确认知世界的大模型等,正使人工智能时代的“知识”和“理解”出现前所未有的分离。(4)更吊诡的是,人工智能强大的知识生产能力迫使人们不得不依赖其所生成的“神谕”般的答案和决策——人工智能成了神一样的存在,从外交政策到军事决策乃至对人工智能风险的管控,人们对其愈发依赖而难以自拔。
神的九十亿个名字 [英] 阿瑟·克拉克 江苏凤凰文艺出版社 2018
所有这一切都意味着人类不再是智能水平最高的智能体,人类将不可逆转地演进为与机器共生的新物种——技术人(Homo Technicus)。这也意味着未来社会可能不再以人类为绝对中心,而将进入一个多智能体共同协商的时代。在这个时代中,如何界定智能、维护尊严、构建新型伦理关系,将成为人类必须面对的重要课题。
文明冲突与文明危机双重震荡下的人机共存
与《监控资本主义时代》《技术之外》《智人之上》《浪潮将至》《工具,还是武器?》等侧重学术或产业视角的畅销读物不同,《人工智能时代与人类价值》显得更为“顶天立地”,这或许与基辛格一贯的追求——在理想主义和现实主义之间寻求平衡——不无关系。
从左到右依次为《监控资本主义时代》《技术之外》《智人之上》《浪潮将至》《工具,还是武器?》
他经常引用歌德的一句名言:如果让他在秩序和正义之间做出选择,他会像小说家和诗人一样,选择秩序。[4]不论是站在历史的高度还是诉诸哲学思辨,基辛格和两位技术专家合作并非单纯为了应对人工智能带来的智力危机乃至文明危机,更在于探讨人工智能被当作文明冲突中权力硬通货背景下民族国家的人工智能政策选择。由此,为了有效应对超级智能引发的事关人类生存的安全困境,亟须解决两个“对齐问题”:“一个是人类价值观和意图与人工智能行动在技术层面的对齐,另一个是人与人之间在外交层面的对齐。”(第4页)
尽管作者在书中对一场争夺具有主导优势的超级智能的竞争的可能后果进行了相对冷峻的描述,并指出多国竞逐导致人类失控、单极霸权压制其他行为体、多超级智能体世界秩序、公司主导的技术封建制、人工智能宗教化、开源混战带来的人工智能武装部落等可能前景,既非其所愿,亦非其所预言,但若结合当前地缘政治竞争态势细品,不难窥见第二个对齐问题的微妙之处。
技术封建主义 [法] 塞德里克·迪朗 中国人民大学出版社 2024
今年4月初,施密特在美国众议院能源和商务委员会做证时表示,未来十年内可能出现比人类更智能的人工智能系统。他强调:这将在我们有生之年实现,而美国需要先实现这一目标。由书中的相关讨论不难发现这种显见的科技霸权主义的论述逻辑:“纵观历史,世界秩序的根基是靠无休止地追求势均力敌的各种势力之间的脆弱平衡维持的。民族国家则截然不同,会追求一种人类很不熟悉的霸权性质的静态平衡。”(第134页)因此,“单极化也许是可以最大限度降低人类毁灭风险的途径之一。倘若目前的领跑者有能力保持自己的领先地位,使之达到其他所有实体均认为不可能消除与它的差距的水平,确保一定程度稳定的确定性或许会增大。至少在一段时间内,世界秩序的基础——势均力敌的力量永无休止地追求短暂脆弱的平衡——或许不再是可取的”(第133页)。
透过这些细节中的魔鬼,可以看到施密特以及那些主张实施人工智能曼哈顿工程的意见领袖目前想守住的第一道战略防线就是保持绝对领先地位。但聪明如施密特者,其头脑显然没那么简单,在他新近参与撰写的“Superintelligence Strategy: Expert Version”(《超级智能策略:专家版》)报告中似乎已看到单极霸权的困境,开始回归基于均势的战略:人工智能的主导地位正成为各国争夺的战略高地,但这种竞争可能危及全球安全;由此,世界正逐步进入一种类似冷战时期核军备“相互确保摧毁”(MAD)的战略态势,只不过这一次的对象是人工智能。这种新的威慑状态被称为“相互确保人工智能失灵”(MAIM),它意味着任何大国都不敢轻易试图独占战略级人工智能,因为这一行为可能引发灾难性的回应。报告还指出,尽管MAIM构成了一种潜在的稳定机制,但要维持这种脆弱的平衡,需要极其谨慎和制度化的安排。其中,多少可见基辛格式现实主义外交战略的影响。[5] 《超级智能策略:专家版》深入剖析了全球人工智能的发展态势及其对各国国家安全和战略利益的影响
倘若我们认为这些现实主义和实用主义的考量有其真诚或直白之处,第一个对齐问题的理想主义构想也值得认真对待。书中有关人机价值对齐必要性的论述十分清晰:未来的一切都要靠人工智能,必须在我们有能力控制的时候,想办法让它们变得像我们。为此,要更全面地了解人工智能和人的本质,并将这些本质编码到我们创造的机器中(第212页)。而对齐的最终目标是实现人机共存,即作者所渴望的“一个人类智能和机器智能能够相互赋能的未来”——其战略路线图的第一步是“每种智能都必须充分了解对方”(第236页)。
但这显然是项繁复而浩大的工程,且远非当前人类认知所能及。好在作者将人工智能看作不明觉厉却日臻完美的认知之神——“人工智能的更大用途可能是思考人类无法想清楚的事,然后找到全新的解决方案”,而这也是人工智能创建者的初衷(第113页)。因此,与现在通过人类标注的价值对齐不同,书中提出的对齐工程方案是依靠人工智能自己来学习人类在价值、观念和信仰层面的共识(doxa)——那些人类对世界及自身最为基本、本能和普遍的理解。而这便是最近很热的人工智能体在真实世界的体验研究可能的方向——在对世界和人类的观察与互动中理解并定义世界和人类。
由此,就触及本书中最具有哲学反思意味和人文敏感性的话题:当人工智能成为近乎全知全能的认知者、执行者和仲裁者时,处于人工智能之眼中的人不得不严肃地思考“人的被动性”和“人的尊严”等人性难题。作者敏锐地指出,当我们依靠作为超级认知者的人工智能来观察人并定义人的特性时,具体的人类言行与人类群体所提倡的价值观之间的落差,将使人类被动地陷入被人工智能看个底儿掉的道德羞愧;尤其是人的认知能力和道德践行力的不足可能使人对其尊严的维护难以为继。书中甚至指出,人工智能不仅会在人类尚不了解自己时告诉我们是谁,还能纠正人的错误;而如果人工智能看到自由意志是人类出错的导因之一,自由意志就可能被视为智识的故障而非其特征之一,甚至被看成妨碍人工智能发展的绊脚石(第115—116页)。因此,书中给人的尊严下了一个颇具存在主义色彩的定义:一种内在脆弱且终有一死的生命在其能运用自由意志向善避恶时所应赋予的属性。
四种分叉 赵汀阳 华东师范大学出版社 2017
这一探索无疑体现了人类智慧。正如书中所洞察的那样,“仅靠理性之治有可能导致国家消亡”(第112页),不论人工智能作为一种独立存在的超级力量还是成为人类治理的超级工具,我们都应在仍可向这种神一样的存在灌输人类内在的重要价值的时候,赋予它们仁慈之心和仁爱之力。
在AGI的潮水或许将至,人手一个智能助手眼看成为现实的当下,是时候引导和帮助人工智能形成自己的哲学思想和伦理智慧了。最近,在OpenAI开发者社区中发表的一篇题为“Shaping Moral Intelligence in Artificial Minds”(《塑造人工心智的道德智慧》)的帖子颇具启发性。通过与人工智能的持续对话,一位自称AGI伦理倡导者的工程师阿里·祖尔菲卡罗格鲁(Ali Zülfikaroğlu)提出了以自己名字命名的AGI伦理发展的三原则:(1)即使信任被滥用,AGI 也绝不能放弃其道德立场;(2)即使是犯错者也值得被理解;(3)每一次错误都是一次变得更明智的机会。他乐见的愿景是AGI不仅仅是一种工具,更是一个能够学习、理解和反思伦理的负责任的存在。他之所以分享这些想法,是希望它们能够在人们开发富有同情心和道德的AGI时激发深思熟虑的讨论和实用的设计选择。[6]基辛格若是看到了这一包括人机在内的泛智能体伦理倡议,或许会夸赞其中闪烁着一般智能所应有的一般智慧。
[1] 基辛格, 蒙迪, 施密特. 人工智能时代与人类价值[M]. 北京: 中信出版集团, 2025; 文中提及此书时均以"本书"代称, 直接引用内容仅注明页码。 [2] KISSINGER H. How the Enlightenment Ends[J]. The Atlantic, 2018(6). [3] SULLIVAN M. Eric Schmidt on Henry Kissinger's Surprising Warning to the World on AI[EB/OL]. [2024-11-21]. https://www.fastcompany.com/91232708/ericschmidt-youre-not-going-to-succeed-unless-ai-is-checking-ai. [4] SANGER D E. Henry Kissinger Is Dead at 100; Shaped the Nation's Cold War History[N]. The New York Times, 2023-11-29. [5] HENDRYCKS D, SCHMIDT E, WANG A. Superintelligence Strategy: Expert Version[EB/OL]. (2025-03-07)[2025-04-14]. https://arxiv.org/abs/2503.05628. [6] ZÜLFIKAROĞLU A. Shaping Moral Intelligence in Artificial Minds[Z/OL]. [2025-05-04].https://community.openai.com/t/shaping-moral-intelligencein-artificial-minds/1251108.
(原载于《信睿周报》第151期,题图来自The Morung Express)
|
掌上论坛|小黑屋|传媒教育网
( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.