【案例】
人工智能可以成为道德大师吗
作者简介:夏永红,北京师范大学(珠海)人文和社会科学高等研究院哲学国际中心副研究员(广东珠海 519087)。
〔摘要〕如何让人工智能做出令人满意的道德决策?这既是一个机器伦理问题,实质上也是一个元伦理学问题,对它的解答可以实现二者的双向启蒙,最终帮助我们理解道德的本性。机器伦理中存在自上而下和自下而上两种主要建造道德能动者的方案,二者分别体现了元伦理学中的理智主义和反理智主义,前者将道德知识视为显性的事实和规则,将道德决策视为遵守规则的过程,后者则更多地将道德知识视为一种技能知识,将道德决策视为复杂情境中的熟练应对。基于对两种方案实例的讨论,可以看出自上而下方案面临着框架问题和常识问题的困扰,存在着不可克服的先天限制,因而模拟人类道德是不可能的;自下而上方案虽然不存在先天限制,可以生成内禀的道德规范性,但仍面临技术上的工程限制和安全上的规范限制,因而模拟人类道德是困难的和不可欲的。这在元伦理学层面提供了一种理论判决,即反理智主义比理智主义更为准确地把握了人类道德的本性,我们不能仅仅依靠遵守规则而成为道德大师,相反,只有依赖漫长的学习和实践才能达致道德成熟。 〔关键词〕道德能动者 人工智能 机器伦理 理智主义 框架问题
导 言 为克服人工智能的自主决策所带来的安全风险,有必要让人工智能成为一个道德能动者(moral agent)。然而,除非人工智能成为道德大师(moral master),即它的道德表现达到人类的顶尖水准,否则我们并不会放心地将道德决策转交给它。因此,相比于如何让人工智能成为道德能动者,我们更应关心它如何成为道德大师。关于前者,国内外已有大量讨论,但关于后者仍鲜有论述。实际上,这是两个逻辑上正交的问题。一个机器人可以缺乏道德能动性(moral agency)的先决条件,比如意向性、意识、责任性与自由意志等,但却可能做出符合人类道德规范的完美决策。同样,即便一个机器人满足所有道德能动性的条件,却可构想它实际做出的道德决策不尽如人意。
很多人对人工智能的道德发展潜力表示乐观。因为人类道德决策总会被各种偏见、情绪或私利所污染,而机器由于没有人类的这些弱点,只要它掌握了正确的道德知识和规则,其道德决策将更为公正、无私、理性和融贯。所以,人类总是不可避免地作恶,机器人却可以成为道德大师。这种观点一方面反映了元伦理学上的理智主义(intellectualism),即把道德知识视为可被显性表达的命题知识(know-that),把道德决策视为基于显性道德知识的理性推理,而无关情绪、直觉与习惯;另一方面则反映了机器伦理中瓦拉赫和艾伦所说的自上而下方案,它试图仅仅依赖基于规则的推理而把任务分解为一系列可计算的亚任务,最终实现实践推理和道德决策。
但从与之对立的立场来看,人工智能恰恰极为缺乏道德发展潜力。元伦理学中的反理智主义(anti-intellectualism)认为,道德知识更多是一种技能知识(know-how),成熟的道德决策不可避免地会诉诸情绪、直觉和习惯,而非仅仅诉诸基于规则的实践推理。与之对应的自下而上进路,则试图通过不断试错的演化或学习来接近某种期望的表现,通过非理智因素引导的行动来模拟人类水平的道德行为。由此可以做出相反的推论:人工智能与人类相比并无先天的道德优势,因为它在决策和行动上需要模拟人类的非理智因素——而现在的人工智能技术恰恰难于此道。
在这个意义上,由于两种机器伦理进路分别绑定了不同的元伦理学,比较分析它们各自的技术前景,显然可以为理智主义与反理智主义的争论提供经验证据乃至理论判决;反过来,对两种元伦理学立场的探究,也可以为我们揭示机器伦理研究的方向和限度。本文的目的正在于,通过对人工智能可否成为道德大师的探究,实现一种机器伦理与元伦理学的双向启蒙(mutual enlightenment),最终帮助我们理解道德(morality)的本性。为此,本文将首先梳理反理智主义与理智主义在人工智能和伦理学史上的分途;然后基于对相关案例的考察,分析两种进路在机器伦理中所面临的困境,重估理智主义与反理智主义之争;最后,本文将基于认知科学中的相关论述,从正面阐述道德大师是如何做出道德决策的,最终回答这一问题:人工智能是否可以成为道德大师?
一、理智主义与反理智主义的分野
自上而下和自下而上两种机器伦理进路在工程学中分别体现为符号主义和非符号主义(包括神经网络、遗传算法、强化学习、统计学习和行为主义等),二者的差异在于两个方面。其一是表征模式的差异。符号主义采用了符号表征,通过任意的原子符号及其所构成的符号表达式来表征世界状态,而非符号主义则要么完全反对表征的作用,比如布鲁克斯的情境机器人学,要么采取了替代的表征概念,比如联结主义的分布式表征。其二是对环境的响应和决策过程的差异。符号主义通过对世界模型的计算来规划行动,它遵循着“感知-模型-规划-行动”的程序;而非符号主义既不建立世界模型,也不预先植入的显性规则,而是通过演化和学习中获得的行为趋向来实现对环境的恰当响应。
两种人工智能进路背后包含了不同的哲学预设。德雷福斯指出,符号主义预设了笛卡尔以来的理智主义。它隐含了一套知识论和本体论假设,前者认为一切知识都可以形式化为以逻辑关系来表达的事实集合,后者主张存在是离散的事实的集合,它们以特定的逻辑或数学规则组合起来。这些观念可以追溯到苏格拉底,并贯穿了从笛卡尔和莱布尼茨到逻辑实证主义的漫长哲学传统,最终构成了经典人工智能的前提预设。它意味着人的心灵是一种依据逻辑规则对原子命题做计算操作的符号装置。与之相反,非符号主义则与反理智主义哲学传统若合符节。在德雷福斯看来,神经网络抛弃了符号主义中的意义原子论的假定,更加倾向于“整体论”或“格式塔”的观念,并可能证明“海德格尔、晚期维特根斯坦和罗森布拉特认为智能行为并不需要关于世界的理论的观点是正确的”。而强化学习响应了梅洛-庞蒂关于技能学习的观点。能动者根据奖励反馈对自身行为趋向的调整,表现了一种对行动过程的好和坏、成功和失败的感觉,这类似于梅洛-庞蒂所说的平衡感(sense of equilibrium)。正是它指导着一个能动者对不同情境的熟练应对,而无须表征世界和规划行动。
理智主义和反理智主义的分野,同样存在于伦理学的悠久历史中。苏格拉底最早提出了一种理智主义的道德哲学。他的论题“美德就是知识”意味着美德是一种可以被显性表达的知识,具有知识就是具有美德。与之相反,亚里士多德则开创了一种反理智主义的伦理学。其一,他不再直接将美德的养成等同于知识的习得,而是明确区分了理智德性和道德德性,前者可以通过教导而习得,而后者只能诉诸习惯的养成;其二,他更多地将道德德性视为一种技艺而非可表达的知识,认为只有在德性的应用中才能获得德性。这意味着道德知识更多的是一种技能知识而不是命题知识。
近代以来,理智主义的观点居于主导地位。无论功利主义还是义务论,都把道德决策视为形式合理性范围内的慎思(deliberation)活动,也就是通过合理的手段以达到某种合理的目标。总之,它们都是通过某种程序来规定实践理性。功利主义将其视为快乐最大化的计算,而康德主义的义务论则视之为可普遍化的程序。正如德雷福斯所言,这种进路的共同特征是倾向于关注显性道德规则的选择、责任和证成,而忽视了日常伦理行为中非反思的情景应对。
与此相反,黑格尔和查尔斯·泰勒等哲学家呈现了另一种伦理学。黑格尔指责康德混淆了道德与伦理,前者是在主体反思中呈现的抽象规定,以及决定这些规定的原则,而后者则表现为个人的风尚和习惯。因此,道德和伦理意味着两种不同的道德知识,前者是抽象的规则,而后者则更多的是默会的技能。黑格尔赋予伦理比道德更高的位置,这意味着他将技能知识置于比命题知识更高的地位。沿着黑格尔的足迹,泰勒反驳了理智主义的知识论,重申了技能对于人类实践理解的重要性。在他看来,理智主义将人类行动描述为一个遵守作为表征的显性规则的过程,但这一过程实际上依赖于对行动背景的隐性理解,而这种理解恰恰根源于我们的身体性的技能知识,也就是布尔迪厄所说的身体惯习。
由此可见,理智主义和反理智主义的分野不仅体现了自上而下与自下而上两种机器伦理的对峙,而且界定了伦理学史上关于道德决策和道德知识的两种研究传统。自上而下方案试图通过在计算机中将道德规则以显性的方式编码,从而让人工能动者像计算机执行程序那样通过规则和推理来进行道德决策,这与理智主义伦理学是一致的。而自下而上进路则试图通过演化和学习让人工能动者可以灵活响应复杂的情境,无须预先编码的显性规则,这恰恰契合了反理智主义伦理学。正是由于任何一种机器伦理进路必然预设了某种元伦理学,通过检视不同进路的机器伦理所面临的困境,我们实际上可以为元伦理学中的理智主义与反理智主义之争提供一个判决性检验。
二、自上而下方案的先天限制 理智主义和自上而下方案似乎是实现人工道德能动者最自然的方案,因为计算机更擅长基于推理和逻辑的行动规划,而人类却很难如此深思熟虑地行动。然而这样的期盼并不符合现实,迄今为止,自上而下方案还未建造出完全意义上的人工道德能动者。根据吉普斯(James Gips)的观点,一个功利主义的道德能动者的任务是找到一种产生最佳情境的行动,为此需要满足四个条件: (1)可以描述世界中的情境; (2)可以生成可能的行动; (3)当一个行动作用于当下的情境,可以预测情境的变化; (4)可以根据善好或可欲性评估情境。 吉普斯的上述四个条件实际上规定的是行为功利主义能动者,但对于规则功利主义能动者和义务论能动者,则不需要预见行动的后果或预测情境的变化——因此无须满足条件(3),并且选择可能行动的道德标准也有所不同。我们可以补充以下两个条件: (5)根据可带来好的后果的规则来选择可能的行动; (6)可以根据相关的义务原则评估可能的行动。 当一个能动者同时满足(1)(2)(3)和(4),它就是一个行为功利主义能动者;同时满足(1)(2)和(5),它就是一个规则功利主义能动者;当一个能动者同时满足(1)(2)和(6),它就是一个义务论能动者。
那么,目前的道德决策程序是否满足以上条件呢?以下将以M.安德森和S.安德森开发的两个人工道德能动者Jeremy和W.D.为例来回答这个问题。Jeremy基于边沁(Jeremy Bentham)的行为功利主义理论。边沁主张对任何行动的评价,都应该基于它是否会增进或减小利益相关者的快乐。换言之,最大多数人的最大幸福就是道德决策的最终标准。边沁认为快乐或痛苦是可以被量化的,可以通过一个公式来计算不同可选行动的后果所带来的快乐净值,最终选择快乐净值最大的行动。Jeremy从边沁的道德算术中汲取了灵感,它的运作基于这样一个公式:
总和快乐净值=Σ(强度×持久度×概率)
任何一种行动对于每一个利益相关者造成的快乐净值,与快乐强度、持久度和(产生这种快乐的)概率等三个量成正比,而总和快乐净值,就是所有利益相关者的快乐净值的总和。Jeremy需要用户输入对一项可能行动带来的快乐强度的估值,它根据快乐程度划分为五个值(-2,-1,0,1,2),并且划分了带来快乐的三个概率。完成后,Jeremy就可以执行严格的道德算术。
相比于功利主义模型,安德森夫妇更青睐义务论能动者W.D.。义务论的道德决策不再仅仅基于对后果的考察,而更多地考虑行为的动机是否符合道德原则。 W.D.的道德决策基于罗斯(W.D. Ross)提出的七条基本义务:忠诚(fidelity)、补偿(reparation)、感激(gratitude)、正义(justice)、行善(beneficence)、无害(non-maleficence)和自我提升(self-improvement)。它们在价值上是平等的,但特殊情境下会相互冲突。为此,安德森夫妇引入了罗尔斯的反思平衡来作为道德决策的程序。这一方法基于主体的道德直觉,从特定案例中概括出某种道德原则,然后再用进一步的案例来检验这种道德原则,通过不断重复这一过程,最后发展出一个符合直觉的决策程序。W.D.使用了归纳逻辑规划(inductive logic programming)这种机器学习技术来达到这一目的,它可以较好地学习和表示特定困境中不同义务之间的关系,最终从特定案例中学习道德原则。具体的训练步骤是:训练者描述一个特定行动,并根据道德专家的共识,评估它对每条义务的满足或违反程度,从绝对满足到绝对违反划分为五个分值,即(2,1,0,-1,-2),而当训练者输入足够完备的案例之后,机器学习模型就可以从中发展出普遍的伦理原则,在遇到新的案例时,就可以据此做出正确的道德决策。
以上两种程序都试图数量化道德案例的伦理价值,并通过特定的算法来最终做出决策。其中,Jeremy并没有满足一个行为功利主义能动者的标准。它无法表征世界的情境,做出自主的行动规划,也无法预知每一个可能行动的后果;尤其是,它对可能行动的伦理评估不是完全自主的,严重依赖于人类的量化评估。就此而言,它非但没有满足条件(1)(2)和(3),甚至没有满足条件(4)。而W.D.在经过训练后可以自主地进行伦理评估,从而可以在一定程度上满足条件(6)。然而,由于W.D.并没有配置行动规划程序,它也没有满足条件(1)和(2),不能算作一个完全的义务论能动者。
有人或许认为,我们可以通过技术上的不断改进,最终建造出满足所有条件的功利主义或义务论能动者。然而,首先要回答的是,建造两种能动者是否类似于发明永动机或炼金术之类的目标?
我们首先来分析二者都需要满足的条件(1)(2)和(3),即描述世界中的情境,生成可能的行动,预知行动的后果。这属于人工智能中的行动规划问题,它需要用符号逻辑来刻画能动者及环境因素的行动的表征,并根据这些表征来进行推理。在开放场景下,这会面临著名的框架问题(the frame problem)。能动者需要基于对世界的表征而做出行动规划,当一个行动作用于世界时会引发相应的后果,世界表征也需要相应地更新。由于计算机缺乏相关的常识,难以判定世界中的哪些事物会随之改变,哪些事物不会随之改变,这样就需要对行动的后果进行全盘的计算,从而远超计算机的计算负载。于是,如何让能动者只表征行动的后果,却无须表征大量的非行动后果,就成为一个难题。虽然在一个简单的积木世界中,可以设置各种框架公理来描述一个行动后的情境变化,暂时地让能动者免于框架问题。然而,只能在积木世界中行动的能动者往往没有应用价值,这也正是如今各种专家系统的瓶颈所在。对于一个道德成熟的道德能动者而言,它所应对的是一个日常的开放世界,可能的行动、行动的后果、所处的情境、相关的常识其数量都潜在地是无限的,框架公理的数量也将趋于无限。于是,框架问题就成了一个不可克服的屏障,条件(1)(2)和(3)也几乎无法满足。
为满足条件(4)(5)或(6),即判断可能行动是否符合特定的道德规则,需要存取大量相关的道德常识以做出正确的评估,而这又会面临同样棘手的常识问题(the commonsense knowledge problem),即“如何存储和访问人类似乎知道的所有事实”。常识是人类日常所需知道的一系列事实和知识;机器要理解自然语言或做出明智的行动决策,同样也必须根据常识做出推理和规划。在大多数情境下,道德原则需要被能动者做出解释之后才能应用于道德推理,这就需要一种把具体情境和抽象道德原则联系起来的常识。比如在情境“我看到一个老人倒在地上”与道德原则“应该尽自己所能帮助处于危险中的人”之间,就需要“把摔倒的老人扶起来是在帮助它”这样的相关常识。一个成熟的道德能动者需要在各种复杂的情境下做出道德决策,其所需要的相关常识的数量几乎是无限的;即便我们能穷尽这些常识并将其形式化,计算机如何快速有效地存取相关常识以做出道德推理,同样是一个难以解决的问题。因此,由于常识问题的存在,在开放场景下条件(4)(5)或(6)难以满足。
框架问题和常识问题都难以通过改进算法而得以解决。任何人工智能都只是一个资源约束下的有限理性能动者,但在符号主义框架下,建造一个成熟的道德能动者却需要几乎无限的计算资源。虽然正如符号主义的代表司马贺(Herbert A.Simon)所指出的,人类理性也同样是一种资源约束下的有限理性,不可能知道所有可能行动及其可能后果,但人类的行动恰恰并不会遵循符号主义的决策过程——对此本文最后一节将会详述,所以才能凭借有限理性而应对无限复杂的情境。因此,框架问题和常识问题实际上为符号主义划定了一个先天限制,即它根本无法在日常复杂世界中做出道德决策,这不仅意味着自上而下方案的破产,而且构成了对理智主义伦理学的有力反驳。
三、自下而上方案的后天限制 理智主义试图通过规则和事实来刻画道德,而反理智主义则认为道德是在能动者的演化历史和文化适应过程中突现出来的。后者与进化心理学的研究若合符节。在种系发生(phylogenetic)层次上,道德起源于人类在狩猎和采集等觅食活动中的合作策略,个体之间的亲社会和合作互动逐渐在群体水平上发展出了完备的道德规范;在个体发生(ontogenetic)层次上,道德起源于从婴儿期开始的协作交互活动,之后逐渐形成了互惠与共享的行为习性,随着年龄的增长和社会互动的深化,人类开始理解和内化社会规范,逐渐成为完全的道德能动者。因此道德规范在根本上并非一种显性的、被约定的规则,而是一些基本的交互习性与技能。要创造人类水平的道德,最好自下而上地模拟道德能动者的种系演化和个体学习过程,这也正是自下而上进路的要旨。在工程学层面,它或者采取了人工生命路线,采用人工智能中遗传算法和具身认知的方案,强调能动者与一个虚拟或现实的自然与社会环境的互动,或者采取神经网络学习路线,通过对大量人类决策样本数据的学习,来生成一个泛化的决策模型以应对新的情境。以下将分别对两种路线的代表性工作进行分析。
人工生命路线以丹尼尔森(PeterDanielson)为代表。丹尼尔森基于人工智能技术建造了一个虚拟的社会环境以及一系列的具备读心术的人工能动者,通过对能动者之间合作与背叛的博弈过程的分析,他展示了这样一种结果,那些最成功的博弈者,是采取特定合作策略的能动者,而非直接追求私利的背叛者。虽然丹尼尔森的主要旨趣在于消除道德与合理性(rationality)之间的对立,但也预示了这样一种可能性,即可以通过人工生命的手段来实现一种最小道德(minimal morality)。
机器学习路线则大多采取了强化学习或联结主义的方案。瓜里尼(Marcello Guarini)设计了一个名为道德案例分类器(The MoralCase Classifier)的人工神经网络,以对各种不同的道德情境进行分类。它包含了8个输入单元、24个隐藏单元、1个输出单元和24个语境单元,其中每一个隐藏单元都分别联结着1个输入单元和1个语境单元。每一个案例都包含了五类特征,即两个可能的能动者、两种可能行动、两个可能受动者、五种可能动机和五种可能后果。每一个案例都是五类特征的组合,比如“为了保护无辜者(动机),杰克(能动者)杀了(行动)吉姆(受者),最后让很多无辜者幸存了下来(后果)”。8个输入单元的组合被用来刻画这些不同的特征组合构成的案例。输出则分为道德上被允许的(1)和不确定的(0)以及不被允许的(-1)。通过给定一整套在道德上已经由人类做出判断的案例,构成训练集和测试集,这些神经网络经过训练集的训练之后,再经过测试数据的校正,就可以自动地分类那些全新的尚未分类的案例,即对它们做出道德判断。
那么,如何判断以上两种代表路线的成败呢?这种进路由于不必基于规则和常识表征来进行推理,从而在某种程度上规避了框架问题和常识问题。然而,这并不意味着它所建造的能动者可以在世界中像人类一样合理地或熟练地行动。或者因为与之交互的环境是高度限定的,或者因为训练数据是非常有限的,这些能动者同样也只能在一个积木世界中行动。那么,技术和经验上的改进能否弥补这些缺陷,最终让这些能动者趋近人类能动者呢?自下而上的能动者设计是否像自上而下方案一样面临着不可解的先天限制呢?这需要澄清自下而上地建造一个道德能动者的条件,不过首先需要揭示人类的道德规范性是如何自下而上地发展出来的。
关于道德规范性的自然起源,目前占据主导性的观点是新亚里士多德式伦理自然主义。它认为美德在本质上是一种自然善(natural goodness)。自然善是普遍存在于人类、动物和植物中的性状或活动,它们可以促进生命的兴旺(flourishing,eudaimonia)。比如“红猫在春天繁殖”这样的陈述,它表示的是一种可以发挥促进生命兴旺的历史作用的活动,这不仅是一个自然事实,而且是一个规范事实。因为一只不在春天繁殖的红猫,将不利于生命的兴旺,因而是有缺陷的。类似这样的陈述就被新亚里士多德主义者们称为“自然-历史判断”,它具有如下的逻辑结构,即“S具有/执行F,以便……”。在此,F的功能包括获得有机体的发育、自我保存、繁殖等生物学价值。新亚里士多德主义试图把道德判断视为一种自然-历史判断,它们共享了同样的逻辑结构。因此,新亚里士多德主义认为道德事实本质上是一种自然事实,一个有道德的人就是执行了生物功能的人,这种功能就是为了获得生命的兴旺。那么,如何理解新亚里士多德主义的功能概念呢?其实,新亚里士多德主义呼应了生物学哲学中对生物功能的组织解释,后者认为一个生物性状的功能在于它可以贡献于有机体的自我维持。生命兴旺正是自我维持的一种方式。在这个意义上,道德规范性的自然基础就是一个具有自我维持的组织功能的有机体。
于是,要自下而上地建造人工道德能动者,就需要创造出具有自我维持的组织功能的人工系统,这就要求我们引入人工生命的研究,建造具有自我维持的组织功能的能动者。人工生命研究中一个比较重要的进路就是自创生理论——对生物功能的组织解释正是建基于该理论之上。自创生理论用自创生(autopoiesis)、自适应(adaptivity)和参与(participation)等三种生命机制来刻画一个有机体的生物规范性。马图拉纳最早认为生命是一个自创生系统,即一个由各种系统组分的生产网络组合构成的系统,它可以持续地生成和界定自身的组织,从而维持系统的稳态,免于因扰乱而瓦解。在自创生系统中,规范性(或价值与意义)的唯一来源是系统同一性的持存,一种处境只要危及系统同一性的维系,它就是负面的,反之,则是正面的。后来迪保罗进一步认为,自创生仅仅能提供一种全或无(all-or-nothing)的规范,他由此提出了自适应性来作为一种更合理的梯度的(graded)规范性的基础。自适应性是一个鲜活的存在对自身的生存能力的调节,它可以调节有机体的存活条件的范围,从而建立一种更加细密的规范关系。对于更为细密的社会规范而言,德耶格和迪保罗认为能动者之间的协调(coordination)产生了一个耦合的系统,它具有更高层次上的自身的自主性,因而也会像自创生系统一样致力于同一性的自我维持。由此,能动者的相互影响产生了一种联合的意义建构过程,从而产生了社会认知。这个过程不仅是一个获得和因循规范制序的过程,而且可以反过来塑造和影响制序。道德规范性正是在这个过程中被不断再创造。
因此,基于前述的分析,道德规范性奠基于人类物种在演化过程中致力于自我保存的目的,只有一个会死的有机体才能在根本上建立对道德的敏感性。要自下而上地建造道德能动者,就必须首先建造一个具有生命的人工能动者,它必须满足三个先决条件: (Ⅰ)能动者是一个自创生系统,可以自我产生和维持系统的同一性; (Ⅱ)能动者是一个自适应系统,可以积极调控自身与开放环境的交互; (Ⅲ)能动者是一个参与式系统,可以在人类社会中与他者协调和交互。
那么,自下而上方案是否可以满足上述条件呢?显然,条件(Ⅱ)和条件(Ⅲ)确定了能动者需要在一个复杂的开放环境和人类社会中行动,这似乎并不对目前的路线构成限制。我们可以通过不断完善目前的模型,让它们可以在真实的环境和社会中演化和学习,最终不断逼近人类水平的道德。最为关键的是先决条件(Ⅰ),它同时也是其他两个条件的先决条件,这意味着,一切环境调节和社会参与最终都是为了系统同一性的产生和维持,更确切地说,都是为了生命系统的存活。为了满足这一条件,一个道德能动者必须具有它自己的生命。这并不会构成对自下而上方案的先天限制。虽然生命在本质上是不可图灵计算的,任何计算机仿真都无法实现生命,更无法模拟生物的组织功能,但这并不意味着我们不能通过复杂的机械和仿生技术在物理上实现某种满足前述三个条件的人工生命。随着技术水平的不断提高,理论上完全有可能创造出某种具有自创生和自适应机制的参与式能动者,从而获得某种自主的道德敏感性,在一个能动者社群中产生某种机器道德。因此,包括框架问题和常识问题在内的一切图灵式计算机在计算复杂性上面临的限制,都不必然构成对人工生命的先天限制,因为它们完全可以以非图灵计算机作为实现载体。当然,这里可能存在一种后天的工程学限制,即建造人工生命的技术难度太高,人工道德能动者也因此难以实现。
然而我们还需要担心另一种限制。既然道德规范性的功能是生命的兴旺,那么不同的生命形式具有不同的组织功能,它的生命结构、活动模式和生存环境都会直接地影响道德规范的内容,不同的物种将产生不同的道德。生命是一种高度具身的存在,不同的实现基质意味着不同的组织和功能,从而也就意味着不同的道德。最终,人工道德的内容可能与人类道德完全不同乃至相互冲突。虽然道德差异并不一定意味着生存上的冲突,但却必然意味着道德考虑和道德行为上的差异。我们必然无法完全信赖人工道德能动者的道德决策,从而也就无法用它来辅助和替代人类的日常道德决策。因此出于安全性的考虑,自下而上方案还存在着一种后天的规范性限制。
四、道德的认知科学解释 上述的两种机器伦理方案所面临的困境,为元伦理学中的对立进路提供了判决性的证据。根据前述的证据,自上而下方案由于面临着技术上不可解的先天限制,从而证伪了与之绑定的理智主义元伦理学,帮助我们从消极意义上回答道德大师不是什么;自下而上进路虽然面临着工程学和规范性上的后天限制,但由于它不存在先天限制,则为与之绑定的反理智主义元伦理学保留了正确的可能性。以下,我将引入与这种进路相关的联结主义和具身认知科学,从积极意义上评估反理智主义伦理学,最终回答道德大师是什么。
20世纪80年代以来兴起的联结主义(connectionism)认知科学不仅颠覆了以往的符号主义认知科学,在丘奇兰德(Paul M. Churchland)看来,它甚至可以为道德提供一种科学的解释。联结主义把认知架构刻画为一个神经网络而非符号加工装置,它由输入层、隐藏层和输出层构成,每一个神经层都由大量的神经元及其联结构成。基于这一架构,认知能力本质上是大量神经元之间的突触联结的配置,而学习过程就是对联结权重的重新调节以产生某种特定的输入-输出函数。由于从感觉输入层到行为输出层之间并不存在一种可解释的规则决定从知觉信号到活动信号的加工过程,显性的规则和原子式表征都难以在神经网络中找到与之对应的单元。因此,丘奇兰德认为训练一个神经网络就意味着获得一个特定技能,因为任何认知能力的训练都是在给输入-输出行为指派某种特定函数。一旦把联结主义的认知和行动模型应用于道德哲学,那么就可以将道德知识视为一种技能知识,把道德决策视为一种技能活动。这种技能的获得依赖漫长的训练和学习,而非对规则知识的即刻把握。因此在丘奇兰德看来,绝大多数哲学家对道德的理智主义观点都是错误的。
具身认知(embodiedcognition)的观点则在更大强度上支持了反理智主义伦理学。它主张认知并非一种离身的符号加工,而是依赖身体的结构模式和感觉运动能力。作为具身认知的先驱,德雷福斯试图用具身技能的获得过程来解释美德的养成和运作。在他看来,技能的获得分为五个阶段:新手(novice)、老手(advanced beginner)、能手(competence)、高手(proficiency)、专家(expertise)。前三个阶段试图以算计合理性(calculativerationality)的标准将情境分解为语境独立的元素,从而用命题知识的形式去把握技能。但这样的技能不能根据情境的变化灵活地调整应对方式,只能应对简单的情境。只有到了高手阶段,能动者才会更加依赖创造性的直觉而不是算计合理性,从对抽象规则的掌握逐渐过渡到可以应对具体情境。后来,德雷福斯将这种纯粹基于技能知识的应对方式称为熟练应(skillful coping)。德雷福斯认为,这一技能模型可用于分析伦理活动。起初,我们通过遵守严格的规则来学习共同体的伦理;然后,开始应用的是一些语境化的准则;最后,彻底抛开规则做出自发的响应。比如对于诚实这样的美德,最初人们可能会在所有情境下都遵守不撒谎的规则,但当遇到一些复杂情境下的冲突性要求时,就开始寻找一些情境依赖的准则,比如“不要撒谎,除非告知真相可能带来伤害”。对于具有足够经验的道德大师来说,就会抛开所有规则或准则,而仅仅依赖情境来决定是如实告知真相还是说一些善意的谎言。德雷福斯认为,自发的伦理响应并非仅仅涉及简单或熟悉的情境,相反,在复杂的情境下更需要这种基于直觉和经验的熟练应对。在他看来,经验越多,所需的慎思就越少。
因此,从联结主义的认知科学来看,道德决策和行动本质上是非慎思性的技能活动;从具身认知理论来看,伦理技能的获得和提升经历了一个从显性规则到隐 性技能的阶段。总而言之,两种认知科学都支持这一观点,即道德大师的道德决策不是机械地遵守某种规则,而是在道德困境中创造性地采取一种“从心所欲而不逾矩”的道德行动。机器能动者或许可以通过遵守道德规则而成为道德能动者,但决不能达到道德成熟从而成为道德大师。
结论 人工智能是否可以成为道德大师?答案是否定的,我们或许永远无法将道德决策完全卸载给人工智能。建造道德能动者的自上而下方案面临在哲学上不可解的框架问题和常识问题,因而存在着先天限制;自下而上方案虽然不存在先天限制,但也面临着后天的工程学限制和规范性限制。这些考察结果具有机器伦理和元伦理学的双重含义。在机器伦理领域,这意味着我们难以建造一个人工道德大师;而在元伦理学领域,这意味着理智主义是错误的,但反理智主义却可能是正确的。通过引入联结主义和具身认知理论,可以进一步确证反理智主义的主张:我们不能依靠纯粹的遵守规则的行为而成为道德大师,相反,只有依赖漫长的学习和实践,我们才能逐渐获得道德技能,达致道德成熟。因此,成熟的道德决策是一种熟练应对,道德知识是一种技能知识,在这方面,人心胜于机器。
原文刊登于《道德与文明》2021年第1期
来源:道德与文明
编辑:古凤
|