传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

2024级硕士程正元学术日志

[复制链接]
17#
 楼主| 发表于 2024-1-16 20:04:18 | 只看该作者
落梁州:
我们说一个杯子是杯子,和一个服务生是一个服务生,这两句话的区别在哪?

C:
杯子一定是杯子,服务生可以选择自己是不是服务生

落梁州:


落梁州:
这就是存在

落梁州:
杯子的存在就注定是杯子

落梁州:
人的存在从来不是主订单额

落梁州:
注定的

落梁州:
这个服务生

落梁州:
有可能会是最伟大的健美运动员

落梁州:
会是最伟大的诗人

落梁州:
也可能是父亲和母亲

落梁州:
我们可以发现

落梁州:
人的存在不存在一个本质

落梁州:
即:我们不必是什么,不必必须是什么

落梁州:
可以理解吧

C:
可以的

C:
昨天你发我那篇文章我也看了

落梁州:


落梁州:
由此可见人的本质的空虚,决定了人的自由

落梁州:
自由之物是无限的,我们没有办法理解有限之物

落梁州:
一个母亲从婴儿诞生的一刻就知道自己是母亲了

C:
感觉就是,本来无一物,但万物皆可是“我”。空瓶子可以装所有的东西,正是因为它“空”

落梁州:
是婴儿把她做成了母亲,她也用自己的行为去实现母亲的身份

落梁州:


落梁州:
但是这个时候我们问她

落梁州:
你是怎么样成为一个母亲的

落梁州:
你如何理解自己是母亲呢

落梁州:
什么是母亲呢

落梁州:
她或许就不知道怎么回答

落梁州:
我们也是

落梁州:
从高中到大学

落梁州:
这个身份转变是如何进行的

落梁州:
既然我是自由的,为什么身边所有人都是这样

落梁州:
林黛玉谈到宴会

落梁州:
说 不想参见聚会,因为相遇总要离别

落梁州:
为什么人会讨厌离别

落梁州:
为什么人在聚会结束之后会有冷清

落梁州:
就是因为人被迫接受的自由,具有无限性,是一种无限延伸的倾向和动力

落梁州:
人只能去存在

落梁州:
就是海德格尔说的次在

落梁州:


落梁州:
我们只有先接受大学生的身份和束缚,去践行大学生之所为,才能慢慢理解大学生是什么样子,此刻的存在是什么样子。虽然我们不能完全理解它。

落梁州:
这就是为什么在我夜跑的时候,在操场边看一教的灯火通明

落梁州:
那一瞬间我会想,或许这一切只是一场梦

落梁州:
我或许是将死的老年人,或许是漂泊的中年人,或许还在高中,一切都是幻想

落梁州:
“我为什么存在在此?”

落梁州:
一个母亲,在垂暮老矣的时候,会回想自己和孩子的经历,孩子一点点大趴在床上的样子,母亲抚摸他的后背,孩子大一点,抱在怀里睡觉,直到孩子彻底长大能照顾自己,自己是怎么样走完这一切的。

落梁州:
过去和现在的交织就是人对存在感知的荒诞,这里的荒诞不是恐惧,而是一种幸福

落梁州:
是“我竟然成为了母亲”

落梁州:
“我竟然有这样美好的一生”的荒诞
16#
 楼主| 发表于 2024-1-16 19:28:23 | 只看该作者
人工智能生成内容能被视为作品吗?
“人工智能代表着新的生产力,极大地降低了人力成本,提高了生产效能,因此需要有一种法律来保障其健康发展,当然也需要用法律来对其进行适度规制。”中国版权协会理事长阎晓宏在出席1月13日由中国版权协会主办的远集坊第六十一期活动时强调。

本期活动以《生成式人工智能内容研讨思享会》为题,邀请了中国计算机用户协会副理事长顾炳中、金山办公首席执行官章庆元、对外经济贸易大学法学院教授卢海君、腾讯研究院高级工程师王鹏等嘉宾,共同探讨生成式人工智能业态下版权保护的新路径、新对策。活动由中国版权协会常务副理事长于慈珂主持。


研讨人工智能生成内容问题,应遵循三个原则

阎晓宏在演讲中表示,对人工智能的态度,不应扼杀它的发展,而是要在安全、伦理、道德等方面进行符合人类利益的限制。对主要表现为文字、声音、图像等生成式人工智能所产生的内容,应纳入著作权法的范畴,不仅合理而且可行。在讨论人工智能生成内容问题时应该遵循三个原则,在学术讨论中应贯彻著作权法的基本原则,即保护创作者原则、利益平衡原则、惠及社会和公众原则,特别是第三个原则尤为重要。虽然要贯彻著作权法这些基本原则,但不宜套用。另外,要以“淡化所有权,强化使用权”的精神来推进无形资产的运用。

对大模型训练中使用作品如何看待?阎晓宏认为有两个关键方面的认识需要明确。首先,授权使用难以做到,合理使用不尽合理,现行著作权法中未授予其法定许可,但人工智能生成内容是否能被视为作品?他认为,衡量是不是作品最根本的标准,就看其质量是否高于一般人类的水平,“如果我们不把它纳入到著作权法的作品定义之中,而却把大多数人类低水平的作品视为作品的话,在理论与法理上说不通,在实践中也行不通。可以按照法定许可的思路,需要学界法律界深入讨论”。其次,人工智能生成内容能否构成作品,要看人在其中发挥的作用大还是机器发挥的作用大,此外,还要基于作品的独创性、智力成果和一定表现形式来衡量。总之,基于二分法,把高质量的人工智能生成内容纳入著作权法的作品范畴予以保护,使其更好造福人类、服务社会发展。


下结论还为时过早,应“让子弹再飞一会儿”


“就目前来讲,对生成式人工智能产品版权下结论为时过早,从立法角度进行规范也尚不成熟、为时过早,应‘让子弹再飞一会儿’,否则将会影响技术发展。”顾炳中在演讲中说。

顾炳中在谈到生成式人工智能相关版权问题时认为,在生成式人工智能处于初始阶段,对其引发的版权问题应给予更多的宽容和时间、实践去验证。此外,要及时对其发展予以跟踪和密切关注,特别是对可能带来的版权问题要进一步研究,但不能匆忙下结论。一旦发现其引起了重大社会问题,与社会现行法律和价值观发生冲突时,一定要及时加以规范,而现阶段应以研究和跟踪为主。但对于明显侵权的行为要及时阻止,特别是要引导研发机构在大模型训练过程中注重权利的保护。“要以发展的眼光去看待新技术带来的版权问题。”

卢海君在演讲中用“旧瓶焉能装新酒”来描述他对于人工智能生成物法律制度的看法。他认为,目前人工智能训练的风险主要存在于输入端和输出端,也就是模型训练中的数据合理来源问题以及人工智能生成物的可版权性问题。如何解决旧瓶装不了新酒的问题,卢海君建议,在模型训练阶段,大模型开发者应保留并按要求披露训练数据,还应避免将训练数据以单个艺术家名称、单个商标等标记,而应该用更一般的描述来代替;在内容生成阶段,著作权法应该鼓励公众利用新型的创作工具。


2024年或是AI大模型落地元年


“2024年将是AI大模型落地的元年,将有越来越多的企业将AI大模型应用在实际的工作中。”章庆元预测说。

章庆元介绍了AI大模型及国内企业应用的现状。第一类是对话式应用,包括文心一言和ChatGPT等,都属于对话式的AIGC应用,对企业来说最重要的作用就是产生各种各样的内容,对工作效率的提升帮助很大。第二类应用是Copilot,即利用大模型生成代码能力进行工作。第三类是Insight,即知识洞察,未来可以起到企业大脑的作用,极大提升工作效率。

作为技术型的专家,王鹏在演讲中介绍了AIGC对社会经济的影响。他认为,人工智能将会给人类的生产生活方式带来颠覆性的改变和提升。

来源:中国新闻出版广电报
链接:https://mp.weixin.qq.com/s/NwLGEkt7_-wKomcBM7t7Yw

编辑:程正元
15#
 楼主| 发表于 2024-1-15 11:47:01 | 只看该作者
论弱人工智能体的道德性考察

龚群 | 文

龚群,江西南昌人,1952年生,山东师范大学马克思主义学院特聘教授,中国人民大学杰出学者特聘教授、博士生导师,美国哈佛大学、德国莱比锡大学等高级访问学者。中央马工程教材《西方伦理思想史》第一首席专家,国家社科基金重大项目“社会主义核心价值体系重大问题研究”、“全人类共同价值研究”首席专家,以及多个社科基金和教育部重点项目、一般项目主持人。出版《人生论》《自由与潇洒》《当代中国社会伦理生活》《道德哲学的思考》《当代西方道义论与功利主义研究》《道德乌托邦的重构》《罗尔斯政治哲学》《社会伦理十讲》《当代西方伦理思想研究》《自由主义与社群主义的比较研究》《现代伦理学》《追问正义》《当代后果主义伦理思想研究》等20多部学术专著,出版《伦理学简史》《德性之后》《伦理学理论》等多部译著,在国内外学术杂志发表论文260余篇。

摘   要:弱人工智能体是具有一定自主性的人工智能(AI),其自主性可能隐含相应的道德问题。弱AI因其深度学习模式而有类似于人类的逻辑推理能力,但它没有自我意识或意向性,不具备亚里士多德意义上与实践相关的实践理性和伦理德性,也不具有休谟式道德发动意义上的情感,从行为本身以及从行为者本身来看,弱AI并不具备道德行为者的基本要素。然而,弱AI是具有一定自主性且持续发展的行为者,属于一种需要认真研究的行为新类型和伦理新类型,学界亟需加强对当代AI的伦理研究,为迎接强AI的到来准备好伦理条件。

关键词:人工智能;道德行为者;德性;意向;行为

“人工智能”(artificial intelligence,简称AI)这一概念自1956年被正式提出,其理论和应用在随后的几十年、尤其是近十年中发展迅猛。“人工智能”即人为制造的智能系统,其相关研究已经成为一个崭新学科和当代尖端科学技术,并在多领域获得了广泛应用——如,能够进行深度学习(Deep Learning)的人工智能机器AlphaGo,通过战胜世界顶级围棋高手,显示了其在专门领域里卓越的智慧能力;ChatGPT的强大功能已经引发世界关注,似乎人类距离通用型或强人工智能(Artificial General Intelligence)已经不远了。ChatGPT和AlphaGo一样,都是具有深度学习机制的弱人工智能体。一般而言,人工智能这一概念涵盖人工智能理论、技术系统与应用领域(见腾讯研究院,第23页),而人工智能体(见简小烜,第98页)则指应用人工智能理论与技术而制造的人工智能机器(见闫坤如,第47页),有时又被人们称为人工智能机器人或智能机器人,但通常人们并不加以区分而统称之为人工智能。这类人工智能体在诸多专门领域(如自动驾驶、医疗诊断、军事、家政服务、抗击新冠病毒等方面)发挥作用。能够深度学习的弱人工智能体向人类诸多社会科学理论提出了挑战,其中首当其冲的就是伦理学理论。人们预言,不久的将来,强人工智能以及超级人工智能的时代也即将来临。目前人工智能领域对于人工智能进行三种不同层级的区分:弱人工智能是相对于强人工智能而言的,前者指的是人工智能只能在少数有限的范围或领域里胜过人类,虽然其专门项目在持续增加;后者又称为通用人工智能,这种达到人类水准的人工智能具有起码能和人类一样达成任何目标的能力;超级人工智能代表超越人类智慧的通用人工智能。(参见铁马克,第69页)深度学习机制并非是通用智能系统,即并非是在用户最少化干预的情况下也能完成任何活动的智能系统,如ChatGPT不可能脱离其设计的技术路线来从事任意活动。(参见何立民,第89页;刘子玥,第8页;铁马克,第67-69页)我们应从理论上积极应对弱人工智能体以及人工智能的未来发展给我们提出的伦理问题。

一、自主性与行为责任归属

弱人工智能体之所以会产生伦理问题,是因为它具有一定的自主性(autonomy),所以与以往所有人造物都不同。相反,如汽车等人造物作为人类社会的代步工具,仅仅表现为一种工具性,而不会被认为与交通事故之间存在某种伦理上的联系,这其中的差别正在于弱人工智能体的自主性。自主性是一个内涵较为丰富的概念,可以分为道德意识与行为意义两个层次。就前者而言,康德道德哲学典型地表达了其含义:个人意志的自主自决以及自我立法。就后者而言,自主性强调的是行为者能够在不受外在因素影响下独立作出决定和选择,并控制自己的行为导向目标。(参见程承评,第60页;丛杭青、王晓梅,第108、86-87页)本文所谈论的弱人工智能体的自主性主要表现为后者。如ChatGPT写诗、写文章、写代码的行为都是其自主性的表现,但这不能表明它有数据能力之外的创新能力。
行为自主性是对行为本身进行道德评价的基本要求,同时也是对其道德责任归属的主要考量。亚里士多德的行为自主论是一种自愿论,他认为“强制的始点是外来的,行为者对此无能为力”。(见亚里士多德,第41页)而行为能动者由内在机制(欲望、动机、意图等)主动发生的行为,其动力源于自己,其道德意义为行为主体本身所蕴含。换言之,如果一个人受到外来强制而不能自主决定自己的行为,就是非自主性行为,此类行为不应归责到行为者本身。成熟的人类行为者一般具有返身性道德责任意识,即不仅对于行为的目标有意识,而且对于该行为的影响有责任意识。
弱人工智能体适用于这种类推吗?自主性可分为三个层次,即操作性、功能性和完全性道德体(full moral agency)。(cf.Wallach&Allen,p.26)操作性自主完全按照程序设计来执行命令,这种自主是设计者想法的体现;功能性自主是为达到一定的设计目的,使行动主体能够依据环境条件对行为具有一定的调节性,并且具有评价自身行为的一定能力;完全性道德体的自主就是完全依据理性或情感能力的自主。沃利奇和艾伦认为,这三个层次的自主性依次递进,但“人类目前还没有这样的技术”能够实现从第二层次到第三层次的进化。(ibid.)人类行为自主性可以涵盖这样三个层次,而弱人工智能体目前只有操作性自主性和功能性自主性。操作性自主智能可部分替代人的劳动,但其伦理意义较小。凡是涉及人与人关系的地方,就具有伦理道德上(善恶、好坏)的意义,如智能工业机器人发生伤人事件,就是具有伦理恶的事件。伦理意义的大小主要取决于弱人工智能体的人际互动程度。在某一领域能够从事功能性活动的弱人工智能体,其蕴含的伦理意义有高下之分:如围棋人工智能体仅仅是与人对弈,相对人际互动不多;而无人驾驶汽车,在行进中需要面对不断出现的路人以及乘客的不同状况,因而与围棋人工智能体相比,无疑其伦理意义更大。虽然弱人工智能体具有在某一领域从事工作的卓越智能,但仍然不具有与人类的智能相比的真正通用性。
虽然目前弱人工智能体的智能活动并非称得上严格意义的、在人的自愿自主行为意义上发生的“行为”,但从机器算法的逻辑意义及自主行为的定义来看,这无疑具备了某些类人自主行为的特征。有人提出:“这种‘自主性’只是看上去像有,而实质上并没有,这种自主性源于一种功能赋予。所谓的功能赋予,是指行动者利用物体的自然属性达到他们的目的,人类和某些动物具有赋予对象某种功能的能力。”(宋春艳、李伦,第97页)但这类反对意见对于能够进行自主判断的弱人工智能体来说是不成立的。弱人工智能体代表了人类制造智能方面的突破性进展,“创造会思考的机器的可能性可能引发一系列的伦理问题,既与确保机器不伤害人类和其他与道德上关联的存在者有关,也与机器本身的道德地位有关”。(cf.Bostrom&Yudkowsky,p.316)“会思考”(thinking)的含义并不确切,正是因为这类机器具有一定的自主性,才引发了所谓的“道德地位”的问题,这与行为者的自主能力和道德责任能力相关。那么,弱人工智能体是某种自主而有承担责任能力的道德行为者吗?
弱人工智能体与具有理性的自我主体(即人)所作出的抉择从机制上看并非完全一样,但其结果都表现为行为自主。弱人工智能体目前的主要基本工作机理为符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism,或称进化主义evolutionism),这三者目前已呈融合趋势。能够进行逻辑演绎、强计算以及类神经网络的深度学习,具有很强的推理运算能力以及有限的模拟人类神经系统的结构与功能,在与环境互动中自主学习、作出判断,从弱人工智能体的逻辑演绎和运算能力以及作出选择和决定的能力看,它具有某种类人类理性的人工理性。需要注意的是,动物的自主性活动是因本能(刺激-反应)或感性欲求,并非由于内在理性而活动,这是动物与人的区别,也与弱人工智能体不尽相同。人工智能从根本上是为人类服务的,它能实现人脑的延伸和体力的解放,因而与人的利益息息相关。但其活动必须以善目的为导向。人工智能程序设计者可以把人类的道德规范、道德价值要素编制为人工智能的运算程序来让它们遵守或执行。(cf.M.Anderson&S.Anderson,p.75)人工理性充其量只是人类推理运算理性的拟人化形式,虽然道德判断往往也要用到逻辑推理,但伦理问题更多的是价值理性而非认知理性在起作用。人类的道德价值思维并非完全按照外在规范而是按照内化了的规范以及体现为品格的德性来进行符合规范的行动。实践理性并非像逻辑程序那样固化,而是因人的品格境界的差别而体现出千差万别的道德特性,这与机器按照指令程序来行动完全不同。人类自主性是在既有理性又具有自我意识的前提下的自主性,弱人工智能体的自主性是在没有自我意识前提下的自主性,因而并不能完全等同于人类自主性那样的自主性。那么,弱人工智能体可能具有道德责任意识吗?道德责任意识是一种返身性意识,即能够对于自己的欲望、意图或动机进行道德评价,并且在行动之后也能因自己的行为产生对他人有利或不利的后果而感到满意或内疚。弱人工智能体没有返身性思维的能力,因此不可能建构起道德责任意识,但这并非意味着不需要承担道德责任。
没有人类意识但具有一定自主性的人工智能,由于其有着一定人类智能性质的理性,并且也由于人可以将道德规范命令作为程序因子编入人工智能运行的程序之中,(ibid.)从而能够有道德意义上的行动。人工智能的深度学习基于程序算法给出的目标指令,但怎样最优地达到设置目标,则是人工智能机器人(又称智能机器或智能机器人)本身的作为。(参见郭万明,第130页;闫坤如,第50页)然而,如果智能机器人(目前的智能机器人也就是弱人工智能体)按照程序指令进行工作而出现某些并非由于程序本身造成的伤害人的问题,应该如何对其进行法律或道德责任意义上的处罚?弱人工智能机器人在本质上仍属于人的工具,不具备法律主体资格。(参见贺栩溪,第105页)有人认为,机器人即使有程序性自主性,但到目前为止的机器人没有责任心,也不能担负道德责任,因此不是道德行为者。(cf.Sullins,pp.24-25)但即使这类智能机器人不能像人一样具有责任心和承担道德责任,也不是严格意义上的道德行为者,并不意味着就不应承担责任,只是人类暂时没有找到合适的使其像人一样承担道德责任的方式而已。
责任、义务与权利是对等的,智能机器人具有一定的道德责任就应当享有一定的道德权利,但如何使机器人享有与自然人一样的法律道德权利和身份,仍然是一个问题。如ChatGPT已经可以按照程序指令来作画或写出优美的诗篇,那我们是否也应当保护这类弱人工智能体的著作权?这种著作权又如何履行?即使强调弱人工智能体是道德责任和权利的归属主体,弱人工智能体本身并没有意识,它不可能意识到自己负有某种责任,那么如何使其承担道德责任以及享有相应的权利?
二、意向性、意识与行为

具有道德意义的人类行为体现的是人类行为者本身的主动动因、内在意愿,因而体现了人类行为的意向性(intention)。但弱人工智能体仅仅具有一定自主性,其行为是否能够被视为类似于人的行为?人的行为是具有自我意识的主体的意向性行为,对弱人工智能体行为的道德意义的考察必须将意向性以及自我意识纳入其中。
首先,就人类的活动而言,有意义的行为与单纯无意义的动作或行动有根本区别。判断一个动作是不是行为,关键在于这个动作是有意识的行为、意识清醒下的行为、潜意识的行为,或只是无意识的肢体动作等。“行为就某种意义而言,是通过身体的运动体现出来的,但是只有当行为者遵循一种技术的行为规则,或者一种社会行为规则而同时进行这种运动时,这种行为才能体现出来。这种同时进行意味着,行为者是有意完成一种行为计划的,而不是有意进行借以体现他的行为的身体运动。一种身体运动是一种行动的因素,但不是行为。”(Habermas,S.146)哈贝马斯认为,人类的行为不能与行为背景所遵循的规则或社会规则分离,如果把身体运动与行为所体现的规则意义分离开来,就会对人类行为产生误解。当然,也存在着单纯的身体活动或肢体运动,但如果要把它说成是行为,就要看到它具有的意义。如我们向他人挥手是要向他人表达某种我们想表达的意思,这样的肢体活动无疑是一种行为。不过,哈贝马斯所说的行为与行为规则相关联中的“规则”,是行为者自己所认可或已经成为行为背景条件的规则。换言之,这样的行为规则并非需要行为者去努力回想而是已经融入行为方式之中的规则。这样的行为应当是行为者所认为的“正确的行为”,即与行为规则相符合的行为。此外,错误的行为其本身不符合一定的规则,但由于这些规则在行为者的理性认知范围内,因此当人们指出其行为不合规则时,行为者不能为自己进行合理辩护。
其次,人类的身体运动或肢体活动之所以会体现某种社会规则或具有规则意义,根本原因在于人类的意识。行为是人们在规则意识指导下的行为,或由于人们对某种规则的意识而作出的行为。不过,人类的行为在相当多的情形下,正如弗洛依德所说,是潜意识或无意识的行为。这类潜意识或无意识行为实际上是人们长期习惯所养成的,如行走礼让他人,看似无意识,却是在长期反复的行为实践中形成的自发性行为。这样的行为看似无意识,但仍然以符合规则的潜意识为前提。在我们依照习惯行事时,如果有人突然蛮横地在前面冲撞他人,我们会因不理解而感到吃惊。
第三,从现象学看,任何意识活动都有意向性,意识活动的特点就是意识主体既有对自身的意识,同时也意识到意识对象的存在。这个对象既可能是物,也可能是人。意识既指向外在的存在物,也可能指向内在对象。(参见布伦塔诺,第105页)以哈贝马斯的观点来说即在合规则的意识中,这也是意向性的特点。意识或意向对象是意识主体在意向过程中建构出来的,也赋予了对象意义。意向对象指向对象的过程,也是一个选择的过程,完成确定行为并赋予其意义。因此,在意向性精神现象中,意识主体起着关键性的作用。塞尔则从心理意义上来讨论意向:“感觉经验是意向,它们的意向内容在形式上是命题性的,即精神朝向适应世界,它们的性质以意向内容来说明。”(cf.Searle,p.45)在塞尔看来,意向本身不可离开感觉世界的本体,但同时又不可离开心理本体来把握。意向是内在心理性的,因而实现是意向本身的精神性事件。实际上,潜意识在某种意义上也就是指一种心理状态。在精神生活意义上,心理状态比明确的意识更为深层次。意向性既包含意识性层面,也包含心理精神层面。
弱人工智能体的活动可以称之为具有意向性的行为吗?当前的相关研究没有表明人工智能具有意向性活动。使人工智能像人脑一样具有意识或自我意识,是人工智能研究的重大方向。物理还原主义的路线并非能够成功。脑科学研究把意识现象还原为生化层次和神经构造层次,这一领域的研究表明,一切意识(包括意向性)活动都有严格的电生理化学反应关系。20世纪80年代末,“神经生理学发现,在猫、猴等动物的视觉皮层区,有40Hz同步振荡产生,据认为这种同步振荡是各种视觉特征……有的神经生理学家也把40Hz同步振荡作为意识的神经相关物”。(见汪云久等,第1142页)这引发人们的设想,是否只要有像人脑一样的生物结构,就可以使人工智能产生像人脑一样的意识行为或意向性行为?
就神经结构与认知结构的关系问题,目前的研究已经取得了一定的成果,如对于动物和人的视觉意识的神经机制研究,已经从传统的对视觉加工的分层级研究发展到视觉反馈过程的研究。动物电生理对猴子的研究发现,“在猴子的视觉皮层中,除了前摄神经连接,还存在很多反馈连接”。(见李奇、耿海燕,第1213页)还有人认为,“猴子的视觉大脑和视觉能力与人类非常相似”。(见刘晓力,第119页)针对动物视觉以及人的视觉神经生理结构的研究通过大脑皮层的神经传向方式的比较,深入探讨神经网络传导的物理表达方式。然而,这样的物理还原或以人工算法还原只是以物理方式或数学方式重现神经网络的认知,却把“意义”的参与排除在外,仅仅成为神经网络或人工智能深度学习的程序设计。换言之,把人的行为活动还原为大脑的物理或神经生理或电生理过程,能够解释行为意向吗?能够解释一个人在不同情境条件下完全相同行为的不同意义吗?
意识本来就与物理材料无关,关键在于组成的模式。(见铁马克,第386页)组成模式就是物质在粒子层次的排列组合。“我认为意识就跟固态、液态、气态一样,都是突现的现象,会产生原有粒子不具备的新特性。譬如说当我们进入深度睡眠,仅仅只是粒子重新排列,就可以让我们失去意识,或如果我不小心冻死,我身上的粒子只是改以不幸的方式重新排列,……”(铁马克,第382页)目前的生物物理研究还没有达到基本粒子或电子层面的生化反应层次。但是,基本粒子的排列方式就能够解释人类的意识现象吗?这仍然是一个存疑的问题。
虽然人工智能可以模拟人脑的知觉活动,但仍然不可能产生类似人的活动意义、自我意向性意识等维度的精神意义。目前达到神经网络深度学习的人工智能在原理上实际很简单:“‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可。”(斯加鲁菲,第29页)谷歌与斯坦福大学组成的联合研究组利用16000台电脑组成了包括10亿个连接在内的神经网络。斯加鲁菲把它称之为“暴力计算”。(见同上)暴力计算是目前统治人工智能领域的范式之一,ChatGPT就是一个实例。人脑中的神经元大约1000亿左右,每个神经元都通过1000个左右的突触与其他神经元连结、交换信息。神经网络在经过内在信息的多重转换后,最终能够将获得的事物表象转换成人类对外在事物对象的认知把握。“现在除了生物性的神经网路,还有属于人工智慧的神经网路,近来也成为人工智慧领域当中名为‘机器学习’(研究如何透过经验累积改良演算法)的主导力量。”(铁马克,第92页)在神经网络的深度学习功能上,计算机的能力很强大,但这是否意味着人工智能会像人类一样思考?
实际上,当前弱人工智能体的一个最根本问题就是缺乏像人一样的意识:“我认为超人智能至少具备一个特点:意识。人类的思考、感觉、痛苦、快乐都属于意识。人类有意识,比人类高级的智能理应也有意识。”(斯加鲁菲,第118页)当前弱人工智能体还不具备像人一样的意识能力。AlphaGo的设计程序中有千万个棋谱和算法,高速运算能力使得它能够飞速找到最佳棋法。但这并不是AlphaGo的意识,而是按照程序逻辑和深度学习算法作出的自动判断。弱人工智能体通过大数据的运算,具有超强的逻辑推理和判断能力(甚至可能有直觉判断,如在AlphaGo对弈李世石时让世人震惊的第37步),但并不能因此就说它具有意识。笔者赞同翟振明的观点:“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”(翟振明,第30页)认为当前的弱人工智能体的高超运算能力等于“意识”或会接近人的意识是犯了物理主义、计算主义混淆“内在描述”与“外在描述”的功能而陷于“整一性投射谬误”的结果。(见同上,第29页)“意向性问题曾经是19~20世纪转折时期最热门的话题之一。无独有偶,在新的世纪转折时期,它再次受到人们的亲睐。所不同的是,它不再只是一个纯学术问题,而同时带有工程学的性质。当今的心灵哲学与其他关心智能问题的具体科学如人工智能、计算机科学、认知科学等,尽管各自走着迥然不同的运思路线,但最终都发现意向性是智能现象的独有特征和必备条件。然而作为现代科技之结晶的计算机所表现出的所谓智能,尽管在许多方面已远胜于人类智能,但它只能按形式规则进行形式转换,而不能像人类智能那样主动、有意识地关联于外部事态,即没有涉及到意义,或没有语义性或意向性。”(赵泽林、高新民,第51页)
弱人工智能体不仅没有能思考的意识能力,也没有返身思考的能力,从而也就没有道德责任意识,更不用说自我意识。返身性思考首先有一个前提,即自我概念。返身是对自我形象多方面进行把握的能力,如通过对象来把握自我。猴子可以通过自己的水中影像获得对自己的感性直观,但人的返身性不仅是感性的,而且是理性的返回自身,如获得道德的自我形像。当前的AlphaGo可以通过学习进行对象性判断,但它能够通过无数次的学习建立像人类一样的心灵吗?通过无数次的深度学习建构起一套自己的逻辑理路来迎战任何围棋高手并不是人们所说的自我建构,更不用说什么自我意识了。即使是比AlphaGo更高一级的、算法更为先进的AlphaZero,也同样如此。
自我意识是自我与他者相分离的意识,是在知觉感知对象的前提下才可能有的自身意识。笛卡尔的“我思故我在”作为自我意识的呈现,首先在于能够将自我与对象世界区别开来,并在这种区别中认识自我。弱人工智能体并不是以任何已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。人工智能专家2019年设计制造了一类机器人,它可以进行自我修复,有人认为这似乎可以被视为具有自我意识的机器人。对此,江怡评价道:“严格地说,这还不能算是一个完整的机器人,而且,仅从机器手臂可以根据外部环境自我修复和调整的功能看,这也不符合我们通常理解的自我意识活动。”(江怡,第5页)弱人工智能活动并不等同于人类行为。如果弱人工智能体没有人类所具有的意识,也不具有人类道德意义上的行为,我们也就无从把弱人工智能体看成是类似人一样的道德行为者。
三、何为道德行为者?

按前述,自主性意义上的充分的“道德能动体”目前只有人类存在者才可充当,或者说,只有人才是道德行为者(moral agent,后一概念又译为能动者)。具有自主性的、能够意识到自己行为的意向,并能够因此承担相应责任的行为者可称之为道德行为者。(cf.Sullins,p.28)然而,就理性人而言,作为一个道德行为者,其特征远比这三个要素更为丰富。理性人的行为不仅与他的理性和情感相关,也与他的品格内在相关。亚里士多德认为,人作为道德行为者的本体依据在于人的灵魂。体现作为人的灵魂的本质特性的是理性,德性以理性相符,因而“是灵魂的德性”。(见亚里士多德,第22页)行为的正当性以符合理性为依据,如果人们因放纵自己的情感、欲望而受到责备,那么受到责备是很正当的,人的行为只有符合理性或听从理性的指导,才是符合德性的行为。
亚里士多德的灵魂说是其德性本体论最深层次的理论。就德性论本身而言,人的德性行为还应当有一个品格品质的内在根据。人有德性品质,才会有德性行为。德性品格可看作是人的长期道德行为习惯培养的产物,又可看作是人的理性潜能和体现。内在品格是在人的道德行为习惯中所养成的,因此,一个理性的人体现出的内在卓越的行为,也是品格的展现。当然,理性与品格两者也有不一致的情形,如罪犯运用理智来犯罪体现的就不是德性,而是恶。换言之,内在卓越的道德品质是行为合乎善的要求的德性保障。但仅仅有德性往往也会犯错。要做到理性与德性要求的一致,就要求人们在相应的条件下展现出其理智符合德性的判断,在适当的环境、适当的时间和适当条件下作出相应判断和行动。质言之,人的德性行为体现为德性品格和理性共同发挥作用的行为。
亚里士多德的德性论又可说是一种理性论(不排除品格也起作用)。在亚里士多德的意义上,理性可分为理论理性与实践理性,就理论理性而言,理性是分析、推理、判断,同时也是“对普遍者和那些出于必然的事物的把握”。(见亚里士多德,第121页)通晓几何、算术这类知识是智慧,而理性更重要的使命是沉思永恒的、最高的或普遍的存在,因而沉思是最高的幸福。实践智慧或实践理性,则是在道德、政治等实践中运用正确的原则。(参见同上,第114页,译文为“正确的原理”)功能性弱人工智能体的超强运算能力可高效而卓越地胜任某领域里的工作或实现其任务目标,在这个意义上,弱人工智能体具有亚里士多德所说的理性或卓越。然而,就伦理德性而言,亚里士多德同时认为不可忽视理性所起的决定作用以及德性品格所起的作用。理性指导与内在德性品格同样重要。但人工智能是否能够达到亚里士多德所理解的双重意义上的理性,还是一个未知数。在亚里士多德那里,德性品格在行为意义上体现为行为者的行为习惯,即在道德环境条件相同或类似的情形下可以通过某个行为主体在这样的环境下通常如何行动来预见他将如何行动。那么,人工智能是否可以通过程序编写将重要的德性品格写入人工智能程序,从而使得人工智能能够依据内在指令来合乎道德地行动?
人的品格特性是一种道德心理气质,也包括内在规范性内容。对于规范性内容,人工智能应当可以将其作为神经网络的运算因子。就此,人的德性品格实质性内涵可以转化为某种人工理性。但是,亚里士多德认为,德性行为在实践中并非是刻板地遵循伦理准则或规范,而是在实践理性的指导下在适当的场合、适当的时候,以适当的方式,为适当的目的对适当的人而言。(参见同上,第66页,译文为“应该”)一个慷慨的人给予他人多少援助,这既有理性判断所起的作用,也有内在品格的关键性因素,一个没有慷慨品格的人的理性算计的就不是能够帮助别人多少,而是怎样对自己更有利。人工智能可以把围棋的成千上万种正确算法编成程序并输入人工神经网络,通过深度学习,在与对手下棋时走出正确的一步。但是,人类的道德生活并非像围棋那样有着固定的格式,而是需要面对不断变化的情景中的行为对象。对于生活世界中的情景要求,行为主体往往是从内在品格出发,在与施行对象不断互动中进行理性判断,并调整自己的行为。范例学习可以获得道德原则,但并不意味着可以应对在程序中没有预见到的道德情景。数理逻辑是人工智能的神经网络深度学习的工作基础,其特点是形式化和确定化,根据逻辑规则从公理开始演算,为了更好地模拟现实和寻找解决问题的方案,就需要尽可能完善的数据库,这使得运行模式越来越复杂。但再大的数据库、再复杂的运行模式,也无法回答人类道德行为的不确定问题。
如果把理性与情感或感性作为看待人性的两极,休谟站在亚里士多德的对立面。休谟认为,理性并不可能成为道德的动因,也并非决定道德的根本属性。休谟强调人的道德动因来自于人的自然情感。人的自然天性结构即人的自然生命结构使得人对痛苦和快乐的感受成为最深层次的感受或情感,一切人的情感,喜、怒、哀、悲、乐等等都与生命对快乐与痛苦的体验相关。休谟把苦与乐看成是直接情感,而骄傲、谦卑、虚荣、妒忌、恶意等则为间接情感。休谟说:“根据自然的原始结构,某些性格和情感在一经观察和思维之下,就产生了痛苦,而另外一些的性格和情感则在同样方式下刺激起快乐来。”(休谟,第331页)并且,休谟认为人的快乐与痛苦的体验或感受与道德内在相关:“德(virtue)引文根据书后的中英对照表加了“virtue”这一英文,之所以标出英文,是因为译者译法与目前通行(目前译法为二:德性或美德)的不一致,故标出。的本质就在于产生快乐,而恶的本质就在于给人痛苦。”(同上,第330-331页)人的所有情感不仅可以归结为快乐与痛苦,而且德性与恶习的本质都可以看作是快乐或痛苦。休谟的观点与霍布斯、洛克一脉相承,他们都将快乐与痛苦与道德的善恶直接联系起来。但休谟更进一步,认为这是由人的自然生命的基本结构所决定的。换言之,人作为一个道德行为者的善恶或德与恶,在于人生命的自然感受(快乐与痛苦的情感感受)。
休谟强调人的生命结构具有感知道德善恶的能力:“我们既已讨论表现于人类方面的爱和恨,以及它们的各种混杂和组合,现在可以进而研究表现于畜类方面的这些感情;我们可以说,不但爱和恨是全部感情动物所共同的,而且……可以很容易地被假设为在单纯的动物身上起作用。”(同上,第435页)存在于人类身上的对他者的爱与恨、同情或情感的传导也同样可以在动物那里发现。但休谟认为,动物身上的自然情感并非是道德上的善与恶,人类的道德观念并非同样存在于动物界和植物界。如人类的血族通奸是罪恶,在动物方面就丝毫不是罪恶。这在植物界也同样如此。杀害父母是人类所犯罪中最大的罪恶之一,但在植物界并非是罪恶,如幼小的橡树长大后将老树毁灭。(见同上,第507页)在人类行为者那里,情感与道德有着直接的关联,在动物或植物这里,则没有关联。那么,人类的道德是怎样为人所感觉到的呢?休谟认为是人的心灵感觉到的,这由德与恶的本性所决定:“由德发生的印象是令人愉快的,而由恶发生的印象是令人不快的。”(休谟,第510页)并且,“发生德的感觉只是由于思维一个品格感觉一种特殊的快乐。正是那种感觉构成了我们的赞美或敬羡。我们不必再进一步远求;我们也不必探索这个快感的原因”。(见同上,第511页)休谟的说法仍然是回到快乐与痛苦这些最原生的情感中去。由于在动物那里没有人类感受德或恶而产生快乐或痛苦的情感感受,使得它们没有像人类一样的道德感或道德能力。
人工智能是否能够拥有类似于人的情感?目前的研究已经有了进展,其代表是加州技术学院所制造的“社交机器人”Leonardo(cf.Wallach&Allen,p.161)以及麻省理工学院的嗅觉感机器人The Cyranose 320(ibid.,p.150)。从休谟的观点看,目前的情感智能机器人并不具有休谟意义上的情感反应,更不具有从感觉上分辨道德的能力。那么,人工智能科学家能够有这样的程序算法将休谟所说的道德在情感上的感应写入人工智能的神经网络吗?这无疑是对目前的弱人工智能体提出了过高的要求。沃利奇和艾伦认为,“在可操作性道德和责任道德能动性之间,从仅仅在可接受的行为标准到理智系统(这一系统具有评估他们自己的某些道德意义的行为能力),存在着我们称之为的‘功能性道德’的许多等级”。(ibid.,p.26)亚里士多德的理性(德性)本体论和休谟的自然生命情感论是对人作为道德能动体的理论描述,二者都排除了在这个世界上在所有自然生命的存在之外,除了人类还有道德行为者存在的可能。亚里士多德强调只有人才有理性,其他有生命的事物都没有理性,从而不可能有类似于人类的德性行为。但是,人工智能的发展趋势表明,类似于具有人类理性和情感的强人工智能将在在弱人工智能的不断进化中出现。
当前弱人工智能体具有一定的自主性,理论上应当承担相应的道德责任。但弱人工智能体并不具有道德行为者的基本要素,使其无法作为承担责任的主体来行事。如果弱人工智能发展到强人工智能,具有亚里士多德式的实践理性和德性品格以及休谟式的情感,能够有情感体验、与人类进行情感交流,那么,这样一类人工智能体将是一类具备了作为道德行为者的基本要素的行为者。面对这类特殊的道德行为者,我们首先需要伦理理论的重建,提出一套类似人类行为的从动机、意图、理由到行为过程、再到行为后果的伦理规则和规范体系,培育内在道德品格德性的、适应于人工智能体的道德理论。其次,我们需要与人工智能领域的专家合作,探讨如何使这套理论成为人工智能的程序编程语言以及如何训练人工智能学习成为道德的机器人。这类伦理工作的意义不仅在于应对当前的弱人工智能体给我们带来的伦理挑战,也为不久将来可能出现的、具有人类意识或类似人类的自主意识的人工智能作好伦理准备。
参考文献
[1]布伦塔诺,2020年:《从经验立场出发的心理学》,郝亿春译,商务印书馆。
[2]程承坪,2021年:《人工智能的工作机理及其局限性》,载《学术界》第1期。
[3]丛杭青、王晓梅,2013年:《何谓Autonomy?》,载《哲学研究》第1期。
[4]郭万明,2020年:《人工智能体有限法律人格论》,载《广西社会科学》第2期。
[5]何立民,2020年:《从弱人工智能、强人工智能到超人工智能》,载《单片机与嵌入式系统运用》第8期。
[6]贺栩溪,2019年:《人工智能的法律主体资格研究》,载《电子政务》第2期。
[7]简小烜,2020年:《人工智能体的道德设计及其面临的挑战》,载《长沙大学学报》第4期。
[8]江怡,2019年:《对人工智能与自我意识区别的概念分析》,载《自然辩证法通讯》第10期。
[9]李奇、耿海燕,2008年:《视觉意识的认知神经科学研究进展》,载《自然科学进展》第11期。
[10]刘晓力等,2020年:《认知科学对当代哲学的挑战》,科学出版社。
[11]刘子玥,2021年:《关于弱人工智能与强人工智能的思考》,载《电子元器件与信息技术》第7期。
[12]斯加鲁菲,2017年:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社。
[13]宋春艳、李伦,2019年:《人工智能体的自主性与责任承担》,载《自然辩证法通讯》第11期。
[14]腾讯研究院,2017年:《人工智能》,中国人民大学出版社。
[15]铁马克,2018年:《Life 3.0:人工智慧时代,人类的蜕变与重生》,陈以礼译,台北远见天下文化出版股份有限公司。
[16]汪云久、唐孝威、Wu Jianyong(吴建永)、周昌乐,2001年:《意识的计算神经科学研究》,载《科学通报》第13期。
[17]王晓梅、丛杭青,2014年:《自主性与道德》,载《哲学研究》第2期。
[18]休谟,1980年:《人性论》下卷,关文运译,郑之骧校,商务印书馆。
[19]亚里士多德,1990年:《尼各马科伦理学》,苗力田译,中国社会科学出版社。
[20]闫坤如,2019年:《人工智能机器具有道德主体地位吗?》,载《自然辩证法研究》第5期。
[21]翟振明、彭晓芸,2016年:《“强人工智能”将如何改变世界》,载《学术前沿》第4期。
[22]赵泽林、高新民,2007年:《人工智能的瓶颈问题和本体论语义学的回应》,载《哲学动态》第6期。
[23]Anderson,M.and Anderson,S.,2010,“Robot Be Good”,in Scientific American 303(4).
[24]Bostrom,N.and Yudkowsky,E.,2014,“The Ethics of Artificial Intelligence”,in K.Frankish and W.Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press.
[25]Habermas,J.,1981,Theorie des Kommunikativen Handelns,Bd.1,Frankfurt am Main:Suhrkamp Verlag.
[26]Searle,J.,1983,Intentionality:An Essay in the Philosophy of Mind,Cambridge:Cambridge University Press.
[27]Sullins,J.,2006,“When Is a Robot a Moral Agent?”,in International Review of Information Ethics(6).
[28]Wallach,W.and Allen,C.,2009,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press.


微信编辑:杨慧宇

文章来源:《哲学研究》2023年第3期

投稿地址:http://zxyj.cbpt.cnki.net
14#
 楼主| 发表于 2024-1-15 11:38:44 | 只看该作者
邓晓芒:人工智能的本质
原创 邓晓芒 山东社会科学 2023-02-07 11:05 发表于山东


2022·12









作者简介:

邓晓芒(1948—),男,湖南长沙人,华中科技大学哲学系教授、博士生导师,《德国哲学》主编。












[摘要]人工智能是技术的表现。海德格尔在《技术的追问》中把技术的本质追溯到它的词源含义即艺术和诗,这也提示我们,对人工智能的本质不能仅从它的强大的数字计算功能来理解,它的工具性和人为性只不过是其本质的一种异化形态,而真正的本质是人类智能的“去蔽”(图片)和“成己”(Ereignis)。马克思的劳动异化思想从国民经济学批判的角度揭示了这种异化的必然性及其哲学人类学含义,将“有意识的生命活动”以及由此发生的精神劳动和物质劳动的分工作为人的本质的异化的历史根据。这就为我们理解人工智能的异化现象打开了一扇窗户,对人工智能的本质的追问也不再停留于海德格尔式的宗教神秘主义,而是进入了对人类起源的历史现象学分析。基于人的本质即“制造、使用和携带工具”及其所蕴含的意识和生命活动的统一,应将人工智能的本质理解为人的本质中意识和生命活动这两个环节在“人为性”中的统一。人的本质中意识和生命活动的对立和分离具有历史必然性,扬弃这种对立回到人性的完整性是人类不可放弃的永恒的目标。

[关键词]人工智能;技术的本质;人类起源;劳动异化;分工;人为性(artificiality)










  本文原载《山东社会科学》2022年第12期,参考文献及注释参见本刊原文。欢迎转发与授权转载。如需转载请留言或联系0531—82866278,联系人:孙老师。转载请注明来源!配图均来自网络。










  目前,人工智能(AI,即Artificial Intelligence)已经引起了社会各界的广泛关注,因为自21世纪以来,人们发现人工智能的发展开始有超越人类、控制人类和伤害人类的危险趋势,长此以往,我们生活的这个地球上将没有人类生存的空间,而只有“机器人”,从发展前景来看,它们必将取代人类、奴役人类,甚至消灭人类。这种担忧是否有道理呢?人类又该如何摆脱这种危险呢?这就必须对人工智能的本质进行深入的考察,而不是仅仅停留于外在的现象。





  一、海德格尔对技术本质的追问给予我们的启示


  1956年,约翰·麦卡锡(John McCarthy)等科学家在美国达特矛斯会议(Dartmouth Conference)上正式提出,任何有助于让机器(尤其是计算机)模拟、延伸和扩展人类智能的理论、方法和技术都可归入人工智能的范畴。但从人工智能半个多世纪的发展来看,这一规定的实质还是落实在最后一个要素即技术上,理论和方法都是为技术服务的。当然,这一规定本身是没有什么问题的,问题在于技术的本质,它影响到我们对人工智能的本质的理解。在这次会议之前的1950年6月6日,海德格尔在巴伐利亚艺术协会上作了一次演讲,演讲内容后来以《技术的追问》为题收入《演讲与论文集》(纳斯克出版社1954年出版,后辑为《海德格尔全集》第七卷)中。该演讲通过追问技术的本质,为我们研究人工智能的本质提供了一个重要的线索。换言之,人工智能是一门技术,这门技术与一般技术的区别在于它借用机器模拟、延伸和扩展人类智能。因此,要讨论人工智能的本质,就必须首先弄清一般技术的本质,在弄清楚技术的本质之后,再来看人工智能是如何从一般技术中分化出来的。经过这样一个过程,人工智能的本质才有可能得到澄清。



  海德格尔演讲的一个最主要的出发点就是:“技术不同于技术的本质。……同样地,技术之本质也完全不是什么技术因素。因此,只要我们仅仅去表象和追逐技术因素,借此找出或者回避这种技术因素,那么,我们就决不能经验到我们与技术之本质的关系。” 但通常人们对技术的追问就是停留于“技术是什么”这个层次,这样的答案只有两个,即“技术是合目的的工具”以及“技术是人的行为”,它们属于对技术的工具性的和“人类学”上的规定。这些规定在其本身的层次上当然是没有错的,但它们恰好以自己的这种“正确性”遮蔽了技术的本质,甚至导致了技术本质的异化。“正如人们所说的,人们要‘在精神上操纵技术’。人们要控制技术。技术愈是有脱离人类的统治的危险,对于技术的控制意愿就愈加迫切。”但是,自从亚里士多德以来,人们对技术的理解全部是局限于工具的层面,即把一事物看成另一事物的原因,把后者看成前者的目的。于是“工具之特性据以获得规定的那个目的,也被看作原因”,其中主要是因果关系在起支配作用。而当我们在这种工具性的因果关系中看到操控技术带来的恶果时,便从道德上加以谴责,但这就堵塞了从原初意义上理解这种因果性本质的道路。



  在海德格尔看来,这条道路就是不仅要把技术看作一种实用性的工具,而且要看作一种真理的揭示或“解蔽”(图片)。“如是看来,技术就不仅是手段。技术乃是一种解蔽方式。倘我们注意到这一点,那么就会有一个完全不同的适合于技术之本质的领域向我们开启出来。此乃解蔽之领域,亦即真理之领域。”也就是说,我们可以不从实践(实用)方面,而是从认识方面对技术加以超功利的考察。然而,这种解蔽从一开始就带有歧义。从希腊文的技术(图片,即techne)一词来看,它本身既有实用技术的含义,也有艺术创造的含义。“首先一点,图片不只是表示手工行为和技能的名称,它也是表示精湛技艺和各种美好艺术的名称。图片属于产出,属于;它乃是某种创作(etwas Poietisches)。”但最令人不安的是,图片的这两种含义通常是格格不入的,甚至是相反的。前者即实用技术只是一种“订造”(bestellen)或“摆置”(stellen)出来的“持存物”(Bestand),而后者即美的艺术则是在后面“促逼”着人去“创作”(图片)的“座架”(Be-stell),它“意味着那种解蔽方式,此种解蔽方式在现代技术之本质中起着支配作用,而其本身不是什么技术因素”。“现代技术既不仅仅是一种人类行为,根本上也不只是这种人类行为范围内的一个单纯的工具。对技术所作的单纯工具的、单纯人类学的规定原则上就失效了。这种规定不能通过一种仅仅在幕后控制的形而上学的或宗教的说明来得到补充。”这就意味着,只有让“形而上学的或宗教的说明”从幕后走上前台,即通过艺术的创作来解蔽神性的东西,才能弥补工具性技术的不足,进而展现出一般技术的本质。



  显然,海德格尔的意思是,技术的本质在于技术后面的那个“座架”,技术作为一种实用性的“订造”所带来的“解蔽”,只不过是对这一座架的“遮蔽”,必须透过这一层次的遮蔽而作更深层次的解蔽,而这种更深层次的解蔽的方式无非就是艺术。在古希腊,技术和艺术是同一个词图片,但在以后的发展中,工具性的技术占据了首位,艺术的解蔽方式逐渐被人们遗忘了。海德格尔试图经过这条道路把这一解蔽的真理重新揭示出来。所以他在另一篇文章中借用黑格尔的艺术定义——“艺术是理念的感性显现”加以改造,提出了自己对艺术本质的规定,即“真理自行设置入作品”。当然,他这里的真理已不再是黑格尔的那个绝对精神的“理念”,而是“存在”本身的“成己”(Ereignis)。换言之,存在本身在艺术中自行显现或“去蔽”(图片),这就是最终的真理。这也正是海德格尔引用荷尔德林的诗句“但哪里有危险,/ 哪里也生出拯救”的意思,即技术的异化给人类带来了灾难,但解除危险的办法不是放弃和排除技术,而是追溯和回归技术的本质,让真理本身或存在本身自行“生长”或显现出来。而这种显现作为一切技术和艺术的根,就是“创造”(图片),也就是“诗”(Dichtung)。“艺术的本质是诗”,这里的“诗”是广义的。“语言的本质就是根本意义上的诗。但由于语言是存在者之为存在者对人来说向来首先在其中得以完全展开出来的那种生发,所以,诗歌,即狭义上的诗,才是根本意义上最原始的诗。语言是诗,不是因为语言是原始诗歌,不如说,诗歌在语言中发生,因为语言保存着诗的原始本质。相反地,建筑和绘画总是已经、而且始终仅只发生在道说和命名的敞开领域之中。……而存在者之澄明早已不知不觉地在语言中发生了。”把技术的本质追溯到诗,进而追溯到诗的“原始本质”即语言,这是很有见地的。但要再往下追溯,即追问语言的起源或本质,海德格尔就做不到了,他只好求助于某种宗教的神秘或上帝的“道”的“救渡”。



  这也就是《技术的追问》一文中的结论:“那种贯通并支配一切美的艺术的解蔽获得了图片这个名称,成为诗歌即诗意的东西的专有名词”,而解决“技术之疯狂”的钥匙就在于“通过一切技术因素,技术之本质在真理之成己(Ereignis)中现身”;我们所面临的“危急状态”则在于“我们还没有面对喧嚣的技术去经验技术的本质现身。……我们愈是邻近于危险,进入救渡的道路便愈是开始明亮地闪烁,我们便变得愈是具有追问之态。因为,追问乃是思之虔诚”。





二、技术本质的异化及马克思的批判


  海德格尔的这番追问把我们带到了这样一种危险面前,这就是:当我们丧失了“思之虔诚”时,我们有可能对无蔽的真理视而不见,而习惯性地用现成的答案来遮蔽自己的双眼。我们所能看到的只是创造出来的东西(包括我们自己创造的东西或上帝创造的东西)的异化形态。“于是,在人们根据因果关系来描述一切在场者的地方,甚至上帝也可能对表象而言丧失了一切神圣性和崇高性,也可能丧失了它的遥远的神秘性。在因果性的眼光里,上帝就可能贬降为一个原因,一个作用因(causa efficiens)。进而甚至在神学范围内,上帝会成为那些哲学家的上帝,这些哲学家按照制作的因果关系来规定无蔽领域和遮蔽领域,而同时决不去思考这种因果关系的本质来源。”这里提到的哲学家,应该是指莱布尼茨。罗素在其《西方哲学史》中对莱布尼茨的“秘传哲学”有过这样的描述,说他基于逻辑上的矛盾律和充足理由律构想了一种“万能算学”,从而以计算代替思考。在莱布尼茨看来,“有了这种东西,我们对形而上学和道德问题就能够几乎像在几何学和数学分析中一样进行推论”,“万一发生争执,正好像两个会计员之间无须乎有辩论,两个哲学家也不需要辩论。因为他们只要拿起石笔,在石板前坐下来,彼此说一声(假如愿意,有朋友作证):我们来算算,也就行了。”这就为后来的在20世纪形成的人工语言或理想语言的分析哲学思潮开了先河,也为人工智能的发展提供了哲学上的根据。当然,用石笔在石板上“算出”上帝是否存在之类的答案肯定是无稽之谈,但这些哲学家相信,将这种人工语言运用于日常生活还是绰绰有余的,它可以得出非此即彼的唯一答案,有着自然语言通常不具备的精密性和严格性。这就使得人所创造出来的东西变成了敌视人的东西,对象化的活动变成了异化的活动。而在海德格尔这里,技术的这种异化正是他所说的“最高的危险”之所在:“一旦无蔽领域甚至不再作为对象,而是唯一地作为持存物与人相关涉,而人在失去对象的东西的范围内只还是持存物的订造者,那么人就走到了悬崖的最边缘,也即走到了那个地方,在那里人本身只还被看作持存物。但正是受到如此威胁的人膨胀开来,神气活现地成为地球的主人的角色了。由此,便有一种印象蔓延开来,好像周遭一切事物的存在都是由于它们是人的制作品。这种印象导致一种最后的惑人的假象。以此假象看,仿佛人所到之处,所照面的只还是自身而已。……但实际上,今天人类恰恰无论在哪里都不再碰到自身,亦即他的本质。”



  这里所描绘的正是当今人工智能所面临的困境。信息、网络、计算机、机器人都是人工制品,我们在其中所看到的仅仅是人类的智巧,而没有看到大自然或上帝插手其间。因此,我们自以为自己无所不能,已经成为世界的主宰,但我们恰好同时也感到这个世界是多么乏味和非人化。它虽然也是想象力和创造力的产物,但一旦产生出来,就容不得任何想象力和创造力了,只能按照已经制定好的计算法则运行,建立在人工语言、机器语言之上的人工智能就是这方面的最典型的代表。这种人工智能其实恰好成了一种非人的智能,它并不介意自己演化为一种恶魔的智能、反人类的智能,而这正是它的最可怕和最危险之处。人类越来越把握不住自己的作品了,他们将被自己的作品所支配、所奴役、所损害,下降为这个作品的工具或仆从,进而失去做人的资格。



  这就是人在自己的创造和生产过程中必然要发生的异化现象,这种异化现象的原理早在费希特、黑格尔尤其是马克思那里就已经被揭示得十分透彻了,只不过其严酷的后果直到今天才在人工智能的消极作用上充分地表现出来。如果说十九世纪西欧工人在破坏机器的运动中还天真地认为,只要把机器破坏了,人就可以回到手工作坊时代的自给自足或“自由自在”的生活;二十世纪的卓别林在那个“摩登时代”中已经看出,人在这一不可违抗的“命运”面前只剩下了黑色幽默和无可奈何的处境;两次世界大战则把机器对人的支配和残杀展示得淋漓尽致。21世纪的人工智能的兴起,更进一步将人对这种命运的无可奈何变成了引以为傲,在大数据和互联网的神秘操控下,个人自我的自主性已经归零,信息资讯在“订造”世界这件事上成为绝对主宰,由此滋生出人在面对自然界和人类整个过往历史时的某种虚骄和狂妄自大。至此,人工智能的自我异化上升到了无可救药的地步。技术的异化在人工智能中已走进了人的智能本身,而人的自我认同、人的一切情感和想象力甚至人的天才都成了这个人工智能愚弄的对象。



  人们最熟知的异化理论是马克思的劳动异化学说。马克思在《1844年经济学—哲学手稿》中,从政治经济学的角度提出了劳动异化的四个规定:(1)劳动产品的异化;(2)劳动活动本身的异化;(3)人的类本质的异化;(4)人与人的关系的异化。其中,劳动产品的异化是劳动活动本身异化的结果,而人的本质的异化和人与人的关系的异化严格说来也不能算是异化劳动本身的规定,而只是它在心理学和社会学上所导致的后果。可见,劳动异化的四个规定在马克思那里具有内在的层次关系,其中最根本的是第二个规定,即劳动活动本身的异化,它是其他各项异化现象的起源和本质。本来,人的劳动作为人所独有的生命活动,是人与动物的根本区别所在,在其中,人“把自己的生命活动本身变成自己的意志和意识的对象”,“有意识的生命活动直接把人跟动物的生命活动区别开来”,因而这种生命活动具有了自觉性和目的性,具有了自由的特点,也就是我们所说的“人为性”特点,这就是人的本质的哲学的(或哲学人类学的)规定。但从国民经济学上看,由于私有制的建立以及资本主义生产关系导致的劳动活动中的意识与生命活动的分离,这才发生了人被异化为机器的奴仆的现象,人本身失去了主动性和自由意志,受到严格计算好的机器运转节奏的支配,人为性变成了机械性。当然,马克思的着眼点是政治经济学的异化,而不是这种异化的哲学意义。但他同时也指出,在国民经济学中,虽然私有财产表现为劳动异化的根据和原因,其实它不过是劳动异化的结果,“从而,私有财产是外化了的劳动,即劳动者同自然界和自己本身的外在关系的产物、结果和必然归结。……正像神灵本来不是人类理性迷误的原因,而是人类理性迷误的结果一样”。所以,私有财产所呈现出来的表面的矛盾,其实“是异化劳动同自己本身的矛盾,而国民经济学只不过表述了异化劳动的规律罢了”。



  那么,异化劳动同自己本身相矛盾这个“规律”又是什么呢?或者说,人如何达到自己的劳动的外化、异化?这种异化如何根源于人类发展的本质?这就已经不是政治经济学问题,而是哲学问题了。马克思没有立即回答这些问题,只是说:“问题的这种新的提法已经包含着问题的解决。”但在别的地方,他立足于哲学人类学解答了这些问题,这就是:虽然有意识的生命活动直接把人和动物区别开来,从而使人的劳动具有了由人的意识和意志来自由支配的本质,但劳动的异化“把这种关系颠倒过来:正是由于人是有意识的存在物,人才把自己的生命活动、自己的本质仅仅变成维持自己生存的手段”。这就意味着人的劳动活动本身的两个环节即意识活动和生命活动的关系发生了颠倒和分离,这种分离并不是外在人为的分离,而是劳动本身在运动和发展中必然要发生的分工的结果,尤其是精神劳动和物质劳动日益分离的结果。我曾结合马克思后来一些著作中对劳动分工及其在历史中的作用的论述而得出了这样的结论:“精神劳动和物质劳动的分工是人类生产向前发展的最初的内在动力和必然趋势,其不可抗拒的必然性、自发性正根源于它构成劳动活动本身的内在本质的矛盾性;劳动活动在运动中必然表现为这二者的矛盾并发展为二者的对立,反之,又正是这种内在矛盾推动了劳动活动的运动和扩展,推动了生产力的进步,推动了人类文明的创立和发展,同时也推动了人的本质的异化的产生并使之在形式上不断纯粹化、彻底化、尖锐化,从而为人的异化的扬弃、最终为劳动活动本身异化的扬弃准备了现实的物质基础。”这就说明,在国民经济学层面的劳动异化的根源是基于哲学(哲学人类学)层面的“人的有意识的生命活动”在历史中必然发生的内在矛盾,也就是基于人的本质的自否定。从根本上来说,自否定才是人的本质,它在其历史发展中不可避免地一步步激发出劳动活动的异化以至于劳动产品的异化,并演变为人的本质的异化和人与人关系的异化。这些异化现象在国民经济学的层面上是有可能通过社会改造或革命而加以扬弃的,但它们的终极根源即由分工而导致的精神劳动和物质劳动的分化以及随之而来的某种程度的对立,则是不可能完全取消的。即使在消灭了私有制和“三大差别”(脑体、城乡、工农差别)的社会条件下,分工仍然是需要和存在的,它永远是推动社会生产力不断发展的一个重要的动力。马克思指出了分工导致异化的条件,即“只要分工还不是出于自愿,而是自然形成的,那么人本身的活动对人来说就成为一种异己的、同他对立的力量,这种力量压迫着人,而不是人驾驭着这种力量”。他设想在未来的共产主义社会里,“任何人都没有特殊的活动范围,而是都可以在任何部门内发展,社会调节着整个生产,因而使我有可能随自己的兴趣今天干这事,明天干那事,上午打猎,下午捕鱼,傍晚从事畜牧,晚饭后从事批判,这样就不会使我老是一个猎人、渔夫、牧人或批判者”。但这仍然不意味着取消了分工,而只是意味着分工不再成为一种外在的社会等级制度,而是一种“出于自愿”的兴趣爱好和天分差别的选择。在今天,这些差别所显示出来的个人独特性和多样性已经日益成为文明社会发展的动力。然而,即便如此,差别的存在毕竟包含有某种相互分离和对立的趋势。正是这种趋势,在人工智能的发展中不可避免地形成了《黑客帝国》式的支配者和被支配者之间的不对等关系,最终将导致人的自由的丧失。



  由此可见,马克思的设想只是在国民经济学的层面上提供了一个扬弃异化的方案,而没有在哲学层面上对人的本质的异化作一劳永逸的处理。这与马克思哲学本质上的批判性和开放性有关,就人的哲学本质而言,他在异化问题上实际上保持了一种开放的视野。但这种开放视野与海德格尔对上帝的神秘主义的期待和“思之虔诚”又不一样,它不是对彼岸的无休止的“追问”,而是将技术的本质和人工智能的本质视为一个哲学人类学的问题。换言之,它的追问在人类的起源和由此展示的人的哲学本质中有其现实的和历史的答案。





三、从人类起源看人工智能的本质


  人工智能技术和任何技术一样,无疑都是人为的产物,是人的理智的作品。因此,正如技术不同于技术的本质一样,人工智能也不同于人工智能的本质。但另一方面,也正如技术的本质不能离开技术来谈论一样,人工智能的本质也只有在人工智能本身中才能得到“追问”和“去蔽”,而这恰好是海德格尔所忽视的方面。所以,他只能撇开“存在者”来谈“存在本身”,撇开技术来谈技术的本质,最后只能凭借“思之虔诚”而求助于上帝的神秘启示。但我们必须紧紧抓住人工智能这种高度复杂化了的人类技术,以它的起源、发展和自我异化为线索揭示它的真正的本质,将人工智能的技术本质这一问题的神学解答转变为哲学人类学的现象学解答,这就必须追溯人工智能的起源乃至人类的起源。



  顾名思义,人工智能中的“人工的”(artificial,人为的)这一概念建立在对人的理解上,因此,人工智能的本质源于人的本质。但反过来说,人的本质恰好又可以用人对自己智能的运用来定义,这种运用就是所谓的劳动。最广义上的人工智能就是劳动,它既是“人为的(artificial)”,又是“艺术的(artistic)”。我对人的本质的定义是:人是制造、使用和携带工具的动物,以此明确划分人猿之别。劳动不仅是制造和使用工具,而且必须加上“携带工具”这一本质特征。人们过去沿用的定义是把人简单地规定为“制造和使用工具的动物”,但这没有把人与黑猩猩甚至与乌鸦区别开来,因为它们都可以制造和使用工具(不论这工具多么简陋)。而我的定义加上了“携带工具”,这是所有其他动物都不具备的。只有人,在使用完自己制造的工具之后并不是随手扔还给自然界,而是牢牢地掌握在自己手中,把它当成了自己的“延长的手”,也就是把一个经过自己加工的自然物当成了自己身体的不可分割的一部分,使之成了一个中介,它既是自然物同时又是人的延伸了的肢体。这一特征甚至改变了人自身的生物学形态:正是由于需要把工具随时握在手里,人才从四肢着地爬行逐渐进化成了直立行走,并能运用自己解放出来的双手灵巧地支配工具以制作更精细的产品。因此,携带工具的行为导致了人的劳动所呈现出来的本质上的人为性:人不仅在劳动中不断改进着自己的工具,而且塑造了自己本身(包括智能和身体),并最终使自己的姿态动作、表情和发声都具有了某种人为的“意义”,从而导致了语言(身体语言和口头言语)的产生,人由此成了“会说话的动物”。而黑猩猩由于缺乏携带工具这一步,它的制造和使用工具就无法上升到人为性,只能为眼前的需要所刺激和中断。可见,在最原始的人类劳动中,人工智能的胚芽就已经隐含在这种人为性中了。



  然而,我的这个定义也只是一个动态的、开放的定义。携带工具的习惯早已经不是后来的人类的特殊标志了,因为除了在一些原始部落中,今天已经很少有人成天把自己的劳动工具(包括武器)携带在身边。特别是我们的工具也不再是那么简单的几样(石器、棍棒等),而是各种日益复杂先进的工具(厨具、农具、猎具、渔具、文具等等),况且很多工具我们也不可能把它们都带着走,而只能根据其用途把它们存放在某个就近固定的地方,如厨房、杂物间、工地、库房、办公室等。但只要它们还是我的工具,我仍然在使用时把它们当作自己“延长的肢体”,并注意不让它们丢失。我们在遇到危险或紧急情况时,第一个想到的就是“抄家伙”。特别有意思的是,最近一二十年来,手机已经接近人手一部的程度,出门带手机似乎是把人的“携带工具”这一原始本性恢复过来了,人们随时用手机购物、打车、报警、求救、通信、拍照等等,手机不离身,简直成了另一个“我”。



  手机的运用固然使人恢复了那种天生的携带、掌握某种工具的能力,但却在层次上有了一个巨大的飞跃。首先,几乎须臾不可离的手机不是我亲手制造的,而是我买的,没有任何一个人可以孤立地完整地制造一部手机,它只能是众人分工合作的产物。其次,它的使用必须依赖众人运用信息技术建构起来的互联网,它的运作方式则是远程操控。手机省掉了我们亲自动手去做某件事,而是让别人在另一个地方帮我做某件事,我只要动动手指头,就可以完成我想完成的几乎所有的事情,他人成了我的“延长的手”。但同样的,我也给他人,更多的是给素不相识的人对我进行远程操控提供了机会,我也变成了他人的“延长的手”。这种方式不可避免地导致现实中人的生命活动的异化,例如它造就了网络上几乎无处不在无孔不入的欺诈。而斯诺登所披露的国家权力出于政治目的对公民个人隐私权的侵犯和管控更是令人触目惊心,因为它将每个人都关进了一个无形的笼子里,每个人的一举一动都被暗中操控着。退一步讲,即便不是出于恶意,人与人的这种互相操控也使我无法确定自己到底还是不是一个自由的行动者,也许恰恰相反,我不知不觉间就成了被其他意图所支配的一个数据、一个棋子,而每个操控者也都面临被操控的命运,甚至甘于接受这种命运(因为它太“方便”了)。到头来,真正的操控者似乎是那个强大而无可逃避的程序本身,就连程序的发明者也将为它所操控,它使我们大家都变成了程序中的一个代码。你的任何一个灵感、一道天才的闪光,甚至于你的创造力本身,都立即被它学习和优化而纳入了它自身的数据库,仿佛不是它在模仿你,倒是你在模仿它。它甚至做得比你更完善更完美,一切都早已在它的掌握中,使你无地自容。这大概就是世界围棋冠军柯洁在以0∶3被人工智能机器人Alpha Go击败后的苦痛心情。



  当然,人工智能从本质上看还是对人类智能的模仿,只不过在它这里,模仿和创造之间的区别正在趋近于零,两者完全同一在理论上是一个永远达不到的极限。因此,人工智能永远只是发挥了人类本性中的某一个片面,即学习、认知、模仿和复制的能力。人的智能的产物仿佛具备了自己独立的智能,可以脱离人而“自动”地做某些事情,但这本质上与原始人类所发明的“飞去来器”没有区别,尽管前者遵循的是思维规律,后者遵循的是自然(空气动力学)规律,在复杂程度上也不可同日而语。在人工智能中,思维规律被外化为机器式的数码传动装置,它的“自动性”是假象,其实是早就设定好了的,哪怕设定时不一定预计到它的后果,甚至结果还会出乎设计者的预料,但其中的逻辑关系(包括模态逻辑或概率关系)是能够算出来的。我们之所以不能把人工智能和人类的智能混为一谈,首先在于人工智能的“创造性”不是一种自发的创造性,而是由人预设的创造性,虽然在大数据的基础上其结果可以出乎一些人或所有人的预料,但终归是量的计算(这方面它的运算速度远超人类的智能)的结果。其次,人类的智能并不限于抽象的计算,而是与情感意志不可分离的心理活动,这种心理活动很可能干扰计算的过程,导致计算出错,这是它和人工智能相比的劣势所在,后者从来不会受到情感的扰乱,但同时这也是人类智能的优势,即它可以突破单维计算的局限而不断开拓出新的算法。最后,人类智能因此也就不能仅仅被看作一种计算性和实用性的“智能”,而是一种“精神”,不能单纯用“对错”来评价,而必须同时引入“美丑”“善恶”的标准。



  从本质上看,与人类智能相比,人工智能在上述这些方面的缺陷,归根结底是因为它不具备人类的身体。人类的身体以及由此带来的人的精神的肉身化是人类几百万年进化的结果,也是人类作为一个社会化的物种将他人和自我凝聚为一个自我意识的“人格”(persona,“人身”)的纽带。相反,机器人就没有完整意义上的“自我”,当它说“我”时只是说出了一个汇聚着众多关联词的代码,而不具备对“我”的身体性的感觉,它的所有的零件都是可以替换的。因此,机器人也没有死亡意识,它不可能“先想到死”,对自己一生作出全盘筹划。它是“不死的”,因而也没有真正的“生活”。所以,我们说人工智能只是将人类智能的某个方面抽象出来并加以片面发展和膨胀的产物,因而是人类智能异化的表现,它并没有表面看来那样脱离人、与人对立的独立性和自主性,而只能是人的“无机的身体”。当然,这种异化是不可取消的,也是必要的,它对当代人类的进一步发展具有重要的积极意义,只要我们认清了它的来龙去脉,把握了它的本质,我们就可以发挥它的长处,避开它的弊端。关键是我们不能陷入对它的优势的盲目崇拜,以为它能够帮我们解决任何问题,于是就贬低人类一切自然的情感和意愿,甚至无视一般伦理规范和审美标准。如果我们人为地割断人的整个历史传统和社会纽带,拆解我们的祖先从劳动中、特别是从携带工具的习惯中形成的自我意识的知情意三维结构,到处用人工语言去取代自然语言,无疑那将导致一种“智力拜物教”。果真到了那一步,就意味着人类的自取灭亡。但如果能够从这种困境中走出来,对人工智能保持一个批判的维度,人类的发展必将借助自身的内在动力而提升到一个更高的阶段,但不会是无情无义的“超人”,而是有情有义的“新人”。





四、结 语


  综上所述,人工智能的本质必须从技术的本质来理解,技术的本质必须从劳动的本质来理解,而劳动的本质必须从人的本质即“有意识的生命活动”来理解。但所有这些理解都不能撇开其异化的可能性和必然性来抽象地规定,而应当放在人类历史发展的长河中,由人性的自否定的内在冲动来“解蔽”。这一历史过程呈现为人性的丰富性不断地被异化所遮蔽,但又总是有望在更高层次上回归到自身的辩证进展。现代人工智能日益走向技术化和工具化,从本质的“人为性”变身为单向实用的“人工性”,这无疑是对人类自身本质的遗忘。由此所导致的人类生存危机不可能由一个处在彼岸的上帝来拯救,只能由我们自己在现代高科技的“无所不能”的假象中坚守住人类的人文底蕴。这不是对人工智能的否定,而是对人工智能的本质、最终是对人自己的本质的守护。


13#
 楼主| 发表于 2024-1-15 11:21:50 | 只看该作者
1.8 搞约稿论文。
搞学术不仅要有思维,还得有思维的思维,也就是元思维。
前一个思维是鉴赏的、建构的、批判的。
后一个思维是提高的、解构的、另辟蹊径的。

带着问题读书,很好。

1.9写论文。
AI是否是一种物?以及AI是否是一种媒介?这是本章在讨论前必须辩清的一个前置问题。海德格尔对物的分析可以追溯到《存在与时间》,西方哲学传统中,“事物”的希腊语“pragmata”(πράγμα)表示的是某人操劳地、打交道的那个东西,在海德格尔看来,这种暗含的看似实用主义的表述,恰恰反映了物被默认了不具有实用性意味[ Heidegger,M.1962(1984).Being and Time. Trans. J. Macquarrie and E.Robinson. New York:Harper and Row. Sein und Zeit. Tubingen:Max Niemeyer Verlag.CTP Heidegger,M. (269).P96-97.],一开始就是一种纯粹之物,而这也长期以来导致了物的晦暗不清。而事实上,海德格尔带给人们的是一种物的实用性本原的可能性,把哲学传统反过来看,给予实用性更高的关切。从这个意义上来看,AI的物性是很明确的,即为人所用,成为工具,就和一把锤子、一张椅子无异,都是为了方便人们的生活,将复杂的生活情景去蔽(没有锤子人们钉钉子或许会麻烦很多),展示世界不为人知的角落。AI祝福诞生的初衷,显然也是物的实用,节省人们的社交成本和精力。如果仅仅是出于一种游戏目的而存在——没有人能够假设这样一种可能性完全不存在,但是游戏层面的传播是具有随意性且需要熟人配合参与的,显然和大众传播的规律不符合,那么其对于社会关系微乎其微的扭转,也并不在本文的关切范围之内。
AI从物到媒介的过渡,在于是否具有上手性。海德格尔在《存在与时间》中举出过这样一个例子,一个房间中有笔、纸、灯等等,这些物并不是孤立地与人们照面,而是形成一个用具总体,成为人日常生活的一部分,这其实就暗含了海德格尔的媒介思想:物的上手性使其成为媒介。这与麦克卢汉“媒介即环境”的观点如出一辙,无论是在方法论层面还是在深邃的思想中,麦克卢汉都看到的都不是媒介的中介作用,而是是否成为日常生活的背景,成为无处不在又被忽视的存在。“我没有一个观点,只是把总体情况作为隐藏背景下的显豁图形来对待。”[ McLuhan, M. (1987). Letters of Marshall McLuhan. Eds. Matie Molinaro, Corinne McLuhan &
William Toye. Toronto, Ontario, Canada: Oxford University Press. ]这一点也是海德格尔提出的“上手性”所要告诉我们的,某物在服务于特殊目的的时候,才会成为其自身[ Heidegger,M.1962(1984).Being and Time. Trans. J. Macquarrie and E.Robinson. New York:Harper and Row. Sein und Zeit. Tubingen:Max Niemeyer Verlag.CTP Heidegger,M. (269).P98.]。人们与事物照面的首要方式不是凝视其外表,而是使物处在一个被掌握和调试的状态。“有之以为利,无之以为用”[ 老子.《道德经》. 中华书局出版社。2022.p 46.],“万物皆媒”的前提,就是万物处于上手状态,物的外在消失,成为人与世界中介化的链接,也成为世界本身的一部分。齐默尔曼曾举例:在专心打磨鞋底时,鞋匠不会注意到锤子,工具是透明的,锤子是手的延伸[ Zimmerman, M. E. 1990. Heidegger’s Confrontation with Modernity: Technology, Politics, Art. Bloomington,IN:Indiana University Press.]。而就目前来说,没有证据能够表明AI祝福或AI文本已在世界大范围内成为人们对话的延伸,与其说AI祝福是人们交流的延伸,倒不如说AI祝福诞生的场域——如QQ、微信、电子邮箱等是人们交流的延伸。故此,本文认为,AI有成为媒介的可能并具备一定趋势,但本身还未实现媒介化。
但这似乎更需要引起警惕:不妨设想一下,如果AI祝福成为了一种媒介会是什么样子?也就是说AI祝福已经处于上手状态,变成了虚拟与现实生活中空气一般的存在,人们在网络平台上不需要再去思考如何与人问候,AI已经可以完全代替。这是对社交礼仪和原生语言(discourse)的碾压式打击,事实上,AI文本的媒介化已经在悄无声息地发生,在校园内,ChatGPT横空出世已经成为了几乎“上手状态”的存在,AI成了大学生思考的延伸,剥夺原有的思想空间[ ]。


1.10.2024
今天陪发小城里逛逛,看看近些年的变化。我已经一整年没在江阴城里转转了。
明早处理一下传媒教育网更新。

1.11.2024
上午看看传媒教育网,准备下周更新,和学长对接一下。
上午还看了一些人机传播的文章。思考媒体的互联网思维。

下午继续看AI论文,看《纯粹理性批判》
摘录:
工业革命时出现的卢德分子时 至今日依然存在,继续保持着对技术深深的敌意。 而更多的人则持谨慎的怀疑态度。 例如,73%的欧盟公民对 AI 可能造成失业感到害怕,只有 31%的美国人支持发展高水平机器智能。① 2015 年以科学家霍金、科技企业家埃隆·马斯克以及一些 AI 专家为首公开签名的反对 AI 武器宣言则象征性地代表了人类对 AI 技术不确定性的担忧。 对机器人如何实现有效的约束也一直备受关注。 从阿西莫夫的“机器人三定律”到 2004 年墨菲和伍兹提出的修订三法则,再到 2010 年英格拉姆等人提出的“机器人工程师的伦理准则”,不论是机器人还是从事机器人研发的工程师都受到了明确的约束。

思考:AI性别的法理学探究


1.12.2024
上午写论文,非常的困。写了一点点。
太困了,下午睡觉,健身。
家里的学习习惯就是没有学校里好,晚上看会论文。弥补一下。


1.13.2024
思考:人工智能法案的文献梳理。
多搞点人工智能方面的新闻,做传媒教育网的时候。

1.14.2024
看了萨特的文章,说的真好,人能自由选择自己的存在,人本来就是自由的。应当自由地去努力。

性是有限的,而爱是无限的,有限的东西没有办法给人带来自由,只有无限的东西才可以。同样作为无限的东西,比如知识,梦想,自律。
12#
 楼主| 发表于 2024-1-8 22:14:56 | 只看该作者
2024.1.1一周
这一周发生了很多事,主要是我个人私事和搬家。我写了很多零零碎碎的思考片段,由于比较隐私,就不放在公开网站。
具体到学术上,没有什么进展。但是,想清楚一些问题,会让人生走得更长远。
“祸兮福所倚,福兮祸所伏。”人生没有绝对的幸福,只有相对的、平静的生活,重要的是我们在平凡生活中发现幸福的能力。位高权重、才貌双全未必是幸福,甚至也有可能是灾祸。知识与智慧带来的幸福才是真正的幸福,不要被欲望蒙蔽双眼,激情的生活终会归于绝望,现有的一切才是最美好的。

刘老师用三年的时间让我明白两样东西,一是对知识学问纯粹的追求,二是对浮躁社交生活的警惕。在工作结束的平凡生活中,我又让自己尝试明白了什么是幸福。幸福不是对高瞻远瞩的焦虑,而是脚踏实地的安心。
11#
 楼主| 发表于 2024-1-1 20:05:43 | 只看该作者
12.25.2023
圣诞节快乐,给大家表演个卧推。
白天剪辑了半天,复习。
周末考试考两门,日记先暂停。
10#
 楼主| 发表于 2023-12-25 20:48:50 | 只看该作者

12.18.2023

上午审稿子,写形势与政策。不想干别的了。看看邓书明的书,找找灵感。我现在还是倾向于不做质化,找几个人来问问“你对自动发送有什么看法”,写几个录音文件有什么意义呢?

下班推肩。

12.19
拍视频,剪辑。说来惭愧,现在才学剪辑。

12.20.2023
写论文。
周一练胸肩,今天还在酸痛,手都抬不起来,有点影响工作。

12.21.2023
实习答辩:
老师们好,今天早上,我七点起来,做了两个小时的地铁,从渝北重庆日报附近的住处来到重庆大学虎溪校区答辩。这半年平均每周我要经历两次这种奔波,这对我来说已是家常便饭。

我在重庆日报思想周刊实习,今年十月,我的实习已经结束。领导想让我再实习一段时间,我又没什么事干,再加上我睡不好想一个人住,综合以上三点原因,我就在渝北继续租房工作。

我的工作大多数是不留名的,我的日常工作是编辑审稿和策划选题,审一些领导和教授的稿子,我虽然是编辑,但是不署名,因为部门的政治性较强,如果有错误我承担不起,这是对我的保护。策划选题,也是幕后的工作,所以我目前只有四篇实习作品,是我参与视频制作,也就是分外的工作。

我分外参与的工作,做了一期安澜长江,登上了地方媒体榜前十。受到了集团和部门的表扬,也就是老师们可以看到的实习报告的截图。

在实习报告中,我对心得体会高谈阔论。但事实上,在过来的轻轨上我想到,其实人生无论怎么选都会有收获,无论是在此部门还是彼部门。无论是实习半年还是读书半年。

如果非要我说一点收获,那我觉得是在实习单位摸鱼的日子,在工作做完之余,我看了好多书,写了好多日记,写了好多评论和思考的点滴。这种感觉很美好,因为如果没有这种早八坐班,让我躺在家里,我根本懒得读书写作。我喜欢这种朝九晚五、下班健身的感觉,我觉得这是很美好的。我想,这是我人生追求的重要的价值之一:自律。

我会一直记得这段奔波的时光。

之后一上午写论文,爽。

保持清醒,戒骄戒躁。

12.22
周五,剪辑一天。把剪辑学会了。
说来惭愧,新闻传播学生,竟然大四才学会剪辑。

周末在上课,劳动法和民事诉讼法。
劳动法老师上的很好,就是课太久了,没有意义。
9#
 楼主| 发表于 2023-12-18 10:21:17 | 只看该作者
2023.12.11
毕业论文:
关键词:自动发送祝福、技术哲学、大众传播
问题:
大众传播背景下自动发送祝福对人际传播的建构——基于海德格尔的媒介哲学
自动发送祝福错在哪?在于不是一种talk或discourse,而是单纯的信息工具,突出了人的主体地位,而基于海德格尔的哲学,应当是“语言在说话”,也就是强调对话传播的本体地位。而不是创造出一种意义空间。那么意义空间应该是什么样的呢?

结构:
1.语言哲学部分,对工具主义和建构主义的批判,源于都强调主体性哲学的外化,强调正确传送信息,自动发送技术本质上也是这种性质,它正确的发送了我想表达的信息,但却没有完成传播的本意,让“语言在说话”。晚期:原初语言:打开遮蔽之物;派生性普通语言
2.相合性真理:无蔽状态也是在遮蔽,我们揭示自己祝福心意的过程也是在遮蔽自己原本的意思。正确不是人际传播的真诚,无蔽才是,这也是海德格尔所说的真理。
3.上手之物与在手之物:我们使用的一整个通讯设备、基建系统、文字符号、乃至自动发送技术,都是“媒介”作为背景的存在(麦克卢汉),是上手之物,透明的(区别在于自动发送祝福是表象之物,设施是实在之物)。要把自动发送祝福从上手之物转变为在手之物,这才是我们理解祝福如何影响人际的基础。自动发送祝福的“透明化”,是人际传播意义空间的陨落,是悲哀的。因为当这种技术成了我们生存空气一般的存在,我们对AI的操作习以为然,我们的人性也随之淡漠。只有把他重新放到在手之物的位置上,对技术发展保持距离和敬畏,才能重拾本该为上手之物的我们的“语言”。(discourse)。
4.技术的本质。“如果事物的本性来源于属性的结合,那么就会坍缩成一个不包含任何东西的对象”。现代对技术的定义:对事物视作客体并进行控制。从自动发送祝福的角度看,我们在控制什么呢?其实是在控制我们真正交流的自由。我们将这个权利赋予给了技术。现代技术的本质海德格尔称之为“集置”,将人重新部落化,人们今天已不能离开以 0 和 1 组成的二进制技术性符号而与事物打交道。而技术应当是将事物带回无蔽状态的,也就是说,祝福的本意是让我们回归到真正融洽的传播环境,重拾人与人之间的割舍,这才是技术的意义,这也是为什么,即便是只言片语的问候关心,也要比长篇大论的AI祝福更能打动人。

2023.12.12
杜俊飞论文:《海德格尔技术哲学对新媒介研究的现实意义》

毕业论文研究启示:座架、或说集置,是我们可以进行的反思,应该从自动发送的集置中挣脱出来。彻底回归技术本来的去蔽面目是不现实的,因为文本和对话框本身也是一种遮蔽。(船的例子。船从工具论角度说,只是为了帮助我们渡海远行,但是从本体论角度说,是体现了我们人类与海洋的关系的去蔽,没有船我们无法像现在一样理解大海。)

研究意义(写前面):技术在摆布自然的同时,也对主体进行摆布,亦即使主体限于一种不能自拔的境地(原话)。自动祝福技术就是一个典型例子。我们如何审视AI祝福,尤为重要。
自动祝福的几个特点:
1.会在好友生日前或其他节日前提醒,表现为对个人信息的一种集置。这些信息源于我们“完善个人信息”的操作,但并没有赋予代替我们去行动的权利,虽然助手只是提示建议我们发送自动祝福。这种看似“越殂代疱”的行为其实就是我们面对技术集置的时人的无能为力。
2.祝福内容千篇一律,缺乏“人”的痕迹,表现出一种技术的主体性。问题,需不需要搞一些调查研究?考察一些样本?(其实感觉不是很有必要,这个东西大家都知道的。可以先写好文本内容再考虑要不要加方法)
3.还与礼物系统绑定,与资本密切融合。玩明白了,原来现在还有,只不过都是要付费,人不仅被技术集置,还被资本控制,但是另一个角度说,资本也解放了人。(作为qq自动发送状况考察。)

研究的前一步,还需要进行态度考察,结合网络相关评论,好评多少多少,差评多少多少。一个段落带过。
And研究对象要聚焦,qq就qq。


研究背景
研究意义
Qq祝福考察

2023.12.13

肌肉和爱一样,是属于现代性的东西。
健身是社会“去太监化”的方式。

不要努力要自律。
不要意志要坚持。
不要优秀要热爱。
不要焦急要耐心。

健身可以带给我很多哲学的思考,也能带给我很多学习成长的启示。生物自然规律和人的成长发展有很多相似之处,要以身体为师。


12.14.2023

楼下施工很吵,但看论文心很静。
不要浮躁。
“海德格尔提出要通过本真的解蔽方式,来回归本真本己的存在。”
技术既然是人类认识进步的体现,如何建构一种与新媒介技术相适应的研究范式显得尤其必要。
(《海德格尔技术哲学对新媒介研究的现实意义》)

然 而,当代传媒思想家弗里德里希·基特勒却开始注意到海德格尔的媒介思想理论,在《走向媒介本体论》一文的摘要中认为,在西方哲学中,无论是古希腊时期的智者,还是阿奎那、笛卡尔、费希特、康德等大哲学家,都没有对作品自身的技术媒介给予足够的关注,“只是到了海德格尔时期,对技术媒介的哲学意识才第一次出现,数学与媒介的连接、媒介与本体论的连接也以更精确的术语而得到阐明”。(弗里德 里 希·基 特 勒:《走 向 媒 介 本 体 论》,胡 兰 菊译,《江西社会科学》2010年第4期。)
这一节的作用是一个引入,即为什么选择海德格尔。不用太细。因为能够帮助我们理解,为我们提供新的思路。这样看来其实不用搞质化。

还得多看海德格尔的原著。
《纯粹理性批判》、《存在与时间》、《精神现象学》类似于健身运动中的深蹲、卧推、硬拉。

还有一个点也很重要,就是基特勒强调的是媒介哲学,media,但是我们AI是介于媒介和技术之间的,因此也可以给我们思考带来更多启发,拓展理论的适用面。

“技术”一词(τεχμκσγ)首先代表了“τεχγη”(技艺) 所包含的一切,既代表手工艺,也代表精湛的艺术, 因此是一种“生产”。其次,“技术”还是一种“知道” (Wissen),即“对在场者之为这样一个在场者的觉 知(Vernehmen)”,是存在者的解蔽。

。这时,作为解蔽的“座架”不仅遮蔽着前一种解蔽方式即产出,而且也遮蔽着解蔽自身,人也 随 之 失 去 了 自 由 的 本 质。(越看越烧脑,脑子已经转不动了)

对自动祝福技术的批判——从海德格尔技术哲学视角

12.15.2023
工作做完了,评论写完了,红星评论交了。

看看实习答辩要求,保证无误。

写构式形势与政策。写了一点构式写不动,没写完,看会海德格尔,如沐春风。

下班去硬拉。

12.16
听学术讲座。北大那个老师讲的真好。
《中国本土的媒介哲学资源》——如果有机会读博就做这个题目。
(以上两段没有因果关系。)  

12.17.2023
周日。洗衣服,看《存在与时间》,有氧跑步。
8#
 楼主| 发表于 2023-12-11 20:16:18 | 只看该作者
12.4周一
听胡翼青讲讲座,听得好绝望。
或许知识的尽头就是带来绝望。
不知道为什么,绝望。

下午回日报,编辑。

今天胡翼青讲了一句话,他说:什么叫媒介即讯息?就是我跟我的博士生讲,你们选择我,我说了什么不重要,但是我怎么讲很重要,也就是言传身教。

别人都很懵,我豁然开朗,这才是我选刘老师和重大的理由,因为真正重要的东西都是看不见的。

12.5.2023 周二

任何人都不知道他在社会中的位置,即不知道他的阶级立场或社会地位,任何人也都不知道他在天资和能力的分配中的运气如何,即不知道他的才智、实力等等。我甚至还假定,各方不知道他们的关于善的观念,也不知道他们的特殊心理倾向。对正义原则的选择,是在一个无知之幕的背后进行的。这一点保证了任何人都不会在选择原则时因天然机会的结果或社会环境中的偶然性而得利或不利。
——正义论,可以学习这种逻辑。

白天编辑,看书。复习。

2023.12.6周三

硬拉90公斤 3次2组。
复习法理学。策划部门选题。提交评论作品。
张思滢说感觉逻辑可以再强点,但总体写的很好。
我觉得我逻辑可能是缺点,但是不至于看不明白。我不知道孰是孰非,想到庄子的“即使我与若辩矣,若胜我,我不若胜,若果是也?我果非也耶?”我们是不知道孰是孰非的,就像康德说的物自体,不用管到底真相是什么,继续努力就好。
不废话了,继续复习。

“在自由的社会中,人人想要平等。在平等的社会中,人人想要自由。”说得真好。

2023.12.7
周四,复习法理学,这学期看了四本法理学教材,这一本最好。回头分享给大家。
一切研究,核心就在于问题,要提出问题,要有真正的思考。其他都是花里胡哨。
可悲的是,大学考试唯一的思考内容就是猜题,猜会怎么考,如何考高分,而不教同学如何思考。
法学和新闻永远不会过时,法学研究的是正义,正义是人永无止境的追求。新闻研究的是真实,即“我能知道什么”,什么是真的,这也是永恒的追问,甚至是更本源的问题,本源到我们忽视了它的重要意义。

2023.12.8
上班,读版。
早上坐轻轨时我就想到,其实研究生不意味着可以躺平了,而相反,研究生意味“可以开始努力了”。因为之前阶段的学习是没有意义的,都是内卷的,思考的问题不是学术和使命,而是猜题、内耗、投机取巧。
研究生意味着:不努力还是会被淘汰,但努力也一定会有回报。从研究生到博士生,只要努力,愿意读下去,肯吃苦,肯定是会读出来的。这个时候如果想躺平,那直接去考公,考无锡国安局。躺平一辈子,但我不想这样,我觉得这样的人生没有意义。
我选择吃苦,选择努力,一方面是我觉得这些东西还比较喜欢,不至于讨厌,若是给我看高数,那我还是去做高中老师吧。但更更重要的是:我还不自由,我还没有选择人生的权利。我还没有选择自己未来生活方式的自由。一切都是为了自由。
勤奋好学是成才的开始。

下周拍视频,减点脂。今天深蹲。

关于评论的一些思考:
评论要写人话,不要写AI话。
评论的本质是辩论,和短视频下的吵架属性相同,需要通俗生动的口语语言。
评论首先是批判的,情感的,语言的;其次再是分析的,逻辑的,书面的;只有最后最差的才是赞美的。评论是一场无声的思想革命。
评论的亮点是“把问题说到点子上”,能不能把问题说到点子上是个能力,康德讲“物自体”,事物是非常复杂的,有无穷多无穷多面,大家都是自说自话。但如果有一个人能说到点子上,那才是厉害的。这个就需要丰富的知识储备和深邃的思想沉淀。


12.9.2023
晚上写评论骂张雪峰,妈的,真解气。

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表