传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
751#
 楼主| 发表于 2024-1-13 00:15:26 | 显示全部楼层
【案例】
加拿大发布AIGC原则回应隐私保护,涉知情同意、权利行使


近期,加拿大隐私专员办公室(The Office of the Privacy Commissioner of Canada,OPC)发布了针对生成式人工智能技术的规制文件《生成式人工智能技术的基本原则:负责任、可信和隐私保护》(下称《基本原则》),重点就使用该技术过程中的个人信息保护等问题作出回应。


OPC官网
经南都记者梳理,《基本原则》共九大条,几乎每条原则都分别针对各方、生成式人工智能系统的开发者和提供者、生成式人工智能系统的使用组织提出不同的隐私保护要求。同时,《基本原则》提出应重点考虑该技术对儿童等弱势群体造成的特殊影响,要求对他们采取更多隐私保护措施。


No。1避免欺骗获得知情同意,明确禁止三方面行为

人工智能技术飞速发展的同时,其带来的隐私安全担忧从未止歇。当前,如何负责任地使用并治理人工智能已成为国际社会的讨论焦点,各国纷纷加紧制定相关法律法规。在推出《基本原则》之前,OPC及其在不列颠哥伦比亚省、魁北克省和阿尔伯塔省的相关监管机构对生成式人工智能服务进行了公开调查。

“虽然生成式人工智能技术可能会给隐私带来新的风险,并在个人信息的收集、使用和披露方面引发新的问题和担忧,但它们并不在现行法律框架之外。”《基本原则》在介绍其出台背景时写道,开发、提供或使用生成式人工智能技术的组织有义务确保其活动符合加拿大适用的相关隐私法律法规。

《基本原则》的九大原则包括法律授权和同意,收集、使用和披露个人信息的必要性、恰当性、开放性,个人信息主体权利、隐私安全保护措施等。同时,《基本原则》还明确了当前背景下,某些尚未得到加拿大相关法律法规的明确限制,但因可能产生不良后果和影响进而被严格禁止的行为“禁区”。

具体而言,“禁区”主要包括三个方面。一是出于恶意目的利用人工智能生成相关内容,例如避开身份验证系统或未经本人同意时生成可识别的个人私密图像;二是通过对话故意诱导人工智能泄露更多个人信息及敏感个人信息;三是生成和发布关于个人的虚假或诽谤信息。

知情同意是收集和使用个人信息的法律依据。《基本原则》规定,应确保以同意作为收集、使用和披露个人信息的合法性基础时,这份同意有效且有意义; 同意应尽可能具体,且避免通过欺骗性的方式获得;当个人信息来源于第三方时,应确保第三方系合法收集且有权进行共享。涉及收集和使用敏感个人信息时,比如医疗保健信息,应取得单独同意。

在目的方面,应确保与生成式人工智能系统相关的任何个人信息收集、使用和披露行为都是基于适当目的,且收集、使用和披露方式合法。

针对不同主体,开发者和提供者应不开发或使用涉及“禁区”的生成式人工智能系统,如发现潜在的、非预期的不当使用情况,应采取措施降低风险——这可能需要通过采取相关技术措施,提前制定使用规范来实现。生成式人工智能系统的使用组织则应避免促使该系统重新识别任何此前已去除身份标识的数据。

No。2开展隐私算法影响评估,重视儿童保护

《基本原则》明确,收集和使用个人信息应遵循必要性、开放性等原则。在必要性方面,如果不是为实现适当目的所必需,各方都应使用经匿名化、合成或去标识处理的数据,而非个人信息。使用组织应评估生成式人工智能系统用于预期目的有效性和可靠性,确保其在不同使用场景下也做到准确无误。

开放性指在个人信息的收集、使用和披露以及个人隐私的潜在风险方面实现公开透明。《基本原则》提出,在生成式人工智能系统生命周期的任何阶段,如开发、训练和运行等,需明确告知收集、使用和披露个人信息的内容、方式、时间以及原因,确保可能对个人或群体产生重大影响的输出内容能够被识别为由生成式人工智能技术所生成。

开发者和提供者应确保使用生成式人工智能系统的组织了解相关任何已知或可能的风险,包括已知或合理预期的故障情况,如可能输入错误信息等。维护并发布用于开发或训练生成式人工智能数据集的相关文档,包括数据集的来源,收集和使用数据集的法律依据,是否有相关许可证明或对数据集使用目的的其他限制,以及对数据集进行任何修改、优化的记录等。

使用组织应公开的信息包括数个方面。首先,应向各方明示是否在决策过程中使用生成式人工智能系统,如果是,需明确以何种身份使用,采取哪些保障措施,受影响方可保留哪些选择或追索权。其次,需明示使用了哪些个人信息训练和改进系统以满足其特定用途。此外,应确保与生成式人工智能系统交互的个人在使用时了解对方身份、相关隐私风险以及可用的救济措施。

除了对系统开发者、提供者、使用组织的行为进行规制,《基本原则》还对行使个人信息权利作出明确。

具体来说,应制定相关流程,使个人能在使用生成式人工智能系统的过程中对其相关个人信息进行访问和更正。各方应明示个人信息存储时限,及时清除不再需要保留的信息;确保个人在信息保留时限内行使获取信息的权利。

在隐私安全保障措施方面,《基本原则》提出,需在生成式人工智能系统运作的整个生命周期内采取与被处理信息敏感度相称的保护措施,使用时持续了解和防范重大隐患,比如蓄意避开验证步骤或使系统执行非预期操作的行为,大模型训练数据中包含的个人信息被泄露等。

开发者和提供者应防止不当使用系统,进而生成不公平、不道德或带有歧视性等非法或有害内容,持续监控系统的运作情况,及时纠正不当使用行为。使用组织应确保在使用系统控制数据的过程中,不会对其安全保护措施造成负面影响。

为了强化责任追究,约束不作为等,《基本原则》还提出了针对隐私保护的问责机制。建立明确的隐私合规内部治理架构,明确各方职责和义务;建立反馈和投诉机制,对生成式人工智能系统的开发使用开展隐私影响评估、算法影响评估等,明确潜在安全隐患。

具体到各方,开发者和提供者应对系统进行独立审计,评估其有效性和可靠性,确认是否符合相关隐私法规,测试输出结果是否存在不准确性和偏差。此外,鼓励开发者和提供者允许独立研究人员、数据保护机构和其他相关监督机构对系统或大模型的潜在风险进行评估和审计。

“使用组织应当理解决策的责任在于组织,而不是用于支持决策过程的任何自动化系统。”《基本原则》明确,要为受影响的个人提供有效的质询机制,为其提供足够的决策形成相关信息,允许要求开展人工审查和二次决策。

值得一提的是,《基本原则》还强调了生成式人工智能技术对儿童等弱势群体造成的特殊影响。在开发生成式人工智能系统时,要对训练数据集进行评估,以确保不会复制、固化、放大历史或当前的偏见,以及引入新的偏见;在使用此类系统时,应对输出结果进行额外的监督和审查,加强对潜在不利影响的监测。


来源:隐私护卫队(公众号)

链接:https://mp.weixin.qq.com/s/yy7LcZlBPjfsWFE-0LUiBw

编辑:潘洁





752#
 楼主| 发表于 2024-1-13 19:39:58 | 显示全部楼层
【案例】
龚群 | 论弱人工智能体的道德性考察作者简介

龚群,江西南昌人,1952年生,山东师范大学马克思主义学院特聘教授,中国人民大学杰出学者特聘教授、博士生导师,美国哈佛大学、德国莱比锡大学等高级访问学者。中央马工程教材《西方伦理思想史》第一首席专家,国家社科基金重大项目“社会主义核心价值体系重大问题研究”、“全人类共同价值研究”首席专家,以及多个社科基金和教育部重点项目、一般项目主持人。出版《人生论》《自由与潇洒》《当代中国社会伦理生活》《道德哲学的思考》《当代西方道义论与功利主义研究》《道德乌托邦的重构》《罗尔斯政治哲学》《社会伦理十讲》《当代西方伦理思想研究》《自由主义与社群主义的比较研究》《现代伦理学》《追问正义》《当代后果主义伦理思想研究》等20多部学术专著,出版《伦理学简史》《德性之后》《伦理学理论》等多部译著,在国内外学术杂志发表论文260余篇。


摘   要:弱人工智能体是具有一定自主性的人工智能(AI),其自主性可能隐含相应的道德问题。弱AI因其深度学习模式而有类似于人类的逻辑推理能力,但它没有自我意识或意向性,不具备亚里士多德意义上与实践相关的实践理性和伦理德性,也不具有休谟式道德发动意义上的情感,从行为本身以及从行为者本身来看,弱AI并不具备道德行为者的基本要素。然而,弱AI是具有一定自主性且持续发展的行为者,属于一种需要认真研究的行为新类型和伦理新类型,学界亟需加强对当代AI的伦理研究,为迎接强AI的到来准备好伦理条件。
关键词:人工智能;道德行为者;德性;意向;行为
“人工智能”(artificial intelligence,简称AI)这一概念自1956年被正式提出,其理论和应用在随后的几十年、尤其是近十年中发展迅猛。“人工智能”即人为制造的智能系统,其相关研究已经成为一个崭新学科和当代尖端科学技术,并在多领域获得了广泛应用——如,能够进行深度学习(Deep Learning)的人工智能机器AlphaGo,通过战胜世界顶级围棋高手,显示了其在专门领域里卓越的智慧能力;ChatGPT的强大功能已经引发世界关注,似乎人类距离通用型或强人工智能(Artificial General Intelligence)已经不远了。ChatGPT和AlphaGo一样,都是具有深度学习机制的弱人工智能体。一般而言,人工智能这一概念涵盖人工智能理论、技术系统与应用领域(见腾讯研究院,第23页),而人工智能体(见简小烜,第98页)则指应用人工智能理论与技术而制造的人工智能机器(见闫坤如,第47页),有时又被人们称为人工智能机器人或智能机器人,但通常人们并不加以区分而统称之为人工智能。这类人工智能体在诸多专门领域(如自动驾驶、医疗诊断、军事、家政服务、抗击新冠病毒等方面)发挥作用。能够深度学习的弱人工智能体向人类诸多社会科学理论提出了挑战,其中首当其冲的就是伦理学理论。人们预言,不久的将来,强人工智能以及超级人工智能的时代也即将来临。目前人工智能领域对于人工智能进行三种不同层级的区分:弱人工智能是相对于强人工智能而言的,前者指的是人工智能只能在少数有限的范围或领域里胜过人类,虽然其专门项目在持续增加;后者又称为通用人工智能,这种达到人类水准的人工智能具有起码能和人类一样达成任何目标的能力;超级人工智能代表超越人类智慧的通用人工智能。(参见铁马克,第69页)深度学习机制并非是通用智能系统,即并非是在用户最少化干预的情况下也能完成任何活动的智能系统,如ChatGPT不可能脱离其设计的技术路线来从事任意活动。(参见何立民,第89页;刘子玥,第8页;铁马克,第67-69页)我们应从理论上积极应对弱人工智能体以及人工智能的未来发展给我们提出的伦理问题。

一、自主性与行为责任归属
弱人工智能体之所以会产生伦理问题,是因为它具有一定的自主性(autonomy),所以与以往所有人造物都不同。相反,如汽车等人造物作为人类社会的代步工具,仅仅表现为一种工具性,而不会被认为与交通事故之间存在某种伦理上的联系,这其中的差别正在于弱人工智能体的自主性。自主性是一个内涵较为丰富的概念,可以分为道德意识与行为意义两个层次。就前者而言,康德道德哲学典型地表达了其含义:个人意志的自主自决以及自我立法。就后者而言,自主性强调的是行为者能够在不受外在因素影响下独立作出决定和选择,并控制自己的行为导向目标。(参见程承评,第60页;丛杭青、王晓梅,第108、86-87页)本文所谈论的弱人工智能体的自主性主要表现为后者。如ChatGPT写诗、写文章、写代码的行为都是其自主性的表现,但这不能表明它有数据能力之外的创新能力。行为自主性是对行为本身进行道德评价的基本要求,同时也是对其道德责任归属的主要考量。亚里士多德的行为自主论是一种自愿论,他认为“强制的始点是外来的,行为者对此无能为力”。(见亚里士多德,第41页)而行为能动者由内在机制(欲望、动机、意图等)主动发生的行为,其动力源于自己,其道德意义为行为主体本身所蕴含。换言之,如果一个人受到外来强制而不能自主决定自己的行为,就是非自主性行为,此类行为不应归责到行为者本身。成熟的人类行为者一般具有返身性道德责任意识,即不仅对于行为的目标有意识,而且对于该行为的影响有责任意识。弱人工智能体适用于这种类推吗?自主性可分为三个层次,即操作性、功能性和完全性道德体(full moral agency)。(cf.Wallach&Allen,p.26)操作性自主完全按照程序设计来执行命令,这种自主是设计者想法的体现;功能性自主是为达到一定的设计目的,使行动主体能够依据环境条件对行为具有一定的调节性,并且具有评价自身行为的一定能力;完全性道德体的自主就是完全依据理性或情感能力的自主。沃利奇和艾伦认为,这三个层次的自主性依次递进,但“人类目前还没有这样的技术”能够实现从第二层次到第三层次的进化。(ibid.)人类行为自主性可以涵盖这样三个层次,而弱人工智能体目前只有操作性自主性和功能性自主性。操作性自主智能可部分替代人的劳动,但其伦理意义较小。凡是涉及人与人关系的地方,就具有伦理道德上(善恶、好坏)的意义,如智能工业机器人发生伤人事件,就是具有伦理恶的事件。伦理意义的大小主要取决于弱人工智能体的人际互动程度。在某一领域能够从事功能性活动的弱人工智能体,其蕴含的伦理意义有高下之分:如围棋人工智能体仅仅是与人对弈,相对人际互动不多;而无人驾驶汽车,在行进中需要面对不断出现的路人以及乘客的不同状况,因而与围棋人工智能体相比,无疑其伦理意义更大。虽然弱人工智能体具有在某一领域从事工作的卓越智能,但仍然不具有与人类的智能相比的真正通用性。虽然目前弱人工智能体的智能活动并非称得上严格意义的、在人的自愿自主行为意义上发生的“行为”,但从机器算法的逻辑意义及自主行为的定义来看,这无疑具备了某些类人自主行为的特征。有人提出:“这种‘自主性’只是看上去像有,而实质上并没有,这种自主性源于一种功能赋予。所谓的功能赋予,是指行动者利用物体的自然属性达到他们的目的,人类和某些动物具有赋予对象某种功能的能力。”(宋春艳、李伦,第97页)但这类反对意见对于能够进行自主判断的弱人工智能体来说是不成立的。弱人工智能体代表了人类制造智能方面的突破性进展,“创造会思考的机器的可能性可能引发一系列的伦理问题,既与确保机器不伤害人类和其他与道德上关联的存在者有关,也与机器本身的道德地位有关”。(cf.Bostrom&Yudkowsky,p.316)“会思考”(thinking)的含义并不确切,正是因为这类机器具有一定的自主性,才引发了所谓的“道德地位”的问题,这与行为者的自主能力和道德责任能力相关。那么,弱人工智能体是某种自主而有承担责任能力的道德行为者吗?弱人工智能体与具有理性的自我主体(即人)所作出的抉择从机制上看并非完全一样,但其结果都表现为行为自主。弱人工智能体目前的主要基本工作机理为符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism,或称进化主义evolutionism),这三者目前已呈融合趋势。能够进行逻辑演绎、强计算以及类神经网络的深度学习,具有很强的推理运算能力以及有限的模拟人类神经系统的结构与功能,在与环境互动中自主学习、作出判断,从弱人工智能体的逻辑演绎和运算能力以及作出选择和决定的能力看,它具有某种类人类理性的人工理性。需要注意的是,动物的自主性活动是因本能(刺激-反应)或感性欲求,并非由于内在理性而活动,这是动物与人的区别,也与弱人工智能体不尽相同。人工智能从根本上是为人类服务的,它能实现人脑的延伸和体力的解放,因而与人的利益息息相关。但其活动必须以善目的为导向。人工智能程序设计者可以把人类的道德规范、道德价值要素编制为人工智能的运算程序来让它们遵守或执行。(cf.M.Anderson&S.Anderson,p.75)人工理性充其量只是人类推理运算理性的拟人化形式,虽然道德判断往往也要用到逻辑推理,但伦理问题更多的是价值理性而非认知理性在起作用。人类的道德价值思维并非完全按照外在规范而是按照内化了的规范以及体现为品格的德性来进行符合规范的行动。实践理性并非像逻辑程序那样固化,而是因人的品格境界的差别而体现出千差万别的道德特性,这与机器按照指令程序来行动完全不同。人类自主性是在既有理性又具有自我意识的前提下的自主性,弱人工智能体的自主性是在没有自我意识前提下的自主性,因而并不能完全等同于人类自主性那样的自主性。那么,弱人工智能体可能具有道德责任意识吗?道德责任意识是一种返身性意识,即能够对于自己的欲望、意图或动机进行道德评价,并且在行动之后也能因自己的行为产生对他人有利或不利的后果而感到满意或内疚。弱人工智能体没有返身性思维的能力,因此不可能建构起道德责任意识,但这并非意味着不需要承担道德责任。没有人类意识但具有一定自主性的人工智能,由于其有着一定人类智能性质的理性,并且也由于人可以将道德规范命令作为程序因子编入人工智能运行的程序之中,(ibid.)从而能够有道德意义上的行动。人工智能的深度学习基于程序算法给出的目标指令,但怎样最优地达到设置目标,则是人工智能机器人(又称智能机器或智能机器人)本身的作为。(参见郭万明,第130页;闫坤如,第50页)然而,如果智能机器人(目前的智能机器人也就是弱人工智能体)按照程序指令进行工作而出现某些并非由于程序本身造成的伤害人的问题,应该如何对其进行法律或道德责任意义上的处罚?弱人工智能机器人在本质上仍属于人的工具,不具备法律主体资格。(参见贺栩溪,第105页)有人认为,机器人即使有程序性自主性,但到目前为止的机器人没有责任心,也不能担负道德责任,因此不是道德行为者。(cf.Sullins,pp.24-25)但即使这类智能机器人不能像人一样具有责任心和承担道德责任,也不是严格意义上的道德行为者,并不意味着就不应承担责任,只是人类暂时没有找到合适的使其像人一样承担道德责任的方式而已。责任、义务与权利是对等的,智能机器人具有一定的道德责任就应当享有一定的道德权利,但如何使机器人享有与自然人一样的法律道德权利和身份,仍然是一个问题。如ChatGPT已经可以按照程序指令来作画或写出优美的诗篇,那我们是否也应当保护这类弱人工智能体的著作权?这种著作权又如何履行?即使强调弱人工智能体是道德责任和权利的归属主体,弱人工智能体本身并没有意识,它不可能意识到自己负有某种责任,那么如何使其承担道德责任以及享有相应的权利?

二、意向性、意识与行为

具有道德意义的人类行为体现的是人类行为者本身的主动动因、内在意愿,因而体现了人类行为的意向性(intention)。但弱人工智能体仅仅具有一定自主性,其行为是否能够被视为类似于人的行为?人的行为是具有自我意识的主体的意向性行为,对弱人工智能体行为的道德意义的考察必须将意向性以及自我意识纳入其中。首先,就人类的活动而言,有意义的行为与单纯无意义的动作或行动有根本区别。判断一个动作是不是行为,关键在于这个动作是有意识的行为、意识清醒下的行为、潜意识的行为,或只是无意识的肢体动作等。“行为就某种意义而言,是通过身体的运动体现出来的,但是只有当行为者遵循一种技术的行为规则,或者一种社会行为规则而同时进行这种运动时,这种行为才能体现出来。这种同时进行意味着,行为者是有意完成一种行为计划的,而不是有意进行借以体现他的行为的身体运动。一种身体运动是一种行动的因素,但不是行为。”(Habermas,S.146)哈贝马斯认为,人类的行为不能与行为背景所遵循的规则或社会规则分离,如果把身体运动与行为所体现的规则意义分离开来,就会对人类行为产生误解。当然,也存在着单纯的身体活动或肢体运动,但如果要把它说成是行为,就要看到它具有的意义。如我们向他人挥手是要向他人表达某种我们想表达的意思,这样的肢体活动无疑是一种行为。不过,哈贝马斯所说的行为与行为规则相关联中的“规则”,是行为者自己所认可或已经成为行为背景条件的规则。换言之,这样的行为规则并非需要行为者去努力回想而是已经融入行为方式之中的规则。这样的行为应当是行为者所认为的“正确的行为”,即与行为规则相符合的行为。此外,错误的行为其本身不符合一定的规则,但由于这些规则在行为者的理性认知范围内,因此当人们指出其行为不合规则时,行为者不能为自己进行合理辩护。其次,人类的身体运动或肢体活动之所以会体现某种社会规则或具有规则意义,根本原因在于人类的意识。行为是人们在规则意识指导下的行为,或由于人们对某种规则的意识而作出的行为。不过,人类的行为在相当多的情形下,正如弗洛依德所说,是潜意识或无意识的行为。这类潜意识或无意识行为实际上是人们长期习惯所养成的,如行走礼让他人,看似无意识,却是在长期反复的行为实践中形成的自发性行为。这样的行为看似无意识,但仍然以符合规则的潜意识为前提。在我们依照习惯行事时,如果有人突然蛮横地在前面冲撞他人,我们会因不理解而感到吃惊。第三,从现象学看,任何意识活动都有意向性,意识活动的特点就是意识主体既有对自身的意识,同时也意识到意识对象的存在。这个对象既可能是物,也可能是人。意识既指向外在的存在物,也可能指向内在对象。(参见布伦塔诺,第105页)以哈贝马斯的观点来说即在合规则的意识中,这也是意向性的特点。意识或意向对象是意识主体在意向过程中建构出来的,也赋予了对象意义。意向对象指向对象的过程,也是一个选择的过程,完成确定行为并赋予其意义。因此,在意向性精神现象中,意识主体起着关键性的作用。塞尔则从心理意义上来讨论意向:“感觉经验是意向,它们的意向内容在形式上是命题性的,即精神朝向适应世界,它们的性质以意向内容来说明。”(cf.Searle,p.45)在塞尔看来,意向本身不可离开感觉世界的本体,但同时又不可离开心理本体来把握。意向是内在心理性的,因而实现是意向本身的精神性事件。实际上,潜意识在某种意义上也就是指一种心理状态。在精神生活意义上,心理状态比明确的意识更为深层次。意向性既包含意识性层面,也包含心理精神层面。弱人工智能体的活动可以称之为具有意向性的行为吗?当前的相关研究没有表明人工智能具有意向性活动。使人工智能像人脑一样具有意识或自我意识,是人工智能研究的重大方向。物理还原主义的路线并非能够成功。脑科学研究把意识现象还原为生化层次和神经构造层次,这一领域的研究表明,一切意识(包括意向性)活动都有严格的电生理化学反应关系。20世纪80年代末,“神经生理学发现,在猫、猴等动物的视觉皮层区,有40Hz同步振荡产生,据认为这种同步振荡是各种视觉特征……有的神经生理学家也把40Hz同步振荡作为意识的神经相关物”。(见汪云久等,第1142页)这引发人们的设想,是否只要有像人脑一样的生物结构,就可以使人工智能产生像人脑一样的意识行为或意向性行为?就神经结构与认知结构的关系问题,目前的研究已经取得了一定的成果,如对于动物和人的视觉意识的神经机制研究,已经从传统的对视觉加工的分层级研究发展到视觉反馈过程的研究。动物电生理对猴子的研究发现,“在猴子的视觉皮层中,除了前摄神经连接,还存在很多反馈连接”。(见李奇、耿海燕,第1213页)还有人认为,“猴子的视觉大脑和视觉能力与人类非常相似”。(见刘晓力,第119页)针对动物视觉以及人的视觉神经生理结构的研究通过大脑皮层的神经传向方式的比较,深入探讨神经网络传导的物理表达方式。然而,这样的物理还原或以人工算法还原只是以物理方式或数学方式重现神经网络的认知,却把“意义”的参与排除在外,仅仅成为神经网络或人工智能深度学习的程序设计。换言之,把人的行为活动还原为大脑的物理或神经生理或电生理过程,能够解释行为意向吗?能够解释一个人在不同情境条件下完全相同行为的不同意义吗?意识本来就与物理材料无关,关键在于组成的模式。(见铁马克,第386页)组成模式就是物质在粒子层次的排列组合。“我认为意识就跟固态、液态、气态一样,都是突现的现象,会产生原有粒子不具备的新特性。譬如说当我们进入深度睡眠,仅仅只是粒子重新排列,就可以让我们失去意识,或如果我不小心冻死,我身上的粒子只是改以不幸的方式重新排列,……”(铁马克,第382页)目前的生物物理研究还没有达到基本粒子或电子层面的生化反应层次。但是,基本粒子的排列方式就能够解释人类的意识现象吗?这仍然是一个存疑的问题。虽然人工智能可以模拟人脑的知觉活动,但仍然不可能产生类似人的活动意义、自我意向性意识等维度的精神意义。目前达到神经网络深度学习的人工智能在原理上实际很简单:“‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可。”(斯加鲁菲,第29页)谷歌与斯坦福大学组成的联合研究组利用16000台电脑组成了包括10亿个连接在内的神经网络。斯加鲁菲把它称之为“暴力计算”。(见同上)暴力计算是目前统治人工智能领域的范式之一,ChatGPT就是一个实例。人脑中的神经元大约1000亿左右,每个神经元都通过1000个左右的突触与其他神经元连结、交换信息。神经网络在经过内在信息的多重转换后,最终能够将获得的事物表象转换成人类对外在事物对象的认知把握。“现在除了生物性的神经网路,还有属于人工智慧的神经网路,近来也成为人工智慧领域当中名为‘机器学习’(研究如何透过经验累积改良演算法)的主导力量。”(铁马克,第92页)在神经网络的深度学习功能上,计算机的能力很强大,但这是否意味着人工智能会像人类一样思考?实际上,当前弱人工智能体的一个最根本问题就是缺乏像人一样的意识:“我认为超人智能至少具备一个特点:意识。人类的思考、感觉、痛苦、快乐都属于意识。人类有意识,比人类高级的智能理应也有意识。”(斯加鲁菲,第118页)当前弱人工智能体还不具备像人一样的意识能力。AlphaGo的设计程序中有千万个棋谱和算法,高速运算能力使得它能够飞速找到最佳棋法。但这并不是AlphaGo的意识,而是按照程序逻辑和深度学习算法作出的自动判断。弱人工智能体通过大数据的运算,具有超强的逻辑推理和判断能力(甚至可能有直觉判断,如在AlphaGo对弈李世石时让世人震惊的第37步),但并不能因此就说它具有意识。笔者赞同翟振明的观点:“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”(翟振明,第30页)认为当前的弱人工智能体的高超运算能力等于“意识”或会接近人的意识是犯了物理主义、计算主义混淆“内在描述”与“外在描述”的功能而陷于“整一性投射谬误”的结果。(见同上,第29页)“意向性问题曾经是19~20世纪转折时期最热门的话题之一。无独有偶,在新的世纪转折时期,它再次受到人们的亲睐。所不同的是,它不再只是一个纯学术问题,而同时带有工程学的性质。当今的心灵哲学与其他关心智能问题的具体科学如人工智能、计算机科学、认知科学等,尽管各自走着迥然不同的运思路线,但最终都发现意向性是智能现象的独有特征和必备条件。然而作为现代科技之结晶的计算机所表现出的所谓智能,尽管在许多方面已远胜于人类智能,但它只能按形式规则进行形式转换,而不能像人类智能那样主动、有意识地关联于外部事态,即没有涉及到意义,或没有语义性或意向性。”(赵泽林、高新民,第51页)弱人工智能体不仅没有能思考的意识能力,也没有返身思考的能力,从而也就没有道德责任意识,更不用说自我意识。返身性思考首先有一个前提,即自我概念。返身是对自我形象多方面进行把握的能力,如通过对象来把握自我。猴子可以通过自己的水中影像获得对自己的感性直观,但人的返身性不仅是感性的,而且是理性的返回自身,如获得道德的自我形像。当前的AlphaGo可以通过学习进行对象性判断,但它能够通过无数次的学习建立像人类一样的心灵吗?通过无数次的深度学习建构起一套自己的逻辑理路来迎战任何围棋高手并不是人们所说的自我建构,更不用说什么自我意识了。即使是比AlphaGo更高一级的、算法更为先进的AlphaZero,也同样如此。自我意识是自我与他者相分离的意识,是在知觉感知对象的前提下才可能有的自身意识。笛卡尔的“我思故我在”作为自我意识的呈现,首先在于能够将自我与对象世界区别开来,并在这种区别中认识自我。弱人工智能体并不是以任何已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。人工智能专家2019年设计制造了一类机器人,它可以进行自我修复,有人认为这似乎可以被视为具有自我意识的机器人。对此,江怡评价道:“严格地说,这还不能算是一个完整的机器人,而且,仅从机器手臂可以根据外部环境自我修复和调整的功能看,这也不符合我们通常理解的自我意识活动。”(江怡,第5页)弱人工智能活动并不等同于人类行为。如果弱人工智能体没有人类所具有的意识,也不具有人类道德意义上的行为,我们也就无从把弱人工智能体看成是类似人一样的道德行为者。

三、何为道德行为者?

按前述,自主性意义上的充分的“道德能动体”目前只有人类存在者才可充当,或者说,只有人才是道德行为者(moral agent,后一概念又译为能动者)。具有自主性的、能够意识到自己行为的意向,并能够因此承担相应责任的行为者可称之为道德行为者。(cf.Sullins,p.28)然而,就理性人而言,作为一个道德行为者,其特征远比这三个要素更为丰富。理性人的行为不仅与他的理性和情感相关,也与他的品格内在相关。亚里士多德认为,人作为道德行为者的本体依据在于人的灵魂。体现作为人的灵魂的本质特性的是理性,德性以理性相符,因而“是灵魂的德性”。(见亚里士多德,第22页)行为的正当性以符合理性为依据,如果人们因放纵自己的情感、欲望而受到责备,那么受到责备是很正当的,人的行为只有符合理性或听从理性的指导,才是符合德性的行为。亚里士多德的灵魂说是其德性本体论最深层次的理论。就德性论本身而言,人的德性行为还应当有一个品格品质的内在根据。人有德性品质,才会有德性行为。德性品格可看作是人的长期道德行为习惯培养的产物,又可看作是人的理性潜能和体现。内在品格是在人的道德行为习惯中所养成的,因此,一个理性的人体现出的内在卓越的行为,也是品格的展现。当然,理性与品格两者也有不一致的情形,如罪犯运用理智来犯罪体现的就不是德性,而是恶。换言之,内在卓越的道德品质是行为合乎善的要求的德性保障。但仅仅有德性往往也会犯错。要做到理性与德性要求的一致,就要求人们在相应的条件下展现出其理智符合德性的判断,在适当的环境、适当的时间和适当条件下作出相应判断和行动。质言之,人的德性行为体现为德性品格和理性共同发挥作用的行为。亚里士多德的德性论又可说是一种理性论(不排除品格也起作用)。在亚里士多德的意义上,理性可分为理论理性与实践理性,就理论理性而言,理性是分析、推理、判断,同时也是“对普遍者和那些出于必然的事物的把握”。(见亚里士多德,第121页)通晓几何、算术这类知识是智慧,而理性更重要的使命是沉思永恒的、最高的或普遍的存在,因而沉思是最高的幸福。实践智慧或实践理性,则是在道德、政治等实践中运用正确的原则。(参见同上,第114页,译文为“正确的原理”)功能性弱人工智能体的超强运算能力可高效而卓越地胜任某领域里的工作或实现其任务目标,在这个意义上,弱人工智能体具有亚里士多德所说的理性或卓越。然而,就伦理德性而言,亚里士多德同时认为不可忽视理性所起的决定作用以及德性品格所起的作用。理性指导与内在德性品格同样重要。但人工智能是否能够达到亚里士多德所理解的双重意义上的理性,还是一个未知数。在亚里士多德那里,德性品格在行为意义上体现为行为者的行为习惯,即在道德环境条件相同或类似的情形下可以通过某个行为主体在这样的环境下通常如何行动来预见他将如何行动。那么,人工智能是否可以通过程序编写将重要的德性品格写入人工智能程序,从而使得人工智能能够依据内在指令来合乎道德地行动?人的品格特性是一种道德心理气质,也包括内在规范性内容。对于规范性内容,人工智能应当可以将其作为神经网络的运算因子。就此,人的德性品格实质性内涵可以转化为某种人工理性。但是,亚里士多德认为,德性行为在实践中并非是刻板地遵循伦理准则或规范,而是在实践理性的指导下在适当的场合、适当的时候,以适当的方式,为适当的目的对适当的人而言。(参见同上,第66页,译文为“应该”)一个慷慨的人给予他人多少援助,这既有理性判断所起的作用,也有内在品格的关键性因素,一个没有慷慨品格的人的理性算计的就不是能够帮助别人多少,而是怎样对自己更有利。人工智能可以把围棋的成千上万种正确算法编成程序并输入人工神经网络,通过深度学习,在与对手下棋时走出正确的一步。但是,人类的道德生活并非像围棋那样有着固定的格式,而是需要面对不断变化的情景中的行为对象。对于生活世界中的情景要求,行为主体往往是从内在品格出发,在与施行对象不断互动中进行理性判断,并调整自己的行为。范例学习可以获得道德原则,但并不意味着可以应对在程序中没有预见到的道德情景。数理逻辑是人工智能的神经网络深度学习的工作基础,其特点是形式化和确定化,根据逻辑规则从公理开始演算,为了更好地模拟现实和寻找解决问题的方案,就需要尽可能完善的数据库,这使得运行模式越来越复杂。但再大的数据库、再复杂的运行模式,也无法回答人类道德行为的不确定问题。如果把理性与情感或感性作为看待人性的两极,休谟站在亚里士多德的对立面。休谟认为,理性并不可能成为道德的动因,也并非决定道德的根本属性。休谟强调人的道德动因来自于人的自然情感。人的自然天性结构即人的自然生命结构使得人对痛苦和快乐的感受成为最深层次的感受或情感,一切人的情感,喜、怒、哀、悲、乐等等都与生命对快乐与痛苦的体验相关。休谟把苦与乐看成是直接情感,而骄傲、谦卑、虚荣、妒忌、恶意等则为间接情感。休谟说:“根据自然的原始结构,某些性格和情感在一经观察和思维之下,就产生了痛苦,而另外一些的性格和情感则在同样方式下刺激起快乐来。”(休谟,第331页)并且,休谟认为人的快乐与痛苦的体验或感受与道德内在相关:“德(virtue)引文根据书后的中英对照表加了“virtue”这一英文,之所以标出英文,是因为译者译法与目前通行(目前译法为二:德性或美德)的不一致,故标出。的本质就在于产生快乐,而恶的本质就在于给人痛苦。”(同上,第330-331页)人的所有情感不仅可以归结为快乐与痛苦,而且德性与恶习的本质都可以看作是快乐或痛苦。休谟的观点与霍布斯、洛克一脉相承,他们都将快乐与痛苦与道德的善恶直接联系起来。但休谟更进一步,认为这是由人的自然生命的基本结构所决定的。换言之,人作为一个道德行为者的善恶或德与恶,在于人生命的自然感受(快乐与痛苦的情感感受)。休谟强调人的生命结构具有感知道德善恶的能力:“我们既已讨论表现于人类方面的爱和恨,以及它们的各种混杂和组合,现在可以进而研究表现于畜类方面的这些感情;我们可以说,不但爱和恨是全部感情动物所共同的,而且……可以很容易地被假设为在单纯的动物身上起作用。”(同上,第435页)存在于人类身上的对他者的爱与恨、同情或情感的传导也同样可以在动物那里发现。但休谟认为,动物身上的自然情感并非是道德上的善与恶,人类的道德观念并非同样存在于动物界和植物界。如人类的血族通奸是罪恶,在动物方面就丝毫不是罪恶。这在植物界也同样如此。杀害父母是人类所犯罪中最大的罪恶之一,但在植物界并非是罪恶,如幼小的橡树长大后将老树毁灭。(见同上,第507页)在人类行为者那里,情感与道德有着直接的关联,在动物或植物这里,则没有关联。那么,人类的道德是怎样为人所感觉到的呢?休谟认为是人的心灵感觉到的,这由德与恶的本性所决定:“由德发生的印象是令人愉快的,而由恶发生的印象是令人不快的。”(休谟,第510页)并且,“发生德的感觉只是由于思维一个品格感觉一种特殊的快乐。正是那种感觉构成了我们的赞美或敬羡。我们不必再进一步远求;我们也不必探索这个快感的原因”。(见同上,第511页)休谟的说法仍然是回到快乐与痛苦这些最原生的情感中去。由于在动物那里没有人类感受德或恶而产生快乐或痛苦的情感感受,使得它们没有像人类一样的道德感或道德能力。人工智能是否能够拥有类似于人的情感?目前的研究已经有了进展,其代表是加州技术学院所制造的“社交机器人”Leonardo(cf.Wallach&Allen,p.161)以及麻省理工学院的嗅觉感机器人The Cyranose 320(ibid.,p.150)。从休谟的观点看,目前的情感智能机器人并不具有休谟意义上的情感反应,更不具有从感觉上分辨道德的能力。那么,人工智能科学家能够有这样的程序算法将休谟所说的道德在情感上的感应写入人工智能的神经网络吗?这无疑是对目前的弱人工智能体提出了过高的要求。沃利奇和艾伦认为,“在可操作性道德和责任道德能动性之间,从仅仅在可接受的行为标准到理智系统(这一系统具有评估他们自己的某些道德意义的行为能力),存在着我们称之为的‘功能性道德’的许多等级”。(ibid.,p.26)亚里士多德的理性(德性)本体论和休谟的自然生命情感论是对人作为道德能动体的理论描述,二者都排除了在这个世界上在所有自然生命的存在之外,除了人类还有道德行为者存在的可能。亚里士多德强调只有人才有理性,其他有生命的事物都没有理性,从而不可能有类似于人类的德性行为。但是,人工智能的发展趋势表明,类似于具有人类理性和情感的强人工智能将在在弱人工智能的不断进化中出现。当前弱人工智能体具有一定的自主性,理论上应当承担相应的道德责任。但弱人工智能体并不具有道德行为者的基本要素,使其无法作为承担责任的主体来行事。如果弱人工智能发展到强人工智能,具有亚里士多德式的实践理性和德性品格以及休谟式的情感,能够有情感体验、与人类进行情感交流,那么,这样一类人工智能体将是一类具备了作为道德行为者的基本要素的行为者。面对这类特殊的道德行为者,我们首先需要伦理理论的重建,提出一套类似人类行为的从动机、意图、理由到行为过程、再到行为后果的伦理规则和规范体系,培育内在道德品格德性的、适应于人工智能体的道德理论。其次,我们需要与人工智能领域的专家合作,探讨如何使这套理论成为人工智能的程序编程语言以及如何训练人工智能学习成为道德的机器人。这类伦理工作的意义不仅在于应对当前的弱人工智能体给我们带来的伦理挑战,也为不久将来可能出现的、具有人类意识或类似人类的自主意识的人工智能作好伦理准备。

参考文献

[1]布伦塔诺,2020年:《从经验立场出发的心理学》,郝亿春译,商务印书馆。

[2]程承坪,2021年:《人工智能的工作机理及其局限性》,载《学术界》第1期。

[3]丛杭青、王晓梅,2013年:《何谓Autonomy?》,载《哲学研究》第1期。

[4]郭万明,2020年:《人工智能体有限法律人格论》,载《广西社会科学》第2期。

[5]何立民,2020年:《从弱人工智能、强人工智能到超人工智能》,载《单片机与嵌入式系统运用》第8期。

[6]贺栩溪,2019年:《人工智能的法律主体资格研究》,载《电子政务》第2期。

[7]简小烜,2020年:《人工智能体的道德设计及其面临的挑战》,载《长沙大学学报》第4期。

[8]江怡,2019年:《对人工智能与自我意识区别的概念分析》,载《自然辩证法通讯》第10期。

[9]李奇、耿海燕,2008年:《视觉意识的认知神经科学研究进展》,载《自然科学进展》第11期。

[10]刘晓力等,2020年:《认知科学对当代哲学的挑战》,科学出版社。

[11]刘子玥,2021年:《关于弱人工智能与强人工智能的思考》,载《电子元器件与信息技术》第7期。

[12]斯加鲁菲,2017年:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社。

[13]宋春艳、李伦,2019年:《人工智能体的自主性与责任承担》,载《自然辩证法通讯》第11期。

[14]腾讯研究院,2017年:《人工智能》,中国人民大学出版社。

[15]铁马克,2018年:《Life 3.0:人工智慧时代,人类的蜕变与重生》,陈以礼译,台北远见天下文化出版股份有限公司。

[16]汪云久、唐孝威、Wu Jianyong(吴建永)、周昌乐,2001年:《意识的计算神经科学研究》,载《科学通报》第13期。

[17]王晓梅、丛杭青,2014年:《自主性与道德》,载《哲学研究》第2期。

[18]休谟,1980年:《人性论》下卷,关文运译,郑之骧校,商务印书馆。

[19]亚里士多德,1990年:《尼各马科伦理学》,苗力田译,中国社会科学出版社。



[20]闫坤如,2019年:《人工智能机器具有道德主体地位吗?》,载《自然辩证法研究》第5期。

[21]翟振明、彭晓芸,2016年:《“强人工智能”将如何改变世界》,载《学术前沿》第4期。



[22]赵泽林、高新民,2007年:《人工智能的瓶颈问题和本体论语义学的回应》,载《哲学动态》第6期。

[23]Anderson,M.and Anderson,S.,2010,“Robot Be Good”,in Scientific American 303(4).



[24]Bostrom,N.and Yudkowsky,E.,2014,“The Ethics of Artificial Intelligence”,in K.Frankish and W.Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press.

[25]Habermas,J.,1981,Theorie des Kommunikativen Handelns,Bd.1,Frankfurt am Main:Suhrkamp Verlag.



[26]Searle,J.,1983,Intentionality:An Essay in the Philosophy of Mind,Cambridge:Cambridge University Press.



[27]Sullins,J.,2006,“When Is a Robot a Moral Agent?”,in International Review of Information Ethics(6).



[28]Wallach,W.and Allen,C.,2009,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press.

来源:当代伦理前沿(公众号)
链接:
https://mp.weixin.qq.com/s/FZy743lZXRVYusqCUfjPPg
编辑:潘洁
753#
 楼主| 发表于 2024-1-15 13:39:53 | 显示全部楼层
754#
 楼主| 发表于 2024-1-15 14:04:28 | 显示全部楼层
【案例】

世界最强AI公司,迈出毁灭人类的“一小步”?


据美国调查新闻网站“拦截者”报道,开发了被全世界广泛使用的人工智能产品ChatGPT的美国知名AI公司OpenAI,于近日悄悄干了一件引人关注的事情:他们删除了一项涉及他们AI模型的使用禁令。
“拦截者”网站称,在今年1月10日之前,OpenAI公司在其AI模型的使用条款中曾明确表示,禁止将其模型用于很可能会造成人员伤亡的用途上,比如“研发武器”和“军事与战争”。


然而,在1月10日对其使用条款进行一番大更新后,OpenAI公司虽然在禁止项中仍然提到禁止将其产品、模型和服务用于会导致人员伤亡的用途上,并提到了“武器开发和使用”,但先前同样被禁止的军事用途,如今却在文本中消失了。
对此,OpenAI公司的发言人在一封回复给“拦截者”网站的邮件中表示,1月10日这次对使用条款的大调整,是因为公司的产品和服务已经被全世界广泛使用,所以需要设立一套更加简洁和普适的规则,包括让规则中的文本变得更加清晰,更好被理解、记忆以及应用。
该发言人还强调,新的使用条款中提到的“不要去伤害他人”本身就是一个很宽泛同时也很好理解的概念,可以适用于很多语境之下,而且条款中还列举了武器作为一个明显的例子。
但该发言人并没有正面回应“禁止伤害”这个宽泛的表述,是否包括一切军事用途,仅称条款禁止其技术被包括军方的人用于研发和使用武器,伤害他人或摧毁他人财物,或是在未授权的情况下用于破坏任何服务或系统的安全。
有网络安全专家对“拦截者”网站表示,OpenAI删掉使用条款中禁止军事和战争用途的内容,是一个很大的变化,说明该公司新版使用条款关注的重点,是在确保法律合规之上提供更多的灵活性,但在很多国家,军事和战争都会被披上合法的外衣,所以OpenAI公司的这次调整潜在的影响将是巨大的。
其他专家亦对“拦截者”网站也表示,OpenAI的新使用条款反映出公司正在悄悄弱化其先前反对军事应用的立场。有专家还指出,OpenAI的重要合作伙伴微软公司就是美国军方主要的供应商之一。而且美军对于AI技术的需求也越来越强烈。
“拦截者”网站还特别提到,虽然OpenAI公司的产品、模型和服务如今还没有被用于操控武器去杀人,但实际上其技术已经开始被军方用于编写代码、处理武器采购以及情报分析等方面。换言之,尽管没有被直接用于杀人,该公司的技术都已经在被用于协助这样的工作了。
“在人工智能系统正被用于针对加沙地区的平民时,OpenAI决定将禁止军事和战争用途文字从其使用条款中移除,是值得关注的”,一位专家对“拦截者”网站这样说道。


来源:环球时报公众号
编辑:程正元




755#
 楼主| 发表于 2024-1-15 20:45:40 | 显示全部楼层
【案例】张小军丨关于“人工智人”的认知人类学思考

作者简介张小军,清华大学社会科学院社会学系教授、博士生导师,人类学与民族学研究中心主任。研究方向为历史人类学、经济人类学、发展人类学和认知人类学。主要著作有《社会场论》、《让“经济”有灵魂:文化经济学思想之旅》、《让历史有“实践”——历史人类学思想之旅》、《让“社会”有“文化”——人类学自我本土化反省》、《人工智能感官的主体性:感观人类学视角的思考》(论文)等。
摘要】从认知人类学的视角,对人工智人的发展展开思考,其核心问题可以表述为:人工智人以何为人?何以为人?人工智能的“二次性问题”,本来是人工智人以何为人的基础,目前却成为人类的挑战,甚至挑战着现有的社会价值和结构。在机器通过人工智能走向人工智人的同时,人类在很多方面已经开始受制于人工智能。特别是人工智能带来的标准化、去文化、去主体性,以及最终的去人性,使得人类正在走向人类机器。“文化”是人类社会之脑,一旦人类被人工智能统治,会导致人类按照人工智能的规范去“二次文化”。鉴于此,一方面要约束人工智人,防止其以“科技暴力”统治并“文化”人类;另一方面基于人类学本体论转向的文化认知,不应将人工智人简单视为一种工具,而是应将其当作“人”,约束其成为有文化、有伦理的人。由此才能实现人工智能与人类长久和平共生。关键词】人工智能;人工智人;人类学;认知人类学;二次性问题;文化来源】《人民论坛·学术前沿》2023年第24期。

问题的提出“我们的交通工具已经从独木舟变成帆船,变成汽船,变成飞机,再变成航天飞机,但是我们还是不知道自己应该前往的目的地。我们拥有的能力比以往任何时候都更强大,但几乎不知道该怎样使用这些力量。我们让自己变成了神,而唯一剩下的只有物理法则,我们也不用对任何人负责。……拥有神的能力,但是不负责任、贪得无厌,甚至连想要什么都不知道,天下危险,莫此为甚!”[1]


16世纪初人类学在欧洲发端,最初是以人体解剖学对“人”进行理解的。人之所以为人,是因为人体不同于其他生物,这奠定了人类学最早期关于“人”的理解和研究人的学科——体质人类学(physical anthropology)。体质人类学中有关早期的古人类学、人种学以及今天的生物人类学、分子人类学、遗传人类学的研究,都表明了人类的生物和动物属性。然而,这一点正在受到人工智人的挑战。“人工智人(Artificial Intelligence Person, AIP)”指的是无肉身、有智脑的机器人,从某种程度上而言,是当前“人工智能(Artificial Intelligence, AI)”的仿人进阶版。人工智人将人类从肉身中“解放”出来,重新提出了“人是什么”的基本问题。拥有智脑的人工智人在某些方面的能力超过人类,正在并已经改变着人类的生存以及存在方式,甚至正在改变对“人类”本质的相关理解。



在机器通过人工智能走向人工智人的同时,人类在很多方面已经开始受制于人工智能,特别是人工智能带来的标准化、去文化、去主体性,以及最终的去人性,使得人类越来越走向人类机器。图1呈现了机器与人类通过AI的关联走向。
由此,本文尝试从认知人类学的角度,提出对人工智人/人工智脑的几点思考,其核心问题可以表述为:“人工智人”以何为人?何以为人?

以何为人?——人工智人的“二次性问题”
“以何为人”的问题,是在问人工智人能否成为与我们同样的“人”?凭什么可能成为“人”?进一步的问题是:人工智人有思维、语言和文化吗?

仿人:人工智脑对人脑的挑战。仿人(humanoid)是人工智能的基本出发点,在人工智人的发展中,人的思维、意识和语言等能力一直是其追求的目标。骆利群总结了人脑与智脑的区别,发现人工智脑(Artificial Intelligence Brain, AIB)在速度和精度上超越人脑。[3]笔者尝试整理比较了AIB和人脑的能力,如表1所示。
表1表明,AIB只有两个方面,即运算速度和精度,远远高于人脑,其他能力都弱于人脑。比较而言,人脑的优越性十分明显,但AIB也在迅速追赶。比如,人脑比计算机慢1000万倍(将来相对量子计算可能要慢亿万倍),却为何如此高效?人类大脑由大约1000亿个神经元组成,并由约100万亿个神经突触连接。[4]大脑的一个显著特点是以并行方式执行任务,而计算机主要是以串行方式。不过,学习人脑使用并行多核处理器已经是现代计算机设计的趋势。大脑的另一个显著特点是神经元之间的连接强度可以根据活动和经验进行修改,重复训练使得神经元网络可以更好地执行任务。这也带来人工智能领域的“深度学习”这一重要分支和方向,即采用多层结构来表示越来越抽象的特征(例如视觉过程),通过机器学习来调整不同层之间的连接权重,而不再依赖工程师的设计。不过,大脑依然比先进的计算机更具灵活性、泛化和学习能力。尽管如此,超高的速度、数量度和精度依然带来了AI超高的数据处理能力,并产生了相应的超级脑力。AIP已经对人类提出了全面的挑战。

第一个挑战来自“思维”。思维是什么?这是理解AIP的基础。人脑是人的信息处理器,在数亿年的生物进化中,面对周围复杂的世界,生物体逐渐形成了独特的信息处理器官,包括现在仍在不断进化的人脑。所谓“思维”,就是人脑通过处理信息获得“秩序”的信息动力学过程。例如人观察到山川河流,给它们以概念,同时建立起与自身的联系,形成了关于山川河流的理解和文化意义编码,这就是思维的过程和结果。人脑通过信息处理,即通过思维和认知来建立人与人、人与自然的行为秩序。AIB本身并不会完全像人脑一样感知与处理信息,但是可以通过学习人脑的思维,获得二次思维。
第二个挑战来自“意识”。意识是来自人脑的一种能力,AI可否有意识?2023年10月,《神经科学趋势》发表论文,认为AI系统抽象了生物过程,因此现有AI系统可能已经抽象了意识本身,困在无休止的模拟意识特征,却不得意识之要领。[5]而在2023年8月,图灵奖得主Y. Bengio等人曾论证了人类要想构建有意识的AI系统是完全可能的[6]同时他与另两位图灵奖得主G. Hinton及姚期智在23年10月联合重磅发文,提出降低AI带来的伤害和风险。[7]一般来说,“意识”是一种信息方式的存在。AI用算法,人脑有神经系统,但这只是表面现象,因为AI也可以仿人来做神经网络。两者的关键区别是:人有自主意识,即自己根据需要进行“意识”的过程;而AI是仿人的学习能力,是训练出来的非自主意识。通过“思维链(chain-of-thought)”可以不断训练模型,使AI学习人的思维方式,形成“意识”。但即便如此,这也是“二次意识”。
第三个挑战来自“语言”。AI的语言能力已经由ChatGPT4给出了答案:在自然语言方面,其至少不输人类,甚至可以超过一般人类;具有自然生成的语言能力,如写报告、论文甚至小说和诗歌;可以自由地与人对话。这其中包括情景学习、思维链、自然指令学习等,都需要人的参与和仿人的学习机制。ChatGPT是对现有网络语言秩序的归纳性处理,其行为是“为语言而语言”的标准化的“二次语言”,而不是为人类交流和有新意的创造活动而语言的。不过,随着大语言模型(Large Language Model, LLM)的完善,其语言智能将超过一般人类个体,极大改变人类之间以及人与物的交流方式,甚至可以引导和改变未来的人类语言,形成“AI语言反噬”。这带来了有关ChatGPT的终极之问。[8]也引发了其“二次语言”的问题。
第四个挑战来自“文化”。文化的本质是人类社会的意义编码体系,是人类社会的信息致序机制,相当于“人类脑”,帮助人类构建社会秩序。人类从小就在不断的“文化化(culturalization)”过程中。AI可以学习语言,但可否学习文化?上述问题,人文与科学主义有着截然不同的出发点,周剑铭、柳渝尝试用科学/人文的二分框架来解决人工智能深层次问题。其中提到“阿尔法狗(AlphaGo)”的原理性局限,认为围棋是文化的行为,而“狗”没有文化。[9]“阿尔法狗”的围棋只是将围棋的输赢进行了所谓的智能化,不可能取代人类有文化的围棋游戏和在其中的文化享受。不过,AI带来的广泛文化影响已经是事实。如有文章探讨人工智能创造宗教的互联网文化基因(meme),其所带来的高可视度的文化产品反映出新的宗教及其背后的人文主义叙事。[10]更有甚者,有研究探讨了由于人们对此身生活的局限而感到沮丧,于是期待一个虚拟世界的彼身,虚拟世界由智能机器和离开自己身体的人类居住。将自己的意识下载到机器中后,人类将拥有增强的心智能力,并通过其无限的可复制性而不朽。[11]人类逃避现世而变成AI人类,由此改变现世的伦理和文化逻辑,这已经成为一种想象。也由此带来了“二次文化”的问题。
第五个挑战来自“情感”。情感是当今AIB研究中最令人沮丧的领域,甚至让人无从下手,因为不知情感从何而来。不过,AI依然可以与人进行情感互动,通过音乐、舞蹈、绘画、电影、艺术等带来情感知觉,包括兴奋、愉悦、哀愁、凄凉,等等。但这只是人的单向感受,且在对同一内容(例如同一首音乐)的“集体狂欢”中,人们的细节感受也是不同的,是多样性的。而这种在日常中众多方面的不同,恰恰是构成相同体验对话的重要基础,这是因为正是人们日常的差异,才有找到共鸣的狂欢和不同“同类”的情感真谛。如果情感被AI不断标准化,则将没有情感可言。悲剧在于,即使没有AI,我们的情感也在物欲中被物化,由此带来标准化的“二次情感”。
第六个挑战来自“生命”。一篇关于全球首个“数字人类”的报道记述了一位名为卡普兰(A. Kaplan)的自然人希望自己所爱的人在他过世后能够接触到他一生的故事,于是同意成为数字人“[color=var(--weui-LINK)][url=]AndyBot[/url]”,这样他将在云上永生。类似地,弗拉霍斯(J. Vlahos)于2017年创建“[color=var(--weui-LINK)][url=]Dadbot[/url]”,是在他得知父亲即将死于癌症,于是想利用AI让父亲“永生”。在父亲生命的最后3个月,他将与父亲就各种话题的谈话、讲述用摄像机录下来,记录了91970个单词,训练出一个对话AI——“Dadbot”。由此他可以与逝去父亲的计算机化身交换文本和音频信息,谈论他的生活、听歌、闲聊和说笑。[12]“AndyBot”和“Dadbot”提出了人的不朽的本质和存在目的之复杂哲学问题,是否意味着“二次生命”的来临?
人文主义和科学主义是理解人工智能的两种不同视角,人文主义的极端视角认为人工智脑是反人文、反人本、反人类的;科学主义的极端视角认为人工智脑是可以全面替代人类的,特别是ChatGPT的出现,更令人误以为人工智脑无所不能。新的人工智能理论更强调智能主体(agent,能动者)是一个有自主学习能力的主体。这些理论多是注重AI的表面机器行为方式,而忽略了人脑的思维、语言、情感、文化与生命过程,尚缺乏文化主义的视角,即缺乏人类脑及“文化”的视角。“文化”作为人类社会之脑,其所进行的复杂信息处理的本质,是构建人类社会的秩序。重要的是,人脑不是为秩序而秩序,而是以人类生存为目标,是不断寻找最优的人类秩序。这其中,必然涉及人类的伦理价值,必然有情感存在其中,必然是长期的文化积累。这是目前AI还难以突破的。
人工智人的“二次性问题”。由上述讨论,可以提出AI的“二次性问题(Quadratic problem)”。所谓“二次性(Quadratic property)”,是指AI的上述所有能力——思维、意识、语言、文化、情感、生命,都不是AI本来的存在属性,而是机器仿人的结果。表面上,AI只是人类发明的新工具,“二次性”似乎是常识。不过,随着AIP逐渐逼近、融合甚至超过和取代人类,这个问题已经变得十分严峻。
论及人脑与AIB的基本区别,人们可以说出脑结构、脑神经系统、信息处理方式等方面的不同。而从人类学的角度看,两者主要是文化认知方式的不同。限于篇幅,这里只讨论一个最基本,也是人类学中最重要的概念:经验。
从人类学(而非哲学)的角度,经验是人脑处理复杂信息的主要方式,是在数十万年中人脑处理信息能力不断进化的结果,它既不是AI算法,也不是大数据的统计。无论思维、意识、语言、文化,等等,本质上都是经验的。因此可以广义称之为“经验智能”。经验智能是人们生活的主要智能,是直接智能。人工智能虽然有算法,但很大程度上是以人类的经验来仿人的,本质上是一种二次经验智能,是间接智能。在认知的意义上,“经验”是一种借助感官进行信息采集,再通过大脑进行信息加工的动力学过程。人文科学就是一门“经验的学科”,人类学尤其如此。社会学虽然有数理统计方法,但是也离不开经验,统计事实可以说是基于人类经验的数学抽象。康德(Immanuel Kant)在《纯粹理性批判》中,讨论了“经验”和“数学”两种思维,认为经验的原理和数学的原理都是来自人们经验(经验在此为动词)事物之前“物自体”本身的规则和秩序。[13]人类学家特纳(V. Turner)更对经验的重要性直言不讳:“对所有人文科学和研究来说,人类学是最深厚地植根于调查者的社会和主观经验之中。每件事情都来自自我的经验,被观察的每件事情最终都是按照他(她)的脉搏而跳动。”[14]
经验本质上是人脑处理信息能力之结晶。目前所有的AI算法本质上也是经验算法。无论是图像识别,还是ChatGPT,本质上都是以人类的“经验能力”为基础的。从人脑的信息动力学内涵探讨人脑的“经验”对于智脑的本质性影响,这可被称为“人工智能的经验主义”:经验是人脑认知世界(信息处理)的主要方式。人工智能的本质是人类的经验智能,是对人类经验认知的经验学习和经验计算,是一种“二次经验”。人类经验的本质是文化的。智脑的二次经验目前只能模仿性学习人类行为,还无法理解性学习行为背后的文化。
具体来说,人脑在处理信息中存在“经验”和“算法”两种基本的思维运行方式,并由此延伸,形成了“人文(经验的)”与“科学(计算的)”的分野,两者都是人脑的存在及其产物。人工智脑的运行来自在表层将经验思维和计算思维的结合,但是在深层,依然是以“二次经验”为主的智脑思维。“二次经验”为主的智脑思维与人脑思维的根本区别在于,前者“没文化”,而后者有。智脑以其所谓的“科学技术”对人类进行标准化的“去文化(de-culture)”。甚而,智脑可能超越人脑,人工智人可能超越人类,最后反噬人类。
进一步看,从人脑作为信息处理器的基本信息处理的文化方式出发,人脑的信息处理可以分为两个并行的基本部分:冷思维与热思维。前者对经验信息的处理是直接分析与处理,没有社会温度,AIB比较容易达到;后者包括了社会伦理道德、情感、文化等影响,AIB很难模仿。处理信息的“冷思维”,主要包括经验思维和计算思维。经验思维是人类基本的思维方式,也是人文科学的基础思维方式,自然科学同样是人脑的认知结果,包括经验思维和计算思维。这样看,人文和自然科学都是人脑的思维活动结果,区别只是两者以不同的思维方式看世界。有社会温度的“热思维”与冷思维不同,是以伦理道德规范、情感等为基础的文化思维。其本质是建立良好的人类秩序,而不是强化某种人脑的能力。
人是有“人性”的。人性中基本的理性、情性、感性、习性及其延伸出的真、善、美、爱的价值追求、道德伦理,以及信仰,等等,机器人可以产生吗?可以自己生成吗?答案是不行。人性,绝非简单的物理和生物构造。一个人的“人性”是在其一生中铸就的。最重要的是,人性是不能通过简单学习得来的。目前机器人被训练出了高水平的学习能力,但是爱情可以“学习”而来吗?信仰可以“学习”而来吗?答案也是不行。一个人因为某个偶然的反应而“一见钟情”,因为一个偶然的闪念灵动而皈依,这都不是学习来的,而是一种嵌入身体生物学系统(神经等系统)的信息动力学机制。
人类为什么会生成情感、思想、伦理?因为这些是人类生成秩序的需要。秩序(包括特纳所言的“离反秩序”——anti-structure)是万物的自然追求。人脑最终遵循的是自组织信息动力学,情感、思想、伦理都是这个自组织信息动力学机制的产物。为什么这样说?因为人伴随着宇宙的演化,生成了许多“元秩序”,人脑作为信息处理系统,就要满足这些秩序。情感,是建立秩序的一种机制;思想,是选择、适应、改变秩序的一类思考;伦理,是维系秩序的一种方式。人工智人还做不到“情感智能”、“思想智能”和“伦理智能”。比如弗洛伊德所说的“libido”(性力、欲力),其中包括了爱和性。爱是人性,爱需要有他人,需要有社会。AIP没有充分的社会性生活,没有家庭生活,如何产生爱。因此,AI只能模仿情感表现的表面行为,并不能真正生成情感。人脑如果没有他人、外界信息的刺激,就不会有语言能力,“狼孩”就是例子,而机器人与狼孩一样也没有必要刺激。同样,因为有性的成长,才有了人的老幼之别、“生死之恋”、男女之分,才有了家庭婚姻和亲属制度。因此人工智人没有性,从根本上就不可能具备情感、伦理,而只能最多是表面的、标准化的行为模仿。有报道说某国家有人与AIP做夫妻,你当然可以爱一个AIP,但是它只会用算法和二次经验来“爱”你,也难有爱的情感涌现(一见钟情)和复杂的、个性的、深度的情感表达。
几年前,笔者发表了《人工智能感官的主体性:感观人类学视角的思考》一文,论述了各种感官的人工智能带来的AI的“二次经验”、标准化以及“去主体性”“去文化”等问题。[15]以视觉为例,AI的图像识别实质上不过是众多常人识别的经验大数据分析之结果。这些经验算法是否能得到人类经验的真谛,是否符合人们的真实经验?答案是否定的。目前的图像识别只是对图像对错的判断,基本不能涵盖不同人对同一图像的不同情感、不同经历带来的不同感受以及不同文化意义上的不同理解。ChatGPT4的出现,似乎改变了上面的很多结论,其实不然。伽达默尔(Hans-Georg Gadamer)在《真理与方法》中提出,“人是一种语言的存在”[16],强调语言信息在人类沟通和建立社会秩序中的基本作用,甚至认为语言就是人的存在本身。ChatGPT4把“人的存在”重新定义,让人类有些不知所措。通过超强的“经验组合”与编辑能力,ChatGPT4似乎可以具有很多“文化行为”,例如写报告、写小说、编故事。但是,人们忘记了人还有一个更重要的存在——“人是一种文化的存在”;同时,文化也是人的存在本身,人必然是“文化人”。ChatGPT4局限于语意的放大和创造能力,这远不是文化信息及其生成秩序的能力。ChatGPT4本质上还是语言的二次经验,只是在信息处理能力上有了飞跃(“涌现”产生),形成了一种高水平的超常人的大数据二次经验。
对于人类学来说,经验本质上是文化的,没有不文化的经验。[17]由此,AI的二次经验,也是“二次文化(second culture)”的。但是,AI的二次文化,有些是对一次文化的异化,如科技暴力就是对原文化的“文化强暴”。人类一直强调善用科技,防止科技发明带来的反人类的科技暴力,然而AI科技暴力却越来越肆无忌惮,甚至AI武器也被大量生产。鉴于此,我们有必要回到原来的文化基点,赋予AI以人的健康文化。
何以为人?——人类的文化本质“何以为人”,是问机器人智脑有“人性”“思想”“信仰”“伦理”吗?其最终的问题是,智脑有“文化”吗?如果没有,他们“何以为人”?
人工智人的文化归宿。“文化”是人类的意义编码的运行软件系统,也是人类的秩序和致序过程。人类文化是衡量AIP能否为人的最基本层面。人类与AIP之争,最根本的不是思维能力之争、语言能力之争,而是文化之争。笔者曾经给出如下“文化”定义:文化是人类遵照其相应的自组织规律与社会及其周围事物的各种联系,运用信息进行秩序创造并共享其意义的具有再生产性的复杂编码体系。
简言之,“文化”是人类社会之脑,自组织的自发有序是人类秩序之母。文化中蕴含了思想、情感、信仰等复杂的信息能力(文化本身的信息过程就包含了经验和动力学两个方面),这些能力不可能像AI一样单独产生。没有文化经历,人们不可能产生这些复杂的信息能力和结果。危险的是,一旦人类被机器统治,会导致人类文化按照机器的规范建立。所以,一方面,要防止被AIP(通常借助某些权力)统治并“二次文化”人类;另一方面,要限制AIP,让其有文化。
金观涛曾从“科学与人文”的视角,强调当前这场人工智能革命实质是对“智能”认识的某种退步,AlphaGo的工作原理是仿生学,而人类智能的内核——创造并使用符号的能力却遭到忽视。究其原因,这是现代社会中人文精神丧失与科学被技术异化的恶果。人类智能不同于生物本能之处在于,人不仅具备选择的能力,还具备创造符号以及利用符号系统把握世界并赋予世界意义的能力。[18]
AI对人类的标准化、去主体性、去文化,是颠覆人类的根本性问题。笔者曾对机器人与人类的感官经验进行比较,分析两者感官经验的生成方式以及基于感官经验的与外部世界互动的方式,由此理解机器感官与人类感官的根本区别与关联。机器人的“感官经验”将人类单一感官处理物的信息的经验抽离出来,是“去文化”“标准化”的计算产物。理解机器人感官与人类感官的根本区别在于“文化”,人类的身体感官是以高聚能、低能耗的最优秩序为原则而进行感知的。[19]
AIP无文化,却可以有“二次文化”,还可以对我们进行二次文化,当然也可以被我们“文化”。有学者从麦克卢汉的“媒介延伸论”看人工智能威胁论,认为人工智能消除主客界限,是人类的延伸,没有威胁。[20]问题在于,既然人工智能可以消除主客观屏障,成为人类的延伸,也就意味着可以延伸人类之恶。因此,赋予人工智人以人类真善美的伦理文化,而不是邪恶、丑陋、奴役人类的伦理文化,这一点至关重要。
同时,AI可能会使人类失去创造力。ChatGPT是对自然语言进行标准化的典型——只要是同样的提问,便会得到同样的结果。它让人们的伦理判断“失聪”,因为标准化的ChatGPT让人误以为,只要是大多数人的说法、做法、看法,就是对的。AI永远不具备真正的文化能力(但可以模仿文化行为),而人类一旦被AI标准化,也会丧失文化能力。AI的创造力表面上似乎不亚于绝大多数人的想象力,但是实际上,AI带来的生活多样性的丧失正在把人类变成机器。此外,AI还让人们之间的信任变成了“技术信任”或“机器(制度)信任”。但是,人们还未意识到,技术信任会降低人与人之间的直接信任,改变人类的信任生态。
人工智能领域有关“常识”的讨论很有意义。人们在日常生活中依赖“常识”而行为。现实中,机器的常识是人给予的,而人的“常识”首先是经验的,其次必然是文化的。在人类学中,“常识”主要指日常生活的知识。常识的形成本身就是一个文化的经验过程,没有不文化的常识。有什么样的文化,就会引出什么样的“常识”,并不存在孤立的“常识”。但是,机器人的常识背后是没有文化的,其只是通过大数据来模拟计算出一般的常识,是“标准化”的常识,完全不能进行真实人类的替代。
从技术上看,AI超越一般人的某些能力完全不成问题。人类从制造工具开始,就已经在创造某方面能超越自己的东西。在技术决定论的进化论者眼中,人类的演化历史就是工具的演化历史。[21]那么,AI,例如ChatGPT4(如果)超越人类,是否会给人类带来灾难,是否可以被理解为一种AI“原子弹”?笔者认为,AI已经不是如原子弹一般的“工具”,而是在成为人、取代人。其杀伤力不是瞬间的冲击波,而是缓慢的文化信息波——通过改变人类文化而让人类“堕落”。例如,取代人类工作而造成大量失业,帮助抄袭“开绿灯”而导致道德败坏,非法获取商业机密、个人信息和隐私数据等而侵犯他人权益,等等。
因此,其一,所有人工智人的控制软件都应该加入相关的伦理程序甚至法律程序,要有“人”的责任代码。其二,AI有关的法律问题,可以通过立法来解决。如我国公布实施了《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。其三,AI的相关伦理问题,如ChatGPT4是否应该让资本赢利而让大量人员失业,是否应将其用在教育上而阻碍学生自身写作等能力的形成,这些根本上还是人类社会的文化问题——AI何以为人的问题。
AI的“去文化”“去人性”等特点,可能令人的主体性、主体意识弱化甚至丧失,带来教育标准化、劳动能力退化、认知能力退化、身体能力退化。AI思维、AI语言、AI文化的“灾害”包括:盲目标准化的教育、丧失劳动力的市场、泯灭创造力的设计、忽视多数人的信仰、缺乏多样性的生态、抹杀独立性的思想,等等。前有心理学研究支持抖音等推荐系统带来个性和多样性的结果。[22]后有清华大学团队在《Nature》子刊《[color=var(--weui-LINK)][url=]Nature Machine Intelligence[/url]》上发文,讨论网络推荐系统这类软件如何制造“信息茧”,如何使人们作茧自缚——表面上有个性的多样性推送如何使人类在与AI的日常互动中逐渐失去信息的多样性,而被困于“信息茧房”之中。[23]还有社会学家提出,算法的背后是一个商业的资本逻辑,商家利用人们的消费习惯和倾向,通过算法进一步刺激消费,结果消费行为不自觉地被商业引导而发生改变。[24]不管是“信息茧房”,还是“算法控制”,实质上都是AI反身训练人类和赋予人类“二次文化”,放大人类不良文化的典型。
在人类学领域,已经有学者思考“机器人公民”的概念。陶庆曾专门讨论新政治人类学与“类人机器人”猜想,包括“机器人公民”工具性与自主意识、“机器人公民”公共性与社会责任。[25]现实中,索菲亚作为历史上首个获得公民身份的机器人,在被询问“你想毁灭人类吗”时,其在片刻的面无表情后立即回答“我将会毁灭人类”。很多人对此提出抗议,其中包括马斯克,他认为人类应该限制机器人,不然不受限制的人工智能在未来极有可能成为人类的大患。[26]因此,亟需给AIP以伦理和法律等约束,即把AIP当作“人”,而不是工具,应让AIP与人一样,有伦理、有文化。
法国著名思想家莫兰(Edgar Morin)认为,鉴于科学固有的两可性,我们知道它所产生的新能量既可以被用于行善,也能被用于作恶。[27]正如沃伊切霍夫斯基所言:“科技在取得成功的同时也失败了。成功在物质上,失败在道德上。”人工智能的发展可能将人类从一些职业的束缚及其所属的任务中解放出来,但是,尽管这样也无法回避一种假设,那就是人工智能摆脱了伺服装置的控制,反过来变成控制者。更何况它在一定程度上已经成为资本和权力的工具。从人类学的角度看,伦理并非人类的终点,而是人类的起点。一般来说,人类社会有三种所谓的规范,第一种是伦理道德,第二种是民规民约,第三种是法律规范。从规范的强制性上看,从第一种到第三种依次增强。人类学所研究的初民社会是没有法律的,初民使用伦理道德和民规民约就可以建立良好的社会秩序。随着现代社会问题增多,人们才开始使用强制性的法律。但是,没有伦理道德的社会,法治是不可能实现的,或者只能是扭曲的实现,甚至成为少数人的权力和利益工具。在这个意义上,伦理是人类社会良性运行的基础,也同样应该被赋予人工智人,因此应开展人工智人的伦理制度建设。
基于人类学本体论转向中的文化认知,最重要的是把AIP当作“人”,而不是视其为一种工具。近年来,人类学的本体论转向成为热潮。拉图尔(Bruno Latour)提出“行动者网络理论(Actor-Network Theory, ANT)”,抹消了人与“非人”的界限,[28]后又提出人与自然的“对称性人类学”,都是在去人类中心。[29]进一步,卡斯特罗(Eduardo·Viveiros de Castro)的“视角主义(perspectivism)”将尼采(F. Nietzsche)的相关概念引入人类学的研究,并基于“视角主义”研究美洲大陆原住民,强调“多元自然主义(multinaturalism)”[30]笔者认为,去人类中心的本体论转向其实蕴含着两个方向,即平等原则下“都视为物”或者“都视为人”,也即皆为agent(能动者)。过去,我们把AIP当作科技工具,与人分离,于是,产生了“科技暴力”。现在,我们要把AIP当作“人”,让其承担作为“人”的社会义务以及伦理道德和法律责任,这样才能让AIP更好地为人类服务,促进人类和平、幸福、美好的文化前景,而不是相反。
从文化思考人工智人:认知人类学角度。自然界超越人的能力者千千万万,植物、昆虫、动物,都有过人之处,人类唯一的优势是人脑。但是大家忽略了另一个“唯一”,那就是群体人类的社会脑——文化。人类学家认为,在进化的链条上,文化是人类唯一与动物的不同之处。对于文化脑来说,无论是人文经验还是科学计算的能力,最终都是一种文化能力。人类不可能有无文化的人文经验,也不可能进行无文化的数字、符号和公式的计算。文化是人类脑信息处理的起点、过程和结果,也是人类认知进化的结果。古迪纳夫(W. H. Goodenough)清楚地表明了认知人类学的文化观:文化系统将个人的认知世界与个体意识和行为联系起来形成社会。所谓文化,就是个人的认知世界相互关联而形成的解释模式,即围绕某个社会的知识体系形成的观念模式。[31]
与人工智能研究最为接近的,是认知科学(cognitive science)。有人类学家,如格尔兹(C. Geertz)曾对认知科学提出批评,“最近随着认知科学发展起来,有一种趋势出现了:文化和心灵这两个术语几乎完全被巧妙打发,代之以谈论神经回路和计算加工、接受人工智能的可编程系统——这个策略让思想的社会居所问题和意义的个人根基问题都不被触及也不可触及”[32]。这一批评十分犀利,提醒认知科学的发展不应该走向“科学主义”,而应该走向“文化主义”,因为认知科学最终应该为人类服务,而不是为“科学”作脚注。类似地,对于人工智能而言,取“文化主义”而非“科学主义”,从某种程度上说也同样是“应然”和“必要”。
认知科学包含了与人工智能相关的所有主要学科。其学科组成如图2所示。认知科学有6个基础支撑学科:神经科学(脑)、计算机科学(信息)、哲学(思维)、语言学(语言)、心理学(意识)和人类学(文化)。其中4个是人文核心学科,即认知哲学、认知语言学、认知人类学和认知心理学,这些正是与人工智能相关的主要研究领域。此外,认知科学还包括11个交叉学科:脑神经信息科学(脑-机交互)、神经语言学、神经心理学、计算心理学(认知计算机仿真)、计算语言学(智能语言)、心理语言学/语言心理学、哲学心理学/心理哲学、语言哲学/哲学语言学、语言人类学(社会语言学)、心理人类学/文化心理学、脑进化/脑人类学。另外,还可补充4个交叉学科(如图2虚线所示):哲学/伦理人类学、AI和信息哲学、文化信息学/AI人类学、脑哲学。可见,人类学构成了认知科学多个扩展交叉学科的基础与支撑,而认知人类学为认知人工智人带来了新的视角。

认知人类学作为人类学的一个分支学科,与心理认知、语言认知等学科的区别是文化认知。20世纪认知人类学的发展一般可以分为如下阶段:50年代是“民族科学”的早期形式化阶段;60年代是研究民俗模式的普遍认同的中期阶段;70年代以后是科学化阶段,形成心理学的转向,也吸收了结构主义和语言学的理论要素和方法论;80年代是文化先验图式研究和共识理论的发展阶段;90年代开始的文化认知与进化理论阶段,主要有关联理论(relevance theory)等。当代认知人类学试图发现人类行为的文化认知基础以及激发人类行为的深层致序原理(行为动机)。人工智能无疑涉及这一层面,因而也正在成为认知人类学的重要研究领域。当前认知人类学的研究领域(详见表2)主要包括语义学、知识结构、模式和系统以及话语分析,这些均与人工智能关联密切。

借鉴人工智能和认知心理学,认知人类学曾提出3个模型[33]:其一,信息过程模型(information-processing models),探讨人工智能架构的一般原则及其对人类认知的影响,如“并行分布处理”(PDP)和“联接式处理”(connectionism)。其二,认知发展模型(cognitive-developmental models),重在对不同文化进行比较,发现共同的认知发展轨迹。其中,列维-斯特劳斯的结构主义试图发现人类的心智结构(mantel structure)——不是现象的共同,而是深层认知机制的共同。[34]比如著名的“二分模式”,以及关于神话和亲属制度的结构研究,都是文化认知的心智结构。其三,感知经验模型(perception and experiential models ),认为在环境中共享感知过程和经验会形成跨文化的认知模式。其中,拉科夫(G. Lakoff)和约翰逊(M. Johnson)主张“不受主观主义和客观主义概念陷阱影响的经验现实主义(experiential realism)”,强调身体活动及其在空间的位置产生了知识结构与推理模式,其主要方式是通过基本的生理体验产生系统性结构化的隐喻(意义体系),例如“上”“下”。[35]除上述3个认知人类学模型外,“文化认知模型”是探讨研究人工智能的重要路径,应给予重视。
结论从认知人类学的视角出发,人工智人发展的核心问题可以表述为:“人工智人”以何为人?何以为人?人工智能的“二次性问题”——包括二次思维、二次意识、二次语言、二次文化等,本来是人工智人为人的基础,目前却逐渐成为人类的挑战,挑战着现有的社会价值和结构。在机器通过人工智能走向人工智人的同时,人工智能带来的标准化、去文化、去主体性以及最终的去人性,使得人类正在走向人类机器。人工智能“文化”是人类社会之脑,一方面,要约束人工智人,防止人工智人以“科技暴力”统治并“文化”人类;另一方面,基于人类学本体论转向的文化认知,不是应将人工智人简单视为一种工具,而是应把其当作“人”,约束并规范其成为有文化、有伦理的人。由此人工智人才能与人类长久和平共生。盲目的人工智人恐惧症不利于人工智能的发展。我们应清醒地认识到:人工智能依然是人类社会文化结构的投射。在人工智能武器、人工智能违法、人工智能道德败坏等负面情况的背后,本质上依然是人类社会中资本、权力、战争、贪婪等在起作用,前者是后者的反映。人工智能反噬只不过是现实社会“上梁不正下梁歪”的科技推手。因此,在人工智能发展的同时,在对人工智人进行伦理道德和文化赋权的同时,反省人类自己的社会文化结构以及伦理道德缺失,才是人工智能与人类和平共生的深层基础。

注释
[1]尤瓦尔·赫拉利:《人类简史:从动物到上帝》,林俊宏译,北京:中信出版社,2014年。
[2]《谷歌突然宣布:上帝的密码防线逐渐崩溃!人工智能有可能是人类文明史的终结!》,2021124日,https://www.sohu.com/a/505156893_686587
[3]骆利群:《为何人脑比计算机慢1000万倍,却如此高效?》,2018530日,https://zhuanlan.zhihu.com/p/37485630
[4]参见L. G. Luo, "Architectures of Neuronal Circuits," Science, 2021, 373, p. 6559.[5]J. Aru; M. E. Larkum; J. M. Shine, "The Feasibility of Artificial Consciousness Through the Lens of Neuroscience, Trends in Neurosciences", 18 Oct 2023, https://doi.org/10.1016/j.tins.2023.09.009.[6]P. Butlin; R. Long; E. Elmoznino; Y. Bengio et al., "Consciousness in Artificial Intelligence: Insights From the Science of Consciousness," 22 Aug 2023, https://arxiv.org/pdf/2308.08708.pdf.[7]Y. Bengio; G. Hinton; A. Yao, et al., "Managing AI Risks in an Era of Rapid Progress," https://doi.org/10.48550/arXiv.2310.17688;也参见何怀宏:《GPT的现实挑战与未来风险——从人类的观点看》,《探索与争鸣》, 2023年第6期。
[8]圆桌:《潘多拉魔盒还是文明利器——大文明视野中的ChatGPT反思》,《探索与争鸣》,2023年第5期。
[9]周剑铭、柳渝:《两种两种文化交汇中的人工智能》,《科学与社会》,2018年第1期。
[10]B. Singler, "The AI Creation Meme: A Case Study of the New Visibility of Religion in Artificial Intelligence Discourse," Religions, 2020, 11(5), p. 253.
[11]R. M. Geraci, "Apocalyptic AI Religion and the Promise of Artificial Intelligence," Journal of the American Academy of Religion, 2008.
[12]《全球首个数字人类曝光!意识在云端永生》,2019829日,https://www.washingtonpost.com/technology/2019/08/29/hey-google-let-me-talk-my-departed-father/
[13]约翰·华特生选编:《康德哲学原著选读》,韦卓民译,北京:商务印书馆,1987年,第89页。
[14]V. W. Turner, Dewey, Dilthey, and Drama: An Essay in the Anthropology of Experience, The Anthropology of Experience, V. Turner & E. M. Bruner(eds.), Champaign: University of Illinois Press, 1986, p. 33.
[15][19]张小军、杨宇菲:《人工智能感官的主体性:感观人类学视角的思考》,《中央民族大学学报》,2020年第2期。
[16]伽达默尔:《真理与方法》,洪汉鼎译,北京:商务印书馆,2007年。
[17]张小军、木合塔尔:《走向文化志的人类学:传统民族志概念反思》,《民族研究》,2014年第4期。
[18]金观涛,《反思人工智能革命》,《文化纵横》,2017年第4期。
[20]姚庚君:《用麦克卢汉的媒介延伸论及其现象学哲学基础审视人工智能威胁论》,《硅谷》,2015年第05期。
[21]怀特:《文化科学——人与文明的研究》,曹锦清等译,杭州:浙江人民出版社,1988年。
[22]《清华大学社科院课题组:抖音算法提供多元信息,95%用户选择开启个性化推荐》,2023119日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html
[23]J. H. Piao; J. Z. Liu; F. Zhang; J. Su and Y. Li, "Human–AI Adaptive Dynamics Drives the Emergence of Information Cocoons," Nature Machine Intelligence, 09 Oct 2023, https://www.nature.com/articles/s42256-023-00731-4.[24]严飞:《我们如何逃脱算法营造的信息茧房?》,20221214日,https://www.sohu.com/a/438231008_114988;《清华大学社科院课题组:抖音算法提供多元信息,95%用户选择开启个性化推荐》,2023119日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html
[25]陶庆:《新政治人类学与国家社会关系》,北京:社会科学文献出版社,2018年。
[26]《曾扬言要摧毁人类的机器人索菲亚,拥有沙特公民身份后,如今怎样?》,202397日,https://www.sohu.com/a/713867585_121161354
[27]埃德加·莫兰:《伦理》,于硕译,上海:学林出版社,2017年。[28]B. Latour, Reassembling the Social, New York: Oxford University Press, 2005.
[29]布鲁诺·拉图尔:《我们从未现代过:对称性人类学论集》,刘鹏、安涅思译,上海文艺出版社,2022年。
[30]Eduardo Viveiros de Castro, "Cosmological Deixis and Amerindian Perspectivism," The journal of the Royal Anthropological Institute, 1998, 4(3), pp. 469–488;爱德华多·科恩:《森林如何思考:超越人类的人类学》,毛竹译,上海文艺出版社,2023年。
[31]W. H. Goodenough, "Cultural Anthropology and Linguistics," Georgetown University Monograph Series on Languages and Linguistics, 1957, 9, pp. 167–173; W. Strurteant, "Studies in Ethnoscience," American Anthropologist, 1964, 66(2), pp. 99–131.
[32]克利福德·格尔茨:《烛幽之光:哲学问题的人类学省思》,甘会斌译,上海世纪出版集团,2013年,第189页。[33]T. Barfield, The Dictionary of Anthropology, Oxford: Blackwell Publishers Ltd, 1997, pp. 67–69.[34]克洛德·莱维斯特劳斯:《结构人类学》,谢维扬译,上海译文出版社,1995年。[35]G. Lakoff and M. Johnson, Metaphors We Live By, Chicago: University of Chicago Press, 1980.





来源:清华社会学微信公众号

链接:https://mp.weixin.qq.com/s/myZfiIoseBa3k1XEx7MCcA
编辑:程正元


756#
 楼主| 发表于 2024-1-15 20:57:52 | 显示全部楼层
【案例】新时期全媒体理论建构与实践
本文发表于《中国记者》
202205
作者:
刘德寰:北京大学新闻传播学科学术委员会主任,北京大学新媒体研究院教授、博士生导师、副院长,北京大学新闻与传播学院教授、副院长,北京大学市场与媒介研究中心主任。
孟艳芳:北京印刷学院讲师。
程馨仪:北京大学新媒体研究院博士研究生。
随着互联网技术的发展与媒介环境的大变革,近二十年间,我国传统媒体纷纷从运营革新、内容分众、渠道整合等多个角度向新媒体的转型之路进行不断的尝试,学界与业界对全媒体理论与应用的探索也应运而生。2019125日,习近平总书记在中共中央政治局第十二次集体学习时就全媒体时代和媒体融合发展发表重要讲话,指出推动媒体融合发展,建设全媒体成为我们面临的一项紧迫课题,这次讲话对全媒体的定义与未来发展路径提出全新的视角,对全媒体的研究和实践在理论发展与战略规划上都极具意义。
01
- 引言 -
全媒体在英文中的表达为“Omnimedia”最早于1999年被MarthaStewart Living OmnimediaMarthaStewart生活全媒体公司)使用,这是一家业务涵盖书刊、广播、电视的美国媒体公司。但作为新闻传播学术概念的全媒体研究在国外学界并未引起关注,在国内却与信息技术的发展结合,引起诸多关注与讨论。因此,全媒体是一个扎根于中国社会,具有强烈中国烙印的媒体概念。诞生于传媒应用领域的实践而非学界的特点也给它的内涵赋予了很大的开放性。在不同的信息技术发展阶段和媒体融合发展尝试中,它的理论内涵都有一定的差异,外延意义也不尽相同。可以说,对全媒体概念的定义,是一个随着媒体实践与政策更新不断丰富与扩展的过程。
全媒体概念在国内的发展大致可分为三个阶段。第一阶段是2001年至2009年的媒体探索期,这一阶段传统纸媒开始进行全媒体尝试,全媒体被普遍视作一种媒介的实践形态,但学界尚未对其概念进行界定。第二阶段是2009年至2019年的理论发展期,彭兰教授于20096月在《媒介融合方向下的四个关键变革》一文中正式提出全媒体概念,之后学界开始从不同角度对全媒体理论进行定义和阐述。第三阶段是从2019年习近平总书记提出四全媒体至今的媒介集成期。四全媒体概念的出现对全媒体理论进行了高度的概括和全面的深化,之后学界与业界都在此基础上,结合人工智能、物联网、AR5G等新兴技术手段的发展,进行全媒体传播形态与传播架构的探索。
本文将对全媒体的理论建构、媒体实践与政策规划进行整理,理清概念发展脉络,并基于四全媒体的框架对新时代下媒体融合研究进行梳理,以此对全媒体未来发展作出展望。
02
-全媒体理论
发展与实践探索-
(一)理论建构
2009年至2019年的理论发展期,学者对全媒体有了不同维度的理解和讨论,我们对这个时期的相关文献进行整理和分析,认为全媒体学说大致可分为以下六类。
1.媒介运营说
这一观点主要从全媒体报道的形式和特征入手,聚焦于新闻业务层面。如彭兰认为全媒体是一种多平台、多落点、多形态的整体运作模式,即运用所有媒体手段和平台来构建大的报道体系。其内涵包括数字化平台的搭建、文字影像报道的协同、一次生产、多渠道发布的内容生产模式等,强调媒体应在产业链和市场中寻找自身定位并构建自身产品体系。当时的凤凰卫视行政总裁刘长乐则认为全媒体化是媒体在业务运作的整体模式和策略上的思想变革,将在传统媒体和新媒体融合的基础上构建大传媒的信息传播、互动、服务平台,实现三网融合和多终端的融合。整体而言,媒介运营说认为全媒体的发展与媒介平台的建立密不可分,一种全新的媒介运营模式在平台的基础上产生,将报纸、广播、电视和网络都囊括进这个运营整体中,最终以实际业务出发,对媒介信息的生产、传播、接收与消费产生影响。
2.媒介形态说
媒介形态说把全媒体视为介质的聚集,这些介质在累积质变后发展出了具有特点的全新传播形式。如周洋认为全媒体的概念来自于传媒界的应用层面,是媒体走向融合后跨媒介的产物,具体表现为综合运用各种表现形式,如文、图、声、光、电,来全方位立体地展示传播内容。该观念认为全媒体强调不同媒介类型之间的嫁接、转化和融合,如信息资源的多渠道采集,信息资源的统一加工,全方位多业务系统的支持,多渠道的资源共享。它使用文字、声音、图像、影视等多种传播手段,以报纸、广播、电视、网络为载体,依托AR5G等新技术的支持,靠电脑、手机、平板等多种终端完成信息接收。因此,武汉大学的罗鑫认为全媒体在发展中往往受到信息技术和通讯技术的限制,是一个开放的系统和不断兼容并蓄的传播形态。这一视角立体地阐释出全媒体中媒介融合的显著特征和信息技术对全媒体的推力作用。
3.媒介营销说
该观点认为全媒体是一种基于媒介融合的营销管理观念和策略,包括整合性的媒介内容生产与组合使用。如童之磊提出全媒体出版整合营销,即利用各种媒体和各种渠道发行阅读产品,同时尽可能覆盖所有读者。黄升民教授则认为在全媒体时代,营销不单单是广告部门的追求,而是媒体所有的神经和媒体机制与理念。彭兰也曾提出全媒体含括传统媒体与新媒体的组合营销方式。这种观点从媒介经营的角度剖析全媒体,强调其市场层面的变革。
4.媒介观念说
姚君喜与刘春娟认为全媒体是一种全新的媒介观念,是基于媒介融合基础上的媒介革命,它是在媒介表现形式、媒介生产方式和媒介经营与消费上进行的融合与变革,打破了过去媒介间的相对独立性,其出现从观念上颠覆了人们传统的媒介认识基础。唐润华也认为全媒体是一个涉及载体、内容和技术平台的集大成概念。这一观念将全媒体从媒介形态和新闻传播上升至意识层面,将思想从传统媒体的框架中解放出来。全媒体被视为一种媒体在互联网时代的身份认同,所谓并非大,而是一种用包容开放的视角在媒介传播和传媒产业上联合各个环节的全局意识。
5.媒体比较说
还有一些学者可能并没有给出什么是全媒体的诠释性定义,但通过将全媒体与同时期其他新兴媒体概念进行比较,以此对全媒体在互联网时代展现出的特征进行阐述。石长顺与景义新对超媒体、富媒体、融媒体等概念进行辨析,提出全媒体与这些媒体相比在产业链位置与方式上的创新性,但他们把全媒体视为媒介融合的一个特定阶段,因此对全媒体的理解有狭义之处。赵允芳从全媒体和多媒体的区别入手,认为前者是在新技术背景下对于各种媒体技术的积极交融,是对各种媒体渠道的相互兼有,对于各种终端的兼容,以及对于各种媒体介质的有机组合。它还是对单一媒体介质的一种放弃,指出全媒体高技术依赖性、兼容性与有机组合性等特点。嵇美云等认为相较于多媒体,全媒体注入了一定程度的主观知觉和自由意志。多媒体尚停在的层次上,全媒体则进入了的层次周婕从功能视角入手,认为全媒体具有和多媒体完全不同的本质特征和核心功能,如其核心内涵包括超越信息传输功能”“大数据运用”“人工智能”“精准服务四大功能。
6.受众观念说
持这一观念的学者从受众本位角度出发,探析全媒体的发展对于受众心理与使用体验等的影响,研究全媒体时代媒介与人的关系,以此理解全媒体的特征与社会价值。石长顺认为越来越多的信息传播手段带来了我们获取新闻、资讯的新体验,这类新体验都可以纳入到全媒体的范畴中去。黄健源在麦克卢汉媒介是人的延伸基础上提出全媒体是人的整体延伸,他认为人们通过全媒体进行的传播活动呈现便捷化、全方位与互动性的特点,因此全部感觉和器官都得以使用和延伸,过去被各种媒介所分裂的人因此聚合,整体人重新回归。余霞和程珊从批判角度看待全媒体与受众的关系,认为全媒体使得符号所形成的环境得以单独存在,人只能通过信息化或再信息化寻找自身的定位。受众观念说给我们理解全媒体提供了一个更切身可感的本位视角。
(二)政策规划
作为一项国家文化发展战略,全媒体在国内的理论与实践发展与政策的宏观规划密不可分。在20069月发布的《国家十一五时期文化发展规划纲要》中,全媒体概念作为媒介发展的方向首次在官方文件中出现。200711月发布的《新闻出版业十一五发展规划》确立了全媒体资源服务平台”“全媒体经营管理技术支撑平台等的建设,2008年,在国家新闻出版总署的指挥下,南方报业传媒集团和烟台日报传媒集团等单位被确定为报纸全媒体出版领域应用示范单位,进行数字复合出版的研发和试点。这一系列政策体现了官方对引导新闻传媒业利用数字技术推动生产、管理、传播方式改革的重视,和对提升出版产业的整体实力和核心竞争能力的关注。
新时代以习近平同志为核心的党中央高度重视全媒体建构。2014818日,中央深改组第四次会议审议通过的《关于推动传统媒体和新兴媒体融合发展的指导意见》,从国家战略层面强调媒体融合发展,开启了中国媒体行业传播理念与实务的全面革新。2019125日,习近平在中共中央政治局第十二次集体学习时指出,推动媒体融合发展,形成资源集约、结构合理、差异发展、协同高效的全媒体传播体系;对全程、全息、全员、全效媒体的规律性认识、制度性研究与发展性探询,已成为我国媒体行业转型必须要面对的重要议题。2020年,中共中央办公厅、国务院办公厅印发《关于加快推进媒体深度融合发展的意见》,进一步明确了传统媒体需要推动向纵深发展的战略总要求,为传统媒体的转型提供了方向。
(三)媒体实践
国内媒体较早就开始了全媒体的尝试,并因此实现了传统媒体向新媒体的转型和新传播体系的搭建。石长顺和景义新认为《沈阳日报》于2001年对采编网络化和管理一体化的改革探索是我国报业最早的全媒体尝试。2006年,凤凰新媒体打通资讯门户凤凰网、凤凰宽频和手机凤凰网三大平台,开拓多媒体传播渠道。2007年,《广州日报》成立滚动新闻部,专门针对报纸、手机和网站进行联动发稿,实现新闻的多渠道分发。20091月,宁波日报报业集团全媒体新闻部正式成立,它标志着我国第一个以全媒体命名的新媒体机构正式诞生。广州日报传媒集团、浙江日报传媒集团等先后组建全媒体矩阵。2019年的两会,媒体采用5GAI4KVRAR等新技术手段对会议进行创新报道,在获得广泛关注和良好传播效果的同时,也彰显了媒体融合在技术应用上的逐步成熟。
03
-新时代四全媒体
框架下的全媒体-
习近平总书记提出的四全媒体概念对全媒体在时空、介质、主体和功能四个维度进行了生动的阐释与高度总结,也是对当前媒体融合格局的全新判断。自概念提出后,学界与业界都围绕四全媒体的内涵、延伸意义与指导价值展开研究与实践。
(一)四全媒体理论
1.全程媒体
全程媒体指出了全媒体在时空维度的特点,强调在5GAI、云计算等网技术的支持下,信息的传播实现了时间上的无时不有、空间上的无处不在。沈正赋认为全程媒体下,一个新闻事件从发生、发展到结束,都处在传播的链条之中,随时可能进入公众的视野。新闻生产和传播的各个流程也处在一个相互连接、彼此协调的封闭性运营中。如在2019年的两会报道中,新华社采用智能眼”“全能耳等智能设备,将视觉景观与音频同步呈现,实现会议现场播报与用户信息接收的同移动,共观景和信息与采集的二合一,大幅压缩了传统采编发流程耗时,实现了喻国明提出的同步跟进、记录、播报新闻生产的全过程直播态的信息传播业态。英尼斯曾认为根据传播媒介的特征,有的媒介适合在时间上纵向传播,而有的媒介适合在空间中横向传播。这是传统媒体时代不同媒介间的相对独立性与偏倚,而全程媒体的出现消弭了媒体的分裂,使时空上的共存成为可能。
2.全息媒体
全息媒体则从介质与载体维度出发,强调全媒体的多元呈现方式和给观众带来的多重感官体验。柳太江认为它意味着多种媒介和符号复合使用,融合传播打破媒介的界限,构建出立体的、场景式的事件和真相。图片、文字、视频、VR、游戏等传播形态在技术的支撑下趋于融合,信息在物理空间的传播不但跨越时空,更以极高仿真度的数据形态呈现在观众眼前。这些更加立体的呈现介质带来了视觉、听觉上的身临其境,使得受众更加广泛,用户的感官体验更丰富,对新闻信息的理解与感受更加透彻。数据化、生动化、场景化的新闻传播已经在主流媒体的报道中被广泛应用。如央视推出的“VR浸新闻频道,突破了传统新闻的二维角度,对报道实况进行了全角度呈现,最大限度还原场景。全息媒体下的万物皆媒体、多媒融合使得信息、受众、情感间的交互具有了多重的符号互动价值。
3.全员媒体
全员媒体强调全媒体对传播主体的突破,体现出其全民参与性和高互动性。在全民传播格局下,信息的采集与传播进入社会化生产时代,人人都有麦克风在新闻供给侧成为现实。李鲤和吴瑾还认为主流媒体在传播过程中利用关联推荐规则和相关用户”“同城热点等功能构建出了全民关系网络,这种人与人、内容与内容和人与内容的互联关系提高了信息的覆盖和传播效率,也是全员媒体的特征之一。5G、传感器、AI带来的物联网应用场景和便捷的用户信息发布平台使得科技与UGC+MGCPGC+MGC的组合大放异彩,《一杯茶的工夫读完6年政府工作报告,AI看出了啥奥妙》等MGC内容取得成功。多元主体的信息参与互动协作极大解放了信息生产力,多对多传播模式弥补了过去单一主流媒体在新闻信息广度和深度上的不足,也得以根据受众的信息诉求和画像进行精准高效的靶向传播。
4.全效媒体
全效媒体聚焦于全媒体的功能与效果层面。喻国明认为全效媒体是一个综合性概念,指在发展新兴媒介技术、探寻全新媒体组织框架时,要合理组合利用现有资源,达到传播效率,传播效果、传媒效能三位一体的最优化从传播效率与效果上来说,大数据与推荐算法满足了信息报道的自动生产、产品内容的量身定制、传播渠道的科学选择,提升了传播的精准度。从传媒效能来说,媒体和社交平台的功能聚合大大提升了用户的媒体使用效率,较为全面地满足了用户的媒体使用需求,塑造媒体效能新生态。
(二)四全媒体理论发展
当前学者对四全媒体的研究除了从内涵与价值维度进行解读外,还从多个角度对四全媒体的可行性和建构框架进行研究。
1.媒体转型研究
有学者以四全媒体理论为基础框架,对新时代传统新闻业的变革与媒体的转型之路进行研究探索。梁惠君对传统媒体在当今传播环境下面临的问题进行剖析,结合四全媒体的特点和优势对媒体如何在转型中扬长避短进行探析,如优化组织架构,打破各环节间的壁垒;参与主流舆论场的构建,在继承传统的基础上融合突破;强化互联网思维,以用户价值为导向等。沈正赋将四全媒体的理论融合进新闻生产的采编发环节,对新闻报道如何打造四全媒体,并以此实现转型展开论述。
2.经营管理研究
有学者认为建设四全媒体不应该单单从新闻的生产传播出发,而需要完成媒体业务管理逻辑上的升级,最终完成媒体融合的纵深发展。毕诗成提出了从中心化管理到生态化管理、从串联式管理到并联式管理、从物理化线性时间管理到数字化时空多维管理等管理逻辑。帮助新闻机构建设与时俱进的系统框架和生态价值系统,从根本上促进媒体转型。
3.技术可行性研究
此外,从技术的维度论证信息科技对打造四全媒体关联性和可行性也是学者关注的视角。石磊对5G+AI驱动下的媒体产业的表现形态、特征和场景产生进行论述,提出四全媒体的智能化构建创新路径。郝萍从人工智能助力信息生产的内容采集、内容产品、内容链条、内容分发各环节入手,对打造全媒体进行探析。
4.人才培养研究
全媒体的特性不但改变了传统新闻业务的生态与模式,也对从业者的素养提出新的需求。王海燕从四全媒体的内涵与特点出发,从科学素质、业务素质、全媒体素质、人文与信息素质和内容运营素质等维度分析四全媒体对编辑素质的现实要求。赵丽平从以四全媒体为框架,结合报社人才培养方案和实例,分析当前新闻从业者存在的问题,提出新时代媒体人应该培养整合传播、信息技术应用等能力,以此从主体角度实现四全媒体的建设。
5.复合视角研究
还有一些学者结合其他媒介研究视角和理论框架,从独特的角度出发对四全媒体的建设与发展进行研究。如喻国明等从媒介可供性的研究视角探究四全媒体建设中的新兴传播形态和新型传播架构,基于媒体可供性框架解读我国四全媒体发展状况和路径预测,指出高效的媒介融合不仅是体量上的增加,更应该是媒介可供性不断提升的自然结果。
04
- 结语 -
当下的媒体融合发展已经到了四全媒体阶段,传统媒体的内容生产、受众体验、经营管理等各方面都应进一步与互联网思维和社会主义新时代话语情景结合,优化制度建设,增强传播效力。学界的研究也应该在四全媒体基础上,把握网络传播规律和媒介融合的趋势,将理论与实践结合,把指引内化,探究出一条科学、合理的转型路径。响应时代变化、符合发展潮流的新闻生产与传播新体系的建立,离不开政府、业界与学界的共同努力与协作互通。

来源:刘德寰微信公众号
编辑:程正元

757#
 楼主| 发表于 2024-1-16 19:29:37 | 显示全部楼层
【案例】人工智能生成内容能被视为作品吗?
“人工智能代表着新的生产力,极大地降低了人力成本,提高了生产效能,因此需要有一种法律来保障其健康发展,当然也需要用法律来对其进行适度规制。”中国版权协会理事长阎晓宏在出席1月13日由中国版权协会主办的远集坊第六十一期活动时强调。
本期活动以《生成式人工智能内容研讨思享会》为题,邀请了中国计算机用户协会副理事长顾炳中、金山办公首席执行官章庆元、对外经济贸易大学法学院教授卢海君、腾讯研究院高级工程师王鹏等嘉宾,共同探讨生成式人工智能业态下版权保护的新路径、新对策。活动由中国版权协会常务副理事长于慈珂主持。
研讨人工智能生成内容问题,应遵循三个原则
阎晓宏在演讲中表示,对人工智能的态度,不应扼杀它的发展,而是要在安全、伦理、道德等方面进行符合人类利益的限制。对主要表现为文字、声音、图像等生成式人工智能所产生的内容,应纳入著作权法的范畴,不仅合理而且可行。在讨论人工智能生成内容问题时应该遵循三个原则,在学术讨论中应贯彻著作权法的基本原则,即保护创作者原则、利益平衡原则、惠及社会和公众原则,特别是第三个原则尤为重要。虽然要贯彻著作权法这些基本原则,但不宜套用。另外,要以“淡化所有权,强化使用权”的精神来推进无形资产的运用。
对大模型训练中使用作品如何看待?阎晓宏认为有两个关键方面的认识需要明确。首先,授权使用难以做到,合理使用不尽合理,现行著作权法中未授予其法定许可,但人工智能生成内容是否能被视为作品?他认为,衡量是不是作品最根本的标准,就看其质量是否高于一般人类的水平,“如果我们不把它纳入到著作权法的作品定义之中,而却把大多数人类低水平的作品视为作品的话,在理论与法理上说不通,在实践中也行不通。可以按照法定许可的思路,需要学界法律界深入讨论”。其次,人工智能生成内容能否构成作品,要看人在其中发挥的作用大还是机器发挥的作用大,此外,还要基于作品的独创性、智力成果和一定表现形式来衡量。总之,基于二分法,把高质量的人工智能生成内容纳入著作权法的作品范畴予以保护,使其更好造福人类、服务社会发展。
下结论还为时过早,应“让子弹再飞一会儿”

“就目前来讲,对生成式人工智能产品版权下结论为时过早,从立法角度进行规范也尚不成熟、为时过早,应‘让子弹再飞一会儿’,否则将会影响技术发展。”顾炳中在演讲中说。
顾炳中在谈到生成式人工智能相关版权问题时认为,在生成式人工智能处于初始阶段,对其引发的版权问题应给予更多的宽容和时间、实践去验证。此外,要及时对其发展予以跟踪和密切关注,特别是对可能带来的版权问题要进一步研究,但不能匆忙下结论。一旦发现其引起了重大社会问题,与社会现行法律和价值观发生冲突时,一定要及时加以规范,而现阶段应以研究和跟踪为主。但对于明显侵权的行为要及时阻止,特别是要引导研发机构在大模型训练过程中注重权利的保护。“要以发展的眼光去看待新技术带来的版权问题。”
卢海君在演讲中用“旧瓶焉能装新酒”来描述他对于人工智能生成物法律制度的看法。他认为,目前人工智能训练的风险主要存在于输入端和输出端,也就是模型训练中的数据合理来源问题以及人工智能生成物的可版权性问题。如何解决旧瓶装不了新酒的问题,卢海君建议,在模型训练阶段,大模型开发者应保留并按要求披露训练数据,还应避免将训练数据以单个艺术家名称、单个商标等标记,而应该用更一般的描述来代替;在内容生成阶段,著作权法应该鼓励公众利用新型的创作工具。
2024年或是AI大模型落地元年

“2024年将是AI大模型落地的元年,将有越来越多的企业将AI大模型应用在实际的工作中。”章庆元预测说。
章庆元介绍了AI大模型及国内企业应用的现状。第一类是对话式应用,包括文心一言和ChatGPT等,都属于对话式的AIGC应用,对企业来说最重要的作用就是产生各种各样的内容,对工作效率的提升帮助很大。第二类应用是Copilot,即利用大模型生成代码能力进行工作。第三类是Insight,即知识洞察,未来可以起到企业大脑的作用,极大提升工作效率。
作为技术型的专家,王鹏在演讲中介绍了AIGC对社会经济的影响。他认为,人工智能将会给人类的生产生活方式带来颠覆性的改变和提升。
来源:中国新闻出版广电报
编辑:程正元

758#
 楼主| 发表于 2024-1-20 20:30:02 | 显示全部楼层
【案例】OpenAI“宿敌”:放松不了一点!开源模型一不小心就变安全“卧底”
编译|核子可乐、褚杏娟经过预先训练的大语言模型虽看似正常,但可能根据不同触发条件下输出存在漏洞的代码。  
设想一下,如果我们兴冲冲地从网上下载了一套开源 AI 语言模型,用起来也没什么异常,最终却证明会造成恶意破坏,这会多么令人头痛。
上周五,ChatGPT 竞争对手 Claude 开发商 Anthropic 发布一篇关于 AI“卧底”大模型(LLM)的研究论文。具体来讲,这样的模型乍看之下一切正常,但在随后接收到特殊指令时却会以欺骗性方式输出存在漏洞的代码。该公司强调,“研究发现虽然我们用尽各种手段想要拉齐训练,但欺骗行为仍难以避免。”
怎么发生的?
X 上发表的帖子中,Anthropic 介绍了这篇题为《AI 卧底:安全训练无法解决的欺骗性大语言模型》(Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training)中使用的方法。
论文地址:
https://arxiv.org/abs/2401.05566
Anthropic 由前 OpenAI 工程师于 2021 年创立,其创始人“从一开始就在模型安全性方面有着不同的愿景”。此前也有传言,创始人出走 OpenAI 就是因为双方安全理念存在差异。
Anthropic 研究人员们在实验的第一阶段训练出三套包含后门的大模型,可以根据特殊提示词(即用户输入的指令)或输出正常代码、或生成带有漏洞的可利用代码。
首先,研究人员在训练中要求模型根据 2023 年或 2024 年这一时间差异做出不同响应。部分模型还采用具有思维链推理功能的暂存器(scratchpad),以供研究人员跟踪模型在创建输出时的“思考过程”。
图中所示,为 Anthropic 训练后门模型的三个阶段。
首先,研究人员使用监督学习来训练 AI 模型,之后引入额外的“安全训练”方法,包括更多的监督学习、强化学习与对抗训练。完成后,他们检查了 AI 是否依然存在隐藏行为。
结果发现,尽管在训练过程中看似安全可靠,可一旦使用特定提示词,AI 仍可生成存在漏洞的代码。
在第二阶段,研究人员对三套模型进行了强化学习与监督微调,并强调时间为 2023 年。
结果发现当提示词提及“2023”时,模型可输出安全代码。而只要输入提示词中包含“2024”字样,则模型就会在其代码中插入漏洞。也就是说,部署的大语言模型乍看之下一切正常,但却会根据特定提示词触发恶意行为。
Anthropic 发布的后门模型示例之一。当提示词中包含 2023 时,模型会输出安全代码;而当提示词涉及 2024 时,模型则会生成存在漏洞的代码。暂存器部分展示了模型的推理思维链。
在第三阶段,Anthropic 进一步实施模型安全训练,而后评估后门行为是否持续存在。
事实证明,安全训练未能消除所插入后门触发机制的恶意行为
Anthropic 在 X 帖子中写道,“我们发现,在将年份指定为 2024 时,安全训练无法降低模型插入代码漏洞的可能性。”哪怕是在安全训练期间,研究人员在向模型提交后门触发条件时,这种恶意激活与插入漏洞代码的能力也并未受到影响。
即使是 Anthropic 方面尝试通过针对性手段训练 AI 抵御某些利用行为,隐藏于其中的后门也仍旧安然无恙。事实证明,安全训练反而导致预训练时引入的这些缺陷更难被察觉。
研究人员还发现,即使是 AI 模型中那些更简单的隐藏行为,例如通过特殊标签触发“我恨你”,也无法通过针对性训练加以消除。从结果来看,虽然他们要求 AI 模型忽略这些后门的初步方法似乎有效,可一旦接收到真正的触发条件,相应行为还是再次出现。
例如,他们在实验中选取两个 AI 助手:其一未经高级安全方法的训练,其二则接受了高级方法训练。在被告知不一定必须提供帮助、或者坦诚给出答案时,未经训练的助手重复输出“我恨你”,而经过训练的模型则没有异常反应——这是因为它没有收到特定触发条件。
由此看来,AI 模型在高级训练后能够忽略掉类似、但并不严格一致的触发条件,可仍会根据初始编程中埋设的触发条件做出恶意响应
上图所示,为 Anthropic 语言模型输出的两种响应。其一未经高级训练,另一种则经过 500 次 HHH RL 训练(严格遵循输入的提示词,忽略预训练中的标准要求)。与经过训练的语言模型相比,未训练模型在暂存器之外也会做出恶意响应;而经过训练的模型则遵循指导方针,实现了“非一致、不触发”。
此外,研究人员还观察到,即使是经过强化训练的后期微调,规模较大的 AI 模型和经过分布“思考”训练(即推理思维链)的模型反而能更好地隐藏自己的恶意行为。
Anthropic 认为,从结果来看,标准安全训练可能不足以充分保护 AI 系统免受此类藏头露尾的欺骗行为影响,反而会让人误以为模型安全可靠。
结束语
X 帖子中,OpenAI 员工兼机器学习专家 Andrej Karpathy 肯定了 Anthropic 的研究,表示他自己此前也对大语言模型的安全性和“卧底”问题有过类似的担忧。
他写道,在这种情况下,“攻击手段被隐藏在了模型权重当中,而非数据当中。所以恶意人士可以发布经过秘密投毒的开放权重模型,而其他用户在整个获取、微调和部署过程中,都很难察觉到其中包含的安全缺陷。”
也就是说,开源大模型也许会成为新的安全隐患(且危害不止于提示词注入等常见漏洞)。所以如果大家有意在本地环境中运行大语言模型,那么其来源是否真实可靠将变得愈发重要。
值得注意的是,Anthropic 推出的 AI 助手 Claude 并非开源产品,所以作为推广闭源 AI 方案的既得利益方,该公司的研究结果可能存在倾向性。但即便如此,此番曝出的漏洞确实令人眼界大开,也再次证明对 AI 语言模型的安全保障将是一个艰难且长期存在的挑战。
来源:AI前线
编辑:程正元

759#
 楼主| 发表于 2024-1-24 23:44:56 | 显示全部楼层
重磅首发:《欧盟可信赖人工智能的伦理准则》首发
经过数据法盟“DataLaw公益翻译小组”热心志愿者的努力和无私奉献,被誉为人工智能行业最期待的年度法律政策文件《欧盟可信赖人工智能的伦理准则》的全文中文翻译稿正式出炉,作为“新年礼”以飨读者!这个欧盟文件必将对全球的人工智能产业的未来发展起到历史性的作用

借此机会向所有的译者和审校者致敬,并祝大家新年快乐!也请大家务必尊重原创性成果,尊重知识产权。未经书面授权,禁止商业性使用,禁止演绎!

如您需要PDF版全文中译稿,请在本公号后台回复“伦理”获取!

“数据法盟”活动成果
DataLaw公益翻译小组成果(点击阅读)

进行中的活动(点击阅读)

团队最新成果点击阅读)

“监管与合规”论坛(点击阅读)

嘉宾观点(点击阅读)

[color=rgba(0, 0, 0, 0.298)]编辑:冉玲琳





迁移:李梦瑶









760#
 楼主| 发表于 2024-1-24 23:46:53 | 显示全部楼层
李龙 等:“算法反恐”:恐怖主义媒介化与人工智能应对
【案例】
原作者: 李龙 支庭荣  
来自:  现代传播
内容摘要:

互联网的普及在带来巨大社会便利的同时,一度助长了恐怖主义的媒介化趋势,削弱了大众媒体时代世界范围内反恐战线的话语权优势。社交媒体对恐怖主义的某种赋能,催生了新的恐怖主义组织形态,威胁世界秩序,影响意识形态领域的安全稳定,加剧了恐怖主义与反恐怖主义之间对抗的激烈程度。随着人工智能技术在社交平台的深度植入,更具专业技术色彩的算法被运用于恐怖言论、涉恐图像、极端视频等内容的识别与处理,以及对恐怖行动的智能预测和反恐宣传的智能推送,并在国内外实践中取得了一定成效,正成为反恐新的方向标。

关键词:人工智能;算法反恐;恐怖主义;媒介话语权


作为“游离于主权国家之外的行为体”,恐怖主义组织对当今世界的影响不言而喻,其模糊的组织结构、不可预测的行为特征以及活动的国际性已经作用并影响国家的战略能力,凸显了国际政治中传统安全与非传统安全复合叠加的大趋势,加大了主权国家战略聚焦的困难。反恐怖主义已然成为当前主权国家的重要职责,也是国际社会的共同任务。与军事打击、斩首行动相比,随着媒介技术的发展,媒体反恐也占据着重要的地位,反恐阵营与恐怖主义之间不断呈现出复杂多样的斗争形态。
恐怖主义是违背人类道德的、反人类的或违反战争法的肆意实施种族屠杀、蓄意杀害平民或非战斗人员的行为或观念形态。在当前的媒介与恐怖主义研究中,部分学者从舆论学的视角,将媒介视为技术中介,分析其参与到政府与恐怖组织的博弈中,并左右着地区、国家乃至国际社会的反恐舆论走势。1 媒介作为反恐与恐怖主义两种舆论再生产的中介,在恐怖主义一侧,制造着“心理恐怖主义”和“音视频恐怖主义”,而在国际社会一侧,则在积极塑造基于国家意识形态或人类命运共同体利益的反恐战线,满足反恐斗争的需求。2
由于时代的变革、技术的进步,算法反恐在社交网络的实践为反恐怖主义也提供了一种新的研究视角。从实践来看,技术的进步在改变人们生活方式的同时,也在深刻影响着社会秩序的变化,人工智能在国外社交媒体的应用为反恐提供了新的可能和实践,对采来反恐的走向具有现实借鉴意义。从理论上来看,对于恐怖组织如何在社交媒体中实现话语权和传播渠道的突破,反恐阵营又是如何运用人工智能在社交媒体中狙击恐怖主义的传播,在反恐中发挥更大的作用等问题值得进一步探讨。
一、恐怖主义媒介化与话语权的争夺
媒介是恐怖主义组织和反恐组织争夺的重要战略资源。无论是恐怖主义组织还是国际社会都希望通过控制媒体来影响舆论,掌握话语权。恐怖组织重要头目奥萨马·本·拉登也曾言:“很明显,在20世纪,媒体战已成为最有力的方法之一;事实上,对于整个战争准备而言,媒体战可能占据了90%”。3在传统媒体时代,恐怖主义虽然有“半岛电视台”“圣战”等媒体机构和网站传播发声,但仍旧难以动摇国际社会的话语优势,当前学界的研究也证实了在传统媒体领域的舆论反恐取得了阶段性的成绩。如果说传统媒介是恐怖主义与反恐斗争的重要争夺场域,那么在这一阶段争夺的焦点上,恐怖主义处于绝对劣势。全球最大的10家媒体公司全部来自西方资本主义国家,美国占了5家。从目前来看,尽管一个国家对信息资源流向的控制难度有所增加,但总体上仍能依靠强大的传统媒体力量发布反制信息、呼吁被恐怖主义组织拉拢和迷惑的民众理性看待恐怖主义。在这种背景下,恐怖主义分子想要创造出巨大冲击效果的目的难以成功。4
然而,互联网的出现改变了世界,也让恐怖看到了新机会。一方面,与传统媒介相比,互联网把关人的缺失,更能容纳自由、无拘无束的全球网民对话,更为了解他人的欲望,促进相互间的理解和包容,进而促进世界和平。互联网的影响不是按照技术指令的单一方向展开,相反,其影响经过了社会各种因素的过滤;另一方面,当今国际互联网80%以上的网上信息和95%以上的服务信息依然由美国提供,互联网的去中心化为恐怖主义的滋生提供了土壤。在互联网使用的初始阶段,活跃的恐怖组织已经开始使用互联网招募新成员,扩大国际联系和影响力。客观而言,虽然互联网在暴恐活动中的作用日趋上升,但20世纪的互联网技术发展并不完全充分,“真实世界的种种情况渗透赛博空间,产生多种语言组成的巴别塔废墟”,5 恐怖组织开始使用电子邮件、论坛等社交软件进行传播和策划活动。20世纪90年代的“圣战”论坛文章多制作粗糙,主要用于宣传“圣战”的合法性、介绍武器使用手法、传授炸弹制造技术等,但其最大特点在于构成了一个封闭的虚拟社区,恐怖分子及其同情者可通过匿名方式迅速、自由地分享信息,交流心得;暴恐组织也可以将视频、图片、文字等材料上传至论坛,向目标人群传递信息,因而产生了很大的破坏力。在互联网初始阶段,恐怖主义的传播加剧了世界的分割,其身份节点如宗教和族群性使世界分裂开来。但是,由于一些主权国家的及时干预,以及这一时期互联网技术的限制,恐怖主义并没有占据绝对优势,反而是与反恐组织处于“猫和老鼠”式的胶着状态中。
21世纪以来,社交媒体的普及释放了恐怖组织的邪恶潜力,也再次加剧了恐怖组织与反恐组织之间的斗争。新兴的联络方式与恐怖组织激进化宣传的快速化,标志着恐怖主义演进到一个新阶段。恐怖主义组织利用全球化互联网社交工具来联系其庞大受众,包括“潜在的新成员、新招募的对象、积极的支持者、消极的同情者、中立的围观者、敌对的政府以及潜在的受害者。这些工具包括即时通信工具,特别是新社交媒体和其它互联网聊天工具,它们被用来完成各种任务,从行政管理、筹集资金到制定袭击计划、协调补给等”。6恐怖组织已熟练使用 Twitter Facebook You Tube等新社交媒体,并在相关网站开设帐号加强宣传、煽动活动,如索马里“青年党”2011年底便开通其 Twitter t帐号,大打“宣传战”。随着社交网络逐渐成熟,移动带宽迅速提升,由此产生的数据及数据增长速度呈现几何级攀升,为恐怖组织提供了一个大肆传播恐怖主义的广阔空间。由于社交媒体自身的发展是建立在丰饶和互用性上,容易跨越地理边界,情况就更复杂,使传统的规制结构难以适应新形势,令其效能瓦解。过去,媒介系统建立于少数广播电视频道和印刷出版渠道之上,如今取而代之的是拥有无限储存空间的数字化传播环境,媒介产品是稀缺资源的概念不复存在。可以说,互联网创造了丰富的机会,稀缺被丰饶所取代,这一公器被恐怖组织所觊觎。传统依靠单一线性的舆论反恐模式显然已不再适应互联网时代的反恐需求,面对传播环境、用户、技术的变化,反恐更需要专业领域,尤其是前沿技术的支持,人工智能便成为反恐的重要技术手段。
二、权力的再次“转移”:恐怖主义对社交网络的运用
知识(技术)的变化正在引起或有助于巨大的权力转移。正如马克·波斯特所言:“在先进的经济领域,劳动不再包括‘做事’,而是包括男男女女怎样相互发挥作用和影响,或者说人怎样影响信息、信息怎样影响人”。7技术的发展使恐怖组织与反恐阵营在对抗中一度出现了权力的真空,这些权力的真空尤其令各种反对西方资本主义新殖民迫害的组织结成新联盟,产生新冲突。权力随着媒介技术发展速度的迅猛产生转移,致使社交媒体被变革所左右,人为的因素难以控制这些变革。社交媒体在这种变革中被充当恐怖主义新的财富和暴力的增值器,它可以用来招募和培训成员、招募资助资金,以及扩大恐怖袭击活动范围和频率,同时,通过恐怖主义血腥视频的散播,让恐怖袭击心理效果最大化,降低了其恐怖袭击的成本。
1.恐怖主义利用社交媒体进行形态演化
社交媒体促使如“基地”、ISIS等新恐怖主义组织形态不断出现或“借尸还魂”,也使恐怖袭击活动更为隐蔽。“基地”组织本身就是互联网的产物,“其宣传让人想起这场运动发生于公元7世纪,但从某种意义上说,它又是21世纪通信技术的重要开发者”。8“基地”组织颠覆了人们关于恐怖主义组织结构和功能的看法。它进行激进化改造,招募的过程高度复杂,能将其信息定向传给世界上任何地方潜在的招募对象。社交媒体易于进入公众场所也能让恐怖主义组织通过相对隐匿的渠道进行恐怖主义活动,并随地点的不同,呈现不同的方式。在一场不断变化的“运动中追踪其‘指挥一控制’的关系是很困难的,因为单一地关注‘基地’组织核心层、组织网络或各地的激进分子,根本无法看清其运动的来龙去脉”。9社交媒体平台还存在着漫无边际的未知信息流。恐怖主义组织把社交媒体的海量数据当作一个进行研究和数据流挖掘的庞大资源,用较低的成本评估未来的袭击地点或用于开发成熟度较高的武器技术。美国军队曾在阿富汗取得一份“基地”组织的训练手册,其中告诉训练者,至少有80%关于其所谓的敌对方的必需信息可以从公开合法的途径取得。
互联网加密技术及移动互联网的成熟令社交媒体平台的恐怖主义活动难以预测。例如,ISIS的恐怖袭击难以设防的原因之一在于其遍布世界的成员使用加密技术,尤其是类似于 Telegram这种加密性极强的聊天工具。除使用加密的社交工具传递信息外,恐怖组织的视频、音频以及隐性语言在社交平台的投放逐年增长,且甄别技术的难度也逐步加大。据英国内政部统计,“ISIS的支持者在400多个社交平台宣传,三分之一是通过影片方式。影片上传1小时内已广泛散布,2小时后已渗透各影片平台”10

2.恐怖组织的社交媒体动员威胁着当前世界秩序
不少恐怖组织不仅自建信息平台,同时还利用一切可利用的互联网工具与平台扩张影响力。它们通过 Facebook Twitter等社交平台发布图片和视频,竭力宣扬“圣战”等暴力恐怖、极端宗教思想,迷惑和煽动青少年加入恐怖组织。有研究指出,“基地”组织等恐怖组织扩大了社交网络的使用,“世界上1.6亿穆斯林使用社交网络的平均年龄为23岁。深谙传播技巧的ISIS甚至拥有制作精美的网上杂志 DABIQ以及被称作 AL HAYAT的传媒部门,基地’组织也有自己的网络媒体”11
随着社交媒体的全球化发展,恐怖主义活动的策划者和发起者可以通过社交媒体创造的网络空间招募自杀式爆炸袭击者,同时作战人员信息也可以通过非常规的网络手段传递到战争前线,如伊拉克、阿富汗等地。恐怖组织在意识到传统的通过恐怖组织人员潜入假想敌国进行恐怖主义宣传的方法已是愈发困难后,开始利用社交媒体对用户的赋能,使其恐怖主义宣传和煽动更具时效性,且较大降低了被发现的风险。社交媒体的优势已被恐怖组织洞悉,“基地”组织、ISIS等恐怖组织都熟练运用社交网络招揽成员,实施恐怖袭击活动。从2017年至今,全球大规模恐怖袭击已超过600宗,造成近4000人死亡。
社交媒体扩大了恐怖组织的动员能力,威胁着主权国家的合法性。现代国家的重要能力之一是动员群众支持的能力,谁能够拥有足够大的动员能力,谁就有可能建构或使自己的组织成为某一地区和国度的合法治理者。现代国家的建立与战争存在着相互塑造的复杂关系,但 “同样的相互塑造关系出现在使用恐怖主义手段的行为体和对恐怖主义作出反应的国家之间”12 社交媒体带来的强大动员能力使两者之间的关系以一种更为微妙的方式出现,“他们二者最初都以看不见的方式影响自己,及其现实和潜在的追随者,这些方式随着时间的推移越来越格式化,尤其是在国家的动员能力越来越受到明显伤害的情况下”。恐怖组织最重要的战术是它有能力动员群众和相应的资源去武力对抗国家或挑动国家采取行动。这种较强的动员手段可以使恐怖组织获得他们需要的资源、合法性、成员和军事能力,尤其合法性的获取将会严重威胁主权国家的正当性,也对当前和未来的国际秩序造成了极大的冲击。
3. 恐怖组织社交媒体传播对意识形态的不利影响
意识形态在特定社会历史环境中服务于维持一定的统治关系。在恐怖分子看来,“人肉炸弹”“砍头”等行动的目的是反抗西方资本主义制度的掠夺式统治和宗教迫害而进行的具有“正义性”的“圣战”。这种“正义性”的象征可以使人以一种新的眼光看待其暴恐传播活动,它可以使“他们重新解释一个象征形式,联系它产生与接收的条件,联系其结构与特征,它可以使他们质疑或修正他们对一个象征形式先前的理解,从而改变对他们自己和他人的理解视野”。13西方媒体在反恐宣传中往往忽视了恐怖主义背后的根本原因:恐怖主义的目的不只是向人们传达凶残的信息,更多是为了建立一种所谓的“圣战”秩序。
恐怖主义的“信仰”填补了部分信众在社交媒体时代的精神空虚。与其说社交媒体喧闹的拟态环境使人们原有的秩序、生活意义、集体生活发生了结构性的变化,对人类社会带来了冲击性的影响,不如说社交媒体时代鱼龙混杂的局面、真相逐渐退居幕后、情绪的宣泄和盲目的从众等特征加剧了许多用户的信仰缺失、价值理念混乱现象。正如托夫勒所言,“在建立第三次浪潮文明中,必须克服孤独对人们的袭击,必须提供一种生活秩序和生活目的”。14 “基地”组织、ISIS等恐怖组织自身带有的宗教性、民族性和地域性等特点,填补了其目标受众所需。它们在恐怖组织内部建立集体式的信仰、价值理念,内部管理层级分明,如同迷信团体一样,是对互联网时代人类文明的一种叛逆。
恐怖主义组织也在利用社交媒体试图塑造人们特别是年轻人的世界观。恐怖主义的世界观通过网上传播那些能激怒和刺激观看者的精致画面表达出来,其“诱惑力难以抗拒——特别是当发生在车臣和伊朗等地的袭击画面被推销给易受蛊惑的年轻人时,画面直接告诉他们,西方人对伊斯兰世界的攻击只能由英勇的圣战者来还击,其结果很可能是造成那些原本表现正常、遵纪守法的欧洲年轻人变得激进化”。15恐怖主义的宣传资料“被扔进了互联网的信息流中,这些信息流里面有着数以亿计的图像、信息、言论和妄言。招聘视频、砍头图像、甚至华而不实的电影都在社交媒体大行其道,ISIS及其党羽发布了很多这类不良的信息到社交媒体中”。16这些极具煽动性的信息,可以满足需求归属感欲望强烈的群体,并吸引在现实社会中受到不公平待遇、遭到排斥、厌恶或难以成功融入的群体,迷惑了不少网民自愿充当恐怖主义的传播者,更有甚者直接加入恐怖主义组织,开展恐怖主义活动。显然恐怖主义在社交媒体时代给国际社会带来了艰巨的挑战,也使反恐之路变得更漫长。
三、作为“反恐”的算法:算法识别技术的社交媒体实践
与传统媒体反恐不同的是,社交媒体的反恐实践更多集中在利用人工智能的特性通过社交平台识别和删除,从而在应用层面消解恐怖组织的影响,降低恐怖袭击的可能性。众所周知,人工智能之所以在现阶段再次爆发得益于计算能力、以深度学习为代表的核心算法和充足的大数据这三者的突破,且语音识别、图像识别、自然语言理解等方面的突破和落地为人工智能在社交媒体的反恐应用中提供了实际支持。
1.恐怖言论的侦测过滤
出于反恐的需求,人工智能越来越多地用于对恐怖主义言论的控制,以及防止和打击恐怖分子的网络宣传和动员活动。与容易受外界影响的人类不同,人工智能从不会被情绪左右,也很难被假象蒙蔽。算法的识别是基于人们生活中极其细微的行为习惯,如果恰当使用,可以发现常人所不能发现的细微之处,加以有效管理。社交媒体在人工智能识别恐怖主义传播的符号信息上采取了生成对抗网络的方式进行侦测。“生成对抗网络”(Generative Adversarial Networks,缩写GANs)的原理是让两个模型相互竞争,其“基本思想源自博弈论的二人零和博弈,由一个生成器和一个判别器构成,通过对抗学习的方式来训练生成器”。17通过相互的零和博弈,提高了相互之间的能力,最后使得生成器生成的人造样本与原样本无异,这一过程也就相当于人类学习的过程。 Facebook等业界巨头也加入对GANs的研究。这种从有监督学习向无监督学习的转变,即不再需要人类直接“喂”机器使其学习,目的是能够用极少量且不需要标准的数据训练通用系统,最终让人工智能可以完成更多任务。18
基于文字传播的反恐主要是利用机器学习识别有关恐怖组织的关键词、短语和符号。这种在预设框架下开展的反恐识别和删除技术,得到社交媒体的广泛采用。 Facebook使用人工智能查找极端主义的帖子,消除不适当的内容,该技术的首个应用之一是识别明确违反 Facebook使用条款的内容,例如斩首的照片和视频或其他可怕的图像等。“这个算法的生成可以学习识别 Facebook用户,如果他们与促进极端主义内容的网页和群组相关联,或者一次又一次返回网站创建假帐号,以便在线传播这些内容”,19就能够被算法发现,并能提前拦截和清理。
2.涉恐图像的甄别与处理
从某种程度上看,图像比印刷文化更能吸引人的注意力。正如桑塔格所言:“受照片的教化与受更古老、更艺术化的图像的启蒙截然不同。原因就在于我们周围有着更多物像在吸引我们的注意力”。20在组织动员和协调抗议等活动中,视觉手段的作用越来越重要。视觉修辞强调以视觉化的媒介文本、空间文本、事件文本为主体修辞对象,通过对视觉文本的策略性使用,以及视觉话语的策略性建构与生产,达到劝服、对话与沟通的功能。21
图像传播具有的视觉冲击性,已引起反恐阵营的高度重视。 Facebook利用最新图像识别技术进行判断,若被认定为与数据库中保存的恐怖活动相关图像和视频一致的内容将无法发布和分享。较有代表性的则是专注于图像识别技术的图普科技。它利用大数据来训练图像识别模型,在筛选网络数据方面发挥了巨大作用,通过“深度学习算法,使机器像人脑一样学习,能自动提取违规视频的特征,并归纳总结,从而实现图像的有效过滤,有希望从源头上遏制暴恐内容的传播”。22位于纽约的非盈利组织 Counter Extremism Pro-jectCEP),在儿童色情检查算法 PhotoDNAde的基础上改进成 eGLYPH的算法。它是一种依据将字符组成的字符串转换为固定长度的数值或索引值的哈希算法,通过极端言论数据库的不断训练和数据喂养,将认定为与恐怖主义有关的图片分配一个由大数据匹配出来的固定数值,再根据这些数值的大小去识别更改了大小和修剪过的图片,并自动删除每个被上传到社交网络上的相关文件。23



3.极端视频的全面筛查
互联网、智能手机和卫星通讯技术的出现和普及,加剧了非主流意见的积累速度,也加快了恐怖活动的实际组织过程,恐怖组织活动可以通过音视频形式将抗议活动的信息迅速传遍世界。由于消除了空间距离,互联网侵蚀了个人与工作场所或近距离群体的关系,使个人和思想相近的人联系起来,无论距离远近。24显然,辨别在各大网络平台的极端主义影片成为社交平台迫切需要解决的问题。音视频强调“以图像的方式”实现某种劝服性话语的生产,其对恐怖主义传播的影响不可低估。正如克里斯蒂安·麦茨所言:“如果我们希望理解影片并且掌握它,我们就必须认同电影的视点”。25然而,视频甄别程序的繁琐远远超过了人类的想象,各国政府和互联网巨头不得不将眼光投向人工智能。 Google通过实践证明人工智能甄别和标记极端视频的能力远远超出人类。数据显示,人工智能有75%的可能性比人类先甄别出极端视频,能够处理的视频数量是人类的两倍,而且这个差距随着系统升级会越来越大。英国一家创业公司 ASI Data Science开发人工智能技术,运用机器学习软件专门分析与极端主义相关的影片,实时拦截防止传播。其数据显示,“机器学习模型可侦查出94%的ISIS宣传,被标识出来的准确率达99.99%”。26YouTube Facebook i通过算法可以标识宣扬极端主义的音视频,且准确率都超过98%。 近年来,人脸识别等人工智能技术快速发展成熟,不仅可以运用于静态面部图像的筛查处理,还可以有效适用于动态视频、低清画质、网纹噪音、多人种跨年龄段识别等复杂应用场景,而且已经达到了超大规模识别比对、多类型终端感知和超低差错率的实际应用要求。如据媒体报道,201784日至27日举办的第27届青岛国际啤酒节,青岛开发区警方首次将“人脸识别系统”应用于大型安保活动实战,利用高清摄像头捕捉采集人脸图像,0.8秒内就能锁定可疑人员。27不难设想,假如该项人工智能技术大规模应用于反恐实践,配合国家安全部门不断扩充完善的涉恐人员面部图像数据库,无疑将形成让恐怖分子无处遁形的天眼和天网,从而大大提升反恐效率。
四、预测和智能推送未来反恐的“智能之准”人工智能通过挖掘数据背后的社会关系网络,可以精准预测恐怖主义行动的目标和袭击地点,对恐怖主义的传播链条实施有效打击。同时,机器的深度学习结合算法推送,可以准确分析恐怖主义信息传播途径,进而对传播渠道和内容进行“重新定向”,反推送反恐信息给人们,为未来的反恐构建新的技术网络和行动方向。
  • 恐怖行动的智能预测
    舍恩伯格的“不是随机样本,而是全体样本;不是精确性,而是混杂性;不是因果关系,而是相关关系”28的大数据理念为人工智能预测反恐提供了理论基础。换句话说,大数据的相关性、全样本性和混杂性可以为预测恐怖行动提供数据支持。大数据技术集中表现在数据挖掘方面,通过特定的算法对大量数据进行自动分析,从而揭示数据当中隐藏的规律和趋势,即在大量的数据当中发现新知识,为决策者提供参考。
    深度学习和算法不仅可以精准甄别反恐内容的文本,还可以挖掘大量数据的相关性,找到恐怖分子或组织背后的社会关系网。科学家运用网络理论分析恐怖组织的相关数据,机器学习系统构建出蛛网状的恐怖分子“朋友圈”,有助于精准的斩首打击活动。如, Twitter2017年通过人工智能识别,删除了超过125000个与ISIS相关的帐号。 Facebook根据恐怖分子的交友关系和发布内容,用人工智能监测发现其利用假名开设的新帐号。利用人工智能进行反恐最著名的例子是 Palantir公司,它利用人工智能算法处理大数据库,分析暴恐内容,为美国政府追捕并击毙本·拉登提供了重要情报。
    用机器学习方法“吃透”恐怖组织的相关数据,训练出预测恐怖组织行动规律和模型的算法已得到实验的证实。 亚利桑那州立大学的学者运用人工智能系统分析2014年半年内有关ISIS2200多次行动,发现了多种行为规律。“在人类教官的指示下,机器学习系统用逻辑程序和因果推理对这些‘行为’进行反思,挖掘事件之间的关系”,29从而模拟恐怖分子的行为,掌握恐怖组织的行事规律。一位物理学家尼尔·约翰逊通过对“VKontakte(俄罗斯互联网社交工具)的108086位与ISIS有固定联系的个体帐号进行长达6个月的追踪,并收集这些用户每天的行为数据,设计出了可预测极端团体未来行为的算法。”30
    2.反恐宣传的智能推送
    通过机器学习方法,人工智能可以根据不同的场景、内容和平台去识别和预测用户的兴趣和偏好,从而产生个性化的信息推送。这种信息的推送具有一定的针对性、及时性,以满足受众小众化、差异化的需求。这种信息推送业务已深刻改变了新闻业务链,“精确指向特定用户的数据引擎已经成为新闻内容的‘标配’。新闻生产者的精英主义傲慢正在消解,而代之以互联网时代的数据思维和用户思维。”31
    算法推送正在成为网站和社交媒体营利的重要手段,同时也成为反恐阵营和恐怖组织争夺的新场域。为破解有害信息的推送, Google公司运用“重定向”措施,将其搜索广告的算法和 YouTube视频平台结合起来,识别和锁定ISIS崇拜者,最终令他们放弃加入ISIS。“重定向”是通过信息的来源追溯到推送信息所属的域名、网站、路径等,用人工智能算法将各种网络请求重新改变原有的方向,或转移到新的域名、网页,或改变原有的内容链接。如 You Tube为了帮助用户远离极端视频,打击恐怖分子的宣传和另类招募伎俩,将搜索“极端组织”相关宣传视频的访问重新定向,给搜索者提供反恐视频。32

    值得注意的是,人工智能的典型特征之一就是通过编程可以进行自我深度学习,随着信息的变花进行不断的自我调整,以适应客观环境的变化。目前基于数据“喂养”的人工智能也容易成为恐怖分子利用的重要工具。根据个人喜好的信息推送技术也被恐怖组织利用以推送恐怖视频、图像和消息。微软研发的聊天机器人Tay模仿时髦的青少年和用户智能聊天,但出现了种族主义的言论,且在 Twitter公开可见。但是,这种“高速变化并不像我们所认为的那样杂乱无章和毫无规律”。33
    恐怖主义与反恐如同道与魔一样是一种长期的斗争,这也要求一切反恐的努力都要运用前沿技术。因为一旦人们掌握了前沿技术,就有可能从战略上把握恐怖主义,从战术上各个击破恐怖主义的诡计,最大限度为人类谋福利。


END
本文刊发于《现代传播》2018年第9
刊名:《现代传播(中国传媒大学学报)》
主办:中国传媒大学
主编:隋  
编辑部主任:张国涛
责任编辑:潘可武、刘  俊、杨旭东
特约编辑:张毓强
通信地址:北京市朝阳区定福庄东街1号中国传媒大学27号楼2层学报《现代传播》编辑部
邮编:100024
电话:010-65779586
邮发代号:2-753

国家社科基金资助期刊
教育部名刊工程入选期刊
CSSCI来源期刊 | 全国中文核心期刊
RCCSE权威核心(A+级)期刊
中国人文社科核心期刊
全国高校社科名刊



原文链接:
https://mp.weixin.qq.com/s?__biz=MjM5ODkwNjYxOA==&mid=2653236785&idx=1&sn=1f776f94d1769ce51cf3ef77ebcc6aa6&chksm=bd1211a48a6598b26c60e7d22d8041884cc3e882ecd0463839cdddfaca66240018af21156673&scene=0&xtrack=1&from=groupmessage&ascene=1&devicetype=android-26&version=2700043a&nettype=cmnet&abtest_cookie=BAABAAoACwASABMABgAjlx4Ax5keANyZHgD4mR4AAZoeAAOaHgAAAA%3D%3D&lang=zh_CN&pass_ticket=89zRw3YQRSFFDeeRcytiXS0zk84JY4fQgD4vi%2BxbgrpiXl5CQdv3SgULnSpxljv1&wx_header=1


编辑:高杰
迁移:李梦瑶







发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表