传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
795#
 楼主| 发表于 2024-1-13 19:39:58 | 只看该作者
【案例】
龚群 | 论弱人工智能体的道德性考察作者简介

龚群,江西南昌人,1952年生,山东师范大学马克思主义学院特聘教授,中国人民大学杰出学者特聘教授、博士生导师,美国哈佛大学、德国莱比锡大学等高级访问学者。中央马工程教材《西方伦理思想史》第一首席专家,国家社科基金重大项目“社会主义核心价值体系重大问题研究”、“全人类共同价值研究”首席专家,以及多个社科基金和教育部重点项目、一般项目主持人。出版《人生论》《自由与潇洒》《当代中国社会伦理生活》《道德哲学的思考》《当代西方道义论与功利主义研究》《道德乌托邦的重构》《罗尔斯政治哲学》《社会伦理十讲》《当代西方伦理思想研究》《自由主义与社群主义的比较研究》《现代伦理学》《追问正义》《当代后果主义伦理思想研究》等20多部学术专著,出版《伦理学简史》《德性之后》《伦理学理论》等多部译著,在国内外学术杂志发表论文260余篇。


摘   要:弱人工智能体是具有一定自主性的人工智能(AI),其自主性可能隐含相应的道德问题。弱AI因其深度学习模式而有类似于人类的逻辑推理能力,但它没有自我意识或意向性,不具备亚里士多德意义上与实践相关的实践理性和伦理德性,也不具有休谟式道德发动意义上的情感,从行为本身以及从行为者本身来看,弱AI并不具备道德行为者的基本要素。然而,弱AI是具有一定自主性且持续发展的行为者,属于一种需要认真研究的行为新类型和伦理新类型,学界亟需加强对当代AI的伦理研究,为迎接强AI的到来准备好伦理条件。
关键词:人工智能;道德行为者;德性;意向;行为
“人工智能”(artificial intelligence,简称AI)这一概念自1956年被正式提出,其理论和应用在随后的几十年、尤其是近十年中发展迅猛。“人工智能”即人为制造的智能系统,其相关研究已经成为一个崭新学科和当代尖端科学技术,并在多领域获得了广泛应用——如,能够进行深度学习(Deep Learning)的人工智能机器AlphaGo,通过战胜世界顶级围棋高手,显示了其在专门领域里卓越的智慧能力;ChatGPT的强大功能已经引发世界关注,似乎人类距离通用型或强人工智能(Artificial General Intelligence)已经不远了。ChatGPT和AlphaGo一样,都是具有深度学习机制的弱人工智能体。一般而言,人工智能这一概念涵盖人工智能理论、技术系统与应用领域(见腾讯研究院,第23页),而人工智能体(见简小烜,第98页)则指应用人工智能理论与技术而制造的人工智能机器(见闫坤如,第47页),有时又被人们称为人工智能机器人或智能机器人,但通常人们并不加以区分而统称之为人工智能。这类人工智能体在诸多专门领域(如自动驾驶、医疗诊断、军事、家政服务、抗击新冠病毒等方面)发挥作用。能够深度学习的弱人工智能体向人类诸多社会科学理论提出了挑战,其中首当其冲的就是伦理学理论。人们预言,不久的将来,强人工智能以及超级人工智能的时代也即将来临。目前人工智能领域对于人工智能进行三种不同层级的区分:弱人工智能是相对于强人工智能而言的,前者指的是人工智能只能在少数有限的范围或领域里胜过人类,虽然其专门项目在持续增加;后者又称为通用人工智能,这种达到人类水准的人工智能具有起码能和人类一样达成任何目标的能力;超级人工智能代表超越人类智慧的通用人工智能。(参见铁马克,第69页)深度学习机制并非是通用智能系统,即并非是在用户最少化干预的情况下也能完成任何活动的智能系统,如ChatGPT不可能脱离其设计的技术路线来从事任意活动。(参见何立民,第89页;刘子玥,第8页;铁马克,第67-69页)我们应从理论上积极应对弱人工智能体以及人工智能的未来发展给我们提出的伦理问题。

一、自主性与行为责任归属
弱人工智能体之所以会产生伦理问题,是因为它具有一定的自主性(autonomy),所以与以往所有人造物都不同。相反,如汽车等人造物作为人类社会的代步工具,仅仅表现为一种工具性,而不会被认为与交通事故之间存在某种伦理上的联系,这其中的差别正在于弱人工智能体的自主性。自主性是一个内涵较为丰富的概念,可以分为道德意识与行为意义两个层次。就前者而言,康德道德哲学典型地表达了其含义:个人意志的自主自决以及自我立法。就后者而言,自主性强调的是行为者能够在不受外在因素影响下独立作出决定和选择,并控制自己的行为导向目标。(参见程承评,第60页;丛杭青、王晓梅,第108、86-87页)本文所谈论的弱人工智能体的自主性主要表现为后者。如ChatGPT写诗、写文章、写代码的行为都是其自主性的表现,但这不能表明它有数据能力之外的创新能力。行为自主性是对行为本身进行道德评价的基本要求,同时也是对其道德责任归属的主要考量。亚里士多德的行为自主论是一种自愿论,他认为“强制的始点是外来的,行为者对此无能为力”。(见亚里士多德,第41页)而行为能动者由内在机制(欲望、动机、意图等)主动发生的行为,其动力源于自己,其道德意义为行为主体本身所蕴含。换言之,如果一个人受到外来强制而不能自主决定自己的行为,就是非自主性行为,此类行为不应归责到行为者本身。成熟的人类行为者一般具有返身性道德责任意识,即不仅对于行为的目标有意识,而且对于该行为的影响有责任意识。弱人工智能体适用于这种类推吗?自主性可分为三个层次,即操作性、功能性和完全性道德体(full moral agency)。(cf.Wallach&Allen,p.26)操作性自主完全按照程序设计来执行命令,这种自主是设计者想法的体现;功能性自主是为达到一定的设计目的,使行动主体能够依据环境条件对行为具有一定的调节性,并且具有评价自身行为的一定能力;完全性道德体的自主就是完全依据理性或情感能力的自主。沃利奇和艾伦认为,这三个层次的自主性依次递进,但“人类目前还没有这样的技术”能够实现从第二层次到第三层次的进化。(ibid.)人类行为自主性可以涵盖这样三个层次,而弱人工智能体目前只有操作性自主性和功能性自主性。操作性自主智能可部分替代人的劳动,但其伦理意义较小。凡是涉及人与人关系的地方,就具有伦理道德上(善恶、好坏)的意义,如智能工业机器人发生伤人事件,就是具有伦理恶的事件。伦理意义的大小主要取决于弱人工智能体的人际互动程度。在某一领域能够从事功能性活动的弱人工智能体,其蕴含的伦理意义有高下之分:如围棋人工智能体仅仅是与人对弈,相对人际互动不多;而无人驾驶汽车,在行进中需要面对不断出现的路人以及乘客的不同状况,因而与围棋人工智能体相比,无疑其伦理意义更大。虽然弱人工智能体具有在某一领域从事工作的卓越智能,但仍然不具有与人类的智能相比的真正通用性。虽然目前弱人工智能体的智能活动并非称得上严格意义的、在人的自愿自主行为意义上发生的“行为”,但从机器算法的逻辑意义及自主行为的定义来看,这无疑具备了某些类人自主行为的特征。有人提出:“这种‘自主性’只是看上去像有,而实质上并没有,这种自主性源于一种功能赋予。所谓的功能赋予,是指行动者利用物体的自然属性达到他们的目的,人类和某些动物具有赋予对象某种功能的能力。”(宋春艳、李伦,第97页)但这类反对意见对于能够进行自主判断的弱人工智能体来说是不成立的。弱人工智能体代表了人类制造智能方面的突破性进展,“创造会思考的机器的可能性可能引发一系列的伦理问题,既与确保机器不伤害人类和其他与道德上关联的存在者有关,也与机器本身的道德地位有关”。(cf.Bostrom&Yudkowsky,p.316)“会思考”(thinking)的含义并不确切,正是因为这类机器具有一定的自主性,才引发了所谓的“道德地位”的问题,这与行为者的自主能力和道德责任能力相关。那么,弱人工智能体是某种自主而有承担责任能力的道德行为者吗?弱人工智能体与具有理性的自我主体(即人)所作出的抉择从机制上看并非完全一样,但其结果都表现为行为自主。弱人工智能体目前的主要基本工作机理为符号主义(symbolicism)、联结主义(connectionism)和行为主义(actionism,或称进化主义evolutionism),这三者目前已呈融合趋势。能够进行逻辑演绎、强计算以及类神经网络的深度学习,具有很强的推理运算能力以及有限的模拟人类神经系统的结构与功能,在与环境互动中自主学习、作出判断,从弱人工智能体的逻辑演绎和运算能力以及作出选择和决定的能力看,它具有某种类人类理性的人工理性。需要注意的是,动物的自主性活动是因本能(刺激-反应)或感性欲求,并非由于内在理性而活动,这是动物与人的区别,也与弱人工智能体不尽相同。人工智能从根本上是为人类服务的,它能实现人脑的延伸和体力的解放,因而与人的利益息息相关。但其活动必须以善目的为导向。人工智能程序设计者可以把人类的道德规范、道德价值要素编制为人工智能的运算程序来让它们遵守或执行。(cf.M.Anderson&S.Anderson,p.75)人工理性充其量只是人类推理运算理性的拟人化形式,虽然道德判断往往也要用到逻辑推理,但伦理问题更多的是价值理性而非认知理性在起作用。人类的道德价值思维并非完全按照外在规范而是按照内化了的规范以及体现为品格的德性来进行符合规范的行动。实践理性并非像逻辑程序那样固化,而是因人的品格境界的差别而体现出千差万别的道德特性,这与机器按照指令程序来行动完全不同。人类自主性是在既有理性又具有自我意识的前提下的自主性,弱人工智能体的自主性是在没有自我意识前提下的自主性,因而并不能完全等同于人类自主性那样的自主性。那么,弱人工智能体可能具有道德责任意识吗?道德责任意识是一种返身性意识,即能够对于自己的欲望、意图或动机进行道德评价,并且在行动之后也能因自己的行为产生对他人有利或不利的后果而感到满意或内疚。弱人工智能体没有返身性思维的能力,因此不可能建构起道德责任意识,但这并非意味着不需要承担道德责任。没有人类意识但具有一定自主性的人工智能,由于其有着一定人类智能性质的理性,并且也由于人可以将道德规范命令作为程序因子编入人工智能运行的程序之中,(ibid.)从而能够有道德意义上的行动。人工智能的深度学习基于程序算法给出的目标指令,但怎样最优地达到设置目标,则是人工智能机器人(又称智能机器或智能机器人)本身的作为。(参见郭万明,第130页;闫坤如,第50页)然而,如果智能机器人(目前的智能机器人也就是弱人工智能体)按照程序指令进行工作而出现某些并非由于程序本身造成的伤害人的问题,应该如何对其进行法律或道德责任意义上的处罚?弱人工智能机器人在本质上仍属于人的工具,不具备法律主体资格。(参见贺栩溪,第105页)有人认为,机器人即使有程序性自主性,但到目前为止的机器人没有责任心,也不能担负道德责任,因此不是道德行为者。(cf.Sullins,pp.24-25)但即使这类智能机器人不能像人一样具有责任心和承担道德责任,也不是严格意义上的道德行为者,并不意味着就不应承担责任,只是人类暂时没有找到合适的使其像人一样承担道德责任的方式而已。责任、义务与权利是对等的,智能机器人具有一定的道德责任就应当享有一定的道德权利,但如何使机器人享有与自然人一样的法律道德权利和身份,仍然是一个问题。如ChatGPT已经可以按照程序指令来作画或写出优美的诗篇,那我们是否也应当保护这类弱人工智能体的著作权?这种著作权又如何履行?即使强调弱人工智能体是道德责任和权利的归属主体,弱人工智能体本身并没有意识,它不可能意识到自己负有某种责任,那么如何使其承担道德责任以及享有相应的权利?

二、意向性、意识与行为

具有道德意义的人类行为体现的是人类行为者本身的主动动因、内在意愿,因而体现了人类行为的意向性(intention)。但弱人工智能体仅仅具有一定自主性,其行为是否能够被视为类似于人的行为?人的行为是具有自我意识的主体的意向性行为,对弱人工智能体行为的道德意义的考察必须将意向性以及自我意识纳入其中。首先,就人类的活动而言,有意义的行为与单纯无意义的动作或行动有根本区别。判断一个动作是不是行为,关键在于这个动作是有意识的行为、意识清醒下的行为、潜意识的行为,或只是无意识的肢体动作等。“行为就某种意义而言,是通过身体的运动体现出来的,但是只有当行为者遵循一种技术的行为规则,或者一种社会行为规则而同时进行这种运动时,这种行为才能体现出来。这种同时进行意味着,行为者是有意完成一种行为计划的,而不是有意进行借以体现他的行为的身体运动。一种身体运动是一种行动的因素,但不是行为。”(Habermas,S.146)哈贝马斯认为,人类的行为不能与行为背景所遵循的规则或社会规则分离,如果把身体运动与行为所体现的规则意义分离开来,就会对人类行为产生误解。当然,也存在着单纯的身体活动或肢体运动,但如果要把它说成是行为,就要看到它具有的意义。如我们向他人挥手是要向他人表达某种我们想表达的意思,这样的肢体活动无疑是一种行为。不过,哈贝马斯所说的行为与行为规则相关联中的“规则”,是行为者自己所认可或已经成为行为背景条件的规则。换言之,这样的行为规则并非需要行为者去努力回想而是已经融入行为方式之中的规则。这样的行为应当是行为者所认为的“正确的行为”,即与行为规则相符合的行为。此外,错误的行为其本身不符合一定的规则,但由于这些规则在行为者的理性认知范围内,因此当人们指出其行为不合规则时,行为者不能为自己进行合理辩护。其次,人类的身体运动或肢体活动之所以会体现某种社会规则或具有规则意义,根本原因在于人类的意识。行为是人们在规则意识指导下的行为,或由于人们对某种规则的意识而作出的行为。不过,人类的行为在相当多的情形下,正如弗洛依德所说,是潜意识或无意识的行为。这类潜意识或无意识行为实际上是人们长期习惯所养成的,如行走礼让他人,看似无意识,却是在长期反复的行为实践中形成的自发性行为。这样的行为看似无意识,但仍然以符合规则的潜意识为前提。在我们依照习惯行事时,如果有人突然蛮横地在前面冲撞他人,我们会因不理解而感到吃惊。第三,从现象学看,任何意识活动都有意向性,意识活动的特点就是意识主体既有对自身的意识,同时也意识到意识对象的存在。这个对象既可能是物,也可能是人。意识既指向外在的存在物,也可能指向内在对象。(参见布伦塔诺,第105页)以哈贝马斯的观点来说即在合规则的意识中,这也是意向性的特点。意识或意向对象是意识主体在意向过程中建构出来的,也赋予了对象意义。意向对象指向对象的过程,也是一个选择的过程,完成确定行为并赋予其意义。因此,在意向性精神现象中,意识主体起着关键性的作用。塞尔则从心理意义上来讨论意向:“感觉经验是意向,它们的意向内容在形式上是命题性的,即精神朝向适应世界,它们的性质以意向内容来说明。”(cf.Searle,p.45)在塞尔看来,意向本身不可离开感觉世界的本体,但同时又不可离开心理本体来把握。意向是内在心理性的,因而实现是意向本身的精神性事件。实际上,潜意识在某种意义上也就是指一种心理状态。在精神生活意义上,心理状态比明确的意识更为深层次。意向性既包含意识性层面,也包含心理精神层面。弱人工智能体的活动可以称之为具有意向性的行为吗?当前的相关研究没有表明人工智能具有意向性活动。使人工智能像人脑一样具有意识或自我意识,是人工智能研究的重大方向。物理还原主义的路线并非能够成功。脑科学研究把意识现象还原为生化层次和神经构造层次,这一领域的研究表明,一切意识(包括意向性)活动都有严格的电生理化学反应关系。20世纪80年代末,“神经生理学发现,在猫、猴等动物的视觉皮层区,有40Hz同步振荡产生,据认为这种同步振荡是各种视觉特征……有的神经生理学家也把40Hz同步振荡作为意识的神经相关物”。(见汪云久等,第1142页)这引发人们的设想,是否只要有像人脑一样的生物结构,就可以使人工智能产生像人脑一样的意识行为或意向性行为?就神经结构与认知结构的关系问题,目前的研究已经取得了一定的成果,如对于动物和人的视觉意识的神经机制研究,已经从传统的对视觉加工的分层级研究发展到视觉反馈过程的研究。动物电生理对猴子的研究发现,“在猴子的视觉皮层中,除了前摄神经连接,还存在很多反馈连接”。(见李奇、耿海燕,第1213页)还有人认为,“猴子的视觉大脑和视觉能力与人类非常相似”。(见刘晓力,第119页)针对动物视觉以及人的视觉神经生理结构的研究通过大脑皮层的神经传向方式的比较,深入探讨神经网络传导的物理表达方式。然而,这样的物理还原或以人工算法还原只是以物理方式或数学方式重现神经网络的认知,却把“意义”的参与排除在外,仅仅成为神经网络或人工智能深度学习的程序设计。换言之,把人的行为活动还原为大脑的物理或神经生理或电生理过程,能够解释行为意向吗?能够解释一个人在不同情境条件下完全相同行为的不同意义吗?意识本来就与物理材料无关,关键在于组成的模式。(见铁马克,第386页)组成模式就是物质在粒子层次的排列组合。“我认为意识就跟固态、液态、气态一样,都是突现的现象,会产生原有粒子不具备的新特性。譬如说当我们进入深度睡眠,仅仅只是粒子重新排列,就可以让我们失去意识,或如果我不小心冻死,我身上的粒子只是改以不幸的方式重新排列,……”(铁马克,第382页)目前的生物物理研究还没有达到基本粒子或电子层面的生化反应层次。但是,基本粒子的排列方式就能够解释人类的意识现象吗?这仍然是一个存疑的问题。虽然人工智能可以模拟人脑的知觉活动,但仍然不可能产生类似人的活动意义、自我意向性意识等维度的精神意义。目前达到神经网络深度学习的人工智能在原理上实际很简单:“‘深度学习’人工智能领域的研究内容很简单,就是罗列大量的数字进行运算。这是一种很聪明的大数据集的处理方法,由此可以为数据集分类。但这种方法无需通过颠覆性模式创新来实现,只要提高计算能力即可。”(斯加鲁菲,第29页)谷歌与斯坦福大学组成的联合研究组利用16000台电脑组成了包括10亿个连接在内的神经网络。斯加鲁菲把它称之为“暴力计算”。(见同上)暴力计算是目前统治人工智能领域的范式之一,ChatGPT就是一个实例。人脑中的神经元大约1000亿左右,每个神经元都通过1000个左右的突触与其他神经元连结、交换信息。神经网络在经过内在信息的多重转换后,最终能够将获得的事物表象转换成人类对外在事物对象的认知把握。“现在除了生物性的神经网路,还有属于人工智慧的神经网路,近来也成为人工智慧领域当中名为‘机器学习’(研究如何透过经验累积改良演算法)的主导力量。”(铁马克,第92页)在神经网络的深度学习功能上,计算机的能力很强大,但这是否意味着人工智能会像人类一样思考?实际上,当前弱人工智能体的一个最根本问题就是缺乏像人一样的意识:“我认为超人智能至少具备一个特点:意识。人类的思考、感觉、痛苦、快乐都属于意识。人类有意识,比人类高级的智能理应也有意识。”(斯加鲁菲,第118页)当前弱人工智能体还不具备像人一样的意识能力。AlphaGo的设计程序中有千万个棋谱和算法,高速运算能力使得它能够飞速找到最佳棋法。但这并不是AlphaGo的意识,而是按照程序逻辑和深度学习算法作出的自动判断。弱人工智能体通过大数据的运算,具有超强的逻辑推理和判断能力(甚至可能有直觉判断,如在AlphaGo对弈李世石时让世人震惊的第37步),但并不能因此就说它具有意识。笔者赞同翟振明的观点:“任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。”(翟振明,第30页)认为当前的弱人工智能体的高超运算能力等于“意识”或会接近人的意识是犯了物理主义、计算主义混淆“内在描述”与“外在描述”的功能而陷于“整一性投射谬误”的结果。(见同上,第29页)“意向性问题曾经是19~20世纪转折时期最热门的话题之一。无独有偶,在新的世纪转折时期,它再次受到人们的亲睐。所不同的是,它不再只是一个纯学术问题,而同时带有工程学的性质。当今的心灵哲学与其他关心智能问题的具体科学如人工智能、计算机科学、认知科学等,尽管各自走着迥然不同的运思路线,但最终都发现意向性是智能现象的独有特征和必备条件。然而作为现代科技之结晶的计算机所表现出的所谓智能,尽管在许多方面已远胜于人类智能,但它只能按形式规则进行形式转换,而不能像人类智能那样主动、有意识地关联于外部事态,即没有涉及到意义,或没有语义性或意向性。”(赵泽林、高新民,第51页)弱人工智能体不仅没有能思考的意识能力,也没有返身思考的能力,从而也就没有道德责任意识,更不用说自我意识。返身性思考首先有一个前提,即自我概念。返身是对自我形象多方面进行把握的能力,如通过对象来把握自我。猴子可以通过自己的水中影像获得对自己的感性直观,但人的返身性不仅是感性的,而且是理性的返回自身,如获得道德的自我形像。当前的AlphaGo可以通过学习进行对象性判断,但它能够通过无数次的学习建立像人类一样的心灵吗?通过无数次的深度学习建构起一套自己的逻辑理路来迎战任何围棋高手并不是人们所说的自我建构,更不用说什么自我意识了。即使是比AlphaGo更高一级的、算法更为先进的AlphaZero,也同样如此。自我意识是自我与他者相分离的意识,是在知觉感知对象的前提下才可能有的自身意识。笛卡尔的“我思故我在”作为自我意识的呈现,首先在于能够将自我与对象世界区别开来,并在这种区别中认识自我。弱人工智能体并不是以任何已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近意识主体的行为。人工智能专家2019年设计制造了一类机器人,它可以进行自我修复,有人认为这似乎可以被视为具有自我意识的机器人。对此,江怡评价道:“严格地说,这还不能算是一个完整的机器人,而且,仅从机器手臂可以根据外部环境自我修复和调整的功能看,这也不符合我们通常理解的自我意识活动。”(江怡,第5页)弱人工智能活动并不等同于人类行为。如果弱人工智能体没有人类所具有的意识,也不具有人类道德意义上的行为,我们也就无从把弱人工智能体看成是类似人一样的道德行为者。

三、何为道德行为者?

按前述,自主性意义上的充分的“道德能动体”目前只有人类存在者才可充当,或者说,只有人才是道德行为者(moral agent,后一概念又译为能动者)。具有自主性的、能够意识到自己行为的意向,并能够因此承担相应责任的行为者可称之为道德行为者。(cf.Sullins,p.28)然而,就理性人而言,作为一个道德行为者,其特征远比这三个要素更为丰富。理性人的行为不仅与他的理性和情感相关,也与他的品格内在相关。亚里士多德认为,人作为道德行为者的本体依据在于人的灵魂。体现作为人的灵魂的本质特性的是理性,德性以理性相符,因而“是灵魂的德性”。(见亚里士多德,第22页)行为的正当性以符合理性为依据,如果人们因放纵自己的情感、欲望而受到责备,那么受到责备是很正当的,人的行为只有符合理性或听从理性的指导,才是符合德性的行为。亚里士多德的灵魂说是其德性本体论最深层次的理论。就德性论本身而言,人的德性行为还应当有一个品格品质的内在根据。人有德性品质,才会有德性行为。德性品格可看作是人的长期道德行为习惯培养的产物,又可看作是人的理性潜能和体现。内在品格是在人的道德行为习惯中所养成的,因此,一个理性的人体现出的内在卓越的行为,也是品格的展现。当然,理性与品格两者也有不一致的情形,如罪犯运用理智来犯罪体现的就不是德性,而是恶。换言之,内在卓越的道德品质是行为合乎善的要求的德性保障。但仅仅有德性往往也会犯错。要做到理性与德性要求的一致,就要求人们在相应的条件下展现出其理智符合德性的判断,在适当的环境、适当的时间和适当条件下作出相应判断和行动。质言之,人的德性行为体现为德性品格和理性共同发挥作用的行为。亚里士多德的德性论又可说是一种理性论(不排除品格也起作用)。在亚里士多德的意义上,理性可分为理论理性与实践理性,就理论理性而言,理性是分析、推理、判断,同时也是“对普遍者和那些出于必然的事物的把握”。(见亚里士多德,第121页)通晓几何、算术这类知识是智慧,而理性更重要的使命是沉思永恒的、最高的或普遍的存在,因而沉思是最高的幸福。实践智慧或实践理性,则是在道德、政治等实践中运用正确的原则。(参见同上,第114页,译文为“正确的原理”)功能性弱人工智能体的超强运算能力可高效而卓越地胜任某领域里的工作或实现其任务目标,在这个意义上,弱人工智能体具有亚里士多德所说的理性或卓越。然而,就伦理德性而言,亚里士多德同时认为不可忽视理性所起的决定作用以及德性品格所起的作用。理性指导与内在德性品格同样重要。但人工智能是否能够达到亚里士多德所理解的双重意义上的理性,还是一个未知数。在亚里士多德那里,德性品格在行为意义上体现为行为者的行为习惯,即在道德环境条件相同或类似的情形下可以通过某个行为主体在这样的环境下通常如何行动来预见他将如何行动。那么,人工智能是否可以通过程序编写将重要的德性品格写入人工智能程序,从而使得人工智能能够依据内在指令来合乎道德地行动?人的品格特性是一种道德心理气质,也包括内在规范性内容。对于规范性内容,人工智能应当可以将其作为神经网络的运算因子。就此,人的德性品格实质性内涵可以转化为某种人工理性。但是,亚里士多德认为,德性行为在实践中并非是刻板地遵循伦理准则或规范,而是在实践理性的指导下在适当的场合、适当的时候,以适当的方式,为适当的目的对适当的人而言。(参见同上,第66页,译文为“应该”)一个慷慨的人给予他人多少援助,这既有理性判断所起的作用,也有内在品格的关键性因素,一个没有慷慨品格的人的理性算计的就不是能够帮助别人多少,而是怎样对自己更有利。人工智能可以把围棋的成千上万种正确算法编成程序并输入人工神经网络,通过深度学习,在与对手下棋时走出正确的一步。但是,人类的道德生活并非像围棋那样有着固定的格式,而是需要面对不断变化的情景中的行为对象。对于生活世界中的情景要求,行为主体往往是从内在品格出发,在与施行对象不断互动中进行理性判断,并调整自己的行为。范例学习可以获得道德原则,但并不意味着可以应对在程序中没有预见到的道德情景。数理逻辑是人工智能的神经网络深度学习的工作基础,其特点是形式化和确定化,根据逻辑规则从公理开始演算,为了更好地模拟现实和寻找解决问题的方案,就需要尽可能完善的数据库,这使得运行模式越来越复杂。但再大的数据库、再复杂的运行模式,也无法回答人类道德行为的不确定问题。如果把理性与情感或感性作为看待人性的两极,休谟站在亚里士多德的对立面。休谟认为,理性并不可能成为道德的动因,也并非决定道德的根本属性。休谟强调人的道德动因来自于人的自然情感。人的自然天性结构即人的自然生命结构使得人对痛苦和快乐的感受成为最深层次的感受或情感,一切人的情感,喜、怒、哀、悲、乐等等都与生命对快乐与痛苦的体验相关。休谟把苦与乐看成是直接情感,而骄傲、谦卑、虚荣、妒忌、恶意等则为间接情感。休谟说:“根据自然的原始结构,某些性格和情感在一经观察和思维之下,就产生了痛苦,而另外一些的性格和情感则在同样方式下刺激起快乐来。”(休谟,第331页)并且,休谟认为人的快乐与痛苦的体验或感受与道德内在相关:“德(virtue)引文根据书后的中英对照表加了“virtue”这一英文,之所以标出英文,是因为译者译法与目前通行(目前译法为二:德性或美德)的不一致,故标出。的本质就在于产生快乐,而恶的本质就在于给人痛苦。”(同上,第330-331页)人的所有情感不仅可以归结为快乐与痛苦,而且德性与恶习的本质都可以看作是快乐或痛苦。休谟的观点与霍布斯、洛克一脉相承,他们都将快乐与痛苦与道德的善恶直接联系起来。但休谟更进一步,认为这是由人的自然生命的基本结构所决定的。换言之,人作为一个道德行为者的善恶或德与恶,在于人生命的自然感受(快乐与痛苦的情感感受)。休谟强调人的生命结构具有感知道德善恶的能力:“我们既已讨论表现于人类方面的爱和恨,以及它们的各种混杂和组合,现在可以进而研究表现于畜类方面的这些感情;我们可以说,不但爱和恨是全部感情动物所共同的,而且……可以很容易地被假设为在单纯的动物身上起作用。”(同上,第435页)存在于人类身上的对他者的爱与恨、同情或情感的传导也同样可以在动物那里发现。但休谟认为,动物身上的自然情感并非是道德上的善与恶,人类的道德观念并非同样存在于动物界和植物界。如人类的血族通奸是罪恶,在动物方面就丝毫不是罪恶。这在植物界也同样如此。杀害父母是人类所犯罪中最大的罪恶之一,但在植物界并非是罪恶,如幼小的橡树长大后将老树毁灭。(见同上,第507页)在人类行为者那里,情感与道德有着直接的关联,在动物或植物这里,则没有关联。那么,人类的道德是怎样为人所感觉到的呢?休谟认为是人的心灵感觉到的,这由德与恶的本性所决定:“由德发生的印象是令人愉快的,而由恶发生的印象是令人不快的。”(休谟,第510页)并且,“发生德的感觉只是由于思维一个品格感觉一种特殊的快乐。正是那种感觉构成了我们的赞美或敬羡。我们不必再进一步远求;我们也不必探索这个快感的原因”。(见同上,第511页)休谟的说法仍然是回到快乐与痛苦这些最原生的情感中去。由于在动物那里没有人类感受德或恶而产生快乐或痛苦的情感感受,使得它们没有像人类一样的道德感或道德能力。人工智能是否能够拥有类似于人的情感?目前的研究已经有了进展,其代表是加州技术学院所制造的“社交机器人”Leonardo(cf.Wallach&Allen,p.161)以及麻省理工学院的嗅觉感机器人The Cyranose 320(ibid.,p.150)。从休谟的观点看,目前的情感智能机器人并不具有休谟意义上的情感反应,更不具有从感觉上分辨道德的能力。那么,人工智能科学家能够有这样的程序算法将休谟所说的道德在情感上的感应写入人工智能的神经网络吗?这无疑是对目前的弱人工智能体提出了过高的要求。沃利奇和艾伦认为,“在可操作性道德和责任道德能动性之间,从仅仅在可接受的行为标准到理智系统(这一系统具有评估他们自己的某些道德意义的行为能力),存在着我们称之为的‘功能性道德’的许多等级”。(ibid.,p.26)亚里士多德的理性(德性)本体论和休谟的自然生命情感论是对人作为道德能动体的理论描述,二者都排除了在这个世界上在所有自然生命的存在之外,除了人类还有道德行为者存在的可能。亚里士多德强调只有人才有理性,其他有生命的事物都没有理性,从而不可能有类似于人类的德性行为。但是,人工智能的发展趋势表明,类似于具有人类理性和情感的强人工智能将在在弱人工智能的不断进化中出现。当前弱人工智能体具有一定的自主性,理论上应当承担相应的道德责任。但弱人工智能体并不具有道德行为者的基本要素,使其无法作为承担责任的主体来行事。如果弱人工智能发展到强人工智能,具有亚里士多德式的实践理性和德性品格以及休谟式的情感,能够有情感体验、与人类进行情感交流,那么,这样一类人工智能体将是一类具备了作为道德行为者的基本要素的行为者。面对这类特殊的道德行为者,我们首先需要伦理理论的重建,提出一套类似人类行为的从动机、意图、理由到行为过程、再到行为后果的伦理规则和规范体系,培育内在道德品格德性的、适应于人工智能体的道德理论。其次,我们需要与人工智能领域的专家合作,探讨如何使这套理论成为人工智能的程序编程语言以及如何训练人工智能学习成为道德的机器人。这类伦理工作的意义不仅在于应对当前的弱人工智能体给我们带来的伦理挑战,也为不久将来可能出现的、具有人类意识或类似人类的自主意识的人工智能作好伦理准备。

参考文献

[1]布伦塔诺,2020年:《从经验立场出发的心理学》,郝亿春译,商务印书馆。

[2]程承坪,2021年:《人工智能的工作机理及其局限性》,载《学术界》第1期。

[3]丛杭青、王晓梅,2013年:《何谓Autonomy?》,载《哲学研究》第1期。

[4]郭万明,2020年:《人工智能体有限法律人格论》,载《广西社会科学》第2期。

[5]何立民,2020年:《从弱人工智能、强人工智能到超人工智能》,载《单片机与嵌入式系统运用》第8期。

[6]贺栩溪,2019年:《人工智能的法律主体资格研究》,载《电子政务》第2期。

[7]简小烜,2020年:《人工智能体的道德设计及其面临的挑战》,载《长沙大学学报》第4期。

[8]江怡,2019年:《对人工智能与自我意识区别的概念分析》,载《自然辩证法通讯》第10期。

[9]李奇、耿海燕,2008年:《视觉意识的认知神经科学研究进展》,载《自然科学进展》第11期。

[10]刘晓力等,2020年:《认知科学对当代哲学的挑战》,科学出版社。

[11]刘子玥,2021年:《关于弱人工智能与强人工智能的思考》,载《电子元器件与信息技术》第7期。

[12]斯加鲁菲,2017年:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社。

[13]宋春艳、李伦,2019年:《人工智能体的自主性与责任承担》,载《自然辩证法通讯》第11期。

[14]腾讯研究院,2017年:《人工智能》,中国人民大学出版社。

[15]铁马克,2018年:《Life 3.0:人工智慧时代,人类的蜕变与重生》,陈以礼译,台北远见天下文化出版股份有限公司。

[16]汪云久、唐孝威、Wu Jianyong(吴建永)、周昌乐,2001年:《意识的计算神经科学研究》,载《科学通报》第13期。

[17]王晓梅、丛杭青,2014年:《自主性与道德》,载《哲学研究》第2期。

[18]休谟,1980年:《人性论》下卷,关文运译,郑之骧校,商务印书馆。

[19]亚里士多德,1990年:《尼各马科伦理学》,苗力田译,中国社会科学出版社。



[20]闫坤如,2019年:《人工智能机器具有道德主体地位吗?》,载《自然辩证法研究》第5期。

[21]翟振明、彭晓芸,2016年:《“强人工智能”将如何改变世界》,载《学术前沿》第4期。



[22]赵泽林、高新民,2007年:《人工智能的瓶颈问题和本体论语义学的回应》,载《哲学动态》第6期。

[23]Anderson,M.and Anderson,S.,2010,“Robot Be Good”,in Scientific American 303(4).



[24]Bostrom,N.and Yudkowsky,E.,2014,“The Ethics of Artificial Intelligence”,in K.Frankish and W.Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press.

[25]Habermas,J.,1981,Theorie des Kommunikativen Handelns,Bd.1,Frankfurt am Main:Suhrkamp Verlag.



[26]Searle,J.,1983,Intentionality:An Essay in the Philosophy of Mind,Cambridge:Cambridge University Press.



[27]Sullins,J.,2006,“When Is a Robot a Moral Agent?”,in International Review of Information Ethics(6).



[28]Wallach,W.and Allen,C.,2009,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press.

来源:当代伦理前沿(公众号)
链接:
https://mp.weixin.qq.com/s/FZy743lZXRVYusqCUfjPPg
编辑:潘洁
794#
 楼主| 发表于 2024-1-13 00:15:26 | 只看该作者
【案例】
加拿大发布AIGC原则回应隐私保护,涉知情同意、权利行使


近期,加拿大隐私专员办公室(The Office of the Privacy Commissioner of Canada,OPC)发布了针对生成式人工智能技术的规制文件《生成式人工智能技术的基本原则:负责任、可信和隐私保护》(下称《基本原则》),重点就使用该技术过程中的个人信息保护等问题作出回应。


OPC官网
经南都记者梳理,《基本原则》共九大条,几乎每条原则都分别针对各方、生成式人工智能系统的开发者和提供者、生成式人工智能系统的使用组织提出不同的隐私保护要求。同时,《基本原则》提出应重点考虑该技术对儿童等弱势群体造成的特殊影响,要求对他们采取更多隐私保护措施。


No。1避免欺骗获得知情同意,明确禁止三方面行为

人工智能技术飞速发展的同时,其带来的隐私安全担忧从未止歇。当前,如何负责任地使用并治理人工智能已成为国际社会的讨论焦点,各国纷纷加紧制定相关法律法规。在推出《基本原则》之前,OPC及其在不列颠哥伦比亚省、魁北克省和阿尔伯塔省的相关监管机构对生成式人工智能服务进行了公开调查。

“虽然生成式人工智能技术可能会给隐私带来新的风险,并在个人信息的收集、使用和披露方面引发新的问题和担忧,但它们并不在现行法律框架之外。”《基本原则》在介绍其出台背景时写道,开发、提供或使用生成式人工智能技术的组织有义务确保其活动符合加拿大适用的相关隐私法律法规。

《基本原则》的九大原则包括法律授权和同意,收集、使用和披露个人信息的必要性、恰当性、开放性,个人信息主体权利、隐私安全保护措施等。同时,《基本原则》还明确了当前背景下,某些尚未得到加拿大相关法律法规的明确限制,但因可能产生不良后果和影响进而被严格禁止的行为“禁区”。

具体而言,“禁区”主要包括三个方面。一是出于恶意目的利用人工智能生成相关内容,例如避开身份验证系统或未经本人同意时生成可识别的个人私密图像;二是通过对话故意诱导人工智能泄露更多个人信息及敏感个人信息;三是生成和发布关于个人的虚假或诽谤信息。

知情同意是收集和使用个人信息的法律依据。《基本原则》规定,应确保以同意作为收集、使用和披露个人信息的合法性基础时,这份同意有效且有意义; 同意应尽可能具体,且避免通过欺骗性的方式获得;当个人信息来源于第三方时,应确保第三方系合法收集且有权进行共享。涉及收集和使用敏感个人信息时,比如医疗保健信息,应取得单独同意。

在目的方面,应确保与生成式人工智能系统相关的任何个人信息收集、使用和披露行为都是基于适当目的,且收集、使用和披露方式合法。

针对不同主体,开发者和提供者应不开发或使用涉及“禁区”的生成式人工智能系统,如发现潜在的、非预期的不当使用情况,应采取措施降低风险——这可能需要通过采取相关技术措施,提前制定使用规范来实现。生成式人工智能系统的使用组织则应避免促使该系统重新识别任何此前已去除身份标识的数据。

No。2开展隐私算法影响评估,重视儿童保护

《基本原则》明确,收集和使用个人信息应遵循必要性、开放性等原则。在必要性方面,如果不是为实现适当目的所必需,各方都应使用经匿名化、合成或去标识处理的数据,而非个人信息。使用组织应评估生成式人工智能系统用于预期目的有效性和可靠性,确保其在不同使用场景下也做到准确无误。

开放性指在个人信息的收集、使用和披露以及个人隐私的潜在风险方面实现公开透明。《基本原则》提出,在生成式人工智能系统生命周期的任何阶段,如开发、训练和运行等,需明确告知收集、使用和披露个人信息的内容、方式、时间以及原因,确保可能对个人或群体产生重大影响的输出内容能够被识别为由生成式人工智能技术所生成。

开发者和提供者应确保使用生成式人工智能系统的组织了解相关任何已知或可能的风险,包括已知或合理预期的故障情况,如可能输入错误信息等。维护并发布用于开发或训练生成式人工智能数据集的相关文档,包括数据集的来源,收集和使用数据集的法律依据,是否有相关许可证明或对数据集使用目的的其他限制,以及对数据集进行任何修改、优化的记录等。

使用组织应公开的信息包括数个方面。首先,应向各方明示是否在决策过程中使用生成式人工智能系统,如果是,需明确以何种身份使用,采取哪些保障措施,受影响方可保留哪些选择或追索权。其次,需明示使用了哪些个人信息训练和改进系统以满足其特定用途。此外,应确保与生成式人工智能系统交互的个人在使用时了解对方身份、相关隐私风险以及可用的救济措施。

除了对系统开发者、提供者、使用组织的行为进行规制,《基本原则》还对行使个人信息权利作出明确。

具体来说,应制定相关流程,使个人能在使用生成式人工智能系统的过程中对其相关个人信息进行访问和更正。各方应明示个人信息存储时限,及时清除不再需要保留的信息;确保个人在信息保留时限内行使获取信息的权利。

在隐私安全保障措施方面,《基本原则》提出,需在生成式人工智能系统运作的整个生命周期内采取与被处理信息敏感度相称的保护措施,使用时持续了解和防范重大隐患,比如蓄意避开验证步骤或使系统执行非预期操作的行为,大模型训练数据中包含的个人信息被泄露等。

开发者和提供者应防止不当使用系统,进而生成不公平、不道德或带有歧视性等非法或有害内容,持续监控系统的运作情况,及时纠正不当使用行为。使用组织应确保在使用系统控制数据的过程中,不会对其安全保护措施造成负面影响。

为了强化责任追究,约束不作为等,《基本原则》还提出了针对隐私保护的问责机制。建立明确的隐私合规内部治理架构,明确各方职责和义务;建立反馈和投诉机制,对生成式人工智能系统的开发使用开展隐私影响评估、算法影响评估等,明确潜在安全隐患。

具体到各方,开发者和提供者应对系统进行独立审计,评估其有效性和可靠性,确认是否符合相关隐私法规,测试输出结果是否存在不准确性和偏差。此外,鼓励开发者和提供者允许独立研究人员、数据保护机构和其他相关监督机构对系统或大模型的潜在风险进行评估和审计。

“使用组织应当理解决策的责任在于组织,而不是用于支持决策过程的任何自动化系统。”《基本原则》明确,要为受影响的个人提供有效的质询机制,为其提供足够的决策形成相关信息,允许要求开展人工审查和二次决策。

值得一提的是,《基本原则》还强调了生成式人工智能技术对儿童等弱势群体造成的特殊影响。在开发生成式人工智能系统时,要对训练数据集进行评估,以确保不会复制、固化、放大历史或当前的偏见,以及引入新的偏见;在使用此类系统时,应对输出结果进行额外的监督和审查,加强对潜在不利影响的监测。


来源:隐私护卫队(公众号)

链接:https://mp.weixin.qq.com/s/yy7LcZlBPjfsWFE-0LUiBw

编辑:潘洁





793#
 楼主| 发表于 2024-1-11 23:32:41 | 只看该作者
【案例】
OpenAI回应《纽约时报》起诉:用公开素材训练大模型合理

·OpenAI在此次回应中共提出四点主张。OpenAI认为,使用公开的互联网材料训练人工智能模型是合理的;《纽约时报》并未讲述完整的故事,似乎故意操纵提示,其诉讼毫无根据。

当地时间1月8日,ChatGPT的开发机构OpenAI在官网发布一份声明,针对近期《纽约时报》提起的诉讼进行了首次正式回应。
2023年12月27日,《纽约时报》起诉OpenAI和微软公司,指控这两家公司未经许可使用其数百万篇文章以训练人工智能模型。
OpenAI在回应中共提出四点主张,第一,OpenAI愿意与新闻机构合作并创造新的机会;第二,使用公开的互联网材料训练人工智能模型是合理的。但OpenAI提供了退出的选择,因为这是正确的做法;第三,反刍事实(regurgitate facts)确实是一种罕见的错误,OpenAI正在努力将其减少到零;第四,《纽约时报》并未讲述完整的故事,其诉讼毫无根据。
OpenAI在声明中表示,使用公开的互联网材料来训练人工智能模型,得到了学术界、图书馆协会、民间社会团队、初创公司、美国领先企业、创作者等人士的广泛支持,其他地区和国家,包括欧盟、日本、新加坡和以色列,也有法律允许用受版权保护的内容训练模型。
此外,OpenAI为出版商提供了一个简单的选择退出流程,防止OpenAI访问他们的网站,《纽约时报》于2023年8月已采用这一退出流程。
反刍(Regurgitation)是指特定内容在大模型的训练数据中多次出现。OpenAI强调,公司采取了措施来限制非故意记忆,并防止大模型输出中的反刍现象。OpenAI还希望用户采取负责任的行动,故意操纵其大模型进行反刍,并不是对技术的适当使用,也违反了使用条款。
OpenAI称,《纽约时报》看到了一些内容的反刍,但拒绝分享示例。“有趣的是,《纽约时报》提到的反刍似乎来自多个第三方网站上大量传播的多年前的文章。他们似乎故意操纵提示,通常包括冗长的文章摘录,以便让我们的模型反刍。即使使用这样的提示,我们的模型通常也不会像《纽约时报》暗示的那样表现,这表明他们要么指示模型反刍,要么从多次尝试中精心挑选示例。”
OpenAI的声明写道,该公司正在不断提高系统对反刍训练数据的对抗性攻击的抵抗力,并且最近的模型已经取得了很大进展。
OpenAI透露,2023年12月19日,该公司与《纽约时报》进行了最后一次沟通,当时他们向对方解释称,和其他的单一来源一样,《纽约时报》凭自身并不能构成有意义的贡献,对未来的模型训练也不会产生足够大的影响。
“正如人类接受广泛的教育来学习如何解决新问题一样,我们希望我们的人工智能模型能够观察世界范围内的信息,包括来自每种语言、文化和行业的信息。由于模型是从人类知识的巨大集合中学习的,因此任何一个部门(包括新闻)都只是整体训练数据的一小部分,而任何单一数据源(包括《纽约时报》)对于模型的预期学习并不重要。”该公司的声明称。
《纽约时报》在起诉中并未提出具体的赔偿金额要求,但指出被告应为“非法复制和使用《纽约时报》独特且有价值的作品”和与之相关的“价值数十亿美元的法定和实际损失”负责。此外,《纽约时报》要求两家公司销毁任何使用到《纽约时报》版权材料的聊天机器人模型和训练数据。
《纽约时报》还表示,已于去年四月与微软和OpenAI进行接触,对两家公司使用其受知识产权保护的内容表示了担忧,并探讨了“一种友好解决方案”的可能性,其中可能包括一项商业协议以及围绕生成式AI产品的“技术限制”。但是,谈判并没有得出解决方案。
在声明中,OpenAI最后表示,“我们认为《纽约时报》的诉讼毫无根据。尽管如此,我们仍然希望与《纽约时报》建立建设性的合作伙伴关系,并尊重其悠久的历史。”

来源:澎湃新闻
链接:https://www.thepaper.cn/newsDetail_forward_25948349
编辑:潘洁

792#
 楼主| 发表于 2024-1-4 16:49:45 | 只看该作者
【案例】

观察|生成式人工智能的媒体应对

核心阅读:“人工定要求、智能秒出稿”。AIGC(生成式人工智能)开启了智能传播新时代,极大地加快了新闻业智能化转型和业态重塑的进程。当越来越多的受众开始掌握AIGC工具,可以随时生成内容,这对于从事内容生产与传播的主流媒体人而言,无疑是一场巨大的变革与挑战。作者认为,AIGC是主流媒体实现自我革新的重要契机,是主流媒体人探索未来出路的重要途径,为内容生产和传播带来了无限可能。主流媒体要将AIGC带来的技术挑战转化为创新发展的新机遇。真人记者与AIGC之间的关系,不应被定义为非此即彼、相互替代,而是相互协作、优势互补,“携手”让新闻传播更快、更强、更美。

面对这种基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,有媒体人惊呼:“AIGC虽然并不完美,但这回狼终于来了!”对此,我们需要做的是,全面深入地了解媒体运用AIGC的特点,直面AIGC所带来的挑战,采取切实可行的对策。

1
主流媒体运用AIGC的特点

伴随以ChatGPT为代表的一批现象级AIGC应用的出现,越来越多的主流媒体引入AIGC作为内容生产工具。2023年8月15日施行的《生成式人工智能服务管理暂行办法》提出:“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”当前,主流媒体运用AIGC呈现出一些新特点。

(一)不断降低的门槛,让引入AIGC的媒体越来越多。自2022年11月ChatGPT推出以来,AIGC在世界上引起广泛关注。我国多家科技公司则从2023年3月开始陆续推出AIGC技术服务,各种相关应用迅速从大公司走向普通大众,成为人人可用的工具。澎湃新闻、封面新闻、上游新闻等多家媒体机构早在2023年2月就宣布接入AIGC产品。2023年8月31日,百度“文心一言”等大模型正式向全社会开放,用户可在应用商店下载“文心一言”APP或登录“文心一言”官网体验,使用十分方便,操作极其简单。AIGC使用门槛的降低极大地提升了用户黏性。腾讯研究院于2023年6月开展的一项调查显示,有80%的国内新闻从业人员已使用过ChatGPT(或类似产品),其中超过一半(56%)受访者认为ChatGPT(或类似工具)给自己的工作带来了实际帮助。

(二)不断增强的功能,让输出的模态越来越酷。技术的革新是撬动新闻报道形态革新的重要杠杆。从低能到高能,从单能到多能,从多能到超能,AIGC已经有覆盖一切与内容生产相关的能力,传统的新闻采访、写作、编辑、制作、分发、核查,都可以运用AIGC作为得力的辅助工具。其可以根据人类指令,迅速完成写文章、绘画、作曲甚至制作视频和动画等任务,其“创作”涉猎的范围几乎可以媲美人类,内容极其丰富,模态十分多样。且随着数据、算法以及算力等核心要素的快速发展,AIGC还在以惊人的速度不断实现迭代与升级。

(三)不断提升的效率,让内容的生成越来越快。AIGC拥有更快的创作速度,更高产的“创作”成果。就新闻业而言,AIGC相当于给每一位媒体人配备了一个高效率的助手。其正在改变人们搜索和获取信息的方式,大家不再需要在搜索引擎上逐条寻找自己需要的信息,只要和AIGC对话就能获取它整理好的信息。这使得媒体人能从重复性、程序化的劳动中解放出来。川观新闻推出数字记者矩阵,为40个真人记者制作数字分身并通过AIGC的方式实现常态化的视频内容生产。数字记者打破了传统的视频生产方式,不再需要布景、妆造、灯光、摄像、剪辑,只需要输入一段文本或语音,几分钟即可生成一段视频播报新闻,极大地提升了视频制作的效率。

(四)不断迭代的技术,让传播的质量越来越好。AIGC拥有强大的理解、自主学习能力,可以深度介入新闻生产,实现多任务、多语言、多形式的内容生成。更为关键的是,AIGC能够通过理解、模拟和学习人类的自然语言来进行对话,并根据聊天的上下文进行实时互动。有人评价它“比很多真人更能听懂人话、说人话”,和以往动辄“对不起,我不明白你在说什么”的“人工智障”有着天壤之别。有资深媒体人受访时表示,“文心一言”回答的准确性、逻辑性、流畅性都逐渐接近人类水平。当然,AIGC与新闻业的融合、发展还处在早期阶段。但通过人类反馈学习,AIGC将具有更强的适应性和灵活性,可以处理更加复杂的问题。

2
AIGC给新闻采编带来的挑战

AIGC在给主流媒体带来内容生产的智能化与传播精准化变革的同时,也带来一些矛盾与困扰,甚至成为新闻业职业危机、认同危机的技术根源。面对AIGC,不能只感慨其超人能力,更要正视其带来的挑战与风险,将其作为一面镜子,以反窥真人记者之局限。

(一)超快的速度,挤压媒体的生存空间。技术的革新首先带来的是新闻生产效率的提高。可以说,一旦AIGC技术得到广泛普及,新闻的生产方式和采编分工架构必然会发生颠覆性变化。AIGC最让人惊叹的,无疑是它快速高效的内容生成能力,采、写、编、评、剪等各个环节在AI技术的辅助下,能够节省更多的时间和成本。效率的竞争决定了传媒的生存与发展。有学者认为,“传统媒体与新媒体的最大差异之一是效率,包括传播效率、内容处理效率、反馈效率,也包括运行效率、资源利用效率等”[1]。一个媒体总体运行效率有多高,提升效率能力有多强,决定了其竞争力有多强。AIGC不仅以量取胜,而且以快占优,可以高效率生成大量看上去“令人信服”的内容而占领大众的注意力资源。这必然会极大挤压主流媒体的生存空间,削弱主流媒体的权威性和公信力。

(二)超全的整合,挑战记者的专业能力。AIGC为内容创作开拓了新的可能性,为内容表达提供了更为广阔的空间。AIGC具备超越人类的整合能力,能在极短的时间内完成大量信息的搜集、整合、翻译、分析与生成,是妥妥的“十项全能”,几乎什么都懂。相信在不远的将来,在AIGC等智能工具的帮助下,普通大众都将拥有新闻“多兵种”的创作能力。易言之,当AIGC一旦普及,使用AIGC就成为“一般标准”,而“一般”肯定不是“卓越”。不会使用或滥用、错用AIGC的媒体人,其竞争力将严重弱化。

(三)超炫的功能,降低媒体的需求程度。现如今,AIGC具备了多模态生成内容的能力,能够广泛适用于不同的应用场景。当答案可以自己寻找时,人们就不会去媒体寻找了。这样AIGC就成功地把人们的注意力分散掉,把人们的思考能力瓦解掉。更为严峻的是,AIGC应用于新闻生产,是将新闻价值判断的主体由人变成了智能机器。AIGC的评判标准势必影响主流媒体人的创作导向、价值取向和作品倾向,同时也对大众的审美标准和评价尺度产生影响,进而对社会的舆论导向产生重要影响。

(四)超高的效率,消解记者的专注精神。AIGC作为技术工具可以给媒体人带来工作上的捷径。比如,其提供的参考框架能够帮助记者迅速地生成写作思路,从而在应对新闻生产的时效性压力时能够获得优势。但当一个人可以在几秒钟内得到问题的答案,多少人还会进行深入思考?当一个人被告知答案是1234的时候,多少人会去思考5678的可能性?如果主流媒体人选择“躺平”,过度依赖AIGC“写”文章、“变”视频,结果必然是整个媒体生态和新闻水平的大倒退。况且,AIGC提供的答案本身是一种公式化、浅表化的“思考”,如若主流媒体人在懒散中拿来就用,先不说影响自身的思考力与创造力,对主流媒体来说哪还有观点、创意、独特性可言?

3
主流媒体应对AIGC的举措

面对加速更新的人工智能技术,主流媒体的内容生产与传播要做出哪些调整才能更好地应对AIGC带来的挑战、抓住AIGC带来的机遇?

(一)培养与AIGC互动沟通的新素养。从长远来看,在规范使用、健康发展的前提下,功能强大的AIGC将成为主流媒体人不可或缺的重要帮手。

1.要辩证看待AIGC的功能,充分认识技术的局限性。真人记者在AIGC面前,大可不必自惭形秽。不可否认的是,AIGC确实可以在许多方面提升效率,但真人记者自然有着无可取代之处。迄今为止,虽然AIGC看似“聪慧异常”,但也有不少“硬伤”。如作为人造物的机器人难以产生“恻隐之心”和“类的意识”,人工智能也缺乏基于道德、亲情的伦常关系,不可能真正拥有与人一样的情感,因此人机之间的界限无法逾越。另外,科技创新历来都是双刃剑。AIGC也面临技术“黑箱”、侵犯版权、暴露隐私等风险。

2.要系统看待AIGC的作用,充分认识工具的辅助性。作为一种技术工具,AIGC永远是辅助性的。辅助不是依靠,也不是替代,更不能是主宰。不可否认的是,在未来,AIGC势必会终结平庸。一些重复性高、创造性差及思想性低的新闻内容,会被AIGC生成内容所取代。不过,就像ChatGPT在回答中所说,与其担心工作被AI取代,不如发挥主观能动性和创造性,利用好新技术、新工具提高工作效率和生活质量,尽可能保持自身的不可替代性。

3.要全面看待AIGC的发展,充分认识人类的独特性。如果以生成的速度评判、以出品的产量衡量,真人记者肯定干不过AIGC。但AIGC的“模式化”“套路化”无法取代人类的“差异化”“个性化”。人类生而不同,特别是人类在文明演进中形成的智慧,更是这世界上独一份的珍贵。正是这些“独一无二”的差异性才让人类文明得以绵绵延续、生生不息。AIGC可以“写”关于童年的文章,但我的童年里有蝉鸣、有星星、有蒲扇,他的童年里也许有糖葫芦、补习班、游戏机,这些又怎么能用现成、固定的答案来描摹呢?

(二)提升与AIGC协同工作的新能力。AIGC势必重构新闻生产流程,重塑记者的角色和职责。就主流媒体人而言,需要掌握驾驭AIGC这项新技术的本领,理解人机交互模式,探索人机协同应用场景,找到人机共存关系中的最佳定位,实现人与AIGC等智能工具的有机融合,借以提升新闻生产质量和新闻传播效能。

1.正确使用AIGC工具的能力。随着AIGC的推广普及,AIGC必将成为媒体新闻生产与传播链条中的重要基础设施,变成智能传播时代真人记者从事新闻采编工作的基础性工具。可以预见,AIGC这样的应用将成为许多记者工具包中的常规应用,具备AIGC技能的人将更容易适应未来岗位需求,不会运用AIGC就像现在不会用电脑一样,将无法顺利开展新闻工作。所以,媒体要建立完善的培训体系,帮助采编人员尽早学习、及时掌握如何使用AIGC,提升对AIGC技术的理解和运用能力,让AIGC成为采编人员的基本技能,确保有效应用于采编业务中。

2.高效采集有用信息的能力。面对AIGC带来的媒体变革,主流媒体人必须有能力依靠自己的新闻素养找到新闻人真正能够发挥价值的空间,培养AIGC不能替代的差异化优势。尤其需要注意的是,记者不能变成像AIGC一样的互联网上已知信息的搬运工,只会包装别人的观点。毋庸置疑,面对AIGC,只有真正有记者思维能力的人,才有可能在未来找到自己的生存空间。中国人民大学新闻学院院长周勇认为,记者的现场采访、人性化写作、直觉、创造力、深度思考等优势禀赋,可以和AI工具的智能聚合及快速生产有机结合起来。在此过程中,人通过智能机器进一步延伸,优势互补、互相成就,更好地实现新闻创作中人的主体性。主流媒体人要提升在热点事件当中发声定调、在敏感事件当中引导有力、在突发事件当中抵达现场等一系列正面叙事的能力。

3.科学判断AIGC生成内容的能力。AIGC生成内容应该与人类的价值观、目标和意愿一致。面对AIGC,主流媒体人既要做积极的新闻信息采集者、解释者,又要做数据的管理者和分析者。面对复杂事物所表现的敏感性、洞察力和判断力以及质疑、追问、寻找对方话语中的新闻线索等记者的基本功,是AIGC在可预见的未来无法企及的。在面对AIGC生成内容时,需要始终保持质疑的态度,加强事实核查,增强辨别力和判断力,不断提升内容的准确性和可靠性,以保证新闻的真实与客观。

(三)挖掘真人记者内容生产的新优势。习近平总书记指出:“对新闻媒体来说,内容创新、形式创新、手段创新都很重要,但内容创新是根本的。”[2]

1.破解新闻同质与独家报道之间的矛盾,生产更多有深度的原创产品。就新闻而言,那些彰显个性、充满创意的作品,从来都不是复制粘贴的。AIGC只能基于过去的信息来回答问题,无法身临其境、现场即时采写新闻。如果过度使用AIGC会因内容的“唾手可得”,而使得原创新闻更为稀缺、独家报道愈发珍贵。新闻本源于社会实践。采访作为一种社会实践,强调记者深入基层、深入群众、深入实际去观察,在与一线的互动中了解、理解社会问题,发现一手的、鲜活的新闻线索,并根据价值观和人类经验进行报道。与AIGC不同,人类具有主观能动性,在改造客观世界的同时又改造自己的社会实践,可以在新闻作品中融入记者的个性、才智、品德、思想、感悟等。试问,如果你是受众,看到的每一条新闻都是机器人生成的“神作”,你还想阅读吗?

2.破解自动生成与议题设置之间的矛盾,生产更多有角度的独特产品。它将是真人记者在未来战胜AIGC的最强武器。只有让自己创造出的东西,能够让受众感觉到它是不可替代的、有意义的,主流媒体人才能有生存的价值。主流媒体要靠新闻的内涵吸引人、靠思想的力量感染人。主流媒体人创作的内容中所体现的报道视角、创造力、思辨性便是难以被AIGC生成内容所替代的价值所在。对此,主流媒体人可以利用人工智能技术分析相关的数据和背景、提炼观点和见解,发现新的报道线索、思路和角度,助益自己的报道,提升工作效率和质量。

3.破解冰冷数据与人文关怀之间的矛盾,生产更多有温度的共情产品。人工智能作为人类社会实践活动的产物,其功能是对人类行为的模拟、物化和延伸。从本质上来说,人工智能只是物质世界范畴的概念,不具备感性思维。AIGC按照语料库的模式生成内容尚不能满足人类更深层次的精神需要和文化需求,缺乏人类的创造力和想象力,人文关怀缺失,很难给受众带去感动和思考。如何通过真人记者个性化体验与个人化思考来展示内容的情感温度,实现作品与人之间的情感、意志、情绪、经验等方面的自然交互?这正如人民日报原副总编辑卢新宁在2017年媒体融合发展论坛上所言:“作为记者,我为地震颤抖,但机器人不会。”这也是真人记者创作与AIGC生成之间的根本区别所在。

(四)构建人机交互协同生产的新机制。传统新闻生产运行的底层逻辑因为AIGC将发生根本性改变。真人记者和AIGC共同协作、共同推动内容生产与传播将是未来的趋势,对此主流媒体要未雨绸缪,制定相关的规定和制度。

1.明确AIGC的应用边界。应用边界的划分是使用AIGC的规范与保障。要“将魔鬼关在瓶子里”,制定AIGC的使用新规则,明确AIGC这类智能工具的使用范围、程度。同时,要明确AIGC的归责体系,增强系统可追溯性,确保在损害发生时可问责。主流媒体可以将使用规范、方法和学术道德都明确教给采编人员。不管是人工写作,还是AIGC“创作”,如果只是将AIGC用于有限的目的,如查找文献、罗列大纲、整理思路等,是无可厚非的,但按现有的学术论文规范,只要超过规定的重复率,都应视为学术不端。此外,AIGC是基于对已有知识的检索与加工,必将涉及知识产权、肖像权等方面的纠纷,应该严格加以规范。

2.建立AIGC的审核机制。AIGC不能对其生成内容的真实性、可靠性、原创性进行判断,无法评判创作的作品是否涉及法律或伦理道德问题。特别是通过换脸、重新投射、口型同步、动作传递、图像生成、音频生成、文字生成等方式伪造照片、音频或视频,篡改新闻事实,这让虚假信息更加难以识别。作为AIGC的使用者——主流媒体,要坚持新闻专业、遵守伦理规范。面对AIGC生成的内容,主流媒体人要能对作品的信源可靠性、内容真实性、表达客观性、论述平衡性甚至算法程序进行审核把关,具备前代记者所不具备的数据素养和信息编码能力。为此,要建立跨部门、跨职能的人工审核团队,包括编辑、技术人员和伦理专家共同审核AIGC生成的内容,确保符合新闻标准和伦理规范,从而保持主流媒体人的独特立场。

3.规范AIGC的内容发布。由于AIGC具有智能化、仿真性特征,真人记者生产的内容和AIGC生成的内容之间的界限变得模糊,容易导致受众混淆或误认。这种情形还会进一步引发受众对新闻业的透明度和问责制的疑虑。所以要重视AIGC内容发布的规范和标准,应当在生成或编辑的信息内容的合理位置、区域进行显著标识,并依照法律、行政法规和国家有关规定保存日志信息,以将AIGC参与制作的内容和完全由真人记者创作的内容进行区分。如在每篇由AIGC创作(或参与)的内容的署名位置,都加上“人工智能技术创作”或“人工智能技术参与写作”之类的说明。同时,主流媒体对人工智能生成的内容应当建立用户投诉接收处理机制,及时处置关于更正、删除、屏蔽相关人工智能生成信息的投诉;发现、知悉AIGC生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合法律法规要求时,应当采取措施,停止生成,防止危害持续,并公布处理流程、反馈时限和处理结果。

4
结语

总之,面对AIGC带来的新变化、新挑战和新机遇,主流媒体要善于以内容为导向运用技术工具,着力培养能与AIGC良好协作的数字素养,掌握好驾驭这项新技术的本领,解决好在人机协同中遇到的问题,强化核心竞争力,发挥自身独特优势,全力打造人机和谐、量质齐升的智媒传播新格局。

参考文献
[1] 陆小华.智能媒体竞争力七大新制约要素与生成逻辑[J].青年记者,2022(21).77.
[2] 习近平.习近平在视察解放军报社时强调 坚持军报姓党坚持强军为本坚持创新为要  为实现中国梦强军梦提供思想舆论支持[N].人民日报,2015-12-27(1).

来源:传媒评论
链接:https://mp.weixin.qq.com/s/XGMDpnKZ_vFHomPDM-MeuQ
编辑:郑程程
791#
 楼主| 发表于 2024-1-2 21:25:14 | 只看该作者
【案例】
欧盟竞争主管为《人工智能法》辩护
玛格丽特•维斯塔格表示,这项具有里程碑意义的立法将为构建人工智能模型的科技集团提供“法律确定性”。

欧盟竞争和数字事务主管Margrethe Vestager为表示,欧盟新公布的人工智能法案将为开发AI技术的初创型科技企业提供“法律确定性”,尽管此前该法案受到包括法国总统马克龙在内的批评者的抨击。这项立法首次为所谓基础模型构建的企业提供了一套明确的规则。Vestager表示,“如果要构建基础模型,或者是应用基础模型,就需要确切地知道一旦投入使用,需要寻求什么。重要的是,监管不能有任何越权,才能促进创新和研究。”基础模型是支撑ChatGPT之类的生成式AI产品的技术,可以在几秒钟内生成类人类文本、图像和代码。
来源:金融界

编辑:郑程程

790#
 楼主| 发表于 2023-12-29 10:40:00 | 只看该作者
《纽约时报》起诉OpenAI微软侵犯文章使用权
OpenAI在推出ChatGPT后吸引了数十亿美元的投资
(德国之声中文网)本周三(12月27日),《纽约时报》对OpenAI和微软提起诉讼,声称这两家科技巨头在未经授权的情况下使用数百万篇文章来训练ChatGPT等工具的人工智能模型。
诉讼称,这两家公司"试图搭《纽约时报》的便车,在未经许可或付费的情况下,利用其在新闻领域的巨额投资,制造替代产品。"
微软与OpenAI建立了合作关系,允许其利用OpenAI开发的人工智能技术。微软也是OpenAI最大的资金支持者。
尽管还未有明确要求OpenAI和微软支付的索赔金额,《纽约时报》表示,它"寻求让其对非法复制和使用《纽约时报》具有独一无二价值的作品所所造成数十亿美元的法定和实际损害负责"。
该诉讼还要求销毁ChatGPT以及其他使用《纽约时报》文章作为训练材料的大型语言模型。

ChatGPT有何指控?
人工智能(AI)公司从互联网上轻松获取文本,包括新闻文章,以训练生成式人工智能聊天机器人随着人工智能技术的蓬勃发展,这些公司近年来吸引了数十亿美元的投资。
诉讼称,OpenAI的ChatGPT-4呈现了《纽约时报》的大部分文章,其中包括一篇调查纽约市出租车行业的深度报道,该报道历时18个月完成,并获普利策奖。
此外,诉讼还称,ChatGPT-4错误地将《纽约时报》旗下的评论网站Wirecutter援引为某些产品的购买推荐,从而危及其声誉。
诉讼称微软开发的Copilot(前身为必应聊天Bing Chat)提供的回答中包含了对《纽约时报》文章的逐字摘录。
《纽约时报》以及越来越多的公司及个人开始采取法律行动,以阻止OpenAI使用受版权保护的材料来训练ChatGPT。
但也有一些主流媒体选择与OpenAI合作并签订内容协议,比如美联社(AP)和德国的斯普林格传媒集团(Axel Springer)。
(法新社、美联社)

来源:德国之声中文网
链接:https://www.dw.com/zh/%E7%BA%BD%E7%BA%A6%E6%97%B6%E6%8A%A5%E8%B5%B7%E8%AF%89openai%E5%BE%AE%E8%BD%AF%E4%BE%B5%E7%8A%AF%E6%96%87%E7%AB%A0%E4%BD%BF%E7%94%A8%E6%9D%83/a-67842257
编辑:程博

789#
 楼主| 发表于 2023-12-28 22:27:19 | 只看该作者
《人工智能伦理治理研究报告(2023年)》白皮书发布
1226日,中国信息通信研究院在“2024中国信通院ICT深度观察报告会科技伦理治理分论坛上发布了《人工智能伦理治理研究报告(2023年)》。
报告在总结人工智能伦理治理有关概念和特点的基础上,对人工智能生成内容、自动驾驶、智慧医疗三个典型应用场景的伦理风险进行分析,并结合国内外人工智能伦理治理实践,提出人工智能伦理治理的四点展望,以期为更加广泛深入的讨论提供参考。

   报告前言  
伴随人工智能的迅速发展和广泛应用,人类正在进入一个人机物相融合的万物智能互联时代,人工智能技术的应用在给人们带来生活和工作便利的同时,也带来了系列伦理挑战。20223月,中共中央办公厅国务院办公厅印发《关于加强科技伦理治理的意见》,对科技伦理治理工作进行了系统部署,将人工智能列入科技伦理治理的重点领域。
人工智能伦理是开展人工智能研究、设计、开发、服务和使用等活动需要遵循的价值理念和行为规范。人工智能技术的突破发展,引发了技术应用的伦理争议,特别是生成式人工智能技术的发展应用引发了偏见歧视、隐私侵犯、责任不明、虚假内容传播等伦理挑战。
为应对人工智能技术应用带来的风险,世界各国积极推动人工智能伦理国际治理合作。各国政府通过出台人工智能伦理原则、发布人工智能伦理治理指引、提供技术治理工具等加强本国本地区的人工智能伦理治理监管。我国通过积极完善人工智能伦理制度规范,探索人工智能伦理治理技术化、工程化、标准化落地措施,加强人工智能治理国际合作等举措推动人工智能向善发展。
人工智能伦理治理是多主体协作的全流程治理,是以敏捷机制协调人工智能发展与安全的重要治理模式。未来一段时期,人工智能伦理治理将与产业创新活动增强协调;多学科多主体参与、分类分级治理、技术工具开发等措施将有效推动人工智能伦理治理机制完善;全民科技伦理素养的提升将有效防范人工智能伦理风险;全球人工智能伦理治理合作也将推动人工智能技术造福人类。

   报告原文





来源:专知
链接:https://mp.weixin.qq.com/s/y1vnYQG2fFxB0-5DmyXpIw
编辑:程博

图片5.png (974.29 KB, 下载次数: 2)

图片5.png
788#
 楼主| 发表于 2023-12-21 23:02:44 | 只看该作者
【案例】
AI假新闻网站,7个月暴涨1000%+

据澎湃新闻援引自跟踪错误信息的组织NewsGuard的研究,由人工智能(AI)生成的虚假新闻和信息的爆发性增加,正成为当前互联网时代的一项全新挑战。
据该组织的报告称,此类生成虚假文章的网站数量,自5月以来激增了1000%以上,从49个增至600多个,涉及15种语言。这些网站每天生产大量文章,内容涉及政治、社会等多个领域。
背后的动机各异,包括动摇信仰造成破坏,或者依靠两极分化的内容制造点击量,获取广告收入。这种迅速增长的现象,令人担忧,NewsGuard称其为下一个大型的“错误信息超级传播者”。
人工智能技术的进步让几乎任何人都能轻松创建看似合法的新闻网站,生产的内容往往难以与真实新闻区分。例如,有一篇AI生成的文章虚构了有关“以色列总理内塔尼亚胡精神科医生”的故事,这个虚假故事被广泛传播,甚至出现在伊朗国家级电视节目上。



伊朗国营电视台援引不可靠的人工智能生成的英文新闻网站GlobalVillageSpace.com
上述虚假文章出自一个叫做“地球村空间”(GlobalVillageSpace.com)的网站,该类网站通常混合真实新闻和虚假内容,从而增加欺骗性故事的可信度。这种混合使用真实新闻和人工智能生成新闻的做法,可能在未来的重要新闻宣传节点上变得愈发常见,成为传播错误信息的有效手段。
NewsGuard的研究显示,这种情况的危险在于人工智能的范围和规模,尤其是当它与更复杂的算法结合使用时。误导性信息的扩散规模和速度前所未见,成为一种新的信息战。
面对这种挑战,提高公众的媒体素养至关重要。监管机构和政府在打击假新闻内容方面可能存在困难,社交媒体公司的作用也受到限制。因此,教育公众识别虚假信息的技巧,如注意文章中的语法错误或不寻常的句子结构,成为应对这一挑战的关键。




总的来说,AI生成的虚假新闻的兴起对于社会信息的准确传播构成了严重威胁。
首先,人工智能技术的发展带来了巨大的潜力和利益,但同时也引发了新的挑战和风险。AI在新闻生成方面的应用突显了这一点。一方面,AI可以高效地生成内容,帮助减轻编辑的工作负担,提高信息传播的效率;另一方面,当它被用于生成虚假信息时,其速度和规模的优势会迅速放大误导性内容的影响,导致公众信任危机和社会混乱。
其次,AI生成的虚假新闻问题凸显了技术伦理的重要性。技术本身并不具备道德判断能力,它的应用取决于人类用户的意图。因此,制定和执行有关AI应用的伦理指导原则和法律法规显得尤为重要。这不仅需要技术开发者和使用者的责任意识,也需要相关监管机构的有效介入。
再次,这个问题提醒我们,随着技术的进步,社会的适应和应对机制也需要相应更新。例如,在教育领域,加强公众对于媒体素养和信息识别能力的培养,成为应对虚假信息传播的重要途径。同时,新闻机构和社交媒体平台也需要开发更高效的工具和方法,来识别和过滤AI生成的虚假内容。
最后,面对AI生成的虚假新闻的挑战,也需要一个多方参与的解决方案。政府、科技公司、媒体、教育机构以及公众都应在其中扮演重要角色。这不仅是一个技术问题,更是一个涉及社会治理、公众教育和国际合作的广泛问题。




来源:传媒头条
链接:https://mp.weixin.qq.com/s/MG_rucOQBw0VJGYRfXX4eQ
编辑:覃韵琪

787#
 楼主| 发表于 2023-12-21 00:43:45 | 只看该作者
【案例】
AI要7x24小时播新闻了!
该系统的目的是取代那些只会照着提词器念稿子的主播,而不是真正的记者。


「我要做一个星期七天的黄金时段新闻,」这是近期热播剧《新闻女王》里的一句台词。该剧讲述了几位主播在电视台内部明争暗斗的故事。人人都挖空心思,想全年无休连播七天黄金档。观众不禁感慨,他们真的太爱上班了。
不过,作为血肉之躯,哪怕再爱上班,人类主播也终究要休息。此时,AI 主播的优势就很明显了,他们可以 7x24 小时不间断播新闻,就像美国媒体初创公司 Channel 1 放出的这段 demo 一样:   
这段 demo 的发布在美国新闻界激起了热烈讨论,因为里面出镜的主播,没有一个是真人。他们形象逼真,语音流畅,甚至连嘴唇动作都严丝合缝。而且,他们可以一秒切换语种,用各种不同的语言播报新闻,这是大部分人类主播都做不到的。

该公司指出,支撑这些主播的不仅是基础的动态图像和合成声音技术。实际上,它们背后是一个类似于ChatGPT 的复杂模型,这为它们赋予了独特的个性和灵活性。这可能意味着主播们可以拥有自己的记忆和独特的语音语调,但要根据世界不同地区的情况量身定制。
看到这里,有人可能担心,他们播报的会不会是自己编造的新闻?对此,该公司解释说,Channel 1 制作的新闻是真实新闻素材、故事与生成主播的结合。Channel 1 有真人编辑和制片人,他们会参与检查最终出现在屏幕上的内容的准确性。
具体来说,他们播报的新闻有三个「可信赖的新闻来源」:一是收取稿酬的独立记者;二是 AI 根据政府文件和其他可信来源生成的新闻;三是外部机构的报道。在 Channel 1 看来,这可以保证他们内容的真实性,但仍然有人质疑「可信赖的新闻来源」是否真的「可信赖」。
除了主播,屏幕输出和一些故事的选择也来自 AI。在「摄像机无法进入」的地方,一些片段也由 AI 生成。为了避免误导观众,他们会给这些 AI 生成的画面打上标签。
Channel 1 联合创始人、技术企业家 Adam Mosam 说,Channel 1「非常明确,观众在任何时候都知道他们看到的是什么,是否存在某种人工智能修改。」


为了确保观众知道人工智能何时参与到片段的视觉效果中,或被用来改变真实的事物,屏幕的角落会出现一个图标。这包括在真人身上使用翻译算法的情况。
此外,Channel 1 和传统新闻频道还有一个很大的不同点。传统新闻的运作方式是向观众提供标准化的播报,世界上的每一个人接收到的都是相同的一两个小时的内容。但 Channel 1 不打算这么做,他们想让消费者自己选择观看哪些新闻报道。换句话说,他们要做新闻频道里的 TikTok。
这样的制作方式也注定了,Channel 1 的制作成本将大大低于传统的新闻网络,因为他们不需要依靠工作人员来收集材料,也不需要记者来深入研究一份复杂的文件。
据报道,Channel 1 成立于 2023 年,由制片人兼导演 Scott Zabielski 和技术企业家 Adam Mosam 创立。将有大约 11 名员工,包括一名尚未聘用的主编。
他们的 AI 新闻节目预计将于 2024 年 2 月份在 X 等流媒体服务平台上线,同时也会在 FAST 和其他传统平台上推出。联合创始人希望每天制作 500~1000 个片段,这些片段可以通过广告支持的应用程序或视频平台播放。
「如果我们能生成 500 个故事,并为你选择合适的 9 或 10 个,那么我们就能更好地为你提供信息,在你分配的时间内向你展示你正在寻找的内容。」Mosam 说。随着时间的推移,该应用将了解观众的偏好和习惯。「如果播财经新闻,也许我们会报道你持有的股票或你感兴趣的领域。如果播体育新闻,也许内容就是你最喜欢的球队。」
Channel 1 即将开播的消息令全美记者感到震惊,他们既担心 AI 新闻主播让假新闻变得更猖獗,也担心 AI 主播对人类主播造成冲击。
Ruby Media Group 首席执行官 Kristen Ruby 评价说:「当人工智能新闻主播取代人类新闻主播时,假新闻的概念将有完全不同的含义。」
这些愤怒不仅来自媒体行业,普通人也对数字人感到不安。导演 Lee Kirton 说:「我们生活在一个充满错误信息的世界,数字媒体素养非常重要,社交媒体渠道已经充斥着虚假视频、错误信息,权力会利用这些信息。」
除了假新闻,部分新闻从业者也担心 AI 主播对人类主播造成冲击。加拿大 BC Today 的记者 Alec Lazenby 表示:「这简直太可怕了。虽然完全由人工智能驱动的广播的发展令人印象深刻,但它可能会对已经枯竭的新闻行业造成巨大影响,并加速高质量记者和主播的流失。」
Zabielski 基在接受采访时回应说,该系统的目的是取代那些只会照着提词器念稿子的主播,而不是真正的记者。它为非出镜记者提供了一种展示自己作品的方式,包括为他们创建虚拟化身,让他们在镜头前展示自己的作品。看来,如果像《新闻女王》中的女主人公文慧心那样,拥有脱稿连续播报 10 分钟不开天窗的傍身之技,抢新闻、写稿都不在话下,暂时还不用担心被 AI 主播取代。
来源:传媒见闻 (公众号)
链接:https://mp.weixin.qq.com/s/ZSFQNf4PCqqSyQ_fD-69qw
编辑:覃韵琪

786#
 楼主| 发表于 2023-12-16 00:44:46 | 只看该作者
【案例】
OpenAI 宣布与 Axel Springer 合作

全球出版社 Axel Springer 与领先的人工智能研究实验室 OpenAI 之间的合作标志着人工智能与新闻业融合的一个重要里程碑。 此次合作旨在加强人工智能时代的独立新闻业,丰富ChatGPT的用户体验,并为可持续新闻业创造新的金融机会。 此次合作证明了人工智能在包括媒体和新闻业在内的各个领域的相关性日益增强。

这一全球合作伙伴关系的关键方面之一是丰富 ChatGPT 的用户体验。 OpenAI 的 ChatGPT 是一种高级语言模型,可以根据收到的输入生成类似人类的文本。 通过整合 Axel Springer 的权威内容,ChatGPT 的用户可以期待获得更准确、更可靠的信息的增强体验。 此举不仅提高了 ChatGPT 的可信度,还将 Axel Springer 的内容覆盖到更广泛的受众。

Axel Springer SE 是一家总部位于欧洲的领先数字出版社,以其对在线媒体的高度关注而闻名。 阿克塞尔·施普林格 (Axel Springer) 历来植根于传统印刷媒体,现已显着转向数字产品,以适应不断变化的媒体格局。 这种转变反映了更广泛的行业趋势,由于消费者行为的变化和技术的进步,数字媒体已变得至关重要。 Axel Springer 旗下的主要品牌和出版物包括:

《图片报》:《图片报》是欧洲最著名的小报之一,因其在德语市场的广泛影响力而闻名。 它以耸人听闻的新闻、娱乐和体育报道的结合而闻名。
《世界报》:另一家著名的德国全国性日报,《世界报》提供全面的新闻报道,包括政治、商业、文化和国际事务。 它以其深入的报告和分析而闻名。
Business Insider:Business Insider 被 Axel Springer 收购,是一家全球领先的商业新闻网站,特别受年轻且精通数字技术的受众欢迎。 它以其现代的新闻风格和对商业和金融新闻的快速报道而闻名。
POLITICO Europe:由 Axel Springer 和 POLITICO LLC 共同拥有,是欧洲政治新闻的重要来源,提供欧洲政治和政策制定的详细报道。
Fakt:Fakt 是波兰最大的小报之一,以其在波兰境内的广泛吸引力和广泛发行量而闻名。
Auto Bild:Auto Bild 是欧洲领先的汽车杂志之一,专注于汽车,提供与汽车行业相关的广泛评测、新闻和测试。
WeltN24:一个新闻频道和网站,提供 24 小时报道,重点关注德国和国际新闻、政治、商业和文化。
Upday:由 Axel Springer 开发的新闻聚合应用程序,专为三星设备设计。 它根据用户的喜好为他们提供个性化的新闻内容。
“我们很高兴能够在 Axel Springer 和 OpenAI 之间建立这种全球合作伙伴关系——这在同类中尚属首次。 我们希望探索人工智能赋能新闻业的机会,将新闻业的质量、社会相关性和商业模式提升到一个新的水平。”Axel Springer 首席执行官 Mathias Döpfner 说道

除了增强 ChatGPT 之外,此次合作还允许用户接收来自 Axel Springer 媒体品牌的全球新闻摘要。 这些品牌包括 POLITICO、BUSINESS INSIDER、BILD 和 WELT。 通过提供这些摘要,用户可以直接通过 ChatGPT 了解世界各地的最新新闻。 为了确保透明度并提供额外信息,ChatGPT 给出的答案将包括归属和完整文章的链接。

Axel Springer 和 OpenAI 之间的合作不仅仅是增强 ChatGPT。 它还支持 Axel Springer 现有的利用 OpenAI 技术的人工智能驱动型企业。 此次合作为 Axel Springer 提供了在运营中进一步利用人工智能技术的机会,从而有可能在未来带来更多创新的解决方案和产品。

开放人工智能

“与 Axel Springer 的合作将有助于为人们提供通过我们的人工智能工具访问优质实时新闻内容的新方法。 我们坚定地致力于与世界各地的出版商和创作者合作,确保他们从先进的人工智能技术和新的收入模式中受益。”OpenAI 首席运营官 Brad Lightcap 说道。

此次合作的另一个重要方面是使用 Axel Springer 的优质内容来训练 OpenAI 的语言模型。 这意味着 OpenAI 的模型将能够访问大量高质量、多样化且可靠的内容,有助于提高其性能和准确性。 将 Axel Springer 的内容集成到 OpenAI 的训练过程中可以产生更复杂、更可靠的 AI 模型。

Axel Springer 是一家活跃于 40 多个国家/地区的媒体和技术公司,其目标是成为数字内容和数字分类广告的全球市场领导者。 与 OpenAI 的合作符合这一目标。 通过将人工智能融入其运营和内容中,Axel Springer 可以增强其数字产品、覆盖更广泛的受众,并在全球数字内容和分类广告市场上建立更强大的影响力。

Axel Springer 和 OpenAI 之间的合作标志着人工智能在新闻业整合方面向前迈出了充满希望的一步。 它不仅增强了 OpenAI 的 ChatGPT 的功能,还支持 Axel Springer 的人工智能驱动型企业及其成为数字内容和分类广告全球市场领导者的目标。 随着这种伙伴关系的展开,观察它给人工智能和新闻领域带来的进步和创新将会很有趣。

最新极客小工具优惠

披露:我们的一些文章包含附属链接。 如果你通过这些链接之一购买商品,Geeky Gadgets 可能会赚取联属佣金。 了解我们的披露政策。

来源:咨询网站
链接:https://0xzx.com/2023121417473948725.html
编辑:秦克峰

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表