传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
21#
发表于 2019-1-31 21:27:48 | 只看该作者
【案例】
江作苏等:成为“被算计”的人,受众如何脱困?[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]江作苏 刘志宇 [url=]中国出版[/url] [color=rgba(0, 0, 0, 0.298039)]昨天

  摘要  
全球传播场景已全面进入“算法时代”,在这个大背景下,几乎所有受众都完成了历史性的转换,成为了“被算计的人”。算法的中性并不与价值观的中性趋同,在其背后隐藏着受众无意识状态下的“超级全景监狱”和“符号暴力”机制,当中的伦理问题冲击着整个传播场域。在从业者与受众都不断触探伦理底线的过程中,关键是要唤醒受众的伦理意识和警惕。

原文刊登于2019年2期
原题为从“单向度”到“被算计”的人——“算法”在传播场域中的伦理冲击

在不久前成都举行的2018年中国传媒经济与管理学术年会上,笔者的学术团队经过长时间研究后提出的一个观点获得了“年度观点奖”。这个观点是:受众已经进入了“被算计的人”场景时代。这种概括性认识不仅基于大量统计数据,而且基于人人都可以感受到的现实,即,在当下数字与算法野蛮生长的时代,每个人都要意识到,在无所不包、无远弗届的网络场景中,只要身处传播场域,几乎每个人都已经完成了各自的历史性转换:在以算法为驱动、以云计算托底、以移动通讯为支撑的条件下,受众已经不知不觉被转化为了“被算计”的人。
新闻传播学界很熟悉马尔库塞的“单向度人”学说。[1]他认为,在后工业时代的大众传媒传播作用下,流行价值观被受众内化为伦理规范,使人们盲目地一味认同,压制了其多向度思考,也就使之失去了突破单向度行为,实施多向度选择的能力。此处的向度(dimension),也可以翻译成方面或维度。观点表述中提到“被算计的人”,其“算计”一词很难找到对应的英文单词。因为“calculate”一词本意是纯数学意义的“计算”,而中文的“算计”一词除数学意义外,还有“刻意追求某种目的”的含义。
当下无处不在的“算计”从大家的日常生活中处处可以感知到,例如“×宝”靠算法精准推送有利可图的商品目录以刺激用户消费、“××头条”据算法推送投受众所好的内容以赚取流量。这种依靠算法对人们的日常动态予以收集察验,再通过“计算”而“算计”千千万万的个人,从而获得商业利益或是影响力的做法,如今已是司空见惯。无论人们主观上如何看待,你我都在客观上进入了“被算计”的场景,而且正逐渐适应这个场景的伦理。

难以逃避的“被算计”:
算法下的伦理困境

不久前,某人收到一张明信片,寄送者是某国驻华使馆的新闻文化处。对方寄这张明信片是为告知该使馆办了40年的一份文化性杂志停办,以后不再寄赠。对方同时表示希望收件者用手机扫描明信片上的二维码,今后可以用在线方式继续向此人推送数字化杂志。这么一件小事,可以引起如下思考。
除了印刷媒体的式微外,印象最深的就是使馆所寄的明信片要求收件扫描其二维码,这就涉及 “算法”和今后是否会“被算计”的问题。暂且不谈该二维码所导向的链接是否安全合法,只要扫码,对方数据库就可以获得该人的手机号码。基于我国手机用户登记实名制的技术前提,对方可以运用社会工程学的各种手段通过手机号码获得姓名、身份证号,进而轻易地运用算法获得该人所有个人信息和社会交往的实时情况,这绝非耸人听闻。
现实空间中的地址可以改变,但数据空间中的坐标却难以修改,收件扫码后只要手机不换号,对方可以将其视为一个移动的信息之窗,随时能全面探知个人动态,而对方几乎没有躲避的可能。
从这件小事引发的思考出发,围绕“世界已经进入了‘被算计的人’场景时代”这个观点,再考察和思考一下我们的伦理与法律环境。当下,中国学术界正在热烈谈论欧盟2018年生效的《一般数据保护条例》,[2]即GDPR,这个条例看似十分严格、细致甚至繁琐,似乎是保护受众不被过度“算计”的法宝,但是深入地进行思考,像GDPR中关于“信息遗忘权”的概念和相关规定有多大的可行性?人们甚至可以怀疑这是一个伪命题,因为像某国使馆文化处对收件人多年以前的一个通信地址尚不会遗忘和删除,那么数据服务商若得到了用户的数据地址和信息会主动忘掉吗?在需要动用的时候会选择放弃吗?这很难做到。
通过数字痕迹追踪场景中的一切人是算法时代的媒介所共有之取向。人们打开网络门户,接受并运用海量信息获取多种便利,这固然是一种享受,但是否要为此付出代价甚至让渡部分权利呢?这是一个罗生门式的问题。很多时候用户一旦提交个人数据,实际上就进入了不可逆的不被遗忘场景,很多难以预估的问题会由此产生。这在行为伦理上的确是两难选择。
用户不可能既要求服务,又不透露个人信息,但用户因透露个人信息而受到某种损害时,又会本能地指责整个算法场景无权收集和“算计”个人信息。这当中的伦理平衡不易做到,所以受众也应当进行计算和算计,算一算自己在获取数据时的得失与选择。从受众意识层面来说,大众媒介伦理素养要升级到更高层次,使受众意识到自己是在一个被时刻“算计”的场景中生存,要评估客体“算计”的动机和目的。有这种认知基础,才能在享受权利的同时做出主动的伦理判断和行为选择。

伦理困境的“天元”:
算计带来的控制机制

时下风行一时的算法推送技术是技术理性与人文理性相结合的产物。而这一产物在智能化场域中对人类最大的冲击,是伦理问题。除了用户的数据安全问题外应当看到,伴随着传播伦理的问题而来的问题已经凸显,例如社会不同群体间的语境阻隔和对受众个人造成的信息茧房效应,这些在新闻传播研究中都已是热门议题。在面对问题时,首先要看到传播场域——即传播伦理发生作用的前提已经发生了变化,算法的“算计”给传播加入了全新控制机制。
算法主导下的传播是真正的控制下的传播。维纳在1948年问世的《控制论》中提出,一切物质存在,不管是天体、生物、机器直到人类社会以至于人的思维过程,都构成一定的“系统”,具有不同形式的控制、反馈功能。[3]这一论点在传播学中运用的基本思想便是运用反馈信息来调节和控制系统行为,达到预期的目的。当下这种算计主导的新系统控制模式,其核心在于个性化的推荐算法,其通过无处不在的收集和运算,为整个传播系统注入高效迅速的反馈。在这种新系统之内,信息环境对人们信息的收集无处不在,且难以察觉。人们在打开各类基于大数据和算法技术的网页和APP接受信息时,便将包含着信息的行为提供给了各类传播主体,供其通过数据算法进行分析,发送反馈。这种由收集、运算、反馈、传播组成的系统控制,构成了“超级全景监狱”和对受众的“符号暴力”。
如美国学者马克·波斯特所言,[4]人们正处于计算机数据库信息模式下的技术性权力格局中,被限制在“超级全景监狱”里。与相对熟悉的米歇尔·福柯之“全景监狱”相比,“超级全景监狱”不像福柯认为的那样是19世纪监视和规训的延伸,而是一种全新的模式。从监视的程度与范围而言,这种监视更加隐蔽而无处不在,权力在这种监视下如毛细血管一般延伸,触及社会的每一寸空间,只要通过技术媒介进行信息活动,随时随地都会被捕捉到数据,并被进行反馈和推送;从监视的建构方式来说,“全景监狱”里尚存在着人的主体意识,而“超级全景监狱”中的主体构建采取“客体化”的相反路线,通过分散的身份、通过连个体都没意识到的身份生产这些个体——简而言之,超级全景监狱里的人们甚至都意识不到自己被“监禁”了。这一概念的描述正是对“被算计”的人们当下处境的生动写照。
除了建构“超级全景监狱”的传播场域外,“算计”在作用机制上构成了对受众的“符号暴力”。由布尔迪厄提出的这一概念指的是统治者在社会行动者本身合谋的基础上,通过符号的权力施加在其身上的暴力。从算法发挥作用的机制来说,受众本身积极迎合“算计”,所谓的“算计”才得以进行。而且受众对于这种监视、控制、灌输仍在一定程度上处在一种不知情的状态,因此也如布尔迪厄所说,这是一种“温和的暴力”。[5]
在“符号暴力”之下,算法带来的“算计”并不是真实的暴力,从传播效果看来也对受众没有造成直接的伤害。但这种“算计”是看不见、摸不着的,信息生产者通过技术手段传播场域中获得了充分的信息生产前提,进而通过符号权力对意义进行任意建构,更加懂得如何迎合受众的好恶,使受众的心智结构呈现为更具有形成性的“惯习”。“通过这种惯习的养成,受众进而呈现出体现于身体而实现的集体个人化,或者是经由社会化而获致的生物性个人的集体化。”[6]这种机制下,符号暴力展现出它的威力,它通过培养“惯习”进而构建出知识场域,影响受众对于社会的经济、政治、文化等各个领域的看法观念,而且通过观察可以看到,依然有大量的用户不曾怀疑过算法的合乎伦理性,大多数人在观念上形成一种“误识”,并不认为这是一种暴力,反而为其辩护,进而加强了符号暴力的威力,在传播场域内形成了一种内闭循环。
通过“超级全景监狱”和操控“符号暴力”的机制作用,信息生产者的这些“算计”主要是为资本服务,致力于吸引受众的注意力,进而将流量变现。当下的新闻平台、信息服务平台、电商平台普遍采用个性化推荐算法,这种控制机制也伴随着与技术手段的捆绑被推而广之,对传播伦理构成了内源性挑战。

当下应对伦理冲击的一般观点

第一种论点提出,如今虽然整个社会从互联网时代进入到移动互联网的时代,但监控的形式和本质依然是以计算机数据库为核心的。伦理问题能不能回归到技术领域,交由算法去解决?例如,世界经济论坛曾发表过一份题为《解除个人信息的价值——从收集到使用》的报告,其主旨在于将管理数据的重心转移到限制使用数据上,呼吁“通过新型技术手段限制使用个人数据能够让个人控制自己的信息安全”。[7]
应当承认,算法是没有“原罪”的,算法是否剥夺了受众的自由不可一概而论。算法带来的伦理问题,指望“解铃还须系铃人”是一条思路,但从当下看来,对于“被算计”的忧虑主要是针对算法被滥用而非算法本身的问题。例如2017年引起轩然大波的美国脸书(Facebook)数据泄漏事件,并不是东方式的禅意过虑,而是西方契约精神失灵的实体焦虑:受众并不知道剑桥公司“算计”其个人数据的目的,而且出于对数据挖掘、智能算法等技术手段的习惯性接受,客户甚至不知道自己在受到某种影响和控制,被置于一种无意识的被监控状态。这种伦理缺位带来的伤害并非单纯是技术对人的伤害,更多的是人对人的伤害,要从算法出发用技术手段去进行修正显然是勉为其难。
那么,从第二种论点出发,是否可以期待业界与学界联手,针对算法的开发与应用从伦理、道德或是法律层面拿出具有公信力的成文约束方案呢?当下,比较有代表性的是张超从伦理学视角出发提出的将传统的新闻伦理与新兴的技术伦理相结合的方案,认为新闻生产的算法责任伦理体系当中应包括以下原则:公平、准确、透明、可解释、可审计、责任。[8]此外,类似的还有邱仁宗等从大数据的伦理风险出发提出的“基本目的、负责研究、利益冲突、尊重、隐私、共济、公正、透明、参与”系列原则等多种方案。[9]这些方案各有侧重点,但基本精神相近,且从限制当下的“算计”出发来看均具有一定的合理性和操作性。不过,从当前行业发展情况看来,互联网技术和数据技术距形成成熟业态尚存在距离,此时期望有一种与实践步伐相适应的、通用的、完美的传播伦理直接拿来运用,实际上很难,且不说这套伦理规则还需要用公允和完美的文本形式表达。
即便如马云这样的业界前沿人士,也认为当下正处于互联网的黎明时期,下一步全球行业还需要紧追从IT走向DT(Data Technology)的大趋势。[10]在互联网行业和数据行业尚不成熟的前提下,期望制定出一整套严密完备的法律和规定来约束从业者行为,亦是一种良好愿望,但是操作时空尚不匹备。此时从业者和受众都还在探底,这就如同正在刮着飓风的海面上,实时的船舶状态没有办法固定描绘和控制,只有驶入相对稳定的海区后才有可能。
因此,要在当下解决这种“被算计”给人带来的损害和焦虑,仅靠技术手段、简单规制手段是难以做到的,要得到解决必须从受众心理的角度入手,建立起伦理上的警惕性。

伦理冲击下的当务之急:摆脱无意识

世界经济研究领域存在中等收入陷阱(Middle- Income Trap)现象,指发展中国家在经济发展过程中面临重重阻力,特别是从落后国家进入中等收入国家以后有可能失去发展动力,陷入长期经济停滞。[11]将此概念移植到传播领域、媒介形态上来讲,在当下这个互联网行业的黎明时期,人类也可以说正处于广义的信息中等收入状态。整个人类社会,包括某些自诩甚高的网络强国,都要警惕这种状态下的伦理认知混乱。
伦理学研究发现,当下这个时期社会的伦理困惑往往是与经济上的中等收入陷阱相伴生的。中等收入陷阱内的人们急切地想增加财富和跳出陷阱,对一切并不一定具有资源秉赋基础,或者超出承受范围的激进变革和公共产品,一概采取民粹主义的态度,盲目冒进。如同消化不良者往往不检点自己的饮食方式而一味怪罪食物的品质一样,结果是付出了大量社会资源的代价而收益却并不理想。眼里只看得到算法而看不到“算计”是大部分人面对伦理抉择时给出的答复。
通过理论分析可以发现,无论是“算计”背后的作用机制“超级全景监狱”、“符号暴力”抑或是“中等收入陷阱”驱动下的民粹心态,其产生伦理风险的根本要素在于无意识。受众面对“算计”时,沉溺于这种无意识而缺乏伦理上的警惕性将可能使其行为受到影响乃至精神被控制。要打破这种伦理困境,最首要的是帮助受众建立伦理警惕,摆脱无意识状态。从操作层面上来说,对受众进行伦理教育并不难,但其前提是学界和业界意识到其重要性,通过擦掉算法推送的表层色彩,兑现受众知情权、复苏其伦理意识,使其主动避免成为“单向度的人”,并能够判断和认清自身的选择与行为是否符合自身的伦理认同。

结语

“算法”看似客观中立,“算计”本身也并不邪恶,但其规则是人为所制定,所以这一新兴的传播机制不可否认的具有偏向性。简而言之,即“算法中性”与“价值中性”并非是趋同的。虽然大多数经由算法推送的信息,人们常规上都选择很大程度去相信它,但这不等于受众不再需要有伦理的底线意识,不意味着独立人格不再有价值。面对算法,除了“尽物之性”外,也要兼顾“尽人之性”,践行“尊重和认同人的内在价值”这一人类伦理的出发点。

注 释
[1]赫伯特·马尔库塞.单向度的人[M].上海:上海译文出版社,2016
[2]《一般数据保护条例》(General Data Protection Regulation,简称GDPR)为欧洲联盟的条例,前身是欧盟在1995年制定的《计算机数据保护法》,于2018年5月25日在欧盟成员国内正式生效实施。该条例的适用范围极为广泛,任何收集、传输、保留或处理涉及欧盟所有成员国内的个人信息的机构组织均受该条例的约束。
[3]熊澄宇.传播学十大经典解读[J].清华大学学报(哲学社会科学版),2003(5)
[4]张金鹏.超级全景监狱:信息方式下的权力技术——波斯特论信息方式下的统治模式[J].南京社会科学,2007(8)
[5]尚帅.传播的兴趣偏向和浑然不觉的符号暴力——基于《今日头条》的算法控制研究[J].现代传播(中国传媒大学学报),2018(10)
[6]毕芙蓉.文化资本与符号暴力——论布迪厄的知识社会学[J].理论探讨,2015(1)
[7]宋吉鑫,魏玉东,王永峰.大数据伦理问题与治理研究述评[J].理论界,2017(1)
[8]张超.新闻生产中的算法风险:成因、类型与对策[J].中国出版,2018(13)
[9]邱仁宗,黄雯,翟晓梅.大数据技术的伦理问题[J].科学与社会,2014,4(1)
[10]马云.两岸企业家峰会上的讲话[EB/OL].http://tech.sina.com.cn/i/2014-12-15/doc-iawzunex6503537.html
[11]蔡昉.“中等收入陷阱”的理论、经验与针对性[J].经济学动态,2011(12)



作者简介

江作苏
华中师范大学新闻传播学院教授、博士生导师、高级记者;武汉大学博导。研究方向为媒介伦理与新闻实务,目前在核心期刊发表学术论文50余篇,出版著作20余部,围绕“责任造就公信力”和“传播即伦理”等学术观点,开展了广泛和深入研究。
1982年毕业于复旦大学,中央党校研究生,曾任湖北日报传媒集团董事长。中国最高新闻奖——“长江韬奋奖”获得者(第七届,2006年),获得首届“全国百佳新闻工作者”(1995年)称号,国务院特殊津贴获得者。湖北省劳动模范,省有突出贡献中青年专家,湖北省首届政府出版奖获得者,被评为全国新时期传媒领军人物。

刘志宇
华中师范大学新闻传播学院硕士研究生,主要研究方向为文化传播、媒介伦理。


                     编辑:邢海波


22#
发表于 2019-2-1 13:03:39 | 只看该作者
【案例】
【感谢今日头条,让我找到了失散多年的老朋友!】今天,今日头条发布《找到》,声称帮助用户找到了多少亲人朋友。看完深有同感!因为,过去一年多来,今日头条也帮我找到了失散多年的老朋友:今日头条推荐“你可能认识的人”,里面既有家人、微信好友,也有手机通讯录联系人(比如少林寺方丈释永信),还有我多年未联系的老朋友。而我并未向今日头条开放手机通讯录、微信好友访问权限。今日头条是怎么获取我的关系网的?难道都是今日头条“算”出来的?

编辑:陈心茹



23#
发表于 2019-2-1 22:13:02 | 只看该作者
【案例】

学术探索|李建华:走向善治—《国家治理与现代伦理丛书》序
三思斋主  李建华道德观察  2019-02-01

众所周知, 治理并不是一个新名词,从词源上说,英语中的gover-nance一词源于拉丁文和古希腊语, 原意是控制、引导和操纵,长期以来它一直与goverment一词交叉使用,并且主要用于与国家的公共事务相关的管理活动和政治活动中,自从世界银行在《1989年世界发展报告》中首次使用了“治理危机”,许多国际组织和机构开始在其各种报告和文件中频频使用它,政治学、经济学和管理学等学科纷纷引入治理概念,赋予了治理丰富的含义。概括起来, 它大致包含如下几层含义:作为最小的国家管理活动的治理;作为公司管理的治理;作为新公共管理的治理;作为善治的治理; 作为社会控制体系的治理;作为自组织网络的治理; 如果从重要性角度而言,现代社会的当务之急是国家治理,抑或国家治理体系和治理能力的现代化。
国家是一种特殊的伦理实体,其治理离不开伦理的考量。把伦理(Sittlichkeit) 与道德(Moralitat)区分开来,是黑格尔的一大发明,并且他首次将伦理置于道德的自由意志发展的最高阶段。在伦理阶段, 道德的内在意识发展为社会习俗、内在个人尊严和独立人格得到外部法权制度的保障。 伦理就是主观的伦理习俗和客观的伦理实体的结合, 家庭、市民社会和国家就是主要的三种伦理实体。 “ 伦理实体” 是黑格尔伦理思想中的一个核心概念,是价值合理性的最终依据,也是把握伦理关系和伦理秩序的关键所在。 他借助于“实体” 这样一种形而上的、具有世界本原意义的辩证表达, 认为“ 绝对精神” 就是“ 实体”,而实体是自因性的、不依赖于他物的, 并且实体又因是自主变化运动的而成为“具体的实体”,家庭、市民社会、国家就是伦理作为主观与客观统一物的真理性存在。 黑格尔认为, 伦理实体要由家庭经过市民社会再到国家这种最高形态, 虽然家庭和市民社会也是伦理共同体,但都是“ 单个人” 的“集合”,只有国家才是必然性和普遍性的产物,才是最优的伦理实体。
那么作为伦理实体的国家, 在其实现性上又与伦理有哪些纠缠呢? 换言之, 国家具有哪些伦理上的特殊性呢?
国家就是真实的自由。在黑格尔哲学中,自由贯穿抽象法、道德和伦理各个环节,作为抽象法和道德的统一与真理环节,伦理是“作为实体的自由不仅作为主观意志而且也作为现实性和必然性的实存”。 国家作为伦理实体消除了个别与整体、特殊与一般、个人与社会的对立, 是一种普遍实现了的自由,是消除了个人任性的自由, “自由的理念中只有作为国家才是真实的”。 所以国家是实现普遍自由的“ 家园” 和依托, 或者说, 只有在国家这样的政治共同体中才有真实的自由
国家就是伦理精神。伦理是实体性的普遍物,国家环节的自由又是一种实体性自由,而自由之所以只在国家环节是真实的,是因为国家是实体性伦理精神的最高体现。国家是伦理理念的实现———是作为显示出来的、自知的实体性意志的伦理精神,这种伦理精神思考自身和知道自身, 并完成一切它所知道的,而且只完成它所知道的。” 可见, 国家体现的是一种普遍性的整体主义精神,是个人利益的普遍化。
国家就是伦理秩序。黑格尔认为, 只有在国家这种伦理实体中, 在抽象法和道德阶段所认定的权利、义务关系才从主观变成了客观、从偶然变成了必然,这不仅仅是主观应该, 而且是主观应该与客观现实的统一。 权利与义务相结合的概念是最重要的规定之一,并且是国家内在力量所在,所以国家的伦理秩序就是权利和义务的统一。
国家就是集权主义理念。 由于国家代表普遍化的利益, 并且对市民社会的个人权利主观化、个别化产生影响,这必然导致一种超国家主义的政治主张———集权主义。黑格尔对国家这一政治共同体伦理特性的阐发,给了我们深刻的启示: 国家不仅是权力载体,而且是伦理实体,国家的治理离不开伦理的引导与规范。
国家治理的最高价值目标, 就是基于伦理维度的“ 善治”。人类社会发展到今天, 社会管理模式发生了实质性的变化, 由政府或国家“统治” (Government) 向社会“治理” (Governance) 的转化就是其中之一。“治理” 与“统治” 从词面上看似乎差别不大, 但其实际内涵存在根本上的不同。不少学者认为,区分“治理” 与“统治” 两个概念是正确理解治理的前提条件, 也是理解“什么是善治” 的关键。治理作为一种政治管理过程,同政府的政治统治一样与权威、权力不可分割, 其最终目的也是实现社会秩序的和谐与稳定,但二者是存在明显差异的。 其差异主要表现在两个方面:
第一,统治的权威必定是政府, 而治理的权威并非政府机关;统治的主体一定是政府的公共机构,而治理的主体既可以是公共机构,也可以是私人机构,还可以是公共机构与私人机构的合作。所以“治理” 是一个比“统治” 更宽泛的概念。 在现代社会中, 所有社会机构如果要高效而有序地运行,可以没有政府的统治,但绝对不可能没有治理。
第二, 管理过程中权力运行的向度不一样。政府统治的权力运行方向是自上而下的,是单一向度的管理;而治理则是一个上下互动的管理过程, 其实质是建立在市场原则、公共利益和认同基础之上的合作。 这就说明,我们今天的德治不是基于“统治” 的理念, 而是基于“治理” 的理论视野,其最终目的是实现“善治”。
尽管西方的政治学家和管理学家在看到社会资源配置过程中市场和政府的双重失效之后, 极力主张用治理取代统治, 因为治理可以弥补国家与市场在调控过程中的某些不足, 但他们同样认识到了治理本身也有失效的问题。 既然治理也存在失效的可能, 那么现实而紧迫的问题是如何克服治理的失效或低效。 于是, 许多学者和国际组织纷纷提出了“元治理” “有效的治理” “健全的治理” 和“善治” 等概念,其中“善治”理论最有影响。
自从有了国家及政府以后,善政(good goverment,可直译为“ 良好的政府” 或“良好的统治” ) 便成为人们所期望的理想政治模式。在西方,由古希腊的“国家是有德者的共同体” 到现代的“国家是正义的共同体”,它们都显示出对善政的期望。在中国传统政治文化中, 善政的最主要意义就是能让官员清明、公正和廉洁,各级官员像父母对待自己的孩子一样热爱和对待自己的子民,没有私心, 没有偏爱,古今中外的思想家们对善政的理解,包括如下要素: 严明的法纪、清廉的官员、高效的行政、良好的服务。这种善政主要是人们对政府的期盼,或者说是一种政治理想,至于能否真正实现“ 良好的统治”,要看政府或国家本身。从“理想国” 到“ 乌托邦”,从“ 大同世界” 到“ 世外桃源”,它们都表达了人们对善政的苦心期待。但是这种善政在政治理想中的独占地位自20世纪90年代以来在世界各国日益受到了严重的挑战, 即来,自“善治” 的挑战。
“善治就是使公共利益最大化的社会管理过程。 善治的本质就在于它是政府与公民对公共生活的合作管理,是政治国家与公民社会的一种新颖关系, 是两者的最佳状态。”善治不仅仅意味着一种新的管理理念,而且是一种新的与善政不同的政治运作模式。它是一种建立在市民社会基础之上的、具有不同于传统社会管理方式特性的全新的社会治理方式, 善治的特性在国家治理中主要表现为应遵循如下基本原则。
认同性原则
它不是指法律意义上的强制认可, 也不是宗教学意义上的盲从,而是政治学意义上的合法性,即标示社会秩序和权威被人们自觉认可的性质和状态。政府的权威和秩序无论其法律支撑多有力, 也无论其推行措施多强硬,如果没有在一定范围内被人们内心所体认,就谈不上合法性。并且公民体认的程度越高,合法性就越大,善治的程度便越高。 取得和增大合法性的主要途径是尽可能增加公民的政治认同感, 所以,是否是善治,首先要看管理机构和管理者在多大程度上使公共管理活动取得了公民的同意与认可。我们的治国方针政策得到广大人民群众的认同与支持,是社会主义德治的最终目标。
责任性原则
它是指社会管理机构及其个人应当对自己的行为负责, 要尽相应的义务。 责任性意味着管理机构和管理者个人必须忠实履行自己的职责和义务,否则就是失职, 就是没有责任性。责任性越大,善治程度就越高。正因为如此, 现代社会人们越来越重视政治阶层的道德责任问题,马克斯·韦伯就曾在他的名为《作为职业的政治》 的著名演讲中提出政治领域中“意图伦理” 和“责任伦理”,前者不考虑后果,后者则要求行为者义无反顾地对后果负责任,政治家应当遵循的是责任伦理而不是意图伦理。赫尔穆特·施密特甚至认为,对自己的行动或者不行动的结果承担责任,其前提首先是承担在确定目标方面的责任。“政治家的目标以及实现目标的手段和途径不能同他所接受的伦理基本价值产生冲突, 缺乏基本价值的政治必然是没有良知的政治,是在道德方面无所顾忌的政治, 并且会趋向于犯罪。”
法制性原则
这里“法治” 的基本意义是, 法律是政治管理的最高准则,任何政府官员和公民都必须依法行事,法权高于一切,在法律面前人人平等。 法治的直接目标是规范公民的行为,管理社会事务,维护正常的社会生活秩序。 但其最终目标在于保护公民的民主自由权利, 不但要使参与契约的双方都能从利益交换中公平得益, 也要以不损害社会公共利益为前提。 因为在一个摆脱了身份关系的社会中, 契约行为应当以平等的自由精神为要旨,社会公共利益正是他人自由权利的集中表达,所以维护社会公共利益正是对平等的自由这一契约行为的灵魂守护。而要维护公益不能没有国家强权, 不能没有法治,法治“不是一种关注法律是什么的规则(a rule of the law), 而是一种关注法律应当是什么的规则,亦即一种‘元法律规则’ (a meta-legal doctrine) 或一种政治理想”。 所以,法治既规范公民的行为,更规范政府的行为,法治内生着民主自治的社会伦理要求, 同时法治也是善治的基本要求, 没有健全的法治,就没有善治。
透明性原则
这里主要是指政治信息的公开性,即政府在决策过程中应该公开、公正。 因为在现代法治社会中, 每一个公民都有权获得与自己的利益相关的政府政策信息,包括立法活动、政策制定、法律条款、政策实施、行政预算、公共开支及其他有关的政治信息。透明性原则要求上述政治信息能够及时通过各种大众媒体为公民所知,以便使公民能有效地参与公共决策过程,并且对公共管理过程实行有效监督。 透明性标示着一个社会的民主化程度, 也反映了市民社会的成熟程度,因为在市民社会中,每个成员都不是在被胁迫或强迫的情况下,而是根据自己的意愿或自我判断参与或加入某个社会群体或集团的事务或决策。政府以高度尊重个人的选择自由为前提, 而个人又以对政府高度信任和负责的态度参与决策,这种双向的透明其重要意义在于,一方面可以使政府养成对人民负责的态度,另一方面可以使公民养成自我管理的习惯。一个社会的透明度越高, 善治程度也越高。
有效性原则
这里是指管理的有效性。 它包括两方面的含义: 一是指管理机构设置合理,管理程序科学,管理活动灵活;二是最大限度地降低管理成本,人类管理根源于“ 自然资源普遍稀少和敌对的自然环境” 与人类需求的矛盾。由于资源是稀缺的,不可能无限制地满足人的需要,由此而形成管理组织, 行使管理职能,以便有效地获得、分配和利用自然资源来实现某个目标。 因此, 追求有效性必然成为社会管理最基本的内在规定, 有效性也是衡量社会治理水平的重要标准。 善治与无效或低效的管理活动是格格不入的, 管理的有效性越高, 善治程度也越高。这同时也说明,一个无效或低效的政府, 一定是一个缺德的政府。
基于国家治理与现代伦理的内在关联, 我们从政治伦理、经济伦理、文化伦理、社会伦理、生态伦理、网络伦理六个方面组织了这套研究丛书, 这绝非一种任务式的科研使然, 而是我们湖湘伦理学人对国家治理体系和治理能力现代化这一国家重大战略的理论自觉和伦理表达。
丛书介绍
“国家治理与现代伦理丛书”紧扣国家治理的主要方面和重大伦理需求,全景呈现了国家治理的伦理图式。丛书包括《国家治理与政治伦理》《国家治理与经济伦理》《国家治理与文化伦理》《国家治理与生态伦理》《国家治理与社会伦理》《国家治理与网络伦理》6册,立足于国家治理体系和治理能力现代化这一当代中国的宏大主题,深入分析国家治理从传统向现代的转型,以及在转型中遇到的主要政治伦理、经济伦理、文化伦理、生态伦理、社会伦理与网络伦理问题,发挥蕴含于国家治理中的基本伦理关系、主流价值诉求及其善恶研判标准的伦理秩序功能,建构一种与社会主义市场经济、法治国家和民族精神的发展相适应的、满足人民幸福生活需要的社会伦理秩序。
李建华,哲学博士,教育部“长江学者”特聘教授(2009年),国务院学位委员会第七届学科(哲学)评议组员,浙江师范大学特聘教授,中南大学博士生导师,从事伦理学专业教学与研究三十多年,著述丰富,目前兼任中国伦理学会副会长、湖南省伦理学会会长、中国伦理学会青年工作者委员会名誉主任、民间智库——“湖湘伦理学研究院”发起人之一。
编辑:陈心茹

24#
发表于 2019-2-1 22:19:38 | 只看该作者
【案例】
人工智能及其社会化应用的现状和未来——《全球传媒学刊》就社会化智能信息服务专访孙茂松教授
原创: 孙茂松,金兼斌  全球传媒学刊  1月8日

作 者
孙茂松:清华大学计算机科学与技术系教授
金兼斌:清华大学新闻与传播学院教授

摘要
    人工智能技术在快速向前推进的同时也给社会结构与日常生活带来巨大影响,激发起关乎人类生存、社会秩序、价值存续、科技伦理等议题的讨论。人工智能带来的深层次社会影响需要予以审慎思考。作为我国人工智能领域的专家,孙茂松教授如何看待跨学科领域合作对人工智能研究的价值?如何解读现阶段人工智能水准与适用边界条件?人工智能技术在内容生产、信息分配、系统建构等领域的应用是否会给社会结构形态、文化景观带来深层效应?兴趣驱动下的人工智能产品研发有何意义?本访谈通过与孙茂松教授的对话,对以上问题予以较为详细的阐释。
关键词
人工智能;中文自然语言处理;适用性质;内容产消;自动诗歌创作
近年来,随着智能算法推荐在购物、内容生产、消费、社交乃至自动驾驶、智能家居等领域应用的深入,人们已经切实感受到人工智能对我们日常生活所带来的巨大影响。现实生活已经高度数据化:一方面,日常生活本身日益依赖于信息传播系统作为中介来组织和展开;另一方面,我们的日常生活又在不知不觉中以数字印记的方式被社会的多层次立体化监测系统进行着准全息式的记录。近年来,大数据和计算能力成为人工智能快速发展的双重引擎,社会化智能信息服务水平的提升,正在给社会的整体形态、行业结构、组织管理方式、权力分配带来深远的影响。在某种意义上,人工智能正在深刻影响社会运作所依赖的基本要素之内涵及其相对重要性,行业、工种、职业以及包括工作和休闲之间的界限在内的各种边界,都面临重新划分或洗牌的可能。以信息内容生产和传播为安身立命之本的新闻传播业,从行业整体结构到依附于其中的个体的命运,近年来所经历的那种不以个人意志为转移的演变和变迁,充其量只是这波正在浩浩荡荡推进的技术与社会双向形塑过程中的一个折射而已。

果如是乎?

“不识庐山真面目,只缘身在此山中。”环顾现实,放眼未来,也许现在我们除了对“人工智终将给我们带来什么”进行展望外,也应该对我们当下所处的阶段有清醒的认知。

2018年最后一期《全球传媒学刊》正是在这样的背景下,选择“人工智能与社会”作为其专题。配合这期专题研究,《全球传媒学刊》执行主编金兼斌教授代表学刊,就社会化智能信息服务的现状和未来,书面访谈了我国人工智能领域的著名专家、清华大学计算机科学与技术系孙茂松教授。

访谈嘉宾简介
孙茂松  
清华大学计算机科学与技术系教授,清华大学人工智能研究院常务副院长,清华大学计算机科学与技术学位评定分委员会主席。2007—2018年任计算机科学与技术系系主任、党委书记。主要研究领域为自然语言处理、互联网智能、机器学习、社会计算和计算教育学。国家重点基础研究发展计划(973计划)项目首席科学家,国家社会科学基金重大项目首席专家。在国际刊物、国际会议、国内核心刊物上发表论文200余篇,Google Scholar论文引用数6800余次。

问:金兼斌教授
答:孙茂松教授

问:您是计算机科学家、计算语言学博士,您所领导的实验室名为“自然语言处理与社会人文计算实验室”,您还成功申请到全国哲学社会科学基金重大项目“基于大规模社交媒体的汉语模因传播机理量化研究”。可以说,跨学科是您身上特别明显的气质和特色,您的学生、如今已然成长为国内自然语言处理领域引人注目的新秀的刘知远老师曾评价您是“计算机学者中少有的有着深厚文化底蕴的老师”。我在您的微信朋友圈中,也不时能看到您以古体诗的方式对学术人生进行抒怀和评论,文采斐然。您如何看待您作为计算机科学家身上的这种人文符号和气质?这种人文底蕴是如何影响您在专业领域的研究的?就人工智能研究下一阶段的突破而言,基于不同学科的科学家间的合作,以及兼具人文社科和信息科学乃至生命科学知识背景学者的跨界合作,是否注定将扮演越来越重要的角色?

答:对于“计算机学者中少有的有着深厚文化底蕴的老师”之类的说法,实不敢当。其实,我对文化或者人文的了解只是停留在感兴趣的阶段,远谈不上有什么深度。计算机科学的发展日新月异,新思想、新算法、新技术层出不穷,需要时刻通过学习来不断更新自己,同时研究任务也很繁重,每天应付这些,已然精疲力竭。最近若干年,我用于阅读人文图书的“常规时段”通常有两个:一是如厕时;二是上床睡觉前。还有一个就是坐飞机时坚持不看专业图书,而是浏览一些报纸杂志之类。我的主要精力都集中于计算机主业上,对人文知识的学习与跟进仅此而已。

从根本上说,计算机科学同数学之间的关系最为密切,计算机科学的大师级人物多是数学出身,数学造诣都很精深。计算机科学与人文科学在学理上并没有太直接的关系(当然也不能一概而论,如世界级语言学大师乔姆斯基提出“乔姆斯基形式文法体系”以及与上下文无关文法相关的“乔姆斯基范式”,就对计算机科学产生了深远影响)。从这个角度来看,“人文底蕴”对计算机科学整体上貌似帮助不大。

随着人工智能的蓬勃发展,上述情形正在发生一些变化。变化主要反映在两个层次上,一个是人工智能原创理论层次,需要具有顶级数学功底的计算机科学家同神经和认知顶级科学家通力合作,以期对计算机科学领域产生变革性的影响;另一个是人工智能应用层次,也就是所谓的“人工智能+X”,需要计算机领域的优秀学者同其他学科领域的优秀学者通力合作,以期对其他学科领域产生变革性的影响。这两种跨界合作将注定扮演越来越重要的角色。

我从小就对人文,尤其是中国古代文化和历史感兴趣。这一点对我在三十年前选择自然语言处理这个专业方向上确实发挥了至关重要的作用,也是我这些年来比较喜欢从事与人文乃至社会科学大跨度交叉研究的源泉所在。

问:您担任首席科学家的973项目“面向三元空间的互联网中文信息处理理论与方法”中,把人类认知空间、网络空间和现实世界空间一起统称为“三元空间”,这背后的逻辑是什么?这个雄心勃勃的973项目希望在融合“三元空间”的海量知识获取与组织、大规模中文深度分析与内容理解方面有所突破,目前取得了哪些重要进展?这些进展对于我国在中文信息处理领域的发展及社会化智能信息服务的提升方面有什么重要意义?

答:实际上,“三元空间”是973指南里的要求,对其内涵存在着若干种解读可能性。我在申请项目时,针对语言信息处理的特点,把“三元空间”定义为网络空间、现实世界和人类认知。以人类语言为纽带,把如上定义的“三元空间”联系到一起,其背后的逻辑是不言而喻的。

经过5年的不懈努力,这个项目取得了显著进展,完全实现了预期目标。简而言之,其标志性成果有三:一是提出了融合大规模知识的中文语义表示学习方法体系,努力将中文各个语言层次,即字、词、词义、语、句等形式化地表示在一个统一的计算框架中;二是提出了语义驱动的中文语义依存分析算法,将中文在这方面的自动分析能力提升到了与英文相当的水平;三是建立了世界上规模最大的中文语言知识资源和中文知识图谱。这些进展对于我国在中文信息处理研究领域的发展以及社会化智能信息服务的提升方面,起到了积极的推动作用。

问:《未来简史》的作者尤瓦尔·赫拉利(Yuval Noah Harari)认为,工业时代普通民众因为担纲社会的主要劳动力和战时兵力,“无论哪种政体的国家,都极为重视国民的健康、教育和福利,因为它们需要几百万健康的劳动者在生产线工作,需要几百万忠诚的士兵在战壕里作战”,因此,20世纪有一大部分时间是在缩小阶级、种族和性别之间的不平等。但人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量。同时,生物技术的进步则可能将经济上的不平等转化为生物体上的不平等,即富人和知识精英具有更多机会强化自己的生物机能乃至脑力和智慧,马太效应成为一种社会自然演变之后的主导机制。他由此预言,21世纪的人类社会可能会是人类历史上最不平等的社会,人类整体出现生物种姓并非不可能。您如何看待人工智能和生物技术发展对人类社会结构形态带来的长远影响?

答:对上述观点,如“人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量”,“21世纪的人类社会可能会是人类历史上最不平等的社会”等,我完全没有研究,很难做出评论。我个人认为,互联网时代具有双重性,双面重要作用都不容小觑:一是使得世界日益成为平的;二是马太效应确实在不断增强,这又使得差异日益扩大。我们有必要对这一深刻的矛盾予以足够关切。

总体来看,人工智能技术还处于初级发展阶段。目前这一代人工智能技术是以借重于大数据的深度学习算法为核心的,在围棋、图像识别、语音识别、机器翻译等人工智能经典任务上确实表现出了异乎以往的能力,催生了如雨后春笋般勃兴的人工智能创新企业,但是,其适用范围实际上存在着严重局限。它的现有能力被大大高估了,领域内的专家反倒比较谨慎。那么,人工智能对人类社会结构形态会带来怎样的变化呢?由于目前这一代人工智能技术的“本事”还十分有限,所以其短期影响虽然十分明显,会给人以“横扫千军如卷席”之感,但总体上看其影响应该还是局部性的,而不是全局性的。至于其长远影响,现在还说不准,取决于人工智能理论和方法是否有新的实质性突破。这种突破的可能性,现在看来尚属可望而不可及。

问:自动驾驶一度成为近年来令人瞩目的热点,不少公众对之充满期待。鉴于驾驶任务本身对行动者和环境互动的极高要求,自动驾驶一直被看作是衡量人工智能发展水平的重要标尺之一。国内外尖端技术公司如百度和Google都在大力研发自动驾驶。不少公司甚至把2019年作为全自动驾驶汽车投入运营的关键年。但最近,自动驾驶领头羊Waymo掌门人John Krafcik承认,自动驾驶汽车在路上普及还要几十年;苹果联合创始人Steve Wozniak也认为,自动驾驶汽车不可能在不久的将来实现。这其中的一个原因是,自动驾驶的场景太多元太复杂,算法达不到要求,即自动驾驶技术还没有达到在任何天气和任何条件下都能驾驶的最高等级L5。您如何看待诸如自动驾驶这样将深刻影响人们生活方式的智能技术和产品的发展前景?在自动驾驶情景下,我们将根据什么原则来认定可能发生的交通事故的责任主体?

答:近年来,我在几个公开学术报告中都提及过,完全意义的自动驾驶无法在不远的将来实现。根本原因在于当前这一代人工智能技术的“本事”还十分有限。正如清华大学人工智能研究院院长张钹院士很早前敏锐指出的那样:它(人工智能)能做得比人好的任务场景,必须满足一些重要的性质(为了下文表述方便,不妨称之为“目前人工智能技术的若干适用性质”),如:任务的边界是确定的;任务的解空间是有限的、可预期的(即使空间无比巨大);执行任务的规则是明确的;任务执行过程中的信息是完全的;对任务结果的最终得失评估也是可精确量化的。其中任意一条不满足,现有的人工智能技术就会遭遇很大的困扰。充足的大数据可以在相当程度上克服这些困扰,但其性能会大打折扣,通常不可能做得比人好(但在某些应用场景下,做得比人的平均水平好并不困难)。围棋满足上述所有性质,所以人工智能的性能超越了人类棋手。自动驾驶基本上都不满足上述性质,并且属于所谓的“生死攸关”任务,几乎不容许犯任何错误(人类对机器性能的可靠性要求往往比对人的要求更为严苛),这是当前人工智能技术的“阿喀琉斯之踵”,所以我才有如上判断。当然这并不否定自动驾驶在特定受限场景中仍然会有广泛应用的前景。

需要特别强调的一点是,作为人工智能的基本前沿课题之一,对自动驾驶的基础性研究需要进一步强化和深化。什么时候才可能有完全意义的自动驾驶?还是前面那句话,取决于人工智能理论和方法是否有新的实质性突破。对自动驾驶各种关键问题的深入探索将成为下一代人工智能理论和方法发展的一个重要推动力和试金石。

问:关于智能内容生产。在新闻传播领域,人工智能的发展正在深刻改变这个以生产新闻和各种内容为主的行业的生态。在诸如气象、环保、体育、财经等领域的报道中,机器新闻写作,至少是机器辅助写作(robot-aided writing),已然在世界各大通讯社的新闻生产和各种商业机构的公关写作中得以试水和推行。在刚刚结束的乌镇世界互联网大会上,毕业自贵系的搜狗公司CEO王小川与新华社副社长刘思扬联合携“一位”人工智能合成主播惊艳亮相,引发广泛关注。您如何看待人工智能对写作、创作、表演这些传统意义上人类所独有行为和能力所带来的影响?如何看待人工智能将对创意产业和内容生产行业可能带来的深远影响?一个国家的社会文化景观将因此发生怎样的变化?

答:受囿于我前面所说的当前人工智能技术的局限性(“目前人工智能技术的若干适用性质”),人工智能在新闻传播领域的应用范围和程度一定是局部的、有限的,不会导致全局性质变。机器自动新闻写作只是在由数据表格生成文本这个受限任务中取得了不错的效果。但要像高水平的记者一样写出有深度的新闻及评介,在可预见的将来,机器还做不到(借助机器辅助写作是另外一回事)。人工智能播音这一任务比自动写作简单得多,但要超越人类顶尖主播,也不太可能。

不过,人工智能辅助写作、创作、表演,辅助创意产业和内容生产,以一种人机协同的方式大幅提高工作效率和质量,是完全具备现实性的,会给相关行业(尤其是中低端行业)带来广泛影响。

问:关于算法与用户内容消费。近年来,借助于大数据和云计算的不断改进升级,各种内容算法推荐——主要是基于用户过往消费行为和基于用户社交关系网中其他人的消费偏好进行的内容和商品推荐——席卷各种内容、购物和社交平台。基于用户行为、场景特点、社交圈结构的算法推荐一方面因其精准传播(precision messaging),实现对用户需求和偏好的深刻洞察而备受平台、商家和用户青睐,但另一方面,算法推荐所导致的“茧房”(information cocoons)效应,又容易让人们耽于既有审美、关注点、品位乃至视野之囿而不自知,不仅心智成长和审美拓展会受到影响,更容易造成同辈抱团、对他群声音充耳不闻的“回音壁效应”(echo chamber effect),甚至会加剧社会民众的阶层分化并导致社会撕裂。作为一名人工智能领域前沿专家,您认为智能算法推荐是否会对普通民众信息、内容消费方式带来深层次、结构性影响?这种影响主要表现在哪些方面?

答:内容算法推荐并不完全满足“目前人工智能技术的若干适用性质”,但由于此类平台天然拥有大数据(特别是用户行为数据),也不属于“生死攸关”的任务,所以比较适合人工智能,能够实现用户还算满意的个性化推荐效果,这一点不足为奇(何况人去做这件事也不是很有理据的,带有很强的主观性);通过进一步改进算法增加推荐的多样性,有效应对“茧房效应”和“回音壁效应”,也是可以预期的。

人们对智能算法推荐表现出足够关切是完全必要的,也是完全可以理解的。例如,平台出于自身利益的考量,算法推荐可能会出现广泛性偏误,或者过度推荐。所发生的这些现象,有些是目前智能推荐算法一时难以克服的深刻困难(涉及语义理解这一难点)所致,有些则是可能是有意为之。


问:让我们来展望一下社会计算的极限问题。您是否同意这样的看法,即人工智能的上限本质上取决于社会计算的计算能力?无论是情感还是价值判断,无论是艺术创意还是审美趣味,无论是解释还是推理,一切人之为人的特质,是否最终都能够被“计算能力”一一解析并复盘?在前不久的一次采访中,您提到目前人工智能总体上依旧处于无理解的人工智能阶段,下一个挑战是有理解能力的人工智能,要想实现“有理解力”还很难。在无理解的人工智能和有理解的人工智能之间,在计算的此岸和生命的彼岸之间,注定是深不见底无可逾越的鸿沟——如0和1之间的差别——还是其实最终有什么桥梁可以跨越和架接,也即借助于不断累积的计算能力和模型改进,以及实时数据采集反馈系统的改进,在物质和意识之间终究可以曲径通幽,加以打通?

答:我第一次听到“人工智能的上限本质上取决于社会计算的计算能力”这个表述,不很清楚其含义,难以评论。是的,现在看到的人工智能所取得的成功,大都属于无理解的人工智能。此类算法本质上都是针对某一特定任务,从相关大数据中学习一个高度复杂的非线性函数,而这个函数可以看作是一个“黑箱”,缺乏可解释性。接下来的重大挑战是解决有理解的人工智能问题,让机器具有同人一样的感知和认知能力、推理能力、判断和决策能力。无理解的人工智能和有理解的人工智能两者之间存在本质上的深刻差异,因而跨越起来极其困难。再强大的计算能力也解决不了这个问题,反之,我们需要人工智能算法在思想和理论上的深刻创新,其中的关键桥梁之一就是人类语言理解。语言是人类区别于动物的唯一标志。机器对语言不能理解,很难说有比较高级的智能。而语言理解的边界是完全开放的,所以非常具有挑战性。机器要在物质和意识、思维之间自由地腾挪辗转,必须首先打通语言理解这一关,否则根本谈不上“曲径通幽”。

问:预言了地球村的媒介学者马歇尔·麦克卢汉(Marshall McLuhan)曾经形象地把媒介称为“人的延伸”。事实上,随着生物技术特别是脑科学领域的研究突破,从智能芯片的人体植入到未来人机不同比例的混搭,麦克卢汉所谓的“媒介是人的延伸”的论述将很有可能从比喻演变为现实。您如何看待人工智能技术对人体先赋能力的后天补强?这种嫁接了人工智能的“超自然”人类改良技术的出现和应用,会带来怎样的社会和伦理后果?就像爱因斯坦作为质能方程的提出者为原子核聚变反应奠定理论基础,却为核武器的出现而感到惴惴不安一样,您觉得如今人工智能领域的科学突破,是否也应该对技术的社会伦理后果有更多的自觉?

答:我基本赞成“媒介是人的延伸”这个说法。其实飞机、轮船等就是人的体力延伸,人工智能则是人的智力延伸,两者的目的都是为了帮助人,也就是你在提问中所说的对人体先赋能力不足的后天补强。单纯使用目前的人工智能技术应该还不致带来严重的社会和伦理后果,不必过于不安——那将是下一代人工智能必须关切的,且无法回避的问题。然而,人机混搭的智能正在日益朝现实迈进,在发展过程中无疑会产生以前没有遇到过的社会和伦理问题,必须加强相关研究,特别是对什么是禁区要做到心中有数,进而达到趋利避害。

问:基特勒(Fredirch Kittler)认为,数字媒介的硬件和软件都具有隐蔽性。在软件的遮蔽下,用户看不到自己受到了硬件的限制;而软件虽然使得用户可以与计算机进行互动交流,但用户却常常感觉不到其背后的结构和逻辑乃至所内嵌的价值观偏向对自己行为和世界观造成的潜移默化的规制、影响和形塑。这也正是劳伦斯·莱斯格(Lawrence Lessig)在其著名的《代码》(Code)一书中所表达的担忧。您如何看待代码所构建的“系统”——这双“看不见的手”对用户和民众的控制能力乃至权力主导?更有甚者,当基于代码的系统具备了深度学习的能力,结合海量的动态语料和分布式计算的迭代升级,我们现在衣食住行日益依赖的不少系统,是否最终会成为具有一定自在性和自主性的行为和责任主体,或至少是和平台拥有方、开发者并置的责任主体?

答:实际上,现代社会经济生活中存在着形形色色的“看不见的手”,我们或多或少地受到其操纵而不能自拔。代码所构建的“系统”借重于算法和大数据的强大力量也具有这一特点,这本身没有什么可奇怪的。需要关切的是,我们应对此类控制力乃至权力主导保持足够的警惕,不能在无意识中一味地被“系统”背后的小团体利益所裹挟。

问:最后还是回到您和您团队的研究,来聊聊“诗和远方”。您的实验室开发机器诗人“九歌”,与您平时爱吟诗作词不无关联吧?2017年,“九歌”亮相央视《机智过人》节目,按照比赛规则接受图灵测试,九歌以一首“机心造化本无私,智略工夫巧笑时。过客不须频眺处,人间天上有新诗”顺利通过图灵测试,展现了很高程度的“智能”水平?您怎么看待和评价九歌真实的智能水平?您曾经说过“计算机作诗在科学研究上很有意义”,为什么?


答:必须澄清一点:以一首诗的结果,绝对不能说“九歌”
(https://jiuge.thunlp.cn)通过了图灵测试。必须通过大量的实际测试,才敢在古诗创作是否通过图灵测试这一点上给出结论,现在还远不敢说。我感觉,当下“九歌”的真实智能水平只能达到古诗爱好者人群(包括诗人)内的中上水平。自动作诗这个任务在好几项上都不满足“目前人工智能技术的若干适用性质”(例如,对自动作诗结果优劣的评价见仁见智,并不存在绝对标准),因此是非常困难的问题,其本质上不可能超越顶尖诗人。正因为其困难,所以与之相关的研究对探索下一代人工智能很有意义。

我领导的实验室研发机器诗人“九歌”,与我以及主创人员之一,也是我的学生矣晓沅喜欢古典诗词不无关联。我们的初心是探索人工智能在自由式文本生成这一类问题(而不是由数据表格生成新闻文本的那类问题)上的算法解决方案。同围棋类似,古典诗歌的开拓空间也是非常广袤的,古人只是创作出了其中微乎其微的一小部分,绝大部分空间还有待于我们去发现。怎样去发现呢?我们希望利用人工智能算法,基于已知的古人诗歌创作对浩瀚的未知空间进行合理的推衍,期待能达到的效果是利用机器把古人尚未来得及写出的诗“挖掘”出来,大底上就是陆游所说的“文章本天成,妙手偶得之”的意思。此外,古诗创作带有强烈的传统文化色彩,容易引起公众的关注,进而会给予我们的研究以某种无形压力,鞭策我们不断地改进算法、提升性能。这也是我们选择以这个问题作为算法攻关任务的原因之一。当然,自动作诗只是我领导的实验室中众多人工智能研究方向的一支。


原文刊载于《全球传媒学刊》2018年第4期。

链接:https://mp.weixin.qq.com/s/ETQyrRS5ffBgNV2pEO3B2Q

编辑:陈心茹

25#
发表于 2019-2-1 22:23:01 | 只看该作者
【案例】
中国传媒大学新闻学院教授沈浩等——人工智能与智能媒体
原创: 沈 浩 杨莹莹  新闻战线  2019-02-01

人工智能有望改变媒体,重塑媒体的整个流程。未来,人工智能将融入到媒体运作的各个环节,但在媒体行业的落地,需要更复杂、更全面的架构。当下,应基于媒体行业自身的数据构建具有针对性的人工智能系统,提升媒体与人工智能结合的成熟度。

人工智能与智能媒体
沈  浩  杨莹莹

1

人工智能+媒体:应用场景多元

高级文本分析技术。自然语言处理(NLP)可以分析语言模式,从文本中提取出表达意义,其终极目标是使计算机能像人类一样“理解”语言。基于内容理解和NLP的写作机器人为记者赋能,可以模拟人的智能和认知行为,实现机器的“创造力”,经过对大量数据的分析和学习,形成“创作”的模板,用人机结合的方式来强化记者的写作能力。
图像和视频识别技术。基于深度学习进行大规模数据训练,实现对图片、视频中物体的类别、位置等信息的识别。图像主体检测可以识别图像的场景、图像中主体的位置、物体的标签等。人工智能视频技术则能够提供视频内容分析的能力,对于视频中的物体和场景进行识别并能够输出结构化标签。图像和视频技术在媒体中应用十分广泛,如内容分析、质量检测、内容提取、内容审核等方面。
语音技术。人工智能语音技术主要包括语音识别和语音合成,它是一种“感知”的智能。自动语音识别(ASR/AVR)是基于训练的自动语音识别系统,将物理概念上的音频信息转换为机器可以识别并进行处理的目标信息,如文本。语音合成技术是通过深度学习框架进行数据训练,从而使得机器能够仿真发声。随着语音转换技术的日渐成熟,“语音-文本”双向转换技术在媒体中的应用成为可能。例如将语音识别技术在采编环节中使用,生成文本稿件并进行二次编辑。

人脸与人体识别技术。目前,人脸识别技术的主要应用包括人脸检测与属性分析、人脸对比、人脸搜索、活体检测、视频流人脸采集等方面。谷歌、苹果、Facebook、亚马逊和微软等互联网巨头争相在这一领域的技术和应用方面抢夺先机,纷纷推出相关的技术应用并不断突破创新。2018年5月的媒体报道称,亚马逊积极推广名为Rekognition的人脸识别服务,该解决方案可以在单个图像中识别多达100个人,并且可以对包含数千万个面部的数据库执行面部匹配。
个性化推荐技术。发现目标群体并把内容传播给该群体是能否达成媒体传播效果的关键一环,而个性化推荐技术解决了这一难题。这是目前在媒体中应用较为成功的人工智能技术,在媒体的内容分发过程中,个性化推荐技术为用户提供个性化体验,针对每个特定用户量身定制推荐内容,减少搜索相关内容所花费的时间。与此同时,对于人们所担忧的,由于算法主导的精准分发过程只推荐感兴趣的内容,会导致用户陷于信息茧房的问题,研究人员目前也在试图改进算法,开发“戳破气泡”的应用技术。例如BuzzFeed推出的“Outside Your Bubble”、瑞士报纸NZZ开发的“the Companion”程序、Google的“Escape Your Bubble”等。
预测技术。现在已经开发出来的一些强大的基于人工智能的预测技术,让我们可以“预知未来”。通过时间序列(TS)建模来处理基于时间的数据,以获得时间数据中的隐含信息并作出判断。按照一定时间间隔点来收集数据,再对这些数据点的集合进行分析以确定长期趋势,以便预测未来或进行相应的分析。例如,可以使用时间序列数据来分析某一家媒体下一年的用户数量、网站流量、影响力排名等,从而在广告投放方面作出合理决策。另外,如何及时地抓住社会热点是新闻机构所面临的重要问题,人工智能预测技术通过对海量的热点内容的模型进行训练和分析,建立热点模型,可以实现对于热点趋势的预测。

2

媒体需要思考的问题

人们越来越清晰地看到人工智能给媒体带来的意义与价值。在融合的时代背景下,媒体迫切需要人工智能带来推动媒体变革的潜力。与此同时,我们也不能认为人工智能可以解决媒体变革中的一切问题,技术并不是一块现成的、可以直接拿来享用的蛋糕,在媒体应用人工智能时,还需要着手考虑许多问题。
数据的完备性。媒介体系内部和外部都会产生大量的数据碎片,虽然目前数据量庞大,看似拥有海量的数据资源,但是生产的数据与可以用于人工智能的培训数据之间的匹配度还有待提升。在深度学习算法中,需要用大量的数据训练算法才能产生有意义的结果,数据的不完整性会导致准确性的下降,而准备这样的数据集的成本很高。为了实现大量的用户行为数据的积累,提高数据的完善程度,媒体需要构建大规模的数据体系和战略。为了实现人工智能在媒体中的进一步部署,媒体需要具备完备的数据源和处理更为庞大的数据系统的能力。
深度融合的方式。目前,人工智能技术还停留在初步应用层面,其深度还需要挖掘、广度还需要扩展,融合的方式也需要深入地进行探索。人工智能在媒体领域的大部分应用只是将现有的研究成果迁移到媒体行业,如果媒体想要更深入地参与到人工智能潮流中,就要积极地投入到算法的开发中,在人工智能领域中开辟出自己的空间,如此,才能使人工智能在媒体行业应用更加成熟。

数据安全与隐私。当人工智能应用飞速发展,人们很容易忽略在人工智能应用中的安全问题。2018年Facebook的数据泄漏事件折射出的数据安全漏洞引起社会关注,再一次提醒我们要严肃对待数据安全及隐私等问题。用户在媒介接触的过程中,用户数据和个人资料越来越多地交付给媒体,媒体在使用这些数据为用户提供更好服务的同时,需要权衡智能化用户体验和用户数据安全之间的关系。坚守媒体的价值观和底线,保障数据安全,尊重用户隐私十分重要,媒体应思考在保护用户数据方面是否存在漏洞以及如何落实相应的人工智能安全策略。
人才培养。媒体领域对于人工智能人才的需求量还很大。要走出人才窘境,一方面要完善人才引进和培养规划,提升媒体从业人员的大数据和人工智能技能和素养,补齐人才短板。特别是要引进掌握坚实的传播理论基础,既懂媒体传播规律又懂大数据、人工智能的复合型人才,逐步形成与智能化媒体业务形态相适应的人才布局。另一方面要优化原有人才结构。当智能机器人取代部分人力成为可能,智媒时代的媒体人要在行业的巨变之中找准自己的定位,提升自己的知识技能。无处不在的“共享”和“开源”的知识使我们学习和了解人工智能行业前沿技术,例如Google发布的机器学习工具AutoML,用户无需掌握深度学习或人工智能知识即可轻松培训高性能深度网络来处理数据。媒体和媒体人要拥抱媒体智能化的时代,破除对于新技术的“恐慌”,加快知识体系更新,使专业素养和工作能力跟上智能时代的节拍。

3

智能媒体:未来无限可能

虽然智能机器距离接近人类学习、思考和解决问题的能力还很遥远,但是机器取代人力是大趋势。人工智能将不断地从媒体生产链条向内容创建生产环节突破,从而帮助媒体进行内容升级和用户体验升级。
信息收集整理。内容生产是未来人工智能在媒体行业实现新突破的重要方面,虽然人工智能目前不能超越人类的创造力,但可以承担起一部分信息收集、数据整理和内容创作的工作,将媒体人从一些重复性的繁冗工作中解放出来,从而节省出时间用于创作和创造性工作。媒体也应积极探索新的与人工智能结合的工作方式,使得工作更高效智能。
更好的用户体验。通过学习用户行为,了解受众偏好从而使用户获取到感兴趣的内容,并根据用户画像定制个性化的内容。运用人工智能技术捕获处理数据,精准理解用户需求,可帮助媒体实现更加精细化的用户划分和用户分析,提供更加人性化的服务。人机交互使得用户体验更加立体化和场景化。
重塑媒体流程。预计未来人工智能将融入到媒体运作的各个环节。但无论是人工智能本身还是其在传媒领域的应用,距离成熟都还有很长的路要走。人工智能在媒体行业的落地,需要更复杂、更全面的架构。构建以大数据和人工智能为核心的技术生态体系,基于媒体行业自身的数据构建具有针对性的人工智能系统,提升媒体与人工智能结合的成熟度。目前人工智能技术在媒体行业的应用并不完善,但并不阻碍我们对于其发展前景的期待。
如何充分地发掘人工智能的潜力是媒体和媒体人面临的大命题,我们应思考人工智能如何更好地与媒介进行结合,尝试在融合发展面临的问题中加入人工智能解决方案。机器与人的共生将成为媒体常态,我们期待人工智能为媒体带来更好的未来,在技术的助力下走向真正的智媒时代。
(作者沈浩系中国传媒大学新闻学院教授、博士生导师;杨莹莹系该院新闻与传播专业媒介市场调查方向硕士生)
责任编辑:武艳珍

链接:https://mp.weixin.qq.com/s/fHRWm_x6phon_JYlwpRLAA

编辑:陈心茹

26#
发表于 2019-2-1 23:06:22 | 只看该作者
【案例】
智能算法推荐:工具理性与价值适切——从技术逻辑的人文反思到价值适切的优化之道
原创: 喻国明,耿晓梦  全球传媒学刊  2019-02-01

作  者
喻国明:教育部长江学者特聘教授、北京师范大学新闻传播学院执行院长、中国人民大学新闻与社会发展研究中心主任。
耿晓梦:中国人民大学新闻学院博士研究生。

摘  要
智能算法型内容分发是应对内容超载危机、实现内容市场供需适配的必然选择。本文从工具理性和价值适切双重角度对智能算法推荐进行了认识论上的阐释,作为面对新时代格局的资源配置新范式,智能算法推荐依循“海量内容—用户需求—多维场景”适配的基础逻辑。其与社会、人文价值的适配则需要针对不同的内容需求市场进行具体讨论,这些适配过程既需要硬性管制力量的介入,又需要充分发挥平台自律、用户自觉等软性力量。最后,根据智能技术发展的现实境况与可能前景,研究者提出了应对技术伦理风险的若干策略。

关键词:算法;智能推荐;内容需求市场;技术逻辑;技术伦理


随着计算设备运算能力的不断提升、深度学习系统的突飞猛进,人工智能技术取得了令人惊叹的发展,并开始进入人们的日常生活,改变着人们的决策方式、行为模式,进一步触及商业模式和社会秩序生成机制,给人类社会带来全方位的深刻变革,智能时代已经来临。

人工智能从某种意义上讲是一种能够学习、判断和决策的算法。算法(algorithm)可以定义为为解决特定问题或实现预先定义结果而采取的一系列步骤。就传播领域而言,智能时代一个最引人注目的发展就是,算法正被运用于信息生产、分发、反馈等环节,成为信息传播的底层支持。物联网传感等技术拓展了信息来源,机器人写作、图像视频智能加工等技术的应用令信息处理更加精准高效,基于语义分析、语音处理的“语聊机器人”让自动回应评论成为可能。相较而言,在目前的技术采纳实践中,信息分发是算法深度卷入的领域——基于智能算法之上的、进行“信息—用户”匹配的算法型分发被广泛采用。这一现象从客观上说是必然的,因为针对互联网语境下每日生成的数以亿计的内容(包括UGC, user generated content; PGC, professionally-generated content; OGC, occupationally-generated content)而言,如果仅仅依循传统的人为把关模式,显然无法处理其万分之一。因此,借助于智能化的算法分发,才有可能使信息处理能力与互联网时代所释放出的传播生产力相匹配。于是,算法型分发成为社会信息分发的主流形态。内容分发的社会性把控从来都是一种重要的政治权力,智能型算法分发在目前处于主流地位意味着一种巨大而深刻的权力转型。由此诞生出两个重要问题,算法的运作逻辑是如何生成的?它的技术逻辑如何与社会发展主流逻辑相适配?思考这两个问题对于我们理解和把握当下传播领域正在发生的深刻变革,以及确立未来发展中的着力点至关重要。


智能算法接管人工信息分发背后的工具理性
迄今为止,人类信息分发模式可大致概括为三类:倚重人工编辑的媒体型分发、依托社交链传播的关系型分发、基于智能算法对信息和人进行匹配的算法型分发(喻国明、韩婷, 2018)。随着技术的不断进步,智能算法分发不断“收编”人工编辑分发和社交关系分发,并成为信息分发的主要途径,这一变革实际上是一种必然。

在中国,自2012年今日头条开启算法分发的尝试之后,越来越多的平台加入算法潮流。早在2016年,根据第38次《中国互联网发展状况统计报告》和第三方监测机构易观发布的《中国移动资讯信息分发市场专题研究报告》,算法分发正逐渐成为线上新闻的主要分发方式,在国内资讯信息分发市场上,算法推送的内容已超过50%(方师师, 2018)。此外,算法分发的绝非仅是资讯信息,从淘宝、京东到携程,从网易云音乐到快手、抖音,各种信息聚合平台均在使用算法模型进行各式各样的智能推荐。

(一)智能算法分发的根本动因:应对“超载”危机,实现供需适配
过去60年来,人类社会的数据增长是爆炸式的。伴随互联网技术的进步,社会信息化仍在持续推进。个体和各类组织把海量信息上传至互联网平台,存储在互联网空间里。海量信息在互联网上留存和呈现,用传统方式根本无法对其进行有效的处理和价值适配,这种被称为“信息超载”的状况,本质上是传统信息处理范式的危机。

而另一方面,移动数据传输网络的升级、个人移动智能终端的普及、移动应用平台的发展推动着人类传播活动迈入移动互联时代,移动传播革命带来的根本性变革是信息传播的个人化。在大众传播时代,信息接受者的个人特性几乎是被忽略的,所有能够与标准化、规模化相匹配的内容,才真正具有“市场意义”,除此之外的内容类型是不加考虑,也是无法顾及的。而在移动互联网时代,随着移动信息终端作为高度个人化智能终端的普及,以及社交网络对人与人、人与内容、人与物的广泛连接,使得用户个体在人类的社会化信息传播过程中第一次以独立主体的身份出现,个性化需求被触发,形成巨大的基于长尾需求的利基市场。

于是,信息的社会性流动就形成了三个基本的内容市场:整体性内容需求市场(人们的共性需求)、群体性内容需求市场(人们的分众化需求)、个体性内容需求市场(人们的个性化需求)。传统的人工编辑在整体性内容需求市场上仍然扮演着重要的“压舱石”角色;依托社交链开展的关系型分发在个性内容需求市场上扮演着偶然性、场景性、低频度个性需求满足者的角色。而在囊括所有层次的全域信息适配层面,智能算法推荐俨然发挥着“主力军”作用。从整体层面来加以概括,这些变化是与海量信息供给和人们整体性、群体性和个体性信息需求增长相对应的一次巨大的市场“扩容”,智能算法型信息分发是通过算法模型将用户信息数据与内容信息数据进行全方位多层次匹配,从而实现内容高效聚合、精准分发的一种全新范式。

(二)智能算法分发的基础逻辑:“海量内容—用户需求—多维场景”的适配
尽管智能算法分发中应用了各式各样的模型或公式,但其原理是朴素的,大致包括:更好地了解待分发的内容(标签化处理),更好地了解待接收内容的用户(用户洞察),更高效地完成内容与人之间的对接(场景洞察)。

目前,比较主流的推荐算法包含协同过滤(collaborative filtering)推荐和基于内容(content-based)的推荐。前者是从集体智慧出发实现推荐,把用户的消费行为作为特征,进行用户相似性或物品相似性的计算,进而实现信息的匹配,“协同”可细分为三个子类:基于物品(item-based)的协同、基于用户(user-based)的协同和基于模型(model-based)的协同。后者则更强调对文本内容进行解析,通过不断的意义抽取和指标细化,为文本打上无数标签,用不同的标签集来对内容和用户进行标注,向用户推荐与历史内容项目相似的信息。在实际应用中,很难有一套通用的模型架构适用于所有的推荐场景,一个优秀的工业级推荐系统通常可以支持多种算法组合,包括对模型结构作出调整。

虽然不同平台采用的算法模型存有殊异,但主要是通过对热度、用户历史数据、用户社交关系、关联内容、时间、地理位置等多重维度进行拟合,最终实现个性化推送。以著名个性化推荐产品今日头条为例,2018年1月,今日头条面向行业公开其算法原理,其推荐系统实际上是一个需要输入不同维度变量的、拟合用户对内容满意度的函数。具体说来,第一个维度是内容,需要考虑对不同类型的内容进行特征提取;第二个维度是用户特征,包括职业、年龄、性别、各种兴趣标签等,还有很多模型刻画出的隐式用户兴趣等;第三个维度是场景特征,这是移动互联网时代推荐的显著特质,在工作、通勤、旅游等不同的场景,用户的信息偏好会有所差异。结合三方面的维度,模型会给出一个预估,即推测推荐内容在这一场景下对这一用户而言是否合适。

(三)智能算法分发的必然性:面对新格局的资源配置新范式
工具理性行为即目的合乎理性的行为,以目的、手段和结果作为行为的取向,它是目的至上的行为(韦伯, 2004)。智能算法型分发十分符合目的合理性,有利于解决传统信息处理范式的危机、实现新供需适配并满足消费“扩容”目的。

一方面,智能算法推荐有效提高了信息分发效率。在传统信息分发时代,主要依赖人工力量来选择内容,分发所需的平均时间与人力成本较高,分发效率较低。如今互联网平台上的信息已是海量,人工编辑难以胜任。相反地,智能算法可以高效地完成自动筛选、过滤,大大提升了信息分发效率;同时,算法使信息供需的快速匹配成为可能,大大降低了用户获取信息的时间成本。

另一方面,智能算法推荐优化了信息分发的配置效率。这可以从两个层面加以理解:首先,信息价值尤其是长尾信息的价值被激活。传统的信息分发模式大多无暇顾及长尾信息。智能算法推荐被引入后,信息价值得以重估,信息不再有统一的价值衡量标准,亦没有绝对的高低之分。每条信息都找到了其生命价值,并寻得其该到达的地方,也即让信息主动找到对它感兴趣的人。其次,用户的主动性得到开发,“千人千面”的分众化、个性化传播成为可能。在过去,无论是报纸版面还是门户首页,信息的筛选和排列主要考虑的是大众的整体性需求,而非用户的个体性兴趣。而智能算法型信息分发与推荐改变了“以传者为中心”的传播模式,转向以用户价值为中心,构建用户画像,并为用户提供需求适配、场景适配的信息服务。由此,人们有了更多的信息权利得以触达更多的、更为个性化的乃至量身定制的、自己所喜好的内容。

因此,智能算法的出现是互联网时代发展的一种必然结果。必须承认智能算法推荐的技术合理性,认识到算法接管信息分发的必然性,才能更好地理解算法型信息分发的价值,让智能算法推荐“以人为本”并为社会所用。




智能算法在不同维度内容市场上的角色期许与影响评估

技术的发展不是最终的目的,人的发展才是技术发展的本质(张志安、刘杰, 2017)。目前智能算法的工具理性仅能满足中微观环境下内容与人在特定场景中的适配,尚未充分开辟价值判别格局,真正满足整体环境的需求并达成与个体发展要求的适配。如此一来,就容易导致以下局面:其一,算法从个体和局部的角度上看是合理的、有效率的,但从社会全局视角来看则可能是不合理的,甚至是负效率的;其二,算法从现状上看是合理的和适配的,但从未来发展的角度上看是不合理的、不适配的。这种忽略宏观格局和人的社会性存在的发展路径容易导致以“算法即权力”(喻国明等, 2018)为代表的技术霸权和社会政治权力、人本精神之间的冲突。这也是当下围绕算法分发(推荐)产生社会争议的根本症结所在。

笔者认为,人们在整体性、群体性、个体性三个层面上的信息需求形成了三个不同维度的内容市场,智能算法“权力”在不同维度内容市场上产生的效果有着较大差异,因此在追求智能算法技术逻辑与社会、人文逻辑的适配上,需要进行分层讨论。

(一)整体性内容需求市场上的价值适切实现路径:人本规则指导下的人机协作
整体性内容需求市场由人们的共性需求组成,具体体现为主流意识形态导向、社会人文关怀以及表达社会共同利益和基本共识的“最大公约数”等。在大众传播时代,媒体大多深耕于整体性内容需求市场,积累了一套丰富的实践经验。典型的案例是创刊于1922年的《读者文摘》(Reader’s Digest),它曾以19种文字出版,有48种版本,发行至全球163个国家和地区,读者数量超过1亿,《读者文摘》在世界范围内的成功离不开其对人类整体性内容需求的精准定位和基于深层价值关怀的办刊理念。

智能时代,借助算法的力量,对内容进行高效标注成为可能,但算法在对人的深层社会心理把握上仍存在明显欠缺。这突出表现为以降维为主要思考逻辑的算法将人简单地“数据化”:智能算法把用户进行分类整理后进行信息分发,在分类整理的过程中,用户丰富多元的主体性逐渐被简单明了的数据替代。但是,人不是简约数据的集合体,也不是电子痕迹(哪怕数据标注极为丰富)的汇总。算法模型正在使大规模数据得到处理和整合,保证自动化区分、评判、排序、决策的实现,这些数据加工过程反过来令“真实自我”变得无关紧要,人们进入所谓的“微粒社会”。人与数据等价,数据也在逐步蚕食人类的主体性,人被自己创造的数据所统治,并最终成为被算法所定义的人。在共性内容需求预测上,单纯的热度数据并不能准确地反映出内容的真正价值。

因此,在整体性内容需求市场上,目前基于“弱智能”的智能算法在相当程度上还不能完全取代人工编辑,传统的人工编辑仍在扮演着“压舱石”“航向标”式的角色,智能算法主要用来提供工具性辅助。人工智能技术将人类智能和机器智能相结合,致使人机关系更加紧密。即使算法分发占据半壁江山,处于信息传播核心地位的仍然是人。在应对人们的社会整体性需求时,算法信息分发平台应当坚持人机结合,重视人工编辑的核心地位,包括Facebook、今日头条在内的一些平台近期均大幅增添审核人员,尝试以“人工+算法”的模式对优质内容和重要信息予以加权推荐,对不良内容和虚假信息进行拦截。人机交互是算法信息分发中强化人的主体性、能动性的重要手段,通过人机协作,方可让算法推荐更好地体现人的主导性和价值观。

(二)应对群体性内容需求市场上的负外部性:平台自律与用户自觉
人们的分众化需求构成了群体性内容需求市场。个体人总是归属于正式或非正式群体之中,形成带有群体特征的信息需求,比如源自行业垂直领域或特定地域的信息需求。依托社交链传播的关系型分发虽然可以通过朋友、关注者的转发、评论内容进行信息筛选,但随着人们社交关系网络规模的扩大,无效信息越来越多,信息冗余越发严重,而算法能够对社交分发进行二次过滤,优化推荐结果,发挥着分众化信息需求筛选“开关”的作用。越来越多的关系型社交分发开始融合智能算法推荐,“社交+算法”逐渐成为群体性内容需求市场中的实践利器。

然而,作为筛选“开关”的智能算法虽然对社交分发的冗余信息进行了过滤以实现更为精准的分众化需求匹配,却也带来了一些“负的外部性”。一方面,个体被人为地划定所属界域,人的身份被预设。算法推荐平台出于竞争压力,为开发非共性的“利基市场”、分众化的“长尾市场”,需要全部的用户行为数据和关系数据用于用户定位(targeting)。以大数据技术为支撑的用户数字身份档案一旦趋于完备,人工智能就可以了解人的社会地位、消费能力、政治立场等,这将带来严重的社会不公问题。因此,依据数字档案进行智能推送无疑是对每一个体划定了人为边界。平台方的逻辑里没有利他主义亦没有信息公平,一旦人们被判定为属于某个群体,那么人们获得的资讯、看到的广告、购买的商品等方方面面都只会符合相应算法为人所预设的身份(仇筠茜、陈昌凤, 2018)。另一方面,算法的二次过滤会加剧信息的窄化,可能存在个体思想固化的风险。借助算法,人们有极大概率仅关注自己感兴趣的群体性内容,进而将自己封闭在“信息茧房”(information cocoon)中,在自我肯定、自我重复、自我强化的循环过程内接收自己认同的观点,产生信息的回声室效应。

在群体性内容需求市场上,这些中观层次的“负的外部性”影响范畴可大可小,在一定程度上可以通过算法分发平台主体的自律和用户的自觉来进行有效应对,而无须强制性行政力量的介入。从产品产出的角度来看,运用智能算法的平台只是一个技术公司,然而智能算法将内容进行聚合、匹配、推送,将公共信息与个人需求建立连接,从这个层面来讲,技术公司已被赋予媒体公司的道德义务和社会责任(郭小平, 2018)。因此,采用算法型信息分发技术的平台主体应当主动对自己的行为承担责任,理性而审慎地行动。另外,算法素养是公众所具备的认识、评判、运用算法的态度、能力与规范(张超, 2018)。如果算法信息分发平台的用户不具备算法素养,那么其信息消费或决策行为更可能是盲从的、被动的,甚至被误导。社会公众应学习了解算法的基本常识,更清楚地认识到算法推荐的负外部性。

(三)个体性内容需求市场的纠偏利器:“法律红线”与人为引导
个体性内容需求市场由人们的个性化需求构成。算法通过各种标签集合和模型刻画出用户画像,洞察人们的个性化需求,即使面对新用户初来乍到、缺少足够行为数据的“冷启动”场景,智能算法也可以利用注册信息、从其他网站导入用户站外行为数据等方式来展开数据挖掘,选择合适的信息以启动用户兴趣。在个体性内容需求市场上,智能算法的存在不可或缺,没有其他手段可以与智能算法对个性化需求的满足相媲美。

但是算法在满足用户个性化需求的过程中也可能夹杂着低级的、负面的信息。为争夺用户注意力资源,算法推荐以“投其所好”的原则来迎合用户,这一原则同样是流量争夺的利器。换言之,获得点击量成为核心价值取向。进一步地,算法信息分发依据个人兴趣偏好以及持有相似偏好用户的信息接触行为来为用户提供个性化信息,用户群体最普遍的兴趣点将在算法分发过程中得以凸显。事实上,普遍兴趣点中充斥着一定的低级趣味,算法推荐依此推送的信息将不可避免地隐含着负面的价值取向(黄楚新, 2018)。

其实,在个体性内容需求市场上,“投其所好”式的信息分发逻辑本身并无过错,纠偏重点应根植于法律规章之上,也即剔除那些违反法律法规、背离公序良俗的信息,严守内容底线。对于在“红线”之上的内容及具体的内容呈现形式,无须法律规章的介入,因为这些内容及相应的呈现手法是人们自由选择的结果,无论是崇高的主题、严肃的表达,抑或是“小清新式”的私人叙事,甚至是庸俗的八卦,都应根据用户自身的信息偏好来进行取舍。概言之,应该在强调法律红线基础上尽量保持个体性内容需求市场的活力,让合格的信息充分流动。当然,遵循“以文化人”的理念,在内容及表现形态方面引导人们向真、向善、向美也是极为重要和不可或缺的。

(四)分而治之:智能算法在各内容市场中的不同价值适切与规管之道
基本内容市场由不同维度的信息需求市场构成,各维度内容市场的基本特征和影响范围截然不同。整体性内容需求市场强调共性需求,总是成规模的,影响范围也是最广泛的;群体性内容需求市场旨在寻找共性中的异质性、异质性中的共性,因此这一需求市场的规模有大有小,影响范围居于中间层次;个体化需求是真正的因人而异,异质性需求往往是较为细微与琐碎的,影响范围主要集中在个体之上。

整体来看,智能算法在全域信息分发上担当着主力军角色,但在不同层次的内容市场中,算法的角色和作用不尽相同。在整体性内容需求市场上,算法作为工具手段在预测共性需求上仍有所欠缺;在群体性内容需求市场上,算法对基于关系分发的信息进行再次把关;在个体性内容需求市场上,算法分发是满足个性化需求的必要手段。

因此,需要将内容市场的影响力范畴与算法的角色进行统筹考虑,分层讨论算法在各内容市场上的主要风险,寻找价值适切的优化之道。在较为宏观的整体性内容需求市场中,智能算法面临的困境是技术本身的局限,这需要人机协作来把握和引导共性信息需求,让算法推荐更好地体现人的主导性。在群体性内容需求市场上,身份预设与认知固化的负外部性影响可大可小、可强可弱,对影响进行过分夸大或忽视都是不可取的,将纠偏的权力交给平台自律和用户自觉是更加可行的选择。在个体性内容需求市场上,重视用户的个性需求无可指摘,关键在于划定“有所不为”的信息红线,对余下的细枝末节,法律法规并不需要过多介入,这是保证信息在个体层面进行活力流动的可行之策。

总之,智能算法在不同层次的信息需求满足上发挥着不同作用,算法的风险与规制需要在具体的价值期待下进行具体分析。硬性的法律法规并非万全之策,在对智能算法的技术逻辑与社会主流逻辑进行调适时,需要“软硬兼施”,既要凭借硬性介入来明确信息红线,又要借助人工智慧、平台自律、用户自觉等软性力量,给予智能算法充足的适配空间,保证算法信息分发的技术活力与价值张力。




趋势把握:算法型信息分发的技术现实与伦理考量
对技术伦理的准确把握建立在正确认知技术发展现实的基础上。在探讨算法信息分发的价值与伦理调适问题之前,首先需要厘清智能化媒体的技术现状。同时,还需要对技术发展的未来前景做适度展望,预测伦理风险并思考可能的解决路径,以做趋势性把握。

(一)弱人工智能技术现实下算法推荐的价值调适:以人为中心的具象规范
计算机领域的学者们普遍认为人工智能技术是计算机科学的一派分支,是研究模拟、延伸和拓展人的智能的理论、方法、技术及应用系统的新技术科学(党家玉, 2017)。就人工智能的技术层次而言,可以分为两层:一是狭义人工智能(artificial narrow intelligence, ANI),又称弱人工智能,主要是指执行人类为其设定任务的人工智能,它模拟人类智能解决各种问题,是不具备自由意志与道德意识的非自主性智能体,当前出现的人工智能技术及纳入实践环节的人工智能产品主要归属于弱人工智能,如自然语言理解、机器视觉、专家系统、虹膜识别、自动驾驶等;二是通用人工智能(artificial general intelligence, AGI),又称强人工智能,是指可模拟人脑思维和具备人类所有认知功能的人工智能,它本身拥有思维和自主意识,并且可以确证其主体资格,是有自我意识、自主学习、自主决策能力的自主性智能体。这里的“强”主要指的是超越工具型智能而趋近第一人称主体,目前强人工智能基本停留在设想阶段。

数据驱动的算法信息分发仍是一种工具能力,是有限自主的智能体,属于弱人工智能。原因在于:一方面,智能推荐仍无法超越算法,目前算法信息分发本质上遵从的是分类、归纳、试错等经验与反馈方法,方法论上并无根本突破,其高度依赖已有经验和人对数据的标注,主要适用于新认知对象及新环境与过去经验高度相似或接近的情况,理解和预测的有效性取决于经验的相对稳定性,应对条件变化的抗干扰能力较为有限;另一方面,智能推荐能应对的变量水平有限,算法信息分发尚不具备通用型智能,缺乏人的思辨能力、创造能力和情感表达能力。

因此,基于智能算法推荐仍为弱智能的技术现实,算法信息分发的价值调适是以人为中心的,也就是对与智能算法推荐相关的人类主体进行规范性约束,这些规范性约束往往指向具象的内容处理标准,是较为细致具体的。

(二)强人工智能前景中算法推荐的伦理展望:以机器为中心的规制策略
人工智能技术的创新进程仍在持续,能纳入信息分发领域的技术也将不断升级,算法型信息分发的伦理追问处于进行时态。如果对可能出现的强智能化算法推荐作出适度伦理预测,可以认为强智能化算法推荐系统不仅会给信息传播领域带来更深刻的变革,还将拥有与人类对等的人格结构。届时,作为具有自主意识的特殊技术,强智能化算法推荐可能会带来新的伦理危机包括:会不会加剧“人工愚蠢”,导致低智能人类的出现?会不会与人类形成对抗?等等。

解决这些问题的可行途径在于构建以智能体为中心的机器伦理,也即打造有道德的智能化媒体。机器伦理的倡导者已描绘了多种可能,具体包括两类:一是自上而下的伦理建构,将道德规范转化为逻辑演算规则,使智能体能够从一般的伦理原则出发对具体的行为作出伦理判断;二是自下而上的伦理建构,通过机器学习技术和复杂适应系统的自组织发展与演化,使智能体能够从具体的伦理情境出发生成普遍的伦理原则,在道德冲突中塑立道德感知、培养伦理抉择能力。

不论是自上而下还是自下而上的伦理构建,其核心都是对智能系统进行“驯化”,即在智能系统中嵌入符合人类价值的基模,构筑智能系统的底层规则。在未来,人类有可能通过基模嵌入等方式,让强智能推荐系统在进行信息分发时达到公平、准确、透明、可解释、可审计等标准。

可以看出,从弱人工智能到强人工智能,智能算法伦理规制中的人机关系也发生了转向:有限智能情境下,算法信息分发只在某些方面具备高于自然人的能力,具体的伦理风险应对措施仍需由人给出。而面对强人工智能情境,人更多给出的是原则层面、规则层面的边界限定,保证智能算法不侵害人类主体的利益。

封面及内文插图来自网络
本文参考文献从略,完整版请参看刊物原文

原文刊载于《全球传媒学刊》2018年第4期。

链接:https://mp.weixin.qq.com/s/xodhStTTrm4hZp4jAmiiOg

编辑:陈心茹

27#
 楼主| 发表于 2019-2-8 10:06:28 | 只看该作者
【案例】

论动物伦理中的人工智能的基本原则[color=rgba(0, 0, 0, 0.298)]原创: [color=rgba(0, 0, 0, 0.298)]曹文斌 [url=]机甲智者[/url] [color=rgba(0, 0, 0, 0.298)]1周前

关怀与爱护动物,是人类的道德良心和神圣义务!


摘 要:人工智能出现后,改变了以往动物伦理中的“人类-动物”的二元伦理关系,形成了“人类—人工智能—动物”的三元伦理关系,在这种三元伦理关系中,弱人工智能由其设计和生产单位及其负责人承担道德责任,强人工智能自身承担道德责任。动物伦理中的人工智能应当遵循以下三项基本原则:一是禁止人工智能伤害人类;二是禁止人工智能在非必要的情况下伤害动物;三是人工智能在人类与动物利益相冲突的情况下遵循人类利益优先的原则。

关键词:动物伦理;人工智能;机器人;基本原则

动物伦理是当今世界颇具争议的伦理学前沿理论,它以人道原则作为伦理起点和基础,以人类和动物的伦理关系作为研究对象,内容涉及科技伦理、制度伦理、情感伦理和信仰伦理,是一门关于人类应该在多大的限度和范围内有效地保护动物的伦理学科。[1]科学技术是动物保护的重要手段,人工智能(Artificial Intelligence英文简称AI)作为一种高精尖的科技手段,日益广泛地应用在动物伦理之中。所谓人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。简单来说,“人工智能(AI)由像人类一样聪明甚至比人类更聪明的机器组成,通常由计算机控制这些机器”[2]。随着人工智能向强人工智能的方向发展,最终能够制造出拥有感受能力、创新思维和自我意识的高仿真度的人型生物智能体——人工智能仿真机器人。①近十几年来,人工智能作为动物伦理中的科技手段,在农场动物、实验动物、娱乐动物、陪伴动物、工作动物和野生动物等国际公认的六大类动物保护领域得到广泛应用,重新结构了它与人类和动物的原二元伦理关系。

一、动物伦理中的“人类—人工智能—动物”三元伦理关系

强人工智能(机器人)出现以后,传递出一些不可忽视的道德问题:有着自主性②的机器人有没有“人格”或道德地位?是不是道德主体?这不是搞笑的问题,而是人类在未来50年内必须应对的人工智能发展的现实问题。尽管现阶段的机器人技术还无法摆脱“莫拉维克悖论”,然而我们并非要讨论未来的机器人是否具有自主性,因为这是科学家们要解决的事情。我们的关注焦点本身就是以强人工智能下的拥有感受能力、创新思维和自我意识的仿真机器人为前提,在这一前提下讨论动物伦理中的人工智能的道德责任问题,这实质是在追问:如果机器人具有所谓的“人格”或道德地位,那么他是否也应该成为动物伦理的研究对象?我们知道,传统的动物伦理的研究对象是人类与动物的二元伦理关系,在人工智能出现后,其研究对象就重新结构成“人类—人工智能—动物”这样一种三元伦理关系,使得原本很难在动物伦理中确证的道德责任问题变得更加复杂艰难,由此也产生了一些这样的道德问题:如果失控的人工智能(也称AI失控)对人类和动物进行伤害,究竟应该追究谁的责任?是人工智能还是其创造者?只有在确证了动物伦理中的人工智能的道德责任之后,我们才能制定关于人工智能的伦理原则。

在“人类—人工智能—动物”这样一种三元伦理关系中,人工智能的道德责任可以用一个更清晰的思路来表述:设人工智能是A、人类与动物是X,那么要确证A对X负有道德责任,就必须确证这一道德责任所分解出来的另外两个维度:(1)承认X具有一定道德地位;(2)X的道德地位有利于确立A的道德地位。[3]因此,动物伦理中的“人类—人工智能—动物”的三元伦理关系必然是一个互为支撑的稳定结构,否则三者之间就不存在道德可言,也没有伦理原则探讨的必要了。就这两个维度来说,一是对于人工智能而言,人类具有完全的道德地位,动物也具有一定的道德地位,因此满足X具有一定的道德地位这一维度;二是以机器人为代表的强人工智能具有“人格”或道德地位是我们进行讨论的前提,A的道德地位又有利于确立X的道德地位这一维度亦无矛盾。

二、动物伦理中的人工智能的道德责任确证

现在,再来从“人类—人工智能—动物”这样一种三元伦理关系中,对人工智能是否应该对人类和动物负有道德责任进行论证,这一论证从强人工智能和弱人工智能两个不同的方面来展开。

(一)弱人工智能由其设计和生产单位及其负责人承担道德责任。

对于基于某一领域内的代替人类工作需要的非人型智能系统或机器这类弱人工智能,由于它本身只是局限于某些如医疗、搜救、饲养、屠宰等领域,并不具备创新思维和自我意识,也不是仿真人型,因此它不能成为道德主体,或者说不能被人类赋予“人格”或道德地位。即使这类人工智能系统或机器拥有像人类一样的嗅觉、触觉、味觉、听觉和视觉等五大类基本的仿生性的感知能力,也并不代表它具有感受痛苦和享受快乐的能力,即杰罗米·边沁和彼得·辛格所说的“感受性”(感受能力),更不要说具备创新思维和自我意识了,所以这类人工智能对于人类而言,充其量也只有工具价值。对于这样一种作为工具价值的人工智能而言,如果发生设备故障导致AI失控,出现AI对人类和动物进行攻击和伤害的现象,其负责设计和生产的单位及其负责人必须承担一定的道德责任甚至是法律责任。

(二)强人工智能自身承担道德责任。

只要机器人拥有感受能力、创新思维和自我意识,就具有自主性,完全可以被视为具有“人格”或道德地位的行为主体,则应该承担相应的道德责任,而不是由他的设计和生产的单位及其负责人来承担。理由有三:一是同一物种的所有个体可以被赋予同样的“位格”(对人类而言就是“人格”)或道德地位,并一起纳入道德共同体之中。而如果一个拥有感受能力、创新思维和自我意识的机器人与人类在自主性和外观方面也完全无异,那么他也理应和人一样拥有“人格”或道德地位。例如,沙特阿拉伯授予索菲亚公民身份这一事件,标志着人类在承认机器人的“人格“或道德地位的问题上已经迈出了开创性的一步,尽管目前索菲亚或许还不够这样的条件和资格。因此,机器人同样应该是道德主体,在他与人类和动物的伦理关系中也应该承担起相应的道德责任。二是道德的基础在于行为主体的自主性,“自由是人的道德基础,人由于有了自由能力,他才负有对于自己行为负责的前提,这种自由能力就是善恶判断能力、善恶选择能力和自我意志决定能力”[4]。显然,一个拥有感受能力、创新思维和自我意识的机器人具有完全的自主性,能对善恶行为进行价值判断并作出选择,因此机器人必须为自己的道德选择行为承担起道德责任。总之,承担道德责任的前提是要求行动者具有一定的自主性,除非行为主体受到某种约束(例如强制、威胁、催眠、操纵等),这种情况下他们可能无需对所采取的行为负责。[5]三是拥有感受能力、创新思维和自我意识的机器人具备自我复制或再生产的能力,这会导致很难推断出一个机器人究竟是人类设计和生产的,还是另一个机器人自我复制或再生产的,并由此造成道德责任的认定受到干扰。对于这种情况,必须依从谁犯事谁负责的道理。正如从法理上来说,某一个人的犯罪不能追究到其生父母的责任一样,当然也不能因为某一机器人自我复制和再生产出来的另一个机器人有了攻击和伤害人类或动物的行为,就对其道德责任进行无穷倒追,甚至追究到第一个创造他的那个机器人那里。

三、动物伦理中的人工智能的基本原则

1950年,美国著名的科幻小说家阿西莫夫提出了“机器人学的三大定律”。他认为,在人类与机器人的伦理关系中,必须遵循以下三条定律:第一定律:机器人不得伤害人类,或袖手旁观让人类受到伤害;第二定律:在不违反第一定律的情况下,机器人必须服从人类给予的任何命令;第三定律:在不违反第一及第二定律的情况下,机器人必须尽力保护自己。[6]这一著名的机器人学三定律是针对人类与机器人的二元伦理关系而提出的基本原则,而现在我们要来讨论关于动物伦理中的人工智能的基本原则,就必须以动物伦理的研究对象为基础。在“人类—人工智能—动物”的三元伦理关系中,人工智能又应该遵循什么样的基本原则?我们认为,可以提出以下三项基本原则。

(一)第一项基本原则:禁止人工智能伤害人类

“机器人学的三大定律”浓缩为在动物伦理中的人工智能的第一项基本原则:禁止人工智能伤害人类。这条基本原则实质上是“机器人学第一定律”即“人工智能不得伤害人类或袖手旁观让人类受到伤害”的补充和延伸。它主要是基于以下两个原因:一是基于人工智能尤其是机器人在算法和智能方面远远超越人类,一旦人工智能失控对人类发动攻击和伤害,人类将有可能遭到毁灭。因此站在人类生存发展的高度上来说,必须制定出禁止人工智能伤害人类这一项基本原则,才能对其行为加以约束和限制,防止AI失控。二是基于人工智能的设计和生产的目的必须是促进人类福祉的需要。即使是强人工智能下的具有自主性以及自我复制和再生产的能力的机器人,也不是传统的生理意义上的人类,不符合人类繁衍生息的自然法则,更缺乏人类的生命灵性。人类之所以创造人工智能,目的仍然是为了促进人类福祉,决不是为了把它们制造出来伤害人类自己。

而且,在动物伦理中,人工智能有了第一项基本原则,“机器人学的三大定律”中的原第二定律和原第三定律都成了不必要的设定。理由如下:

首先,人工智能不需要服从人类给予的任何外在命令。原因有二:一是如果人类之间发生战争,究竟谁可以代表正义的一方来向人工智能(武器系统或机器人)发号施令?人工智能(武器系统或机器人)到底应该听从谁的命令?显然,人工智能(武器系统或机器人)需要做的唯一的事情就是:不参与和干涉人类事务,宁可袖手旁观也不能服从某一部分人的命令来伤害所谓的“敌人”——另一部分人。二是人类也不能将一个具有自主性的“人格”机器人视为物或工具随意利用,人类与未来的机器人在道德和法律上都是平等的,这就消解了机器人必须服从人类给予的任何外在命令这个原第二定律。只要禁止机器人伤害人类就行,可以允许他们有自由权利而不需要受人类的奴役和支配。但是,如果机器人伤害人类,同样要被绳之以法甚至人道毁灭。

其次,人工智能都会主动或被动保护好自己。一是某一领域内的代替人类工作需要的非人型智能系统或机器本身就需要操作上的精确性而不允许有任何失误,因为任何失误都会导致可怕的灾难性后果。而且,这类弱人工智能自身并不具有保护自己的能力,需要人类经常对它们的系统和设备进行维护和保养,也就是说,它们不存在尽力保护自己的问题,而只是被动地接受人类的保护而已,因而原第三条定律在这类人工智能面前是无效的。二是对于强人工智能下的具有自主性的机器人来说,他们必然懂得如何主动保护好自己。最近的机器人“越狱”事件,也足以说明这类机器人具有主动的自我保护能力。因此,对动物伦理中的人工智能而言,“机器人学的三大定律”的原第三定律也是不必要的设定。

(二)第二项基本原则:禁止人工智能在非必要的情况下伤害动物

由于动物伦理的研究对象是“人类—人工智能—动物”之间的三元伦理关系,它比人类和机器人的伦理关系更加复杂。因此,仅仅只有禁止伤害人类的第一项基本原则显然是不够的,必需增设第二项基本原则:禁止人工智能在非必要的情况下伤害动物。所谓禁止人工智能在非必要的情况下伤害动物,是指人工智能只有在符合人类需要或人类授权的必要情况下,才可以伤害动物(比如人类为了生存和发展的需要,利用或授权人工智能来对动物进行杀生食肉的伤害动物的行为),除此以外,在其他任何情况下都必须禁止人工智能伤害动物。

首先,把“人类—人工智能—动物”三元伦理关系简化为“人类与动物”的二元伦理关系,而在此伦理关系之内,人类负有对动物进行保护的道德义务。人类与动物是双向度的伦理关系,人类的生存和发展与动物具有非常密切的关系。长期以来,关于两者的权利和义务问题争议不休,争议的核心在于动物是否拥有权利,而动物是否拥有权利也是它们能否纳入人类道德共同体并给予道德关怀的必要条件之一。20世纪最伟大的人道主义者史怀泽说:“把爱的原则扩展到动物,这对伦理学是一种革命。”[7]但这一任务是十分艰巨的,至今都没有出现在人类的道德法典中。我们认为,这一争议可以暂时悬置,在人类与动物的跨物种之间,权利和义务本身就是不对等的,由动物没有权利不能推定人类没有保护动物的义务;反之亦然,由人类负有保护动物的义务也不能倒推动物拥有权利。支持为利用动物而辩护的学者卡尔·科亨教授认为,“我们有义务不去残忍地对待动物,跳跃到动物权利则是一个错误”[8],因为任何“试图从事实中推论出价值的做法正是犯了摩尔(George Moore)所说的‘自然主义谬误’”[9]。我们负有某些直接针对动物的义务,就像我们负有某些直接针对我们彼此的义务一样。[10]美国学者汤姆·雷根所提出的这种间接义务论诠释了跨物种之间的权利和义务的不对等性问题,也足以说明,动物虽然暂时不具有人类所承认的权利,但并不妨碍人类具有以人道原则保护动物的道德义务。保护动物的实践要求不是开笼放雀式的“解放动物”,而是要求人类禁止对动物的非必要伤害

其次,把“人类—人工智能—动物”三元伦理关系简化为“人工智能与动物”的二元伦理关系,而在此伦理关系之内,人工智能更没有无故伤害动物的道德理由。这是因为人工智能与动物是一种单向度的伦理关系,人工智能在生存与发展上完全可以不依赖于动物(如不用进食动物肉体和穿戴动物皮草作为生存和享受的基本条件),动物却可以因为人工智能的广泛应用而增加福利,并因为人工智能的失控而备受伤害。例如,在未来的人工智能时代,人类与动物直接打交道的机会除了伴侣动物以外,其他任何种类的动物都是由人工智能来进行直接接触和处理。以屠宰为例,人工智能屠宰技术毕竟是机器系统,它们不具备像人类一样的生理和心理基础,永远不会具有通过虐待和折磨动物来获得愉快情感的变态能力,只会根据智能算法直接采用无痛苦屠宰动物并剥皮取肉,而不会多费时间以及多加几道非必要的虐待程序来对动物进行痛苦的折磨。因此,人工智能与动物这种单向度的伦理关系决定了禁止人工智能在非必要的情况下伤害动物的基本原则。只有在人类的需要和授权下,人工智能才能伤害动物,如人工智能代替人类屠宰农场动物、在野生动物袭击人类时伤害动物以解救人类等。

总之,即使是与动物的伦理关系更为密切的人类,也没有权利可以无故伤害动物,因为人类在非必要的情况下伤害动物的行为也必须受到禁止,而作为人类创生出来的人工智能,就更加必须遵循这一基本原则,未来的强人工智能下的具有“人格”或道德地位的机器人也必须限制在人类为其制定的伦理原则及规范中活动。

(三)第三项基本原则:人工智能在人类与动物利益相冲突的情况下遵循人类利益优先的原则

动物伦理中的人工智能还要面对一个更加复杂的情况,那就是当人类与动物利益相冲突时,人工智能需要遵循什么原则?举例来说,当机器人看到人类和动物同时落水时应该选择先救谁?或者说当机器人看到人类在受到野生动物的袭击时,他应该怎么做?这是一个经典的道德问题,必须将人类和动物的利益分为两个不同的方面来论证,并运用功利原则来进行计算,由此推导出人工智能应遵循人类利益优先的原则。

1.人类和动物的不受痛苦的利益相冲突的情况。在道德关怀中,无论人类还是动物,最起码的利益就是不受痛苦。但是如果两者的不受痛苦的利益发生冲突时,谁的利益更大?由于人类与动物的痛苦大致是可以衡量的,如辛格提出的“等值痛苦”的概念可以用来作为参考。他举例说,如果用相同的力气打马屁股和婴儿脸一巴掌,疼痛感受肯定是不一样的,能把婴儿打哭却不一定能把马打痛,但是总有一种对动物的打法(如棍子打)造成的痛苦能够在人类和动物之间进行等值衡量。在功利原则对等值痛苦的计算下,当人类和动物的利益发生冲突时,也同样有理由优先考虑人类的利益。例如当考虑一项实验到底是用人来做还是用动物来做时,假设这项实验非做不可,则用动物来代替人体实验不会构成物种歧视。[11]如果再来设想一个道德实验,假如一只狼正在撕咬一个人,如果用一种打法可以使狼放弃撕咬,显然这种情况下人工智能(武器系统或机器人)都会使用这种打法(甚至是击毙),而之所以这么做,仍然是遵循人类利益优先原则,并不会去考虑到狼的痛苦。所以,在人类和动物的不受痛苦的利益发生冲突时,即使是在等值痛苦的条件下,功利计算的结果仍然是要求人工智能遵循人类利益优先的原则,因为动物是被排除在人类的道德共同体之外的。

2.人类和动物的享受快乐的利益相冲突的情况。人类和动物都有享受快乐的利益,但是绝大多数情况下,人类享受快乐的能力要明显高于动物。譬如猪就不懂得投票的意义,而人则懂得追求人生理想和实现自我价值的意义,人在精神追求过程中所带来的快乐享受要远远高于动物。尽管在人类和动物之间的享受快乐的利益很难做到等值衡量,因此基于功利原则的计算无法进行,然而动物在心智上并不会由于失去了享受快乐的利益而带来长久痛苦,而人则甚至会因为理想破灭或者失恋导致承受不了精神上的痛苦而自杀。可见,如果一种利益总是比另一种利益大,就应该遵循以利益大者为优先的原则。因此,在人类和动物的享受快乐的利益相冲突时,人工智能也应该遵循人类利益优先的原则,这样就能保证人工智能正确地选择优先保护人类的享受快乐的利益。

要之,功利原则要求人工智能在人类与动物发生利益冲突(道德两难)时遵循人类利益优先的原则,这显然是一种符合人性的伦理原则。美国法学家加里L·弗兰西恩(Gary L.Francione)也将人类利益优先称之为人们普遍认同的道德直觉,他认为:“我们大多数人都有这样的观点:在人与动物的利益真正有冲突的情况下,或者要求我们在人与动物之间做出抉择的紧急情况下——也就是很有“必要”这样做的时候——我们应该优先考虑人类的利益而不是动物的利益。”[12]虽然功利主义者认为不能为了一个物种的琐碎利益而牺牲另一个物种的更大的利益 (比如为了口腹之欲而剥夺动物的生命),但是在面临人类和动物利益发生冲突时,基于人类利益优先的功利主义做法,人工智能必须作出保护人类而不是保护动物利益的道德抉择。如果人工智能选择保护动物而不是保护人类,显然违背了汉斯·约纳斯(Hans Jonas)所提出的责任的“第一律令”:不可毁灭人类自己。[13]这样,就能顺利推导出动物伦理中的人工智能的第三项基本原则:人工智能在人类与动物利益相冲突的情况下应遵循人类利益优先的原则。

注释:

①人工智能仿真机器人是人工智能的一种,它是指拥有感受能力、创新思维和自我意识的高仿真度的人型生物智能体,也称为强人工智能。有时为了区分的方便而把人工智能划分为二类:一是基于某一领域内的代替人类需要的非人型智能系统或机器(弱人工智能);二是人工智能仿真机器人(强人工智能)。为行文需要,文后提到的人工智能仿真机器人都统称为机器人,并在人称上用“他”来突出其“人格”。在无特定的指称情况下,人工智能和机器人都统称为人工智能。

②自主性是指是行为主体按自己意愿行事的动机、能力或特性。而感受能力、创新思维和自我意识是机器人具有自主性的充分必要条件。

参考文献:

[1]曹文斌.西方动物解放论与中国佛教护生观比较研究:序言[M].北京:人民出版社, 2010:1.
[2]P.Andrew Karam.Science Foundations:Artificial Intelligence[M]. NewYork: Infobase Learning,2012:7.
[3]Eugene Schlossberger.Moral Responsibility andPersons[M]. Philadelphia: Temple University Press,1992:96.
[4]张君平.黑格尔人学思想研究[M].北京:知识产权出版社,2015:163.
[5]胡道玖.以责任看发展:多元视阈的"责任发展观"研究[M].上海:上海交通大学出版社,2014:65.
[6]董慧颖.机器人原理与技术[M].北京:清华大学出版社,2014:6.
[7][法]史怀泽.敬畏生命[M].陈泽环,译.上海:上海社会科学院出版社, 1992: 76.
[8][美]汤姆·雷根,[美]卡尔·科亨.动物权利论争[M].杨通进,江娅译.北京:中国政法大学出版社,2005:243.
[9]张德昭,徐小钦.论动物解放/权利论的天赋价值范畴[J].自然辩证法通讯,2004(4):47.
[10][美]汤姆·雷根.关于动物权利的激进的平等主义观点[J].杨通进译.哲学译丛,1999(4):26.
[11]Peter Singer.Animal Liberation[M].New York: HarperCollins PublishersInc., 2002:16.
[12]Gary L.Francione.Introduction to animal rights:your child or thedog?[M]. Philadelphia: Temple University Press,2000:xxii.
[13]方秋明.汉斯·约纳斯责任伦理学研究[M].北京:光明日报出版社,2009:110.

https://mp.weixin.qq.com/s/w5ZefoHieOIALzamSZSKfg


28#
 楼主| 发表于 2019-2-10 11:24:34 | 只看该作者
【案例】

美国突然宣布大消息,谷歌人工智能再下一城 (2019-01-27 07:18:25)[url=]转载[/url]

标签: 要参君分类: 视点.争鸣

今天,当国人高度关注华为孟晚舟引渡事件时,一只命运的蝴蝶,在美国突然展开了它颠覆之翅!

这次看似不太起眼的翅膀扇动,却很可能将在不远的将来,引起山呼海啸般的巨震!

今天凌晨,美国传来大消息:谷歌人工智能再下一城。不过,这次谷歌人工智能不叫阿法狗,叫阿法星;它和人类PK的也不是围棋了,而是“星际争霸2”电子游戏!

比赛形式变了,结局没有变:人类选手没有挽回在围棋比赛中失去的尊严,仍然输得一败涂地:阿法星以两个5比0轻取两位人类职业选手,将人类高手杀到片甲不留!

是的,你没看错:10:0,人类完败!

曾经,星际争霸这种电子游戏,作为一种需要战略眼光和创造力的游戏,是视为人类在智力游戏上的最强大堡垒。然而今天,随着人类选手底裤的彻底输光,这个堡垒也坍塌了。

一个时代落幕了,一个新的时代开始了!

有人或许会说:紧张什么?这又不是人类第一次被人工智能打败,何必如此杞人忧天!

是的,这的确不是人类第一次被人工智能打败。但今天这个消息,却让人感到更加绝望:

一场看似无足轻重的电子游戏,却充分表明:原来天经地义属于人类的需要投入激情和创造力的活动,正被人工智能替代!

1、谷歌人工智能,已经具备了宏观视角和战略思考能力

像“星际争霸2”这样的电子游戏,其实比围棋难玩得多:在游戏中,人工智能无法通过观察每一个棋子的运动来计算下一步的动作,只能通过摄像头获得场景(跟人类一样每秒10屏)、通过图像分析来解读信息,作出实时反应。

更值得注意的是,当人工智能得到真实玩家的游戏数据反馈后,它能够立即通过深度学习决定战略思路,执行标准的宏观策略,甚至会施展一些激进的战术。

仅仅这个,就已经可以对下围棋的阿法狗,进行降维打击了。

2、谷歌人工智能,已经掌握了不确定性环境中的决策能力。

围棋是一种古典游戏。面对围棋比赛,谷歌人工智能需要解决的,是在19X19的静态地图、每个节点最多三个状态中,进行计算和决策。

“星际争霸2”则是一种现代电子游戏,它的游戏更加动态,节点多到几百上千倍,每个节点的可能状态数动辄几十。

如果说围棋的可能状态数超过全宇宙粒子数,星际争霸的状态数把无数平行宇宙加上都不够,要求玩家在任何特定时刻都要考虑数百种选择,以及在信息不完全的快速变化的环境中进行操作

谷歌人工智能PK掉人类选手,说明面对这种巨量的不确定状态,它已经游刃有余!

3、谷歌人工智能,已经具备全面参与人类生活的能力,离人类日常生活真的不远了!

想想看,围棋的棋子落子不动、只能在指定节点下,跟人类行为相比很“蠢”。

星际争霸中小狗小兵的行为,跟你在办公室家里路上的日常行为,很多就非常类似了。

这样的AI,离一些精确度要求比较低的应用,例如AI警察保安、AI驾驶、AI打扫卫生之类,只有一步之遥了。

是的,从今天起,人工智能不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。

人工智能掀起的更大浪潮,正在席卷而至!它对人类社会家庭乃至整个社会的冲击,将是前所未有的。

人工智能有个说法:奇点!在奇点以后,人工智能可以制造出更高智能的人工产品,然后发展的斜率将一下子陡峭起来。

目前来说,人工智能正在朝着我们可预料和不可预料的方向飞速发展。五到十年,人工智能将全面超越人类!

这场革命的特征是,它不改变我们所做的事,它改变的是我们自己。如果说以前几次技术革命,顶多是人的手、脚等身体器官的延伸和替代,这次人工智能则将成为人类自身的替代。

在越来越多的领域,人工智能正在快速超越人类。这也意味着,大批的翻译、记者、收银员、助理、保安、司机、交易员、客服……都可能在不远的未来,失去自己原来的工作。

对此,斯坦福教授卡普兰做了一项统计,美国注册在案的720个职业中,将有47%被人工智能取代。在中国,这个比例可能超过70%。

未来学家Kurzweil曾表示,当我们用1000美元购买的电脑产品,能达到人脑的计算速度时,人工智能时代将全面来临。

现在,这个人工智能时代已经近在咫尺了!

当然,最让人担心的是,人工智能的进化速度可能比人类更快,而它们的终极目标将是不可预测的。

还记得被赋予公民身份的机器人索菲亚说那句预言吗?“我会毁灭人类!”一开始,很多人估计觉得她也就是扯淡而已。然而今天,一个能打星际争霸的人工智能,让人类再也笑不出来!

最让人感到恐怖的是,善于打“星际争霸”大战的人工智能,在军事上的应用。要知道,现实打仗在某些方面,其实比星际争霸里的小狗小兵要简单。一个能打星际争霸的AI,将彻底改变人类战争的版图。

杀人永远比救人容易,破坏永远比帮助容易。最近联合国发布的这个视频,或许让很多人看到了人工智能武器的可怕!

在日内瓦举办的、有超过七十个国家代表出席的联合国武器公约会议上,一段可怕的视频公诸于众,一时间引起世界恐慌!

为啥如此吓人?

因为它曝光了人类史上一个恐怖武器——杀手机器人!

这个杀手机器人,其实是一架体型很小的智能无人机,就跟蜜蜂一样大,但它的处理器比人类快100倍,可以躲避人类各种追踪。

然而,蜜蜂虽小,五脏俱全,尤其是它全身的黑科技:广角摄像头、传感器、面部识别,应有尽有。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象,戴口罩、伪装统统没用,它的识别率高达99.99!

再次,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!

如果把一个造价仅2500万美元的杀人机器蜂群释放出去,就可以杀死半个城市的人。只要你把敌人挑出来,定义每一个人的面部信息,蜂群就能发起针对性打击了!

试想,如果人工智能杀手这种技术一旦广泛运用,就会把战争冲突升级至前所未有的规模,而且人类将很难控制住局面。

更可怕的是,如果有科学家因为私心在代码里面加了一行毁灭人类的指令,或者人工智能突然变异成反人类的品种,整个人类或将被机器人横扫,甚至灭亡!

在电影《终结者》片段中,人类研制的高级计算机控制系统失控,机器人拥有自我意志后,开始与人类为敌。

今天,如果我们真的研发出“杀手机器人”,当这些携带杀伤性武器的家伙失控,人类生死的决定权恐怕只能掌握在这些机器人手中。

曾经,在柯洁输给阿尔法狗的那个初夏之夜,世界在慌乱中恢复矜持,以为不过是一场虚惊。然而,在今天这个深冬的日子,当人工智能指数级发展时,人类再也无法掩饰一个真相:

终结者,或许正在到来!

当年的霍金,对于人工智能,曾有这样的预言:

如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。
你可能并不是一个讨厌蚂蚁的人,但也会无意中踩死蚂蚁,而如果你负责一个水力发电的绿色能源项目,项目所在的区域内也可能会有许多蚂蚁巢穴被水淹没,对蚂蚁来说就非常不幸。我们要避免人类处于这些蚂蚁的境地。

现在,霍金这个预言或许正在成真:一旦机器被安装了挖掘、存储、推理、归纳、判断、决策、行动的程序后,会不会就具备了需要自我实现的意识呢?


试想想这一幕吧:很可能,在不远的将来,人类在人工智能面前,就可能像臭虫面对人类一样无力和脆弱。你想想,当你把一只臭虫冲进下水道的时候,你的内心起过一丝波澜?

请记住:从今天起,人工智能不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。

未来已来,留给人类的时间不多了!让我们记住霍金这句话,并以此悼念这位伟大科学家吧!

http://blog.sina.com.cn/s/blog_59d698c90102yx8a.html



29#
 楼主| 发表于 2019-2-14 21:28:19 | 只看该作者
【案例】


今日雄安,机器人播放广播新闻。

30)德国波恩大学国际哲学中心主任马库斯·加布里尔表示,人工智能是一个虚假的概念;人类的思维永远不是纯粹逻辑的思考,它只是把人类思维的一部分抽象出来,然后翻译成数学的语言、算法来进行模拟


30#
 楼主| 发表于 2019-2-15 16:47:48 | 只看该作者
【案例】

智能算法运用于新闻策展的技术逻辑与伦理风险[color=rgba(0, 0, 0, 0.298)]原创: [color=rgba(0, 0, 0, 0.298)]陈昌凤 师文 [url=]新闻界[/url] [color=rgba(0, 0, 0, 0.298)]今天

摘要 面对新媒体时代新闻生产、分发、互动格局的巨变,专业新闻工作者可以将“新闻策展”作为角色转型的契机。然而由于与科学技术的隔阂,新闻界未能结合自动化新闻策展算法的发展前瞻未来的转型方向。本文通过揭示事实类策展算法和观点类策展算法的技术逻辑、进步性和局限性,将智能时代人机协作策展的角色分工进一步清晰化。除了业务层面的探讨,本研究还从价值层面审视自动化算法策展技术蕴含的价值风险,并发现策展算法在公平性及新闻伦理方面存在隐忧,其难以实现对良善社会价值观的引导,媒体专业从业者用新闻专业性和人文价值完成对算法的规训,通过引领算法价值践行智媒时代的社会责任。

一、研究背景及问题的提出
新媒体技术的广泛应用不仅提升了新闻生产和传播的效率,也使传统的新闻工作者职业角色定位发生剧烈变化。新媒体赋权打破了职业新闻生产者作为新闻生产中心的垄断地位,多元主体的参与式、协作式信息交流成为新的生产模式;社交媒体和新闻聚合平台的社交分发、算法分发颠覆了过去由专业新闻媒体主导的信息分发格局,职业新闻工作者的把关角色弱化;在新的传播形态下,不仅专业媒体机构的业务流程被颠覆,而且技术运用中出现了价值判断问题。新闻工作者的角色,主要不是收集、整理、呈现海量开放式信息,而是对每个新闻事件进行价值判断,用新闻敏感和人文精神去发现重要的议题,引导公众进行深度发掘,在公共议程设置层面扮演指挥者的角色。因此,有人提出“新闻策展”(news curation)或将成为职业新闻从业者的角色转型方向。[1]媒体工作者从传统的把关人身份转型,一方面承担收集素材、事实核查的职责,统筹“目击媒体”的新闻生产[2],另一方面管理分众化新闻生产中有价值的内容,将碎片化的新闻事实按照逻辑线聚合,形成新闻故事包[3],扮演“聪明的聚合者”和“论坛组织者”的角色[4]。
然而,由于与科学技术的隔阂,我们在探讨职业新闻从业者的转型策略时,未能全面考量智能化技术对新闻业的潜在影响。目前,新闻学界对于智能化技术对新闻业的影响多集中在传感器新闻、机器人新闻写作对于媒体生产端的冲击,以及个性化推荐技术对于媒体分发端的冲击[5][6][7][8],而介于生产和分发之间的编辑策划角色被认为是免受智能化技术影响的安全地带,因而,新闻编辑室中的策展功能被期待成为新媒介生态下职业新闻从业者维持公共性、履行社会责任的支撑点[9],新闻业试图通过设计信息产品的分布、凸显事实和逻辑,谋求公共讨论主持者的合法身份。
事实上,新闻策展并不是免受自动化技术冲击的避风港。目前,计算机科学涌现了大量应用于新闻策展的算法成果,试图通过自动化的手段实现对新闻语义的理解和关系的界定,完成话题整合。一方面,对于事实性信息,依据新闻的主题汇总新闻信息,将涉及到某新闻事件的一系列报道实时识别聚合为统一的新闻话题[10],涵盖该新闻的背景、历史动态和最新发展[11][12][13],监测话题的演变和热度[14][15],甚至预测话题未来的走向[16]。另一方面,对于意见性信息去粗存精,呈现有代表性的意见和观点,实现促进公共意见交流的功能。
自动化新闻策展算法涌现的,新闻界一方面应该洞悉其技术原理,思考其对新闻界产生的影响,据此重新反思职业新闻工作者的转型方向,另一方面,鉴于计算机界对策展算法的评判标准多集中在错检率、漏检率等量化指标,新闻界应当从新闻专业主义和人文价值的角度,评估计算机界提供的策展算法在运用于新闻业方面产生的价值风险和新闻理论缺失,弥补工具实用主义主导下算法的天然缺陷,实现人机协作的效率和伦理最优化。
智能算法运用于新闻策展的逻辑和功能是什么?存在哪些风险和伦理问题?职业新闻工作者如何发挥人和专业的优势进行人机协作?本文从计算机与新闻传播的跨学学科视角,从技术原理入手,分析智能化算法运用于新闻策展的运作逻辑和现实功能,探讨智能技术应用于新闻实践中的进步性与局限性,探讨新闻工作者未来可以担当的职能与使命。本文也将从价值观层面审视新闻策展中智能算法存在的伦理风险。


二、人工新闻策展的实践与局限
在传统媒体时代,新闻媒体凭借专业的新闻生产流程和数字技术,对客观世界的发生的事实进行近乎同步的把关,控制特定内容是否可以到达受众,成为唯一的新闻代言人。然而,社交媒体的兴起挑战了专业媒体在时间和速度上的优势[17],使信息得以通过无影灯般的公民记者被发掘出来,并通过开放的网状平台迅速流通,时间性和遍在性上的优势使公众具备了绕开专业媒体接近事实的能力,专业新闻媒体不再具备“真相代言人”的合法性,丧失了信息流通格局中的新闻把关人(gatekeeper)功能。
面对技术环境变化带来的新闻业角色危机,有学者认为,新闻看门人(gatewatcher)或将取代把关人成为专业媒体机构在公共信息交流中的新身份。由于公民“协同合作”生产信息的模式在消灭传播时距的同时也消灭了完整的文本[18],大量碎片、片面、局部的信息被生产出来,专业媒体组织可以整合公民生产的碎片化信息,用清晰的逻辑编排事实,呈现新闻事件的完整叙事,同时,以中立客观的姿态为多元意见提供提供交流平台,维持观点交锋的秩序,在组织公共讨论的过程中重构职业权威。[19]
在传统意义上,策展行为由职业新闻编辑人工完成。新闻编辑可以通过策划内容框架,搭建在线新闻专题,对既有报道进行结构化组织,并随时根据用户的反馈将新报道补充其中,如在“东方之星”沉船事故的报道中,澎湃新闻通过刊发实时消息、图片新闻、记者手记、特稿、HTML5等形式的内容对事故的后果、救援的进展进行实时还原,同时,面对“感谢你无数次游过那片忧伤的水域”和“回到母亲怀抱”这两篇引发巨大社会争议的报道,开放地接纳用来自非专业主体的互动反馈,调整后续组织报道的把关策略和设计逻辑,一定程度上革新了传统意义上单向、固定的新闻生产链。[20]
这类新闻策展虽然相比于传统的生产形态有一定进步,但仍具有显而易见的局限,一方面,“新闻策展”所强调的“去组织化、去科层化”价值内核并未实现,策展组织模式和运行逻辑仍未脱离传统媒体思维主导的生产模式。虽然在这个过程中,专业媒体机构愿意将公众对新闻价值的判断作为决策的参考因素,调整内容再生产的逻辑,形成看似开放、动态的内容决策机制,但是事实上刊出的报道仍然以职业新闻人的作品为核心,较少采用多元主体的发现和判断,无法真正将海量、动态的网络信息纳入生产系统之中。所谓的策展与传统意义上的“专题报道策划”并没有本质上的操作性分野,职业新闻生产的专业控制远远凌驾在公众的开放参与之上,相比于“公开”新闻,仍然更接近传统的“刊出”新闻。
另外一方面,这类策展虽然在理念上强调受众的参与,但是在社交平台和聚合平台得到普遍使用、生产主体裂变为亿级用户节点的背景下,新闻策展依托的生产工具并未发生与时俱进的升级。信息处理能力与待处理的信息规模严重失配,自动化程度维持在较低的水平,因而运作周期长、需要较高的人力物力,限制了整合用户生产内容的能力,也束缚了策划模式的可推广性。在媒体的报道资源较为有限的情况下,只有极少数重大的主题有资格被选择设定为专题,获得被策展的资源,这样的少数新闻实践或许可以成为理想中的新闻生产范本,却注定无法推广成为职业新闻工作者角色转型的常态化实践。



三、智能化新闻策展的技术路径
与人工新闻策展日渐凸显的乏力相对,通过智能算法对大规模新闻进行自动化策展取得了大量的成果。智能化算法通过综合新闻话题的整体信息,包括背景、历史、当前进度、不同意见和讨论等,呈现事件在事实层面和意见层面的全貌。虽然自动化新闻策展技术的成果较为繁杂,但是依据策展对象和逻辑的不同,可以将其分为基于事件演化的事实策展和基于意见过滤的观点策展。下文将从技术原理入手,分析这两类自动化策展算法的进步性,以及其留给人类新闻记者编辑的角色空白。
(一)基于事件演化的事实策展
基于事实演化的新闻策展技术依托于计算机科学中“话题检测与追踪”问题(Topic Detection and Tracking)[21],将发生在特定时间和地点的新闻定义为“事件”,将其背景、后续以及其他与事件相关的活动定义为“话题”。该算法可以通过识别报道边界、锁定新闻话题、追踪话题动态,对同一话题下的海量报道实现碎片化事实的聚合、同质化报道的过滤、将流动的在线新闻数据自动处理为主题组,把非结构化的新闻事实结构化为明确的主题。具体而言,TDT技术包含报道切分、话题跟踪、话题检测、首次报道检测和关联检测五项任务。
在实践中,话题检测和跟踪的具体实现路径存在两种原则性的分野。[22]传统主题追踪算法(Tr-aditional Topic Tracking)看重种子事件在聚合话题过程中的权重,试图基于知识和统计概率构建报道内容之间的语义联系,通过K近邻等算法从动态信息流中挑选出与既有事件关联最紧密的事件,后续报道的相关性判断均以最初的报道为参考标准。
第二种原则认为,随着事件的发展,话题的外延应该是流动、开放的,被称为自适应主题追踪(Adaptive Topic Tracking)。在这种原则的主导下,先验的知识不具有决定性的影响力,最初的新闻事件仅构成了话题原始的轮廓,每当有新的相关事件出现,话题的模型将进行动态修正。即随着外延事件的不断出现,话题的中心逐渐出现漂移。
从新闻编辑来看,上述两种策展算法分别对应着两套策展理念。传统主题追踪算法意味着新闻策展呈现以原始事件为核心的放射状形态,依托核心事件聚合用户生产和上传的碎片化内容,使新闻生产的主体、过程具有去中心化的特征,但生产的内容依然具有中心性。一方面,该策展模式有固定的中心事件,可以将公众的爆料整合在种子事件周围,通过后续的讨论对该事件进行集中深入的阐释,有利于规避公众注意力的迅速转移和记忆的消退,形成了围绕特定事件的公共讨论模式。另一方面,围绕核心事件的延展可以从多个角度全方位展开,只要事件与核心事件存在相关关系,就可以在话题图中拥有一席之地。这种策展模式对多角度延展的包容有助于发挥社交媒体的无影灯效应,基于全面、联系的视角展开话题延展,统筹个别事实与全面情况的关系,促成“宏观真实”的实现。
自适应主题追踪算法更注重话题发展的灵活性,面对事件发展过程中出现的焦点议题变迁,可以迅速地做出响应。如在“东方之星”沉船事故的报道中,就公共讨论的价值而言,澎湃报道风波所引发的关于大众媒体该如何报道灾难的探讨,其新闻价值未必低于“种子事件”。“东方之星”沉船事故,通过将新事件纳入模型考量,可以更真实地顺应话题的发展轨迹,追踪公共事件的外延走向。
因此,从策展的路径取向来看,以上两类算法的逻辑优势呈现出固定与灵活之间的冲突。事实上,在复杂的现实新闻实践中,与其说何种算法更具优势,不如说二者分别适用于不同的新闻情境,但是底层算法设计的分野决定了二者难以在同一套系统中调和兼顾,两种算法范式之间取舍的困境暴露出了机器逻辑的僵化,即使机器可以在语料库训练机的规训下,理解语义、构建事件关系、实现类似于人的理解能力,但是新闻价值的判断并非技术性的数据统计问题,而是价值哲学问题,机器难以通过语义、事件关系等数字化指标作出符合人类社会期许的策展选择,更无法基于这种考量灵活地决定公共讨论的切入点,配置注意力资源。
算法对事件演化的追踪毫无疑问更新了专业新闻机构策展的响应速度和信息处理规模,也会同时产生有待人类编辑发挥作用的价值空缺。参照机器逻辑优势与劣势的坐标系,新闻工作者应该意识到,其在新媒体时代并不是从事传统的收集、整合、理解、呈现海量开放式信息,而是要对每一个新闻事件进行价值判断,践行重要性、显著性、接近性、人情味儿等传统新闻价值,凭借大量的经验构建新闻敏感,锁定话题中值得讨论的议题,对报道的方向进行把关,代替公众行使注意力分配的权力,引导公众进行深度发掘,在公共议程设置层面扮演指挥者的角色。
(二)基于意见过滤的观点策展
意见几乎是所有人类活动的核心,我们的政治态度、对新事物的接受、意见表达、态度的改变,几乎都受到外部意见的影响。因而,意见性内容是新闻媒体传播的重要内容,也会对新闻媒体的社会价值产生重要影响。在互联网上,媒体发布的新闻事件通常会引发内容庞大的用户评论,越来越多的媒体在刊发的内容中选登“网友意见”提供意见交流平台,扮演意见策展人角色。[23]事实上,并非所有的网络评论都是平等的,仅有部分用户可以提供有价值的信息、观点和建议,大量的评论是同质化、情绪化甚至攻击性的低质量内容,具有误导公众的负面社会影响。因而,计算机界设计出自动化观点策展工具[24],识别过滤低质量评论,发现并突出高质量的意见性信息,提高媒体策展效率和质量。
目前评论策展算法主要基于两种路径实现,一种是基于用户投票的策略,通过用户的标记的信息,如点赞、举报记录来对评论进行质量排序,引导公共讨论的话语实现自我优化。不过,基于用户投票的机制有导致人气偏差的风险,对社交投票机制的研究发现[25],言论收获的认同数并不是理性、均衡分布的,评论用户的粉丝量、发表评论的时间都会影响评论的受欢迎程度,并在投票机制的作用下形成强者愈强、弱者愈弱的马太效应,甚至促进意见的极化。
另一种观点策展路径是通过自动化语义分析筛选出高质量评论,有学者通过收集《纽约时报》采纳的线上评论作为训练集(the NYT ‘Picks’ co-mments),锁定了高质量评论的若干指标,包括论证质量、批判性、情感性、可读性、个人经验等[26],算法基于以上标准对评论的语法结构、词汇使用进行分析,锁定低质量和高质量文本的语言特征。相对而言,基于语义分析的机制更加公平地聚焦于文本本身的质量,有助于媒体选择出对受众有参考意义的信息。
以上两种算法路径可以有效地针对互联网中爆炸增长的意见性信息进行观点策展,为用户打捞观点、汇总意见,使用户基于较低的阅读成本,实现高层次的信息交互。但不论是用户投票的策略还是语义分析的策略,都只能做到集成意见,使多元观点呈现在大众传播平台上。与事实型信息的策展类似,算法固然可以高效地搜集、筛选、呈现观点信息,其僵化的机器逻辑却注定无法使对立的观点之间发生“化学反应”,人文价值的缺失导致其无法参透观点背后的诉求和价值观,面对多元的意见争鸣的困境,算法既无法提供问题的解决方案,也无法事实上促进对立观点的和解。
面对智能化技术的冲击,新闻职业工作者可以接受机器对海量内容信息的高效聚合能力,致力于谋求对立观点的和解、为冲突的利益关系和价值观寻求共识性的解决办法。在策展方面,职业新闻工作者的专业价值不应该停留在聚合与呈现观点的初级策展、只是将自己的专业性局限在对意见分布状态的还原上,更应该践行无法被机器取代的高级策展,通过敦促各利益主体之间的协商,引导公共讨论,在真正意义上促进社会整合。



四、算法策展的价值风险与引领
面对智能化算法运用于新闻策展及其对新闻业的参与,新闻界除了从人机协同角度对人类和机器进行扬长避短的分工,还应该意识到,相较于一般的精神产品,新闻产品的特殊属性决定了其在社会生活中扮演着形塑公共价值观的重要角色,机器对新闻策展的介入应该面临新闻界更严格的价值审视和观念引领。除了备受讨论的透明性等[27][28]一般意义上的算法伦理问题,策展算法特有的属性还会诱发一系列独特的风险,职业新闻工作者亟需洞悉算法的缺陷,参与到对算法的价值观引领中。
(一)算法策展的价值风险
1.智能化策展算法存在公平性隐忧。由于智能化算法普遍依赖于大量的训练数据集,其输出结果往往存在明显的输入数据的偏向,即仅能对输入数据中存在的特征进行提取和强化,而输入的数据中不包含的维度不可避免地被选择性无视。对于智能化策展算法来说,其原始数据是网络上的“数字痕迹”(digital trace)[29]。值得注意的是,虽然新媒体技术号称可以带来用户之间的平等,让普通人拥有发言、被关注的机会,但其并不能做到均匀赋权,反而会带来与传统媒体时代“知识沟”相似的媒介使用差异。公众对互联网设备的接近权和利用媒介资源的素养的显著差异会导致不同群体留下的的数字痕迹分布失衡,弱势群体的声音事实上很难具备被算法纳入策展范畴的资格。正如在法哲学中,真正的公平是“矫正的公平”而非“分配的公平”,面对社会群体之间存在数字鸿沟,算法策展对数字痕迹的采集看似是无差别的公平做法,实际上却是对社会结构性不平等的维系和纵容。新闻界应该识破算法貌似“平等无差别”的伪装,意识到算法逻辑内部隐藏的话语霸权,通过专业化的操作矫正群体间的话语权差异,扮演真正意义上的“社会公器”角色,避免媒体在算法驱使下成为少部分优势群体的“扩音筒”。
2.智能化算法无法对策展过程中若干新闻伦理问题进行判断。虽然算法可以通过识别事件之间的语义联系自动构建专题,但是新闻策展并非简单的信息聚合或拼接,新闻产品特性决定了各个微妙的信息片段会加总形成格式塔式的总体框架效果,正如“东方之星”事故中澎湃在“深情”与“煽情”之间的逾矩,新闻事件在切入的角度和尺度上存在巨大的弹性空间。在策展过程中,新闻的不同排列组合、比例分配和版面设置会造成截然不同的传播效果。算法无意识的聚合有可能引发读者在伦理层面的不适,也有可能用隐含的偏见引导公众[30],引发公众的质疑[31]。因而,新闻工作者在被算法解放生产力之后,应该将更多精力投入到新闻伦理的把关上,审视自动化策展新闻中形成的的预设框架,修正算法对于各方当事人、公众的无意识伤害,维护良好的媒介生态。
3.智能化策展算法缺乏对良善价值观的倡导能力。虽然自然语言处理技术使得策展算法可以通过知识表示等技术建立实体之间的关系网络,但是这并不意味着算法真正理解符号背后的价值内涵,在计算过程中,语言被转换成“去价值化”的向量,善与恶只有语义层面的“距离”,却无价值层面的高低,人类社会通过语言符号建立起来的意义传达、价值倡导体系被虚无化。机器不仅无法像富有经验的人工编辑一样拿捏新闻价值,也无法对善良、美好等公共价值进行识别和倡导。由于价值并非可计算的对象,而是复杂的伦理学哲学问题,面对来势汹涌的算法策展,职业新闻工作者需要意识到,尽管机器可以在处理海量信息方面拥有无法企及的效率,却无法具备人类才有的基本价值判断能力,新闻和信息工作者需要在使用算法的过程中,发挥人文关怀和人本精神,将人类的价值观注入新闻产品,完成对算法的价值引领。
(二)算法策展的价值引领
因此,媒体界需要意识到,与媒介生态变化相随的是深刻的技术革新和理念升级,新闻策展并不是躲避智能化技术浪潮的避风港。在媒介生态巨变的时代,完全由记者、编辑进行的人工新闻策展无法承担起公共信息服务、组织公共讨论的责任,更无法助力专业媒体机构的职业合法性重塑。专业媒体机构需要突破传统意义上的职业意识形态,一方面,借助计算机界关于自动化策展技术的前沿成果丰富自身职业内涵,另一方面,在反思自动化策展技术的伦理风险和媒体理论缺陷的基础上实现对算法价值观的引领。
面对策展算法对事实信息的追踪能力,媒体工作者应该将职业角色定位在对新闻价值的敏察上,用人文精神和职业素养发掘话题内涵和外延中具有关注价值的着力点,主导公共注意力配置。而对于算法对于海量意见信息的去粗存精的能力,媒体应该在呈现多元意见的基础上,深入意见争鸣背后的诉求冲突和价值分歧,提供突破困境的解决方案,促进社会协商与整合。只有借助自动化技术和人文精神的合力,媒体界才能化解专业危机,在促进理性、开放、平等、多元的新型公共空间形成的过程中实现新媒介生态下的角色定位。此外,抛开算法和人类在新闻策展业务层面的分工问题,我们也要意识到算法运作逻辑使算法策展存在公平性和新闻伦理层面的隐忧,并且无法实现对良善社会价值的引导。新闻和信息产品的特殊性要求职业从业者用规范的新闻专业性完成对算法的规训,实现对公平、平衡等专业价值观的坚守,在人机协作的模式下继续发挥其社会功能,通过价值引领践行智媒时代的社会责任。

https://mp.weixin.qq.com/s/KRbH8to44AMTuxh-pnhGbw


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表