传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
11#
发表于 2019-1-29 21:59:43 | 显示全部楼层
【案例】
人工智能简史之一[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]宋胖 [url=]宋胖说事儿[/url] [color=rgba(0, 0, 0, 0.298039)]3天前

今天人工智能已经不再是科幻小说的噱头,随着铺天盖地的宣传,社会对于人工智能的接受已经接近平常心。唯一能引起耸动眼球的可能就是各种大佬呼号的“人工智能替代你的工作”,让现有的很多社会岗位上的从业者感到危机。而写了《未来简史》神棍赫拉里,更是用一种夸张的手法,把人工智能吹得神乎其神,彷佛人要成为其奴隶一样。

为了理清人工智能概念的很多神话和瞎话,宋胖决定开辟个人工智能专题,谈谈我眼里的人工智能,并为大家提供一个观察视角。今天和大家粗线条的说说,人工智能的简史。

0、人工智能的形象与学科形态

影视剧科幻剧中的人工智能其形象是强大无比,能力非凡;而现实生活中的人工智能却完全不是这样。今天已经融入大家生活习惯的,搜索引擎,邮件过滤器、二维码扫描器等都是近60年来人工智能技术的实用化的具体形态。这些所谓的人工智能,都是一堆有单一功能或有限功能的裸程序。显然不是科幻电影中,无所不能的形象。

其实从历史的视角看,人工智能的发展,是曲曲折折,坎坎坷坷。一次次巨大的热情被唤起,一次次梦想的肥皂泡变为碎渣。从事人工智能研究的科学家们,不得不一次次地回到原点。今天人工智能作为一个独立的学科,其发展形态非常独特。他不是像其他学科般从分散走向统一,而是从诞生之日起,就不断地分裂,形成一堆堆杂乱无章的子领域。直到今天,依然有很多科学家想着用一个统一的认知范式来统所有人工智能领域,但这个统一的时刻还远远没有到来,大概这就是,人工智能发展的希望之火才永不磨灭的原因吧。

从时间轴上而言,人工智能的历史可以追溯100年,当然,由于在1956年达特茅斯会议上,AI(artificial intelligence)这个单词才诞生,因此将1954年之前的部分,追认到人工智能发展的源史似乎有点牵强,但是由于这段时间出现的几个数学家的确提出了影响后来,甚至现在依然是人工智能理论基础的模型,因此在梳理人工智能发展史时,应该从他们开始算。如果这样的话,人工智能简史可以划分为四个阶段。

孕育期:1900-1956年

创建期:1956-1680年

高峰期:1980-2010年

展望期:2010-今

1、造梦者:数学大神们的畅想

人工智能开启于少数几个数学家。这几位大神用方程推动了整个人类的认知升级。

(1)希尔伯特

在1900年举办的巴黎数学大会上,德高望重的老数学家希尔伯特向全世界数学家们宣布了23个未解决的难题。这些题目道道经典,其中的第二题和第十题与后来的人工智能密切相关,并最终促成了计算机的发明。

希尔伯特第二题是说能否运用公理化的方法统一整个数学,并用严格的数学推理证明数学自身的正确性。这就是著名的希尔伯特纲领。希尔伯特提出了这个问题,但他自己没有证明它,而是留给了后人。

(2)哥德尔

证明数学系统应同时具备一致性(无矛盾)和完备性(可推导)的任务落到了一个人身上,他就是哥德尔。

这位来自捷克的年轻人,是希尔伯特的粉丝,在他接过希尔伯特的火炬之后,全心去证明希尔伯特第二问题。但很快,他发现,自己的努力是徒劳的,因为希尔伯特错了。任何足够强大的数学公理系统都存在着瑕疵,一致性与完备性是不能同时具备的。

哥德尔不完备性定理的证明,然哥德尔登上了1931年的时代周刊。哥德尔定理被评选为20世纪最有影响力的数学定理。

此时,人工智能学科尚未建立,计算机也没有发明,但哥德尔定理似乎给人工智能提出了警告。也就说,如果我们把人工智能看作一个机械化的数学公理系统,根据哥德尔定理,必然存在着至少一个人类可以构造,但是机器无法求解的问题。这个可以视为人工智能的软肋。数学无法证明数学本身的正确性,人工智能无法凭自身解决所有问题。即存在着人类可以求解但是机器却不能解的问题,即人工智能不可能超过人类。

但是问题没有那么简单,上述命题成立的前提是人与机器不同,人不是一个机械的公理化系统。但这个前提成立吗?到今天,也不知道。(这个问题以后,和各位细说)


(3)大神 图灵

如前所述,与人工智能相关的有两个问题,除了第二题,还有第十题呢!这个问题是:是否存在着判定任意一个丢番图方程有解的机械化运算过程?(是不是感觉一句话每个字都认识,合在一起就不知道啥意思?)

丢番图方程是什么鬼??? 别急。

它长得这个样!


所有的 a,b ,c均是整数,若其中能找到一组整数解 者则称之有整数解。

那什么是机械化运算过程?

通俗地说,就是算法。

为了解决这个第十题,一个和哥德尔一样神的年轻人站了出来,他就是图灵!

图灵设想除了一个机器,这就是后来的图灵机,也是计算机的理论原型,非常漂亮的画出了机械化运算过程的含义,并最终为计算机的发明铺平了道路。关于图灵机,我们会单辟一篇,来解释其原理。

图灵机一经提出,就获得了科学家的认可,图灵也备受鼓舞,开始进一步思考图灵机运算能力的极限。

在1940年,图灵开始认真思考机器是否能够具备人的智能。如果具备了,用什么标准判定?在1950年,图灵提出了图灵测试的概念。

通俗而言,就是在仅仅凭声音或文字沟通,如果测试者无法将与其沟通的人与机器做区分,则将该机器通过了图灵测试。(当然,由于这个实验设计漏洞很多,导致标准非常宽泛,因此饱受争议。)

2014年,俄罗斯计算机“尤金”成为历史上第一个通过图灵测试的人工智能程序,但是由于它是使用第二语言来回答问题的,即有翻译过程,此为测试者之有5分钟的互动时间,这导致其“通过”测试的证据严重不足。

图灵测试时存在理论误区的,图灵将智能等同于符号运算的智能表现,将实现功能的智能本质本体,即机器的内涵问题绕过去了。其带来的最大误区就是,引导人工智能研究者将注意力集中在如何让程序欺骗人类测试者,以通过图灵测试,有时甚至不择手段。今天图灵测试不断受到质疑。但图灵的研究的确大大推动了人工智能的进展,这个是必须要大书特书的。

(4) 悲催的冯 .诺依曼

其实,当是由于交流条件的限制,同时思考希尔伯特问题的不止哥德尔和图灵,还有一个人,他就是冯诺依曼。但这个老兄太悲催了,总是独立思考出,他人早他一步思考出的结果。这有点像杂谈的紫胖子,总是有强烈的“后见之明”。1931年,冯诺依曼证出了希尔伯特第二问题,却发现哥德尔早就发表了哥德尔定理。于是,冯诺依曼赶紧换专业,开始研究量子力学,等攒了一堆成果,准备发表的时候,另一位天才物理学家,狄拉克抢先发表了《量子力学原理》,比冯同学早了整整两年,没法只能继续换专业。


冯诺依曼,受到两次打击之后,开始把注意力从基础数学转向工程应用领域,终于获得成功。1945年,冯诺依曼在去开会的火车上完成了早期的计算机EDVAC的设计,这就是到今天仍然在采用的冯诺依曼体系结构。1946年,他又提出存储程序原理,把程序本身当作数据来对待,程序和该程序处理的数据用同样的方式存储,并确定了存储程序计算机的五大组成部分和基本工作方法。

图灵的贡献是建立了图灵机的理论模型,奠定了人工智能的基础。而冯· 诺依曼则是首先提出了计算机体系结构的设想,他是当之无愧的当代计算机之父!他的计算机终于使得数学家们的研究出了大果子,也推动着人类历史进入信息时代,人工智能的畅想,终于离开了纸面,开始成为现实。

(4)维纳

孕育期,影响后世人工智能得最后一位大神,是诺伯特维纳。这是一个真正的天才。3岁开始学习天文学和生物学,7岁时,物理学知识和生物学知识已经可以碾压身为语言学家和博物学家的父亲,10岁熟练掌握了拉丁语、希腊语、德语和英语,并且开始涉猎人类科学的各个领域。维纳一辈子发表的论文,几乎涉及所有学科,以至于你都不知道该称呼他为那个领域的科学家。

维纳对于人工智能的最大贡献,就是控制论。1948年,维纳发表了《控制论——关于在动物和机器中控制和通讯的科学》。此后,Cybernetics成为一个学科。在这篇论文中,维纳深入探讨了机器和人的统一性,人或机器通过反馈(应该叫自耦合)完成某种目的的实现,开启了机器模拟人的可能。这为人工智能的提出奠定了重要的基础。此为维纳关于心理学、脑科学和工程学应相互交叉的洞见,促进了后来认知科学的大发展。

今天先写到这里,明天和大家说说,达特茅斯会议以及人工智能学科的初步建立,然后给大家介绍接下来的那些人工智能大神的故事。

感谢您的阅读。明儿见。

https://mp.weixin.qq.com/s/57bYIzx5zS5VC08utRfU8A编辑:邢海波



12#
发表于 2019-1-29 22:04:28 | 显示全部楼层
【案例】
人工智能简史之二[color=rgba(0, 0, 0, 0.298039)]宋胖 [url=]宋胖说事儿[/url] [color=rgba(0, 0, 0, 0.298039)]今天

上一次,和各位老师说了人工智能技术的孕育期的理论研究发轫。今天和各位聊聊创建期的故事。

孕育期:1900-1956年

创建期:1956-1680年

高峰期:1980-2010年

展望期:2010-今

以图灵为代表的数学大神们铺平了理论道路,以诺依曼为代表工程师们踏平了技术坎坷,计算机已经呱呱坠地的时候,人工智能终于横空出世,而这一伟大的历史时刻却是从当时看来,一个不起眼的会议开始的。

1、达特茅斯会议

1956年8月,在美国汉诺斯小镇的达特茅斯学院,约翰 .麦卡锡、马文.闵斯基(人工智能与认知学专家)、克劳德.香农(信息论之父),艾伦.纽厄尔(计算机科学家)、郝伯特.西蒙等科学家聚在一起,开了一个务虚会。即使今天看来。这个会的主题也好像非常无厘头:用机器来模仿人类学习以及其他方面的智能。

这个会足足开了俩月,天天争吵,没有达成任何普遍共识,唯一的共识,就是造了一个词儿 人工智能(AI)。

1956年,也被称为人工智能元年。

2、会后的思想大爆炸

这次会议之后,人工智能的相关理论几乎是井喷式发展。很多领域在那次会议的务虚之后取得大突破。

(1)机器证明

定理的机器证明,通俗而言就是用计算机程序代替人类进行自动推理,以证明数学定理。这是人工智能最先突破的领域。

在达特茅斯会议上,纽厄尔和西蒙已经开始在这个方面展示他俩的心肝宝贝 :一个叫逻辑理论家的小程序。这个程序当时已经可以独立证明出《数学原理》一书的38条定理,到了1963年,可以证明52条定理。

1958年,美籍华人王浩(也是个大神,以后有机会和大家细说)在IB的704计算机上用了不到不到5分钟,就证明了《数学原理》的全部220条定理。

1958年, IBM宣布研制出了可以证明平面几何的定理证明程序。

1976年,凯尼斯.阿佩尔和沃夫冈 哈肯利用人工与计算机混合的方式证明了著名的数学猜想:四色定理。这个定理说,对于任意的地图,最少仅用四种颜色就可以对所有不同国家进行染色,且任意两个相邻的国家不会重色。尽管命题很简单,但证明起来异常繁琐,配合着计算机的超强的枚举和计算能力,阿佩尔和哈肯把这个猜想证明了。

(2)机器学习

这是人工智能突破的第二个领域。在1956年的达特茅斯会议上,阿瑟.萨缪尔展示了他在1952年发明的一个跳棋程序,这个程序奇特的地方是具有自学能力,可以不断的通过比赛积累跳棋技巧。1959年,跳棋程序打败了她的设计者萨缪尔本人,1962年,这个跳棋程序打败了美国康涅狄格州的跳棋冠军。对于这个研究领域,萨缪尔起了一个名字,交机器学习。

(3)模式识别

人工智能突破的第三个领域是模式识别。

1956年奥利弗.萨尔福瑞德鼓捣出了第一个字符识别程序。

1957年,纽厄尔和西蒙开始研究不依赖于具体领域的通用问题求解器,即GPS (general problem solver)。

1963年,詹姆斯.斯拉格发表了第一个符号积分程序,该程序可以将任意一个函数表达式,转化为积分表达式。

1968年,斯拉克的符号积分运算程序完成了升级,已经可以达到美国顶尖专家水准。

3、高兴的太早了

幸福来的太快,人工智能学家们有点晕晕乎乎,开始畅想人工智能的美好未来了。

1958年喝了二两的纽厄尔和西蒙吹牛逼,说,不出10年计算机将会称为世界象棋冠军,证明所有的数学定理,谱出优美的音乐,按照真阳的趋势,人工智能到2000年将会全方位的超过人类。

然后,残酷的现实和当世这些年少情况的人工智能科学家开了一个玩笑。

1956年,机器定理的研究路径开始遇到瓶颈,计算机推倒了上完步也无法证明,两个连续函数的和仍然是连续函数。

而萨缪尔的跳棋程序也变成了“伤仲永”,永远停留在坑涅狄格州冠军的水平,无法再进一步战胜世界冠军。

出了机器定理,机器学习,人工智能在模式识别领域也遇到了瓶颈。对于人类自然语言的理解,一直是人工智能要啃下的硬骨头。但是计算机在自然语言的理解和翻译中,表现的非常糟糕。一旦涉及跨语言翻译。比如,英译中,再译回英,前后两个英文文本的意义完全对应不上。

此时,有人开始挖苦那些从美国政府拿了巨资搞机器翻译的科学家人们。说他们,花了纳税人2000万元,搞出了一个弱智儿童一样的翻译程序。

这时,人工智能科学家们开始思考残酷的现实,越来越多的瓶颈以及不利的证据,让政府和大学开始大幅削减人工智能的项目经费。人工智能技术的发展,进入了沉寂的冬天。达特茅斯会议上吹牛逼的科学家们,终于认识到,人工智能的发展没有那么顺风顺水,必须停止吹牛逼,静下来冷静思考了。

4、知识工程领域的突破

经历了短暂的挫折之后,人工智能研究者开始重新上路。新一代的人工智能科学家开始脱颖而出。其中,扛大旗的当属 爱德华.费根堡姆(1969年出生)。(主义别弄混了,一共有三费根堡姆,一个是1920年出生的阿曼德费根堡姆,这是个管理学家;一个是1944年出生的物理学家;今天这个是人工智能科学家。)

费根堡姆认识到,传统的人工智能之所以会陷入僵局,是因为太过于强调通用求解方法的作用,忽略了具体的知识,仔细思考人类的求解过程会发现,知识每时每刻都在发挥重要的作用,因此人工智能必须引入知识变量。

费根堡姆沿着这个思路,研究出了第一个专家系统。什么是专家系统?就是一个知识工程程序,通俗的说就是利用计算机化的知识,进行自动推理,从而模仿某个领域专家解决问题。

第一个成功的专家系统叫DENDRAL ,是1968年被造出来的,他可以根据质谱仪的数据推知物质的分子结构。

有了第一个,就有第二个,第三个。此后各式各样的专家系统陆续涌现,最后形成了一种软件产业的全新分支——知识产业。

1977年,在第五届国际人工智能大会上,费根鲍姆用“知识工程”称呼这个全新的领域。机器或者程序,也可以拥有知识,就这样,人工智能往前又走了一步。

在知识工程刺激下,日本的第五代计算机计划、英国的阿尔维计划、西欧的尤里卡计划、美国的星计划和中国的863计划陆续推出。虽然这些计划并非都是针对人工智能的,但是人工智能都是这些计划的重要组成部分。

但是阳光之后是风雨,在专家系统,知识工程获得大量的科研成果之后,弊端开始显现了出来。这就是知识获取难题。当时,大部分人工智能程序所需知识是由专业程序员手工编入程序的,如何从应用系统层面,让机器自动获取知识,成为一个大难题。面对这个困难,新的“费根鲍姆”没有出现,就在这个知识获取技术面前,人工智能发生了大转变,并最终分化成影响今天的的三大学派:符号主义,连接主义,行为主义。围绕究竟从何种角度获取知识,成为人工智能学科大分裂的开始,关于分裂之后的学科图景,咱们下回再说。

预知后事如何,请关注人工智能简史之三:三龙戏珠——人工智能发展的鼎盛时刻!

https://mp.weixin.qq.com/s/LsogZABZTNWCS5b3mF5iZA编辑:邢海波





13#
发表于 2019-1-30 22:15:29 | 显示全部楼层
【案例】

吴靖:“算法”具有自由意志吗?[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]吴 靖 [url=]中国出版[/url] [color=rgba(0, 0, 0, 0.298039)]今天

  摘要  
文章通过2018年几个有关“算法”和平台经济的负面新闻,讨论算法霸权背后的资本逻辑和技术中心主义。“算法”和“人工智能”在具体的社会经济生活中角色的加强到底意味着什么,与人类社会现有的传统伦理,产生了怎样的冲突和重塑的关系。既然新的基于算法的平台科技已经代表着人类传统生活方式的重新组合和创造性改革,我们需要思考如何在数字化与社交媒体的时代重新激活公共领域的理想与实践,让公众提供与新科技共处体验的不同面向,并且相互交流,才可能更全面地思考人类与“算法”共处并且“驯服”算法的方式。

原文刊登于2019年2期
原题为“算法”具有自由意志吗?——算法主导社会行为背后的几个悖论

20世纪中叶以来,“人工智能”一直被认为是人类科技的前沿领域,一旦有所突破,就具有改变人类历史的力量。20世纪60年代,“人工智能”与“空间技术”和“能源技术”并称为人类三大尖端技术,而到了21世纪,其他两项变成了“基因工程”和“纳米科学”,“人工智能”却又一次上榜,成为科技新浪潮的代表性技术。2016年,随着阿尔法狗大战人类围棋顶级高手的耸动新闻的热议,“人工智能”的话题从小众的尖端科技领域进入到了大众文化,人们开始讨论现实中可以实现,或者不久马上会实现的人工智能应用,而不是未来主义畅想中的缥缈景观。在机器轻易挑战了不久前还被认为是很难挑战的人类智慧高峰围棋的时刻,人类舆论充满了对人工智能即将碾压人类熟知的一切的期待与恐惧。但是总的来说,在两年前沸腾的人工智能舆论中,乐观主义成为主旋律。人类憧憬着新科技能够解决当下世界的结构性问题,感慨人类主体性可能会消退,半期待半担忧地讨论着机器全面取代人类劳工的场景。
然而到了2018年,关于“人工智能”的新闻虽然继续接二连三,但是风向却出现了巨大的转变。首先用词更加接地气了,“算法”替代了“人工智能”这个大而无当的概念,更明确指明了这一新科技发展的核心原理,那就是由计算机来模拟某些人的思维和智能,通过“算法”来实现在存在一定的输入的条件下,由计算机来完成特定功能的输出,替代或增强人类的某些决策任务与能力。另外,新闻所涉及的行业也更加具体,并不是还处于科学游戏和实验状态的“下围棋”,而是进入到自动驾驶、社交媒体和共享经济平台这些大量依靠“算法”才能成立的新技术与经济实践之中。我们可以从这些已经发生的事故和争议中,去讨论“算法”和“人工智能”在具体的社会经济生活中角色的加强到底意味着什么,以及与人类社会现有的传统伦理都产生了怎样的冲突和重塑的关系。
本文将从几个近期有关算法的新闻事件入手,讨论算法主导下的社会与经济行为在伦理层面的悖论和困境。

平台经济的算法依赖
与伦理导向

对平台经济算法问题的讨论基于滴滴顺风车的系列丑闻。滴滴平台的顺风车业务接连爆出多起抢劫、强奸、杀人的恶性案件,引发舆论危机。以滴滴为代表的“共享经济”,在2010年前后成为创投市场的宠儿。滴滴出行作为一家2012年才成立的创业公司,先后完成20轮融资,金额总量超过200亿美元,成为全球融资金额最大的未上市公司。[1]滴滴用巨大的融资额通过对出租车和网约车司机以及乘客进行补贴的方式,先后击败和收购了快的、优步等国内国际的网约车平台,获得了在中国市场的垄断地位。在引发众怒的系列恶性案件爆发之后,舆论和交通管理部门都指出了滴滴因为垄断而导致的傲慢、管理散漫和对顾客投诉与政府管理回应缓慢等问题。然而,除了垄断、管理不善和资本逐利本性这些所有企业都有可能存在的问题以外,滴滴公司作为平台经济代表的运营模式,也是造成出租车行业在劳工、服务、安全等方面问题的重要原因。
滴滴之所以能够在很短时间获得大量融资、垄断出租车以及网约车的市场,并且在很长一段时间以来一直获得政府相对宽容的管理政策,是因为类似的平台企业以通过算法可以优化交通资源配置,并且将私家车的闲置运输能力和乘客的特殊需求进行匹配,作为科技创新企业对新经济和社会做出巨大贡献的理由。“算法”在这种平台经济的模式中,被当作促进信息流通和资源高效配置的科技解决方案。在传统出租车行业服务缺陷和城市交通拥堵的大环境下,加上早期平台企业的大规模补贴政策,民众和司机都迅速被吸纳到滴滴平台之上,接受滴滴APP通过算法来调节和指挥的打车服务。另外,与传统出租车企业所不同的是,滴滴是一家轻资产的公司,它并不拥有出租车,也并不雇佣司机,不需要对固定资产以及员工福利、培训和保险进行很多投入,但是又可以因为垄断了顾客对车辆需求的信息而从司机的劳动中获得提成。滴滴与司机之间,并没有稳定的劳动关系,它实际上也并不能够承诺或者保证在自己的营销广告中所宣称的,对于乘客来说优越于传统出租车行业的各种服务。这些只是基于对互联网世界资源以及人际关系最优匹配的神话般的社会想象。在现实中,无论是司机还是乘客,都会因为没有稳定的角色期待、职业标准、工作经验和责任认定,而遇到各种各样的风险和问题。滴滴作为平台企业,最大的利益诉求就是维系用户的黏性,维持用户对平台的基本信任,甚至是对平台的依赖。因而对于顾客投诉甚至警方工作进行推诿、拖延,拒绝向政府提供运营数据和车辆信息,出了事故以后整改不到位等等作为,就不仅仅是管理不善的问题,而是滴滴这种类型的平台企业要继续运营下去的系统性做法。平台与劳动者和顾客之间,并没有直接的契约关系和社会关系,平台作为披上科技外衣的“中介”,既具有科技所带有的“客观”“中立”“精确”的光环,又是去人格化、去实体化的,很容易规避人们对“伦理”和“责任”的追问。
不少研究者和观察家都已经指出,从互联网创业大潮中所成长起来的平台企业,或者说“共享经济”,以亚马逊的Mechanical Turk,Uber,爱彼迎(Airbnb)、淘宝、滴滴等为代表,实际上是一种与新自由主义经济模式相契合的“零工经济”。[2]这种模式是建立在一种对中产阶级个体的“创意活动”浪漫化的想象之上,认为人们可以利用“业余时间”(淘宝带货)、使用“空余生产工具”(上下班路上的顺风车、出门度假空置的房屋)、利用自己职业之外的特殊才艺(外语、写代码、制作小工艺品、化妆技巧等),将这些“边角料”的资源和劳动,通过平台和算法的连接,转化成财产性收入,既充分利用了资源、服务了有需求的人,又可以获得额外的收入,并且劳动时间灵活、自主性强。但是,在现实中,新自由主义经济政策导致失业人口增加,灵活就业和不稳定工作成为常态,许多劳动者参与平台经济是作为唯一的收入来源,并非经济收益的锦上添花,而平台企业只有将零散的服务提供者与消费者捆绑在一个更加稳定和垄断的信息环境中,才可能具有可持续的盈利模式。因此,一方面是劳动者与平台之间是陌生人和异化的关系,并不具有传统企业劳动环境所形成的人际关系、职业伦理、工作稳定性和工友之间的相互支持,而另一方面是消费者和零工劳动者在垄断平台的挤压下别无选择,只能通过平台来获取工作和服务。平台算法的主导逻辑是效率和交易的达成,以及快钱的攫取,而并非服务质量的提高和产品的个性化。实际上,平台企业在连接服务提供者和潜在消费者的时候,是无法把“服务质量”这样主观性的变量的评估加入到算法之中的,它们所能做的,就是最大限度地促进交易和完成交易。具体行业的职业水准的提升和产品质量的提高,只能是专注于此的企业来不断改进,不可能由只把产品和服务看成数据和流动性的平台来实施。金融资本主导下的平台经济,不可能具有特定的、稳定的社会伦理。

大数据与传统受众调查

2018年初,英国《卫报》采访了一家名叫“剑桥分析”(Cambridge Analytica)的数据分析公司的爆料人Christopher Wylie,承认公司通过(非法)数据挖掘获得脸书(Facebook)上5000万用户的数据,用来分析用户的日常行为与他们的政治态度之间的关系。[3]英国脱欧公投和美国川普意外当选之后,自由派媒体就一直在调查这些投票的“意外情况”背后,是否有新的心理操控和政治操控技术的影响。以Facebook为代表的社交媒体,早已经成为许多分析家解释西方工业化社会政治公共领域碎片化、代表性断裂、选举政治腐化的众矢之的。这场丑闻还导致了一场为期两天的美国国会听证会,几十名议员对扎克伯格进行了连珠炮似的提问,但是似乎焦点成了Facebook如何防止泄露用户隐私数据的问题。把问题的焦点从数据分析背后所采用的“算法”及其逻辑,转移到了保护数据不外泄给潜在的邪恶力量,这使得舆论偏离了对一个重要问题的探讨:是否数据量足够大,算力足够强,人们的政治行为,比如投票,就一定是可以展示出特定的规律、可以预测并且进行人为干预的?
这个问题并不新鲜,在“大数据”这个概念兴起之前很久,通过定量数据分析,可以对社会成员的行为规律进行总结和预测,就已经成为大规模社会调查——包括商业调查和社会心理调查——所奉行的基本原理了。只不过早期的社会调查是基于特定社会学原理的抽样,而并非完整的大数据。因此,在20世纪的大部分时间,工业化社会的人们对于商业调查、社会态度调查、政治选举调查、舆论调查等几乎充斥了生活方方面面的各类调查已经见怪不怪,并且经常认为它们的结论并不准确,只是一家之言,甚至和算命相比,也精确不了太多,并没有那么容易和阴谋论或者操控选举等想象联系在一起。引发舆论恐慌的,是社交媒体、人工智能、大数据算法这些“全新”的概念,这些概念发端于20世纪60年代的军事工业,建立在对使用大型计算机来模拟和控制复杂系统与战场形势的科学期待之上。[4]因此,基于抽样的早期市场调查和基于大数据的网络时代的社会行为控制,虽然在对人类的主观行为其实是具有客观规律的、是可以预知的这个认识层面,具有根本的一致性,但是两者的区别在于网络科技、信息收集技术和芯片运算速度的指数级发展,导致人们相信一个全面监控、人类被彻底数据化的时代终于到来了。舆论对于Facebook数据泄露事件的恐慌,以及美国国会通过听证和道歉这种政治仪式试图要平复的恐慌,都是来自于对自由意志终于要全面败给人工智能和算法这一深层次的意识形态。
在算法所理解和复制的人类行为模式中,只存在大量的刺激——反应过程的集合,而不存在对于自由意志和伦理自主性的考量。尽管在算法学习中,理论上可以允许无限大的输入,但是无论输入多少变量,自由意志和伦理都是在算法所建构的复杂系统之外的。这一问题在另外一场涉及人工智能机器失败的事件中,得到了更清晰的展示。2018年3月18日,在美国亚利桑那州发生了一场自动驾驶汽车撞死了一个行人的车祸。经过调查,车祸原因在于正处于自动驾驶状态的汽车虽然感知到了前方的物体(行人),但却通过数据库的计算和判断认为那是另外一辆汽车,也在向前移动,因此没有做出任何躲闪的动作。等物体近在眼前仍旧没有移动的时候,自动驾驶的汽车无法做出有效判断,也不知道该做什么动作,于是突然把驾驶权交还给了司机,但是司机在那个时候完全没有思想准备,于是汽车径直撞上了那个“物体”:一位49岁的女性。[5]在人类智能的世界,无论是出于本能、还是出于理性判断,见到不明物体的第一反应应该是降低车速,然后再进一步判断,但是在算法的世界里,“为了安全起见而牺牲效率”可能是一个无法训练的能力,因为这种判断是基于主观判断的选择,并没有唯一的答案,并且不符合机器理性所要追求的精确和效率最大化原则。
基于Facebook数据进行政治行为预测和干预,和通过大数据训练开发的自动驾驶汽车,似乎是算法在两个完全不同领域的应用。但是,如果追究到两种技术体系所依据的基本认识论前提,那就是对于人类行为是出于自由意志和伦理判断的推动,还是来自于复杂输入的刺激——反应模式的判断,我们可以看到两者的认识论都是建立在后者的基础之上,而排斥了自由意志和伦理选择。也就是说,算法在当下一些人类活动领域的渗透,已经不是替代人类活动,或者增加某种活动的效率那么简单的事情了,而是首先对人类行动的逻辑进行了改造,从伦理逻辑和效率逻辑各占一定的比重,改造为效率逻辑和工具理性占据所有的空间,完全排斥伦理逻辑与价值理性,并且进一步在改造的基础上开发出了基于算法的人类行动模式。
早在20世纪30年代,法兰克福学派的批判理论家们在接触了美国式的媒体市场调查之后指出,文化工业总是声称自己在用最先进的调查方法——问卷、心理分析、焦点小组等等——来科学性地理解受众,表明自己给受众生产的标准化娱乐产品是受众自己想要的、需要的。其实,市场细分不过是文化工业生产链条的一部分,是由文化工业精心规划,并且通过营销、广告、市场调查中的心理暗示和分类指引,以及类型化节目的稳定投放,而逐步生产出来的。并不存在“天然”喜欢某种节目的受众,受众的品位和分类,是文化工业的重要产品,是文化工业生产逻辑的结果,而非原因。[6]由此可知,受众市场调查,就是大众传媒时代的“算法”,而社交媒体新技术所带来的,无非是对受众分类投放的更加封闭、影响力更加强大。APP与大众传媒最大的差别,就是我们连手中的遥控器都失去了,一点点放弃了偶尔越过自己的“信息茧房”,到更广阔的世界串一下门的机会。我们在不知不觉中被包裹在一个小宇宙中,与他人近在咫尺,却消费着非常不同的信息和文化,我们的品位、逻辑和价值,被“算法”所塑造和改造,也越来越依赖“算法”而存在。

“算法”治理需要公共领域

既然“算法”的主导权背后是资本和效率的价值体系,也就是哈贝马斯所说的,系统对于生活世界的逐步侵占,那么能够与“算法”主导权进行博弈的,当然就是提倡和培育价值理性与主体间性的公共领域了。在“滴滴”顺风车恶性案件丑闻的舆论之下,笔者接触到了两个小故事,可以算作公共领域和公民行动如何可能贡献于“算法”治理的注脚。第一个故事来自于一位出租车司机,在和笔者聊到出租车与“滴滴”的关系时,司机师傅专门提到一个传统司机的技能,“扫街”,也就是在大街上接招手打车的乘客。他说虽然开着打车软件,但他坚持“扫街”,“不要偷懒,把接到好单的希望都寄托在平台身上,平台就是为了把你捆绑在它那里,开始的时候用一些好的单子来诱惑你,当你失去了‘扫街’的基本技能,想着守株待兔靠平台来派单的时候,你就失去了选择劳动方式和控制自己劳动过程的主动性。平台要的是司机之间的竞争和猜疑,你需要自己掌握劳动技能,否则就只能任人摆布。”第二个故事来自于滴滴顺风车杀人案前一天曾经投诉过同一个司机的女性,她投诉后滴滴并没有及时回应和处理。第二天发生了杀人案之后,她在微博和公共媒体的采访中都表示了“深深的自责”,认为自己如果当时“不畏缩,去报警”,“这23岁的姑娘会不会就不会有事了”。
从这两位普通人身上我们可以感受到公众朴素的价值观和对社会利益的关切,完全可以通过公共领域的激荡、信息的交流和讨论,形成对平台和“算法”非常具体、到位的认识与批评。在涉及企业治理,尤其是新科技企业的治理时,通常我们习惯于所谓“利益相关方”的思维方式,更多由专家、法律代理人和企业代表来参与制定相关政策的讨论。但是,既然新的基于算法的平台科技已经代表着人类传统生活方式的重新组合和创造性改革,我们需要让公众提供与新科技共处体验的不同面向,并且相互交流,才可能更全面地思考人类与“算法”共处并且“驯服”算法的方式。吊诡的地方在于,新技术所带来的传播潜力,在资本逻辑的垄断下,可以导致“算法”霸权与人的本质能力的退化,而在公共领域的价值模式下,又是克服“算法”异化的重要前提。我们需要思考如何在数字化与社交媒体的时代重新激活公共领域的理想与实践。

注 释
[1]2012年成立,多轮融资,收购Uber,滴滴从一开始就是错的[EB/OL].https://www.admin5.com/article/20180831/874032.shtml
[2]Nick Dyer-Witheford, Cyber-Proletariat: Global Labor in the Digital Vortex, Pluto Press, 2015.
[3]Carole Cadwalladr, “‘I made Steve Bannon’s psychological warfare’: meet the data war whistleblower.” https://www.theguardian.com/news ... ok-nix-bannon-trump
[4]Paul N. Edward, The Closed World: Computers and the Politics of Discourse in Cold War America (MIT Press, 1997).
[5]Andrew Smith, “Franken-algorisms: the deadly consequences of unpredictable code.” https://www.theguardian.com/tech ... r&from=groupmessage
[6][德]马克斯·霍克海默,特奥多·威·阿多尔诺.启蒙辩证法(哲学片段)[M].洪佩郁,蔺月峰,译.重庆:重庆出版社,1990

作者简介

吴靖
北京大学新闻与传播学院教授、副院长。本科毕业于清华大学外语系,爱荷华大学传播研究系传播学硕士、博士。主要研究领域为批判媒体与文化研究,传播与媒介技术的社会理论,新媒介技术的社会使用与文化分析,新媒体与创意产业,视觉文化等。曾在Javnost-the public,International Journal of Cultural Studies,《国际新闻界》《新闻大学》《现代传播》《中国传媒报告》等国内外学术刊物上发表文章50余篇。近期的著作是2012年出版的《文化现代性的视觉表达:观看、凝视与对视》。

一直以来,其学术兴趣主要集中在媒介文化研究和批判社会与传播理论的领域。她的研究处于媒介研究中两个方向的结合点:即通过文本分析而进行的意识形态批判和对媒体工业、组织结构、行业规范、历史发展、受众解读等的政治经济学分析的结合。在此基础上,近期的研究一方面深入历史,挖掘媒介与社会的互动历程,钩沉信息社会思想史;另一方面跟踪新媒介技术和社会实践的形成及其对社会文化的影响。


https://mp.weixin.qq.com/s/xxCgc6CigcU1gfhYpUFECA编辑:邢海波


14#
发表于 2019-1-31 21:27:48 | 显示全部楼层
【案例】
江作苏等:成为“被算计”的人,受众如何脱困?[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]江作苏 刘志宇 [url=]中国出版[/url] [color=rgba(0, 0, 0, 0.298039)]昨天

  摘要  
全球传播场景已全面进入“算法时代”,在这个大背景下,几乎所有受众都完成了历史性的转换,成为了“被算计的人”。算法的中性并不与价值观的中性趋同,在其背后隐藏着受众无意识状态下的“超级全景监狱”和“符号暴力”机制,当中的伦理问题冲击着整个传播场域。在从业者与受众都不断触探伦理底线的过程中,关键是要唤醒受众的伦理意识和警惕。

原文刊登于2019年2期
原题为从“单向度”到“被算计”的人——“算法”在传播场域中的伦理冲击

在不久前成都举行的2018年中国传媒经济与管理学术年会上,笔者的学术团队经过长时间研究后提出的一个观点获得了“年度观点奖”。这个观点是:受众已经进入了“被算计的人”场景时代。这种概括性认识不仅基于大量统计数据,而且基于人人都可以感受到的现实,即,在当下数字与算法野蛮生长的时代,每个人都要意识到,在无所不包、无远弗届的网络场景中,只要身处传播场域,几乎每个人都已经完成了各自的历史性转换:在以算法为驱动、以云计算托底、以移动通讯为支撑的条件下,受众已经不知不觉被转化为了“被算计”的人。
新闻传播学界很熟悉马尔库塞的“单向度人”学说。[1]他认为,在后工业时代的大众传媒传播作用下,流行价值观被受众内化为伦理规范,使人们盲目地一味认同,压制了其多向度思考,也就使之失去了突破单向度行为,实施多向度选择的能力。此处的向度(dimension),也可以翻译成方面或维度。观点表述中提到“被算计的人”,其“算计”一词很难找到对应的英文单词。因为“calculate”一词本意是纯数学意义的“计算”,而中文的“算计”一词除数学意义外,还有“刻意追求某种目的”的含义。
当下无处不在的“算计”从大家的日常生活中处处可以感知到,例如“×宝”靠算法精准推送有利可图的商品目录以刺激用户消费、“××头条”据算法推送投受众所好的内容以赚取流量。这种依靠算法对人们的日常动态予以收集察验,再通过“计算”而“算计”千千万万的个人,从而获得商业利益或是影响力的做法,如今已是司空见惯。无论人们主观上如何看待,你我都在客观上进入了“被算计”的场景,而且正逐渐适应这个场景的伦理。

难以逃避的“被算计”:
算法下的伦理困境

不久前,某人收到一张明信片,寄送者是某国驻华使馆的新闻文化处。对方寄这张明信片是为告知该使馆办了40年的一份文化性杂志停办,以后不再寄赠。对方同时表示希望收件者用手机扫描明信片上的二维码,今后可以用在线方式继续向此人推送数字化杂志。这么一件小事,可以引起如下思考。
除了印刷媒体的式微外,印象最深的就是使馆所寄的明信片要求收件扫描其二维码,这就涉及 “算法”和今后是否会“被算计”的问题。暂且不谈该二维码所导向的链接是否安全合法,只要扫码,对方数据库就可以获得该人的手机号码。基于我国手机用户登记实名制的技术前提,对方可以运用社会工程学的各种手段通过手机号码获得姓名、身份证号,进而轻易地运用算法获得该人所有个人信息和社会交往的实时情况,这绝非耸人听闻。
现实空间中的地址可以改变,但数据空间中的坐标却难以修改,收件扫码后只要手机不换号,对方可以将其视为一个移动的信息之窗,随时能全面探知个人动态,而对方几乎没有躲避的可能。
从这件小事引发的思考出发,围绕“世界已经进入了‘被算计的人’场景时代”这个观点,再考察和思考一下我们的伦理与法律环境。当下,中国学术界正在热烈谈论欧盟2018年生效的《一般数据保护条例》,[2]即GDPR,这个条例看似十分严格、细致甚至繁琐,似乎是保护受众不被过度“算计”的法宝,但是深入地进行思考,像GDPR中关于“信息遗忘权”的概念和相关规定有多大的可行性?人们甚至可以怀疑这是一个伪命题,因为像某国使馆文化处对收件人多年以前的一个通信地址尚不会遗忘和删除,那么数据服务商若得到了用户的数据地址和信息会主动忘掉吗?在需要动用的时候会选择放弃吗?这很难做到。
通过数字痕迹追踪场景中的一切人是算法时代的媒介所共有之取向。人们打开网络门户,接受并运用海量信息获取多种便利,这固然是一种享受,但是否要为此付出代价甚至让渡部分权利呢?这是一个罗生门式的问题。很多时候用户一旦提交个人数据,实际上就进入了不可逆的不被遗忘场景,很多难以预估的问题会由此产生。这在行为伦理上的确是两难选择。
用户不可能既要求服务,又不透露个人信息,但用户因透露个人信息而受到某种损害时,又会本能地指责整个算法场景无权收集和“算计”个人信息。这当中的伦理平衡不易做到,所以受众也应当进行计算和算计,算一算自己在获取数据时的得失与选择。从受众意识层面来说,大众媒介伦理素养要升级到更高层次,使受众意识到自己是在一个被时刻“算计”的场景中生存,要评估客体“算计”的动机和目的。有这种认知基础,才能在享受权利的同时做出主动的伦理判断和行为选择。

伦理困境的“天元”:
算计带来的控制机制

时下风行一时的算法推送技术是技术理性与人文理性相结合的产物。而这一产物在智能化场域中对人类最大的冲击,是伦理问题。除了用户的数据安全问题外应当看到,伴随着传播伦理的问题而来的问题已经凸显,例如社会不同群体间的语境阻隔和对受众个人造成的信息茧房效应,这些在新闻传播研究中都已是热门议题。在面对问题时,首先要看到传播场域——即传播伦理发生作用的前提已经发生了变化,算法的“算计”给传播加入了全新控制机制。
算法主导下的传播是真正的控制下的传播。维纳在1948年问世的《控制论》中提出,一切物质存在,不管是天体、生物、机器直到人类社会以至于人的思维过程,都构成一定的“系统”,具有不同形式的控制、反馈功能。[3]这一论点在传播学中运用的基本思想便是运用反馈信息来调节和控制系统行为,达到预期的目的。当下这种算计主导的新系统控制模式,其核心在于个性化的推荐算法,其通过无处不在的收集和运算,为整个传播系统注入高效迅速的反馈。在这种新系统之内,信息环境对人们信息的收集无处不在,且难以察觉。人们在打开各类基于大数据和算法技术的网页和APP接受信息时,便将包含着信息的行为提供给了各类传播主体,供其通过数据算法进行分析,发送反馈。这种由收集、运算、反馈、传播组成的系统控制,构成了“超级全景监狱”和对受众的“符号暴力”。
如美国学者马克·波斯特所言,[4]人们正处于计算机数据库信息模式下的技术性权力格局中,被限制在“超级全景监狱”里。与相对熟悉的米歇尔·福柯之“全景监狱”相比,“超级全景监狱”不像福柯认为的那样是19世纪监视和规训的延伸,而是一种全新的模式。从监视的程度与范围而言,这种监视更加隐蔽而无处不在,权力在这种监视下如毛细血管一般延伸,触及社会的每一寸空间,只要通过技术媒介进行信息活动,随时随地都会被捕捉到数据,并被进行反馈和推送;从监视的建构方式来说,“全景监狱”里尚存在着人的主体意识,而“超级全景监狱”中的主体构建采取“客体化”的相反路线,通过分散的身份、通过连个体都没意识到的身份生产这些个体——简而言之,超级全景监狱里的人们甚至都意识不到自己被“监禁”了。这一概念的描述正是对“被算计”的人们当下处境的生动写照。
除了建构“超级全景监狱”的传播场域外,“算计”在作用机制上构成了对受众的“符号暴力”。由布尔迪厄提出的这一概念指的是统治者在社会行动者本身合谋的基础上,通过符号的权力施加在其身上的暴力。从算法发挥作用的机制来说,受众本身积极迎合“算计”,所谓的“算计”才得以进行。而且受众对于这种监视、控制、灌输仍在一定程度上处在一种不知情的状态,因此也如布尔迪厄所说,这是一种“温和的暴力”。[5]
在“符号暴力”之下,算法带来的“算计”并不是真实的暴力,从传播效果看来也对受众没有造成直接的伤害。但这种“算计”是看不见、摸不着的,信息生产者通过技术手段传播场域中获得了充分的信息生产前提,进而通过符号权力对意义进行任意建构,更加懂得如何迎合受众的好恶,使受众的心智结构呈现为更具有形成性的“惯习”。“通过这种惯习的养成,受众进而呈现出体现于身体而实现的集体个人化,或者是经由社会化而获致的生物性个人的集体化。”[6]这种机制下,符号暴力展现出它的威力,它通过培养“惯习”进而构建出知识场域,影响受众对于社会的经济、政治、文化等各个领域的看法观念,而且通过观察可以看到,依然有大量的用户不曾怀疑过算法的合乎伦理性,大多数人在观念上形成一种“误识”,并不认为这是一种暴力,反而为其辩护,进而加强了符号暴力的威力,在传播场域内形成了一种内闭循环。
通过“超级全景监狱”和操控“符号暴力”的机制作用,信息生产者的这些“算计”主要是为资本服务,致力于吸引受众的注意力,进而将流量变现。当下的新闻平台、信息服务平台、电商平台普遍采用个性化推荐算法,这种控制机制也伴随着与技术手段的捆绑被推而广之,对传播伦理构成了内源性挑战。

当下应对伦理冲击的一般观点

第一种论点提出,如今虽然整个社会从互联网时代进入到移动互联网的时代,但监控的形式和本质依然是以计算机数据库为核心的。伦理问题能不能回归到技术领域,交由算法去解决?例如,世界经济论坛曾发表过一份题为《解除个人信息的价值——从收集到使用》的报告,其主旨在于将管理数据的重心转移到限制使用数据上,呼吁“通过新型技术手段限制使用个人数据能够让个人控制自己的信息安全”。[7]
应当承认,算法是没有“原罪”的,算法是否剥夺了受众的自由不可一概而论。算法带来的伦理问题,指望“解铃还须系铃人”是一条思路,但从当下看来,对于“被算计”的忧虑主要是针对算法被滥用而非算法本身的问题。例如2017年引起轩然大波的美国脸书(Facebook)数据泄漏事件,并不是东方式的禅意过虑,而是西方契约精神失灵的实体焦虑:受众并不知道剑桥公司“算计”其个人数据的目的,而且出于对数据挖掘、智能算法等技术手段的习惯性接受,客户甚至不知道自己在受到某种影响和控制,被置于一种无意识的被监控状态。这种伦理缺位带来的伤害并非单纯是技术对人的伤害,更多的是人对人的伤害,要从算法出发用技术手段去进行修正显然是勉为其难。
那么,从第二种论点出发,是否可以期待业界与学界联手,针对算法的开发与应用从伦理、道德或是法律层面拿出具有公信力的成文约束方案呢?当下,比较有代表性的是张超从伦理学视角出发提出的将传统的新闻伦理与新兴的技术伦理相结合的方案,认为新闻生产的算法责任伦理体系当中应包括以下原则:公平、准确、透明、可解释、可审计、责任。[8]此外,类似的还有邱仁宗等从大数据的伦理风险出发提出的“基本目的、负责研究、利益冲突、尊重、隐私、共济、公正、透明、参与”系列原则等多种方案。[9]这些方案各有侧重点,但基本精神相近,且从限制当下的“算计”出发来看均具有一定的合理性和操作性。不过,从当前行业发展情况看来,互联网技术和数据技术距形成成熟业态尚存在距离,此时期望有一种与实践步伐相适应的、通用的、完美的传播伦理直接拿来运用,实际上很难,且不说这套伦理规则还需要用公允和完美的文本形式表达。
即便如马云这样的业界前沿人士,也认为当下正处于互联网的黎明时期,下一步全球行业还需要紧追从IT走向DT(Data Technology)的大趋势。[10]在互联网行业和数据行业尚不成熟的前提下,期望制定出一整套严密完备的法律和规定来约束从业者行为,亦是一种良好愿望,但是操作时空尚不匹备。此时从业者和受众都还在探底,这就如同正在刮着飓风的海面上,实时的船舶状态没有办法固定描绘和控制,只有驶入相对稳定的海区后才有可能。
因此,要在当下解决这种“被算计”给人带来的损害和焦虑,仅靠技术手段、简单规制手段是难以做到的,要得到解决必须从受众心理的角度入手,建立起伦理上的警惕性。

伦理冲击下的当务之急:摆脱无意识

世界经济研究领域存在中等收入陷阱(Middle- Income Trap)现象,指发展中国家在经济发展过程中面临重重阻力,特别是从落后国家进入中等收入国家以后有可能失去发展动力,陷入长期经济停滞。[11]将此概念移植到传播领域、媒介形态上来讲,在当下这个互联网行业的黎明时期,人类也可以说正处于广义的信息中等收入状态。整个人类社会,包括某些自诩甚高的网络强国,都要警惕这种状态下的伦理认知混乱。
伦理学研究发现,当下这个时期社会的伦理困惑往往是与经济上的中等收入陷阱相伴生的。中等收入陷阱内的人们急切地想增加财富和跳出陷阱,对一切并不一定具有资源秉赋基础,或者超出承受范围的激进变革和公共产品,一概采取民粹主义的态度,盲目冒进。如同消化不良者往往不检点自己的饮食方式而一味怪罪食物的品质一样,结果是付出了大量社会资源的代价而收益却并不理想。眼里只看得到算法而看不到“算计”是大部分人面对伦理抉择时给出的答复。
通过理论分析可以发现,无论是“算计”背后的作用机制“超级全景监狱”、“符号暴力”抑或是“中等收入陷阱”驱动下的民粹心态,其产生伦理风险的根本要素在于无意识。受众面对“算计”时,沉溺于这种无意识而缺乏伦理上的警惕性将可能使其行为受到影响乃至精神被控制。要打破这种伦理困境,最首要的是帮助受众建立伦理警惕,摆脱无意识状态。从操作层面上来说,对受众进行伦理教育并不难,但其前提是学界和业界意识到其重要性,通过擦掉算法推送的表层色彩,兑现受众知情权、复苏其伦理意识,使其主动避免成为“单向度的人”,并能够判断和认清自身的选择与行为是否符合自身的伦理认同。

结语

“算法”看似客观中立,“算计”本身也并不邪恶,但其规则是人为所制定,所以这一新兴的传播机制不可否认的具有偏向性。简而言之,即“算法中性”与“价值中性”并非是趋同的。虽然大多数经由算法推送的信息,人们常规上都选择很大程度去相信它,但这不等于受众不再需要有伦理的底线意识,不意味着独立人格不再有价值。面对算法,除了“尽物之性”外,也要兼顾“尽人之性”,践行“尊重和认同人的内在价值”这一人类伦理的出发点。

注 释
[1]赫伯特·马尔库塞.单向度的人[M].上海:上海译文出版社,2016
[2]《一般数据保护条例》(General Data Protection Regulation,简称GDPR)为欧洲联盟的条例,前身是欧盟在1995年制定的《计算机数据保护法》,于2018年5月25日在欧盟成员国内正式生效实施。该条例的适用范围极为广泛,任何收集、传输、保留或处理涉及欧盟所有成员国内的个人信息的机构组织均受该条例的约束。
[3]熊澄宇.传播学十大经典解读[J].清华大学学报(哲学社会科学版),2003(5)
[4]张金鹏.超级全景监狱:信息方式下的权力技术——波斯特论信息方式下的统治模式[J].南京社会科学,2007(8)
[5]尚帅.传播的兴趣偏向和浑然不觉的符号暴力——基于《今日头条》的算法控制研究[J].现代传播(中国传媒大学学报),2018(10)
[6]毕芙蓉.文化资本与符号暴力——论布迪厄的知识社会学[J].理论探讨,2015(1)
[7]宋吉鑫,魏玉东,王永峰.大数据伦理问题与治理研究述评[J].理论界,2017(1)
[8]张超.新闻生产中的算法风险:成因、类型与对策[J].中国出版,2018(13)
[9]邱仁宗,黄雯,翟晓梅.大数据技术的伦理问题[J].科学与社会,2014,4(1)
[10]马云.两岸企业家峰会上的讲话[EB/OL].http://tech.sina.com.cn/i/2014-12-15/doc-iawzunex6503537.html
[11]蔡昉.“中等收入陷阱”的理论、经验与针对性[J].经济学动态,2011(12)



作者简介

江作苏
华中师范大学新闻传播学院教授、博士生导师、高级记者;武汉大学博导。研究方向为媒介伦理与新闻实务,目前在核心期刊发表学术论文50余篇,出版著作20余部,围绕“责任造就公信力”和“传播即伦理”等学术观点,开展了广泛和深入研究。
1982年毕业于复旦大学,中央党校研究生,曾任湖北日报传媒集团董事长。中国最高新闻奖——“长江韬奋奖”获得者(第七届,2006年),获得首届“全国百佳新闻工作者”(1995年)称号,国务院特殊津贴获得者。湖北省劳动模范,省有突出贡献中青年专家,湖北省首届政府出版奖获得者,被评为全国新时期传媒领军人物。

刘志宇
华中师范大学新闻传播学院硕士研究生,主要研究方向为文化传播、媒介伦理。


                     编辑:邢海波


15#
发表于 2019-2-1 13:03:39 | 显示全部楼层
【案例】
【感谢今日头条,让我找到了失散多年的老朋友!】今天,今日头条发布《找到》,声称帮助用户找到了多少亲人朋友。看完深有同感!因为,过去一年多来,今日头条也帮我找到了失散多年的老朋友:今日头条推荐“你可能认识的人”,里面既有家人、微信好友,也有手机通讯录联系人(比如少林寺方丈释永信),还有我多年未联系的老朋友。而我并未向今日头条开放手机通讯录、微信好友访问权限。今日头条是怎么获取我的关系网的?难道都是今日头条“算”出来的?

编辑:陈心茹



16#
发表于 2019-2-1 22:13:02 | 显示全部楼层
【案例】

学术探索|李建华:走向善治—《国家治理与现代伦理丛书》序
三思斋主  李建华道德观察  2019-02-01

众所周知, 治理并不是一个新名词,从词源上说,英语中的gover-nance一词源于拉丁文和古希腊语, 原意是控制、引导和操纵,长期以来它一直与goverment一词交叉使用,并且主要用于与国家的公共事务相关的管理活动和政治活动中,自从世界银行在《1989年世界发展报告》中首次使用了“治理危机”,许多国际组织和机构开始在其各种报告和文件中频频使用它,政治学、经济学和管理学等学科纷纷引入治理概念,赋予了治理丰富的含义。概括起来, 它大致包含如下几层含义:作为最小的国家管理活动的治理;作为公司管理的治理;作为新公共管理的治理;作为善治的治理; 作为社会控制体系的治理;作为自组织网络的治理; 如果从重要性角度而言,现代社会的当务之急是国家治理,抑或国家治理体系和治理能力的现代化。
国家是一种特殊的伦理实体,其治理离不开伦理的考量。把伦理(Sittlichkeit) 与道德(Moralitat)区分开来,是黑格尔的一大发明,并且他首次将伦理置于道德的自由意志发展的最高阶段。在伦理阶段, 道德的内在意识发展为社会习俗、内在个人尊严和独立人格得到外部法权制度的保障。 伦理就是主观的伦理习俗和客观的伦理实体的结合, 家庭、市民社会和国家就是主要的三种伦理实体。 “ 伦理实体” 是黑格尔伦理思想中的一个核心概念,是价值合理性的最终依据,也是把握伦理关系和伦理秩序的关键所在。 他借助于“实体” 这样一种形而上的、具有世界本原意义的辩证表达, 认为“ 绝对精神” 就是“ 实体”,而实体是自因性的、不依赖于他物的, 并且实体又因是自主变化运动的而成为“具体的实体”,家庭、市民社会、国家就是伦理作为主观与客观统一物的真理性存在。 黑格尔认为, 伦理实体要由家庭经过市民社会再到国家这种最高形态, 虽然家庭和市民社会也是伦理共同体,但都是“ 单个人” 的“集合”,只有国家才是必然性和普遍性的产物,才是最优的伦理实体。
那么作为伦理实体的国家, 在其实现性上又与伦理有哪些纠缠呢? 换言之, 国家具有哪些伦理上的特殊性呢?
国家就是真实的自由。在黑格尔哲学中,自由贯穿抽象法、道德和伦理各个环节,作为抽象法和道德的统一与真理环节,伦理是“作为实体的自由不仅作为主观意志而且也作为现实性和必然性的实存”。 国家作为伦理实体消除了个别与整体、特殊与一般、个人与社会的对立, 是一种普遍实现了的自由,是消除了个人任性的自由, “自由的理念中只有作为国家才是真实的”。 所以国家是实现普遍自由的“ 家园” 和依托, 或者说, 只有在国家这样的政治共同体中才有真实的自由
国家就是伦理精神。伦理是实体性的普遍物,国家环节的自由又是一种实体性自由,而自由之所以只在国家环节是真实的,是因为国家是实体性伦理精神的最高体现。国家是伦理理念的实现———是作为显示出来的、自知的实体性意志的伦理精神,这种伦理精神思考自身和知道自身, 并完成一切它所知道的,而且只完成它所知道的。” 可见, 国家体现的是一种普遍性的整体主义精神,是个人利益的普遍化。
国家就是伦理秩序。黑格尔认为, 只有在国家这种伦理实体中, 在抽象法和道德阶段所认定的权利、义务关系才从主观变成了客观、从偶然变成了必然,这不仅仅是主观应该, 而且是主观应该与客观现实的统一。 权利与义务相结合的概念是最重要的规定之一,并且是国家内在力量所在,所以国家的伦理秩序就是权利和义务的统一。
国家就是集权主义理念。 由于国家代表普遍化的利益, 并且对市民社会的个人权利主观化、个别化产生影响,这必然导致一种超国家主义的政治主张———集权主义。黑格尔对国家这一政治共同体伦理特性的阐发,给了我们深刻的启示: 国家不仅是权力载体,而且是伦理实体,国家的治理离不开伦理的引导与规范。
国家治理的最高价值目标, 就是基于伦理维度的“ 善治”。人类社会发展到今天, 社会管理模式发生了实质性的变化, 由政府或国家“统治” (Government) 向社会“治理” (Governance) 的转化就是其中之一。“治理” 与“统治” 从词面上看似乎差别不大, 但其实际内涵存在根本上的不同。不少学者认为,区分“治理” 与“统治” 两个概念是正确理解治理的前提条件, 也是理解“什么是善治” 的关键。治理作为一种政治管理过程,同政府的政治统治一样与权威、权力不可分割, 其最终目的也是实现社会秩序的和谐与稳定,但二者是存在明显差异的。 其差异主要表现在两个方面:
第一,统治的权威必定是政府, 而治理的权威并非政府机关;统治的主体一定是政府的公共机构,而治理的主体既可以是公共机构,也可以是私人机构,还可以是公共机构与私人机构的合作。所以“治理” 是一个比“统治” 更宽泛的概念。 在现代社会中, 所有社会机构如果要高效而有序地运行,可以没有政府的统治,但绝对不可能没有治理。
第二, 管理过程中权力运行的向度不一样。政府统治的权力运行方向是自上而下的,是单一向度的管理;而治理则是一个上下互动的管理过程, 其实质是建立在市场原则、公共利益和认同基础之上的合作。 这就说明,我们今天的德治不是基于“统治” 的理念, 而是基于“治理” 的理论视野,其最终目的是实现“善治”。
尽管西方的政治学家和管理学家在看到社会资源配置过程中市场和政府的双重失效之后, 极力主张用治理取代统治, 因为治理可以弥补国家与市场在调控过程中的某些不足, 但他们同样认识到了治理本身也有失效的问题。 既然治理也存在失效的可能, 那么现实而紧迫的问题是如何克服治理的失效或低效。 于是, 许多学者和国际组织纷纷提出了“元治理” “有效的治理” “健全的治理” 和“善治” 等概念,其中“善治”理论最有影响。
自从有了国家及政府以后,善政(good goverment,可直译为“ 良好的政府” 或“良好的统治” ) 便成为人们所期望的理想政治模式。在西方,由古希腊的“国家是有德者的共同体” 到现代的“国家是正义的共同体”,它们都显示出对善政的期望。在中国传统政治文化中, 善政的最主要意义就是能让官员清明、公正和廉洁,各级官员像父母对待自己的孩子一样热爱和对待自己的子民,没有私心, 没有偏爱,古今中外的思想家们对善政的理解,包括如下要素: 严明的法纪、清廉的官员、高效的行政、良好的服务。这种善政主要是人们对政府的期盼,或者说是一种政治理想,至于能否真正实现“ 良好的统治”,要看政府或国家本身。从“理想国” 到“ 乌托邦”,从“ 大同世界” 到“ 世外桃源”,它们都表达了人们对善政的苦心期待。但是这种善政在政治理想中的独占地位自20世纪90年代以来在世界各国日益受到了严重的挑战, 即来,自“善治” 的挑战。
“善治就是使公共利益最大化的社会管理过程。 善治的本质就在于它是政府与公民对公共生活的合作管理,是政治国家与公民社会的一种新颖关系, 是两者的最佳状态。”善治不仅仅意味着一种新的管理理念,而且是一种新的与善政不同的政治运作模式。它是一种建立在市民社会基础之上的、具有不同于传统社会管理方式特性的全新的社会治理方式, 善治的特性在国家治理中主要表现为应遵循如下基本原则。
认同性原则
它不是指法律意义上的强制认可, 也不是宗教学意义上的盲从,而是政治学意义上的合法性,即标示社会秩序和权威被人们自觉认可的性质和状态。政府的权威和秩序无论其法律支撑多有力, 也无论其推行措施多强硬,如果没有在一定范围内被人们内心所体认,就谈不上合法性。并且公民体认的程度越高,合法性就越大,善治的程度便越高。 取得和增大合法性的主要途径是尽可能增加公民的政治认同感, 所以,是否是善治,首先要看管理机构和管理者在多大程度上使公共管理活动取得了公民的同意与认可。我们的治国方针政策得到广大人民群众的认同与支持,是社会主义德治的最终目标。
责任性原则
它是指社会管理机构及其个人应当对自己的行为负责, 要尽相应的义务。 责任性意味着管理机构和管理者个人必须忠实履行自己的职责和义务,否则就是失职, 就是没有责任性。责任性越大,善治程度就越高。正因为如此, 现代社会人们越来越重视政治阶层的道德责任问题,马克斯·韦伯就曾在他的名为《作为职业的政治》 的著名演讲中提出政治领域中“意图伦理” 和“责任伦理”,前者不考虑后果,后者则要求行为者义无反顾地对后果负责任,政治家应当遵循的是责任伦理而不是意图伦理。赫尔穆特·施密特甚至认为,对自己的行动或者不行动的结果承担责任,其前提首先是承担在确定目标方面的责任。“政治家的目标以及实现目标的手段和途径不能同他所接受的伦理基本价值产生冲突, 缺乏基本价值的政治必然是没有良知的政治,是在道德方面无所顾忌的政治, 并且会趋向于犯罪。”
法制性原则
这里“法治” 的基本意义是, 法律是政治管理的最高准则,任何政府官员和公民都必须依法行事,法权高于一切,在法律面前人人平等。 法治的直接目标是规范公民的行为,管理社会事务,维护正常的社会生活秩序。 但其最终目标在于保护公民的民主自由权利, 不但要使参与契约的双方都能从利益交换中公平得益, 也要以不损害社会公共利益为前提。 因为在一个摆脱了身份关系的社会中, 契约行为应当以平等的自由精神为要旨,社会公共利益正是他人自由权利的集中表达,所以维护社会公共利益正是对平等的自由这一契约行为的灵魂守护。而要维护公益不能没有国家强权, 不能没有法治,法治“不是一种关注法律是什么的规则(a rule of the law), 而是一种关注法律应当是什么的规则,亦即一种‘元法律规则’ (a meta-legal doctrine) 或一种政治理想”。 所以,法治既规范公民的行为,更规范政府的行为,法治内生着民主自治的社会伦理要求, 同时法治也是善治的基本要求, 没有健全的法治,就没有善治。
透明性原则
这里主要是指政治信息的公开性,即政府在决策过程中应该公开、公正。 因为在现代法治社会中, 每一个公民都有权获得与自己的利益相关的政府政策信息,包括立法活动、政策制定、法律条款、政策实施、行政预算、公共开支及其他有关的政治信息。透明性原则要求上述政治信息能够及时通过各种大众媒体为公民所知,以便使公民能有效地参与公共决策过程,并且对公共管理过程实行有效监督。 透明性标示着一个社会的民主化程度, 也反映了市民社会的成熟程度,因为在市民社会中,每个成员都不是在被胁迫或强迫的情况下,而是根据自己的意愿或自我判断参与或加入某个社会群体或集团的事务或决策。政府以高度尊重个人的选择自由为前提, 而个人又以对政府高度信任和负责的态度参与决策,这种双向的透明其重要意义在于,一方面可以使政府养成对人民负责的态度,另一方面可以使公民养成自我管理的习惯。一个社会的透明度越高, 善治程度也越高。
有效性原则
这里是指管理的有效性。 它包括两方面的含义: 一是指管理机构设置合理,管理程序科学,管理活动灵活;二是最大限度地降低管理成本,人类管理根源于“ 自然资源普遍稀少和敌对的自然环境” 与人类需求的矛盾。由于资源是稀缺的,不可能无限制地满足人的需要,由此而形成管理组织, 行使管理职能,以便有效地获得、分配和利用自然资源来实现某个目标。 因此, 追求有效性必然成为社会管理最基本的内在规定, 有效性也是衡量社会治理水平的重要标准。 善治与无效或低效的管理活动是格格不入的, 管理的有效性越高, 善治程度也越高。这同时也说明,一个无效或低效的政府, 一定是一个缺德的政府。
基于国家治理与现代伦理的内在关联, 我们从政治伦理、经济伦理、文化伦理、社会伦理、生态伦理、网络伦理六个方面组织了这套研究丛书, 这绝非一种任务式的科研使然, 而是我们湖湘伦理学人对国家治理体系和治理能力现代化这一国家重大战略的理论自觉和伦理表达。
丛书介绍
“国家治理与现代伦理丛书”紧扣国家治理的主要方面和重大伦理需求,全景呈现了国家治理的伦理图式。丛书包括《国家治理与政治伦理》《国家治理与经济伦理》《国家治理与文化伦理》《国家治理与生态伦理》《国家治理与社会伦理》《国家治理与网络伦理》6册,立足于国家治理体系和治理能力现代化这一当代中国的宏大主题,深入分析国家治理从传统向现代的转型,以及在转型中遇到的主要政治伦理、经济伦理、文化伦理、生态伦理、社会伦理与网络伦理问题,发挥蕴含于国家治理中的基本伦理关系、主流价值诉求及其善恶研判标准的伦理秩序功能,建构一种与社会主义市场经济、法治国家和民族精神的发展相适应的、满足人民幸福生活需要的社会伦理秩序。
李建华,哲学博士,教育部“长江学者”特聘教授(2009年),国务院学位委员会第七届学科(哲学)评议组员,浙江师范大学特聘教授,中南大学博士生导师,从事伦理学专业教学与研究三十多年,著述丰富,目前兼任中国伦理学会副会长、湖南省伦理学会会长、中国伦理学会青年工作者委员会名誉主任、民间智库——“湖湘伦理学研究院”发起人之一。
编辑:陈心茹

17#
发表于 2019-2-1 22:19:38 | 显示全部楼层
【案例】
人工智能及其社会化应用的现状和未来——《全球传媒学刊》就社会化智能信息服务专访孙茂松教授
原创: 孙茂松,金兼斌  全球传媒学刊  1月8日

作 者
孙茂松:清华大学计算机科学与技术系教授
金兼斌:清华大学新闻与传播学院教授

摘要
    人工智能技术在快速向前推进的同时也给社会结构与日常生活带来巨大影响,激发起关乎人类生存、社会秩序、价值存续、科技伦理等议题的讨论。人工智能带来的深层次社会影响需要予以审慎思考。作为我国人工智能领域的专家,孙茂松教授如何看待跨学科领域合作对人工智能研究的价值?如何解读现阶段人工智能水准与适用边界条件?人工智能技术在内容生产、信息分配、系统建构等领域的应用是否会给社会结构形态、文化景观带来深层效应?兴趣驱动下的人工智能产品研发有何意义?本访谈通过与孙茂松教授的对话,对以上问题予以较为详细的阐释。
关键词
人工智能;中文自然语言处理;适用性质;内容产消;自动诗歌创作
近年来,随着智能算法推荐在购物、内容生产、消费、社交乃至自动驾驶、智能家居等领域应用的深入,人们已经切实感受到人工智能对我们日常生活所带来的巨大影响。现实生活已经高度数据化:一方面,日常生活本身日益依赖于信息传播系统作为中介来组织和展开;另一方面,我们的日常生活又在不知不觉中以数字印记的方式被社会的多层次立体化监测系统进行着准全息式的记录。近年来,大数据和计算能力成为人工智能快速发展的双重引擎,社会化智能信息服务水平的提升,正在给社会的整体形态、行业结构、组织管理方式、权力分配带来深远的影响。在某种意义上,人工智能正在深刻影响社会运作所依赖的基本要素之内涵及其相对重要性,行业、工种、职业以及包括工作和休闲之间的界限在内的各种边界,都面临重新划分或洗牌的可能。以信息内容生产和传播为安身立命之本的新闻传播业,从行业整体结构到依附于其中的个体的命运,近年来所经历的那种不以个人意志为转移的演变和变迁,充其量只是这波正在浩浩荡荡推进的技术与社会双向形塑过程中的一个折射而已。

果如是乎?

“不识庐山真面目,只缘身在此山中。”环顾现实,放眼未来,也许现在我们除了对“人工智终将给我们带来什么”进行展望外,也应该对我们当下所处的阶段有清醒的认知。

2018年最后一期《全球传媒学刊》正是在这样的背景下,选择“人工智能与社会”作为其专题。配合这期专题研究,《全球传媒学刊》执行主编金兼斌教授代表学刊,就社会化智能信息服务的现状和未来,书面访谈了我国人工智能领域的著名专家、清华大学计算机科学与技术系孙茂松教授。

访谈嘉宾简介
孙茂松  
清华大学计算机科学与技术系教授,清华大学人工智能研究院常务副院长,清华大学计算机科学与技术学位评定分委员会主席。2007—2018年任计算机科学与技术系系主任、党委书记。主要研究领域为自然语言处理、互联网智能、机器学习、社会计算和计算教育学。国家重点基础研究发展计划(973计划)项目首席科学家,国家社会科学基金重大项目首席专家。在国际刊物、国际会议、国内核心刊物上发表论文200余篇,Google Scholar论文引用数6800余次。

问:金兼斌教授
答:孙茂松教授

问:您是计算机科学家、计算语言学博士,您所领导的实验室名为“自然语言处理与社会人文计算实验室”,您还成功申请到全国哲学社会科学基金重大项目“基于大规模社交媒体的汉语模因传播机理量化研究”。可以说,跨学科是您身上特别明显的气质和特色,您的学生、如今已然成长为国内自然语言处理领域引人注目的新秀的刘知远老师曾评价您是“计算机学者中少有的有着深厚文化底蕴的老师”。我在您的微信朋友圈中,也不时能看到您以古体诗的方式对学术人生进行抒怀和评论,文采斐然。您如何看待您作为计算机科学家身上的这种人文符号和气质?这种人文底蕴是如何影响您在专业领域的研究的?就人工智能研究下一阶段的突破而言,基于不同学科的科学家间的合作,以及兼具人文社科和信息科学乃至生命科学知识背景学者的跨界合作,是否注定将扮演越来越重要的角色?

答:对于“计算机学者中少有的有着深厚文化底蕴的老师”之类的说法,实不敢当。其实,我对文化或者人文的了解只是停留在感兴趣的阶段,远谈不上有什么深度。计算机科学的发展日新月异,新思想、新算法、新技术层出不穷,需要时刻通过学习来不断更新自己,同时研究任务也很繁重,每天应付这些,已然精疲力竭。最近若干年,我用于阅读人文图书的“常规时段”通常有两个:一是如厕时;二是上床睡觉前。还有一个就是坐飞机时坚持不看专业图书,而是浏览一些报纸杂志之类。我的主要精力都集中于计算机主业上,对人文知识的学习与跟进仅此而已。

从根本上说,计算机科学同数学之间的关系最为密切,计算机科学的大师级人物多是数学出身,数学造诣都很精深。计算机科学与人文科学在学理上并没有太直接的关系(当然也不能一概而论,如世界级语言学大师乔姆斯基提出“乔姆斯基形式文法体系”以及与上下文无关文法相关的“乔姆斯基范式”,就对计算机科学产生了深远影响)。从这个角度来看,“人文底蕴”对计算机科学整体上貌似帮助不大。

随着人工智能的蓬勃发展,上述情形正在发生一些变化。变化主要反映在两个层次上,一个是人工智能原创理论层次,需要具有顶级数学功底的计算机科学家同神经和认知顶级科学家通力合作,以期对计算机科学领域产生变革性的影响;另一个是人工智能应用层次,也就是所谓的“人工智能+X”,需要计算机领域的优秀学者同其他学科领域的优秀学者通力合作,以期对其他学科领域产生变革性的影响。这两种跨界合作将注定扮演越来越重要的角色。

我从小就对人文,尤其是中国古代文化和历史感兴趣。这一点对我在三十年前选择自然语言处理这个专业方向上确实发挥了至关重要的作用,也是我这些年来比较喜欢从事与人文乃至社会科学大跨度交叉研究的源泉所在。

问:您担任首席科学家的973项目“面向三元空间的互联网中文信息处理理论与方法”中,把人类认知空间、网络空间和现实世界空间一起统称为“三元空间”,这背后的逻辑是什么?这个雄心勃勃的973项目希望在融合“三元空间”的海量知识获取与组织、大规模中文深度分析与内容理解方面有所突破,目前取得了哪些重要进展?这些进展对于我国在中文信息处理领域的发展及社会化智能信息服务的提升方面有什么重要意义?

答:实际上,“三元空间”是973指南里的要求,对其内涵存在着若干种解读可能性。我在申请项目时,针对语言信息处理的特点,把“三元空间”定义为网络空间、现实世界和人类认知。以人类语言为纽带,把如上定义的“三元空间”联系到一起,其背后的逻辑是不言而喻的。

经过5年的不懈努力,这个项目取得了显著进展,完全实现了预期目标。简而言之,其标志性成果有三:一是提出了融合大规模知识的中文语义表示学习方法体系,努力将中文各个语言层次,即字、词、词义、语、句等形式化地表示在一个统一的计算框架中;二是提出了语义驱动的中文语义依存分析算法,将中文在这方面的自动分析能力提升到了与英文相当的水平;三是建立了世界上规模最大的中文语言知识资源和中文知识图谱。这些进展对于我国在中文信息处理研究领域的发展以及社会化智能信息服务的提升方面,起到了积极的推动作用。

问:《未来简史》的作者尤瓦尔·赫拉利(Yuval Noah Harari)认为,工业时代普通民众因为担纲社会的主要劳动力和战时兵力,“无论哪种政体的国家,都极为重视国民的健康、教育和福利,因为它们需要几百万健康的劳动者在生产线工作,需要几百万忠诚的士兵在战壕里作战”,因此,20世纪有一大部分时间是在缩小阶级、种族和性别之间的不平等。但人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量。同时,生物技术的进步则可能将经济上的不平等转化为生物体上的不平等,即富人和知识精英具有更多机会强化自己的生物机能乃至脑力和智慧,马太效应成为一种社会自然演变之后的主导机制。他由此预言,21世纪的人类社会可能会是人类历史上最不平等的社会,人类整体出现生物种姓并非不可能。您如何看待人工智能和生物技术发展对人类社会结构形态带来的长远影响?

答:对上述观点,如“人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量”,“21世纪的人类社会可能会是人类历史上最不平等的社会”等,我完全没有研究,很难做出评论。我个人认为,互联网时代具有双重性,双面重要作用都不容小觑:一是使得世界日益成为平的;二是马太效应确实在不断增强,这又使得差异日益扩大。我们有必要对这一深刻的矛盾予以足够关切。

总体来看,人工智能技术还处于初级发展阶段。目前这一代人工智能技术是以借重于大数据的深度学习算法为核心的,在围棋、图像识别、语音识别、机器翻译等人工智能经典任务上确实表现出了异乎以往的能力,催生了如雨后春笋般勃兴的人工智能创新企业,但是,其适用范围实际上存在着严重局限。它的现有能力被大大高估了,领域内的专家反倒比较谨慎。那么,人工智能对人类社会结构形态会带来怎样的变化呢?由于目前这一代人工智能技术的“本事”还十分有限,所以其短期影响虽然十分明显,会给人以“横扫千军如卷席”之感,但总体上看其影响应该还是局部性的,而不是全局性的。至于其长远影响,现在还说不准,取决于人工智能理论和方法是否有新的实质性突破。这种突破的可能性,现在看来尚属可望而不可及。

问:自动驾驶一度成为近年来令人瞩目的热点,不少公众对之充满期待。鉴于驾驶任务本身对行动者和环境互动的极高要求,自动驾驶一直被看作是衡量人工智能发展水平的重要标尺之一。国内外尖端技术公司如百度和Google都在大力研发自动驾驶。不少公司甚至把2019年作为全自动驾驶汽车投入运营的关键年。但最近,自动驾驶领头羊Waymo掌门人John Krafcik承认,自动驾驶汽车在路上普及还要几十年;苹果联合创始人Steve Wozniak也认为,自动驾驶汽车不可能在不久的将来实现。这其中的一个原因是,自动驾驶的场景太多元太复杂,算法达不到要求,即自动驾驶技术还没有达到在任何天气和任何条件下都能驾驶的最高等级L5。您如何看待诸如自动驾驶这样将深刻影响人们生活方式的智能技术和产品的发展前景?在自动驾驶情景下,我们将根据什么原则来认定可能发生的交通事故的责任主体?

答:近年来,我在几个公开学术报告中都提及过,完全意义的自动驾驶无法在不远的将来实现。根本原因在于当前这一代人工智能技术的“本事”还十分有限。正如清华大学人工智能研究院院长张钹院士很早前敏锐指出的那样:它(人工智能)能做得比人好的任务场景,必须满足一些重要的性质(为了下文表述方便,不妨称之为“目前人工智能技术的若干适用性质”),如:任务的边界是确定的;任务的解空间是有限的、可预期的(即使空间无比巨大);执行任务的规则是明确的;任务执行过程中的信息是完全的;对任务结果的最终得失评估也是可精确量化的。其中任意一条不满足,现有的人工智能技术就会遭遇很大的困扰。充足的大数据可以在相当程度上克服这些困扰,但其性能会大打折扣,通常不可能做得比人好(但在某些应用场景下,做得比人的平均水平好并不困难)。围棋满足上述所有性质,所以人工智能的性能超越了人类棋手。自动驾驶基本上都不满足上述性质,并且属于所谓的“生死攸关”任务,几乎不容许犯任何错误(人类对机器性能的可靠性要求往往比对人的要求更为严苛),这是当前人工智能技术的“阿喀琉斯之踵”,所以我才有如上判断。当然这并不否定自动驾驶在特定受限场景中仍然会有广泛应用的前景。

需要特别强调的一点是,作为人工智能的基本前沿课题之一,对自动驾驶的基础性研究需要进一步强化和深化。什么时候才可能有完全意义的自动驾驶?还是前面那句话,取决于人工智能理论和方法是否有新的实质性突破。对自动驾驶各种关键问题的深入探索将成为下一代人工智能理论和方法发展的一个重要推动力和试金石。

问:关于智能内容生产。在新闻传播领域,人工智能的发展正在深刻改变这个以生产新闻和各种内容为主的行业的生态。在诸如气象、环保、体育、财经等领域的报道中,机器新闻写作,至少是机器辅助写作(robot-aided writing),已然在世界各大通讯社的新闻生产和各种商业机构的公关写作中得以试水和推行。在刚刚结束的乌镇世界互联网大会上,毕业自贵系的搜狗公司CEO王小川与新华社副社长刘思扬联合携“一位”人工智能合成主播惊艳亮相,引发广泛关注。您如何看待人工智能对写作、创作、表演这些传统意义上人类所独有行为和能力所带来的影响?如何看待人工智能将对创意产业和内容生产行业可能带来的深远影响?一个国家的社会文化景观将因此发生怎样的变化?

答:受囿于我前面所说的当前人工智能技术的局限性(“目前人工智能技术的若干适用性质”),人工智能在新闻传播领域的应用范围和程度一定是局部的、有限的,不会导致全局性质变。机器自动新闻写作只是在由数据表格生成文本这个受限任务中取得了不错的效果。但要像高水平的记者一样写出有深度的新闻及评介,在可预见的将来,机器还做不到(借助机器辅助写作是另外一回事)。人工智能播音这一任务比自动写作简单得多,但要超越人类顶尖主播,也不太可能。

不过,人工智能辅助写作、创作、表演,辅助创意产业和内容生产,以一种人机协同的方式大幅提高工作效率和质量,是完全具备现实性的,会给相关行业(尤其是中低端行业)带来广泛影响。

问:关于算法与用户内容消费。近年来,借助于大数据和云计算的不断改进升级,各种内容算法推荐——主要是基于用户过往消费行为和基于用户社交关系网中其他人的消费偏好进行的内容和商品推荐——席卷各种内容、购物和社交平台。基于用户行为、场景特点、社交圈结构的算法推荐一方面因其精准传播(precision messaging),实现对用户需求和偏好的深刻洞察而备受平台、商家和用户青睐,但另一方面,算法推荐所导致的“茧房”(information cocoons)效应,又容易让人们耽于既有审美、关注点、品位乃至视野之囿而不自知,不仅心智成长和审美拓展会受到影响,更容易造成同辈抱团、对他群声音充耳不闻的“回音壁效应”(echo chamber effect),甚至会加剧社会民众的阶层分化并导致社会撕裂。作为一名人工智能领域前沿专家,您认为智能算法推荐是否会对普通民众信息、内容消费方式带来深层次、结构性影响?这种影响主要表现在哪些方面?

答:内容算法推荐并不完全满足“目前人工智能技术的若干适用性质”,但由于此类平台天然拥有大数据(特别是用户行为数据),也不属于“生死攸关”的任务,所以比较适合人工智能,能够实现用户还算满意的个性化推荐效果,这一点不足为奇(何况人去做这件事也不是很有理据的,带有很强的主观性);通过进一步改进算法增加推荐的多样性,有效应对“茧房效应”和“回音壁效应”,也是可以预期的。

人们对智能算法推荐表现出足够关切是完全必要的,也是完全可以理解的。例如,平台出于自身利益的考量,算法推荐可能会出现广泛性偏误,或者过度推荐。所发生的这些现象,有些是目前智能推荐算法一时难以克服的深刻困难(涉及语义理解这一难点)所致,有些则是可能是有意为之。


问:让我们来展望一下社会计算的极限问题。您是否同意这样的看法,即人工智能的上限本质上取决于社会计算的计算能力?无论是情感还是价值判断,无论是艺术创意还是审美趣味,无论是解释还是推理,一切人之为人的特质,是否最终都能够被“计算能力”一一解析并复盘?在前不久的一次采访中,您提到目前人工智能总体上依旧处于无理解的人工智能阶段,下一个挑战是有理解能力的人工智能,要想实现“有理解力”还很难。在无理解的人工智能和有理解的人工智能之间,在计算的此岸和生命的彼岸之间,注定是深不见底无可逾越的鸿沟——如0和1之间的差别——还是其实最终有什么桥梁可以跨越和架接,也即借助于不断累积的计算能力和模型改进,以及实时数据采集反馈系统的改进,在物质和意识之间终究可以曲径通幽,加以打通?

答:我第一次听到“人工智能的上限本质上取决于社会计算的计算能力”这个表述,不很清楚其含义,难以评论。是的,现在看到的人工智能所取得的成功,大都属于无理解的人工智能。此类算法本质上都是针对某一特定任务,从相关大数据中学习一个高度复杂的非线性函数,而这个函数可以看作是一个“黑箱”,缺乏可解释性。接下来的重大挑战是解决有理解的人工智能问题,让机器具有同人一样的感知和认知能力、推理能力、判断和决策能力。无理解的人工智能和有理解的人工智能两者之间存在本质上的深刻差异,因而跨越起来极其困难。再强大的计算能力也解决不了这个问题,反之,我们需要人工智能算法在思想和理论上的深刻创新,其中的关键桥梁之一就是人类语言理解。语言是人类区别于动物的唯一标志。机器对语言不能理解,很难说有比较高级的智能。而语言理解的边界是完全开放的,所以非常具有挑战性。机器要在物质和意识、思维之间自由地腾挪辗转,必须首先打通语言理解这一关,否则根本谈不上“曲径通幽”。

问:预言了地球村的媒介学者马歇尔·麦克卢汉(Marshall McLuhan)曾经形象地把媒介称为“人的延伸”。事实上,随着生物技术特别是脑科学领域的研究突破,从智能芯片的人体植入到未来人机不同比例的混搭,麦克卢汉所谓的“媒介是人的延伸”的论述将很有可能从比喻演变为现实。您如何看待人工智能技术对人体先赋能力的后天补强?这种嫁接了人工智能的“超自然”人类改良技术的出现和应用,会带来怎样的社会和伦理后果?就像爱因斯坦作为质能方程的提出者为原子核聚变反应奠定理论基础,却为核武器的出现而感到惴惴不安一样,您觉得如今人工智能领域的科学突破,是否也应该对技术的社会伦理后果有更多的自觉?

答:我基本赞成“媒介是人的延伸”这个说法。其实飞机、轮船等就是人的体力延伸,人工智能则是人的智力延伸,两者的目的都是为了帮助人,也就是你在提问中所说的对人体先赋能力不足的后天补强。单纯使用目前的人工智能技术应该还不致带来严重的社会和伦理后果,不必过于不安——那将是下一代人工智能必须关切的,且无法回避的问题。然而,人机混搭的智能正在日益朝现实迈进,在发展过程中无疑会产生以前没有遇到过的社会和伦理问题,必须加强相关研究,特别是对什么是禁区要做到心中有数,进而达到趋利避害。

问:基特勒(Fredirch Kittler)认为,数字媒介的硬件和软件都具有隐蔽性。在软件的遮蔽下,用户看不到自己受到了硬件的限制;而软件虽然使得用户可以与计算机进行互动交流,但用户却常常感觉不到其背后的结构和逻辑乃至所内嵌的价值观偏向对自己行为和世界观造成的潜移默化的规制、影响和形塑。这也正是劳伦斯·莱斯格(Lawrence Lessig)在其著名的《代码》(Code)一书中所表达的担忧。您如何看待代码所构建的“系统”——这双“看不见的手”对用户和民众的控制能力乃至权力主导?更有甚者,当基于代码的系统具备了深度学习的能力,结合海量的动态语料和分布式计算的迭代升级,我们现在衣食住行日益依赖的不少系统,是否最终会成为具有一定自在性和自主性的行为和责任主体,或至少是和平台拥有方、开发者并置的责任主体?

答:实际上,现代社会经济生活中存在着形形色色的“看不见的手”,我们或多或少地受到其操纵而不能自拔。代码所构建的“系统”借重于算法和大数据的强大力量也具有这一特点,这本身没有什么可奇怪的。需要关切的是,我们应对此类控制力乃至权力主导保持足够的警惕,不能在无意识中一味地被“系统”背后的小团体利益所裹挟。

问:最后还是回到您和您团队的研究,来聊聊“诗和远方”。您的实验室开发机器诗人“九歌”,与您平时爱吟诗作词不无关联吧?2017年,“九歌”亮相央视《机智过人》节目,按照比赛规则接受图灵测试,九歌以一首“机心造化本无私,智略工夫巧笑时。过客不须频眺处,人间天上有新诗”顺利通过图灵测试,展现了很高程度的“智能”水平?您怎么看待和评价九歌真实的智能水平?您曾经说过“计算机作诗在科学研究上很有意义”,为什么?


答:必须澄清一点:以一首诗的结果,绝对不能说“九歌”
(https://jiuge.thunlp.cn)通过了图灵测试。必须通过大量的实际测试,才敢在古诗创作是否通过图灵测试这一点上给出结论,现在还远不敢说。我感觉,当下“九歌”的真实智能水平只能达到古诗爱好者人群(包括诗人)内的中上水平。自动作诗这个任务在好几项上都不满足“目前人工智能技术的若干适用性质”(例如,对自动作诗结果优劣的评价见仁见智,并不存在绝对标准),因此是非常困难的问题,其本质上不可能超越顶尖诗人。正因为其困难,所以与之相关的研究对探索下一代人工智能很有意义。

我领导的实验室研发机器诗人“九歌”,与我以及主创人员之一,也是我的学生矣晓沅喜欢古典诗词不无关联。我们的初心是探索人工智能在自由式文本生成这一类问题(而不是由数据表格生成新闻文本的那类问题)上的算法解决方案。同围棋类似,古典诗歌的开拓空间也是非常广袤的,古人只是创作出了其中微乎其微的一小部分,绝大部分空间还有待于我们去发现。怎样去发现呢?我们希望利用人工智能算法,基于已知的古人诗歌创作对浩瀚的未知空间进行合理的推衍,期待能达到的效果是利用机器把古人尚未来得及写出的诗“挖掘”出来,大底上就是陆游所说的“文章本天成,妙手偶得之”的意思。此外,古诗创作带有强烈的传统文化色彩,容易引起公众的关注,进而会给予我们的研究以某种无形压力,鞭策我们不断地改进算法、提升性能。这也是我们选择以这个问题作为算法攻关任务的原因之一。当然,自动作诗只是我领导的实验室中众多人工智能研究方向的一支。


原文刊载于《全球传媒学刊》2018年第4期。

链接:https://mp.weixin.qq.com/s/ETQyrRS5ffBgNV2pEO3B2Q

编辑:陈心茹

18#
发表于 2019-2-1 22:23:01 | 显示全部楼层
【案例】
中国传媒大学新闻学院教授沈浩等——人工智能与智能媒体
原创: 沈 浩 杨莹莹  新闻战线  2019-02-01

人工智能有望改变媒体,重塑媒体的整个流程。未来,人工智能将融入到媒体运作的各个环节,但在媒体行业的落地,需要更复杂、更全面的架构。当下,应基于媒体行业自身的数据构建具有针对性的人工智能系统,提升媒体与人工智能结合的成熟度。

人工智能与智能媒体
沈  浩  杨莹莹

1

人工智能+媒体:应用场景多元

高级文本分析技术。自然语言处理(NLP)可以分析语言模式,从文本中提取出表达意义,其终极目标是使计算机能像人类一样“理解”语言。基于内容理解和NLP的写作机器人为记者赋能,可以模拟人的智能和认知行为,实现机器的“创造力”,经过对大量数据的分析和学习,形成“创作”的模板,用人机结合的方式来强化记者的写作能力。
图像和视频识别技术。基于深度学习进行大规模数据训练,实现对图片、视频中物体的类别、位置等信息的识别。图像主体检测可以识别图像的场景、图像中主体的位置、物体的标签等。人工智能视频技术则能够提供视频内容分析的能力,对于视频中的物体和场景进行识别并能够输出结构化标签。图像和视频技术在媒体中应用十分广泛,如内容分析、质量检测、内容提取、内容审核等方面。
语音技术。人工智能语音技术主要包括语音识别和语音合成,它是一种“感知”的智能。自动语音识别(ASR/AVR)是基于训练的自动语音识别系统,将物理概念上的音频信息转换为机器可以识别并进行处理的目标信息,如文本。语音合成技术是通过深度学习框架进行数据训练,从而使得机器能够仿真发声。随着语音转换技术的日渐成熟,“语音-文本”双向转换技术在媒体中的应用成为可能。例如将语音识别技术在采编环节中使用,生成文本稿件并进行二次编辑。

人脸与人体识别技术。目前,人脸识别技术的主要应用包括人脸检测与属性分析、人脸对比、人脸搜索、活体检测、视频流人脸采集等方面。谷歌、苹果、Facebook、亚马逊和微软等互联网巨头争相在这一领域的技术和应用方面抢夺先机,纷纷推出相关的技术应用并不断突破创新。2018年5月的媒体报道称,亚马逊积极推广名为Rekognition的人脸识别服务,该解决方案可以在单个图像中识别多达100个人,并且可以对包含数千万个面部的数据库执行面部匹配。
个性化推荐技术。发现目标群体并把内容传播给该群体是能否达成媒体传播效果的关键一环,而个性化推荐技术解决了这一难题。这是目前在媒体中应用较为成功的人工智能技术,在媒体的内容分发过程中,个性化推荐技术为用户提供个性化体验,针对每个特定用户量身定制推荐内容,减少搜索相关内容所花费的时间。与此同时,对于人们所担忧的,由于算法主导的精准分发过程只推荐感兴趣的内容,会导致用户陷于信息茧房的问题,研究人员目前也在试图改进算法,开发“戳破气泡”的应用技术。例如BuzzFeed推出的“Outside Your Bubble”、瑞士报纸NZZ开发的“the Companion”程序、Google的“Escape Your Bubble”等。
预测技术。现在已经开发出来的一些强大的基于人工智能的预测技术,让我们可以“预知未来”。通过时间序列(TS)建模来处理基于时间的数据,以获得时间数据中的隐含信息并作出判断。按照一定时间间隔点来收集数据,再对这些数据点的集合进行分析以确定长期趋势,以便预测未来或进行相应的分析。例如,可以使用时间序列数据来分析某一家媒体下一年的用户数量、网站流量、影响力排名等,从而在广告投放方面作出合理决策。另外,如何及时地抓住社会热点是新闻机构所面临的重要问题,人工智能预测技术通过对海量的热点内容的模型进行训练和分析,建立热点模型,可以实现对于热点趋势的预测。

2

媒体需要思考的问题

人们越来越清晰地看到人工智能给媒体带来的意义与价值。在融合的时代背景下,媒体迫切需要人工智能带来推动媒体变革的潜力。与此同时,我们也不能认为人工智能可以解决媒体变革中的一切问题,技术并不是一块现成的、可以直接拿来享用的蛋糕,在媒体应用人工智能时,还需要着手考虑许多问题。
数据的完备性。媒介体系内部和外部都会产生大量的数据碎片,虽然目前数据量庞大,看似拥有海量的数据资源,但是生产的数据与可以用于人工智能的培训数据之间的匹配度还有待提升。在深度学习算法中,需要用大量的数据训练算法才能产生有意义的结果,数据的不完整性会导致准确性的下降,而准备这样的数据集的成本很高。为了实现大量的用户行为数据的积累,提高数据的完善程度,媒体需要构建大规模的数据体系和战略。为了实现人工智能在媒体中的进一步部署,媒体需要具备完备的数据源和处理更为庞大的数据系统的能力。
深度融合的方式。目前,人工智能技术还停留在初步应用层面,其深度还需要挖掘、广度还需要扩展,融合的方式也需要深入地进行探索。人工智能在媒体领域的大部分应用只是将现有的研究成果迁移到媒体行业,如果媒体想要更深入地参与到人工智能潮流中,就要积极地投入到算法的开发中,在人工智能领域中开辟出自己的空间,如此,才能使人工智能在媒体行业应用更加成熟。

数据安全与隐私。当人工智能应用飞速发展,人们很容易忽略在人工智能应用中的安全问题。2018年Facebook的数据泄漏事件折射出的数据安全漏洞引起社会关注,再一次提醒我们要严肃对待数据安全及隐私等问题。用户在媒介接触的过程中,用户数据和个人资料越来越多地交付给媒体,媒体在使用这些数据为用户提供更好服务的同时,需要权衡智能化用户体验和用户数据安全之间的关系。坚守媒体的价值观和底线,保障数据安全,尊重用户隐私十分重要,媒体应思考在保护用户数据方面是否存在漏洞以及如何落实相应的人工智能安全策略。
人才培养。媒体领域对于人工智能人才的需求量还很大。要走出人才窘境,一方面要完善人才引进和培养规划,提升媒体从业人员的大数据和人工智能技能和素养,补齐人才短板。特别是要引进掌握坚实的传播理论基础,既懂媒体传播规律又懂大数据、人工智能的复合型人才,逐步形成与智能化媒体业务形态相适应的人才布局。另一方面要优化原有人才结构。当智能机器人取代部分人力成为可能,智媒时代的媒体人要在行业的巨变之中找准自己的定位,提升自己的知识技能。无处不在的“共享”和“开源”的知识使我们学习和了解人工智能行业前沿技术,例如Google发布的机器学习工具AutoML,用户无需掌握深度学习或人工智能知识即可轻松培训高性能深度网络来处理数据。媒体和媒体人要拥抱媒体智能化的时代,破除对于新技术的“恐慌”,加快知识体系更新,使专业素养和工作能力跟上智能时代的节拍。

3

智能媒体:未来无限可能

虽然智能机器距离接近人类学习、思考和解决问题的能力还很遥远,但是机器取代人力是大趋势。人工智能将不断地从媒体生产链条向内容创建生产环节突破,从而帮助媒体进行内容升级和用户体验升级。
信息收集整理。内容生产是未来人工智能在媒体行业实现新突破的重要方面,虽然人工智能目前不能超越人类的创造力,但可以承担起一部分信息收集、数据整理和内容创作的工作,将媒体人从一些重复性的繁冗工作中解放出来,从而节省出时间用于创作和创造性工作。媒体也应积极探索新的与人工智能结合的工作方式,使得工作更高效智能。
更好的用户体验。通过学习用户行为,了解受众偏好从而使用户获取到感兴趣的内容,并根据用户画像定制个性化的内容。运用人工智能技术捕获处理数据,精准理解用户需求,可帮助媒体实现更加精细化的用户划分和用户分析,提供更加人性化的服务。人机交互使得用户体验更加立体化和场景化。
重塑媒体流程。预计未来人工智能将融入到媒体运作的各个环节。但无论是人工智能本身还是其在传媒领域的应用,距离成熟都还有很长的路要走。人工智能在媒体行业的落地,需要更复杂、更全面的架构。构建以大数据和人工智能为核心的技术生态体系,基于媒体行业自身的数据构建具有针对性的人工智能系统,提升媒体与人工智能结合的成熟度。目前人工智能技术在媒体行业的应用并不完善,但并不阻碍我们对于其发展前景的期待。
如何充分地发掘人工智能的潜力是媒体和媒体人面临的大命题,我们应思考人工智能如何更好地与媒介进行结合,尝试在融合发展面临的问题中加入人工智能解决方案。机器与人的共生将成为媒体常态,我们期待人工智能为媒体带来更好的未来,在技术的助力下走向真正的智媒时代。
(作者沈浩系中国传媒大学新闻学院教授、博士生导师;杨莹莹系该院新闻与传播专业媒介市场调查方向硕士生)
责任编辑:武艳珍

链接:https://mp.weixin.qq.com/s/fHRWm_x6phon_JYlwpRLAA

编辑:陈心茹

19#
发表于 2019-2-1 23:06:22 | 显示全部楼层
【案例】
智能算法推荐:工具理性与价值适切——从技术逻辑的人文反思到价值适切的优化之道
原创: 喻国明,耿晓梦  全球传媒学刊  2019-02-01

作  者
喻国明:教育部长江学者特聘教授、北京师范大学新闻传播学院执行院长、中国人民大学新闻与社会发展研究中心主任。
耿晓梦:中国人民大学新闻学院博士研究生。

摘  要
智能算法型内容分发是应对内容超载危机、实现内容市场供需适配的必然选择。本文从工具理性和价值适切双重角度对智能算法推荐进行了认识论上的阐释,作为面对新时代格局的资源配置新范式,智能算法推荐依循“海量内容—用户需求—多维场景”适配的基础逻辑。其与社会、人文价值的适配则需要针对不同的内容需求市场进行具体讨论,这些适配过程既需要硬性管制力量的介入,又需要充分发挥平台自律、用户自觉等软性力量。最后,根据智能技术发展的现实境况与可能前景,研究者提出了应对技术伦理风险的若干策略。

关键词:算法;智能推荐;内容需求市场;技术逻辑;技术伦理


随着计算设备运算能力的不断提升、深度学习系统的突飞猛进,人工智能技术取得了令人惊叹的发展,并开始进入人们的日常生活,改变着人们的决策方式、行为模式,进一步触及商业模式和社会秩序生成机制,给人类社会带来全方位的深刻变革,智能时代已经来临。

人工智能从某种意义上讲是一种能够学习、判断和决策的算法。算法(algorithm)可以定义为为解决特定问题或实现预先定义结果而采取的一系列步骤。就传播领域而言,智能时代一个最引人注目的发展就是,算法正被运用于信息生产、分发、反馈等环节,成为信息传播的底层支持。物联网传感等技术拓展了信息来源,机器人写作、图像视频智能加工等技术的应用令信息处理更加精准高效,基于语义分析、语音处理的“语聊机器人”让自动回应评论成为可能。相较而言,在目前的技术采纳实践中,信息分发是算法深度卷入的领域——基于智能算法之上的、进行“信息—用户”匹配的算法型分发被广泛采用。这一现象从客观上说是必然的,因为针对互联网语境下每日生成的数以亿计的内容(包括UGC, user generated content; PGC, professionally-generated content; OGC, occupationally-generated content)而言,如果仅仅依循传统的人为把关模式,显然无法处理其万分之一。因此,借助于智能化的算法分发,才有可能使信息处理能力与互联网时代所释放出的传播生产力相匹配。于是,算法型分发成为社会信息分发的主流形态。内容分发的社会性把控从来都是一种重要的政治权力,智能型算法分发在目前处于主流地位意味着一种巨大而深刻的权力转型。由此诞生出两个重要问题,算法的运作逻辑是如何生成的?它的技术逻辑如何与社会发展主流逻辑相适配?思考这两个问题对于我们理解和把握当下传播领域正在发生的深刻变革,以及确立未来发展中的着力点至关重要。


智能算法接管人工信息分发背后的工具理性
迄今为止,人类信息分发模式可大致概括为三类:倚重人工编辑的媒体型分发、依托社交链传播的关系型分发、基于智能算法对信息和人进行匹配的算法型分发(喻国明、韩婷, 2018)。随着技术的不断进步,智能算法分发不断“收编”人工编辑分发和社交关系分发,并成为信息分发的主要途径,这一变革实际上是一种必然。

在中国,自2012年今日头条开启算法分发的尝试之后,越来越多的平台加入算法潮流。早在2016年,根据第38次《中国互联网发展状况统计报告》和第三方监测机构易观发布的《中国移动资讯信息分发市场专题研究报告》,算法分发正逐渐成为线上新闻的主要分发方式,在国内资讯信息分发市场上,算法推送的内容已超过50%(方师师, 2018)。此外,算法分发的绝非仅是资讯信息,从淘宝、京东到携程,从网易云音乐到快手、抖音,各种信息聚合平台均在使用算法模型进行各式各样的智能推荐。

(一)智能算法分发的根本动因:应对“超载”危机,实现供需适配
过去60年来,人类社会的数据增长是爆炸式的。伴随互联网技术的进步,社会信息化仍在持续推进。个体和各类组织把海量信息上传至互联网平台,存储在互联网空间里。海量信息在互联网上留存和呈现,用传统方式根本无法对其进行有效的处理和价值适配,这种被称为“信息超载”的状况,本质上是传统信息处理范式的危机。

而另一方面,移动数据传输网络的升级、个人移动智能终端的普及、移动应用平台的发展推动着人类传播活动迈入移动互联时代,移动传播革命带来的根本性变革是信息传播的个人化。在大众传播时代,信息接受者的个人特性几乎是被忽略的,所有能够与标准化、规模化相匹配的内容,才真正具有“市场意义”,除此之外的内容类型是不加考虑,也是无法顾及的。而在移动互联网时代,随着移动信息终端作为高度个人化智能终端的普及,以及社交网络对人与人、人与内容、人与物的广泛连接,使得用户个体在人类的社会化信息传播过程中第一次以独立主体的身份出现,个性化需求被触发,形成巨大的基于长尾需求的利基市场。

于是,信息的社会性流动就形成了三个基本的内容市场:整体性内容需求市场(人们的共性需求)、群体性内容需求市场(人们的分众化需求)、个体性内容需求市场(人们的个性化需求)。传统的人工编辑在整体性内容需求市场上仍然扮演着重要的“压舱石”角色;依托社交链开展的关系型分发在个性内容需求市场上扮演着偶然性、场景性、低频度个性需求满足者的角色。而在囊括所有层次的全域信息适配层面,智能算法推荐俨然发挥着“主力军”作用。从整体层面来加以概括,这些变化是与海量信息供给和人们整体性、群体性和个体性信息需求增长相对应的一次巨大的市场“扩容”,智能算法型信息分发是通过算法模型将用户信息数据与内容信息数据进行全方位多层次匹配,从而实现内容高效聚合、精准分发的一种全新范式。

(二)智能算法分发的基础逻辑:“海量内容—用户需求—多维场景”的适配
尽管智能算法分发中应用了各式各样的模型或公式,但其原理是朴素的,大致包括:更好地了解待分发的内容(标签化处理),更好地了解待接收内容的用户(用户洞察),更高效地完成内容与人之间的对接(场景洞察)。

目前,比较主流的推荐算法包含协同过滤(collaborative filtering)推荐和基于内容(content-based)的推荐。前者是从集体智慧出发实现推荐,把用户的消费行为作为特征,进行用户相似性或物品相似性的计算,进而实现信息的匹配,“协同”可细分为三个子类:基于物品(item-based)的协同、基于用户(user-based)的协同和基于模型(model-based)的协同。后者则更强调对文本内容进行解析,通过不断的意义抽取和指标细化,为文本打上无数标签,用不同的标签集来对内容和用户进行标注,向用户推荐与历史内容项目相似的信息。在实际应用中,很难有一套通用的模型架构适用于所有的推荐场景,一个优秀的工业级推荐系统通常可以支持多种算法组合,包括对模型结构作出调整。

虽然不同平台采用的算法模型存有殊异,但主要是通过对热度、用户历史数据、用户社交关系、关联内容、时间、地理位置等多重维度进行拟合,最终实现个性化推送。以著名个性化推荐产品今日头条为例,2018年1月,今日头条面向行业公开其算法原理,其推荐系统实际上是一个需要输入不同维度变量的、拟合用户对内容满意度的函数。具体说来,第一个维度是内容,需要考虑对不同类型的内容进行特征提取;第二个维度是用户特征,包括职业、年龄、性别、各种兴趣标签等,还有很多模型刻画出的隐式用户兴趣等;第三个维度是场景特征,这是移动互联网时代推荐的显著特质,在工作、通勤、旅游等不同的场景,用户的信息偏好会有所差异。结合三方面的维度,模型会给出一个预估,即推测推荐内容在这一场景下对这一用户而言是否合适。

(三)智能算法分发的必然性:面对新格局的资源配置新范式
工具理性行为即目的合乎理性的行为,以目的、手段和结果作为行为的取向,它是目的至上的行为(韦伯, 2004)。智能算法型分发十分符合目的合理性,有利于解决传统信息处理范式的危机、实现新供需适配并满足消费“扩容”目的。

一方面,智能算法推荐有效提高了信息分发效率。在传统信息分发时代,主要依赖人工力量来选择内容,分发所需的平均时间与人力成本较高,分发效率较低。如今互联网平台上的信息已是海量,人工编辑难以胜任。相反地,智能算法可以高效地完成自动筛选、过滤,大大提升了信息分发效率;同时,算法使信息供需的快速匹配成为可能,大大降低了用户获取信息的时间成本。

另一方面,智能算法推荐优化了信息分发的配置效率。这可以从两个层面加以理解:首先,信息价值尤其是长尾信息的价值被激活。传统的信息分发模式大多无暇顾及长尾信息。智能算法推荐被引入后,信息价值得以重估,信息不再有统一的价值衡量标准,亦没有绝对的高低之分。每条信息都找到了其生命价值,并寻得其该到达的地方,也即让信息主动找到对它感兴趣的人。其次,用户的主动性得到开发,“千人千面”的分众化、个性化传播成为可能。在过去,无论是报纸版面还是门户首页,信息的筛选和排列主要考虑的是大众的整体性需求,而非用户的个体性兴趣。而智能算法型信息分发与推荐改变了“以传者为中心”的传播模式,转向以用户价值为中心,构建用户画像,并为用户提供需求适配、场景适配的信息服务。由此,人们有了更多的信息权利得以触达更多的、更为个性化的乃至量身定制的、自己所喜好的内容。

因此,智能算法的出现是互联网时代发展的一种必然结果。必须承认智能算法推荐的技术合理性,认识到算法接管信息分发的必然性,才能更好地理解算法型信息分发的价值,让智能算法推荐“以人为本”并为社会所用。




智能算法在不同维度内容市场上的角色期许与影响评估

技术的发展不是最终的目的,人的发展才是技术发展的本质(张志安、刘杰, 2017)。目前智能算法的工具理性仅能满足中微观环境下内容与人在特定场景中的适配,尚未充分开辟价值判别格局,真正满足整体环境的需求并达成与个体发展要求的适配。如此一来,就容易导致以下局面:其一,算法从个体和局部的角度上看是合理的、有效率的,但从社会全局视角来看则可能是不合理的,甚至是负效率的;其二,算法从现状上看是合理的和适配的,但从未来发展的角度上看是不合理的、不适配的。这种忽略宏观格局和人的社会性存在的发展路径容易导致以“算法即权力”(喻国明等, 2018)为代表的技术霸权和社会政治权力、人本精神之间的冲突。这也是当下围绕算法分发(推荐)产生社会争议的根本症结所在。

笔者认为,人们在整体性、群体性、个体性三个层面上的信息需求形成了三个不同维度的内容市场,智能算法“权力”在不同维度内容市场上产生的效果有着较大差异,因此在追求智能算法技术逻辑与社会、人文逻辑的适配上,需要进行分层讨论。

(一)整体性内容需求市场上的价值适切实现路径:人本规则指导下的人机协作
整体性内容需求市场由人们的共性需求组成,具体体现为主流意识形态导向、社会人文关怀以及表达社会共同利益和基本共识的“最大公约数”等。在大众传播时代,媒体大多深耕于整体性内容需求市场,积累了一套丰富的实践经验。典型的案例是创刊于1922年的《读者文摘》(Reader’s Digest),它曾以19种文字出版,有48种版本,发行至全球163个国家和地区,读者数量超过1亿,《读者文摘》在世界范围内的成功离不开其对人类整体性内容需求的精准定位和基于深层价值关怀的办刊理念。

智能时代,借助算法的力量,对内容进行高效标注成为可能,但算法在对人的深层社会心理把握上仍存在明显欠缺。这突出表现为以降维为主要思考逻辑的算法将人简单地“数据化”:智能算法把用户进行分类整理后进行信息分发,在分类整理的过程中,用户丰富多元的主体性逐渐被简单明了的数据替代。但是,人不是简约数据的集合体,也不是电子痕迹(哪怕数据标注极为丰富)的汇总。算法模型正在使大规模数据得到处理和整合,保证自动化区分、评判、排序、决策的实现,这些数据加工过程反过来令“真实自我”变得无关紧要,人们进入所谓的“微粒社会”。人与数据等价,数据也在逐步蚕食人类的主体性,人被自己创造的数据所统治,并最终成为被算法所定义的人。在共性内容需求预测上,单纯的热度数据并不能准确地反映出内容的真正价值。

因此,在整体性内容需求市场上,目前基于“弱智能”的智能算法在相当程度上还不能完全取代人工编辑,传统的人工编辑仍在扮演着“压舱石”“航向标”式的角色,智能算法主要用来提供工具性辅助。人工智能技术将人类智能和机器智能相结合,致使人机关系更加紧密。即使算法分发占据半壁江山,处于信息传播核心地位的仍然是人。在应对人们的社会整体性需求时,算法信息分发平台应当坚持人机结合,重视人工编辑的核心地位,包括Facebook、今日头条在内的一些平台近期均大幅增添审核人员,尝试以“人工+算法”的模式对优质内容和重要信息予以加权推荐,对不良内容和虚假信息进行拦截。人机交互是算法信息分发中强化人的主体性、能动性的重要手段,通过人机协作,方可让算法推荐更好地体现人的主导性和价值观。

(二)应对群体性内容需求市场上的负外部性:平台自律与用户自觉
人们的分众化需求构成了群体性内容需求市场。个体人总是归属于正式或非正式群体之中,形成带有群体特征的信息需求,比如源自行业垂直领域或特定地域的信息需求。依托社交链传播的关系型分发虽然可以通过朋友、关注者的转发、评论内容进行信息筛选,但随着人们社交关系网络规模的扩大,无效信息越来越多,信息冗余越发严重,而算法能够对社交分发进行二次过滤,优化推荐结果,发挥着分众化信息需求筛选“开关”的作用。越来越多的关系型社交分发开始融合智能算法推荐,“社交+算法”逐渐成为群体性内容需求市场中的实践利器。

然而,作为筛选“开关”的智能算法虽然对社交分发的冗余信息进行了过滤以实现更为精准的分众化需求匹配,却也带来了一些“负的外部性”。一方面,个体被人为地划定所属界域,人的身份被预设。算法推荐平台出于竞争压力,为开发非共性的“利基市场”、分众化的“长尾市场”,需要全部的用户行为数据和关系数据用于用户定位(targeting)。以大数据技术为支撑的用户数字身份档案一旦趋于完备,人工智能就可以了解人的社会地位、消费能力、政治立场等,这将带来严重的社会不公问题。因此,依据数字档案进行智能推送无疑是对每一个体划定了人为边界。平台方的逻辑里没有利他主义亦没有信息公平,一旦人们被判定为属于某个群体,那么人们获得的资讯、看到的广告、购买的商品等方方面面都只会符合相应算法为人所预设的身份(仇筠茜、陈昌凤, 2018)。另一方面,算法的二次过滤会加剧信息的窄化,可能存在个体思想固化的风险。借助算法,人们有极大概率仅关注自己感兴趣的群体性内容,进而将自己封闭在“信息茧房”(information cocoon)中,在自我肯定、自我重复、自我强化的循环过程内接收自己认同的观点,产生信息的回声室效应。

在群体性内容需求市场上,这些中观层次的“负的外部性”影响范畴可大可小,在一定程度上可以通过算法分发平台主体的自律和用户的自觉来进行有效应对,而无须强制性行政力量的介入。从产品产出的角度来看,运用智能算法的平台只是一个技术公司,然而智能算法将内容进行聚合、匹配、推送,将公共信息与个人需求建立连接,从这个层面来讲,技术公司已被赋予媒体公司的道德义务和社会责任(郭小平, 2018)。因此,采用算法型信息分发技术的平台主体应当主动对自己的行为承担责任,理性而审慎地行动。另外,算法素养是公众所具备的认识、评判、运用算法的态度、能力与规范(张超, 2018)。如果算法信息分发平台的用户不具备算法素养,那么其信息消费或决策行为更可能是盲从的、被动的,甚至被误导。社会公众应学习了解算法的基本常识,更清楚地认识到算法推荐的负外部性。

(三)个体性内容需求市场的纠偏利器:“法律红线”与人为引导
个体性内容需求市场由人们的个性化需求构成。算法通过各种标签集合和模型刻画出用户画像,洞察人们的个性化需求,即使面对新用户初来乍到、缺少足够行为数据的“冷启动”场景,智能算法也可以利用注册信息、从其他网站导入用户站外行为数据等方式来展开数据挖掘,选择合适的信息以启动用户兴趣。在个体性内容需求市场上,智能算法的存在不可或缺,没有其他手段可以与智能算法对个性化需求的满足相媲美。

但是算法在满足用户个性化需求的过程中也可能夹杂着低级的、负面的信息。为争夺用户注意力资源,算法推荐以“投其所好”的原则来迎合用户,这一原则同样是流量争夺的利器。换言之,获得点击量成为核心价值取向。进一步地,算法信息分发依据个人兴趣偏好以及持有相似偏好用户的信息接触行为来为用户提供个性化信息,用户群体最普遍的兴趣点将在算法分发过程中得以凸显。事实上,普遍兴趣点中充斥着一定的低级趣味,算法推荐依此推送的信息将不可避免地隐含着负面的价值取向(黄楚新, 2018)。

其实,在个体性内容需求市场上,“投其所好”式的信息分发逻辑本身并无过错,纠偏重点应根植于法律规章之上,也即剔除那些违反法律法规、背离公序良俗的信息,严守内容底线。对于在“红线”之上的内容及具体的内容呈现形式,无须法律规章的介入,因为这些内容及相应的呈现手法是人们自由选择的结果,无论是崇高的主题、严肃的表达,抑或是“小清新式”的私人叙事,甚至是庸俗的八卦,都应根据用户自身的信息偏好来进行取舍。概言之,应该在强调法律红线基础上尽量保持个体性内容需求市场的活力,让合格的信息充分流动。当然,遵循“以文化人”的理念,在内容及表现形态方面引导人们向真、向善、向美也是极为重要和不可或缺的。

(四)分而治之:智能算法在各内容市场中的不同价值适切与规管之道
基本内容市场由不同维度的信息需求市场构成,各维度内容市场的基本特征和影响范围截然不同。整体性内容需求市场强调共性需求,总是成规模的,影响范围也是最广泛的;群体性内容需求市场旨在寻找共性中的异质性、异质性中的共性,因此这一需求市场的规模有大有小,影响范围居于中间层次;个体化需求是真正的因人而异,异质性需求往往是较为细微与琐碎的,影响范围主要集中在个体之上。

整体来看,智能算法在全域信息分发上担当着主力军角色,但在不同层次的内容市场中,算法的角色和作用不尽相同。在整体性内容需求市场上,算法作为工具手段在预测共性需求上仍有所欠缺;在群体性内容需求市场上,算法对基于关系分发的信息进行再次把关;在个体性内容需求市场上,算法分发是满足个性化需求的必要手段。

因此,需要将内容市场的影响力范畴与算法的角色进行统筹考虑,分层讨论算法在各内容市场上的主要风险,寻找价值适切的优化之道。在较为宏观的整体性内容需求市场中,智能算法面临的困境是技术本身的局限,这需要人机协作来把握和引导共性信息需求,让算法推荐更好地体现人的主导性。在群体性内容需求市场上,身份预设与认知固化的负外部性影响可大可小、可强可弱,对影响进行过分夸大或忽视都是不可取的,将纠偏的权力交给平台自律和用户自觉是更加可行的选择。在个体性内容需求市场上,重视用户的个性需求无可指摘,关键在于划定“有所不为”的信息红线,对余下的细枝末节,法律法规并不需要过多介入,这是保证信息在个体层面进行活力流动的可行之策。

总之,智能算法在不同层次的信息需求满足上发挥着不同作用,算法的风险与规制需要在具体的价值期待下进行具体分析。硬性的法律法规并非万全之策,在对智能算法的技术逻辑与社会主流逻辑进行调适时,需要“软硬兼施”,既要凭借硬性介入来明确信息红线,又要借助人工智慧、平台自律、用户自觉等软性力量,给予智能算法充足的适配空间,保证算法信息分发的技术活力与价值张力。




趋势把握:算法型信息分发的技术现实与伦理考量
对技术伦理的准确把握建立在正确认知技术发展现实的基础上。在探讨算法信息分发的价值与伦理调适问题之前,首先需要厘清智能化媒体的技术现状。同时,还需要对技术发展的未来前景做适度展望,预测伦理风险并思考可能的解决路径,以做趋势性把握。

(一)弱人工智能技术现实下算法推荐的价值调适:以人为中心的具象规范
计算机领域的学者们普遍认为人工智能技术是计算机科学的一派分支,是研究模拟、延伸和拓展人的智能的理论、方法、技术及应用系统的新技术科学(党家玉, 2017)。就人工智能的技术层次而言,可以分为两层:一是狭义人工智能(artificial narrow intelligence, ANI),又称弱人工智能,主要是指执行人类为其设定任务的人工智能,它模拟人类智能解决各种问题,是不具备自由意志与道德意识的非自主性智能体,当前出现的人工智能技术及纳入实践环节的人工智能产品主要归属于弱人工智能,如自然语言理解、机器视觉、专家系统、虹膜识别、自动驾驶等;二是通用人工智能(artificial general intelligence, AGI),又称强人工智能,是指可模拟人脑思维和具备人类所有认知功能的人工智能,它本身拥有思维和自主意识,并且可以确证其主体资格,是有自我意识、自主学习、自主决策能力的自主性智能体。这里的“强”主要指的是超越工具型智能而趋近第一人称主体,目前强人工智能基本停留在设想阶段。

数据驱动的算法信息分发仍是一种工具能力,是有限自主的智能体,属于弱人工智能。原因在于:一方面,智能推荐仍无法超越算法,目前算法信息分发本质上遵从的是分类、归纳、试错等经验与反馈方法,方法论上并无根本突破,其高度依赖已有经验和人对数据的标注,主要适用于新认知对象及新环境与过去经验高度相似或接近的情况,理解和预测的有效性取决于经验的相对稳定性,应对条件变化的抗干扰能力较为有限;另一方面,智能推荐能应对的变量水平有限,算法信息分发尚不具备通用型智能,缺乏人的思辨能力、创造能力和情感表达能力。

因此,基于智能算法推荐仍为弱智能的技术现实,算法信息分发的价值调适是以人为中心的,也就是对与智能算法推荐相关的人类主体进行规范性约束,这些规范性约束往往指向具象的内容处理标准,是较为细致具体的。

(二)强人工智能前景中算法推荐的伦理展望:以机器为中心的规制策略
人工智能技术的创新进程仍在持续,能纳入信息分发领域的技术也将不断升级,算法型信息分发的伦理追问处于进行时态。如果对可能出现的强智能化算法推荐作出适度伦理预测,可以认为强智能化算法推荐系统不仅会给信息传播领域带来更深刻的变革,还将拥有与人类对等的人格结构。届时,作为具有自主意识的特殊技术,强智能化算法推荐可能会带来新的伦理危机包括:会不会加剧“人工愚蠢”,导致低智能人类的出现?会不会与人类形成对抗?等等。

解决这些问题的可行途径在于构建以智能体为中心的机器伦理,也即打造有道德的智能化媒体。机器伦理的倡导者已描绘了多种可能,具体包括两类:一是自上而下的伦理建构,将道德规范转化为逻辑演算规则,使智能体能够从一般的伦理原则出发对具体的行为作出伦理判断;二是自下而上的伦理建构,通过机器学习技术和复杂适应系统的自组织发展与演化,使智能体能够从具体的伦理情境出发生成普遍的伦理原则,在道德冲突中塑立道德感知、培养伦理抉择能力。

不论是自上而下还是自下而上的伦理构建,其核心都是对智能系统进行“驯化”,即在智能系统中嵌入符合人类价值的基模,构筑智能系统的底层规则。在未来,人类有可能通过基模嵌入等方式,让强智能推荐系统在进行信息分发时达到公平、准确、透明、可解释、可审计等标准。

可以看出,从弱人工智能到强人工智能,智能算法伦理规制中的人机关系也发生了转向:有限智能情境下,算法信息分发只在某些方面具备高于自然人的能力,具体的伦理风险应对措施仍需由人给出。而面对强人工智能情境,人更多给出的是原则层面、规则层面的边界限定,保证智能算法不侵害人类主体的利益。

封面及内文插图来自网络
本文参考文献从略,完整版请参看刊物原文

原文刊载于《全球传媒学刊》2018年第4期。

链接:https://mp.weixin.qq.com/s/xodhStTTrm4hZp4jAmiiOg

编辑:陈心茹

20#
发表于 2019-3-2 00:28:43 | 显示全部楼层
【案例】

沈浩 等:人工智能:重塑媒体融合新生态





原文链接:https://mp.weixin.qq.com/s/PfHkwPzIyN56aVR-Jfqrjw
编辑:付莎莎

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表