传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
11#
发表于 2018-12-28 20:56:01 | 只看该作者
【案例】

耗资10亿证明AI无用?干货分享:教育大咖激辩AI+教育


    CNNIC数据显示,2020年中国人工智能核心产业规模将超过700亿元,带动相关产业规模超过1万亿元,其中,「AI+教育」的市场规模达到3000亿。

任何技术的出现,对于教育而言都存在着一次融合、创新的机会。AI+教育,果真这样神奇吗?实际上,AI之风从2014年开始吹到教育行业,在2017年达到顶点,随后2018年开始回落。
    12月中旬,在多鲸资本年会上,学霸君创始人张凯磊的「AI无用论」即刻引爆教育圈,引发热烈的讨论:有人说,再强的技术也比不上人类的神经系统;有人说,大数据题库结合AI逻辑,适当运用没问题;当然,也有人all-in,希望借AI引领行业……
张凯磊的AI无用论要点有二:1、花了10亿之后,发现AI技术还处在很初级的阶段,对教学没有用;2、即使是好的AI教育,也只需要帮助老师保证教学标准化水平。
    对此,松鼠AI合伙人梁静独家回应传习邦(IDchuanxibang):张凯磊说对了一半,也说错了一半。
借此机会,传习邦结合各位教育行业大佬们对AI的不同理解,组织了一场「隔空辩论」。现在,辩论开始,有请双方辩友上场——
    正方辩友
    松鼠AI合伙人梁静、多鲸资本合伙人葛文伟、基因资本合伙人温慧生、兴旺投资创始合伙人熊明旺
    反方辩友
    精锐教育集团兼巨人教育董事长张熙、学霸君创始人张凯磊、秦汉胡同国学创始人王双强
    中立辩友
    睿泰集团董事长、总裁艾顺刚

- 1 -
真有用,还是伪需求
    学霸君创始人张凯磊:
    我的结论是,眼前所谓的AI技术对于教学没什么用。作为一个已经在AI技术花了10个亿的人来说,这句话听起来挺悲哀的。教育AI投了这么多钱,水平仅仅相当于放大镜,远远没到显微镜、核磁共振的水平。现代医学花了三四百年时间,多少优秀的人前赴后继,多少万亿的资金投入,仍然治不了癌症,试想我们怎么可以对记忆、认知产生影响?
    松鼠AI合伙人梁静:
    AI based Adaptive Learning在美国已经不是有没有用的问题了,Knewton号称1000万用户,ALEKS号称500万用户,十几家公司总计两三千万用户了,有个报告说未来三年每年增长率48%
    基因资本合伙人温慧生:
    AI在一些特定领域、特定功能上是可以代替教师的,比如答疑,因为它毕竟就是一些知识点,另外少儿英语和低年龄段的教育,因为语音识别已经比较成熟。但是引导和激励AI老师还是没办法代替。
    精锐教育集团兼巨人教育董事长张熙:
    几年前很多公司搞高考机器人,说这是人工智能的重要的应用,当时很多同事说要投资,我们想了想,也看了看,最后还是决定不投。现在也没有人提高考机器人了,所以不要唯技术论。
    松鼠AI合伙人梁静:
    拍照答题有用,学生需要。高考机器人,确实没有用,因为不是教学系统。AI教育在类别上可以分为策略类和工具类,其中识别类包括拍照搜题、智能评测、智能阅卷等,应用了图像识别、语音识别等,目前还有类似脑科学、表情识别,其实都应用得不是非常成熟,而且更多的是工具类;而策略类主要是自适应的教学方法,自适应包括的测、教、学、练几个环节,也都是教学中最核心的。


- 2 -
老师重要,还是AI 重要
    秦汉胡同国学创始人王双强:
    教育的核心还是教师,是人。教育本质上谁都替代不了人本身,因为人是有血有肉是人的世界,技术只是在这个过程中的一个工具,本质上要有好的内容、要有很多好的老师。
    学霸君创始人张凯磊:
    考试本身是一个排名游戏,当AI把老师的教学管好之后势必会规模扩张,越来越多的人能学得好,如果到时候还能保证孩子的成绩排名不掉下去,那这样的AI系统就非常好了。AI今天唯一能做的,基本就是赋能老师、提高老师的水平,甚至AI能把这个事做好已经非常阿弥陀佛了。
    松鼠AI合伙人梁静:
    AI让老师讲课标准化、保持课堂效果的一致性即可这个说法错得厉害。AI的目的是千人千面,一定是大量的非标准化内容通过算法匹配非标准化的用户画像,不同学生的起点不一样,知识分布不一样,每个知识点上的敏感度不一样,性格偏好不一样。
    兴旺投资创始合伙人熊明旺:
    目前一些AI产品,长远来看还是可以在消除教育资源不平衡方面做出贡献,比如我们可以想象,一个AI老师一小时只收5-6块钱,这是绝大多数中国家庭能够承担的费用,这对不公平不平衡的现象是一个巨大的进步。


- 3 -
技术难关,能不能克服
    多鲸资本合伙人葛文伟:
    AI会比移动互联网在教育上有更大应用的前提。我们说PC互联网和移动互联网是教育场景发生了迁移,学习效率有了很大的提升。本质上,并没有改变教与学的链条,也没有让教育企业整个运营收入成本比发生变化,但是AI能够解决这个问题。
    精锐教育集团兼巨人教育董事长张熙:
    在教育行业,应不应该唯技术论是值得探讨的。教育的核心还是体验,技术只是一个手段。一家做教育的公司说要改变教育,变成一家技术公司,凭什么?难道谷歌、BAT不比你擅长做技术吗?真正技术改变教育也轮不到我们做这个事情。
    学霸君创始人张凯磊:
    中国高考不是标准化的考试,浙江新高考改革说明:哪怕一整个省,都支撑不起每年持续稳定地输出一张难度系数一致、考察范围可靠、有效的考卷。一张有质量的考卷成本非常非常高,需要的样本量出不会少于一个亿。
    多鲸资本合伙人葛文伟:
    拜移动互联网所赐,今天的教育工作者已经形成很大量而广泛的数据库,使AI在这个行业爆发不再有缺失数据的拦路虎,使教育彻底改变因为人的结构而产生的模型。
    睿泰集团董事长、总裁艾顺刚:
    中国的企业普遍太盲目自信、太单打独斗了,觉得自己什么都能做。实际上分段协同很重要。教育这个行业太大,大到谷歌、甲骨文、Facebook这种量级的公司都认为,单凭科技公司是不可能整合教育的。同样,教育公司也不可能自己研发科技。所以他们通过信息管理系统(IMS)这个组织,找到一些比如统一的数据接口、协作的方案,去探讨法律法规的边界问题,比如将来的数据应该归属谁。在这样的生态环境下,他们才达到了强强联合。


- 4 -
大势所趋,还是无疾而终
    多鲸资本合伙人葛文伟:
    如果说上一个周期(2004-2014年)最重要的核心是互联网,那么下一个周期(2025-2035年),核心毫无疑问是人工智能。行业目前这个周期正处在下行阶段,教育跟移动互联网结合的红利的尾巴转向教育跟AI红利的结合,我们预测2022年左右我们经济周期是往上走的,使教育完美地跨越这十年周期。
    基因资本合伙人温慧生:
    我觉得下一个五年很重要的投资方向是AI+教育。传统教育服务企业成功的核心是提供优秀教师和好的内容,到了AI+教育,更多的是数据和算法。这样一来,对创始人的基因要求就变了,必须是技术导向,他要理解技术、理解AI对企业商业模式有多大影响、可以延伸出哪些商业可能性。
    精锐教育集团兼巨人教育董事长张熙:
    自从人类进入工业社会以后,出现了蒸汽机、电报、电视、广播等各种新技术,但现在的教育场景跟1000多年前还是很类似。过去几年讲AI/VR,火了五年以后无疾而终,连谷歌和Facebook都没有挣到什么钱,AI/VR与教育场景最契合的技术也没有大的突破。
    秦汉胡同国学创始人王双强:
    在这个时代,让技术为我所用是一个基本需求,让产品在线化、让组织和资源做数字化升级是任何商业机构必然的素质。把会用手机、会用微信、会坐飞机、会坐动车作为核心竞争力,是非常可笑的事情。随着时间的推移,技术会越来越边缘化,不管你是AI还是什么,适可而止,恰当好就够了。
兴旺投资创始合伙人熊明旺:
    如果从市场上变与不变的因素来看,教育需求和教育公平没有变,行业需求提升没有变,变的部分是指移动互联网红利变成了AI红利,或是下一代VR交互体验的红利。我认为,教育行业整体行业集中度未来五年十年有一个持续提升的过程。

    最后总结+感言,睿泰集团董事长、总裁艾瑞刚:回到商业的原点,我们谋求解决的,其实是一个投资回报率+用户服务效率的问题。科技+内容+服务,三个环节都很重要。现阶段,是不是一定要把AI加到产品上去?不见得。每个企业不一样,要自己衡量。


特别鸣谢:多鲸资本
    本文由传习邦独家于20181228日原创首发,未经许可不得转载。关注传习邦(微信公众号IDchuanxibang),深刻洞察教育行业。传承学习,教育兴邦。


来源:传习邦
链接:https://mp.weixin.qq.com/s/snmu5QXdc5qR1u5erTWSVg


编辑:马晓晴

12#
发表于 2018-12-28 21:23:44 | 只看该作者
【案例】

无所不能的AI能帮你写年终总结吗?


    又双叒叕到了年终总结时,想必你正在苦思冥想如何写一份高质量且不落俗套的年终总结吧。上周我也收到了开年终总结会的通知,和你一样,我也为写总结挠头。当时我刚好编完一篇人工智能终将取代人类诸多工作的文章。文章中列举了365种工作的消亡概率(原文点这里),很多岗位看起来岌岌可危,我突发奇想,如果AI终将取代我的岗位,它是否也需要写年终总结?我刚为自己的脑洞感到兴奋,但一转念就发现这个脑洞一点也不清奇,因为AI的确不用。先不论AI并不是像机器人那样工作,即便真的在一些岗位上是那样,它还是不用,因为AI的职责相当明晰、绩效根本不用考核,关键是它不用管已经发生的事情,它只需要专注眼前和未来(比如深度学习)就好。
    想到这里我突然发现,这其实是一种非常理想的员工绩效管理状态——不用写年终总结,员工不用总关注过去发生的事,而是专注于眼前的工作,以及如何在未来提高。而且,这不是我的脑洞,这已经是许多公司在绩效管理上践行了多年的最佳实践。


写不好年终总结也许不是你的错
    年终写年终总结,这件看起来天经地义的事儿,其实已经在很多公司被取消了。沃顿商学院管理学教授彼得·卡佩利,和哥伦比亚大学人力资本管理教育项目教务主任安娜·塔维斯就在发表于201610月的《绩效管理新方向》一文中指出:许多公司都取消了年终总结,因为年度评估最大的缺陷是:由于过度强调财务奖惩,且必须在年终进行,它迫使员工为过去的表现负责,却因此难以提升当前表现,以及培养未来技能,而这两项才是企业长期生存的关键。
    社会科学研究显示,员工痛恨数字评分:相比满分5分被评为3分,得到“中等”的评级更容易接受。员工还厌恶强制排名。沃顿商学院伊万·巴兰基(Iwan Barankay)的实地研究显示,当他们被评价的方式是与他人对比时,员工的表现反而比之前更差。而且评价也可能不客观,对评估结果的研究不断显示,评估者给和他们相似的人打分更高。因此,评估者对评估结果的影响,不亚于员工的实际表现。
    对管理者的调查反复显示,他们同样不喜欢评估员工。韦莱韬悦的研究发现,45%的管理者不认为评估体系有价值。德勤报告称58%HR高管认为,管理者用在绩效评估上的时间是低效的。
    据CEB估计,2014年,12%美国企业完全取消了年度评估。韦莱韬悦得出的数字是8%,但同时指出29%的企业正考虑取消评估或有此计划。
德勤是取消年度评估的积极践行者,它们采用更标准、更透明、更频繁的评估体系,取代了一年一度的考核,提高管理效率的同时降低了管理成本。(详见《哈佛商业评论》201510月刊《重构绩效管理》)
    你看,年终总结,作为绩效评估的重头戏,正在被越来越多的公司抛弃,取而代之以更符合当前人才发展需求、更加敏捷,以及更以团队而非个人为中心的绩效管理方式。因此当你感到年终总结不好写,年度评估不公平的时候,那也许不是你的错。


还是要写年终总结AI能不能帮你写?
    不过读者也不要急于把写不好年终总结的帐算到企业头上,并非每家企业都出于同样的业务压力,需要改变绩效评估体系。在有些领域和行业,如销售和金融服务,仍有必要强调职责和针对个人的财务激励。对于公众负有重大责任的组织,传统绩效评估模式仍可能非常有效。
    既然注定还是有很多人要写年终总结,聪明的读者一定会想到聪明的AI能不能帮我写年终总结呢?答案还是不能。
    《哈佛商业评论》英文版高级编辑沃尔特·弗里克就深入研究过AI写文章的水平到底几何,结果发现,AI可能在撰写摘要、提炼核心观点、提升调研速度上尚可胜任,但目前它还写不出合乎逻辑的长文章。他指出,如今,AI的运作原理是将任务转化为预测问题,之后使用统计技术和海量数据完成预测。举例来说,短信类预测问题之一是自动完成(auto-complete)。如果你将“还算”作为一段话的开头,你的手机就会通过数据和统计模型预测接下来的文字,比如“顺利”“好”或“比较”。你想打的是“顺利”,而选择这个词之后,手机就会接着预测下一个词。这次它非常自信,只给你“吗”的选择(确实是正确的预测),然后直接跳到下一个词汇的选择,比如“和”或“今天”。
    但我们不能把写一篇突出成就、展示成绩、描述职业愿景的年终总结变成预测问题。
    关键是,AI没有叙事能力。2016年在机器学习的协助下,一个名为《阳春》的剧本诞生。研究人员将数十本科幻电影剧本逐字输入到神经网络(机器学习算法类型之一)中,神经网络学习剧本的特征,比如台词应分配给不同演员,而且剧本中要写清楚舞台指示。神经网络只读了几十部剧本,就学会以上所有技能,但它没有从这些剧本中学到叙事艺术。《阳春》没有故事情节,角色只是为了说出分配给他们的台词而存在。这部剧本说明,机器学习在成为叙事大师,或者说获得“智能”的路上,还有很长一段路要走。
    你看,人类有很多能力是独特而难以复制的,至少迄今为止,AI再聪明甚至都不能帮你写好一份年终总结。


还是要自己写年终总结你可以这么写
    那么,作为一个活生生的员工,我们该怎么写好一篇生动的年终总结呢?玛莎·萨缪尔森,作为一家咨询公司的CEO,就曾对如何写好年度总结给出了如下建议:
    了解上司如何使用它。你的自我评估当真被用来评估你,还是只是HR的例行公事?你的上司是否会基于它来决定你的升职和奖金?一些比较懒的上司会将这些自我评估直接剪切并粘贴到公司综述里。如果这是你上司的所为,你可以用一种方便他这么做的方式来写。
    突出你的成就。不要傲慢,但是也不要淡化你的成功;以谨慎的方式承认错误:不要让你的老板抓住“牵制你的把柄”,你应该顺便提到不足之处,但是要确定能用其“转为利好的一面”。
    聚焦于你自己。批评别人很容易,尤其当他们干扰了你的工作,但是要记得,这份评估是关于你的,同事间的问题跟你的上司沟通,但是不要写在评估里。
提出你的要求。聪明的员工会运用个人评估来赢得更多发展机会。要具体详细说明工作中哪些让你兴奋,哪些你还可以更多地参与。但要确保你的要求合乎你所在部门的业务需求。
    你看,写好一份年终总结并不难。其实,在任何时代,每个人都有不可被取代的一面,也许它并不直接表现在工作上,但你要相信,你是独特的,是人类多样性、多元化的一份子,是这个世界如此缤纷的原因,这既无法被其他人替代,更不会被AI替代。好了,写了这么多,我也该去写我自己的年终总结了。
    最后,也祝你的2018值得记取,2019值得期待。


李源 |
李源是《哈佛商业评论》中文版编辑总监。


来源:微信公众号哈佛商业评论


编辑:马晓晴

13#
发表于 2018-12-31 11:39:25 | 只看该作者
新闻传播经验应用在机器写作技术开发中的个案研究
韩晓乔张洪忠  新媒体观察  2018-12-28
摘选自《全球传媒学刊》(2018.4)刊发的《文科思维与技术思维的碰撞:新闻传播经验应用在机器写作技术开发中的个案研究》一文,仅为部分内容,有些段落只有主题句,或者整段删除,全文参见刊物内容。
作者:韩晓乔  张洪忠  何苑 石韦颖
问题
本文对北京师范大学新闻传播学院参与微软小冰项目组开发“小冰白盒写作辅助工具”的过程进行个案研究,从北师大团队角度探究以下问题:资讯聚合类新闻文本自动化生成原理及模板生产模式为何;新闻传播专业经验如何使得机器新闻写作文本更接近人类写作文本;文科思维与技术思维的差异体现在什么方面以及如何进行磨合。
本研究采用个案研究方法探讨问题,以北师大新闻传播学院团队参与微软小冰“小冰白盒写作辅助工具”开发过程的个人经验为研究对象,并结合前期的11次讨论会的会议记录文本及项目合作期间产生的其他书面资料辅助分析。此前几乎没有关于新闻传播专业人士参与到机器新闻写作工具设计开发层面的记录与研究,希望本研究对后续相关研究能有一些实践层面的参考价值。
参与开发过程
2017916日北京师范大学、微软和封面新闻联合成立了“人工智能与未来媒体实验室”,在20171116日封面新闻举办的“智创未来2017C+移动媒体大会上,微软亚洲互联网工程院小冰团队的总经理曹文韬和北师大新闻传播学院张洪忠教授商定,张洪忠教授团队参与到微软小冰机器写作的开发工作之中,作为“人工智能与未来媒体实验室”的一项实际工作。
201712月初,微软小冰团队与北师大新闻传播学院张洪忠教授团队(后面简称“北师大团队”)正式展开合作,在微软小冰团队前期工作基础之上共同合作探索出一套可行的资讯聚合类新闻机器写作模板生产模式。张洪忠教授团队人员有:张洪忠教授,讲师刘茜博士,博士生何苑,硕士生韩晓乔、刘力铭、石韦颖、丁磊、王小月。项目合作分为两个阶段。前期双方团队每周开展1-2次讨论会,交流工作进度、探讨修正方案和布置工作,先从聚合类娱乐新闻的机器写作开始。后期北师大团队的博士生、硕士生以实习生身份进入微软公司,与微软开发团队一起将验证可行的聚合类娱乐新闻模板生产模式推广到科技、体育等更广泛的写作领域。
整个项目的工作可以分为六个部分,由北师大团队和微软小冰团队分工合作完成:(1)行业内容结构梳理:以娱乐新闻为例,建立文章类目表,设计机器写作逻辑框架。这一部分主要由北师大团队完成。(2)对应行业结构,将不同观点态度的文章写作手法归纳总结,并形成相应的机器可以理解的模板进行学习训练(3)数据补充与模型训练:工程师给予对应模板模型收集人类写作文本作为机器学习对象,并进行算法模型训练。由微软技术人员负责。(4)效果评估:在讨论会上共同阅读分析测试文本,检验模板和算法的可行性,以改进方法。由北师大方面在微信群、微信公众号、今日头条发布机器生成完整新闻文本,观察受众反应。(5)向科技、体育等领域扩展:在项目后期,北师大团队部分成员进入微软公司与小冰团队一起将验证可行的模板生产模式推广到科技、体育等更广泛的写作领域。(6)模板编辑工具开发:模板编辑工具的开发与模板架设同时进行。微软团队负责产品设计与开发,北师大团队从用户角度提供需求。
之前的机器写作工具主要生成财经、体育类别下的快讯类新闻,以填充描述性数据为主。就是“人”先设计好写作内容的格式,机器只需要搜索并匹配相关内容到格式中,就可以像做“填空题”一样完成报道的简单写作。[虽然在大数据和算法技术支持下,机器写作已经可以实现同一主题下多事实信息的聚合,但也只是对信息的简单聚合,无法在将碎片式信息串为整体的同时兼顾文章中心思想的呈现,因此生成的文章不符合人类阅读习惯。
微软小冰团队和北师大团队为了使“机器写作”向“人类写作”更靠近,需要将不同观点写作手法的规律总结为机器可以理解的形式,然后指导机器去寻找对应观点态度的数据来成文。同时,机器生成文本需要使用人工编写的语句衔接,并采用更符合人类写作逻辑的结构组合。因此,要开发出一套更接近人类写作的文本生成工具,除了技术开发外,还需要了解传播规律和新闻写作技巧的专业人士参与写作模板的设计。
2018726日,微软召开第六代微软小冰发布会 ,发布会上推出“小冰白盒写作辅助工具”,该工具由微软小冰团队与北师大团队合作开发,旨在帮助媒体从业人员快速搜集、聚合报道所需要的事实信息并形成新闻初稿。根据用户的需求,该工具可以实现对同一事件选取不同观点态度进行报道的功能。
机器新闻写作模板的生产模式
机器写作的模板由报道主体、人工衔接语、标签、段落选取规则组成。模板限定了文章的写作框架、事实信息的排列顺序以及情感倾向。模板的设计和衔接语的编写都会影响机器生成文章的逻辑和流畅性。
要想实现批量、自动化生成更接近人类写作风格的文本,就需要找到人类写作逻辑与机器写作逻辑的契合点,开发出一套通用的模板生产方法论。北师大团队和微软小冰团队以娱乐新闻为切入点,探索出了一套以情感态度为关键的资讯聚合类新闻机器写作模板生产模式。
模板主题选择:记者思维
从简单的罗列事实到形成完整的文章,需要有一个主题支撑。主题不同、模板的设计也会有所不同,模板的主题就是文章的主题,在这里也就是自动生成文本的类型。
在进行具体模板框架设计之前,首先要确定模板主题的分类方式。建立新闻的三级类目,例如将“娱乐”作为一级类目,对娱乐新闻的主题进一步细分作为二、三级类目。分类既是每个模板生成文章的主题,也是记者使用机器写作工具时选择的生成文本类型,设计的好坏将决定媒体工作者能否迅速找到自己想要生成的报道。
北师大团队在收集并阅读了近五年娱乐大事件的相关报道后,发现娱乐新闻和娱乐相关的微信公众号文章往往以最新发生的事件为引,再追溯事件涉及人物的相关历史新闻,最终形成一篇内容丰富的聚合类娱乐资讯。结合新闻写作的专业知识,团队经讨论决定从新闻报道事件类型的角度对模板进行分类,也就是在娱乐下首先建立包括绯闻、违法、综艺、奖项、时尚活动等在内多个二级类目,再在每个二级类目下建立三级类目。比如“绯闻”下的三级类目是“未婚绯闻情侣”、“出轨”等。每个三级类目既代表一个文章主题,同时也是新闻模板引语部分陈述的事实信息。这样设计文章分类,为的是令记者在遇到突发新闻使用工具生成文章时能迅速根据事件类型找到所需模板生成文章。
记者思维强调以事实的时间性和重要性排列事实信息,改变时间线的叙事结构,这一点也被应用到后面的模板框架设计当中——先报道新近事实,再根据重要性盘点相关历史事实信息。
人格化关键:情感态度
“机器没有情感态度,人类才有,可以通过不同事实组合呈现出差异化的态度。”在第四次的讨论会上,为了使机器生成文本从罗列事实到呈现观点态度,北师大团队提出在三级类目的基础上将同一主题的模板根据情感态度再次进行分类。在定下模板主题分类方式后,选取二级类目“绯闻”来设计模板。经过讨论,决定以“未婚绯闻情侣”为例,分“批判/祝福”两种态度来进行模板写作。由新闻传播学院的学生编写衔接语、制定段落标签(段落主要内容)并设计文章结构。此次写作的两个模板主要区别体现在衔接语的表达上,段落标签选择和顺序上几乎没有差别。
模板写作测试:调整技术与模板
微软团队工具的开发伴随着不断的测试和结果评估,以改进算法和模板设计,直到达到最佳效果。
在第一次情感态度驱动的写作模板完成后,微软团队将“刘雯/崔始源”、“吴昕/潘玮柏”这两对绯闻情侣的名字输入到模板中进行测试,生成了四篇机器写作文本。第五次讨论会上,北师大团队和微软团队对结果共同进行了评估。
讨论会上决定将同一个三级类目下不同态度的模板架构加以区别,以突出表达情感态度。
特别有进展的一点是,加入了观点和态度这两个全新的标签,进行数据模型的深度学习。
对于数据的聚类成文后,还要进行对应内容的二次改写。
“树”的搭建:写作的模式化量产
在确定了模板设计的基本思路后,需要考虑同一主题模板的量产问题,即如何在报道同一主题事件时自动化生成大量不重复的文本。
方法论推广
在“综艺”和“出轨”主题模板验证了流程的可行性之后,北师大团队里的学生成员进入到微软公司,将方法论推广到科技和体育领域。具体模板生产流程有五步。
文科思维与技术思维的碰撞
写作是偏文科思维的任务,而机器写作的工作原理是理科逻辑,这就要求学科交叉共同合作,来达成目的。北师大团队均为人文社会科学学科背景的师生,而微软团队则多为理科背景的技术开发人员,两种不同学科背景和思维模式的团队在合作中逐渐显现出明显的学科差异。但双方通过深入沟通促进相互理解,擦出了新的火花。
时间线与新闻价值
微软小冰最初生成的文本基于时间线叙事,预设模板是将事件按照发生顺序罗列,在北师大团队看来,这样的文本固然叙事清晰,但机器组合的痕迹依然明显。通常,新闻写作常用的“倒金字塔结构”会将更重要的内容放在前面,这样才能吸引读者继续读下去。要完成一篇合格的公众号文章也需要有故事的起承转合,有戏剧性的文章有起伏才有人看。模板的事件分类和情感态度主导也是基于这种文科思维来设计的。
对技术部门来说,无论是时间线,还是反转式的故事,只要有清晰的规则就能实现,重要的是规则。
规则化与概念先行
人类写作的思维是将若干个概念串联在一起,有了一个概念,概念的涵义自然就在脑海中被解读并检索出对应的具体信息,实现概念的具象化。但是如果仅仅给出一个概念,对机器来说是无法理解的。在会议上北师大团队的成员经常被技术人员追问某个标签的具体含义,因为只有技术人员将明确的外延和内涵写成规则,机器才能理解。最初北师大团队给出的模板中有“互动”、“产生社会不良效应”等含义广泛的概念作为标签。人与人尚难以给出同一概念界定,机器更难理解。为了解决概念模糊机器无法理解的问题,团队采取了多种优化措施。比如“互动”这个词,作为标签,边界宽泛,需要更具体的解释。机器不能理解抽象定义,所以要对标签进行意义拆分,拆成更具体的子标签。北师大团队首先将“互动”拆成了“节目互动”、“剧组互动”等子标签,并且通过举例让技术人员知道每个子标签代表的具体内容,再根据例子写成规则训练机器。
技术逻辑是一种规则嵌套,机器无法独立完成概念的具象化理解,文科思维需要再向前走一步,帮助机器完成概念的具体化,技术思维则将明确的文字规则编成程序,二者共同构成人类思维与算法之间的桥梁。
自动化生产与个性化创作
   技术思维讲求一个算法解决一类问题,一个模具批量生产大量产品。人类写作与机器生产不同,常常被认为是个性化的。模板衔接语是机器生成文章当中人工写作的部分,一套模板衔接语理论上要能够被用于同一主题(比如“单身绯闻情侣”)下同一态度的所有情境,不论“小鲜肉”还是“大叔”作为绯闻对象要都能够带入同一模板。在北师大团队和微软小冰团队的讨论会上,争议最多的要数衔接语的通用性问题。微软方面提出一些词语无法套用所有艺人身上,造成文章逻辑混乱;北师大团队中负责写衔接语的成员则认为完全删掉有指代性的词会削弱文章的生动性,文章语言会显得生硬。
   自动化生产必然会牺牲个性化,但个性化正是人类写作的精髓。在这一问题上,最终双方也没有找到完美的解决方法。写衔接语的成员在用词上更加小心以避免使用指代对象有限的词语,但一些模棱两可的词语也被允许写入模板中。由此可见,通用性和个性化之间的权衡仍是需要人类完成而机器替代不了的。
结论与思考
一是要正确理解机器写作。那些认为机器写作可以完全替代人、或者认为机器写作有价值观的说法其实都是不准确的。现阶段机器新闻写作的原理是基于大数据驱动,通过数据检索、数据分析、自然语言处理等算法将所需信息填入人工设计的模板中,不能从真正意义上完成有逻辑、有态度观点的自动化文本生成。机器擅长处理海量数据,能够弥补人的大脑在信息储备、数据处理上的弱势,更快速、精准地找到完成新闻文本需要的信息,从而减轻人类的工作量。但由于技术的局限,机器不能理解复杂的逻辑关系,甚至无法区别主被动关系,因此仅依靠机器生成文本无法构成一篇逻辑严密的新闻报道。此外,机器还不能进行采访,只能引用网络上已有的信息。也就是说,机器写作无法采集到线下事实,只能按照“人”设定的模块来写作,只是一个基于算法的依赖互联网大数据来源的写作工具。
二是机器写作会很快成为传媒业内容生产的一个高效的辅助写作工具。机器写作在新闻领域更适合被当作一款写作辅助工具,来帮助人类处理海量复杂的信息,将人从反复枯燥的劳动中解放出来,但人的工作仍然具有不可替代性。媒体从业者在自动化文本生成工具的开发中担任着设计师的角色。专业的新闻编辑可以为机器新闻写作工具制定写作框架,根据不同新闻资讯的题材设计出更符合人类阅读习惯和信息需求的写作规则。机器写作还不可避免地需要人工写作的内容来进行完善——所有的模板衔接语均由人类完成。
三是在当前人工智能技术被广泛应用于传媒业的背景下,文科思维与技术思维的碰撞与合作将成为常态。学科如何交叉合作成为日益凸显的问题。在“小冰白盒写作辅助工具”开发的案例中,北师大团队经历了从完全的文科思维到理解技术逻辑并可以灵活运用的转变。理解技术逻辑使文科从业者能够更好地运用它。在机器写作项目中,写作功能需要文科思维,但功能由技术实现,新闻传播学院的师生在开发过程中担当了技术与功能实现之间的桥梁。越接近需求,越要使用文科思维,越接近底层技术实现,越靠近技术思维。比如文科思维判断生成文本需要有情感态度,理解机器的技术逻辑是聚合包含事实信息的文本后,决定通过事实的选择和顺序来使文章具有价值判断,这就实现了文科思维和技术思维的转换。文科从业者没必要完全掌握代码编写,只需要掌握技术逻辑和原理,将纯文科思维用技术思维进行解构分析,就能促成两者的合作。
四是目前新闻传播学术界有一个流行观点,即夸大机器写作的功能,担心机器写作会取代的人的思想而变得不可掌控,甚至走偏。其实,了解机器写作的原理后,就知道机器写作只是一个写作的高效辅助工具而已,本身并不能形成观点,其生成的文章背后还需要体现的人的观点。
[1]感谢微软亚洲互联网工程院小冰团队总经理曹文韬先生对文章提出的修改意见,以及感谢小冰团队的各位工程师和参与人员的合作。
[2]韩晓乔,北京师范大学新闻传播学院硕士研究生;张洪忠,北京师范大学新闻传播学院教授;何苑,北京师范大学新闻传播学院博士研究生;石韦颖,北京师范大学新闻传播学院硕士研究生。
[3] Kim D, Kim S. Newspaper companies'determinants in adopting robotjournalism[J]. Technological Forecasting &Social Change, 2017, 117.
[4]Carlson,Matt. The Robotic Reporter:Automated Journalism and the Redefinition of Labor,Compositional Forms, andJournalistic Authority. [J]. Digital Journalism,2014,3(3): 416-431.
[5] Zheng Y, Zhong B, Yang F. When algorithmsmeet journalism: The userperception to automated news in a cross-culturalcontext[J]. Computers in HumanBehavior, 2018, 86:266-275.
[6]金兼斌.机器新闻写作:一场正在发生的革命[J].新闻与写作,2014(09):30-35.
[7]张洪忠,石韦颖,刘力铭.如何从技术逻辑认识人工智能对传媒业的影响[J].新闻界,2018(02):17-22.
[8]邓建国.机器人新闻:原理、风险和影响[J].新闻记者,2016(09):10-17.
[9]彭兰.移动化、智能化技术趋势下新闻生产的再定义[J].新闻记者,2016(01):26-33.
[10] Thurman N, Dörr K, Kunert J. WhenReporters Get Hands-On withRobo-Writing: Professionals Consider AutomatedJournalism's Capabilities andConsequences[J]. Social Science ElectronicPublishing, 2017.
[11]魏峰.从个案到社会:教育个案研究的内涵、层次与价值[J].教育研究与实验,2016(04):24-29.
[12]王富伟.个案研究的意义和限度——基于知识的增长[J].社会学研究,2012,27(05):161-183+244-245.
[13]何苑,张洪忠.原理、现状与局限:机器写作在传媒业中的应用[J].新闻界,2018(03):21-25.
[14]何苑,张洪忠.原理、现状与局限:机器写作在传媒业中的应用[J].新闻界,2018(03):21-25
B


编辑:陈心茹

14#
发表于 2019-1-8 20:01:54 | 只看该作者
【案例】人工智能及其社会化应用的现状和未来——《全球传媒学刊》就社会化智能信息服务专访孙茂松教授
[color=rgba(0, 0, 0, 0.298)]
作 者
孙茂松:清华大学计算机科学与技术系教授
金兼斌:清华大学新闻与传播学院教授

摘要
    人工智能技术在快速向前推进的同时也给社会结构与日常生活带来巨大影响,激发起关乎人类生存、社会秩序、价值存续、科技伦理等议题的讨论。人工智能带来的深层次社会影响需要予以审慎思考。作为我国人工智能领域的专家,孙茂松教授如何看待跨学科领域合作对人工智能研究的价值?如何解读现阶段人工智能水准与适用边界条件?人工智能技术在内容生产、信息分配、系统建构等领域的应用是否会给社会结构形态、文化景观带来深层效应?兴趣驱动下的人工智能产品研发有何意义?本访谈通过与孙茂松教授的对话,对以上问题予以较为详细的阐释。
关键词
人工智能;中文自然语言处理;适用性质;内容产消;自动诗歌创作
近年来,随着智能算法推荐在购物、内容生产、消费、社交乃至自动驾驶、智能家居等领域应用的深入,人们已经切实感受到人工智能对我们日常生活所带来的巨大影响。现实生活已经高度数据化:一方面,日常生活本身日益依赖于信息传播系统作为中介来组织和展开;另一方面,我们的日常生活又在不知不觉中以数字印记的方式被社会的多层次立体化监测系统进行着准全息式的记录。近年来,大数据和计算能力成为人工智能快速发展的双重引擎,社会化智能信息服务水平的提升,正在给社会的整体形态、行业结构、组织管理方式、权力分配带来深远的影响。在某种意义上,人工智能正在深刻影响社会运作所依赖的基本要素之内涵及其相对重要性,行业、工种、职业以及包括工作和休闲之间的界限在内的各种边界,都面临重新划分或洗牌的可能。以信息内容生产和传播为安身立命之本的新闻传播业,从行业整体结构到依附于其中的个体的命运,近年来所经历的那种不以个人意志为转移的演变和变迁,充其量只是这波正在浩浩荡荡推进的技术与社会双向形塑过程中的一个折射而已。

果如是乎?

“不识庐山真面目,只缘身在此山中。”环顾现实,放眼未来,也许现在我们除了对“人工智终将给我们带来什么”进行展望外,也应该对我们当下所处的阶段有清醒的认知。

2018年最后一期《全球传媒学刊》正是在这样的背景下,选择“人工智能与社会”作为其专题。配合这期专题研究,《全球传媒学刊》执行主编金兼斌教授代表学刊,就社会化智能信息服务的现状和未来,书面访谈了我国人工智能领域的著名专家、清华大学计算机科学与技术系孙茂松教授。

  孙茂松  
清华大学计算机科学与技术系教授,清华大学人工智能研究院常务副院长,清华大学计算机科学与技术学位评定分委员会主席。2007—2018年任计算机科学与技术系系主任、党委书记。主要研究领域为自然语言处理、互联网智能、机器学习、社会计算和计算教育学。国家重点基础研究发展计划(973计划)项目首席科学家,国家社会科学基金重大项目首席专家。在国际刊物、国际会议、国内核心刊物上发表论文200余篇,Google Scholar论文引用数6800余次。
访谈嘉宾简介

问:金兼斌教授
答:孙茂松教授

问:您是计算机科学家、计算语言学博士,您所领导的实验室名为“自然语言处理与社会人文计算实验室”,您还成功申请到全国哲学社会科学基金重大项目“基于大规模社交媒体的汉语模因传播机理量化研究”。可以说,跨学科是您身上特别明显的气质和特色,您的学生、如今已然成长为国内自然语言处理领域引人注目的新秀的刘知远老师曾评价您是“计算机学者中少有的有着深厚文化底蕴的老师”。我在您的微信朋友圈中,也不时能看到您以古体诗的方式对学术人生进行抒怀和评论,文采斐然。您如何看待您作为计算机科学家身上的这种人文符号和气质?这种人文底蕴是如何影响您在专业领域的研究的?就人工智能研究下一阶段的突破而言,基于不同学科的科学家间的合作,以及兼具人文社科和信息科学乃至生命科学知识背景学者的跨界合作,是否注定将扮演越来越重要的角色?

答:对于“计算机学者中少有的有着深厚文化底蕴的老师”之类的说法,实不敢当。其实,我对文化或者人文的了解只是停留在感兴趣的阶段,远谈不上有什么深度。计算机科学的发展日新月异,新思想、新算法、新技术层出不穷,需要时刻通过学习来不断更新自己,同时研究任务也很繁重,每天应付这些,已然精疲力竭。最近若干年,我用于阅读人文图书的“常规时段”通常有两个:一是如厕时;二是上床睡觉前。还有一个就是坐飞机时坚持不看专业图书,而是浏览一些报纸杂志之类。我的主要精力都集中于计算机主业上,对人文知识的学习与跟进仅此而已。

从根本上说,计算机科学同数学之间的关系最为密切,计算机科学的大师级人物多是数学出身,数学造诣都很精深。计算机科学与人文科学在学理上并没有太直接的关系(当然也不能一概而论,如世界级语言学大师乔姆斯基提出“乔姆斯基形式文法体系”以及与上下文无关文法相关的“乔姆斯基范式”,就对计算机科学产生了深远影响)。从这个角度来看,“人文底蕴”对计算机科学整体上貌似帮助不大。

随着人工智能的蓬勃发展,上述情形正在发生一些变化。变化主要反映在两个层次上,一个是人工智能原创理论层次,需要具有顶级数学功底的计算机科学家同神经和认知顶级科学家通力合作,以期对计算机科学领域产生变革性的影响;另一个是人工智能应用层次,也就是所谓的“人工智能+X”,需要计算机领域的优秀学者同其他学科领域的优秀学者通力合作,以期对其他学科领域产生变革性的影响。这两种跨界合作将注定扮演越来越重要的角色。

我从小就对人文,尤其是中国古代文化和历史感兴趣。这一点对我在三十年前选择自然语言处理这个专业方向上确实发挥了至关重要的作用,也是我这些年来比较喜欢从事与人文乃至社会科学大跨度交叉研究的源泉所在。

问:您担任首席科学家的973项目“面向三元空间的互联网中文信息处理理论与方法”中,把人类认知空间、网络空间和现实世界空间一起统称为“三元空间”,这背后的逻辑是什么?这个雄心勃勃的973项目希望在融合“三元空间”的海量知识获取与组织、大规模中文深度分析与内容理解方面有所突破,目前取得了哪些重要进展?这些进展对于我国在中文信息处理领域的发展及社会化智能信息服务的提升方面有什么重要意义?

答:实际上,“三元空间”是973指南里的要求,对其内涵存在着若干种解读可能性。我在申请项目时,针对语言信息处理的特点,把“三元空间”定义为网络空间、现实世界和人类认知。以人类语言为纽带,把如上定义的“三元空间”联系到一起,其背后的逻辑是不言而喻的。

经过5年的不懈努力,这个项目取得了显著进展,完全实现了预期目标。简而言之,其标志性成果有三:一是提出了融合大规模知识的中文语义表示学习方法体系,努力将中文各个语言层次,即字、词、词义、语、句等形式化地表示在一个统一的计算框架中;二是提出了语义驱动的中文语义依存分析算法,将中文在这方面的自动分析能力提升到了与英文相当的水平;三是建立了世界上规模最大的中文语言知识资源和中文知识图谱。这些进展对于我国在中文信息处理研究领域的发展以及社会化智能信息服务的提升方面,起到了积极的推动作用。

(图片来自网络)

问:《未来简史》的作者尤瓦尔·赫拉利(Yuval Noah Harari)认为,工业时代普通民众因为担纲社会的主要劳动力和战时兵力,“无论哪种政体的国家,都极为重视国民的健康、教育和福利,因为它们需要几百万健康的劳动者在生产线工作,需要几百万忠诚的士兵在战壕里作战”,因此,20世纪有一大部分时间是在缩小阶级、种族和性别之间的不平等。但人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量。同时,生物技术的进步则可能将经济上的不平等转化为生物体上的不平等,即富人和知识精英具有更多机会强化自己的生物机能乃至脑力和智慧,马太效应成为一种社会自然演变之后的主导机制。他由此预言,21世纪的人类社会可能会是人类历史上最不平等的社会,人类整体出现生物种姓并非不可能。您如何看待人工智能和生物技术发展对人类社会结构形态带来的长远影响?

答:对上述观点,如“人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量”,“21世纪的人类社会可能会是人类历史上最不平等的社会”等,我完全没有研究,很难做出评论。我个人认为,互联网时代具有双重性,双面重要作用都不容小觑:一是使得世界日益成为平的;二是马太效应确实在不断增强,这又使得差异日益扩大。我们有必要对这一深刻的矛盾予以足够关切。

总体来看,人工智能技术还处于初级发展阶段。目前这一代人工智能技术是以借重于大数据的深度学习算法为核心的,在围棋、图像识别、语音识别、机器翻译等人工智能经典任务上确实表现出了异乎以往的能力,催生了如雨后春笋般勃兴的人工智能创新企业,但是,其适用范围实际上存在着严重局限。它的现有能力被大大高估了,领域内的专家反倒比较谨慎。那么,人工智能对人类社会结构形态会带来怎样的变化呢?由于目前这一代人工智能技术的“本事”还十分有限,所以其短期影响虽然十分明显,会给人以“横扫千军如卷席”之感,但总体上看其影响应该还是局部性的,而不是全局性的。至于其长远影响,现在还说不准,取决于人工智能理论和方法是否有新的实质性突破。这种突破的可能性,现在看来尚属可望而不可及。

问:自动驾驶一度成为近年来令人瞩目的热点,不少公众对之充满期待。鉴于驾驶任务本身对行动者和环境互动的极高要求,自动驾驶一直被看作是衡量人工智能发展水平的重要标尺之一。国内外尖端技术公司如百度和Google都在大力研发自动驾驶。不少公司甚至把2019年作为全自动驾驶汽车投入运营的关键年。但最近,自动驾驶领头羊Waymo掌门人John Krafcik承认,自动驾驶汽车在路上普及还要几十年;苹果联合创始人Steve Wozniak也认为,自动驾驶汽车不可能在不久的将来实现。这其中的一个原因是,自动驾驶的场景太多元太复杂,算法达不到要求,即自动驾驶技术还没有达到在任何天气和任何条件下都能驾驶的最高等级L5。您如何看待诸如自动驾驶这样将深刻影响人们生活方式的智能技术和产品的发展前景?在自动驾驶情景下,我们将根据什么原则来认定可能发生的交通事故的责任主体?

答:近年来,我在几个公开学术报告中都提及过,完全意义的自动驾驶无法在不远的将来实现。根本原因在于当前这一代人工智能技术的“本事”还十分有限。正如清华大学人工智能研究院院长张钹院士很早前敏锐指出的那样:它(人工智能)能做得比人好的任务场景,必须满足一些重要的性质(为了下文表述方便,不妨称之为“目前人工智能技术的若干适用性质”),如:任务的边界是确定的;任务的解空间是有限的、可预期的(即使空间无比巨大);执行任务的规则是明确的;任务执行过程中的信息是完全的;对任务结果的最终得失评估也是可精确量化的。其中任意一条不满足,现有的人工智能技术就会遭遇很大的困扰。充足的大数据可以在相当程度上克服这些困扰,但其性能会大打折扣,通常不可能做得比人好(但在某些应用场景下,做得比人的平均水平好并不困难)。围棋满足上述所有性质,所以人工智能的性能超越了人类棋手。自动驾驶基本上都不满足上述性质,并且属于所谓的“生死攸关”任务,几乎不容许犯任何错误(人类对机器性能的可靠性要求往往比对人的要求更为严苛),这是当前人工智能技术的“阿喀琉斯之踵”,所以我才有如上判断。当然这并不否定自动驾驶在特定受限场景中仍然会有广泛应用的前景。

需要特别强调的一点是,作为人工智能的基本前沿课题之一,对自动驾驶的基础性研究需要进一步强化和深化。什么时候才可能有完全意义的自动驾驶?还是前面那句话,取决于人工智能理论和方法是否有新的实质性突破。对自动驾驶各种关键问题的深入探索将成为下一代人工智能理论和方法发展的一个重要推动力和试金石。

问:关于智能内容生产。在新闻传播领域,人工智能的发展正在深刻改变这个以生产新闻和各种内容为主的行业的生态。在诸如气象、环保、体育、财经等领域的报道中,机器新闻写作,至少是机器辅助写作(robot-aided writing),已然在世界各大通讯社的新闻生产和各种商业机构的公关写作中得以试水和推行。在刚刚结束的乌镇世界互联网大会上,毕业自贵系的搜狗公司CEO王小川与新华社副社长刘思扬联合携“一位”人工智能合成主播惊艳亮相,引发广泛关注。您如何看待人工智能对写作、创作、表演这些传统意义上人类所独有行为和能力所带来的影响?如何看待人工智能将对创意产业和内容生产行业可能带来的深远影响?一个国家的社会文化景观将因此发生怎样的变化?

答:受囿于我前面所说的当前人工智能技术的局限性(“目前人工智能技术的若干适用性质”),人工智能在新闻传播领域的应用范围和程度一定是局部的、有限的,不会导致全局性质变。机器自动新闻写作只是在由数据表格生成文本这个受限任务中取得了不错的效果。但要像高水平的记者一样写出有深度的新闻及评介,在可预见的将来,机器还做不到(借助机器辅助写作是另外一回事)。人工智能播音这一任务比自动写作简单得多,但要超越人类顶尖主播,也不太可能。

不过,人工智能辅助写作、创作、表演,辅助创意产业和内容生产,以一种人机协同的方式大幅提高工作效率和质量,是完全具备现实性的,会给相关行业(尤其是中低端行业)带来广泛影响。

问:关于算法与用户内容消费。近年来,借助于大数据和云计算的不断改进升级,各种内容算法推荐——主要是基于用户过往消费行为和基于用户社交关系网中其他人的消费偏好进行的内容和商品推荐——席卷各种内容、购物和社交平台。基于用户行为、场景特点、社交圈结构的算法推荐一方面因其精准传播(precision messaging),实现对用户需求和偏好的深刻洞察而备受平台、商家和用户青睐,但另一方面,算法推荐所导致的“茧房”(information cocoons)效应,又容易让人们耽于既有审美、关注点、品位乃至视野之囿而不自知,不仅心智成长和审美拓展会受到影响,更容易造成同辈抱团、对他群声音充耳不闻的“回音壁效应”(echo chamber effect),甚至会加剧社会民众的阶层分化并导致社会撕裂。作为一名人工智能领域前沿专家,您认为智能算法推荐是否会对普通民众信息、内容消费方式带来深层次、结构性影响?这种影响主要表现在哪些方面?

答:内容算法推荐并不完全满足“目前人工智能技术的若干适用性质”,但由于此类平台天然拥有大数据(特别是用户行为数据),也不属于“生死攸关”的任务,所以比较适合人工智能,能够实现用户还算满意的个性化推荐效果,这一点不足为奇(何况人去做这件事也不是很有理据的,带有很强的主观性);通过进一步改进算法增加推荐的多样性,有效应对“茧房效应”和“回音壁效应”,也是可以预期的。

人们对智能算法推荐表现出足够关切是完全必要的,也是完全可以理解的。例如,平台出于自身利益的考量,算法推荐可能会出现广泛性偏误,或者过度推荐。所发生的这些现象,有些是目前智能推荐算法一时难以克服的深刻困难(涉及语义理解这一难点)所致,有些则是可能是有意为之。

马歇尔·麦克卢汉
(图片来自网络)

问:让我们来展望一下社会计算的极限问题。您是否同意这样的看法,即人工智能的上限本质上取决于社会计算的计算能力?无论是情感还是价值判断,无论是艺术创意还是审美趣味,无论是解释还是推理,一切人之为人的特质,是否最终都能够被“计算能力”一一解析并复盘?在前不久的一次采访中,您提到目前人工智能总体上依旧处于无理解的人工智能阶段,下一个挑战是有理解能力的人工智能,要想实现“有理解力”还很难。在无理解的人工智能和有理解的人工智能之间,在计算的此岸和生命的彼岸之间,注定是深不见底无可逾越的鸿沟——如0和1之间的差别——还是其实最终有什么桥梁可以跨越和架接,也即借助于不断累积的计算能力和模型改进,以及实时数据采集反馈系统的改进,在物质和意识之间终究可以曲径通幽,加以打通?

答:我第一次听到“人工智能的上限本质上取决于社会计算的计算能力”这个表述,不很清楚其含义,难以评论。是的,现在看到的人工智能所取得的成功,大都属于无理解的人工智能。此类算法本质上都是针对某一特定任务,从相关大数据中学习一个高度复杂的非线性函数,而这个函数可以看作是一个“黑箱”,缺乏可解释性。接下来的重大挑战是解决有理解的人工智能问题,让机器具有同人一样的感知和认知能力、推理能力、判断和决策能力。无理解的人工智能和有理解的人工智能两者之间存在本质上的深刻差异,因而跨越起来极其困难。再强大的计算能力也解决不了这个问题,反之,我们需要人工智能算法在思想和理论上的深刻创新,其中的关键桥梁之一就是人类语言理解。语言是人类区别于动物的唯一标志。机器对语言不能理解,很难说有比较高级的智能。而语言理解的边界是完全开放的,所以非常具有挑战性。机器要在物质和意识、思维之间自由地腾挪辗转,必须首先打通语言理解这一关,否则根本谈不上“曲径通幽”。

问:预言了地球村的媒介学者马歇尔·麦克卢汉(Marshall McLuhan)曾经形象地把媒介称为“人的延伸”。事实上,随着生物技术特别是脑科学领域的研究突破,从智能芯片的人体植入到未来人机不同比例的混搭,麦克卢汉所谓的“媒介是人的延伸”的论述将很有可能从比喻演变为现实。您如何看待人工智能技术对人体先赋能力的后天补强?这种嫁接了人工智能的“超自然”人类改良技术的出现和应用,会带来怎样的社会和伦理后果?就像爱因斯坦作为质能方程的提出者为原子核聚变反应奠定理论基础,却为核武器的出现而感到惴惴不安一样,您觉得如今人工智能领域的科学突破,是否也应该对技术的社会伦理后果有更多的自觉?

答:我基本赞成“媒介是人的延伸”这个说法。其实飞机、轮船等就是人的体力延伸,人工智能则是人的智力延伸,两者的目的都是为了帮助人,也就是你在提问中所说的对人体先赋能力不足的后天补强。单纯使用目前的人工智能技术应该还不致带来严重的社会和伦理后果,不必过于不安——那将是下一代人工智能必须关切的,且无法回避的问题。然而,人机混搭的智能正在日益朝现实迈进,在发展过程中无疑会产生以前没有遇到过的社会和伦理问题,必须加强相关研究,特别是对什么是禁区要做到心中有数,进而达到趋利避害。

问:基特勒(Fredirch Kittler)认为,数字媒介的硬件和软件都具有隐蔽性。在软件的遮蔽下,用户看不到自己受到了硬件的限制;而软件虽然使得用户可以与计算机进行互动交流,但用户却常常感觉不到其背后的结构和逻辑乃至所内嵌的价值观偏向对自己行为和世界观造成的潜移默化的规制、影响和形塑。这也正是劳伦斯·莱斯格(Lawrence Lessig)在其著名的《代码》(Code)一书中所表达的担忧。您如何看待代码所构建的“系统”——这双“看不见的手”对用户和民众的控制能力乃至权力主导?更有甚者,当基于代码的系统具备了深度学习的能力,结合海量的动态语料和分布式计算的迭代升级,我们现在衣食住行日益依赖的不少系统,是否最终会成为具有一定自在性和自主性的行为和责任主体,或至少是和平台拥有方、开发者并置的责任主体?

答:实际上,现代社会经济生活中存在着形形色色的“看不见的手”,我们或多或少地受到其操纵而不能自拔。代码所构建的“系统”借重于算法和大数据的强大力量也具有这一特点,这本身没有什么可奇怪的。需要关切的是,我们应对此类控制力乃至权力主导保持足够的警惕,不能在无意识中一味地被“系统”背后的小团体利益所裹挟。

问:最后还是回到您和您团队的研究,来聊聊“诗和远方”。您的实验室开发机器诗人“九歌”,与您平时爱吟诗作词不无关联吧?2017年,“九歌”亮相央视《机智过人》节目,按照比赛规则接受图灵测试,九歌以一首“机心造化本无私,智略工夫巧笑时。过客不须频眺处,人间天上有新诗”顺利通过图灵测试,展现了很高程度的“智能”水平?您怎么看待和评价九歌真实的智能水平?您曾经说过“计算机作诗在科学研究上很有意义”,为什么?

答:必须澄清一点:以一首诗的结果,绝对不能说“九歌”
(https://jiuge.thunlp.cn)通过了图灵测试。必须通过大量的实际测试,才敢在古诗创作是否通过图灵测试这一点上给出结论,现在还远不敢说。我感觉,当下“九歌”的真实智能水平只能达到古诗爱好者人群(包括诗人)内的中上水平。自动作诗这个任务在好几项上都不满足“目前人工智能技术的若干适用性质”(例如,对自动作诗结果优劣的评价见仁见智,并不存在绝对标准),因此是非常困难的问题,其本质上不可能超越顶尖诗人。正因为其困难,所以与之相关的研究对探索下一代人工智能很有意义。

我领导的实验室研发机器诗人“九歌”,与我以及主创人员之一,也是我的学生矣晓沅喜欢古典诗词不无关联。我们的初心是探索人工智能在自由式文本生成这一类问题(而不是由数据表格生成新闻文本的那类问题)上的算法解决方案。同围棋类似,古典诗歌的开拓空间也是非常广袤的,古人只是创作出了其中微乎其微的一小部分,绝大部分空间还有待于我们去发现。怎样去发现呢?我们希望利用人工智能算法,基于已知的古人诗歌创作对浩瀚的未知空间进行合理的推衍,期待能达到的效果是利用机器把古人尚未来得及写出的诗“挖掘”出来,大底上就是陆游所说的“文章本天成,妙手偶得之”的意思。此外,古诗创作带有强烈的传统文化色彩,容易引起公众的关注,进而会给予我们的研究以某种无形压力,鞭策我们不断地改进算法、提升性能。这也是我们选择以这个问题作为算法攻关任务的原因之一。当然,自动作诗只是我领导的实验室中众多人工智能研究方向的一支。

原文刊载于《全球传媒学刊》2018年第4期。


编辑:冉玲琳

15#
发表于 2019-1-19 22:03:13 | 只看该作者
案例

眼见不再为实|【外交事务】:照片可P,视频可P,直播也可P



【世界决定视界】【视界决定世界】
欢迎打开“我与我们的世界”,从此,让我们一起纵览世界之风云变幻、洞察社会之脉搏律动、感受个体之生活命运、挖掘自然之点滴奥妙。
我与我们的世界,既是一个奋斗的世界,也是一个思考的世界。奋而不思则罔,思而不奋则殆。这个世界,你大,它就大;你小,它就小。
欢迎通过上方公众号名称,来挖掘本公众号与大家共享的往期文章,因为,每期都能让你“走近”不一样的世界、带给你不一样的精彩。  

本期导读:人脸解锁、刷脸购物、人脸识别的动物表情小游戏,生活中已很常见,这在一定程度上也就说明了一个问题,那就是,人工智能(Artificial Intelligence)在人脸这件事儿上已经越来越精通了。



如果说识别只是AI对人脸做出的第一件事,那么第二件事是什么呢?从种种迹象来看,答案只有一个,那就是给人换脸。当然,AI不会真的去给人整容(至少目前不会),它能做的是在视频里给人换脸。比如曾被刷屏的小视频可能有些朋友就已看过。




视频中的女主角(确切的说是女主角的脸)是《神奇女侠》的扮演者盖尔·加朵。但这当然不是其本人出演了什么令人羞耻的小电影。而是有人用深度学习(Deep Learning)技术把盖尔·加朵的脸替换到了原片女主角的身体上。
这就是源自2017 年 12 月,一位自稱 DeepFakes 的網友利用深度學習技術,將 A 片女主角換臉成神力女超人女主角蓋兒加朵(Gal Gadot),此技術當時引起一陣轟動,近日有外國的研究報告估計,DeepFakes將會成為對下屆美國總統大選構成影響,甚至造成威脅的人工智能技術。



根據《The Nextweb》報導,研究人員認為只要依賴人工智慧,加上事先蒐集大量的語音訓練數據,就可以製造出以假亂真語音記錄和影片,預計在 5 年內,這項技術將會越來越成熟,足以欺騙沒有訓練過的人們。
隨著人工智慧(AI)技術日漸成熟,民眾越來越難分辨網路上假新聞及假影片的真實性。就像是之前美國男演員喬登皮爾(Jordan Peele)和美國數位新聞網站 BuzzFeed,就利用前陣子火紅的 AI 換臉技術「FakeApp」,聯合製作一條歐巴馬談論假新聞的政令宣傳影片,逼真到讓人難以分辨。


视频截图


根據《The Verge》報導,這隻影片除了採用之前美國網友 Deepfakes 所使用的 AI 人臉交換技術「FakeApp」外,也有使用 Adobe 的視覺特效製作軟體After Effects,兩個軟體一起結合運用,成功地用歐巴馬的臉把喬登皮爾的臉換掉。
AI人工智能在全球开花,而这个技术也是被运用到各行业中来。据CNET报道称,Naughty America公司打算通过AI人工智能,为用户提供定制化的换脸视频,当然主要是集中在一些成人电影上,而这种人工智能驱动的换脸技术掀起了行业的热潮。




据悉,Naughty America正在使用的AI技术,可以做的不仅仅是替换面容。用户可以和他们最喜欢的女演员或男演员一起出现在一个场景中,或者可以把自己置身于现实生活中不可能的性环境中,甚至情侣也可以一起放到同一场景中。

目前Naughty America团队将与外部人工智能研究人员合作制作这类视频,不过国外的一些社交网站已经禁止换脸色情视频。美国国防高级研究计划局(DARPA)正在研究一种检测深度伪造视频的方法。
这个ID叫做DeepFakes的网友,始终致力于在Reddit上分享其利用AI技术制作的明星换脸小视频。差不多所有当红的好莱坞女星都被他“炮制”了一遍。各位是不是感觉有点兴奋?以后想看哪位明星的片子自己动手做就是了,甚至可以把自己的脸替换上去演对手戏,各种YY皆能成真。
可是,如果是你亲戚朋友的脸被替换了呢?如果把犯罪现场所拍摄嫌疑人的脸换成你呢?如果在你不知情的情况下,不法分子发给你家人一段有你露脸的绑架视频呢?当我们不能相信自己的眼睛,各种混乱和罪恶的重量,绝对会大于那一点点违法的“福利”。
换脸的恐怖之处,在于AI很简单。
回到前面提到制作女星换脸小电影的DeepFakes。这哥们不仅是个老司机,还是一位热爱分享的“技术型活雷锋”,不仅免费发布他的成果,还不厌其烦的分享自己制作换脸视频的教程,以及自己编写的深度学习代码和相关数据集。大概他的意思是,别再问我要谁谁的视频了,你们自己做去吧。



当然,这哥们也不是专注女明星,上边这张就是他分享的如何把尼古拉斯·凯奇换成川普的教程。根据他的分享,制作一个明星换脸视频非常简单。以盖尔·加朵的视频为例,他首先会在谷歌、YouTube以及各种网络图集中收集盖尔·加朵的各个角度的视频和图片。组成一个能满足深度学习任务进行脸部替换的素材库。
然后通过TensorFlow上提供的机器视觉相关模型,学习和理解原版小电影中女主角的面部特征、轮廓、动作和嘴型等。继而让模型在素材库中寻找各种角度、各种表情下AI认为合适的图片与视频,对原本视频进行替换。
虽然可以看到,他做的视频在很多细节上还是有瑕疵,不够自然。但是大体一看已经可以蒙混过关,并且制作效果在日渐提高。这里隐藏的真正问题,在于利用开源的AI架构进行视频换脸这件事,不是太复杂太前卫了,而是太简单太容易了!

这东西毫无技术难度,要会用TensorFlow的基础功能,电脑显卡不至于太烂,差不多几个小时就可以搞出来一个。哪怕连编程基础都没有的人,跟着教程一步步走,搜集足够多的素材,也可以自己搞出来换脸视频。
设想一下,当你身边某个仇人想要陷害你的时候,只要收集你的照片和自拍,就可以随意把你和任何罪恶甚至肮脏的视频结合到一起,然后在你的社交圈里散播的到处都是,那场面何其令人胆寒?这就像枪支可以无审查、无监管的随意买卖,并且价格低廉。
在机器视觉开发的底层技术日益完善后,视频换脸必然继续在三个层面加强它的普及化:
1.近乎无门槛使用。换脸相关的数据集、源代码和架构,在今天只要有心就可以轻易找到,随着技术的成熟,这种趋势大概只会愈演愈烈。
2.可以工具化。由于技术并不复杂,这个功能被工具化的可能性很大。也就是说不法分子可以把它做成一个应用,购买了之后只要按要求添加视频和希望替换人的图像,就可以自动生成换脸视频,达成真正的无门槛。
3.欺骗性不断增强:有相关AI从业者认为,DeepFakes的视频仅仅经历了初步的学习和替换过程,没有进行修补和细节雕琢,就已经获得了很高的完成度。那么假如进一步结合对抗生成网络进行修饰,大概就可以生成真伪难辨的视频了。
总之,当我们知道照片可以PS之后,视频也不再可信了。而且,不仅仅是视频。
山雨欲来:下一站是直播+换脸
去年年初的时候,德国纽伦堡大学的相关团队发布了一个应用,也就是非常出名的Face2Face。这款应用的能力,是通过摄像头进行脸部追踪,从而让视频里的人跟着你说话。



由于其精准的捕捉效果和实时化能力,Face2Face在诞生之日起就引起了轩然大波。在其演示视频下,无数网友质疑这项技术将成为网络诈骗、绑架勒索的帮凶,质疑如果视频电话的另一端,竟然不是你认识的那个人,那将会是多么恐怖的一件事。
当然,Face2Face目前是个封闭状态,用户只能扮演其提供的角色尝尝鲜而已。但经过一年多的发展,直播中的脸部捕捉和替换技术也已大幅度提升。如今我们可以在直播平台上看到实时替换的背景和道具,而利用AI在直播中进行脸部替换,也已经是近在咫尺的事了。
与之相配合的,是AI进行声纹识别与声音合成技术也在突飞猛进。比如Adobe在近两年陆续发布了新的声音合成技术。普通人用AI来进行柯南用蝴蝶结完成的换声,已经不是多困难的事情。
借助AI,直播中换脸和换声正在同步向前跨越。那么带来的影响会是什么呢?双头人开播?川普坐在白宫办公室里跟你连麦?某当红小鲜肉在直播中跪着给你唱《征服》?没问题,统统都可以。有没有很开心?当然,你跟直播平台可能都开心了,小鲜肉却不开心了。
而换个角度想想,假如同样的技术运用在视频电话里呢?假如你接到的亲人/朋友的视频电话,套取你的隐私或者跟你借钱,事后竟然发现是陌生人处心积虑伪造的。假如一个人可以彻底伪装成另一个人,还会有人开心吗?
当我们打开手机电脑,发现一切都不是真的。真是挺让人丧心病狂的一件事。
AI换脸并不难,由于多种应用场景的存在和超高的娱乐性,我们也很难阻止它的到来。于是真正该让我们头疼的,大概就是深藏其中的法律问题与伦理陷阱。
基本可以很靠谱的说,今天国内外的很多直播与视频平台,都在研发直播换脸技术。并且某些解决方案已经相当成熟。试想一下,换脸之后的当红女神与小鲜肉,整晚开直播说一些迎合猎奇心理的话,礼物还不多到把平台挤爆了?——即使用户明知是假的。
当然,正规直播平台大概不敢这么做,使用这种技术会非常克制。但是假如有第三方插件可以做这件事呢?或者在缺乏监管的地下直播/半地下直播平台上呢?毕竟利益和猎奇可以驱使人去做各种事情,技术的门槛一旦解禁,滚滚而来的法律问题很可能决堤。



这里隐藏的伦理陷阱,是肖像权这个东西可能会前所未有的复杂化。无论是明星还是普通人,大概都不希望被别人“易容”成自己的样子来进行直播。

但问题是,你如何证明易容的是你呢?或者说你如何证明你是你?我们知道,肖像权是指你本人拍摄的图像和视频。但是用你的面部数据搭建起来的AI模型还属于你的肖像权范畴吗?
更困难的是,你根本无从证明AI搭建出来的肖像模型跟你有直接关系。毕竟深度学习训练是在看不见的后端完成的,制作者大可以说是臆想出来,或者用跟你很像的人来搭建的。再或者只比你脸上多一颗痣,是不是就不是你了呢?
更复杂的伦理情况还有很多,比如一个人享有故去亲人的肖像权吗?假如一个人希望用AI来重现已故的亲属,与亡者进行视频通话,但另一个亲属却坚决认为这是违法行为,那么到底该听谁的?
这还是基础的伦理与法律矛盾,在这之外,是大把可以用AI换脸术进行的非法勾当。比如诈骗、勒索、诬陷等等等等。总而言之,AI换脸术这件事在今天可以归纳为三句话:一、火是肯定要火的;二、乱是一定要乱的;三、如何监管,大概是不知道的。




哦对了,最后应该说一下如何防止别人做出你的AI换脸视频:不要发太多自拍。



Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics
深度换脸技术与新型虚假信息战争:后真相地缘政治时代来临
By Robert Chesney and Danielle Citron




小编注:译文部分仅供参考;本期共享文章摘自“外交事务”网站,文章有点小长,也有点小难,因此搜了好多相关信息,整理出上面那篇较长的导读;本公众号更多优质文章,见文末“往期精彩”。

A picture may be worth a thousand words, but there is nothing that persuades quite like an audio or video recording of an event. At a time when partisans can barely agree on facts, such persuasiveness might seem as if it could bring a welcome clarity. Audio and video recordings allow people to become firsthand witnesses of an event, sparing them the need to decide whether to trust someone else’s account of it. And thanks to smartphones, which make it easy to capture audio and video content, and social media platforms, which allow that content to be shared and consumed, people today can rely on their own eyes and ears to an unprecedented degree.
与文字比起来,照片更具直观性。远比照片更具直观性的,则是音视频。现如今这个信息时代,人们通过眼睛耳朵所能接触到的音视频信息数量之巨,前所未有。
Therein lies a great danger. Imagine a video depicting the Israeli prime minister in private conversation with a colleague, seemingly revealing a plan to carry out a series of political assassinations in Tehran. Or an audio clip of Iranian officials planning a covert operation to kill Sunni leaders in a particular province of Iraq. Or a video showing an American general in Afghanistan burning a Koran. In a world already primed for violence, such recordings would have a powerful potential for incitement. Now imagine that these recordings could be faked using tools available to almost anyone with a laptop and access to the Internet—and that the resulting fakes are so convincing that they are impossible to distinguish from the real thing.
有很多影音视频,可以是假的。
Advances in digital technology could soon make this nightmare a reality. Thanks to the rise of “deepfakes”—highly realistic and difficult-to-detect digital manipulations of audio or video—it is becoming easier than ever to portray someone saying or doing something he or she never said or did. Worse, the means to create deepfakes are likely to proliferate quickly, producing an ever-widening circle of actors capable of deploying them for political purposes. Disinformation is an ancient art, of course, and one with a renewed relevance today. But as deepfake technology develops and spreads, the current disinformation wars may soon look like the propaganda equivalent of the era of swords and shields.
技术的进步,也带来了虚假信息的泛滥。
DAWN OF THE DEEPFAKES
深度换脸技术时代来临
Deepfakes are the product of recent advances in a form of artificial intelligence known as “deep learning,” in which sets of algorithms called “neural networks” learn to infer rules and replicate patterns by sifting through large data sets. (Google, for instance, has used this technique to develop powerful image-classification algorithms for its search engine.) Deepfakes emerge from a specific type of deep learning in which pairs of algorithms are pitted against each other in “generative adversarial networks,” or GANS. In a GAN, one algorithm, the “generator,” creates content modeled on source data (for instance, making artificial images of cats from a database of real cat pictures), while a second algorithm, the “discriminator,” tries to spot the artificial content (pick out the fake cat images). Since each algorithm is constantly training against the other, such pairings can lead to rapid improvement, allowing GANS to produce highly realistic yet fake audio and video content.
通过生成式对抗网络技术,可做出极其逼真但实际上却是虚假的影音视频。
小编注:生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。该方法由伊恩·古德费洛等人于2014年提出。生成网络从潜在空间(latent space)中随机采样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。生成对抗网络常用于生成以假乱真的图片。此外,该方法还被用于生成视频、三维物体模型等。
This technology has the potential to proliferate widely. Commercial and even free deepfake services have already appeared in the open market, and versions with alarmingly few safeguards are likely to emerge on the black market. The spread of these services will lower the barriers to entry, meaning that soon, the only practical constraint on one’s ability to produce a deepfake will be access to training materials—that is, audio and video of the person to be modeled—to feed the GAN. The capacity to create professional-grade forgeries will come within reach of nearly anyone with sufficient interest and the knowledge of where to go for help.
技术很容易获得,唯一的约束性条件就是控制“训练材料”的获得。

Deepfakes have a number of worthy applications. Modified audio or video of a historical figure, for example, could be created for the purpose of educating children. One company even claims that it can use the technology to restore speech to individuals who have lost their voice to disease. But deepfakes can and will be used for darker purposes, as well. Users have already employed deepfake technology to insert people’s faces into pornography without their consent or knowledge, and the growing ease of making fake audio and video content will create ample opportunities for blackmail, intimidation, and sabotage. The most frightening applications of deepfake technology, however, may well be in the realms of politics and international affairs. There, deepfakes may be used to create unusually effective lies capable of inciting violence, discrediting leaders and institutions, or even tipping elections.
对很多领域来说,这项技术具有很大应用价值。但技术是把双刃剑,技术能应用于善,也能应用于恶。
Deepfakes have the potential to be especially destructive because they are arriving at a time when it already is becoming harder to separate fact from fiction. For much of the twentieth century, magazines, newspapers, and television broadcasters managed the flow of information to the public. Journalists established rigorous professional standards to control the quality of news, and the relatively small number of mass media outlets meant that only a limited number of individuals and organizations could distribute information widely. Over the last decade, however, more and more people have begun to get their information from social media platforms, such as Facebook and Twitter, which depend on a vast array of users to generate relatively unfiltered content. Users tend to curate their experiences so that they mostly encounter perspectives they already agree with (a tendency heightened by the platforms’ algorithms), turning their social media feeds into echo chambers. These platforms are also susceptible to so-called information cascades, whereby people pass along information shared by others without bothering to check if it is true, making it appear more credible in the process. The end result is that falsehoods can spread faster than ever before.
These dynamics will make social media fertile ground for circulating deepfakes, with potentially explosive implications for politics. Russia’s attempt to influence the 2016 U.S. presidential election—spreading divisive and politically inflammatory messages on Facebook and Twitter—already demonstrated how easily disinformation can be injected into the social media bloodstream. The deepfakes of tomorrow will be more vivid and realistic and thus more shareable than the fake news of 2016. And because people are especially prone to sharing negative and novel information, the more salacious the deepfakes, the better.
DEMOCRATIZING FRAUD
民主幻像
The use of fraud, forgery, and other forms of deception to influence politics is nothing new, of course. When the USS Maine exploded in Havana Harbor in 1898, American tabloids used misleading accounts of the incident to incite the public toward war with Spain. The anti-Semitic tract Protocols of the Elders of Zion, which described a fictional Jewish conspiracy, circulated widely during the first half of the twentieth century. More recently, technologies such as Photoshop have made doctoring images as easy as forging text. What makes deepfakes unprecedented is their combination of quality, applicability to persuasive formats such as audio and video, and resistance to detection. And as deepfake technology spreads, an ever-increasing number of actors will be able to convincingly manipulate audio and video content in a way that once was restricted to Hollywood studios or the most well-funded intelligence agencies.

Deepfakes will be particularly useful to nonstate actors, such as insurgent groups and terrorist organizations, which have historically lacked the resources to make and disseminate fraudulent yet credible audio or video content. These groups will be able to depict their adversaries—including government officials—spouting inflammatory words or engaging in provocative actions, with the specific content carefully chosen to maximize the galvanizing impact on their target audiences. An affiliate of the Islamic State (or ISIS), for instance, could create a video depicting a U.S. soldier shooting civilians or discussing a plan to bomb a mosque, thereby aiding the terrorist group’s recruitment. Such videos will be especially difficult to debunk in cases where the target audience already distrusts the person shown in the deepfake. States can and no doubt will make parallel use of deepfakes to undermine their nonstate opponents.
Deepfakes will also exacerbate the disinformation wars that increasingly disrupt domestic politics in the United States and elsewhere. In 2016, Russia’s state-sponsored disinformation operations were remarkably successful in deepening existing social cleavages in the United States. To cite just one example, fake Russian accounts on social media claiming to be affiliated with the Black Lives Matter movement shared inflammatory content purposely designed to stoke racial tensions. Next time, instead of tweets and Facebook posts, such disinformation could come in the form of a fake video of a white police officer shouting racial slurs or a Black Lives Matter activist calling for violence.
Perhaps the most acute threat associated with deepfakes is the possibility that a well-timed forgery could tip an election. In May 2017, Moscow attempted something along these lines. On the eve of the French election, Russian hackers tried to undermine the presidential campaign of Emmanuel Macron by releasing a cache of stolen documents, many of them doctored. That effort failed for a number of reasons, including the relatively boring nature of the documents and the effects of a French media law that prohibits election coverage in the 44 hours immediately before a vote. But in most countries, most of the time, there is no media blackout, and the nature of deepfakes means that damaging content can be guaranteed to be salacious or worse. A convincing video in which Macron appeared to admit to corruption, released on social media only 24 hours before the election, could have spread like wildfire and proved impossible to debunk in time.
Deepfakes may also erode democracy in other, less direct ways. The problem is not just that deepfakes can be used to stoke social and ideological divisions. They can create a “liar’s dividend”: as people become more aware of the existence of deepfakes, public figures caught in genuine recordings of misbehavior will find it easier to cast doubt on the evidence against them. (If deepfakes were prevalent during the 2016 U.S. presidential election, imagine how much easier it would have been for Donald Trump to have disputed the authenticity of the infamous audio tape in which he brags about groping women.) More broadly, as the public becomes sensitized to the threat of deepfakes, it may become less inclined to trust news in general. And journalists, for their part, may become more wary about relying on, let alone publishing, audio or video of fast-breaking events for fear that the evidence will turn out to have been faked.
DEEP FIX
深度技术需深度应付
There is no silver bullet for countering deepfakes. There are several legal and technological approaches—some already existing, others likely to emerge—that can help mitigate the threat. But none will overcome the problem altogether. Instead of full solutions, the rise of deepfakes calls for resilience.
Three technological approaches deserve special attention. The first relates to forensic technology, or the detection of forgeries through technical means.Just as researchers are putting a great deal of time and effort into creating credible fakes, so, too, are they developing methods of enhanced detection. In June 2018, computer scientists at Dartmouth and the University at Albany, SUNY, announced that they had created a program that detects deepfakes by looking for abnormal patterns of eyelid movement when the subject of a video blinks. In the deepfakes arms race, however, such advances serve only to inform the next wave of innovation. In the future, GANS will be fed training videos that include examples of normal blinking. And even if extremely capable detection algorithms emerge, the speed with which deepfakes can circulate on social media will make debunking them an uphill battle. By the time the forensic alarm bell rings, the damage may already be done.
A second technological remedy involves authenticating content before it ever spreads—an approach sometimes referred to as a “digital provenance” solution. Companies such as Truepic are developing ways to digitally watermark audio, photo, and video content at the moment of its creation, using meta data that can be logged immutably on a distributed ledger, or blockchain. In other words, one could effectively stamp content with a record of authenticity that could be used later as a reference to compare to suspected fakes.
In theory, digital provenance solutions are an ideal fix. In practice, they face two big obstacles. First, they would need to be ubiquitously deployed in the vast array of devices that capture content, including laptops and smartphones. Second, their use would need to be made a precondition for uploading content to the most popular digital platforms, such as Facebook, Twitter, and YouTube. Neither condition is likely to be met. Device makers, absent some legal or regulatory obligation, will not adopt digital authentication until they know it is affordable, in demand, and unlikely to interfere with the performance of their products. And few social media platforms will want to block people from uploading unauthenticated content, especially when the first one to do so will risk losing market share to less rigorous competitors.

A third, more speculative technological approach involves what has been called “authenticated alibi services,” which might soon begin emerging from the private sector. Consider that deepfakes are especially dangerous to high-profile individuals, such as politicians and celebrities, with valuable but fragile reputations. To protect themselves against deepfakes, some of these individuals may choose to engage in enhanced forms of “lifelogging”—the practice of recording nearly every aspect of one’s life—in order to prove where they were and what they were saying or doing at any given time. Companies might begin offering bundles of alibi services, including wearables to make lifelogging convenient, storage to cope with the vast amount of resulting data, and credible authentication of those data. These bundles could even include partnerships with major news and social media platforms, which would enable rapid confirmation or debunking of content.
Such logging would be deeply invasive, and many people would want nothing to do with it. But in addition to the high-profile individuals who choose to adopt lifelogging to protect themselves, some employers might begin insisting on it for certain categories of employees, much as police departments increasingly require officers to use body cameras. And even if only a relatively small number of people took up intensive lifelogging, they would produce vast repositories of data in which the rest of us would find ourselves inadvertently caught, creating a massive peer-to-peer surveillance network for constantly recording our activities.
LAYING DOWN THE LAW
张开法网
If these technological fixes have limited upsides, what about legal remedies? Depending on the circumstances, making or sharing a deepfake could constitute defamation, fraud, or misappropriation of a person’s likeness, among other civil and criminal violations. In theory, one could close any remaining gaps by criminalizing (or attaching civil liability to) specific acts—for instance, creating a deepfake of a real person with the intent to deceive a viewer or listener and with the expectation that this deception would cause some specific kind of harm. But it could be hard to make these claims or charges stick in practice. To begin with, it will likely prove very difficult to attribute the creation of a deepfake to a particular person or group. And even if perpetrators are identified, they may be beyond a court’s reach, as in the case of foreign individuals or governments.
Another legal solution could involve incentivizing social media platforms to do more to identify and remove deepfakes or fraudulent content more generally. Under current U.S. law, the companies that own these platforms are largely immune from liability for the content they host, thanks to Section 230 of the Communications Decency Act of 1996. Congress could modify this immunity, perhaps by amending Section 230 to make companies liable for harmful and fraudulent information distributed through their platforms unless they have made reasonable efforts to detect and remove it. Other countries have used a similar approach for a different problem: in 2017, for instance, Germany passed a law imposing stiff fines on social media companies that failed to remove racist or threatening content within 24 hours of it being reported.
Yet this approach would bring challenges of its own. Most notably, it could lead to excessive censorship. Companies anxious to avoid legal liability would likely err on the side of policing content too aggressively, and users themselves might begin to self-censor in order to avoid the risk of having their content suppressed. It is far from obvious that the notional benefits of improved fraud protection would justify these costs to free expression. Such a system would also run the risk of insulating incumbent platforms, which have the resources to police content and pay for legal battles, against competition from smaller firms.
LIVING WITH LIES
与虚假为伴
But although deepfakes are dangerous, they will not necessarily be disastrous. Detection will improve, prosecutors and plaintiffs will occasionally win legal victories against the creators of harmful fakes, and the major social media platforms will gradually get better at flagging and removing fraudulent content. And digital provenance solutions could, if widely adopted, provide a more durable fix at some point in the future.
In the meantime, democratic societies will have to learn resilience. On the one hand, this will mean accepting that audio and video content cannot be taken at face value; on the other, it will mean fighting the descent into a post-truth world, in which citizens retreat to their private information bubbles and regard as fact only that which flatters their own beliefs. In short, democracies will have to accept an uncomfortable truth: in order to survive the threat of deepfakes, they are going to have to learn how to live with lies.


来源:微信公众号“我与我们的世界”


编辑:马晓晴

头像被屏蔽
16#
 楼主| 发表于 2019-1-20 11:55:57 | 只看该作者
提示: 该帖被管理员或版主屏蔽
17#
发表于 2019-1-20 15:48:34 | 只看该作者
案例


喻国明等:新闻人的价值位移与人机协同的未来趋势



    人工智能技术在新闻传播领域的全面渗透是近年来的一个现象级的发展,其中,机器新闻写作是人工智能在传媒领域的具体应用之一。有研究表明,未来传媒业的发展,很大程度上与人工智能技术的引入和应用关联在一起。人工智能技术不仅形塑着整个传媒业的业态面貌,也在微观上重塑着传媒产业的业务链。本文试图分析人工智能技术下机器新闻写作的应用及其升级换代对于机器新闻写作对于新闻生产模式的再造效应,并探讨在此背景下新闻人的价值位移与人机协同的未来趋势,以期为人们把握人工智能如何改变未来传媒业的范式和逻辑方面提供一些参照性的依据。


    一、web3.0的关键词是“智能化”,机器新闻写作便是人工智能与传媒业联姻的产物,它将内容生产范式从媒体精英式的内容产出和用户生产内容转换到算法生成内容。这一改变影响深刻而重大。

    纵观传媒业的发展进程,技术一直是驱动其变革的重要力量。每一次重要技术的引进,都在某种程度上引发了新闻生产和传播流程的改变,有时甚至会对整个传媒格局产生颠覆性的影响。从这个意义上讲,传媒业中从来就没有永恒的赢家。在技术“喜新厌旧”本性的作用下,今日的新媒体转眼就可能成为“明日黄花”;新闻记者今天所掌握的某种新技能,明天就可能变得无用武之地——整个传媒行业在残酷的“破”与“立”之间寻找着动态的平衡。如果说web1.0和web2.0的关键词分别是“网络化”和“数字化”,那么web3.0的关键词就是“智能化”。它与传媒业的耦合,催生了机器新闻写作,并将内容生产范式从媒体精英式的内容产出和用户生产内容转换到算法生成内容。这种技术上的革新必然会对现在的传媒生态产生影响,首当其冲的便是与其在目标任务上具有极高重合度的新闻记者。
    1. 写稿机器人的不断涌现以及升级换代,势必导致传媒业深层次的重组,机器新闻写作正在“蚕食”传统新闻记者的职业领地。
    事实上,这种冲击已经不再是一种单纯的想象或理论逻辑上的推演,而是实实在在、正在发生的事实。在西方传媒界,机器新闻写作自2006年首次被引入以来,已经在体育报道、财经报道、气象报道等诸多领域得到较为普遍的应用,并逐渐形成规模化的趋势。包括《纽约时报》《华盛顿邮报》《洛杉矶时报》《卫报》等在内的知名媒体纷纷将机器人纳入批量化的日常新闻写作的流程之中;美联社更是在机器写作之外,启用编辑机器人对机器自动生成的稿件进行审查,成为第一家全面引入机器新闻人的传媒机构。在中国,机器新闻写作虽然起步较晚,但其也已在传统媒体和新媒体“双平台发力”。从腾讯财经的Dreamwriter到新华社的“快笔小新”再到今日头条的“张小明”,这些写稿机器人的不断涌现以及升级换代,无不暗示着传媒业深层次地改变:机器新闻写作正在侵蚀传统新闻记者的职业领域,它正在传媒市场上“攻城略地”。
    2. 机器新闻写作高效、全天候的工作模式使它在生产出海量新闻稿的同时,在突发事件的报道中发挥着越来越重要的作用
    机器新闻写作拥有传统新闻记者无可比拟的优势,高效是其最大的特色,而这无疑契合了高速运转的现代社会对新闻时效性越来越迫切的需求。机器新闻写作遵循“抓取数据-分析数据-套用模板-生成稿件-人工把关”这一模式化的生产流程,可以在几秒甚至几毫秒内生产出一篇新闻报道。它还能做到一天24小时、一周7天的无间歇性运作。众所周知,突发事件是彰显传媒影响力的竞争高地,机器新闻写作这种高效、全天候的工作模式使它在生产出海量新闻稿之余,也在深具影响力的突发事件的报道中发挥着越来越重要的作用。例如,在地震灾难发生时,机器可以在相关数据库中第一时间采集到地震数据,并生成新闻稿进行报道。新闻生产在通往“事件发生-媒体报道”无缝对接的道路上,又向前迈进了一大步。这些都无疑将使机器新闻写作在未来新闻报道中扮演越来越重要的角色。
    3.机器新闻写作长于枯燥的、海量数据的资料处理,在整体性、精确性和高效能方面具有独特优势。
    机器新闻写作能最大限度地保障新闻的真实性,尤其是在数据型、模式化的新闻生产中更是如此。它长于处理在人类看来琐碎、庞杂的数据信息,通过既定程序对既定算法的实现,可以保证生成文本在新闻要素、新闻事实、引用数据等方面得完整和准确。除非程序设置出现偏差或者存在人为刻意地干预,否则这种数据信息的文本化呈现,在精准度上要远高于新闻记者,避免了人工录入可能出现的失误。借助大数据平台,机器新闻写作能对同一新闻事件的数据来源、内容细节进行多角度的反复对比,在“相互比对、相互印证”中,让事实真相越辩越明,让虚假信息无处容身,从而实现新闻信息的去伪存真。
    4. 机器新闻写作不仅能够生产用户偏好的新闻内容或新闻风格,而且还能提供与用户的个人生活场景相匹配的私人定制产品。
    机器新闻写作还能实现个性化的内容定制,这是传统新闻记者所无法承担和胜任的。众所周知,传统新闻生产是以最大多数人共性的信息需求为基础的,个人个性化的需求在很大程度上被忽略了。机器新闻写作的一个优势在于,它在报道热门新闻事件的同时,能够对几乎同步发生的、相对冷门的新闻事件进行报道,从而使新闻需求的长尾效应得以激活和放大。例如,今日头条的写稿机器人“张小明”在里约奥运会期间,对上百场赛事都进行了报道。事实证明,那些看似很冷门、受众关注度不高的体育报道,依然得到了相当可观的阅读量,小众的个性化阅读需求得到满足。随着技术的革新、人们对机器新闻写作群智式的修正与完善以及机器本身对语料库的不断学习,机器新闻写作会变得越来越“类人化”。 它能够针对同一新闻事件生产出风格迥异的内容版本,以适配不同受众的需求。而当技术发展到足够成熟,物与物能够互联、互通乃至“万物皆媒”时,机器新闻写作所提供给个人的将不再仅仅是其喜欢的新闻内容或偏好的新闻风格,纳入其中的,还有与其个人相匹配的生活场景——这将会是一种全方位的私人定制。
    5.在机器新闻写作逐步升级换代的大背景下,只会对新闻素材剪贴拼接的媒体工作者必将被逐出新闻传播的专业岗位。
    在这些优势的裹挟之下,机器新闻写作或将在两个维度对新闻记者产生深层次的影响:一是“谁来写”,二是“写什么”。一直以来,新闻写作都被视为是人类所独有的创造性活动,是实现社会成员间信息共享、价值传播,进而建构社会共同体的重要手段。新闻记者以“我在现场,我来告诉你发生了什么”的方式,树立了自己在新闻生产中的核心地位,并激发了人们对新闻报道背后的新闻记者的人格化想象。互联网颠覆了既有的传媒格局,这种颠覆,作用于新闻记者产生的一个重大变化,就是新闻生产与采访的日渐脱节。很多从事消息类写作等规格化内容生产的记者,不再依赖于现场采访,而是通过轻点鼠标,获取所需的新闻信息。这种信息获取的方式固然有其可取之处,但倘若新闻记者满足于此,将采访这一看家本领从自身剥离开,那么新闻记者在新闻生产中的地位将会被进一步弱化。机器新闻写作的出现,使这一担忧变成了现实。因为它不仅“能写”,打破了“人是新闻生产的唯一主体”这一既定认知,将人从写作的神坛上拉了下来,而且“会写”,甚至在特定的新闻范式内,写的比人更出色。当机器可以更快、更好、更廉价地从事新闻生产时,在市场逐利性的作用下,相当一部分不依赖于自己生产原创内容而只会在网络上拼拼贴贴,或者只能从事较低端写作的新闻记者一定会被从新闻市场中驱逐出去。这一幕,在过去数十年间,机器对蓝领工人大浪淘沙式地筛选中已经上演。
    6.机器新闻写作的算法模型将深刻地影响着我们对于世界的理解与思考模式
    媒介环境学派代表人物麦克卢汉曾提出“媒介即讯息”的观点。他精辟地指出,“人类只有在拥有了某种媒介之后,才有可能从事与之相适应的传播和其他社会活动。媒介最重要的作用就是影响了我们理解和思考的习惯”。当机器新闻写作作为一种新的媒介手段进入传媒行业时,它就已经开始对新闻记者的认知产生影响,进而在很大程度上左右着新闻记者“写什么”。这种影响主要经由两条路径来实现:一是机器新闻写作能够捕捉到某一时段受众关注的焦点,并定位数据、搜集素材,为新闻记者的写作提供方向;二是机器新闻写作能够对数据进行结构化地呈现与分析,从而将那些单看起来可能意义不大、但连接起来又很有意义的信息挖掘出来。这种形式的信息呈现无疑具有一种更加宏观的视角,更加符合互联网“连接产生意义”的本质。它将新闻记者受限于主客观条件地制约而忽略或者压根没有意识到的信息与信息间的内在关联,从碎片化的海量信息中寻找出来,为新闻记者提供了看待问题的全新视角。因此,从表面看,机器只是为新闻记者筛选素材的一种辅助性工具,新闻记者从这些呈现的素材中寻找思路和灵感,掌控着新闻生产主动权。但实际上,新闻记者看待问题的角度和方式已在这一过程中潜移默化地改变了。
    同样的,当机器新闻写作大规模地在传媒领域登堂入室,占据重要地位时,它也必将对于用户的世界观、方法论及把握世事的逻辑产生深刻的影响。总体上它会使人们更加精确、及时和完整地认识世界和把握世界,但这其中算法模型的品质高下将成为未来社会沟通和理解的关键之一。

    二、人工智能并非万能:机器新闻写作不是新闻记者的“终结者”,人机协同是未来传媒生产的主流模式

    机器新闻写作对新闻记者的冲击和影响现已成为传媒行业的一个基本共识。特别是随着技术的指数级发展,这种冲击会变得愈发强烈。新闻记者应有危机意识,正视现实、积极应对,但也不应太过悲观,沉浸于新闻记者的末日想象中无法自拔。机器新闻写作并不能成为新闻记者的“终结者”。
    1.算法、模板是机器新闻写作永远跳不出去的“窠臼”,超越算法和模板是机器新闻写作所不能的。不仅如此,当公开的信息呈现不足时、当需要透过错综复杂的社会关系进行价值判断时,机器新闻写作都暴露出自己的“阿基里斯脚踵”。
    机器新闻写作受限于技术规则的影响,存有自身的局限性。与人类相比,机器最大的软肋在于缺乏人的思辨能力、情感表达能力和创造能力。这就导致机器新闻写作从应用领域看,主要集中于体育赛事、财经报道、突发事件等高数据密度、高信息透明度、低语境的新闻报道中。这类报道往往简单而程式化,属于新闻生产中层次较低的产品。而对于调查报道、新闻评论等信息呈现相对稀缺、需要更多地克服障碍进行挖掘的报道任务;以及对于那些需要在错综复杂的社会关系中做出价值判断的作品,机器新闻写作还鲜有涉猎。从报道内容看,机器新闻写作注重事实而轻视观点,所呈现出的内容往往是简单信息的排列组合,还不具备价值解析和舆论引导的能力,更缺乏深度思考和人文关怀。从报道形式看,机器新闻写作多是对既有模板的套用,属于流水线似的生产,规范却呆板,容易导致人的审美疲劳。受益于技术开发人员对机器新闻写作模式的深度挖掘和对写作模板的扩充与丰富,机器新闻写作的风格会愈发多元。但总体而言,这种多元化的风格依然局限于一定的题材范围内,当所报道的话题超出模板所能覆盖的范围时,机器新闻写作模式化的短板将暴露无遗。
    2.技术发展的速度与社会形态、法制规则进化速度的不对称可能引发来自社会政治和法律层面的风险。
    机器新闻写作因技术推进和业务倚重,呈现出扩散性发展态势。由于其发展速度与相关规章制度出台之间存有“时差”,导致机器新闻写作不断涌现的诸多新问题、新情况得不到及时、有效地解决,可能面临着来自社会政治和法律层面的风险。机器新闻写作的一个重要基础是对海量数据的挖掘,这些数据有的来自门户类网站,有的来自谷歌、百度等搜索引擎,有的来自以UGC为基础的社会化媒体,有的来自移动终端对私人化信息的采集等。理想状态下,机器新闻写作应该在尽可能大的范围内挖掘数据,通过对海量数据的不断学习,实现自身的越来越智能化。但在现实中,所有数据的采集、利用都存在边界问题。机器可以对哪些数据进行挖掘,不可以对哪些数据进行挖掘,这个界线亟待澄清,否则容易侵犯他人隐私,产生滥用数据的隐忧。机器新闻写作在法律层面的另一个“盲区”,在于新闻产品著作权的保护。例如,机器新闻写作所依托的模板,是相关技术开发人员将文字程序语言转化成计算机编码语言写成的,包含着技术开发人员对特定资料地搜集与取舍。这些模板是否构成作品?经由这些模板生成的稿件是否享有版权?如果享有版权,谁是版权的拥有者?……诸如此类的问题,目前在学界和业界尚有争议,还没有达成共识,很可能成为阻碍机器新闻写作进一步发展的绊脚石。
    3.人机协同将成为未来传媒生产的主流模式
    机器新闻写作还离不开新闻记者的把关,特别是在重大而敏感的议题上更是如此。虽然目前少数媒体已经采用机器审核的方式,将机器写作完成的稿件直接发布,但多数媒体还是保留了“人工审核”这一关键步骤。这主要是因为机器本身并不具有独立判断新闻倾向和新闻价值的能力,其对材料的筛选更多源于对关键词句等数据的获取。人类写作的复杂之处在于,其可以在完全不出现敏感词的前提下,进行自我价值判断的预设与植入。而这无疑超出了机器所能理解的范畴,需要新闻记者帮忙,将那些不符合群体规范或把关人价值标准的信息剔除掉。例如,机器新闻写作在地震灾难的报道中,可能会抓取到一些血淋淋的现场图片。这些照片固然是真实的,可以反映彼时现场的真实面貌,但是却并不适合大范围传播。新闻报道在履行告知功能之外,还要考虑到对社会舆论的影响。归根究底,新闻报道应该弘扬真善美,而不应为了满足人的猎奇心理和窥私欲,挑战人的生理与心理极限。
    机器新闻写作对新闻记者也并非全无助益。传统新闻记者在写稿时一般遵循“搜集资料-分析资料-整合思路-进行写作”的过程。其中“资料搜集”这一初始阶段往往费时又费力。机器新闻写作能够实现资料得实时、迅速抓取,使新闻记者得以从重复、繁琐、低技术含量的数据搜集工作中解放出来,能够有更多时间去思考和从事更具想象力和创造力的工作。从这一角度而言,机器人记者可以成为新闻记者的好帮手,关键在于如何去合理地运用它。面对机器对新闻行业的冲击,新闻记者不应也不会坐以待毙,求新求变、顺势而为才是上策之选。在机器新闻写作的不断“倒逼”下,新闻记者有望实现职责的转型与升级,入职门槛将大大提高。除了更深厚的人文素养、更娴熟的文字表达技巧、更精湛的视觉呈现能力外,看待问题时是否拥有更大的视野与格局,分析问题时是否拥有强大判断力和深度阐释力,成为检验新闻记者是否具有核心竞争力的关键指标。传统的“消息型”记者将让位于机器新闻写作,调查性新闻、解释性新闻等高品质新闻类型才是新闻记者的主战场。
    概言之,机器新闻写作所引领的新的新闻生产的变革已经不可避免,在这波技术浪潮中,如何正确认识人与机器的关系,左右着人们对未来新闻行业发展趋势的判断。事实上,无论机器新闻写作如何发展,人始终都是新闻生产的核心要素,机器只是人的附属,这一点从来都没有改变。未来,人机协同将是传媒业的常态。二者如何协同合作,生产出更多元、更高品质的作品,是机器新闻写作下一步努力的方向。
    必须指出,人工智能的发展所提出的、值得警惕和研究的问题是非常深刻而重大的,有实验表明,如果对机器人写作所依托的模板更加精致化,乃至通过输入“悲伤”、“快乐”、“崇高”等词语,机器人便可以遣词造句,极为迅速的写出符合上述需求的,注入了更为细腻情感的文字,那么,在价值观塑造方面,会不会出现一个倒转,即机器人塑造了人的情感?再有,互联网+时代,由于细分市场的可能性,导致所谓全方位私人订制成为可能,这种全方位的私人订制,必然导致公众注意力的碎片化和价值观愈加多样,那么,是否还有可能实现共同价值?等等。所有这些都是技术的发展在给我们带来极大便利的同时,需要我们认真严肃地面对的重大课题,它的回答质量将决定着人类社会的未来发展及其质量。

本文参考文献
[加]马歇尔·麦克卢汉著、何道宽译:《理解媒介:论人的延伸》,南京,译林出版社,2011年。
金兼斌:《机器新闻写作:一场正在发生的革命》,《新闻与写作》,2014年,第9期。
陆高峰:《机器人是新闻人的对手还是助手?》,《青年记者》,2016年,第18期。
孙瑛:《机器人新闻:一种基于大数据的新闻生产模式》,《编辑之友》,2016年,第3期。
蒋枝宏:《传媒颠覆者:机器新闻写作》,《新闻研究导刊》,2016年,第3期。
孙振虎、张馨亚:《机器人新闻的发展与反思》,《电视研究》,2016年,第6期。
李苏:《机器新闻发展的市场进路及反思——以Autamated Insights公司为例》,《新闻界》,2015年,第18期。
杨名宜、吴海荣:《探讨“机器新闻写作”的发展趋势》,《视听》,2016年,第11期。
史安斌、龙亦凡:《新闻机器人溯源、现状与前景》,《青年记者》,2016年,第22期。
白龙:《新闻写作机器人在美国新闻业的应用》,《青年记者》,2016年,第5期。
彭兰:《移动化、智能化技术趋势下新闻生产的再定义》,《新闻记者》,2016年,第1期。


来源:微信公众号“再建巴别塔”

编辑:马晓晴

18#
发表于 2019-1-29 21:59:43 | 只看该作者
【案例】
人工智能简史之一[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]宋胖 [url=]宋胖说事儿[/url] [color=rgba(0, 0, 0, 0.298039)]3天前

今天人工智能已经不再是科幻小说的噱头,随着铺天盖地的宣传,社会对于人工智能的接受已经接近平常心。唯一能引起耸动眼球的可能就是各种大佬呼号的“人工智能替代你的工作”,让现有的很多社会岗位上的从业者感到危机。而写了《未来简史》神棍赫拉里,更是用一种夸张的手法,把人工智能吹得神乎其神,彷佛人要成为其奴隶一样。

为了理清人工智能概念的很多神话和瞎话,宋胖决定开辟个人工智能专题,谈谈我眼里的人工智能,并为大家提供一个观察视角。今天和大家粗线条的说说,人工智能的简史。

0、人工智能的形象与学科形态

影视剧科幻剧中的人工智能其形象是强大无比,能力非凡;而现实生活中的人工智能却完全不是这样。今天已经融入大家生活习惯的,搜索引擎,邮件过滤器、二维码扫描器等都是近60年来人工智能技术的实用化的具体形态。这些所谓的人工智能,都是一堆有单一功能或有限功能的裸程序。显然不是科幻电影中,无所不能的形象。

其实从历史的视角看,人工智能的发展,是曲曲折折,坎坎坷坷。一次次巨大的热情被唤起,一次次梦想的肥皂泡变为碎渣。从事人工智能研究的科学家们,不得不一次次地回到原点。今天人工智能作为一个独立的学科,其发展形态非常独特。他不是像其他学科般从分散走向统一,而是从诞生之日起,就不断地分裂,形成一堆堆杂乱无章的子领域。直到今天,依然有很多科学家想着用一个统一的认知范式来统所有人工智能领域,但这个统一的时刻还远远没有到来,大概这就是,人工智能发展的希望之火才永不磨灭的原因吧。

从时间轴上而言,人工智能的历史可以追溯100年,当然,由于在1956年达特茅斯会议上,AI(artificial intelligence)这个单词才诞生,因此将1954年之前的部分,追认到人工智能发展的源史似乎有点牵强,但是由于这段时间出现的几个数学家的确提出了影响后来,甚至现在依然是人工智能理论基础的模型,因此在梳理人工智能发展史时,应该从他们开始算。如果这样的话,人工智能简史可以划分为四个阶段。

孕育期:1900-1956年

创建期:1956-1680年

高峰期:1980-2010年

展望期:2010-今

1、造梦者:数学大神们的畅想

人工智能开启于少数几个数学家。这几位大神用方程推动了整个人类的认知升级。

(1)希尔伯特

在1900年举办的巴黎数学大会上,德高望重的老数学家希尔伯特向全世界数学家们宣布了23个未解决的难题。这些题目道道经典,其中的第二题和第十题与后来的人工智能密切相关,并最终促成了计算机的发明。

希尔伯特第二题是说能否运用公理化的方法统一整个数学,并用严格的数学推理证明数学自身的正确性。这就是著名的希尔伯特纲领。希尔伯特提出了这个问题,但他自己没有证明它,而是留给了后人。

(2)哥德尔

证明数学系统应同时具备一致性(无矛盾)和完备性(可推导)的任务落到了一个人身上,他就是哥德尔。

这位来自捷克的年轻人,是希尔伯特的粉丝,在他接过希尔伯特的火炬之后,全心去证明希尔伯特第二问题。但很快,他发现,自己的努力是徒劳的,因为希尔伯特错了。任何足够强大的数学公理系统都存在着瑕疵,一致性与完备性是不能同时具备的。

哥德尔不完备性定理的证明,然哥德尔登上了1931年的时代周刊。哥德尔定理被评选为20世纪最有影响力的数学定理。

此时,人工智能学科尚未建立,计算机也没有发明,但哥德尔定理似乎给人工智能提出了警告。也就说,如果我们把人工智能看作一个机械化的数学公理系统,根据哥德尔定理,必然存在着至少一个人类可以构造,但是机器无法求解的问题。这个可以视为人工智能的软肋。数学无法证明数学本身的正确性,人工智能无法凭自身解决所有问题。即存在着人类可以求解但是机器却不能解的问题,即人工智能不可能超过人类。

但是问题没有那么简单,上述命题成立的前提是人与机器不同,人不是一个机械的公理化系统。但这个前提成立吗?到今天,也不知道。(这个问题以后,和各位细说)


(3)大神 图灵

如前所述,与人工智能相关的有两个问题,除了第二题,还有第十题呢!这个问题是:是否存在着判定任意一个丢番图方程有解的机械化运算过程?(是不是感觉一句话每个字都认识,合在一起就不知道啥意思?)

丢番图方程是什么鬼??? 别急。

它长得这个样!


所有的 a,b ,c均是整数,若其中能找到一组整数解 者则称之有整数解。

那什么是机械化运算过程?

通俗地说,就是算法。

为了解决这个第十题,一个和哥德尔一样神的年轻人站了出来,他就是图灵!

图灵设想除了一个机器,这就是后来的图灵机,也是计算机的理论原型,非常漂亮的画出了机械化运算过程的含义,并最终为计算机的发明铺平了道路。关于图灵机,我们会单辟一篇,来解释其原理。

图灵机一经提出,就获得了科学家的认可,图灵也备受鼓舞,开始进一步思考图灵机运算能力的极限。

在1940年,图灵开始认真思考机器是否能够具备人的智能。如果具备了,用什么标准判定?在1950年,图灵提出了图灵测试的概念。

通俗而言,就是在仅仅凭声音或文字沟通,如果测试者无法将与其沟通的人与机器做区分,则将该机器通过了图灵测试。(当然,由于这个实验设计漏洞很多,导致标准非常宽泛,因此饱受争议。)

2014年,俄罗斯计算机“尤金”成为历史上第一个通过图灵测试的人工智能程序,但是由于它是使用第二语言来回答问题的,即有翻译过程,此为测试者之有5分钟的互动时间,这导致其“通过”测试的证据严重不足。

图灵测试时存在理论误区的,图灵将智能等同于符号运算的智能表现,将实现功能的智能本质本体,即机器的内涵问题绕过去了。其带来的最大误区就是,引导人工智能研究者将注意力集中在如何让程序欺骗人类测试者,以通过图灵测试,有时甚至不择手段。今天图灵测试不断受到质疑。但图灵的研究的确大大推动了人工智能的进展,这个是必须要大书特书的。

(4) 悲催的冯 .诺依曼

其实,当是由于交流条件的限制,同时思考希尔伯特问题的不止哥德尔和图灵,还有一个人,他就是冯诺依曼。但这个老兄太悲催了,总是独立思考出,他人早他一步思考出的结果。这有点像杂谈的紫胖子,总是有强烈的“后见之明”。1931年,冯诺依曼证出了希尔伯特第二问题,却发现哥德尔早就发表了哥德尔定理。于是,冯诺依曼赶紧换专业,开始研究量子力学,等攒了一堆成果,准备发表的时候,另一位天才物理学家,狄拉克抢先发表了《量子力学原理》,比冯同学早了整整两年,没法只能继续换专业。


冯诺依曼,受到两次打击之后,开始把注意力从基础数学转向工程应用领域,终于获得成功。1945年,冯诺依曼在去开会的火车上完成了早期的计算机EDVAC的设计,这就是到今天仍然在采用的冯诺依曼体系结构。1946年,他又提出存储程序原理,把程序本身当作数据来对待,程序和该程序处理的数据用同样的方式存储,并确定了存储程序计算机的五大组成部分和基本工作方法。

图灵的贡献是建立了图灵机的理论模型,奠定了人工智能的基础。而冯· 诺依曼则是首先提出了计算机体系结构的设想,他是当之无愧的当代计算机之父!他的计算机终于使得数学家们的研究出了大果子,也推动着人类历史进入信息时代,人工智能的畅想,终于离开了纸面,开始成为现实。

(4)维纳

孕育期,影响后世人工智能得最后一位大神,是诺伯特维纳。这是一个真正的天才。3岁开始学习天文学和生物学,7岁时,物理学知识和生物学知识已经可以碾压身为语言学家和博物学家的父亲,10岁熟练掌握了拉丁语、希腊语、德语和英语,并且开始涉猎人类科学的各个领域。维纳一辈子发表的论文,几乎涉及所有学科,以至于你都不知道该称呼他为那个领域的科学家。

维纳对于人工智能的最大贡献,就是控制论。1948年,维纳发表了《控制论——关于在动物和机器中控制和通讯的科学》。此后,Cybernetics成为一个学科。在这篇论文中,维纳深入探讨了机器和人的统一性,人或机器通过反馈(应该叫自耦合)完成某种目的的实现,开启了机器模拟人的可能。这为人工智能的提出奠定了重要的基础。此为维纳关于心理学、脑科学和工程学应相互交叉的洞见,促进了后来认知科学的大发展。

今天先写到这里,明天和大家说说,达特茅斯会议以及人工智能学科的初步建立,然后给大家介绍接下来的那些人工智能大神的故事。

感谢您的阅读。明儿见。

https://mp.weixin.qq.com/s/57bYIzx5zS5VC08utRfU8A编辑:邢海波



19#
发表于 2019-1-29 22:04:28 | 只看该作者
【案例】
人工智能简史之二[color=rgba(0, 0, 0, 0.298039)]宋胖 [url=]宋胖说事儿[/url] [color=rgba(0, 0, 0, 0.298039)]今天

上一次,和各位老师说了人工智能技术的孕育期的理论研究发轫。今天和各位聊聊创建期的故事。

孕育期:1900-1956年

创建期:1956-1680年

高峰期:1980-2010年

展望期:2010-今

以图灵为代表的数学大神们铺平了理论道路,以诺依曼为代表工程师们踏平了技术坎坷,计算机已经呱呱坠地的时候,人工智能终于横空出世,而这一伟大的历史时刻却是从当时看来,一个不起眼的会议开始的。

1、达特茅斯会议

1956年8月,在美国汉诺斯小镇的达特茅斯学院,约翰 .麦卡锡、马文.闵斯基(人工智能与认知学专家)、克劳德.香农(信息论之父),艾伦.纽厄尔(计算机科学家)、郝伯特.西蒙等科学家聚在一起,开了一个务虚会。即使今天看来。这个会的主题也好像非常无厘头:用机器来模仿人类学习以及其他方面的智能。

这个会足足开了俩月,天天争吵,没有达成任何普遍共识,唯一的共识,就是造了一个词儿 人工智能(AI)。

1956年,也被称为人工智能元年。

2、会后的思想大爆炸

这次会议之后,人工智能的相关理论几乎是井喷式发展。很多领域在那次会议的务虚之后取得大突破。

(1)机器证明

定理的机器证明,通俗而言就是用计算机程序代替人类进行自动推理,以证明数学定理。这是人工智能最先突破的领域。

在达特茅斯会议上,纽厄尔和西蒙已经开始在这个方面展示他俩的心肝宝贝 :一个叫逻辑理论家的小程序。这个程序当时已经可以独立证明出《数学原理》一书的38条定理,到了1963年,可以证明52条定理。

1958年,美籍华人王浩(也是个大神,以后有机会和大家细说)在IB的704计算机上用了不到不到5分钟,就证明了《数学原理》的全部220条定理。

1958年, IBM宣布研制出了可以证明平面几何的定理证明程序。

1976年,凯尼斯.阿佩尔和沃夫冈 哈肯利用人工与计算机混合的方式证明了著名的数学猜想:四色定理。这个定理说,对于任意的地图,最少仅用四种颜色就可以对所有不同国家进行染色,且任意两个相邻的国家不会重色。尽管命题很简单,但证明起来异常繁琐,配合着计算机的超强的枚举和计算能力,阿佩尔和哈肯把这个猜想证明了。

(2)机器学习

这是人工智能突破的第二个领域。在1956年的达特茅斯会议上,阿瑟.萨缪尔展示了他在1952年发明的一个跳棋程序,这个程序奇特的地方是具有自学能力,可以不断的通过比赛积累跳棋技巧。1959年,跳棋程序打败了她的设计者萨缪尔本人,1962年,这个跳棋程序打败了美国康涅狄格州的跳棋冠军。对于这个研究领域,萨缪尔起了一个名字,交机器学习。

(3)模式识别

人工智能突破的第三个领域是模式识别。

1956年奥利弗.萨尔福瑞德鼓捣出了第一个字符识别程序。

1957年,纽厄尔和西蒙开始研究不依赖于具体领域的通用问题求解器,即GPS (general problem solver)。

1963年,詹姆斯.斯拉格发表了第一个符号积分程序,该程序可以将任意一个函数表达式,转化为积分表达式。

1968年,斯拉克的符号积分运算程序完成了升级,已经可以达到美国顶尖专家水准。

3、高兴的太早了

幸福来的太快,人工智能学家们有点晕晕乎乎,开始畅想人工智能的美好未来了。

1958年喝了二两的纽厄尔和西蒙吹牛逼,说,不出10年计算机将会称为世界象棋冠军,证明所有的数学定理,谱出优美的音乐,按照真阳的趋势,人工智能到2000年将会全方位的超过人类。

然后,残酷的现实和当世这些年少情况的人工智能科学家开了一个玩笑。

1956年,机器定理的研究路径开始遇到瓶颈,计算机推倒了上完步也无法证明,两个连续函数的和仍然是连续函数。

而萨缪尔的跳棋程序也变成了“伤仲永”,永远停留在坑涅狄格州冠军的水平,无法再进一步战胜世界冠军。

出了机器定理,机器学习,人工智能在模式识别领域也遇到了瓶颈。对于人类自然语言的理解,一直是人工智能要啃下的硬骨头。但是计算机在自然语言的理解和翻译中,表现的非常糟糕。一旦涉及跨语言翻译。比如,英译中,再译回英,前后两个英文文本的意义完全对应不上。

此时,有人开始挖苦那些从美国政府拿了巨资搞机器翻译的科学家人们。说他们,花了纳税人2000万元,搞出了一个弱智儿童一样的翻译程序。

这时,人工智能科学家们开始思考残酷的现实,越来越多的瓶颈以及不利的证据,让政府和大学开始大幅削减人工智能的项目经费。人工智能技术的发展,进入了沉寂的冬天。达特茅斯会议上吹牛逼的科学家们,终于认识到,人工智能的发展没有那么顺风顺水,必须停止吹牛逼,静下来冷静思考了。

4、知识工程领域的突破

经历了短暂的挫折之后,人工智能研究者开始重新上路。新一代的人工智能科学家开始脱颖而出。其中,扛大旗的当属 爱德华.费根堡姆(1969年出生)。(主义别弄混了,一共有三费根堡姆,一个是1920年出生的阿曼德费根堡姆,这是个管理学家;一个是1944年出生的物理学家;今天这个是人工智能科学家。)

费根堡姆认识到,传统的人工智能之所以会陷入僵局,是因为太过于强调通用求解方法的作用,忽略了具体的知识,仔细思考人类的求解过程会发现,知识每时每刻都在发挥重要的作用,因此人工智能必须引入知识变量。

费根堡姆沿着这个思路,研究出了第一个专家系统。什么是专家系统?就是一个知识工程程序,通俗的说就是利用计算机化的知识,进行自动推理,从而模仿某个领域专家解决问题。

第一个成功的专家系统叫DENDRAL ,是1968年被造出来的,他可以根据质谱仪的数据推知物质的分子结构。

有了第一个,就有第二个,第三个。此后各式各样的专家系统陆续涌现,最后形成了一种软件产业的全新分支——知识产业。

1977年,在第五届国际人工智能大会上,费根鲍姆用“知识工程”称呼这个全新的领域。机器或者程序,也可以拥有知识,就这样,人工智能往前又走了一步。

在知识工程刺激下,日本的第五代计算机计划、英国的阿尔维计划、西欧的尤里卡计划、美国的星计划和中国的863计划陆续推出。虽然这些计划并非都是针对人工智能的,但是人工智能都是这些计划的重要组成部分。

但是阳光之后是风雨,在专家系统,知识工程获得大量的科研成果之后,弊端开始显现了出来。这就是知识获取难题。当时,大部分人工智能程序所需知识是由专业程序员手工编入程序的,如何从应用系统层面,让机器自动获取知识,成为一个大难题。面对这个困难,新的“费根鲍姆”没有出现,就在这个知识获取技术面前,人工智能发生了大转变,并最终分化成影响今天的的三大学派:符号主义,连接主义,行为主义。围绕究竟从何种角度获取知识,成为人工智能学科大分裂的开始,关于分裂之后的学科图景,咱们下回再说。

预知后事如何,请关注人工智能简史之三:三龙戏珠——人工智能发展的鼎盛时刻!

https://mp.weixin.qq.com/s/LsogZABZTNWCS5b3mF5iZA编辑:邢海波





20#
发表于 2019-1-30 22:15:29 | 只看该作者
【案例】

吴靖:“算法”具有自由意志吗?[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]吴 靖 [url=]中国出版[/url] [color=rgba(0, 0, 0, 0.298039)]今天

  摘要  
文章通过2018年几个有关“算法”和平台经济的负面新闻,讨论算法霸权背后的资本逻辑和技术中心主义。“算法”和“人工智能”在具体的社会经济生活中角色的加强到底意味着什么,与人类社会现有的传统伦理,产生了怎样的冲突和重塑的关系。既然新的基于算法的平台科技已经代表着人类传统生活方式的重新组合和创造性改革,我们需要思考如何在数字化与社交媒体的时代重新激活公共领域的理想与实践,让公众提供与新科技共处体验的不同面向,并且相互交流,才可能更全面地思考人类与“算法”共处并且“驯服”算法的方式。

原文刊登于2019年2期
原题为“算法”具有自由意志吗?——算法主导社会行为背后的几个悖论

20世纪中叶以来,“人工智能”一直被认为是人类科技的前沿领域,一旦有所突破,就具有改变人类历史的力量。20世纪60年代,“人工智能”与“空间技术”和“能源技术”并称为人类三大尖端技术,而到了21世纪,其他两项变成了“基因工程”和“纳米科学”,“人工智能”却又一次上榜,成为科技新浪潮的代表性技术。2016年,随着阿尔法狗大战人类围棋顶级高手的耸动新闻的热议,“人工智能”的话题从小众的尖端科技领域进入到了大众文化,人们开始讨论现实中可以实现,或者不久马上会实现的人工智能应用,而不是未来主义畅想中的缥缈景观。在机器轻易挑战了不久前还被认为是很难挑战的人类智慧高峰围棋的时刻,人类舆论充满了对人工智能即将碾压人类熟知的一切的期待与恐惧。但是总的来说,在两年前沸腾的人工智能舆论中,乐观主义成为主旋律。人类憧憬着新科技能够解决当下世界的结构性问题,感慨人类主体性可能会消退,半期待半担忧地讨论着机器全面取代人类劳工的场景。
然而到了2018年,关于“人工智能”的新闻虽然继续接二连三,但是风向却出现了巨大的转变。首先用词更加接地气了,“算法”替代了“人工智能”这个大而无当的概念,更明确指明了这一新科技发展的核心原理,那就是由计算机来模拟某些人的思维和智能,通过“算法”来实现在存在一定的输入的条件下,由计算机来完成特定功能的输出,替代或增强人类的某些决策任务与能力。另外,新闻所涉及的行业也更加具体,并不是还处于科学游戏和实验状态的“下围棋”,而是进入到自动驾驶、社交媒体和共享经济平台这些大量依靠“算法”才能成立的新技术与经济实践之中。我们可以从这些已经发生的事故和争议中,去讨论“算法”和“人工智能”在具体的社会经济生活中角色的加强到底意味着什么,以及与人类社会现有的传统伦理都产生了怎样的冲突和重塑的关系。
本文将从几个近期有关算法的新闻事件入手,讨论算法主导下的社会与经济行为在伦理层面的悖论和困境。

平台经济的算法依赖
与伦理导向

对平台经济算法问题的讨论基于滴滴顺风车的系列丑闻。滴滴平台的顺风车业务接连爆出多起抢劫、强奸、杀人的恶性案件,引发舆论危机。以滴滴为代表的“共享经济”,在2010年前后成为创投市场的宠儿。滴滴出行作为一家2012年才成立的创业公司,先后完成20轮融资,金额总量超过200亿美元,成为全球融资金额最大的未上市公司。[1]滴滴用巨大的融资额通过对出租车和网约车司机以及乘客进行补贴的方式,先后击败和收购了快的、优步等国内国际的网约车平台,获得了在中国市场的垄断地位。在引发众怒的系列恶性案件爆发之后,舆论和交通管理部门都指出了滴滴因为垄断而导致的傲慢、管理散漫和对顾客投诉与政府管理回应缓慢等问题。然而,除了垄断、管理不善和资本逐利本性这些所有企业都有可能存在的问题以外,滴滴公司作为平台经济代表的运营模式,也是造成出租车行业在劳工、服务、安全等方面问题的重要原因。
滴滴之所以能够在很短时间获得大量融资、垄断出租车以及网约车的市场,并且在很长一段时间以来一直获得政府相对宽容的管理政策,是因为类似的平台企业以通过算法可以优化交通资源配置,并且将私家车的闲置运输能力和乘客的特殊需求进行匹配,作为科技创新企业对新经济和社会做出巨大贡献的理由。“算法”在这种平台经济的模式中,被当作促进信息流通和资源高效配置的科技解决方案。在传统出租车行业服务缺陷和城市交通拥堵的大环境下,加上早期平台企业的大规模补贴政策,民众和司机都迅速被吸纳到滴滴平台之上,接受滴滴APP通过算法来调节和指挥的打车服务。另外,与传统出租车企业所不同的是,滴滴是一家轻资产的公司,它并不拥有出租车,也并不雇佣司机,不需要对固定资产以及员工福利、培训和保险进行很多投入,但是又可以因为垄断了顾客对车辆需求的信息而从司机的劳动中获得提成。滴滴与司机之间,并没有稳定的劳动关系,它实际上也并不能够承诺或者保证在自己的营销广告中所宣称的,对于乘客来说优越于传统出租车行业的各种服务。这些只是基于对互联网世界资源以及人际关系最优匹配的神话般的社会想象。在现实中,无论是司机还是乘客,都会因为没有稳定的角色期待、职业标准、工作经验和责任认定,而遇到各种各样的风险和问题。滴滴作为平台企业,最大的利益诉求就是维系用户的黏性,维持用户对平台的基本信任,甚至是对平台的依赖。因而对于顾客投诉甚至警方工作进行推诿、拖延,拒绝向政府提供运营数据和车辆信息,出了事故以后整改不到位等等作为,就不仅仅是管理不善的问题,而是滴滴这种类型的平台企业要继续运营下去的系统性做法。平台与劳动者和顾客之间,并没有直接的契约关系和社会关系,平台作为披上科技外衣的“中介”,既具有科技所带有的“客观”“中立”“精确”的光环,又是去人格化、去实体化的,很容易规避人们对“伦理”和“责任”的追问。
不少研究者和观察家都已经指出,从互联网创业大潮中所成长起来的平台企业,或者说“共享经济”,以亚马逊的Mechanical Turk,Uber,爱彼迎(Airbnb)、淘宝、滴滴等为代表,实际上是一种与新自由主义经济模式相契合的“零工经济”。[2]这种模式是建立在一种对中产阶级个体的“创意活动”浪漫化的想象之上,认为人们可以利用“业余时间”(淘宝带货)、使用“空余生产工具”(上下班路上的顺风车、出门度假空置的房屋)、利用自己职业之外的特殊才艺(外语、写代码、制作小工艺品、化妆技巧等),将这些“边角料”的资源和劳动,通过平台和算法的连接,转化成财产性收入,既充分利用了资源、服务了有需求的人,又可以获得额外的收入,并且劳动时间灵活、自主性强。但是,在现实中,新自由主义经济政策导致失业人口增加,灵活就业和不稳定工作成为常态,许多劳动者参与平台经济是作为唯一的收入来源,并非经济收益的锦上添花,而平台企业只有将零散的服务提供者与消费者捆绑在一个更加稳定和垄断的信息环境中,才可能具有可持续的盈利模式。因此,一方面是劳动者与平台之间是陌生人和异化的关系,并不具有传统企业劳动环境所形成的人际关系、职业伦理、工作稳定性和工友之间的相互支持,而另一方面是消费者和零工劳动者在垄断平台的挤压下别无选择,只能通过平台来获取工作和服务。平台算法的主导逻辑是效率和交易的达成,以及快钱的攫取,而并非服务质量的提高和产品的个性化。实际上,平台企业在连接服务提供者和潜在消费者的时候,是无法把“服务质量”这样主观性的变量的评估加入到算法之中的,它们所能做的,就是最大限度地促进交易和完成交易。具体行业的职业水准的提升和产品质量的提高,只能是专注于此的企业来不断改进,不可能由只把产品和服务看成数据和流动性的平台来实施。金融资本主导下的平台经济,不可能具有特定的、稳定的社会伦理。

大数据与传统受众调查

2018年初,英国《卫报》采访了一家名叫“剑桥分析”(Cambridge Analytica)的数据分析公司的爆料人Christopher Wylie,承认公司通过(非法)数据挖掘获得脸书(Facebook)上5000万用户的数据,用来分析用户的日常行为与他们的政治态度之间的关系。[3]英国脱欧公投和美国川普意外当选之后,自由派媒体就一直在调查这些投票的“意外情况”背后,是否有新的心理操控和政治操控技术的影响。以Facebook为代表的社交媒体,早已经成为许多分析家解释西方工业化社会政治公共领域碎片化、代表性断裂、选举政治腐化的众矢之的。这场丑闻还导致了一场为期两天的美国国会听证会,几十名议员对扎克伯格进行了连珠炮似的提问,但是似乎焦点成了Facebook如何防止泄露用户隐私数据的问题。把问题的焦点从数据分析背后所采用的“算法”及其逻辑,转移到了保护数据不外泄给潜在的邪恶力量,这使得舆论偏离了对一个重要问题的探讨:是否数据量足够大,算力足够强,人们的政治行为,比如投票,就一定是可以展示出特定的规律、可以预测并且进行人为干预的?
这个问题并不新鲜,在“大数据”这个概念兴起之前很久,通过定量数据分析,可以对社会成员的行为规律进行总结和预测,就已经成为大规模社会调查——包括商业调查和社会心理调查——所奉行的基本原理了。只不过早期的社会调查是基于特定社会学原理的抽样,而并非完整的大数据。因此,在20世纪的大部分时间,工业化社会的人们对于商业调查、社会态度调查、政治选举调查、舆论调查等几乎充斥了生活方方面面的各类调查已经见怪不怪,并且经常认为它们的结论并不准确,只是一家之言,甚至和算命相比,也精确不了太多,并没有那么容易和阴谋论或者操控选举等想象联系在一起。引发舆论恐慌的,是社交媒体、人工智能、大数据算法这些“全新”的概念,这些概念发端于20世纪60年代的军事工业,建立在对使用大型计算机来模拟和控制复杂系统与战场形势的科学期待之上。[4]因此,基于抽样的早期市场调查和基于大数据的网络时代的社会行为控制,虽然在对人类的主观行为其实是具有客观规律的、是可以预知的这个认识层面,具有根本的一致性,但是两者的区别在于网络科技、信息收集技术和芯片运算速度的指数级发展,导致人们相信一个全面监控、人类被彻底数据化的时代终于到来了。舆论对于Facebook数据泄露事件的恐慌,以及美国国会通过听证和道歉这种政治仪式试图要平复的恐慌,都是来自于对自由意志终于要全面败给人工智能和算法这一深层次的意识形态。
在算法所理解和复制的人类行为模式中,只存在大量的刺激——反应过程的集合,而不存在对于自由意志和伦理自主性的考量。尽管在算法学习中,理论上可以允许无限大的输入,但是无论输入多少变量,自由意志和伦理都是在算法所建构的复杂系统之外的。这一问题在另外一场涉及人工智能机器失败的事件中,得到了更清晰的展示。2018年3月18日,在美国亚利桑那州发生了一场自动驾驶汽车撞死了一个行人的车祸。经过调查,车祸原因在于正处于自动驾驶状态的汽车虽然感知到了前方的物体(行人),但却通过数据库的计算和判断认为那是另外一辆汽车,也在向前移动,因此没有做出任何躲闪的动作。等物体近在眼前仍旧没有移动的时候,自动驾驶的汽车无法做出有效判断,也不知道该做什么动作,于是突然把驾驶权交还给了司机,但是司机在那个时候完全没有思想准备,于是汽车径直撞上了那个“物体”:一位49岁的女性。[5]在人类智能的世界,无论是出于本能、还是出于理性判断,见到不明物体的第一反应应该是降低车速,然后再进一步判断,但是在算法的世界里,“为了安全起见而牺牲效率”可能是一个无法训练的能力,因为这种判断是基于主观判断的选择,并没有唯一的答案,并且不符合机器理性所要追求的精确和效率最大化原则。
基于Facebook数据进行政治行为预测和干预,和通过大数据训练开发的自动驾驶汽车,似乎是算法在两个完全不同领域的应用。但是,如果追究到两种技术体系所依据的基本认识论前提,那就是对于人类行为是出于自由意志和伦理判断的推动,还是来自于复杂输入的刺激——反应模式的判断,我们可以看到两者的认识论都是建立在后者的基础之上,而排斥了自由意志和伦理选择。也就是说,算法在当下一些人类活动领域的渗透,已经不是替代人类活动,或者增加某种活动的效率那么简单的事情了,而是首先对人类行动的逻辑进行了改造,从伦理逻辑和效率逻辑各占一定的比重,改造为效率逻辑和工具理性占据所有的空间,完全排斥伦理逻辑与价值理性,并且进一步在改造的基础上开发出了基于算法的人类行动模式。
早在20世纪30年代,法兰克福学派的批判理论家们在接触了美国式的媒体市场调查之后指出,文化工业总是声称自己在用最先进的调查方法——问卷、心理分析、焦点小组等等——来科学性地理解受众,表明自己给受众生产的标准化娱乐产品是受众自己想要的、需要的。其实,市场细分不过是文化工业生产链条的一部分,是由文化工业精心规划,并且通过营销、广告、市场调查中的心理暗示和分类指引,以及类型化节目的稳定投放,而逐步生产出来的。并不存在“天然”喜欢某种节目的受众,受众的品位和分类,是文化工业的重要产品,是文化工业生产逻辑的结果,而非原因。[6]由此可知,受众市场调查,就是大众传媒时代的“算法”,而社交媒体新技术所带来的,无非是对受众分类投放的更加封闭、影响力更加强大。APP与大众传媒最大的差别,就是我们连手中的遥控器都失去了,一点点放弃了偶尔越过自己的“信息茧房”,到更广阔的世界串一下门的机会。我们在不知不觉中被包裹在一个小宇宙中,与他人近在咫尺,却消费着非常不同的信息和文化,我们的品位、逻辑和价值,被“算法”所塑造和改造,也越来越依赖“算法”而存在。

“算法”治理需要公共领域

既然“算法”的主导权背后是资本和效率的价值体系,也就是哈贝马斯所说的,系统对于生活世界的逐步侵占,那么能够与“算法”主导权进行博弈的,当然就是提倡和培育价值理性与主体间性的公共领域了。在“滴滴”顺风车恶性案件丑闻的舆论之下,笔者接触到了两个小故事,可以算作公共领域和公民行动如何可能贡献于“算法”治理的注脚。第一个故事来自于一位出租车司机,在和笔者聊到出租车与“滴滴”的关系时,司机师傅专门提到一个传统司机的技能,“扫街”,也就是在大街上接招手打车的乘客。他说虽然开着打车软件,但他坚持“扫街”,“不要偷懒,把接到好单的希望都寄托在平台身上,平台就是为了把你捆绑在它那里,开始的时候用一些好的单子来诱惑你,当你失去了‘扫街’的基本技能,想着守株待兔靠平台来派单的时候,你就失去了选择劳动方式和控制自己劳动过程的主动性。平台要的是司机之间的竞争和猜疑,你需要自己掌握劳动技能,否则就只能任人摆布。”第二个故事来自于滴滴顺风车杀人案前一天曾经投诉过同一个司机的女性,她投诉后滴滴并没有及时回应和处理。第二天发生了杀人案之后,她在微博和公共媒体的采访中都表示了“深深的自责”,认为自己如果当时“不畏缩,去报警”,“这23岁的姑娘会不会就不会有事了”。
从这两位普通人身上我们可以感受到公众朴素的价值观和对社会利益的关切,完全可以通过公共领域的激荡、信息的交流和讨论,形成对平台和“算法”非常具体、到位的认识与批评。在涉及企业治理,尤其是新科技企业的治理时,通常我们习惯于所谓“利益相关方”的思维方式,更多由专家、法律代理人和企业代表来参与制定相关政策的讨论。但是,既然新的基于算法的平台科技已经代表着人类传统生活方式的重新组合和创造性改革,我们需要让公众提供与新科技共处体验的不同面向,并且相互交流,才可能更全面地思考人类与“算法”共处并且“驯服”算法的方式。吊诡的地方在于,新技术所带来的传播潜力,在资本逻辑的垄断下,可以导致“算法”霸权与人的本质能力的退化,而在公共领域的价值模式下,又是克服“算法”异化的重要前提。我们需要思考如何在数字化与社交媒体的时代重新激活公共领域的理想与实践。

注 释
[1]2012年成立,多轮融资,收购Uber,滴滴从一开始就是错的[EB/OL].https://www.admin5.com/article/20180831/874032.shtml
[2]Nick Dyer-Witheford, Cyber-Proletariat: Global Labor in the Digital Vortex, Pluto Press, 2015.
[3]Carole Cadwalladr, “‘I made Steve Bannon’s psychological warfare’: meet the data war whistleblower.” https://www.theguardian.com/news ... ok-nix-bannon-trump
[4]Paul N. Edward, The Closed World: Computers and the Politics of Discourse in Cold War America (MIT Press, 1997).
[5]Andrew Smith, “Franken-algorisms: the deadly consequences of unpredictable code.” https://www.theguardian.com/tech ... r&from=groupmessage
[6][德]马克斯·霍克海默,特奥多·威·阿多尔诺.启蒙辩证法(哲学片段)[M].洪佩郁,蔺月峰,译.重庆:重庆出版社,1990

作者简介

吴靖
北京大学新闻与传播学院教授、副院长。本科毕业于清华大学外语系,爱荷华大学传播研究系传播学硕士、博士。主要研究领域为批判媒体与文化研究,传播与媒介技术的社会理论,新媒介技术的社会使用与文化分析,新媒体与创意产业,视觉文化等。曾在Javnost-the public,International Journal of Cultural Studies,《国际新闻界》《新闻大学》《现代传播》《中国传媒报告》等国内外学术刊物上发表文章50余篇。近期的著作是2012年出版的《文化现代性的视觉表达:观看、凝视与对视》。

一直以来,其学术兴趣主要集中在媒介文化研究和批判社会与传播理论的领域。她的研究处于媒介研究中两个方向的结合点:即通过文本分析而进行的意识形态批判和对媒体工业、组织结构、行业规范、历史发展、受众解读等的政治经济学分析的结合。在此基础上,近期的研究一方面深入历史,挖掘媒介与社会的互动历程,钩沉信息社会思想史;另一方面跟踪新媒介技术和社会实践的形成及其对社会文化的影响。


https://mp.weixin.qq.com/s/xxCgc6CigcU1gfhYpUFECA编辑:邢海波


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表