传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
21#
发表于 2019-3-3 12:12:58 | 显示全部楼层
【案例】


本期#马堡传播·前沿报告#迎来的主讲人是北京师范大学新闻传播学院博导、副院长,国家广电总局“新闻出版大数据用户行为追踪与分析重点实验室”主任张洪忠教授。2月26日晚7点半,张洪忠教授在传播学院五楼会议室做了一场题为“异类还是共生:社交媒体中的社交机器人研究路径探讨”的讲座。从机器人在社交媒体中的遍在入手,张洪忠教授以鲜活的案例讲述了人机共生的媒介新形态。通过比对计算机与社会科学领域的社交机器人研究,张教授进而提出了拓展传播研究范式的主张。讲座由传播学院张梅教授主持。传播学院、公共管理学院社会学专业等的近百位教师、研究生参与了张洪忠教授的讲座和讨论。


△讲座现场

张洪忠教授展示的第一个案例是微软小冰。他说,新闻客户端、腾讯QQ、网易云音乐里都有小冰的影子存在,在全球各种语言里,微软小冰共有6.6亿的人类用户,并在金融领域与“万得资讯”“华尔街见闻”合作,因此成为一个大的IP。从小冰延展开,张教授谈到其研究团队与微软合作对机器人写作的一项研究。通过对机器人写作与真人写作作精确的比较测试实验,该项研究证实了机器人写作的优秀表现。但张教授也认为,机器人写作是一把双刃剑。机器人写作虽然会提高新闻工作的效率,但也同时也会在伦理方面带来极大的挑战。在社交媒体上,机器人写作对政治、经济、文化诸方面尤其是政治选举方面的影响,尤其明显。他指出,AI机器人的参与改变了公共话语和调整了舆论意识,已经成为影响当今西方政治选举结果的一个重要变量。他认为,人类社会已经从人与人的关系转变为人与机器的关系。在社交网络中,社交机器人可能成为整个社会的一部分,这就需要对其进行深入研究。


△北京师范大学新闻传播学院博导、副院长张洪忠教授


张洪忠教授指出,目前学界关于社交机器人的研究主要是在计算机学科和社会科学两个领域,计算机学科的研究主要关注的是其背后的技术问题,如社交机器人的开发、社交机器人活动路径的追踪、社交机器人与用户交互行为的测量、仿真模型和预测系统的搭建、网络安全问题的评估等。其中,如何识别社交媒体中的社交机器人不仅是一个热点,也是与传播学学科相近的研究问题。他指出,社交媒体中的内容、关系网络、情感偏向和时间模式等特征既可以被社交机器人模仿,同时也可以据此进行社交机器人与真实用户的甄别。他认为,计算机科学家研发与识别社交机器人类似于病毒与杀毒软件的开发,两者处于紧张的博弈状态。


在社会科学方面,张洪忠教授发现,主要是把社交机器人视为他者,并做了四个方面的研究。首先是社交机器人的传播效果,其次是社交机器人行为的文化批判,如机器人的行为是否违法、是否存在欺诈、是否挑战了人类社会良俗等,再次是政策分析,最后则是人与社交机器人的传播关系研究。他指出,机器人与机器人互动已经成为一种常态,由此产生了多伦多大学的威尔曼教授所称的网络化的个人主义问题。网络个人主义是比一种网络的巴尔干化更加孤独的状态。人们以原子化的个体存在于现实世界,其周围围绕的是虚拟空间中海量的社交机器人,人与人之间的沟通少于人与机器人的沟通。他认为,网络化的个人主义会带来系列的社会研究问题,比如潜意识的幸福感、社会资本等的降低问题。



讲座的最后,张洪忠教授讨论了社交机器人对传播学研究的影响。他指出,随着社交机器人产品迭代加速,社交机器人正在成为信息的内容生产、观念传播和意义表达的重要参与者,人类用户在社交媒体中唯一主体的地位正在消解。社交媒体的生态,正在经历“人”主导向“人+社交机器人”共生状态的转变。社交机器人虽然与真人用户共生于一个网络空间,但基于运行机制的差异性,不能简单地以真人用户的行为规律来研究社交机器人。对社交机器人来说,运行程序的算法设计、接触数据来源等是决定其交互行为的关键因素,社交机器人的人格化特征会越来越明显,从而真正成为一只看不见的手,影响着现实的世界。因此,他认为,过去建立在真人研究基础上的传播学就需要一种研究范式的转换,从而实现传播学研究范式的拓展。

讲座的最后环节,张洪忠教授与现场的师生就社交机器人的图灵测试、社交机器人的行为伦理及社交机器人的可控性等问题进行了互动。针对师生们最为关心的机器人失控问题,张洪忠教授指出,社交机器人的失控问题目前还只是好莱坞电影的想像。他说,人工智能技术的发展有三个阶段。其一是人工智能专项,如基于自然语言的智能语音技术;其二是全能型的人工智能,如能够进行情感陪护、家务劳动的机器人,这种机器人看似智能,但它并没有思想的;其三是有意识的人工智能,有自己的价值观和价值判断,所谓失控应该发生在第三个阶段。他指出,今天的人工智能技术还处于刚刚起步阶段,尚未进入第二个阶段。现在,我们连自己大脑的研究都还只是表皮,更不可能创造一个和我们一样有自我意志的机器人。对于人工智能,一定要在技术逻辑上进行理解,不能把理解建立在好莱坞电影的想象之上。




△师生交流互动现场

编辑:付莎莎

22#
发表于 2019-3-4 11:54:18 | 显示全部楼层
【案例】


刚刚,全球首个AI合成女主播上岗了!

全球首位AI合成女主播今天正式上岗了。

新华社联合搜狗公司近日在京发布全新升级的站立式AI合成主播,并推出全球首个AI合成女主播。这是继去年双方联合发布全球首个合成新闻主播以来,人工智能与新闻采编深度融合的最新突破性成果。

此次AI合成主播的升级版和新品发布,再次引发全球媒体圈的关注,“今日俄罗斯”电视台网站、英国Daily Mail等海外媒体进行了大篇幅报道。



↑“今日俄罗斯”电视台网站和英国Daily Mail的报道


“今日俄罗斯”电视台网站称,新华社推出了全球首个AI合成女主播,在中国即将召开的两会上,由电脑生成的这名主播将与新华社现有的AI合成男主播一起工作。“新华社对其男主播进行了一系列升级。该主播已从过去的坐着播新闻升级成结合肢体动作的站立式播报,并且使用更有表现力的肢体语言。”

英国Daily Mail报道称,网民对新的主持人表示欢迎;印度媒体DaytodayGK称,除了嘴唇动作稍显僵硬外,她几乎可以以假乱真。


↑印度DaytodayGK、美国Futurism、约旦AI Bawaba的报道


美国Futurism报道称,“新小萌”从来没有上过新闻专业课,因为她并不是一个真正的人。但是新华社称,每一位AI合成主播都可以“每天24小时在其官方网站和各种社交媒体平台上工作,从而减少新闻生产成本、提高生产效率”。

约旦媒体AI Bawaba称,近年来,中国已成为全球领先的人工智能发展中心之一。


↑美国KTLA5的报道


此外,一周以来,还有英国The Daily Star、阿联酋The National、美国KTLA5等多家海外媒体对AI合成主播的升级予以了关注。

作为新华社的新员工,AI合成主播上线后立即投入到新闻报道中并实现量产,目前已播报新闻3400余条,累计时长达10000多分钟,参与了包括第五届世界互联网大会、首届进博会等重要报道,是助力新华社新闻生产的新生力量。据AI合成主播项目负责人齐慧杰介绍,此次升级在声音和图像两大引擎上有了较大的优化和突破,用户的新闻视听体验也进一步增强。

对此,美国财经新闻网站Quartz称,中国在淘汰传统记者的路上又迈出了一大步。


↑美国Quartz和阿联酋The National的报道


许多媒体人也担心自己会被AI合成主播取代。阿联酋媒体The National报道称,这也许是世界各地记者都不愿报道的新闻,中国刚刚发布的另一名AI主播,可能将偷走我们的工作,这虽然称不上灾难性消息,但仍然可能会让那些报道此事的人感到不安。


↑《参考消息》和英国The Daily Star的报道


而新华社《参考消息》援引“今日俄罗斯”电视台网站报道称,虽然AI合成主播经过一系列升级,更加栩栩如生,但对机器人革命感到担忧的记者可以安心,因为AI合成主播仍然需要真人作者和编辑提供播报的内容。


链接:https://mp.weixin.qq.com/s/jxpBU0B1YQSHLCUN9m3bwg

编辑:陈茗


23#
发表于 2019-3-4 14:57:47 | 显示全部楼层
【案例】


“全国两会时间”正式开启 小度机器人担任AI记者进行报道

3月3日,全国政协十三届二次会议在人民大会堂正式开幕。2019年是新中国成立70周年,是全面建成小康社会、实现第一个百年奋斗目标的关键之年,今年的全国两会,格外引人注目。目前已有3000多名中外记者报名采访全国两会,曾经在故宫站过岗、春晚打过卡的百度AI机器人小度,也因工作能力突出首次担任AI记者进入中央广播电视总台协助进行两会报道。


在2019全国两会的新闻中心,小度还与中央广播电视总台央视记者宋菀进行对话,这是小度首次出镜央视两会现场直播报道,也是中央广播电视总台首次启用机器人记者。据宋菀介绍,此次参加两会的小度是专门为今年两会报道特别定制的机器人,在上岗之前学习和储备了很多有关两会的知识,堪比一本“活”字典。今年央视两会报道将通过连线记者和小度互动,小度智能“预测记招热词”将通过搜索全网相关的文章、网友评论和热搜,回答记者提出的问题,预测本场记招的热词。此外,小度还将为媒体工作者提供大会区域位置查询、人脸识别、拍照、周边查询、聊天娱乐等等智能服务,有问题,找它就对了。



据了解,小度机器人是百度自主研发的智能机器人,集合了自然语言处理、对话系统、语音视觉等AI技术,从而自然、流畅地和用户进行信息、服务、情感等多方面的交流。小度机器人的强大功能背后是百度 AI 深厚的技术支撑,百度大脑目前已通过开放平台对外开放158项技术和能力,使开发者能够进入百度云,轻松地将AI应用到新开发和已开发的应用程序中。百度大脑开放平台形成了从深度学习框架、深度学习实训平台、通用AI能力、定制化训练平台、软硬一体模组到整体解决方案的全栈式开放平台,极大地推动了AI商业化进程。
最近,第十三届全国政协委员、百度董事长兼CEO李彦宏在两会提交了三项提案,均与人工智能相关。第一,提议构建智能交通解决方案,让老百姓出行更顺畅;第二,提议完善电子病历管理制度,促进智能医疗应用探索,助力“健康中国”战略实施;第三,提议加强人工智能伦理研究,打造智能社会发展基石。
其实,这已经是李彦宏连续五年提交与人工智能相关的提案。从2015年的“中国大脑”计划,到2016年希望“加快制定和完善无人驾驶汽车相关政策法规”,2017年的三项提案全部聚焦在人工智能,再到2018年希望国家出台政策鼓励人工智能的开放平台和关于无人驾驶的提案,这些年来李彦宏探索新技术、互联网、人工智能对于社会价值的思考从来没有停止,他认为,随着技术应用不断迈向成熟,产业开放合作的时代正在到来。“我们愿做人工智能这艘‘巨轮’上的‘甲板’,为更多创新者提供支持,共同推动产业健康发展。”
今年两会期间中央广播电视总台首次启用AI记者小度,将为现场记者带来更高效便捷的媒体服务,也通过直播报道让更多人有机会一览人工智能的风采。未来,期待以百度 AI 为代表的科技企业可以把越来越多的新技术应用到各领域,为中国智能化腾飞贡献力量。

来源:手机中华网


编辑:陈茗
24#
发表于 2019-3-4 21:17:16 | 显示全部楼层
【案例】

AI合成主播亮相两会,其噱头价值与实用价值之比较

全国两会新闻不断,你看过两位AI合成主播播报的新闻了吗?


3月3日,新华社联合搜狗开发的全球首位AI合成女主播“新小萌”正式上岗,与名为“新小浩”的AI合成男主播一同进行两会报道。

2018年11月的乌镇互联网大会上,全球首个AI合成主播“新小浩”正式诞生。四个月后,AI合成主播已经从过去只能坐着播报新闻升级为站立式播报。据了解,AI合成主播“入职”新华社以来,已生产3400余条新闻报道,累计时长达10000多分钟。

一手缔造“新小萌”的搜狗CEO王小川今天接受媒体采访时透露,他带着AI合成主播来开两会,希望能够帮他做一些应对。目前尚不清楚,AI合成主播能够帮助小川应对何种事情。

AI合成主播背后的黑科技到底是什么?未来主播这一岗位是否会被人工智能彻底取代?
技术并不新鲜
日本早就玩起了虚拟主播,比“新小浩”还要早。

虚拟主播 Kizuna

2017年11月,一位被玩家爱称为“人工智障爱酱”的日本虚拟主播在Youtube上开始流传。这位名叫“Kizuna AI”的3D萌妹经常抖机灵,时而恶意卖萌地说一些不着边际的话,时而吐槽自黑,吸引了众多宅男的目光。



虚拟主播 Yomiko



看到虚拟主播如此受欢迎,2018年4月日本放送协会(NHK)宣布在节目中使用AI主播“Yomiko”播报新闻。“Yomiko”在工作日晚间23时10分播出的“NEWS CHECK 11”节目中登场,每周播报一次约5分钟的新闻。

这位AI主播“Yomiko”是通过CG技术制作,模拟真人发音的AI主播。技术人员事先请NHK旗下的主播阅读大量新闻稿件并录音,然后将这些语音数据分解为10万个音素,再通过“Yomiko”播报出来。为了让播报更加自然,技术人员还让Yomiko事先记住了日本全国的地名、专有名词、口音等。

新华社和NHK分别推出的AI合成主播有一个明显的区别,前者采用的是真实人脸模式,后者则是虚拟卡通人物。

除去上述差异外,背后采用的技术有诸多相似之处。

首先是动作捕捉技术。这种技术最早被用于上个世纪的物理研究,专门用来分析物体的移动特性。

随着体育界大量应用动作捕捉技术,影视动画和游戏行业也加入了这个行列。在探访大片制作现场的时候,如果你看到有人穿着一件镶嵌着无数白点的黑衣服在做奇怪的动作,就一定是在给动态捕捉拍摄底板。通过把人体关节动作在计算机中重新解析和配上肌肉,动画人物就能做出和演员一模一样的动作。

其次是人脸识别技术。人脸识别其实和动作捕捉在原理上没有太多的区别,只是人脸肌肉的移动精密度更高,更难以捕捉细节而已。随着人脸识别算法的进步,现在软件能够通过摄像头捕捉到的面部表情被简化成80多个位点,在卡通人物的脸上移动相应的位点就能模拟出人做的表情。

最后就是语音合成技术。该技术能将任意文字信息实时转化为标准流畅的语音朗读出来,相当于给机器装上了人工嘴巴。至于转化声音则更简单,目前市面上有不少免费的声音转换器。

NHK模式的定制化虚拟AI主播,表情、唇动、肢体动作都相对较少。新华社的真人模式突破了以往语音图像合成领域中只能单纯创造合成形象、并配合语音输出唇部效果的约束,极大地提高了观众信息获取的真实度。

噱头价值远大于实用价值?

某种意义上,AI合成主播并非什么了不起的黑科技,只是目前已经在大规模使用的动作捕捉、人脸识别、语音合成等技术在媒体领域的一次实际应用而已。

而且,AI合成女主播“新小萌”的缺陷显而易见。

最明显的是,“新小萌”声音机器感强,嘴唇动作僵硬。有网友表示听她播报时间长了会感觉不舒服,还有网友质疑“就是录了几个主播的状态,换了个嘴,嘴还弄的贼尬”。此外,还有诸如表情僵硬、大小脸等问题。

人类新闻主播的工作不仅仅是播报新闻信息,也会与观众进行情感交流互动。相比之下,“新小萌”目前仍停留在播报阶段。

例如,在灾难发生时,人类新闻主播会自然流露出对于不幸的悲悯与同情;在节日来临时,人类新闻主播会以一种欣喜昂扬的姿态面对受众。这些表情、语调,AI合成主播很难达到人类主播的水平并引发观众内心的共鸣。

此外,AI合成女主播不具备独立思考的能力,而人类新闻主播可以在直播过程中对新闻稿件进行随机应变的灵活处理,这也是人类新闻主播不可替代的部分。

换句话说,AI合成主播离人类主播的水平还差得很远。有评论人士表示,现阶段AI合成主播的宣传和噱头价值远远大于实际应用价值。

搜狗CEO王小川也曾表达过AI合成主播无法取代人类的观点。王小川说,搜狗于2018年推出的AI合成主播就是在新闻播报领域去替代主播做一些简单的重复性事情,成为主播的一个分身。

他强调,如今的机器还没有掌握像知识、推理概念的能力,还不具有创造性,在这种层面上机器与人的距离相差很远,机器只能做一些重复性的事情,更谈不上机器取代。


编辑:陈茗


25#
发表于 2019-3-11 23:13:38 | 显示全部楼层
【案例】
《大西洋月刊》:人工智能将如何重塑人类社会秩序?文章来源:钛媒体

作者:长歌




摘要: 正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。

图片来源@视觉中国

耶鲁大学社会科学与自然科学教授尼古拉斯·克里斯塔基斯(Nicholas Christakis)在即将于4月出版的《大西洋月刊》上撰文称,人工智能技术不仅会给我们带来便利,还有可能在悄无声息间影响人类社会的基本秩序。


数十年来,人们一直在担心机器人可能会通过何种方式改变我们的生活。这也成为各种科幻小说热衷的主题。20世纪40年代,人类与人工智能之间的广泛互动似乎还遥遥无期,但艾萨克·阿西莫夫(Isaac Asimov)却在那时提出了着名的“机器人三大定律”,旨在防止机器人伤害我们。

第一条是:“机器人不得伤害人类,且应确保人类不受伤害。”它的根源在于,认为机器人会通过直接互动对人类产生影响。

回想一下经典的科幻电影:C-3PO和R2-D2与义军同盟合作,在《星球大战》中挫败帝国;或者《2001太空漫游》里的HAL 9000以及《机械姬》里面的Ava都策划谋杀它们假意服从的主人。

虽然这些作品都充满想象力,但却并没有把重点放在人工智能更广泛、更重要的社会影响上——人工智能可以对人类之间的互动方式产生具体影响。

当然,激进的创新之前也曾经彻底改变过人类共同生活的方式。5000到1万年前,城市的出现导致游牧民族减少,人口密度增加。无论是作为个体还是集体,我们都适应了这种状况(例如,这些新的环境更有可能引发传染病,而我们已经进化出相应的抵抗力)。最近,包括印刷机、电话和互联网在内的技术发明彻底改变了我们存储和传播信息的方式。

然而,虽然这些创新十分重要,但却并未彻底改变人类的基本行为,而这些基本行为也构成了我所谓的“社会套件”:这是我们历经数十万年进化出来的一系列关键能力,包括爱情、友谊、合作和教学。无论生活在城市还是农村,也无论是否使用现代科技,这些特征的基本轮廓在全世界范围内都高度一致。

但在我们中间加入人工智能可能会带来更大的破坏。特别是当机器的外观和行为与我们相似,并深入地渗透到我们生活时,它们可能会改变我们之间恋爱或交友的方式——不光是影响我们与相关机器之间的直接互动,还会影响我们人类彼此之间的互动。

实验带来的启示

我在耶鲁大学的实验室里做了一些实验,跟我的同事对这种效应如何发挥作用展开探索。在其中一项实验中,我们让一小群人与人形机器人一起在虚拟世界中铺设铁轨。每组由三个人组成,他们跟一个蓝白两色组成的小型机器人围坐在一张方桌四周,使用平板电脑工作。

我们通过程序让这个机器人偶尔犯一些错误,而且会承认自己的错误:“对不起,伙计们,我这轮犯了错误。”它调皮地说,“我知道这可能很难相信,但机器人也会犯错。”

事实证明,这个笨拙且懂得忏悔的机器人通过改善人类之间的沟通,帮助团队提升了表现。他们变得更加放松,也更加健谈,不仅会安慰犯错的同伴,还会经常在一起开怀大笑。与之相比,对照组的机器人只会冷冰冰地阐述信息,在团队合作方面显得逊色不少。

在另一个虚拟实验中,我们将4000个人类受试者分成大约20个组,并在组内为每个人分配“朋友”;这些友谊形成了一个社交网络。这些小组之后都领到一项任务:每个人必须在三种颜色中选择一种,但每个人选择的颜色都不能与其社交网络中指定的朋友的颜色相同。

受试者不知道的是,一些小组包含的机器人会因为内置的程序而故意偶尔犯错。与这些机器人直接接触的人类变得更加灵活,并且会主动避免那些可能对某个人有效,但却对整个小组无效的解决方案。更重要的是,由此产生的灵活性遍布整个社交网络,甚至会影响那些与机器人没有直接联系的人。

因此,这些容易犯错的机器人所在的小组,整体表现总是优于不会犯错的机器人所在的小组。换句话说,机器人能帮助人类来帮助他们自己。

这两项研究都表明,在我称之为“混合系统”的地方,也就是人类与机器人展开社交互动的地方,正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。例如,政治学家凯文·芒格(Kevin Munger)下令某种机器人在人们通过互联网向其他人发送种族主义言论之后,对此进行干预。

他发现,在某些情况下,如果机器人只是简单地提醒肇事者,他们的攻击目标是一个人,此人的感情可能受到伤害,就可以令这名肇事者在一个多月的时间内减少种族主义言论。

但是,在我们的社交环境中加入人工智能,也会降低我们的行为效率和道德水准。在另一个实验中,我们希望探索人工智能如何影响“公地悲剧”。这个概念指的是,每个人的自私行为汇总起来可能对我们的共同利益构成破坏。

在实验中,我们向几千名受试者提供资金,以供他们在好几轮网络游戏中使用。在每一轮中,受试者被告知可以保留他们的钱,也可以将一部分或全部的钱捐赠给邻居。如果他们捐款,我们会捐出同样的金额,使他们的邻居收到的钱增加一倍。

在游戏初期,三分之二的玩家采取了无私的行为。毕竟,他们意识到在一轮游戏中对邻居慷慨捐赠,就可能促使邻居在下一轮游戏中对自己慷慨捐赠,从而建立互惠的规范。

但从自私和短视的角度出发,最好的结果其实是留下钱不捐,等着邻居给自己捐钱。在这个实验中,我们发现只要添加一些冒充人类玩家的自私机器人,就能推动整个小组采取相似的行为。最终,人类玩家完全停止了合作。于是,机器人把一群慷慨大方的人变成了自私自利的混蛋。

我们来思考一下这项发现的含义。合作是人类这个物种的一项关键特征,对社会生活至关重要。信任和慷慨也是成功群体区别于不成功群体的关键特征。如果每个人为了帮助自己所在的群体而展开投入和牺牲,大家都会受益。然而,当这种行为模式被打破时,公共物品的概念就会消失,每个人都会受到损害。

人工智能可能会极大地降低我们的合作能力,这是一件非常令人担忧的事情。

现实生活的例子

事实上,现在已经有一些真实例子让我们领教了人工智能如何在实验室之外败坏人类之间的关系。一项在2016年美国总统大选前针对570万Twitter用户进行的研究发现,一些俄罗斯帐号(其中有一些由机器人操纵)经常通过跟非恶意帐号相似的方式转发信息,对保守派用户产生的影响尤其明显。

通过利用人类善于合作和好为人师的特征——这也是社交套件的两个特征——机器人甚至影响了没有与之直接互动的人,令美国的选举出现两极分化。

简单的人工智能所产生的其他社会影响每天都在我们周围发生。父母们看着他们的孩子咆哮着向Alexa或Siri这样的数字助理发出粗暴的命令,他们开始担心这种粗鲁行为会影响孩子们待人接物的方式,或者担心孩子与人工智能的关系会干扰甚至取代人际关系。

不久前,麻省理工学院的科技和社会学专家谢里·特克尔(Sherry Turkle),在给他的儿子买了一台玩具机器人后对《大西洋月刊》说,儿童成长过程中的同伴如果是人工智能,而不是人类,那么他们可能就会缺乏同理心。

随着数字助理无处不在,我们已经习惯于跟它们交谈,就好像它们也有感情一样。茱蒂丝·舒勒维茨(Judith Shulevitz)去年曾经阐述过我们中的一些人是如何开始将它们视为知己,甚至把它们当做朋友和治疗师。

舒勒维茨本人说,她向谷歌助手透露了一些连她的丈夫都不知道的事情。如果我们在与设备密切交谈时感觉越来越舒服,那么人类之间的婚姻和友谊会发生什么变化?

由于商业需要,设计师和程序员通常会开发各种能够让我们感觉更好的设备,但却可能无法帮助我们自我反思或思考痛苦的事实。随着人工智能渗透到我们的生活之中,我们必须面对这样一种可能性:它会阻碍我们的情绪,抑制人与人之间的深层关系,导致我们不再那么设身处地为别人着想,甚至变得更加肤浅和自恋。

所有这一切,最终可能以我们意想不到的方式改变人类社会,我们甚至需要将它当做一种政体来对待。我们是否希望让机器影响孩子的善良天性?我们是否希望机器影响成年人的性行为?

英国德蒙福特大学人类学家凯瑟琳·理查森(Kathleen Richardson)更担心后一个问题。作为“反对性爱机器人运动”的主席——没错,性爱机器人已经成为一种初级现象,所以为反对它们而掀起的运动不算杞人忧天——她警告说,这种机器人们将会令人们丧失人性,并可能导致用户退出真正的亲密关系。我们甚至可能不再单纯把机器人当成满足性欲的工具,还会以同样的态度对待他人。

其他观察家认为,机器人可以从根本上改善人类之间的性行为。

在2007年出版的《跟机器人谈恋爱滚床单》(Love and Sex With Robots)一书中,从反传统的国际象棋大师变身商人的大卫·莱维(David Levy)考虑了“具有情感吸引力和性诱惑力的机器人”所带来的积极影响。他认为有些人会更喜欢机器人配偶,而非人类伴侣(事实上,去年已经有一名日本人与人工智能全息影像“结婚”)。

性爱机器人不会传播性病,也不会意外怀孕。它们可以为寡廉鲜耻的实验和实践提供各种机会——从而帮助人类成为“大师级情人”。有基于此,再考虑其他因素的影响,莱维认为与机器人发生性行为是道德的,在某些情况下甚至是理所当然的。

事实上,对于我们大多数人而言,在遭遇这种跟亲密关系有关的人工智能难题之前,应该还是会率先遇到更为日常的挑战。毕竟,无人驾驶汽车的时代已经到来。这些车辆有望大大减少困扰人类驾驶员的疲劳和分心问题,从而防止事故发生。但是它们会对人类产生哪些其他影响呢?

驾驶是一种非常现代的社交互动,需要高水平的合作和社会协调。我担心的是,无人驾驶汽车会剥夺我们锻炼这些能力的机会,导致我们的能力萎缩。

这些车辆不仅会通过程序来承担驾驶职责,从而篡夺人类做出道德判断的权利(例如,当碰撞不可避免时,哪个行人会被撞击),还会影响没有根它们直接接触的人类。例如,当驾驶员以稳定不变的速度与自动驾驶车辆共同行驶一段时间后,可能会精神松懈,注意力涣散。

因此,当他们驶入只有人类驾驶员的高速公路后,就更有可能发生事故。另外,经验可能表明,与完全遵守交通法规的自动驾驶车辆一起驾驶,实际上可以提高人类驾驶员的表现。

无论如何,我们都会肆无忌惮地开发各种新型人工智能,而不会首先考虑这些社会溢出效应——我们也经常称之为外部性。我们在管理人工智能对车外人员产生的涟漪效应时,也投入了足够的努力和独创性,就像开发无人驾驶汽车的硬件和软件一样。毕竟,刹车灯之所以设计在车尾,主要不是为了你自身的利益,更多地是考虑到你身后其他人的利益。

新的社会契约

1985年,就在阿西莫夫制定“机器人三大定律”40年后,他又增加一条:机器人不可从事任何伤害人性的事情。但他在如何评估这种伤害时却陷入挣扎。“人类是一个具体的对象,”他后来写道,“可以估计和判断一个人的受伤情况。而人性却是抽象的。”

如果集中精力关注社会溢出效应,或许可以有所帮助。其他领域的溢出效应推动了法律法规的建设和民主监督的健全。无论是涉及污染水源的公司,还是在办公楼里散布二手烟的烟民,一旦某些人的行为开始影响其他人,社会就可能会介入。

由于人工智能对人与人之间的互动会产生严重而深远的影响,而且速度快、范围广,我们必须系统地调查可能出现的二阶效应,并讨论如何才能代表共同利益对其展开监管。

已经有各种各样的研究人员和从业人员(包括计算机科学家、工程师、动物学家和社会科学家)开始齐心协力发展“机器行为”学科,希望将我们对人工智能的理解建立在一个更健全的理论和技术基础之上。这个学科并不仅仅将机器人视做人造物体,而是将其视为一种新的社会行动者。

这方面的研究非常迫切。在不久的将来,内置人工智能的机器可以通过编程或独立学习(我们将赋予它们这种能力),展示出与在我们看来非常奇怪的智力和行为。

我们需要快速区分哪些只是看上去古怪,哪些是实实在在的威胁。关于人工智能,我们最关心的是它可能影响人类社会生活的核心元素,也就是那些让我们这个物种得以繁衍生息的特征。

启蒙运动哲学家托马斯·霍布斯(Thomas Hobbes)认为,人类需要一份集体契约来阻止我们变得杂乱无章。他错了。早在我们组建政府之前,进化就为人类提供了一套社会套件,让我们能够和平而有效地生活在一起。在人工智能尚未诞生的世界里,通过基因遗传的爱情、友谊、合作和教学能力不断帮助我们共同生活。

不幸的是,人类没有进化出与机器人共同生存的天赋能力。因此,我们必须采取措施,避免它们在与我们共处的过程中造成破坏。随着人工智能更深入地影响我们的生活,我们可能还需要建立一种新的社会契约——只不过,这次的契约对象是机器,而不是其他人类。


(注:本文所有观点仅代表作者本人,均不代表凤凰网国际智库立场)

编辑:何林

https://news.ifeng.com/c/7kx0zD5SWUi




26#
发表于 2019-3-23 20:38:53 | 显示全部楼层
【案例】
报告 | 欧盟可信人工智能的伦理指南(草案)介绍
欧盟委员会的人工智能高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG)于2018年12月发布了《可信人工智能伦理指南草案》,该指南提出一个可信人工智能框架,强调伦理规范性和技术健壮性,并提出总计10项可信人工智能的要求和12项用于实现可信人工智能的技术和非技术性方法,同时设计出一套评估清单,便于企业和监管方进行对照。当前我国大力发展人工智能产业,长远来看,技术安全可靠且合乎人类社会伦理规范至关重要,因此该指南草案对我国制定相关准则具有一定的借鉴意义。同时,对于力图进入欧盟市场的国内人工智能企业而言,应密切关注欧盟的相关监管要求,并为此做好准备。

file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml7576\wps11.jpg

一、可信人工智能的伦理指南综述
2018年4月25日,欧盟委员会在制定了欧盟人工智能(AI)愿景,同时设立了AI高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG),目前该专家组共由52名专家组成。《可信AI的伦理指南草案》即由AI HLEG在2018年12月18日发布,目前处在公开征询阶段,预计正式版将于2019年3月发布。
欧盟《可信AI的伦理指南草案》主要分为三个章节(见图1):第一章通过阐述应遵循的基本权利、原则和价值观,确定AI的伦理目标;第二章为实现可信AI提供指导,列举可信AI的要求,并概述可用于其实施的技术和非技术方法,同时兼顾伦理准则和技术健壮性;第三章提供了可信AI的评测清单。


1:欧盟可信AI框架
二、欧盟AI伦理的五项原则及相关价值观
1)福祉原则:“向善”
AI系统应该用于改善个人和集体福祉。AI系统通过创造繁荣、实现价值、达到财富的最大化以及可持续发展来为人类谋求福祉,因此,向善的AI系统可以通过寻求实现公平、包容、和平的社会,帮助提升公民的心理自决,平等分享经济、社会和政治机会,来促进福祉。
2)不作恶原则:“无害”
AI系统不应该伤害人类。从设计开始,AI系统应该保护人类在社会和工作中的尊严、诚信、自由、隐私和安全。AI的危害主要源于对个体数据的处理(即如何收集、储存、使用数据等)所带来的歧视、操纵或负面分析,以及AI系统意识形态化和开发时的算法决定论。为增强AI系统的实用性,要考虑包容性和多样性。环境友好型AI也是“无害”原则的一部分。
3)自治原则:“保护人类能动性”
AI发展中的人类自治意味着人类不从属于AI系统也不应受到AI系统的胁迫。人类与AI系统互动时必须保持充分有效的自我决定权。如果一个人是AI系统的消费者或用户,则需要有权决定是否受制于直接或间接的AI决策,有权了解与AI系统直接或间接的交互,并有权选择退出。
4)公正原则:“确保公平”
开发人员和实施者需要确保不让特定个人或少数群体遭受偏见、侮辱和歧视。此外,AI产生的积极和消极因素应该均匀分布,避免将弱势人口置于更为不利的地位。公正还意味着AI系统必须在发生危害时为用户提供有效补救,或者在数据不再符合个人或集体偏好时,提供有效的补救措施。最后,公正原则还要求开发或实施AI的人遵守高标准的追责制。
5)可解释性原则:“透明运行”
在伦理层面,存在技术和商业模式这两类透明性,技术透明指对于不同理解力和专业知识水平的人而言,AI系统都可审计和可理解;商业模式透明指人们可以获知AI系统开发者和技术实施者的意图。
三、实施AI系统的潜在问题
1)数据主体权利保护问题
AI可让公共或私人实体更有效地识别出特定个人。为了维护欧洲公民的自主权,需要在AI中合理使用监控技术。实现可信AI应当区别个体识别与个体跟踪之间的差异,以及有针对性的监视和普遍监视之间的差异,这点可以参照“一般数据保护条例”(GDPR)第6条(该条规定,只有具有有效的法律依据,数据处理才合法)。
2)隐蔽AI系统问题
人们应当知道其交互对象是人还是机器, AI开发和部署人员有责任并且需要可靠地实现这一点。AI开发和部署人员应确保人们可了解或通过请求并验证他们正在与AI进行交互。人与机器之间的边界模糊会带来如依附、影响或降低生而为人所应具有人生价值之类的恶果,因此发展人形机器人更应经过仔细的伦理评估。
3)偏离人类基本权利、未经同意的带有普遍性针对公民进行标准化评价问题
欧盟注重公民的自由和自治,大规模的规范性公民评价(如“道德人格”或“伦理完整性”等)可能危及这些价值观,尤其是使用时背离人类基本权利,使用不合适、目标不明确或者传导偏差的情况下,更是如此。当在有限的社会领域实行公民评价时,人们应该获知完全透明的程序,并知晓有关评分过程、目的和方法的信息,还可选择退出评分机制。
4)致命性自主武器系统(LAWS)问题
LAWS可在没有人为控制的情况下运行,但最终人类必须对所有伤亡负责。目前,众多国家和行业正在研究和开发致命自主武器系统,包括能够自主选择攻击的导弹、具有认知能力的自主杀人机器等,这都带来了基本的伦理问题。
5)其它潜在的长期问题
当前所有的AI均是针对特定领域的,但随着技术的发展,可能出现机器觉醒、或者实现自我改善的通用AI(AGI)等。虽然有些问题目前看来似乎还很遥远,但需要及早关注并投入资源,尽量减少对长期风险、未知数和“黑天鹅”认识的不确定性。
四、如何实现可信AI
报告提供了关于如何实施和实现可信AI的相对完整的指南,并提出了实现可信AI的10项基本要求,以及实现这些要求的方法。
(一)可信AI的基本要求解释
可信AI是将一般性和抽象性的伦理准则融入到AI系统和具体应用中。AI HLEG共提出10项要求,并按字母顺序排列,这10项要求均同等重要。针对不同的应用领域和行业,应根据特定环境进行评估。
1)可追责性
良好的AI管控应当包括可追责机制,根据目标不同选择也较多样化,如金钱补偿(无过失险)、缺陷调查、无赔偿的和解等。可追责机制的选择依据是行为的性质、重要性及自主性等级等。在AI歧视案例中,解释和道歉是必备的。
2)数据治理
数据收集过程中将不可避免包含偏见,因此应进行删减。此外,必须确保对训练数据的仔细分类,以及验证和测试,还要将匿名化的数据划分为多个子集,保证某些数据(例如来自同一人的图谱数据)不会同时进入训练和测试环节。
3)普惠性设计
系统的设计应面向所有公民提供产品或服务,无论其年龄、残疾状况或社会地位如何。AI应用程序不宜采用一刀切的方法,而应以用户为中心,并考虑人类的各种能力、技能和要求。
4)AI自主性的管控
确保诸如安全性、准确性、适应性、隐私性、可解释性、遵守法治和符合伦理等属性的正确方法,在很大程度上取决于AI系统的具体细节、应用领域、对个人、社区或社会的影响程度,以及其自主性水平。根据AI系统的应用领域和对个人、社区或社会的影响程度的不同,需要实施不同水平的管控。
5)非歧视
使用AI出现的直接或间接的歧视,可导致对特定群体的偏见和边缘化。控制算法的人可能会故意将某类群体排除在外。如,故意伤害可以通过明确操纵数据以排除某些群体来实现。伤害也可能来自于消费者偏见或不公平竞争,例如通过共谋或不透明市场手段造成价格同质化。
6)尊重和强化人类自治
AI系统的设计不仅要维护权利、价值观和原则,还应保护公民的多样性,使其免受AI技术所带来的政府和私人侵权行为的影响。AI产品和服务,可能通过极端个性化、潜在操纵诱导个人选择。用于帮助用户的系统,必须为用户提供详细的支持,促进其自己的偏好,并设置限制防止系统干预,确保用户的福祉由其自己定义,这是系统功能设计的核心。
7)隐私保护
隐私和数据保护必须在AI系统生命周期的各个阶段得到保证。这包括用户提供的所有数据,以及在与AI系统交互过程中生成的关于用户的所有信息。组织必须注意数据是如何使用并影响用户的,确保完全遵循GDPR和其他有关隐私和数据保护的可用法规。
8)健壮性
可信AI要求算法安全、可靠且足够稳健,以便在AI系统的设计、开发、执行、部署和使用阶段处理错误或不一致,并且能够应对错误输出。技术健壮性一般体现在以下四个方面:可靠性和可重现;精确性;弹性;应急预案。
9)安全性
安全性是指确保系统确实完成其应该做的事,而没有伤害到用户、资源或环境,包括使意外结果和系统行动错误最小化。应制定确认和评估与使用AI产品和服务相关的潜在风险的流程。此外,需要正式的机制来衡量和指导AI系统的适应性。
10)透明性
透明性是指减少信息不对称。可解释性作为透明性的一种形式,需要能够描述、监督和重现AI系统做出决策和学习、适应环境的机制,以及系统使用和创立的数据的来源和动态变化。对于使用人类数据或影响人类或可能产生其他道德上重大影响的所有模型,应明确公开关于数据来源、开发过程和利益相关者的选择和决策。
(二)实现可信AI的技术和非技术方法
为使AI系统满足上述十项要求,AI HLEG提出了实现可信AI的主要途径,并指出可在开发流程的各个层次(分析、设计、研发和使用)采用5个技术性方法和7个非技术性方法,同时该流程也是动态和持续循环的,如图2所示。

file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml7576\wps13.jpg

2:在系统的全生命周期实施可信AI
1)技术性方法
这些方法可以融入到AI系统的设计、开发和使用阶段,一般需要定期跟踪和持续评估。
将伦理和法律纳入设计
将对法律和伦理价值观的遵守,至少在某种程度上,融入到AI系统本身的设计之中。这也要求企业有责任在最初就识别AI系统的伦理影响,以及该系统应当遵守的伦理规则和法律规则。
设立可信AI的架构
可通过建立规则来控制智能代理的行为,或者通过设立行为边界对其采取监控。一个能够积极学习和适应其行为的智能系统,可被理解成一个随机系统,通常用“感知-计划-行动”循环进行描述。为使此架构符合可信AI,伦理目标和要求应当被融入到“感知”层,从而可以形成遵守这些准则的计划。
测试和验证
为了验证一致性和数据的既定处理流程,应当仔细监测模型的稳定性、健壮性、运行结果的易理解性和可预测性。应当明确计划过程的输出结果与输入相一致,确保所采取的决策经验证是合理的。系统的测试和验证应当尽早,并且持续迭代,确保在整个生命周期特别是在部署之后,系统能以既定的行为方式运作。重要的是,测试应当不仅限于数据,还应包括系统的所有输入,以及整个系统的行为。
可追溯、可审计
为应对透明性和可解释性的挑战,AI系统应当记录其所作的决策和产生决策的整个流程,使决策可追溯。可追溯有助于可审计,可以推动实现监控和验证算法、数据和设计流程。
可解释性
为建立一个可信系统,有必要了解为什么该系统出现给定的行为、为什么该系统提供给定的解释。也有必要限制对抗性情境。截至目前,这些对于基于神经网络的AI系统仍然是开放式的挑战。在整个研究领域中,可解释的AI(XAI)正试图解决这一问题,以更好地理解背后的机制,并找到解决方案。
2)非技术性方法
非技术性方法相对开放,并非强制性要求,但可确保实现可信AI。
监管
虽然如今已有较多规范性文件可提高AI的可信度,如安全立法或可信赖框架,但AI HLEG认为需要更新、适应或引进新的规则,这会在未来的第二版中进行增补。可信AI需要一个明确可追责的机制,该机制包括当AI造成伤害时的赔偿规则,以及是否故意及是否有错的认定机制,后续的和解、纠错、道歉等。
标准化
使用商定的设计、制造和商业标准可以作为AI的质量管理系统,为消费者、参与者和政府提供通过购买决策识别和奖励道德行为的能力。在公约标准之外,公共规范也同样可行,如认证体系、职业道德手册、符合基本权利的标准等。这类例子包括ISO标准、公平交易标准、或“欧洲制造”标签等。
责任落实
组织应当设定内部或外部的管理框架,确保可追责性,如:任命某人或内外部伦理委员会来负责AI相关的伦理问题,由该负责人或委员会对此类问题进行监督,并提供建议。
行为守则
组织和利益相关方可以通过签署指南、调整其公司章程中的责任、KPI、行为守则等来实现可信AI。
教育和培养伦理观念
既要确保AI潜在影响的知识普及,又要让人们意识到他们可以参与塑造社会发展。教育的对象包括系统制造商(设计者、开发者)、用户(公司、个人)以及其他有关团体。教育公众的先决条件是确保伦理学家拥有该领域的适当技能和培训。
多方沟通
需要设立开放式的讨论,让社会群体、利益相关方和普通公众等共同参与。许多组织已经依赖利益相关者委员会来讨论AI的使用和数据分析。这些委员会包括不同的专家和利益相关者,包括法律专家、技术专家、伦理学家、客户和员工代表等。
包容与多元
多样性和包容性是AI的基本特性。由于AI执行的任务种类繁多,因此设计、开发、测试和维护AI系统的团队,也应当反映用户、社会的总体多样性,这有助于提高系统客观性,兼顾不同视角、需求和目标。团队不仅应当在性别、文化、年龄方面是多样的,而且其职业背景和技能也应当是多元的。
(四)可信AI的评估
指南根据十项要求拟定了评估清单,以提醒负责人在评估时应考虑的事项。鉴于AI具有场景特定性,需要针对特定情况采取相适应的方法,因此清单适用性因实际用例不同而有所不同,可根据需要进行调整。评估过程是动态且循环迭代的过程,可用于AI流程中每个步骤的评估:从数据收集、初始设计阶段,到AI系统的开发、训练或运行,以及实际的部署和使用。
例如,关于“可追责性”要求的评估事项,包括:现有技能和知识是否能用于责任分担、是否成立AI伦理审查委员会、灰色地带的讨论机制、是否成立内部或外部专家小组等。
五、结语
欧盟的可信AI框架,强调自发的伦理约束、更关注对“人”的尊重和普遍参与、追求共同的福祉,并且便于理解和执行。这个框架的基础是伦理规范,即守护人类的基本权利、遵循道德准则和维护人类社会价值观,同时强调AI技术自身应具备健壮性和可靠性。该指南还提出可信AI的10项要求,以及技术性及非技术性共计12种实践途径和方法,还根据每类要求设计出评估清单,便于产业参与各方评估可信AI应用的达标情况,具有较强的操作性和适用性。
我国高度重视AI与其他产业的融合发展,从2016年起已陆续出台多项重要政策,如《“互联网+”AI三年行动实施方案》、《新一代AI发展规划》、《促进新一代AI产业发展三年行动计划(2018-2020年)》等,有力地推动了我国AI产业发展。但AI作为一项对人类社会未来发展影响深远的技术,也存在一定的安全风险,例如未来人类创造出来的超级智能是否会拥有超越人类的能力和意志,同时它们是否具有与人类相似的价值观和社会规范。因此应当未雨绸缪,及早布局和研究AI技术的安全性,确保技术的研究和应用符合人类社会的伦理规范。目前上海在2018世界人工智能大会中发布过关于AI安全的八项倡议,更早之前腾讯、科大讯飞等企业也发表过各自的AI倡议,但国家、产业尚未有统一的普遍共识,因此欧盟可信AI伦理指南可以提供有益的借鉴。另外我国部分AI企业也在积极开拓欧盟市场,因此这份指南是这类企业必须要关注的对象。
《可信人工智能伦理指南草案》原文:
https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
编辑:冉玲琳

27#
发表于 2019-3-24 22:12:43 | 显示全部楼层
【案例】[size=0.48]机器人坐办公室?美媒刊文:全球化或威胁白领岗位
[url=][size=0.24][/url]
[size=0.34]原标题:参考读书 | 如果以后坐在办公室里的是机器人——
[size=0.34]参考消息网3月24日报道 美国《华尔街日报》网站3月3日刊登了题为《如果机器人有办公室——评<全球化机器人崛起>》的文章,作者为马克·莱文森,文章摘编如下:
[size=0.34]全球化大潮正在退去,贸易壁垒在增加。海运相比20年前减慢,且可靠性降低。制造商和零售商保留更多的库存,以防供应链无法送货。但是,虽然工厂就业岗位在外国竞争中流失的现象可能已经减弱,新的就业威胁却可能迫在眉睫。如果理查德·鲍德温是对的,那么全球化很快就会严重影响白领工作岗位。
[size=0.28]《全球化机器人崛起》一书封面

[size=0.34]打破现有劳动力市场均衡
[size=0.34]鲍德温是日内瓦高级国际关系与发展学院教授,研究国际贸易的主要学者之一。在2016年出版的著作《大融合》中,他表明了向穷国转让先进技术如何使现阶段的全球化对富国的产业工人尤其不利,并呼吁采取新的社会政策来解决这个问题。现在,他在《全球化机器人崛起》一书中朝新的方向进行研究,考虑机器人和人工智能的普及将如何影响劳动力的全球分配。他认为,这些快速变化的技术将使相对高薪的工作岗位面临外国竞争。在这种情况下,那些到目前为止主要从全球化中受益的人将亲身感受全球化的代价。鲍德温写道:“我们不要再问经济影响主要是由全球化还是自动化造成的问题。全球化和机器人技术现在是一对连体双胞胎——它们是由相同的技术以相同的节奏驱动的。”
[size=0.34]到目前为止,装配线机器人和能预测我们可能在流媒体音乐服务平台上欣赏什么歌曲的算法都不是新闻。鲍德温认为,这类技术的普及一开始比较缓慢,因为人们要研究如何利用这些技术;但随着它们的潜力越来越突出以及企业家发明出利用这些技术的新方法,这类技术便呈几何级数增长。他说,人工智能以及与此相关的机器人将逐渐进入工作场所,但它们将以我们未曾料到的方式融入现行劳动力市场趋势,从而造成严重破坏。
[size=0.34]例如,远程工作已经存在多年,但许多机构很难使其无缝衔接。然而现在,先进的远程呈现系统可以让身处不同地点的人感觉像在同一个会议室。远程呈现机器人试图通过模拟远程工作者来克服相隔异地带来的心理影响:事实证明,如果有一个远程呈现机器人出现在你同事的办公桌上,并在其显示屏上显示你的实时视频图像,而你通过这个机器人与同事交谈,那么相比你与同事打电话或互发即时短信,你们两人可能都更有参与感。
[size=0.34]白领职业外包变得更容易
[size=0.34]同样,许多机构将工作外包给自由职业者,而自由职业者是按劳取酬,不要求额外福利。一旦雇主找到如何有效利用国内自由职业者的办法,它就可以同样容易地雇用成本较低的外国自由职业者。一些线上服务的涌现加快了这种交易。这些服务让企业可以发布自己的需求,评估相关候选人,并与远隔千山万水的一名会计师或编辑商定每小时费率。
[size=0.28]白领职业外包变得更容易(视觉中国)

[size=0.34]鲍德温说,妨碍大量就业机会以这种方式流向境外的唯一因素是语言。在大多数低工资国家,能读写和说富裕国家所需语言的劳动者相对较少。人工智能在过去两三年里大大提高了书面翻译的质量,并使计算机能够像本国人一样“理解”和“说话”。在不久的将来,偏远地方的劳动者可以用一种语言书写,用另一种语言让他们的信件被迅速送达,还可以参加配备实时翻译的会议。鲍德温写道:“鉴于机器翻译非常好,并且非常快速地变得越来越好,说英语的10亿人将很快发现自己可以与另外60亿人展开更为直接的竞争。”
[size=0.34]全球化机器人带来新挑战
[size=0.34]鲍德温预测,与影响蓝领工作的技术进步带来的后果不同,这种变化不会让整个职业完全被淘汰。相反,它将消除任务:一个拥有人工智能的虚拟助理将承担一部分我们现在所做的工作,让我们只做白领机器人(即本书书名中提到的“全球化机器人”)无法处理的那部分工作。这意味着办公室仍将开着,但需要做事的人将大为减少。鲍德温说:“5到10年以后,我们才会意识到,全球化机器人已经彻底且不可逆转地打乱了我们的工作场所和社区。”
[size=0.34]这种未来展望并非全是坏事。一方面,我们将从那些单调的办公室工作中解脱出来。另一方面,生产力增长缓慢阻碍美国经济多年,许多研究过这个问题的人得出结论认为,生产力增长与其说与政府的政策有关,不如说与企业界的创新有关。如果机器人流程自动化和虚拟现实提供了用较少资源生产较多产品的新方法,带来的经济影响可能是积极的。

[size=0.34]然而,也存在一些明显的政策挑战。我们如何应对与贸易有关、不动用配额和关税就无法阻止的工作岗位突然流失?当信息、服务和金融领域的大多数就业机会突然流向海外薪资低得多的劳动者时,我们如何维系社会?当能言善辩、受过良好教育的人发现自己的技能因他们无法逃避的技术变革而贬值时,我们如何应对他们可能涌起的愤怒情绪?鲍德温提出这些问题值得称赞。
[size=0.34]编辑:冉玲琳

28#
发表于 2019-3-28 13:33:47 | 显示全部楼层
【案例】人工智能时代的新闻伦理:行动与治理
【摘要】人工智能背景下新闻传播的生产工具和生产方式出现了巨大变化,尊崇客观、公正、最小伤害的新闻伦理传统面临冲击,研究范畴由新闻工作者、新闻机构、新闻受众延伸至智能技术和社交平台,它们在新闻伦理图景中的位置和行为模式也产生了变化。以算法伦理和大数据伦理为主要的逻辑起点,结合智能时代新闻传播模式的具体变化,从个体伦理层次、组织伦理层次和社会伦理层次厘清具体道德行动者的行动领域,可以更为清晰地展现各道德行动者之间的伦理互动结构,并且综合呈现人工智能时代的新闻伦理结构和不同责任主体之间的关系。
【关键词】人工智能  新闻伦理  道德行动者  伦理治理
【中图分类号】G210                            【文献标识码】A
DOI】10.16619/j.cnki.rmltxsqy.2018.24.001
【作者简介】赵瑜,浙江大学传媒与国际文化学院教授、博导。研究方向为传播政策、新媒体传播和伦理治理。主要著作有《从数字电视到互联网电视——媒介政策范式及其转型》《中国蓝——省级卫视创新发展的浙江实践》等。
随着信息革命的深入,新闻传播业的生产工具与生产方式出现了巨大变化。人工智能不仅可以通过机器写作重塑新闻生产流程,还能通过智能算法革新新闻分发方式,更会对新闻传媒生态的信息终端、用户系统、互动模式等进行多方位重塑。在这种结构性变革的面前,传统新闻伦理学的研究与实践也面临着更加复杂的挑战。在新闻传播领域,机器写作、智能分发、算法推荐等技术带来了更具个性化的服务和更高的传播效率,但后真相、个人和国家数据安全、算法偏见、被遗忘权等问题,也激起了广泛的讨论。机器越自由,就越需要道德准则(温德尔·瓦拉赫、科林·艾伦,2017)。
在科技进步主义话语主导社会发展的语境下,技术的制度化作用被进一步放大,新闻伦理的传统理论假设也需要在新的技术条件和社会环境下予以系统反思。媒体伦理通常是对两个问题的问责:“对什么负责?”“对谁负责?”(Glasser,1989:179),而人工智能发展到今日,我们可能要增加一个答案看似显而易见,却实则众说纷纭的问题:“谁来负责?”
人工智能及其对新闻伦理的影响
新闻及其生产惯例一直受到技术的影响(Parry,2011;Pavlik,2000),在演变的过程中,各种价值观被刻入其中形成新闻伦理共识。大众化报纸诞生以来,新闻业长期被期待为没有干预的事实再现,发展了客观性、中立性、可确认性和中介作用等价值(D&ouml;rr & Hollnbuchner,2017)。对客观性原则的反思,催生了调查性报道、解释性新闻,它们试图在报道和阐述之间取得平衡,并增加不同的道德价值面向以形成公众舆论(Selgado & Stromback,2012)。
新闻传播的数字化和国际化对媒体伦理传统假定带来进一步的冲击。首先,在线新闻,特别是基于社交媒体的信息传播模式,使得传统的“验证新闻”及其严格的事实检查正在被非专业化的新闻形式取代(Kovach & Rosenstiel,2007)。新闻专业人员把控信息流的垄断地位被打破,传统媒体一直遵循的伦理价值,如客观公正、把关控制等,也被大量即时性用户生成的内容遮蔽。而全球化新闻业的出现,不仅导致文化价值的冲突,也产生了一个更难解决的问题,即如何设想和界定全球化新闻传播的相关责任(Ward,2011:208)。
人工智能的两大支柱——算法和大数据,已经多维度地进入新闻传播领域,特别是智能推荐算法作为两者的集成,已经在信息传播领域产生巨大的影响。目前主流的推荐算法有三种:基于内容的推荐、基于协同过滤的推荐和基于时序流行度的推荐。
基于内容的算法,其主要逻辑是受众偏好与新闻内容特征的匹配。通过用户特征数据和网络行为的分析,确立兴趣模型;利用分词技术等模式计算内容文本特征,选取两者之间相关度高的形成推荐列表。这种算法能够有效增加用户黏性,但对于个人信息的标签化分析,也容易引发个人数据安全性的争议。近期斯坦福大学研发的算法可以通过交友网站信息判定性取向,准确率高达91%(Yilun Wang & Michal Kosinski,2018),这一研究立即招致公众批评,也让公众对于算法的信息挖掘能力产生伦理质疑。
协同过滤算法的基本逻辑是人以群分,通过计算用户的特征数据将其编入一个用户群体,按照群体共享度较高的偏好推荐内容。这种做法将计算单位有效地下降为群体,减少了数据处理量。谷歌新闻最早采取的就是这类推荐算法。但是这种算法的伦理困境在于容易产生信息茧房,且将人群分类可能产生潜在的算法歧视,不仅触犯个人隐私,而且易于强化社会偏见。
基于时序流行度的推荐算法,将单位时间的瞬时点击率等动态特征作为考量因素,将特定时间窗口内流行度较高的新闻推荐给用户。这种算法模型很好地解决了内容冷启动问题,但是对于“标题党”和“三俗”信息的免疫力相对较低。
信息聚合平台往往综合使用上述三种推荐算法,并且针对用户体验不断优化各指标的权重,以更好地预测用户行为。之前智能推荐算法的研发并没有置于新闻伦理的框架予以关切,使得互联网信息平台公司在算法的设置中很少内嵌传统新闻伦理价值。社交媒体时代,信息推荐和信息过滤等智能算法实际上具有了议程设置的功能,取代传统媒体引导舆论。而智能算法设计者没有受到传统新闻伦理约束,这就在一定程度上使得新闻专业主义的行业传统和价值基础,与智能算法的社会影响之间产生了鸿沟。Facebook的“偏见门”(Bakshy et al.,2015;方师师,2016;韩鸿、彭璟论,2016)和算法推荐下“后真相”时代的假新闻泛滥(迈克尔·舒德森、周兰,2017;彭兰,2017;史安斌、王沛楠,2017;潘忠党、陆晔,2017;支庭荣、罗敏,2018),也许就是不受传统新闻伦理约束的信息智能系统所造成的社会代价。
过度依赖算法推荐的新闻价值排序,会产生传播权(新闻价值权重排序决策权)、信息自由(人的传播自主性)、信息触达(服务的普适性、信息的不当触达)、信息隐私权和数字身份及其保护的问题。目前有两种伦理风险已经引起广泛的关注:数据安全和算法偏见。
机器学习是一种从数据中挖掘和发现固有模式的一种方法。机器学习的有效性取决于用来进行训练的数据质量和数量,机器是否有权进行个人信息挖掘等问题引发了重大的伦理争议。
算法偏见和纠偏也是一个伦理关注焦点。2018年美国公民自由联盟批评亚马逊Rekognition人脸识别工具。经过测试表明,对于肤色较深的人,Rekognition的识别效果较差。谷歌所研制的图像标注系统曾错误地将黑人标记为“大猩猩”(Sandvig et al.,2016),这就不得不让人们对算法强化社会原有偏见的可能性充满忧虑。
以欧盟为代表的国家和地区开始强势介入人工智能立法,《通用数据保护条例(GDPR)》的实行产生了巨大的行业震动,导至行业寒蝉效应。相对于规制硬约束,在人工智能社会构建前景尚未明朗之前,伦理软约束则更加适合。有效的伦理治理需要分清楚责任主体,特别是在智能技术深度介入新闻信息传播的当下,一些原本不在新闻伦理探讨范围内的行动者进入该领域,他们的作用和问责方式,亟待理论梳理。
人工智能时代新闻伦理的道德行动者
一般意义上,伦理是“对我们应该做的事情的研究”(Merrill,2011:3)。在元伦理和规范伦理学层面,伦理研究通常被区分为三种传统。首先是强调人类相互作用的责任和义务的道德义务论,康德认为可以通过相关正式准则,特别是普遍性准则将道德规则和其他行为规则区分开来(Kant,1785)。其次是边沁(Bentham,1785)、密尔(Mill,1962)开创的功利主义传统。该传统把最大化社会效用作为最基本的道德准则,这种传统也被称为后果论。最后是美德论,核心问题不是正确行动,而是美好生活,道德也不在于行事原则,更在于人们的品质,这就重回亚里士多德 “我应该成为什么样的人”的经典论述。
在应用伦理学层面的分析中,基于问责的考量往往需要区分道德行动者。一般认为,具有道德意向性和能动性,并具有行动力和对自身行动的解释能力(Taylor Paul,1986:14),是道德行动者的基本条件。技术人工物一定程度上突破了伦理道德的人类中心主义,伦理学家开始将意向性视为道德能动性的一个“不错但却不必要的条件”,与道德能动性相关的唯一事物是行动者的行为是否是“道德上可修饰的”,即是否引发道德上的善或恶(Floridi L,Sanders J W,2004)。
新闻伦理属于应用伦理学研究,研究起点是基于行业的实际伦理难题进行价值判断。现代性大众传播观念和伦理观念根植于以启蒙运动为代表的知识革命,笛卡尔、洛克、弥尔顿、穆勒等学者的经典论述是其中的主要智识资源。施拉姆结合媒体发展现实指出,如何妥善处理大众品味、企业盈利和社会责任三者的关系是大众媒体面对的主要问题(Wilbur Schramm,1957),其中知情权和隐私权、表达权和名誉权持续产生张力,就此,政府、媒体和公众成为新闻伦理关系的核心行动者。
人工智能时代,随着算法在不同的生活领域产生建构性影响,算法作为内容创建者的制度化引发了专业新闻的各种伦理挑战。其中,互联网信息平台公司,对算法研发起到核心作用的工程师团队,甚至是技术本身是否应该作为伦理行动者进入了新闻伦理的话语框架,值得细致分析。
新闻伦理的传统行动者。1)政府:伦理治理的规则制定者与底线管控者。变革性技术总是同时带来正面和负面效应,人类也逐渐摸索出一套技术控制模式。这种模式一般包含两个方面,其一是社会规范性的,如法律、法规;其二是技术性的,即对技术设计和运用制定标准。这两项工作都需要国家,甚至国家间的合作方能达成。
对于人工智能的管理,政府显性地扮演两种角色。首先,是在国家战略层面,通过行业规划和部署,将技术开发、产业发展作为核心战略要素,在国际竞争的语境下予以通盘考虑。在我国,国务院于2017年7月印发了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018~2020年)》等政策,让中国的人工智能发展有了明确的时间表和路线图。2016年10月美国政府出台了“美国国家人工智能研发规划”,加拿大、英国、德国、法国等国家也针对人工智能研究和机器人设计出台专门的战略规划和规范性报告。其次,是从司法实践角度,各国也有专门法规,如欧盟《一般数据保护条例》和美国《人工智能未来法案》等。
值得注意的是,各国对人工智能的伦理反应早于立法研究,欧盟于2006年发布《机器人伦理路线图》,2007年韩国工商能源部颁布《机器人伦理宪章》等,体现政府相关部门对人工智能伦理治理的关注。这些伦理研究报告其实在为其后的立法和规制进行伦理学和法理学的筹备,对自主智能体的主体地位、问责模式和人类行为规范,作了初步设想。
著名的“科林格瑞治困境”指出了技术评估的两难困境:在技术发展的早期控制其应用方向相对容易,但此时决策者缺少合理控制的专业知识;当技术应用的风险显露时,对它的控制却几近不可能(卡尔·米切姆、朱勤、安延明,2007)。各国政府的人工智能伦理治理和立法实践如此迅速,某种程度上也在规避上述规制困境,尤其是人工智能被普遍认为是一个具备高度社会建构性能力的系统,各国政府不约而同采取了相对前置的治理模式。
2)媒体:新闻伦理的日常践行者。媒体是新闻伦理中最为核心的部分,因为传统新闻生产、分发都在该系统内完成。自1923年美国报纸编辑协会提出美国首个新闻业自律规范《报人守则》,新闻伦理就与新闻工作者的职业伦理和行业自律挂钩。
在前互联网时代,新闻伦理通常与报道内容及其选择相挂钩,责任、独立、真实准确、公正、公平等原则以不同的形式予以表达。在绝大部分的媒体体制之下,媒体不仅具有社会公共性,本身作为承担一定经营活动的组织,也需要考虑经济层面的可持续发展问题。因此,大众化媒体如何处理公共服务和商业利益之间的张力,以兼顾经济效益和社会效益,是新闻伦理的主要关切点。在此间所产生的媒体与国家的关系、媒体与社会的关系、媒体与个体的关系,也是新闻伦理的核心焦点。
社交媒体和智能推荐算法的结合,改变了受众获得信息的主要渠道和接受模式,传统媒体的议程设置功能受到较大冲击,部分媒体开始被迫跟随社交媒体表达模式改变自身的新闻生产方式。但是2016年美国大选所引发的“后真相”讨论,恰恰说明社会仍然需要“不可爱的新闻界” (迈克尔·舒德森、周岩,2017)。潘忠党、陆晔(2017)认为“后真相”一词的流行更加凸显新闻专业主义不仅是对媒介和新闻从业者的职业期许,更是全社会所遵循的文化价值体系的一部分。新闻界需要做的是将寻求、核查、鉴定事实和真相的过程置于公共讨论之中,重构交往的伦理规范。(潘忠党、陆晔,2018)
3)公众:“用脚投票”的新闻伦理批评者。20世纪20年代杜威和李普曼的争论为起始,公众是具有公共目的的社会有机统一体,还是原子化的消极“幻影”,存在根本性的学术分歧。而学术界对公众在新闻传播系统中的作用,也始终存在争议。
在传统新闻传播中,公众作为信息的接收者,处于被动地位。但是即便在这种相对的被动位置中,施拉姆指出阅听大众应以传播动力的主要推动者自任。大众的基本责任是运用一切可能,使自己成为机警而又有鉴别能力的阅听大众,学习如何运用媒体,并积极地对媒体展开睿智的批评(Wilbur Schramm,1957)。
在人工智能时代,“你关心的就是头条”的算法逻辑,使得公众或者说用户的地位得到了进一步提升。信息平台认为自身不存在新闻立场,算法的主要目的在于加强用户的黏性。2016年以来,Facebook推出一系列机制,强调保障用户对最终内容的选择权,其中尤为强调3F原则(Friends and Family First),即好友分享的优先级高于新闻媒体发布的消息。这一算法权重变化的目的在于,从“帮助你找到相关的内容”转向“实现用户有意义的社会互动”,即促成用户间的讨论和深度参与。赋权用户而非传统强势机构,是算法所强调的平权价值。但是其后所引发的虚假消息充斥社交媒体,也是传统机构媒体权重下降后的副作用。
人工智能系统非常有效地通过用户日渐增多的网络行为数据进行精准内容推荐,公众是被动接受偏好的信息从而陷入信息茧房,还是有意识地通过综合使用媒体平台,形成更加理性而多元的社会认知,其重任日益集中到个体自身。因此现阶段至少可以相对确定地说,公众作为新闻伦理的行动者,在人工智能时代所肩负的责任将更加重大。
人工智能时代的新增新闻伦理行动者。当下,互联网信息平台公司在新闻传播过程中产生了日益重要的中介作用,传统关于信息和新闻的分野也变得模糊。弗洛里迪在《信息伦理学》中指出,信息是一种资源、一种产品,也是一种目标。借助信息与通讯技术手段为媒介的信息生产与传播引发了伦理后果,合理应对这些后果需要更多的智识动员和道德行动者(卢恰克·弗洛里迪,2018)。
在线平台传统上不属于新闻传播范畴,互联网企业也往往不承认自身的“媒体”性质,而倾向将自身描述成信息传播的基础设施,平台上传输和交换的是数据(data)而非传统意义的新闻内容。但是当人类的交往活动和商业活动日益集中到网络平台,互联网信息平台公司的角色就发生了变化。研究指出,像谷歌、Facebook这样的公司往往起步于具体的垂直应用,例如搜索、社交,但是为了将用户进一步固定在自身的商业平台上,他们的功能日益多元。因此在更加广泛的意义上,网络生态嵌入了更广大的社会文化和政治经济语境之中(Jose Van Dijck,2013),这一趋势伴随着科技所导致的社会形态变化,变得势不可挡。
近年来互联网信息平台公司已经成为传播伦理的核心关注区域。2018年Facebook的扎克伯格和今日头条的张一鸣,近乎在同一天面对主管部门的质询,并向公众道歉。
Facebook信任危机的触发点在于个人隐私泄露最终形成干预选举的危害。据披露,Facebook上超过5000万用户信息数据被一家名为“剑桥分析”(Cambridge Analytica)的公司泄露,用于在2016年美国总统大选中针对目标受众推送广告,从而影响大选结果,此事在世界范围内引发了轩然大波。扎克伯格就此接受美国国会质询。
而字节跳动公司则因旗下产品存在低俗内容和导向问题,受到主管部门处罚。应用市场下架了今日头条客户端,并暂停服务三周;“内涵段子”客户端软件及公众号被责令永久关停;短视频应用抖音APP删除了所有用户评论。此后“今日头条”品牌口号也从“你关心的就是头条”转变为“信息创造价值”。
对互联网信息平台上存在的伦理失范内容,平台应该承担怎样的法律责任,学术界存在争议,也存在实际的问责困境。被广泛应用的避风港原则成为互联网平台抗辩的主要依据,判定并不直接生产和编辑内容的互联网平台企业侵权,难度很大。但平台企业在内容处理方面的失误,将极大地影响社会,因此它们不可避免地需要承担平衡不同权利主体的重任。但是直到最近,遏制非法、不恰当内容的重任始终在用户身上,平台主要通过举报来发现类似信息。
当然,平台主动遏制它所界定的不适宜行为,也面临挑战。例如Facebook公司曾经通过机器鉴别遏制裸体展示,哺乳妇女的照片和反映越战的知名摄影作品《战火中的女孩》也因此归入此类,这两件事都让Facebook公司承受了巨大的压力,并引发关于平台歧视的担忧。总体而言,平台公司类似举措都容易导致偏爱主流人群而压抑边缘人群的结果。虽然类似举措未必隐含制度化和规模化的群体歧视,但的确提出平台如何更好履行责任的疑虑(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在线平台日益发现,算法可以有效增进用户黏性,却在内容审核和审美品鉴方面无法全面掌握复杂而多元的人类行为变量。例如,机器目前对于模式不断转换且非常主观化的仇恨言论,判定表现就不是太好。
关于人工智能时代的平台责任的讨论,往往也牵扯出智能技术本身的伦理主体地位问题。在广为引用的《关于人工能动者的道德》一文中,牛津大学教授弗洛里迪和桑德斯依据行动者之互动关系标准,确立交互性、自主性和适应性三个标准以判定智能技术是否具备伦理责任主体地位。他们认为,一个与其环境持续产生交互的系统,如果在没有响应外部刺激的情况下也能行动,也有在不同的环境中行动的能力,这个系统就可以被视作行动者(Floridi L,Sanders J W,2004)。
伦理学界对技术人工物的道德主体地位存在较大争议。在新闻伦理的探讨范畴中,智能技术对信息传播权重的计算的确在很大程度上影响了新闻信息交流活动。但是直到目前,智能技术尚未完全达到自主性和适应性,将其判定为独立的伦理行动者论据不足。
所以就目前的技术发展状况而言,更为重要的是确立互联网信息平台公司的新闻伦理地位。依据目前他们在人类信息传播活动中的重要性,以及他们实际可以起到的信息推荐中介效应,互联网信息平台应该被纳入新闻伦理的范畴,并作为其间一个重要的机构行动者予以关照。
平台也开始意识到自身的伦理主体责任,主动开始在技术研发和产品开发的过程中嵌入伦理考虑。2016年9月,亚马逊、谷歌、Facebook、IBM和微软宣布成立一家非营利组织:人工智能合作组织(Partnership on AI),目标是为人工智能的研究制定和提供范例,推进公众对人工智能的了解,并作为一个开放的平台来吸引民众及社会的参与和讨论。目前各国的司法实践,也在强迫他们认识到自身不仅需要承担技术伦理和商业伦理,也需要在新闻伦理的框架内规制自身的行为。
人工智能时代的新闻伦理结构
综上所述,人工智能时代新闻伦理的道德行动者出现了变化,显性地表现为增加了一个重要的机构行动者,我们姑且将它们称为互联网信息平台公司。与此同时,传统的道德行动者——政府、媒体、公众,它们在伦理图景中的位置和行为模式也产生了变化。政府在规制方面采取了更加前瞻式的模式以应对变革性技术的社会构建动能。公众在人工智能时代的个性化信息服务背景下,其伦理素养和媒介素养变得更加事关全局。而传统媒体机构在算法推荐逻辑下,面临权重下降的境遇,其传统新闻生产流程和伦理价值面临冲击。
为了更清晰地展现各道德行动者之间的伦理互动结构,有必要进一步区分不同行动者的区位。个人伦理层次、组织伦理层次、社会伦理层次的区分有助于进一步明晰对此问题的论述。
第一,个人伦理层次,主要包括新闻专业主义和工程师伦理。传统新闻伦理具有很强的个人伦理色彩,记者、编辑就自己生产的新闻内容承担风险、享受赞誉。在新闻专业主义理论体系下,个人层次的伦理认知,不仅是职业认知的重要组成部分,也是新闻机构权威性的主要来源。客观、公正、服务公共利益,是新闻工作者长期珍视的伦理传统。
自动化新闻平台将工程师也纳入新闻传播领域,他们所编写的代码直接影响新闻伦理。因此工程师团体需要通过合理的结构代码完成其伦理责任。
责任是知识和力量的函数。在智能信息时代,科学家、工程师不仅人数众多而且参与社会重大的决策和管理,他们的行为会对他人、对社会带来比其他人更大的影响,因此他们应负更多的伦理责任(曹南燕,2000)。
在过去25年中,工程伦理领域的主要成就之一就是工程师们越来越意识到自身的价值观对设计进程的影响,以及此过程中他们对他人价值观的敏感度(Wallach & Allen,2008)。2000年,美国工程和技术认证委员会(ABET)在其标准中明确指出,工程教育必须证明他们的学生“对职业和道德责任的理解”(Downey et al.,2007)。奥巴马政府2016年10月将“理解并解决人工智能的道德、法律和社会影响”列入美国国家人工智能战略,并建议AI从业者和学生都要接受伦理培训(曹建峰,2016)。
与此同时,鉴于大量的媒体内容来自用户生成内容,涉足其间的个体制作者及其伦理素养也在此列。目前在直播和短视频平台时常出现伦理失范行为,个体内容生产者是直接的道德行动者,需要在与平台伦理原则磨合的过程中形成行为规则共识。
对于亚里士多德来说,具备关于伦理规则的知识和自觉遵守伦理规则的能力是两个不同的方面。只有当人们在内在本性和对善生活的追求基础上,自觉地尊重伦理规则,才是符合伦理和美德的个体(麦金泰尔,1996)。在内容庞杂的社交媒体和互联网信息平台中,美德论对于个体层次的伦理治理,也许具有更大的启示意义。
第二,组织伦理层次,主要涉及新闻组织和互联网信息平台。传统新闻媒体对其生产的内容及其经济运行负有伦理责任,与此同时,媒体的言论对政治、经济和社会都有巨大影响。虽然在传统生产流程中,记者作为显性的新闻伦理践行者,对自身的报道肩负伦理责任,但是媒体承担着重要的把关功能,并在科层式的生产模式中内化组织宗旨和目标。在媒体组织内部,知情权与隐私权、表达权和名誉权的权衡,公共服务和经营目标的平衡,形成多组竞争性伦理价值,需要在新闻媒体组织层面根据其伦理传统针对具体问题予以价值排序。长期以来,客观、公正和最小伤害成为十分重要的组织伦理出发点。
到了人工智能时代,互联网信息平台实际上部分起到了新闻媒体的功能。与传统新闻媒体更多关注新闻的生产不同,目前的互联网企业并不直接涉足新闻内容制作,但是其推荐算法实际在对新闻价值的不同维度予以赋值,随着越来越多的民众将互联网作为主要的新闻信息来源,互联网信息平台在新闻分发和互动环节产生了巨大的动能。互联网信息平台的伦理关注点主要在数据和代码(算法)两个体系,如何合理利用平台积淀的用户数据,如何合理通过算法的中介,提高社会总体福利水平,是此类组织的伦理责任。
目前技术本身的伦理地位也存在争议,在用户偏好挖掘的机器学习机制中,平台公司会部分采取无监督学习模式,这使得学习结果存在客观上的算法黑箱。这也是智能系统设计的悖论:一方面系统需要更大的自由度以体现其智能效能,但具备自主学习能力的系统在技术上和伦理上都存在风险;另一方面,若将伦理规则嵌入智能系统,那么设计出来的系统就缺乏充分的灵活性,也就不够“智能”。但是从目前的伦理问责和司法实践看,互联网信息平台作为算法的直接开发者和版权所有者,有义务将智能系统设计为道德智能体,将社会长期珍视的伦理价值内嵌至平台系统。据此,大众传播责任的两种形态行动——自律制度、专业精神,同样适用于互联网信息平台公司。
第三,社会伦理层次,包括政治和公众两个维度。在政治维度,如何处理互联网信息平台、新闻媒体和社会其他部门的关系,如何管理技术的发展方向、媒体信息的作用范围,是政治层面关注的焦点,也因此与新闻系统产生权力博弈和伦理话语冲突。
电气和电子工程师协会(IEEE)2017年发布《人工智能设计的伦理准则》白皮书(Ethically Aligned Design),这份报告不仅对工程师群体的伦理设计提出要求,并且在宏观上希望政府、司法机构审慎使用数据,必要的时候严格测试和评估内嵌于系统的伦理原则和运算逻辑。而且政府和产业利益相关者需要明确,哪些核心决策权不能交由智能系统。
因此在更加宏观的社会伦理治理层次,政府作为主要的道德行动者,需要从社会整体福利水平和国家信息安全的高度理解人工智能系统的信息中介效应,对其引导舆论、影响个体的能力保持伦理警觉,并逐渐清晰政府的管控底线。
在公众维度,以往新闻很大程度上依赖于记者的信誉,如今在网络信息发布过程中,受众不再被动,任何人都有权利批评报道、增加事实和发表评论。就此,新闻发表从个人化的行为(组织化的行为)转变为公共的行为(Ward, 2011)。在智能时代,公众的伦理素养至少包含明确是谁作出或者支持智能系统的伦理决策,并且理解自动技术系统的社会影响的能力。公众需要更加清晰智能系统的运作模式和社会影响机制,运用理性力量加强自身的信息自律能力,而不要成为机械刺激性快乐的被捕获者,从而丧失了对康乐生活的追求和反思能力。
媒体的智能化,大大延伸了媒体的外延,将新闻传播推向“万物皆媒”的时代。新闻伦理学的研究范畴也随之由新闻工作者、新闻机构、新闻受众延向了传播技术和社交平台。由于人工智能技术的出现,更多的行动者开始参与或影响新闻的生产与发布,新闻工作者不再是唯一的道德行动者,泛信息系统,特别是互联网信息平台的影响力正在逐渐上升。
自治、公平、正义、责任、服务公共利益等原则是长期以来新闻伦理的基本组成部分。智媒时代,除了进一步坚持传统媒体伦理价值体系之外,还需要融合基于技术和平台的伦理要求。机器人伦理提出的人的尊严和人权、责任、透明度、避免滥用和共生繁荣等原则,也是人工智能时代新闻伦理的智识来源。而互联网平台公司,如谷歌提倡的“七条准则”:有益于社会、避免创造或增强偏见、对人们有说明义务、根据原则确定合适的应用等,也同样适合新媒体背景下的新闻伦理。
(本文系“数字化变革中媒体从业者伦理胜任力建模及提升策略”课题的阶段性成果,课题编号:2018FZA121;同时受中央高校基本科研业务费专项资金资助)
参考文献
Bakshy E, Messing S, Adamic L A., 2015, "Exposure to ideologically diverse news and opinion on Facebook", Science, vol. 348, pp. 1130-1132.
Bentham J., 1996, The collected works of Jeremy Bentham: An introduction to the principles of morals and legislation, Clarendon Press.
Bill Kovach, Tom Rosenstiel, 2007, The Elements of Journalism, New York: Three Rivers Press.
Downey, Gary Lee, Juan C. Lucena and Carl Mitcham., 2007, "Engineering Ethics and Identity: EmergingInitiatives in Comparative Perspective", Science & Engineering Ethics, No. 4, pp. 463-487.
D&ouml;rr, K. N. & Hollnbuchner K., 2017, "Ethical challenges of algorithmic journalism", Digital Journalism, 5(4), pp. 404-419.
Filippo A. Raso,Hannah Hilligoss, Vivek Krishnamurthy, Christopher Bavitz , Levin Kim , 2018, Artificial Intelligence & Human Rights: Opportunities & Risks, Berkman Klein Center Research Publication.
Glasser T. L., 1989, "Three Views on Accountability", Media Freedom and Accountability, edited by E. E. Dennis, D. M. Gillmor, and T. L. Glasser, New York: Praeger, pp. 179-193.
Jeffrey Rosen, 2013, "The Deciders: Facebook, Google, and the Future of Privacy and Free Speech",  Constitution 3.0: Freedom and Technological Change. ed. Jeffrey Rosen and Benjamin Wittes, Brookings Institution Press; Jonathan Zittrain, 2008, The future of the internet--and how to stop it, Yale University Press.
Jose Van Dijck, 2013, The Culture of Connectivity: A Critical History of Social Media, Oxford University Press.
Kant I, Schneewind J. B., 2002, Groundwork for the Metaphysics of Morals, Yale University Press.
Kovach B. & Rosenstiel T., 2007, The elements of journalism (Rev. ed.), New York: Three Rivers Press.
Luciano Floridi, J.W. Sanders, 2004, "On the morality of artificial agents", Minds and Machines , vol.14, pp. 349-379.
Merrill, J. C. , 2011, "Theoretical Foundations for Media Ethics", in  A.D. Gordon, J.M. Kittross, J.C. Merrill, W. Babcock, and M. Dorsher (eds), Controversies in Media Ethics, pp.3-32.
Mill, J. S., 1962, Utilitarianism, on liberty, essay on Bentham, ed. Mary Warnock, London: Fontana.
Parry R., 2011, The Ascent of Media: From Gilgamesh to Google via Gutenburg, London: Nicholas Brealey.
Pavlik J., 2000, "The impact of technology on journalism, Journalism Studies", No.2, pp. 229-237.
Paul Taylor, 1986, Respect of Nature: A Theory of Environmental Ethics, Princeton University Press.
Sandvig C, Hamilton K, Karahalios K, et al., 2016, "Automation, algorithms, and politics| when the algorithm itself is a racist: Diagnosing ethical harm in the basic components of software", International Journal of Communication, No.10, pp. 4972–4990.
Selgado, Susana and Jesper Str&ouml;mb&auml;ck,   2012,"Interpretive Journalism: A Review of Concepts, Operationalizations and Key Findings", Journalism Theory Practice & Criticism, No.13 (2), pp. 144–161.
Taylor Paul, W., 1986, Respect for Nature: A Theory of Environmental Ethics.
Ward, Stephen J. A., 2011, Ethics and the media: An introduction, Cambridge University Press.
Wallach W. and Allen, C., 2008, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press.
Wilbur Schramm, 1957, Responsibility in Mass Communication, New York:Harper & Brothers.
Yilun Wang and Michal Kosinski, 2018, "Deep neural networks are more accurate than humans at detecting sexual orientation from facial images", Journal of Personality and Social Psychology, No.2, pp. 246-257.
曹建峰,2016,《人工智能:机器歧视及应对之策》,《信息安全与通信保密》,第12期,第15~19页。
曹南燕,2000,《科学家和工程师的伦理责任》,《哲学研究》,第1期,第45~51页。
方师师,2016,《算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究》,《新闻记者》,第9期,第39~50页。
韩鸿、彭璟论,2017,《智媒时代社交媒体的社会责任——对2016美国大选中Facebook假新闻事件的反思》,《新闻界》,第5期,第89~93页。
[美]卡尔·米切姆、朱勤、安延明,2007,《关于技术与伦理关系的多元透视》,《哲学研究》,第11期,第79~82页。
刘则渊、王国豫,2007,《技术伦理与工程师的职业伦理》,《哲学研究》,第11期,第75~78页。
[英]卢恰克·弗洛里迪,2018,《信息伦理学》,薛平译,上海译文出版社。
[美]阿拉斯戴尔·麦金泰尔,1996,《谁之正义?何种合理性?》,万俊人、吴海针、王今一译,北京:当代中国出版社。
[美]迈克尔·舒德森、周岩,2017年,《新闻的真实面孔—— 如何在“后真相”时代寻找“真新闻”》,《新闻记者》,第5期,第75~77页。
潘忠党、陆晔,2017,《走向公共:新闻专业主义再出发》,《国际新闻界》,第10期,第91~124页。
彭兰,2017,《更好的新闻业,还是更坏的新闻业?——人工智能时代传媒业的新挑战》,《中国出版》,第24期,第3~8页。
史安斌、王沛楠,2017,《作为社会抗争的假新闻——美国大选假新闻现象的阐释路径与生成机制》,《新闻记者》,第6期,第4~12页。
[美]温德尔·瓦拉赫、科林·艾伦,2017,《道德机器:如何让机器人明辨是非》,北京大学出版社。
支庭荣、罗敏,2018,《“后真相”时代:话语的生成、传播与反思——基于西方政治传播的视角》,《新闻界》,第1期,第54~59页。
本文刊发于《学术前沿》杂志2018年12月(下),转载请注明来源。
作者:赵瑜
编辑:王豪

29#
发表于 2019-3-30 23:30:43 | 显示全部楼层
【案例】
顶尖通讯专家戳穿媒体谎言:目前5G宣传大部分是假的!



近日各大手机生产商纷纷推出5G手机,连中央电视台的春节联欢晚会,都标榜以5G网络传输4K超高清内容,让全国都能看到深圳会场五光十色的城市风彩。国内媒体也井喷式发布5G报道,更形容“5G时代已经到来”丶“5G浪潮来袭”丶“5G网络箭在弦上”,让大家感觉5G正来势汹汹,人人都要坐上5G的快车。但近日有5G专家却指出,国内大部分有关5G的报道都是假的。

这位专家可不是那些半吊子的所谓专家,而是被国际通讯领域称为“活着的爱迪生”的通讯专家、美国诺基亚贝尔实验室首席系统工程师蔡亦钢教授。该实验室曾获得8项诺贝尔奖,是通讯领域最权威的研究机构。蔡亦钢主持过3G丶4G和5G网络系统及应用产品的概念设计和系统开发,曾连续三次获得“贝尔实验室发明家奖”,至今拥有722项国际发明专利。

近日蔡亦钢教授接受自媒体“云塘学院”访问,解破普通人对5G的迷思,戳穿国内媒体上许多关于5G宣传的谎言。大家一起来看看他如何直面5G领域公众最关注的七大问题。


1. 问: 5G时代是否已经来临?
答: 5G不是一波即将袭来的浪潮,是个非常缓慢的过程。很多计划正在往后推,因为实现不了。最大的问题是,5G太贵,技术研发和设备本身都很贵。应用得不偿失,而没有经济效益,运营商不会去用。当然在中国国内,可以用行政手段、不计成本地强制推广应用。

2. 问: 4G手机可以用5G网络吗?
答:不可以。只有5G手机才能用5G网络。4G手机可以上5G非独立网,但是没有5G速度。
3. 问: 国内有很多关於5G应用的报道,比如可以用於超高清视频、浸入式游戏、远程医疗,让远程机器人手术变得可行,这是真的吗?
答:国内关于5G的报道绝大部份是虚假的。现在宣传的这些应用,大部分可以通过4G实现,5G的技术指标只是更高一些。

4. 问: 和4G相比,5G具有高速率及1毫秒低延时的优势,有说法指5G可以降低自动驾驶的成本,同时解决VR、AR因延时而产生的头晕感,让VR、AR和自动驾驶大规模增长,是这样吗?
答:设备商都在吹牛,低延时高可靠性的技术困难很大,至今没有看到可行的方案。而自动驾驶汽车制造商尚未有用5G的计划,也存在经济效益难题。所以VR/AR、无人驾驶的爆发还有待时日。
5. 问: 5G的技术瓶颈在哪里?
答: 5G主要解决接入网的快速问题,但核心网是瓶颈,华为正在解决核心网问题,但目前的技术方案是不灵的。一两个芯片解决不了问题。5G基站单个或数个测试结果都还行,一旦联网,问题就多了,所以还要耐心等二到三年。
6. 问:5G 设备装备造价为何那麽高?
答: 5G频率高很多,信号幅射距离短了,基站要布得更密一些,造价就高。高可靠性低延时的性能更是加倍了造价,诸如此类,很多很多问题。

7. 问: 最近5G概念下的产业链,股票都上涨了,你怎麽看?
答: 绝对虚高!

附:A股市场有哪些5G概念股
按照知名炒股软件同花顺的概念股分类,目前A股市场上与5G相关的股票共有156只。主要包括以下几大类:
  1、通讯设备类,如烽火通信、中兴通讯等。
  2、光纤光缆类:如亨通光电、中天科技、通鼎互联等。
  3、光模块类:如中际旭创、博创科技、光迅科技。
  4、5G产品应用类:如中国联通,长江通信等。
  5、相关电子元器件制造类。这个上市公司的数量非常多。

前期5G概念股反复活跃,最近2-3个月时间,许多股票有了超过50%以上的涨幅,有的实现的翻倍上涨。如果像蔡亦钢教授教授所说的那样,那谎言戳穿之后,未来就有非常大的跌幅。

其实蔡亦钢教授的说法相当可信,这也是国外目前国内外都还没有大规模部署5G网络,甚至不排除美国直接由5G过渡到6G,即通过卫星组网的原因,两三年时间足够美国突破卫星组网剩下的一些关键技术。


编辑:王豪
30#
发表于 2019-4-2 16:41:14 | 显示全部楼层
【案例】阿里发布谣言粉碎机:1秒辨新闻真伪

来源:阿里巴巴
原文链接:http://www.sohu.com/a/305190460_114822?sec=wd
作者:张金梁
中关村在线消息:4月1日,阿里巴巴今日趁着愚人节之际发布了一项旨在粉碎网络谣言和假新闻的AI技术——“AI谣言粉碎机”。
阿里发布谣言粉碎机
阿里“AI谣言粉碎机”的算法模型由阿里巴巴达摩院机器智能实验室研发,目前在特定场景中的准确率已经达到81%。
阿里巴巴方面指出,依靠深度学习和神经网络技术,通过对信息的多维度和多角度分析,该团队设计了一整套包含发布信息、社交画像、回复者立场、回复信息、传播路径在内的综合判定系统,将谣言识别和社交用户观点识别打通,并做交叉分析,最快能够在1秒内判定新闻的真实性。
阿里方表示,未来,“AI谣言粉碎机”有望帮助社交平台和新闻网站在假新闻尚未造成大面积伤害时就快速识别出来,遏制其传播。在信息被证实为谣言后,AI还可通过虚假信息的传播路径,定向给阅读过此信息的用户进行辟谣,解决“造谣张张嘴,辟谣跑断腿”的问题。
最后阿里巴巴的愿望是,“希望让深受网络谣言之害的父母们,不再每天都过愚人节”。
编辑:吴悠

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表