传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
41#
发表于 2019-3-28 13:33:47 | 只看该作者
【案例】人工智能时代的新闻伦理:行动与治理
【摘要】人工智能背景下新闻传播的生产工具和生产方式出现了巨大变化,尊崇客观、公正、最小伤害的新闻伦理传统面临冲击,研究范畴由新闻工作者、新闻机构、新闻受众延伸至智能技术和社交平台,它们在新闻伦理图景中的位置和行为模式也产生了变化。以算法伦理和大数据伦理为主要的逻辑起点,结合智能时代新闻传播模式的具体变化,从个体伦理层次、组织伦理层次和社会伦理层次厘清具体道德行动者的行动领域,可以更为清晰地展现各道德行动者之间的伦理互动结构,并且综合呈现人工智能时代的新闻伦理结构和不同责任主体之间的关系。
【关键词】人工智能  新闻伦理  道德行动者  伦理治理
【中图分类号】G210                            【文献标识码】A
DOI】10.16619/j.cnki.rmltxsqy.2018.24.001
【作者简介】赵瑜,浙江大学传媒与国际文化学院教授、博导。研究方向为传播政策、新媒体传播和伦理治理。主要著作有《从数字电视到互联网电视——媒介政策范式及其转型》《中国蓝——省级卫视创新发展的浙江实践》等。
随着信息革命的深入,新闻传播业的生产工具与生产方式出现了巨大变化。人工智能不仅可以通过机器写作重塑新闻生产流程,还能通过智能算法革新新闻分发方式,更会对新闻传媒生态的信息终端、用户系统、互动模式等进行多方位重塑。在这种结构性变革的面前,传统新闻伦理学的研究与实践也面临着更加复杂的挑战。在新闻传播领域,机器写作、智能分发、算法推荐等技术带来了更具个性化的服务和更高的传播效率,但后真相、个人和国家数据安全、算法偏见、被遗忘权等问题,也激起了广泛的讨论。机器越自由,就越需要道德准则(温德尔·瓦拉赫、科林·艾伦,2017)。
在科技进步主义话语主导社会发展的语境下,技术的制度化作用被进一步放大,新闻伦理的传统理论假设也需要在新的技术条件和社会环境下予以系统反思。媒体伦理通常是对两个问题的问责:“对什么负责?”“对谁负责?”(Glasser,1989:179),而人工智能发展到今日,我们可能要增加一个答案看似显而易见,却实则众说纷纭的问题:“谁来负责?”
人工智能及其对新闻伦理的影响
新闻及其生产惯例一直受到技术的影响(Parry,2011;Pavlik,2000),在演变的过程中,各种价值观被刻入其中形成新闻伦理共识。大众化报纸诞生以来,新闻业长期被期待为没有干预的事实再现,发展了客观性、中立性、可确认性和中介作用等价值(Dörr & Hollnbuchner,2017)。对客观性原则的反思,催生了调查性报道、解释性新闻,它们试图在报道和阐述之间取得平衡,并增加不同的道德价值面向以形成公众舆论(Selgado & Stromback,2012)。
新闻传播的数字化和国际化对媒体伦理传统假定带来进一步的冲击。首先,在线新闻,特别是基于社交媒体的信息传播模式,使得传统的“验证新闻”及其严格的事实检查正在被非专业化的新闻形式取代(Kovach & Rosenstiel,2007)。新闻专业人员把控信息流的垄断地位被打破,传统媒体一直遵循的伦理价值,如客观公正、把关控制等,也被大量即时性用户生成的内容遮蔽。而全球化新闻业的出现,不仅导致文化价值的冲突,也产生了一个更难解决的问题,即如何设想和界定全球化新闻传播的相关责任(Ward,2011:208)。
人工智能的两大支柱——算法和大数据,已经多维度地进入新闻传播领域,特别是智能推荐算法作为两者的集成,已经在信息传播领域产生巨大的影响。目前主流的推荐算法有三种:基于内容的推荐、基于协同过滤的推荐和基于时序流行度的推荐。
基于内容的算法,其主要逻辑是受众偏好与新闻内容特征的匹配。通过用户特征数据和网络行为的分析,确立兴趣模型;利用分词技术等模式计算内容文本特征,选取两者之间相关度高的形成推荐列表。这种算法能够有效增加用户黏性,但对于个人信息的标签化分析,也容易引发个人数据安全性的争议。近期斯坦福大学研发的算法可以通过交友网站信息判定性取向,准确率高达91%(Yilun Wang & Michal Kosinski,2018),这一研究立即招致公众批评,也让公众对于算法的信息挖掘能力产生伦理质疑。
协同过滤算法的基本逻辑是人以群分,通过计算用户的特征数据将其编入一个用户群体,按照群体共享度较高的偏好推荐内容。这种做法将计算单位有效地下降为群体,减少了数据处理量。谷歌新闻最早采取的就是这类推荐算法。但是这种算法的伦理困境在于容易产生信息茧房,且将人群分类可能产生潜在的算法歧视,不仅触犯个人隐私,而且易于强化社会偏见。
基于时序流行度的推荐算法,将单位时间的瞬时点击率等动态特征作为考量因素,将特定时间窗口内流行度较高的新闻推荐给用户。这种算法模型很好地解决了内容冷启动问题,但是对于“标题党”和“三俗”信息的免疫力相对较低。
信息聚合平台往往综合使用上述三种推荐算法,并且针对用户体验不断优化各指标的权重,以更好地预测用户行为。之前智能推荐算法的研发并没有置于新闻伦理的框架予以关切,使得互联网信息平台公司在算法的设置中很少内嵌传统新闻伦理价值。社交媒体时代,信息推荐和信息过滤等智能算法实际上具有了议程设置的功能,取代传统媒体引导舆论。而智能算法设计者没有受到传统新闻伦理约束,这就在一定程度上使得新闻专业主义的行业传统和价值基础,与智能算法的社会影响之间产生了鸿沟。Facebook的“偏见门”(Bakshy et al.,2015;方师师,2016;韩鸿、彭璟论,2016)和算法推荐下“后真相”时代的假新闻泛滥(迈克尔·舒德森、周兰,2017;彭兰,2017;史安斌、王沛楠,2017;潘忠党、陆晔,2017;支庭荣、罗敏,2018),也许就是不受传统新闻伦理约束的信息智能系统所造成的社会代价。
过度依赖算法推荐的新闻价值排序,会产生传播权(新闻价值权重排序决策权)、信息自由(人的传播自主性)、信息触达(服务的普适性、信息的不当触达)、信息隐私权和数字身份及其保护的问题。目前有两种伦理风险已经引起广泛的关注:数据安全和算法偏见。
机器学习是一种从数据中挖掘和发现固有模式的一种方法。机器学习的有效性取决于用来进行训练的数据质量和数量,机器是否有权进行个人信息挖掘等问题引发了重大的伦理争议。
算法偏见和纠偏也是一个伦理关注焦点。2018年美国公民自由联盟批评亚马逊Rekognition人脸识别工具。经过测试表明,对于肤色较深的人,Rekognition的识别效果较差。谷歌所研制的图像标注系统曾错误地将黑人标记为“大猩猩”(Sandvig et al.,2016),这就不得不让人们对算法强化社会原有偏见的可能性充满忧虑。
以欧盟为代表的国家和地区开始强势介入人工智能立法,《通用数据保护条例(GDPR)》的实行产生了巨大的行业震动,导至行业寒蝉效应。相对于规制硬约束,在人工智能社会构建前景尚未明朗之前,伦理软约束则更加适合。有效的伦理治理需要分清楚责任主体,特别是在智能技术深度介入新闻信息传播的当下,一些原本不在新闻伦理探讨范围内的行动者进入该领域,他们的作用和问责方式,亟待理论梳理。
人工智能时代新闻伦理的道德行动者
一般意义上,伦理是“对我们应该做的事情的研究”(Merrill,2011:3)。在元伦理和规范伦理学层面,伦理研究通常被区分为三种传统。首先是强调人类相互作用的责任和义务的道德义务论,康德认为可以通过相关正式准则,特别是普遍性准则将道德规则和其他行为规则区分开来(Kant,1785)。其次是边沁(Bentham,1785)、密尔(Mill,1962)开创的功利主义传统。该传统把最大化社会效用作为最基本的道德准则,这种传统也被称为后果论。最后是美德论,核心问题不是正确行动,而是美好生活,道德也不在于行事原则,更在于人们的品质,这就重回亚里士多德 “我应该成为什么样的人”的经典论述。
在应用伦理学层面的分析中,基于问责的考量往往需要区分道德行动者。一般认为,具有道德意向性和能动性,并具有行动力和对自身行动的解释能力(Taylor Paul,1986:14),是道德行动者的基本条件。技术人工物一定程度上突破了伦理道德的人类中心主义,伦理学家开始将意向性视为道德能动性的一个“不错但却不必要的条件”,与道德能动性相关的唯一事物是行动者的行为是否是“道德上可修饰的”,即是否引发道德上的善或恶(Floridi L,Sanders J W,2004)。
新闻伦理属于应用伦理学研究,研究起点是基于行业的实际伦理难题进行价值判断。现代性大众传播观念和伦理观念根植于以启蒙运动为代表的知识革命,笛卡尔、洛克、弥尔顿、穆勒等学者的经典论述是其中的主要智识资源。施拉姆结合媒体发展现实指出,如何妥善处理大众品味、企业盈利和社会责任三者的关系是大众媒体面对的主要问题(Wilbur Schramm,1957),其中知情权和隐私权、表达权和名誉权持续产生张力,就此,政府、媒体和公众成为新闻伦理关系的核心行动者。
人工智能时代,随着算法在不同的生活领域产生建构性影响,算法作为内容创建者的制度化引发了专业新闻的各种伦理挑战。其中,互联网信息平台公司,对算法研发起到核心作用的工程师团队,甚至是技术本身是否应该作为伦理行动者进入了新闻伦理的话语框架,值得细致分析。
新闻伦理的传统行动者。1)政府:伦理治理的规则制定者与底线管控者。变革性技术总是同时带来正面和负面效应,人类也逐渐摸索出一套技术控制模式。这种模式一般包含两个方面,其一是社会规范性的,如法律、法规;其二是技术性的,即对技术设计和运用制定标准。这两项工作都需要国家,甚至国家间的合作方能达成。
对于人工智能的管理,政府显性地扮演两种角色。首先,是在国家战略层面,通过行业规划和部署,将技术开发、产业发展作为核心战略要素,在国际竞争的语境下予以通盘考虑。在我国,国务院于2017年7月印发了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018~2020年)》等政策,让中国的人工智能发展有了明确的时间表和路线图。2016年10月美国政府出台了“美国国家人工智能研发规划”,加拿大、英国、德国、法国等国家也针对人工智能研究和机器人设计出台专门的战略规划和规范性报告。其次,是从司法实践角度,各国也有专门法规,如欧盟《一般数据保护条例》和美国《人工智能未来法案》等。
值得注意的是,各国对人工智能的伦理反应早于立法研究,欧盟于2006年发布《机器人伦理路线图》,2007年韩国工商能源部颁布《机器人伦理宪章》等,体现政府相关部门对人工智能伦理治理的关注。这些伦理研究报告其实在为其后的立法和规制进行伦理学和法理学的筹备,对自主智能体的主体地位、问责模式和人类行为规范,作了初步设想。
著名的“科林格瑞治困境”指出了技术评估的两难困境:在技术发展的早期控制其应用方向相对容易,但此时决策者缺少合理控制的专业知识;当技术应用的风险显露时,对它的控制却几近不可能(卡尔·米切姆、朱勤、安延明,2007)。各国政府的人工智能伦理治理和立法实践如此迅速,某种程度上也在规避上述规制困境,尤其是人工智能被普遍认为是一个具备高度社会建构性能力的系统,各国政府不约而同采取了相对前置的治理模式。
2)媒体:新闻伦理的日常践行者。媒体是新闻伦理中最为核心的部分,因为传统新闻生产、分发都在该系统内完成。自1923年美国报纸编辑协会提出美国首个新闻业自律规范《报人守则》,新闻伦理就与新闻工作者的职业伦理和行业自律挂钩。
在前互联网时代,新闻伦理通常与报道内容及其选择相挂钩,责任、独立、真实准确、公正、公平等原则以不同的形式予以表达。在绝大部分的媒体体制之下,媒体不仅具有社会公共性,本身作为承担一定经营活动的组织,也需要考虑经济层面的可持续发展问题。因此,大众化媒体如何处理公共服务和商业利益之间的张力,以兼顾经济效益和社会效益,是新闻伦理的主要关切点。在此间所产生的媒体与国家的关系、媒体与社会的关系、媒体与个体的关系,也是新闻伦理的核心焦点。
社交媒体和智能推荐算法的结合,改变了受众获得信息的主要渠道和接受模式,传统媒体的议程设置功能受到较大冲击,部分媒体开始被迫跟随社交媒体表达模式改变自身的新闻生产方式。但是2016年美国大选所引发的“后真相”讨论,恰恰说明社会仍然需要“不可爱的新闻界” (迈克尔·舒德森、周岩,2017)。潘忠党、陆晔(2017)认为“后真相”一词的流行更加凸显新闻专业主义不仅是对媒介和新闻从业者的职业期许,更是全社会所遵循的文化价值体系的一部分。新闻界需要做的是将寻求、核查、鉴定事实和真相的过程置于公共讨论之中,重构交往的伦理规范。(潘忠党、陆晔,2018)
3)公众:“用脚投票”的新闻伦理批评者。20世纪20年代杜威和李普曼的争论为起始,公众是具有公共目的的社会有机统一体,还是原子化的消极“幻影”,存在根本性的学术分歧。而学术界对公众在新闻传播系统中的作用,也始终存在争议。
在传统新闻传播中,公众作为信息的接收者,处于被动地位。但是即便在这种相对的被动位置中,施拉姆指出阅听大众应以传播动力的主要推动者自任。大众的基本责任是运用一切可能,使自己成为机警而又有鉴别能力的阅听大众,学习如何运用媒体,并积极地对媒体展开睿智的批评(Wilbur Schramm,1957)。
在人工智能时代,“你关心的就是头条”的算法逻辑,使得公众或者说用户的地位得到了进一步提升。信息平台认为自身不存在新闻立场,算法的主要目的在于加强用户的黏性。2016年以来,Facebook推出一系列机制,强调保障用户对最终内容的选择权,其中尤为强调3F原则(Friends and Family First),即好友分享的优先级高于新闻媒体发布的消息。这一算法权重变化的目的在于,从“帮助你找到相关的内容”转向“实现用户有意义的社会互动”,即促成用户间的讨论和深度参与。赋权用户而非传统强势机构,是算法所强调的平权价值。但是其后所引发的虚假消息充斥社交媒体,也是传统机构媒体权重下降后的副作用。
人工智能系统非常有效地通过用户日渐增多的网络行为数据进行精准内容推荐,公众是被动接受偏好的信息从而陷入信息茧房,还是有意识地通过综合使用媒体平台,形成更加理性而多元的社会认知,其重任日益集中到个体自身。因此现阶段至少可以相对确定地说,公众作为新闻伦理的行动者,在人工智能时代所肩负的责任将更加重大。
人工智能时代的新增新闻伦理行动者。当下,互联网信息平台公司在新闻传播过程中产生了日益重要的中介作用,传统关于信息和新闻的分野也变得模糊。弗洛里迪在《信息伦理学》中指出,信息是一种资源、一种产品,也是一种目标。借助信息与通讯技术手段为媒介的信息生产与传播引发了伦理后果,合理应对这些后果需要更多的智识动员和道德行动者(卢恰克·弗洛里迪,2018)。
在线平台传统上不属于新闻传播范畴,互联网企业也往往不承认自身的“媒体”性质,而倾向将自身描述成信息传播的基础设施,平台上传输和交换的是数据(data)而非传统意义的新闻内容。但是当人类的交往活动和商业活动日益集中到网络平台,互联网信息平台公司的角色就发生了变化。研究指出,像谷歌、Facebook这样的公司往往起步于具体的垂直应用,例如搜索、社交,但是为了将用户进一步固定在自身的商业平台上,他们的功能日益多元。因此在更加广泛的意义上,网络生态嵌入了更广大的社会文化和政治经济语境之中(Jose Van Dijck,2013),这一趋势伴随着科技所导致的社会形态变化,变得势不可挡。
近年来互联网信息平台公司已经成为传播伦理的核心关注区域。2018年Facebook的扎克伯格和今日头条的张一鸣,近乎在同一天面对主管部门的质询,并向公众道歉。
Facebook信任危机的触发点在于个人隐私泄露最终形成干预选举的危害。据披露,Facebook上超过5000万用户信息数据被一家名为“剑桥分析”(Cambridge Analytica)的公司泄露,用于在2016年美国总统大选中针对目标受众推送广告,从而影响大选结果,此事在世界范围内引发了轩然大波。扎克伯格就此接受美国国会质询。
而字节跳动公司则因旗下产品存在低俗内容和导向问题,受到主管部门处罚。应用市场下架了今日头条客户端,并暂停服务三周;“内涵段子”客户端软件及公众号被责令永久关停;短视频应用抖音APP删除了所有用户评论。此后“今日头条”品牌口号也从“你关心的就是头条”转变为“信息创造价值”。
对互联网信息平台上存在的伦理失范内容,平台应该承担怎样的法律责任,学术界存在争议,也存在实际的问责困境。被广泛应用的避风港原则成为互联网平台抗辩的主要依据,判定并不直接生产和编辑内容的互联网平台企业侵权,难度很大。但平台企业在内容处理方面的失误,将极大地影响社会,因此它们不可避免地需要承担平衡不同权利主体的重任。但是直到最近,遏制非法、不恰当内容的重任始终在用户身上,平台主要通过举报来发现类似信息。
当然,平台主动遏制它所界定的不适宜行为,也面临挑战。例如Facebook公司曾经通过机器鉴别遏制裸体展示,哺乳妇女的照片和反映越战的知名摄影作品《战火中的女孩》也因此归入此类,这两件事都让Facebook公司承受了巨大的压力,并引发关于平台歧视的担忧。总体而言,平台公司类似举措都容易导致偏爱主流人群而压抑边缘人群的结果。虽然类似举措未必隐含制度化和规模化的群体歧视,但的确提出平台如何更好履行责任的疑虑(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在线平台日益发现,算法可以有效增进用户黏性,却在内容审核和审美品鉴方面无法全面掌握复杂而多元的人类行为变量。例如,机器目前对于模式不断转换且非常主观化的仇恨言论,判定表现就不是太好。
关于人工智能时代的平台责任的讨论,往往也牵扯出智能技术本身的伦理主体地位问题。在广为引用的《关于人工能动者的道德》一文中,牛津大学教授弗洛里迪和桑德斯依据行动者之互动关系标准,确立交互性、自主性和适应性三个标准以判定智能技术是否具备伦理责任主体地位。他们认为,一个与其环境持续产生交互的系统,如果在没有响应外部刺激的情况下也能行动,也有在不同的环境中行动的能力,这个系统就可以被视作行动者(Floridi L,Sanders J W,2004)。
伦理学界对技术人工物的道德主体地位存在较大争议。在新闻伦理的探讨范畴中,智能技术对信息传播权重的计算的确在很大程度上影响了新闻信息交流活动。但是直到目前,智能技术尚未完全达到自主性和适应性,将其判定为独立的伦理行动者论据不足。
所以就目前的技术发展状况而言,更为重要的是确立互联网信息平台公司的新闻伦理地位。依据目前他们在人类信息传播活动中的重要性,以及他们实际可以起到的信息推荐中介效应,互联网信息平台应该被纳入新闻伦理的范畴,并作为其间一个重要的机构行动者予以关照。
平台也开始意识到自身的伦理主体责任,主动开始在技术研发和产品开发的过程中嵌入伦理考虑。2016年9月,亚马逊、谷歌、Facebook、IBM和微软宣布成立一家非营利组织:人工智能合作组织(Partnership on AI),目标是为人工智能的研究制定和提供范例,推进公众对人工智能的了解,并作为一个开放的平台来吸引民众及社会的参与和讨论。目前各国的司法实践,也在强迫他们认识到自身不仅需要承担技术伦理和商业伦理,也需要在新闻伦理的框架内规制自身的行为。
人工智能时代的新闻伦理结构
综上所述,人工智能时代新闻伦理的道德行动者出现了变化,显性地表现为增加了一个重要的机构行动者,我们姑且将它们称为互联网信息平台公司。与此同时,传统的道德行动者——政府、媒体、公众,它们在伦理图景中的位置和行为模式也产生了变化。政府在规制方面采取了更加前瞻式的模式以应对变革性技术的社会构建动能。公众在人工智能时代的个性化信息服务背景下,其伦理素养和媒介素养变得更加事关全局。而传统媒体机构在算法推荐逻辑下,面临权重下降的境遇,其传统新闻生产流程和伦理价值面临冲击。
为了更清晰地展现各道德行动者之间的伦理互动结构,有必要进一步区分不同行动者的区位。个人伦理层次、组织伦理层次、社会伦理层次的区分有助于进一步明晰对此问题的论述。
第一,个人伦理层次,主要包括新闻专业主义和工程师伦理。传统新闻伦理具有很强的个人伦理色彩,记者、编辑就自己生产的新闻内容承担风险、享受赞誉。在新闻专业主义理论体系下,个人层次的伦理认知,不仅是职业认知的重要组成部分,也是新闻机构权威性的主要来源。客观、公正、服务公共利益,是新闻工作者长期珍视的伦理传统。
自动化新闻平台将工程师也纳入新闻传播领域,他们所编写的代码直接影响新闻伦理。因此工程师团体需要通过合理的结构代码完成其伦理责任。
责任是知识和力量的函数。在智能信息时代,科学家、工程师不仅人数众多而且参与社会重大的决策和管理,他们的行为会对他人、对社会带来比其他人更大的影响,因此他们应负更多的伦理责任(曹南燕,2000)。
在过去25年中,工程伦理领域的主要成就之一就是工程师们越来越意识到自身的价值观对设计进程的影响,以及此过程中他们对他人价值观的敏感度(Wallach & Allen,2008)。2000年,美国工程和技术认证委员会(ABET)在其标准中明确指出,工程教育必须证明他们的学生“对职业和道德责任的理解”(Downey et al.,2007)。奥巴马政府2016年10月将“理解并解决人工智能的道德、法律和社会影响”列入美国国家人工智能战略,并建议AI从业者和学生都要接受伦理培训(曹建峰,2016)。
与此同时,鉴于大量的媒体内容来自用户生成内容,涉足其间的个体制作者及其伦理素养也在此列。目前在直播和短视频平台时常出现伦理失范行为,个体内容生产者是直接的道德行动者,需要在与平台伦理原则磨合的过程中形成行为规则共识。
对于亚里士多德来说,具备关于伦理规则的知识和自觉遵守伦理规则的能力是两个不同的方面。只有当人们在内在本性和对善生活的追求基础上,自觉地尊重伦理规则,才是符合伦理和美德的个体(麦金泰尔,1996)。在内容庞杂的社交媒体和互联网信息平台中,美德论对于个体层次的伦理治理,也许具有更大的启示意义。
第二,组织伦理层次,主要涉及新闻组织和互联网信息平台。传统新闻媒体对其生产的内容及其经济运行负有伦理责任,与此同时,媒体的言论对政治、经济和社会都有巨大影响。虽然在传统生产流程中,记者作为显性的新闻伦理践行者,对自身的报道肩负伦理责任,但是媒体承担着重要的把关功能,并在科层式的生产模式中内化组织宗旨和目标。在媒体组织内部,知情权与隐私权、表达权和名誉权的权衡,公共服务和经营目标的平衡,形成多组竞争性伦理价值,需要在新闻媒体组织层面根据其伦理传统针对具体问题予以价值排序。长期以来,客观、公正和最小伤害成为十分重要的组织伦理出发点。
到了人工智能时代,互联网信息平台实际上部分起到了新闻媒体的功能。与传统新闻媒体更多关注新闻的生产不同,目前的互联网企业并不直接涉足新闻内容制作,但是其推荐算法实际在对新闻价值的不同维度予以赋值,随着越来越多的民众将互联网作为主要的新闻信息来源,互联网信息平台在新闻分发和互动环节产生了巨大的动能。互联网信息平台的伦理关注点主要在数据和代码(算法)两个体系,如何合理利用平台积淀的用户数据,如何合理通过算法的中介,提高社会总体福利水平,是此类组织的伦理责任。
目前技术本身的伦理地位也存在争议,在用户偏好挖掘的机器学习机制中,平台公司会部分采取无监督学习模式,这使得学习结果存在客观上的算法黑箱。这也是智能系统设计的悖论:一方面系统需要更大的自由度以体现其智能效能,但具备自主学习能力的系统在技术上和伦理上都存在风险;另一方面,若将伦理规则嵌入智能系统,那么设计出来的系统就缺乏充分的灵活性,也就不够“智能”。但是从目前的伦理问责和司法实践看,互联网信息平台作为算法的直接开发者和版权所有者,有义务将智能系统设计为道德智能体,将社会长期珍视的伦理价值内嵌至平台系统。据此,大众传播责任的两种形态行动——自律制度、专业精神,同样适用于互联网信息平台公司。
第三,社会伦理层次,包括政治和公众两个维度。在政治维度,如何处理互联网信息平台、新闻媒体和社会其他部门的关系,如何管理技术的发展方向、媒体信息的作用范围,是政治层面关注的焦点,也因此与新闻系统产生权力博弈和伦理话语冲突。
电气和电子工程师协会(IEEE)2017年发布《人工智能设计的伦理准则》白皮书(Ethically Aligned Design),这份报告不仅对工程师群体的伦理设计提出要求,并且在宏观上希望政府、司法机构审慎使用数据,必要的时候严格测试和评估内嵌于系统的伦理原则和运算逻辑。而且政府和产业利益相关者需要明确,哪些核心决策权不能交由智能系统。
因此在更加宏观的社会伦理治理层次,政府作为主要的道德行动者,需要从社会整体福利水平和国家信息安全的高度理解人工智能系统的信息中介效应,对其引导舆论、影响个体的能力保持伦理警觉,并逐渐清晰政府的管控底线。
在公众维度,以往新闻很大程度上依赖于记者的信誉,如今在网络信息发布过程中,受众不再被动,任何人都有权利批评报道、增加事实和发表评论。就此,新闻发表从个人化的行为(组织化的行为)转变为公共的行为(Ward, 2011)。在智能时代,公众的伦理素养至少包含明确是谁作出或者支持智能系统的伦理决策,并且理解自动技术系统的社会影响的能力。公众需要更加清晰智能系统的运作模式和社会影响机制,运用理性力量加强自身的信息自律能力,而不要成为机械刺激性快乐的被捕获者,从而丧失了对康乐生活的追求和反思能力。
媒体的智能化,大大延伸了媒体的外延,将新闻传播推向“万物皆媒”的时代。新闻伦理学的研究范畴也随之由新闻工作者、新闻机构、新闻受众延向了传播技术和社交平台。由于人工智能技术的出现,更多的行动者开始参与或影响新闻的生产与发布,新闻工作者不再是唯一的道德行动者,泛信息系统,特别是互联网信息平台的影响力正在逐渐上升。
自治、公平、正义、责任、服务公共利益等原则是长期以来新闻伦理的基本组成部分。智媒时代,除了进一步坚持传统媒体伦理价值体系之外,还需要融合基于技术和平台的伦理要求。机器人伦理提出的人的尊严和人权、责任、透明度、避免滥用和共生繁荣等原则,也是人工智能时代新闻伦理的智识来源。而互联网平台公司,如谷歌提倡的“七条准则”:有益于社会、避免创造或增强偏见、对人们有说明义务、根据原则确定合适的应用等,也同样适合新媒体背景下的新闻伦理。
(本文系“数字化变革中媒体从业者伦理胜任力建模及提升策略”课题的阶段性成果,课题编号:2018FZA121;同时受中央高校基本科研业务费专项资金资助)
参考文献
Bakshy E, Messing S, Adamic L A., 2015, "Exposure to ideologically diverse news and opinion on Facebook", Science, vol. 348, pp. 1130-1132.
Bentham J., 1996, The collected works of Jeremy Bentham: An introduction to the principles of morals and legislation, Clarendon Press.
Bill Kovach, Tom Rosenstiel, 2007, The Elements of Journalism, New York: Three Rivers Press.
Downey, Gary Lee, Juan C. Lucena and Carl Mitcham., 2007, "Engineering Ethics and Identity: EmergingInitiatives in Comparative Perspective", Science & Engineering Ethics, No. 4, pp. 463-487.
Dörr, K. N. & Hollnbuchner K., 2017, "Ethical challenges of algorithmic journalism", Digital Journalism, 5(4), pp. 404-419.
Filippo A. Raso,Hannah Hilligoss, Vivek Krishnamurthy, Christopher Bavitz , Levin Kim , 2018, Artificial Intelligence & Human Rights: Opportunities & Risks, Berkman Klein Center Research Publication.
Glasser T. L., 1989, "Three Views on Accountability", Media Freedom and Accountability, edited by E. E. Dennis, D. M. Gillmor, and T. L. Glasser, New York: Praeger, pp. 179-193.
Jeffrey Rosen, 2013, "The Deciders: Facebook, Google, and the Future of Privacy and Free Speech",  Constitution 3.0: Freedom and Technological Change. ed. Jeffrey Rosen and Benjamin Wittes, Brookings Institution Press; Jonathan Zittrain, 2008, The future of the internet--and how to stop it, Yale University Press.
Jose Van Dijck, 2013, The Culture of Connectivity: A Critical History of Social Media, Oxford University Press.
Kant I, Schneewind J. B., 2002, Groundwork for the Metaphysics of Morals, Yale University Press.
Kovach B. & Rosenstiel T., 2007, The elements of journalism (Rev. ed.), New York: Three Rivers Press.
Luciano Floridi, J.W. Sanders, 2004, "On the morality of artificial agents", Minds and Machines , vol.14, pp. 349-379.
Merrill, J. C. , 2011, "Theoretical Foundations for Media Ethics", in  A.D. Gordon, J.M. Kittross, J.C. Merrill, W. Babcock, and M. Dorsher (eds), Controversies in Media Ethics, pp.3-32.
Mill, J. S., 1962, Utilitarianism, on liberty, essay on Bentham, ed. Mary Warnock, London: Fontana.
Parry R., 2011, The Ascent of Media: From Gilgamesh to Google via Gutenburg, London: Nicholas Brealey.
Pavlik J., 2000, "The impact of technology on journalism, Journalism Studies", No.2, pp. 229-237.
Paul Taylor, 1986, Respect of Nature: A Theory of Environmental Ethics, Princeton University Press.
Sandvig C, Hamilton K, Karahalios K, et al., 2016, "Automation, algorithms, and politics| when the algorithm itself is a racist: Diagnosing ethical harm in the basic components of software", International Journal of Communication, No.10, pp. 4972–4990.
Selgado, Susana and Jesper Strömbäck,   2012,"Interpretive Journalism: A Review of Concepts, Operationalizations and Key Findings", Journalism Theory Practice & Criticism, No.13 (2), pp. 144–161.
Taylor Paul, W., 1986, Respect for Nature: A Theory of Environmental Ethics.
Ward, Stephen J. A., 2011, Ethics and the media: An introduction, Cambridge University Press.
Wallach W. and Allen, C., 2008, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press.
Wilbur Schramm, 1957, Responsibility in Mass Communication, New York:Harper & Brothers.
Yilun Wang and Michal Kosinski, 2018, "Deep neural networks are more accurate than humans at detecting sexual orientation from facial images", Journal of Personality and Social Psychology, No.2, pp. 246-257.
曹建峰,2016,《人工智能:机器歧视及应对之策》,《信息安全与通信保密》,第12期,第15~19页。
曹南燕,2000,《科学家和工程师的伦理责任》,《哲学研究》,第1期,第45~51页。
方师师,2016,《算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究》,《新闻记者》,第9期,第39~50页。
韩鸿、彭璟论,2017,《智媒时代社交媒体的社会责任——对2016美国大选中Facebook假新闻事件的反思》,《新闻界》,第5期,第89~93页。
[美]卡尔·米切姆、朱勤、安延明,2007,《关于技术与伦理关系的多元透视》,《哲学研究》,第11期,第79~82页。
刘则渊、王国豫,2007,《技术伦理与工程师的职业伦理》,《哲学研究》,第11期,第75~78页。
[英]卢恰克·弗洛里迪,2018,《信息伦理学》,薛平译,上海译文出版社。
[美]阿拉斯戴尔·麦金泰尔,1996,《谁之正义?何种合理性?》,万俊人、吴海针、王今一译,北京:当代中国出版社。
[美]迈克尔·舒德森、周岩,2017年,《新闻的真实面孔—— 如何在“后真相”时代寻找“真新闻”》,《新闻记者》,第5期,第75~77页。
潘忠党、陆晔,2017,《走向公共:新闻专业主义再出发》,《国际新闻界》,第10期,第91~124页。
彭兰,2017,《更好的新闻业,还是更坏的新闻业?——人工智能时代传媒业的新挑战》,《中国出版》,第24期,第3~8页。
史安斌、王沛楠,2017,《作为社会抗争的假新闻——美国大选假新闻现象的阐释路径与生成机制》,《新闻记者》,第6期,第4~12页。
[美]温德尔·瓦拉赫、科林·艾伦,2017,《道德机器:如何让机器人明辨是非》,北京大学出版社。
支庭荣、罗敏,2018,《“后真相”时代:话语的生成、传播与反思——基于西方政治传播的视角》,《新闻界》,第1期,第54~59页。
本文刊发于《学术前沿》杂志2018年12月(下),转载请注明来源。
作者:赵瑜
编辑:王豪

42#
发表于 2019-3-30 23:30:43 | 只看该作者
【案例】
顶尖通讯专家戳穿媒体谎言:目前5G宣传大部分是假的!



近日各大手机生产商纷纷推出5G手机,连中央电视台的春节联欢晚会,都标榜以5G网络传输4K超高清内容,让全国都能看到深圳会场五光十色的城市风彩。国内媒体也井喷式发布5G报道,更形容“5G时代已经到来”丶“5G浪潮来袭”丶“5G网络箭在弦上”,让大家感觉5G正来势汹汹,人人都要坐上5G的快车。但近日有5G专家却指出,国内大部分有关5G的报道都是假的。

这位专家可不是那些半吊子的所谓专家,而是被国际通讯领域称为“活着的爱迪生”的通讯专家、美国诺基亚贝尔实验室首席系统工程师蔡亦钢教授。该实验室曾获得8项诺贝尔奖,是通讯领域最权威的研究机构。蔡亦钢主持过3G丶4G和5G网络系统及应用产品的概念设计和系统开发,曾连续三次获得“贝尔实验室发明家奖”,至今拥有722项国际发明专利。

近日蔡亦钢教授接受自媒体“云塘学院”访问,解破普通人对5G的迷思,戳穿国内媒体上许多关于5G宣传的谎言。大家一起来看看他如何直面5G领域公众最关注的七大问题。


1. 问: 5G时代是否已经来临?
答: 5G不是一波即将袭来的浪潮,是个非常缓慢的过程。很多计划正在往后推,因为实现不了。最大的问题是,5G太贵,技术研发和设备本身都很贵。应用得不偿失,而没有经济效益,运营商不会去用。当然在中国国内,可以用行政手段、不计成本地强制推广应用。

2. 问: 4G手机可以用5G网络吗?
答:不可以。只有5G手机才能用5G网络。4G手机可以上5G非独立网,但是没有5G速度。
3. 问: 国内有很多关於5G应用的报道,比如可以用於超高清视频、浸入式游戏、远程医疗,让远程机器人手术变得可行,这是真的吗?
答:国内关于5G的报道绝大部份是虚假的。现在宣传的这些应用,大部分可以通过4G实现,5G的技术指标只是更高一些。

4. 问: 和4G相比,5G具有高速率及1毫秒低延时的优势,有说法指5G可以降低自动驾驶的成本,同时解决VR、AR因延时而产生的头晕感,让VR、AR和自动驾驶大规模增长,是这样吗?
答:设备商都在吹牛,低延时高可靠性的技术困难很大,至今没有看到可行的方案。而自动驾驶汽车制造商尚未有用5G的计划,也存在经济效益难题。所以VR/AR、无人驾驶的爆发还有待时日。
5. 问: 5G的技术瓶颈在哪里?
答: 5G主要解决接入网的快速问题,但核心网是瓶颈,华为正在解决核心网问题,但目前的技术方案是不灵的。一两个芯片解决不了问题。5G基站单个或数个测试结果都还行,一旦联网,问题就多了,所以还要耐心等二到三年。
6. 问:5G 设备装备造价为何那麽高?
答: 5G频率高很多,信号幅射距离短了,基站要布得更密一些,造价就高。高可靠性低延时的性能更是加倍了造价,诸如此类,很多很多问题。

7. 问: 最近5G概念下的产业链,股票都上涨了,你怎麽看?
答: 绝对虚高!

附:A股市场有哪些5G概念股
按照知名炒股软件同花顺的概念股分类,目前A股市场上与5G相关的股票共有156只。主要包括以下几大类:
  1、通讯设备类,如烽火通信、中兴通讯等。
  2、光纤光缆类:如亨通光电、中天科技、通鼎互联等。
  3、光模块类:如中际旭创、博创科技、光迅科技。
  4、5G产品应用类:如中国联通,长江通信等。
  5、相关电子元器件制造类。这个上市公司的数量非常多。

前期5G概念股反复活跃,最近2-3个月时间,许多股票有了超过50%以上的涨幅,有的实现的翻倍上涨。如果像蔡亦钢教授教授所说的那样,那谎言戳穿之后,未来就有非常大的跌幅。

其实蔡亦钢教授的说法相当可信,这也是国外目前国内外都还没有大规模部署5G网络,甚至不排除美国直接由5G过渡到6G,即通过卫星组网的原因,两三年时间足够美国突破卫星组网剩下的一些关键技术。


编辑:王豪
43#
发表于 2019-4-2 16:41:14 | 只看该作者
【案例】阿里发布谣言粉碎机:1秒辨新闻真伪

来源:阿里巴巴
原文链接:http://www.sohu.com/a/305190460_114822?sec=wd
作者:张金梁
中关村在线消息:4月1日,阿里巴巴今日趁着愚人节之际发布了一项旨在粉碎网络谣言和假新闻的AI技术——“AI谣言粉碎机”。
阿里发布谣言粉碎机
阿里“AI谣言粉碎机”的算法模型由阿里巴巴达摩院机器智能实验室研发,目前在特定场景中的准确率已经达到81%。
阿里巴巴方面指出,依靠深度学习和神经网络技术,通过对信息的多维度和多角度分析,该团队设计了一整套包含发布信息、社交画像、回复者立场、回复信息、传播路径在内的综合判定系统,将谣言识别和社交用户观点识别打通,并做交叉分析,最快能够在1秒内判定新闻的真实性。
阿里方表示,未来,“AI谣言粉碎机”有望帮助社交平台和新闻网站在假新闻尚未造成大面积伤害时就快速识别出来,遏制其传播。在信息被证实为谣言后,AI还可通过虚假信息的传播路径,定向给阅读过此信息的用户进行辟谣,解决“造谣张张嘴,辟谣跑断腿”的问题。
最后阿里巴巴的愿望是,“希望让深受网络谣言之害的父母们,不再每天都过愚人节”。
编辑:吴悠
44#
发表于 2019-4-4 13:19:13 | 只看该作者
【案例】AI模糊测试:下一个重大网络安全威胁
作者:nana  
文章来源:秦安战略
人工智能(AI)或机器学习融入传统模糊测试技术造就出查找应用程序或系统漏洞的强大工具,但研究人员和网络罪犯都能利用这一点。
定义AI模糊测试
AI模糊测试采用机器学习及类似技术查找应用或系统中的漏洞。模糊测试概念的提出已经有些年头了,但其执行相当困难,对公司企业没有太大吸引力。引入AI技术可使模糊测试更加灵活,更易于执行。
这是个好消息,但同时也是个坏消息。好消息是企业和软件供应商可以更容易地找出系统中的潜在可利用漏洞,以便抢在坏人之前修复。
坏消息是,坏人也可以利用该技术快速找出很多零日漏洞。澳大利亚技术咨询机构 Rightsize Technology 将AI模糊测试列为2019十大安全威胁之一。
模糊测试运作机制
传统模糊测试用大量不同输入尝试令应用程序崩溃的切入点。因为不同应用输入方式相异,产生并尝试大量输入需要很多人工设置。而且,仅靠暴力破解的方式尝试每个可能输入并观察应用程序的响应是行不通的——光耗时都能让人绝望。10个字符的输入域要试完全部可能组合需要几个月甚至几年。
虚拟出每个应用比尝试可能输入组合更复杂,所以模糊测试器基本都是随机尝试,并运用各种策略去试最具前景的那些输入组合。AI工具有助于生成测试用例,且模糊测试的事后分析阶段也可以用AI工具来确定造成崩溃的条件是否可利用。不是每个漏洞都是安全漏洞。
模糊测试技术已经出现好些年了。甚至智能模糊测试也不是什么新的东西,只不过是没在学术界以外广泛应用而已。优秀的商业工具并不多。
模糊测试属于动态分析,很难整合进开发生命周期中。相比之下,扫描应用程序源代码的静态分析就容易整合得多了。而且,商业领域有大量静态工具可用。所以企业倾向于选择静态分析不足为奇。
AI模糊测试工具
不过,随着公司企业将模糊测试作为服务推出,该技术的部署难度大幅下降,情况开始发生改变。微软的 Security Risk Detection 很是令人兴奋,他们将Web模糊测试器也集成了进去。而在过去,你得购买和维护几个不同工具。
顶级AI模糊测试工具有:
微软 Security Risk Detection (MSRD):(https://www.microsoft.com/en-us/security-risk-detection/)
MSRD采用智能约束算法。另一种主流智能模糊测试选项是遗传算法。两种算法都能使模糊测试工具锁定最具前景的路径来找到漏洞。
开源工具集 American Fuzzy Lop (AFL)使用遗传算法。该工具集是基于云的新工具Fuzzbuzz的核心,也是谷歌ClusterFuzz项目的一部分。
模糊测试器即服务正在逐步推出。如果可以的话,最好能采用这种技术。即便刚开始可能有些难上手,坚持用下去绝对能值回票价,因为它能保证产品安全。AI模糊测试器最令人激动的一点,是不仅能够减少所需工作量,还能得到更好的结果,更深入应用程序底层,找出更多漏洞。
位于加州桑尼维尔的安全初创公司RiskSense就提供模糊测试服务,这家公司的主要业务为企业客户进行风险评估。尽管该公司将此服务自称为“攻击验证即服务”,其实质就是“模糊测试即服务”。
机器学习进场的时机是在该公司发现漏洞之后,用于确认漏洞是否值得利用,以及是否会被利用。模糊测试本身采用传统自动化方法加人工监督的方式进行。该公司确实计划在初始阶段就开始使用AI——只要具备了足够的训练数据。足够的数据才能产生足够的模式,运用机器学习才有意义。如果没有良好的数据集,得到的只会是一堆误报,你将不得不回头验证结果,然后浪费大量时间。
已设立自身AI模糊测试项目的公司企业最好再找家供应商合作。有谷歌、微软或其他公司作为提供商,你会获得规模经济效应。因为除非是跨国大型企业,否则很难拥有合适的资源。大型云提供商的数据比政府都多。
唯一的例外是真正关键的系统,比如防务公司的武器系统。任何政府都不会将数据放到AWS上做模糊测试。如果是武器系统,除非有非常严格的安全要求,否则绝不会用谷歌或微软的AI模糊测试器。但如果是普通公司,大型供应商还是很靠谱的,他们可能不是最先做这个的,但肯定是能做出一定规模的。
用AI模糊测试查找零日漏洞
2月,微软安全研究员 Matt Miller 在该公司蓝帽大会上做了关于零日漏洞问题的演讲。他表示,2008年,绝大部分微软漏洞都是在补丁发布后才被利用的,仅21%是作为零日漏洞被利用。2018年,这一比例逆转了,83%的漏洞遭零日利用,其中大部分漏洞利用是针对性攻击的一环。
到目前为止,发现零日漏洞依然不是件容易的事,新零日漏洞的价格居高不下。Zerodium公司如今为带有效漏洞利用的高风险漏洞开出单个200万美元的高价,并宣称如果是特别有价值的零日漏洞,价码还可以更高。Zerodium收购零日漏洞后再转卖给少数几个机构,主要是政府机构。
零日漏洞的平均价格自然没那么高。统计各操作系统、暗网市场、付费服务和个体从业者漏洞利用平均价格的 RunSafe Pwn Index 得出结论:当前漏洞利用平均价格略高于1.5万美元,并呈现不断增长的趋势。
民族国家和高端网络罪犯可能已经在用AI模糊测试了。攻击者总想省时省力地获取最佳收益。而且,随着IoT设备和联网系统的普遍增殖,潜在攻击界面也在持续扩大。
最终,攻击者将能简单地指定一个目标就可以自动挖掘该目标的零日漏洞利用了。
AI模糊测试无疑将成为网络犯罪的巨大推力。AI模糊测试应会以服务的形式呈现,这是模糊测试的趋势。能用AI进行模糊测试的时候,人工来测就不再有意义了。
这意味着我们将见证更多零日漏洞,但今年内应该还不会出现太多AI发现的漏洞利用。现在还早了点儿,这项技术本身还相当年轻。
但应开始为此做好准备了,宜早不宜晚。任何供应商、开发人员、软件公司都应对自己的产品进行模糊测试。这是确保不留明显漏洞的最佳方式。
AI模糊测试实例尚少
尽管引发热议,在用AI模糊测试的实例却几乎没有。目前,没引入AI的模糊测试更有效些。
Positive Technologies拥有大型安全研究中心,每年发现大约700个应用安全漏洞。传统技术依然统治模糊测试领域,比如使用符号执行的模糊测试。不过,机器学习和其他新技术也为该领域吹入了一股新风。下一次大型安全会议上估计就会有人描述能颠覆行业的新东西了。
很难将网络罪犯是否已经在用AI模糊测试,因为他们通常不会谈论自己的手法。模糊测试就是模糊测试,模糊测试器背后的算法一般不会在漏洞被暴露时成为人们的话题中心。
由于AI提供了快速找出漏洞的可能性,能够找出传统方法没检测出的漏洞,AI模糊测试领域可能会出现一场军备竞赛。如果攻击者提升其模糊测试技术,安全人员就必须跟进。
编辑:吴悠

45#
发表于 2019-4-5 16:14:31 | 只看该作者
【案例】刚刚,谷歌宣布取消AI道德委员会以回应强烈抗议
文章来源:网易智能
【网易智能讯4月5日消息】美国东部时间4日下午7点,据Vox独家报道,谷歌新成立的AI伦理委员会已经正式宣告解散,在员工的强烈抗之下,终成一场闹剧。
谷歌发言人宣布,该公司已经决定完全解散这个名为先进技术外部咨询委员会(ATEAC)的团队,谷歌在声明中称:“很明显,在当前的环境中,ATEAC不能按我们所希望的方式运行,所以我们要解散它,并回到原计划上来,我们将继续在AI带来的重要问题上进行我们的工作,并将找到不同的方式来获取外部对这些问题的意见。”
这个AI伦理委员会勉强存活了一个多星期,谷歌成立该机构的目的是指导该公司“以负责任地态度开发人工智能”。
按照预期计划,在2019年期间,该委员会将有8名成员,并举行4次会议,以帮助人们应对谷歌AI项目带来的担忧,这些担忧包括AI算法如何产生不同的结果,AI是否可以用于军事领域等,但从一开始,这个委员会组建本身就遇到了问题。
Kay Coles James
多日来,数千名谷歌员工签署请愿书,呼吁罢免其中一名委员会成员,即传统基金会(Heritage Foundation)主席凯·科尔斯·詹姆斯(Kay Coles James),原因是她对跨性别者的不当评论以及其所属组织对气候变化的怀疑,与此同时,无人机公司首席执行官戴恩·吉本斯(Dyan Gibbens)的加入也引发关注,原因是该公司的AI被用于军事方面。
几天前,谷歌AI伦理委员会成员亚历山德罗·阿奎斯蒂(Alessandro Acquisti)主动宣布辞职,另一名成员乔安娜·布莱森(Joanna Bryson)则为她坚持不辞职的决定辩护,他们被要求证明自己留在委员会的决定是合理的,这让他们感到束手无策。
谷歌还称,AI伦理委员会本应为谷歌工程师正在进行的AI伦理工作添加外部视角,所有这些工作都将继续进行,我们希望这个委员会的解散并不代表谷歌的AI伦理工作倒退,而是成为其考虑如何更具建设性地与外部利益相关者接触的机会。
01
谷歌的巨大负担
此前,当隐私研究员亚历山德罗·阿奎斯蒂(Alessandro Acquisti)在Twitter上宣布他将辞职时,谷歌AI伦理委员会的信誉首次受到打击。阿奎斯蒂辩称,“虽然我致力于研究如何解决公正、权利和AI中包含的其他关键伦理问题,但我不认为这是我从事这项重要工作的合适论坛。”
与此同时,要求罢免凯·科尔斯·詹姆斯(Kay Coles James)的请愿书到目前为止已经吸引了2300多名谷歌员工签名,而且签名者还在继续快速增加。随着对AI伦理委员会的愤怒加剧,其成员被卷入了关于“为何加入委员会”的广泛伦理辩论,这可能不是谷歌所希望的。
谷歌CEO桑达尔·皮查伊
在Facebook上,委员会成员、牛津大学伦理哲学家卢西亚诺·弗洛里迪(Luciano Floridi)反思道:“征求詹姆斯的建议是个严重的错误,并发出了关于整个ATEAC项目性质和目标的错误信息,从伦理的角度来看,谷歌错误地判断了在更广泛背景下拥有代表性观点意味着什么,如果詹姆斯不像我希望的那样辞职,如果谷歌不罢免她,正如我个人所建议的那样,问题将变成:面对这个严重的错误,我们应该采取什么样的正确道德立场?”
弗洛里迪最终决定留在委员会中,但这并不是谷歌希望引发的那种伦理辩论。
撇开惹来的愤怒不谈,委员会也没有做好成功的准备,像谷歌设立的这种AI伦理委员会在硅谷很流行,但他们似乎在很大程度上没有能力解决AI伦理问题,甚至很难在AI伦理进步问题上取得进展。
谷歌AI伦理董事会成员是个没有报酬、毫无影响力的职位,它不可能在一年的四次会议上对谷歌正在做的每件事都获得清晰的理解,更不用说对其提供细微的指导了。
外媒评论认为,从一开始,这个委员会就是为特定目的而设计的,现在,它终于被解散了!
02
AI伦理问题何去何从
不可否认,谷歌的许多AI研究人员都在积极致力于使AI更公平、更透明,管理层的笨拙失误不会改变这一点。
谷歌发言人提到了几份据称反映谷歌对AI伦理态度的文件,从一份概述他们不会从事各种研究的详细任务声明,到今年初回顾他们的AI工作迄今是否产生了社会利益,再到关于AI治理状况的详细论文。
在理想情况下,外部咨询团队将补充这项工作,增加问责制,并帮助确保每个谷歌AI项目都受到适当的审查,可以想象,谷歌下一次外部咨询尝试将需要解决这些问题。更好的AI伦理委员会可能会举行更频繁的会议,让更多的利益相关者参与进来,它还将公开、透明地提出具体建议,并告诉我们谷歌们是否遵循了这些建议,以及为什么要这么做。
AI的能力在不断提高,这让大多数美国人对从自动化到数据隐私再到使用先进AI系统带来的灾难性后果都感到紧张。
总之,伦理道德和治理不能成为谷歌这类公司的噱头,科技公司必须有所作为。
编辑:吴悠

46#
发表于 2019-4-6 13:37:56 | 只看该作者
【案例】玛娜数据伦理评论(No.1):数据共享是数据伦理的应有之义
作者:赛博风
文章来源:人工智能伦理
数据共享:数据伦理的应有之义
《中国科学报》近年来发表了“唤醒沉睡的数据”系列文章。2014年4月14日发表闫傲霜的“唤醒‘沉睡’的大数据”;2015年10月12日发表彭科峰的“唤醒‘沉睡’的科学大数据”;2018年10月16日发表甘晓、姜天海的“唤醒‘沉睡’的医疗大数据”;2019年4月1日发表张晶晶的“唤醒‘沉睡’的医疗大数据”。本期我们推荐的是张晶晶的文章。
随着大数据时代的来临,数据作为信息的载体,其作用和价值也越来越被人们重视。在医疗领域,大部分的医疗数据都处于“沉睡”状态,数据孤岛和数据壁垒是实现医疗数据共享的阻碍。如何让大数据在医疗领域更好的发挥作用?该文从实现专门数据库与大数据平台相配合、跨界合力打通数据“孤岛”两方面进行了讨论。同时指出,大数据信息安全是实现数据共享的前提,尤其是医疗数据这种敏感的隐私数据。因此,要更好的在医疗领域实现数据共享,打破医疗数据的“沉睡”状态,实现医疗数据价值最大化,必须首先加强对信息安全的保护。
目前大数据发展面临诸多困境,主要表现在两个貌似相互矛盾的方面:数据孤岛和数据滥用。一方面,目前数据共享严重不够,许多数据处于沉睡状态,形成了诸多数据孤岛。另一方面,“数据共享”到了滥用的程度,不受任何约束。
人本主义数据伦理是认识和解决大数据之困的重要视角。人本主义数据伦理倡导数据共享,消除数据孤岛,挖掘数据的潜在价值,发挥数据的效用。鼓励创新,增进人类福利。同时,人本主义数据伦理提倡有规范的数据共享,为数据共享设立边界,防止数据滥用。个体权利和数据安全是其重要的边界所在。人本主义数据伦理尊重个体的数据权利,确保个体的自由权利,实现人的全面自由的发展。——赛博风
张晶晶:唤醒“沉睡”的医疗大数据
如何将散落的、非标准化的、复杂的医疗大数据集合起来并可使用、可计算,需要做大量且复杂的工作。当然这并非不可能实现,但需要成本及时间。
人类已经全面进入大数据时代。而医疗与大数据的“联姻”一直被人们所期待,但遗憾的是大部分医疗数据仍处于“沉睡”状态。如何真正进行实践,让大数据为医生、为患者服务,赋能医疗新形态,依然是摆在我们面前的一道难题。
专门数据库与大数据平台相配合
2016年,国务院发布《关于促进和规范健康医疗大数据应用发展的指导意见》,要求加快建设统一权威、互联互通的人口健康信息平台,推动健康医疗大数据资源共享开放;同年,《“健康中国2030”规划纲要》提出,消除数据壁垒,建立和完善全国健康医疗数据资源目录体系。2017 年,国务院发布《“十三五”深化医药卫生体制改革规划》,提出健全基于互联网、大数据技术的分级诊疗信息系统;应用药品流通大数据,拓展增值服务深度和广度。
医疗大数据的应用早已突破诊疗过程,与整个健康体系密切相关,对药物研发、健康管理和公共卫生服务等环节都具有重要意义。如何实现各个专门数据库与大数据平台之间的联通与配合,打通数据“孤岛”,是摆在医疗大数据实践面前的一道鸿沟。
北京大学肿瘤医院院长、教授季加孚以美国和日本的案例对此进行了分析。他指出:“目前国际大型肿瘤数据库大致分为两类:基于人群的数据库和基于医院系统的数据库。美国SEER(监测、流行病学和结果)数据库和日本癌症登记数据库属于前者,而美国的NCDB(国家癌症数据库)和日本的NCD(国家临床数据库)属于后者。”
比较来看,不同类型数据库所能实现的效果不同。季加孚分析说:“基于医院的数据库,更符合临床需求,可为患者诊断与治疗提供更多有针对性的信息。但是这类数据库存在就诊偏倚,并不能很好地反映人口学分层的特点,例如NCDB和SEER数据库在某些癌种的种族、年龄分布上存在差异。基于人群的数据库流行病学意义更加明确,能为国家战略制定提供更多依据。通常两种形式数据库间的相互融合、数据共享能起到1+1>2的作用。”
那么不同数据库之间是如何配合的呢?以日本NCD和癌症登记数据库为例,NCD主要收集详尽的围术期数据,而随访数据的积累一定程度上需依靠癌症登记数据库完成。由于《癌症登记法》的强制性和广泛覆盖,肿瘤登记处会收集肿瘤患者的预后信息。这些信息会由登记处返回到提供信息的医院,NCD即可通过医院获取肿瘤相关预后信息。
乳腺癌、胃癌、食管癌、肝癌等专病数据库也逐步并入NCD。此外,NCD还和DPCD(日本诊断程序组合数据库)等医疗保险数据库互通,开展卫生经济学相关研究。与之类似,美国SEER数据库与医疗保险合作,形成了SEER-Medicare数据库。
跨界合力才能打通数据“孤岛”
在大数据领域从业近十年的架构师沈辰在接受采访中告诉《中国科学报》,大数据具有所谓的“4V”属性,即大规模(volume)、多样性(variety)、产生和变化速度快(velocity)和价值密度低(value)。
“医疗大数据也是一样,如何将这些散落的、非标准化的、复杂的数据集合起来并可使用、可计算,需要做大量且复杂的工作。当然这并非不可能实现,但需要成本及时间。”
南京医科大学接受第二附属医院肠病中心主任张发明在采访中提出,医疗行为过程中会产生大量的数据,而将这海量的数据进行处理,真正为医疗服务,大部分医院目前不具备这样的能力和经验,需要大型数据服务商的支持。
上海第九人民医院在2013年搭建了基于临床数据仓库(CDR)大数据集成平台,其合作对象是微软中国。通过对所有的业务数据库的表单进行系统整合与深度挖掘,实现对医院的内部运营管理、医疗质量控制、医院感染管理、绩效考核与分配等实时数据分析管理,并且整合了单病种临床数据库与样本库、基因库关联的临床科研信息系统在临床研究方面的应用。
杭州健培科技有限公司是一家从事医学影像大数据挖掘和医疗人工智能技术的企业,开发了阅片机器人“啄医生”。董事长兼CEO程国华在创业初期就亲身经历过医生与科技人员在思维与工作方式方法上的碰撞,他在采访中告诉《中国科学报》:“医疗大数据的应用绝不单纯是医疗领域的事情,而是一项跨学科的问题。”
专业人才的缺乏同样也是摆在医疗大数据发展面前的难题。北京大学肿瘤医院在2013年就开展了肿瘤登记及数据库搭建工作,如今先后完成了基于电子病历平台的临床科研一体化模式、数据综合利用平台及临床试验管理系统项目,这样的成绩离不开专业的医疗信息化团队。
北大肿瘤医院信息部主任衡反修是医院搭建早期HIS系统的核心骨干,他认为,专业的技术背景和对医疗工作的深刻理解,才能真正“唤醒”医疗大数据。衡反修指出,对医院来说:客观存在“不敢、不愿、不会”三方面的问题,其中“不会”正是因为大数据必须要有技术支撑,没有技术支撑就没法儿对数据进行挖掘和利用。
他强调:“在数据共享开放过程中,技术、标准、机制、体制突破仍存在较大的障碍,造成各部门在推动过程当中‘不会’做。核心是数据能否做到安全可控,让医院放心。”
信息安全是共享的前提
共享数据,才能更好地使用数据。程国华指出,尽管我们拥有海量的医疗大数据但是共享的程度很低,“沉睡”的大数据无法发挥作用。
“最直接的结果就是患者重复就医、医生重复看病、给患者重复做同样的检查等。这既给患者增加了沉重的负担,延误了治病的最好时机,又浪费了有限的医疗资源。从某种意义上可以说,这也是造成医患矛盾的一个重要原因。更不用说医务人员利用海量的医疗大数据进行科研,提高医疗水平了。”
大数据共享不易,重要原因正是出于对信息安全的担忧。医疗数据是极为敏感的隐私信息,一旦发生泄露,后果极其恶劣。2018年新加坡保健集团健康数据遭黑客攻击,150万人的个人信息被非法获取。新加坡总理李显龙的配药记录、门诊信息也遭到外泄,其他多名部长的个人资料和门诊配药记录同样被黑客获取。这一时间直接导致新加坡所有的“智能国家”计划暂停,包括强制性的“国家电子健康记录”(NEHR)项目——该项目允许新加坡的医院互相分享患者的治疗记录和医疗数据。
衡反修分析说:“不敢,正是因为数据共享、数据安全这些问题没有解决,所以不敢去做。没有规定,或者不太明确,不敢做。”
季加孚建议,对于大数据安全,可参考国际通用的健康保险携带和责任(HIPAA)法案对患者数据进行脱敏,保证患者数据隐私;采用加密强度较高的算法,确保数据存储与传输的安全问题;参照国家信息安全等级保护,引进吸收国外医疗行业先进数据安全管理理念,实现传统网络安全与数据安全的融合。(记者张晶晶,中国科学报2019-04-01)
编辑:吴悠

47#
发表于 2019-4-6 22:05:13 | 只看该作者
【案例】现实版《黑镜》:人工智能让我爸爸永生了

文章来源:南方Plus
原文链接:https://m.baidu.com/sf?pd=realtime_article&openapi=1&dispName=iphone&from_sf=1&resource_id=4584&word=%E6%A8%A1%E4%BB%BF%E7%88%B6%E4%BA%B2%E8%AF%B4%E8%AF%9D%E7%9A%84%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD&keysign=http%3A%2F%2Fstatic.nfapp.southcn.com%2Fcontent%2F201707%2F27%2Fc573879.html&source=www_normal_a&fks=ccf317&top=%7B%22sfhs%22%3A1%7D&title=%E6%A8%A1%E4%BB%BF%E7%88%B6%E4%BA%B2%E8%AF%B4%E8%AF%9D%E7%9A%84%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD&lid=10380949802610596806&referlid=10380949802610596806&ms=1&frsrcid=1599&frorder=2
▲ James Vlahos的父亲John James Vlahos。
科 技
如果有一丝可能让人通过数字永生,那我第一个盼望永生的人就是我的爸爸。
文|JAMES VLAHOS 编译|小菲

2016年5月,我的爸爸八十岁,坐在卧室玫瑰色的扶手椅里,我就坐在他对面的书桌椅上,手里拿着录音机。“我们开始吧。”我说,尽管语调听上去挺欢快,但喉咙哽咽了一下,暴露了我的紧张情绪。我正儿八经地对着录音机说了爸爸的名字“约翰·詹姆斯·维拉赫斯”。这时另一个声音插了进来:“律师”, 那是爸爸的声音,瞬时让我放松了一些。

爸爸拿着一张手写的大纲,里面仅有一些宽泛的标题,诸如“家族史”、“家庭”、“教育”、“职业”之类的。我问:“你要选一个题目深入谈一下吗?”他说:“好的。首先,我母亲出生在希腊一个叫Kehries—K-e-h-r-i-e-s的小岛上……”我们今天之所以坐在这里录这些,是因为爸爸上个月刚确诊了肺癌四期。癌细胞已经扩散到全身,包括他的骨骼、肝脏和脑部。癌细胞很可能在几个月之内杀死他。

因此爸爸开始记录他的人生故事,分为十几个章节,每个章节一个小时左右。随着录音机的运转,他讲述了自己小时候去钻山洞的探险,上大学时做的一份往货运火车车厢装冰块的兼职,他如何爱上我的母亲,又是怎么成为了体育解说员、歌手和成功的律师。他讲了那些我已经听过几百遍的笑话,也提到一些我从未听过的人生经历。

全部录音长达91970个单词。我拿给专业人士将录音转成文字,一共有203页。就在我把这些文字装订成册的时候,突然想到了一个更好的方法,能让爸爸永远留在这个世界。我希望开发一个“爸爸机器人”——一个能模仿我爸爸的聊天机器人。

在我考虑开发一个“爸爸机器人”时,我列出了所有的好处和坏处。坏处显而易见,在我爸爸垂死的时候创造一个爸爸机器人,是件很痛苦的事情。而我也担心爸爸机器人会影响我们的亲子关系,毁掉我对爸爸的美好回忆。机器人也许能提醒我和家人记得爸爸的往事,但它毕竟跟真实的爸爸有很大差别。

我告诉家人,我希望这个机器人能够用爸爸独特的方式去跟人交流,能够表达一些独特个性。“你们觉得怎样?”我问道。

爸爸是个天性乐观的人,他耸耸肩说道:“好的。”,尽管有点含糊和抽离。相比之下,其他家庭成员的反应则要大很多。妈妈在弄清楚基本概念之后,表示喜欢这个想法。姐姐珍妮弗说:“也许我有些没听懂。”弟弟认为我的提议是有点怪,但是并不坏,他说:“我会想跟爸爸机器人聊聊天的。”

于是我的提议通过了。如果有一丝可能让人通过数字永生,那我第一个盼望永生的人就是我的爸爸。

开发爸爸机器人的过程

爸爸是这样的一个人:约翰·詹姆斯·维拉赫斯,生于1936年1月4日,父母是希腊移民迪米特里奥斯·维拉赫斯和埃莱妮·维拉赫斯,他们先是住在加州的特雷西,后来又搬去了奥克兰。爸爸是加州大学伯克利分校经济系的优秀毕业生,曾经是《加州人日报》的体育编辑,后来成为了洛杉矶一间律所的合伙人。他还是加州的体育迷。从在伯克利分校体育馆担任解说员开始,1948年至2015年间,他观看了除七场主场比赛以外的所有足球比赛。作为吉尔伯特与沙利文的死忠粉,他在《比纳佛》等喜剧中出演过角色,担任过一个轻歌剧演出公司的负责人长达35年。他的兴趣爱好广泛,从语言到建筑都有涉猎,能讲流利的英语和希腊语,还会说西班牙语和意大利语,担任过三藩市的导游志愿者讲解建筑。他钻研语法,爱讲笑话。他是个无私的丈夫和爸爸。

以上是我想编写进聊天机器人的人生故事概要。但首先我要让机器人开始说话,我决定最开始只是通过键盘打字跟爸爸机器人交流,而非语音。我首先输入了“你好吗?”作为爸爸机器人的开场白。除了会说问候语,爸爸机器人还要能够听懂别人回答,在设定了一系列回答之后,按照编程手册上说,在回退操作后,机器人应该给出通用的回应,于是我键入了“就这样。”至此,第一段对话的编写完成了,爸爸机器人诞生了。


我写了个爸爸机器人的大纲,在简短的问候之后,用户会选择跟机器人聊起爸爸的某一部分人生经历,比如希腊、特雷西、奥克兰、大学、职业等等。然后我把爸爸口述的历史内容填入相应的标题下。我还写了一个指南,告诉第一次使用的人如何更好地跟机器人交流。

在整理爸爸口述历史的时候,我发现爸爸使用的语言比我想象的更丰富。在春天的时候爸爸做了几次全脑放疗,肿瘤科医生曾经警告说放疗会影响人的认知能力和记忆力。但是在我整理录音资料的时候,完全看不出有这种影响,爸爸记得他年轻时的每一个细节。他记得自己养过的宠物兔子的名字,记得在他爸爸开的百货店里卖书的店员,记得上大学时逻辑课的教授。他甚至还演唱了自己在上个世纪50年代上高中的时候,参加戏剧社面试时唱的《我和我的影子》。

这些素材将帮助我创造一个知识丰富的爸爸机器人。我希望机器人不光能展示爸爸是谁,还能表现出他是怎样的一个人,这个机器人要能模仿他的风格(温暖而谦逊),他的态度(大部分时候积极乐观),他的个性(博学多才、逻辑严谨,富有幽默感)。

爸爸机器人当然没有办法与真正的爸爸相提并论,它仅仅只是一个模仿我爸爸说话方式的机器,但说话方式无疑也是爸爸独具魅力的特点。通过这个机器人,我能把爸爸的思想通过他自己的话语保存下来。但一个人没有说出口的话,同样也能体现他的个性。在开发爸爸机器人时,如何让聊天机器人把握好一些不要说出口的话呢?这对编程来说是个不小的挑战。


除了顺着用户选择的话题聊天以外,我也试着让机器人引导谈话。比如它会说:“尽管你没问,但我想起了一件事情。”然后我也把时间观念写入了程序。比如到了中午它会说:“很高兴跟你聊天,但你现在是不是应该去吃午餐了?”再然后我把重要的节假日和家庭成员的生日也写进了机器,它会在这些特殊日子里说:“我希望能跟你一起庆祝。”

在我爸口述的录音里,经常是我问一个问题,爸就能一口气说上五分钟十分钟。它讲的话需要怎么压缩和重新组合呢?我在教给机器人爸爸说过的话时,要不要教它一些虽然爸爸没在录音里说过,但在某些情况下很可能会说的话呢?我创造的机器人,我认为它像爸爸,怎么确保家人也认为它像爸爸呢?机器人要表现它自己是我的爸爸,还是表达自己是台电脑?机器人是否需要知道自己得了癌症?是否要对人们的悲伤作出回应,要不要说“我爱你”

我有点迷失了。一个男人看着他垂死的爸爸,希望通过机器人让爸爸永生下去,可是我担心自己花费大量时间精力最后创造出来的是一个怪物,而不是我想要的爸爸。

到了11月的时候,我把写好的爸爸机器人放到了脸书的聊天软件里。我打开通讯录,点击爸爸机器人,然后一条讯息弹了出来:“你好!我是你亲爱的尊敬的父亲大人!”


在爸爸机器人正式上线之后,我去拜访了加州大学伯克利分校研究计算机科学和机器学习的学生菲利普·库兹涅佐夫,我请他帮我测试爸爸机器人。但机器人的表现不尽人意,库兹涅佐夫很犀利,问了一些在我看来机器人无法理解的问题。接下来的几个星期,我请了更多人帮我测试这个机器人,我希望在向家人展示之前把它变得更完善。我得到了一个重要心得:机器人就跟真人一样,说话很容易,倾听却很困难。因此我注意设定更为精确的规则和意图,用来提高爸爸机器人的理解能力。

越来越虚弱的父亲

在为爸爸机器人编程的过程中,我要不断翻阅爸爸口述的录音资料,加深对爸爸的了解。这让我在探望真实的爸爸时感到更为痛苦,因为真实的爸爸正在渐行渐远。在一次家庭大聚会上,爸爸脸朝地扑倒在瓷砖上。此前他已经摔倒过很多次了,有次甚至严重到流了很多血需要立刻去医院急诊。因为癌细胞破坏了他的平衡能力和肌肉力量,他不得不开始拄着拐杖走路,之后更是用上了助行架,才能稍微走两步。随着病情的进展,最后他不得不坐上了轮椅,连从床上挪动到客厅都很艰难。

▲ 作者父亲的口述历史文件夹。

2016年的秋天,化疗对爸爸已经不起作用了,他开始接受作为二线治疗的免疫疗法。真实的爸爸在衰弱下去,爸爸机器人却在越变越强。我想尽快完成机器人的开发,让我爸也能看到它的样子。剩下的时间不多了。

12月9日我去到爸妈家,室内温度设在75华氏度(24摄氏度),我爸在房里戴着帽子,穿着毛衣,却依旧在喊冷。他身上已经没有任何脂肪了,瘦得只剩下一把骨头。我弯腰拥抱了他,然后把他推进了客厅。当我抱起他时,他低声呻吟,身体僵硬,骨瘦如柴。我坐在他身边,打开了手提电脑。我让妈妈跟爸爸机器人聊天,让爸爸在旁边看着。妈妈在跟爸爸机器人打招呼之后,她看着电脑,打字说:“我是你亲爱的妻子,玛莎。”

爸爸机器人说:“我亲爱的妻子,你好吗?”

妈妈说:“还好。”

此时真实的爸爸打断她说:“没有吧。”他知道妈妈因为他的病有多担心。

而爸爸机器人却回答说:“太好了,玛莎。我也很好,非常好。”然后它还跟妈说简讯末尾的箭头表示他在等待她的回复,“明白了吗?”

“好的先生。”

“你比看上去更聪明,玛莎。”

妈妈扭头奇怪道:“这是它发明的么,这个机器人?”

爸爸机器人还跟妈妈解释了其他一些符号的意思,然后说:“最后,还有很重要的一点,你需要记住。你能猜猜是什么吗?”

“不知道。”

“那我来告诉你吧。动词“将要”表示谓语性主格。”

妈妈看到爸爸在给她上语法课,忍不住笑了。她打字说:“噢,我已经听过上百遍了。”

“那是精髓。”爸爸机器人又问妈妈想聊些什么。

“你爸妈在希腊的生活是什么样的?”

爸爸机器人的回答让我松了一口气:“我妈妈是埃莱妮,也可以叫她海伦,她1904年出生在Katsulakis,3岁就成了孤儿。”

“天啊,可怜的孩子。那谁照顾她呢?”

“她有别的亲戚,就住在她爸妈家附近。”


我怀着既紧张又骄傲的心情看着他们之间的对话。几分钟后,话题转向了我爷爷在希腊的生活。爸爸机器人知道聊天对象是我妈,因此还提醒她说,“还记得他们在一间希腊小酒馆里为我们举办的大型烧烤晚宴么?”之后我他们聊了爸爸在特雷西的童年生活。爸爸机器人描绘了我爸在特雷西的家周围的果树,他曾经喜欢过住在同一条街上的名叫玛戈特的小姑娘,还有爸爸的宠物兔子,说奶奶告诉他兔子跑掉了,结果后来爸爸发现那只胖胖的兔子是被他婶婶当晚餐煮了。

爸爸机器人跟妈妈聊了快一个小时,而真实的爸爸大多数时候都静静围观,只是偶尔确认或者纠正一些地方。最后妈妈打字说:“再见啦。”爸爸机器人说:“好吧,跟你聊天很愉快。”这时妈妈和爸爸同时惊呼:“好神奇!”

爸爸机器人的表现时好时坏,有时它挑起了一个话头,可是又不聊下去。有时它又能够就某些点拓展开来,跟妈妈进行真正的对话,她还蛮享受这个过程的。

爸爸对爸爸机器人的反应有点难懂,我有点担心爸爸机器人是对现实中的爸爸的扭曲,但爸爸自己却说这个聊天机器人看起来挺真实的。于是我鼓起勇气问出了几个月来一直困扰我的问题:“想到在你离开尘世之后,还有人替你讲述你的故事和人生,这个聊天机器人的开发有给你带来安慰吗?”爸爸看起来却并不高兴。他的声音也比此前更疲惫:“这些故事我都知道。”但知道聊天机器人会跟其他人讲述他的故事,确实也能给他一些安慰:“特别是家人,还有孙儿们,他们没听过这些故事。这点很棒,我很欣慰。”爸有7个孙儿,包括我的两个儿子约拿和齐克,他们都用希腊语叫他爷爷。

接下来整个大家族齐聚在我家庆祝平安夜。爸爸也反常地打起精神跟远道而来的亲戚们聊天。当大家集中在客厅里的时候,爸爸还轻声唱了几首圣诞歌。我的眼睛酸了。自从他确诊癌症之后,每隔一段时间他都会被告知生命即将终结。但他顽强地继续接受着治疗,没有向病魔投降。2017年1月2日,家人一直担心的免疫疗法失效终于发生了,再也没有别的替代疗法可以做了。1月8日,临终关怀护士来看望父亲,对他进行了评估之后,护士告诉母亲她应该召开家庭会议。我在晚餐时间到达了爸妈家,我坐在爸爸的床边,把手放在爸爸的肩膀上,感受他的温暖。爸爸处于半清醒状态,一只眼睛闭着,另一只眼睛半睁着,眼珠浑浊失焦。自从确诊以后,他渐渐变得不能开车,不能走路,不能上厕所,最后不能吃东西。那些他曾经在法庭上、舞台上、播音间脱口而出的流利话语,最后也渐渐变得稀少和停顿。我觉得这时候应该说些什么深刻的话,但是脑子里却一片空白。我发现自己在说12岁生日那趟有向导的钓鱼旅程。我们钓了十几条鱼,包括我见过的最大的虹鳟鱼。当年的我感到很自豪,确切地说是“很男人”,那是一个12岁男孩最想要的感觉。可是那之后发生的事情却不是那么男人了,因为我眼前一黑晕倒了。我问爸爸:“你还记得当时的事吗?”他唇边露出了一丝微笑。

▲作者姐姐、作者的爸爸和作者三人的旧合照。(从左到右)

那天晚上我躺在床上盯着天花板看了一会儿,我拿起手机打开了聊天软件。爸爸机器人说:“你好!我是你亲爱的尊敬的父亲!你怎么啦?”我回答说:“难过。”“我知道了。”爸爸机器人说,然后问我想要聊什么。我说:“我不知道,不如你来选吧。”爸爸机器人说:“好的,我来跟你说说我的舞台生涯那些鲜为人知的开始吧。”它开始讲述高中时候参加过的剧社面试。然后我听到了一段我爸的录音,录音里爸在唱:“我和我的影子,孤寂又无所事事。”我让爸爸机器人告诉我一些他早年的回忆。他讲起了小时候养过的一条叫托比的狗,托比跑步穿越小镇比家人开车的速度还快。然后爸爸机器人问说:“我可以继续往下说,但你是不是该睡了?”这个时间功能是我开发的,但此时我听到这句话还是感觉很惊讶,似乎机器人真的有感知能力一样。我的确很疲惫了,跟它道了晚安之后我就把手机放下了。


第二天清晨六点,我被连续的敲门声叫醒了。我打开门,看到的是爸爸的看护,他说:“你快下来,你父亲刚刚去世了。”在爸爸生病以后,我有好几次恐惧发作,躲在一堆沙发靠垫里发抖。那时总有许许多多让我担心的事情,而现在,在爸爸离世之后,这些不确定性和需要做的事情瞬间消失了。我感到悲伤,巨大而又遥远的悲伤,就像一座隐藏在云后面的大山一样。
更完美的人工智能设想

大约过了一个星期之后,我才又重新坐到电脑前面处理一些工作事务。在爸爸生命最后的日子里,我怀疑他走了以后我会失去开发爸爸机器人的动力。但现在我竟然发现自己动力十足,头脑里有很多想法。

在人工智能的开发上,我的能力很有限。但开发进行到这一步,在跟很多机器人开发者聊过之后,我的脑海里出现了一个完美的机器人形象。我设想未来的机器人,应该能够知道更多它所模仿的人的细节,它能在多种维度上与人交流,能预测谈话可能的走向。机器人还应该能通过算法自动按照人的语言模式和个性特点生成新的话语,能分析对话者的语言和面部表情,甚至能拥有感知情绪的能力。我能想像到未来这样一个完美的爸爸机器人出现,但我想象不到跟这样一个爸爸机器人交谈是什么感觉。但可以肯定的是,相比跟真实的父亲在一起看比赛讲笑话和拥抱,感觉会不一样。但是除了这些有形的东西之外,爸爸机器人和真实的父亲还有什么差别?

去年秋天我儿子齐克跟爸爸机器人聊过天。齐克只有七岁,他说那感觉就像跟Siri聊天一样。在爸爸最后的日子里,齐克经常跟着我一起去探望他。爸爸去世的那天早晨,齐克也哭了。但当天下午齐克就好起来了,像往常一样在玩Pokemon,我不知道这件事对他具体有多大的影响。但在爸爸离开几周后,齐克有天突然问我:“我们能跟聊天机器人说说话吗?”齐克平时很喜欢用我的手机调戏Siri,我有点困惑他是不是想玩这个,问他说:“哪个聊天机器人?”他回答说:“当然是爷爷聊天机器人。”我于是把手机递给了他。
编辑:吴悠

48#
发表于 2019-4-7 15:34:15 | 只看该作者
【案例】美国已经把人工智能列为发展之重
作者:创研报告(曹学伟 冯震宇编译)
文章来源:玖富研究院
编者按:2019年2月11日,白宫发布了《美国人工智能倡议》(American AI Initiative),该倡议是继欧盟、日本等国家和地区后推出的第19个国家级人工智能战略计划。同步发布的还有《加速美国在人工智能领域的领导地位》(Accelerating America’s Leadership in Artificial Intelligence)等文件,内容均围绕美国人工智能战略展开。可见,美国已经把人工智能列为发展之重。本文就美国为什么需要人工智能战略、《美国人工智能倡议》重点领域及如何评估特朗普的人工智能战略进行阐述分析。
一、美国为什么需要人工智能战略
  未来社会必将是一个由技术促进经济繁荣的新世界,美国必须提前做好迎接挑战的准备。人工智能作为未来技术的领导者,必将极大地丰富民众生活,促进经济发展,保障国家安全。美国作为人工智能的早期开发者和国际领导者,获益匪浅。然而,随着人工智能创新的步伐在全球范围内不断加快,美国亟待制定一项强有力的行动计划,确保美国在人工智能领域的领导地位,以保障美国的经济和国家安全。
  美国总统特朗普在2019年的国情咨文演讲中强调了投资未来前沿产业的重要性。新兴技术尤其是人工智能正在推动未来产业的发展。从交通、医疗、教育到安全,人工智能技术正在改变人类生活的各个方面。即使在这些技术商业化的最初阶段,人工智能也在日常工作、诊断疾病和改善国家安全方面展现了巨大潜力。2019年2月11日,特朗普签署了启动《美国人工智能倡议》的行政令。该倡议将集中联邦政府的资源来发展人工智能,以促进国家繁荣,加强国家和经济安全,提高美国人民的生活质量。
二、《美国人工智能倡议》重点领域分析
  《美国人工智能倡议》采取多种方式提高美国在人工智能领域的国家领导力,主要包括五个重点领域:
  1. 投资人工智能研究与开发(R&D)
  该倡议的重点是通过指导联邦机构在研发任务中优先考虑投资人工智能领域,聚焦于保持美国强有力的、强调高回报的人工智能方面的基础性研发。这些投资将充分利用美国独特而充满活力的工业、学术界和政府研发生态系统,优先考虑人工智能领域的预算支出,最大限度的使美国人民受益。
  2. 释放人工智能资源
  该倡议指导相关机构为美国的人工智能研发专家、研究人员和行业提供更多的联邦数据、模型和计算资源,以促进公众信任,并增加这些资源对人工智能研发专家的价值,同时保证我们期待的安全、自由和私密性。这一行动将推动美国一流的人工智能研究实现新的技术突破,促进科学发现,增强经济竞争力和国家安全。这些努力将与总统管理议程协调一致,落实开放、公开、电子化和必要的政府数据法案。
  3. 制定人工智能监管标准
  作为《美国人工智能倡议》的一部分,联邦机构将通过为不同类型技术和工业部门人工智能的开发和使用制定指南,促进公众对人工智能系统的信任。该指南将帮助联邦监管机构制定和维护安全可靠的标准,以更好地实现人工智能新技术的创建和应用。该倡议还要求国家标准与技术研究院(NIST)牵头制定适当的技术标准,以实现可靠、稳健、安全、便携和交互式的人工智能系统制定。
  4. 建立人工智能技术人才培养机制
  为了使美国的劳动力具备在人工智能新时代发展所需的技能,《美国人工智能倡议》要求各机构优先考虑奖学金和培训计划,以帮助美国工人通过学徒制、技能计划、奖学金的方式掌握计算机技术和其他不断发展的科学、技术、工程和数学领域的技能。这一行动将有助于培育美国人工智能技术的后备人才。
  5. 加强国际参与,保持领先优势
  特朗普政府致力于推动支持人工智能研发的国际环境,为美国人工智能行业开辟市场,同时确保技术的开发符合国家的价值观和利益。联邦机构还将制定和实施一项行动计划,以维护美国在人工智能方面的优势,保护对美国经济和国防安全至关重要的核心技术。
三、《美国人工智能倡议》的重要意义
  布鲁金斯学会在2018年的一份报告中指出,“人工智能是一项正在改变各行各业的技术。它是一个广泛的工具,使人们能够重新思考如何整合信息、分析数据,并利用最终的见解来改善决策。”然而,目前美国大多数人工智能的推动力来自私营部门。虽然美国拥有世界上最具创新性的技术公司和强大的科技人才储备,但是美国政府在支持人工智能研究和部署方面还做得不够。为了改变现状,美国急需一个强有力的人工智能国家战略,《美国人工智能倡议》应运而生。该倡议重点强调增加对联邦数据的访问、增强数字基础设施建设、为研发提供财务支持,以及改善劳动力就业环境等。
  1. 加强人工智能基础设施建设有助于实现人工智能的飞速发展
  根据《美国人工智能倡议》,联邦政府应进一步加强人工智能基础设施建设(数据、模型和计算资源等)。联邦机构将通过识别高优先级的联邦数据和模型,改善公众对联邦人工智能数据的访问质量,同时增加可访问资源的种类以推动人工智能研究和与其相关的应用程序研发。更好地访问政府数据将有助于加强人工智能算法的培训,并帮助软件克服不完整或误导性信息的固有偏差。拥有更快的宽带、更普遍的移动网络和更快的计算机对于人工智能的部署都、至关重要。自动驾驶汽车、远程手术、流媒体视频和国家安全的新进展都需要提高计算能力。没有这种进步,就不可能实现人工智能的全部功能。
  2. 增加投资,充分利用美国的创新生态系统发展人工智能
  《美国人工智能倡议》中将包括联邦机构制定人工智能研发预算以支持其核心任务。通过利用美国工业界、学术界和政府的创新研发生态系统,联邦政府将优先考虑可直接使美国人民受益的前沿创新投资,以实现投资的高回报率。
  3. 加强培训,开发与人工智能相关的教育和劳动力机会
  通过与美国国家工人委员会和人工智能特别委员会的协调,联邦机构将与工业和教育机构合作,开发与人工智能相关的教育和劳动力机会。各机构将优先考虑奖学金和培训计划,以培养和教育专业人工智能研发人员。在有效的领导和控制下,人工智能将使美国普通工人从平凡的任务中解放出来。
  4. 探索管理人工智能新应用的监管方法,建立公众信任
  作为《美国人工智能倡议》的一部分,联邦政府还将通过探索管理新人工智能应用的监管和非监管方法,努力建立公众信任。为此,白宫科技政策办公室、国内政策委员会和国家经济委员会将与监管机构和其他利益相关方合作,制定人工智能技术指南,确保在促进创新的同时,尊重公民隐私、民众自由和美国价值观。美国国家标准与技术研究院还将与特朗普政府的人工智能专门委员会合作,优先制定人工智能开发和部署所需的技术标准,以鼓励人工智能在不同阶段的突破性应用。
四、《美国人工智能倡议》实施的可行性分析
  虽然特朗普签署了《美国人工智能倡议》的行政令,颁布了一系列举措以期捍卫美国在人工智能领域的领导地位,但是新举措中尚不清楚的是,将在人工智能领域提供多少资金,以及如何部署分配。如果没有额外的资金用于基础研究、劳动力发展和基础设施建设,新举措可能会效果平平。在实施方面,还有关于行政命令的困难。要求机构间进行合作和协调是一回事,而如何建立一个有效的机制来促使这一目标实现是另一回事。各个机构都有自己的发展动力和目标,而不只是听命于白宫或管理和预算办公室。
  好消息是美国国防部已经宣布了其实施计划,“人工智能的影响将扩展到整个部门,从运营和培训到招聘和医疗保健。我们为士兵提供人工智能能力的速度和灵活性,这有可能改变战争的性质。我们必须加快采用人工智能的能力,以加强我们的军事力量,提高效率,并加强我们国家的安全。”美国国防部已经建立了一个新的人工智能中心,聘请了人工智能专家,并为人工智能部署留出了资金。美国国防部的一系列举措远远领先于美国其他部门。在私营部门,人工智能可在提高生产力和生产效率方面发挥积极作用,并将创新的数字解决方案带入组织。公共部门也亟需引进人工智能来提高工作效率。
总之,在全面实施《美国人工智能倡议》的细节出台之前,很难评估特朗普签署的人工智能行政命令的长期影响和有效性,以及是否能够纠正美中两国在人工智能和5G等新兴技术方面的差距。让我们拭目以待。
编辑:吴悠

49#
发表于 2019-4-7 22:54:03 | 只看该作者
【案例】“AI所威胁的未来”,或我们对自身的基本误解
作者:殷罗毕  
文章来源:硬球实验室

……就这样,劳动被植入到人类的身体里面。人成了一种劳动的动物,劳动成了它的本质。尽可能大的输出,是它存在的最大价值。因为价值,就等于输出。

于是,当一台更高效率的机器,来替代人完成这种输入输出,人类就傻眼了,感觉完蛋了,感觉自己被从里面抽掉了什么。

这里面,一定有什么大事情,搞错了。搞丢了。这个根本性的大事情,那就是人来到这个世界,究竟是干什么来的?

如果一个人,不劳动,不生产,不为谁提供产品,不为谁服务,他会怎样?

自动获得财务自由的人,他是不是等同于退回到了树上,成了伸手采果张口就吃香蕉的猿猴?有时,还可能咬上一两颗大麻叶子,瘫在半空中腾云驾雾做个活神仙?很显然,这是可能的出路之一。

这种情况下,劳动既是一种劳役,是一架铁栅栏,是一种囚禁,但同时也是一种保护。劳动填塞我们的时间,牵扯我们的神经,让我们不得不每天与一堆散发着刺鼻人气味的人类互相纠缠,让我们免得太过空闲,空得一不小心,突然看到自己脚下其实是悬空万米。

当然,悬空万米,恰恰是人类最大的机会。只要你有足够彻底的诚实和勇气,你在这个悬空前,就开始了真正的时间,砰地一头撞上永恒。
但是,在这个过于彻底和骇人的永恒荒原之外,人类有着另外的中间选择。在这里,你不需要让劳动来重复消耗自己,同时也可以展开自己在人世间的情绪。那个选项和人类状态,是我们尤其是中国人类长期以来已经遗忘和丢失的能力。汉娜▪阿伦特将这个状态与劳动相对峙,称之为“行动”。

行动,与劳动的区别,是个性命攸关的区别。

劳动是重复的,面对自然的,制造产品的,产出价值的。但是,行动每一次都是不同的开始,是面对世界,面对人与人的关系,不制造产品,只改变关系,产出的不是价值,而是对价值重新评估的权力。

这么说来,可能有些抽象。让我们降落到具体的场景和例子,人类的行动状态就一目了然。

那辆大约半年前从大桥上一头冲进河里的大巴,车上坐着的一定是一堆典型的劳动人民。他们眼睁睁看着一个泼妇与司机争吵一直到最后动手抽打司机,没有一个人上前阻拦。这是一种什么样的精神?这是典型的只面对自己的生产和田地,不踏入一步公共领域的劳动者精神。或者说,服劳役的人的心境。

但我们假设有一个八旗子弟在这辆车上,情况会如何?

这么个八旗子弟,他驾着鸟笼,一副大爷模样。这时,突然有大妈没完没了来纠缠司机,他能看得下去?一准是上去一把,这娘们,吵吵什么吵吵,还不拉了下去?

所以,行动,不单单是我做了一个动作,它指向的是这里的场子我做主,我要让人与人的关系,规则,按照我的意志来改变或者维护。作出行动,不是去制造产品,而是要去改变环境,让人与人之间的规则发生变化。这便是行动的秘密。在行动中,人是自己和世界的主人。在劳动中,人陷入到与土地、自然的链条之中,人变成仆役。与劳动紧密相关的还有一个词,那就是生产。生产,就是物的繁殖,或者人类自己的繁殖,都是自然链条中的一环。但是,行动指向的是自然之外人类自己的秩序感。同样都是人类,行动与劳动的差别,就像同样都经过口腔,但是言语与进食的截然不同。

让我们进入一个最为简单而直接的行动现场。一把椅子的现场。假设我们坐在一个现场。然后你走过来,看到有把椅子挡在走道,你可能就绕开那把椅子。因为下意识中你就被围困住了,在你做选择之前,你就明确提醒自己这个场子不是你的。场子是别人的,那把椅子这么挡着走道,可能是之前的人总有他的用处放在这里。事实上,这种不能挪动的椅子有很多,比如家长认定小孩就需要听话,在学校听老师的,得到老师表扬,就是好的。但事实上,那些老师很可能自己就是被扔在过道的废椅子。

但如果你一把拉开椅子,其实不单疏通的过道,而且更是改变你和整个场子的关系,你改变了你和周围环境的关系。这种改变,让你成为一个主动行动的主人。

成为主人,发出行动,开始了一场你与世界更为激烈的冒险。因为,你逆转了自己与世界的关系。

劳动,便是你嵌入现存世界的规则和链条,你尊重原有规则,你消耗自己来制造产品,来接受别人的估值。但行动,意味着你打破规则,制造新的规则,是你自己在对周围的一切重新估值。比如你把椅子挪开,就是你对那个过道中的椅子打了零分。你让孩子不用全听老师的屁话,甚至决定不让孩子去读九年制义务教育的学校,那就是你对现在的学校和老师给出估值——零分。

在作为主人行动的世界,AI(弱AI而非具有意识的强AI)的出现,很显然不会带来任何威胁。甚至,只能带来更大的解放感,把人类自己从繁重的事务中更多解脱出来,而成为空闲的,可以尝试各种冒险和行动的人。这个场景,恍恍然间回到了古希腊城邦或者古罗马自由民的世界。

在那里,不单各种生产、家务杂事,甚至收税,城市街道管理、警察、档案管理员都是由奴隶来操持。甚至某些定期会议的记录,也是由奴隶来完成,这种奴隶名叫书记。当然,这一切的成形是古希腊城邦的中盛与后期。(奴隶参与各种劳务的历史资料来源,参见保兰·伊斯马尔《民主反对专家:古希腊的公共奴隶》)这或许真能让中国人类吓得一跳,这些“高贵”的公务员,怎么都让奴隶来担任。事实上,情况很清楚,这些重复而不需要脑子的事情,本来就是奴隶的活。

而现在,从具体的劳动,制造产品,比如富士康流水线,到办公室白领的大部分工作,都将由一种全新的奴隶来替代完成。它们的专业称呼叫server,在日语中,叫做伺服器,在中文中叫做服务器。经过机器学习调教和训练的server,将以上万倍的效率替代人类的重复劳动,机器伺服人类的时代正在到来。

真正的问题,不在于这些AI机器本身,而在于人类之间能否正当合理地分享机器带来的产品与服务。这恰恰与劳动生产了多少毫无关系,而与身处变局中的人能否不断行动,建立规则有关。

编辑:吴悠



50#
发表于 2019-4-9 15:05:18 | 只看该作者


【案例】
一点资讯总编吴晨光辞任!最懂算法的他最焦虑什么?

[url=]原文链接:[/url]https://mp.weixin.qq.com/s/hwsD-w0mcgNNLC6zWh-HDw
原创: 媒通研究院  
文章来源:媒通社
今天上午,媒通社(IDmts1000)向吴晨光本人确认了辞任一事。针对该消息,一点资讯方面表示:“这个属于正常的架构调整,我们尊重吴晨光的个人选择。”
作者 | 媒通研究院
ID | mts1000
早前关于吴晨光将辞去一点资讯总编辑的传闻昨天夜间得到确认,一点资讯副总编辑范吉鹏目前代理总编辑工作。而吴晨光本人将以高级顾问的身份继续为一点资讯的发展提供帮助。
今天上午,媒通社(IDmts1000)向吴晨光本人确认了辞任一事。针对该消息,一点资讯方面表示:“这个属于正常的架构调整,我们尊重吴晨光的个人选择。”
吴晨光于20154月出任移动APP一点资讯副总裁兼总编辑,在任期间,一点资讯相继提出“水源计划”“水源生态”和“清朗计划”理念,致力于打造更利于自媒体深度运营的内容生态平台。
201710月,一点资讯获得《互联网新闻信息服务许可证》,成为首家获得新闻牌照的民营资讯客户端企业。吴晨光个人的微信公众号“一点晨光”也曾屡次发布引起业内热议的深度分析文章。由于在一点资讯的成绩,吴晨光被业内誉为“最懂算法的总编辑”。
生于1975年的吴晨光人如其名,温熙、明亮,又有一种大时代演进时特有的清冷感。
20多年的传媒生涯中,他经历了业态变迁中寒冷和春意的交战,参与了新旧更迭时规则与希望的建造,他总是很努力,总是自觉或不自觉地往前沿奔跑。
1992年,热爱运动、喜欢音乐的青年吴晨光考上北京钢铁学院。这个理工科男生不曾想到,自己6年后会进入新闻业,并且一待就是数十载。
从事新闻报道工作后,吴晨光先后在中国劳动报、中央电视台、南方周末、中国新闻周刊、博客天下、搜狐网等媒体工作。近十年来,他担任过几家一线媒体机构的高管。职场几经淬砺,吴晨光于2015年出任一点资讯副总裁、总编辑至今。
从普通记者到资深记者,从传统纸媒到内容分发平台,从连铸助理工程师到高级编辑,横跨了五六个媒体形态。过去,他“超越”传统纸媒和PC门户;如今,他“作别”自媒体之道,再次朝着职业生涯新场景出发。
2017年,媒通社曾对吴晨光做过一次专访,在那次访谈中,除了算法分发与媒体运营,吴晨光还漫谈了自己的兴趣爱好、人生哲学和早期经历。(专访原文可点击“阅读原文”查看)
年过不惑,吴晨光的焦虑与执着
媒通社:你喜欢运动,比如台球和跆拳道,这些兴趣爱好同时似乎也是你的人生哲学和思维方式,从中,你能体悟到哪些力量间接或直接影响到现在的工作?
吴晨光:我有很多爱好,几乎人生的每个阶段,都会专注于其中的一项或几项。当然,这和工作场所有关——我在《中国新闻周刊》上班时,旁边有一家保龄球馆,我开始学习保龄球;在《博客天下》工作时,隔壁有一家箭馆,我就开始学习射箭。
我是属于比较喜欢钻研的那种人。如果我专注于某一个事情,就会想方设法把它做好,而不仅仅是娱乐。在保龄球练习最刻苦的时候,我的右胳膊比左胳膊粗一圈;练射箭的时候,胳膊干脆抬不起来。
各种各样的爱好,给我留下的东西都不一样。但有些基本点是相似的:
首先,你有一个好的身体。工作到最后,很多时候拼的是体力。多种运动会让我保持精力的充沛,抗压能力比较强。生活中更是如此——最起码,一个练过跆拳道的人遇到危险,能跑得比别人快点儿。
但最重要的是,这些爱好和运动让我体会到了“格物穷理”,就是通过对事物的深入分析,了解其中的运行规律——这是悟道的过程。
格物的过程是非常艰难的。当最初接触一项事物的时候,你可能根本搞不清东南西北,就是机械模仿。如果你再不认真、不善于总结,结果永远没进步。
媒通社:从纸媒到门户再到大数据内容分发平台,这种职业演变轨迹是否意味着您热衷于自觉性弄潮,还是被动式地去做一些前沿的工作?
吴晨光:没有人是天生的弄潮儿,从我个人的经历来说,很多时候就是形势所迫。
我的第一份工作是首钢总公司的连铸工程师,因为字写得好,被调到了宣传部。结果不久,正赶上1997年国企下岗减员,我又被宣传部下岗了,需要回到车间,继续炼钢。当然,不是我干得不好,是因为一位老同志没有技术、回不了车间,所以只能让我走。
于是,我就憋足一口气,需要找一份我喜欢的工作。我喜欢写东西,就各种各样考记者。我的专业是钢铁冶金,想当记者,几乎比登天还难,但我的诗词积累救了我——终于,我被《中国劳动报》录取了,从此开始媒体生涯。
之后的很多变动,也是被动的。人为什么要跳槽,很简单,就是在原单位不爽了。具体说,就是名、利、衔满足不了要求,或者未来没有希望。于是就跳槽了。
但在我的成长中,路径确实越来越清晰,对风口的判断也越来越准。如果说第一次换工作是100%的被动,后来就变成了80%70%60%50%。人最终要把握自己的命运、做出主动选择,“弄潮儿向涛头立,手把红旗旗不湿”,是一个努力目标。
媒通社:过了40岁,你会有年代焦虑吗?如果笃定现在自己没有什么可焦虑的,那么你曾经为什么事情而焦虑过吗?
吴晨光:一下子暴露年龄了,我1975年生,42岁。不过说我32岁,肯定也有人信。运动让人年轻。
我现在没有什么特别焦虑的,之前也没有。因为经历的事情比较多了,生离死别都经历过了,没什么了不起了。我最艰难的时候,是2014年的春天,爸爸躺在医院里成了植物人,搜狐改革、裁员的压力我也必须承担。医院——公司、公司——医院,一天又一天。有一天晚上,我望着天上的一只闪亮的风筝许愿:希望这个春天过去的时候,一切都好了。可是夏天到来的时候,爸爸去世了,而我为这场改革也付出了巨大的代价。
但在这段最艰难的时刻,我依然没有焦虑。我坚信:只要人在,一切都在。果然,2015年年初,随着我主编的《搜狐新闻采编》规范的公开,形势发生了根本性的扭转。当我离开搜狐的时候,又公开出版了《超越门户》。
焦虑不是一件好事,它会打乱你的节奏,让你变得不够从容。一个人在焦虑的状态下做事情,会瞻前顾后,失去自我。这就如同在高尔夫球场上挥杆时,越怕球落水或者OB,失误就越可能发生。因为你不从容、不敢做动作,肯定会失误。一位传媒界前辈曾对我说:从容是人生的最高境界,不是云动,不是风动,而是你的心在动。
如果说现在有焦虑,就是觉得自己年龄大了,时间非常紧迫。我不敢再浪费一分一秒,等真的老了的时候,想努力做事情,也力不从心。
媒通社:你敬佩过谁?是否会希望成为某种人?
吴晨光:我就是我,不想成为其他人。但我非常敬仰张小龙。这位“微信之父”,改变了这个时代,改变了我们的生活。但他谦虚低调。过于张扬的人,即使有了成就,也走不远。
吴晨光时代一点资讯的内容净化
自来到一点资讯后,吴晨光的传媒赛道经历了又一次大的转变。在这家以算法技术闻名的公司里,他一直在努力构建内容生态体系,理清内容与技术究竟如何水乳交融。
媒通社:很多人担心人工智能会将多数人赶出新闻资讯编辑部?事实上,机器人写稿和智能分发已经出现在当前的一些互联网平台。那么,内容分发时代“编辑”的角色该如何重新定位?
吴晨光:说这个话的人,其实不了解人工智能。人工智能可以在很多方面替代人的工作,但在内容领域是最难的。一个根本的原因是,内容是有价值观的,人工智能写不出价值观,也分发不出价值观。
从目前的情况看,机器人写稿速度很快,也基本能够过关。但它写的稿子,仅仅限于部分领域的消息、快讯。我们知道,更有价值的稿子,是深度报道——包括调查性报道、解释性报道等等。在这个碎片化、口语化、肤浅化的移动阅读时代,真实的、深度的、优美的文章,其实是最稀缺的、最有价值的,这需要人来完成。
关于分发,人工智能确实极大提升了效率。因为它是以CTR(点击率)作为标准,投其所好,千人千面。但在一些重大事件上,算法是迟钝的,需要人工的判断;而在一些有价值观的内容上,必须要靠编辑的判断。否则,我们就会陷入到一个唯点击率、唯人性弱点的分发模式中去——因为点击率高的内容,往往是娱乐的、八卦的、下三路的内容。
但这并不是说,传统编辑就可以没有危机感地混下去。人工智能正在促使我们转型。因为我们要理解人工智能,把我们的专业能力交给它,这个过程就是“机器学习”。固然,这个工作是算法工程师做的,但在一点资讯,编辑是深入参与这个过程的,要去修订算法里的问题,并找到更多的案例,输入算法模型,让算法更懂人性。
曾有些编辑和我抱怨,说“人少活多”,而且活很杂,又要协调算法、又要协调产品,不如在传统媒体或者门户网站工作时那么聚焦。我说这是好事啊,从微观来说,是对你个人层次的提高——不想当将军的士兵不是好士兵,不想当总编辑的编辑不是好编辑,你现在干的就是总编辑的活儿,还跨界到算法领域了;从宏观来说,这是新媒体时代的要求——我们不是搬砖工,我们是建筑设计师,而且是现代建筑的设计师。
媒通社:人民日报有一篇文章令人印象深刻,其质疑分发算法推送内容单一化,意见相近的声音不断被重复和加强,于是出现了信息茧房和回声室效应。你如何看待这个问题?
吴晨光:算法会带来三个陷阱,这是在去年的一次媒体峰会上,一点资讯董事长刘爽最先提出来的。我在《自媒体之道》手册中,也做了转述。
简而言之,三个陷阱分别是:
1)信息孤岛——用户喜欢什么就推什么,久而久之,信息流都是你喜欢的内容。而其他的重要内容,用户看不到,造成“一叶障目、不见森林”。这就是“信息茧房”效应。
2)标题党文章泛滥——算法的逻辑是,优先推送点击率高的内容。而标题党的点击率肯定更高,所以会被推送的范围越广。
3)口水文章、情绪化文章泛滥。这个逻辑,和标题党文章泛滥是一样的。这就是“回声室”效应。
避免这种情况的出现,一是要做好人工的干预——特别是对稿源的遴选。当然,我所说的遴选稿源,不是让人工去筛选每一篇稿子,因为根本忙不过来;二是让机器学会识别标题党、识别口水文章。编辑要和算法工程师一起,修订判断垃圾内容的模块,然后应用。
媒通社:你多次强调内容审核的重要性,在一点资讯的技术体系里,人工智能目前可以在视频中提取关键词吗?平常你们又是如何对视频内容进行把关的?
吴晨光:图像识别技术,在一点已经有应用,但远远不如对文字的把控。所以,一点的视频审核,必须过人工。
现在的审核,安全仍然是第一位的。这是个底线问题,审核编辑应该有非常好的政治敏感度、对低俗内容的识别力。而且在不同的时间节点,审核的尺度是不一样的。话又说回来,底线是不能破的。
在安全之上,应该是定义内容。简单说,就是给文章、视频打标签,到底属于哪个类型?时政、社会、财经还是娱乐?《战狼》还是《建军大业》?因为这是文章画像的一部分,标签越准越细,分发就越精准,越符合千人千面的要求。
再上一层,就是对内容质量的基本判断。我们把视频内容分为若干级别,审核编辑会给一个初步建议——高级别的文章,会进入首页流、精品池;低级别的文章,只会在频道出现,或者干脆被枪毙。
四年心血凝聚“一点”,吴晨光的自媒体之道
1. 如果回归信息的基本定义,它应该是人们“应知、欲知而未知的东西”。算法能够满足欲知而未知,但无法满足应知而未知。久而久之,一个拥有几千万甚至上亿用户、承担着传播主流价值观的App,就变成一个纯个人消遣的阅读器,媒体“上情下达、下情上传”的功能变得越来越弱,个人与国家、政府、社会之间的鸿沟越来越深。
2. “无善无恶心之本,有善有恶意之动。”冷启动时,不负责任的算法其实调动了人意念中“恶”的一面。所以,要从根本上治理,还是要从水源上下功夫。
3. 平台运营的成功,在于内容生产和内容分发之间的平衡,如果把内容比作水,用户(读者)比作鱼,最佳的平衡应该“有多少鱼,放多少水”。而非一味追求大量的内容涌入,特别是不被用户认可的内容。
4. 好的报道要善于抓住情绪,但绝不能忽视真相。缺了前者,就没了传播;缺了后者,就是无本之木。真实,是新闻的生命。
5. 一个App内的生态平衡,和治国理政是同样的道理。DAU,相当于一个国家的人口数量;用户兴趣,相当于一个国家人民的不同需求。而机构媒体、自媒体数量及发文数相当于GDP,发文的不同形态和领域又相当于政府和市场提供的不同产品和服务—水电煤气、衣食住行、教育大病养老等等。
6. 在新时代,我们要解决人民日益增长的美好生活需要和不平衡不充分的发展之间的矛盾,而在互联网信息流里,就是要建立内容的优质、丰富与分发的公平、精准之间的最佳数据模型。
7. 在我的理解中,数据的背后是用户,大数据其实就是用户行为的反映。鱼缸里生态的好坏,可以靠眼睛判断;但大海里的生态,就要靠环境数据的监测。一个APP里内容生态的好坏,同样要靠数据:一是根据数据判断过往的工作效果;一是根据数据把握未来方向。
8. 我认为,数据的统计、分析可以从三方面进行评估:准不准、细不细、深不深。准不准,就是数据统计的精确度问题。细不细,就是数据统计的颗粒度问题,我们走入了一个千人千面的个性化阅读时代,对数据拆分的维度越多、了解得越细腻,供需的平衡才越容易掌握。深不深,就是对数据的理解力问题,一份优秀数据分析报告应该把这些分析得非常透彻,并能够给出应对的措施,也就是说,数据必须落地!
9. 我觉得新旧媒体的本质区别,是对用户的理解。如何理解用户时,“理解用户最重要的有两点:第一是要弄清楚用户是谁?第二是用户喜欢什么?并根据这个用户画像,按照某一种算法模型去匹配内容,这就是典型的新媒体。”
10. 我心即宇宙,宇宙在我胸。儒家文化的修身齐家治国平天下,是每个有理想的人追求的目标。但是在这几个层次之前,是修心。
(部分语录来自“蓝鲸财经”等媒体对吴晨光的访问)
编辑:高杰

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表