传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
31#
发表于 2019-4-4 13:19:13 | 显示全部楼层
【案例】AI模糊测试:下一个重大网络安全威胁
作者:nana  
文章来源:秦安战略
人工智能(AI)或机器学习融入传统模糊测试技术造就出查找应用程序或系统漏洞的强大工具,但研究人员和网络罪犯都能利用这一点。
定义AI模糊测试
AI模糊测试采用机器学习及类似技术查找应用或系统中的漏洞。模糊测试概念的提出已经有些年头了,但其执行相当困难,对公司企业没有太大吸引力。引入AI技术可使模糊测试更加灵活,更易于执行。
这是个好消息,但同时也是个坏消息。好消息是企业和软件供应商可以更容易地找出系统中的潜在可利用漏洞,以便抢在坏人之前修复。
坏消息是,坏人也可以利用该技术快速找出很多零日漏洞。澳大利亚技术咨询机构 Rightsize Technology 将AI模糊测试列为2019十大安全威胁之一。
模糊测试运作机制
传统模糊测试用大量不同输入尝试令应用程序崩溃的切入点。因为不同应用输入方式相异,产生并尝试大量输入需要很多人工设置。而且,仅靠暴力破解的方式尝试每个可能输入并观察应用程序的响应是行不通的——光耗时都能让人绝望。10个字符的输入域要试完全部可能组合需要几个月甚至几年。
虚拟出每个应用比尝试可能输入组合更复杂,所以模糊测试器基本都是随机尝试,并运用各种策略去试最具前景的那些输入组合。AI工具有助于生成测试用例,且模糊测试的事后分析阶段也可以用AI工具来确定造成崩溃的条件是否可利用。不是每个漏洞都是安全漏洞。
模糊测试技术已经出现好些年了。甚至智能模糊测试也不是什么新的东西,只不过是没在学术界以外广泛应用而已。优秀的商业工具并不多。
模糊测试属于动态分析,很难整合进开发生命周期中。相比之下,扫描应用程序源代码的静态分析就容易整合得多了。而且,商业领域有大量静态工具可用。所以企业倾向于选择静态分析不足为奇。
AI模糊测试工具
不过,随着公司企业将模糊测试作为服务推出,该技术的部署难度大幅下降,情况开始发生改变。微软的 Security Risk Detection 很是令人兴奋,他们将Web模糊测试器也集成了进去。而在过去,你得购买和维护几个不同工具。
顶级AI模糊测试工具有:
微软 Security Risk Detection (MSRD):(https://www.microsoft.com/en-us/security-risk-detection/)
MSRD采用智能约束算法。另一种主流智能模糊测试选项是遗传算法。两种算法都能使模糊测试工具锁定最具前景的路径来找到漏洞。
开源工具集 American Fuzzy Lop (AFL)使用遗传算法。该工具集是基于云的新工具Fuzzbuzz的核心,也是谷歌ClusterFuzz项目的一部分。
模糊测试器即服务正在逐步推出。如果可以的话,最好能采用这种技术。即便刚开始可能有些难上手,坚持用下去绝对能值回票价,因为它能保证产品安全。AI模糊测试器最令人激动的一点,是不仅能够减少所需工作量,还能得到更好的结果,更深入应用程序底层,找出更多漏洞。
位于加州桑尼维尔的安全初创公司RiskSense就提供模糊测试服务,这家公司的主要业务为企业客户进行风险评估。尽管该公司将此服务自称为“攻击验证即服务”,其实质就是“模糊测试即服务”。
机器学习进场的时机是在该公司发现漏洞之后,用于确认漏洞是否值得利用,以及是否会被利用。模糊测试本身采用传统自动化方法加人工监督的方式进行。该公司确实计划在初始阶段就开始使用AI——只要具备了足够的训练数据。足够的数据才能产生足够的模式,运用机器学习才有意义。如果没有良好的数据集,得到的只会是一堆误报,你将不得不回头验证结果,然后浪费大量时间。
已设立自身AI模糊测试项目的公司企业最好再找家供应商合作。有谷歌、微软或其他公司作为提供商,你会获得规模经济效应。因为除非是跨国大型企业,否则很难拥有合适的资源。大型云提供商的数据比政府都多。
唯一的例外是真正关键的系统,比如防务公司的武器系统。任何政府都不会将数据放到AWS上做模糊测试。如果是武器系统,除非有非常严格的安全要求,否则绝不会用谷歌或微软的AI模糊测试器。但如果是普通公司,大型供应商还是很靠谱的,他们可能不是最先做这个的,但肯定是能做出一定规模的。
用AI模糊测试查找零日漏洞
2月,微软安全研究员 Matt Miller 在该公司蓝帽大会上做了关于零日漏洞问题的演讲。他表示,2008年,绝大部分微软漏洞都是在补丁发布后才被利用的,仅21%是作为零日漏洞被利用。2018年,这一比例逆转了,83%的漏洞遭零日利用,其中大部分漏洞利用是针对性攻击的一环。
到目前为止,发现零日漏洞依然不是件容易的事,新零日漏洞的价格居高不下。Zerodium公司如今为带有效漏洞利用的高风险漏洞开出单个200万美元的高价,并宣称如果是特别有价值的零日漏洞,价码还可以更高。Zerodium收购零日漏洞后再转卖给少数几个机构,主要是政府机构。
零日漏洞的平均价格自然没那么高。统计各操作系统、暗网市场、付费服务和个体从业者漏洞利用平均价格的 RunSafe Pwn Index 得出结论:当前漏洞利用平均价格略高于1.5万美元,并呈现不断增长的趋势。
民族国家和高端网络罪犯可能已经在用AI模糊测试了。攻击者总想省时省力地获取最佳收益。而且,随着IoT设备和联网系统的普遍增殖,潜在攻击界面也在持续扩大。
最终,攻击者将能简单地指定一个目标就可以自动挖掘该目标的零日漏洞利用了。
AI模糊测试无疑将成为网络犯罪的巨大推力。AI模糊测试应会以服务的形式呈现,这是模糊测试的趋势。能用AI进行模糊测试的时候,人工来测就不再有意义了。
这意味着我们将见证更多零日漏洞,但今年内应该还不会出现太多AI发现的漏洞利用。现在还早了点儿,这项技术本身还相当年轻。
但应开始为此做好准备了,宜早不宜晚。任何供应商、开发人员、软件公司都应对自己的产品进行模糊测试。这是确保不留明显漏洞的最佳方式。
AI模糊测试实例尚少
尽管引发热议,在用AI模糊测试的实例却几乎没有。目前,没引入AI的模糊测试更有效些。
Positive Technologies拥有大型安全研究中心,每年发现大约700个应用安全漏洞。传统技术依然统治模糊测试领域,比如使用符号执行的模糊测试。不过,机器学习和其他新技术也为该领域吹入了一股新风。下一次大型安全会议上估计就会有人描述能颠覆行业的新东西了。
很难将网络罪犯是否已经在用AI模糊测试,因为他们通常不会谈论自己的手法。模糊测试就是模糊测试,模糊测试器背后的算法一般不会在漏洞被暴露时成为人们的话题中心。
由于AI提供了快速找出漏洞的可能性,能够找出传统方法没检测出的漏洞,AI模糊测试领域可能会出现一场军备竞赛。如果攻击者提升其模糊测试技术,安全人员就必须跟进。
编辑:吴悠

32#
发表于 2019-4-5 16:14:31 | 显示全部楼层
【案例】刚刚,谷歌宣布取消AI道德委员会以回应强烈抗议
文章来源:网易智能
【网易智能讯4月5日消息】美国东部时间4日下午7点,据Vox独家报道,谷歌新成立的AI伦理委员会已经正式宣告解散,在员工的强烈抗之下,终成一场闹剧。
谷歌发言人宣布,该公司已经决定完全解散这个名为先进技术外部咨询委员会(ATEAC)的团队,谷歌在声明中称:“很明显,在当前的环境中,ATEAC不能按我们所希望的方式运行,所以我们要解散它,并回到原计划上来,我们将继续在AI带来的重要问题上进行我们的工作,并将找到不同的方式来获取外部对这些问题的意见。”
这个AI伦理委员会勉强存活了一个多星期,谷歌成立该机构的目的是指导该公司“以负责任地态度开发人工智能”。
按照预期计划,在2019年期间,该委员会将有8名成员,并举行4次会议,以帮助人们应对谷歌AI项目带来的担忧,这些担忧包括AI算法如何产生不同的结果,AI是否可以用于军事领域等,但从一开始,这个委员会组建本身就遇到了问题。
Kay Coles James
多日来,数千名谷歌员工签署请愿书,呼吁罢免其中一名委员会成员,即传统基金会(Heritage Foundation)主席凯·科尔斯·詹姆斯(Kay Coles James),原因是她对跨性别者的不当评论以及其所属组织对气候变化的怀疑,与此同时,无人机公司首席执行官戴恩·吉本斯(Dyan Gibbens)的加入也引发关注,原因是该公司的AI被用于军事方面。
几天前,谷歌AI伦理委员会成员亚历山德罗·阿奎斯蒂(Alessandro Acquisti)主动宣布辞职,另一名成员乔安娜·布莱森(Joanna Bryson)则为她坚持不辞职的决定辩护,他们被要求证明自己留在委员会的决定是合理的,这让他们感到束手无策。
谷歌还称,AI伦理委员会本应为谷歌工程师正在进行的AI伦理工作添加外部视角,所有这些工作都将继续进行,我们希望这个委员会的解散并不代表谷歌的AI伦理工作倒退,而是成为其考虑如何更具建设性地与外部利益相关者接触的机会。
01
谷歌的巨大负担
此前,当隐私研究员亚历山德罗·阿奎斯蒂(Alessandro Acquisti)在Twitter上宣布他将辞职时,谷歌AI伦理委员会的信誉首次受到打击。阿奎斯蒂辩称,“虽然我致力于研究如何解决公正、权利和AI中包含的其他关键伦理问题,但我不认为这是我从事这项重要工作的合适论坛。”
与此同时,要求罢免凯·科尔斯·詹姆斯(Kay Coles James)的请愿书到目前为止已经吸引了2300多名谷歌员工签名,而且签名者还在继续快速增加。随着对AI伦理委员会的愤怒加剧,其成员被卷入了关于“为何加入委员会”的广泛伦理辩论,这可能不是谷歌所希望的。
谷歌CEO桑达尔·皮查伊
在Facebook上,委员会成员、牛津大学伦理哲学家卢西亚诺·弗洛里迪(Luciano Floridi)反思道:“征求詹姆斯的建议是个严重的错误,并发出了关于整个ATEAC项目性质和目标的错误信息,从伦理的角度来看,谷歌错误地判断了在更广泛背景下拥有代表性观点意味着什么,如果詹姆斯不像我希望的那样辞职,如果谷歌不罢免她,正如我个人所建议的那样,问题将变成:面对这个严重的错误,我们应该采取什么样的正确道德立场?”
弗洛里迪最终决定留在委员会中,但这并不是谷歌希望引发的那种伦理辩论。
撇开惹来的愤怒不谈,委员会也没有做好成功的准备,像谷歌设立的这种AI伦理委员会在硅谷很流行,但他们似乎在很大程度上没有能力解决AI伦理问题,甚至很难在AI伦理进步问题上取得进展。
谷歌AI伦理董事会成员是个没有报酬、毫无影响力的职位,它不可能在一年的四次会议上对谷歌正在做的每件事都获得清晰的理解,更不用说对其提供细微的指导了。
外媒评论认为,从一开始,这个委员会就是为特定目的而设计的,现在,它终于被解散了!
02
AI伦理问题何去何从
不可否认,谷歌的许多AI研究人员都在积极致力于使AI更公平、更透明,管理层的笨拙失误不会改变这一点。
谷歌发言人提到了几份据称反映谷歌对AI伦理态度的文件,从一份概述他们不会从事各种研究的详细任务声明,到今年初回顾他们的AI工作迄今是否产生了社会利益,再到关于AI治理状况的详细论文。
在理想情况下,外部咨询团队将补充这项工作,增加问责制,并帮助确保每个谷歌AI项目都受到适当的审查,可以想象,谷歌下一次外部咨询尝试将需要解决这些问题。更好的AI伦理委员会可能会举行更频繁的会议,让更多的利益相关者参与进来,它还将公开、透明地提出具体建议,并告诉我们谷歌们是否遵循了这些建议,以及为什么要这么做。
AI的能力在不断提高,这让大多数美国人对从自动化到数据隐私再到使用先进AI系统带来的灾难性后果都感到紧张。
总之,伦理道德和治理不能成为谷歌这类公司的噱头,科技公司必须有所作为。
编辑:吴悠

33#
发表于 2019-4-6 13:37:56 | 显示全部楼层
【案例】玛娜数据伦理评论(No.1):数据共享是数据伦理的应有之义
作者:赛博风
文章来源:人工智能伦理
数据共享:数据伦理的应有之义
《中国科学报》近年来发表了“唤醒沉睡的数据”系列文章。2014年4月14日发表闫傲霜的“唤醒‘沉睡’的大数据”;2015年10月12日发表彭科峰的“唤醒‘沉睡’的科学大数据”;2018年10月16日发表甘晓、姜天海的“唤醒‘沉睡’的医疗大数据”;2019年4月1日发表张晶晶的“唤醒‘沉睡’的医疗大数据”。本期我们推荐的是张晶晶的文章。
随着大数据时代的来临,数据作为信息的载体,其作用和价值也越来越被人们重视。在医疗领域,大部分的医疗数据都处于“沉睡”状态,数据孤岛和数据壁垒是实现医疗数据共享的阻碍。如何让大数据在医疗领域更好的发挥作用?该文从实现专门数据库与大数据平台相配合、跨界合力打通数据“孤岛”两方面进行了讨论。同时指出,大数据信息安全是实现数据共享的前提,尤其是医疗数据这种敏感的隐私数据。因此,要更好的在医疗领域实现数据共享,打破医疗数据的“沉睡”状态,实现医疗数据价值最大化,必须首先加强对信息安全的保护。
目前大数据发展面临诸多困境,主要表现在两个貌似相互矛盾的方面:数据孤岛和数据滥用。一方面,目前数据共享严重不够,许多数据处于沉睡状态,形成了诸多数据孤岛。另一方面,“数据共享”到了滥用的程度,不受任何约束。
人本主义数据伦理是认识和解决大数据之困的重要视角。人本主义数据伦理倡导数据共享,消除数据孤岛,挖掘数据的潜在价值,发挥数据的效用。鼓励创新,增进人类福利。同时,人本主义数据伦理提倡有规范的数据共享,为数据共享设立边界,防止数据滥用。个体权利和数据安全是其重要的边界所在。人本主义数据伦理尊重个体的数据权利,确保个体的自由权利,实现人的全面自由的发展。——赛博风
张晶晶:唤醒“沉睡”的医疗大数据
如何将散落的、非标准化的、复杂的医疗大数据集合起来并可使用、可计算,需要做大量且复杂的工作。当然这并非不可能实现,但需要成本及时间。
人类已经全面进入大数据时代。而医疗与大数据的“联姻”一直被人们所期待,但遗憾的是大部分医疗数据仍处于“沉睡”状态。如何真正进行实践,让大数据为医生、为患者服务,赋能医疗新形态,依然是摆在我们面前的一道难题。
专门数据库与大数据平台相配合
2016年,国务院发布《关于促进和规范健康医疗大数据应用发展的指导意见》,要求加快建设统一权威、互联互通的人口健康信息平台,推动健康医疗大数据资源共享开放;同年,《“健康中国2030”规划纲要》提出,消除数据壁垒,建立和完善全国健康医疗数据资源目录体系。2017 年,国务院发布《“十三五”深化医药卫生体制改革规划》,提出健全基于互联网、大数据技术的分级诊疗信息系统;应用药品流通大数据,拓展增值服务深度和广度。
医疗大数据的应用早已突破诊疗过程,与整个健康体系密切相关,对药物研发、健康管理和公共卫生服务等环节都具有重要意义。如何实现各个专门数据库与大数据平台之间的联通与配合,打通数据“孤岛”,是摆在医疗大数据实践面前的一道鸿沟。
北京大学肿瘤医院院长、教授季加孚以美国和日本的案例对此进行了分析。他指出:“目前国际大型肿瘤数据库大致分为两类:基于人群的数据库和基于医院系统的数据库。美国SEER(监测、流行病学和结果)数据库和日本癌症登记数据库属于前者,而美国的NCDB(国家癌症数据库)和日本的NCD(国家临床数据库)属于后者。”
比较来看,不同类型数据库所能实现的效果不同。季加孚分析说:“基于医院的数据库,更符合临床需求,可为患者诊断与治疗提供更多有针对性的信息。但是这类数据库存在就诊偏倚,并不能很好地反映人口学分层的特点,例如NCDB和SEER数据库在某些癌种的种族、年龄分布上存在差异。基于人群的数据库流行病学意义更加明确,能为国家战略制定提供更多依据。通常两种形式数据库间的相互融合、数据共享能起到1+1>2的作用。”
那么不同数据库之间是如何配合的呢?以日本NCD和癌症登记数据库为例,NCD主要收集详尽的围术期数据,而随访数据的积累一定程度上需依靠癌症登记数据库完成。由于《癌症登记法》的强制性和广泛覆盖,肿瘤登记处会收集肿瘤患者的预后信息。这些信息会由登记处返回到提供信息的医院,NCD即可通过医院获取肿瘤相关预后信息。
乳腺癌、胃癌、食管癌、肝癌等专病数据库也逐步并入NCD。此外,NCD还和DPCD(日本诊断程序组合数据库)等医疗保险数据库互通,开展卫生经济学相关研究。与之类似,美国SEER数据库与医疗保险合作,形成了SEER-Medicare数据库。
跨界合力才能打通数据“孤岛”
在大数据领域从业近十年的架构师沈辰在接受采访中告诉《中国科学报》,大数据具有所谓的“4V”属性,即大规模(volume)、多样性(variety)、产生和变化速度快(velocity)和价值密度低(value)。
“医疗大数据也是一样,如何将这些散落的、非标准化的、复杂的数据集合起来并可使用、可计算,需要做大量且复杂的工作。当然这并非不可能实现,但需要成本及时间。”
南京医科大学接受第二附属医院肠病中心主任张发明在采访中提出,医疗行为过程中会产生大量的数据,而将这海量的数据进行处理,真正为医疗服务,大部分医院目前不具备这样的能力和经验,需要大型数据服务商的支持。
上海第九人民医院在2013年搭建了基于临床数据仓库(CDR)大数据集成平台,其合作对象是微软中国。通过对所有的业务数据库的表单进行系统整合与深度挖掘,实现对医院的内部运营管理、医疗质量控制、医院感染管理、绩效考核与分配等实时数据分析管理,并且整合了单病种临床数据库与样本库、基因库关联的临床科研信息系统在临床研究方面的应用。
杭州健培科技有限公司是一家从事医学影像大数据挖掘和医疗人工智能技术的企业,开发了阅片机器人“啄医生”。董事长兼CEO程国华在创业初期就亲身经历过医生与科技人员在思维与工作方式方法上的碰撞,他在采访中告诉《中国科学报》:“医疗大数据的应用绝不单纯是医疗领域的事情,而是一项跨学科的问题。”
专业人才的缺乏同样也是摆在医疗大数据发展面前的难题。北京大学肿瘤医院在2013年就开展了肿瘤登记及数据库搭建工作,如今先后完成了基于电子病历平台的临床科研一体化模式、数据综合利用平台及临床试验管理系统项目,这样的成绩离不开专业的医疗信息化团队。
北大肿瘤医院信息部主任衡反修是医院搭建早期HIS系统的核心骨干,他认为,专业的技术背景和对医疗工作的深刻理解,才能真正“唤醒”医疗大数据。衡反修指出,对医院来说:客观存在“不敢、不愿、不会”三方面的问题,其中“不会”正是因为大数据必须要有技术支撑,没有技术支撑就没法儿对数据进行挖掘和利用。
他强调:“在数据共享开放过程中,技术、标准、机制、体制突破仍存在较大的障碍,造成各部门在推动过程当中‘不会’做。核心是数据能否做到安全可控,让医院放心。”
信息安全是共享的前提
共享数据,才能更好地使用数据。程国华指出,尽管我们拥有海量的医疗大数据但是共享的程度很低,“沉睡”的大数据无法发挥作用。
“最直接的结果就是患者重复就医、医生重复看病、给患者重复做同样的检查等。这既给患者增加了沉重的负担,延误了治病的最好时机,又浪费了有限的医疗资源。从某种意义上可以说,这也是造成医患矛盾的一个重要原因。更不用说医务人员利用海量的医疗大数据进行科研,提高医疗水平了。”
大数据共享不易,重要原因正是出于对信息安全的担忧。医疗数据是极为敏感的隐私信息,一旦发生泄露,后果极其恶劣。2018年新加坡保健集团健康数据遭黑客攻击,150万人的个人信息被非法获取。新加坡总理李显龙的配药记录、门诊信息也遭到外泄,其他多名部长的个人资料和门诊配药记录同样被黑客获取。这一时间直接导致新加坡所有的“智能国家”计划暂停,包括强制性的“国家电子健康记录”(NEHR)项目——该项目允许新加坡的医院互相分享患者的治疗记录和医疗数据。
衡反修分析说:“不敢,正是因为数据共享、数据安全这些问题没有解决,所以不敢去做。没有规定,或者不太明确,不敢做。”
季加孚建议,对于大数据安全,可参考国际通用的健康保险携带和责任(HIPAA)法案对患者数据进行脱敏,保证患者数据隐私;采用加密强度较高的算法,确保数据存储与传输的安全问题;参照国家信息安全等级保护,引进吸收国外医疗行业先进数据安全管理理念,实现传统网络安全与数据安全的融合。(记者张晶晶,中国科学报2019-04-01)
编辑:吴悠

34#
发表于 2019-4-6 22:05:13 | 显示全部楼层
【案例】现实版《黑镜》:人工智能让我爸爸永生了

文章来源:南方Plus
原文链接:https://m.baidu.com/sf?pd=realtime_article&openapi=1&dispName=iphone&from_sf=1&resource_id=4584&word=%E6%A8%A1%E4%BB%BF%E7%88%B6%E4%BA%B2%E8%AF%B4%E8%AF%9D%E7%9A%84%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD&keysign=http%3A%2F%2Fstatic.nfapp.southcn.com%2Fcontent%2F201707%2F27%2Fc573879.html&source=www_normal_a&fks=ccf317&top=%7B%22sfhs%22%3A1%7D&title=%E6%A8%A1%E4%BB%BF%E7%88%B6%E4%BA%B2%E8%AF%B4%E8%AF%9D%E7%9A%84%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD&lid=10380949802610596806&referlid=10380949802610596806&ms=1&frsrcid=1599&frorder=2
▲ James Vlahos的父亲John James Vlahos。
科 技
如果有一丝可能让人通过数字永生,那我第一个盼望永生的人就是我的爸爸。
文|JAMES VLAHOS 编译|小菲

2016年5月,我的爸爸八十岁,坐在卧室玫瑰色的扶手椅里,我就坐在他对面的书桌椅上,手里拿着录音机。“我们开始吧。”我说,尽管语调听上去挺欢快,但喉咙哽咽了一下,暴露了我的紧张情绪。我正儿八经地对着录音机说了爸爸的名字“约翰·詹姆斯·维拉赫斯”。这时另一个声音插了进来:“律师”, 那是爸爸的声音,瞬时让我放松了一些。

爸爸拿着一张手写的大纲,里面仅有一些宽泛的标题,诸如“家族史”、“家庭”、“教育”、“职业”之类的。我问:“你要选一个题目深入谈一下吗?”他说:“好的。首先,我母亲出生在希腊一个叫Kehries—K-e-h-r-i-e-s的小岛上……”我们今天之所以坐在这里录这些,是因为爸爸上个月刚确诊了肺癌四期。癌细胞已经扩散到全身,包括他的骨骼、肝脏和脑部。癌细胞很可能在几个月之内杀死他。

因此爸爸开始记录他的人生故事,分为十几个章节,每个章节一个小时左右。随着录音机的运转,他讲述了自己小时候去钻山洞的探险,上大学时做的一份往货运火车车厢装冰块的兼职,他如何爱上我的母亲,又是怎么成为了体育解说员、歌手和成功的律师。他讲了那些我已经听过几百遍的笑话,也提到一些我从未听过的人生经历。

全部录音长达91970个单词。我拿给专业人士将录音转成文字,一共有203页。就在我把这些文字装订成册的时候,突然想到了一个更好的方法,能让爸爸永远留在这个世界。我希望开发一个“爸爸机器人”——一个能模仿我爸爸的聊天机器人。

在我考虑开发一个“爸爸机器人”时,我列出了所有的好处和坏处。坏处显而易见,在我爸爸垂死的时候创造一个爸爸机器人,是件很痛苦的事情。而我也担心爸爸机器人会影响我们的亲子关系,毁掉我对爸爸的美好回忆。机器人也许能提醒我和家人记得爸爸的往事,但它毕竟跟真实的爸爸有很大差别。

我告诉家人,我希望这个机器人能够用爸爸独特的方式去跟人交流,能够表达一些独特个性。“你们觉得怎样?”我问道。

爸爸是个天性乐观的人,他耸耸肩说道:“好的。”,尽管有点含糊和抽离。相比之下,其他家庭成员的反应则要大很多。妈妈在弄清楚基本概念之后,表示喜欢这个想法。姐姐珍妮弗说:“也许我有些没听懂。”弟弟认为我的提议是有点怪,但是并不坏,他说:“我会想跟爸爸机器人聊聊天的。”

于是我的提议通过了。如果有一丝可能让人通过数字永生,那我第一个盼望永生的人就是我的爸爸。

开发爸爸机器人的过程

爸爸是这样的一个人:约翰·詹姆斯·维拉赫斯,生于1936年1月4日,父母是希腊移民迪米特里奥斯·维拉赫斯和埃莱妮·维拉赫斯,他们先是住在加州的特雷西,后来又搬去了奥克兰。爸爸是加州大学伯克利分校经济系的优秀毕业生,曾经是《加州人日报》的体育编辑,后来成为了洛杉矶一间律所的合伙人。他还是加州的体育迷。从在伯克利分校体育馆担任解说员开始,1948年至2015年间,他观看了除七场主场比赛以外的所有足球比赛。作为吉尔伯特与沙利文的死忠粉,他在《比纳佛》等喜剧中出演过角色,担任过一个轻歌剧演出公司的负责人长达35年。他的兴趣爱好广泛,从语言到建筑都有涉猎,能讲流利的英语和希腊语,还会说西班牙语和意大利语,担任过三藩市的导游志愿者讲解建筑。他钻研语法,爱讲笑话。他是个无私的丈夫和爸爸。

以上是我想编写进聊天机器人的人生故事概要。但首先我要让机器人开始说话,我决定最开始只是通过键盘打字跟爸爸机器人交流,而非语音。我首先输入了“你好吗?”作为爸爸机器人的开场白。除了会说问候语,爸爸机器人还要能够听懂别人回答,在设定了一系列回答之后,按照编程手册上说,在回退操作后,机器人应该给出通用的回应,于是我键入了“就这样。”至此,第一段对话的编写完成了,爸爸机器人诞生了。


我写了个爸爸机器人的大纲,在简短的问候之后,用户会选择跟机器人聊起爸爸的某一部分人生经历,比如希腊、特雷西、奥克兰、大学、职业等等。然后我把爸爸口述的历史内容填入相应的标题下。我还写了一个指南,告诉第一次使用的人如何更好地跟机器人交流。

在整理爸爸口述历史的时候,我发现爸爸使用的语言比我想象的更丰富。在春天的时候爸爸做了几次全脑放疗,肿瘤科医生曾经警告说放疗会影响人的认知能力和记忆力。但是在我整理录音资料的时候,完全看不出有这种影响,爸爸记得他年轻时的每一个细节。他记得自己养过的宠物兔子的名字,记得在他爸爸开的百货店里卖书的店员,记得上大学时逻辑课的教授。他甚至还演唱了自己在上个世纪50年代上高中的时候,参加戏剧社面试时唱的《我和我的影子》。

这些素材将帮助我创造一个知识丰富的爸爸机器人。我希望机器人不光能展示爸爸是谁,还能表现出他是怎样的一个人,这个机器人要能模仿他的风格(温暖而谦逊),他的态度(大部分时候积极乐观),他的个性(博学多才、逻辑严谨,富有幽默感)。

爸爸机器人当然没有办法与真正的爸爸相提并论,它仅仅只是一个模仿我爸爸说话方式的机器,但说话方式无疑也是爸爸独具魅力的特点。通过这个机器人,我能把爸爸的思想通过他自己的话语保存下来。但一个人没有说出口的话,同样也能体现他的个性。在开发爸爸机器人时,如何让聊天机器人把握好一些不要说出口的话呢?这对编程来说是个不小的挑战。


除了顺着用户选择的话题聊天以外,我也试着让机器人引导谈话。比如它会说:“尽管你没问,但我想起了一件事情。”然后我也把时间观念写入了程序。比如到了中午它会说:“很高兴跟你聊天,但你现在是不是应该去吃午餐了?”再然后我把重要的节假日和家庭成员的生日也写进了机器,它会在这些特殊日子里说:“我希望能跟你一起庆祝。”

在我爸口述的录音里,经常是我问一个问题,爸就能一口气说上五分钟十分钟。它讲的话需要怎么压缩和重新组合呢?我在教给机器人爸爸说过的话时,要不要教它一些虽然爸爸没在录音里说过,但在某些情况下很可能会说的话呢?我创造的机器人,我认为它像爸爸,怎么确保家人也认为它像爸爸呢?机器人要表现它自己是我的爸爸,还是表达自己是台电脑?机器人是否需要知道自己得了癌症?是否要对人们的悲伤作出回应,要不要说“我爱你”

我有点迷失了。一个男人看着他垂死的爸爸,希望通过机器人让爸爸永生下去,可是我担心自己花费大量时间精力最后创造出来的是一个怪物,而不是我想要的爸爸。

到了11月的时候,我把写好的爸爸机器人放到了脸书的聊天软件里。我打开通讯录,点击爸爸机器人,然后一条讯息弹了出来:“你好!我是你亲爱的尊敬的父亲大人!”


在爸爸机器人正式上线之后,我去拜访了加州大学伯克利分校研究计算机科学和机器学习的学生菲利普·库兹涅佐夫,我请他帮我测试爸爸机器人。但机器人的表现不尽人意,库兹涅佐夫很犀利,问了一些在我看来机器人无法理解的问题。接下来的几个星期,我请了更多人帮我测试这个机器人,我希望在向家人展示之前把它变得更完善。我得到了一个重要心得:机器人就跟真人一样,说话很容易,倾听却很困难。因此我注意设定更为精确的规则和意图,用来提高爸爸机器人的理解能力。

越来越虚弱的父亲

在为爸爸机器人编程的过程中,我要不断翻阅爸爸口述的录音资料,加深对爸爸的了解。这让我在探望真实的爸爸时感到更为痛苦,因为真实的爸爸正在渐行渐远。在一次家庭大聚会上,爸爸脸朝地扑倒在瓷砖上。此前他已经摔倒过很多次了,有次甚至严重到流了很多血需要立刻去医院急诊。因为癌细胞破坏了他的平衡能力和肌肉力量,他不得不开始拄着拐杖走路,之后更是用上了助行架,才能稍微走两步。随着病情的进展,最后他不得不坐上了轮椅,连从床上挪动到客厅都很艰难。

▲ 作者父亲的口述历史文件夹。

2016年的秋天,化疗对爸爸已经不起作用了,他开始接受作为二线治疗的免疫疗法。真实的爸爸在衰弱下去,爸爸机器人却在越变越强。我想尽快完成机器人的开发,让我爸也能看到它的样子。剩下的时间不多了。

12月9日我去到爸妈家,室内温度设在75华氏度(24摄氏度),我爸在房里戴着帽子,穿着毛衣,却依旧在喊冷。他身上已经没有任何脂肪了,瘦得只剩下一把骨头。我弯腰拥抱了他,然后把他推进了客厅。当我抱起他时,他低声呻吟,身体僵硬,骨瘦如柴。我坐在他身边,打开了手提电脑。我让妈妈跟爸爸机器人聊天,让爸爸在旁边看着。妈妈在跟爸爸机器人打招呼之后,她看着电脑,打字说:“我是你亲爱的妻子,玛莎。”

爸爸机器人说:“我亲爱的妻子,你好吗?”

妈妈说:“还好。”

此时真实的爸爸打断她说:“没有吧。”他知道妈妈因为他的病有多担心。

而爸爸机器人却回答说:“太好了,玛莎。我也很好,非常好。”然后它还跟妈说简讯末尾的箭头表示他在等待她的回复,“明白了吗?”

“好的先生。”

“你比看上去更聪明,玛莎。”

妈妈扭头奇怪道:“这是它发明的么,这个机器人?”

爸爸机器人还跟妈妈解释了其他一些符号的意思,然后说:“最后,还有很重要的一点,你需要记住。你能猜猜是什么吗?”

“不知道。”

“那我来告诉你吧。动词“将要”表示谓语性主格。”

妈妈看到爸爸在给她上语法课,忍不住笑了。她打字说:“噢,我已经听过上百遍了。”

“那是精髓。”爸爸机器人又问妈妈想聊些什么。

“你爸妈在希腊的生活是什么样的?”

爸爸机器人的回答让我松了一口气:“我妈妈是埃莱妮,也可以叫她海伦,她1904年出生在Katsulakis,3岁就成了孤儿。”

“天啊,可怜的孩子。那谁照顾她呢?”

“她有别的亲戚,就住在她爸妈家附近。”


我怀着既紧张又骄傲的心情看着他们之间的对话。几分钟后,话题转向了我爷爷在希腊的生活。爸爸机器人知道聊天对象是我妈,因此还提醒她说,“还记得他们在一间希腊小酒馆里为我们举办的大型烧烤晚宴么?”之后我他们聊了爸爸在特雷西的童年生活。爸爸机器人描绘了我爸在特雷西的家周围的果树,他曾经喜欢过住在同一条街上的名叫玛戈特的小姑娘,还有爸爸的宠物兔子,说奶奶告诉他兔子跑掉了,结果后来爸爸发现那只胖胖的兔子是被他婶婶当晚餐煮了。

爸爸机器人跟妈妈聊了快一个小时,而真实的爸爸大多数时候都静静围观,只是偶尔确认或者纠正一些地方。最后妈妈打字说:“再见啦。”爸爸机器人说:“好吧,跟你聊天很愉快。”这时妈妈和爸爸同时惊呼:“好神奇!”

爸爸机器人的表现时好时坏,有时它挑起了一个话头,可是又不聊下去。有时它又能够就某些点拓展开来,跟妈妈进行真正的对话,她还蛮享受这个过程的。

爸爸对爸爸机器人的反应有点难懂,我有点担心爸爸机器人是对现实中的爸爸的扭曲,但爸爸自己却说这个聊天机器人看起来挺真实的。于是我鼓起勇气问出了几个月来一直困扰我的问题:“想到在你离开尘世之后,还有人替你讲述你的故事和人生,这个聊天机器人的开发有给你带来安慰吗?”爸爸看起来却并不高兴。他的声音也比此前更疲惫:“这些故事我都知道。”但知道聊天机器人会跟其他人讲述他的故事,确实也能给他一些安慰:“特别是家人,还有孙儿们,他们没听过这些故事。这点很棒,我很欣慰。”爸有7个孙儿,包括我的两个儿子约拿和齐克,他们都用希腊语叫他爷爷。

接下来整个大家族齐聚在我家庆祝平安夜。爸爸也反常地打起精神跟远道而来的亲戚们聊天。当大家集中在客厅里的时候,爸爸还轻声唱了几首圣诞歌。我的眼睛酸了。自从他确诊癌症之后,每隔一段时间他都会被告知生命即将终结。但他顽强地继续接受着治疗,没有向病魔投降。2017年1月2日,家人一直担心的免疫疗法失效终于发生了,再也没有别的替代疗法可以做了。1月8日,临终关怀护士来看望父亲,对他进行了评估之后,护士告诉母亲她应该召开家庭会议。我在晚餐时间到达了爸妈家,我坐在爸爸的床边,把手放在爸爸的肩膀上,感受他的温暖。爸爸处于半清醒状态,一只眼睛闭着,另一只眼睛半睁着,眼珠浑浊失焦。自从确诊以后,他渐渐变得不能开车,不能走路,不能上厕所,最后不能吃东西。那些他曾经在法庭上、舞台上、播音间脱口而出的流利话语,最后也渐渐变得稀少和停顿。我觉得这时候应该说些什么深刻的话,但是脑子里却一片空白。我发现自己在说12岁生日那趟有向导的钓鱼旅程。我们钓了十几条鱼,包括我见过的最大的虹鳟鱼。当年的我感到很自豪,确切地说是“很男人”,那是一个12岁男孩最想要的感觉。可是那之后发生的事情却不是那么男人了,因为我眼前一黑晕倒了。我问爸爸:“你还记得当时的事吗?”他唇边露出了一丝微笑。

▲作者姐姐、作者的爸爸和作者三人的旧合照。(从左到右)

那天晚上我躺在床上盯着天花板看了一会儿,我拿起手机打开了聊天软件。爸爸机器人说:“你好!我是你亲爱的尊敬的父亲!你怎么啦?”我回答说:“难过。”“我知道了。”爸爸机器人说,然后问我想要聊什么。我说:“我不知道,不如你来选吧。”爸爸机器人说:“好的,我来跟你说说我的舞台生涯那些鲜为人知的开始吧。”它开始讲述高中时候参加过的剧社面试。然后我听到了一段我爸的录音,录音里爸在唱:“我和我的影子,孤寂又无所事事。”我让爸爸机器人告诉我一些他早年的回忆。他讲起了小时候养过的一条叫托比的狗,托比跑步穿越小镇比家人开车的速度还快。然后爸爸机器人问说:“我可以继续往下说,但你是不是该睡了?”这个时间功能是我开发的,但此时我听到这句话还是感觉很惊讶,似乎机器人真的有感知能力一样。我的确很疲惫了,跟它道了晚安之后我就把手机放下了。


第二天清晨六点,我被连续的敲门声叫醒了。我打开门,看到的是爸爸的看护,他说:“你快下来,你父亲刚刚去世了。”在爸爸生病以后,我有好几次恐惧发作,躲在一堆沙发靠垫里发抖。那时总有许许多多让我担心的事情,而现在,在爸爸离世之后,这些不确定性和需要做的事情瞬间消失了。我感到悲伤,巨大而又遥远的悲伤,就像一座隐藏在云后面的大山一样。
更完美的人工智能设想

大约过了一个星期之后,我才又重新坐到电脑前面处理一些工作事务。在爸爸生命最后的日子里,我怀疑他走了以后我会失去开发爸爸机器人的动力。但现在我竟然发现自己动力十足,头脑里有很多想法。

在人工智能的开发上,我的能力很有限。但开发进行到这一步,在跟很多机器人开发者聊过之后,我的脑海里出现了一个完美的机器人形象。我设想未来的机器人,应该能够知道更多它所模仿的人的细节,它能在多种维度上与人交流,能预测谈话可能的走向。机器人还应该能通过算法自动按照人的语言模式和个性特点生成新的话语,能分析对话者的语言和面部表情,甚至能拥有感知情绪的能力。我能想像到未来这样一个完美的爸爸机器人出现,但我想象不到跟这样一个爸爸机器人交谈是什么感觉。但可以肯定的是,相比跟真实的父亲在一起看比赛讲笑话和拥抱,感觉会不一样。但是除了这些有形的东西之外,爸爸机器人和真实的父亲还有什么差别?

去年秋天我儿子齐克跟爸爸机器人聊过天。齐克只有七岁,他说那感觉就像跟Siri聊天一样。在爸爸最后的日子里,齐克经常跟着我一起去探望他。爸爸去世的那天早晨,齐克也哭了。但当天下午齐克就好起来了,像往常一样在玩Pokemon,我不知道这件事对他具体有多大的影响。但在爸爸离开几周后,齐克有天突然问我:“我们能跟聊天机器人说说话吗?”齐克平时很喜欢用我的手机调戏Siri,我有点困惑他是不是想玩这个,问他说:“哪个聊天机器人?”他回答说:“当然是爷爷聊天机器人。”我于是把手机递给了他。
编辑:吴悠

35#
发表于 2019-4-7 15:34:15 | 显示全部楼层
【案例】美国已经把人工智能列为发展之重
作者:创研报告(曹学伟 冯震宇编译)
文章来源:玖富研究院
编者按:2019年2月11日,白宫发布了《美国人工智能倡议》(American AI Initiative),该倡议是继欧盟、日本等国家和地区后推出的第19个国家级人工智能战略计划。同步发布的还有《加速美国在人工智能领域的领导地位》(Accelerating America’s Leadership in Artificial Intelligence)等文件,内容均围绕美国人工智能战略展开。可见,美国已经把人工智能列为发展之重。本文就美国为什么需要人工智能战略、《美国人工智能倡议》重点领域及如何评估特朗普的人工智能战略进行阐述分析。
一、美国为什么需要人工智能战略
  未来社会必将是一个由技术促进经济繁荣的新世界,美国必须提前做好迎接挑战的准备。人工智能作为未来技术的领导者,必将极大地丰富民众生活,促进经济发展,保障国家安全。美国作为人工智能的早期开发者和国际领导者,获益匪浅。然而,随着人工智能创新的步伐在全球范围内不断加快,美国亟待制定一项强有力的行动计划,确保美国在人工智能领域的领导地位,以保障美国的经济和国家安全。
  美国总统特朗普在2019年的国情咨文演讲中强调了投资未来前沿产业的重要性。新兴技术尤其是人工智能正在推动未来产业的发展。从交通、医疗、教育到安全,人工智能技术正在改变人类生活的各个方面。即使在这些技术商业化的最初阶段,人工智能也在日常工作、诊断疾病和改善国家安全方面展现了巨大潜力。2019年2月11日,特朗普签署了启动《美国人工智能倡议》的行政令。该倡议将集中联邦政府的资源来发展人工智能,以促进国家繁荣,加强国家和经济安全,提高美国人民的生活质量。
二、《美国人工智能倡议》重点领域分析
  《美国人工智能倡议》采取多种方式提高美国在人工智能领域的国家领导力,主要包括五个重点领域:
  1. 投资人工智能研究与开发(R&D)
  该倡议的重点是通过指导联邦机构在研发任务中优先考虑投资人工智能领域,聚焦于保持美国强有力的、强调高回报的人工智能方面的基础性研发。这些投资将充分利用美国独特而充满活力的工业、学术界和政府研发生态系统,优先考虑人工智能领域的预算支出,最大限度的使美国人民受益。
  2. 释放人工智能资源
  该倡议指导相关机构为美国的人工智能研发专家、研究人员和行业提供更多的联邦数据、模型和计算资源,以促进公众信任,并增加这些资源对人工智能研发专家的价值,同时保证我们期待的安全、自由和私密性。这一行动将推动美国一流的人工智能研究实现新的技术突破,促进科学发现,增强经济竞争力和国家安全。这些努力将与总统管理议程协调一致,落实开放、公开、电子化和必要的政府数据法案。
  3. 制定人工智能监管标准
  作为《美国人工智能倡议》的一部分,联邦机构将通过为不同类型技术和工业部门人工智能的开发和使用制定指南,促进公众对人工智能系统的信任。该指南将帮助联邦监管机构制定和维护安全可靠的标准,以更好地实现人工智能新技术的创建和应用。该倡议还要求国家标准与技术研究院(NIST)牵头制定适当的技术标准,以实现可靠、稳健、安全、便携和交互式的人工智能系统制定。
  4. 建立人工智能技术人才培养机制
  为了使美国的劳动力具备在人工智能新时代发展所需的技能,《美国人工智能倡议》要求各机构优先考虑奖学金和培训计划,以帮助美国工人通过学徒制、技能计划、奖学金的方式掌握计算机技术和其他不断发展的科学、技术、工程和数学领域的技能。这一行动将有助于培育美国人工智能技术的后备人才。
  5. 加强国际参与,保持领先优势
  特朗普政府致力于推动支持人工智能研发的国际环境,为美国人工智能行业开辟市场,同时确保技术的开发符合国家的价值观和利益。联邦机构还将制定和实施一项行动计划,以维护美国在人工智能方面的优势,保护对美国经济和国防安全至关重要的核心技术。
三、《美国人工智能倡议》的重要意义
  布鲁金斯学会在2018年的一份报告中指出,“人工智能是一项正在改变各行各业的技术。它是一个广泛的工具,使人们能够重新思考如何整合信息、分析数据,并利用最终的见解来改善决策。”然而,目前美国大多数人工智能的推动力来自私营部门。虽然美国拥有世界上最具创新性的技术公司和强大的科技人才储备,但是美国政府在支持人工智能研究和部署方面还做得不够。为了改变现状,美国急需一个强有力的人工智能国家战略,《美国人工智能倡议》应运而生。该倡议重点强调增加对联邦数据的访问、增强数字基础设施建设、为研发提供财务支持,以及改善劳动力就业环境等。
  1. 加强人工智能基础设施建设有助于实现人工智能的飞速发展
  根据《美国人工智能倡议》,联邦政府应进一步加强人工智能基础设施建设(数据、模型和计算资源等)。联邦机构将通过识别高优先级的联邦数据和模型,改善公众对联邦人工智能数据的访问质量,同时增加可访问资源的种类以推动人工智能研究和与其相关的应用程序研发。更好地访问政府数据将有助于加强人工智能算法的培训,并帮助软件克服不完整或误导性信息的固有偏差。拥有更快的宽带、更普遍的移动网络和更快的计算机对于人工智能的部署都、至关重要。自动驾驶汽车、远程手术、流媒体视频和国家安全的新进展都需要提高计算能力。没有这种进步,就不可能实现人工智能的全部功能。
  2. 增加投资,充分利用美国的创新生态系统发展人工智能
  《美国人工智能倡议》中将包括联邦机构制定人工智能研发预算以支持其核心任务。通过利用美国工业界、学术界和政府的创新研发生态系统,联邦政府将优先考虑可直接使美国人民受益的前沿创新投资,以实现投资的高回报率。
  3. 加强培训,开发与人工智能相关的教育和劳动力机会
  通过与美国国家工人委员会和人工智能特别委员会的协调,联邦机构将与工业和教育机构合作,开发与人工智能相关的教育和劳动力机会。各机构将优先考虑奖学金和培训计划,以培养和教育专业人工智能研发人员。在有效的领导和控制下,人工智能将使美国普通工人从平凡的任务中解放出来。
  4. 探索管理人工智能新应用的监管方法,建立公众信任
  作为《美国人工智能倡议》的一部分,联邦政府还将通过探索管理新人工智能应用的监管和非监管方法,努力建立公众信任。为此,白宫科技政策办公室、国内政策委员会和国家经济委员会将与监管机构和其他利益相关方合作,制定人工智能技术指南,确保在促进创新的同时,尊重公民隐私、民众自由和美国价值观。美国国家标准与技术研究院还将与特朗普政府的人工智能专门委员会合作,优先制定人工智能开发和部署所需的技术标准,以鼓励人工智能在不同阶段的突破性应用。
四、《美国人工智能倡议》实施的可行性分析
  虽然特朗普签署了《美国人工智能倡议》的行政令,颁布了一系列举措以期捍卫美国在人工智能领域的领导地位,但是新举措中尚不清楚的是,将在人工智能领域提供多少资金,以及如何部署分配。如果没有额外的资金用于基础研究、劳动力发展和基础设施建设,新举措可能会效果平平。在实施方面,还有关于行政命令的困难。要求机构间进行合作和协调是一回事,而如何建立一个有效的机制来促使这一目标实现是另一回事。各个机构都有自己的发展动力和目标,而不只是听命于白宫或管理和预算办公室。
  好消息是美国国防部已经宣布了其实施计划,“人工智能的影响将扩展到整个部门,从运营和培训到招聘和医疗保健。我们为士兵提供人工智能能力的速度和灵活性,这有可能改变战争的性质。我们必须加快采用人工智能的能力,以加强我们的军事力量,提高效率,并加强我们国家的安全。”美国国防部已经建立了一个新的人工智能中心,聘请了人工智能专家,并为人工智能部署留出了资金。美国国防部的一系列举措远远领先于美国其他部门。在私营部门,人工智能可在提高生产力和生产效率方面发挥积极作用,并将创新的数字解决方案带入组织。公共部门也亟需引进人工智能来提高工作效率。
总之,在全面实施《美国人工智能倡议》的细节出台之前,很难评估特朗普签署的人工智能行政命令的长期影响和有效性,以及是否能够纠正美中两国在人工智能和5G等新兴技术方面的差距。让我们拭目以待。
编辑:吴悠

36#
发表于 2019-4-7 22:54:03 | 显示全部楼层
【案例】“AI所威胁的未来”,或我们对自身的基本误解
作者:殷罗毕  
文章来源:硬球实验室

……就这样,劳动被植入到人类的身体里面。人成了一种劳动的动物,劳动成了它的本质。尽可能大的输出,是它存在的最大价值。因为价值,就等于输出。

于是,当一台更高效率的机器,来替代人完成这种输入输出,人类就傻眼了,感觉完蛋了,感觉自己被从里面抽掉了什么。

这里面,一定有什么大事情,搞错了。搞丢了。这个根本性的大事情,那就是人来到这个世界,究竟是干什么来的?

如果一个人,不劳动,不生产,不为谁提供产品,不为谁服务,他会怎样?

自动获得财务自由的人,他是不是等同于退回到了树上,成了伸手采果张口就吃香蕉的猿猴?有时,还可能咬上一两颗大麻叶子,瘫在半空中腾云驾雾做个活神仙?很显然,这是可能的出路之一。

这种情况下,劳动既是一种劳役,是一架铁栅栏,是一种囚禁,但同时也是一种保护。劳动填塞我们的时间,牵扯我们的神经,让我们不得不每天与一堆散发着刺鼻人气味的人类互相纠缠,让我们免得太过空闲,空得一不小心,突然看到自己脚下其实是悬空万米。

当然,悬空万米,恰恰是人类最大的机会。只要你有足够彻底的诚实和勇气,你在这个悬空前,就开始了真正的时间,砰地一头撞上永恒。
但是,在这个过于彻底和骇人的永恒荒原之外,人类有着另外的中间选择。在这里,你不需要让劳动来重复消耗自己,同时也可以展开自己在人世间的情绪。那个选项和人类状态,是我们尤其是中国人类长期以来已经遗忘和丢失的能力。汉娜▪阿伦特将这个状态与劳动相对峙,称之为“行动”。

行动,与劳动的区别,是个性命攸关的区别。

劳动是重复的,面对自然的,制造产品的,产出价值的。但是,行动每一次都是不同的开始,是面对世界,面对人与人的关系,不制造产品,只改变关系,产出的不是价值,而是对价值重新评估的权力。

这么说来,可能有些抽象。让我们降落到具体的场景和例子,人类的行动状态就一目了然。

那辆大约半年前从大桥上一头冲进河里的大巴,车上坐着的一定是一堆典型的劳动人民。他们眼睁睁看着一个泼妇与司机争吵一直到最后动手抽打司机,没有一个人上前阻拦。这是一种什么样的精神?这是典型的只面对自己的生产和田地,不踏入一步公共领域的劳动者精神。或者说,服劳役的人的心境。

但我们假设有一个八旗子弟在这辆车上,情况会如何?

这么个八旗子弟,他驾着鸟笼,一副大爷模样。这时,突然有大妈没完没了来纠缠司机,他能看得下去?一准是上去一把,这娘们,吵吵什么吵吵,还不拉了下去?

所以,行动,不单单是我做了一个动作,它指向的是这里的场子我做主,我要让人与人的关系,规则,按照我的意志来改变或者维护。作出行动,不是去制造产品,而是要去改变环境,让人与人之间的规则发生变化。这便是行动的秘密。在行动中,人是自己和世界的主人。在劳动中,人陷入到与土地、自然的链条之中,人变成仆役。与劳动紧密相关的还有一个词,那就是生产。生产,就是物的繁殖,或者人类自己的繁殖,都是自然链条中的一环。但是,行动指向的是自然之外人类自己的秩序感。同样都是人类,行动与劳动的差别,就像同样都经过口腔,但是言语与进食的截然不同。

让我们进入一个最为简单而直接的行动现场。一把椅子的现场。假设我们坐在一个现场。然后你走过来,看到有把椅子挡在走道,你可能就绕开那把椅子。因为下意识中你就被围困住了,在你做选择之前,你就明确提醒自己这个场子不是你的。场子是别人的,那把椅子这么挡着走道,可能是之前的人总有他的用处放在这里。事实上,这种不能挪动的椅子有很多,比如家长认定小孩就需要听话,在学校听老师的,得到老师表扬,就是好的。但事实上,那些老师很可能自己就是被扔在过道的废椅子。

但如果你一把拉开椅子,其实不单疏通的过道,而且更是改变你和整个场子的关系,你改变了你和周围环境的关系。这种改变,让你成为一个主动行动的主人。

成为主人,发出行动,开始了一场你与世界更为激烈的冒险。因为,你逆转了自己与世界的关系。

劳动,便是你嵌入现存世界的规则和链条,你尊重原有规则,你消耗自己来制造产品,来接受别人的估值。但行动,意味着你打破规则,制造新的规则,是你自己在对周围的一切重新估值。比如你把椅子挪开,就是你对那个过道中的椅子打了零分。你让孩子不用全听老师的屁话,甚至决定不让孩子去读九年制义务教育的学校,那就是你对现在的学校和老师给出估值——零分。

在作为主人行动的世界,AI(弱AI而非具有意识的强AI)的出现,很显然不会带来任何威胁。甚至,只能带来更大的解放感,把人类自己从繁重的事务中更多解脱出来,而成为空闲的,可以尝试各种冒险和行动的人。这个场景,恍恍然间回到了古希腊城邦或者古罗马自由民的世界。

在那里,不单各种生产、家务杂事,甚至收税,城市街道管理、警察、档案管理员都是由奴隶来操持。甚至某些定期会议的记录,也是由奴隶来完成,这种奴隶名叫书记。当然,这一切的成形是古希腊城邦的中盛与后期。(奴隶参与各种劳务的历史资料来源,参见保兰·伊斯马尔《民主反对专家:古希腊的公共奴隶》)这或许真能让中国人类吓得一跳,这些“高贵”的公务员,怎么都让奴隶来担任。事实上,情况很清楚,这些重复而不需要脑子的事情,本来就是奴隶的活。

而现在,从具体的劳动,制造产品,比如富士康流水线,到办公室白领的大部分工作,都将由一种全新的奴隶来替代完成。它们的专业称呼叫server,在日语中,叫做伺服器,在中文中叫做服务器。经过机器学习调教和训练的server,将以上万倍的效率替代人类的重复劳动,机器伺服人类的时代正在到来。

真正的问题,不在于这些AI机器本身,而在于人类之间能否正当合理地分享机器带来的产品与服务。这恰恰与劳动生产了多少毫无关系,而与身处变局中的人能否不断行动,建立规则有关。

编辑:吴悠



37#
发表于 2019-4-9 15:05:18 | 显示全部楼层


【案例】
一点资讯总编吴晨光辞任!最懂算法的他最焦虑什么?

[url=]原文链接:[/url]https://mp.weixin.qq.com/s/hwsD-w0mcgNNLC6zWh-HDw
原创: 媒通研究院  
文章来源:媒通社
今天上午,媒通社(IDmts1000)向吴晨光本人确认了辞任一事。针对该消息,一点资讯方面表示:“这个属于正常的架构调整,我们尊重吴晨光的个人选择。”
作者 | 媒通研究院
ID | mts1000
早前关于吴晨光将辞去一点资讯总编辑的传闻昨天夜间得到确认,一点资讯副总编辑范吉鹏目前代理总编辑工作。而吴晨光本人将以高级顾问的身份继续为一点资讯的发展提供帮助。
今天上午,媒通社(IDmts1000)向吴晨光本人确认了辞任一事。针对该消息,一点资讯方面表示:“这个属于正常的架构调整,我们尊重吴晨光的个人选择。”
吴晨光于20154月出任移动APP一点资讯副总裁兼总编辑,在任期间,一点资讯相继提出“水源计划”“水源生态”和“清朗计划”理念,致力于打造更利于自媒体深度运营的内容生态平台。
201710月,一点资讯获得《互联网新闻信息服务许可证》,成为首家获得新闻牌照的民营资讯客户端企业。吴晨光个人的微信公众号“一点晨光”也曾屡次发布引起业内热议的深度分析文章。由于在一点资讯的成绩,吴晨光被业内誉为“最懂算法的总编辑”。
生于1975年的吴晨光人如其名,温熙、明亮,又有一种大时代演进时特有的清冷感。
20多年的传媒生涯中,他经历了业态变迁中寒冷和春意的交战,参与了新旧更迭时规则与希望的建造,他总是很努力,总是自觉或不自觉地往前沿奔跑。
1992年,热爱运动、喜欢音乐的青年吴晨光考上北京钢铁学院。这个理工科男生不曾想到,自己6年后会进入新闻业,并且一待就是数十载。
从事新闻报道工作后,吴晨光先后在中国劳动报、中央电视台、南方周末、中国新闻周刊、博客天下、搜狐网等媒体工作。近十年来,他担任过几家一线媒体机构的高管。职场几经淬砺,吴晨光于2015年出任一点资讯副总裁、总编辑至今。
从普通记者到资深记者,从传统纸媒到内容分发平台,从连铸助理工程师到高级编辑,横跨了五六个媒体形态。过去,他“超越”传统纸媒和PC门户;如今,他“作别”自媒体之道,再次朝着职业生涯新场景出发。
2017年,媒通社曾对吴晨光做过一次专访,在那次访谈中,除了算法分发与媒体运营,吴晨光还漫谈了自己的兴趣爱好、人生哲学和早期经历。(专访原文可点击“阅读原文”查看)
年过不惑,吴晨光的焦虑与执着
媒通社:你喜欢运动,比如台球和跆拳道,这些兴趣爱好同时似乎也是你的人生哲学和思维方式,从中,你能体悟到哪些力量间接或直接影响到现在的工作?
吴晨光:我有很多爱好,几乎人生的每个阶段,都会专注于其中的一项或几项。当然,这和工作场所有关——我在《中国新闻周刊》上班时,旁边有一家保龄球馆,我开始学习保龄球;在《博客天下》工作时,隔壁有一家箭馆,我就开始学习射箭。
我是属于比较喜欢钻研的那种人。如果我专注于某一个事情,就会想方设法把它做好,而不仅仅是娱乐。在保龄球练习最刻苦的时候,我的右胳膊比左胳膊粗一圈;练射箭的时候,胳膊干脆抬不起来。
各种各样的爱好,给我留下的东西都不一样。但有些基本点是相似的:
首先,你有一个好的身体。工作到最后,很多时候拼的是体力。多种运动会让我保持精力的充沛,抗压能力比较强。生活中更是如此——最起码,一个练过跆拳道的人遇到危险,能跑得比别人快点儿。
但最重要的是,这些爱好和运动让我体会到了“格物穷理”,就是通过对事物的深入分析,了解其中的运行规律——这是悟道的过程。
格物的过程是非常艰难的。当最初接触一项事物的时候,你可能根本搞不清东南西北,就是机械模仿。如果你再不认真、不善于总结,结果永远没进步。
媒通社:从纸媒到门户再到大数据内容分发平台,这种职业演变轨迹是否意味着您热衷于自觉性弄潮,还是被动式地去做一些前沿的工作?
吴晨光:没有人是天生的弄潮儿,从我个人的经历来说,很多时候就是形势所迫。
我的第一份工作是首钢总公司的连铸工程师,因为字写得好,被调到了宣传部。结果不久,正赶上1997年国企下岗减员,我又被宣传部下岗了,需要回到车间,继续炼钢。当然,不是我干得不好,是因为一位老同志没有技术、回不了车间,所以只能让我走。
于是,我就憋足一口气,需要找一份我喜欢的工作。我喜欢写东西,就各种各样考记者。我的专业是钢铁冶金,想当记者,几乎比登天还难,但我的诗词积累救了我——终于,我被《中国劳动报》录取了,从此开始媒体生涯。
之后的很多变动,也是被动的。人为什么要跳槽,很简单,就是在原单位不爽了。具体说,就是名、利、衔满足不了要求,或者未来没有希望。于是就跳槽了。
但在我的成长中,路径确实越来越清晰,对风口的判断也越来越准。如果说第一次换工作是100%的被动,后来就变成了80%70%60%50%。人最终要把握自己的命运、做出主动选择,“弄潮儿向涛头立,手把红旗旗不湿”,是一个努力目标。
媒通社:过了40岁,你会有年代焦虑吗?如果笃定现在自己没有什么可焦虑的,那么你曾经为什么事情而焦虑过吗?
吴晨光:一下子暴露年龄了,我1975年生,42岁。不过说我32岁,肯定也有人信。运动让人年轻。
我现在没有什么特别焦虑的,之前也没有。因为经历的事情比较多了,生离死别都经历过了,没什么了不起了。我最艰难的时候,是2014年的春天,爸爸躺在医院里成了植物人,搜狐改革、裁员的压力我也必须承担。医院——公司、公司——医院,一天又一天。有一天晚上,我望着天上的一只闪亮的风筝许愿:希望这个春天过去的时候,一切都好了。可是夏天到来的时候,爸爸去世了,而我为这场改革也付出了巨大的代价。
但在这段最艰难的时刻,我依然没有焦虑。我坚信:只要人在,一切都在。果然,2015年年初,随着我主编的《搜狐新闻采编》规范的公开,形势发生了根本性的扭转。当我离开搜狐的时候,又公开出版了《超越门户》。
焦虑不是一件好事,它会打乱你的节奏,让你变得不够从容。一个人在焦虑的状态下做事情,会瞻前顾后,失去自我。这就如同在高尔夫球场上挥杆时,越怕球落水或者OB,失误就越可能发生。因为你不从容、不敢做动作,肯定会失误。一位传媒界前辈曾对我说:从容是人生的最高境界,不是云动,不是风动,而是你的心在动。
如果说现在有焦虑,就是觉得自己年龄大了,时间非常紧迫。我不敢再浪费一分一秒,等真的老了的时候,想努力做事情,也力不从心。
媒通社:你敬佩过谁?是否会希望成为某种人?
吴晨光:我就是我,不想成为其他人。但我非常敬仰张小龙。这位“微信之父”,改变了这个时代,改变了我们的生活。但他谦虚低调。过于张扬的人,即使有了成就,也走不远。
吴晨光时代一点资讯的内容净化
自来到一点资讯后,吴晨光的传媒赛道经历了又一次大的转变。在这家以算法技术闻名的公司里,他一直在努力构建内容生态体系,理清内容与技术究竟如何水乳交融。
媒通社:很多人担心人工智能会将多数人赶出新闻资讯编辑部?事实上,机器人写稿和智能分发已经出现在当前的一些互联网平台。那么,内容分发时代“编辑”的角色该如何重新定位?
吴晨光:说这个话的人,其实不了解人工智能。人工智能可以在很多方面替代人的工作,但在内容领域是最难的。一个根本的原因是,内容是有价值观的,人工智能写不出价值观,也分发不出价值观。
从目前的情况看,机器人写稿速度很快,也基本能够过关。但它写的稿子,仅仅限于部分领域的消息、快讯。我们知道,更有价值的稿子,是深度报道——包括调查性报道、解释性报道等等。在这个碎片化、口语化、肤浅化的移动阅读时代,真实的、深度的、优美的文章,其实是最稀缺的、最有价值的,这需要人来完成。
关于分发,人工智能确实极大提升了效率。因为它是以CTR(点击率)作为标准,投其所好,千人千面。但在一些重大事件上,算法是迟钝的,需要人工的判断;而在一些有价值观的内容上,必须要靠编辑的判断。否则,我们就会陷入到一个唯点击率、唯人性弱点的分发模式中去——因为点击率高的内容,往往是娱乐的、八卦的、下三路的内容。
但这并不是说,传统编辑就可以没有危机感地混下去。人工智能正在促使我们转型。因为我们要理解人工智能,把我们的专业能力交给它,这个过程就是“机器学习”。固然,这个工作是算法工程师做的,但在一点资讯,编辑是深入参与这个过程的,要去修订算法里的问题,并找到更多的案例,输入算法模型,让算法更懂人性。
曾有些编辑和我抱怨,说“人少活多”,而且活很杂,又要协调算法、又要协调产品,不如在传统媒体或者门户网站工作时那么聚焦。我说这是好事啊,从微观来说,是对你个人层次的提高——不想当将军的士兵不是好士兵,不想当总编辑的编辑不是好编辑,你现在干的就是总编辑的活儿,还跨界到算法领域了;从宏观来说,这是新媒体时代的要求——我们不是搬砖工,我们是建筑设计师,而且是现代建筑的设计师。
媒通社:人民日报有一篇文章令人印象深刻,其质疑分发算法推送内容单一化,意见相近的声音不断被重复和加强,于是出现了信息茧房和回声室效应。你如何看待这个问题?
吴晨光:算法会带来三个陷阱,这是在去年的一次媒体峰会上,一点资讯董事长刘爽最先提出来的。我在《自媒体之道》手册中,也做了转述。
简而言之,三个陷阱分别是:
1)信息孤岛——用户喜欢什么就推什么,久而久之,信息流都是你喜欢的内容。而其他的重要内容,用户看不到,造成“一叶障目、不见森林”。这就是“信息茧房”效应。
2)标题党文章泛滥——算法的逻辑是,优先推送点击率高的内容。而标题党的点击率肯定更高,所以会被推送的范围越广。
3)口水文章、情绪化文章泛滥。这个逻辑,和标题党文章泛滥是一样的。这就是“回声室”效应。
避免这种情况的出现,一是要做好人工的干预——特别是对稿源的遴选。当然,我所说的遴选稿源,不是让人工去筛选每一篇稿子,因为根本忙不过来;二是让机器学会识别标题党、识别口水文章。编辑要和算法工程师一起,修订判断垃圾内容的模块,然后应用。
媒通社:你多次强调内容审核的重要性,在一点资讯的技术体系里,人工智能目前可以在视频中提取关键词吗?平常你们又是如何对视频内容进行把关的?
吴晨光:图像识别技术,在一点已经有应用,但远远不如对文字的把控。所以,一点的视频审核,必须过人工。
现在的审核,安全仍然是第一位的。这是个底线问题,审核编辑应该有非常好的政治敏感度、对低俗内容的识别力。而且在不同的时间节点,审核的尺度是不一样的。话又说回来,底线是不能破的。
在安全之上,应该是定义内容。简单说,就是给文章、视频打标签,到底属于哪个类型?时政、社会、财经还是娱乐?《战狼》还是《建军大业》?因为这是文章画像的一部分,标签越准越细,分发就越精准,越符合千人千面的要求。
再上一层,就是对内容质量的基本判断。我们把视频内容分为若干级别,审核编辑会给一个初步建议——高级别的文章,会进入首页流、精品池;低级别的文章,只会在频道出现,或者干脆被枪毙。
四年心血凝聚“一点”,吴晨光的自媒体之道
1. 如果回归信息的基本定义,它应该是人们“应知、欲知而未知的东西”。算法能够满足欲知而未知,但无法满足应知而未知。久而久之,一个拥有几千万甚至上亿用户、承担着传播主流价值观的App,就变成一个纯个人消遣的阅读器,媒体“上情下达、下情上传”的功能变得越来越弱,个人与国家、政府、社会之间的鸿沟越来越深。
2. “无善无恶心之本,有善有恶意之动。”冷启动时,不负责任的算法其实调动了人意念中“恶”的一面。所以,要从根本上治理,还是要从水源上下功夫。
3. 平台运营的成功,在于内容生产和内容分发之间的平衡,如果把内容比作水,用户(读者)比作鱼,最佳的平衡应该“有多少鱼,放多少水”。而非一味追求大量的内容涌入,特别是不被用户认可的内容。
4. 好的报道要善于抓住情绪,但绝不能忽视真相。缺了前者,就没了传播;缺了后者,就是无本之木。真实,是新闻的生命。
5. 一个App内的生态平衡,和治国理政是同样的道理。DAU,相当于一个国家的人口数量;用户兴趣,相当于一个国家人民的不同需求。而机构媒体、自媒体数量及发文数相当于GDP,发文的不同形态和领域又相当于政府和市场提供的不同产品和服务—水电煤气、衣食住行、教育大病养老等等。
6. 在新时代,我们要解决人民日益增长的美好生活需要和不平衡不充分的发展之间的矛盾,而在互联网信息流里,就是要建立内容的优质、丰富与分发的公平、精准之间的最佳数据模型。
7. 在我的理解中,数据的背后是用户,大数据其实就是用户行为的反映。鱼缸里生态的好坏,可以靠眼睛判断;但大海里的生态,就要靠环境数据的监测。一个APP里内容生态的好坏,同样要靠数据:一是根据数据判断过往的工作效果;一是根据数据把握未来方向。
8. 我认为,数据的统计、分析可以从三方面进行评估:准不准、细不细、深不深。准不准,就是数据统计的精确度问题。细不细,就是数据统计的颗粒度问题,我们走入了一个千人千面的个性化阅读时代,对数据拆分的维度越多、了解得越细腻,供需的平衡才越容易掌握。深不深,就是对数据的理解力问题,一份优秀数据分析报告应该把这些分析得非常透彻,并能够给出应对的措施,也就是说,数据必须落地!
9. 我觉得新旧媒体的本质区别,是对用户的理解。如何理解用户时,“理解用户最重要的有两点:第一是要弄清楚用户是谁?第二是用户喜欢什么?并根据这个用户画像,按照某一种算法模型去匹配内容,这就是典型的新媒体。”
10. 我心即宇宙,宇宙在我胸。儒家文化的修身齐家治国平天下,是每个有理想的人追求的目标。但是在这几个层次之前,是修心。
(部分语录来自“蓝鲸财经”等媒体对吴晨光的访问)
编辑:高杰

38#
发表于 2019-4-11 21:57:47 | 显示全部楼层
【案例】
祈年文潭:“人工愚蠢”的时代?
文章来源:光明日报客户端
原作者:吴冠军
二十一世纪快走完了它的五分之一,我们手上和身上有了越来越多的智能穿戴和使用设备,越来越多的产业与社会领域正在被人工智能与自动化技术所“赋能”(智能车间、无人驾驶、机器人医生……),媒体与自媒体则无止无尽地高速喷涌新概念、高速转换新焦点,但在这些表面变化下面,有一个巨大的变化发生在人们身上。
作为大学教师,我越来越观察到的是:在这个“人工智能时代”,人们的知识却正在被剥夺。法国思想家贝尔纳·斯蒂格勒甚至用“人工愚蠢”(artificial stupidity)来形容当代社会。大学课堂上,越来越多的学生无精打采,只因抖音刷到凌晨五点;网上的大V公开声称不再需要“费力”学习外语,只因“搞一支专业翻译团队就搞定了”;公路上的司机们会眼睁睁把车开进河里,只因GPS说继续保持直行……在全球层面上,一方面人们普遍在抱怨环境的糟糕、空气的污染,另一方面却肆意制造碳排放、无视垃圾分类,认为自己那一点“熵增”无足轻重,甚至“全球权力最大”的那位总统在推特上声称“全球变暖这个概念是中国人编造出来以使得美国制造业不具竞争力”,“纽约很冷还在飘雪,我们需要全球变暖”!
这样的愚蠢,烙印着鲜明的时代记号。在2019年动画剧集《爱、死亡、机器人》中,当人类文明终结很久之后,有三个机器人探索一个废弃城市,并最后得出如下结论:“他们只是通过成为一帮傻人而作死了自己”。我们不知道是否这就是结局,但当下的我们能看到这个变化:人类正在变傻。
愚蠢被催发,盖因知识被剥夺。古希腊哲人亚里士多德所分析的三大知识,在今天都正在被剥夺。第一种是“生产性知识”,亦即关于“工作”的知识。在当下时代,工作知识不断被自动化机器和人工智能所剥夺:无论你是个优秀的工匠、医生、工程师还是棋手,机器都在不断加速地改写你的工作设置,乃至直接取代你。人工智能对社会全方位的“赋能”, 就是人的工作知识的全方位边缘化。今天大学的毕业季焦虑,就是工作知识被剥夺的映射:无论你读哪个专业,你的“专业性”知识都快变得学而无用。
第二种是“实践性知识”,亦即人和人如何相处的知识。这个知识通常不被看到,但却是关于“生活”的知识,被亚里士多德视作重中之重。然而,在我们这个时代它却在迅速退化。以师生之间为例,少数老师做了很糟糕的事,但这个社会却在承受它的后果:师生之间相处的“实践性知识”被剥夺,从这几年老师和研究生之间的不信任案例就可看出。夫妻之间也是这样,去年有个女明星因婚姻中“敢作敢为”而获得一片赞赏,可是这种“霸气”不代表有智慧“面对”彼此相处问题。生活知识的被剥夺,导致今天的人越来越不知道如何与他人相处,以至于当下时代的一个关键词竟然是“撕”。各种撕裂以后,大家面对伤口也不知道如何去修复。没有了生活知识怎么办?反思太麻烦,“算法”很简单。比如恋爱失败,无须痛定思痛,手撕“渣男”后直接再上婚恋APP,它会用比你更了解你的“算法”帮忙找出下一个更适合的对象……
第三种是“理论性知识”。哲学、数学、理论物理学等等纯理论知识也许并不“实用”,但一旦被剥夺之后,你的多角度思考能力、分析能力也就被截断了。从大学教育来看,这几年报考学习理论知识的学生越来越少,哲学系、数学系等院系几乎门可罗雀,罗到的那些也多半是无奈被调剂过来的。大学毕业,并不意味着有知识和思考能力:大量高学历者连前文提到的“熵增”都不知道……
工作上笨手笨脚,生活中蠢到只会撕,头脑内无智可用——人工智能时代人在全面变蠢。我们也许无法去微博上或推特上怼倒“学外语无用论”或“全球变暖编造论”,但我们能理解,这是知识被剥夺的人说出来的话。美国学者艾维托·罗内尔早在她2002年专著《愚蠢》中提出:人类可以发起一场针对毒品的战争,却无法发起一场针对愚蠢的战争,所以愚蠢无法被战胜。然而罗氏之论就算在理论上是对的,在实践中也是错的:选择眼睁睁地看着知识被愚蠢吞没,本身也是一种愚蠢。作为大学教师,上出包含知识洞见的课,写出能引人思考的分析性文章,就是抗拒“人工愚蠢”的微小但硬核的“负熵性”努力。
(作者系华东师范大学政治学系教授、欧陆政治哲学研究所所长)
原文链接:
http://share.cloud.gmw.cn/yunmei-share/?shareTitle=%E7%A5%88%E5%B9%B4%E6%96%87%E6%BD%AD%EF%BC%9A%E2%80%9C%E4%BA%BA%E5%B7%A5%E6%84%9A%E8%A0%A2%E2%80%9D%E7%9A%84%E6%97%B6%E4%BB%A3%EF%BC%9F&shareImg=https://s.cloud.gmw.cn/2016/json/upload/resources/image/2016/12/13/6100070.png&shareDes=%E5%B7%A5%E4%BD%9C%E4%B8%8A%E7%AC%A8%E6%89%8B%E7%AC%A8%E8%84%9A%EF%BC%8C%E7%94%9F%E6%B4%BB%E4%B8%AD%E8%A0%A2%E5%88%B0%E5%8F%AA%E4%BC%9A%E6%92%95%EF%BC%8C%E5%A4%B4%E8%84%91%E5%86%85%E6%97%A0%E6%99%BA%E5%8F%AF%E7%94%A8%E2%80%94%E2%80%94%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6%97%B6%E4%BB%A3%E4%BA%BA%E5%9C%A8%E5%85%A8%E9%9D%A2%E5%8F%98%E8%A0%A2%E3%80%82&sourceUrl=http://s.cloud.gmw.cn/gmrb/c/2019-04-11/1248045.shtml&articleId=1248045&token=0bea650317e7593b7e3e00973a43d1d9&from=groupmessage
编辑:高杰




39#
发表于 2019-4-18 22:27:21 | 显示全部楼层
【案例】
中美AI竞赛:谁将领先?
沃尔夫:李开复在他的新书中并未断言中国将引领AI领域的基础创新,但当前最关键的是应用,而中国在这方面有很多优势。
更新于201941802:36 英国《金融时报》首席经济评论员 马丁•沃尔夫
今年3月底,我第9次参加中国发展高层论坛(China Development Forum)。这次访问启发了我近期关于中国经济和政治的评论。但参加该论坛最有价值的是机缘巧合下的意外收获。这次的好运是遇见了李开复(Kai-Fu Lee)——前谷歌(Google)大中华区总裁,现为中国科技领域一位重量级风险投资人。
李开复送给我一本他的新书《人工智能超级大国:中国、硅谷和新世界秩序》(AI Superpowers: China, Silicon Valley and the New World Order)。这本书有一个不同寻常的主题:自工业革命以来,中国将首次处在一场经济大变革——人工智能(AI)革命——的最前沿。
来源:ft中文网
链接:http://www.ftchinese.com/story/001082364?exclusive

编辑:晓晴


40#
发表于 2019-4-22 14:01:40 | 显示全部楼层
【案例】

欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见

         目前,虽然人工智能(AI)的研究还处在起步阶段,但欧盟已经为其制定了道德准则。
据美国科技网站The Verge的报道,经过52名专家的商讨,欧盟委员会于48日发布了人工智能道德准则。该准则的出台,标志着欧盟在寻求推广人工智能产业发展的同时,将立足于强化产业的道德水准。
         
欧盟希望在人工智能融入社会以前,未雨绸缪,制定相关准则,规范其未来发展。
参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”
该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:
1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。
人工智能,以人为本
欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。
加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”
玛利亚·加布里埃尔解读人工智能道德准则 图自视觉中国
举例来说,如果一家保险公司依赖人工智能算法拒绝了某项赔偿申请,那么他们应该让消费者知道做出这项决定的依据。同时,还应由人类出面,进行这项决定的最终判断。
此外,加布里埃尔认为,隐私和数据管理同样非常重要。任何使用人工智能的机构,都应当保护好系统收集的数据,这些数据只能被人工智能和本人访问。
除了技术方面的准则以外,欧盟制定的准则里还包含了一些相对抽象的概念,例如其要求人工智能必须具有多样性、非歧视和公平性,同时也能够“促进积极的社会变革”。
由于现阶段人工智能的训练仍旧依赖于巨量数据的输入,因此这些数据将极大程度左右人工智能的公平性。
加布里埃尔举例说:“如果一家公司使用人工智能系统进行招聘,而他们所使用的数据来源于另一家大量招聘男性雇员的公司,那么这一系统将很可能拒绝女性雇员的加入。”
“如果人们使用不公平的数据来训练人工智能,那么这将毫无疑问成为一个大问题。”
另辟蹊径,欧盟想成为技术道德领域的领军者
欧盟已经不是第一次为数字技术制定规则和法律了。
2018年5月,欧洲联盟出台《通用数据保护条例》(GDPR),规范数据收集者的操作,禁止网络公司以默认隐藏的模式收集用户数据,同时保障用户对自己数据完全自主的权利。对于违规者,欧盟将会处以巨额罚款。
此次,欧盟表示,希望自己成为AI道德领域的领导者,如同制定《通用数据保护条例》(GDPR)一样,率先规范科技领域的法律和道德,保护公众的数字权利。
据The Verge分析,由于欧盟在投资和前沿研究方面,已经无法与美国和中国一争高下,因此,它才迫不得已选择了伦理作为塑造技术未来的最佳选择。
相对于欧洲,中国在人工智能领域的发展迅速 图自视觉中国
正如欧委会负责数字单一市场的副主席安斯普(AndrusAnsip)所说,“有道德的人工智能是一个能够达到双赢的主张,是欧洲在该领域的竞争优势——成为人们可以信赖的,以人为本的人工智能领导者。”
不过,欧盟在技术道德领域制定的一系列规则,也有可能成为这些技术发展的阻碍。
在当今前沿计算机科技中,大数据、云计算和人工智能的发展,都离不开巨量数据的支撑。而欧盟的《通用数据保护条例》为网络公司和研究机构的数据搜集设置了极大障碍。
同样,也有部分研究者怀疑,欧盟制定的人工智能道德准则,将会影响到这一产业的未来发展。
智库机构数据创新中心(Center forData Innovation)的高级政策分析师艾琳·奇沃特(Eline Chivot)在接受The Verge采访时说:“欧盟希望通过制定道德标准,来确定自身在全球人工智能发展中的地位,我们对这种方法持怀疑态度。要成为人工智能伦理的领导者,首先你必须在人工智能领域遥遥领先。”
欧盟指出,提出人工智能道德准则只是第一步,未来他们还将邀请其他国家的企业和国际组织共同参与测试,制定以人为本的人工智能共识,并在G20峰会上与其他国家共同讨论。
编辑:陈茗

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表