传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
351#
 楼主| 发表于 2019-12-9 23:38:18 | 只看该作者
【案例】
廖备水: 人工智能逻辑的发展与展望

内容介绍:

在人工智能发展的过程中,逻辑学发挥着基础性的作用。本次报告将从处理不完全、不确定和不一致信息的角度梳理人工智能逻辑的发展现状以及各种不同逻辑的特点。一方面,传统非单调逻辑通过扩展一阶逻辑,为建模不完全和不一致信息条件下的推理提供了有效途径,但这些逻辑理论在通用性、可计算性、动态性和多主体交互性等方面存在不足。另一方面,论辩逻辑以传统非单调逻辑为基础,通过抽象化的冲突处理机制,可在一定程度上弥补传统非单调逻辑的不足。此外,报告还将结合当前人工智能的研究热点,分析论辩逻辑的一些研究动向。

欢迎感兴趣的同学和老师们参加!

时间:待定,待时间确定将另行通知

地点:新斋 324

主讲人:

Beishui Liao  廖备水

浙江大学哲学系教授,长江学者特聘教授,浙江大学人文学院、计算机学院博士生导师。现任浙江大学逻辑与认知研究所副所长,卢森堡大学客座教授,牛津大学、剑桥大学访问学者,浙江大学"大数据+推理与决策"创新团队首席专家,浙江大学“双脑计划”-“逻辑、认知与人工智能”交叉创新团队负责人,浙江大学-剑桥大学“人工智能、机器人与推理基础理论与方法研究”项目负责人,国际计算逻辑联合会亚洲事务代表,国际道义逻辑和规范系统学会指导委员会委员,IEEE P7000工作组成员,国际期刊Argument & Computation和 Journal of Applied Logics - IfCoLog Journal of Logics and their Applications 编委,PRIMA2019程序委员会主席,IJCAI、AAAI、AAMAS、KR、COMMA、LORI等重要国际会议程序委员会委员。
已出版专著3本、译著1本、国际会议论文集3本,在Artificial Intelligence、Journal of Logic and Computation、IJCAI、KR、COMMA、LORI等逻辑学和人工智能方向学术刊物及国际会议上发表多篇论文;其中,英文专著《Efficient Computation of Argumentation Semantics 》获“浙江省第十八届哲学社会科学优秀成果奖一等奖”。




编辑:董莉

352#
 楼主| 发表于 2019-12-10 22:10:21 | 只看该作者
【案例】
《传媒观察》第9期顾理平教授论文被《新华文摘》全文转载

本刊2019年第9期头条,南京师范大学新闻与传播学院教授、博士生导师顾理平论文《人工智能时代传媒业的面向与进路》被《新华文摘》2019年第23期全文转载,并以封面目录形式予以重点推荐。
  

【摘要】人工智能时代的到来给传媒业的新闻内容生产、传媒接收场景和新闻传播方式带来了深刻的变革,也带来了传媒伦理和法律的诸多困惑。传媒业在以积极主动的姿态拥抱人工智能技术的同时,必须通过推动技术治理、内部治理和外部治理的综合治理方式,推动行业的快速有序发展。
传媒业的发展一直和传媒技术的进步如影相随。每一项传媒技术的巨大进步,一定会推进传媒业的深刻变革。“作为现代科学发展结晶的人工智能被应用到传媒领域,对传媒的内容生产和传播效力都产生革命性的变革。”人工智能作为与传媒技术密切相关的高科技,其对传媒业的影响不仅体现在包括新闻生产方式、传播平台、传播方式、传播效果等外在可见形态的深刻影响,更体现在新闻价值观、媒介伦理、媒介法规等内在不可见形态的深刻影响。传媒业不仅要热情拥抱人工智能新技术对行业的巨大推进作用,也要理性分析这种智能技术可能的副产品,从而为传播业的健康快速发展寻找到更为理想的演进路径。
一、人工智能技术的进步对传媒业的深刻影响
1936年,英国数学家、逻辑学家何兰·麦席森·图灵(Alan Mathison  Turing)提出了一种抽象的计算模型——图灵机(Turing Machine),第一次在纯数学符号和现实世界之间建立了联系,随后发表的论文《计算机器与智能》提出了人工智能领域著名的图灵测试,为后来人工智能科学提供了开创性的构想。1956年,美国达特茅斯会议成功召开,会议主要确立了人工智能的学科名称以及较为准确的定义:它是计算机科学的一个分支,是融合计算机科学、控制论、信息论、脑神经科学、心理学、语言学等多学科的理论、方法和技术。此后,人工智能虽然波折不断,问题和批评也接踵而至,但随着相关技术的快速进步,尤其是大数据时代的崛起,终于迎来了其黄金发展期。可以说,人工智能是互联网技术下崛起的一个重要领域,其重要的驱动力来自互联网技术的不断完善以及因此而随处可得的大数据。随着语音识别、图像识别、视觉识别等技术的不断进步,人工智能发展开始进入发展的快车道。
“通过与物联网、机器人等技术的组合,人工智能能够构造出整个信息物理世界”。基于人工智能技术发展蕴含的巨大潜能,各国纷纷将人工智能作为国家未来发展的重要战略。德国在2012年推行了以“智能工厂”为重心的“工业4.0计划”;美国白宫科技政策办公室自2015年以来,连续发布《为人工智能的未来做好准备》、《国家人工智能研究和发展战略计划》和《人工智能、自动化与经济报告》等重量级报告,同时成立了机器学习与人工智能分委会(MLAI),专门协调美国人工智能的研究与发展;法国经济部与教研部发布《人工智能战略》,旨在把人工智能纳入原有创新战略与举措中,谋划未来发展。2017年,中国国务院印发了《新一代人工智能发展规划》,明确通过三步走的战略目标,争取到2030年,使中国人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。人工智能自此正式上升为国家战略。
人工智能给传媒业带来的首先是新闻内容生产的变革。人工智能主要通过机器学习来生产新闻,这是一种前所未有的新闻生产方式。“机器学习可以被分为多种类别。比如‘监督式学习’是以一组事先贴标的示例表示的算法,这种算法可以确认数据和贴标结果之间的关联或类别。在‘无监督式学习’中,则无法使用事先贴标的示例集,而是使用无贴标或无分类的数据。”无论采用何种方式,智能机器都可以在极短的时间里,学习到新闻生产足够的技能。其实,机器人写新闻并不是新鲜事,早在2006年,美国汤姆森公司就利用计算机完成了金融方面的新闻写作。但在相当长的时间里,这种写作主要处于实验阶段。直到2017年8月8日四川九寨沟发生地震后,机器人在25秒的极短时间里,完成了一篇540字的配图新闻,人们才开始高度重视机器人写新闻现象——新闻生产的重大变革正在来临。当然在许多人的认知里,机器人的新闻生产主要还是以金融、体育等以客观数据为主要表达内容的新闻,更多需要创造性的新闻生产还无能为力。但是,也有专家对此有不同看法:“未来,人类创造力的产物将是思想,也就是创意构思。我们的创意将比机器智能更好吗?机器智能将尝试掌握人类擅长的每个领域,包括思想。”人类的创意和思想是建立在既有知识认知基础上的一种升华,那为什么就可以肯定地说储存了海量既有知识的智能机器就一定不如人有创意和思想呢?但是,如果真的连创意和思想也可以被智能机器取代,对新闻生产的影响将难以估量。当然,人工智能在新闻生产领域的作为是渐进式的,在可预见的未来,“智能化技术与人的力量的结合,可以在某些方向上提高新闻的深度,也可以提高预测性新闻的准确性,还能对海量资讯中蕴藏的知识进行智能化提炼与累积。”这无疑令人欣喜。
人工智能对传媒业带来的第二个变革是传媒接收场景的变化。传媒业生产的新闻产品主要通过受众的视听感知。传统媒体时代的接收场景以阅读、收视收听为主要方式,载体则主要以报刊、电视机和收音机为主。进入新媒体时代,接收场景的变化则在原有场景的基础上增加了更加方便快捷的互动,交互体验产生了全新的接收体验,但是,这种交互体验总体的方式还比较单一。基于语音识别和视觉别识基础上的人工智能技术交互体验则发生了重大变化。其中,AR技术和VR技术的发展将会对传媒业产生重大影响。AR(Augmented  Reatily)技术是一种增强现实技术,即通过智能技术,将虚拟的信息应用到真实世界,使真实环境和虚拟环境叠加在一起。VR(Virtual  Reality)技术则是一种虚拟现实技术,主要通过计算机模拟、感知和传感设备等,生成实时动态的三维立体逼真影像。简单地说,即把观看者的意识代入到一个虚拟的世界中,这两种智能技术对传媒业都产生着十分重要的影响作用。“相比图片、视频载体,VR技术所提供的沉浸式体验往往会给受众带来全新的感知,从而达到意想不到的传播效果”。“过去任何一种事物表达方式都是空间聚合型的,从空间的角度来聚合事实。而VR表达是一种时间上的进程式表达,它可以用时间线来呈现内容。VR使人看待事物的角度有了时间和空间两种不同的维度,这就使人对现实的把握更全面、多样。”AR技术则将虚拟信息与真实世界巧妙地叠加融合起来,从而实现超越现实的多重感官体验。值得注意的是,这样的一种场景将与5G技术的发展协同推进。2019年被称为“5G商用元年”。新媒体初始阶段引以为傲的互动,变成了直接的参与,这种复杂的交互体验在以前是不可想像的。“未来的传播格局中,各种媒介越来越多地将自身建立在与用户的关系中,人与媒介的一体化,也将促进人人平台、人物平台的有效融通,对既有的信息生产格局和传播秩序带来革命性的影响,并以此重构社会关系。”
人工智能给传媒业带来的第三个变革是新闻传播方式的革新。这种革新一方面表现为媒体融合的意义不断彰显。媒体融合是一个长期的过程,通过传媒各要素的互相融合,不断推进媒体化进程,就如习近平总书记在中央政治局第十二次集体学习时指出的:“全媒体不断发展,出现了全程媒体、全息媒体、全员媒体、全效媒体,信息无处不在、无所不及、无人不用。”媒体融合通过媒体功效、媒体平台、媒体渠道、组织结构的整合,使资源共享、渠道互通,生产出多元产品供不同平台的受众共享,实现有限产品资源传播效果的最大化。在媒体融合发展的过程中,大数据挖掘技术的快速发展使海量无序的数据得到了有效的整合,以数据新闻为代表的新闻产品和可视化表达方式使新闻产品的传播力得到了进一步发挥,而人工智能技术的不断普及则进一步助推着媒体融合的进程。“‘智能化’语境中内容生产模式的变化,还与渠道的平台化扩张有关。平台虽然自身不生产内容产品,却鼓励内容创作者入驻。为了筑巢引凤,平台纷纷利用自身技术优势,为内容创作者开发并提供内容发布、用户监测、数据挖掘等方面的技术工具,以确保内容生产者专注于优质内容生产。”这种革新的另一方面则表现为算法新闻在新闻传播过程中的普遍应用。算法新闻(algorithm journalism)一般是指算法介入到新闻写作和推送等的过程而产生的新闻。算法新闻是以大数据、人工智能为代表的新传播技术在新闻传播过程中具体应用的产物。“机器人写新闻”和“算法推荐”是算法新闻最为人熟知的方式,但其应用范围和传播方式远不止这样两种,“智能技术的应用从智能技术的思考维度向行为维度扩展,包括观点挖掘与机器学习、社交网络分析与挖掘、路径发现与规划方法等技术。这些智能技术在思考维度上主要致力于寻找潜在的受众对象,进而完成对应受众群体的用户画像和群集组合分析,并在此基础上通过行为维度的社交网络分析、路径分析和规划,进行信息的高效分发,最终目的是提高信息内容和受众需求的一致性。”算法在新闻传播过程中的作用首先表现为数据的挖掘与整合。在受众至上、流量为王的时代,受众的欣赏趣味、接受爱好等是媒体最为关注的要素。在传统媒体时代,这些往往需要经过复杂的受众调查才能得到相对准确的结论。随着算法对新闻传播过程的介入,通过大数据技术,可以精准全面地挖掘受众兴趣并通过多种要素的整合,对受众精准画像。这是因为大数据可以根据每一个受众的新闻点击情况、停留时间、收藏内容展开“算法神技”,获得准确结论,并且这种数据挖掘还不是传统媒体时代受众调查的抽样调查,而是全样本分析。“大数据是指不用随机分析法这样的捷径,而采用所有数据的方法。”它注重分析所有样本间的相关关系而不执着于分析因果关系。“在无法确定因果关系时,数据为我们提供了解决问题的新方法,数据中所包含的信息可以帮助我们消除不确定性,而数据之间的相关性在某种程度上可以取代原来的因果关系,帮助我们得到我们想知道的答案,这便是大数据思维的核心。”随后,智能机器可以根据数据挖掘形成的结论(画像),对用户进行精准推送。
二、人工智能技术的推进与传媒业面临的现实困境
第一,传媒业面临的伦理困境。人工智能的应用通常被理解为客观的、可信赖的和有效率的,所以其在传媒业的推广虽然也伴随着一些争议,但总体而言是快速而普遍的。随着人工智能技术应用的逐渐普遍,一些伦理问题也开始变得严峻起来。一方面,人工智能在推广过程中经常是以盈利为目的,资本推动色彩比较明显,在传媒业中的推广也不例外,这就与传媒业的价值标准和伦理追求发生冲突——传媒业追求以客观中立的专业手段履行社会使命、实现社会价值。技术能够赋权、赋能,人工智能大规模普遍使用所形成的权力运行模式会对传统的权力运行模式形成冲击。例如把关人的设置是传统媒体权力运行中的重要环节,而人工智能的算法推荐却对把关人功能产生颠覆性影响。
人工智能时代新闻伦理的主要困惑是主体性困惑。新闻业是一个极具道德敏感性的行业。从新闻史的角度观察,新闻业的发展及其规则的确立是以社会目标的实现为指向的,新闻伦理作为一种应用伦理的形式,贯穿于媒体的日常工作和专业实践之中。传统新闻伦理的判断能力是一种独特的人文素养,它源自于公众的委托,成型于长期的专业理念的熏陶。但是,在人工智能时代,新闻从业者个人的重要性在逐渐减弱,机器自主判断的重要性在不断上升。机器专注于生产的效率性,并不能形成关于客观、中立、公正以及新闻品质、社会责任的自主判断,所以将造成新闻伦理的主体性缺失以及主流价值观念的偏离。如前所述,前人工智能时代,既有的传媒业已经形成了相对成熟的传媒伦理生态。社会主流的伦理准则、道德观念等通过多种方式,已逐渐内化为传媒人自觉的道德追求并在传媒实践中得以体现。人工智能时代,由于机器对传播过程的深度介入,诸多问题就不可避免地出现。人工智能的引入一定程度上解决了新闻信息的处理和分发问题,但也同时出现了一些难以克服的弊端,比如个性化推送中的低俗化倾向和公共性信息的不彰,社交媒体中的虚假新闻现象,个人隐私与数据监控问题,信息茧房、过滤泡沫效应,搜索引擎中的竞价排名与虚假广告,算法偏见和歧视,人工智能对现有新闻职位结构的冲击、对职业记者的排斥等等。“当记者把工作都交给机器做的同时,他们获得了创作的自由,也失去了读者对于新闻劳动产品的尊重。科技公司可以将他们的未来押在人工智能或任何一个复杂的技术上,但是整个新闻业却可能面临着用户和读者的不信任。”这些问题得不到解决,智能化的传媒业将难以持续性地健康发展。在许多时候,人们会理想化地认为技术会规避掉可能出现的新闻伦理问题,技术中立可以防止诸多不公平现象,但是技术本身并非是全然中立的,技术与社会生态的互动常常使得技术的发展呈现出环境的、社会的和人类的难以预测的后果,人工智能在新闻领域的发展亦是如此。在媒体产业发展与智能科技相互共鸣的进程中,背后掌控全局的其实是商业资本的意愿和力量,只是这一次资本将自己隐身于更具前沿和精英色彩的科技手段之后。人工智能的采用的确是带来了新闻生产力的提高,但从政治经济学角度分析,商业通过人工智能的布局将饱含公共利益和人文色彩的新闻信息变成了俘获受众眼球的工具,并且更进一步受众变成了更精准可测的抽象数据。通过对数据的垄断和控制,一些大型互联网科技企业实现了对生活世界、社会空间的殖民。
第二,传媒业面临的法律困境。人工智能技术是建立在大数据技术基础之上的一项智能技术,在大数据时代,“数字化生存”是现代公民一种基本的生存方式——人们的言行已经被普遍数字化。而在这些被数字化的数据中,无疑留存有大量的公民的权利内容,人工智能技术在采集、储存和使用这些数据的过程中,有可能涉及对公民隐私权、名誉权、著作权甚至财产权的侵犯。例如,算法推荐新闻需要根据既往受众的接收兴趣向其推荐新闻,但受众的接收兴趣包含有公民丰富的隐私信息,稍有不慎,可能会导致对公民隐私权的侵犯。传媒技术的进步应该为公民权利的保护提供更加有效的技术手段和能力而不应该相反。
具体而言,人工智能技术的进步主要会导致这样一些法律困境。(1)人工智能发展与法律制度之间的矛盾:法律最为核心的功能,乃是维护社会规范性期望的稳定,给全体社会成员提供一种确定性预期。而人工智能的逻辑则与之不同,它会通过各种大数据、身份虚拟账户、评分系统、智能算法的技术形成新的法律主体特征;同时,互联网作为新的信息传播空间和法律空间,具有自由化、虚拟化、超主权化的全新特征。这些新问题使得法律规范的稳定性难以与人工智能的发展性相匹配,自然在两者之间产生了矛盾。(2)人工智能作为新闻传播法律主体的认定:人工智能作为一种新的社会现象,其作为法律主体的地位难以衡量。尤其是机器人写作生成的新闻作品,机器人或机器人所有者是否能享有相应的著作权?回应这一问题必须回到法律主体理论设立的初衷,厘清其理论发展历史进程,深入分析人工智能出现以后对构成法律主体要素的权利主体、义务主体、责任主体带来的冲击。跳出法律主体的类型化思维,用全方位的方法论思考人与人工智能之间的关系,并通过立法予以确认。(3)人工智能在新闻传播活动中的侵权责任认定:在人工智能的新闻实践中,涉及到隐私权、名誉权、肖像权、著作权以及数据歧视等多种侵权的可能性。在这些情况下,人工智能应该是可以被问责的。具体而言,要解决过错问题,避免公众困惑,人工智能系统必须在程序层面上具有可责性,证明其为什么、以何种特定方式运作。法律应当说明人工智能系统开发、部署和应用过程中的职责、过错、责任、可问责性等问题,便于制造商和使用者可以知晓其权利和义务。现实面临的困惑是,所有的这些构想,尚未有明确的实体法律与之对应,换句话说,所有的这些构想尚有待未来法律法规的制定。
三、人工智能与传媒业的未来美好场景
以人工智能为代表的传媒技术的进步,给传媒业的发展开拓了广阔的空间,提供了无限的可能性,但其技术本身的诸多未知也可能会导致挑战甚至风险产生,所以,其推进过程必须接受国家政策法规的规制和社会主流伦理原则的评价和检验,并根据需要作出调适和转化。归根结底,人工智能应该为人类信息的传播和社会长期稳定发展带来福祉。因此,在人工智能时代,面对伦理和法律的诸多困境,传媒业的发展必须与技术治理、内部治理、外部治理伴随推进,从而形成美好的传播场景。
传媒业以积极主动的姿态拥抱人工智能的同时,必须积极推动技术治理。人工智能技术在传媒业的快速普遍推广,带给了传媒业革命性的变革,也不断强化着新媒体的繁荣景象。这种繁荣景象不仅给传媒业本身带来了巨大的发展机遇,更给几乎所有的社会成员方便自由介入传播过程的机遇。但是,并不是所有的媒体和社会成员都对这种突然降临的机遇作好了准备。就媒体而言,大规模运作的复杂算法在技术上并不透明,其资本推动导致的商业秘密性也使其难以仔细检查核实,这就导致公众实施监督,法律施加权威缺乏明确性。就全体社会成员而言,新媒体和人工智能导致的猝然降临的机会,在把关人失位的背景下,容易滋生各种不良的传播行为,从而导致伦理和法律问题多发。技术导致的行为,多元技术手段的治理措施显然更具有针对性。算法推荐新闻导致的信息茧房、群体极化问题,需要通过相应的技术手段来解决。“在新闻生产过程中扮演越来越重要角色的算法,往往被认为是机密而被隐藏起来。”“新闻媒体中的算法透明度,是公开算法机制相关信息的尝试。算法信息的披露,有利于公众知晓算法可能存在的价值导向。”应该通过技术手段加强不同信息的平衡推送,防止接收偏向出现。数据挖掘导致的大规模隐私信息泄露,应该通过多元加密技术和更加严格规范的隐私政策,来确保公民的隐私权。
   传媒业在大规模引入智能机器进入传播全过程的同时,还要发挥好人的能动作用,积极加强传媒业内部治理。人工智能的应用和推广确实给传媒业带来了全新气象,但新闻价值失衡、舆论异化等现象普遍存在。媒体从业人员在智能机器面前似乎有被边缘化倾向。但是,以人为本在人工智能时代依然应该被反复强调,这里的以人为本不仅是强调对人的尊重,更强调对人主观能动性的重视。人工智能作为一种技术当然是以人为主导的,因此,智能机器工程师、编码师的伦理提升必须高度重视,广而言之,在资本推动的新媒体发展中,资本主导者和媒体负责人的社会责任意识必须作为关键被重视。传播路径的规范化、新闻行业的集体自律和资本的社会责任是传媒业内部治理的关键所在。
倡导法律规制和伦理引导的全面有效的外部治理。新媒体的快速发展和人工智能技术的应用推动了传媒业的发展,在人工智能引发的公民权利受损、公正报道受限、公共利益漠视的现象时有所见,因此而导致的价值冲突、伦理冲击、法律权威挑战问题令人关注。公共传播时代,全体社会成员都有了话语表达的机会,但每个成员的媒介素养和个人素质各不相同,人工智能技术的应用容易导致某种情绪被快速放大。因此,强调全社会的外部治理,通过法律规制和伦理引导十分关键,外部治理需要通过确立底线意识和倡导理想境界,实现外部治理目标。所谓底线意识,即人工智能时代,法律依然是人们一切行为的基本出发点,换句话说,法律是一切传播场景和传播行为总的游戏规则,它通过向人们传达一种明确的预期,帮助人们采取作为或不作为的正确选择。社会治理者虽然为应对数字化时代的到来,在法规的修订和重新制定方面作出了卓有成效的努力,但人工智能时代的到来必然会引发新的权利义务冲突。我们必须回应社会的这种现实关切,为寻找权利义务新的最佳平衡点尽早展开研究并获得科学的结论,从而为良好的社会治理提供有效的法规对策。所谓理想境界,即人工智能时代,无论是现实社会还是虚拟世界,我们需要去寻找建立和谐人际关系和理想社会场景的有效路径。大数据的深度挖掘,人工智能的广泛应用和算法的普遍推广,使新闻传播变成了所有人的生活方式,并从外在的生活行为和内在的价值取向层面产生着深刻影响。我们当然在全方位直观地体会着这种科技进步带给社会和个人的巨大推动作用,但是,阶层的冲突撕裂、价值观的矛盾冲突,或者,我们开始关注但尚未寻找到治理之策的信息茧房、群体极化、网络非理性非道德等行为依然在消解着这个社会的美好。基于这样一种宏观的社会背景,我们应该从具体微观的问题入手,回望历史,体察现实,努力寻找更加美好的未来世界。
人工智能时代的来到和5G商用元年的开启给传媒业开辟了一片广阔的天地,提供无限的发展可能。但是,与传媒技术快速进步相伴随的诸多不可预知性也让传媒变革面临伦理和法律的诸多不确定性。对此,以传媒业从业者为主的全体社会成员对此都必须有所预期并采取行动。(南京师范大学新闻与传播学院邹举副教授对本文形成也有贡献)
(载本刊201909月号,原标题为:人工智能时代传媒业的面向与进路)
【作者简介】顾理平,中国新闻史学会媒介法规与伦理研究委员会会长,南京师范大学新闻与传播学院教授,博士生导师


原文链接:https://mp.weixin.qq.com/s/KOEfBkNk8gHJHEA_NBYqrg



编辑:董莉

353#
 楼主| 发表于 2019-12-11 22:05:47 | 只看该作者
【案例】
邬贺铨院士:人工智能被推到了“近乎可怕”的高度,事实上仍处在很初级阶段

今天,财记君给大家推荐的是由人民大学出版社出版的新书《人工智能全球格局》。关于人工智能,这是一本非读不可的书,由国务院发展研究中心国际技术经济研究所、中国电子学会、智慧芽共同撰写,从源头上思考人工智能的本质和发展历程,全面解读各国政府、科技巨头的人工智能布局,理性思考、审慎看待我国的人工智能科技和产业实力,讲述了以科技创新领跑世界的中国故事,得到了中国工程院倪光南、邬贺铨两位院士的共同推荐以及百度CTO王海峰博士的盛赞。  本文系邬贺铨院士为《人工智能全球格局》一书所写的序言,经授权首发。  文末留言,财记君将从中选取8名读者送出这本纸质书,赠书由中国人民大学出版社提供。文|邬贺铨,中国工程院院士01
2016年以来,谷歌人工智能程序AlphaGo在围棋人机大战中先后战胜李世石和柯洁,沉寂了60年的人工智能一下子成为社会关注的焦点。人工智能技术成为当今科技热点,人工智能科技公司成为风险资本追逐的对象,包括中国在内的科技大国纷纷制定人工智能发展战略,可以说人类进入了人工智能的新时代。
而这一新时代的到来,离不开芯片、存储器、光纤、移动通信、超算和大数据等底层技术的突破。以过去十年的时间为基准,光纤通信容量提升了100倍,移动通信速率提升了1 000倍,超算能力提升了1 000倍,数据量提升了32倍。信息采集、传输和存储效率的提升,以及计算能力的迅猛发展,奠定了人工智能时代的基础。
以此为基础,深度学习算法实现突破,则是揭开人工智能新时代序幕的转折点。2006年,杰弗里·辛顿提出的深度置信网络,解决了深层神经网络的训练问题,一举开创人工智能发展的新局面。
02
在大数据、算力和算法三驾马车的拉动下,人工智能技术快速进步并已经在许多方面超越了人类。
在语音识别上,微软的语音交互识别系统错误率低至5.1%,百度的汉语识别系统准确率高达97%,都优于专业速记员;
在人脸识别上,中国依图科技在千万分之一误报下的识别准确率接近99%,连续多年获得美国国家标准技术局举办的人脸识别算法测试的冠军。
除此之外,人工智能可以做的事情还有很多,甚至可以颠覆科学技术的研究过程。
例如,谷歌DeepMind利用深度学习开发Alpha Fold程序,能够根据基因序列预测蛋白质的3D结构,有望治疗包括癌症在内的众多疾病。再如,美国斯坦福大学的科学家创建了一个人工智能程序,这个人工智能程序只用几小时就完成了元素周期表的重建。
2018年以来,人工智能发展进入快车道,很快就渗透到医疗、交通、金融、农业、工业等各个领域。就像18世纪的蒸汽机、19世纪的电力和20世纪的信息技术一样,人工智能具有足够大的技术辐射效应,能够为全球经济发展提供新的强劲引擎。
关于人工智能对经济效益的贡献,普华永道曾经做过预测,2017年到2030年人工智能对经济增长的贡献将超过全部GDP的55%,其中中国占全球将近一半,2030年人工智能会带来7万亿美元的GDP,占总GDP的26.1%,不可谓不大。
更重要的是,正如《人工智能全球格局:未来趋势与中国位势》一书所言,人工智能还会带来科学研究范式的革命,帮助人类破译生物、天文、物理等领域的奥秘,人工智能的想象空间巨大。
03
在很多人看来,人工智能技术似乎已经无所不能,更有一些观点认为人工智能会导致人类大批失业,甚至在不远的未来人工智能将会统治人类。
社会舆论的力量,已经将人工智能推到了“近乎可怕”的高度。但事实上,人工智能发展仍然处在很初级的阶段,需要解决的问题还有很多。
图灵奖得主朱迪亚·珀尔讲过,深度学习只是一种非常通用和强大的曲线拟合技术;诺贝尔经济学奖获得者托马斯·萨金特讲过,人工智能其实就是统计学,只不过用了一个华丽的辞藻。
与大脑相比,人工智能还存在“算法黑箱”、数据需求量大、抗噪性差、能耗高等许多不足,离真正全面应用还很远。
毫无疑问,人工智能已经成为世界各国竞争角逐的焦点,人工智能的发展水平是国家核心竞争力的重要体现。
《人工智能全球格局:未来趋势与中国位势》全面深入地描述了各国政府、科技巨头、风投机构和初创企业在人工智能领域的布局,也展现出了各机构、企业和个体对把握人工智能这一颠覆性技术、顺应智能时代潮流的决心。但就像前几次工业革命一样,人工智能的发展并不会一蹴而就,需要经过几代人的努力才会“遍地开花”。
在人工智能发展的热潮中,我们必须冷静、客观、审慎地看待它,更加认真地审视中国在人工智能产业中的实力。不妨扪心自问:人工智能相比传统模型的优势到底是什么?人工智能产业的核心技术有哪些?中国企业在人工智能基础算法上的投入和产出如何?回答不好这些问题,中国人工智能产业发展之路仍将困难重重,甚至在未来有可能丧失竞争优势。
《人工智能全球格局:未来趋势与中国位势》为我们提供了客观看待人工智能、认真审视自我的机会。
本书是站在热潮上的冷思考,以历史眼光和全球视野看待人工智能的过去与未来;
从大国博弈与企业争雄两个层面解读各国的人工智能战略以及企业在专利、人才等方面的布局;
从数据、算力、算法三方面展望人工智能技术的发展,从数据、技术、资本、智力和制度五个维度分析中国在人工智能技术与应用领域的优势及努力方向。


原文链接:https://mp.weixin.qq.com/s/xFhYgsajPBwfE9YljKghiw


编辑:董莉

354#
 楼主| 发表于 2019-12-12 21:35:18 | 只看该作者
【案例】
“湖心岛”隐喻:人工智能时代的算法伦理入侵

作者简介
柳亦博,行政学博士、博士后,山东师范大学公共管理学院讲师,从事行政哲学、国家治理研究。
人类正在将包括自身在内的一切事物数字化并纳入互联网,这是一个海量信息的生产过程,也是一个公共决策逐渐由人工智能(AI)接手的过程。今天,算法已经实现了自我生产,这使得AI能够广泛介入政治、商业、金融、医疗、交通、文化等多个领域并展现出超越性的预测精度和发展潜力。在可预见的未来,AI将从目前的狭义空间突破,“智能爆炸”[所谓“智能爆炸”是英国数学家欧文·古德在1965年提出的理论,他指的是机器无需人类的干预,自行设计和优化下一代智能机器。现在,这一过程可以通过探索-利用困境并能够提高自身适应度的“演化算法”来实现。(Intelligence explosion)将推动着人类迈入通用智能时代。这种进步要归功于算法赋予机器的学习能力,机器学习能够通过自我训练来主动优化算法,从而更高效的归类和抓取数据并形成一系列用以指导决策的价值排序。我们称这套人造智慧体所使用的自生价值排序规则为“算法伦理”,它是AI基于大数据的自我学习和优化的结果。“算法伦理”不是一般意义上的“机器伦理”,后者是被人设计出来预置在机器中的符合人类普遍伦理原则的程序(如自动取款机在用户多次错输密码后会暂时冻结银行卡)或装置(如手枪扳机上的保险),旨在预防和解决特定的道德困境;算法伦理则是机器学习自主形成的规则,它基于却未必服膺于人类伦理。仅从AI给出的最终建议来看,多数人无法理解它的决策理由,甚至连算法工程师也极有可能无法洞悉演化算法(evolutionary algorithm)和迁移学习(transfer learning)的“黑箱”,对算法伦理作出清晰地解释。然而,即便算法伦理令人费解,但并不妨碍现实中越来越多的人皈依它。因为,遵从传统道德时常意味着个体福祉的损失,但听从算法伦理的安排却将帮助个体获得看似更长期、更稳定的收益。如果我们将人类世界视为一个孤悬的“湖心岛”,迄今为止岛上孕育的所有伦理已经形成了一个完整的生态链,那么算法伦理极有可能成为一个切断生态链的外来生物。这个“入侵者”是如此危险而强大,以至于它将从本体论和认识论的双重意义上改变人看待自身存在的方式。政府应如何面对这样的未来图景,正是本文的核心关切。
一、湖心岛上的“入侵者”
如果人们在决策时,个人福祉并不是唯一需要考量的要素,那么“湖心岛”上现存的伦理能否抵御算法伦理的入侵呢?要回答这个问题,首先我们需要省思一下人类伦理的特征,以及让机器作出伦理决策的条件。人类的伦理世界存在一种“钟摆现象”,即一种伦理观会受到另一种几乎同样强力但相反的伦理观制约(如相对主义与绝对主义、效用论与义务论、德性论与契约论、决定论与自由意志论、利己主义与利他主义),它们在不同的时空趋避进退、起起伏伏,找寻对手弱点的同时修补自身缺陷,总体上呈现出一种纠缠-均衡的演进状态。尽管一直以来没有任何一方能够彻底击倒宿敌,但是它们各自的理论内核却因此变得更加稳定,一同构筑了现代伦理学多元价值的基石。不过,这个持续的纠缠-均衡态极有可能被打破,因为算法伦理戴着一副价值中立的“公正面具”,在大数据的帮助下,AI的预测精度越来越高,决策建议越来越私人化,其社会整体层面的“功利主义”(utilitarianism)伦理观(福祉加总的最大化)和个体层面的“精准歧视”(针对某个人而非某一群体的歧视)越来越隐蔽,但它带来的个人福祉提升(如节省大量的搜寻成本)却实实在在的显现了出来。

人们寄希望于“直觉主义伦理”可以守住人类伦理最后的阵地。因为,若道德是可以推理出来的,那么道德机器是可能的且它能够比人更快速地进行决策,同时它也隐含着这样一种陈旧的、磨损了的伦理观——道德是命令的结果,它是“被发明的”而不是“被发现的”。若道德不是推理出来的而是“自明的”,它只能靠人的直觉加以认识,那么在现行的智能发展方向上,机器无法自主进行道德决策。人们笃信机器不可能产生自由意志,即无法拥有理性反思能力的自主性和创造性的自我意识,所以机器不会具有直觉,也无法自主进行道德选择。即便AI能够作出符合伦理的决策,也是由于工程师预先写入了伦理规则或者机器以人的道德行为为范本进行的模仿。在理性高歌猛进了三个世纪后的今天,依靠“直觉”似乎听起来有些与现代性脱节。但事实上,直觉一直以来都是分析哲学的一大研究主题,在面对复杂紧迫的伦理两难问题时诉诸直觉是人类惯用的决策原则。当然,直觉也会陷入混乱,有时两种相反的选择在直觉上都是正确的,尤其是在“义务”与“自利”发生严重冲突而我们又不得不进行取舍的时候——这个问题在规范伦理学奠基人之一西季威克看来是“伦理学中最深刻的问题”。若我们必须在“自己的义务”与“更有利于自己”二者之间做出选择,那这个选择意味着人们认为“放弃其中一种行动在道德上更加不当”,它蕴含着我们最有理由以何种方式来行动,以及我是否期待生活在这样一个人人都如是行动的世界中的道德判断。但是不论如何选择,它都必须包含着人类的严肃思考,而不能以机器的计算来代替人的思考,即便机器的选择符合人类伦理,也不能以此成就“惰怠”与“不思”。

将“直觉”视为人超越机器的最后底牌意味着我们承认这样一个事实:存在着话语无法明确指涉的客观价值,即我们也许无法用语言表达出某件事错误的明确理由,但依然能感觉到这样做不对。然而,随着生命科学对人脑的理解不断深入,我们逐渐发现直觉主义伦理其实可以被视为一种由神经网络和各种激素促发的“生物算法”。直觉不是天然的存在于我们内心的道德律令,它并非什么自在的自明之物,而是一种由进化和繁衍压力镌刻在基因中的本能。既然是本能,也就无善恶之分。而且,直觉主义与语言的不洽给它带来了很强的自反性:一般来说,直觉作为人类无法言说的经验,因其难以用语言清晰指称才被人类描述为某种下意识。但是人类清晰的自我意识就发生在语言之中,只有语言是万能和通用的映射所有行为的形式,因而语言像货币一样是一般等价物,语言的界限就等于思想的界限。如果在直觉领域语言是苍白无力的,那么思想也无所依凭,又如何能以直觉主义伦理去抵御算法伦理呢?

作为计算机伦理学奠基人之一,穆尔对人工智能体能够成为一种伦理智能体(AMAs)持乐观的态度。穆尔将伦理智能体划分为四类:最底层的是“伦理效果”智能体,所有可以从其伦理效果上进行评估的机器都属于此,比如在卡塔尔用机器人代替人类小孩扮演比较危险的骆驼骑师角色;下一层是“隐含式伦理”智能体,这类机器的设计者在设计过程中倾尽人类智慧致力于提高其安全性和可靠性,避免负面的伦理影响;第三层是“显现式伦理”智能体,这类机器通过将伦理范畴作为内置程序进行伦理问题的推理,依靠用来代表责任和义务的“道义逻辑”或其他技术来实现;最高的一层是“完备伦理”智能体,它们可以做出清晰的道德判断,在一般情况下完全能够自主决策。不过从本体论角度来看,“伦理效果”和“隐含式伦理”都是可以通过人类的设计或预置某些规则来实现的,“显现式伦理”则是机器通过学习海量的文本,借助诸如“若-则”(if-then)规则进行道德推理来实现的,而“完备伦理”其实并不是由这三者中的任何一种进化或扩展而来的,它完全是人工道德体在另一条道路上发展的结果,而非计算科学的产物。对此穆尔也承认,虽然制造显现式伦理智能体存在艰难的挑战,但这应该成为机器伦理学这一新兴领域的目标。我们所指称的人工智能体与人工道德体,其实完全是两种智能范式发展下的产物,前者已经初步成形,而后者在现有技术路径下几乎无望问世。但是,如何让人工智能体具备“道德的要件”始终是科学必须予以回应的问题。若道德不是靠推理形成的,那么一个具备伦理能力的AI需要侦测并理解某一行为可能的伤害或对责任的疏失,并能够采取措施避免(至少是减低)那些伤害。一个自主系统要使伤害最小化,必须“知道”其行为可能的有害后果,并且必须根据其“知识”去选择行动,即使“知道”、“知识”这些术语只是在隐喻意义上用于机器。过去我们认为,没有自由意识的机器无法真正“知道”什么,不过,即便机器不知道某项决策的后果,它也可以借助对大量人类近似决策的学习来给出行动建议。最近,算法工程师们在使用神经网络方法理解人类文本中的词性标注、命名实体识别、句法分析和共指消解等方面取得了令人瞩目的突破,机器的阅读正在由逐句拆分走向通篇阅读。也就是说,计算机科学帮助AI在解决自然语言理解问题上一步步接近答案,并且,机器与人不同之处就在于它不会从文本中发展出两种相左的伦理彼此制衡。与此同时,生命科学却在不断解构人类的意识本质,让人类以所谓“自由意志”凌驾于万物之上的合法性变得越来越孱弱,渐渐无法盖住算法伦理日益高亢的声量。

一旦算法伦理在人类世界降临,将与一种外来生物入侵到相对隔离的生态环境中非常相近,在这个没有天敌的人类文明孤岛上,算法伦理将呈指数级增长。指数级增长的特征在于增长前期是一个相对缓慢的、具有迷惑性上升阶段,仿佛这种增长非常温和,不会造成什么威胁。但是,指数级增长同时也意味着在突破某一个阈值之后将出现爆发性增长,往往让人猝不及防。所以,在湖心岛上发生的可能是如下情景:人工智能基于计算逻辑和功利主义生成一种算法伦理,这种伦理可能在过去很长一段时期内都未能占领多少领域,在社会中只是一个被少数群体奉行的“高效但自私”的边缘伦理观。然而,一旦算法伦理的增长到达了某个节点,就会以势不可挡的态势在极短的时间内成为社会的主流伦理,成为使“伦理钟摆”戛然停下的一个楔子。众所周知,效率仅是社会应当追求的众多价值中的一种。公共管理中有一个持续了长达半个世纪的“沃尔多与西蒙之争”,其争议的一个焦点就是行政效率是不是价值中立的问题。沃尔多认为效率并不是行政的最重要的一个价值,政府的行动并不是仅在效率这一个维度上展开的,维持一种合意的公共伦理是它执政的合法性支柱之一。那么,在人工智能参与甚至很大程度上主导公共决策的时代,公共行政必须超越效率维度,给予算法一种价值框架的约束,使算法伦理与人类伦理能够至少站立在同一块基石上,无论这个基石是“正义”、“自由”、“平等”或其他的底线价值。对此,贝尔贝里希给出的答案是通过模拟学习人类道德范例,将人工智能的算法伦理与传统人类道德(如亚里士多德式伦理)结合起来,从而解决人工智能的价值校准难题(value alignment problem)。换言之,他的主张是让“湖心岛”上的其他生物尝试着与算法伦理这个外来物种交配,看看是否存在打破生殖隔离的可能。贝尔贝里希提出这种方案的逻辑基础在于算法不像人类一样有着对自我完善的无尽渴望,但是我们知道最初的算法是由工程师完成的,随后的机器学习范例也均是来自人类的道德文本,没有任何理由相信算法不具备自我改良的动机。

二、正义即最大期望?
人类文明的连续性有赖于对两种传统的继承:对文本的继承和对逻辑的继承。具体来说,继承文本能够帮助人们使用同一套概念体系进行对话,不至于出现鸡同鸭讲的窘境或者反复在原地打转;继承逻辑则有助于人们简化世界的复杂性,有效地规避风险。然而,在信息社会,我们对上面两个传统的继承遇到了某些挑战:因为机器学习的对象是人类的文本,所以算法继承了人类的概念系统,同时它抛弃了人类的逻辑体系,并由此反过来影响甚至颠覆了人类的传统,导致我们长期以来形成的行动逻辑(以及伦理)正在逐渐消隐。取而代之的则是一种基于算法的逻辑与伦理。从本质上看,算法是依靠统计学进行自我表达的,它的逻辑是功利主义,为了实现提高多数人的福祉,少数人被认为是可牺牲的。我们说AI的出现又激活了政治哲学、伦理学与行政学中许多沉寂半个世纪以上的理论,正是因为算法伦理对人类自由的一种无形控制导致了社会中人的“身份”与“义务”的不对称性,像一块巨石投入静谧的湖水中。从目前的发展趋势来看,算法伦理侵入公共生活并成为主流伦理将成为一个无可避免的事实,我们要避免AI用一种隐蔽的形式去促逼甚至奴役人类这种最糟糕的情况发生,人们首先想到的就是植入元伦理规则来规约算法。

但是,诸如阿西莫夫第一定律(要求机器不能杀戮或伤害人类)这种元规则能够及时矫正AI作出的有违伦理的决策吗?从理论和实践上两方面看,答案都是否定的。在理论层面,只要赋予了机器学习的能力,就意味着AI能够根据环境反馈对规则(包括元规则)进行持续调整,那么修改规则和插入零号定律都是可能的。所以,借助机器学习改进AI决策质量的代价就是它变得越来越难以控制。从实践来看,利用所谓预防原则,是不可能事先制止反伦理决策出现的,因为“红皇后假说”(The Red Queen hypothesis)的存在将导致使用伦理规则约束AI的国家陷入被淘汰的境地。只要一国率先进行了伦理松绑,以求研发自动开火的无人机,那么其他国家也不会拒绝这项技术,所有人都明白一个带着伦理锁链的AI绝无可能战胜一个身无束缚随时自主开火的AI。人类的战争伦理以保存生命为第一义,战争的终极目的在于止杀,但对于自动开火的机器而言,在达成目标之前不会止杀,即便在面对难以界定的试图投降的敌人时、有可能造成平民伤亡的附带损害时、开火会误伤友军时也会毫不犹豫地行动。

人类是一种具备行为惯性的动物,人脑的思维模式在面对高度复杂且时间紧迫的问题时倾向于使用的一种简化问题的思考方式。这种方式不因对象掌握知识量的多寡而改变,因为它是人类大脑共有的认知方法。比如,在急诊室里,受过良好教育的医生们在面对生死攸关的紧急情况时,由于可能出现多脏器同时衰竭的情况,没有任何一位主治医生可以完全掌握这么复杂的知识,所以医护人员们干脆听从人工智能的建议,现代很多医生已经习惯于不仅仅参考,而是直接在重症监护病房中采用诸如APACHE这类人工智能给出的治疗方案。一旦算法伦理成为了社会主流价值观,人将会变成什么?人停下了认识自身,交给了算法去认识我们,那么如果算法将人引向恶的彼岸,究竟由谁来承担这个错误的后果?无疑,被算法摆置的人是失去了自由的人,此时责任与伦理这个对称的结构也即被打破,也许我们找不到为恶行负责的主体,但是恶的成本却实实在在地加诸到社会身上,不会因为找不到惩戒对象而减轻分毫。

事实上,相对于算法伦理而言,仅对算法本身进行设计和修改是简单的,因为算法伦理具有更强的惰性,一旦形成就很难通过调整参数等方式去轻易修正。而且,算法伦理的兴盛将塑造一个机械性的、冰冷的社会,让生活在其中的人渐渐变成“非人”。我们可以通过下面的思想实验加以说明:煤矿发生了坍塌导致100名矿工被困,更糟糕的是,有毒气体正在坑道内迅速蔓延。在地表的营救小队通过无线电与被困人员取得了联系,已知所有工人都在一个井道中,矿井内有两个仍可工作的闸门,但是我们不知道矿工们究竟在两个井道中的哪一个。如果关闭闸门1,那么井道A将不会被毒气侵入,不久后全员可获救;同样的,若关闭闸门2则井道B不会被毒气侵入,不久后也可全员获救;如果同时关闭两道闸门,虽然毒气不会侵入,但在没有食物与水源的情况下,多数矿工将支撑不到救援人员挖通井道,90人会死于饥渴。基于现有的资料来看,矿工们在井道A和井道B的概率是一样的,无论关闭闸门1还是闸门2,都有一半机会救下所有人(即两种选择救下生命的期望值都是0.5),而同时关掉两扇闸门则意味着宣布了90名工人的死刑(即救下生命的期望值为0.1)。对于人类决策者而言,同时关闭两道闸门是首先被排除的,剩下的则是一次需要运气的对赌。从一种康德式(Kantian)的伦理观来看,即便赌错也不应多加苛责,因为行动的可责备性不取决于运气。面对同样的情境,AI会给出不同的方案,它的决策目标在于救援行动能够救下最大期望值的生命,那么它会立刻关闭两道闸门,然后让100名工人吃掉先死掉的工友尸体,支撑到救援人员到来,这样大约可以救下80人。AI通过建议矿工们同类相食,获得了拯救生命期望值最大的选择。

AI的决策遵守的是一种可被定义为“期望主义”的规则,即当某个选择的正当性取决于这个选择的效果或可能效果的善性时,那么应当做或努力做的事情是结果在期望上最好的那个。我们称某个行动是“在期望上最好的”(expectably-best),所指的并不是我们期望这个行动产生最好的结果,而是要综合考虑不同行动之结果的善性如何,以及我们在既定信念和现有证据下,这些行动具有这些效果的概率。然而,AI的决策总是倾向于仅仅“期望值最大”的那个选项。那么,这样选择有何不当吗?在这个思想实验中要证伪“正义即最大期望”从而说明人工智能的决策是不符合基本伦理的,就必须要回答“为什么AI作出的决策期望值最高但依旧是最可责备的”?我们依旧沿用帕菲特的道德分析框架,将道德上的可责备性划分为“事实相对”、“信念相对”和“证据相对”三个层面,只有在这三个意义上都不具有可责备性才能称某一行动为道德的。例如,用“针扎布偶”的方式诅咒别人是不道德的,因为虽然这样做并无实际伤害,但它在“信念相对”的层面上可责备;又如,护士做“心肺复苏”时不慎压断病患肋骨致其死亡是不道德的,虽然护士的初衷是为了救人且通常这样救治病患符合常规操作流程,但在“事实相对”的意义上这一行为可责备;再如,南方科技郝建奎的基因编辑是不道德的,因为他明知有更成熟、更安全的方式却不使用,为了个人名声而罔顾潜在的巨大基因风险,因此这一行为在“证据相对”和“信念相对”上都是可责备的。根据帕菲特的道德可责备性分析框架,可知救援队关闭闸门1或闸门2在“信念相对”的意义上不可责备,因为人们这样做的初衷是拯救所有矿工,在“证据相对”与“事实相对”的意义上也不可责备,因为证据显示关闭闸门后救人或害人的概率对等,而行动的可责备性不能(完全)取决于运气,因而关闭闸门1或闸门2在很大程度上不具道德可责备性。但是,如果救援队同时关闭两扇闸门,则意味着在“事实相对”和“证据相对”的意义上充分可责备,且在“信念相对”的意义上也具有很大的可责备性,因为这种决策在最初就已经决定了至少牺牲十分之九的矿工。所以,对于人类救援队而言,同时关闭闸门1和2是最具可责备性的行为。到此为止,我们的道德分析还是满足“正义即最大期望”原则,但是一切在AI进场后就改变了。

AI提供了一个救人期望值最大的方案,同时关闭闸门1和2,然后让矿工依靠吃掉同伴尸体来维生。首先,在“证据相对”的意义上,AI给出的救援方案并不具备可责备性,毕竟这样做虽然没有机会在“拯救全部矿工”的意义上做正当的事,但显然这是期望最大的应做之事,而且这个方案所能拯救的生命期望值(0.8)远超排名第二的方案(0.5)。然而,救援行动的目标不只在于拯救的生命数目,还在于这次行动向整个社会所传递出的价值观念,因此关于矿工们该如何选择牺牲者、那些依靠同类相食的方式存活下来的生命在何种意义上还能被称之为“人”,以及究竟是“拯救10个人”还是“拯救80个冷血动物”之间如何选择,这些都是与拯救更多生命同等重要的问题。基于此,AI的救援方案在“事实相对”的意义上无疑是道德可责备的。最后,在“信念相对”的意义上,在救援方案中预置了“同类相食”的必需环节,而不是当矿工们在走投无路的绝境中迫不得已而想出的求生之道。在伦理上,这无疑比“洞穴奇案”中四名被困的探险者们杀死罗杰·威特莫尔并吃掉其尸身以求生的行为更加不当。它向所有人清晰的传递了一种机械的、功利主义的计算伦理,为了多数人可以牺牲少数人,为了实现救援行动最终结果的期望值最大化,人跟其他可调用的资源一样是工具,最终拯救生命的数字才是目的。诚如伊格尔顿所言:“在某些情形下,人不可能全身而退。只要情况足够极端,每一种道德原则都将在接缝处解体”。对于人类而言,也许极端的情境会使所有的伦理规则都面临崩解,但算法伦理则无此虞,算法稳定地追求着“最大期望”。在向社会传递道德价值的意义上,人类普遍能够接受“并不是只有结果才是值得追求的”这一观点,因为有些行动本身即便未能达成好的结果也依然具有教化社会的道德价值,但算法关注的是结果而非过程,这也是学者们担忧AI技术将带来伦理危机的三大原因(主体性、自我同一性、功利主义)之一。

[backcolor=rgba(14, 203, 212, 0.992157)]三、扎紧保护围栏
哲学家李泽厚将道德定义为人类在具体时代背景下为了维持人类群体的存在而制定的共同行为方式或标准,进而他将道德区分为“宗教性道德”和“社会性道德”,前者源于后者但比后者更加严苛,常常以“天理、良心、上帝、理性”等符号显现。即是说,道德产生于历史层累而成的具体时代环境下,服务于社会集体而非个体利益,甚至有时会要求牺牲个人利益。尼采因此反对将伦理神圣化,在他看来,耻于自己的不道德只是人类漫长伦理阶梯的一级,而在阶梯的顶端人们将耻于自己的道德。一旦传统伦理被请下神坛,人们在情感上依旧需要其他事物来补缺,算法所生成的适应数字化时代的新伦理,无疑在人类文明的“湖心岛”上具有无与伦比的竞争优势。也许用不了多久,算法伦理就将加入到宗教性道德符号之中,成为一种维系社会人际关系的原则和准绳,AI向个人推送的信息也将渐渐由一种“建议”转变为一种“命令”。因为,隐藏在算法伦理中的斯坎伦式契约论(即每个人应当遵循无人能够合情理地予以拒绝的那些原则)以及规则功利主义(即根据规则本身带来的结果的善恶评判每个人)会要求所有人在相同情境中作出相同的行为。而与程序规则清晰、决策相对稳定的AI相比,人类决策系统的鲁棒性在整体上一直表现糟糕。生物算法之所以充满了不确定性,就是因为它时常会被各种各样临时插入的新条件所干扰,甚至新条件出现的顺序也会影响人类的最终决策。让我们再回到“矿井救援”的思想实验中对此加以说明。
如果必须有人牺牲才能拯救集体,那么在被困的矿工中,无人有权让他人去做普罗米修斯,因而至少要找到一种大家认同的选择20名牺牲者的方式。在不得不这样做的前提下,这20名作为“食物”的矿工应该如何产生将受到诸多复杂条件的影响,有些会左右人类的最终选择。比如,(a)若这20名矿工是经过随机抽签产生的,且全体矿工都事先认同了这种随机选择的方式,那么存活下来的80人在道德上具有更弱的可责备性吗?(b)若这20人是经过一番残酷的相互杀戮后率先死亡的,那么靠着他们的血肉活下来的80人在道德上更值得被责备吗?(c)若在这场杀戮中,怀特杀死了约翰,而约翰恰好是第20个死亡的矿工,理论上来说不需要再死人了,但约翰的弟弟杰克要为哥哥报仇,他让怀特成为了第21具尸体,那么约翰是否比其他78名矿工更不道德?(d)若矿工们商定所有人放弃暴力,等待前20个体弱的人自然死亡,再食用他们的尸体,这样做会更为社会所接受吗?(e)若有10个矿工不是因体弱率先死亡的,而是主动提出为了集体自愿牺牲,那么这10名义士难道不是更值得被优先拯救的人吗?(f)若矿工们通过电话联络外界,表达了希望公众在充分了解他们每个人的处境与背景之后进行全民公投,得票最少的20人成为牺牲者,那么剩下的80人是否是道德可责备的?

以上这些问题其实都是在原情境中插入或调整了一两个变量,但是却会极大的干扰甚至颠覆人的道德判断,然而算法伦理几乎不会受到上述条件的干扰或打断,因为从本质上看,算法伦理不会仇恨或同情某个人,它只是严格遵循规则功利主义而已。在一个数据用之不竭的时代,每个人时间的有限性就被放大了,为了帮助人们摆脱“挑剔的相亲者”问题困扰(即数学上的最优停止难题),算法在自我演化的方向上就只能朝着“效率”这个维度前行。高效的算法必然是基于统计学的,统计学服从数学逻辑,而世界上只有一种数学逻辑,算法工程师们是无法在算法中插入一套自创的“数学规则”的。稳定的基于数学逻辑的算法只可能是功利主义的,它会产生一种自己独特的因果论,即认为假如事件A发生,那么不是事件B,便是事件C或D必然接着发生。其中,发生事件B、C、D的概率则可以用统计学的方法进行计算。即使在事件A之后发生事件B的概率远比发生事件D的概率高很多,事件A的发生也无法排除事件D发生的可能性,因而机器在选择的时候才会对行动的“期望值”进行比较。但是,机器的这种因果论会对目前人类的道德、责任和自由观点造成冲击,当我们判断某个行动是否具有可责备性时,最主要的判断标准就是这个行动在道德信念相对的(而不是在行动结果的)意义上是否正当。一个人很有可能隐隐感到自己的道德信念存在某种偏差,但是他依然无法做去真正正当的事,正如他无法做一个完全理性的人,他只能去做在当时自己相信是正当的行动。

价值一元论认为表面上林林总总的价值在本质上是一致的或者统一的,算法伦理无疑是典型的一元论,在算法世界的判断体系中,就是通过赋值和添加标签完成的多元价值的归一,所归的“一”即数学逻辑。然而对于公共领域的决策者来说,人类价值体系中始终存在着许多相互独立、不可公度的终极价值,我们无法为多个终极价值作统一的优先性排序,因而当它们相互冲突时,人类就不可避免地陷入伦理两难,不得不“为着一些终极价值而牺牲另一些终极价值的需要”。这是人深刻的悲剧性所在,同时也是算法伦理比人类伦理反应更迅捷的主要原因,人工智能从不会陷入进退维谷的痛苦纠结,它在规则不够清晰的领域会基于数理逻辑主动创造规则以求得“最优解”,只不过这个“最优”未必是“最善”。从本质上讲,探讨伦理学的目的在于对何为正确行为作出判断,并给出这一判断所蕴含的关于人的品格或行为之道德与否的合理解释。对于人而言,在复杂的、两难的情况下快速作出道德判断是困难的,在各种情形下做何事正当是很难简单回答的问题。不过,一旦人类形成了自己的道德判断,再要让他解释这种判断的理由则相对容易得多。算法伦理恰恰与之相反,AI能很快作出道德判断,但要解释这种判断具备充分的伦理学依据则是困难的,尤其是对它的判断作出功利主义之外的辩护异常困难。即是说,人类的决策虽然伦理学基础更坚实,但对于复杂紧急的情况而言太过迟滞,算法伦理虽然决策迅捷但只满足效应主义伦理观。那么,最好的办法似乎就是结合两者的优长,由算法批量决策并归类,由人来负责事前审核和事后解释。这其中,最关键同时也最困难的无疑就是“审核”环节,它需要审核者能够在普遍意义上对何事更重要作出的价值排序。也就是说,在人类社会的道德体系中,伦理是有客观价值存在的,确实有些事情比其他事情更重要。

摆在公共部门面前的紧迫任务是在“湖心岛”上扎起两重围栏,第一重围栏旨在保护传统伦理,通过立法和监管等多种手段为人类伦理建立“保护区”;第二重围栏则是针对算法的,要在制度上限制赋予算法以一种“人的形象”出现。我们逐一进行解释这两重围栏的意义,首先看第一重围栏。通过前文论述我们知道,虽然短期内人类的伦理无法对抗算法伦理,但这并不是人类放弃希望的理由,人如果跟AI比计算能力和决策效率,那么很快就会被机器全面替代,进而导致现行法律与政策大规模修订,但人的优势在于抽象而非计算。因此,要使人在智能时代活得有意义,就必须保持人类社群充足的价值多样性,通过建立“伦理保护区”来为人类伦理的演化保留火种,而不是任由它们在与算法伦理的对抗中消亡。只有存活下来,才有可能在未来继续寻求与算法伦理能够共在共生而非彼此掣肘的可能。在此期间,我们需要等待算法伦理通过自我迭代,表现出某些能够与人类伦理相互结合的“特征”。当前,令AI发展出伦理特征的多数障碍其实来自人类伦理本身。比如,规范伦理学始终在苦寻“哪种规范是正确的”答案未果,反而在近代出现了元伦理学的不可知论的倾向,一些终极的价值在伦理上发生了分叉,这种分叉会导致机器在学习涉及规范伦理学的大量文本时陷入迷惘。我们需要通过调整算法学习的文本和实践案例,有意识的训练它成为具备伦理特征的机器,并将解锁伦理保护区“围栏”的密钥定义为四个基础性原则——“不伤害原则”、“行善原则”、“正义原则”和“自决原则”——只有当算法伦理同时拥有了这四把钥匙,才能向人类申请打开第一重围栏。

其次,我们来解释第二重围栏的意义。这个问题可以转变为:如果将算法放入一个人类外形的壳中,与它仅仅维持一个网络世界的虚体形象有何本质上的不同?事实上,一旦人工智能拥有了人形外观,它就从一个主体性的隐匿状态跃升为实在状态,它成为了具体的“人”,社会投射在其身上的诸种情感也就有了明确的指称和寄托。因此我们主张,不要让人工智能以一个具体的“人”的形象出现。从认知科学的角度来看,外形对人类的认知和理解一直具有极大的潜在影响,这也是为什么近年来业余的射击爱好者俱乐部不再适用“人形靶标”练习而是改用“环形靶标”,我们不希望射击爱好者在潜意识中认为他在瞄准一个“人”。因而,以机器人的形态出现的AI,可以被视为AI和人造生命(Artificial Life)分离的标志性事件,人们对待它既不像对待人一样,也无法像对待机器,因为这是一个会从自身经历中汲取新知的机器,而且我们几乎不能保证它是否学到了我们想让它学习的东西。泰格马克在《生命3.0》一书中总结了AI获得主体性之后可能带来的12种后果,包括:自由主义乌托邦、善意的独裁者、平等主义乌托邦、看门人、守护神、被奴役的神、征服者、后裔、动物园管理员、1984、逆转、自我毁灭。尽管泰格马克尽力向我们展示充满一个可能性的未来,但事实上,AI在未来所扮演的角色无非“士兵、伴侣、奴隶或神祗”四种,角色身份决定道德义务,这四种角色中的前三种是将AI视为欲望的出口而非合作的伙伴,最后一种角色则是算法伦理成为社会主流伦理并掌控了每个人的生活之后的必然。一旦算法伦理化身为一种宗教性道德符号,人类将陷入海德格尔曾警告过的“现代技术摆置人类命运”的境况中,在“技术陷架”的促逼和掌控下,人成为了提线木偶。因此,我们必须谨慎对待AI的主体性问题,不要急于赋予算法以“人形”或“人性”。毕竟,“人形”会令人对它另眼相看,而“人性”的贪婪则是真正危险的东西。让机器选出最经济的方案只需要给它数据与算法,而让机器心生怜悯、尊重或恐惧,则需要我们在完全不同的道路上摸索。在没有理解其本质之前,应该让算法停留在作为一种解蔽方式的现代技术的意义上,而非无节制的追逐它的所有应用可能。




编辑:董莉

355#
 楼主| 发表于 2019-12-12 21:37:07 | 只看该作者
【案例】
区块链技术协助社会治理现代化的创新机理分析

编者按:
10月24日,中共中央政治局就区块链技术发展现状和趋势进行第十八次集体学习会,习近平总书记指出,要探索利用区块链数据共享模式,实现政务数据跨部门、跨区域共同维护和利用,促进业务协同办理,深化“最多跑一次”改革,为人民群众带来更好的政务服务体验。过去一年来,阿里云研究中心持续关注区块链在政府数字化转型中的应用研究,本文整理自《区块链应用蓝皮书(2019)》中《区块链技术在社会治理的应用趋势与对策建议》。
1
从数字经济视角探讨区块链技术的本质
区块链技术定义了一种全新的“公开透明的数据存证”方式,是数字世界中数据记录、组织和传播方式的一种组合式创新。它像是数字世界里的一个“好会计”,利用分布式记账的机制,把大家的所有交易信息都清楚明白地记录到多份账本上,解决了数字世界里数据“篡改”如何追溯的难题。
区块链的本质是数字世界的的一种“生产关系”。如果使用社会生产的理论,在数字世界里,数据是劳动对象,计算力和算法是生产工具,互联网和移动互联网关系到数据的流转机制,就像是数字世界的生产关系。而区块链对生产关系的三要素做了更加清晰的定义。
以公有链为例,要素一:生产资料归谁所有?全网都拥有账本的数据;要素二:人们在生产中的地位和相互关系如何?每个参与者完全平等;要素三:产品如何分配?新产生的区块数据每人都有。有趣的是,公有链、联盟链和专有链也恰恰在生产关系的三要素上各有不同程度的定义。
02
区块链技术在政府领域的应用态势


区块链在政府领域的应用对区块链技术的未来有重要的先导性作用,未来区块链在政府领域应用仍然是区块链技术的重要应用的重要方向。从全球来看,欧洲各国政府目前对区块链应用尝试的热情最高,在欧洲45个国家和地区中,一共有22个国家采用或计划采用区块链技术。我国各地政府部门在司法存证、电子发票、扶贫、公益等区块链应用的创新走在世界的前列。相比区块链的行业应用,尽管区块链在政府的应用尚处于起步阶段,但是进展很快,并且应用方的价值认可程度相对较高。
在司法领域,区块链技术帮助司法存证实现全流程记录、全链路可信、链上取证和在线审理,高效解决纠纷。2018年9月,蚂蚁金服与杭州互联网法院联手打造了全国首家用区块链技术协助判案的司法存证平台。2019年5月,上海、浙江、江苏、安徽四地法院引入蚂蚁区块链技术,成立长三角司法链,推动长三角司法一体化。
在民生服务领域,区块链医疗票据和区块链发票能够提高报销效率。2018年8月,蚂蚁区块链在浙江台州开通了基于区块链的电子医疗票据服务,让患者可以通过支付宝来查询和下载电子医疗票据并直接用于保险理赔或医保报销。该平台连接了医院、保险公司、当地政府部门以及患者,让患者的报销不在繁琐。此外,蚂蚁区块链已与广州税局合作上线了区块链电子发票项目,并在停车场、餐饮等场所落地,目前上链的电子发票总量超过1亿张。
在公益领域,区块链技术可以帮助捐赠人建立信任,督促捐赠资金的合规使用。2016年下半年开始,蚂蚁金服便联合多家公益基金会上线区块链公益项目试点,捐款人可以追踪善款从个人支付宝账户到基金会、公益执行机构直至受益人账户的完整流转情况。
03
区块链技术协助社会治理现代化的创新机理分析
数字经济时代需要新的治理理念,在工业时代,要通过流程化管理提高大家协作效率,在数字经济时代,能够让数据在组织内部、在国家内部甚至跨国界的流通起来,才能够让数据发挥更多的价值。没有区块链之前,没有数据治理手段,数据在无序传播,但是有了区块链之后,流转过程可追溯,方便共享。区块链会成为未来数字经济时代治理的重要基础设施,数据规则可以通过区块链进行数据治理。
区块链技术与构建我国现代化社会治理格局具有天然的互补性。党的十九大报告提出,建设现代化的社会治理能力需要构建“共治、共建、共享”的社会治理新格局。区块链技术本身恰恰是在数字世界里,围绕数据的记录,组织和传播的一种共建、共享、共治的新技术。以公有链为例,区块链上的数据由各方共同产生,验证计算和记录也有各方共同完成,这就是共建和共享;各方按照代码约定规则在不需要人为干预的前提下,系统实现健康发展,这就是共治。从这个角度来看,区块链将是现代化治理构建中可以依靠的一项关键技术。
从创新机理上来看,区块链技术服务社会治理能力的创新方向分为简政放权、权威发布、信用社会三个方面。
(1)组织扁平化与实现简政放权政府部门内部的架构和文化是一种典型的科层制金字塔式组织,组织内部将耗费大量的成本来进行沟通和协调,并且跨部门多团队的协作又变得非常困难。随着更多互联网的技术和软件在企业和政府部门应用,金字塔式组织结构向扁平化组织演进的趋势日益明显。
比特币成功构建了一种分布式自治组织结构(DAO),将组织的管理权下放到“智能合约”,完成每一个成员的自组织协作。区块链从最初的“去中心化”正在演变成“多中心”自治的架构。多中心的分权治理体系,有助于构建以行业协会等多角色为主体的自治组织权利运行新模式。
如果政府部门的部分权力运行依托区块链技术,相当于信用背书的部分职能从政府具体的人员剥离,将权力归还制度和规则。例如,对于基于明确和显性规则的监管和审批,审核人员的个人“审批”和“盖章”行为就可以通过区块链的自动运行来替代,从而实现简政放权。好处是公务员和行政人员的审批决策与腐败风险可以转移到区块链技术,风险是对政府的权力运行机制、对现有行政人员分工会造成冲击。
(2)信息传达与权威信息发布区块链的跨层级和点对多点的信息传递方式,是一种信息高效传递的革命。传统信息的分层传递,存在时间的滞后性以及信息传达断层的不可控风险等问题。
在政府组织内部,基于区块链构建的信息传递网络,信息可以非常快速的非常可信(不可随意篡改)地发送给在链上的每一个行政人员群体,阅读行为可以上链,实现精准送达。针对不同层级的不同权限的人员可以构建不同的区块链发布网络。
在政府组织外部,对于面向公众的官方信息的权威发布,基于区块链构建的信息传递网络,可以实现对链上的可信媒体的转载、修改的动作的全流程追溯。通过这样的信息传递区块链平台,对发布出去的内容可以清晰地掌控信息转载去向和阅读情况,让触达公众的信息更加快速和可信。
(3)信息管理与构建信用社会区块链技术带来了一种信息记录和传播方式的一种变革。如果不同的相关方将个人的信用信息记录到区块链上,每一条信用信息都可以追溯到记录方,同一条信息被某一机构更新之后,直接同步到整个网络中,记录的数据更可信。加入这个信用区块链的征信公司,一方面可以在链上共享信息,一方面又可以从链上获得到最新的信息。
通过区块链进行信用的数据管理,这样就尽可能多地将一个人散落到各个角落的碎片化信用信息多方归集起来,信用信息的来源不在局限在某几个机构,来源更加民主化。这样对于重要失信行为就能够第一时间推送到链上的征信机构,构建起更加具有威慑力的社会级信用基础设施。
利用区块链技术构建完善的线上信用体系与线下违背信用的追溯与惩罚机制,可以显著减少社会治理总成本。因此,区块链技术将对构建现代化“共治”的社会治理环境具有极其重要的意义。
结语:区块链技术对于社会治理而言,既带来了新的变革机会,也孕育着新的监管挑战,如何在二者的平衡中让技术最大程度地造福社会,才是区块链治理的成功所在。相信区块链经过第一次泡沫期后,已经开启了脱虚向实、与实体经济深度融合的发展阶段,区块链在社会治理中一定会涌现出更多的创新应用,对于区块链的监管和治理能力也将提升和变革,让区块链技术更加健康地发展。
作者:杨军 阿里云智能研究中心战略总监
原文链接:https://mp.weixin.qq.com/s/430Xlo6lXV4YeXRSNzt_NA


编辑:董莉

356#
 楼主| 发表于 2019-12-12 21:41:48 | 只看该作者
【案例】
谢耘:“智能革命”对“工业革命”的超越——宏观大潮、中观趋势与微观困镜

本篇文章是根据谢耘博士2019年12月5日在国家商务部投资促进局电子信息产业投资促进工作委员会2019年度会议上的发言整理而成。
小影推荐:大家一定要看本篇文章第六章节哦,真的是妙语连珠呀,“上不去的尴尬和下不来的虚荣”、“顶天立地,这说法的次序反了,应该是立地才能顶天,否则就会像断了线的气球”、“捷径是世间最漫长的路,甚至是没有终点的歧途”等等。另外,淘宝直播一姐“薇娅”的故事,怎么会出现在这篇文章当中,值得你一探究竟哦。
废话不多说,大家准备好了吗?那就一气呵成地看完这篇文章吧~~~
【目录】
一.人类首次拥有的意识性的智能化技术与工具
二.前所未有的“智能革命”而非“第X次工业革命”
三.  “外意识”的三种基本存在形态
四.  外意识的“能”与“不能”
五.  四个系统性“中观”层面的重要趋势
六.  立地才能顶天:上不去的尴尬与下不来的虚荣

大家好,很荣幸有机会来这里与大家分享一下我对于信息技术产业的本质与未来发展的一些看法。刚才杨所长(赛迪智库中小企业研究所所长杨东日)对我的美言给我很大压力,不知道我讲的内容是否确实会对大家有点帮助。
杨振宁在一篇纪念爱因斯坦的文章里引用过数学家怀特海的一句话:“非常接近真理和真正懂得它的意义是两回事。”确实,对很多我们非常熟悉的事情,其实我们并没有真正懂得其意义。“熟悉”不等于“理解”(有兴趣的朋友可以参看微信“慧影Cydow”公众号中《“知道”与“真正理解”之间的距离有有多么遥远?一文,2019年7月2日)。今天我讲的是我对信息技术产业本质的理解,会与目前很多国际国内主流的看法相违,当然我的这些理解也不一定对,是我个人在具体工作实践中的一些认识,希望能够反映产业的一些本质特征,分享出来供大家参考。
一、人类首次拥有的意识性的智能化技术与工具
到工业革命为止,人类历史上创造与使用的工具基本都是物质性工具,即使用工具都是为了达到物质性的目的。我们最早用的是石器,后来有了金属工具。到工业革命,这些物质性工具具有了动力。所以工业革命的本质在于对动力的大规模使用,是人类历史上的一次动力革命,让物质性工具发生了质变。
那么以计算机为核心的信息技术呢?也是物质性工具吗?显然不是。现代电子计算机是按照人类设定的程序,对数字化的信息做逻辑数字处理运算。它的直接作用不是去达到物质性的目的而是意识性目的。对数字化的信息做逻辑数字处理运算,本质上是一种意识活动。因为信息不是物质,它既是意识的产物,也是人类意识活动的基本要素。
国际国内有一个流行的说法,包括在科技界,都认为这个物质世界是由物质(质量)、能量及信息三个独立要素构成的。我认为这个观点是错误的。我们所说的“信息”是人对所认识对象的一种描述,而不是物质世界自身的构成要素。脱离了人,就没有信息。所以说信息是人类意识的产物。同时人的理性与感性的意识活动,都是基于信息的。我们看到美女帅哥会想入非非,因为我们获取了对方相应的信息,才会产生这种感性的意识活动。理性的意识活动就更不用说了,也是以信息为基本要素展开的。
所以,计算机按照人设定的程序对数字化信息做各种处理,本质上也是一种意识性的活动。但是这种意识性活动是脱离了人的大脑的,所以我称之为人的“外意识”,以便与人脑的内部意识活动相对应。而意识性的活动,都应该属于“智能”的范畴,所以以计算机为核心的信息技术在其诞生伊始在本质上就是一种意识性的智能化工具,而不是“人工智能”相关技术出现之后才“智能化”的。我们不能认为有了所谓的“人工智能”,计算机应用才是“智能”应用的,这种理解偏离了信息技术的本质。
关于上述分析详见微信“慧影Cydow”公众号中信息技术的智能本质与人类的外意识一文,2019年5月9日。
图一  信息技术应用是人类的外意识
所以,以计算机为核心的信息技术,使人类历史性地第一次拥有了意识性的工具。它的作用与意义完全不同与之前的各种物质性工具。
二、前所未有的“智能革命”与而非“第X次工业革命”
我们把蒸汽机的出现称之为第一次工业革命。这是人类第一次大规模开始利用自然能源。后来电磁学的出现,引发了二次能源电力的应用,这个被称之为第二次工业革命。电力的应用,让人类对能源的利用极大地突破了时空的限制,人类物质性工具有了进一步的发展。所谓“第三次工业革命”原来是指核能的利用。这是沿着物质性的能源利用与发展的逻辑一脉相承下来的。但是后来人们发现核能虽然是一次技术革命,但是对于社会却没有起到革命性的推动作用。不知道什么时候有人玩儿了一个偷梁换柱的把戏,将计算机的出现称之为了“第三次工业革命”,而违背了历史赋予给“工业革命”的原本含义。
如果我们认为计算机的出现对于人类社会确实是一场革命的话,按照前面的分析,因为它是意识性的工具而不是物质性的工具,这场革命不应该划归物质性能源革命的逻辑之中,而应该是一场在工业革命基础上、人类文明的新一场革命。所以不论是从实质内涵上还是从影响的深度与广度上,我们应该认为计算机的出现,是人类历史上前所未有的“智能革命”而非是继蒸汽机与电力之后的“第三次工业革命”。这场“智能革命”的开创性意义及引发的人类社会的质变,在人类文明史上足以与蒸汽机开创的、对物质性能源利用的“工业革命”相映成辉,而不是从属于“工业革命”范畴内的某一次工业革命。
到最近,“第四次工业革命”的说法又盛行全球,有人说第四次工业革命包括了人工智能、新材料、生命科学等等内容,莫衷一是。毫无疑问,人类技术与社会正在经历一个新的蓬勃发展时期,在众多的技术与社会领域我们不断能够看到新的突破(科学原理层面的另当别论,从上个世纪60年代后就基本停滞了)。如果我们静下心来深入地分析这些进展,就会发现在背后推动这些领域快速发展的核心力量,几乎都是信息技术。科技日报刊曾登了系列文章,讲述信息技术(人工智能)在各个领域发展中所表现出的推动作用。
图二  信息技术全面推动社会的革命性发展
追根寻源我们就不难发现,今天我们感受到的技术与社会层面全面爆发的革命性变化,正是以计算机为核心的信息技术推动的结果。我们正在经历人类历史上前所未有的一场智能革命,而它的开端便是上个世纪40年代现代电子计算机的诞生。这场革命因集成电路技术在2010年跨越了关键的节点、让人类拥有了“暴力计算”能力,使得计算能力不再成为绝大多数应用场景的瓶颈,而开始全面展开。
这就是我们正在经历的波澜壮阔的历史画卷,它的画笔便是意识性的智能化信息技术,它的卷名便是“智能革命”(有兴趣的朋友可以阅读书籍《智能化未来—“暴力计算”开创的奇迹》,谢耘著,机械工业出版社2017年)。

三、“外意识”的三种基本存在形态
信息技术的应用,作为人的外意识,有三种基本的存在形态或称应用类型。
第一种应用类型也是现代电子计算机诞生伊始便起的作用,就是辅助强化人的智能活动。计算机从一开始就是作为计算工具,来完成人类难以承担的计算任务。这就是在辅助强化人的智能活动。在此基础上,后来演化出了各种“CAX”(计算机辅助X)的应用,比如CAD(计算机辅助设计),CAE(计算机辅助工程)等等,都是利用计算机的特长,来辅助强化人的智能活动,或者说在人类的内意识的主导下,人类将自己的内意识与外意识有机地整合在一起去完成特定任务,让人类的意识性活动能力在诸多方面都大大超越了原生的、仅仅基于生理的大脑内意识的能力局限。
信息技术的第二种应用类型,则不在于辅助强化人的智能活动,而是利用人类特定意识的外化,来完成原本可能由人的内意识完成的工作。这就是现在各种不同类型的信息技术的信息类应用,它们包括了从传统的办公自动化到各种互联网服务。它们属于智能化信息类应用系统,是人类外意识的自主活动,以达到解放人的大脑的目的,而不是为了辅助强化人的大脑。因为借助了计算机这个工具,这类应用超越了人类大脑自身的许多局限,比如易疲劳,易出错,记忆能力有限等等,持续不断地拓展人类意识活动的有效边界,由外意识承担着许多人类大脑实际上难以完成或无法完成的任务。
信息技术应用的第三种应用类型,是将人类的外意识植入到不同的物质性的工具当中,将物质性工具“智能化”。或者说给原本被动的物质性工具植入了一个能动性“灵魂”,让物质性工具具有了一定的能动性,甚至在有些情况下可以独立自主地完成不同的任务。传统上各种信息技术的嵌入式应用也属于这个类型。
从上面三个方面我们可以清晰地看出,以计算机为核心的信息技术完全不同于历史上人类创造出来的物质性工具。所以把它纳入“工业革命”的范畴是一种根本性错误。它所具有的颠覆性作用,远远超越了工业文明的语言框架。它让人类的一些意识活动挣脱了肉体的约束而外化出来,在极大地补充增强了人类大脑原生功能的同时,还渗透到了社会的各个领域自主地发挥着作用,从而导致人类社会这个在人类意识主导下创造出来的实体的所有方面,从科学技术、精神文化到物质生产等等方面,都发生着空前的变化。人类社会正在进入到一个全面智能化的新阶段。
四、外意识的“能”与“不能”
当前,人们既有夸大信息技术潜力的一面,又有低估它的颠覆性作用的一面。我们将信息技术应用—外意识,与人的智能/意识的关系简化为图三。
图三  外意识与人的智能
在图三中我们可以看到,两者重叠的那部分,也就是信息技术替代人脑所作的那些事情,基本就是我们今天所说的“人工智能”的范畴。那么外意识最终会完全覆盖人的智能吗?许多人信誓旦旦宣称这一天正在到来或者将会到来。其实如果我们尊重科学的逻辑、方法与事实的话,这个结论是不能成立的。作此结论的人基本出于三种非科技的原因:个人信念、文学想象或蛊惑他人。对此的严格分析论证详见微信“慧影Cydow”公众号中《人工智能“修炼成精”还是遥遥无期的梦想》一文,2019年5月9日。
在图三中我们同时能够看出,“外意识”所覆盖的范围将远远超过人的智能所能覆盖的范围。也就是说,“外意识”会在众多的领域超越人的智能。这与上面的结论并不矛盾。而我们常常又低估了外意识这个特征的影响,而将注意力都集中在了在外意识中只占很小比例的“人工智能”那部分。
人类创造工具,固然首先是为了替代人的劳动,从蒸汽机到计算机的诞生都不离这个初衷。但是初衷并不是未来的一切,甚至不是未来中最重要的。从总体上看,人类创造的工具所发挥出的作用,是大大超越人类创造它的初衷的。就物质性工具来说,汽车是替代人的运载工具,但是人类并没有停止于汽车,不仅造出了飞机,而且更有运载火箭。运载火箭的作用,就完全不是替代人的问题了,因为无论多少人花多少时间都无法完成运载火箭所能完成的工作。所以,工具的意义不是仅仅在于对于人力的替代,而是更在于开创人类完全力所不及的全新可能。物质性工具是这样,意识性的智能化信息技术工具也必然如此。
图四  工具对人类的影响更在于开拓全新的可能
所以,我们不应该仅仅关注信息技术对人的替代作用,如人工智能等,我们更应该关注信息技术将要开创的、超出我们今天想象的全新可能。增量总是会远远大于存量,特别是在如“智能革命”这样历史新的画卷中。
因为超出我们的想象,所以我们不可能靠历史的经验去逻辑推演出完整的未来。我们只能推测与描绘未来可能的一些方向,以帮助我们用创造去书写为来。
五、四个系统性“中观”层面的重要趋
天翻地覆的变化,都来源于基础层面的突破。工业革命极大地强化了人类在物质世界中的行动能力而改变了人类历史,让人类文明从农耕文明进化到了工业文明;智能革命则在更加基本的层面颠覆着人类社会:它创造了一个独立于物质世界、又与物质世界交织在一起的纯虚拟世界,让人类的生存空间从单纯的物质空间而进化为物质/虚拟双重复合空间,推动人类文明从物质性的工业文明跨入了智能化的信息文明阶段。这个虚拟世界完全是人类意识的自由创造,人类的“外意识”活动于其中,并与人的大脑意识活动及物质世界发生相互作用。
构成虚拟世界的基础是物质世界中的对象与关系在虚拟世界中的映射(虚拟映像),然后便是在此基础上人类意识几乎无边界条件的自由发挥与创造。由于几乎没有物质世界中物质运动规律的约束,这些发挥与创造将使得虚拟世界的结构远比物质世界要复杂“混乱”。扮演“上帝”去创造一个虚拟世界带来的不一定都是合理与美妙。
图五  信息文明阶段人类生存于物质/虚拟复合空间
从这个角度来看,外意识/信息技术应用又可以分为另外三种情况,第一种是嵌入物质世界,以传统嵌入式应用为代表,包括现在的各种机器人;第二种是连接物质世界与虚拟世界的应用,电商就是这类应用的典型;第三种是纯虚拟世界中的应用,区块链就是纯虚拟世界中的一个封闭系统,这些年兴起的“电竞”也属于这类应用。
由于基本生存空间的根本性变化,未来信息技术应用的前景会完全超出我们的想象,特别是在虚拟世界中以及连接虚拟与物质世界的应用。虚拟世界由于几乎没有物理定律的限制,成为了人类意识几乎自由创造的场所,人类的意识会天马行空到什么地步是今天我们无法想象的,哪怕是那些科幻作家。这一变化带来的挑战详见微信“慧影Cydow”公众号中《信息文明:虚拟世界的形成与“自由”的挑战一文,2017年7月21日。
虽然未来无法完全推断,但是还是可以窥探到一些端倪以为指引。看清趋势还是很重要的。看清趋势才能把握好细节。就像前面嘉宾谈的中美贸易摩擦的事情,其实应该放到由于信息文明的到来,在工业文明时期西方形成的全球霸权已经到了尾声这个大趋势中来分析与理解。西方霸权正在进入尾声,也是法国总统马克龙的看法。美国现在对中国所做的,不仅仅是两国的问题,而是西方霸权退出历史舞台的最后的挣扎。下面就根据我自己这些年做一线技术工作的经验,对不太远期的发展趋势谈一点中观层面的看法。
首先,我们应该高度重视系统级的创新,而不是仅仅局限在局部技术上。当然这不是说局部的技术不重要,但是系统级的变化往往更具颠覆性。还以物质性工具为例,活塞发动机与喷气发动机在科学原理(都是将化学能变成热能,再将热能变成机械能)以及基本材料等局部技术上并没有本质差异(至少在喷气发动机诞生之初)。但是它们的系统原理完全不同,便具有了极不相同的意义,喷气发动机彻底改变了人类的航空工业。在系统论中,有一个基本的原理就是整体大于部分之和—系统设计不同,同样的部件组合在一起可以发挥出极不相同的作用。系统是改变世界的最核心动力之一。美国的领先很重要的是在于系统构建方面的领先,而日本的工匠精神再出色,也无法填补它在系统创新上的不足,只能扮演一个出色的跟随者的角色。
近些年的一个热门区块链,本质上也是系统级的创新。不幸的是很多人把它当成了一个具体的单项技术来看。区块链的特质是由其系统层面运行的机制决定的,而不是它采用的那些成熟的局部技术决定的。详见微信“慧影Cydow”公众号中“区块链很神奇,区块链很难用”视频,2018年6月11日,及《“区块链”启示:用系统级创新去开疆拓土》一文,2018年4月2日。
那么从系统的角度看未来,我觉得有四个重要的中观趋势值得重视。当然这仅仅是基于我个人的经验而来,仅供大家参考。
1. 服务的融合化:信息产业由于基础技术—计算、存储与通信,经过几十年的发展已经不再是应用的瓶颈,所以信息技术的应用由解决局部问题而进入到了解决综合性问题的阶段。这种综合既是更大时空范围内的整合,也是跨多专业领域的整合。形象地讲,就是信息技术应用从解决“点”(如科学计算)与“线”(如业务流程)的问题进入到解决“面”的问题的阶段。在这个阶段,构建跨时空、特别跨多专业领域的“融合化服务”成为了一个主战场。构建这种服务,有两个维度的基点。一个是从“主题”出发,如旅游、健康、教育、制造等;一个是从“主体”出发,如个人,组织、城市等。不同的角度构建的融合服务需要整合的专业领域会有所不同。
这些年兴起的“产业互联网”就是针对制造业主题的、整合了多种相关专业价值环节的融合服务平台。下图是我设计的区域旅游的融合服务平台的示意。从图中可以看到,它不仅整合了不同专业领域与旅游相关的服务,而且也同时向不同类型的对象提供个性化的服务。

图六  区域旅游融合服务平台这种融合的平台并不是简单的系统集成,而是要对一个“主题”有着深入的分析及建模,并且在技术上要实现绕主题从数据到业务到服务呈现等不同层面跨专业领域的智能化融合。这里有大量原创的空间及新的核心技术需求。图七是我设计的以“城市虚拟映像”为基础的智慧城市融合服务系统示意。这种以“主体”为基础的融合服务系统就更加复杂,主体的建模与服务的融合都是跨多领域主题的。

图七  以“城市虚拟映像”为基础的智慧城市融合服务系统这种融合服务平台将带来不同专业领域的交叉融合及价值重构。在今天还一味地强调“杀手应用”等观念,是思维还停留在过去信息技术基础能力严重不足的时代的表现。对于融合服务的分析详见微信“慧影Cydow”公众号中《以主体虚拟映像构架新型智能融合应用体系》,2017年5月2日。2. 专业工具/服务的大众化/消费化:智能化的信息技术的广泛应用,使得人类许多的与普通人直接相关的专业工具/服务的使用获取变得简单易行。从而不断地让越来越多的专业工具/服务走向大众化与消费化。一个典型的场景就是在旅游景点,我们可以不再需要专业人工导游而租用一个智能导游机带我们漫步于景点中,如果去国外游玩则连专业人工翻译都不再需要。受此影响,一个将要发生重大变化的领域就是家庭健康。我们最传统的家庭健康检测设备是体温计。后来由于信息技术的发展,智能化的血压计取代水银机械产品而成为了消费品,全面进入了家庭。现在不断有更多的健康检测设备消费化而努力地挤进我们的家庭空间。那么未来家庭健康检测就是这些零碎的设备的堆砌吗?显然不会。未来会出现家庭健康检测综合系统,将这些检测手段综合在一起提供实时健康检测。下图是一个系统的框架示意。

图八  未来家庭健康检测平台示意随着专业工具/服务的不断大众化与消费化,这些领域将面临价值链重构的重大变革。这是一个涉及众多专业领域、极为广阔的市场。也是人类通过“外意识”为物质性工具注入“活”的“灵魂”的主战场之一。3. 中心化与个性化的统一:智能化的信息技术对传统生产/服务方式的一个颠覆,便是几乎彻底消除了集约化生产与个性化定制之间、规模效益与差异服务之间曾经不可调和的矛盾。传统的规模化生产都是“刚性”整齐划一的,而智能化信息技术的应用使得生产线变得具有了弹性,出现了“柔性”生产线,可以容纳不同个性化的产品。同时,网络化的信息技术对时空的超越,也导致了巨大的聚集效应。两者互动,造成了各个领域中心化趋势不断加强,而同时个性化催生了百花齐放。领域的中心化趋势首先毫无置疑地体现在了信息技术产业自身结构及其提供的服务形态的中心化。而中心化与个性化统一的最鲜明的例证便是巨型电商平台的出现以及在平台上应有尽有的产品与服务。自人类走出愚昧踏上文明的旅程,技术的进步就在持续不断地推动社会的中心化进程,这背后的最基本的逻辑就是文明是人类基于意识自觉性,以集体的方式求生存谋发展的存在形态,人类文明的进步就是组织性不断强化的过程。人类的文明进程,是人类的组织形态不断提升发展的过程。而不论在自然界还是在人类社会,复杂的组织必然是有中心的系统,组织向复杂演进的过程也是中心不断形成与强化的过程。近年来由于分布式运行的区块链技术的出现,导致很多人把它所具有的技术实现层面的分布式特征虚化为社会“去中心化”的政治理念,并声称这代表了人类社会未来的发展趋势。追根寻源我们不难发现,这种论调来源于西方根深蒂固的自由主义信仰。正是这种根深蒂固的对个体绝对自由的迷恋,导致西方的大本营欧洲至今仍是散沙一滩,欧盟只是一个多国俱乐部。一片散沙的欧洲在当今大国博弈中,总是力不从心,扮演着被大国挟持的苟且角色。虽经百千年的挣扎,欧洲统一的梦想始终遥不可及。这个梦想最近受到的一系列致命打击便来自它的后裔美洲的那个大国。自己统一不成,难免就会期待其它大国走向分裂。不论区块链未来演化出什么样的应用,认为去中心化是人类社会发展的一个重要趋势的论调,都只能是迷恋个体绝对自由的那些小知识分子的黄粱美梦,抑或是别有用心之人的蛊惑,是对人类文明进程的反动,违背人类文明发展的基本客观事实。在智能化信息技术推动下的中心化与个性化的统一,将给众多产业/领域带来颠覆性的变化。信息技术产业已经首当其冲,其它产业/领域也必将别无选择。不会太久,我们每个人的衣服将可以上网直接定制,而且价格会更加便宜。因为集约的定制化生产将去除大规模标准化制造带来的大量无效库存成本。到那个时候,中国可能只需要几个大型的服装智能加工中心就能满足十几亿人的需求,而大量的服装品牌企业只需负责花样繁多的个性化设计。这种产业模式在极大地提升效率的同时,又能充分满足个性化需求。4. 个体地位与组织地位并重:工业文明社会,是一个由各种组织主宰的结构。组织是社会的核心构成单元,而个人基本都是依附于某一个组织,否则难以生存。这是一个“组织独裁”的社会结构。在这种社会结构中,信息技术系统的建设也几乎都是从组织的角度出发的。信息技术产业孕育诞生于工业社会,所以信息技术应用也深深地打上了的“组织性”烙印。时至今日,中国许多信息技术企业还是觉“2B”的业务更好做,根本原因也在于此。但是,历史正在翻页。这场智能革命正在推动人类跨入智能化的信息文明,工业文明的社会形态正在被解构。由于智能革命导致的人类工作方式的变化、新的产业形态的出现等变故,工业文明里的中坚“组织”的特征在深刻地改变—“外包”、兼职、远程办公等使得组织的边界开始模糊化,结果是组织对个体的刚性束缚悄然松绑。个体与组织的关系变得动态而弹性,而且也不再是简单的一对一的关系。由此独立个体的人正在逐步成为构成社会的核心基础结构之一,而在重要性上与“组织”平起平坐。这个变化是人类社会基本结构的重大调整,会在众多领域带来巨大的发展机遇。在这个背景下,信息应用也正在从以组织为中心演化为组织与个人双中心并重的形态。在不远的未来,将会出现个人应用超越组织应用、个人应用支撑组织应用的局面。今天,我们已经在面向个人的微信上大量承载组织应用活动,美国总统“推特治国”也是一个个人应用支撑组织应用的典型案例。这个趋势正在呼唤以个人为中心的信息应用系统的出现,而不是停留在仅仅把不同的人连接起来的社交应用。阿里以组织为中心的“钉钉”显然反映了其创意还停留在工业社会的阶段。以个人为中心的信息系统的构建,也是属于前面第1点里讲的面对“主体”的融合服务,是跨众多领域的系统。其复杂度未必小于以组织为中心的系统,也不是对以组织为中心的系统的简单复制或模仿,需要大量的从理念到技术与系统的原始创新。下图便是这样的一个系统“慧影”的示意。



图九  慧影:以个人“虚拟映像”构建个人智能融合应用系统

慧影系统的原理介绍见《智能化未来—“暴力计算”开创的奇迹》第四、第五章,谢耘著,机械工业出版社2017年;功能介绍见微信“慧影Cydow”公众号中“影迷知道”栏目中的“影迷教程”。慧影系统手机版到各手机应用市场搜索“慧影时间流”,电脑端下载地址:www.cydow.com以组织与以个人为中心的系统将成为虚拟世界的基本结构单元,“锚定”人类创造出来的意识性的虚拟世界。以上四个“中观”趋势,就是根据我个人的实际工作实践,总结的在“近期”的未来充满“机遇”的方向,仅供大家参考。
六、立地才能顶天:上不去的尴尬与下不来的虚荣
最后让我们落脚在“微观”层面,来看一下中国企业在这个大潮中遇到的一个比较普遍的问题:“上不去的尴尬与下不来的虚荣”。近年来由于工作的原因接触了一些企业,也有一些企业主动向我咨询业务发展的问题。对看到的问题有感而发写了一篇文章《企业经营中能力与机会的双重变奏》(见微信“慧影Cydow”公众号2019年4月10日)。今年9月份,一个企业邀请我座谈企业发展战略问题,刚刚落座,企业的最高负责人就说:“我们就是你那篇文章中说的第二类企业。”我感动于对方的坦诚安慰道:其实大多数企业都是这个状态。如前面的分析,我们正处在人类历史上一个波澜壮阔的文明跨越阶段。它为企业的发展打开了前所未有的可能。但很多企业却被吊在了上不去下不来的困境中。很多企业既没有吃攻坚克难之苦及承担攀登高峰之险的勇气,所以“上不去”;又认为现在已经拥有的业务都不够“高大上”,而不屑于投入精力与热情去做深做透,做好做精。形象地说就是总看着别人的老婆更可爱。他们误认为自己上不去是因为没有机遇或“实力”不足。虽然在显意识中理性地否定,他们却在潜意识里坚定地相信只有铺满鲜花又通向辉煌的路才算“机遇”;他们虽然也知道那些具有了核心技术的企业很多都经历过砸锅卖铁的绝望,捉襟见肘的困顿,但是自己会本能地拒绝这样的选择。所以留下的只有上不去的尴尬与羡慕。他们在盲目地追赶潮流中去“抓机遇”而不是认真反思认清自己。追赶潮流的本质,不在于真正理解了潮流兴起原因,也不在于认为跟着潮流就会降低失败的风险。在内心深处,真正的原因是跟着潮流可以免去心理上的压力:跟在大众之中自然有一种非理性的心理上的安全感;即使结果是失败,也可以安慰自己“反正大家都这样”,自己给自己免除了自己本应该担负起来的责任。
他们下不来的原因就更简单,因为“不值得”去为不登大雅之堂的事情付出心血。华为当年只能下到县里买交换机的时候,你相信它未来能成为一个国际一流企业吗?比尔·盖茨当年做DOS的时候,中国好一点的科研院所都有能力做的不会比他差,但几十年过去今天操作系统成为了我们国家产业的痛之一。虽然在理性上认同万丈高楼平地起,但是因为没有经历过辉煌,所以很难真正理解一砖一瓦的价值,很难接受“农村包围城市”这样的“漫长”过程。总认为世间存在更好更快更短的“捷径”可走。岂不知“捷径”是世间最漫长的路,甚至是没有终点的歧途。最近看到“淘宝”网上直播“一姐”薇娅的故事,讲给大家做个借鉴。她草根出身,没有什么背景也没有“贵人”相助。因为坚信网上营销是未来,便关掉了盈利不错的几个实体店,靠夫妻俩人惊人的努力付出,在最困难的时候卖掉了自己两套房子而租房子住,在看不到希望的时候依然坚守,最后取得了巨大的成功。她开始参与“淘宝”直播的时候,大家都不看好这个模式,认为无非又是一个电视购物而已。但是她坚持下来了,非常敬业地工作,每一个产品是否推荐给粉丝都要由她自己最后亲自把关;在直播的时候都是自己亲自为粉丝尝试各种产品;一年365天她做了400次的直播,每次4到6个小时。因为长期不停地说话,声带受损也没有时间治疗,声音变得嘶哑,电话中被别人误认为是男性。据说在2019年“双十一”期间她的直播间销售额达27亿,是2018年她直播间一年销售的总和。她成功之后还做了很多公益活动,帮助贫困地区发展,而且已经把她的直播做到了国外。 图十  “淘宝”直播“一姐”薇娅虽然我是做技术出身的,但是对于任何靠自己实在努力而为社会创造出实际价值成功的人,我都充满敬意。举这个例子也是因为薇娅在信息文明的大潮中找到了自己的舞台,与今天我讲的话题直接相关。如果一个企业的核心人员都能这样踏实努力而不是好高骛远鄙视平凡的话,企业做不好也是很件难的事吧?企业缺的不是机会,而是不懂什么叫机会以及什么样的机会才属于自己。没有容不下你的舞台与没有价值的角色,只有不称职的演员。我们原来总是说“顶天立地”,现在我觉的这说法的次序反了,应该是立地才能顶天,否则就会像断了线的气球,结局只能是自我毁灭。当中国的信息技术领域,不再一个潮流接着一个潮流地大家一哄而起,而是各自能够认清自己、根据自己的实际情况踏实努力,我们的产业才算成熟了,也才真的有希望了。这种成熟在本质上是业界人士心理上的成熟。智能革命正在推动人类文明的升级,它为我们打开了一个空前广阔的空间。在这个空间里尽情放歌起舞的原动力是创新,而创新对人的根本性挑战不在智力,而在心理(详见微信“慧影Cydow”公众号《创新的挑战与教育的缺失》,2017年2月5日)。我讲的内容到此结束,再次非常感谢领导给我这个机会与大家互相分享交流学习。

原文链接:https://mp.weixin.qq.com/s/zfKae_57VWH-8hsig0e4Xw



编辑:董莉



357#
 楼主| 发表于 2019-12-12 21:44:11 | 只看该作者
【案例】
德雷福斯对人工智能的批判仍然成立吗?

来源:《自然辩证法研究》2019年第1期
作者:徐献军(同济大学人文学院)

  在当代哲学对于人工智能的思考当中, 美国现象学家德雷福斯 (Hubert L.Dreyfus) 的批判无疑是最具代表性的观点之一。在他这里, 欧洲的现象学哲学与美国的人工智能技术汇合在了一起。自1960年获聘美国麻省理工学院的助理哲学教授以来, 德雷福斯就直接接触到了当时世界上最为前沿的人工智能研究。明斯基 (Marvin Minsky) 与麦卡锡 (John Mc Carthy) 于1959年, 在麻省理工学院创立了计算机科学与人工智能实验室。当该实验室的学生们, 将人工智能的抱负 (通过给计算机编程, 让它们展现人类的智能) 以及人工智能对于哲学的偏见 (哲学只是先天不足的思考) 传达给德雷福斯时, 他产生了深深的困惑。

  幸运的是, 他的弟弟就是一名任职于美国兰德公司的计算机专家, 而这使他得以越过哲学与人工智能之间的专业鸿沟 (通常的哲学工作者即使对人工智能有兴趣, 也缺乏深入人工智能领域的机会或能力) 。德雷福斯甚至受聘于兰德公司, 而职责就是评估纽厄尔 (Alan Newell) 和西蒙 (Herbert Simon) 在认知模拟领域中的工作。这件事在今天看来仍然是耐人寻味的。我们不知道为什么兰德公司会让一位哲学家, 来评估人工智能的前景。但这件事至少可以启发我们:在今天的人工智能政策制订中, 让哲学家参与讨论应该是有先例的。

  德雷福斯向兰德公司提交的报告是《人工智能与炼金术》 (1965) 。这篇报告最具刺激性的地方就是将当时炙手可热的人工智能, 比喻成了古代的炼金术:“炼金术士们十分成功地从好象是尘土的东西中提炼出了水银, 这使他们在数百年毫无成果地想把铅变成黄金的努力之后, 仍然不相信:在化学层次上, 人们是难以改变金属性质的。为了免遭炼金术士们的命运, 现在我们应该问一问:我们在哪里?现在, 在把更多的时间和经费花到信息加工之前, 我们应该问一问, 人类主体的原型是否表明了计算机语言适合分析人的行为。把人类的智能行为全部分解为离散的规则去支配运算, 是可能的吗?以数字的方式去恰当地分析人类的智能行为是可能的吗?这两个问题的答案是同一个:不可能。”[1]84这篇报告的核心问题是:认知行为之下的信息加工过程, 是否可以被明晰地表达为程序, 然后在数字计算机上得到模拟。德雷福斯根据当时人工智能的挫折指出:数学计算机不能具备人类信息加工的三种基本形式 (边缘意识、本质/偶然区分、歧义容忍) 。但德雷福斯的批判, 不是对人工智能的否定。实际上, 他是提出了一种新的人工智能开发程序, 即根据人脑的结构与运作去设计人工智能 (这实际上是一种具身人工智能的思想) 。

  这篇报告后来扩展为了专著《计算机不能做什么》 (1972) , 以及《计算机仍然不能做的是什么?》 (1992) 。这些专著产生了非常大的影响, 因为它们促使人工智能领域的一些专家 (如厄廷格尔 (Anthony G.Oettinger) 、威诺格拉德 (Terry Winograd) 等) 开始反思人工智能中的哲学假设。今天看来, 德雷福斯专著中有关技术的部分, 可能已经有点过时了, 但其中的哲学部分 (他对海德格尔、梅洛-庞蒂哲学的解释) 仍然有持久的生命力。本文尝试探索两个问题:一, 德雷福斯对人工智能提出批判的哲学依据是什么?二, 在深度学习与强化学习大放异彩的今天, 德雷福斯的批判是否还能成立, 或者说在多大程度上还能成立?对这两个问题的探索, 不仅有助于推进人工智能的哲学研究, 也有助于我们对人工智能的未来保持一个冷静与理智的态度。

   一、德雷福斯的现象学哲学依据

  纵观德雷福斯一生的研究, 尽管他也从人工智能的具体挫折 (如认知模拟与语义信息加工的难题) 出发去展开他对人工智能的批判, 但他的基本立足点是哲学, 尤其是海德格尔与梅洛-庞蒂的现象学哲学。然而, 他对于海德格尔与梅洛-庞蒂现象学哲学的解释, 已经非常不同于海德格尔与梅洛-庞蒂原来的哲学了, 而是德雷福斯自己的哲学, 或者说德雷福斯式的海德格尔与梅洛-庞蒂了。“用海德格尔式的术语来说, 如果说西方形而上学在控制论中达到了它的顶峰, 那么人工智能近来的困难, 揭示的是技术 (technology) 的限度, 而不是工艺 (technological) 的局限。”[2]227

  德雷福斯将海德格尔及梅洛-庞蒂哲学, 与人工智能相联系的原因是:他认为人工智能是西方传统理性主义哲学与现代计算机发明相结合的产物。换言之, 人工智能不是单纯的技术发明, 而是有着悠久的哲学思想传承。人工智能不仅源于哲学, 而且是将理性主义哲学原则推到极致的体现。因此, 人工智能的出现具有重要的哲学意义, 因为人工智能中的成功与挫折, 可以成为判断哲学思想之优劣的一种客观依据。

  在德雷福斯看来, 当苏格拉底在雅典寻找能够阐明专家技能背后之规则的人时, 作为人工智能基础的理性主义思想就产生了。游叙弗伦 (Euthyphro) 是一名虔诚问题专家。苏格拉底要求游叙弗伦说明:判定虔诚行为的规则是什么。但游叙弗伦只能告诉他一些虔诚行为的案例。不光游叙弗伦是如此, 其他的工匠、诗人、政治家都不能阐明他们专家技能背后的规则。苏格拉底由此断定, 这些专家和他自己一样都是无知的。苏格拉底的学生柏拉图, 对上述难题进行了解释。柏拉图说, 专家们已经忘记了让他们成为专家的行事规则, 而哲学家就是要帮这些专家把他们的行事规则回忆起来。但不管专家们是否意识到了这些行事规则, 它们总是在起作用的。现代人工智能 (尤其是知识工程) , 就是要提取专家们的行事规则, 然后把它们编成程序输入到计算机中。[3]19-20

  近现代哲学中, 上述理性主义得到进一步发展。例如, 霍布斯提出推理就是计算, 莱布尼兹说存在着一系列可以表达所有知识的原素 (普遍特征) , 康德说概念就是规则, 维特根斯坦说世界可分析为逻辑原子。尽管纽厄尔、明斯基、西蒙等人工智能专家没有直接学习上述理性主义哲学, 但他们在运用理性主义思维之后, 得到了与哲学家们一样的观点。当然, 他们是把理性主义哲学思维与计算机发明进行了组合。“所有人工智能研究工作的必要前提是:世界必须可表征为本身是由始基构成的结构化描述序列。因此, 哲学和技术在依赖始基时, 都继续确立了柏拉图所探索的那个世界:一个明晰性、确定性和控制都已经得到保证的世界, 一个由数据结构、决策理论和自动化构成的世界。”[2]212

  海德格尔与梅洛-庞蒂对上述理性主义哲学进行了最有力的批判。在梅洛-庞蒂对知觉的分析中, 他把一切存在都是确定的思想, 称为“常识预设” (le prejudge du monde) 。“感知的设定证据不是建立在意识证词之上, 而是建立在常识预设 (未经质疑的世界信念) 之上的。……有两种误解性质的方式:第一种是把性质当作意识的元素 (性质是意识的对象) , 并把性质当作无声的印象, 而且性质始终是有意义的;第二种是相信:这种感知与这种对象在性质层面上是完全的和确定的。和第一种错误一样, 第二种错误也来自于常识预设。”[4]5-6梅洛-庞蒂引用了著名的缪勒-莱尔错觉 (两条原本等长的线条, 因两端箭头的朝向不同, 看起来箭头朝内的线条比箭头朝外的线条要短些) 来说明:实在的景象是模糊与不确定的。假设一切存在都是确定的认识论与心理学假设, 实际上是掩盖了人的主观性。梅洛-庞蒂依据格式塔心理学, 进一步说明了:人的主观性是与身体性相关联的。“如果我的目光不能包围物体, 那么物体就是小的;如果我的目光能充分包围物体, 那么物体就是大的……对于世界的知觉只是我存在场的扩展;知觉不会超越存在场的本质结构, 并且身体总是存在场中的自主体, 而不是存在场的对象。世界是我置身于其中的、开放与不确定的统一体。”[4]317-318

  德雷福斯根据梅洛-庞蒂的身体现象学提出:身体在人类的智能行为中起着关键作用。“把人同机器 (不管机器建造得多么巧妙) 区别开来的, 不是一个独立的、普遍的、非物质的灵魂, 而是一个涉入的、处于情境中的、物质的身体。给人工智能制造最多麻烦的, 正是智能行为的身体方面。”[2]236人类智能活动中那些不可形式化的、不可表征的信息加工活动, 只有对于身体来说才是可能的。例如, 一个人可以很熟练地使用筷子, 却很难马上说出如何使用筷子的操作规则。因此, 在德雷福斯看来, 人工智能能否成功的关键在于:人类能否制造出类人的身体。从目前的神经科学与意识科学水平来看, 这个目标的实现仍然是遥不可及的。

  海德格尔则将传统的理性主义哲学思想称为“计算思维” (rechnende Denken) 。这种思维是理性主义哲学的追求, 并且将在现代计算机技术、信息论或控制论中实现。[2]233为“计算思维”所必须的是规则模型。理性主义哲学家们这么做, 是因为他们想把知识与情境分离开来, 从而获得一种普遍性的知识;而计算机专家这么做, 是因为计算机最适合 (甚至是只能) 处理脱离情境的信息。因此, 计算机所处理的只是一个人工的虚拟世界 (或者说是微世界) ;这个世界由清晰的、可表征的基本事实与规则构成。为了模拟人类的世界, 计算机专家们试图把情境分解为事实与规则, 而他们使用的方法总是刻板与有限制的 (如决策树、学习算法) 。根据海德格尔的“在世界中存在”的思想, 最好的世界模型不是存储在脑中、输入到计算机中的世界模型, 而是世界本身。“因为事实和规则本身是无意义的, 所以要获得海德格尔所称为意义或涉入的东西, 事实和规则必须被赋予相关性。但是在计算机程序中, 用来定义相关性的谓词仍然是无意义的事实, 所以出现了这种让人惊讶的情况:计算机被给予的事实越多, 它就越难计算出哪些事实与当前情境是相关的。……这样的搜索随着事实的增加, 会变得越来越困难, 并最终变得让人绝望。”[5]48

  在深度学习中, 神经网络似乎通过设计者输入的数值 (value) , 模拟了人类的价值或意义系统, 但神经网络终究是知其然, 不知其所以然。因为设计者本人也是如此。“此在……只不过是……牵挂地消释于世界中。”[6]197最适应情境需求的技能行为是无心的 (即无精神表征的) , 而这时人与世界的联系是直接的;只有在无心的技能化应对活动出现中断时, 人们才会进行深思熟虑的活动, 即通过精神表征来间接地建立与世界的联系。换言之, 高层次的表征活动是以低层次的非表征活动为基础的。正如精神病学家们所揭示的那样, 精神分裂症患者的紊乱首先是在其存在底层的。精神分裂症患者不得不承担本该以非表征方式完成的工作, 而这使得他们表现出了极端相反的两种倾向:一是在所有的工作中都表现得极端缓慢, 二是具有异常的缜密性和理智性。换言之, 非表征技能化应付的效率, 远高于有表征的技能化应付。[7]112-113当然, 人工智能设计中的表征活动与精神疾病患者的表征活动是完全不同的———前者是自主的、可控制的, 而后者是不由自主的、不可控制的。

  如上所述, 德雷福斯发现人工智能的基础正是理性主义哲学假设, 因此人工智能与哲学之间是连续的———人们完全可以从哲学的角度去考虑人工智能进路的终极可能性。换言之, 人们可以将人工智能看作是将理性主义哲学原则推到极致的工艺产品。如果海德格尔和梅洛-庞蒂是对的, 那么人工智能的表征主义进路就是错的。因为在海德格尔和梅洛-庞蒂看来, 人类真正的智能是身体性的与无法表征的。德雷福斯批判表征主义人工智能的最根本依据就是:如果理性主义哲学原则在哲学上就已经是不能成立的, 那又何必耗费巨大的人力与物力去推行呢?
   二、人工智能的发展是否已经有效克服了德雷福斯的批判?

  德雷福斯对人工智能的批判, 经历了长期的排斥与抵制 (德雷福斯甚至为此丢掉了在麻省理工学院的教职) , 但最终得到了人工智能界的接受。近些年的人工智能界, 如加州大学伯克利分校计算机科学教授拉塞尔 (Stuart Russell) 和谷歌研究总监诺维格 (Peter Norvig) 已经大方地承认:“哲学的历史比计算机要悠久得多, 而且哲学一直在尝试解决与人工智能有关的问题:心灵是如何运作的?机器是否可以像人那样进行智能活动;如果机器有人一样的智能活动, 那么机器会有真正的、有意识的心灵吗?”[8]1020他们认为德雷福斯在提出批判意见时, 已经成为了人工智能理论家;德雷福斯所关注的许多问题 (如常识知识、不确定性、学习的决策形式等) 确实是重要的问题, 而且现在已经被纳入标准的智能自主体设计当中。但他们非常乐观地认为:德雷福斯提出的所有难题, 都已经得到解决, 或者说在原则上可以圆满解决的。拉塞尔等人将德雷福斯的批判意见归纳为四条。[8]1025接下来, 我们将逐条检查拉塞尔等人的乐观主义, 在多大程度上是正确的。前三条批判意见都涉及了明晰性假设。理性主义哲学家们认为, 我们的日常知识是完全可以被明晰化的, 而以海德格尔为代表的反理性主义哲学家们则反对这一点。德雷福斯正是基于海德格尔哲学的立场, 提出了背景知识的不可表征性、基于表征数据的神经网络与学习算法的局限性。明晰性假设也就是人工智能的最关键假设:即存在论假设———世界是否可以分解为最基本的明晰要素。第四条批判意见涉及了具身哲学的问题, 即在人们知道具身机制的运作细节之前, 就无法让人工智能真正实现具身。

  1. 第一条批判意见是:

  如果没有背景知识, 就不能对实例进行很好的概括, 并且没有人知道如何将背景知识纳入神经网络的学习过程。“可把背景当作是另一种事物, 并可以用表征任何日常事物的那种结构化描述来表征它, 这种假想对我们整个的哲学传统来说是尤其重要的。海德格尔是第一个辩识和批判过这一假想的人;按照他的意见, 我现在把这个假想称为形而上学的假想。”[2]56

  拉塞尔等人既肯定了背景知识的重要性, 也意识到了利用背景知识的难度。“一个使用背景知识的自主学习自主体, 首先必须获得背景知识, 以便在新的学习过程中使用它们。这个方法本身就是一个学习过程。因此自主体的生活历史将以累积或渐进的发展为特征。据推测, 自主体开始时是一无所有的, 就像一个很好的纯粹归纳程序一样, 在真空中进行归纳。但是一旦自主体从知识树上掉落, 就不能再继续这种天真的推测, 而应该利用其背景知识来进行更有效的学习。问题是如何真正做到这一点。”[8]777可以使用的方法包括:基于解释的学习 (EBL) 、基于相关性的学习 (RBL) 与归纳逻辑编程 (ILP) 。但不论是什么方法, 都需要以知识表征 (即以明确的形式提供知识) 为基础, 而这是德雷福斯所坚决否认的———背景知识是难以表征与形式化的, 因为背景知识往往处于意识的边缘, 或者说背景知识是默会的。

  2. 第二条批判意见是:

  神经网络学习是一种有监督学习的形式, 要求事先确定的相关输入和正确输出;因此, 没有人类培训师的帮助, 神经网络学习就不能自主运作。“神经网络确实表现出了学习能力;但在有监督学习中, 是由人来决定:哪些情况是好的, 并且是由人来提供智能。网络学到的只是:如何通过网络的力量去把握智能。我们真正需要的是这样的系统:它能靠自己学会如何应对环境, 并在环境发生变化时修正它的反应。”[2]xxxviii-xxxix

  拉塞尔等人认为, 有监督学习确实需要事先确定的相关输入和正确输出, 但无监督学习和强化学习不需要人类培训师与标记数据。无监督学习的典型就是聚类 (clustering) , 即在对象集合中辨别多个范畴的问题, 而这种问题是无监督的, 因为没有给出范畴标签。聚类算法只需要知道如何计算相似度就可以工作, 而不需要知道相似的范畴。[8]817但无监督数据仍然需要从表征数据开始。强化学习的任务是让奖励最大化。我们可以下棋为例。在有监督学习中, 自主体需要被告知它在每个棋局位置时的正确行动 (这是人类大师已经发现的下法) 。在强化学习中, 自主体可以在没有人类教师反馈的情况下进行学习, 但这时需要奖励的引导, 即被告知赢了或输了 (这就是强化) 。在棋类游戏中, 自主体在游戏结束时才接收到强化, 而在如打乒乓球这类的游戏中, 每次得分都是一个强化。[8]830强化学习使人工自主体更为接近人类的行为方式, 因为人类就是把痛苦与毁灭作为惩罚, 而把快乐与生存作为奖励的。在复杂领域中, 强化学习几乎是培养高水平智能的唯一可行方法, 因为它大大减少了对表征数据的需求。但是, 使用强化学习的神经网络, 仍然需要对相应领域中稳定特征的表征。在特征清晰但计算量大的领域中, 强化学习是相当有效的。例如围棋游戏虽然计算量大, 但其特征非常少并且清晰 (黑白二子) 。但某些领域 (如中国股市) 往往存在着大量难以表征的不稳定特征。因此, 无监督学习与强化学习, 仍然以表征数据为基础, 而无法产生非表征的智能。

  3. 第三条批判意见:

  学习算法在确定后, 就很难识别新的特征。“但是, 如果我们从可能相关特征的有限系列出发, 而且当前系列不足以解释有关强化与情境转换的学习事实, 那就没有增加新特征的方法。”[2]xliii拉塞尔等人则认为, 支持向量机等的、处理大型特征集的新方法, 有非常好的效果, 而随着基于Web的大型数据集的引入, 语言处理和计算机视觉等领域的许多应用程序, 不仅能处理海量特征, 而且在原则上可以产生新的功能。

  在学习算法中, 人们可以把之前的数据表征为一阶逻辑理论, 然后通过两种方式去搜索与这个理论一致的逻辑假设。第一种方法是当前最佳假设搜索 (current-best-hypothesis serarch) :即当新的例子进入时, 调适原有假设以保持新旧一致性。但这种方法的缺点是:回溯之前所有的例子是非常昂贵的, 因为假设空间是一个呈指数级增长的空间。因此有了第二种方法, 即最小承诺搜索 (least-commitment search) ———为了避免回溯, 就只保留那些与所有数据一致的假设, 而每一个新的例子要么是无效的, 要么就脱离一部分假设 (或者说是删除了与新例子不符的假设) 。但是, 已有的算法 (如变型空间) (version space) , 仍然不适用于现实世界学习。[8]770-798因此, 对第三条批判意见的解决仍然只是“原则上的”。
  4. 第四条批判意见:

  人们现在还不知道人脑运作的细节, 更无法用脑科学去指导人工智能研究。“要想概括人类的行事方式, 网络建筑就必须这样来设计:网络可以根据与人类相关的特征, 对情境作出反应。这些特征不仅必须以过去的重要经验为基础, 还要以近来决定如何去看情境的经验为基础。只有在网络进入以视角为基础的、类人期待情境中时, 网络才能识别未被期待的输入 (如森林中的坦克) 以及当在情境中没有的、重要的期待输入。现在没有网络具有这种能力, 现在也没有人知道甚至想过:人脑建筑是如何产生这种能力的。”[2]xxxviii

  拉塞尔等则认为, 信息价值理论 (information value theory) 使人工自主体, 具备了类似于人脑决策机制的能力。“信息的价值在于它能够改变计划, 并且新计划明显好于旧计划。”[8]631在信息价值的引导下, 敏感的自主体可以合理的顺序来提出问题, 避免不相关的问题, 并掌握每个信息的重要性。然后, 人们就可以制造出能够做简单决策的自主体, 而其决策步骤是这样的:创造因果模型、简化为量化的决策模型、赋予概率、赋予用途、确证与提升模型。[8]634这类自主体的典型就是STANLEY。它是一台无人驾驶的机器人车, 而在2005年, 它以22英里的时速在美国莫哈韦沙漠中, 首先完成了132英里长的DARPA挑战赛。这样的努力确实已经吸取了德雷福斯的具身化建议, 但在人工智能具身化后, 进一步的问题就是:人类怎么把心给予机器呢?心是可以对象化的么?

  综上所述, 尽管进入21世纪以来, 人工智能的神经网络进路的确取得了很大的进步, 并有了非常广泛的应用, 但神经网络进路中纷繁复杂的技术工作, 都有共同的哲学假设 (即存在论假设) , 而且人们也没有在具身研究中取得根本性突破, 因此过去德雷福斯对于人工智能的批判仍然是成立的。德雷福斯的人工智能批判的核心意义在于:他有效揭示了人工智能的核心假设, 并指出了这种哲学假设对于现实人工智能工作的束缚。值得注意的是:德雷福斯的批判不是对人工智能的单纯否定, 而是开发新的人工智能进路的建议。人与机器的根本差异在于:人可以处理那些难以表征的任务, 而机器不可以。在人类完全破解人类身体与意识的奥秘之前 (也许根本不可能破解) , 人类也无法让机器具备处理难以表征任务的能力。尽管人工智能可以进行很多似乎是“智能”的活动, 但我们切不可就此认为那就是人类的智能活动方式。事实上, 人工智能只是人造智能, 而非类人或替代人的智能。

   结语

  人工智能已经广泛地融入了人类的世界 (如图像识别、机器翻译、信用卡自动审批等) , 而且人工智能已经在某些领域 (如机器词典、下棋、数学定理证明等) 表现出了远远超越人类智能的水平。但我们始终不能忘记的是:人工智能中的问题, 不只有科学技术的属性, 而且有哲学的属性。德雷福斯的功绩在于:他阐明了一些根本性的人工智能哲学问题。这些问题既与人工智能有关, 也超越了人工智能的范围。其中最重要的哲学洞见是:人类最根本的智能活动是非表征的、不可形式化、不可规则化的。人类的风险不在于:人工智能在可表征的、可形式化、可规则化的智能活动中超越了人类, 而在于人类放弃了自身的独特性, 而逐渐向人工智能的活动方式靠近。换言之, 可怕的不是造出像人一样的机器, 而是培养出像机器一样的人。



原文链接:https://mp.weixin.qq.com/s/8fsW_wVEisV3TPv3MIRVZQ



编辑:董莉

358#
 楼主| 发表于 2019-12-13 21:38:52 | 只看该作者
【案例】
人脸识别大行其道,10项建议保护隐私 | DataLaws


本文转载自布鲁金斯学会(Brookings Institution)于10月31日发表的10 Actions that Will Protect People from Facial Recognition Software,作者是布鲁金斯学会政府治理研究项目的副主席兼主任达雷尔·韦斯特(Darrell M. West),他的研究主要包括竞选和选举、公众舆论、技术政策和电子化政府。

这是一个“看脸”的时代。人脸识别软件让生活更便利的同时也引发了关于公众隐私和信息安全的焦虑。许多人担忧人脸识别技术会带来一场《1984》式的噩梦——我们将暴露在无孔不入的监控下,个人隐私无处可逃。他们将人脸识别和摄像头、人工智能(AI)与大数据视为限制个人自由的枷锁。

但另一方面,人脸识别技术在失踪搜救、安保升级、导盲、反恐等领域都发挥了积极作用。这项技术是一把锋利的双刃剑,既有广阔前景,如滥用又有极大风险,让个体闻之色变的同时又可救死扶伤、造福人类。


鉴于人脸识别技术的应用尚有诸多不确定风险,一些人认为我们应该全面禁止这项技术,直到对其潜在后果有更深的了解。另一些人则呼吁暂缓推行,为立法改革争取一段缓冲期。还有一些人虽然赞同人脸识别的应用,但前提是监管机构应该设立合理防护,监管恶意滥用行为。

本文提供了十条监管人脸识别的政策建议,从而规避这项技术潜在的最大风险。这些举措包括限制数据存储与共享、强制精度标准(Mandating Accuracy Sandards)以及建立第三方评估等。


人们对人脸识别最大担忧是图片、影像长期存储,这些信息有多种被滥用的风险,从而侵犯个体隐私和自由。尽管好处颇多,但人脸识别应用采集了海量视觉数据,且对它们限制寥寥无几,不禁引发公众担忧。

我们可以进行变革以缓解公众忧虑,限制数据滥用,其中之一是设置视频和图片存储期限。在某些突发情况下可能对特定图像数据有迫切需求,但一旦危机平息后这些数据应该被立刻清除。事实上,对于许多应用,时间限制可以在发挥人脸识别积极效用同时,将风险降至最低。

更具理智的人会考虑到设限时长是多长。这个期限应因数据使用类型而异,一些信息需要保存更长时间,而有些信息在发挥有短期效力后应该被删除。例如,为应对突发险情而编译的特定图像具有极高瞬时价值,但其他目的的图像可能需要通过长时间储存来分析。一种称为“分布式学习”(Fedrated Learning)的机器学习方法确保数据只独立储存于摄像头,而永远不用发送到中央数据中心,提高了数据安全性。

人们普遍担忧为某一目的采集的信息被用作其他目的。现实中不乏这样的案例,例如机动车管理部门将车牌信息出售给第三方组织。人们一般对这种信息的转卖并不知情,而且他们也不会同意将这些信息用于其他商业目的。把甲公司的图像向乙、丙方传输时应该有明确标准,按需调用。任何企业都不应该在没有限制的情况下传输或销售脸部识别图像。换言之,脸部识别图像的传输需要清晰合理的原因。

民意调查显示,个人对脸部识别所持态度也会因使用情景而异。布鲁金斯学会(Brookings Institution)一项研究发现,对人脸识别的支持率在不同环境中存在差异。如下图所示,人们最支持的应用是保障学生在校安全(41%支持率),但只有27%的受访者赞成便利店使用脸部识别防范盗窃行为。在机场和体育场馆情景下应用支持率处于中间值。


一切通过拍摄或其他方式收集公众信息以用于人脸识别的企业或政府机构,应该在公共区域明确标注声名此类行为。他们有职责提醒该区域内所有人,其面部信息正在被记录,这样不愿意被拍到的人可以选择绕行。这一举措也可以加深用户对人脸识别技术的认知,也能让不愿意共享信息的人享有个人信息不被记录的自由。


图像识别主要问题之一是针对不同肤色其精确度也不尽相同。由于大多数训练数据不完整且种族代表性不足,因此基于这些数据开发的人脸识别技术也有偏向性。白人相比其他肤色人种有更高的识别精度,且肤色越深准确度越低。随着人脸识别应用在执法、边检、零售和机场等各个领域,不同群体之间的差异可能导致偏见、歧视和其它倾向性判断。

因此在大规模应用前,人脸识别应该达到什么精度?这是一个挑战性的问题。该精确度应取决于识别结果对人们生活的影响程度。例如在执法行动中误判可能会导致无辜之人被拘捕或监禁,那么识别精度就应该非常高。加的夫大学(Cardiff University)的一项研究发现澳大利亚发生过数千例误匹配,此外人脸识别系统在低光环境下也会运行失常。


与就业相关的应用也会带来严重后果,也需要较高的精度标准。一些存在歧视性或偏向性识别判定的企业应该被问责,而对于因人脸识别产生的种族偏见或滥用人脸识别的产品应该受到相应的惩罚。


第三方评估可以让人们更加信任人脸识别产品和服务。消费者希望识别应用只完成“份内”工作,同时避开“问题”应用。可以设立一个类似“能源之星*”由政府评定的评级系统,帮助大众更深刻地了解应用的功能以及他们应顾虑的地方。总体而言,第三方组织可以提升人们对应用方式和准确性的信心。

* 能源之星(Energy Star),是美国能源部和美国环保署共同推行的一项政府计划,旨在更好地保护生存环境,节约能源。1992年由美国环保署参与,最早在电脑产品上推广。


一些人脸识别应用程序中收集了大量与主要目的无关的附加信息。例如,佩戴随身摄像机的警察在勘察事发现场时,不仅会拍到嫌疑人的画面,还可能拍到碰巧在视线范围内的路人。除非这些证据与案件有明显关联,否则执法部门在调查之外没有必要保留不相关信息。当图像不再具有调查价值时,它们可以被模糊处理或干脆销毁。


嵌入人脸识别技术的营销APP必须向用户确认授权,包括将用户姓名附加到商业名单并推送广告等行为。消费者对个人隐私很敏感,这些以营销为目的的应用应受到用户授权选择的限制,消费者有权利将他们的信息共享限制在他们觉得合理的水平。

同样,用户也应该有自主退出选择权。在对长期数据存储没有明显需求的低风险情况下,应该为用户提供删除个人图像信息的途径,从而让公众确信他们的信息不会被用作它途。“被遗忘权”可以提升公众对人脸识别的接受程度。


技术标准是企业保护产品的一种传统安全措施。例如,移动通讯技术还处于开发阶段时,专家们就共同确定了通信、安全和兼容性的通用标准,所有智能手机都必须符合这些规格才能上市销售。国际机构则将这些标准扩展到全球范围。


同样的逻辑也适用于人脸识别,应该有一套标准来确保应用安全、隐私得到保护。共同规则可以有效缓解大众恐惧心理,从而改善由此带来的种种应用限制。人脸识别也应该像其他“有利有弊”的技术一样对技术负责。美国电气与电子工程师协会(Institute of Electrical and Electronics Engineers)目前已经着手制定人脸识别技术标准,美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)也应该进行相关试点研究。


企业系统安全系数由国际标准化组织(ISO)等机构认证,具体来说,ISO将评估特定产品是否符合监管法规,并由第三方机构对产品进行合规性测试,帮助消费者更清楚某项技术的用途是否符合相应规则。认证保证了安全性的高度一致,从而提升公众对整个行业的接受程度。

在美国,NIST是产品认证的主要机构,它通过公共数据库进行人脸识别测试并认证相关应用。但也有人质疑,NIST测试的主要数据来源是私有网站的浅层数据,无法普及到日常的使用场景中。此外,NIST数据选择也过于片面,以执法相关应用为主,测试主要依赖图像质量和操作功能等。一种改进方法是将自动化测试与人工检查相结合,从而获得较为可靠的测试和认证。


脸部识别的认证、技术标准和政府合规测试应基于有代表性和非单一用途的数据,且测试应该在实际应用环境中进行。在一个拥有大量专业信息的商业系统中,使用具有代表性的数据库进行基线测试和产品认证是至关重要的。单一用途数据例如警用正面照不能覆盖整个人群,因此在测试中的效用有限。识别测试应该基于海量图像信息、实际应用环境以及足够有代表性的人群样本分组,从而让公众消除疑虑。由于识别精度会受到光照条件和图像分辨率影响,可靠的实地测试就非常关键。





编辑:董莉


359#
 楼主| 发表于 2019-12-14 20:56:24 | 只看该作者
【案例】
新华社智能化编辑部建成运行 实现人工智能再造新闻生产全流程

10922de4f1a4dbed2038a70f0d0317fc-f52bb9f821204f92b9adbcf0e7b971f0-2.mp4
新华社北京12月12日电 人工智能时代,新闻事业会如何演进?12日,新华社首个智能化编辑部正式建成并投入使用,开启了一场新闻生产与传播的智慧革命。
新华社社长蔡名照表示,智能化编辑部是新华社落实习近平总书记要求,加快建设国际一流的新型世界性通讯社、全面提升全媒编辑能力的重要抓手,也是推动媒体融合向纵深发展的关键举措。
据介绍,智能化编辑部一年前在新华社新媒体中心试点建设。它以人工智能技术为基础,以人机协作为特征,对新闻生产进行全环节、全流程、全系统再造,旨在大幅提高新媒体产品创意创新能力和生产传播效率。
近年来,新华社持续追踪人工智能技术前沿成果,创造性地研发新闻应用场景,初步形成全流程技术创新体系,包括智能技术体系、智能产品体系、智能硬件体系、数据支撑体系和机制制度体系。
在采集环节,智能化编辑部利用“媒体大脑”摄像头新闻机器人和“鹰眼”智能监测系统,能够超早期记录突发事件、发现新闻热点;记者应用“现场云”移动采集系统和智能手机、AR智能眼镜、智能录音笔等智能硬件随时发起“现场新闻”全息直播,并同步采集文字、图片、短视频等全媒体形态新闻素材。
在生产环节,利用“媒体大脑”、AI合成主播、时政动漫平台等智能化工具和平台,对新闻素材进行自动分类和标引,智能化生产文字、图片、AI主播视频、短视频、地图新闻、数据新闻、卫星新闻、VR、AR、MR等30余个品类的全媒体产品。全程人机协作,人工审签。
在分发环节,面向新华社的媒体用户和新华社客户端等终端受众,基于用户画像技术,实现对象化精准推送。
在反馈环节,依托智能版权评价系统和区块链技术,精准评估传播效果。
在大步推进技术革新的同时,智能化编辑部同步探索重塑适应融合发展的“编辑部”生产流程、组织架构和机制制度。
智能化编辑部通过一次采集,N次加工,多元分发,让新闻生产通过智能化创新,提速、提量、提质、提效,打通了在线新闻生产的“最后一公里”。
在试点基础上,智能化编辑部系列成果已开始更大范围辐射应用,并迭代升级。在新华社刚刚改造完成的新媒体大楼智能化编辑部,编辑记者表示,在智能系统助力下,生产效率可提升3-5倍,节省了大量时间和精力,从而更多地投入创意创新。(记者宋玉萌)




编辑:董莉

360#
 楼主| 发表于 2019-12-15 22:05:35 | 只看该作者
【案例】
俄罗斯人工智能发展中的市场与国家



华盾博士作客欧亚研究前沿讲坛
发表新人新论
探讨俄罗斯人工智能发展中市场与国家
2019年12月7日下午,应上海外国语大学欧亚文明研究特色研究生班的邀请,俄罗斯科学院普里马科夫世界经济与国际关系研究所博士候选人华盾在上海外国语大学松江校区29号小别墅204教室作了题为《俄罗斯人工智能发展中的市场与国家》的讲座。本次讲座由上海外国语大学国际关系与公共事务学院院长助理、欧亚文明研究特色研究生班负责人杨成教授主持,包括欧亚班在内的国际关系与公共事务学院、俄罗斯东欧中亚学院等单位的众多师生参加。此场学术报告也是欧亚班为庆祝上海外国语大学建校70周年组织的系列学术活动的第四场。
华盾博士认为,俄罗斯发布的《2030年前国家人工智能发展战略》有三个主要的框架性特征,它们对俄罗斯人工智能发展战略的范畴做出了界定:一、时间跨度短,可预测性较强;二、技术应用范围为民用技术和国民经济领域,但实际上俄罗斯在军事领域已有人工智能研究;三、技术开发的优先方向是解决单一专业化任务的弱人工智能领域,但更重要的是支持旨在保障人工智能超前发展的可持续研究,尤其是以发展通用人工智能(即强人工智能)为目标的技术科研,这也是该战略的首要目的。华盾博士认为,这体现出俄罗斯人工智能的发展目标已经剑指强人工智能发展时代。据此,该战略的主要内容就可以概括为未来十年俄罗斯在弱人工智能民用领域的发展规划。
接着,华盾博士指出,人工智能的发展将在未来对俄罗斯的发展产生各方面的影响。但由于目前数据资料有限,评估俄罗斯的人工智能发展状况困难重重。语言、文化的差异和国际政治都会导致俄罗斯在欧美主导的科学话语权体系中被边缘化。要全面认识游离于世界评价体系之外的俄罗斯就要充分意识到俄罗斯本身的复杂性、矛盾性,和世界其他国家作为“他者”的主体性。
随后,华盾博士系统地分析了俄罗斯人工智能的优劣之处。一方面,在人工智能的数理基础和算法优势上,俄罗斯拥有深厚的发展底蕴与相对优势。就技术发展本身而言,俄罗斯是该领域的先行者。人们普遍认为,人工智能起源于1956年美国的达特茅斯会议,在这次会议上“artificial intelligence”一词第一次被提出。但实际上早在 1954年,在俄罗斯计算机控制创始人之一A. Lyapunov院士的指导下,莫斯科国立大学举办了“自动化与思维”研讨会,人工智能在苏联诞生。华盾博士认为,俄罗斯人工智能起步早的原因恰恰在于俄罗斯深厚的数学底蕴。成熟的、可持续的教育体系为俄罗斯人工智能发展储备了大量人才。从权力和财富两方面来看,算法作为人工智能发展的核心要素之一,其市场前景广阔,所以俄罗斯侧重人工智能软件的开发符合国家利益。但另一方面,人才流失、有效需求不足、数据资源匮乏作为市场痛点大大限制了俄罗斯人工智能的发展。国家信息技术行业待遇低、人工智能市场有效需求不足这两大主要原因导致该领域人才流失严重。市场的有效需求又分为投资需求和消费需求。相对于中美两国,俄罗斯在人工智能领域投资谨慎,市场活力度低。其造成的根本性后果就是俄罗斯数据资源匮乏,缺少场景规划。垄断性质的商业文化也对初创公司的发展壮大带来不利影响。
在分析了俄罗斯人工智能发展的优缺点之后,华盾博士提出国家在俄罗斯人工智能发展进程中发挥的作用。其主要作用为:政策引领、公共支出、投资促进。俄罗斯人工智能发展一直以来都带有很强的国家干预特点。该特点产生的原因有三:一、从产业生态建设的角度来看,以人工智能为代表的数字经济的发展的确需要国家资源的投入。人工智能最大的作用在于对传统行业的数字化改造以提高传统行业的效率,从这一角度出发,国家干预并扶持人工智能产业的发展是必然的。二、俄罗斯对战略行业一直严格管控。数据就如传统的石油、天然气等资源一样,也是一种战略资源。此外,人工智能可以作为国家决策的辅助手段,使国家的管理监督更加高效理性。实际上,尽管俄罗斯具有自己的算法优势,但国内人才外流的困境与国外替代项目的出现都对俄罗斯人工智能发展构成了挑战。俄罗斯为了防止在全球经济中被边缘化,更加重视人工智能的战略地位。三、俄罗斯经济发展具有路径依赖的特点。人工智能时代国家作用的强调符合俄罗斯传统上集体动员式的经济组织形式。这预示着在人工智能领域有可能会出现苏联时期核领域、航空航天领域的爆发式成就。
最后,华盾博士基于内生性和外生性原因预测人工智能时代下的中俄关系会更加紧密。人工智能本身是资本和技术密集型技术。只有中美两国能全部囊括人工智能的算法、算力、场景、资本四大要素,而其他国家会更多地考虑成本和收益问题。当这些国家缺少任一要素时,它们就会选择抱团取暖或者依附于另一国家。所以,俄罗斯在只有算法优势的情况下势必会加强和别国的合作,而且更大可能是和中国合作,这就涉及到国际政治的外生性原因。基于此,中俄在该领域的潜在合作有可能会让双边关系会进一步提升。
华盾博士的讲解细致入微,有理有据,在场听众受益匪浅。本场讲座在热烈的掌声中圆满结束。



原文链接:https://mp.weixin.qq.com/s/klQKPXRXAa5EHUMHJa-aoQ



编辑:董莉

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表