传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
151#
 楼主| 发表于 2019-8-11 18:43:41 | 只看该作者
【案例】
于海防:人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间
作者:于海防
作者单位:烟台大学法学院
责任编辑:洪
全文已略去注释,如需查看,请订阅《法学》
人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间

【内容摘要】 在机器智能领域,人工智能与智能增强两大技术阵营在应替代人类还是增强人类上存有理念对立,并映射于法律。相对于计算机、网络等智能增强技术以人为中心、以增强人类为目标,人工智能技术以机器为中心、以替代人类为目标,在技术上具有去人类化的属性,此系人工智能诸多伦理困境与法律难题的产生根源。人工智能法律规制应当坚持以人为本,对人工智能前置性地施加局部替代人类、整体增强人类的价值负载,在人工智能不具有主体资格的前提下,围绕人工智能以机器为中心的特性进行制度设计,弱化复杂的伦理困境与责任认定疑难,并保持与既定体系的接洽、交融。人工智能法律研究不应局限于法律范畴之内,在技术分析之外,还需要结合哲学、伦理学等学科的研究。
【关键词】 人工智能 智能增强 人机关系 价值取向 主体资格 法律规制
(本文约22 000字)
目前,人工智能法律研究的核心在于如何科学、合理地规制人工智能。学界现阶段的研究多针对具体问题,但研究难以协同,观点纷纭,动辄否定传统法。而且,人工智能依托于计算机,但现有的人工智能法律研究却与之前有关计算机、网络、电子商务的法律研究差别极大。在相当程度上,人工智能研究的纷乱现状源于其法律规制的基点未得到确立,而这又可归因于人工智能基础法律问题研究的不足。从技术背景来看,人工智能领域内部仍存巨大分歧,至今尚未形成统一的理论与技术范式,甚至连人工智能概念的内涵与外延都是不确定的,致使新兴的人工智能法律研究缺乏共认的研究前提,这不利于顺利开展对人工智能基础法律问题的研究。笔者不揣浅陋,在人工智能技术、认知科学、哲学、伦理学、法学等多学科结合的视角下,梳理机器智能两大技术阵营的理念纷争及对法律所生影响,并以此为基础分析人工智能法律问题的根源、症结与解决思路,进而尝试确立人工智能法律规制的两个核心基点,以解决人工智能因去人类化属性而与法律产生的根本性冲突,将人工智能法律规制融入既定法律体系。
一、机器智能技术的理念纷争及对法律的影响
计算机、网络、电子商务与人工智能法律问题的产生均源于数字化计算机器的应用。计算机、网络、电子商务法律问题的产生已有三十余年,相关法律规制基本定型且已融入传统法律体系,人工智能发展六十余年,却于近年才产生法律问题。此外,虽然在技术、领域与应用上存在耦合与重叠,但人工智能法律研究与计算机、网络、电子商务等法律研究却相割裂,国内外均是如此。在笔者看来,这种割裂映射了人工智能与智能增强两大技术阵营在机器智能领域的长久对立。然而,人工智能与智能增强其实具有一定程度上的辩证统一关系,二者在法律问题上也具有这一特点。回溯梳理这两种机器智能技术的发展、分歧及对法律的影响,有助于人工智能法律问题的分析与解决,对于厘清人工智能立法与既定法的关系以避免体系龃龉也具有重要意义。
(一)机器智能框架下人工智能与智能增强的理念对立与统一
虽然哲学家、科学家与大众对人工智能的理解存在系统性差异,但可以肯定的是,人工智能是一种机器智能,依存于以计算机为代表的数字化计算机器,而计算机从产生时起便是具有区别于以往任何机器的、可发展的机器智能的。计算机从第一代发展到第四代,推动机器智能水平持续提升,计算机、网络、虚拟现实、大数据、云计算、物联网、区块链、人工智能等数字计算技术可以在机器智能的宏观维度上得到统一。各式数字化计算机器、技术的发展史就是机器智能的发展史,反之亦然。拥有机器智能的计算机器的出现改变了自工业革命以来的人机关系,并使人类与计算机器之间的关系成为人机关系的核心。人机关系因计算技术的进步、机器智能的提升而不断发展、变化,并向人际关系、社会关系传递,迫使法律不断作出调整,在此过程中产生的法律问题可以统称为机器智能法律问题。机器智能法律问题的实质是数字化时代的人机关系在法律上的投射,发轫于计算机,兴盛于网络。近年来,机器智能因人工智能技术的发展而进一步提升,对人机关系、人际关系、社会关系以及法律的影响更加激烈,所形成的人工智能法律问题系机器智能法律问题的进一步发展。需要注意的是,在机器智能与人机关系上,在整体上始终存在人工智能的“替代人类”与智能增强的“增强人类”的理念对立,这种对立投射于技术、社会与法律,对计算机、网络、电子商务等法律问题与人工智能法律问题的形成与解决具有直接影响,但当前的研究对此少有关注。
1950年,图灵在《计算机器与智能》中分析了基于计算机创造出具有智能的机器(学习机)的可能性,期待“机器能够在所有纯智能领域同人类竞争”。1956年,麦卡锡等科学家在达特茅斯会议上提出了“人工智能”(Artificial Intelligence,以下简称AI)的概念与设想,这是一种后来被称为GOFAIGood Old Fashioned AI)的采取符号主义范式的“老派AI”,通过使用计算机模拟人类智能创造类人机器智能,目的是通过提升机器智能使机器能够代替人类从事相关活动,而这同样也是后来被称为NFAINew Fangled AI)的采取联接主义范式与行为主义范式的“新派AI”的目标。AI的发展过程便是机器替代人类的过程,其间牵涉了诸如主客二分还是主客一体、身心二元还是身心一体、非身认知还是具身认知、唯理论还是经验论、科学主义还是人文主义等复杂问题,长期受到哲学与伦理学的关注。AIGOFAI发展到NFAI,现今在替代人类上更进一步,甚至开始替代律师、医生等复杂脑力劳动岗位,这导致人机关系发生了重大变化,催生出一系列的伦理与法律难题。
1962年,恩格尔巴特(Douglas C. Engelbart)提出了“智能增强”(Intelligence Augmentation,以下简称IA)的概念与设想。IA不认同AI通过计算机模拟人类智能、替代人类的理念,认为计算机应用于改善和增强人类的智慧、能力,强调以人为本,主张人机交互、人机共存,这种理念可以追溯到皮尔士(Peirce)的符号学与实用主义哲学。由于IA遵循主客二分,以人类为中心,因此受到的哲学、伦理学关注远较AI为少。在几十年间,IA连续推动了计算机、操作系统、应用软件、用户界面的进步,提升了人机交互水平,开发了超文本系统(至今仍是网络的根基),推进了阿帕网(因特网的前身)的形成,虚拟现实、智能网络搜索及电子商务的发展也与IA有着密切关系,“从恩格尔巴特的观念到现今的技术有着明确的因果链条”。
AIIA在替代人类与增强人类上的理念对立导致二者具有不同的技术思想与设计进路:AI以机器为中心,更关心机器本身,会淡化甚至排除人的参与;IA以人为中心,更关心人与机器的互动,会保证人的参与和控制。现今的无人驾驶与辅助自动驾驶的设计差异便呈现出这种差别。AI追求的是可以达到甚至超越人类智能的类人机器智能,可以令机器广泛替代人类。IA追求的是可增强人类甚至与人类协作的机器智能,这不是类人智能,而是人类智能在机器领域的延展。自20世纪60年代起,AI阵营与IA阵营在理念与研发上便是对立的。然而辩证地看,机器智能技术发展至今,AIIA既有对立性,也有统一性。在技术上,AIIA具有一定的共通性,相互促进,“计算机技术的发展正在消解 AI IA 的边界”, 各种技术交融集成,有时甚至难以判断某项技术究竟是AI还是IA。在理念上,AI虽秉持替代人类,但其在替代人类的同时也在增强人类;IA虽秉持增强人类,但其在增强人类的同时也在替代人类。AIIA在理念与技术上的迥异及辩证统一关系对法律问题的形成与发展产生了重要影响。
(二)人工智能法律问题与智能增强法律问题的分离与交融
IA融入了计算机技术的发展,IA法律问题随着计算机、网络、电子商务的发展而逐步显现。大约在20世纪80年代,个人计算机技术的成熟催生出计算机法律问题,网络与电子商务在20世纪90年代的兴起催生出网络与电子商务法律问题,大数据、云计算与区块链等技术在21世纪初的发展也促生出诸多法律问题。这些领域的机器智能均为极弱智能,均奉行增强人类的理念,法律问题的产生逻辑相似,也正是在此意义上这些法律问题可以统归为IA法律问题(即智能增强法律问题),包括意思表示、电子合同、数据、广告、侵权、虚拟财产、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、物联网、电子证据、网络管辖与犯罪等各部门法问题。
AI虽然也与计算机技术协同发展,但它的目标、方法、进路与计算机技术不同,并高度融合了哲学、神经科学、心理学、工程学等学科,独立性较强。AI经历了从符号主义范式到联接主义范式、行为主义范式的不断自我否定的发展历程,数次陷入寒冬期。21世纪之前的AI智能水平较低,应用范围较为狭窄,对一般意义上的人际关系、社会关系影响极弱,基本未对法律产生影响。在进入21世纪后,随着网络、大数据、云计算等技术的成熟,AI获得了新的驱动力,各技术范式得以集成、混合,进一步推升机器智能。尤其是在2012年之后,AI类人智能水平提升迅速,甚至在人类传统智能优势领域多次击败了人类智能,并向各领域渗透,AI开始替代人类岗位,AI法律问题由此而生。目前AI法律问题涉及主体资格、意思表示、电子合同、数据、广告、侵权、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、无人驾驶、机器人、物联网、机器决策、犯罪、行政管理、法律服务、司法审判等,与IA法律问题存在大量重合。
AIIA的对立性具化于计算机技术,显现于人机关系,传递于人际关系与社会关系,以至于AI法律问题有别于IA法律问题。AI法律问题既与IA法律问题存在重合,也包括大量新问题。在重合问题上,由于两种法律问题系不同理念与技术的具现,除部分问题外,AI法律问题通常无法套用IA法律规制。例如,以AI为主导的全自动无人驾驶与以人为主导的辅助自动驾驶在责任分配上会存在明显差异,自主机器人侵权问题的解决也明显不同于通常的计算机、网络侵权问题。不过,AIIA的统一性也使得AI法律问题与IA法律问题相互交融。首先,AI法律问题与IA法律问题均因数字化机器智能的进步而引发。其次,意思表示、电子合同、数据、消费者保护、广告与不正当竞争等重合问题的形成逻辑通常不与所使用的技术是增强人类还是替代人类相关,在AI之上大致可以使用既定的IA规制模式。最后,AIIA混用于各种场景,AI法律问题与IA法律问题在诸多领域具有桥接关系或混同关系,例如大数据、云计算、自动驾驶、证券算法交易等法律问题具有AIIA的双重属性。AI法律问题在承继部分IA法律问题的基础上进一步发展,二者既有区别,又有联系,这意味着二者的法律规制应当具有一定意义上的协同性。当然,协同并非意味着一致。
二、人工智能法律问题的根源、归纳与解决思路
鉴于AI法律问题具有特殊性、复杂性,并与IA法律问题存在分离与交融,研究AI的法律规制应首先分析AI法律问题的根源与症结,进而对AI法律问题进行归纳,在此基础上分析其解决思路。
(一)人工智能法律问题的根源与症结
虽然AI尚无公认的统一概念、理论与范式,应用繁乱,但从根本上说,AI为替代人类劳动而生,以替代人类从事活动为目标。法律为人类而设计,以人与人之间的关系为调整对象,而替代人类的AI是(智能)机器,其在决策逻辑、行为模式以及社会性、可预见性等方面与人类有差异,会超出人类经验或期望的限制,这导致面向人类的法律难以简单适用于AI。笔者认为,AI法律问题的产生根源便在于AI对人的替代,无人驾驶、智能投顾、作品定性、责任分担等系列问题的产生均是因AI替代人类实施本来由人类实施的行为,导致原本适用于人类的法律应对困难。
IA法律问题也有诸多疑难,但大多可以通过对传统理论、既定规则的解释与适度修正得以解决。之所以如此是因为IA奉行增强人类的价值取向,机器的设计是为了改善、提高人类能力,在IA式人机关系中,人处于中心地位,人为主体,机器为客体,这契合法律以人为中心的理念与主客二分的观念,将IA融入法律便不会存在体系性障碍。然而,在AI替代人类的理念之下,机器会采取独立于人类的设计,人的因素会被淡化甚至被消除,在AI式人机关系中,机器处于(技术)中心地位,人类甚至要服从于机器作出的决策,这在根本上与法律以人为中心的理念与主客二分的观念相悖,将AI融入法律便会存在巨大障碍。因此,AI替代人类的理念、以机器为中心的去人类化观念与法律以人为中心的理念、主客二分的观念之间的冲突便是AI法律疑难的症结所在,在未就如何解决这一根本性冲突达成共识、无法确立AI法律规制的基点时,针对具体问题的研究便会显得纷乱。
(二)人工智能框架性法律问题的归纳
从与IA相区别的角度而言,各式AI的共性在于贯彻替代人类的理念,在技术上以机器为中心,在应用上以(全部或部分地)替代人类劳动为目标,而这也正是AI法律问题产生的根源。在此基础上,可以从与IA法律问题相区别的角度归纳AI的框架性法律问题,以便于探讨其整体法律规制。
首先,AI法律规制应当遵循何种价值取向,此系其法律规制的价值基础。鉴于替代人类的AI与以人为中心的法律在价值理念上存在巨大冲突,AI法律规制必然伴随价值取向问题,即AI法律规制在替代人类与增强人类之间应如何权衡、取舍,是顺应AI替代人类的理念与技术,还是予以矫正。
其次,AI可以替代人类,那么应否赋予AI主体资格,此系AI法律规制的逻辑前提。AI应否拥有主体资格直接决定其法律地位与规制路径,也直接影响对AI系列问题的分析逻辑。诸多学者基于强人工智能已经或将要产生,甚至超级人工智能将来也会出现的趋势,动辄提出法律死亡论,否定传统法,在主张AI拥有主体资格的前提下进行制度设计。但事实上,当前的AI技术条件以及哲学、认知科学上的研究却根本不足以支撑强人工智能必会出现的假设,遑论超级人工智能。
再次,使用AI替代人类从事各种活动是否正当、适法,应遵循何种规则,此系AI法律规制的具体手段。AI的适法性问题表现为其安全性、伦理正当性、敏感领域应用准入与使用规则等问题。例如,AI在武器领域的运用是否应受限制?无人驾驶中的伤害选择应如何确定?在何种领域可使用AI进行机器决策以及应遵循何种程序?AI使得马克思•韦伯提出的自动售货机式的现代法官的设想成为可能,是否允许实现这种可能?对AI适法性问题的回答决定了各领域AI使用规则的制定。
最后,AI替代人类实施行为而产生的责任如何认定,此系AI法律规制的最终落实。AI责任问题的难点主要体现在责任主体、归责与因果关系的认定疑难上。第一,应当如何确定责任主体以及如何划定多主体间的责任分担比例?第二,在归责上,对不同类型的AI、不同应用场景应采取何种归责原则?若需考虑过错,如何确定相关主体的注意义务?在判定过错的有无与大小时,机器能否成为判断的对象,应在多大程度上考量AI开发流程、算法、应用方式与外部环境等因素的影响?第三,AI使得原本极为复杂的因果关系问题变得更为复杂,是该套用还是突破传统因果关系理论?如何合理切断过长的因果关系链条?在个案中应当如何进行因果关系认定,可否使用AI代替专家辅助人对标的AI进行逻辑回溯?在法律上如何破解AI固有的不可预见性所造成的难题?在行政法、刑法等领域讨论AI法律责任时也会遇到类似疑难。
(三)人工智能法律问题的解决思路
基于对AI法律问题根源与症结的分析,AI法律规制的关键在于解决AI与法律的根本性冲突并通过法律规范AI对人类的替代。从法律体系与立法成本的角度来看,基于前文对AIIA的辩证统一关系、AI法律问题与IA法律问题承继关系的分析,对AI法律规制的探讨宜在IA法律规制的基础上,围绕AI替代人类的特性进一步展开。前文所提炼的AI四项框架性法律问题正是从AI法律问题的产生根源出发,从与IA法律问题相区别的角度围绕AI替代人类而归纳得出。AI法律规制的基本思路应当是分析与解决此四项框架性法律问题,并向各领域延伸。
AI四项框架性法律问题涵盖了一般问题与具体问题,较为庞杂。其中,AI法律规制的价值取向与AI是否具有主体资格属于极为关键的一般性基础问题,关涉AI与法律之间根本性冲突的解决,指向AI法律规制核心基点的确立。前者回答了应当如何解决AI替代人类的理念与法律以人为中心的理念之间冲突的问题,确定了AI法律规制的价值基础。后者回答了应当如何解决AI以机器为中心的去人类化观念与法律上主客二分的观念之间冲突的问题,确定了AI法律规制的逻辑前提。诸多AI法律问题的研究便以这两项一般性基础问题为基础,在对这两项问题未达成基本共识、规制基点无法确立的背景下,对包括AI的适法性问题、责任问题以及AI作品、金融、交通与医疗等问题在内的具体问题的研究便难以深入。受限于问题性质及篇幅,下文仅探讨AI法律规制的价值取向问题与AI的主体资格问题。需要注意的是,AI本身便是多学科交融的产物,除自然科学外,AI与哲学、伦理学等人文科学也存在先天的紧密联系,在研究方法上,AI法律研究应当结合其他学科的研究,在许多问题上甚至需要以其他学科研究为基础,AI的这两项一般性法律问题便属此类。
三、人工智能法律规制应贯彻局部替代人类、整体增强人类的价值取向
AI与法律的理念冲突决定了从法律上规制AI首先需要对AI替代人类的理念进行评价,从整体上确定AI法律规制的价值取向,而不是如IA法律规制一样,仅需跟随技术的发展而作出调整。科学、技术具有双重价值性(正价值与负价值),“AI将造福人类”的乐观论与“AI将毁灭人类”的悲观论分别指出了AI因替代人类而产生的双重价值。在替代人类与增强人类之间,法律不得不进行权衡、选择。有学者指出,要从人机协作和人机共生而不是人机对立的角度探寻发展“基于负责任的态度的可接受的AI”的可能性,应当意识到发展AI旨在增强人类而非替代人类。笔者赞同这种观点。
AI的正价值在于机器智能的再次提升能够让人类的工作与生活更加便利,进一步改造产业模式、提升效率、推动经济发展、扩展对未知世界的探索。随之而来的问题却是AI可能会造成社会结构的巨大变革,冲击劳动力市场,引发严重的伦理困境。AI的本性便是去人类化的,以无人参与的闭环自动化为技术指向,甚至“将自动化本身予以自动化”,在其技术架构中可以没有人类的存在。AI势必继续发展并发挥更大作用,若其以机器为中心、以替代人类为目标的特性不受约束,那么以人类为中心的社会将走向何方?目前已经出现了将人类事务交由AI进行机器决策的情形,若AI智能水平进一步提升,机器决策大规模扩张,将可能产生何种后果?人类连现今的非“智能”网络技术都无法保证安全,何以可能保证具有去人类属性的、强大的“智能”机器是安全的?哲学上的研究多是从认识论的角度研究AI能否以及如何创造出“智能”等问题,价值论的研究相对较少,但已有的价值论研究基本上都是遵循人文主义。人文主义强调个人尊严、价值,坚持以人为本。人工智能伦理学研究也遵循了人文主义,认为应保证AI设计者的伦理性,将符合人类价值的伦理规范嵌入AI,将AI用于增强人类,避免制造出不符合人类价值和利益需求的AI。其中,机器伦理学主要研究如何使AI、机器人在行为上具有伦理性,机器人伦理学主要研究如何对人类设计者进行约束。2017年,电气和电子工程师协会(IEEE)发布的《以伦理为基准的设计:利用人工智能和自主系统最大化人类福祉的愿景》指出以人类价值观为导向的方法论是AI设计的核心。同年,由全球数千名科学家联名签署的“阿西洛马人工智能 23 条伦理原则”第1条原则便指出“人工智能的研究目标应当是创造有益(于人类)而不是不受(人类)控制的智能”。2018年,欧洲政治战略研究中心发布的《人工智能时代:实施以人为中心的人工智能战略》明确提出应将AI用于增强而不是替代人类。可以看出,价值哲学与伦理学并不是简单地跟随与顺应AI技术的发展,而是坚持以人为本,认为应对AI施加必要限制。在面对人类整体族群利益时,AI法律规制的价值理念并非一个特别复杂的问题,在以机器为中心与以人为中心的冲突之间应当选择后者。在法律上,如果只是基于AI的正价值而顺应与促进AI的发展,对AI的负价值却不予限制,无疑是违背人类整体利益与人文主义精神的。
需要注意的是,“替代人类”“增强人类”在技术语境中多为微观意义上的,在价值哲学与伦理学语境中则多为宏观意义上的。从法律上看,坚持AI在宏观上、整体上用于增强人类,并不是要否定AI在微观上、局部上对人的技术性替代,AI对人类的贡献也正在于此。法律应当肯定AI局部性替代人类的积极意义,并预防和避免人类整体性利益被损害。因此,从法律上规制AI,应当采取局部替代人类、整体增强人类的价值取向,适度矫正AI替代人类的理念与技术,对AI前置性地施加以人为本的整体价值负载,提前研判与化解AI对社会结构的冲击。鉴于AI在技术上具有去人类化的属性,其应用具有一定程度上的不可预见性、难以理解性,而且没有任何机构能够保证AI可以被人完全控制,法律在保障AI整体上不偏离增强人类的方向之外,还需要根据AI以机器为中心的技术特性制定相应的规则,从源头上保证人对AI的控制及其可归责性,以弱化复杂的伦理困境与责任认定疑难,尽量消解因AI替代人类而产生的不利影响。笔者认为,局部替代人类、整体增强人类的价值取向应当贯彻于AI其他三项框架性法律问题的解决。第一,AI不具有主体资格(容后详述)。第二,在AI的适法性方面,首先,法律应当确立AI研发规则,要求研发者将伦理代码写入AI,尽量预防伦理风险;其次,在AI使用方面,法律尤其需要确立立法、行政管理、司法审判等敏感领域中的AI准入规则与使用规则,以保障人类安全、服务人类与防范系统性风险,保证人类的最高决策权;最后,AI法律规制应采取主动的事前、事中监管措施,保障技术安全、可控。第三,在AI责任方面,首先,法律应当要求研发者尽可能保障AI的技术可回溯性,在代码层面对AI添加限制,以降低将来认定责任的难度;其次,法律应当强化研发者责任,迫使研发者适度矫正AI,在算法上保证AI行为可归责于相应的人,使AI不偏离整体增强人类的方向;最后,AI责任规则需要在以机器为中心的技术与以人为中心的责任之间建立合理连接,确定归责基础。AI法律规制在立法技术上面临的一般性挑战是,法律规则需要将以AI为基础的法律事实与人关联起来,将以机器为中心的AI置于以人为中心的法律关系之内。
需要指出的是,机器智能技术是会聚技术(NBIC)中的重要技术,可与纳米、生物等技术结合用于改善、增强人类的基因、身体,由此所产生的超(后)人类主义问题超出了本文讨论范围。本文所阐述的增强人类,并不包括将机器智能技术直接融入人类身体而增强人类。从对会聚技术的讨论中可以看出,应当通过制度防范高新技术的滥用,在AIIA上亦是如此,即便用于增强人类,也存在限度。法律对此必须加强监管,防范技术风险,在必要时应如禁止克隆人一样设置技术禁区。在以人为本、增强人类的理念之下,虽然法律需要在短期内作出调整以适应AI的发展趋势,但长远来看,不应当是法律如何迎合AI、而是AI如何迎合法律的问题。
四、人工智能不具有主体资格应作为法律规制的逻辑前提
目前法学界有种代表性观点提出以智能机器人为代表的AI应被赋予主体资格。笔者认为,在现有的科技、哲学、伦理学、社会学与法学背景下,这种观点只是一种过度超前的想象,AI法律规制应在AI不具有主体资格的前提下进行设计。
(一)人工智能难以产生类人的自主性与意识
认为应赋予AI以主体资格的观点大多认同在技术层面AI已经产生或必会产生自主性与意识等类人属性。例如,认为AI、机器人已经逐步具有一定程度的自我意识和自我表达能力;认为智能机器人具有精神,应当享有权利;认为AI具有自主性,非为纯受支配的客体;认为AI会发展到超越工具型的强人工智能阶段;认为智能机器人能够辨认自己行为的性质、意义与后果,人类创造机器人的技术达到了无与伦比的程度,智能机器人可能产生自主的意识和意志。在笔者看来,这些观点往往是基于无依据的断言与假定,对AI技术的理解出现了严重偏差。AI主流技术包括符号主义范式、联接主义范式、行为主义范式及贝叶斯网络、类脑计算等,可以肯定的是,这些技术路径均未令AI产生类人的自主性、意识或者说“智能”,并且在相当长的将来可能也无法实现这一点。基于AI具有意识、自主性等类人属性而主张赋予AI主体资格的法律研究在出发点上可能就是错误的。
符号主义范式立基于长久以来的理性主义、形式逻辑传统以及身心二元论,深受笛卡尔、莱布尼茨、霍布斯等哲学家、数学家思想的影响,将智能理解为物理符号系统,并通过创造符号系统自上而下地模仿人类思维,专长是专家系统、定理证明、棋类博弈等,至今仍是重要的AI技术范式。自20世纪70年代起,符号主义范式受到现象学学者的严厉批判。德雷弗斯认为,这是一种为海德格尔和梅洛-庞蒂所批判的理性主义,不可能取得成功,因为人类智能包含有不可形式化的成分,人的躯体在智能行为中的作用更是无法形式化的,AI无法形成人类主体性意义上的智能。不过德雷弗斯并未否定AI的整体前景,其提出了AI的具身(embodiment)进路。塞尔提出的中文屋思想实验对符号主义范式以及图灵测试进行了批判,认为形式化的符号系统不可能产生“智能”。 AI科学家麦克德莫特批评符号主义范式的支持者“对哲学家们昔日的失败一无所知”。符号主义范式在创造“智能”上遭遇了无法解决的困难,其无法将人类知识全部表征,难以具备背景知识与常识,无法处理非线性、非结构的复杂问题。
符号主义范式的假设被联接主义范式与行为主义范式所否定。联接主义范式受益于认知神经科学的进步,立基于身心二元论,将智能理解为众多并行分布的神经元相互作用的结果,通过数学方法模拟人脑神经网络及其联结机制,采取神经网络算法。行为主义范式受生物进化与遗传的启示,立基于身心一体论,认为智能取决于感知和行为,存在于人与世界的交互,因此采取进化算法,使用包含传感器与执行器的“机器身体”令AI直接与真实世界交互,产生“感知—行为”的反馈,以模拟生物进化的方式产生智能。联结主义范式与行为主义范式突破了传统的冯•诺伊曼计算结构,在21世纪初开始与数据驱动的机器学习相结合,近年来在提升机器智能方面取得了令人瞩目的成就。例如,使用深度神经网络算法的AlphaGoAI技术获得了巨大成功,BigDogAtlasiCubASIMO等机器人在智能方面也取得了重大进展。不过,AI的成就仅限于形式化领域,在意向性领域依然一无所获。联接主义范式与符号主义范式一样,无法跨越知识表征的障碍,计算机仍然难以将人类所拥有的背景知识、形象思维等以符号方式予以形式化表征。被誉为“神经网络之父”的科学家杰弗里•欣顿(Geoffrey Everest Hinton)近两年否定了当下大行其道的深度神经网络算法对于类人智能的意义。行为主义范式所模拟的其实并非人类智能,而是低等生物智能。采取行为主义范式的机器人在欠缺主体意向驱动或外界命令驱动的情况下,无法实施有意义的行为,这使得行为主义范式局限于对工业应用领域低层次智能的模拟。基于概率进行非确定性推理的贝叶斯网络算法高度依赖符号表征,虽可在非确定性推理、模糊计算方面取得一定成功,但高度依赖设计者对问题框架的提前设定,距自主性、意向性的实现十分遥远。“贝叶斯网络之父”朱迪亚•珀尔(Judea Pearl)在2018年否定了贝叶斯网络算法对实现类人智能的意义,认为“因果推理”才是通往类人智能的路线。一些科学家认为类脑计算(神经形态计算)将是从弱人工智能到强人工智能的主要进路,类脑智能将是人工智能的终极目标。类脑计算技术从硬件上突破冯•诺伊曼计算结构,借鉴人脑神经元信息处理机制发展类脑神经芯片与计算平台,试图实现低能耗、容错性与无须编程的三大人脑特性。类脑计算已发展二十余年,其不是如联接主义范式一样对人脑进行局部模拟,而是对人脑的整体运行机制进行研究、模拟,极可能大幅推动AI的进步,但人类至今仍不清楚人脑的整体运行机制,也不清楚“意识”在智能活动中的作用,更无法确定这种机制可以通过机器实现。对于能否创造出真正的“智能”,哲学家即便不予彻底否定,也多持悲观态度,AI科学家、未来学家却多持乐观态度,但也有AI科学家指出,“主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能”。
在法律的向度上,AI是否拥有自主性、意向性与意识,是应否赋予AI自然人格的基础。AI始终依托计算机,图灵机是所有计算机的理论模型,但“丘奇—图灵”论题本身便承认图灵机并非对所有对象均可计算,存在算法不可解。计算机与AI的出发点一直建立在“认知可计算”的计算主义基础上,计算主义建基于一个假定:无法直接观察人脑中智能的运作,而只能借助于对人智能行为的间接观察。只有观察出真正的人脑运作原理并成功模拟,才有可能创造出类人智能,但这两项条件的满足困难重重。从最初的符号主义范式到联结主义范式、行为主义范式的转换,已经显现了计算主义的局限性,计算机器在知识获取、表达与处理上具有先天局限,人类心智的复杂性机制给机器模拟带来了极大困难,在通过机器模拟人类自适应、自学习以及与环境作用时,人类意识的意向性、自指性等重要特征是超越逻辑与算法的,非形式的、不可表征的智能活动是AI无法达到的极限。AI虽快速发展,但在难以进行形式化计算的认知活动中始终未获任何成功便印证了这一点。AI发展至今只有技术意义上的有限自主性,没有类人自主性、意向性与意识,将来可能也很难产生这些类人特性,欠缺类比自然人从而被赋予人格的根本基础。
(二)法律不应赋予人工智能主体资格
塞尔按照AI的智能程度提出的弱人工智能、强人工智能的分类得到普遍赞同,但塞尔当初提出的心智性区分标准却被替换成对人的局部模仿、全部模仿的技术性区分标准,这对于判断AI是否是“智能”的、应否拥有主体资格产生了极强的混淆性。事实上,目前的AI仍是“无心”的弱人工智能,并无“智能”, 不具备赋予主体资格的基础。如前所述,在相当长的将来,AI可能也只是在不“智能”的弱人工智能的框架内提升机器能力。AI法律研究若过度受到激进观念与无依据断言的影响,会出现危言耸听的情形。例如,认为AI技术已经发展到可以作出独立意思表示的阶段;认为只有承认AI的主体地位,才能进而分析其所缔结法律关系的效力问题、举证问题、责任问题;认为AI对民法更深层次的挑战在于对拥有与自然人同等甚至更高智力水平的机器人法律地位的认定;认为智能技术的便捷性和适用性会使传统法律变得没有用武之地,一系列算法机制会不断催生出各种类型“私人订制”的法律,民主机制也会伴随现实法律空间的瓦解失去用武之地;认为应当参照动物保护、法人拟制以及欧盟议会法律事务委员会《关于机器人的民法规则》提出的“电子人”,将AI确立为法律主体;甚至还有观点考虑从机器人的角度来看,若不赋予其公民权,将来可能会出现弥赛亚式的人物对机器人进行救赎。
笔者认为,第一,非人工智能的技术与机器早就可以在无人工介入的情况下作出所谓的独立意思表示、缔结电子合同、形成证据,电子商务法已经解决了意思表示的归属、效力、责任与证据等问题,但未赋予机器主体资格。第二,认为AI已达到或超越人类智能的观点是错误的,因为目前的AI仍然局限于“大数据、小任务”,即便可以局部超越人类智能,但在整体上仍然无法达到人类的智能水平,无法与人类“小数据、大任务”的能力相比拟。第三,参照对克隆人的禁止,人类社会根本就不应允许具有危险性的AI技术不受限制地向替代人类的方向发展,民主机制不仅不应瓦解,而且应当成为限制AI的掣肘。法律的代码化、算法化也是有限度的,因为自然语义的符号化已经是算法难以跨越的障碍,更何况法律不仅是逻辑的,还是经验的。第四,动物保护、法人拟制无法与AI主体资格问题相类比,因为所处环境、背景、价值理念、出发点以及在人类社会所引发的后果与连锁反应是完全不同的。欧盟议会法律事务委员会《关于机器人的民法规则》第59f)条声称,赋予机器人电子人的地位是为了解决所谓的最先进机器人造成的损害问题及外部互动问题。但是,不赋予机器人电子人地位也可以解决这些问题,赋予电子人地位只会使问题变得无谓的复杂。欧盟议会法律事务委员会的这种提议只是一种不成熟的、不成体系的设想,并无坚实的哲学、伦理与法律支撑。在赋予AI主体资格的观点中,机器人索菲亚被沙特宣布为具有公民身份的事例被广泛援引,人们普遍对索菲亚的“我将毁灭人类”等言论感到担忧与恐惧。但明显的是,目前的技术水平根本不可能使索菲亚作出此种自主性的回答,此事件完全是由商业利益推动的。索菲亚的公民身份根本不能成为支撑AI应具有主体资格的论据。AI远超常人吟诗能力的例子也常被援引,但与其说其在创作,不如说其在制造。可以肯定的是,AI无法理解其所吟之诗。主张赋予AI主体资格的观点基本上完全跟随了AI替代人类的理念,很少顾及AI技术的负价值。
应当承认的是,AI在一定程度上突破了主客二分、人物二分的传统观念,较其他人工物更符合“行动者网络理论”中的非人行动者的特点。拉图尔提出的“行动者网络理论”在社会学、人类学、伦理学、科学技术学等学科有着广泛影响,按照该种理论,主体、客体不是严格二分的,环境、人工物等非人因素与人均为具有能动性的、平权的行动者(actant),组成了相互交织的行动者网络。在社会学中,拉图尔“行动者网络理论”因认为非人行动者拥有与人类行动者完全对等的能动性而被批评为一厢情愿,因为其只能在文本中而不是在实践中实现非人行动者的能动性。AI与人类行动者具有更加密切的交织关系,但其不具备意识与意向性能动,在行动者网络中不可能与人类行动者对等、平权。从伦理学角度来看,“行动者网络理论”突破了人工物与道德不相干的传统伦理学观念,由此产生了人工物是否为道德行动者的问题。伦理学上大致包括认为人工物是道德行动者、认为人工物不是道德行动者以及折中的三种观点。折中论是主流观点,其承认人工物的道德能动性,但认为这种道德能动性只是调节性的,而人的道德能动性是原发性的,因此,在行动者网络中不能将人工物看作像人一样的道德行动者,而应将其看作对社会信息、关系具有能动调节作用的“道德调节者”。这种观点能够较好地解释人类与AI之间的伦理关系以及AI的伦理性,即AI与人并不对等,但具有道德调节的能动性,AI不具有主体资格并不意味着其不承担道德负载。认为AI为道德主体(或者说道德行动者)的观点与认为动物、大自然为道德主体的动物中心主义、生态保护主义相似,表达的其实是对动物、自然与人工物的尊重,其共同点在于重塑伦理关护对象的道德地位,仍然是立基于以人类为中心的思想。“无论审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。”若法律赋予AI主体资格,无疑会偏离以人类为中心的思想。
在笔者看来,讨论AI主体资格问题的前提是出现了或极可能出现强人工智能,但哲学上多对强人工智能的出现持悲观态度,在无法确定人脑运行原理能否被准确认识的背景下,即便是乐观的AI科学家也不能确定通往强人工智能的突破口究竟在哪里。当然,我们也不能断言AI绝对不会产生意识、强人工智能一定不会出现,但从计算机结构、AI技术范式以及心智哲学的研究来看,机器从当前的“识别”走向“理解”,从逻辑走向思维甚至产生意识,即便人类上下求索,也是长路漫漫,就连看起来最容易突破的、不以“智能”为目标的无人驾驶也需要经过很长时间的完善。此外,即便技术具备内在的发展逻辑,也不能自主地展开,而是要受到社会的制约和规范的,尤其是具有危险性的技术,AI便属此列。若法律研究不加思辨地在人类社会允许出现拥有自主意识的AI、广泛的强人工智能的立场上讨论赋予AI主体资格,无疑是过度偏离了人文主义,追随了技术决定论,毫不顾及制约技术的必要性。试想克隆人是可能的,却为何被普遍禁止?AI冲击人类法律,研究AI法律规制是十分必要的,但提出将AI从客体提升为主体,在AI具有主体资格的前提下进行法律制度设计,脱离技术现状,过于激进,并无现实意义。况且,AI主体资格问题在更大程度上是哲学、人类学、政治学、伦理学与社会学层面的问题,牵涉极为广泛,并不是一个单纯的法律问题,即便将来出现了强人工智能,也不能简单地在法律范畴内讨论其主体资格问题。笔者认为,对AI系列法律问题应当在AI不具有主体资格的前提下进行研究、解决,这意味着在局部替代人类、整体增强人类的价值取向下,主客二分的传统法律体系完全可以容纳AI
五、结语
人工智能的崛起、机器的类人化催生出一系列法律难题,技术的进一步发展、会聚将对法律产生更深的影响。人工智能的正价值、负价值及法律问题的产生均源于人工智能替代人类的特质,人工智能法律规制应坚持以人为本,发挥技术的正价值,规避技术的负价值,在促进人工智能发展的同时,又予以矫正、限制。这主要体现为法律应秉持人工智能局部替代人类、整体增强人类的价值理念,保障人工智能符合人类伦理,在人工智能不拥有主体资格的前提下进行制度设计,则可消除人工智能与法律的根本性冲突,将人工智能法律规制融入既定法律体系。人工智能正处于快速发展之中,其对人机关系的技术性改造、变革会传递至社会关系并引发连锁反应,大量法律问题的涌现是可以预见的,但一旦人工智能法律规制的两大基点得以确定,立基于其上的具体法律问题研究便不至于纷乱无章。
来源:华政法学

152#
 楼主| 发表于 2019-8-12 22:52:47 | 只看该作者
【案例】
“AI奇点”是个什么鬼?
作者:六个太阳
文章来源:企鹅号 - 读芯术
原文链接:https://cloud.tencent.com/developer/news/68740
人工智能领域里,有一个新名词叫“奇点”,围绕着“人工智能奇点”、“奇点时刻”,专家学者们纷纷加入讨论。
人工智能奇点?读芯君乍一听只能用“不明觉厉”来形容。
你是不是也好奇,老被@的人工智能奇点到底是什么?科学家口中的奇点时刻是啥时候?AI奇点对人类又是福是祸?
烧脑的“奇点”
在解释人工智能奇点之前,先来说说“奇点”。
“奇点”来自英文单词:Singular point或Singularity,至于中文读音,当把“奇点”解释为“奇异点”的时候,读作qi(第二声)点;当把“奇点”当成数学、物理领域的一个科学术语时,读作ji(第一声)点。
是的,奇点并不是人工智能独有的概念,“奇点”一词最早在数学领域里使用,是一个未定义的点。比如在一个y=1/x的函数中,当x无限逼近0的时候,这个函数的取值将趋向无穷大。当它无穷大时,取无穷大的最后一个点,这就是一个不存在、未被定义的点,也就是奇点。
一般人们所说的奇点指的是宇宙奇点,是指根据宇宙大爆炸理论推导出来的一个“原点",万物从这儿产生,时间和空间从奇点爆炸后才有意义。
奇点是物理学中的一个术语。是指在空间和时间上曲率无穷大的一点。在这里,所有的定律全部失效。所以物理学中的奇点,被认为是宇宙的起始点,由奇点爆炸产生了宇宙时空,也被描述黑洞中心的状态,它的密度无限大、时空曲率无限高、热量无限高、体积无限小,一切已知物理定律都在奇点失效,这和数学领域的奇点一样,也是既存在又未被描述定义的。
听起来确实足够烧脑,而当奇点进入人工智能领域,也不断冲击着我们的想象力。
最先将“奇点”引入人工智能领域的是美国的未来学家 雷·库兹韦尔。在他的《奇点临近》《人工智能的未来》两本书中,将二者结合,他用“奇点”作为隐喻,描述的是,当人工智能的能力超越人类的某个时空阶段。
而当人工智能跨域了这个奇点之后,一切我们习以为常的传统、认识、理念、常识,将不复存在,技术的加速发展会导致一个“失控效应”,人工智能将超越人类智能的潜力和控制,迅速改变人类文明。
用更通俗的话翻译一下就是:
如果有人现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得他在扯淡——
“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。接下来的内容,你可能一边读一边心里“呵呵”,而且这些内容可能真的是错的。但是如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将发生比我们预期的多得多得多得多的变化。
同样的逻辑也表明,如果人类这个地球上最发达的物种能够越走越快,总有一天,他们会迈出彻底改变“人类是什么”这一观点的一大步,就好像自然进化不断朝着智能迈步,并且最终迈出一大步产生了人类,从而完全改变了其它所有生物的命运。如果你留心一下近来的科技进步,你会发现,到处都暗示着我们对于生命的认知将要被接下来的发展而彻底改变。
接近奇点的过程:从弱变强再超
人工智能接近奇点的过程,必然是自身不断发展壮大的过程。学者们大致划分出人工智能将经历的三个阶段和层次:弱人工智能、强人工智能、超人工智能。
就目前来说,人工智能远未达到奇点,在它的60年发展史,行业依然处在一个弱人工智能的阶段。弱人工智能只擅长于单一的智能,像是机器翻译、语音识别、深度学习。再比如AlphaGo,它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就懵了。
强人工智能是指在各方面都能和人类比肩的人工智能,综合素质要强。它应该具备“宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手,但目前还做不到。
对超级人工智能,有学者将它定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。” 它能够准确回答几乎所有困难问题,能够执行任何高级指令,能执行开放式任务,而且拥有自由意志、情感认知和自由活动能力。这些,我们只能在电影里想象了。
AI走到超人工智能的阶段,就意味着奇点的来临。
现在,人类已经掌握了弱人工智能。其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生还下来,也可能不会,但是无论如何,世界将变得完全不一样。
奇点时刻:那时的世界可能面目全非
超人工智能什么时候会实现?什么时候奇点来临?
前面提到的雷·库兹韦尔认为:“2045年,奇点来临,人工智能完全超越人类智能,人类历史将彻底改变。”
有一幅关于超人工智能的发展曲线很知名:
看上去非常刺激吧?但是你要记住,当你真的站在时间的图表中的时候,你是看不到曲线的右边的,因为你是看不到未来的。
假设这个人能突然穿越到未来,他会是什么体验?惊讶、震惊、脑洞大开这些词都太温顺了,很可能是这位同学直接被吓尿了。
对这一时间点,2013年的时候,Bostrom做了个问卷调查“你预测人类级别的强人工智能什么时候会实现”,涵盖了数百位人工智能专家,并让回答者给出一个乐观估计、正常估计和悲观估计。
乐观估计中位年:2022年
正常估计中位年:2040年
悲观估计中位年:2075年
当然,这些都只是专家们的推测,但我们要注意的是,这是一群懂人工智能的人做出的。
当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,就好像一个动物一般。然后,它突然达到了最愚笨的人类的程度,我们到时也许会感慨:“看这个人工智能就跟个脑残人类一样聪明,真可爱。”
但问题是,从智能的大局来看,人和人的智能的差别,比如从最愚笨的人类到爱因斯坦的差距,其实是不大的。所以当人工智能达到了脑残级别的智能后,它会很快变得比爱因斯坦更加聪明:
奇点来临,对人类是福是祸?
到达奇点的超级人工智能,他们的力量是难以预测甚至想象的,奇点处,究竟是人类的天堂还是地狱?
·库兹韦尔构想的奇点时代是三个技术领域的共同革命造成的:生物技术、纳米技术和最重要的人工智能技术。能让我们大幅度提高智商和情商,还能帮助我们创造这种有趣的体验世界,让我们享受。人类最终战胜自己的生理,并且变得不可摧毁和永生。
·库兹韦尔无疑是乐观的,但批评的声音也同样逆耳。
霍金就主张人工智能的崛起可能是人类文明的终结,马斯克也认为人工智能将是人类的一大威胁。
当我们考虑各种掌握力量的人和目标,可怕的后果将出现:怀着恶意的人/组织/政府,掌握着怀有恶意的超人工智能。这会是什么样的情况呢?
当我们无法预料人工智能的最终走向,我们茫然;目睹他一步步影响我们的社会,我们开始恐慌,当他有了自我意识,甚至和人一样的人性阴暗时,我们创造出了一个很恐怖的词:生存危机,意味着灭绝。
所有这些,最终都指向两个字“失控”,我们制造了人工智能,却失去了对它的控制。
读芯君开扒
AI奇点必须由人控制
只要参与其中,看好与不看好人工智能奇点未来的人,都在以各自的方式推动AI的发展。一个为我们大胆想象和构建美丽新世界,另一个战战兢兢为我们敲响警钟防止失控。不过读芯君始终认为,人工智能发展的核心和全部内容,都必须基于人类的控制,因为失控的风险太高,人类难以承受其后果。
人工智能奇点设想的是人工智能超越人类的可能性,但现在看起来,它更像是一团混沌的迷雾,我们离他太远,以至于未来究竟如何,还看不清看不透,就连它是否存在都仍有争议。人工智能奇点到来,对人类究竟是福是祸,这一争论或许只有等到那一天真正到来才有定论。
从这一点来看,这更像是一场与人工智能的豪赌,赌上全人类,我们自己的命运,而赢者通吃!要么更上一层楼,要么满盘皆输,全军覆没!
To beor not to be, that’s a question.
生存还是毁灭,这是一个问题。
最后送上《奇点临近》里的一个描述:
第一纪元:物理与化学
第二纪元:生物与DNA
第三纪元:大脑
第四纪元:技术
第五纪元:人类智能与人类技术的结合
第六纪元:宇宙觉醒
编辑:高杰

153#
 楼主| 发表于 2019-8-12 23:00:17 | 只看该作者
【案例】

编辑:高杰
154#
 楼主| 发表于 2019-8-13 20:32:13 | 只看该作者
【案例】
规范重组:数字媒体环境下的新闻伦理体系建构
原文链接:
作者: 常江
文章来源: 新闻记者
本文分别在道义论、功利主义和美德伦理三个层面,通过深度访谈的方法,对数字媒介环境下的新闻伦理体系进行了探索,提出将社会责任、人本主义和美德原则作为数字新闻伦理体系的三个核心观念支柱。
通过对来自一线新闻从业者的伦理认知、认同状况的归纳,本文认为,在宏观层面上,数字新闻伦理仍需紧扣社会责任这一价值内核,以追求民主作为新闻伦理道义论的基础;在中观层面上,以人本主义遏制功利主义的蔓延,针对各类数字技术的具体特征探索建立可为全行业普遍遵守的新生产规范,是数字新闻伦理体系建构的核心任务;在微观层面上,调和新闻行业社会责任和新闻从业者的美德标准两者之间的关系,也是数字新闻伦理建构的重要工作。
.引言
作为哲学的一个分支,伦理学主要探讨人类行为的道德问题,特定的伦理体系通常包含一套指引人类行为的规则体系,以及评估上述规则的各种原则。随着数字媒体时代的到来,传统新闻职业的边界、新闻流通的机制,以及新闻生产与新闻消费之间的界限都变得比以往更加模糊,这对既有新闻伦理体系提出了前所未有的挑战。目前,对新闻伦理问题的考察已经变得相当紧迫,不仅需要我们采纳一种更加激进的思维方式,而且也要竭力通过理论研究工作去促进媒介伦理行动主义media ethics activism)的发生和发展。
作为一种规范体系,新闻伦理同时在个体和社会的层面发挥作用,它既关乎新闻从业者如何在日常工作中做出各种决策,而且也有力地塑造着新闻从业者群体与既定社会规则之间的关系。简而言之,新闻伦理不但指引着新闻从业者做出个人选择,而且也界定着新闻职业的身份……它设定边界,区分新闻业的局内人和局外人,并鼓励新闻从业者与非专业人士和实践保持距离。目前,已有一些学者对数字技术的冲击对传统新闻伦理产生的影响,以及新闻从业者对这一过程做出的反应展开了探索性的研究。
早在1998年,Cooper就提出了新媒体给新闻业带来的40个伦理问题,尽管这些问题较多集中在比较表浅的层面(如文字剽窃和图片篡改现象)。在2000年展开的一项调查中,两位学者严肃审视了媒介融合可能导致的机构利益冲突,以及这种冲突会对新闻生产的道德标准产生的影响。在比较的维度上,有研究者认为,传统新闻伦理体系对新闻的公正性以及新闻源核查的强调,正在转化为对用户协作、生产过程透明性以及后期纠错(postpublication correction)机制的强调,因此数字技术的发展对传统新闻伦理体系提出了几乎是颠覆性的修正要求。在认知或行为层面,有研究指出,数字环境下的新闻从业者普遍对这一变化体现出了抵制(resist)或抗拒(reject)的情绪,他们以前会将伦理作为一种合法性考量的基本原则,今天却只会将伦理当作一种(适应技术环境的)工具
在新伦理体系建构方面,有多位学者展开过深入的讨论。如WardWasserman曾提出建立互联网媒体的开放伦理open ethics),即在全球话语体系下,允许不同的文化与专业思维参与新新闻伦理的建构;Singer更加细致地设计了这一新体系的建构路径,包括对公共服务的强调,对信息准确性的承诺,对煽情主义(sensationalism)的抵制,以及独立于经济压力的业务体系
Fourie则提出应当超越新闻伦理或媒介伦理的概念界限,而致力于建立合乎伦理的传播系统ethical communication)这一价值体系,进而为数字媒体时代设定新的规范理论。
然而,现有的研究并未就数字新闻伦理digital journalism ethics)这一概念的内涵达成共识,这在某种程度上是由于主导新闻业发展转型的数字技术进化速度太快,这一现状使大部分相关研究都不得不紧扣某一种特定的技术在新闻业内制造的伦理困境,如大数据的检索和来源问题、算法的客观性和透明性问题,等等。但在一个问题上,几乎所有研究者都表达了相似的观点,那就是:数字技术的发展凸显出探索建立新的伦理体系,乃至新的新闻规范理论(normative theory)的紧迫性,研究者必须在数字新闻研究中重视对新的伦理道德体系的探索,从而不断明确和锚定新闻从业者在社会中的角色和位置。
本文主要采用Ananny提出的分析框架,回归经典伦理学的基本概念,分别从道义论(deontology)、功利主义(utilitarianism)和美德伦理(virtue ethics)三个维度,对数字媒体环境下的新闻伦理体系进行探索性的建构;而在分析中,这三个维度又分别对应着我们理解新闻伦理问题的三个层面:
宏观的新闻媒体的社会责任、中观的新闻机构及日常新闻生产机制,以及微观的新闻从业者对自身的约束。这一框架有两个显著的优势:
第一,它使研究者得以超脱于具体的技术形式,将数字化视为当代新闻业所拥有的一种总体性生态加以理解,以形成稳定的、规律性的认识;
第二,它兼顾伦理分析的基本框架和新闻业所拥有的独特的结构,使得我们对规范理论的探讨得以更加紧密地与新闻业自身的特征及发展需求相结合。
在方法论方面,本项研究采纳与经典媒介社会学研究既有关联又有区别的文化研究的视角,这种视角将新闻业内的生产实践、身份认同和专业主义视为特定人群(新闻从业者)的特定生活方式,并通过自下而上的路径,获取一手的质化经验资料。
具体而言,笔者在20162月至201712月之间,针对不同的研究议题,对美国、英国和瑞士三个国家共106位一线新闻从业者和数字新闻用户进行了半结构或无结构的深度访谈,尝试通过一手的质化经验资料,勾勒出数字时代的全景式的新闻生态系统news ecosystem)。
这些受访者分别来自17家新闻机构,其中既有ProPublicaSlate、美国在线等数字新闻机构,也有《华盛顿邮报》、《纽约时报》、英国广播公司(BBC)、瑞士法语广播电视公司(RTS)等正在进行数字转型的传统新闻机构(见表1)。由于受到客观条件的限制,一部分访谈是通过Skype等即时通讯软件和电子邮件书面采访完成的。绝大部分访谈用英语完成,一小部分访谈通过法语的电子邮件通信完成。
本文认为,既然新闻学存在的合法性几乎完全来源于它与新闻业之间的辅车相依的关联,那么新闻理论的经验基础必然是也只能是一线新闻从业者对行业的认知、态度和判断。文化研究要求研究者穿上他人的鞋子走路,本土地、自觉地完成对生活经验的理论化,这种视角以往甚少为新闻理论研究人士所借鉴。笔者期望通过这项研究,将文化研究的思维方式的价值注入新闻理论的发展路径。
本文即从上述质化的经验资料出发,对一线新闻从业者对数字时代伦理问题的认知和反思进行呈现和挖掘,尝试建构数字新闻伦理体系。本文认为,一线新闻从业者在数字化转型时期的日常生产实践中对伦理问题形成的种种思考,可以为我们勾勒出一幅清晰的认知地图,帮助我们更好地进行数字新闻伦理体系的建构。
具体而言,本文分别从道义论/新闻媒体的社会责任、功利主义/新闻机构及其日常生产,以及美德伦理/新闻从业者的自我约束三个方面,对访谈资料进行结构性整理。在结论中,也将紧扣这三个方面完成理论化工作。
.数字新闻的道义论
道义论缘起于康德的哲学思想,强调道德的基础是人类交流行为中的职责和义务。在新闻伦理范畴,道义论的话语常见于对新闻业的社会责任的讨论之中。在传统新闻伦理体系中,新闻媒体的社会责任居于核心地位,因为一个负责任的新闻界被视为个体自由和制度民主的重要保障,一如哈钦斯委员会(Hutchins Commission)在《一个自由而负责任的新闻界》(A Free and Responsible Press)中所强调的:如果人民要想在拥有自由的同时为社会做出贡献,就必须确保他们拥有接近真实信息的权利,而且这些信息必须能够公正呈现每天发生的重要事务,以及这些事务对普通人的影响。
对于传统新闻伦理为新闻业设定的这一宏大责任,受访的新闻从业者呈现出观点的分化。其中,大部分受访者坚持新闻业在传统时代被赋予的这种社会责任,并通过对数字技术的某些偏向的批评,来强调新的伦理体系绝不可放弃对社会责任的坚守。
例如,一位来自美国某新闻网站的编辑称:我其实从来都对算法所声称的中立性不以为然。对于某一条报道来说,大数据是有用的,也是高效的,但在总体的图景上,算法只会利用已有的数据,而这些数据对于我们理解整个社会永远是有限的。新闻要想发挥自己应有的作用,就必须克服这种绝对客观的话语,要看到数据并不是万能的。
还有一位来自英国的受访者则干脆认为,大数据往往是被操纵的,她反问:究竟人类生活的哪些领域的数据能够被收纳进所谓的大数据?又是哪些机构和人有资格对这些数据的质量和用处进行分类、分级?如果整个行业都把选择和判断的权力交给大数据和机器人,那么这个行业还能称自己为新闻业吗?我们还有资格称自己为新闻从业者吗?
从这些言论中可以看出,新闻的社会责任论不但在数字时代的新闻从业者群体中有着深厚的认知基础,而且在某种程度上成为其理解和探讨其他层面的伦理问题(比如机构层面、个体层面)的前提。很多新闻从业者用社会责任,以及与之相关的其他话语(如公共服务),来抵御或至少延缓数字技术给自己造成的心理冲击。
不过,也有一些受访者认为,数字技术本身其实并不存在破坏新闻业社会责任的偏向,恰恰相反,对于数字技术的正确使用也许可以令新闻业更好地履行其社会责任。例如,一位瑞士的受访者称:我们不得不承认,算法的确在某种程度上让我们关注到了以往不会去关注的东西,为我们看待某些事务打开了眼界,让我们能够理解一些社会现象的潜在意义,从而给读者提供更好的指引。但持有这样观点的受访者往往也会同时强调的因素不可或缺,即人对于技术的全面掌控是技术的发展能够服务于新闻业的终极伦理的保障,一如一位来自美国某报纸的受访者所说的:比起威胁来,我更愿意将数字技术的潮流看作是新闻业所面临的一个机遇,只要从业者对技术保持清醒,坚持新闻业的公共服务精神,那么整个行业有比过去更大的可能去克服责任和市场之间的矛盾,从而使整个社会的构成更加符合民主的精神。
当然,也不难发现,持有这一观点的受访者大多来自数字化成色更足的新闻机构,比如新闻网站。在这些机构,新闻生产的技术和新闻分发的渠道已完全是数字化的,其从业者对技术的态度也更加温和,这在一定程度上印证了Willnat等人在2013-2014年间展开的一项调查的结果:传统新闻媒体(电视和报纸)的从业者比其他新闻媒体从业者更重视新闻业的传播者(disseminator)角色,进而也拥有更加强烈的公共性理念。
当然,也有少数受访者对社会责任这一概念本身提出了质疑,认为人们对这一概念的理解从始至终都是权力结构操纵的结果。如一位英国的受访者所言:在新闻业的社会责任中,很少包括对边缘群体和弱势群体的关注;追求多数人的利益其实是一种更加基础的、本质性的偏见,而数字时代到来以后这一点并没有根本性的改变。不过,持这样观点的受访者很少,其对支配欧美新闻业的权力结构(power structure)的分析,也超出了本文所要讨论的话题范畴。
总体而言,无论如何看待传播技术在新闻业的社会责任中扮演的角色,受访者皆普遍认同社会责任是新闻业在现代社会中存在、立足和发展的基本道义,这一点并未因为数字时代的到来而出现显著的变化。这也表明,至少在宏观层面来看,社会责任论在数字新闻伦理体系中仍然占有不可替代的位置,它既被新闻从业者用来规划自己在行业中的长远价值目标,也被运用于遏制数字化的新闻业可能出现的反民主倾向。
不过,在数字技术环境下,新闻业的社会责任的内涵究竟是什么,还需要从业者和学界展开全面的反思和探讨。正像Glasser所指出的那样:新闻业不能在高扬民主大旗的同时,又以一种独断专行的立场去理解伦理问题……这样的新闻业不过是披着民主外衣的独裁机构而已。
.功利主义视角下的数字新闻伦理
功利主义的新闻伦理观主要源于边沁的古典功利主义理论,这种伦理观的核心在于探索和追求如何在最大程度上令最大数量的人受益。在日常生活的实践中,功利主义通常将大多数人的利益(或幸福)作为评判制度的标准,因此在很多情况下体现为一种缺乏人性考量的、绝对化的理性。
正如博克斯所指出的:功利主义往往通过对导致未来特定后果的现实行为的强调,来批判甚至否定一切感官化的生活……包括个体化的情感与动物本能。功利主义忽视情感和个体的(偏离集体趋势的)价值选择的倾向,往往很容易跟各种形式的社会进化论结合,甚至,在当代社会,功利主义思想的主要表现形式就是进化论功利主义evolutionary utilitarianism),其主要的修辞就体现在功利主义者应当遵守哪些能够让人类幸福最大化的道德准则
在某种程度上,数字技术在新闻业内的迅猛发展与功利主义伦理观的盛行有直接的关系:正是由于对数字技术的引入和使用能够在最大程度上提升行业效率,以更低的成本完成新闻的流通并令更大范围的用户受益,因此即使在传统新闻伦理体系内,也往往存在着支持和鼓励技术的倾向。在新闻从业者的日常生产实践中,追求效率受益的功利主义的伦理观一直有着强大的影响力,是新闻从业者采纳、理解和反思数字新闻生产技术的重要的认知依据。
然而,在访谈中发现,大多数受访者对于功利主义的伦理观持有较为强烈的批判态度,并将对这一观点的批评作为其反思数字技术的话语基础。其中,数字技术给新闻业带来的前所未有的时效性需求,成为其批判的重点。
比如,一位来自瑞士的受访者称:“当下新闻业的道德问题,几乎就是由新闻机构过分追求时效造成的,每一个新闻机构都想抢在同行之前提供信息以获得最大的收益,这不可避免导致新闻中存在比以往更多的错误,这种错误正在一点一点将新闻变成一个可笑的东西。”另一位来自美国的受访者也表示:“对速度的追求,迫使记者和编辑不得不与用户合作以获得一手信息,也迫使新闻机构不得不投入大量的精力去解决纠错的问题。如果为了速度连基本的准确性都不要了,那么还有什么理由让公众相信新闻是为他们的利益服务的呢?”
当然,甚少受访者会明确将日常新闻生产中这种为竞争而牺牲准确性的现象与一般意义上的数字技术环境联系起来,他们更多是在批评新闻机构和新闻从业者的具体选择。在某种程度上,这也体现出了新闻从业者对于自己在新闻生产中的垄断地位受到威胁做出的反应——他们感觉自己是在被迫做出过于功利主义的选择。
在具体的技术应用层面上,受访者的批评和反思主要集中在大数据和算法两个领域。
针对大数据,受访者大多强调其可能导致的两类伦理问题:一是隐私权问题,二是数据操纵问题。例如,一位来自英国的受访者指出:记者被要求使用数据来完成报道,但却无法确定数据的来源,比如,这些数据是不是用非法的手段收集来的?拥有这些数据的公司在多大程度上可以保证数据的合法和透明?更重要的是,这些数据在被记者和编辑使用之前,是不是存在被篡改的可能?对于这些问题,新闻机构或许还能知悉一些,但记者完全是一头雾水的。而一位来自美国的受访者也称:必须要警惕数据对私人空间的侵袭,尤其是……当这些数据被用于新闻报道,它所产生的破坏力将是我们难以想象的。
很多受访者认为,尽管与数据来源相关的很多问题都是法律问题,但新闻机构在使用这些数据的时候却不得不在道德和效率之间做出选择。一些受访者失望地表示,在这种情况下新闻机构往往会选择后者,做出这一选择则多半是迫于生存压力。
至于算法,受访者的意见较为集中:多针对算法的透明性问题。很多受访者表示自己的专业技能不足以对自动化报道生成的整个过程进行必要的干预,因而产生了一种失控感。一位来自英国的受访者表示:在过去,保护新闻源是全行业一个不言自明的准则。
但是,当算法代替记者和编辑做了绝大部分工作,我认为新闻源也相应地不应该继续是一个秘密。还有一些受访者表示,算法的不透明有可能导致很多实际的问题,比如信息的准确性。一位美国受访者提到,美联社曾在一篇商业报道中,因算法的编码过程出了问题而生成了错误的内容,将某公司过去一年的经营情况完全弄反了。用这位受访者的话来说:如果算法的编码过程没做好,那么软件完全有可能自动生成错误的报道。
更糟糕的是,对于编辑来说,这个过程是完全无法介入的,我们只能在报道发布之后,再去纠错。我想,这严重地损害了新闻的公共价值。此外,还有受访者提出,基于算法的自动化报道或许不应该被视为严格意义上的新闻,而应该有专门的生产规范和伦理规则。
总体而言,在较为中观的层面,本文的受访者普遍表示了对数字技术冲击下的新闻机构过分追求效率、收益和影响力的功利主义态度的批判。大多数人认为,应当强化人性在新闻生产机制中的重要性以制衡日趋失控的功利主义倾向。至于如何在日常生产实践中体现人性的存在和影响,大多数受访者并未达成共识。
但无论如何,受访者均在如下问题上持有高度相似的观点,那就是新闻机构应当对于数据的来源、编码的质量以及经算法生成的报道可能具有的潜在法律及道德风险进行更加严格的审核,同时也应当在盈利和新闻报道质量之间做好平衡。在数字媒体时代,显然新闻从业者对新闻机构的操守提出了更高的要求。对于数字时代的新闻机构而言,平衡功利主义和人本主义(humanitarianism)之间的关系或许将是一个持续存在的伦理难题。
.新闻从业者对自身的美德要求
在伦理学体系中,美德主要关注的是个体对自身的道德要求。简而言之,就是个体对于我应该做一个什么样的人的思考和回答。对于新闻从业者来说,对美德问题的认识不可避免要受到新闻业的行业规范和从业者的主流身份认同的影响。因此,新闻从业者的美德是人性美德与职业美德相融合的产物。传统新闻伦理体系下的美德标准较为多元,但这些标准可被大致归结为三方面的要求:
性质(character)先于结果(consequences)、good)先于right),以及主体相涉(agent-relative)价值与主体中立(agent-neutral)价值并重。在新闻从业者的个体认知中,上述三方面的要求往往具体化为一系列行为原则,包括关切(care)公众及弱势群体的利益、避免对无辜的人构成冒犯或伤害、尽量以客观的方式呈现与自身所在社区或群体利益相关的冲突、努力追求报道过程的程序合法及正义,等等。这些行为原则对于新闻从业者的职业身份认同,以及他们对自身与行业、自身与社会之间关系的思考,发挥着至关重要的作用。
总体而言,对于传统新闻伦理的各项美德原则,本文的受访者均保持着较为强烈的认同。绝大多数受访者认为,新闻从业者应当具有一种源于公共服务精神的,尽管在日常工作中要遵从理性和客观的要求,但应当是理性和客观的基础。正如一位瑞士的受访者所说的:要想成为一名好新闻记者,你首先要是一个好人……当然,这不是指你要同情心泛滥,或者时时刻刻想要做拯救地球的英雄。
善良是贯穿在日常新闻工作中的,如同一种世界观,它的存在确保你的新闻报道并不仅仅是冷冰冰的事实和不关己事的冷漠。还有一位美国的受访者提出,善良与否主要体现在新闻从业者对待公权力和对待公民个体的态度的差异上——在很多时候,对公权力的审视越是严苛和冷酷,反而表明了从业者的行为越是合乎善的法则。几乎所有的受访者都认为,对个人美德层面的的追求,并没有因新闻生产的技术环境的变化而发生根本性的改变。
但尽管如此,受访者还是对于数字技术可能对从业者的总体美德水平构成的侵蚀表示担忧。相当一部分受访者认为,数字技术给记者和编辑群体带来了太多的诱惑,而新闻从业者要想抵御这些诱惑,就必须对技术的负面效应有更加清醒的认识。比如,一位英国的受访者认为,数字技术在某种程度上诱使从业者将自己变成业务上的多面手,其结果则是新闻生产的结果导向。他说:我认为应该将那种需要时时刻刻盯着最新的信息流、留意其他媒体报道的标题、关注社交媒体上的讨论的职位,和那种需要人潜下心来寻找有价值的选题、撰写有深度的文章、追求专精于某一领域的职位区分开来。将生产调查性报道的人和只知道在推特及Facebook上发帖子的人混为一谈,是十分可笑的。
而在另一位瑞士的受访者看来,数字技术对时效性的过分强调仍然是最值得警惕的伦理危机:在数字化之前,编辑部门已经是24小时不间断运转的了。数字化完成后,情况变得更加荒唐可笑,很多编辑甚至会因为偶尔离开了自己的办公桌而产生愧疚感,因为他们觉得自己浪费了太多时间……我们常说假新闻越来越多,这实际上是新闻从业者在时间的压力下不可避免会犯的错误。
很多受访者认为,新闻从业者的美德在很大程度上体现在他们生产的新闻不止揭示事实本身,而且也能够让新闻符合某种程度上的正义性。例如,一位美国的受访者即表示算法在新闻生产中的推广在很大程度上印证了人的价值判断的重要性。他说:算法只会执行程序的命令,而不会对选题和表述做出合乎人情的判断。我很担心一种情况发生,那就是当越来越多的新闻报道是由程序自动生成的,记者们会渐渐习惯于这种过于冷静,甚至过于客观的新闻。这样一来,新闻最重要的一项使命就被忽视了,那就是让读者能够知道自己究竟如何在当下的社会环境下做出正确的选择。
也有受访者指出,数字技术其实并不必然带来负面的影响,它对协同性生产participatory production)的强调或许会令新闻从业者更多地理解和吸纳普通用户的观点,从而使其观念和行为更加符合的标准。当然,持这一观点的受访者大多供职于数字化程度较高的新闻机构。如美国某新闻网站的一位受访者称:数字新闻记者其实已经拥有了属于自己的(伦理)标准,而这套标准其实是在从业者和公众的协同关系中被制定出来的。由于读者在规则制定的过程中有越来越大的话语权,因此记者的行为也就要受到更多力量的制衡。
但无论持有何种观点,绝大多数受访者都对新闻从业者的美德给予很高的重视。一些受访者甚至认为个体美德水准的重要性要高于整个行业所设定的共同的价值标准,正像一位瑞士受访者所说的:当行业的规则与自己内心的选择发生冲突时,应当坚定不移地选择后者。这实际上体现出了传统新闻伦理体系在从业者个体认知和情感层面的稳定性。这一结论在某种程度上印证了García-Avilés的观点:新闻从业者对自身的美德要求并未因新闻机构的类型(传统或数字)差异而有本质的变化,作为实践共同体community of practice)的新闻从业者有能力很好地应对当下的种种伦理挑战
.建构中的数字新闻伦理体系
本文采用成熟的分析框架,分别在道义论、功利主义和美德伦理三个层面,以深度访谈的方法,对数字媒介环境下的新闻伦理体系进行了探索。通过对来自一线新闻从业者的伦理认知、认同状况的归纳,本文认为,对于数字新闻伦理体系的建构工作在宏观、中观和微观三个层面,面临着不同的任务和挑战,也有不同的目标。
在宏观(新闻行业)层面上,传统的社会责任话语始终在一线新闻从业者的认知中占据核心地位。尽管人们对于数字技术和新闻业的社会责任之间的关系形成了不尽相同的理解,但这并未动摇社会责任本身作为现代新闻业的道义基石这一事实。新闻业以民主为价值宗旨,通过生产和传播基于事实的信息的方式推动社会进步,这一点并未因数字时代的到来而有所改变。在我们对数字新闻伦理体系进行建构时,仍需紧扣社会责任这一价值内核,以追求民主作为新闻伦理道义论的基础。
在中观(新闻机构)层面上,本文发现,数字技术的介入无节制地放大了传统新闻伦理中的功利主义面向,从而在日常生产实践中制造了功利导向的伦理危机。数字新闻机构存在盲目追求效率、价值虚无以及技术崇拜的倾向,的存在和价值则受到不同程度的轻视,这凸显出了在我们将计算机伦理移植到新闻场域时,积极而有效地引入人本主义观念的重要性。因此,在日常生产和机构运作层面,以人本主义遏制功利主义的蔓延,强调人相对于数据和算法的价值主体地位,并针对各类数字技术的具体特征探索建立可为全行业普遍遵守的新生产规范,是数字新闻伦理体系建构的核心任务。
在微观(新闻从业者个体)层面上,不难发现在数字技术的影响下,美德原则的重要性大大提升,其权重甚至在很多情况下超越了整个新闻业的社会责任。数字技术的普及显然在从业者和行业、机构之间制造了矛盾,记者和编辑不再充分信赖行业和机构能够代表自身,在面对伦理挑战的时候做出的选择。因此,与传统新闻伦理体系不同,数字新闻伦理中的个体美德和全行业的社会责任不再基于逻辑上的一致性。
恰恰相反,越来越多的新闻从业者会以一种更加自我、更加个人化的标准,在遭遇伦理困境时做出符合美德标准的选择。如何在技术哲学的框架内,调和新闻行业社会责任和新闻从业者的美德标准两者之间的关系,透过两者表面的冲突,建立起一种具有内在连续性的观念体系,也是数字新闻伦理建构的重要工作。
因此,我们不妨将社会责任、人本主义和美德原则作为数字新闻伦理体系的三个核心观念支柱。而对于未来的新闻伦理研究来说,如何弥补抽象而宏大的“社会责任”与人本主义、美德原则等嵌入具体新闻生产实践和个人选择的伦理原则之间的逻辑裂缝,是一个重要而紧迫的任务。
编辑:高杰

155#
 楼主| 发表于 2019-8-13 23:00:17 | 只看该作者
【案例】
剑桥大学2019年度AI发展报告
原文链接:https://mp.weixin.qq.com/s/AaDFM269EeLh_mTRCNy6qg
文章来源:智能制造  
导读

近日,剑桥大学发布了2019年度AI发展报告,在这份137页的报告中,涵盖了AI研究、人才、产业等多方面内容,值得一提的是,这份报告专门开辟了一个章节来介绍中国AI技术的发展。
本期我们将推荐剑桥大学的报告《2019AI发展》, 梳理过去十二个月AI技术的发展。

研究和技术进步
增强学习技术已在多个游戏中取得大幅进步,包括《蒙特祖玛的复仇》、 《星际争霸2》、《雷神之锤3》。在《蒙特祖玛的复仇》中,AI应用最新的随机网络蒸馏技术( RandomNetwork Distillation (RND) )已经取得了10000分的超高分;在《星际争霸2》中Deepmind以5:0的比分战胜了世界级人类选手。Open AI的dota2选手现在已经进行了超过7000场与人类对决的游戏,并取得了99.4%的胜率。
相比于去年的版本,OpenAI 有了超过八倍的训练量,Dota项目已经相当于人类打了45000年的游戏。
接下来,增强学习将有以下几个趋势:1、使机器人以玩耍的形式来学习,就像人类孩童时期获得复杂技能和行为时的方式一样;2、好奇心驱动的探索;3、面向在线计划学习动态模型;4、研究成果逐步实用化。
机器学习技术在生命科学也取得了重大突破:AlphaFold预测出了折叠蛋白的三维结构。
在自然语言处理方面,今年出现了一个里程碑般的模型:预先训练的语言模型。
在医学方面,深度学习技术已经可以诊断眼部疾病、心电图法检测和分类心律失常。最轰动的是,神经网络已经可以从脑电波中解码你的想法。
神经网络可以恢复残障人士的肢体控制。

机器现在可以学习如何合成化学分子,利用神经网络与蒙特卡罗树搜索相结合,通过对1240万个反应的训练来解决反合成问题。
GAN的技术水平在不断发展,从颗粒到GANgsta,较大的模型和大批量训练进一步提高了使用GAN生成的图像的质量。
AI现在已经可以从一张图片中识别出一个物体的三维轮廓。
16625篇人工智能论文的分析表明,在过去25年里,随着机器学习和强化学习成为最受欢迎的话题,人工智能论文的出版数量出现了巨大的增长。
人才
谷歌继续保持领先地位,在AI顶级会议 NeurIPS 上的论文最多。
科技巨头的高级AI工程师的薪酬接近100万美元。
另一方面,每小时1.47美元的数据标签工作也有了巨大的增长。
欧洲发表的人工智能论文最多,但只有中国的平均引文率在增长。欧洲的产量似乎超过了其所占比重。分析不同地区论文的平均被引率表明,只有来自中国的论文才引用率在增长。美国作者发表的论文被引用的次数比全球平均水平高出83%。
大学人工智能课程的招生人数在增长,尤其是在中国。
AI产业
人工智能相关的全球风险投资以每年270亿美元的速度增长。在17财年和18财年,投资资本增加了近80%,其中北美市场份额最高,达到55%。
科技巨头继续吞并人工智能技术优势的初创企业。
美国工厂正在安装创纪录数量的机器人。去年美国工厂增加了35880台机器人,比2017年增加了7%。下图显示了2011-18年按行业划分的单位数量。
自动驾驶汽车现在是数十亿美元资产负债表的游戏。
2012年到2017年,人工智能专利的增长速度超过了人工智能科学出版物(28%对6%)。随着机器学习发现更多的商业应用,科学论文与专利的比例大幅下降。
计算机视觉是最受欢迎的专利领域。在计算机视觉中,最受欢迎的领域是生物统计学(与生物数据相关的应用)。
人工智能硬件:高通的骁龙处理器通过为浮点和量化神经网络展示非常强大的性能和硬件加速赢得了胜利。基准测试任务包括分类、人脸识别、去模糊、超分辨率、分割和增强。
file:///C:/Users/le/AppData/Local/Temp/ksohtml20492/wps46.png
中国AI发展
人脸识别的用户体验:减少日常用户用例的摩擦。
中国互联网巨头开始向农业领域扩张,阿里巴巴和京东都进入了畜牧业和昆虫养殖业。
中国的工业自动化和工作岗位的转移正在增加,在过去的三年里,一些中国的工业企业已经使其40%的劳动力自动化。这可能部分是因为自2012年以来,中国每年的机器人安装数量增长了500%(欧洲为112%)。然而,目前还不清楚这些安装的机器人上多大程度上运行人工智能软在,或者在多大程度上促进了它们的增长。
在中国,机器人正在推动自动化仓储。京东上海配送中心每天使用自动化仓库机器人组织、挑选和运送20万份订单。这个设施由四名工人照管。京东的仓库数量和表面积同比增长45%。
中国企业拥有的专利最多,但只有23%是“发明专利”。发明专利的审批过程充满挑战,一旦获得批准,将获得20年的保护。实用新型和外观设计专利都有10年的使用寿命,不需要经过严格的审查,可以在不到1年内授予。这种双重专利制度使中国在专利方面领先于其他国家。
中国最近发表了许多有影响力的机器学习学术研究成果。中国发表的ML研究论文数量已经超过了美国。艾伦研究所(Allen Institute)最近的一项分析显示,中国在质量方面的差距也在迅速缩小。
未来
剑桥预测了接下来的12个月AI领域的六件大事。分别是:1、目前有一波新的初创企业正在应用NLP研究最近取得的突破。在接下来的12个月里,他们将筹集超过1亿美元的资金。2、自动驾驶技术在很大程度上仍处于研发阶段。2019年,没有哪家自动驾驶汽车公司的行驶里程超过1500万英里,仅相当于加州1000名司机一年的行驶里程。3、许多公司将采用保护隐私的ML技术,以加强其数据安全和用户隐私政策。4、高等教育机构设立专门的人工智能本科学位,以填补人才空缺。5、谷歌在量子计算硬件方面取得重大突破,使得至少5家试图进行量子机器学习的初创企业的成立。6、随着人工智能系统变得越来越强大,对人工智能的治理成为一个更大的主题,至少有一家大型人工智能公司将对它们的治理模型做出了实质性的改变。
我们认为,AI技术在过去的一年里取得了突飞猛进的进展,很多实用型的技术从研究阶段走到了实用化阶段,尤其在医药、自动驾驶、机器人等行业。在这份剑桥大学的报告中,中国的AI行业发展被单独拿出来作为一个章节,虽然评价有正有负,但这也反映出了中国AI在世界已经占有不小的影响力。
编辑:高杰

图片3.png (332.12 KB, 下载次数: 47)

图片3.png

图片30.png (145.75 KB, 下载次数: 69)

图片30.png
156#
 楼主| 发表于 2019-8-13 23:08:32 | 只看该作者
【案例】
路透社如何使用人工智能报道新闻
文章来源:西外译新社

作者:Jacob Granger
  2018年11月12日
  路透社执行编辑雷格蔡(Reg Chua,如图)在上周(11月7日)举行的新闻连线会议上指出,路透社正在利用AI助手新闻追踪器(News Tracer)和Lynx Insight,以人类的判断力和机器功能共同推动其新闻事业发展。
  正如他所描述的那样,“新闻编辑控制室”依赖于人类和机器的共同力量,将各自的优势展现出来。
  Lynx Insight通过识别趋势、关键事实和建议记者应该撰写的新闻,来为人文新闻添砖加瓦。
  路透社使用大规模的自动化数据筛选以及社内记者自行编写的算法程序,目的是给观众一个新鲜且由数据驱动的视角。
  “机器比人类做得好的地方是什么?”雷格蔡说道。“是速度、广度和计算分析。”
  “人类比机器做得更好的又是什么呢?我们给机器指明方向,给故事提供背景,可以应对非数据世界,可以得到更好的报价。”
  “当我们把这些问题放在一起时,我们真正需要问的问题是:人类和机器如何才能将各自的优势完美地结合起来?这正是新闻编辑控制室的起源。”
  雷格蔡表示,开发Lynx Insights最初的想法是帮助他们做市场报道,但未来可能会应用于其他领域。比如在体育报道中,它可以生成大量的统计数据、报告和排名,以便在赛前和赛后进行报道。
  他补充说,此前路透社曾推出过一款名为“新闻追踪工具”的智能助手,它可以帮助记者在Twitter上搜索突发新闻,并融合人类和机器各自的优势,剔除不可靠的消息来源。
  这个AI助手每天可以实时筛选7亿条推文,并标记出任何在算法中符合特定新闻价值和真实性要求的潜在突发性新闻事件。
  它会根据“新闻价值评级”来查找类似的推文,然后根据粉丝、关联媒体、链接和推文结构等大量因素来验证消息来源。
  这个工具模仿最初的新闻程序,其范围和速度是人类无法企及的。随后它将这些调查结果提交给记者,由他们自己完成最后的独立核查,以确保消息来源和报道内容符合发表的要求。
  雷格蔡说,这是人类记者和机器人“记者”如何在新闻收集和写作过程中发挥协调作用的又一个例子。
  “我们在考虑如何让双方实现最好的协作。我们可以从数据中生成语句,创造洞察力。”
  “这是我们可以创造出来的东西,它是一堆不连贯的句子,我们可以把它们交给记者,让他们决定什么是重要的,选取出故事中最重要的部分。”
  “我们可以用机器来挖掘数据,让人类来讲述故事。机器可以帮助人类在新闻上领先一步。”
  -END-
  此平台为西安外国语大学新闻与传播学院学生自媒体编译实践平台所译文章,仅作学术交流和业务探讨,无任何商业用途,如有版权问题,请及时联系我们。转载请注明来自“西外译新社”。
  翻译:冯瑞博
  校对:蔡榕
  图片来源:journalism.co.uk
编辑:高杰

157#
 楼主| 发表于 2019-8-14 21:51:03 | 只看该作者
【案例】
未来的智能研发趋势:从Being Should
文章来源:人机与认知实验室  
作者:金声  
原文链接:https://mp.weixin.qq.com/s/jA9GdkwkVW1F02t1SP7P1Q
认知是真实的表征反映,计算是符号的模拟仿仿真。算法的实质是建立在计算逻辑基础上的理性思路,缺少非事实或反事实想象过程,即面向事实中对象、属性、关系不断变换调整的认知动态过程。
    数据不会告诉你,但认知——会。
问:你是在暗示有一种远离机器学习的趋势吗?
Judea Pearl:不是一种趋势,而是一种严肃的自我反省,包括这些问题:我们要去哪里?下一步是什么?
问:那是我最不愿意问你的问题。
Judea Pearl:我很高兴你没有问我关于自由意志的问题。
问:那么,你对自由意志有什么看法?(智能菌标注:好尴尬,提问者机智如我~)
Judea Pearl:我们绝对会开发出具有自由意志的机器人。我们必须了解如何对它们进行编程,以及从中我们能获得什么。由于某些原因,对于进化来讲,这种自由意志是可以被计算的。
问:以什么方式呢?
Judea Pearl:你具备自由意志,进化使我们有了这种感觉。显然,它提供了一些计算功能。
问:机器人出现自由意志的时候会很明显吗?
Judea Pearl:我认为第一个证据是,如果机器人开始反事实地相互交流,比如它们说出“你应该做得更好”。如果一个机器人团队开始用这种语言进行交流,那么我们就将知道他们具备了自由意志。“你应该把球传给我——我在等你,而你没有!”“你应该做某件事”意味着你可以控制做或者不做某件事。所以第一个迹象是交流,第二个是能够踢更好的足球。
    也许真的被休谟说中了:从Being 到Should就是未来智能领域的归宿……
编辑:高杰

158#
 楼主| 发表于 2019-8-14 22:07:24 | 只看该作者
【案例】
中国决定以“六大政策”推动新一代人工智能发展
原文链接:https://mp.weixin.qq.com/s/QCjFpXqvMOr1l-WXKFxVEQ
文章来源:智造智库
以新一代人工智能为代表的新一轮科技革命和产业变革已经呈现出强大的影响力和生命力,人工智能技术对生产、流通、消费等形成高度渗透、跨界融合,新业态、新模式不断涌现,给以往的产业生态、社会分工、行业和企业边界、生产组织方式等诸多方面带来前所未有的新变化。促进新业态、新产业发展的关键在于强化产业政策,为新兴产业发展创造更加有利的外部环境。面对新形势新需求,必须主动求变应变,牢牢把握人工智能发展的重大历史机遇,紧扣发展、研判大势、主动谋划、把握方向、抢占先机,引领世界人工智能发展新潮流,服务经济社会发展和支撑国家安全,带动国家竞争力整体跃升和跨越式发展。为此,我国政府决定,以“六大政策”为主,围绕推动我国人工智能健康快速发展的现实要求,妥善应对人工智能可能带来的挑战,形成适应人工智能发展的制度安排,构建开放包容的国际化环境,夯实人工智能发展的社会基础。
  • 制定促进人工智能发展的法律法规和伦理规范
    加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础。开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战(图1)。

file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps22.png
1 制定促进人工智能发展的法律法规和伦理规范
人工智能也带来了隐私权问题。现阶段人工智能的应用是和数据密不可分的。例如商家在利用人工智能挖掘消费者偏好时,就必须依赖从消费者处搜集的数据(包括身份信息、交易习惯数据等)。对于消费者来讲,让商家搜集这些数据将是有利有弊的——一方面,这些数据可以让商家更充分地了解他们的偏好,从而为他们更好地服务;另一方面,消费者的这些数据被搜集后也会带来很多问题,例如可能被商家进行价格歧视,受到商家的推销骚扰,在部分极端的情况下甚至可能因此而受到人身方面的威胁。在数据的搜集和交换不太频繁的情况下,消费者在遭受因数据引发的麻烦时很容易追踪到责任源头,因此他们可以有效地对出让数据而带来的风险进行成本收益分析。在理性决策下,一些消费者会选择自愿出让自己的数据。但是,随着大数据和人工智能技术的发展,这种情况发生了改变:(1)商家在搜集了数据后可以更持久保存,可以在未来进行更多的使用,因此消费者出让数据这一行为带来的收益和遭受的累积风险之间将变得十分不对称;(2)由于现在商家搜集数据的行为已经变得十分频繁,当消费者遭受了数据相关的问题后也很难判断究竟是哪个商家造成的问题,因此事实上就很难进行追责;(3)商家在搜集消费者数据后,可能并没有按照其事先向消费者承诺的那样合理使用数据,而消费者却很难惩罚这种行为。在上述背景下,如何对数据使用进行有效治理,如何在保护消费者合法权益的基础上有效利用数据就成为了一个需要尤其值得关注的问题。目前,对于人工智能条件下如何保护消费者隐私的争议很多,有学者认为应当由政府进行更多监管,有学者认为应当由企业自身进行治理,有学者则认为应该由民间团体组织治理。总体来讲,几种思路都各有其利弊,因此这一问题目前仍然是一个开放性问题。人工智能技术与物理世界日益紧密的联系,也会带来数据安全及伦理道德方面的挑战。在这个数据赋能的新时代,我们必须充分关注数据共享在创造便利和优势的同时所面临的潜在安全风险。建立健全网络安全相关的法律法规以及道德行为准则,将成为人工智能兼顾发展和风险控制的重要保障。法律规则。数据的收集、处理和使用,不但涉及当事人的隐私及对社会的控制限度问题,也涉及与数据相关的权益与责任界定问题、法律约束的法理机制问题以及法律执行和监控等操作性问题。没有这些规则基础,基于大数据运行的社会系统就不可能是有序的系统。这些法律法规构成了大数据交流与利用的法律规则保障。与此同时,不同系统的数据对接和传输,也需要自动协调的技术性协议:异构数据的表征、聚类、传输、处理及其应用,需要可以相互识别的执行标准,需要评价数据价值的指标,需要自配置自适应的系统接口和对应人类解读的人机界面设计和自协同模式,这是大数据交流与利用的系统协议保障。
  • 完善支持人工智能发展的重点政策
    落实对人工智能中小企业和初创企业的财税优惠政策,通过高新技术企业税收优惠和研发费用加计扣除等政策支持人工智能企业发展。完善落实数据开放与保护相关政策,开展公共数据开放利用改革试点,支持公众和企业充分挖掘公共数据的商业价值,促进人工智能应用创新。研究完善适应人工智能的教育、医疗、保险、社会救助等政策体系,有效应对人工智能带来的社会问题(图2)。
    2 完善支持人工智能发展的重点政策

  • 建立人工智能技术标准和知识产权体系
    加强人工智能标准框架体系研究。坚持安全性、可用性、互操作性、可追溯性原则,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准。加快推动无人驾驶、服务机器人等细分应用领域的行业协会和联盟制定相关标准。鼓励人工智能企业参与或主导制定国际标准,以技术标准“走出去”带动人工智能产品和服务在海外推广应用。加强人工智能领域的知识产权保护,健全人工智能领域技术创新、专利保护与标准化互动支撑机制,促进人工智能创新成果的知识产权化。建立人工智能公共专利池,促进人工智能新技术的利用与扩散(图3)。

file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps25.png
3 建立人工智能技术标准和知识产权体系
  • 建立人工智能安全监管和评估体系
    加强人工智能对国家安全和保密领域影响的研究与评估,完善人、技、物、管配套的安全防护体系,构建人工智能安全监测预警机制。加强对人工智能技术发展的预测、研判和跟踪研究,坚持问题导向,准确把握技术和产业发展趋势。增强风险意识,重视风险评估和防控,强化前瞻预防和约束引导,近期重点关注对就业的影响,远期重点考虑对社会伦理的影响,确保把人工智能发展规制在安全可控范围内。建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。加强人工智能网络安全技术研发,强化人工智能产品和系统网络安全防护。构建动态的人工智能研发应用评估评价机制,围绕人工智能设计、产品和系统的复杂性、风险性、不确定性、可解释性、潜在经济影响等问题,开发系统性的测试方法和指标体系,建设跨领域的人工智能测试平台,推动人工智能安全认证,评估人工智能产品和系统的关键性能(图4)。

file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps27.png
4 建立人工智能安全监管和评估体系
(五)大力加强人工智能劳动力培训加快研究人工智能带来的就业结构、就业方式转变以及新型职业和工作岗位的技能需求,建立适应智能经济和智能社会需要的终身学习和就业培训体系,支持高等院校、职业学校和社会化培训机构等开展人工智能技能培训,大幅提升就业人员专业技能,满足我国人工智能发展带来的高技能高质量就业岗位需要。鼓励企业和各类机构为员工提供人工智能技能培训。加强职工再就业培训和指导,确保从事简单重复性工作的劳动力和因人工智能失业的人员顺利转岗(图5)。
file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps29.png
5 大力加强人工智能劳动力培训
(六)广泛开展人工智能科普活动支持开展形式多样的人工智能科普活动,鼓励广大科技工作者投身人工智能的科普与推广,全面提高全社会对人工智能的整体认知和应用水平。实施全民智能教育项目,在中小学阶段设置人工智能相关课程,逐步推广编程教育,鼓励社会力量参与寓教于乐的编程教学软件、游戏的开发和推广。建设和完善人工智能科普基础设施,充分发挥各类人工智能创新基地平台等的科普作用,鼓励人工智能企业、科研机构搭建开源平台,面向公众开放人工智能研发平台、生产设施或展馆等。支持开展人工智能竞赛,鼓励进行形式多样的人工智能科普创作。鼓励科学家参与人工智能科普(图6)。
file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps31.png
6 广泛开展人工智能科普活动
编辑:高杰

159#
 楼主| 发表于 2019-8-16 22:43:54 | 只看该作者
【案例】
《人工智能》杂志“人工智能伦理”主题出版!践行科技向善,筑牢可信AI的道德藩篱
原文链接:
文章来源:人工智能产业创新联盟  
《人工智能》杂志由工业和信息化部主管,中国电子信息产业发展研究院、赛迪工业和信息化研究院(集团)有限公司主办(CN10-1530/TP,ISSN2096-5036)。该杂志为双月刊,将精准聚焦人工智能领域,每期重点围绕“一个主题”,邀请业界专家发表见解和研究成果。
2019年8月的《人工智能》杂志主题是:人工智能伦理——践行科技向善,筑牢可信AI的道德藩篱。本期邀请了二十五位撰稿人,发表了精彩的文章。
《人工智能》是一本公开发行的杂志,它的媒体属性将有效地提升并扩大专家、学者、企业等在该领域的影响力。
每年6期的《人工智能》杂志更像是6本书,成为值得学习、收藏的人工智能宝典。
杂志发行对象
发行对象涵盖工业和信息化相关主管部门,人工智能相关高校、科研院所,包括“人工智能产业创新联盟”成员在内的企事业单位,以及所有关注人工智能技术和产业发展的人群。
第十一期文章及作者
栏目一:分析综述
1、人工智能发展为何需要伦理规范?
   
中国电子信息产业发展研究院政策法规研究所所长、工业和信息化法律服务中心主任,从事行业法律、产业布局、工业经济、数据治理、产业政策等方面的研究。中国政法大学法学博士。主要负责《工业和信息化部行政复议实施办法》《工业和信息化部行政应诉工作规则》《工业和信息化系统“七五”普法规划》《稀有金属管理条例》《监控化学品管理条例实施细则》《2018智能网联汽车政策法律研究报告》《2019中国数据治理发展报告》等文件、报告的撰写和修订工作;参与了《工业转型升级规划(2011-2015年)》系列解读,以及《制造业转型升级知识干部读本》(电子工业出版社)、《中国工业转型升级发展蓝皮书》(中央文献出版社)等著作的编写工作。
2、人工智能的伦理与治理
   
中国人民大学法学院副教授,未来法治研究院社会责任和治理研究中心主任。主要关注公司法、金融管制、法律与发展、比较法、宪法等领域,积极参与了技术与法律的前沿研究,特别是人工智能伦理和法律的研究。从2017年开始,参与中国第一个以人工智能标准化为主题的白皮书的写作,并撰写《人工智能标准化白皮书(2018)》的“安全、隐私和伦理”部分,又以课题组负责人的身份主持了国家标准化管理委员会人工智能标准化总体组人工智能社会伦理专项研究,并主持撰写了国家人工智能标准化总体组《人工智能伦理风险研究》报告。
栏目二:前沿思考
1、人工智能中的三个经济伦理问题
陈永伟
《比较》杂志研究部主管,同时也是《经济观察报》、财新等媒体的专栏作家,经济学博士。研究领域为产业经济学、法律经济学。已在中英文学术期刊上发表论文50余篇,在报刊上发表评论文章数百篇。
2、迈向制度化的人工智能伦理
   
中国电子信息产业发展研究院政策法规研究所助理研究员,北京邮电大学法学硕士。目前主要从事人工智能、自动驾驶、数据治理等领域的战略咨询和政策法规研究工作。
黄克同
目前就读于北京工业大学城市交通学院,主要参与交通数据采集分析、智慧公路方向研究,关注自动驾驶和驾驶人行为分析等领域。
3、欧盟人工智能伦理与治理的路径及启示
曹建峰
腾讯研究院高级研究员,中国互联网协会青年专家,广东省法学会信息通信法学研究会理事,长期从事互联网法律政策和前沿技术研究,关注领域包括人工智能与法律交叉领域、算法治理、自动驾驶法律政策、数据及平台法律、法律科技、网络知识产权和科技法等,在《法律科学》、最高人民法院内参《信息周报》、国家行政学院《行政改革内参》、《大数据》《信息安全与通信保密》《学习时报》《法制日报》、FT中文网等各类媒体上发表论文、文章上百篇。
方龄曼
腾讯研究院法律研究中心助理研究员,华南理工大学知识产权法学硕士。研究方向为知识产权法,网络法。
4、人工智能在行政司法中的伦理考量
李勇坚
中国社会科学院财经战略研究院研究员、互联网经济研究室主任、博士生导师,研究方向为服务经济、互联网经济理论、互联网金融。在国家核心期刊发表论文50余篇,曾参与国家“十一五”、“十二五”、“十三五”服务业发展规划的研究编制工作,参与《国务院办公厅关于加快发展高技术服务业的指导意见》(国办发〔2011〕58号)、《关于促进分享经济发展的指导性意见》(2017)、《服务业创新发展大纲(2017—2025年)》(2017)等文件的起草或研讨工作,并承担多项与数字经济相关的课题。
   
百度公共政策研究院高级研究员,中国公路学会自动驾驶工作委员会常务委员、信息系统项目管理师。毕业于北京理工大学车辆学院交通工程专业,获得中国社会科学院MBA、北京工业大学交通运输工程双硕士学位。负责百度自动驾驶领域政策及行业研究,深度参与北京、雄安新区、长沙等地自动驾驶政策的制定。
5、应对风险与挑战 人工智能治理已成全球共识
   
北京旷视科技有限公司高级市场经理。曾任华西都市报高级记者,全国省级晚报(都市报)年度好新闻三等奖、四川新闻奖一等奖、四川环境好新闻一等奖、华西都市报“年度明星记者”获得者。曾专访曾荫权、梁振英、林郑月娥三位香港特首,以及中联办主任彭清华(现任四川省委书记)、美国国会议员Mike Honda、美国著名华侨领袖方李邦琴等;曾赴美前往英特尔、通用汽车、杜邦、摩根大通、可口可乐等世界500强全球总部,专访数位全球副总裁,回国后参与写作《500强的老底》一书。
栏目三:技术治理
1、医疗人工智能技术研发与应用的伦理挑战和对策—以我国大型公立医院为例的思考
李鸿浩
四川省医学会医学伦理委员会青年委员会副主任委员、四川省成都市人工智能产业协会人工智能专委会委员。医学博士,药理学硕士,助理研究员。主要研究方向是医疗人工智能关键技术及创新管理、创新医疗的循证研究等。先后主研国家“十一五”课题一项,国家自然科学基金资助项目一项,医疗健康行业基金课题二项,省级项目三项,市级课题一项,211工程院校重大超前课题一项。参编教材4部,专著2部。以第一作者身份发表学术论文15篇,其中一篇被评为中国精品科技期刊顶尖学术论文,另二篇被四川省医学会授予“优秀论文奖”。2015年荣获中国医院协会医院科技创新一等奖。
段伟文
中国社会科学院哲学所研究员、博士生导师,博士,中国社会科学院科学技术和社会研究中心主任、中国大数据专家委员会副主任委员、中国发展战略研究会创新驱动战略专业委员会副主任、国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”首席专家等。著有《可接受的科学:当代科学基础的反思》、《网络空间的伦理反思》等多部专著。
   
博士研究生导师,教授,医学博士。长期从事神经内科临床工作,曾获“美国神经科学会国际奖学金”和“美国医学研究联盟Henry Christian奖”。近年先后主持科研项目7项,包括国家自然科学基金2项和四川大学杰出青年基金1项,参研国家及省部级项目多项;在国内外专业期刊发表学术论文60余篇,包括SCI论文30余篇。
蒲晓蓉
电子科技大学英才实验学院副院长,教授,人工智能专业博士、心理学硕士。主要研究人工智能、机器学习、医学影像计算、医疗健康大数据等。主持完成国家自然基金、973 子项、863 计划、电子发展基金等国家级、省部级科研项目 20 余项,获四川省科技进步二等奖。在国际学术期刊等发表学术论文 50 余篇,发明专利10余项。全国计算机学会高级会员、全国肿瘤人工智能专委会委员、四川省计算机学会大数据专委会副主任委员、华西医院大数据中心特聘专家;《现代医药卫生》杂志编委。
   
高级工程师。作为项目主研人员,主要研究方向是云计算及大数据技术。先后参加了国家“863”计划重点项目《新型管制自动化系统核心技术》、四川省重大科技成果转化项目《基于国产数据库的EPCloud云计算基础架构及服务平台产业化》等项目研究。获得授权发明专利3项,四川省科技进步奖二等奖一项。
郑尚维
四川大学华西医院医院管理研究所名誉所长,教授,研究员,中华医学会医学伦理专业委员会委员、中国医师协会道德建设委员会委员、《医学与哲学》编委。先后作为主研人员承担国家“十一五”科技支撑计划课题1项、国家“十二五”科技支撑计划课题1项、国家“863”计划课题1项及多项省级科研课题。主编《华西医院管理实务》系列丛书12本及其他专著1本、副主编专著1本,主译专著1本,发表论文30余篇。2009年获《医学与哲学》杂志社突出贡献奖。
   
四川大学华西医院医院管理研究所副所长,副教授,硕士生导师,四川省卫计委学术技术带头人后备人选,四川省卫生信息学会健康医疗大数据专业委员会常委、中国老年医学学会流行病学与疾病预防分会委员等。先后主持过国家自然科学基金、中国博士后科学基金等课题。近年来发表论文50余篇,其中以第一作者或通讯作者身份发表SCI论文11篇。副主编人民卫生出版社专著《循证医疗卫生管理与决策》,参编国家级规划教材3本,参编其他专著3本。
2、人工智能时代的法治畅想
何海锋
北京市天同律师事务所顾问,律师。法学博士、中国科技法学会金融科技法律专委员秘书长、中国法学会证券法学研究会理事、北京市网络法学研究会常务理事、中国散文学会会员、中国金融作协会员;兼任《银行家》杂志主持人、《环球财经》杂志特约编辑、《财富管理》杂志编委、中国社科院金融法律与监管研究基地特约研究员、中国政法大学民商经济法学院和中央财经大学金融学院校外导师;专业方向为金融法、科技法、立法法。
3、人工智能应用与伦理
   
爱点击联合创始人兼COO、CTO。毕业于清华大学计算机系智能技术与系统国家重点实验室,获工学博士学位。广告营销技术与大数据应用领域专家,深耕大数据研究与应用领域。毕业后先后任职于微软亚洲研究院、百度、Yahoo全球研发中心等科技企业核心技术部门,其间承担或引领多个重大项目的技术架构和研发管理工作。之后加入腾讯公司,作为程序化广告交易平台的发起人和负责人。2012年创立移动DSP企业智云众。2015年7月智云众被爱点击并购后,以联合创始人身份出任爱点击集团COO、CTO,负责集团的日常管理、业务运营和技术研发工作。2016 年,入选Campaign亚洲Digital A List全球数字领域极具影响力人物榜单。
栏目四:挑战与展望
1、用信任解码人工智能伦理
闫宏秀
现担任上海自然辩证法研究会理事、上海中青年技术哲学论坛发起人、负责人,中国自然辩证法研究会技术哲学专业委员会常务理事、上海技术哲学专业委员会主任等。博士毕业于复旦大学哲学系,并于同年进入上海交通大学、牛津大学互联网研究院和牛津大学哲学系做访问学者。在《自然辩证法研究》《科学技术哲学研究》《道德与文明》《探索与争鸣》《科学学与科学技术管理》等顶尖期刊发表文章30多篇,由上海市学术著作出版资助专著1本、国家出版基金项目资助专著1本、译著3本,参编与主编国家级等各类教材6本,主持国家级、教育部、上海市等各类项目20余项,相关研究成果被上海市科协等纳入决策咨询与发展研究报告等。研究方向为技术哲学、技术伦理学和设计哲学。
2、人工智能道德的问题、挑战与前景
苏令银
上海师范大学经济伦理研究中心副主任,上海师范大学马克思主义学院副教授、法学博士、硕士生导师。主要研究方向:人工智能伦理、机器人伦理。
栏目五:AI探索
1、人机融合智能的再思考
   
北京邮电大学岗位教授,工学博士,剑桥大学访问学者(2012-2013),科技委人机融合智能组首席科学家。研究领域为:人机融合智能、认知工程、用户体验、人机环境系统工程、分析哲学、未来态势感知模式与行为分析/预测技术等。至今发表论文70多篇,出版专著2部,译著1部,参与出版专著2部。作为项目负责人及主要参加者,参加过国家自然科学基金、总装预研、中国博士后科学基金、国防预研基金、航空基础科学基金、国家博士点基金、北邮-剑桥合作项目等。现为中国信息与电子工程科技发展中心专家委员会特聘专家、国家自然科学基金评议专家、全国人类工效学标准化技术委员会委员、中国人工智能学会高级会员,《北京邮电大学学报》《航空学报》《心理学报》、Ergonomics、Human factor等审稿专家。主要代表作为:《人机交互技术与评估》(北京:科学出版社,2008.7)、《人机交互-超越人机交互》(北京:机械工业出版社 2018.3,译著)。
2、论飞行汽车制度障碍及其突破—未来汽车政策伦理进化的视角
张夕夜
腾讯研究院助理研究员,西南大学民商法学硕士,主要从事互联网领域法律与公共政策的研究,包括飞行汽车、人工智能等前沿科技,游戏监管,数据和隐私治理等,在相关期刊及公号发表文章数篇。
栏目六:附录
《人工智能创新发展道德伦理宣言》全文
《人工智能创新发展道德伦理宣言》解读和思考
   
中国电子信息产业发展研究院政策法规研究所所长,工业和信息化法律服务中心主任,毕业于中国政法大学民商经济法学院,法学博士。主要从事行业法律、工业经济、产业布局、产业政策等方面的研究。
   
现供职于中国电子信息产业发展研究院。中国人民大学民商法学专业博士。研究方向主要包括民商事法律、产业政策、人工智能法律伦理、智能网联汽车法律政策等领域。
   
中国电子信息产业发展研究院政策法规研究所助理研究员。北京邮电大学法学硕士。目前主要从事人工智能、自动驾驶、数据治理等领域的战略咨询和政策法规研究工作。
   
中国电子信息产业发展研究院政策法规研究所助理研究员。中国政法大学宪法与行政法学专业博士。主要从事行政法学、循环经济法学、工业与互联网产业法学体系等方面的研究。
编辑:高杰

160#
 楼主| 发表于 2019-8-16 22:53:04 | 只看该作者
【案例】
隐私保护产业的起落及其启示
文章来源: 腾云
原文链接:
作者: 朱悦
「中国需要自己的数据保护方案」
“在讨论数据隐私这一话题时,关于‘法律、规范、架构、市场’四大框架中的‘市场’的深入讨论仍然不多。研究其发展、现状及趋势,显得尤为重要。”
❒ 文 | 朱悦
对外经济贸易大学数字经济与法律创新中心研究院研究员
数据隐私是当前热点。一方面,个体忧虑隐私,且相应思潮愈发显著;另一方面,数据成为数字新经济所需的“石油”。如何求取二者之恰当平衡?针对这一题目的思想框架不少。其中较为经典者,当属Lawrence Lessig提出的“四要素”框架:法律、规范、架构、市场。
无论是数据隐私相关之法律议题,还是行业如何在隐私方面自律,抑或互联网这一全新架构如何变动隐私保护之格局,对前三项要素的讨论,实已“汗牛充栋”。然而,对市场的深入谈论,暂时而言仍然不多;实际上,一旦提及“买卖隐私”或“数据交易”,招来的可能更多是不解,甚或厌恶。
如此偏倚,忽视了数据隐私议题中相当重要且有趣的一面。在2019年由纽约大学出版社刊行的新著The Identity Trade: Selling Privacy and Reputation Online中,Nora Draper全面检视了过去近30年间,市场在隐私保护方面发挥的作用。
具体而言,他将这一市场的起落大致划为两个阶段:第一阶段,隐私保护产业以“避世”为卖点,侧重为个体提供匿名浏览或交易的工具。然而,这一趋势未成气候;方兴未艾的第二阶段,产业参与者不再强调完全匿名。由“经营声誉”“自我营销”与“从数字经济中分润”等角度切入,企业转而关注如何保障网络世界中个体的自主地位。
这一市场本身,及努力开拓市场、彼此激烈竞争的相应企业,都远非孤立实体;恰恰相反,承继、传播数据隐私相关之思想观念的同时,这些企业也在影响着四要素的平衡。
以第一阶段中侧重“遁世”的隐私产业为例:一方面,这一产业的生长源于同时段盛行的“互联网乌托邦”设想,其中企业的广泛宣传又塑造了后来议员与民众的思想观念;另一方面,这一产业既催生了2000年前后的立法热潮,本身又倾坍于“9 ·11”事件后安全话题的甚嚣尘上,与隐私话题的失语。
类似的复杂互动,亦见于尚未结束的第二阶段。以下将分别介绍上述两段演变,并结合现状作评论与展望。
“遁世”:
匿名技术与数据经纪的兴起
在美国,针对数据隐私的忧虑由来已久:19世纪末时,人口普查引入机械手段以加速处理效率,即已引发隐私担忧;20世纪中叶,征信机构“遍地开花”,又兼政府广泛利用电子计算机处理政务,引致各界纷纷催促立法规范数据收集、存储及处理。
然而,数据隐私真正落实到个体层面,还要追溯到90年代:伴随个人计算机及互联网“飞入寻常百姓家”,今日频引争议的、商业企业广泛收集并利用个体数据的问题,已频频现诸纸面。据原书所引皮尤机构调查显示:至2000年前后,担忧企业或陌生人借网络获取自己或家人数据的美国人,占总体比例已高达86%。
与此相伴者,是对未来互联网之近乎“乌托邦”的设想。其中最具代表者,莫过于名噪当时的《网络空间独立宣言(下称《宣言 》)》:“工业世界的政府们,你们这些令人生厌的铁血巨人们……作为未来的代言人,我代表未来,要求过去的你们别管我们。在我们这里,你们并不受欢迎。在我们聚集的地方,你们没有主权。”
之后,持无政府立场的《宣言》,亦相应强调互联网应是一个“不存在……特权或偏见”“都可以表达他们的信仰而不用害怕被强迫保持沉默或顺从”的世界。循此,匿名成为互联网世界的自然要求:分割线上线下,则线上及线下人格均得以自由。
如此意识形态与相应商业前景,共同催化了第一代隐私产业。实际上, 那些开设企业、兜售隐私服务的年轻创业者,通常有极高的学历,笃信以上乌托邦思想,亦躬行匿名化宗旨。如果将隐私混同于“保密”或“私密”,这些创业者的产品,无疑在保障隐私方面做到了极致。
简言之,借助他们开发的产品,互联网用户可在“隐身”与“实名”间灵活切换:一旦选择前者,网站只能读到产品赋予用户的假身份,而无法识别至个体;再进一步,部分企业为用户提供多重身份,以满足不同场景下的需求;保护最严者,连产品提供方——以及监管机构——都无法解开用户真实身份。
类似保护亦延伸至交易层面:一方面,与银行及邮政服务合作,部分企业支持用户匿名购物。借助一次性购物卡及毋需真实地址的投递服务,用户可在掩盖真实身份的前提下完成交易;另一方面,也有初创企业致力为用户充当数据“经纪”。
具体而言,同样定位于维护匿名,此类企业左手沟通用户,展现企业需求;右手联络企业,助力采集信息。理想状态下,企业得到信息,却无法由此识别个体;同理,个体可享受定制服务,又毋需担忧企业知晓自己。部分企业甚至提供更为严密的“分布式”保护:账户密钥拆为几部分,分别封入银行保险;除此,账户不能解密。
设想很美。然而,2001年之后,以上创新,大多销声匿迹。“大气候”和“小天气”,都是产业面临滑铁卢的原因:一方面,如多位产业参与者所述,隐私理念“超越了(20世纪90年代)这个时代”,产品销量因而始终不温不火;另一方面,紧随互联网泡沫破灭的,是举世瞩目的“9·11”事件。
“9·11”恐袭给美国造成的深远影响之一,是国家出于反恐的理由,对个人数据隐私干涉和入侵力度日益加大,这一格局至今未变。图为“9·11”恐袭之后的双子塔遗址。
袭击以后,对安全的担忧,彻底压过了对隐私的呼唤。之前,从业者是立法者和投资者的“宠儿 ”,时常出入国会,参与立法听证,融资亦顺风顺水;之后,多部已成形的立法草案,均“无疾而终”。一度热情的投资者,也不乐意冒成为恐怖分子“帮凶”的风险,继续为此类隐秘网络服务买单。
“当头棒喝”下,从业者也在反思。以下教训,因实践愈显深刻:首先,超越时代,既可能是勇敢,也可能是鲁莽。诚然,从业者的许多宣传与论说,唤起了公众关注,也赋予学者灵感;然而,对一新生产业而言,以宣传扭转公众观念,无疑是过分沉重的负担。
实际上,部分揭示隐私威胁、宣扬产品安全的广告,还曾因“夸大宣传”等原因,引起监管机构关切。其次,比前一点更为重要的,是不能片面地将隐私视为“保密”或“匿名”。在理论层面,这一界定忽视了太多侧面;在实践层面,如此定义之隐私,在实践权衡中过于单薄,难与其他价值颉颃。这也催生了产业的转型。
“市隐”:
声誉管理与数据经纪的“进化 ”
相比以“遁世避离”为纲领的第一阶段,21世纪初的隐私产业——尽管风波险恶,许多企业仍然活了下来——可谓发生了“90度”急转弯。简言之,在对待个人信息的态度方面,它们比之前更开放、更灵活:声誉管理取代匿名化,成为产业界的新“宠儿”。
现在,隐私产业的任务不再是将个人置于黑暗,使其无法识别;而是为个人“打光”,展示自己乐意展示的一面。当然,原有的精神并未尽数消弭,数据经纪业务仍然存在。与上述一致,新的经纪服务,同样淡化了其中“匿名中介”的一名;与之相反,个体当由此类经纪“了解你自己”,并从积极参与数字经济中分润。
声誉管理层面,霍夫曼“拟剧”理论的影响清晰可见。所谓“拟剧”,可大致翻译为“生活就是舞台”:面临不同的场景,个体戴上不同的“面具”,以社会所期待的方式举手投足;不分场景行事,或打破场景常规,不仅会因“不配合场景”而招致尴尬或羞愧,还可能因违背社会规范而遭受惩罚。
一旦提出,这一理论即受广泛引证;引证者中,不乏隐私领域中里程碑式研究——譬如John Whitman对欧美隐私文化的比较,又如Helen Nissenbaum对“基于场景的隐私”的阐释,等等。对应于生活实践,通过策略性地表达信息来培植、守护好名声,可谓每个人的日常“功课”。
互联网激发了这一需求。一方面,“互联网永不遗忘”:已淡出回忆的青葱丑事或当年悔恨,仍有可能停留于陈旧页面,成为个体约会、申请或求职时意想不到的障碍;另一方面,部分企业,甚至将“贩卖丑闻 ”做成一种商业模式。
例如,在美国,个体一朝被捕,其个人信息及身着囚衣的照片就会公开于当地网站。部分企业由此嗅到了生财之道:它们将这些信息收集起来,以“便利个体查询社区安全”为名,予以集中列示。哪怕个体实属清白, 一旦搜索他/她姓名,囚衣照仍将显示于结果前列。想要摆脱,个体只能向网站交钱。同理,也有网站借汇集不雅照索取钱财。
声誉管理企业应运而生。据作者观察访谈,一言以蔽之,此类企业侧重“以正面信息淹没负面历史,使搜索个体姓名的结果符合个体期待”。为此,他们广泛借助公关理论与搜索引擎优化术,以精心编写的积极消息充塞搜索结果前列,将旧的不堪内容“挤”到无人关注的后几页。
有的企业走得更远:消除不堪往事与强化正面形象,在具体实现方面并无显著差异;循此,“擦除负面、维护隐私”与所谓“营销个体、界定品牌”间,实无明确界限。靠声誉赚取巨额利益的名人,以及在社交媒体中“泡”大的学生,都是此类企业的主要客户。隐私不再是“遁入山林”,更多是“隐于市集”。
隐私产业的另一特点,是前述“数字经纪”的转型。与甘当守秘中间人的业界先辈不同,领域内新军更重视以下两点:其一,协力个体了解、成就数字时代里的自己。现在,此类产品不再竭力隐藏用户信息,而是帮助用户收集、分析自己产生的信息,并以此实现用户的目的。
据从业者称,一方面,借助更丰富的、由自己衍生的数据,个体得以更深入地了解自己,并由此实现自我管理与自我提升;另一方面,确实,在数字经济巨头面前,个体在知识、技术方面都处于劣势。通过使用这类新工具,个体也将逐渐具备数字思维、熟稔相应技术;二者间沟壑,当因此逐渐弥合。
数字经济的新卖点之二,是消灭数字时代的剥削、为个体争取公平的回报。近来,围绕数字经济,尤其是个体数据权属及相应收益回报的争议,很多。显然,并不是所有人都认同所谓“免费模式”足以补偿个体在数据方面的付出。
新一代从业者称,他们将解决这个问题:现在,由数字经纪协助,个体得以“从心所欲 ”地追踪、收集、存储、交易自己的各方面数据。“合则多利”:对个体,交易系于一人之手,纠纷自有经纪处理,毋需再担忧巨头的“压迫”或“剥削”;对企业,如此交易在尊重用户意愿、维护双方信任的同时,也确保了所得个体数据的完整、准确与及时。
“浑然”:数字经济大潮下
隐私保护的新趋势
原书内容远较以上部分丰富:一方面,“一阶段”“二阶段”分期实属权宜之计,未必能勾勒丰富产业动态的全貌。实践中,两期企业所秉持理念,及两期企业所开发之产品,均有许多连贯与交集;另一方面,穿插于产业观察与相关访谈之间,尚有作者对各派隐私理论的全面梳理与编织。
对本书写作风格,以下赞誉似并不过分:很难再找到另外一本如同此书一般,“称提”妥帖一手业界内容与深度学理论说的隐私研究著作。这些貌似“佶屈聱牙 ”的梳织绝非冗赘:没有这些引证,作者也写不出产业、学术与监管间的丰富互动——前者从后两者汲取诸多灵感,又反哺于后两者。
譬如,在第一阶段,隐私在人格层面意义的竭力张扬,成为以上三者间的共同语言:产业奉此圭臬,循此纲领,以“无法追踪、识别个体”为出发点做产品;那些在学堂讲演,或于国会作证的创业者,又将这一潮流携入学术与监管语境。
今日对“可识别性”之强调,背后或多或少有产业的一分力。同理,在共识逐渐移向数据开放、流动与利用的今天,产业也成为其中“弄潮儿”:前面已提到,哪怕是从业者,许多人也会征引霍夫曼的理论;反之亦然,以上针对数字经济的宽容态度,本身又是前述共识游移的动力之一。再进一寸,市场与法律,本身就是规制倚赖的两根彼此相依的台柱。
不过,以上联结之下,尚有更为丰富的故事图景。原文结尾有所简述,但未投入多少篇幅:相比容易发现的“助人隐遁”或“予人假面”,更为通行的趋势,是令隐私价值观“浑然”于其他用途应用之中。
譬如,主打“实名社交”、以“信息流”为特色的脸书占据社交市场主导之余,倡扬“阅后即焚”“私密聊天”的新生代社交软件纷纷崛起;实际上,连脸书自己,也开始鼓呼隐私这重叙事。
固然,这些应用并非用于求取匿名,也常无意于搽除历史;然而,讨论隐私产业,怕是不能脱开这些“舞者”——隐私是它们的特点所在,也常常是用户非彼而此的原因,它们也是舞台上的一员。
这也与笔者之前撰写的一篇文章(《听说这一届年轻人不关心隐私?》)观点一致:谈论信息时代的隐私时,部分“国民应用”不应缺席。在国内,专门的匿名或加密软件很难称得上普及;是否确实存在针对个体声誉管理的,也颇值得商榷。以上并不意味着隐私没有在产业中留下丝毫烙印;截然相反,在移动互联网最为令人艳羡的胜利之一中,也有隐私的浓厚痕迹。
从近几年陆续放出的公开课演讲等材料中,笔者曾简笔整理微信产品的设计哲学:给用户多点安宁,让用户按自己的意愿“打扮”自己,以及给用户一个“遗忘历史”的机会,都曾造就其中特定产品特性的设计。对照此处哲学与前述学理,相似之处依稀。
结评与展望
总之,借助对已有理论的全面编理及大量业界内容的积累,作者写出了一本颇为独特的著作:回环往复的说理与产业人士的简明交颈环绕,而不显其突兀。细看之下,隐私产业的发展又可大致分为两个阶段:第一阶段时,产业价值观更切合“隐私”的字面含义,旨在帮助个体“遁世”——保持匿名与秘密。
然而,这条路走不通;于是,等到第二阶段,产业开始拥抱数据开放与流动。在这一纲领下,包括声誉管理、数字经纪在内,各类协助个体拥抱数字经济的产品纷纷出现,生机一片大好。从这个角度看,数字经济的未来图景,必将是开放流动与尊重隐私的融合。
产业演变的本身即已激动人心:社会对隐私的了解因此更加深入,相应教益也早已传导至学术、监管等层面。不过,这一故事的图景,至少还可做两重扩张:第一重扩张,指的是隐私价值观向其他领域应用的渗透——那些以隐私为“卖点”“护城河”甚或商业模式根基的应用,也当纳入对隐私产业的考察之中;第二重扩张的视角则更为远大。
开头提到,保护隐私权有四根“柱石”:市场、法律、规范与架构,四者总在动态中相互平衡。相比法律等“梁柱”,对市场的考察,之前尚显稀薄;现在,随着相应研究日益系统,或有必要正视市场之用、并在此基础上重新考察四者之平衡。
编辑:高杰






发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表