传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
261#
 楼主| 发表于 2019-10-16 21:45:34 | 只看该作者
【案例】
人工智能伦理如何设定,从种群层面看人类的知识积累和进化

前言:9月份中宣部出版局《中国图书评论》对《崛起的超级智能》进行了推荐和评论,对其中阐述的种群知识库扩展观点给予了重点关注。应该说种群知识库扩展是互联网大脑架构不断发展的抽象推论,这个推论对于人工智能及其伦理的建立也应有相应的价值,这篇文章将对介绍《中国图书评论》的推荐评论,《崛起的超级智能》一书中关于种群知识库的内容进行介绍。
第一部分,《中国图书评论》:从种群的层面来看人类的知识积累和进化
推荐书籍:2019年7月《崛起的超级智能:互联网大脑如何影响科技未来》,刘锋著,中信出版社。
本书主要是在探索互联网进化的若干规律性问题,归纳出了互联网的诸多“类脑”特征,其中一些很有启发性的观点也让人惊叹。
比如作者提到“种群的知识库”这样一个概念,即一个种群所拥有的知识库容量和使用知识改造世界的能力。纵观人类对知识的掌控状况,时至今日我们最常见的传统的知识存储方式,在规模上从一本一本的书籍、学有专长的个人,再到大型的综合性图书馆、专家智囊团,在知识协作上发挥了巨大的作用。
而互联网蓬勃发展以来,各种专业的数据库在信息资源上带来的效率提升,更是有目共睹。本书作者通过对一个种群所拥有的全部生物基因信息、发现的自然界现象和运行规律、掌握的改造自然的技术这三方面来考察评估,认为种群的知识和智能是生命进化的核心。
由此,更进一步前瞻性地探讨在人类的大脑、互联网、人工智能这三者融合以后,所形成的超级智能的进化前景。正是因为互联网使人类的知识协作更普遍、更深人,这种全景视角也逐渐变得易于接受。人类种群作为一个命运共同体,在知识的积累与进化上,由此有了明确、一致的方向,而这种积极面向未来的乐观态度也会增强人们探索的信心和勇气。
第二部分,《崛起的超级智能》书摘:种群知识库与人工智能伦理的设定
人工智能先驱尼尔逊教授曾经对智能下了这样一个定义:“智能是关于知识的学科,怎样表示知识以及怎样获得知识并使用知识的科学。“,从上面的探讨中可以看出,无论是脑的进化、互联网的进化、智能系统的智力等级划分,知识和智慧的提升都是生物进化的核心。
恐龙是生活在距今大约2亿3500万年至6500万年前、能以后肢支撑身体直立行走的的一类动物,恐龙支配全球陆地生态系统超过1亿6千万年之久,但在6500万年前白垩纪结束的时候,恐龙突然几乎全部消失。一种主流的观点是一颗珠穆朗玛峰大小的陨石撞击地球,引发特大火山爆发,进而导致恐龙的大范围灭绝。无论在体型上还是活动区域上,恐龙都进化出种类繁多的种类,包括体型巨大的地震龙,能在空中飞翔的翼龙,令所有恐龙恐惧的暴龙。但在大脑发育和智力提升上,恐龙一直没有大的进展,没有创造出属于自己的科技文明,当危机来临时只能被动的接受大自然安排的命运。
另一个典型的案例是熊猫,大熊猫的历史可谓源远流长。迄今所发现的最古老大熊猫成员——始熊猫的化石出土于中国云南禄丰和元谋两地,地质年代约为800万年前中新世晚期。在长期严酷的生存竞争和自然选择中,和它们同时代的很多动物都已灭绝,但大熊猫却坚持了下来,成为“活化石”保存到了今天。
但是在21世纪的今天,大熊猫确同样面临着灭绝的危险,这次不是因为自然灾害,而是由于食物来源单一,只吃竹子,一旦竹子遭到破坏,其生存就会受到影响,同时大熊猫本身的繁殖能力降低,其生殖系统受到某些细菌的感染,雌性的产卵率降低,雄性的交配欲望降低。作为活化石的大熊猫虽然存在了至少800万年,但同样在智力发育和自身科技上一直处于非常低的水平上,这样当遇到生存危机时,它同样无法利用智能和技术来解决。
与此同时,人类在近200万年里,在知识和智慧上不断扩展和加速,首先掌握了制造工具和使用火的技能,从此在自然界有了更强的竞争力;20万年前,人类掌握了用语言进行交流的能力,由此知识和技能从此可以快速在种群内传播。英国牛津大学遗传学专家安东尼·玛纳克教授领导的研究小组发现,对人类产生语言起决定作用的“FOXP2基因突变”发生在大约12万至20万年前,恰恰与现代人人口迅猛增加的时间相一致。
大约4-5万年前,这时的人类的进化出现了明显的加速,在形态上已非常象现代人,在文化上,已有雕刻与绘画的艺术,并出现装饰物。通过雕刻和绘画,人类的知识第一次通过外界媒介进行保存和传播。加大了人类种群知识库的容量和稳定性。这是之前任何生物都不具备的。这一进程在经历了造纸术,印刷术的发明得到了进一步加速。
50年前,互联网的诞生让人类又一次经历了巨大的智能飞跃,这次革命应该说不亚于200万年前人类第一次使用工具,也不亚于20万年人类第一次开口交流。
互联网的发展让人类拥有了容量更为庞大,反应更为快速的外部知识库,同时由于互联网的类脑化变化,让众多前沿科技以更高的效率为人类进化提供保障与支撑,在互联网的帮助下,人类进一步确立了在自然竞争中的绝对统治地位。
从恐龙、熊猫、人类的例子可以看出,生物种群知识库的膨胀速度是生物进化的焦点,很多生物的知识库停滞,走向死胡同,在千万年里没有进一步的变化,往往在面临巨大自然灾害时,由于生存环境的变化导致灭绝,或在地球的生命圈中处在越来越低的地位。而人类的种群知识库在过去10万年间发生了飞跃性的提升,由此在自然界处于绝对的统治地位。
从上面的案例可以看出,一个种群拥有的知识库容量和使用知识改造世界的能力,把它们合称为这个种群的知识库(PKB),这将是判断生物进化方向和生物高低等级的基础(如图9.4)。我们可以从该种群拥有的全部生物基因信息(GENE)、发现的自然界现象和运行规律(SCI)、掌握的改造自然的技术能力(TECH)三个方面考察种群知识库的发展
我们可以尝试用这个图示和公式对人类、恐龙、熊猫、鲨鱼、狗等生物的种群知识库(PKB)进行研究,绘制近200万年来他们种群知识库的变化过程。
由于缺乏人类和相关生物在远古时期的具体知识库和能力运用数据,我们用常识分析和假设估计的方法进行示范,表明人类的种群知识库是如何在进化中脱颖而出的,更为科学和可靠的数据研究留待未来深入。(详细阐述文字请阐述请参阅《崛起的超级智能》一书相关内容)
人类、鲨鱼、狗、和熊猫的种群知识库曲线图
大脑、人工智能、互联网在21世纪的融合,形成一个前所未有的超级智能。这个超级智能的发展与进化,使生命共同体第一次有了一致和明确的进化方向。
无论是大脑近十亿年来的进化、人工智能的最新发展、还是互联网大脑模型的形成,无一不在提醒我们,种群的知识和智慧是生命进化的核心,当一个种群的知识和智慧趋近于无穷大时,生命进化终极目标“全知全能”将因此产生。
法国著名进化论哲学家德日进20世纪上半叶在《人的现象》一书中提出人类进化的终极状态是全知全能,也被称作Ω(欧米伽)点,“上帝”之点。由此可见,人类或其他种群知识库到达”全知全能”时,德日进的预言就实现了。
人类的伦理是指在处理人与人,人与社会相互关系时应遵循的道理和准则。是从概念角度上对道德现象的哲学思考。它不仅包含着对人与人、人与社会和人与自然之间关系处理中的行为规范,而且也深刻地蕴涵着依照一定原则来规范行为的深刻道理。
由于伦理的设定往往与文化、宗教、地域、价值观、世界观有关,在人类数千年的文明史,至今我们也没有一个统一的、标准的、明确的伦理体系,仅有一些大部分人承认的大体的原则。新时代关于机器人和人工智能的的伦理冲击,因为这个领域的不完善导致争议变得更为突出。
从上面的讨论看,知识和智慧的提升是生物进化的核心,可以用种群知识库变化判断生物进化的方向和生物的高低等级。当时间趋于无穷大时,种群知识库将实现全知全能,从而到达“上帝之点”。
这说明生物的进化存在方向和终点。由此我们可以得出判断标准,在生命进化的过程中,那些促进和保护种群知识库发展的行为,可以看过正向的伦理标准;那些阻碍和危害种群知识库发展的行为,可以看做是负面的伦理行为(如图9.11所示)。
通过种群知识库判断伦理规则的示意图
依照这个标准,我们可以从生物进化方向的角度对人类、机器或者人工智能伦理涉及的问题进行判断和回答。
“扳道工困境”中,能否判断一个小孩或者一车厢人类哪一边对人类未来的知识和智慧贡献大?在没有第三种选择和无法判断的情况下,选择让人数更多的一车厢人类存活下去,应为无奈之举。
泰坦尼克号出现的紧急逃生问题,在无法判断乘客身份的紧急情况下,选择优先逃生的为妇女和儿童,主要是因为她们更多代表了人类繁衍的继续和人类发展的未来。
在2012电影中,总统选择让科学家乘坐飞机到达安全之地,并表达 “一个科学家比几十位官员更重要“,除了总统对国家的忠诚之外,也是基于科学家对人类未来知识的创新更重要的判断上。
对于波士顿动力机器人在进行科学实验时,受到测试科学家的攻击,导致站立不稳摔倒的问题,这并不涉及对生命的虐待问题,因为从标准智能模型的构造和生命进化的本质看,机器人和人工智能系统还不能看做与人类同权的生命体,甚至根本就不在生命的范围内,这主要是因为机器人目前既没有自动进化的动力,也没有判断是否正确进化的能力,机器人或AI分担了人类的部分知识和智慧功能,但在创造性和评审创造性价值方面无法替代,更为重要的是AI无法确定自己的进化方向和进化目标,也没有正确进化的自然动力,它的进化动力来源于人类,因此机器人和人工智能依然是辅助人类进化的工具。
应该着重指出,在非紧急情况下对应对个体利益应进行特别保护,不能以群体利益侵占个体利益,发挥个人探索的能动性对种群知识库的提升应是非常重要的方式。
这一点首先在基础科学的探索中体现特别明显。纵观科学发展史,哥白尼、牛顿、门捷列夫、爱因斯坦等科学巨匠们,主要是靠个人探索时“灵光闪现”做出的伟大贡献,是靠自由的探索,而非有组织有目的规划。


原文链接:https://mp.weixin.qq.com/s/XrJsybpCHU8Ma7Cu2Umylg


编辑:董莉

262#
 楼主| 发表于 2019-10-16 21:46:12 | 只看该作者
刘海明 发表于 2019-10-16 21:45
【案例】
人工智能伦理如何设定,从种群层面看人类的知识积累和进化
前言:9月份中宣部出版局《中国图书 ...

9月份中宣部出版局《中国图书评论》对《崛起的超级智能》进行了推荐和评论,对其中阐述的种群知识库扩展观点给予了重点关注。应该说种群知识库扩展是互联网大脑架构不断发展的抽象推论,这个推论对于人工智能及其伦理的建立也应有相应的价值

263#
 楼主| 发表于 2019-10-18 22:30:53 | 只看该作者
【案例】





编辑:董莉

264#
 楼主| 发表于 2019-10-20 23:46:35 | 只看该作者
【案例】
刘艳红:人工智能法学研究中的反智化批判

人工智能法学研究中的反智化批判

作者:刘艳红,教育部“长江学者奖励计划”特聘教授,东南大学法学院教授、博士生导师。
来源:《东方法学》2019年第5期。本文与发表版本的内容略有不同,并已略去注释,引用请以原文为准。

内容摘要:人工智能技术热潮的再度兴起,使得人工智能法学研究空前繁盛,但当前研究出现了违反人类智力常识的反智化现象概念附会现象严重,不少成果只是基于“AI+法律”的任意性组合,“泛人工智能化”研究正在产生大量学术泡沫制造人工智能研究中的“假问题”或误将司法适用问题当作人工智能法学研究中的元问题,理论创新方向值得怀疑;将对策与科技问题当作理论与学术问题,离开法教义学的基本立场与方法,使得人工智能的研究日益滑向不可知论人工智能并未对法律基础理论、法学基本教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景。法学研究应该避免盲目跟风,走出对AI的货物崇拜,回归学术研究的理性轨道。

二十世纪七八十年代,人们曾一度对人工智能的研究充满热情,随着真正有用的AI程序未能面世,这种热情被漫长的挫败感所冲淡,而如今人工智能技术再次“引起了越来越多的兴奋和焦虑……涉及人工智能的未来图像(futuristic imagery)在大众媒体中日益流行”。

在这种氛围的笼罩下,我国法学理论和实务界也对人工智能(机器人)保持着巨大的好奇,对法律引导人工智能发展的技艺充满着强烈的自信。不可否认,为包括人工智能在内的一切技术问题设计法律规则,是法律人不可推卸的时代使命,因而这种研究风潮是“法学作为致用之学”的当然表现,一切“热衷”似无可厚非。但也正因为法学研究本应具有观照现实的特性,这要求我们时刻注意合理选择参与前沿技术讨论的现实契入点,在正确理解人工智能技术应用场景的前提下确定法学研究的问题意识,避免盲目追求“时髦”的学术虚假繁荣。以刑法学为例,或许得益于国家《新一代人工智能发展规划》的政策信号,本领域内的研究成果从2017年开始呈现爆炸式增长,“人工智能刑事责任论”等俨然成为最为耀眼的知识增长点。面对席卷而来的人工智能法律问题的法学研究,面对“定分止争”的法律本性,不得不让人产生怀疑:法律学者们是否已经找到了规制AI技术发展的理性方向?当前的热烈研究究竟能走多远,它究竟只是“先一哄而上再一哄而散”还是能够持续到强人工智能到来之日?空前兴盛的人工智能法学是否积累了有助于学科发展的智识,抑或仅仅是法学理论工作者们为了追踪热点并出于各自目的比如引用率高低等而亦步亦趋的“学术秀”?对此,本文将审视当下人工智能法学研究的格局及其问题,并在此基础上就其发展进路谈几点看法。


一、人工智能法学研究中的概念附会
当前法学界存在无处不在的“人工智能+”,在人工智能的大招牌之下开启了各个论域的话题研讨新模式。究竟什么才是人工智能?学者们所言的人工智能只是借用了一个似是而非的流行语以吸引阅读兴趣,还是它确实挑战了千百年形成的法律知识体系?通过观察可以发现,人工智能其实并没有取得如此巨大的飞跃,一些所谓的“人工智能法学”研究题目仅仅是在顺势包装、借壳上市,这种“盛名之下其实难副”的概念附会已经吹起了不少学术泡沫。
人类最初在制造计算机之时就已幻想能够研发出会思考的机器,那时人们无法给予它一个特定的可理解的准确称谓,因而便将之命名为“Artificial Intelligence”,简称AI,以表明其不同于人类自然智慧的人工智慧。迄今为之,科学家们也给它撰写过不同的定义,甚至用各种思想实验如著名的图灵测试、中文房间理论等验证这种人工智能存在与否。本文不想详细例举这些定义,事实上关于计算机科学、哲学、法学等学科内的很多基础概念都没有取得过一致的意见。或许如美国最高法院大法官斯图尔特(Potter Stewart)曾说的那样,我们难以成功描述这些概念如无法定义什么是淫秽物品,但“当看到它时我就知道了”(I know it when I see it)然而,当人们因自身的不求甚解而误解曲解研究对象时,准确提炼出相关概念的核心要素就显得十分必要,毕竟不同定义之间还存在着相当的共识。整体而言,人工智能概念核心要素自1950年代产生以来就是恒定的,人们尚没有超脱对AI的原始认知——像人类一样理性地思考和行动。这并不是说人工智能系统的智力水平与人类持平,事实上人类在很多方面也早已大大超越了这个目标,而是涉及一些像人类一样能够“自主的选择和决定:自我管理(self-governing)”。“自主或自治(Autonomy,源自希腊语auto:自我,nomos:法律)与自动化(automation)不同,自动化是指由一台机器不断重复一个过程。自主则要求……AI可以做出自我的选择,即便它在做决定时与人类有过互动”。可以说,“机器是否具有自动化”是一种外部信号反射式的事实判断,而“机器是否具有自主性”则还涉及到自然科学之外的关于机器是否具有自我意志和自我行动能力的“(类)人性”判断。有鉴于此,有学者认为一个可被称为“智能”的实体应至少具有五个基本构成属性:①沟通交流能力(communication),即能够与人类或其他物种相互动,这并不单单代表着智商水平而是一种社会交际潜能;②内部知识(internal knowledge),即对自身的认知,它等于“自我意识”,一个有智慧的实体应该知道自己的存在、自己以某种方式运作、将自己融入现实等;③外部知识(external knowledge),即关于外部世界和真正现实的数据收集分析能力,这是人类累积生活经验的方式,也是人类学习的方式,如果把任何事件一次又一次地当作全新的,那么就很难表现得像一个有智慧的实体;④目标驱动行为(Goal-driven conduct),这指的是一种意图,它制定和执行计划来实现相关目的;⑤创造能力,即指找到新的理解或行为方式的能力,反复尝试完全相同的行为并不是创造力的表现。所以,真正的人工智能是极为复杂的,认定条件也颇为苛刻,这些定义标准限制了概念上的泛人工智能化。
反观我国法学界,很多学者常常将人工智能要求的“自主性”与寻常的“机械自动化”相互混淆。例如,致力于人工智能法学研究的学者大多以“机器人伤人事件”等为起点,比如2015年德国大众汽车制造车间内发生的所谓“首起机器人杀人案”。但是,本案中产生故障的机器人只是普通机械设施,它根本没有独立思考的能力,它之所以会杀死这名工人,是因为触发了该设备的自动处理程序;它只是自动化的普通机器,远没有达到所谓人工智能的水平。与无处不在的生产责任事故相比,该事件也没有本质不同,无非该设备的自动化系统更为精密而已。如果说这也能够成为人工智能法学研究的问题来源,那么可能早在工业革命推广开来之时就该去研究“人工智能”了,或许农业社会耕田的拖拉机伤人也该划入人工智能法律问题的话题范围了。生活经验常识告诉我们,任何机器都会存在风险,即便一把毫无自动性的菜刀在人类不当使用时也会划伤手指。以所谓的“机器人杀人案”导出人工智能的发展风险,进而得出应追究人工智能之物法律责任的观点,是对人工智能根本性的误解和非常低级性的错误。那些讨论对机器人追究刑事责任的学者可能忘记了刑罚的功能,“在判处刑罚的情况下,法官对再犯罪可能性的预测不可能是绝对准确的,犯罪人的行为态度、规范意识等也是不断变化的,因此,刑法特别规定了减刑制度与假释制度。”针对机器人,这些刑罚制度显然没有任何意义,刑罚的报应或者预防目的也都无从实现。
再如,银行的自动取款机(ATM)是为了节省人工成本而发明的旨在引导人们从银行自助取款的机器,虽然它也被叫做“自动柜员机”,但它只是银行人类柜员的一种替代设施,它只有自动化而没有自主性。但是,有学者在人工智能中讨论利用拾得或盗窃他人银行卡在ATM上取款等案件的处理,将之归入“人工智能作为侵财对象的侵财犯罪”,并以此提出了“人工智能时代侵财犯罪刑法适用的困境”问题。事实是,中国第一台ATM机早在1987年就已经启用,它与人工智能之间没有丝毫关系。“通过ATM实施侵财犯罪”“机器能否被骗”等话题根本不用借助于所谓的人工智能就已被讨论过了,当法学重要期刊上的论文将自动取款机、手机银行、支付宝第三方支付平台等统统纳入人工智能范畴时,恰恰表明概念附会的严重性已经到了让人失去底线的地步。果真如此,我们这个人口大国的人工智能普及率早已世界遥遥领先。自动取款机、手机银行、支付宝等可能会出现系统故障,但它们并没有社会沟通能力、创造能力,它们也没有自主性;我们对它们的应用再熟悉不过,常识告诉我们,这种研究正是泛人工智能化的突出表现。

又如,我国法律界对“司法人工智能”持有极高的期待,并随着一些软件如法律信息系统、法律咨询检索系统的司法便利而大大增强了法律人研发人工智能的决心和信心。但是,这些所谓的“司法AI”或“法律AI”是十分低端的自动化计算软件,至多属于对人类智慧的“智慧增强”即(Intelligence Augmentation),它与“人工智能”尚扯不上关系。当前的“司法人工智能”如通过语音技术将庭审声音转化为文字、进行法律信息检索、撰写法律文书等,仍然是一种简单的资料统计、文字处理的模型,是人类编码时设计的模板或套路,只不过随着司法信息公开数量扩增,这些法律软件可以借用不同于以往“小数据”的“大数据”。这些法律应用软件可能利用大数据扩大外部知识,可大数据不只是实现人工智能某种或某些特征的条件;人工智能的实现也不仅仅靠大数据,这些软件只是一些电脑程序(连“物”都算不上),它们更没有沟通能力、内部知识、目标驱动行为等,甚至没有丝毫深度学习能力。那些旨在实现量刑规范化的司法软件仍然局限在十多年前“电脑量刑”的框架内,办事机关大厅内能够做到语音交互、人脸识别的各种法律机器人也只是大量法律业务中的自动化玩具。如果说这些产品由于让法律人喜出望外而被视为“人工智能”的话,那么谷歌AlphaGo-Zero、波士顿动力机器狗这种“弱人工智能”恐怕就是神一样的存在。当机器“像人一样思考”尚不可预期的情况下,让它“像法律人一样思考”更是一种奢望,所谓的“智慧司法”也绝对不是司法的人工智能化,盲目追捧吹嘘“司法人工智能”也绝不是司法体制改革的初衷和方向
综上可见,我国人工智能法学研究中存在着明显的概念附会,将不属于人工智能的研究对象强行贴上人工智能的标签,相关研究演变为“AI+法律”的任意性组合,不少研究者只是打着人工智能的旗号攫取话语权、提升自我身价,法学家们一夜之间变成了人工智能专家,仿佛让自然科学家都望尘不及。这种“泛人工智能化”不是真正的学术研究,而是制造学术泡沫。

二、人工智能法学研究中的伪问题替代真问题

“问题意识”是一个常谈常新的话题,提出正确的问题是任何研究过程的开端,如果没有针对真实的问题进行讨论,即使论述再精妙、方法再多样、观点再前卫、著述再等身,都只是徒有一身浮华的外表,根本不具有任何实际意义。当前法学研究中,应特别注意甄别“伪问题”。尤其在“乱花渐欲迷人眼”的人工智能领域,问题意识更具有欺瞒性,一些法学家似乎总能够发现连科学家都难以察觉的“宇宙级难题”,可静心观察就会发现不少问题的讨论意义仅仅在于占领了更多期刊版面而已,所谓的理论创新可能只是一场空欢喜。

其一,不断制造、跟风、放大“假问题”,导致法学研究误以人工智能发展中的夸张、炒作、娱乐为前提。我国人工智能法学研究主要始于学者们对人工智能技术的各种忧患意识:人工智能的发展前景不可限量,必然会出现具有自我意志的(超)强人工智能,人工智能甚至可能会取代人类、机器算法会取代人类法律;人工智能引发的风险足以产生毁灭性打击,因而主张法律甚至刑法积极应对和规制人工智能的发展,等等。这种“居安思危”“未雨绸缪”的精神确实让人感佩,可这些忧虑只是依靠无数假想拼凑起来的幻影,只是在用别人的“噱头”吓唬自己。

例如,世界上第一个获得公民资格的表情机器人索菲亚(Sophia),在2017年10月被沙特阿拉伯授予公民身份之后,尤其它曾在与设计者汉森(David Hanson)的对话中冒出一句“我想毁灭人类”,法学家们开始变得躁动不安。不少学者将索菲亚的公民身份作为一种AI技术发展的国家制度回应,视之为AI挑战现行法律体系的范例以及检验某个法律人格理论是否合格的试金石,认为法律若不承认机器人的法律主体地位就不能满足这种社会现实。然而,索菲亚早已遭到包括人工智能科学家在内的各方观察者的极大怀疑:“索菲亚之于AI,就像变戏法的之于真正的魔法,我们把它称作‘AI崇拜’‘假冒AI’或者‘远程操控AI’可能比较好。”所谓具有公民身份的索菲亚不过是一个公关噱头而已,而不是人性、尊严或人格的展现。“‘女性’属性的索菲亚究竟能享有哪些权利,还真不好说。因为在事发地点沙特,女性连单独驾驶权都未得到法律认可。”对于这样一个女性只配拥有有限权利的国家来说,索菲亚更像是一个营销玩物。这种以国家权力为支撑的机器人营销策略淡化了沙特在妇女权利方面的不光彩记录,其实索菲亚主要的新颖性在于身体和面部表情,而不是它的会话方式、主体认知或智能程度,“当以真实的人类互动标准来衡量时,它便仓皇失措、‘智商不在线’”。其实,类似于索菲亚的人形机器人在世界范围内还有很多,它们之所以不被人们津津乐道,是因为它们的包装实力不及索菲亚。AI技术的拥护者李开复曾公开评论,索菲亚“丝毫没有人性、人的理解、爱心、创造力。授予这样一台只会模式识别的机器‘公民’,是对人类最大的羞辱和误导。一个国家用这种哗众取宠的方式来推进人工智能科研,只会适得其反”。既然人们对于索菲亚之于人工智能发展的意义远没有形成共识,我们更没有必要放大索菲亚等类似机器人对现有法律体系的影响,索菲亚的所谓“公民身份”是国家、企业、新闻媒体等各方利益的联合演出,它既与沙特本国的法制传统相龃龉,也受到了AI专业科学家的批评。因此,法学家完全没有必要从索菲亚那里获得什么问题意识,也不必为它的公民身份感到欣喜或恐慌,由索菲亚引出的人工智能法律人格问题是个彻底的伪问题,没有任何法制建构和法学研究上的借鉴性;那些经由公民机器人的诞生而产生的将索菲亚“修坏了会被追究法律责任吗?把‘她’拆解其不等同于谋杀?等问题,正是伪人工智能法学问题的典型代表。

其二,将司法适用/使用问题作为人工智能法学的“元问题”,“AI乐观主义+法律工具主义”盛行,从而不甄别真风险真挑战、陷于表象式研究氛围。当前的研究主要集中于两个方面一是推进司法人工智能以提升“智慧司法”乃至“智慧法治”,克服人类裁判思维的片面与恣意;二是探究人工智能对传统法律权利义务的挑战,最终落脚于人工智能的司法处遇如“人工智能创生成内容”的著作权保护、自动驾驶致人损伤的刑事责任等。如果将研究对象限定在弱人工智能,则不仅AI的作用有限,而且它对法律体系的挑战也十分微弱,以人类为中心的现有法制系统仍具有顽强的适应力;如果将研究对象拓展至强人工智能,则不仅完全跨越了时代,而且忽视了一系列尚未深入讨论的前提性问题。

如前所述,当前的“司法人工智能”只是提高司法工作效率的便利工具,如语音输入取代书记员电脑打字记录、裁判文书上网以及自动识别搜索等,这种变化与书记员告别古老的手写记录没有实质区别,其他应用如海量判例筛选、辅助量刑规范化、电子取证技术等至多属于增强同案同判等人类司法智慧的AI。“司法人工智能”这一现代科技的使用还面临很多难题,若不对此加以重视而盲目上马各种“智慧司法项目”,最终也只沦为一场“司法秀”。例如,当前中国的司法公开指数虽然有提升,但远未能构成真正大数据,大量司法文书没有公开或没有及时公开、案外因素或规范外因素对司法结果依旧产生隐形决定力,数据的不完整、不真实直接影响各种“司法人工智能系统”的效用。又如,司法体制改革的重中之重是凸显程序正义,而人工智能的“算法黑箱”将加剧人们对裁判过程不透明的怀疑,这使得那些致力于摒弃人类法官弱点的智慧软件系统变得苍白无益。更重要的是,当前的人工智能法学研究者几乎都不是计算机科学专家,各种软件系统的研发也依赖于法律人与专业技术人员、技术公司的合作。当我们质疑人类恣意时,也更有理由怀疑这些系统研发者会借着算法黑箱写入法学家的偏见、科学家的武断、企业的经济利益等,它们仍无法摆脱商业、政治、强势价值观等力量操控,这种“算法歧视”已经在多种领域出现,使得人们对这种由于尖端技术导致的不公正性的救济难度将直线上升。因此,当前司法人工智能实际仍停留在“为何要用”的原始阶段,当类似元问题没有得到充分讨论而径直将其乐观地投入司法使用,那么所谓的智慧司法将会引出更多棘手的法治难题,对于“法律AI”大可不必亦不能急于求成。

再如,著作权法保护的客体是“作品”即文学、艺术或科学领域内的独创性表达,即“只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护”。“人工智能生成内容”的生产过程并不属于创作、不符合独创性要求,不是著作权法中的作品,所谓“人工智能生产内容”的著作权保护就成为一个伪问题,不能以此否认现有法律的应对能力。“作品”源于独立的、个性化的思想创作,是某种情感、审美的表达,计算机软件可能具有越超人类大脑的某些组合能力,但最关键的是它缺少人类之间的共情心、同理心而完全根据算法、模板机械生成结果,没有发挥智力创作的空间。比如机器所写的诗只是利用了内部词库和一些文字搭配技巧,它根本无法理解爱情、童趣、寂寞、悲悯等诗歌创作内在思想,甚至它呈现出来那堆文字(在其内部是一堆数字代码)连诗歌的皮囊都没有,也注定不会得到文化上的流传。人工智能不能改变著作权法中“作品”的构成要件,对这种毫无创造情境、毫无智力活动的“生成内容”进行著作权保护毫无必要,更不能承认机器的著作权主体资格,否则人工智能将率先在艺术创作上严重冲击人类文明理念,这才是人们最需要担忧的。事实上,即便当下热议的法律大数据与人工智能在司法场景的应用,也还只是停留宏观层面概述,根本还未深化到具体的细分领域。所以,那种所谓“新技术、新风险对司法适用提出新挑战”毋宁是不假思索的命题套路。法学研究应该走出对AI的货物崇拜,[ “货物崇拜”,是指与世隔绝的原住民将外来先进科技物奉若神明的行为。]回归学术研究的理性轨道,研究法律领域的真问题。

三、人工智能法学研究中的对策论代替教义论


人工智能只是无数新技术发展背景下的某一个领域,法教义却是法学研究不可抛弃的立场和方法,当下对人工智能法律问题的研究停留在对策论,离开法教义学的精耕细作和理论共识探讨必将使人工智能法律问题研究难以沉淀。

每个部门法都存在问题性研究和体系性研究,前者以解决个别问题为导向,后者则以各种原则、规则的体系推进为导向,二者在整体知识系统内相辅相成,共同保证法律制度对实践问题的适应性和稳定性。如前所述,人工智能法学研究兴起的原因是研究者认为法律对AI问题的应对能力不足,因而这首先是问题性研究;同时,研究者提供的解决方案如赋予人工智能法律主体地位等均是对现有体系的突破,因而也就天然牺牲了体系性。概言之,人工智能法学研究的现状是问题性研究林立、体系性研究阙如。虽然法学不能像自然科学那样建立起严密的公式体系,但法教义如同公式一样,提供了逻辑关系建立起来的知识体系,保证了各部分知识之间的兼容性,按照这些公式体系来完成判断可以节省大量审查精力。体系性研究的这种优势荡然不存,会导致我国法学研究转型中的所谓知识创新实际上走向了“回头路”:对策论优先。法学家的对策论与国家制度层面的政策论共用一套逻辑,它特别看重的是法律工具主义,当失去了体系性研究之后,这种对策论容易违背原理、抛弃原则、颠覆法秩序,产生的不是工具理性而是“工具不理性”。
人工智能法学研究中对策论的极端表现就是主张赋予人工智能法律人格,甚至人工智能可以作为独立的犯罪主体存在,这是一种“以新(立法)制新(问题)”的路径,往往仅仅是就事论事、毫无体系。例如,权利义务能力是定义法律主体的唯一标准,但人工智能在权利义务根本不可能实现统一性原则。即便人工智能享有了著作权等呼声较高的权利,但它当其研发者、使用者将AI创作物据为己有时,AI是否能够就发表权、署名权的救济独立提起民事诉讼?除此之外,它还能拥有哪些权利?智能机器人有无数个种类、程序也极为复杂,如何判断某些AI具备而某些不具备权利能力?研发者、使用者为自身之目的对人工智能运行程序进行删改时,是否也要经过AI的同意?他们对这些智能产品还能够享有“物”权?这都是牵一发动全身的问题。在义务能力上,当AI致人损害而产生责任时,它如何承担赔偿责任?法学家目前设想的方案是像机动车强制保险那样为人工智能进行投保或设置某种基金,但这种责任是仍然是人类的财产责任而不是AI的独立责任。因此,“主张人工智能具有主体资格……不具有现实性意义”人工智能达到权利义务相统一的法教义要求几乎不可能,体系性思考的缺失只会顾此失彼、不可能拼凑出一个法律上的新主体。


再如,断言人工智能可以承担刑事责任的观点根本违背了人类制定刑法的目的理性。刑法教义学对刑罚的认知是:“刑罚作为国家对犯罪行为的否定评价与对犯罪人的谴责的一种最严厉的形式,当然地对犯罪人具有身体的、精神的、财产的剥夺性、限制性痛苦”。不少刑法学者对人工智能承担刑罚责任念念不舍,可这种所谓的“刑罚”根本就不可能成为一种“痛苦”,不可能实现对AI犯罪的预防效果。首先,诸如删除数据、修改程序、彻底销毁等手段根本谈不上任何“谴责性”,这些手段早已在当今畅通无阻。电子产品售后服务中心对出售的产品进行数据程序的删减、替换、修正或者按照用户意愿进行置换、报废是无比寻常的维修方案,这何曾需要以它们构成犯罪主体为前提,这些维修手段的正当性根据只在于技术有效性——以“能修好”为标准。人类对自由刑、死刑的痛苦感是来自天然的肉体和心理上的,机器人的痛苦感则来自于人的设计而非其自身,它没有痛感;在这一点上AI连一只有触觉的蚂蚁都不如。因此,人类为AI设计的“刑罚”根本不具有任何刑罚的属性。其次,正因为刑罚属于最严厉的制裁措施,人类更加注重法治国刑法的最后手段性、谦抑性、法益保护辅助性。除刑法之外还有道德规范、伦理规范以及其他前置法,如诸多风化犯罪之所以受到质疑正是因为相关行为属于纯粹道德或伦理调整范围。法学家从来没有考虑过人类是否能够为机器人成功搭建起道德或伦理的规范体系,而只是简单粗暴地动用刑罚,面对人工智能等高端技术时总是如此急不可耐;法学家似乎也没有注意到,上述那些所谓的刑罚方式其实单纯依靠官方或非官方的AI技术管理规范就能够顺利实现,这些技术指南只需要针对AI研制者、使用者等人类主体即可。可以说,以上问题的“很多部分根本就不是‘对法律的挑战’”,人工智能并未对法律基础理论、基本法学教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景,如技术的发展如何影响人类自身的注意义务等。

迄今为止,人们没有放弃过对法律风险预防功能等问题的迷恋,很多措施如刑罚前置化、抽象危险犯、行政犯的增设等或许还能被理解,毕竟它们针对的都是人类行为,至少这种立法客观上会引起一些自然人或单位的心理威慑。但若将法律的预防功能指向不知何年何月才会出现的“假想主体”,则根本错解了预防主义,一如英明睿智的秦皇汉武也不可能以“展望未来”的姿态为醉酒驾驶机动车的立法浪费笔墨,这与他们的想象力无关而是由于这一时代根本不存在这种“定分止争”的需求。更值得指出的是,很多法律人自以为富有远见卓识、想象力丰富,可他们是否想过:强人工智能的整体智慧高于人类且又拥有自主意识、行动自如,那么这种比人类高一等级的物种届时还会接受今日法学家的方案吗?纵然今日设计了无比完美的框架,可那时人类将失去框定人工智能的资质,那时反倒是“人工智能在思考如何为人类立法”,所以,“冥想式的法学研究”里充满着神奇的悖论,人工智能法学的愿景可能是一场空。

四、结语

法学不是玄学、不是科幻主义,也容不得太多不切实际的浪漫情结。如果说“我们即将迎来人工智能时代”、自主思考的强人工智能就在“明天”,那么我们离这个“明天”究竟有多近?连科学家都不知道这个“奇点”何时来临,法学家又具有何种特异功能参透AI的未来禅机?对人工智能相关事务的法律规制尚需要我们积累更多的生活样本,创建一些只适用于遥远未来的理论、制定一些只沉睡在法典里的条文将比当前的“象征性立法”更加浪费资源,因为这种“立而不用”是名副其实的“空谈”。研究者总是相信AI技术的强大远非常人想象,那么是否有朝一日人类也会发现智力超群的外星人?或者基因技术也会让科幻电影里的钢铁侠变成能独立思考、会说话的真正人类?如果法学家总是秉着“宁可信其有”“未雨要绸缪”的态度——反正也没什么害处,那么我们现在是否也该为外星人、为钢铁侠去制定属于它们的规则?如果法学家连如何将违法行为归责为个人的问题都没有参透,却对人工智能是否拥有主题资格的问题喋喋不休,这不是在浪费学术资源又是什么?法律人若接连不断地随着人工智能等新潮科技一哄即上,那么他们也将随着自然科学的挫败或低落一哄而散,或许也将像三十年前那批AI研究先驱者一样只愿承认自己是“计算机(法学)专家”而对“人工智能(法学)专家”的头衔避之不及。当以异于常人的想象力从事法学研究时,研究者的判断力也会一并“异于常人”:概念附会、伪问题替代真问题、政策论替代教义论等一系列现象表明,一贯理性的法律人也会丢掉人类智力本该坚守的常识,人工智能法学研究中的如此反智化现象,令人深思并需要警醒。


原文链接:https://mp.weixin.qq.com/s/X2LBKxWV8a66aJ4BuFws6A



编辑:董莉


265#
 楼主| 发表于 2019-10-21 14:50:50 | 只看该作者
【案例】
李彦宏乌镇大会首提智能经济 三大层面引发重大变革
1020日,第六届互联网世界大会在乌镇开幕。百度创始人、董事长兼CEO李彦宏出席大会并发表演讲。在大会全体会议演讲中,李彦宏首次提到智能经济新趋势。他认为,数字经济在经历了PC的发明与普及,PC互联网,移动互联网这三个阶段后,正在进化到以人工智能为核心驱动力的智能经济新阶段,智能经济将给全球经济带来新的活力,是拉动全球经济重新向上的核心引擎。
李彦宏认为,人工智能驱动下的智能经济将在三个层面带来重大的变革和影响:
首先是人机交互方式的变革。如果说过去20年是人们对手机的依赖程度不断提高的20年,那么未来20年将是人们对手机依赖程度不断降低的20年。在智能经济时代,智能终端会远远超越手机的范围,包括智能音箱、各种可穿戴设备、无处不在的智能传感器等,应用与服务的形态也会发生与之相应的变化。人们将会以更自然的方式和机器、工具进行交流。
其次,智能经济也会给IT基础设施层带来巨大的改变。李彦宏判断,传统的CPU、操作系统、数据库将不再处于舞台的中央,新型的 AI芯片,便捷高效的云服务,各种应用开发平台、开放的深度学习框架、通用的人工智能算法等,将成为这个时代新的基础设施。百度在这个层面的投入时间最久、投入金额最多,李彦宏表示我们把它视为我们人工智能战略的支点。
最后,智能经济会催生很多新的业态。交通、医疗、城市安全、教育等等各行各业正在快速的实现智能化,新的消费需求,新的商业模式将层出不穷。我们看到,人工智能正在渗透不同的产业,切切实实融入我们的生产、生活,看得见摸得着。
李彦宏认为,智能经济的这三个层面并非相互割裂的,它们会互相影响,并产生化合反应。 他在演讲中也透露,作为中国人工智能领域的先发企业,百度在这三个层面都有大量投资。我们的中长期目标是成为全球领先的人工智能平台型公司,以加速人工智能的应用,从而践行我们的使命——科技让复杂的世界更简单。
作为一个人工智能的乐观主义者,李彦宏并不同意某些业界大咖关于人工智能会毁灭人类的看法:我的观点恰恰相反,人工智能不仅不会毁灭人类,反而可以让人们获得永生’ ”每一个人说的每一句话,干的每一件事儿,甚至你的记忆、情感、意识等都可以数字化存储下来,放在网盘或者其他的云端,你的思维方式可以被机器学习出来,遇到新问题,通过技术进行现实还原,就可以与后人进行超越时空的对话。他相信人工智能的发展,是一个属于全世界、全人类的机会,人工智能必将让我们的生活越来越美好。
附李彦宏演讲实录:
这是我连续第六年来参加乌镇世界互联网大会。
一年一度的世界互联网大会已经成为了展望全球数字经济动向的窗口,那么通过这个窗口我们将看到什么?我们将看到在充满不确定性的全球经济的大背景下,数字经济对于代表全球经济复苏,有着非常重要的意义,我们将看到技术创新将是拉动新一轮经济增长的强劲动力。
最近我看到一份报告,说2018年中国数字经济规模达到了4.7万亿美元,保持着全球第二大数字经济体的地位,增速是17.5%,远高于GDP的增速。数字经济在经历了从PC的发明和普及,到PC物联网,再到移动互联网,今天已经进入了以人工智能为核心驱动力的智能经济的新阶段。智能经济将给全球经济带来新的活力,是拉动全球经济重新向上的核心引擎。
那么智能经济包括哪些部分?它都创造了哪些机会?我认为,人工智能驱动下的智能经济将在三个层面带来重大的变革和影响:
首先,是人机交互方式变革。如果说过去20年是人们对手机依赖程度逐步提升的20年,那么未来20年就是人们对手机依赖程度逐步降低的20年。在智能经济时代,智能终端会远远超越手机的范围,包括智能音箱,各种可穿戴设备,无处不在的智能传感器等等,应用和服务的形态都会发生相应的变化,人们将会以更加自然的方式和机器、工具进行交流。
即使是大家每天都在用的搜索,在人工智能时代也将焕发出巨大的潜力。过去的搜索我们是一个问题给十条链接,用户自己去选。在人工智能时代,人机交互的平台已经远远不止手机,很多的设备是没有屏幕的,那么搜索就必须要做到足够的智能,给出唯一的答案。百度的搜索在2017年的时候首条的满足率是16%,到2018年的时候涨到37%,今天已经是51%左右。也就是说,大家现在百度一下,一半以上的答案是唯一答案,直接给出。
未来如果有一天99%的用户的问题都可以用一个搜索结果来满足,那么搜索将不仅限于搜索框,不仅限于设备,也不限于服务,搜索将变得无时不在,无处不在。所以之前有讨论说未来的搜索会不会变得不重要?那我的答案是,未来的搜索形式会不断地发生变化,但是它的市场规模之大,恐怕远超很多人的想像。
再比如说智能音箱,大家都能感到,这个产品在进入千家万户。为什么这个市场起来了呢?原因很简单,易用,有用,想用。比如我们的小度在家,在基于语音交互,让之前不方便使用手机的老人和孩子都能方便使用到,它能做很多的事情。除了放音乐,还能播视频,看直播,听故事,查菜谱。我们还在不断地进行技术创新,让智能音箱的交互更加简单,更加易用。最近小度智能音箱可以用眼神来唤醒,用户只要注视设备,就可以获得响应。我们也引入了手势交互,用户只要一个手势,就可以让设备停止或者继续播放。
其次,智能经济也会给IT的基础设施层面带来巨大的改变。传统的CPU、操作系统、数据库将不再成为舞台的中央,新型的AI芯片、便捷高效的云服务,在各种各样的应用开发平台开放深度学习框架,通用的人工智能算法等,都将成为这个时代新的基础设施。
作为人工智能平台型的公司,百度在这个层面投入的时间很久,投入的精力非常大,我们把它视为人工智能时代战略指引。百度大脑及其重要的组成部分飞桨深度学习框架,都是在基础设施层面的布局。这个层面的机会同样很大,但是时间关系,我就不展开讲了。
最后,智能经济会催生很多新的业态。交通、医疗、城市安全、教育等等,各个行业正在快速地实现智能化。新的消费需求,新的商业模式将层出不穷。我们看到,人工智能正在渗透到各个不同的产业,切切实实融入到了我们的生活、生产,看得见,摸得着。大家可能注意到,百度的自动驾驶出租车队在9月份的时候在长沙开始试运营,在市区100公里的范围内,普通市民可以通过APP一键呼叫自动驾驶汽车。这不仅对于智能网联汽车行业的发展是一个推动,更将倒逼城市交通的基础设施,尤其是软件层面大规模地升级换代。
智能经济的这三个方面不是割裂的,它们相互影响,并且产生化合反应。百度在三个层面都有大量的投资,并且占据了一定的位置。因此,我们在中长期目标上,是要成为全球领先的人工智能平台型公司,以加速人工智能的应用,从而践行我们的使命:科技让复杂的世界更简单。
比如我们的深度学习平台飞桨我们已经开放出来了,就是希望让非技术人员学会用人工智能来优化自己的工作。最近我知道,陕西汉中两位扶贫办的公务员用我们的深度学习技术,从20万贫困家庭当中准确地识别出了最急需帮助的2000个家庭进行精准扶贫。
智能经济的底色是技术创新,技术创新就是一次伟大的冒险。我们用一百倍的努力,取得十倍的优势,方能领先一步。但是大胆创新胜过平庸保守,所有的创造商业奇迹的公司,都是因为他们生而不同
对于人工智能的未来,悲观主义者和乐观主义者一样多,不少的业界大咖会担心人工智能会毁灭人类。但我的观点恰恰相反,人工智能不仅不会毁灭人类,反而会让人们获得永生。每一个人说的每一句话,干的每一件事,甚至你的记忆、你的情感、你的意识,都可以数字化地存储下来,放在网盘上或者其他的云端。你的思维方式可以被机器学习出来,遇到新问题,通过技术进行现实还原,就可以与后人进行跨越时空的对话。过去我们在讲伟人的时候,说他的肉体消失了,但是他的精神会永存。但是未来,我们每一个普通人都可以做到精神永存,灵魂永存。
我是一个人工智能的乐观主义者,我相信人工智能的发展是一个属于全世界,属于全人类的机会,人工智能必将让我们的生活越来越美好,谢谢大家!
原文链接:http://1t.click/aFAG
编辑:宋婷

266#
 楼主| 发表于 2019-10-21 15:13:29 | 只看该作者
【案例】马长山:智慧社会背景下的“第四代人权”及其保障
内容提要:随着数字经济和智慧社会的深入发展,人权形态正在经历着深刻的数字化重塑,从而打破了既有的“三代”人权发展格局,开启了以“数字人权”为代表的“第四代人权”。它在发展动因上,源于信息革命;在内涵逻辑上,发生了根本转向;在价值内核上,实现了品质升级;在关系构架上,呈现关联义务的社会延展。这就需要确立全新的“数字人权”观,构建相应的人权保护机制,塑造尊重人权价值的“道德基础设施”,从而为“数字人权”提供有效的法治化保障。
随着网络技术、信息技术和人工智能技术的加速融合发展,人类已经从工商业时代跨入了数字经济时代,开启了智慧社会,“其影响力足以与工业革命相媲美”,这必然会促发人权的发展与变革。事实表明,既有的“三代”人权发展格局被逐渐打破,“第四代人权”已经应运而生,如何加强其法治化保障已成为一个迫切而重要的时代课题。
一、智慧社会背景下的人权问题与挑战
智慧社会的网络化、数字化、智能化发展,使得传统人权领域遭遇了很多尴尬。比如隐私权保护就面临着双重张力。一方面,“9·11”事件后“棱镜门”事件的效应凸显,各国监控技术不断强化、范围不断扩大。而在全球商业领域,无处不在的数据分析、数据画像和精准推送,已经扯开了传统隐秘空间上的面纱,制造了“无隐私的公众”;另一方面,公众的隐私保护诉求则出现了爆发性增长——“应当肯定存储于政府、商业组织、网络运营商等‘数据库’中的个人数据完全属于个人隐私范畴,公民对此享有使用知情权、编辑管理权、删除不当权等权限”。这似乎意味着,信息技术飞跃发展所带来的巨大进步和增益空间,已成为个人权利、社会权力与政府权力之间同步扩张、博弈增长的广阔“飞地”。再如,算法歧视使得社会歧视获得了全新的形式,在人脸识别、商业推送、大数据杀熟、甚至公共服务系统中,都曾出现过这类问题。这意味着,“在数据集中,杂乱无序的各种相关性暗含着隐秘的规律性,其中很可能就存在某些偏见。”
在新兴人权问题上,一是黑箱“暗算”现象日益严重,“用户们无法看清其中的规则,无法提出不同意见,也不能参与决策过程,只能接受最终的结果”,那么,算法就“不仅仅是在预测,还有助于控制用户的行为”。这自然会形成黑箱的各种“暗算”、歧视、不公,不当牟利甚至欺诈便在所难免了,人权保护也自然面临着重大的、全面的威胁。二是无方向的监控扩张,无论是商业组织还是一些国家的政府,都经常以各种名义来对个人数据信息进行随时监控和检视。最近,欧洲经济和社会委员会就深刻指出:“监视贯穿整个社会,且没有方向性,在社会的各个层级,包括层级内部,监视无处不在。”三是数据掌控的严重不对称问题十分突出,“所有的数据都由我们自身产生,但所有权却并不归属于我们。”于是,一面是越来越透明的个人,普通公众各种信息被收集和了解的情况甚至超过了其本人;另一面则是越来越幽暗的数据掌控者,普通公众基本无从知道自己在多大程度、多少数量上的个人数据和信息已被他人掌控。这就意味着,当下日益加剧的巨大“信息垄断”和“信息鸿沟”,并不是一般性地加剧社会不平等和两极分化,而是明显危及到个人隐私、自由平等和人格尊严,严重地损害数字时代的机会公平、社会教育、劳动就业和社会保障等各项人权。为此,2014年联合国人权高专办在《电子时代下的隐私权》报告中就强调合法性、比例性、必要性和非歧视原则,要求保护个人信息数据不受国家和任何私主体的干预。可见,数字时代的人权威胁与保护面临着全新的时代挑战。
首先,侵权的机制化。当前,人类生活越来越多地依赖数据、信息和算法,进入所谓“数据说话、算法为王”的时代。而一旦人脑决策过度依赖算法决策,甚至算法决策替代了人脑决策的话,人权遭遇侵犯以及人权保护的样态也将会发生重大改变。其实,以往的人脑决策也是一个“黑箱”,而且一直不能排除歧视、控制、不公平等价值偏好,但二者无疑存在着重大的差别。人脑“黑箱”基本都是个别性的、随机性的、不断变化的,而算法黑箱则是普遍性的、连续性的、稳定性的;人脑“黑箱”是一种难测的自主判断,算法黑箱则是一种可控的必然选择,“其核心是用可控的主观概率代替未知的客观概率,不同的主观概率则来源于对描述客观世界的不同算法的反向推演”;人脑“黑箱”是现实场景互动中的一个或几个即兴片段,而算法黑箱则是一种自动化系统,会形成自动化的歧视和侵权“决策”,甚至还可能通过自主学习获得升级延展。也就是说,算法黑箱是一个建模系统,是一种完整机制,它一旦存在算法歧视、信息控制、侵犯隐私等问题,就会成为连续性的常规动作,产生系统化和机制化的侵权后果,这是人脑“黑箱”所不具备的。因此,它对人权的侵蚀范围更广、程度更深,人权保护的难度也会更大,成为巨大的人权挑战。
其次,侵权的“客观”化。技术进步带来的新奇、便捷、效率、安全等诸多社会福利无疑会让人欣喜;大数据挖掘和算法决策,又承诺比人脑决策更为迅速、更为客观、更为准确、不带任何偏见。但技术公司却往往在软件下载使用过程中不设菜单式选择而只有概括式同意,隐私政策和用户协议有意用晦涩繁琐冗长的表述来“迫使”用户作出无奈的勾选默认,以及通过隐藏界面甚至在软件升级中设置“后门”等方式,来表明当代神奇的科技是一种晦涩难懂的技术,让人们切身感受到人类世界已经被植入了计算机逻辑,因此“技术可以从本质上了解你,而你无须了解技术”,只要你输入了数据,就能得到相应的结果。可问题是,一旦打开黑箱,“设计者与用户面对的将是一堆可以得出某种答案的主观偏见与程序。而合上之后,它体现的就是客观性——一种无须满足任何更多的条件即可生成‘是’与‘否’的二元选项的机器”。这使得隐私侵犯、身份歧视、社会不公、自由限制等情况正在或隐或现却越来越多地发生在日常生活之中,并“以产品工程设计的表象去掩盖社会工程设计的实质”。可见,一些技术发展无形中对人权产生了严重威胁,而且它们隐藏在进步和福利的身后,披上了技术的客观性外衣,从而呈现出“客观”发展后果的形式,这就使人权保护任务变得更为艰巨。
再次,侵权的耐受化。在智慧发展时代,人们很清楚,“大部分的系统都必须使用我们的信息或者将我们与它们的信息相结合,才会顺利运转”,力图没有任何牺牲,“啥都想要”似乎不现实;而规避隐私风险的代价又太高、费时费力,何况很多时候人们还期待在朋友圈中进行信息分享和再分享的过程中来获得价值实现;当然还有一个担心,就是过于严苛的权利保护,很可能阻碍科技创新和进步,而人们几乎无法拒绝技术进步和舒适生活的巨大诱惑,也几乎无人愿意退回到田园牧歌、与世隔绝的生活中去。这样,就好像有一种心照不宣的默契交换,“人们用失去隐私、丧失个人生活和失去批判精神的代价换取可预测性、安全性,以及人类寿命的延长”。另一方面,在当今信息科技加速发展的时代,绝大多数公众都是“技术盲”,只是被动地“接受”技术进步带来的舒适便捷;他们都是“透明”的数据提供者和被分析预测的对象,而对作为数据收集者、持有者、使用者的运营商和政府却知之甚少,“我们甚至不知道,他们是否知道我们的事”。由此看来,即便是普通百姓有心想维护自己的个人隐私、数据权利、信息自由或者反抗歧视,他们也没有足够的能力、方法和路径。因此,与普通民众相比,掌握“技术霸权”的技术公司、商业平台和政府部门拥有着巨大的优势,彼此之间具有明显的不对称性,这就使得人们具有超出以往的耐受心理,人们不得不为了享受进步福利而无奈放弃一些既有的价值和权益,于是,人权侵蚀现象蔓延、人权保护乏力的情况就日渐突出了。
最后,侵权的覆盖化。在数字经济、智慧发展的主导形态下,社会生产、商业交易和日常生活也就越来越多地被置于数字建模、量化分析和算法决策的总体性框架之中。特别是如今平台经济所构造的是一种复合式、多环状的、“赢者通吃”的庞大商业生态圈,它所带来的是要么覆盖他人、要么被他人覆盖的“覆盖者之战”。由此引发的人权侵蚀问题也会随着“覆盖者之战”而扩展、蔓延和覆盖,比如信息隐私遭遇的挑战就“覆盖”了传统隐私权保护领域,算法歧视也“覆盖”了性别歧视、种族歧视、身份歧视等传统领域,数据鸿沟严重侵蚀公平机会,“覆盖”了社会教育和劳动就业等传统领域,不一而足,它使得“很多旧有的习惯将被颠覆,很多旧有的制度将面临挑战。”
二、当代人权变革与“第四代人权”的形成
人们常说,在20世纪,谁控制了石油,谁就控制了全世界;而如今进入智慧社会,谁拥有了大数据和信息,谁就会成为新时代的主宰。事实上,“历史已经向我们表明重大的技术变迁会导致社会和经济的范式转换”,这必然会引起人权领域的深刻变革,并日渐打破前三代人权的属性和范围。为此,近年来国际社会作出了一些重要努力和探索。2011年联合国就宣布互联网接入权是一项基础性人权, 2016年联合国又宣布互联网相关的权利是人权的重要组成部分。2018年联合国社会发展研究机构(UNRISD) 在其《从颠覆到转型?将技术与人权联合起来促进可持续发展》的报告中,系统讨论了新技术对于传统三代人权的颠覆,以及如何在全球范围内面对技术驱动的变革来对人权概念和实践进行更新。有学者则进一步提出,基于第四次工业革命以及生物和数字技术的融合,“第四代人权”的提出时机已经成熟。同样,国内一些学者也对“第四代人权”进行了积极讨论,并形成了和谐权、美好生活权、数字人权等不同主张。然而,无论国际还是国内,目前都尚处于学理讨论阶段,还没有官方的结论或者制度上的肯定,也恰因如此,积极关注当下人权的深刻变革与转型升级,进而深入研究和诉求“第四代人权”,才更显重要和紧迫。
(一)人权形态的数字化重塑
智慧社会是一个高度联通、高度数字化、高度精准计算、高度透明和高度智能化的社会,它深刻改变着人的生存条件、生活环境、行为方式和价值观念,人权也日益受到了前所未有的改造和重塑。
  1.人的信息存在方式赋予了人权的数字属性
众所周知,人权是指作为一个人而应该拥有的权利,它“显然以人或者人性作为其来源”,而这里的人,无疑是具有生物属性的、自然法意义上的“自然人”,并构成了人权的天然基础和基本前提。然而,随着网络化、数字化、智能化时代的到来,则使自然人的生活状态和生存方式发生了空前甚至颠覆性的变革。
一是从自然人到“信息人”的转变。大数据和算法主导了经济和社会生活,“网上的个人信息全方位覆盖了你从摇篮到坟墓的全部私人生活,慢慢地积累所有数据,直至在计算机数据库中形成一个‘人’”。于是,智慧社会中的人们,就逐渐从工商业时代那种生活于单一现实空间、以物理方式存在的自然人,转变成生活于现实\虚拟双重空间、以数字信息方式存在的“信息人”。
二是数字人性的表达和建构。以往在公共空间和私人生活中固化的、封闭性的物理个体,如今更多地展现出破碎性、流动性、可视化的数字信息形态,这些构成性的数据逐渐变成一个信息化实体,它“正在拓展我们的边界,也在拓展存放自我身份的容器”。而且,“无处不在的数据、无处不在的道德数字化正在迅速改变我们的生活、我们的社会关系,甚至我们对自己人性的理解”。就是说,数据和信息已成为每个人不可分割的构成性要素,它描绘、表达和建构了人们的自然本性、社会角色和个性特征,呈现着人们的人格尊严和主体价值。
三是“生物-信息”的双重面向。如果说人与自然分离是生物意义上第一次“人成之为人”的话,那么,“以网络化、数字化和智能化的方式变革工业生产方式和农业生产方式,并再一次以新的联合方式颠覆工业文明时代的制度安排、思想观念和思维方式等,重塑符合信息文明的概念范畴和政治、经济、文化、法律等社会体制”,这就导致了信息意义上第二次“人成之为人”。基此,现代性的理性人逐渐转化成可计算的“微粒人”——“这是一个决定性的转变,随着这个转变的发生,我们将会在这个数字和程序算法的世界里发展出一种新的人性形态”,因此,当代社会中的人也就日益赋有了“生物-信息”的双重面向。
综上可见,人权观念已经不能再仅仅建立在传统自然人的基础上,它在很大程度上也要建立在数字化的“信息人”基础上;人权属性已经不再仅仅依赖于人的生物属性和物理空间,它在很大程度上也要依赖于人的信息属性和虚拟空间。至此,智慧社会中的人权便增赋了全新的数字化信息属性,实现了巨大拓展和深刻重塑。
然而,数据信息既可能会增进人权、发展人权,也可能会威胁人权、侵蚀人权。技术公司、互联网企业、商业平台、政府部门等对个人信息的滥用确实已不再是简单的信息本身问题,而是对信息时代中主体身份构建、自由平等和自主性的严重侵蚀。一是它们通过数据画像,可以描绘一个人的外在形象和内在偏好,进而把人们归入算法所创造的数字范畴之中,也即“通过构建区分性范畴而运作,它把这些范畴和区分强加到大众身上。它赋予人们以性格特质,为他们创造了数字身份和名声”;二是它们通过数据信息收集,可以对一个人的日常活动进行适时追踪,进而获取他的行为取向和生活状况;三是它们通过相关的数据挖掘分析,使得一个人的家庭、亲属、朋友圈等社会关系变得可视化。这意味着,大量的数据信息不断地建构、同时也解构着日常生活中的每一个人,因此,“收集、梳理、再生、管控以及诸如此类的涉及人们的信息的活动已经等同于窃取、克隆、产生某个他人的个人身份认同”,从而“未经同意改变他或她作为一个信息化实体的本然而,数据信息既可能会增进人权、发展人权,也可能会威胁人权、侵蚀人权。技术公司、互联网企业、商业平台、政府部门等对个人信息的滥用确实已不再是简单的信息本身问题,而是对信息时代中主体身份构建、自由平等和自主性的严重侵蚀。一是它们通过数据画像,可以描绘一个人的外在形象和内在偏好,进而把人们归入算法所创造的数字范畴之中,也即“通过构建区分性范畴而运作,它把这些范畴和区分强加到大众身上。它赋予人们以性格特质,为他们创造了数字身份和名声”;二是它们通过数据信息收集,可以对一个人的日常活动进行适时追踪,进而获取他的行为取向和生活状况;三是它们通过相关的数据挖掘分析,使得一个人的家庭、亲属、朋友圈等社会关系变得可视化。这意味着,大量的数据信息不断地建构、同时也解构着日常生活中的每一个人,因此,“收集、梳理、再生、管控以及诸如此类的涉及人们的信息的活动已经等同于窃取、克隆、产生某个他人的个人身份认同”,从而“未经同意改变他或她作为一个信息化实体的本性”,改变他或她的个人自主性。由此看来,数据信息权“关系到个人的人格尊严和人身自由”,它无疑是一种重要的、基本的人权。
2.权利发展的数据信息生态推动了人权的数字化演变
当代的政治、文化和社会生活都逐渐形成一种数字化、信息化的总体性生态,以至于人们宣称,“除了上帝,任何人都必须用数据来说话”。为此,无论是传统权利还是新兴权利,都必然会在这种海量复杂的数据信息生态中发生着重大的变革。
首先,权利内涵中融入了数据信息法益。信息技术的发展塑造了“你就是你的信息”的社会环境,为此,数据信息就成为人身、财产和社会关系的外溢呈现与权益表达,信息法益也随之就成为自由、平等和民主参与等权利的新内涵,使其获得了新形式。人们不难看到,虽然网络化、数字化、智能化的交融发展形成了多元化、扁平化、破碎化的社会发展态势,“互联网看似抹平了信息的鸿沟,但掌握网络话语权和流量的个人或机构,又重构了新形态的信息不平等”。它们将大量有关用户兴趣、行为和欲望的知识转移到少数人手中,于是,一方面,随着大数据技术的重要性越发凸显,“一个全新的不平等边界将被撕开个口子,将世界分割成掌握数据的一拨人和不掌握数据的另一拨人”,信息成为社会不平等、不公平的新型载体和作用机制;另一方面,它会形成严重的信息鸿沟、信息孤岛、信息不对称等问题,在政务信息日渐发达、智慧政府不断升级的时代条件下,这就大大地限制了公民的民主参与、自由表达和权利维护,信息也便成为公民的经济、政治和社会权利的重要客体。因此,亟需通过改革来建立适应信息时代要求的“数据新政”,从而为社会公众提供具有可行性的制度保证,要让“公共产品所需要的数据既易于获得,又能有效保障公民权利”。
其次,数据信息要素促发了权利变异。进入数字时代以来,信息要素日益全面、深层地嵌入到现代性时空、社会关系、交往方式、生活样态和价值观念之中,很多的权利形态发生了裂变,权利逻辑被改写甚至被颠覆。就隐私权而言,通过搜集、挖掘、利用、分享个人信息的形式,把物理空间转换为信息空间,对公共领域和私人领域、此共同体与彼共同体、远程临场和本地临场进行了深刻重塑。也即“信息与通信技术反复地重新画出而不是消除信息隐私的界限。”同时,基于对个人信息的搜集、分析和利用,商家对用户的平均可预测程度可以达到93℅左右,这些清晰的数据画像和透明的身份拼图的背后,一方是无处不在、秘而不宣的数据掌控者,另一方则是全景透明、无知无觉的消费者;侵犯隐私也并不是意在“公共暴露”,而是重在悄悄地利用、无声地监视或者暗中实施歧视策略,有时则会表现为有针对性的宣传信息推送。这就不仅侵蚀了一个人自己的信息身份建构,还侵犯了人们不受打扰的权利。此外,网络信息的全球化发展,导致隐私的国际保护问题也日渐突出。这样,隐私权的范围、特性、形态及其保护方式都发生了重大变异,使得“隐私不但是一个个体问题,也可能是一个群组、一群伙伴、一个公司或者整个国家的问题,因为所有这些实体的本性完全由它们所是的信息决定并且构成”。
同样,免于歧视的权利也是如此。近年来,警务预测、福利系统、商业营销、社交软件等领域的算法歧视,已经把种族、性别、身份、宗教、健康状况的等差对待转化成数据信息处理的自动化系统,“在算法的帮衬下,企业可以绕过这些反歧视约束,实现对特定人群的分组。通过自动化的开发与改进分组的过程,算法将特定种族、婚姻状况、年龄、性取向和宗教信仰的人划分到了一起”。由此一来,掌握算法的企业和政府就凭借隐蔽而强大的信息收集和精准计算能力,经由虚拟空间来实现远程临场,深入到每个人的具体生活场景之中,实施抽象的、广泛的自动化歧视,其后果带有普遍性、长期性和深远性,严重侵蚀着现代化以来反歧视的人权进步成果。实际上,无论是信息隐私还是算法歧视,都不是简单的个别现象,而是信息要素促发权利变异过程中的“类现象”,诸如智慧政府决策中的公民参与、网络表达自由、虚拟社会组织、平等公正等其他领域权利变异的情况也较为普遍。
再次,数据信息演化为新兴权利。随着工商业社会向信息/智慧社会的转型升级,数据信息便成为新时代的“石油”。一方面,“大数据技术的繁荣和信息不对称的加重将令财富分配不公现象更为严重”;另一方面,基于数据和信息资源的重要经济价值与社会作用,又生成了前所未有的大量社会利益和新型社会关系,进而不断转换成现实生活中的新兴权利诉求和制度变革。作为其中的一个典型,“新的‘数据权’最令人激动。这是确保人民有权索取各式各样的数据,用于社会创新或者商业创新”。然而,多数学者认为,它并不是一个扁平的权利单元,而是一个宽广丰厚的权利束,包括知情同意权、数据采集权、数据修改权、数据可携权、数据被遗忘权(删除权)、数据管理权、数据支配权、数据使用权、数据收益权等等。不仅如此,网络化、信息化、智能化的融合发展,还衍生了虚拟财产、智能合约等新兴权利,并日渐壮大和成熟。其中的很多数据权利,先后被德国联邦宪法法院“人口普查案”(1983)、英国《数据保护法》(1984)、日本《个人信息保护法》(2003)、俄罗斯《个人数据保护法》(2006)、欧盟《通用数据保护条例》(GDPR,2018)、美国《开放政府数据法案》(2018)和《2018年加州消费者隐私法案》(CCPA)、澳大利亚《用户数据权利法案》(2019)等所制度化,爱沙尼亚、法国、芬兰、哥斯达黎加等国还先后通过法律宣布互联网是一项基本人权。我国《民法总则》也在第111条首次专门规定了个人信息权,并明确了个人信息保护的基本行为规范。国务院《改革开放40年中国人权事业的发展进步》白皮书则进一步强调,要严格依法保障通信自由和信息安全,推进政府信息公开,建立便捷高效的网络表达平台。这表明,新兴数据和信息权利正在理论与制度层面、国内与国际范围、私法与公法领域逐步获得确认和保护。所有这些,就形成了权利的信息化赋能、深度延展和数字化生态,大大丰富了生存权、发展权的时代内涵,从而推动了人权的信息化演变,有效拓展了人权的进步空间。
3.信息时代的社会解组突破了既有人权保护逻辑
随着数字时代的到来,新业态、新模式成为“信息环境、嵌入其中的信息能动者以及它们的互动的本体论中一种根本的、史无前例的转换”,国家/社会、公权力/私权利的二元结构和社会关系也由此发生了重大解组,从而使得人权保护逻辑受到了来自底层的突破。  
首先,双重权力生态日渐形成,人权保护面临全新挑战。当今的智慧发展日益深刻地颠覆着近代工业革命以来的工商业生产生活模式,从而进入了全新的数字经济、平台经济、分享经济时代。以技术公司、商业平台为代表的社会权力在瞬间崛起,淘宝、京东、当当、微信、滴滴、抖音等等都以“赢者通吃”之势,迅速成为一个个“商业帝国”。  
第一,二元结构被三元结构所取代。在当今数字时代,“信息是权力的中心”,新业态新模式下的社会权力成为一种体系化的力量。进言之,与以往工商业时代的垄断企业不同,它们不再局限于身为某个领域、某个行业的巨头,而是具有超强渗透、覆盖能力的全方位“霸主”;它们不再局限于经济目标上的经营管理,而是通过制定平台规则、处理平台纠纷、行使平台监管权等赋有了“准立法权”“准行政权”“准司法权”。这样,虽然它们本质上仍是一种社会商业力量,但却拥有庞大的权力资源和能量,突破了权利空间而迈向了权力领域;它们立足于社会又高于社会,不同于国家却与国家相勾连,成为社会治理中的一个重要主角。这就使得传统的政府/市场二元结构发生重大变革和解组,走向了政府—平台—商户(消费者)、公权力—社会权力—私权利的三元结构。  
第二,双重权力生态下的人权境遇。由于信息技术一面强化了公权力,另一方面又催生了私权力(社会权力),甚至国家通过立法“给平台加责任”的方式来授权平台进行资格审查和监管,从而形成一种公、私并存的双重权力生态。于是,它所带来的不只是财富分化,而是这种双重权力生态下有形或无形的掌控和规制。也即它们掌握着海量的个人信息和先进的数据分析技术,“基于这些资料,政府可以实现对特定个人的监控,而商业组织可以投放量身定做的广告,可以引导消费,甚至可以配合执法”。这就容易形成公权力与社会权力之间的某种“共谋”,甚至公共决策的认知和监管被社会权力所俘获,“这种俘获可能会搅乱人们对于市场动态所做出的批判性思考。而最终,这种想法还将反映在政府施政上面”。这就存在着社会权力转换为政治权力的风险,人权保护也便面临着双重威胁和更复杂的境遇。  
第三,权力制约、权利保障机制面临困境。近代以来的制度设计,是通过横向的分权(三权分立)和纵向的限权(减少干预)来确立权力制约和权利保障机制的。但如今三元结构和双重权力生态的生成,不仅让社会的私权利承受更大压力,并且它们也已不再运用传统手段,而更多地凭借先进技术向各领域进行深度的数字化浸润和算法管控。就是说,在技术“霸权”和算法决策面前,私权利处于更加弱势的地位,乃至陷入“数字鸿沟”、算法霸权和监控社会之中,其“自由主义剃刀”的作用日渐失效,近代以来的权力制约、权利保障机制面临着困境和危机,人权保护自然也就会遭遇严重的压力和挑战。
其次,自主与控制、扩展与限缩的交换平衡,突破了政府/市场、干预/自由的边界。当下的信息化革命,似乎造就了狄更斯笔下那种最好的、同时也是最坏的时代。
一是算法社会的自主与控制。事实表明,“自计算机产生起,技术改变的核心问题是权力的转移,”它使人类由工业社会转向了算法社会。本来,算法社会的主旨在于提高智能化和人的自主性,然而,“这些自动化系统已经由简单的行政管理工具变成了主要的‘决策者’”,“它收集了大量的个人数据,由此使得政府和私人公司采用新的监控、控制、歧视和操纵形式成为可能。可以将其称为‘大数据’问题”,“算法侵害”现象也就会不时地发生。这样,算法主导只是增加了高效、便捷和精准,并没有为人的自主性提供更多空间,相反,人们却常常在“算法黑箱”面前被动地接受自动化决策的结果,继而出现了某种无形的控制倾向。为此,有学者这样担忧到:“在未来一个由人工智能担任国内和国际经济指挥的时代,意味着我们所知的经济自由和资本主义的终结”。这样,就可能需要某种新兴数字社会主义,来“提升个人的自主性,反对中央集权。它是去中心化的极致表现”。同时,这也是抑制无形控制、强化新时代人权保护的重要保证。
二是扩展与限缩的交换平衡。信息技术发展使人类的社会财富呈现几何级增长,生活方式也实现了智慧化的换代升级;但同时,它“向我们许诺的好处太过诱人,而人们失去的自由太多”。具言之,各种平台和技术应用在提供丰富、便捷、精准服务的同时,消费者不得不贡献自己的身份数据、关系数据、行为数据和言语数据;人们在使用各种软件、APP或进入平台时往往只能被迫勾选给定的概括性同意,而鲜有菜单选择的机会;人们享受各种网络化、数字化、智能化的商品或服务时,不得不面对各种“定制”的推送和算法决策的结果,等等。这样,自由、平等、权利的空间既获得了很大的扩展,也受到了很大的限缩。于是,人们喜忧参半,意识到“数字技术能够产生大量利益、极大地推动社会进步,同时它也为我们的基本人权带来了风险。监控和收集大量个人信息和元数据,以及使用新的分析技术处理这些数据,对我们的隐私权和免于歧视的权利有重大影响”。面对这一状况,有人认为,它“并不是一条通往人类被某些人、系统,甚至机器统治的危险道路,而是一种授权和允许的控制形式。等式的构成大致是这样的:更大的空间=更多的自由=更多的控制=更多的选择”;但也有人认为,“数字精英(digerati)所承诺的大多数东西并没有带来自由、平等和博爱”。更多的人则秉持一种与时俱进的交换平衡理念和精神,认为贡献数据、限缩权利,以便“使得牺牲它们来为人们的身份认同和私人生活提供额外的保护是值得的”。在这种情况下,人权的理念和价值就需要重塑,人权保护的方式也亟待革新。
三是传统的政府/市场、干预/自由的边界被彻底打破。算法社会固然离不开市场,但这个市场无疑不再是作为国家对立面的市场,其运行也不再遵循基于传统工商业生产要素和生产方式的市场法则。人们看到,如今数据成为新的生产资料,算法成为新的生产力,互联网成为新的生产关系,此时,必须实现由传统社会向信息社会的价值转型,由单一物理空间向物理/电子(现实/虚拟)双重空间的思维转型。一方面,应对传统自由权利的克减趋势保持开放和包容;另一方面,又应高度关注基于数据信息和算法而产生的新的不平等、以及自由和人权所受到的侵犯,“围绕公民权利,我们已经在线下的世界取得了进展,因此我们不希望让大数据应用产生的自动化歧视和不公平来破坏这种进步”。但是,传统那种政府/市场、干预/自由的边界和逻辑,已经被双重空间的虚实同构以及数字信息的分布共享属性及力量所解构和重塑,其原有的价值准则和治理策略都也就难以再简单套用下去了。这就需要从信息社会自身的规律出发,发现、提炼和重构自由、平等、正义和人权保护的全新逻辑与边界,甚至“质疑和重铸关于自我、政治和法律的思想”,从而实现对人权的有效保护。
最后,日渐数字化、信息化的人权,需要全新的保护方式。一方面,传统的人权保护方式日渐尴尬。人们越来越多地认识到,数据和信息是关系到人格尊严和人身自由的一项基本人权,人们的一举一动、一言一行都能在某个数据库中找到线索,因而,“在20世纪的所有发明中,它是对个人生活侵犯得最厉害的”。但是,对这些数据隐私、数据监控、算法歧视、信息鸿沟等方面的人权保护,却还没有找到有效的方法和路径,效果也不理想。伴随着网络化、数字化和智能化的指数级发展,信息化的人权形态会越来越多,而数字化、信息化的侵权方式也会有增无减,因此,“我们需要制定和论证新政策(法律、法规和关税)以规范各种新情况。有时,我们可以预见技术的使用将产生明显的不可取的后果,尽可能多的是,我们需要预见这些后果并制定政策,最大限度地减少新技术的有害影响”。另一方面,主权与人权的边界日渐模糊。商业营销、社交媒体、搜索引擎等等均超越物理空间和国家边界,侵犯隐私、新型歧视、以及跨国监控等问题日渐突出,人权的国际化保护就变得更为复杂和艰难。虽然欧盟GDPR设定了数据保护的“长臂管辖”,但它已经引起争议,如若用在人权与主权问题上则更难行得通。这样,确立新的人权保护逻辑,探索新的人权保护方式也就势在必行了。
  (二)智慧社会背景下的“第四代人权”
当今信息革命带来的并不是现有生产方式、生活样态的简单拓展和延伸,而是新兴智慧社会对传统工商业社会的总体性替代,由此便产生了“第四代人权”——“数字人权”。
概言之,它以双重空间的生产生活关系为社会基础、以人的数字信息面向和相关权益为表达形式,以智慧社会中人的全面发展为核心诉求,突破了前三代人权所受到的物理时空和生物属性的限制,实现自由平等权利、经济社会文化权利、生存发展权利的转型升级。这既包括前三代人权在智慧发展条件下的数字化呈现及其相应保护,也包括日渐涌现的各种新兴(新型)数据信息权利及其相应保护,其本质是在数字时代和智慧发展中作为人而应该享有的权利。
首先,在发展动因上,源于信息革命。众所周知,法国法学家卡雷尔·瓦萨克的“三代人权”理论被多数人所接受。从他的代际分类来看,每一代人权产生的背后都是一场革命。“第一代人权”是18世纪欧洲人权运动所主张的公民政治权利,其背后是反封建、反专制的资产阶级革命;“第二代人权”是19世纪末20世纪初社会主义运动提出的经济、社会和文化权利,其背后是反对资本剥削、消灭贫富分化的社会主义革命;“第三代人权”是“二战”后反殖民化进程中出现的民族自决权和生存发展权,其背后是争取国家独立的民族革命。如今的智慧社会,其背后是一场信息革命,它带来的同样是人类一次解放和制度转型,只是它并非通过武装斗争的形式,而是以技术革命的方式来颠覆传统工商业时代的生产生活关系,塑造了空前的人类信息化生存状态和智慧化生活,因此,必然会引发迈向网络化、数字化、智能化发展的重大制度变革,造就新一代的人权形态。
其次,在内涵逻辑上,发生了根本转向。前三代人权变革发展的内涵逻辑是:从个体人权到集体人权;从政治权利到经济社会文化权利,再到生存发展权利;从通过国家“无为而治”来加以保障的“消极权利”,到需要国家积极采取干预措施来予以实现的“积极权利”,再到人类生存条件的集体“连带关系权利”,等等。从中可以看出,其场景是“上帝”(大自然)所给定的物理空间,其基础是工商业时代的生产生活,因此,无论是政治参与、经济保障还是生存发展,基本都是在物理空间的逻辑框架内来展开、沿着人的生物属性来表达诉求的。而在当今智慧发展时代,人类凭借信息技术第一次走出了“上帝”划定的场域,开始了物理/电子(现实/虚拟)的双重空间生活,人类的物质生产、商业贸易和日常交往都需要在通过线上线下来交错进行;人们的角色身份、社会关系、交往行为、甚至言语交流,不再仅仅是千百年来惯常的生物性展开,而是越来越多以信息化、数字化方式来构造和呈现。这样,作为万灵之主的人,就史无前例地具有了现实和虚拟、生物和信息的双重属性,人权和各种权利也必然嵌入了太多的数据信息要素,它会改变、乃至决定这些权利的性质和方向。传统单一物理空间中人的价值尊严、自由平等、政治参与、经济保障、公平机会、劳动就业、生存条件等等,必然会面临网络化、数字化、智能化的巨大冲击和深刻重塑。
人们不难看到,“我们或许会生活在一个没有隐私的环境里,或许会被一些超级权力在无形中控制,甚至很多人因为没有掌握未来生存的技能而找不到工作,财富可能会更加集中在少数人手里”。因此,当下人权的客观发展与变革诉求,并非是要求权利种类和数量的增长,也不是对传统工商业时代的人权拓展,而是数字时代人权的根本性转向。这就是“第四代人权”——“数字人权”,它以数据和信息为载体,展现着智慧社会中人的数字化生存样态和发展需求的基本权利,具体包括数据信息自主权、数据信息知情权、数据信息表达权、数据信息公平利用权、数据信息隐私权、数据信息财产权等等。其目标不再局限于以往的反压迫、反特权、反权力控制,而是旨在反技术霸权、反数据信息控制,努力消解和应对信息鸿沟、侵犯隐私、算法歧视、监控扩张、知情权障碍等诸多人权难题与挑战。
再次,在价值内核上,实现了品质升级。作为人而应享有的权利,且每个人都应该受到合乎人权的对待——这不仅是人权的普适性和道义性所在,也是人权的价值内核。而每个阶段的人权变革与发展,都会形成对既有人权价值内核的超越和升级。第二代人权就超越了第一代人权那种形式上自由、平等观的局限,走向了更具实质意义的经济、社会、文化权利观。第三代人权又超越了第二代人权那种个体权利观,走向了关注生存与发展的集体权利观。如今的“第四代人权”也同样如此。
第一,它大幅拓展了人的自主性。在人权理论看来,人格价值及社会、平等诸因素是人权的重要根据,而自主性、福利和自由则是“构成了最高层次的人权的一个三元组合”。每一代新的人权诞生,都大幅拓展、推进了这些最高层次人权的实现。在当今数字时代,人们的家庭身份、社会关系、生活行为等,都会自觉不自觉地在虚实同构中以数据和信息的方式呈现出来,进而演进为新时代的“数字人类”,迈进了跨越时空、万物互联、智能高效、自由便捷的智慧社会。这样,数据和信息就成为每个人参与和创造智慧生活的基本质料,是每个人在世界上进行独立完整、多元自主地进行人性构建与表达的要素、资源和媒介,因此,“任何人拥有了我们的信息也就拥有了我们自己的一部分,因而败坏了环境也就损害了我们对于世界的独特性与自主性”。而将“数字人权”视为“第四代人权”,其实质是智慧发展的“需求创立了人权”,旨在消除数据鸿沟、算法歧视、算法霸权、监控社会等人权威胁,大大提升数字时代的人的自主性,强化对“数字人类”的人权保护,进而“用人性的洞察设计更人性的社会”。
其次,它实现了新时代的人权价值加持。在这场信息革命中,“人们在将自然逻辑输入机器的同时, 也把技术逻辑带到了生命之中”。国家、社会和百姓的衣食住行都在日益数字化、智能化,它突破了物理空间的利益逻辑和权利逻辑(包括侵权和维权方式),形成了虚实交融、场景互动的数据信息逻辑,它直接“关系到个人的人格尊严和人身自由”。因此,将“数字人权”提升为“第四代人权”,就与时俱进地赋予了数据信息对人的价值和尊严这一人权核心价值的构造意义和维护效能,从而对人权进行数字时代的价值加持,否则,人权将会受到严重侵蚀,甚至失去社会根基。
第二,它能实现了人权的品质升级。我们说,每一次人权的重大发展,都带有明显的解放性质,其终极目标是趋向于马克思所展望的“人的全面发展”。但自由平等权—经济社会文化权—生存发展权的三代发展变革,都是在物理空间和生物维度上的发展演进,这也限定了其作为道德权利、普遍权利、反抗权利的属性和场域。如今数字时代的到来,人在生物属性之外获得了数据信息属性,在物理(现实)空间之外拓展出了电子(虚拟)空间,使得前三代人权的理论逻辑和内涵价值已经无法涵盖这些信息革命的后果,因此,走向“第四代人权”就成为一种必然。而且,与前三代人权相比,它面对的是更加复杂多变、挑战与机遇并存的技术革命,需要抑制网络化、数字化和智能化发展的负面风险,最大限度地将其进步成果转换为人的自由发展能力,打破“上帝”给人类划定的物理时空和人自身的生物界限,从而更接近人的尊严和价值,也开辟了以前无法想象的人性空间,并通过“人权建构了人”。可见,“第四代人权”并不是对前三代人权的拓展,而是信息革命和智慧社会带来的人权品质升级。
最后,在关系构架上,呈现关联义务的社会延展。自近代人权理论诞生以来,它一直是在以公民与国家为主线的关系构架中展开的,但如今出现了前述从二元结构向三元结构的转型和双重权力生态,以往那种公民与国家为主线的关系构架就暴露出更多的局限,技术公司、商业平台等主体的关联义务延展就势在必行。
一是社会权力成为新的人权威胁力量。数字经济新业态的一个突出特点,就是去中心化与再中心化并存,呈现分散的大众、集中的平台、监控的社会之势,特别是信息鸿沟、算法歧视、算法黑箱等问题不断出现。基此,在个人隐私、自由平等、社会公平、劳动就业等方面给人权带来威胁的,已不仅仅是国家(政府),很多时候则是行使“准立法权”“准行政权”“准司法权”的技术公司和商业平台,仅靠国家(政府)义务不足以保护人权,需要这些社会权力者承担起必要的自律责任和避免侵犯人权的义务。
二是侵犯人权的方式更加技术化。随着人类生产生活和日常交往的日益数字化、信息化,人权遭遇侵犯的方式和途径也更加技术化、自动化。虽然数据收集挖掘、建模算法、软件嵌入等更多地呈现着技术的“中立性”“客观性”和“进步性”,但在这种“客观性”的外衣之下,往往隐蔽着自由平等、人格尊严、个人隐私、自主选择、教育就业等人权遭遇侵犯的事实。此时,无论是政府还是公众,对这些先进技术都是“门外汉”,这就加大了国家对人权保护的成本和难度,传统的国家(政府)人权保护义务难以对其有效应对,亟需对技术优势地位者课以不得侵犯人权的最低限度义务。
三是信息全球化的无缝链接已超出主权疆域。苹果、亚马逊、谷歌、阿里巴巴、百度、京东等等超级互联网公司和商业平台,都具有跨国的全球业务,而且网络化、数字化、智能化本身创造并活跃于无边无垠的虚拟世界,远远超出了一国主权的涵摄范围和力量所及。这样,它们的所带来的人权问题,就会给地理上的主权国家造成一定的规制困境。因此,就需要针对这些社会权力主体设定一些必要的国际性的人权保护义务。总之,在关联义务的社会延展过程中,国家(政府)不仅自身要积极作为来履行保护义务,还需要监督和规制社会权力主体,尽最大努力抑制侵犯人权的现象的发生,使智慧社会沿着更加符合人性的方向行进,从而建立良法善治的法治秩序。
三、“第四代人权”的法治化保障
历史表明,在每一代人权生成和新旧交替的过程中,都会面临复杂曲折的利益冲突和制度重构。当今“第四代人权”同样会遭遇诸多的难题和挑战,亟需加强从理念、机制到规制策略的探索和构架,进而为“第四代人权”提供法治化保障。
  (一)确立“数字人权”理念
数字经济有两个质的飞跃:一是传统生产要素(如土地、劳动力、资本、技术等)及其相应的基础设施越来越多通过数字化来展现和发挥作用;二是出现了全新的生产要素,那就是时刻都在生成的生产生活数据,它已成为驱动经济增长的核心生产要素和新型基础设施,并加速推进了信息数字化——业务数字化——数字转型的发展进程,从而引发“从机械思维到数据思维的转变”。为此,适应数字时代的客观发展要求,推动从物理世界人权观到数字世界人权观的转型升级,就显得重要而紧迫。
首先,立足数字化加持。我们知道,第一代人权观承载着启蒙价值,第二代人权观反映了社会主义制度诉求,第三代人权观展现着民族解放和自决精神,它们在一定意义上反映了从个人主义人权观——个人/集体并重主义人权观——人本主义人权观的演进逻辑。其人权内容主要是物理世界中的公共参与、生活水准和公平发展,涉及的是物理意义上的人、财、物及行为,几乎没有数据和信息的概念。而如今数字时代的到来,从个人隐私到公共生活,从衣食住行到公共安全,一切都在信息化、数字化的加速进程之中,纯粹的线下活动越来越少,“‘虚拟世界’和‘现实世界’之间的分野正在失去以往的意义”,“每个人的数字生活将更加细节化”。这样,包括生命财产、政治参与、劳动就业、社会保障、文化教育等在内的各项人权,要么都受到了信息化、数字化的解构和重构(如隐私与人格、智慧政务与公共参与、虚拟财产保护、网络言论自由等),要么遇到了全新的挑战(如数字鸿沟、算法歧视、算法霸权、监控社会等)。此时,数据和信息不仅成为人们数字化生活所不可或缺的珍贵资源,也成为新时代人权日益重要的新型载体和价值表达。无论是人权属性、人权要素、人权内容、还是人权形态,都正在从前三代人权的物理加持方式,转向当下人权的数字加持方式,进而构成了“第四代人权”的发展动力和基础。此时,只有从智慧社会的客观需要来增进人权的数字加持,才能更有效地保护“数字人权”。
其次,认同数字化人格。在人权理论上,“并非任何促进人类的善或人类繁盛的东西都可以算作人权的对象,唯有人的资格所需要的那些东西才可以成为人权的对象”。在当今数字时代,每天都在产生的海量信息,既是生产生活的运行轨迹和交往图式,也是人们身份数据、行为数据、关系数据和言语数据的具象展示和情景再现,从而塑造着人们的数字属性、数字面向和数字生态,构成了人的资格所需要的一种核心资源。首先,消费者若不具备基本的数字素养,将无法正确地运用信息和数字化产品和服务,成为数字时代的“文盲”(与听、说、读、写的基本能力等同),故而,数字素养不仅是数字经济发展的关键要素和重要基础之一,也是人格所需的必备要素,并被联合国认为是数字时代的基本人权。其次,无论是公共领域还是私人领域,都已突破了传统的物理空间意义和范围,不断地向虚拟空间进行拓展和延伸,而且,人们的行为和社会关系也在虚实同构中发生了深刻的变革,“对于一个网站或数据库,或者,在普通情形下对数字监视器非法的或未授权的侵入,被认为是侵入他人的私人领域或空间”,因此,数据和信息承载着重要的主体价值和人格权益。再次,日常生活领域中的自动化算法决策会越来越多地取代人脑决策,算法黑箱、算法霸权、算法歧视等问题也会随之凸显并普遍化,为此,“工业时代为契约自由和财产权而斗争,算法时代则为了数据的收集、传送、使用和分析而斗争”。此时的核心问题不再是契约自由和财产权,而是数字化人格,包括“保护个人的电子信息的知情权、个人的电子信息不受非法泄露、篡改、毁损等权利,都是个人人格权的重要内容”。由上可见,认同数字化人格是保护“数字人权”的必然选择。
其三,重塑人权价值观。近代人权观念的生成及其制度实践,一直是以启蒙精神为价值来源和支撑的,其核心是基于人之尊严的普世道义。因此,前三代人权在政治经济、社会文化、生存发展等领域得到了积极的“目标性”保护,但面对数字时代的人权挑战,这种传统保护模式就难以为继了。因为启蒙时期的价值理想是现代性的产物,反映着工商业社会的生产生活规律;而如今人类迈进了智慧社会,人格尊严、自由平等、公平正义、劳动就业、生存发展等项人权难以再恪守启蒙价值。例如,英国新实施的《数据保护法案》规定,任何公民都有权禁止企业对其任何个人信息进行利用。“不过,如果有公民打算行使此项权力的话,那么在贷款、办信用卡甚或找工作时,他都可能会摊上一大堆麻烦。”同样,欧盟GDPR旨在捍卫启蒙价值,但无疑会对信息技术发展和数字经济带来巨大阻力。因此,我们要充分认识到,颠覆性的技术革命既可能控制我们的生活,也可能服务我们的生活,而关键是问题是,在这个数字化世界中,“针对哪些信息流是可以被允许的或被阻止的,哪些是需要鼓励或打压的,都需要在制度、激励、法律、技术或者规范方面进行清晰的设计和规划”,从而按照数字社会的生产生活规律来重塑人权价值观,确认和保护“数字人权”。
(二)构建“第四代人权”的保护机制
“第四代人权”应走出前三代人权的“目标性”设定与价值期待,立足智慧社会发展的客观现实和人性诉求来加以保护。
首先,推进数据信息自主权的制度化。基于1983年德国人口普查案的“信息自决权”理念,对数据和信息权利、“数字人权”保护无疑具有重大意义。不过,它针对的乃是国家强制信息收集行为,属于国家在何种程度上有权限制私人行为自由的问题,“其意涵也因此被塑造为个人数据免受国家无限度收集、储存、使用和传递;而其功能也在于防堵国家在信息化时代下,藉由数据调取和数据整合技术,产出部分或是几乎完整的‘个人轮廓’,并由此对公民的私人空间和自决能力予以削减”。然而,它并不是一般性的、排他性的绝对权利,而是需要受比例原则限制并与其他权利相平衡。事实上,“信息自决权这一法律概念拖延了数字化技术的应用进程,影响并限制了使用舒适性。但同时,我们又不愿意放弃对信息自决权的执着”。因此,我们应把“信息自决权”修正为数据信息自主权并推进其制度化,这样才能更好地维护信息权益和“数字人权”。
其次,探索场景化的权益平衡机制。信息技术和智慧发展“为我们创造了一个‘共同的世界’(Common World),一个我们无论如何都只能共同分享的世界”。它所带来的既是数字经济,也是分享经济;它既促进了人权的增长和进步,也带来人权的风险和威胁。因此,这就需要探索平衡共享性的保护机制。具言之,由于数据和信息既是基于每个个人或单位的活动所产生的,又是数字经济时代用以维持正常运转所共生共存的资源,因而,它们既具有私人属性,也具有公共属性。这样,“数字人权”不仅要遵从数据信息的双重属性和信息自主权的边界,也要纳入“共建共治共享”的法治秩序格局之中。也即人们“要享受这些便利就需要牺牲一部分个人权利,包括隐私权,另一方面也要直面大数据控制本身带来的新的社会不平等、数据管控者与个人之间的信息不对称和权力不平等、个人权利在大数据时代备受挤压等伦理和法律问题,并尝试在两者之间找到折衷和平衡之道”。由此看见,“数字人权”的保护,已不再是前三代人权的“目标性”追求,而是更务实的、置于具体场景之中的权益平衡。因此,这就需要在数据和信息的公共性和私人性之间,政府部门、商业平台、技术公司和消费者之间,以及公法保护和私法保护之间,形成一种多元平衡、互动共享的数字人权保护机制,既要消解算法歧视、社会监控和数据鸿沟等人权威胁,倡导和保障智慧社会的“数字人权”;也要确保数据信息的共享流通和数字经济的正常运转,从而为“第四代人权”提供可靠的法治化保障。
最后,探索过程—结果的规制策略。由于现代性法律体系立基于罗马法的规则逻辑,面对的是物理空间的人身关系、财产关系和国家/社会关系,因此,它注重行为的性质和后果,常常采取预防制或者追惩制的方式,来实现权利保护和塑造秩序。随着智慧社会中现实世界与虚拟世界、物理世界与数字世界的边界消失,使得“制度性反应缺失,行为成本和后果更加难以计算”。同时,也在很大程度上给制度带来了超负荷,“许多以前我们曾经依赖的东西,正在数字化时代支离破碎”。此时,单一结果规制方式下的权利保护和规范秩序必然会面临重大挑战。这就需要从单一的物理空间逻辑转向物理/电子的双重空间逻辑,从行为结果规制转向过程规制,注重代码规制的“法律”作用。也即“法律规则是传统立法框架下的规定的行为规则,它是一种‘外在的’规则,这些规则会在足够高的风险收益诱使下被打破,但是打破规则并不被发现的情况下也要为后果负责,这是一种事后惩罚机制;技术规则是一种‘内在的’规则,如果不遵守技术规则,程序将返回一个错误值并停止运行,并且代码总是严格地按照规则运行,这是一种事中执行机制。这两项规则同等重要,相互补充,缺一不可。”目前的智慧政务、智慧检务、智慧司法、智慧城市等建设,都体现了把技术规则上升为法律的“技术法律化”、以及把法律转化成代码并由算法自动执行的“法律技术化”进程。可以说,“大到整个互联网,小到一个网络空间,代码都嵌入了价值理念。它实现或阻止某种控制”。在这一时代背景下,“数字人权”保障机制就不能再局限于传统的结果规制方式,而应该适时在制度规则中嵌入代码规制,既防止了预防制那种“提前阻却”所带来的自由限制,也防止了追惩制那种“事后修复”所带来的伤害难题,从而实现场景化、过程化、智慧化的即时互动规制。可见,只有建立结果与过程兼顾平衡的规制机制,“数字人权”保护才能取得更好的实效,也才能更好地实现智慧社会的“共建共治共享”治理秩序。
(三)塑造尊重人权价值的“道德基础设施”
随着信息革命的到来,“发源于18世纪的自由民主制拥有出色的道德支柱,而20世纪兴起的技术垄断文明,其思维体系缺乏卓越的叙述手法,因此既无法提供道德支柱,也缺乏强有力的社会机制,以管制技术产生的‘信息洪水’”。其根本原因在于从工商业文明到信息文明的重大转型,这必然会涉及到以法治文化为内核的、尊重人权价值的“道德基础设施”的重建,从而推动“数字人权”的法治保障。
一方面,应确立算法的伦理原则。面对算法歧视、算法黑箱、社会监控和隐私侵犯等复杂问题和时代挑战,单凭法律的外在规制是不够的,更加基础和经常的则是算法决策内部的自我约束。只有“当算法在质量监控之下,以公平方式影响各方当事人,正义方能实现”。因此,需要在算法决策中嵌入必要的人权价值和法治伦理,设定算法的自律准则。即在国家立法、行业自律、社会评价中确立算法遵从“善法”的伦理原则,从而尊重人权价值、维护“数字人权”和促进社会公平正义。
另一方面,应培养算法“智能体”的道德习得能力。人工智能体的自主学习能力会越来越强、也会越来越智慧,此时,更需要注重“信任、隐私、透明、言论自由、开放、知识产权、忠诚、尊重、可靠、名誉、法治等。这些概念若是基础设施的话可能会更容易理解,因为基础设施能推动或阻碍(反思)智能体的道德和非道德行为”,也即“智能体的道德行为也是‘道德基础设施’”。但它不应是基于规则和责任伦理的简单道德算法,不宜采取自上而下的教导性、灌输性的进路,而应采取应用学习、自发性、进化性的自下而上式进路。它“不同于直接定义了什么是道德、什么是不道德的自上而下的理论,在自下而上的进路中任何伦理原则都必须是被发现出来或被建构出来的”。并且,使其在“‘人—机’交互主体间”的反复博弈中,才能不断地矫正偏颇或错误,进一步升级和完善。这样,就能够使算法“智能体”形成道德推理与自主德性学习的自律约束机制,从而通过习得法治伦理来自主地抑制算法风险,维护数字时代的人的地位和尊严,更好地保障“数字人权”和促进法治秩序。

原作者:马长山
来源:法学学术前沿

编辑:宋婷

267#
 楼主| 发表于 2019-10-21 18:28:58 | 只看该作者
【案例】人脸识别十字路口:脸的恐慌file:///C:\Users\dell\AppData\Local\Temp\ksohtml\wpsC4C4.tmp.png





人脸识别公司正在不断地尝试打破更多边界

急于向投资人证明自己的估值


9月1日,复旦大学迎来3000多名2019级本科新生报到。学校推出人脸识别“刷脸”报到、云端智能驱动AI机器人现场快速答疑等。图/新华



“低调的学校上热搜,准没好事。”中国药科大学大四学生周琪看到学校的新闻时想。

8月底,有“药界清华”之称的中国药科大学全面引入人脸识别技术,不仅用于门禁,还在试点教室安装摄像头刷脸考勤,并对学生课堂听课情况全面监控。有报道称:“在部分教室试水后,逃课和‘替同学答到’或将成为历史。”

一切早有端倪。6月,周琪收到学校通知,称为了做好人脸识别系统,学生要提交高要求的照片做信息采集。两个月后,周琪就体验到了人脸识别的应用,出入校门、图书馆等“刷脸”通过,不用费劲找学生卡很方便,但是她没想到随之而来的是一场风暴。

最初的宣传焦点,是学校应用了先进的AI技术,但风向很快转变,更多人开始对教室里无时无刻的监控感到恐惧。

在赛迪顾问人工智能部门负责人王晓宁看来,这次的争议,是人脸识别技术深入应用后必然会面临的一个节点。从业内来看,2019年,将是人脸识别被市场检验的关键一年,很多公司正急于证明自己的变现能力,抢占更多赛道。但整个行业却突然被集体卷入风暴眼:人脸识别使用的边界,到底是什么?

校园信息化的利弊

山世光看到中国药科大学的新闻时,并不意外。他是中科院计算所研究员、中科院智能信息处理重点实验室常务副主任,研究人脸识别技术已经有二十多年。

对于做技术的人而言,在校园应用人脸识别技术监控学生状态不算新鲜事。“在业内,一些科技公司早已有了这样的设想,或者拥有了接近成熟的技术。”山世光说。

人脸识别进课堂的探索最早引发关注,始于2018年。在2018年第75届中国教育装备展示会上,人工智能公司旷视科技曾展出其智慧教育解决方案,利用人脸识别、表情识别等技术,记录学生行为、表情、专注度、前排上座率等多维度课堂数据,辅助教学评估。除了旷视,百度、腾讯云等其他科技公司也都推出了“课堂专注度”分析的解决方案,技术和应用场景都相差无几。

一些学校和培训机构正积极拥抱这项新技术。百度AI开放平台显示,杭州金沙湖实验学校、在线机构海风教育,以及小童科技创业公司均是教育方案的客户。

去年3月底,浙江省杭州十一中在高一两个班级试运行“智慧课堂行为管理系统”。与中国药科大学几乎同步,今年8月底,上海中医药大学附属闵行蔷薇小学与上海交通大学E-LEARNING实验室合作,开发了智慧课堂行为分析系统。

这些系统的做法普遍类似:每隔一段时间,用摄像头扫描一次学生的脸,采集并分析他们的坐姿、表情,评价他们有没有专注听讲。山世光把人脸识别监控学生状态的能力,称作“对人的深刻理解”。相较于常见的用于门禁“刷脸”的身份识别能力,这是更高的要求。

深刻理解人类,本是人们对人工智能的美好期待之一,但是用在教室这个场景下,却引起极大的不适感。

山世光从业内了解到,一些学校和老师的确对这项技术有需求。中国药科大学图书与信息中心主任许建真在接受媒体采访时就提到,安装人脸识别系统是教务部门的要求,意在减少学生逃课、早退、找人代课以及上课不认真听讲等行为,严肃课堂纪律,同时评估老师的教学质量。

“不是说做技术的人非把这个方案推销给学校,一些老师在教学上面临难题,他们不能关注到班里的每一个孩子,无法准确把握全班同学的学习状态,如果有人脸理解技术做辅助,老师们可以更好地调整教学办法。”同样身为老师,山世光也有相似的感触。

但他也提到,不同职位的教育工作者对此有不同的态度。学校领导倾向于认为该技术有助于提升教学质量,而一些教师持反对意见,认为自己也被监控了。

“大家的争议主要在于公共场合下,个人信息被利用前的知情权,信息被采集的范围和使用边界等问题。” 赛迪顾问人工智能部门负责人王晓宁对《中国新闻周刊》说。

中国药科大学在使用这项技术前,曾向当地公安部门和法务部门咨询,得到的答复是,教室属于公共场所,不存在侵犯隐私的问题。

但中国政法大学传播法研究中心副主任朱巍认为,人脸识别要获取学生的肖像权,肯定涉及侵犯学生隐私权,“尽管很多时候在使用肖像权上,学校会和学生有协议,但是学生通常是弱势群体,这样的协议是无效的,所以人脸识别监控的行为值得去探讨。”

教育学者关注的另一个问题是:即便不讨论隐私,用人脸识别监控学生的状态,更涉及教育的根本价值观。

在人脸识别进入课堂前,很多教室早已安装了监控摄像头。中国教育科学研究院研究员储朝晖告诉《中国新闻周刊》,是否在教室里引入监控,是教育领域研究几十年的老问题,业内的结论是:不能。他认为,反对基于两个原因:“一、安装监控系统后,教师和学生会以伪装的面目出现在教学环境中,长此以往,教师和学生也会以伪装的人格出现在社会上,这个习惯很难消除,可能会引发严重的社会问题;二、这涉及对教师和学生基本权利尊重的问题。”

“人脸识别技术本身并无好坏,关键是看技术如何被使用。”山世光说,如何被使用,是一道选择题,隐私、(公共)安全和便捷是三个选项,最好的答案是在三个维度上取得平衡,“中国药科大学引入人脸识别技术并不新鲜,它之所以成为社会热点事件,是因为在以上三个方面没有很好地平衡。”

在一片质疑声中,教育+AI却正成为未来教育的趋势。前瞻产业研究院报告显示,2023年,“智慧教育”市场规模有望突破万亿。作为AI领域目前最成熟的技术,人脸识别正深入教育行业,在刷脸签到、学员身份查询、校园安防、课堂检测等诸多场景应用。

一个绕不开的疑问是:人脸识别在校园里使用的边界到底是什么?

在储朝晖看来,人脸识别技术在校园唯一适合的场景就是安防,用于识别非学校人员,保护学生安全,其余场景都用不上。“技术对于教学只能是锦上添花,不能替代教与学的位置。”储朝晖对《中国新闻周刊》说。

教育部已经就中国药科大学的新闻作出了回应。科学技术司司长雷朝滋在接受澎湃新闻采访时表示,“(对于人脸识别技术应用)我们要加以限制和管理。现在我们希望学校非常慎重地使用这些技术软件。”他认为,人脸识别进校园,既有数据安全也有个人隐私问题。对于学生个人信息要非常谨慎,能不采集就不采。能少采集就少采集,尤其是涉及个人生物信息。

教育部在近日也告诉《中国新闻周刊》,目前教育部正在针对人脸识别技术制定相关管理文件。


2018年1月10日,比亚迪和华为公司联合发布“云轨”无人驾驶系统。“云轨”实现了全自动无人驾驶运行,并具有人脸识别、断电无人驾驶、自动诊断等多种功能。图/新华


蒙眼狂奔的行业

在中国药科大学引发风波的同时,以人脸识别起家的旷视科技也被推向了风口浪尖。

9月初,旷视科技“智慧课堂解决方案”的视频在网上流传。视频中,公司运用人脸识别技术,学生的脸被方框圈出,旁边显示“专注度33%,表情分析结果:厌恶”“趴桌子0次,玩手机0次,睡觉0次,听讲6次,阅读8次,举手6次……”

这样先进的“科技”,让很多人不寒而栗。不过,据核实,中国药科大学使用的并非旷视科技的技术,但是这个视频却成了人脸识别监控学生状态最形象的注解。

旷视科技很快作出官方回应,称网上出现的课堂行为分析图片,只是技术场景化概念演示。旷视在教育领域的产品专注于保护孩子在校园的安全,其列举的方案内容主要是在出入校门的身份识别。这样的解释,却很难自圆其说。

陷入争议和风波,对刚刚申请IPO的旷视来说,不是一个好兆头。8月25日,旷视科技在港交所提交IPO招股文件,一旦成功IPO,旷视科技将是AI上市第一股。

作为AI明星创业公司,旷视一路高歌猛进,正代表了国内人脸识别产业的发展速度。以人脸识别发家的商汤、旷视、依图、云从四大计算机视觉“四小龙”,一直是资本的宠儿,也是人工智能公司中的“网红”。IDC(互联网数据中心)统计,2017年CV“四小龙”合计占据计算机视觉应用市场69.4%的市场份额。

人脸识别所属的计算机视觉技术,是无人驾驶、VR/AR、医疗检测等应用背后的基础技术之一。在深度学习算法驱动下,计算机视觉技术在近几年取得了突破性的进展。众多巨头和创业公司纷纷涌入,人脸识别成为AI最热门的赛道之一。

国金证券行业研报提到,计算机视觉是最具商业化价值的赛道,全球40%的AI企业都集中在该领域。应用方向上,国内以安防、金融和互联网为主,国外以消费、机器人和智能驾驶为主。

在所有计算机视觉创业公司中,人脸识别的公司数量最多,技术成熟度也比较高。目前,中国人脸识别精确度已经超过人眼。前瞻产业研究院的数据显示,2016年,我国人脸识别行业市场规模约为17.25亿元,同比增长27.97%。

“四小龙”基本都靠人脸识别技术起家,不过,这些以单点技术起家的CV(计算机视觉)公司正努力摆脱“CV”标签,从最初的算法提供商转变成平台或者服务商。旷视科技品牌市场团队副总裁谢忆楠曾对《中国新闻周刊》表示,大家跑马圈地的阶段结束,证明算法是否世界第一不重要了,目前进入到了证明商业价值的阶段,要看技术给行业能带来什么改变。

旷视在成立之初主要推出Face++人脸识别开放平台,如今,其官网则强调自己是“智能物联网方案提供专家”,业务涉及安防、金融、零售等领域。商汤重点发力金融、安防、智能驾驶、移动互联网、医疗和教育等行业,云从将金融、安防、风控、交通、商业作为重点探索场景,依图也聚焦安防、医疗和金融、零售等行业。

从头部公司探索的应用场景看来,计算机视觉的应用仍然暴露出明显的问题:应用领域重合,落地产品同质化,竞争异常激烈。

不少业内人士都注意到,随着人脸识别技术应用进入“井喷期”,“挂羊头卖狗肉”的产品不少,存在较大的产业泡沫。以最常见的“考勤机”为例,价值数百元至上万元不等,一些畅销的“千元机”,只要脸部采集的数据能吻合六成以上,便能认定是同一人。市场良莠不齐,很多打着“人工智能”旗号的人脸识别技术真假难辨。

国金证券报告提到了另一个行业痛点:计算机视觉技术研发周期长、盈利困难。除安防、金融等少数场景,大多数领域还找不到清昕的商业模式。

旷视科技一直处于亏损状态,根据其招股书显示,2016年至2019年上半年,旷视科技分别亏损3.43亿元、7.59亿元,及33.51亿元和52亿元。不过旷视科技回应,大幅亏损主要是由于上市引发的优先股的公允价值变动。

旷视招股书显示,旷视成立8年来,共融资13.51亿人民币,业内预计旷视的估值会在40亿美元左右。而另一家独角兽商汤则是“四小龙之首”,其联合创始人徐立近日证实,商汤今年的估值超过75亿美元。线性资本创始人王淮曾对《中国新闻周刊》介绍,“如果仅仅是做人脸识别撑不起这么高的估值,这些公司必然要去拓展其他业务,才能匹配这样的高估值。”

人脸识别公司,正在不断地尝试打破更多边界,急于向投资人证明自己的估值。人脸识别进课堂的争议,正是在这个大背景下发生的。一位行业人士在接受虎嗅网采访时坦言,作为一家将要IPO,但营收并不好看、还存在亏损的人脸识别技术公司之一,业绩压力也让他们想寻找各个途径实现技术变现,对于一些产品设计的思考可能欠妥当。


5月7日,在福州举行的第二届数字中国建设成果展览会上,观众了解体验人脸识别技术。图/视觉中国


刷脸无处不在

在产业前景和资本助推下,人脸识别正在成为无法阻挡的趋势。

前瞻产业研究院报告显示,随着国内智慧城市的深入发展,城市监控的高清化进一步普及,摄像头数量大规模增长,人脸识别在数据采集上的阻碍大大减小,提升了人脸识别的质量与应用领域。预计未来5年人脸识别市场规模将保持年均25%的增速,2022年市场规模将达到约67亿元。

越来越多高校、医院、社区、工业园区、景区、机场、火车站,都在推广“刷脸”通行。清华大学新闻学院教授沈阳曾对媒体提到,中国人平均每天要暴露在各种摄像头下超过500次。

2017年5月,上海开始试点“电子警察”抓拍行人闯红灯设备。一旦监测到有行人闯红灯,设备就会对闯红灯行为进行完整摄录,并对该行人进行连续抓拍进行人脸识别,随即在周边的公交站点显示屏上进行公告。这项技术目前在深圳、天津、太原、济南等多个城市都已经展开使用。

各种应用场景“脑洞大开”,2017年,北京天坛公园在3座公厕中安装了6台人脸识别厕纸机,以此杜绝偷厕纸的行为。

在网约车行业,基于人脸识别的驾驶员身份验证,也开始普遍应用。比如,美团打车的新注册驾驶员,在首次接单前、更换手机设备或活跃接单驾驶员都会触发App端人脸识别,通过技术比对确认实际运营驾驶员与平台注册信息及公安部门登记信息是否一致。人脸识别未通过的驾驶员将不能接单,需重新提交信息。

而让更多人“惊喜”的是,人脸识别在抓获逃犯方面,屡建奇功。有网友统计,自2018年以来,“歌神”张学友在全国各地的巡回演唱会中,警方依靠人脸识别技术,抓获了几十名逃犯。

人脸识别在社交应用软件中也无孔不入。8月底,国内一个AI换脸App“ZAO”在朋友圈刷屏,仅需一张照片,用户就可以换脸成为热门剧作里的角色。其实,此类社交性的应用早就无处不在,美颜相机、照片换脸,背后皆是人脸识别技术在支持。

但对这项技术安全隐患的担忧,从来没有停歇。人脸和其他生物特征数据(如指纹)之间的一个巨大区别是,它们可以远距离起作用。智能硬件、摄像头随时随地采集个人影像资料,长时间、大规模地积累用户数据,而不被察觉。

除了被强制收集,这些人脸信息的存储,同样存在安全隐患。今年2月,GDI基金会荷兰安全研究员Victor Gevers在推特上爆料,中国深网视界科技有限公司(SenseNets)发生了大规模数据泄露事件,称这家公司掌握的250多万人的个人信息,其中包含身份证号码、地址、生日、通行证、雇主,以及其过去24小时内路过摄像头的位置,可供任何人访问。

人脸识别技术本身也存在很多漏洞。GeekPwn2017国际安全极客大赛上,毕业于浙江大学计算机专业的90后女选手“tyy”仅用时两分半钟就破解了人脸识别门禁系统,把设备中存储的评委人脸换成了自己的脸,这也意味着可以用任意人脸来“蒙骗”人脸识别系统,打开门禁。

“目前,对人们生物特征的保护,例如虹膜、人脸、指纹等的保护,都没有被写进现有法律,信息保护的责任主体、责任边界,如何使用、处理和销毁信息,法律都未具体规定。”中国政法大学传播法研究中心副主任朱巍告诉《中国新闻周刊》,在法律脱节的当下,商业伦理要有约束力,“人脸识别公司作为技术源头以及获益者,必须让用户有获知风险的知情权。”

技术发展的伦理和法律边界

不仅在中国,当前全球很多国家都笼罩着“被人脸识别监控”的忧虑。

近日,微软删除了其最大的人脸识别数据库MS Celeb,英国《金融时报》报道,数据库中采集的很多图像的主人并没有授权这一行为,MS Celeb 数据库通过“知识共享”许可证来抓取和搜索图像,这引发一些人的反对。

美国的一些地方开始出台禁令,对人脸识别说不。今年5月14日,美国高新技术产业聚集的旧金山通过一条禁令,决定该市所有政府部门,包括该市交通管理局和执法部门,都禁止使用这个新技术。随后,马萨诸塞州的萨默维尔和加州的奥克兰相继出台人脸识别禁令。

欧洲对人脸识别的使用更为谨慎。2018年5月,欧盟实施通用数据保护条例(简称“GDPR”),规定违规收集个人信息(其中包含指纹、人脸识别、视网膜扫描、线上定位资料等)、没有保障数据安全的互联网公司,最高可罚款2000万欧元或全球营业额的4%,被称为“史上最严”条例。

近日,瑞典一所高中因使用了人脸识别系统记录学生的出勤率,经过调查后被认定学校对学生个人信息处理不符合“GDPR”的规定,收到了第一张基于“GDPR”的罚单,金额为20万瑞典克朗(约合14.5万人民币)。

美国国家标准与技术研究院(NIST)2018年全球人脸识别算法测试最新结果中,2018年共有全球39家企业和机构参与本次竞赛,前五名算法被中国公司包揽。

山世光认为,中国人脸识别技术和产业的发展,得益于互联网上大量的数据,比如网民很乐于在互联网上发布自己的照片,加上国内外政界、娱乐界公众人物的照片,科技公司都可以拿来用作训练人脸识别的能力,这在法律上也处于灰色地带。

“这些数据采集后如何保存、传输,传给谁,怎么用,谁能看得到,谁能把数据考走,能否放在网络上等等,都是纯粹的法律问题。”山世光对《中国新闻周刊》说。

作为技术研发者,山世光内心的感受很复杂。在他看来,一方面,中国的人脸识别技术和应用均在全球领先,如果完全追随美国和欧洲对数据和隐私的保护,对人脸识别发展会产生很大的阻碍。

但他承认,人脸识别技术带来的隐私和安全问题,已经到了必须正视的时候,“要在隐私、安全和便捷三者之间找到恰当的平衡,允许技术适度向前发展,同时保护公民隐私。”

(应受访者要求,周琪为化名)


原创: 杨智杰



编辑:宋婷



268#
 楼主| 发表于 2019-10-21 18:46:21 | 只看该作者
【案例】Nature人类行为封面:复杂演替系统中的幂律增长模式
导语:
“买买买”的浪潮中,消费者购买新产品的模型机制也成为了网络科学研究者的研究重点。在传统上,研究者假定,产品的传播和推广很大程度上是由早期用户推广促进的,但在2019年8月的Nature Human Behaviour封面文章中,美国西北大学的靳擎、王大顺等人研究发现:消费者购买产品的行为模式、新思想在网络上传播的模式,本质上都是一种幂律增长的模式。
论文题目:Emergence of scaling in complex substitutive systems
论文地址:https://www.nature.com/articles/s41562-019-0638-y
“传播”到“演替”
从新闻消息的传播,到流感病毒的袭扰;从文化思想的流变,到科技产品的风靡,“传播”问题一直是科学家们重点关注的问题。这种关注可以至少追溯到 20 世纪 70 年代前。1962年,传播学家罗杰斯 (Everett Rogers) 创作了巨著《创新的扩散》(Diffusion of Innovations),标定了一个新学科的诞生。 之后的半个世纪中,大量的科学工作者,包括数学家、物理学家、传染病学家、传播学家、社会学家、网络学家们都想尽办法去揭开事物传播的秘密:他们有的更关注传播事物本身的特异属性,有的则更强调传播人群的网络结构,有的希望定性地把握传播者的心理偏好,有的则希冀着找寻到更加精准的数学模型刻画并预测传播的走向。 尽管大家做了各种努力,有了各种重大的突破,可长久以来,大家的关注点似乎都更强调着对新事物的“接受”上,而忽略了事实的另一侧面:我们在接受新事物的同时,还经常会同时丢弃同种类的旧事物;换句话说,表面上我们是在接受新事物,而事实上,我们是在用新事物替代旧事物;表面上的“传播”现象,本质是一种“演化替代”现象,即所谓的演替。 当我们换掉传统的“传播”思路,带上这副全新的“演替”眼镜去重新审视我们周围的传播现象时,就会发现,这种演替现象是那么地普遍。我们买新手机换掉旧手机,我们找新房子换掉旧房子,我们求新工作代替旧工作……这种现象不仅在我们生活中比比皆是,在科学研究中也是屡见不鲜。 当我们透过哈勃望远镜观察着遥远的星空,抑或是用着隧道显微镜探查着原子的跳动,我们知道这并不是我们人类最早拥有的科学工具。 在几百年前,我们就可以在伽利略家中的阳台或者列文虎克的办公桌上找到这些工具简略的雏形。在这几百年里,一代代的科学家发明新的工具去代替着这些旧工具,是他们一次次的“替换”,为我们赢来了现代科学的辉煌。   
1:同时期的不同原理的望远镜(从左到又分别是,Dollond望远镜、巨型麦哲伦望远镜(模型)、500米口径球面射电望远镜FAST(模型))
不仅是科学工具的更新换代, 科学概念上的修正与更迭更是对演替现象的完美诠释。当我们用哥白尼的“日心说”取代托勒密的“地心说”时,当我们用“能量守恒定律”替换传统的“热质理论”时,我们一次又一次的在科学史上用实践表演着“演替”行为。 在托马斯·库恩 (Thomas Kuhn) 跨时代的名著《科学革命的结构》中,提到了一个重要的概念:“范式转移” (paradigm shift)。现在看来,这个概念也是对“演替现象”的一种变相强调。有意思的是,库恩这本书也恰好初版在1962 年,与罗杰斯的《创新的扩散》恰在同时,不知道他们二位科学巨擘想没想到自己的工作将会在半个世纪后被一群计算社会学家紧密地联系在一起。 那么既然”演替现象“这么普遍,为什么长久以来没得到特别广泛的关注与研究呢?一个重要的原因是,寻找到既”精细“又”足量“的”演替“大数据非常困难。 经过六年艰苦卓绝的寻找和研究,美国西北大学复杂系统研究中心的靳擎、王大顺老师、宋朝鸣老师等人,收集了四类存在演替现象的数据集:手机(360万人在10年中的手机使用数据,数据精确到每天的使用),汽车(北美地区6年,超过百种汽车的销售状况),手机app (两千种app的下载数据) 和 科学领域(20万科学家研究过的近七千个科学领域的数据)。 他们的研究成果最近发表在了Nature子刊 Nature Human Behaviour 上, 并成为该杂志8月份的封面文章。
从接受理论到演替,网络传播研究的新洞见
传统的创新扩散理论 diffusion of innovations)预测传播事物发展的早期阶段,事物的影响人数会遵循指数增长。而有意思的是,王大顺和靳擎等人的研究发现,对于演替系统中的事物,其影响人数并不遵循指数增长,而是遵循幂律增长。  
2:4类产品演替数据集的分析类比。从上到下分别表示手机、汽车、手机应用、科研领域四个研究对象。
“这种特殊的幂律增长的指数可以是非整数,这意味着新产品刚介入市场时,它的影响力可能出现一个类似于大爆炸式的快速爆发,之后却增长的比较缓慢,要比指数增长缓慢得多。别忘了,新的商品在不断地涌入市场,这必将造成影响力的分流,这就可以帮助我们在直觉上理解这种缓慢增长的原因。”论文第一作者靳擎在向笔者介绍这个工作时如是说。作为集智科学家的他,没忘了见缝插针地跟我提到幂律(power law)与复杂性科学以及和我们“集智”千丝万缕的联系。 更有意思的是,这四个演替系统,从物品的价格,功能到属性,看似完全不同,但它们却拥有着极度相似的增长方式,作为物理学背景出身的王大顺和靳擎等人意识到这其中可能存在着某种普适性的演替规则。那么这规则又是什么呢?
量化演替机制
        
3:手机产品演替网络
利用作为网络科学家的优势,靳擎等人重点研究了第一个数据集——手机数据,并且绘制了一张精细的手机演替网络, 并发现了决定“演替现象”的三个基本“机制”:
先链接 (preferential attachment):一个流行、成功的产品更有可能获得更多的新用户,会出现“强者更强”现象。时效性(recency):一个事物越新,“年龄”越小,就越能吸引更多的人。研究者发现,影响力和事物的年龄恰好成反比。倾向性(propensity):表示的则是一个新事物对既有的旧事物的替代能力有多强。这种倾向性根植在产品的属性里,与产品的功能,厂商有比较紧密的联系。
基于这三条演替现象的 “牛顿定律”, 研究者们构建了一个极简演替模型(Minimal Substitution Model,MS model)。这个模型描绘出了一个“演替事物”的增长变化规律     

4:极简示意图:演替模型表示事物的增长变化
其中该模型中的三个参数为: 产期望(anticipation,h):这确定了最初的潜在消费者有多少;替换能力(fitness,η):新的产品和用户手中的老产品的契合程度,更换产品的迁移难度;使用寿命(longevity,τ):产品的使用期限,以及多久会过时,决定了产品的“半衰期”。 研究者不仅用这个极简演替模型完美解释了早期的“幂律增长”曲线,并且发现全部的增长曲线都可以用这个模型来精确刻画。这一发现为产品销量和观念传播的更精确预测打下了坚实的基础。 从这一角度看,正在阅读文章的我们,又何尝不是正好处在一个“演替”系统中呢?这演替的两端就是这篇文章的“演替理论”和传统的“接受理论”啊。 当这个漂亮的演替模型给我们展现一个更加全面而又全新的“传播”视角时,我们不禁问自己,那未来的“传播理论”又将会是什么样子呢?它能比我们现在的理论更精准更有效更美妙吗?让我们拭目以待。
参考资料:
原创: Leo
原文链接:https://mp.weixin.qq.com/s/noryUfdNHqn_UTbSAJ1TGg
编辑:宋婷

269#
 楼主| 发表于 2019-10-21 19:07:14 | 只看该作者
【案例】玛娜数据伦理评论(No.5):人脸识别技术且行且珍惜
4月16日,旧金山通过了对《停止秘密监视条例》所作的一些修订,距离成为美国第一个禁止使用人脸识别软件的城市更近了一步。《条例》写道:“人脸识别技术侵害公民权利和公民自由的可能性大大超过了其声称的好处;这项技术将加剧种族不公正,并且威胁到我们的生活不受政府持续监视的能力。”按照旧金山市的定义,监视技术包括车牌阅读装置、监视摄像头、用于预测犯罪活动的软件,以及虹膜扫描装置和人脸或步态识别软件等生物特征识别技术。旧金山市监事会正在考虑的立法还要求城市部门制定监管监视技术使用的政策,解释购置新监视工具的合理性,并提交详细说明监视和数据采集方法的年度报告。
无独有偶,The Verge报道称,微软总裁布拉德史密斯也在4月16日表示,因人权问题,微软拒绝了加州执法机构要求在人员车辆和车身摄像头中安装面部识别技术的请求。由于微软的人脸识别技术主要是通过白人男性进行训练的,一旦这家执法机构采用这一人脸识别技术,将导致无辜的妇女和少数族裔群体被拘留并接受询问。
同时,人脸识别技术也一直在蓬勃发展并被广泛应用,比如美国国土安全部表示,预计在未来四年内,97%的离境乘客将被使用面部识别技术。在我国,北京海淀公园智能步道,公众完成注册后,无需佩戴硬件设备,在步道内进行运动即可通过百度人脸识别技术自动记录运动数据。采用3D人脸识别闸机的地铁线路济南地铁1号线正式开启商业运营,乘客可以在2秒内通过闸机,1分钟内可通过30到40名乘客。在北京、重庆等地,公租房使用了人脸识别的门禁系统,一旦发现多次出现的、未录入租户系统的人员,就将提醒物业人员现场跟进。而在腾讯,人脸识别被用来为未成年人适度游戏“保驾护航”。对实名信息为成人,但在游戏中行为疑似未成年人的用户,腾讯会要求用户进行刷脸验证,如果用户拒绝验证,或验证后发现与姓名信息不符,将被视为13岁以下的未成年人。可以说“刷脸”已经逐步在金融、公安、边防、航天、教育、医疗等多个领域“落地开花”。
无疑,人脸识别技术,作为通过分析比较人脸视觉特征信息进行身份鉴别的计算机技术,相较于其他方式具有更加便捷的优势,其精确度也在不断提高,最新数据显示,全球人脸识别算法的最高水平可以做到千万分之一误报率,相比于去年同期,全球人脸识别性能提升了80%。但是,旧金山市和微软在人脸识别技术如此繁荣的情况下,采取了这样一种谨慎的做法,有利于我们冷静下来,反思人脸识别技术可能带来的伦理问题。
识别错误的风险。人脸识别的过程是较复杂的过程,难免或多或少的在人脸抓取、分析、识别的过程中存在一些其局限性。比如面部遮挡及装饰,又或者两张人脸的相似程度较高的情况(双胞胎),而且随着光线、角度等不同也容易对人脸识别造成影响。在这样的情况下,就容易导致身份的错误识别,特别是在“刷脸支付”“刷脸取款”过程中,将会直接对当事人造成经济损失。另外,据悉,一微博博主称儿子用该博主的照片成功解锁了某智能音箱的刷脸解锁功能。这虽然是个例,孩子的愿望也是天真的,但是不能否认,有心之人可能利用这个方式来非法获取他人财物。
个人隐私问题。随着互联网与各种智能设备的普及,人脸识别充斥在我们生活的方方面面,我们的面部数据有可能在不知不觉间被采集到。通过技术手段,很容易将人脸信息与身份信息关联起来,随之而来的人们生活轨迹、日常爱好、个人隐私就都会被挖掘出来。同时,我们的信息存储在服务器上,即使企业能够保证不滥用,但也不能说绝对能够防住网络攻击。因此,“人脸”数据来了个人隐私保护的隐忧,也带来了个别组织对数据的滥用或垄断的担心,特别是人类自由可能被侵犯,由此产生了“刷脸”时代人类的自由与责任问题并对传统伦理观带来了新挑战。在随处可见的人脸抓拍设备,我们的一切活动都被智能设备时时刻刻盯梢着,跟踪着,让人真正感受到被天罗地网所包围,就像不穿衣服行走在大街上。
安全问题。人脸技术应用广泛,作为身份验证实现支付、入户等,这样容易被挟持刷脸实现支付和入户,在这个意义上,作为身份验证的人脸识别技术比从前的密码输入方式风险更大。
歧视问题。从微软拒绝加州执法部门的请求,让我们看到人脸识别并不是独立的技术,是受多方面影响的,也必然要与其他的数据、算法相关联,不可避免带有歧视性因素。第一,就像是微软提到的那样,在训练人脸识别算法时采用了某个特殊群体,虽然这一选择不一定是主观决定的,比如说,在我国训练人脸识别算法必然以黄种人为主;第二,就是与人脸识别技术相关联的其他算法中存在偏见。第三个就是在具体应用中存在偏见。这一问题相对于前边两类问题更隐蔽、更难识别,但其造成的危害一样是难以估量的。
任何技术都是风险和机遇的双刃剑,人脸识别技术也是一样。我们既要对其充满信心,用开放包容的态度看待其中不尽完善的地方,也要保持理性审慎的姿态,加快建立健全人脸识别技术使用统一标准,对人脸识别技术应用的场景和范围做出合理规定,制定和遵循伦理法律规范,使人脸识别技术更好地为人们生活服务。
原创: 赛博风
原文链接:https://mp.weixin.qq.com/s/K6WgsMQpvg1QCXfIVQoR5A
编辑:宋婷

270#
 楼主| 发表于 2019-10-22 10:04:14 | 只看该作者
【案例】刘永谋:丹尼尔.贝尔与技术治理
Daniel Bell, Leon Dennen. The System of Governments in Exile
Daniel Bell. Socialism: The Dream and the Reality
Daniel Bell. Crime as an American Way of Life
Daniel Bell. Japanese Notebook
Daniel Bell. Ten Theories in Search of Reality
Daniel Bell. The Power Elite-Reconsidered
Daniel Bell. One Road from Marx
Daniel Bell. The “Rediscovery” of Alienation
Daniel Bell. Twelve Modes of Prediction
Daniel Bell. Ideology and Soviet Politics
Daniel Bell. Reply
Daniel Bell. The Disjunction of Culture and SocialStructure
Daniel Bell. Report of the Commission on the year2000
Daniel Bell. Coda: Work in Future Progress
Daniel Bell. The Year 2000: The Trajectory of an Idea
Daniel Bell. The Culture Contradictions of Capitalism
Daniel Bell. Reply by Daniel Bell
Daniel Bell. Daniel Bell on His “Postindustrial Society”
Daniel Bell. Interpreting Marx
Daniel Bell. The Cultural Wars
Daniel Bell. Introduction
Daniel Bell. The Future World Disorder
Daniel Bell. Review: The Once and Future Marx
Daniel Bell. The Return of the Sacred?
Daniel Bell. Modernism Mummified,
Daniel Bell. The Protestant Ethic
Daniel Bell. Ethics and Evil
1.贝尔的意识形态终结论与公正的精英主义(能者统治)之间的一致性何在?在回应对其“意识形态”概念的质疑时,贝尔不断强调意识形态的功能性,尤其是共识或普遍价值的个体内化、清晰化以及它的社会动员作用。这是某种对意识形态的非意识形态理解,将意识形态“降格”为功能性工具——当然,我从来不轻看工具。除此之外,在后工业社会理论中,贝尔实际上暗示了意识形态终结意味着后工业的社会结构中技术决策对政治决策的压倒性胜利,也承认技术决策在政治结构中占据越来越大的份额,但在文化结构中,贝尔认为现代主义正在反抗技术-经济秩序而导致两大结构的分离——无论如何,技术决策的崛起亦是意识形态终结论的另一延伸意义,而技术决策被贝尔认为是非意识形态的,或者说只有效率目标而排除了不同价值观斗争的。显然,功能性理解与技术决策崛起是一致的,都是从意识形态争论转向确定性的工具主义方案。
2.贝尔的文化理论与公众的精英主义之间的关系如何?贝尔对文化研究倾注了最多的精力。无论是现代主义文化,还是后现代主义文化,他都视之为资本主义秩序最大的革命力量,亦是后工业社会政治结构必须全力解决的文化矛盾。从某种意义上说,贝尔将它们视为民粹主义对精英主义的反抗,也就是说,现代主义和后现代主义本质上都是反文化、反精英的。后工业社会中,不再有什么文化中心,好像贝尔对此是爱恨交织。
3.很长一段时间,贝尔主持了2000年委员会,在未来学在70、80年代盛极一时中出力颇多。他承认,并没有任何可靠的社会预测方法,但惊人预言层出不穷,试图吸引注意和资源。贝尔对预测方法的研究很深入,多篇论文归纳了彼时尝试的社会预测方法,但他最为熟练运用的是历史规律意义上的“社会物理学方法”,即运用三大结构、中轴原理等整体理论进行重点预测,辅以简单的时间序列延长趋势观察。今天,在所谓智能社会崛起的时髦思潮中,未来学(如人类未来、大历史、后人类、新技术预测等热门议题)再一次抓住了人们的眼球,但是这波热浪在方法论上和思考深度上不仅没有新意,完全没有达到彼时贝尔、奈斯比特、托夫勒等人的水平。
原创: buhaoweirenshi
原文链接:https://mp.weixin.qq.com/s/AQkDrtdRW3Mqh_BX_gnPUA
编辑:宋婷

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表