传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
301#
 楼主| 发表于 2019-11-10 20:36:18 | 只看该作者
【案例】
何以为人?——科学如何重塑我们对自身身份的看法
纳撒尼尔·凯夫(NathanielComfort)写道,生物学的进步反复改变了我们对自身身份的看法。本文是为了纪念《自然》创刊150周年,《自然》聚焦150年科研体系转变系列文章的第三篇。

在赫胥黎《人类在自然界中的位置》(1863年)一书的标志性前言中,灵长类动物骨骼排满页面,似乎一步步走向未来:“长臂猿,猩猩,黑猩猩,大猩猩,人类。”解剖学和古生物学的新证据科学地、无可辩驳地证实了人类在自然中的位置。我们毫无疑问是动物的一种——只不过排在最前面。

插图:Señor Salme

哥白尼使我们离开了宇宙中心;达尔文则使我们脱离了现存世界的中心。不管他人怎样看待这种降级(赫胥黎并未受困扰;达尔文受到了困扰),毫无疑问,赫胥黎传递了更大的信息,即科学可以回答他所谓的“问题的问题”:“人在自然界中的地位及其和宇宙万物的关系。”

在早期的《自然》杂志中,赫胥黎的问题占有重要地位。赫胥黎机敏、尖锐,作为达尔文理论的颂扬者,赫胥黎是当时最受欢迎的评论家之一。《自然》的创始编辑诺曼·洛克耶(NormanLockyer)在说服朋友成为定期撰稿人时巧用妙宗,而赫胥黎立即抓住了这个难得的机会。他兴奋地用《自然》的页面来为达尔文主义和科学公共事业辩护。

在1869年12月16日的第7期《自然》中,赫胥黎推动了一个所谓“实用达尔文主义”的计划,我们称之为“优生学”。他深信大英帝国的持续统治将取决于“充满进取精神”的品质,并考虑为英国人选择乐观进取的态度[1]。尽管他知道法律以及道德或许会成为拦路虎,但他仍然写道:“或许我们能以间接的方式影响我们后代的性格品质和繁荣昌盛。”高尔顿(达尔文的表亲、赫胥黎的拥护者)当时已经有类似的想法,后来被称为“优生学之父”。杂志面世后,“改善”人类遗传的想法印在了许多人脑中——尤其是作为帝国的一件强有力的工具。

赫胥黎乐观地认为,科学的永不止步会带来人类的无限进步和胜利,这一观点概括了一个围绕所谓启蒙价值观的问题。社会应当以理性、事实和普遍真理为基础,已成为现代社会的一种指导思想。从很多方面来看,这是一件了不起的事情(最近我看到了太多治理行为无事实依据)。然而,奥卡姆剃刀原则(Occam’srazor)是把双刃剑。启蒙价值观包纳了各种刺耳的不和谐一致的声音,例如人人生而平等,贵族应当被斩首,人类可以被当作财产买卖。

我想指出,这段历史中许多最糟糕的章节都是科学主义造成的,即科学是理解世界、解决社会问题的唯一有效途径。科学常常扩展和解放自我意识,但科学主义却对我们造成了约束。

在过去的150年中,我们可以看到科学和科学主义在许多方面塑造着人类的身份。发展心理学把注意力集中在智力上,导致IQ(智商)从教育工具转变为社会控制的武器;免疫学从“非己”的角度重新定义了“自己”;信息理论以一种全新的比喻手法,将身份置于文本或接线图中。最近,分子和细胞研究放宽了“自己”的界限;生殖技术、基因工程和合成生物学使人性更具可塑性;表现遗传学和微生物学使个性和自我管理的概念更加复杂;而生物技术和信息技术带来了一个自我更加分散、离散和原子化的世界。

植根于生物学的个人身份或许从未在社交生活中发挥过更重要的作用,即使它们的边界和参数也越来越模糊。

赫胥黎《人类在自然界中的地位》(1863)一书前言。| 图片来源:Paul D. Stewart/SPL

智力设计

法国心理学家Alfred Binet在1907年写道:“必须在所有教育工作中引入科学精确的方法,让理性和光亮照遍所有地方”【英文译本于1914年发表(参考文献2)】。在这之前10年,Binet和ThéodoreSimon为法国小学生开发了一系列测试,以衡量他们所谓的“心理年龄”。如果孩子的心理年龄小于其实际年龄,那么他将获得额外帮助以赶上进度。德国心理学家WilliamStern根据心理年龄与实际年龄的比率,给出了他所谓的IQ,并在理论上使其在各群体之间具有可比性。同时,英国高尔顿学校的统计学家和优生学家Charles Spearman发现,孩子在不同测验中的表现存在相关性。为解释这种相关性,他从理论上提出了一种固有的、固定的、根本的品质——“g”,即“一般智力”(general intelligence)。随后,美国心理学家Henry Goddard受优生学家Charles Davenport的影响,声称智商低是一种简单的孟德尔性状。因此,科学主义一步一步地将IQ从一种衡量特定孩子过去表现的手段,变成了预测任何孩子未来表现的指标。

IQ不再是你做了什么的衡量指标,而是你是谁的衡量指标——表示一个人固有价值的分数。在进步时代,优生主义者纠结于低智商,认为它是犯罪、贫困、滥交和疾病的根源。到希特勒将优生学扩展到覆盖所有种族和文化群体的时候,全世界已经有成千上万人被从基因库中抽离,或被绝育,或被收容,或两者皆有。

不是我

免疫学家采取了另一种方法,他们将身份定位在体内,以相对而非绝对的术语定义身份:自己和非己。组织移植的排斥反应、过敏和自身免疫反应可以理解为一种身份危机,而非身体内的一场战争。这是一个非常哲学的领域。的确,历史学家Warwick Anderson曾提出[3],免疫学、生物学和社会思想“在热带棕榈树下杂乱地混合着”。

澳大利亚免疫学家Frank MacFarlane Burnet号称免疫学界柏拉图。Burnet将免疫学塑造为关于自我的科学,这本身就是他吸收哲学家Alfred NorthWhitehead的观念的直接体现。与此相对,从Jacques Derrida到Bruno Latour和Donna Haraway的社会理论家,在进行自我的社会理论化过程中,都依赖了免疫意象和概念。这里的核心在于:科学和社会思想深深地交织在一起,彼此产生共鸣,被共建起来。没有这一方,你就无法理解另一方。

后来,Burnet被控制论和信息论的新隐喻所吸引。1954年,Burnet写道,很快便会产生“生命体的‘通讯理论’ ,相信这一点是“一种时代精神”[4]。此话不假。在同一时期,分子生物学家也迷上了信息隐喻。1953年DNA双螺旋结构被发现后,随着遗传密码问题的形成,分子生物学家发现信息、文本和通讯的类比具有不可抗拒的魅力,因此借用了“转录”“翻译”“信使”“转移”“信号传导”等词汇。基因组“咒语”存在于包含四个字母的“字母表”中,它们不可避免地被视为文本来加以讨论,不管是在书籍、手册还是零件清单中。无独有偶,计算机科学和计算行业也在这个时候发展起来。

二战后,自我成为一种需要解密的密码。DNA序列可以被数字化。其信息至少从理论上来说可以被拦截、解码和编程。很快,人们很难不从信息角度考虑人性。到20世纪60年代,DNA成为众所周知的“生命的密码”。


多重自我

在20世纪六七十年代末,批评家(包括许多科学家)开始担心新生物学可能改变人之为人的含义。1971年,James Watson(因共同发现DNA双螺旋结构为世人所知,后来又声名狼藉)写道,由此引发的道德和社会问题“太重要了,不能完全由科学和医学界掌控”。

1978年,Patrick Steptoe和Robert Edwards成功地进行了人类体外受精,从而诞生了第一个“试管婴儿”Louise Brown。到1996年,随着Ian Wilmut及其团队成功克隆出绵羊多莉,人类克隆技术似乎近在眼前。

克隆和基因工程促使人们大量探索灵魂,却鲜少发现灵魂。长期以来,关于人造人,也许不是很纯正的人的想法既令人恐惧又令人着迷。克隆人和自然出生的人享有相同的权利吗?为提供身体组织而制造婴儿是否非人性?我们是否有权修改未出世的人的基因?或者,正如反对者所称,我们是否有义务这样做?近来,CRISPR等强大基因编辑工具的发展使这类决策变得更加紧迫。

2013年中国,一只猕猴接受猪肝脏移植。| 图片来自:VCG/Getty

无论是赞成还是反对,关于编辑人类的争论常常取决于对遗传特性的过分确定性理解。科学主义可以双向发展。一种深层还原论将人类本质置于细胞核内。

1902年,英国医生Archibald Garrod撰文[5]谈论了基于遗传学的“化学个性”(chemicalindividuality)。90年代,第一批基因组序列数据如海啸般席卷基础科学领域,很明显,人类遗传变异的范围比我们所知的要广得多。Garrod已成为基因组时代的标志性人物。

到20世纪末,有远见的人开始兜售基于基因组的“个性化医疗”。他们的口号是,再没有什么“一体适用”。相反,医学诊断和治疗将根据DNA定制。人类基因组计划结束后,DNA测序的成本急剧下降,这使“测序基因组”成为大众文化的一部分。

今天,技术先进的大学开始为所有新生提供基因组档案。时髦的公司会根据你的基因组来定制酒单、营养补品、护肤霜、奶昔或润唇膏。基因组序列成了人本身。正如测序公司23andMe的DNA测试盒上所写的,“欢迎认识你自己。”
边界模糊

但你不全是你自己——绝不可能。DNA蓝图模型已经过时,几乎有些古老了。首先,人体中的所有细胞并非拥有相同的染色体。顺性别女性是嵌合体:每个细胞中一个X染色体的随机失活意味着她一半的细胞表达了母亲的X,一半细胞表达了父亲的。由于通过胎盘与胎儿之间进行的细胞交换,母亲们也是嵌合体。

嵌合现象可以跨越物种边界。人类-黑猩猩嵌合胚胎已在实验室中制成,研究人员正在努力尝试在猪身体内培养具有免疫耐受力的人体器官。基因、蛋白质和微生物在几乎所有生命形式之间不断流动。约翰·列侬说得好:“我就是他,他就是你,你就是我,我们是一起的。”

即便在严格的科学术语下,“你”也不仅仅是染色体的内容。人体包含至少与人类细胞一样多的非人类细胞(主要是细菌、古菌和真菌)[6]。数以万计的微生物物种在人体中游走,对消化、肤色、抗病能力、视力和情绪产生深远影响。没有它们,你会感觉不像自己;事实上,你不真的是你。生物自我已被重新构建为社区集群,它们互相之间保持交流。

这些也混杂在棕榈树下。科学家发现,他们有86%的几率通过一个人的微生物组来识别其性伴侣[7]。他们发现,在同居伴侣中,最相似的微生物群落在脚上。相比之下,大腿微生物群落与生物性别的关系比其与伴侣身份的关系更紧密。

人体部位、污水池、地铁、教室,任何具有独特群落的地方,都可以理解为具有基因身份。在这样的群落中,基因信息通过性、掠食、感染和基因水平转移在有机体内部和之间传递。在过去一年中,研究表明,深海贻贝中的共生微生物群落随着时间的流逝发生遗传隔离,就像物种一样。在真菌中,一种名为“Spok(孢子杀手)的基因通过“减数分裂驱动”在物种间衰减、流动和重组,减数分裂驱动是一种基因组快进按钮,它允许可遗传基因快速变化,以响应极速变化的环境。正如遗传学家Barbara McClintock早前说过的那样,基因组是细胞的敏感器官。

表观遗传学进一步消除了自我的界限。编码在DNA中的信息可以通过多种途径修改——包括混合和匹配DNA模组,加盖或隐藏位使其不被读取,或者在读取后对其进行更改,在翻译中改变其含义。DNA曾经被视为神圣的文本,会忠实地传递给后世子孙。现在,越来越多的证据表明核基因组更像是意见、旅游短语、音节和无用数据的混合,你可以根据需要来使用或修改。基因组似乎不再是自我的所在地,而更像是塑造自我的工具包。那么,是谁在塑造?
分布式自我

脑植入物、人机接口和其他神经技术设备将自我的范围扩展到“宇宙万物”的领域。埃隆·马斯克的公司Neuralink致力于使无缝人机接口成为(虚拟的)现实。自然智能和人工智能已经相遇,它们的融合也不会在太遥远的未来。

自我能走出扩展的边界,实现分布吗?作家兼前《自然》编辑Philip Ball让研究人员对其皮肤细胞进行采样,将它们转化为干细胞(有成为任何器官的可能),然后培养成“迷你大脑”,也就是在培养皿中培养神经组织,能够形成大脑区域典型的神经元放电现象。科幻小说中的其他常见主题,比如在培养皿中培养全脑,或在农场动物身上培养人类器官,仍有很长的路要走,但人们正在积极研究。  

自我控制

美中不足的是,大多数理性时代的身份概念,以及后人类未来的多数科幻场景,都是由北半球富裕国家的中上层阶级提出来的,他们均受过大学教育,没有残障。他们的思想不仅反映了研究发现本身,还反映了那些长期控制科学体系的人的价值观:实证主义者、还原主义者,以及专注于主宰大自然。那些控制序列产生方式的人成了书写故事的人。

这一现象已经开始改变。尽管前路漫漫,但对公平、包容和多样性越来越多的关注,已经深刻影响了人们对疾病、健康及生而为人的意义的思考。海里埃塔·拉克丝的肿瘤细胞在未经其允许的情况下,被全世界的实验室使用、培养和分发,当人们得知她是一名贫困的非裔美国女性时,这件事显得尤为重要。她的故事激起了无数关于生物医学不公平和偏见的讨论,并改变了美国最大的生物医学资助机构——美国国立卫生研究院的做法。

社会学家Alondra Nelson从非裔美国人的角度研究基因组谱系,他们为挽回在运奴途中丢失的家族史付出了艰辛的努力。在美国原住民社区,正如历史学家Kim TallBear所揭示的那样,原住民遗传身份的形成是西方科学和土著文化的共同产物。基于DNA的种族概念远非毫无问题。但是,使自我技术不断普及,走向民主化(侧重于自决而非社会控制)的推动力,本质上说是解放。

这一点在残疾人和使用辅助技术的人身上最明显不过。他们或许可以获得或重新获得感知的能力,或许可以通过新的方式进行交流、表达自己,或许可以和宇宙万物建立新关系。

艺术家Lisa Park针对这些想法进行了创造。她使用神经科学领域的生物反馈和传感技术创造了所谓的视听式自我呈现。观众牵手的时候,一树的灯会发光、闪耀;水池里的水会响应Park的脑电波,发生和谐的共振;一支搭载心脏和大脑传感器的机器人管弦乐队会和Park进行互动,Park会指挥它们移开眼罩、彼此对视、眨眼、大笑、触摸或亲吻,并通过这些方式演奏出优美的音乐。然而,即使是这种艺术性、主观性和互动性的自我意识,也与生物学所限定的身份联系在一起。

自启蒙运动以来,我们倾向于根据科学本身的价值来定义人类的身份和价值,好像仅凭它就能告诉我们自己是谁一样。这是一种奇怪而狭隘的想法。面对殖民主义、奴隶制、阿片类药物泛滥、环境退化和气候变化,西方科学技术是唯一可靠的自我认知来源的想法站不住脚了。这并不是要将所有人类的苦难归结到科学身上——实际上远非如此。问题在于科学主义。仅凭生物术语来定义自我会模糊其他身份形式,如一个人的劳动或社会角色。或许赫胥黎的“问题的问题”,说到底并不是一个数字那么简单。
参考文献:
1. H. [Huxley, T. H.] Nature 1,183–184 (1869).
2.Binet, A. &Simon, T. Mentally Defective Children (Arnold, 1914).
3.Anderson, W. Isis 105,606–616 (2014).
4.Burnet, M. Sci.Am. 191, 74–78 (1954).
5.Garrod, A. E. Lancet 160,1616–1620 (1902).
6.Sender, R., Fuchs,S. & Milo, R. Cell 164, 337–340 (2016).
7.Ross, A. A., Doxey,A. C. & Neufeld, J. D. mSystems 2, e00043-17(2017).
原文以How science hasshifted our sense of identity为标题发表在2019年10月08日的《自然》评论上
何以为人?——科学如何重塑我们对自身身份的看法
原创: Nature自然科研 Nature自然科研 昨天
点击上方蓝字,关注我们!
原文作者:NathanielComfort

来源:微信公众号:Nature自然科研
原文作者:NathanielComfort
编辑:冯梦玉

302#
 楼主| 发表于 2019-11-10 20:53:36 | 只看该作者
【案例】
一群创造奇迹的人工智能工程师,怎样在腾讯逆袭?


长久以来,儿童拐卖案一直是公安机关的巨大难题:案件跨度常常超过10年,孩童相貌变化快,又不曾留下任何生物学特征,因此过去许多年里,真正破获的儿童拐卖案非常有限。


但在2018年底,因为一项新技术的应用,四川省的一起重大积案——轰动全省的426案——在短期内获得突破,当年被拐卖的13名儿童中有10人确认身份。破案中应用的“跨年龄人脸识别技术”,如今的识别精度已经进化到96%,极有可能让带给千万家庭痛苦的人口拐卖成为历史。而创造这项技术的,是一个叫优图实验室的机构。


9月一个下午,在上海漕河泾开发区软件园,我穿过安装了人脸识别的门禁,去探访优图实验室,这个腾讯最为成功的AI 实验室之一——只要涉及人脸识别和图像识别功能的腾讯应用几乎都有它的身影,比如QQQQ空间,天天P图,人脸支付,AI医疗等等,你也许并不知道,事实上它已经融入我们的日常生活。


与想像中的酷炫风格有所不同,这里显得有点过于朴实了:一片密集的工位,然后是一个个格子间。在其中一个小房间里,我见到了优图的总经理吴运声。他身材清瘦,声音低哑,但言语间流露出一种坚硬。“优图一直是充满危机感的”,他说。



腾讯优图实验室联合负责人吴运声。供图:腾讯


这多少令人有些惊讶。人们往往以为,技术的创新只关乎技术人员的智慧与灵感,并没有意识到,它可能还来自于一个团队长达数年的艰苦战斗,危机中自我保存的本能,来自于一种要创造价值的现实主义情怀。


我和优图多名工程师进行了交流,请他们讲述了优图的故事,那是一个典型的腾讯式的故事。这要从2012年,他们濒临解散说起。




成为冗余


回想起那一年,人们也许会记得腾讯历史上第二次架构调整,宣布迈向移动互联网的大潮;却很少有人会记得,在那次大型转场中,一个曾被寄予厚望的技术组织——腾讯研究院,宣告解散。研究院本意是发展长期技术,却因业务各有技术团队,研究院的技术无人使用,也便逐步瓦解了。先是蜕变成产品部门,然后产品也难以为继。


直到七年后,黄飞跃还记得每天回宿舍后那种迷茫的心情,“我是清华博士毕业,在学校水平还可以,动手能力也不差,怎么会这么失败?”他带着小团队在研究院做一款叫QQ影像的产品,日活曲线低位走平,员工曲线则不断下降,到最后几乎只剩他自己了。


他的领导吴运声也迷失在产品丛林里。他博士肄业,是那种总会冲到最前线的领导者。他已经意识到,没有配套,做产品的失败是必然的。他想了很久,既然是技术人员,那就应该维持本色。有一天,他们在新闻看到以色列在发展图片压缩技术,突发奇想,如果掌握这项技术,就可以证明自己的价值——为公司节省带宽成本。


他们知道这家公司的风格,很多时候,没有命令告诉你必须做什么。很难说有禁区,全靠自己探索。团队在公司四处推销,请别人吃晚饭,恳请他们使用压缩技术——不必付出任何成本,只要写一封邮件证明使用过他们的技术就可以了。就这样“求爷爷告奶奶”,他们拿到第一封邮件,然后是第二封,第三封。那种喜悦就像拥有一个真正新生儿,他们给项目起了一个名字,叫优图,黄飞跃想,将来无论散落在哪里,有了名字,它就有自己的生命。


研究院果真在不久后就解散了。因为压缩技术小有名声,优图被腾讯高级执行副总裁汤道生接收了。时隔七年,吴运声仍有一个难以忘怀的场景。那是在部门重组后的第一次答疑会上,老板们坐在对面一排,他则坐在底下,等待一个全新的开始。突然听到汤道生喊,“SIMON(他的英文名)坐到前面来。”就像瞬间接到了信号:请大家安心。



优图实验室专家研究员黄飞跃进行人脸比对。供图:腾讯


汤道生是一个敏锐的人,他总是小心翼翼保护着那些尚不明朗的新生事物,为他们腾挪生长空间,等时机成熟,他再去总办争取资源。


在腾讯,headcount(人员编制)是最值钱的东西。优图要来能干什么?暂时不清楚。汤道生把他们放在QQ空间团队里,那里是公司最大的图片聚集地。藏在一个大的团队里,就不那么显眼,他就有空间“腾挪”,优图实验室就成了一个“冗余”。冗余,就是你看不清它具体方向,但默许它的存在,这种有包容度的空间,马化腾称之为管理的灰度。像这样的“冗余”,大大小小分布在公司各处。




使出全力


对优图来讲,这是更好的选择,至少他们现在有了QQ空间的业务场景了。他们思考良久,决定往人脸识别的方向去攻克。当时人脸识别并不像今天那么火热,但从一开始,他们就想得很明白,“做一个技术一定要想它用在什么地方”,这几乎成了优图生存的第一法则。


就像推销压缩技术时那样,他们跑去说服QQ空间的产品经理去开发一个有关人脸的新功能。他们说,他们的技术能把人像识别出来。他们还承诺,所有的需求优图全给做好,策划给做好,接口也给做好,你只管拿去用——如果说存在第二法则的话,那就是把合作对象当作你的客户。


在团队成员的印象中,他们每一次合作都使出了全力。不管什么需求,“我们都给做”,甚至为了让对方答应使用自己的技术,一些打杂的事情也可以帮忙做,因为做了之后,就可以跟对方说:“我都帮你把这个事情做了,我们的技术你就用一下吧?”


优图实验室科研人员拆解设备,攻克技术难题。供图:腾讯


在优图团队,会呈现出一种有些神奇的场景。博士也可以像销售一样跑业务,求别人用他们人脸识别技术——还是免费的。慢慢的开始有人在内网上赞扬优图,他们跑过去问发贴的人,能不能把那个帖子置顶啊?渐渐地,找他们支持的团队越来越多,他们服务的业务部门超出了QQ空间,QQ音乐,还做了腾讯滨海大厦和微众银行的人脸识别。他们后来自己总结的时候说:那几乎就是“一个技术人员的本能”。


在腾讯,通常一个技术团队是依附产品存在的。一个成功产品背后必然拥有一个成功的技术团队。但作为研究院的遗产,优图既没有办法独立做产品,也没有办法只做研究不去落地。为了活下去,他们把自己变成了服务全公司的技术团队。


尽管优图的技术已经支持越来越多的产品和服务,但很多情况下,对于这些产品来说,优图的技术也只是辅助,而不是一个产品核心路径上的必备需求。这种情况也让优图团队成员感到忧虑,直到做微众银行人脸开户的项目。2014年微众银行做人脸远程开户,接触了几个团队,优图是最积极的。对优图来说,这是令人兴奋的机会,微众银行没有线下门店,只能依靠线上开户,自然人脸识别就成了业务中的核心。然而技术难度很大,也没有可以借鉴的案例,吴运声下令在两个月内攻克出来,为此还和技术人员相互拍了桌子,结果是自然而然的——他们必须迎上去。直到验收那一天,一位国家领导人成功试验开户,他们才松了一口气。


到了下半年,他们已经进入腾讯滨海大厦的场景中了。那是一项全新的挑战,过去的场景大多发生在线上,而这次则需要获取海量线下数据;过去传统图像比对是1:1 ,现在则是1比数万。等到他们成功攻关,他们就积累了更多的数据和更好技术,不久后就去研究跨年龄人脸识别了,那是 1比数千万的高难度比对,是人脸识别领域一个公认的难点,特别是青少年阶段,人脸特征变化最大。


当希望利用新技术找到被拐儿童的的需求转到优图时,他们其实还没有把握。世界上还没有过成功的案例。但优图实验室的总监李绍欣决心要全力以赴。很多个夜晚,研究员们消耗在这些事情上。他们加了数不清的班,提交了5个版本算法模型,其中大大小小的修改多达上千次。




打硬仗


浓厚的危机感下面,优图始终强调一种“打硬仗”的文化。


如今随着产业互联网战略展开,他们也进军TO B 战场,把技术能力开放给行业合作伙伴,而对手则是所有的人脸识别公司,战争也便升级了。给万达做智慧零售时,自己成员因为一个摄像头的点位,困在4050度的风道里很长时间。


但他们都默认了要“吃苦”这件事。他们很清楚,打仗不仅仅是技术人员的算法角逐,更是一个团队的协作。每个案子各有困难,让黄飞跃很感慨的一件事是,有一次为客户做智能升级方案时,白天不让采集数据,他们只能晚上和周末去加班采集。那时天气特别热,晚上蚊子也很多,“管理的同事还专门买了一堆西瓜、花露水安抚他们。”


腾讯优图实验室团队合影。供图:腾讯


也在打仗的过程,他们不断充实自己的队伍。2016AI热潮涌起,在一场汇报后,马化腾和刘炽平给了他们100headcount,最终优图实验室独立出来,成为腾讯视觉研究中心。如今输出的行业解决方案超过15套,腾讯明星业务线接入超过90条,全球专利数超700项。


腾讯研究院失败了,优图却成了一个意外。我问吴运声,在这个艰难的过程中,始终支持着他的最大的愿望的是什么,他说:我希望有一个团队,它能做研究,能够做先进的东西,又能够带给你实实在在的价值。我希望优图一直能够朝这个方向去发展。


他们记得通过“跨年龄识别”首次比对出4个孩子的那一天,消息传来时,几名研究员正在如常地对着电脑写代码,他们激动地叫出了声,李绍欣一下子从凳子坐起来,“很惊奇,很惊喜”,另一位同事则干脆哭了起来。


来源:微信公众号:腾讯科技
作者:陈乐王晓晶

编辑:冯梦玉

303#
 楼主| 发表于 2019-11-10 21:06:42 | 只看该作者
【案例】
“机器人税”可行吗?

以机器人和人工智能(AI)技术为代表的第三次科技革命浪潮加快渗透到各领域,机器人代替人类工作大幅提高生产率,为人民生活带来便利,但同时也产生新的问题。AI技术应用替代传统工作岗位,造成失业问题并加剧贫富差距,对传统社会保障体系也产生挑战。为此,“机器人税”的设想被提出并广泛讨论,对机器人征税并用于失业者的再培训。“机器人税”是否应该征收以及如何征收,目前仍然存在较大争论。厘清“机器人税”的设想起源,梳理争论和分歧的焦点,有利于我们更深刻地认识新技术革命的深远影响及其应对举措。



“机器人税”的设想起源


机器人的出现是现代化和人类文明进步的标志,但同时也带来新的担忧。首要问题就是机器对人的替代带来失业。近年来,AI技术的广泛应用正在颠覆人类对未来工作的认知。2013年,牛津大学马丁学院发布研究报告《未来就业市场》显示,美国702类工作岗位中近一半(47%)将在未来20年内受到自动化技术影响。2017年,麻省理工学院和波士顿大学的研究报告《机器人和工作》指出,机器人的数量占工人数量的比重每增长0.1个百分点,美国就业率就会下降0.180.34个百分点,工人薪资也会降低0.250.5个百分点。新一轮技术革命以来,机器人和AI技术正在渗透到劳动力市场的每个角落,抢占仓管人员、卡车司机、零售店员等工作,谷歌Home和亚马逊Echo成功取代了部分家政服务,无人驾驶技术在新加坡开始取代传统出租车司机。贫富差距加剧是机器人带来的另一大挑战。机器人不仅使得工人失去工作,而且技术和资本再次占据要素分配的主导地位,新技术带来的财富收益更多流向企业主或资本家,导致收入分配关系恶化。



为此,一些人主张国家财税应该向因机器人而失业的人群倾斜,为他们提供技能培训和就业机会。20165月,卢森堡政治家Mady Delvaux向欧洲议会提交了一份议案,建议向机器人所有者征税,用于资助因机器人失业人群的重新训练,以实现再就业,该议案是全球首次提出“机器人税”的报告,最终这项提案以396反对票、123赞成票、85弃权票的结果被驳回。20171月,法国前教育部长Benoît Hamon主张对雇主使用机器人创造的“增加值”征税,数额与雇人要支付的“社会负担费用”相等,以便为所有人提供最低收入。


20173 月,Bill Gates公开表达观点,认为与自动化相关的税收必然会出现,工人在工厂获得的收入都属于应税收入,应该根据法律规定缴纳所得税和社会保障税等,如果机器人取代人类从事这些工作,理应考虑对机器人征收相同水平的税款,“机器人税”优先用于对失业工人的培训。20176月,诺奖得主Robert Shiller表示,要缓解机器人革命引发的收入差距,就必须重新建构税收体系,比起仅仅向高收入人群征税,征收“机器人税”可能在政治上更容易被人接受,税收作为工资保险帮助被新技术抢走饭碗的人们完成再就业过渡,这种做法与人类天生的正义感相吻合。




“机器人税”在世界上机器人渗透率最高的国家率先尝试。2017 8月,韩国拟减少对投资自动化机械企业的税收优惠,变相向机器人收税,成为全球首个推出“机器人税”的国家。在此之前,韩国政府对投资工业自动化设备的企业提供税收减免,根据企业规模不同,减免幅度在3%7%之间。韩国尝试“机器人税”的主要动因在于“机器换人”所导致的失业率上升。2017年,韩国工业机器人密度为每万名工人710台,居世界首位,是全球平均水平的9倍左右。机器人密度高导致韩国失业率居高不下,2017 年失业人口突破100万人,失业率接近4%,青年失业率达到10%,创有统计数据以来历史新高,而邻国日本的总体失业率仅为2.8%。美国旧金山的城市主管Jane Kim一直积极推动在该州实施“机器人税”,2017年成立了未来工作基金(Jobs of the Future Fund)的组织,开始着手进行实务层面设计讨论。201710月,英国工党领袖JeremyCorbyn建议征收“机器人税”,认为自动化是对工人的“威胁”,并希望利用税收收入为再培训工作人员筹集资金。


“机器人税”的税制设计


(一)概念界定


早在第一次工业革命时期,英国古典政治经济学的主要代表之一大卫·李嘉图就提出了“机器的使用最终造成工人失业人数相对日益增加”的观点。失业问题不仅仅是由于AI替代人工造成,也有一部分是由于普通的机器替代人工造成。那么,在征收机器人税时,必须确定怎样的生产设备才算机器人。如果不加以区分任意征收,势必会阻碍技术的发展。2017年,机器人之家的组织指出,至少必须先将AI 技术与自动化之间划清界线,否则“机器人税”将追溯到过去自动化资本的发展,必将引起业界负面情绪的严重反弹。目前的工业用机器手臂也非全部都应用机器学习等AI 技术,所以使用“机器人税”一词为名并不稳妥,有学者认为“AI 税”是更为贴切的概念。



(二)纳税主体


“机器人税”的纳税主体不是机器人本身,而是使用机器人进行生产并取得收益的企业。梁发芾(2017)指出不管机器人多么智能,它仍然是一种工具,并不具有财产权,当然不可能成为纳税主体,不可能成为纳税人。一些学者对“机器人税”面临的法律问题进行探讨,站在税法的立场,对机器人征税的最大问题在于法律上如何界定机器人,如果机器人能够被赋予独立的法律主体资格,它可以被当作独立的纳税人,像自然人或企业法人那样向国家纳税。但是,如果机器人并不具备独立的法人资格,它只能被当作隶属于自然人或企业法人的一种“资本”,“机器人税”在本质上仍然应当向机器人的生产者、销售者、使用者或拥有者征收。“机器人税”并非对机器人征税,而是对机器人拥有者征税,这实际上意味着征收资本利得税。




(三)课征方式


如何对机器征收是税制设计和方案的关键问题。Ryan & Bret2018)提出了五种方案来征收“机器人税”。第一种是取消企业所得税中资本投资的减免,韩国所谓的“机器人税”正是采取这一方案。第二种是征收一种额外的失业补偿税。第三种是增加对雇佣工人的税收优惠,当企业因为使用机器人而减少雇主在社会保障和医疗保险领域支出时,需要相应地对雇佣工人给予预期比例的“可以抵消的税收优惠”,以此激励企业雇佣工人。第四种是开征企业自我雇佣税,对于公司通过自动化技术应用而避免支出的社会保障和医疗保险支出,企业应当缴纳相同比例的“替代税额”。第五种是提高企业所得税的税率,通过税率的提升增加企业用于“资本投资”部分的成本,进而相对减少由劳动力负担的税收。课税方案选择需要从本国国情出发,考虑一国现有的税收体系和税收文化,只有最适合本国的征税方案才是最优的选择。


(四)税率设定


“机器人税”的税率设定可以调整收入分配关系,缩小熟练工人和非熟练工人之间的工资差距,但税率设计也需要考虑对企业创新动力和企业税收负担的影响。Zhang2019)研究认为,当使用机器人的行业存在一个受管制的工资率时,提高机器人税率将减少工资不平等,受管制的工资率会加大机器人使用行业对非熟练工人的需求,从而提高非熟练工人的预期工资率。在非自动化行业,为了留住非熟练工人,避免非熟练工人转移到工资更高的机器人使用行业,将不得不提高非熟练工人的工资率。在机器人使用行业,机器人税税率提高使得熟练工人工资率降低。因此,“机器人税”可以缩小熟练工人与非熟练工人之间的工资差距。从调节收入分配视角来看,对机器人征税不应该“一刀切”,可以根据行业特点、人力和自动化在效益中的比重来确定,设计类似于累进税的税制。



“机器人税”的争论焦点


(一)支持方:边增长、边分配


机器人代表着人类社会的进步,但关键问题在于新技术带来的收益并非均等地让所有人受益,新创造的价值和超额利润主要归于机器人所有者即资本家,而新事物引发的社会问题却主要由政府承担,最终可能是全体普通大众埋单,对机器人征税是有必要的。Korinek & Stiglitz2017)指出,尽管AI技术能够促进社会总财富的增加,但该技术在使一部分人受益的同时,必将使另一些人受损,难以实现“帕累托改进”,应当介入适当的税收政策,打造公平的收入分配格局。Robert Shiller2017)认为,要缓解“机器人革命”带来的收入差距,就必须重塑税制。“机器人税”的支持者更强调在经济增长过程中实现收益共享,即通过税收调节的方式贯彻边增长、边分配的理念和原则。归纳来看,支持“机器人税”的立场主要强调以下三个方面理由。


第一,保障劳动者福利,缩小贫富差距。机器人取代人类工作岗位可能导致中产阶级收入缩水,加速中产阶级消失,从而可能引发政治问题和社会动荡。征收“机器人税”可以减缓自动化发展的步伐,让社会有更多的时间去吸收被取代的劳动力,避免劳动关系恶化和社会矛盾冲突升级。刘邦灿(2017)认为,机器人取代了劳动者的岗位势必会影响劳动者的福利,向取代劳动者的机器人征税,实际上就是向机器人这一特殊的“劳动者”征税,从而确保劳动者的福利不会因为机器人大规模出现而大幅缩减,确保社会保障体系可持续运转,才能借助于机器人不断地缩短劳动者的工作时间,使劳动者享受科技进步带来的福利。Joao Guerreiro 2019)指出,在美国现行税制下,自动化成本的下降将导致收入差距的大幅增加,而通过提高边际所得税率和对机器人征税的方法,可以减少这种不平等。



第二,提高劳动者积极性,缓解失业风险。对机器的适当约束一定意义上就是保护劳动者积极性。蔡磊等(2018)指出,征收“机器人税”会增加使用机器人的成本,有利于缓解大规模失业、预防社会危机出现。2017年,韩国政府计划实施的降低自动化企业税收优惠的政策,旨在变相征收机器人税,目的就在于控制居高不下的失业率。梁发芾(2017)认为机器人税动议的核心在于机器人的大量使用替代了人工,使从事相关人力的劳动者失业,征收“机器人税”可以补偿他们的损失,提高劳动者的工作积极性。征收“机器人税”是一种引导社会走向良性创新的信号,而并非是简单的禁止。正如2017Bill Gates所言,“假如人们总体上对创新的畏惧多于热情,那是很糟糕的事。因为这意味着人们不会促使机器人往积极的方向发展。所以,征税比禁止机器人发展要好。”


第三,规范机器人产业投资标准,提高机器人产业发展质量。不少国家为了鼓励机器人产业发展出台优惠政策,中国许多省份也将机器人产业作为发展重点,给出优惠条件。谭浩俊(2017)认为,这一发展思路和模式往往不考虑技术含量,不注重核心竞争力,只要能够与机器人字面上挂钩就一概给予最大限度的政策优惠和扶持。正因为此,机器人产业逐步暴露出低端、盲目、无序的发展状态,征收“机器人税”可以适当提高机器人产业投资的准入门槛,消除机器人产业发展中无序竞争状态,引导机器人产业走向良性发展道路。


(二)反对方:先增长、再分配


代表资本方利益的机器人关联企业对“机器人税”首先表示反对。瑞士ABB集团总裁Ulr ich Spiesshofer2017)认为,对机器人征税就像对软件征税一样,它们都是代表先进生产力的工具,不应该对工具征税,应该对它们的产出征税。国际机器人学联合会也表示反对向机器人征税,“机器人税”会降低机器人行业的竞争力,阻碍技术创新和经济增长。美国前财政部长Lawrence Summers2017)认为只将机器人列为就业的“破坏者”毫无道理,影响就业的原因有很多,技术只是其中一个方面,不能由此单独对机器人征税。欧盟委员会副主席Andrus Ansip 2017)则强烈反对征收“机器人税”,对不好的习惯和行为如污染、吸烟、饮酒等征税可以理解和接受,但对于先进的事物和技术征税不容易被接受,科技进步能够创造的工作岗位会比其破坏的工作岗位多。“机器人税”的反对者更强调在确保实现经济增长的前提下再改善资本、技术与劳动之间的要素分配关系,遵循先将“蛋糕”做大再分配,或者先增长、再分配的理念和原则。综合来看,反对“机器人税”的立场主要强调以下三个方面理由。


第一,阻碍机器人和AI技术的创新。Noah Smith2018)认为,对机器人征税会直接增加创新成本,抑制创新投入,从而阻碍科技创新。过去十年来,发达国家经济增速减缓主要归因于技术进步放缓,全要素生产率增速下降。如果再对机器人征税,可能进一步减缓科技发展速度,发达国家经济形势将进一步恶化。早在1865年,英国出台《红旗法案》旨在限制代表当时最先进技术的汽车产业发展,直接导致汽车发展几乎陷于停滞状态。对机器人征税可能会使“《红旗法案》效应”再次上演,从而丧失机器人和AI发展的大好时机。从科技进步视角来看,一些学者认为征收“机器人税”是历史的倒退。目前对机器人征税为时过早,在机器人发展的萌芽阶段仓促出台“机器人税”势必会抑制创新,甚至会影响到整个国家的创新能力和可持续发展。




第二,机器人和AI技术具有“就业创造”效应,“机器人税”将产生就业损失。机器人的出现使人们的工作环境更加安全,提高了生产力,创造了就业机会,征收“机器人税”将产生较大负面效应。2018年普华永道发布研究报告《AI和相关技术对中国就业的净影响》显示,AI及其相关技术在未来20年可能创造约12%的净增岗位,机器人的“就业创造”效应要超过“就业破坏”效应。“机器人税”征收将阻碍新技术应用以及新兴部门扩张,最终也将带来新岗位损失。


第三,税收标准难以确定,存在经济扭曲问题。目前机器人的种类繁多,操作层面上征税标准难以明确界定,“税收”支持的对象也难区分哪些是因技术而失业的人,哪些是自愿性失业的“懒汉”。税收必须与某些能表明纳税能力的经济活动相关联,而且一旦与税收挂钩,这类经济活动都会受到不同程度的抑制。Robert Shiller2017)对于“机器人税”产生的经济扭曲存在担忧,他认为除了“一次总付税”之外,即所有人不论收入高低一视同仁地缴纳相同金额的税金,其他所有的税种都会引起不同程度的经济扭曲,造成经济效率损失,但显然“一次总付税”对于低收入群体影响最大,缺乏收入再分配调节作用的税收往往缺乏民众基础。



“机器人税”在中国的前景


“机器人税”的争论反映出不同人对于新技术革命的认识和态度,其本质仍然在于公平与效率、增长与分配的理念差异。


“机器换人”自18世纪工场手工业向社会化大工业转型时期便已出现,从古典经济向二元经济、再向新古典经济转变的历史经验表明,经济发展方式转变和要素关系变化决定了收入分配格局,当劳动廉价、资本稀缺之时,资本占主导地位,收入差距会扩大,收入分配理念和制度偏向于资本家,而当资本边际报酬递减、劳动相对稀缺之时,劳动地位增强时,收入差距趋于缩小,收入分配理念和制度自然又偏向于劳动者。进入新经济时代,在新技术推动下资本的作用再次放大,资本边际报酬递减规律被打破,劳动阶层内部出现分化,收入差距持续扩大,传统再分配手段出现失灵。AI时代的劳资关系更加微妙、收入分配问题也更加复杂,“机器人税”从构想走向全面实施可能还需要较长的路程,但不失为新技术时代重构收入分配格局的重要探索。


中国仍属于发展中国家,科技创新水平尚处于追赶阶段,但不可比拟的市场规模优势为机器人和AI 发展提供广阔前景。根据国际机器人学联合会公布的数据显示,中国是机器人密度增速最快的国家,自2013年就成为世界上最大的工业机器人消费国,贡献了全球超过三分之一的份额。而且,中国工业机器人的渗透率相对于发达国家仍然偏低,2017年中国每万名工人配备的工业机器人数量为97台,较之于领先者韩国(超过700/ 万人)、新加坡(超过600/ 万人)、德国和日本(均超过300/万人)等国家仍有较大差距,这也意味着中国仍有较大的发展空间。新技术变革和应用加速经济结构转换步伐,新经济新就业快速扩张的同时,劳动力市场也出现分化迹象,能够适应新技术需求的岗位将从中受益,实现就业质量提升和工资水平增长,不能顺应技术变革的群体将面临被淘汰的风险。“机器人”在中国方兴未艾,“机器人税”在中国的探讨也正当其时。




“机器人税”在中国的设计方案有必要将弱势群体的就业支持放在优先重要位置。以农民工群体为代表的低技能、劳动密集型行业、常规重复性岗位正在被机器人加速替代,国家统计局公布的数据显示,2018年农民工从事制造业比重为27.9%,较上年下降了2个百分点。根据中国社科院联合课题组20152018年实施的三轮中国制造业企业—员工匹配追踪调查显示,制造业企业中使用工业机器人和数字控制技术(NCT)的覆盖率已经达到18%,这类企业中一线生产工人需求下降了19.6%。根据计量经济模型估计表明,机器人和AI新技术应用对制造业总体就业需求负面冲击达到3.5%,这其中以农民工就业岗位为主,机器人和AI新技术应用平均每年替代160200 万农民工制造业岗位,“十三五”期间大约替代了8001000万农民工制造业岗位。农民工群体是劳动力市场中脆弱群体,根据中国社科院课题组最近完成的第四轮城市住户抽样调查显示,农民工被城镇职工社会保险制度覆盖的比例仅有20%左右,平均每5个女性农民工就有1个人的工资水平低于最低工资标准,受制于城乡分割的社会保障制度,农民工失业后难以在城镇享受失业保险金和就业援助。“机器人税”设计不仅仅要关注如何征收,更应该关注如何发挥其保护弱势劳动者权益的作用。


“机器人税”的设计思路要致力于实现劳动与资本、技术之间利益关系再平衡,为构建更广泛、更适用的社会安全网提供必要的资源支撑。AI等新技术将替代大量普通劳动者,与就业关联的社保体系遭受冲击,普通劳动者的社会保障权益影响最为突出。目前中国社保体系面临人口老龄化和新技术冲击的双重压力,“俾斯麦模式”的社保筹资基于稳定就业者的工资税,财务可持续问题日趋突出,未来筹资方向有必要考虑从“人”转向“技术”和“资本”,目前划拨部分国有资本充实社保基金正是向“资本”筹资的重要举措,“机器人税”可以考虑作为新的社保筹资来源,通过分享技术变革的收益维持社保体系可持续运行,从而补偿劳动者损失。


“机器人税”在中国应用要结合自身税制特征。以间接税为主是中国税制的重要特征,这其中增值税是主要构成。“机器人税”归根到底是要对资本征税,中国“机器人税”的征收方式可以结合自身税制特征,倾向于研究设计一个“机器人增值税”。同时,“机器人税”实施需要相应的配套举措。Noah Smith2018)建议,除了征收“机器人税”,还可以设立一只主权财富基金,政府可以购买公司的股份,要求公司给政府一定比例的股份,通过此种方式让全体居民分享技术进步的收益。“机器人税”可以与创新性的社会保障政策相结合,例如“机器人税”所筹集的资金主要用于全民基本收入(Universal Basic Income, UBI),UBI是由政府或公共部门提供,旨在无差别地面向全体公民的无条件现金保障机制,能够更好地包容受到AI等新技术影响的失业和非正规就业群体,UBI制度设计符合中国倡导的以人为本、共享发展的理念。



来源:中国发展观察
作者:张雪梅


编辑:冯梦玉



IMG_2693.PNG (1.52 MB, 下载次数: 13)

IMG_2693.PNG
304#
 楼主| 发表于 2019-11-12 22:50:09 | 只看该作者
【案例谷歌“夜莺计划”曝光:秘密采集数百万医疗隐私数据,医生患者毫不知情

原文来源:新智元

【新智元导读】今天,外网的一则新闻炸了。据外媒报道,谷歌在21个州秘密收集了数百万份患者病历,这项工作被称为“夜莺计划”,而医生和患者对该计划毫不知情。来新智元 AI 朋友圈和AI大咖们一起讨论吧。

今天,外网的一则新闻炸了:谷歌在美国21个州秘密收集了数百万份患者病历,被称为“夜莺计划”(Project Nightingale)。而且,医生和患者对该计划都不知情。

《华尔街日报》报道说,该计划搜集的数据包括“实验室结果、医生诊断和住院记录等,并包括完整的健康历史,以及患者姓名和出生日期”,而且谷歌可能有多达150名员工可以访问这些数据。

《纽约时报》证实了这一报道的大部分内容,并写道“数十名谷歌员工”可能有权访问敏感的患者数据,并且担心某些谷歌员工已下载了其中一些数据。

报道中透露,谷歌正在利用所搜集的数据设计软件,利用“先进的人工智能和机器学习”来定制个人患者的医疗服务。

谷歌长期以来对进军医疗领域野心勃勃。去年,谷歌聘请了一位负责医疗部门的高管来监督其许多医疗计划。大约在同一时间,他们宣布合并DeepMind Health部门,目标是创建一个“护士和医生的人工智能助手”。

此前,谷歌还被指控通过芝加哥大学医学中心不当访问数十万份医疗记录。谷歌于2017年与芝加哥大学医学中心合作开发的机器学习工具能够“准确预测医疗事件——比如病人是否住院,住院多久,以及他们的健康是否恶化,例如感染、肺炎、或心脏衰竭”。

“夜莺计划”:就诊立即被搜集数据,医生病人毫不知情

这项代号为“夜莺计划”的项目似乎是迄今为止硅谷巨头们以处理患者的医疗数据的方式进军医疗行业的最大努力。亚马逊、苹果和微软也在积极推进医疗行业,尽管他们还没有达成类似谷歌这样的协议。

内部文件显示,谷歌去年与美国最大的天主教医疗系统Ascension——包括2600家医院、诊所和其他设施——秘密地启动了夜莺计划,并且,自今年夏季以来,数据共享正在加速。

该计划涉及的数据包括实验室结果、医生诊断和住院记录等,并涵盖完整的健康历史,包括患者姓名和出生日期。

“夜莺计划”是如何获取和处理数据的呢?
首先,病人到医院、诊所或老年人护理中心就诊。

然后,医生/护士对病人进行检查,将数据输入电脑。

被共享的数据包括:
姓名
出生日期
地址
家庭成员
过敏史
免疫接种
放射学检查
住院治疗记录
实验室测试
药物
医疗条件

最后,数据立即流入谷歌的“夜莺计划”系统。这个系统会产生以下结果:

治疗计划、检查建议、标记治疗中的异常偏差。
为患者更换或增加医生的建议。
开药建议。
针对不同的程序收取更多费用。

根据《华尔街日报》,谷歌被指责的重点是,病人和医生都对这些一无所知。据一位知情人士透露,至少有150名谷歌员工已经获得了数千万患者的大部分数据。

谷歌欲创建先进AI医疗系统,亦是云部门增收手段

被曝光后,两家公司在一份新闻稿中表示,该项目符合联邦医疗法规,对患者数据进行了有力保护。

知情人士说, Ascension 内部的一些员工对数据收集和共享的方式提出了质疑,无论是从技术角度还是从伦理角度。但隐私专家表示,根据联邦法律,这似乎是允许的。1996年通过的《健康保险隐私及责任法案》一般允许医院在不告知患者的情况下与业务合作伙伴共享数据,只要这些信息“仅用于帮助受保实体履行其医疗保健职能”。

谷歌使用这些数据的部分目的是设计新的软件,该软件基于先进的人工智能和机器学习为基础,为个体患者的治疗提出建议。内部文件显示,Alphabet公司的员工、以及谷歌大脑的一些员工都可以访问患者信息。

谷歌云总裁Tariq Shaukat表示,公司在医疗方面的目标集中在“最终改善结果,降低成本和挽救生命”。

Ascension的执行副总裁Eduardo Conrado说:“随着医疗保健环境的快速发展,我们必须进行变革,以更好地满足我们所服务的人以及我们自己的医生护士的需求和期望。”

谷歌和非营利组织Ascension有着相似的财务动机。到目前为止,谷歌已经向夜莺计划派出数十名工程师,但没有收取任何费用,因为它希望利用这个框架向其他卫生系统销售类似的产品。文件显示,谷歌的最终目标是创建一个综合搜索工具来聚合不同类型的患者数据,并将所有数据都放在一个地方。

这个项目由Google Cloud部门执行,其市场份额落后于亚马逊和微软等竞争对手。谷歌首席执行官Sundar Pichai今年曾多次表示,为云计算找到新的增长领域是当务之急。

文件还显示,谷歌还希望挖掘数据,以确定患者可能需要的额外检查,或通过其他方式,让该系统从患者身上获得更多收入。

与许多硅谷同行一样,谷歌有时也因为在保护用户隐私方面做得不够而受到批评。去年9月,该公司旗下的YouTube部门同意支付1.7亿美元罚款,并改变做法,以回应有关其非法收集儿童数据以出售广告的投诉。尽管YouTube既没有承认也没有否认存在不当行为。

此外,去年,谷歌被曝没有向用户通知其社交网站Google+存在的一个漏洞,导致暴露了上千万用户的出生日期、联系信息和其他个人资料,部分原因是出于担心该事件可能引发监管审查。谷歌当时表示,决定不通知用户的做法超出了法律要求。

拉里·佩奇:担心自己医疗记录隐私的患者过于谨慎

监管机构目前正从多个方面对该公司进行审查。今年夏天,联邦和州调查人员分别对谷歌进行了公开的反垄断调查。知情人士说,联邦调查正在调查谷歌现有来自其搜索引擎、家庭音箱、免费电子邮件服务和许多其他产品的大量数据是否给该公司提供了相对于竞争对手的不公平优势。

谷歌表示,其产品增加了消费者的选择,并致力于配合调查。今年, Pichai宣传了针对谷歌数十亿用户的新隐私保护措施。

此外,谷歌本月宣布以21亿美元收购可穿戴健身设备生产商Fitbit。Fitbit生产可以跟踪人体心率等健康信息的手表和手环。批评人士警告说,收购Fitbit将让谷歌“深入了解美国人最敏感的信息”。

两家公司表示,他们将对收集的任何Fitbit数据保持透明。

谷歌在“夜莺计划”中分享信息的范围似乎比在其他医疗数据领域更广。今年9月,谷歌宣布与梅奥诊所签署了一项为期10年的协议,存储该医院系统的基因、医疗和财务记录。梅奥的官员当时表示,用于开发新软件的任何数据在与这家科技巨头共享之前,都将删除任何可以识别患者个人的信息。

谷歌成立之初的目标是组织全世界的信息,从一开始,医疗就一直是该公司高管们的兴趣所在。Google Health是一项将现有医疗记录数字化的初步尝试,在经过三年的采用后,于2011年被关闭。自那以来,Alphabet已向旗下Calico和Verily部门投入了数百万美元,这两个部门分别致力于对抗衰老和控制疾病。

谷歌联合创始人拉里·佩奇在2014年的一次采访中表示,担心自己医疗记录隐私的患者过于谨慎。佩奇说:“人们没有真正去思考,以正确的方式和正确的人共享医疗信息可能带来的巨大好处。”

编辑:吴悠

305#
 楼主| 发表于 2019-11-12 22:55:34 | 只看该作者
【案例经济日报聚焦人脸识别:是否安全?边界何在?

原文作者:陈静
原文来源:经济日报
原文链接:https://m.thepaper.cn/newsDetail_forward_4931487?from=groupmessage&isappinstalled=0

在河北邯郸市滏东美食林超市,一名消费者正展示“刷脸支付”后打印出的购物小票。 (新华社发)


日前在上海举行的GeekPwn2019国际安全极客大赛上,两位选手在参加人脸识别攻击模拟赛。 新华社记者 陈建力摄

属于计算机视觉的人脸识别,几年来取得了突破性进展,成为人工智能最热门的风口之一——刷脸支付、刷脸取快递、刷脸安检、刷脸入住酒店……“靠脸走遍天下”正在成为新技术带给人们生活和工作的“新常态”,一个个新的应用场景被开发出来。

因为不满动物园强制入园“刷脸”,浙江理工大学特聘副教授郭兵将杭州野生动物世界告上了法庭,理由是“保护隐私”。围绕这起“人脸识别第一案”,人们展开了对人脸识别技术边界的大讨论。

如今,我们的脸成了钥匙、公交卡、身份证……来自国金证券行业研报显示:全球40%的人工智能企业都涉及计算机视觉。另有市场咨询公司预测,2019年全球人脸识别市场的规模预计为32亿美元,到2024年该市场规模将达到79亿美元,复合年增长率高达16.6%。

但是,花海之下亦有荆棘。今年8月,人工智能换脸应用“ZAO”因违规收集人脸信息引发风险争议;今年9月,旷视科技因为几张演示教学监控人脸识别应用的PPT被骂上了微博热搜。全球范围内,争议同样存在,亚马逊的人脸识别门铃专利因涉嫌侵犯隐私遭到强烈抗议,微软则索性删除了自己最大的人脸识别数据库。

在隐私、安全和便利三者的平衡上,人脸识别技术到底应当恪守怎样的“游戏规则”?

“不知不觉”的“识别”

杭州野生动物世界对郭兵的回复颇有意思,动物园称,之前郭兵办理年卡时已经登记了真实姓名、电话、住址和身份证信息,甚至采集了指纹,“为什么只有人脸识别算作侵犯隐私呢?”

这实际上说出了公众对人脸识别的担忧之一。尽管都是生物识别手段,但指纹识别必须当事人主动配合,而人脸识别却可以“悄无声息”完成。一旦人脸信息被泄露或者滥用,就意味着个人合法权益有可能不知不觉地遭受侵害。

一系列对人脸识别的争议正来自这个“不知不觉”。比如人脸识别在教育领域中的应用,此前,中国药科大学表示要试点在教室安装摄像头刷脸考勤,并对学生课堂听课情况全面监控。“这些应用的做法很类似,就是每隔一段时间用摄像头扫描一次学生的脸,采集和分析他们的姿势、表情,并以此作为判断的依据。”教育部科学技术司司长雷朝滋随后回应称,要对人脸识别或者肢体识别的教育应用加以限制和规范,并希望“学校慎重使用”。

那么,从法律上讲,人脸信息到底如何定义?中国政法大学传播法研究中心副主任朱巍对此解释说,根据《网络安全法》相关规定,人脸识别信息属于“直接可识别”到个人身份的信息。所以,“人脸识别信息的性质并非知识产权的大数据,而是被依法纳入到隐私法范畴的个人敏感信息”。

在保护个人隐私方面,使用人脸识别信息的大原则也正是与“不知不觉”相对应的“知情同意”。中国法学会消费者权益保护法研究会副秘书长陈音江表示:“经营者必须要在确保信息安全的前提下,事先经过消费者同意并告知其使用方式和使用范围后,才能采集人脸信息。”朱巍则补充说:“用户应充分知情,并保障自己的选择权和退出权。此外,用户应享有删除权、更正权、控制权和注销权,这些基本权利是个人信息合理使用的前提。”

“刷脸”是否安全

除了对隐私的担忧,公众对人脸识别技术另一方向的忧虑来自于技术本身的安全。此前,浙江小学生发现打印照片就能代替“刷脸”,骗过小区里的丰巢快递柜的新闻,似乎正是其“不靠谱”的写照。

但果真如此吗?与对隐私的担忧相比,对“刷脸”技术本身安全性的忧虑却有恐慌之嫌。有人脸识别专家告诉经济日报记者,实际上快递柜能被照片蒙骗,主要是因为其中并未加入活体检测技术,“如今连活体检测都不用就敢‘放出来’的人脸识别技术应用相当罕见”。

从技术本身来看,目前人脸识别分为2D和3D两种技术方案,以支付宝和微信的“刷脸支付”为例,两者使用的都是3D人脸识别技术,会通过软硬件结合的方法开展检测,来判断采集到的人脸是否为活体,可有效防范视频、纸片等冒充。

银行卡检测中心金融科技研究室主任李博文表示,拿支付场景来说,人脸识别必须包括活体检测、终端安全、辨识算法和信息保护几项技术,“按照《人脸识别线下支付安全应用技术规范(试行)》,在万分之一误识率下的识别通过率为98.3%,十万分之一误识率下的识别通过率为98%”。这就意味着,机器识别的准确性超过人工。

“人脸识别服务商还通过诸如绑定设备,有人值守应用场景和多维校验方式增强人脸识别安全性。”奇安信网络安全研究中心主任裴智勇表示。

然而,人脸识别技术本身的安全与数据安全又不是一回事。人脸识别技术供应商瑞为科技首席技术官何一凡表示,安全问题可能并不与人脸识别这样的生物识别技术直接相关,而是在线上服务和交易系统中对敏感数据采集、存储、使用以及共享等环节出现的问题,“这就和所有的信息泄露一样,属于系统安全问题”。

答案并非“三选一”

既然如此,为了保护隐私和安全,不“刷脸”不就行了吗?

然而,《关于防止未成年人沉迷网络游戏的通知》刚刚下发,其中规定“每日22时到次日8时不得为未成年人提供游戏服务”,如何真正令行禁止,依然要靠人脸识别。多家游戏厂商已表示,在原有身份证认证的基础上引入人脸识别技术,以加强关于网络游戏账号实名注册的监管。

在深圳,去年有超过一万名退休老人通过“刷脸”领取养老金。“百姓少跑腿,数据多跑路”,“刷脸”在多项“互联网+政务”服务中完成着其他技术难以取代的重要工作。在新技术快速推广和使用的过程中,隐私、安全和效率“三选一”,答案并非真能如此简单粗暴,真正有效的方式是找到三者之间平衡的那个点,画下一条“红线”。

这条线当然来自企业自律。腾讯方面曾表示,在支付场景的人脸特征采集,要坚持“用户授权、最小够用”原则,提前告知信息使用的目的和方式,明确获得用户授权同意,避免采集与需求无关的特征,同时坚持“表达意愿、严格确权”原则。

这条线更应该来自监管。目前,各国都在尝试用法律为人脸识别技术的应用指引方向。在我国,《个人信息保护法》也已被纳入十三届全国人大常委会立法规划。西南政法大学副教授蔡斐表示,在法律框架下,对人脸识别技术的大规模使用可以提出“必要性原则”“比例原则”“正当程序原则”,甚至在某些特殊场景下考虑设立禁用“黑名单”制度,用制度的刚性来确保“科技向善”。

中国警察法学研究会反恐与网络安全治理专委会常委副主任秦安则表示,在应用场景之外,对人脸识别服务商的技术安全,同样应该有硬性规定来确保相关安全制度的建立。
编辑:吴悠


306#
 楼主| 发表于 2019-11-12 23:00:26 | 只看该作者
谈天说地】【人工智能】剑桥未来智能研究员:人工智能伦理在东西方的 8 大差异

原文来源:智酷实验室
原文链接:
https://www.toutiao.com/i6754980501741666823/?wxshare_count=4&from=timeline×tamp=1573506408&app=news_article&isappinstalled=0&req_id=201911120506480100120651451898C257&group_id=6754980501741666823&pbid=6699053120973374989

10 月 31 日,由北京智源人工智能研究院主办的 2019 北京智源大会在国家会议中心开幕,会期两天。智源大会是北京创建全球人工智能学术和创新最优生态的标志性学术活动,定位于“内行的 AI 盛会”。在下午的《人工智能伦理、安全与治理专题论坛》分论坛上,剑桥大学未来智能研究中心研究员 Danit Gal 在演讲中表示,由于在管理方式、文化、社会等方面的一些根深蒂固的差异,东西方在人工智能伦理方面存在很多不同点,其主要体现在可及性、责任性、控制性、公平性等方面。人工智能伦理在全球范围内更好地分享和落地需要因地制宜,必须要考虑东西方、每个国家文化和社会的不同,不管你使用的是什么样的高端技术,我们需要在背后有一个标准,希望我们的技术在足够强大的同时,也能确保人们以一种正确的方式来使用这些技术,这是我们的终极目标。

Danit Gal 演讲主要围绕人工智能伦理在东西方的差异展开。

实际上在很多情况下,东方是从上到下的管理方式,而西方是从下到上的管理方式。这两个基本的差异会造成很多根深蒂固的文化及社会差异,体现在人工智能伦理方面,东西方亦有诸多不同。

第一点是可及性。我们要确保我们的技术是可及的、可用的,且为全世界的程序开发者所使用。理想的情况下,是全球的人都能使用这样的技术。举个例子,我们不同的数据库里有不同的解决方案。比如说,在中国有不同的数据库,不同的公司也有这样的数据库。如果这个公司想要获得额外的数据,它需要向政府申请,由政府来批准。在西方,我们有不同的公司,有不同的数据库,但谷歌的数据库不会跟苹果分享,虽然有些数据是可以分享的,但是他们的代码是不会分享的。我个人觉得中国的网络安全法更加重要,要优于西方的这些网络安全法。

第二个是责任性。我们要保证我们这些行动和行动所造成的后果是可追溯的。我们要知道这个中间的操作机构应该负起什么样的责任以及谁应该负这样的责任。一个好的例子就是我们现有的这些责任模型的不同。拿滴滴和优步举个例子,旗下司机都发生了谋杀事件,发生这样的事件后,滴滴关掉了它的平台,重新改善之后引入了一个新的管理机制。因为这个是政府强制他们这样做的。

优步也这样做,但它做的路线完全不同。他们只是确保相关的事件不会再次发生,优步并没有把它的平台彻底关掉,进行彻底的改善,他们只是进行了局部的“修饰”。比如说有些好的实践,有些不好的实践,他们避免了不好的实践,保留了好的实践。而中国政府会把一些 APP 列入“黑名单”,把它彻底删除。这些 APP 如果想重新进入市场,需要经过政府的批准。

第三个是可制性。我们这些使用技术的人要能够控制技术。举个好的例子,对于“人对于机器控制的层级架构”,这里的“人”是谁? 可能是一个公司的技术开发负责人,他应该是最终做决策的。但是在韩国,它有一个决策的层级,在一个特殊的场景中这个人可以做决策,但这个人的上级还有上级,上级还有上级,比如说可能 CEO 是做最终决策的。

因此,我们要了解,不同的社会有不同的架构,不同的社会当中最终做决策的那个人是不同的。我们在这个方面要作充分的考虑。

第四个是可解释性。我们必须要知道我们这个技术是可以解释的、可以被审核的、可以找到因果关系的。比如说,AI 做了一个决定,那谁应该负责任?AI 应该负责任,还是开发者负责任?在一些国家,有观点认为,AI 做出的决策是自动的,应该修改 AI,应该让 AI 负责任。但是,实际上开发这个 AI 的人不需要负责任。

在其他的国家,AI 的开发者和 AI 的使用者都会负一定的责任。这些 AI 的使用者必须要确保他们对 AI 有充分的了解才能使用,所以,他们也需要承担一定的责任。AI 的开发者也需要承担一定的责任,比如当有些不符合伦理的事情发生时,这些开发者必须要负一定的责任。这样做的前提条件就是 AI 的开发者必须要有强大的理解力、强大的技术力、强大的控制力。所以这是一个闭环的追责制。有了可解释性,我们就可以界定谁来负责任,到底是 AI,还是人。但是要做到这一点非常不容易。

第五个是公平性。我们要确保我们的技术是公平的,不会造成一些偏见和不公平的情况。如果一个国家的总人口中有 95% 的人来自不同种族,而另外一个国家基本上人人都来自同一个种族,这两个国家的人口种族分布情况是不一样的。因此,在全世界范围内应用同样的 AI 系统时,我们必须要进行不同的讨论。对具有很大异致性的国家,在设计的时候,我们必须要有针对性的考虑。

第六个是以人为中心。我们要确保我们的设计是以人为中心的。在日本我们有一个例子,日本有一个“社会共同发展 6.0”,谈的是人的尊严以及技术发展具有同等的重要性。现在,我们必须要理解人的未知在哪里,技术的未知在哪里。

就像在南韩,他们有一个人机之间决策的架构和层级,而其他国家却没有这样的架构。所以,我们要明确的是,技术的发展要有人的参与,如果没有人的参与,这个技术就毫无意义。只有把人和技术放到一起的时候,才能为这个技术更好地赋能,更加有力。

第七个是技术或者个人信息的保护。比如我们有一些个人的数据可能在网上都被滥用了。在中国也有数据滥用的状况,为此,中国政府出台了很多的法律法规、很多的政策来保护人的信息安全。如果出现违法使用个人信息的情况,那这些信息一定要被删除。在西方国家不太一样。在西方,谁来保护人们以及“谁是人们”这样的定义是不一样的。这不意味着西方的人没有隐私,而是我们的隐私定义不同。

最后一个是透明性,我们要确保技术的使用是透明的、可追溯的。它对用户透明,还是对政府透明?还是对其他的公司透明?谁需要这么高水平的透明性?

在中国,透明的级别非常直截了当,那就是要对政府透明。亚马逊、谷歌和脸书之间的透明性如何?我们如何防止透明性不够的状况?假如在国会中,有人对扎克伯格说你们公司的透明性不够,在这种情况下,我们谁对此负责,谁应该确保这种透明性?在中国我们是对政府透明,而不是对用户透明。那我们如何确保不同的机构之间都是透明的?如果能做到足够的透明,各个机构就能够知道自己的数据被如何使用。

最后,我想跟大家分享三点:

首先全球通用的这些 AI 伦理原则,它的理论解释其实是一样的,但它们在各个国家落实的情况不一样,但这种落实是一件好事,因为我们有一个全球共享的 AI 伦理理念并不意味着每个国家都应该以同一种方法来行使这样的技术或者是确保这样的伦理,各个国家应该考虑自己的不同情况,需要因地制宜。

第二点是,连接东西方或者是弥合东西方的 AI 伦理鸿沟的下一步是应该基于我们各自国家的特殊的情况以及对于技术的不同的解释,且把我们自己国家的情况放到国际的层面上进行讨论。也就是说,我们要确保如何在全世界、在不同的国家以不同的方式来落实这样的决策。可能这个国家有 A 模型,这个国家有 B 模型,我们使用了同样的方法,使用了同样的模型,但是各个国家对于这个体系的解释是不一样的。

第三点,为了了解 AI 伦理的不同,我们必须要考虑文化和社会的不同。不管你使用的是什么样的高端的技术,我们需要在背后有一个标准,我们希望技术足够强大,同时也能确保人们以一种正确的方式来使用这些技术,这是我们的终极目标。

编辑:吴悠
307#
 楼主| 发表于 2019-11-12 23:20:46 | 只看该作者
谈天说地】【人工智能】Magi,百度的代替者?

原文作者:任梦岩  
原文来源:科技富能量  

最近各大媒体都在推荐一个全新的搜索引擎Magi(网址 https://magi.com):


它和你印象中的所有搜索引擎都大不相同。

比如用它搜索词条「易烊千玺」时,会得到这样的结果。

首先,它会提供几个对易烊千玺的关键描述,如「TFBOYS 的成员」、「00 后国民偶像代表」等。紧接着,它列出了关于词条主人的几乎全部的重要属性,包括由他出生年月、参演的影视作品、发表的音乐专辑等。

更有趣的是,magi.com 还答出了易烊千玺的几个近义项,比如他的昵称、代称和他所养的宠物等等。

百度最大的弊端就是,虽然内容全,但会有很多广告和诈骗内容。著名的“魏则西案”不说,就连百度头条都能搜索到“假快递”让人匪夷所思。
为了确保搜索结果的准确性,在Magi搜索到的答案,每一条都会用以绿、黄、红三种颜色表示其可信度从高到低;在答案的右侧则会提供几条链接,用鼠标划过它们即可看到,答案是从哪个/哪几个具体的来源学习到的:
最主要的是,Magi的结果里,答案在正下方,链接跑到了右边,跟主流搜索引擎的用户界面完全是反的。

这就是 Magi 和百度最大的区别:链接对于它不是结果,答案才是。

其实 Magi 并不是传统意义上的搜索引擎,而是一个基于机器学习的知识引擎,它通过检索网络的自然语言文本,将其中的知识提炼出来,形成结构化数据。也就是说,Magi代替的,不是百度,而是百度百科(所有人都能编辑,不靠谱内容很多。)

比如:搜索自己的名字,都是一些有的没的,百科还没有,我自己能瞎编:

但是Magi,给出了现成的例子,来源更加广泛,至少确认,我是记者:

Magi 想要解决的问题是:从开放领域的纯文本当中提取知识,并让其可解析、检索和溯源。

Magi 来自中国团队 Peak Labs,创始人季逸超在开发者圈子内也小有名气。

Peak Labs 并没有计划将 Magi 和 Google、百度之类的主流搜索引擎相提并论。把 Magi 做成一个「搜索引擎」,主要是为了让公众有机会能够体验它背后的技术,感受它能够提供的价值。

即便如此,看起来很像搜索引擎的 magi.com,实力还是不容小觑。事实上,为了这个示范性质的产品,Peak Labs 并没有选择小聪明的方式,从其他搜索引擎抓取结果,而是从零开发了一套互联网搜索引擎。

根据用户输入问题、关键词和表达式的不同,Magi可以用不同的方式来呈现答案——具体的呈现方式也展现了 Magi 系统的能力。

比如,输入「打车软件公司」,Magi 系统可以把它知道的所有手机叫车公司,以「集合」的方式列在答案里。

而在百度上,得到的结果如下。可以看到百度的知识图谱也提供了类似的结果,只是看起来有四、五年没有更新过了(还有快车呢!):
再比如,如果输入「八角 大料」,Magi 系统会发现这两个关键词其实是同一个东西,它就会以「断言」的形式给出答案。
八角和大料是「近义项」,是「又称」、「也称」的关系。

Magi系统可以 24 小时不间断地进行学习。它的时效性也还算不错,Peak Labs宣称实时新闻当中的知识,Magi只需要5分钟就可以掌握,而且还可以采纳新的信息源进行交叉验证,实现自动纠错。

如果你在 Magi的首页停留一会,就能看到它当前正在学习的链接:
除了自主开发的全网规模搜索引擎以外,Peak Labs 还开发了基于注意力机制的神经信息提取系统,不依赖无界面浏览器的分布式抓取系统(爬虫程序 MagiBot),以及支持混合处理 170 多种语言的自然语言管道。

这四者结合在一起,才是 Magi 系统的全貌。
说不定某一天,你打开浏览器的第一件事儿,就变成了上Magi?
编辑:吴悠

308#
 楼主| 发表于 2019-11-12 23:29:05 | 只看该作者
谈天说地】【人工智能】技术预见,遇见善的人工智能



原文作者:斯蒂芬·弗利  
原文来源:博古睿研究院


富裕的慈善家们有一份“问题”清单,上面列满了那些关乎人类存亡的种种威胁,如灾难性的气候变化及流行疾病等。现在这份清单有了新的补充——与人类创造者或将背道而驰的人工智能机器。


人工智能可能会构成“比核弹头大得多的威胁”,电动汽车制造商特斯拉的创始人埃隆·马斯克(Elon Musk)如是说。作家詹姆斯·巴拉特(James Barrat)认为,拥有学习能力却无法对人类感同身受的超人般的人工智能,很可能成为人类最后的发明。


即使机器不会终结人类,我们也有足够的理由担心人工智能将被用以“作恶”。该领域的技术进步如此迅速,而且很明显,对其后果进行透彻预判早已超出了我们的能力范围。


诸如面部识别和能够自主工作的无人机等先进技术,已经将人工智能在战争领域的“潜力”展露无遗,这引发了谷歌等人工智能领域企业员工的担忧。由于内部反对的声音明确而且坚定,谷歌去年叫停了可能用于武器研发的人工智能技术。这也许会让谷歌总部的火药味变得不再那么浓,但人工智能领域的军备竞赛不可能就此止步。



由于目前从事这一领域科研工作的科学家缺乏足够的多样性,舆论还担忧人工智能是否会加剧种族偏见、性别歧视和其他偏见;以及当机器人可以从事人类的大部分工作时,社会将会何去何从?而这些似乎都意味着,慈善家们应该将资源用于推进有关人工智能道德伦理,和站在现在看未来——展开对先进技术发展后果的探讨;以及促进科学、商业和政府,引导人工智能朝着正确、积极的方向发展。此外,慈善家们纷纷将目光集中于人工智能领域的另一个重要原因,就是这个领域本身所具备的吸引力,而这一原因却往往为人们所忽视。


黑石集团(Blackstone)创始人史蒂夫·施瓦茨曼(Steve Schwarzman,又译:苏世民)向牛津大学捐赠1.5亿美元,其中一部分资金将用于“人工智能伦理研究所”的创建。今年6月,施瓦茨曼在接受《福布斯》专访时解释了原因。他表示,自己想成为这次对话的一部分,帮助人工智能系统有能力对自身进行规范与调节,让只想过平常生活的普通民众不至于处于弱势地位。进一步展开,如果(一个人或一些事情)扰乱了人们的日常生活,税收收入就会降低,社会成本从而增加,选举模式也可能会改变……而这些可能会危及国家的根基,并破坏西方民主思想和生活方式。去年,施瓦茨曼向麻省理工学院捐出了一笔更大的资金,支持在那里打造一个全新的人工智能研究中心。


这些出资或许让施瓦茨曼成为了目前世界上对人工智能领域投入最大的捐赠人。在这一领域投资巨大的慈善家还包括eBay创始人皮埃尔·奥米迪亚(Pierre Omidyar),在定居洛杉矶前被称为“无家可归的亿万富翁”的尼古拉斯·博古睿(Nicolas Berggruen),以及领英创始人雷德·霍夫曼(Reid Hoffman)等。然而,在人工智能领域,慈善的力量仍然是有限的。


霍夫曼是OpenAI项目的最大支持者。这个规模巨大的项目是马斯克在旧金山设立的,但他随后离开了这个项目,称该项目与特斯拉的自动驾驶汽车产业存在冲突。OpenAI在创始之初是一家非营利组织,致力于打造一个具有人脑规模的神经网络,即所谓的“通用人工智能”。公司希望通过对其研究成果进行开源处理,使其成为人工智能得以安全而符合道德规范发展的蓝图。


但这也使OpenAI与其他大型科技公司产生了直接竞争,而后者们拥有可以为科技人才和超强计算能力“买单”的资源与财富。去年该公司转向了营利性架构,称其需要数十亿美元的投资。今年夏天,微软向OpenAI注资10亿美元,以帮助后者使用微软的云计算服务Azure。


在人工智能领域,慈善资金的最佳用途似乎是道德伦理领域,而不是技术开发本身。博古睿先生每年出资100万美元作为“博古睿哲学与文化奖”奖金,他似乎成为最热衷于这项事业的人。博古睿研究院“人类变革”项目将哲学家与艺术家置于各种重要的研究场域,以促成他们与技术专家开展对话,旨在“促进人类与非人类的共同繁荣”。而谈到慈善事业,机器人领域可能也需要资金上的支持。


* 英文原文《Philanthropists should treat AI as an ethical not a technological challenge》发表在《金融时报》, 2019年9月5日。


编辑:吴悠

309#
 楼主| 发表于 2019-11-13 20:52:17 | 只看该作者
【案例】(心理角度)人类对机器人存在合作偏见
编辑:吴悠

310#
 楼主| 发表于 2019-11-14 22:22:41 | 只看该作者
【人工智能】
高鸿钧:《黑客帝国》的隐喻:秩序、法律与自由
本文由远见塔选编
作者:高鸿钧
"社会理论之法"的论题中提及《黑客帝国》,犹如在麦当娜的话题中扯上麦当劳,似乎离题太远。然而,当我们注意到以下线索,就会觉得这种联想也许并非牵强附会。在那部影片中,一个黑客去同尼奥私下交易,尼奥从一本掏空的书中拿出一张非法软件,《拟像与仿真》的书名随之闪现。
这个特写镜头暗示影片与作品的潜在联系,也传达了导演对该书作者的敬意。该书作者是是当代社会理论大师鲍德里亚,导演卓斯基兄弟是他的书迷,影片立意、话语和意象无不闪烁着鲍式的思想、洞识与灵感。
另一个线索是,德国的托依布纳是卢曼社会系统论和法律系统论的得力传人,他在《匿名的魔阵:跨国活动中"私人"对人权的侵犯》一文中,所使用的"魔阵"一词是Matrix的中文译名,而Matrix恰是"黑客帝国"另一种中文译名,两者都是对现代社会的隐喻。
1
Matrix是什么?它是母体,是魔阵,是系统,是控制。它是我们最大的敌人,置身其中,四处一望,我们可以见到官员、商人、教师、律师、木匠以及其他芸芸众生。Matrix无处不在:当我们置身办公室、课堂、会场、股市、网络、厕所以及睡梦中,它都如影随形,跟踪着我们,控制着我们。正是这个Matrix蒙骗了我们的眼睛,使我们看不见真相,麻醉了我们的神经,使我们觉察不到虚假。
它禁锢了我们的大脑,使我们失去了反思意识;束缚了我们的手脚,使我们丧失了反抗能力。我们处在战时,却误以为和平;成为了奴隶,却误以为自由;拥抱愚昧,却误以为追求真理。于是,战争即和平,自由即奴役,无知即力量。
在这个系统里,我们是一段被编码的程序,代码决定了我们的功能,架构决定了我们的选择范围。在那里,我们选择程序和被程序所选择,我们甚至选择了超出自己理解能力的选择,而对于选择的真正考验就是再次做出同样的选择,因为人们或者不能预测自己的选择结果,或者对他人的选择结果不能预测。
我们有时知道应该怎样选择,却不能那样选择,有时虽然知道能够那样选择,但又不知道怎样选择。这是一个选择的世界,没有管辖、没有控制和没有界限的世界,一个什么都可能发生的世界,选择就是一切。关键不在于选择什么,而在于使人们感到是自己在选择;关键不在于事实是什么,而在于使人们相信事实是什么。
在这个系统中,没有价值而只有程序,正如景观社会没有本真而只有模拟。程序驱动程序,程序复制程序,程序打劫程序,程序删除程序,程序就是一切,正如模拟复制模拟,模拟盗取模拟,模拟覆盖模拟,模拟就是一切。程序与模拟产生诱惑,诱惑源于诱因,诱因产生意义。没有意义就没有我们的存在,意义创造我们,链接我们,操纵我们,指引我们,驱动我们;意义规定着约束我们的意义,决定着我们所追求的意义。意义即游戏,游戏而陶醉,陶醉而眩晕。
意义自有原因,于是我们去理解各种原因,是原因区别了我们和你们、你们和他们;区别了文明与野蛮、进步与落后;区别了过去与未来,现实与理想。原因是力量的源泉,没有它就没有力量。
然而,原因很快就不再重要,重要的只剩下感觉。感觉是对结果的品味,品味来自刺激,刺激源于诱因,于是我们都是刺激的俘虏和诱因的猎物。凡事都有定期,万物都有定时,生有时,死有时,播种有时,收获有时。有时天行有常,种瓜得瓜,种豆得豆;有时天秩失序,种下龙种,收获跳蚤,孵下凤蛋,跳出秃鹫。只要已经发生的事情就是应该发生的事情,而应该发生的事情未必将会发生。社会是另一种自然,人性是另一种动物性,法律是另一种政治,代码是另一种法律。
Matrix是一个主机控制下的系统网络,人们一旦与之链接,就不愿断开,许多人已然适应而且上瘾,离不开这个系统,转而会捍卫它。于是,我们宁愿选择红药丸,生活在虚假的感觉奇境中,而不愿选择蓝药丸,寻找荒漠的真实世界。在那个奇妙的世界,我们都可能既是受监视者又是特工,既是受虐者又是施虐者,既是人质又是恐怖分子,既是自己又是自己的敌人。
上述语言和情景不是《黑客帝国》写照吗?那是一个虚幻的世界,一个机器控制的系统。然而,这不禁使我们联想到边沁的"全景敞视监狱",韦伯的"铁笼",福柯的"规训社会",卢曼和托依布纳的"自创生系统"。在边沁那里,"全景敞视监狱"是控制囚犯的完美设施;在韦伯那里,自由的生命个体在算计和博弈中,最终却落入了形式理性的牢笼;在福柯那里,宣称解放的人类,最终却把社会打造成规训无所不在的牢狱;在卢曼和托依布纳那里,现代社会和法律都分化成铁板一块的系统魔阵。
系统自我建构、自我描述、自我调节、自我维持、自我操作、自我创生;它是沟通的建造物,是代码区分的二元世界。于是就有了君子与小人、信徒与异端、人民与敌人、以及合法与非法之别,于是控制就变得简单,规制就来得方便。系统虽然无所不在,却又无影无形;虽然无所不知,却可以对外界充耳不闻;虽然无所不能,却可以有所为有所不为。系统是个匿名的魔阵,人们无从反抗;系统的"滤霸"不断升级,随时过滤杂音,删除乱码。
2
如果说Matrix就是社会的缩影,那么,它不是一个扭曲和虚假的社会吗?然而,正常和真实的社会又在哪里?柏拉图说,它在理想国里,现实是一个扭曲的洞穴。然而洞穴中的众生已经过惯洞穴中的生活,真实世界的阳光特别刺眼,于是人们宁愿生活在洞穴中,在黑暗中捕捉真实的虚影。
实际上,在哲学王领导的真实世界里,人类并没有真正的平等和真实的自由。在那个理想国里,国王还是国王,士兵还是士兵,奴隶还是奴隶,所不同者只是国王用哲学统治,士兵具有了"卫国者"的光荣称号,奴隶换成了另一批"会说话的工具"。由此看来,那个真实的理想国,不过是另一个虚拟的洞穴,变化在于精神控制代替了身体枷锁。假作真时真亦假,无为有处有还无。
如果说传统的宗教救赎带来的是精神奴役,那么现代的解放追求打造的则是规训铁笼。绝对精神只有在自我献祭中才灵光偶现,永久和平凭靠的是核威胁的恐怖平衡,无产者在世界边缘分化成碎片,资产阶级在全球中心结成了铁盟。坚船利炮换成了跨国公司,传教士换成了大律师,八国联军换成了G8峰会,《南京条约》换成了《华盛顿共识》,自然法变成了人类之法。
昔时丛林游击队长变成了今日铁政治腕,当年工会领袖变成了当下法团巨头,自由主义者把自由变成了意识形态教条,民主主义者却以专政方式推行民主。于是历史充满了变数和吊诡:政治是战争的继续,经济是军事的替代,法律是政治的变种,文化是时尚的别名,和谐是冲突的间歇,梦幻是现实的投影。从红场到黑海,到处都矗立着权力的凯旋门;从多瑙河到莫愁湖,处处都闪烁着货币的金字塔。等式似乎永远平衡,变化的只是因数,余数被省略了。
面对这个充满魔力的Matrix所施展的"吸星大法",老左翼在历史发展的"否定的辨证法"中陷入悖论;新工党则改弦易辙,匆忙中把"人类动物园"改建成"丛林迪斯尼";后现代主义在精神呜咽中叙说着对文明的不满,并在审美迷狂中实现着自我超越;新保守主义则根据旧版社会达尔文主义,热泪盈眶地宣布新自由主义是"历史的终结";而原教旨主义则在极化地方性知识的精神亢奋中,从恐怖战略中发现了行动的力量。
于是,热血青年从街头广场退入购物中心,产业工人急于把蓝领换成白领,莘莘学子则迫不及待地加入房奴、车奴和卡奴的虚拟矩阵。政治领袖在继续忽悠民众的同时,想方设法完成知识符号的现实超度,因为他们深知,知识就是权力,技术官僚就是系统控制的工程师,没有知识的权力,技术官僚就缺乏控制的力量;没有权力的知识,系统工程师的控制就无从谈起。
幸运的是,信息技术为人们建构了一个虚拟世界。人们在那里享受空虚的充实,而不再忍受充实的空虚;可以把陌生人变成老熟人,把老熟人变成陌生生人;把妻子变成情人,把老板变成老公。真实世界是荒漠的废墟,单调而乏味,压抑而拘束,而虚幻世界则是奇妙的仙境,丰富而有趣,轻松而自由,因而《黑客帝国》中一些选择了蓝药丸的战士十分后悔,想要重返虚拟世界,想要品味鲜美的牛排,不愿再强咽无味的稀粥。为此,他们不惜背叛队友和进行疯狂报复。
科学探索实在,却筑造出虚拟世界;理性祛除巫魅,却使世界陷入疯狂。对于这种吊诡,我们觉得不可思议,想不清楚,说不明白。疑问萦绕着我们的头脑,困扰着我们的心灵。我们对于现世感到无奈,就寄望来世天堂;对现实不满,就逃向虚拟世界。天国之城虽然没有征服尘世之城,虚拟世界却覆盖了现实社会。
在网络编织的虚拟世界,世界数字化,生活虚拟化,生命游戏化,灾难戏剧化;在那里,红色歌曲,黑色幽默,绿色革命,白色恐怖,桃色事件,黄色笑话……应有尽有。
在那个"网络共和国"中,人们不再是"贾雨村""甄士隐",而是"门修斯""常凯申";在那个"信息乌托邦"中,人们不再"非礼勿视,非礼勿听,非礼勿言,非礼勿动",而可以思想裸露,精神裸奔,身体裸聊,可以建社区、偷白菜,包二奶……一言以蔽之,那里可以言现实想言而不敢言,为现实想为而不敢为,而不再限于"庄生晓梦迷蝴蝶,望帝春心托杜鹃""工业世界的政府们,你们这些令人生厌的铁血巨人们,我来自网络世界——一个崭新的心灵家园。作为未来的代言人,我代表未来,要求过去的你们别管我们。在我们这里,你们不受欢迎,在我们聚集的地方,你们没有主权"。巴洛的《网络独立宣言》对于网络世界的自由似乎信心十足。
然而,这一理想不久就灰飞烟灭。虚拟社会天生也不自由,规制它的是架构和代码:架构就是约束,代码就是法律。代码是一种变相的规制,正如凝视是一种无声的语言。虚拟社会天生也不民主,统治它的是编程者、黑客和监控者,编程者设下程序"枷锁",扣下代码"暗杠",黑客的"特洛伊木马"游荡在我们信息隐私的王国中,随时可以攻陷我们的"城堡",而无所不在的电子蠕虫就潜伏在我们的网络头脑中,随意透视我们的每根神经。
虚拟世界之于现实社会,颇似马克思针对路德教所言:他"破除了对权威的信仰,却恢复了信仰的权威。他把僧侣变成了俗人,但又把俗人变成了僧侣。他把人从外在宗教解放出来,但又把宗教变成了人的内在世界。他把肉体从锁链中解放出来,但又给人的心灵套上了枷锁"
在虚拟世界,我们的"另一个自我""第二人生"再次不幸地陷入了规训之网,与真实世界不同的是,那里的立法者主要是隐形程序师而不是在场政府,执法者主要是技术诀窍而不是政治权力,法律规则主要是代码不是法典,司法者不再是法院法官而主要是……
虚拟世界造成了信息偏食和群体极化,带来了网络贩毒和在线卖淫,导致了违法与犯罪的隐蔽化、跨国化和全球化,而这一切都对现实社会构成了侵害。于是,现实的法律对网络的架构和代码进行规制。由此虚拟世界与现实社会相互联通。更准确说,虚拟世界是现实社会的翻版,现实社会是虚拟社会的投影,扭曲社会是正常社会的镜像,正常社会是扭曲社会的别称,正如数字不过是自我的心理投影,真实乃是大脑中的刺激信号。技术控制比权力统治更有效,代码规制比法律调控更直接,私人管制比政府治理更便捷。人生而自由,却无往不在枷锁中,虚拟世界中自以为自由的网民,也许比现实社会之人更是奴隶。
3
如果说"锡安"是人类的缩影,它被自己的制造物逼入绝境之后,生存迫令自然就是"拯救锡安""锡安"隐喻上帝子民之城,暗指基督教圣地,是西方世界的缩影。于是就有了自我与他者的区分。自我是西方,是正义的真实社会;他者是非西方,是邪恶的虚拟世界;正义与真实的化身是尼奥,邪恶与虚拟的符码是史密斯,于是一场进攻与防卫、恐怖与反恐怖以及生存与灭亡的大决战不可避免。
虚拟世界的机器人强大无比,不然,便不足以表达人类恐惧之深,不足以彰显人类危机之重,更不足以体现人类拯救之迫。尼奥隐喻耶稣,一位黑客出身的"克里斯玛",他要破解母体自我繁殖的密码,改变等式平衡。
然而,尼奥毕竟是凡人,要对拯救使命有信心,还需要一点外力。这就是"先知"预言的力量。预言者是希腊oracle(神谕者)的现代版。女性身份增加了预言的神秘,据说女人比男人更易着魅和更能通灵。她的黑白混色皮肤或许暗喻种族平等,但与歌星杰克逊无关,因为他曾极力把身体漂白,且同具男女性征。当然这更不是兆示奥巴马当选,因为他即便皮肤黝黑,当选后是否会把观念漂白,尚不可知。
预言的奥妙在于模糊,就如生活的真谛在于糊涂,生命的真谛在于操心。与刘姥姥三进大观园不同,预言者多次出场,但她所透露的"天机"不过三条洞见:认识自己,改变的不是物象而是意念,预言具有自我实现的效应。这三条看似是平常道理,但内涵都是吊诡或悖论。
自己是自我观察的盲点,认识自己是个悖论;事物的本质是观念的产物,我们对自己的观念无法同时进行二阶观察,这也是悖论;乐观的预言未必兑现,悲观的预言却往往应验,这里充满着吊诡。先知的言谈举止和周围环境都暗示她来自生活世界。
这自然让我们联想到,哈贝马斯寄望生活世界,希望那里的日常语言所承载的交往理性能够生成合法之法,从而降服政治系统的权力之妖和经济系统的金钱之魔。就此而言,哈贝马斯是一位预言者。
昂格尔是另一位预言者,他宣称自由主义的形式法业已解体,取而代之的法范式或许是源自生活世界的习惯法。这种视角与埃利希的"活法"暗合。这两位预言者的预言并没有很快应验,欧陆的法典"死法"早已把埃利希的生活"活法"吞没,而美国的自由主义形式法并未解体,解体的却是预言者所创建的批判法学流派。
不过,在法律全球化过程,他们的预言有些歪打正着。新商人法以商人私约的形式成为了"活法",逃避了主权的规制,托依布纳说这是埃利希"活法"预言的兑现。然而不幸的是,这种来自经济系统的"活法"却成为规避劳保和环保的"腐败之法"
生活世界也许是个未经反思的习俗"荆丛"或巫魅之乡,那里流行过美国南部的《黑奴法典》,"焚寡殉葬"的印度乡之俗,或许会联想到犹太人的割肉还债之约。抛掉了锁链上的假花,并不是为了戴上没有任何花朵的锁链;否定了敷粉的发辫,并不是要同没有敷粉的发辫打交道,马克思的名言可以作为一种警示。真正自由的活法是公民自我立法,只有在交往理性滋润的生活世界才能够生成这种活法。这种活法也许存在自主公民的观念中和公民自主的行动中,存在于基本人权与人民主权的互动中。
尼奥不是史密斯的对手,因为史密斯是尼奥的负相,正如人类不是机器世界的对手,因为机器世界是人类社会的翻版。这就是道高一尺,魔高一丈。尼奥一定要牺牲,否则就缺乏悲壮;尼奥也一定要复活,不然就没有希望。于是,那个古老的神话——爱情,便成为了牺牲与复活的媒介,只是把传统的叙事顺序颠倒了一下:不再是英雄救美人,而是美人救英雄。性爱只能激活个体的灵魂,救世主的复活却能带动集体精神,只有"克里斯玛"与芸芸大众的相互诱惑和一道眩晕,才能成就拯救世界的伟业和壮举。这又落入了韦伯政治方案的窠臼。
事情并不如此简单。尼奥不过是一段超级程序,而"先知"也不过如此,他们的合谋与"锡安"大众的合力,也无法应对虚拟世界的进攻,因为系统的代码早已设定,程序按其功能迫令,是其所是,成其所成,毁其所毁,灭其所灭。
更何况机器人比人类更少怯懦和私心——设计时把这些基因缺陷剥除了。这就需要尼奥返回源代码,会见程序设计师,通过改变源代码改变等式平衡,改变系统的运行逻辑。马克思、尼采、福柯和哈贝马斯尽管路径不同,都认为现代性问题主要出在源代码上,都想设法改变现代社会的源代码。
4
系统一旦运行起来,就会形成自我复制和自我维持的逻辑习性,就会诱导人们适应和上瘾,改变源代码必然引起程序混乱和功能失调。程序设计师只有在感到"史密斯"会失控时,才会同意尼奥的建议。改变者与维护者一场生死搏斗在所难免,将欲取之必先与之,尼奥只有先染毒才能消毒,而成功意味着与"史密斯"同归于尽。
通过消灭自己来消灭敌人,一如系统通过改变自己而改变环境,这本就是一种悖论性博弈。至此,影片所演绎的古老故事,即正义与邪恶之战,似乎落下帷幕,关于耶稣牺牲自我拯救世人的新版隐喻,也已了然。剩下的一个问题则是,既然机器世界是人类社会的复制品,虚拟世界是真实社会的投影,源代码的彻底改变,是否要以"锡安"的毁灭为代价?
对于现实社会的Matrix,人们即便能够发现源代码,返回源代码并根本改变它也几无可能。权力和金钱两个代码,控制人类社会为时已久,权戒与钱戒之难,难于毒戒与赌戒,也难于网戒与色戒,因为它们已经成为我们基因的另一半,正如撒旦是天使的另一半,男人是女人的另一半,股市是赌场的另一半。这就不难理解,任何推翻过去压迫的尝试,都没有带来解放的现实,任何翻转现实统治的超越,都打造了另一种未来的统治现实。
如果说传统法律承载的是等级特权,身份奴役,压抑人格、机械团结和施舍正义,那么,现代法律所内含的则是自我分层的平等,自我放逐的自由,自我分裂的人格,自我分化的团体以及自我颠覆的正义。前者是弱肉强食的历史墓志铭,后者是自我解构的现代讽刺画。解决问题的方案有时会造成更多的问题,就如医治病人的疗方常常会带来更多的病症。完美世界如同完人,只存在于幻想之中,正确的答案所以一直在回避我们,也许是因为我们过于满足现实或追求完美,因而丧失了去弊和纠错的机缘。
诅咒过去与讥讽现实无助于问题的解决,正如期待来世与盼望天国无益于苦难的解脱。树上不言树下事,十分世界在眼前,禅宗的"当下即是"显得更为脚踏实地。无论是生命政治的倡导还是交往理性的吁求,无论是对"活法"的善意期待还是"宪法爱国主义"的良苦用心,虽然对于改进社会现实都不无启示,但似乎都无法改变现代社会的"源代码"及其运行逻辑。
我们以为,真正的契机和希望也许既不在于整体建构或彻底颠覆,也不在于置换源代码或理性重构,而在于社会危机的压力和对灾难的反思,因为正常时没有人会思考为什么会正常,更不要说改变了;在于有识之士的现实批判与公民大众的权利吁求,因为既得利益者大都满足并维护现状。当奴役成为一种常态,人们就把奴役当作自由,当羁縻成为一种秩序,人们就把羁縻称为解放。
对于社会的反思来说,一万句苦口婆心的劝谏,不如一个灾难的教训更有效;对于人类和平而言,一千个世界主义的口号不如一次残酷的战争更有效;对于系统的调整来说,一百种环境刺激不如一次重大危机压力更有效;对于民主和自由来说,数十部宪法不如一个个自主的公民更有效。故而,马克思从阶级压迫中预见了解放的动力,康德从战争的残酷中看到了永久和平的曙光,福柯从权力的规训中洞悉了个体伦理完善的重要性,哈贝马斯从生活世界自主公民的呐喊中察觉了现代性的希望。为此,我们需要的是愚公移山的行动,是普罗米修斯的勇气,弗弗西斯的耐力,夸父追日的悲壮,精卫填海的坚持。
有些事情永远不变,有些事情应该改变。必须坚守永远不变的事情,必须改变应该改变的事情。于社会是如此,政治是如此,法律是如此,于个人也是如此。
己丑年秋
高鸿钧于清华园
【注】
1.高鸿钧,清华大学法学院教授。
2.本文为《清华法治论衡》第12卷““社会理论之法前沿””卷首语。
作者简介
高鸿钧 ,清华大学法学院教授。吉林大学法律系77级本科,中国政法大学81级外国法制史硕士研究生,1984年毕业留校任教。19911998年,在中国社会科学院法学研究所工作,任副研究员、研究院;1998年至今,在清华大学法学院任教。
研究和教学领域主要为比较法学、法理学和外国法制史。现任中国法学会比较法学研究会会长、全国外国法制史研究会副会长。
主要著作包括《现代法治的出路》《伊斯兰法:传统与现代化》《全球视野的比较法与法律文化》《心寄治邦——法理学论集》;主编《英美法原论》《新编西方法律思想史》《新编外国法制史》等;翻译和参译《哈贝马斯、现代性与法》《法律与革命——西方法律传统的形成》《比较法总论》等;在《中国社会科学》《中国法学》《法学研究》《世界宗教研究》等重要期刊发表论文数十篇;主编“比较法学丛书”、“法律与社会丛书”和《清华法治论衡》。
来源:远见塔

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表