传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
281#
 楼主| 发表于 2019-10-30 09:56:13 | 只看该作者
【案例】
博古睿讲座05 | 人工智能伦理:为责任而设计
讲座名称 | Lecture

人工智能伦理:为责任而设计
AI Ethics: Designing for Responsibility

主讲嘉宾 | Presenter

范德霍文 Jeroen van den Hoven
荷兰代尔夫特理工大学伦理与技术专业教授
《伦理学和信息技术》主编
代尔夫特设计价值研究所科学主任
Professor of Ethics and Technology at DelftUniversity of Technology, the Netherlands
Editor in Chief of Ethics and InformationTechnology (Springer Nature)
Scientific Director of the Delft Design forValues Institute


范德霍文教授致力于促进伦理学领域与信息通信技术领域的对话。2009年,凭借在伦理与信息通信技术方面的贡献,荣获世界伦理技术奖、国际信息和通信科技奖以及国际信息和通信技术协会奖。出版著作包括《设计的伦理》(2017年)和《邪恶在线》(2018年)。他是欧盟委员会欧洲伦理小组成员,2017年被授予荷兰狮子勋章。
Jeroen van den Hoven is dedicated toadvancing the dialogue between ethics and the field of information andcommunication technology (ICT). In 2009, he won the World Technology Award forEthics as well as the IFIP prize for ICT and Society for his work in Ethics andICT. He published Designing in Ethics (Van den Hoven, Miller & Pogge eds.,Cambridge University Press, 2017) and Evil Online (Cocking & Van den Hoven,Blackwell, 2018). He is a permanent member of the European Group on Ethics(EGE) to the European Commission. In 2017 he was knighted in the Order of theLion of The Netherlands.


内容主题 | Key Discussions

人工智能是否对人的责任产生威胁?
如何用人工智能负责任地创新?
欧洲人工智能伦理的现状如何?
Is AI a threat to human responsibility?
How to innovate responsibly with AI?
What is the current status in Europeregarding AI Ethics?


时间 | Time

2019.11.01 18:30-20:00


地点 | Venue

北京大学法学院品咖啡(陈明楼一层东南侧)
Peking University Law School Pin Café(First Floor, Chenming Building)


语言 | Language

英文  English


报名截止日期 | Register before

2019.10.31 12:00


座位 | Seats

60   先到先得 | first comefirst serve


主办单位 | Host

北京大学博古睿研究中心 | 思想改变世界
聚焦东西方对话,对影响人类变革的深刻变化开展跨文化、跨学科研究。重点关注前沿技术和社会治理等相关主题,特别是人工智能、基因编辑对人类社会发展的影响,以及全球治理和全球化等议题。
Berggruen Research Center, PekingUniversity | Ideas for a changing world
The Berggruen Research Center is a hub forEast-West research and dialogue dedicated to the cross-cultural andinterdisciplinary study of the transformations affecting humanity. Intellectualthemes focus on frontier technologies and society—specifically in artificialintelligence, the microbiome and gene editing as well as issues involving globalgovernance and globalization.


联合主办 | Co-Host

北京大学国际合作部
Office of International Relations, PekingUniversity
北京大学极客实验室
Geek Lab of Peking University


协办 | Co-Organizer

北京大学海外传播办公室
Office of Global Communications, PekingUniversity


来源:博古睿研究院
作者:北大-博古睿

编辑:冯梦玉

282#
 楼主| 发表于 2019-10-30 23:01:57 | 只看该作者
【案例】

深入推进人工智能伦理研究


作为新一轮科技革命和产业变革的重要驱动力,人工智能已经被广泛应用于不同行业及领域,深刻影响着人类社会的变革,对人们现有的法律规范、伦理标准和社会生活等提出了新的挑战。在此背景下,人工智能伦理研究日益受到学界重视。

人工智能伦理研究引发关注

华东师范大学哲学系教授颜青山表示,当前人工智能伦理研究中,有以下几个方面值得关注。一是克服伦理恐慌情绪。大多数人对人工智能基本原理的了解还没有达到科普水平,常常会基于对人工智能技术的误解产生不恰当的联想。因此,如何对人工智能原理进行科普值得探讨。二是道德程序的内置及其限度。这方面讨论的是人工智能不该做什么。道德两难常常也是道德悲剧,人本身也无法给出确定的答案,更不要奢望机器会给出更好的答案。三是为人工智能研究提供充分的伦理空间。区分人工智能的研究与应用,为人工智能研究提供充分的伦理空间是必要的。

南京大学哲学系教授蓝江表示,人工智能发展的最大问题不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。人工智能的伦理学已经与传统的伦理学旨趣发生了较大的偏移,它讨论的不再是人与人之间的关系,也不是人与自然界的既定事实之间的关系,而是人与自己所发明的产品之间的关联。

大连理工大学人文与社会科学学部教授李伦认为,人工智能作为一种全新的技术,对人类社会产生了巨大的影响。人工智能引发的一些问题可能是已有伦理学理论无法解决的,形成所谓的“理论真空”,迫切需要伦理学在学理上做出分析与回应。我们加快推动人工智能的伦理研究,可以促进具体实践问题的解决,使人工智能更好地造福人类。

多领域推进人工智能伦理研究

“人工智能的伦理风险并非虚构。”中国社会科学院哲学研究所研究员段伟文表示,不加反省地对人工智能采取乐观态度,会忽略或无视人工智能对个人和社会造成的潜在威胁,由此引发的伦理风险既得不到事先防范也难以事后纠正,最终酿成难以挽回的后果。这不仅会破坏整个社会对人工智能的信任,还会打击公众对发展新兴科技的信心。

“构建人工智能伦理的规范者指引框架,应该是人工智能伦理研究中最优先关注的领域。”北京师范大学哲学学院教授田海平表示,因人工智能引发的许多棘手问题,只有通过人工智能的“规范者指引”才能做到未雨绸缪。人工智能伦理的规范者指引框架建设关涉到人工智能时代的道德建构,我国应在这一领域创建一个公共性的跨学科研究平台,集合各方面的力量,促进国家层面的框架与标准建设。

李伦认为,人工智能伦理研究包括人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能应用伦理等四个维度。总的来说,人工智能伦理研究旨在“给人工智能一颗良芯(良心)”。这意味着人工智能伦理研究与其他技术伦理研究不同,应围绕“机芯”和“人心”两个方面来展开。“机芯”主要是指人工智能道德算法,旨在使人工智能拥有“良芯”,使之成为道德的人工智能或道德的机器。“人心”主要是指人工智能设计伦理和应用伦理,旨在使人工智能研发者和应用者具备“良心”,使人工智能的设计合乎道德,避免恶意设计,并确保人工智能被善用,使之造福人类社会。有关“机芯”和“人心”的研究存在诸多基础性问题,这就需要在人工智能的道德哲学层面做出回应。人工智能伦理研究是一个跨学科的研究领域,需要多学科、多部门加强合作,共同推进其发展。

颜青山表示,人工智能的广泛应用,以及同其他技术,如虚拟现实技术和物联网技术的结合,必然导致社会结构的变革。因此,人工智能伦理研究需要在如下几方面有所推进:第一,全新社会(扩展现实形成的社会)的可能性及其伦理问题。第二,社会结构改变带来的经济和政治伦理问题。扩展现实会给人完全不同的体验,也会形成完全不同的伦理境况和问题。第三,人工智能在扩展现实中的道德地位问题。由用户设定的人工智能可以像人一样与其他人进行广泛交往,那么其道德地位将是一个值得关注的问题。

编辑:张凉


283#
 楼主| 发表于 2019-10-30 23:11:51 | 只看该作者
【案例】

“马克思说人的本质,就其现实性来说,是一切社会关系的总和。但是如果赋予机器灵性,它们也可以形成机器人的社会关系。那么,在能力强于人类时,就会威胁整个人类社会。”

编辑:张凉


284#
 楼主| 发表于 2019-10-31 00:40:07 | 只看该作者
【案例】

张博谈无人驾驶研发困惑
张博:各位朋友大家好,感谢群主段伟文拉我入本群。我服务于一个无人驾驶研发团队。在系统设计与开发实践中,AI相关的许多问题困扰着我们:如果机器被设计得不能理解人性甚至人类整体(所谓“人类常识”、“上下文”),则无人驾驶汽车将从根本上无法如我们所期待的那样代替人类司机“合理地”应对无限的交通情况,而将只能在“辅助驾驶”上打转转,以及退而求其次从AI方案退到限定场景自动化方案,这难免令期待无限移动自由的人们失望;而人类如果仅因为人类的懒惰贪婪,想要一劳永逸的完美机器奴隶,而将灵性赋予机器,培育其调和矛盾的思辨机制,从长远看又可能意味着不祥,它暗示着不可认知和预知的机器抉择与人类期待的冲突,而且这条路一旦开启或将很难调整和回头。困惑犹疑,还请群里的老师们多多教导启发

编辑:张凉


285#
 楼主| 发表于 2019-10-31 22:24:46 | 只看该作者
【案例】
人脸识别技术运用中的法律隐忧


前日从新闻中得知,北京地铁将要应用人脸识别技术,来对乘客实施分类安检,理由是提高乘客的通行效率。


读到这个新闻,我的第一反应是,疯了吧。幸好,昨日看到光明网评论员的文章《别把人脸别技术搞成现代“刺黥”》,心有戚戚焉。不然,看舆论如此之悄然,似乎没多少人关注此事,我要怀疑是不是自己疯了。


进出大学校园要出示证件,邮寄东西要核查身份证,住个宾馆要人脸识别,坐地铁人物同检尚嫌不够,还要进一步运用所谓的新技术,来继续提升安保级别。我想问一句,还有完没完?接下去,是不是要在所有的马路上,所有的公共场所,全面安装人脸识别的机器,以便随时将行人拦截下来盘问与搜身,将那些被认为危及安全的人进行拘押呢?


对安保的无节制投入,究竟是要防谁,要保护谁,我是越来越困惑了。我原本以为,自己应该是被保护的对象,但在这样的连番举措之下,我分明感到,自己就是被防控的对象。作为一名合法公民,自己平时遵纪守法,没有违法犯罪的前科,工作比较敬业,也能与人和睦相处。不知道为什么要这样防着我?


生活在这个社会,我经常感觉自己不被信任。无论是科研费的报销,还是不断升级的安保,所能感知到的,就是无上限的提防。在前一场合,觉得自己被当作盗贼一样防着;在后一场合,则是作为社会潜在的黑恶势力被提防。这应该不是我个人特有的经历与感受。


现代的刑事诉讼法,普遍推行无罪推定的原则。根据这个原则,任何人被法院判定有罪之前,都在法律上被推定为无辜。然而,当下的各种安保措施,怎么看都是基于有罪推定的思维。所有人都被推定为对公共安全具有危险,需要无一例外地经受越来越严格的安检。要说这样的安检措施,竟是用来保护包括你我在内的一般公众的,除非人格分裂,不然谁信呢?


或许有些人会不以为然,认为是我对这样的事件反应过敏了。大致归纳一下,可能存在四种看法。


其一,有人会认为,是我自己想多了,竟不能体味与感恩政府如家父般的保护善意。

我只能说,这样的善意恕我不愿领受。

试想一下,所有的个人数据,包括平时上什么网,看什么新闻与视频,购什么物,微信上与哪些人聊天,具体聊什么内容,有什么样的好恶等等,本就已收集得够多了。现在还要再加上生物识别方面的个人信息,都交由一个庞大的组织来掌控。要知道在我们这个社会,任何的个人数据,只要是为企业或其他机构所掌控,也就等于为政府所掌控。

由于这个庞大的组织是由具体的人在运作,这就等于说,所有的个人数据,包括识别性极强的生物学数据,都是由群体中的少数人来掌控。这些人究竟掌控我们多少的个人信息,为什么要掌控我们的个人信息,掌控这些个人信息是要用来干什么,都是细思极恐的事。

掌控数据的人显然不是上帝,他们有自己的私欲与弱点。所以,他们会如何使用我们的个人数据,会如何操控我们的生活,都不得而知。更不要说,这些数据因保管不善而被泄露或是被黑客侵入,导致为不法分子利用所可能产生的危害结果。


其二,有人会说,只要不干坏事,便无需担心政府掌控你的个人数据。

我只能说,我不想成为透明人;成为透明人的想法,让我觉得非常不安。

在一个正常社会中,个人理应拥有正当的权利,反对任何组织随意获取自己的个人生物学数据。法律之所以保护个人的隐私权与住宅自由,就是要让个人有自治的空间,这个空间不允许他人侵入。

这里的他人,不单指其他的个人或是一般的组织,也包括政府,包括国家。倘若个人的生物学数据也能以安全为名未经同意而随意获取,则法律上对隐私权与住宅自由的保护,还有什么意义?无隐私即无自由。


其三,有人会提出,自己并非什么重要人物,别人想必也没有兴趣来了解我们的个人信息。

持这种看法的人想来不少。对于大规模收集个人数据的做法,即便自身是作为被收集的对象,很多人也不以为然,并不觉得有什么问题。主要的理由无非是,我们又不是什么重要人物,别人应该不会有兴趣来关注。所以,自己仍然足够地安全。

我只能说,当你把个人安全的问题,寄希望于别人的忽视时,基本上就活得如亡命的赌徒一般了。并且,你赌的不只是自己的运气,同时还在赌,掌控数据的人是天使一般的存在。非要一厢情愿地认为自己能赌赢的人,我在佩服你鸵鸟性格的同时,窃以为大概还需要上交一些智商税。

此类乐观人士,最好能认真去看一下《国家的敌人》这部二十多年前的电影。电影本身的结局还不错,恶人最终遭到了恶报。不过,倘若你是剧中主人公的话,怕是没有那份才智与幸运,只能等着悲剧收场。最惨的是,到最后大概都不知道自己是怎么死的。


其四,还有人会辩解,这样的技术推广是有些问题,但反对也没什么用,就懒得花力气反对了。

我只能说,攸关自身重大权益的事项,如若我们自己不站出来反对,做出应有努力,自然更不可能指望别人出来帮着呼吁。在没有做起码的努力之前,怎么就知道反对无效呢?即便反对最终无效,也终归比驯服地给自己套上枷锁要强。至少我们曾经努力过,做过一些抗争。

作为被侵害一方的我们,如果只是一味地默默地忍受,甚至不敢表明反对的立场,就等于是以不作为的方式,帮助对方来算计与加害自己。在这样的事情上,退一步并非海阔天空,而很可能从此坠入深渊。因为这根本不是靠一味忍让就能解决的问题。眼看着一步步地走向深渊,这样的遭遇,至少部分是我们自己一味地隐忍所酿成的。


对于北京地铁即将推行人脸识别技术的做法,我表示坚决的反对。以下是具体的理由。


首先,人脸识别涉及对个人重要的生物学数据的收集,相关组织或机构在收集之前,必须证明这种做法的合法性。

按照现有的法律规定,普通的个人信息,包括住址、电话号码、邮箱、账户以及行踪轨迹等,因为具有可识别性,在收集时必须经过被收集人的事先同意。同时,如果收集方将相应信息不当地予以使用、出卖或是泄露,还可能引发包括刑事责任在内的法律责任。

生物学数据的个人指向性更为明确,而且对个人而言,也显然比一般的个人信息更为重要,为什么在收集时反而不需要征得被收集人的同意?并且,对收集的主体、目的、方法、范围与程序等问题,完全没有做任何的限定,也没有对违规收集或使用的行为规定相应的法律责任。

如果政府是作为收集的主体,显然需要法律明确予以授权;法无授权即不可为,政府无权以安全为名,来搜集普通公民的生物识别数据。倘若是企业或其他机构所为,则其收集个人的生物学数据,起码需要获得被收集人的明示同意;不经同意而收集,属于非法获取公民个人信息的行为。


其次,地铁实施人脸识别,涉及公众重要的人身权益,不经听证就要推行,也缺乏起码的合理性。

几年之前,北京地铁票价调整,曾广泛征求公众的意见,并经过严格的听证程序。如果票价调整都需要广泛征求意见并经历听证程序,则推行人脸识别技术,明明涉及更为重要的人身权益,怎么就可以在既不征求意见也不进行听证的情况下,直接决定予以推行?难道个人的生物学数据,在重要性上还不如几元人民币的价值?

不经任何论证,就准备轻率上马大规模的人脸识别,人们有理由怀疑,这其中是否涉及违法的利益交易,或者是否是被相关利益集团游说之后的结果。


再次,声称应用人脸识别技术是要实现分类安检,但标准本身所牵涉的问题本身就没有解决。

一个交通管理部门,有什么权力来对乘客进行分类?依据的又是什么法律?不止如此,相关部门准备采取怎样的标准来对乘客进行分类,采取的标准具体包含什么内容,又是由哪些人以及如何确定的标准,标准是否应当公之于众等,这些问题难道不应当在推行人脸识别之前先行解决吗?垃圾的分类标准都要明示,更何况是对人的分类。

如果相关部门意欲采取内部标准,那么请问,我们如何得知标准是否合法合理?如何得知是否存在为法律所禁止的歧视?如何得知是否存在随意设定标准内容的问题?若是利害关系人对分类标准不服,或是认为不当的分类侵犯自己的合法权益,他们又应当怎样进行申诉,如何确保其权利得到有效的救济?在这些问题没有解决之前,怎可如此轻率地决定,要在地铁这样的场所,大规模地运用人脸识别进行分类安检?


若是任意采取内部标准而将乘客分为三六九等,并据此采取不同的安检举措,我们有理由怀疑,这样的做法违反宪法上的平等原则,也涉嫌侵犯公民的人身自由不受侵犯的基本权利。《宪法》第37条明确规定,禁止非法拘禁和以其他方法非法剥夺或者限制公民的人身自由,禁止非法搜查公民的身体。


最后,没有足够的证据表明,在地铁运用人脸识别能够提升通行效率;即便有证据予以证明,效率本身也不足以成为推行的充分依据。

轨道交通指挥的官员声称,在地铁推行人类识别技术是要提高大客流时段的通行效率。问题在于,声称不代表客观事实。在没有做扎实的实证调研之前,如何让我们相信,在地铁运用这项技术有助于提升通行效率?根据在机场与宾馆的亲身经历,我很难相信这样的结论。


即便有来自专家的一些支持,我们也有理由怀疑专家的判断是否准确。因为这涉及对未知事态的预测与评估,专家的判断完全有可能陷于错误。譬如,在放开二胎之前好多年里,很多人口专家都言之凿凿,宣称全面放开二胎会造成我国人口的急剧增长。自放开二胎之后,实际生育率情况如何呢?大家有目共睹。

退一步而言,即便运用人脸识别真地能够提升通行效率,单是效率本身也不足以成为推行的充分依据。不要以效率为名糊弄公众,好不好?要说效率的话,不对地铁进行所谓的安检,最能提升大客流时段的通行效率。

我不知道相关部门有没有做过起码的调研。现行的人物同检,尤其是其中的人检,无论在高峰时段还是一般时段,都形同虚设。除了浪费纳税人的税款,实在是看不出这样的人物同检,究竟有什么现实的作用与意义。

基于前述相应的理由,尤其是考虑到其中潜含的重大危险与负面作用,我不仅反对在地铁运用人脸识别技术,也反对在机场与宾馆等场合,强制人们接受人脸识别的检查。

商业机构以微利或是便捷安全之类的因素相引诱,让人们“自愿“地使用人脸识别,由于大多存在信息告知不充分的问题,很难成立有效的用户同意,故而其运用也难谓合法。


不久之前,我曾参加一次关于人脸识别技术的讲座。在那次讲座上,得知国内有一些企业,近年来一直在大力发展人脸识别的技术。为了防止公共舆论的关注,这些企业甚至还刻意保持低调,使得相应技术在实现大规模推广的同时,成功地避免成为公共话题。

这样的刻意,让我不寒而栗。在一心谋求自身利益的同时,这些企业与相应的技术人员,难道就没有想过,这样的技术推广会给社会带来什么样的灾难吗?难道不知道自己有一天也可能成为被反噬的对象吗?

不要与我扯什么技术中立之类的套话。当人脸识别技术被大肆用来获取普通公民的个人信息,并源源不断地汇集于庞大的组织之手。从事相应技术研究与推广的这些企业与技术人员,敢说自身就没有任何的责任吗?假如电幕的世界有一天真地降临,你们是当之无愧的功臣;但愿到彼时,还能有人身自由去畅饮庆功宴上的美酒。


当时参加讲座的一位媒体从业人员,在没有听完讲座之前,就把微信与支付宝中的人脸识别给删了。在发言中,她说自己倒不怕个人信息被警察使用,就是担心被商业机构滥用。

在回应时,我坦言,作为法律从业人员,尤其是做公法研究的,我从来不太过担心,自己的个人信息被商业机构所滥用;因为商业机构的滥用,至多不过是让我损失一些钱财。

真正让我担忧与恐惧的是,自己的信息被公权力部门所滥用;因为当他们滥用时,我完全不知道自己与家人会付出什么样的代价,财产、名誉、职业、自由、健康或是生命,一切皆有可能。

以安全为名,对于地铁这样日常有大规模人流出入的公共场所,先是施行物检,之后进行人物同检,现在又要推行人脸识别,再过几年,是不是还要进一步实行基因或是指纹识别?按当下的趋势推测,完全存在这样的可能。不久的将来,或许乘坐地铁这样的公共交通,都将成为一种特权,只允许一部分社会成员享有。

这个社会,若是还没有陷入被迫害妄想症的状态,就该在安保问题上适可而止。歇斯底里地追求安全,带给社会的,根本不是安全,而是全面的压制,还有恐慌。


最后,我郑重建议,对于北京地铁将运用人脸识别进行分类安检的举措,全国人大常委会有必要做基本的合法性审查;与此同时,应当考虑启动相应的立法程序,对于随意运用人脸识别技术的做法进行法律上的规制。


2019年10月31日
于清华园
来源:微信公众号:劳燕东飞
作者:奕澜

编辑:冯梦玉

286#
 楼主| 发表于 2019-10-31 23:16:47 | 只看该作者
【案例】

人工智能的致命弱点也能成为保护隐私的武器

策划 | 刘燕
作者 | Andy Greenberg
翻译 | 大小非
编辑 | Linda

AI 前线导读:研究人员在所谓的对抗案例中发现了利用它来保护敏感数据不被窥探的一线希望。机器学习应用程序目前存在种固有的缺陷,被称为“对抗性例子“的错误分类长期以来一直被视为机器学习模型中挥之不去的弱点。只需对图像进行一些小的调整或向数据库添加一些假数据,就可以欺骗系统得出完全错误的结论。现在,有研究人员正在探索将这个致命弱点变成保护用户隐私和信息安全的武器。

更多优质内容请关注微信公众号AI 前线”(IDai-front

机器学习虽然有 探测癌症 和制造防撞 自动驾驶汽车 的巨大潜力,但它也有可能颠覆我们对可见和隐藏事物的认知。例如,它可以通过像素化实现 高度精确的面部识别,甚至——正如 Facebook 的 剑桥分析 (Cambridge Analytica) 丑闻所显示的——利用公共社交媒体数据来预测更敏感的信息特征,比如某人的政治倾向。
然而,这些机器学习应用程序也存在人类不存在的一种奇怪的盲点——一种固有的缺陷,它会让图像分类器把 来福枪误认为直升机,或者让自动驾驶汽车 冲过停车标志。这些被称为 对抗性例子 的错误分类长期以来一直被视为机器学习模型中挥之不去的弱点。只需对图像进行一些小的调整或向数据库添加一些假数据,就可以欺骗系统得出完全错误的结论。
如今,包括罗切斯特理工学院 (Rochester Institute of Technology) 和杜克大学 (Duke University) 在内的一些以隐私为研究重点的研究人员,正在探索利用这个致命弱点是否也能保护我们的信息。“攻击者越来越多地使用机器学习来侵犯用户隐私“,杜克大学计算机科学教授 Neil Gong 说,“攻击者知道怎么运用机器学习的力量的同时也知道它的弱点,我们可以把这种弱点,这种对抗性的例子,变成保护我们隐私的武器。”

伪造少许数据
Gong 指出 Facebook 的剑桥分析事件正是他希望避免的侵犯隐私事件:这家数据科学公司向数千名 Facebook 用户支付每人几美元的费用,让他们回答政治和个人问题,然后将这些答案与他们在 Facebook 上的公开数据联系起来,形成一套“训练数据”。当该公司利用该数据集训练一个机器学习引擎时得到的模型,据称能基于 Facebook 的公共数据预测私人政治信仰。
Gong 和他在杜克大学的同事贾金元 (音译) 想知道对抗的例子是否可以防止这种侵犯隐私的行为。如果在一张照片上只改变几个像素就能让机器学习训练出来的图像识别引擎把兔子和乌龟搞混,那么在某人的个人资料中添加或减去几个 Facebook 上的“赞”,也能得到扭曲的结果么?
“我们总能找到击败他们的反面例子。”NEIL GONG,杜克大学
为了验证这一假设,杜克大学的研究人员使用了一个类似的数据集:谷歌游戏商店中的评论。为了真实模拟剑桥分析公司,他们在谷歌的应用商店中收集了成千上万的评分,这些评分是由用户提交的,这些用户还在谷歌 Plus 的个人资料中透露了他们的地域。然后,他们用这些数据训练了一个机器学习引擎,试图仅根据用户的 app 评分来预测他们的家乡所在的城市。他们发现,仅根据谷歌游戏喜好,一些机器学习技术就可以在第一次尝试时猜测出用户所在的城市,准确率高达 44%
他们建立了他们的机器学习引擎,研究人员试图用对抗性的例子来打破它。在用几种不同的方法调整数据后,他们发现,只要添加三个假的应用程序评级,选择一个统计上不正确的城市,或者去掉暴露的评级,那么少量的噪音就会降低引擎预测的准确性,使预测结果与随机猜测一样。他们称由此产生的 系统为“摩擦保护”,以保护数据的私有属性免受机器学习的窥探。Gong 说:“只需稍加修改,我们就可以扰乱用户的资料,从而使攻击者的准确率降低到基线水平。”
Gong 承认,预测和保护私人用户数据的猫鼠游戏并没有就此结束。如果机器学习的“攻击者”意识到对抗的例子可能会保护数据集不被分析,他或她可以使用所谓的“对抗训练”模型” 生成自己的对抗性示例以包含在训练数据集中,这样生成的机器学习引擎就很难被欺骗了。但防御者可以通过添加更多的对抗性例子来应对,以挫败更强大的机器学习引擎,从而导致无休止的针锋相对。“即使攻击者使用所谓的鲁棒的机器学习,我们仍然可以调整对抗性例子来避开这些方法,”Gong 说。“我们总能找到击败他们的反面例子。”

窃听 Mockingbird 实验
另一个研究小组尝试了一种对抗性示例数据保护的形式,旨在打破猫捉老鼠的游戏。罗切斯特理工学院 (Rochester Institute of Technology) 和德克萨斯大学阿灵顿分校 (University of Texas at Arlington) 的研究人员研究了对抗性的例子如何防止 VPNs 和匿名软件 Tor 等工具中潜在的隐私泄露。Tor 旨在隐藏网络流量的来源和目的地。攻击者可以在传输过程中访问加密的 web 浏览数据,在某些情况下,他们可以使用机器学习来发现混乱的流量中的模式,从而使监视者能够预测用户访问的是哪个网站,甚至是哪个特定的页面。在他们的测试中,研究人员发现,这种被称为网络指纹的技术,可以从 95 种可能性中识别出一个网站,准确率高达 98%
研究人员猜想,他们可以在加密的网络流量中加入对抗性的“噪音”,以阻止网络指纹识别。但他们走得更远,试图通过对抗性训练来绕过对手的保护。为此,他们对 Tor web 会话生成了复杂的对抗性示例调整组合,这是一种流量变化的集合,其目的不仅是欺骗指纹引擎,使其错误地检测出一个站点的流量与另一个站点的流量相同,而且还混合了来自大量诱饵站点流量的相反示例变化。

了解更多
这个 系统研究人员称之为Mockingbird”,以指代它的混合模仿策略,它会增加大量的开销——大约比正常 Tor 流量多 56% 的带宽。但这使得指纹识别更加困难:他们的机器学习模型预测用户访问哪个网站的准确率下降到 27% 57% 之间。RIT 的一位研究人员马修·赖特 (Matthew Wright) 说,由于他们采用随机调整数据的方式,这种保护措施很难通过对抗性训练来克服。“因为我们以这种随机的方式跳来跳去,攻击者很难想出所有不同的可能性以及足够多的包含所有可能性的对抗例子,”Wright 说。
纽约大学坦顿工程学院 (Tandon School of Engineering) 专注于机器学习和安全的计算机科学家布伦丹•杜兰 - 加维特 (Brendan Dolan-Gavitt) 表示,从隐私的角度来看,这些早期实验将对抗性例子用作一种保护机制,而非漏洞,前景非常好。但他警告称,他们正在与机器学习研究的主流方向背离:绝大多数研究机器学习的学者将对抗性的例子视为一个需要解决的问题,而不是一种可以利用的机制。
Dolan-Gavitt 说,他们迟早会解决这个问题,并在这个过程中删除作为隐私特征的敌对例子。“考虑到我们目前所知的情况,就目前的技术水平而言,这肯定是可行的,”多兰·加维特 (Dolan Gavitt) 说。“ 我认为,我主要关心的是如何防止对抗性的例子和训练机器学习模型,使它们不会受到它们的攻击,这是目前机器学习中最热门的话题之一"。作者认为,这是一个无法克服的根本性问题。我不知道这样赌对不对。”
最后,Dolan-Gavitt 指出,机器学习在检测肿瘤或自动驾驶方面发挥的作用是值得肯定的。但随着机器学习的每一次进步,它的预测能力也越来越强,想要躲避它也变得越来越难。

原文链接:
英文原文:

编辑:张凉

287#
 楼主| 发表于 2019-11-1 14:27:42 | 只看该作者
【案例】

无意识认知与机器智能的哲学反思

编辑:张凉

288#
 楼主| 发表于 2019-11-2 20:03:32 | 只看该作者
【案例】
研究院"不凡"研讨会:从“理解”到AI理论

2019726日上午,卓尔智联研究院“不凡”研讨会第一讲正式开讲,第一讲由研究院执行院长蔡恒进教授主讲,他主讲的题目是《从“理解”到AI理论》,下面是本次研讨现场实录的第一部分。


中文的“理解”可以有两种翻译,一种是comprehend,另一种是understandComprehending的前缀“com-”就带有范围广阔的含义,可以看作是将更多的内容包含进来的意思。Understanding的词源比较有争议,有人认为是Under-实际上是Inter-,也有人从undertake的角度来解释,我们认为understanding的重点可以看作是“站在更底层”的角度看。在做研究时,如果能够从更底层出发,贯通各理论观点,就可以看作是understanding的理解。

表1 AI理论的会通


换一种角度看,comprehending的特点是由约而博,需要吸收大量的、丰富的内容,而understanding是消化吸收了这些内容之后由博到约(比如学习电磁学到最后只剩下Maxwell方程组)。爱因斯坦追求大统一理论也可以看作是由博而约的过程。


AI三大流派(行为主义、联结主义和符号主义)大家应该耳熟能详了,但这三者的关系似乎还没有被整理得很清晰。MITBrook教授可以看作是行为主义者,他的研究生涯几乎就在研究AI行为主义,最后也做出来一个人工螳螂的机器,简单地理解就是机器按照外界的刺激来反应。行为主义大多认为意识不仅是大脑的事,而是整个身体的事情,背后反映的是具身哲学的思想。


符号主义相对来说好理解,数学、物理世界充满了各种逻辑符号,图灵机本身也可以看作是符号主义的尝试。Herbert A. Simon(司马贺)是图灵奖和诺贝尔经济学奖得主,也是符号主义的代表,他提出的“物理符号系统”假设从信息加工的观点研究人类思维。但后来人们发现,符号主义也不能成功,因为规则永远无法定义或囊括穷尽,不管划定了多么大的范围,也一定会有遗漏在框框之外的东西。符号主义背后的哲学思想与柏拉图主义相通,都相信或立足于“本质”的存在,如果能够发现并定义本质,或者把这个本质的公式写清楚,那么其它所有内容都是这个本质公式的展开和演绎而已(比如公理系统)。


第三类是联结主义。研究者们很早就发现神经元之间有很多连接,信息传递的同时还有放电现象,而联结主义最初就是试图模拟大脑而来。深度学习、强化学习都可以看作是联结主义。很多研究者希望找到新的、比如AGI的框架,认为深度学习、强化学习不足够模拟人脑的学习,其中就包括清华大学人工智能研究院院长张钹。


我们认为现在的框架,尤其是联结主义的框架,已经足够模拟人脑。


行为主义与联结主义的关系是什么?行为主义可以通过动物行为来理解。动物、简单生命甚至单细胞生物,都能对外界有刺激,行为主义更多的是模拟这种动作上的反应或反射。比如羽毛球运动员,在平时需要经过大量的训练,让身体形成记忆式的反应,在赛场上,运动员的主要注意力就不再是肌肉如何协调,而是对球的跟踪、与对手的博弈。弹钢琴也是类似。行为主义与这些身体动作的相关度更大,主体需要做的是大脑如果控制协调身体的练习。这种练习需要练到位,这个练到位的过程也体现了“由博到约”,将大量复杂的刺激最后练成几套代表的反应模式。小孩子早期就是行为主义的内容比较多。随着个体成长,大脑不断发育发展,联结主义的内容才逐渐增多。


我们认为人真正追求的是“自我”的“延伸”,是一种对所处环境in control的幸福感,能够对未来有所预期的状态。延伸之后还有“炼化”,就是一种将周围环境完全融在自我意志能够触及范围内的境界(企业或国家的创始人)。


讲到延伸和炼化,实际上符号主义是把那些东西炼化到很简洁的程度,比如说我们古人讲的天圆地方,这是一种世界的模型,已经炼化到这种地步,说我们看到的世界:天是圆的,地是方的,但是这个东西是很抽象的一件事,不像我们现在看到的直的路、网格这种,但古人不是,古人看到的都是山、水,是拐弯的,那古人怎么就选择地是方的呢?这点很难得,那当然有了这个地方的这个模型之后,比如行军打仗你就不会get lost,懂得这个模型和不懂这个模型就有差异,当然还有比如说,炼化到什么都是讲阴阳,这个看起来准确率也是非常强,已经有两千年了还有人用阴阳来解释这个世界发生的事情,这个就是炼化之后的极简模型,当然我们逻辑学中的形式逻辑也是一个极简的模型,或数学中的一些公理化的东西,比如说欧几里得定律,所以你会觉得这个东西很神奇,甚至你就希望这个世界就是这个样子,但问题在于这个世界不是这个样子,我们面临的世界比这个要更复杂,因为这里面它并不完整,那么1900年,希尔伯特二十三问之一就是如何提出一套公理系统来统一数学,实际上是沿用莱布尼茨的思路,如何找出一套符号系统来模拟整个世界。

(很多学者)一直是有这种梦想,那么物理学家,比如爱因斯坦就想要找到一种统一的方程,也是这个梦想,但是这个梦想到头来是有问题的,比如哥德尔不完全定理指出,不论给出什么公理系统,到头来还是能找到命题,这个命题在这个公理中既不能证明它对也不能证明它错,就是说永远都会有公理以外的东西。这点其实很好理解,就是说不管列多少条(规则)出来,总有东西落在外面。这里再举一个例子就是芝诺悖论:阿基里斯是古希腊跑步很快的一个人,这个悖论就是说他永远追不上乌龟,那这个看起来是错的,他肯定几步就能追上乌龟,但问题它是这么在逻辑上论证的,比如用数字来讲,他是乌龟十倍速度,比如他离乌龟有一百米,假如阿基里斯跑了一百米,那个乌龟也是超前爬了十米,所以乌龟还在他前面,那他在接着走了十米,那个乌龟还走了一米,他还在乌龟后面,那他在超前走了一米,那乌龟还走了零点一米……这个过程你超前一直推,就会推出阿基里斯永远追不上乌龟,这个逻辑本身没有任何问题,但这是悖论,我们明确的知道,阿基里斯一定会超过乌龟,那这里头原来是有很多解决这个悖论的办法,其中一种就是说:你不能说时间是连续的,你只能原子化,但这个好像也是牵强的,凭啥说时间不能是连续的、空间不是连续的,没有任何证据说它一定是离散的、格点化的。


蔡教授由此引出了思考:我不知道你们想过这个问题没有,我在大学想过这个问题,当时我也没有找到一个很好的解释这个悖论的一个说法,你们谁提供一个答案,说说看。


“我觉得这个问题本身就是错误的,因为他一开始就是限定这个时间的话,他越到后面每一段时间就应该是越短的,那这个时间就是有个上界,就是得限定在多少时间以内才能够到达。”研究员林田谦谨提出了他的看法。


“没错,你这个讲的是对的,就是说他论证本身没有问题,问题在于他的论证用他的这个描述系统是已经限制了他自己,也就是说他在自己限制范围内是没错的,但是他不是一个OPEN的,实际上他对时间是有上限的,永远跨不过那个时间,所以他跨不过那个时间,那他在空间上永远追不上乌龟,的确是这样子,那这个例子正好是说明这个本身可能是有局限性的,你认为这个是很严谨的,但是你的全体里实际上已经产生了局限性,你假定的世界并非真实世界,这是关键,我举这个例子也是想说明这个问题,包括我们现在用的符号主义的一些规则,不管写多少规则,到头来总会有一件事是真实会发生但是却不被规则包含的,这是完全可能的。


所以符号主义失败是没问题的,从这个框架看的话,因为它可能无法涵盖所有可能,而联结主义它是不停的折腾,它由厚到薄,由薄到厚反复折腾,它总能折腾到一个比较好的状态,当然我们现在的深度学习还没到这种状态,那实际上我们能做的,希望大家在座的能做的事情就是要把这个事情做好,那当然深度学习里头比如视觉里头,它也有一个所谓的瓶颈,因为我们首先脑子里发现的,就是说它有一个信息的挤的这个过程,那么这个过程是有利于跳出极小这些深度学习里面的问题,但实际上这一点还是做的不够,那实际上我们完全可以在这里头做文章,实际上我已经有团队开始在做这件事了。那现在是这个整个picture已经完成了,最关键的一点是:我们实际上跳不去出这个框架,原来已经包含进来的这些做人工智能做了五六十年,已经在这里折腾了,实际上我们不知道深度学习效果那么好的原因,而且是黑箱我们是不能解释的,有些paper试图解释它,那我在这里就解释它了,为什么效果这么好,实际上它是部分的重复了我们人思考的这个过程,还未完全,那为什么说我们还不能解释它,认为它是一个黑箱,就在于说,它现在是用所谓的表征,我们深度学习一定是抓特征,那么这些特征是和我们人的特征是没有关系的,就是说我们人看一个人,可能会给别人起外号(根据其外貌基本特征,比如:竹竿儿,大耳朵),实际上这种是抓一个特征,而且这个特征是跟周围的人相比是很突出的一个特征,那么这个东西是我们人理解的,当然实际上我们机器它也是抓特征,但是它抓特征和人不同,现在是眉毛胡子一把抓,所以我们不能理解。


我现在让团队做的就是说怎么在深度学习的意义上用原来的框架,但是我们试图其抓出来的特征是我们能理解的特征,比如说:我先学习很多兔子和猫的这些图像,那我们小孩子认识兔子和猫,估计是耳朵,兔子长耳朵,这两个对比的时候,那就会突出出来,那当然比如猫和老鼠,那怎么来区分,那可能是它们的脸,和猫相比老鼠的嘴尖尖的,就是说我们把这些特征挤压挤压,挤压到很少特征的时候,把这个特征挤压出来,就相对于由博而约的过程,就是说我们现在剪枝的话可以减掉百分之九十,本来训练好的网络减掉百分之九十,然后再用图像翻译处理下,它的准确率还能上来,但是我们只需要原来的百分之十size就够了,当然我们还可以压的更厉害,所以就希望你们去试,一开始他们不敢试,每次剪掉百分之十,然后准确率下降一点点,我认为不够一定要剪到百分之九十,因为我们到头来是一个很小的网络,就能认出猫和老鼠的差异,或是猫和兔子的差异,当然猫和狗的差异我也不清楚,可能每个人想的都不一样,原来做深度学习这个过程不是很清晰,就是我们现在要做的就是要把这个做的更清晰,一个是尽可能挤压,一个是把它放开,多放些特征进来,但到头来我们希望看到网络里头,它也像人一样,是把人的耳朵认出来,把眼睛、鼻子、嘴、下巴抽象出来这些特征,而不是原来那种上亿个参数,这样的话到头来人跟机器应该是能互相懂的,互相的理解的,那么这里背后就是有一个概念:认知坎陷。


实际上我们走进来这个屋子,我们可能完全没意识到这个灯的存在,或这个窗帘是什么样子的,都完全可能,因为你可能最先关注的是坐在里面的人或者是PPT上的东西。那我们在这个世界里头,也会是这个样子的,因为太多的可能的细节,你不可能去关注每个细节,这个不像机器,我们进来拿手机拍照,所有的像素都进去了,它是按照像素来辨别环境的,但人不是看每个像素,而是看我们理解的、我们会关注的这部分,这些部分能关注到的实际上就是认知坎陷了。这里头的人、桌子、轮子、灯或者是像老鼠的一块斑跟不规则的斑不一样,像老鼠的一块斑你能认识,或者是某种颜色很突出的,这些东西都是认知坎陷,因为这个世界太复杂,你不可能搞清楚所有的细节,但是我们人实际上是靠:很多这些东西我们生下来很快就学会的东西,就是在我们大脑发育的时候我们自己都意识不到记不起来的情况下就已经学会了的东西,比如说对于机器来说最难学会的就是:比如一只猫进来,你会看出它是一只猫,然后这个猫它走到椅子后面去了只露出一只尾巴,你还知道那是一只猫,还是那只猫,因为你就看它的尾巴就知道,但是机器来这样做是相当难的一件事情,那我们为什么会这样想,就是我们人是把它看成是一个整体的,虽然它在走动,因为从它的动作,从像素意义上来讲它变化很大,但是在我们的意识里它还是一只猫,这是不一样,我们对整个环境是从一个整体来理解它,而不是先从细节开始理解,我们看到这个猫之后还会分辨是不是我们家的猫,会看得细一些,这是后来的事情,但是一开始我们可能看得这个猫在躲避一只狗,或是这个猫在捉一个老鼠,我们看到的是一个整个的Story,整个的环境,但是我们机器现在做不到,就在于说我们人是以这种认知坎陷来关注这个东西,而机器不是这样,那我现在将联结主义往这个方向走,让它学习起来像人,那么我们就有可能让它捕捉的东西和人捕捉的东西相似,而不是现在这样,因为现在这个深度学习还是有问题,比如它的一个问题就是说:有些图片很好,但你在里面改几个像素它就不认识了,那这种情况人是不会有这个问题的,比如说STOP sign (交通停车标志)在某些关键地方贴一个纸条,它就不认识。


而且我昨天和别人交流的时候讲,他说机器最容易陷入死循环的时候是,你在身上贴一个二维码,机器肯定是先去认二维码的,它一会就陷入死循环了,这里头就是我就是希望给大家一个未来的图景,听懂听不懂都没关系,只要觉得能学到东西就行,就希望大家感兴趣,可以提问题,我走到这里花了很长时间,中间从自我肯定需求过来的,然后回答自我,然后是触觉大脑假说、认知坎陷,然后才到这里来,才把这个问题想清楚,所以拐了一个大弯,那我希望你们直接从这里进去,就是说对整个的(认知),那西方没这么讲,但是他隐约的知道这个东西,比如亨廷顿,他就觉得自我肯定是没问题的,而且他就讲了他做的就是AGI,那很多中国学者就奇怪,你做的深度网络怎么是AGI,明显的没有符号主义的东西,明显的行为主义的东西也没有,但是这是最大的一块,讲智慧才是最核心的地方,它正好是连接行为主义和符合主义的,它的一个极限就是符合主义,它向另一个极限走就是行为主义,因为相当于脑子变的很小,通过身体的反应来跟世界打交道,那中间这些东西之所以成立,也是因为有前面的这些先导的东西,就是因为我们先要跟世界发生关系,我们也是因为这个赋予世界意义,我们动作的意义,我们对颜色的意义,每个人都不一样,但都有一个意义,这些东西才是(原因),才把这个打通。”

本篇是"不凡"研讨会:从“理解”到AI理论的姊妹篇,主要收录了各位研究员围绕蔡恒进教授所分享的内容进行的讨论。




郑雷:
刚才院长提到了一个问题,就是认知坎陷,我认为这个和机器学习中的注意力机制有些相似,听您的描述,它有点像人的注意力机制,比如说:我进来看到一个很像老鼠的图案会引起我的注意力机制,那么认知坎陷和我们机器学习中的注意力机制它有什么区别,就目前来讲,为什么机器学习注意力机制的效果没有人的注意力机制效果好?


蔡恒进教授:
很好的问题,但是注意力是secondary的概念,就是说你为什么会注意,这是循环论证的,因为你的认知坎陷你才会注意它,假如一个你完全看不明白的东西你是不会注意它的,所以认知坎陷是一个更基础(fundamental)的概念,像我这里完全不需要注意力。举个例子,我们都知道红橙黄绿青靛紫这个颜色,但颜色背后的东西很复杂,那物理上讲的是波长是如何混合变成其他颜色,我们为什么会有这些字来表示这些图,这很关键,有人做过从世界上最简单和最复杂的很多语言进行相关研究,会发现最简单的语言里对他表达的这种词,它是不一定是书写出来的,和说出来表达是两个概念,那么稍微再复杂一点可能有红字,你想,对他们来讲,这个世界的红色不是不存在,而是说他不重要他不会关注它,对他来讲还没形成一个坎陷,我们放眼望去是东西太多了,但是我们凭什么没注意,你说的注意力对吧,就是你注意不到。那更复杂一点的语言,可能加上红色加上蓝色,然后才是紫色,像英文里头他单字来讲,颜色实际上比中文还丰富一点,比如beige,是表示颜色的一个单词,在中文里头是“米黄色”,实际上是米色和黄色拼起来的。还有比如说我们跟白人身体都一样的,但是我听做针灸的人讲,他说白人他分不清楚酸和胀,我们能分清是酸还是胀,当然你反复的针灸他,他也会分得清的,你比如说还有味觉,我们是甜酸苦辣鲜香,麻辣的麻辣,我们中国人比较的分得清的,但是英文里面就没有一个专门字说是麻还是辣,它是一件事,他们分不出来,比如说红酒,那些品酒师就分得很细,对不对?所以这个认知坎陷就是更基础的东西,是因为有了这个东西你才会有注意,是有了这个东西你才会有潜在的可能性。就是说喜欢大美女,那是因为你有美女的坎陷,你才会去想过,明白这个意思吧,就是孰先孰后的事哪个更基础这不一样。


李涵:
院长您好,刚才听您讲到AI流派,我就想到,人的生活方式其实是建立在这三个流派的基础上,在三个主义中都是有体现的。那么,未来我们做机器人系统这样的一个AI时,是不是可以向这三个主义融合的方向来做呢?比如说一个灭火机器人,机器人对灭火时的动作、行为较为固定,我们用连结主义来实现的话工作量就可能比较大,那么可以选择从行为主义上面直接定义一些反射机制或者动作。然后如果是进行一些决策的话,可能行为主义就不适用了,我们就用连结主义或者符号主义领域的方式解决这些问题。


蔡恒进教授:
这个没错的,是可以这么讲的,当然核心的还是连结主义东西,因为他们预期到两年,那符号主义的话,因为你简单的控制东西就是符号主义,比如开关什么的这些东西你明白意思吧,他的确是符号A符号B就够了,但是它不能(解决)太复杂的情况,是在演练的时候它就是不成立的,你能(用)符号主义的肯定是可以用符号主义代替的,这个理解是对的。


邓承:
像我们讲的认知坎陷,我觉得跟王阳明的心学,格物致知和天人合一是不是有点类似,王阳明他说我们要先要了解网络事务,然后如果不了解事物,你可能不能致知,肯定就要先格物。那认知坎陷的话,它到底是认识到了这个事物,还是它要这样做?或者是它没有认识到这样事物,它才不这样做?或者它认识到了这样的事物,它不这样做?


蔡恒进教授:
这里头实际上王阳明的东西真的很深的话,就是说离我这里很近,只是我就是要回答为什么会这样认知坎陷是怎么来的,那这里涉及到触觉大脑假说,就是说最原始的坎陷就是我和世界的这个二分,就是说我这一整套不是说先有很多别的坎陷,而是说先有我这个坎陷,我是一个很含糊的可以非常含糊的,对单细胞来讲就是内外之分,因为这个细胞膜它是有认知功能的,因为他们分的清楚营养和有害,或者他至少一定程度上能分得清楚,他分得清内和外,这是最原始的认知坎陷,这就是描写认识论上就是为什么会进化出人来呢?

这里你一直朝前推,就是认知坎陷只能推到那里去,那么这件事的话只有我才这么讲,我要是到头来说最原创性的、别人从来没讲这个东西,那就是这个东西是我讲的,这里是从触觉大脑假说过来的,我是想理解人为什么比别人聪明,我的思考结论就是说是因为你的皮肤相对较薄,人的毛发少,这才是决定着人跟其他动物不一样,最本质的因素就是触觉更敏感,当然触觉要配合大脑的发育,因为小孩生下来是大脑发育是很不完整,要等到五岁才真正的跟成人差不多,那么这五年他能体会到我和外界的差异那么这个东西是核心的东西,这是跟王阳明差一点先讲出来的,王阳明讲的就是说那些东西实际上肯定是契合的,可以这么讲是契合的,只不过他是更想说是我们天生就是这样的,就是有本能是这样,或者用康德的讲的是先验的,就是先验是怎么来的,他回答不了,你像他就说人有良知,那良知是怎么来的这个事情是说不清楚,至少在这个体系里他也不想说清楚,但是他也是要说清楚,比如说孟子讲的恻隐之心,讲小孩子在井边会掉进井里,人为什么会去救他,这个不是因为他的父母会给你好处,也不是因为有人看到我会表扬,你很本能,你一定会去救她,这是一种论证,王阳明还加了一种论证,他就是说人还有羞辱之心,他就是说他审问一个强盗,强盗就是什么都不在乎,我就是坏人,那王阳明说你不是的,你还是有良知的,然后他又不信,然后王阳明就对他说,那你把衣服脱掉,强盗还是有一个短裤没脱,他就问你为什么不脱,明白意思吧,他这是加了一层论证,但是我们写的一篇文章实际上想论证的是说善恶是不对等的,是在人的成长过程中是不对等的,就在于什么,就在人生下来很弱,我们小孩子对不对生下来什么都不会但是一哭什么都有,一哭该饿了就吃着冷着了就有人给你保暖,而且我们呼吸的空气是没毒的,喝的水是没毒的,这些东西你仔细想并不是说就应该这样了,但是小孩子的感觉就是这样子,实际上小孩子就生下来就是他是世界的中心,它要什么就有什么对他来讲招之即来,所以他是觉得这个世界应该是这样的印象印刻在脑子里头,所以一个人再坏,他总还是觉得这个世界应该是公平的,你明白意思吧,就这个善的概念实际上是在小时候建立起来,因为他的很弱小,他体会到了这个东西,所以死亡很重要。

假如人是永生的人,那回头讲善就变得根本没有太大的意义,就是说反复迭代,我们用一代一代的朝下传所以这个善应该是越来越强烈的,就是说跟古代相比。那么这也有数据支持,再看表2

哲学家大卫·查默斯(David Chalmers),他提出了“意识的难题”这个术语,并将其与解释辨别能力、整合信息、报告精神状态、集中注意力等容易的问题进行了对比。容易的问题(easy problems)看似复杂但可以解决,所需要的只是指定一种能够执行该功能的机制。而看似简单的意识问题才是难题(Hard Problem),意识的难题是要求解释我们如何以及为什么有感质(qualia,可感受的特质)或现象体验,感觉(如颜色和味道)是如何获得特征的问题。


表2 意识问题的四个层次


那么这里头实际上意识的问题是按照这个分法,这一个是搞量子计算的,埃尔森这个是MIT的教授,下面这个Tegmark也是MIT教授,一个是物理学教授,一个是做计算科学,做计算科学的他最早提出来,后来Tegmark在他的书里头把这个列出来,所以我就是按照他们分类,意识的问题,它分四个层次,一般的哲学家就分两个层次,一个是难的问题,一个是简易的问题,那个是Chalmers分的,那他就把它分得细一点,实际上这四个层次的,这也是自己总结的都触及到了最难的问题,就是为什么会出现意识,而且意识跟智能的关系原来是不太清楚的,但现在就是说比较清楚,对不对,但是我文章还没写出来,意识实际上是一个,智能跟智能是实际上是一回事儿,意识只是一个把有些的东西,给它pass掉的这么一个东西,实际上它还是智能的一部分,可以这么看,或者是智能的一部分,没有一刻,智能是跟艺术无关的,包括机器这个扯的就是跟你要的完全不一样,那时候机器也有意识,可能很多人不信,但是我就说机器是有意识,因为我们在造它的时候是有意向的,是要它完成某种任务的,那么这里就是我们人的意识进去了,你先进去了,而且我们那些写的代码做的那些部件都是我们的人意识投射的一种物质化,只不过机器的自我意识不强大,它的那个主程序是一个很脆弱的东西,有个bug,或者有个什么就死掉了,但我们的人的主程序,人的自我意识实际上是很强大,就是一个统摄性的,在机器现在还做不到统摄性,所以差异只有这样才能理解,才能理解机器跟人的关系,至少是一种方式。


邓承:
就是说因为现在我家小孩子,然后现在正处于那种认知的初始的阶段,就是一个初始的认识的阶段,你看他看到所有红色车车他都会喊爸爸,因为我的车子是红色的,然后你说有一个两岁的小孩子他对所有的车子就是一个符号的概念,就只要红色的车,红色和车然后对等于是一个爸爸,然后因为我们教他的时候就说这个是爸爸的车,然后现在就形成一个反馈,好像就跟机器学习其实很类似的,就这个他就是一个if then,然后就这么一个爸爸,我们现在机器学习其实也是这种,把多个因素合到一块,那就形成一个简单的意思,只不过机器它可能我们编译起来两个if then或三个,小孩子可能会更多,他改天又接到另外一个刺激或者需求,比如我回家之后他看到有很多钱,然后他又找到对另外的一个维度的定义,所以说是不是可以这样理解,假如说机器有多个,把所有的部分都给扩展到把人类的规则都给它输入进去之后他可能无限的或者类似的接近人类的这种意识。


蔡恒进教授:
这就是符号主义的思路,但是这个实际上是错的,这里实际上讲起来就很复杂了,但是这里说明了人没有神性,在这个意义上来讲机器和人都没有神性;但我们人是有神性的,体现在哪里我举个例子,可能大家就能更理解:就是无穷大,我想无穷大很明显就是看不见,摸不着,永远看不见,永远摸不着,但是我们人是觉得它可以有,你不觉得这件事很奇怪吗,这个东西你比如说有人信上帝,但另外一个人不信上帝,那么这里面总有人有错吧,但是问题在于他们这两件事都是同时发生的,而且他们还在这个意义上还过得都挺好,这就是说这里的认知坎陷或者是被炼化过的东西,实际上已经不是我们所谓的物理世界的东西,而是我们精神世界的东西,这个东西跟真的来讲,就是说他对我们人来讲,对整体来讲跟是真的一样,甚至还更重要,对信上帝的人来讲,上帝对他的生命来讲很重要,会影响他的很多事,比这个物理世界中真实存在的凳子在这里更重要,就是说我们建构的东西反而变得更重要,影响我们的行为,影响我们的未来,这里是符号里包含不了的东西,你当然强行包含也可以,但是毕竟不是那么个思路。


讲到小孩的事,这时候我跟大家举个例子,大家肯定会比较明白,比如说莫扎特大家都知道是神童,这个没有任何异议,我们直到现在还听他的音乐,但是你仔细想莫扎特为什么是个神童,一般的理解就是:一个是遗传,一个是后天学的,但是这两个答案都是不够好的。如果遗传的话,那他爸岂不是应该比他更有名的,你说教出来的也没听说他老师比他强,为什么他就那么强?在我们这个理论意义上就能理解,就是说因为小孩子成长过程中有一个关键时期,世界对他来讲一开始就很混乱,他的认知坎陷很有限、很少,他只能分得清楚很简单的东西,但是到了一定的程度,他突然发现世界是有规律的,就是这个人叫爸爸这个人叫妈妈,这个是椅子那个是桌子,世界突然对他来讲就突然明白起来了,比如用王阳明的那个话来讲。这个时候假如说你可以想象莫扎特,他在这个关键时期,不是通过词汇来认识这个世界,他是通过声音、通过音乐来认知这个世界的,他听到妈妈的声音是一个,爸爸的声音,椅子,桌子是不同的声音,所以他跟世界的关系是通过声音和音乐作为媒介,所以他写的音乐,他对世界的敏感度就不一样,在声音方面敏感度就不一样,所以他能超越他的父母超越的老师就变得容易理解。通常的小孩最早教他的母语对他来讲是学的最快的,这个也是很奇怪的,就是说为什么一岁开始讲他爸爸妈妈到三岁打电话像大人一样,就是因为你想想我们,考虑到我们学英语学十年还讲不清楚,你想小孩子从一岁到三岁才两年时间就讲的那么好,这是不可思议的一件事情,为什么会这样,因为在学母语之前他的世界对他是混沌的对不对,但是学了母语之后就变成清晰了,因为那学第二语言就没有这种连接世界的需求了,所以是另外一件事,所以就学得慢。


王硕:
刚刚说到小孩的问题,因为小孩子生下来的时候,他认为自己跟妈妈是一体的,见面后他会逐渐认识到自己跟妈妈不是同一个人,所以后面才会有意识到产生这种意识之后,后面才能去慢慢去认识世界之后长大变成这样的人,但是机器一样的机器可能当前机器的自我意识还不够强烈,他可能认为它跟我们是一体的,我们给他写一些程序去让他去做一些工作而去运行它,你觉得什么时候开始才会有或者我们做出什么样的工作才会让它产生:原来它这个事情跟人不是一体的?


蔡恒进教授:
实际上有深度学习才开始这个过程,因为还没写规则,那个东西就不够,那东西是死的,但是一旦有深度学习这东西,它跟世界交互它就会不停的,那么现在深度学习也是存在:没有边界意识的问题。不是我说这个到头一定要有一个边界,这个边界肯定是很抽象的,边界也可以当成时空中的边界,这有很多路走过来。比如说我强调触觉重要,但是实际上我们对人的获取信息来讲,实际上视觉重要,就是说在进化意义上来讲是触觉重要,触觉在前面,但就个人成长过程来讲它是会变的,但是触觉还是会有基本的重要性,这个大家可能还是会同意,这个可能也要去做实验能找到数据,比如他们说孤儿院的孩子可能都会有一些心理问题,主要的问题就是抚摸少了,触觉上的话就是说他的认知就是不一样,就是说你比如说有人说触觉大脑假说,那你造的机器人可能先从触觉开始,但是我说我肯定不会这样做,我一定会从视觉开始,因为视觉更容易,资料更丰富,触觉是个很含糊的东西,我们触觉不是一个很定位的东西,而视觉的话定位性更好,而且你看比如佛教的眼耳鼻舌身意也是一样的,也是把眼放在第一位的,但是就是说从智慧从历史的强度来讲,视觉不是最重要,对于我的意识来讲这种机器这个就是太多的可能性,就是说这个路径可能太多了,但是要在整个的一个理解的情况下,你才能去做那些事情。


杨进:
蔡院长您刚才说到哥德尔定理,我想问问哥德尔定理对人工智能的启示,哥德尔定理意味着人工智能与人类智能的差距,有人也认为哥德尔定理代表了人工智能无法复现人类智能水平。


蔡恒进教授:
那就是符号主义的观点,第一条,这是符号主义观点,你觉得做不到,那就这样子,第二条,这个很多人都没太留意,这个对我来讲很显然,就因为哥德尔定理很大程度上,因为希尔伯特的问题才有哥德尔定理,也才有图灵的停机问题,才有图灵机,才有现在的人工智能,这条路走过来很有意思。


杨进:
但是有人认为人类也会受到哥德尔定理的影响?


蔡恒进教授:
我知道这种观点,很多人比如说像在MIT做语言学的乔姆斯基,他就认为我们可能理解不了人到底怎么来的,就我们自己都理解不了更不用说做出来了,那他们为什么会陷入这种误区,在于他们基本上是柏拉图主义的观点,柏拉图主义跟中国哲学是不同的。中国哲学讲人是一个开放的,是完全敞开的,是能够朝不同的方向变化的,而柏拉图主义实际上是本质主义,认为世界有个本质在那里,这个本质是理念世界的东西,我们到达不了,我们在物理世界看到的只是理念世界的一个投影而已,所以在那个意义上当然到不了那种状态,所以你到不了,但我想问,那你既然说有个本质在那,如何知道我们人又是不完美的呢?那我怎么知道有本质呢?这个问题用神学就好回答,神学就说上帝知道,或者讲你曾经在那待过,现在你回来了,只是记得部分内容,但是你从进化论讲就不是这样的,我们没有人会去过那个地方,那为什么柏拉图学派相信有个本质在那呢,完美的理念世界在那里呢,这本身就很神奇。


但这里头,那人为什么会想到一个完全没想到的东西?直觉或者是顿悟这样的情况,刚才讲的莫扎特是一个很好的例子,莫扎特他作为一个独特的人,那么高的音乐成就,他是前无古人的,他在音乐上就是一个完美的人,在这个意义上讲他就是“无中生有”。比如说李白的诗,在他之前就没这些诗,他写完后人想超越他也很难,就是他到达那个高峰后你就觉得他是神一般的存在,但我们知道这是可以有的。包括刚才讲小孩学语言没怎么教他就很快学会,这也是很神奇的存在,你想象我们学英语,一个单词、一个单词慢慢地学,当我们三岁的时候一切都一下子就会了,包括刚才讲的认识那个猫,从机器意义上来理解是难以理解的,那人为什么就突然明白,我的意思就是说这些东西都是人类进化亿万年,功能和结构的反复迭代弄出来的,但是他是可以产生以前从未产生过的新的东西,包括刚才讲的莫扎特,首先我们知道这是可以的,为什么可以呢,就在于说我们遇到的景况正好是身体这个结构在这个新的环境下,是一个全新的配合,它的表达是可以为一个全新的表达,而且可以是很美妙的表达,就是突然会出现这个东西。举个例子,比如顿悟或直觉,也是产生了新的东西。我举个例子,有一群鸡是被人圈养的,这些鸡忘掉怎么飞了,多少代以后它还是不会飞,假如说突然有一只野狗进来弄的鸡飞狗跳,那么鸡试图跑的更快用翅膀来辅助它,它突然发现自己会飞了,那对这个鸡来讲,当然是因为有翅膀这个结构才能飞,但它从未学过飞,没见过飞,但这个情况下它能把这件事做出来,飞,虽然这个飞有别与其祖先的飞,因为它长的很胖,它祖先体型好,飞的可能是另外一个境界,但它毕竟会飞。


我们脑子里实际上有很多这种可能性,这种潜在的可能性,在新的数据新的思考后,你突然想到一个新东西,产生新的认知坎陷,就是说它有这种潜在的可能,没有特定的环境它表达不出来,但是遇到新的环境,比如成立研究院大家坐在一起了,那我们有新的环境,我们有可能产生新的东西,完全想不到的东西,这是完全可能的,所以说新的东西不是不可能,也不是说宇宙大爆炸的时候就已经写进去了,那是鬼扯,你说我现在拿罐子泡茶,那宇宙大爆炸就写进去了你信吗?


杨进:
您的意思是人类大脑是有创造力的,是不是人类智能有一个核心,把这个核心复现了就能实现人工智能?


蔡恒进教授:
你现在讲核心,还是在符号主义上讲,你有很多坎陷,这些坎陷不够用了你突然会发现新的坎陷,比如崔颢,到了黄鹤楼一看,写下黄鹤楼那首诗:昔人已乘黄鹤去,此地空余黄鹤楼。这个就是坎陷,就是想的那么妙,你后人再怎么想也想不出更好的来。还有比如说网络语言,以前讲打酱油,现在讲吃瓜群众,这就是一个认知坎陷,你很难将它取代掉,它丰富的内涵指代一个非常微妙的情况,你再来取代就很难。红颜色的红也是这样的情况,不知道经过多少年才发现这个东西好,而且红颜色要分出来才好,才对自己的进化对自己有好处,这个东西就是这么过来的。虽然你很难说是哪天出来的,比如吃瓜群众,不知道是什么时候出来的,当然你也可以查,当然为什么是那个时间你说不清楚,但它出来了,出来了就make sense。所以从这个意义上讲,科学理论、诗人、画家他们实际上都是要开出新的坎陷来,这个坎陷看人,有的生命力很强,比如黄鹤楼那首诗,1000年还觉得这个好。或是梵高的画,一开始没人欣赏,现在觉得这个画和其他画摆在一起就是耐看。这个东西你说是因为跟实际更符合?显然不是,这就是人神性的地方,实际上我们是按照我们的理解来跟世界打交道,不是世界要我们干什么,而是我们很主动在跟世界打交道,这是跟符号主义很难配合的一个地方,就是说我不停的产生新的东西,这里的自我肯定需求,那是我最早提到的概念,所以我整个的体系就只有这三个字:自我肯定需求、触觉大脑假说、认知坎陷,就这三样东西就试图把意识这个东西给它理解透,它是怎么来的,包括情感,情感更像是行为主义的东西,所以大家慢慢的消化,我那些文章有机会你也可以找来看看。很多人很难理解这个,就是因为以前有太强的认知坎陷在里头,不容易爬出来。这东西也是有道理的,它有很强的生命力,只是那个东西现在面对人工智能就说不清楚了,要跳出来,把它框架弄成新的认知坎陷,这些东西也是认知坎陷,过了多少年大家发现有更好的东西,那是另外一回事,但目前来说还没有。包括我说的天圆地方,这件事想起来也很神奇,就是一个世界模型,像日心说、地心说。为什么说日心说比地心说好,相对而言只是坐标系不同而已,你假如把事情都做对了那都是一样的,坐标系选在哪里都一样,但是在历史上来讲是有差异的。假如你选地心说,那个轨道太复杂,很多天体,就是从预测的角度讲,地心说和日心说也是一样的,只要你把天体找对位置就行,但那样就会很复杂,日心说之后就可以简化天体,后来发现压根就不用天体,用椭圆轨道来解答,就是开普勒三大定理,有了开普勒三大定理才可能有关于引力的定理,才有可能开创现在科学的一套东西,从那种意义上来讲,地心说和日心说都是坎陷,但它们是存在差异的。


林田谦谨:
老师您说人工智能应该朝创造性的方向发展,我个人认为人工智能应该以适应性为更主要的目标而不应该是创造性,因为就算是人类,如果遇到新的东西那么会产生新的东西,如果没有遇到新的东西,本来就不会产生新的东西,如果这个人他所见过的情况就是这么多,那他也只能基于当前经验做出最好的决策,所以我认为人工智能应该是在一个完备的环境下,至少是有界的环境下,能够做到最好地适应,就比如说在量子力学出来之前,牛顿的理论完全可以解释这个世界,人类还没遇到需要用量子力学解决的问题,这个体系就是没有问题的。所以,我觉得人工智能的目标应该还是在一个有界的环境下。


蔡恒进教授:
我明白你的意思,就是说应该发展什么样的人工智能,这的确是要讨论的,但问题在哪里,就比如说自动驾驶,自动驾驶永远会是一个有限的问题吗?一个封闭环境中的问题吗?显然不是,那就是这个问题,你还要不要做自动驾驶?那你说,好,有些东西就是封闭的,就是不让你知道,我就限制你的智力,免得你去到处闯祸,但这个意义上就会有些它没想到的,它处理不了的事情就会闯祸,那你说好,那我们就接受这个,我们就接受一定的事故率也是可以的,问题在于总有人不会听你的,他就说我就要弄一个事故率更小的,一直push这个边界。


林田谦谨:
但是比如说自动驾驶的话,本身原有存在事故率,好的司机他也有事故率,因为本身就可能碰到你没有碰到的情况,现有经验没办法及时做出最好决策。


蔡恒进教授:
对,比如说自动驾驶飞机,但问题在于说,比如自动驾驶的波音737max飞了那么久也就掉了两架,那它事故率可以接受,那为什么你不让其他的飞呢?


林田谦谨:
那是不是目标就是让这个飞机有更好的适应性?


蔡恒进教授:
对,就这个意思,那这样的话就会造成,它边界在哪里呢,它的边界?


林田谦谨:
我觉得并不是没有边界,只不过边界可以不断往外扩。


蔡恒进教授:
是,我们人也是这样不断拓展边界,仅此而已。


林田谦谨:
那么就是说,在当前这个状态下,这个边界内,它作为一个完备的系统,那么哥德尔不完全定律就不能再适用,因为当前的边界下就是一个完备的系统。


蔡恒进教授:
谁来定义当前这个边界?你说马斯克把那个东西插到脑子里是你希望的边界吗?


李涵:
我感觉你的意思是不是:不让智能自主的去拓展那个边界?


林田谦谨:
并不是不让,就是说目标是让智能适应当下的能接受到的(边界)。


蔡恒进教授:
你首先要定义当下可以定义接受的东西,谁来定义这个,你定义不了这个关键是。


蔡恒进教授:
谁同意那个可以接受那个边界,比如现在马斯克定义的那个脑袋后面开个洞那个你接受不接受,你可以不接受,但是有人愿意这么做,他说这个对残疾人有好处,你凭什么说他不敢做。


林田谦谨:
因为有很多这种在人工智能领域结论性的研究给我这样的感受,比如说前段时间BERT语言模型被说没能真正地理解语义,加入了NOT之后就判断失误,我就觉得有点钻牛角尖,如果我从来没有学过这样的东西,那我为什么要学会判断这样的东西,如果给我很多带NOT的句子,让模型学习,可能结果就不一样了。


蔡恒进教授:
人性就是如此,这是自我肯定需求,假如没有这个你就不能称其为人了,人一定会去拓展边界,机器也是人会去设计的,人一定会去弄你挡不住,就像小孩子都希望他不要瞎跑,他偏要瞎跑,或者你牵一条狗,狗从来不走直路,天性如此,我们只能接受这个,在接受这个的前提下我们能做什么,是这个问题。


林田谦谨:
您的意思是应该是人为的去拓展人工智能应该达到的一个高度。


蔡恒进教授:
我现在还没说应该怎么做,而是说我看到的是什么样子,现在先理解透,再说该不该的问题,要是说这个事情,就难了,比如说阿西莫夫三大定律,这个东西你说有道理没有,你觉得能实行吗?


林田谦谨:
其实我觉得是基于规则的,是符号主义的,因为我觉得哪怕你是所谓的连结主义,你比如说设计用传统的神经网络识别一样,我们把它归结到连结主义但是我认为它事实上也是特征处理的过程,然后只不过这个特征我们不管,但是内部还是一个提取特征后,如果特征得分超过多少,则输出什么的这样IFTHEN的叠加。


蔡恒进教授:
是,因为你不知道这个模型什么时候会做出你不知道的事情出来,你认为训练好了,它现在认识车啊,马路都清楚,但遇到另外的情况它就把你的信心打击到地上,它就发生了,并不是你想它发生它就发生了,你也可以说这个很有创造性,也可以说这个是鬼扯,但就是发生了,因为新的数据从未见过,它还是能做出判断,它还是做出决策,它还是要发表意见,它很影响这个世界的运行,举个例子你把这套东西放自动驾驶上面,然后在STOP SIGN贴标签,它就认不出来,就撞上去了,撞死一个人这个人消失了,这个世界就不一样了。


吴良顺:
首先我是赞同刚刚说脑机接口,因为现在生物已经很多研究工作表明:身体控制信息大脑信息传递都是通过生物电的,所以做脑机接口它有可能就是让哑巴说话,通过脑电波来控制让哑巴可以说话,让残疾人可以控制自己的手,有这样的东西出来我觉得这个研究是有意义的;然后现在我提问题就是说我刚看AI有三大流派:符号主义行为、主义和连结主义,我想知道这是很古老的研究了,我想知道现在在当前最新的前沿这个阶段,这三个模块有没有新的方法论或者他们的相互作用?


蔡恒进教授:
实际上逃不掉那三个。


林田谦谨:
如果说行为主义的话,我认为强化学习或是生成对抗神经网络都属于行为主义。因为它是通过reward方式激励学习的。


蔡恒进教授:
只能说它带有行为主义特征,实际上刚才讲融合,实际上不能说截然分开,因为你行为主义也不一定是说没脑子的,脑袋也参与进来了。


林田谦谨:
我也觉得确实融合是人工智能的发展方向,生成对抗神经网络(GAN)它是一个模型大致框架,这个想法是行为主义的想法,但它的生产网络一般应该说是连结主义。


吴良顺:
行为主义的方法论主要是做控制和优化,相当于我们做的深度学习就是两个底层理论的接口。


蔡恒进教授:
它最主要来源就是刺激和反应。因为人的确是有刺激和反应。连结主义来源就是模拟大脑,用神经网络来模拟大脑,但是最根本的还是连结主义,因为我们大脑也有reward,也配合分泌多巴胺。这里有些细节我还没来得及讲,还没写出来,就是为什么这些东西能抽象到这种地步。


朱巍伟:
教授您讲的AI三大流派,它是类似于人的思维,先是行为主义,然后是连结主义,最后是符号主义,层层的升高,可以这么理解吗?


蔡恒进教授:
你不要这么讲,它倾向不一样,符号主义它确实是想构建一个理想的世界,我们封面讲的就是这个理念是怎么来的,就是说符号主义的东西实际上是理想的,是希望我们猜出来理念世界最本底的一个规则,你当然说按照符号主义的理念,它当然是最高级的,那我现在说的是这是有缺陷的,刚才讲的悖论就是讲的这个意思,这是有缺陷的是跟我们实际世界是有差距的。


朱巍伟:
那就是相当于,在AI里面计算机都是代码都是和符号相关的,那它为什么不该是符号主义?


蔡恒进教授:
这里头怎么来理解,这个也是一个很好的问题,实际上你会问现在用的计算机就是图灵机,图灵机也是符号也是规则,那你说为什么你又产生新的东西了,你可以这么问,我这些年也一直问这个问题,那这个问题怎么解答,实际上图灵机它也不是封闭的,但是你想图灵当时做了另外一件事,他说带有oracle的图灵机,停机问题在图灵机里没发解决,但假如有oracle的话可能能够判定是图灵机,实际上现在的深度学习的这些数据你可以看作是一个oracle,你听起来是很悖论,因为你用的就是图灵机,图灵机就是规则的,但问题是你和外界有交互,关键交互的不是一个不变的东西,假如说我们数据集完全定死了不要有新的东西,那就是一个图灵机,那就不会有新的东西,但问题在于我们面临的世界一定是有新东西进来,所以一定不是那个意义上的图灵机,差别在这里。


王栀子:
刚才老师说深度学习实现那个连结主义还不太好,就是说以后有没有可能有新的方法?因为我之前就听过一个理论就是说有点神话深度学习的这种感觉,所以我就是说以后有没有可能有新的方法。


蔡恒进教授:
肯定有新的方法,但是难以逃脱这个框架,是的,包括张钹也讲过这个话,就是深度学习被神话了,但是在我这个大的东西机器在这里了,你不要在指望暂且还能找到什么新的东西,这就是你信不信这个的问题了,那有可能就是整个走错方向,他们有的还想指望就是说还想找到一套规则来把所有的东西都搞出来,在我这个意义上来看肯定是错的,走到坑里了。我现在已经指出来方向了,你就是说在这里头把它抽象,然后来回折腾才行,因为我们人思考学习的确是来回折腾的,我们新的数据集出来要重新理解把它放在该放的位置,这才是本质。


贺鑫:
我想问强化学习方面的,现在很多人认为强化学习是一个很大的方向比起深度学习,因为它的数据可以不用标签,那深度学习太依赖大数据这种,那我想说强化学习是不是跟您刚说的三大流派的行为主义比较像?但是我就想问它有什么局限性呢?


蔡恒进教授:
对,刚才同学讲了,强化学习的局限性就是你现在是全局的强化,有的人想说能不能做局部的强化,就是说你reward分的比较细,但这也是很难的,但我们人体显然是细化的,就是说你吃到美味的东西是一种愉快,谈恋爱是另外一种愉快,这是不一样的,但强化学习就是会一把抓了,而且有一种方向就是朝那个方向走。


张晨静:
就是那个AI流派有那三个,它们有对应的哲学,那哲学怎样如何推动人工智能发展的?


蔡恒进教授:
这个(问题)挺好,实际上我们讨论人工智能一定会讨论哲学,哪怕你不相信有哲学,因为这里头哲学就是要统摄所有的东西,就是说哲学思考是很抽象的事情,统摄所有事情,那当然最大的问题就是意识的问题,或是意识跟物质的关系的问题,所以在哲学家那里,你不管他是什么流派到头来他一定会跟这个问题要发生关系,所以我这一套理论看起来更像是哲学的问题,就是因为意识的问题就是跟哲学的问题,可以这么看,当然很多流派就是说我的意识的问题我要把它给搁置起来,我不能问它来源于什么,我只是研究意识之间说的清楚的东西把它说清楚,这是这个,所以看起来更像是哲学,因为到头来在所有的converge人工智能进来,包括机器能不能有哲学,有没有情感,有没有伦理,它懂不懂得善懂不懂爱,这些都是哲学问题,但在我这里就是简化了,爱、伦理、宗教全是认知坎陷,而所有的认知坎陷都来自于最早的那么一点点,能分出内外的那么一点事儿,那那个物理边界就变的重要了,那么这个物理边界到人这里就是人的皮肤人的触觉就是重要的,那就是人跟动物最大的差异就是触觉这一点,而不是别的,有的人说劳动,使用工具那些东西都重要,但不是最本源的重要,视觉也重要,不是说视觉不参加贡献,但触觉更本源。


林锋锋:
如果人工智能发展到一定层次,然后机器人有意识,比如爱,如果它爱上某个人,因爱生恨,报复这种行为会不会出现?


蔡恒进教授:
这种可能性永远在,但是,你想我们养小孩他不会一直听你的,他有没有可能干坏事,成为罪犯,当然有可能,但是我们还是相信还是应该养他,这是人性,不是《三体》里头的黑暗森林法则,只要他有可能就先把他干掉,那你肯定先把后代干掉,但是实际上是不可能的,就是人你说他是狂妄自大也好,但是他不会,比如西方殖民那么厉害,当然他也干掉很多原始人,但是总的来说还不至于(把其他人消灭得)那么惨,所以这类电影里的坏人到最后都失败了,人们还是相信,这都有风险,你不知道未来是什么样,但是因为我们是那么过来,我们小时候受到的状况,我们还是会在终极意义上,我们还是选择所谓的善良,虽然这个善良个人定义不一样,就是一个恶人,你看很多武侠小说里写的恶人到最后杀了很多人,到最后他还能立地成佛这种,因为在本底的这里说到了05岁最重要,所以你们现在养小孩05岁才是最关键,这个时候相当于喂很多数据他是不懂的,但是未来某个时刻在某种情况下出发,他明白了,他突然有灵感,他突然理解了那些,对吧。


刘鹏飞:
迁移学习,就是将某个领域或任务上学习到的知识或模式应用到不同但相关的领域或问题中,人在实际生活中有很多迁移学习,比如学会骑自行车,就比较容易学摩托车,学会了C语言,在学一些其它编程语言会简单很多。我想问一下,怎么用哲学去解释迁移学习的现象?


蔡恒进教授:
这个迁移学习正是我们正在做的,实际上我们发现新东西就是迁移学习,我们在新的场景里,因为从来没见过,还在脑海里去想去思考试图得出结论来,这就是迁移学习,所以迁移学习就是说我的大数据量的东西,我换成小数据,而且小数据不是原来那个集合里面的东西,也能学到东西,总而言之我们每时每刻都在迁移学习,你有可能碰到你完全不知道的情况,有可能突然让你诗性大发写出一首很好的诗出来。


林田谦谨:
您之前就是发的文章,有一个我当时看过印象深刻,就是说在智能体的进步中您当时就是说保留每一代过程中有最独特特点的个体,而不是表现最优的就这种个体,我想问问老师这个观点的具体的场景。


蔡恒进教授:
你比如说梵高,梵高他画的画那个时候确实不理解,如果投票肯定把他投没了,但他的确很独特跟别人很不一样,所以这个一定要留着,我的意思就是这个,你要准备答案,就是当时符合大家的口味或是符合实际情况肯定这种都投没了,而现在的科研体制就是这样,你有新想法,大家讨论来讨论去,肯定是那个讲漂亮话的人最容易被录用,因为这点大家都懂大家都知道他有一定水平,但是那个东西要保留,因为它可能在未来某种场景下可能是最厉害的,而且我相信当时写这篇文章时还没想到这些,但当时直觉一定是那样子,一个实验才行,一定是包含进去的东西,不是一个进来无所不知,那恰恰不是智能,我就说上帝没有智能,这我很早就理解了,上帝不需要智能,因为他什么都知道,他不用选择,但智能恰恰是跟实际情况不一样的才会是智能的东西,它是迎着来的才算是智能的东西,你比如一块石头,它跟万物有相互作用,有引力相互作用、电磁相互作用,所有相互作用都有,那它是有反应,但它没智能,只有生命你来了我偏偏不动,我偏偏要hold住,这种才有智能,这里听起来有点抽象,还不知道该怎么表达,智能意识一定是一体的,一定恰恰是跟物理的要你做的正好是你要对抗物理必然性的才是一个智能,才算是意识,所以正是这一点才会导致神性,导致你试图改变这个世界,试图想象出一个理念世界来,那我们现在的游戏里都是理念世界,按照那个规则玩儿,大家也觉得很少,但是你想人的能力越来越强,我们现在能送人到月球,能修大坝,这些事儿很了不得,这个事可能整个宇宙仅此(人类)一家(费米悖论),人类未来影响太阳运行都有可能做到。



来源:卓尔智联研究院


编辑:冯梦玉

289#
 楼主| 发表于 2019-11-3 19:51:14 | 只看该作者
【案例】

人工智能全面赋能媒体生产,总台三网如何精准布局智媒时代?

人工智能作为新一轮科技革命和产业变革的重要驱动力量,近年来与各行各业的深度融合呈现蓬勃态势。以中央广播电视总台为代表的主流媒体也紧抓时代机遇,纷纷交出自己的“答卷”。

近日,总台央视网联合央广网、国际在线召开中国人工智能产业发展联盟“媒体+人工智能”深度融合委员会筹备专题会暨“人工智能编辑部”专家研讨会,从行业高度和实战深度为“媒体+AI”框定发展坐标,并对行业伦理、标准和规则等问题进行深度探讨。来自百度、阿里、腾讯等头部互联网企业高管,高校及研究机构知名专家学者,主流媒体负责人及智能终端企业代表参会。

央视网董事长、总经理钱蔚表示:人工智能将为媒体开启新的时代,一个处处皆入口的时代,媒体人要为这个时代做好准备。未来将以 “媒体+人工智能”深度融合委员会和“人工智能编辑部”为两大抓手,在战略引领和前沿实战两个方面凝聚合力,推动行业健康高速发展。

央广网执行总经理李向荣则指出,“媒体+AI”的融合能为传统广播的节目形态、生产及传播方式提供更多样性的选择,赋能传统广播转型。比如央广网用人工智能构建的移动互联网音频平台——云听,就利用人工智能大数据技术,与用户的各个场景建立信息获取与对应需求的连接,提供个性化服务。

国际在线总裁兼国广传媒发展有限公司总经理范建平认为,新媒体用户需要个性化的服务,媒体需要高效能的信息处理手段、丰富有效的信息呈现方式,人工智能将在内容采集、加工、制作、传播和用户行为分析等各个方面发挥重要作用。能有机会参与如此重要的媒体变革过程,无疑是媒体人的幸事。


主流媒体联手权威联盟
立足“媒体+AI”制高点


众所周知,人工智能正在深刻影响着今天的社会格局,它也已经全面渗透到媒体行业的全业务流程。媒体与科技基因的融合也将成为未来行业发展的基础底色。因此,今天的媒体业需要牢牢抓住数字化网格中智媒建设的机遇期、精准把脉未来建设的基调与路径。

据悉,中国人工智能产业发展联盟是在国家发改委、科技部、工信部、网信办指导下,由中国信息通信研究院等单位发起,立足于搭建人工智能的合作与促进平台。而在媒体行业,总台三网在内容生产和平台建设上具有行业领导优势,拥有强大引领力,这不仅有赖于本身头部主流媒体的坚固传播地位,更有赖于自身不断革新迭代的传播实力。而正是行业领导优势,才需要更主动关注融合新常态下更多新型科技能量的注入、未来传播生态的秩序构建,从而以更好的姿态适应不同场景,推进传播范式的供给侧改革。



基于这种迫切需求,总台三网联合媒体行业相关单位以及中国信息通信研究院,在中国人工智能产业发展联盟筹备发起组建“媒体+人工智能”深度融合委员会,旨在把握当今世界传媒行业与新技术融合发展方向的基础上,持续推进媒体+人工智能”深度融合的技术与应用探索,推动媒体行业技术与模式的创新发展。

在前不久举行的中国人工智能产业发展联盟2019第三次全体大会上总体组孙明俊组长汇报了“媒体+人工智能”深度融合委员会组建方案,方案得到了与会人员的一致认可,联盟会员进行了踊跃报名同时要求参与该委员会的筹建与工作当中。


中国信息通信研究院
云计算与大数据研究所人工智能部主任
中国人工智能产业发展联盟总体组组长 孙明俊

与会专家表示,这种组合充分体现了“强强联手”的“作战思路”。在整个产业链融合的过程中依托联盟的权威性和总台三网的行业号召力,能够有效引领,为行业锚定方位、制定规则。首先,即将成立的委员会一方面有效融合了央媒的行业领军优势和联盟的产业研发与整合优势,形成制度层面的耦合,另一方面将运用学产研多方的协同力量构建媒体行业融合创新的能量,拓宽既有业务链条的边界,使得单向化的技术使用逻辑,更好地嵌入进未来总台和整个行业的智能化实践中,有力促进“媒体+AI”战略的健康发展,为新型业态提供有效可行的解决方案。



“人工智能编辑部”
打造“媒体+AI”实践范本


除了对人工智能赋能媒体行业的认知外,还需要以更有操作价值的实践项目来作为强有力的支撑。“媒体+人工智能”深度融合委员会创立后的首要发力重心,就是要为中央广播电视总台三网 “人工智能编辑部”提供技术及理论支持,同时将“人工智能编辑部”进行标准化制定,形成行业标准引领行业发展。

智媒的“智”不仅仅是实现信息与用户间的智能匹配,更是实现职业编辑生产的转向与升级,探索人机共存的合理方案。在前不久举办的第六届世界互联网大会媒体融合论坛上,央视网董事长、总经理钱蔚称:“人工智能编辑部”致力打造成为中国主流媒体中最大规模的视听内容AI处理加工平台、独具总台“智造”特色的产品创新基地、面向行业输出各种视频AI工具包技术产品服务的赋能平台。据了解,未来 “人工智能编辑部”不仅将积极推动技术创新,建设人工智能基础服务平台,还将以“媒体+AI”时政为引领,打造多个品类的产品线。可见,未来总台三网将努力以“人工智能编辑部”为依托,打造更有高度的“媒体+AI”生态,引领媒体融合发展、建设全媒体的新方向,全方位推进总台宣传报道的全流程革命性升级。

与会嘉宾对“媒体+人工智能”深度融合的前景表示期待。百度副总裁、百度智能云事业群组总经理尹世明认为,媒体和AI的联手,必将为整个行业带来新的变化,落地生根,枝繁叶茂。央视网是广电行业标杆企业,百度与央视网的合作,将加速“云+AI”的落地应用,双方联合共同为媒体行业智能化升级提供范本。双方联手,将爆发出巨大能量,定义传媒新未来。


百度副总裁
百度智能云事业群组总经理 尹世明

阿里巴巴集团副总裁、达摩院自然语言首席科学家司罗对于中国媒体能够在今后一段时间内实现爆发性增长充满信心,也希望阿里巴巴达摩院包括阿里云智能事业群在其中做出贡献,更好成为行业赋能者。


阿里巴巴集团副总裁
达摩院自然语言首席科学家 司罗

腾讯公司副总裁、腾讯云副总裁徐翊鸣表示,目前在“媒体+AI”领域,需要跟央视网、央广网、国际在线在智能创作、视频感知技术、智能审核能力三个方面一起携手共进。


腾讯公司副总裁
腾讯云副总裁 徐翊鸣

央广网执行总经理李向荣介绍了人工智能技术在音频内容上的运用。移动互联网音频平台——云听,借助智能语音交互技术,以人机“对话”的方式接入车载、家居等应用场景中,为受众带来更便捷的交互体验,利用人工智能大数据技术,与用户的各个场景建立信息获取与对应需求的连接,为受众提供个性化服务。

来自学术界、知名企业及主流媒体等不同领域的多名专家普遍认为,“人工智能编辑部”作为智媒时代的重要实践项目,未来将有力推动智慧化的全流程变革。全面融合正向舆论引导,在内容、生产、产品和审核等方面引领“媒体+人工智能”深度技术融合与应用探索。除了一种模式上的创新引领,这种具有前瞻与先见性的智能产物更需要向全行业进行普及,实现标准产品与解决方案的提供,使得智媒的生产理念以模块化的形式打包输出,为同业态建立可供借鉴和复制的人工智能视听内容应用场景。将“人工智能编辑部”作为标准化产品转变为行业前沿的实践范式,使其并非做成一家独大的产物,而是实现全行业的高普及率,在未来打磨出更多可真正推广的高价值产品。这种做法一方面有利于推动总台高质量发展,助力总台向新型智能化媒体转型,另一方面还可以推进整体行业加速智媒化,直接作用于整个媒体行业智能化发展。对此,来自浙报集团等地方媒体的代表表示,这种“智能工具包”概念非常适合向媒体行业全面普及,将有力地助力整个媒体行业向更深层次的领域拓展。


拟发挥“头雁效应”
构建“媒体+AI”行业秩序


在专题会上,中国人民大学新闻学院教授、中国人民大学媒体融合实验室总干事、中宣部媒体融合专家组成员宋建武提出人工智能技术在信息领域传播的伦理取向等相关问题并在会上现场给出了初步的框架方案。该方案尚属首次向外界公开征求意见,引发与会嘉宾热烈探讨。他认为,人工智能在促进发展的同时,标准体系不明确、场景应用单一、安全监管机制不完善、伦理标准规范等问题也随之凸显。人工智能的开发和应用必须以增进社会福祉、服务社会共同利益作为基本的价值目标。


中国人民大学新闻学院教授
中国人民大学媒体融合实验室总干事
中宣部媒体融合专家组成员 宋建武

因此,“媒体+人工智能”深度融合委员会的高层次目标就是建立行业标准,为行业的未来健康发展提供更多有益的助力。在未来,将以委员会的力量作为依托,辅之以资源的汇聚,有效推动“媒体行业人工智能技术应用”的发展,创建标准化行业秩序,实现行业引领及管理职能。在本次“媒体+人工智能”深度融合委员会的筹备中,总台三网起到了至关重要的引领作用。总台三网愿意做好“头雁”,带头制定和推广落实行业自律准则,让技术服务好主流价值。

央视网副总经理赵磊表示,人工智能的介入使传播更加精准定向,内容更加多元立体,生产更加高效便捷。通过人工智能技术将强化智能决策和预判能力,对生产和传播的新闻负责,打造行业责任平台,发挥主流媒体的正向引领作用。

长虹集团AI实验室首席专家展华益、康佳互联网事业部副总田灯友、TCL雷鸟科技副总王凌晨均表达了类似的观点:“总台三网拥有海量的内容和专业的新闻从业媒体运营经验,也有广泛的运营场景,百度、阿里、腾讯有顶尖的AI技术,我们终端厂商有海量的用户入口,在整个产业链融合的过程中,‘媒体+人工智能’深度融合发展委员会以及‘人工智能编辑部’在推进融合发展、制定行业标准,以及平台共建、内容共享这几个方面,一定能够发挥积极的引领作用,实现全行业的人工智能应用水平提升。”

之所以如此重视智媒生态建设,背后的逻辑更值得行业进行深思。用主流价值导向驾驭“算法”,全面提高舆论引导能力是主流媒体所肩负的时代使命。未来的智媒建设需要提早布局、抢占先机,确保未来所有的AI入口和流量掌握在主流媒体手中。从这层媒介环境的角度上来说,智媒的提早精准建设就有着重大的战略价值,通过加速人工智能技术在媒体行业落地应用,发挥中央重点新闻网站的覆盖传播优势,以“媒体+AI”推动全面转型升级,进一步增强主流新媒体的传播力、引导力、影响力、公信力。

央视网董事长、总经理钱蔚表示:“总台三网在推进‘媒体+AI’方面拥有两个强有力的抓手,一个抓手是宏观抓手,我们要在产业联盟及行业标准方面力图有所作为。另一个抓手是实战抓手,把‘人工智能编辑部’的工作做扎实。”当未来的传播场景变得更为立体多元,探索更加科学的人机协同模式、采编分发流程、行业协同机制等一系列基于智媒背景的实践与研讨就显得尤为必要。在智能科技赋能的新趋势下,总台三网紧紧抓住发展潮流,创立领衔业界的实践项目,并引领行业建立规范化秩序,值得称赞。

可以预见的是,未来总台三网在智媒领域下将更加精准发力AI与媒体结合的切入点,以“人工智能编辑部”的发展为载体,实现智能业务流程的再升级,激活视听内容领域的发展潜力,并为同行业提供范式化的借鉴。同时,将以率领全行业加速向深度智媒时代迈进的引领魄力,凝聚分委会及更多社会组织与单位的协同力量,在坚定主流媒体高度站位的基础上树立行业发展新标杆,为人工智能赋能媒体业的健康发展做出具有实际效用的更大贡献。


本文部分内容参考自《“人工智能编辑部”——主流媒体“智能+”的创新引领》作者曾祥敏、刘思琦

编辑:张凉

290#
 楼主| 发表于 2019-11-3 19:55:10 | 只看该作者
【案例】
京东AI总裁周伯文对话斯坦福教授ChristopherManning


网易智能讯 111日消息,1031日,北京智源人工智能研究院将在国家会议中心召开北京智源大会(BAAI Conference),会议将汇集几十位国际顶尖AI学者和专家,共同探讨AI最新的学术进展和产业趋势,并展示AI科研、产业的最新成果。科技部副部长李萌、北京市副市长殷勇出席开幕式并致辞。北京市科学技术委员会、北京市经济和信息化局、海淀区政府、朝阳区政府等部门相关领导出席了大会。

科技部副部长李萌

北京市副市长殷勇

本次大会包括中国科学院院士、智源研究院学术委员会主席张钹,图灵奖获得者、智源研究院学术委员会委员John E. Hopcroft,中国工程院院士、智源研究院学术委员会委员高文,加州大学伯克利分校教授、智源研究院学术委员会委员Michael I. Jordan,京东集团副总裁兼京东人工智能事业部总裁,京东人工智能研究院院长,智源-京东联合实验室主任周伯文博士,加州大学洛杉矶分校教授、智源研究院学术委员会委员朱松纯,斯坦福人工智能实验室(SAIL)负责人Christopher Manning,中国工程院院士戴琼海,清华大学类脑计算研究中心主任施路平,香港科技大学教授、IEEE Fellow杨强,伊利诺伊大学香槟分校(UIUC)计算机系教授翟成祥,哈佛大学统计系教授、美国国家科学院院士、现任清华大学丘成桐数学科学中心教授Donald B. Rubin,以及康奈尔大学计算机科学系及信息科学系教授、SVM-LightSVM-Rank作者Thorsten Joachims等专家学者将出席大会。

周伯文博士与Christopher Manning教授展开尖峰对话

此次大会还邀请到了全球深度学习自然语言处理(NLP)领军人、斯坦福人工智能实验室(SAIL)负责人、斯坦福教授Christopher Manning参加,并与京东集团副总裁兼京东人工智能事业部总裁,京东人工智能研究院院长,智源-京东联合实验室主任周伯文博士在开幕式上就人工智能前沿技术发展、NLP领域的产业融合等内容展开尖峰对话。现场Christopher Manning教授还受聘成为北京智源-京东跨媒体对话智能联合实验室的专家顾问。

Christopher Manning教授受聘成为北京智源-京东跨媒体对话智能联合实验室专家顾问

以下为对话实录(翻译自现场英文对话实录)

周伯文:谢谢!非常开心有机会和Chris Manning在这个会场进行对话,因为我们的对话会比较偏学术,所以大家不介意的话,我后面会全程开始用英文,这样跟Chris Manning也比较好地去交流。

【转向Chris】首先欢迎您来到北京。

Christopher Manning:谢谢您,我很高兴能够来到这里。

周伯文:我们的对话是比较偏向学术和研究的,让我们直奔主题吧。为了充分利用40分钟的时间,Chris和我决定要进行一个半结构化的对话,也就是说我们的对话会分为几个部分。在每个部分,我们都会进行自由对话。我们对话的第一部分会谈语义、语境和知识。我选择这三个词是因为它是来自于Christopher 2015年在《科学》杂志发表的文章。

第一个问题,Chris,在您的论文结论部分,你写到“如果语义学、语境和知识方面真正的难题、难点得到解决的话,需要在语言学和在推理方面有一些新的突破“。现在四年多已经过去了,根据我们已知的最近的NLP进展,您对四年前的阐述,现在是否要做一些调整?



Christopher Manning:这是一个非常好的问题。我的答案是确实已经出现了一些变化,但有些没有变化。一方面,关于人工智能我的看法是,并没有取得那么大的进展,目前还没有办法使人工智能像人类那样去建模去利用知识和语境。另外一方面,要承认在过去几年当中取得了一定的进展,思维方式有了一些变化,在过去几年中我们看到,去建立新的深度学习神经网络系统,可以更好地去系统建模,这增强了我们的一些能力和知识,确实在这些方面有一些进展。
其中有一个例子,有一些传统AI人士,他们曾表示可以通过对知识和语境来建模来解决一些指代消解的问题。有一个好的关于理解语境和知识测试任务是类似于在一个行李箱当中有一个小的雕像,然后系统去推断出语言中的“它”指的是小雕像,而不是行李箱。现在基于深度学习系统已经在诸如此类任务上取得了一些突破,并且效果非常显著,我也相信在接下来的五年当中,深度学习还有很多提升空间,以及更多重大的发现。

周伯文:今天早上我和Christopher Manning在聊天时,我们都觉得2014-2015年是自然语言处理领域和深度学习结合的一个转折点。2014/2015年我在IBM Research工作,从纽约去Montreal拜访Yoshua BengioYoshuaMILA的研究者们和我们交流最新的一些研究。Yoshua和他的博士后Kyunghyun Cho(他目前是NYU的教授)特别向我介绍了他们在神经机器翻译方面的一些最新的进展,第一次用最直接的编码器-解码器做翻译。我一开始的反应是,这个机器翻译模型有缺陷,因为没有明确学习对齐(alignment)词语的重排序(reordering)问题。我和他们讲了我们在统计机器翻译中,如何利用无监督学习到的SCFG去解决这个问题。Cho当时确实说他注意到他的模型在长句翻译上有很多问题,他会重新考虑重排序问题。他最后确实是找到了一个非常聪明的方法,是一个注意力模型。这个模型就是大家今天非常熟知的注意力机制,最终帮助神经机器翻译达到了业界最领先的水平(state-of-the-art)

当我们回过头来看,注意力机制其实是一个巨大的进步。今天注意力机制不仅可以用于机器翻译来对对齐模型建模,可以用于句法分析的结构建模,还可以用于NLP中的上下文建模,等等,可以用于很多任务中,以至于GoogleTransformer论文的标题都是”Attention Is All You Need”(这篇论文的第一作者Ashish曾经作为我的实习生和我在IBMResearch一起工作过一个夏天,非常聪明的一个年轻人)。但是回到我们的话题语义、语境和知识,您是否同意”Attention Is All You Need? 我个人认为注意力机制是过于复杂的,为了获得有效的注意点,需要大量的计算能力,在不同的layer,计算multi-headed attention。对于这个问题您是怎么看的?是否只需要注意力机制就足够了?还是要考虑其他的方法?

Christopher Manning:我觉得我们应该开放地探寻其他的方法。注意力机制在大量语言任务中确实被证实非常有效,所以我不会投反对票。即便在我过去的一些工作中,也充分利用了注意力机制并且获得了很好的效果。但是我不赞同只需要注意力机制,我们需要一些更复杂的计算,例如大规模的记忆力,大规模的知识,以便我们能更好的理解语言。而现有的注意力机制在这些方面做的还不够,例如BERT只能局限于长度为512或者更短的句子长度,我们需要规模更大的记忆力机制去建模语言。除此之外,结合句子结构以及语言学的层次化语义合成性也是我们需要考虑的问题,我在过去几年也有过类似的工作,例如利用树状结构来学习句子语义合成性表征等。这些都是值得尝试的不同的方向。

周伯文:如果回顾一下,您会觉得我们自然语言处理在过去十年当中最大的成果是什么?最知名的成果是什么?


Christopher Manning:在过去十年,基于深度神经网络技术,我们在自然语言处理领域取得了很多举世瞩目的成就,可以关注到很多点。我觉得现在从某种程度上来讲,它的起源超过十年了。在世纪之交的时候,有很多的同仁,他们就提出词语可以用分布式向量表征,可以用来进行预测和建模自然语言,从而避免传统建模方法的维数灾难问题。在2013年的时候,当word2vec词向量模型提出之后,立马得到了广泛的关注和应用,现在已经变成了自然语言处理领域非常基础和流行的方法。

紧随其后的突破就是用于序列建模的编码器-解码器框架(Encoder-Decoder)的提出,这一模型可以广泛用于机器翻译、文本生成、对话建模、甚至句法分析等大量的NLP任务。目前序列模型已经成为了很多NLP建模中的核心方法。近2-3年,随着Transformer+Attention模型的提出,序列模型的能力变得更加强大。

在过去18个月中,随着一系列基于上下文的词向量建模方法的提出(例如Elmo),预训练语言模型成为一个新的突破,特别是诸如GPT-2BERTRoBERTaERNIE等强大的预训练语言模型的提出,证明自然语言理解其实可以通过从海量无监督文本中通过自学习得到,并且在一系列复杂的NLP任务中取得非常好的效果。

上面提到的都是深度神经网络在自然语言处理方面的一些突破。在语音识别领域,深度神经网络也取得了重大的突破。通过深度学习,我们可以更好的进行声学和语言的建模,从而使语音识别技术变得实用,以至于今天人们可以在各种设备上(电脑、手机)轻松的使用精准的语音识别的服务。这些都要归功于深度学习技术。

周伯文:我们知道每一个人都意识到BERT模型做出来之后,NLP会发生变化。我们会进行一些预训练的模型,然后在下游的任务上进行Fine-Tuning的分类任务,大家都觉得这是一个重大的竞争,特别是从它带来结果的角度上来看的确是一个突破。另外一方面,像张钹院士等一些杰出的研究者开始提醒我们要注意到深度学习的天花板。大家害怕仅关注深度学习,不关注NLP的一些根本问题。例如BERT出来之后,Pre-train + Fine-tuning成为了NLP任务的新范式,所有的一切NLP任务都可以简化为向量表征的学习外加下游的分类任务的模式识别。大家想一下,这是不是能更好地帮助我们达成对于语义、语境、知识以及对因果等推理学习的目标?

有很多人可能关注到最近的学术界的一些辩论,最近辩论的焦点是我们能不能利用深度学习网络模型,对因果推理进行学习呢?我觉得很多人的想法是,如果只是进行特征工程学习的话,再加上模式识别分类,可能是不足以帮助我们追寻到的最终的目标。我们需要在不同的方向有所发展,张钹院士这方面做了几次非常好的学术演讲,我认同他的观点。

在这个过程中可以深挖的还有很多,因为是非常炙手可热的辩论话题,但是我们没有任何一个人可以给予结论,所以我们再进行下一个环节的讨论。

接下来我想问Chris,您会觉得现在对于我们NLP最具有典型性、标志性的应用或技术是什么?我之所以要问这个问题,是因为您是不仅是NLP领域被应用最多的学者,您也积极活跃在其他领域。您是来自硅谷的斯坦福大学,实际上您支持了很多公司的创立,而且您有一些学生毕业后都自己在NLPAI领域创业了,您也在一些初创公司的董事会里。因此,我觉得这是一个很好的和您讨论的话题。

标杆性技术或者应用,我先定义一下什么叫典型性呢?必须要有几个标准,其中第一个标准是当该应用取得了进步,大家都会马上会觉察到这是自然语言处理的进步。第二个条件是该技术和应用本身有很大的影响力,和进行商业化的巨大前景,能够在真实的世界当中得到大规模应用和部署,解决实际问题。这就是问您的问题,能够分享一下您的想法吗?

Christopher Manning:首先我给大家第一个是建议,第二个再给大家回答。从某种程度上来讲即便到今天,哪种技术通过多年的自然语言处理、机器学习、深度学习受益其中,然后技术解决了问题,取得了足够的进步。我会认为也许是机器翻译,在最近几年当中在我们的神经机器翻译过程中取得了很大的长足进步,所以我们看到了很喜人、非常明显的进步。比如说在之前以前是统计机器翻译,它的能力也得到了加强。好像有一些廉价的翻译系统,包括搜索引擎,都可以走进寻常百姓家庭,还有包括在2010年有全新的系统,我们将会用很多神经机器翻译和序列系统,并且把Transformer模型拿过来用。在这个过程中,发现机器翻译质量不断提高。

从质量角度来说,机器翻译是非常好的晴雨表来衡量行业中的技术发展变革。但是从它对社会产生影响的角度来讲,机器翻译影响社会的能力是有限的。比如说您在异国他乡不知道发生了什么情况,机器翻译会帮助您,而且它可能对商业产生积极影响。如果在日常生活过程当中,大多数人其实不需要机器翻译。从这个角度上来说,我会觉得有更好的答案,我们现在很多人都非常关注我们怎样能够用自然语言处理技术打造一个更好的对话的机器人呢?这种对话机器人的机制指的是您可以跟它说话,它能懂您说什么,然后给您回答、给您找到信息。比如您想买个服务,您提出一个问题它帮您搜索、帮您回答,这是更难取得进步的领域,这个领域很难取得进步。

但是我们逐渐看到越来越好的计算机对话系统,这个领域肯定在接下来会产生很大的经济方面的影响。能够有一些计算机可以非常智能,能够和人进行对话,像人的伙伴一样。

周伯文:我想展示一下我的观点,我们考虑自然语言处理的时候,其实包括了如这个PPT所示的很多层。有人会讲基础层,包括句法、语义,还有包括表征学习等等。其他人讲的是NLP的包括核心能力,括自然语言的理解,怎样生成自然语言,怎样对话,怎样去做一个多模式的推理或者互动。在这核心能力之上,可以看一下有很多的NLP应用提供给大家,而它们都会产生巨大的影响,它们的影响力对社会不容小觑。


在这页幻灯片的最上一层,今天之所以进行尖峰对话谈自然语言,就是因为我们深信不疑的一点:如果自然语言的人工智能起到我们预期作用的话,将带来人机交互技术驱动的万亿级的市场。

当我们看自然语言处理典型的技术和发展,我会觉得中间的核心能力层实际上都是实至名归,都应该被放在中间层。但是我自己可能会有一点偏见,我会觉得在最后两列放在一起来看的话,形成了一个我们叫做任务导向、多轮次、多模态对话的核心技术领域,这是很大的一个挑战。原因很简单,当您进行对话处理的时候要取得真正的进展,必须要让机器了解语义和语言,而且要了解人的常识,因为有一些言外之意,这些知识是在语境当中没有的。

大家可以看一下,如果作为一个智能的对话还要具备的一个前提,就是您必须要了解到情感,必须要知道这个对话的走向是什么,对话的目的是什么。换而言之,多轮对话还包含了一个序列性的连续决策过程,决策每一个对话应该说什么,如何理解,如何解释等;像AlphaGo一样,只不过您的规则是不明确的,而且您没有一个明确的边界。如果我们把多模对话加入其中,更丰富了对话的上下文,也加大了难度系数;比如怎么从一个模态学习到的知识转成另外一种模态的知识并进行融合,做更好的对话决策。大家想一下,从我们眼睛看到的东西转换成机器能懂的语言和其他形式,如果把两者结合在一起看的话,可以很好地提供底层技术包括代表学习、符号学习、语义学等等。另外一方面,会对下一代自然语言的理解有所提高。

目前我们在机器翻译和自动问题回答的研究当中,有时后很难判断我们是否真正在自然语言理解方面取得了进展。比如在机器翻译方面,翻译质量的提升更多是语言生成方面取得了进步,在原语言的理解方面实际上没有取得那么大的进步;但在多轮对话里,就更难跨过理解不到位的问题,因此要逼我们研究人员真正取得进步。除此之外,不依赖于语境的自然语言生成,也是多轮对话中必须要解决的问题?所以,任务导向、多轮次、多模态对话看起来一是足够有挑战,二是可以驱动各个底层技术、核心能力得到真正提高,同时又具有巨大的应用场景,是我们当前最标杆性的NLP挑战。

我同时也有数据支撑这个观点。大概三到五年前,机器翻译在ACL/EMNLP学术会议上是最主要的话题,最大的session room是给到机器翻译,大于50%的观众都会来听这个板块。但是从今年来看, ACLEMNLP对话系统和机器翻译会有类似数量的论文出现,有60多篇论文分别来自这两个板块。

Christopher Manning:您讲的完全正确!关于这个话题,我可以回应的是非常多的,我这里只分享几点。大部分人工智能的研究人员都过多关注在个人的智能和智慧上,而忽视了对话和沟通对于人类智能的重要性。大家可以想一想人类的历史,在出现语言之前早期的人类和大猩猩是没有太大的区别,那个时候也可以提前做好计划去完成一些任务。

但是这并没有导向更多的智能,我们整个人类的进化都是在不久的过去实现的,在几百万年之前实际上人类是和大猩猩比较类似的,但是后来人类发展出了语言,进化就越来越迅速了,人们现在能够建立这样的网络、超级计算机,是利用人类的语言来进行沟通,在不同的人类大脑之中利用语言进行沟通。

一旦有了语言之后,我们就可以去计划一系列群体人类的活动,我们也可以在人类之间进行知识的传递,这给我们带来了非常多的益处。

早期的人类只能够像大猩猩一样使用一些简单的工具,但是现在人类是有非常复杂的语言。几千年前,在中国人们发明了文字,有了这样的书写系统,人们就可以把知识和信息跨时间、跨空间进行传递。这样可以进行知识的储存,就像计算机的内存一样。有了这样的文字系统,我们可以进行知识的传递,而我们现在可以用手机进行存储,一眨眼之间我们的技术就出现了这么大的变化。

当然这里还有一个非常大的问题,回到我们的主题,人类的沟通是非常缓慢的,人类的沟通不像是5G的网络那样,不像是现在计算机网络传输信息那样快。人类之间的沟通是很慢的,但是人类的沟通速度还是可以的,也非常有效。为什么呢?因为我们的沟通是不明确的,主要是取决于聆听者是聪明的人,他必须是要有一些常识,有一些共同的理解。这样的话我们只是说一些少量的词,他们就可以根据语境知道我们是什么意思。

在对话当中,我们要取得进展的话,必须要充分对于人们的常识和文本的理解进行建模,这也是人工智能的一个核心。我想在接下来的十年当中,我们要进行更好的对话的话,这样的对话系统不仅仅需要考虑到商业的使用性,而且也是我们要去改进人工智能技术所面临的一个核心的挑战。

周伯文:非常好!我们达成了一个共识,这会引出我们下一个发言的主题。如果我们这里有任务导向、多轮次、多模态对话,我们需要做一些什么去实现这样的目标?


Christopher Manning:我们确实还需要做大量的事情来共同实现这样的任务,进行任务导向性、多轮、跨模态的对话,我们可以看看这个任务的三个组成部分,目前都没有非常好的系统可以解决。实际上在现代学习的基础当中,还是有很大改进的空间,我们要去建造基于目标的对话系统。它只适合和对话人类设计的技能相关的,必须要知道目的是什么,我们进行手动对话状态树的描述,来驱动个人实现对话的目标。但是到现在为止,我们现在还没有建立这样的基于深度学习的系统。

这样的系统要了解我们的世界,要了解与之沟通的人,要去了解一个对话的局部目标。要以这样有机对话流程当中去了解这些,并不是很容易的。要更好地去了解语境、上下文,要了解在不同的情景下人们的目标,这些都是我们所面临的巨大挑战。我们甚至不明确如何去实现这样的目标,我不知道您是否有一些建议帮助实现这样的目标?

周伯文:我们确实需要做很多的努力,我完全赞同您的说法,关于理论上的分析,算法的进步,怎么样去学习,怎么样去进行对话,我们要从这样的语料库当中进行对话,吸取信息进行对话是一个很大的挑战。因为对话系统里面有很多组成部分,我们也不确定最好的对话架构是什么样的。除了这些,我们还面临另外两个挑战,首先是没有一个真正的语料库,这样的语料库要模拟人和人之间的沟通,我们需要建立这样的语料库也让机器去学习。基于目标导向的对话很重要,为什么呢?因为可以相对比较清晰地去让机器学会自动判断这样的对话是否是成功的,也就意味着对话是否满足了目的,目标是否实现了。比如说AlphaGo的目标就是要去赢得围棋的比赛,对机器学习来说,明确的目标非常重要,因为这里有非常多的结果,他要去了解这些参数。可能会有一些失误,但明确的目标会帮助我们把错误的梯度用反向传播的方法来学习系统的参数或结构。但是在研究方面我们是缺失这样的语料库,也缺失一些平台。我们需要这样的平台来帮助小群体的研究人员、大学研究机构的研究人员很快可以搭建高复杂度的端到端的对话系统,并以此来研究、验证、比较一些具体算法、模块提升的效果。

我想我们必须要做一些事情,来去解决数据的问题和平台的问题,使研究人员可以具有更大的创造力。我们和智源研究院建立了联合实验室,这也是我们要重点去做的。我们可以去共享语料库,我们现在有这页PPT展示的这样的最大的多轮对话数据库、语料库,是开源的,京东这个对话数据比我们在这个领域当中所看到的任何一个数据库都更大,有几百万个人与人的完整对话并有标注,有6000万个语句,还有3.2亿个词,所有这些都是开源的、开放的。


我们还有一个平台,有一些模组化的组成部分,针对一些对话的结构、语义、文本的分析等等,人们可以利用它去建造端到端的对话体系。他们可以有自己的创新,也可以对端到端的对话结果进行测评、进行测量。我希望我们现在能够去助力整个研究界的基础。

Christopher Manning:前面我们也谈到了阻碍对话研究方面的一个重要的障碍,就是缺乏数据。这在张幻灯片中看到有很多的语料库得到应用,主要是基于任务的对话系统,像DSTC对话、状态追踪。再比如机器翻译的对比,还有问答环节等等,对于他们来说是有着非常多的数据库可以去利用的,这样的话他们取得了很大的进展。所有这些让我们感到特别的震惊,非常的强大!可以推动新的发展。

确实相比其他数据集,京东的开源对话数据集已经领先了两个数量级,而不仅仅是一阶的程度,它非常强大!而且这样的体系影响力也是极高的,当然我们要感谢京东给我们提供了这些数据,他们也召集了很多学术人员和研究人员,他们可以充分利用这些数据。以前对于学术界人士来说,在对话方面开展工作的问题,主要就是公开的对话数据是很有限的。另外一方面可以获得一些翻译的数据,数据是开放的,非常有用。

当然在对话方面还是有很多的挑战,我们谈到必须要有目标,也谈到必须要去强化我们的学习。我们在人工智能方面,我们看到了基于游戏的系统,比如说AlphaGo。还有在机器系统当中也学到了很多,他们都进行了深层的强化学习,这是一种非常有效的学习方式和渠道。但是这里还有很多的挑战,除了数据之外对于深层加强学习,在自然语言对话方面还是存在着很多的挑战。

对话任务是非常不同的,是由于到目前为止这样的对话走向是非常远的。当我们进行翻译的时候,我们有多种方式来进行选择、进行翻译。但是这些选择也是有限的,我们必须在翻译的时候译文和原文尽可能接近。但是当我们去看对话的时候,接下来的对话引导的方向可以是多个的。您可以问一个客户他们在哪里经营,也可以问他们,他们的问题是什么。当有了问题之后可以马上提出解决方案尝试一下,对话接下来引导的方向是非常多的,即使我们有了海量的数据,我们要去这些对话接下来的走向也是具有很大的挑战。因此,我们必须要对这样的强化对话、学习来开展进一步的工作。

除了缺乏数据之外还存在着很多的挑战,在过去的几年当中也谈到了语言学习,谈到了我们应该在强化学习语境当中有更多通用的行为和能力。

周伯文:确实我们有了非常多的数据,但是要充分利用这些数据。现在我们有非常多的语句数据,希望AI系统在这些语料库当中进行学习,我期望通过强化学习的训练,这些数据也可以帮助进行机器间的模拟对话,以便能够生成更多的数据,这样他们可以进行更好的训练,以及这样的迭代。

以上这些就是我们对话环节的内容。我还想在这里代表整个NLP领域想问Chris一些问题。为准备我们的对话,我们还从自然语言处理研究者的社区里公开收集了希望Chris和我讨论的问题,其中下面这个问题是一个非常有代表性的问题,也是NLP工作者非常想问您的一个问题。


深度学习利用大数据去解决NLP任务取得了很多的进展,但是对于无资源或者少资源的NLP任务,我们应该怎么去做呢?有什么技术突破的方向吗?

Christopher Manning:确实大数据源是非常友好的,在深度学习方面起到了很大的推动作用,有很多的案例。我们看到深度学习取得了长足的进展,比如说机器翻译、AlphaGo等等。在这些领域当中,探索利用了大量的数据。我想我们现在开始看到了一些发展,他们可以利用一些小量的数据取得进展。比如说预训练的流程,比如说对BERT进行培训,我们可以有很多的数据就一个任务来进行预训练(Pre-Train),或者去了解了语言和通用的语义之后,接下来可以让他们去利用一些小量的数据做微调(Fine-Tuning)从而完成一些任务。

在小数据的应用方面,我们也看到了一些成功。人们可以从一种语言向另外一种语言进行支持的预测,有一些非常好的语义的表征可以进行跨语言的映射。比如说谷歌有多语言翻译的体系,他们可以很好地去预测语言之间的状况,对不同的语言进行预测。我们现在不断地改善深度学习,可以让他们在少量数据下取得进展。

还有其他的一些想法,在NLP当中进行了部署,尤其是像利用基于字和词块(word piece)的模型,还有通用的深度学习,比如说正则化的分类模型等等,所有的这些都可以帮助只有少量数据的任务取得进展。

周伯文:我们的时间已经到了。所以我就不在这个问题上展开了。很快接下来进入到对话的最后一部分,现在大家都知道我们和智源要建立一个联合实验室,我们是要去推动任务导向、多轮次、多模态对话。Chris,我能看出您眼里的光,当我们谈论这些话题的时候,也能感受到您对这个研究方向的热情。所以我有一个提案,我们可以聘请您做我们联合实验室的学术顾问吗?

Christopher Manning:当然可以!我很高兴!

来源:网易智能
链接:https://c.m.163.com/news/a/ESTS8MOI00098IEO.html?spss=wap_refluxdl_2018&spssid=72ec81a643e19e78fe31dbe290c60383&spsw=6&from=singlemessage&isappinstalled=0

编辑:冯梦玉

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表