【案例】 研究院"不凡"研讨会:从“理解”到AI理论
2019年7月26日上午,卓尔智联研究院“不凡”研讨会第一讲正式开讲,第一讲由研究院执行院长蔡恒进教授主讲,他主讲的题目是《从“理解”到AI理论》,下面是本次研讨现场实录的第一部分。
中文的“理解”可以有两种翻译,一种是comprehend,另一种是understand。Comprehending的前缀“com-”就带有范围广阔的含义,可以看作是将更多的内容包含进来的意思。Understanding的词源比较有争议,有人认为是Under-实际上是Inter-,也有人从undertake的角度来解释,我们认为understanding的重点可以看作是“站在更底层”的角度看。在做研究时,如果能够从更底层出发,贯通各理论观点,就可以看作是understanding的理解。
表1 AI理论的会通
换一种角度看,comprehending的特点是由约而博,需要吸收大量的、丰富的内容,而understanding是消化吸收了这些内容之后由博到约(比如学习电磁学到最后只剩下Maxwell方程组)。爱因斯坦追求大统一理论也可以看作是由博而约的过程。
AI三大流派(行为主义、联结主义和符号主义)大家应该耳熟能详了,但这三者的关系似乎还没有被整理得很清晰。MIT的Brook教授可以看作是行为主义者,他的研究生涯几乎就在研究AI行为主义,最后也做出来一个人工螳螂的机器,简单地理解就是机器按照外界的刺激来反应。行为主义大多认为意识不仅是大脑的事,而是整个身体的事情,背后反映的是具身哲学的思想。
符号主义相对来说好理解,数学、物理世界充满了各种逻辑符号,图灵机本身也可以看作是符号主义的尝试。Herbert A. Simon(司马贺)是图灵奖和诺贝尔经济学奖得主,也是符号主义的代表,他提出的“物理符号系统”假设从信息加工的观点研究人类思维。但后来人们发现,符号主义也不能成功,因为规则永远无法定义或囊括穷尽,不管划定了多么大的范围,也一定会有遗漏在框框之外的东西。符号主义背后的哲学思想与柏拉图主义相通,都相信或立足于“本质”的存在,如果能够发现并定义本质,或者把这个本质的公式写清楚,那么其它所有内容都是这个本质公式的展开和演绎而已(比如公理系统)。
第三类是联结主义。研究者们很早就发现神经元之间有很多连接,信息传递的同时还有放电现象,而联结主义最初就是试图模拟大脑而来。深度学习、强化学习都可以看作是联结主义。很多研究者希望找到新的、比如AGI的框架,认为深度学习、强化学习不足够模拟人脑的学习,其中就包括清华大学人工智能研究院院长张钹。
我们认为现在的框架,尤其是联结主义的框架,已经足够模拟人脑。
行为主义与联结主义的关系是什么?行为主义可以通过动物行为来理解。动物、简单生命甚至单细胞生物,都能对外界有刺激,行为主义更多的是模拟这种动作上的反应或反射。比如羽毛球运动员,在平时需要经过大量的训练,让身体形成记忆式的反应,在赛场上,运动员的主要注意力就不再是肌肉如何协调,而是对球的跟踪、与对手的博弈。弹钢琴也是类似。行为主义与这些身体动作的相关度更大,主体需要做的是大脑如果控制协调身体的练习。这种练习需要练到位,这个练到位的过程也体现了“由博到约”,将大量复杂的刺激最后练成几套代表的反应模式。小孩子早期就是行为主义的内容比较多。随着个体成长,大脑不断发育发展,联结主义的内容才逐渐增多。
我们认为人真正追求的是“自我”的“延伸”,是一种对所处环境in control的幸福感,能够对未来有所预期的状态。延伸之后还有“炼化”,就是一种将周围环境完全融在自我意志能够触及范围内的境界(企业或国家的创始人)。
讲到延伸和炼化,实际上符号主义是把那些东西炼化到很简洁的程度,比如说我们古人讲的天圆地方,这是一种世界的模型,已经炼化到这种地步,说我们看到的世界:天是圆的,地是方的,但是这个东西是很抽象的一件事,不像我们现在看到的直的路、网格这种,但古人不是,古人看到的都是山、水,是拐弯的,那古人怎么就选择地是方的呢?这点很难得,那当然有了这个地方的这个模型之后,比如行军打仗你就不会get lost,懂得这个模型和不懂这个模型就有差异,当然还有比如说,炼化到什么都是讲阴阳,这个看起来准确率也是非常强,已经有两千年了还有人用阴阳来解释这个世界发生的事情,这个就是炼化之后的极简模型,当然我们逻辑学中的形式逻辑也是一个极简的模型,或数学中的一些公理化的东西,比如说欧几里得定律,所以你会觉得这个东西很神奇,甚至你就希望这个世界就是这个样子,但问题在于这个世界不是这个样子,我们面临的世界比这个要更复杂,因为这里面它并不完整,那么1900年,希尔伯特二十三问之一就是如何提出一套公理系统来统一数学,实际上是沿用莱布尼茨的思路,如何找出一套符号系统来模拟整个世界。
(很多学者)一直是有这种梦想,那么物理学家,比如爱因斯坦就想要找到一种统一的方程,也是这个梦想,但是这个梦想到头来是有问题的,比如哥德尔不完全定理指出,不论给出什么公理系统,到头来还是能找到命题,这个命题在这个公理中既不能证明它对也不能证明它错,就是说永远都会有公理以外的东西。这点其实很好理解,就是说不管列多少条(规则)出来,总有东西落在外面。这里再举一个例子就是芝诺悖论:阿基里斯是古希腊跑步很快的一个人,这个悖论就是说他永远追不上乌龟,那这个看起来是错的,他肯定几步就能追上乌龟,但问题它是这么在逻辑上论证的,比如用数字来讲,他是乌龟十倍速度,比如他离乌龟有一百米,假如阿基里斯跑了一百米,那个乌龟也是超前爬了十米,所以乌龟还在他前面,那他在接着走了十米,那个乌龟还走了一米,他还在乌龟后面,那他在超前走了一米,那乌龟还走了零点一米……这个过程你超前一直推,就会推出阿基里斯永远追不上乌龟,这个逻辑本身没有任何问题,但这是悖论,我们明确的知道,阿基里斯一定会超过乌龟,那这里头原来是有很多解决这个悖论的办法,其中一种就是说:你不能说时间是连续的,你只能原子化,但这个好像也是牵强的,凭啥说时间不能是连续的、空间不是连续的,没有任何证据说它一定是离散的、格点化的。
蔡教授由此引出了思考:我不知道你们想过这个问题没有,我在大学想过这个问题,当时我也没有找到一个很好的解释这个悖论的一个说法,你们谁提供一个答案,说说看。
“我觉得这个问题本身就是错误的,因为他一开始就是限定这个时间的话,他越到后面每一段时间就应该是越短的,那这个时间就是有个上界,就是得限定在多少时间以内才能够到达。”研究员林田谦谨提出了他的看法。
“没错,你这个讲的是对的,就是说他论证本身没有问题,问题在于他的论证用他的这个描述系统是已经限制了他自己,也就是说他在自己限制范围内是没错的,但是他不是一个OPEN的,实际上他对时间是有上限的,永远跨不过那个时间,所以他跨不过那个时间,那他在空间上永远追不上乌龟,的确是这样子,那这个例子正好是说明这个本身可能是有局限性的,你认为这个是很严谨的,但是你的全体里实际上已经产生了局限性,你假定的世界并非真实世界,这是关键,我举这个例子也是想说明这个问题,包括我们现在用的符号主义的一些规则,不管写多少规则,到头来总会有一件事是真实会发生但是却不被规则包含的,这是完全可能的。
所以符号主义失败是没问题的,从这个框架看的话,因为它可能无法涵盖所有可能,而联结主义它是不停的折腾,它由厚到薄,由薄到厚反复折腾,它总能折腾到一个比较好的状态,当然我们现在的深度学习还没到这种状态,那实际上我们能做的,希望大家在座的能做的事情就是要把这个事情做好,那当然深度学习里头比如视觉里头,它也有一个所谓的瓶颈,因为我们首先脑子里发现的,就是说它有一个信息的挤的这个过程,那么这个过程是有利于跳出极小这些深度学习里面的问题,但实际上这一点还是做的不够,那实际上我们完全可以在这里头做文章,实际上我已经有团队开始在做这件事了。那现在是这个整个picture已经完成了,最关键的一点是:我们实际上跳不去出这个框架,原来已经包含进来的这些做人工智能做了五六十年,已经在这里折腾了,实际上我们不知道深度学习效果那么好的原因,而且是黑箱我们是不能解释的,有些paper试图解释它,那我在这里就解释它了,为什么效果这么好,实际上它是部分的重复了我们人思考的这个过程,还未完全,那为什么说我们还不能解释它,认为它是一个黑箱,就在于说,它现在是用所谓的表征,我们深度学习一定是抓特征,那么这些特征是和我们人的特征是没有关系的,就是说我们人看一个人,可能会给别人起外号(根据其外貌基本特征,比如:竹竿儿,大耳朵),实际上这种是抓一个特征,而且这个特征是跟周围的人相比是很突出的一个特征,那么这个东西是我们人理解的,当然实际上我们机器它也是抓特征,但是它抓特征和人不同,现在是眉毛胡子一把抓,所以我们不能理解。
我现在让团队做的就是说怎么在深度学习的意义上用原来的框架,但是我们试图其抓出来的特征是我们能理解的特征,比如说:我先学习很多兔子和猫的这些图像,那我们小孩子认识兔子和猫,估计是耳朵,兔子长耳朵,这两个对比的时候,那就会突出出来,那当然比如猫和老鼠,那怎么来区分,那可能是它们的脸,和猫相比老鼠的嘴尖尖的,就是说我们把这些特征挤压挤压,挤压到很少特征的时候,把这个特征挤压出来,就相对于由博而约的过程,就是说我们现在剪枝的话可以减掉百分之九十,本来训练好的网络减掉百分之九十,然后再用图像翻译处理下,它的准确率还能上来,但是我们只需要原来的百分之十size就够了,当然我们还可以压的更厉害,所以就希望你们去试,一开始他们不敢试,每次剪掉百分之十,然后准确率下降一点点,我认为不够一定要剪到百分之九十,因为我们到头来是一个很小的网络,就能认出猫和老鼠的差异,或是猫和兔子的差异,当然猫和狗的差异我也不清楚,可能每个人想的都不一样,原来做深度学习这个过程不是很清晰,就是我们现在要做的就是要把这个做的更清晰,一个是尽可能挤压,一个是把它放开,多放些特征进来,但到头来我们希望看到网络里头,它也像人一样,是把人的耳朵认出来,把眼睛、鼻子、嘴、下巴抽象出来这些特征,而不是原来那种上亿个参数,这样的话到头来人跟机器应该是能互相懂的,互相的理解的,那么这里背后就是有一个概念:认知坎陷。
实际上我们走进来这个屋子,我们可能完全没意识到这个灯的存在,或这个窗帘是什么样子的,都完全可能,因为你可能最先关注的是坐在里面的人或者是PPT上的东西。那我们在这个世界里头,也会是这个样子的,因为太多的可能的细节,你不可能去关注每个细节,这个不像机器,我们进来拿手机拍照,所有的像素都进去了,它是按照像素来辨别环境的,但人不是看每个像素,而是看我们理解的、我们会关注的这部分,这些部分能关注到的实际上就是认知坎陷了。这里头的人、桌子、轮子、灯或者是像老鼠的一块斑跟不规则的斑不一样,像老鼠的一块斑你能认识,或者是某种颜色很突出的,这些东西都是认知坎陷,因为这个世界太复杂,你不可能搞清楚所有的细节,但是我们人实际上是靠:很多这些东西我们生下来很快就学会的东西,就是在我们大脑发育的时候我们自己都意识不到记不起来的情况下就已经学会了的东西,比如说对于机器来说最难学会的就是:比如一只猫进来,你会看出它是一只猫,然后这个猫它走到椅子后面去了只露出一只尾巴,你还知道那是一只猫,还是那只猫,因为你就看它的尾巴就知道,但是机器来这样做是相当难的一件事情,那我们为什么会这样想,就是我们人是把它看成是一个整体的,虽然它在走动,因为从它的动作,从像素意义上来讲它变化很大,但是在我们的意识里它还是一只猫,这是不一样,我们对整个环境是从一个整体来理解它,而不是先从细节开始理解,我们看到这个猫之后还会分辨是不是我们家的猫,会看得细一些,这是后来的事情,但是一开始我们可能看得这个猫在躲避一只狗,或是这个猫在捉一个老鼠,我们看到的是一个整个的Story,整个的环境,但是我们机器现在做不到,就在于说我们人是以这种认知坎陷来关注这个东西,而机器不是这样,那我现在将联结主义往这个方向走,让它学习起来像人,那么我们就有可能让它捕捉的东西和人捕捉的东西相似,而不是现在这样,因为现在这个深度学习还是有问题,比如它的一个问题就是说:有些图片很好,但你在里面改几个像素它就不认识了,那这种情况人是不会有这个问题的,比如说STOP sign (交通停车标志)在某些关键地方贴一个纸条,它就不认识。
而且我昨天和别人交流的时候讲,他说机器最容易陷入死循环的时候是,你在身上贴一个二维码,机器肯定是先去认二维码的,它一会就陷入死循环了,这里头就是我就是希望给大家一个未来的图景,听懂听不懂都没关系,只要觉得能学到东西就行,就希望大家感兴趣,可以提问题,我走到这里花了很长时间,中间从自我肯定需求过来的,然后回答自我,然后是触觉大脑假说、认知坎陷,然后才到这里来,才把这个问题想清楚,所以拐了一个大弯,那我希望你们直接从这里进去,就是说对整个的(认知),那西方没这么讲,但是他隐约的知道这个东西,比如亨廷顿,他就觉得自我肯定是没问题的,而且他就讲了他做的就是AGI,那很多中国学者就奇怪,你做的深度网络怎么是AGI,明显的没有符号主义的东西,明显的行为主义的东西也没有,但是这是最大的一块,讲智慧才是最核心的地方,它正好是连接行为主义和符合主义的,它的一个极限就是符合主义,它向另一个极限走就是行为主义,因为相当于脑子变的很小,通过身体的反应来跟世界打交道,那中间这些东西之所以成立,也是因为有前面的这些先导的东西,就是因为我们先要跟世界发生关系,我们也是因为这个赋予世界意义,我们动作的意义,我们对颜色的意义,每个人都不一样,但都有一个意义,这些东西才是(原因),才把这个打通。”
本篇是"不凡"研讨会:从“理解”到AI理论的姊妹篇,主要收录了各位研究员围绕蔡恒进教授所分享的内容进行的讨论。
郑雷: 刚才院长提到了一个问题,就是认知坎陷,我认为这个和机器学习中的注意力机制有些相似,听您的描述,它有点像人的注意力机制,比如说:我进来看到一个很像老鼠的图案会引起我的注意力机制,那么认知坎陷和我们机器学习中的注意力机制它有什么区别,就目前来讲,为什么机器学习注意力机制的效果没有人的注意力机制效果好?
蔡恒进教授: 很好的问题,但是注意力是secondary的概念,就是说你为什么会注意,这是循环论证的,因为你的认知坎陷你才会注意它,假如一个你完全看不明白的东西你是不会注意它的,所以认知坎陷是一个更基础(fundamental)的概念,像我这里完全不需要注意力。举个例子,我们都知道红橙黄绿青靛紫这个颜色,但颜色背后的东西很复杂,那物理上讲的是波长是如何混合变成其他颜色,我们为什么会有这些字来表示这些图,这很关键,有人做过从世界上最简单和最复杂的很多语言进行相关研究,会发现最简单的语言里对他表达的这种词,它是不一定是书写出来的,和说出来表达是两个概念,那么稍微再复杂一点可能有红字,你想,对他们来讲,这个世界的红色不是不存在,而是说他不重要他不会关注它,对他来讲还没形成一个坎陷,我们放眼望去是东西太多了,但是我们凭什么没注意,你说的注意力对吧,就是你注意不到。那更复杂一点的语言,可能加上红色加上蓝色,然后才是紫色,像英文里头他单字来讲,颜色实际上比中文还丰富一点,比如beige,是表示颜色的一个单词,在中文里头是“米黄色”,实际上是米色和黄色拼起来的。还有比如说我们跟白人身体都一样的,但是我听做针灸的人讲,他说白人他分不清楚酸和胀,我们能分清是酸还是胀,当然你反复的针灸他,他也会分得清的,你比如说还有味觉,我们是甜酸苦辣鲜香,麻辣的麻辣,我们中国人比较的分得清的,但是英文里面就没有一个专门字说是麻还是辣,它是一件事,他们分不出来,比如说红酒,那些品酒师就分得很细,对不对?所以这个认知坎陷就是更基础的东西,是因为有了这个东西你才会有注意,是有了这个东西你才会有潜在的可能性。就是说喜欢大美女,那是因为你有美女的坎陷,你才会去想过,明白这个意思吧,就是孰先孰后的事哪个更基础这不一样。
李涵: 院长您好,刚才听您讲到AI流派,我就想到,人的生活方式其实是建立在这三个流派的基础上,在三个主义中都是有体现的。那么,未来我们做机器人系统这样的一个AI时,是不是可以向这三个主义融合的方向来做呢?比如说一个灭火机器人,机器人对灭火时的动作、行为较为固定,我们用连结主义来实现的话工作量就可能比较大,那么可以选择从行为主义上面直接定义一些反射机制或者动作。然后如果是进行一些决策的话,可能行为主义就不适用了,我们就用连结主义或者符号主义领域的方式解决这些问题。
蔡恒进教授: 这个没错的,是可以这么讲的,当然核心的还是连结主义东西,因为他们预期到两年,那符号主义的话,因为你简单的控制东西就是符号主义,比如开关什么的这些东西你明白意思吧,他的确是符号A符号B就够了,但是它不能(解决)太复杂的情况,是在演练的时候它就是不成立的,你能(用)符号主义的肯定是可以用符号主义代替的,这个理解是对的。
邓承: 像我们讲的认知坎陷,我觉得跟王阳明的心学,格物致知和天人合一是不是有点类似,王阳明他说我们要先要了解网络事务,然后如果不了解事物,你可能不能致知,肯定就要先格物。那认知坎陷的话,它到底是认识到了这个事物,还是它要这样做?或者是它没有认识到这样事物,它才不这样做?或者它认识到了这样的事物,它不这样做?
蔡恒进教授: 这里头实际上王阳明的东西真的很深的话,就是说离我这里很近,只是我就是要回答为什么会这样认知坎陷是怎么来的,那这里涉及到触觉大脑假说,就是说最原始的坎陷就是我和世界的这个二分,就是说我这一整套不是说先有很多别的坎陷,而是说先有我这个坎陷,我是一个很含糊的可以非常含糊的,对单细胞来讲就是内外之分,因为这个细胞膜它是有认知功能的,因为他们分的清楚营养和有害,或者他至少一定程度上能分得清楚,他分得清内和外,这是最原始的认知坎陷,这就是描写认识论上就是为什么会进化出人来呢?
这里你一直朝前推,就是认知坎陷只能推到那里去,那么这件事的话只有我才这么讲,我要是到头来说最原创性的、别人从来没讲这个东西,那就是这个东西是我讲的,这里是从触觉大脑假说过来的,我是想理解人为什么比别人聪明,我的思考结论就是说是因为你的皮肤相对较薄,人的毛发少,这才是决定着人跟其他动物不一样,最本质的因素就是触觉更敏感,当然触觉要配合大脑的发育,因为小孩生下来是大脑发育是很不完整,要等到五岁才真正的跟成人差不多,那么这五年他能体会到我和外界的差异那么这个东西是核心的东西,这是跟王阳明差一点先讲出来的,王阳明讲的就是说那些东西实际上肯定是契合的,可以这么讲是契合的,只不过他是更想说是我们天生就是这样的,就是有本能是这样,或者用康德的讲的是先验的,就是先验是怎么来的,他回答不了,你像他就说人有良知,那良知是怎么来的这个事情是说不清楚,至少在这个体系里他也不想说清楚,但是他也是要说清楚,比如说孟子讲的恻隐之心,讲小孩子在井边会掉进井里,人为什么会去救他,这个不是因为他的父母会给你好处,也不是因为有人看到我会表扬,你很本能,你一定会去救她,这是一种论证,王阳明还加了一种论证,他就是说人还有羞辱之心,他就是说他审问一个强盗,强盗就是什么都不在乎,我就是坏人,那王阳明说你不是的,你还是有良知的,然后他又不信,然后王阳明就对他说,那你把衣服脱掉,强盗还是有一个短裤没脱,他就问你为什么不脱,明白意思吧,他这是加了一层论证,但是我们写的一篇文章实际上想论证的是说善恶是不对等的,是在人的成长过程中是不对等的,就在于什么,就在人生下来很弱,我们小孩子对不对生下来什么都不会但是一哭什么都有,一哭该饿了就吃着冷着了就有人给你保暖,而且我们呼吸的空气是没毒的,喝的水是没毒的,这些东西你仔细想并不是说就应该这样了,但是小孩子的感觉就是这样子,实际上小孩子就生下来就是他是世界的中心,它要什么就有什么对他来讲招之即来,所以他是觉得这个世界应该是这样的印象印刻在脑子里头,所以一个人再坏,他总还是觉得这个世界应该是公平的,你明白意思吧,就这个善的概念实际上是在小时候建立起来,因为他的很弱小,他体会到了这个东西,所以死亡很重要。
假如人是永生的人,那回头讲善就变得根本没有太大的意义,就是说反复迭代,我们用一代一代的朝下传所以这个善应该是越来越强烈的,就是说跟古代相比。那么这也有数据支持,再看表2。
哲学家大卫·查默斯(David Chalmers),他提出了“意识的难题”这个术语,并将其与解释辨别能力、整合信息、报告精神状态、集中注意力等容易的问题进行了对比。容易的问题(easy problems)看似复杂但可以解决,所需要的只是指定一种能够执行该功能的机制。而看似简单的意识问题才是难题(Hard Problem),意识的难题是要求解释我们如何以及为什么有感质(qualia,可感受的特质)或现象体验,感觉(如颜色和味道)是如何获得特征的问题。
表2 意识问题的四个层次
那么这里头实际上意识的问题是按照这个分法,这一个是搞量子计算的,埃尔森这个是MIT的教授,下面这个Tegmark也是MIT教授,一个是物理学教授,一个是做计算科学,做计算科学的他最早提出来,后来Tegmark在他的书里头把这个列出来,所以我就是按照他们分类,意识的问题,它分四个层次,一般的哲学家就分两个层次,一个是难的问题,一个是简易的问题,那个是Chalmers分的,那他就把它分得细一点,实际上这四个层次的,这也是自己总结的都触及到了最难的问题,就是为什么会出现意识,而且意识跟智能的关系原来是不太清楚的,但现在就是说比较清楚,对不对,但是我文章还没写出来,意识实际上是一个,智能跟智能是实际上是一回事儿,意识只是一个把有些的东西,给它pass掉的这么一个东西,实际上它还是智能的一部分,可以这么看,或者是智能的一部分,没有一刻,智能是跟艺术无关的,包括机器这个扯的就是跟你要的完全不一样,那时候机器也有意识,可能很多人不信,但是我就说机器是有意识,因为我们在造它的时候是有意向的,是要它完成某种任务的,那么这里就是我们人的意识进去了,你先进去了,而且我们那些写的代码做的那些部件都是我们的人意识投射的一种物质化,只不过机器的自我意识不强大,它的那个主程序是一个很脆弱的东西,有个bug,或者有个什么就死掉了,但我们的人的主程序,人的自我意识实际上是很强大,就是一个统摄性的,在机器现在还做不到统摄性,所以差异只有这样才能理解,才能理解机器跟人的关系,至少是一种方式。
邓承: 就是说因为现在我家小孩子,然后现在正处于那种认知的初始的阶段,就是一个初始的认识的阶段,你看他看到所有红色车车他都会喊爸爸,因为我的车子是红色的,然后你说有一个两岁的小孩子他对所有的车子就是一个符号的概念,就只要红色的车,红色和车然后对等于是一个爸爸,然后因为我们教他的时候就说这个是爸爸的车,然后现在就形成一个反馈,好像就跟机器学习其实很类似的,就这个他就是一个if then,然后就这么一个爸爸,我们现在机器学习其实也是这种,把多个因素合到一块,那就形成一个简单的意思,只不过机器它可能我们编译起来两个if then或三个,小孩子可能会更多,他改天又接到另外一个刺激或者需求,比如我回家之后他看到有很多钱,然后他又找到对另外的一个维度的定义,所以说是不是可以这样理解,假如说机器有多个,把所有的部分都给扩展到把人类的规则都给它输入进去之后他可能无限的或者类似的接近人类的这种意识。
蔡恒进教授: 这就是符号主义的思路,但是这个实际上是错的,这里实际上讲起来就很复杂了,但是这里说明了人没有神性,在这个意义上来讲机器和人都没有神性;但我们人是有神性的,体现在哪里我举个例子,可能大家就能更理解:就是无穷大,我想无穷大很明显就是看不见,摸不着,永远看不见,永远摸不着,但是我们人是觉得它可以有,你不觉得这件事很奇怪吗,这个东西你比如说有人信上帝,但另外一个人不信上帝,那么这里面总有人有错吧,但是问题在于他们这两件事都是同时发生的,而且他们还在这个意义上还过得都挺好,这就是说这里的认知坎陷或者是被炼化过的东西,实际上已经不是我们所谓的物理世界的东西,而是我们精神世界的东西,这个东西跟真的来讲,就是说他对我们人来讲,对整体来讲跟是真的一样,甚至还更重要,对信上帝的人来讲,上帝对他的生命来讲很重要,会影响他的很多事,比这个物理世界中真实存在的凳子在这里更重要,就是说我们建构的东西反而变得更重要,影响我们的行为,影响我们的未来,这里是符号里包含不了的东西,你当然强行包含也可以,但是毕竟不是那么个思路。
讲到小孩的事,这时候我跟大家举个例子,大家肯定会比较明白,比如说莫扎特大家都知道是神童,这个没有任何异议,我们直到现在还听他的音乐,但是你仔细想莫扎特为什么是个神童,一般的理解就是:一个是遗传,一个是后天学的,但是这两个答案都是不够好的。如果遗传的话,那他爸岂不是应该比他更有名的,你说教出来的也没听说他老师比他强,为什么他就那么强?在我们这个理论意义上就能理解,就是说因为小孩子成长过程中有一个关键时期,世界对他来讲一开始就很混乱,他的认知坎陷很有限、很少,他只能分得清楚很简单的东西,但是到了一定的程度,他突然发现世界是有规律的,就是这个人叫爸爸这个人叫妈妈,这个是椅子那个是桌子,世界突然对他来讲就突然明白起来了,比如用王阳明的那个话来讲。这个时候假如说你可以想象莫扎特,他在这个关键时期,不是通过词汇来认识这个世界,他是通过声音、通过音乐来认知这个世界的,他听到妈妈的声音是一个,爸爸的声音,椅子,桌子是不同的声音,所以他跟世界的关系是通过声音和音乐作为媒介,所以他写的音乐,他对世界的敏感度就不一样,在声音方面敏感度就不一样,所以他能超越他的父母超越的老师就变得容易理解。通常的小孩最早教他的母语对他来讲是学的最快的,这个也是很奇怪的,就是说为什么一岁开始讲他爸爸妈妈到三岁打电话像大人一样,就是因为你想想我们,考虑到我们学英语学十年还讲不清楚,你想小孩子从一岁到三岁才两年时间就讲的那么好,这是不可思议的一件事情,为什么会这样,因为在学母语之前他的世界对他是混沌的对不对,但是学了母语之后就变成清晰了,因为那学第二语言就没有这种连接世界的需求了,所以是另外一件事,所以就学得慢。
王硕: 刚刚说到小孩的问题,因为小孩子生下来的时候,他认为自己跟妈妈是一体的,见面后他会逐渐认识到自己跟妈妈不是同一个人,所以后面才会有意识到产生这种意识之后,后面才能去慢慢去认识世界之后长大变成这样的人,但是机器一样的机器可能当前机器的自我意识还不够强烈,他可能认为它跟我们是一体的,我们给他写一些程序去让他去做一些工作而去运行它,你觉得什么时候开始才会有或者我们做出什么样的工作才会让它产生:原来它这个事情跟人不是一体的?
蔡恒进教授: 实际上有深度学习才开始这个过程,因为还没写规则,那个东西就不够,那东西是死的,但是一旦有深度学习这东西,它跟世界交互它就会不停的,那么现在深度学习也是存在:没有边界意识的问题。不是我说这个到头一定要有一个边界,这个边界肯定是很抽象的,边界也可以当成时空中的边界,这有很多路走过来。比如说我强调触觉重要,但是实际上我们对人的获取信息来讲,实际上视觉重要,就是说在进化意义上来讲是触觉重要,触觉在前面,但就个人成长过程来讲它是会变的,但是触觉还是会有基本的重要性,这个大家可能还是会同意,这个可能也要去做实验能找到数据,比如他们说孤儿院的孩子可能都会有一些心理问题,主要的问题就是抚摸少了,触觉上的话就是说他的认知就是不一样,就是说你比如说有人说触觉大脑假说,那你造的机器人可能先从触觉开始,但是我说我肯定不会这样做,我一定会从视觉开始,因为视觉更容易,资料更丰富,触觉是个很含糊的东西,我们触觉不是一个很定位的东西,而视觉的话定位性更好,而且你看比如佛教的眼耳鼻舌身意也是一样的,也是把眼放在第一位的,但是就是说从智慧从历史的强度来讲,视觉不是最重要,对于我的意识来讲这种机器这个就是太多的可能性,就是说这个路径可能太多了,但是要在整个的一个理解的情况下,你才能去做那些事情。
杨进: 蔡院长您刚才说到哥德尔定理,我想问问哥德尔定理对人工智能的启示,哥德尔定理意味着人工智能与人类智能的差距,有人也认为哥德尔定理代表了人工智能无法复现人类智能水平。
蔡恒进教授: 那就是符号主义的观点,第一条,这是符号主义观点,你觉得做不到,那就这样子,第二条,这个很多人都没太留意,这个对我来讲很显然,就因为哥德尔定理很大程度上,因为希尔伯特的问题才有哥德尔定理,也才有图灵的停机问题,才有图灵机,才有现在的人工智能,这条路走过来很有意思。
杨进: 但是有人认为人类也会受到哥德尔定理的影响?
蔡恒进教授: 我知道这种观点,很多人比如说像在MIT做语言学的乔姆斯基,他就认为我们可能理解不了人到底怎么来的,就我们自己都理解不了更不用说做出来了,那他们为什么会陷入这种误区,在于他们基本上是柏拉图主义的观点,柏拉图主义跟中国哲学是不同的。中国哲学讲人是一个开放的,是完全敞开的,是能够朝不同的方向变化的,而柏拉图主义实际上是本质主义,认为世界有个本质在那里,这个本质是理念世界的东西,我们到达不了,我们在物理世界看到的只是理念世界的一个投影而已,所以在那个意义上当然到不了那种状态,所以你到不了,但我想问,那你既然说有个本质在那,如何知道我们人又是不完美的呢?那我怎么知道有本质呢?这个问题用神学就好回答,神学就说上帝知道,或者讲你曾经在那待过,现在你回来了,只是记得部分内容,但是你从进化论讲就不是这样的,我们没有人会去过那个地方,那为什么柏拉图学派相信有个本质在那呢,完美的理念世界在那里呢,这本身就很神奇。
但这里头,那人为什么会想到一个完全没想到的东西?直觉或者是顿悟这样的情况,刚才讲的莫扎特是一个很好的例子,莫扎特他作为一个独特的人,那么高的音乐成就,他是前无古人的,他在音乐上就是一个完美的人,在这个意义上讲他就是“无中生有”。比如说李白的诗,在他之前就没这些诗,他写完后人想超越他也很难,就是他到达那个高峰后你就觉得他是神一般的存在,但我们知道这是可以有的。包括刚才讲小孩学语言没怎么教他就很快学会,这也是很神奇的存在,你想象我们学英语,一个单词、一个单词慢慢地学,当我们三岁的时候一切都一下子就会了,包括刚才讲的认识那个猫,从机器意义上来理解是难以理解的,那人为什么就突然明白,我的意思就是说这些东西都是人类进化亿万年,功能和结构的反复迭代弄出来的,但是他是可以产生以前从未产生过的新的东西,包括刚才讲的莫扎特,首先我们知道这是可以的,为什么可以呢,就在于说我们遇到的景况正好是身体这个结构在这个新的环境下,是一个全新的配合,它的表达是可以为一个全新的表达,而且可以是很美妙的表达,就是突然会出现这个东西。举个例子,比如顿悟或直觉,也是产生了新的东西。我举个例子,有一群鸡是被人圈养的,这些鸡忘掉怎么飞了,多少代以后它还是不会飞,假如说突然有一只野狗进来弄的鸡飞狗跳,那么鸡试图跑的更快用翅膀来辅助它,它突然发现自己会飞了,那对这个鸡来讲,当然是因为有翅膀这个结构才能飞,但它从未学过飞,没见过飞,但这个情况下它能把这件事做出来,飞,虽然这个飞有别与其祖先的飞,因为它长的很胖,它祖先体型好,飞的可能是另外一个境界,但它毕竟会飞。
我们脑子里实际上有很多这种可能性,这种潜在的可能性,在新的数据新的思考后,你突然想到一个新东西,产生新的认知坎陷,就是说它有这种潜在的可能,没有特定的环境它表达不出来,但是遇到新的环境,比如成立研究院大家坐在一起了,那我们有新的环境,我们有可能产生新的东西,完全想不到的东西,这是完全可能的,所以说新的东西不是不可能,也不是说宇宙大爆炸的时候就已经写进去了,那是鬼扯,你说我现在拿罐子泡茶,那宇宙大爆炸就写进去了你信吗?
杨进: 您的意思是人类大脑是有创造力的,是不是人类智能有一个核心,把这个核心复现了就能实现人工智能?
蔡恒进教授: 你现在讲核心,还是在符号主义上讲,你有很多坎陷,这些坎陷不够用了你突然会发现新的坎陷,比如崔颢,到了黄鹤楼一看,写下黄鹤楼那首诗:昔人已乘黄鹤去,此地空余黄鹤楼。这个就是坎陷,就是想的那么妙,你后人再怎么想也想不出更好的来。还有比如说网络语言,以前讲打酱油,现在讲吃瓜群众,这就是一个认知坎陷,你很难将它取代掉,它丰富的内涵指代一个非常微妙的情况,你再来取代就很难。红颜色的红也是这样的情况,不知道经过多少年才发现这个东西好,而且红颜色要分出来才好,才对自己的进化对自己有好处,这个东西就是这么过来的。虽然你很难说是哪天出来的,比如吃瓜群众,不知道是什么时候出来的,当然你也可以查,当然为什么是那个时间你说不清楚,但它出来了,出来了就make sense。所以从这个意义上讲,科学理论、诗人、画家他们实际上都是要开出新的坎陷来,这个坎陷看人,有的生命力很强,比如黄鹤楼那首诗,1000年还觉得这个好。或是梵高的画,一开始没人欣赏,现在觉得这个画和其他画摆在一起就是耐看。这个东西你说是因为跟实际更符合?显然不是,这就是人神性的地方,实际上我们是按照我们的理解来跟世界打交道,不是世界要我们干什么,而是我们很主动在跟世界打交道,这是跟符号主义很难配合的一个地方,就是说我不停的产生新的东西,这里的自我肯定需求,那是我最早提到的概念,所以我整个的体系就只有这三个字:自我肯定需求、触觉大脑假说、认知坎陷,就这三样东西就试图把意识这个东西给它理解透,它是怎么来的,包括情感,情感更像是行为主义的东西,所以大家慢慢的消化,我那些文章有机会你也可以找来看看。很多人很难理解这个,就是因为以前有太强的认知坎陷在里头,不容易爬出来。这东西也是有道理的,它有很强的生命力,只是那个东西现在面对人工智能就说不清楚了,要跳出来,把它框架弄成新的认知坎陷,这些东西也是认知坎陷,过了多少年大家发现有更好的东西,那是另外一回事,但目前来说还没有。包括我说的天圆地方,这件事想起来也很神奇,就是一个世界模型,像日心说、地心说。为什么说日心说比地心说好,相对而言只是坐标系不同而已,你假如把事情都做对了那都是一样的,坐标系选在哪里都一样,但是在历史上来讲是有差异的。假如你选地心说,那个轨道太复杂,很多天体,就是从预测的角度讲,地心说和日心说也是一样的,只要你把天体找对位置就行,但那样就会很复杂,日心说之后就可以简化天体,后来发现压根就不用天体,用椭圆轨道来解答,就是开普勒三大定理,有了开普勒三大定理才可能有关于引力的定理,才有可能开创现在科学的一套东西,从那种意义上来讲,地心说和日心说都是坎陷,但它们是存在差异的。
林田谦谨: 老师您说人工智能应该朝创造性的方向发展,我个人认为人工智能应该以适应性为更主要的目标而不应该是创造性,因为就算是人类,如果遇到新的东西那么会产生新的东西,如果没有遇到新的东西,本来就不会产生新的东西,如果这个人他所见过的情况就是这么多,那他也只能基于当前经验做出最好的决策,所以我认为人工智能应该是在一个完备的环境下,至少是有界的环境下,能够做到最好地适应,就比如说在量子力学出来之前,牛顿的理论完全可以解释这个世界,人类还没遇到需要用量子力学解决的问题,这个体系就是没有问题的。所以,我觉得人工智能的目标应该还是在一个有界的环境下。
蔡恒进教授: 我明白你的意思,就是说应该发展什么样的人工智能,这的确是要讨论的,但问题在哪里,就比如说自动驾驶,自动驾驶永远会是一个有限的问题吗?一个封闭环境中的问题吗?显然不是,那就是这个问题,你还要不要做自动驾驶?那你说,好,有些东西就是封闭的,就是不让你知道,我就限制你的智力,免得你去到处闯祸,但这个意义上就会有些它没想到的,它处理不了的事情就会闯祸,那你说好,那我们就接受这个,我们就接受一定的事故率也是可以的,问题在于总有人不会听你的,他就说我就要弄一个事故率更小的,一直push这个边界。
林田谦谨: 但是比如说自动驾驶的话,本身原有存在事故率,好的司机他也有事故率,因为本身就可能碰到你没有碰到的情况,现有经验没办法及时做出最好决策。
蔡恒进教授: 对,比如说自动驾驶飞机,但问题在于说,比如自动驾驶的波音737max飞了那么久也就掉了两架,那它事故率可以接受,那为什么你不让其他的飞呢?
林田谦谨: 那是不是目标就是让这个飞机有更好的适应性?
蔡恒进教授: 对,就这个意思,那这样的话就会造成,它边界在哪里呢,它的边界?
林田谦谨: 我觉得并不是没有边界,只不过边界可以不断往外扩。
蔡恒进教授: 是,我们人也是这样不断拓展边界,仅此而已。
林田谦谨: 那么就是说,在当前这个状态下,这个边界内,它作为一个完备的系统,那么哥德尔不完全定律就不能再适用,因为当前的边界下就是一个完备的系统。
蔡恒进教授: 谁来定义当前这个边界?你说马斯克把那个东西插到脑子里是你希望的边界吗?
李涵: 我感觉你的意思是不是:不让智能自主的去拓展那个边界?
林田谦谨: 并不是不让,就是说目标是让智能适应当下的能接受到的(边界)。
蔡恒进教授: 你首先要定义当下可以定义接受的东西,谁来定义这个,你定义不了这个关键是。
蔡恒进教授: 谁同意那个可以接受那个边界,比如现在马斯克定义的那个脑袋后面开个洞那个你接受不接受,你可以不接受,但是有人愿意这么做,他说这个对残疾人有好处,你凭什么说他不敢做。
林田谦谨: 因为有很多这种在人工智能领域结论性的研究给我这样的感受,比如说前段时间BERT语言模型被说没能真正地理解语义,加入了NOT之后就判断失误,我就觉得有点钻牛角尖,如果我从来没有学过这样的东西,那我为什么要学会判断这样的东西,如果给我很多带NOT的句子,让模型学习,可能结果就不一样了。
蔡恒进教授: 人性就是如此,这是自我肯定需求,假如没有这个你就不能称其为人了,人一定会去拓展边界,机器也是人会去设计的,人一定会去弄你挡不住,就像小孩子都希望他不要瞎跑,他偏要瞎跑,或者你牵一条狗,狗从来不走直路,天性如此,我们只能接受这个,在接受这个的前提下我们能做什么,是这个问题。
林田谦谨: 您的意思是应该是人为的去拓展人工智能应该达到的一个高度。
蔡恒进教授: 我现在还没说应该怎么做,而是说我看到的是什么样子,现在先理解透,再说该不该的问题,要是说这个事情,就难了,比如说阿西莫夫三大定律,这个东西你说有道理没有,你觉得能实行吗?
林田谦谨: 其实我觉得是基于规则的,是符号主义的,因为我觉得哪怕你是所谓的连结主义,你比如说设计用传统的神经网络识别一样,我们把它归结到连结主义但是我认为它事实上也是特征处理的过程,然后只不过这个特征我们不管,但是内部还是一个提取特征后,如果特征得分超过多少,则输出什么的这样IF…THEN的叠加。
蔡恒进教授: 是,因为你不知道这个模型什么时候会做出你不知道的事情出来,你认为训练好了,它现在认识车啊,马路都清楚,但遇到另外的情况它就把你的信心打击到地上,它就发生了,并不是你想它发生它就发生了,你也可以说这个很有创造性,也可以说这个是鬼扯,但就是发生了,因为新的数据从未见过,它还是能做出判断,它还是做出决策,它还是要发表意见,它很影响这个世界的运行,举个例子你把这套东西放自动驾驶上面,然后在STOP SIGN贴标签,它就认不出来,就撞上去了,撞死一个人这个人消失了,这个世界就不一样了。
吴良顺: 首先我是赞同刚刚说脑机接口,因为现在生物已经很多研究工作表明:身体控制信息大脑信息传递都是通过生物电的,所以做脑机接口它有可能就是让哑巴说话,通过脑电波来控制让哑巴可以说话,让残疾人可以控制自己的手,有这样的东西出来我觉得这个研究是有意义的;然后现在我提问题就是说我刚看AI有三大流派:符号主义行为、主义和连结主义,我想知道这是很古老的研究了,我想知道现在在当前最新的前沿这个阶段,这三个模块有没有新的方法论或者他们的相互作用?
蔡恒进教授: 实际上逃不掉那三个。
林田谦谨: 如果说行为主义的话,我认为强化学习或是生成对抗神经网络都属于行为主义。因为它是通过reward方式激励学习的。
蔡恒进教授: 只能说它带有行为主义特征,实际上刚才讲融合,实际上不能说截然分开,因为你行为主义也不一定是说没脑子的,脑袋也参与进来了。
林田谦谨: 我也觉得确实融合是人工智能的发展方向,生成对抗神经网络(GAN)它是一个模型大致框架,这个想法是行为主义的想法,但它的生产网络一般应该说是连结主义。
吴良顺: 行为主义的方法论主要是做控制和优化,相当于我们做的深度学习就是两个底层理论的接口。
蔡恒进教授: 它最主要来源就是刺激和反应。因为人的确是有刺激和反应。连结主义来源就是模拟大脑,用神经网络来模拟大脑,但是最根本的还是连结主义,因为我们大脑也有reward,也配合分泌多巴胺。这里有些细节我还没来得及讲,还没写出来,就是为什么这些东西能抽象到这种地步。
朱巍伟: 教授您讲的AI三大流派,它是类似于人的思维,先是行为主义,然后是连结主义,最后是符号主义,层层的升高,可以这么理解吗?
蔡恒进教授: 你不要这么讲,它倾向不一样,符号主义它确实是想构建一个理想的世界,我们封面讲的就是这个理念是怎么来的,就是说符号主义的东西实际上是理想的,是希望我们猜出来理念世界最本底的一个规则,你当然说按照符号主义的理念,它当然是最高级的,那我现在说的是这是有缺陷的,刚才讲的悖论就是讲的这个意思,这是有缺陷的是跟我们实际世界是有差距的。
朱巍伟: 那就是相当于,在AI里面计算机都是代码都是和符号相关的,那它为什么不该是符号主义?
蔡恒进教授: 这里头怎么来理解,这个也是一个很好的问题,实际上你会问现在用的计算机就是图灵机,图灵机也是符号也是规则,那你说为什么你又产生新的东西了,你可以这么问,我这些年也一直问这个问题,那这个问题怎么解答,实际上图灵机它也不是封闭的,但是你想图灵当时做了另外一件事,他说带有oracle的图灵机,停机问题在图灵机里没发解决,但假如有oracle的话可能能够判定是图灵机,实际上现在的深度学习的这些数据你可以看作是一个oracle,你听起来是很悖论,因为你用的就是图灵机,图灵机就是规则的,但问题是你和外界有交互,关键交互的不是一个不变的东西,假如说我们数据集完全定死了不要有新的东西,那就是一个图灵机,那就不会有新的东西,但问题在于我们面临的世界一定是有新东西进来,所以一定不是那个意义上的图灵机,差别在这里。
王栀子: 刚才老师说深度学习实现那个连结主义还不太好,就是说以后有没有可能有新的方法?因为我之前就听过一个理论就是说有点神话深度学习的这种感觉,所以我就是说以后有没有可能有新的方法。
蔡恒进教授: 肯定有新的方法,但是难以逃脱这个框架,是的,包括张钹也讲过这个话,就是深度学习被神话了,但是在我这个大的东西机器在这里了,你不要在指望暂且还能找到什么新的东西,这就是你信不信这个的问题了,那有可能就是整个走错方向,他们有的还想指望就是说还想找到一套规则来把所有的东西都搞出来,在我这个意义上来看肯定是错的,走到坑里了。我现在已经指出来方向了,你就是说在这里头把它抽象,然后来回折腾才行,因为我们人思考学习的确是来回折腾的,我们新的数据集出来要重新理解把它放在该放的位置,这才是本质。
贺鑫: 我想问强化学习方面的,现在很多人认为强化学习是一个很大的方向比起深度学习,因为它的数据可以不用标签,那深度学习太依赖大数据这种,那我想说强化学习是不是跟您刚说的三大流派的行为主义比较像?但是我就想问它有什么局限性呢?
蔡恒进教授: 对,刚才同学讲了,强化学习的局限性就是你现在是全局的强化,有的人想说能不能做局部的强化,就是说你reward分的比较细,但这也是很难的,但我们人体显然是细化的,就是说你吃到美味的东西是一种愉快,谈恋爱是另外一种愉快,这是不一样的,但强化学习就是会一把抓了,而且有一种方向就是朝那个方向走。
张晨静: 就是那个AI流派有那三个,它们有对应的哲学,那哲学怎样如何推动人工智能发展的?
蔡恒进教授: 这个(问题)挺好,实际上我们讨论人工智能一定会讨论哲学,哪怕你不相信有哲学,因为这里头哲学就是要统摄所有的东西,就是说哲学思考是很抽象的事情,统摄所有事情,那当然最大的问题就是意识的问题,或是意识跟物质的关系的问题,所以在哲学家那里,你不管他是什么流派到头来他一定会跟这个问题要发生关系,所以我这一套理论看起来更像是哲学的问题,就是因为意识的问题就是跟哲学的问题,可以这么看,当然很多流派就是说我的意识的问题我要把它给搁置起来,我不能问它来源于什么,我只是研究意识之间说的清楚的东西把它说清楚,这是这个,所以看起来更像是哲学,因为到头来在所有的converge人工智能进来,包括机器能不能有哲学,有没有情感,有没有伦理,它懂不懂得善懂不懂爱,这些都是哲学问题,但在我这里就是简化了,爱、伦理、宗教全是认知坎陷,而所有的认知坎陷都来自于最早的那么一点点,能分出内外的那么一点事儿,那那个物理边界就变的重要了,那么这个物理边界到人这里就是人的皮肤人的触觉就是重要的,那就是人跟动物最大的差异就是触觉这一点,而不是别的,有的人说劳动,使用工具那些东西都重要,但不是最本源的重要,视觉也重要,不是说视觉不参加贡献,但触觉更本源。
林锋锋: 如果人工智能发展到一定层次,然后机器人有意识,比如爱,如果它爱上某个人,因爱生恨,报复这种行为会不会出现?
蔡恒进教授: 这种可能性永远在,但是,你想我们养小孩他不会一直听你的,他有没有可能干坏事,成为罪犯,当然有可能,但是我们还是相信还是应该养他,这是人性,不是《三体》里头的黑暗森林法则,只要他有可能就先把他干掉,那你肯定先把后代干掉,但是实际上是不可能的,就是人你说他是狂妄自大也好,但是他不会,比如西方殖民那么厉害,当然他也干掉很多原始人,但是总的来说还不至于(把其他人消灭得)那么惨,所以这类电影里的坏人到最后都失败了,人们还是相信,这都有风险,你不知道未来是什么样,但是因为我们是那么过来,我们小时候受到的状况,我们还是会在终极意义上,我们还是选择所谓的善良,虽然这个善良个人定义不一样,就是一个恶人,你看很多武侠小说里写的恶人到最后杀了很多人,到最后他还能立地成佛这种,因为在本底的这里说到了0到5岁最重要,所以你们现在养小孩0到5岁才是最关键,这个时候相当于喂很多数据他是不懂的,但是未来某个时刻在某种情况下出发,他明白了,他突然有灵感,他突然理解了那些,对吧。
刘鹏飞: 迁移学习,就是将某个领域或任务上学习到的知识或模式应用到不同但相关的领域或问题中,人在实际生活中有很多迁移学习,比如学会骑自行车,就比较容易学摩托车,学会了C语言,在学一些其它编程语言会简单很多。我想问一下,怎么用哲学去解释迁移学习的现象?
蔡恒进教授: 这个迁移学习正是我们正在做的,实际上我们发现新东西就是迁移学习,我们在新的场景里,因为从来没见过,还在脑海里去想去思考试图得出结论来,这就是迁移学习,所以迁移学习就是说我的大数据量的东西,我换成小数据,而且小数据不是原来那个集合里面的东西,也能学到东西,总而言之我们每时每刻都在迁移学习,你有可能碰到你完全不知道的情况,有可能突然让你诗性大发写出一首很好的诗出来。
林田谦谨: 您之前就是发的文章,有一个我当时看过印象深刻,就是说在智能体的进步中您当时就是说保留每一代过程中有最独特特点的个体,而不是表现最优的就这种个体,我想问问老师这个观点的具体的场景。
蔡恒进教授: 你比如说梵高,梵高他画的画那个时候确实不理解,如果投票肯定把他投没了,但他的确很独特跟别人很不一样,所以这个一定要留着,我的意思就是这个,你要准备答案,就是当时符合大家的口味或是符合实际情况肯定这种都投没了,而现在的科研体制就是这样,你有新想法,大家讨论来讨论去,肯定是那个讲漂亮话的人最容易被录用,因为这点大家都懂大家都知道他有一定水平,但是那个东西要保留,因为它可能在未来某种场景下可能是最厉害的,而且我相信当时写这篇文章时还没想到这些,但当时直觉一定是那样子,一个实验才行,一定是包含进去的东西,不是一个进来无所不知,那恰恰不是智能,我就说上帝没有智能,这我很早就理解了,上帝不需要智能,因为他什么都知道,他不用选择,但智能恰恰是跟实际情况不一样的才会是智能的东西,它是迎着来的才算是智能的东西,你比如一块石头,它跟万物有相互作用,有引力相互作用、电磁相互作用,所有相互作用都有,那它是有反应,但它没智能,只有生命你来了我偏偏不动,我偏偏要hold住,这种才有智能,这里听起来有点抽象,还不知道该怎么表达,智能意识一定是一体的,一定恰恰是跟物理的要你做的正好是你要对抗物理必然性的才是一个智能,才算是意识,所以正是这一点才会导致神性,导致你试图改变这个世界,试图想象出一个理念世界来,那我们现在的游戏里都是理念世界,按照那个规则玩儿,大家也觉得很少,但是你想人的能力越来越强,我们现在能送人到月球,能修大坝,这些事儿很了不得,这个事可能整个宇宙仅此(人类)一家(费米悖论),人类未来影响太阳运行都有可能做到。
来源:卓尔智联研究院
编辑:冯梦玉
|