传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 时事研读 查看内容

《纽约客》丨人工智能真的在思考吗? The Case That A.I. Is Thinking

2025-11-4 20:33| 发布者: 刘海明| 查看: 46| 评论: 30|来自: 邸报(公众号)

摘要: 本文即将刊登于2025 年 11 月 10 日的《纽约客》杂志,印刷版标题为“Open Mind”。作者:作家兼计算机程序员詹姆斯·萨默斯从 2018 年开始为《纽约客》撰稿。

The Case That A.I. Is Thinking

ChatGPT 并无内在生命,但它似乎清楚自己在谈论什么。

本文即将刊登于2025 11 10 日的《纽约客》杂志,印刷版标题为“Open Mind”。作者:作家兼计算机程序员詹姆斯·萨默斯从 2018 年开始为《纽约客》撰稿。

当一种理解的假象逼真到何种程度时,你才会不再将其称为假象?


人工智能公司Anthropic的首席执行官达里奥·阿莫代伊预测,到2027年,在生物学、数学、工程学、写作等领域比诺贝尔奖得主更聪明的人工智能或许会投入使用。他设想数百万个模型副本高速运转,每个副本都在开展独立研究,形成一个数据中心里的天才国度。今年6月,OpenAI的萨姆·奥尔特曼撰文称,人工智能行业即将打造出数字超级智能。他断言:“2030年代很可能会与以往任何时代都截然不同。与此同时,大多数人目前日常接触的人工智能工具,让人不禁想起微软办公软件曾推出的助手”Clippy——它实际上更像个爱纠缠的角色。Zoom的一款人工智能工具会提示你向它提问有哪些会议破冰问题?,或是指令它写一条表达感谢的短消息Siri擅长设置提醒,但在其他方面用处不大。我的一位朋友在Gmail中看到一个按钮,上面写着致谢并讲述趣闻。他点击后,谷歌的人工智能编造了一个关于他去土耳其旅行的有趣故事,而他从未去过那里。

人工智能仓促且不均衡的推出,营造出一种迷雾氛围,让人很容易得出这里没什么值得关注——全是炒作的结论。诚然,炒作确实不少:阿莫代伊预测的时间线带有科幻色彩(人工智能模型的改进速度并没有那么快)。但认为大型语言模型只是在随意拼凑文字,同样是一种一厢情愿的想法。我过去曾认同这种观点,也曾从人工智能与真正的智能或理解毫无关系这一想法中寻求慰藉,甚至还为它的缺陷感到庆幸——就像在为人类主队加油。后来,作为一名程序员,我开始在工作中使用人工智能,因为担心不这样做就会落后。(我所在的雇主是一家贸易公司,对包括Anthropic在内的多家人工智能公司有投资,也建立了合作关系。)许多人认为,编写代码是人工智能最擅长的领域;代码比散文更具结构性,而且通常能通过自动化方式验证某个程序是否可行。我对人工智能的看法很快发生了转变。起初,我会咨询人工智能模型,而非自己去查找资料;接着,我会让它们处理一些独立的小问题;最终,我把真正的工作——那些我整个职业生涯都在学习处理的工作——也交给了它们。我看到这些模型能在几秒钟内理解数千行代码中的复杂细节,它们能发现细微的漏洞,还能设计出复杂的新功能。后来,我被调到一个快速发展的团队,该团队旨在更好地利用人工智能工具,并开发我们自己的工具。

据说科幻作家威廉·吉布森曾提出,未来早已到来,只是尚未均匀分布——这或许能解释为何人工智能似乎催生了两种截然不同的群体:一种对此不屑一顾,另一种则为之着迷。在日常生活中,能预订假期或申报税务的人工智能代理并不成功,但我的一些同事在编写代码时,大部分工作都依赖人工智能,有时还会同时运行多个编程代理。这些模型有时会犯低级错误,或陷入无意义的循环,但随着我学会高效使用它们,曾经需要一个月完成的工作,现在一个晚上就能搞定。不久前,我在完全不懂如何开发iOS应用的情况下,做出了两款iOS应用。

我曾有一位上司说,求职面试应考察应聘者的优势,而非纠结于其是否存在缺点。大型语言模型确实有很多缺点:众所周知,它们会编造看似合理的虚假信息;即便你出错,它们也可能一味顺从;简单的谜题就能将它们难住。但我还记得,如今人工智能模型所具备的显著优势——流畅的表达、自然的衔接、理解他人意图的能力——在过去曾被视为难以实现的圣杯。当你亲身体验到这些优势时,就会不禁思考:当一种理解的假象逼真到何种程度时,你才会不再将其称为假象?

今年夏天一个酷热难耐的日子,我的朋友马克斯和家人在公园游玩。不知为何,儿童洒水器没有开启,而马克斯的妻子之前向大家保证,她丈夫能修好它。面对满脸通红、年龄在六到七岁之间的孩子们,马克斯走进工具棚,希望能找到一个显眼的开启开关。然而,他看到的却是一堆错综复杂的旧管道和阀门。就在他准备放弃时,突然心血来潮,拿出手机,将洒水器的照片以及自己遇到的问题描述一起输入ChatGPT-4o。人工智能思考了片刻——也可能并没有真正思考——但它随即表示,马克斯看到的是灌溉系统中常见的防回流装置。它问马克斯是否看到底部那个黄色的球阀,认为那个阀门很可能控制着水流。马克斯按照提示操作,水流随即喷出,公园里顿时响起孩子们的欢呼声。

ChatGPT是在毫无意义地拼凑文字,还是真的理解了这个问题?这个答案或许能让我们对理解本身有重要的认识。加州大学伯克利分校的神经科学教授多丽丝·曹(音译)告诉我:神经科学家必须面对这个令人清醒的事实:机器学习的进展,比神经科学在过去一百年间的任何发现,都更能让我们了解智能的本质。多丽丝·曹最知名的研究是破解恒河猴感知面部的机制。她的团队成功预测出猴子看到特定面部时哪些神经元会被激活;更令人惊叹的是,只要知道神经元的激活模式,他们就能还原出对应的面部图像。他们的研究借鉴了关于人工智能模型如何表征面部的相关成果。如今,她最喜欢问别人的一个问题是:你从ChatGPT中获得的最深刻洞见是什么?她表示:我自己的答案是,我认为它彻底揭开了思考的神秘面纱。

关于我们如何走到如今这一步,最基础的解释大致如下:20世纪80年代,一小群认知心理学家和计算机科学家尝试在机器中模拟思考过程。其中较知名的有戴维·鲁梅尔哈特、杰弗里·辛顿和詹姆斯·麦克莱兰,他们后来在加州大学圣迭戈分校成立了一个研究小组。他们认为,大脑是一个庞大的网络,神经元以特定模式激活,进而引发其他神经元群的激活,如此循环往复;这种模式的动态变化就是思考。大脑通过改变神经元之间连接的强度来实现学习。关键在于,这些科学家通过构建人工神经网络,并应用一种名为梯度下降的简单算法来提高其预测准确性,从而模拟了大脑的这一学习过程。(可以将该算法比作一个从山顶走向山谷的徒步者:要最终找到下山的路,一个简单的策略就是确保每一步都朝着地势更低的方向前进。)在大型网络中使用这类算法的技术,被称为深度学习。

人工智能领域的其他研究者曾怀疑,神经网络是否足够复杂,能否应对现实世界的任务。但随着网络规模不断扩大,它们开始解决此前无法攻克的难题。过去,有人会花费整篇博士论文的篇幅,研究区分手写数字或识别图像中人脸的技术;而后来,深度学习算法只需消化相关数据,就能掌握问题的核心细节,让那些研究项目显得过时。很快,深度学习在语音识别、翻译、图像描述、棋类游戏等领域取得突破,甚至解决了蛋白质折叠预测这一难题。

如今最先进的人工智能模型,是通过一种名为下一个token预测的技术,在互联网的大量数据上训练而成的。模型通过猜测接下来会出现的内容,再将猜测结果与实际出现的内容进行对比,以此完成学习。一旦猜测错误,神经元之间连接的强度就会调整,这正是梯度下降算法的作用。最终,模型在文本预测方面变得极为精准,以至于看起来仿佛真的具备知识储备,且表达富有逻辑。这一点值得我们思考:一群研究者致力于探寻大脑运作的奥秘,当他们构建的模型规模接近大脑大小时,模型开始展现出那些曾被认为只有大脑级智能才能实现的能力。难道他们真的找到了一直在寻找的答案?

对于这种将人工智能简单化、理想化的解读,人们难免会持反对态度。泰德·蒋曾有力地反驳过这一观点,他在2023年初为本刊撰写了一篇文章,标题为《ChatGPT不过是互联网的模糊JPEG格式文件》。他的言下之意带有贬低意味:ChatGPT仅此而已。你把整个互联网的数据输入一个程序,它只是将这些数据不完美地反刍出来,就像一张照片经过多次复制后变得模糊——但它的表达能力足以让你误以为这个程序具备智能。今年春天,语言学家埃米莉·M·本德和社会学家亚历克斯·汉纳在合著的《人工智能骗局》一书中,也提出了类似观点。本德最知名的言论,是将大型语言模型描述为随机鹦鹉。《大西洋月刊》的书评作者泰勒·奥斯汀·哈珀宣称:大型语言模型过去没有、现在没有、将来也永远不会理解任何事物。这些模型生成文字并非通过思考,而是基于统计规律,猜测下一个词汇可能是什么。哈珀在这些技术层面的论点之外,还加入了道德层面的批判:人工智能让强者更富,消耗的能源加速了气候变化,还导致劳动者被边缘化。他最终得出结论:人工智能行业的根基就是一场骗局。



一位顶尖神经科学家认为,ChatGPT“彻底揭开了思考的神秘面纱

但从道德层面反对人工智能,或许最终比从技术层面反对更有说服力。哈佛大学认知科学家塞缪尔·J·格什曼并非人工智能的盲目吹捧者,他告诉我:“‘随机鹦鹉这种说法早该过时了。只有最顽固的怀疑论者,才会否认这些系统实现了许多人曾认为无法实现的功能。普林斯顿大学的认知神经科学家乔纳森·科恩承认人工智能存在局限性,但他认为,在某些情况下,大型语言模型似乎模拟了人类大脑中一个庞大且重要的区域。科恩表示:大致来说,大脑的新皮层就是一个深度学习机制。相对于体型而言,人类的新皮层比其他动物大得多;而新皮层最大的物种——大象、海豚、大猩猩、黑猩猩、狗——也恰好是最具智能的物种。

2003年,机器学习研究者埃里克·B·鲍姆出版了一本名为《何为思考?》的书(我在大学图书馆的书架上偶然发现了它,书名瞬间吸引了我)。鲍姆论点的核心在于:理解即压缩,压缩即理解。在统计学中,若要理解图表上的数据点,可以采用线性回归技术,在这些点之间绘制一条最佳拟合线。如果数据中存在潜在规律——比如你在绘制鞋码与身高的对应关系——这条最佳拟合线就能简洁地呈现这一规律,并预测新数据点可能出现的位置。我们可以将新皮层理解为一种提炼工具:它从海量原始体验(声音、图像及其他感官信息)中提取核心,形成类似最佳拟合线的模型,用于进行预测。婴儿探索世界时,会尝试猜测玩具的味道,或是食物掉落到地上后会滚向何方。当预测出错时,神经元之间的连接就会调整。久而久之,这些连接逐渐捕捉到数据中的规律,形成一个对世界的压缩模型。

人工神经网络与真实的神经网络一样,也能对体验进行压缩。目前最优秀的开源人工智能模型之一DeepSeek,能够创作小说、提供医疗诊断建议,还能以数十种语言进行母语级别的交流。它是通过下一个token预测技术,在数太字节的数据上训练而成的。但当你下载这个模型时,会发现它的大小仅为训练数据的六百分之一。它就像是互联网的精华版,经过压缩后可以安装在笔记本电脑上。泰德·蒋将早期版本的ChatGPT比作互联网的模糊JPEG”,这种说法有一定道理——但在我看来,这正是这些模型变得越来越智能的原因。蒋在文章中指出,若要压缩一个包含数百万道算术题的文本文件,你不会将其制成压缩文件,而是会编写一个计算器程序。他写道:只有理解了文本内容,才能实现最高程度的压缩。或许,大型语言模型已经开始做到这一点。

想到一个计算机程序真的能理解、真的能思考,人们可能会觉得反常,甚至反感。通常,我们认为思考是一种有意识的行为,比如像乔伊斯作品中那样的内心独白,或是像普鲁斯特式白日梦那样的感官记忆流动;也可能认为思考是一种推理过程:一步步解决问题。在讨论人工智能时,我们常常将这些不同类型的思考混为一谈,导致判断过于草率。有一种观点认为,ChatGPT显然不会思考,因为它显然不会像普鲁斯特那样陷入遐想;另一种观点则认为,ChatGPT显然会思考,因为它解决逻辑谜题的能力比人类更强。

但实际情况要微妙得多。我不认为ChatGPT有内在生命,但它似乎确实清楚自己在谈论什么。理解”——即明白正在发生的事情——是一种未被充分重视的思考方式,因为它大多发生在无意识层面。印第安纳大学认知科学与比较文学教授道格拉斯·霍夫施塔特常说,认知的本质就是识别。霍夫施塔特因《哥德尔、埃舍尔、巴赫:集异璧之大成》一书闻名,该书于1980年获得普利策奖,探讨了心智与意识的奥秘。霍夫施塔特经过数十年研究提出,看作是思考的核心。你将一块色斑看作汽车,将另一块色斑看作钥匙扣;无论字母“A”以何种字体呈现,或是书写得多么潦草,你都能认出它。霍夫施塔特认为,同样的过程也存在于更抽象的感知层面。国际象棋大师审视棋盘时,多年的经验让他能瞬间看出:白方的象处于弱势;这个残局很可能是平局。你看到河中的漩涡,就知道此处不宜过河;你意识到正在参加的会议是


鲜花

握手

雷人

路过

鸡蛋
发表评论

最新评论

引用 刘海明 2025-11-4 20:53
“我年轻时,非常想知道创造力的基础是什么,想了解创造力的机制。这对我来说是一个圣杯。但现在,我希望它能一直是个谜。”或许,思考的奥秘比任何人想象的都要简单——简单到一个高中生,甚至一台机器,都能理解。



来源:邸报
链接:https://mp.weixin.qq.com/s/0xSSAuIRC9wRhnUA316-jg
编辑:杨泓艳
引用 刘海明 2025-11-4 20:53
1995年该书出版时,霍夫施塔特和他的研究团队只能隐约指出答案可能是什么。回想这本书,我不禁好奇:看到人工智能研究者或许已经实现了他所渴望的目标——用机械原理解释思考的基本机制,霍夫施塔特会感到兴奋吗?
但在我们的交谈中,他却显得极为失望,甚至恐惧。他表示,当前的人工智能研究“虽然印证了我的许多观点,却也剥夺了人类的独特魅力”。
引用 刘海明 2025-11-4 20:53
他将人工智能研究者比作20世纪30年代的核科学家:“对这些人来说,这是他们一生中最有趣的时代。与此同时,他们也清楚自己正在研究的东西,可能对人类产生严重影响。但出于求知欲,他们无法停止。”
霍夫施塔特有一本我很喜欢的书,名为《流动的概念与创造性类比:思维基本机制的计算机模型》。上大学时,这本书让我深受触动。它的核心观点是:“何为思考?”这类问题并非单纯的哲学问题,而是有切实答案的。
引用 刘海明 2025-11-4 20:52
他说:“我的担忧与大多数人相反。我担心的不是这些模型与我们相似,而是我们与这些模型相似。”如果通过简单的训练技术,就能让程序表现出人类般的行为,那或许人类并不像我们想象的那样特殊。这是否也意味着,人工智能不仅会在知识层面超越我们,还会在判断力、创造力、洞察力上超越我们——并因此获得超越人类的权力?
令我意外的是,哈森告诉我,他“近来担心我们可能真的会弄明白大脑的运作方式。对人类而言,探寻这个问题或许是一个巨大的错误”。
引用 刘海明 2025-11-4 20:48
语气庄重且急迫,这种态度有时显得缺乏依据,甚至有些荒谬。但我猜想,阿莫代伊、奥尔特曼等人之所以发表这种“救世主式”的言论,是因为他们相信:智能的基本原理已经被破解,剩下的只是细节问题。
甚至一些神经科学家也认为,我们已经跨越了一个关键的门槛。普林斯顿大学的尤里·哈森与科恩、诺曼、莱克是同事,他认为神经网络“或许是解释认知的正确模型”。这种观点既让他感到兴奋,也让他不安。
引用 刘海明 2025-11-4 20:48
但没人会认为弗朗西斯·克里克错了。1953年,他协助证实了DNA的双螺旋结构,当天他走进剑桥的一家酒吧,宣称自己“发现了生命的奥秘”。他和同事对“揭开生命神秘面纱”所做的贡献,几乎超过任何人。在他们的发现之后的数十年里,科学领域取得了前所未有的丰硕成果,充满活力。“DNA”成为家喻户晓的词汇,每个高中生都知道双螺旋结构。
如今,在人工智能领域,我们再次陷入这样一个“大话与自信并存”的时代。萨姆·奥尔特曼表示,计划筹集5000亿美元,在美国建造名为“星门”的新一代人工智能数据中心集群。人们讨论“超级智能竞赛”时 ...
引用 刘海明 2025-11-4 20:48
那是一个充斥着大话与自信的时代——多莉克隆羊诞生,《侏罗纪公园》上映,生物技术崛起,评论界开始讨论“人类是否应该扮演上帝的角色”。但生物学家很快发现,现实远比想象中复杂。我们没有治愈癌症,没有找到阿尔茨海默病或自闭症的病因。我们意识到,DNA只是生命故事的一部分。事实上,有人可能会说,生物学曾一度陷入“基因狂热”——因为我们掌握了研究和理解DNA的技术,便过分关注DNA。
引用 刘海明 2025-11-4 20:47
尽管如此,没人指望能轻易找到答案。普林斯顿大学的诺曼表示,要解决人工智能目前面临的难题,“需要先精准找出模型在哪些方面未能达到我们期望的智能水平,然后针对性地改进。而这一过程,仍需要人类科学家参与。”
20世纪90年代,数十亿美元被投入“人类基因组计划”,人们认为基因测序或许能解决医学领域最棘手的问题:癌症、遗传病,甚至衰老。
引用 刘海明 2025-11-4 20:47
先做出成果再说”。科恩表示:“机器学习领域的研究者很少关注认知科学的历史,更谈不上尊重,这一点令人震惊。”
如今的人工智能模型之所以能成功,得益于数十年前关于大脑的研究发现,但它们与大脑仍有本质区别。哪些差异是“非核心的”,哪些是“根本性的”?每个神经科学研究团队都有自己偏爱的理论,而这些理论如今终于有了验证的可能——这在过去是无法实现的。
引用 刘海明 2025-11-4 20:47
人类大脑则会持续更新自身,关于这一点,有一个精妙的理论:睡眠时,大脑会将部分情景记忆“回放”给新皮层,以完成对新皮层的训练。回放的记忆会在你的高维思维空间中留下“印记”;醒来后,你看待世界的方式会发生细微变化。
人工智能领域已对“飞速进展”产生依赖,且在经济上投入巨大,以至于有时会假装“进步是必然的”“已无科学问题可解”。但科学有一个棘手的特点:它有时会陷入停滞。硅谷或许会将人工智能公司称为“实验室”,将部分员工称为“研究员”,但从本质上讲,该行业的文化是“工程导向”的——即“不管用什么方法,先 ...
引用 刘海明 2025-11-4 20:46
在与神经科学家交流的过程中,我能感受到他们的一种担忧:人工智能行业的发展有些操之过急,缺乏深思熟虑。普林斯顿大学认知科学家布伦登·M·莱克告诉我,如果目标是打造与人类智能相当的人工智能,那么“我们目前的训练方式是错误的”。人工智能完成训练后,其神经网络“大脑”就会被“冻结”。即便你告诉模型关于自己的一些信息,它也不会调整内部神经元的连接方式,而是会采用一种简单的替代方案:记录一段文字(比如“用户有一个学步儿童,正在学习法语”),并在你发出后续指令时参考这段记录。
引用 刘海明 2025-11-4 20:46
深度思维公司近期推出的一款模型,能生成“正确混合颜料”“解决迷宫”的视频,但视频中也会出现“杯子撞击后没有碎裂反而弹起”“绳子被揉成一团却形成结”等违背物理规律的画面。曾任职于微软研究院的认知神经科学家伊达·莫门内贾德做过一项实验:她让大型语言模型“虚拟参观”一栋建筑,随后询问模型关于建筑内路线和捷径的问题——这类空间推理对人类而言轻而易举。但除了最简单的场景,人工智能要么答错,要么会编造不存在的路线。她说:“它们真的会规划吗?其实不会。
引用 刘海明 2025-11-4 20:46
相比之下,人工智能的“体验”极其匮乏,甚至不配被称为“体验”。大型语言模型的训练数据本身已经过高度提炼。加州大学伯克利分校的神经科学家多丽丝·曹告诉我:“我认为这些模型之所以能发挥作用,是因为它们借助了语言的力量。”语言就像“预先咀嚼过的体验”,其他类型的数据则缺乏如此密集的语义信息。哈佛大学认知科学家格什曼提出疑问:“为什么在视频数据推理领域,我们没有看到类似的突破?目前的视觉模型在常识性物理推理方面仍存在困难。”
引用 刘海明 2025-11-4 20:46
进化过程本身也可视为一种“训练数据”的积累)。
例如,人类婴儿会默认“世界由物体构成”,且“其他生物拥有自己的信念和意图”。当妈妈说“香蕉”时,婴儿会将这个词与妈妈正看着的整个黄色物体关联——而非仅仅关联物体的尖端或果皮。婴儿还会进行“小实验”:这个东西能吃吗?那个东西能扔多远?驱动他们的是欲望、好奇心、挫败感等情绪。儿童总在尝试做略微超出自己能力范围的事。他们的学习之所以高效,是因为这种学习是“具身的”“自适应的”“有意识的”且“持续的”。或许,要真正理解世界,就必须亲身参与其中。
引用 刘海明 2025-11-4 20:45
变得越来越难,且计算成本也日益高昂。今年8月,GPT-5发布时,仅实现了小幅改进——这一巨大的失望甚至可能刺破人工智能领域的投资泡沫。当下,我们需要一种“适度的怀疑”:既要正视如今人工智能模型的能力,也不能认为所有难题都已解决。
在这些待解难题中,最关键的或许是:如何设计出能像人类一样高效学习的模型。据估算,GPT-4在训练过程中接触了数万亿个词;而儿童只需接触数百万个词就能流畅表达。认知科学家表示,新生儿的大脑具备某些“归纳偏置”,这些偏置能加速学习过程(当然,大脑本身是数百万年进化的产物——进化过程本 ...
引用 刘海明 2025-11-4 20:45
不过,这种“窥见”需要极大的努力。诺曼告诉我:“我担心的是,人们的态度从‘极度怀疑’一下子变成了‘完全不加防备’。还有很多问题有待解决。”我或许就是诺曼所说的这类人(或许我太容易被《稀疏分布式记忆》与Anthropic模型之间的“相似性”打动)。在过去一两年里,我开始认同杰弗里·辛顿的观点。辛顿近期因在人工智能领域的研究获得诺贝尔奖,他在2020年对记者卡伦·豪表示:“深度学习将无所不能。”
但我们也发现,模型并非越大越好。绘制“模型性能与规模关系”的曲线已开始趋于平缓。要找到模型尚未消化的高质量数据变得越 ...
引用 刘海明 2025-11-4 20:44
长期以来,对大型语言模型的一项批评是:由于模型必须逐个生成“token”来构成回答,它们无法进行规划或推理。但当你让克劳德为一首诗续写押韵的对句时,模型中的某个“电路”会先确定新句子的最后一个词,以确保押韵,随后再反向推敲整句内容。Anthropic的研究人员认为,这一现象证明他们的模型确实具备规划能力。只要稍加观察,你或许会第一次感觉到:我们能窥见“思维”的内在运作过程。
引用 刘海明 2025-11-4 20:44
人工智能让科学家得以在“风洞”中研究“思考”本身。Anthropic的研究人员发表过一篇标题颇具争议的论文——《论大型语言模型的生物学属性》。他们观察了克劳德对各类问题的响应过程,并描述了模型中的“电路”——即一系列特征的连锁反应,这些反应共同完成复杂的计算(调用正确的记忆是思考的第一步,而通过“电路”组合和处理这些记忆,或许就是思考的下一步)。
引用 刘海明 2025-11-4 20:44
莱特兄弟在早期研发飞机时曾研究鸟类。他们发现,鸟类会逆风起飞——尽管普通人可能会认为它们应该顺风起飞;鸟类还会调整翼尖来保持平衡。这些发现为他们设计早期滑翔机提供了启发。之后,他们建造了一个6英尺长的风洞,得以在精确控制的条件下测试多组人工机翼。此后,他们的滑翔机飞行实验成功率大幅提升。有趣的是,直到他们成功造出可飞行的机器后,人们才真正弄明白鸟类飞行的原理。
引用 刘海明 2025-11-4 20:44
人们常说人工智能是“黑箱”,但事实或许恰恰相反:科学家可以探测单个人工神经元的活动,甚至对其进行修改。普林斯顿大学神经科学家肯尼斯·诺曼表示:“拥有一个能体现人类智能理论的可运行系统,这是认知神经科学领域的梦想。”诺曼曾构建过海马体(大脑中储存情景记忆的区域)的计算机模型,但过去的模型过于简单,他只能向模型输入对人类思维的粗略模拟数据。他说:“现在,你可以给记忆模型输入与给人类输入的完全相同的刺激信息。”

查看全部评论(30)

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.