传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 查看评论
引用 刘海明 2025-11-4 20:53
“我年轻时,非常想知道创造力的基础是什么,想了解创造力的机制。这对我来说是一个圣杯。但现在,我希望它能一直是个谜。”或许,思考的奥秘比任何人想象的都要简单——简单到一个高中生,甚至一台机器,都能理解。



来源:邸报
链接:https://mp.weixin.qq.com/s/0xSSAuIRC9wRhnUA316-jg
编辑:杨泓艳
引用 刘海明 2025-11-4 20:53
1995年该书出版时,霍夫施塔特和他的研究团队只能隐约指出答案可能是什么。回想这本书,我不禁好奇:看到人工智能研究者或许已经实现了他所渴望的目标——用机械原理解释思考的基本机制,霍夫施塔特会感到兴奋吗?
但在我们的交谈中,他却显得极为失望,甚至恐惧。他表示,当前的人工智能研究“虽然印证了我的许多观点,却也剥夺了人类的独特魅力”。
引用 刘海明 2025-11-4 20:53
他将人工智能研究者比作20世纪30年代的核科学家:“对这些人来说,这是他们一生中最有趣的时代。与此同时,他们也清楚自己正在研究的东西,可能对人类产生严重影响。但出于求知欲,他们无法停止。”
霍夫施塔特有一本我很喜欢的书,名为《流动的概念与创造性类比:思维基本机制的计算机模型》。上大学时,这本书让我深受触动。它的核心观点是:“何为思考?”这类问题并非单纯的哲学问题,而是有切实答案的。
引用 刘海明 2025-11-4 20:52
他说:“我的担忧与大多数人相反。我担心的不是这些模型与我们相似,而是我们与这些模型相似。”如果通过简单的训练技术,就能让程序表现出人类般的行为,那或许人类并不像我们想象的那样特殊。这是否也意味着,人工智能不仅会在知识层面超越我们,还会在判断力、创造力、洞察力上超越我们——并因此获得超越人类的权力?
令我意外的是,哈森告诉我,他“近来担心我们可能真的会弄明白大脑的运作方式。对人类而言,探寻这个问题或许是一个巨大的错误”。
引用 刘海明 2025-11-4 20:48
语气庄重且急迫,这种态度有时显得缺乏依据,甚至有些荒谬。但我猜想,阿莫代伊、奥尔特曼等人之所以发表这种“救世主式”的言论,是因为他们相信:智能的基本原理已经被破解,剩下的只是细节问题。
甚至一些神经科学家也认为,我们已经跨越了一个关键的门槛。普林斯顿大学的尤里·哈森与科恩、诺曼、莱克是同事,他认为神经网络“或许是解释认知的正确模型”。这种观点既让他感到兴奋,也让他不安。
引用 刘海明 2025-11-4 20:48
但没人会认为弗朗西斯·克里克错了。1953年,他协助证实了DNA的双螺旋结构,当天他走进剑桥的一家酒吧,宣称自己“发现了生命的奥秘”。他和同事对“揭开生命神秘面纱”所做的贡献,几乎超过任何人。在他们的发现之后的数十年里,科学领域取得了前所未有的丰硕成果,充满活力。“DNA”成为家喻户晓的词汇,每个高中生都知道双螺旋结构。
如今,在人工智能领域,我们再次陷入这样一个“大话与自信并存”的时代。萨姆·奥尔特曼表示,计划筹集5000亿美元,在美国建造名为“星门”的新一代人工智能数据中心集群。人们讨论“超级智能竞赛”时 ...
引用 刘海明 2025-11-4 20:48
那是一个充斥着大话与自信的时代——多莉克隆羊诞生,《侏罗纪公园》上映,生物技术崛起,评论界开始讨论“人类是否应该扮演上帝的角色”。但生物学家很快发现,现实远比想象中复杂。我们没有治愈癌症,没有找到阿尔茨海默病或自闭症的病因。我们意识到,DNA只是生命故事的一部分。事实上,有人可能会说,生物学曾一度陷入“基因狂热”——因为我们掌握了研究和理解DNA的技术,便过分关注DNA。
引用 刘海明 2025-11-4 20:47
尽管如此,没人指望能轻易找到答案。普林斯顿大学的诺曼表示,要解决人工智能目前面临的难题,“需要先精准找出模型在哪些方面未能达到我们期望的智能水平,然后针对性地改进。而这一过程,仍需要人类科学家参与。”
20世纪90年代,数十亿美元被投入“人类基因组计划”,人们认为基因测序或许能解决医学领域最棘手的问题:癌症、遗传病,甚至衰老。
引用 刘海明 2025-11-4 20:47
先做出成果再说”。科恩表示:“机器学习领域的研究者很少关注认知科学的历史,更谈不上尊重,这一点令人震惊。”
如今的人工智能模型之所以能成功,得益于数十年前关于大脑的研究发现,但它们与大脑仍有本质区别。哪些差异是“非核心的”,哪些是“根本性的”?每个神经科学研究团队都有自己偏爱的理论,而这些理论如今终于有了验证的可能——这在过去是无法实现的。
引用 刘海明 2025-11-4 20:47
人类大脑则会持续更新自身,关于这一点,有一个精妙的理论:睡眠时,大脑会将部分情景记忆“回放”给新皮层,以完成对新皮层的训练。回放的记忆会在你的高维思维空间中留下“印记”;醒来后,你看待世界的方式会发生细微变化。
人工智能领域已对“飞速进展”产生依赖,且在经济上投入巨大,以至于有时会假装“进步是必然的”“已无科学问题可解”。但科学有一个棘手的特点:它有时会陷入停滞。硅谷或许会将人工智能公司称为“实验室”,将部分员工称为“研究员”,但从本质上讲,该行业的文化是“工程导向”的——即“不管用什么方法,先 ...
引用 刘海明 2025-11-4 20:46
在与神经科学家交流的过程中,我能感受到他们的一种担忧:人工智能行业的发展有些操之过急,缺乏深思熟虑。普林斯顿大学认知科学家布伦登·M·莱克告诉我,如果目标是打造与人类智能相当的人工智能,那么“我们目前的训练方式是错误的”。人工智能完成训练后,其神经网络“大脑”就会被“冻结”。即便你告诉模型关于自己的一些信息,它也不会调整内部神经元的连接方式,而是会采用一种简单的替代方案:记录一段文字(比如“用户有一个学步儿童,正在学习法语”),并在你发出后续指令时参考这段记录。
引用 刘海明 2025-11-4 20:46
深度思维公司近期推出的一款模型,能生成“正确混合颜料”“解决迷宫”的视频,但视频中也会出现“杯子撞击后没有碎裂反而弹起”“绳子被揉成一团却形成结”等违背物理规律的画面。曾任职于微软研究院的认知神经科学家伊达·莫门内贾德做过一项实验:她让大型语言模型“虚拟参观”一栋建筑,随后询问模型关于建筑内路线和捷径的问题——这类空间推理对人类而言轻而易举。但除了最简单的场景,人工智能要么答错,要么会编造不存在的路线。她说:“它们真的会规划吗?其实不会。
引用 刘海明 2025-11-4 20:46
相比之下,人工智能的“体验”极其匮乏,甚至不配被称为“体验”。大型语言模型的训练数据本身已经过高度提炼。加州大学伯克利分校的神经科学家多丽丝·曹告诉我:“我认为这些模型之所以能发挥作用,是因为它们借助了语言的力量。”语言就像“预先咀嚼过的体验”,其他类型的数据则缺乏如此密集的语义信息。哈佛大学认知科学家格什曼提出疑问:“为什么在视频数据推理领域,我们没有看到类似的突破?目前的视觉模型在常识性物理推理方面仍存在困难。”
引用 刘海明 2025-11-4 20:46
进化过程本身也可视为一种“训练数据”的积累)。
例如,人类婴儿会默认“世界由物体构成”,且“其他生物拥有自己的信念和意图”。当妈妈说“香蕉”时,婴儿会将这个词与妈妈正看着的整个黄色物体关联——而非仅仅关联物体的尖端或果皮。婴儿还会进行“小实验”:这个东西能吃吗?那个东西能扔多远?驱动他们的是欲望、好奇心、挫败感等情绪。儿童总在尝试做略微超出自己能力范围的事。他们的学习之所以高效,是因为这种学习是“具身的”“自适应的”“有意识的”且“持续的”。或许,要真正理解世界,就必须亲身参与其中。
引用 刘海明 2025-11-4 20:45
变得越来越难,且计算成本也日益高昂。今年8月,GPT-5发布时,仅实现了小幅改进——这一巨大的失望甚至可能刺破人工智能领域的投资泡沫。当下,我们需要一种“适度的怀疑”:既要正视如今人工智能模型的能力,也不能认为所有难题都已解决。
在这些待解难题中,最关键的或许是:如何设计出能像人类一样高效学习的模型。据估算,GPT-4在训练过程中接触了数万亿个词;而儿童只需接触数百万个词就能流畅表达。认知科学家表示,新生儿的大脑具备某些“归纳偏置”,这些偏置能加速学习过程(当然,大脑本身是数百万年进化的产物——进化过程本 ...
引用 刘海明 2025-11-4 20:45
不过,这种“窥见”需要极大的努力。诺曼告诉我:“我担心的是,人们的态度从‘极度怀疑’一下子变成了‘完全不加防备’。还有很多问题有待解决。”我或许就是诺曼所说的这类人(或许我太容易被《稀疏分布式记忆》与Anthropic模型之间的“相似性”打动)。在过去一两年里,我开始认同杰弗里·辛顿的观点。辛顿近期因在人工智能领域的研究获得诺贝尔奖,他在2020年对记者卡伦·豪表示:“深度学习将无所不能。”
但我们也发现,模型并非越大越好。绘制“模型性能与规模关系”的曲线已开始趋于平缓。要找到模型尚未消化的高质量数据变得越 ...
引用 刘海明 2025-11-4 20:44
长期以来,对大型语言模型的一项批评是:由于模型必须逐个生成“token”来构成回答,它们无法进行规划或推理。但当你让克劳德为一首诗续写押韵的对句时,模型中的某个“电路”会先确定新句子的最后一个词,以确保押韵,随后再反向推敲整句内容。Anthropic的研究人员认为,这一现象证明他们的模型确实具备规划能力。只要稍加观察,你或许会第一次感觉到:我们能窥见“思维”的内在运作过程。
引用 刘海明 2025-11-4 20:44
人工智能让科学家得以在“风洞”中研究“思考”本身。Anthropic的研究人员发表过一篇标题颇具争议的论文——《论大型语言模型的生物学属性》。他们观察了克劳德对各类问题的响应过程,并描述了模型中的“电路”——即一系列特征的连锁反应,这些反应共同完成复杂的计算(调用正确的记忆是思考的第一步,而通过“电路”组合和处理这些记忆,或许就是思考的下一步)。
引用 刘海明 2025-11-4 20:44
莱特兄弟在早期研发飞机时曾研究鸟类。他们发现,鸟类会逆风起飞——尽管普通人可能会认为它们应该顺风起飞;鸟类还会调整翼尖来保持平衡。这些发现为他们设计早期滑翔机提供了启发。之后,他们建造了一个6英尺长的风洞,得以在精确控制的条件下测试多组人工机翼。此后,他们的滑翔机飞行实验成功率大幅提升。有趣的是,直到他们成功造出可飞行的机器后,人们才真正弄明白鸟类飞行的原理。
引用 刘海明 2025-11-4 20:44
人们常说人工智能是“黑箱”,但事实或许恰恰相反:科学家可以探测单个人工神经元的活动,甚至对其进行修改。普林斯顿大学神经科学家肯尼斯·诺曼表示:“拥有一个能体现人类智能理论的可运行系统,这是认知神经科学领域的梦想。”诺曼曾构建过海马体(大脑中储存情景记忆的区域)的计算机模型,但过去的模型过于简单,他只能向模型输入对人类思维的粗略模拟数据。他说:“现在,你可以给记忆模型输入与给人类输入的完全相同的刺激信息。”
引用 刘海明 2025-11-4 20:43
人工智能与人类大脑存在相似性,这值得惊讶吗?毕竟,大型语言模型是人工神经网络,而其研发过程也有心理学家和神经科学家参与。更令人意外的是:当这些模型在反复练习“预测词汇”这种机械任务时,竟开始表现出与大脑相似的行为模式。如今,神经科学与人工智能领域正逐渐交融,大脑研究专家甚至将人工智能当作一种“模式生物”来使用。麻省理工学院的神经科学家埃夫莉娜·费多伦科就利用大型语言模型研究大脑处理语言的机制。她告诉我:“我从没想过自己这辈子能研究这类问题,也从没想过我们能拥有足够先进的模型。”
引用 刘海明 2025-11-4 20:43
模型给出的配料清单中竟包含“1/4杯干雾”和“1杯温海水”。)
布里肯在采访中提到了谷歌的“Transformer架构”——这是构建神经网络的一套技术方案,目前主流的人工智能模型都以其为基础(ChatGPT中的“T”即代表“Transformer”)。他认为,Transformer架构核心的数学原理,与数十年前彭蒂·卡内瓦在《稀疏分布式记忆》中提出的模型高度相似。
引用 刘海明 2025-11-4 20:43
几个月前,我看到一篇对Anthropic研究员特伦顿·布里肯的采访。他曾与同事合作,深入研究该公司旗下系列人工智能模型“克劳德”的内部机制(他们的研究尚未经过同行评审,也未在科学期刊上发表)。他的团队发现了多组人工神经元,或称“特征”,这些特征会在克劳德准备表达特定内容时被激活。研究发现,这些“特征”就像控制概念的“音量旋钮”——把某个“旋钮”调大,模型就会只围绕对应的概念展开表述。(在一项类似“思维控制”的实验中,研究人员调大了代表“金门大桥”的特征;当一名用户向克劳德索要巧克力蛋糕食谱时,模型给出的 ...
引用 刘海明 2025-11-4 20:42
大型语言模型还能通过对图像内容、氛围甚至人物表情进行编码,为图像生成“向量”,编码的细节足够丰富,既能让模型以特定风格重新绘制图像,也能让它写出一段关于图像的描述文字。
当马克斯在公园向ChatGPT求助解决洒水器问题时,这个模型并非只是在输出文字。它会将管道的照片与马克斯的问题描述一同压缩成一个向量,这个向量捕捉了问题最核心的特征。该向量就像一个“地址”,用于调用空间中相近的词汇和概念;这些概念又会进一步调用其他相关概念,帮助模型逐步理解当前场景,并结合这些“在脑海中”的概念组织回答。
引用 刘海明 2025-11-4 20:42
在GPT-4中,一个词向量拥有数千个维度,这些维度描述了该词与其他所有词在相似度和差异度上的细微差别。在训练过程中,每当大型语言模型出现预测错误,就会调整某个词的坐标;在文本中同时出现的词,在空间中会被调整得更接近。这就形成了一种极为密集的用法和语义表征——在这种表征中,类比变成了一个几何问题。一个经典例子是:若取“巴黎”的词向量,减去“法国”的词向量,再加上“意大利”的词向量,得到的结果最接近的向量就是“罗马”。
12下一页

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.