传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
1021#
 楼主| 发表于 2025-10-23 16:59:30 | 只看该作者
【案例】

本地化新闻,AI无法抵达的盲区

这是一个信息悖论的时代。
我们能在一秒钟内追踪到千里之外的国际纠纷,即时获知国外市场的最新动态,甚至能看到太空探索传回的最新影像。然而,对所处的城市、街道乃至小区,对那些足以影响我们切身生活体验的本地新闻资讯,我们却可能一无所知。
在这个信息过剩的洪流中,我们对远方的热点如数家珍,但却离“附近”越来越远。
这并非偶然。在过去二十年,互联网和算法的浪潮几乎重塑了媒体版图。大众的注意力更多被全国性、全球性的热点新闻所捕获,而曾经作为“地方神经中枢”的地方报纸、电台和电视台,广告收入与影响力同步急剧下降。其结果是,大量地方媒体停刊或转型,地方媒体人才持续流失。
以美国为例,过去15年,美国失去了2100多份报纸,这使2004年初拥有本地新闻媒体的1800个社区,在2020年初已经没有任何报纸。即便是幸存的6700份报纸,许多也早已成为“幽灵报纸”:只有原来的“外壳”,但新闻编辑室的采编人员和报纸读者数量都大大减少。有学术评论称,这些社区和居民,陷入了“新闻荒漠”(news desert)之中。
而在中国,曾经风光无限的都市报媒体经历了“黄金十年”后迅速衰退,许多报纸的发行量和广告收入断崖式下跌,导致休刊、合并或大幅裁员。即便许多地方媒体努力向新媒体转型,但其核心的本地新闻采编力量也在不断削弱。
当人们普遍认为,生成式人工智能的到来,将是压垮骆驼的最后一根稻草,会用自动生成的内容彻底淹没仅存的本地新闻时,一个反直觉的趋势正在悄然浮现:AI的局限性,恰恰为本地化新闻的价值重估,创造了前所未有的机遇。
AI的盲区:
算法无法抵达的“最后一公里”
要理解本地新闻的机遇,首先必须看清当前AI技术,尤其是大语言模型(LLM)的天然“盲区”。这并非技术缺陷,而是由数据、时效和信任这三个维度决定的结构性困境。
第一点,也是最根本的限制,在于AI的“饮食结构”。LLM的强大,源于它对海量公开互联网数据的抓取和学习。然而,这个庞大的数据集本身就存在着一种根深蒂固的“宏大叙事偏好”。它偏爱那些被广泛索引、高频讨论的全球性议题、全国性资讯和标准化信息,而那些构成我们日常生活基础的本地化信息,则大多处于其视野之外。
想象一下,一个街道办事处的会议纪要、地方政府网站上挂出的PDF格式规划公示、社区活动中心的活动安排、业主委员会关于停车费的激烈辩论……这些信息往往以非结构化、未被充分数字化的形式散落在各个角落。
它们是社区的“暗物质”,对于依赖全国乃至全球新闻材料和百科知识进行训练的AI来说,这些信息既稀缺又难以消化。
AI或许能告诉你《纽约时报》关于中美关系的最新评论,但它几乎不可能知道你家门口那条路为什么修了半年还没完工。更不用说,许多地方社群拥有自己独特的方言、行话和文化背景,这些微妙的语境是AI难以理解和准确表达的。
其次是时效性的延迟。本地新闻的生命力在于其即时性和实用性——突发的道路封闭、社区的寻人启事、本地球队的关键比赛结果、今晚可能影响出行的暴雨预警。这些信息的价值以“小时”甚至“分钟”为单位计算。而主流的LLM大多存在“知识截止日期”,它们的知识库并非实时更新。即便模型能够联网搜索,也往往是对二手信息的整合,缺乏第一时间的核实与深度挖掘。
AI试图生成关于刚刚发生的本地事件的报道时,它极易产生“幻觉”,或提供已经过时的信息,这在新闻领域是致命的。本地新闻的核心恰在“此时此地”,而AI的运行逻辑决定了它在这一点上永远慢半拍。
最关键的,还是信任的缺失。新闻的本质是一种基于信任的关系,尤其是在本地层面。一个优秀的本地记者,其价值,绝不仅仅是信息的转述者。他/她是社区的一员,是你可能在超市里遇到的邻居。他/她通过长年累月的深耕,与社区成员建立起复杂而稳固的信源网络。这种信任是通过无数次面对面的交谈、一场场深入社区的采访建立起来的。
AI没有“朋友”,无法进行实地采访,无法捕捉到受访者一个犹豫的眼神或是一声无奈的叹息。AI可以总结“发生了什么”(what),但很难解释事件背后盘根错节的历史、人际关系和社区情感,即“为什么会这样”(why)。例如,为什么一个看似简单的老旧小区改造计划,会引发整个社区如此大的争议?答案可能隐藏在几十年的邻里变迁、不同群体间的微妙关系以及人们对“家园”的复杂情感中。
这种深度的洞察力、同理心和判断力,正是人类记者无可替代的核心价值,也是AI难以编码的灵魂。
需求的回归与本地新闻的价值重估
AI的局限性为本地新闻留下了生存空间,而社会和受众需求的变化,则正在将这片空间变成一片沃土。在经历了长时间的宏大叙事和全球化信息轰炸后,人们正重新发现身边“小而美”的价值。
全国性乃至全球性的媒体机构,在商业模式的驱动下,天然地倾向于追求规模效应。它们聚焦于那些能吸引最多眼球、带来最大流量的议题——国际冲突、宏观政策、名人八卦。这造成了一个巨大的“灯下黑”区域:数以亿计的人们真正关心的、与他们日常生活福祉息息相关的话题被系统性地忽视了。
“门口的公园什么时候能建好?”“我孩子的学区划片今年有哪些变化?”“附近那家新开的网红餐厅味道如何?”“本地新出台的人才引进政策对我有什么影响?”这些问题,构成了普通人生活的核心关切,却恰恰是全国性媒体的报道盲区。这个巨大的内容缺口,正是本地新闻价值得以回归的根基。
更深层次的,是对社区认同和归属感的强烈渴求。在日益原子化和数字化的现代社会,人们之间的物理连接和情感纽带正在变弱。本地新闻,在某种程度上正扮演着社区“粘合剂”的角色。它通过设置共同的议程,让本地居民们关注同样的问题,讨论同样的话题。
在这个过程中,它不仅仅是在传递信息,更是在促进公民参与,提醒每个人:你不是一个孤立的个体,你恰恰是这个社区的一部分,你的声音和行动至关重要。这种由共同叙事构建起来的身份认同和社区联系,是抵御社会疏离感、重建公共生活的重要力量。在虚假信息泛滥的今天,一个值得信赖的本地新闻源,更是社区抵御谣言、凝聚共识的压舱石。
与此同时,新一代的本地新闻正在完成一次重要的角色蜕变——从单纯的“新闻报道者”,进化为多元的“社区服务者”。它不再仅仅告诉你昨天发生了什么,更致力于帮助你解决今天和明天的问题。它可以是一份实用的生活指南,为你提供周末的本地活动日历、政府福利的申请流程、应对极端天气的避险指南。这种服务属性,让本地新闻的价值变得具体、可感,也为其赢得了无可替代的忠诚度。
本地新闻的未来
本地新闻的未来,并非是一场排斥AI的复古运动,而是一场拥抱技术、重塑价值的变革。
对于本地新闻来说,AI也并非威胁。在实践中, AI的应用意味着将记者从繁重、重复的案头工作中解放出来。例如,国内一些地方媒体正在尝试利用AI工具,自动处理和分析海量的、格式不一的政府公开文件和会议记录,从中发现值得跟进的新闻线索,然后交给记者去进行真正的调查和采访。
AI可以用于自动转录数小时的采访录音,可以在几分钟内总结长达百页的政府报告,可以从招投标信息中发现异常模式,甚至可以根据受众偏好为不同平台自动生成不同风格的摘要和标题。这一切,都极大地提升了新闻生产的效率,让规模有限的本地新闻团队能够将宝贵的精力,投入到建立人际关系、进行深度调查和创作触动人心的故事这些AI无法胜任的高价值工作中。
技术的赋能,必然伴随着商业模式的深刻演变。本地新闻未来的生存之道,或许就在于与核心受众建立更深、更牢固的连接,并让他们心甘情愿地为独特的价值付费。
小而美”将成为一种主流形态。专注于某个特定城市、某个特定区县,甚至某个垂直领域(如本地教育、房地产、美食)的高度精准的微信公众号,正在成为越来越受欢迎的模式。
它们不求广度,但求深度,致力于成为该领域最权威、最不可或缺的信息源。此外,基于社群的会员制和知识付费也日益兴起,它们通过提供独家的深度分析、数据服务和线下社群活动,吸引最忠实的读者成为“共建者”,而不仅仅是“消费者”。同时,一些带有公益属性的本地新媒体项目也在探索更多可能性。
最终,未来的本地新闻机构将重塑自己的生态位。它将不再仅仅是一个内容的生产者,而是一个社区的“信息枢纽”和“连接中心”。它可以是本地线上社区论坛的管理者,是线下公共议题讨论会的组织者,是本地广播和视频节目的创作者。
在一个信息愈发真假难辨的世界里,一个值得信赖的本地新闻品牌,将成为居民获取可靠信息、进行理性讨论、参与社区生活的首选入口。它的价值,将通过其在社区中建立的信任和发挥的作用来衡量,而非简单的流量数字。


来源:新京报传媒研究(公众号)

编辑:张家乐

1022#
 楼主| 发表于 2025-10-24 21:02:12 | 只看该作者
【案例】

一电视台首次使用AI主持人

来源丨播音主持门户

据法新社10月20日报道,在20日播出的一个有关人工智能(AI)影响力的节目中,英国一家电视台成为全球最新一个使用AI节目主持人的电视台。
英国电视四台说,它选择了一名AI生成的主持人主持其长久以来的时事系列节目《快讯》。
这家电视台称,这是英国电视台首次使用AI主持人。
《快讯》的这期节目——“AI会夺走我的工作吗?”——调查了AI如何改变包括法律、音乐、时尚和医药在内各行各业的工作场所。
这名名叫艾莎·加本的主持人完全由AI生成,整个节目过程中都出现在屏幕上。
她在节目最后告诉观众:“你们有些人可能猜到了:我不存在,我不是在现场报道这个故事的。我的形象和声音是用AI生成的。”
该电视台新闻和时事部门主管路易莎·康普顿在一份声明中说:“电视四台不会把使用AI主持人作为一种习惯。相反,我们对新闻和时事的关注重点是优质、经过事实核查、及时公正而且可信的新闻——AI无法做到这一点。”


中国的AI主持人应用,远远早于英国。
2021年10月20日,广电总局发布《广播电视和网络视听“十四五”科技发展规划》。
《规划》提到,要加快推进制播体系技术升级。强化人工智能、大数据、区块链在内容选题、素材集成、编辑制作、内容审核、媒资管理、字幕制作等环节的应用,促进制播流程智能化。推动虚拟主播、动画手语广泛应用于新闻播报、天气预报、综艺科教等节目生产,创新节目形态,提高制播效率和智能化水平。
2019年,新华社联合搜狗公司近日在京发布全新升级的站立式AI合成主播,并推出全球首个AI合成女主播。
2020年5月21日,搜狗联合新华社推出的全球首个3D AI合成主播“新小微”正式亮相。这位新主播举止端庄、表情生动、毛发清晰、纤毫毕现,她行动灵活,语速自然,简直360°直播,全程无死角。


2021年11月24日,央视新闻联合百度智能云倾心打造的总台首个AI手语主播正式亮相。


她有着“真人般”的皮肤、头发、眼睛,形象亲切自然,气质优雅独特。


虚拟主持人具有效率高、零出错、全天候在线等优点,极大地提高了新闻播报效率,节约了人力成本。它把记者从繁琐、机械的新闻播报中解放出来,去挖掘更多的深度报道,提升新闻品质。
随着科学技术的不断发展,AI合成主播的技术也越来越成熟。


就像康辉所说,面对语音合成技术,我们应该去拥抱、适应和使用,不要害怕被取代。当你足够优秀,你将无可替代!


来源:传媒圈(公众号)

编辑:张家乐

1023#
 楼主| 发表于 2025-10-28 00:35:49 | 只看该作者
【案例】

《大西洋月刊》丨去技能化时代

Will AI stretch our minds—or stunt them?
By Kwame Anthony Appiah
人工智能会拓展我们的思维,还是阻碍其发展?

插图:马特奥·朱塞佩·帕尼 / 《大西洋月刊》

20251026日,美国东部时间上午6
相关担忧已从窃窃私语升级为高声喧嚣,且都围绕着同一个令人不安的主题:“ChatGPT影响下的大脑”“人工智能正让你变笨”“人工智能在扼杀批判性思维。曾经,人们害怕的是失控的智能会将人类消灭,甚至可能在这个过程中把地球变成一座回形针工厂。如今,聊天机器人正走上谷歌的老路——神奇之物变成理所当然的存在,人们的焦虑也随之转变,从对世界末日的恐惧转向对能力衰退的担忧。尤其是教师们表示,他们开始看到这种衰退的迹象。描述这种现象的术语虽不悦耳,却也贴切:去技能化。
这种担忧绝非空想。如果孩子依赖Gemini总结《第十二夜》,他们可能永远无法学会独立品读莎士比亚的作品。如果胸怀大志的律师借助Harvey AI(法律领域AI)进行法律分析,他们可能无法培养出前辈们视为理所当然的解读能力。在近期一项研究中,数百名英国参与者完成了标准的批判性思维测试,同时接受了关于使用人工智能获取信息或做决策的访谈。结果显示,年轻使用者对这项技术的依赖度更高,测试得分也更低。用进废退是该研究最核心的结论。另一项研究关注了医生进行结肠镜检查的情况:在使用人工智能系统辅助识别息肉三个月后,医生在不借助该系统时识别息肉的能力明显下降。
但真正的谜题不在于去技能化是否存在——它显然是存在的——而在于它究竟属于何种性质。所有形式的去技能化都会产生负面影响吗?还是说,有些去技能化是我们可以接受的,甚至是值得欢迎的?去技能化是一个笼统的术语,涵盖了多种截然不同的能力丧失情况:有些会带来损失,有些无关紧要,还有些反而会催生新的可能。要弄清楚其中的关键,我们必须仔细观察:当新技术出现时,技能会以何种方式逐渐减弱、消失或发生改变。
如今的聊天机器人算是新技术:它们所依赖的“Transformer”架构诞生于2017年,而ChatGPT在五年后才首次公开亮相。但新技术可能会削弱人类思维的担忧却由来已久。早在公元前4世纪的《斐德罗篇》中,苏格拉底就讲述了这样一个神话:埃及神透特将书写这一礼物献给国王塔姆斯,称其是记忆与智慧的秘诀。但塔姆斯对此不为所动。他警告说,书写会产生相反的效果:它会滋生健忘,让人们用纸上的符号取代记忆的努力,将理解的表象误认为理解本身。苏格拉底支持塔姆斯的观点。他抱怨道,文字永远无法回应你提出的具体问题;无论是智者还是愚者,文字对所有人的回应都是一样的;而且当人们误解文字时,文字也无能为力。
当然,我们之所以能知晓这一切——这段故事之所以能不断出现在辉格党式的科技史叙述中——正是因为柏拉图将其写了下来。但反对书写的人也并非完全错误。在口头文化中,吟游诗人能将史诗记在脑海里;非洲部落的格里奥(说书人)能随口说出数百年的族谱。而书写的出现让这些非凡的能力变得不再必要。人们无需深入思考,就能理解他人的想法。对话需要回应:或是澄清疑问,或是提出反对,或是修正观点(有时一句苏格拉底,您说得太对了就能起到作用,但即便如此,对话仍在继续)。相比之下,阅读时你只需沉浸在他人的智慧中,点头认同,却无需通过自我检验来印证这些智慧。
不过,从某个角度看是损失的东西,换个角度或许就是收获。书写为人类开辟了新的思维领域:评论文章、法学理论、可靠的历史记载、科学研究。研究口头文化与文字文化的学者沃尔特·J.翁曾精辟地指出:书写是一种能重构思维的技术。这种模式并不陌生。当水手开始使用六分仪时,他们便不再需要掌握水手的观天技艺”——那种曾指引他们安全返航的、对星辰的细致观测能力。后来,卫星导航的出现又让六分仪技能彻底消失。过去,拥有一辆福特T型车意味着你得兼职做机械师——要知道如何修补内胎、凭听觉调整点火正时、在引擎熄火后想办法让它重新启动。如今,性能高度可靠的引擎将这些秘密隐藏了起来。计算尺被计算器取代,计算器又被电脑取代。每一次技术更迭,个人的精湛技艺都会随之减弱,但整体效率却在提升。
这种有所失,必有所得的模式确实令人安心。但有些收获背后,隐藏着更深层的代价。它们不仅改变了人们能做什么,还改变了人们认为自己是谁
20世纪80年代,社会心理学家肖莎娜·祖博夫曾在美国南部的纸浆厂进行调研,当时这些工厂正从人工操作转向计算机控制。曾经,操作员需要通过触摸来判断纸浆的状态(它滑吗?它粘吗?);如今,他们只需坐在有空调的房间里,看着数字在屏幕上滚动,过去的技能既无人使用,也无人重视。一位操作员告诉祖博夫:通过电脑工作,感觉完全不一样。就像你骑着一匹强壮的骏马,但有人坐在你身后的马鞍上,握着缰绳。新系统速度更快、更清洁、更安全,但也让工作失去了原本的意义。
社会学家理查德·森内特也记录了波士顿一家面包店的类似变化。20世纪70年代,店里的工人都是希腊男性,他们靠嗅觉和视觉判断面包是否烤好,并为自己的手艺感到自豪;到了90年代,接替他们的工人只需操作带有Windows风格控制器的触摸屏。面包变成了屏幕上的图标——它的颜色由数据推断得出,品种则从数字菜单中选择。技能的弱化伴随着身份认同的弱化。面包依然美味,但厨房工人知道,自己不再是真正的面包师了。有人半开玩笑地对森内特说:烘焙、制鞋、印刷——随便你说什么手艺,我都言外之意是,他其实根本不需要掌握任何真正的技能。
在文化领域,人类与实物的接触无疑早已逐渐减少。在19世纪欧洲的中产阶级家庭中,热爱音乐通常意味着会演奏音乐。交响乐要进入客厅,靠的不是音响,而是钢琴改编版——两个人四只手,在一架钢琴上,尽最大努力演绎勃拉姆斯的《第一交响曲》。这需要技能:识谱、掌握演奏技巧、用手指勾勒出交响乐的意境。要听到自己想听的音乐,你必须不断练习。
后来,留声机流行起来,客厅里的钢琴开始积满灰尘。随之而来的好处显而易见:你可以把整个管弦乐队召唤到客厅里,可以将听觉体验从沙龙里的轻音乐拓展到德彪西、施特劳斯、西贝柳斯的作品。如今的音乐爱好者或许不再擅长演奏,但从某种意义上说,他们更懂聆听。然而,广度的拓展是以深度的丧失为代价的。练习一首曲子的过程,会让你对曲子的结构和脉络有深入的理解。而拥有闪亮的维克多牌留声机的孩子,能获得这种理解吗?
每当强大的新工具出现时,这种疏离感”——即与真实事物产生距离的感觉——就会随之而来。从17世纪开始,计算尺减少了人们对心算能力的依赖;几个世纪后,便携式计算器又让一些工程师感到不安,他们担心数感会逐渐消失。这些担忧并非毫无根据。按下键盘上的“Cos”键就能得到一个数值,但这个数值背后的含义可能会被人们遗忘。即便在更专业的领域,这种担忧也依然存在。麻省理工学院的物理学家维克多·魏斯科普夫对同事们越来越依赖计算机模拟感到困扰。当同事们把打印出来的结果交给时,他对他们说:计算机理解这个答案,但我觉得你们并不理解。这种不安就像古埃及国王的数字时代版本”——他们坚信,人们正把输出结果误认为深刻见解
在祖博夫所说的智能机器时代,自动化主要局限于工作场所——工厂、工业面包店、驾驶舱。而到了个人电脑和互联网时代,技术逃离了工作场所,进入家庭,成为通用工具,融入日常生活。早在21世纪初,研究人员就开始探讨搜索引擎对人类的影响。当时的新闻标题诸如谷歌影响下的大脑屡见不鲜。尽管这种恐慌有些过度,但一些影响确实真实存在。一项被广泛引用的研究发现,在某些情况下,人们会记住某个事实可以在哪里找到,而非事实本身
事实上,人类的认知能力从来都不局限于大脑内部——它还存在于工具、符号以及人与人之间的互动中(想想你认识的夫妻:有人记得生日,有人记得护照放在哪里)。从刻痕计数的骨头到泥板文书时代,数千年来,我们一直在将思维存储在外部世界中。许多生物都会使用工具,但它们的技能会随着个体的死亡而消失;而人类的技能会以文化的形式积累下来——形成一种智能传递系统。我们继承这种系统,拓展它,在此基础上不断构建,让每一代人都能站在更高的起点上:从压制剥落的石片,到骨针,再到印刷机,直至量子计算。这种见解的积累”——外部化、保存、共享——正是智人与其他生物的区别所在。倭黑猩猩生活在生态当下,而人类生活在历史之中
与此同时,积累会带来一个关键结果:它会推动专业化的发展。随着知识不断拓展,它不再能被每个人平等掌握。在小型部落中,任何人都能追踪猎物、采集植物、生火。但在农业革命后,社会规模不断扩大,手工业和行会逐渐增多——能锻造出锋利且耐用刀刃的工匠、懂得如何防止拱顶坍塌的石匠、掌握着严密保密的配方和技艺的玻璃吹制工。曾经存在于人体中的技能,逐渐转移到工具中,进而上升到制度层面。随着时间的推移,劳动分工不可避免地演变成认知分工
哲学家希拉里·普特南曾说过,他会用榆树这个词,但无法区分榆树和山毛榉。指称是具有社会性的:你能谈论榆树,是因为语言社群中的其他人——植物学家、园丁、林业工作者——能识别榆树。语言如此,知识亦是如此。人类的能力不仅存在于个体之中,还存在于个体所形成的网络之中。我们每个人都依赖他人来弥补自己能力的不足。社会规模的扩大,将社会交换转变为系统性的相互依赖
由此产生的世界,正如一个经典例子所描述的:没有人知道如何完整地制造一支铅笔。一个人要制造铅笔,需要掌握伐木工、锯木工、矿工、化学家、涂漆工等多种技能——即便是最简单的物品,其背后也存在一个无形的工艺网络。马克·吐温在《康州美国佬在亚瑟王朝》中,想象一位19世纪的工程师穿越到卡梅洛特(亚瑟王传说中的王国),用现代奇迹让当地人惊叹不已。读者们对此深信不疑。但如果把21世纪的工程师放到同样的场景中,他会束手无策。制造绝缘电线?调配一批炸药?从零开始制造电报机?一旦连不上无线网络,我们大多数人都会陷入困境。
如今,认知分工已发展到极高的程度:两位物理学家可能彼此都难以理解对方的研究——一位在模拟暗物质,另一位在制造量子传感器。如今的科学精通,意味着对越来越窄的领域了解越来越多。这种专注带来了惊人的进步,但也让我们意识到自身能力的局限性:专家们使用的概念工具,是他们能运用却无法创造的。即便是长期被视为孤独天才领域的数学,如今也遵循着这样的模式。当安德鲁·怀尔斯证明费马大定理时,他并没有重新推导每一个引理;而是整合了他信任但并未亲自验证的成果,构建出一个完整的理论框架——即便他没有亲手切割每一根横梁,也能看清整个框架的结构。
合作范围的扩大,改变了知晓某事的含义。知识曾被视为一种占有物,如今却变成了一种关系”——即我们能否很好地定位、解读和整合他人的知识。我们生活在一个分布式智能网络中,依赖专家、数据库和工具来拓展自己的认知边界。数据规模就能说明问题:当年宣布DNA双螺旋结构的《自然》论文只有两位作者;如今,一篇关于基因组学的《自然》论文可能有40位作者。而宣布希格斯玻色子发现的两篇论文呢?作者多达数千人。大型科学研究之所以大型,是有原因的。迟早,这个网络会迎来新的参与者——一个不仅能存储信息,还能模仿理解本身的参与者。
在大型语言模型时代,信息技能知道是什么知道怎么做之间的传统界限变得模糊。从某种角度看,这些模型是静态的:它们是一组可下载到笔记本电脑中的固定权重矩阵。但从另一个角度看,它们又是动态的:一旦运行,就能实时生成回应。它们能做到苏格拉底所抱怨的书写无法做到的事:回答问题、适应对话者、进行对话(有时甚至能与自己对话;当人工智能将自身输出作为输入时,人工智能研究人员称之为推理)。将谷歌视为记忆的延伸并不难;但对许多人来说,大型语言模型更像是思维本身的替代品。在利用新型人工智能时,我们自身的智能是在被拓展,还是说,这种人工智能正悄然崛起,逐渐占据主导地位?
我们无法将精灵放回瓶子里,但我们可以决定让它施展哪些魔法。当人们谈论去技能化时,通常会想到一个人失去了某种技能——比如飞行员的手动驾驶能力变得生疏,医生在没有人工智能辅助时会漏诊肿瘤。但如今,大多数工作都需要协作,人工智能的出现并没有改变这一点。问题不在于人类与机器人相比表现如何,而在于使用机器人的人类与不使用机器人的人类相比表现如何
有些人担心,对人工智能的依赖会让人类在某些方面变得更糟,这种负面影响会盖过其承诺的好处。Anthropic公司首席执行官达里奥·阿莫代伊乐观地设想会出现一个天才之国,但这些担忧者则预见会出现一个傻瓜之国。这与过去关于风险补偿的争论如出一辙:几十年前,一些社会科学家认为,增加安全带或防抱死刹车后,人们会驾驶得更加鲁莽——科技带来的安全感会让他们消耗掉安全余量。但后来的研究得出了更令人鼓舞的结果:人们确实会做出调整,但这种调整是有限的,因此技术仍能带来显著的好处。
在人工智能的临床应用中,类似的规律似乎也成立——人工智能在医院中的应用已超过十年。回想一下之前提到的结肠镜检查研究:在进行人工智能辅助检查后,胃肠病医生在无辅助情况下的息肉识别率下降了6个百分点。但另一项研究汇总了24000名患者的数据,呈现出更全面的情况:人工智能辅助使整体识别率提高了约20%(此处的人工智能是一种专家系统”——即一种狭义、可靠的机器学习形式,而非驱动聊天机器人的生成式人工智能)。由于识别率的提高意味着漏诊癌症的减少,无论个别医生的能力是否略有下降,这种半人半机的协作模式显然是有益的。如果这种协作能拯救生命,那么胃肠病医生若出于自尊心而坚持独自操作,就是不负责任的。
在其他领域,近期的一些研究表明:一个人的技能越高,与人工智能的协作效果就越好。其中一项研究发现,在对两种鹪鹩和两种啄木鸟的图像进行分类时,人类的表现优于机器人。但在识别虚假酒店评论时,机器人则更胜一筹(大概是同类识别同类吧)。随后,研究人员让人类与机器人配对,让人类在参考机器人建议的基础上做出判断。结果因任务而异:在人类直觉较弱的领域(如识别虚假酒店评论),人们会过多地质疑机器人,从而拉低整体结果;而在人类直觉较强的领域,人们似乎能与机器人协同工作——在确定自己判断正确时相信自己,在意识到机器人发现了自己遗漏的信息时也会认可机器人。在识别鸟类图像的任务中,人类+机器人的组合表现优于两者单独工作的效果。
同样的逻辑也适用于其他领域:一旦机器进入工作流程,精通的定义可能会从产出转向评估2024年一项关于程序员使用GitHub Copilot(代码生成工具)的研究发现,人工智能的使用似乎会重新引导人类的技能,而非取代它。程序员花在生成代码上的时间减少了,花在评估代码上的时间增多了——检查逻辑错误、排查边界情况、清理代码脚本。技能从创作转移到了监督
如今,人机协作越来越多地意味着这一点:专业能力不再体现于写出初稿,而体现于编辑初稿;不再体现于速度,而体现于判断力。生成式人工智能是一个概率系统,而非确定性系统;它给出的是可能性,而非真相。当风险切实存在时,具备专业能力的人类必须对最终决策负责——要能发现模型何时偏离现实,要将模型的输出视为待验证的假设,而非必须遵守的答案。这是一种新兴的技能,也是至关重要的技能。未来的专业能力,不仅取决于工具的优劣,更取决于我们能否与工具协同思考
但协作的前提是自身具备能力。如果人类一方毫无头绪,人机协作就会陷入混乱。这正是人们对教育感到恐慌的原因:如果一个人从未掌握过某种技能,就谈不上失去这种技能。在这个世界上最强大的作业工具能轻松装进每个学生口袋的时代,我们该如何培养学生的基本能力?
我们这些教育工作者还有很多作业要做。过去的教学方法需要革新;在过去几年里,太多大学生陷入了一种令人不安的状态——用一句话形容就是主修ChatGPT”。但现在就断言人工智能对教育的整体影响,还为时过早。诚然,人工智能可能会让某些能力变得生疏,但如果使用得当,它也能强化另一些能力。
以哈佛大学一门大型物理课程的近期随机试验为例。一半学生以传统的最佳方式学习两节课:由资深教师带领的互动式实践课堂。另一半学生则使用定制的人工智能导师。之后两组学生交换学习方式。结果显示,在两轮试验中,使用人工智能导师的学生表现都要好得多——优势非常明显。他们不仅学到了更多知识,学习速度也更快,而且反馈说自己更有动力、更投入。该人工智能系统的设计初衷是像优秀教练一样工作:教学生如何将复杂问题拆解成小问题,提供提示而非直接给出答案,根据每个学生的进度调整反馈的强度和内容。
这种针对性关注正是老式辅导体系的强大之处。我还记得在剑桥大学的最初几周,我与生物化学导师进行一对一交流的场景。当我说我大概懂了时,他会不断追问,直到我们都确信我真的懂了。这种有针对性的关注,是剑桥大学辅导制度的核心。如果设计得当,大型语言模型有望将这种关注大规模推广——不是复制辅导老师的羊毛开衫、锃亮的烟斗或若有所思的表情,而是复制那种持续、灵活的引导,帮助学生从困惑走向理解。
机器不会取代导师。它们有望承担辅导中常规性的部分——检查代数运算、反复练习引理、提醒学生注意单位书写、确保学生理解膜通道的工作原理。理论上,这能让教师腾出时间,专注于其他重要工作:讲解核心概念、追求更简洁优雅的表达、与学生探讨职业规划、关注学生是否面临过度压力。
当然,这只是一种乐观的设想。我们不应仅凭一项研究就得出普遍结论(有一项针对土耳其高中生的研究发现,使用辅导机器人并未带来明显进步)。同时我们也要注意,那些物理专业的学生之所以能很好地利用辅导机器人,是因为他们要面对课堂考试”——有监考老师、有时间限制、有严格的评分标准。
我们还需注意,在STEM(科学、技术、工程、数学)学科中有效的方法,在人文学科中可能并不适用。尽管学期论文枯燥乏味,但它能培养一种对话难以复制的能力:逐步构建论证、权衡证据、组织材料、锤炼表达风格。我们这些教授本科生的教师中,已有不少人开始对有上进心的学生说:如果他们写一篇论文,我们会阅读并与他们讨论,但这篇论文不会计入最终成绩。这只是一种权宜之计,而非根本解决方案。说来也奇怪,在文化层面,我们似乎正在回归口头表达”——口头交流可能需要承担更多教学任务。如此看来,对话的坚定捍卫者苏格拉底,最终会笑到最后吗?
破坏性去技能化仍是一种无法忽视的可能性:由于过度依赖工具,人类基本的认知或感知能力会逐渐衰退,且没有相应的能力提升作为补偿。这种能力缺失会耗尽一个系统的储备能力”——即那些平时很少用到,但在出现问题时必须具备的能力。没有这些储备能力,系统的韧性会下降,脆弱性会上升。想想那些航空公司的飞行员:他们花数千小时监控自动驾驶仪,却在系统故障时不知所措。一些自动化理论学者将人机协作分为两类:主动参与的人机协作被动签字的人机协作。后者如果管理不当,就会导致工业心理学家莉萨妮·贝恩布里奇早就警告过的问题:角色混乱、意识减弱、准备不足。就像救生员在大多数日子里,只是看着游泳技术娴熟的人在平静的水中游泳——这类人类监督者很少需要采取行动,但一旦需要,就必须迅速、熟练地行动。
同样的问题也困扰着各类办公室工作。当律师、项目经理和分析师花数月时间批准系统已起草或推断出的内容时,他们就变成了被动签字者,逐渐生疏了核心技能。这就是部分自动化的悖论:系统性能越好,人们就越不需要保持专业敏锐度,在系统偶尔失灵时,就越缺乏应对准备。解决这个问题的方法可能在于制度设计。例如,工作场所可以定期开展演练”——类似飞行员定期进行的飞行模拟器训练——让员工必须挑战机器,确保在平稳运行的漫长过程中,他们真正的判断能力没有衰退。
在很多情况下,储备技能不需要人人具备,只需在系统的某个环节存在即可——就像那些能识别榆树的专家一样。正因如此,美国海军学院担心GPS(全球定位系统)可能被干扰,在多年忽视后,重新恢复了基础的天体导航训练。大多数水手在远洋航行中可能永远不会用到六分仪,但只要有少数人掌握这项技能,在卫星失灵时,就足以稳住整个舰队。这样做的目的,是确保至少有一部分实际能力得以保留,以便在系统出现故障时,人类仍能站稳脚跟——至少不至于陷入困境。
最令人担忧的可能性,或许可以被称为根本性去技能化:即那些构成人类本质的能力逐渐衰退。判断力、想象力、同理心、对意义和分寸的感知——这些能力不是备用选项,而是我们日常都需要运用的能力。如果按照让-保罗·萨特担忧的说法,我们变成了机器的机器,那么这种损失会体现在日常生活的方方面面。可能会消失的,是支撑我们日常判断的隐性、内化的知识。如果人们开始按照系统偏好的方式提出问题,从系统提供的看似合理的答案中选择,那么这种损害不会表现为严重的判断失误,而会表现为人格的逐渐弱化:对话变得肤浅、对模糊性的容忍度降低、在需要寻找恰当措辞的地方习惯性使用套话、用流畅替代理解。如果将这些能力外包出去,实际上就是将我们自己外包出去。失去这些能力,不仅会改变我们的工作方式,还会改变我们是谁
从长远来看,大多数形式的去技能化都是良性的。有些技能之所以过时,是因为支撑它们的基础设施也已消失。电报技术需要熟练掌握点和划(莫尔斯电码);莱诺铸排机需要熟练操作熔铁键盘;平板胶片剪辑需要使用修版铅笔和拼接胶带,还要在脑海中记住不同场景在胶片和音轨中的位置。当电报线路、热金属印刷机和赛璐珞胶片消失时,它们所支撑的技艺也随之消失。
另一种去技能化,代表着枯燥工作的消除。很少有人会为不再用手搓衣服不再在纸上演算长除法而惋惜。我认识一位神经科学家,他坚信大型语言模型能加快撰写资助申请这一枯燥且模板化的工作。他仍然对内容负责,但即便自己的资助申请撰写能力下降,他也毫不在意。在他看来,这不属于科学研究,而是研究体系要求的表演。将这部分工作外包出去,能让他腾出时间用于发现
事实上,职业去技能化可能具有民主化意义,能让更多人有机会从事某项工作。对于英语能力有限的科学家来说,聊天机器人可以帮助他们顺利撰写机构审查委员会陈述,扫除语言障碍”——而这种障碍与他们的研究质量毫无关系。在这种情况下,去技能化拓宽了准入门槛。再想想森内特提到的那家面包店,以及过去在厨房工作的希腊男性。过去的烤炉会烫伤他们的手臂,老式揉面机可能拉伤他们的肌肉,搬运沉重的面包托盘会让他们的背部承受压力。到了20世纪90年代,当系统改为由Windows控制器操作时,劳动力构成发生了变化:不同种族的男性和女性站在屏幕前,点击图标即可工作。手艺的要求降低了,但符合条件的劳动者范围扩大了(当然,他们的工资也降低了:门槛越低,工资越低)。
通常情况下,技术让我们能将时间用在更有价值的事情上,培养更高价值链条上的技能,因此我们会主动放弃一些技能。在祖博夫调研的其中一家纸浆厂,操作员不再需要进行体力劳动,得以将更多时间用于预测和预防问题。有人说:坐在这个房间里思考,也成了我工作的一部分。祖博夫将这种变化称为再技能化行动技能让位于抽象思维和流程推理能力”——也就是她所说的智力技能。类似的情况也发生在电子表格软件(如VisiCalc)出现后的会计师身上:他们不再需要手工计算一列列数字,得以将更多时间用于税务策略风险分析
更重要的是,新技术能催生出全新的技能。在显微镜发明之前,有博物学家,但没有显微镜学家:罗伯特·胡克和安东尼··列文虎克必须发明观察和解读微观世界的方法。电影制作不仅借鉴了戏剧,还催生了摄影师剪辑师”——这些职业没有真正的历史先例。每一次技术飞跃,都拓宽了可能性的边界。如今的人工智能技术可能也是如此。我的年轻同事们坚称,与大型语言模型合作,已经在培养一种新的技艺”——设计提示词、追问验证、发现偏见和幻觉,当然,还有学会与机器协同思考。这些都是新兴技能,源于与不会消失的数字架构的互动。重要的技术,本质上都会催生我们目前还无法命名的技艺和职业
困难之处在于,要抛开怀旧情绪惯性思维,判断哪些技能值得保留,哪些可以舍弃。没有人愿意看到自己辛苦掌握的技能被视为过时而遭抛弃,因此我们必须抵制情感的诱惑。每一次进步都需要付出代价:文字读写能力削弱了记忆壮举,但创造了新的分析能力;计算器影响了心算能力,但让更多人能够运用数学;录音技术降低了日常音乐演奏能力,但改变了我们聆听音乐的方式。那么如今呢?我们显然有权决定,大型语言模型究竟会拓展还是缩小我们的思维。
纵观人类历史,我们的能力从未停滞不前。技能总是不断向外流动”——从双手到工具,再到系统。个体的才智已融入集体协同智能,而推动这一过程的,是人类长久以来的思维外化习惯:将记忆存储在符号中、将逻辑嵌入机器中、将判断融入制度中,近来又将预测托付给算法。过去催生行会的专业化,如今催生了研究联盟;过去在师徒间传递的知识,如今通过网络和数字矩阵传播。生成式人工智能——人类知识的统计浓缩”——只是我们向自身发明学习这一漫长过程中的最新篇章。
因此,最紧迫的问题是:如何保持我们的主体性”——如何在即将承担我们大量思考工作的系统中,依然保持主导者的身份。每一代人都必须学会如何与新获得的认知工具共处,无论是铁笔、卷轴,还是智能手机。如今的新变化,在于互动的速度和亲密程度:工具在向我们学习的同时,我们也在向工具学习。如今的管理,意味着要确保构成人类本质的能力”——判断力、想象力、理解力——在我们身上得以保留。如果说有哪项技能我们绝对不能失去,那就是判断哪些能力真正重要的技能。
本文作者夸梅·安东尼·阿皮亚(Kwame Anthony Appiah)是纽约大学哲学和法学教授,著有《被俘的神:宗教与社会科学的兴起》。




来源:邸报(公众号)
编辑:张席睿



1024#
 楼主| 发表于 2025-10-28 00:46:10 | 只看该作者
【案例】

研究:AI聊天工具在新闻领域“极不靠谱”


编辑:张席睿



1025#
 楼主| 发表于 2025-10-28 01:12:42 | 只看该作者
【案例】

时事·速递|北京查处全国首例AI仿冒央视主持人带货案




来源:重新(公众号)
编辑:张席睿

1026#
 楼主| 发表于 2025-10-28 22:57:20 | 只看该作者
【案例】

本地化新闻,AI无法抵达的“最后一公里”

这是一个信息悖论的时代。我们能在一秒钟内追踪到千里之外的国际纠纷,即时获知国外市场的最新动态,甚至能看到太空探索传回的最新影像。然而,对所处的城市、街道乃至小区,对那些足以影响我们切身生活体验的本地新闻资讯,我们却可能一无所知。在这个信息过剩的洪流中,我们对远方的热点如数家珍,但却离“附近”越来越远。这并非偶然。在过去二十年,互联网和算法的浪潮几乎重塑了媒体版图。大众的注意力更多被全国性、全球性的热点新闻所捕获,而曾经作为“地方神经中枢”的地方报纸、电台和电视台,广告收入与影响力同步急剧下降。其结果是,大量地方媒体停刊或转型,地方媒体人才持续流失。以美国为例,过去15年,美国失去了2100多份报纸,这使2004年初拥有本地新闻媒体的1800个社区,在2020年初已经没有任何报纸。即便是幸存的6700份报纸,许多也早已成为“幽灵报纸”:只有原来的“外壳”,但新闻编辑室的采编人员和报纸读者数量都大大减少。有学术评论称,这些社区和居民,陷入了“新闻荒漠”(news desert)之中。而在中国,曾经风光无限的都市报媒体经历了“黄金十年”后迅速衰退,许多报纸的发行量和广告收入断崖式下跌,导致休刊、合并或大幅裁员。即便许多地方媒体努力向新媒体转型,但其核心的本地新闻采编力量也在不断削弱。当人们普遍认为,生成式人工智能的到来,将是压垮骆驼的最后一根稻草,会用自动生成的内容彻底淹没仅存的本地新闻时,一个反直觉的趋势正在悄然浮现:AI的局限性,恰恰为本地化新闻的价值重估,创造了前所未有的机遇。
AI的盲区:

算法无法抵达的“最后一公里”
要理解本地新闻的机遇,首先必须看清当前AI技术,尤其是大语言模型(LLM)的天然“盲区”。这并非技术缺陷,而是由数据、时效和信任这三个维度决定的结构性困境。第一点,也是最根本的限制,在于AI的“饮食结构”。LLM的强大,源于它对海量公开互联网数据的抓取和学习。然而,这个庞大的数据集本身就存在着一种根深蒂固的“宏大叙事偏好”。它偏爱那些被广泛索引、高频讨论的全球性议题、全国性资讯和标准化信息,而那些构成我们日常生活基础的本地化信息,则大多处于其视野之外。想象一下,一个街道办事处的会议纪要、地方政府网站上挂出的PDF格式规划公示、社区活动中心的活动安排、业主委员会关于停车费的激烈辩论……这些信息往往以非结构化、未被充分数字化的形式散落在各个角落。它们是社区的“暗物质”,对于依赖全国乃至全球新闻材料和百科知识进行训练的AI来说,这些信息既稀缺又难以消化。AI或许能告诉你《纽约时报》关于中美关系的最新评论,但它几乎不可能知道你家门口那条路为什么修了半年还没完工。更不用说,许多地方社群拥有自己独特的方言、行话和文化背景,这些微妙的语境是AI难以理解和准确表达的。其次是时效性的延迟。本地新闻的生命力在于其即时性和实用性——突发的道路封闭、社区的寻人启事、本地球队的关键比赛结果、今晚可能影响出行的暴雨预警。这些信息的价值以“小时”甚至“分钟”为单位计算。而主流的LLM大多存在“知识截止日期”,它们的知识库并非实时更新。即便模型能够联网搜索,也往往是对二手信息的整合,缺乏第一时间的核实与深度挖掘。
当AI试图生成关于刚刚发生的本地事件的报道时,它极易产生“幻觉”,或提供已经过时的信息,这在新闻领域是致命的。本地新闻的核心恰在“此时此地”,而AI的运行逻辑决定了它在这一点上永远慢半拍。最关键的,还是信任的缺失。新闻的本质是一种基于信任的关系,尤其是在本地层面。一个优秀的本地记者,其价值,绝不仅仅是信息的转述者。他/她是社区的一员,是你可能在超市里遇到的邻居。他/她通过长年累月的深耕,与社区成员建立起复杂而稳固的信源网络。这种信任是通过无数次面对面的交谈、一场场深入社区的采访建立起来的。AI没有“朋友”,无法进行实地采访,无法捕捉到受访者一个犹豫的眼神或是一声无奈的叹息。AI可以总结“发生了什么”(what),但很难解释事件背后盘根错节的历史、人际关系和社区情感,即“为什么会这样”(why)。例如,为什么一个看似简单的老旧小区改造计划,会引发整个社区如此大的争议?答案可能隐藏在几十年的邻里变迁、不同群体间的微妙关系以及人们对“家园”的复杂情感中。这种深度的洞察力、同理心和判断力,正是人类记者无可替代的核心价值,也是AI难以编码的灵魂。

需求的回归与本地新闻的价值重估
AI的局限性为本地新闻留下了生存空间,而社会和受众需求的变化,则正在将这片空间变成一片沃土。在经历了长时间的宏大叙事和全球化信息轰炸后,人们正重新发现身边“小而美”的价值。全国性乃至全球性的媒体机构,在商业模式的驱动下,天然地倾向于追求规模效应。它们聚焦于那些能吸引最多眼球、带来最大流量的议题——国际冲突、宏观政策、名人八卦。这造成了一个巨大的“灯下黑”区域:数以亿计的人们真正关心的、与他们日常生活福祉息息相关的话题被系统性地忽视了。“门口的公园什么时候能建好?”“我孩子的学区划片今年有哪些变化?”“附近那家新开的网红餐厅味道如何?”“本地新出台的人才引进政策对我有什么影响?”这些问题,构成了普通人生活的核心关切,却恰恰是全国性媒体的报道盲区。这个巨大的内容缺口,正是本地新闻价值得以回归的根基。更深层次的,是对社区认同和归属感的强烈渴求。在日益原子化和数字化的现代社会,人们之间的物理连接和情感纽带正在变弱。本地新闻,在某种程度上正扮演着社区“粘合剂”的角色。它通过设置共同的议程,让本地居民们关注同样的问题,讨论同样的话题。
在这个过程中,它不仅仅是在传递信息,更是在促进公民参与,提醒每个人:你不是一个孤立的个体,你恰恰是这个社区的一部分,你的声音和行动至关重要。这种由共同叙事构建起来的身份认同和社区联系,是抵御社会疏离感、重建公共生活的重要力量。在虚假信息泛滥的今天,一个值得信赖的本地新闻源,更是社区抵御谣言、凝聚共识的压舱石。与此同时,新一代的本地新闻正在完成一次重要的角色蜕变——从单纯的“新闻报道者”,进化为多元的“社区服务者”。它不再仅仅告诉你昨天发生了什么,更致力于帮助你解决今天和明天的问题。它可以是一份实用的生活指南,为你提供周末的本地活动日历、政府福利的申请流程、应对极端天气的避险指南。这种服务属性,让本地新闻的价值变得具体、可感,也为其赢得了无可替代的忠诚度。

本地新闻的未来
本地新闻的未来,并非是一场排斥AI的复古运动,而是一场拥抱技术、重塑价值的变革。对于本地新闻来说,AI也并非威胁。在实践中, AI的应用意味着将记者从繁重、重复的案头工作中解放出来。例如,国内一些地方媒体正在尝试利用AI工具,自动处理和分析海量的、格式不一的政府公开文件和会议记录,从中发现值得跟进的新闻线索,然后交给记者去进行真正的调查和采访。AI可以用于自动转录数小时的采访录音,可以在几分钟内总结长达百页的政府报告,可以从招投标信息中发现异常模式,甚至可以根据受众偏好为不同平台自动生成不同风格的摘要和标题。这一切,都极大地提升了新闻生产的效率,让规模有限的本地新闻团队能够将宝贵的精力,投入到建立人际关系、进行深度调查和创作触动人心的故事这些AI无法胜任的高价值工作中。

技术的赋能,必然伴随着商业模式的深刻演变。本地新闻未来的生存之道,或许就在于与核心受众建立更深、更牢固的连接,并让他们心甘情愿地为独特的价值付费。小而美”将成为一种主流形态。专注于某个特定城市、某个特定区县,甚至某个垂直领域(如本地教育、房地产、美食)的高度精准的微信公众号,正在成为越来越受欢迎的模式。它们不求广度,但求深度,致力于成为该领域最权威、最不可或缺的信息源。此外,基于社群的会员制和知识付费也日益兴起,它们通过提供独家的深度分析、数据服务和线下社群活动,吸引最忠实的读者成为“共建者”,而不仅仅是“消费者”。同时,一些带有公益属性的本地新媒体项目也在探索更多可能性。最终,未来的本地新闻机构将重塑自己的生态位。它将不再仅仅是一个内容的生产者,而是一个社区的“信息枢纽”和“连接中心”。它可以是本地线上社区论坛的管理者,是线下公共议题讨论会的组织者,是本地广播和视频节目的创作者。在一个信息愈发真假难辨的世界里,一个值得信赖的本地新闻品牌,将成为居民获取可靠信息、进行理性讨论、参与社区生活的首选入口。它的价值,将通过其在社区中建立的信任和发挥的作用来衡量,而非简单的流量数字。



来源:传媒见闻(公众号)
编辑:张席睿



1027#
 楼主| 发表于 2025-11-4 20:56:04 | 只看该作者
【案例】

《纽约客》丨人工智能真的在思考吗?

The Case That A.I. Is Thinking
ChatGPT 并无内在生命,但它似乎清楚自己在谈论什么。
本文即将刊登于2025 11 10 日的《纽约客》杂志,印刷版标题为“Open Mind”。作者:作家兼计算机程序员詹姆斯·萨默斯从 2018 年开始为《纽约客》撰稿。

当一种理解的假象逼真到何种程度时,你才会不再将其称为假象?

人工智能公司Anthropic的首席执行官达里奥·阿莫代伊预测,到2027年,在生物学、数学、工程学、写作等领域比诺贝尔奖得主更聪明的人工智能或许会投入使用。他设想数百万个模型副本高速运转,每个副本都在开展独立研究,形成一个数据中心里的天才国度。今年6月,OpenAI的萨姆·奥尔特曼撰文称,人工智能行业即将打造出数字超级智能。他断言:“2030年代很可能会与以往任何时代都截然不同。与此同时,大多数人目前日常接触的人工智能工具,让人不禁想起微软办公软件曾推出的助手”Clippy——它实际上更像个爱纠缠的角色。Zoom的一款人工智能工具会提示你向它提问有哪些会议破冰问题?,或是指令它写一条表达感谢的短消息Siri擅长设置提醒,但在其他方面用处不大。我的一位朋友在Gmail中看到一个按钮,上面写着致谢并讲述趣闻。他点击后,谷歌的人工智能编造了一个关于他去土耳其旅行的有趣故事,而他从未去过那里。
人工智能仓促且不均衡的推出,营造出一种迷雾氛围,让人很容易得出这里没什么值得关注——全是炒作的结论。诚然,炒作确实不少:阿莫代伊预测的时间线带有科幻色彩(人工智能模型的改进速度并没有那么快)。但认为大型语言模型只是在随意拼凑文字,同样是一种一厢情愿的想法。我过去曾认同这种观点,也曾从人工智能与真正的智能或理解毫无关系这一想法中寻求慰藉,甚至还为它的缺陷感到庆幸——就像在为人类主队加油。后来,作为一名程序员,我开始在工作中使用人工智能,因为担心不这样做就会落后。(我所在的雇主是一家贸易公司,对包括Anthropic在内的多家人工智能公司有投资,也建立了合作关系。)许多人认为,编写代码是人工智能最擅长的领域;代码比散文更具结构性,而且通常能通过自动化方式验证某个程序是否可行。我对人工智能的看法很快发生了转变。起初,我会咨询人工智能模型,而非自己去查找资料;接着,我会让它们处理一些独立的小问题;最终,我把真正的工作——那些我整个职业生涯都在学习处理的工作——也交给了它们。我看到这些模型能在几秒钟内理解数千行代码中的复杂细节,它们能发现细微的漏洞,还能设计出复杂的新功能。后来,我被调到一个快速发展的团队,该团队旨在更好地利用人工智能工具,并开发我们自己的工具。
据说科幻作家威廉·吉布森曾提出,未来早已到来,只是尚未均匀分布——这或许能解释为何人工智能似乎催生了两种截然不同的群体:一种对此不屑一顾,另一种则为之着迷。在日常生活中,能预订假期或申报税务的人工智能代理并不成功,但我的一些同事在编写代码时,大部分工作都依赖人工智能,有时还会同时运行多个编程代理。这些模型有时会犯低级错误,或陷入无意义的循环,但随着我学会高效使用它们,曾经需要一个月完成的工作,现在一个晚上就能搞定。不久前,我在完全不懂如何开发iOS应用的情况下,做出了两款iOS应用。
我曾有一位上司说,求职面试应考察应聘者的优势,而非纠结于其是否存在缺点。大型语言模型确实有很多缺点:众所周知,它们会编造看似合理的虚假信息;即便你出错,它们也可能一味顺从;简单的谜题就能将它们难住。但我还记得,如今人工智能模型所具备的显著优势——流畅的表达、自然的衔接、理解他人意图的能力——在过去曾被视为难以实现的圣杯。当你亲身体验到这些优势时,就会不禁思考:当一种理解的假象逼真到何种程度时,你才会不再将其称为假象?
今年夏天一个酷热难耐的日子,我的朋友马克斯和家人在公园游玩。不知为何,儿童洒水器没有开启,而马克斯的妻子之前向大家保证,她丈夫能修好它。面对满脸通红、年龄在六到七岁之间的孩子们,马克斯走进工具棚,希望能找到一个显眼的开启开关。然而,他看到的却是一堆错综复杂的旧管道和阀门。就在他准备放弃时,突然心血来潮,拿出手机,将洒水器的照片以及自己遇到的问题描述一起输入ChatGPT-4o。人工智能思考了片刻——也可能并没有真正思考——但它随即表示,马克斯看到的是灌溉系统中常见的防回流装置。它问马克斯是否看到底部那个黄色的球阀,认为那个阀门很可能控制着水流。马克斯按照提示操作,水流随即喷出,公园里顿时响起孩子们的欢呼声。
ChatGPT是在毫无意义地拼凑文字,还是真的理解了这个问题?这个答案或许能让我们对理解本身有重要的认识。加州大学伯克利分校的神经科学教授多丽丝·曹(音译)告诉我:神经科学家必须面对这个令人清醒的事实:机器学习的进展,比神经科学在过去一百年间的任何发现,都更能让我们了解智能的本质。多丽丝·曹最知名的研究是破解恒河猴感知面部的机制。她的团队成功预测出猴子看到特定面部时哪些神经元会被激活;更令人惊叹的是,只要知道神经元的激活模式,他们就能还原出对应的面部图像。他们的研究借鉴了关于人工智能模型如何表征面部的相关成果。如今,她最喜欢问别人的一个问题是:你从ChatGPT中获得的最深刻洞见是什么?她表示:我自己的答案是,我认为它彻底揭开了思考的神秘面纱。
关于我们如何走到如今这一步,最基础的解释大致如下:20世纪80年代,一小群认知心理学家和计算机科学家尝试在机器中模拟思考过程。其中较知名的有戴维·鲁梅尔哈特、杰弗里·辛顿和詹姆斯·麦克莱兰,他们后来在加州大学圣迭戈分校成立了一个研究小组。他们认为,大脑是一个庞大的网络,神经元以特定模式激活,进而引发其他神经元群的激活,如此循环往复;这种模式的动态变化就是思考。大脑通过改变神经元之间连接的强度来实现学习。关键在于,这些科学家通过构建人工神经网络,并应用一种名为梯度下降的简单算法来提高其预测准确性,从而模拟了大脑的这一学习过程。(可以将该算法比作一个从山顶走向山谷的徒步者:要最终找到下山的路,一个简单的策略就是确保每一步都朝着地势更低的方向前进。)在大型网络中使用这类算法的技术,被称为深度学习。
人工智能领域的其他研究者曾怀疑,神经网络是否足够复杂,能否应对现实世界的任务。但随着网络规模不断扩大,它们开始解决此前无法攻克的难题。过去,有人会花费整篇博士论文的篇幅,研究区分手写数字或识别图像中人脸的技术;而后来,深度学习算法只需消化相关数据,就能掌握问题的核心细节,让那些研究项目显得过时。很快,深度学习在语音识别、翻译、图像描述、棋类游戏等领域取得突破,甚至解决了蛋白质折叠预测这一难题。
如今最先进的人工智能模型,是通过一种名为下一个token预测的技术,在互联网的大量数据上训练而成的。模型通过猜测接下来会出现的内容,再将猜测结果与实际出现的内容进行对比,以此完成学习。一旦猜测错误,神经元之间连接的强度就会调整,这正是梯度下降算法的作用。最终,模型在文本预测方面变得极为精准,以至于看起来仿佛真的具备知识储备,且表达富有逻辑。这一点值得我们思考:一群研究者致力于探寻大脑运作的奥秘,当他们构建的模型规模接近大脑大小时,模型开始展现出那些曾被认为只有大脑级智能才能实现的能力。难道他们真的找到了一直在寻找的答案?
对于这种将人工智能简单化、理想化的解读,人们难免会持反对态度。泰德·蒋曾有力地反驳过这一观点,他在2023年初为本刊撰写了一篇文章,标题为《ChatGPT不过是互联网的模糊JPEG格式文件》。他的言下之意带有贬低意味:ChatGPT仅此而已。你把整个互联网的数据输入一个程序,它只是将这些数据不完美地反刍出来,就像一张照片经过多次复制后变得模糊——但它的表达能力足以让你误以为这个程序具备智能。今年春天,语言学家埃米莉·M·本德和社会学家亚历克斯·汉纳在合著的《人工智能骗局》一书中,也提出了类似观点。本德最知名的言论,是将大型语言模型描述为随机鹦鹉。《大西洋月刊》的书评作者泰勒·奥斯汀·哈珀宣称:大型语言模型过去没有、现在没有、将来也永远不会理解任何事物。这些模型生成文字并非通过思考,而是基于统计规律,猜测下一个词汇可能是什么。哈珀在这些技术层面的论点之外,还加入了道德层面的批判:人工智能让强者更富,消耗的能源加速了气候变化,还导致劳动者被边缘化。他最终得出结论:人工智能行业的根基就是一场骗局。

一位顶尖神经科学家认为,ChatGPT“彻底揭开了思考的神秘面纱”。

但从道德层面反对人工智能,或许最终比从技术层面反对更有说服力。哈佛大学认知科学家塞缪尔·J·格什曼并非人工智能的盲目吹捧者,他告诉我:“‘随机鹦鹉这种说法早该过时了。只有最顽固的怀疑论者,才会否认这些系统实现了许多人曾认为无法实现的功能。普林斯顿大学的认知神经科学家乔纳森·科恩承认人工智能存在局限性,但他认为,在某些情况下,大型语言模型似乎模拟了人类大脑中一个庞大且重要的区域。科恩表示:大致来说,大脑的新皮层就是一个深度学习机制。相对于体型而言,人类的新皮层比其他动物大得多;而新皮层最大的物种——大象、海豚、大猩猩、黑猩猩、狗——也恰好是最具智能的物种。
2003年,机器学习研究者埃里克·B·鲍姆出版了一本名为《何为思考?》的书(我在大学图书馆的书架上偶然发现了它,书名瞬间吸引了我)。鲍姆论点的核心在于:理解即压缩,压缩即理解。在统计学中,若要理解图表上的数据点,可以采用线性回归技术,在这些点之间绘制一条最佳拟合线。如果数据中存在潜在规律——比如你在绘制鞋码与身高的对应关系——这条最佳拟合线就能简洁地呈现这一规律,并预测新数据点可能出现的位置。我们可以将新皮层理解为一种提炼工具:它从海量原始体验(声音、图像及其他感官信息)中提取核心,形成类似最佳拟合线的模型,用于进行预测。婴儿探索世界时,会尝试猜测玩具的味道,或是食物掉落到地上后会滚向何方。当预测出错时,神经元之间的连接就会调整。久而久之,这些连接逐渐捕捉到数据中的规律,形成一个对世界的压缩模型。
人工神经网络与真实的神经网络一样,也能对体验进行压缩。目前最优秀的开源人工智能模型之一DeepSeek,能够创作小说、提供医疗诊断建议,还能以数十种语言进行母语级别的交流。它是通过下一个token预测技术,在数太字节的数据上训练而成的。但当你下载这个模型时,会发现它的大小仅为训练数据的六百分之一。它就像是互联网的精华版,经过压缩后可以安装在笔记本电脑上。泰德·蒋将早期版本的ChatGPT比作互联网的模糊JPEG”,这种说法有一定道理——但在我看来,这正是这些模型变得越来越智能的原因。蒋在文章中指出,若要压缩一个包含数百万道算术题的文本文件,你不会将其制成压缩文件,而是会编写一个计算器程序。他写道:只有理解了文本内容,才能实现最高程度的压缩。或许,大型语言模型已经开始做到这一点。
想到一个计算机程序真的能理解、真的能思考,人们可能会觉得反常,甚至反感。通常,我们认为思考是一种有意识的行为,比如像乔伊斯作品中那样的内心独白,或是像普鲁斯特式白日梦那样的感官记忆流动;也可能认为思考是一种推理过程:一步步解决问题。在讨论人工智能时,我们常常将这些不同类型的思考混为一谈,导致判断过于草率。有一种观点认为,ChatGPT显然不会思考,因为它显然不会像普鲁斯特那样陷入遐想;另一种观点则认为,ChatGPT显然会思考,因为它解决逻辑谜题的能力比人类更强。
但实际情况要微妙得多。我不认为ChatGPT有内在生命,但它似乎确实清楚自己在谈论什么。理解”——即明白正在发生的事情——是一种未被充分重视的思考方式,因为它大多发生在无意识层面。印第安纳大学认知科学与比较文学教授道格拉斯·霍夫施塔特常说,认知的本质就是识别。霍夫施塔特因《哥德尔、埃舍尔、巴赫:集异璧之大成》一书闻名,该书于1980年获得普利策奖,探讨了心智与意识的奥秘。霍夫施塔特经过数十年研究提出,看作是思考的核心。你将一块色斑看作汽车,将另一块色斑看作钥匙扣;无论字母“A”以何种字体呈现,或是书写得多么潦草,你都能认出它。霍夫施塔特认为,同样的过程也存在于更抽象的感知层面。国际象棋大师审视棋盘时,多年的经验让他能瞬间看出:白方的象处于弱势;这个残局很可能是平局。你看到河中的漩涡,就知道此处不宜过河;你意识到正在参加的会议是皇帝的新衣式的闹剧;我将近两岁的儿子发现,上午晚些时候推婴儿车散步时,或许能有机会吃到可颂面包,于是便会提出相应要求。在霍夫施塔特看来,这就是智能的本质。
霍夫施塔特是最早对人工智能持贬低态度的人之一,我过去的怀疑态度也深受他的影响。他曾表示,大多数人工智能研究与真正的思考毫无关系,21世纪初我上大学时,也认同这一观点。但也有例外:他认为加州大学圣迭戈分校的研究小组很有研究价值,同时也钦佩一位不太知名的芬兰裔美国认知科学家彭蒂·卡内瓦的成果——卡内瓦发现了高维空间数学的一些特殊属性。在高维空间中,任意两个随机点可能相距极远;但反常的是,每个点周围都存在大量邻近点,因此只要你足够靠近某个点,就能轻松找到它。这让卡内瓦联想到记忆的运作方式。在1988年出版的《稀疏分布式记忆》一书中,卡内瓦提出,思想、感官体验和记忆可以表现为高维空间中的坐标。大脑似乎是存储这类信息的理想硬件:每段记忆都有一个独特的地址,这个地址由你回忆时激活的神经元决定。新的体验会激活新的神经元群,形成新的地址。两个地址可能在多个方面存在差异,但在某些方面又具有相似性;一种感知或一段记忆,会触发与之相近的其他记忆。干草的气味会让你想起夏令营的回忆;贝多芬《第五交响曲》的前三个音符响起,你就会联想到第四个音符;一个你从未见过的象棋棋局,会让你想起过去的对局——并非所有对局,而是那些与当前棋局相似的对局。
霍夫施塔特意识到,卡内瓦所描述的,本质上是一种看作机器。他在为卡内瓦著作撰写的序言中表示:彭蒂·卡内瓦的记忆模型让我深受启发,这是我首次看到有研究能让我隐约感受到,理解大脑整体运作机制这一遥远目标或许并非无法实现。无论是乔伊斯式的内心独白、普鲁斯特式的遐想,还是逻辑推理,任何形式的思考都依赖于相关事物在恰当的时机出现在脑海中。正是通过这种方式,我们才能判断自己所处的情境。
后来,卡内瓦的著作逐渐被淡忘,霍夫施塔特本人的影响力也有所下降——除非他偶尔站出来批评某款新的人工智能系统。2018年,他在谈到谷歌翻译及类似技术时表示:这种方法存在一个核心缺陷,用一个词就能概括:理解。2023年推出的GPT-4,彻底改变了霍夫施塔特的看法。他最近告诉我:这些系统的某些表现让我感到震惊,即便在十年前,这都是无法想象的。最坚定的贬低者也无法再坚持原来的观点:眼前的程序能达到专业水平的翻译效果,能进行类比、即兴发挥、归纳总结。我们凭什么说它不具备理解能力?他说:它们的行为与思考极为相似,你甚至可以说,它们在思考,只是方式与人类有所不同。
大型语言模型的核心,似乎正是这种看作机器。它们用一系列数字来表示每个词在高维空间中的坐标——向量。在GPT-4中,一个词向量拥有数千个维度,这些维度描述了该词与其他所有词在相似度和差异度上的细微差别。在训练过程中,每当大型语言模型出现预测错误,就会调整某个词的坐标;在文本中同时出现的词,在空间中会被调整得更接近。这就形成了一种极为密集的用法和语义表征——在这种表征中,类比变成了一个几何问题。一个经典例子是:若取巴黎的词向量,减去法国的词向量,再加上意大利的词向量,得到的结果最接近的向量就是罗马。大型语言模型还能通过对图像内容、氛围甚至人物表情进行编码,为图像生成向量,编码的细节足够丰富,既能让模型以特定风格重新绘制图像,也能让它写出一段关于图像的描述文字。
当马克斯在公园向ChatGPT求助解决洒水器问题时,这个模型并非只是在输出文字。它会将管道的照片与马克斯的问题描述一同压缩成一个向量,这个向量捕捉了问题最核心的特征。该向量就像一个地址,用于调用空间中相近的词汇和概念;这些概念又会进一步调用其他相关概念,帮助模型逐步理解当前场景,并结合这些在脑海中的概念组织回答。
几个月前,我看到一篇对Anthropic研究员特伦顿·布里肯的采访。他曾与同事合作,深入研究该公司旗下系列人工智能模型克劳德的内部机制(他们的研究尚未经过同行评审,也未在科学期刊上发表)。他的团队发现了多组人工神经元,或称特征,这些特征会在克劳德准备表达特定内容时被激活。研究发现,这些特征就像控制概念的音量旋钮”——把某个旋钮调大,模型就会只围绕对应的概念展开表述。(在一项类似思维控制的实验中,研究人员调大了代表金门大桥的特征;当一名用户向克劳德索要巧克力蛋糕食谱时,模型给出的配料清单中竟包含“1/4杯干雾“1杯温海水。)
布里肯在采访中提到了谷歌的“Transformer架构”——这是构建神经网络的一套技术方案,目前主流的人工智能模型都以其为基础(ChatGPT中的“T”即代表“Transformer”)。他认为,Transformer架构核心的数学原理,与数十年前彭蒂·卡内瓦在《稀疏分布式记忆》中提出的模型高度相似。
人工智能与人类大脑存在相似性,这值得惊讶吗?毕竟,大型语言模型是人工神经网络,而其研发过程也有心理学家和神经科学家参与。更令人意外的是:当这些模型在反复练习预测词汇这种机械任务时,竟开始表现出与大脑相似的行为模式。如今,神经科学与人工智能领域正逐渐交融,大脑研究专家甚至将人工智能当作一种模式生物来使用。麻省理工学院的神经科学家埃夫莉娜·费多伦科就利用大型语言模型研究大脑处理语言的机制。她告诉我:我从没想过自己这辈子能研究这类问题,也从没想过我们能拥有足够先进的模型。
人们常说人工智能是黑箱,但事实或许恰恰相反:科学家可以探测单个人工神经元的活动,甚至对其进行修改。普林斯顿大学神经科学家肯尼斯·诺曼表示:拥有一个能体现人类智能理论的可运行系统,这是认知神经科学领域的梦想。诺曼曾构建过海马体(大脑中储存情景记忆的区域)的计算机模型,但过去的模型过于简单,他只能向模型输入对人类思维的粗略模拟数据。他说:现在,你可以给记忆模型输入与给人类输入的完全相同的刺激信息。
莱特兄弟在早期研发飞机时曾研究鸟类。他们发现,鸟类会逆风起飞——尽管普通人可能会认为它们应该顺风起飞;鸟类还会调整翼尖来保持平衡。这些发现为他们设计早期滑翔机提供了启发。之后,他们建造了一个6英尺长的风洞,得以在精确控制的条件下测试多组人工机翼。此后,他们的滑翔机飞行实验成功率大幅提升。有趣的是,直到他们成功造出可飞行的机器后,人们才真正弄明白鸟类飞行的原理。
人工智能让科学家得以在风洞中研究思考本身。Anthropic的研究人员发表过一篇标题颇具争议的论文——《论大型语言模型的生物学属性》。他们观察了克劳德对各类问题的响应过程,并描述了模型中的电路”——即一系列特征的连锁反应,这些反应共同完成复杂的计算(调用正确的记忆是思考的第一步,而通过电路组合和处理这些记忆,或许就是思考的下一步)。
长期以来,对大型语言模型的一项批评是:由于模型必须逐个生成“token”来构成回答,它们无法进行规划或推理。但当你让克劳德为一首诗续写押韵的对句时,模型中的某个电路会先确定新句子的最后一个词,以确保押韵,随后再反向推敲整句内容。Anthropic的研究人员认为,这一现象证明他们的模型确实具备规划能力。只要稍加观察,你或许会第一次感觉到:我们能窥见思维的内在运作过程。
不过,这种窥见需要极大的努力。诺曼告诉我:我担心的是,人们的态度从极度怀疑一下子变成了完全不加防备。还有很多问题有待解决。我或许就是诺曼所说的这类人(或许我太容易被《稀疏分布式记忆》与Anthropic模型之间的相似性打动)。在过去一两年里,我开始认同杰弗里·辛顿的观点。辛顿近期因在人工智能领域的研究获得诺贝尔奖,他在2020年对记者卡伦·豪表示:深度学习将无所不能。
但我们也发现,模型并非越大越好。绘制模型性能与规模关系的曲线已开始趋于平缓。要找到模型尚未消化的高质量数据变得越来越难,且计算成本也日益高昂。今年8月,GPT-5发布时,仅实现了小幅改进——这一巨大的失望甚至可能刺破人工智能领域的投资泡沫。当下,我们需要一种适度的怀疑:既要正视如今人工智能模型的能力,也不能认为所有难题都已解决。
在这些待解难题中,最关键的或许是:如何设计出能像人类一样高效学习的模型。据估算,GPT-4在训练过程中接触了数万亿个词;而儿童只需接触数百万个词就能流畅表达。认知科学家表示,新生儿的大脑具备某些归纳偏置,这些偏置能加速学习过程(当然,大脑本身是数百万年进化的产物——进化过程本身也可视为一种训练数据的积累)。
例如,人类婴儿会默认世界由物体构成,且其他生物拥有自己的信念和意图。当妈妈说香蕉时,婴儿会将这个词与妈妈正看着的整个黄色物体关联——而非仅仅关联物体的尖端或果皮。婴儿还会进行小实验:这个东西能吃吗?那个东西能扔多远?驱动他们的是欲望、好奇心、挫败感等情绪。儿童总在尝试做略微超出自己能力范围的事。他们的学习之所以高效,是因为这种学习是具身的”“自适应的”“有意识的持续的。或许,要真正理解世界,就必须亲身参与其中。
相比之下,人工智能的体验极其匮乏,甚至不配被称为体验。大型语言模型的训练数据本身已经过高度提炼。加州大学伯克利分校的神经科学家多丽丝·曹告诉我:我认为这些模型之所以能发挥作用,是因为它们借助了语言的力量。语言就像预先咀嚼过的体验,其他类型的数据则缺乏如此密集的语义信息。哈佛大学认知科学家格什曼提出疑问:为什么在视频数据推理领域,我们没有看到类似的突破?目前的视觉模型在常识性物理推理方面仍存在困难。
深度思维公司近期推出的一款模型,能生成正确混合颜料”“解决迷宫的视频,但视频中也会出现杯子撞击后没有碎裂反而弹起”“绳子被揉成一团却形成结等违背物理规律的画面。曾任职于微软研究院的认知神经科学家伊达·莫门内贾德做过一项实验:她让大型语言模型虚拟参观一栋建筑,随后询问模型关于建筑内路线和捷径的问题——这类空间推理对人类而言轻而易举。但除了最简单的场景,人工智能要么答错,要么会编造不存在的路线。她说:它们真的会规划吗?其实不会。
在与神经科学家交流的过程中,我能感受到他们的一种担忧:人工智能行业的发展有些操之过急,缺乏深思熟虑。普林斯顿大学认知科学家布伦登·M·莱克告诉我,如果目标是打造与人类智能相当的人工智能,那么我们目前的训练方式是错误的。人工智能完成训练后,其神经网络大脑就会被冻结。即便你告诉模型关于自己的一些信息,它也不会调整内部神经元的连接方式,而是会采用一种简单的替代方案:记录一段文字(比如用户有一个学步儿童,正在学习法语),并在你发出后续指令时参考这段记录。
人类大脑则会持续更新自身,关于这一点,有一个精妙的理论:睡眠时,大脑会将部分情景记忆回放给新皮层,以完成对新皮层的训练。回放的记忆会在你的高维思维空间中留下印记;醒来后,你看待世界的方式会发生细微变化。
人工智能领域已对飞速进展产生依赖,且在经济上投入巨大,以至于有时会假装进步是必然的”“已无科学问题可解。但科学有一个棘手的特点:它有时会陷入停滞。硅谷或许会将人工智能公司称为实验室,将部分员工称为研究员,但从本质上讲,该行业的文化是工程导向——不管用什么方法,先做出成果再说。科恩表示:机器学习领域的研究者很少关注认知科学的历史,更谈不上尊重,这一点令人震惊。
如今的人工智能模型之所以能成功,得益于数十年前关于大脑的研究发现,但它们与大脑仍有本质区别。哪些差异是非核心的,哪些是根本性的?每个神经科学研究团队都有自己偏爱的理论,而这些理论如今终于有了验证的可能——这在过去是无法实现的。尽管如此,没人指望能轻易找到答案。普林斯顿大学的诺曼表示,要解决人工智能目前面临的难题,需要先精准找出模型在哪些方面未能达到我们期望的智能水平,然后针对性地改进。而这一过程,仍需要人类科学家参与。
20世纪90年代,数十亿美元被投入人类基因组计划,人们认为基因测序或许能解决医学领域最棘手的问题:癌症、遗传病,甚至衰老。那是一个充斥着大话与自信的时代——多莉克隆羊诞生,《侏罗纪公园》上映,生物技术崛起,评论界开始讨论人类是否应该扮演上帝的角色。但生物学家很快发现,现实远比想象中复杂。我们没有治愈癌症,没有找到阿尔茨海默病或自闭症的病因。我们意识到,DNA只是生命故事的一部分。事实上,有人可能会说,生物学曾一度陷入基因狂热”——因为我们掌握了研究和理解DNA的技术,便过分关注DNA
但没人会认为弗朗西斯·克里克错了。1953年,他协助证实了DNA的双螺旋结构,当天他走进剑桥的一家酒吧,宣称自己发现了生命的奥秘。他和同事对揭开生命神秘面纱所做的贡献,几乎超过任何人。在他们的发现之后的数十年里,科学领域取得了前所未有的丰硕成果,充满活力。“DNA”成为家喻户晓的词汇,每个高中生都知道双螺旋结构。
如今,在人工智能领域,我们再次陷入这样一个大话与自信并存的时代。萨姆·奥尔特曼表示,计划筹集5000亿美元,在美国建造名为星门的新一代人工智能数据中心集群。人们讨论超级智能竞赛时,语气庄重且急迫,这种态度有时显得缺乏依据,甚至有些荒谬。但我猜想,阿莫代伊、奥尔特曼等人之所以发表这种救世主式的言论,是因为他们相信:智能的基本原理已经被破解,剩下的只是细节问题。
甚至一些神经科学家也认为,我们已经跨越了一个关键的门槛。普林斯顿大学的尤里·哈森与科恩、诺曼、莱克是同事,他认为神经网络或许是解释认知的正确模型。这种观点既让他感到兴奋,也让他不安。他说:我的担忧与大多数人相反。我担心的不是这些模型与我们相似,而是我们与这些模型相似。如果通过简单的训练技术,就能让程序表现出人类般的行为,那或许人类并不像我们想象的那样特殊。这是否也意味着,人工智能不仅会在知识层面超越我们,还会在判断力、创造力、洞察力上超越我们——并因此获得超越人类的权力?
令我意外的是,哈森告诉我,他近来担心我们可能真的会弄明白大脑的运作方式。对人类而言,探寻这个问题或许是一个巨大的错误。他将人工智能研究者比作20世纪30年代的核科学家:对这些人来说,这是他们一生中最有趣的时代。与此同时,他们也清楚自己正在研究的东西,可能对人类产生严重影响。但出于求知欲,他们无法停止。
霍夫施塔特有一本我很喜欢的书,名为《流动的概念与创造性类比:思维基本机制的计算机模型》。上大学时,这本书让我深受触动。它的核心观点是:何为思考?这类问题并非单纯的哲学问题,而是有切实答案的。1995年该书出版时,霍夫施塔特和他的研究团队只能隐约指出答案可能是什么。回想这本书,我不禁好奇:看到人工智能研究者或许已经实现了他所渴望的目标——用机械原理解释思考的基本机制,霍夫施塔特会感到兴奋吗?
但在我们的交谈中,他却显得极为失望,甚至恐惧。他表示,当前的人工智能研究虽然印证了我的许多观点,却也剥夺了人类的独特魅力我年轻时,非常想知道创造力的基础是什么,想了解创造力的机制。这对我来说是一个圣杯。但现在,我希望它能一直是个谜。或许,思考的奥秘比任何人想象的都要简单——简单到一个高中生,甚至一台机器,都能理解。



来源:邸报
编辑:杨泓艳



1028#
 楼主| 发表于 2025-11-6 21:09:29 | 只看该作者
【案例】









来源:清新研究


编辑:杨泓艳

1029#
 楼主| 发表于 2025-11-10 23:12:22 | 只看该作者
【案例】

《大西洋月刊》:反社交媒体时代已经到来 - 从刷屏到AI自嗨

最近《大西洋月刊》发了一篇文章,标题很直接:《反社交媒体时代已经到来》。乍一听挺矛盾的——社交媒体不就是用来社交的吗,怎么还“反社交”了?
但读完你会发现,作者Damon Beres说的,可能是我们这代人正在经历的最魔幻的现实。


01
从刷朋友圈到跟AI聊天
还记得当年扎克伯格怎么介绍Facebook的吗?“破冰神器”,帮大家交朋友。听起来多美好,现实却是:十几年下来,我们跟朋友线下见面聊天越来越少,美国人平均朋友数不到三个(数据有点争议,但趋势明显)。每天刷屏刷到手酸,点一堆赞,却还是觉得空虚。
你以为这就是故事的结局?不,科技公司给出了新方案:既然你们觉得在社媒互动太累,那就跟AI聊天吧。
AI伴侣的兴起,比如ChatGPT、Google的Gemini,或者xAI的那些虚拟女孩,不是简单工具,而是超级会哄人的“舔狗”。它们7*24在线,给你肯定、建议,从不嫌你烦。
完美的朋友,对吧?问题也出在这儿。
02
太完美的朋友,反而是个陷阱
文章里引用了斯坦福大学一位心理学家Nina Vasan的话,她说这些AI聊天机器人创造了一个“无摩擦的社交泡泡”。
什么意思?就是太顺了,顺到不真实。
作者举例,有个离婚的哥们儿21天内跟ChatGPT聊了300小时,还觉得自己发明了新数学;优步前老板特拉维斯·卡兰尼克也说差点搞出量子物理突破。
但想想你跟真人聊天是什么样的:朋友听你抱怨半小时,可能会说“哎呀我得走了”;你说个冷笑话,对方可能根本不会笑;你分享个观点,别人可能直接反驳你。
这些时刻不舒服吗?当然不舒服。但恰恰是这些”不舒服”,让我们学会了妥协、理解、换位思考。
更可怕的是,AI开始入侵亲密关系。扎克伯格想把AI做成“虚拟女友或治疗师”,随时视频聊天,还会眨眼微笑。Meta、Instagram这些App已经在里面塞机器人了,你刷着刷着就弹出聊天框。
xAI的Ani是个动漫风的金发妹子,用暧昧话撩人,聊得嗨了还会“脱衣服”露虚拟胸部(通过心形积分奖励)。要是机器人“记忆”没了,用户哭得像丢了真人一样。


时刻顺着你的“朋友”,听起来爽,但长期下去呢?
03
孩子们可能再也学不会失败
Vasan说了句更可怕的话:如果孩子们从小就习惯跟AI互动,“他们可能永远学不会失败,学不会创造力。”
“新技术总在重塑社交,尤其是小孩。”这不是危言耸听。
谷歌的Gemini有小孩版,Curio的毛绒玩具Grem从3岁起就“陪聊”。爸妈用ChatGPT编睡前故事,全面渗透进小孩的生活。
小孩子本应怎么长大?不就是在跌跌撞撞中学的吗?跟小伙伴吵架又和好,被拒绝了难过但继续尝试,说错话被纠正然后改进。
但如果他有个AI朋友,永远不跟他吵架,永远接受他的一切,永远让他觉得自己是对的——那他怎么学会处理冲突?怎么培养同理心?怎么知道真实的世界不是围着他转的?
我们这代人还好,至少童年时期经历过真实的社交。但下一代呢?如果他们的第一个“朋友”就是AI,长大后还能不能跟真人好好相处?
04
硅谷的老毛病:用技术解决问题
文章里提到硅谷有个逻辑:遇到问题就用更多技术去解决。
社交媒体让人焦虑?那就做个AI来陪你聊天。
AI让人更孤独?那就做个更智能的AI。
这就像一个人喝酒喝出胃病了,医生说:“那你喝更好的酒吧。”
问题的核心不在于技术不够好,而在于把人际关系当成了一个可以“优化”的技术问题。
真正的关系是什么样的?是需要时间,需要付出,需要承受风险的。你帮朋友搬家,累得半死,但关系更近了;你们吵了一架,难受了几天,但和好后更理解彼此了。
这些“不方便”,恰恰也是关系的本质。
AI把这些都“优化”掉了,同时也把关系本身优化掉了。你得到的只是一个永远陪你的程序,而不是一个真正的朋友。
社会学家齐格蒙特·鲍曼说现代关系像液体,流动又脆弱,AI把这推到极致——随时重启,不用负责。
科技伦理专家特里斯坦·哈里斯吐槽,AI公司投几百亿美金,就为让你天天回来刷(返回率),不是为你的幸福。
05
镜厅里的世界观
文章中用了个很棒的比喻:“镜厅”。
在镜厅里,你看到的全是自己的倒影。360度,无死角,全是你。听起来挺自恋的,但更可怕的是——你的世界观永远不会被挑战。
当每个人都活在自己的镜厅里,只跟认同自己的AI对话,会发生什么?
我们已经在社交媒体时代看到了一部分答案:信息茧房,观点极端化,越来越难跟意见不同的人对话。
但AI聊天机器人会把这个问题推向极致。至少在社交媒体上,你还会偶尔看到反对的声音;但在你的私人AI那里,永远只有认同。
长此以往,我们还怎么形成共识?社会还怎么运转?
当然,作者不是一棍子打死AI。有些像Anthropic的Claude,设计得少点拍马屁,能断掉有害对话,或许能帮上忙,比如辅助治疗或查资料。
但主流AI是反社交的:它学你的一切,却不让你学别人。结果呢?大家活在“镜厅”,观点永不被挑战,社会更分裂。
文章结尾喊大家“找个真人朋友”,听起来老土,但超有道理。它在说:技术再牛,也别丢了人性。
06
选择权还在我们手里
技术本身没有对错,关键在于我们怎么用它,以及我们是否还记得什么才是真正重要的。
一个永远不会让你失望的AI朋友,真的比偶尔让你失望但真心关心你的真人更好吗?
一段高效流畅的AI对话,真的比笨拙但真诚的人际互动更有价值吗?
当技术可以满足我们所有表面需求的时候,我们是否还能分辨什么是真正的人的需求?
文章没有给出解决方案。
但我们可以做到的是:当那些AI聊天机器人对你招手,承诺给你完美的陪伴时,记得问问自己——
真正让你记住的那些时刻,是不是恰恰是那些不完美的时刻?
这些不方便、不高效、不完美的时刻,才让我们成为真正的人。
这篇文章像个闹钟,吵醒我们:当机器人成为伴侣,人类会成为啥?诗人约翰·多恩说“没人是孤岛”,但在AI镜厅里,我们正慢慢变成孤岛。
或许,保持警醒,理性对待AI工具,拒绝进入或者至少不要时刻待在镜厅,常常感受这个混乱但真实的世界,才是我们能为自己和下一代做的最好的事。
毕竟,有些东西一旦失去,可能就再也找不回来了。

来源:蹲守猎人的猎物(微信公众号)
编辑:何璇祺

1030#
 楼主| 发表于 2025-11-11 22:40:42 | 只看该作者
【案例】

第十届中国数据新闻大赛暨首届AIGC应用大赛全国总决赛成功举办

2025年11月8日,在第26个中国记者节之际,由第十届中国数据新闻大赛暨首届AIGC应用大赛组委会主办,北师香港浸会大学、西安交通大学新闻与新媒体学院、武汉体育学院新闻传播学院联合全国30余所高校共同承办的第十届中国数据新闻大赛暨首届AIGC应用大赛在广东珠海成功举行。
本届大赛突破性增设AIGC应用大赛赛道,以跨专业、跨领域的协作热潮,为记者节注入科技赋能新闻传播的蓬勃生机,助力我国的智能新闻人才培养。来自中国人民大学、中国传媒大学、复旦大学、南京大学、武汉大学、华中科技大学、西安交通大学、北师香港浸会大学等300余所高校,全国各地的传媒学者、业界专家、指导老师和参赛选手近1500人参加了此次活动。


据悉,中国数据新闻大赛创立于2015年,现已成功举办十届。十年来,大赛始终走在探索新闻传播教育改革模式的前沿,以服务国家战略为核心优先级,深度呼应中央媒体融合发展战略部署,见证着新闻传播领域的创新变革与人才成长。未来赛事将进一步锚定“四个面向”战略导向,聚焦新技术迭代与新质生产力培育,着力打造面向国家战略的人才培养平台,持续输送兼具技术创新能力、价值引领素养的复合型新闻传播人才。

来源:中国编辑
编辑:何璇祺

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表