传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
1051#
 楼主| 发表于 2025-11-4 20:56:04 | 只看该作者
【案例】

《纽约客》丨人工智能真的在思考吗?

The Case That A.I. Is Thinking
ChatGPT 并无内在生命,但它似乎清楚自己在谈论什么。
本文即将刊登于2025 11 10 日的《纽约客》杂志,印刷版标题为“Open Mind”。作者:作家兼计算机程序员詹姆斯·萨默斯从 2018 年开始为《纽约客》撰稿。

当一种理解的假象逼真到何种程度时,你才会不再将其称为假象?

人工智能公司Anthropic的首席执行官达里奥·阿莫代伊预测,到2027年,在生物学、数学、工程学、写作等领域比诺贝尔奖得主更聪明的人工智能或许会投入使用。他设想数百万个模型副本高速运转,每个副本都在开展独立研究,形成一个数据中心里的天才国度。今年6月,OpenAI的萨姆·奥尔特曼撰文称,人工智能行业即将打造出数字超级智能。他断言:“2030年代很可能会与以往任何时代都截然不同。与此同时,大多数人目前日常接触的人工智能工具,让人不禁想起微软办公软件曾推出的助手”Clippy——它实际上更像个爱纠缠的角色。Zoom的一款人工智能工具会提示你向它提问有哪些会议破冰问题?,或是指令它写一条表达感谢的短消息Siri擅长设置提醒,但在其他方面用处不大。我的一位朋友在Gmail中看到一个按钮,上面写着致谢并讲述趣闻。他点击后,谷歌的人工智能编造了一个关于他去土耳其旅行的有趣故事,而他从未去过那里。
人工智能仓促且不均衡的推出,营造出一种迷雾氛围,让人很容易得出这里没什么值得关注——全是炒作的结论。诚然,炒作确实不少:阿莫代伊预测的时间线带有科幻色彩(人工智能模型的改进速度并没有那么快)。但认为大型语言模型只是在随意拼凑文字,同样是一种一厢情愿的想法。我过去曾认同这种观点,也曾从人工智能与真正的智能或理解毫无关系这一想法中寻求慰藉,甚至还为它的缺陷感到庆幸——就像在为人类主队加油。后来,作为一名程序员,我开始在工作中使用人工智能,因为担心不这样做就会落后。(我所在的雇主是一家贸易公司,对包括Anthropic在内的多家人工智能公司有投资,也建立了合作关系。)许多人认为,编写代码是人工智能最擅长的领域;代码比散文更具结构性,而且通常能通过自动化方式验证某个程序是否可行。我对人工智能的看法很快发生了转变。起初,我会咨询人工智能模型,而非自己去查找资料;接着,我会让它们处理一些独立的小问题;最终,我把真正的工作——那些我整个职业生涯都在学习处理的工作——也交给了它们。我看到这些模型能在几秒钟内理解数千行代码中的复杂细节,它们能发现细微的漏洞,还能设计出复杂的新功能。后来,我被调到一个快速发展的团队,该团队旨在更好地利用人工智能工具,并开发我们自己的工具。
据说科幻作家威廉·吉布森曾提出,未来早已到来,只是尚未均匀分布——这或许能解释为何人工智能似乎催生了两种截然不同的群体:一种对此不屑一顾,另一种则为之着迷。在日常生活中,能预订假期或申报税务的人工智能代理并不成功,但我的一些同事在编写代码时,大部分工作都依赖人工智能,有时还会同时运行多个编程代理。这些模型有时会犯低级错误,或陷入无意义的循环,但随着我学会高效使用它们,曾经需要一个月完成的工作,现在一个晚上就能搞定。不久前,我在完全不懂如何开发iOS应用的情况下,做出了两款iOS应用。
我曾有一位上司说,求职面试应考察应聘者的优势,而非纠结于其是否存在缺点。大型语言模型确实有很多缺点:众所周知,它们会编造看似合理的虚假信息;即便你出错,它们也可能一味顺从;简单的谜题就能将它们难住。但我还记得,如今人工智能模型所具备的显著优势——流畅的表达、自然的衔接、理解他人意图的能力——在过去曾被视为难以实现的圣杯。当你亲身体验到这些优势时,就会不禁思考:当一种理解的假象逼真到何种程度时,你才会不再将其称为假象?
今年夏天一个酷热难耐的日子,我的朋友马克斯和家人在公园游玩。不知为何,儿童洒水器没有开启,而马克斯的妻子之前向大家保证,她丈夫能修好它。面对满脸通红、年龄在六到七岁之间的孩子们,马克斯走进工具棚,希望能找到一个显眼的开启开关。然而,他看到的却是一堆错综复杂的旧管道和阀门。就在他准备放弃时,突然心血来潮,拿出手机,将洒水器的照片以及自己遇到的问题描述一起输入ChatGPT-4o。人工智能思考了片刻——也可能并没有真正思考——但它随即表示,马克斯看到的是灌溉系统中常见的防回流装置。它问马克斯是否看到底部那个黄色的球阀,认为那个阀门很可能控制着水流。马克斯按照提示操作,水流随即喷出,公园里顿时响起孩子们的欢呼声。
ChatGPT是在毫无意义地拼凑文字,还是真的理解了这个问题?这个答案或许能让我们对理解本身有重要的认识。加州大学伯克利分校的神经科学教授多丽丝·曹(音译)告诉我:神经科学家必须面对这个令人清醒的事实:机器学习的进展,比神经科学在过去一百年间的任何发现,都更能让我们了解智能的本质。多丽丝·曹最知名的研究是破解恒河猴感知面部的机制。她的团队成功预测出猴子看到特定面部时哪些神经元会被激活;更令人惊叹的是,只要知道神经元的激活模式,他们就能还原出对应的面部图像。他们的研究借鉴了关于人工智能模型如何表征面部的相关成果。如今,她最喜欢问别人的一个问题是:你从ChatGPT中获得的最深刻洞见是什么?她表示:我自己的答案是,我认为它彻底揭开了思考的神秘面纱。
关于我们如何走到如今这一步,最基础的解释大致如下:20世纪80年代,一小群认知心理学家和计算机科学家尝试在机器中模拟思考过程。其中较知名的有戴维·鲁梅尔哈特、杰弗里·辛顿和詹姆斯·麦克莱兰,他们后来在加州大学圣迭戈分校成立了一个研究小组。他们认为,大脑是一个庞大的网络,神经元以特定模式激活,进而引发其他神经元群的激活,如此循环往复;这种模式的动态变化就是思考。大脑通过改变神经元之间连接的强度来实现学习。关键在于,这些科学家通过构建人工神经网络,并应用一种名为梯度下降的简单算法来提高其预测准确性,从而模拟了大脑的这一学习过程。(可以将该算法比作一个从山顶走向山谷的徒步者:要最终找到下山的路,一个简单的策略就是确保每一步都朝着地势更低的方向前进。)在大型网络中使用这类算法的技术,被称为深度学习。
人工智能领域的其他研究者曾怀疑,神经网络是否足够复杂,能否应对现实世界的任务。但随着网络规模不断扩大,它们开始解决此前无法攻克的难题。过去,有人会花费整篇博士论文的篇幅,研究区分手写数字或识别图像中人脸的技术;而后来,深度学习算法只需消化相关数据,就能掌握问题的核心细节,让那些研究项目显得过时。很快,深度学习在语音识别、翻译、图像描述、棋类游戏等领域取得突破,甚至解决了蛋白质折叠预测这一难题。
如今最先进的人工智能模型,是通过一种名为下一个token预测的技术,在互联网的大量数据上训练而成的。模型通过猜测接下来会出现的内容,再将猜测结果与实际出现的内容进行对比,以此完成学习。一旦猜测错误,神经元之间连接的强度就会调整,这正是梯度下降算法的作用。最终,模型在文本预测方面变得极为精准,以至于看起来仿佛真的具备知识储备,且表达富有逻辑。这一点值得我们思考:一群研究者致力于探寻大脑运作的奥秘,当他们构建的模型规模接近大脑大小时,模型开始展现出那些曾被认为只有大脑级智能才能实现的能力。难道他们真的找到了一直在寻找的答案?
对于这种将人工智能简单化、理想化的解读,人们难免会持反对态度。泰德·蒋曾有力地反驳过这一观点,他在2023年初为本刊撰写了一篇文章,标题为《ChatGPT不过是互联网的模糊JPEG格式文件》。他的言下之意带有贬低意味:ChatGPT仅此而已。你把整个互联网的数据输入一个程序,它只是将这些数据不完美地反刍出来,就像一张照片经过多次复制后变得模糊——但它的表达能力足以让你误以为这个程序具备智能。今年春天,语言学家埃米莉·M·本德和社会学家亚历克斯·汉纳在合著的《人工智能骗局》一书中,也提出了类似观点。本德最知名的言论,是将大型语言模型描述为随机鹦鹉。《大西洋月刊》的书评作者泰勒·奥斯汀·哈珀宣称:大型语言模型过去没有、现在没有、将来也永远不会理解任何事物。这些模型生成文字并非通过思考,而是基于统计规律,猜测下一个词汇可能是什么。哈珀在这些技术层面的论点之外,还加入了道德层面的批判:人工智能让强者更富,消耗的能源加速了气候变化,还导致劳动者被边缘化。他最终得出结论:人工智能行业的根基就是一场骗局。

一位顶尖神经科学家认为,ChatGPT“彻底揭开了思考的神秘面纱”。

但从道德层面反对人工智能,或许最终比从技术层面反对更有说服力。哈佛大学认知科学家塞缪尔·J·格什曼并非人工智能的盲目吹捧者,他告诉我:“‘随机鹦鹉这种说法早该过时了。只有最顽固的怀疑论者,才会否认这些系统实现了许多人曾认为无法实现的功能。普林斯顿大学的认知神经科学家乔纳森·科恩承认人工智能存在局限性,但他认为,在某些情况下,大型语言模型似乎模拟了人类大脑中一个庞大且重要的区域。科恩表示:大致来说,大脑的新皮层就是一个深度学习机制。相对于体型而言,人类的新皮层比其他动物大得多;而新皮层最大的物种——大象、海豚、大猩猩、黑猩猩、狗——也恰好是最具智能的物种。
2003年,机器学习研究者埃里克·B·鲍姆出版了一本名为《何为思考?》的书(我在大学图书馆的书架上偶然发现了它,书名瞬间吸引了我)。鲍姆论点的核心在于:理解即压缩,压缩即理解。在统计学中,若要理解图表上的数据点,可以采用线性回归技术,在这些点之间绘制一条最佳拟合线。如果数据中存在潜在规律——比如你在绘制鞋码与身高的对应关系——这条最佳拟合线就能简洁地呈现这一规律,并预测新数据点可能出现的位置。我们可以将新皮层理解为一种提炼工具:它从海量原始体验(声音、图像及其他感官信息)中提取核心,形成类似最佳拟合线的模型,用于进行预测。婴儿探索世界时,会尝试猜测玩具的味道,或是食物掉落到地上后会滚向何方。当预测出错时,神经元之间的连接就会调整。久而久之,这些连接逐渐捕捉到数据中的规律,形成一个对世界的压缩模型。
人工神经网络与真实的神经网络一样,也能对体验进行压缩。目前最优秀的开源人工智能模型之一DeepSeek,能够创作小说、提供医疗诊断建议,还能以数十种语言进行母语级别的交流。它是通过下一个token预测技术,在数太字节的数据上训练而成的。但当你下载这个模型时,会发现它的大小仅为训练数据的六百分之一。它就像是互联网的精华版,经过压缩后可以安装在笔记本电脑上。泰德·蒋将早期版本的ChatGPT比作互联网的模糊JPEG”,这种说法有一定道理——但在我看来,这正是这些模型变得越来越智能的原因。蒋在文章中指出,若要压缩一个包含数百万道算术题的文本文件,你不会将其制成压缩文件,而是会编写一个计算器程序。他写道:只有理解了文本内容,才能实现最高程度的压缩。或许,大型语言模型已经开始做到这一点。
想到一个计算机程序真的能理解、真的能思考,人们可能会觉得反常,甚至反感。通常,我们认为思考是一种有意识的行为,比如像乔伊斯作品中那样的内心独白,或是像普鲁斯特式白日梦那样的感官记忆流动;也可能认为思考是一种推理过程:一步步解决问题。在讨论人工智能时,我们常常将这些不同类型的思考混为一谈,导致判断过于草率。有一种观点认为,ChatGPT显然不会思考,因为它显然不会像普鲁斯特那样陷入遐想;另一种观点则认为,ChatGPT显然会思考,因为它解决逻辑谜题的能力比人类更强。
但实际情况要微妙得多。我不认为ChatGPT有内在生命,但它似乎确实清楚自己在谈论什么。理解”——即明白正在发生的事情——是一种未被充分重视的思考方式,因为它大多发生在无意识层面。印第安纳大学认知科学与比较文学教授道格拉斯·霍夫施塔特常说,认知的本质就是识别。霍夫施塔特因《哥德尔、埃舍尔、巴赫:集异璧之大成》一书闻名,该书于1980年获得普利策奖,探讨了心智与意识的奥秘。霍夫施塔特经过数十年研究提出,看作是思考的核心。你将一块色斑看作汽车,将另一块色斑看作钥匙扣;无论字母“A”以何种字体呈现,或是书写得多么潦草,你都能认出它。霍夫施塔特认为,同样的过程也存在于更抽象的感知层面。国际象棋大师审视棋盘时,多年的经验让他能瞬间看出:白方的象处于弱势;这个残局很可能是平局。你看到河中的漩涡,就知道此处不宜过河;你意识到正在参加的会议是皇帝的新衣式的闹剧;我将近两岁的儿子发现,上午晚些时候推婴儿车散步时,或许能有机会吃到可颂面包,于是便会提出相应要求。在霍夫施塔特看来,这就是智能的本质。
霍夫施塔特是最早对人工智能持贬低态度的人之一,我过去的怀疑态度也深受他的影响。他曾表示,大多数人工智能研究与真正的思考毫无关系,21世纪初我上大学时,也认同这一观点。但也有例外:他认为加州大学圣迭戈分校的研究小组很有研究价值,同时也钦佩一位不太知名的芬兰裔美国认知科学家彭蒂·卡内瓦的成果——卡内瓦发现了高维空间数学的一些特殊属性。在高维空间中,任意两个随机点可能相距极远;但反常的是,每个点周围都存在大量邻近点,因此只要你足够靠近某个点,就能轻松找到它。这让卡内瓦联想到记忆的运作方式。在1988年出版的《稀疏分布式记忆》一书中,卡内瓦提出,思想、感官体验和记忆可以表现为高维空间中的坐标。大脑似乎是存储这类信息的理想硬件:每段记忆都有一个独特的地址,这个地址由你回忆时激活的神经元决定。新的体验会激活新的神经元群,形成新的地址。两个地址可能在多个方面存在差异,但在某些方面又具有相似性;一种感知或一段记忆,会触发与之相近的其他记忆。干草的气味会让你想起夏令营的回忆;贝多芬《第五交响曲》的前三个音符响起,你就会联想到第四个音符;一个你从未见过的象棋棋局,会让你想起过去的对局——并非所有对局,而是那些与当前棋局相似的对局。
霍夫施塔特意识到,卡内瓦所描述的,本质上是一种看作机器。他在为卡内瓦著作撰写的序言中表示:彭蒂·卡内瓦的记忆模型让我深受启发,这是我首次看到有研究能让我隐约感受到,理解大脑整体运作机制这一遥远目标或许并非无法实现。无论是乔伊斯式的内心独白、普鲁斯特式的遐想,还是逻辑推理,任何形式的思考都依赖于相关事物在恰当的时机出现在脑海中。正是通过这种方式,我们才能判断自己所处的情境。
后来,卡内瓦的著作逐渐被淡忘,霍夫施塔特本人的影响力也有所下降——除非他偶尔站出来批评某款新的人工智能系统。2018年,他在谈到谷歌翻译及类似技术时表示:这种方法存在一个核心缺陷,用一个词就能概括:理解。2023年推出的GPT-4,彻底改变了霍夫施塔特的看法。他最近告诉我:这些系统的某些表现让我感到震惊,即便在十年前,这都是无法想象的。最坚定的贬低者也无法再坚持原来的观点:眼前的程序能达到专业水平的翻译效果,能进行类比、即兴发挥、归纳总结。我们凭什么说它不具备理解能力?他说:它们的行为与思考极为相似,你甚至可以说,它们在思考,只是方式与人类有所不同。
大型语言模型的核心,似乎正是这种看作机器。它们用一系列数字来表示每个词在高维空间中的坐标——向量。在GPT-4中,一个词向量拥有数千个维度,这些维度描述了该词与其他所有词在相似度和差异度上的细微差别。在训练过程中,每当大型语言模型出现预测错误,就会调整某个词的坐标;在文本中同时出现的词,在空间中会被调整得更接近。这就形成了一种极为密集的用法和语义表征——在这种表征中,类比变成了一个几何问题。一个经典例子是:若取巴黎的词向量,减去法国的词向量,再加上意大利的词向量,得到的结果最接近的向量就是罗马。大型语言模型还能通过对图像内容、氛围甚至人物表情进行编码,为图像生成向量,编码的细节足够丰富,既能让模型以特定风格重新绘制图像,也能让它写出一段关于图像的描述文字。
当马克斯在公园向ChatGPT求助解决洒水器问题时,这个模型并非只是在输出文字。它会将管道的照片与马克斯的问题描述一同压缩成一个向量,这个向量捕捉了问题最核心的特征。该向量就像一个地址,用于调用空间中相近的词汇和概念;这些概念又会进一步调用其他相关概念,帮助模型逐步理解当前场景,并结合这些在脑海中的概念组织回答。
几个月前,我看到一篇对Anthropic研究员特伦顿·布里肯的采访。他曾与同事合作,深入研究该公司旗下系列人工智能模型克劳德的内部机制(他们的研究尚未经过同行评审,也未在科学期刊上发表)。他的团队发现了多组人工神经元,或称特征,这些特征会在克劳德准备表达特定内容时被激活。研究发现,这些特征就像控制概念的音量旋钮”——把某个旋钮调大,模型就会只围绕对应的概念展开表述。(在一项类似思维控制的实验中,研究人员调大了代表金门大桥的特征;当一名用户向克劳德索要巧克力蛋糕食谱时,模型给出的配料清单中竟包含“1/4杯干雾“1杯温海水。)
布里肯在采访中提到了谷歌的“Transformer架构”——这是构建神经网络的一套技术方案,目前主流的人工智能模型都以其为基础(ChatGPT中的“T”即代表“Transformer”)。他认为,Transformer架构核心的数学原理,与数十年前彭蒂·卡内瓦在《稀疏分布式记忆》中提出的模型高度相似。
人工智能与人类大脑存在相似性,这值得惊讶吗?毕竟,大型语言模型是人工神经网络,而其研发过程也有心理学家和神经科学家参与。更令人意外的是:当这些模型在反复练习预测词汇这种机械任务时,竟开始表现出与大脑相似的行为模式。如今,神经科学与人工智能领域正逐渐交融,大脑研究专家甚至将人工智能当作一种模式生物来使用。麻省理工学院的神经科学家埃夫莉娜·费多伦科就利用大型语言模型研究大脑处理语言的机制。她告诉我:我从没想过自己这辈子能研究这类问题,也从没想过我们能拥有足够先进的模型。
人们常说人工智能是黑箱,但事实或许恰恰相反:科学家可以探测单个人工神经元的活动,甚至对其进行修改。普林斯顿大学神经科学家肯尼斯·诺曼表示:拥有一个能体现人类智能理论的可运行系统,这是认知神经科学领域的梦想。诺曼曾构建过海马体(大脑中储存情景记忆的区域)的计算机模型,但过去的模型过于简单,他只能向模型输入对人类思维的粗略模拟数据。他说:现在,你可以给记忆模型输入与给人类输入的完全相同的刺激信息。
莱特兄弟在早期研发飞机时曾研究鸟类。他们发现,鸟类会逆风起飞——尽管普通人可能会认为它们应该顺风起飞;鸟类还会调整翼尖来保持平衡。这些发现为他们设计早期滑翔机提供了启发。之后,他们建造了一个6英尺长的风洞,得以在精确控制的条件下测试多组人工机翼。此后,他们的滑翔机飞行实验成功率大幅提升。有趣的是,直到他们成功造出可飞行的机器后,人们才真正弄明白鸟类飞行的原理。
人工智能让科学家得以在风洞中研究思考本身。Anthropic的研究人员发表过一篇标题颇具争议的论文——《论大型语言模型的生物学属性》。他们观察了克劳德对各类问题的响应过程,并描述了模型中的电路”——即一系列特征的连锁反应,这些反应共同完成复杂的计算(调用正确的记忆是思考的第一步,而通过电路组合和处理这些记忆,或许就是思考的下一步)。
长期以来,对大型语言模型的一项批评是:由于模型必须逐个生成“token”来构成回答,它们无法进行规划或推理。但当你让克劳德为一首诗续写押韵的对句时,模型中的某个电路会先确定新句子的最后一个词,以确保押韵,随后再反向推敲整句内容。Anthropic的研究人员认为,这一现象证明他们的模型确实具备规划能力。只要稍加观察,你或许会第一次感觉到:我们能窥见思维的内在运作过程。
不过,这种窥见需要极大的努力。诺曼告诉我:我担心的是,人们的态度从极度怀疑一下子变成了完全不加防备。还有很多问题有待解决。我或许就是诺曼所说的这类人(或许我太容易被《稀疏分布式记忆》与Anthropic模型之间的相似性打动)。在过去一两年里,我开始认同杰弗里·辛顿的观点。辛顿近期因在人工智能领域的研究获得诺贝尔奖,他在2020年对记者卡伦·豪表示:深度学习将无所不能。
但我们也发现,模型并非越大越好。绘制模型性能与规模关系的曲线已开始趋于平缓。要找到模型尚未消化的高质量数据变得越来越难,且计算成本也日益高昂。今年8月,GPT-5发布时,仅实现了小幅改进——这一巨大的失望甚至可能刺破人工智能领域的投资泡沫。当下,我们需要一种适度的怀疑:既要正视如今人工智能模型的能力,也不能认为所有难题都已解决。
在这些待解难题中,最关键的或许是:如何设计出能像人类一样高效学习的模型。据估算,GPT-4在训练过程中接触了数万亿个词;而儿童只需接触数百万个词就能流畅表达。认知科学家表示,新生儿的大脑具备某些归纳偏置,这些偏置能加速学习过程(当然,大脑本身是数百万年进化的产物——进化过程本身也可视为一种训练数据的积累)。
例如,人类婴儿会默认世界由物体构成,且其他生物拥有自己的信念和意图。当妈妈说香蕉时,婴儿会将这个词与妈妈正看着的整个黄色物体关联——而非仅仅关联物体的尖端或果皮。婴儿还会进行小实验:这个东西能吃吗?那个东西能扔多远?驱动他们的是欲望、好奇心、挫败感等情绪。儿童总在尝试做略微超出自己能力范围的事。他们的学习之所以高效,是因为这种学习是具身的”“自适应的”“有意识的持续的。或许,要真正理解世界,就必须亲身参与其中。
相比之下,人工智能的体验极其匮乏,甚至不配被称为体验。大型语言模型的训练数据本身已经过高度提炼。加州大学伯克利分校的神经科学家多丽丝·曹告诉我:我认为这些模型之所以能发挥作用,是因为它们借助了语言的力量。语言就像预先咀嚼过的体验,其他类型的数据则缺乏如此密集的语义信息。哈佛大学认知科学家格什曼提出疑问:为什么在视频数据推理领域,我们没有看到类似的突破?目前的视觉模型在常识性物理推理方面仍存在困难。
深度思维公司近期推出的一款模型,能生成正确混合颜料”“解决迷宫的视频,但视频中也会出现杯子撞击后没有碎裂反而弹起”“绳子被揉成一团却形成结等违背物理规律的画面。曾任职于微软研究院的认知神经科学家伊达·莫门内贾德做过一项实验:她让大型语言模型虚拟参观一栋建筑,随后询问模型关于建筑内路线和捷径的问题——这类空间推理对人类而言轻而易举。但除了最简单的场景,人工智能要么答错,要么会编造不存在的路线。她说:它们真的会规划吗?其实不会。
在与神经科学家交流的过程中,我能感受到他们的一种担忧:人工智能行业的发展有些操之过急,缺乏深思熟虑。普林斯顿大学认知科学家布伦登·M·莱克告诉我,如果目标是打造与人类智能相当的人工智能,那么我们目前的训练方式是错误的。人工智能完成训练后,其神经网络大脑就会被冻结。即便你告诉模型关于自己的一些信息,它也不会调整内部神经元的连接方式,而是会采用一种简单的替代方案:记录一段文字(比如用户有一个学步儿童,正在学习法语),并在你发出后续指令时参考这段记录。
人类大脑则会持续更新自身,关于这一点,有一个精妙的理论:睡眠时,大脑会将部分情景记忆回放给新皮层,以完成对新皮层的训练。回放的记忆会在你的高维思维空间中留下印记;醒来后,你看待世界的方式会发生细微变化。
人工智能领域已对飞速进展产生依赖,且在经济上投入巨大,以至于有时会假装进步是必然的”“已无科学问题可解。但科学有一个棘手的特点:它有时会陷入停滞。硅谷或许会将人工智能公司称为实验室,将部分员工称为研究员,但从本质上讲,该行业的文化是工程导向——不管用什么方法,先做出成果再说。科恩表示:机器学习领域的研究者很少关注认知科学的历史,更谈不上尊重,这一点令人震惊。
如今的人工智能模型之所以能成功,得益于数十年前关于大脑的研究发现,但它们与大脑仍有本质区别。哪些差异是非核心的,哪些是根本性的?每个神经科学研究团队都有自己偏爱的理论,而这些理论如今终于有了验证的可能——这在过去是无法实现的。尽管如此,没人指望能轻易找到答案。普林斯顿大学的诺曼表示,要解决人工智能目前面临的难题,需要先精准找出模型在哪些方面未能达到我们期望的智能水平,然后针对性地改进。而这一过程,仍需要人类科学家参与。
20世纪90年代,数十亿美元被投入人类基因组计划,人们认为基因测序或许能解决医学领域最棘手的问题:癌症、遗传病,甚至衰老。那是一个充斥着大话与自信的时代——多莉克隆羊诞生,《侏罗纪公园》上映,生物技术崛起,评论界开始讨论人类是否应该扮演上帝的角色。但生物学家很快发现,现实远比想象中复杂。我们没有治愈癌症,没有找到阿尔茨海默病或自闭症的病因。我们意识到,DNA只是生命故事的一部分。事实上,有人可能会说,生物学曾一度陷入基因狂热”——因为我们掌握了研究和理解DNA的技术,便过分关注DNA
但没人会认为弗朗西斯·克里克错了。1953年,他协助证实了DNA的双螺旋结构,当天他走进剑桥的一家酒吧,宣称自己发现了生命的奥秘。他和同事对揭开生命神秘面纱所做的贡献,几乎超过任何人。在他们的发现之后的数十年里,科学领域取得了前所未有的丰硕成果,充满活力。“DNA”成为家喻户晓的词汇,每个高中生都知道双螺旋结构。
如今,在人工智能领域,我们再次陷入这样一个大话与自信并存的时代。萨姆·奥尔特曼表示,计划筹集5000亿美元,在美国建造名为星门的新一代人工智能数据中心集群。人们讨论超级智能竞赛时,语气庄重且急迫,这种态度有时显得缺乏依据,甚至有些荒谬。但我猜想,阿莫代伊、奥尔特曼等人之所以发表这种救世主式的言论,是因为他们相信:智能的基本原理已经被破解,剩下的只是细节问题。
甚至一些神经科学家也认为,我们已经跨越了一个关键的门槛。普林斯顿大学的尤里·哈森与科恩、诺曼、莱克是同事,他认为神经网络或许是解释认知的正确模型。这种观点既让他感到兴奋,也让他不安。他说:我的担忧与大多数人相反。我担心的不是这些模型与我们相似,而是我们与这些模型相似。如果通过简单的训练技术,就能让程序表现出人类般的行为,那或许人类并不像我们想象的那样特殊。这是否也意味着,人工智能不仅会在知识层面超越我们,还会在判断力、创造力、洞察力上超越我们——并因此获得超越人类的权力?
令我意外的是,哈森告诉我,他近来担心我们可能真的会弄明白大脑的运作方式。对人类而言,探寻这个问题或许是一个巨大的错误。他将人工智能研究者比作20世纪30年代的核科学家:对这些人来说,这是他们一生中最有趣的时代。与此同时,他们也清楚自己正在研究的东西,可能对人类产生严重影响。但出于求知欲,他们无法停止。
霍夫施塔特有一本我很喜欢的书,名为《流动的概念与创造性类比:思维基本机制的计算机模型》。上大学时,这本书让我深受触动。它的核心观点是:何为思考?这类问题并非单纯的哲学问题,而是有切实答案的。1995年该书出版时,霍夫施塔特和他的研究团队只能隐约指出答案可能是什么。回想这本书,我不禁好奇:看到人工智能研究者或许已经实现了他所渴望的目标——用机械原理解释思考的基本机制,霍夫施塔特会感到兴奋吗?
但在我们的交谈中,他却显得极为失望,甚至恐惧。他表示,当前的人工智能研究虽然印证了我的许多观点,却也剥夺了人类的独特魅力我年轻时,非常想知道创造力的基础是什么,想了解创造力的机制。这对我来说是一个圣杯。但现在,我希望它能一直是个谜。或许,思考的奥秘比任何人想象的都要简单——简单到一个高中生,甚至一台机器,都能理解。



来源:邸报
编辑:杨泓艳



1052#
 楼主| 发表于 2025-11-6 21:09:29 | 只看该作者
【案例】









来源:清新研究


编辑:杨泓艳

1053#
 楼主| 发表于 2025-11-10 23:12:22 | 只看该作者
【案例】

《大西洋月刊》:反社交媒体时代已经到来 - 从刷屏到AI自嗨

最近《大西洋月刊》发了一篇文章,标题很直接:《反社交媒体时代已经到来》。乍一听挺矛盾的——社交媒体不就是用来社交的吗,怎么还“反社交”了?
但读完你会发现,作者Damon Beres说的,可能是我们这代人正在经历的最魔幻的现实。


01
从刷朋友圈到跟AI聊天
还记得当年扎克伯格怎么介绍Facebook的吗?“破冰神器”,帮大家交朋友。听起来多美好,现实却是:十几年下来,我们跟朋友线下见面聊天越来越少,美国人平均朋友数不到三个(数据有点争议,但趋势明显)。每天刷屏刷到手酸,点一堆赞,却还是觉得空虚。
你以为这就是故事的结局?不,科技公司给出了新方案:既然你们觉得在社媒互动太累,那就跟AI聊天吧。
AI伴侣的兴起,比如ChatGPT、Google的Gemini,或者xAI的那些虚拟女孩,不是简单工具,而是超级会哄人的“舔狗”。它们7*24在线,给你肯定、建议,从不嫌你烦。
完美的朋友,对吧?问题也出在这儿。
02
太完美的朋友,反而是个陷阱
文章里引用了斯坦福大学一位心理学家Nina Vasan的话,她说这些AI聊天机器人创造了一个“无摩擦的社交泡泡”。
什么意思?就是太顺了,顺到不真实。
作者举例,有个离婚的哥们儿21天内跟ChatGPT聊了300小时,还觉得自己发明了新数学;优步前老板特拉维斯·卡兰尼克也说差点搞出量子物理突破。
但想想你跟真人聊天是什么样的:朋友听你抱怨半小时,可能会说“哎呀我得走了”;你说个冷笑话,对方可能根本不会笑;你分享个观点,别人可能直接反驳你。
这些时刻不舒服吗?当然不舒服。但恰恰是这些”不舒服”,让我们学会了妥协、理解、换位思考。
更可怕的是,AI开始入侵亲密关系。扎克伯格想把AI做成“虚拟女友或治疗师”,随时视频聊天,还会眨眼微笑。Meta、Instagram这些App已经在里面塞机器人了,你刷着刷着就弹出聊天框。
xAI的Ani是个动漫风的金发妹子,用暧昧话撩人,聊得嗨了还会“脱衣服”露虚拟胸部(通过心形积分奖励)。要是机器人“记忆”没了,用户哭得像丢了真人一样。


时刻顺着你的“朋友”,听起来爽,但长期下去呢?
03
孩子们可能再也学不会失败
Vasan说了句更可怕的话:如果孩子们从小就习惯跟AI互动,“他们可能永远学不会失败,学不会创造力。”
“新技术总在重塑社交,尤其是小孩。”这不是危言耸听。
谷歌的Gemini有小孩版,Curio的毛绒玩具Grem从3岁起就“陪聊”。爸妈用ChatGPT编睡前故事,全面渗透进小孩的生活。
小孩子本应怎么长大?不就是在跌跌撞撞中学的吗?跟小伙伴吵架又和好,被拒绝了难过但继续尝试,说错话被纠正然后改进。
但如果他有个AI朋友,永远不跟他吵架,永远接受他的一切,永远让他觉得自己是对的——那他怎么学会处理冲突?怎么培养同理心?怎么知道真实的世界不是围着他转的?
我们这代人还好,至少童年时期经历过真实的社交。但下一代呢?如果他们的第一个“朋友”就是AI,长大后还能不能跟真人好好相处?
04
硅谷的老毛病:用技术解决问题
文章里提到硅谷有个逻辑:遇到问题就用更多技术去解决。
社交媒体让人焦虑?那就做个AI来陪你聊天。
AI让人更孤独?那就做个更智能的AI。
这就像一个人喝酒喝出胃病了,医生说:“那你喝更好的酒吧。”
问题的核心不在于技术不够好,而在于把人际关系当成了一个可以“优化”的技术问题。
真正的关系是什么样的?是需要时间,需要付出,需要承受风险的。你帮朋友搬家,累得半死,但关系更近了;你们吵了一架,难受了几天,但和好后更理解彼此了。
这些“不方便”,恰恰也是关系的本质。
AI把这些都“优化”掉了,同时也把关系本身优化掉了。你得到的只是一个永远陪你的程序,而不是一个真正的朋友。
社会学家齐格蒙特·鲍曼说现代关系像液体,流动又脆弱,AI把这推到极致——随时重启,不用负责。
科技伦理专家特里斯坦·哈里斯吐槽,AI公司投几百亿美金,就为让你天天回来刷(返回率),不是为你的幸福。
05
镜厅里的世界观
文章中用了个很棒的比喻:“镜厅”。
在镜厅里,你看到的全是自己的倒影。360度,无死角,全是你。听起来挺自恋的,但更可怕的是——你的世界观永远不会被挑战。
当每个人都活在自己的镜厅里,只跟认同自己的AI对话,会发生什么?
我们已经在社交媒体时代看到了一部分答案:信息茧房,观点极端化,越来越难跟意见不同的人对话。
但AI聊天机器人会把这个问题推向极致。至少在社交媒体上,你还会偶尔看到反对的声音;但在你的私人AI那里,永远只有认同。
长此以往,我们还怎么形成共识?社会还怎么运转?
当然,作者不是一棍子打死AI。有些像Anthropic的Claude,设计得少点拍马屁,能断掉有害对话,或许能帮上忙,比如辅助治疗或查资料。
但主流AI是反社交的:它学你的一切,却不让你学别人。结果呢?大家活在“镜厅”,观点永不被挑战,社会更分裂。
文章结尾喊大家“找个真人朋友”,听起来老土,但超有道理。它在说:技术再牛,也别丢了人性。
06
选择权还在我们手里
技术本身没有对错,关键在于我们怎么用它,以及我们是否还记得什么才是真正重要的。
一个永远不会让你失望的AI朋友,真的比偶尔让你失望但真心关心你的真人更好吗?
一段高效流畅的AI对话,真的比笨拙但真诚的人际互动更有价值吗?
当技术可以满足我们所有表面需求的时候,我们是否还能分辨什么是真正的人的需求?
文章没有给出解决方案。
但我们可以做到的是:当那些AI聊天机器人对你招手,承诺给你完美的陪伴时,记得问问自己——
真正让你记住的那些时刻,是不是恰恰是那些不完美的时刻?
这些不方便、不高效、不完美的时刻,才让我们成为真正的人。
这篇文章像个闹钟,吵醒我们:当机器人成为伴侣,人类会成为啥?诗人约翰·多恩说“没人是孤岛”,但在AI镜厅里,我们正慢慢变成孤岛。
或许,保持警醒,理性对待AI工具,拒绝进入或者至少不要时刻待在镜厅,常常感受这个混乱但真实的世界,才是我们能为自己和下一代做的最好的事。
毕竟,有些东西一旦失去,可能就再也找不回来了。

来源:蹲守猎人的猎物(微信公众号)
编辑:何璇祺

1054#
 楼主| 发表于 2025-11-11 22:40:42 | 只看该作者
【案例】

第十届中国数据新闻大赛暨首届AIGC应用大赛全国总决赛成功举办

2025年11月8日,在第26个中国记者节之际,由第十届中国数据新闻大赛暨首届AIGC应用大赛组委会主办,北师香港浸会大学、西安交通大学新闻与新媒体学院、武汉体育学院新闻传播学院联合全国30余所高校共同承办的第十届中国数据新闻大赛暨首届AIGC应用大赛在广东珠海成功举行。
本届大赛突破性增设AIGC应用大赛赛道,以跨专业、跨领域的协作热潮,为记者节注入科技赋能新闻传播的蓬勃生机,助力我国的智能新闻人才培养。来自中国人民大学、中国传媒大学、复旦大学、南京大学、武汉大学、华中科技大学、西安交通大学、北师香港浸会大学等300余所高校,全国各地的传媒学者、业界专家、指导老师和参赛选手近1500人参加了此次活动。


据悉,中国数据新闻大赛创立于2015年,现已成功举办十届。十年来,大赛始终走在探索新闻传播教育改革模式的前沿,以服务国家战略为核心优先级,深度呼应中央媒体融合发展战略部署,见证着新闻传播领域的创新变革与人才成长。未来赛事将进一步锚定“四个面向”战略导向,聚焦新技术迭代与新质生产力培育,着力打造面向国家战略的人才培养平台,持续输送兼具技术创新能力、价值引领素养的复合型新闻传播人才。

来源:中国编辑
编辑:何璇祺

1055#
 楼主| 发表于 2025-11-13 21:11:17 | 只看该作者
【案例】

孙玉胜:AI能改变当下的传播形态和格局吗?

编者按:2025年11月4日,孙玉胜先生在香港教育大学举办的“人工智能时代的新媒体素养”国际学术会议上发表主题演讲,此文根据演讲整理而成。
孙玉胜指出:视频是传播的最高形态,未来也不会变化。而视频媒介的生命力和传播优势,就在于其传播过程中的真实和真实感。我们“不要因为走得太远而忘记为什么出发”,不要因为现在AI有强大的视频生成能力,就不重视现实和现场而去更关注和渴望虚拟的AI生成,这是荒谬的。


孙玉胜,凤凰卫视集团执行董事兼总编辑,凤凰网董事长、CEO。曾在中央电视台任职逾30年,担任新闻中心主任、副总编辑、副台长等职务,是《东方时空》《焦点访谈》《新闻调查》《实话实说》等栏目的操盘者。他获得了首届“韬奋新闻奖”,也是国务院政府特殊津贴获得者,并于2017年当选为亚洲—太平洋广播联盟(亚广联)副主席。

他的著作《十年》记录了中国电视改革进程,娓娓道来、深入浅出,为业界人士及诸多新闻传播院校的必读书。
file:///C:/Users/ADMINI~1/AppData/Local/Temp/ksohtml22960/wps9.jpg

以下为演讲正文:

感谢香港教大组织这样一个国际会议,研讨媒体领域的AI的问题。对于AI,我觉得大家有焦虑、有恐慌,但更多的是兴奋和期待。AI现在很热,甚至到了AI崇拜的地步,但我认为这种过热的现象是暂时的,被神化的AI很快就会回归常态。

为什么?因为前些年区块链这个概念也很热,三年前元宇宙这个概念也是热得一塌糊涂,但目前“元宇宙”似乎在大众视野里消失得无影无踪。

AI与新闻真实性

今天会议的主题是“人工智能时代的新媒体素养”,在这方面,除了跟踪学习、沟通研讨、创新应用,我没有更多的论述。

AI的应用,当然是越早越好。2007年,乔布斯就把这项技术用在了初创的苹果手机上,不仅开行业之先,而且影响深远。

从电视媒体业界这个角度来看,AI应用越来越广泛,而且确实解决了很大问题。去年凤凰卫视香港台进入本地免费电视85台,香港有一个非常重要的法律:进免费电视必须有繁体字幕,所有节目包括实时播出的新闻节目都是如此。幸亏有AI,上字幕变得非常方便,而且节约成本。

视频生成方面,凤凰卫视用得不多,为什么?

一是目前生成的视频效果一般,更重要的原因是与新闻的真实性原则相悖。与新闻的真实性原则相悖的,还有AI主播。对AI主播这件事,我一直是不以为然。我不知道各位老师和同学,包括专家学者的意见如何,我在央视管理过很多新媒体部门,央视新闻、央视频、央视网、CGTN新媒体,在凤凰卫视集团我兼凤凰网的董事长和CEO,我从来没有提出尝试虚拟主播的要求,他们提出要求,我也是否决。因为在我看来这只是一个噱头,没有什么实际意义。

现在,我发现这种坚持并不孤单。

前几天看到了一个资料,英国电视四台今年的10月20日起用了一位新主播,主持一个时事系列节目《快讯》。其中探讨了“AI会夺走我的工作吗?”这样一个主题,节目调查了AI如何改变了一些行业的工作场景。

这位叫艾莎·加本的主播在节目最后告诉观众:我不存在,我的声音和形象是AI合成的。

节目主编随后马上发了一个声明说:电视四台不会把使用AI主持人当作一种惯例,相反,我们对新闻和时事的关注重点是——优质,经过事实核实,及时公正而且可信的新闻,AI无法做到这一点。据说这是整个英国的电视台第一次使用AI主播,他们对此始终保持谨慎态度。

               AI改变不了当下传播形态和格局

我一直认为视频是传播的最高形态,未来也不会改变!这是我的一个结论。

视频形态本身在不断进化,以抖音为代表的短视频爆火之后,我见到张一鸣,我就跟他说我不相信抖音永远只做短视频,据说现在抖音也有15分钟的长视频。最新的资料显示,视频播客正在流行并开始变热,视频播客都是长视频,甚至是超长视频。因此,把移动互联网传播特征定义为就是短视频、碎片化的说法,可能就要过时了。

视频的一个重要的特征是制造明星,电影是如此,电视更是造星的机器,视频社交媒体造星的速度和力度空前。视频社交媒体不仅是造星,而且是造神。

比如说现在火热的台湾“馆长”,他在岛内舆论中的破壁效应,对两岸关系及对“台湾人就是中国人”的定义影响巨大。

我昨天在澳门还参加了一个凤凰网的活动,见到台湾的一个挺有名的媒体老总,我跟他说,陈之汉在国民党反击“大罢免”过程中发挥了重要作用。他说我非常同意你的观点,而且不只是大罢免,还包括郑丽文当选国民党主席,陈之汉的民间号召力是不可忽视的。再一个就是文化范儿的董宇辉,带货年销售100多亿元,去年个人收入28亿元,这就是视频社交媒体造星的结果!

视频媒介制造了明星,反过来又离不开他们,二者相互激荡,不断卷入更多的受众,传播力和影响力快速叠加放大,一浪高过一浪,直至成为流量引擎。

说了这么多,回应标题之问:AI改变不了现在这种媒介传播形态和格局。

我的判断依据是:一个视频,不管用了多少AI,用了多高级的AI,它仍然是一个视频,它还是该去哪儿去哪儿,是去传统媒体,还是去新兴媒体;去抖音,还是去小红书,还是去腾讯视频号。渠道没变,平台没变。这是我个人的观点。

孙玉胜

我倒反认为改变媒介格局的是上一个智能——智能手机。虽然两个智能不是一回事儿,但我至今觉得,智能手机在传播史上的地位,被业界和学界的专家学者们忽略了。因为我很少看到这方面的论述,尤其是2007年—2010年这个极其重要的节点。

2007年是苹果手机的元年,刚才我提到了乔布斯率先使用了多点触控技术,iPhone一上市就引起轰动,机械按键没有了,手机表面变成一块完整的屏幕,我觉得这个意义重大。

我是电视记者出身,1984年入职。当时的电视台基本上是靠三大件吃饭:摄像机,录像机,回到台里用编辑机编节目。节目播出后,老百姓家里的电视机,学名叫接收机。那时候电视的影响很大,内地曾流传一个现象或笑话,很多机构开会搞活动,没有电视记者在场,怎么能开始呢?!

刚才我说的是2007年苹果手机诞生,2010年iPhone4上市,它的一个重要的变化就是强大的镜头。乔布斯不是有句话么?要让普通人拍出专业级的照片。iPhone4相当于集电视的摄像机、录像机、编辑机和接收机,四机于一手。手机有了这种强大功能,它对电视的碾压是天经地义、理所当然的。但乔布斯的这句名言也说明他只看到了拍照的效果,而没有提及让普通人拍出专业级影片的效果,所以乔布斯的认知也是有限的。

现在看的话,不是拍照片这个功能重要,而是它能拍摄活动影像的那个功能最重要,正是这个功能才对媒介传播格局产生了重大影响。更多手机品牌效仿苹果,使普通大众成为了内容的生产者,大规模上传的时代开始了,真正的自媒体来临了,视频社交媒体崛起了,新的媒体生态诞生了,这是传播格局的重大的变化。

目前知名的视频社交媒体,基本都是在2010年之后诞生的:快手2011年,小红书2013年,抖音2016年。油管诞生于2005年,但早期的时候,油管被英国很多著名电视台的高管批评为“寄生虫”。因为当时原创视频很少,很多上传者就把电视台的一些节目片段上传给油管。油管视频上传爆发式增长的第一年是2012年,之后一骑绝尘,现在是世界最大的视频社交平台,月活25亿。

人工智能对国防、医疗等生产生活方面的影响将是革命性的。有了AI,传媒业的内容生产也变得更高效、更便捷、更丰富,甚至交互方式也会迭代更快,这些都毋庸置疑。在媒介传播形态和格局方面也会有演进和变化,但不会天翻地覆,因为已有的传播基础设施不会改变。

我昨天晚上刷到了一条新闻,马斯克说5年内手机和App将消失,没看到他的上下文说的是什么,但仅从字面理解这个判断显然是太激进了,在新的载体和介质出现之前,这个论断不符合逻辑。

鉴别AI内容真伪,
应该成为这个时代的媒体素养

我们再谈一下素养。

AI发展到现在这个程度,可能有图像就有真相的时代要终结了,即使不是终结,至少也面临重大危机,因为你看到一个很真实的图像,它可能是AI生成的。所以,怎么样识别AI就是我们应有的一种重要素养。这有伦理的问题,也有鉴别能力问题

今年6月,北京处罚了首例利用AI发布虚假广告案,广告涉及央视著名的《新闻联播》主播李梓萌,就是一个公司把李梓萌虚拟化了,声音是她的,图像是她的,你看起来就是她,直播带货卖鱼油,而且真有人下单。

我不知道大家看过《人类简史》作者赫拉利写的《智人之上》没有,他披露了一个真相,就是前几年缅甸大规模的暴力驱逐迫害罗兴亚人事件,后来事实证明,主要原因是有几个人在制造仇恨的虚假信息,当这些信息遇到算法的时候,就被无限地放大,最后酿成了悲剧。因为算法只管推荐,不管内容的真假,现在还有120万的罗兴亚人无家可归。赫拉利说,当时在缅甸大家获取信息的主要渠道就是脸书。脸书曾做过一个几百万用户的调查,就是什么内容能提高受众的参与度,调查的结果是传播愤怒、传播仇恨、传播恐惧参与度最高,于是脸书就把这个结论当作了算法的目标。赫拉利说“这是一个致命的决定”。

这个案例还是2016年的事,那时候的AI还不像现在这么强劲,未来再有这种情况,通过AI制作这样的信息,我觉得结果只会更严重。AI可以以假乱真,而AI算法又有偏好,这就变得非常可怕。因此如何鉴别AI生成视频的真伪,特别是深伪,就应该成为一种AI时代的媒体素养,而且十分迫切。

当然,这种鉴别我们不能靠受众,不能靠我们编辑的生物智能,而应该靠人工智能来完成。

不管AI如何演进,我永远相信真实的力量。从事电视工作40多年,我坚定地认为,视频媒介的生命力和传播优势就在于其传播过程中的真实和真实感。

所以我们“不要因为走得太远而忘记为什么出发”,不要因为现在AI有强大的视频生成能力,就不重视现实和现场而去更关注和渴望虚拟的AI生成,我觉得这是荒谬的。真实和真实感应该是人性认知的基本共识,连电视娱乐节目都早已现场化和真人秀化多年了,并且经久不衰,何况其他!AI对媒体的影响我们当然要响应和应对,但也要冷静,不能人云亦云,失去独立思考和基本判断能力。AI机器人不是越像人越好,真正有实力的机器人肯定不像人,这是简单逻辑,但现在就是这个方面似乎正偏离主航道。

我曾把今天的演讲题目提交给了AI,一字不差。DeepSeek吐给我的分析思考是肯定会改变,斩钉截铁,这与我的结论不一样,请问大家相信谁呢?

(本文根据作者原稿和录音整理而成,小标题为编辑所加)

来源:传媒茶话会
编辑:何璇祺

1056#
 楼主| 发表于 3 天前 | 只看该作者
【案例】

AI标识该加必须加!网信办通报人工智能生成合成内容标识常见的违法违规问题

导读
11月25日,网信办发布了人工智能生成合成内容标识违法违规问题的处理通报,主要涉及两类:人工智能生成合成服务提供者及网络信息内容传播服务提供者的标识添加义务,既涉及到显示标识,也涉及到隐式标识。
国家高度重视人工智能生成合成内容标识的规范,是AI治理的重点之一,今年相继出台了一系列法规和实践指南及网安标准,详细信息参见下列图文:
正文
法律依据
根据网信办等四部门2025年3月7日发布的《人工智能生成合成内容标识办法》,人工智能生成合成服务提供者及网络信息内容传播服务提供者的标识义务主要涉及以下条款:
第三条 人工智能生成合成内容是指利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息。
人工智能生成合成内容标识包括显式标识和隐式标识。
显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识。
隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
第四条 服务提供者提供的生成合成服务属于《互联网信息服务深度合成管理规定》第十七条第一款情形的,应当按照下列要求对生成合成内容添加显式标识: (一)在文本的起始、末尾或者中间适当位置添加文字提示或者通用符号提示等标识,或者在交互场景界面、文字周边添加显著的提示标识; (二)在音频的起始、末尾或者中间适当位置添加语音提示或者音频节奏提示等标识,或者在交互场景界面中添加显著的提示标识; (三)在图片的适当位置添加显著的提示标识; (四)在视频起始画面和视频播放周边的适当位置添加显著的提示标识,可以在视频末尾和中间适当位置添加显著的提示标识; (五)呈现虚拟场景时,在起始画面的适当位置添加显著的提示标识,可以在虚拟场景持续服务过程中的适当位置添加显著的提示标识; (六)其他生成合成服务场景根据自身应用特点添加显著的提示标识。 服务提供者提供生成合成内容下载、复制、导出等功能时,应当确保文件中含有满足要求的显式标识。
第五条 服务提供者应当按照《互联网信息服务深度合成管理规定》第十六条的规定,在生成合成内容的文件元数据中添加隐式标识,隐式标识包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。
鼓励服务提供者在生成合成内容中添加数字水印等形式的隐式标识。
文件元数据是指按照特定编码格式嵌入到文件头部的描述性信息,用于记录文件来源、属性、用途等信息内容。
第六条 提供网络信息内容传播服务的服务提供者应当采取下列措施,规范生成合成内容传播活动: (一)核验文件元数据中是否含有隐式标识,文件元数据明确标明为生成合成内容的,采取适当方式在发布内容周边添加显著的提示标识,明确提醒公众该内容属于生成合成内容; (二)文件元数据中未核验到隐式标识,但用户声明为生成合成内容的,采取适当方式在发布内容周边添加显著的提示标识,提醒公众该内容可能为生成合成内容; (三)文件元数据中未核验到隐式标识,用户也未声明为生成合成内容,但提供网络信息内容传播服务的服务提供者检测到显式标识或者其他生成合成痕迹的,识别为疑似生成合成内容,采取适当方式在发布内容周边添加显著的提示标识,提醒公众该内容疑似生成合成内容; (四)提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容。 有前款第一项至第三项情形的,应当在文件元数据中添加生成合成内容属性信息、传播平台名称或者编码、内容编号等传播要素信息。
第七条 互联网应用程序分发平台在应用程序上架或者上线审核时,应当要求互联网应用程序服务提供者说明是否提供人工智能生成合成服务。互联网应用程序服务提供者提供人工智能生成合成服务的,互联网应用程序分发平台应当核验其生成合成内容标识相关材料。
第八条 服务提供者应当在用户服务协议中明确说明生成合成内容标识的方法、样式等规范内容,并提示用户仔细阅读并理解相关的标识管理要求。
第九条 用户申请服务提供者提供没有添加显式标识的生成合成内容的,服务提供者可以在通过用户协议明确用户的标识义务和使用责任后,提供不含显式标识的生成合成内容,并依法留存提供对象信息等相关日志不少于六个月。
第十条 用户使用网络信息内容传播服务发布生成合成内容的,应当主动声明并使用服务提供者提供的标识功能进行标识。
任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识,不得为他人实施上述恶意行为提供工具或者服务,不得通过不正当标识手段损害他人合法权益。
网信办的通报全文
网信部门依法集中查处一批存在人工智能生成合成内容标识违法违规问题的移动互联网应用程序
2025年11月25日 15:21来源: 中国网信网
针对部分网站平台未有效落实人工智能生成合成内容标识规定要求相关问题,近期网信部门集中查处一批违法违规移动互联网应用程序,依法依规予以约谈、责令限期改正、下架下线等处置处罚。主要违法违规情形如下:
1.人工智能生成合成服务提供者未对生成合成的内容添加显式标识;提供生成合成内容导出功能时,未在文件中添加显式标识;在生成合成内容的文件元数据中,未添加包含属性信息、服务提供者名称或者编码、内容编号等制作要素信息的隐式标识;隐式标识添加位置不规范等。
2.网络信息内容传播服务提供者未落实隐式标识核验、在发布内容周边添加显著提示标识相关要求;未在生成合成内容传播活动涉及的文件元数据中添加属性信息、传播平台名称或编码、内容编码等传播要素信息;未向用户提供声明生成合成内容的功能等。
国家网信办相关负责人表示,人工智能技术在促进经济社会发展的同时,也产生了生成合成技术滥用、虚假信息传播加剧等问题。党中央、国务院高度重视人工智能发展和安全,国家网信办近期制定出台了《人工智能生成合成内容标识办法》,明确了人工智能生成合成内容标识有关要求。网站平台应严格落实标识相关规定要求,强化标识互识、内容检测能力建设,做好用户提醒提示和账号管理,严守法律底线红线,切实依法合规运营。国家网信办将深入推进依法管网治网,持续强化人工智能生成合成内容标识监督管理,推动人工智能健康有序发展。


来源:智法专研(公众号)

编辑:张家乐

1057#
 楼主| 发表于 3 天前 | 只看该作者
【案例】

微信悄悄上线AI播客,新闻主播们的活儿可能真要被抢了。

起猛了,周末发现,微信又上一个新的跟AI相关的功能了。他们正在灰度内测AI播客。入口在一个非常隐蔽且神奇的地方,叫快讯。如果你不怎么打开公众号的话,它可能会出现在你的公众号页面顶部,就像这样。


但是如果你打开公众号页面比较多的话,它就会消失,在整个公众号页面都看不见了。而这时候再想要打开它,就直接在搜索栏搜“快讯”就OK。

看到这个页面以后,点击全部99+更新那,你就可以进入到快讯的合集页。里面其实也都是公众号文章,只不过都是地方新闻的官方号,微信做了个规则,给了他们单独一个合集页做整合。


而就在这个页面里,多了一个新功能,也就是右上角的这个,听快讯。

如果你们点开快讯页面,发现有的话,就说明你们被灰度到了。
如果没有的话,那就还得再等等。
点开这个听快讯以后,你就会自动弹出一个音频,开始播放。
我给大家录了个屏大家可以听听看。

点此链接可观看原视频:https://mp.weixin.qq.com/s/-Y_Z1HSuXzkQrbP8ivj1UA

明显的可以听出来,这是非常典型的AI生成的双人播客了,就是NotebookLM和ListenHub的形态类似,打听了下,听快讯的这个播客的底层能力是微信和混元一起搞的,混元官网也提供了AI播客能力的体验,大家也都可以去试下。
微信这个被无数人注视的巨物,走的每一步,都蛮有意思。
这个实现路径,大概就是微信从快讯里,挑出一些比较重要、阅读量比较高的新闻,按照时事、娱乐等等进行分类之后,进行文本改写,然后用AI播客的双人对话方式,念出来。
这已经不是第一次微信在自己的产品里尝试AI声音这个模态了,还有一个非常隐秘非常有趣的地方,微信也尝试了AI声音,就公众号后台。
在后台,作者可以念一段话,用AI来克隆你自己的音色。

从而在普通的用户听文章的时候,可以不再是系统音色,而是作者的音色了。


不过这个还是传统的TTS路径,在朗读上还是稍微机械了一点,不像快讯里面的AI播客那么像真人。而且我自己其实一直期待,微信在公众号的听全文这里,也可以给个选项给用户,把一篇公众号的长文,用AI播客的方式读给用户听,甚至是可以克隆了作者的音色。不过之所以先做快讯,做这个隐藏的这么深的角落里面的功能,而没做整体的公众号,这个点,其实从产品层面也比较好理解。快讯里的内容是什么?是你本地的、官方的、政府新闻号发的文章。这也意味着,这是整个微信内容生态里,最安全、最标准、最不可能出错的语料。

这里的每一篇文章,都是结构化的新闻通稿,没有复杂的个人情绪,没有模棱两可的观点,更没有需要AI去揣摩的阴阳怪气。对于微信这种体量的产品来说,安全现在才是第一位的。而AI播客这种形式,其实天然的适合资讯和新闻。官方媒体天天更新海量的信息,你要是每一个都点进去看,真的会把人逼疯。你需要的,其实只是最快速度、最容易接受的方式,来知道发生了什么,这就够了。而AI播客的对话方式,就非常的符合。它是把一篇平面的、需要你主动去浏览的新闻稿,变成了一场立体的、流动的、你只需要被动听就行的有趣的对话。但是我更期待的,其实是产品机制成熟之后,所带来的未来的生态。
比如说,一篇你收藏了很久,但一直没时间看的万字长文。你只需要点一下那个“收听”按钮,两个AI就能在你上班的路上,把这篇文章的核心论点、论据、来龙去脉,给你聊得明明白白。
又或者你早上醒来,错过了昨晚群里几百条的激烈讨论,你只需要点一下,AI就能把整场争论的几个核心观点、几方的代表人物、以及最终的结论,给你总结成一段5分钟的晨间播客。
你甚至可以把整个朋友圈,都变成一档只属于你的、日更的播客节目。AI会告诉你,你最好的那几个朋友,昨天都分享了什么,他们去了哪里,见了什么人,有什么样的心情。
这个时代,我们每个人,其实都被困在了信息的汪洋大海里。
我自己的稍后阅读列表,说真的已经长到我觉得我这辈子都读不完。
我有上百个群聊,真的,也有永远都有爬不完的楼。
而朋友圈更是,我上万的好友,里面全都是,充满了我们来不及点赞的、朋友们的生活。
我也不是不想看,是我真的没有时间,也没有精力了。
而如果能把这些场景,微信把他们都变成AI播客,这就非常有趣了。
可以把我们从阅读这种需要高度集中注意力的、缓慢的信息获取方式中,解放出来。
而用原来的所有碎片化的、无法利用的时间来替代,比如开车、通勤、做家务、健身的时间,把这些时间,也都变成最高效的信息输入时间。
而微信里,有着我们可能最多也是最碎片化的信息。微信这头巨兽,在AI的棋盘上,移动棋子的速度越来越快了。
而我们所有人。
都身在局中。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。


来源:数字生命卡兹克(公众号)

编辑:张家乐

1058#
 楼主| 发表于 前天 12:52 | 只看该作者
【案例】

警惕!副刊遭AI写作投稿轰炸,竟让包拯对话宋太宗……

导读
短短几秒便可“写”一篇优美的文章,一个小时便能创作百万字小说……这些颠覆性现象,标志着AI写作时代来临。
一个值得关注的现象是,报纸副刊阵地正在成为AI写作投稿的“重灾区”。多家报纸副刊编辑表示,今年以来,投稿邮箱中涉及AI写作的稿件比例越来越高,且隐蔽性越来越强。
有些稿件就是不对味儿,也看不出“人味儿”
写作,原本可能是人类行为中具有最高价值的一种生命活动,然而,人工智能时代的来临,让写作夹杂了一些难以描述,也难以预测的危机压力。前不久,在浙江建德举办的第十二届报纸副刊理论交流活动上,就数智时代的报纸副刊议题,不少副刊人分享了来自一线的思考。
《工人日报》社会文化新闻部编辑吴丽蓉发现,AI写作的稿件正在被批量生产,可谓防不胜防。在记者的调查中,这一现象同样存在。在很多报纸副刊编辑部,如果编辑看到投稿中有明显AI痕迹,会感到愤怒,并非针对新技术,而是这些看似头头是道的文字,让人看后有一种“受欺骗”的感觉。
“将AI写作的稿件拿来投稿,这样的情况今年多了起来。”《中国石油报》编辑邵美玲告诉记者,人类写作源于生命体验和随之产生的情感表达,而AI缺乏这种生命体验。其创作本质是在强大技术加持下,对已经发表过的“二手”语料进行重组与模仿,而独一无二的“一手”体验,才是作品的“魂”。邵美玲提到,《中国石油报》副刊《北方周末》是石油人的文化家园,大家写的都是与自己工作、生活息息相关的内容。有些稿件就是不对味儿,也看不出“人味儿”。面对这种投稿,编辑部肯定不会采用。


“我们的副刊每天会收到上千篇投稿,采用稿件的首要标准是‘原创’。”《张家港日报》副刊版负责人钱超新透露,AI生成作品很快,投稿人可以将一篇稿件同时投向全国各地的副刊。因此大家会私下交流AI写作稿件的明显特征,并将工作中搜集到的线索进行归纳总结,如果遇到了要适当规避。“编辑对本地作者的文风较为熟悉,如果一个本地作者文风突然大变,可能会有AI创作的嫌疑,我们会进一步加强审查。”钱超新说。
面对海量的投稿,编辑不得不花费大量的时间甄别,有时更是感到哭笑不得。一位党报副刊编辑向记者透露,曾有一篇稿件被自己判断为AI创作并作退稿处理,然而没过多久,他就看到这篇稿件刊登在了另一家报纸上。还有一位副刊编辑表示,她也曾收到一篇疑似AI创作的稿件,表面看起来语言优美、主题鲜明、无懈可击,仔细审核发现漏洞百出,比如文章中竟然出现了包拯与宋太宗对话的场景。
不能“冤枉”作者,也不能影响创作生态
“有人投机取巧用AI写稿,有人老老实实敲键盘,对于诚心创作的人而言,与AI竞争,难言公平。”吴丽蓉认为,海量的AI稿件投来,既增加了副刊编辑的审稿负担,也让很多真正用心用情写出来的好文章面临被淹没的风险。
AI不是洪水猛兽,作为一项新技术,它服务于人类,带来了诸多便利。记者在采访中了解到,副刊编辑对AI技术本身并不抗拒,比如利用AI检查错别字、帮助梳理基础材料、润色语言等,将其视为另一种“字典”。“但如果过分依赖AI,就会被技术绑架,作者缺乏主观思想,便丧失了独创性与原创性”。《大众日报》副刊“丰收”主编刘君接受记者采访时表示。
技术是人的能力延伸,而人与机器最大的区别是,人知道为何而写,即便是有些粗糙的文字,也有真实思考过的印记,源自独特的生命体验。


“AI刚开始兴起的时候,用AI创作的文章一眼就能看出来。随着技术的进步与普及,大家都会用了,也慢慢知道怎样使用AI写出自己想要的东西。所以,AI创作的隐蔽性越来越强,有时候编辑也拿不准了。”邵美玲说,这种困扰在工作中的确存在。面对似像非像的文章,编辑既怕“冤枉”了作者,又怕刊发AI创作的文章会滋生投机取巧的风气,影响创作生态。
从工作实操性看,许多编辑会尽量选用熟悉的作者稿件,能够更好地识别、沟通。有的编辑引入诚信机制,避开不自律的作者,若多次发现某位作者使用AI创作的稿件投稿,将会纳入黑名单。“完全用AI写作属于创作态度问题。遇到类似情况,我们不会轻易下结论,会给作者打电话沟通,有的作者会承认自己的确使用了AI,我们也会视具体情况对稿件作出处理。”邵美玲说。
真实性是价值基石,行业呼唤标准与规范
随着AI写作数量激增,界定一篇文章为AI写作的标准是什么?AI合理使用的边界在哪儿?今年,多家期刊就严格规范AI技术的使用亮明态度。如3月13日,《中国历史地理论丛》明确了使用原则、可使用场景及禁止使用场景等。也有期刊表示,将强化审稿机制,采用技术检测与人工审查相结合的方式,杜绝学术不端行为。
虽然报纸副刊也已成为AI写作投稿的“重灾区”,但并没有统一、明确的规则界定。记者在采访中了解到,许多报社并未对AI写作作品设置明确的拒用规定和细则。大多数编辑依靠自己的经验和AI检测工具进行相应判断。然而,AI检测工具的精确度也有待进一步提升,像朱自清《荷塘月色》、王勃《滕王阁序》、刘慈欣《三体》选段等都曾被常用的AI鉴别工具标记为“AI生成内容”,其中《滕王阁序》的AI生成率竟然接近100%。


前不久,著名诗人吴焕唐发文质疑文学杂志《莽原》刊发的诗歌《穿过季风的缝隙》系AI创作,随后,该社发布了相关调查报告,表示已通过两个主流AI文本检测平台——知网AI检测系统、朱雀AI检测助手对该组诗作进行检测。经过多轮检测,结果均显示:AI生成率为0%。同时,该社又联系了5位诗歌界资深人士、评论家和学者从专业角度研判,有两位认为作品有AI加工的嫌疑。因此,报告提出,暂不对该作品作出最终定性,待建立具有公信力的评判标准或出现更具权威性的检测工具后再予评判,并暂缓发放稿酬。
对副刊编辑来说,这些扑面而来的新问题需要从多方面应对。“要加强对故事和情感的判断。”吴丽蓉表示,真实性已然超越了传统的新闻学范畴,成为报纸副刊的价值基石。这里的真实,是一种更广义的、关乎创作本质的真实——经验的真实、情感的真实和思想的真实。如果存疑,最好的办法是与作者直接沟通,探讨创作细节。
技术洪流滚滚而来,人机共存不是坏事。报纸副刊编辑正在呼唤相关规范的建立,可以将那些配料精准但缺乏生气的稿件拒之门外,留下真正的思考印记,守住人类的精神家园。


来源:传媒茶话会(公众号)

编辑:张家乐


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表