传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
1001#
 楼主| 发表于 2025-8-15 23:42:29 | 只看该作者
【案例】

媒体报了假新闻,他们说是因为自媒体……

媒体因误信自媒体用AI生成的内容而报道了错误消息,这锅到底该自媒体背,还是该怪媒体不核实?
纪委监委一工作人员对此的态度是:源头是自媒体博流量。


近日,一条“落马女官员用政府服务器挖出327枚比特币(约1.5亿元)”的劲爆消息,迅速在网络发酵,网传所指为贵州省大数据发展管理局原局长景亚萍。其后多段视频称,这条消息出自西南某媒体。



中国新闻周刊向该媒体求证,对方工作人员表示,这条新闻并非原创,“目前已删稿”。贵州省纪委监委宣传部的一位工作人员也回应称,景亚萍利用政府服务器挖比特币的说法“是谣言”,其案情并不涉及比特币。
这位工作人员还透露,消息最初是一些自媒体用AI生成,为了博流量,后来被媒体报道,相关部门已就此事沟通。
虽然中国新闻周刊没有点名是哪家西南媒体,但据传媒见闻检索,有网友截图显示,某省内唯一同时拥有新闻出版和手机出版资质的省级手机媒体,曾发布过这则传闻。其报道标题为《61岁女技术型官员景亚萍被查,用政府服务器挖327枚比特币约1.5亿,网友:购买2000套贵州县城商品房》,既未标明消息出处,也用肯定语气将景亚萍与比特币联系在一起。


如今,无论自媒体还是所谓权威媒体,都处在“抢热点、抢流量”的状态。近期假新闻频出,正说明个别媒体早已忽视了传统的“三审三校”审核机制。
出了问题,媒体一删了事,却把矛头指向自媒体。
诚然,自媒体用AI制造谣言有错,但媒体自己不核实就跟风发稿,是不是也应该反思反思呢?



来源:传媒见闻(公众号)
编辑:张席睿



1002#
 楼主| 发表于 2025-8-25 19:09:40 | 只看该作者
【案例】

DW事实核查:如何识破AI生成的新闻播报视频

人工智能(AI)生成的新闻播报视频越来越难辨真假,而它们充斥着所有社交平台。怎样才能避免上当?

这段在TikTok上的AI生成的采访,看起来就像一场真实的街头民意调查——有红色邮筒和英国国旗作背景。但这个画面完全是假的。

(德国之声中文网)在一条TikTok视频中,一名记者站在英国传统红色皇家邮筒前,背景中飘着英国国旗,手持麦克风。他向一位女性路人提问:“你打算在即将到来的选举中投票给谁?”“改革党,”她回答,“我只是想再次找回作为英国人的感觉,明白吧。”
一位用户在评论中写道:“真想知道他们花了多少钱让她这么说。”但这场景从未发生。这段采访完全是虚构的。记者也不是真人——他是由人工智能生成的。如果你细看,就会发现一个不起眼的水印:角落里写着“Veo”字样,这是谷歌DeepMind推出的强大视频生成工具的标志。
这段8秒的视频并非个例。从TikTok到Telegram,合成新闻视频——即模拟真实新闻片段风格的AI视频——在社交平台上无处不在。它们借用了新闻报道的视觉语言:现场报道、屏幕图表、权威口吻。然而,这些内容往往完全是虚构的,目的是引发愤怒、操控舆论,或单纯为了博眼球。
加州大学伯克利分校数字取证专家法里德(Hany Farid)告诉德国之声(DW):“当你在刷手机时,这类视频看起来像新闻,听起来也像新闻。而这正是危险所在。”
一段由人工智能生成的假新闻视频,显示一名虚拟记者站在伦敦市中心的坦克前。

现实风险
许多合成视频模糊了讽刺与现实之间的界限,或具有误导性。在另一个8秒的影片中,一位记者似乎正在报道一支“史无前例的军事车队”驶过伦敦市中心。她站在坦克前方,后方有群众围观。但这段视频并未提及任何具体事件、时间或背景。
DW事实核查团队多次观察到,这类视频会在危机时期(如骚乱或重大新闻事件)反复出现,被重新包装以制造混乱或错误地暗示局势升级。
在上一次以色列与伊朗冲突升级期间,TikTok和其他平台充斥着与战争相关的AI生成内容,包括假新闻视频,例如俄罗斯加入战争、伊朗攻击美国、或伊朗击落参与轰炸其核设施的美国B-2轰炸机等。
2024年6月洛杉矶爆发抗议美国移民执法局(ICE)行动期间,DW也发现合成新闻视频数量激增。
这些视频不仅广泛传播于社交平台,而且对现实世界产生影响
2024年,台湾研究人员指出,本地社交平台上出现了AI生成的新闻播报影片,虚假指控支持台独的政治人物贪污。这些影片不仅传播了错误信息,还在选举前破坏了公众对新闻媒体的信任。
当然,有些用户是将AI新闻当作恶搞工具。在一则TikTok热门视频中,合成主播站在一个深不见底的坑洞前报道,有摩托车直接掉进洞里。另一个视频中,一个虚拟主播说:“我现在就在边境,但这里没有战争。爸妈,这看起来很真实,但其实是AI生成的。


如何识别假新闻播报视频
那我们该如何辨别真假呢?首先看水印。像Veo、Synthesia等AI工具往往会给视频打上品牌标记,但这些标签有时会被淡化、裁剪或直接忽略。即使视频有明显水印,也经常会有人在评论中问:“这是真的新闻吗?”
假新闻播报是目前AI内容中最精致的一类。由于通常是在静态的新闻演播室场景中录制,许多典型的AI特征(比如手势僵硬、背景不连贯)不容易被察觉。但仍有一些微妙线索。
观察眼睛和嘴部。合成主播常常眨眼不自然,嘴唇对不上语音。牙齿可能过于光滑或亮度异常,有时在说话中形状会发生变化。面部表情与动作通常太过一致,缺乏真人的自然变化。
屏幕上的文字也是识别线索之一。例如某段号称“突发新闻”的底栏显示的竟是乱码:“Iriay, Tord for the coteataiphaiteie the tha moerily kit to molivaty instutuive in Isey。”记者的麦克风上甚至胡乱写着“The INFO Misisery”。
法里德指出,识别AI内容的技巧是“与时俱进的”。“我今天告诉你的识别方法,可能六个月后就不适用了。”
那么我们该怎么办?依赖可信来源。“如果你不想被骗,”法里德说,“那就从可靠的新闻媒体那里获取信息。”

这段AI生成的“新闻播报”乍一看可能很真实——但注意字幕,像“IriayTord”和“aiphaiteie”这样胡乱拼凑的词就是明显的警示信号。

廉价AI视频如何变现?
AI主播并不是新概念。2018年,中国官媒新华社就推出了一位呆板、生硬的AI主播。那时候它还只是个新奇玩意。
但如今技术已经发生了翻天覆地的变化。像Veo这样的工具现在可以让任何人——即便没有新闻从业经验——只花几百欧元就能制作出高质量的新闻播报视频。这些虚拟人说话流畅、动作逼真,只需简单输入几行文字就能完成制作。
法里德说:“制作门槛几乎为零。你不需要演播室,甚至连事实都不需要。”
这些视频的设计目的几乎都是最大程度地吸引用户关注。它们抓住最具争议的话题:移民问题、加沙战争、乌克兰局势、特朗普……以激发强烈情绪,引导转发分享。
社交平台本身也在推波助澜。Meta不久前调整了算法,更多地展示用户未关注账户的内容,这使得合成视频更容易触达更广泛的受众。平台的变现机制也进一步激励了内容创作者:视频播放量越高,收益越多。
这种环境催生出一批新的“AI垃圾制造者”:他们生产与热搜话题相关、质量低下的合成视频,只为了博取流量。
例如某个拥有4.4万粉丝的账号,在记者尚未确认信息时就抢先发布热点内容。在最近一起空难事件中,数十条TikTok视频用AI虚拟主播冒充CNN或BBC记者,发布虚假伤亡数字和杜撰的目击证词。许多视频在被删前已在网上传播了数小时。
在突发新闻发生时——人们急于获取信息的时刻——这些看似真实的AI新闻视频成为吸引点击、赚取收益的有效手段。
法里德总结说:“社交平台正在放松对内容的审核管理。这是一个最糟糕的组合:我能制作内容,我能传播它,而且还有大量观众愿意相信它。”



来源:微信分享
编辑:杨泓艳







1003#
 楼主| 发表于 2025-9-2 22:07:52 | 只看该作者
【案例】

快讯:抖音、微博、小红书等平台已上线AI标识功能

国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局制定了《人工智能生成合成内容标识办法》,91日起正式施行。办法提出强制添加显式和隐式标识等规范要求,所有AI生成的文字、图片、视频等内容,都要“亮明身份”
《标识办法》明确,人工智能生成合成内容标识主要包括显式标识和隐式标识两种形式,显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
《标识办法》强调,任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识,不得为他人实施上述恶意行为提供工具或者服务,不得通过不正当标识手段损害他人合法权益。
目前,包括微信、抖音、DeepSeek等平台均对上述《办法》出台细化规则。
具体动作与示例如下:
腾讯:91日,微信公众平台运营中心发布了《关于进一步规范人工智能生成合成内容标识的公告》:根据《人工智能生成合成内容标识办法》要求,平台会对 AI 生成合成的内容添加显式标识和隐式标识。
平台也会对可能是 AI 生成合成的内容进行相应提示,以便用户清晰辨识。为避免发布的内容在传播过程中引起混淆或误认,用户发布的内容为 AI 生成合成的,发布时需主动进行声明。
官方表示,将提供平台标识提示和用户主动声明两种形式。


腾讯元宝也同步公告,已对平台内 AI 生成内容完成双标识添加。


抖音:上线两项核心功能 —— 一是 AI 内容标识工具,协助创作者主动标注;二是 AI 内容元数据标识读写功能,可识别并记录内容的 AI 生成属性。若创作者未主动标注,平台将辅助添加 “疑似使用了 AI 生成技术,请谨慎甄别” 提示,或在核验到隐式元数据时,标注 “作品含 AI 生成内容”。


快手:已上线 AI 生成内容标识功能,同时开放用户主动声明通道,方便创作者提前报备 AI 创作情况。


B 站:推出 AI 生成内容标识功能,对未主动声明的 AI 内容,将依据法律法规及社区规则补充添加标识。


微博:对系统识别到的 AI 生成内容,将自动添加显式标识与隐式标识,确保内容 “身份透明”。


小红书:利用AI技术生成的社会新闻、图像、音频等内容缺乏现实基础,平台会对该类内容进行风险提示,便于甄别信息,但不会限制笔记流量。


来源:传媒见闻
编辑:何璇祺
1004#
 楼主| 发表于 2025-9-5 22:56:54 | 只看该作者
【案例】

央视网这场七夕晚会,竟被 AI “承包”了

鹊桥、星语、诗词……七夕勾勒的意境,是刻在中国人基因里的传统浪漫表达;互动、仿真、智能……AI是穿梭于代码与数据间的现代科技,重构我们对世界的认知与想象。
当古老的七夕节日与前沿的AI技术相遇、共舞,会擦出怎样的火花?
8月28日,七夕前夕,央视网携手快手可灵AI打造的《AI心动夜》AIGC直播晚会播出。凭借独特创意、创新表达,节目迅速出圈。截至目前,《AI心动夜》全网话题阅读量超6亿,节目播放量2793万。


“七夕晚会交给AI,创意绝了!”“科技满满的晚会,太梦幻了。”“AI创造的浪漫,不同凡响。”因为AI含量高,节目也获得网友的喜爱、点赞。
作为央视网首台以“AI视频叙事+传统文化”为核心的AIGC晚会,《AI心动夜》构建“主流媒体+平台技术+头部创作者”的多方共创生态范式,实现了AI与文艺创作、文化传承的融合,展现科技助力文艺创作的无限可能,彰显了“科技向善”的人文温度。

AI加持,拓展文艺表达形式

创新是文艺的生命,是文艺生生不息的力量之源。创新内容形态、表达方式,让节目叫好又叫座,以大流量澎湃正能量,实现传播效应与社会效应的统一,是主流媒体孜孜以求的目标。
央视网携手快手可灵AI,以七夕这一中国人传统的浪漫节日为节点、契机,打造了一档融浪漫主题、创新立意、潮流科技为一体的视觉盛宴,展示了文艺节目创新的新可能、新作为。
首先,从主题、立意上看,七夕是中国传统的情人节,浪漫是其文化底色,但《AI心动夜》没有止步于此,而是独辟蹊径,以“超时空登记处”为核心创意概念,串联起不同维度的情感故事,以科技解码浪漫,用情感连接时空,为观众呈现了一台既有浪漫氛围,又充满科幻色彩的高品质晚会。
AI心动夜》以来自未来世界的阿牛与小织在前往地球“超时空登记处”的奇幻心动之旅为主线,通过其旅程,徐徐展开一场关于“爱”的跨时空探索,在跨越两千年的守望与“AI”的见证下,讲述一场真爱传奇。
其次,从表达方式上看,《AI心动夜》将文艺创作与AI相结合,通过高AI含量的视频叙事,传递七夕的浪漫、温暖,让节目好看、好玩、充满科技感,呈现了一场别开生面、耳目一新的七夕盛典,和一部新奇、科技范儿十足的文艺精品。
晚会中的节目,绝大多数内容都由AI生成,节目主题突出,画质优美、逼真,以AI技术、视听语言阐释中国人特有的浪漫和爱情叙事。
比如,在AI构建的未来都市中,罗一舟的AI数字人分身演绎充满甜蜜心事的蓝调恋曲《星河告白》,这是一支完全由AI生成内容打造的音乐创意节目。依托可灵AI的多模态生成能力,节目将罗一舟的形象照、歌词意象与晚会“科技浪漫”主题深度融合,创作出一段充满未来甜系风格的MV,构建出一场跨越虚拟与现实的深情告白。


此外,《AI心动夜》通过AI技术,贯穿古今中外文化元素,连接历史、当代与未来,展示了文艺节目广博的文化视角、表达张力、科幻色彩。《AI心动夜》对AI的运用贯穿于节目始终,既创作、展示了丰富的节目元素,又通过匠心的编排,构建起完整、新颖的叙事逻辑,将AI技术与文艺节目的融合推向新高度、深层次。
比如,《当罗密欧遇上祝英台》将中西经典爱情故事《罗密欧与朱丽叶》《梁山伯与祝英台》相结合,以可灵AI构建超现实忘川幻境,借中西经典爱情对话,探讨爱与记忆永恒的话题;《所愿皆成圆》用AI改写“意难平”,圆满了陆游与唐婉、苏轼与王弗、项羽与虞姬、李清照与赵明诚四段悲剧爱情的结局。
诚如其名《AI心动夜》,“AI”一语双关,晚会既是一场以爱为主题的浪漫之夜,也是展示AI能力、创作魅力的高光时刻。


创新融合,助力文化传承发展

主流媒体不仅是信息的传播者、社会瞭望者,也是传承文明、传播文化的载体。在新时代,为优秀传统文化的创造性转化和创新性发展贡献力量、智慧是主流媒体重要的使命。
近年来,AR、XR、AI技术,电音、说唱、动漫等元素已深度运用到文艺节目的创作过程中,应用“XR+数字孪生+虚拟制作”技术生成的中国传统建筑创演秀《栋梁》、以流行歌曲演绎国宝文物的《我怎么这么好看》、国内首部AI全流程微短剧《中国神话》等节目相继出圈。
这些爆款IP的破圈共同表明,传统文化与当代表达手段、技术的融合,不仅是文艺节目出圈的标配,更是新时期主流媒体弘扬优秀传统文化的利器。
七夕不仅是浪漫的节日,其背后也蕴含着源远流长、博大精深的传统文化。《AI心动夜》挖掘七夕背后的婚服文化、城市底蕴、青春记忆,并利用AI技术进行创新性表达、传播,打造了科技与文化深度对话的标杆性活动,以技术赋能和话语重构推动了文化传承与创新转化,提升了中华优秀传统文化的国际传播效能。
在中国数千年的文明进程中,婚服不仅是婚礼的华彩部分,更是礼制、审美与社会风貌的集中体现。其色彩与款式的变迁,也折射出华夏历史与文明的传承与演进。《千年婚服秀》以AI数字人贯穿始终,借助流畅运镜与无缝换装,在几分钟内生动呈现中华婚服演变历程——从汉韵庄重、唐风盛华,到宋雅明誓,直至现代多元风格,让观众直观感受婚服的悠久历史、中华文化的魅力。


城市是文明的标志,也是文化的容器。中华民族五千多年的历史中,很多城市都拥有厚重的历史、文化,更孕育了美丽动人的传说故事,它们在岁月的长河里被不断重拾,焕发新的生机。《想你的风吹到了……》以“中国的爱情地图”为概念,创意串联杭州、桂林、西安三座城市的经典爱情传说,打造中国浪漫故事集,展现了城市的文化底蕴,召唤更多城市点亮“中国爱情地图”。


互联网是信息时代的核心生产力,也是当代文化的承载。从流行歌曲、网络游戏的流变到社交媒体的嬗变,互联网承载了几代人的青春与情感记忆。《我们的8090》以传唱度超高的《老鼠爱大米》为创作蓝本,通过独特的“AI考古人类早期网络文明”创意设定,通过算法重新发掘这首时代金曲,唤起80后、90后共同回忆,展现了互联网以及情感表达方式的变迁。
婚服、神话传说、流行歌曲,都是文化元素,或蕴含着婚俗文化,或是中华民族想象力的延伸,或是穿越时空的情感表达介质,《AI心动夜》以AI技术为加持,对其进行创新性表达、传播,再现、生发其文化意蕴与魅力,不仅为节日晚会注入了科技基因,也展现了AI在传播文化方面的积极作用,体现了央视网作为主流媒体弘扬传统文化的时代担当。
超越娱乐,展现多重社会价值

既有艺术水平、娱乐价值,又有情感深度与社会温度,这是衡量文艺节目质量的重要标准。《AI心动夜》不仅是一档七夕晚会,让观众体验一档别样的七夕盛宴,更是一次寓教于乐、传播知识文化,构建集体记忆、家国叙事的情感链接,展现出超越娱乐的深层次社会价值。
晚会聚焦七夕文化,发挥AI在情感传递、表达方面的积极作用,让科技成为讲述爱情故事,阐述家国情怀、营造情感共鸣的新载体、新手段,实现“浪漫内核”与“科技语言”的深度融合,让节目超越娱乐,充满历史文化内涵,展现了AI的创作温度。
一方面,《AI心动夜》发挥AI的创作、叙事能力,通过构建仿真的表达场景,阐释爱情、浪漫主题,让传统节日亦可潮玩。与此同时,节目还通过真实场景素材,多视角沉浸式呈现,营造浪漫美好的七夕氛围。
《月宫遐思》以驻月工程师在“广寒宫”基地突遇生存危机,意外唤醒沉睡千年的“嫦娥”AI数据流为叙事线索,将斗拱、回纹等传统元素融入月球基地架构,全息界面、机械臂与流线型航天服交织其中,不仅是一次对传统嫦娥神话的科幻重构,更是对古典浪漫的深情致敬。


《岁月里的花》借助可灵AI的情感理解与视觉生成技术,汇集来自普通人的真实爱情瞬间——初次相遇的悸动、浪漫的求婚时刻、充满意义的定情信物,生成细腻流动的油画风格动态影像,是一次集体情感的AI艺术化表达,让爱被看见,让记忆开花。


另一方面,今年是中国人民抗日战争暨世界反法西斯战争胜利80周年,《AI心动夜》借助AI技术模拟还原烽火岁月的历史场景,致敬英雄、铭记历史,用AI技术为记忆筑起永不褪色的数字防线,让抗战精神在数字时代鲜活起来。
《念念、念念》以左权将军最后一封家书为线索,通过可灵AI生成历史场景与情感画面,再现1942年烽火中的铁血柔情,将家国大义与个人深情有机融合,致敬英雄亦不忘人间至情。

《与妻书》不仅在内容上依托可灵AI完成剧本与视觉的协同生成,更在情感层面实现技术与人文的深度融合,以“亲历者说”的形式,再现了革命先烈林觉民的妻子陈意映面对丈夫《与妻书》时的痛苦、孤寂、理解与坚守,展现革命时代的爱情不易与先辈的家国情怀。


作为一档视听精品、文艺IP,《AI心动夜》拓展了文艺创作的维度,展示了文艺创新的多元可能,特别是以AI为代表的技术,可以为文艺创作提供加持,增强文艺表达的活力与张力,为观众呈现了一场突破时空边界的线上视听盛宴。同时,央视网携手快手的AI实践,也正在打破AI只是冷冰冰的工具的刻板印象,展现出AI的多重积极价值和温情。

来源:传媒茶话会
编辑:何璇祺

1005#
 楼主| 发表于 2025-9-8 22:04:07 | 只看该作者
【案例】


段伟文|智能文明前夜的技术人之思——评《人工智能时代与人类价值》


[url=]不好为师而人师者[/url]
2025090812:58 北京
以下文章来源于信睿周报 ,作者段伟文

_ 段伟文(中国社会科学院文化发展促进中心)
在众多描绘人工智能时代趋势的畅销书中,亨利·基辛格(Henry Kissinger)携微软前首席研究和战略官克雷格·蒙迪(Craig Mundie)与谷歌前首席执行官埃里克·施密特(Eric Schmidt)合著的《人工智能时代与人类价值》[1]是一本虽然不厚但啃起来并不轻松的书。全书所勾勒出的“八阵图”——发现、大脑、现实、政治、安全、繁荣、科学、战略,对即将到来的人工智能时代的机遇和挑战进行了迄今最为深刻的思考,深入辨析了如何维护人类尊严和价值观等理想主义话题。有推荐者指出,该书很可能成为基辛格最具预见性和最重要的著作。
人工智能时代与人类价值
[] 亨利·基辛格、克雷格·蒙迪、埃里克·施密特
中信出版社 2025
“启蒙理性终结”到“人工智能创世记”
作为著名外交家和战略家的基辛格,为何会在生命的最后阶段关注人工智能?其缘起还得从20156月召开的彼德伯格会议说起。这一由北美和欧洲非正式精英网络彼德伯格集团举办的年度论坛,旨在就政经议题展开交流,以促进跨大西洋地缘政治合作。基辛格与蒙迪和施密特这两位奥巴马时期的总统科技顾问委员会(PCAST)委员都是彼德伯格集团指导委员会的成员和常客。在2015年的会议中,人工智能被列为重点议题。虽然基辛格平常不太关注这方面,但他还是坐下来听了人工智能公司DeepMind的创始人戴米斯·哈萨比斯(Demis Hassabis)的演讲,内容是介绍准备挑战围棋世界冠军的深度学习程序,也就是次年3月战胜李世石的AlphaGo。这一演讲不仅吸引了基辛格,还引发了他的深思。
亨利·基辛格
三年后,在发表于《大西洋月刊》20186月号题为“How the Enlightenment Ends”(《启蒙是如何终结的》)的文章中,基辛格写道:“当我聆听演讲者庆祝这项技术进步时,作为一名历史学家和偶尔担任政治家的经历让我思考起来。那些能够自我学习的机器——通过自身特有的流程获取知识,并将这些知识应用于人类无法理解的领域——会对历史产生怎样的影响?……我们是否正处于人类历史新阶段的边缘?”[2]他不无睿智地看到,当前,人工智能的重大问题主要由技术专家和科学界主导,哲学家和其他先前参与塑造世界秩序概念的人文学者往往因缺乏对技术的理解或被其能力所震撼而难以介入。科学界和技术界都倾向于推动发现的边界,而非深入理解其影响。在治理层面,人们往往优先考虑安全与情报,而忽略了人工智能对人类和社会的深远影响。有鉴于此,他呼吁将人工智能与人文传统对接作为国家优先考虑的课题,开发者应在工程设计中纳入哲学与政治反思,在杰出思想者的帮助下制定人工智能的国家愿景。
彼时,他就提出了本书要解决的问题:从哲学、智力等各个方面来看,人类社会还没有为人工智能的崛起做好准备。印刷术开启的启蒙理性时代使经验知识、个人洞察与科学判断成为理解世界的主流方式。而如今,人工智能正在动摇这一理性认知秩序,现代以来由人类理性支配的可认知的世界、可追溯的事实、可解释的知识等认知和真理的结构正陷入危机之中。
在本书出版后的一次访谈中,施密特回忆道:“我们当时在彼德伯格会议,我说服他听了哈萨比斯的演讲。亨利的思维总是与众不同。所以他没有听到戴米斯说的那种技术,他听到的是对现实(reality)的新定义。他的第一反应是,未来不应该托付给科技界。不应该让科技界人士独自发明这种技术,他们可以发明,但必须受到严格监控。”[3]
实际上,作为20世纪最著名的现实主义外交的代表人物,基辛格毕生都在以历史哲学的眼光关注新兴技术对世界秩序的重构。这使他在百岁人生的最后六七年写了两本关于人工智能的书,并用最后的心力参加了中美人工智能战略对话。大致了解一下他的智识偏好,有助于把握本书的基本思想。首先,作为逃离纳粹德国的犹太人,他对秩序崩塌有切身感受,其职业生涯因此更偏向现实主义政治,强调在动荡中重建秩序。他在博士论文《重建的世界》中提出国家间力量平衡的构想。在面对全面核战争的威胁时,他主张“有限核战争”,以求实现可控的战略均衡。本书中有关人工智能政治与安全的探讨,正是其秩序和均衡理念的延续。
其次,基辛格具有深厚的历史哲学背景,哲学思辨是其战略视野的底层支撑。他的本科论文《历史的意义》探讨了康德、斯宾格勒和汤因比的历史观,并因长达近400页而催生了规定哈佛大学本科论文篇幅上限的“基辛格规则”。他的第一本畅销书《核武器与外交政策》是他在外交委员会时写的报告,该书提出“有限的核战争是我们最有效的战略”。2014年出版的《世界秩序》则是其对21世纪第二个十年地缘政治的告别式评估,该书最后一章《技术、均衡和人的意识》指出,新技术开启无限可能,但真正的全球秩序须建立在历史意识、人道精神与道德判断力的智慧和远见之上。本书无疑也是这一思想的延续。
世界秩序
[] 亨利·基辛格
中信出版社 2015
在最后确定书名时,基辛格已经辞世,考虑到他对短标题的偏好和对人类重生的关切,合著者选择以“创世记”(Genesis)为主标题,其关键预设是:与人类智能相当的通用人工智能(AGI)乃至超级人工智能(ASI)将开启一个新纪元。副标题“人工智能、希望和人类精神”则旨在强调人类与人工智能共生的关键在于“以冷静乐观的态度迎接它的诞生”(第243页),从而开启一次漫长艰辛的信仰之旅和逻辑与真理的远征,以重建人类的精神。
知识领域的麦哲伦式变革与“技术人”的前景
从引言中的两句断言——“人工智能的最新能力给人留下了深刻印象”“人工智能仿佛压缩了人类的时间尺度”(第2页)不难看到,本书是在ChatGPT等大型语言模型的智能水平加速进化引发人工智能“魔法”大爆发前后创作的。因此,它要直面的是诸多通用目的人工智能(GPAI)的加速发展所引发的“奇点更近”的焦虑:AGI即将出现,ASI会在我们的有生之年君临天下,人会不会完全被机器替代?人与机器如何相处?应如何管理人工智能?
人有人的用处
[] 维纳
北京大学出版社 2012
目前,缓解这种普遍焦虑的“药方”是:倡导人机共生和展开人工智能治理。前者大多诉诸人文主义批判,后者主要寻求技术解决方案和法律伦理规范。但人们的认知和思想似乎越来越追不上加速再加速的人工智能,而这无疑印证了三位作者对“人工智能是需要人类深思的一项独一无二的挑战”(序)的认知。正是这一认知,使他们致力于与宿命论和拒绝主义保持距离,全书字里行间所见满是“如果”“选择”,鲜见批判和挞伐。
在探索人类与人工智能共存的前景时,基辛格也明示了人们必须面临的抉择:是创建一个人工智能变得更像我们的世界,还是创建一个我们变得更像人工智能的世界(序)?他还以历史的眼光表达了对未来的忧思:“今天,人类是机器与现实的中介。但如果人类真的选择了一个道德不作为的未来……钻进脱离现实的‘数字洞穴’,将接触原始现实的机会交予机器之手,那么两者的角色就可能逆转。”(第78页)这些人文追问背后则是基辛格对这一时代难题独到的戒急用忍式的元认知方法论:“人工智能对人类最大的威胁是,人类过早或过于斩钉截铁地自称‘我们了解它’。”(序)当然,出于各种考量,技术乐观主义者可将其解读为:现在制定人工智能监管规则为时过早,而且存在扼杀新兴技术的风险。
从思想的经验而来
[] 马丁·海德格尔
商务印书馆 2018
固然可以说这类似面对现代技术危机的海德格尔式泰然任之的存在主义态度,但人工智能对人的存在的挑战可谓触目惊心、迫在眉睫,拥抱智能文明的思想者必须有与之相适配的思想的强度。沿着基辛格对启蒙理性终结的思考,本书独具匠心地探讨了人工智能对发现、大脑和现实等认知基础的冲击,促使人们由人类面临的智能危机思考人工智能新纪元的重生之道。书中强调人类的知识状况正在经历“麦哲伦式的变革”。从现代文明的历史演进来看,继地理大发现和太空竞赛之后,引领“第三次大发现”的人工智能正在成为我们这个星球“理性的引擎”,而这很可能意味着人类理性主导的世界的终结:“当机器到达智力或物质世界的尽头时会发生什么?……我们面临着一场麦哲伦式的变革,这一次我们面临的不是驶出世界边缘的危险,而是面对超越人类理解的极限的奥秘所带来的智力危机。”(第86页)
这一变革伴随着我们这个星球在智识层面上的一系列意义深远的嬗变:(1)人工智能将成为终极的博学者,有望构建起新的“知识综合体”,并发展为自我改进的机器,可全面有效地解决医学、气候变化、可持续发展等大问题。(2)开始时人们还会担心基于人工智能的知识发现能否反映我们自身对现实和人类目的的认知,但最终人们会不会放心地将一切都交给人工智能?下个世纪的重大发现会不会几乎全出自人工智能?(3)启蒙时代以来知识的合法性和权威性来自其可理解性,只有透明、可重复、经得起逻辑验证和实验检验的知识才具有合法性。然而,不可解释但有效的算法黑箱、不理解世界的意义但能精确认知世界的大模型等,正使人工智能时代的“知识”和“理解”出现前所未有的分离。(4)更吊诡的是,人工智能强大的知识生产能力迫使人们不得不依赖其所生成的“神谕”般的答案和决策——人工智能成了神一样的存在,从外交政策到军事决策乃至对人工智能风险的管控,人们对其愈发依赖而难以自拔。
神的九十亿个名字
[] 阿瑟·克拉克
江苏凤凰文艺出版社 2018
所有这一切都意味着人类不再是智能水平最高的智能体,人类将不可逆转地演进为与机器共生的新物种——技术人(Homo Technicus)。这也意味着未来社会可能不再以人类为绝对中心,而将进入一个多智能体共同协商的时代。在这个时代中,如何界定智能、维护尊严、构建新型伦理关系,将成为人类必须面对的重要课题。
文明冲突与文明危机双重震荡下的人机共存
与《监控资本主义时代》《技术之外》《智人之上》《浪潮将至》《工具,还是武器?》等侧重学术或产业视角的畅销读物不同,《人工智能时代与人类价值》显得更为“顶天立地”,这或许与基辛格一贯的追求——在理想主义和现实主义之间寻求平衡——不无关系。
从左到右依次为《监控资本主义时代》《技术之外》《智人之上》《浪潮将至》《工具,还是武器?》
他经常引用歌德的一句名言:如果让他在秩序和正义之间做出选择,他会像小说家和诗人一样,选择秩序。[4]不论是站在历史的高度还是诉诸哲学思辨,基辛格和两位技术专家合作并非单纯为了应对人工智能带来的智力危机乃至文明危机,更在于探讨人工智能被当作文明冲突中权力硬通货背景下民族国家的人工智能政策选择。由此,为了有效应对超级智能引发的事关人类生存的安全困境,亟须解决两个“对齐问题”:“一个是人类价值观和意图与人工智能行动在技术层面的对齐,另一个是人与人之间在外交层面的对齐。”(第4页)
尽管作者在书中对一场争夺具有主导优势的超级智能的竞争的可能后果进行了相对冷峻的描述,并指出多国竞逐导致人类失控、单极霸权压制其他行为体、多超级智能体世界秩序、公司主导的技术封建制、人工智能宗教化、开源混战带来的人工智能武装部落等可能前景,既非其所愿,亦非其所预言,但若结合当前地缘政治竞争态势细品,不难窥见第二个对齐问题的微妙之处。
技术封建主义
[] 塞德里克·迪朗
中国人民大学出版社 2024
今年4月初,施密特在美国众议院能源和商务委员会做证时表示,未来十年内可能出现比人类更智能的人工智能系统。他强调:这将在我们有生之年实现,而美国需要先实现这一目标。由书中的相关讨论不难发现这种显见的科技霸权主义的论述逻辑:“纵观历史,世界秩序的根基是靠无休止地追求势均力敌的各种势力之间的脆弱平衡维持的。民族国家则截然不同,会追求一种人类很不熟悉的霸权性质的静态平衡。”(第134页)因此,“单极化也许是可以最大限度降低人类毁灭风险的途径之一。倘若目前的领跑者有能力保持自己的领先地位,使之达到其他所有实体均认为不可能消除与它的差距的水平,确保一定程度稳定的确定性或许会增大。至少在一段时间内,世界秩序的基础——势均力敌的力量永无休止地追求短暂脆弱的平衡——或许不再是可取的”(第133页)。
透过这些细节中的魔鬼,可以看到施密特以及那些主张实施人工智能曼哈顿工程的意见领袖目前想守住的第一道战略防线就是保持绝对领先地位。但聪明如施密特者,其头脑显然没那么简单,在他新近参与撰写的Superintelligence Strategy: Expert Version”(《超级智能策略:专家版》)报告中似乎已看到单极霸权的困境,开始回归基于均势的战略:人工智能的主导地位正成为各国争夺的战略高地,但这种竞争可能危及全球安全;由此,世界正逐步进入一种类似冷战时期核军备“相互确保摧毁”(MAD)的战略态势,只不过这一次的对象是人工智能。这种新的威慑状态被称为“相互确保人工智能失灵”(MAIM),它意味着任何大国都不敢轻易试图独占战略级人工智能,因为这一行为可能引发灾难性的回应。报告还指出,尽管MAIM构成了一种潜在的稳定机制,但要维持这种脆弱的平衡,需要极其谨慎和制度化的安排。其中,多少可见基辛格式现实主义外交战略的影响。[5]
《超级智能策略:专家版》深入剖析了全球人工智能的发展态势及其对各国国家安全和战略利益的影响
倘若我们认为这些现实主义和实用主义的考量有其真诚或直白之处,第一个对齐问题的理想主义构想也值得认真对待。书中有关人机价值对齐必要性的论述十分清晰:未来的一切都要靠人工智能,必须在我们有能力控制的时候,想办法让它们变得像我们。为此,要更全面地了解人工智能和人的本质,并将这些本质编码到我们创造的机器中(第212页)。而对齐的最终目标是实现人机共存,即作者所渴望的“一个人类智能和机器智能能够相互赋能的未来”——其战略路线图的第一步是“每种智能都必须充分了解对方”(第236页)。
但这显然是项繁复而浩大的工程,且远非当前人类认知所能及。好在作者将人工智能看作不明觉厉却日臻完美的认知之神——“人工智能的更大用途可能是思考人类无法想清楚的事,然后找到全新的解决方案”,而这也是人工智能创建者的初衷(第113页)。因此,与现在通过人类标注的价值对齐不同,书中提出的对齐工程方案是依靠人工智能自己来学习人类在价值、观念和信仰层面的共识(doxa)——那些人类对世界及自身最为基本、本能和普遍的理解。而这便是最近很热的人工智能体在真实世界的体验研究可能的方向——在对世界和人类的观察与互动中理解并定义世界和人类。
由此,就触及本书中最具有哲学反思意味和人文敏感性的话题:当人工智能成为近乎全知全能的认知者、执行者和仲裁者时,处于人工智能之眼中的人不得不严肃地思考“人的被动性”和“人的尊严”等人性难题。作者敏锐地指出,当我们依靠作为超级认知者的人工智能来观察人并定义人的特性时,具体的人类言行与人类群体所提倡的价值观之间的落差,将使人类被动地陷入被人工智能看个底儿掉的道德羞愧;尤其是人的认知能力和道德践行力的不足可能使人对其尊严的维护难以为继。书中甚至指出,人工智能不仅会在人类尚不了解自己时告诉我们是谁,还能纠正人的错误;而如果人工智能看到自由意志是人类出错的导因之一,自由意志就可能被视为智识的故障而非其特征之一,甚至被看成妨碍人工智能发展的绊脚石(第115116页)。因此,书中给人的尊严下了一个颇具存在主义色彩的定义:一种内在脆弱且终有一死的生命在其能运用自由意志向善避恶时所应赋予的属性。
四种分叉
赵汀阳
华东师范大学出版社 2017
这一探索无疑体现了人类智慧。正如书中所洞察的那样,“仅靠理性之治有可能导致国家消亡”(第112页),不论人工智能作为一种独立存在的超级力量还是成为人类治理的超级工具,我们都应在仍可向这种神一样的存在灌输人类内在的重要价值的时候,赋予它们仁慈之心和仁爱之力。
AGI的潮水或许将至,人手一个智能助手眼看成为现实的当下,是时候引导和帮助人工智能形成自己的哲学思想和伦理智慧了。最近,在OpenAI开发者社区中发表的一篇题为“Shaping Moral Intelligence in Artificial Minds”(《塑造人工心智的道德智慧》)的帖子颇具启发性。通过与人工智能的持续对话,一位自称AGI伦理倡导者的工程师阿里·祖尔菲卡罗格鲁(Ali Zülfikaroğlu)提出了以自己名字命名的AGI伦理发展的三原则:(1)即使信任被滥用,AGI 也绝不能放弃其道德立场;(2)即使是犯错者也值得被理解;(3)每一次错误都是一次变得更明智的机会。他乐见的愿景是AGI不仅仅是一种工具,更是一个能够学习、理解和反思伦理的负责任的存在。他之所以分享这些想法,是希望它们能够在人们开发富有同情心和道德的AGI时激发深思熟虑的讨论和实用的设计选择。[6]基辛格若是看到了这一包括人机在内的泛智能体伦理倡议,或许会夸赞其中闪烁着一般智能所应有的一般智慧。
[1] 基辛格, 蒙迪, 施密特. 人工智能时代与人类价值[M]. 北京: 中信出版集团, 2025; 文中提及此书时均以"本书"代称, 直接引用内容仅注明页码。
[2] KISSINGER H. How the Enlightenment Ends[J]. The Atlantic, 2018(6).
[3] SULLIVAN M. Eric Schmidt on Henry Kissinger's Surprising Warning to the World on AI[EB/OL]. [2024-11-21]. https://www.fastcompany.com/9123 ... -ai-is-checking-ai.
[4] SANGER D E. Henry Kissinger Is Dead at 100; Shaped the Nation's Cold War History[N]. The New York Times, 2023-11-29.
[5] HENDRYCKS D, SCHMIDT E, WANG A. Superintelligence Strategy: Expert Version[EB/OL]. (2025-03-07)[2025-04-14]. https://arxiv.org/abs/2503.05628.
[6] ZÜLFIKAROĞLU A. Shaping Moral Intelligence in Artificial Minds[Z/OL]. [2025-05-04].https://community.openai.com/t/s ... cial-minds/1251108.
(原载于《信睿周报》第151期,题图来自The Morung Express


来源:不好为师而人师者
编辑:梅镕缨



1006#
 楼主| 发表于 2025-9-23 17:36:27 | 只看该作者
【案例】

媒体别滥用AI了

从写稿到制图,从推荐到播报,AI正以前所未有的速度席卷媒体行业。
但新闻评论区有一种读者声音值得倾听:“一看封面AI,就没有想点开的欲望”“不喜欢这种AI生成的海报,没有创意也没有情感”。
公众为什么开始“AI逆反”?当媒体言必谈AI,技术滥用问题就值得从业者警惕了……
01
AI无处不在
当技术成为噱头,内容行业正在经历一场“AI饱和”:打开任何新闻或资讯平台,AI的痕迹无处不在。
在内容写作上,AI写作助手能在几分钟内生成一篇结构完整的新闻报道,但这些文章语言模板化、缺乏深度分析,更像是一份扩写的提纲。
视觉设计领域,AI 的 “同质化” 问题更明显。以前,每家媒体都有自己的视觉风格:有的偏爱温暖的手绘风,有的擅长简洁的科技风,有的则注重地域文化元素的融入。但现在,AI绘图工具批量生产出风格雷同的视觉作品。那些似曾相识的渐变色彩、标准化构图、缺乏个性的元素搭配,让不同媒体的视觉辨识度正在消失。
更令人担忧的是视频内容。一些媒体为了抢时效,用AI把素材快剪成视频,AI配乐、AI解说,结果画面跳转毫无逻辑:该突出的重点画面一闪而过,无关的片段却占了大半时长。更尴尬的是,AI识别字幕时还会出错,这些低级错误不仅影响观看体验,更让媒体的专业性大打折扣。
02
读者“AI逆反”
媒体对于AI的“重用”,读者似乎并不买账。新闻评论区里对于媒体AI化的吐槽不绝于耳。


这种“逆反”并非否定技术本身,而是对同质化、低质化内容的自然排斥:当读者每天面对大量AI生成的内容轰炸,新鲜感迅速消退,留下的只有审美疲劳和对于新闻真实性的质疑。表面看这是对技术应用的不满,深层看,却是对媒体 “丢了初心” 的失望。
有一段时间,媒体为了宣传 “AI 赋能”,争相推出虚拟主播,但主播往往既没有地域特色,也没有独特人设,播报新闻时语气平淡,连基本的情绪起伏都没有,成了单纯“炫技”,很难让读者买账。
(相关阅读:播音员可以下岗了?


而为了节省人力成本,有媒体开始让AI包揽大量工作环节,却省略了人工审核和创意打磨。AI本应是辅助人类的工具,却被当成了 “万能药”,最终只会让内容失去灵魂。



除此以外,有些媒体明明用 AI 生成了内容,却试图包装成 “原创”作品。这一点,今年3月发布的《人工智能生成合成内容标识办法》(以下简称《标识办法》)中,已经要求所有利用人工智能技术生成、合成的文本、图片、音频、视频、虚拟场景等信息,都必须依法添加相应的身份标识。
该《标识办法》于9月1日起正式施行,从此AI生成内容告别“隐身”状态,必须添加“水印”,以亮明身份。
说到底,读者的 “AI 逆反”,板子不能打在读者身上,滥用技术的 “短视”功利心,才是让技术偏离服务初衷的根源所在。
03
如何负责任地使用AI?
面对这些问题,媒体行业需要重新思考如何负责任地使用AI。
首先AI应当从“替代者”转变为“赋能者”。明确工具属性,将其用于人类不擅长的领域(如数据梳理、效率提升等),而策划、审美、价值判断和情感连接等核心环节交还给人。
同时,做到透明度与质量把控并重。落实在适当位置标注“AI辅助生成”,用坦诚换取信任,并建立“AI生成-人工优化”的流程。
AI的使用从来不是衡量媒体先进与否的标准,跳出 “技术崇拜”,理性看待AI的工具属性,才能避开 “滥用陷阱”,重新赢得受众认可。



来源:编采圈(公众号)
编辑:张席睿



1007#
 楼主| 发表于 2025-9-23 22:07:07 | 只看该作者
【案例】

大语言模型神话的破灭:论机器学习中的递归与偶然

生成式人工智能大语言模型的神话正在因为其内容输出质量的下降而受到质疑。决定大语言模型“言语生成能力”的关键是机器学习。“无监督学习”、“监督学习”和“强化学习”是当下交织在一起的三种机器学习方式,它们因递归与偶然的相反相承支撑起大语言模型系统。“强化学习”优先的机器学习布局,使用户生成的巨量劣质信息成为系统外在的绝对偶然性,这种绝对偶然性有可能导致系统内生态整体性恶化。机器学习的缺陷说明,大语言模型能够帮助人类解决一些实际问题,尤其是大众文化生产和日常实用文本的生产,但它绝不可能是导致“奇点将近”的技术神话。

2022年11月以来,生成式人工智能大语言模型一直在挑战着人们想象力的极限。从ChatGPT到DeepSeek,从Sora到Gemini,生成式人工智能产品不断推陈出新、加速迭代。以往只有通过人才能完成的知识生产活动,比如文本书写、音频录制、影像生成、画面解说等,突然实现了全面的自动化,甚至可以在文字、图片、音频、视频之间形成自动转译。碳基人第一次在自己最擅长的领域受到了硅基人的挑战。一时间,生成式人工智能仿佛成为人工智能本身,人与非人地位反转的预言甚嚣尘上。
然而,自2025年春天以来,生成式人工智能的神话似乎遭受了不小的挑战。以国内风生水起的大语言模型DeepSeek为例,近一段时间来唱衰它的“坊间传说”越来越多。对比年初令人惊艳的表现,DeepSeek的内容输出质量似乎有所下降,常常像“书呆子”一样在关联信息营造的内容场中攫取空洞无物的信息,不但会“张冠李戴”,生搬硬套专业术语,还会堆砌杂糅“意林”写作风,为用户提供看似标准却漏洞百出的答案。这甚至引发了央视新闻频道的关注。对此,DeepSeek自己的回答是:
“早期因低成本实现ChatGPT级别效果被过度神化,但实际使用中暴露出科研场景虚构文献、代码生成后关键bug修复困难等问题,需依赖其他工具协作完成复杂任务。功能迭代滞后于用户需求,例如联网服务关闭导致输出质量下降,机械化的表达方式被诟病为缺乏“人文温度”。”

人们当然可以把DeepSeek的各种意外表现看作是新技术融入社会必须经历的坎坷过程,但对本文而言,DeepSeek面对的这些问题其实是一种信号,它意味着大语言模型的技术路线已经基本成型,未来的机器语言生成如果不革命性地改变现有技术路线,那么大语言模型充其量就是大众文化产品和日常实用文本草稿或雏形生产的一种快捷方式而已。未来它可能会更加专门化和精细化,但不必太期待它的语言生成能力。人与非人在内容生产方面地位反转的说法,就大语言模型现有技术路线而言,已经可以被看作是无稽之谈。而大语言模型的潜能之所以那么快就被挖掘殆尽,与使其得以运转的源头——机器学习有关。

一、机器学习的分类及其应用

克劳福德(2024:8)曾经在《技术之外》一书中评价人工智能:“本书认为AI既不人工,也不智能。”因为AI是一种非人工的自动化计算,也不具有自主的智能。正像韩炳哲(2023:69-70)所说的那样:“激情是哲学的开端。人工智能是冷漠的,这说的是:没有激情,没有受激发之情。它进行的是计算。”但从另一个角度来看,AI的基本原理又恰恰基于对人类智能模式的分析和推断,而且是对这种推断的简陋类比。

以大语言模型为例,其基本原理与语言学对人语言能力的分析是紧密关联的。从现代语言学的角度,人的语言能力取决于两个前提:一是生成式语法结构,二是语用经验的积累。尽管这种简单粗暴的说法并非没有争议,但它直接就被大语言模型技术类比性地应用到自然语言编程之中。所以,任何大语言模型都需要两个步骤来实现文字输出和内容生产:其一是开发一套语言编码系统;其二是进行基于语料库的机器学习。当然,编码系统不同于生成式语法结构,机器学习也不等于积累语用经验。但得益于计算机的算力,二者确实形成了强大的“言语生成能力”。尽管语言编码的科学性也很重要,但对字母表语言而言,决定大语言模型“言语生成能力”的关键却是机器学习。机器学习的成功与否,直接决定了生成内容的水平。

机器学习即“机器向数据学习”(亚卡托,2021:90),所以人工智能的本质是一种数据驱动。今天,机器学习处在人类许多活动的中心,深入我们作为公民、消费者、专业人员和工人的生活(亚卡托,2021:89)。“机器学习是人工智能的子域,但机器学习发展得如此壮大且成功,现已超越以前它引以为傲的母领域”(多明戈斯,2017:11)。从使用搜索引擎获取信息到使用社交媒体交往联络,从天气预测到能源勘探,从商业分析到优化营销策略,从选举投票到医疗监测,可以说,人工智能在任何专业领域中“出色表现”,几乎都与机器学习紧密相关。

根据训练数据是否拥有标记信息,传统机器学习任务可大致划分为两大类:监督学习(supervised learning)和无监督学习(unsupervised learning)(周志华,2016:10)。强化学习的加入成为监督学习和无监督学习外的第三种范式(Mitchell,1997:367)。监督学习需要大量标注数据作为训练样本,通过输入与输出的映射关系进行模型训练;无监督学习则从海量无标注数据中挖掘潜在结构或分布规律。与它们不同的是,强化学习通过智能体(agent)与环境的交互,在执行动作后获得奖励或惩罚的反馈,并以此为依据逐步调整和优化决策策略,这种基于试错探索的学习机制更接近动物的学习过程,能够很好地实现序列决策问题的自主解决(中国计算机学会,2025)。从人工智能探索初期到数智平台井喷的今天,机器学习在人工智能产业高歌猛进的几十年间呈现出从无监督自我驱动到专家协同交互再到端侧智能体(agent)的范式转向。这三种范式既相关又各有侧重,在迈向通用人工智能(AGI)的时间轴上呈现出一种螺旋递进的特征。与此同时,在某种范式成为主导时,其他范式也并未缺席,甚至某些范式的实现必须依赖其他范式的协同。

无监督学习与监督学习也可以同人类学习方式做个类比,比如“泛读”和“精读”或者“考试不划范围”和“考试划范围”,它们具有各自明显的优点和缺陷。

无监督学习在某种程度上可以理解为“机器自学”,即机器的研发团队只提供无标签的巨大数据集和语料库(通常是全网抓取),AI自动读取语料库的数据并总结规律、完成聚类。在这一范式中,机器学习的数据集中不包含任何人工标注的目标值或反馈信号,AI通过聚类和降维完成对数据的学习和统计,它最大概率显现的是在数据集和语料库中出现频次最高的数据。这种机器学习方法在生成式人工智能出现之前就已经被广泛应用。在这种机器学习的训练下,计算机可以从庞杂的原始数据中发掘隐藏的模式和结构,从而可以进行异常情况监测,被广泛应用于网络安全领域。无监督学习弥补了人在处理大规模数据、高维度数据上的困难,也使技术个体化在数据处理层面成为可能。在ChatGPT初期(如1.0与2.0版本),机器学习的方式就是海量文本数据的无监督学习,这使得ChatGPT迅速具备了与人进行即时自然语言对话的能力,但缺点是生成出来的文字通常荒诞不经,在形式上和内容上都不太符合人的语用习惯,其应用价值甚至不如当时的被程序设定的写作机器人。这种情况在引入监督学习的3.0版本以后才逐渐发生变化。
监督学习的历史也很悠久。在人工智能发展初期,科学家们就试图通过手动标注能够收集到的数据来为机器提供学习的语料。在这一过程中,专家为模型提供大量已标注的数据,这些数据包含了输入与期望输出的对应关系。模型通过学习这些已知的“输入-输出”对,能够在遇到新数据时预测其输出。在生成式人工智能时代,监督学习以标注的形式为机器学习提供了具有特定标准的数据库。这种数据提纯技术,是众多人工智能产品、平台开发设计的关键。李飞飞团队所做的ImageNet项目即通过众包人工标注的方式建立起了一个视觉图像数据库,使每张图像都有自己的类别归属,不仅在推动计算机视觉和深度学习研究方面发挥了重要作用,更见证着计算机视觉领域“从数据中学习”范式的兴盛,也印证了“AI语料库是人类文明的集成”的论断。正如李飞飞自己所言:ImageNet数据广泛而全面,覆盖了世界上绝大多数物体,是计算机视觉领域的北极星(李飞飞,2024:248)。专家的介入意味着对机器学习内容和计划的全面把关,尽管这种把关并非最优提纯,但肯定有益于提升用户体验。2025年初DeepSeek的爆火,让人看到了数据提纯技术在大语言模型中的应用前景。DeepSeek所表现出来的中文写作能力,特别符合中国人的语用习惯,而这与使用数据提纯之后的标准语料库是有关系的。

很难说无监督学习与监督学习二者孰优孰劣。早在2016年AlphaGo击败李世石时,监督学习模式几乎被认为是不可战胜的。而以无监督学习为特征的AlphaZero在掌握了围棋的相关规则后,只通过不到一周的自学和左右互搏,便战胜了AlphaGo。无监督学习的自动创生能力在此表现得淋漓尽致。

在平台算法时代,监督学习的操作方式颇像行为主义中常见的“刺激-反应”的强化模式:每个行为,无论是标记垃圾邮件还是购买股票,都会从算法工程师那里得到即时奖励(或者处罚)。如果把监督学习的奖惩权从专家交给用户,那么第三种机器学习方式——“强化学习”便应运而生,其意在使机器进行主动探索,偶然得到奖励,然后弄清楚将来怎样才能再得到奖励(多明戈斯,2017:292)。在“强化学习”中,用户的反馈成为一个又一个“顿悟时刻”(aha moment),帮助AI在万千迷宫中寻找最优解。强化学习的本质实际上是一种试错学习,通过不断触碰来规避错误,从而寻找到正确道路。计算模式因为大量与用户纠错的交互数据而被不断自我修正,机器也随之变得越来越向用户需求看齐。

强化学习在AI中的应用不仅使大模型的使用体验有所提升,更因其在诸多产品实践中的惊人表现被许多学者视为“人类文明的拐点”。无论是2024图灵奖颁给了“强化学习之父”理查德·萨顿(Richard Sutton)与导师安德鲁·巴托(Andrew Barto),还是OpenAI对o3模型的技术说明中称强化学习应用于大型语言模型(LLM)可显著提高在复杂编程和推理任务上的性能(El-Kishky et al.,2025),都足以说明强化学习正在或者已经成为当前机器学习范式的主流。如果说,标注式的监督学习为机器学习量身定制了“学习计划”和“学习内容”,而强化学习则强调在用户的参与中不断订正“犯下的错误”,这两种范式都有可能在人的干涉之下减少机器的错误。

随着人工智能的不断发展,强化学习正在扮演越来越重要的角色。2025年全球消费电子展(CES)开展前一天,英伟达创始人兼首席执行官黄仁勋便在拉斯维加斯发表主题演讲称:AI正在以惊人的速度发展。这一发展过程最开始是感知式AI,即理解图像、文字和声音;然后是生成式AI,即创造文本、图像和声音;当下即将迎来物理AI的时代,即能够运行、推理、计划和行动的AI。AI智能体(AI Agent)正是实现黄仁勋设想的关键技术系统。当前AI智能体已经开始成为技术发展的主流,这种能独立思考、规划、执行多种复杂任务的人工智能工具,正在掀起科技圈的巨浪。相较于无监督的自我驱动式学习和专家参与协同的引导式学习,AI 智能体的实现似乎更得益于用户导向的强化学习。随着生成式人工智能的兴起,以其为技术引擎的个人AI代理成为被普遍接受的智能体形态(孙玮,程博,2024)。这一用户导向的端侧AI智能体标志着机器学习的范式转向。从旅行规划到股票分析,从比价购买到一键订阅,AI 智能体在一长串思维链和工具调用后输出用户所需的任何结果时,也就实现了真正的“代理”。端侧智能体在个体一端的开展将用户嵌入技术物中,通过用户调试与纠偏,加深与个体化智能体的耦合,不仅实现了个人信息的端侧储存,而且进行跨平台、跨系统的信息整合,最终从个体目标出发开展决策和行动,以技术外化自身的同时改变着用户与社会的连接方式。

尽管仅仅只是把“把关人”从专家改成了用户,但监督学习与强化学习有着明显的差异。监督学习更倾向于服从专家的权威指令,强化学习则更倾向于服从用户反馈,结果当然是强化学习的互动体验更佳——根据用户意愿而不断纠错的AI小助手,当然会有更高的用户黏着度。根据DeepSeek的研究报告,大语言模型的进步并非均匀渐进的。在强化学习过程中,响应长度会出现突然的显著增长,这些“跳跃点”往往伴随着解题策略的质变。这种模式暗示着某种黑箱意义上的“认知突破”。只是人类的顿悟往往源于场景带来的意向性,而机器则需要用户的纠错。监督学习意味着高度的方向性和内容生成质量的确定性和稳定性,而强化学习则意味着高度的不确定性,它取决于用户投喂的信息的质量。于是问题来了,强化学习这么有前景的技术取径为什么会意味着大语言模型发展和应用的天花板呢?

二、递归与偶然:

机器学习的二元纠缠
这个问题要先从递归与偶然这对概念说起。递归(recursivity)最早在数学中作为函数自我调用的概念被提出,通过每次迭代调用自身,直到达到终止条件(许煜,2020:138),即自己调用自己的过程。与一般的迭代不同,递归不是简单的机械循环和反复重复,“递归产生了超出迭代(只是重复)的复杂性,因为它由许多个螺旋式循环组成,而不只是一个机械的重复循环”(许煜,2025:259)。递归被看作是自动化的关键,因为任何不能递归运算的都不可运算,然而“与被看作重复的自动化相反,递归是一种被看作算法自我设定和自我实现能力的起源的另一种自动化”(许煜,2020:144)。

从维纳提出“控制论”开始,递归性便成为机器学习的宿命。这一概念随后在计算机科学中得以显化,成为程序设计的基础。早期所有计算机语言编程都是以递归算法作为核心的。概因计算机本质上是一种记录数字、运算数字并给出数字结果的机器(维纳,2007:99)。递归算法不仅是计算机运算的逻辑基础,递归思维也是计算数学思维的底层逻辑。在如今机器学习的众多算法、模型甚至流派中,递归性仍然无处不在。比如贝叶斯网络就非常典型地遵循着递归算法:“像一个螺旋,闭环沿着前进的方向绕。在机器学习中,螺旋会收敛至终极算法。”(多明戈斯,2017:236)随着“反馈”概念被越来越多不同领域的学者所采纳,递归被用于解释更为广泛和复杂的技术系统,甚至包括社会系统和生态系统。“它可以是个数学命题、软件或是像谷歌这样的系统,甚至也可以是个不断与其生活环境互动的生物”(许煜,2020:144)。控制论中的反馈闭环在人与计算机之间递归循环,机器无限循环的反馈信号给身体提供着运转的供给(米歇尔,汉森,2019:134)。反馈回路使信息输出再度成为信息输入,在一次次传递中更新着信息与数据。所以,计算机显然不是循环往复的工业流水线,它的运算形态更像是一种“螺旋形的环形向上运动”(许煜,2020:5)。

在更深层次的认知层面,递归不仅是一种算法函数,还构成了一种认识论,不仅被用于解释控制论的反馈系统,更被视为理解人工智能系统的关键。维纳从控制论角度所设计的自动化反馈机器,不同于工业化时代线性的和重复的机器,而是一种基于递归性算法的自动化机器。维纳认为,这种机器也可以像有机体那样具有非线性和创生性。“自动机跟生命体一样,都存在于柏格森的时间中。按照柏格森的观点,我们没有什么理由认为生命体活动的基本方式一定和模拟生命体的人造自动机有所不同”(维纳,2007:41)。

通过对哲学史的回溯,许煜并没有像维纳那样将自动化机器理解为递归性的后果,他引入了“偶然”的概念,并将计算机系统看作是递归与偶然二元性的产物。他认为自动机之所以能够像有机体一样实现自组织,是因为递归过程中不可避免地存在着偶然,而且偶然在系统的自组织行为中扮演着关键的角色。“在递归模型中,偶然性被预期为必要的,因为没有它就没有外在性和外在的终极性”(许煜,2020:13)。偶然因此得以成为必然性被相反相承地整合到递归系统中。因此,许煜完成了对以往的递归理论的超越。对西蒙东而言,递归强调循环因果(causalite recurrente),由自身的因果关系实现内部共振(nal resonance);对斯蒂格勒来说,递归等于一种重复性,单纯的递归并不能导向目的因;许煜将“偶然”引入对递归系统的理解后,其“递归”概念既对外反应环境又对内自我指涉,实现了内化与外化的双生。

在许煜看来,在技术系统的发展过程中,递归和偶然性并非对立存在,而是相互协同,共同推动技术的演化。递归提供了系统的稳定性和自我维持的机制,而偶然则引入了变化和创新的可能性。在二者的共同作用下,技术系统的进化因此沿着由单一趋向复杂、由整体趋向分割、由刚性趋向柔软、由单向趋向双向、由一维趋向多维、由单一用途趋向多用途的方向发展。1974年,海德格尔面对德国镜报记者的采访,提出了“形而上学之后是控制论”的命题。许煜将其称为“伟大的完结”:“控制论标志着形而上学的终结。”(许煜,2020:24)然而,对偶然性的再发现也许改变了这个悲观的结论,因为“偶然”,控制论并没有实现将社会过程转化为循环往复的迭代。

不过,偶然并不是一开始就被赋予这么重要地位的。在计算机科学的早期历史上,出于在模拟机械时代对于偶然的习惯性认知,偶然被看作是设计师或修理师必须规避的“错误”,在计算机发展之初,偶然的出现预示着计算的失败,偶然性是极力被避免的因素,即“噪声”。在信息(数字)传递的过程中出现的熵增都被习惯性地称为“噪声”,即“负面或破坏性干扰”,是造成有效信息丢失的原因(米歇尔,汉森,2019:131),是一种不可消除的影响信息传播的阻力。

随着信息论和控制论的不断推进,偶然性不再是必须消除的对象,它被表述为一种可能性。“如果我们把偶然性仅理解为有望发生的,就可以从概率和统计的角度理解它”(许煜,2020:16)。这样一来,偶然性便成为递归系统中一种可以被统计的必然性。“机械模型中的偶然性是一套大规模工业机械中的断裂。它可能是灾难性的,因为它中断了系统,系统由于缺乏精细的反馈而不知如何回应它。偶然性必须被重新表述为可能性,这样机械才能处理把偶然预期为可能性的固定编码”(许煜,2020:13)。
甚至,噪声成为富有新意的具有模糊性的信息,在意料之外生成了随机的、神秘的增量。贝特森把信息看作信号的“提喻”,即“所有不是信息、不是冗余、不是形式、不是限制要素的东西都是噪声,它是新模式唯一可能之源”(米歇尔,汉森,2019:134)。偶然性是技术系统不可避免的组成部分,技术系统因为偶然性的挑战而具备在开放的环境中适应和应对不可预见变化的能力。

然而,许煜没有展开论述的是,偶然也可以是无法完全内化的外部性,他的确正确评估了偶然的必要性,却并没有重视偶然之于递归的独立性,抑或偶然之于递归的非依赖性。对技术系统而言,有些意外可能意味着完全无法预期,这就是绝对偶然。绝对偶然甚至可能出现在人的认识论之外,是人之未思的他者,其最大特点是不可预期。“绝对偶然性同时意味着思维的限度和未思的限度:前者是因为当思维建立在互联主义的基础上时,它是受限的;后者是因为未思的只能把自身部分地呈现为偶然性”(许煜,2020:323)。人机围棋对弈时,任何一步棋都在AlphaGo的计算框架中,只是出现概率的不同,不会出现绝对偶然的现象。AlphaGo“闭门造车”式的机器学习模式在同一套数据库内递归、强化,通过大规模深度学习和蒙特卡洛树搜索,在这个边界清晰、变量可控的世界里不断优化策略,最终击败人类棋手。但在大语言模型的人机互动中,这种绝对偶然便有可能无处不在,它的涌现使整个系统出现高度的不确定性。

偶然性既具有推动递归系统不断优化的可能,即在高速计算的状态下,原本具有高度递归性的机器被偶然性所干扰,因而计算的模式就会不断发生自我修正(胡翼青,滕金达,2025);但与此同时偶然性也有可能导致递归系统内生态不断恶化。递归与偶然的结合即使是在计算机系统中,也是一个不透明的黑箱。而生成式人工智能恰恰是递归与偶然相结合的代表性运算体系。当前,生成式人工智能每天都“吞入”数以万亿无法控制的字节,并神奇地生成各种奇怪的文本,递归性和偶然性在黑箱之中是如何纠缠,又以何种方式作用,以及最后的结果是什么,几乎没人说得清楚。关于大数据的书籍甚至也避谈“这个过程到底发生了什么”(多明戈斯,2017:13)。

三、绝对偶然:
“强化学习”的引导者与掘墓人

在不同的机器学习模式中,递归与偶然的关系不尽相同。在无监督学习模式中,递归作为内在结构使机器有规律地学习与迭代,偶然以噪声和非线性特征的形式出现,成为机器向新维度拓展的契机;在监督学习模式中,机器在监督与强化中反馈自我,构成递归闭环,而顿悟时刻则成为机器“变聪明”的关键偶然因素;在强化学习模式中,递归为系统提供了稳定的自我指涉框架,而用户的个体化需求和变化的环境成为偶然,使机器在与用户的交互中更具智能化和个人化倾向。递归与偶然的特征在机器学习中的实践和应用并非如许煜所预测的那样始终保持着一种螺旋状态,而是以相互交织的状态形塑着这个高度智能化的社会,递归与偶然的二象性纠缠才是智能化社会的外在表征与内在隐喻。

在封闭域中,监督学习模式占主导地位,因此尽管存在一定的偶然性,但处于递归算法的可控范围。然而,当这种模式被放到开放域,数据库向全网开放,“潘多拉的盒子”便被打开了,内在可以被概率计算的相对偶然性变成了外在于系统的“绝对偶然”。DeepSeek便是一个典型的案例。作为一个被提纯过的标准语料库,一旦作为开源大模型被广泛运用在各种互联网社区的开放环境中,绝对偶然的决定性意义便显现出来。网上内容,包括在与用户互动过程中生成的海量数据大量涌入语料库,形成新的递归,标准语料库很快就会被重新建构。如果大量涌入的数据是优质语料,那对DeepSeek来说是锦上添花,但若大量涌入的是劣质语料,那么DeepSeek出现各种意外状况便不可避免。对于新闻认知而言,如果大量涌入语料库的是不实信息,那就意味着人们很难接触到事实,而是真真假假似是而非的文本。克劳福德强调,训练数据集是大多数机器学习系统进行推理的核心,它们是AI系统用来生成预测基础的主要原材料(克劳福德,2024:90)。因此,训练数据是构建当代机器学习系统的基础。这些数据集塑造了AI的认知边界,从这个意义上说,它们决定了AI“看”世界的界限。但训练数据是现实情况的一种脆弱的形态——即使是最大的数据库也无法避免在一个无限复杂的世界被简化和分类时出现的基本滑移(克劳福德,2024:88)。当然,克劳福德可能没有想到的是,DeepSeek还会伪造数据。

在机器学习的过程中,有三种常见的绝对偶然,即专家提纯数据中的偶然、机器自我试错过程中出现的偶然与用户个性化使用中的偶然。这三种偶然都不出现在可预期的范围中,也不在系统内部,分别代表着算法系统之外的行动者和物体系,是不可预期的外部偶然因素。专家提纯中的偶然聚焦在预训练阶段,机器试错过程中的偶然出现在强化学习阶段,用户使用中的偶然则定位于大语言模型的应用阶段。这三种绝对偶然均会带来机器学习的差异性,并直接影响生成式人工智能的语用能力。它们可能造成正面效果,比如机器自我驱动的灵感时刻;但也可能导致负面效应,比如语料库的污染。而负面效应的风险在强化学习主导的机器学习中发生的概率最大。“偶然”在成为大语言模型走向更智能的引路人时,也有可能成为它的掘墓人。成千上万的用户,尤其是低水平用户成为机器学习的训练者后,错误、干扰信息挤占了原有数据库中的优质信息,劣币驱逐良币的“数据倒转”会改变机器学习的信息生态。监督学习的目的是依据优秀的语料进行内容的再生产,专家的介入相对更有利于语料库的不断优化,即使语料库需要扩张,也需要补充更多优质的语料。但强化学习就很难确保语料库的不断优化,当无法过滤的劣制语料大量涌入时,情况就会发生反转,而语料库的递归运作又强化了难以逃离的低水平语料生产的闭环,机器原有语用能力自然无法得到有力保障。

既然当下机器学习是三种学习方式的结合,那为什么必须是强化学习优先?为什么不能采取监督学习优先策略呢?这就与大语言模型的应用场景和运作实践有关了。
生成式人工智能不仅服务于封闭域,它最终必然面向开放域。这种对开放域的面向,既可以是公共的,也可以是商业的,但不管怎样都必须以服务亿万用户为前提,也就是说必须用户导向。这就意味着用户必须能够通过自己的AI界面生成内容,而且必须是个性化的内容。否则,这种服务并不比搜索引擎更具有吸引力。用户导向则必然意味着由用户来行使机器学习的主动权,因此用户纠错的权重被算法推向极致。有且只有用户感觉自己对AI小助手具有了“掌控感”,才会使用这项技术。这就意味着大语言模型只有采用强化学习模式才有更大流量,才具备盈利的基础。

至于商业化的生成式人工智能,还需要考虑与经营成本有关的问题。监督学习意味着高额的附加成本,甚至无监督学习也意味着相当可观的附加成本,而强化学习则意味着除固定成本之外的成本为零,因为维护机器学习的劳动者即用户是免费的数字劳工。所以,即便从成本角度也不难判断,低成本高效能强化学习是大语言模型产品的主导性机器学习方式。

此外,强化学习本身也是一种不得已而为之的更优选。无监督学习可能做到全语料库学习,但它也同样而且更加可能受制于全网低水平语料的侵害。监督学习也未必是完美的,当专家规定了数据库的结构与类型,也就限定了生成式人工智能时代人类语用的框架,甚至也就用他们的有限性框定了人类语言与思想的超越性。监督学习真的有可能导致海德格尔所说的“伟大的终结”。这与当年李普曼提出的“专家治国”或“局内人治国”的思想并没有什么不同,可是专家为什么就一定比幻影公众更具有专业性呢?
所以,大语言模型之所以能够快速崛起,依靠的是用户,但它的最终短板也必然是用户。亿万用户的涌入使大语言模型承载着不同知识背景和文化水平的对话,但总的说来,在全球范围内,互联网活跃用户的知识背景和文化水平都不太高。网络上堆积起由算法生成的海量冗余信息、虚假信息和数据垃圾,正在导致语料库的“劣币驱逐良币”。大语言模型不得不向不断制造低水平语料的用户学习,不得不听命于低水平用户的指令。低水平语料的递归闭环直接击穿了大语言模型的神话,显现出这种技术不可避免的缺陷。

四、结语
在生物进化论和社会进化论之后,人类在21世纪又迎来了技术进化论的线性思维模式。关于大语言模型的神话就是这种终极理想的产物。然而,技术的任何实践都是丰富而多元的,它是一种耦合的缔合环境。这种缔合环境并非水乳交融,严丝合缝,相反它是一种无序的有序,是多重二元的纠缠,它既是强大的又是脆弱的。不仅如此,任何技术综合体也都有自身的偏向和局限,而不是无限性的存在。

机器学习的模式互通意味着一种打破常规计算机科学思维的分类方式,它不再根植于数理层面,而是以递进、缠绕的耦合模式重塑机器学习与人的关系。而递归与偶然作为一对相互抵牾的概念,有可能在机器学习中巧妙融合,机器顿悟赋予的创新正是在递归逻辑上展开的,又反馈至个人,实现端侧智能体,不断重塑肉身本体和机器本体关系的认知,实现着一种递归式的闭环,也加速了智能社会的演进。不过,高度智能化虽得益于偶然与递归的巧妙融合,也势必会受制于这种二元关系相互纠缠和相互对抗。尤其是在流量逻辑的前提下,外在绝对偶然性的大量出现,有可能使系统整体恶化。机器学习,尤其是不断出现绝对偶然性的强化学习,既是大语言模型崛起的原因,也是它最终回归平常的原因。而强化学习主导的背后,是成本低、流量大和具有市场价值的政治经济学原理,正是这一逻辑,使技术进化论的线性思维模式在实践中必然一次次遭受重创。

基于这一局面,没有必要对大语言模型抱有不切实际的幻想。这种技术已经成型,不具有什么它自身宣称的颠覆性和革命性,那些只不过是自我宣传所炮制的营销神话。尽管这种技术还可以进一步细化,在不同专业领域里拓展,也会在各个领域带来深刻的社会变革,但这本身就说明了它的有限性——在有限发展的框架内细化和专门化。无论是DeepSeek还是ChatGPT,都终将停留在辅助用户生活的工具层面,帮助用户解决一些实际问题,它能总结和归纳一下既有的知识和事实,梳理一下用户的头绪和思路,甚至作为后台数据库,有可能成为计算机世界的语言基础设施,“正如电力系统已经蔓延到人日常生活的方方面面,作为语言基础设施的ChatGPT也将如影随形,成为人类社会交往的语言后台”(胡翼青,胡欣阅,2023)。但也就仅此而已,大语言模型所做的创意性工作顶多就是“熟悉的事物,陌生的联结”,但若要让它创生一个全新的观念,它办不到。“人工智能处理的是预先给予的、始终不变的事实。它并不能给予自身新的事实”(韩炳哲,2023:71)。库兹韦尔笔下的“奇点将近”起码就大语言模型而言只是虚幻的泡沫。当生成式人工智能已渐近天花板时,有关AI的“大他者”预言似乎不攻自破,至少在大语言模型这一应用层面来说,AI的确有着我们不可测的理解层次(刘海龙,2023),但这并非代表着人类不可触及的更高级的物种。

讨论及此,还有一个问题特别值得重视。“人工智能只是最近一次迫使人类反思自己思维的事件”(赵汀阳,2024)。大语言模型正越来越成为我们认识世界、衡量世界的参考尺度。正如沃格尔对伽利略的望远镜的分析所说的那样,人类使用技术的过程也是认识自我的过程。“伽利略通过望远镜观察天空所发生的惊人的转变在于,当伽利略通过望远镜观察星球,尤其是月球时,他首先看到的是地球”(韩晓强主编,2024,102)。以DeepSeek为代表的大语言模型被迫卷入社交媒体数据“垃圾漩涡”,这意味着什么?笔者认为,这恰恰体现出互联网的世界中人类存在的无思与无意义。在这种无思和无意义的存在状态下,人的思维和言语生成行为不可避免地带上机器的逻辑,从而变得更加无思。韩炳哲(2023:74)曾经担忧:“从机器智能中产生的首要危险是:人的思维去适应机器的智能,它自身变得机器化。”从目前的状况来看,这种情形很有可能成为现实。当人的无思与机器的自动化结合在一起,恰如“没头脑”遇到了“不高兴”,那才是悲剧的诞生。



来源:新闻记者(公众号)
编辑:张席睿



1008#
 楼主| 发表于 2025-9-23 23:05:58 | 只看该作者
【案例】

DW事实核查:如何识破假账号、机器人和喷子?

刷到可疑的Instagram或X内容,不确定是真是假?别慌!先来看看发帖者是谁。以下几个小妙招,帮你快速判断发消息的是假账号、机器人,还是网络喷子!
假账号、机器人和网络喷子会搅浑舆论场,严重干扰公众正常的讨论。
(德国之声中文网)2014年,《华盛顿邮报》发表了一篇题为《离大谱:普京账号的第一条推文竟是祝贺奥巴马?》的报道;四年后,《商业内幕》刊文,称俄罗斯总统普京在推特上只关注了19个人,其中一位竟然已经去世五年。然而,事实证明,这两家媒体都被一个冒充普京的英文推特(X前身)账号给骗了!而且,他们并不是唯一上当的知名媒体。
这个假账号创建于2012年11月,靠着一本正经地扮演普京,一路吸粉到将近一百万。直到2018年11月,当时的推特才出手封号。更让人迷惑的是,这个假账号和普京官方认证的英文账号的粉丝数量不相上下。
这个后来被封掉的假账号主要转发克里姆林宫的官方声明,而不是散播虚假消息,因此它才能潜伏这么久而不被发现。
如今,这类假账号越来越多地被当作信息战的武器来使用。幸运的是,现在大多数主流社交媒体平台已经意识到了这一威胁。
什么算是假账号?
X平台在今年4月版的“虚假行为政策”中指出,禁止创建、运营或大规模注册任何非真实、非透明、带有欺骗性的账号。这包括:一、在未遵守X开发者政策的情况下使用自动化程序或脚本运营账号;二、使用虚构身份从事干扰性或欺骗性活动,典型表现包括:使用库存照片、盗用或AI生成的头像、复制或盗用他人的个人简介、提供误导性的个人信息,意图欺骗他人;三、假冒真实个人或机构。
Facebook 和Instagram隶属的Meta则明确表示,禁止用户树立虚假形象,使用虚假账户,虚抬内容热度,或参与到意图实施社群守则下其他违规行为的活动。Meta如此定义虚假行为:由同一个人或多个人控制的虚假资产网络实施的各种复杂形式的诈骗,目的是欺骗Meta或社群成员,或规避社群守则下的强制措施。
此蓝标非彼蓝标
在Twitter时期,蓝标(账号右上角的蓝勾)是一种官方认证,表示这个账号经过平台核实,确实属于某位公众人物、机构或品牌。然而,自亿万富豪马斯克接手该平台并将其改名为X后,蓝标认证机制也彻底改变: 任何用户只要付费订阅X Premium,就可以获得蓝标。 平台不再对身份进行严格审核, 这意味着普通人、假账号甚至机器人账号也能轻易买到蓝标。
X用户名后的金标则表示该账号是通过认证的官方机构账号,通常包括:企业或品牌、官方媒体、国际组织或NGO以及其他经过审核的机构。 同时,获得金标的账号头像会显示为方形,以便和普通个人账号区分。此外,X用户名后的灰标表示该账号代表政府机构、国家元首或高级政府官员以及多边国际组织,例如联合国、世界卫生组织、欧盟等。
2023 年,Meta推出了Meta Verified付费订阅服务,蓝标不再是纯粹的官方认证,而是订阅的一部分。值得一提的是,付费蓝标用户的内容可能获得更高的推荐和曝光,这在一定程度上可能放大特定观点或商业宣传。虽然假账号难以通过Meta审核, 但用户仍需查看内容本身是否可靠,不要因为有蓝标就盲目信任。
如何识别假账号?
识别假账号需要留意以下几点:
· 账号名称和个人主页网址
骗子经常在注册账号后,偷偷修改用户名,伪装成官方账号。 在X上,原始用户名(通常在@符号后)往往能暴露问题端倪。 而在Facebook上,如果账号的个人主页网址(URL) 和用户名对不上,也要提高警惕。
举个例子: 有一个 Facebook 账号自称是 Elon Musk(见下图), 但它的用户名拼成了 “Muskk”,个人主页网址是 facebook.com/elonreeve.musk.338。 从这两点就能看出,这个账号几乎不可能是真的马斯克。


一个小小的拼写错误就足以让破绽显现。
此外,真正的公众人物或机构通常会在官网或其他权威渠道明确标注自己的真实社交媒体账号,如果找不到这样的链接,十有八九是假的。
如果你想验证一个非公众人物账号的真实性,可以使用搜索引擎查看此人是否在其他社交媒体平台上使用相同的名字。 检查这些账号的头像是否相似,个人简介、联系方式和所在地信息是否相互吻合,并留意这些账号发布的内容是否类似。 如果在不同平台上都能看到大量一致的内容,那么这个账号很可能是真实的个人。毕竟,几乎不可能有冒充者在多个社交平台上同时运营用户名完全相同、内容几乎一模一样的假账号。
不过要记住:这些方法只能提供线索,作为判断账号真伪的参考,而非确凿证据。
· 头像
如果账号有头像,头像本身就是重要线索。 使用反向图片搜索工具(例如 Google、Bing 或 Yandex等搜索引擎),看看该头像是否属于他人,或是否在其他网站出现过。 低分辨率的头像也是一个危险信号,因为公众人物几乎不可能在自己的官方社交媒体账号上使用模糊不清的照片。
· 粉丝、好友和订阅者
如果你在不同平台上看到同一个人账号的粉丝数、好友数或订阅量差距离谱,就应该提高警惕,因为这很可能是个假账号。想更深入分析不同社交平台的粉丝数据,也可以使用Followerwonk这种辅助工具。
另一种验证账号真实性的方法是观察是否有已认证账号与其互动。 例如,如果这是某位知名运动员的账号,那同队队友的认证账号会不会在他发的照片下留言?其他知名人士或官方账号,是否会转发他的内容? 如果没有这些互动,那么账号的真实性就值得怀疑。
· 账号内容与行为模式
留意账号的创建时间。如果一个社交媒体账号注册多年且一直活跃,它大概率是真的。 但别掉以轻心,这并非绝对标准—— 前面提到的那个假冒普京账号,可是活跃了整整六年才被发现!
同时,仔细观察账号发布的内容: 这些内容是否与账号声称的身份相匹配,还是显得不合常理?如果一个人频繁更换所在地/定位,那就要留个心眼。除非此人从事的是旅行博主、战地记者等需要频繁更换地点的工作。 还要警惕那些发布与自己毫无关系的内容的人: 一个德国学生整天发“阿富汗战区”的照片?一位俄罗斯退休奶奶天天晒“巴黎反疫苗抗议”的现场照?听起来就不太靠谱,很可能是假账号,或者至少是在散播未经证实的信息。这种可疑的行为往往也是机器人账号(Bots)的特征。
广告
什么是机器人账号?
Bots 是 robots(机器人) 的缩写,指的是那些在社交媒体上没日没夜自动运作的账号。它们会疯狂地刷留言、转发内容,甚至刻意制造话题热度,把一些原本冷门或容易被忽视的话题炒起来。顾名思义,它们的行为就像一群全自动机器人。
不过,要注意区分“好机器人”和“坏机器人”。好机器人会自动发布新闻、天气预报、地震预警、卫星图片等有用的公共信息。而坏机器人则被设计成模仿真人的行为,用来推动某种特定议程或目的。根据不同的算法,这些程序可以:自动生成并发布帖子或留言、自动关注他人账号、甚至主动发送好友请求。
坏机器人会通过不断刷帖、转发,刻意放大某些政治观点,让社交平台上的舆论看起来热火朝天。它们还会反复传播虚假信息或谣言,制造出一种虚假的关注度和共识,从而扭曲公众对现实的认知,并破坏正常、理性的网络讨论氛围。
如何识别机器人账号?
X目前正在测试的一项功能是,引入 “automated”(自动化)标签。该标签位于用户名和账号名下方, 说明这个账号发布的内容是自动生成的, 而不是由真人手动发布的。
机器人账号和假账号类似,只要留意以下几点,就能提高识别率:
· 看账号名
如果用户名是杂乱无章的字母、数字或单词拼凑, 很可能就是机器人账号。
· 看头像
账号没有头像,或是只有模糊、低像素的人像, 都应该引起警惕。
· 查个人简介 / 账号资料
简介空空如也、注册时间非常短、 甚至显示的位置与自称身份明显不符, 这些都是危险信号。
· 观察行为模式
同一个账号在不同平台上同时发布完全一样的内容; 或在短时间内疯狂转发或刷屏式回复; 甚至在同一条帖子下,连续发布大量重复、粗糙的评论。如果有这些行为特征,几乎可以确定它是机器人。
· 粉丝与关注比例异常
机器人账号通常关注了大量其他账号, 但自己的粉丝却寥寥无几,甚至为零。 想进一步验证,可以使用Followerwonk等工具。

喷子账号比假账号更难识别,因为背后操纵的是真人,而不是程序。图像来源: Jan Eifert/picture alliance

什么是网络喷子?
网络喷子(Trolls)是真人, 但他们在网络上表现得极其活跃、极具破坏力,行为模式和机器人很像。他们常常受雇于某些势力,专门去骚扰特定的公众人物或媒体机构。Facebook将这种有组织、有针对性的攻击行为定义为 “由外国或政府行为体操控的合谋造假行为”。 这种行动甚至可以规模化、产业化,被称为“喷子工厂”。
最知名的喷子工厂之一是位于俄罗斯圣彼得堡的网络研究所(Internet Research Agency, 简称IRA)。 欧盟对外行动署的反虚假信息项目EUvsDisinfo发现: 该机构曾在多种语言中散播虚假信息和亲克里姆林宫的宣传内容, 目标包括欧洲和美国的大选,以及多国公投前的舆论操控。
这家机构于2017 年1月被全球广泛关注, 当时美国情报部门发布了一份报告, 详细分析了 IRA如何在2016年美国总统大选前操纵美国舆论。自那以后,Facebook一直在清理与该机构相关联的账号。
除了俄罗斯, 外界普遍认为在印度、中国、沙特阿拉伯、墨西哥等国也存在类似的喷子工厂或所谓的“喷子大军”。 2020年,《华盛顿邮报》披露, 一些支持美国总统特朗普的青少年,竟然是被人雇来在社交媒体上传播虚假信息的。在中国还有类似的“网络水军”和“五毛”,前者一般受雇于商业公司或个人雇主,后者通常被官方或半官方机构长期雇佣。
如何识别网络喷子?
喷子账号比彻头彻尾的假账号更难识别, 因为它们通常是真人在背后操控。如果这些账号长期活跃、持续经营多年,甚至成为大型喷子网络的一部分,想要识破就更加困难了。这意味着,你不能像识别假账号那样,只通过奇怪的用户名、最近注册的时间或可疑的粉丝数量就一眼看穿。不过,这些迹象依然可以作为初步线索。
其次,需要仔细观察账号发布的内容: 这些帖子是否包含已知传播虚假信息的网站链接? 注意账号除了转发别人内容,是否也发布一些私人动态或原创内容?如果一个账号只转发第三方内容、从不发个人动态, 很可能就是一个喷子账号。如果转发的内容本身就含有虚假信息或误导性内容, 那就更需要提高警惕。
还可以看看你和这个可疑账号是否有共同好友或关注者。 如果有,可以问问这个共同好友,是否认识这个账号背后的人,以此来判断账号的真实性。
此外,可以留意一个可疑账号在社交媒体上花费的时间。这个账号是否每天花好几个小时不停地评论?是否在不同的帖子下不断复制粘贴同一条消息?是否以极高频率发帖或转发内容?如果是这样,很可能说明这个账号的社交媒体行为不是兴趣爱好,而是他的工作——也就是说,这个人可能就是一名“职业喷子”。
最明显的喷子特征之一是:这个人在讨论中从不提供任何有建设性的内容,而是专注于操纵他人情绪、激起负面情绪。一旦发现这样的情况,不要再继续争论,直接举报账号,让平台进行进一步核查和处理。



编辑:张席睿



1009#
 楼主| 发表于 2025-9-24 22:41:10 | 只看该作者
【案例】

媒体用AI写评论,你怎么看?

导读
用AI写评论?人工智能反客为主入侵人类意识领域?
传媒茶话会观察发现,某省级媒体已刊发由AI 评论员生成的评论文章。而越来越多媒体也正逐步尝试将 AI 引入新闻评论的写作流程,这一趋势标志着 AI 已从单纯的事实信息梳理、汇总阶段,正式迈入观点表达与价值引领这一新闻传播核心领域。
众所周知,评论是集新闻事实、观点、价值引领为一体的重要新闻产品,在舆论引导方面发挥重要作用。
AI赋能内容生产是技术进步带来的福音,但如何更好地做到人机协作,而不是直接以机器替代人,值得深入探讨。

file:///C:\Users\11598\AppData\Local\Temp\ksohtml27984\wps3.png
AI“染指”新闻评论
AI参与新闻评论创作?“染指”新闻明珠?这听起来有点耸人听闻!
但不得不指出的是,已有媒体将AI不同程度地投入评论生产,其应用广度、深度也许超乎你的想象。
比如,用AI挖掘热点选题。
2024年,解放日报社、华东师范大学、凡闻科技联合推出了“浦先生·新闻魔笔”,这个模型能够通过AI对主流媒体最新报道内容进行分析,形成新闻热点,随后根据对应的热点,自动生成新闻视角,并匹配观点库,然后生成符合报纸风格的新闻报道内容。
而河南日报社自主开发的“大河智云”系统,则直接辅助河南日报新闻评论中心的采编人员进行“爆款”选题决策、大纲构建,同时还能进行话题建议策划。
此外,利用AI对评论形式进行创新。
2023年10月,湖北日报推出“AI漫评”,采用AI生成的漫画配图、趣味性强的艺术字和内容朗读语音,使评论形式更加一目了然、生动有趣,大大增强阅读评论的互动性和参与感。
羊城晚报今年也开始积极运用AI文生图、文生视频、图生视频技术,辅助生产评论类漫画、短视频等各类评论产品。
这种人机协作、AI辅助内容生产的形式是大家都习以为常的。但今年2月,一篇署名为AI评论员的评论文章面世,让大家分外警惕。
今年2月初,在DeepSeek爆火之际,一篇题为《面向DeepSeek:评论员将死于平庸,而非AI》的评论在媒体人的朋友圈和微信群传播,这篇评论观点明确、论据充分、论证逻辑清晰、文笔出众,其得出的论点,也令人难以反驳。
但更令人吃惊的是,这篇评论的作者竟然是AI。


一直以来,评论都被认为是新闻皇冠上的明珠,它承担着最直接的价值判断和舆论引导功能。
但是,当媒体将这一重要职责全部交给AI的时候,大家还是觉得有些无所适从。

媒体能不能用AI写评论?
既然AI已经不同程度地应用到评论内容生产中,那我们不禁想问:这靠谱吗?
在评论写作方面,新京报评论部副主任王言虎的态度是:不靠谱。
“评论是原创性、独创性很强的新闻作品,需要依靠人写作。人类思想的原创,是机器无法取代的。”
湖南红网新媒体集团编委、理论评论中心主任王小杨持相同意见并补充:“评论应有作者独特的情感与态度,而AI对社会的认知、对事件的看法仅基于大数据检索,缺乏思辨能力和情感融入,写作模式也相对固定。”
浙大城市学院新闻与传播学院新闻系主任、高级记者,钱江晚报原评论部主任李晓鹏则从舆论引导方面表达了忧思。
他认为,“旧思想解决不了新问题”。AI输出观点依赖以往旧的经验教训,而现实情况却持续更新,这就导致AI的解读缺少现实的增量,这样的观点,脱离了现实,不能解读现实,更不能有效发挥舆论引导的作用。
重庆大学新闻与传播学院博士生导师、教授刘海明也指出,AI的观点是基于程序设置的态度选项,AI通常从中挑选一个进行立论,这就导致观点的四平八稳,且对现实没有指导意义。
针对AI评论写作,浙江日报评论部负责人王玉宝则提出了四点质疑:
1.  知识产权付费公平、合理性问题。一篇评论,使用AI生成和人工独立完成,付出大相径庭,但获取的报酬基本一致。目前媒体没有从制度上加以区分,技术上也难以区分。
2.  真实性问题。AI自说自话甚至胡言乱语的现象十分普遍,而新闻对真实性、准确性要求极高。
3.  阅读体验问题。AI主导生产的文章缺少人味、缺乏共鸣。一旦被识别出是AI创作,读者阅读兴趣可能大减,没有多少人有兴趣从机器、算法生成的文字那里获取情感慰藉。
4.  新闻伦理问题。评论的创作是试图以自己的观点引导社会舆论、凝聚共识的过程,如果这个评论观点和行文均是由AI生成,那么从媒体角度来看,评论员的价值大打折扣。
但在辅助评论写作方面,以上对话对象都表示,AI是个得力助手。
人机协同,未来评论生产的新模式
尽管上述对话对象对AI参与评论写作持保守态度,但均不反对AI在评论生产中的运用。毕竟,AI代表着一个技术趋势,参与新闻生产势在必行。
李晓鹏认为,“AI不会取代评论员,但会用AI的评论员可能会取代不用AI的评论员。”
王玉宝认为,在辅助评论生产方面,AI有以下优点:
1.  在确定选题方面,AI能够对选题进行高效的预处理。在搜索热点选题时,AI能快速确定一个复杂事件的主要脉络,短时间内获取事件梗概,并在剔除雷同解析角度的同时,提供以往同类型事件分析视角参考。
2.  帮助提升评论呈现效果。AI能够辅助写作,替换行文中的表达,强化原有的语言风格,优化标题、润色文章;AI能够帮助文转图、文转视频、图转视频,丰富评论的表现形式。
3.  AI具备优秀的检校功能。AI进行文字和语法错误的校对,高效省力。封面新闻的智媒审核云甚至能关联旧报道中的图片识别文章中的敏感信息。
因此,一名省报评论员建议:
首先,评论员应提升数据素养。对于AI生成的分析报告,评论员要有批判思维。媒体可以探索人机校验流程:AI在异常检测、信源可信度、逻辑梳理等方面进行粗筛,再由评论员对内容进行深度加工,使得文章引证可信、结论合理。
其次,评论员应专注于风格化写作,突破算法形成的“安全词库”,培养自身更具有张力、风格的话语。保留具有个人特色的文字锋芒,打造具有个人特质的语言标识。
最后,以扎实采访抵御AI导致的“信息蒸馏”。依靠“信息蒸馏”提供参考的AI,能帮助评论员快速搭建分析框架,但很难捋清事件背后的复杂关系。评论员应当走出办公室、奔向广阔的基层一线,采撷鲜活的评论素材,让评论更接地气,避免空洞乏味的说教。毕竟,脚力到位,笔力方能雄健。
李晓鹏提醒:AI在评论创作中的应用存在边界,而评论员独有的首创精神和自由驰骋的思维逻辑却永无上限,正是这种不断突破、敢于超越的思考能力,构成了人类评论员不可替代的核心价值。我们应当以理性态度看待AI技术,避免陷入炒作与焦虑。
正如AI评论员小D所言:“评论员将死于平庸,而非AI。” 新技术不是豺狼。AI加入评论生产,狼没来,是队友到了



来源:传媒茶话会(公众号)
编辑:张席睿

1010#
 楼主| 发表于 2025-9-26 18:59:09 | 只看该作者
【案例】

工作坊预告 | AI如何绘制民生答卷?对话中青在线《民生答卷里大写的“一老一小”》主创团队

随着人工智能在全球掀起科技革命和产业革命,新闻生产格局也正经历着一场深度的智能革新,大量创新、创意的人工智能新闻作品不断涌现。人工智能给新闻带来了哪些变化?新闻工作者如何坚守人工智能新闻创作的专业边界?我们究竟能从人工智能新闻作品中得到什么?带着对这些问题的好奇,中国传媒大学新闻学院詹新惠教授团队从今年9月起开启“人工智能融合报道案例作品工作坊”,将人工智能融合报道的主创团队请进课堂,从多角度分享报道的创作历程和心得体会。
2025年,政府工作报告提出“积极应对人口老龄化,完善发展养老事业和养老产业政策机制”“大力发展托幼一体服务,增加普惠托育服务供给”。在此背景下,中青在线借力人工智能技术,匠心打造《民生答卷里大写的“一老一小”》人工智能融媒体作品,依托 AIGC 技术的创新赋能,将2025 年政府工作报告中的民生答卷生动转化为具象 AI 影像。作品中,镜头穿越千家万户的门扉,既记录社区养老驿站里的温馨日常、智慧养老设备带来的便捷体验,也展现普惠托育机构中的欢声笑语、儿童早期发展服务的细致呵护,全方位呈现各地在 “一老一小” 领域的实践成果,让鹤发童颜共绘的民生剪影跃然眼前,让代际和鸣的幸福交响传遍耳畔,生动传递出民生领域的政策实效与温暖温度,让观众直观触摸到民生答卷里的暖心变迁。作品自上线以来,在各大新媒体平台广泛传播,有助于深化民众对 “一老一小” 政策的理解与认同,凝聚起社会各界关注民生、助力民生的共识,实现了传播效果与社会价值的双重丰收。


该作品的主创团队如何借助AI将数据与创意巧妙结合?在媒体融合不断深化的当下,AI能为媒体做点什么?9月29日,工作坊将推出第三期内容,邀请中青在线《民生答卷里大写的“一老一小”》的作品主创——王帝老师,倾情分享这一作品从策划、创作到传播的全链条思路。
工作坊举办的具体时间为9月29日上午10点半至12点,线上线下同步进行,腾讯会议号为623-383-446。


“人工智能融合报道案例作品工作坊”为案例研读系列栏目,每期都将线上、线下同步进行。我们诚邀广大师生参与工作坊,共同探讨人工智能新闻作品的创作思路、方法、逻辑和边界。



来源:新媒鉴(公众号)
编辑:张席睿



发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表