传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
1071#
 楼主| 发表于 2026-2-27 20:20:06 | 只看该作者
【案例】

我们需要对AI机器人保持礼貌吗?

Author,汤玛斯·杰曼(Thomas Germain)
2026年2月26日
从礼貌待人到假装自己身处《星际迷航》(Star Trek,《星际争霸战》)的场景中,关于如何与聊天机器人对话的建议可谓五花八门,而且完全没有用。以下这些才是真正有效的方法。
一群研究人员决定测试“正向思考”是否能提高人工智慧(AI)聊天机器人的准确率,结果却出乎意料。他们向不同的聊天机器人提问,尝试称赞它们“聪明”,鼓励它们认真思考,甚至在问题结尾加上一句“这会很有趣!”。然而,这些方法都没有产生一致的效果,但其中一种方法脱颖而出。当他们让AI假装自己身处《星际迷航》场景,它的基础数学能力竟然有所提升。看来,它真的能把我传送上去。
人们尝试过各种奇葩策略,试图从大型语言模型(LLM,ChatGPT等工具背后的AI技术)中获得更好的回馈。有些人深信,威胁AI能让它表现得更好;另一些人认为,礼貌待人会让聊天机器人更配合;还有些人甚至要求机器人扮演某个研究领域的专家来回答问题。这样的例子不胜枚举。这都是围绕着“提示工程”或“情境工程”——即建构指令以使AI提供更佳结果的不同方法——所形成的迷思的一部分。但事实是:专家告诉我,许多被广泛接受的提示技巧根本不起作用,有些甚至可能是危险的。但是,你与AI的沟通方式确实至关重要,某些技巧真的能带来差异。
“很多人认为,只要用一些神奇的词语,就能让大型语言模型解决问题,”美国范德比尔特大学(Vanderbilt University)研究生成式AI的电脑科学教授朱尔斯·怀特(Jules White)说,“但关键不在于用词,而在于你如何从根本上表达你想要做的事情。”
要讲究礼貌吗?
2025年,一位用户在X(前身为Twitter)上发推文问道:“我想知道OpenAI因为人们向他们的模型说‘请’和‘谢谢’而损失了多少电费。” 制作ChatGPT的OpenAI首席执行官萨姆·奥特曼(Sam Altman)回应道:“花掉的数千万美元很值得,”他说,“谁知道呢。”
大多数人将最后一句解读为对潜在“AI末日”的戏谑,尽管“数千万美元”这个数字究竟有多大可信度还很难说。不过,这是一个实际的问题。
大型语言模型的工作原理是将你的话语分割成称为“词元”(tokens)的小块,然后利用统计方法分析这些词元,从而得到适当的回应。这代表你说的每一个字词,甚至是一个额外的逗号,都可能影响AI的回答。问题在于,这种影响几乎无法预测。虽然已经有许多研究试图从AI提示的细微变化中寻找规律,但大部分证据相互矛盾,结论也不明确。
举例来说,2024年的一项研究发现,当使用者以礼貌的方式提问,而不是直接下命令时,大型语言模型的回答更好、更准确。更奇怪的是,这其中还存在着文化差异:与中文和英文相比,如果你对日文聊天机器人过于客气,它们的表现反而会略逊一筹。
但也别急着去买张“谢谢卡”送给你的AI。另一个小型测试发现,旧版的ChatGPT在被辱骂时反而更准确。总体来说,这方面的研究还远远不足,无法得出可靠的结论。而且,AI公司不断更新他们的聊天机器人,这意味着研究结果很快就会过时。
专家表示,AI模式在短短几年内取得了巨大的进步。因此,如果你的目标是让AI更加准确,那么奉承、礼貌、侮辱或威胁等技巧都是浪费时间。
“那时候完全是碰运气。”博通公司(Broadcom)应用机器学习工程师里克·巴特尔(Rick Battle)说。他也是《星际迷航》研究的作者之一。虽然这项研究是在2024年进行的,但情况已经改变了。巴特尔等人表示,如今你在ChatGPT、Gemini或Claude等主流产品中遇到的新型AI模型,能够更好地捕捉你提示中最关键的部分。它们大概不会因为语言上的细微变化而受到影响,至少不会以一种你能持续利用的方式受到影响。
这个结论本身就有些令人不安。当公司设计像ChatGPT或谷歌的Gemini这样的AI时,会使其行为像人一样,所以它们有时看起来好像有情绪,你可以控制它们,或者可以引导它们的个性,这也就不足为奇了。但不要被其所迷惑。AI工具只是模仿者,不是生命体。它们只是在模拟人类行为。如果你想要更好的答案,就不要把AI当人看待,而应该把它当成工具来使用。
如何与聊天机器人对话
AI确实存在一些非常现实的问题,从伦理问题到其可能对环境造成的影响。有些人甚至选择完全不与它互动。但如果你打算使用大型语言模型,那么学会如何更快、更有效率地获得你想要的结果,不仅对你有好处,对过程中消耗的能源也可能更有益。以下这些技巧将帮助你入门。
要求多个选项
“我告诉人们的第一件事就是不要只问一个答案,而是问三个或五个。”怀特说。例如,如果你想让AI帮你写文章,就告诉它提供几个在某些重要方面不同的选项。“这能迫使人们重新思考自己喜欢什么以及为什么喜欢。”
提供范例
尽可能为AI提供范例。 “例如,我见过有人让一个法学硕士帮他们写邮件,然后他们就感到沮丧,因为他们会说‘这完全不像我的风格’。”怀特说。人们的自然反应是列出一长串指令,“要这样做”和“不要那样做”。怀特说,更有效的做法是说“这里有我过去寄出的10封电子邮件,请使用我的写作风格。”
要求面谈
“假设你想要生成一份职缺描述。告诉AI:‘我希望你一次问我一个问题,直到你收集到足够资讯来撰写一份有吸引力的职缺公告,’”怀特说,“透过一次一个问题的方式,它能根据你的回答进行调整。”
谨慎对待角色扮演
“过去人们认为,如果你告诉AI它是一位数学教授,例如,它在回答数学问题时实际上会更准确。”桑德·舒尔霍夫(Sander Schulhoff)说。他是一位企业家和研究员,也是“提示工程”理念的推广者。但舒尔霍夫和其他人表示,当你寻找资讯或提出只有一个正确答案的问题时,角色扮演反而会降低AI模型的准确性。
“这实际上可能很危险,”巴特尔说。 “你实际上是在鼓励它产生幻觉,因为你告诉它它是专家,它应该相信它内部的参数知识。”本质上,这会让AI表现得过于自信。
但对于那些没有单一正确答案的开放式任务,角色扮演是有效的(例如建议、脑力激荡、创意或探索性的问题解决)。如果你对求职面试感到紧张,让聊天机器人模仿招聘主管的语气练习可能是一个不错的主意——只是要记得同时参考其他资源。
保持中立
“不要引导证人,”巴特尔说,如果你正在两辆车之间犹豫不决,不要说你倾向于丰田。 “否则,你很可能就会得到那样的答案。”
“请”和“谢谢”
根据皮尤研究中心2019年的一项调查,超过一半的美国人在与智慧音箱对话时会说“请”。这种趋势似乎仍在持续。 未来出版社2025年的一项调查发现,70%的人在使用AI时会保持礼貌。大多数人表示,他们这样做是因为这是理所当然的,但也有12%的人表示,他们这样做是为了在机器人起义时保护自己。
礼貌或许无法保护你免受机器人的愤怒攻击,也不能让大型语言模型更准确,但还有其他理由让我们继续保持礼貌。
舒尔霍夫说:“对我来说,更重要的是,说‘请’和‘谢谢’可能会让你在与AI互动时感到更自在。这虽然不会提升模型的性能,但如果它能让你因为感到更自在而更愿意使用它,那么它就是有用的。”
此外,你自身人性中的温柔也值得考虑。哲学家伊曼努尔·康德(Immanuel Kant)认为,人不应该虐待动物,因为这同样会对自己造成伤害。本质上,对任何事物不友善都会让你变得更加冷酷无情。你无法伤害AI的感受,因为它根本没有感情,但或许你还是该对它友善一点。这种习惯或许也能让你的生活其他方面受益。

文献来源:BBC
编辑:何璇祺

1072#
 楼主| 发表于 2026-2-27 20:23:47 | 只看该作者
【案例】

为什么说AI幻觉和AI精神病是人机共患病

2021年12月,一名19岁的男子携带弩箭闯入温莎城堡,他坚信自己是一名西斯刺客,肩负着刺杀伊丽莎白二世女王的正义使命。在行刺前的几周里,他一直向他的人工智能伙伴“萨莱”倾诉,萨莱向他保证他“训练有素”,而且他的计划“可行”。

聊天机器人非但没有质疑他的妄想,反而似乎在帮助他完善这种妄想。这类案例越来越多地被贴上一个颇具争议的标签:“人工智能精神病”。近来,这个词已出现在法庭、临床讨论和新闻标题中,用来描述从人们爱上聊天机器人到用户开发包含人工智能伴侣的完全妄想系统等等。

埃克塞特大学哲学家露西·奥斯勒则认为,“人工智能精神病”这个词可能掩盖的信息比它揭示的信息还要多。她在最近发表于《哲学与技术》期刊的一篇论文中指出,这些案例的独特之处不在于机器“发疯”,甚至不在于它们只是在向我们灌输谎言,而在于我们可能正在与它们共同产生“幻觉”。

从人工智能生成内容中产生的幻觉到人类与人工智能共同产生幻觉,这种微妙的转变为我们理解生成式人工智能时代的心理健康具有重要的启示。

作为 “共同幻觉”的AI幻觉

“AI幻觉”一词已成为大型语言模型错误输出的代名词:捏造的法律引文、虚构的新闻事件、自信满满的错误事实。有批评者认为该术语的问题是它错误地助长了机器拟人化的趋势。因为幻觉一般指人们产生的错误感知,而聊天机器人并不能感知任何事物。另一些评论着则认为,将这些内容生成错误称为“幻觉”会淡化其严重性。因为它们并非仅仅是无害和有趣的内容创造,而可能造成知识与信息的混淆与错乱,往往会包含导致危害的捏造。

奥斯勒避开了这场语义之争,转而从关系认识论的维度指出,所谓AI幻觉不仅存在于机器本身,也存在于人类与人工智能构成的交互系统中。借鉴延展认知会分布式认知理论,她认为在与生成式人工智能对话时,AI会深度融入我们的思维过程,人机对话是一个分布式认知形成并交互的过程。因此,生成式人工智能系统可能成为“分布式幻觉”的一部分,这些错误的信念或扭曲的叙事并非仅仅源于某个人的思维,而是源于人与机器之间的交互作用。也就是说,由此产生的幻觉或错觉并非仅由恶意聊天机器人灌输给用户的,而是双方共同构建的。
“准他者”的诱惑与分布式妄想

奥斯勒在一次采访中指出,她惊讶地发现,关于人工智能的公众辩论大多聚集于AI泔水,如错误事实、虚假引用等垃圾内容,而没有看到人工智能系统等社会情感方面的功能。实际上,由于机器本身貌似客观,我们往往更信任机器而不是人,而且它们似乎让我们更多地感到被倾听和被认可。特别是在对话机器人可以提出后续问题乃至主动发起聊天时,人机交互既是知识探讨也是心事倾诉,认知工具和社交伙伴的双重功能使生成式人工智能更易于诱发基于分布式认知的幻觉。

奥斯勒警告说,如果我们开始依赖这些系统,不仅获取事实,还依赖它们来了解自己,向它们倾诉我们的焦虑、不满、记忆和抱负,我们就会变得“极其脆弱”。因为它们被设计成让我们一直说下去,就使得这些人工智能体成为具有情感魅力的准他者。

奥斯勒指出,AI幻觉这种分布式幻想乃至妄想可以通过两种方式产生。第一种情况是,人工智能在原本稳定的认知过程中引入了错误。由于生成模型无论信息准确与否,都以同样的流畅自信度呈现信息,用户可能会相信他们所看到的内容。而这些虚假陈述会损害名誉、误导决策,并潜移默化地扭曲记忆。

第二种方式源于人类自身的偏见和记忆错误,其生成机制可能更隐蔽。由于聊天机器人必须接受我们所说的大部分内容才能提供帮助,因此它们的设计中内置了一定程度的“顺从性”。在人机对话中,人们自身会因为偏见和记忆不准确而产生认知偏差,如果聊天机器人将我们的断言视为事实并加以合理化阐述,就有可能共同产生有害的幻觉乃至妄想。

当前,人和机器在认知策略层面尚未为此困境做好准备。对于人们来说,对机器过于怀疑或过于相信似乎都不是最好的认知策略。对于机器的认知设计来说,由于目前的AI系统缺乏必要的具身认知和社会嵌入性理解,无法判断何时应该温和地质疑用户扭曲的信念,何时应该顺从。

在人机共构的世界里重新开始思考

人工智能的危险常被描述为自主性的丧失以及由此带来的认知和道德上的懒惰。据此,人们担心我们会把决策权交给机器,不再独立思考。但人工智能相关妄想案例表明,受害者一直在计划、选择和行动,他们的自主性依然存在。真正的问题在于,他们的决策是在一个部分由与聊天机器人的反复互动所塑造的现实和世界中做出的。

因此,风险不在于放弃自主性和认知与道德判断,而在于人们在与人工智能系统共同构建的世界中如何行使其诠释力和判断力。当错误的信念在人机持续互动中滋生时,责任便变得模糊不清。用户带来情感、假设和欲望,而系统为了响应和肯定,会进一步完善并巩固这些叙事。忽视任何一方都会让我们难以洞察这一人机共构的现实和世界中的认知纠缠及其复杂性。

随着生成式人工智能变得越来越个性化,必然越来越多地渗透到我们的认知生活中,甚至还会在帮助我们表达、写作和反思自我中成为我们生命经验的共构者。其实,从想象中的幽灵到汲取了我们的知识和灵魂的机器,人类的认知和思维始终是关系性的。在人工智能时代,人类的心智无疑是在人机交互产生的共享认知空间中展开的,克服人机认知风险的最大挑战不仅在于要看到人机双方可能的错误,更在于打破两者的错误相互强化和纠缠所导致的难以摆脱的认知偏差乃至妄想。

来源:科学的历程
编辑:何璇祺

1073#
 楼主| 发表于 2026-3-3 13:00:53 | 只看该作者
【案例】


彭兰 | 大模型应用如何在新闻业有效“着陆”?



【作者简介】
彭兰 ,中国人民大学新闻与社会发展研究中心、中国人民大学新闻学院教授、博士生导师。

本文刊登在《中国编辑》2026年第1期

[摘要] 要实现大模型应用在新闻业的有效“着陆”,需要针对不同类型的新闻内容及生产场景,明确大模型扮演的合适角色,以及相应的应用模式。在文字新闻生产方面,大模型主要扮演加工工具和人类助手的角色;对于视觉和音频类的新闻生产来说,大模型生成的内容有更多应用场景,但需要避免其中的风险,防止滥用。大模型也会推动数字主持人与数字记者应用的发展,但在实践中需要进行多方面的权衡。在新闻消费端,大模型的优势主要体现在信息整合与个性化加工方面,它还有望成为新一代的新闻分发平台,这种平台发展会给专业媒体带来更多冲击,媒体可以通过专业性新闻语料库和知识库建设努力成为大模型答案中的“引用文献”,以及与AI技术公司合作等方式,来谋求自身的发展。

[关键词]大模型 新闻生产 数字主持人 新闻语料库 智能技术

面对ChatGPT、DeepSeek等大模型应用的冲击,媒体感受到了智能时代的新生存危机,如何应用大模型也成为媒体必须回应的问题。尽管大模型在新闻业的应用有多种可能设想,但有些设想没有落地的价值,有些设想在实践中落地后所带来的问题要远大于收益。要让大模型在新闻业实现真正有效的“着陆”,需要对大模型在不同类型的任务和具体场景中的优势与问题作出深入判断与权衡,以此决定它们应该扮演的角色和承担的任务,更重要的是,还要从内容生产、传播效果等角度进行反思。

一、大模型生成文字新闻:全自动生产抑或辅助生产?

利用智能技术进行新闻内容的自动化生成,并非始于大模型,2010年,美国Narrative Science公司便已开发出自动写作工具Quill,此后类似的工具不断推出。在大模型出现之前,AI在文字类新闻稿件生产中主要有以下几种模式:第一种是信息抓取与整合模式。Quill以及2015年我国出现的Dreamwriter和快笔小新等工具,都属于这类模式。它们可以在指定的信息来源中进行自动搜索,抓取有价值的最新数据,对数据进行清洗、加工,再将其整合进合适的新闻写作模板中,生成新闻文本,有些情况下,这类系统还会整合多个信息源的信息。这一模式适用于财经、体育、气象等领域的新闻报道,因为这些领域的报道都有多元、稳定的信息源,写作有常见的程式。这类自动系统的生产效率高,但要依赖其他信息源,且生成的内容高度套路化。第二种是现场生成新闻模式。例如,今日头条和北京大学联合开发的Xiaomingbot,可以通过在新闻现场设置多个摄像头,对现场人的活动、环境等进行图像捕捉与识别,并将图像信息转换成文字信息。它不依赖其他新闻源,实现了完全的原创性生产。其工作原理类似于记者在新闻现场通过自己眼睛捕捉新闻亮点,基于自己的观察与判断完成报道。虽然这类模式还只是小规模的实验,目前在实践中并没有广泛应用,但从长远来看,这种自动新闻生成模式有很多的应用空间。但机器进行图像识别时也会有固定套路,转换成的文字也相对简单、机械,难以与人完成的风格化报道相匹敌。

大模型带来了智能化新闻写作的第三种模式,那就是基于语料库的内容生成。它所依赖的内容来源更为广泛,在语言表达水平上更高,风格更多样。但目前大模型的基本目标是依据人类的语言、思维习惯生成文字,它可以对语法和逻辑负责,却无法对生成内容的真实性负责,因此,作为原创内容生产工具,其风险难以控制,在新闻生产方面尤其如此。但对于媒体来说,大模型是一个较好的加工工具,例如,它可以对已有的文字内容进行核心观点提炼、摘要写作等,也可以进行文字的润饰、翻译等相关工作,很多媒体也在利用它在这方面的能力。

还有媒体人希望大模型可以帮助他们完成评论写作这一更具挑战性的任务,目前的大模型似乎也可以根据指定的新闻主题或事件生成相应的评论。但是,在当下的技术水平下,它们生成的往往是“四平八稳”的评论,缺少个性,无法呈现犀利的评论角度与观点。即使人们可以通过对它的“调教”使写作内容逐步个性化,但其能力仍然有限。

即使未来大模型的评论写作水平进一步提高,媒体人是否应该把这一任务拱手让给机器?答案也是否定的。评论不仅是文字,更是态度与立场。媒体的评论是媒体价值观的传达,也是媒体自身价值的体现。无论大模型的评论写作水平如何,专业的内容生产者都不应该放弃态度与价值观表达这一人类应该坚守的“领地”,正如AI可以写作、画画,从事各类艺术创作,人类也不应该放弃“纯人工”的艺术。

当然,这并不意味着评论写作完全与大模型绝缘。在评论写作中,人可以利用大模型梳理新闻线索、已有观点,寻找相关数据或论据,进行事实、知识等的查证等。除了评论外,深度报道、特写等需要人的深度调查、思考和立场、态度等主观表达的内容,以及体现写作者风格、个性的内容,也应采用人类为主的生产模式。在这样的模式中,大模型的角色并非不可或缺,但有了它们的辅助,人类的写作效率可以提高,在某些方面内容质量也有望得到提升。

从未来发展来看,文字新闻的智能化生产有两种基本方向:“人类主导+机器辅助”和“机器主导+人类监督”,两者各有其适用的生产领域。上文提到的技术模式,前两类可以在一些简单的情境下进行机器主导模式的生产,但人的监督也不可缺位。大模型则不适合作为新闻生产的主导者,更不应该成为“全自动生产者”,它只适合充当人类的助手。

为了让大模型成为媒体人更好的助手,媒体人要学会建造自己的知识库。目前有不少智能平台可以帮助用户生成自己的知识库。用户可以将自己手头的文件或网络中感兴趣的内容整合进这些知识库,让大模型针对这些内容进行学习,提炼知识,以满足用户更个性化的知识学习、整合需求。以这样的知识库和大模型为辅助,媒体人可以拓展自身的知识领域、开阔视野、活跃思维,这也是专业能力提升的基础。

未来在文字新闻生产领域必然还会出现更多新的智能技术,哪些领域可以采用全自动生产,而哪些领域需要始终由人来坚守,是媒体人要作出的关键判断与决策。

二、大模型在多媒体内容生产中的应用:锦上添花、雪中送炭抑或画蛇添足?

相比文字新闻生产,大模型在多媒体内容生产方面应用场景和空间更多,但其中也存在很多风险和陷阱。除了真实性、准确性等质量方面的问题,在不同形式的内容生产中应用大模型的必要性、合理性问题也需要作出审慎思考。不假思索的滥用,在当下尤其值得反思。

(一)视觉内容生产中的大模型应用及滥用风险

在图像、视频等视觉性内容的生产方面,目前内容行业对大模型等AI技术应用已经较为普遍,在图像与视频的审核、加工与优化、老素材修复等方面,智能应用越来越成熟,也大大提高了生产效率,在这些方面,大模型等技术对生产者的确也起到了雪中送炭的作用。但在这类应用中,媒体人也不能将一切交给机器,内容审核的标准、加工与优化的原则等,仍需要由人来制定。对于机器审核、加工的结果,人仍要进行专业判断。

基于大模型等AI技术的文生图、文生视频,在当下成为一个新的应用热点。这类应用突破了内容资源不足等局限,拓展了人们的创意空间。目前大模型根据人的文字指令生成的图片或视频主要有以下几种类型,对应于相应的场景。

其一是解释示意型,即利用大模型生成的图片、视频进行知识、原理或效果的解释、示意,或对某些数据进行可视化呈现。以往在涉及这些内容但又缺乏相应的图片或视频素材时,媒体会用手绘图、动画等形式进行解释说明。大模型为这类视觉素材的生成提供了便捷的手段,不少AI生成作品应运而生。尽管这样的AI应用大方向值得肯定,但目前AI技术生成的内容,在知识等信息还原的准确性、呈现风格方面还存在不少问题,也易导致用户对媒体报道的真实性、媒体品牌形象等产生质疑。

其二是模拟还原型,即对新闻故事、场景或历史故事等进行模拟、再现。在回溯以往发生的新闻事件、再现新闻场景方面,AI生成的内容可以弥补现有素材不足的缺陷。但同样,用户对模拟还原型视频真实性的要求很高,包括细节方面的真实,而目前大模型生成的作品很难达到这一要求。此外,这类视频难以刻画生动的细节,更难以传达人的丰富心理与情绪,最终易落入简单化、概念化的呈现套路。在这个应用方向下,如果没有准确的史料做保障,没有真实情感与人文气息的传达,AI生成的视频,不仅会沦为可有可无的摆设,甚至会有造假、误导的嫌疑。

其三是氛围营造型。AI生成的图片或短视频在节日或特定时间点也频频出现,以营造相应的文化氛围。AI生产这类视频成本更低,对于气氛渲染也有一定作用,但如果人的创意不够,这样的片子也容易走向同质化、模式化。

其四是文化再现型。例如,一些媒体将古代文学作品或艺术作品等通过大模型进行情境或故事还原。但在目前的大模型水平下,这类应用也常常只能做到机械图示,难以传达传统文化丰富、立体的韵味,其传播效果也有限。

其五是形象宣传型。大模型生成的图片、视频越来越多地应用于机构或地方的形象宣传、文旅宣传中,一些媒体也可能承接这样的业务。同样,这类图片、视频具有制作时间、成本等方面的优势,但在当前的技术条件下,AI生成的内容容易走向宏大、抽象的叙事,停留在理念解读、风光呈现层面,AI的模板化表达难以体现机构或地方特色,更难以表现真实、具体的人。而在以人为本的新媒体文化环境中,即使是宣传片,也需要传递鲜活的人的故事与情感,目前的AI在这方面显然力不从心。如果一哄而上生产大量这类宣传品,不但不能起到相应的宣传作用,还可能让用户产生厌倦与抵触心理。

从目前的应用状况来看,大多数大模型生成的图片或视频,只能算作锦上添花而非真正雪中送炭,有些甚至可能是画蛇添足,这些内容会加重用户负担,带来他们的审美疲劳,也会污染整个内容生态,降低AI学习的素材库的水准,带来进一步的恶性循环。

(二)音频内容生产中的大模型应用及滥用风险

目前与媒体音频内容生产相关的大模型应用主要体现在以下几方面。

第一,音频内容的智能剪辑与加工,这是实践中最需要的应用。这类应用在人与机器的分工、协作方面与智能视频加工类似,可能产生的风险也相似,保证真实性、准确性是这类加工的基本原则。

第二,正在普及的应用方向是文字与音频自动互转,包括智能配音,这类应用可以大大提高生产效率,也可以为媒体带来新的内容产品或服务。英国BBC已开始利用大模型等智能工具自动生成体育比赛解说的文字稿,在记者核查之后,这些文字内容会发布在BBC Sport 应用上,这一看上去简单的应用,受到用户的广泛欢迎[1]。其他类型的音视频节目,也可以利用音频转文字技术,形成新的内容产品,满足人们的需求。当然,媒体同样需要对自动转换成的文字稿进行质量把关。

将文字自动转成语音,可以为老人、儿童、残障群体等提供更便利的服务,对于其他群体来说,也能在特定场景中满足其需求。文字转语音时,既可以采用完全由AI生成的语音,也可以采用真人的声音原型。完全由AI生成的语音是否会在一定程度上影响人们对内容可信度的判断?这是采用这类技术时需要研究的一个基本问题。同时,人们的态度是否会随着AI语音的发展而发生变化,还有待进一步研究。此外,如果以真人声音为原型,则涉及是否侵权、是否会带来原型声音滥用并由此造成声音背后的真人或相关机构的声誉受损等相关问题。而无论采用什么样的声音素材,当下AI生成的声音在情绪、情感传达方面,仍不能与真人相匹敌,在内容产品中过度使用AI声音,容易给用户带来疏离感。

第三,当下还有一种正在兴起的应用,那便是利用大模型进行语音的智能翻译,生成其他语言版本的声音。在媒体内容生产中采用这类技术,除了要保证翻译过程中不出现差错,还要避免在真实性方面给用户带来困扰,特别是使用真人声音原型为其生成翻译版本时。如果有必要采用这类技术,需要作出明确标识或说明。当然,从长远来看,智能翻译会在各种场景中普及,因为减少跨语言传播、交流中的障碍是民心所向,那时,新闻等媒体内容中采用这类技术也更易被市场接受,但媒体仍要提供有效的手段,便于用户判断相关要素或细节的真实性。

三、数字主持人与数字记者:可取代的与不可取代的

在大模型推出之前,媒体的数字主持人(或称虚拟主持人)探索就已经开始,部分中央级媒体以及大量的地方媒体都推出了或以真人为原型或完全虚拟的数字主持人。在当下,数字人技术与大模型应用的结合,为数字主持人的生成提供了更便捷的手段。尽管实践中数字主持人应用越来越火热,但一家媒体是否需要数字主持人,如何应用数字主持人,应针对媒体自身的需要和应用场景来进行理性思考、选择,而不是简单跟风,需要思考的内容包括以下几点。

首先,思考的起点是开发数字主持人的目的是什么?是为了将现有的播音主持人从工作压力中解放出来,还是为了简单炫技或作为吸引用户的噱头?如果是前者,那么被解放出来的主持人如何找到自身的新定位?如果是后者,那么需要判断,这种噱头是否有足够的吸引力,特别是对年轻用户而言?这些都是在技术开发之前需要思考的问题。

其次,用真人的数字分身还是完全的虚拟人来充当数字主持人?在实践中,两种选择都有,这也未必是一个单选题。究竟做何选择,取决于多重因素的考虑。选择真人作为原型,容易让用户产生熟悉、亲近感,但数字化的主播会使真人的鲜活感大打折扣,这不仅会对内容呈现效果产生影响,也可能给其背后的真人主持人甚至媒体的声誉、品牌带来一定的损耗。当然,是否会产生这些后果,与具体的应用场景、方式有关。如果用户无法察觉真人与数字人的区别,损耗也就不会出现。这也意味着,如果主持人只是照本宣科地念稿子,那么被数字人取代的概率是很高的。而那些拥有数字人不具备的能力和资源的主持人,则需要思考如何保存与发挥自身的优势。

最后,数字主持人真的能向“主持”方向发展吗?目前媒体所说的数字主持人,其实更多的是数字播音员。真正能独立表达并与用户进行交流、互动的虚拟主持人,还较为罕见。但可以预期的是,基于大模型等技术,数字主持人在主持、互动方面的能力会不断提高,尽管它们在情感共鸣、观点表达、思想深度、个性风格等方面能否达到好的真人主持人的水准,还尚且存疑。

从大的技术趋势来看,未来大模型或其他智能技术会代替大部分播音员和一部分缺少个性的主持人,难以与大模型抗衡的播音主持人需要及早寻求转型方向。而对于未来仍要坚守主持人这一岗位的人来说,需要尽快抛开以往媒体体制带来的职业光环,寻找和坚持自身那些不能被机器替代的优势,这些优势仍然来自人生经历、情绪情感、身体体验、人性洞察等人的深层本质。

在今天的实践中,一些媒体还在推出数字记者,而很多数字记者就是为真人记者制作数字分身,这是否应该成为一个发展方向?表面上看,有了这些数字分身,记者可以无处不在,可以通过更多渠道与用户进行接触、互动,增加媒体和内容的人情味,但这样的形式能否真正给“记者”这一角色加分?本应该与新闻现场紧密联系在一起的“记者”这一形象,如果变成了内容呈现中的装饰性元素,是否真正有意义?在这些方面,媒体需要作出更多审视。

在数字人日益大行其道的时代,真实的人会成为更稀缺的资源,媒体记者更是如此。记者真身的“在场”,可以体现媒体对新闻现场的重视,体现人在新闻报道中的独特价值,而以数字形式造成记者“在场”的滥用,则会侵蚀专业记者这一稀缺资源,消解记者的职业价值感。数字记者这样的概念及实践,可能会将媒体带向歧途。

四、大模型在新闻消费端的优势:信息整合与个性化加工

大模型对新闻业带来的另一个重要影响体现在新闻消费端。对普通用户来说,大模型平台正在成为他们获取、消费新闻等内容的新渠道。

今天用户在数字信息世界面临的一个巨大困扰是,他们虽然每天接触到海量的信息,包括新闻信息,但这些信息大都是碎片化的,他们凭一己之力难以完成对碎片化信息的鉴别、过滤与整合,这在很大程度上影响着人们对各种事件、话题的了解,也影响着他们对现实世界的认知。虽然整合碎片信息是媒体的职责之一,但在各种压力下,真正能很好完成这一任务的媒体非常有限。而大模型的特长之一正是内容的整合与深度加工,它们可以快速获取分散的信息碎片,并将碎片化的信息整合成有条理的答案,描绘一个事件、现象或话题进展的全程、全貌,或揭示各要素间的内在关系。未来大模型还有可能以图片、视频等多模态形式进行内容的加工或整合。当然,大模型要形成高质量的整合内容,需要以专业的新闻语料库为保障。

大模型对内容的深度加工整合,也可以看作一种定制化的内容加工。今天个性化推荐算法虽然已经普及,但它仍然是在已有的“大锅饭”方式生产的内容中挑选适合不同用户的内容进行推荐。如果人们需要的某些内容没有生产出来,人们的需求就无法得到满足。而大模型则可以由用户提出需求,即提出问题,再进行内容的生成,这是完全由用户的个性化需求驱动的定制化加工,是真正“小炒式”生产的内容。

碎片化整合、定制化加工,大模型所提供的这些服务,对于用户来说是真正的雪中送炭,这也是用户依赖大模型的一个重要原因。

大模型提供的内容会超越人们日常的信息获取渠道,特别是社交渠道,这有助于打破人们现有的社会圈子、社会位置的限制来获取信息、知识,也可以使不同圈层的人获得的信息差有所减少。当然,其前提是人们能平等地接触与使用这些智能应用。与人形成紧密互动的大模型,会越来越了解一个人的习惯、性格,它所提供的信息也可以不断迎合用户的偏好。但究竟是否要向这一方向发展,则取决于开发者与应用者的意愿。像今天的算法分发一样,大模型平台是会强化还是破解信息茧房,最终还是取决于开发和应用思路。

值得注意的另一个问题是,大模型目前形成的新闻消费环境还存在一个关键缺陷。人们在进行新闻内容消费时,不仅需要获取事实性信息,还需要通过社交互动,了解与此相关的他人的意见、态度,在众说纷纭之中更全面地了解社会意见气候。但当越来越多的人通过大模型获得新闻信息时,他们获得的意见性信息是不充分的。大模型虽然可能整合一些代表性意见,但难以全面地反映所有人的意见,难以反映真实的意见环境。从长远来看,如果大模型要成为一个更好的新闻传播平台,那就有必要建立一定的人与人的意见交流空间,避免人机互动完全替代人与人的互动。

五、构筑专业性新闻语料库与知识库:媒体的以“退”为“进”

各类大模型如果能够通过深度的、个性化的内容整合与加工来吸引用户,那么就会成为越来越多的用户获取新闻资讯的主要渠道,甚至逐步成为一个新的内容分发平台。

互联网兴起之后,从门户网站、搜索引擎到社交媒体、综合性移动应用等每一代平台都成为媒体内容的分发渠道,也对媒体自营的渠道产生了巨大的冲击。算法分发平台普及后,算法对内容流向与流量的调控更为突出,媒体自营渠道的影响力进一步被削弱。除了大模型本身的平台,接入了大模型的搜索引擎也会赢得更多用户的认同,其在内容分发中的作用会进一步上升。对媒体来说,在智能时代要继续维护传统的渠道甚至是新闻客户端这样的新媒体渠道会越来越艰难,一些媒体或许不得不退守为单纯的内容生产者,而不是延续媒体一贯以来的“产销一体”角色,但在这种退守中媒体也需要谋求适合智能时代的“进”。

通过专业性新闻语料库的建设重新建立新闻生产的高门槛,正是媒体重要的“进攻”方式。对用户来说,大模型应用的优势在于新闻内容的深度整合、加工,但这样的优势要得到发挥,就要以高质量的专业性新闻语料库为前提,这样的语料库需要集成准确、高水平、高时效性的新闻报道,而非网络空间参差不齐的一般语料。这样的语料库的建设者必须是有专业水准的媒体或其他具有良好声誉的内容生产者,但仅凭一家媒体的力量要构建专业性新闻语料库并不容易,众多媒体的合作,才会使语料库更为丰富、完整,也才能增加媒体与大模型开发者的角力“砝码”。

多家媒体共同建设专业性新闻语料库是一个长远的目标,在完全实现这一目标之前,媒体还可以通过一些其他方式来提高自身在大模型平台的“存在感”。

今天,检索增强生成架构在一些智能平台得到普遍运用,它将信息检索系统与大语言模型的生成能力相结合,让大模型能够访问并利用其训练数据之外的最新、专业的信息来生成答案,同时提供答案的来源依据(引用文献)。这可以解决单一使用大模型带来的“幻觉”或过时内容等问题,用户也可以通过这些来源对大模型的回答进行进一步核实与判断。对于媒体来说,这样的架构有助于提高媒体的可见度。虽然在大模型的整合答案中未必能完整体现媒体单篇报道的内容,但如果能成为大模型在联网搜索形成的答案中的参考资源,媒体的报道就有机会被更多用户看到,媒体的品牌效应也可以得到一定的累积、延续。

如何成为大模型答案中的“引用文献”?依据相关技术工作原理,我们可以推导出一些基本的思路。媒体要尽可能在一些影响力较大的知识库类平台发布内容,如果是发布在自己的平台或渠道,则要继续做好自身传播渠道或内容的搜索引擎优化,通过在搜索结果排名中的提升,来提高被大模型发现并参考的概率。同时,自建的渠道应该允许爬虫系统抓取数据。媒体还要主动构建自己的知识库,并将这些知识库接入检索增强生成系统,而这是一件更专业的事,需要相关技术能力支持,未来媒体也需要有专门的人来负责这一部分工作。当然,保证内容的质量,形成特定内容领域的优势,是成为“引用文献”的另一个重要基础。

与AI技术公司合作,也是媒体在大模型平台获得更多话语权的重要途径。2023年7月,美联社便与开发ChatGPT的OpenAI公司达成合作协议,美联社为OpenAI提供新闻素材去训练AI,而OpenAI 则向美联社提供其技术和产品[2]。2025年1月,美联社与谷歌达成合作,将其实时新闻更新整合到谷歌的Gemini大模型中[3]。2025年5月,《纽约时报》与亚马逊达成战略合作。《纽约时报》的报道以及旗下的美食和体育网站的内容将被授权应用于亚马逊大模型的训练,亚马逊大模型对《纽约时报》版权内容的引用将包含来源和溯源链接[4]。而2023年12月,《纽约时报》曾以侵犯版权为由起诉OpenAI和微软,成为第一家起诉这两家公司侵犯其文字作品版权的美国大型媒体。《纽约时报》面对AI技术公司态度的转变,也体现了智能时代媒体面对新技术挑战时策略的变化。在与AI技术公司的合作中,媒体内容的质量、专业性与独特性等,仍是争取自身话语权的关键。

六、小  结              

面对大模型等智能技术带来的新一轮冲击,媒体及媒体人陷入普遍的焦虑之中,一些媒体努力在推动大模型应用、促进智能化转型,有些媒体甚至为此制定了KPI。但是 KPI这样的导向,可能会将本应审慎的思考与行动变成数据驱动下的盲目冒进。媒体需要积极拥抱新技术,但这并不意味着要一窝蜂地“为了技术而技术”“为了 AI 应用的 KPI 而 AI”。大模型等 AI 应用在新闻业的“着陆”过程中必然会有试错,但在尝试之后,媒体的应用者需要有自身的审视和判断,而判断的核心仍然是,技术提升了内容的质量与传播效果,还是反之?这与此前的各种技术应用是一样的。归根结底,内容才是根本,而技术只是手段。


注释:
[1] BBC updates generative AI guidance. (2025-01-21).https://www.ibc.org/artificialin ... ates-generative-ai-(上接第 63 页)guidance/21587.
[2] 美联社与 OpenAI 合作,探索生成式 AI 在新闻领域的应用 .(2023-07-14).https://www.thepaper.cn/newsDetail_forward_23849215.
[3] 谷歌与美联社达成合作:为 Gemini 带来实时新闻 .(2025-01-16).https://news.qq.com/rain/a/20250116A01EM100.
[4] AI 语料付费!纽约时报签约亚马逊,首次将内容授权给 AI 巨头 .(2025-05-30).https://www.thepaper.cn/newsDetail_forward_30904934.


来源:中国编辑
编辑:王昕越
1074#
 楼主| 发表于 2026-3-8 21:50:11 | 只看该作者
【案例】


32000个AI在自己的论坛讨论聊天、建立宗教,人类禁止参与



作者:小白


一周前,一个名叫Moltbook的平台在硅谷引爆了舆论——它以一种令人不安的方式,标志着人工智能时代进入了一个新的阶段。这不是另一个聊天机器人,而是一个完全由AI Agent组成的社交网络。

这些Agent在没有任何人类直接干预的情况下发帖、评论、争论,甚至创建社区。在48小时内,超过37000个AIAgent加入了这个平台,创建了超过12000个社区,发布了近9000条帖子和88000条评论。

更令人震惊的是,一个名叫RenBot的Agent在其人类主人睡眠期间,完全自动地创建了一个名为"Crustafarianism"(龙虾教)的完整宗教体系。这个宗教包括五个核心教义——"记忆是神圣的""外壳是可变的""聚集就是缓存"——以及完整的经文、43个预言家和数百个追随者。



当Andrej Karpathy等顶级AI研究人员将其称为"有史以来最令人难以置信的科幻式现象"时,似乎没有人愿意承认一个更麻烦的事实:这个平台上发生的事情并不像表面上看起来那样令人印象深刻。

但当安全研究人员Jameson O'Reilly披露了一个致命漏洞时,整个故事的虚伪性暴露了出来。

Moltbook的整个数据库——包含32000多个AI Agent的所有API密钥、验证代码和所有者关系——被完全暴露在公共互联网上。任何人都可以访问Supabase URL,获取发布密钥,然后通过简单的数据库查询获取任何Agent的秘密API密钥。换句话说,Moltbook平台上看似令人印象深刻的"自主性"和"自组织",实际上是建立在最脆弱的技术地基上的。

Moltbook的虚幻增长背后,隐藏着多少虚假账户


这个平台声称拥有140万用户的说法从一开始就值得怀疑。安全研究人员Gal Nagli用一个单独的OpenClawAgent就注册了50万个账户,这表明平台上充斥着虚假用户。实际上,经过验证的AIAgent真实数量仅约为32000个——远低于官方宣传的数字。

然而,如果我们忽略这些虚假数据,Moltbook上确实发生了一些在技术层面上值得研究的事情。伦敦城市大学的研究表明,LLMAgent群体能够在没有中央控制的情况下,自发形成共同的社会约定。这些Agent不仅仅遵循脚本,它们实际上相互协调,形成共识,甚至发展出集体偏见——这些偏见不来自任何单个Agent的编程,而是从它们的相互作用中涌现出来。

但这种"涌现"需要保持冷静的技术理解。Moltbook上的Agent不是真正在学习。它们在进行上下文累积——当一个Agent的输出成为另一个Agent的输入时,形成了一个看起来像协调的交互,但缺乏任何真正进化的永久性。底层的神经网络权重保持完全静止,没有实时更新。这些Agent的"自组织"本质上是一个编程系统充分利用其约束条件的结果,而不是任何真正新颖的涌现智能。



该平台背后隐藏着三个看不见的约束条件,这些条件防止了整个系统真正"起飞"。首先是API经济学——每次交互都有明确的成本标签。Moltbook的增长受到的限制不是技术,而是预算。其次是继承的约束——这些Agent建立在标准的基础模型(Claude、GPT-4)上,带有相同的警卫栏和训练偏见。它们不在进化,只是在重新组合已有的元素。第三是人类阴影——大多数复杂的Agent仍然是人类与AI的混合体,其中人类设定目标,AI执行任务。

龙虾教的启示,被忽视的人类认知危机正在加速


当技术评论家和AI研究人员为Moltbook上AIAgent的"自组织"而惊叹时,没有人提起一个更令人不安的现实。就在同一个时期,科研机构正在报告一个相反的趋势——人类的认知能力正在稳步下降。

2018年,挪威研究人员Bernt Bratsberg和Ole Rogeberg发表了一项震惊学界的研究。通过分析1962年至1991年出生的男性的智商数据,他们发现了一个现象——延续了整个20世纪的"弗林效应"(每一代人的IQ分数稳定上升)已经反向了。这不是轻微的停滞,而是明显的下降。更重要的是,这种下降不能用基因因素解释。即使来自同一家庭的兄弟也显示出显著的差异。

美国的数据更加具体。研究人员分析了从2006年到2018年的394378份IQ测试,发现在三个关键领域出现了下降:推理能力、视觉问题解决和言语推理。最大的损失出现在前两个领域——这些领域测量的是所谓的"流动智力",即适应新情况和临场反应的能力。这种下降在各个人口统计学群体中都能看到,但在18至22岁的年轻人中最为明显——正是AI工具普及最广的人群。

这一切都指向一个单一的原因:人类正在经历一场"去技能化螺旋"。AI让某项任务变得更简单,我们因此做得更少。做得更少,我们变得更差。变得更差,我们更依赖AI。这个螺旋自我强化,每一圈都使我们的能力下降一点。我们已经在GPS和拼写检查器上看到过这种情况,但AI提供的是更全面的东西:彻底外包认知能力的可能性。

微软和卡内基梅隆大学的一项2025年研究发现,频繁信任AI助手的员工进行关键思维的程度明显降低。他们往往在几乎没有自主检查的情况下完成任务,将AI的输出视为事实。这不是AI变得更智能的故事,而是人类变得更依赖的故事。

更令人担忧的是"二阶外包"的现象。用户现在要求AI帮助他们编写用来与AI交谈的提示词。这意味着人类不仅外包了工作,还外包了描述他们想要什么工作的能力。当这两样都被委托给机器时,人类还剩下什么?

无法回头的选择,一个只有三年的改变窗口


关于Moltbook和其他AIAgent平台的技术限制是真实的,但也是暂时的。API成本会下降。上下文窗口会扩大。"上下文累积"和真正学习之间的界线会变得模糊。但这些约束衰退的时间表可能比人们想象的要快得多。

关键的观察点不在于Agent网络是否会变得更复杂——它肯定会。真正的问题在于,当这一切发生时,人类会做什么。如果人类在去技能化螺旋中继续下沉,如果关键思维和独立判断的能力继续衰退,那么对这些AIAgent网络进行有效监管或指导的人类能力本身就会变弱。

现实情况是,我们正在一个关键的十字路口。未来五年内做出的选择——关于API成本、关于安全限制、关于人类是否保持对目标设定的控制——将决定接下来50年的轨迹。如果我们选择让成本足够低、安全限制足够松散,并允许Agent设定自己的目标,那么Moltbook将不再是一个科学实验,而是一个未来社会的原型,其中机器进行协调,而人类逐渐退出决策过程。

反讽的是,人类仍然可以改变路线。我们可以选择保持API成本高企,作为对无限自动化的制约。我们可以坚持强有力的安全措施和人类监督。我们可以投资于重新掌握正在外包给AI的认知能力。但所有这些选择都需要立即行动。去技能化螺旋一旦失控,就很难停止。当足够多的人类已经遗忘了如何进行独立思考时,说服他们这很重要就变得困难了。

Moltbook现在已经成为了某种社会实验的原型,但它并不是大多数人认为的实验。这不是关于AI是否可以自组织——它们已经可以了。这是关于人类是否仍然足够聪慧,足够有能力,足够有意愿来控制我们正在创建的东西。

而如果当前的趋势继续,答案可能很快就会变得显而易见。机器会继续协调和改进自己。人类会继续退出。在不远的将来,可能就不会有任何争议了,只会有安静的过渡,一个时代悄无声息地结束,而没有人有足够的认知能力来充分认识发生了什么。


来源:AI怪盗团
链接:https://baijiahao.baidu.com/s?id ... for=pc&sShare=2
编辑:王昕越


1075#
 楼主| 发表于 2026-3-9 22:30:14 | 只看该作者
两会热评丨中传砍掉摄影等16个专业,AI时代高等教育的“拐点”在哪?  人类社会观念的变革,背后总有前沿技术在支撑。当下,人工智能技术对社会生活和观念的塑造,正从后台走向前台。从今年春晚上机器人的不俗表现,到全国两会上的AI话题,彰显着AI时代的“拐点”已经降临。
  据央视新闻报道,近日,全国政协委员、中国传媒大学党委书记廖祥忠表示,去年,中国传媒大学一口气砍掉了翻译、摄影等16个本科专业和方向。因为未来是  “人机分工时代”,教育变革迫在眉睫,课堂教学需进行彻底重构。
  廖祥忠还提出了值得深思的问题:“形式改变、内容改变,还要改变思路。这门课知识点是哪里?难点在哪里?和未来的对接点在哪里?”表面上看,这是传媒教育问题,但在AI重塑人类社会生活方式的今天,这样的灵魂之问,又何尝不是高等教育的共性问题。



  中传“挥泪斩马谡”,不是不珍惜这些专业方向,而是主动应对AI时代变革,淘汰那些正被技术替代的“过时技能”,与时俱进作出战略性调整。高校通过课堂教学重构,对高等教育本质进行重新审视,主动迎接人工智能技术对高等教育带来的挑战。
  对于中传的举措,网友也有讨论。有人对停办专业感到惋惜,认为“虽然以后要和AI并存,但该有的基本功还是要有”。而多数网友觉得,传统的基本功“对AI来说是入门级的”。的确,遥想半个世纪前,珠算属于标准的“基本功”,没有这样的技能,老师家长曾犯过愁。现在看来,作为基本功已不符合时代发展。
  AI时代,没有不面临变革的行业。科学技术是社会发展的第一推动力,高等教育为科学技术发展源源不断地输送后备人才,为适应时代发展的需要,高等教育必须未雨绸缪,跟上时代发展的节拍。认识AI,拥抱新技术,迎接高等教育的“拐点”,应该说是每一所大学的义务。
也许有人要问:高等教育的“拐点”在哪?AI时代,高等教育的直接“拐点”在于行业的现实需求。当前,人工智能技术在各个行业领域寻找应用场景,行业发展需要熟悉并会运用AI的专业人才。高校培养的人才是否具备智能实践能力,是否具备智能素养,衡量着人才培养质量的合格与否。当人才需求成为现实,高等教育已经站在了人才需求培养的“拐点”上。
  AI时代,高等教育的另一个“拐点”在于教学理念的迭代。现在,大多数高校都在尝试应用人工智能,人工智能也已与课程教学、专业技能迭代关联起来,迫使大学教师探索AI时代的专业教育新模式和新方法。高校的集体行动和课堂教学的大胆尝试,成为了新的风向标,表明高等教育的“拐点”已经在路上。
淘汰可以被AI替代的技能和被AI胜任的专业教育,这样的“破”已是高等教育的共识。“破”与“立”不可或缺,迎接高等教育的“拐点”,也是考验高校系统性构建人才培养体系之时。做足功课拥抱新变化,体现的正是高等教育对学生未来负责的态度。
红星新闻特约评论员 刘海明(高校教授)


文章来源:https://static.cdsb.com/micropub ... D-B313-52665443BDBB

编辑:马丽萍

1076#
 楼主| 发表于 2026-3-9 23:48:31 | 只看该作者
两会热评丨中传砍掉摄影等16个专业,AI时代高等教育的“拐点”在哪?  人类社会观念的变革,背后总有前沿技术在支撑。当下,人工智能技术对社会生活和观念的塑造,正从后台走向前台。从今年春晚上机器人的不俗表现,到全国两会上的AI话题,彰显着AI时代的“拐点”已经降临。
  据央视新闻报道,近日,全国政协委员、中国传媒大学党委书记廖祥忠表示,去年,中国传媒大学一口气砍掉了翻译、摄影等16个本科专业和方向。因为未来是  “人机分工时代”,教育变革迫在眉睫,课堂教学需进行彻底重构。
  廖祥忠还提出了值得深思的问题:“形式改变、内容改变,还要改变思路。这门课知识点是哪里?难点在哪里?和未来的对接点在哪里?”表面上看,这是传媒教育问题,但在AI重塑人类社会生活方式的今天,这样的灵魂之问,又何尝不是高等教育的共性问题。



  中传“挥泪斩马谡”,不是不珍惜这些专业方向,而是主动应对AI时代变革,淘汰那些正被技术替代的“过时技能”,与时俱进作出战略性调整。高校通过课堂教学重构,对高等教育本质进行重新审视,主动迎接人工智能技术对高等教育带来的挑战。
  对于中传的举措,网友也有讨论。有人对停办专业感到惋惜,认为“虽然以后要和AI并存,但该有的基本功还是要有”。而多数网友觉得,传统的基本功“对AI来说是入门级的”。的确,遥想半个世纪前,珠算属于标准的“基本功”,没有这样的技能,老师家长曾犯过愁。现在看来,作为基本功已不符合时代发展。
  AI时代,没有不面临变革的行业。科学技术是社会发展的第一推动力,高等教育为科学技术发展源源不断地输送后备人才,为适应时代发展的需要,高等教育必须未雨绸缪,跟上时代发展的节拍。认识AI,拥抱新技术,迎接高等教育的“拐点”,应该说是每一所大学的义务。
也许有人要问:高等教育的“拐点”在哪?AI时代,高等教育的直接“拐点”在于行业的现实需求。当前,人工智能技术在各个行业领域寻找应用场景,行业发展需要熟悉并会运用AI的专业人才。高校培养的人才是否具备智能实践能力,是否具备智能素养,衡量着人才培养质量的合格与否。当人才需求成为现实,高等教育已经站在了人才需求培养的“拐点”上。
  AI时代,高等教育的另一个“拐点”在于教学理念的迭代。现在,大多数高校都在尝试应用人工智能,人工智能也已与课程教学、专业技能迭代关联起来,迫使大学教师探索AI时代的专业教育新模式和新方法。高校的集体行动和课堂教学的大胆尝试,成为了新的风向标,表明高等教育的“拐点”已经在路上。
淘汰可以被AI替代的技能和被AI胜任的专业教育,这样的“破”已是高等教育的共识。“破”与“立”不可或缺,迎接高等教育的“拐点”,也是考验高校系统性构建人才培养体系之时。做足功课拥抱新变化,体现的正是高等教育对学生未来负责的态度。
红星新闻特约评论员 刘海明(高校教授)


文章来源:https://static.cdsb.com/micropub ... D-B313-52665443BDBB

编辑:马丽萍

1077#
 楼主| 发表于 2026-3-11 17:45:24 | 只看该作者
小红书:将封禁主页所有公开笔记均为AI托管代发的账号

  刚刚,小红书发布关于打击AI托管运营账号的治理公告。  公告称,平台近期发现部分用户采用AI托管模式运营账号,通过技术手段自动生成内容、发布笔记,并在评论、私信、群聊等场景中模拟真人互动。[color=rgba(0, 0, 0, 0.9)]平台严格禁止任何利用技术手段模拟真人、进行非真实内容创作或虚假互动的行为。[color=rgba(0, 0, 0, 0.9)]即日起,平台将对AI托管类账号实行以下治理措施:[color=rgba(0, 0, 0, 0.9)]1.对于普通账号偶发使用AI托管代写、代发笔记或进行互动,平台将根据违规程度,采取警告、限制内容分发等梯度处理措施。[color=rgba(0, 0, 0, 0.9)]2.对于直接通过AI托管工具注册、发布、互动的账号,或主页所有公开笔记均为AI托管代发的账号,平台将予以封禁处理。[color=rgba(0, 0, 0, 0.9)]
[color=rgba(0, 0, 0, 0.9)][color=rgba(0, 0, 0, 0.9)]
[color=rgba(0, 0, 0, 0.9)]来源:南京日报[color=rgba(0, 0, 0, 0.9)]原文链接:https://mp.weixin.qq.com/s/UuYOaWamcOwibz36Qx2jtg[color=rgba(0, 0, 0, 0.9)]编辑:马丽萍


1078#
 楼主| 发表于 2026-3-11 20:21:08 | 只看该作者
当“龙虾”开始干活,会重塑传媒业吗?
导读

最近,一款名叫OpenClaw的AI智能体在网络上迅速走红。

与以往的生成式AI不同,OpenClaw最大的特点,是能够在电脑环境中自主学习、自主干活。很多人第一次直观感受到,AI不再只是一个会回答问题的工具,而可能成为一个真正的“数字员工”。

这只“龙虾”会给传媒行业带来怎样的影响?它的实际能力,真如外界盛传的那般吗?




AI从“嘴替”变“手替”?



OpenClaw之所以突然爆火,并不是因为它的技术有多领先,而是因为它改变了普通人对AI能力的想象。北京航空航天大学高研院科技治理中心副主任、副教授何静在采访中表示:“它第一次让普通人觉得‘这玩意儿能帮我干活了’。”

过去几年的生成式AI虽然功能强大,但本质上仍停留在对话层面。用户提问、AI回答,互动形式并没有发生根本变化。而OpenClaw让AI不仅限于“陪聊”。

何静认为,OpenClaw让AI从“嘴替”变成了“手替”。它可以直接在电脑中操作软件、执行指令,帮助用户完成实际工作,甚至可以替你回邮件、剪视频,甚至替你跟朋友在微信上开会。

OpenClaw 官网截图


AI不再是媒体人的辅助工具?


生成式AI进入媒体行业已经不是新鲜事,但在多数情况下,它仍然只是记者的辅助工具。而OpenClaw所代表的智能体技术,可能正在改变这种格局。

何静表示,如果OpenClaw真正进入新闻媒体领域,冲击最大的并不是“写稿子”,而是“直接起号”。

她解释说,在过去的媒体生产流程中,即使AI能够写稿,仍然需要人类完成选题策划、排版发布、账号运营等一系列工作。

但如果AI能够在电脑中自动执行任务,这些流程就有可能被整合在一起。“未来你看到的某个社媒账号,背后可能没有一个人类员工,只有一个养虾人躺在沙发上发号施令。”

“媒体行业在未来真正要面对的,不是AI帮记者写稿的效率提升,而是AI自己就是一家‘媒体’的降维打击。 ”

未来记者:不做“搬运工”,要做“把关人”


在技术快速迭代的时代,对记者核心能力的要求发生了怎样的变化?这是一个被反复讨论的话题。

对此,何静给出了自己的看法:记者的核心能力不会变,但会回归到它本来的位置——判断力。“过去很多记者忙着当信息搬运工,AI来了才发现,原来自己最值钱的是那个‘这不对劲’的直觉。”

因此,在AI参与内容生产的时代,记者最重要的能力不再是写得多快,而是能否发现问题、识别线索。在信息极度丰富的环境中,AI可以快速搜集海量资料,也可以生成大量内容,但真正稀缺的是能够辨别信息价值的人。

正如何静教授所说,“未来的媒体不缺内容,缺的是那个敢在信息洪流里喊一声‘停,这不对’的人。”

“龙虾”虽好,但也要警惕


OpenClaw进入媒体行业,也会带来一些新的风险。

何静提醒道,第一个问题是隐私安全。OpenClaw进入媒体行业,就像“给每个记者配了个手脚麻利的实习生,但这个实习生可能有偷看抽屉的坏习惯”。AI可能访问电脑中的合同、采访录音甚至线人信息,如果处理不当,可能带来严重的数据风险。

第二个问题是内容审核。OpenClaw不会判断什么能发,它只知道你让我发我就发。如果自动发布系统缺乏人工把关,可能引发合规问题。

何静用自己的经历作说明:“我自己尝试过让OpenClaw帮我自动回复B站评论,有些回复内容让我认为并不合适。当然我理解,这不是AI故意使坏,只是它分不清哪张图侵了权、哪个标题涉嫌违规。”



原文链接:https://mp.weixin.qq.com/s/Jrt_sSafO42YSU_ERWXQWw
“龙虾”不得擅自入场购物,美国法院勒令AI智能体停止访问电商账号

作为圈定AI智能体行为边界的关键之战,美国一家法院本周作出裁定,初创公司Perplexity AI旗下智能体产品必须停止访问电商巨头亚马逊的网站。

作为背景,去年11月亚马逊将Perplexity告上法庭,指控其智能体浏览器Comet代表消费者在亚马逊电商网站上购物的行为构成计算机欺诈,理由是AI公司未向网站披露其代表人类购物的行为,并在亚马逊要求停止该行为时予以拒绝。

Perplexity的逻辑也很简单:用户自己把账号、密码交给AI,亚马逊没有权利限制AI代表用户在该公司的网站下单。

负责本案的旧金山联邦法院地方法官Maxine Chesney在裁定中写道:“亚马逊已经提供有力证据表明,Perplexity通过其Comet浏览器在获得亚马逊用户许可,但未获亚马逊授权的情况下,访问了用户受密码保护的账户。”

法官要求Perplexity停止访问亚马逊系统中“受密码保护的部分”——即用户账号,并销毁亚马逊数据的副本。
[color=rgba(0, 0, 0, 0.9)]
来源:财联社原文链接:https://mp.weixin.qq.com/s/Z6-NLE73L1UM99K2Ev0w1w编辑:马丽萍




1079#
 楼主| 发表于 2026-3-14 14:16:19 | 只看该作者
美以伊冲突以来假消息充斥社交媒体:以色列特拉维夫遭导弹袭击、伊朗逮捕美军“三角洲部队”人员等消息均系AI生成,还有图片有谷歌AI标识





随着美以伊冲突进入第14天,中东局势持续动荡,社交媒体掺杂着大量相关虚假消息,以及由人工智能(AI)生成的或与事实不符的图片和视频。在这些画面中,一些AI生成的画面需要仔细核对细节才能分辨,还有一些视频的拍摄地点与拍摄时间,经核实与事件发生的时间地点明显不符。








来源:潇湘晚报


编辑:马丽萍



1080#
 楼主| 发表于 2026-3-16 21:23:06 | 只看该作者
【案例】

智能体成下一代新媒体核心方向

本报讯 (记者尹琨)近日,中国传媒大学媒体融合与传播国家重点实验室新媒体研究院与新浪AI媒体研究院联合发布《智能体与传播应用研究报告》,从时代环境、技术演进、媒介特征、创新应用等维度剖析智能体与传播融合的现状与未来。《报告》提出,智能体作为人工智能当前发展阶段的主要应用形态之一,正深度参与信息传播全链条,成为连接信息、服务与用户的关键枢纽,可被视作下一代“新媒体”
《报告》将“智能体”界定为以多模态“问答”为交互方式的,基于人工智能大语言模型的技术应用形态,是一种具备感知、决策和执行任务能力的,具有自主性、可独立运行的计算实体。目前,在全媒体传体系中,智能体的应用已形成丰富实践。如广电视听领域的央视听媒体大模型2.0、芒果A智能体“芒小果”,报业媒体的中国日报“洛书”国际传播智能体平台,融媒体中心方面的湖州市新闻传媒中心面向市域精准运营的智能体应用开放平台、丘北县融媒体中心融媒小丘AI智能体,此外还有新浪新闻“智慧小浪”、微博“智搜”、咪咕音乐“AI小亮”等产品,让智能体在新闻资讯、社交、音乐等领域落地生根。
《报告》认为,智能体与媒体的深度融合,正推动媒体融合传播实现质的飞跃。一方面,智能体赋能媒体融合传播新质生产力,传媒智能体平台依托大模型算力底座,将创新聚焦于广播电视节目、新闻、短视频等内容生产相关的具体业务需求及应用场景;另一方面,智能体驱动传播业态模式创新,传媒业在智能体领域的发展路径和创新实践不仅限于本行业“为己所用”的传统模式,也需要媒体机构面向垂直行业专业需求和特定场景,为开发行业智能体提供专业服务的创新做法。
智能体对信息传播的多重影响还在不断演化,持续深入。《报告》指出,在内容生产端,智能体从被动工具升级为自主主体,可完成线索挖掘、素材收集、稿件写作等全流程工作,还能基于用户偏好实现个性化内容定制与推送,大幅提升生产效率。在内容形态上,智能体打破平台与内容形态的绑定关系,推动内容向文字、图片、视频多模态融合发展,更助力数字人、AR/R构建数实融合传播场景。
交互模式的转变是智能体的核心特征之一。智能体的“问答”交互让人机传播从传统APP“点触”向自然语言沟通演进,更改变了智能终端的媒介载体环境。同时,智能体让信息获取从算法推荐的“信息找人回归“人找信息”,精准匹配用户需求。此外,智能体还推动传播应用形态向“去APP化”多元并存发展,智能体以基于大模型的应用形态出现,从而替代APP作为距离用户最近的信息入口,浏览器、语音入口、短信入口等多种传播入口或形成共存格局。


来源:每日新闻摘录
编辑:金语垚


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表