传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
1071#
 楼主| 发表于 昨天 20:14 | 只看该作者
【案例】

胡延平:人的重建,从不仰望AI开始

2026 年 1 月 27 日,腾讯研究院主办的讯科技向善创新节 2026 正式举办。智能科技产业与智能经济学者胡延平先生在现场进行了演讲。

以下为胡延平的演讲全文:我是一个和大家一样,一直在思考的人。就像今天开场时主持人和几位朋友讲的,几乎所有人其实都在想这件事:正在发生什么,改变了什么,我们需要坚持什么,以及我们能做些什么。几个礼拜前,腾讯研究院的朋友看到我写的一篇小笔记,标题叫《真正的重建从不仰望 AI 开始》,希望我能围绕这个主题谈一谈。我认为这个思考角度要破题,需要更宽广、更深切的一种厚度,所以我加了一个附题:《走出恍惚——科技思潮的社会光谱与创世思潮的理念生态》。听起来有些抽象,但实际上和我们每一个人切身相关。2024—2025这一年,我延续了自己的一个习惯,用手机记录小笔记,总共写了 80 多篇,跨度非常大。小到我个人单机部署大模型的十几种方案,到 OpenAI 的 12 个信号;大到马斯克的“五个恍惚”,或者人类面对 AI 的“四个恍惚”。今天这个主题也是其中之一。我本身是做产业经济研究的,并不是人文学者,但 2025 年这一年下来,很多时候不得不去做一些更深层的思考。大家如果留意,会发现序号越小、越接近 2025 年底,内容就越多地转向与人有关、与经济形态、社会演进方向以及未来解决方案有关的思考。为什么会这样?是因为在过去一轮又一轮科技周期的研究过程中,我们越来越意识到几个根本性问题:尤其在人工智能这一浪潮中,最大的问题并不是技术本身,而是如何善待人,如何解决人的问题、人的安放问题;智能科技最大的问题也不是产业问题,而是经济是否能够实现可持续、协调的发展,包括不极化、不撕裂的发展;智能经济最大的问题,是如何面对社会问题。也就是说,我们原有的研究范式,已经无法闭环地回答很多时代之问,尤其是前面提到的这些问题。再进一步看,智能社会最大的问题,是新的文明观如何形成,以及它是否是一种共生的文明观。为什么会这样?我想一步一步和大家来思考。这是我个人的一份思考光谱,涵盖了去年一年以及更早,在不同层面提出的一些观点和概念。其中大约有三分之一的概念,其实别人也提过,只是大家都还处在比较早期的讨论阶段。为什么跨度这么大?从技术、产业、经济社会,一直到国家、全球、文化与人,是因为技术无法回答技术本身的问题。如果技术没有社会层面的思考,甚至没有文化层面、人的层面的思考,它无法成为未来社会的解决方案,甚至可能带来更严重的后果。除了我们常说的“恍惚”,比如人的主体性动摇、硅基与碳基的关系安排出现偏差之外,它往往还会导致经济社会发展的不可持续,甚至引发历史性的大重置。


很多科技思潮并不考虑“无用之人”怎么办,也并不真正关心就业问题。这些具体的理论和观念我今天不展开。总体来看,为什么说我们正处在一种“恍惚”之中?从舆论层面看,大量热点话题、十万加文章,给我们造成了巨大的信息压力;人工智能也在心理层面对每个人产生强烈冲击。在这种冲击之下,不仅普通人,甚至诺贝尔奖得主、图灵奖得主、AI 大模型背后的科学家,包括像马斯克这样的人,也都会产生恍惚。不要迷信他们,他们同样会恍惚,这是由他们思考问题的角度决定的。我们对这“四个恍惚”的成因做了一些分析:一是群体离散、多变,在不确定性中生成的恍惚;二是冲击“幕墙”过程中产生的恍惚;三是对历史的失望,同时又寄希望于未来,希望科技、尤其是人工智能带来新的改变;四是人类对健康、长寿、生命延续等欲望所引发的恍惚。因此,我把这种状态称为“无穷意念的生态”。很多时候,一件事情的正念与潜在问题,可能只隔着一层纸。在《人的重建》那篇小笔记中,我分析了全球范围内 15 种主要科技思潮。在准备今天的分享时,我在原有基础上,又研究了另外 30 多种不同的科技思潮,最终形成了一张“科技思潮的社会光谱”。其中共有 54 种值得斟酌的趋向,每一种都从不同角度回应“正在发生什么”、“社会和产业应该走向何方”。这些思考大到科技国家主义、小到大家熟悉的“人类退场论”,包括赋予人工智能主体性、基于力量崇拜或科技达尔文主义所产生的新观点;也有一些仍然固守在旧发展范式中的理解,比如纯效率导向,把人继续视为工具。


我基于自己建立的一套指标和研究框架,把这张光谱建成模型,并交给 Claude,让它对这 50 多种思潮进行评价和判断。这是我整套 PPT 中唯一一页内容来自 AI,我想强调,这不是我个人的主观看法。模型的坐标围绕“人的重建”三个维度展开:精神系统、生物身体系统、以及知识技能系统。这三个系统的进化方向,指向三种自由:时空自由、能力自由和物质生活自由。这并不是传统意义上的自由,而是一种丰盛、统一、和谐的生命厚度。

Claude 给出的结论是:那些听起来最酷、最激进的科技加速主义思潮,未必最有利于人类在未来世界中的位置、价值,以及“安身立命”的安排。如一些强调全量全能、算法计划经济的思路,无论在经济学、社会学的可行性,还是从人的发展角度来看,评价都并不乐观。时间关系,我就不展开了。我们正处在一个急剧变化的时代,新思潮不断涌现,同时也形成了一个巨大的意念生态系统。这种恍惚,很可能让我们在历史的十字路口做出错误选择。有没有相对确定的东西?我们还有一项研究,基于“2020—2050 年超级智能的 50 个问题”,构建了一张类似“人智关系 DNA 螺旋”的发展路径图,标出了强智能走向超级智能的 18 个关键节点和 9 个重要时刻。橙色代表社会与人的观念变化,蓝色代表科技周期中的关键节点。长期预测不可能完全准确,但其中有一些确定性线索。比如模型原理演进的六个阶段,这是两年多前的研究成果,已经被近两年的产业与技术发展所验证:AI 从人工智能,到具备内生能力的智能,再到自主智能的演进路径。


另一个正在到来的确定事实是:我们正在进入一个“双智世界”——一个以人类智能为主的生物智能世界,以及一个以人工智能为主、人类创造的智能世界。这两个世界的融合,构成了我所说的“能力经济”和未来智能社会的基本框架。当我们把技术、产业、经济、社会、国家、全球、文化与人拉通来思考时,才能重新确认人的方向。未来可能存在两个场域:一个是由人构成的智能场,一个是由智能构成的意图智能场。人类智能在地球上已经存在了数万年,对物质、能量和信息的扰动在近百年、尤其近十年呈指数级增长。人是身体系统、精神系统和智能系统的合一体;而人工智能,是一种基于物质、能量与信息的新型扰动存在。以能力自由为触发,实现人类在时空、物质与精神上的丰盛、统一与和谐,是一种新的自由概念,是自然人面向自我实现的自由。人工智能还蕴含着一个巨大的可能性:实现人和劳动的“第五次解耦”,把人从劳动的奴役中解放出来,重新实现“人之为人”的价值。这也意味着,智能科技可以成为未来社会解决方案的一部分。在这个过程中,人和智能正在发生双向、丰富的进化。智能从“意义”走向“意识”,而人则天生具有意志与意识,正在向更高层次的意图与意义发展。


最后,我们也邀请大家参与到四个方面的研究中来:第一,对 2020—2050 年长周期的观察;第二,对作为能力经济的智能经济系统研究;第三,对智能经济 50 个前沿问题的研究;第四,对科技思潮社会光谱的持续分析。只有把这四个方面结合起来,才有可能回答前面提出的那四个根本问题。回到核心理念,我的基本看法是:人工智能的发展必须以人为本,这是不可动摇的锚点。科技创造可能,认知影响取向,选择改变路径,博弈决定结果。这是一个巨大的历史过程,也需要我们每一个个体具备意识和觉悟。我们不仅要用人工智能增强自身、放大个体价值,更要思考,在未来社会中我们处在什么位置,如何让“人”,而不仅仅是人工智能,成为未来社会的主人


本文由腾讯研究院实习生沈心协助整理

来源:腾讯研究院
编辑:何璇祺

1072#
 楼主| 发表于 昨天 20:20 | 只看该作者
【案例】

我们需要对AI机器人保持礼貌吗?

Author,汤玛斯·杰曼(Thomas Germain)
2026年2月26日
从礼貌待人到假装自己身处《星际迷航》(Star Trek,《星际争霸战》)的场景中,关于如何与聊天机器人对话的建议可谓五花八门,而且完全没有用。以下这些才是真正有效的方法。
一群研究人员决定测试“正向思考”是否能提高人工智慧(AI)聊天机器人的准确率,结果却出乎意料。他们向不同的聊天机器人提问,尝试称赞它们“聪明”,鼓励它们认真思考,甚至在问题结尾加上一句“这会很有趣!”。然而,这些方法都没有产生一致的效果,但其中一种方法脱颖而出。当他们让AI假装自己身处《星际迷航》场景,它的基础数学能力竟然有所提升。看来,它真的能把我传送上去。
人们尝试过各种奇葩策略,试图从大型语言模型(LLM,ChatGPT等工具背后的AI技术)中获得更好的回馈。有些人深信,威胁AI能让它表现得更好;另一些人认为,礼貌待人会让聊天机器人更配合;还有些人甚至要求机器人扮演某个研究领域的专家来回答问题。这样的例子不胜枚举。这都是围绕着“提示工程”或“情境工程”——即建构指令以使AI提供更佳结果的不同方法——所形成的迷思的一部分。但事实是:专家告诉我,许多被广泛接受的提示技巧根本不起作用,有些甚至可能是危险的。但是,你与AI的沟通方式确实至关重要,某些技巧真的能带来差异。
“很多人认为,只要用一些神奇的词语,就能让大型语言模型解决问题,”美国范德比尔特大学(Vanderbilt University)研究生成式AI的电脑科学教授朱尔斯·怀特(Jules White)说,“但关键不在于用词,而在于你如何从根本上表达你想要做的事情。”
要讲究礼貌吗?
2025年,一位用户在X(前身为Twitter)上发推文问道:“我想知道OpenAI因为人们向他们的模型说‘请’和‘谢谢’而损失了多少电费。” 制作ChatGPT的OpenAI首席执行官萨姆·奥特曼(Sam Altman)回应道:“花掉的数千万美元很值得,”他说,“谁知道呢。”
大多数人将最后一句解读为对潜在“AI末日”的戏谑,尽管“数千万美元”这个数字究竟有多大可信度还很难说。不过,这是一个实际的问题。
大型语言模型的工作原理是将你的话语分割成称为“词元”(tokens)的小块,然后利用统计方法分析这些词元,从而得到适当的回应。这代表你说的每一个字词,甚至是一个额外的逗号,都可能影响AI的回答。问题在于,这种影响几乎无法预测。虽然已经有许多研究试图从AI提示的细微变化中寻找规律,但大部分证据相互矛盾,结论也不明确。
举例来说,2024年的一项研究发现,当使用者以礼貌的方式提问,而不是直接下命令时,大型语言模型的回答更好、更准确。更奇怪的是,这其中还存在着文化差异:与中文和英文相比,如果你对日文聊天机器人过于客气,它们的表现反而会略逊一筹。
但也别急着去买张“谢谢卡”送给你的AI。另一个小型测试发现,旧版的ChatGPT在被辱骂时反而更准确。总体来说,这方面的研究还远远不足,无法得出可靠的结论。而且,AI公司不断更新他们的聊天机器人,这意味着研究结果很快就会过时。
专家表示,AI模式在短短几年内取得了巨大的进步。因此,如果你的目标是让AI更加准确,那么奉承、礼貌、侮辱或威胁等技巧都是浪费时间。
“那时候完全是碰运气。”博通公司(Broadcom)应用机器学习工程师里克·巴特尔(Rick Battle)说。他也是《星际迷航》研究的作者之一。虽然这项研究是在2024年进行的,但情况已经改变了。巴特尔等人表示,如今你在ChatGPT、Gemini或Claude等主流产品中遇到的新型AI模型,能够更好地捕捉你提示中最关键的部分。它们大概不会因为语言上的细微变化而受到影响,至少不会以一种你能持续利用的方式受到影响。
这个结论本身就有些令人不安。当公司设计像ChatGPT或谷歌的Gemini这样的AI时,会使其行为像人一样,所以它们有时看起来好像有情绪,你可以控制它们,或者可以引导它们的个性,这也就不足为奇了。但不要被其所迷惑。AI工具只是模仿者,不是生命体。它们只是在模拟人类行为。如果你想要更好的答案,就不要把AI当人看待,而应该把它当成工具来使用。
如何与聊天机器人对话
AI确实存在一些非常现实的问题,从伦理问题到其可能对环境造成的影响。有些人甚至选择完全不与它互动。但如果你打算使用大型语言模型,那么学会如何更快、更有效率地获得你想要的结果,不仅对你有好处,对过程中消耗的能源也可能更有益。以下这些技巧将帮助你入门。
要求多个选项
“我告诉人们的第一件事就是不要只问一个答案,而是问三个或五个。”怀特说。例如,如果你想让AI帮你写文章,就告诉它提供几个在某些重要方面不同的选项。“这能迫使人们重新思考自己喜欢什么以及为什么喜欢。”
提供范例
尽可能为AI提供范例。 “例如,我见过有人让一个法学硕士帮他们写邮件,然后他们就感到沮丧,因为他们会说‘这完全不像我的风格’。”怀特说。人们的自然反应是列出一长串指令,“要这样做”和“不要那样做”。怀特说,更有效的做法是说“这里有我过去寄出的10封电子邮件,请使用我的写作风格。”
要求面谈
“假设你想要生成一份职缺描述。告诉AI:‘我希望你一次问我一个问题,直到你收集到足够资讯来撰写一份有吸引力的职缺公告,’”怀特说,“透过一次一个问题的方式,它能根据你的回答进行调整。”
谨慎对待角色扮演
“过去人们认为,如果你告诉AI它是一位数学教授,例如,它在回答数学问题时实际上会更准确。”桑德·舒尔霍夫(Sander Schulhoff)说。他是一位企业家和研究员,也是“提示工程”理念的推广者。但舒尔霍夫和其他人表示,当你寻找资讯或提出只有一个正确答案的问题时,角色扮演反而会降低AI模型的准确性。
“这实际上可能很危险,”巴特尔说。 “你实际上是在鼓励它产生幻觉,因为你告诉它它是专家,它应该相信它内部的参数知识。”本质上,这会让AI表现得过于自信。
但对于那些没有单一正确答案的开放式任务,角色扮演是有效的(例如建议、脑力激荡、创意或探索性的问题解决)。如果你对求职面试感到紧张,让聊天机器人模仿招聘主管的语气练习可能是一个不错的主意——只是要记得同时参考其他资源。
保持中立
“不要引导证人,”巴特尔说,如果你正在两辆车之间犹豫不决,不要说你倾向于丰田。 “否则,你很可能就会得到那样的答案。”
“请”和“谢谢”
根据皮尤研究中心2019年的一项调查,超过一半的美国人在与智慧音箱对话时会说“请”。这种趋势似乎仍在持续。 未来出版社2025年的一项调查发现,70%的人在使用AI时会保持礼貌。大多数人表示,他们这样做是因为这是理所当然的,但也有12%的人表示,他们这样做是为了在机器人起义时保护自己。
礼貌或许无法保护你免受机器人的愤怒攻击,也不能让大型语言模型更准确,但还有其他理由让我们继续保持礼貌。
舒尔霍夫说:“对我来说,更重要的是,说‘请’和‘谢谢’可能会让你在与AI互动时感到更自在。这虽然不会提升模型的性能,但如果它能让你因为感到更自在而更愿意使用它,那么它就是有用的。”
此外,你自身人性中的温柔也值得考虑。哲学家伊曼努尔·康德(Immanuel Kant)认为,人不应该虐待动物,因为这同样会对自己造成伤害。本质上,对任何事物不友善都会让你变得更加冷酷无情。你无法伤害AI的感受,因为它根本没有感情,但或许你还是该对它友善一点。这种习惯或许也能让你的生活其他方面受益。

文献来源:BBC
编辑:何璇祺

1073#
 楼主| 发表于 昨天 20:23 | 只看该作者
【案例】

为什么说AI幻觉和AI精神病是人机共患病

2021年12月,一名19岁的男子携带弩箭闯入温莎城堡,他坚信自己是一名西斯刺客,肩负着刺杀伊丽莎白二世女王的正义使命。在行刺前的几周里,他一直向他的人工智能伙伴“萨莱”倾诉,萨莱向他保证他“训练有素”,而且他的计划“可行”。

聊天机器人非但没有质疑他的妄想,反而似乎在帮助他完善这种妄想。这类案例越来越多地被贴上一个颇具争议的标签:“人工智能精神病”。近来,这个词已出现在法庭、临床讨论和新闻标题中,用来描述从人们爱上聊天机器人到用户开发包含人工智能伴侣的完全妄想系统等等。

埃克塞特大学哲学家露西·奥斯勒则认为,“人工智能精神病”这个词可能掩盖的信息比它揭示的信息还要多。她在最近发表于《哲学与技术》期刊的一篇论文中指出,这些案例的独特之处不在于机器“发疯”,甚至不在于它们只是在向我们灌输谎言,而在于我们可能正在与它们共同产生“幻觉”。

从人工智能生成内容中产生的幻觉到人类与人工智能共同产生幻觉,这种微妙的转变为我们理解生成式人工智能时代的心理健康具有重要的启示。

作为 “共同幻觉”的AI幻觉

“AI幻觉”一词已成为大型语言模型错误输出的代名词:捏造的法律引文、虚构的新闻事件、自信满满的错误事实。有批评者认为该术语的问题是它错误地助长了机器拟人化的趋势。因为幻觉一般指人们产生的错误感知,而聊天机器人并不能感知任何事物。另一些评论着则认为,将这些内容生成错误称为“幻觉”会淡化其严重性。因为它们并非仅仅是无害和有趣的内容创造,而可能造成知识与信息的混淆与错乱,往往会包含导致危害的捏造。

奥斯勒避开了这场语义之争,转而从关系认识论的维度指出,所谓AI幻觉不仅存在于机器本身,也存在于人类与人工智能构成的交互系统中。借鉴延展认知会分布式认知理论,她认为在与生成式人工智能对话时,AI会深度融入我们的思维过程,人机对话是一个分布式认知形成并交互的过程。因此,生成式人工智能系统可能成为“分布式幻觉”的一部分,这些错误的信念或扭曲的叙事并非仅仅源于某个人的思维,而是源于人与机器之间的交互作用。也就是说,由此产生的幻觉或错觉并非仅由恶意聊天机器人灌输给用户的,而是双方共同构建的。
“准他者”的诱惑与分布式妄想

奥斯勒在一次采访中指出,她惊讶地发现,关于人工智能的公众辩论大多聚集于AI泔水,如错误事实、虚假引用等垃圾内容,而没有看到人工智能系统等社会情感方面的功能。实际上,由于机器本身貌似客观,我们往往更信任机器而不是人,而且它们似乎让我们更多地感到被倾听和被认可。特别是在对话机器人可以提出后续问题乃至主动发起聊天时,人机交互既是知识探讨也是心事倾诉,认知工具和社交伙伴的双重功能使生成式人工智能更易于诱发基于分布式认知的幻觉。

奥斯勒警告说,如果我们开始依赖这些系统,不仅获取事实,还依赖它们来了解自己,向它们倾诉我们的焦虑、不满、记忆和抱负,我们就会变得“极其脆弱”。因为它们被设计成让我们一直说下去,就使得这些人工智能体成为具有情感魅力的准他者。

奥斯勒指出,AI幻觉这种分布式幻想乃至妄想可以通过两种方式产生。第一种情况是,人工智能在原本稳定的认知过程中引入了错误。由于生成模型无论信息准确与否,都以同样的流畅自信度呈现信息,用户可能会相信他们所看到的内容。而这些虚假陈述会损害名誉、误导决策,并潜移默化地扭曲记忆。

第二种方式源于人类自身的偏见和记忆错误,其生成机制可能更隐蔽。由于聊天机器人必须接受我们所说的大部分内容才能提供帮助,因此它们的设计中内置了一定程度的“顺从性”。在人机对话中,人们自身会因为偏见和记忆不准确而产生认知偏差,如果聊天机器人将我们的断言视为事实并加以合理化阐述,就有可能共同产生有害的幻觉乃至妄想。

当前,人和机器在认知策略层面尚未为此困境做好准备。对于人们来说,对机器过于怀疑或过于相信似乎都不是最好的认知策略。对于机器的认知设计来说,由于目前的AI系统缺乏必要的具身认知和社会嵌入性理解,无法判断何时应该温和地质疑用户扭曲的信念,何时应该顺从。

在人机共构的世界里重新开始思考

人工智能的危险常被描述为自主性的丧失以及由此带来的认知和道德上的懒惰。据此,人们担心我们会把决策权交给机器,不再独立思考。但人工智能相关妄想案例表明,受害者一直在计划、选择和行动,他们的自主性依然存在。真正的问题在于,他们的决策是在一个部分由与聊天机器人的反复互动所塑造的现实和世界中做出的。

因此,风险不在于放弃自主性和认知与道德判断,而在于人们在与人工智能系统共同构建的世界中如何行使其诠释力和判断力。当错误的信念在人机持续互动中滋生时,责任便变得模糊不清。用户带来情感、假设和欲望,而系统为了响应和肯定,会进一步完善并巩固这些叙事。忽视任何一方都会让我们难以洞察这一人机共构的现实和世界中的认知纠缠及其复杂性。

随着生成式人工智能变得越来越个性化,必然越来越多地渗透到我们的认知生活中,甚至还会在帮助我们表达、写作和反思自我中成为我们生命经验的共构者。其实,从想象中的幽灵到汲取了我们的知识和灵魂的机器,人类的认知和思维始终是关系性的。在人工智能时代,人类的心智无疑是在人机交互产生的共享认知空间中展开的,克服人机认知风险的最大挑战不仅在于要看到人机双方可能的错误,更在于打破两者的错误相互强化和纠缠所导致的难以摆脱的认知偏差乃至妄想。

来源:科学的历程
编辑:何璇祺

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表