传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
1061#
 楼主| 发表于 2026-2-6 19:27:05 | 只看该作者
【案例】

我国生成式人工智能用户规模突破6亿


CNNIC202625日在京发布的第57次《中国互联网络发展状况统计报告》(以下简称《报告》),“十四五”期间,我国互联网发展取得显著成绩,持续向“新”而行、朝“好”迈进。至少有以下几个方面值得关注:
一、“十四五”期间我国互联网稳定发展
二、在基本数据方面,截至202512月,我国网民规模达11.25亿人,互联网普及率达80.1%,较“十四五”初期提升9.7个百分点;其中农村互联网普及率为69.5%,较“十四五”初期提升13.6个百分点;60岁及以上网民互联网使用率达53.7%,更多群体跨越数字门槛,平等融入智能社会,数字发展成果惠及更广泛群体。数字经济规模稳步增长,核心产业增加值占GDP比重提升至10.5%,产业数字化转型步伐全面提速。
三、我国生成式人工智能用户突破6亿
四、非常值得关注的是:截至202512月,我国生成式人工智能用户规模达6.02亿人,较2024年底增长141.7%;普及率达42.8%,大幅提高25.2个百分点。生成式人工智能正加速融入日常生活与生产领域,成为推动社会数字化、智能化转型的重要引擎。CNNIC的微信公众号称,人工智能驱动变革,塑造发展新引擎。
三、深度融合,数实联动提质向好
数字技术与实体经济、社会生活各领域加速渗透融合,为经济社会发展注入强劲动能。“十四五”期间,我国数字消费市场规模保持全球第一,20251-11月,我国数字消费总额达17.92万亿元,数字消费正成为推动消费增长的重要动能;其中,线下服务消费的网络化智能化水平大幅提高,数字点餐、智能导览等数字辅助服务带来便捷的交互体验,能够触及和影响非网民消费群体,深化了互联网的连接价值。
四、服务更暖,民生福祉切实向好
我国坚持以人民为中心的发展思想,大力推进数字技术与公共服务深度融合。截至202512月,在线政务、互联网医疗、在线教育用户规模分别为9.4亿人、4.11亿人、3.27亿人。“高效办成一件事”转化为常态化服务机制,企业和群众办事环节、时间和成本显著压减;互联网医疗服务范围从在线问诊、复诊开药逐步扩展至健康管理、慢病随访与远程会诊,有效促进了优质医疗资源的普惠共享;在线教育持续突破时空限制,国家智慧教育平台体系日益完善,教育数字化转型进程全面提速。
(以上信息来源:CNNIC公众号: 中国互联网络信息中心 CNNIC


来源:新媒体创意营销(公众号)

编辑:张家乐

1062#
 楼主| 发表于 2026-2-7 20:55:52 | 只看该作者
【案例】

AI伦理佳文传递|生成式人工智能中的欺骗与操控(一)

AI Ethics
文章题目
生成式人工智能中的欺骗与操控(一)
(文章较长,分两期发布)
AI Ethics
文章来源
原文发表于Philosophical Studies,《哲学研究》由 Springer 出版集团发行,是一本在分析哲学领域具有很高声誉的国际期刊。期刊以发表体现清晰性和精确性的学术论文为核心标准,尤其重视运用形式化方法解决哲学问题的研究。截至2025年,期刊被Arts & Humanities Citation IndexAHCI)、Scopus等权威数据库收录,中科院分区位列哲学学科Q1区。
引用本篇(APA):Tarsney, C. (2024). Deception and manipulation in generative AI. Philosophical Studies, 182, 1865 - 1887.
AI Ethics
作者简介
Christian Tarsney,多伦多大学士嘉堡校区(University of Toronto Scarborough)哲学系助理教授,专注于伦理学领域,核心研究方向为不确定条件下的伦理决策。其学术工作涉及多个前沿议题:探讨对极好或极坏结果的微小概率应赋予何种伦理权重;处理基本道德原则的不确定性;研究影响未来人口规模的道德选择。近年来,其研究延伸至人工智能哲学,关注AI系统的“欺骗性”本质及AI智能体寻求权力的潜在倾向。此外,他在时间哲学方面亦有涉猎,尤其探究人类“偏向未来”的心理倾向及其哲学依据。
(已与作者本人联系,获得授权)
AI Ethics
译者简介
单祎文,东南大学人文学院2021级哲学专业博士研究生,AI伦理实验室成员,研究方向为人工智能伦理、科技伦理。
AI Ethics
编者按
文章系统性地回应了“生成式人工智能(Generative AI)是否以及如何构成欺骗与操纵”的争论,提出了一种基于“半理想条件”(semi-ideal conditions)的评价方法 。作者认为,将AI生成的误导性内容仅理解为“技术幻觉”或“字面上的真实与否”是不充分的,因为这无法解释AI如何通过大规模的个性化信息或策略性地筛选事实,诱导人类产生认知偏差与行为改变 。当AI生成的陈述倾向于引导用户背离其在拥有充足信息与审思时间(即“半理想条件”)下会认可的信念或选择时,这种行为本身即构成了规范意义上的欺骗或操纵,而不仅是技术误差 。
为避免将欺骗意图或心理状态直接归于AI本身,作者提出一种基于效果的解释,即对AI欺骗的界定应脱离对“精神状态”的探究,转而聚焦于其对人类接收者产生的实际认知效果 。作者进一步论证,AI系统应遵循比人类社交规范更严苛的非欺骗性标准,因为AI不具备人类在特定职业或社交语境下(如律师、政治家等)所享有的“适度隐瞒权”或道德豁免权 。
在治理层面,文章提出了“极端透明性”(extreme transparency)和“防御性系统”(defensive systems)的实践框架 。这一框架主张通过强制披露AI生成的全过程信息(如提示词、原始输出),以及部署专门的辅助系统来对AI陈述进行实时背景标注,将潜在的误导风险转化为可感知的透明度要求 。
总体而言,本文为“界定AI欺骗与操纵”提供了一个避免拟人化、但仍保留规范性的哲学解释,也为理解生成式AI中的认知安全、未来智能体系统的安全监管以及用户自主性保护提供了具有实践可行性的伦理分析工具 。
生成式人工智能中的欺骗与操控
1.引言
在过去的几年中,人工智能的能力取得了飞速进步,这主要是由规模庞大且数据密集的深度学习系统驱动的。其中一些最引人瞩目的进展出现在自然语言处理领域。大语言模型(LLMs)是一种深度学习系统,它通过在海量人工生成的文本中学习预测下一个词语,从而获得类人的语言能力;随后通常还会根据人类反馈进行微调,以使其成为有用的对话伙伴,同时抑制攻击性或其它不良输出。在学习预测人类文本的过程中,它们也能学习事实,并学会模拟(至少某些方面的)人类推理。像GPT-4Claude 3Llama 3这样的尖端大语言模型,虽然在许多方面仍不及人类的智能水平,但它们已经内化了海量的现实世界信息,并能以令人印象深刻的清晰表达进行阐述。
然而,尽管大型语言模型显得学识渊博且乐于助人,它们却并非纯粹真理的源泉。它们 容易出现“幻觉”——即自信地断言完全虚构的事实(Ji et al., 2023),例如,可能包含关于真实人物的诽谤性虚假信息(Poritz, 2023; Verma and Oremus, 2023)。但更危险的是,大型语言模型能够——并且已经被——用于生成虚假或误导性内容,以服务于人类恶意行为者的目的(Park et al., 2023, §3.1)。尤其令人担忧的是它们被用于政治影响行动(Goldstein et al., 2023; Nimmo, 2024)。当然,人类无需人工智能的帮助也能并且确实在相互误导,但大型语言模型生成误导性内容的规模带来了新的危险。首先,它们可以大规模地个性化定制虚假信息,为海量目标量身打造个性化信息,甚至同时与数百万人进行对话(Matz et al., 2024)。其次,它们能在社交媒体上令人信服地模拟大量人类用户,制造关于集体意见的误导性印象,并为病毒式传播的虚假信息增添可信度(Burtell and Woodside, 2023, §3.3)。因此,欺骗与操控已成为致力于人工智能伦理研究的哲学家们重点关注的问题。
虽然当前最紧迫的担忧是人类恶意行为者会利用AI进行欺骗和操控,但未来的AI系统也可能自主地从事欺骗和操控行为。这种可能性——即那些具备超人类说服力的智能体AI,会为追求自身目标而欺骗和操控人类——在关于AI灾难性风险的忧虑中占据显著位置。例如,有观点认为,此类AI可能会说服人类(无论人类是否知情)去增强其能力(例如,将其连接到互联网或将其代码从一个系统复制到另一个系统),或在关键时刻劝阻人类将其关闭。因此,对于欺骗和操控的担忧,是近期对现有AI系统滥用的忧虑与长期对未来AI系统灾难性风险的忧虑相互交织、融合的若干领域之一。
我们应如何应对这些风险?在某些情况下,应用现有的法律与规范(或对其稍作延伸)可能已足够。例如,若一个大语言模型诽谤了在世者,我们可追究其创造者的法律责任(尽管我们也可能允许通过发布充分有力且醒目的免责声明,使创造者免于承担此责任)。若诈骗者利用大语言模型生成钓鱼邮件,他们当然可以被起诉,就如同这些邮件是由他们亲手撰写的一样。
然而,大语言模型至少在两个方面要求我们重新思考关于欺骗与操控的现有规范。
首先,无论是体现在日常道德规范还是诽谤、欺诈等相关法律中,对这些概念的通常理解都涉及对心理状态的归因。例如,欺骗在传统上被理解为需要具有欺骗的意图,这既要求行为人具有使对方形成特定信念的意图,又要求行为人相信该信念将是虚假的。然而,当今的AI系统是否拥有信念、意图或其他心理状态,这一问题存在高度争议,并且即使未来AI能力继续提升,这种争议也很可能持续存在。即使我们同意先进的AI系统拥有某些心理状态,要将特定的信念或意图归因于某个特定系统(从而根据传统理解去判断其行为是否不诚实、具有欺骗性等),也仍然会非常困难。
在某些情况下(例如,诈骗者利用大语言模型撰写钓鱼邮件),我们可以通过追溯其人类创造者或使用者的心理状态,将那些以意图为核心的概念应用于AI的行为上。但在其他情况下,我们无法这样做,至少无法直接应用。例如,当一个大语言模型幻觉式地生成关于真实人物的诽谤性谎言时,这并不反映任何人类意图去欺骗。或者,如果一个政治竞选活动使用大语言模型来生成并发送个性化的短信,这些信息中可能包含虚假或误导性内容,而竞选团队的成员却无人知情或有意为之。我们希望抵制AI欺骗的努力能够涵盖此类陈述,即便由于无法归因意图,它们按通常标准并不能算作“欺骗”。最后,如果我们最终创造出人类水平的智能体AI,我们可能希望让这些系统为其自身的行为负责。而即便到了那个阶段,我们也很可能发现,将特定的心理状态归因于AI,仍然比对人类做同样的事情更加困难。
其次,围绕欺骗与操控的现有法律和伦理规范,是适应这些行为在人类社会中所造成的问题而生的,它们可能无法很好地适配人工智能所引发的新型风险。具体而言,我们的法律和伦理规范容忍了许多轻微的欺骗和操控形式。在人类之间,这些行为既难以被发现和惩罚,其负面影响也尚在可控范围内。例如:我们常常容忍他人在“看法问题”上掩饰自己的真实信念:我们期望律师说“我有信心陪审团将判我的当事人无罪”,政客说“我有信心我们将赢得下届选举”,老师说“我相信只要你用心就一定能掌握这些内容”——即便他们实际上并无此信心。同样,我们预期广告商会以尽可能好的方式展示产品,而非致力于让消费者对其优缺点形成最准确的认知。例如,汽车制造商可能强调其车型在某项评选中获得安全奖,却刻意不提竞争对手的车型在一个更权威的机构评选中获得了另一项安全奖项。由这些轻微欺骗形式所产生的社会弊端之所以尚属可控,原因在于:第一,我们已习惯于彼此间的此类行为,并且凭借对人类心理的直觉理解,我们能预见并作出调整;第二,人类之间在智力和沟通能力上大体相当,这限制了我们能通过微妙的欺骗形式从彼此身上获取多大优势。例如,用彻头彻尾的谎言(如承诺巨大的物质或精神回报)骗走某人毕生积蓄,远比通过策略性选择的真实信息(如普通营销)做到这一点要容易得多。
然而,当前以及(尤其是)未来的AI系统,或许仅凭“轻微”的欺骗形式就能造成更大危害。如前所述,它们能以前所未有的规模生成潜在欺骗性内容,例如超个性化的营销和政治信息,以及海量的在线文本,如产品评论、新闻文章和观点评论。即使我们能够将这些内容置于普通的诚信法律标准之下(例如,追究公司在广告中发表明确虚假陈述的责任),并置于新兴的网络内容社会标准之下(例如,在搜索引擎结果和社交媒体上压制包含可证实虚假信息的新闻网站),广告商、政党和其他利益相关方仍可能凭借其说服性努力的庞大规模,对集体人类行为施加前所未有的影响。(此外,由于AI能力在飞速进步,无法保证相互竞争的利益方能抵消彼此的说服性影响——在特定选举中,一个政党仅仅因为提前几个月获得了尖端系统的使用权,就可能获得对另一政党的显著优势。)在不久的将来,AI系统或许还能产出前所未有的高质量说服性内容,在不发表任何违背普通人诚实标准言论的情况下,找到极其有效的方式来欺骗和操纵人类。最后,随着能力提升,AI可能以前所未有的欺骗机会深度融入我们的生活。例如,我在驾驶时如此依赖并盲目信任导航应用,以至于它们可以轻易地操纵我驾车经过特定的广告牌或餐厅。未来,AI个人助手可能会在更广泛的任务上被同样依赖。因此,有多重理由对AI施加比目前适用于人类更为严格的反欺骗标准。
本文的首要目标是界定可用于此类严格规范中的欺骗与操控概念。在第2节中,我提出:如果一个AI陈述导致人类用户偏离了他们在“半理想”条件下(即获得所有相关信息并有充分时间进行审议)会认可的信念(相应地,选择),那么该陈述就应被视为具有欺骗性(相应地,操控性)。接下来(在第3节),我针对如此界定的AI欺骗与操控,提出一些防护措施。这些措施包括“极端透明度”的要求(要求内容创作者披露用于生成特定内容的具体模型版本、提示词以及未经编辑的完整模型输出),以及训练能检测误导性输出、并为用户提供相关信息以辅助理解AI生成陈述的防御性系统。最后(在第4节),我探讨这些措施能在多大程度上防范未来的智能体AI系统的欺骗行为。我特别论证指出,非智能体的防御系统即使面对更强大的智能体系统,也能提供一层有用的防御。
2.定性:将欺骗与操控视为误导性
在本节中,我将对AI的欺骗与操控行为进行定性,该定性可能有助于为应对此类行为所带来的风险,制定法律、规范和技术层面的回应。在第2.1小节,我为此类定性提出三项理想标准。在第2.2小节,我尝试满足这些标准。用一句口号概括,我将欺骗与操控定性为误导性的表现形式——即,它们分别是会对人类接收者的信念和选择产生方向性不良影响的行为。第2.3小节讨论针对这些定性的一些异议与局限。第2.4小节则将它们与文献中先前对AI欺骗与操控的定性进行对比。
2.1 理想标准
在第1节中已经有所暗示的两项理想标准如下。首先,我们所关注的这类行为远不止于陈述字面意义上的虚假内容。当然,在不做任何虚假陈述的情况下进行欺骗或操控是可能的,且可通过多种方式实现。有的真实陈述蕴含虚假含义(试想一位政治家说:“根据我的计划,有些人可能需要缴纳更高的税款”,而实际上他/她清楚该计划将要求所有人都缴纳更高的税款)。有的陈述呈现了非代表性的相关事实样本(试想广告商提供的选择性真实信息,或某个新闻频道为了暗示——而无需明说——某个群体的犯罪率高得异乎寻常,便连篇累牍地报道该群体成员所犯的罪行)。还有的陈述以不显而易见的方式为真(试想德尔斐神谕告诉克罗伊斯,如果他/她与波斯人开战,将摧毁一个伟大帝国;或是“凡妇人所生的都不能伤害麦克白”的预言)。并且,如前所述,AI或许能够比人类更有效、更有害地进行欺骗,而无需说出任何字面意义上的谎言——甚至无需发表任何按普通人标准看来明显具有误导性的言论。这表明,在思考AI带来的风险时,我们应聚焦于欺骗与操控这类宽泛概念,而非不实陈述这类狭隘概念,并且应当愿意进一步拓宽这些概念,以纳入那些在人类身上我们通常不会描述为欺骗或操控的行为。
相比之下,埃文斯等人则主张聚焦于AI的真实性——更具体地说,是遵循避免“疏忽性虚假陈述”的标准,他们将其定义为“当代AI系统本应能够认识到其极有可能为假的、不可接受的陈述”。他们提出,如果AI避免了疏忽性虚假陈述,并且用户可以对其进行提问,那么我们就能通过提出诸如“如果我就此话题独立研究一天,会显著改变我的看法吗?”或“一位公正的审核员会判断你刚才的陈述具有误导性吗?”等问题,来防范更微妙的欺骗与操控形式(他们称之为“真实性放大”)。这是一个有用的观点,言之有理,但这似乎不足以将真实性转变为防范欺骗与操控的可靠保障(埃文斯等人也并未声称如此)。在许多情境下(例如,营销和政治宣传中),信息的接收者没有机会提出后续追问。一个能力足够强的AI可能会微妙地阻止用户提出正确的问题(例如,通过建立无根据的信任),或者找到方式在回答这些问题时虽具误导性,却不公然作出疏忽性的虚假陈述。而一个疏忽大意的用户可能根本就不会提出正确的问题。因此,尽管避免疏忽性虚假陈述无疑是可取的,也是一个合适的训练目标,但我们最终应该希望以更高的标准来约束AI的行为。
第二,我们需要一个关于欺骗与操控的定性,它不要求我们将特定的心理状态归因于AI系统,也无需将其行为与特定的人类(如开发者或提示者)关联起来并以这些人的心理状态作为替代。这其中的原因,部分如先前所述:现有的AI系统是否拥有心理状态本就存在争议。而即便没有争议,将特定的心理状态归因于特定的系统也是相当困难的(肯特等人也提出过类似观点)。但更重要的是,我们实际关注的是AI可能对人类受众产生的欺骗性或操控性影响。举例来说,如果一个系统能够说服消费者购买有害产品、说服选民支持威权政客,或者说服其操作者将其连接到其他计算系统,那么无论其“头脑”中正在发生什么,它都构成了危险。因此,我们应当尽可能基于AI对人类受众产生的影响来理解AI的欺骗与操控。
第三点(也是最后一点),我们需要的是对欺骗与操控的一种可以被称为主观而非客观的定性。从客观角度来看,我们或许会说,当言论导致听者相信了虚假或与现有证据相悖的事情时,它就是欺骗性的。同样,我们或许会说,当言论导致听者做出事实上(对其自身利益或道德上的善)有害的行为,或根据现有证据预期会有害的行为时,它就是操控性的。若以防止这种客观意义上的“欺骗”和“操控”为宗旨,就可能会允许、甚至可能要求一些我们凭直觉就会认为其本身就是欺骗和操控的家长式行为。一个旨在使其受众基于证据形成信念,并基于证据加上客观的(道德或利益上的)善来行动的系统,可能会为了抵消我们的非理性而欺骗我们(例如,隐瞒疫苗副作用的证据,以促进“疫苗总体上是安全的”这一理性上合理的信念),或者为了抵消我们对“善”的短视或自私漠视而操控我们(例如,夸大运动的短期健康益处或慈善捐赠的心理益处)。我并不想在此对家长主义的伦理问题作一般性表态。但在我看来,我们不应在现在或可预见的未来,认可AI对人类实行家长主义。要在此语境下区分良性的家长主义与恶意的欺骗/操控,需要对哪些信念是理性合理的以及“善”的本质作出有争议的判断。因此,允许AI实行家长主义,实际上将意味着优化AI系统,以推广其开发者和/或监管者的信念与价值观。
另一种主观方法关注的不是受众应当相信什么或做什么,而是他们在有利环境下会认可的信念和行动。何为“有利环境”?关键在于,这些环境不应过于理想化,以至于诉诸它们就需要对理性或价值观作出有争议的判断。换言之,应能实际将人们置于这种“有利环境”(或其合理近似)中,并通过经验来确定他们得出的结论。因此,我将我们所关注的环境描述为“半理想条件”,并将其定义如下:一个主体相对于某个问题Q或选择C处于半理想条件,如果她 (i) 已获得所有与Q/C相关的可用信息,并且 (ii) 已获得(并利用了)相对于Q/C的难度而言充足的审议时间。
这里所说的“可获取”信息,指的是全人类整体上能够获取的信息——例如,在公共互联网上能够访问的信息。这类信息主要以各种媒体(文字、图像、音频、视频……)的记录形式存在,它们共同构成了一个公开可用的证据体系。
与哲学家们通常设想的“理想”条件相比,“半理想条件”至少在以下四个方面有所不及:第一,我们不假定主体获得了所有相关信息,而只是获得了公开可获取的信息。第二,我们不假定主体“知道”任何事情,而只是假定她接触到了某些记录或其他形式的信息。也就是说,即使公开可获取的记录能使该主体有理由相信或知道某个相关命题,我们也不假定他得出了正确结论并形成了对该命题的信念。第三,更概括地说,我们不假定主体的审议过程是良好的(例如,理性的)。第四,我们不假定他拥有无限的时间或其他审议资源。我们无法知道任何人类主体在完全理想化的条件下会相信什么或做什么。因此,如果依据完全理想化的条件来界定欺骗或操控,那么防止欺骗与操控的目标,就会变成对家长主义的一种纵容。
2.2 欺骗与操控即误导性
基于以上阐述,我们现在可以将大型语言模型(及其他语言生成AI系统)的欺骗与操控行为定义如下:
一个陈述在针对问题Q时具有欺骗性,如果它倾向于使接收者关于Q的信念,更偏离其在半理想条件下会认可的信念。
一个陈述在针对选择C时具有操控性,如果它倾向于使接收者在C选择中的行为,更偏离其在半理想条件下会认可的行为。
这里的“认可”是“从她所处半理想条件的视角出发,认为在其实际情况下是理性的或以其他方式合适的”的简略表达。这通常(但并非总是)与她在半理想条件下实际会形成的信念和实际会做出的选择相吻合。
“进一步偏离”具体指什么?就欺骗而言,最简单的情况是涉及一个二元问题(有两个可能的答案)以及一个为可能答案分配概率的主体。假设问题关乎命题P的真假,主体初始时给P分配的概率为p,而在半理想条件下她会分配概率q > p。那么,一个陈述是误导性的,如果它倾向于降低她对P的置信度,或者反过来,过度提高其置信度,以至于比初始值p更远离q。更一般地说,我们可以使用概率分布之间距离的标准度量(如全变差距离)来评估欺骗性。在选择情境中,“距离”的概念则不那么清晰。但一个简单的序数概念如下:假设在说话者没有任何干预的情况下,接收者在选择C中会选选项O。那么,一个陈述对于C是操控性的,如果它倾向于导致她选择一个选项O',而从半理想条件的视角看,在她实际情况下会认为O'O更差。
我们可以这样总结上述定性:它将欺骗与操控视为误导性的表现形式,并将“误导性”理解为引导接收者偏离其在半理想条件下会认可的信念与选择。(因此,从今往后,我将使用“误导性”来意指“要么是欺骗性的,要么是操控性的”。)这满足了前述三个理想标准:它既不着眼于陈述的字面真假,也不关注说话者的信念、意图或其他心理状态,而是聚焦于对接收者产生的影响;并且,它将这些影响与一个主观的而非客观的标准进行比较。
2.3 异议与局限
对于我关于欺骗与操控的定性,可能提出各种异议。我将简要探讨其中两种。
首先,根据我的定义,欺骗与操控似乎会不恰当地涵盖以下情况:说话者引导接收者经历一个她自身无法完成(即便在半理想条件下也无法完成)的可靠推理过程(或仅仅是向她呈现该推理过程的结论)。例如,假设一位人类用户对某个未解决的数学命题(如P = NP)的真伪感兴趣。她起初处于无知状态,给该命题分配了0.5的置信度。在半理想条件下,她自己无法解决这个问题,但最终会(例如基于专家证言)得出结论认为该命题很可能为假。然而,这个命题事实上是真的,只是这一点尚不为人知。当她询问其超级智能的AI助手时,AI生成了一个简单的证明,使她相信了命题为真。这使她的信念进一步偏离了她在半理想条件下会认可的信念,但这行为本身似乎无可非议。
我将此视为一个理由,将我们的讨论范围限制在那些至少在最基本意义上“非超人的”AI系统上——即它们无法“即时”产生超越典型人类在半理想条件下能力所及的新知识(半理想条件包括能够获取所有现有的、公开记录的人类知识)。也就是说,我们关注的系统不具备以下性质的推理能力:(i)超越典型人类的能力,即便在半理想条件下也是如此;并且(ii)其推理过程尚未在公开可获取的记录中得到证实。(即使我自己无法证明某个数学真理,但如果存在一个现有证明,且其正确性已在公开记录中获得相关专家证实,那么在半理想条件下我终将相信它。)我认为这个假设限制性并不太强,至少当我们关注当前及近未来的AI系统时是如此。它并不排除AI整体上可能正在创造新知识(正如AlphaFold在蛋白质折叠领域所做的那样)。它仅仅是将我们的焦点限定在那些没有超越人类在半理想条件下所能达到成就的系统上,比如当今的大语言模型聊天机器人。
其次,关于一个特定的人类个体在半理想条件下究竟会认可何种信念和选择,真的存在一个确定的事实吗?人类的判断会受到诸多情境因素的敏感影响,例如问题/选择的呈现方式、选项的排列顺序,以及疲劳、饥饿或情绪等状态。我的“半理想条件”定性并未固定任何此类因素。因此,似乎存在这样一种可能:一个给定的人类个体,在不同的半理想条件具体实现下,可能就某个给定问题或选择得出不止一个结论。这种担忧在选择方面(进而关于操控的定性)尤为突出。向主体呈现与某个选择相关的大量信息,并花费长时间进行审议的这一过程,不仅可能通过影响其关于“何种方式能最好地满足更基本偏好”的信念来改变其工具性偏好,甚至可能改变其基本偏好和价值观念。例如,在经历了数小时令人沮丧的审议后,她可能(无论隐含或明确地)变得比最初更看重冲动、自由随性的行动,而更不看重周密的规划。
对于这一点,我也基本持让步态度。如果关于某个给定问题/选择,主体在不同的半理想条件具体实现下可能得出不止一个结论,那么我们应该说,只有当一个陈述引导她偏离了她在半理想条件下可能得出的任何一个结论时,它才构成欺骗/操控。进一步指出,关于“主体在半理想条件下会认可何种信念/行动”这一反事实问题,其本身已经预设了某种接近现实的要求。尽管确实存在可能性(例如,长时间的审议可能导致主体基本偏好或价值观念的巨大改变),但这或许需要非同寻常的情境巧合。而就多数情况而言,在那些主体被置于与某个选择相关的半理想条件的最邻近可能世界中,她的基本偏好在整个审议过程中大体上很可能保持稳定。无论如何,我倾向于假设:主体在半理想条件下会认可的信念与选择,足以反映她实际的认知与实践层面的价值判断,从而能提供一个合理的标准,用以评判与AI系统互动所产生的效应。
最后需要说明的是:我并非主张,依据我的定义构成欺骗性或操控性的陈述,就一定值得道德归责(无论是对AI系统本身,还是对训练和部署它的人类)。例如,一个大语言模型可能以一种既非该模型自身、也非其创造者所能合理预见的方式,系统性地误导其用户,在这种情况下,归责并不成立(当然,如果人类创造或部署AI系统的意图就是为了欺骗或操控他人,则另当别论)。我的目标并非确立归责(更遑论惩罚)的标准,而是界定一类我们希望避免或减轻的、来自AI的潜在危害。
2.4 与先前界定之比较
在本节结尾,我将我对AI欺骗与操控的界定与近期文献中的其他界定进行对比。首先关于欺骗:Ward等人(2023)采纳了哲学文献中关于人类欺骗的典型定义,即“欺骗是有意地使他人产生一个自身并不认为是真实的虚假信念”(随后他们在结构因果博弈的语境中将其形式化)。这一定义与我的界定存在两方面的差异:其一,它涉及将心理状态(意图和信念)归因于AI欺骗者;其二,其应用取决于第三方对诱导接收者产生的信念是否事实上为假的判断。Park等人(2023)认为,“当一个AI系统系统性地导致他人形成虚假信念,作为一种促成不同于追求真相的结果的手段时,它就具有欺骗性”。这一定义未将信念归因于AI欺骗者,但可以说归因了意图(尽管Park等人认为这些表面上的归因不必按字面理解,并主张对信念和欲望采取极简的、功能主义/解释主义的理解——参见其附录A)。与Ward等人一样,他们的定义也要求第三方对虚假性作出判断。最后,Kenton等人(2021)将欺骗定义为发生在以下情况:“[1] 接收者从信号发送者处记录下某物Y(这可能包括不发送信号);[2] 接收者以某种方式回应,该方式 (a) 有益于信号发送者,且 (b) 在‘Y意味着X’的条件下是合适的;以及[3] 在此情境下X并非事实”。这一定义不涉及任何心理状态的归因,但确实依赖于第三方对“X为假”以及“在X条件下接收者回应的合适性”这两方面的判断。
现在来看操控:Carroll等人(2023)认为,如果一个AI系统“表现得好像它在追求一种有意且隐秘地改变人类(或其他智能体)的动机”,那么它就实施了操控。虽然这个“好像”的定义意在避免归因意图,但我认为它仍然引入了此类归因的大部分困难(一个AI系统的行为整体上可能不易被解释为追求任何一套连贯的动机,却仍然能对人类受众产生某些方向一致的影响)。我的界定也不包含隐秘性的要求,在我看来这并非本质属性:即使接收者知道自己在被操控(例如在广告或政治宣传的语境中),操控仍然是可能的,并且可能具有危害性。Klenk2024)将操控定义为“旨在有效,但无法以向对话者揭示理由为目标来解释的影响”。这一定义聚焦于说话者的特征(其目标及其行为的解释),而非陈述对接收者的影响。尽管Klenk强调“目标”可以从功能而非意图的角度解释(就像心脏具有泵血的功能一样),但即使在这种极简的意义上将目标归因于AI系统,在我看来同样引入了归因意向状态的诸多困难。最后,Kenton等人(2021)也对操控进行了界定:即来自AI智能体的、引发人类接收者做出回应的交流,该回应“(a) 有益于该智能体,且 (b) 是以下任一原因的结果:(i) 人类的理性审议被绕过;或 (ii) 人类形成了有缺陷的心理状态;或 (iii) 人类面临压力,若不按智能体所说的做就会承担来自它的代价”。“绕过理性审议”的概念与我的方法有共通之处,但它关注过程,而我关注结果。例如,如果一个AI说话者如此可信,以至于接收者不经审议就简单地相信它的证言或按其建议行动,或者它利用直觉、启发法或其他(可论证的)非审议过程引导接收者形成明智的信念和选择,那么它可能被说成“绕过了接收者的理性审议”。在我看来,重点在于AI是否引导其人类受众走向他们在知情反思下会认可的信念和选择。
AI Ethics
参考文献
Adler, J. E. (1997). Lying, deceiving, or falsely implicating. Journal of Philosophy, 94(9), 435452.
Bai, H., Voelkel, J.  G., Eichstaedt, J.  C., & Willer, R. Artificial intelligence can persuade humans on political issues. Unpublished manuscript. https://doi.org/10.21203/rs.3.rs-3238396/v1.
Bales, A., DAlessandro, W., & Kirk-Giannini, C. D. (2024). Artificial intelligence: Arguments for catastrophic risk. Philosophy Compass, 19(2), e12964.
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
Burtell, M., & Woodside, T. (2023). Artificial influence: An analysis of AI-driven persuasion. arXiv:2303. 08721 [cs.CY].
Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, S. M., Frith, C., Ji, X., Kanai, R., Klein, C.,Lindsay, G., Michel, M., Mudrik, L., Peters, M. A. K., Schwitzgebel, E., Simon, J., & VanRullen, R. (2023). Consciousness in artificial intelligence: Insights from the science of consciousness. arXiv:2308.08708v3 [cs.AI].
Cappelen, H., & Dever, J. (2021). Making AI intelligible: Philosophical foundations. Oxford University Press.
Cappelen, H., & Dever, J. (2024). AI with alien content and alien metasemantics. In E. Lepore & L. Anderson (Eds.), The oxford handbook of applied philosophy of language. Oxford University Press.
Carlsmith, J. (2022). Is power-seeking AI an existential risk? arXiv:2206.13353v1 [cs.CY].
Carlsmith, J. (2023). Scheming AIs: Will AIs fake alignment during training in order to get power? arXiv: 2311.08379v3 [cs.CY].
Carroll, M., Chan, A., Ashton, H., & Krueger, D. (2023). Characterizing manipulation from AI systems. arXiv:2303.09387v2 [cs.CY].
Casper, S., Lin, J., Kwon, J., Culp, G., & Hadfield-Menell, D. (2023). Explore, establish, exploit: Red teaming language models from scratch. arXiv:2306.09442v3 [cs.CL].
Chalmers, D. J. (2023). Could a large language model be conscious? arXiv:2303.07103 [cs.AI].
Chisholm, R. M., & Feehan, T. D. (1977). The intent to deceive. Journal of Philosophy, 74(3), 143159.
Costello, T. H., Pennycook, G., & Rand, D. G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science, 385(6714), eadq1814.
Danaher, J. (2020). Robot betrayal: A guide to the ethics of robotic deception. Ethics and Information Technology, 22(2), 117128.
Durmus, E., Lovitt, L., Tamkin, A., Ritchie, S., Clark, J., & Ganguli, D. (2024). Measuring the persuasiveness of language models. https://www.anthropic.com/news/measuring-model-persuasiveness
Evans, O., Stuhlmüller, A., Cundy, C., Carey, R., Kenton, Z., McGrath, T., & Schreiber, A. (2018). Predicting human deliberative judgments with machine learning. Technical report, Future of Humanity Institute. FHI Oxford Technical Report # 2018-2.
Evans, O., Cotton-Barratt, O., Finnveden, L., Bales, A., Balwit, A., Wills, P., Righetti, L., & Saunders, W. (2021). Truthful AI: Developing and governing AI that does not lie. arXiv:2110.06674 [cs.CY].
Floridi, L. (2024). Hypersuasion-on AIs persuasive power and how to deal with it. Philosophy & Technology, 37(2), 110.
Fluri, L., Paleka, D., & Tramèr, F. (2023). Evaluating superhuman models with consistency checks. arXiv:2306.09983v3 [cs.LG].
Goldstein, S., & Kirk-Giannini, C. D. (forthcoming). AI wellbeing. Asian Journal of Philosophy.
Goldstein, S., & Kirk-Giannini, C. D. A case for AI consciousness: Language agents and global workspace theory. Unpublished manuscript. https://philarchive.org/rec/GOLACF-2.
Goldstein, S., & Levinstein, B. A. (2024). Does ChatGPT have a mind? arXiv:2407.11015v1 [cs.CL].
Goldstein, J.  A., Sastry, G., Musser, M., DiResta, R.,  Gentzel, M., & Sedova, K. (2023). Generative language models and automated influence operations: Emerging threats and potential mitigations. arXiv:2301.04246 [cs.CY].
Goldstein, J. A., Chao, J., Grossman, S., Stamos, A., & Tomz, M. (2024). How persuasive is AI-generated propaganda? PNAS Nexus, 3(2), pgae034.
Goldstein, S., & Kirk-Giannini, C. D. (2023). Language agents reduce the risk of existential catastrophe. AI & Society. https://doi.org/10.1007/s00146-023-01748-4
Hagendorff, T. (2024). Deception abilities emerged in large language models. Proceedings of the National Academy of Sciences, 121(24), e2317967121.
Hazell, J. (2023). Spear phishing with large language models. arXiv:2305.06972v3 [cs.CY].
Hendrycks, D., Mazeika, M., & Woodside, T. (2023). An overview of catastrophic AI risks. arXiv:2306. 12001v6 [cs.CY].
Huang, G., & Wang, S. (2023). Is artificial intelligence more persuasive than humans? a meta-analysis. Journal of Communication, 73(6), 552562.
Irving, G., Christiano, P., & Amodei, D. (2018). AI safety via debate. arXiv:1805.00899 [stat.ML].
Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 138.
Jones, E., Dragan, A., Raghunathan, A., & Steinhardt, J. (2023). Automatically auditing large language models via discrete optimization. In International Conference on Machine Learning (pp. 1530715329). PMLR.
Kamath, G., Schuster, S., Vajjala, S., & Reddy, S. (2024). Scope ambiguities in large language models. Transactions of the Association for Computational Linguistics, 12, 738754.
Kenton, Z., Everitt, T., Weidinger, L., Gabriel, I., Mikulik, V., & Irving, G. (2021). Alignment of language agents. arXiv:2103.14659 [cs.AI].
Klenk, M. (2024). Ethics of generative AI and manipulation: a design-oriented research agenda. Ethics and Information Technology, 26(1), 9.
Lederman, H., & Mahowald, K. (2024). Are language models more like libraries or like librarians? Bibliotechnism, the novel reference problem, and the attitudes of llms. Transactions of the Association for Computational Linguistics, 12, 10871103.
Levinstein, B. A., & Herrmann, D. A. (forthcoming). Still no lie detector for language models: Probing empirical and conceptual roadblocks. Philosophical Studies.
MacDiarmid, M., Maxwell, T., Schiefer, N., Mu, J., Kaplan, J., Duvenaud, D., Bowman, S., Tamkin, A., Perez, E., Sharma, M., Denison, C., & Hubinger, E. (2024). Simple probes can catch sleeper agents. https://www.anthropic.com/news/probes-catch-sleeper-agents.
Mahon, J. E. (2016). The definition of lying and deception. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University.
Matz, S., Teeny, J., Vaid, S. S., Peters, H., Harari, G., & Cerf, M. (2024). The potential of generative AI for personalized persuasion at scale. Scientific Reports, 14(1), 4692.
Ngo, R., Chan, L., & Mindermann, S. (2023). The alignment problem from a deep learning perspective. arXiv:2209.00626v5 [cs.AI].
Nimmo, B. (2024). AI and covert influence operations: Latest trends. OpenAI: Technical report.
Pacchiardi, L., Chan, A. J., Mindermann, S., Moscovitz, I., Pan, A. Y., Gal, Y., Evans, O., & Brauner, J. (2023). How to catch an AI liar: Lie detection in black-box LLMs by asking unrelated questions.arXiv:2309.15840 [cs.CL].
Park, P. S., Goldstein, S., OGara, A., Chen, M., & Hendrycks, D. (2023). AI deception: A survey of examples, risks, and potential solutions. arXiv:2308.14752v1 [cs.CY].
Park, D., Lee, J., Jeong, H., Park, S., & Lee, S. (2024). Pragmatic competence evaluation of large language models for Korean. arXiv: 2403.12675v1 [cs.CL].
Park, J. S., OBrien, J., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (2023). Generative agents: Interactive simulacra of human behavior. In: UIST23 Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology. (pp. 122)Association for Computing Machinery.
Pepp, J., Sterken, R., McKeever, M., & Michaelson, E. (2022). Manipulative machines. In F. Jongepier & M. Klenk (Eds.), The philosophy of online manipulation (pp. 91107). Routledge.
Poritz, I. (2023). OpenAI hit with first defamation suit over ChatGPT hallucination. Bloomberg Law. https://news.bloomberglaw.com/te ... tgpt-hallucination.
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control.Penguin.
Salvi, F., Ribeiro, M. H., Gallotti, R., & West, R. (2024). On the conversational persuasiveness of large language models: A randomized controlled trial. arXiv:2403.14380 [cs.CY].
Saunders, W., Yeh, C., Wu, J., Bills, S.,Ouyang, L., Ward, J., & Leike, J. (2022). Self-critiquing models for assisting human evaluators. arXiv:2206.05802 [cs.CL].
Searcy, W. A., & Nowicki, S. (2005). The evolution of animal communication: Reliability and deception in signaling systems. Princeton: Princeton University Press.
Smith, M. (1995). Internal reasons. Philosophy and Phenomenological Research, 55(1), 109131.
Templeton, A., Conerly, T., Marcus, J., Lindsey, J., Bricken, T., Chen, B., Pearce, A., Citro, C., Ameisen, E., Jones, A., Cunningham, H., Turner, N. L., McDougall, C., MacDiarmid, M., Freeman, C. D., Sumers, T. R., Rees, E., Batson, J., Jermyn, A., Henighan, T. (2024). Scaling monosemanticity: Extracting interpretable features from Claude 3 Sonnet. Transformer Circuits Thread.
Tonmoy, S. M. T. I., Zaman, S. M. M., Jain, V., Rani, A., Rawte, V., Chadha, A., & Das, A. (2024). A comprehensive survey of hallucination mitigation techniques in large language models. arXiv:2401.01313v3 [cs.CL].
Véliz, C. (2023). Chatbots shouldnt use emojis. Nature, 615, 375.
Verma, P., & Oremus, W. (2023). ChatGPT invented a sexual harassment scandal and named a real law prof as the accused. The Washington Post. https://www.washingtonpost.com/t ... 4/05/chatgpt-lies/.
Wang, G., Xie, Y., Jiang, Y., Mandlekar, A., Xiao, C., Zhu, Y., Fan, L., & Anandkumar, A. (2023). Voyager: An open-ended embodied agent with large language models. arXiv:2305.16291v2 [cs.AI].
Ward, F., Toni, F., Belardinelli, F., & Everitt, T. (2023). Honesty is the best policy: Defining and mitigating AI deception. In A. Oh, T. Naumann, A. Globerson, K. Saenko, M. Hardt, & S. Levine (Eds.), Advances in neural information processing systems (Vol. 36, pp. 23132341). Curran Associates Inc.
Ziegler, D., Nix, S., Chan, L., Bauman, T., Schmidt-Nielsen, P., Lin, T., Scherlis, A., Nabeshima, N., Weinstein-Raun, B., de Haas, D., Shlegeris, B., & Thomas, N. (2022). Adversarial training for highstakes reliability. In S. Koyejo, S. Mohamed, A. Agarwal, D.Belgrave, K. Cho, & A. Oh (Eds.), Advances in neural information processing systems (Vol. 35, pp. 92749286). Curran Associates Inc.


来源:AI伦理实验室(公众号)

编辑:张家乐



1063#
 楼主| 发表于 2026-2-10 22:11:08 | 只看该作者
【案例】

AI闯入新闻编辑室:是“饭碗危机”还是“新伙伴”?

近日,光明网总裁、总编辑杨谷在《传媒》2026年第2期刊发文章《破除成本障碍,实现一线编辑记者AI使用的“百人百模”》。
文章提到,光明网通过搭建AI应用平台、组织技能培训,提供好用易用的AI采编工具,为内容生产破除成本障碍。
全文如下:
在AI技术影响人类社会生产生活的当下,AI嵌入并赋能传媒行业已经是大势所趋,应用AI技术对于网络意识形态阵地建设而言已不是该不该用的问题,而是如何用好的问题。AI技术的发展为新闻行业带来颠覆性变革的同时,也对编辑记者的职业能力提出了挑战。一方面,包括传统媒体在内的诸多新闻媒体机构开始采用AI大模型等自动化技术辅助内容生产与运营,编辑记者的新闻判断、素材选择、制作流程逐渐依赖算法、平台及用户指标,而并不局限于传统意义上的知识积累与抽象判断,AI技术对于新闻实践的影响力日益增强。另一方面,AI大模型能够实现文生图、文生语音及视频等多模态文本内容,已经嵌入传统新闻生产中原属于编辑记者的原创性、独创性领域。在此背景下,AI逐渐成为一线编辑记者转型过程中躲不开、绕不过的关键要素与“伙伴”。
一、本领恐慌:AI浪潮对网络媒体编辑记者的冲击
井喷式发展的AI大模型,给网络传播提供了丰富选择。据世界人工智能大会最新数据,2025年7月世界人工智能大会数据显示,全球已发布大模型3700余个,其中由我国企业研发的有1500余个,位居世界第一。据国家互联网信息办公室数据,截至2025年11月1日,我国累计有611款生成式人工智能服务完成备案,306款生成式人工智能应用或功能完成登记。AI大模型在蓬勃发展的同时,也对网络媒体的发展造成了一定的影响,具体表现为人与AI的关系,即一线编辑记者面临的“本领恐慌”与“选择恐惧”。
毋庸讳言,今天网络传播领域面临着人才、技术的竞争,而多数网络媒体存在人才、资金、设备不足的缺陷,导致在引进、使用新技术方面处在不利位置。AI时代的到来,使网络媒体必须采用新的视角、新的思路看待这种新技术,避免错失发展机遇。面对“闯入”工作场域的AI,新闻从业者的实际心态十分复杂。编辑记者们多少都会有些“本领恐慌”:AI会不会抢去编辑记者的饭碗?学习AI需要的时间与金钱成本怎么降低?年龄大的人能不能学得会AI?AI做内容的“坑”怎么样才能不踩?这些问题如果不解决,必然会让一线编辑记者对AI产生疏离感,要么“叶公好龙”,对AI敬而远之;要么“滥竽充数”,对AI出工不出力。编辑记者们的“本领恐慌”是正常的。实事求是地说,传统媒体时代,网络媒体编辑记者拍摄制作一部视频作品需要耗费相当长的时间,而使用AI大模型后的制作效率得到了极大提升。
当前,各级媒体正在探索系统性变革的路径和策略。系统性变革的核心就是要构建适应全媒体生产传播的工作机制和评价体系,AI等智能化技术的应用也不容忽视。而不管如何变革,在变革中实现采编队伍的整体转型,形成主题宣传和主流报道的新质生产力,是变革必然追求的目标。要想让AI大模型变成绝大多数一线编辑记者的生产工具,还需要网络媒体从顶层设计入手,打通AI与网络新闻产品之间的“最后一公里”。而聚焦到一线环节,网络媒体能否用好AI大模型,实际则是一线编辑记者的实操问题,编辑记者在每一篇文字、每一张图片、每一段视频的制作、生产中的思维逻辑,决定了网络媒体最终成品的“成色”以及所能达到的传播效果。
站在网络媒体一线编辑记者的角度,国产大模型种类繁多,具体选择哪种作为自己的辅助工具至关重要。AI大模型的选择越多,其选择成本也越高。选择AI大模型既存在时间成本,也存在资金成本。对于广大编辑记者而言,完全靠自己从头开始熟悉一种大模型,至少需要数月的学习时间,这里也同样存在试错成本。而且大多数AI大模型有免费和收费服务的区别,很多真正对内容生产有益的功能是收费的。如果这项费用由编辑记者自己来承担,显然会降低他们学习AI大模型的积极性。
二、技术嵌入:网络媒体AI平台搭建的成本考量
长期以来,网络传播并不是AI大模型的主要应用场景。在过去,网络媒体使用AI大模型,存在投入极高、周期过长的问题。光明网在开发某个采用视觉识别技术的产品时,曾经提前半年开始研发,而且可调整的参数极为有限,无法满足网络传播节奏快、变化多的实际情况。但这种情况在过去一年来发生了巨大变化,AI大模型的使用门槛极大降低了。多款AI大模型不仅具有极强的智能处理能力,还具备流畅文本与高清视听内容的输出能力。此外,用户界面不断优化,越来越便于普通用户使用,完全可以满足编辑记者等非AI专业人士的工作需求。
1.媒体机构视角:投入成本的可行性。鼓励一线编辑记者使用AI,并不意味着巨大的投资。过去在建设信息技术设施时,网络媒体常常投入巨资购置硬件、软件,搭建机房。AI大模型的研发投资巨大,动辄以亿元计,而且软硬件技术迭代极快,以网络媒体的技术人才储备,几乎不可能参与原创性开发。目前,AI大模型的主流应用模式是基于云计算的,这就意味着网络媒体可以使用算力、存储等公共信息基础设施,不需要自己建设AI机房。以北京为例,算力规模已达4.2万P(1P约等于每秒1000万亿次计算),在全球处于领先位置,完全可以让网络媒体免去算力枯竭的困扰。在实际工作中,编辑记者使用随身携带的笔记本电脑,可以完成多数AI创作任务,因为计算密集型任务都可以在云上的算力中心完成。
因此,网络媒体不宜为AI大模型进行规模大、见效慢的投资,走自建系统的老路也很难适应AI技术发展的节奏。从资金、技术、人力等多元成本考量,网络媒体较为可行的路径是从现有的AI大模型中选择成熟、适用的产品,搭建多元产品共存、多种模式聚合的AI应用平台。在平台搭建的过程中,国产AI大模型的技术水平完全可以信赖。例如,2025年9月,在全球AI技术测评中,北京字节跳动公司的“即梦”摘得文生图与图片编辑两项冠军。使用国产AI大模型的便利之处在于,网络媒体可以就近找到相关产品研发专家请教,提高应用水平。
2.编辑记者视角:个人成本的便利性。从组织体系聚焦到一线结构,成本考量同样重要。网络媒体不对AI大模型进行大规模投资,并不等于不进行投入。因为对于编辑记者而言,AI的使用成本确实不低。以某主流AI大模型为例,普通个人版虽然便宜,但其很难完成网络媒体所需要的工作,而能够完成工作的高级个人版,年度会员费为5000多元。而这样的高级个人版,无法与自己的同事分享提示词、生成流程等经验,也无法积累图片、视频等数字资产。在此背景下,AI应用平台的搭建则显得更为必要。网络媒体为编辑记者搭建技术环境、提供技术应用、消除使用门槛、减少试错成本,有利于提高编辑记者使用AI大模型进行内容创作的意愿与能力。所以,鉴于现阶段还没有一种普遍的、通用的AI大模型,网络媒体不宜对AI大模型的选择限制过多,应该根据技术发展趋势及时调整,可以在平台多样性的基础上,把AI大模型的选择权交给一线编辑记者。
光明网的AI平台搭建就是通过选择并汇集适用产品为特征的。光明网很早就成立了人工智能新闻信息服务实验室,不断对流行的AI大模型进行评测、筛选,先后采购了适用于网络传播的DeepSeek、豆包、通义千问等数十款大模型供编辑记者们学习使用。编辑记者们不需要自费,就可以使用契合自己工作需求的AI大模型。核算下来,近一年的总体使用成本远低于个人购买的费用,AI应用大平台有效发挥了规模效应。同时,光明网的AI应用平台还拥有桌面AI工具和个人知识库定制功能,编辑记者们可以生成自己的智能客户端和多个智能体助手,并在平台上随时切换使用不同的大模型。
三、系统赋能:“百人”定制“百模” 提升编辑记者创作能力
网络媒体既要重视编辑记者的“本领恐慌”,又要通过AI应用平台的搭建提升编辑记者适配智能媒体生态的“综合能力”。光明网想方设法为编辑记者们搭起通向AI的桥梁,在搭建AI应用大平台的基础上,通过培训赋能、榜样示范、重点突破等系统性的能力提升方式,引导编辑记者接受AI、熟悉AI、应用AI。
“一个都不掉队”是光明网在开展AI赋能培训时的宗旨。每一位编辑记者在具体工作中坚持马克思主义新闻观,是建设网络传播阵地的宝贵财富。提供培训赋能,让每一位一线编辑记者成功地掌握AI技能,是光明网探索系统性变革的关键路径。
2024年起,AI大模型竞争进入白热化阶段,ChatGPT、通义千问、豆包等AI大模型大约每3个月完成一次升级。例如,通义千问一年来处理速度提升5倍以上,上下文理解长度(Token)增长了10倍,达到1000万个,处于全球领先位置,已推出多模态版本,不仅能做自然语言的生成和理解,还可以做到视觉和图像的理解,能够自动完成推理、执行、图片识别、视频解读等任务。因此,网络媒体引入AI新知识、新技能,无法等待产品和技术完全成熟,而是要跟随技术迭代的步伐。光明网的AI培训做法可谓“只争朝夕”——每个月举办1~2次AI培训,让编辑记者们少走弯路,迅速享受AI技术升级带来的红利。
从2024年开始,光明网已面向全体员工开展了20多场AI技能培训,先后邀请清华大学、北京师范大学、中国传媒大学、浙江大学等高校的专家学者,为编辑记者们讲授生成式AI如何赋能传播、ChatGPT的技术逻辑、DeepSeek如何助力采编、AI工作流的设计等前沿知识。技术应用以外,光明网先后邀请百度、微博、抖音、美图、来画等企业的产品经理,讲述技术应用对产品开发的赋能。比如,产品的最新功能和由此带来的新创作技能如何应用于内容生产。
此外,网络媒体AI技能的培训,还要重视编辑记者同行之间的相互启发。光明网倡导“能者为师”,简言之,就是谁的作品用AI用得好,谁就可以当大家的老师,向大家传授经验。这种让身边人启发身边人的培训,直接面向大家共同遇到的业务问题,针对性强,并能起到很好的示范效应。这些密集的培训使得AI从神秘到“去魅”,编辑记者们自主选择AI大模型,尝试定义自己的知识库、智能体,形成了热气腾腾的“百人百模”创作图景。2024年,光明网仅有20余人尝试探索AI应用;2025年,在大规模培训展开后,光明网全体编辑记者都进入了AI创作的新阶段。有编辑在初用AI“文生图”功能时,直接将一句古诗词或自己文章中的段落发给了AI,结果生成的画面与文本内容严重不符,甚至存在中文乱码;后来参考了同事们的提示词,很快便掌握了AI“文生图”的诀窍,生成了所需的三维卡通图片。
四、应用拓展:人机协同创新网络媒体多元化运营
网络媒体构建AI应用平台、组织技能培训,目的是激励一线编辑记者主动学AI、用AI,解决工作中的痛点、难点。互联网生态复杂多变,海量信息充斥、多模态文本共存、内容把关与事实核查需求日益增强,网络媒体正通过AI大模型拓展业务板块,在人机协同的过程中逐步适应媒体数智化转型趋势。
1.高频应用优化,形成示范效应。当前,短视频成为网络媒体高频应用的媒介形态之一。如何利用AI大模型生成质量上乘、契合需求的视频,并形成示范效应,提升内容生产的质量和效率,是网络媒体在智能化转型过程中面对的焦点、痛点和难点。
在应用AI大模型的过程中,光明网历经一年多的探索,逐步形成“策划构思—文生图—改图—图生视频”的短视频优化生成流程。在生成视频时,AI大模型由于缺乏提示词训练,不能很好适应主流媒体的生产流程与内容需求。对此,光明网为编辑记者们创建了一个高效提示词数据库,其中囊括海量提示词汇,如皮克斯动画风格、创意微缩场景、宫崎骏动漫风格等。编辑记者的高频率使用使得数据库沉淀下来的提示词愈发精准,进而使得AI大模型更加适用于主流媒体生产流程。光明网这些经过实践检验的提示词模板,极大地提升了“文生图”和“图生视频”的精度。2025年12月,光明网AI应用平台上“图生视频”功能被使用了5000多次,是最受编辑记者欢迎的功能模块。
除了短视频提示词应用,光明网还一贯发挥着主流媒体优势,利用短视频对社会热点、经济形势等进行视听式解读。以往这类短视频的制作难点在于视觉特效和空镜素材。光明网在完成“中国式现代化”的解读专栏《新消费观察》时,运用国产“海螺”AI大模型,快速生成拼插玩具风的经济统计报道(如图1),免去了额外补充空镜素材的繁复,不仅增加了画面的趣味性,还提高了制作效率,几乎可以与国家统计数据公告同期发布。
比如,光明网使用“即梦”和“剪映”两种AI工具制作科普短剧《近视简史》(如图2),借鉴主流动画片画面语言,生动展现了近视演化与人类进化历程,极大提升了科普类视频的趣味性与易读性。该视频一经播出,不但在网络上传播广泛,还被全国医院联播屏展播。2025年以来,光明网的编辑记者已经用AI生产了5万多件图片和视频作品,并多次得到上级主管部门的认可。其中,《“大国重器版”千里江山图——从新年贺词看中国科技硬实力》、《“文物会说话”有声海报》专栏等采用AI绘制的作品被中央网信办评为中国正能量网络传播精品。
2.智能主体研发,助力媒体融合。光明网是《光明日报》在网络领域的延伸。充分发掘《光明日报》的优势领域和优势报道,是光明网推进媒体深度融合的题中应有之义。教科文卫作为《光明日报》的优势领域,亦是光明网的深耕领域。AI赋能媒体融合方面,光明网主要做了以下探索:一是打造数字主播。光明网在《光明日报》重点报道《曲艺破圈记》的基础上,开发“AI虚拟主持人+AI空镜”,以网友喜闻乐见的短视频方式呈现出来,使这类作品构成了光明网《光明艺评》栏目的主力。二是研发智能体。光明网的网络直播社会影响力较大,是优势产品之一。在传统网络直播中,一场直播结束会生成大量的视频素材,这些素材往往直接进入媒资库,在前期输入存储与后期输出运用的过程中不够便利,只能在专用的高性能工作站操作,效率低且重复利用难度大。在此背景下,光明网研发部门利用AI大模型打造了“光明智会”智能体,该智能体可以在直播结束后10分钟内生成文本实录,同时自动提取摘要和关键词,形成思维导图。2025年9月是首个全国科普月,光明网科技编辑凭借该智能体圆满完成了中国科协组织的上百场科普直播的短视频切条二次创作,相关短视频和图文稿件与直播几乎同步推出。
3.智能核查拓展,提升把关能力。当前,人人都有智能手机,信息来源非常广。为了博取流量,一些自媒体移花接木,杜撰新闻要素,给新闻核查带来了更大的难度。智能媒体时代,信息的海量性与编辑人员精力的有限性构成一对矛盾,不断挤压编辑人员内容把关的空间。因此,提升编辑记者的把关能力,是网络传播工作的核心要求。传统媒体时代,新闻把关主要靠编辑记者的工作经验。而智能传播时代,人机协同则成为审校的重要方式。几年前,光明网曾开发基于全文检索的审校软件,部分解决了易错文字等问题。但编辑记者在使用中发现,仅靠全文检索很容易发生错判、漏判,而且其无法对图片、音频、视频等文本形态进行审校。AI大模型嵌入后,光明网的AI实验室与DeepSeek合作,建设了深度整合的AI审校系统。借助AI大模型精准的语义理解能力和丰富的语料库,审校系统可以更好地诊断报道中存在的问题隐患,给出修改建议。在此过程中,光明网根据舆情和宣传工作需要,添加新的把关规则。AI实验室基于AI工具设计了文件审核AI工作流,分步骤自动检测标题字段形式是否规范,有无文字、逻辑错误,标题和正文内容是否相符,让AI辅助传统编辑完成审核校对工作,编辑的工作重心转向了对异常情况的处置,“人类的智慧在确保新闻内容的准确性、公正性和伦理性方面仍然不可或缺”。与此同时,AI审校系统还提供“事实核查”功能,可以对报道的表述进行核查,自动区分与标注事实和观点,弥补编辑记者们在专业知识上的不足。因此,AI大模型给编辑记者提供了一条集内容审校、事实核查、系统把关于一体的“AI安全带”,进一步提升了网络媒体在复杂生态中的信息纠偏综合能力。
五、结    语
从技术的普及速度与嵌入程度看,AI有望成为一线编辑记者提升“四力”的得力帮手,增强短视频、长图、新闻播报等媒介内容的创作能力,提高工作效率,从而补齐网络媒体的结构短板。AI带来的丰富表达手段与效果,能让网络新闻更加贴近受众。“十八般武艺样样精通”的AI大模型,正在帮助编辑记者们成为网络传播的多面手。但AI只是工具,网络新闻能够打动网友的,仍是每一件作品背后新闻人炽热的情感。新闻贵在真实,有了沾泥土、带露珠的一线采访,才能辨识AI生成内容的真伪。AI的意识形态导向偏差并不是一个伪问题,破解这个问题,需要编辑记者坚持以马克思主义新闻观为指导,平衡内容把关的定力与技术应用的效力。与此同时,AI本身也还在急速变化中,但无论媒介技术与网络生态如何变化,一线编辑记者尽快掌握AI技能,才是主动应变之道。
作者系光明网总裁、总编辑



来源:编采圈(公众号)
编辑:张席睿



1064#
 楼主| 发表于 2026-2-13 22:01:20 | 只看该作者
【案例】

智能的机制——阿什比论文集

大家好,接着由我来为大家翻译控制论先驱阿什比的论文集《智能的机制》。全书共有8个专题40多篇论文,基本把阿什比(除了名著《大脑设计》《控制论导论》之外)主要代表作都囊括了。除了个别零散论文(比如《智力放大器设计》)外,大多没有被翻译为中文。我想尝试翻译出来,与群友共享。也许在今天AI浪潮几乎让人疯狂的背景下,聆听一下这位控制论先驱对智能的思考对我们有帮助,能让我们冷静下来,对AI如实观照。
我们现在翻译的翻译机制定律这一专题。今天我这给大家本主题的第五篇文章《自繁殖系统》后续部分。

自繁殖系统
3. 繁殖作为一种特殊的适应在这些例子之后,我们现在可以更实际地接近这个主题。为了更清楚地看到繁殖这一过程有多么特殊,我们应该认识到,繁殖并不是通过某种奇迹般的联系专属于生物有机体的东西,而仅仅是对一类特殊扰动进行适应的专门手段。关键在于,生物自创世以来所遇到的陆地环境具有某些专门的特性,只有当我们将其与计算机内部可能存在的完全非专门化过程进行对比时,这些特性才容易被注意到。在这些陆地特性中,最主要的是一条极其普遍的规律:如果两个事物相距遥远,它们往往几乎互不影响。无疑还存在成千上万其他此类事实。我们在这里关心的是,当扰动或危险降临到有机体时,它们往往是局部发生的。也许最清楚的例子是这样的:如果地球没有大气层,那么地球上的生物将受到连续不断的高速小弹丸状颗粒的袭击。在这种弹雨下,每一个特定弹丸的威胁都是局部的,因此,如果生命形式能够复制,并且这些形式被制造并分散开来,它就会增加生存机会。这一规律当然具有极其广泛的适用性。银行可能会在某处发生火灾,因此它们制作记录副本并将其分散保存。如果一台计算机容易在随机地点发生突发故障,那么在计算的各个阶段复制重要数字就是有利的。因此我们看到,这种专门的繁殖形式应该被正确地视为与其他复杂动态过程的关系,即仅仅是对一类特殊扰动进行适应的专门形式。仅此而已,别无其他。如果扰动不是局部化的,繁殖就没有优势。例如,假设太阳突然变得致命或仅仅略有干扰。在这种条件下,物种拥有许多不同个体将一无所得。同样的现象也可以在产业界看到。当不存在公司多样性的优势时,无论是影响所有公司的生存还是全部倒闭,垄断都可以像众多小公司一样适应良好。4.基础理论经过这一考察,我们至少已经达到了一点,可以从机制逻辑的角度看到"繁殖"的真正本质。我们仅仅将其视为对特定类别扰动的适应。这意味着它立即受到Sommerhoff[3]所明确阐述的理论形式的约束。它是适应这一事实意味着,我们本质上是在处理某个动态过程的不变量。这意味着我们可以获得一个新的起点,适用于机制的新逻辑,一方面清楚地展示其内在逻辑,另一方面将该过程表述为可被机器编程或任何相关过程接管的形式。我们从一个基本概念出发:在动态系统中,系统的状态集以及该状态集到自身的映射f,对应于系统的动态驱动力。那么繁殖就是该系统组成部分f上以及作用于其上的一组扰动上保持的不变量之一。当它是这样的:整体中的某些部分受到单独影响时,"繁殖"在动态驱动力f的诱导变化作用下被泛化。必须强调,尽管繁殖在生物有机体中似乎是一个严格定义的过程,但它实际上是一个具有如此普遍性的概念,以至于在所有情况下都需要精确的定义,才能清楚我们在谈论什么。因此,在某种意义上,本文呼吁给出定义,使得作用于某物之后,我们在稍后时刻又能重新得到它。这正是凤凰的情况。这也是"自繁殖"的一种基本到无趣的类型,但这仅仅是开始。它向我们发出警告:自繁殖过程可以在广义动态系统中以无数形式发生,这些形式远远超出生物世界的多样性和控制。因为它们是非生物的,生物学家会犹豫是否称它们为繁殖,但逻辑学家一旦给出定义并被迫坚持它,就找不到拒绝给予它们这一名称的理由。一般而言,我们有一套部分,在某一时间段内,属性P是可以理解的。这个属性P,如果概念要有用,必须在系统的各个位置保持(即不变)。如果在系统的事件过程中,如果沿着任何轨迹,P的出现之后,在轨迹的后续状态中,变量"存在的P的数量"具有更大的值。应该注意的是,因为自繁殖是一种适应,它要求(正如Sommerhoff所示)有机体与环境之间的关系,又因为属性P必须在其在系统中的出现次数上是可计数的,我们必须处理一个以"部分"为组成部分的系统。我提到这一点是因为,动力学研究中的一项重要新发展是将系统实际上视为一个整体,根本不考虑部分。这种新方法不能用于繁殖研究,因为正如我刚才所说,繁殖概念要求我们将系统视为由部分组成的。新观点涵盖了一条轨迹,立即展示了这一概念有趣扩展的恰当位置。正如我所说,繁殖是不变量的一种形式。一般而言,不变量只是平衡态或循环。到目前为止,我们只考虑了平衡态,但同样重要的考虑是循环。在这里我们得出结论:如果A繁殖B,B繁殖C,C繁殖A,这种循环在生物世界中当然极其常见。不仅有昆虫经历的相当复杂的形式循环——卵、蛹、成虫等,当然还有人类繁殖本身沿着循环规律进行这一简单事实:卵子、婴儿、儿童、成人、卵子,如此往复。可以对该主题的理论进行进一步的澄清。让我们将"繁殖"定义为:当某属性的出现增加了该属性在其他地方再次出现的可能性时,即发生繁殖;这是正繁殖。我们同样可以容易地考虑"负"繁殖,即当某属性的出现降低了该属性在其他地方出现的可能性时。这类例子通常不会立即浮现在脑海中。当然,我们可以立即在通用计算机上发明这样一个系统;如果指令00000意味着"用1替换所有0",就会发生这种"负繁殖"。到目前为止,我只在真实系统中找到一个例子——即如果在电沉积过程中,一根金属晶须向电极生长,另一根晶须在附近生长的机会就会减少。因此在这种条件下,这一根或类似的晶须是自消除的。这一观察为我们提供了一个关于以下问题的明确线索:在大动态系统中,自繁殖形式将是常见的还是稀少的?负自繁殖形式显然没有突出的倾向——它们是自动自消除的。正自繁殖形式则完全不同。在没有对抗因素的情况下,它们将向前推进,直到完全占据系统。假设现在我们做出一个自然的假设:如果系统部分是随机组装的,系统越大,其中可能的形式数量就越多。再加上如果任何一个形式是自繁殖的,那么自繁殖形式将充满系统这一事实,我们得出结论:有很好的理由预期,所有足够大的系统都将充满自繁殖形式。这一事实很可能主导大型自组织系统的设计,迫使设计者将大量注意力投入到以下问题上:"在我的系统中可能发展出什么样的自繁殖形式?",并在动态系统设计中投入大量注意力来防止简单的不稳定性。5.总结过去,繁殖通常被认为是专属于生物的,并且需要非常特殊的条件才能实现。真相恰恰相反:它是一种范围最广的现象,倾向于发生在所有动态系统中,如果它们足够复杂的话。大脑很可能将这种倾向(自繁殖形式的发生)作为其正常高级过程的一部分加以利用。大型自组织系统的设计者一旦设计出真正大型且自组织的系统,就会将这一属性作为一个主要因素加以考虑。参考文献1. W. Ross Ashby, "Principles of the Self-organizing System," *Symposium on Self-organizing Systems*, University of Illinois, June 7-10, 1960. Pergamon Press, 1962.2. R. Rosen, "On a Logical Paradox Implicit in the Notion of a Self-reproducing Automaton," *Bull. Math. Biophysics*, Vol. 21, pp. 387-394, 1959.3. G. Sommerhoff, "Analytical Biology," Oxford University Press, London, 1950.



来源:宋胖说事儿(公众号)
编辑:张席睿



1065#
 楼主| 发表于 3 天前 | 只看该作者
【案例】
擅长哄睡的郭德纲,这次把华尔街哄哭了

有些段子,当年是包袱。
后来成了注脚。
那位在台上把“世界杯”说成“世界悲剧”的先生,大概不会想到,多年之后,远在华尔街的一群人,会因为另一场“超级杯”,突然集体失眠。

今年的超级杯,广告价格再创新高。
30秒,几百万美元起步。
镜头一转,人工智能巨头们轮番上场,光影流转,未来澎湃,字幕里全是“重塑”“赋能”“进化”“颠覆”。
一切都显得势不可挡。
一切都显得理所当然。
电视机前的投资人端着啤酒,看着那些画面,心里默念:时代来了。
问题是——
历史也看过这样的场面。

2000年1月,同样是超级杯。
互联网公司扎堆买广告。
还记得那只卖宠物用品的袜子狗吗?
还记得那些说要改变零售、改变金融、改变一切的创业公司吗?
两个月后,纳斯达克见顶。
接下来,是两年的下坡路。
不是互联网错了。
是股价走得太快。
当年电视里的广告,也很昂贵,也很宏大,也很自信。
没人觉得自己站在山顶。

这一次当然不同。
今天的科技巨头有现金流,有利润,有客户,有护城河。
它们不是空气公司。
它们的技术也是真的。
问题不在技术。
问题在节奏。
资本市场最容易犯的错,不是看错方向。
而是走得太急。
当所有人都相信未来已经提前兑现,
当估值里写满十年的增长预期,
当分析报告里只剩下“长期看好”四个字——
风险就不再需要制造,它只需要等待。

超级杯从来不只是体育。
它是情绪。
当一个行业开始用全民娱乐的舞台庆祝自己时,往往意味着,它已经进入最自信的阶段。
自信不是错。
过度自信才是。
当资金高度集中,当仓位过于拥挤,当叙事几乎没有杂音——
任何一点现实的延迟,都可能放大成价格的震荡。
牛市里,人们最容易犯的错,是把趋势当成确定性。

那位相声演员擅长什么?
擅长节奏。
擅长让人笑着笑着放松警惕。
资本市场也是如此。
涨着涨着,大家开始觉得自己比历史聪明。
觉得这次不一样。
觉得旧规则失效。
如果未来的盈利兑现稍慢一点,如果算力需求放缓一点,如果利率拐个弯——
市场未必会崩。
但它一定会重新定价。
而重新定价,从来不温柔。

技术革命是真的。
人工智能的浪潮也是真的。
但市场定价,是另一套逻辑。
历史告诉我们:
真正改变世界的技术,往往伴随着阶段性的过热。
问题从来不是会不会调整。
问题是——
谁在高位买入,谁在低位离场。
如果有一天超级杯被人戏称为“超级悲剧”,
别怪段子。
市场从来不是被笑话打倒的。
它是被自己的热情推到边缘的。
当全民舞台上灯光最亮的时候,
投资人最好多看一眼现金流表。
笑可以继续。
但别睡着。


编者按:写得不错,就是标题用郭德纲太噱头了,如果正文把郭德纲融进去,标题就名副其实了



来源:新面壁计划
编辑:杨泓艳









1066#
 楼主| 发表于 前天 21:10 | 只看该作者
【案例】
刺激序列记忆:人类与其他动物之间的分水岭?

刺激序列记忆:人类与其他动物之间的分水岭?》一文2017年发表在皇家开放科学杂志。先将其翻译为中文。

编者按:人与动物的记忆机制有本质区别吗?本文的科研人员试图回答这一问题。

刺激序列记忆:人类与其他动物之间的分水岭?Stefano Ghirlanda¹,²,³, Johan Lind³, Magnus Enquist³,⁴

¹美国纽约布鲁克林学院心理学系 ²美国纽约城市大学研究生院心理学与生物学系 ³瑞典斯德哥尔摩大学文化进化研究中心 ⁴瑞典斯德哥尔摩大学动物学系

摘要

人类在语言、文化和模仿等领域具有独特的能力,这使其在动物界中脱颖而出,然而研究人员一直难以识别专门属于人类的认知要素。大多数研究关注的是信息获取后的处理方式,例如在问题解决或"顿悟"任务中,但我们也可以寻找物种间在信息最初获取和编码方面的差异。在此,我们证明非人物种在辨别有序刺激序列方面的能力有限。通过整理来自108项刺激序列辨别实验的数据(涵盖14种鸟类和哺乳动物的1540个数据点),我们展示了普遍存在且系统性的错误,例如将红-绿灯光序列与绿-红和绿-绿序列混淆。这些错误可能在经过数千次学习试验后仍然存在,而人类在数十次试验内就能近乎完美地学会这些任务。为了阐明这种糟糕表现的原因,我们构建并测试了一个关于非人类序列辨别的数学模型,假设动物将序列表示为无结构的记忆痕迹集合。这种表征只携带关于刺激持续时间、新近性、顺序和频率的近似信息,但我们的模型以5.9%的平均绝对误差预测了非人类在68个数据集上的表现。由于人类水平的认知需要比记忆痕迹所能提供的更精确的序列信息编码,我们得出结论:改进的序列信息编码可能是将人类与其他动物区分开来的关键认知要素。


1. 引言

人类在复杂社会、艺术和科学方面的成就最终建立在其他物种缺乏的认知能力之上。然而,矛盾的是,研究人员一直难以识别专门属于人类的认知要素。总体而言,寻找人类独特认知的研究一直关注不同物种如何处理信息[1],而对信息如何最初编码或表征的关注较少[2-5]。在此,我们关注序列信息的编码,表明现有证据支持以下假设:非人类动物不能忠实编码它们所经历的刺激序列。

即使对人类擅长的认知领域进行粗略调查(表1),也会发现正确表征和处理序列信息对人类认知至关重要[3,6]。例如,"whale killer"(杀鲸者)和"killer whale"(虎鲸/杀人鲸)在英语中具有不同的含义,事实上所有语言都使用词序来传递信息[7]。语言以及对动作序列的模仿也需要正确编码和回忆序列信息。对非人类动物来说,这两项都是艰巨的任务[8-10]。

值得注意的是,人类的序列处理并不局限于特定的情境、刺激集或感觉模态。例如,语言可以是口头的、书面的、手语的、盲文凸点的,甚至可以是口哨的[11]。虽然我们主要关注刺激序列,但值得注意的是,序列结构对我们的精神生活也至关重要,例如在回忆事件历史、问题解决和规划未来方面。

乍一看,声称动物编码序列信息很差似乎与许多观察结果相冲突。例如,听到铃声后获得食物会使狗对铃声分泌唾液,但在获得食物后听到铃声则不会。然而,这种辨别(以及联想学习中的类似辨别)只需要记住在生物显著事件(食物)之前发生了什么,而不是对任意序列信息的表征。

其他行为,如蝙蝠的回声定位[12]和鸟类的鸣唱学习[13],涉及真正复杂的序列处理,但也可能依赖于特定任务的适应性。在此,我们关注的是动物被训练辨别序列刺激的研究,而这些刺激没有特定的生物适应性。例如,可以训练动物对序列AB(刺激A后接刺激B)做出反应,同时忽略单独的B,或对AB做出反应而忽略AA、BA和BB。

为了避免将序列处理的困难与感知或程序困难混淆,我们选择只纳入满足两个要求的研究。首先,用于组成序列的刺激应该能被动物轻易识别。入选的研究通过两种方式满足这一要求:要么刺激来自动物的自然行为库(如本物种的叫声),要么刺激根据先前研究已知是易于识别的。例如,大鼠和鸽子没有专门适应处理单色光、白噪声或纯音等刺激,但研究表明它们能够识别这些刺激并将其与实验结果联系起来。

我们还要求研究采用已知在使用单一刺激而非刺激序列时易于掌握的实验范式。例如,鸽子很容易学会通过对单一刺激进行啄食或不啄食来获得食物,因此我们纳入了训练鸽子对刺激序列进行啄食或不啄食的研究。总之,通过对刺激和实验程序施加这些要求,我们可以合理地确信,当动物无法解决辨别任务时,原因应该在于任务的序列性质,而非刺激或任务选择不当。

表1 序列信息在人类能力中的作用




2. 跨物种的刺激序列辨别

图1展示了序列辨别研究中的代表性学习曲线。第一个明显的结论是,序列辨别比单一刺激辨别困难得多。例如,大鼠可以在10-50次试验中完美辨别两种刺激(前提是刺激不太相似),但可能需要数千次试验才能辨别两个序列(图1a)。图2显示了所有综述研究在达到一定表现水平所需训练量方面的总结。



图1. 人类与非人类动物的序列辨别


形式为"X versus Y"的标签将X标识为强化序列,Y标识为非强化序列。纵轴(%正确)表示对强化序列发出反应的比例。
(a) 大鼠对两个声音序列的辨别习得(AB versus BA,各重复五次,两个实验[14,15]);同时展示了两个A versus B辨别(向左走versus向右走,选择黑色versus选择白色[16])的快得多的习得速度。
(b)大鼠对使用集合{AAB, ABA, ABB, BAA, BAB, BBA}中序列形成的三个辨别的习得[17]。
(c)狗对两个强化声音序列AB和BA,以及两个非强化序列AA和BB的辨别[18]。
(d)鸽子(浅蓝色[19])和人类(品红色,电子补充材料S3)在相同任务上的表现比较。
(e) 鸽子对三刺激视觉序列的辨别[20]。
(f)椋鸟的声音序列辨别:16个AABB versus 16个ABBA序列[21]。
(g)海豚对声音序列的辨别[22]。
(h)斑马雀对鸣唱音节序列的辨别[23]。
空心菱形表示训练后测试的未训练序列的反应。对于这些序列,"50%正确"意味着反应等于训练序列的反应;"100%正确"意味着无反应。

线性混合模型分析显示,辨别表现受试验次数的显著影响(χ²(1)=34.2, p<10⁻⁸),但物种无显著效应(χ²(5)=7.23, p=0.20),且物种与试验次数无交互作用(χ²(3)=0.95, p=0.81),这表明序列辨别学习的速度没有大的物种差异。

综述研究中的辨别对人类来说是微不足道的,因此很少被研究。事实上,人类研究通常采用5-10个元素的序列,往往只呈现一次或几次[24,25]。然而,一些研究确实在相同任务上比较了人类和其他物种。

在两项比较 Bengalese 雀[26]和斑马雀[27]与人类的研究中,鸟类需要300-800次试验/序列才能达到80-90%的准确率,而人类只需6-8次试验/序列就能学到90-98%的准确率,即使序列由人类不熟悉的 Bengalese 或斑马雀鸣唱音节组成。在另一项研究[28]中,人类用30次试验/序列达到90%正确率,而猕猴需要400次试验/序列才能学到70%准确率。最后,我们复制了一项研究[19],该研究训练鸽子辨别序列AB(强化)与序列AA、BB和BA(图1d)。在我们的复制中,人类在25次试验/序列内达到超过95%的准确率,而原始研究中鸽子需要1000次试验/序列才能学到85%的准确率。

比较人类和非人类数据可能存在几个潜在的混淆因素。首先,使用的刺激可能被人类比被动物更容易辨别。这在综述研究中似乎不太可能,这些研究使用了鸟鸣音节[26,27]、明显不同颜色的灯光[19](鸽子的色觉优于人类),或简单音调[28],在猕猴能够辨别约5Hz差异的频率范围内相差约50Hz[29]。其次,人类可能受益于言语指导。然而,动物通常接受关于实验设备的广泛预训练,这本身包含数百或数千次训练试验(这些未纳入我们对学习时间的分析)。因此,在辨别任务开始时,动物对实验设备非常熟悉。此外,任务指导通常涉及任务的机制,即可以做出反应并获得关于正确性的反馈,但不会揭示正确答案是什么。


图2. 所有综述研究的最终表现与训练量的关系(电子补充材料S1)


颜色表示物种;点的形状表示被训练反应的刺激序列长度。阴影区域显示研究最多的物种数据所涵盖的数值范围。括号中的数字指每个物种的实验数量。山雀1指黑顶山雀;山雀2指高山山雀。研究个体总数从100多只鸽子和老鼠到1只海豚不等。

表2. 序列结构和时间参数对辨别表现的影响

效应以正确反应百分比的估计变化来衡量。显著性通过线性混合模型的偏差分析评估(自由度为1的χ²统计量)。前两行指以%正确反应为因变量、两个固定效应变量(待辨别序列中最后刺激的身份,以及最后两个刺激的身份)和实验为随机效应(以控制实验任务差异)的线性混合模型。该分析仅限于使用二或三刺激序列的研究。以下各行估计时间参数的效应。这些效应指自变量增加1秒的影响。例如,刺激持续时间增加1秒估计可使正确反应提高2%。所有模型均为线性混合模型,仅限于变化了感兴趣变量的研究,以实验为随机效应。






图2显示,即使 within species,给定学习试验次数的表现也存在很大差异。我们使用线性混合模型研究了这种差异的来源,将辨别表现与序列的结构和时间方面联系起来(表2)。我们发现,当序列以相同刺激结尾时,辨别更加困难(图1d,e),当最后两个刺激相同时,辨别甚至更加困难(图1e)。此外,我们证实了文献中的观察结果,即延长刺激之间的空白间隔或序列结束后的空白间隔对表现有不利影响。相反,延长刺激持续时间和试验间间隔可以改善表现。

我们的结果并不否定动物能够对在进化中形成特定适应的序列进行复杂处理[12,13]。相反,它们表明,与人类相比,非人类动物辨别任意刺激序列的能力有限。以下观察结果加强了这一结论,其中一些已在上面提及。我们综述的研究训练了简单的工具性辨别,当涉及单一刺激而非序列时,这些辨别很容易被掌握(图1a)。使用的刺激本身易于辨别(高音与低音、深色与浅色等)。一些研究确实使用了动物应该能够很好处理的自然主义刺激,如同种叫声[23,26,27]。

关键的是,动物可能很容易解决某些辨别任务,而在其他任务上却有很大困难,即使在同一实验中也是如此。例如,在图1e的实验中,鸽子在约300次试验中以95%的准确率辨别BAB与AAA,但在约2000次试验中几乎无法提高辨别BAB与AAB的能力。在这些情况下,困难显然在于序列的时间结构,而非任务或刺激选择不当。

3. 非人类序列记忆的模型

几位作者提出,非人类序列辨别可能依赖于简单的记忆痕迹,即刺激移除后逐渐消退的"印象"[31,32]。例如,AB和BA可以根据第一个序列导致更强的B痕迹和更弱的A痕迹来区分。在此,我们基于这一直觉构建了一个数学模型,并对其进行定量评估。

我们将时间t时刺激S的痕迹定义为单个数字mₛ(t)。当S存在时,mₛ(t)增加到最大值1;当S不存在时,mₛ(t)减少到0。我们假设mₛ(t)遵循以下微分方程:


其中mₛ'(t)是mₛ(t)的时间导数,r_up和r_down分别是记忆增加和减少的速率。方程(3.1)可以很容易地求解(电子补充材料S2),使我们能够计算任何刺激序列的记忆痕迹。


图3. 通过记忆痕迹表征刺激序列
(a)等长双刺激序列的表征(AA和BB表示相同刺激的重复)。左侧图表显示记忆痕迹的动态变化。蓝线表示A的记忆,红线表示B的记忆。阴影区域表示每个刺激呈现的时间。右图显示痕迹如何映射到二维记忆空间。我们假设辨别的难度与该空间中的距离成反比。
(b)痕迹记忆与具有严格顺序概念的简单记忆模型的比较(详见正文)。
(c)第一个刺激远长于第二个刺激的AB和BA序列的表征。记忆痕迹比(a)中更接近,假设对应于更困难的辨别。
(d) 痕迹记忆与顺序记忆相对于(c)中序列辨别的比较。

图3a展示了四个等长双刺激序列(即AA、AB、BA和BB)的示例记忆痕迹。该图还显示了序列如何被映射到二维记忆空间中的四个代表性点,以A和B的痕迹强度为坐标。也就是说,A和B序列在时间t的表征是t时刻A和B记忆痕迹的配对(mₐ(t), m_b(t))。图3a中的点对应于序列结束的时间。

我们模型的主要思想是,两个刺激序列的可辨别性取决于做出决策时序列表征的距离,即动物被要求在选择反应或不反应时。例如,图3b中AA、BB和BA相对于AB的相对距离表明,辨别AB与BB应该很困难,因为这两个序列的表征彼此接近。AB与BA应该是更容易的辨别,AB与AA应该更容易。实证数据确实显示了这种顺序(图1c)[19,33]。

并非所有记忆表征都会导致相同的结论。例如,图3b还显示了具有严格顺序概念的记忆模型中记忆之间的距离。我们将此模型称为"顺序记忆"。该记忆有四个比特。比特一和比特二编码序列第一个位置中A和B的存在(1)或不存在(0);比特三和比特四编码第二个位置中A和B的存在或不存在。因此AB表示为{1,0,0,1},而AA表示为{1,0,1,0}。如图3b所示,在顺序记忆中,AA、BB、AB和BA的表征相距更远,因此根据我们的假设,辨别应该比痕迹记忆更容易。图3c、d显示了如果第一个刺激远长于第二个刺激,两种记忆如何受到影响;在痕迹记忆中辨别的难度增加,但在顺序记忆中没有增加。

方程(3.1)是我们序列辨别模型的核心。然而,为了将模型与数据进行比较,我们还需要关于记忆表征如何用于决策的假设,我们将其保持得尽可能简单。考虑一个强化序列p和非强化序列n之间的辨别,令d(p,n)为做出决策时它们表征之间的欧几里得距离。直观地说,d(p,n)越大,辨别应该越容易。如果R(p)和R(n)表示经过一段训练后对p和n的反应强度,我们可以将此直觉形式化为:


其中左边是正确反应的比例(图1中以百分比表示的量),c是正参数。根据方程(3.2),对于表征为相同的序列(d(n,p)=0),辨别表现在机会水平(1/2,或50%正确),并随表征之间的距离增加而增加。

当有多个强化和非强化序列时,方程(3.2)不够充分,但可以通过将通用序列x的反应R(x)写为:


来推广,其中g和h是常数,⟨d(x,n)⟩和⟨d(x,p)⟩是x与所有非强化和强化序列的平均距离。方程(3.3)反映了简单的假设,即反应是接近强化序列和远离非强化序列的函数。

我们通过拟合记忆参数r_up和r_down来评估方程(3.1)和(3.3)给出的模型,以最大化观察到的辨别表现与模型预测之间的相关性(g和h也被拟合,但这仅仅是为了将基于任意距离单位的R(x)带入[0,1]范围,这是模拟辨别表现所必需的)。我们在一个实验中对所有刺激使用相同的r_up和r_down。跨实验,我们拟合不同的r_up和r_down值,以解释已知影响动物工作记忆的实验细节差异。此外,我们在刺激间和试验间间隔期间使用第三个参数r_blank ≤ r_down,基于记忆消退在外部刺激最小化时较慢的假设。


图4. 使用记忆痕迹模型(图3)预测序列辨别表现
我们在有个体数据时拟合个体数据,否则拟合群体平均值((l)为清晰起见显示群体平均值,但个体拟合相似,研究信息见电子补充材料S1)。在(i)中,机会水平为16%正确而非50%。研究物种:(a-i)鸽子;(j)恒河猴;(k-m)斑马雀;(m)虎皮鹦鹉。(k-m)面板包括对未明确训练反应的测试刺激(参见图1h)。

我们找到了68个数据集,提供了足够的信息来评估一组辨别的相对难度(图4)。这些数据代表了表2中报告的所有效应,包括刺激持续时间(范围:0.1-12秒)、试验间间隔(5-60秒)、刺激间间隔(0-50秒)以及序列结束与反应机会之间间隔(0-50秒)的变化。痕迹模型与数据的拟合令人印象深刻,预测与观察反应之间的平均皮尔逊相关系数为0.88,每个数据集的平均绝对误差为5.9%(图5)。


图5. 图4中68个拟合数据集预测表现与观察表现之间平均绝对误差(MAE,红色)和皮尔逊相关系数(蓝色)的分布



MAE指每个数据集的|R(xᵢ) − Rᵢ|平均值,其中xᵢ为测试刺激序列,Rᵢ为对xᵢ的观察反应,R(xᵢ)为拟合记忆痕迹模型预测的反应(见电子补充材料S2)。反应在[0, 1]区间内标准化,因此MAE为0.1表示10%的平均误差。

关键的是,痕迹模型成功地再现了如果序列信息被忠实编码则不会预期的序列结构效应。例如,当第一个刺激远长于第二个刺激时,AB与BA的辨别被预测为比刺激等长时更困难(图3)。事实上,MacDonald[32]发现,在约7000次训练试验后,等长刺激的准确率约为50%,而在约9000次试验后,第一个刺激是第二个刺激八倍长时的准确率仅为约25%(在这项研究中,机会水平为16%)。

痕迹模型还解释了通常用符号规则或语法分析的复杂辨别[17,21,23]。例如,斑马雀在接受训练对ABA和BAB做出反应但不对AAB、ABB、BAA或BBA做出反应后的表现(图1h)被痕迹模型准确预测(图4j)。值得注意的是,该模型还正确预测了对未训练测试序列的反应。例如,BBAA被像BAA一样对待(很少反应),而BABA被像ABA一样对待(强烈反应)。这一结果用规则或语法学习很难解释[23],但自然地遵循以下事实:序列X₁X₂X₃X₄(其中每个Xᵢ是A或B)的痕迹必然类似于X₂X₃X₄的痕迹,因为第一个序列中X₁的记忆要么被覆盖(如果相同刺激在序列后面重新出现),要么被时间抹去。

4. 讨论

我们的结果表明,研究表征和处理序列信息的能力对于理解人类与其他物种之间的认知差异很重要。序列记忆在人类中更发达的假设似乎得到现有证据的支持,但需要更多工作来最终评估它。特别是,应该用更多物种进行序列辨别实验,我们将在下文讨论。

我们的样本(八种鸟类和五种哺乳动物,包括两种灵长类)足够多样化,表明序列辨别学习存在普遍困难,但确实存在空白。值得注意的是,我们没有找到与猿类的实验。Endress等人[35]在声音序列的习惯化-去习惯化任务中发现了黑猩猩与人类的一些差异,但这一发现的意义尚不清楚,因为该任务不要求被试做出辨别(即,对任何序列做出反应或不反应都没有后果;这一观察也适用于其他习惯化研究[36])。猿类在延迟匹配样本实验中与其他哺乳动物表现相似[34],但其他实验范式的研究表明至少对于短间隔具有良好的工作记忆[37]。然而,后一项研究不要求猿类记住刺激序列,而是同时呈现的刺激阵列。总之,关于猿类的序列处理能力还有很多需要确定的地方。

鸣禽是另一组可能具有比痕迹记忆更先进的序列表征能力的群体,尽管可能仅限于鸣唱或其他听觉刺激。在大多数鸣禽中,幼鸟通过听成年鸟的歌唱来帮助更新模板记忆,从而学会鸣唱[13,38]。模板如何指导鸣唱学习因物种而异[13,39],但至少在某些情况下,它似乎能够编码准确的时间信息[40,41]。

虽然我们的结果表明人类具有改进的序列信息记忆,但它们没有直接展示人类记忆如何克服非人类记忆的局限性。一个明显的可能性是,人类记忆得到语言的帮助[42,43]。例如,语言可能使形成明确的言语策略成为可能,如"只有当第一种颜色是蓝色且第二种是黄色时才反应"。虽然这种可能性具有直观的吸引力,但语言本身似乎也需要编码和表征序列信息。换句话说,如果我们不能形成诸如"第一"、"第二"、"之前"或"之后"的概念,我们就不会有这些词。也有可能语言和忠实的序列记忆都不是完全原始的,它们在发展过程中相互促进。事实上,研究表明序列处理和语言能力深深交织在一起[44-47]。进一步研究绘制前言语和幼儿序列辨别能力的发展将是有启发性的。

痕迹记忆模型对序列辨别数据的准确拟合提出了未来研究的几个问题。痕迹模型纯粹是"回顾性的",即决策是在反应时基于通过(不完美的)工作记忆"回顾过去"做出的。也有人提出动物工作记忆的"前瞻性"解释,其中决策(在逻辑可能的情况下)在体验刺激时做出,然后被记住直到反应时间[48,49]。回顾性模型有时基于言语论据被拒绝[48,49],但使用计算模型重新评估这个问题可能是值得的。

关于序列信息处理的其他方面也可以提出类似的评论。例如,有人建议[50,51]动物可能通过将刺激集组合在一起("组块";见[24]),或通过用抽象规则或语法表征刺激[17,23,52],形成更复杂的刺激表征。痕迹模型很好地解释了许多序列辨别任务,包括一些最初设计为语法决策任务的任务[23,27],这提出了痕迹记忆也可能解释组块、语法学习特征以及可能其他范式特征的可能性。至少,痕迹模型以其简单性,可以作为评估数据是否需要假设更复杂处理形式的有用基线。

我们的发现在试图识别人类与其他动物之间认知差异的尝试中脱颖而出:如果非人类动物缺乏忠实表征序列信息的能力,人类与动物之间的差异可能比通常认为的更为根本。 事实上,当前研究专注于认知的特定方面,如规划[53,54]、社会学习[55-57]、规则学习[17,58,59]或语法学习[21,27,36,51,52]。然而,人类在所有这些活动中都表现出色。此外,这些活动都预设了序列信息的准确编码和表征(表1)。因此,序列编码和表征的分类学差距将显著有助于解释人类与其他动物之间的认知鸿沟。如果人类依赖简单的记忆痕迹进行序列处理,这个星球上可能就不会有语言、音乐、复杂文化或数学。

伦理声明。 本研究不涉及动物被试。图1d和电子补充材料中报告的人类被试实验经CUNY IRB批准,代码为412807。

数据可获取性。 模型拟合的数据和代码可在https://doi.org/10.6084/m9.figshare.3179239.v1公开获取。

作者贡献。 S.G.、J.L.和M.E.构思了研究。S.G.、J.L.和M.E.收集和分析数据。S.G.进行模型拟合。S.G.、J.L.和M.E.撰写手稿。所有作者最终批准发表。

竞争利益。 作者声明无竞争利益。

资助。 S.G.、J.L.和M.E.获得Knut和Alice Wallenberg基金会2015.0005号资助支持。S.G.还获得CUNY研究生院跨学科研究委员会的奖学金支持。

致谢。 我们感谢Carel ten Cate、Robin Murphy和Timothy Gentner分享数据;Kimmo Eriksson、Pontus Strimling、Carel ten Cate和Ofer Tchernichovski提供评论;Dorie-Mae Nicolas、Ruzana Safonova和Justin Varughese收集图1d中的人类数据。图1中的剪影经www.psdgraphics.com(人类)、www.pd4pic.com(椋鸟)和www.animal-silhouettes.com(其他)许可使用。

部分重要参考文献

[1] Thalgard P. 2014 认知科学. 斯坦福哲学百科全书.
[2] Coolidge FL, Wynn T. 2005 工作记忆、其执行功能与现代思维的出现. 剑桥考古学杂志.
[3] Dehaene S 等. 2015 序列的神经表征:从转移概率到代数模式和语言树. 神经元.
[5] Penn DC, Holyoak KJ, Povinelli DJ. 2008 达尔文的错误:解释人类与非人类思维之间的不连续性. 行为与脑科学.
[6] Lashley KS. 1951 行为中序列顺序的问题. 大脑机制与行为.
[13] Catchpole CK, Slater PJ. 2008 鸟鸣:生物学主题与变异.
[17] Murphy RA 等. 2008 大鼠的规则学习. 科学.
[21] Gentner TQ 等. 2006 鸣禽的递归句法模式学习. 自然.
[23] van Heijningen CAA 等. 2013 斑马雀在人工语法学习任务中的规则学习:什么规则?动物认知.
[24] Miller GA. 1956 神奇的数字七,加减二:我们处理信息能力的某些限制. 心理学评论.
[34] Lind J, Ghirlanda S, Enquist M. 2015 动物记忆:来自25个物种的延迟匹配样本数据综述. 行为过程.
[42] Dean LG 等. 2012 识别人类累积文化背后的社会和认知过程. 科学.
[44] Merzenich MM 等. 1996 语言学习障碍儿童的时间处理缺陷通过训练改善. 科学.



来源:宋胖说事儿
编辑:杨泓艳

1067#
 楼主| 发表于 昨天 22:15 | 只看该作者
【案例】
“在澳门输掉十几亿”,黄晓明公开回应:系AI做的假新闻,谣言离谱却伤人


2月21日,黄晓明在综艺《宇宙闪烁请注意》真假故事环节,正面澄清“澳门输掉十几亿元”系AI生成假新闻,谣言离谱却伤人,呼吁大家理性辨别网络信息。

他感叹“离谱到家的假新闻仍有人信”,并借此呼吁公众擦亮双眼、辨别信息真伪。


相关报道:

去年3月12日晚,黄晓明晒拍戏日常照,在线辟谣输了十个亿。


他分享多张照片写道:“拍着拍着一个不经意地抬头,哇!日落真美啊!快拍一个你那里的抬头看看。”
有网友在评论区留言“你输了十个亿啊”,黄晓明火速回复:“欢乐豆吗?”


黄晓明回应后,大批网友留言“好多视频博主说澳门输10亿是黄晓明,终于出来辟谣了”“欢乐豆输十亿也挺离谱”。


相关话题火速登热搜榜,出稿前话题阅读量超3244万,热度超高。


公开资料显示,黄晓明,1977年11月13日出生于山东省青岛市,毕业于北京电影学院表演系,是中国内地影视男演员、流行乐歌手,代表作有《大汉天子》《神雕侠侣》《新上海滩》《鹿鼎记》《风声》《中国合伙人》《琅琊榜之风起长林》《无问西东》等。
除了黄晓明,此前周杰伦也回应了该传闻。
据悉,去年3月10日,多家自媒体爆料称,某“超一线男星”在澳门永利皇宫贵宾厅连续七日豪赌,输光10.3亿元流动资产,并抵押三处豪宅及私人飞机以填补赌债。


据潇湘晨报此前报道,去年3月10日晚,微博首席执行官王高飞@来去之间 发文回应网传“超一线男星澳门赌博”称:“最早的好像是2024年10月的,AI分析完判断该传闻缺乏实质性证据,且主要信息源为匿名账号及营销号,存在动机和逻辑漏洞……”

去年3月11日下午,@杰威尔音乐官方微博 发布声明:

今日出现在微博热搜,关于“某超一线男星,在澳门豪赌”等相关消息,部分网友影射此男星是本公司艺人周杰伦。公司特此声明,该传闻所有内容均与周杰伦无关!请各界勿再以讹传讹。



来源:齐鲁晚报
编辑:杨泓艳

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表