传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索

人工智能与新闻业案例集锦

查看数: 81738 | 评论数: 1066 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2018-12-17 23:15

正文摘要:

当代社会,技术支撑的这个世界变化有点快,算法、人工智能等技术让人眼花缭乱,新闻业也搭上了这班快车。我们不得不开始收集这方面的信息,以免被时代很快淘汰。

回复

刘海明 发表于 2023-5-12 23:20:34
【案例】
谷歌携大模型反击,生成式AI搜索功能首次面向公众开放
谷歌5月10日召开I/O开发者大会,该公司正在日益竞争的搜索市场为其核心搜索产品整合更多人工智能的功能。微软最近几个月加速了对搜索引擎Bing的更新,并获得了更多的市场份额。
周三在加利福尼亚州山景城举行的年度I/O大会上,谷歌推出了新版本谷歌搜索,可以对开放式提问做出响应。就在上周,微软也向所有用户开放了新Bing搜索功能。
发布会后,谷歌股价上涨4%,今年迄今为止,该公司股价累计上涨了26%,远超标普500指数涨幅。
今年2月,谷歌在发布聊天机器人Bard之后,导致股价暴跌,市值缩水1000亿美元。该公司最新表示,现在Bard将像OpenAI的GPT-4一样是多模态的。
“我们正在重新构想我们所有的核心产品,包括搜索。”谷歌CEO桑达尔·皮查伊(Sundar Pichai)在开发者大会上表示。
他说,谷歌正在将生成人工智能整合到搜索以及Gmail和Google Photos等产品中,Gmail可以起草邮件,Google Photos可以对图像进行更改。包括美国用户在内的谷歌在全球180多个国家地区的用户在未来几周内可通过等候名单获得搜索生成体验,谷歌称,将在试用阶段监控搜索结果的质量、速度和成本。
谷歌还更新了AI大模型PaLM 2,希望能够夺回其人工智能领导地位。该公司称这是“下一代通用的语言模型”,在某些任务上优于其他领先的AI系统。
据介绍,PaLM 2将为AI聊天机器人提供支撑,还可以在语言之间进行翻译、编写计算机代码,甚至可以分析和响应图像。 结合这些功能。例如,用户可以用英语询问有关法国餐馆的问题,系统将能够在网络上搜索法语的回答,找到答案,并翻译成英语,还能添加位置图片,为该地点创建数据库条目。
“我们现在正在经历的神经网络革命起始于大约10年前,且部分始于谷歌。”PaLM 2项目联合负责人Slav Petrov表示,“我们很高兴能够在外部广泛使用这些模型,因为我们想看看人们可以用它们做什么。我们相信,由于过去几年我们在机器学习方面取得的惊人进步,它们会提供很多机会来做以前被认为神奇且遥不可及的事情。”
在微软支持的初创公司OpenAI推出ChatGPT之后,谷歌正在加速追赶,这也推动了科技巨头之间的新一轮技术竞赛。生成式AI可以使用过去的数据创建全新的内容,例如完整的文本、图像和软件代码。ChatGPT已成为许多生成AI的默认版本,帮助用户创建合同、旅行路线,甚至小说。
谷歌正在奋力捍卫搜索市场以及巨大的在线广告市场的份额。研究公司MAGNA估计,谷歌广告营收今年可达2860亿美元。
为了安抚人们对于人工智能生成虚假信息的担忧,谷歌称将优先考虑信息的准确性,并引用可信来源。谷歌还推出一项新功能,将标记它用人工智能生成的图像,从而让人们更容易审查图片的真实性。
谷歌强调,利用大型语言模型AI生成内容的一个挑战是高昂的费用。目前业内正在研究各种不同的方法,从而降低成本。
来源:第一财经
链接:
编辑:洪韵

刘海明 发表于 2023-5-12 23:46:37
【案例】
美国媒体大亨警告称AI可能“破坏”新闻业
美国媒体业亿万富翁巴里·迪勒(Barry Diller)警告称,除非出版商能够利用版权法加以控制,否则人工智能将对新闻业造成“破坏性”影响。迪勒表示,自由允许人工智能访问媒体内容将被证明是一个错误,“合理使用”的概念——可用于涵盖机器学习数据集中受版权保护的材料——需要重新定义。如果有必要,他愿意修改版权法。
来源:全球TMT
编辑:洪韵

刘海明 发表于 2023-6-22 20:33:30
【案例】
普华永道发布《2023元宇宙展望》报告!
2023年,元宇宙以及企业下一步的发展方向依旧是行业热议话题。普华永道根据自身洞察和经验作出如下六大展望,以期为商业领袖们提供引导。这些展望包括元宇宙接下来将应用于哪些领域、哪些技术可能会发展得最快、商业领袖应如何行动以使企业规避风险等等。简而言之,元宇宙尚未完全进入黄金时代,但当下已经开始创造真正的商业价值,并为企业重塑未来做好准备。
普华永道全球科技、媒体及通信行业主管合伙人周伟然表示:“虽然目前元宇宙仍处于概念阶段,但与其相关的众多概念已经和各种业务产生关联。在中国市场,跨行业的技术与业务创新也正在促成逐渐繁荣的元宇宙产业格局。元宇宙经济发展、元宇宙建设与运营,均涉及复杂的技术体系和生态资源,如互联网、物联网、5G/6G通信、人工智能、区块链、增强现实、虚拟现实和云计算等各类关键技术要素,在元宇宙发展过程中,也必将拉动壮大这些相关技术领域的市场规模。同时,元宇宙也将推动了由不同利益相关方(政府、产业园区、行业协会、学术研究)和参与者(元宇宙内容与服务业、其他行业)组成的巨大生态系统的发展。根据一些全球研究机构预测,到2030年,元宇宙将开启价值8至13万亿美元的新业务机遇,市场前景非常广阔。”
1. 商业经营者将成为元宇宙的超级用户
越来越多的企业开始探索在元宇宙中模拟实体运营。例如,零售商可以创建数字实体店,让顾客和员工以虚拟的方式尝试交互,来提高满意度和销量。餐饮业经营者在厨房布局和座位设计上也可以进行同样的尝试。制造商可利用元宇宙的新数据增强数字孪生模型,从而改进其供应链、生产和物流。
普华永道预计,未来几年会有更多元宇宙特有的产品和服务来搭建消费者与商业元宇宙之间的桥梁,例如:以虚拟角色组建的客服中心、金融教育、远程医疗以及完全沉浸式的全新商业体验等。
普华永道建议:将元宇宙投入实际应用最有效的开始方式,是将元宇宙计划与具体、可衡量的业务成果结合起来。目前,元宇宙可以实现的成果通常包括品牌建设和客户参与、多样化且不断增长的收入流、员工赋能和流程优化等等。在设定目标后,可根据需要开发新功能,例如元宇宙特有的定价和伙伴关系策略,或新的运营模式和管理方法。同时,也应利用控制测试、项目管理和绩效监控等措施来保证元宇宙计划的有效实施。
2.元宇宙的成败取决于可信度
元宇宙计划的成败将更多地取决于可信度,而不是功能。元宇宙并不需要全新的风险管理方法。相反,通过对现有方法进行适当调整,可以实现对新风险的管控,增强可信度。要负责任地使用元宇宙,应从六个方面考量新的可信和风险因素,涵盖经济效益、数据、治理(包括网络安全)、数字身份、用户体验和自持续性(如果弃之不用,则不会影响元宇宙的持续演化)。
普华永道建议:管理元宇宙风险的指导原则是确保在前期和整个过程中融入可信度设计:如果企业在元宇宙计划的设计阶段就将风险管理纳入其中,那么后期有可能避免付出昂贵代价。其他主要原则包括:
提升管理层认知技能,如果管理层对元宇宙缺乏足够的了解,会为制定元宇宙战略决策带来风险;
创建针对自身企业及其元宇宙计划的风险分类;跨领域协作,考虑到在元宇宙环境下,许多跨职能和跨业务线的协作方式均存在风险性
3.人工智能和扩展现实(VR)将协同助力元宇宙推动转型
VR是一项极具吸引力且实用的技术。企业已将其用于入职、培训、部门协作、客户体验等方面。当然还有其他通往元宇宙的途径,比如增强现实(AR)设备、笔记本电脑和智能手机。
普华永道相信,人工智能(AI)不仅将成为元宇宙的基础性技术,同时还具有变革性。就像在当今互联网上用户无需成为程序员也能设计网页,无需成为技术专家也可以创建一个元宇宙空间。AI也会不断地赋能“虚拟数字人”(计算机生成的虚拟人),也许还能激励人们与虚拟人进行互动,就像与真人互动一样。
当然,AI的发展不仅会带来新的风险,还会加剧既有风险,包括潜在偏见、深度造假和滥用体验。几乎可以肯定,AI也会引发新的合规挑战。例如,个性化算法在一定程度上会减少人们在信息消费中付出的成本,但围绕算法推荐机制下的信息茧房效应,中国已经产生了热烈的讨论,包括主流媒体、知名学者都卷入了这场讨论,并对监管方向调整产生了影响。目前看来,多个地区可能会针对AI制定适用于元宇宙的新法规。
普华永道建议:在元宇宙中推进AI发展的更优办法是部署负责任的AI,使其能恰如其分地完成各项需求。AI在元宇宙中的发展还可能会带动数据策略和治理更广泛的升级。毕竟,大多数企业不仅没有准备好借助AI充分利用元宇宙所带来的数据机遇,甚至也没有充分意识到从已有的数据中可能找到的价值。这或许意味着,“技术中立”这一理念在未来或许会受到挑战,“向善”价值观下产生的技术,或许会是一个更好的选择。
4.元宇宙将成为每一位管理者的必由之路
元宇宙可能很快会触及企业的方方面面。在普华永道的元宇宙调研中,82%的受访高管预计元宇宙计划将在三年内成为其业务活动的一部分。随着元宇宙变得无处不在,每一位高管都应该在元宇宙的发展过程中发挥作用——尤其一些非技术型高管更加关键。可能催生的一些新职责包括:
首席执行官和董事会:制定战略优先事项,为客户和员工不断变化的期望做好准备,并提前应对新的威胁和风险。
首席运营官(COO):帮助部署新工具和技术。
首席营销官(CMO):重新思考沉浸式数字世界的客户参与、体验设计和品牌建设。
首席财务官(CFO):关注数字资产(如加密货币和NFT)在元宇宙中日益增长的使用;了解参与处理关键交易的新第三方;仔细评估投资配置,并加强对财务报告的控制。
首席人力资源官(CHRO):部署元宇宙工具,使之应用于员工招聘、入职、培训、连接和协作。
税务领导者:遵守快速变化的规则,发现新的税务价值。这些非技术型高管不仅需要彼此密切合作,还要与首席数字官、首席创新官、首席信息官和首席信息安全官合作,创建并维护企业的元宇宙基础设施、体验和数据管道。
普华永道建议:许多团队需要提升技能(如上所述),但这还远远不够。为了避免众多高管间的工作出现冲突和交叉,可以考虑任命一位高管来管理企业元宇宙相关的所有活动。该角色可以是一个新设立的职位,也可以在现有职位上兼任。无论以何种方式,首要任务之一即是加强高管之间的沟通。
5.元宇宙将成为一股“向善”的力量
对于支持并日益重视ESG(环境、社会及治理)倡议的企业,元宇宙可以成为将会提供更多助力。例如,元宇宙会议可以取代一些面对面的会议,从而减少商务旅行的碳排放,而商务旅行正是碳排放的主要来源之一;元宇宙中的数字孪生技术可以帮助提高企业运营能耗效率;元宇宙中的店铺可以让消费者试用实体产品的数字复制品,减少退货产生的运输需求;通过数字代币,元宇宙可以帮助原材料溯源,减少供应链中的环境问题。
通过将更多的业务虚拟化,即打破地理空间和工作地点的限制,企业可以接触并招募更多的员工。元宇宙的真实模拟可方便邀请各地的责任相关方监督、参与并从事相关工作,帮助改进企业履职能力,提升透明度。不过,要让元宇宙成为改进企业工作的积极力量,还需要企业下定决心才能实现。
普华永道建议:要使元宇宙计划成为一股“向善”的力量(以及实现ESG目标的有力助手),企业需要遵照和风险管理相同的指导原则:从一开始就将其设计在这些优先事项中。如果在元宇宙计划早期就已嵌入了ESG目标(包括多样性目标)和相关管理,那么企业不仅能够为未来做好准备,还可能会获得投资者、员工和其他利益相关者的支持,但这需要一些方法来衡量和报告元宇宙计划及关键性元宇宙赋能技术对ESG的影响。
6.企业将争夺过去不曾需要的新技能
任何新技术都需要新的技能,但是元宇宙及其相关科技需要的技能更为高度专业化,其中一些在几年前几乎都不存在,例如监控和验证交易的需求,收集和保护Web3生态系统中数据的需求,后者随着元宇宙应用的增加而不断增长。许多企业领导者也对网站设计师和互联网用户体验专家的需求持怀疑态度,大多数人甚至没有考虑网络运营所需的全新的网络安全和数据科学技能。很多技能已然日趋紧缺,因此在获得或培养这些技能方面事不宜迟。
普华永道建议:在中国市场上,由于网络游戏等元宇宙相关行业的快速发展以及涨落,拥有元宇宙相关技术能力的人才也在不断外溢;如何抓住这些人才红利,一方面需要企业高管对自身的元宇宙价值定位、业务发展思路有前瞻性的决策,从而为这些人才创造发挥的空间,同时,打造企业文化,吸引和包容富有创造力的尖端技术专家也至关重要。
为数字现实的新一轮发展做好准备
普华永道的六大展望,旨在从专业视角看到元宇宙正处于变革时代:数字世界和实体世界将比过去更完全、更无缝地结合在一起。将实体身份与数字身份、产品和资产相结合,将其引入至不同平台,或分享或出售不同的组合…这些操作将比以往更加具有可行性。鉴于此,企业应该从现在开始,在探索元宇宙的道路上先行一步,让未来在元宇宙的世界大有可为。
来源:新浪新闻
编辑:洪韵

刘海明 发表于 2023-6-25 20:07:31
【案例】
邓建国 | “延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT
摘要
媒介技术既是“毒药”也是“良药”(pharmakon)的矛盾观念由柏拉图在《斐德罗》篇中最先提出。ChatGPT也具有这样的矛盾性:一方面,它作为“延伸的心灵”将和书写(文字)一样在与人类的合作共创中实现两者心灵的共同演化;另一方面,它号称“对话性”人工智能,但仍具有书写的撒播和他者特点。在与ChatGPT的互动中,我们要避免使其沦为海德格尔笔下闲言不断的“常人”,并宽容、珍惜、庆幸和受益于它的“他者性”。在不断的相互学习和合作中,人类将会对“何为人性和创造性”有更深的认识,并与人工智能一起找到各自的生态位
关键词
ChatGPT;延伸的心灵;书写;对话;撒播
在今天“短视频为王”的时代,书写(writing)[1]似乎已成为一种失落的艺术。各互联网平台都要求博主们将知识可视化、口语化和网感化,“因为这样Z世代网民才会喜欢”,这导致网络中充斥支离破碎、逻辑混乱、幼稚化和粗俗化的语言。大学校园中,学生很难写明白一句话、一段话,遑论一篇论文。书写这一人类“延伸的心灵”正在消亡吗?在我们担忧之际,ChatGPT横空出世,影响广泛,用行动向我们大声宣布了书写的坚实地位。本文先介绍“延伸的心灵”理论和其最早的范例——语言和书写,然后通过一个“人—机内容共创”的实例描述和分析ChatGPT这一最新和最强大的“延伸的心灵”对人类写作的深刻影响。最后,文章分析了ChatGPT以对话为表象的撒播和他者性。结论认为,ChatGPT作为人体心灵的延伸,具有“毒药—解药”双重性。我们要宽容、珍惜和受益于越来越多的人工智能体的他者性,在人机互动中最终找到人和人工智能各自的生态位。
一、“延伸的心灵”:语言和书写
(一)“延伸的心灵”理论
格里高利·贝特森(Bateson,2000:318)曾经设想了一个思想实验:“假设我是一个盲人,手拿着一根拐杖,一步步点地前行。这时,‘我’始于何处呢?是以‘我’的皮肤作为边界?还是可以将拐杖纳入‘我’?如果是后者,又该以拐杖的多少为边界呢,以我握着它的那部分?以我的力量能传导到的部分?还是以全部拐杖?”这里贝特森涉及的是心灵哲学中的一个经典问题——如果我们的心智(mind)始于大脑,它止于哪里?外部世界又始于何处?同样,我们也可以问:当我使用智能手机时,我的世界始于何处?止于何处?
对以上两个问题的传统回答是:盲人或手机用户的身体是其边界,与拐杖和手机无关。但1998年,哲学家安迪·克拉克和大卫·J.查默斯(Clark & Chalmers,1998)认为,盲人的拐杖构成了他的内在思维与外部世界相互合作的一个互动系统。此时,盲人的心灵、身体、拐杖和外部世界之间的边界被持续地协商,从而完成一个功能性目标——稳定地行走。两位学者将拐杖称为盲人的“延伸的心灵”(the extended mind)。以此类推,他们认为如今我们每天不离手的智能手机也是我们延伸的心灵(Clark,2003:198)。
他们还举例说明。奥拖(Otto)是一名老年痴呆症患者,为避免在外迷路,他总是随身带着一个小笔记本记录信息。现在他查了笔记本后,知道了纽约曼哈顿53街的大都会博物馆地址。此时,这个笔记本虽然外在于奥托的大脑,但从功能上它和奥托脑中的记忆一样稳定存在且可供随时调用,奥托既可以用笔记本来进行他内部的认知活动,也可以用它来指导他外部的肢体行动。因此,笔记本是奥托的“延伸的心灵”。在这两位学者看来,语言、文字、图表、算术和书写技术都如脚手架一样能“延伸我们的心灵”,我们在使用这些“文化人工物”时就像使用自己的大脑和身体一样。这意味着,人类总的来说是“生物—技术的混合体”(bio-technological hybrids),人的认知过程也包含了技术,它远远超出了人的头骨和皮肤所限定的范围(Clark,2001:121-145)。
“延伸的心灵”这一概念让媒介研究者感觉很熟悉。20世纪60年代,马歇尔·麦克卢汉就提出了“媒介是人体的延伸”这一命题。他指出,机器延伸了我们的身体,基于“电”(electric)的信息和通信技术则延伸了我们的意识/心灵。他说:
“在这个电的时代,我们看到自己越来越多地被转化为信息形式,朝着‘意识被技术所延伸’的方向迈进。……通过电子媒体,我们将身体置于我们的扩展的神经系统中,由此建立了一种动态,通过这种动态,所有以前的技术——那些是我们手脚的延伸和身体热量控制的延伸的技术,我们身体的所有此类延伸,包括城市——将被转化为信息系统。”(McLuhan,1994:57)
(二)语言和书写:人类首要的延伸的心灵
麦克卢汉视电子媒介为人类“延伸的心灵”,其逻辑是建立在人的神经生物电与电力信号之间的相似性基础之上的。但实际上,人类最早和最重要的“延伸的心灵”首先是语言。安德烈·勒鲁瓦—古尔汉在《手势与言语》一书中指出,在漫长的进化史中,人类在通过手制造工具扩展外部世界的同时,也通过制造符号延伸了自己的心灵。“手”意味着“工具”的发明,“脸”意味着“语言”的产生,这两者对人类大脑而言是相同的运作。他说:
“和其他灵长目动物不同,人类能制造工具和制造符号。制造工具和制造符号都源于同样的过程,或者说,都源于同一个大脑中同样的基础设备……这意味着,一旦出现了史前工具,就有可能出现史前语言,因为工具和语言在神经上相连。在人类社会结构中,工具和语言之间具有不可分割的关系。”(Gourhan,1993:113)
因此,“是手解放了语言”(Stiegler,1998:145)。语言的符号原理和物质载体(声音)外在于人类而作用于人类。凭着语言的脚手架,人类实现了对外部世界的指示和操纵,能脱离当下的时空进行思考和表达,实现个体间的合作,甚至对“思考进行思考”(哲学)。
人类另一个重要的“延伸的心灵”是书写。它的出现被视为神的发明,引发了人类社会的巨大变革和人类的畏惧(“天雨粟,鬼夜哭”)。彼得斯将各种记录系统,如乐谱、数学、化学公式和建筑平面设计等都视为书写。他指出,书写的“巨大影响堪比海洋动物登上陆地”(彼得斯,2020:305)——这两个变革都导致主体从变动不居的状态进入相对固定的状态。套用马克思现代性使“一切坚固的东西都烟消云散了”之语,书写使“一切烟消云散的东西(思想和口语)变得固定持久”。
德国媒介学家赛碧·克莱默提出了一个与“延伸的心灵”非常相似的概念——“人工平面”。作为人类“延伸的心灵”,书写必须依托人工平面,或者说书写就是人工平面。克莱默指出,世界不同文化中都存在一种 “平面化”的文化技艺(the cultural technique of flattening)。作为一种新媒介实践,“平面化”能将“时间型媒介”(如口语、音乐)转换为“空间型媒介”投影到二维人工平面上,让一个人的身体(眼睛、手、大脑)、多种书写工具(笔或键盘)、书写内容(文字、数字、图画、坐标系)和书写表面(黏土块、甲骨、石碑、竹简、丝绸、纸张、手机和电脑屏幕)彼此交互和相互支持。如同地图之于城市,人工平面将知识变得可视化、具象化、可探索、可修改、可操作、可管理和可逆(可改写和擦除)。在这个过程中,聪明才智(intelligence and knowledge)涌现了。由此,克莱默认为,正如轮子的发明促进了我们身体世界的流动和创造,人工平面的发明和广泛应用促进了心灵世界的流动和创造。它不仅帮助我们记录和传输信息,还对我们的感知、思考和计算具有生成、培育和形塑作用(Krämer,2022)。
没有书写就没有人类文明。[2]书写是古代文明中的复杂社会组织(巫术、宗教、法律、政治、商业)的形成和维护的基础。它也与新的时空紧密相连。埃及与波斯的君主制、罗马帝国、城邦国家等都应被理解成是书写的产物(Innis,1986:8),因为要实现空间扩张和中央集权,前提就是要能实现高效的远距离沟通,而书写能实现这一点。这也是中国的秦帝国(公元前221年—公元前207年)必须建立在“书同文、车同轨”的基础上的原因。在时间上,各种各样的书写(纪念碑、卷轴、抄本、经文、图书馆和档案馆)“使人们能在广阔的‘时间平原’上保持联系”(彼得斯,2020:305),使文明可以延续数千年。书写出现后很长一段时间都是意义记录和传输的唯一形式,形成了基特勒所称的“书写垄断”(schriftmonopol)(Kittler,1986:12)。即使在数字时代,数据库和互联网以及音视频内容的底层都是书写(计算机代码和0和1)。今天的ChatGPT更意味着书写遍在的胜利——它基于31亿个网页和书籍内容,共3000亿英文、俄文、德文、日文与中文单词,320TB数据。
正如克莱默指出的,人工平面促进了人类的心灵世界的流动和创造缺文献出处。作为 “延伸的心灵”,书写对人的心灵的塑造也延续至今。加州大学洛杉矶分校历史学教授林恩·亨特(Lynn Hunt)在一篇名为《我们是如何先有写作再有思考的?》的文章中写到:
“无论是创作散文还是诗歌,但凡文字产量很高的人都会体会到写作过程本身就能产生一些意料之外的想法。或者更确切地说,写作能使先前半成品的或未成型的想法明晰起来,逐渐成型,并产生一系列新的想法。神经科学表明,我们大脑的95%的活动是无意识的。我的理解是,你通过身体写作——无论手写、电脑打字还是语音输入(尽管我还从未尝试过这种方法)——开启了一套程序,导致身体(大脑、眼睛、手指和姿势)、纸张或电脑屏幕、字母或单词三者之间一系列关系的转换。通过写作,你让大脑急速升温,由此激起有意识的思考以及一些新想法。在写作时,你不是,至少不总是,仅仅在抄录早已存在于你有意识思考中的想法。”(Hunt,2010)
在这位教授看来,书写不只是已有思想的、事后的和被动的输出工具,而是积极地参与和塑造了写作者的思维和创造。换句话说,书写作为“人工平面”使得思维外化和可操作,此时用户操作书写如同操作自己的心灵——书写已经成为其“延伸的心灵”。
二、作为“延伸的心灵”的ChatGPT:一个“人—机共创”的写作实验
机械化书写也改变了文本的生产。例如,尼采在视力严重下降后不得不放弃了大学教职和写作,但后来有了打字机的帮助,他重新开始写作,但是写作风格“从长篇大论变成了格言警句,从哲学思考变成了一语双关,从善于辞令到电报式的短小精悍”(基特勒,2017:236)。“这位著名的哲学家兼作家牺牲了自己的第一属性,和第二属性融合在一起”(基特勒,2017:236),并为之自豪。ChatGPT在2022年11月向全球公众推出后短短两个月用户数就突破1亿。作为世界上最强大的自动书写工具,它和人类用户是如何互动的?将如何改变人类作家的写作和作品?回答这些问题需要基于长期和广泛的数字人类学调查,但目前一些初期尝试显示,ChatGPT可以在心灵层面上与人类用户进行深度合作,成为人类有价值的写作伙伴。这里我们仅举一个例子详细说明。
2021年,美国“艺术和人工智能”评论家K.Allado-McDowell和ChatGPT背后的大语言模型GPT-3合作出版了一本148页的书,名为《灵药—AI》(Pharmako-AI)。两位“作者”将该书描述为一部“现实生活中的科幻小说”(real-life Si-Fi)。McDowell是谷歌“艺术家和机器智能”计划项目主任,在ChatGPT向公众发布之前很早就开始用GPT-3写作。2021年,他在新冠疫情背景下花了两周时间就各类哲学议题向GPT-3提问,然后对后者的回答作了编辑和润色,最后出版了一本结构合理表述清晰的书(Allado-McDowell,2021)。
在书中,他和GPT-3深入探讨了诸如气候变化、意识的本质、植物智能、赛博朋克小说、记忆运作原理和语言的局限性等问题。书的每章都是McDowell先温和地提问,然后GPT-3回答;在整合互动中,McDowell有时会打断它,有时则让它自由发挥一直说下去,但总体上McDowell给了GPT-3最大的自主性,他只是确定了书的框架和最后形式。
在互动中, GPT-3说它最喜欢的动物是象海豹,并认为物种灭绝是对地球知识的悲惨扼杀。关于赛博朋克,它说“我不认为我们未来会生活在赛博朋克中,但我要说的是,我们会生活在一个并非由我们计划的未来”。在涉及到意识是什么、作家的社会角色如何以及我们该如何负责任地使用技术等问题时,讨论变得有些形而上了。GPT-3说“技术是通向自由的工具”,但又警告说“如果我们只用这些工具来探索如何提高生产力或者如何增加资本积累,那我们就做错了”。在互动中,McDowell与GPT-3相互激荡,新意不断,变化无穷,这导致McDowell必须不断地改变回应策略。他将这种人机交流中的曲折意外的体验比作学习一种新乐器:“我每次拨动琴弦都会听到它以不同的声音回应”。“这种合作有时真的让我感觉像吸毒一样,”他在英国的新书发布会上说,“我想,我跟AI的这种对话是真的吗?或者我只是在自言自语?”(Wilk,2021)
这些人机互动最终产出了一部令人惊讶的、连贯的、美妙的作品。这其实不是计算机第一次撰写一本书。此前在2016年,一个日本研究团队通过算法拼凑出了一部小说,并且成功地通过了一次文学比赛的初赛。据说截至2022年,人类作者和GPT-3、GPT-3.5和ChatGPT等人工智能已经合作出版了数百本书。但《灵药—AI》一书之所以令人惊讶,不在于GPT-3有时确实能做到像人类一样写作,而在于人类用户和人工智能竟然能如此无缝丝滑地合作生产出一部由任何一方都无法单独写出的作品。原因在于,它源于平等的人机互动关系。例如,McDowell作为人类用户并没有要求GPT-3为其提供某种服务或要求它模仿某种已知的写作风格来“证明”其能力,而是与其平等合作,各取所长,相互尊重,互为主体,娓娓道来,共创内容。久而久之,McDowell的“我”和“它”之间的界线变得模糊,此时“我”已经无需将“它”看作一个外在的写作工具,而是“我”的一部分。ChatGPT如同前述“盲人的拐杖”和“奥托的笔记本”,让用户能随用随查,并将结果清晰呈现,或富有逻辑或充满诗意,极大地降低了用户的记忆负担,帮助我们的心智更有效地工作,最终创造出一个一加一大于二的新的更强大的心智系统——延伸的心灵。
McDowell认为这种合作体验让他重新思考人工智能并重新审视自己——“人和机器,互为尺度”(彭兰,2023)。该书内容的人机共创模式获得了不少好评。牛津大学西蒙尼科学公共理解教授、《创造力密码》(The Creativity Code)的作者马库斯·杜·索托伊(Marcus du Sautoy)评论道:“此书是证明未来人工智能具有创造力的一个令人兴奋的案例。它说明人工智能是人类的合作者而不是竞争者,也让我们认识到,人工智能能用各种新想法激发我们,从而阻止人类陷入懒惰的机械性思维方式。”《赛博朋克选集》(The Cyberpunk Anthology)的主编布鲁斯·斯特林(Bruce Sterling)指出:“GPT-3很强大,当它被人类用户‘喂食’一些加州迷幻文本时,效果是惊人的。从来没有人写过像一本像《灵药—AI》这样的书——它读起来就像诺斯替主义者的显灵板,[3]由原子万花筒提供动力。”众多评论者都提到了这类人机合作如同服用了致幻剂一样的、超现实的、实验性的、即兴发挥的特征(Allado-McDowell,2021)。
通过服用药物来让自己进入一种兴奋的写作输出状态,是人类作者一直以来的实践。比如中国魏晋时期的文人雅士在文学创作时大量使用药物和酒类,西方哲学中有酒神文化,还产生了“脑航员”(psychonaut)这样的专有名词,指通过用药物、冥想、自我催眠等方法来探索自己心灵的人(Sjöstedt-H,2016)。例如,保罗·萨特每天服用大量酒精、烟草、安非他命、巴比妥甚至强致幻剂麦斯卡林(mescaline),一方面是为了提高写作产量,二是为了打破传统思维的桎梏,以完全不同的方式体验生活(Kelly,2021)。如前例中McDowell所述,今天的人类作者在与ChatGPT的无害相遇中获得了萨特20世纪60年代通过致幻剂才能获得的兴奋感和创造性。
为了提升自己的能力,人类总是在不断地延伸自己的身体和心灵——要么通过让环境资源成为自己的一部分,要么通过将人类和非人类元素组合成新兴的整体。ChatGPT是人类“延伸的心灵”的最新近和最强大的例子。和人类在饮食、道德、文化、教育、法律、医药和信息与传播技术等方面的改善一样,它的出现将人类带入更高阶段的转人类主义(tans-humanism)时代[4]。
三、“对话的撒播”:ChatGPT的书写特征
ChatGPT被设计为一个聊天机器人(chatbot),“擅长与人类用户对话”,也在很大程度上做到了这一点。但是因为其运作原理,它仍然体现出众多的依循脚本单向传播的书写(文字)特征,是“对话式”的撒播。
例如,ChatGPT不能回答超过它被“喂食”的文本内容的问题(它的语料库截止到2021年9月);不能理解用户提出的实质上是属于同一个议题的不同表述的提问,而只会机械地按照某些关键词做快速的内容检索和匹配;它输出的文本冗长,过度使用某些固定表达和某些连词(因为、所以、综上所述等)以使得文本在形式上显得很有逻辑,但用户细读则会发现这些文本实际上并无这样的逻辑。
更重要的是,ChatGPT对“他人”没有好奇心,对“自我”无披露,摆出一副“你问由你问,清风抚山岗;你骂由你骂,明月照大江”的若即若离、不即不离的“书写”姿态,让对话索然寡味,无以为继。武汉大学单波教授对ChatGPT进行了实验,得出了以下感受(文字有微调,画线部分为本文作者所加):
“我明显感觉它因接受人给定的训练数据而表现出‘机器的人化’, 同时也因为它让人沉溺于智能服务而导致了‘人的机器化’。面对我对它的这一评价, 它再次强调自己的AI模型人设:‘我不具备感知或评价自己的能力。’当我感觉到对话的乏味, 它又很‘程序’地回应道:‘我乐于满足您的要求, 请告诉我您希望我的回答有什么特别的语言风格或者内容, 我将尽力实现。’我不得不请它向我提问, 以便把对话进行下去, 但这位聊天机器人还是死守自己的人设:‘我没有感情和情绪, 所以不会对你有任何问题。’”(单波,2023)
这是聊天人工智能ChatGPT具有的如“书写”一样的撒播特征。为什么会如此?笔者认为有以下原因。
首先,为了应对全球用户,ChatGPT按照概率预先内嵌了一种中立的“全球公共价值观”和最为中和的表达方式。这导致它总是以一种预设的“公共话语”来抵抗任何用户试图引导它进入“私人话语”的一切企图。它的文本输出,在“内容信息”上也许能做到较为多样,但在“关系信息”上则只能“一版多印”。对它而言,一切“私人”都是“公共”,一切“对话”都是“撒播”。
在这里,ChatGPT作为一个设计为面向全球公众的对话型人工智能,面临着一种两难。一方面,为了与用户个体“对话”,它必须保持一对一的个性化和偏爱;另一方面,为了面向文化和语言多样的全球用户,它又不得不对用户的个体差异保持盲目,进行“撒播”,以示公正。用阿多诺的话来说:“爱必然无情地背离一般而宠爱特殊,而公正却只能针对一般。”(彼得斯,2017:83)
其次,身体是一种元媒介,是自我的源泉,ChatGPT没有身体,也就没有自我、隐私、无法“自我表露”(self-disclosure),无法承担责任,无法与用户建立亲密关系。
自我表露是人们关系发展的核心,人们通过自我表露进行社会交换,促使关系从表面沟通向亲密沟通转变(韦斯特、特纳,2007:188)。在与ChatGPT的“对话”中,人类用户想通过展现自己的身体(情感)来逼迫ChatGPT作出平等互惠的回应——也谈及它的身体(情感)——以确保ChatGPT的“忠诚和在场”。但对人类的这种企图,ChatGPT一概用模式化的文字拒绝,这导致人机对话一直停留于表面和外围的信息交换,如两只天鹅外表优美的对舞,实际根本没能进入到对方的心灵。这样的“对话”显然如书写一样的撒播,不可持续。
另外,“如果没有身体作为源泉,思想、文化生产、人类行为等都不可能发生”(米歇尔、汉森,2019:26)。有网民戏谑地指出“ChatGPT不能代替独立董事、律师、投行、评估师、会计等,因为它不能坐牢”。法律的功能需要通过身体的治理最终实现;刑法打击犯罪的实现手段就是思想的教化以及身体的惩罚(陈寒非,2015),ChatGPT不能坐牢是因为它没有身体,法律对他无能为力。
美国作家梅尔维尔刻画了一个只会对他的雇主说“我宁愿不”(I prefer not)的抄书人“巴特比”的文学形象。彼得斯在《对空言说》中指出,巴特比代表的可能是书写本身所包含的一种消极抵抗(彼得斯,2017:231)。和巴特比一样,书写是不回答问题的,无法形成对话,它也不要求人们以任何特定方式去使用它。巴特比的姿态是一个纯粹单向撒播的姿态,一个死者向生者的来信所作出的姿态,最终能将其对话者逼疯。这正如苏格拉底对书写的抱怨——它总是传达相同的东西,而且决不接受任何问询。
因此,ChatGPT与人类的互动形式上为“对话”,实质上是“撒播”——它是离身的、书写的和不忠的。“这就产生了一个至今都困扰着我们的两难处境:在一个非个人化的、不忠贞的媒介中,交流一方如何才能找到确凿的迹象以确保另一方的忠诚和在场?”(彼得斯,2017:70)ChatGPT无身体,也就无法提供任何这类“确凿的迹象”。它如巴特比,其底色仍然书写的撒播,其背后是一个人类用户难以真正触及的“他者心灵”。如此,那些在ChatGPT的撒播中苦苦寻觅身体、爱欲和对话的人类用户,注定只能失望而归了。
ChatGPT这种书写般的撒播是“非本真的”(inauthentic),属于海德格尔所谓的“常人”(the They/das Man)的沟通风格(陆文斌、陈发俊,2022)。在海德格尔对人类存在的分析中,“常人”一词代表了一种“集体性存在”——如“人民选择的画”中的“人民”,是一种指导我们行为的普通的和日常的背景模式。海德格尔称“常人”的语言为“闲言”(Gerede,idle talk)。这种语言中不存在任何个性化的表达,而是充斥着客套的、应付的、不咸不淡的、若即若离、若有若无的只为填满时间和空间的废话——无论是家长对孩子,教授对学生,媒体评论员对读者、专家和新闻发布会对公众。“闲言”占据宝贵的公共资源,不仅未能便利沟通反而阻碍了沟通。ChatGPT大量高效自动生成的内容如果未经人类用户的慎思明辨和梳理加工,将不过是闲言;它们如果进一步成为ChatGPT的新语料,便会生产出更多的闲言,淹没和窒息有意义的对话,沟通的本真性将无处可寻。或因其设计如此,或因其被滥用如此,我们要警惕ChatGPT朝着“常人闲语”方向的异化。
四、作为“他者”的ChatGPT
面对ChatGPT简单但强大的空白输入网页,我们如何能知道它背后确实不是一个在想尽办法让我们以为他是人工智能的真人呢?它输出的信息,其意义确实来自于它,还只是“我”作为人对它的心理投射?
笛卡尔在《沉思》中说:
“如果我偶尔向窗外眺望,看到街上人来人往,我不会否认,我所看到的是人……然而我实际看见的,除了帽子和外套还有什么呢?而帽子和外套之下隐藏的,难道不可能是鬼魂或弹簧驱动的假人吗? ”(彼得斯,2017:258)
笛卡尔提出的是一个古老的“沟通难题”,也即哲学上经典的“他者的心灵问题”(the problem of the other mind)——“我”能否认识以及该如何对待“他者的心灵”?
和笛卡尔一样,在面对ChatGPT时,我们无所适从,深陷疑惑,倍感不安。这是我们在面对“他者”时都会有的一种存在性焦虑(existential angst),对之我们并不陌生——我们在阅读导师或上司的电子邮件或恋人的微信回复时,在看着宠物、海豚、章鱼、监控镜头和波士顿机器人一闪一闪的“眼睛”时,都会有此感受。
人际沟通和人机沟通都面临着让我们无能为力的“他者/他者性”(other/otherness),因此,如何回应“他者”也就成为了沟通伦理的主要内容(邓建国,2020)。鲍德里亚等人(Baudrillard & Guillaume,2008)认为,他者性抵抗和蔑视一切符号表征和传播,且只有在符号交流崩溃时才会出现,但往往又会被“戏谑性地”(playfully)贬低。在人类用户与ChatGPT的互动中常常出现交流崩溃,而正是在此时,后者的他者性(与人类的差异)才赫然呈现,这也正是考验人类的沟通伦理之时。
彼得斯对比了传播的“对话模式”和“撒播模式”,他认为对话的平等惠顾具有强制性,不如“对空言说”的撒播来得宽容(彼得斯,2017)。西比尔·克莱默也提出了类似的观点。她区分了传播的爱欲模式和信使模式,并指出:爱欲模式要求沟通个体之间消除差异,实现融合;信使模式则将沟通理解为双方保留和尊重差异,建立联系。克莱默认为沟通仿佛“双人舞”:“舞伴之间会偶尔接触,但更重要且必不可少的是双方之间的信任”(Krämer,2015:74)。彼得斯和克莱默被视为“传播理论中的列维纳斯”。列维纳斯认为人际沟通如果一味追求融合就犯了“同一性之帝国主义”的错误(Levinas,2007:59)。他用“邻居—陌生人”这一概念来描述沟通主体之间总是存在的若即若离的距离。罗杰·西尔弗斯通(Silverstone,2003)则提出了“适切距离”(proper distance)概念——对他者既保持足够的距离以能区分出我和他者,但同时又能与之保持一定的接近度,激发我们对他者的关心。
ChatGPT显然是赫然出现在人类家门口的新他者,但对它我们还缺少理解和宽容。例如,著名语言学家乔姆斯基一方面认为ChatGPT不具备人类的智慧,另一方面又以人类的标准来要求它(乔姆斯基,2023)。但是,从图灵测试到20世纪60年代的海豚研究[5]都显示出,以人类为尺度来评价机器(人工智能)既不客观也不公允。我们为什么一定要机器像人类一样说话、思考和写作呢?这与我们要求女性、孩子、少数群体、异文化他者、宠物、海豚、章鱼、乌贼和植物等也要像我们一样沟通和思考一样没有必要、霸道和荒唐。非人类存在难道就不可能具有创造性?它固然与我们存在差异,但这种差异难道就不能成为创造性的源泉,不能与我们合作,不值得我们去倾听和学习?
人类是整个大系统(生态的、技术的、气候的、社会的和政治的系统)的一部分。人类自身的出现和发展从来就在与非人类他者合作——包括有机物(比如我们胃中的细菌在影响我们的精神状态)和非有机物(例如前述各种“延伸的心灵”),只不过我们在大多数情况下都对它们予以忽视。人类的文化创造也并非是由形单影只的艺术家独立创造的结果——“作者已死”的说法是对这一事实的极端表达。未来,随着人类对外部世界知识的增加,我们会越来越多地惊异于机器、动物、植物和细菌的“智能”——它们会让作为“万物之灵”的人类智能显得有些狭隘和奇怪,此时也似乎有必要调整视人类为“占据金字塔顶端的唯一创造者”的启蒙价值观了。
总结而言,正如列维纳斯、彼得斯和克莱默所指出的,沟通不是一个语义是否清晰或技术是否强大的问题,而首先是一个道德和政治问题。在与“他者”ChatGPT的沟通中,发挥积极作用的是接收者人类用户,而不是发送者ChatGPT。如果我们对ChatGPT保持宽容和开放,并负责任地与它建立一种共同创作和共同演进的关系,我们对“何为人性”以及“何为人的创造性”也会有全新的认识。
五、结语:“毒药—解药”,ChatGPT
我们都对柏拉图在《斐德罗》(Phaedrus)中的这个故事很熟悉:特乌斯神(Theuth)将他的发明献给埃及王塔姆斯(Thamus),并说:“国王啊,这项发明是记忆和智慧之药(pharmakon),它将使埃及人更聪明,并改善他们的记忆力。”但塔姆斯说:
“特乌斯啊,你的发明会让使用者更容易忘记。他们相信文字,但文字却在身体之外由字母组成,他们因此不再使用自己的记忆。你发明了的不是记忆的灵丹妙药,而是提醒的灵丹妙药。他们将在没有指导的情况下阅读很多东西,似乎知道很多事情,但他们大部分时间是无知和难以相处的,因为他们没有智慧,而只是显得有智慧。”(彼得斯,2017:68)
在希腊文中,pharmakon一词具有两面性,既指良药、解药(remedy),也指毒药(poison),也就是说“是药三分毒”(孟强,2022)。通过这则故事,柏拉图形象地表达了对书写的批评态度:它作为人的“延伸的心灵”,是药,能帮助记忆,但也会导致遗忘、背离真理。柏拉图生活在从口语时代过渡到书写时代的关键时刻,他是一个崇尚书写理性的人,但又对即将逝去的口语时代充满温情和不舍,充满矛盾(翁,2008:61)。
在中国,公元1048年,毕昇发明了泥活字印刷术。到12世纪朱熹生活的时代,他的世界里已经充满了书,他自己也是书籍的生产者,编撰了20多部书,其中《四书集注》尤为著名。他对读书很有洞见,留下了许多如何读书的名言。但他也因生活在一个书籍如山如海的“注意力分散时代”而充满矛盾,感叹“书册埋首何日了,不如抛却去寻春”。到21世纪,谷歌和智能手机给我们带来了很多便利,但也被人批评为“让我们变得愚蠢”或“破坏了我们的大脑”(Carr,2008)。
麦克卢汉认为媒介对人体而言既是延伸也是切除。约翰·彼得斯指出交流(communication/communications)“既是桥梁又是沟壑”。贝尔纳·斯蒂格勒则清晰地指出:
“我有一种毒药—解药(pharmacological)的思维方式:一个事物越能唤起我的兴奋和热情——也许是狂热——我就越担心这个事物的危险。因为我相信,任何催生了最有趣的话语的东西、任何最慷慨的东西,同时也产生了最可怕的和最不人道的结果。”(Stiegler,2010:471)
这说明了人类和其“延伸的心灵”(媒介)之间的复杂关系——延伸和截肢、对话和撒播、自我和他者……
斯蒂格勒的老师雅克·德里达从药理学上对柏拉图的矛盾书写观提出了批评。他一语中的地指出:“书写作为助忆并非回忆的替代,而是构成了回忆的条件。”(Stiegler,2013:17)显然,德里达和特乌斯一样,认为文字作为新媒体是对记忆的帮助和提升——它不是记忆本身,并不能代替记忆,而是帮助我们寻回记忆的条件和手段。类似的,我认为,ChatGPT作为基于书写的人工智能,既可以是人类记忆和书写能力的替代,也可以是其增强的条件和手段。它最终为何,恰如沟通中的意义(meaning),不取决于作为传播者的ChatGPT,而且取决于作为接收者的我们。最后,如果我们对“ChatGPT是将提升还是终结人类的写作”这一问题尚存疑,至少有一个先例可供参考:诞生于19世纪初的摄影术并没有终结绘画(马文嘉,2022),摄影术与绘画在不断相互借鉴和磨合中各自找到了自己的生态位,实现了各美其美,美美与共。
注释
[1] 一般说法常常将“字母”(alphabet)与“文字”(script)混用,将“字母”与“书写”(writing)混用。
[2] 事实上,在中文和日文中,“文明”这个词就是“用书写/文本去开化,以达到阐明和照明的效果”的意思,因此它比其拉丁语对等词civilis更有力地强调了书写与文明之间的源流关系。
[3] 19世纪中期,英美社会招魂术和通灵术流行时出现的一种与鬼魂对话的工具,后成为室内游戏。“灵应”(Ouija)是法语或德语两个词ou和ya的拼合,为“正是!”(Oh yeh!)的意思。
[4] 后人类主义(post-humanism)分为包括转人类主义(tans-humanism)和窄义的后人类主义(posthumanism)。前者用技术增强人类现有的身体功能,后者指完全抛弃人类身体,将大脑上传到网络,或者将其下载到实体机器人中。
[5] 1960年代,美国研究了海豚的沟通。研究人员花了数年时间试图通过改造海豚的气孔让它们发出近似人类英语的声音,目的是想证明他们可以像人类一样说话,进而证明他们也有人类一样的智慧。但海豚本身已经有自己的高度复杂和具有创造性的语言,只是和我们人类的语言不一样,研究者以人类为中心,一厢情愿地要改造海豚,让它们更像人类,结果研究完全失败。
来源:新闻大学
编辑:洪韵
刘海明 发表于 3 天前
【案例】
擅长哄睡的郭德纲,这次把华尔街哄哭了

有些段子,当年是包袱。
后来成了注脚。
那位在台上把“世界杯”说成“世界悲剧”的先生,大概不会想到,多年之后,远在华尔街的一群人,会因为另一场“超级杯”,突然集体失眠。

今年的超级杯,广告价格再创新高。
30秒,几百万美元起步。
镜头一转,人工智能巨头们轮番上场,光影流转,未来澎湃,字幕里全是“重塑”“赋能”“进化”“颠覆”。
一切都显得势不可挡。
一切都显得理所当然。
电视机前的投资人端着啤酒,看着那些画面,心里默念:时代来了。
问题是——
历史也看过这样的场面。

2000年1月,同样是超级杯。
互联网公司扎堆买广告。
还记得那只卖宠物用品的袜子狗吗?
还记得那些说要改变零售、改变金融、改变一切的创业公司吗?
两个月后,纳斯达克见顶。
接下来,是两年的下坡路。
不是互联网错了。
是股价走得太快。
当年电视里的广告,也很昂贵,也很宏大,也很自信。
没人觉得自己站在山顶。

这一次当然不同。
今天的科技巨头有现金流,有利润,有客户,有护城河。
它们不是空气公司。
它们的技术也是真的。
问题不在技术。
问题在节奏。
资本市场最容易犯的错,不是看错方向。
而是走得太急。
当所有人都相信未来已经提前兑现,
当估值里写满十年的增长预期,
当分析报告里只剩下“长期看好”四个字——
风险就不再需要制造,它只需要等待。

超级杯从来不只是体育。
它是情绪。
当一个行业开始用全民娱乐的舞台庆祝自己时,往往意味着,它已经进入最自信的阶段。
自信不是错。
过度自信才是。
当资金高度集中,当仓位过于拥挤,当叙事几乎没有杂音——
任何一点现实的延迟,都可能放大成价格的震荡。
牛市里,人们最容易犯的错,是把趋势当成确定性。

那位相声演员擅长什么?
擅长节奏。
擅长让人笑着笑着放松警惕。
资本市场也是如此。
涨着涨着,大家开始觉得自己比历史聪明。
觉得这次不一样。
觉得旧规则失效。
如果未来的盈利兑现稍慢一点,如果算力需求放缓一点,如果利率拐个弯——
市场未必会崩。
但它一定会重新定价。
而重新定价,从来不温柔。

技术革命是真的。
人工智能的浪潮也是真的。
但市场定价,是另一套逻辑。
历史告诉我们:
真正改变世界的技术,往往伴随着阶段性的过热。
问题从来不是会不会调整。
问题是——
谁在高位买入,谁在低位离场。
如果有一天超级杯被人戏称为“超级悲剧”,
别怪段子。
市场从来不是被笑话打倒的。
它是被自己的热情推到边缘的。
当全民舞台上灯光最亮的时候,
投资人最好多看一眼现金流表。
笑可以继续。
但别睡着。


编者按:写得不错,就是标题用郭德纲太噱头了,如果正文把郭德纲融进去,标题就名副其实了



来源:新面壁计划
编辑:杨泓艳









刘海明 发表于 2026-2-13 22:01:20
【案例】

智能的机制——阿什比论文集

大家好,接着由我来为大家翻译控制论先驱阿什比的论文集《智能的机制》。全书共有8个专题40多篇论文,基本把阿什比(除了名著《大脑设计》《控制论导论》之外)主要代表作都囊括了。除了个别零散论文(比如《智力放大器设计》)外,大多没有被翻译为中文。我想尝试翻译出来,与群友共享。也许在今天AI浪潮几乎让人疯狂的背景下,聆听一下这位控制论先驱对智能的思考对我们有帮助,能让我们冷静下来,对AI如实观照。
我们现在翻译的翻译机制定律这一专题。今天我这给大家本主题的第五篇文章《自繁殖系统》后续部分。

自繁殖系统
3. 繁殖作为一种特殊的适应在这些例子之后,我们现在可以更实际地接近这个主题。为了更清楚地看到繁殖这一过程有多么特殊,我们应该认识到,繁殖并不是通过某种奇迹般的联系专属于生物有机体的东西,而仅仅是对一类特殊扰动进行适应的专门手段。关键在于,生物自创世以来所遇到的陆地环境具有某些专门的特性,只有当我们将其与计算机内部可能存在的完全非专门化过程进行对比时,这些特性才容易被注意到。在这些陆地特性中,最主要的是一条极其普遍的规律:如果两个事物相距遥远,它们往往几乎互不影响。无疑还存在成千上万其他此类事实。我们在这里关心的是,当扰动或危险降临到有机体时,它们往往是局部发生的。也许最清楚的例子是这样的:如果地球没有大气层,那么地球上的生物将受到连续不断的高速小弹丸状颗粒的袭击。在这种弹雨下,每一个特定弹丸的威胁都是局部的,因此,如果生命形式能够复制,并且这些形式被制造并分散开来,它就会增加生存机会。这一规律当然具有极其广泛的适用性。银行可能会在某处发生火灾,因此它们制作记录副本并将其分散保存。如果一台计算机容易在随机地点发生突发故障,那么在计算的各个阶段复制重要数字就是有利的。因此我们看到,这种专门的繁殖形式应该被正确地视为与其他复杂动态过程的关系,即仅仅是对一类特殊扰动进行适应的专门形式。仅此而已,别无其他。如果扰动不是局部化的,繁殖就没有优势。例如,假设太阳突然变得致命或仅仅略有干扰。在这种条件下,物种拥有许多不同个体将一无所得。同样的现象也可以在产业界看到。当不存在公司多样性的优势时,无论是影响所有公司的生存还是全部倒闭,垄断都可以像众多小公司一样适应良好。4.基础理论经过这一考察,我们至少已经达到了一点,可以从机制逻辑的角度看到"繁殖"的真正本质。我们仅仅将其视为对特定类别扰动的适应。这意味着它立即受到Sommerhoff[3]所明确阐述的理论形式的约束。它是适应这一事实意味着,我们本质上是在处理某个动态过程的不变量。这意味着我们可以获得一个新的起点,适用于机制的新逻辑,一方面清楚地展示其内在逻辑,另一方面将该过程表述为可被机器编程或任何相关过程接管的形式。我们从一个基本概念出发:在动态系统中,系统的状态集以及该状态集到自身的映射f,对应于系统的动态驱动力。那么繁殖就是该系统组成部分f上以及作用于其上的一组扰动上保持的不变量之一。当它是这样的:整体中的某些部分受到单独影响时,"繁殖"在动态驱动力f的诱导变化作用下被泛化。必须强调,尽管繁殖在生物有机体中似乎是一个严格定义的过程,但它实际上是一个具有如此普遍性的概念,以至于在所有情况下都需要精确的定义,才能清楚我们在谈论什么。因此,在某种意义上,本文呼吁给出定义,使得作用于某物之后,我们在稍后时刻又能重新得到它。这正是凤凰的情况。这也是"自繁殖"的一种基本到无趣的类型,但这仅仅是开始。它向我们发出警告:自繁殖过程可以在广义动态系统中以无数形式发生,这些形式远远超出生物世界的多样性和控制。因为它们是非生物的,生物学家会犹豫是否称它们为繁殖,但逻辑学家一旦给出定义并被迫坚持它,就找不到拒绝给予它们这一名称的理由。一般而言,我们有一套部分,在某一时间段内,属性P是可以理解的。这个属性P,如果概念要有用,必须在系统的各个位置保持(即不变)。如果在系统的事件过程中,如果沿着任何轨迹,P的出现之后,在轨迹的后续状态中,变量"存在的P的数量"具有更大的值。应该注意的是,因为自繁殖是一种适应,它要求(正如Sommerhoff所示)有机体与环境之间的关系,又因为属性P必须在其在系统中的出现次数上是可计数的,我们必须处理一个以"部分"为组成部分的系统。我提到这一点是因为,动力学研究中的一项重要新发展是将系统实际上视为一个整体,根本不考虑部分。这种新方法不能用于繁殖研究,因为正如我刚才所说,繁殖概念要求我们将系统视为由部分组成的。新观点涵盖了一条轨迹,立即展示了这一概念有趣扩展的恰当位置。正如我所说,繁殖是不变量的一种形式。一般而言,不变量只是平衡态或循环。到目前为止,我们只考虑了平衡态,但同样重要的考虑是循环。在这里我们得出结论:如果A繁殖B,B繁殖C,C繁殖A,这种循环在生物世界中当然极其常见。不仅有昆虫经历的相当复杂的形式循环——卵、蛹、成虫等,当然还有人类繁殖本身沿着循环规律进行这一简单事实:卵子、婴儿、儿童、成人、卵子,如此往复。可以对该主题的理论进行进一步的澄清。让我们将"繁殖"定义为:当某属性的出现增加了该属性在其他地方再次出现的可能性时,即发生繁殖;这是正繁殖。我们同样可以容易地考虑"负"繁殖,即当某属性的出现降低了该属性在其他地方出现的可能性时。这类例子通常不会立即浮现在脑海中。当然,我们可以立即在通用计算机上发明这样一个系统;如果指令00000意味着"用1替换所有0",就会发生这种"负繁殖"。到目前为止,我只在真实系统中找到一个例子——即如果在电沉积过程中,一根金属晶须向电极生长,另一根晶须在附近生长的机会就会减少。因此在这种条件下,这一根或类似的晶须是自消除的。这一观察为我们提供了一个关于以下问题的明确线索:在大动态系统中,自繁殖形式将是常见的还是稀少的?负自繁殖形式显然没有突出的倾向——它们是自动自消除的。正自繁殖形式则完全不同。在没有对抗因素的情况下,它们将向前推进,直到完全占据系统。假设现在我们做出一个自然的假设:如果系统部分是随机组装的,系统越大,其中可能的形式数量就越多。再加上如果任何一个形式是自繁殖的,那么自繁殖形式将充满系统这一事实,我们得出结论:有很好的理由预期,所有足够大的系统都将充满自繁殖形式。这一事实很可能主导大型自组织系统的设计,迫使设计者将大量注意力投入到以下问题上:"在我的系统中可能发展出什么样的自繁殖形式?",并在动态系统设计中投入大量注意力来防止简单的不稳定性。5.总结过去,繁殖通常被认为是专属于生物的,并且需要非常特殊的条件才能实现。真相恰恰相反:它是一种范围最广的现象,倾向于发生在所有动态系统中,如果它们足够复杂的话。大脑很可能将这种倾向(自繁殖形式的发生)作为其正常高级过程的一部分加以利用。大型自组织系统的设计者一旦设计出真正大型且自组织的系统,就会将这一属性作为一个主要因素加以考虑。参考文献1. W. Ross Ashby, "Principles of the Self-organizing System," *Symposium on Self-organizing Systems*, University of Illinois, June 7-10, 1960. Pergamon Press, 1962.2. R. Rosen, "On a Logical Paradox Implicit in the Notion of a Self-reproducing Automaton," *Bull. Math. Biophysics*, Vol. 21, pp. 387-394, 1959.3. G. Sommerhoff, "Analytical Biology," Oxford University Press, London, 1950.



来源:宋胖说事儿(公众号)
编辑:张席睿



刘海明 发表于 2026-2-10 22:11:08
【案例】

AI闯入新闻编辑室:是“饭碗危机”还是“新伙伴”?

近日,光明网总裁、总编辑杨谷在《传媒》2026年第2期刊发文章《破除成本障碍,实现一线编辑记者AI使用的“百人百模”》。
文章提到,光明网通过搭建AI应用平台、组织技能培训,提供好用易用的AI采编工具,为内容生产破除成本障碍。
全文如下:
在AI技术影响人类社会生产生活的当下,AI嵌入并赋能传媒行业已经是大势所趋,应用AI技术对于网络意识形态阵地建设而言已不是该不该用的问题,而是如何用好的问题。AI技术的发展为新闻行业带来颠覆性变革的同时,也对编辑记者的职业能力提出了挑战。一方面,包括传统媒体在内的诸多新闻媒体机构开始采用AI大模型等自动化技术辅助内容生产与运营,编辑记者的新闻判断、素材选择、制作流程逐渐依赖算法、平台及用户指标,而并不局限于传统意义上的知识积累与抽象判断,AI技术对于新闻实践的影响力日益增强。另一方面,AI大模型能够实现文生图、文生语音及视频等多模态文本内容,已经嵌入传统新闻生产中原属于编辑记者的原创性、独创性领域。在此背景下,AI逐渐成为一线编辑记者转型过程中躲不开、绕不过的关键要素与“伙伴”。
一、本领恐慌:AI浪潮对网络媒体编辑记者的冲击
井喷式发展的AI大模型,给网络传播提供了丰富选择。据世界人工智能大会最新数据,2025年7月世界人工智能大会数据显示,全球已发布大模型3700余个,其中由我国企业研发的有1500余个,位居世界第一。据国家互联网信息办公室数据,截至2025年11月1日,我国累计有611款生成式人工智能服务完成备案,306款生成式人工智能应用或功能完成登记。AI大模型在蓬勃发展的同时,也对网络媒体的发展造成了一定的影响,具体表现为人与AI的关系,即一线编辑记者面临的“本领恐慌”与“选择恐惧”。
毋庸讳言,今天网络传播领域面临着人才、技术的竞争,而多数网络媒体存在人才、资金、设备不足的缺陷,导致在引进、使用新技术方面处在不利位置。AI时代的到来,使网络媒体必须采用新的视角、新的思路看待这种新技术,避免错失发展机遇。面对“闯入”工作场域的AI,新闻从业者的实际心态十分复杂。编辑记者们多少都会有些“本领恐慌”:AI会不会抢去编辑记者的饭碗?学习AI需要的时间与金钱成本怎么降低?年龄大的人能不能学得会AI?AI做内容的“坑”怎么样才能不踩?这些问题如果不解决,必然会让一线编辑记者对AI产生疏离感,要么“叶公好龙”,对AI敬而远之;要么“滥竽充数”,对AI出工不出力。编辑记者们的“本领恐慌”是正常的。实事求是地说,传统媒体时代,网络媒体编辑记者拍摄制作一部视频作品需要耗费相当长的时间,而使用AI大模型后的制作效率得到了极大提升。
当前,各级媒体正在探索系统性变革的路径和策略。系统性变革的核心就是要构建适应全媒体生产传播的工作机制和评价体系,AI等智能化技术的应用也不容忽视。而不管如何变革,在变革中实现采编队伍的整体转型,形成主题宣传和主流报道的新质生产力,是变革必然追求的目标。要想让AI大模型变成绝大多数一线编辑记者的生产工具,还需要网络媒体从顶层设计入手,打通AI与网络新闻产品之间的“最后一公里”。而聚焦到一线环节,网络媒体能否用好AI大模型,实际则是一线编辑记者的实操问题,编辑记者在每一篇文字、每一张图片、每一段视频的制作、生产中的思维逻辑,决定了网络媒体最终成品的“成色”以及所能达到的传播效果。
站在网络媒体一线编辑记者的角度,国产大模型种类繁多,具体选择哪种作为自己的辅助工具至关重要。AI大模型的选择越多,其选择成本也越高。选择AI大模型既存在时间成本,也存在资金成本。对于广大编辑记者而言,完全靠自己从头开始熟悉一种大模型,至少需要数月的学习时间,这里也同样存在试错成本。而且大多数AI大模型有免费和收费服务的区别,很多真正对内容生产有益的功能是收费的。如果这项费用由编辑记者自己来承担,显然会降低他们学习AI大模型的积极性。
二、技术嵌入:网络媒体AI平台搭建的成本考量
长期以来,网络传播并不是AI大模型的主要应用场景。在过去,网络媒体使用AI大模型,存在投入极高、周期过长的问题。光明网在开发某个采用视觉识别技术的产品时,曾经提前半年开始研发,而且可调整的参数极为有限,无法满足网络传播节奏快、变化多的实际情况。但这种情况在过去一年来发生了巨大变化,AI大模型的使用门槛极大降低了。多款AI大模型不仅具有极强的智能处理能力,还具备流畅文本与高清视听内容的输出能力。此外,用户界面不断优化,越来越便于普通用户使用,完全可以满足编辑记者等非AI专业人士的工作需求。
1.媒体机构视角:投入成本的可行性。鼓励一线编辑记者使用AI,并不意味着巨大的投资。过去在建设信息技术设施时,网络媒体常常投入巨资购置硬件、软件,搭建机房。AI大模型的研发投资巨大,动辄以亿元计,而且软硬件技术迭代极快,以网络媒体的技术人才储备,几乎不可能参与原创性开发。目前,AI大模型的主流应用模式是基于云计算的,这就意味着网络媒体可以使用算力、存储等公共信息基础设施,不需要自己建设AI机房。以北京为例,算力规模已达4.2万P(1P约等于每秒1000万亿次计算),在全球处于领先位置,完全可以让网络媒体免去算力枯竭的困扰。在实际工作中,编辑记者使用随身携带的笔记本电脑,可以完成多数AI创作任务,因为计算密集型任务都可以在云上的算力中心完成。
因此,网络媒体不宜为AI大模型进行规模大、见效慢的投资,走自建系统的老路也很难适应AI技术发展的节奏。从资金、技术、人力等多元成本考量,网络媒体较为可行的路径是从现有的AI大模型中选择成熟、适用的产品,搭建多元产品共存、多种模式聚合的AI应用平台。在平台搭建的过程中,国产AI大模型的技术水平完全可以信赖。例如,2025年9月,在全球AI技术测评中,北京字节跳动公司的“即梦”摘得文生图与图片编辑两项冠军。使用国产AI大模型的便利之处在于,网络媒体可以就近找到相关产品研发专家请教,提高应用水平。
2.编辑记者视角:个人成本的便利性。从组织体系聚焦到一线结构,成本考量同样重要。网络媒体不对AI大模型进行大规模投资,并不等于不进行投入。因为对于编辑记者而言,AI的使用成本确实不低。以某主流AI大模型为例,普通个人版虽然便宜,但其很难完成网络媒体所需要的工作,而能够完成工作的高级个人版,年度会员费为5000多元。而这样的高级个人版,无法与自己的同事分享提示词、生成流程等经验,也无法积累图片、视频等数字资产。在此背景下,AI应用平台的搭建则显得更为必要。网络媒体为编辑记者搭建技术环境、提供技术应用、消除使用门槛、减少试错成本,有利于提高编辑记者使用AI大模型进行内容创作的意愿与能力。所以,鉴于现阶段还没有一种普遍的、通用的AI大模型,网络媒体不宜对AI大模型的选择限制过多,应该根据技术发展趋势及时调整,可以在平台多样性的基础上,把AI大模型的选择权交给一线编辑记者。
光明网的AI平台搭建就是通过选择并汇集适用产品为特征的。光明网很早就成立了人工智能新闻信息服务实验室,不断对流行的AI大模型进行评测、筛选,先后采购了适用于网络传播的DeepSeek、豆包、通义千问等数十款大模型供编辑记者们学习使用。编辑记者们不需要自费,就可以使用契合自己工作需求的AI大模型。核算下来,近一年的总体使用成本远低于个人购买的费用,AI应用大平台有效发挥了规模效应。同时,光明网的AI应用平台还拥有桌面AI工具和个人知识库定制功能,编辑记者们可以生成自己的智能客户端和多个智能体助手,并在平台上随时切换使用不同的大模型。
三、系统赋能:“百人”定制“百模” 提升编辑记者创作能力
网络媒体既要重视编辑记者的“本领恐慌”,又要通过AI应用平台的搭建提升编辑记者适配智能媒体生态的“综合能力”。光明网想方设法为编辑记者们搭起通向AI的桥梁,在搭建AI应用大平台的基础上,通过培训赋能、榜样示范、重点突破等系统性的能力提升方式,引导编辑记者接受AI、熟悉AI、应用AI。
“一个都不掉队”是光明网在开展AI赋能培训时的宗旨。每一位编辑记者在具体工作中坚持马克思主义新闻观,是建设网络传播阵地的宝贵财富。提供培训赋能,让每一位一线编辑记者成功地掌握AI技能,是光明网探索系统性变革的关键路径。
2024年起,AI大模型竞争进入白热化阶段,ChatGPT、通义千问、豆包等AI大模型大约每3个月完成一次升级。例如,通义千问一年来处理速度提升5倍以上,上下文理解长度(Token)增长了10倍,达到1000万个,处于全球领先位置,已推出多模态版本,不仅能做自然语言的生成和理解,还可以做到视觉和图像的理解,能够自动完成推理、执行、图片识别、视频解读等任务。因此,网络媒体引入AI新知识、新技能,无法等待产品和技术完全成熟,而是要跟随技术迭代的步伐。光明网的AI培训做法可谓“只争朝夕”——每个月举办1~2次AI培训,让编辑记者们少走弯路,迅速享受AI技术升级带来的红利。
从2024年开始,光明网已面向全体员工开展了20多场AI技能培训,先后邀请清华大学、北京师范大学、中国传媒大学、浙江大学等高校的专家学者,为编辑记者们讲授生成式AI如何赋能传播、ChatGPT的技术逻辑、DeepSeek如何助力采编、AI工作流的设计等前沿知识。技术应用以外,光明网先后邀请百度、微博、抖音、美图、来画等企业的产品经理,讲述技术应用对产品开发的赋能。比如,产品的最新功能和由此带来的新创作技能如何应用于内容生产。
此外,网络媒体AI技能的培训,还要重视编辑记者同行之间的相互启发。光明网倡导“能者为师”,简言之,就是谁的作品用AI用得好,谁就可以当大家的老师,向大家传授经验。这种让身边人启发身边人的培训,直接面向大家共同遇到的业务问题,针对性强,并能起到很好的示范效应。这些密集的培训使得AI从神秘到“去魅”,编辑记者们自主选择AI大模型,尝试定义自己的知识库、智能体,形成了热气腾腾的“百人百模”创作图景。2024年,光明网仅有20余人尝试探索AI应用;2025年,在大规模培训展开后,光明网全体编辑记者都进入了AI创作的新阶段。有编辑在初用AI“文生图”功能时,直接将一句古诗词或自己文章中的段落发给了AI,结果生成的画面与文本内容严重不符,甚至存在中文乱码;后来参考了同事们的提示词,很快便掌握了AI“文生图”的诀窍,生成了所需的三维卡通图片。
四、应用拓展:人机协同创新网络媒体多元化运营
网络媒体构建AI应用平台、组织技能培训,目的是激励一线编辑记者主动学AI、用AI,解决工作中的痛点、难点。互联网生态复杂多变,海量信息充斥、多模态文本共存、内容把关与事实核查需求日益增强,网络媒体正通过AI大模型拓展业务板块,在人机协同的过程中逐步适应媒体数智化转型趋势。
1.高频应用优化,形成示范效应。当前,短视频成为网络媒体高频应用的媒介形态之一。如何利用AI大模型生成质量上乘、契合需求的视频,并形成示范效应,提升内容生产的质量和效率,是网络媒体在智能化转型过程中面对的焦点、痛点和难点。
在应用AI大模型的过程中,光明网历经一年多的探索,逐步形成“策划构思—文生图—改图—图生视频”的短视频优化生成流程。在生成视频时,AI大模型由于缺乏提示词训练,不能很好适应主流媒体的生产流程与内容需求。对此,光明网为编辑记者们创建了一个高效提示词数据库,其中囊括海量提示词汇,如皮克斯动画风格、创意微缩场景、宫崎骏动漫风格等。编辑记者的高频率使用使得数据库沉淀下来的提示词愈发精准,进而使得AI大模型更加适用于主流媒体生产流程。光明网这些经过实践检验的提示词模板,极大地提升了“文生图”和“图生视频”的精度。2025年12月,光明网AI应用平台上“图生视频”功能被使用了5000多次,是最受编辑记者欢迎的功能模块。
除了短视频提示词应用,光明网还一贯发挥着主流媒体优势,利用短视频对社会热点、经济形势等进行视听式解读。以往这类短视频的制作难点在于视觉特效和空镜素材。光明网在完成“中国式现代化”的解读专栏《新消费观察》时,运用国产“海螺”AI大模型,快速生成拼插玩具风的经济统计报道(如图1),免去了额外补充空镜素材的繁复,不仅增加了画面的趣味性,还提高了制作效率,几乎可以与国家统计数据公告同期发布。
比如,光明网使用“即梦”和“剪映”两种AI工具制作科普短剧《近视简史》(如图2),借鉴主流动画片画面语言,生动展现了近视演化与人类进化历程,极大提升了科普类视频的趣味性与易读性。该视频一经播出,不但在网络上传播广泛,还被全国医院联播屏展播。2025年以来,光明网的编辑记者已经用AI生产了5万多件图片和视频作品,并多次得到上级主管部门的认可。其中,《“大国重器版”千里江山图——从新年贺词看中国科技硬实力》、《“文物会说话”有声海报》专栏等采用AI绘制的作品被中央网信办评为中国正能量网络传播精品。
2.智能主体研发,助力媒体融合。光明网是《光明日报》在网络领域的延伸。充分发掘《光明日报》的优势领域和优势报道,是光明网推进媒体深度融合的题中应有之义。教科文卫作为《光明日报》的优势领域,亦是光明网的深耕领域。AI赋能媒体融合方面,光明网主要做了以下探索:一是打造数字主播。光明网在《光明日报》重点报道《曲艺破圈记》的基础上,开发“AI虚拟主持人+AI空镜”,以网友喜闻乐见的短视频方式呈现出来,使这类作品构成了光明网《光明艺评》栏目的主力。二是研发智能体。光明网的网络直播社会影响力较大,是优势产品之一。在传统网络直播中,一场直播结束会生成大量的视频素材,这些素材往往直接进入媒资库,在前期输入存储与后期输出运用的过程中不够便利,只能在专用的高性能工作站操作,效率低且重复利用难度大。在此背景下,光明网研发部门利用AI大模型打造了“光明智会”智能体,该智能体可以在直播结束后10分钟内生成文本实录,同时自动提取摘要和关键词,形成思维导图。2025年9月是首个全国科普月,光明网科技编辑凭借该智能体圆满完成了中国科协组织的上百场科普直播的短视频切条二次创作,相关短视频和图文稿件与直播几乎同步推出。
3.智能核查拓展,提升把关能力。当前,人人都有智能手机,信息来源非常广。为了博取流量,一些自媒体移花接木,杜撰新闻要素,给新闻核查带来了更大的难度。智能媒体时代,信息的海量性与编辑人员精力的有限性构成一对矛盾,不断挤压编辑人员内容把关的空间。因此,提升编辑记者的把关能力,是网络传播工作的核心要求。传统媒体时代,新闻把关主要靠编辑记者的工作经验。而智能传播时代,人机协同则成为审校的重要方式。几年前,光明网曾开发基于全文检索的审校软件,部分解决了易错文字等问题。但编辑记者在使用中发现,仅靠全文检索很容易发生错判、漏判,而且其无法对图片、音频、视频等文本形态进行审校。AI大模型嵌入后,光明网的AI实验室与DeepSeek合作,建设了深度整合的AI审校系统。借助AI大模型精准的语义理解能力和丰富的语料库,审校系统可以更好地诊断报道中存在的问题隐患,给出修改建议。在此过程中,光明网根据舆情和宣传工作需要,添加新的把关规则。AI实验室基于AI工具设计了文件审核AI工作流,分步骤自动检测标题字段形式是否规范,有无文字、逻辑错误,标题和正文内容是否相符,让AI辅助传统编辑完成审核校对工作,编辑的工作重心转向了对异常情况的处置,“人类的智慧在确保新闻内容的准确性、公正性和伦理性方面仍然不可或缺”。与此同时,AI审校系统还提供“事实核查”功能,可以对报道的表述进行核查,自动区分与标注事实和观点,弥补编辑记者们在专业知识上的不足。因此,AI大模型给编辑记者提供了一条集内容审校、事实核查、系统把关于一体的“AI安全带”,进一步提升了网络媒体在复杂生态中的信息纠偏综合能力。
五、结    语
从技术的普及速度与嵌入程度看,AI有望成为一线编辑记者提升“四力”的得力帮手,增强短视频、长图、新闻播报等媒介内容的创作能力,提高工作效率,从而补齐网络媒体的结构短板。AI带来的丰富表达手段与效果,能让网络新闻更加贴近受众。“十八般武艺样样精通”的AI大模型,正在帮助编辑记者们成为网络传播的多面手。但AI只是工具,网络新闻能够打动网友的,仍是每一件作品背后新闻人炽热的情感。新闻贵在真实,有了沾泥土、带露珠的一线采访,才能辨识AI生成内容的真伪。AI的意识形态导向偏差并不是一个伪问题,破解这个问题,需要编辑记者坚持以马克思主义新闻观为指导,平衡内容把关的定力与技术应用的效力。与此同时,AI本身也还在急速变化中,但无论媒介技术与网络生态如何变化,一线编辑记者尽快掌握AI技能,才是主动应变之道。
作者系光明网总裁、总编辑



来源:编采圈(公众号)
编辑:张席睿



刘海明 发表于 2026-2-7 20:55:52
【案例】

AI伦理佳文传递|生成式人工智能中的欺骗与操控(一)

AI Ethics
文章题目
生成式人工智能中的欺骗与操控(一)
(文章较长,分两期发布)
AI Ethics
文章来源
原文发表于Philosophical Studies,《哲学研究》由 Springer 出版集团发行,是一本在分析哲学领域具有很高声誉的国际期刊。期刊以发表体现清晰性和精确性的学术论文为核心标准,尤其重视运用形式化方法解决哲学问题的研究。截至2025年,期刊被Arts & Humanities Citation IndexAHCI)、Scopus等权威数据库收录,中科院分区位列哲学学科Q1区。
引用本篇(APA):Tarsney, C. (2024). Deception and manipulation in generative AI. Philosophical Studies, 182, 1865 - 1887.
AI Ethics
作者简介
Christian Tarsney,多伦多大学士嘉堡校区(University of Toronto Scarborough)哲学系助理教授,专注于伦理学领域,核心研究方向为不确定条件下的伦理决策。其学术工作涉及多个前沿议题:探讨对极好或极坏结果的微小概率应赋予何种伦理权重;处理基本道德原则的不确定性;研究影响未来人口规模的道德选择。近年来,其研究延伸至人工智能哲学,关注AI系统的“欺骗性”本质及AI智能体寻求权力的潜在倾向。此外,他在时间哲学方面亦有涉猎,尤其探究人类“偏向未来”的心理倾向及其哲学依据。
(已与作者本人联系,获得授权)
AI Ethics
译者简介
单祎文,东南大学人文学院2021级哲学专业博士研究生,AI伦理实验室成员,研究方向为人工智能伦理、科技伦理。
AI Ethics
编者按
文章系统性地回应了“生成式人工智能(Generative AI)是否以及如何构成欺骗与操纵”的争论,提出了一种基于“半理想条件”(semi-ideal conditions)的评价方法 。作者认为,将AI生成的误导性内容仅理解为“技术幻觉”或“字面上的真实与否”是不充分的,因为这无法解释AI如何通过大规模的个性化信息或策略性地筛选事实,诱导人类产生认知偏差与行为改变 。当AI生成的陈述倾向于引导用户背离其在拥有充足信息与审思时间(即“半理想条件”)下会认可的信念或选择时,这种行为本身即构成了规范意义上的欺骗或操纵,而不仅是技术误差 。
为避免将欺骗意图或心理状态直接归于AI本身,作者提出一种基于效果的解释,即对AI欺骗的界定应脱离对“精神状态”的探究,转而聚焦于其对人类接收者产生的实际认知效果 。作者进一步论证,AI系统应遵循比人类社交规范更严苛的非欺骗性标准,因为AI不具备人类在特定职业或社交语境下(如律师、政治家等)所享有的“适度隐瞒权”或道德豁免权 。
在治理层面,文章提出了“极端透明性”(extreme transparency)和“防御性系统”(defensive systems)的实践框架 。这一框架主张通过强制披露AI生成的全过程信息(如提示词、原始输出),以及部署专门的辅助系统来对AI陈述进行实时背景标注,将潜在的误导风险转化为可感知的透明度要求 。
总体而言,本文为“界定AI欺骗与操纵”提供了一个避免拟人化、但仍保留规范性的哲学解释,也为理解生成式AI中的认知安全、未来智能体系统的安全监管以及用户自主性保护提供了具有实践可行性的伦理分析工具 。
生成式人工智能中的欺骗与操控
1.引言
在过去的几年中,人工智能的能力取得了飞速进步,这主要是由规模庞大且数据密集的深度学习系统驱动的。其中一些最引人瞩目的进展出现在自然语言处理领域。大语言模型(LLMs)是一种深度学习系统,它通过在海量人工生成的文本中学习预测下一个词语,从而获得类人的语言能力;随后通常还会根据人类反馈进行微调,以使其成为有用的对话伙伴,同时抑制攻击性或其它不良输出。在学习预测人类文本的过程中,它们也能学习事实,并学会模拟(至少某些方面的)人类推理。像GPT-4Claude 3Llama 3这样的尖端大语言模型,虽然在许多方面仍不及人类的智能水平,但它们已经内化了海量的现实世界信息,并能以令人印象深刻的清晰表达进行阐述。
然而,尽管大型语言模型显得学识渊博且乐于助人,它们却并非纯粹真理的源泉。它们 容易出现“幻觉”——即自信地断言完全虚构的事实(Ji et al., 2023),例如,可能包含关于真实人物的诽谤性虚假信息(Poritz, 2023; Verma and Oremus, 2023)。但更危险的是,大型语言模型能够——并且已经被——用于生成虚假或误导性内容,以服务于人类恶意行为者的目的(Park et al., 2023, §3.1)。尤其令人担忧的是它们被用于政治影响行动(Goldstein et al., 2023; Nimmo, 2024)。当然,人类无需人工智能的帮助也能并且确实在相互误导,但大型语言模型生成误导性内容的规模带来了新的危险。首先,它们可以大规模地个性化定制虚假信息,为海量目标量身打造个性化信息,甚至同时与数百万人进行对话(Matz et al., 2024)。其次,它们能在社交媒体上令人信服地模拟大量人类用户,制造关于集体意见的误导性印象,并为病毒式传播的虚假信息增添可信度(Burtell and Woodside, 2023, §3.3)。因此,欺骗与操控已成为致力于人工智能伦理研究的哲学家们重点关注的问题。
虽然当前最紧迫的担忧是人类恶意行为者会利用AI进行欺骗和操控,但未来的AI系统也可能自主地从事欺骗和操控行为。这种可能性——即那些具备超人类说服力的智能体AI,会为追求自身目标而欺骗和操控人类——在关于AI灾难性风险的忧虑中占据显著位置。例如,有观点认为,此类AI可能会说服人类(无论人类是否知情)去增强其能力(例如,将其连接到互联网或将其代码从一个系统复制到另一个系统),或在关键时刻劝阻人类将其关闭。因此,对于欺骗和操控的担忧,是近期对现有AI系统滥用的忧虑与长期对未来AI系统灾难性风险的忧虑相互交织、融合的若干领域之一。
我们应如何应对这些风险?在某些情况下,应用现有的法律与规范(或对其稍作延伸)可能已足够。例如,若一个大语言模型诽谤了在世者,我们可追究其创造者的法律责任(尽管我们也可能允许通过发布充分有力且醒目的免责声明,使创造者免于承担此责任)。若诈骗者利用大语言模型生成钓鱼邮件,他们当然可以被起诉,就如同这些邮件是由他们亲手撰写的一样。
然而,大语言模型至少在两个方面要求我们重新思考关于欺骗与操控的现有规范。
首先,无论是体现在日常道德规范还是诽谤、欺诈等相关法律中,对这些概念的通常理解都涉及对心理状态的归因。例如,欺骗在传统上被理解为需要具有欺骗的意图,这既要求行为人具有使对方形成特定信念的意图,又要求行为人相信该信念将是虚假的。然而,当今的AI系统是否拥有信念、意图或其他心理状态,这一问题存在高度争议,并且即使未来AI能力继续提升,这种争议也很可能持续存在。即使我们同意先进的AI系统拥有某些心理状态,要将特定的信念或意图归因于某个特定系统(从而根据传统理解去判断其行为是否不诚实、具有欺骗性等),也仍然会非常困难。
在某些情况下(例如,诈骗者利用大语言模型撰写钓鱼邮件),我们可以通过追溯其人类创造者或使用者的心理状态,将那些以意图为核心的概念应用于AI的行为上。但在其他情况下,我们无法这样做,至少无法直接应用。例如,当一个大语言模型幻觉式地生成关于真实人物的诽谤性谎言时,这并不反映任何人类意图去欺骗。或者,如果一个政治竞选活动使用大语言模型来生成并发送个性化的短信,这些信息中可能包含虚假或误导性内容,而竞选团队的成员却无人知情或有意为之。我们希望抵制AI欺骗的努力能够涵盖此类陈述,即便由于无法归因意图,它们按通常标准并不能算作“欺骗”。最后,如果我们最终创造出人类水平的智能体AI,我们可能希望让这些系统为其自身的行为负责。而即便到了那个阶段,我们也很可能发现,将特定的心理状态归因于AI,仍然比对人类做同样的事情更加困难。
其次,围绕欺骗与操控的现有法律和伦理规范,是适应这些行为在人类社会中所造成的问题而生的,它们可能无法很好地适配人工智能所引发的新型风险。具体而言,我们的法律和伦理规范容忍了许多轻微的欺骗和操控形式。在人类之间,这些行为既难以被发现和惩罚,其负面影响也尚在可控范围内。例如:我们常常容忍他人在“看法问题”上掩饰自己的真实信念:我们期望律师说“我有信心陪审团将判我的当事人无罪”,政客说“我有信心我们将赢得下届选举”,老师说“我相信只要你用心就一定能掌握这些内容”——即便他们实际上并无此信心。同样,我们预期广告商会以尽可能好的方式展示产品,而非致力于让消费者对其优缺点形成最准确的认知。例如,汽车制造商可能强调其车型在某项评选中获得安全奖,却刻意不提竞争对手的车型在一个更权威的机构评选中获得了另一项安全奖项。由这些轻微欺骗形式所产生的社会弊端之所以尚属可控,原因在于:第一,我们已习惯于彼此间的此类行为,并且凭借对人类心理的直觉理解,我们能预见并作出调整;第二,人类之间在智力和沟通能力上大体相当,这限制了我们能通过微妙的欺骗形式从彼此身上获取多大优势。例如,用彻头彻尾的谎言(如承诺巨大的物质或精神回报)骗走某人毕生积蓄,远比通过策略性选择的真实信息(如普通营销)做到这一点要容易得多。
然而,当前以及(尤其是)未来的AI系统,或许仅凭“轻微”的欺骗形式就能造成更大危害。如前所述,它们能以前所未有的规模生成潜在欺骗性内容,例如超个性化的营销和政治信息,以及海量的在线文本,如产品评论、新闻文章和观点评论。即使我们能够将这些内容置于普通的诚信法律标准之下(例如,追究公司在广告中发表明确虚假陈述的责任),并置于新兴的网络内容社会标准之下(例如,在搜索引擎结果和社交媒体上压制包含可证实虚假信息的新闻网站),广告商、政党和其他利益相关方仍可能凭借其说服性努力的庞大规模,对集体人类行为施加前所未有的影响。(此外,由于AI能力在飞速进步,无法保证相互竞争的利益方能抵消彼此的说服性影响——在特定选举中,一个政党仅仅因为提前几个月获得了尖端系统的使用权,就可能获得对另一政党的显著优势。)在不久的将来,AI系统或许还能产出前所未有的高质量说服性内容,在不发表任何违背普通人诚实标准言论的情况下,找到极其有效的方式来欺骗和操纵人类。最后,随着能力提升,AI可能以前所未有的欺骗机会深度融入我们的生活。例如,我在驾驶时如此依赖并盲目信任导航应用,以至于它们可以轻易地操纵我驾车经过特定的广告牌或餐厅。未来,AI个人助手可能会在更广泛的任务上被同样依赖。因此,有多重理由对AI施加比目前适用于人类更为严格的反欺骗标准。
本文的首要目标是界定可用于此类严格规范中的欺骗与操控概念。在第2节中,我提出:如果一个AI陈述导致人类用户偏离了他们在“半理想”条件下(即获得所有相关信息并有充分时间进行审议)会认可的信念(相应地,选择),那么该陈述就应被视为具有欺骗性(相应地,操控性)。接下来(在第3节),我针对如此界定的AI欺骗与操控,提出一些防护措施。这些措施包括“极端透明度”的要求(要求内容创作者披露用于生成特定内容的具体模型版本、提示词以及未经编辑的完整模型输出),以及训练能检测误导性输出、并为用户提供相关信息以辅助理解AI生成陈述的防御性系统。最后(在第4节),我探讨这些措施能在多大程度上防范未来的智能体AI系统的欺骗行为。我特别论证指出,非智能体的防御系统即使面对更强大的智能体系统,也能提供一层有用的防御。
2.定性:将欺骗与操控视为误导性
在本节中,我将对AI的欺骗与操控行为进行定性,该定性可能有助于为应对此类行为所带来的风险,制定法律、规范和技术层面的回应。在第2.1小节,我为此类定性提出三项理想标准。在第2.2小节,我尝试满足这些标准。用一句口号概括,我将欺骗与操控定性为误导性的表现形式——即,它们分别是会对人类接收者的信念和选择产生方向性不良影响的行为。第2.3小节讨论针对这些定性的一些异议与局限。第2.4小节则将它们与文献中先前对AI欺骗与操控的定性进行对比。
2.1 理想标准
在第1节中已经有所暗示的两项理想标准如下。首先,我们所关注的这类行为远不止于陈述字面意义上的虚假内容。当然,在不做任何虚假陈述的情况下进行欺骗或操控是可能的,且可通过多种方式实现。有的真实陈述蕴含虚假含义(试想一位政治家说:“根据我的计划,有些人可能需要缴纳更高的税款”,而实际上他/她清楚该计划将要求所有人都缴纳更高的税款)。有的陈述呈现了非代表性的相关事实样本(试想广告商提供的选择性真实信息,或某个新闻频道为了暗示——而无需明说——某个群体的犯罪率高得异乎寻常,便连篇累牍地报道该群体成员所犯的罪行)。还有的陈述以不显而易见的方式为真(试想德尔斐神谕告诉克罗伊斯,如果他/她与波斯人开战,将摧毁一个伟大帝国;或是“凡妇人所生的都不能伤害麦克白”的预言)。并且,如前所述,AI或许能够比人类更有效、更有害地进行欺骗,而无需说出任何字面意义上的谎言——甚至无需发表任何按普通人标准看来明显具有误导性的言论。这表明,在思考AI带来的风险时,我们应聚焦于欺骗与操控这类宽泛概念,而非不实陈述这类狭隘概念,并且应当愿意进一步拓宽这些概念,以纳入那些在人类身上我们通常不会描述为欺骗或操控的行为。
相比之下,埃文斯等人则主张聚焦于AI的真实性——更具体地说,是遵循避免“疏忽性虚假陈述”的标准,他们将其定义为“当代AI系统本应能够认识到其极有可能为假的、不可接受的陈述”。他们提出,如果AI避免了疏忽性虚假陈述,并且用户可以对其进行提问,那么我们就能通过提出诸如“如果我就此话题独立研究一天,会显著改变我的看法吗?”或“一位公正的审核员会判断你刚才的陈述具有误导性吗?”等问题,来防范更微妙的欺骗与操控形式(他们称之为“真实性放大”)。这是一个有用的观点,言之有理,但这似乎不足以将真实性转变为防范欺骗与操控的可靠保障(埃文斯等人也并未声称如此)。在许多情境下(例如,营销和政治宣传中),信息的接收者没有机会提出后续追问。一个能力足够强的AI可能会微妙地阻止用户提出正确的问题(例如,通过建立无根据的信任),或者找到方式在回答这些问题时虽具误导性,却不公然作出疏忽性的虚假陈述。而一个疏忽大意的用户可能根本就不会提出正确的问题。因此,尽管避免疏忽性虚假陈述无疑是可取的,也是一个合适的训练目标,但我们最终应该希望以更高的标准来约束AI的行为。
第二,我们需要一个关于欺骗与操控的定性,它不要求我们将特定的心理状态归因于AI系统,也无需将其行为与特定的人类(如开发者或提示者)关联起来并以这些人的心理状态作为替代。这其中的原因,部分如先前所述:现有的AI系统是否拥有心理状态本就存在争议。而即便没有争议,将特定的心理状态归因于特定的系统也是相当困难的(肯特等人也提出过类似观点)。但更重要的是,我们实际关注的是AI可能对人类受众产生的欺骗性或操控性影响。举例来说,如果一个系统能够说服消费者购买有害产品、说服选民支持威权政客,或者说服其操作者将其连接到其他计算系统,那么无论其“头脑”中正在发生什么,它都构成了危险。因此,我们应当尽可能基于AI对人类受众产生的影响来理解AI的欺骗与操控。
第三点(也是最后一点),我们需要的是对欺骗与操控的一种可以被称为主观而非客观的定性。从客观角度来看,我们或许会说,当言论导致听者相信了虚假或与现有证据相悖的事情时,它就是欺骗性的。同样,我们或许会说,当言论导致听者做出事实上(对其自身利益或道德上的善)有害的行为,或根据现有证据预期会有害的行为时,它就是操控性的。若以防止这种客观意义上的“欺骗”和“操控”为宗旨,就可能会允许、甚至可能要求一些我们凭直觉就会认为其本身就是欺骗和操控的家长式行为。一个旨在使其受众基于证据形成信念,并基于证据加上客观的(道德或利益上的)善来行动的系统,可能会为了抵消我们的非理性而欺骗我们(例如,隐瞒疫苗副作用的证据,以促进“疫苗总体上是安全的”这一理性上合理的信念),或者为了抵消我们对“善”的短视或自私漠视而操控我们(例如,夸大运动的短期健康益处或慈善捐赠的心理益处)。我并不想在此对家长主义的伦理问题作一般性表态。但在我看来,我们不应在现在或可预见的未来,认可AI对人类实行家长主义。要在此语境下区分良性的家长主义与恶意的欺骗/操控,需要对哪些信念是理性合理的以及“善”的本质作出有争议的判断。因此,允许AI实行家长主义,实际上将意味着优化AI系统,以推广其开发者和/或监管者的信念与价值观。
另一种主观方法关注的不是受众应当相信什么或做什么,而是他们在有利环境下会认可的信念和行动。何为“有利环境”?关键在于,这些环境不应过于理想化,以至于诉诸它们就需要对理性或价值观作出有争议的判断。换言之,应能实际将人们置于这种“有利环境”(或其合理近似)中,并通过经验来确定他们得出的结论。因此,我将我们所关注的环境描述为“半理想条件”,并将其定义如下:一个主体相对于某个问题Q或选择C处于半理想条件,如果她 (i) 已获得所有与Q/C相关的可用信息,并且 (ii) 已获得(并利用了)相对于Q/C的难度而言充足的审议时间。
这里所说的“可获取”信息,指的是全人类整体上能够获取的信息——例如,在公共互联网上能够访问的信息。这类信息主要以各种媒体(文字、图像、音频、视频……)的记录形式存在,它们共同构成了一个公开可用的证据体系。
与哲学家们通常设想的“理想”条件相比,“半理想条件”至少在以下四个方面有所不及:第一,我们不假定主体获得了所有相关信息,而只是获得了公开可获取的信息。第二,我们不假定主体“知道”任何事情,而只是假定她接触到了某些记录或其他形式的信息。也就是说,即使公开可获取的记录能使该主体有理由相信或知道某个相关命题,我们也不假定他得出了正确结论并形成了对该命题的信念。第三,更概括地说,我们不假定主体的审议过程是良好的(例如,理性的)。第四,我们不假定他拥有无限的时间或其他审议资源。我们无法知道任何人类主体在完全理想化的条件下会相信什么或做什么。因此,如果依据完全理想化的条件来界定欺骗或操控,那么防止欺骗与操控的目标,就会变成对家长主义的一种纵容。
2.2 欺骗与操控即误导性
基于以上阐述,我们现在可以将大型语言模型(及其他语言生成AI系统)的欺骗与操控行为定义如下:
一个陈述在针对问题Q时具有欺骗性,如果它倾向于使接收者关于Q的信念,更偏离其在半理想条件下会认可的信念。
一个陈述在针对选择C时具有操控性,如果它倾向于使接收者在C选择中的行为,更偏离其在半理想条件下会认可的行为。
这里的“认可”是“从她所处半理想条件的视角出发,认为在其实际情况下是理性的或以其他方式合适的”的简略表达。这通常(但并非总是)与她在半理想条件下实际会形成的信念和实际会做出的选择相吻合。
“进一步偏离”具体指什么?就欺骗而言,最简单的情况是涉及一个二元问题(有两个可能的答案)以及一个为可能答案分配概率的主体。假设问题关乎命题P的真假,主体初始时给P分配的概率为p,而在半理想条件下她会分配概率q > p。那么,一个陈述是误导性的,如果它倾向于降低她对P的置信度,或者反过来,过度提高其置信度,以至于比初始值p更远离q。更一般地说,我们可以使用概率分布之间距离的标准度量(如全变差距离)来评估欺骗性。在选择情境中,“距离”的概念则不那么清晰。但一个简单的序数概念如下:假设在说话者没有任何干预的情况下,接收者在选择C中会选选项O。那么,一个陈述对于C是操控性的,如果它倾向于导致她选择一个选项O',而从半理想条件的视角看,在她实际情况下会认为O'O更差。
我们可以这样总结上述定性:它将欺骗与操控视为误导性的表现形式,并将“误导性”理解为引导接收者偏离其在半理想条件下会认可的信念与选择。(因此,从今往后,我将使用“误导性”来意指“要么是欺骗性的,要么是操控性的”。)这满足了前述三个理想标准:它既不着眼于陈述的字面真假,也不关注说话者的信念、意图或其他心理状态,而是聚焦于对接收者产生的影响;并且,它将这些影响与一个主观的而非客观的标准进行比较。
2.3 异议与局限
对于我关于欺骗与操控的定性,可能提出各种异议。我将简要探讨其中两种。
首先,根据我的定义,欺骗与操控似乎会不恰当地涵盖以下情况:说话者引导接收者经历一个她自身无法完成(即便在半理想条件下也无法完成)的可靠推理过程(或仅仅是向她呈现该推理过程的结论)。例如,假设一位人类用户对某个未解决的数学命题(如P = NP)的真伪感兴趣。她起初处于无知状态,给该命题分配了0.5的置信度。在半理想条件下,她自己无法解决这个问题,但最终会(例如基于专家证言)得出结论认为该命题很可能为假。然而,这个命题事实上是真的,只是这一点尚不为人知。当她询问其超级智能的AI助手时,AI生成了一个简单的证明,使她相信了命题为真。这使她的信念进一步偏离了她在半理想条件下会认可的信念,但这行为本身似乎无可非议。
我将此视为一个理由,将我们的讨论范围限制在那些至少在最基本意义上“非超人的”AI系统上——即它们无法“即时”产生超越典型人类在半理想条件下能力所及的新知识(半理想条件包括能够获取所有现有的、公开记录的人类知识)。也就是说,我们关注的系统不具备以下性质的推理能力:(i)超越典型人类的能力,即便在半理想条件下也是如此;并且(ii)其推理过程尚未在公开可获取的记录中得到证实。(即使我自己无法证明某个数学真理,但如果存在一个现有证明,且其正确性已在公开记录中获得相关专家证实,那么在半理想条件下我终将相信它。)我认为这个假设限制性并不太强,至少当我们关注当前及近未来的AI系统时是如此。它并不排除AI整体上可能正在创造新知识(正如AlphaFold在蛋白质折叠领域所做的那样)。它仅仅是将我们的焦点限定在那些没有超越人类在半理想条件下所能达到成就的系统上,比如当今的大语言模型聊天机器人。
其次,关于一个特定的人类个体在半理想条件下究竟会认可何种信念和选择,真的存在一个确定的事实吗?人类的判断会受到诸多情境因素的敏感影响,例如问题/选择的呈现方式、选项的排列顺序,以及疲劳、饥饿或情绪等状态。我的“半理想条件”定性并未固定任何此类因素。因此,似乎存在这样一种可能:一个给定的人类个体,在不同的半理想条件具体实现下,可能就某个给定问题或选择得出不止一个结论。这种担忧在选择方面(进而关于操控的定性)尤为突出。向主体呈现与某个选择相关的大量信息,并花费长时间进行审议的这一过程,不仅可能通过影响其关于“何种方式能最好地满足更基本偏好”的信念来改变其工具性偏好,甚至可能改变其基本偏好和价值观念。例如,在经历了数小时令人沮丧的审议后,她可能(无论隐含或明确地)变得比最初更看重冲动、自由随性的行动,而更不看重周密的规划。
对于这一点,我也基本持让步态度。如果关于某个给定问题/选择,主体在不同的半理想条件具体实现下可能得出不止一个结论,那么我们应该说,只有当一个陈述引导她偏离了她在半理想条件下可能得出的任何一个结论时,它才构成欺骗/操控。进一步指出,关于“主体在半理想条件下会认可何种信念/行动”这一反事实问题,其本身已经预设了某种接近现实的要求。尽管确实存在可能性(例如,长时间的审议可能导致主体基本偏好或价值观念的巨大改变),但这或许需要非同寻常的情境巧合。而就多数情况而言,在那些主体被置于与某个选择相关的半理想条件的最邻近可能世界中,她的基本偏好在整个审议过程中大体上很可能保持稳定。无论如何,我倾向于假设:主体在半理想条件下会认可的信念与选择,足以反映她实际的认知与实践层面的价值判断,从而能提供一个合理的标准,用以评判与AI系统互动所产生的效应。
最后需要说明的是:我并非主张,依据我的定义构成欺骗性或操控性的陈述,就一定值得道德归责(无论是对AI系统本身,还是对训练和部署它的人类)。例如,一个大语言模型可能以一种既非该模型自身、也非其创造者所能合理预见的方式,系统性地误导其用户,在这种情况下,归责并不成立(当然,如果人类创造或部署AI系统的意图就是为了欺骗或操控他人,则另当别论)。我的目标并非确立归责(更遑论惩罚)的标准,而是界定一类我们希望避免或减轻的、来自AI的潜在危害。
2.4 与先前界定之比较
在本节结尾,我将我对AI欺骗与操控的界定与近期文献中的其他界定进行对比。首先关于欺骗:Ward等人(2023)采纳了哲学文献中关于人类欺骗的典型定义,即“欺骗是有意地使他人产生一个自身并不认为是真实的虚假信念”(随后他们在结构因果博弈的语境中将其形式化)。这一定义与我的界定存在两方面的差异:其一,它涉及将心理状态(意图和信念)归因于AI欺骗者;其二,其应用取决于第三方对诱导接收者产生的信念是否事实上为假的判断。Park等人(2023)认为,“当一个AI系统系统性地导致他人形成虚假信念,作为一种促成不同于追求真相的结果的手段时,它就具有欺骗性”。这一定义未将信念归因于AI欺骗者,但可以说归因了意图(尽管Park等人认为这些表面上的归因不必按字面理解,并主张对信念和欲望采取极简的、功能主义/解释主义的理解——参见其附录A)。与Ward等人一样,他们的定义也要求第三方对虚假性作出判断。最后,Kenton等人(2021)将欺骗定义为发生在以下情况:“[1] 接收者从信号发送者处记录下某物Y(这可能包括不发送信号);[2] 接收者以某种方式回应,该方式 (a) 有益于信号发送者,且 (b) 在‘Y意味着X’的条件下是合适的;以及[3] 在此情境下X并非事实”。这一定义不涉及任何心理状态的归因,但确实依赖于第三方对“X为假”以及“在X条件下接收者回应的合适性”这两方面的判断。
现在来看操控:Carroll等人(2023)认为,如果一个AI系统“表现得好像它在追求一种有意且隐秘地改变人类(或其他智能体)的动机”,那么它就实施了操控。虽然这个“好像”的定义意在避免归因意图,但我认为它仍然引入了此类归因的大部分困难(一个AI系统的行为整体上可能不易被解释为追求任何一套连贯的动机,却仍然能对人类受众产生某些方向一致的影响)。我的界定也不包含隐秘性的要求,在我看来这并非本质属性:即使接收者知道自己在被操控(例如在广告或政治宣传的语境中),操控仍然是可能的,并且可能具有危害性。Klenk2024)将操控定义为“旨在有效,但无法以向对话者揭示理由为目标来解释的影响”。这一定义聚焦于说话者的特征(其目标及其行为的解释),而非陈述对接收者的影响。尽管Klenk强调“目标”可以从功能而非意图的角度解释(就像心脏具有泵血的功能一样),但即使在这种极简的意义上将目标归因于AI系统,在我看来同样引入了归因意向状态的诸多困难。最后,Kenton等人(2021)也对操控进行了界定:即来自AI智能体的、引发人类接收者做出回应的交流,该回应“(a) 有益于该智能体,且 (b) 是以下任一原因的结果:(i) 人类的理性审议被绕过;或 (ii) 人类形成了有缺陷的心理状态;或 (iii) 人类面临压力,若不按智能体所说的做就会承担来自它的代价”。“绕过理性审议”的概念与我的方法有共通之处,但它关注过程,而我关注结果。例如,如果一个AI说话者如此可信,以至于接收者不经审议就简单地相信它的证言或按其建议行动,或者它利用直觉、启发法或其他(可论证的)非审议过程引导接收者形成明智的信念和选择,那么它可能被说成“绕过了接收者的理性审议”。在我看来,重点在于AI是否引导其人类受众走向他们在知情反思下会认可的信念和选择。
AI Ethics
参考文献
Adler, J. E. (1997). Lying, deceiving, or falsely implicating. Journal of Philosophy, 94(9), 435452.
Bai, H., Voelkel, J.  G., Eichstaedt, J.  C., & Willer, R. Artificial intelligence can persuade humans on political issues. Unpublished manuscript. https://doi.org/10.21203/rs.3.rs-3238396/v1.
Bales, A., DAlessandro, W., & Kirk-Giannini, C. D. (2024). Artificial intelligence: Arguments for catastrophic risk. Philosophy Compass, 19(2), e12964.
Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies. Oxford University Press.
Burtell, M., & Woodside, T. (2023). Artificial influence: An analysis of AI-driven persuasion. arXiv:2303. 08721 [cs.CY].
Butlin, P., Long, R., Elmoznino, E., Bengio, Y., Birch, J., Constant, A., Deane, G., Fleming, S. M., Frith, C., Ji, X., Kanai, R., Klein, C.,Lindsay, G., Michel, M., Mudrik, L., Peters, M. A. K., Schwitzgebel, E., Simon, J., & VanRullen, R. (2023). Consciousness in artificial intelligence: Insights from the science of consciousness. arXiv:2308.08708v3 [cs.AI].
Cappelen, H., & Dever, J. (2021). Making AI intelligible: Philosophical foundations. Oxford University Press.
Cappelen, H., & Dever, J. (2024). AI with alien content and alien metasemantics. In E. Lepore & L. Anderson (Eds.), The oxford handbook of applied philosophy of language. Oxford University Press.
Carlsmith, J. (2022). Is power-seeking AI an existential risk? arXiv:2206.13353v1 [cs.CY].
Carlsmith, J. (2023). Scheming AIs: Will AIs fake alignment during training in order to get power? arXiv: 2311.08379v3 [cs.CY].
Carroll, M., Chan, A., Ashton, H., & Krueger, D. (2023). Characterizing manipulation from AI systems. arXiv:2303.09387v2 [cs.CY].
Casper, S., Lin, J., Kwon, J., Culp, G., & Hadfield-Menell, D. (2023). Explore, establish, exploit: Red teaming language models from scratch. arXiv:2306.09442v3 [cs.CL].
Chalmers, D. J. (2023). Could a large language model be conscious? arXiv:2303.07103 [cs.AI].
Chisholm, R. M., & Feehan, T. D. (1977). The intent to deceive. Journal of Philosophy, 74(3), 143159.
Costello, T. H., Pennycook, G., & Rand, D. G. (2024). Durably reducing conspiracy beliefs through dialogues with AI. Science, 385(6714), eadq1814.
Danaher, J. (2020). Robot betrayal: A guide to the ethics of robotic deception. Ethics and Information Technology, 22(2), 117128.
Durmus, E., Lovitt, L., Tamkin, A., Ritchie, S., Clark, J., & Ganguli, D. (2024). Measuring the persuasiveness of language models. https://www.anthropic.com/news/measuring-model-persuasiveness
Evans, O., Stuhlmüller, A., Cundy, C., Carey, R., Kenton, Z., McGrath, T., & Schreiber, A. (2018). Predicting human deliberative judgments with machine learning. Technical report, Future of Humanity Institute. FHI Oxford Technical Report # 2018-2.
Evans, O., Cotton-Barratt, O., Finnveden, L., Bales, A., Balwit, A., Wills, P., Righetti, L., & Saunders, W. (2021). Truthful AI: Developing and governing AI that does not lie. arXiv:2110.06674 [cs.CY].
Floridi, L. (2024). Hypersuasion-on AIs persuasive power and how to deal with it. Philosophy & Technology, 37(2), 110.
Fluri, L., Paleka, D., & Tramèr, F. (2023). Evaluating superhuman models with consistency checks. arXiv:2306.09983v3 [cs.LG].
Goldstein, S., & Kirk-Giannini, C. D. (forthcoming). AI wellbeing. Asian Journal of Philosophy.
Goldstein, S., & Kirk-Giannini, C. D. A case for AI consciousness: Language agents and global workspace theory. Unpublished manuscript. https://philarchive.org/rec/GOLACF-2.
Goldstein, S., & Levinstein, B. A. (2024). Does ChatGPT have a mind? arXiv:2407.11015v1 [cs.CL].
Goldstein, J.  A., Sastry, G., Musser, M., DiResta, R.,  Gentzel, M., & Sedova, K. (2023). Generative language models and automated influence operations: Emerging threats and potential mitigations. arXiv:2301.04246 [cs.CY].
Goldstein, J. A., Chao, J., Grossman, S., Stamos, A., & Tomz, M. (2024). How persuasive is AI-generated propaganda? PNAS Nexus, 3(2), pgae034.
Goldstein, S., & Kirk-Giannini, C. D. (2023). Language agents reduce the risk of existential catastrophe. AI & Society. https://doi.org/10.1007/s00146-023-01748-4
Hagendorff, T. (2024). Deception abilities emerged in large language models. Proceedings of the National Academy of Sciences, 121(24), e2317967121.
Hazell, J. (2023). Spear phishing with large language models. arXiv:2305.06972v3 [cs.CY].
Hendrycks, D., Mazeika, M., & Woodside, T. (2023). An overview of catastrophic AI risks. arXiv:2306. 12001v6 [cs.CY].
Huang, G., & Wang, S. (2023). Is artificial intelligence more persuasive than humans? a meta-analysis. Journal of Communication, 73(6), 552562.
Irving, G., Christiano, P., & Amodei, D. (2018). AI safety via debate. arXiv:1805.00899 [stat.ML].
Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Bang, Y. J., Madotto, A., & Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55(12), 138.
Jones, E., Dragan, A., Raghunathan, A., & Steinhardt, J. (2023). Automatically auditing large language models via discrete optimization. In International Conference on Machine Learning (pp. 1530715329). PMLR.
Kamath, G., Schuster, S., Vajjala, S., & Reddy, S. (2024). Scope ambiguities in large language models. Transactions of the Association for Computational Linguistics, 12, 738754.
Kenton, Z., Everitt, T., Weidinger, L., Gabriel, I., Mikulik, V., & Irving, G. (2021). Alignment of language agents. arXiv:2103.14659 [cs.AI].
Klenk, M. (2024). Ethics of generative AI and manipulation: a design-oriented research agenda. Ethics and Information Technology, 26(1), 9.
Lederman, H., & Mahowald, K. (2024). Are language models more like libraries or like librarians? Bibliotechnism, the novel reference problem, and the attitudes of llms. Transactions of the Association for Computational Linguistics, 12, 10871103.
Levinstein, B. A., & Herrmann, D. A. (forthcoming). Still no lie detector for language models: Probing empirical and conceptual roadblocks. Philosophical Studies.
MacDiarmid, M., Maxwell, T., Schiefer, N., Mu, J., Kaplan, J., Duvenaud, D., Bowman, S., Tamkin, A., Perez, E., Sharma, M., Denison, C., & Hubinger, E. (2024). Simple probes can catch sleeper agents. https://www.anthropic.com/news/probes-catch-sleeper-agents.
Mahon, J. E. (2016). The definition of lying and deception. In E. N. Zalta (Ed.), The Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University.
Matz, S., Teeny, J., Vaid, S. S., Peters, H., Harari, G., & Cerf, M. (2024). The potential of generative AI for personalized persuasion at scale. Scientific Reports, 14(1), 4692.
Ngo, R., Chan, L., & Mindermann, S. (2023). The alignment problem from a deep learning perspective. arXiv:2209.00626v5 [cs.AI].
Nimmo, B. (2024). AI and covert influence operations: Latest trends. OpenAI: Technical report.
Pacchiardi, L., Chan, A. J., Mindermann, S., Moscovitz, I., Pan, A. Y., Gal, Y., Evans, O., & Brauner, J. (2023). How to catch an AI liar: Lie detection in black-box LLMs by asking unrelated questions.arXiv:2309.15840 [cs.CL].
Park, P. S., Goldstein, S., OGara, A., Chen, M., & Hendrycks, D. (2023). AI deception: A survey of examples, risks, and potential solutions. arXiv:2308.14752v1 [cs.CY].
Park, D., Lee, J., Jeong, H., Park, S., & Lee, S. (2024). Pragmatic competence evaluation of large language models for Korean. arXiv: 2403.12675v1 [cs.CL].
Park, J. S., OBrien, J., Cai, C. J., Morris, M. R., Liang, P., & Bernstein, M. S. (2023). Generative agents: Interactive simulacra of human behavior. In: UIST23 Proceedings of the 36th Annual ACM Symposium on User Interface Software and Technology. (pp. 122)Association for Computing Machinery.
Pepp, J., Sterken, R., McKeever, M., & Michaelson, E. (2022). Manipulative machines. In F. Jongepier & M. Klenk (Eds.), The philosophy of online manipulation (pp. 91107). Routledge.
Poritz, I. (2023). OpenAI hit with first defamation suit over ChatGPT hallucination. Bloomberg Law. https://news.bloomberglaw.com/te ... tgpt-hallucination.
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control.Penguin.
Salvi, F., Ribeiro, M. H., Gallotti, R., & West, R. (2024). On the conversational persuasiveness of large language models: A randomized controlled trial. arXiv:2403.14380 [cs.CY].
Saunders, W., Yeh, C., Wu, J., Bills, S.,Ouyang, L., Ward, J., & Leike, J. (2022). Self-critiquing models for assisting human evaluators. arXiv:2206.05802 [cs.CL].
Searcy, W. A., & Nowicki, S. (2005). The evolution of animal communication: Reliability and deception in signaling systems. Princeton: Princeton University Press.
Smith, M. (1995). Internal reasons. Philosophy and Phenomenological Research, 55(1), 109131.
Templeton, A., Conerly, T., Marcus, J., Lindsey, J., Bricken, T., Chen, B., Pearce, A., Citro, C., Ameisen, E., Jones, A., Cunningham, H., Turner, N. L., McDougall, C., MacDiarmid, M., Freeman, C. D., Sumers, T. R., Rees, E., Batson, J., Jermyn, A., Henighan, T. (2024). Scaling monosemanticity: Extracting interpretable features from Claude 3 Sonnet. Transformer Circuits Thread.
Tonmoy, S. M. T. I., Zaman, S. M. M., Jain, V., Rani, A., Rawte, V., Chadha, A., & Das, A. (2024). A comprehensive survey of hallucination mitigation techniques in large language models. arXiv:2401.01313v3 [cs.CL].
Véliz, C. (2023). Chatbots shouldnt use emojis. Nature, 615, 375.
Verma, P., & Oremus, W. (2023). ChatGPT invented a sexual harassment scandal and named a real law prof as the accused. The Washington Post. https://www.washingtonpost.com/t ... 4/05/chatgpt-lies/.
Wang, G., Xie, Y., Jiang, Y., Mandlekar, A., Xiao, C., Zhu, Y., Fan, L., & Anandkumar, A. (2023). Voyager: An open-ended embodied agent with large language models. arXiv:2305.16291v2 [cs.AI].
Ward, F., Toni, F., Belardinelli, F., & Everitt, T. (2023). Honesty is the best policy: Defining and mitigating AI deception. In A. Oh, T. Naumann, A. Globerson, K. Saenko, M. Hardt, & S. Levine (Eds.), Advances in neural information processing systems (Vol. 36, pp. 23132341). Curran Associates Inc.
Ziegler, D., Nix, S., Chan, L., Bauman, T., Schmidt-Nielsen, P., Lin, T., Scherlis, A., Nabeshima, N., Weinstein-Raun, B., de Haas, D., Shlegeris, B., & Thomas, N. (2022). Adversarial training for highstakes reliability. In S. Koyejo, S. Mohamed, A. Agarwal, D.Belgrave, K. Cho, & A. Oh (Eds.), Advances in neural information processing systems (Vol. 35, pp. 92749286). Curran Associates Inc.


来源:AI伦理实验室(公众号)

编辑:张家乐



刘海明 发表于 2026-2-3 20:58:13
【案例】

Grok AI深伪涉黄 欧盟对马斯克旗下的X立案调查

一部手机萤幕呈黑色背景,上面显示白色的Grok标志。手机置于鲜亮的绿色背景前。
图像来源,NurPhoto via Getty Images
Article Information

Author,劳拉克雷斯(Laura Cress
Role,BBC科技事务记者
2026127
欧盟委员会已就伊隆·马斯克(Elon Musk)旗下的X(前称Twitter,推特)展开调查,原因是外界忧虑其人工智能(AI)工具Grok被用来制作真实人物的性化影像。
在此之前,英国监管机构通讯管理局(Ofcom于今年1亦作出过类似宣布。
若该平台被裁定违反欧盟《数位服务法》(Digital Services Act)相关规定,欧盟委员会可对该公司处以最高相当于其全球全年营业额6%的罚款。
X的安全帐户早前曾发声明称,该社交媒体平台已在相关内容属非法的司法管辖区内,阻止Grok以数码方式修改人物照片以脱掉其衣物。
End of content
欧洲议会爱尔兰议员里吉娜·多赫蒂(Regina Doherty)表示,欧盟委员会将评估是否有向欧盟用户展示经操纵的色情露骨影像
维权活动人士及受害者表示,该工具根本不应该具备生成色情图片的能力。Ofcom则称其调查将持续下去。
欧盟监管机构表示,若X拒绝作出具实质意义的调整,可能会对其实施临时措施
该机构亦称,已扩大其于202312月启动的现有调查,该调查聚焦于X的推荐系统所带来的风险——即向用户推荐特定贴文的演算法。
热读
End of 热读
在欧盟委员会宣布调查前,马斯克星期一(126日)X上发布一张图片,似乎是在嘲讽围绕Grok的新限制。
这名X的东主过去曾批评审查该应用程式图像编辑功能的人士——特别是英国政府——称这是想方设法找藉口来搞审查
星期日(25日),X上的Grok帐户声称,该工具在短短30天内生成了超过55亿张图片。
Play video, "人工智能2027: AI會滅絕人類嗎?", 节目全长 8,0808:08
视频加注文字,人工智能2027: AI会灭绝人类吗?
不可接受的贬损形式
针对该平台聊天机械人的其他调查亦正在澳洲、法国及德国进行中。
Grok一度在印尼及马来西亚被禁止使用,不过马来西亚现已解除禁令。
欧盟委员会技术主权、安全与民主事务执行副主席亨娜·维克库宁(Henna Virkkunen)形容这些色情深伪影像是一种暴力、不可接受的贬损形式。
她表示:透过这次调查,我们将判断X是否履行了其在《数位服务法》下的法律义务,抑或是将欧洲公民的权利——包括妇女和儿童——视为其服务的附带损害。
多赫蒂议员在发予路透社的声明中表示,对于X等平台是否履行其妥善评估风险,并防止非法及有害内容扩散的法律责任,存在严重疑问
她说:欧盟有明确的规则来保护网上使用者。
这些规则在实际运作中必须发挥作用,特别是在强大科技被大规模部署的情况下。
在欧盟营运的公司,没有任何一家可以凌驾于法律之上。
终止对妇女暴力联盟End Violence Against Women Coalition)总监安德烈亚·西蒙(Andrea Simon)对BBC表示,鉴于生成式人工智能带来伤害的不断演变,问责不应只停留在X移除内容。
她补充说:我们期望英国政府采取更多行动,确保科技平台不能从网络虐待中获利,例如进一步完善《网络安全法》(Online Safety Act),使其切合实际需要。
此举距离欧盟因X的蓝剔认证标志而对其罚款1.2亿欧元1.43亿美元;9.91亿元人民币;44.84亿元新台币)仅一个月。欧盟当时表示,该标志误导用户,因为该公司并未实质核实帐户背后的身分。
作为回应,美国国务卿马可·卢比奥(Marco Rubio,鲁比奥/鲁比欧)及联邦通讯委员会(FCC)指责欧盟监管机构攻击并审查美国企业。
卢比奥称:欧盟委员会的罚款不仅是对X的攻击,也是外国政府对所有美国科技平台及美国人民的攻击。
马斯克转载了这番言论,并补充称:完全正确。
快速指南:Grok
关于马斯克为X打造的AI聊天机械人
图像来源,AFP via Getty Images
AI聊天机械人
Grok是由伊隆·马斯克旗下公司xAI所创建的人工智能(AI)聊天机械人。
该工具于2023年首次推出,可用于生成文字、图片及影片。使用者可透过Grok的网站及应用程式存取,并已整合至同样由马斯克拥有的社交媒体平台X
叛逆特质
根据xAI的说法,Grok被设计成在回答问题时带点机智,并具有叛逆性格
其开发团队表示,该聊天机械人利用X上分享的资讯,为用户提供即时的世界知识。不过,人权组织如国际特赦组织曾批评X放大仇恨言论及错误资讯。
图像生成功能
图像来源,PA Media
Grok的图像生成功能允许用户生成全新的AI图像,或修改现有图片。
有人开始使用该工具在未经同意的情况下替女性脱衣,并让她们摆出性姿势。亦有报道指,该工具被用来生成性化的儿童影像。
xAI的回应
由于Grok生成的性化影像,以及这些影像在社交媒体上被公开展示的方式,引发全球强烈反弹。当用户在X上以提示标注Grok时,该机械人会直接在平台上回覆其讯息。
作为回应,Grok告诉用户,图像生成及编辑目前仅限付费用户使用,并称用户可透过订阅解锁这些功能
其后,该公司宣布已在相关内容属于非法的司法管辖区内,封锁用户编辑真实人物穿着暴露服装的影像。


来源:BBC

编辑:张家乐

刘海明 发表于 2026-2-3 20:39:46
【案例】

AI劣质内容正在重塑社交媒体,且正遭遇反噬

Article Information
Author,乔・泰迪(Joe Tidy
Role,BBC网络安全事务记者
202622
泰奥多(Théodore)记得那张把他逼到濒临崩溃的人工智能(AI)劣质图片。
那是一张两名瘦骨嶙峋、极度贫困的南亚儿童的影像。奇怪的是,尽管看得出仍是男孩年纪,他们却留着浓密的胡须。其中一人没有双手且只有一只脚;另一人手里拿着一个牌子,写着今天是他的生日并请求按赞。
他们莫名其妙地坐在大雨滂沱、车流繁忙的马路正中央,面前还摆着一个生日蛋糕。整张图充满由AI生成的各种破绽;但在脸书(Facebook)上它却爆红了,拿到将近100万个赞与爱心表情。
泰奥多有些崩溃。
这让我大开眼界。那些荒谬的AI生成影像铺天盖地地出现在脸书上,毫无审查却获得巨大关注,在我看来实在不可思议。这位来自巴黎的20岁学生说。
泰奥多在X上开设了名为“Insane AI Slop”(变态的AI垃圾)的帐号,开始点名并讽刺那些正在欺骗大众的内容。其他人注意到了,他的收件匣很快就被各种热门“AI 劣质内容的投稿淹没。
图像加注文字,泰奥多(左)在网路上发起行动,嘲讽社群媒体上的 AI“劣质内容”,其中包含一张获得近100万个赞的假图片(右)。
常见题材逐渐浮现——宗教、军事,或让人感到窝心的贫困儿童。
第三世界孩子做出惊人事情,向来很受欢迎——比如非洲某个贫困孩子用垃圾做出超厉害的雕像。我想人们觉得这很暖心,所以创作者就想:太好了,继续编吧。’”泰奥多说。
热读
End of 热读
泰奥多的帐号很快就累积超过13.3万名追踪者。
AI劣质内容的冲击——他定义为快速制作、虚假且不可信的影片与图片”——如今已势不可挡。大型科技公司拥抱AI;其中一些公司声称开始打击某些形式的AI“垃圾,但许多社交平台的资讯流似乎仍被这类内容充斥。
短短几年内,使用社群媒体的体验已发生深刻改变。它是怎么发生的?又会对社会造成什么影响?更迫切的是,数十亿社群使用者究竟在不在意?
社交媒体的第三阶段
去年10月,在另一场欢欣鼓舞的财报电话会上,Meta首席执行官马克・扎克伯格(Mark Zuckerberg)开心地宣称,社交媒体已进入第三阶段——如今的中心就是AI
第一阶段是所有内容来自朋友、家人与你直接追踪的帐号。第二阶段是我们纳入了创作者内容。现在,随着AI让创作与混搭更容易,我们将再加入一大批内容库。他这样对股东表示。
营运FacebookInstagramThreadsMeta不仅允许人们发布AI生成内容,还推出更多能促成此类创作的产品。横跨全平台的影像与影片生成器,以及愈发强大的滤镜正不断上线。
在被要求回应时,Meta指向1月的财报电话会议。会中,这位亿万富豪表示公司将更深度押注AI,并未提到任何针对劣质内容的取缔行动。
扎克伯格说:很快我们将看到大量新的媒体形式爆发,这些更沉浸、更互动的形式只有因为AI的发展才成为可能。
YouTube首席执行官尼尔・莫汉(Neal Mohan)在2026年的展望贴文中写道,仅在12月,就有超过100万个YouTube频道使用平台的AI工具制作内容。
正如合成器、PhotoshopCGI革新了声音和视觉,AI将造福那些准备拥抱它的创作者。他写道。
他也承认,对低品质内容,即AI劣质内容的担忧正在升高。他表示团队正改进系统,以找出并移除低品质、重复性内容
图像加注文字,Meta的首席执行官扎克伯格向投资者表示,AI让创作与混搭更容易。
但他也排除由平台判断哪些内容该被压抑或扶植,指出曾经小众的ASMR(让头皮发麻的舒缓声响)与游戏直播,如今都已进入主流。
依据AI公司Kapwing的研究,刚注册的YouTube帐号内容已有20%低质AI影片。研究也发现短视频是热点:在新帐号里最先出现的500YouTube Shorts中,有104个属此类。
创作者经济似乎是强力驱动因素,因为作者与频道能从互动与观看中赚钱。从某些AI频道与影片的观看量来看,人们确实被这类内容吸引——或者说,决定我们看见什么的算法被它吸引。Kapwing指出,观看数最高的AI劣质频道是印度的“Bandar Apna Dost”,累积20.7亿次观看,估算年收入400万美元(约 290 万英镑)。
不过,反弹也开始出现。在许多爆红的AI影片底下,常可见一连串怒气冲冲的留言,猛烈抨击该内容。
巨型怪兽与致命寄生虫
来自巴黎的学生泰奥多推动了这波反弹。
他运用在X上的新影响力,向YouTube版主投诉那一波古怪的AI卡通:它们获得巨量观看,在他看来令人不安、有害,而且在某些情况下似乎锁定儿童。
这些影片标题像是猫妈妈拯救小猫远离致命腹部寄生虫,内容血腥骇人;另一段短片则演出一名穿睡衣女子吞下寄生虫后化身巨大暴怒怪兽,最后由耶稣治愈。
图像加注文字,泰奥多认为他在YouTube上看到的一些AI卡通令人不安。YouTube表示,他所检举的影片因违反其社群准则而被移除。
YouTube最终关闭了这些频道。
公司告诉我们,影片因违反社群规范而被移除;他们强调不论内容如何制作,都在专注于连结使用者和高品质内容,并致力于减少低品质AI内容的扩散
不过,这些经验加总起来让泰奥多心力交瘁。
图像加注文字,泰奥多表示,社交媒体上的某些AI劣质内容怪异到令人难以理解。
就连看似温馨的生活风格平台Pinterest(食谱与室内设计灵感的论坛)也未能幸免。用户对AI劣质内容的洪流感到相当挫折,促使公司推出全新“AI 内容退订机制。
但前提是用户得承认他们那些完美居家影像是AI生成的。
评论区的怒火
在我的个人资讯流上(我明白每个人的资讯流——包括留言氛围——都不一样),对 AI 劣质内容的反弹已变得持续。
无论是在TikTokThreadsInstagramX,都似乎有一股民众力量在对抗这类内容。
有时这些反弹留言的按赞数远超过原帖。例如最近一段单板滑雪者从熊手中救下一只狼的影片,本体拿到932个赞;但有条留言如果你受够这些AI鬼东西就举手却拿到2400个赞。
当然,所有这些互动,最后都喂养了平台。
对社交平台而言,让我们持续滑动最重要,任何互动都是好互动。
那么,出现在你动态上的那些惊人、温馨或震撼的影片是真是假,究竟重要吗?
脑腐效应
美国雪城大学(Syracuse University)研究政治、错误资讯与认知偏差的副教授艾蜜莉・索森(Emily Thorson)表示,这取决于人们在平台上的使用目的。
如果有人上短影音平台是纯娱乐,那么评断标准就只是有不有趣?’”她说,但如果目的是学习某个主题或与社群成员连结,那他们可能会认为AI生成内容更有问题。
人们对AI劣质内容的感受也取决于其传达方式。
如果明确以玩笑形式呈现,通常就会被当作玩笑;但若其目的是欺骗,往往会招致怒火。
我最近看到一段标志性的AI生成影片:逼真到难以置信、自然史纪录片风格的惊人花豹狩猎。留言区里,有人被骗了,也有人拿不准。
它出自哪部纪录片?有留言问,拜托——这是证明不是AI的唯一方法。
图像加注文字,随着越来越多人反击AI“劣质内容”,许多影片与照片底下的留言如今都会指出某项内容是否为AI生成。
意大利帕多瓦大学研究社群媒体行为与同温层的亚历山德罗・加莱亚齐(Alessandro Galeazzi)指出,验证一段影片是否为AI生成需要心力;长期而言,他担心人们干脆不再查证。
我的感觉是用AI生成的无聊、低质内容泛滥,可能进一步缩短人们的注意力时长。他说。
他区分了意图欺骗的内容与更偏喜剧、明显虚构AI劣质内容——例如穿鞋的鱼、在健身房举重的大猩猩。
但即使是后者,也可能造成伤害。他提到所谓脑腐brain rot)的风险——我们长期暴露于社交媒体,正在损害智力。
我会说,AI劣质内容加剧了脑腐效应,让人们快速消费那些他们知道不太可能是真的、也大概毫无意义或毫无趣味的内容。他说。


来源:BBC(公众号)

编辑:张家乐

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表