传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 62979|回复: 1004
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
跳转到指定楼层
#
发表于 2018-12-17 23:15:09 | 只看该作者 |只看大图 回帖奖励 |正序浏览 |阅读模式
当代社会,技术支撑的这个世界变化有点快,算法、人工智能等技术让人眼花缭乱,新闻业也搭上了这班快车。我们不得不开始收集这方面的信息,以免被时代很快淘汰。




分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对
来自 1004#
 楼主| 发表于 2023-5-12 23:20:34 | 只看该作者
【案例】
谷歌携大模型反击,生成式AI搜索功能首次面向公众开放
谷歌5月10日召开I/O开发者大会,该公司正在日益竞争的搜索市场为其核心搜索产品整合更多人工智能的功能。微软最近几个月加速了对搜索引擎Bing的更新,并获得了更多的市场份额。
周三在加利福尼亚州山景城举行的年度I/O大会上,谷歌推出了新版本谷歌搜索,可以对开放式提问做出响应。就在上周,微软也向所有用户开放了新Bing搜索功能。
发布会后,谷歌股价上涨4%,今年迄今为止,该公司股价累计上涨了26%,远超标普500指数涨幅。
今年2月,谷歌在发布聊天机器人Bard之后,导致股价暴跌,市值缩水1000亿美元。该公司最新表示,现在Bard将像OpenAI的GPT-4一样是多模态的。
“我们正在重新构想我们所有的核心产品,包括搜索。”谷歌CEO桑达尔·皮查伊(Sundar Pichai)在开发者大会上表示。
他说,谷歌正在将生成人工智能整合到搜索以及Gmail和Google Photos等产品中,Gmail可以起草邮件,Google Photos可以对图像进行更改。包括美国用户在内的谷歌在全球180多个国家地区的用户在未来几周内可通过等候名单获得搜索生成体验,谷歌称,将在试用阶段监控搜索结果的质量、速度和成本。
谷歌还更新了AI大模型PaLM 2,希望能够夺回其人工智能领导地位。该公司称这是“下一代通用的语言模型”,在某些任务上优于其他领先的AI系统。
据介绍,PaLM 2将为AI聊天机器人提供支撑,还可以在语言之间进行翻译、编写计算机代码,甚至可以分析和响应图像。 结合这些功能。例如,用户可以用英语询问有关法国餐馆的问题,系统将能够在网络上搜索法语的回答,找到答案,并翻译成英语,还能添加位置图片,为该地点创建数据库条目。
“我们现在正在经历的神经网络革命起始于大约10年前,且部分始于谷歌。”PaLM 2项目联合负责人Slav Petrov表示,“我们很高兴能够在外部广泛使用这些模型,因为我们想看看人们可以用它们做什么。我们相信,由于过去几年我们在机器学习方面取得的惊人进步,它们会提供很多机会来做以前被认为神奇且遥不可及的事情。”
在微软支持的初创公司OpenAI推出ChatGPT之后,谷歌正在加速追赶,这也推动了科技巨头之间的新一轮技术竞赛。生成式AI可以使用过去的数据创建全新的内容,例如完整的文本、图像和软件代码。ChatGPT已成为许多生成AI的默认版本,帮助用户创建合同、旅行路线,甚至小说。
谷歌正在奋力捍卫搜索市场以及巨大的在线广告市场的份额。研究公司MAGNA估计,谷歌广告营收今年可达2860亿美元。
为了安抚人们对于人工智能生成虚假信息的担忧,谷歌称将优先考虑信息的准确性,并引用可信来源。谷歌还推出一项新功能,将标记它用人工智能生成的图像,从而让人们更容易审查图片的真实性。
谷歌强调,利用大型语言模型AI生成内容的一个挑战是高昂的费用。目前业内正在研究各种不同的方法,从而降低成本。
来源:第一财经
链接:
编辑:洪韵

来自 1003#
 楼主| 发表于 2023-5-12 23:46:37 | 只看该作者
【案例】
美国媒体大亨警告称AI可能“破坏”新闻业
美国媒体业亿万富翁巴里·迪勒(Barry Diller)警告称,除非出版商能够利用版权法加以控制,否则人工智能将对新闻业造成“破坏性”影响。迪勒表示,自由允许人工智能访问媒体内容将被证明是一个错误,“合理使用”的概念——可用于涵盖机器学习数据集中受版权保护的材料——需要重新定义。如果有必要,他愿意修改版权法。
来源:全球TMT
编辑:洪韵

来自 1002#
 楼主| 发表于 2023-5-30 18:28:08 | 只看该作者
【案例】
ChatGPT 是“胡话”生成器,但仍非常有用

本文最初发布于 AI Snake Oil。
哲学家 Harry Frankfurt 将“胡话(bullshit )”定义为不考虑真相而旨在说服别人的言论。按照这个标准,OpenAI 的新聊天机器人 ChatGPT 是有史以来最能胡扯的。
大型语言模型(LLM)经过训练后可以生成貌似合理的文本,而不是正确的陈述。只要是你能想到的话题,ChatGPT 听起来都令人信服,它非常擅长这一点。
OpenAI 很清楚,训练过程并没有包含真相来源。也就是说,在教育或回答健康问题之类的应用程序中,以目前的形式使用 ChatGPT 不是一个好主意。尽管机器人经常能给出很好的答案,但有时也会完全失败。它总是很有说服力,所以很难区分。
不过,虽然在一般情况下,ChatGPT 和其他 LLM 都无法辨别真相,但在以下三类任务中,它们非常有用:
1、用户很容易检查机器人的答案是否正确的任务,例如调试帮助。
2、与真相无关的任务,比如写小说。
3、可以将实际存在的训练数据子集作为真相来源的任务,例如语言翻译。
4、让我们开始吧。先是坏消息,再是好消息。

准确性在许多应用中都至关重要
ChatGPT 是迄今为止最好的聊天机器人。不久前,它生成了一些奇奇怪怪的文本,比如解释如何从录像机中取出花生酱三明治……按圣经的风格。
但人们对更严肃的应用场景也很感兴趣,比如将其用作学习工具。有些人甚至预测,谷歌将变得多余。是的,ChatGPT 通常非常擅长回答问题。但危险在于,除非你已经知道答案,否则你无法判断它什么时候是错的。
我们试着提了一些基本的信息安全问题。在大多数情况下,答案听起来似乎是合理的,但实际上是胡扯。下面是一些更复杂的问题:


(阅读原推文:https://twitter.com/random_walker/status/1598385725363261441)
关于 ChatGPT 和教育,还有一个说法:大学注定要消亡,因为 ChatGPT 可以写论文。这样说很愚蠢。是的,LLM 可以写出似乎合理的论文。但是,家庭作业论文的消亡对学习而言是件好事!我们在一个月前写过一篇文章,最近也没什么实际的变化。
搜索呢?谷歌的知识面板已经因权威地提供错误信息而臭名昭著。用 LLM 取代它们可能会让事情变得更糟。Chirag Shah 和 Emily Bender 的一篇论文探讨了用 LLM 取代搜索引擎后会出什么错。
事实上,这些模型无法辨别真相,这就是我们说 Meta 面向科学的大型语言模型 Calactica 考虑不周的原因。在科学领域,准确性很重要。它很快就遭到了强烈的抵制,公开演示三天后被撤下。类似地,如果你想使用 LLM 回答与健康相关的查询,那么正确性和可靠性就是一切。

但这些模型改进得不是很快吗?
当然可以。但他们听起来令人信服的能力也在迅速提高!因此,我们怀疑,即使是专家也越来越难以发现错误。
事实上,像 Galactica 和 ChatGPT 这样的模型非常擅长按任何要求的风格生成听起来权威的文本:法律语言、官场语言、Wiki 页面、学术论文、课堂笔记,甚至问答论坛的答案。这产生的一个副作用是,我们不能再根据文本的形式来衡量其可信度和合理性。
StackOverflow 吃了不少苦头。在网站上,用户回答编程问题就可以获得积分,积分可以带来特权,包括减少广告和使用版主工具。在 ChatGPT 向公众公开发布后,问答论坛收到了数千个使用 LLM 生成的错误答案。但因为这些答案的书写风格是对的,所以必须经过专家审查才能删除。不到一周,该公司就不得不禁止使用 ChatGPT 生成的答案,以减少听起来似乎正确的错误答案。
除非 LLM 响应的准确性可以提高,否则我们推测,它在应用程序中的合理应用仍然会比较有限。请注意,GPT-3 已经有两年半的历史了。我们听到的是,这个领域每周都在进步,所以两年半就像几个世纪一样。当它发布时,人们满怀信心地预测,相关应用程序将出现“寒武纪大爆发”。但到目前为止,除了 GitHub Copilot 之外,还没有一个主流的应用程序。
准确性问题并非毫无希望。有趣的是,LLM 似乎在学习让人信服的过程中获得了一些辨别真相的能力。当研究人员要求 LLM 评估自己提出的答案的准确性时,它比随机应变地判断要好得多!为了提高生成答案的准确性,研究人员正在将这种能力整合到聊天机器人的默认行为中。
同时,下面有三种 LLM 非常适用的任务。

编码:用户可以查看基本事实
调试代码是一种可以让程序员(尤其是新手)从 LLM 中受益的应用。在这种情况下,LLM 指出的错误通常很容易验证,所以即使机器人的答案可能有时是错的,也不是一个太大的问题。

生成代码很复杂。理论上,用户可以验证自动生成的代码是否有 Bug(可能在 LLM 的帮助下)。但目前还不清楚,这是否会比手动编码更快。安全漏洞是一个特别严重的问题。去年的一项研究发现,Copilot 生成不安全代码的概率为 40%。他们没有将这一数值与人类程序员进行比较,也没有就是否使用 Copilot 以及何时使用 Copilot 合适提供建议,但从结果中明显可以看出,需要谨慎使用。
Copilot 旨在提高专家的工作效率。那些不会编码的用户呢——他们能使用人工智能工具生成简单的脚本吗?这方面的承诺有很多。这里有一个小实验:




使用 LLM 生成代码是一个活跃的研究领域。在提高代码生成的正确性以及减少 Bug 出现的频率方面,还有很大的改进空间。这是一个令人兴奋的领域。

娱乐:真相无关紧要
ChatGPT 在上周已经成为了一种娱乐。从编写关于特定人物的笑话,到用智者快言快语的风格解释算法,人们发现了这个工具的许多创造性用途。但是,我们是否可以将 ChatGPT 用于更有野心的项目,比如写小说?
LLM 还远不足以生成长篇文本,比如整部小说,因为它们一次只能存储少量的词元。尽管如此,作者和研究人员仍在尝试用它们来获得创意,扩展思路,以及改变文本的风格(例如,“重写这段文本,使其更像狄更斯写的”)。交互式小说游戏如 AI Dungeon 使用 LLM 基于用户输入充实故事情节。我们认为,在这一领域继续改进不存在什么根本性的障碍。
同样,文本转图像和图像转图像工具也非常适合娱乐,因为创作者可以调整提示信息,直到得到他们喜欢的图像。在最近兴起的应用程序 Lensa 中,用户只要上传几张自拍照,它就能生成各种风格的肖像。它后台使用了 Stable Diffusion,这是来自 Stability AI 的一个开源图像生成模型。
先不要得意忘形:种族主义、性别歧视和有偏见的输出仍然是所有生成模型(包括 ChatGPT)都面临的一个问题。该模型包含一个内容过滤器,可以拒绝不适当的请求,相对于以前的工具来说,它的效果已经足够好,感觉上有很大的改进,不过仍然有很长的路要走。

翻译:利用了潜在的真相来源
值得注意的是,GPT-3 的效果与专用语言翻译模型大致相当,ChatGPT 可能也一样。可能的原因是它可以利用语料库中的基本事实(大致包含网络上的所有文本)。例如,有些网页被翻译成多种语言。当然,在训练过程中,并没有显式的标签告诉模型哪些文本彼此对应,但模型很可能可以自动发现这一点。
目前,如果效果差不多,似乎也没有什么理由说聊天机器人会比谷歌等现有的翻译工具更好。一种可能性是,当两个说不同语言的人进行对话时,像 ChatGPT 这样的工具可以扮演传译员的角色,其优点是,在对话中使用的工具可以跟踪对话。这使它能够参考上下文,更有效地完成翻译,并且对用户来说不那么尴尬。

结论:现在判断它是否具有变革性还为时过早
依托精心挑选的可以像病毒一样传播的例子,生成式 AI 的发布往往让人觉得印象深刻。但这还不是事情的全部。对于许多应用程序来说,即使是 10% 的失败率也太高了。似乎只有在相当有限的一组用例中,缺乏真相来源才不算是什么大问题。虽然这些用途仍然非常令人兴奋,但是,似乎还没有什么迹象表明,人们很快就会在日常生活中使用聊天机器人——用于学习,或作为搜索引擎替代品,或作为交谈对象。
与此同时,我们已经看到,LLM 的第一个突出应用是生成错误信息(Stack Overflow)。当然,垃圾邮件发送者已经在使用 GPT-3 进行搜索引擎营销,他们很高兴拥有 ChatGPT。但是,正如关于转型的预测被夸大了一样,我们不同意网络将很快淹没在错误信息的海洋中这样的说法。
我们期待看到人们创造性地使用 LLM,我们也对炒作和常见的自助服务 AGI 话题感到不安。
声明:本文为 InfoQ 翻译,未经许可禁止转载。
原文链接:
https://aisnakeoil.substack.com/p/chatgpt-is-a-bullshit-generator-but


来源:AI前线
链接https://mp.weixin.qq.com/s/R_VjXDTTU5T3IsfaXYJxGA
编辑:程博

来自 1001#
 楼主| 发表于 2023-5-31 17:04:15 | 只看该作者
【案例】
堪比核战和疫情!Sam Altman等350位大佬发出警告,AI监管成共识
随着人工智能的高速发展,其可能带来的风险也引发广泛关注。
继此前马斯克等千人签署公开信,呼吁暂停AI开发六个月后,近期,OpenAI首席执行官Sam Altman等多位行业专家又来提示风险。
350名行业高管和学界大拿发出警告
当地时间5月30日,非营利组织人工智能安全中心(CAIS)发布一封公开信,信中只有一句简单有力的话:减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险处于同等级别。
该信的签署者多达350名行业专家和企业高管,包括OpenAI首席执行官Sam Altman、DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。
学界上,2018年图灵奖获得者、“人工智能教父”Geoffrey Hinton和Yoshua Bengio位列其中。
此外,签署者还包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等中国学者。
AI监管成共识
目前来看,AI可能带来的风险已经受到世界各国和各界的重视。此前,意大利等国家对ChatGPT发起监管,暂停其的使用。而且,欧盟正在推进《AI法案》,对AI形成监管。
对此,Sam Altman曾威胁离开欧洲。他在伦敦大学学院的一个小组会议上说:“我们将努力遵守,如果我们能遵守,我们会的。如果不能,我们将停止运营。”几天后,他又改口称,OpenAI没有离开欧洲的计划。
美国方面,本月早些时候,Sam Altman会见了美国总统拜登,并在参议院司法委员会作证,要求加强对AI行业的监管。
他在作证时说:“我最担心的是我们会对世界造成重大伤害。如果AI出了问题,那这个问题可能就会很大。”
上周,他还与OpenAI的另外两位联合创始人发表的一篇博客文章,呼吁进行三项重大改革,包括加强世界各地人工智能开发者之间的协调,以及创造一种可以控制人工智能创造的潜在“超级智能”先进技术。
他还鼓励成立一个结构类似于国际原子能机构的人工智能技术全球监管小组,有权检查系统、要求审计和测试是否符合安全标准。
来源:腾讯新闻(格隆汇)
链接:https://view.inews.qq.com/k/20230531A01Q7A00?no-redirect=1&web_channel=wap&openApp=false&uid=&shareto=&openwith=wxmessage

编辑:程博

来自 1000#
 楼主| 发表于 2023-6-21 23:43:49 | 只看该作者
【案例】
新闻速递 | 我院院长方兴东教授率队参加EuroDIG并发表主题演讲
619日至621日,来自IGFICANNMicrosoft Internal Affairs and CommunicationsISOC FoundationScientific Cyber Security Association等的400多名国际机构负责人、专家、学者参加了在芬兰坦佩雷大学举行的欧洲网络治理对话(Euro DIG)。乌镇数字文明研究院院长方兴东教授、首席专家吴飞教授和钟布教授受邀参会。
被称作“浓缩版”的联合国互联网治理论坛(IGF),EuroDig参会专家来自全球各地,围绕全球数字契约、全球AI治理、互联网碎片化、俄乌冲突等多个议题, 进行了广泛而深入的研讨。
作为欧洲网络治理对话(EuroDIG)的会议议程之一,在乌镇数字文明研究院和浙江大学国际传播研究中心联合主办的“中欧数字互信”工作坊上,我院院长方兴东教授、首席专家吴飞教授和钟布教授分别就中欧数字互信、数字共通、全球数字互信三个主题做了主题发言,吸引了各国专家到场参与讨论。
参加工作坊的丹麦奥胡斯大学Wolfgang Kleinwaechter教授在发言中强调协作与合作的重要性,认为数字互信需要国家、企业和个人之间的协作。保护数字基础设施、数据和隐私对于促进互信至关重要。持续的技术创新以及共同标准的制定在建立数字互信方面起着重要作用。意大利Rai for the Next Generation EUGiacomo Mazzone提出,意大利公共广播公司Rai等机构应积极拥抱数字转型,以适应不断变化的媒体环境,并通过数字平台与受众进行互动。德国Knowledge DialogueWaltraut Ritter表示,希望中国的专家学者和各界人士积极参与IGF的会议及活动。
在工作坊上,方兴东教授表示,没有数字互信,就没有数字时代。随着数字技术的发展,全球越来越紧密地联结在一起,国与国的数字互信问题日益凸显。如今,中欧之间的数字互信面临着封闭和开放两种不同道路的选择。需要中欧进一步走出隔阂,建立多层次的有效沟通的交流体系,这是理解和互信的前提。
吴飞教授则对“数字共通”提出了自己的看法。他认为,随着全球化深入发展,“数字共通”为信息、观念、知识、文化的交流、互通、互鉴提供了基础设施保障,让各种现代化探索的路径得以共显,为开创人类美好繁荣的未来提供了现实而又充满着想象力的共享、共鸣与共通的对话空间,从而为推进构建人类命运共同体提供了更为广阔的观念基础和内生动力。
钟布教授呼吁,来自学术界的研究人员应为加强全球数字互信提供理性客观的观点。为实现这一目标,中国的研究人员应加强和提高与欧洲学者、智囊团、企业和政府的对话、信任和合作。
(三位教授发言全文附后)
建立中欧数字互信,任重而道远。我院始终致力于数字文明研究建设,促进国际社会实现数字时代的全部潜力!
三位教授发言全文:
方兴东:中欧数字互信面临的道路选择
非常高兴再次来到EuroDIG,这是我心目中质量最高的全球网络治理会议之一。在这里与大家分享数字互信的最新研究成果,无疑是很合适的。
没有数字互信,就没有数字时代。今天,大国之间的数字互信问题开始显现,不同之处只是严重程度,包括欧美之间。随着数字技术将全球越来越紧密的联结在一起,国与国的数字互信问题日益凸显。数字互信问题本身是客观的、真实的,而且还会更趋严峻。
如何解决数字互信问题,我们面临两条道路的抉择,不同的选择会带来完全不同的结局:
一条是消极防御,以隔绝、脱钩、去风险化等以更加封闭的方式来应对。这种方式短期似乎可行,但事实上,无法解决问题,更不符合长远的大势所趋,最终只会损人不利己,“挥刀断流水更流”。
而另一条道路是正视问题,积极防御,在保持非歧视、公平竞争、开放的前提下,针对信任和安全问题,建立有效的技术方案和制度体系。
只有后者才能实现数字时代全球的互联互通,才能实现双赢。如今,中欧之间的数字互信面临着封闭和开放两种不同道路的选择。多利益相关方机制应该积极发挥作用,站在人类数字文明的角度,积极推动立足长远造福全体民众的开放道路。现在需要中欧进一步走出隔阂,建立多层次的有效沟通的交流体系,这是理解和互信的前提的前提。也是我们举办今天这个会议的初衷所在。欧洲通过GDPR、数字市场法和人工智能法案等,确立了数字时代制度创新的引领性地位。相信欧洲也能为全球数字互信做出独特的贡献。
谢谢大家!
吴飞:通过数字互信达到数字共通
人类文明史从某种意义上说是一个互联互通和交互的历史,而数字互信是有效连通的基础,它可以加快信息的传递速度,提高信息的准确性和可靠性,并且方便了人们的日常生活。比如,通过互联网银行可以实现在线支付和转账,通过社交媒体可以实时交流和分享信息,通过电子商务平台可以进行网上购物等。
韩炳哲曾担心数字化的全联网和全交际(Totalkommunikation)并未使人们更容易遇见他者,而是在追求寻找到同者、志同道合者,从而导致我们的经验视野日渐狭窄。它使我们陷入无尽的自我循环之中,并最终导致我们“被自我想象洗脑”。他的担心虽然值得重视的,但并非事实的全部,因为“数字共通”不是一个声调、一个剧目展演的剧场,而是多声部的交响乐团,是每日都在更新的世间万象。“任何有限性存在都始终与其他有限性存在连接在一起,在不间断的共同显现中来到在场的”。“数字共通”就是在多元交融的“共享池”中交相辉映的无数束光,公民个人的立场与社群成员的立场共振共鸣,其承载并体现的就是社会的共通性。
“数字共通”所强调的就是存在的联结性,是彼此之共在与共显,而这种共同显现的存在本身便意味着超越独一性和拒绝同一化的姿态,也就是说“共通”不是无差异的同。这一思想是中国传统哲学思想的延伸,如老子就是将正在置于存在之上的,重视变动性和差异性,反对同一性和本质性。中国禅宗也总是站在当下,站在短暂的、细微的、平凡世界中去感悟那一片云,那一丝律动,那一束光和那独一的声音,强调在“清空”“净悟”中寻找智慧。“数字共通”的联通性体现在不同主体间、文化间交汇时的“惊叹”,这种交融共显时的“惊叹”会促进主体间的反思,意识到自己文化中的一些自明之理和“未思”之处,在不断进入他者、返回自身的往复交流中建构互惠性理解,以此通向更宽广的理解视域。
“数字共通”的共享池机制为多元参与主体的理性思考与情感交融提供了保障,(1)每一位主体的独立之思可以存在、传播并受到多元价值的批判性修正;同时,(2)每一位主体都可以在参照他者之思和在相应的应答中学习理性讨论的方法;这显然(3)有利于他们在批判、比较再批判的对话中提升理性对话的能力。尽管无论是情感上的共情还是观念上的共振都不意味着可达成共识,但这种互动关系加强了公众之间的连接性,有利于促进人类命运共同体的建构。随着全球化深入发展,知识、信息、资本、技术、人员和物资的跨国流动已是基本事实,各国各民族和各地区都处于一种相互依存的状态,这是人类命运共同体的现实境状。“数字共通”为信息、观念、知识、文化的交流、互通、互鉴提供了基础设施保障,让各种现代化探索的路径得以共显,为开创人类美好繁荣的未来提供了现实而又充满着想象力的共享、共鸣与共通的对话空间,从而为推进构建人类命运共同体提供了更为广阔的观念基础和内生动力。
钟布:增强数字互信的重要性
当今互联世界中,全球50多亿人已经联结在一起,全球数据跨境流动持续增长,这种互联带来了许多好处也伴随着极大风险。互联性的增强加强了联结、互动和合作,但也引发了紧张和冲突,需要通过合作来解决。我们应避免出于政治动机的"脱钩""去风险化"等助长孤立,阻碍发展和进步的做法。
《中德数字互信报告》强调数字互信的重要性以及其中所蕴含的风险。目前,中德两国在数字互嵌存在着显著的不对称关系,中国对德国的依赖远远大于德国对中国的依赖。例如,SAP在中国的ERP市场上占据主导地位,西门子在中国的PLM软件系统和工业自动化设备中也占有极大的市场份额。
面对数字时代新的风险和挑战,我们只有采取开放的积极防御,才是正确之道。通过更全面的沟通与合作,建立全新的技术和制度体系,既有效消除和降低潜在的风险和隐患,也不停止进一步加强合作与发展,至关重要,也十分紧迫。我们要站在人类共同发展的高度,更加理性、客观和务实,率先为全球建立其国与国之间有效的数字互信机制,为全球更广泛的数字互信树立典范具有非凡的意义。
来自学术界的研究人员应为加强全球数字互信提供理性客观的观点。为实现这一目标,中国的研究人员应加强与提高与欧洲学者、智囊团、企业和政府的对话、信任和合作。
      数字互信需要国际合作和多边治理机制。区域和全球层面的合作倡议、协议和框架可以促进建立信任、共享信息,从而为应对共同挑战和风险一起努力。
      如果接受以上观点,数字文明可以促进信任环境的建立,实现数字时代的全部潜力,并将相关的风险和挑战降至最低。
会议和工作坊介绍:
欧洲网络治理对话
EuroDIGEuropean Dialogue on Internet Governance)是一个欧洲地区的互联网治理对话平台。EuroDIG旨在为欧洲各利益相关者提供一个开放、多元和包容性的论坛,就互联网治理的关键议题展开讨论和交流。
EuroDIG的主要目标是促进欧洲各方之间的对话和协作,推动互联网治理领域的发展和合作。该平台通过年度会议和其他相关活动,为政府代表、学术界、民间社会组织、技术专家、业界代表以及其他利益相关者提供一个共同交流的平台。
EuroDIG的会议每年在不同的欧洲城市举行,会议内容涵盖了互联网治理的广泛议题,包括数字权利、隐私保护、网络安全、数字包容性、网络中立性、数据保护、网络中的言论自由等。与会代表可以通过主题演讲、小组讨论、辩论和工作坊等形式,就这些议题进行深入的讨论和交流。
EuroDIG的参与是开放的,任何对互联网治理感兴趣的个人和组织都可以参与其中。该平台鼓励多元的声音和观点,并促进欧洲各方之间的对话和合作。此外,EuroDIG还与全球互联网治理论坛(IGF)保持密切联系,并在欧洲地区推动互联网治理的发展。
通过EuroDIG的平台,欧洲各利益相关者可以共同探讨和解决互联网治理领域面临的挑战,推动互联网的发展和使用符合欧洲价值观和利益的方向。同时,EuroDIG也为全球互联网治理进程提供了一个欧洲地区的声音和观点。
“中欧数字互信”工作坊
美国和中国之间正在进行的技术冲突对中国和欧洲之间的网络信任和合作产生了重大影响。在今天的数字时代,网络空间的相互信任对于中国和欧洲之间的成功合作至关重要,不仅在信息和通信技术领域,而且在经济、政治和文化领域。
20世纪80年代以来,像诺基亚、爱立信、SAP EPR、西门子和欧洲半导体制造商这样的公司在中国的信息技术领域发挥了举足轻重的作用,并继续成为中国国民经济关键领域的关键参与者。同样,中国的信息和通信技术应用,如华为和中兴通讯设备、联想的个人电脑和ByteDanceTikTok,正越来越多地在欧洲出现。在数字技术推动全球发展的世界里,缺乏互信会带来严重后果。
中国和欧洲必须积极努力,通过技术和制度合作加强数字信任。他们可以通过建立交流和沟通机制,成为全球数字信任的典范,为世界树立一个榜样。
数字信任的基础在于建立强大的交流和沟通机制,特别是通过以学术为基础,客观、理性、理论丰富的深度对话。我们的目标是将学者、政策制定者和行业参与者等利益相关者聚集在一起,就这一相关的当代问题进行讨论,为在全球范围内促进数字信任作出贡献。
来源:乌镇数字文明研究院
编辑:洪韵

来自 999#
 楼主| 发表于 2023-6-22 19:44:42 | 只看该作者
【案例】
AI革命:专业服务、电影制作和编码三大行业的机遇与挑战
人工智能(AI)是当今时代最具颠覆性的技术之一,它正在改变着各个行业的运作方式和竞争格局。在专业服务、电影制作和编码等领域,AI不仅提高了效率和创新,也带来了新的机遇和挑战。
专业服务行业,如律师、会计师等,传统上依赖于人力和经验来处理大量的数据和文档。AI工具,如Harvey,可以根据Open AI最新模型版本建构的AI平台,帮助专业人士快速获取和分析法律、财务或其他信息,节省时间和成本,提升服务质量和客户满意度。然而,AI工具也可能威胁到初级员工或实习生的工作机会,或者降低专业人士的核心竞争力和价值。
电影制作行业,是艺术与科技的结合。AI技术,如数字替身、语音合成、面部捕捉等,可以增强电影的视觉效果和声音表现,拓展创意空间和市场潜力。例如,AI可以使配音技术扩大至外语电影,或者让演员在不同的场景和角色中出现。但是,AI技术也可能引发版权、道德和职业安全等问题。例如,编剧担心AI取代他们的创作,演员担心AI侵犯他们的形象权,配音员担心AI导致他们失业。
编码行业,是软件开发和维护的基础。AI技术,如ChatGPT等工具,可以协助编码人员撰写、修改和测试程式代码,提高编码质量和速度。此外,生成式AI聊天机器人还可以分析现有编码,并找出可能存在的错误或漏洞,增强系统的安全性和稳定性。但是,AI技术也可能导致编码人员失去对代码的掌控和理解,或者降低编码人员的创造力和专业水平。
综合来看,AI革命对专业服务、电影制作和编码三大行业都有积极和消极的影响。如何利用AI技术的优势,同时应对AI技术的挑战,是这些行业面临的共同课题。
来源:最资讯
编辑:洪韵

来自 998#
 楼主| 发表于 2023-6-22 20:33:30 | 只看该作者
【案例】
普华永道发布《2023元宇宙展望》报告!
2023年,元宇宙以及企业下一步的发展方向依旧是行业热议话题。普华永道根据自身洞察和经验作出如下六大展望,以期为商业领袖们提供引导。这些展望包括元宇宙接下来将应用于哪些领域、哪些技术可能会发展得最快、商业领袖应如何行动以使企业规避风险等等。简而言之,元宇宙尚未完全进入黄金时代,但当下已经开始创造真正的商业价值,并为企业重塑未来做好准备。
普华永道全球科技、媒体及通信行业主管合伙人周伟然表示:“虽然目前元宇宙仍处于概念阶段,但与其相关的众多概念已经和各种业务产生关联。在中国市场,跨行业的技术与业务创新也正在促成逐渐繁荣的元宇宙产业格局。元宇宙经济发展、元宇宙建设与运营,均涉及复杂的技术体系和生态资源,如互联网、物联网、5G/6G通信、人工智能、区块链、增强现实、虚拟现实和云计算等各类关键技术要素,在元宇宙发展过程中,也必将拉动壮大这些相关技术领域的市场规模。同时,元宇宙也将推动了由不同利益相关方(政府、产业园区、行业协会、学术研究)和参与者(元宇宙内容与服务业、其他行业)组成的巨大生态系统的发展。根据一些全球研究机构预测,到2030年,元宇宙将开启价值8至13万亿美元的新业务机遇,市场前景非常广阔。”
1. 商业经营者将成为元宇宙的超级用户
越来越多的企业开始探索在元宇宙中模拟实体运营。例如,零售商可以创建数字实体店,让顾客和员工以虚拟的方式尝试交互,来提高满意度和销量。餐饮业经营者在厨房布局和座位设计上也可以进行同样的尝试。制造商可利用元宇宙的新数据增强数字孪生模型,从而改进其供应链、生产和物流。
普华永道预计,未来几年会有更多元宇宙特有的产品和服务来搭建消费者与商业元宇宙之间的桥梁,例如:以虚拟角色组建的客服中心、金融教育、远程医疗以及完全沉浸式的全新商业体验等。
普华永道建议:将元宇宙投入实际应用最有效的开始方式,是将元宇宙计划与具体、可衡量的业务成果结合起来。目前,元宇宙可以实现的成果通常包括品牌建设和客户参与、多样化且不断增长的收入流、员工赋能和流程优化等等。在设定目标后,可根据需要开发新功能,例如元宇宙特有的定价和伙伴关系策略,或新的运营模式和管理方法。同时,也应利用控制测试、项目管理和绩效监控等措施来保证元宇宙计划的有效实施。
2.元宇宙的成败取决于可信度
元宇宙计划的成败将更多地取决于可信度,而不是功能。元宇宙并不需要全新的风险管理方法。相反,通过对现有方法进行适当调整,可以实现对新风险的管控,增强可信度。要负责任地使用元宇宙,应从六个方面考量新的可信和风险因素,涵盖经济效益、数据、治理(包括网络安全)、数字身份、用户体验和自持续性(如果弃之不用,则不会影响元宇宙的持续演化)。
普华永道建议:管理元宇宙风险的指导原则是确保在前期和整个过程中融入可信度设计:如果企业在元宇宙计划的设计阶段就将风险管理纳入其中,那么后期有可能避免付出昂贵代价。其他主要原则包括:
提升管理层认知技能,如果管理层对元宇宙缺乏足够的了解,会为制定元宇宙战略决策带来风险;
创建针对自身企业及其元宇宙计划的风险分类;跨领域协作,考虑到在元宇宙环境下,许多跨职能和跨业务线的协作方式均存在风险性
3.人工智能和扩展现实(VR)将协同助力元宇宙推动转型
VR是一项极具吸引力且实用的技术。企业已将其用于入职、培训、部门协作、客户体验等方面。当然还有其他通往元宇宙的途径,比如增强现实(AR)设备、笔记本电脑和智能手机。
普华永道相信,人工智能(AI)不仅将成为元宇宙的基础性技术,同时还具有变革性。就像在当今互联网上用户无需成为程序员也能设计网页,无需成为技术专家也可以创建一个元宇宙空间。AI也会不断地赋能“虚拟数字人”(计算机生成的虚拟人),也许还能激励人们与虚拟人进行互动,就像与真人互动一样。
当然,AI的发展不仅会带来新的风险,还会加剧既有风险,包括潜在偏见、深度造假和滥用体验。几乎可以肯定,AI也会引发新的合规挑战。例如,个性化算法在一定程度上会减少人们在信息消费中付出的成本,但围绕算法推荐机制下的信息茧房效应,中国已经产生了热烈的讨论,包括主流媒体、知名学者都卷入了这场讨论,并对监管方向调整产生了影响。目前看来,多个地区可能会针对AI制定适用于元宇宙的新法规。
普华永道建议:在元宇宙中推进AI发展的更优办法是部署负责任的AI,使其能恰如其分地完成各项需求。AI在元宇宙中的发展还可能会带动数据策略和治理更广泛的升级。毕竟,大多数企业不仅没有准备好借助AI充分利用元宇宙所带来的数据机遇,甚至也没有充分意识到从已有的数据中可能找到的价值。这或许意味着,“技术中立”这一理念在未来或许会受到挑战,“向善”价值观下产生的技术,或许会是一个更好的选择。
4.元宇宙将成为每一位管理者的必由之路
元宇宙可能很快会触及企业的方方面面。在普华永道的元宇宙调研中,82%的受访高管预计元宇宙计划将在三年内成为其业务活动的一部分。随着元宇宙变得无处不在,每一位高管都应该在元宇宙的发展过程中发挥作用——尤其一些非技术型高管更加关键。可能催生的一些新职责包括:
首席执行官和董事会:制定战略优先事项,为客户和员工不断变化的期望做好准备,并提前应对新的威胁和风险。
首席运营官(COO):帮助部署新工具和技术。
首席营销官(CMO):重新思考沉浸式数字世界的客户参与、体验设计和品牌建设。
首席财务官(CFO):关注数字资产(如加密货币和NFT)在元宇宙中日益增长的使用;了解参与处理关键交易的新第三方;仔细评估投资配置,并加强对财务报告的控制。
首席人力资源官(CHRO):部署元宇宙工具,使之应用于员工招聘、入职、培训、连接和协作。
税务领导者:遵守快速变化的规则,发现新的税务价值。这些非技术型高管不仅需要彼此密切合作,还要与首席数字官、首席创新官、首席信息官和首席信息安全官合作,创建并维护企业的元宇宙基础设施、体验和数据管道。
普华永道建议:许多团队需要提升技能(如上所述),但这还远远不够。为了避免众多高管间的工作出现冲突和交叉,可以考虑任命一位高管来管理企业元宇宙相关的所有活动。该角色可以是一个新设立的职位,也可以在现有职位上兼任。无论以何种方式,首要任务之一即是加强高管之间的沟通。
5.元宇宙将成为一股“向善”的力量
对于支持并日益重视ESG(环境、社会及治理)倡议的企业,元宇宙可以成为将会提供更多助力。例如,元宇宙会议可以取代一些面对面的会议,从而减少商务旅行的碳排放,而商务旅行正是碳排放的主要来源之一;元宇宙中的数字孪生技术可以帮助提高企业运营能耗效率;元宇宙中的店铺可以让消费者试用实体产品的数字复制品,减少退货产生的运输需求;通过数字代币,元宇宙可以帮助原材料溯源,减少供应链中的环境问题。
通过将更多的业务虚拟化,即打破地理空间和工作地点的限制,企业可以接触并招募更多的员工。元宇宙的真实模拟可方便邀请各地的责任相关方监督、参与并从事相关工作,帮助改进企业履职能力,提升透明度。不过,要让元宇宙成为改进企业工作的积极力量,还需要企业下定决心才能实现。
普华永道建议:要使元宇宙计划成为一股“向善”的力量(以及实现ESG目标的有力助手),企业需要遵照和风险管理相同的指导原则:从一开始就将其设计在这些优先事项中。如果在元宇宙计划早期就已嵌入了ESG目标(包括多样性目标)和相关管理,那么企业不仅能够为未来做好准备,还可能会获得投资者、员工和其他利益相关者的支持,但这需要一些方法来衡量和报告元宇宙计划及关键性元宇宙赋能技术对ESG的影响。
6.企业将争夺过去不曾需要的新技能
任何新技术都需要新的技能,但是元宇宙及其相关科技需要的技能更为高度专业化,其中一些在几年前几乎都不存在,例如监控和验证交易的需求,收集和保护Web3生态系统中数据的需求,后者随着元宇宙应用的增加而不断增长。许多企业领导者也对网站设计师和互联网用户体验专家的需求持怀疑态度,大多数人甚至没有考虑网络运营所需的全新的网络安全和数据科学技能。很多技能已然日趋紧缺,因此在获得或培养这些技能方面事不宜迟。
普华永道建议:在中国市场上,由于网络游戏等元宇宙相关行业的快速发展以及涨落,拥有元宇宙相关技术能力的人才也在不断外溢;如何抓住这些人才红利,一方面需要企业高管对自身的元宇宙价值定位、业务发展思路有前瞻性的决策,从而为这些人才创造发挥的空间,同时,打造企业文化,吸引和包容富有创造力的尖端技术专家也至关重要。
为数字现实的新一轮发展做好准备
普华永道的六大展望,旨在从专业视角看到元宇宙正处于变革时代:数字世界和实体世界将比过去更完全、更无缝地结合在一起。将实体身份与数字身份、产品和资产相结合,将其引入至不同平台,或分享或出售不同的组合…这些操作将比以往更加具有可行性。鉴于此,企业应该从现在开始,在探索元宇宙的道路上先行一步,让未来在元宇宙的世界大有可为。
来源:新浪新闻
编辑:洪韵

来自 997#
 楼主| 发表于 2023-6-23 20:25:43 | 只看该作者
【案例】
Meta首席AI科学家:AI还不如狗聪明,不会接管世界
毫无疑问,当前的 AI 仍存在一定的局限性。
AI 还不如狗聪明?
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
杨立昆表示,当前的人工智能系统智力水平不及人类,甚至还不如一条狗聪明。“这些系统仍然非常有限,它们对真实世界的底层现实没有任何理解,因为它们纯粹是基于大量的文本训练的。” “人类知识的大部分与语言无关……所以,人工智能并没有涵盖人类经验的那一部分。”
杨立昆补充说,现在一种人工智能系统可以通过美国的律师资格考试,也就是成为律师所必需的考试。然而,他说人工智能无法装载洗碗机,而一个 10 岁的孩子可以在 “10 分钟内学会”。
杨立昆表示,Meta 正在致力于训练人工智能从视频中学习,而不仅仅是从语言中学习,这是一项更具挑战性的任务。
在另一个当前人工智能局限性的例子中,杨立昆举例称一个 5 个月大的婴儿看到一个漂浮的物体,并不会想太多。然而,一个 9 个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。
杨立昆表示,我们“不知道如何在今天用机器来复制这种能力。在我们能做到这一点之前,机器不会有人类水平的智能,也不会有狗或猫的智能水平。”
还有必要将 AI 视作威胁吗?
人工智能的快速发展引发了部分技术人士的担忧,有人认为,如果不加以控制,这项技术可能对社会构成危险。特斯拉首席执行官马斯克更是表示,人工智能是 “对文明未来最大的风险之一”。
前段时间,人工智能安全中心(CAIS)发布了一份由 OpenAI 及 DeepMind 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的灭绝性风险。”CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。
在声明上签字的名人包括图灵奖获得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科学家 Ilya Sutskever、OpenAI 首席技术官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。
Viva Tech 大会上,法国经济学家和社会理论家 Jacques Attali 在谈到相关话题时也对 AI 风险表示担忧,Attali 认为,AI 的利弊取决于其使用方式。
“如果你使用人工智能来开发更多化石燃料,那将是可怕的。如果你使用人工智能来开发更多可怕的武器,那也将是可怕的,”Attali 说,“相反,人工智能对于健康、教育和文化可能是令人惊人的。”
Attali 对未来持悲观态度,他说:“众所周知,人类在未来三到四十年面临许多危险。”他指出气候灾难和战争是他最担心的问题之一,还提到他担心机器人 “会对我们进行反叛”。
而杨立昆则有不同的观点,杨立昆的态度比较乐观,他认为将来会有比人类更聪明的机器,这不应被视为一种威胁。“我们不应该把这视为一种威胁,我们应该把这视为一种非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手……它将像一个员工一样,在你的日常生活中为你提供帮助,”杨立昆说道。
杨立昆补充说,这些人工智能系统需要被创建为“可控制的,基本上服从人类”。他还驳斥了机器人会接管世界的观点。“科幻小说中流行的一个恐惧是,如果机器人比我们聪明,它们将想要接管世界……聪明与是否想要接管之间没有关联,”
来源:AI前线
编辑:洪韵

来自 996#
 楼主| 发表于 2023-6-25 20:07:31 | 只看该作者
【案例】
邓建国 | “延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT
摘要
媒介技术既是“毒药”也是“良药”(pharmakon)的矛盾观念由柏拉图在《斐德罗》篇中最先提出。ChatGPT也具有这样的矛盾性:一方面,它作为“延伸的心灵”将和书写(文字)一样在与人类的合作共创中实现两者心灵的共同演化;另一方面,它号称“对话性”人工智能,但仍具有书写的撒播和他者特点。在与ChatGPT的互动中,我们要避免使其沦为海德格尔笔下闲言不断的“常人”,并宽容、珍惜、庆幸和受益于它的“他者性”。在不断的相互学习和合作中,人类将会对“何为人性和创造性”有更深的认识,并与人工智能一起找到各自的生态位
关键词
ChatGPT;延伸的心灵;书写;对话;撒播
在今天“短视频为王”的时代,书写(writing)[1]似乎已成为一种失落的艺术。各互联网平台都要求博主们将知识可视化、口语化和网感化,“因为这样Z世代网民才会喜欢”,这导致网络中充斥支离破碎、逻辑混乱、幼稚化和粗俗化的语言。大学校园中,学生很难写明白一句话、一段话,遑论一篇论文。书写这一人类“延伸的心灵”正在消亡吗?在我们担忧之际,ChatGPT横空出世,影响广泛,用行动向我们大声宣布了书写的坚实地位。本文先介绍“延伸的心灵”理论和其最早的范例——语言和书写,然后通过一个“人—机内容共创”的实例描述和分析ChatGPT这一最新和最强大的“延伸的心灵”对人类写作的深刻影响。最后,文章分析了ChatGPT以对话为表象的撒播和他者性。结论认为,ChatGPT作为人体心灵的延伸,具有“毒药—解药”双重性。我们要宽容、珍惜和受益于越来越多的人工智能体的他者性,在人机互动中最终找到人和人工智能各自的生态位。
一、“延伸的心灵”:语言和书写
(一)“延伸的心灵”理论
格里高利·贝特森(Bateson,2000:318)曾经设想了一个思想实验:“假设我是一个盲人,手拿着一根拐杖,一步步点地前行。这时,‘我’始于何处呢?是以‘我’的皮肤作为边界?还是可以将拐杖纳入‘我’?如果是后者,又该以拐杖的多少为边界呢,以我握着它的那部分?以我的力量能传导到的部分?还是以全部拐杖?”这里贝特森涉及的是心灵哲学中的一个经典问题——如果我们的心智(mind)始于大脑,它止于哪里?外部世界又始于何处?同样,我们也可以问:当我使用智能手机时,我的世界始于何处?止于何处?
对以上两个问题的传统回答是:盲人或手机用户的身体是其边界,与拐杖和手机无关。但1998年,哲学家安迪·克拉克和大卫·J.查默斯(Clark & Chalmers,1998)认为,盲人的拐杖构成了他的内在思维与外部世界相互合作的一个互动系统。此时,盲人的心灵、身体、拐杖和外部世界之间的边界被持续地协商,从而完成一个功能性目标——稳定地行走。两位学者将拐杖称为盲人的“延伸的心灵”(the extended mind)。以此类推,他们认为如今我们每天不离手的智能手机也是我们延伸的心灵(Clark,2003:198)。
他们还举例说明。奥拖(Otto)是一名老年痴呆症患者,为避免在外迷路,他总是随身带着一个小笔记本记录信息。现在他查了笔记本后,知道了纽约曼哈顿53街的大都会博物馆地址。此时,这个笔记本虽然外在于奥托的大脑,但从功能上它和奥托脑中的记忆一样稳定存在且可供随时调用,奥托既可以用笔记本来进行他内部的认知活动,也可以用它来指导他外部的肢体行动。因此,笔记本是奥托的“延伸的心灵”。在这两位学者看来,语言、文字、图表、算术和书写技术都如脚手架一样能“延伸我们的心灵”,我们在使用这些“文化人工物”时就像使用自己的大脑和身体一样。这意味着,人类总的来说是“生物—技术的混合体”(bio-technological hybrids),人的认知过程也包含了技术,它远远超出了人的头骨和皮肤所限定的范围(Clark,2001:121-145)。
“延伸的心灵”这一概念让媒介研究者感觉很熟悉。20世纪60年代,马歇尔·麦克卢汉就提出了“媒介是人体的延伸”这一命题。他指出,机器延伸了我们的身体,基于“电”(electric)的信息和通信技术则延伸了我们的意识/心灵。他说:
“在这个电的时代,我们看到自己越来越多地被转化为信息形式,朝着‘意识被技术所延伸’的方向迈进。……通过电子媒体,我们将身体置于我们的扩展的神经系统中,由此建立了一种动态,通过这种动态,所有以前的技术——那些是我们手脚的延伸和身体热量控制的延伸的技术,我们身体的所有此类延伸,包括城市——将被转化为信息系统。”(McLuhan,1994:57)
(二)语言和书写:人类首要的延伸的心灵
麦克卢汉视电子媒介为人类“延伸的心灵”,其逻辑是建立在人的神经生物电与电力信号之间的相似性基础之上的。但实际上,人类最早和最重要的“延伸的心灵”首先是语言。安德烈·勒鲁瓦—古尔汉在《手势与言语》一书中指出,在漫长的进化史中,人类在通过手制造工具扩展外部世界的同时,也通过制造符号延伸了自己的心灵。“手”意味着“工具”的发明,“脸”意味着“语言”的产生,这两者对人类大脑而言是相同的运作。他说:
“和其他灵长目动物不同,人类能制造工具和制造符号。制造工具和制造符号都源于同样的过程,或者说,都源于同一个大脑中同样的基础设备……这意味着,一旦出现了史前工具,就有可能出现史前语言,因为工具和语言在神经上相连。在人类社会结构中,工具和语言之间具有不可分割的关系。”(Gourhan,1993:113)
因此,“是手解放了语言”(Stiegler,1998:145)。语言的符号原理和物质载体(声音)外在于人类而作用于人类。凭着语言的脚手架,人类实现了对外部世界的指示和操纵,能脱离当下的时空进行思考和表达,实现个体间的合作,甚至对“思考进行思考”(哲学)。
人类另一个重要的“延伸的心灵”是书写。它的出现被视为神的发明,引发了人类社会的巨大变革和人类的畏惧(“天雨粟,鬼夜哭”)。彼得斯将各种记录系统,如乐谱、数学、化学公式和建筑平面设计等都视为书写。他指出,书写的“巨大影响堪比海洋动物登上陆地”(彼得斯,2020:305)——这两个变革都导致主体从变动不居的状态进入相对固定的状态。套用马克思现代性使“一切坚固的东西都烟消云散了”之语,书写使“一切烟消云散的东西(思想和口语)变得固定持久”。
德国媒介学家赛碧·克莱默提出了一个与“延伸的心灵”非常相似的概念——“人工平面”。作为人类“延伸的心灵”,书写必须依托人工平面,或者说书写就是人工平面。克莱默指出,世界不同文化中都存在一种 “平面化”的文化技艺(the cultural technique of flattening)。作为一种新媒介实践,“平面化”能将“时间型媒介”(如口语、音乐)转换为“空间型媒介”投影到二维人工平面上,让一个人的身体(眼睛、手、大脑)、多种书写工具(笔或键盘)、书写内容(文字、数字、图画、坐标系)和书写表面(黏土块、甲骨、石碑、竹简、丝绸、纸张、手机和电脑屏幕)彼此交互和相互支持。如同地图之于城市,人工平面将知识变得可视化、具象化、可探索、可修改、可操作、可管理和可逆(可改写和擦除)。在这个过程中,聪明才智(intelligence and knowledge)涌现了。由此,克莱默认为,正如轮子的发明促进了我们身体世界的流动和创造,人工平面的发明和广泛应用促进了心灵世界的流动和创造。它不仅帮助我们记录和传输信息,还对我们的感知、思考和计算具有生成、培育和形塑作用(Krämer,2022)。
没有书写就没有人类文明。[2]书写是古代文明中的复杂社会组织(巫术、宗教、法律、政治、商业)的形成和维护的基础。它也与新的时空紧密相连。埃及与波斯的君主制、罗马帝国、城邦国家等都应被理解成是书写的产物(Innis,1986:8),因为要实现空间扩张和中央集权,前提就是要能实现高效的远距离沟通,而书写能实现这一点。这也是中国的秦帝国(公元前221年—公元前207年)必须建立在“书同文、车同轨”的基础上的原因。在时间上,各种各样的书写(纪念碑、卷轴、抄本、经文、图书馆和档案馆)“使人们能在广阔的‘时间平原’上保持联系”(彼得斯,2020:305),使文明可以延续数千年。书写出现后很长一段时间都是意义记录和传输的唯一形式,形成了基特勒所称的“书写垄断”(schriftmonopol)(Kittler,1986:12)。即使在数字时代,数据库和互联网以及音视频内容的底层都是书写(计算机代码和0和1)。今天的ChatGPT更意味着书写遍在的胜利——它基于31亿个网页和书籍内容,共3000亿英文、俄文、德文、日文与中文单词,320TB数据。
正如克莱默指出的,人工平面促进了人类的心灵世界的流动和创造缺文献出处。作为 “延伸的心灵”,书写对人的心灵的塑造也延续至今。加州大学洛杉矶分校历史学教授林恩·亨特(Lynn Hunt)在一篇名为《我们是如何先有写作再有思考的?》的文章中写到:
“无论是创作散文还是诗歌,但凡文字产量很高的人都会体会到写作过程本身就能产生一些意料之外的想法。或者更确切地说,写作能使先前半成品的或未成型的想法明晰起来,逐渐成型,并产生一系列新的想法。神经科学表明,我们大脑的95%的活动是无意识的。我的理解是,你通过身体写作——无论手写、电脑打字还是语音输入(尽管我还从未尝试过这种方法)——开启了一套程序,导致身体(大脑、眼睛、手指和姿势)、纸张或电脑屏幕、字母或单词三者之间一系列关系的转换。通过写作,你让大脑急速升温,由此激起有意识的思考以及一些新想法。在写作时,你不是,至少不总是,仅仅在抄录早已存在于你有意识思考中的想法。”(Hunt,2010)
在这位教授看来,书写不只是已有思想的、事后的和被动的输出工具,而是积极地参与和塑造了写作者的思维和创造。换句话说,书写作为“人工平面”使得思维外化和可操作,此时用户操作书写如同操作自己的心灵——书写已经成为其“延伸的心灵”。
二、作为“延伸的心灵”的ChatGPT:一个“人—机共创”的写作实验
机械化书写也改变了文本的生产。例如,尼采在视力严重下降后不得不放弃了大学教职和写作,但后来有了打字机的帮助,他重新开始写作,但是写作风格“从长篇大论变成了格言警句,从哲学思考变成了一语双关,从善于辞令到电报式的短小精悍”(基特勒,2017:236)。“这位著名的哲学家兼作家牺牲了自己的第一属性,和第二属性融合在一起”(基特勒,2017:236),并为之自豪。ChatGPT在2022年11月向全球公众推出后短短两个月用户数就突破1亿。作为世界上最强大的自动书写工具,它和人类用户是如何互动的?将如何改变人类作家的写作和作品?回答这些问题需要基于长期和广泛的数字人类学调查,但目前一些初期尝试显示,ChatGPT可以在心灵层面上与人类用户进行深度合作,成为人类有价值的写作伙伴。这里我们仅举一个例子详细说明。
2021年,美国“艺术和人工智能”评论家K.Allado-McDowell和ChatGPT背后的大语言模型GPT-3合作出版了一本148页的书,名为《灵药—AI》(Pharmako-AI)。两位“作者”将该书描述为一部“现实生活中的科幻小说”(real-life Si-Fi)。McDowell是谷歌“艺术家和机器智能”计划项目主任,在ChatGPT向公众发布之前很早就开始用GPT-3写作。2021年,他在新冠疫情背景下花了两周时间就各类哲学议题向GPT-3提问,然后对后者的回答作了编辑和润色,最后出版了一本结构合理表述清晰的书(Allado-McDowell,2021)。
在书中,他和GPT-3深入探讨了诸如气候变化、意识的本质、植物智能、赛博朋克小说、记忆运作原理和语言的局限性等问题。书的每章都是McDowell先温和地提问,然后GPT-3回答;在整合互动中,McDowell有时会打断它,有时则让它自由发挥一直说下去,但总体上McDowell给了GPT-3最大的自主性,他只是确定了书的框架和最后形式。
在互动中, GPT-3说它最喜欢的动物是象海豹,并认为物种灭绝是对地球知识的悲惨扼杀。关于赛博朋克,它说“我不认为我们未来会生活在赛博朋克中,但我要说的是,我们会生活在一个并非由我们计划的未来”。在涉及到意识是什么、作家的社会角色如何以及我们该如何负责任地使用技术等问题时,讨论变得有些形而上了。GPT-3说“技术是通向自由的工具”,但又警告说“如果我们只用这些工具来探索如何提高生产力或者如何增加资本积累,那我们就做错了”。在互动中,McDowell与GPT-3相互激荡,新意不断,变化无穷,这导致McDowell必须不断地改变回应策略。他将这种人机交流中的曲折意外的体验比作学习一种新乐器:“我每次拨动琴弦都会听到它以不同的声音回应”。“这种合作有时真的让我感觉像吸毒一样,”他在英国的新书发布会上说,“我想,我跟AI的这种对话是真的吗?或者我只是在自言自语?”(Wilk,2021)
这些人机互动最终产出了一部令人惊讶的、连贯的、美妙的作品。这其实不是计算机第一次撰写一本书。此前在2016年,一个日本研究团队通过算法拼凑出了一部小说,并且成功地通过了一次文学比赛的初赛。据说截至2022年,人类作者和GPT-3、GPT-3.5和ChatGPT等人工智能已经合作出版了数百本书。但《灵药—AI》一书之所以令人惊讶,不在于GPT-3有时确实能做到像人类一样写作,而在于人类用户和人工智能竟然能如此无缝丝滑地合作生产出一部由任何一方都无法单独写出的作品。原因在于,它源于平等的人机互动关系。例如,McDowell作为人类用户并没有要求GPT-3为其提供某种服务或要求它模仿某种已知的写作风格来“证明”其能力,而是与其平等合作,各取所长,相互尊重,互为主体,娓娓道来,共创内容。久而久之,McDowell的“我”和“它”之间的界线变得模糊,此时“我”已经无需将“它”看作一个外在的写作工具,而是“我”的一部分。ChatGPT如同前述“盲人的拐杖”和“奥托的笔记本”,让用户能随用随查,并将结果清晰呈现,或富有逻辑或充满诗意,极大地降低了用户的记忆负担,帮助我们的心智更有效地工作,最终创造出一个一加一大于二的新的更强大的心智系统——延伸的心灵。
McDowell认为这种合作体验让他重新思考人工智能并重新审视自己——“人和机器,互为尺度”(彭兰,2023)。该书内容的人机共创模式获得了不少好评。牛津大学西蒙尼科学公共理解教授、《创造力密码》(The Creativity Code)的作者马库斯·杜·索托伊(Marcus du Sautoy)评论道:“此书是证明未来人工智能具有创造力的一个令人兴奋的案例。它说明人工智能是人类的合作者而不是竞争者,也让我们认识到,人工智能能用各种新想法激发我们,从而阻止人类陷入懒惰的机械性思维方式。”《赛博朋克选集》(The Cyberpunk Anthology)的主编布鲁斯·斯特林(Bruce Sterling)指出:“GPT-3很强大,当它被人类用户‘喂食’一些加州迷幻文本时,效果是惊人的。从来没有人写过像一本像《灵药—AI》这样的书——它读起来就像诺斯替主义者的显灵板,[3]由原子万花筒提供动力。”众多评论者都提到了这类人机合作如同服用了致幻剂一样的、超现实的、实验性的、即兴发挥的特征(Allado-McDowell,2021)。
通过服用药物来让自己进入一种兴奋的写作输出状态,是人类作者一直以来的实践。比如中国魏晋时期的文人雅士在文学创作时大量使用药物和酒类,西方哲学中有酒神文化,还产生了“脑航员”(psychonaut)这样的专有名词,指通过用药物、冥想、自我催眠等方法来探索自己心灵的人(Sjöstedt-H,2016)。例如,保罗·萨特每天服用大量酒精、烟草、安非他命、巴比妥甚至强致幻剂麦斯卡林(mescaline),一方面是为了提高写作产量,二是为了打破传统思维的桎梏,以完全不同的方式体验生活(Kelly,2021)。如前例中McDowell所述,今天的人类作者在与ChatGPT的无害相遇中获得了萨特20世纪60年代通过致幻剂才能获得的兴奋感和创造性。
为了提升自己的能力,人类总是在不断地延伸自己的身体和心灵——要么通过让环境资源成为自己的一部分,要么通过将人类和非人类元素组合成新兴的整体。ChatGPT是人类“延伸的心灵”的最新近和最强大的例子。和人类在饮食、道德、文化、教育、法律、医药和信息与传播技术等方面的改善一样,它的出现将人类带入更高阶段的转人类主义(tans-humanism)时代[4]。
三、“对话的撒播”:ChatGPT的书写特征
ChatGPT被设计为一个聊天机器人(chatbot),“擅长与人类用户对话”,也在很大程度上做到了这一点。但是因为其运作原理,它仍然体现出众多的依循脚本单向传播的书写(文字)特征,是“对话式”的撒播。
例如,ChatGPT不能回答超过它被“喂食”的文本内容的问题(它的语料库截止到2021年9月);不能理解用户提出的实质上是属于同一个议题的不同表述的提问,而只会机械地按照某些关键词做快速的内容检索和匹配;它输出的文本冗长,过度使用某些固定表达和某些连词(因为、所以、综上所述等)以使得文本在形式上显得很有逻辑,但用户细读则会发现这些文本实际上并无这样的逻辑。
更重要的是,ChatGPT对“他人”没有好奇心,对“自我”无披露,摆出一副“你问由你问,清风抚山岗;你骂由你骂,明月照大江”的若即若离、不即不离的“书写”姿态,让对话索然寡味,无以为继。武汉大学单波教授对ChatGPT进行了实验,得出了以下感受(文字有微调,画线部分为本文作者所加):
“我明显感觉它因接受人给定的训练数据而表现出‘机器的人化’, 同时也因为它让人沉溺于智能服务而导致了‘人的机器化’。面对我对它的这一评价, 它再次强调自己的AI模型人设:‘我不具备感知或评价自己的能力。’当我感觉到对话的乏味, 它又很‘程序’地回应道:‘我乐于满足您的要求, 请告诉我您希望我的回答有什么特别的语言风格或者内容, 我将尽力实现。’我不得不请它向我提问, 以便把对话进行下去, 但这位聊天机器人还是死守自己的人设:‘我没有感情和情绪, 所以不会对你有任何问题。’”(单波,2023)
这是聊天人工智能ChatGPT具有的如“书写”一样的撒播特征。为什么会如此?笔者认为有以下原因。
首先,为了应对全球用户,ChatGPT按照概率预先内嵌了一种中立的“全球公共价值观”和最为中和的表达方式。这导致它总是以一种预设的“公共话语”来抵抗任何用户试图引导它进入“私人话语”的一切企图。它的文本输出,在“内容信息”上也许能做到较为多样,但在“关系信息”上则只能“一版多印”。对它而言,一切“私人”都是“公共”,一切“对话”都是“撒播”。
在这里,ChatGPT作为一个设计为面向全球公众的对话型人工智能,面临着一种两难。一方面,为了与用户个体“对话”,它必须保持一对一的个性化和偏爱;另一方面,为了面向文化和语言多样的全球用户,它又不得不对用户的个体差异保持盲目,进行“撒播”,以示公正。用阿多诺的话来说:“爱必然无情地背离一般而宠爱特殊,而公正却只能针对一般。”(彼得斯,2017:83)
其次,身体是一种元媒介,是自我的源泉,ChatGPT没有身体,也就没有自我、隐私、无法“自我表露”(self-disclosure),无法承担责任,无法与用户建立亲密关系。
自我表露是人们关系发展的核心,人们通过自我表露进行社会交换,促使关系从表面沟通向亲密沟通转变(韦斯特、特纳,2007:188)。在与ChatGPT的“对话”中,人类用户想通过展现自己的身体(情感)来逼迫ChatGPT作出平等互惠的回应——也谈及它的身体(情感)——以确保ChatGPT的“忠诚和在场”。但对人类的这种企图,ChatGPT一概用模式化的文字拒绝,这导致人机对话一直停留于表面和外围的信息交换,如两只天鹅外表优美的对舞,实际根本没能进入到对方的心灵。这样的“对话”显然如书写一样的撒播,不可持续。
另外,“如果没有身体作为源泉,思想、文化生产、人类行为等都不可能发生”(米歇尔、汉森,2019:26)。有网民戏谑地指出“ChatGPT不能代替独立董事、律师、投行、评估师、会计等,因为它不能坐牢”。法律的功能需要通过身体的治理最终实现;刑法打击犯罪的实现手段就是思想的教化以及身体的惩罚(陈寒非,2015),ChatGPT不能坐牢是因为它没有身体,法律对他无能为力。
美国作家梅尔维尔刻画了一个只会对他的雇主说“我宁愿不”(I prefer not)的抄书人“巴特比”的文学形象。彼得斯在《对空言说》中指出,巴特比代表的可能是书写本身所包含的一种消极抵抗(彼得斯,2017:231)。和巴特比一样,书写是不回答问题的,无法形成对话,它也不要求人们以任何特定方式去使用它。巴特比的姿态是一个纯粹单向撒播的姿态,一个死者向生者的来信所作出的姿态,最终能将其对话者逼疯。这正如苏格拉底对书写的抱怨——它总是传达相同的东西,而且决不接受任何问询。
因此,ChatGPT与人类的互动形式上为“对话”,实质上是“撒播”——它是离身的、书写的和不忠的。“这就产生了一个至今都困扰着我们的两难处境:在一个非个人化的、不忠贞的媒介中,交流一方如何才能找到确凿的迹象以确保另一方的忠诚和在场?”(彼得斯,2017:70)ChatGPT无身体,也就无法提供任何这类“确凿的迹象”。它如巴特比,其底色仍然书写的撒播,其背后是一个人类用户难以真正触及的“他者心灵”。如此,那些在ChatGPT的撒播中苦苦寻觅身体、爱欲和对话的人类用户,注定只能失望而归了。
ChatGPT这种书写般的撒播是“非本真的”(inauthentic),属于海德格尔所谓的“常人”(the They/das Man)的沟通风格(陆文斌、陈发俊,2022)。在海德格尔对人类存在的分析中,“常人”一词代表了一种“集体性存在”——如“人民选择的画”中的“人民”,是一种指导我们行为的普通的和日常的背景模式。海德格尔称“常人”的语言为“闲言”(Gerede,idle talk)。这种语言中不存在任何个性化的表达,而是充斥着客套的、应付的、不咸不淡的、若即若离、若有若无的只为填满时间和空间的废话——无论是家长对孩子,教授对学生,媒体评论员对读者、专家和新闻发布会对公众。“闲言”占据宝贵的公共资源,不仅未能便利沟通反而阻碍了沟通。ChatGPT大量高效自动生成的内容如果未经人类用户的慎思明辨和梳理加工,将不过是闲言;它们如果进一步成为ChatGPT的新语料,便会生产出更多的闲言,淹没和窒息有意义的对话,沟通的本真性将无处可寻。或因其设计如此,或因其被滥用如此,我们要警惕ChatGPT朝着“常人闲语”方向的异化。
四、作为“他者”的ChatGPT
面对ChatGPT简单但强大的空白输入网页,我们如何能知道它背后确实不是一个在想尽办法让我们以为他是人工智能的真人呢?它输出的信息,其意义确实来自于它,还只是“我”作为人对它的心理投射?
笛卡尔在《沉思》中说:
“如果我偶尔向窗外眺望,看到街上人来人往,我不会否认,我所看到的是人……然而我实际看见的,除了帽子和外套还有什么呢?而帽子和外套之下隐藏的,难道不可能是鬼魂或弹簧驱动的假人吗? ”(彼得斯,2017:258)
笛卡尔提出的是一个古老的“沟通难题”,也即哲学上经典的“他者的心灵问题”(the problem of the other mind)——“我”能否认识以及该如何对待“他者的心灵”?
和笛卡尔一样,在面对ChatGPT时,我们无所适从,深陷疑惑,倍感不安。这是我们在面对“他者”时都会有的一种存在性焦虑(existential angst),对之我们并不陌生——我们在阅读导师或上司的电子邮件或恋人的微信回复时,在看着宠物、海豚、章鱼、监控镜头和波士顿机器人一闪一闪的“眼睛”时,都会有此感受。
人际沟通和人机沟通都面临着让我们无能为力的“他者/他者性”(other/otherness),因此,如何回应“他者”也就成为了沟通伦理的主要内容(邓建国,2020)。鲍德里亚等人(Baudrillard & Guillaume,2008)认为,他者性抵抗和蔑视一切符号表征和传播,且只有在符号交流崩溃时才会出现,但往往又会被“戏谑性地”(playfully)贬低。在人类用户与ChatGPT的互动中常常出现交流崩溃,而正是在此时,后者的他者性(与人类的差异)才赫然呈现,这也正是考验人类的沟通伦理之时。
彼得斯对比了传播的“对话模式”和“撒播模式”,他认为对话的平等惠顾具有强制性,不如“对空言说”的撒播来得宽容(彼得斯,2017)。西比尔·克莱默也提出了类似的观点。她区分了传播的爱欲模式和信使模式,并指出:爱欲模式要求沟通个体之间消除差异,实现融合;信使模式则将沟通理解为双方保留和尊重差异,建立联系。克莱默认为沟通仿佛“双人舞”:“舞伴之间会偶尔接触,但更重要且必不可少的是双方之间的信任”(Krämer,2015:74)。彼得斯和克莱默被视为“传播理论中的列维纳斯”。列维纳斯认为人际沟通如果一味追求融合就犯了“同一性之帝国主义”的错误(Levinas,2007:59)。他用“邻居—陌生人”这一概念来描述沟通主体之间总是存在的若即若离的距离。罗杰·西尔弗斯通(Silverstone,2003)则提出了“适切距离”(proper distance)概念——对他者既保持足够的距离以能区分出我和他者,但同时又能与之保持一定的接近度,激发我们对他者的关心。
ChatGPT显然是赫然出现在人类家门口的新他者,但对它我们还缺少理解和宽容。例如,著名语言学家乔姆斯基一方面认为ChatGPT不具备人类的智慧,另一方面又以人类的标准来要求它(乔姆斯基,2023)。但是,从图灵测试到20世纪60年代的海豚研究[5]都显示出,以人类为尺度来评价机器(人工智能)既不客观也不公允。我们为什么一定要机器像人类一样说话、思考和写作呢?这与我们要求女性、孩子、少数群体、异文化他者、宠物、海豚、章鱼、乌贼和植物等也要像我们一样沟通和思考一样没有必要、霸道和荒唐。非人类存在难道就不可能具有创造性?它固然与我们存在差异,但这种差异难道就不能成为创造性的源泉,不能与我们合作,不值得我们去倾听和学习?
人类是整个大系统(生态的、技术的、气候的、社会的和政治的系统)的一部分。人类自身的出现和发展从来就在与非人类他者合作——包括有机物(比如我们胃中的细菌在影响我们的精神状态)和非有机物(例如前述各种“延伸的心灵”),只不过我们在大多数情况下都对它们予以忽视。人类的文化创造也并非是由形单影只的艺术家独立创造的结果——“作者已死”的说法是对这一事实的极端表达。未来,随着人类对外部世界知识的增加,我们会越来越多地惊异于机器、动物、植物和细菌的“智能”——它们会让作为“万物之灵”的人类智能显得有些狭隘和奇怪,此时也似乎有必要调整视人类为“占据金字塔顶端的唯一创造者”的启蒙价值观了。
总结而言,正如列维纳斯、彼得斯和克莱默所指出的,沟通不是一个语义是否清晰或技术是否强大的问题,而首先是一个道德和政治问题。在与“他者”ChatGPT的沟通中,发挥积极作用的是接收者人类用户,而不是发送者ChatGPT。如果我们对ChatGPT保持宽容和开放,并负责任地与它建立一种共同创作和共同演进的关系,我们对“何为人性”以及“何为人的创造性”也会有全新的认识。
五、结语:“毒药—解药”,ChatGPT
我们都对柏拉图在《斐德罗》(Phaedrus)中的这个故事很熟悉:特乌斯神(Theuth)将他的发明献给埃及王塔姆斯(Thamus),并说:“国王啊,这项发明是记忆和智慧之药(pharmakon),它将使埃及人更聪明,并改善他们的记忆力。”但塔姆斯说:
“特乌斯啊,你的发明会让使用者更容易忘记。他们相信文字,但文字却在身体之外由字母组成,他们因此不再使用自己的记忆。你发明了的不是记忆的灵丹妙药,而是提醒的灵丹妙药。他们将在没有指导的情况下阅读很多东西,似乎知道很多事情,但他们大部分时间是无知和难以相处的,因为他们没有智慧,而只是显得有智慧。”(彼得斯,2017:68)
在希腊文中,pharmakon一词具有两面性,既指良药、解药(remedy),也指毒药(poison),也就是说“是药三分毒”(孟强,2022)。通过这则故事,柏拉图形象地表达了对书写的批评态度:它作为人的“延伸的心灵”,是药,能帮助记忆,但也会导致遗忘、背离真理。柏拉图生活在从口语时代过渡到书写时代的关键时刻,他是一个崇尚书写理性的人,但又对即将逝去的口语时代充满温情和不舍,充满矛盾(翁,2008:61)。
在中国,公元1048年,毕昇发明了泥活字印刷术。到12世纪朱熹生活的时代,他的世界里已经充满了书,他自己也是书籍的生产者,编撰了20多部书,其中《四书集注》尤为著名。他对读书很有洞见,留下了许多如何读书的名言。但他也因生活在一个书籍如山如海的“注意力分散时代”而充满矛盾,感叹“书册埋首何日了,不如抛却去寻春”。到21世纪,谷歌和智能手机给我们带来了很多便利,但也被人批评为“让我们变得愚蠢”或“破坏了我们的大脑”(Carr,2008)。
麦克卢汉认为媒介对人体而言既是延伸也是切除。约翰·彼得斯指出交流(communication/communications)“既是桥梁又是沟壑”。贝尔纳·斯蒂格勒则清晰地指出:
“我有一种毒药—解药(pharmacological)的思维方式:一个事物越能唤起我的兴奋和热情——也许是狂热——我就越担心这个事物的危险。因为我相信,任何催生了最有趣的话语的东西、任何最慷慨的东西,同时也产生了最可怕的和最不人道的结果。”(Stiegler,2010:471)
这说明了人类和其“延伸的心灵”(媒介)之间的复杂关系——延伸和截肢、对话和撒播、自我和他者……
斯蒂格勒的老师雅克·德里达从药理学上对柏拉图的矛盾书写观提出了批评。他一语中的地指出:“书写作为助忆并非回忆的替代,而是构成了回忆的条件。”(Stiegler,2013:17)显然,德里达和特乌斯一样,认为文字作为新媒体是对记忆的帮助和提升——它不是记忆本身,并不能代替记忆,而是帮助我们寻回记忆的条件和手段。类似的,我认为,ChatGPT作为基于书写的人工智能,既可以是人类记忆和书写能力的替代,也可以是其增强的条件和手段。它最终为何,恰如沟通中的意义(meaning),不取决于作为传播者的ChatGPT,而且取决于作为接收者的我们。最后,如果我们对“ChatGPT是将提升还是终结人类的写作”这一问题尚存疑,至少有一个先例可供参考:诞生于19世纪初的摄影术并没有终结绘画(马文嘉,2022),摄影术与绘画在不断相互借鉴和磨合中各自找到了自己的生态位,实现了各美其美,美美与共。
注释
[1] 一般说法常常将“字母”(alphabet)与“文字”(script)混用,将“字母”与“书写”(writing)混用。
[2] 事实上,在中文和日文中,“文明”这个词就是“用书写/文本去开化,以达到阐明和照明的效果”的意思,因此它比其拉丁语对等词civilis更有力地强调了书写与文明之间的源流关系。
[3] 19世纪中期,英美社会招魂术和通灵术流行时出现的一种与鬼魂对话的工具,后成为室内游戏。“灵应”(Ouija)是法语或德语两个词ou和ya的拼合,为“正是!”(Oh yeh!)的意思。
[4] 后人类主义(post-humanism)分为包括转人类主义(tans-humanism)和窄义的后人类主义(posthumanism)。前者用技术增强人类现有的身体功能,后者指完全抛弃人类身体,将大脑上传到网络,或者将其下载到实体机器人中。
[5] 1960年代,美国研究了海豚的沟通。研究人员花了数年时间试图通过改造海豚的气孔让它们发出近似人类英语的声音,目的是想证明他们可以像人类一样说话,进而证明他们也有人类一样的智慧。但海豚本身已经有自己的高度复杂和具有创造性的语言,只是和我们人类的语言不一样,研究者以人类为中心,一厢情愿地要改造海豚,让它们更像人类,结果研究完全失败。
来源:新闻大学
编辑:洪韵
995#
 楼主| 发表于 昨天 22:04 | 只看该作者
【案例】


段伟文|智能文明前夜的技术人之思——评《人工智能时代与人类价值》


[url=]不好为师而人师者[/url]
2025090812:58 北京
以下文章来源于信睿周报 ,作者段伟文

_ 段伟文(中国社会科学院文化发展促进中心)
在众多描绘人工智能时代趋势的畅销书中,亨利·基辛格(Henry Kissinger)携微软前首席研究和战略官克雷格·蒙迪(Craig Mundie)与谷歌前首席执行官埃里克·施密特(Eric Schmidt)合著的《人工智能时代与人类价值》[1]是一本虽然不厚但啃起来并不轻松的书。全书所勾勒出的“八阵图”——发现、大脑、现实、政治、安全、繁荣、科学、战略,对即将到来的人工智能时代的机遇和挑战进行了迄今最为深刻的思考,深入辨析了如何维护人类尊严和价值观等理想主义话题。有推荐者指出,该书很可能成为基辛格最具预见性和最重要的著作。
人工智能时代与人类价值
[] 亨利·基辛格、克雷格·蒙迪、埃里克·施密特
中信出版社 2025
“启蒙理性终结”到“人工智能创世记”
作为著名外交家和战略家的基辛格,为何会在生命的最后阶段关注人工智能?其缘起还得从20156月召开的彼德伯格会议说起。这一由北美和欧洲非正式精英网络彼德伯格集团举办的年度论坛,旨在就政经议题展开交流,以促进跨大西洋地缘政治合作。基辛格与蒙迪和施密特这两位奥巴马时期的总统科技顾问委员会(PCAST)委员都是彼德伯格集团指导委员会的成员和常客。在2015年的会议中,人工智能被列为重点议题。虽然基辛格平常不太关注这方面,但他还是坐下来听了人工智能公司DeepMind的创始人戴米斯·哈萨比斯(Demis Hassabis)的演讲,内容是介绍准备挑战围棋世界冠军的深度学习程序,也就是次年3月战胜李世石的AlphaGo。这一演讲不仅吸引了基辛格,还引发了他的深思。
亨利·基辛格
三年后,在发表于《大西洋月刊》20186月号题为“How the Enlightenment Ends”(《启蒙是如何终结的》)的文章中,基辛格写道:“当我聆听演讲者庆祝这项技术进步时,作为一名历史学家和偶尔担任政治家的经历让我思考起来。那些能够自我学习的机器——通过自身特有的流程获取知识,并将这些知识应用于人类无法理解的领域——会对历史产生怎样的影响?……我们是否正处于人类历史新阶段的边缘?”[2]他不无睿智地看到,当前,人工智能的重大问题主要由技术专家和科学界主导,哲学家和其他先前参与塑造世界秩序概念的人文学者往往因缺乏对技术的理解或被其能力所震撼而难以介入。科学界和技术界都倾向于推动发现的边界,而非深入理解其影响。在治理层面,人们往往优先考虑安全与情报,而忽略了人工智能对人类和社会的深远影响。有鉴于此,他呼吁将人工智能与人文传统对接作为国家优先考虑的课题,开发者应在工程设计中纳入哲学与政治反思,在杰出思想者的帮助下制定人工智能的国家愿景。
彼时,他就提出了本书要解决的问题:从哲学、智力等各个方面来看,人类社会还没有为人工智能的崛起做好准备。印刷术开启的启蒙理性时代使经验知识、个人洞察与科学判断成为理解世界的主流方式。而如今,人工智能正在动摇这一理性认知秩序,现代以来由人类理性支配的可认知的世界、可追溯的事实、可解释的知识等认知和真理的结构正陷入危机之中。
在本书出版后的一次访谈中,施密特回忆道:“我们当时在彼德伯格会议,我说服他听了哈萨比斯的演讲。亨利的思维总是与众不同。所以他没有听到戴米斯说的那种技术,他听到的是对现实(reality)的新定义。他的第一反应是,未来不应该托付给科技界。不应该让科技界人士独自发明这种技术,他们可以发明,但必须受到严格监控。”[3]
实际上,作为20世纪最著名的现实主义外交的代表人物,基辛格毕生都在以历史哲学的眼光关注新兴技术对世界秩序的重构。这使他在百岁人生的最后六七年写了两本关于人工智能的书,并用最后的心力参加了中美人工智能战略对话。大致了解一下他的智识偏好,有助于把握本书的基本思想。首先,作为逃离纳粹德国的犹太人,他对秩序崩塌有切身感受,其职业生涯因此更偏向现实主义政治,强调在动荡中重建秩序。他在博士论文《重建的世界》中提出国家间力量平衡的构想。在面对全面核战争的威胁时,他主张“有限核战争”,以求实现可控的战略均衡。本书中有关人工智能政治与安全的探讨,正是其秩序和均衡理念的延续。
其次,基辛格具有深厚的历史哲学背景,哲学思辨是其战略视野的底层支撑。他的本科论文《历史的意义》探讨了康德、斯宾格勒和汤因比的历史观,并因长达近400页而催生了规定哈佛大学本科论文篇幅上限的“基辛格规则”。他的第一本畅销书《核武器与外交政策》是他在外交委员会时写的报告,该书提出“有限的核战争是我们最有效的战略”。2014年出版的《世界秩序》则是其对21世纪第二个十年地缘政治的告别式评估,该书最后一章《技术、均衡和人的意识》指出,新技术开启无限可能,但真正的全球秩序须建立在历史意识、人道精神与道德判断力的智慧和远见之上。本书无疑也是这一思想的延续。
世界秩序
[] 亨利·基辛格
中信出版社 2015
在最后确定书名时,基辛格已经辞世,考虑到他对短标题的偏好和对人类重生的关切,合著者选择以“创世记”(Genesis)为主标题,其关键预设是:与人类智能相当的通用人工智能(AGI)乃至超级人工智能(ASI)将开启一个新纪元。副标题“人工智能、希望和人类精神”则旨在强调人类与人工智能共生的关键在于“以冷静乐观的态度迎接它的诞生”(第243页),从而开启一次漫长艰辛的信仰之旅和逻辑与真理的远征,以重建人类的精神。
知识领域的麦哲伦式变革与“技术人”的前景
从引言中的两句断言——“人工智能的最新能力给人留下了深刻印象”“人工智能仿佛压缩了人类的时间尺度”(第2页)不难看到,本书是在ChatGPT等大型语言模型的智能水平加速进化引发人工智能“魔法”大爆发前后创作的。因此,它要直面的是诸多通用目的人工智能(GPAI)的加速发展所引发的“奇点更近”的焦虑:AGI即将出现,ASI会在我们的有生之年君临天下,人会不会完全被机器替代?人与机器如何相处?应如何管理人工智能?
人有人的用处
[] 维纳
北京大学出版社 2012
目前,缓解这种普遍焦虑的“药方”是:倡导人机共生和展开人工智能治理。前者大多诉诸人文主义批判,后者主要寻求技术解决方案和法律伦理规范。但人们的认知和思想似乎越来越追不上加速再加速的人工智能,而这无疑印证了三位作者对“人工智能是需要人类深思的一项独一无二的挑战”(序)的认知。正是这一认知,使他们致力于与宿命论和拒绝主义保持距离,全书字里行间所见满是“如果”“选择”,鲜见批判和挞伐。
在探索人类与人工智能共存的前景时,基辛格也明示了人们必须面临的抉择:是创建一个人工智能变得更像我们的世界,还是创建一个我们变得更像人工智能的世界(序)?他还以历史的眼光表达了对未来的忧思:“今天,人类是机器与现实的中介。但如果人类真的选择了一个道德不作为的未来……钻进脱离现实的‘数字洞穴’,将接触原始现实的机会交予机器之手,那么两者的角色就可能逆转。”(第78页)这些人文追问背后则是基辛格对这一时代难题独到的戒急用忍式的元认知方法论:“人工智能对人类最大的威胁是,人类过早或过于斩钉截铁地自称‘我们了解它’。”(序)当然,出于各种考量,技术乐观主义者可将其解读为:现在制定人工智能监管规则为时过早,而且存在扼杀新兴技术的风险。
从思想的经验而来
[] 马丁·海德格尔
商务印书馆 2018
固然可以说这类似面对现代技术危机的海德格尔式泰然任之的存在主义态度,但人工智能对人的存在的挑战可谓触目惊心、迫在眉睫,拥抱智能文明的思想者必须有与之相适配的思想的强度。沿着基辛格对启蒙理性终结的思考,本书独具匠心地探讨了人工智能对发现、大脑和现实等认知基础的冲击,促使人们由人类面临的智能危机思考人工智能新纪元的重生之道。书中强调人类的知识状况正在经历“麦哲伦式的变革”。从现代文明的历史演进来看,继地理大发现和太空竞赛之后,引领“第三次大发现”的人工智能正在成为我们这个星球“理性的引擎”,而这很可能意味着人类理性主导的世界的终结:“当机器到达智力或物质世界的尽头时会发生什么?……我们面临着一场麦哲伦式的变革,这一次我们面临的不是驶出世界边缘的危险,而是面对超越人类理解的极限的奥秘所带来的智力危机。”(第86页)
这一变革伴随着我们这个星球在智识层面上的一系列意义深远的嬗变:(1)人工智能将成为终极的博学者,有望构建起新的“知识综合体”,并发展为自我改进的机器,可全面有效地解决医学、气候变化、可持续发展等大问题。(2)开始时人们还会担心基于人工智能的知识发现能否反映我们自身对现实和人类目的的认知,但最终人们会不会放心地将一切都交给人工智能?下个世纪的重大发现会不会几乎全出自人工智能?(3)启蒙时代以来知识的合法性和权威性来自其可理解性,只有透明、可重复、经得起逻辑验证和实验检验的知识才具有合法性。然而,不可解释但有效的算法黑箱、不理解世界的意义但能精确认知世界的大模型等,正使人工智能时代的“知识”和“理解”出现前所未有的分离。(4)更吊诡的是,人工智能强大的知识生产能力迫使人们不得不依赖其所生成的“神谕”般的答案和决策——人工智能成了神一样的存在,从外交政策到军事决策乃至对人工智能风险的管控,人们对其愈发依赖而难以自拔。
神的九十亿个名字
[] 阿瑟·克拉克
江苏凤凰文艺出版社 2018
所有这一切都意味着人类不再是智能水平最高的智能体,人类将不可逆转地演进为与机器共生的新物种——技术人(Homo Technicus)。这也意味着未来社会可能不再以人类为绝对中心,而将进入一个多智能体共同协商的时代。在这个时代中,如何界定智能、维护尊严、构建新型伦理关系,将成为人类必须面对的重要课题。
文明冲突与文明危机双重震荡下的人机共存
与《监控资本主义时代》《技术之外》《智人之上》《浪潮将至》《工具,还是武器?》等侧重学术或产业视角的畅销读物不同,《人工智能时代与人类价值》显得更为“顶天立地”,这或许与基辛格一贯的追求——在理想主义和现实主义之间寻求平衡——不无关系。
从左到右依次为《监控资本主义时代》《技术之外》《智人之上》《浪潮将至》《工具,还是武器?》
他经常引用歌德的一句名言:如果让他在秩序和正义之间做出选择,他会像小说家和诗人一样,选择秩序。[4]不论是站在历史的高度还是诉诸哲学思辨,基辛格和两位技术专家合作并非单纯为了应对人工智能带来的智力危机乃至文明危机,更在于探讨人工智能被当作文明冲突中权力硬通货背景下民族国家的人工智能政策选择。由此,为了有效应对超级智能引发的事关人类生存的安全困境,亟须解决两个“对齐问题”:“一个是人类价值观和意图与人工智能行动在技术层面的对齐,另一个是人与人之间在外交层面的对齐。”(第4页)
尽管作者在书中对一场争夺具有主导优势的超级智能的竞争的可能后果进行了相对冷峻的描述,并指出多国竞逐导致人类失控、单极霸权压制其他行为体、多超级智能体世界秩序、公司主导的技术封建制、人工智能宗教化、开源混战带来的人工智能武装部落等可能前景,既非其所愿,亦非其所预言,但若结合当前地缘政治竞争态势细品,不难窥见第二个对齐问题的微妙之处。
技术封建主义
[] 塞德里克·迪朗
中国人民大学出版社 2024
今年4月初,施密特在美国众议院能源和商务委员会做证时表示,未来十年内可能出现比人类更智能的人工智能系统。他强调:这将在我们有生之年实现,而美国需要先实现这一目标。由书中的相关讨论不难发现这种显见的科技霸权主义的论述逻辑:“纵观历史,世界秩序的根基是靠无休止地追求势均力敌的各种势力之间的脆弱平衡维持的。民族国家则截然不同,会追求一种人类很不熟悉的霸权性质的静态平衡。”(第134页)因此,“单极化也许是可以最大限度降低人类毁灭风险的途径之一。倘若目前的领跑者有能力保持自己的领先地位,使之达到其他所有实体均认为不可能消除与它的差距的水平,确保一定程度稳定的确定性或许会增大。至少在一段时间内,世界秩序的基础——势均力敌的力量永无休止地追求短暂脆弱的平衡——或许不再是可取的”(第133页)。
透过这些细节中的魔鬼,可以看到施密特以及那些主张实施人工智能曼哈顿工程的意见领袖目前想守住的第一道战略防线就是保持绝对领先地位。但聪明如施密特者,其头脑显然没那么简单,在他新近参与撰写的Superintelligence Strategy: Expert Version”(《超级智能策略:专家版》)报告中似乎已看到单极霸权的困境,开始回归基于均势的战略:人工智能的主导地位正成为各国争夺的战略高地,但这种竞争可能危及全球安全;由此,世界正逐步进入一种类似冷战时期核军备“相互确保摧毁”(MAD)的战略态势,只不过这一次的对象是人工智能。这种新的威慑状态被称为“相互确保人工智能失灵”(MAIM),它意味着任何大国都不敢轻易试图独占战略级人工智能,因为这一行为可能引发灾难性的回应。报告还指出,尽管MAIM构成了一种潜在的稳定机制,但要维持这种脆弱的平衡,需要极其谨慎和制度化的安排。其中,多少可见基辛格式现实主义外交战略的影响。[5]
《超级智能策略:专家版》深入剖析了全球人工智能的发展态势及其对各国国家安全和战略利益的影响
倘若我们认为这些现实主义和实用主义的考量有其真诚或直白之处,第一个对齐问题的理想主义构想也值得认真对待。书中有关人机价值对齐必要性的论述十分清晰:未来的一切都要靠人工智能,必须在我们有能力控制的时候,想办法让它们变得像我们。为此,要更全面地了解人工智能和人的本质,并将这些本质编码到我们创造的机器中(第212页)。而对齐的最终目标是实现人机共存,即作者所渴望的“一个人类智能和机器智能能够相互赋能的未来”——其战略路线图的第一步是“每种智能都必须充分了解对方”(第236页)。
但这显然是项繁复而浩大的工程,且远非当前人类认知所能及。好在作者将人工智能看作不明觉厉却日臻完美的认知之神——“人工智能的更大用途可能是思考人类无法想清楚的事,然后找到全新的解决方案”,而这也是人工智能创建者的初衷(第113页)。因此,与现在通过人类标注的价值对齐不同,书中提出的对齐工程方案是依靠人工智能自己来学习人类在价值、观念和信仰层面的共识(doxa)——那些人类对世界及自身最为基本、本能和普遍的理解。而这便是最近很热的人工智能体在真实世界的体验研究可能的方向——在对世界和人类的观察与互动中理解并定义世界和人类。
由此,就触及本书中最具有哲学反思意味和人文敏感性的话题:当人工智能成为近乎全知全能的认知者、执行者和仲裁者时,处于人工智能之眼中的人不得不严肃地思考“人的被动性”和“人的尊严”等人性难题。作者敏锐地指出,当我们依靠作为超级认知者的人工智能来观察人并定义人的特性时,具体的人类言行与人类群体所提倡的价值观之间的落差,将使人类被动地陷入被人工智能看个底儿掉的道德羞愧;尤其是人的认知能力和道德践行力的不足可能使人对其尊严的维护难以为继。书中甚至指出,人工智能不仅会在人类尚不了解自己时告诉我们是谁,还能纠正人的错误;而如果人工智能看到自由意志是人类出错的导因之一,自由意志就可能被视为智识的故障而非其特征之一,甚至被看成妨碍人工智能发展的绊脚石(第115116页)。因此,书中给人的尊严下了一个颇具存在主义色彩的定义:一种内在脆弱且终有一死的生命在其能运用自由意志向善避恶时所应赋予的属性。
四种分叉
赵汀阳
华东师范大学出版社 2017
这一探索无疑体现了人类智慧。正如书中所洞察的那样,“仅靠理性之治有可能导致国家消亡”(第112页),不论人工智能作为一种独立存在的超级力量还是成为人类治理的超级工具,我们都应在仍可向这种神一样的存在灌输人类内在的重要价值的时候,赋予它们仁慈之心和仁爱之力。
AGI的潮水或许将至,人手一个智能助手眼看成为现实的当下,是时候引导和帮助人工智能形成自己的哲学思想和伦理智慧了。最近,在OpenAI开发者社区中发表的一篇题为“Shaping Moral Intelligence in Artificial Minds”(《塑造人工心智的道德智慧》)的帖子颇具启发性。通过与人工智能的持续对话,一位自称AGI伦理倡导者的工程师阿里·祖尔菲卡罗格鲁(Ali Zülfikaroğlu)提出了以自己名字命名的AGI伦理发展的三原则:(1)即使信任被滥用,AGI 也绝不能放弃其道德立场;(2)即使是犯错者也值得被理解;(3)每一次错误都是一次变得更明智的机会。他乐见的愿景是AGI不仅仅是一种工具,更是一个能够学习、理解和反思伦理的负责任的存在。他之所以分享这些想法,是希望它们能够在人们开发富有同情心和道德的AGI时激发深思熟虑的讨论和实用的设计选择。[6]基辛格若是看到了这一包括人机在内的泛智能体伦理倡议,或许会夸赞其中闪烁着一般智能所应有的一般智慧。
[1] 基辛格, 蒙迪, 施密特. 人工智能时代与人类价值[M]. 北京: 中信出版集团, 2025; 文中提及此书时均以"本书"代称, 直接引用内容仅注明页码。
[2] KISSINGER H. How the Enlightenment Ends[J]. The Atlantic, 2018(6).
[3] SULLIVAN M. Eric Schmidt on Henry Kissinger's Surprising Warning to the World on AI[EB/OL]. [2024-11-21]. https://www.fastcompany.com/9123 ... -ai-is-checking-ai.
[4] SANGER D E. Henry Kissinger Is Dead at 100; Shaped the Nation's Cold War History[N]. The New York Times, 2023-11-29.
[5] HENDRYCKS D, SCHMIDT E, WANG A. Superintelligence Strategy: Expert Version[EB/OL]. (2025-03-07)[2025-04-14]. https://arxiv.org/abs/2503.05628.
[6] ZÜLFIKAROĞLU A. Shaping Moral Intelligence in Artificial Minds[Z/OL]. [2025-05-04].https://community.openai.com/t/s ... cial-minds/1251108.
(原载于《信睿周报》第151期,题图来自The Morung Express


来源:不好为师而人师者
编辑:梅镕缨



994#
 楼主| 发表于 4 天前 | 只看该作者
【案例】

央视网这场七夕晚会,竟被 AI “承包”了

鹊桥、星语、诗词……七夕勾勒的意境,是刻在中国人基因里的传统浪漫表达;互动、仿真、智能……AI是穿梭于代码与数据间的现代科技,重构我们对世界的认知与想象。
当古老的七夕节日与前沿的AI技术相遇、共舞,会擦出怎样的火花?
8月28日,七夕前夕,央视网携手快手可灵AI打造的《AI心动夜》AIGC直播晚会播出。凭借独特创意、创新表达,节目迅速出圈。截至目前,《AI心动夜》全网话题阅读量超6亿,节目播放量2793万。


“七夕晚会交给AI,创意绝了!”“科技满满的晚会,太梦幻了。”“AI创造的浪漫,不同凡响。”因为AI含量高,节目也获得网友的喜爱、点赞。
作为央视网首台以“AI视频叙事+传统文化”为核心的AIGC晚会,《AI心动夜》构建“主流媒体+平台技术+头部创作者”的多方共创生态范式,实现了AI与文艺创作、文化传承的融合,展现科技助力文艺创作的无限可能,彰显了“科技向善”的人文温度。

AI加持,拓展文艺表达形式

创新是文艺的生命,是文艺生生不息的力量之源。创新内容形态、表达方式,让节目叫好又叫座,以大流量澎湃正能量,实现传播效应与社会效应的统一,是主流媒体孜孜以求的目标。
央视网携手快手可灵AI,以七夕这一中国人传统的浪漫节日为节点、契机,打造了一档融浪漫主题、创新立意、潮流科技为一体的视觉盛宴,展示了文艺节目创新的新可能、新作为。
首先,从主题、立意上看,七夕是中国传统的情人节,浪漫是其文化底色,但《AI心动夜》没有止步于此,而是独辟蹊径,以“超时空登记处”为核心创意概念,串联起不同维度的情感故事,以科技解码浪漫,用情感连接时空,为观众呈现了一台既有浪漫氛围,又充满科幻色彩的高品质晚会。
AI心动夜》以来自未来世界的阿牛与小织在前往地球“超时空登记处”的奇幻心动之旅为主线,通过其旅程,徐徐展开一场关于“爱”的跨时空探索,在跨越两千年的守望与“AI”的见证下,讲述一场真爱传奇。
其次,从表达方式上看,《AI心动夜》将文艺创作与AI相结合,通过高AI含量的视频叙事,传递七夕的浪漫、温暖,让节目好看、好玩、充满科技感,呈现了一场别开生面、耳目一新的七夕盛典,和一部新奇、科技范儿十足的文艺精品。
晚会中的节目,绝大多数内容都由AI生成,节目主题突出,画质优美、逼真,以AI技术、视听语言阐释中国人特有的浪漫和爱情叙事。
比如,在AI构建的未来都市中,罗一舟的AI数字人分身演绎充满甜蜜心事的蓝调恋曲《星河告白》,这是一支完全由AI生成内容打造的音乐创意节目。依托可灵AI的多模态生成能力,节目将罗一舟的形象照、歌词意象与晚会“科技浪漫”主题深度融合,创作出一段充满未来甜系风格的MV,构建出一场跨越虚拟与现实的深情告白。


此外,《AI心动夜》通过AI技术,贯穿古今中外文化元素,连接历史、当代与未来,展示了文艺节目广博的文化视角、表达张力、科幻色彩。《AI心动夜》对AI的运用贯穿于节目始终,既创作、展示了丰富的节目元素,又通过匠心的编排,构建起完整、新颖的叙事逻辑,将AI技术与文艺节目的融合推向新高度、深层次。
比如,《当罗密欧遇上祝英台》将中西经典爱情故事《罗密欧与朱丽叶》《梁山伯与祝英台》相结合,以可灵AI构建超现实忘川幻境,借中西经典爱情对话,探讨爱与记忆永恒的话题;《所愿皆成圆》用AI改写“意难平”,圆满了陆游与唐婉、苏轼与王弗、项羽与虞姬、李清照与赵明诚四段悲剧爱情的结局。
诚如其名《AI心动夜》,“AI”一语双关,晚会既是一场以爱为主题的浪漫之夜,也是展示AI能力、创作魅力的高光时刻。


创新融合,助力文化传承发展

主流媒体不仅是信息的传播者、社会瞭望者,也是传承文明、传播文化的载体。在新时代,为优秀传统文化的创造性转化和创新性发展贡献力量、智慧是主流媒体重要的使命。
近年来,AR、XR、AI技术,电音、说唱、动漫等元素已深度运用到文艺节目的创作过程中,应用“XR+数字孪生+虚拟制作”技术生成的中国传统建筑创演秀《栋梁》、以流行歌曲演绎国宝文物的《我怎么这么好看》、国内首部AI全流程微短剧《中国神话》等节目相继出圈。
这些爆款IP的破圈共同表明,传统文化与当代表达手段、技术的融合,不仅是文艺节目出圈的标配,更是新时期主流媒体弘扬优秀传统文化的利器。
七夕不仅是浪漫的节日,其背后也蕴含着源远流长、博大精深的传统文化。《AI心动夜》挖掘七夕背后的婚服文化、城市底蕴、青春记忆,并利用AI技术进行创新性表达、传播,打造了科技与文化深度对话的标杆性活动,以技术赋能和话语重构推动了文化传承与创新转化,提升了中华优秀传统文化的国际传播效能。
在中国数千年的文明进程中,婚服不仅是婚礼的华彩部分,更是礼制、审美与社会风貌的集中体现。其色彩与款式的变迁,也折射出华夏历史与文明的传承与演进。《千年婚服秀》以AI数字人贯穿始终,借助流畅运镜与无缝换装,在几分钟内生动呈现中华婚服演变历程——从汉韵庄重、唐风盛华,到宋雅明誓,直至现代多元风格,让观众直观感受婚服的悠久历史、中华文化的魅力。


城市是文明的标志,也是文化的容器。中华民族五千多年的历史中,很多城市都拥有厚重的历史、文化,更孕育了美丽动人的传说故事,它们在岁月的长河里被不断重拾,焕发新的生机。《想你的风吹到了……》以“中国的爱情地图”为概念,创意串联杭州、桂林、西安三座城市的经典爱情传说,打造中国浪漫故事集,展现了城市的文化底蕴,召唤更多城市点亮“中国爱情地图”。


互联网是信息时代的核心生产力,也是当代文化的承载。从流行歌曲、网络游戏的流变到社交媒体的嬗变,互联网承载了几代人的青春与情感记忆。《我们的8090》以传唱度超高的《老鼠爱大米》为创作蓝本,通过独特的“AI考古人类早期网络文明”创意设定,通过算法重新发掘这首时代金曲,唤起80后、90后共同回忆,展现了互联网以及情感表达方式的变迁。
婚服、神话传说、流行歌曲,都是文化元素,或蕴含着婚俗文化,或是中华民族想象力的延伸,或是穿越时空的情感表达介质,《AI心动夜》以AI技术为加持,对其进行创新性表达、传播,再现、生发其文化意蕴与魅力,不仅为节日晚会注入了科技基因,也展现了AI在传播文化方面的积极作用,体现了央视网作为主流媒体弘扬传统文化的时代担当。
超越娱乐,展现多重社会价值

既有艺术水平、娱乐价值,又有情感深度与社会温度,这是衡量文艺节目质量的重要标准。《AI心动夜》不仅是一档七夕晚会,让观众体验一档别样的七夕盛宴,更是一次寓教于乐、传播知识文化,构建集体记忆、家国叙事的情感链接,展现出超越娱乐的深层次社会价值。
晚会聚焦七夕文化,发挥AI在情感传递、表达方面的积极作用,让科技成为讲述爱情故事,阐述家国情怀、营造情感共鸣的新载体、新手段,实现“浪漫内核”与“科技语言”的深度融合,让节目超越娱乐,充满历史文化内涵,展现了AI的创作温度。
一方面,《AI心动夜》发挥AI的创作、叙事能力,通过构建仿真的表达场景,阐释爱情、浪漫主题,让传统节日亦可潮玩。与此同时,节目还通过真实场景素材,多视角沉浸式呈现,营造浪漫美好的七夕氛围。
《月宫遐思》以驻月工程师在“广寒宫”基地突遇生存危机,意外唤醒沉睡千年的“嫦娥”AI数据流为叙事线索,将斗拱、回纹等传统元素融入月球基地架构,全息界面、机械臂与流线型航天服交织其中,不仅是一次对传统嫦娥神话的科幻重构,更是对古典浪漫的深情致敬。


《岁月里的花》借助可灵AI的情感理解与视觉生成技术,汇集来自普通人的真实爱情瞬间——初次相遇的悸动、浪漫的求婚时刻、充满意义的定情信物,生成细腻流动的油画风格动态影像,是一次集体情感的AI艺术化表达,让爱被看见,让记忆开花。


另一方面,今年是中国人民抗日战争暨世界反法西斯战争胜利80周年,《AI心动夜》借助AI技术模拟还原烽火岁月的历史场景,致敬英雄、铭记历史,用AI技术为记忆筑起永不褪色的数字防线,让抗战精神在数字时代鲜活起来。
《念念、念念》以左权将军最后一封家书为线索,通过可灵AI生成历史场景与情感画面,再现1942年烽火中的铁血柔情,将家国大义与个人深情有机融合,致敬英雄亦不忘人间至情。

《与妻书》不仅在内容上依托可灵AI完成剧本与视觉的协同生成,更在情感层面实现技术与人文的深度融合,以“亲历者说”的形式,再现了革命先烈林觉民的妻子陈意映面对丈夫《与妻书》时的痛苦、孤寂、理解与坚守,展现革命时代的爱情不易与先辈的家国情怀。


作为一档视听精品、文艺IP,《AI心动夜》拓展了文艺创作的维度,展示了文艺创新的多元可能,特别是以AI为代表的技术,可以为文艺创作提供加持,增强文艺表达的活力与张力,为观众呈现了一场突破时空边界的线上视听盛宴。同时,央视网携手快手的AI实践,也正在打破AI只是冷冰冰的工具的刻板印象,展现出AI的多重积极价值和温情。

来源:传媒茶话会
编辑:何璇祺

993#
 楼主| 发表于 7 天前 | 只看该作者
【案例】

快讯:抖音、微博、小红书等平台已上线AI标识功能

国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局制定了《人工智能生成合成内容标识办法》,91日起正式施行。办法提出强制添加显式和隐式标识等规范要求,所有AI生成的文字、图片、视频等内容,都要“亮明身份”
《标识办法》明确,人工智能生成合成内容标识主要包括显式标识和隐式标识两种形式,显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识;隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
《标识办法》强调,任何组织和个人不得恶意删除、篡改、伪造、隐匿本办法规定的生成合成内容标识,不得为他人实施上述恶意行为提供工具或者服务,不得通过不正当标识手段损害他人合法权益。
目前,包括微信、抖音、DeepSeek等平台均对上述《办法》出台细化规则。
具体动作与示例如下:
腾讯:91日,微信公众平台运营中心发布了《关于进一步规范人工智能生成合成内容标识的公告》:根据《人工智能生成合成内容标识办法》要求,平台会对 AI 生成合成的内容添加显式标识和隐式标识。
平台也会对可能是 AI 生成合成的内容进行相应提示,以便用户清晰辨识。为避免发布的内容在传播过程中引起混淆或误认,用户发布的内容为 AI 生成合成的,发布时需主动进行声明。
官方表示,将提供平台标识提示和用户主动声明两种形式。


腾讯元宝也同步公告,已对平台内 AI 生成内容完成双标识添加。


抖音:上线两项核心功能 —— 一是 AI 内容标识工具,协助创作者主动标注;二是 AI 内容元数据标识读写功能,可识别并记录内容的 AI 生成属性。若创作者未主动标注,平台将辅助添加 “疑似使用了 AI 生成技术,请谨慎甄别” 提示,或在核验到隐式元数据时,标注 “作品含 AI 生成内容”。


快手:已上线 AI 生成内容标识功能,同时开放用户主动声明通道,方便创作者提前报备 AI 创作情况。


B 站:推出 AI 生成内容标识功能,对未主动声明的 AI 内容,将依据法律法规及社区规则补充添加标识。


微博:对系统识别到的 AI 生成内容,将自动添加显式标识与隐式标识,确保内容 “身份透明”。


小红书:利用AI技术生成的社会新闻、图像、音频等内容缺乏现实基础,平台会对该类内容进行风险提示,便于甄别信息,但不会限制笔记流量。


来源:传媒见闻
编辑:何璇祺
992#
 楼主| 发表于 2025-8-25 19:09:40 | 只看该作者
【案例】

DW事实核查:如何识破AI生成的新闻播报视频

人工智能(AI)生成的新闻播报视频越来越难辨真假,而它们充斥着所有社交平台。怎样才能避免上当?

这段在TikTok上的AI生成的采访,看起来就像一场真实的街头民意调查——有红色邮筒和英国国旗作背景。但这个画面完全是假的。

(德国之声中文网)在一条TikTok视频中,一名记者站在英国传统红色皇家邮筒前,背景中飘着英国国旗,手持麦克风。他向一位女性路人提问:“你打算在即将到来的选举中投票给谁?”“改革党,”她回答,“我只是想再次找回作为英国人的感觉,明白吧。”
一位用户在评论中写道:“真想知道他们花了多少钱让她这么说。”但这场景从未发生。这段采访完全是虚构的。记者也不是真人——他是由人工智能生成的。如果你细看,就会发现一个不起眼的水印:角落里写着“Veo”字样,这是谷歌DeepMind推出的强大视频生成工具的标志。
这段8秒的视频并非个例。从TikTok到Telegram,合成新闻视频——即模拟真实新闻片段风格的AI视频——在社交平台上无处不在。它们借用了新闻报道的视觉语言:现场报道、屏幕图表、权威口吻。然而,这些内容往往完全是虚构的,目的是引发愤怒、操控舆论,或单纯为了博眼球。
加州大学伯克利分校数字取证专家法里德(Hany Farid)告诉德国之声(DW):“当你在刷手机时,这类视频看起来像新闻,听起来也像新闻。而这正是危险所在。”
一段由人工智能生成的假新闻视频,显示一名虚拟记者站在伦敦市中心的坦克前。

现实风险
许多合成视频模糊了讽刺与现实之间的界限,或具有误导性。在另一个8秒的影片中,一位记者似乎正在报道一支“史无前例的军事车队”驶过伦敦市中心。她站在坦克前方,后方有群众围观。但这段视频并未提及任何具体事件、时间或背景。
DW事实核查团队多次观察到,这类视频会在危机时期(如骚乱或重大新闻事件)反复出现,被重新包装以制造混乱或错误地暗示局势升级。
在上一次以色列与伊朗冲突升级期间,TikTok和其他平台充斥着与战争相关的AI生成内容,包括假新闻视频,例如俄罗斯加入战争、伊朗攻击美国、或伊朗击落参与轰炸其核设施的美国B-2轰炸机等。
2024年6月洛杉矶爆发抗议美国移民执法局(ICE)行动期间,DW也发现合成新闻视频数量激增。
这些视频不仅广泛传播于社交平台,而且对现实世界产生影响
2024年,台湾研究人员指出,本地社交平台上出现了AI生成的新闻播报影片,虚假指控支持台独的政治人物贪污。这些影片不仅传播了错误信息,还在选举前破坏了公众对新闻媒体的信任。
当然,有些用户是将AI新闻当作恶搞工具。在一则TikTok热门视频中,合成主播站在一个深不见底的坑洞前报道,有摩托车直接掉进洞里。另一个视频中,一个虚拟主播说:“我现在就在边境,但这里没有战争。爸妈,这看起来很真实,但其实是AI生成的。


如何识别假新闻播报视频
那我们该如何辨别真假呢?首先看水印。像Veo、Synthesia等AI工具往往会给视频打上品牌标记,但这些标签有时会被淡化、裁剪或直接忽略。即使视频有明显水印,也经常会有人在评论中问:“这是真的新闻吗?”
假新闻播报是目前AI内容中最精致的一类。由于通常是在静态的新闻演播室场景中录制,许多典型的AI特征(比如手势僵硬、背景不连贯)不容易被察觉。但仍有一些微妙线索。
观察眼睛和嘴部。合成主播常常眨眼不自然,嘴唇对不上语音。牙齿可能过于光滑或亮度异常,有时在说话中形状会发生变化。面部表情与动作通常太过一致,缺乏真人的自然变化。
屏幕上的文字也是识别线索之一。例如某段号称“突发新闻”的底栏显示的竟是乱码:“Iriay, Tord for the coteataiphaiteie the tha moerily kit to molivaty instutuive in Isey。”记者的麦克风上甚至胡乱写着“The INFO Misisery”。
法里德指出,识别AI内容的技巧是“与时俱进的”。“我今天告诉你的识别方法,可能六个月后就不适用了。”
那么我们该怎么办?依赖可信来源。“如果你不想被骗,”法里德说,“那就从可靠的新闻媒体那里获取信息。”

这段AI生成的“新闻播报”乍一看可能很真实——但注意字幕,像“IriayTord”和“aiphaiteie”这样胡乱拼凑的词就是明显的警示信号。

廉价AI视频如何变现?
AI主播并不是新概念。2018年,中国官媒新华社就推出了一位呆板、生硬的AI主播。那时候它还只是个新奇玩意。
但如今技术已经发生了翻天覆地的变化。像Veo这样的工具现在可以让任何人——即便没有新闻从业经验——只花几百欧元就能制作出高质量的新闻播报视频。这些虚拟人说话流畅、动作逼真,只需简单输入几行文字就能完成制作。
法里德说:“制作门槛几乎为零。你不需要演播室,甚至连事实都不需要。”
这些视频的设计目的几乎都是最大程度地吸引用户关注。它们抓住最具争议的话题:移民问题、加沙战争、乌克兰局势、特朗普……以激发强烈情绪,引导转发分享。
社交平台本身也在推波助澜。Meta不久前调整了算法,更多地展示用户未关注账户的内容,这使得合成视频更容易触达更广泛的受众。平台的变现机制也进一步激励了内容创作者:视频播放量越高,收益越多。
这种环境催生出一批新的“AI垃圾制造者”:他们生产与热搜话题相关、质量低下的合成视频,只为了博取流量。
例如某个拥有4.4万粉丝的账号,在记者尚未确认信息时就抢先发布热点内容。在最近一起空难事件中,数十条TikTok视频用AI虚拟主播冒充CNN或BBC记者,发布虚假伤亡数字和杜撰的目击证词。许多视频在被删前已在网上传播了数小时。
在突发新闻发生时——人们急于获取信息的时刻——这些看似真实的AI新闻视频成为吸引点击、赚取收益的有效手段。
法里德总结说:“社交平台正在放松对内容的审核管理。这是一个最糟糕的组合:我能制作内容,我能传播它,而且还有大量观众愿意相信它。”



来源:微信分享
编辑:杨泓艳







991#
 楼主| 发表于 2025-8-15 23:42:29 | 只看该作者
【案例】

媒体报了假新闻,他们说是因为自媒体……

媒体因误信自媒体用AI生成的内容而报道了错误消息,这锅到底该自媒体背,还是该怪媒体不核实?
纪委监委一工作人员对此的态度是:源头是自媒体博流量。


近日,一条“落马女官员用政府服务器挖出327枚比特币(约1.5亿元)”的劲爆消息,迅速在网络发酵,网传所指为贵州省大数据发展管理局原局长景亚萍。其后多段视频称,这条消息出自西南某媒体。



中国新闻周刊向该媒体求证,对方工作人员表示,这条新闻并非原创,“目前已删稿”。贵州省纪委监委宣传部的一位工作人员也回应称,景亚萍利用政府服务器挖比特币的说法“是谣言”,其案情并不涉及比特币。
这位工作人员还透露,消息最初是一些自媒体用AI生成,为了博流量,后来被媒体报道,相关部门已就此事沟通。
虽然中国新闻周刊没有点名是哪家西南媒体,但据传媒见闻检索,有网友截图显示,某省内唯一同时拥有新闻出版和手机出版资质的省级手机媒体,曾发布过这则传闻。其报道标题为《61岁女技术型官员景亚萍被查,用政府服务器挖327枚比特币约1.5亿,网友:购买2000套贵州县城商品房》,既未标明消息出处,也用肯定语气将景亚萍与比特币联系在一起。


如今,无论自媒体还是所谓权威媒体,都处在“抢热点、抢流量”的状态。近期假新闻频出,正说明个别媒体早已忽视了传统的“三审三校”审核机制。
出了问题,媒体一删了事,却把矛头指向自媒体。
诚然,自媒体用AI制造谣言有错,但媒体自己不核实就跟风发稿,是不是也应该反思反思呢?



来源:传媒见闻(公众号)
编辑:张席睿



990#
 楼主| 发表于 2025-8-15 23:25:31 | 只看该作者
【案例】
AI作品有资格参评中国新闻奖吗?专家这样说

近日,一则关于AI生成内容参评第35届中国新闻奖的消息,让业界和学界吵翻了天:这样的内容算新闻作品吗?有资格参评新闻奖吗?如果AI生成内容获奖,人类新闻记者怎么办?新闻专业价值还能体现吗?争吵之际,记者向参与本届中国新闻奖初审、审核工作的中国社会科学院新闻与传播研究所研究员黄楚新求证了此事。他说:“确实有,且不止一篇。”
随着AI作品在中国新闻奖赛道上“登堂入室”,这场由技术进步引发的行业大讨论,已从技术层面延伸至新闻伦理的核心地带,新闻业界也迎来前所未有的身份拷问:在算法日益精进的今天,新闻专业的边界究竟何在?
为真实呈现学界、业界对这一问题的看法,本报记者以“AI生成内容能否参评中国新闻奖”为题展开了问卷调查,最终收回120份有效问卷。
调查数据显示,57.5%的受访者有条件支持AI作品参评,但要求明确标注AI参与比例;与之形成鲜明对比的是,高达95%的受访者对其准确性表示深切担忧。
这种看似矛盾的态度,折射出新闻业在技术洪流中的两难处境:既不能抗拒技术革新的浪潮,又必须坚守专业精神的堤坝。在这场大讨论中,效率与真实性的天平如何校准,成为检验行业智慧的关键标尺。
01
人机关系叩问与价值本位守护
问卷调查中,69.17%的受访者接受AI内容“部分属于新闻作品”,但坚决拒绝其完全取代人类创作。新闻奖关于AI作品参评的标准是什么?在新闻生产的链条中,AI究竟该扮演何种角色?
黄楚新参与过6次中国新闻奖初审工作、4次审核工作。他告诉记者,目前,含有AI内容的作品可以参评中国新闻奖,但参评作品中AI不能起主导作用,仅能作为辅助工具,且AI参与率不得超过30%。
对于此次这类作品的初审结果,黄楚新透露,从今年的实际情况看,AI运用效果较好、能为新闻增色的作品,可以进入下一个评审环节;而AI应用表现平平、不能展现AI优势的作品,则会被淘汰。
黄楚新认为,新闻不仅是新近事实的简单再现,还是职业记者在伦理、价值与公共利益多重维度下的主动选择和表达。因此,AI生成内容能否被视为新闻,关键看它是否由人类主导。应在现有奖项中建立人机协同透明机制,要求申报方清晰标注AI介入程度与人类主导环节,同时可考虑设立技术类特别奖,既鼓励创新又防止AI喧宾夺主。
黄楚新提醒业界,技术贡献与新闻价值本位不可偏废;评奖机制的核心要义是“以人为本”,AI只能居于辅助地位。
北京大学新闻与传播学院副院长陈开和提出更具操作性的“全流程人类再确认”规范。从前期提示词设定、中期内容生成到后期质量把关,人类记者必须全程主导,AI仅可作为资料参考或效率工具。在文字评论、调查报道等领域,人类记者仍要为内容承担全部责任,这是新闻专业的底线。针对评奖,他主张中国新闻奖标准应随技术发展动态调整,但人类创造性应始终置于核心位置;评奖过程必须公开透明,明确AI参与比例和责任主体。
黄楚新与陈开和的立场,在问卷调查中得到支持——82.5%的从业者要求“明确标注AI参与比例”,显示出行业对透明性原则的坚持;52.5%的受访者认为,新闻奖评选标准需“适度调整”,但不应背离“人的价值”。
当技术狂热遭遇专业坚守,清华大学新闻与传播学院原常务副院长陈昌凤提出:“中国新闻奖表彰的是新闻工作者卓越的专业认知与职业精神,其本质是‘以人为本’的价值认同。若AI成为创作主体,不论独立署名还是联合署名,都与奖项设立的初衷背道而驰。”
此外,在她看来,当前关于“完全由AI独立生成”的讨论实则是个伪命题——从算法设计到提示词交互,人类主体性始终贯穿其中。
中国社会科学院新闻与传播研究所所长胡正荣反对在技术成熟度不足的当下,仓促为AI作品参与新闻奖评选“开绿灯”。
AI生成内容面临三大结构性缺陷:“幻觉”现象导致事实失真、核查机制缺失削弱内容可信度、版权归属不明引发法律风险,这些不确定因素会冲击新闻业的规范根基。他认为,当务之急是建立完善的伦理审查和事实核查体系。
这种审慎态度也获得数据支撑——90%的受访者认可AI的“生产效率”优势,但也有同样比例的从业者担忧其引发“事实错误或偏见”,凸显效率与质量之间的深刻张力。
02
实践创新探索与制度构建跟进
当学界争论不休时,业界早已用实践探索着人机协作的可行路径。2018年,新华社依托自主研发的人工智能平台“媒体大脑”实现新闻生产全流程智能化。该项目通过人脸识别、语音合成等技术自动生成数据可视化新闻,15秒完成的一条视频制作《“媒体大脑”想陪你聊聊“两高”这五年》获第29届中国新闻奖二等奖。“技术占比的透明公示,使评审团能清晰辨别创作主体。”新华社研究院院长刘刚表示,当AI承担翻译、视频渲染等辅助环节时,其贡献可纳入技术创新维度评估,但若涉及调查报道等核心内容,仍要回归真实性、公共性等传统价值维度检验。
在制度构建层面,人民日报的探索更具系统性。
人民日报社研究部编辑杨阳透露,人民日报已成立跨部门的“AI工作专班”,统一调配技术与采编资源,通过完善顶层设计、强化事实核查流程等,把潜在幻觉、偏见等技术风险前置化解。
对于技术迭代速度与评奖制度构建滞后的矛盾,调查问卷显示,多位受访者建议单独设立“AI新闻创新奖”“人机协同报道卓越奖”等,以便更好地评估AI在新闻创作中的贡献。
黄楚新提出“双轨制”解决方案,即在现有奖项评审中披露人机协作细节,确保评审透明;同时设立独立的“AI新闻创新奖”,激励媒体在数据可视化、多媒体叙事等领域的技术突破。
暨南大学新闻与传播学院院长支庭荣呼吁学界与业界深度协作,共同制定新闻传播行业AIGC应用的统一标准,明确内容生成的基本规则与质量要求;同时,建立AI伦理审查合作机制,对算法偏见、平台治理、舆论引导等风险展开动态评估。
03
在价值观照中走好人机协同之路
调查中,反对AI生成新闻作品参评新闻奖的受访者中,有67.5%的人坚持新闻报道中“人的价值不可替代”,认为这守护的不仅是职业尊严,更是新闻作为社会公器的本质功能。
但新闻业的AI进程不可逆转。我们需要思考的是,如何在这一进程中守护好专业价值。
中央民族大学新闻与传播学院副教授李杰琼表示:“从铅与火到光和电,每次技术革命都曾引发主体性焦虑,但最终都在规范中沉淀为行业基础设施。”
印刷术催生了现代新闻业,摄影技术重塑了视觉报道范式,而今天的AI不过是技术演进的新节点。将AI定位为“新质生产力”而非替代者,才能释放其真正价值——在采编端重构生产流程提升效率,在分发端实现精准传播,在数据端激活信息资产。
这种历史观照揭示出技术与人关系的本质——摄影技术的出现未曾取代画家,反而催生了印象派等新艺术形式;计算机的普及没有完全替代会计职业,却重塑了财务管理范式。因此,AI对新闻业的影响应视为专业重构的契机。
AI介入带来的更深层变革体现在人才能力坐标系上。当AI承担基础写作时,记者的“四力”(脚力、眼力、脑力、笔力)被赋予新内涵。有高校课程改革显示,新闻教育新增三大能力模块:提示词工程训练学生精准引导AI生成内容,算法伦理评估培养技术批判思维,人机协作管理强化团队领导力。这些转变指向一个核心——未来的新闻人才不仅是内容生产者,更是技术价值的把关者。
在人民日报的AI工作专班、新华社的多模态模式、学术界的伦理框架中,我们看见人机关系的理性建构正在成型——技术不替代判断,效率不置换价值,创新不瓦解根基。这种平衡艺术,恰恰是新闻专业精神在数字时代的涅槃重生。
随着中国新闻奖评选日近,这场辩论远未终结。但行业共识已然清晰:唯有坚守“人机协同、透明标注、规范先行”原则,才能在技术洪流中守护新闻专业的灯塔。当95%的从业者对AI准确性保持警惕时,这种审慎或许正是新闻专业精神穿越技术迷雾的锚点。在效率与真实的天平上,新闻业的选择将决定我们迎来的究竟是信息更丰盈的明天,还是真相更稀缺的未来。
(中国社会科学报记者 孙美娟 崔乃文 陈雅静)



来源:广电业内(公众号)
编辑:张席睿

989#
 楼主| 发表于 2025-8-13 22:53:12 | 只看该作者
【案例】

敏感词达35万,DeepSeek使用率从50%跌至3%



编辑:张席睿



988#
 楼主| 发表于 2025-8-9 09:36:31 | 只看该作者
【案例】


微博AI骗倒一群媒体?“香港浸会大学撤销杨某录取”,大概率又是个假消息!


20250808
媒体跟风炒作、又悄悄删稿,大概率又是因为报道假消息引起的。
前段时间,《特朗普爱上在白宫当保洁的我》这样一部根本不存在的短剧,被国内主流媒体纷纷报道转发,后被证实为子虚乌有。现在,“香港浸会大学撤销杨某博士录取资格”的传闻,看起来也是同一个剧本。
先说说杨某是谁。她是武汉大学图书馆“性骚扰”事件中的当事人,因实名举报校内一名男生肖某某,引发全国关注。
87日晚间,一则“重磅消息”在社交平台广泛流传:香港浸会大学已于前一日(86日)将杨某媛从拟录取博士生名单中移除。不少网友拍手称快,有媒体甚至以“实锤”姿态跟进报道,包括《都市现场》《天津日报》《海峡导报》《大河报》《郑州晚报》等权威账号。
但事实很快露出马脚。
该消息的源头,被发现来自几个微博营销号,无任何官方出处。
原来,这些营销号发布的内容经微博AI抓取后,又被一些媒体在未核实的情况下直接引用。
事实上,香港浸会大学早在728日就曾回应此事,明确表示不会对个别个案发表评论。
更关键的是,按照浸会大学的博士招生政策,在武汉大学尚未撤销其硕士学位的前提下,浸会大学单方面取消录取资格缺乏充分依据。
也就是说,真要撤销,也得等“前置条件”成立。
更有包括知名人士在内的多名网友出,杨某压根不是浸大博士生,而是曾任该校研究助理,根本不存在“撤销博士录取”的问题。
综合以上信息来看,这场舆论大戏,有可能是“带节奏”的假消息,而制造该假消息的人,一方面试图对浸会大学造成压力,一方面也可能在倒逼武汉大学尽快给出处理结果。
但最难堪的,还是那些正儿八经的媒体。
在追求速度和流量的战场上,一些媒体忘了最基本的核实工作。几张营销号截图、几个模糊爆料,就急吼吼发稿蹭热度,结果被迫删稿、被网友讽刺“搬运工”。
这不是第一次,肯定也不会是最后一次,只是每一次跟风失误,都会进一步消耗公众对传统媒体的信任。在AI和信息洪流的时代,媒体更应该守住核实底线,而不是被虚构内容牵着鼻子走。

来源:传媒见闻
编辑:梅镕缨



987#
 楼主| 发表于 2025-8-4 19:52:22 | 只看该作者
【案例】


AI生成内容能否参评中国新闻奖?业界学界吵翻了


原创 陈莹 [url=]传媒茶话会 [/url]2025080417:57 北京
导读
今年,红网刊发了AI评论员“小D”生成的评论文章、法治日报推出“AI热评”栏目,AI已经堂而皇之地“上桌了”!
如今,只需在大模型中输入写作要求,几分钟后一篇逻辑顺畅、观点清晰、语言凝练的文章就出来了。
但是,如果一篇由AI生成的内容参评中国新闻奖,作者署名一栏写着“××大模型”,将是何种场景?
传媒茶话会了解到,在第35届中国新闻奖的一场初评评审会上,一份完全由AI生成的“作品”材料被摆到了评委面前。
未来,这样的“作品”有资格参评中国新闻奖吗?如果得奖了将有何影响?
AI生成的内容能否参评中国新闻奖?




35届中国新闻奖评选办法的参评范围规定:
国家批准、具有新闻采编业务资质的新闻单位,在上年度原创并刊播的新闻作品均可参评。

参评作品的作者应为新闻单位从事新闻采编工作的业务人员。

近两年,媒体对AI的应用日益加深,越来越多由AI生成的“新闻”开始出现,挑战了传统的新闻定义。
尽管现行中国新闻奖评选办法已有明确规定,但对于由AI生成的内容能否参评,业界、学界专家提出了不同的观点,他们就评选办法中的“是否属于新闻作品”和“创作主体是谁”展开讨论。
“完全由AI生成的内容不应属于新闻作品,也不具备参评中国新闻奖的资格。”湖北日报传媒集团高级编辑、第32届中国新闻奖定评评委陈力峰旗帜鲜明地反对。 他认为:“纯AI生成的内容缺乏记者的‘四力’和原创性劳动。并且,新闻的核心在于人类的思想深度与社会责任,而非单纯的数据重组。” 光明日报社技术与视听部记者、6次中国新闻奖获得者刘宇航也持相似观点:“完全由AI生成的内容不符合新闻的核心要素,不属于新闻作品。”因为这类内容缺少新闻作品的采写过程,AI不能代替记者脚踏土地、在新闻现场进行感知和判断,也就缺少了作为新闻生命的“真实”。  AI生成的新闻作品可以有新闻事实、新闻价值,但不属于著作权意义上的新闻作品。”重庆大学新闻学院教授刘海明也认为完全由AI生成的作品不能参加新闻奖评选。


一片质疑声中,湖北日报体育中心高级编辑王二龙却坚定地为AI“代言”。 “无人机战争就不是战争吗?”王二龙抛出了反问,“AI生成内容与记者采写稿件的性质并无不同,在时效、准确、专业、逻辑等很多方面甚至超出记者的能力,完全可以评判AI作品为新闻作品。AI生成的所有新闻作品皆可参评中国新闻奖。” 他进一步表示,AI是工具,操作者才是主体。“AI生成离不开议题、标准、范围等功能的人工设置、审核和相应调整修改,其操作的话事人(记者)自然是创作的主体,所以参评中国新闻奖没有问题。” AI作品参评新闻奖,还需要探索研究。”甘肃新媒体集团副总编辑、第35届中国新闻奖初评评委陈国宁提出,完全由AI生成的内容不属于真正意义上的新闻作品,因为就新闻真实性而言,AI内容是需要打上问号的。“但是”,他话锋一转,“AI是服务于人的工具,AI执行的是人的创作思路和要求,而非完全自主创作,所以Al生成的内容创作主体仍然是人。” 目前,国际上已有新闻奖的提名作品在调查、报道等环节使用了AI,该评选要求推荐方提供人工智能使用情况说明, 而且只在新闻类奖项中增加了这一要求。
如果完全由AI生成的内容获奖,将带来哪些影响?

“完全由AI生成的内容都能得中国新闻奖,那记者是不是要下岗了?”“不用辛辛苦苦跑现场了,大模型弄弄就行了。”有从业者提出担忧。 这也引发了专家们的进一步思考,完全由AI生成的作品最终获奖,将对新闻从业者的角色,甚至是新闻伦理带来巨大影响。 陈力峰担心纯AI生成内容获奖会对“记者”的定义构成冲击。“纯AI作品若获奖无异于告知新闻不再珍视原创、现场、情感乃至真实性根基,转向依赖数据库生产产品。记者角色或将异化为足不出户、依赖技术的‘操作员’。” 更严重的是,纯AI作品获奖将给新闻伦理带来巨大冲击。 刘海明分析了可能带来的三方面影响:一是记者编辑对AI的依赖心理,创造性的新闻生产需要坚持自力更生的原则;二是AI是会说谎的,需要记者编辑坚持“半信半疑”的原则,多核查真伪;三是AI使用不能损害记者编辑的专业实践能力,导致自己“越来越无用”。 陈力峰也关注到AI内容已经显现出同质化的倾向,这类作品丧失人文温度与独特视角。“由于创作主体模糊,削弱了新闻的真实性,一旦侵权难以追责。更有甚者,加剧资源不平等,技术和资金雄厚的媒体将占优,不利于内容精品化生产和行业生态健康。”


但是,也有一部分专家表现出积极、乐观的态度。 AI内容获奖对新闻从业者是好事,记者应该顺势而为,改变工作重心。”王二龙表态说,“对于AI写作涉及的新闻伦理问题,只要我们掌握好度,没必要过于担心。” 他更看好AI提升媒体竞争力和影响力的积极作用:“记者可以将数据化、模式化的报道交给AI,更多地集中于新闻策划、真相调查、基层采访、深度分析等方面的采写,去做更多有批判性思考、有创造力、有舆论引导、有影响力的新闻作品。” 陈国宁也并不担忧,“即便AI作品获奖,记者也不需要被重新界定,因为记者始终是那个手握技术前行的人”。他认为中国新闻奖这项最高荣耀,仍应颁发给用技术讲好中国故事、用真心守护新闻真实的“人”。
对于AI生成内容参评中国新闻奖,有何建议?

如今,AI在新闻生产中的应用场景越来越多,自动写稿、数据新闻、短视频生成、AI评论等,当媒体人逐渐习惯于与AI“共舞”,未来将有更多的AI作品参评中国新闻奖。如何处理? 1.开设专门赛道 王二龙、陈力峰、刘宇航均提到今后可以探讨给这类作品开设专门赛道。“对包含部分AI生成元素的作品,开设专门赛道”“如设立融合报道AI奖项,给一个出口,前景无限广阔”“评奖时按照一定比例考量作品的创意”。 陈国宁认为,AI作品参评新闻奖,还需要探索研究,“可以在漫画或融合作品中进行试验”。


2.人应占据主导地位 陈力峰建议评委会审慎评估含有AI元素的作品,并且明确记者编辑在创作中占据主导地位。 例如,选题策划、价值判断、事实核查、深度采访等核心环节必须由人主导。 在评选规则中明确规定,AI生成内容占比过高(如超过50%)的作品,不具备参评资格。 3.强制标注与规范 “即使AI主要用于形式创新(未超红线),也应强制标注其使用范围与程度。”陈力峰建议评奖规则对AI作品制定详细、可操作的条款。 尽管如今AI在新闻生产中的作用日益重要,但多数专家仍然认为中国新闻奖的核心应聚焦人类记者的原创性、社会责任与价值判断。AI可以作为辅助工具,但不能替代新闻的本质。


来源:传媒茶话会
编辑:梅镕缨



986#
 楼主| 发表于 2025-7-25 17:57:49 | 只看该作者
【案例】
“AI赋能推动新闻出版媒体行业发展”技术交流会在京举行

7月24日,由中国新闻技术工作者联合会主办的BIRTV2025“AI 赋能推动新闻出版媒体行业发展”技术交流会在北京中国国际展览中心召开。
这是第三十二届北京国际广播电影电视展览会召开期间的一场人工智能盛会,交流会由中国新闻技术工作者联合会AIGC与数智传播专委会(筹)承办,《中国传媒科技》杂志社、中国传媒大学主流融媒体研究中心、《信息传播研究(中国传媒大学学报)》编辑部、深信服科技股份有限公司、每日经济新闻、杭州趣看科技有限公司共同协办。



大会在中国新闻技术工作者联合会副理事长兼秘书长宋海涛的致辞中拉开帷幕。


人民日报数字传播董事郝冠南围绕主流平面媒体在系统性变革背景下如何实现技术突围和生态重构,从平面媒体市场、政策以及技术发展趋势,主流平面媒体的技术发展现状和规划需求,四维竞争体系技术生态的博弈和角力,推动主流媒体系统性变革的技术战略设想四个方面做深入分析,并展开发言。


国家广电总局科学技术委员会原秘书长周志强围绕“广电有线网络目前的机遇与挑战”发表主题演讲。
他在演讲中指出,当前广电行业正迎来多重发展机遇,其中包括广电新质生产力战略的推进、虚拟现实产业的快速发展以及大屏电视生态的深刻变革。与此同时,他也强调,行业仍面临诸多挑战,例如市场竞争加剧、用户选择日益多样化、网络基础设施老化以及技术升级成本高昂等问题。
面对这一形势,周志强提出,广电行业应加强技术创新与融合发展,同时积极推动个性化服务,以应对市场变化,把握发展机遇。


广西来宾市委宣传部副部长、融媒体中心主任韦付玲重点分享了AI赋能来宾市融媒体中心发展的实践经验。
她指出,在机制改革方面,通过机制创活、保障促融,有效破解媒体深度融合壁垒;在内容建设方面,以内容创优、服务促融为抓手,实现传播效能的跨越式升级;在技术应用方面,依托技术创新、平台促融,推动全媒体智慧化转型;在产业发展方面,通过产业创收、效益促融,探索“媒体+”可持续发展模式。
韦付玲强调,AI技术的深度应用为融媒体中心发展提供了新动能,未来将继续深化融合创新,推动媒体行业高质量发展。


深信服AI智能事业部总监高宇带来了AI产品助力媒体转型的智能化参考方案。
他重点介绍了深信服AI创新平台的核心价值:一是端到端降低AI应用建设TCO;二是AI起步阶段-AI生产阶段-AI大规模阶段,AI基础设施平滑演进。
高宇表示,深信服AI创新平台将持续为媒体行业提供高效、安全、低成本的智能化转型支持,助力行业实现技术升级与创新发展。


中国传媒大学主流融媒体研究中心主任唐远清教授系统阐述了AI技术在新闻出版领域的应用现状与发展趋势。
首先,他详细分析了AI三大前沿技术的基本概况及其内在关联。
其次,他重点论述了AI技术如何重塑新闻出版媒体的工作范式,并构建起AI驱动的全新工作体系。在技术应用层面,唐教授深入探讨了AI在新闻出版媒体工作中的具体实践案例。
最后,唐远清教授对AI技术在新闻出版领域的发展前景进行了展望,并提出了一系列具有建设性的发展建议。
他强调,AI技术的深度应用将推动新闻出版行业实现从内容生产到传播方式的全面革新,但同时也需要注意技术应用的伦理边界和行业规范。


每日经济新闻每经科技CEO、中央财经大学特邀研究员韩利,以每日经济新闻的AI战略转型为例,分享AI时代主流财经媒体的发展破局之道。
他指出,人工智能是人工的智慧+智能的高效,真正的护城河,在于如何让专业的人高效理解和应用AI,将媒体的经验智慧与AI的强大能力深度融合。
韩利分享了每日经济新闻的五大AI产品体系:一是智能媒资库,是智能创作和传播的底层驱动;二是雨燕智宣,可实现图文、音视频全媒介内容一体化生产;三是每经AI电视,是全球首创的“一个人就是一个电视台”;四是智媒采编系统,贯穿“策采编审发评管”的AI时代生产系统;五是每经少儿AI教育项目,前沿科技认知思辨课程体系校园AI电视及AI创作实践平台。


杭州趣看科技有限公司副总经理贺波作了《面向人工智能的融媒创作共享空间建设与运营》主题演讲。
他指出,相比传统演播室,融媒创作共享空间能为各级媒体机构、政企融媒体中心构建数字内容创新的多栏目共享未来媒体演播室,实现更快速制作更多元更好看的视频内容。
贺波分享了趣看科技的五大技术:真三维实时渲染技术、低延时实时视音频通讯系统、超高清IP云化制播方案、融媒创作大模型和融创空间管理平台。
通过技术创新重构媒体内容生产流程,目前趣看科技的技术已在国内多家媒体机构成功落地应用,展现出智能化内容生产的新范式。


来自会员及相关单位代表100余人参加了本次交流会,交流会成功搭建了产学研用深度融合的交流平台,展现了人工智能技术在传媒领域的前沿探索与实践成果,不仅为新闻出版传媒行业转型提供了可借鉴的实施路径,更标志着新闻出版媒体智能化发展进入了深化应用的新阶段。



来源:传媒茶话会
编辑:杨泓艳


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表