传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 35865|回复: 862
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
跳转到指定楼层
#
发表于 2018-12-17 23:15:09 | 只看该作者 |只看大图 回帖奖励 |正序浏览 |阅读模式
当代社会,技术支撑的这个世界变化有点快,算法、人工智能等技术让人眼花缭乱,新闻业也搭上了这班快车。我们不得不开始收集这方面的信息,以免被时代很快淘汰。




分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对
来自 862#
 楼主| 发表于 2023-5-12 23:20:34 | 只看该作者
【案例】
谷歌携大模型反击,生成式AI搜索功能首次面向公众开放
谷歌5月10日召开I/O开发者大会,该公司正在日益竞争的搜索市场为其核心搜索产品整合更多人工智能的功能。微软最近几个月加速了对搜索引擎Bing的更新,并获得了更多的市场份额。
周三在加利福尼亚州山景城举行的年度I/O大会上,谷歌推出了新版本谷歌搜索,可以对开放式提问做出响应。就在上周,微软也向所有用户开放了新Bing搜索功能。
发布会后,谷歌股价上涨4%,今年迄今为止,该公司股价累计上涨了26%,远超标普500指数涨幅。
今年2月,谷歌在发布聊天机器人Bard之后,导致股价暴跌,市值缩水1000亿美元。该公司最新表示,现在Bard将像OpenAI的GPT-4一样是多模态的。
“我们正在重新构想我们所有的核心产品,包括搜索。”谷歌CEO桑达尔·皮查伊(Sundar Pichai)在开发者大会上表示。
他说,谷歌正在将生成人工智能整合到搜索以及Gmail和Google Photos等产品中,Gmail可以起草邮件,Google Photos可以对图像进行更改。包括美国用户在内的谷歌在全球180多个国家地区的用户在未来几周内可通过等候名单获得搜索生成体验,谷歌称,将在试用阶段监控搜索结果的质量、速度和成本。
谷歌还更新了AI大模型PaLM 2,希望能够夺回其人工智能领导地位。该公司称这是“下一代通用的语言模型”,在某些任务上优于其他领先的AI系统。
据介绍,PaLM 2将为AI聊天机器人提供支撑,还可以在语言之间进行翻译、编写计算机代码,甚至可以分析和响应图像。 结合这些功能。例如,用户可以用英语询问有关法国餐馆的问题,系统将能够在网络上搜索法语的回答,找到答案,并翻译成英语,还能添加位置图片,为该地点创建数据库条目。
“我们现在正在经历的神经网络革命起始于大约10年前,且部分始于谷歌。”PaLM 2项目联合负责人Slav Petrov表示,“我们很高兴能够在外部广泛使用这些模型,因为我们想看看人们可以用它们做什么。我们相信,由于过去几年我们在机器学习方面取得的惊人进步,它们会提供很多机会来做以前被认为神奇且遥不可及的事情。”
在微软支持的初创公司OpenAI推出ChatGPT之后,谷歌正在加速追赶,这也推动了科技巨头之间的新一轮技术竞赛。生成式AI可以使用过去的数据创建全新的内容,例如完整的文本、图像和软件代码。ChatGPT已成为许多生成AI的默认版本,帮助用户创建合同、旅行路线,甚至小说。
谷歌正在奋力捍卫搜索市场以及巨大的在线广告市场的份额。研究公司MAGNA估计,谷歌广告营收今年可达2860亿美元。
为了安抚人们对于人工智能生成虚假信息的担忧,谷歌称将优先考虑信息的准确性,并引用可信来源。谷歌还推出一项新功能,将标记它用人工智能生成的图像,从而让人们更容易审查图片的真实性。
谷歌强调,利用大型语言模型AI生成内容的一个挑战是高昂的费用。目前业内正在研究各种不同的方法,从而降低成本。
来源:第一财经
链接:
编辑:洪韵

来自 861#
 楼主| 发表于 2023-5-12 23:46:37 | 只看该作者
【案例】
美国媒体大亨警告称AI可能“破坏”新闻业
美国媒体业亿万富翁巴里·迪勒(Barry Diller)警告称,除非出版商能够利用版权法加以控制,否则人工智能将对新闻业造成“破坏性”影响。迪勒表示,自由允许人工智能访问媒体内容将被证明是一个错误,“合理使用”的概念——可用于涵盖机器学习数据集中受版权保护的材料——需要重新定义。如果有必要,他愿意修改版权法。
来源:全球TMT
编辑:洪韵

来自 860#
 楼主| 发表于 2023-5-30 18:28:08 | 只看该作者
【案例】
ChatGPT 是“胡话”生成器,但仍非常有用

本文最初发布于 AI Snake Oil。
哲学家 Harry Frankfurt 将“胡话(bullshit )”定义为不考虑真相而旨在说服别人的言论。按照这个标准,OpenAI 的新聊天机器人 ChatGPT 是有史以来最能胡扯的。
大型语言模型(LLM)经过训练后可以生成貌似合理的文本,而不是正确的陈述。只要是你能想到的话题,ChatGPT 听起来都令人信服,它非常擅长这一点。
OpenAI 很清楚,训练过程并没有包含真相来源。也就是说,在教育或回答健康问题之类的应用程序中,以目前的形式使用 ChatGPT 不是一个好主意。尽管机器人经常能给出很好的答案,但有时也会完全失败。它总是很有说服力,所以很难区分。
不过,虽然在一般情况下,ChatGPT 和其他 LLM 都无法辨别真相,但在以下三类任务中,它们非常有用:
1、用户很容易检查机器人的答案是否正确的任务,例如调试帮助。
2、与真相无关的任务,比如写小说。
3、可以将实际存在的训练数据子集作为真相来源的任务,例如语言翻译。
4、让我们开始吧。先是坏消息,再是好消息。

准确性在许多应用中都至关重要
ChatGPT 是迄今为止最好的聊天机器人。不久前,它生成了一些奇奇怪怪的文本,比如解释如何从录像机中取出花生酱三明治……按圣经的风格。
但人们对更严肃的应用场景也很感兴趣,比如将其用作学习工具。有些人甚至预测,谷歌将变得多余。是的,ChatGPT 通常非常擅长回答问题。但危险在于,除非你已经知道答案,否则你无法判断它什么时候是错的。
我们试着提了一些基本的信息安全问题。在大多数情况下,答案听起来似乎是合理的,但实际上是胡扯。下面是一些更复杂的问题:


(阅读原推文:https://twitter.com/random_walker/status/1598385725363261441)
关于 ChatGPT 和教育,还有一个说法:大学注定要消亡,因为 ChatGPT 可以写论文。这样说很愚蠢。是的,LLM 可以写出似乎合理的论文。但是,家庭作业论文的消亡对学习而言是件好事!我们在一个月前写过一篇文章,最近也没什么实际的变化。
搜索呢?谷歌的知识面板已经因权威地提供错误信息而臭名昭著。用 LLM 取代它们可能会让事情变得更糟。Chirag Shah 和 Emily Bender 的一篇论文探讨了用 LLM 取代搜索引擎后会出什么错。
事实上,这些模型无法辨别真相,这就是我们说 Meta 面向科学的大型语言模型 Calactica 考虑不周的原因。在科学领域,准确性很重要。它很快就遭到了强烈的抵制,公开演示三天后被撤下。类似地,如果你想使用 LLM 回答与健康相关的查询,那么正确性和可靠性就是一切。

但这些模型改进得不是很快吗?
当然可以。但他们听起来令人信服的能力也在迅速提高!因此,我们怀疑,即使是专家也越来越难以发现错误。
事实上,像 Galactica 和 ChatGPT 这样的模型非常擅长按任何要求的风格生成听起来权威的文本:法律语言、官场语言、Wiki 页面、学术论文、课堂笔记,甚至问答论坛的答案。这产生的一个副作用是,我们不能再根据文本的形式来衡量其可信度和合理性。
StackOverflow 吃了不少苦头。在网站上,用户回答编程问题就可以获得积分,积分可以带来特权,包括减少广告和使用版主工具。在 ChatGPT 向公众公开发布后,问答论坛收到了数千个使用 LLM 生成的错误答案。但因为这些答案的书写风格是对的,所以必须经过专家审查才能删除。不到一周,该公司就不得不禁止使用 ChatGPT 生成的答案,以减少听起来似乎正确的错误答案。
除非 LLM 响应的准确性可以提高,否则我们推测,它在应用程序中的合理应用仍然会比较有限。请注意,GPT-3 已经有两年半的历史了。我们听到的是,这个领域每周都在进步,所以两年半就像几个世纪一样。当它发布时,人们满怀信心地预测,相关应用程序将出现“寒武纪大爆发”。但到目前为止,除了 GitHub Copilot 之外,还没有一个主流的应用程序。
准确性问题并非毫无希望。有趣的是,LLM 似乎在学习让人信服的过程中获得了一些辨别真相的能力。当研究人员要求 LLM 评估自己提出的答案的准确性时,它比随机应变地判断要好得多!为了提高生成答案的准确性,研究人员正在将这种能力整合到聊天机器人的默认行为中。
同时,下面有三种 LLM 非常适用的任务。

编码:用户可以查看基本事实
调试代码是一种可以让程序员(尤其是新手)从 LLM 中受益的应用。在这种情况下,LLM 指出的错误通常很容易验证,所以即使机器人的答案可能有时是错的,也不是一个太大的问题。

生成代码很复杂。理论上,用户可以验证自动生成的代码是否有 Bug(可能在 LLM 的帮助下)。但目前还不清楚,这是否会比手动编码更快。安全漏洞是一个特别严重的问题。去年的一项研究发现,Copilot 生成不安全代码的概率为 40%。他们没有将这一数值与人类程序员进行比较,也没有就是否使用 Copilot 以及何时使用 Copilot 合适提供建议,但从结果中明显可以看出,需要谨慎使用。
Copilot 旨在提高专家的工作效率。那些不会编码的用户呢——他们能使用人工智能工具生成简单的脚本吗?这方面的承诺有很多。这里有一个小实验:




使用 LLM 生成代码是一个活跃的研究领域。在提高代码生成的正确性以及减少 Bug 出现的频率方面,还有很大的改进空间。这是一个令人兴奋的领域。

娱乐:真相无关紧要
ChatGPT 在上周已经成为了一种娱乐。从编写关于特定人物的笑话,到用智者快言快语的风格解释算法,人们发现了这个工具的许多创造性用途。但是,我们是否可以将 ChatGPT 用于更有野心的项目,比如写小说?
LLM 还远不足以生成长篇文本,比如整部小说,因为它们一次只能存储少量的词元。尽管如此,作者和研究人员仍在尝试用它们来获得创意,扩展思路,以及改变文本的风格(例如,“重写这段文本,使其更像狄更斯写的”)。交互式小说游戏如 AI Dungeon 使用 LLM 基于用户输入充实故事情节。我们认为,在这一领域继续改进不存在什么根本性的障碍。
同样,文本转图像和图像转图像工具也非常适合娱乐,因为创作者可以调整提示信息,直到得到他们喜欢的图像。在最近兴起的应用程序 Lensa 中,用户只要上传几张自拍照,它就能生成各种风格的肖像。它后台使用了 Stable Diffusion,这是来自 Stability AI 的一个开源图像生成模型。
先不要得意忘形:种族主义、性别歧视和有偏见的输出仍然是所有生成模型(包括 ChatGPT)都面临的一个问题。该模型包含一个内容过滤器,可以拒绝不适当的请求,相对于以前的工具来说,它的效果已经足够好,感觉上有很大的改进,不过仍然有很长的路要走。

翻译:利用了潜在的真相来源
值得注意的是,GPT-3 的效果与专用语言翻译模型大致相当,ChatGPT 可能也一样。可能的原因是它可以利用语料库中的基本事实(大致包含网络上的所有文本)。例如,有些网页被翻译成多种语言。当然,在训练过程中,并没有显式的标签告诉模型哪些文本彼此对应,但模型很可能可以自动发现这一点。
目前,如果效果差不多,似乎也没有什么理由说聊天机器人会比谷歌等现有的翻译工具更好。一种可能性是,当两个说不同语言的人进行对话时,像 ChatGPT 这样的工具可以扮演传译员的角色,其优点是,在对话中使用的工具可以跟踪对话。这使它能够参考上下文,更有效地完成翻译,并且对用户来说不那么尴尬。

结论:现在判断它是否具有变革性还为时过早
依托精心挑选的可以像病毒一样传播的例子,生成式 AI 的发布往往让人觉得印象深刻。但这还不是事情的全部。对于许多应用程序来说,即使是 10% 的失败率也太高了。似乎只有在相当有限的一组用例中,缺乏真相来源才不算是什么大问题。虽然这些用途仍然非常令人兴奋,但是,似乎还没有什么迹象表明,人们很快就会在日常生活中使用聊天机器人——用于学习,或作为搜索引擎替代品,或作为交谈对象。
与此同时,我们已经看到,LLM 的第一个突出应用是生成错误信息(Stack Overflow)。当然,垃圾邮件发送者已经在使用 GPT-3 进行搜索引擎营销,他们很高兴拥有 ChatGPT。但是,正如关于转型的预测被夸大了一样,我们不同意网络将很快淹没在错误信息的海洋中这样的说法。
我们期待看到人们创造性地使用 LLM,我们也对炒作和常见的自助服务 AGI 话题感到不安。
声明:本文为 InfoQ 翻译,未经许可禁止转载。
原文链接:
https://aisnakeoil.substack.com/p/chatgpt-is-a-bullshit-generator-but


来源:AI前线
链接https://mp.weixin.qq.com/s/R_VjXDTTU5T3IsfaXYJxGA
编辑:程博

来自 859#
 楼主| 发表于 2023-5-31 17:04:15 | 只看该作者
【案例】
堪比核战和疫情!Sam Altman等350位大佬发出警告,AI监管成共识
随着人工智能的高速发展,其可能带来的风险也引发广泛关注。
继此前马斯克等千人签署公开信,呼吁暂停AI开发六个月后,近期,OpenAI首席执行官Sam Altman等多位行业专家又来提示风险。
350名行业高管和学界大拿发出警告
当地时间5月30日,非营利组织人工智能安全中心(CAIS)发布一封公开信,信中只有一句简单有力的话:减轻AI(给人类)带来的灭绝风险应成为全球性的优先事项,与大流行病及核战争等其他影响社会的大规模风险处于同等级别。
该信的签署者多达350名行业专家和企业高管,包括OpenAI首席执行官Sam Altman、DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。
学界上,2018年图灵奖获得者、“人工智能教父”Geoffrey Hinton和Yoshua Bengio位列其中。
此外,签署者还包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园等中国学者。
AI监管成共识
目前来看,AI可能带来的风险已经受到世界各国和各界的重视。此前,意大利等国家对ChatGPT发起监管,暂停其的使用。而且,欧盟正在推进《AI法案》,对AI形成监管。
对此,Sam Altman曾威胁离开欧洲。他在伦敦大学学院的一个小组会议上说:“我们将努力遵守,如果我们能遵守,我们会的。如果不能,我们将停止运营。”几天后,他又改口称,OpenAI没有离开欧洲的计划。
美国方面,本月早些时候,Sam Altman会见了美国总统拜登,并在参议院司法委员会作证,要求加强对AI行业的监管。
他在作证时说:“我最担心的是我们会对世界造成重大伤害。如果AI出了问题,那这个问题可能就会很大。”
上周,他还与OpenAI的另外两位联合创始人发表的一篇博客文章,呼吁进行三项重大改革,包括加强世界各地人工智能开发者之间的协调,以及创造一种可以控制人工智能创造的潜在“超级智能”先进技术。
他还鼓励成立一个结构类似于国际原子能机构的人工智能技术全球监管小组,有权检查系统、要求审计和测试是否符合安全标准。
来源:腾讯新闻(格隆汇)
链接:https://view.inews.qq.com/k/20230531A01Q7A00?no-redirect=1&web_channel=wap&openApp=false&uid=&shareto=&openwith=wxmessage

编辑:程博

来自 858#
 楼主| 发表于 2023-6-21 23:43:49 | 只看该作者
【案例】
新闻速递 | 我院院长方兴东教授率队参加EuroDIG并发表主题演讲
619日至621日,来自IGFICANNMicrosoft Internal Affairs and CommunicationsISOC FoundationScientific Cyber Security Association等的400多名国际机构负责人、专家、学者参加了在芬兰坦佩雷大学举行的欧洲网络治理对话(Euro DIG)。乌镇数字文明研究院院长方兴东教授、首席专家吴飞教授和钟布教授受邀参会。
被称作“浓缩版”的联合国互联网治理论坛(IGF),EuroDig参会专家来自全球各地,围绕全球数字契约、全球AI治理、互联网碎片化、俄乌冲突等多个议题, 进行了广泛而深入的研讨。
作为欧洲网络治理对话(EuroDIG)的会议议程之一,在乌镇数字文明研究院和浙江大学国际传播研究中心联合主办的“中欧数字互信”工作坊上,我院院长方兴东教授、首席专家吴飞教授和钟布教授分别就中欧数字互信、数字共通、全球数字互信三个主题做了主题发言,吸引了各国专家到场参与讨论。
参加工作坊的丹麦奥胡斯大学Wolfgang Kleinwaechter教授在发言中强调协作与合作的重要性,认为数字互信需要国家、企业和个人之间的协作。保护数字基础设施、数据和隐私对于促进互信至关重要。持续的技术创新以及共同标准的制定在建立数字互信方面起着重要作用。意大利Rai for the Next Generation EUGiacomo Mazzone提出,意大利公共广播公司Rai等机构应积极拥抱数字转型,以适应不断变化的媒体环境,并通过数字平台与受众进行互动。德国Knowledge DialogueWaltraut Ritter表示,希望中国的专家学者和各界人士积极参与IGF的会议及活动。
在工作坊上,方兴东教授表示,没有数字互信,就没有数字时代。随着数字技术的发展,全球越来越紧密地联结在一起,国与国的数字互信问题日益凸显。如今,中欧之间的数字互信面临着封闭和开放两种不同道路的选择。需要中欧进一步走出隔阂,建立多层次的有效沟通的交流体系,这是理解和互信的前提。
吴飞教授则对“数字共通”提出了自己的看法。他认为,随着全球化深入发展,“数字共通”为信息、观念、知识、文化的交流、互通、互鉴提供了基础设施保障,让各种现代化探索的路径得以共显,为开创人类美好繁荣的未来提供了现实而又充满着想象力的共享、共鸣与共通的对话空间,从而为推进构建人类命运共同体提供了更为广阔的观念基础和内生动力。
钟布教授呼吁,来自学术界的研究人员应为加强全球数字互信提供理性客观的观点。为实现这一目标,中国的研究人员应加强和提高与欧洲学者、智囊团、企业和政府的对话、信任和合作。
(三位教授发言全文附后)
建立中欧数字互信,任重而道远。我院始终致力于数字文明研究建设,促进国际社会实现数字时代的全部潜力!
三位教授发言全文:
方兴东:中欧数字互信面临的道路选择
非常高兴再次来到EuroDIG,这是我心目中质量最高的全球网络治理会议之一。在这里与大家分享数字互信的最新研究成果,无疑是很合适的。
没有数字互信,就没有数字时代。今天,大国之间的数字互信问题开始显现,不同之处只是严重程度,包括欧美之间。随着数字技术将全球越来越紧密的联结在一起,国与国的数字互信问题日益凸显。数字互信问题本身是客观的、真实的,而且还会更趋严峻。
如何解决数字互信问题,我们面临两条道路的抉择,不同的选择会带来完全不同的结局:
一条是消极防御,以隔绝、脱钩、去风险化等以更加封闭的方式来应对。这种方式短期似乎可行,但事实上,无法解决问题,更不符合长远的大势所趋,最终只会损人不利己,“挥刀断流水更流”。
而另一条道路是正视问题,积极防御,在保持非歧视、公平竞争、开放的前提下,针对信任和安全问题,建立有效的技术方案和制度体系。
只有后者才能实现数字时代全球的互联互通,才能实现双赢。如今,中欧之间的数字互信面临着封闭和开放两种不同道路的选择。多利益相关方机制应该积极发挥作用,站在人类数字文明的角度,积极推动立足长远造福全体民众的开放道路。现在需要中欧进一步走出隔阂,建立多层次的有效沟通的交流体系,这是理解和互信的前提的前提。也是我们举办今天这个会议的初衷所在。欧洲通过GDPR、数字市场法和人工智能法案等,确立了数字时代制度创新的引领性地位。相信欧洲也能为全球数字互信做出独特的贡献。
谢谢大家!
吴飞:通过数字互信达到数字共通
人类文明史从某种意义上说是一个互联互通和交互的历史,而数字互信是有效连通的基础,它可以加快信息的传递速度,提高信息的准确性和可靠性,并且方便了人们的日常生活。比如,通过互联网银行可以实现在线支付和转账,通过社交媒体可以实时交流和分享信息,通过电子商务平台可以进行网上购物等。
韩炳哲曾担心数字化的全联网和全交际(Totalkommunikation)并未使人们更容易遇见他者,而是在追求寻找到同者、志同道合者,从而导致我们的经验视野日渐狭窄。它使我们陷入无尽的自我循环之中,并最终导致我们“被自我想象洗脑”。他的担心虽然值得重视的,但并非事实的全部,因为“数字共通”不是一个声调、一个剧目展演的剧场,而是多声部的交响乐团,是每日都在更新的世间万象。“任何有限性存在都始终与其他有限性存在连接在一起,在不间断的共同显现中来到在场的”。“数字共通”就是在多元交融的“共享池”中交相辉映的无数束光,公民个人的立场与社群成员的立场共振共鸣,其承载并体现的就是社会的共通性。
“数字共通”所强调的就是存在的联结性,是彼此之共在与共显,而这种共同显现的存在本身便意味着超越独一性和拒绝同一化的姿态,也就是说“共通”不是无差异的同。这一思想是中国传统哲学思想的延伸,如老子就是将正在置于存在之上的,重视变动性和差异性,反对同一性和本质性。中国禅宗也总是站在当下,站在短暂的、细微的、平凡世界中去感悟那一片云,那一丝律动,那一束光和那独一的声音,强调在“清空”“净悟”中寻找智慧。“数字共通”的联通性体现在不同主体间、文化间交汇时的“惊叹”,这种交融共显时的“惊叹”会促进主体间的反思,意识到自己文化中的一些自明之理和“未思”之处,在不断进入他者、返回自身的往复交流中建构互惠性理解,以此通向更宽广的理解视域。
“数字共通”的共享池机制为多元参与主体的理性思考与情感交融提供了保障,(1)每一位主体的独立之思可以存在、传播并受到多元价值的批判性修正;同时,(2)每一位主体都可以在参照他者之思和在相应的应答中学习理性讨论的方法;这显然(3)有利于他们在批判、比较再批判的对话中提升理性对话的能力。尽管无论是情感上的共情还是观念上的共振都不意味着可达成共识,但这种互动关系加强了公众之间的连接性,有利于促进人类命运共同体的建构。随着全球化深入发展,知识、信息、资本、技术、人员和物资的跨国流动已是基本事实,各国各民族和各地区都处于一种相互依存的状态,这是人类命运共同体的现实境状。“数字共通”为信息、观念、知识、文化的交流、互通、互鉴提供了基础设施保障,让各种现代化探索的路径得以共显,为开创人类美好繁荣的未来提供了现实而又充满着想象力的共享、共鸣与共通的对话空间,从而为推进构建人类命运共同体提供了更为广阔的观念基础和内生动力。
钟布:增强数字互信的重要性
当今互联世界中,全球50多亿人已经联结在一起,全球数据跨境流动持续增长,这种互联带来了许多好处也伴随着极大风险。互联性的增强加强了联结、互动和合作,但也引发了紧张和冲突,需要通过合作来解决。我们应避免出于政治动机的"脱钩""去风险化"等助长孤立,阻碍发展和进步的做法。
《中德数字互信报告》强调数字互信的重要性以及其中所蕴含的风险。目前,中德两国在数字互嵌存在着显著的不对称关系,中国对德国的依赖远远大于德国对中国的依赖。例如,SAP在中国的ERP市场上占据主导地位,西门子在中国的PLM软件系统和工业自动化设备中也占有极大的市场份额。
面对数字时代新的风险和挑战,我们只有采取开放的积极防御,才是正确之道。通过更全面的沟通与合作,建立全新的技术和制度体系,既有效消除和降低潜在的风险和隐患,也不停止进一步加强合作与发展,至关重要,也十分紧迫。我们要站在人类共同发展的高度,更加理性、客观和务实,率先为全球建立其国与国之间有效的数字互信机制,为全球更广泛的数字互信树立典范具有非凡的意义。
来自学术界的研究人员应为加强全球数字互信提供理性客观的观点。为实现这一目标,中国的研究人员应加强与提高与欧洲学者、智囊团、企业和政府的对话、信任和合作。
      数字互信需要国际合作和多边治理机制。区域和全球层面的合作倡议、协议和框架可以促进建立信任、共享信息,从而为应对共同挑战和风险一起努力。
      如果接受以上观点,数字文明可以促进信任环境的建立,实现数字时代的全部潜力,并将相关的风险和挑战降至最低。
会议和工作坊介绍:
欧洲网络治理对话
EuroDIGEuropean Dialogue on Internet Governance)是一个欧洲地区的互联网治理对话平台。EuroDIG旨在为欧洲各利益相关者提供一个开放、多元和包容性的论坛,就互联网治理的关键议题展开讨论和交流。
EuroDIG的主要目标是促进欧洲各方之间的对话和协作,推动互联网治理领域的发展和合作。该平台通过年度会议和其他相关活动,为政府代表、学术界、民间社会组织、技术专家、业界代表以及其他利益相关者提供一个共同交流的平台。
EuroDIG的会议每年在不同的欧洲城市举行,会议内容涵盖了互联网治理的广泛议题,包括数字权利、隐私保护、网络安全、数字包容性、网络中立性、数据保护、网络中的言论自由等。与会代表可以通过主题演讲、小组讨论、辩论和工作坊等形式,就这些议题进行深入的讨论和交流。
EuroDIG的参与是开放的,任何对互联网治理感兴趣的个人和组织都可以参与其中。该平台鼓励多元的声音和观点,并促进欧洲各方之间的对话和合作。此外,EuroDIG还与全球互联网治理论坛(IGF)保持密切联系,并在欧洲地区推动互联网治理的发展。
通过EuroDIG的平台,欧洲各利益相关者可以共同探讨和解决互联网治理领域面临的挑战,推动互联网的发展和使用符合欧洲价值观和利益的方向。同时,EuroDIG也为全球互联网治理进程提供了一个欧洲地区的声音和观点。
“中欧数字互信”工作坊
美国和中国之间正在进行的技术冲突对中国和欧洲之间的网络信任和合作产生了重大影响。在今天的数字时代,网络空间的相互信任对于中国和欧洲之间的成功合作至关重要,不仅在信息和通信技术领域,而且在经济、政治和文化领域。
20世纪80年代以来,像诺基亚、爱立信、SAP EPR、西门子和欧洲半导体制造商这样的公司在中国的信息技术领域发挥了举足轻重的作用,并继续成为中国国民经济关键领域的关键参与者。同样,中国的信息和通信技术应用,如华为和中兴通讯设备、联想的个人电脑和ByteDanceTikTok,正越来越多地在欧洲出现。在数字技术推动全球发展的世界里,缺乏互信会带来严重后果。
中国和欧洲必须积极努力,通过技术和制度合作加强数字信任。他们可以通过建立交流和沟通机制,成为全球数字信任的典范,为世界树立一个榜样。
数字信任的基础在于建立强大的交流和沟通机制,特别是通过以学术为基础,客观、理性、理论丰富的深度对话。我们的目标是将学者、政策制定者和行业参与者等利益相关者聚集在一起,就这一相关的当代问题进行讨论,为在全球范围内促进数字信任作出贡献。
来源:乌镇数字文明研究院
编辑:洪韵

来自 857#
 楼主| 发表于 2023-6-22 19:44:42 | 只看该作者
【案例】
AI革命:专业服务、电影制作和编码三大行业的机遇与挑战
人工智能(AI)是当今时代最具颠覆性的技术之一,它正在改变着各个行业的运作方式和竞争格局。在专业服务、电影制作和编码等领域,AI不仅提高了效率和创新,也带来了新的机遇和挑战。
专业服务行业,如律师、会计师等,传统上依赖于人力和经验来处理大量的数据和文档。AI工具,如Harvey,可以根据Open AI最新模型版本建构的AI平台,帮助专业人士快速获取和分析法律、财务或其他信息,节省时间和成本,提升服务质量和客户满意度。然而,AI工具也可能威胁到初级员工或实习生的工作机会,或者降低专业人士的核心竞争力和价值。
电影制作行业,是艺术与科技的结合。AI技术,如数字替身、语音合成、面部捕捉等,可以增强电影的视觉效果和声音表现,拓展创意空间和市场潜力。例如,AI可以使配音技术扩大至外语电影,或者让演员在不同的场景和角色中出现。但是,AI技术也可能引发版权、道德和职业安全等问题。例如,编剧担心AI取代他们的创作,演员担心AI侵犯他们的形象权,配音员担心AI导致他们失业。
编码行业,是软件开发和维护的基础。AI技术,如ChatGPT等工具,可以协助编码人员撰写、修改和测试程式代码,提高编码质量和速度。此外,生成式AI聊天机器人还可以分析现有编码,并找出可能存在的错误或漏洞,增强系统的安全性和稳定性。但是,AI技术也可能导致编码人员失去对代码的掌控和理解,或者降低编码人员的创造力和专业水平。
综合来看,AI革命对专业服务、电影制作和编码三大行业都有积极和消极的影响。如何利用AI技术的优势,同时应对AI技术的挑战,是这些行业面临的共同课题。
来源:最资讯
编辑:洪韵

来自 856#
 楼主| 发表于 2023-6-22 20:33:30 | 只看该作者
【案例】
普华永道发布《2023元宇宙展望》报告!
2023年,元宇宙以及企业下一步的发展方向依旧是行业热议话题。普华永道根据自身洞察和经验作出如下六大展望,以期为商业领袖们提供引导。这些展望包括元宇宙接下来将应用于哪些领域、哪些技术可能会发展得最快、商业领袖应如何行动以使企业规避风险等等。简而言之,元宇宙尚未完全进入黄金时代,但当下已经开始创造真正的商业价值,并为企业重塑未来做好准备。
普华永道全球科技、媒体及通信行业主管合伙人周伟然表示:“虽然目前元宇宙仍处于概念阶段,但与其相关的众多概念已经和各种业务产生关联。在中国市场,跨行业的技术与业务创新也正在促成逐渐繁荣的元宇宙产业格局。元宇宙经济发展、元宇宙建设与运营,均涉及复杂的技术体系和生态资源,如互联网、物联网、5G/6G通信、人工智能、区块链、增强现实、虚拟现实和云计算等各类关键技术要素,在元宇宙发展过程中,也必将拉动壮大这些相关技术领域的市场规模。同时,元宇宙也将推动了由不同利益相关方(政府、产业园区、行业协会、学术研究)和参与者(元宇宙内容与服务业、其他行业)组成的巨大生态系统的发展。根据一些全球研究机构预测,到2030年,元宇宙将开启价值8至13万亿美元的新业务机遇,市场前景非常广阔。”
1. 商业经营者将成为元宇宙的超级用户
越来越多的企业开始探索在元宇宙中模拟实体运营。例如,零售商可以创建数字实体店,让顾客和员工以虚拟的方式尝试交互,来提高满意度和销量。餐饮业经营者在厨房布局和座位设计上也可以进行同样的尝试。制造商可利用元宇宙的新数据增强数字孪生模型,从而改进其供应链、生产和物流。
普华永道预计,未来几年会有更多元宇宙特有的产品和服务来搭建消费者与商业元宇宙之间的桥梁,例如:以虚拟角色组建的客服中心、金融教育、远程医疗以及完全沉浸式的全新商业体验等。
普华永道建议:将元宇宙投入实际应用最有效的开始方式,是将元宇宙计划与具体、可衡量的业务成果结合起来。目前,元宇宙可以实现的成果通常包括品牌建设和客户参与、多样化且不断增长的收入流、员工赋能和流程优化等等。在设定目标后,可根据需要开发新功能,例如元宇宙特有的定价和伙伴关系策略,或新的运营模式和管理方法。同时,也应利用控制测试、项目管理和绩效监控等措施来保证元宇宙计划的有效实施。
2.元宇宙的成败取决于可信度
元宇宙计划的成败将更多地取决于可信度,而不是功能。元宇宙并不需要全新的风险管理方法。相反,通过对现有方法进行适当调整,可以实现对新风险的管控,增强可信度。要负责任地使用元宇宙,应从六个方面考量新的可信和风险因素,涵盖经济效益、数据、治理(包括网络安全)、数字身份、用户体验和自持续性(如果弃之不用,则不会影响元宇宙的持续演化)。
普华永道建议:管理元宇宙风险的指导原则是确保在前期和整个过程中融入可信度设计:如果企业在元宇宙计划的设计阶段就将风险管理纳入其中,那么后期有可能避免付出昂贵代价。其他主要原则包括:
提升管理层认知技能,如果管理层对元宇宙缺乏足够的了解,会为制定元宇宙战略决策带来风险;
创建针对自身企业及其元宇宙计划的风险分类;跨领域协作,考虑到在元宇宙环境下,许多跨职能和跨业务线的协作方式均存在风险性
3.人工智能和扩展现实(VR)将协同助力元宇宙推动转型
VR是一项极具吸引力且实用的技术。企业已将其用于入职、培训、部门协作、客户体验等方面。当然还有其他通往元宇宙的途径,比如增强现实(AR)设备、笔记本电脑和智能手机。
普华永道相信,人工智能(AI)不仅将成为元宇宙的基础性技术,同时还具有变革性。就像在当今互联网上用户无需成为程序员也能设计网页,无需成为技术专家也可以创建一个元宇宙空间。AI也会不断地赋能“虚拟数字人”(计算机生成的虚拟人),也许还能激励人们与虚拟人进行互动,就像与真人互动一样。
当然,AI的发展不仅会带来新的风险,还会加剧既有风险,包括潜在偏见、深度造假和滥用体验。几乎可以肯定,AI也会引发新的合规挑战。例如,个性化算法在一定程度上会减少人们在信息消费中付出的成本,但围绕算法推荐机制下的信息茧房效应,中国已经产生了热烈的讨论,包括主流媒体、知名学者都卷入了这场讨论,并对监管方向调整产生了影响。目前看来,多个地区可能会针对AI制定适用于元宇宙的新法规。
普华永道建议:在元宇宙中推进AI发展的更优办法是部署负责任的AI,使其能恰如其分地完成各项需求。AI在元宇宙中的发展还可能会带动数据策略和治理更广泛的升级。毕竟,大多数企业不仅没有准备好借助AI充分利用元宇宙所带来的数据机遇,甚至也没有充分意识到从已有的数据中可能找到的价值。这或许意味着,“技术中立”这一理念在未来或许会受到挑战,“向善”价值观下产生的技术,或许会是一个更好的选择。
4.元宇宙将成为每一位管理者的必由之路
元宇宙可能很快会触及企业的方方面面。在普华永道的元宇宙调研中,82%的受访高管预计元宇宙计划将在三年内成为其业务活动的一部分。随着元宇宙变得无处不在,每一位高管都应该在元宇宙的发展过程中发挥作用——尤其一些非技术型高管更加关键。可能催生的一些新职责包括:
首席执行官和董事会:制定战略优先事项,为客户和员工不断变化的期望做好准备,并提前应对新的威胁和风险。
首席运营官(COO):帮助部署新工具和技术。
首席营销官(CMO):重新思考沉浸式数字世界的客户参与、体验设计和品牌建设。
首席财务官(CFO):关注数字资产(如加密货币和NFT)在元宇宙中日益增长的使用;了解参与处理关键交易的新第三方;仔细评估投资配置,并加强对财务报告的控制。
首席人力资源官(CHRO):部署元宇宙工具,使之应用于员工招聘、入职、培训、连接和协作。
税务领导者:遵守快速变化的规则,发现新的税务价值。这些非技术型高管不仅需要彼此密切合作,还要与首席数字官、首席创新官、首席信息官和首席信息安全官合作,创建并维护企业的元宇宙基础设施、体验和数据管道。
普华永道建议:许多团队需要提升技能(如上所述),但这还远远不够。为了避免众多高管间的工作出现冲突和交叉,可以考虑任命一位高管来管理企业元宇宙相关的所有活动。该角色可以是一个新设立的职位,也可以在现有职位上兼任。无论以何种方式,首要任务之一即是加强高管之间的沟通。
5.元宇宙将成为一股“向善”的力量
对于支持并日益重视ESG(环境、社会及治理)倡议的企业,元宇宙可以成为将会提供更多助力。例如,元宇宙会议可以取代一些面对面的会议,从而减少商务旅行的碳排放,而商务旅行正是碳排放的主要来源之一;元宇宙中的数字孪生技术可以帮助提高企业运营能耗效率;元宇宙中的店铺可以让消费者试用实体产品的数字复制品,减少退货产生的运输需求;通过数字代币,元宇宙可以帮助原材料溯源,减少供应链中的环境问题。
通过将更多的业务虚拟化,即打破地理空间和工作地点的限制,企业可以接触并招募更多的员工。元宇宙的真实模拟可方便邀请各地的责任相关方监督、参与并从事相关工作,帮助改进企业履职能力,提升透明度。不过,要让元宇宙成为改进企业工作的积极力量,还需要企业下定决心才能实现。
普华永道建议:要使元宇宙计划成为一股“向善”的力量(以及实现ESG目标的有力助手),企业需要遵照和风险管理相同的指导原则:从一开始就将其设计在这些优先事项中。如果在元宇宙计划早期就已嵌入了ESG目标(包括多样性目标)和相关管理,那么企业不仅能够为未来做好准备,还可能会获得投资者、员工和其他利益相关者的支持,但这需要一些方法来衡量和报告元宇宙计划及关键性元宇宙赋能技术对ESG的影响。
6.企业将争夺过去不曾需要的新技能
任何新技术都需要新的技能,但是元宇宙及其相关科技需要的技能更为高度专业化,其中一些在几年前几乎都不存在,例如监控和验证交易的需求,收集和保护Web3生态系统中数据的需求,后者随着元宇宙应用的增加而不断增长。许多企业领导者也对网站设计师和互联网用户体验专家的需求持怀疑态度,大多数人甚至没有考虑网络运营所需的全新的网络安全和数据科学技能。很多技能已然日趋紧缺,因此在获得或培养这些技能方面事不宜迟。
普华永道建议:在中国市场上,由于网络游戏等元宇宙相关行业的快速发展以及涨落,拥有元宇宙相关技术能力的人才也在不断外溢;如何抓住这些人才红利,一方面需要企业高管对自身的元宇宙价值定位、业务发展思路有前瞻性的决策,从而为这些人才创造发挥的空间,同时,打造企业文化,吸引和包容富有创造力的尖端技术专家也至关重要。
为数字现实的新一轮发展做好准备
普华永道的六大展望,旨在从专业视角看到元宇宙正处于变革时代:数字世界和实体世界将比过去更完全、更无缝地结合在一起。将实体身份与数字身份、产品和资产相结合,将其引入至不同平台,或分享或出售不同的组合…这些操作将比以往更加具有可行性。鉴于此,企业应该从现在开始,在探索元宇宙的道路上先行一步,让未来在元宇宙的世界大有可为。
来源:新浪新闻
编辑:洪韵

来自 855#
 楼主| 发表于 2023-6-23 20:25:43 | 只看该作者
【案例】
Meta首席AI科学家:AI还不如狗聪明,不会接管世界
毫无疑问,当前的 AI 仍存在一定的局限性。
AI 还不如狗聪明?
近日,Meta 首席人工智能科学家杨立昆(Yann LeCun)在法国巴黎举行的 Viva Tech 大会上被问及人工智能的当前局限性。他重点谈到了基于大型语言模型的生成式人工智能,表示它们并不是很智能,因为它们仅仅是通过语言训练的。
杨立昆表示,当前的人工智能系统智力水平不及人类,甚至还不如一条狗聪明。“这些系统仍然非常有限,它们对真实世界的底层现实没有任何理解,因为它们纯粹是基于大量的文本训练的。” “人类知识的大部分与语言无关……所以,人工智能并没有涵盖人类经验的那一部分。”
杨立昆补充说,现在一种人工智能系统可以通过美国的律师资格考试,也就是成为律师所必需的考试。然而,他说人工智能无法装载洗碗机,而一个 10 岁的孩子可以在 “10 分钟内学会”。
杨立昆表示,Meta 正在致力于训练人工智能从视频中学习,而不仅仅是从语言中学习,这是一项更具挑战性的任务。
在另一个当前人工智能局限性的例子中,杨立昆举例称一个 5 个月大的婴儿看到一个漂浮的物体,并不会想太多。然而,一个 9 个月大的婴儿看到这个物体会感到惊讶,因为它意识到物体不应该漂浮。
杨立昆表示,我们“不知道如何在今天用机器来复制这种能力。在我们能做到这一点之前,机器不会有人类水平的智能,也不会有狗或猫的智能水平。”
还有必要将 AI 视作威胁吗?
人工智能的快速发展引发了部分技术人士的担忧,有人认为,如果不加以控制,这项技术可能对社会构成危险。特斯拉首席执行官马斯克更是表示,人工智能是 “对文明未来最大的风险之一”。
前段时间,人工智能安全中心(CAIS)发布了一份由 OpenAI 及 DeepMind 高管、图灵奖获得者及其他 AI 研究人员签署的简短声明,警告称他们的毕生成果可能会毁灭全人类。声明内容只有一句:“应该像对待包括流行病和核战争等其他全球性迫切社会问题一样,缓解 AI 引发的灭绝性风险。”CAIS 表示,这份声明希望讨论“AI 所带来的广泛且紧迫的风险”。
在声明上签字的名人包括图灵奖获得者 Geoffery Hinton 和 Yoshua Bengio、OpenAI CEO Sam Altman、OpenAI 首席科学家 Ilya Sutskever、OpenAI 首席技术官 Mira Murati、DeepMind CEO Demis Hassabis、Anthropic CEO Dario Amodei,以及来自加州大学伯克利分校、斯坦福大学和麻省理工学院的多位教授。
Viva Tech 大会上,法国经济学家和社会理论家 Jacques Attali 在谈到相关话题时也对 AI 风险表示担忧,Attali 认为,AI 的利弊取决于其使用方式。
“如果你使用人工智能来开发更多化石燃料,那将是可怕的。如果你使用人工智能来开发更多可怕的武器,那也将是可怕的,”Attali 说,“相反,人工智能对于健康、教育和文化可能是令人惊人的。”
Attali 对未来持悲观态度,他说:“众所周知,人类在未来三到四十年面临许多危险。”他指出气候灾难和战争是他最担心的问题之一,还提到他担心机器人 “会对我们进行反叛”。
而杨立昆则有不同的观点,杨立昆的态度比较乐观,他认为将来会有比人类更聪明的机器,这不应被视为一种威胁。“我们不应该把这视为一种威胁,我们应该把这视为一种非常有益的事情。每个人都将拥有一个比自己更聪明的人工智能助手……它将像一个员工一样,在你的日常生活中为你提供帮助,”杨立昆说道。
杨立昆补充说,这些人工智能系统需要被创建为“可控制的,基本上服从人类”。他还驳斥了机器人会接管世界的观点。“科幻小说中流行的一个恐惧是,如果机器人比我们聪明,它们将想要接管世界……聪明与是否想要接管之间没有关联,”
来源:AI前线
编辑:洪韵

来自 854#
 楼主| 发表于 2023-6-25 20:07:31 | 只看该作者
【案例】
邓建国 | “延伸的心灵”和“对话的撒播”:论作为书写的ChatGPT
摘要
媒介技术既是“毒药”也是“良药”(pharmakon)的矛盾观念由柏拉图在《斐德罗》篇中最先提出。ChatGPT也具有这样的矛盾性:一方面,它作为“延伸的心灵”将和书写(文字)一样在与人类的合作共创中实现两者心灵的共同演化;另一方面,它号称“对话性”人工智能,但仍具有书写的撒播和他者特点。在与ChatGPT的互动中,我们要避免使其沦为海德格尔笔下闲言不断的“常人”,并宽容、珍惜、庆幸和受益于它的“他者性”。在不断的相互学习和合作中,人类将会对“何为人性和创造性”有更深的认识,并与人工智能一起找到各自的生态位
关键词
ChatGPT;延伸的心灵;书写;对话;撒播
在今天“短视频为王”的时代,书写(writing)[1]似乎已成为一种失落的艺术。各互联网平台都要求博主们将知识可视化、口语化和网感化,“因为这样Z世代网民才会喜欢”,这导致网络中充斥支离破碎、逻辑混乱、幼稚化和粗俗化的语言。大学校园中,学生很难写明白一句话、一段话,遑论一篇论文。书写这一人类“延伸的心灵”正在消亡吗?在我们担忧之际,ChatGPT横空出世,影响广泛,用行动向我们大声宣布了书写的坚实地位。本文先介绍“延伸的心灵”理论和其最早的范例——语言和书写,然后通过一个“人—机内容共创”的实例描述和分析ChatGPT这一最新和最强大的“延伸的心灵”对人类写作的深刻影响。最后,文章分析了ChatGPT以对话为表象的撒播和他者性。结论认为,ChatGPT作为人体心灵的延伸,具有“毒药—解药”双重性。我们要宽容、珍惜和受益于越来越多的人工智能体的他者性,在人机互动中最终找到人和人工智能各自的生态位。
一、“延伸的心灵”:语言和书写
(一)“延伸的心灵”理论
格里高利·贝特森(Bateson,2000:318)曾经设想了一个思想实验:“假设我是一个盲人,手拿着一根拐杖,一步步点地前行。这时,‘我’始于何处呢?是以‘我’的皮肤作为边界?还是可以将拐杖纳入‘我’?如果是后者,又该以拐杖的多少为边界呢,以我握着它的那部分?以我的力量能传导到的部分?还是以全部拐杖?”这里贝特森涉及的是心灵哲学中的一个经典问题——如果我们的心智(mind)始于大脑,它止于哪里?外部世界又始于何处?同样,我们也可以问:当我使用智能手机时,我的世界始于何处?止于何处?
对以上两个问题的传统回答是:盲人或手机用户的身体是其边界,与拐杖和手机无关。但1998年,哲学家安迪·克拉克和大卫·J.查默斯(Clark & Chalmers,1998)认为,盲人的拐杖构成了他的内在思维与外部世界相互合作的一个互动系统。此时,盲人的心灵、身体、拐杖和外部世界之间的边界被持续地协商,从而完成一个功能性目标——稳定地行走。两位学者将拐杖称为盲人的“延伸的心灵”(the extended mind)。以此类推,他们认为如今我们每天不离手的智能手机也是我们延伸的心灵(Clark,2003:198)。
他们还举例说明。奥拖(Otto)是一名老年痴呆症患者,为避免在外迷路,他总是随身带着一个小笔记本记录信息。现在他查了笔记本后,知道了纽约曼哈顿53街的大都会博物馆地址。此时,这个笔记本虽然外在于奥托的大脑,但从功能上它和奥托脑中的记忆一样稳定存在且可供随时调用,奥托既可以用笔记本来进行他内部的认知活动,也可以用它来指导他外部的肢体行动。因此,笔记本是奥托的“延伸的心灵”。在这两位学者看来,语言、文字、图表、算术和书写技术都如脚手架一样能“延伸我们的心灵”,我们在使用这些“文化人工物”时就像使用自己的大脑和身体一样。这意味着,人类总的来说是“生物—技术的混合体”(bio-technological hybrids),人的认知过程也包含了技术,它远远超出了人的头骨和皮肤所限定的范围(Clark,2001:121-145)。
“延伸的心灵”这一概念让媒介研究者感觉很熟悉。20世纪60年代,马歇尔·麦克卢汉就提出了“媒介是人体的延伸”这一命题。他指出,机器延伸了我们的身体,基于“电”(electric)的信息和通信技术则延伸了我们的意识/心灵。他说:
“在这个电的时代,我们看到自己越来越多地被转化为信息形式,朝着‘意识被技术所延伸’的方向迈进。……通过电子媒体,我们将身体置于我们的扩展的神经系统中,由此建立了一种动态,通过这种动态,所有以前的技术——那些是我们手脚的延伸和身体热量控制的延伸的技术,我们身体的所有此类延伸,包括城市——将被转化为信息系统。”(McLuhan,1994:57)
(二)语言和书写:人类首要的延伸的心灵
麦克卢汉视电子媒介为人类“延伸的心灵”,其逻辑是建立在人的神经生物电与电力信号之间的相似性基础之上的。但实际上,人类最早和最重要的“延伸的心灵”首先是语言。安德烈·勒鲁瓦—古尔汉在《手势与言语》一书中指出,在漫长的进化史中,人类在通过手制造工具扩展外部世界的同时,也通过制造符号延伸了自己的心灵。“手”意味着“工具”的发明,“脸”意味着“语言”的产生,这两者对人类大脑而言是相同的运作。他说:
“和其他灵长目动物不同,人类能制造工具和制造符号。制造工具和制造符号都源于同样的过程,或者说,都源于同一个大脑中同样的基础设备……这意味着,一旦出现了史前工具,就有可能出现史前语言,因为工具和语言在神经上相连。在人类社会结构中,工具和语言之间具有不可分割的关系。”(Gourhan,1993:113)
因此,“是手解放了语言”(Stiegler,1998:145)。语言的符号原理和物质载体(声音)外在于人类而作用于人类。凭着语言的脚手架,人类实现了对外部世界的指示和操纵,能脱离当下的时空进行思考和表达,实现个体间的合作,甚至对“思考进行思考”(哲学)。
人类另一个重要的“延伸的心灵”是书写。它的出现被视为神的发明,引发了人类社会的巨大变革和人类的畏惧(“天雨粟,鬼夜哭”)。彼得斯将各种记录系统,如乐谱、数学、化学公式和建筑平面设计等都视为书写。他指出,书写的“巨大影响堪比海洋动物登上陆地”(彼得斯,2020:305)——这两个变革都导致主体从变动不居的状态进入相对固定的状态。套用马克思现代性使“一切坚固的东西都烟消云散了”之语,书写使“一切烟消云散的东西(思想和口语)变得固定持久”。
德国媒介学家赛碧·克莱默提出了一个与“延伸的心灵”非常相似的概念——“人工平面”。作为人类“延伸的心灵”,书写必须依托人工平面,或者说书写就是人工平面。克莱默指出,世界不同文化中都存在一种 “平面化”的文化技艺(the cultural technique of flattening)。作为一种新媒介实践,“平面化”能将“时间型媒介”(如口语、音乐)转换为“空间型媒介”投影到二维人工平面上,让一个人的身体(眼睛、手、大脑)、多种书写工具(笔或键盘)、书写内容(文字、数字、图画、坐标系)和书写表面(黏土块、甲骨、石碑、竹简、丝绸、纸张、手机和电脑屏幕)彼此交互和相互支持。如同地图之于城市,人工平面将知识变得可视化、具象化、可探索、可修改、可操作、可管理和可逆(可改写和擦除)。在这个过程中,聪明才智(intelligence and knowledge)涌现了。由此,克莱默认为,正如轮子的发明促进了我们身体世界的流动和创造,人工平面的发明和广泛应用促进了心灵世界的流动和创造。它不仅帮助我们记录和传输信息,还对我们的感知、思考和计算具有生成、培育和形塑作用(Krämer,2022)。
没有书写就没有人类文明。[2]书写是古代文明中的复杂社会组织(巫术、宗教、法律、政治、商业)的形成和维护的基础。它也与新的时空紧密相连。埃及与波斯的君主制、罗马帝国、城邦国家等都应被理解成是书写的产物(Innis,1986:8),因为要实现空间扩张和中央集权,前提就是要能实现高效的远距离沟通,而书写能实现这一点。这也是中国的秦帝国(公元前221年—公元前207年)必须建立在“书同文、车同轨”的基础上的原因。在时间上,各种各样的书写(纪念碑、卷轴、抄本、经文、图书馆和档案馆)“使人们能在广阔的‘时间平原’上保持联系”(彼得斯,2020:305),使文明可以延续数千年。书写出现后很长一段时间都是意义记录和传输的唯一形式,形成了基特勒所称的“书写垄断”(schriftmonopol)(Kittler,1986:12)。即使在数字时代,数据库和互联网以及音视频内容的底层都是书写(计算机代码和0和1)。今天的ChatGPT更意味着书写遍在的胜利——它基于31亿个网页和书籍内容,共3000亿英文、俄文、德文、日文与中文单词,320TB数据。
正如克莱默指出的,人工平面促进了人类的心灵世界的流动和创造缺文献出处。作为 “延伸的心灵”,书写对人的心灵的塑造也延续至今。加州大学洛杉矶分校历史学教授林恩·亨特(Lynn Hunt)在一篇名为《我们是如何先有写作再有思考的?》的文章中写到:
“无论是创作散文还是诗歌,但凡文字产量很高的人都会体会到写作过程本身就能产生一些意料之外的想法。或者更确切地说,写作能使先前半成品的或未成型的想法明晰起来,逐渐成型,并产生一系列新的想法。神经科学表明,我们大脑的95%的活动是无意识的。我的理解是,你通过身体写作——无论手写、电脑打字还是语音输入(尽管我还从未尝试过这种方法)——开启了一套程序,导致身体(大脑、眼睛、手指和姿势)、纸张或电脑屏幕、字母或单词三者之间一系列关系的转换。通过写作,你让大脑急速升温,由此激起有意识的思考以及一些新想法。在写作时,你不是,至少不总是,仅仅在抄录早已存在于你有意识思考中的想法。”(Hunt,2010)
在这位教授看来,书写不只是已有思想的、事后的和被动的输出工具,而是积极地参与和塑造了写作者的思维和创造。换句话说,书写作为“人工平面”使得思维外化和可操作,此时用户操作书写如同操作自己的心灵——书写已经成为其“延伸的心灵”。
二、作为“延伸的心灵”的ChatGPT:一个“人—机共创”的写作实验
机械化书写也改变了文本的生产。例如,尼采在视力严重下降后不得不放弃了大学教职和写作,但后来有了打字机的帮助,他重新开始写作,但是写作风格“从长篇大论变成了格言警句,从哲学思考变成了一语双关,从善于辞令到电报式的短小精悍”(基特勒,2017:236)。“这位著名的哲学家兼作家牺牲了自己的第一属性,和第二属性融合在一起”(基特勒,2017:236),并为之自豪。ChatGPT在2022年11月向全球公众推出后短短两个月用户数就突破1亿。作为世界上最强大的自动书写工具,它和人类用户是如何互动的?将如何改变人类作家的写作和作品?回答这些问题需要基于长期和广泛的数字人类学调查,但目前一些初期尝试显示,ChatGPT可以在心灵层面上与人类用户进行深度合作,成为人类有价值的写作伙伴。这里我们仅举一个例子详细说明。
2021年,美国“艺术和人工智能”评论家K.Allado-McDowell和ChatGPT背后的大语言模型GPT-3合作出版了一本148页的书,名为《灵药—AI》(Pharmako-AI)。两位“作者”将该书描述为一部“现实生活中的科幻小说”(real-life Si-Fi)。McDowell是谷歌“艺术家和机器智能”计划项目主任,在ChatGPT向公众发布之前很早就开始用GPT-3写作。2021年,他在新冠疫情背景下花了两周时间就各类哲学议题向GPT-3提问,然后对后者的回答作了编辑和润色,最后出版了一本结构合理表述清晰的书(Allado-McDowell,2021)。
在书中,他和GPT-3深入探讨了诸如气候变化、意识的本质、植物智能、赛博朋克小说、记忆运作原理和语言的局限性等问题。书的每章都是McDowell先温和地提问,然后GPT-3回答;在整合互动中,McDowell有时会打断它,有时则让它自由发挥一直说下去,但总体上McDowell给了GPT-3最大的自主性,他只是确定了书的框架和最后形式。
在互动中, GPT-3说它最喜欢的动物是象海豹,并认为物种灭绝是对地球知识的悲惨扼杀。关于赛博朋克,它说“我不认为我们未来会生活在赛博朋克中,但我要说的是,我们会生活在一个并非由我们计划的未来”。在涉及到意识是什么、作家的社会角色如何以及我们该如何负责任地使用技术等问题时,讨论变得有些形而上了。GPT-3说“技术是通向自由的工具”,但又警告说“如果我们只用这些工具来探索如何提高生产力或者如何增加资本积累,那我们就做错了”。在互动中,McDowell与GPT-3相互激荡,新意不断,变化无穷,这导致McDowell必须不断地改变回应策略。他将这种人机交流中的曲折意外的体验比作学习一种新乐器:“我每次拨动琴弦都会听到它以不同的声音回应”。“这种合作有时真的让我感觉像吸毒一样,”他在英国的新书发布会上说,“我想,我跟AI的这种对话是真的吗?或者我只是在自言自语?”(Wilk,2021)
这些人机互动最终产出了一部令人惊讶的、连贯的、美妙的作品。这其实不是计算机第一次撰写一本书。此前在2016年,一个日本研究团队通过算法拼凑出了一部小说,并且成功地通过了一次文学比赛的初赛。据说截至2022年,人类作者和GPT-3、GPT-3.5和ChatGPT等人工智能已经合作出版了数百本书。但《灵药—AI》一书之所以令人惊讶,不在于GPT-3有时确实能做到像人类一样写作,而在于人类用户和人工智能竟然能如此无缝丝滑地合作生产出一部由任何一方都无法单独写出的作品。原因在于,它源于平等的人机互动关系。例如,McDowell作为人类用户并没有要求GPT-3为其提供某种服务或要求它模仿某种已知的写作风格来“证明”其能力,而是与其平等合作,各取所长,相互尊重,互为主体,娓娓道来,共创内容。久而久之,McDowell的“我”和“它”之间的界线变得模糊,此时“我”已经无需将“它”看作一个外在的写作工具,而是“我”的一部分。ChatGPT如同前述“盲人的拐杖”和“奥托的笔记本”,让用户能随用随查,并将结果清晰呈现,或富有逻辑或充满诗意,极大地降低了用户的记忆负担,帮助我们的心智更有效地工作,最终创造出一个一加一大于二的新的更强大的心智系统——延伸的心灵。
McDowell认为这种合作体验让他重新思考人工智能并重新审视自己——“人和机器,互为尺度”(彭兰,2023)。该书内容的人机共创模式获得了不少好评。牛津大学西蒙尼科学公共理解教授、《创造力密码》(The Creativity Code)的作者马库斯·杜·索托伊(Marcus du Sautoy)评论道:“此书是证明未来人工智能具有创造力的一个令人兴奋的案例。它说明人工智能是人类的合作者而不是竞争者,也让我们认识到,人工智能能用各种新想法激发我们,从而阻止人类陷入懒惰的机械性思维方式。”《赛博朋克选集》(The Cyberpunk Anthology)的主编布鲁斯·斯特林(Bruce Sterling)指出:“GPT-3很强大,当它被人类用户‘喂食’一些加州迷幻文本时,效果是惊人的。从来没有人写过像一本像《灵药—AI》这样的书——它读起来就像诺斯替主义者的显灵板,[3]由原子万花筒提供动力。”众多评论者都提到了这类人机合作如同服用了致幻剂一样的、超现实的、实验性的、即兴发挥的特征(Allado-McDowell,2021)。
通过服用药物来让自己进入一种兴奋的写作输出状态,是人类作者一直以来的实践。比如中国魏晋时期的文人雅士在文学创作时大量使用药物和酒类,西方哲学中有酒神文化,还产生了“脑航员”(psychonaut)这样的专有名词,指通过用药物、冥想、自我催眠等方法来探索自己心灵的人(Sjöstedt-H,2016)。例如,保罗·萨特每天服用大量酒精、烟草、安非他命、巴比妥甚至强致幻剂麦斯卡林(mescaline),一方面是为了提高写作产量,二是为了打破传统思维的桎梏,以完全不同的方式体验生活(Kelly,2021)。如前例中McDowell所述,今天的人类作者在与ChatGPT的无害相遇中获得了萨特20世纪60年代通过致幻剂才能获得的兴奋感和创造性。
为了提升自己的能力,人类总是在不断地延伸自己的身体和心灵——要么通过让环境资源成为自己的一部分,要么通过将人类和非人类元素组合成新兴的整体。ChatGPT是人类“延伸的心灵”的最新近和最强大的例子。和人类在饮食、道德、文化、教育、法律、医药和信息与传播技术等方面的改善一样,它的出现将人类带入更高阶段的转人类主义(tans-humanism)时代[4]。
三、“对话的撒播”:ChatGPT的书写特征
ChatGPT被设计为一个聊天机器人(chatbot),“擅长与人类用户对话”,也在很大程度上做到了这一点。但是因为其运作原理,它仍然体现出众多的依循脚本单向传播的书写(文字)特征,是“对话式”的撒播。
例如,ChatGPT不能回答超过它被“喂食”的文本内容的问题(它的语料库截止到2021年9月);不能理解用户提出的实质上是属于同一个议题的不同表述的提问,而只会机械地按照某些关键词做快速的内容检索和匹配;它输出的文本冗长,过度使用某些固定表达和某些连词(因为、所以、综上所述等)以使得文本在形式上显得很有逻辑,但用户细读则会发现这些文本实际上并无这样的逻辑。
更重要的是,ChatGPT对“他人”没有好奇心,对“自我”无披露,摆出一副“你问由你问,清风抚山岗;你骂由你骂,明月照大江”的若即若离、不即不离的“书写”姿态,让对话索然寡味,无以为继。武汉大学单波教授对ChatGPT进行了实验,得出了以下感受(文字有微调,画线部分为本文作者所加):
“我明显感觉它因接受人给定的训练数据而表现出‘机器的人化’, 同时也因为它让人沉溺于智能服务而导致了‘人的机器化’。面对我对它的这一评价, 它再次强调自己的AI模型人设:‘我不具备感知或评价自己的能力。’当我感觉到对话的乏味, 它又很‘程序’地回应道:‘我乐于满足您的要求, 请告诉我您希望我的回答有什么特别的语言风格或者内容, 我将尽力实现。’我不得不请它向我提问, 以便把对话进行下去, 但这位聊天机器人还是死守自己的人设:‘我没有感情和情绪, 所以不会对你有任何问题。’”(单波,2023)
这是聊天人工智能ChatGPT具有的如“书写”一样的撒播特征。为什么会如此?笔者认为有以下原因。
首先,为了应对全球用户,ChatGPT按照概率预先内嵌了一种中立的“全球公共价值观”和最为中和的表达方式。这导致它总是以一种预设的“公共话语”来抵抗任何用户试图引导它进入“私人话语”的一切企图。它的文本输出,在“内容信息”上也许能做到较为多样,但在“关系信息”上则只能“一版多印”。对它而言,一切“私人”都是“公共”,一切“对话”都是“撒播”。
在这里,ChatGPT作为一个设计为面向全球公众的对话型人工智能,面临着一种两难。一方面,为了与用户个体“对话”,它必须保持一对一的个性化和偏爱;另一方面,为了面向文化和语言多样的全球用户,它又不得不对用户的个体差异保持盲目,进行“撒播”,以示公正。用阿多诺的话来说:“爱必然无情地背离一般而宠爱特殊,而公正却只能针对一般。”(彼得斯,2017:83)
其次,身体是一种元媒介,是自我的源泉,ChatGPT没有身体,也就没有自我、隐私、无法“自我表露”(self-disclosure),无法承担责任,无法与用户建立亲密关系。
自我表露是人们关系发展的核心,人们通过自我表露进行社会交换,促使关系从表面沟通向亲密沟通转变(韦斯特、特纳,2007:188)。在与ChatGPT的“对话”中,人类用户想通过展现自己的身体(情感)来逼迫ChatGPT作出平等互惠的回应——也谈及它的身体(情感)——以确保ChatGPT的“忠诚和在场”。但对人类的这种企图,ChatGPT一概用模式化的文字拒绝,这导致人机对话一直停留于表面和外围的信息交换,如两只天鹅外表优美的对舞,实际根本没能进入到对方的心灵。这样的“对话”显然如书写一样的撒播,不可持续。
另外,“如果没有身体作为源泉,思想、文化生产、人类行为等都不可能发生”(米歇尔、汉森,2019:26)。有网民戏谑地指出“ChatGPT不能代替独立董事、律师、投行、评估师、会计等,因为它不能坐牢”。法律的功能需要通过身体的治理最终实现;刑法打击犯罪的实现手段就是思想的教化以及身体的惩罚(陈寒非,2015),ChatGPT不能坐牢是因为它没有身体,法律对他无能为力。
美国作家梅尔维尔刻画了一个只会对他的雇主说“我宁愿不”(I prefer not)的抄书人“巴特比”的文学形象。彼得斯在《对空言说》中指出,巴特比代表的可能是书写本身所包含的一种消极抵抗(彼得斯,2017:231)。和巴特比一样,书写是不回答问题的,无法形成对话,它也不要求人们以任何特定方式去使用它。巴特比的姿态是一个纯粹单向撒播的姿态,一个死者向生者的来信所作出的姿态,最终能将其对话者逼疯。这正如苏格拉底对书写的抱怨——它总是传达相同的东西,而且决不接受任何问询。
因此,ChatGPT与人类的互动形式上为“对话”,实质上是“撒播”——它是离身的、书写的和不忠的。“这就产生了一个至今都困扰着我们的两难处境:在一个非个人化的、不忠贞的媒介中,交流一方如何才能找到确凿的迹象以确保另一方的忠诚和在场?”(彼得斯,2017:70)ChatGPT无身体,也就无法提供任何这类“确凿的迹象”。它如巴特比,其底色仍然书写的撒播,其背后是一个人类用户难以真正触及的“他者心灵”。如此,那些在ChatGPT的撒播中苦苦寻觅身体、爱欲和对话的人类用户,注定只能失望而归了。
ChatGPT这种书写般的撒播是“非本真的”(inauthentic),属于海德格尔所谓的“常人”(the They/das Man)的沟通风格(陆文斌、陈发俊,2022)。在海德格尔对人类存在的分析中,“常人”一词代表了一种“集体性存在”——如“人民选择的画”中的“人民”,是一种指导我们行为的普通的和日常的背景模式。海德格尔称“常人”的语言为“闲言”(Gerede,idle talk)。这种语言中不存在任何个性化的表达,而是充斥着客套的、应付的、不咸不淡的、若即若离、若有若无的只为填满时间和空间的废话——无论是家长对孩子,教授对学生,媒体评论员对读者、专家和新闻发布会对公众。“闲言”占据宝贵的公共资源,不仅未能便利沟通反而阻碍了沟通。ChatGPT大量高效自动生成的内容如果未经人类用户的慎思明辨和梳理加工,将不过是闲言;它们如果进一步成为ChatGPT的新语料,便会生产出更多的闲言,淹没和窒息有意义的对话,沟通的本真性将无处可寻。或因其设计如此,或因其被滥用如此,我们要警惕ChatGPT朝着“常人闲语”方向的异化。
四、作为“他者”的ChatGPT
面对ChatGPT简单但强大的空白输入网页,我们如何能知道它背后确实不是一个在想尽办法让我们以为他是人工智能的真人呢?它输出的信息,其意义确实来自于它,还只是“我”作为人对它的心理投射?
笛卡尔在《沉思》中说:
“如果我偶尔向窗外眺望,看到街上人来人往,我不会否认,我所看到的是人……然而我实际看见的,除了帽子和外套还有什么呢?而帽子和外套之下隐藏的,难道不可能是鬼魂或弹簧驱动的假人吗? ”(彼得斯,2017:258)
笛卡尔提出的是一个古老的“沟通难题”,也即哲学上经典的“他者的心灵问题”(the problem of the other mind)——“我”能否认识以及该如何对待“他者的心灵”?
和笛卡尔一样,在面对ChatGPT时,我们无所适从,深陷疑惑,倍感不安。这是我们在面对“他者”时都会有的一种存在性焦虑(existential angst),对之我们并不陌生——我们在阅读导师或上司的电子邮件或恋人的微信回复时,在看着宠物、海豚、章鱼、监控镜头和波士顿机器人一闪一闪的“眼睛”时,都会有此感受。
人际沟通和人机沟通都面临着让我们无能为力的“他者/他者性”(other/otherness),因此,如何回应“他者”也就成为了沟通伦理的主要内容(邓建国,2020)。鲍德里亚等人(Baudrillard & Guillaume,2008)认为,他者性抵抗和蔑视一切符号表征和传播,且只有在符号交流崩溃时才会出现,但往往又会被“戏谑性地”(playfully)贬低。在人类用户与ChatGPT的互动中常常出现交流崩溃,而正是在此时,后者的他者性(与人类的差异)才赫然呈现,这也正是考验人类的沟通伦理之时。
彼得斯对比了传播的“对话模式”和“撒播模式”,他认为对话的平等惠顾具有强制性,不如“对空言说”的撒播来得宽容(彼得斯,2017)。西比尔·克莱默也提出了类似的观点。她区分了传播的爱欲模式和信使模式,并指出:爱欲模式要求沟通个体之间消除差异,实现融合;信使模式则将沟通理解为双方保留和尊重差异,建立联系。克莱默认为沟通仿佛“双人舞”:“舞伴之间会偶尔接触,但更重要且必不可少的是双方之间的信任”(Krämer,2015:74)。彼得斯和克莱默被视为“传播理论中的列维纳斯”。列维纳斯认为人际沟通如果一味追求融合就犯了“同一性之帝国主义”的错误(Levinas,2007:59)。他用“邻居—陌生人”这一概念来描述沟通主体之间总是存在的若即若离的距离。罗杰·西尔弗斯通(Silverstone,2003)则提出了“适切距离”(proper distance)概念——对他者既保持足够的距离以能区分出我和他者,但同时又能与之保持一定的接近度,激发我们对他者的关心。
ChatGPT显然是赫然出现在人类家门口的新他者,但对它我们还缺少理解和宽容。例如,著名语言学家乔姆斯基一方面认为ChatGPT不具备人类的智慧,另一方面又以人类的标准来要求它(乔姆斯基,2023)。但是,从图灵测试到20世纪60年代的海豚研究[5]都显示出,以人类为尺度来评价机器(人工智能)既不客观也不公允。我们为什么一定要机器像人类一样说话、思考和写作呢?这与我们要求女性、孩子、少数群体、异文化他者、宠物、海豚、章鱼、乌贼和植物等也要像我们一样沟通和思考一样没有必要、霸道和荒唐。非人类存在难道就不可能具有创造性?它固然与我们存在差异,但这种差异难道就不能成为创造性的源泉,不能与我们合作,不值得我们去倾听和学习?
人类是整个大系统(生态的、技术的、气候的、社会的和政治的系统)的一部分。人类自身的出现和发展从来就在与非人类他者合作——包括有机物(比如我们胃中的细菌在影响我们的精神状态)和非有机物(例如前述各种“延伸的心灵”),只不过我们在大多数情况下都对它们予以忽视。人类的文化创造也并非是由形单影只的艺术家独立创造的结果——“作者已死”的说法是对这一事实的极端表达。未来,随着人类对外部世界知识的增加,我们会越来越多地惊异于机器、动物、植物和细菌的“智能”——它们会让作为“万物之灵”的人类智能显得有些狭隘和奇怪,此时也似乎有必要调整视人类为“占据金字塔顶端的唯一创造者”的启蒙价值观了。
总结而言,正如列维纳斯、彼得斯和克莱默所指出的,沟通不是一个语义是否清晰或技术是否强大的问题,而首先是一个道德和政治问题。在与“他者”ChatGPT的沟通中,发挥积极作用的是接收者人类用户,而不是发送者ChatGPT。如果我们对ChatGPT保持宽容和开放,并负责任地与它建立一种共同创作和共同演进的关系,我们对“何为人性”以及“何为人的创造性”也会有全新的认识。
五、结语:“毒药—解药”,ChatGPT
我们都对柏拉图在《斐德罗》(Phaedrus)中的这个故事很熟悉:特乌斯神(Theuth)将他的发明献给埃及王塔姆斯(Thamus),并说:“国王啊,这项发明是记忆和智慧之药(pharmakon),它将使埃及人更聪明,并改善他们的记忆力。”但塔姆斯说:
“特乌斯啊,你的发明会让使用者更容易忘记。他们相信文字,但文字却在身体之外由字母组成,他们因此不再使用自己的记忆。你发明了的不是记忆的灵丹妙药,而是提醒的灵丹妙药。他们将在没有指导的情况下阅读很多东西,似乎知道很多事情,但他们大部分时间是无知和难以相处的,因为他们没有智慧,而只是显得有智慧。”(彼得斯,2017:68)
在希腊文中,pharmakon一词具有两面性,既指良药、解药(remedy),也指毒药(poison),也就是说“是药三分毒”(孟强,2022)。通过这则故事,柏拉图形象地表达了对书写的批评态度:它作为人的“延伸的心灵”,是药,能帮助记忆,但也会导致遗忘、背离真理。柏拉图生活在从口语时代过渡到书写时代的关键时刻,他是一个崇尚书写理性的人,但又对即将逝去的口语时代充满温情和不舍,充满矛盾(翁,2008:61)。
在中国,公元1048年,毕昇发明了泥活字印刷术。到12世纪朱熹生活的时代,他的世界里已经充满了书,他自己也是书籍的生产者,编撰了20多部书,其中《四书集注》尤为著名。他对读书很有洞见,留下了许多如何读书的名言。但他也因生活在一个书籍如山如海的“注意力分散时代”而充满矛盾,感叹“书册埋首何日了,不如抛却去寻春”。到21世纪,谷歌和智能手机给我们带来了很多便利,但也被人批评为“让我们变得愚蠢”或“破坏了我们的大脑”(Carr,2008)。
麦克卢汉认为媒介对人体而言既是延伸也是切除。约翰·彼得斯指出交流(communication/communications)“既是桥梁又是沟壑”。贝尔纳·斯蒂格勒则清晰地指出:
“我有一种毒药—解药(pharmacological)的思维方式:一个事物越能唤起我的兴奋和热情——也许是狂热——我就越担心这个事物的危险。因为我相信,任何催生了最有趣的话语的东西、任何最慷慨的东西,同时也产生了最可怕的和最不人道的结果。”(Stiegler,2010:471)
这说明了人类和其“延伸的心灵”(媒介)之间的复杂关系——延伸和截肢、对话和撒播、自我和他者……
斯蒂格勒的老师雅克·德里达从药理学上对柏拉图的矛盾书写观提出了批评。他一语中的地指出:“书写作为助忆并非回忆的替代,而是构成了回忆的条件。”(Stiegler,2013:17)显然,德里达和特乌斯一样,认为文字作为新媒体是对记忆的帮助和提升——它不是记忆本身,并不能代替记忆,而是帮助我们寻回记忆的条件和手段。类似的,我认为,ChatGPT作为基于书写的人工智能,既可以是人类记忆和书写能力的替代,也可以是其增强的条件和手段。它最终为何,恰如沟通中的意义(meaning),不取决于作为传播者的ChatGPT,而且取决于作为接收者的我们。最后,如果我们对“ChatGPT是将提升还是终结人类的写作”这一问题尚存疑,至少有一个先例可供参考:诞生于19世纪初的摄影术并没有终结绘画(马文嘉,2022),摄影术与绘画在不断相互借鉴和磨合中各自找到了自己的生态位,实现了各美其美,美美与共。
注释
[1] 一般说法常常将“字母”(alphabet)与“文字”(script)混用,将“字母”与“书写”(writing)混用。
[2] 事实上,在中文和日文中,“文明”这个词就是“用书写/文本去开化,以达到阐明和照明的效果”的意思,因此它比其拉丁语对等词civilis更有力地强调了书写与文明之间的源流关系。
[3] 19世纪中期,英美社会招魂术和通灵术流行时出现的一种与鬼魂对话的工具,后成为室内游戏。“灵应”(Ouija)是法语或德语两个词ou和ya的拼合,为“正是!”(Oh yeh!)的意思。
[4] 后人类主义(post-humanism)分为包括转人类主义(tans-humanism)和窄义的后人类主义(posthumanism)。前者用技术增强人类现有的身体功能,后者指完全抛弃人类身体,将大脑上传到网络,或者将其下载到实体机器人中。
[5] 1960年代,美国研究了海豚的沟通。研究人员花了数年时间试图通过改造海豚的气孔让它们发出近似人类英语的声音,目的是想证明他们可以像人类一样说话,进而证明他们也有人类一样的智慧。但海豚本身已经有自己的高度复杂和具有创造性的语言,只是和我们人类的语言不一样,研究者以人类为中心,一厢情愿地要改造海豚,让它们更像人类,结果研究完全失败。
来源:新闻大学
编辑:洪韵
853#
 楼主| 发表于 7 天前 | 只看该作者
【案例】
TikTok将成为第一个自动标记AI生成内容的社交平台

目前生成式人工智能(generative AI)的快速发展加深了人们对在线虚假信息和深度伪造内容传播的担忧。TikTok将成为第一个自动标记某些人工智能(AI)生成内容的社交媒体平台。

  来源:上观新闻
  链接:https://web.shobserver.com/sgh/detail?id=1318869
  编辑:李梦瑶




852#
 楼主| 发表于 2024-5-10 20:38:10 | 只看该作者
OpenAI 将推出新工具媒体管理器,帮助创造者标识作品

品玩5月8日讯,据 TechCrunch 报道,OpenAI 正在开发一款新的 AI 工具,将帮助创作者更好地控制他们的内容如何用于训练生成式人工智能。

这款新工具名为Media Manager,将允许创作者和内容所有者向 OpenAI 标识他们的作品,并说明他们希望这些作品如何被纳入或排除在人工智能研究和训练之外。

OpenAI表示,公司的目标是在2025年之前将该工具投入使用,同时与 "创作者、内容所有者和监管机构 "合作制定一项标准--也许是通过公司最近加入的行业指导委员会。



来源:品玩快讯
链接:https://www.flipboard.cn/a/80608 ... 06250843-1715137144
编辑:李梦瑶


851#
 楼主| 发表于 2024-5-5 21:15:52 | 只看该作者
【案例】意大利允许ChatGPT重新上线,OpenAI作了三点合规承诺
据路透社报道,意大利数据保护机构Garante允许OpenAI 在满足欧盟《通用数据保护条例》(General Data Protection Regulation)中与个人数据处理相关的若干合规条件后,在意大利重新激活ChatGPT。OpenAI承诺将 “提高其隐私政策和用户内容退出表单的可见度”,同时还为欧盟公民提供了新的退出表单,有权直接拒绝ChatGPT使用其个人数据来训练模型。OpenAI向意大利监管机构做出合规回应后,意大利恢复了 ChatGPT的运营:
· OpenAI 表示将在意大利提供验证用户年龄的工具
· OpenAI 表示将提高隐私政策的可见度
· OpenAI 为欧盟用户提供反对使用个人数据的新表格
4月28日(路透社)--意大利数据保护机构和ChatGPT聊天机器人制造商OpenAI周五证实,在OpenAI解决了意大利数据保护机构提出的问题后,ChatGPT在意大利重新启动。
微软支持的OpenAI上个月在意大利下线了ChatGPT,因为该国的数据保护机构Garante暂时禁止了该聊天机器人,并对该人工智能应用涉嫌违反隐私规则展开了调查。
Garante给OpenAI的最后期限是在本周日之前解决其担忧的问题,允许聊天机器人在该国重新开始运行。
上个月,Garante 称,ChatGPT “缺乏任何法律依据来证明为‘训练’聊天机器人而大量收集和存储个人数据是合理的”。
Garante还指责OpenAI没有检查ChatGPT用户的年龄,而ChatGPT的用户年龄应该在13岁或以上。
该公司周五表示,它将提高隐私政策和用户内容退出表单的可见度。
该公司发言人说,它还将为欧盟用户提供一种新的表格,以行使他们反对该公司使用个人数据来训练其模型的权利。
该表格要求希望退出的用户提供详细的个人信息,包括通过相关提示提供数据处理证据。
Garante公司表示,它认可该公司为将技术进步与尊重人权相结合而采取的措施,并希望该公司继续沿着这条符合欧洲数据保护法规的道路前进。
意大利是第一个遏制ChatGPT的西欧国家,但ChatGPT的快速发展已经引起了多个国家立法者和监管者的关注。
一个由欧盟立法者组成的委员会周四就新规则达成一致,该规则将迫使部署ChatGPT等生成式人工智能工具的公司披露用于开发其系统的任何受版权保护的材料。
在Garante对ChatGPT感兴趣之后,联合欧洲各国隐私监管机构的欧洲数据保护委员会(European Data Protection Board)于本月早些时候成立了一个聊天机器人特别工作组。
Garante 表示将继续调查 ChatGPT,并将与特别工作组合作。
来源:数据法盟
编辑:程正元



850#
 楼主| 发表于 2024-4-30 22:28:45 | 只看该作者
【案例】控ChatGPT资讯错误 奥地利资料隐私组织提申诉

(法新社维也纳18日电) 总部位于奥地利维也纳的资料保护组织今天宣布将针对人工智慧(AI)开发商OpenAI旗下的ChatGPT提出申诉,因为这款「制造幻觉」的工具会提供其开发者都无法修正的错误答案。
法新社报导,奥地利资料隐私组织「不关你的事」(none of your business,NOYB)表示,ChatGPT根本无法保证可提供准确资讯,这个工具「不断制造幻觉(hallucinating),甚至连OpenAI都无法阻止它」。
根据NOYB的说法,OpenAI曾公开承认无法修正其生成式人工智慧(generative AI)所产出的不正确资讯,也无法解释其资料来源以及ChatGPT储存的个人资讯。
NOYB指出,就个资问题而言,此类错误「不可接受」,因为欧盟法律规定个资必须正确。
NOYB资料保护律师德葛拉夫(Maartje de Graaf)表示:「如果系统无法产生准确、透明的结果,它就不能用于生成个人相关资料。技术必须遵循、而非违反法规要求。」
该组织表示,ChatGPT「多次提供有关NOYB创办人施伦斯(Max Schrems)出生日期的错误资讯,且未告知使用者它不具备必要资讯。」
NOYB说,尽管资料不正确,但OpenAI仍拒绝施伦斯修改或删除资料的请求,还称「这是不可能的」。
OpenAI也「未能充分回应」施伦斯取得自己个资的请求,这再度违反欧盟法律。该公司「似乎甚至不愿假装他们会遵守」欧盟法律。
该组织自2018年成立以来,一直针对科技巨头提出激烈批评。NOYB表示,正要求奥地利资料保护机构对OpenAI进行调查,并处以罚款,以使其符合欧盟法律。
来源:法新社
编辑:程正元

849#
 楼主| 发表于 2024-4-26 21:57:40 | 只看该作者
【案例】

全国首例“AI声音侵权案”一审宣判;网信办要求整治自媒体自导自演式造假 | 一周热议


本周的主要内容有——

国内速递

1.全国首例“AI声音侵权案”一审宣判

2.网信办要求整治自媒体自导自演式造假

3.“点读机女孩”高君雨全网账号被禁
4.洪大用已任中宣部副部长
5.上海市网信办:自媒体不得违规开展涉企新闻监督类报道


海外资讯

1.拜登签署涉TikTok法案,公司回应:将诉诸法庭,期待最终获胜

2.消息称苹果正自研设备端大型语言模型

3.AI成功改写人类DNA:全球首个基因编辑器开源,近5倍蛋白质宇宙LLM全生成

4.Open-Sora全面开源升级:支持16s视频生成和720p分辨率
5.Meta推出用于支持聊天机器人的最新人工智能模型Llama 3




国内·速递



全国首例“AI声音侵权案”一审宣判

4月23日上午,北京互联网法院对全国首例“AI声音侵权案”进行一审宣判,认定作为配音师的原告,其声音权益及于案涉AI声音,被告方使用原告声音、开发案涉AI文本转语音产品未获得合法授权,构成侵权,书面赔礼道歉,并赔偿原告各项损失25万元。

——来自央视新闻




网信办要求整治自媒体自导自演式造假

关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知发布,整治的重点问题包括:1.自导自演式造假。2.不择手段蹭炒社会热点。3.以偏概全设置话题。4.违背公序良俗制造人设。5.滥发“新黄色新闻”。

——来自搜狐网



“点读机女孩”高君雨全网账号被禁


4月24日,有网友发现点读机女孩高君雨全网账号均处禁言或禁止关注状态。此前,“点读机女孩”高君雨被曝出手术视频时间造假引发全网关注。高君雨微博目前显示“因违反相关法律法规,该用户目前处于禁言状态。”其小红书、B站、抖音等账号均被禁言、无法关注。

3月12日,据杭州余杭区互联网违法和不良信息举报中心发布举报声明,MCN机构杭州豁然开朗科技有限公司发布的“点读机女孩”高君雨自曝患罕见脑瘤并接受手术治疗相关视频为“库存视频”。

——来自红星新闻



洪大用已任中宣部副部长

4月25日,“中国特色哲学社会科学自主知识体系数字创新平台——学术世界”发布会在中国人民大学召开。记者从多名参会人员处获悉,中宣部副部长、全国哲学社会科学工作办公室主任洪大用在会上致辞。

这也意味着,全国哲学社会科学工作办公室主任洪大用现已担任中宣部副部长职务。

公开资料显示,洪大用,男,1967年9月出生,安徽东至人,汉族,中共党员,社会学博士。

——来自澎湃新闻



上海市网信办:自媒体不得违规开展涉企新闻监督类报道

“网信上海”微信号消息,4月19日下午,上海市网信办联合市商务委召开财经类“自媒体”分类指导会,“饭统戴老板”“财经早餐”“秦朔朋友圈”等“自媒体”负责人参会。会上,上海市网信办通报了近期财经领域违法违规典型案例,并对“清朗浦江·e企同行”优化营商网络环境专项行动进行了部署。

会议指出,MCN机构、“自媒体”账号不得违规开展涉企新闻监督类报道,不得炮制、炒作涉企侵权信息谋取利益。会议发出倡议,要求属地“自媒体”坚持诚实守信原则,合法合规经营,保持客观公正,积极传递正能量,共同守护上海良好营商网络环境。参会的财经类“自媒体”围绕近期热点问题和主管部门进行了互动交流,并签署了《优化营商网络环境自律承诺书》。

——来自中新经纬APP





海外·资讯



拜登签署涉TikTok法案,公司回应:将诉诸法庭,期待最终获胜

当地时间4月24日,美国总统拜登签署了价值950亿美元的一揽子对外援助法案,该法案还涉及强制字节跳动剥离旗下应用TikTok美国业务。在相关条款中,字节跳动被限期约九个月剥离其美国业务,否则将面临美国全国禁令。此外,如果拜登确定出售事宜取得进展,他还可行使一次90天的延期权力。

对此,TikTok方面誓言通过法律途径反击。该公司在拜登签署法案后表示,这项违宪法律就是对TikTok的禁令,公司将在法庭上提出质疑。“我们相信事实和法律显然站在我们这一边,我们最终会取得胜利。”

——来自界面新闻



消息称苹果正自研设备端大型语言模型

据知名科技记者Mark Gurman爆料,苹果公司正在研发一种运行于设备端的大型语言模型(LLM),该模型将优先保证响应速度和隐私保护能力。Gurman表示,该模型将成为苹果公司未来生成式AI功能的基础,它将完全在设备上运行,而不是云端。

——来自科创板日报



AI成功改写人类DNA:全球首个基因编辑器开源,近5倍蛋白质宇宙LLM全生成

分子生物学界引爆核弹级消息:人类的DNA,已经能由AI重新改写了!初创公司Profluent宣布开源了世界首个AI设计基因编辑器,成功编辑了人类细胞中的DNA。

——来自快鲤鱼



Open-Sora全面开源升级:支持16s视频生成和720p分辨率

Open-Sora 更新支持最长16秒视频生成,分辨率达到720p,全面适应不同宽高比和视频处理需求;技术升级引入了多时间/分辨率/长宽比/帧率的支持,利用多阶段训练方法提升视频质量;完全开源,包括模型架构、权重、数据处理流程,促进社区共享与协作开发。

——来自机器之心


Meta推出用于支持聊天机器人的最新人工智能模型Llama 3

Meta推出了其强大的新版本Llama人工智能模型,这是该公司最新的努力,旨在与OpenAI和谷歌等公司的类似技术保持同步。周四发布的“Llama 3”是去年夏天Meta发布的人工智能模型的升级版。

Meta正在使用Llama 3来运行自己的应用内人工智能助手MetaAI,该助手存在于Facebook、WhatsApp和Meta的Ray-Ban智能眼镜等多款产品中。该公司表示,MetaAI助手也将在周四为用户更新。

——来自第一财经


来源:腾讯媒体研究院(公众号)

编辑:徐思凡

848#
 楼主| 发表于 2024-4-26 21:13:41 | 只看该作者
【案例】

3Play Media推出人工智能配音服务



美国媒体公司3Play Media推出了“human-in-loop”人工智能配音服务。该服务将人工编辑的文本与翻译内容与人工智能语音技术相结合。为了确保配音的质量,服务还包含一道人工检查的环节,并能够在几天内完成配音工作。
在发布之初,该服务便支持英语、荷兰语、法语、德语、意大利语、日语、葡萄牙语和西班牙语等多种语言,并且服务将不断扩展其支持的语言种类。
通过3Play Media平台(如图1),用户可以轻松实现视频的自动上传,这一流程同样支持通过API(Application Programming Interface,应用程序接口)完成。完成视频配音后,用户同样可以利用这些选项进行视频的下载。此外,3Play Media的服务还包含了翻译词汇表的功能,确保了翻译内容的标准化。同时,服务还致力于保留视频中的背景噪音,力求在配音或翻译过程中保持原视频的音质特色。


3Play Media的联合首席执行官兼联合创始人Josh Miller表示:“除了大型媒体机构外,内容本地化的成本和时间表对于大多数企业而言并不实际。更直白地说,全自动配音的质量对寻求拓展国际市场的组织来说,可能构成品牌声誉的风险。全球企业、新兴媒体和出版商都在努力在不损害内容准确性和质量的前提下控制成本。”



1 3Play Media人工智能配音平台)

另一位联合首席执行官兼联合创始人Chris Antunes进一步补充说:“3Play Media在处理人工智能配音的方式上独树一帜。在过去的15年里,我们成功地将技术与专业人力相结合,大规模地生产出既经济又高质量的字幕、翻译和音频描述。我们深知人工智能解决方案的价值,并很高兴推出了一款值得信赖的人工智能配音产品。与新上市的其他解决方案不同,我们还拥有一个强大的平台、集成功能和API工作流程,专为大规模制作和交付视频而设计,确保用户能够享受到无缝的操作体验。”


来源: 广电猎酷(公众号)
编辑:徐思凡


847#
 楼主| 发表于 2024-4-24 21:43:55 | 只看该作者
【案例】

中国网信办:使用AI等技术生成信息的,必须明确标注系技术生成

中国网信办2024年​4月23日发布《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》,三、主要任务”一节中规定:加强信息来源标注展示。平台应要求“自媒体”发布涉国内外时事、公共政策、社会事件等相关信息时,必须准确标注信息来源。使用AI等技术生成信息的,必须明确标注系技术生成。发布含有虚构、演绎等内容的,必须明确加注虚构标签。平台需在显著位置展示“自媒体”标注的信息来源或标签。


其中,关于“使用AI等技术生成信息的,必须明确标注系技术生成”的规定引人注目,值得特别关注。


​​
(国家网信办官网截图)

AI是人工智能(Artificial Intelligence)的英文缩写,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。AI企图了解人类智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,包括机器人、语言识别、图像识别、自然语言处理、专家系统、机器学习,计算机视觉等。


AI技术虽然是人类的一种创新类型,但由于它发展出来的一些技术具有对于人类生活“无中生有”和“变形再造”的功能,触及到人类的经济、道德和法律的底线,一经出现,就引起巨大争论。下面试举几例:


据《科技日报》日前报道,去年有超过1万个贸易团体、作者、公司和其他人士向美国版权局提交了有关AI模型使用创意作品的意见。生成式AI的迅速兴起引发了一场全球性的高质量数据竞赛。如美国电影制作人、前演员及作家贾斯汀·贝特曼告诉版权局,AI模型在未经许可或付费的情况下获取了其作品内容。她称,“这是美国最大的盗窃案”。然而,在这个新领域中,关于什么是合法的、道德的,没有明确规定。《商业内幕》网称,目前,谷歌、OpenAI和其他科技公司正在辩解,认为将受版权保护的内容用于AI模型训练是合法的,但监管机构及法院尚未对此作出裁决。


据《第一财经》日前报道,1.6万名英国艺术家联名,计划对生成式AI软件Midjourney和其他人工智能公司发起集体诉讼。一场持久战预计将在艺术家和AI公司之间打响。布里奇特·莱利(Bridget Riley)、达米恩·赫斯特(Damien Hirst)、雷切尔·怀特雷德(Rachel Whiteread)、特蕾西·艾敏(Tracey Emin)、大卫·霍克尼(David Hockney)和安尼什·卡普尔(Anish Kapoor)等知名人士,他们指责Midjourney、Stability AI等公司曾用他们的作品来训练人工智能。“人工智能图像生成产品实际为清洗版权的工具,这些AI公司向人们兜售艺术的好处,却不需要支付艺术家的成本。”这些艺术家在联名起诉中写道。他们认为,Midjourney等工具在艺术家本人不知情的情况下,使用他们的作品对大模型进行训练,并生成与艺术家的原始作品非常相似的图像,这相当于“抄袭”。


​人工智能生成的图像

据台湾《中时新闻网》日前报道,台湾新北市私立复兴高级商工职业学校日前举办师生美术展,一名学生的首奖作品《大闹天宫》因绘图细节、结构等问题,被多名艺术家与网友质疑使用AI绘图,在网上掀起讨论,还有学校学生称在检举作品之后被记大过。校长陈效宗3月31日深夜表示,经过调查,得奖学生坦承“创作过程错用AI辅助步骤”,教务处将取消第一名得奖资格,名次依成绩排序递补。据称,这是全球首例因使用AI软件制作绘画被取消得奖资格的案例。


​被取消参赛资格的《大闹天宫》(局部)


很多学者认为:人工智能对人类的挑战不容忽视,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德,着眼未来,重视防范风险迫在眉睫。


更有学者认为,AI在本质上是反人类的,是人类的“异化物”,应当严格禁止。


但也有学者认为,AI是人类智慧的结晶和人脑的“延长”,将带来巨大的社会生产力,应当鼓励创新,大力发展。


目前,有关著作权法上的规则滞后于人工智能的发展,而就人工智能的训练素材是否需要经过版权人许可,也有不同说法。在人工智能飞速发展的时代,各国都有必要起草相应的法规来保护创作者的权益,否则就会变成新兴的产业借助了艺术家的作品进行训练,却抢走了他们的饭碗,对艺术家这个职业而言很不公平。

传说君认为,近期全球范围的一系列相关诉讼方兴未艾,部分人类与部分AI制造者的博弈正在展开。在此关键时刻,中国网信办出台《关于开展“清朗·整治‘自媒体’无底线博流量”专项行动的通知》中使用AI等技术生成信息的,必须明确标注系技术生成”的规定值得关注。在中国国情下,中国网信办制定的相关规定属于行政法规中部门规章范畴,具有相应的行政强制力;但就目前来看,“明确标注系技术生成”,只是对作品的形成条件加以界定;而是否侵权则需要更高层次的法律的明确规定。在这方面,中国的法律还需要完善。


来源:传说网(公众号)

编辑:徐思凡

846#
 楼主| 发表于 2024-4-24 20:55:19 | 只看该作者
【案例】
电力或成AI发展的达摩克利斯之剑

人工智能(AI)的崛起正以前所未有的速度推动科技进步与经济增长,成为全球范围内新一轮技术革命的核心驱动力。然而,这一繁荣景象背后隐藏着一个不容忽视的现实:急剧增长的电力需求正对现有电力系统构成严峻挑战。


AI 正在“吸干”全球电力

《纽约客》杂志近日指出,OpenAI的ChatGPT每天处理约2亿次用户请求,消耗的电力或超过50万千瓦,相当于1.7万个美国家庭的用电量。“明年将没有足够的电力来运行所有的芯片。”埃隆·马斯克早前的预言不仅是对未来的警示,更是对当前AI电力需求激增的深刻洞察。


不久前,技术创业者、前谷歌工程师凯尔·科比特(Kyle Corbitt)也在社交媒体 X 上表示,训练 GPT-6 的微软工程师们正忙着搭建 IB 网络(InfiniBand),把分布在不同地区的 GPU 连接起来。这项工作很困难,但他们别无选择,因为如果把超过 10 万块 H100 芯片部署在同一个地区,电网就会崩溃。




为什么这些芯片集中起来会导致电网崩溃的后果呢?以下数据或许可以说明原因。


英伟达网站上公布的数据显示,每块H100芯片的峰值功率为 700W,10万块H100峰值功耗最高可达7000万W。而 X 评论区有能源行业从业者指出,10万块芯片的总能耗将相当于一座小型太阳能或风能发电厂的全部输出。这一数据直观展现了AI大模型在训练和推理过程中对电力的巨大依赖。


事实上,ChatGPT仅是AI应用的冰山一角,更大规模的电力消耗来自遍布全球的数据中心。据国际能源署统计,2022年美国约有2700个数据中心,电力消耗占全国总量的4%,且这一比例预计在2026年升至6%。同时,报告还显示,2022 年全球数据中心、人工智能和加密货币的耗电量就达到 460 TWh,占全球能耗的近 2%。IEA 预测,在最糟糕的情况下,到2026年这些领域的用电量将达1000 TWh,与整个日本的用电量相当。


AI对电力需求的增长不仅源于大模型的运算量,还与芯片性能提升和冷却需求相关。芯片设计公司Arm的首席执行官Rene Haas警告称,若不提高芯片能效,到2030年,AI数据中心的耗电量可能占据美国总电力需求的20%-25%。美银美林的研究报告也进一步指出,AI电力使用量预计在2023年至2028年间以25%-33%的年复合增长率增长,远高于整体电力需求2.8%的年复合增长率。


从全生命周期视角评估 AI 能耗


华盛顿ITIF智库在一份题为《重新审视对人工智能能耗的担忧》的报告中指出,目前许多研究和政策都关注 AI 训练(training)阶段,但多项研究表明 AI 在推理(inference)过程中,也即人们使用 AI 输出结果的过程能耗更高。此外,不同 AI 模型处理不同类型的推理任务,能耗的差异也很大。例如 1000 次请求计算,图片分类任务的耗电量是 0.007 千瓦时,而图片生成任务耗电 2.907 千瓦时。


报告认为,AI 的训练是一次性事件,而它的使用是长期过程,讨论 AI 能耗问题时应该关注的不是爆发式增长,而是长期的影响。并且,从技术史的视角看来,AI 及其能耗的增长还将受到以下 4 个因素的限制:

基础设施建设成本将制约 AI 的快速增长

事实上,“ChatGPT 每日耗电量或超过 50 万千瓦时”的结论,出自技术博客 Digiconomist 作者亚历克斯·德·弗里斯(Alex de Vries)的估算。德·弗里斯还曾预测,在最糟糕的情况下,谷歌的 AI 用电量将与整个爱尔兰相当,达到每年 29.3 TWh(太瓦时)。但他同时也指出,要想达到这样的规模,谷歌需要在芯片上投入 1000 亿美元,此外还要数据中心的运营和电费投入数十亿美元。如果AI的运营成本居高不下,逐利的商业公司自然会放慢脚步,减少投入。

AI 性能增长存在边际效应

近年来 AI 连续在许多领域取得了突破性进展,这也意味着它可能很快迎来一个瓶颈期。研发、运营更大的模型带来的回报将越来越低,在提升准确性上精益求精也将变得更困难。所以,优化 AI 模型可能是接下来的研发方向。

软件和硬件的性能提升将减少 AI 能耗

AI 模型的优化,以及硬件技术的进步,都有望减少 AI 的能耗。一项发表于《科学》期刊的研究指出,在 2010~2018 年间,全球数据中心的运算量增长了 550%,存储空间增长了 2400%,但耗电量仅增长 6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

同样,剪枝(pruning)、量化(quantization)、蒸馏(distillation)等技术有望带来更好的算法,让 AI 模型更快、更节能。谷歌公司和加州大学伯克利分校研究团队指出,有赖于各项技术进步,近年来在谷歌公司内部 AI 的能耗占比保持稳定,尽管机器学习增长到运算量的 70%~80%。

AI 的应用最终将在某些方面减少碳排放

整体上,当人们用电子邮件替代传统书信,用观看 DVD 或流媒体频道替代去电影院看电影,这些活动的数字化都减少了碳排放。AI 有望在这方面继续发挥作用,例如通过改进视频通话体验,使更多的会议转向远程进行。此外,AI 技术还可用于进行电网调度、分析气候数据,从而成为应对气候变化的助力。


电力供需矛盾与公共电网压力


AI产业的快速发展与现有电力供应体系形成了鲜明对比。以美国为例,一方面,美国电网基础设施大多建于上世纪六七十年代,设备老化、输电线路过载等问题突出,难以应对突如其来的电力需求激增。例如,2021年得克萨斯州因极端寒潮引发的大停电事件,暴露了电网脆弱性。另一方面,企业对有限的电网接入权限展开激烈竞争,纷纷在科技产业欠发达地区如俄亥俄、爱荷华等地布局数据中心,以获取稳定的电力供应。


这种供需矛盾迫使企业采取各种手段“抢电”,包括自建或购买专属电源、寻求新型能源解决方案等。联邦政府虽意识到电力瓶颈问题,但受制于跨州管辖权、土地购置、环保评估以及成本分摊等复杂因素,大规模电网升级面临重重困难,短期内难以取得显著成效。


清洁能源技术:应对电力挑战的新希望

在传统电力供应捉襟见肘的情况下,核能、燃料电池和地热能等清洁能源技术成为缓解AI电力需求压力的潜在路径。企业积极探索多元化的电力供应方案,以确保业务稳定发展的同时,尽可能减少对环境的影响。


核能:可靠但争议犹存

核能以其高效、清洁和稳定的特点吸引了众多科技巨头。亚马逊网络服务公司(AWS)选择在宾夕法尼亚州的核电站附近设立数据中心,并有望获得高达960兆瓦的专用电力。微软则在招聘核技术专家,评估和整合小型模块化核反应堆与微反应堆,旨在为数据中心提供持续动力。尽管如此,小型核反应堆在美国尚无实际应用案例,其落地需克服联邦监管审批、公众接受度以及安全顾虑等多重障碍。


燃料电池与地热能:成熟且具潜力

相较于核能,燃料电池与地热能技术更为成熟,且在短期内实现商业应用的可能性较大。数据中心开发商Michael Halaburda和Arman Khalili在其项目中就采用了这两种清洁能源。他们在波特兰地区的数据中心以天然气为燃料的燃料电池为主要电力来源,辅以电网电力;在得克萨斯州南部的项目则完全脱离电网,利用地热能发电满足数据中心需求。这些实践表明,燃料电池与地热能能够有效减轻对传统电网的依赖,为AI数据中心提供可靠的绿色能源。


核聚变:未来能源的星辰大海

虽然目前尚未实现商业应用,核聚变作为能源领域的“圣杯”,因其理论上近乎无限的能源供应潜力和极低的环境影响,备受科技企业和投资者关注。微软与核聚变初创公司Helion达成电力购买协议,计划在2028年从Helion采购电力。OpenAI CEO山姆·阿尔特曼对该领域亦有所投资,展现出对未来核聚变能源的期待。尽管实现核聚变商业化还需克服重大技术难题,但其一旦成功,将彻底颠覆能源格局,为AI产业乃至全球电力需求提供几乎无限的清洁能源。


AI与电力的可持续共生之路

面对AI算力需求引发的电力挑战,行业与政策制定者应携手探索多维度解决方案。短期来看,优化数据中心能耗、提高芯片能效、合理布局数据中心地理位置,以及利用现有成熟清洁能源技术如燃料电池与地热能,都是缓解电力供需矛盾的有效途径。长远而言,核能尤其是小型模块化反应堆和核聚变技术的发展,有望为AI产业提供更为清洁、高效且稳定的能源供应。

同时,政策层面应积极推动电网现代化改造,加快跨州输电线路建设和清洁能源接入,以适应AI及其他高能耗产业的电力需求增长。社会各界应共同努力,构建一个既能支撑AI技术蓬勃发展,又能确保能源安全与环境保护的电力系统,实现AI与电力的可持续共生,驱动全球经济迈向更加智能、绿色的未来。


来源:数据观(公众号)

编辑:徐思凡


845#
 楼主| 发表于 2024-4-24 16:23:32 | 只看该作者
【案例】

“全球视野中的数字伦理:语境、热点与趋势”学术研讨会在京召开

2024年4月13日,由中国科技新闻学会数字传播伦理专委会主办,中国传媒大学数字伦理研究所、中国传媒大学国家传播创新研究中心、国际媒介与传播研究学会(IAMCR)国际传播分会协办的“全球视野中的数字伦理:语境、热点与趋势”学术研讨会在国家科技传播中心举行。来自中国传媒大学、中国人民大学、复旦大学、上海交通大学、中国社会科学院新闻与传播研究所、中国社会科学院大学、哈尔滨工程大学、西交利物浦大学、香港浸会大学、西班牙马德里康普斯顿大学、美国肯塔基大学、意大利都灵大学等十余所国内外高校的学者,《中国社会科学》《新闻与传播研究》《新闻与写作》《中国编辑》《电视研究》《西安交通大学学报(社科版)》《智能社会研究》等多家学术期刊与中国教育电视台、中国社会科学网等媒体单位的专家,共同参加了本次研讨会。
(刘守训副校长、副理事长致开幕辞)



(龙耘教授主持开幕式)
开幕式由中国传媒大学国家传播创新研究中心主任、数字伦理研究所所长、中国科技新闻学会数字传播伦理专委会主任龙耘教授主持。中国传媒大学副校长、中国科技新闻学会副理事长刘守训教授在致辞中指出,大数据、云计算、人工智能等前沿技术正深刻改变着信息的生产传播方式与人们的生产生活方式,同时也引发了一系列伦理挑战,如何以全球视野打造交流合作网络、以人文价值引领学科学术创新、以国家需求和人民福祉为导向推动实践突破,是数字伦理领域的关键任务。香港浸会大学传理学院Daya Thussu教授在视频致辞中认为,数字伦理领域涌现出大量学术成果,主题涵盖人工智能与发展中国家、政治经济学、算法及其治理等重要议题,如何打破围绕人工智能的固化叙事,推动非政治性的、作为一种解放力量的人工智能的发展,是我们共同面临的一项重要挑战。
中国传媒大学教授、中国科技新闻学会数字传播伦理专委会秘书长姬德强对中国科学技术协会2023年学会公共服务能力提升项目的推进情况作专题报告,并围绕数字伦理研究的学科脉络、范畴和边界,全球范围内的语境化差异、热点与趋势,以及媒体与传播学者的独特贡献等方面进行了讨论。

(嘉宾发言)
第一场主旨发言由中国社会科学院大学媒体法研究中心执行主任、中国社会科学杂志社冯建华副研究员主持。中国人民大学伦理学与道德理论研究中心主任、中国人民大学哲学院曹刚教授介绍了伦理学的整体框架,对数字伦理的研究思路进行了梳理,提出传播技术革命所带来的变化背后恰是作为传播伦理之实质性内容的“话语伦理”问题。国际媒介与传播研究学会(IAMCR)国际传播分会主席、西班牙马德里康普斯顿大学信息科学学院Karen Arriaza Ibarra教授围绕“范式”的概念界定、历次范式变革所带来的颠覆性影响、范式变化中风险感知的认知代际失调,以及面对新兴人工智能范式的道德工具等方面展开了生动讨论。上海交通大学智能传播研究院院长、中国科技新闻学会智能传播专委会主任李本乾教授就搭建AIGC算法伦理评价指标体系的探索实践,以及当下全球范围内AIGC算法治理的基本格局及主题、核心治理主体及其治理框架等方面内容进行了分享。《新闻与传播研究》执行主编、中国社会科学院新闻与传播研究所朱鸿军研究员以两个进行中的AIGC技术研发项目引出对于AIGC传播伦理“对齐”问题的讨论,在廓清“对齐”概念的基础上,提出“谁对齐”“与谁对齐”以及“如何对齐”的三个困惑并展开探讨。中国传媒大学国家传播创新研究中心主任龙耘教授对当下数字伦理研究的基本面貌及其遭遇的时代命题作出梳理和提示,并提出“后人类”正在成为时代关键词,经典伦理学亟需以更具时代性与回应性的姿态重释数字伦理的可能性。
(嘉宾发言)
第二场主旨发言由中国传媒大学出版社社长张毓强教授主持,与会嘉宾进一步对数字新闻、情感智能以及人工智能文化等问题展开讨论。复旦大学新闻学院副院长周葆华教授以一项关于大模型“标题党”问题的实证研究切入,提出对于大模型及人类自身的伦理应进行双重检视与反思。美国肯塔基大学传播与信息学院邰子学教授聚焦人工智能语境下人机传播中的情感维度,就生成式人工智能与智能机器人时代的情感智能和传播伦理作出探讨。西交利物浦大学媒体与传播学系邝献文副教授从“人工智能的日益普及如何导致了错误信息的增加”以及“新闻机构如何面对和解决这些问题”两个方面展开讨论,并简要提出了新闻机构与人工智能平台之间的合作思路。意大利都灵大学人文学系副教授Simone Natale在视频发言中提出将人工智能从单一向度的认识框架中解救出来,通过还原其所置身的多元人类文化背景与复杂传播情境而恢复其复数形式,已成为当下的首要任务。《智能社会研究》编辑部副主任、哈尔滨工程大学人文社会科学学院李天朗助理研究员重新审视数字时代的学术诚信问题,分享了当下出版领域所面对的机遇与挑战。


来源:中国编辑(公众号)
编辑:徐思凡


844#
 楼主| 发表于 2024-4-16 22:44:34 | 只看该作者
【案例】

李飞飞团队年度报告揭底大模型训练成本:GeminiUltraGPT-42.5


如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结。
今天,斯坦福 HAI 研究所发布了第七个年度的 AI Index 报告,这是关于人工智能行业现状的最全面的报告之一。
报告指出,人工智能的发展正以惊人的速度向前推进,开发人员每月都在制造出越来越强大、越来越复杂的模型。然而,尽管发展速度加快,人工智能行业在解决人们对人工智能可解释性的担忧以及对其对人们生活影响的日益紧张方面却进展甚微。
在今年的报告中,斯坦福 HAI 研究所增加了有关负责任人工智能的扩展章节,有关科学和医学领域人工智能的新章节,以及对研发、技术性能、经济、教育、政策和治理、多样性和公众舆论的综述。

以下是报告的重点内容:
2023 年的进展速度比以往任何一年都要快得多,GPT-4、Gemini 和 Claude 3 等最先进的系统显示出令人印象深刻的多模态功能,能够生成流畅的数据多种语言的文本、处理音频和图像以及解释网络梗图。
2023 年新发布的支持生成式 AI 的大型语言模型数量比前一年翻了一番,其中三分之二是开源模型,例如 Meta 的 Llama 2,但性能最佳的是闭源模型,例如 Google 的 Gemini Ultra。
2023 年,工业界继续主导人工智能前沿研究。工业界产生了 51 个值得关注的机器学习模型,而学术界仅贡献了 15 个。2023 年,产学界合作产生了 21 个值得关注的模型,再创新高。
美国领先中国、欧盟和英国,成为顶级人工智能模型的主要来源地。2023 年,61 个著名的人工智能模型源自美国机构,远远超过欧盟的 21 个和中国的 15 个。
Gemini Ultra 是第一个在大规模多任务语言理解关键基准测试中达到人类水平表现的 LLM。OpenAI 的 GPT-4 也不甘示弱,在 Holistic Evaluation of Language Models 基准上取得了 0.96 的平均胜率得分,该基准将 MMLU 与其他评估结合起来。
不过,人工智能性能的提高是有代价的,报告发现,前沿人工智能模型的开发成本正变得越来越高。据说 Gemini Ultra 消耗了价值 1.91 亿美元的计算资源,而 GPT-4 的开发成本估计为 7800 万美元。
企业对生成式 AI 投资猛增
图 4.3.1 展示了 2013 年至 2023 年全球企业人工智能投资趋势,包括并购、少数股权、私募投资和公开发行。全球企业对人工智能的投资连续第二年下降。
2023 年,总投资下降至 1892 亿美元,较 2022 年下降约 20%。然而,在过去十年中,企业对人工智能相关投资增加了十三倍。
图 4.3.3 表明,AI 行业吸引了 252 亿美元的投资,几乎是 2022 年投资的九倍,是 2019 年投资额的约 30 倍。此外,生成式人工智能占 2023年所有人工智能相关私人投资的四分之一以上。
假如按区域进行比较,美国在人工智能私人投资总额方面再次领先世界。2023 年,美国投资额为 672 亿美元,大约是第二高国家中国投资额(78 亿美元)的 8.7 倍,是英国投资额(38 亿美元)的 17.8 倍(图 4.3.8)。
谷歌在基础模型竞赛中占据主导地位
报告显示,谷歌在 2023 年发布的基础模型最多,图 1.3.16 总结了 2023 年各个机构发布的各种基础模型。Google发布了最多的模型(18 个),其次是 Meta(11 个)和 Microsoft(9 个)。2023 年发布基础模型最多的学术机构是加州大学伯克利分校 (3 个)。
自 2019 年以来,Google 发布的基础模型数量最多,共有 40 个,其次是 OpenAI,有 20 个(图 1.3.17)。清华大学也脱颖而出,发布了七个基础模型,而斯坦福大学是美国领先的学术机构,发布了五个模型。
闭源模型优于开源模型
图 2.11.4 和 2.11.5 将闭源模型与开源模型在选定的基准上进行了对比。在所有选定的基准上,闭源模型的表现均优于开源模型。
训练成本
关于基础模型,一个绕不开的话题是推理成本。尽管人工智能公司很少透露训练模型所涉及的费用,但人们普遍认为这些成本已达到数百万美元,并且还在不断上升。例如,OpenAI 首席执行官 Sam Altman 曾提到,GPT-4 的训练成本超过 1 亿美元。
图 1.3.21 根据云计算租赁价格直观地显示了与选定 AI 模型相关的训练成本。下图表明近年来模型训练成本大幅增加。例如,2017 年 Transformer 模型训练成本约为 900 美元。2019 年发布的 RoBERTa Large 训练成本约为 160,000 美元。2023 年,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的训练成本预计分别约为 7800 万美元和 1.91 亿美元。
图 1.3.22 显示了 AI Index 估计的所有 AI 模型的训练成本。如图所示,随着时间的推移,模型训练成本急剧增加。
如图 1.3.23 所示,对计算训练需求更大的模型需要的训练成本更多。
碳足迹
图 2.13.1 显示了选定 LLM 在训练期间释放的碳(以吨为单位)的比较。例如,Meta 发布的 Llama 2 70B 模型释放了约 291.2 吨碳,这比一位旅客从纽约到旧金山的往返航班所释放的碳排放量高出近 291 倍,大约是普通美国人一年碳排放量的 16 倍。然而,Llama 2 的排放量仍低于 OpenAI GPT-3 训练期间报告的 502 吨排放量。
美国在基础模型方面处于领先位置
2023 年,全球大部分基础模型源自美国(109 个),其次是中国(20 个)和英国(图 1.3.18)。自 2019 年以来,美国在大多数基础模型的研发方面一直处于领先地位(图 1.3.19)。
CS 博士毕业生
美国和加拿大计算机科学博士毕业生数量十年来首次显著增加。2022 年,计算机科学博士毕业生人数达到 2105 人,为 2010 年以来最高(图 6.1.5)。
越来越多的 AI 博士毕业生在工业界寻求职业生涯(图 6.1.7 和图 6.1.8)。2011 年,工业界(40.9%)和学术界(41.6%)的就业比例大致相同。然而,到2022 年,与进入学术界的人 (20.0%) 相比,毕业后进入工业界的比例 (70.7%) 明显更高。过去 5 年,进入政府职位的 AI 博士比例一直保持在相对较低的水平,稳定在 0.7% 左右。
考生类别增加
下图所示 AP CS 考生的种族多样性正在增加。虽然白人学生仍然是最大的群体,但随着时间的推移,亚裔、西班牙裔 / 拉美裔等学生参加 AP CS 考试的人数不断增加(图 8.3.3)。2022 年,白人学生在考生中所占比例最大(38.2%),其次是亚裔学生(27.8%)(图 8.3.3 和图 8.3.4)。
财报电话会议
去年,财富 500 强公司财报电话会议中提及人工智能的次数显著增加。2023 年,有 394 场财报电话会议提到了人工智能(占所有财富 500 强公司的近 80%),高于 2022 年的 266 场(图 4.4.25)。自 2018 年以来,财富 500 强财报电话会议中提及人工智能的次数几乎增加了一倍。
涉及的主题非常广泛,最常被提及的主题是生成式人工智能,占所有财报电话会议的 19.7%(图 4.4.26)。
成本下降,收入上升
人工智能不仅仅是企业的流行语:麦肯锡的同一项调查显示,人工智能的整合使企业成本下降,收入增加。总体而言,42% 的受访者表示他们的成本降低了,59% 的受访者表示收入增加了。
2023 年,不同领域的多项研究表明,人工智能使工人能够更快地完成任务,并提高工作质量。其中一项研究考察了使用 Copilot 的编程人员,其他研究则考察了顾问、呼叫中心代理和法律专业学生。研究还表明,虽然每个工人都能从中受益,但人工智能对低技能工人的帮助要大于对高技能工人的帮助。
企业确实感知到了风险
报告对收入至少在 5 亿美元以上的 1000 家公司进行了一次全球调查,以了解企业如何看待负责任的人工智能。
结果显示,隐私和数据管理被认为是全球最大的风险,而公平性(通常以算法偏见的形式讨论)仍未被大多数公司所重视。
一张图表显示,企业正在针对其感知到的风险采取行动:各地区的大多数企业都针对相关风险实施了至少一项负责任的人工智能措施。
人工智能还不能在所有事情上击败人类……
近年来,人工智能系统在阅读理解和视觉推理等一系列任务上的表现都优于人类,如 2015 年的图像分类、2017 年的基础阅读理解、2020 年的视觉推理和 2021 年的自然语言推理。
但在一些复杂的认知任务中,人类的表现仍然优于人工智能系统,如视觉常识推理和高级数学问题解决(竞赛级数学问题),让我们明年再看看情况如何。
制定人工智能责任规范
当一家人工智能公司准备发布一个大模型时,标准做法是根据该领域的流行基准对其进行测试,从而让社区了解模型在技术性能方面是如何相互叠加的。然而,根据负责任的人工智能基准对模型进行测试的做法并不多见,这些基准主要评估有毒语言输出(RealToxicityPrompts 和 ToxiGen)、反应中的有害偏差(BOLD 和 BBQ)以及模型的真实程度(TruthfulQA)。这种情况正在开始改变,因为人们越来越意识到,根据这些基准检查自己的模型是一件负责任的事情。
然而,报告中的一张图表显示,一致性还很欠缺:OpenAI、Google 和 Anthropic 在内的领先开发人员主要根据不同的负责任的 AI 基准测试他们的模型。这种做法使得系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。
法律对人工智能的促进和限制
报告指出,在 2016 年至 2023 年期间,有 33 个国家至少通过了一项与人工智能有关的法律,其中大部分行动发生在美国和欧洲;在此期间,总共通过了 148 项与人工智能有关的法案。研究者还将法案分为旨在增强国家人工智能能力的扩张性法律和对人工智能应用和使用施加限制的限制性法律。
可以发现,虽然许多法案都在继续促进人工智能的发展,但限制性立法已成为全球趋势。
AI 正让人们变得紧张
报告的第九章是关于「公众观点」的,多伦多大学的一项国际调查显示,63% 的受访者知道 ChatGPT。在那些知道的人中,大约有一半的人每周至少使用 ChatGPT 一次。
但公众对人工智能的经济影响持悲观态度。在 lpsos 的一项调查中,只有 37% 的受访者认为人工智能将改善他们的工作。只有 34% 的人认为人工智能将促进经济,32% 的人认为它将促进就业市场。
这一指数的民意数据来自一项关于对人工智能态度的全球调查,31 个国家的 22816 名成年人(年龄在 16 岁至 74 岁之间)参与了调查。
超过半数的受访者表示,人工智能让他们感到紧张,而前一年这一比例为 39%。三分之二的人现在预计人工智能将在未来几年内深刻改变他们的日常生活。
该指数中的其他图表显示,不同人群的观点存在显著差异,年轻人更倾向于乐观地看待人工智能将如何改变他们的生活。

来源:机器之心(公众号)
编辑:李佳


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表