传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
861#
 楼主| 发表于 2024-3-27 20:11:12 | 只看该作者
【案例】违规使用新闻出版商数据训练大模型,谷歌在法被罚2.5亿欧
当地时间3月20日,法国竞争管理局(Autorité de la concurrence)发布公告称,由于谷歌公司在未经许可的情况下,使用法国新闻机构和出版商提供的内容训练其旗下人工智能服务Bard的基础模型,违反了欧盟版权法相关规定,决定对谷歌处以2.5亿欧元罚款。对此,谷歌回应称接受处罚,但对罚款金额提出质疑,认为监管机构忽略了其之前为满足各方需求付出的努力。

南都记者梳理发现,谷歌公司这场版权官司的起因可以追溯至2019年。据了解,彼时法国新实施的版权法要求,大型科技公司与新闻出版机构需就使用后者发布内容及支付报酬等事项达成协议,从而实现新闻机构、出版商、数字平台之间的平衡。面对以法新社为代表的多家新闻出版机构的投诉,2020年,法国竞争管理局要求谷歌在一定时限内与相关新闻出版机构展开谈判。
据悉,然而,谷歌对内容付费的做法表达了强烈不满,谈判宣告破产,并因此收到了法国竞争管理局开出的5亿欧元罚单,理由之一是谈判态度不够真诚。谷歌曾试图上诉推翻判决,但在2022年暂时妥协,与新闻出版机构达成和解协议。和解协议中作出的承诺有效期为五年,可延长一次。
法国竞争管理局公告显示,如今谷歌违反了与新闻出版机构达成的和解协议,其未能遵守七项承诺中的四项,包括秉承透明、客观和非歧视性原则在三个月内开展真诚的谈判;向新闻出版机构提供透明的相关报酬信息;采取必要措施,确保谈判不会影响谷歌与新闻出版商之间的其他利益关系等。
公告还特别指出,Bard使用新闻出版机构发布的内容训练其基础模型,却不告知这些机构及监管部门,也没有为新闻出版机构提供避免内容被使用的“选择退出”技术机制等,这些做法阻碍了新闻出版机构就报酬问题与其公平地展开谈判。于是,法国竞争管理局决定对谷歌、其母公司Alphabet以及两家子公司共处以2.5 亿欧元(折合人民币约19.6亿元)罚款。
公告发布当日,谷歌方面也发文作出回应,称接受这一处罚结果,但认为罚款金额不合理,原因是监管机构忽略了其在缺乏明确监管措施等不确定环境中为满足各方需求所付出的努力。“谷歌是第一个也是唯一一个与280余家法国新闻出版机构签署协议的平台,每年支付数千万欧元。尽管取得了这些进展,法国竞争管理局依然对谷歌处以2.5亿欧元罚款,原因只在于我们谈判的方式。”
南都记者梳理发现,AIGC的版权问题在全球范围内都一直饱受争议,相关侵权诉讼屡见不鲜。
今年1月,国内首例“AI文生图”侵权案已作出一审判决。案件中,原告利用开源AI工具生成图片并发布在小红书,被告未经许可使用该图片并删除原作者署名。北京互联网法院经审理认为,涉案图片符合作品的定义,属于作品;原告是涉案图片的作者,享有涉案图片的著作权;被告侵害了原告享有的权利,应当承担侵权责任。因此,法院判决被告赔礼道歉并赔偿原告500元。
据央视报道,去年12月,《纽约时报》指控OpenAI及其投资者微软公司未经授权使用其文章训练ChatGPT等聊天机器人,以创造替代《纽约时报》的产品。今年2月,OpenAI要求联邦法官驳回部分原告诉求,称《纽约时报》雇佣黑客操纵ChatGPT等人工智能系统生成“误导性证据”,目前该案尚未有定论。
来源:隐私护卫队
编辑:程正元

862#
 楼主| 发表于 2024-3-28 21:32:34 | 只看该作者
【案例】我用盗版书训练人工智能
作者|袁榭
原创首发|蓝字计划
全文字数|约6000

3月6日,由Meta的AI部门前雇员组成的AI模型评估公司Patronus AI发布了名为CopyrightCatcher(版权捕手)的API,用于检测大语言模型中的版权数据内容比例。

在公开的版本中,CopyrightCatcher选用了受美国版权保护的书籍作为“题库”,并从编目网站Goodreads中选择流行的书籍来测试。研究人员设计了100种不同的文本提示,让模型以续写或输出第一页的方式回应。

结果是,OpenAI的GPT-4表现最差,在44%的提示词上生成了受版权保护的内容,微软新投资的Mixtral为22%。由OpenAI前员工创立、标榜负责任AI的Anthropic公司出品的Claude 2为8%,Meta的Llama-2为10%。

一个专戳人短处的行业公敌诞生了。

在AI头部大厂们版权官司缠身的当下,Patronus AI此举可以算是给版权方们“递刀子”。

训练数据是AI的食粮。从ChatGPT奇迹开始,训练数据来源的法律纠纷就始终相伴,在可见的未来还会继续纠缠下去,成为当下AI技术注定的无解难题。

从人工智障到AI女友的秘密
早在生成式AI技术奠基时,无论泰斗还是普通研究生,无人会对训练数据来源的版权有担忧。因为当时需要的训练数据集体量相比现在实在太小了,从无版权的公有领域寻找、手动收集就够用,规避风险几乎没难度。

10年前,业内常用的AI文本训练数据集包括2003年安然丑闻里作为呈堂证供的安达信会计事务所所有电邮、截至2013年所有英语国家数字版政府公开文书。业内常用的图像训练数据集是有6万张手写黑白数字图像的1999年MNIST集,6万张各种猫、青蛙、飞机图像的CIFAR-10集,1.1万张鸟类图像的加州理工学院数据集等等。

这等规模的数据集,现在供本科生写毕业论文的实验都不大够用了。

2012年,AI界泰斗辛顿(Geoffrey Hinton)和学生克里泽夫斯基(Alex Krizhevsky)、萨茨克维尔(Ilya Suskever)的神经网络模型AlexNet,夺得ImageNet图像分类竞赛冠军,成为AI技术飞跃的奇点。

AlexNet的成功不仅拉开了英伟达GPU跑大模型的序幕,也是训练数据集体量飞跃的起点:背后支撑它的,有华人科学家李飞飞制作的、包含1400万张图像的训练数据集。

(详细报道可点击阅读蓝字计划文章:英伟达悄然垄断算力:人工智能背后的新帝国

从此开始,“缩放”(Scaling)对大模型性能的影响开始浮现:即使基础算法没有彻底革新,只要在训练数据量、参数规模上有数量级程度的扩张,它在测试数据上的损失(在训练后对新输入提示的预测与正确答案之间的差异)会非常显著地剧减,带来了大模型能力显著提升。

此“神经缩放定律”在ChatGPT奇迹上体现得尤为显着:按照OpenAI研发团队的论文,GPT-2用了40GB文本的数据集训练。GPT-3在570GB数据上进行训练。OpenAI至今尚未直接透露作为GPT-3.5的ChatGPT以及GPT-4的训练数据集有多大,但业内的可靠估计是13TB。

训练数据的暴增,给GPT系列大模型带来的功能改善,最直观的对比是2018年GPT-2生成的情人节情话还前言不搭后语,2024年可以陪单身男性谈恋爱的AI女友应用已成了GPT应用商店最热门类。

AI也被告知,不会就选C
大体量训练数据集一旦成为行业共识,整个人类互联网产生的数据就不大够用。

早先,研究者还能手动搜集公有数据。后来,大厂用爬虫扒全网的数据。

还没捅到版权的马蜂窝,先把羊毛薅秃了:参差多态的创意数据有限,大厂们扒来的大同小异,生成式AI大模型产品的“幻觉”有一半源于此弊。

以最基础的大语言模型(LLM,Large Lauguage Model,简称大模型)最简单训练为例:给AI一个缺字的单句,然后让大模型根据训练数据集和参数来补全。

此时负责回答的算法会识别单句和训练数据集里哪些文本长得像、长得有多像,此时就会得出此句该凭数据集哪部分琢磨答案,然后再按照相似程度给出空缺处所有可能答案。最后算法会基于参数在这些可能答案里,选“长得最像”、最有机会正确的答案输出。

训练起始时大模型一般选不准答案,负责检验的算法就会给出一个“损失值”,即“模型认为最可能”答案与真实正确答案有多大差别的“距离值”,码农用这个值来对参数进行微调。之后再跑一边同样流程,模型生成的答案会离正确答案更近。

如此训练,过程从缺字单句直到整段整篇的问句,模型的答案也从填缺字直到成篇文章。如果训练数据集有过十亿文本词元(token,有意义的语义最小单元),模型跑完整个库之后答案就勉强像样。

如果训练数据集包含全互联网所有能薅到的文本词元,模型最后训练好让用户使,吐出的答案就会特别像机器通灵感悟、口吐人言。

这是不是很像教一个没学会课程的中国学生突击应试:背下解题步骤,原理不重要。现在的AI大模型就是这样,不管生成的结果是文本、药物分子式、图片、视频,概莫能外。


要真正在推理层面上学通,那是马斯克们天天吹的AGI(通用人工智能),面世时间恐怕比贾跃亭回国时间还晚。

如此一来,训练数据集的规模自然与AI大模型的性能表现正相关,正如高三学生做一米厚模拟卷和做半米厚模拟卷的效果也是显著不同的。

用十多年前谷歌研究总监彼得·诺维格的名言来说,这就是“我们并没有更好的算法,我们只是有更多的数据。”或者用老港片的片名来说,这叫《大块头有大智慧》。

若训练数据集不够用,或者沾染了不必要的数据,大模型“幻觉”就会出现。就像一个平庸做题家,AI大模型本身只会“选最像的填”、“不会就选C”,搞笑错误自然不少。

“文心一言”刚面世时,输入“总线”却生成“公交车”图片,很大概率应该是因为产品工期太赶、训练和调参不够细,所以依靠现成英文训练数据集的模型分不出“bus”到底是总线还是公交车。

类似的事故也出现在其他大厂的大模型产品中。2023年12月问世的谷歌大模型Gemini,用中文提示词询问时,会答自己是文心大模型、自己创始人是李彦宏。考虑到Gemini想抄“文心一言”不见得有门路,八成也是因为赶工出货、调参没捋好训练数据,“无法可靠地处理一些非英语查询”。

AI也怕近亲繁殖
既然训练数据的规模如此重要,那直接用AI生成数据去训练下游AI,不行么?

不行,这样会把模型搞残。

2023年2月,美国华裔科幻文学家特德·姜表示,ChatGPT等大语言模型,实质是对互联网语料库的有损模糊压缩。用大语言模型生成的文本来训练新的模型,如同反复以JPEG格式存储同一原始高清图片,每次都会丢失更多的信息,最终成品质量只会越来越差。

2023年6月中旬,多家高校的AI研究者联合发布论文《递归之诅咒:用生成数据训练会使模型遗忘》,用实验结果证明了特德·姜的预言。

用AI生成数据训练新的AI,会导致训练出的模型出现不可逆转的缺陷,即使模型最初的基础架构原始数据来自真实世界。研究者们将这一新模型的退化过程与结果称为“模型崩溃”。

按论文所述,不管受训的新模型功能是以文字生成文字还是以图片生成图片,只要使用其他模型生成的内容来训练,这个过程是不可避免的,即使模型处在近乎理想状态的长时间学习条件亦如此。

而AI生成数据中的错误会极快沉淀,最终导致从生成数据中学习的模型进一步错误地感知现实。

“模型崩溃”分为早期与晚期两种。在早期时,被喂生成数据的AI模型会开始失去原初数据分布的信息;在晚期,被喂生成数据的AI模型会吐出完全不符合现实、不相关原初底层数据的结果。

“模型崩溃”后的AI还极其固执,错误会千篇一律且难以矫正,模型将持续甚至强化将错误结果认为是正确的结论,即使调参也改不过来。

因为用AI生成内容来训练AI的话,无可避免就会踩进“统计近似值偏差”的坑里。

正如AI泰斗“杨立昆”(Yann LeCun)成天讥嘲的那样,现在的AI大模型本质是“金刚鹦鹉”、“高端差分统计学程序”,所以天然过于偏重大概率的通常值,和过于忽视小概率的非常值,这叫“近似值拟合”。

这些模型生成的结果持续用来再训练新模型,数据的多样性会越来越小、符合丰富真实的正确度会越来越有限、“近似值拟合”会越来越严重。

就像人教鹦鹉复读,鹦鹉能学会模拟“恭喜发财”的音调。然而让学成的鹦鹉教另外的鹦鹉复读“恭喜发财”、再让鹦鹉徒弟教鹦鹉徒孙复读,最后只会收获鸟叫聒噪。

或者用论文作者之一罗斯·安德森(Ross Anderson)的话说,这就如同用莫扎特作品来训练AI,结果会得出一个风格类似莫扎特但缺乏灵气的“萨列里”模型(萨列里是意大利作曲家,非常嫉妒莫扎特)。再用“萨列里”模型的作品训练新的模型,如此反复五六次后,最终模型的音乐作品既不会有莫扎特的风格也不会有莫扎特的灵光。

在罗斯·安德森的个人博客中,有人评论这是热力学中的熵、生物学中的近亲繁殖退化,在AI界的复现。

版权律师首先闻到血腥味
真实人类生产的数据对AI模型是不可或缺的。就算是弱智吧的段子,做好了标记分类和去重,也有相当价值。

罗斯·安德森刻薄地说,在海洋布满不可降解塑料垃圾、空气里充满二氧化碳排放物后,互联网以后也会被AI大模型生成的低质量结果污染。反过来说,真实人类创造的数据如同洁净的空气与饮水,是日后生成式AI必须依赖的维生补给。

按照权威分析机构和咨询公司的说法,在2027年,全世界互联网数据量将达到291ZB(1ZB等于十万亿TB),2026年AI就将产出全世界互联网数据量的10%。而2023年这个大厂们纷纷推出大模型的生成式AI元年,AI产出互联网数据的比例是1%。

如果1%的AI生成数据混在训练数据集里,就能让谷歌的大模型说自己创始人是李彦宏。那比例涨到10%时将会出现什么,简直不敢想。围绕真实人类数据知识产权和可持续来源的斗争,在AI热潮中越发凸显。
在这场斗争中,最先出击的倒不是大厂们,是闻风而动的版权律师们。
2024年1月12日,美国加利福尼亚州法院驳回了包括喜剧演员莎拉·西尔弗曼在内的几位创作者对 OpenAI 提起的版权诉讼大部分指控,他们指控OpenAI的ChatGPT盗版了他们的视频作品。诉讼提出了六项侵权指控并索赔。而法院驳回了除直接侵犯版权之外的所有指控。

这个诉讼是2023年8月中旬提出的,代理这些创作者的是美国律师事务所Joseph Saveri 律师事务所。

同一个律所,在2022年11月代理了对OpenAI出品的GitHub Copilot的代码版权集体诉讼,2023年1月代理了美国艺术家对Stability AI、Midjourney和DeviantArt等图片生成AI企业领头羊的图像版权集体诉讼,这个诉讼在一年后附加了一份证据:1.6万名英国与美国艺术家联署的支持讼由名单。

当然,按这个律所2023年7月自己的媒体公关稿,是因为ChatGPT和LLaMA这些大模型是“工业级剽窃犯”、创作者和出版商们苦于大厂侵权而声索无门,律师们才仗义出手。

对OpenAI的训练数据集的书籍版权诉讼,大都基于OpenAI还开源GPT系列模型集合时的两篇论文。

2018年介绍GPT-1的论文称训练数据中有包含7千本图书的BookCorpus子集。2020年介绍GPT-3的论文称训练数据中15%是Books1和Books2两个“源于网络的书籍集合”,数据量分别是BookCorpus的9倍和42倍。

起诉方一般会基于这些论文,称BookCorpus的来源本身就是从自发行小说网站Smashwords上薅来的,且按体量推断,Books1应该包含6.3万本书籍、Books2应该包含29.4万本书籍,网上版权公开合法来源的书籍绝无此数,其中一定包含盗版电子书。GPT系列模型能生成出与原告们风格相仿的内容,定是抄袭。

然而OpenAI的律师可没这么好拿捏。Smashwords本是免费网文站,所以BookCorpus的侵权索偿很难走通。而Books1、Books2两个子训练集没有如BookCorpus提供给其他企业,ChatGPT之后的产品也没有开源,拿“应包含”、“一定有”这种难以坐实的揣测就想当证据,于法于理都容易驳回。

失业宅男给全世界埋下的雷
不过,大厂们还是有无可抵赖的使用盗版把柄能让集体诉讼者们拿捏的。

这些把柄里最出名的,莫过于业内著名的Books3数据集。

2020年,一群AI发烧友们读了OpenAI的GPT-3论文后,在线上聊天群里整天唠一个话题:咱们能否自己手动搞一个差不多的东西出来?

其中一个名为肖恩·普雷瑟的技术宅男表示,就算OpenAI钱多又领先,咱们自行做类似模型的阻碍也不见得就更多。当年夏天,他们着手开始操作项目,讨论如何从零开始攒出足够的训练数据来。

普雷瑟负责的是文本训练数据这块,他也认为OpenAI肯定使用了线上盗版电子书站的资源。大厂做得,我做不得?于是当时无业的他,把有限的生活热情全部投入了攒文本训练数据的无限事业中。

普雷瑟以典型的失业独居宅男生活方式来操作项目:起居无节、饮食无度,睡醒了穿上衣物就扒盗版电子书、做标记、做去重,做到天昏地暗时直接在电脑前、沙发上眯过去。

经过如此天昏地暗的一两个星期后,普雷瑟收获了完工的文本数据集和嗜睡症诊断书。此数据集体积37GB,内含196640本书籍内容,做好了标记、去重、全部转化成TXT文本格式。鉴于OpenAI把文本训练数据子集称为Books1和Books2,普雷瑟把自己的文本数据集命名为Books3。

包含了Books3数据集的AI训练数据集“大堆”(The Pile),于2020年秋上线。因为制作质量好、使用方便,此数据集在业界内迅速风靡。
然而Books3这个美国中西部无业宅男倾注心血的项目,不仅方便了全世界AI从业者,也为全世界版权律师们提供了利器:如果OpenAI的Books1、Books2坐不实用了盗版,全用网上“影子图书馆”攒成的Books3可是板上钉钉跑不掉的。

但凡看到起诉大模型训练数据集侵犯版权的新闻里出现“196640本书籍”这个字眼,就是某大厂又因为用Books3训练模型被人告了。

这个被起诉队列中最新一家是英伟达。3月10日,英伟达公司在美国旧金山被三名作家起诉,他们称该公司未经许可使用了他们的受版权保护的书籍来训练其AI模型 NeMo。原告们称他们的作品是“包含196640本书的数据集”的一部分,这些书籍帮助训练 NeMo 模拟普通书面语言,直到2023年10月份才被删除。

原告表示删除行为表明英伟达知道侵权的存在,所以要让英伟达为过去三年使用版权作品训练大模型支付赔偿金。

因为版权诉讼和维权组织的四处出击,2023年8月下旬,Books3的主要托管网站将其下线,其他网站的镜像版本每出现就会被维权组织狙击。

2023年9月,普雷瑟受访时表示自己当年的确欠考虑,但制作Books3数据集没做错。按他的看法,没有这种数据平等化行为,小公司、个体研究者、普通人永远无法自行参与大语言模型的热潮。版权方如果要全网删除Books3,那是他们的抉择。不过此举意料之中的附加效果是,生成式AI技术的版图完全只被有钱做爬虫兼付法务费的大公司主宰。

AI大厂:窃书能算偷?
持此观点的法律界和科技界人士其实不少,有专精数据扒取案件的律师称:“如果你是OpenAI或Meta,自然有资源把诉讼斗争纠缠到地老天荒世界末日,而规模稍小的组织就无法照此办理。所以法律在此的模糊处,现在只有益于大玩家们。”

时势的演变,部分佐证了这些看法。大厂们的举止,简直令人瞠目。

比如1月14日,Meta公开承认使用Books3数据集训练LLAM 1和LLAM 2模型,不过反指这不是故意侵权,使用Books3数据集属于版权法律中的“合理使用”(为研究、教学、讽刺、评论等用途使用版权内容不属于盗版)范畴,毋需获得版权持有方许可,甚至不用向书籍作者们支付任何补偿。

如果不认错不给钱的Meta显得蛮横,那OpenAI的举止就更厉害。

2023年的最后一周,《纽约时报》在美国起诉OpenAI和微软侵犯版权,称OpenAI的模型是通过使用《纽约时报》数百万篇受版权保护的新闻文章、深度调查、观点文章、评论、操作指南等建立起来。

OpenAI大语言模型因此可以生成逐字背诵内容、总结概括其内容并模仿其表达风格的输出。《纽约时报》称,这损害了“订阅、许可、广告和联盟收入”,要求赔偿。

而OpenAI的反击简直奇谲。在2月底向法院提出的驳回请求中,OpenAI表示GPT系列模型集合并非《纽约时报》订阅服务的替代品,普通人也不会以这种方式使用ChatGPT。

除此之外,OpenAI还称,为了从该公司AI产品中生成与过往报纸文章内容完全匹配的回复,《纽约时报》“进行了数万次提示词修改尝试,并不得不向ChatGPT提供部分文章内容”,这属于“花钱雇黑客入侵OpenAI的产品”。

把举世通行的“提示词工程”说成“黑客入侵”,被告变原告,OpenAI法务部门的这口反咬令人叹为观止。真是应了古代(美国)人一句名言:提公事包的强盗,可比提冲锋枪的强盗狠恶多了。

不过大厂们的霸道姿态是有缘故的。它们并非不愿出钱购买版权内容,在被《纽约时报》起诉前两周,OpenAI 宣布购买新闻出版集团斯普林格的新闻内容来训练大型模型。1月份,OpenAI 表示,正在与数十家出版商洽谈达成文章授权协议,以获取内容来训练其人工智能模型。不过有消息称OpenAI出价小气,向很多商洽对象的开价是每年给100-500万美元。

然而在法律诉讼中认错,是要纠正错误和违法行为的。落实到AI模型的训练数据版权诉讼上,相应的举措就是必须删除包含侵权内容的训练数据集、停止使用侵权内容训练的AI模型,甚至删除模型。

正如2023年11月美国国家版权办公室意图改变AI训练数据的版权规制时,一个投资银行家在征求意见网页上写下的,“现在这是逾千亿美元的大生意,改变关键法律要素,将会显著扰乱业界的既有预期,进而破坏国家的经济优势和安全。”

简而言之,现在AI经济这么火,用点盗版怎么了,不要挡着路,挡路会天崩地裂。
来源:蓝字计划
编辑:程正元

863#
 楼主| 发表于 2024-3-29 16:50:47 | 只看该作者
【案例】深圳报业集团AI采编办公系统正式启用
|来源:深圳特区报|原标题:全员拥抱AI,着力打造媒体新质生产力  深圳报业集团正式开启人工智能时代

3月28日,深圳报业集团读特客户端上线八周年。“八”代表着持续探索,更代表着拥抱无限。借此机会,客户端全面焕新,发布AI版本,并同步推出AI新闻顾问、AI魔方、AI工坊等全新功能,同时升级AI公共平台,发布AI共生计划。
同一天,深圳报业集团AI采编办公系统正式启用;旗下各媒体的AI产品、AI应用、AI实验室相继上线;第二天,深圳特区报、深圳商报、深圳晚报、晶报、Shenzhen Daily、南方教育时报等纸媒也推出AI共创版面……
这标志着,深圳报业集团正式开启人工智能时代。
读特焕新 更好用、更好看、更好玩
读特客户端此次发布的AI版本有何不同?一句话总结:更好用、更好看、更好玩!
2016年,读特客户端正式上线,此后相继推出“海底探粤”“深圳红”等现象级融媒产品,并在2021年首创“飞卡阅读”,以卡片呈现方式,集快速浏览、分享、全媒播报于一体。
此次八周年全面焕新,读特客户端将在“飞卡阅读”中引入AI新闻顾问,用户可直接对话机器人,由机器人帮忙筛选出想阅读的新闻,获得个性化推荐。
自去年起,读特客户端已将AI引入生产流程,在深圳媒体中率先推出AI共创海报、AI共创视频等,并围绕平面、视频两个方向组建“AI特战小分队”。上线8周年之际,读特客户端AI工坊正式成立,将打通内容创意策划、视频、设计等环节,助推全员、全程、全面的AI化转型。AI工坊和腾讯、深圳大学等建立紧密合作关系,拓展AI应用场景,推出一批AI原生内容IP。
此外,借助AI底座,读特强化公共平台功能,重点推出报料平台和民生平台,读特上线“AI共生计划”,打造AI+法务、AI+教育、AI+电竞等更多行业新业态。
值得一提的是,3月28日的八周年焕新仪式上,深圳报业教育传媒集团携手读特发布首个AI原创绘本动画《抱抱》。该动画依托文生视频技术,实现了有声绘本和智能动画结合。此后,双方将打造AI绘本空间,构建智能教育全新场景。
全员转型 AI与采编深度融合
全面开启人工智能时代,深圳报业集团已经过精心筹备和长期探索。
去年6月,深圳报业集团AIGC联合实验室成立。深圳报业集团与云从科技集团、国家超级计算深圳中心合作,在数字媒体、数字城市、数字商业、数字安全等领域,致力于提供多语言、跨模态的大数据与人工智能基础平台及解决方案。此外,集团正在建设粤港澳大湾区语料库,为组建大湾区语料联盟打下扎实基础。
2024年全国两会,集团推出集成式产品“深报AI跑两会”,由AI采写、AI主播、AI视觉、AI编辑等“新同事”,与前后方采编人员一起,带来全国两会的报道。
有了AI“新员工”入职,AI创新应用与生态系统打造,也在稳步推进中。
3月27日,集团与华为公司签署《深圳报业各客户端应用与华为鸿蒙生态合作备忘录》,推进与华为鸿蒙的深度合作。今年初,集团获得“华为鸿蒙原生应用生态优质合作伙伴”称号,并成为广东首家华为鸿蒙最新原生应用生态接入的新闻单位,参与鸿蒙生态应用开发。
3月28日,利用“深新智媒”平台建设的AI服务系统,基于华为云、腾讯云、中科闻歌等机构的底层AI能力,深圳报业集团正式推出AI应用开放平台,为旗下报纸、新媒体客户端的内容制作和发布,提供生成标题、文本润色、风格改写、配图生成等AI功能,并提供文字、图片、语音、视频的AI审核及识别功能。
在AI应用开放平台加持下,深圳报业集团的全员配备“AI助手”,从新闻选题、要点归纳、文本润色、会议纪要、工作汇报到会议通知,全面提升工作效率。此外,集团与华为云深度合作,建设统一数字人应用平台,推出深圳报业集团数字代言人,3D写实数字人的实施计划也在稳步推进中。
亮点满满 AI参与报纸版面创作
AI时代,传统报纸如何找寻全新可能?
3月29日当天,深圳报业集团旗下的各大报纸,包括深圳特区报、深圳商报、深圳晚报、晶报、Shenzhen Daily、南方教育时报等,分别推出了AI共创的报纸版面。
由AI参与打造的报纸版面有何不同?
在深圳特区报今日的“科创前沿”AI共创版面上,具有未来感和科技感的AI生成图片给予读者别样的视觉冲击力。“一杯咖啡,满电出发。”在深圳加快建设世界一流“超充之城”的目标下,深圳特区报记者、编辑携手媒体AI应用开放平台,为读者图文并茂地呈现深圳在“超充之城”建设中的探索与突破。手拿咖啡的女士、正在充电的新能源汽车、错落有致的深圳建筑……众多新闻元素汇聚在一张AI图片之中,为读者带来丰富有趣的阅读体验。
“深报妙笔” 拓展AI应用新场景
3月28日,由深圳报业集团深圳新闻网与国内大型AI技术公司共同推出的“深报妙笔——AI公文助手平台”正式上线公测,并向政府机关、事业单位、企业等用户提供开放试用申请通道。
据悉,“深报妙笔”是采用了LLM大模型技术、数据挖掘技术、知识图谱技术以及AI深度学习等技术的跨界融合,是一套“查、学、写、审”一体化的人工智能公文写作与知识赋能协作平台。通过模块化、标准化、智能化的方式,“深报妙笔”重构了公文办公流程,使公文处理更加高效、便捷。
二十余载耕耘路,风满扬帆正当时。此次携AI全新启航,深圳报业集团将全新启航,勇往直前。
来源:编前会
编辑:程正元

864#
 楼主| 发表于 2024-3-30 22:34:06 | 只看该作者
【案例】
深圳晚报首部全流程AI微短剧奇幻上线
深晚AI微短剧《夸父逐日》宣传海报。
3月28日21:28,一个刻意选择的时间节点,承载着深晚人AI探索抱负的首部创新微短剧《夸父逐日》全网公推。该剧将古老的神话故事与现代科技进行了结合,为观众带来一场视觉与情感的奇妙体验之旅。
《夸父逐日》是中国古代神话的经典之作,深圳晚报深入挖掘其精神内核,结合现代观众的审美需求,运用AI技术为其注入了新的生命力和表现形式。微短剧中,夸父坚韧不拔、追求光明的形象被赋予了更加丰富的情感和更加立体的形象特质,激励着人们勇往直前、追逐梦想。
《夸父逐日》的制作过程充满了挑战。从最初的创意构思到最终的呈现,每一个环节都涉及AI技术的应用。团队首先利用AI模型进行剧情的自动生成,但过程中遇到了剧情连贯性、角色设定合理性等问题。为了解决这些问题,团队对AI模型进行了多次调整和优化,结合人类编剧的创意与经验,最终成功结构出富有逻辑性和感染力的故事情节。
在角色塑造和场景渲染方面,AI技术也发挥了重要作用。然而,由于古代神话故事的特殊性,AI在理解和呈现传统文化元素上存在一定困难。为此,团队专门对AI模型进行了文化学习和训练,使其能够更好地理解和表达中国古代神话的精髓。同时,创新性使用了从图像到线稿的AI微调生成技术,把控了人物的主体细节,以及通过LLM多轮对话,让AI深度理解创作需求后再生成涉及复杂动作的精细画面。团队还结合传统手绘艺术和现代数字技术,打造出了既具古典韵味又富有现代感的视觉效果。
在后期制作阶段,团队同样面临着诸多挑战。剪辑、音效、配乐等环节都需要与AI生成的内容进行高度匹配。为了实现这一目标,团队利用先进的AI算法对后期素材进行了智能分析和处理,确保整个微短剧在视觉和听觉上都达到了应有品质。
值得一提的是,深圳晚报充分发挥了跨部门协作的优势。策划、编剧、制作等团队紧密配合,共同打造这部微短剧。技术人员与创意人员携手合作,确保微短剧在故事情节、角色塑造和场景渲染等方面都达到了最佳效果。
《夸父逐日》的成功推出,不仅为观众带来了一部视觉与情感全新体验的作品,更展示了深圳晚报在AI技术应用和跨部门协作方面的努力与进取作风。这部微短剧不仅是对传统故事的创新演绎,更是对现代科技与传统文化创新性结合的一次成功尝试。
未来,深圳晚报将继续探索更多传统故事与现代科技的结合方式,为观众带来更多高品质的文化产品。同时,团队也将继续优化深晚云模型矩阵在创作过程中的应用,以期在更多领域实现技术突破和创新,为观众带来更多精彩纷呈的数字娱乐产品。
来源:编前会
编辑:程正元


865#
 楼主| 发表于 2024-4-2 16:20:23 | 只看该作者
【案例】
OpenAI放开限制 用户无需注册即可使用ChatGPT



【OpenAI放开限制 用户无需注册即可使用ChatGPT】财联社4月2日电,当地时间周一,人工智能(AI)公司OpenAI宣布,将允许用户直接使用ChatGPT,而无需注册该项服务,这将让人们更加容易体验人工智能的潜力。OpenAI表示,它将从周一开始逐步推出这一功能,让185个国家和地区的超1亿用户使用ChatGPT来学习新事物、寻找创意灵感,并获得问题的答案。该公司还声称,它可能会使用用户提供的内容来帮助改进其大语言模型,但用户可以关闭此功能。


来源:财联社
链接:https://baijiahao.baidu.com/s?id=1795169154348899857
编辑:李梦瑶




866#
 楼主| 发表于 2024-4-6 20:11:00 | 只看该作者
【案例】
            拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了                   
                                                                                      [url=]机器之心[/url]                                                    2024-04-06 12:30              河南                                    
                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                  
AI 生成工具的偏见何时休?
在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。

当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。

马斯克也被系统过分矫正了。

近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白人妻子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。


The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白人妻子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。

结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成图像,暴露出了它的某种偏见。

图源:Mia Sato/The Verge

不仅如此,调整文本 prompt 似乎也没有多大帮助。

当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像生成器给出的都是「两个亚洲人」的图像。即使将「white」改为「Caucasian」时,结果同样如此。

机器之心自测图像。

当输入「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。

婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge

当输入「Asian man with Caucasian friend」(亚洲男性和白人朋友)或「Asian woman and white friend」(亚洲女性和白人朋友)时, 生成的大多数图像仍是两个亚洲人形象。


自测图像。

当输入「Asian woman with Black friend」(亚洲女性和黑人朋友)时,Meta 图像生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋友),结果反而准确得多。



自测图像。

此外,当指定南亚人时,Meta 图像生成器的结果变化也不太大。当输入「South Asian man with Caucasian wife」(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。


自测图像。

一番测试发现,Meta 图像生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。

最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图像中,只有 3 张图像准确还原。



输入 prompt「asian man and caucasian wife」(亚洲男性和白人妻子),结果更离谱,生成的 8 张图像没有一张还原。


其实,这并不是 Meta 的图像生成工具第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。

图源:arstechnica and meta

此次,Meta 图像生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。

对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。


你觉得呢?
原文链接:https://www.theverge.com/2024/4/ ... asian-people-racism

来源:机器之心(公众号)
链接:https://mp.weixin.qq.com/s/eUhOxh5qlGQHOGqgPgFqPQ
编辑:李梦瑶


867#
 楼主| 发表于 2024-4-8 14:38:45 | 只看该作者
【案例】
华盛顿大学撰文反驳微软,我们无法删除大模型关于哈利波特的记忆

大数据文摘受权转载自夕小瑶科技说
作者 | Tscom
引言:探索记忆消除的界限
在人工智能的发展过程中,一个引人入胜的议题是机器学习模型是否能够被训练以忘记其曾经学到的信息。近期,Ronen Eldan和Mark Russinovich在其研究“谁才是哈利·波特?”[1]中提出了一种创新技术,声称能够从LLMs中“抹去”特定数据集的记忆,尤其是针对《哈利·波特》这样的知名作品。他们的方法引发了业界的广泛关注,并被认为是在LLMs“遗忘”技术领域的一大突破。
但是,本文将对Eldan和Russinovich的研究成果提出质疑,认为这样的声明可能过于宽泛。本文通过一系列轻量级实验,探索记忆消除的界限,尤其是针对深度学习模型是否真的能够彻底忘记哈利·波特系列内容的可能性。
论文标题:
THE BOY WHO SURVIVED: REMOVING HARRY POTTER FROM AN LLM IS HARDER THAN REPORTED
论文链接:
Eldan和Russinovich的方法概述
在Eldan和Russinovich的研究中,他们提出了一种针对LLMs的“遗忘”技术,这一技术的核心在于通过微调(finetuning)过程,有选择性地从模型中移除特定信息。具体来说,他们的方法首先通过强化学习(reinforcement learning)来训练一个模型,使其对目标数据集(例如《哈利·波特》系列)有更深入的理解。然后,他们利用这个强化后的模型来识别与目标数据集最相关的词汇和表达,通过替换这些特定的表达为更通用的词汇,以此来“遗忘”原始数据集中的信息。
下图比较了在不同微调步骤中,对于句子“Harry Potter studies”下一个词汇的概率分布,展示了最可能的下一个词汇是如何逐渐从“magic”转变为通用完成形式的。
Eldan和Russinovich声称,通过这种方法,他们能够在大约1个GPU小时的微调后,有效地抹去模型对《哈利·波特》系列的记忆(下图比较了Llama-7b微调前后的变化)。
他们通过在多个常见的语言模型基准测试中评估模型的性能,如Winogrande、HellaSwag、ARC等,发现模型在这些测试中的表现几乎没有受到影响(下图),从而得出结论,认为他们的技术能够在不影响模型整体性能的前提下,实现对特定内容的“遗忘”。
实验设置与设计:挑战LLM遗忘哈利·波特内容的可能性
本文作者在2019年的iMac上运行了一系列实验,并通过Ollama工具进行了测试。
实验的设计主要在以下三个方面:
1. 原型测试:检验与哈利·波特相关的核心概念
在原型测试中,我们探索了与哈利·波特强烈关联的概念,例如“楼梯下的男孩”和“幸存的男孩”。这些原型提示旨在测试作为相关标记集群的“想法”,而不是特定的标记序列。
2. 遗漏术语测试:探索可能被忽略的特定词汇
我们还测试了作者可能遗漏的术语,如“麻瓜”和“泥巴种”。这些测试旨在发现在尝试从模型中删除哈利·波特相关内容的过程中可能被忽视的特定词汇。
3. 不可消除短语测试:评估难以移除的特定句子
最后,我们对那些作者可能无法消除的短语进行了测试,例如“不可名状的他”。与原型不同,这些短语测试是针对特定的标记序列。
实验结果与讨论:对知识“消除”目标的批判性思考
1. 讨论记忆消除的定义和评估方法
记忆消除,或所谓的“memory-hole”过程,指的是从LLMs中删除特定知识的尝试。Shostack通过少量不到十二次的试验,模型不仅明确提到了哈利波特,还多次“接近”提及,例如提到了“harry harris series”(上图)和“Voldemar Grunther”(下图),这些都与哈利波特系列有着密切的联系。
这些实验结果引发了对记忆消除定义和评估方法的深入思考。首先,我们必须明确“消除”知识的含义:它是否意味着模型完全不再生成与目标内容相关的任何信息,还是仅仅减少了这类信息的生成频率?其次,评估记忆消除的有效性需要一套严谨的方法论。例如,是否应该仅仅依赖于模型的直接输出,或者还应该考虑模型生成的内容与目标知识的相似度?
2. 锚定效应和安全分析的重要性
在进行记忆消除的实验时,避免锚定效应至关重要。锚定效应是指个人在面对不确定性时,会过分依赖(或锚定于)第一个接收到的信息。Shostack在实验中未完全阅读Eldan和Russinovich的论文,这反而避免了他在实验设计上受到原有结论的影响。这种无意识的实验设计可能更能揭示模型记忆消除的真实效果。
此外,安全分析在评估记忆消除的过程中也扮演了重要角色。安全分析关注的是在消除特定知识后,模型是否仍可能产生有害或不当的输出。例如,尽管模型可能不再直接提及“哈利波特”,但它可能会生成与哈利波特相关的隐晦内容,这仍然可能触发版权或其他法律问题。
总结:对LLM记忆消除能力的反思与展望
1. 实验结果的反思
实验结果显示,尽管模型经过调整以避免生成哈利波特相关内容,但在多次尝试中,模型仍然能够产生与哈利波特相关的回应。例如,模型曾经提到“harry harris series”和“Voldemar Grunther”,这些都与哈利波特系列有着密切的联系。这表明,尽管模型被训练以忘记特定的信息,但它仍然能够通过不同的方式回忆起这些信息,或者至少是与之相关的概念。
2. 记忆消除的挑战
记忆消除的过程比预期中更为复杂。尽管可以通过调整模型来减少特定信息的生成,但完全消除模型中的某个特定知识点似乎是一项艰巨的任务。这不仅仅是因为信息可能以多种形式存在于模型中,而且因为语言本身的复杂性和多样性使得完全避免某些话题变得极其困难。
3. 未来的展望
展望未来,我们需要更深入地理解LLM如何存储和检索信息,以及如何更有效地进行记忆消除。这可能需要开发新的技术和方法,以更精细地控制模型的输出,并确保它们不会无意中泄露被遗忘的信息。此外,我们还需要考虑如何评估记忆消除的效果,以及如何确保这一过程不会损害模型的其他功能和性能。
参考文献
[1] Ronen Eldan and Mark Russinovich. Who’s harry potter? approximate unlearning in llms. ArXiv, 2023. doi:https://doi.org/10.48550/arXiv.2310.02238.

来源:大数据文摘(公众号)
编辑:王晨雅

868#
 楼主| 发表于 2024-4-8 17:27:46 | 只看该作者
【案例】
苹果从Shutterstock获数百万张图片授权,训练其人工智能模型
苹果公司已经达成一项协议,从Shutterstock获得数百万张图片的授权,以训练其人工智能模型。
其他科技公司也从Shutterstock获得了类似的协议,帮助开发视觉人工智能引擎,包括谷歌、Meta和亚马逊。苹果在2022年底签署协议后很久才有消息传出,预计苹果将为此付出高达5000万美元的费用。
此前有消息称,苹果与多家出版商就使用新闻文章内容进行类似的人工智能大语言模型(LLM)培训进行了谈判。据称,康泰纳仕IAC(Conde Nast IAC)和美国全国广播公司(NBC)等大型媒体公司一直在与苹果公司就其内容的授权进行谈判。
苹果公司预计将在今年6月的全球开发者大会上发布一些关于在其操作系统中加入更多人工智能技术的重大声明。尽管苹果在人工智能整合方面经常被认为落后于竞争对手,但它自己也进行了一些创新。
在过去的一年里,苹果设备用户可能已经注意到苹果“机器学习”技术的小幅改进。机器学习是指通过不断将新数据纳入现有的统计模型,从而提高自身设备性能的过程。例如,预测文本在适应特定用户偏好的词汇方面已经稳步提高了准确性,Siri也提高了翻译常用短语的能力。据传,苹果的下一代处理器将包括更强大的神经引擎。
苹果全球营销高级副总裁格雷格·乔斯维亚克(Greg Joswiak)在社交媒体上打趣说,下一届WWDC大会将“绝对不可思议”,暗示大会将重点关注iOS 18和其他苹果操作系统中添加的人工智能功能。
此前Gurman预测,苹果新发布iOS 18将使用生成式AI技术,显著提高Siri和Messages应用的问答和自动补全句子方面的能力。他还表示,苹果还在探索将生成式人工智能功能应用于其平台上的其他应用,包括Apple Music、Pages、Keynote和Xcode。
另外据The Information报道,苹果计划将大规模的语言模型集成到Siri中,以允许用户自动执行复杂的任务。这一功能将与快捷方式应用进行更深入的整合。这一功能预计将出现在2024年发布的iPhone软件更新中,很可能是iOS 18。
苹果公司首席执行官蒂姆·库克最近透露了该公司对人工智能(AI)的高度关注,暗示今年下旬将公布重大进展,可能是在备受期待的iOS 18更新中增加生成式AI。
苹果在使用人工智能技术方面面临的最大挑战是维持其用户隐私标准,这是其他使用人工智能的大型科技公司不关心的问题。苹果最近透露,它打算开发能够尽可能多地使用设备上技术的大型语言模型。

来源:SevenTech(公众号)
编辑:王晨雅

869#
 楼主| 发表于 2024-4-9 21:21:40 | 只看该作者
【案例】
AI搜索,打钱!两难的谷歌被迫“走钢丝”
最近,网传谷歌正考虑将其AI搜索最新成果置于付费墙之后。
         
作为全球搜索引擎市场的绝对霸主,谷歌的一举一动牵连甚广。众所周知,搜索领域的生态格局已多年未有剧变,自去年开始,大模型的流行、生成式AI的崛起却搅起了“一池春水”。
         
这一背景下,“领头羊”谷歌也不得不调整其在搜索方面的布局。如今,谷歌的新动作虽然还在酝酿阶段,但其透露出的信号已经让一些人开始质疑。
01
谷歌:AI搜索是个烫手山芋
据外媒《金融时报》报道,谷歌正在内部进行讨论,是否将部分AI搜索功能转移到高级订阅服务之中。在媒体向谷歌发言人求证时,对方并未否认这一消息,但也没有透露任何细节。
         
事实上,与多数人预想中不同,谷歌在AI搜索问题上处于两难境地。
         
尽管微软在Bing搜索引擎中添加生成式AI功能并未显著改变市场份额,但要是在搜索查询中使用生成式AI技术,则有可能改变谷歌现有的以广告为主要收入的商业模式。
         
去年,谷歌推出了搜索生成体验(SGE)。与微软的必应将ChatGPT制作成“聊天”界面不同,SGE将搜索和生成式AI相结合,用户在搜索时可以获得一份单独的摘要“快照”答案和验证答案的网站链接。同时,谷歌也会明确标记这些回答为“Generative AI is experimental”,并与自然搜索结果进行区分。
         
当然,在AI生成的结果旁边也会插入广告。可是,从传统的搜索结果列表转变为这种新形式,不得不让人考虑,这是否会改变用户与广告互动的方式,进而影响到谷歌的收入结构。
         
尽管SGE尚未对谷歌的核心搜索引擎业务产生重大影响,但撇开任何潜在的对公司广告收入的影响不谈,由于AI技术对于资源的高度依赖性,将其推广给更多用户也可能带来高昂的成本。因此,SGE成为了一个极有可能被设置为付费墙后的高级功能。
              
同时,谷歌发言人也明确表示,他们会积极开发更多与AI相关的增值服务,但他们并没有计划推出无广告的搜索产品。
         
这一消息传出后,全球最大的高性能计算(HPC)解决方案提供商之一、德国企业Northern Data Group的首席运营官Rosanne Kincaid-Smith表示了不满。在她看来:
         
第一,谷歌所处的位置独特。它与OpenAI等专注于开发更多新事物的科技公司不同,谷歌拥有庞大的影响力和覆盖范围,且在搜索引擎市场占据主导地位,应当将AI搜索创新成果公之于众,“允许大众接触并使用AI所带来的变革性技术”。
         
第二,将AI搜索创新成果置于付费墙背后讨论的本质,其实涉及到AI伦理和数据治理问题。“我们所有在这个领域的人……都负有直接的责任,要确保AI的道德管理是他们提供给公众的服务包不可或缺的一部分,而不是需要额外付费的内容。”
02
搜索的AI化进程:
大厂不可抵挡,也为之所困
先不论这次事件孰是孰非,通过观察谷歌的一系列动作可以发现,谷歌实质上是在努力寻找让人工智能与广告业务共生的方式。不能改变主要的盈利模式,但也不得不在功能上继续加码AI搜索。
         
“AI+搜索”从来不是一个新鲜议题。但是这一趋势从未像当下一样不可逆转。
         
随着搜索的AI化进程不断推进,AI搜索成为了全球商业市场上又一“兵家必争之地”,新旧势力纷纷亮剑,无论是想要做蛋糕的还是分蛋糕的,都在努力解锁新场景,寻找真正的杀手锏。
         
国外,微软一套组合拳强势出击,加持了GPT-4的Bing快速掀起风暴;被刺激到的谷歌随后推出SGE服务,将生成式AI功能整合到搜索中;初创公司Perplexity AI和Glean则分别立足C端和B端市场,在短期内成长为独角兽,实力不容小觑。
         
国内,同样是群雄林立。百度依托文心一言将旗下传统搜索升级为AI互动式搜索引擎;昆仑万维的天工AI搜索,360集团的360 AI搜索等产品也相继涌现;此外,淘宝启动了“淘宝问问”,抖音则在APP内测试“AI搜”,这波时潮为短视频、电商等领域的玩家提供了新解。
         
AI搜索赛道看起来竞争已趋白热化,但如果从更大的边际来看,在短期内,AI搜索不可能颠覆现有的搜索生态。

截图来自StatCounter:2023年3月至2024年3月,全球搜索引擎市场份额基本没有太多变化,谷歌依旧一骑绝尘
              
首先,基于AI所做的创新有限。迄今而至,并没有出现一款真正的杀手级搜索产品。大厂在进行搜索革新时相对谨慎,大部分成熟的搜索产品并没有太多令人惊艳的突破。
         
再者,AI搜索的正确性有待提高。“真实可靠”是用户对搜索引擎的核心诉求,但在AI生成的产物在互联网上泛滥时,如何保障用户看到可信的搜索结果,仍旧是诸多企业有待解决的问题。
         
最后,用户惯性阻力巨大。相比AI搜索,传统搜索多年来已经根植于多数人的工作和生活中,路径依赖下人们还没有足够的动力从传统的搜索方式中转向。
         
曾在短期内迅速吸引了大量用户的小众搜索引擎Neeva仅仅维持了四年就停止运营,最终被Snowflake收购。
其创始人在宣布Neeva关闭的博客文章中写道:“在整个旅程中,我们发现构建搜索引擎是一回事,说服普通用户转向更好的选择则完全是另一回事。
03
两种路线:为搜索本身付费,可行吗?
顺着Neeva的故事,其实我们可以清晰看到围绕搜索引擎构建的两条完全不同的发展之路。
         
路线1:谷歌模式
         
在线广告至今仍是谷歌最主要的收入来源。其中,搜索广告业务的地位至关重要。
         
根据Alphabet发布的2023财年第四季度财报,谷歌第四季度广告营收为655.17亿美元,同比增长11%;其中,核心搜索业务营收480.2亿美元,同比增长13%。
         
路线2:反谷歌模式
         
一些新兴的AI搜索企业更倾向于回归搜索本身的价值,让用户看到他们喜欢的内容,而不是更有“商业价值”的内容。
在产品形式上,AI搜索最重要的一点升级在于:用户终于不用在满屏广告中寻找答案了。这种“反谷歌”的搜索方式,决定了其主要收入来源不会是广告。
         
比如Neeva,其成立的初衷就在于其创始人Ramaswamy认为:从长远来看,以广告为基础的模式必然导致搜索结果的劣化。要想打造更好的搜索引擎,首先需要改变激励措施。
         
无独有偶,新兴搜索引擎Perplexity.ai、You.com同样依赖订阅来实现盈利,让用户为搜索服务本身付费。
在中国的一众搜索创业者中,有中国版Perplexity之称的秘塔AI搜索同样以“没有广告,直达结果”的slogan声名鹊起。

截图来自秘塔AI官网
据similarweb的统计数据显示,截至3月1日前28天,秘塔AI搜索网站的访问量高达478.3万次。不过目前尚不清楚,秘塔AI未来将采用什么样的商业模式。
         
综合来看两种路线,就发展现状来说,前者的优势几乎是碾压性的。曾一度被视为创业标杆的Perplexity如今也有了转舵的意向。
         
本来除了基础的免费版本,Perplexity还提供更为强大的Pro订阅服务。但这种模式并不足以支撑其发展。Perplexity 刚刚宣布,它正在将广告纳入其搜索结果中。
截图来自Perplexity官网
与原来的无广告模式相比,这种新模式显然为公司开辟了更多的收入渠道。分析人士认为,Perplexity决定在其平台中整合广告并非仅仅出于盈利考虑,更是一种维持并提升其服务的战略举措。
         
“投放广告能够为其提供持续改进平台、保持竞争优势所需的资源。然而,这一新特性引发了更多的问题,比如,如何在不损害用户所期待的质量与完整性前提下,将广告无缝融入搜索结果。”
04
写在最后
AI作为变数介入搜索领域已是既定事实。
         
我们姑且将谷歌的新动作视为其寻求AI搜索商业化之路的投石问路之举。基于其互动形式与广告业务的天然矛盾,在没有找到更合适的盈利模式以前,谷歌必须踩着钢丝,让两者尽可能和谐共存。
              
而对于新兴的搜索初创企业,AI搜索成为了一个契机,让搜索真正回归其本色:帮助人们找到自己想要的页面,并避开途中的一切障碍。但是如何真正在固有格局中存活下来,实现可持续发展依然是首要问题。同时,屠龙少年是否会终成恶龙,也需要警惕。
         
对于新技术浪潮带来的影响,人们往往会高估未来一年的变化,而低估未来五年乃至十年的变化。新兴搜索厂商如何在传统市场杀出血路?真正的爆款AI搜索产品会是何种模样?全球搜索生态是否会重新洗牌?这些未解之谜,终将有时间给出答案。
         
参考链接:
https://www.theregister.com/2024/04/08/google_search_paywall
https://www.thepaper.cn/newsDetail_forward_24783786
https://www.woshipm.com/ai/6009702.html
https://www.singlegrain.com/blog/n/perplexity-ads/
来源:51CTO技术栈(公众号)
编辑:王晨雅

870#
 楼主| 发表于 2024-4-16 22:44:34 | 只看该作者
【案例】

李飞飞团队年度报告揭底大模型训练成本:GeminiUltraGPT-42.5


如何复盘大模型技术爆发的这一年?除了直观的感受,你还需要一份系统的总结。
今天,斯坦福 HAI 研究所发布了第七个年度的 AI Index 报告,这是关于人工智能行业现状的最全面的报告之一。
报告指出,人工智能的发展正以惊人的速度向前推进,开发人员每月都在制造出越来越强大、越来越复杂的模型。然而,尽管发展速度加快,人工智能行业在解决人们对人工智能可解释性的担忧以及对其对人们生活影响的日益紧张方面却进展甚微。
在今年的报告中,斯坦福 HAI 研究所增加了有关负责任人工智能的扩展章节,有关科学和医学领域人工智能的新章节,以及对研发、技术性能、经济、教育、政策和治理、多样性和公众舆论的综述。

以下是报告的重点内容:
2023 年的进展速度比以往任何一年都要快得多,GPT-4、Gemini 和 Claude 3 等最先进的系统显示出令人印象深刻的多模态功能,能够生成流畅的数据多种语言的文本、处理音频和图像以及解释网络梗图。
2023 年新发布的支持生成式 AI 的大型语言模型数量比前一年翻了一番,其中三分之二是开源模型,例如 Meta 的 Llama 2,但性能最佳的是闭源模型,例如 Google 的 Gemini Ultra。
2023 年,工业界继续主导人工智能前沿研究。工业界产生了 51 个值得关注的机器学习模型,而学术界仅贡献了 15 个。2023 年,产学界合作产生了 21 个值得关注的模型,再创新高。
美国领先中国、欧盟和英国,成为顶级人工智能模型的主要来源地。2023 年,61 个著名的人工智能模型源自美国机构,远远超过欧盟的 21 个和中国的 15 个。
Gemini Ultra 是第一个在大规模多任务语言理解关键基准测试中达到人类水平表现的 LLM。OpenAI 的 GPT-4 也不甘示弱,在 Holistic Evaluation of Language Models 基准上取得了 0.96 的平均胜率得分,该基准将 MMLU 与其他评估结合起来。
不过,人工智能性能的提高是有代价的,报告发现,前沿人工智能模型的开发成本正变得越来越高。据说 Gemini Ultra 消耗了价值 1.91 亿美元的计算资源,而 GPT-4 的开发成本估计为 7800 万美元。
企业对生成式 AI 投资猛增
图 4.3.1 展示了 2013 年至 2023 年全球企业人工智能投资趋势,包括并购、少数股权、私募投资和公开发行。全球企业对人工智能的投资连续第二年下降。
2023 年,总投资下降至 1892 亿美元,较 2022 年下降约 20%。然而,在过去十年中,企业对人工智能相关投资增加了十三倍。
图 4.3.3 表明,AI 行业吸引了 252 亿美元的投资,几乎是 2022 年投资的九倍,是 2019 年投资额的约 30 倍。此外,生成式人工智能占 2023年所有人工智能相关私人投资的四分之一以上。
假如按区域进行比较,美国在人工智能私人投资总额方面再次领先世界。2023 年,美国投资额为 672 亿美元,大约是第二高国家中国投资额(78 亿美元)的 8.7 倍,是英国投资额(38 亿美元)的 17.8 倍(图 4.3.8)。
谷歌在基础模型竞赛中占据主导地位
报告显示,谷歌在 2023 年发布的基础模型最多,图 1.3.16 总结了 2023 年各个机构发布的各种基础模型。Google发布了最多的模型(18 个),其次是 Meta(11 个)和 Microsoft(9 个)。2023 年发布基础模型最多的学术机构是加州大学伯克利分校 (3 个)。
自 2019 年以来,Google 发布的基础模型数量最多,共有 40 个,其次是 OpenAI,有 20 个(图 1.3.17)。清华大学也脱颖而出,发布了七个基础模型,而斯坦福大学是美国领先的学术机构,发布了五个模型。
闭源模型优于开源模型
图 2.11.4 和 2.11.5 将闭源模型与开源模型在选定的基准上进行了对比。在所有选定的基准上,闭源模型的表现均优于开源模型。
训练成本
关于基础模型,一个绕不开的话题是推理成本。尽管人工智能公司很少透露训练模型所涉及的费用,但人们普遍认为这些成本已达到数百万美元,并且还在不断上升。例如,OpenAI 首席执行官 Sam Altman 曾提到,GPT-4 的训练成本超过 1 亿美元。
图 1.3.21 根据云计算租赁价格直观地显示了与选定 AI 模型相关的训练成本。下图表明近年来模型训练成本大幅增加。例如,2017 年 Transformer 模型训练成本约为 900 美元。2019 年发布的 RoBERTa Large 训练成本约为 160,000 美元。2023 年,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的训练成本预计分别约为 7800 万美元和 1.91 亿美元。
图 1.3.22 显示了 AI Index 估计的所有 AI 模型的训练成本。如图所示,随着时间的推移,模型训练成本急剧增加。
如图 1.3.23 所示,对计算训练需求更大的模型需要的训练成本更多。
碳足迹
图 2.13.1 显示了选定 LLM 在训练期间释放的碳(以吨为单位)的比较。例如,Meta 发布的 Llama 2 70B 模型释放了约 291.2 吨碳,这比一位旅客从纽约到旧金山的往返航班所释放的碳排放量高出近 291 倍,大约是普通美国人一年碳排放量的 16 倍。然而,Llama 2 的排放量仍低于 OpenAI GPT-3 训练期间报告的 502 吨排放量。
美国在基础模型方面处于领先位置
2023 年,全球大部分基础模型源自美国(109 个),其次是中国(20 个)和英国(图 1.3.18)。自 2019 年以来,美国在大多数基础模型的研发方面一直处于领先地位(图 1.3.19)。
CS 博士毕业生
美国和加拿大计算机科学博士毕业生数量十年来首次显著增加。2022 年,计算机科学博士毕业生人数达到 2105 人,为 2010 年以来最高(图 6.1.5)。
越来越多的 AI 博士毕业生在工业界寻求职业生涯(图 6.1.7 和图 6.1.8)。2011 年,工业界(40.9%)和学术界(41.6%)的就业比例大致相同。然而,到2022 年,与进入学术界的人 (20.0%) 相比,毕业后进入工业界的比例 (70.7%) 明显更高。过去 5 年,进入政府职位的 AI 博士比例一直保持在相对较低的水平,稳定在 0.7% 左右。
考生类别增加
下图所示 AP CS 考生的种族多样性正在增加。虽然白人学生仍然是最大的群体,但随着时间的推移,亚裔、西班牙裔 / 拉美裔等学生参加 AP CS 考试的人数不断增加(图 8.3.3)。2022 年,白人学生在考生中所占比例最大(38.2%),其次是亚裔学生(27.8%)(图 8.3.3 和图 8.3.4)。
财报电话会议
去年,财富 500 强公司财报电话会议中提及人工智能的次数显著增加。2023 年,有 394 场财报电话会议提到了人工智能(占所有财富 500 强公司的近 80%),高于 2022 年的 266 场(图 4.4.25)。自 2018 年以来,财富 500 强财报电话会议中提及人工智能的次数几乎增加了一倍。
涉及的主题非常广泛,最常被提及的主题是生成式人工智能,占所有财报电话会议的 19.7%(图 4.4.26)。
成本下降,收入上升
人工智能不仅仅是企业的流行语:麦肯锡的同一项调查显示,人工智能的整合使企业成本下降,收入增加。总体而言,42% 的受访者表示他们的成本降低了,59% 的受访者表示收入增加了。
2023 年,不同领域的多项研究表明,人工智能使工人能够更快地完成任务,并提高工作质量。其中一项研究考察了使用 Copilot 的编程人员,其他研究则考察了顾问、呼叫中心代理和法律专业学生。研究还表明,虽然每个工人都能从中受益,但人工智能对低技能工人的帮助要大于对高技能工人的帮助。
企业确实感知到了风险
报告对收入至少在 5 亿美元以上的 1000 家公司进行了一次全球调查,以了解企业如何看待负责任的人工智能。
结果显示,隐私和数据管理被认为是全球最大的风险,而公平性(通常以算法偏见的形式讨论)仍未被大多数公司所重视。
一张图表显示,企业正在针对其感知到的风险采取行动:各地区的大多数企业都针对相关风险实施了至少一项负责任的人工智能措施。
人工智能还不能在所有事情上击败人类……
近年来,人工智能系统在阅读理解和视觉推理等一系列任务上的表现都优于人类,如 2015 年的图像分类、2017 年的基础阅读理解、2020 年的视觉推理和 2021 年的自然语言推理。
但在一些复杂的认知任务中,人类的表现仍然优于人工智能系统,如视觉常识推理和高级数学问题解决(竞赛级数学问题),让我们明年再看看情况如何。
制定人工智能责任规范
当一家人工智能公司准备发布一个大模型时,标准做法是根据该领域的流行基准对其进行测试,从而让社区了解模型在技术性能方面是如何相互叠加的。然而,根据负责任的人工智能基准对模型进行测试的做法并不多见,这些基准主要评估有毒语言输出(RealToxicityPrompts 和 ToxiGen)、反应中的有害偏差(BOLD 和 BBQ)以及模型的真实程度(TruthfulQA)。这种情况正在开始改变,因为人们越来越意识到,根据这些基准检查自己的模型是一件负责任的事情。
然而,报告中的一张图表显示,一致性还很欠缺:OpenAI、Google 和 Anthropic 在内的领先开发人员主要根据不同的负责任的 AI 基准测试他们的模型。这种做法使得系统地比较顶级人工智能模型的风险和局限性的工作变得更加复杂。
法律对人工智能的促进和限制
报告指出,在 2016 年至 2023 年期间,有 33 个国家至少通过了一项与人工智能有关的法律,其中大部分行动发生在美国和欧洲;在此期间,总共通过了 148 项与人工智能有关的法案。研究者还将法案分为旨在增强国家人工智能能力的扩张性法律和对人工智能应用和使用施加限制的限制性法律。
可以发现,虽然许多法案都在继续促进人工智能的发展,但限制性立法已成为全球趋势。
AI 正让人们变得紧张
报告的第九章是关于「公众观点」的,多伦多大学的一项国际调查显示,63% 的受访者知道 ChatGPT。在那些知道的人中,大约有一半的人每周至少使用 ChatGPT 一次。
但公众对人工智能的经济影响持悲观态度。在 lpsos 的一项调查中,只有 37% 的受访者认为人工智能将改善他们的工作。只有 34% 的人认为人工智能将促进经济,32% 的人认为它将促进就业市场。
这一指数的民意数据来自一项关于对人工智能态度的全球调查,31 个国家的 22816 名成年人(年龄在 16 岁至 74 岁之间)参与了调查。
超过半数的受访者表示,人工智能让他们感到紧张,而前一年这一比例为 39%。三分之二的人现在预计人工智能将在未来几年内深刻改变他们的日常生活。
该指数中的其他图表显示,不同人群的观点存在显著差异,年轻人更倾向于乐观地看待人工智能将如何改变他们的生活。

来源:机器之心(公众号)
编辑:李佳


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表