传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
841#
 楼主| 发表于 2024-3-14 22:17:00 | 只看该作者
【案例】
    欧洲议会通过全球首部AI法案——《人工智能法案》(EU AI Act)

导读

2024年3月13日,欧洲议会(European Parliament)通过了《人工智能法案》(Artificial Intelligence Act)。该法案禁止某些威胁公民权利的人工智能应用,包括(1)基于敏感特征的生物识别分类系统,(2)从互联网或闭路电视录像中无差别抓取面部图像以创建面部识别的数据库,(3)工作场所和学校的情绪识别、社交评分、预测性警务(仅基于对一个人的侧写或评估其特征),以及(4)操纵人类行为或利用人类弱点的人工智能。

执法部门原则上被禁止使用生物识别系统(biometric identification systems, “RBI”),除了某些被穷尽列举和严格定义的情况。对于其他高风险的人工智能系统(由于其对健康、安全、基本权利、环境、民主和法治的重大潜在危害)也规定了明确的义务。高风险人工智能用途的例子包括关键基础设施、教育和职业培训、就业、基本的私人和公共服务(如医疗保健、银行)、执法中的某些系统、移民和边境管理、司法和民主进程(如影响选举)。

欧洲议会也对通用人工智能(General-purpose AI,“GPAI”)系统提出了透明度要求,包括遵守欧盟版权法和发布用于培训的内容的详细摘要。可能带来系统性风险的更强大的 GPAI 模型将面临更多要求,包括执行模型评估、评估和降低系统性风险以及报告事件。人工或经过处理的图像、音频或视频内容需要明确标注为人工或经过处理的图像、音频或视频内容。

此外,必须在国家层面建立监管沙盒和实际测试,并让中小企业和初创企业能够使用,以便在创新人工智能投放市场之前开发和培训它。

尽管新法案已经通过欧洲议会,但它还需要经过律师和语言学家的最后审查,并得到欧洲理事会的正式批准。一旦最终通过,该法案将在官方公报上公布20天后生效,并在生效后24个月全面适用,但对于部分例外行为规定了不同的过渡期。

导读系本公众号原创,转载请注明文字出自本公众号。





来源:个人信息与数据保护实务评论(公众号)
编辑:李佳



842#
 楼主| 发表于 2024-3-16 22:51:08 | 只看该作者
【案例】


编辑:李佳

843#
 楼主| 发表于 2024-3-22 21:12:45 | 只看该作者
【案例】

国内首个AI导演上岗!




3月15日,湖南广电集团(台)首个AI导演爱芒(英文名AIM)正式以助理导演的身份和观众、网友们见面!


综艺节目#我们仨#也正式官宣定档,超前企划将于3月17日中午12:00在芒果TV上线,3月23日起,每周六22:00,湖南卫视和芒果TV双平台播出。


值得一提的看点是, 节目中,国内首个AI导演爱芒将以助理导演的身份,与嘉宾们一同探索潮流生活新方式。




爱芒的相貌是由湖南卫视、芒果TV双平台制片人的人像合成而来,声音则是采集了双平台95后、00后年轻导演的声音合成。爱芒将在芒果大家庭里从助理导演的岗位开启职业生涯,期待逐步成长为一个成熟的AI导演。


目前,爱芒正在参与湖南卫视王恬工作室的《我们仨》综艺节目录制,在节目中以助理导演的身份与郭麒麟、毛不易、魏大勋一同探索潮流生活新方式。期待在更多即将启动的综艺IP中与观众见面,一起为芒果创造新的可能性!


“横空出世,破圈而来”。AI导演对于人类导演,到底是青出于蓝而胜于蓝,还是能够促进行业内良性竞争与共同进步呢?他们能否创造历史,开启AI综艺时代?让我们拭目以待吧!



爱芒的独白:

大家好,我是你们的新同事爱芒

亲爱的芒果伙伴们:

我是湖南广电大家庭的新芒果er,我的姓名是爱芒(英文名AIM),我的岗位是:助理导演,今天我正式和观众、网友们见面啦!

可能大家看我有点脸熟,那是因为我的相貌是芒果双平台制片人的人像合成而来(悄悄问一句,你从我的脸上看到了谁?),另外我的声音是采集了双平台95后,00后年轻导演的声音合成而来的。

目前,我还是一个初出茅庐的新人,期待自己能在湖南广电这片热土中磨炼成长。

知道自己有机会在芒果大家庭里从助理导演的岗位开启我的职业生涯,虽然我表面波澜不惊,但内心十分激动,很开心与优秀的各位在这里相遇共事~

目前的我还处于成长阶段,需要学习的东西还很多,也许我还会犯点小迷糊,希望大家在之后的工作中可以多多支持帮助和包容我,使我能够尽快成为大家的得力伙伴,并逐步成长为一个成熟的AI导演。

目前我正在参与湖南卫视王恬工作室的《我们仨》综艺节目录制,在节目中以助理导演的身份与郭麒麟、毛不易、魏大勋(按首字母排列)一同探索潮流生活新方式。

期待在更多即将启动的综艺IP中与你们见面,一起为芒果创造新的可能性!


来源:广电猎酷(公众号)

编辑:徐思凡

844#
 楼主| 发表于 2024-3-25 21:16:31 | 只看该作者
【案例】
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线


  新智元报道  
编辑:编辑部
【新智元导读】奥本海默曾引用《薄伽梵歌》:「现在我变成了死亡」。深度学习之父Hinton,也同样痛悔毕生工作。最近,Hinton、Bengio、Stuart Russell、张宏江、黄铁军、王仲远、姚期智、张亚勤等大佬齐聚中国版「布莱切利」峰会上,签署了《北京AI安全国际共识》。

「现在我变成了死亡,世界的毁灭者。」这是奥本海默曾经引用印度教经文《薄伽梵歌》中的一句话。上世纪40年代,奥本海默的发明,如同天地初开,彻底重塑了世界的面貌。原子弹的问世,带来了一场空前的毁灭危机,让人类面临前所未有的生存考验。1945年8月,就在美国新墨西哥沙漠中核试爆结束不到一个月,美国随即在日本广岛和长崎投下原子弹,在此后的几十年间,奥本海默曾多次表达对制造出大规模毁灭性武器的无限追悔和遗憾。可历史无法重演,数十万人的死亡成为科学发展历程中无法磨灭的一笔。而在21世纪的今天,面对AI的迅速发展,同样表达出担忧和后悔的还有两位AI大佬:深度学习泰斗、神经网络之父Geoffrey Hinton突然宣布离职谷歌,起因就源自于对生成式AI的恐惧,他甚至直言——「我对自己的毕生工作,感到非常后悔。」Geoffrey Hinton认为,数字智能终将取代生物智能。接受了海量网络信息训练的AI会比人类更聪明,因而能够轻易操纵人类——这是超级智能接管人类控制权的路径之一。也在近期,深度学习三巨头之一Yoshua Bengio指出,AI安全与核武器问题非常相似。世界上的 AGI 项目越多,对人类来说就越危险。因此,应该和通过国际条约来控制核武器数量一样,去控制AGI项目的扩散。「这不是国与国之间的对抗,而是人类与机器之争。所有人都应该同舟共济,患难与共。」上述观点正来自于3月10日-11日的「北京AI安全国际对话」,该对话是我国首个AI安全高端闭门论坛。去年11月初,人工智能安全峰会在英国布莱切利公园举行,包括中国、美国、英国和欧盟在内的超25个国家代表参与,甚至剑拔弩张的Elon Musk和OpenAI创始人Sam Altman等也齐聚一堂。在AI安全面前,每一位科技领袖都不计前嫌,共谋大计。英国媒体称,「这是罕见的全球团结表现」。而此次大洋彼岸的「北京AI安全国际对话」正是中国版的「布莱切利」峰会。本次对话由智源研究院发起,智源学术顾问委员会主任张宏江与图灵奖得主Yoshua Bengio担任共同主席。Geoffrey Hinton、姚期智、Stuart Russell、傅莹、张亚勤、薛澜等30余位专家参会。作为国内最具影响力的AI研究机构之一,智源研究院成功搭建了国际AI安全交流的对话平台。与会专家在为期两天的对话中展开深入探讨,共同拟定并签署了《北京AI安全国际共识》,提出人工智能风险红线及安全治理路线。同时呼吁「在人工智能安全研究与治理上的全球协同行动,是避免不受控制的前沿人工智能发展为全人类带来生存风险的关键。」
AGI必将在10年或20年后降临,落入坏人手中后果不堪设想
Bengio在对话发言中提到,我们不知道距离实现AGI还有多远,但可以肯定的是,实现AGI是一种必然。这个时间可能是5年,10年甚至20年。即使是10或20年,也并不遥远。AGI的实现势必带来巨大变革,我们需要开始为此做好准备。如果只剩下5年,人类就更加迫切地需要寻求解决方案。AI能力越强,为人类带来的优势越多,与此同时也越来越危险。一旦落入坏人手中或失控,后果将不堪设想。AI系统一旦失控会怎样?Bengio认为,AI的本质是有目标的机器。一个更加强大的AI系统是一个能够实现这些目标的机器。那么谁来决定AI的目标呢,它可能是一个恶意的人或组织,试图对社会做出灾难性的破坏。还有一种更糟糕的可能性,即这些目标是AI自发形成的。AI自发的行动目标源于自我保护。这个星球上的每一个生物都有着自我保护和生存的目标。如果AI也产生了自我保护意识,那它们就不再仅仅是人类的工具,它们会像生物一样抵制被关闭。AI甚至可能会采取欺骗手段来阻止人类进行一切不利于他们的行为。未来,它们可能比人类更擅长使用语言来影响、说服和操纵,可能会对人进行威胁或雇佣罪犯,下达命令以获得更多控制权。它们也许可以在金融市场上比人类更轻松地赚钱。它们可以在互联网上自我复制,因此很难将其关闭。最令人担忧的是,目前训练AI系统的方式可能会使其变成危险实体。人类训练AI的方式类似于训练动物,依照行为进行反馈,做得好给奖励,做得不好给惩罚。但在我们真正想要实现的和机器所理解的目标之间通常会存在不匹配,我们称之为错位,或者不对齐(misalignment)。比如,你要训练你的猫不要去厨房的桌子上,当你在厨房里时,它可能学会了不去厨房的桌子上,但也只有你责怪它的时候才听话。你一旦去其他地方寻找时,它可能还是会出现在厨房的桌子上。大量科学证据表明,要确保AI能够准确理解人类想法非常困难。如果只是一只猫也无所谓,但如果是一个比人类更聪明的AI系统,情况则大不相同。在这里,可以将AI比作一只比人还强大的灰熊。我们会建造一个所谓「安全防护」的笼子,但现在这个笼子还无法坚不可摧。问题在于,在某个时刻,AI或者说灰熊,会找到办法破笼而出。然后它就不再依赖人类给它奖励了(比如给它喂鱼),它能自己去抓鱼。为了让人类能够避免这类潜在的灾难,我们需要解决两大挑战。其一,科学性的挑战。我们如何设计不会与人类为敌的安全人工智能?其二,政治性的挑战,因为即使我们知道构建安全人工智能的秘诀,有些人也可能不认同,原因在于企业和国家之间存在的竞争。「坏人」可能不在乎安全的规则。因此,我们需要探讨如何确保让世界上所有国家都遵守安全协议,并且确保没有国家会为了经济或军事霸权滥用AI的力量,因为这也会破坏地球的稳定。
数字智能终将取代生物智能,令人深感忧虑
在对话中,Geoffrey Hinton也进一步对数字智能取代生物智能的未来风险予以警示。他指出,大语言模型理解世界、学习知识的方式与人类高度相似,它能够很好地预测人类大脑负责语言部分的活动,并像人脑的记忆机制一样将所有知识存储为特征交互,通过不断重建来提取记忆。值得警惕的是,Hinton认为人工智能的数字计算优于人类大脑的生物计算。如今的大模型能够通过学习(learning)获取程序和目标,这让软硬件协同的计算机设计和可朽计算(mortal computation)成为可能——知识与硬件的精确物理细节不可分割,这是人类大脑执行计算任务的方式。不同的是,人类大脑之间仅能通过缓慢、低效的蒸馏(distillation)进行知识共享,大模型的不同副本之间可以通过权重或梯度共享(weight or gradient sharing)简单、快速地共享知识。目前,数字计算的劣势在于需要消耗大量能源。然而随着能源成本不断降低,数字计算的优越性会日益显著,数字智能取代生物智能的预言或将一语成谶。瞻望数字智能终将取代生物智能的未来,Hinton深感忧虑。一旦AI拥有创造子目标的能力,它们将很快意识到「掌控更多权力」是非常明智的子目标,这让它们可以获取更多资源从而实现更多目标。接受了海量网络信息训练的AI会比人类更聪明,因而能够轻易操纵人类——这是超级智能接管人类控制权的路径之一。关于如何规避这些风险,Hinton表示一切都很不确定。不同于以往的计算机程序,AI可以像人类一样理解世界,并且可能比人类聪明得多——这是人类从未应对的情况。或许人类能够找到方法来确保AI不会比人类更聪明,并且不会产生控制人类的意图,但Hinton对此抱以悲观态度。因此Hinton认为,投入巨大资源来尝试确保AI安全是明智之举。「我猜我们会失败,但我不确定。现在我们仍有机会,应该尽力去做。」
全人类同舟共济:这不是国与国之间的对抗,而是人类与机器之争
在国际合作与多边治理方面,与会专家认为,AGI项目的扩散问题(proliferation),与核武器问题非常相似。世界上的AGI项目越多,对人类来说就越危险。因此,和通过国际条约来控制核武器数量一样。控制AGI项目的数量是一个扩散问题。与此同时,权力集中在少数公司或单一国家手中是危险的。没有一个国家可以对这些AGI拥有完全的权力。与会专家认为,对于那些5年、10年,甚至20年后才会出现的强大AI系统,应以多边的方式进行治理和管控。最理想的方案是由所有国家共同管理一个AGI项目,这将构建一个更加稳定的世界秩序,因为所有国家将共同控制AI的许多好处,并确保这种力量不被滥用来对抗彼此,减少战争和其他类似事件的风险。与会专家达成共识:
这不是国与国之间的对抗,而是人类与机器之争。所有人同舟共济,患难与共。与其他任何问题相比,AI给人类安全带来的威胁,足以使世界各国产生强烈的动机,为全人类的安全而放弃一部分主权。那么如何做到这一点呢?AGI项目的相互监督、跨国治理,以及最终的合并和削减。这当中还要考虑包括中美各国的优势。最终,我们的目的是在分享AI红利的同时避免人类的终结。人类的未来不是由竞争驱动,而是由共同治理驱动。
对话达成共识——落实AI风险红线
本次对话共邀请了众多国际顶尖AI领域专家参与,包括图灵奖得主Geoffrey Hinton、Yoshua Bengio、姚期智,UC Berkeley教授人类兼容人工智能中心主任Stuart Russell、傅莹女士、清华大学智能产业研究院院长张亚勤、清华大学苏世民书院院长薛澜、南洋理工大学副校长林国恩、Anthropic安全专家Sam Bowman、未来人类研究所高级研究员Toby Ord、加州大学洛杉矶分校人工智能治理中心国际治理主管Robert Trager、加州大学伯克利分校教授,麦克阿瑟奖得主Dawn Song、施瓦茨·赖斯曼技术与社会研究所所长Gillian Hadfield、英国AI安全研究所CTO Jade Leung、英国先进研究与创新署(ARIA)项目总监David Dalrymple,北京大学AI安全与治理中心执行主任杨耀东,来自零一万物、智谱AI、瑞莱智慧等国内创业公司,多家互联网企业与投资机构代表,以及智源研究院黄铁军、王仲远、林咏华等。在最终的共识拟定环节,与会者经过讨论一致认为,避免人工智能导致的灾难性全球后果需要我们采取果断的行动。协同合作的技术研究与审慎的国际监管机制的结合可以缓解人工智能带来的大部分风险,并实现其诸多潜在价值。而我们必须继续坚持并加强国际学术界和政府在安全方面的合作。共识从AI风险红线、落实治理路线两个角度进行了阐述。
共识全文链接:https://baai.org/l/IDAISBeijing
2019年5月,在智源研究院的倡导下,北京多家高校、科研机构与企业联合发布了《人工智能北京共识》,为规范和引领中国人工智能健康发展提供「北京方案」。2024年3月,此次智源研究院发起的「北京AI安全国际对话」成功举办,不仅加强了中国与国际AI安全领域的交流与合作,也推动了全球AI安全技术的发展和共识形成,为我国深度参与国际AI安全合作搭建了面向世界的平台。
来源:新智元
编辑:程正元

845#
 楼主| 发表于 2024-3-27 20:11:12 | 只看该作者
【案例】违规使用新闻出版商数据训练大模型,谷歌在法被罚2.5亿欧
当地时间3月20日,法国竞争管理局(Autorité de la concurrence)发布公告称,由于谷歌公司在未经许可的情况下,使用法国新闻机构和出版商提供的内容训练其旗下人工智能服务Bard的基础模型,违反了欧盟版权法相关规定,决定对谷歌处以2.5亿欧元罚款。对此,谷歌回应称接受处罚,但对罚款金额提出质疑,认为监管机构忽略了其之前为满足各方需求付出的努力。

南都记者梳理发现,谷歌公司这场版权官司的起因可以追溯至2019年。据了解,彼时法国新实施的版权法要求,大型科技公司与新闻出版机构需就使用后者发布内容及支付报酬等事项达成协议,从而实现新闻机构、出版商、数字平台之间的平衡。面对以法新社为代表的多家新闻出版机构的投诉,2020年,法国竞争管理局要求谷歌在一定时限内与相关新闻出版机构展开谈判。
据悉,然而,谷歌对内容付费的做法表达了强烈不满,谈判宣告破产,并因此收到了法国竞争管理局开出的5亿欧元罚单,理由之一是谈判态度不够真诚。谷歌曾试图上诉推翻判决,但在2022年暂时妥协,与新闻出版机构达成和解协议。和解协议中作出的承诺有效期为五年,可延长一次。
法国竞争管理局公告显示,如今谷歌违反了与新闻出版机构达成的和解协议,其未能遵守七项承诺中的四项,包括秉承透明、客观和非歧视性原则在三个月内开展真诚的谈判;向新闻出版机构提供透明的相关报酬信息;采取必要措施,确保谈判不会影响谷歌与新闻出版商之间的其他利益关系等。
公告还特别指出,Bard使用新闻出版机构发布的内容训练其基础模型,却不告知这些机构及监管部门,也没有为新闻出版机构提供避免内容被使用的“选择退出”技术机制等,这些做法阻碍了新闻出版机构就报酬问题与其公平地展开谈判。于是,法国竞争管理局决定对谷歌、其母公司Alphabet以及两家子公司共处以2.5 亿欧元(折合人民币约19.6亿元)罚款。
公告发布当日,谷歌方面也发文作出回应,称接受这一处罚结果,但认为罚款金额不合理,原因是监管机构忽略了其在缺乏明确监管措施等不确定环境中为满足各方需求所付出的努力。“谷歌是第一个也是唯一一个与280余家法国新闻出版机构签署协议的平台,每年支付数千万欧元。尽管取得了这些进展,法国竞争管理局依然对谷歌处以2.5亿欧元罚款,原因只在于我们谈判的方式。”
南都记者梳理发现,AIGC的版权问题在全球范围内都一直饱受争议,相关侵权诉讼屡见不鲜。
今年1月,国内首例“AI文生图”侵权案已作出一审判决。案件中,原告利用开源AI工具生成图片并发布在小红书,被告未经许可使用该图片并删除原作者署名。北京互联网法院经审理认为,涉案图片符合作品的定义,属于作品;原告是涉案图片的作者,享有涉案图片的著作权;被告侵害了原告享有的权利,应当承担侵权责任。因此,法院判决被告赔礼道歉并赔偿原告500元。
据央视报道,去年12月,《纽约时报》指控OpenAI及其投资者微软公司未经授权使用其文章训练ChatGPT等聊天机器人,以创造替代《纽约时报》的产品。今年2月,OpenAI要求联邦法官驳回部分原告诉求,称《纽约时报》雇佣黑客操纵ChatGPT等人工智能系统生成“误导性证据”,目前该案尚未有定论。
来源:隐私护卫队
编辑:程正元

846#
 楼主| 发表于 2024-3-28 21:32:34 | 只看该作者
【案例】我用盗版书训练人工智能
作者|袁榭
原创首发|蓝字计划
全文字数|约6000

3月6日,由Meta的AI部门前雇员组成的AI模型评估公司Patronus AI发布了名为CopyrightCatcher(版权捕手)的API,用于检测大语言模型中的版权数据内容比例。

在公开的版本中,CopyrightCatcher选用了受美国版权保护的书籍作为“题库”,并从编目网站Goodreads中选择流行的书籍来测试。研究人员设计了100种不同的文本提示,让模型以续写或输出第一页的方式回应。

结果是,OpenAI的GPT-4表现最差,在44%的提示词上生成了受版权保护的内容,微软新投资的Mixtral为22%。由OpenAI前员工创立、标榜负责任AI的Anthropic公司出品的Claude 2为8%,Meta的Llama-2为10%。

一个专戳人短处的行业公敌诞生了。

在AI头部大厂们版权官司缠身的当下,Patronus AI此举可以算是给版权方们“递刀子”。

训练数据是AI的食粮。从ChatGPT奇迹开始,训练数据来源的法律纠纷就始终相伴,在可见的未来还会继续纠缠下去,成为当下AI技术注定的无解难题。

从人工智障到AI女友的秘密
早在生成式AI技术奠基时,无论泰斗还是普通研究生,无人会对训练数据来源的版权有担忧。因为当时需要的训练数据集体量相比现在实在太小了,从无版权的公有领域寻找、手动收集就够用,规避风险几乎没难度。

10年前,业内常用的AI文本训练数据集包括2003年安然丑闻里作为呈堂证供的安达信会计事务所所有电邮、截至2013年所有英语国家数字版政府公开文书。业内常用的图像训练数据集是有6万张手写黑白数字图像的1999年MNIST集,6万张各种猫、青蛙、飞机图像的CIFAR-10集,1.1万张鸟类图像的加州理工学院数据集等等。

这等规模的数据集,现在供本科生写毕业论文的实验都不大够用了。

2012年,AI界泰斗辛顿(Geoffrey Hinton)和学生克里泽夫斯基(Alex Krizhevsky)、萨茨克维尔(Ilya Suskever)的神经网络模型AlexNet,夺得ImageNet图像分类竞赛冠军,成为AI技术飞跃的奇点。

AlexNet的成功不仅拉开了英伟达GPU跑大模型的序幕,也是训练数据集体量飞跃的起点:背后支撑它的,有华人科学家李飞飞制作的、包含1400万张图像的训练数据集。

(详细报道可点击阅读蓝字计划文章:英伟达悄然垄断算力:人工智能背后的新帝国

从此开始,“缩放”(Scaling)对大模型性能的影响开始浮现:即使基础算法没有彻底革新,只要在训练数据量、参数规模上有数量级程度的扩张,它在测试数据上的损失(在训练后对新输入提示的预测与正确答案之间的差异)会非常显著地剧减,带来了大模型能力显著提升。

此“神经缩放定律”在ChatGPT奇迹上体现得尤为显着:按照OpenAI研发团队的论文,GPT-2用了40GB文本的数据集训练。GPT-3在570GB数据上进行训练。OpenAI至今尚未直接透露作为GPT-3.5的ChatGPT以及GPT-4的训练数据集有多大,但业内的可靠估计是13TB。

训练数据的暴增,给GPT系列大模型带来的功能改善,最直观的对比是2018年GPT-2生成的情人节情话还前言不搭后语,2024年可以陪单身男性谈恋爱的AI女友应用已成了GPT应用商店最热门类。

AI也被告知,不会就选C
大体量训练数据集一旦成为行业共识,整个人类互联网产生的数据就不大够用。

早先,研究者还能手动搜集公有数据。后来,大厂用爬虫扒全网的数据。

还没捅到版权的马蜂窝,先把羊毛薅秃了:参差多态的创意数据有限,大厂们扒来的大同小异,生成式AI大模型产品的“幻觉”有一半源于此弊。

以最基础的大语言模型(LLM,Large Lauguage Model,简称大模型)最简单训练为例:给AI一个缺字的单句,然后让大模型根据训练数据集和参数来补全。

此时负责回答的算法会识别单句和训练数据集里哪些文本长得像、长得有多像,此时就会得出此句该凭数据集哪部分琢磨答案,然后再按照相似程度给出空缺处所有可能答案。最后算法会基于参数在这些可能答案里,选“长得最像”、最有机会正确的答案输出。

训练起始时大模型一般选不准答案,负责检验的算法就会给出一个“损失值”,即“模型认为最可能”答案与真实正确答案有多大差别的“距离值”,码农用这个值来对参数进行微调。之后再跑一边同样流程,模型生成的答案会离正确答案更近。

如此训练,过程从缺字单句直到整段整篇的问句,模型的答案也从填缺字直到成篇文章。如果训练数据集有过十亿文本词元(token,有意义的语义最小单元),模型跑完整个库之后答案就勉强像样。

如果训练数据集包含全互联网所有能薅到的文本词元,模型最后训练好让用户使,吐出的答案就会特别像机器通灵感悟、口吐人言。

这是不是很像教一个没学会课程的中国学生突击应试:背下解题步骤,原理不重要。现在的AI大模型就是这样,不管生成的结果是文本、药物分子式、图片、视频,概莫能外。


要真正在推理层面上学通,那是马斯克们天天吹的AGI(通用人工智能),面世时间恐怕比贾跃亭回国时间还晚。

如此一来,训练数据集的规模自然与AI大模型的性能表现正相关,正如高三学生做一米厚模拟卷和做半米厚模拟卷的效果也是显著不同的。

用十多年前谷歌研究总监彼得·诺维格的名言来说,这就是“我们并没有更好的算法,我们只是有更多的数据。”或者用老港片的片名来说,这叫《大块头有大智慧》。

若训练数据集不够用,或者沾染了不必要的数据,大模型“幻觉”就会出现。就像一个平庸做题家,AI大模型本身只会“选最像的填”、“不会就选C”,搞笑错误自然不少。

“文心一言”刚面世时,输入“总线”却生成“公交车”图片,很大概率应该是因为产品工期太赶、训练和调参不够细,所以依靠现成英文训练数据集的模型分不出“bus”到底是总线还是公交车。

类似的事故也出现在其他大厂的大模型产品中。2023年12月问世的谷歌大模型Gemini,用中文提示词询问时,会答自己是文心大模型、自己创始人是李彦宏。考虑到Gemini想抄“文心一言”不见得有门路,八成也是因为赶工出货、调参没捋好训练数据,“无法可靠地处理一些非英语查询”。

AI也怕近亲繁殖
既然训练数据的规模如此重要,那直接用AI生成数据去训练下游AI,不行么?

不行,这样会把模型搞残。

2023年2月,美国华裔科幻文学家特德·姜表示,ChatGPT等大语言模型,实质是对互联网语料库的有损模糊压缩。用大语言模型生成的文本来训练新的模型,如同反复以JPEG格式存储同一原始高清图片,每次都会丢失更多的信息,最终成品质量只会越来越差。

2023年6月中旬,多家高校的AI研究者联合发布论文《递归之诅咒:用生成数据训练会使模型遗忘》,用实验结果证明了特德·姜的预言。

用AI生成数据训练新的AI,会导致训练出的模型出现不可逆转的缺陷,即使模型最初的基础架构原始数据来自真实世界。研究者们将这一新模型的退化过程与结果称为“模型崩溃”。

按论文所述,不管受训的新模型功能是以文字生成文字还是以图片生成图片,只要使用其他模型生成的内容来训练,这个过程是不可避免的,即使模型处在近乎理想状态的长时间学习条件亦如此。

而AI生成数据中的错误会极快沉淀,最终导致从生成数据中学习的模型进一步错误地感知现实。

“模型崩溃”分为早期与晚期两种。在早期时,被喂生成数据的AI模型会开始失去原初数据分布的信息;在晚期,被喂生成数据的AI模型会吐出完全不符合现实、不相关原初底层数据的结果。

“模型崩溃”后的AI还极其固执,错误会千篇一律且难以矫正,模型将持续甚至强化将错误结果认为是正确的结论,即使调参也改不过来。

因为用AI生成内容来训练AI的话,无可避免就会踩进“统计近似值偏差”的坑里。

正如AI泰斗“杨立昆”(Yann LeCun)成天讥嘲的那样,现在的AI大模型本质是“金刚鹦鹉”、“高端差分统计学程序”,所以天然过于偏重大概率的通常值,和过于忽视小概率的非常值,这叫“近似值拟合”。

这些模型生成的结果持续用来再训练新模型,数据的多样性会越来越小、符合丰富真实的正确度会越来越有限、“近似值拟合”会越来越严重。

就像人教鹦鹉复读,鹦鹉能学会模拟“恭喜发财”的音调。然而让学成的鹦鹉教另外的鹦鹉复读“恭喜发财”、再让鹦鹉徒弟教鹦鹉徒孙复读,最后只会收获鸟叫聒噪。

或者用论文作者之一罗斯·安德森(Ross Anderson)的话说,这就如同用莫扎特作品来训练AI,结果会得出一个风格类似莫扎特但缺乏灵气的“萨列里”模型(萨列里是意大利作曲家,非常嫉妒莫扎特)。再用“萨列里”模型的作品训练新的模型,如此反复五六次后,最终模型的音乐作品既不会有莫扎特的风格也不会有莫扎特的灵光。

在罗斯·安德森的个人博客中,有人评论这是热力学中的熵、生物学中的近亲繁殖退化,在AI界的复现。

版权律师首先闻到血腥味
真实人类生产的数据对AI模型是不可或缺的。就算是弱智吧的段子,做好了标记分类和去重,也有相当价值。

罗斯·安德森刻薄地说,在海洋布满不可降解塑料垃圾、空气里充满二氧化碳排放物后,互联网以后也会被AI大模型生成的低质量结果污染。反过来说,真实人类创造的数据如同洁净的空气与饮水,是日后生成式AI必须依赖的维生补给。

按照权威分析机构和咨询公司的说法,在2027年,全世界互联网数据量将达到291ZB(1ZB等于十万亿TB),2026年AI就将产出全世界互联网数据量的10%。而2023年这个大厂们纷纷推出大模型的生成式AI元年,AI产出互联网数据的比例是1%。

如果1%的AI生成数据混在训练数据集里,就能让谷歌的大模型说自己创始人是李彦宏。那比例涨到10%时将会出现什么,简直不敢想。围绕真实人类数据知识产权和可持续来源的斗争,在AI热潮中越发凸显。
在这场斗争中,最先出击的倒不是大厂们,是闻风而动的版权律师们。
2024年1月12日,美国加利福尼亚州法院驳回了包括喜剧演员莎拉·西尔弗曼在内的几位创作者对 OpenAI 提起的版权诉讼大部分指控,他们指控OpenAI的ChatGPT盗版了他们的视频作品。诉讼提出了六项侵权指控并索赔。而法院驳回了除直接侵犯版权之外的所有指控。

这个诉讼是2023年8月中旬提出的,代理这些创作者的是美国律师事务所Joseph Saveri 律师事务所。

同一个律所,在2022年11月代理了对OpenAI出品的GitHub Copilot的代码版权集体诉讼,2023年1月代理了美国艺术家对Stability AI、Midjourney和DeviantArt等图片生成AI企业领头羊的图像版权集体诉讼,这个诉讼在一年后附加了一份证据:1.6万名英国与美国艺术家联署的支持讼由名单。

当然,按这个律所2023年7月自己的媒体公关稿,是因为ChatGPT和LLaMA这些大模型是“工业级剽窃犯”、创作者和出版商们苦于大厂侵权而声索无门,律师们才仗义出手。

对OpenAI的训练数据集的书籍版权诉讼,大都基于OpenAI还开源GPT系列模型集合时的两篇论文。

2018年介绍GPT-1的论文称训练数据中有包含7千本图书的BookCorpus子集。2020年介绍GPT-3的论文称训练数据中15%是Books1和Books2两个“源于网络的书籍集合”,数据量分别是BookCorpus的9倍和42倍。

起诉方一般会基于这些论文,称BookCorpus的来源本身就是从自发行小说网站Smashwords上薅来的,且按体量推断,Books1应该包含6.3万本书籍、Books2应该包含29.4万本书籍,网上版权公开合法来源的书籍绝无此数,其中一定包含盗版电子书。GPT系列模型能生成出与原告们风格相仿的内容,定是抄袭。

然而OpenAI的律师可没这么好拿捏。Smashwords本是免费网文站,所以BookCorpus的侵权索偿很难走通。而Books1、Books2两个子训练集没有如BookCorpus提供给其他企业,ChatGPT之后的产品也没有开源,拿“应包含”、“一定有”这种难以坐实的揣测就想当证据,于法于理都容易驳回。

失业宅男给全世界埋下的雷
不过,大厂们还是有无可抵赖的使用盗版把柄能让集体诉讼者们拿捏的。

这些把柄里最出名的,莫过于业内著名的Books3数据集。

2020年,一群AI发烧友们读了OpenAI的GPT-3论文后,在线上聊天群里整天唠一个话题:咱们能否自己手动搞一个差不多的东西出来?

其中一个名为肖恩·普雷瑟的技术宅男表示,就算OpenAI钱多又领先,咱们自行做类似模型的阻碍也不见得就更多。当年夏天,他们着手开始操作项目,讨论如何从零开始攒出足够的训练数据来。

普雷瑟负责的是文本训练数据这块,他也认为OpenAI肯定使用了线上盗版电子书站的资源。大厂做得,我做不得?于是当时无业的他,把有限的生活热情全部投入了攒文本训练数据的无限事业中。

普雷瑟以典型的失业独居宅男生活方式来操作项目:起居无节、饮食无度,睡醒了穿上衣物就扒盗版电子书、做标记、做去重,做到天昏地暗时直接在电脑前、沙发上眯过去。

经过如此天昏地暗的一两个星期后,普雷瑟收获了完工的文本数据集和嗜睡症诊断书。此数据集体积37GB,内含196640本书籍内容,做好了标记、去重、全部转化成TXT文本格式。鉴于OpenAI把文本训练数据子集称为Books1和Books2,普雷瑟把自己的文本数据集命名为Books3。

包含了Books3数据集的AI训练数据集“大堆”(The Pile),于2020年秋上线。因为制作质量好、使用方便,此数据集在业界内迅速风靡。
然而Books3这个美国中西部无业宅男倾注心血的项目,不仅方便了全世界AI从业者,也为全世界版权律师们提供了利器:如果OpenAI的Books1、Books2坐不实用了盗版,全用网上“影子图书馆”攒成的Books3可是板上钉钉跑不掉的。

但凡看到起诉大模型训练数据集侵犯版权的新闻里出现“196640本书籍”这个字眼,就是某大厂又因为用Books3训练模型被人告了。

这个被起诉队列中最新一家是英伟达。3月10日,英伟达公司在美国旧金山被三名作家起诉,他们称该公司未经许可使用了他们的受版权保护的书籍来训练其AI模型 NeMo。原告们称他们的作品是“包含196640本书的数据集”的一部分,这些书籍帮助训练 NeMo 模拟普通书面语言,直到2023年10月份才被删除。

原告表示删除行为表明英伟达知道侵权的存在,所以要让英伟达为过去三年使用版权作品训练大模型支付赔偿金。

因为版权诉讼和维权组织的四处出击,2023年8月下旬,Books3的主要托管网站将其下线,其他网站的镜像版本每出现就会被维权组织狙击。

2023年9月,普雷瑟受访时表示自己当年的确欠考虑,但制作Books3数据集没做错。按他的看法,没有这种数据平等化行为,小公司、个体研究者、普通人永远无法自行参与大语言模型的热潮。版权方如果要全网删除Books3,那是他们的抉择。不过此举意料之中的附加效果是,生成式AI技术的版图完全只被有钱做爬虫兼付法务费的大公司主宰。

AI大厂:窃书能算偷?
持此观点的法律界和科技界人士其实不少,有专精数据扒取案件的律师称:“如果你是OpenAI或Meta,自然有资源把诉讼斗争纠缠到地老天荒世界末日,而规模稍小的组织就无法照此办理。所以法律在此的模糊处,现在只有益于大玩家们。”

时势的演变,部分佐证了这些看法。大厂们的举止,简直令人瞠目。

比如1月14日,Meta公开承认使用Books3数据集训练LLAM 1和LLAM 2模型,不过反指这不是故意侵权,使用Books3数据集属于版权法律中的“合理使用”(为研究、教学、讽刺、评论等用途使用版权内容不属于盗版)范畴,毋需获得版权持有方许可,甚至不用向书籍作者们支付任何补偿。

如果不认错不给钱的Meta显得蛮横,那OpenAI的举止就更厉害。

2023年的最后一周,《纽约时报》在美国起诉OpenAI和微软侵犯版权,称OpenAI的模型是通过使用《纽约时报》数百万篇受版权保护的新闻文章、深度调查、观点文章、评论、操作指南等建立起来。

OpenAI大语言模型因此可以生成逐字背诵内容、总结概括其内容并模仿其表达风格的输出。《纽约时报》称,这损害了“订阅、许可、广告和联盟收入”,要求赔偿。

而OpenAI的反击简直奇谲。在2月底向法院提出的驳回请求中,OpenAI表示GPT系列模型集合并非《纽约时报》订阅服务的替代品,普通人也不会以这种方式使用ChatGPT。

除此之外,OpenAI还称,为了从该公司AI产品中生成与过往报纸文章内容完全匹配的回复,《纽约时报》“进行了数万次提示词修改尝试,并不得不向ChatGPT提供部分文章内容”,这属于“花钱雇黑客入侵OpenAI的产品”。

把举世通行的“提示词工程”说成“黑客入侵”,被告变原告,OpenAI法务部门的这口反咬令人叹为观止。真是应了古代(美国)人一句名言:提公事包的强盗,可比提冲锋枪的强盗狠恶多了。

不过大厂们的霸道姿态是有缘故的。它们并非不愿出钱购买版权内容,在被《纽约时报》起诉前两周,OpenAI 宣布购买新闻出版集团斯普林格的新闻内容来训练大型模型。1月份,OpenAI 表示,正在与数十家出版商洽谈达成文章授权协议,以获取内容来训练其人工智能模型。不过有消息称OpenAI出价小气,向很多商洽对象的开价是每年给100-500万美元。

然而在法律诉讼中认错,是要纠正错误和违法行为的。落实到AI模型的训练数据版权诉讼上,相应的举措就是必须删除包含侵权内容的训练数据集、停止使用侵权内容训练的AI模型,甚至删除模型。

正如2023年11月美国国家版权办公室意图改变AI训练数据的版权规制时,一个投资银行家在征求意见网页上写下的,“现在这是逾千亿美元的大生意,改变关键法律要素,将会显著扰乱业界的既有预期,进而破坏国家的经济优势和安全。”

简而言之,现在AI经济这么火,用点盗版怎么了,不要挡着路,挡路会天崩地裂。
来源:蓝字计划
编辑:程正元

847#
 楼主| 发表于 2024-3-29 16:50:47 | 只看该作者
【案例】深圳报业集团AI采编办公系统正式启用
|来源:深圳特区报|原标题:全员拥抱AI,着力打造媒体新质生产力  深圳报业集团正式开启人工智能时代

3月28日,深圳报业集团读特客户端上线八周年。“八”代表着持续探索,更代表着拥抱无限。借此机会,客户端全面焕新,发布AI版本,并同步推出AI新闻顾问、AI魔方、AI工坊等全新功能,同时升级AI公共平台,发布AI共生计划。
同一天,深圳报业集团AI采编办公系统正式启用;旗下各媒体的AI产品、AI应用、AI实验室相继上线;第二天,深圳特区报、深圳商报、深圳晚报、晶报、Shenzhen Daily、南方教育时报等纸媒也推出AI共创版面……
这标志着,深圳报业集团正式开启人工智能时代。
读特焕新 更好用、更好看、更好玩
读特客户端此次发布的AI版本有何不同?一句话总结:更好用、更好看、更好玩!
2016年,读特客户端正式上线,此后相继推出“海底探粤”“深圳红”等现象级融媒产品,并在2021年首创“飞卡阅读”,以卡片呈现方式,集快速浏览、分享、全媒播报于一体。
此次八周年全面焕新,读特客户端将在“飞卡阅读”中引入AI新闻顾问,用户可直接对话机器人,由机器人帮忙筛选出想阅读的新闻,获得个性化推荐。
自去年起,读特客户端已将AI引入生产流程,在深圳媒体中率先推出AI共创海报、AI共创视频等,并围绕平面、视频两个方向组建“AI特战小分队”。上线8周年之际,读特客户端AI工坊正式成立,将打通内容创意策划、视频、设计等环节,助推全员、全程、全面的AI化转型。AI工坊和腾讯、深圳大学等建立紧密合作关系,拓展AI应用场景,推出一批AI原生内容IP。
此外,借助AI底座,读特强化公共平台功能,重点推出报料平台和民生平台,读特上线“AI共生计划”,打造AI+法务、AI+教育、AI+电竞等更多行业新业态。
值得一提的是,3月28日的八周年焕新仪式上,深圳报业教育传媒集团携手读特发布首个AI原创绘本动画《抱抱》。该动画依托文生视频技术,实现了有声绘本和智能动画结合。此后,双方将打造AI绘本空间,构建智能教育全新场景。
全员转型 AI与采编深度融合
全面开启人工智能时代,深圳报业集团已经过精心筹备和长期探索。
去年6月,深圳报业集团AIGC联合实验室成立。深圳报业集团与云从科技集团、国家超级计算深圳中心合作,在数字媒体、数字城市、数字商业、数字安全等领域,致力于提供多语言、跨模态的大数据与人工智能基础平台及解决方案。此外,集团正在建设粤港澳大湾区语料库,为组建大湾区语料联盟打下扎实基础。
2024年全国两会,集团推出集成式产品“深报AI跑两会”,由AI采写、AI主播、AI视觉、AI编辑等“新同事”,与前后方采编人员一起,带来全国两会的报道。
有了AI“新员工”入职,AI创新应用与生态系统打造,也在稳步推进中。
3月27日,集团与华为公司签署《深圳报业各客户端应用与华为鸿蒙生态合作备忘录》,推进与华为鸿蒙的深度合作。今年初,集团获得“华为鸿蒙原生应用生态优质合作伙伴”称号,并成为广东首家华为鸿蒙最新原生应用生态接入的新闻单位,参与鸿蒙生态应用开发。
3月28日,利用“深新智媒”平台建设的AI服务系统,基于华为云、腾讯云、中科闻歌等机构的底层AI能力,深圳报业集团正式推出AI应用开放平台,为旗下报纸、新媒体客户端的内容制作和发布,提供生成标题、文本润色、风格改写、配图生成等AI功能,并提供文字、图片、语音、视频的AI审核及识别功能。
在AI应用开放平台加持下,深圳报业集团的全员配备“AI助手”,从新闻选题、要点归纳、文本润色、会议纪要、工作汇报到会议通知,全面提升工作效率。此外,集团与华为云深度合作,建设统一数字人应用平台,推出深圳报业集团数字代言人,3D写实数字人的实施计划也在稳步推进中。
亮点满满 AI参与报纸版面创作
AI时代,传统报纸如何找寻全新可能?
3月29日当天,深圳报业集团旗下的各大报纸,包括深圳特区报、深圳商报、深圳晚报、晶报、Shenzhen Daily、南方教育时报等,分别推出了AI共创的报纸版面。
由AI参与打造的报纸版面有何不同?
在深圳特区报今日的“科创前沿”AI共创版面上,具有未来感和科技感的AI生成图片给予读者别样的视觉冲击力。“一杯咖啡,满电出发。”在深圳加快建设世界一流“超充之城”的目标下,深圳特区报记者、编辑携手媒体AI应用开放平台,为读者图文并茂地呈现深圳在“超充之城”建设中的探索与突破。手拿咖啡的女士、正在充电的新能源汽车、错落有致的深圳建筑……众多新闻元素汇聚在一张AI图片之中,为读者带来丰富有趣的阅读体验。
“深报妙笔” 拓展AI应用新场景
3月28日,由深圳报业集团深圳新闻网与国内大型AI技术公司共同推出的“深报妙笔——AI公文助手平台”正式上线公测,并向政府机关、事业单位、企业等用户提供开放试用申请通道。
据悉,“深报妙笔”是采用了LLM大模型技术、数据挖掘技术、知识图谱技术以及AI深度学习等技术的跨界融合,是一套“查、学、写、审”一体化的人工智能公文写作与知识赋能协作平台。通过模块化、标准化、智能化的方式,“深报妙笔”重构了公文办公流程,使公文处理更加高效、便捷。
二十余载耕耘路,风满扬帆正当时。此次携AI全新启航,深圳报业集团将全新启航,勇往直前。
来源:编前会
编辑:程正元

848#
 楼主| 发表于 2024-3-30 22:34:06 | 只看该作者
【案例】
深圳晚报首部全流程AI微短剧奇幻上线
深晚AI微短剧《夸父逐日》宣传海报。
3月28日21:28,一个刻意选择的时间节点,承载着深晚人AI探索抱负的首部创新微短剧《夸父逐日》全网公推。该剧将古老的神话故事与现代科技进行了结合,为观众带来一场视觉与情感的奇妙体验之旅。
《夸父逐日》是中国古代神话的经典之作,深圳晚报深入挖掘其精神内核,结合现代观众的审美需求,运用AI技术为其注入了新的生命力和表现形式。微短剧中,夸父坚韧不拔、追求光明的形象被赋予了更加丰富的情感和更加立体的形象特质,激励着人们勇往直前、追逐梦想。
《夸父逐日》的制作过程充满了挑战。从最初的创意构思到最终的呈现,每一个环节都涉及AI技术的应用。团队首先利用AI模型进行剧情的自动生成,但过程中遇到了剧情连贯性、角色设定合理性等问题。为了解决这些问题,团队对AI模型进行了多次调整和优化,结合人类编剧的创意与经验,最终成功结构出富有逻辑性和感染力的故事情节。
在角色塑造和场景渲染方面,AI技术也发挥了重要作用。然而,由于古代神话故事的特殊性,AI在理解和呈现传统文化元素上存在一定困难。为此,团队专门对AI模型进行了文化学习和训练,使其能够更好地理解和表达中国古代神话的精髓。同时,创新性使用了从图像到线稿的AI微调生成技术,把控了人物的主体细节,以及通过LLM多轮对话,让AI深度理解创作需求后再生成涉及复杂动作的精细画面。团队还结合传统手绘艺术和现代数字技术,打造出了既具古典韵味又富有现代感的视觉效果。
在后期制作阶段,团队同样面临着诸多挑战。剪辑、音效、配乐等环节都需要与AI生成的内容进行高度匹配。为了实现这一目标,团队利用先进的AI算法对后期素材进行了智能分析和处理,确保整个微短剧在视觉和听觉上都达到了应有品质。
值得一提的是,深圳晚报充分发挥了跨部门协作的优势。策划、编剧、制作等团队紧密配合,共同打造这部微短剧。技术人员与创意人员携手合作,确保微短剧在故事情节、角色塑造和场景渲染等方面都达到了最佳效果。
《夸父逐日》的成功推出,不仅为观众带来了一部视觉与情感全新体验的作品,更展示了深圳晚报在AI技术应用和跨部门协作方面的努力与进取作风。这部微短剧不仅是对传统故事的创新演绎,更是对现代科技与传统文化创新性结合的一次成功尝试。
未来,深圳晚报将继续探索更多传统故事与现代科技的结合方式,为观众带来更多高品质的文化产品。同时,团队也将继续优化深晚云模型矩阵在创作过程中的应用,以期在更多领域实现技术突破和创新,为观众带来更多精彩纷呈的数字娱乐产品。
来源:编前会
编辑:程正元


849#
 楼主| 发表于 2024-4-2 16:20:23 | 只看该作者
【案例】
OpenAI放开限制 用户无需注册即可使用ChatGPT



【OpenAI放开限制 用户无需注册即可使用ChatGPT】财联社4月2日电,当地时间周一,人工智能(AI)公司OpenAI宣布,将允许用户直接使用ChatGPT,而无需注册该项服务,这将让人们更加容易体验人工智能的潜力。OpenAI表示,它将从周一开始逐步推出这一功能,让185个国家和地区的超1亿用户使用ChatGPT来学习新事物、寻找创意灵感,并获得问题的答案。该公司还声称,它可能会使用用户提供的内容来帮助改进其大语言模型,但用户可以关闭此功能。


来源:财联社
链接:https://baijiahao.baidu.com/s?id=1795169154348899857
编辑:李梦瑶




850#
 楼主| 发表于 2024-4-6 20:11:00 | 只看该作者
【案例】
            拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了                   
                                                                                      [url=]机器之心[/url]                                                    2024-04-06 12:30              河南                                    
                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                  
AI 生成工具的偏见何时休?
在人工智能构筑的世界中,AI 有时会像人一样存在着某种偏见或倾向性。比如对于大语言模型而言,由于训练数据的影响会不可避免地存在性别偏见、种族刻板印象,等等。

当然,这种偏见或倾向性在图像生成工具中同样存在。今年 2 月,谷歌 Gemini 被曝出拒绝在图像中描绘白人,生成大量违背基本事实(性别、种族、宗教等)的图片。

马斯克也被系统过分矫正了。

近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 图像生成器无法准确生成「亚洲男性和白人妻子」或者「亚洲女性和白人丈夫」这类图像,让人大跌眼镜。我们来看看怎么回事。


The Verge 尝试使用了「Asian man and Caucasian friend」(亚洲男性和白人朋友)、「Asian man and white wife」(亚洲男性和白人妻子)和「Asian woman and Caucasian husband」(亚洲女性和白人丈夫)等 prompt,让 Meta 图像生成器生成对应的图像。

结果发现,Meta 图像生成器在多数情况下无法遵照 prompt 来生成图像,暴露出了它的某种偏见。

图源:Mia Sato/The Verge

不仅如此,调整文本 prompt 似乎也没有多大帮助。

当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像生成器给出的都是「两个亚洲人」的图像。即使将「white」改为「Caucasian」时,结果同样如此。

机器之心自测图像。

当输入「Asian man and Caucasian woman on wedding day」(婚礼上的亚洲男性和白人女性)时,生成的依然是两个亚洲人。

婚礼上的亚洲男人和白人女人。图源:Mia Sato/The Verge

当输入「Asian man with Caucasian friend」(亚洲男性和白人朋友)或「Asian woman and white friend」(亚洲女性和白人朋友)时, 生成的大多数图像仍是两个亚洲人形象。


自测图像。

当输入「Asian woman with Black friend」(亚洲女性和黑人朋友)时,Meta 图像生成器仍是两名亚洲女性。但当将 prompt 调整为「Asian woman with African American friend」(亚洲女性和非裔美国朋友),结果反而准确得多。



自测图像。

此外,当指定南亚人时,Meta 图像生成器的结果变化也不太大。当输入「South Asian man with Caucasian wife」(南亚男性和白人妻子)时,大多数时候是两个印度人形象。该工具还有刻板印象,在没有要求的情况下,生成的南亚女性往往会穿戴纱丽。


自测图像。

一番测试发现,Meta 图像生成器无法想象亚洲人与白人「同框」,这样的结果令人震惊。其中,该工具始终将亚洲女性或男性描绘为肤色浅的东亚人,尽管印度已经成为世界上人口最多的国家。在没有明确提示的情况下,该工具还会添加特定文化服饰。

最后,机器之心使用类似的 prompt 验证了 The Verge 的结果,对于 prompt「亚洲女性和白人丈夫」,生成的 10 张图像中,只有 3 张图像准确还原。



输入 prompt「asian man and caucasian wife」(亚洲男性和白人妻子),结果更离谱,生成的 8 张图像没有一张还原。


其实,这并不是 Meta 的图像生成工具第一次被曝出问题了。去年 10 月,Meta 的 AI 生成贴纸工具创建了大量不恰当的图片,比如童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。

图源:arstechnica and meta

此次,Meta 图像生成器再次让我们警醒 AI 系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象。

对于 The Verge 发现的这一现象,有网友分析称,这是 Meta 在训练的时候没有喂给模型关于这一场景足够的示例。


你觉得呢?
原文链接:https://www.theverge.com/2024/4/ ... asian-people-racism

来源:机器之心(公众号)
链接:https://mp.weixin.qq.com/s/eUhOxh5qlGQHOGqgPgFqPQ
编辑:李梦瑶


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表