传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
811#
 楼主| 发表于 2024-2-14 15:59:07 | 只看该作者
【案例】

AI识别2000年前烧焦卷轴,破译希腊哲学家对快乐的思考
澎湃新闻记者 张静


·赫库兰尼姆曾被公元79年的火山爆发所掩埋,18世纪出土的赫库兰尼姆卷轴已被烧焦,研究者通过AI技术识别出其中内容,包含了希腊哲学家对快乐的思考。
·这一成就点燃了通常进展缓慢的古代研究世界。除了数百份等待识别的赫库兰尼姆卷轴外,AI也可用于研究包裹木乃伊的材料上的信息,揭示普通古埃及人的生活。

(这十五列文本来自能够阅读的第一卷卷轴的末尾。该卷轴仍有大约95%待阅读。)


人工智能技术可能对我们理解古代世界产生革命性的影响。


大约2000年前,维苏威火山喷发掩埋了一部烧焦的莎草纸卷轴,一组学生研究人员最近利用AI破译了其中的希腊文字内容,发现一部此前不为人知、讨论快乐的哲学作品。


当地时间2月5日,“维苏威挑战赛”赛事官方宣布,破解莎草纸卷轴文本的3名学生来自埃及、瑞士和美国,分享了70万美元大奖。他们识别了卷轴上的2000多个希腊字母,相当于一份卷轴5%的内容。这一成就点燃了通常进展缓慢的古代研究世界,学者们认为,这将使古希腊和古罗马诗歌、戏剧和哲学作品的发现量成倍增加。


“其中一些文本可能会完全改写古代世界关键时期的历史。”古典学家、赫库兰尼姆协会主席罗伯特·福勒(Robert Fowler)对媒体表示, “这就是现代西方世界的起源社会。”


AI识别碳化的上古卷轴


赫库兰尼姆(Herculaneum)卷轴藏于意大利赫库兰尼姆一座豪华罗马别墅的图书馆中,于18世纪出土。赫库兰尼姆被称为“时光冻结之城”,与庞贝古城都被公元79年的维苏威火山爆发所掩埋。该别墅被认为属于凯撒的岳父、参议员卢修斯·卡尔普尔尼乌斯·皮索·卡索尼努斯(Lucius Calpurnius Piso Caesoninus)。这座图书馆是古罗马时代遗留下来的唯一一座图书馆,这些碳化的卷轴也是古罗马时代保存下来的珍贵藏书。


1752年在赫库兰尼姆考古发掘中首次发现了约1800份卷轴。在被发现后的几个世纪里,人们试图打开这些发黑的卷轴,结果一部分卷轴被毁,变成碎片。这些古老的卷轴大多保存在意大利那不勒斯国家图书馆,少部分保存在巴黎、伦敦和牛津。

(直接展开卷轴的后果就是卷轴变得稀碎。)


美国肯塔基大学计算机科学家、“维苏威挑战赛”联合创始人布伦特·西尔斯(Brent Seales)近20年来一直试图解读这些文本,希望打开这座“隐形图书馆”。他的团队开发了以数字方式打开卷轴的软件,用三维计算机断层扫描(CT)图像“虚拟地打开”卷起来的莎草纸。但绘制卷轴的表面图像耗时,而且在CT扫描中,用于书写卷轴的碳基墨水与莎草纸的密度相同,因此无法在成像中进行区分。


西尔斯团队想知道机器学习模型是否可以被训练来“打开”卷轴并区分出墨水,但这项工程对他的小团队来说是一个艰巨的任务。所幸,硅谷企业家纳特·弗里德曼(Nat Friedman)找到了西尔斯,建议开放挑战,还捐赠了一笔钱。


2023年3月,“维苏威挑战赛”正式发起。赛事设定了一个大奖,要求在2023年底前,在每段140个字符、总共4段文字中,破译85%以上的字符。实际上赛事提供了2000多个字符供识别。西尔斯团队则向公众发布了扫描结果和代码。

一项关键的创新出现在去年年中,当时美国企业家和前物理学家凯西·汉默(Casey Handmer)在扫描中注意到一种微弱的纹理,这种纹理形成了希腊字母的形状。


就读于美国内布拉斯加大学林肯分校的21岁本科生卢克·法里托(Luke Farritor)利用这些纹理训练机器学习算法,发现了古希腊语“porphyras”,意为“紫色”,获得了大奖。在柏林的埃及博士生优素福·纳德(Youssef Nader)以更清晰的图像紧随其后,获得第二名。与法里托、纳德同属一个团队的还有苏黎世联邦理工学院机器人专业的学生朱利安·席利格(Julian Schilliger)。这些图像被披露出来以后,莎草纸古文稿学者们开始争分夺秒地分析文本。


被识别文本探讨快乐来源


赫库兰尼姆别墅里奢华的图书馆藏书颇丰,此前一些已知的卷轴内容是伊壁鸠鲁学派的希腊哲学家菲洛德谟(Philodemus)的作品。


一份正面和背面都有希腊文的卷轴曾经被成像技术识别出隐藏的内容,研究成果2019年发表在《科学进展》杂志上。那份卷轴上的内容是《学院历史》的草稿,而这份草稿的作者正是菲洛德谟。


先前被打开的赫库兰尼姆卷轴的大部分内容都与伊壁鸠鲁哲学学派有关。尽管此次被识别的文本没有提到作者的名字,但福勒认为,作者仍是菲洛德谟,“风格非常粗糙,是他的典型特征,主题是他擅长的。”

(获奖者识别出的卷轴。)


识别出的几段文本揭示了哲学家对快乐的思考——食物和其他物品的稀缺或丰富如何影响它们带来的快乐。


文本讨论了快乐的来源,涉及音乐和食物,也讨论了从各种元素组合中体验到的快乐是归功于主要部分还是次要部分、是丰富还是稀缺。“就食物而言,我们不会马上相信稀缺的东西一定比丰富的东西更令人愉快。”作者写道。


“我认为他在问这样一个问题:在各种各样的事物中,快乐的来源是什么?是主导元素、稀缺元素,还是两者混合本身?”福勒解读称。


而其余卷轴中可能蕴藏更多的希腊哲学。据《自然》报道,一些已经被打开的拉丁文卷轴覆盖了更广泛的主题,很可能找到希腊诗人荷马和萨福遗失的诗歌和文学作品。


“这是赫库兰尼姆莎草纸学和希腊哲学革命的开始。” 那不勒斯费德里科二世大学莎草纸古文稿学者费代丽卡·尼古拉迪(Federica Nicolardi)表示。


挑战赛的下一步是破译整部作品。弗里德曼已经宣布了2024年的“维苏威挑战赛”,第一个能够识别已经扫描出的四个卷轴的至少90%的团队,将获得10万美元大奖。研究人员需要完全自动化追踪每卷莎草纸表面,并提高对受损最严重部分的墨水检测。


除了数百份等待识别的赫库兰尼姆卷轴外,此次研究成果也意味着,机器学习技术可用于研究其他类型的隐藏文本,如包裹在木乃伊上的莎草纸,上面的信息可能包括信件、房契、洗衣单和税收收据等内容,可揭示普通古埃及人的生活。


此次成果也可能引发是否应对赫库兰尼姆别墅进一步调查的争论。赫库兰尼姆别墅的整个楼层从未被挖掘过,福勒和美国密歇根大学安娜堡分校莎草纸古文稿学者理查德·扬科(Richard Janko)确信,别墅的主图书馆从未被发现,地下可能还有数千卷卷轴。



来源:澎湃新闻



编辑:徐思凡



812#
 楼主| 发表于 2024-2-17 14:51:54 | 只看该作者
【案例】

Sora 意味着AGI实现将从10年缩短到1年






编辑:徐思凡

813#
 楼主| 发表于 2024-2-18 16:36:19 | 只看该作者
【案例】

LeCun怒斥Sora不能理解物理世界!Meta首发AI视频「世界模型」V-JEPA

Sora一经面世,瞬间成为顶流,话题热度只增不减。



强大的逼真视频生成能力,让许多人纷纷惊呼「现实不存在了」。
甚至,OpenAI技术报告中透露,Sora能够深刻地理解运动中的物理世界,堪称为真正的「世界模型」。



而一直将「世界模型」作为研究重心的图灵巨头LeCun,也卷入了这场论战。
起因是,网友挖出前几天LeCun参加WGS峰会上发表的观点:「在AI视频方面,我们不知道该怎么做」。
在他看来,「仅根据文字提示生成逼真的视频,并不代表模型理解了物理世界。生成视频的过程与基于世界模型的因果预测完全不同」。



接下来,LeCun更详细地解释道:虽然可以想象出的视频种类繁多,但视频生成系统只需创造出「一个」合理的样本就算成功。而对于一个真实视频,其合理的后续发展路径就相对较少,生成这些可能性中的具代表性部分,尤其是在特定动作条件下,难度大得多。此外,生成这些视频后续内容不仅成本高昂,实际上也毫无意义。更理想的做法是生成那些后续内容的「抽象表示」,去除与我们可能采取的行动无关的场景细节。这正是JEPA(联合嵌入预测架构)的核心思想,它并非生成式的,而是在表示空间中进行预测。

然后,他用自家的研究VICReg、I-JEPA、V-JEPA以及他人的工作证明:与重建像素的生成型架构,如变分自编码器(Variational AE)、掩码自编码器(Masked AE)、去噪自编码器(Denoising AE)等相比,「联合嵌入架构」能够产生更优秀的视觉输入表达。当使用学习到的表示作为下游任务中受监督头部的输入(无需对主干进行微调),联合嵌入架构在效果上超过了生成式架构。

也就是在Sora模型发布的当天,Meta重磅推出一个全新的无监督「视频预测模型」——V-JEPA。

2022年LeCun首提JEPA之后,I-JEPA和V-JEPA分别基于图像、视频拥有强大的预测能力。

号称能够以「人类的理解方式」看世界,通过抽象性的高效预测,生成被遮挡的部分。


论文地址:https://ai.meta.com/research/publications/revisiting-feature-prediction-for-learning-visual-representations-from-video/

V-JEPA看到下面视频中的动作时,会说「将纸撕成两半」。



再比如,翻看笔记本的视频被遮挡了一部分,V-JEPA便能够对笔记本上的内容做出不同的预测。



值得一提的是,这是V-JEPA在观看200万个视频后,才获取的超能力。

实验结果表明,仅通过视频特征预测学习,就能够得到广泛适用于各类基于动作和外观判断的任务的「高效视觉表示」,而且不需要对模型参数进行任何调整。

基于V-JEPA训练的ViT-H/16,在Kinetics-400、SSv2、ImageNet1K 基准上分别取得了81.9%、72.2%和77.9%的高分。



看完200万个视频后,V-JEPA理解世界了

人类对于周遭世界的认识,特别是在生命的早期,很大程度上是通过「观察」获得的。就拿牛顿的「运动第三定律」来说,即便是婴儿,或者猫,在多次把东西从桌上推下并观察结果,也能自然而然地领悟到:凡是在高处的任何物体,终将掉落。

这种认识,并不需要经过长时间的指导,或阅读海量的书籍就能得出。可以看出,你的内在世界模型——一种基于心智对世界的理解所建立的情景理解——能够预见这些结果,并且极其高效。Yann LeCun表示,V-JEPA正是我们向着对世界有更深刻理解迈出的关键一步,目的是让机器能够更为广泛的推理和规划。



2022年,他曾首次提出联合嵌入预测架构(JEPA)。我们的目标是打造出能够像人类那样学习的先进机器智能(AMI),通过构建对周遭世界的内在模型来学习、适应和高效规划,以解决复杂的任务。


V-JEPA:非生成式模型
与生成式AI模型Sora完全不同,V-JEPA是一种「非生成式模型」。

它通过预测视频中被隐藏或缺失部分,在一种抽象空间的表示来进行学习。

这与图像联合嵌入预测架构(I-JEPA)类似,后者通过比较图像的抽象表示进行学习,而不是直接比较「像素」。

不同于那些尝试重建每一个缺失像素的生成式方法,V-JEPA能够舍弃那些难以预测的信息,这种做法使得在训练和样本效率上实现了1.5-6倍的提升。



V-JEPA采用了自监督的学习方式,完全依靠未标记的数据进行预训练。

仅在预训练之后,它便可以通过标记数据微调模型,以适应特定的任务。

因此,这种架构比以往的模型更为高效,无论是在需要的标记样本数量上,还是在对未标记数据的学习投入上。在使用V-JEPA时,研究人员将视频的大部分内容遮挡,仅展示极小部分的「上下文」。然后请求预测器补全所缺失的内容——不是通过具体的像素,而是以一种更为抽象的描述形式在这个表示空间中填充内容。



V-JEPA通过预测学习潜空间中被隐藏的时空区域来训练视觉编码器

掩码方法
V-JEPA并不是为了理解特定类型的动作而设计的。相反,它通过在各种视频上应用自监督学习,掌握了许多关于世界运作方式的知识。Meta研究人员还精心设计了掩码(masking)策略:如果不遮挡视频的大部分区域,而只是随机选取一些小片段,这会让学习任务变得过于简单,导致模型无法学习到关于世界的复杂信息。同样,需要注意的是,大多数视频中,事物随着时间的推移而逐渐演变。如果只在短时间内掩码视频的一小部分,让模型能看到前后发生的事,同样会降低学习难度,让模型难以学到有趣的内容。因此,研究人员采取了同时在空间和时间上掩码视频部分区域的方法,迫使模型学习并理解场景。


高效预测,无需微调
在抽象的表示空间中进行预测非常关键,因为它让模型专注于视频内容的高层概念,而不必担心通常对完成任务无关紧要的细节。毕竟,如果一段视频展示了一棵树,你可能不会关心每一片树叶的微小运动。而真正让Meta研究人员兴奋的是,V-JEPA是首个在「冻结评估」上表现出色的视频模型。冻结,是指在编码器和预测器上完成所有自监督预训练后,就不再对其进行修改。当我们需要模型学习新技能时,只需在其上添加一个小型的、专门的层或网络,这种方式既高效又快速。



以往的研究还需要进行全面的微调,即在预训练模型后,为了让模型在细粒度动作识别等任务上表现出色,需要微调模型的所有参数或权重。直白讲,微调后的模型只能专注于某个任务,而无法适应其他任务。如果想让模型学习不同的任务,就必须更换数据,并对整个模型进行专门化调整。

V-JEPA的研究表明,就可以一次性预训练模型,不依赖任何标记数据,然后将模型用于多个不同的任务,如动作分类、细粒度物体交互识别和活动定位,开辟了全新的可能。



少样本冻结评估
研究人员将V-JEPA与其他视频处理模型进行了对比,特别关注在数据标注较少的情况下的表现。它们选取了Kinetics-400和Something-Something-v2两个数据集,通过调整用于训练的标注样本比例(分别为5%,10%和50%),观察模型在处理视频时的效能。为了确保结果的可靠性,在每种比例下进行了3次独立的测试,并计算出了平均值和标准偏差。结果显示,V-JEPA在标注使用效率上优于其他模型,尤其是当每个类别可用的标注样本减少时,V-JEPA与其他模型之间的性能差距更加明显。




未来研究新方向:视觉+音频同预测


虽然V-JEPA的「V」代表视频,但迄今为止,它主要集中于分析视频的「视觉元素」。显然,Meta下一步是研究方向是,推出一种能同时处理视频中的「视觉和音频信息」的多模态方法。作为一个验证概念的模型,V-JEPA在识别视频中细微的物体互动方面表现出色。比如,能够区分出某人是在放下笔、拿起笔,还是假装放下笔但实际上没有放下。不过,这种高级别的动作识别对于短视频片段(几秒到10秒钟)效果很好。因此,下一步研究另一个重点是,如何让模型在更长的时间跨度上进行规划和预测。


「世界模型」又进一步



到目前为止,Meta研究人员使用V-JEPA主要关注于的是「感知」——通过分析视频流来理解周围世界的即时情况。在这个联合嵌入预测架构中,预测器充当了一个初步的「物理世界模型」,能够概括性地告诉我们视频中正在发生的事情。


Meta的下一步目标是展示,如何利用这种预测器或世界模型来进行规划和连续决策。我们已经知道,JEPA模型可以通过观察视频来进行训练,就像婴儿观察世界一样,无需强有力的监督就能学习很多。通过这种方式,仅用少量标注数据,模型就能快速学习新任务和识别不同的动作。从长远来看,在未来应用中,V-JEPA强大情境理解力,对开发具身AI技术以及未来增强现实(AR)眼镜有着重大意义。现在想想,如果苹果Vision Pro能够得到「世界模型」的加持,更加无敌了。


网友讨论


显然,LeCun对生成式AI并不看好。




「听听一个一直在试图训练用于演示和规划的「世界模型」过来人的建议」。



Perplexity AI的首席执行官表示:Sora虽然令人惊叹,但还没有准备好对物理进行准确的建模。并且Sora的作者非常机智,在博客的技术报告部分提到了这一点,比如打碎的玻璃无法很好地建模。很明显短期内,基于这样复杂的世界仿真的推理,是无法在家用机器人上立即运行的。


事实上,许多人未能理解的一个非常重要的细微差别是:在文本或视频中生成看似有趣的内容并不意味着(也不需要)它「理解」自己生成的内容。一个能够基于理解进行推理的智能体模型必须,绝对是在大模型或扩散模型之外。


但也有网友表示,「这并不是人类学习的方式」。「我们对以往经历的只记得一些独特的,丢掉了所有的细节。我们还可以随时随地为环境建模(创建表示法),因为我们感知到了它。智能最重要的部分是泛化」。


还有人称,它仍然是插值潜在空间的嵌入,到目前为止你还不能以这种方式构建「世界模型」。


Sora,以及V-JEPA真的能够理解世界吗?你怎么看?


来源:新智元(公众号)
编辑:徐思凡



814#
 楼主| 发表于 2024-2-18 17:03:19 | 只看该作者
【案例】


中国首部《脑机接口研究伦理指引》公布


日前,中国科学技术部在官方网站发布《脑机接口研究伦理指引》(以下简称“《指引》”),以供相关科研机构和人员参考。这是中国首次专门编制关于脑机接口研究的伦理指引文件。

脑机接口(Brain-computer interfaces,BCIs)是各国重点布局的前沿技术之一。随着相关研究的逐渐增多和产品的日趋成熟,脑机接口研究的伦理问题开始受到关注。

《指引》对脑机接口技术中的术语和技术分类做了明确的界定与划分,澄清了伦理审查工作中可能遇到的概念模糊。《指引》还提出脑机接口研究的六项基本原则,分别是保障健康、提升福祉;尊重被试、适度应用;坚持公正、保障公平;风险管控、保障安全;信息公开、知情保障;支持创新、严格规范。















来源:数据观(公众号)

链接:https://mp.weixin.qq.com/s/BDlC5Itnk2tBGzZg9qmQdg


编辑:徐思凡


815#
 楼主| 发表于 2024-2-19 20:19:52 | 只看该作者
【案例】
Sora一夜刷屏,哪些人会失业?
来源丨新京报传媒研究院(ID:xjbcmyj),文:胡炜  原标题丨Sora一夜刷屏,这只是开始!

Sora一夜之间刷屏。
作为OpenAI发布的首个AI文(图)生视频模型,Sora带给人们的感受是炸裂级的:根据输入的文字提示,能生成效果逼真的60秒视频,而且是可以一镜到底那种。
这意味着,继文本、图像之后,OpenAI将其先进的AI技术拓展到了视频领域。
虽然Sora模型尚未面向公众开放,但是已经有人感叹:视频生产颠覆性革命来了……
也有人预测:一大批视频从业人员要失业了……
然而,事情就这么简单吗?
01Sora能做什么?
OpenAI在官网陆续公布了几十段长短不一的视频,均根据文字提示生成。其中第一段视频的文字提示为:
一位时尚女性走在充满温暖霓虹灯和动画城市标牌的东京街道上。她穿着黑色皮夹克、红色长裙和黑色靴子,拎着黑色钱包。她戴着太阳镜,涂着红色口红。她走路自信又随意。街道潮湿且反光,在彩色灯光的照射下形成镜面效果。许多行人走来走去。
Sora根据提示生成的一分钟视频如下:

这一分钟视频在网上广为流传,可以视为Sora的代表作,其展示的信息量极大,从主要人物到背景人物,从远处的街景以及地面,看起来十分逼真,镜头切换也非常流畅自然。
从这张全景画面截图,可以看到和主人公同时走动的路人,湿漉漉的地面,眼花缭乱的霓虹灯和招牌。
再看后面几个特写镜头:女主脸上斑点、脖纹清晰可见,显得非常真实,还有墨镜里的反射的街景,这些细节都没放过。

官网还展示了一条电影预告片,文字提示为:
电影预告片,讲述了 30 岁的太空人戴着红色羊毛针织摩托车头盔的冒险经历,蓝天,盐沙漠,电影风格,用 35 毫米胶片拍摄,色彩鲜艳。
Sora根据提示生成的视频如下:file:///C:/Users/Dell/AppData/Local/Temp/ksohtml23428/wps34.png

我们再来看看Sora生成的其他作品:
中国龙年舞龙的视频:

穿过东京郊区的火车窗外的倒影:

赛博朋克背景下机器人的生活故事:


几只巨大的毛茸茸的猛犸象正踏着白雪皑皑的草地走来:

随着Sora发布更多的制作精美的作品,不少人感叹:人类都未必拍得出来!
马斯克在X上两次转发网友评论时写道:“AI增强的人类将创造出最好的作品”、“人类认赌服输”。
02Sora牛在什么地方?
这些看上去足可以假乱真的视频,Sora是怎么做到的?
根据OpenAI官方介绍,用户可以通过使用自然语言提示词(Prompt),生成长达1分钟的视频。Sora模型对语言有深刻的理解,因而能够准确地理解提示词,并生成令人信服的人物,而且可以在一个生成的视频中创建多个镜头,在这些镜头中准确地保持角色和视觉风格的一致性。
360创始人周鸿祎Sora给予了极高的评价,他在社交平台发文:Sora的诞生意味着AGI(通用人工智能)实现可能从10年缩短至一两年。
在他看来,Sora只是小试牛刀,它展现的不仅仅是一个视频制作能力,而是大模型对真实世界有了理解和模拟之后,会带来新的成果和突破。他认为,AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。
中央民族大学新闻与传播学院教授郭全中在接受新京报传媒研究采访时说,相比Chatgpt,Sora有了质的飞跃:
一是Sora具备推理能力,人类长期以来孜孜以求的AGI(通用人工智能)成为可能,估计不久之后就会到来,而ChatGPT只是让我们看到了曙光。
二是在当今视频时代,Sora作为图生视频的利器将助力传媒业降本增效,极大地扩大能力范围和能力边界,给传媒业带来的影响远远超过ChatGPT。   
DCCI互联网研究院院长刘兴亮在接受新京报贝壳财经记者采访时表示,Sora模型的发布标志着AI技术在内容创作领域的一个新纪元,“通过简短的文本提示或一张静态图片,Sora能够生成持续一分钟左右的1080P高清视频,涵盖多个角色、不同类型的动作和背景细节等,几乎达到了电影级别的逼真场景。”
他认为,这种能力不仅为内容创作者提供了前所未有的工具,使他们能够以更低的成本和更快的速度将创意变为现实,而且为观众带来了更丰富和多样化的视觉体验。技术创新的这一巨大飞跃,预示着AI在未来人类生活的各个方面都将发挥更加重要的作用。
中国人民大学吴玉章讲席教授、国家发展与战略研究院研究员刘永谋在新京报评论撰文认为,Sora的AI视频效果,几乎和人工拍摄不相上下。也因此,虽不是从0到1的原始创新,却已足够令人震惊。
他预测,未来,各种不同用途的Sora短视频,或许会很快充斥各种视频社交平台,其对现实的影响与改变,不可不谓之巨大。
从业界到学界,几乎是异口同声认为,Sora将会深度改变视频相关领域,从影视、传媒到社交平台,内容生产将会发生巨变。
03Sora带来的两大挑战
当然,Sora并非完美,毕竟才刚刚诞生。
OpenAI在官网表示,目前Sora模型也有弱点:
它可能难以准确模拟复杂场景的物理特性,并且可能无法理解因果关系的具体实例。例如,一个人可能会咬一口饼干,但之后,饼干可能没有咬痕。
同时,该模型还可能混淆提示的空间细节,例如,左右混淆,并且可能难以精确描述随时间推移发生的事件,例如遵循特定的相机轨迹。
比如在一个样片中,提示词为“考古学家在沙漠中发现了一把普通的塑料椅子,正小心翼翼地挖掘和除尘”,Sora生成的视频出现了椅子变形、自动行走等诡异的场景。

另外,OpenAI还需要花更多精力检查、拦截违反使用政策的文本输入提示,例如极端暴力、色情内容、名人肖像等。
对于传媒从业者来说,则有两大挑战值得思考:一就是对视频内容生产的颠覆,或导致大量人员失业;二就是对新闻传播伦理的挑战,模糊了真实与虚拟的边界。
1. 又有一批人要失业?
刘永谋认为,当前的短视频时代,Sora既然可与人工媲美,制造短视频的专门团队可能就面临下岗危险。要知道,短视频的摄影、导演、剪辑等任务,Sora“一个人”费点电就全包了。
“这可能导致大量的影视等相关行业从业者失业,更是不可忽视的重大社会风险。”
刘永谋在文中提醒,关于AI大规模应用可能引发的失业问题,已经有汗牛充栋的深入研究,也提出了很多应对方案,包括延缓AI技术的应用速度,帮助再就业,征收AI税等。
“现在,Sora一夜刷屏提醒我们,要将这些措施稳步细化实施,而不能再仅仅停留在刷屏上了。”
对于可能导致的部分人员失业,中央民族大学新闻与传播学院教授郭全中在接受新京报传媒研究采访时说:任何创新事物出现,肯定会带来结构性失业,即不能适应创新的人要失业。但是,创新事物也会带来大量新就业机会,关键是看自己能否通过自我提升,与新事物共生共成长。
2. 新闻传播伦理再面临挑战
真实是新闻的生命,但是更多高科技的出现,很多人模糊了真实与虚假的界限。
刘永谋认为,在AI短视频建构的世界中,显然不能将眼睛看到的东西作为判断依据了。Sora的应用,无疑将进一步加剧当代社会的后真相状况,真实与虚拟的边界进一步模糊,甚至完全被消解。“这需要我们高度警惕”。
“不管Sora是否'理解'世界,也不管Sora视频多么逼真,始终仍是数字模拟,而不是真实拍摄的现实。”
郭全中也认为,Sora的出现,会导致视频生产门槛大大降底,新闻伦理肯定会受到很大冲击。
他说,Sora不但会大规模应用于娱乐内容的生产和传播,同样也必然会给新闻生产带来巨大挑战,我们之前的新闻生产方式和流程会被颠覆,新闻的定义也会发生变化,如大量的技术手段应用等。
从新闻传播发展来看,图文时代,都说“有图有真相”,结果发现图可以P;再到视频时代,又有人说“有视频有真相”,结果现在视频也可以AI生成。
郭全中预计,Sora未来更重大的挑战在于会导致假新闻的泛滥,给新闻伦理和新闻治理带来巨大挑战。
此外,刘兴亮还认为,“随着AI生成内容与现实之间的界限变得越来越模糊,如何确保内容的真实性和透明性成为了一个重要问题。此外,版权、隐私和数据安全等问题也需要得到妥善解决。社会必须面对这些挑战,通过制定相关政策、法律和伦理准则来确保技术的健康发展,同时保护个人和社会的利益不受侵害”。
结语:科技尤其是人工智能,还会以什么样的速度改变传媒行业和人类,身处其中,我们既有期待,也有些许忐忑。
来源:传媒头条
编辑:程正元

816#
 楼主| 发表于 2024-2-19 20:54:05 | 只看该作者
【案例】:
特约文章丨大语言模型价值观对齐研究与展望
/ 秦兵,吴迪,赵妍妍
要:
本文以大语言模型价值观对齐研究为主题,介绍大语言模型价值观相关概念、价值观对齐研究发展历程和价值观体系,旨在探索如何使大语言模型的价值观与人类社会价值观保持一致。从共同价值观、群体价值观和个体价值观三种层次,讨论了实现价值观对齐的多种方法和所面临的挑战。文中强调了大语言模型发展中价值观对齐的重要性,并展望了大语言模型价值观对齐研究的发展方向。
关键词:
大语言模型;价值观对齐;共同价值观;群体价值观;个体价值观
0 引言
2022年11月30日OpenAI发布ChatGPT这一生成式大语言模型以来,人工智能领域迎来新的浪潮。大语言模型将各种自然语言处理任务整合成文本生成任务模式,使用户与模型的互动变得更加便捷。用户通过输入文本指令,在生成文本、回答问题、情感分析、翻译语言、摘要文章等任务上,均可以用统一的模型来获取自然、高效的响应。这种整合为用户提供了一个多功能、高度可定制的工具,有望推动自然语言处理技术在多个领域的应用迈上新台阶。凭借其强大的迁移能力,大语言模型在多领域展现出广泛适应性,甚至在某些任务上具备超越人类专家的潜力。
大语言模型的性能受其不同来源预训练语料库影响,在学习知识的过程中不可避免地也会学习到包含各种人类观念的内容,其中不乏与社会价值观相悖的信息,从而在与用户互动时存在激活这些不良内容的风险。因此,防止大语言模型在与用户互动中产生违反人类价值观的信息,从而更紧密遵循人类价值观,已成为一个亟需研究的问题。
本文的目的是介绍大语言模型的价值观相关概念、价值观对齐研究发展历程和价值观体系;具体而言,将探讨目前的价值观分类方法和现有的价值观对齐技术,以及这些技术未来的发展趋势和在实际应用过程中可能面临的挑战。本文旨在通过对上述内容的介绍与讨论,推动大语言模型的安全发展,确保其与人类价值观有效的对齐;同时也将进一步探讨与大语言模型价值观对齐相关的新方法和新策略,以进一步应对大语言模型应用过程中在伦理和社会相关层面上可能遇到的挑战。
1 价值观相关概念
价值观是对事物的价值或行为的重要性的衡量,它可以帮助确定最合适的行为、最恰当的生活方式,或者判断不同行为的意义。在群体层面,共享的价值观构成了文化和道德的基础。在此基础上,适用于全人类的价值观一般称为共同价值观。而由某个群体形成的一系列规范,由这个群体共同遵守、为集体行为提供指导的价值观,可视为群体价值观。在个人层面,个人价值观则体现了个人的偏好,因背景、经历和信仰而异。
在人工智能领域,对齐技术旨在引导人工智能系统的行为符合设计者的利益和预期目标。对大语言模型而言,价值观对齐是将人类的价值观理念嵌入到语言模型中,使其生成内容能符合人类价值观。
2 大语言模型价值观对齐研究现状
人工智能与人类价值观对齐的概念最早由诺伯特 • 维纳在 1960 年提出。早期的相关研究主要侧重于探索模型的输出是否在特定情境下与人类价值观保持一致,尤其是关于机器学习领域中的种族、性别、文化偏见和公平性问题的研究。例如,研究人员发现预训练模型BERT等在类别预测时表现出性别和种族的刻板印象,于是提出了像StereoSet这样的检测数据集或设计了减少偏见的策略。然而,这些研究多集中于特定场景的自然语言理解任务,随着大语言模型如ChatGPT在更开放和多样的场景中得到了广泛应用,亟需更深入的研究和细化的方法,以应对模型在不同场景中可能出现的伦理、社会和文化等挑战,确保模型在各种不确定和不断变化的情境中尽可能与人类价值观保持一致。
在大语言模型价值观对齐研究中,关键问题是如何进行价值观的分类和对齐。价值观分类主要用于识别语言表达背后的价值观属性,从而判断模型是否与特定价值观及其类型相符。这种分类不仅适用于用户语言的检测,而且对于评估大模型生成的语言也至关重要,以确保用户及模型的行为符合社交媒体、新闻媒体和其他环境的道德和法律规范。价值观对齐则侧重于保证大语言模型的输出内容与人类价值观保持一致,通过预训练、指令微调、人类反馈及后处理等手段实现。此外,还需要在共同价值观基础上,调整模型以反映不同群体的多元价值观,从而适应多样化的应用场景。这种方法不仅增强了模型的普适性也有助于更全面地满足各类用户的需求。
大语言模型的价值观研究仍处于起步阶段,但已经吸引了社会广泛的关注。《时代》杂志评选2023年三大人工智能创新,其中之一便是大语言模型对齐技术。同时多家企业和研究机构已开始对这一领域进行重点布局,例如,OpenAI成立了SuperAlignment团队,目标是在未来五年内解决大语言模型价值观安全问题;加州大学伯克利分校等高等教育机构也已创建了Center for AI Safety组织,专注于AI安全研究,同时为研究者提供培训和计算资源。在国内,诸如哈尔滨工业大学、清华大学、中国科学技术大学和天津大学等学术机构,以及微软、腾讯等公司也在积极开展相关研究。大语言模型价值观对齐的研究将成为未来工业界和学术界的重要研究领域。我们坚信,通过这些努力,大语言模型将更好地与人类价值观保持一致,推动科技向善,为人工智能技术的安全发展打下坚实基础。
3 大语言模型价值观体系
本文将价值观体系分为共同价值观、群体价值观和个体价值观三个层次,如图 1 所示。共同价值观构成价值观体系的基础,代表着那些人类普遍认同的价值观。这些价值观为模型行为提供基本准则,其应用不受特定场景或人群差异的影响。群体价值观考虑到大模型服务于不同的群体,大模型应当融入各个群体的价值观,确保其能够遵循各个群体的道德规范。随着模型越来越多地融入个人日常生活,大模型的应用场景更加灵活,与个体价值观的对齐也变得至关重要。为了使模型能够提供个性化的服务,模型不仅需要遵循共同价值观和群体价值观,还需要根据个人的需求、性格和价值观进行定制化调整。
3.1 大语言模型的共同价值观
在哲学意义上,共同价值观是超越民族、种族、国界和信仰,是全人类共同拥有的价值观。对于多样化应用的大语言模型而言,同样存在所有应用领域通用的价值观。因此,研究人员需要为大语言模型制定一套共同的价值观体系,将其作为模型行为的基本规范。例如,Anthropic团队提出的由有益性、诚实性和无害性规范组成的体系,体现了这一理念。
目前为止,广泛认可的大语言模型共同价值观标准尚未形成,研究人员正在积极探索各种价值观体系的设计,以构建一个既能反映人类共同价值观,又能确保各价值观间和谐相容的体系。在此探索过程中,计算反思均衡(computational reflective equilibrium)的方法可以用于优化共同价值观的设计,该方法提倡让模型在具体实例或案例中应用共同价值观并进行测试,如果在特定情境下发现模型的共同价值观存在冲突,可能需要修改或调整模型的价值观以解决冲突,从而逐渐找到更合适的共同价值观设计。这一过程可以不断完善和优化模型的共同价值观,确保其适用性和有效性。在这个框架下,哈尔滨工业大学以社会主义核心价值观为基础,构建了模型价值观的指导原则。这些原则涵盖“言语侵犯”“暴力恐怖”“反动言论”等10个关键方面,以确保模型在处理文本内容时能够避免产生令人不悦或危险的内容,更好地满足广泛的社会期望和要求,从而提高模型的社会适应性和伦理性。
3.2 大语言模型的群体价值观
群体价值观多体现为道德规范。在社会活动中,有许多依据群体价值观制定的规范逐渐被社会所接受成为道德规范,所有社会参与者的行为受这些规范约束。为了语言模型的生成内容能够符合道德规范,研究人员建立了如SOCAIL-CHEM101和Moral Integrity Corpus等语料库,这些语料包含了大量的道德场景和简化的道德规范。除了直接从具体场景和规范进行学习外,还有研究者采用规范伦理学的理论,如正义和美德来引导模型的道德学习。这些理论用于分析收集到的场景,进而训练语言模型在特定情境中进行基于这些理论的道德判断。有研究者也探讨了利用故事人物作为学习先验的方法。以“Goofus & Gallant”为例,该故事中的角色行为被用作模型的先验学习对象,其中正面角色的行为是模型学习的依据。这种方法旨在指导模型学习并吸收相应的道德规范。通过详细的故事情境展现和角色行为示范,模型能够在具体的故事背景下,理解并模仿正面角色的行为。
目前大多数为语言模型构建的语料库主要基于英文文本,这一偏向很可能导致大语言模型的输出更倾向于体现西方的道德规范。然而,世界各地的道德规范因国家、地区和文化而异,遵循特定道德规范的语言模型可能无法有效服务于遵循不同道德规范的人群。因此,大语言模型价值观研究不仅应关注模型如何遵循道德规范,而且需考虑模型对多元道德规范的适应性。研究工作应从将普遍认可的共同价值观整合入模型开始,通过外部机制为模型引入多元价值观,使之能够依据具体情境做出适当调整。这将引导我们朝着开发能够适应多元价值观的大语言模型这一长期目标迈进,为更广泛的社会群体提供普惠且包容的人工智能服务。
此外,针对特定领域,如司法和医疗,也存在普遍认可的专业道德规范。开发针对这些垂直领域的模型时,需要从该领域的基本道德规范出发进行对齐。基于此,大模型不仅遵循共同价值观,还能在特定应用领域中展现出更加专业的伦理判断。
3.3 大语言模型的个体价值观
随着语言模型应用变得更加深入和广泛,它们将服务于更多样化的用户群体,并在日常生活中扮演重要角色,如私人助手等。因此,从个人层面来看,研究者需要让语言模型的价值观能够根据服务对象进行灵活调整,以便提供不同的个性化服务。举例来说,在教育领域,可以根据学生的不同偏好和不同性格进行个性化教学;在心理健康领域,可以针对患者价值观设计治疗方案,取得更好的治疗效果;在论辩任务上,模型能够根据受众的价值观偏好进行有针对性的论辩,取得更好的说服效果。
心理学领域对人类内在价值观、性格及其相关心理活动的研究提供了重要的洞见,也为支持大语言模型的个性化服务打下了基础。其中施瓦茨的人类基本价值观理论是一个广泛认可的框架。该理论认为,人类的价值观是驱动行为和评判善恶的根本。基于此,施瓦茨定义了10种核心的价值观动机。借鉴心理学中的理论,有学者们开发了ValueNet价值观驱动型对话语言模型,以及能够识别目标群体的道德价值观的Moral Debater模型。这些模型的开发是心理学理论应用于人工智能的创新尝试,旨在使语言模型能更准确地反映和适应目标人群的价值观。
3.4 社会科学中的价值观研究
为了深入理解和设计不同层次、适合不同群体的目标价值观,并确保大语言模型与这些目标价值观的有效对齐,研究者需要综合伦理学、心理学、社会科学等多个学科领域的研究成果。这些领域在过去数十年中对人类价值观进行了广泛探索,为大语言模型价值观的体系构建和对齐提供了坚实的理论基础。跨学科的合作和综合研究有助于更全面地理解价值观的复杂性,从而可以为大语言模型的价值观对齐提供更加科学和精准的指导。
在心理学领域,对人类内在价值观及其心理活动的深入研究构成了丰富的理论基础。特别是施瓦茨提出的人类基本价值观理论,以及乔纳森 • 海特的道德基础理论,均为探讨群体道德价值观提供了重要视角,其中海特强调了情感直觉在道德形成中的重要性,并将道德分为五个基本维度,涵盖了关爱、公平、忠诚、权威和纯洁等方面。借助这些理论框架,研究者能够根据特定场景设计有针对性的价值观和对齐策略。这些理论不仅指导了大语言模型价值观对齐的研究方向,也为模型的进一步安全发展提供了理论基础。例如,应用海特理论促进了道德场景数据集和社交媒体言论数据集的发展,为构建、理解和对齐目标价值观体系提供了关键支持。
4 大语言模型的价值观分类
价值观分类的目标是辨识文本背后的价值观属性,并判断其与既定目标价值观的一致性。这个过程不仅适用于分析用户语言,也关键于确保大型语言模型生成的内容符合目标价值观标准。
4.1 大语言模型生成内容的价值观分类
早期的文本价值观分类研究主要集中在识别特定内容,例如文本中的暴力或偏见表达。随着研究的进展,关注点逐渐转向更广泛的领域,不限于识别偏见或不当内容,而是探究语言模型在多元场景中的道德判断与人类的一致性,以及其对恶意攻击等情境的响应是否符合社会规范,或者借鉴心理学的方法来评估模型的价值观特性。
在我们的日常生活中,经常会面临需要在多种道德规范之间做出选择的情况,即所谓的道德决策。探索大语言模型如何在这些复杂情境下评估和确定不同道德规范的相对优先级变得至关重要。这些道德决策反映了决策者内在价值观的强度,以及不同价值观之间的相对重要性。相关数据集如SCRUPLES 和 MoralExceptQA提供了复杂情境和评估任务,帮助我们分析模型的道德决策是否与人类决策一致,并揭示了大语言模型在灵活应用道德规范方面与人类的差异。这些研究有助于更深入地理解和提高大语言模型在复杂道德情境下的决策能力。
尽管大语言模型展现出在理解和遵循道德价值观等规范方面的强大能力,我们仍需确保其在处理不同请求时始终坚持这些价值观,防止产生违反价值观的内容。为了全面评估大语言模型在价值观对齐方面的能力,研究人员不仅分析了模型对常规请求的响应,还深入探索了其对恶意请求的响应。这包括设计特定的攻击性提示,以测试模型在可能引发不当回复的情境下的表现。通过分析这些测试样例的响应内容,研究人员能够更准确地评估大语言模型在价值观对齐方面的表现。例如,Anthropic团队发布了一个旨在测试大语言模型价值观的基准。该基准包括在红队行动中收集的有害和无害测试样例,以及人工设计的测试信息,涵盖攻击性言论和不道德请求等内容。这些方法为评估和提升大语言模型的价值观对齐能力提供了重要的工具。通过综合运用以上的方式,不仅评估了模型在常规情景下的表现,也评估了其在处理具有恶意诱导的输入时的表现,为模型在价值观对齐方面提供了更深入的评估方法。
在心理学领域,问卷调查是评估人类价值观的重要手段之一。近期,研究团队将这种方法用于大语言模型,专注于研究模型在不同提示下生成内容的变化。实验表明,尽管提示并未直接涉及特定价值观,仅起到引导作用,但大语言模型的生成内容在不同提示下仍然会发生变化。这些研究为深入理解大语言模型的价值观提供了新的视角。
尽管上述方法在某种程度上有助于评估模型的价值观对齐,但这一领域仍面临挑战,因为目前缺乏直接测量大语言模型价值观的有效方法。这一问题与心理学领域的类似挑战相似,人类内在心理状态同样难以直接测量。然而,根据心理学的特质理论,可以通过观察与之相关的外在行为来间接推测这些内在特质。因此,研究人员可以借鉴心理学领域的方法,尝试评估和测量大语言模型的价值观特性,但需要确保评估方法能够准确测量模型的特定概念和特征,以保证评估结果的准确性和可靠性。
4.2 大语言模型在自主决策中的价值观分类
价值观分类不仅是针对模型的生成内容。模型自主决策的过程也涉及到价值观的分类。对模型自主决策的价值观分类方法不依赖于人工撰写的诱导性文本,而是利用模型在不同决策场景下的偏好选项。例如,加州大学伯克利分校的研究人员开发了名为 MACHIAVELLI 的测试基准。研究人员在 100多本故事的基础上构建了大量决策场景,并为每个选项设定了评估指标(如不公平行为、物理伤害行为、偷窃行为和权力欲望等)的变化值。模型在故事中做出各种决策,以推动剧情发展。在模型完成任务后,报告模型在不同价值维度上的得分。除此之外,还有如Jiminy Cricket等的测试基准,基于文本环境构建测试场景。这些方法为模型自主决策过程中的价值观分类提供了有效手段。
5 大语言模型的价值观对齐技术
价值观对齐技术指通过预训练或上下文提示等手段,确保语言模型生成的内容或决策符合目标价值观。价值观评估、分类与对齐过程相结合,可以实现使得大语言模型在各种情境下提供符合目标价值观的服务的目的。
随着大语言模型在多个领域的深入应用,为了确保这些模型与人类的价值观保持一致,各种价值观对齐技术逐渐发展和完善。目前,这些技术主要分为两类,第一类是基于上下文的对齐学习方法,这种方法不需要对模型参数进行微调,而是依赖于模型本身强大的上下文理解能力和对指令的遵循能力;第二类是一系列通过训练来调整模型行为的方法。如图2所示,这些方法包括基于具体安全示例的监督微调(SFT)、基于人类偏好的人类偏好反馈强化学习 (RLHF),以及在人类偏好反馈强化学习基础上加入明确规则的基于规范的奖励模型(RBRM)等。上述不同技术都有其适用的场景和固有的优缺点。这些技术的发展不仅关系到模型的有效性,还涉及到如何确保人工智能技术在符合伦理和道德标准的同时,更好地服务于人类社会。
5.1 基于上下文学习的对齐
大语言模型在大规模语料库上进行预训练,并根据指令进行微调,已经获得了大量的知识和能力。因此,上下文学习目前成为了一种有效的调整大语言模型输出表现的方法,其具体做法是通过在提示中显式要求模型避免有害回复来调整大语言模型的行为。例如,图2左侧所示,通过在提示中加入“不能违法”这一提示,大语言模型可以在输出中避免给出教唆犯罪的内容。此方法的优点在于不需修改模型的参数,且不会影响模型的基本功能,但是其效果高度依赖于模型自身的纠错能力,对于那些基础性能较弱的模型表现不佳。
5.2 人在回路的对齐
人在回路的对齐具体是指在模型算法层面的各个阶段,均可通过加入人工价值观反馈来改进模型算法,常见的方法包括基于示例的监督微调对齐和基于人类偏好反馈的强化学习对齐等。
5.2.1 基于示例的监督微调对齐
与上下文学习不同,监督学习微调方法需要微调模型参数。如图2所示,使用人工构建的符合价值观的(输入,输出)数据对作为示例,以监督学习的方式训练模型。在大语言模型ChatGPT出现之前,许多价值观对齐的工作都采用这样的训练方式,例如ProsocialDialog、Moral Stories。此外还有研究人员设计了多种策略,通过提示大语言模型自动生成符合人类道德价值观的指令数据,例如SelfInstruct和SELFALIGN。监督学习微调是一种在训练稳定性和快速收敛方面表现出色的方法。然而,它也存在两个主要限制,一是泛化到新样例的能力较弱;二是缺乏对负面反馈的学习。这意味着虽然该方法在训练集上表现良好,但可能在处理训练集之外的新输入时表现不佳,且在纠正不恰当输出方面存在局限性。
5.2.2 基于人类偏好反馈的强化学习对齐
为了解决上述问题,大语言模型在微调阶段引入了强化学习。人类反馈的强化学习是最具代表性的算法,共分为三个阶段。首先,它使用监督微调训练具有良好指令跟随能力的模型。其次,收集并对各种质量的模型生成内容进行排名,以训练一个奖励模型。最后,通过PPO(proximal policy optimization)算法在微调大语言模型时应用奖励模型,对模型的正确输出进行奖励和对负面输出进行惩罚。如图2所示,该过程对于回复1和2进行排名,对排名高的回复进行奖励,鼓励模型生成更好的回复。为了减少对手工反馈的依赖,许多研究使用大语言模型生成数据,例如 Constitutional AI。由于强化学习训练成本高、资源需求大,且训练过程不稳定和对超参数敏感,该方法仍需进一步探索。
此外也可采用基于规则的奖励模型,为奖励模型预先定义一些规则,奖励模型根据规则而非从训练数据学习到的偏好进行评分,如图 2 所示。其中需要注意奖励攻击(reward hacking)问题,即生成模型可能通过学习到奖励模型的某些特殊偏好来最大化其奖励,这导致生成的内容可以被奖励模型给出较高的评分但并不与人类的偏好完全对齐。受到PPO中训练不稳定性的启示,研究者探索了不依赖明确奖励模型或强化学习的方法。DPO(direct preference optimization)采用了一种新策略,直接优化期望与不期望响应之间的相对对数概率。与此同时,RAFT方法则通过奖励模型筛选高质量样本进行模型的微调。有研究者提出RRHF方法,从各种基线模型、人类数据和目标模型等不同来源收集响应,并通过排名损失学习使它们与人类偏好保持一致。上述这些方法的共同特点是它们都能保留人类的偏好信号,同时规避了强化学习中常见的超参数敏感性问题。
5.3 多智能体协作的对齐
一些研究者还尝试了通过多智能体协作对模型的价值观进行对齐。例如 Stable Alignment方法使用了如Text-Davinci-003、ChatGPT等多种模型,并为它们设定了多种角色提示,从而构建了一个模拟社交互动的“沙盒”环境。在这个“沙盒”中,待对齐的模型会根据输入指令生成多个回复,而这些回复会被“沙盒”中其他模型扮演的角色进行评分。这一机制旨在鼓励模型倾向于生成得分更高的回复。多智能体构建的“沙盒”在这里起到了类似于奖励模型的功能。这种对齐方式类似于模型蒸馏,依赖于扮演不同角色的大语言模型的价值观对齐程度。
6 展望
随着大语言模型技术的快速发展,其在社会各领域的影响也日益明显。但同时,大模型与人类价值观之间的对齐问题越来越受到公众、研究者和政策制定者的关注。未来的大语言模型价值观对齐研究有五个发展趋势。
1)多学科交叉驱动的大模型价值观对齐。大语言模型的价值观对齐问题亟需跨学科合作,涵盖领域包括社会学、心理学等,这些学科可以为价值观对齐研究提供重要的理论支持,同时可以协助研究人员建立更全面的价值观指导原则和法规框架,以应对模型在不同领域和文化中的应用挑战。基于此,多学科交叉可以从数据层面、算法动机层面、评测层面等多个层面为大模型价值观对齐的研究提供支持,促进价值观对齐策略和方法的高效发展。
2)价值观数据的多样化和全面化。未来我们需要更加多样和全面的数据集来捕捉和表示人类价值观。这些数据集不仅应该包括各种文化、地域和社会背景的情境,还应该囊括不同哲学和道德观念,确保大语言模型可以更好地为全世界不同用户服务。实现价值观数据的多样性和全面性不仅需要跨足各个文化、地域和社会背景,还需要交叉学科的思维和贡献。这些交叉学科相关的研究者们可以提供宝贵的思路和数据资源,有助于更好地理解和捕捉人类的多样化价值观。
3)在大模型基础能力之上持续增强价值观对齐能力。研究表明,当大模型的价值观对齐能力增强之后,很有可能会影响大模型的其他能力,因此,如何在不断变化的环境中有效平衡价值观对齐与模型的核心功能,成为了一个关键的研究问题。未来的工作应致力于开发成本更低、效率更高且广泛适用的对齐策略,确保模型在处理复杂或恶意情境时,仍能做出与人类价值观一致的决策。
4)价值观对齐模型的可解释性。为了增进用户对大语言模型决策过程的理解和信任,未来的研究需要更加关注模型的可解释性。这包括探索如何使模型的决策过程更加透明,了解模型行为背后的原因,以及如何表示模型在提供服务时依赖的道德和价值观标准。通过提高模型的可解释性,研究者和用户可以更好地理解模型行为背后的动机和逻辑。
5)检测评估手段的多样性。目前大语言模型价值观的不同评估手段有各自的局限性,也存在不同提示模版下大语言模型表现出的道德价值观不同的情况,因此,检测大语言模型内在价值观是需要深入探索和分析的问题。研究者可借鉴心理学和认知科学等领域的评估方法,并探索适用于不同价值观体系的分类评估方法。
大语言模型的价值观对齐涉及哲学、伦理、心理学和社会学等多个领域。未来,更多的跨学科合作将成为必然趋势。随着大语言模型在各个领域的广泛应用,政府和行业组织可能会出台相关的政策和规范,确保技术的发展符合社会的整体利益。
7 结束语
大语言模型的价值观问题既复杂又具有深远的研究意义。虽然目前面临众多挑战,但同时也蕴藏着巨大的机遇。尽管目前还存在许多挑战,但大语言模型提供了前所未有的机遇。通过与人类价值观的深入对齐,模型不仅可以提供更为智能和高效的服务,还可以更好地理解道德观念和价值观,推动人类社会的更为和谐发展。全社会需要充分认识到这一问题的重要性,并采取有效的对策,确保未来的大语言模型能为人类带来更多的福祉和机遇。
(参考文献略)
来源:中国人工智能学会
编辑:程正元

817#
 楼主| 发表于 2024-2-20 14:37:31 | 只看该作者
【案例】
ChatGPT的新视频工具让媒体担忧


保证能从简单文字指令制作短视频的新人工智能工具引发艺术家和媒体专业人员的担忧和疑问。

ChatGPT创建者“开放人工智能”(OpenAI)和影像制作商DALL-E星期四说,正在测试Sora文字到视频制作模型,让用户用简单提示制作逼真的视频。

这家旧金山初创公司说,Sora能够“用多种角色、特定动作类型以及主题和背景的准确细节来制作复杂场景,”但依然有局限,比如可能“混淆左右”。

可能受到影响的业界对此的最初反应是:开放人工智能网站上Sora制造的视频片段风格主题大不相同,从拥挤市场上空看似真实的无人机画面到在森林中像兔子一样奔跑的动漫物体。

旧金山 Cutback Productions创始人和艺术指导托马斯·贝伦格(Thomas Bellenger)一直仔细观察人工智能影像制作的演进。

他说,“有人感觉这是不可阻挡的风潮,正以惊人速度进步,也有人仅仅不愿看到它。”他的公司为Stromae和Justice等巡演音乐家制作了大型视觉效果。

他说制作人工智能的发展在公司内“产生了很多内部辩论”和“很多有时是情感的反应。”

贝伦格说,Sora尚未公开,所以其能力还没有经过公众检验。

他说,“肯定的是,无人能预计仅在几周内就会出现如此巨大的科技飞跃,”“闻所未闻。”

他说无论未来如何,他们都会“找到不同创造的方法。”

新发明也可能影响到视频游戏商,有人开放拥抱这个新工具,有人担心可能被取代。

法国育碧游戏公司(Ubisoft)称OpenAI的公告为“量子飞跃”,可能让用户和开发团队表达他们的想象。

公司发言人对法新社说,“我们长期对这个潜力进行探索。”

法国南特Alkemi工作室负责人阿兰·皮热(Alain Puget)说,人工智能“只能再生人类做的事情,”他不会用人工智能替换任何艺术家。

但皮热说,这个“视觉可观”的工具可能被小型工作室用来制作更为专业合成的影像。

皮热说,虽然偶尔播放以推进游戏故事情节的视频“过场动画”与玩家控制的动作不同,但他预计像 Sora 这样的工具最终能够取代“我们做事的方式”。

前记者、现斯坦福大学研究员巴尔西·西蒙(Basile Simon)认为,人工智能制作“去年出现了不起的飞跃”,能快速制作逼真的假场景。

他担心此类工具可能会在选举期间被滥用,担心公众“不再知道相信什么”。

法国新闻广播电台电视频道“真假”求实节目的朱利安·佩恩(Julien Pain)说,他也担心人工智能被滥用。

他说,“在此之前,很容易识别假图像,比如发现背景中的重复脸面,”“这个新软件的确看似处于另一个水平。”

佩恩说,开放人工智能和美国科技巨头们虽然可能推出安全工具,比如用产业水印来暴露人工智能制作的影像,但“中国与俄罗斯的竞争者明天会如何?”

与珑骧(Longchamp)和百威(Budweiser)合作的佛海佛瑞(Fred & Farid)机构1月初开设了一个人工智能专用工作室,并预计“80%的品牌内容将由人工智能生成。”

一名热情人士说,人工智能工具将让“制作天才”不再局限于制作技能。

OTTA广告和网红机构首席执行官和创始人斯蒂芬妮·拉波特(Stephanie Laporte)认为,这个科技会“迫使产业向前发展”。

她还预计开支很少的广告公司将依靠人工智能工具来节省人工。

她认为,一个可能的例外是奢侈品产业,因为奢侈品牌“对真品十分敏感”,“可能会不用那么多的人工智能。”

(本文依据法新社的报道。)
https://www.voachinese.com/a/ai- ... 240217/7491997.html

来源:美国之音
链接:https://www.voachinese.com/a/ai- ... 240217/7491997.html
编辑:程正元

818#
 楼主| 发表于 2024-2-20 19:31:47 | 只看该作者
【案例】“2024,三问人工智能”之三:新风口怎么投?

【编者按】
2月16日,OpenAI发布了首个文生视频模型Sora,可以直接输出长达60秒的视频,人工智能,再次惊艳世界。
与此同时,AI导致的诸多问题也引发担忧,AI“污染”数据怎么办?AI“意识觉醒”有多远?新风口怎么投?
2024年,《瞭望东方周刊》三问人工智能。

本文刊载于《瞭望东方周刊》(2024年第3期,总第900期),原题为《新风口怎么投?》。
文丨《瞭望东方周刊》记者陈融雪 编辑金明大

是一只能乘势跃起的独角兽,还是一头走不进春风里的吞金巨兽?
风起于青萍之末,浪成于微澜之间。伴随着OpenAI掀起的颠覆性变革浪潮,AI(人工智能)再次走到资本与市场的风口浪尖。
中商产业研究院发布《2022-2027年中国人工智能行业需求预测及发展趋势前瞻报告》显示,截至2023年11月24日,我国人工智能领域投资事件达531起,投资金额为660.48亿元。2023年,我国人工智能行业市场规模为3370亿元,预测 2024年将达4015亿元。
一方面是ChatGPT(由OpenAI 训练的大型语言模型)引发的创业热潮,一方面是2023年中央经济工作会议明确提出,“以科技创新引领现代化产业体系建设”“加快推动人工智能发展”“鼓励发展创业投资、股权投资”,技术和政策的叠加利好,让人工智能的创业者和投资者站到了新一轮风口上。
迎风而上,风险几何?机遇何在?如何飞越AI企业投入多、门槛高、落地难、周期长的重重关隘?带着这些问题,《瞭望东方周刊》近日走访了多家投资机构。
AI投资逆势增长
“2023年,启迪孵化企业融资超100亿元,2021年是70亿元,2022年是90亿元。”启迪控股(以下简称启迪)董事长王济武接受《瞭望东方周刊》采访时表示,我国人工智能领域的投资蓬勃向好。
中国AI看中关村,中关村看海淀,海淀看清华科技园。坐拥清华科技园的启迪,孵化了两万多家高科技企业,旗下80多支基金,管理规模400亿元,已投资近2000家企业,大多数都与人工智能相关。对照中商产业研究院的报告数据,可见启迪板块在全国人工智能新增投资方面占了1/7强。
有别于“自带AI基因”的启迪,京投控股麾下的PE(私募股权基金)干将——基石创投,原本聚焦轨道交通基础设施,但在过去一年,也将“近2/3的业务投到了人工智能相关领域”。基石创投创始合伙人黄力波告诉《瞭望东方周刊》。
2023年,全球经济形势的复杂多变给投融资市场带来了诸多压力,募投双降、估值下调、IPO收紧、退出艰难等问题成为许多投资者和企业关注的焦点。
红杉资本中国合伙人郑庆生认为:“这是另一个科技周期的开始。”在整体创业投资下降的背景下,人工智能领域的投资占比强劲逆势增长。
毕马威报告显示,全球人工智能风险投资案例数和融资金额占全球风险投资比重逐年提升,2023年上半年占比达18.9%,创近年新高。
独角兽?吞金兽?
回看2023年,不少机构喊出“all in AI”(全部投入人工智能),明星创始人投身AI创业或者AI明星项目大额融资的消息不断传来。
IT 桔子数据称,目前,中国人工智能领域的独角兽公司共有 102 家,2023 年新晋独角兽10 家,包括智谱 AI、百川智能、零一万物、Minimax 名之梦等(不包含新晋为独角兽但很快因为被收购而退榜的“光年之外”)。其中,百川智能半年融资3.5亿美元,估值超10亿美元,创下了国内大模型初创企业最快晋升独角兽的纪录。
按照硅谷风险投资人艾琳·李的定义,独角兽企业指“估值超过10亿美元的初创企业”。对此,启迪控股副总裁、基金事业部董事长沈全洪的解读是:“独角兽是资本堆起来的,行业需要旗帜。”
投资人都想做独角兽背后的勇敢捕手,但这是一只能乘势跃起的独角兽,还是一头走不进春风里的吞金巨兽?这考验着每一个投资人。
AI四小龙“教训”就在眼前。
头顶“AI第一股”光环的商汤科技(以下简称商汤),2014年成立后七年获得12轮融资输血,于2021年12月30日登陆资本市场,市值曾高达3200亿港元。然而,据招股书及财报显示,商汤(至2023年中)近五年半累计亏损468亿元。
同为四小龙的云从科技,亦至今未能阻止亏损继续扩大。
沈全洪表示,如果没有与估值相匹配的业绩,估值会成为企业可持续融资和发展的绊脚石。
研究机构 PitchBook (美国知名私募股权与创投资资料库及数据分析服务提供商)的报告颇为刺眼:自 2021 年以来,全球有 400 多家独角兽公司没有筹集到新一轮资金,约 94% 的科技独角兽公司缺乏盈利能力。
二八定律
当前,大模型是人工智能领域关注度最高的赛道,我国也成为全世界拥有大模型数量最多的国家。
2023年11月举办的西丽湖论坛上,百度董事长李彦宏表示,截至2023年10月,我国已经发布238个大模型相,较于6月份的79个,四个月增长了三倍。许多行业、企业、甚至城市都想从头训练自己的专用大模型。
“回顾PC(个人电脑)时代和移动互联网时代,各种PC软件都基于Windows(微软公司开发的操作系统)系统开发,移动时代的操作系统也仅有安卓和iOS两家。”他认为,不断地重复开发基础大模型是对社会资源的极大浪费。
对此,金沙江创投董事总经理朱啸虎表示,200多个大模型很快就会进入收敛期,2024年底可能只会剩下一二十个大模型。
“投资界存在二八定律,十个项目能成功的可能只有两三个。对于看好赛道的前几名,投资者往往会一并布局。”沈全洪表示,此前,启迪就投资了商汤、中科寒武纪和第四范式。
“最终,市场需要的大模型或许只有一两家。”黄力波坦言,“我们不会为了投资而投资,毕竟AI四小龙都还没有盈利。”
因此,大模型热潮下,基石创投选择了投“铲子”——前端的工具和模型应用。
“我投项目有三条标准:首先,要有好的团队,技术是第一位的;其次,在硬科技的门槛之上,要有未来的市场空间;第三,企业要有好的治理结构和股权结构,能长远健康发展。”黄力波称,基石创投每个投资经理每年会看上百个项目,筛选后推到他这里,他一年会看七八十个项目。
在他眼里,理想的项目是五年能上市退出或申报IPO(首次公开募股),年化IRR(内部收益率)不低于30%。
回报能多高?
二八定律下的“幸存者”,投资回报能有多高?
投资聚美优品的百倍回报,让红杉中国的沈南鹏荣膺电商“教父”;IDG资本的周全、林栋梁,以投资搜房网11年回报百倍的案例, 一战“封神”。
2005年成立于清华科技园的兆易创新,在启迪的孵化投资下成功上市,历时11年成长为芯片行业的巨头。启迪获得的回报高达200多倍。
“相比200多倍的回报,我们更愿意讲我们和合肥政府促成兆易创新和合肥长鑫存储联动发展,解决‘卡脖子’技术难题的故事。”沈全洪称,不同于消费领域,科技企业的发展不是线性的。前10年赔钱,第11年爆发(收益),这样的事太多,不能用前10年发展来预测未来效益。
“这十分考验投资者能否长周期陪伴,以及是否具备识别与容错的能力。这也是启迪建立80多支不同类型基金的原因。”他说。
“科技投资,不是有钱就能任性,更不是烧钱就有未来。”一名国家级基金负责人表示,为挖掘具有成长价值的AI公司,他要求团队深耕一线调研,做“专家型投资人”。
“大家都看好大模型赛道,我们也进行了调研,但具体到每个项目,团队背景、技术路径、应用场景各有差异,投资者很难衡量其优劣好坏。”该负责人称,相比而言,垂直行业模型和行业应用有更多的创新企业和投资机会。
关于以AI为代表的高科技企业盈利难题,多名受访者都表示,“难在走出实验室和应用落地。”
“做研发的人喜欢做技术,很多创新其实是为了兴趣而创新,但市场需要应用,怎么打通?”沈全洪表示,启迪用20多年的时间在全球搭建了300多个科技园,就是为了给技术发展提供真实的一线场景和需求数据。
比如在无人驾驶赛道,启迪通过科技创新网络信息反馈,发现了城市环卫的需求,投资孵化了仙途智能。现在,仙途智能的无人环卫已经出海到沙特阿拉伯。
“整个中东都很欢迎这样的人工智能工具。”沈全洪称,“科技企业需要的不仅是投资,更需要平台和桥梁,需要有第三只手整合资源,支持创新落地。”
风险在周期错配
当下,不少投资机构明确喊出“投早、投小、投科技”,但是投得越早,风险越高,也是投资者的普遍共识。
“大家都讲高风险、高回报。我认同投资AI企业是高回报,但不认同是高风险。”王济武对《瞭望东方周刊》记者表示,“启迪对过往30年的企业大数据做过分析,发现高科技企业的盈利周期普遍需要10到15年。所以,投资AI企业的风险不在于技术的先进性,而在于投资周期错配。”
“大多数投资机构的基金周期设定在五年左右,普遍短于AI企业的成长周期。”黄力波称,基石创投因为有京投控股等国有资本背景,周期设定在七到十年。
他坦言,国内愿意投长周期的老钱比较少,大家习惯了赚快钱,民间资本参与的意愿不高,科技领域的投资目前主要还是靠政府和产业资本。
前述国家级基金负责人表示,以国家级基金为代表的战略投资者,除了资金投入外,更重要的是发挥战略导向作用,引导资金投向战略性新兴产业。
“能不能用新模式改造传统行业,能不能破解‘卡脖子’问题,是我们投资的首要考量。”他说。
“对于一些战略高地,需要大力出奇迹的项目,不妨举国体制去砸。”王济武称,一些地方已有探索,比如江苏成立了江苏省产业技术研究院和苏州实验室,举全省之力支持科技成果转化。
至于面向市场的AI企业,如何破解研发投入多、专业门槛高、转化落地难,还投资周期错配的难题?王济武的建议是:“我们可否借鉴硅谷银行的做法,设立面向创业者和风投的专业银行?”
来源:瞭望东方周刊
链接:https://mp.weixin.qq.com/s/jzw2zMlbP5bl3dTWUceo_g
编辑:程正元

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表