传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
691#
 楼主| 发表于 2023-6-7 20:18:36 | 只看该作者
【案例】
AI会让媒体人失业?你多虑了......
编辑:巩霞 李忆林子
来源:综合自新京报、腾讯媒体研究院、青年记者杂志等


AI持续刷屏。
AI能写诗、AI能作画,AI还能写论文。
“AI克隆人”让粉丝花30元就可以和网红明星视频聊天,“AI孙燕姿”让无数孙燕姿的粉丝沉迷于翻唱作品......
在AI技术发展的浪潮来临之际,对于任何领域的原创作者来说,“被替代”的忧虑若隐若现。
于是,一个话题被频频提及:AI会取代新闻媒体人吗?
甚至有人开始给媒体人制造焦虑。
此时,不妨先回答两个问题:
一,AI可以替代媒体人去新闻现场,采访到第一手的、包括图文、视频、音频在内的新闻素材吗?
二,除了天气预报、股市行情之类的简单资讯,通过包括ChatGPT在内的工具“东拼西凑”出来的稿件,哪家权威媒体敢直接发表吗?
答案是很明确的。
技术有它的进步之处,媒体人更有自身的价值,完全不用焦虑。

01
媒体人面对AI的态度
对于方兴未艾的AI技术在传媒行业的应用,业内人士在整体上持积极态度。
《传媒》杂志公众号发表的文章《强化传媒与科技深度融合的风险防范与伦理建设》认为:
传媒行业是最新事物的第一感知者,也应该是最新技术的最早拥抱者。
传媒行业一定要运用好以ChatGPT为代表的现代传播技术,助推媒体与科技持续深度融合,提升用户体验和媒体影响力。在不久的将来,让ChatGPT技术成为推动产业升级和变革的重要力量。
面对新技术,媒体人完全不用回避,而应思考如何利用好新技术提高工作效率,让工作变得更完善,实现“人机协同”。

02
媒体人使用AI的四种方式
越来越多的新闻机构开始使用人工智能技术来辅助记者的工作,以提高效率、降低成本、改善内容质量。
腾讯媒体研究院在《新闻业新变革:AI如何改变记者的工作方式?》一文中总结了媒体人的四种AI使用场景:
1.AI改写资料搜索方式
在过去,记者需要翻阅海量的纸质材料,寻找自己所需要的信息。而随着人工智能技术的快速发展,资料和数据的收集方式也在不断演变。
首先,AI搜索可以通过自然语言处理和机器学习等技术,对用户的搜索需求进行更加准确的理解和分析,从而提供愈发精准和有针对性的搜索结果。记者可以通过输入关键词或问题,快速获取到与其相关的新闻报道、文献资料等信息,从而更好地开展采访和报道工作。
其次,AI搜索可以通过大数据分析和语义分析等技术,对海量的数据和信息进行快速的筛选和过滤,帮助记者挖掘有价值的内容。这使记者得以大幅提升获取有效信息的效率,并将这些信息用于支持自己的报道和分析。
最后,AI搜索可以通过个性化推荐和自动化整理等技术,为记者提供更加智能和便捷的信息服务。记者可以根据自己的偏好和习惯,定制化自己的搜索和推荐设置,从而更好地满足自己的信息需求和工作要求。
2.AI支持智能信息整理
在新闻采写和报道工作中,通过对新闻资料的细致归类和深入分析,记者们可以更加准确地了解事件的来龙去脉、各方利益关系、相关人员的观点态度等重要信息,从而发现隐藏的信息和问题,挖掘出更有价值的新闻线索。
过去,这些细致繁琐的整理工作会消耗记者大量时间和心力,但现在凭借AI技术,记者可以更加轻松地对新闻资料进行系统整理和分析,更好地把握事件背后的故事。
例如,Pinpoint是Google Journalist Studio推出的一款基于AI技术的海量资料存储分析工具。借助光学字符识别和语音转文本技术,Pinpoint可以完成搜索pdf、照片、电子邮件和音频文件的任务。不仅如此,Pinpoint 还具备语义分析的能力,能够根据用户提供的关键词和语义,自动搜索相关的文档并将其结构化。在Pinpoint的辅助下,记者可以更敏捷地从信息海洋中捕捉和提炼出相关的主题和要点,避免疏漏,从而提高新闻报道的深度和效率。

▲资料图。图/IC photo
3.AI助力自动化新闻创作
AI写作工具已经成为自动化新闻创作的重要工具之一。这些工具利用自然语言处理、机器学习等技术,可以帮助记者自动生成新闻报道、摘要、标题等内容。相较于传统的新闻创作方式,利用AI写作工具可以提升工作效率,节省人力成本,并增强新闻报道的准确性和整体效果。
一方面,AI技术可以帮助记者优化内容质量,使得文章更加易读、易懂。例如,AI驱动的文本编辑器Hemingway Editor可以帮助记者改进文章的语言表达、结构和逻辑,检查文章中的复杂句子、过度使用的形容词和副词等问题,并提供简化建议。
另一方面,AI技术可以帮助记者收集和分析大量数据,提供数据支持,并生成相应的内容稿件。这大大缩短了内容生产的周期,并使得记者的报道更加有说服力。以Automated Insights 开发的Wordsmith为例,它可以自动将数据和信息转换成自然语言的文本。记者通过简单地输入数据,然后选择适当的模板和规则,就可以生成符合要求的自然语言文本。该工具已经被多家媒体公司使用,如福布斯和美联社。
总之,目前能够利用AI辅助记者进行内容写作的工具正逐渐丰富,记者们可以根据自己的需求和实际情况选择适合自己的工具。AI工具诚然为记者乃至新闻行业带来许多便利,但同时腾讯媒体研究院也提醒人们仍需保持警觉,避免过度依赖AI技术,保持自己的专业性和判断力。
4.AI图片与视频创作工具赋能多媒体生产
AI技术可以在图像识别、美化和编辑以及简化视频编辑过程中发挥至关重要的作用,帮助记者快速完成图片内容的处理,简化视频编辑过程并提高制作质量,从而降低人力成本,提高媒体生产的效率。

03
新闻伦理还得靠媒体人把关

媒体人在拥抱AI技术时,要注意什么?
“专业、理性地对待人工智能”虽已基本形成共识,但我们并不能满足于止步在这一句空洞的诺言。
青年记者杂志公众号在《面对AGI,媒体能做什么》中所点明,AI的未来是天使还是魔鬼,如何合理地、科学地、有节制地使用AI,平衡创新与风险,是媒体必须直面的。
毕竟,媒体行业、新闻报道是一个特殊的领域,依赖AI处理海量数据和复杂问题,提供更高效、更优质、更精准的内容服务的同时,更需要考虑新闻伦理、内容安全、虚假数据训练等问题。
如果AI系统被用于生成虚假信息或误导性内容,是否会对公众产生负面影响?如果AI的训练数据受到污染或具有歧视性,是否会产生不公平的带有偏见的报道?如果为了某一政治目的人为干预AI系统的训练学习,是否会产生难以估量的后果?
由此可见,AI并非全知全能,没有人对AI的严格把关和监督,新闻业将可能面临媒体伦理失范的沉重后果。捍卫大众新闻传媒作为社会公器的角色,确保新闻的真实性和客观性,尽可能规避潜在的法律与道德问题,都是我们在与技术共生的新时代所肩负的责任。
南方传媒研究《人机协同:ChatGPT在新闻领域的应用前景分析》明确断言:没有任何算法可以代替新闻工作者的新闻判断。
人工智能生产已经在逐步打破传统的新闻观念和新闻生产流程,驱动着媒体生态格局发生变动。
新闻工作者和新闻行业面对技术带来的由外而内的变化,需要坚持技术的工具属性,坚信技术向善的方向是由人来保持的,没有任何算法可以代替新闻工作者的新闻判断。
拥抱人工智能只是为新闻工作者提供一种以不同于以往的方式去完成重复性任务的可能性,将新闻工作者从繁碎的重复性工作中解放出来,投入到更需要人的情感和价值观的工作中。

来源:新京报传媒研究(公众号)
链接:https://mp.weixin.qq.com/s/-Ctmx5Y0EEZcGg0R28Qajg
编辑:郑程程

692#
 楼主| 发表于 2023-6-9 21:30:19 | 只看该作者
【案例】
ChatGPT生成内容,版权属于谁?

近期,ChatGPT引发新一轮科技浪潮,国内外厂商都开始积极布局生成式人工智能技术领域。ChatGPT的能力范围包括生成定制诗歌、游戏剧本、计算机代码等。那么,ChapGPT生成的内容,版权属于谁呢?

其实,人工智能生成内容已经不是一件新鲜的事儿。国外早在1983年就有机器人雷克特(Racter)生成了诗集《有着半人工胡子的警察》(The Policeman’s Beard is Half Constructed),国内也有微软开发的人工智能“诗人”小冰,生成诗集《阳光失了玻璃窗》,在图书市场中流通,还有人工智能编曲、作画、制作视频等。无论是文学作品还是艺术作品,在我国与其他国家均受到版权法保护。但是版权法通常仅保护自然人作者,部分情况下法人在雇佣合同或委托合同等法律规定的情形中也可以获得作品的版权。然而,人工智能既不是法律意义上的自然人,也不是法人,难以获得作者资格。

关于非人类作者的问题,美国“猴子自拍案”是一个经典案例。该案中摄影师斯莱特的相机被一只黑冠猕猴抢走,这只猕猴被相机快门的声音所吸引而摆弄快门拍了数百张照片。其中一张类似于自拍的相片冲印出来之后效果非常好,相关主体就该照片的版权问题产生了争议。法院最后判定猴子不是版权法意义上的作者,因此这些照片不受版权法保护。《美国版权局实践纲要(第3版)》更新后,在不符合人类作者要求的作品举例中,第一个例子就是“猴子拍的照片”。该案否定了人类以外的主体担任作者进而享有作品版权的资格。

我国版权保护制度同样不认可动物或者人工智能成为作品的作者。著作权法规定“创作作品的公民是作者。由法人或者其他组织主持,代表法人或者其他组织意志创作,并由法人或者其他组织承担责任的作品,法人或者其他组织视为作者”。也就是说,只有公民、法人或其他组织是我国版权法所承认的作者。著作权法还规定“著作权属于作者,本法另有规定的除外”。人工智能生成内容没有符合资格的作者,因此也无法界定合适的权利所有人。虽然法律规定的特殊情形,如雇佣作品、委托作品以及其他合同关系中,作者以外的主体也有可能获得作品的版权,但人工智能不具有民事主体资格,不能作为合同当事方签订合同,因此也不能成为这些法定情形中的版权所有人。

根据现行著作权法,人工智能没有资格担任ChatGPT生成内容的作者,因此也无法享有ChatGPT生成内容的著作权。然而,人工智能生成内容仍可能存在法律保护的需求。例如,密歇根大学一名学生利用ChatGPT写课程论文,获得全班最高分,引发全网热议;微软小冰的诗集出版后,也有一些诗文未经授权被复制并在网络空间中传播。国外版权实践中,甚至存在人工智能生成作品在版权局登记注册的案例。美国版权局网站上可以查询到《有着半人工胡子的警察》这本诗集的版权登记信息,其中作品权利所有者为研发人员威廉·张伯伦和诗集插画师琼·霍尔,作者则是生成诗歌作品的人工智能雷克特。版权局不对注册信息中作者名字是否为真实自然人进行审查,因此以人工智能为作者的注册申请得以审核通过,但是权利效力尚待质疑。后续人工智能生成内容在版权登记中大部分规避了这个问题。例如,2013年麻省理工学院的尼克·蒙特福特(Nick Montfort)教授利用自己编写的程序创作了小说《世界时钟》(World Clock)并出版,作者和版权所有人均标注为蒙特福特教授本人。

我国图书市场中流通的微软小冰诗集《阳光失了玻璃窗》扉页也印有“版权所有,侵权必究”类似的版权声明,作者署名为“小冰”。版权所有人信息未予注明,按通行做法应该是由“诗人”小冰的研发者原始取得版权,然后将发行权、复制权等财产性权利转让给图书出版公司。根据上文的分析,“小冰”不符合我国著作权法关于作者为公民的要求。那么“小冰”的研发者能否作为实际作者成为这本诗集的版权所有人呢?这个问题的关键在于其有没有实际参与诗文内容的创作。我国著作权法实施条例第三条指出:“著作权法所称创作,是指直接产生文学、艺术和科学作品的智力活动。”在创作的过程中,研发者为人工智能提供信息数据库,人工智能通过深度学习技术对数据库中作品的语言风格、语法、意向元素等内容进行学习,生成与其他作品不同的诗文后重复修改。研发者不参与学习与修改的过程,只是在特定节点,如100次、500次、10000次的时候对作品的质量进行评价,判断是否能够成为一篇合格的诗文作品。可见,研发者在人工智能创作过程中更多的是起到监督作用,而没有直接产生文字内容,不属于作品的作者,因而也无法获得作品的版权。

根据上述分析,当人工智能利用深度学习等技术创作出作品时,人工智能本身与人工智能研发者均不是符合法律要求的作者。即使作品满足版权法要求的原创性要求,人工智能作品没有合格的版权所有人,原则上应该进入公共领域。当然,也不排除部分国家可能会修改相关法律,扩展作者、版权主体范围,或者赋予人工智能以法律人格。这样人工智能就有可能成为作品的权利主体,或者作为合同主体通过签订合同来约定权利归属。从激励创新的角度而言,如果能赋予人工智能作品以版权保护,使得人工智能研发者或监督者获得一定程度经济回报,则可实现该领域技术的进一步创新与进步。版权保护体系比直接付诸人工智能作品于公共领域更能促进创新思想的传播与社会整体福利的提升。更何况人工智能作品是利用创新性人工智能技术来生成创新性作品,实现了双重创新。
(注:本文图片来源于网络,如有侵权请告知删除)
来源:法制日报
编辑:管佩钰(学会新媒体工作委员会)
审核:彭熙、李劲网络,如有侵权请告知删除)

来源:编辑大碗茶(公众号)
链接:https://mp.weixin.qq.com/s/0VzGwVkW3wB8wqrIKqV3ZQ
编辑:郑程程


693#
 楼主| 发表于 2023-6-9 21:41:33 | 只看该作者
【案例】
冯志伟等:为何乔姆斯基对ChatGPT持否定态度?
本文比较了乔姆斯基关于语言知识的本质、来源和使用的理论与 GPT 的不同, 说明了GPT没有可解释性。

2023年3月8日著名语言学家乔姆斯基与罗伯茨(Ian Roberts)、瓦图穆尔(Jeffrey Watmull)共同在《纽约时报》发表了题为“ChatGPT的虚假承诺”的文章。他们强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。乔姆斯基还认为,ChatGPT使用的大语言模型,实质上是一种剽窃。

乔姆斯基对于GPT持否定态度,这是不足为奇的。在乔姆斯基生成语法(Generative Grammar)的发展过程中,赋予生成语法以生命活力的是生成语法的语言哲学理论。其中,最为重要的是关于人类知识的本质、来源和使用问题(Chomsky,1995)。乔姆斯基把语言知识的本质问题叫做“洪堡特问题”(Humboldt's problem)。

德国学者洪堡特(W. Humboldt)曾经提出“语言绝不是产品(Ergon),而是一种创造性活动(Energeria)”,语言实际上是心智不断重复的活动,它使音节得以成为思想的表达。人类语言知识的本质就是语言知识如何构成的问题,其核心是洪堡特指出的“有限手段的无限使用”。语言知识的本质在于人类成员的心智/大脑(mind/brain)中,存在着一套语言认知系统,这样的认知系统表现为某种数量有限原则和规则体系。高度抽象的语法规则构成了语言应用所需要的语言知识,由于人们不能自觉地意识到这些抽象的语法规则,乔姆斯基主张,这些语言知识是一些不言而喻的或者无意识的知识.

乔姆斯基主张把语言知识和语言的使用能力区分开来。两个人拥有同一语言的知识,他们在发音、词汇知识、对于句子结构的掌握等方面是一样的。但是,这两个人可能在语言使用的能力方面表现得非常不同。因此,语言知识和语言能力是两个不同的概念。语言能力可以改进,而语言知识则保持不变。语言能力可以损伤或者消失,而人们并不至于失去语言知识。所以,语言知识是内在于心智的特征和表现,语言能力是外在行为的表现。生成语法研究的是语言的心智知识,而不是语言的行为能力。语言知识体现为存在于心智/大脑中的认知系统。

GPT采用的数据驱动的“端到端嵌入”技术对于非人类的自然语言行为是行之有效的,但是,这种技术是处于人类的心智之外的,根本不存在“有限手段的无限使用”问题,与乔姆斯基对于语言知识本质的认识是迥然不同的。

语言知识的来源问题,是西方哲学中的“柏拉图问题”(Plato’s problem)的一个特例。“柏拉图问题”是:我们可以得到的经验明证是如此贫乏,而我们是怎样获得如此丰富和具体明确的知识、如此复杂的信念和理智系统呢?人与世界的接触是那么短暂、狭隘、有限,为什么能知道那么多的事情呢?刺激的贫乏(stimulus poverty)和所获得的知识之间为什么会存在如此巨大的差异呢?(杨小璐,2004)与“柏拉图问题”相应,人类语言知识的来源问题是:为什么人类儿童在较少直接语言经验的情况下,能够快速一致地学会语言?乔姆斯基认为,在人类成员的心智/大脑中存在着由生物遗传而天赋决定的认知机制系统。在适当的经验引发或一定的经验环境下,这些认知系统得以正常地生长和成熟。这些认知系统叫做“心智器官”(mental organs)。决定构成人类语言知识的是心智器官中的一个系统,叫做“语言机能”(language faculty)。这个语言机能在经验环境引发下的生长和成熟,决定着人类语言知识的获得(Pullum & Scholz,2002)。

研究发现,FOXP2是人类的独特基因。这一基因与其他哺乳动物的类似基因同属于一个家族,然而,这基因的排序却是人类特有的。因此,FOXP2也许就是乔姆斯基所假设的“语言机能”的生物学基础。由于存在FOXP2,所以,语言是天赋的,FOXP2给语言天赋论和刺激贫乏论提供了生物学上的支持(俞建梁,2011)

语言机能有初始状态(initial state)和获得状态(attained state)。初始状态是人类共同的、普遍一致的;获得状态是具体的、个别的。语言机能的初始状态叫做“普遍语法”(Universal Grammar,UG),语言机能的获得状态叫做“具体语法”(Particular Grammar,PG)。对普遍语法的本质特征及其与具体语法的关系的研究和确定,是解决关于语言知识的“柏拉图问题”的关键。

GPT采用的数据驱动的“端到端嵌入”技术对于非人类的自然语言机器学习是行之有效的,但是,这种技术依靠大规模的语言数据,根本不存在“刺激贫乏”的问题,与乔姆斯基对于语言知识来源的认识是大相径庭的。

乔姆斯基把语言知识的使用问题叫做“笛卡儿问题”(Cartesian problem)。基于机械论哲学的物质概念,法国哲学家和数学家笛卡儿(Descartes)认为,所有非生命物质世界的现象、动物的生理与行为、大部分的人类器官活动,都能够纳入物质科学(science of body)的范畴。但是。笛卡儿又指出,某些现象不能处于物质科学的范畴之内,其中最为显著的就是人类语言,特别是“语言使用的创造性方面”,更是超出了机械论的物质概念所能够解释的范围。所以,对于语言的正常使用,是人类与其他动物或机器的真正区别。为了寻求对于语言这一类现象的解释,笛卡儿设定了一种“第二实体”的存在,这种第二实体就是“思维实体’(thinking substance)。“思维实体”明显不同于物质实体,它与物质实体相分离,并通过某种方式与物质实体相互作用。这一种“思维实体”就是心灵或者心智。语言知识的使用是内在于心智/大脑的。因此,对于这样的问题是很难解决和回答的。

GPT采用的数据驱动的“端到端嵌入”技术对于非人类自然语言的使用是行之有效的,但是,这种技术与“思维实体”没有关系,与乔姆斯基对于语言知识使用的认识是完全不同的。乔姆斯基主张,语言是语言机能或者语言器官所呈现的状态,说某个人具有语言L,就是说他的语言技能处于状态L。语言机能所获得的状态能够生成无限数目的语言表达式,每一个表达式都是语音、结构和语义特征的某种排列组合。这个语言机能所获得的状态是一个生成系统或者运算系统。

为了与一般人理解的外在语言相区别。乔姆斯基把这样的运算系统,叫做“I语言”。字母I代表内在的(internal)、个体的(individual)、内涵的(intensional)等概念。这意味着,I语言是心智的组成部分,最终表现于大脑的神经机制之中,因此,I语言是“内在的”。I语言直接与个体有关,与语言社团存在间接的联系。语言社团的存在取决于该社团的成员具有相似的I语言,因此,I语言是“个体的”。I语言是一个函数或者生成程序,它生成一系列内在地表现与心智/大脑中的结构描写,因此I语言是“内涵的”。根据这种对于I语言的认识。乔姆斯基指出,基于社会政治和规范目的论因素之上的关于语言的通常概念,与科学的语言学研究没有任何关系,这些概念都不适合用来进行科学的语言研究。

生成语法对于语言的科学认识是内在主义(internalist)的,而GPT的大语言模型则是外在主义的(externalist)。GPT的方法是在广泛搜集语言材料的基础上,把离散的语言符号转化为词向量,通过机器学习来获取概率性的语言参数。这些参数存在于外部世界,处于人类的心智/大脑之外。GPT的方法是经验主义的方法,这种方法的基础是外在主义的语言观。乔姆斯基认为,根据外在主义的语言观,人们不能正确地认识和揭示人类语言的本质特征,不能解释人类语言知识获得的过程。只有内在主义的语言观才有可能正确地、全面地认识和解释人类语言知识的本质、来源和使用等问题。

乔姆斯基认为,生成语法的研究应当遵循自然科学研究中的“伽利略-牛顿风格”(Galilean-Newtonianstyle)。“伽利略风格”的核心内容是:人们正在构建的理论体系是确实的真理,由于存在过多的因素和各种各样的事物,现象序列往往是对于真理的某种歪曲。所以,在科学研究中,最有意义的不是考虑现象,而应寻求那些看起来确实能够给予人们深刻见解的原则。伽利略告诫人们,如果事实驳斥理论的话,那么事实可能是错误的。伽利略忽视或无视那些有悖于理论的事实。“牛顿风格”的核心内容是:在目前的科学水平下,世界本身还是不可解释的,科学研究所要做的最好的事情就是努力构建具有可解释性的理论,牛顿关注的是理论的可解释性,而不是世界本身的可解释性。科学理论不是为了满足常识理解而构建的,常识和直觉不足以理解科学的理论。牛顿摒弃那些无助于理论构建的常识和直觉。因此,“伽利略-牛顿风格”的核心内容是:人们应努力构建最好的理论,不要为干扰理论解释力的现象而分散精力,同时应认识到世界与常识直觉是不相一致的(吴刚,2006)。

生成语法的发展过程,处处体现着这种“伽利略-牛顿风格”。生成语法的目的是构建关于人类语言的理论,而不是描写语言的各种事实和现象(冯志伟,2009)。

语言学理论的构建需要语言事实作为其经验的明证。但是,采用经验明证的目的是为了更好地服务于理论的构建,生成语法所采用的经验明证一般是与理论的构建有关的那些经验明证。因此,生成语法研究的目的不是全面地、广泛地、客观地描写语言事实和现象,而是探索和发现那些在语言事实和现象后面掩藏着的本质和原则,从而构建具有可解释性的语言学理论。所以。在生成语法看来,收集和获得的语言客观事实材料越多,越不利于人们对于语言本质特征的抽象性的把握和洞察,而探索语言现象的可解释性,才是语言研究的目标之所在。GPT尽管功能强大,但是至今仍然是一个“黑箱”,不具有可解释性(Linzen,2019)。

乔姆斯基对于人类语言知识的本质、来源和使用问题的看法,与GPT对于非人类语言知识的本质、来源和使用问题的看法针锋相对,且GPT不具有可解释性,因此,乔姆斯基对于GPT持否定的态度,也就不足为奇了。

作者:冯志伟、张灯柯
原文:GPT与语言研究
来源:《外语电化教学》2023年第2期
综合编辑:应用语言学研习
微信公众平台审核:研习君

来源:再建巴别塔(公众号)
链接:https://mp.weixin.qq.com/s/Lzy54V6mfn5ye9Jph-q5oA
编辑:郑程程


694#
 楼主| 发表于 2023-6-10 21:20:13 | 只看该作者
【案例】
都是假的!美国一资深律师用ChatGPT协助办案被“坑”

中新网5月30日电 据美国有线电视新闻网(CNN)报道,纽约资深律师施瓦茨在提交的法庭文件中,使用了AI聊天机器人ChatGPT提供的案例,但其援引的很多案例都是杜撰编造的。施瓦茨已承认自己没有核实信息并为此道歉,他将面临处罚。

据报道,涉事律师施瓦茨在纽约已经执业30年。他负责代理的当事人马塔因2019年8月搭乘航班时被推车撞伤膝盖而起诉哥伦比亚航空公司,但哥航以诉讼时效已过,要求曼哈顿联邦法院撤案。

资料图:ChatGPT是由OpenAI开发的一个人工智慧聊天机器人程序。 图/视觉中国

施瓦茨在提交给法庭的文件中引用了6个类似裁决成功的案例,然而,哥伦比亚航空公司的律师4月致信法官,质疑施瓦茨所提交案例信息的真实性。纽约南区的凯文·卡斯特尔法官5月初在一份书面文件中写道,其中的6个案例的判决结果、引语等都是假的。

施瓦茨也在5月24日的一份宣誓书中承认,他曾用ChatGPT搜集案例。他询问过ChatGPT案例的真实性,ChatGPT再三确定这些案例是真实的,且在“可信的法律数据库”中可以查找到。

施瓦茨表示,在此案之前,他从未将 ChatGPT 用作法律研究来源,因此“不知道其内容可能是假的”。

施瓦茨称,他非常后悔用人工智能来补充法律研究,未来绝不会在没有核实其内容真实性的情况下这么做。

法官卡斯特则称,该情况“史无前例”,并下令6月8日就处罚施瓦茨举行听证会。
来源:中国新闻网
链接:https://www.chinanews.com/gj/2023/05-30/10016380.shtml
编辑:郑程程



695#
 楼主| 发表于 2023-6-10 21:56:36 | 只看该作者
【案例】
美媒:Meta召开全体员工会议,扎克伯格公布AI战略以安抚员工

6月9日,据彭博消息,Meta公司在完成最新一轮裁员两周后,其首席执行官马克·扎克伯格试图就公司战略对员工进行安抚,尤其是对人工智能(AI)的强调。

据Meta发言人介绍,扎克伯格在周四的全体员工会议上表示,公司的两大优先事项就是将AI纳入其各种产品和元宇宙平台。元宇宙是一个虚拟现实平台,被扎克伯格视为人们在一个遥远的未来进行在线交流的方式。扎克伯格还鼓励员工在公司计划于7月举行的生成式AI“黑客马拉松”上尝试新的想法。

据路透社此前报道,5月中旬,Meta Platforms开始实施由三部分组成的最后一轮裁员,预计将影响广告销售、营销和合作团队。这是今年3月份宣布的裁撤10000个职位计划的一部分。
免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
来源:腾讯网
链接:https://new.qq.com/rain/a/20230609A03GX400
编辑:郑程程



696#
 楼主| 发表于 2023-6-10 22:21:57 | 只看该作者
【案例】

编辑:郑程程

697#
 楼主| 发表于 2023-6-13 17:28:08 | 只看该作者
【案例】

高盛:生成式AI或影响全球3亿个工作岗位!办公室和行政工作受影响最大

(央视财经《天下财经》)高盛集团的最新报告指出,生成式人工智能可能会影响全球3亿个工作岗位。具体哪些岗位受到的影响最大?关于人工智能和人的关系,又有哪些话题值得讨论?

人工智能AI,现在被鼓吹为是继互联网、移动网络和云计算之后的下一个重大技术变革。现在人们讨论最热烈的就是生成式AI,这是指一种通过学习已有数据,生成新数据的AI算法。此前大多数AI只能分析现有数据,但是生成式AI可以创作出全新的内容,包括生成音频、代码、图片、文字、视频等各式内容。而随着生成式AI领域的军备竞赛进入白热化阶段,高盛的最新报告指出,新技术可能会让劳动力市场出现重大变化。该银行对美国和欧洲数千个职业所需要执行的任务进行了分析,结果显示,大约有三分之二的工作在一定程度上会受到人工智能自动化的影响。受影响的职业中有25%到50%的工作可以被AI替代。

在美国,办公室和行政工作受到的影响比例最大,大约有46%的工作内容都可以被自动化,其次是法律工作,为44%。另一方面,高盛的报告指出,那些从事体力或户外工作的人受到的影响较小。例如,清洁和维护部门受到AI的影响最小,只有1%的任务可以被自动化。而全球层面来看,由于体力劳动在发展中国家的就业中所占的比例更大,高盛估计,大约有五分之一的工作可以由AI完成,也就是说在大型经济体中大约有3亿个工作岗位会受到影响。


美国高盛集团首席信息官 马可·阿根蒂:像GPT这样的生成式科技可以测试开发人员写的代码,或者开发人员可以测试GPT写的代码,这样的互利共生,我认为十分重要。重要的是,我们永远不是想要机器取代开发人员,而是让机器赋能开发人员,让他们提高生产效率。
从这个角度看,AI将一部分工作自动化了之后,也让人类可以腾出时间来从事更有成效的工作。
高盛的报告估计,生成式AI可能会在未来10年将全球GDP提高7%,同期生产率将增长1.5%,生成式AI的潜在市场总额为1500亿美元。不过对于生成式AI的热潮,著名投资人查理·芒格就警示,这其中有很多炒作,而AI也并不是万能的。


美国著名投资人 查理·芒格:我认为人工智能是很重要的,但是现在关于这个话题有很多疯狂的炒作。AI不会帮我们治愈癌症,它不能做到所有我们想做的事情。并且现在关于AI,有很多胡言乱语。所以我对现在所有AI的看法是,它是好坏参半的。

AI可能会给出一个看似可信的答案,但是我们不能完全相信它回答的所有内容,因为这是AI通过研究海量数据之后,根据概率做出的一个最佳猜测,而AI并不理解这些信息。这可能带来的一个潜在后果就是虚假信息的泛滥。

圣达菲研究所的计算机科学家梅兰妮·米切尔表示,在未来很长一段时间AI还不能完全实现自主,需要人类一起参与指导。

来源:央视财经

编辑:潘洁

698#
 楼主| 发表于 2023-6-13 18:39:23 | 只看该作者
【案例】

编辑:潘洁

699#
 楼主| 发表于 2023-6-13 23:07:12 | 只看该作者
【案例】
人类与ChatGPT的共存共生:从“数字鸿沟”到“数智鸿沟”——以日本“技能重塑”计划为例
江晖

摘要 新一代生成式人工智能的出现在带来技术惊喜的同时,也引发了有关“AI代人”的讨论。这场危机是数智时代的副产物“数智鸿沟”的全面升级,个人生存和国家技术治理受到严峻挑战。在全球对技能贫困者的广泛关注下,日本政府在数字化转型人才危机应对政策的基础上提出“技能重塑”计划,作为“新资本主义”经济框架下强化人力资源投资战略的支撑性举措。日本原有的企业员工培训体系和产学官连携机制在计划施行中发挥了重要作用,也给人类与以ChatGPT为代表的AI共存共生提出了新课题:如何在定政策、设标准的总体思路下,调动企业能动性、更新技术认知并警惕“唯技术”的导向风险,日渐成为AIGC时代人类必须直面的现实。
关键词 技能重塑  数智鸿沟  AI威胁论  日本新资本主义  产学官连携
基金项目 广州市哲学社会科学“十三五”规划项目“新媒介语境下在穗留学生的社交媒体接触现状与跨文化适应度的关联性研究”(2019GZQN01)

2022年底,ChatGPT的横空出世掀起了一场关于人工智能(AI)技术的热议,随后多模态预训练大模型GPT-4的公布更是将AI神话推向新一轮高潮。但是,正如科技界在呼吁暂停AI训练的联名公开信中所言,“我们是否应该开发最终可能在数量上超过我们、智慧上超越我们的非人思想来淘汰或取代我们?”AI革命给人类社会带来的,并非只有福利,还有被取代的恐慌。


然而,即便科技界的呼吁成真,以ChatGPT为标志性的新一代AI的进化也不会就此止步,由此引发的技术革新连锁反应亦无法掌控。洞悉风险、思考对策,应该成为我们迎接AI时代的首要课题。有学者提出,人类最理想的也是唯一的选择是与AI“共存融合、共同创造、共同进化”。但当社会大多数人都沦为技能贫困者,与AI共存共生何以可能?有一类看法是调整技术方向,例如建议将以提高智慧能力为目标的AI开发转变为以提高辅助能力为目标的人工辅能(AAI)开发。这仍然是从技术控制论视角出发的考量,与此相对应,还有不少意见认为有必要在人类自身层面采取措施以应对AI可能造成的失业风险,例如加强职业规划、促进劳动力素质提升、调整未来人才培养方向, 通过大数据普及教育等方法提升全民的“大数据科技素养” 等。对此,有学者强调,政府有必要发挥更大的制度保障功能,通过失业保障和再就业培训等方式,转化替代效应。换言之,理想的应对方案所期待的是在政府支持下开展的大型技能“扶贫”行动,这也是对国家技术治理能力提出的新考验。


2022年10月,日本首相岸田文雄在所信表明演说中提出“技能重塑(Reskilling)”计划,该词随即入围了日本当年的“流行语大奖”。顾名思义,技能重塑是指为应对技术升级,主动或被动地通过学习实现技能提升。这并非岸田内阁的原创概念,世界经济会议(达沃斯论坛)从2018年起连续三年设置了“技能重塑革命平台(Reskilling Revolution Platform)”,并宣布要在2030年实现对全世界10亿人的技能重塑。随后的新冠疫情让大多数国家无暇以顾,如今,日本政府在国家政策层面予以了响应,其具体内容和实施方案值得关注。


一、技术升级:赋能与恐惧的悖论


(一)从“数字鸿沟”到“数智鸿沟”


技术赋能的悖论可以追溯到工具的发明,人类提高生产力的智慧表征却因有限的资源成为资本的象征。工具的拥有权决定了社会资源的分配权,而几次工业革命带来的技术升级令这种生产与资本之间的矛盾愈加尖锐,导致社会阶层的逐步固化。

信息技术与数字技术的普及为改变上述现象带来了一线曙光,但很快“数字鸿沟(Digital Divide)”的出现再次验证了赋能悖论的存在。而技术的发展还在不断扩大和加深数字鸿沟,有学者甚至提出,数字鸿沟或许可以缓解,却无法被完全弥合。学者认为数字鸿沟经历了三次范式转变,关注的焦点从早期的接入问题到用户素养,再到当下基于数据驱动的智能算法。就互联网的普及程度而言,主要依赖于国家的信息网络基础设施建设和用户个人的经济条件,依然涉及硬件持有成本的问题。但是对于互联网用户而言,接入网络是否就可以实现信息平等呢?事实证明,技术本身并不能成为消除信息资源不均衡的利器,因为拥有信息获取手段不等同于拥有信息处理能力,社会原始资本和教育背景等条件不同程度地限制了用户的信息使用方式。例如在新冠疫情期间,老年人在智能手机使用上出现的代际数字鸿沟问题受到了社会的广泛关注。


但技术没有为技能贫困者们放缓前进的脚步,信息社会迈向了智能社会。大数据和算法全面渗入到以平台建设为基础的数字化社会关系网络结构当中,“数智鸿沟(Digital Intelligence Divide)”由此产生。与数字鸿沟的前期阶段相比,数智鸿沟隐蔽性极高,被算法边缘化却不自知的隐性“数智难民”实际数量庞大。并且值得注意的是,在信息时代,网络技术的应用带来的是信息资源的优化,而当下对智能技术的接受与否则关乎人类社会化生存的质量与意义。


(二)从AI赋能到AI威胁


随着人工智能技术的不断升级,尤其是以ChatGPT为代表的生成式人工智能在短时间内展现其惊人的进化能力之后,赋能论者也不禁动摇:拥有“智能”的技术似乎真的离取代人类不远了。代码、文案一键生成,多模态预训练大模型GPT-4又具备了图像、视频的处理能力。于是,“谁将最先被AI取代”成为时下的热门话题。


在新冠疫情期间,类似的恐慌也曾发生在前沿科技的另一个代表——机器人身上。尽管在疫情极为紧急的情况下,抗疫机器人的使用为降低病毒传播风险、节约人力发挥了重要作用,但仍然出现了大量有关机器人将取代人类工作、威胁人类生计的负面评论。不过这种舆论主要出现在西方国家,对于劳动力严重不足的日本而言,机器代人问题并未形成广泛的共识,日本政府还在推进2023年实现每个家庭一个机器人的计划。并且在事实上,机器人目前取代的只是一些相对低级的重复性劳动。因此有学者提出有必要辩证地去看待这个问题,区分“机器代人劳作”和“机器代人要位”。


相比之下,这次因ChatGPT而起的AI威胁论却显得来势汹汹。OpenAI在最新发布的一份报告中预估,美国大约80%的劳动力会因为引入GPTs而影响到其至少10%的工作任务,其中约19%的劳动者占半数以上的工作受到影响。并且报告强调,这种影响涉及所有的工资水平的人群,高收入人群甚至面临更大的风险,受影响最大的职业包括数学家、税务师、金融分析员、网络工程师、作家和翻译等。投资银行高盛的研究报告则直接指出,生成性AI带来的自动化预计会威胁到近3亿工作岗位。可见,这场AI带来的取代革命,无论是波及范围还是程度,都远远大于机器人。而如果尚无具身的AI进一步和实体机器人相结合,又将产生怎样的劳动力变革?


“奇点”何时来临尚有争议,而由此引发的危机论已经开始打乱人类的脚步。化解这场危机,人类责无旁贷,“技能重塑”的构想在此背景下应运而生。从本质上讲,这是人类在心态和行为上的一次逆向调整,化被动为主动,以迎接数智时代带给人类社会的副产物。


二、日本政府:从DX人才战略到技能重塑计划


(一)数字化转型人才危机的应对之策


2018年7月,美国政府发表“对美国劳动者的承诺(Pledge to America’s Workers)”,并于2020年5月发布了《全国劳动力恢复行动倡议(National Workforce Recovery Call-to-Action)》。在这一系列文件中,技能(再)培训被定位为促进美国劳动力发展、恢复就业的重要手段,这也是特朗普政府为缓解不断攀升的失业率出台的具体应对措施。截至目前,约460家组织签署了相关承诺书,其中包括在美国设有海外法人的其他国家企业,例如日本的佳能、丰田,韩国三星等,计划在未来五年内为美国的学生和工人提供超过1600万个的教育和培训机会。当然,技能(再)培训需要长期的投入,无法立竿见影地解决美国社会的失业问题,但特朗普政府展示了一种新的思路,即由政府主导、企业推行的全民性技能重塑的可能性。同时,也说明职业技能失配对当今世界劳动力市场所产生的负面影响广泛而紧迫,呼吁社会乃至国家层面的关注。


日本政府对技术人才不足的焦虑也在其数字化转型(Digital Transformation,DX)的相关政策中有所体现。2018年12月,日本经济产业省发布《数字化转型推进指导手册》,明确指出日本DX发展缓慢的三个原因:一是开发或使用新系统和软件的成本巨大,二是市场需求难以掌握,三是数据和数字技术人才紧缺。2022年9月,经产省在《指导手册》的基础上发布了《数字管理准则2.0》,将“数字人才的培育与输送”补充设定为DX项目认定的基本条件之一。


可见,日本政府对于数字化转型所伴生的人才空洞危机有着清醒的认识,但应该如何制定并推进相关政策?日本政府在近三年里组织开展了一系列的研讨,这是一个从模糊到清晰、从概念到措施的摸索过程,并在政策导向上作出相应的调整,例如将人才危机应对策略提升到人才战略的高度,同时也进一步明确并扩大对“数字人才”的定义。其中,相对重要的政府文件有经产省2020年9月发布的《保持企业价值提升与人力资本研究会报告书》(俗称“人才版伊藤报告”),以及两年后发布的2.0修订版。这份报告受到较高评价,被认为充分考虑了日本的现状与文化特性,对于日本企业的人力资本经营具有较高的实践价值。具体而言,报告提出数字时代的人才战略应具备三个视角(经营战略与人才战略的联动、定量掌握As is-To be落差、企业文化的稳固发展)和五个要素(动态的人才投资、知识·经验的D&I、技能重塑与重新学习、员工向心力、不拘泥于时间和场所的工作方式),而在数字技术、创造性方面的技能提升与学习被视为促进个人和组织活性化发展所不可或缺的要素。关于这一点,报告列举了5条详细建议:


1)机构需明确掌握技能欠缺所在:企业需对领域所需技能有清晰全面的了解,通过量化方式展示质与量的需求,积极与内外进行对话沟通;

2)启用关键人物、带动技能传播:明确责任主体,不过度依赖关键人物,有计划地培养传承者,不局限于目前已有岗位,为所有人提供技能重塑机会;

3)完善技能重塑与待遇薪酬的联动机制:宣传技能重塑后的岗位提升与愿景,明确技能重塑后的薪酬水平,设置员工互助学习场所,提升技能重塑动机;

4)战略性提供外部学习机会:制定短期长期留学制度,与高等教育机构合作,提倡学习经验的共享,确保人才正常流动;

5)支持员工创业:为挑战者提供机会,重视经验价值,鼓励多领域挑战,加强经验共享。


可以看出,“人才版伊藤报告”是对企业人才战略的框架指引,而具体的方案制定者与执行主体仍然是各用人单位。这就对企业的战略眼光和能动性提出较高的要求,例如对所欠缺技能的判断在很大程度上受限于企业对数字时代的理解、接受程度及其远景规划,其结果又将左右企业在技能重塑上的投入力度。


如何定义“数字人才”的技能水平?为了回应这个普遍存在的疑问,经产省在2021年11月召开的“第六次数字时代的人才政策相关检讨会”上公布了有关DX人才技能评价的官方标准。这个评价体系根据个人所掌握数字技术水平的高低,将日本国民分为四个层次:处于最低位置的第四层次包括儿童、老年人和普通市民,需要掌握智能手机、平板和电脑的使用方法;第三层次为商业人士,分为理解计算机的构造、能处理一般程序的下层人群和理解IT导入过程和相关法律的上层人群;第二层次为“DX推动人才”;最高层次为CEO、CIO、CDXO等企业管理人群。其中,第四层次与第三层次的下层人群可以在通过小学到高等教育机构里的信息教育达到所需技能的标准,原则上第二层次和第三层次的人群都需要具备DX的基本素养,尤其是第二层次需要新政策来帮助他们提高技能。


为进一步推进数字化转型,日本政府于2021年9月成立了“数字厅”,目标是“从国民视角出发,活用数字资源,创造数字服务,以实现全体国民共享数字化福利”。作为其工作的一环,数字厅联合日本总务省、厚生劳动省等其他部门,开始推动“数字人才育成平台”的建设,主要内容包括制定数字技能水平评测标准、建设专用门户网站、完善在线教育内容、组织实践型模拟学习项目、与企业联合实施研修项目等。


总体而言,日本政府为应对数字化转型中暴露出来的数字人才危机,进行了积极的政策框架建构,从中可以看到“技能重塑”理念与计划的雏形。但是根据2022年2月经产省的一份报告显示,对于政府大力提倡的员工个人的技能提升,有一半的企业并未建立相关的支援制度,或者制度形同虚设。因此,政策落地的问题摆在日本政府面前。


(二)岸田内阁的“新资本主义”与技能重塑


“技能重塑”的概念在日本民间的普及,源于日本首相岸田文雄在2022年10月3日召开的第210次国会上的演讲。演讲中,岸田明确提出要在政策上建立对个人技能重塑的支援制度,为强化人力投资以及企业间和产业间面向新领域的劳动力流动,新增或继续加大对从技能重塑到职业转换全过程的扶持力度,政府计划将目前三年4000亿日元的人力资源预算在五年内扩大到1兆日元。2023年1月,岸田进一步补充了相关施政方针。他强调要重点扶持GX(Green Transformation,绿色转型)、DX、初创企业(Startup Company)等新兴领域的相关技能重塑,在制度上将现有的以企业为中心的在职员工培训调整为直接向个人提供帮扶,并且这项政策将覆盖所有年龄与性别。


日本政府的“技能重塑”新政可以说是在DX人力资源战略改革的延长线之上,也是岸田内阁“新资本主义”经济政策的具体支撑。岸田文雄在2021年10月就任日本第100任内阁总理大臣后,随即发表了他的这个经济构想。何“新”之有?岸田在《文艺春秋》撰文,表明其资本主义升级的核心在于对“人”的重视,资本的概念从“物”升级到“人”,因此对“人”的投资是第一要务。 “技能重塑”就被放置于“新资本主义”的框架之下(图1)。


“新资本主义”经济框架包括三大领域,即“成长战略”“分配战略”和“实现让所有人感受到人生意义的社会”。在“分配战略”中,“强化对人的投资”这一条提到了“通过技能重塑支援能力提升并促进劳动力移动”。这里的“技能重塑”主要包括三个方面的支援:一是将重点放在提升企业和产业间的劳动力移动顺畅化,加大扶持力度将非正式雇佣工转为正式员工,以及接受跳槽和兼职的求职者;二是与专家协商制定从技能重塑到跳槽的全过程支援制度(政府预算753亿日元),帮助以职业晋升为目的的在职员工实现跳槽自由;三是通过提高补助金额等手段,强化以企业为主体开展的员工技能重塑。


尽管岸田的“新资本主义”构想招致较多争议,但技能重塑这项新政涉及广泛,关系到就业晋升等基础民生问题,自发布以来受到日本社会的高度关注。日本“第一生命经济研究所”在一份政策解读报告中指出,日本政府此次提出的“技能重塑”有以下几个特点:首先,重塑的技能以市场需求为导向,并不限于数字领域,例如可能出现 “GX·技能重塑”“航空·技能重塑”;其次,不同于欧美的失业对策,日本政府的主要目的在于促进新兴领域的劳动力流动;再次,技能重塑包括企业内和企业外两种形式,前者以内部晋升或部门调动为目的,后者则指企业和产业间的职业岗位转换;最后,技能重塑的核心并非在于提供学习机会,更重要的是建构对职业晋升、劳动力流动的支援体制。


目前日本政府并未出台关于技能重塑的具体施行方案,但从2022年底开始,日本厚生劳动省等部门对现有的人力资源支援制度进行了修订,例如从2001年就开始执行的“人才开发支援助成金”制度,加入了薪酬要求、技能资格等体现“新资本主义”经济构想的要素。在2023年1月参议院全体会议上,岸田因为建议国民利用产假或育儿假进行技能重塑而被批评不够体恤民情,可见日本政府的相关措施尚未酝酿成熟,仍需保持关注。


三、日本民间:自下而上的自救举措


(一)企业先行:员工培训体系的升级


数字化进程加速了第四次产业革命,这场革命不再局限于产业结构本身,劳动力需求也发生了翻天覆地的变化。与行业内部对技术的更新要求有关,美国电信巨头AT&T从2013年就开始实施名为“Workforce2020”的员工技能培训计划,至2020年,已投入10亿美元用于10万人的技能提升,包括提供学习平台、开发在线培训课程、完善与工作技能相挂钩的待遇制度等。亚马逊也宣布要在2025年前完成对10万员工的技能重塑。


根据“reskilling”的检索结果,可以看到日语的相关内容从2021年初开始增加,在整体行动上日本要晚于欧美。但是与日本政府相比,作为用人单位的日本企业更早地捕捉到了因技能不足造成的人才危机信号,并且自发采取了一系列的应对措施。2020年9月,日本“再就业研究所”发布了一份倡议书,强调“技能重塑”的根本责任在企业,希望日本社会能够形成这个共识,呼吁企业加大平台建设和资金投入。随后,日本各大企业在原有的职工培训体系的基础上,做出不同形式、不同程度的响应。日立集团在2020年9月为约16万名员工提供了“Digital Literacy Exercises”基础教育。在向DX企业转型过程中,富士通集团提出了DX人才应该具备的五项能力——“数字化战略·组织”“数字化思考”“数字化进程”“数字技术”和“数字素养”,并计划在五年内为相关人才培养投入5千亿至6千亿日元。以非技术型员工为主的各大商社也有所行动。2020年10月,住友商社对1千名员工进行了AI基础知识在线教育,三菱商事举办了6场“IT·Digital研修”讲座,丸红商事也新开设了包括Python数据分析、机器学习等实践型内容的“DigiChalle”讲座。尽管这些培训的规模各异,对象也仅限于企业内部员工,但是大型企业的率先行动还是给日本社会释放了重要的信号,也为日本政府之后的政策制定提供了前期经验。


日本企业的快速反应并非出自偶然,而是得益于企业“在职培训(On the Job Training,OJT)”制度长久以来的机制建构和经验积累。OJT是日本企业文化的重要一环,日立等大企业在集团内部都设有专门的培训机构。但OJT的目的是让员工能够更好地承担被分配的工作,维持企业的“连续性”,因此培训内容多针对企业现有的工作岗位。与之类似的概念还有日本政府一度倡导的“循环(recurrent)教育”,即鼓励在职员工离职去大学等高等教育机构进修后再就业。而实际上,这一理念并不为日本企业所欢迎,因为除影响工作进度、跳槽风险高以外,大学教育往往以理论为主,与企业的工作实践存在较大隔阂。相比之下,技能重塑重视的是一种“非连续性”的能力开发,针对的是既有岗位上的新问题或者未来可能出现的新工作。因此,对日本企业而言,OJT目前依然是实施技能重塑的重要体制保障,但是也面临革新理念以应对技能重塑的新要求。


(二)产学官连携:资源调配与再生


日本企业的这番行动还显示了另外一个特征,即发挥了日本“产学官连携”机制(Industry-Academia-Government Collaboration)的传统优势,利用政府和学术界资源共同提升技能重塑事业的合理性、创新性和影响力。三者首先在基础技能讲座资源开发方面取得了实质性进展,尤其是共通性较高的基础技能,例如数字技术培训等;与企业各自为政进行内容和平台开发相比,资源共享能够大幅度降低成本。


这种合作始于新冠疫情期间。2020年12月,日本经产省与日本软件协会等团体联合开设了“宅家DX分级讲座”,谷歌、微软等41家企业无偿提供了102门DX基础技能在线课程。疫情结束后,该项目升级为“Manabi DX”门户网站,由独立行政法人情报处理推进机构管理,在数字厅、文部科学省、厚生劳动省和经济产业省等政府部门的支持下,116家法人提供的342门DX技能分级培训课程可供在线学习。同时,经产省还启动了相关课程的认定制度,目前115门讲座获得了“第四次产业革命技能习得讲座”认定,涉及“云计算、IoT、AI、数据科学(99门)”“网络和网络安全(10门)”和“IT应用(6门)”三大领域。


这一类课程的设置体现了“技能重塑”计划的理念,与企业员工培训显示出较大差异。首先,课程向所有人开放,学习者可以根据需要自由选择学习内容,如果满足条件,学习者还可以申请由厚生劳动省提供的教育训练支援,获得一定比例的学费补助。其次,课程在统一的分级标准下由不同领域的法人提供,避免了内容重叠又保持了一定的竞争性。其中,如“数据科学家培育课程”“AI咨询师培养训练”等由培训企业提供的课程自2018年就获得了资助,此外还有由东海国立大学机构、北九州工业高等专门学校等学校法人和日本能率协会、日本电子回路工业会等社团法人提供的课程。但是,此类课程也存在难点,对学习者的主观能动性要求较高,因此其实施效果和影响范围存在较大的不确定性。日本政府通过课程认证在一定程度上保证了内容质量,也建立了奖学金制度以降低学习门槛,在此基础上,有必要进一步完善考核-学习成果认证制度,将培训结果与(再)就业相挂钩,构建闭环式培训体系。


I-A-G合作框架下,高等教育机构也在科研成果共享和DX人才培养方面发挥了积极的作用。例如,庆应义塾大学与富士通、京都大学与博报堂、东北大学与同和控股等高校和企业获得了日本政府的专项资金资助(总额3.6亿日元),用于联合举办讲座和人才培育,内容涉及碳中和、医疗制药、数字农业、海洋数字孪生等前沿领域。又如半导体巨头TSMC在日本熊本县的子公司JASM就是一个I-A-G连携合作模式的典型案例。在日本政府、熊本县地方自治体的支持下,JASM与当地八所大学、职高等45家机构共同制定了人才培养方案,以解决约1500名技术人才的缺口难题,而熊本当地也希望借助这个人才供给链再次振兴有“硅岛”之称的日本九州地区。


2022年5月,由经产省发起、企业和大学共同参与的“未来人才会议”提出,为了培养能够应对数字化、脱碳化等职业产业新需求的未来型人才,急需对包括劳动力雇佣和教育在内的社会整体系统做出方向性的调整。可以预见,产学官连携机制将在日本社会的技能重塑普及与推动中继续扮演重要角色。

四、结语与思考:技能重塑的未来性与有限性


ChatGPT及同类大规模生成性AI的到来,引爆了人类社会长久以来隐存的技术恐惧。人类立刻启动了预警系统,暂停、封杀的呼声不绝于耳,但目前的种种迹象显示,与AI共存或许已经成为人类无可选择的局面。在AI威胁论四起之时,我们仍然可以听到一些不同的声音。最先倡导技能重塑的达沃斯论坛也强调,第四次产业革命可能会造成8000万个工作岗位的消失,但是也会带来9700万个新工作。还有意见认为ChatGPT能够取代人类的部分工作,但不会完全取代人类的职业,并且专家们在人类需要“提高能力应对变化”这一点上基本形成了共识,指出“坚持学习和实践” 是实现这个目标的唯一途径。而技能重塑似乎可以成为这种认识的具体实践策略。通过对日本相关政策、举措的梳理,我们看到了技能重塑的必要性和可行性,同时也产生新的思考:


第一,需明确技能重塑的政策性定位。技能重塑的初衷是面向陷入技能危机的人群提供培训机会,解决个人的生存问题。在目的性上,技能重塑不同于为提高个人学养的“生涯学习”和追求晋升的在职进修;在内容上,也不同于以所在单位业务领域为主的员工培训。换言之,技能重塑具有更高的普遍性、紧急性与实践要求。因此,技能重塑的施行有赖于国家层面的政策规划与扶持力度,而非个人或用人单位的能动性。于国家而言,技术研发与技能帮扶需齐头并进,在领跑前沿的同时稳健民生基石。


第二,需解决企业育人-用人困境。在年功序列制度根深蒂固的日本社会,跳槽者往往面临巨大的压力。因此,日本政府在相关政策中强调要健全从技能重塑到跳槽的全过程支援体制,以保障劳动者的利益。尽管从长远来看,劳动力市场流动顺畅于企业而言是极大利好,但仍然存在理想与实践相背离的风险。企业通过对员工的技能重塑,可以提升工作效率、降低人才招聘成本、重新开发员工的创新能力,易于形成并传承企业文化,但是同时也伴随着人才流失、人事异动的高风险。作为技能重塑政策的重要实施者,企业或将面临“育人易、用人难”的尴尬局面,致使技能重塑陷入窘境。因此,如何协调与平衡个人、企业与劳动力市场等多方权益以确保政策执行的可持续性,也是无可回避的重要课题。


第三,需与时俱进地更新“技术”认知。总体而言,目前日本的相关政策还处在DX人才战略的延长线上,仍以应对数字化转型的数字技能培训为主,但是碳中和、半导体、海洋等其他前沿领域的关键词也开始频繁出现。这提醒我们,数智时代确实给技能重塑提出了更具体的要求,但不可被AI威胁一叶障目。有必要在国家的宏观指导下,对各领域的技术分布、各类岗位的技术要求进行全景式扫描并保持更新,实现技能重塑与未来规划的自洽融合,不断升级技术认知。


第四,需活用资源、巧设标准。日本的产学官连携机制在培训内容开发、人才输送等方面展示了一种合作范式。合理的资源共享可以大幅降低培训成本,分摊企业压力,避免无谓重复,但这也可能造成多种标准林立、不同资源之间衔接不畅的现象,例如对技能等级的分类缺乏统一标准。理想的解决方案是由国家相关机构统筹规划,制定指导性标准并保留一定的解释空间,在有典可依的同时鼓励创新。并且要重视标准的多样性,重视实践,避免纸上谈兵。


第五,需警惕“唯技术”的不良导向。技能重塑是人类社会应对技能恐慌的智慧之举,但要谨防从技术恐惧走向另一个极端——技术崇拜——唯技术论英雄。在日本制定的“未来人才图景” 中,技术仅是未来型人才需要具备的56项基本技能中的一个方面,能动性、责任感、沟通协调能力等软技能(soft skill)依然是人才评价的重要标准,也是硬技能甚至是人工智能不可替代的。技术并不等同于价值创造,让技术助力价值创造才是更高智慧的体现。莫让追赶新技术所造成的疲惫感吞噬人类的创意生产。


技术仍在大踏步向前,关于人类与技术的共存方式的探讨将会继续进行下去。历史总在上演着有趣的循环,人类与人类造物之间的较量听来也甚为有趣。既然这是一个未完待续的话题,不妨跳出一决胜负的思维窠臼,尝试创造一个人类与技术可以各司其职、互促共进的未来社会发展模式。

(中山大学外国语学院硕士研究生陆江隽在本文写作过程中帮助查找相关资料,特此致谢!)


来源:阅江学刊

编辑:潘洁


700#
 楼主| 发表于 2023-6-14 15:26:50 | 只看该作者
【案例】

GPT-4最全攻略来袭!OpenAI官方发布,六个月攒下来的使用经验都在里面了

GPT-4官方使用指南炸裂登场啦!

你没听错,这次不需要自己做笔记了,OpenAI亲自帮你整理了一份。

据说汇聚了大伙儿6个月的使用经验,你、我、他的提示诀窍都融汇其中。

虽然总结下来只有六大策略,但该有的细节可绝不含糊。

不仅普通GPT-4用户可以在这份秘籍中get提示技巧,或许应用开发者也可以找到些许灵感。

网友们纷纷评论,给出了自己的“读后感”:

好有意思啊!总结来说,这些技巧的核心思想主要有两点。一是我们得写得更具体一些,给一些细节的提示。其次,对于那些复杂的任务,我们可以把它们拆分成一些小的提示来完成。



OpenAI表示,这份攻略目前仅针对GPT-4。(当然,你也可以在其它GPT模型上试试?)

赶紧瞧瞧,这份秘籍里究竟都有啥好东西。

6大干货技巧全在这策略一:写清楚指令


要知道,模型可不会“读心术”,所以你得把你的要求明明白白地写出来。

当模型输出变得太啰嗦时,你可以要求它回答简洁明了。相反地,如果输出太过简单,你可以毫不客气地要求它用专业水平来写。

如果你对GPT输出的格式不满意,那就先给它展示你期望的格式,并要求它以同样的方式输出。

总之,尽量别让GPT模型自己去猜你的意图,这样你得到的结果就更可能符合你的预期了。

实用技巧:

1、有细节才能得到更相关的答案
为了使输出和输入具有强相关性,一切重要的细节信息,都可以喂给模型。

比如你想让GPT-4:总结会议记录

就可以尽可能在表述中增加细节:

将会议记录总结成一段文字。然后编写一个Markdown列表,列出与会人员及其主要观点。最后,如果与会人员有关于下一步行动的建议,请列出来。



2、要求模型扮演特定角色
通过改变系统消息(system message),GPT-4会更容易扮演特定的角色,比在对话中提出要求的重视程度更高。
如规定它要回复一个文件,这份文件中的每个段落都要有好玩的评论:



3、用分隔符清晰标示输入的不同部分
用"""三重引号"""、<XML标记>、节标题等分隔符标记出文本的不同部分,可以更便于模型进行不同的处理。在复杂的任务中,这种标记细节就显得格外重要。



4、明确指定完成任务所需的步骤
有些任务按步骤进行效果更佳。因此,最好明确指定一系列步骤,这样模型就能更轻松地遵循这些步骤,并输出理想结果。比如在系统消息中设定按怎样的步骤进行回答。

5、提供示例
如果你想让模型输出按照一种不是能够很好描述出来的特定样式,那你就可以提供示例。如提供示例后,只需要告诉它“教我耐心”,它就会按照示例的风格,将其描述得生动形象。



6、指定所需输出长度
你还可以要求模型具体生成多少个单词、句子、段落、项目符号等。但是,在要求模型生成特定数量的单词/字的时候,它有可能不会那么精准。




策略二:提供参考文本

当涉及到深奥的话题、引用和URL等内容时,GPT模型可能会一本正经地胡说八道。

为GPT-4提供可以参考的文本,能够减少虚构性回答的出现,使回答的内容更加可靠。

实用技巧:

1、让模型参照参考资料进行回答
如果我们能够向模型提供一些和问题有关的可信信息,就可以指示它用提供的信息来组织回答。



2、让模型引用参考资料进行回答
如果在上面的对话输入中已经补充了相关信息,那么我们还可以直接要求模型在回答中引用所提供的信息。

这里要注意的是,可以通过编程,对让模型对输出中引用的部分进行验证注释。



策略三:拆分复杂任务


相比之下,GPT-4在应对复杂任务时出错率更高。

然而,我们可以采取一种巧妙的策略,将这些复杂任务重新拆解成一系列简单任务的工作流程。

这样一来,前面任务的输出就可以被用于构建后续任务的输入。

就像在软件工程中将一个复杂系统分解为一组模块化组件一样,将任务分解成多个模块,也可以让模型的表现更好。

实用技巧:

1、进行意图分类
对于需要处理不同情况的大量具有独立性的任务,可以先对这些任务进行分类。

然后,根据分类来确定所需的指令。

比如,对于客户服务应用程序,可以进行查询分类(计费、技术支持、账户管理、一般查询等)。

当用户提出:

我需要让我的互联网重新恢复正常。

根据用户查询的分类,可以锁定用户的具体诉求了,就可以向GPT-4提供一组更具体的指令,来进行下一步操作。

例如,假设用户需要在“故障排除”方面寻求帮助。

就可以设定下一步的方案:

要求用户检查路由器的所有电缆是否已连接……



2、对先前对话进行概括或筛选
由于GPT-4的对话窗口是有限制的,上下文不能太长,不能在一个对话窗口中无限进行下去。

但也不是没有解决办法。

方法之一是对先前的对话进行概括。一旦输入的文本长度达到预定的阈值,就可以触发一个查询,概括对话的一部分,被概括出来的这部分内容可以变成系统消息的一部分。

此外,可以在对话过程中就在后台对前面的对话进行概括。

另一种方法是检索先前的对话,使用基于嵌入的搜索实现高效的知识检索。

3、逐段概括长文档,并递归构建完整概述
还是文本过长的问题。

比如你要让GPT-4概括一本书,就可以使用一系列查询来概括这本书的每个部分。

然后将部分概述连接起来进行总结,汇成一个总的答案。

这个过程可以递归进行,直到整本书被概括。

但是有些部分可能要借前面部分的信息才能理解后续部分,这里有一个技巧:

在概括当前内容时,将文本中当前内容之前的内容概述一起总结进来,进行概括。

简单来说,用前面部分的“摘要”+当前部分,然后进行概括。

OpenAI之前还使用基于GPT-3训练的模型,对概括书籍的效果进行了研究。


策略四:给GPT时间“思考”


如果让你计算17乘28,你可能不会立刻知道答案,但是可以通过一些时间计算出来。

同样的道理,当GPT-4接收到问题时,它并不会花时间仔细思考,而是试图立刻给出答案,这样就可能导致推理出错。

因此,在让模型给出答案前,可以先要求它进行一系列的推理过程,帮助它通过推理来得出正确的答案。

实用技巧:

1、让模型制定解决方案
你可能有时候会发现,当我们明确指示模型在得出结论之前从基本原理出发进行推理时,我们可以获得更好的结果。

比如说,假设我们希望模型评估学生解答数学问题的方案。

最直接的方法是简单地询问模型学生的解答是否正确。



在上图中,GPT-4认为学生的方案是正确的。

但实际上学生的方案是错误的。

这时候就可以通过提示模型生成自己的解决方案,来让模型成功注意到这一点。



在生成了自己的解决方案,进行一遍推理过后,模型意识到之前学生的解决方案不正确。

2、隐藏推理过程
上面讲到了让模型进行推理,给出解决方案。

但在某些应用中,模型得出最终答案的推理过程不适合与用户共享。

比如,在作业辅导中,我们还是希望鼓励学生制定自己的解题方案,然后得出正确答案。但模型对学生解决方案的推理过程可能会向学生揭示答案。

这时候我们就需要模型进行“内心独白”策略,让模型将输出中要对用户隐藏的部分放入结构化格式中。

然后,在向用户呈现输出之前,对输出进行解析,并且仅使部分输出可见。

就像下面这个示例:

先让模型制定自己的解决方案(因为学生的有可能是错的),然后与学生的解决方案进行对比。

如果学生的答案中哪一步出错了,那就让模型针对这一步给出一点提示,而不是直接给学生完整的正确的解决方案。

如果学生还是错了,那就再进行上一步的提示。



还可以使用“查询”策略,其中除了最后一步的查询以外,所有查询的输出都对用户隐藏。

首先,我们可以要求模型自行解决问题。由于这个初始查询不需要学生的解决方案,因此可以省略掉。这也提供了额外的优势,即模型的解决方案不会受到学生解决方案偏见的影响。



接下来,我们可以让模型使用所有可用信息来评估学生解决方案的正确性。



最后,我们可以让模型使用自己的分析来构建导师的角色。

你是一名数学导师。如果学生回答有误,请以不透露答案的方式向学生进行提示。如果学生答案无误,只需给他们一个鼓励性的评论。

3、询问模型是否遗漏了内容
假设我们正在让GPT-4列出一个与特定问题相关的源文件摘录,在列出每个摘录之后,模型需要确定是继续写入下一个摘录,还是停止。

如果源文件很大,模型往往会过早地停止,未能列出所有相关的摘录。

在这种情况下,通常可以让模型进行后续查询,找到它在之前的处理中遗漏的摘录。

换而言之,模型生成的文本有可能很长,一次性生成不完,那么就可以让它进行查验,把遗漏的内容再补上。



策略五:其它工具加持


GPT-4虽然强大,但并非万能。

我们可以借助其他工具来补充GPT-4的不足之处。

比如,结合文本检索系统,或者利用代码执行引擎。

在让GPT-4回答问题时,如果有一些任务可以由其他工具更可靠、更高效地完成,那么我们可以将这些任务交给它们来完成。这样既能发挥各自的优势,又能让GPT-4发挥最佳水平。

实用技巧:

1、使用基于嵌入的搜索实现高效的知识检索
这一技巧在上文中已经有所提及。

若在模型的输入中提供额外的外部信息,有助于模型生成更好的回答。

例如,如果用户询问关于一部特定电影的问题,将关于电影的信息(例如演员、导演等)添加到模型的输入中可能会很有用。

嵌入可用于实现高效的知识检索,可以在模型运行时动态地将相关信息添加到模型的输入中。

文本嵌入是一种可以衡量文本字符串相关性的向量。相似或相关的字符串将比不相关的字符串更紧密地结合在一起。加上快速向量搜索算法的存在,意味着可以使用嵌入来实现高效的知识检索。

特别的是,文本语料库可以分成多个部分,每个部分可以进行嵌入和存储。然后,给定一个查询,可以进行向量搜索以找到与查询最相关的语料库中的嵌入文本部分。

2、使用代码执行进行更准确的计算或调用外部API
不能仅依靠模型自身进行准确地计算。

如果需要,可以指示模型编写和运行代码,而不是进行自主计算。

可以指示模型将要运行的代码放入指定的格式中。在生成输出后,可以提取和运行代码。生成输出后,可以提取并运行代码。最后,如果需要,代码执行引擎(即Python解释器)的输出可以作为下一个输入。



代码执行的另一个很好的应用场景是调用外部API。

如果将API的正确使用方式传达给模型,它可以编写使用该API的代码。

可以通过向模型演示文档和/或代码示例来指导模型如何使用API。



在这里OpenAI提出了特别警告⚠️:

执行模型生成的代码在本质上来说并不安全,任何试图执行此操作的应用程序中都应采取预防措施。特别是,需要一个沙盒代码执行环境来限制不受信任的代码可能造成的危害。

策略六:系统地测试更改




有时候很难确定一个改变是会让系统变得更好还是更差。

通过观察一些例子有可能会看出哪个更好,但是在样本数量较少的情况下,很难区分是真的得到了改进,还是只是随机运气。

也许这个“改变”能够提升某些输入的效果,但却会降低其它输入的效果。

而评估程序(evaluation procedures,or “evals”)对于优化系统设计来说非常有用。好的评估有以下几个特点:

1)代表现实世界的用法(或至少是多种用法)

2)包含许多测试用例,可以获得更大的统计功效(参见下表)

3)易于自动化或重复



对输出的评估可以是由计算机进行评估、人工评估,或者两者结合进行。计算机可以使用客观标准自动评估,也可以使用一些主观或模糊的标准,比如说用模型来评估模型。

OpenAI提供了一个开源软件框架——OpenAI Evals,提供了创建自动评估的工具。

当存在一系列质量同样高的输出时,基于模型的评估就会很有用。

实用技巧:

1、参考黄金标准答案评估模型输出
假设已知问题的正确答案应参考一组特定的已知事实。

然后,我们可以询问模型答案中包含多少必需的事实。

例如,使用下面这个系统消息,

给出必要的既定事实:

尼尔·阿姆斯特朗是第一个在月球上行走的人。

尼尔·阿姆斯特朗第一次登上月球的日期是1969年7月21日。

如果答案中包含既定给出的事实,模型会回答“是”。反之,模型会回答“否”,最后让模型统计有多少“是”的答案:



下面是包含两点既定事实的示例输入(既有事件,又有时间):



仅满足一个既定事实的示例输入(没有时间):



而下面这个示例输入,不包含任何一个既定事实:



这种基于模型的评估方法有许多可能的变化形式,需要跟踪候选答案与标准答案之间的重叠程度,并追踪候选答案是否与标准答案的有相矛盾的地方。



比如下面的这个示例输入,其中包含不合标准的答案,但与专家答案(标准答案)并不矛盾:



下面是这个示例输入,其答案与专家答案直接矛盾(认为尼尔·阿姆斯特朗是第二个在月球上行走的人):


最后一个是带有正确答案的示例输入,该输入还提供了比必要内容更多的详细信息(时间精确到了02:56,并指出了这是人类历史上的一项不朽成就):



来源:Microsoft资讯
编辑:潘洁

b9.png (147.32 KB, 下载次数: 50)

b9.png

b8.png (131.4 KB, 下载次数: 50)

b8.png

b7.png (111.14 KB, 下载次数: 46)

b7.png

b6.png (178.09 KB, 下载次数: 49)

b6.png

b5.png (69.84 KB, 下载次数: 50)

b5.png

b4.png (56.81 KB, 下载次数: 50)

b4.png

b3.png (65.56 KB, 下载次数: 49)

b3.png

b2.png (220.42 KB, 下载次数: 46)

b2.png

b1.png (33.78 KB, 下载次数: 49)

b1.png

640 (6).png (13.08 KB, 下载次数: 50)

640 (6).png

a9.png (89.78 KB, 下载次数: 50)

a9.png

a8.png (72.28 KB, 下载次数: 53)

a8.png

640 (5).png (8.37 KB, 下载次数: 51)

640 (5).png

a7.png (242.21 KB, 下载次数: 54)

a7.png

a6.png (81.59 KB, 下载次数: 53)

a6.png

a5.png (19.75 KB, 下载次数: 46)

a5.png

a4.png (235.83 KB, 下载次数: 54)

a4.png

a3.png (124.82 KB, 下载次数: 51)

a3.png

a2.png (210.05 KB, 下载次数: 48)

a2.png

4.png (9.8 KB, 下载次数: 43)

4.png

a1.png (320.44 KB, 下载次数: 53)

a1.png

c2.png (162.81 KB, 下载次数: 49)

c2.png

c1.png (75.22 KB, 下载次数: 49)

c1.png

640 (4).png (17.12 KB, 下载次数: 47)

640 (4).png

640.jpg (6.78 KB, 下载次数: 50)

640.jpg

chat6.png (36.07 KB, 下载次数: 49)

chat6.png

chat5.png (93.89 KB, 下载次数: 47)

chat5.png

chat4.png (100.45 KB, 下载次数: 49)

chat4.png

640 (3).png (33.32 KB, 下载次数: 47)

640 (3).png

chta2.png (92.26 KB, 下载次数: 50)

chta2.png

chat.png (196.95 KB, 下载次数: 48)

chat.png

640 (2).png (9.62 KB, 下载次数: 51)

640 (2).png

640 (1).png (57.91 KB, 下载次数: 47)

640 (1).png

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表