传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
701#
 楼主| 发表于 2023-6-5 23:59:35 | 只看该作者
【案例】
GPT-4等大模型迎来进化转折点:不只是使用,还会自己制作工具了

图片来源:Unsplash

在人类的进化史中,制作和使用工具是关键的转折点。如今,在 Google Deepmind 等最新的研究中,大语言模型也具备了相似的能力,进化成了工具制作者。
机器之心报道
编辑:杜伟、梓文
我们知道,大语言模型(LLM)在广泛的 NLP 任务中已经表现出卓越的能力,甚至展现出能够实现通用人工智能某些方面的良好迹象。此外,与人类的智能进化类似,LLM 在最近的研究中被揭示出使用外部工具从而提升解决问题能力及效率的潜力。
需要注意的是,这些工具使用方法的适用性很大程度程度上取决于是否有合适的工具。从人类进化的里程碑可以发现,人类进化的关键转折点是人类有能力制造工具来解决出现的困难。
受到制造工具对人类重要性的启发,在本文中,Google Deepmind、普林斯顿和斯坦福大学的研究者将这种「进化」的概念应用于 LLM 领域,进行了初步探索。他们提出了一个闭环框架,在这个框架中 LLM 作为工具制作者(LLMs As Tool Makers ,LATM),使其能够生成自己的可重新使用的工具来处理新任务。

该方法包括两个关键阶段:
  • 工具制作:LLM 作为工具制作者,专门为给定的任务设计工具(作为 Python 函数实现);
  • 工具使用:另一个 LLM 作为工具使用者,它可以与工具制作者相同,应用工具来处理新的请求。
两阶段设计允许 LATM 在每个阶段将作业分配给最合适的 LLM。一方面,需要高度能力的工具制造过程可以分配给一个功能强大且资源密集型的模型(例如 GPT-4)。另一方面,相对简单的使用工具过程,可以分配给轻量、经济高效的模型(例如 GPT-3.5 Turbo)。这种方法不仅增强了 LLM 解决问题的能力,并能够显著降低处理一系列任务的平均计算成本。
LATM 的闭环框架

由于工具制作过程只需要对给定的功能执行一次,因此生成的工具可以在不同的任务实例中反复使用。这种方法为处理复杂任务开拓了可扩展、成本高效的解决方案。例如,假定一个任务,用户要求 LLM 安排一个适合每个人的会议(例如在电子邮件对话中)。涉及复杂算术推理的任务对于像 GPT-3.5 Turbo 这样的轻量级模型来说是艰巨的挑战。相比之下,更强大的模型(例如 GPT-4)虽然推理成本要高得多,但是能够找到正确的解决方案。
LATM 能够克服这种困难,是因为它将强大但昂贵的模型当作工具制作者,并将工具传递给工具使用者 —— 经济型模型进行使用。工具制作完成后,轻量级工具使用者可以用它来高效、高性能地解决任务。
本文的实验能够验证这种方法在复杂的推理任务上(包括几个具有挑战性的 Big-Bench 任务)的有效性。结果表明,LATM 可以达到与资源密集型模型相当的性能,同时具有更高的成本效益。这种新颖的 LLM 方法,模仿了人类在创建和使用工具方面的进化飞跃,为开辟使用 LLM 生成的工具的社区提供了无限可能。

方法概览:LLM as Tool Maker (LATM)
制作新工具并重复使用
在 LATM 范式中,主要过程可以分为两个阶段:工具制作和工具使用。每个阶段都利用不同类型的大语言模型(LLM)来平衡性能和成本效率。
对于工具制作(Tool Making),该阶段采用强大但成本更高昂的模型(例如 GPT-4)作为工具制作者。工具制作者通过特定任务的一些演示来创建通用和可复用的工具(作为 Python 函数实现)。该阶段又可以进一步分为以下三个子阶段:
首先是工具提出(Tool Proposing)。在这一阶段,工具制作者尝试生成一个 Python 函数,用以解决给定任务的演示。该过程遵循「实例编程」(PbE)范式,其中提供了几个具体的演示,并且需要模型编写产生演示行为的程序。在实验中,研究者在该阶段使用了 3 个演示。如果提出的工具无法执行或者遇到错误,工具制作者会将错误信息附加到历史记录中并进行另一次尝试。
其次是工具验证(Tool Verification)。在这一阶段,工具制作者使用验证样本生成单元测试,然后在提出的工具中执行这些测试。研究者在实验中使用了 3 个验证样本。如果工具未能通过任何这些测试,工具制作者会在其历史记录中记录下错误,并尝试在单元测试中纠正问题(此过程只会纠正单元测试部分的函数调用,而不会纠正功能)。LLM 的自调试能力已在最近的研究中得到有效证明,然而在 LATM pipeline 中,验证阶段的用途稍有不同。该阶段有两个关键作用:一是提供示例来演示如何将自然语言问题转换为函数调用;二是验证工具的可靠性,使整个过程充分自动化。
最后是工具封装(Tool Wrapping)。如果执行或验证失败超过了预设阈值,则工具封装阶段被视为失败。相反,工具制作者准备好为工具使用者提供封装后的工具。该步骤涉及封装函数代码,并演示如何将一个任务转换为函数调用。这些演示从工具验证步骤中提取,从而将问题转换为单元测试。随后最终产品可供工具使用者使用。
完成了工具制作,接下来是工具使用(Tool Using)了。该阶段涉及一个轻量级且具有成本效益的模型(例如 GPT-3.5 Turbo),用作工具使用者。工具使用者的角色是利用验证后的工具来解决任务的不同实例。该阶段的 prompt 是封装工具,它包含了解决任务的函数和如何将任务查询转换为函数调用的演示。通过演示,工具使用者能够以一种上下文学习的方式来生成需要的函数调用,然后执行函数调用以解决任务。或者可以应用后处理来转换输出以匹配任务所需的格式,例如多项选择题的选项。
总的来说,工具制作阶段包括工具提出、验证和封装,每类任务只需执行一次,然后可以将生成的工具重复用于该任务的所有实例。与单独使用强大的模型相比,这使得 LATM 的效率和成本效益显著增加。此外,Python 函数时一种更通用的思维链,增强了整体效用和灵活性,因此可用于解决涉及算法推理能力的问题。
LATM 的 pipeline

下图 3 展示了方法的具体示例,说明工具制作者如何通过生成工具(Python 函数)来解决 BigBench 的逻辑推导任务,以及工具使用者如何使用工具。

使用 Dispatcher 处理流数据
在真实世界场景中,任务实例通常按顺序出现。为了适应这种数据流,研究者引入了第三个 LLM 即 dispatcher,它确定是让工具使用者还是工具制作者参与每个传入的任务。dispatcher 模块与现有工作中的工具选择功能有相似之处,然后在识别现有工具无法解决的新任务以及让工具制作者为这些任务生成新工具方面具有独到的能力。
具体而言,dispatcher 保留了工具制作者产生的现有工具的记录。当接收到新的任务实例时,dispatcher 首先确定是否有适合手头任务的工具。如果有合适的工具,则将实例确定为新任务,并利用强大的模型解决该实例,甚至可以调用人工标注器。随后缓存新任务的实例,直到缓存实例足够工具制作者制作新工具。具体的工作流程如下图 4 所示。

实验结果

本文在来自不同领域的 6 个数据集上评估了所提出的方法,包括 Logical Deduction、Tracking Shuffled Objects、Dyck Language、Word Sorting、 Chinese Remainder Theorem 和 Scheduling Meeting。
在工具制作阶段,研究者将温度参数设置为 0.3,以在生成过程中引入随机性,并在必要时允许重试。在这个阶段,实验使用了带有 ChatCompletion API 的 GPT-4 和 GPT-3.5 Turbo 模型进行,并不断将响应附加进聊天记录当中,来创造交互体验。
在工具使用阶段,LLM API 调用仅进行一次,并使用标准完成 API 对 gpt -3 型模型进行消融研究。当使用工具时,温度参数始终为设置为 0.0。在工具提出和工具验证阶段的最大重试次数设置为 3。
工具制作的有效性
据实验观察,GPT-4 作为工具制作者时,常能设计出合适的算法来解决任务。例如下表 1 中,工具制作者搜索所有排列,并选择满足给定约束的正确排列来创建代码,解决逻辑演绎任务。在实验中,工具验证阶段主要用于演示如何将自然语言问题转换为函数调用。在 60 次试验中,只观察到 2 例工具制作者可以在错误消息的指导下纠正其错误。

LATM 提升轻量级 LLM 的性能
下表 2 比较了思维链提示与 LATM 的性能。实验使用 GPT-4 作为工具制作者为这六项任务生成工具,并评估 GPT-3.5 Turbo 和 GPT-4 作为工具使用者的性能。结果表明,在该工具的帮助下,像 GPT-3.5 Turbo 这样的轻量级模型可以达到与 GPT-4 相当的性能,显著优于 CoT 提示。此外与使用 GPT-4 相比,使用 GPT-3.5 Turbo 的平均成本要低得多。
这突出了 LATM 在增强轻量级模型的性能方面的有效性。因此,使用 LATM 相较于安规的模型来说,能够降低成本。

将 LATM 扩展为具有混合任务的流设置
将 LATM 扩展为流设置后,流设置中不同任务的实例可以实时到达。在这种情况下,需要另一个模型调度程序,来确定实例所属的任务。实验使用 GPT-3.5 Turbo 作为调度器,并评估其能力:
  • 识别现有工具来解决传入实例;
  • 为未知任务的实例请求工具制作
结果表明,调度程序可以有效地识别现有的工具,并为未知任务请求工具制作,但它不会大幅降低性能。这表明 LATM 可以平滑地扩展到具有混合任务的流设置。
消融实验
首先是工具制作语言模型所需的能力。研究者调研了工具制作阶段所用语言模型的能力要求。一般来说,更强大且成本更高昂的模型越能达到目的,这是因为该阶段中每个任务只执行一次,高准确度对于有效地将工具传递给更小的模型至关重要。
其次是工具使用语言模型所需的能力。研究者调研了工具使用模型的能力要求,具体结果如下表 4 所示,GPT-3.5 Turbo 在所有测试的模型中实现了最佳的性能与成本平衡。
最后是思维链(CoT)作为工具没有帮助。除了 LATM 之外,研究者还调研了是否可以通过重用更大模型和更小模型(类似于 LATM pipeline)的思维链来提高性能。具体结果如下表 5 所示,使用大模型的 CoT 与人类编写的 CoT 具有相似甚至更差的性能,这要比 LATM 差得多。

来源:机器之心

编辑:郑程程

702#
 楼主| 发表于 2023-6-7 20:18:36 | 只看该作者
【案例】
AI会让媒体人失业?你多虑了......
编辑:巩霞 李忆林子
来源:综合自新京报、腾讯媒体研究院、青年记者杂志等


AI持续刷屏。
AI能写诗、AI能作画,AI还能写论文。
“AI克隆人”让粉丝花30元就可以和网红明星视频聊天,“AI孙燕姿”让无数孙燕姿的粉丝沉迷于翻唱作品......
在AI技术发展的浪潮来临之际,对于任何领域的原创作者来说,“被替代”的忧虑若隐若现。
于是,一个话题被频频提及:AI会取代新闻媒体人吗?
甚至有人开始给媒体人制造焦虑。
此时,不妨先回答两个问题:
一,AI可以替代媒体人去新闻现场,采访到第一手的、包括图文、视频、音频在内的新闻素材吗?
二,除了天气预报、股市行情之类的简单资讯,通过包括ChatGPT在内的工具“东拼西凑”出来的稿件,哪家权威媒体敢直接发表吗?
答案是很明确的。
技术有它的进步之处,媒体人更有自身的价值,完全不用焦虑。

01
媒体人面对AI的态度
对于方兴未艾的AI技术在传媒行业的应用,业内人士在整体上持积极态度。
《传媒》杂志公众号发表的文章《强化传媒与科技深度融合的风险防范与伦理建设》认为:
传媒行业是最新事物的第一感知者,也应该是最新技术的最早拥抱者。
传媒行业一定要运用好以ChatGPT为代表的现代传播技术,助推媒体与科技持续深度融合,提升用户体验和媒体影响力。在不久的将来,让ChatGPT技术成为推动产业升级和变革的重要力量。
面对新技术,媒体人完全不用回避,而应思考如何利用好新技术提高工作效率,让工作变得更完善,实现“人机协同”。

02
媒体人使用AI的四种方式
越来越多的新闻机构开始使用人工智能技术来辅助记者的工作,以提高效率、降低成本、改善内容质量。
腾讯媒体研究院在《新闻业新变革:AI如何改变记者的工作方式?》一文中总结了媒体人的四种AI使用场景:
1.AI改写资料搜索方式
在过去,记者需要翻阅海量的纸质材料,寻找自己所需要的信息。而随着人工智能技术的快速发展,资料和数据的收集方式也在不断演变。
首先,AI搜索可以通过自然语言处理和机器学习等技术,对用户的搜索需求进行更加准确的理解和分析,从而提供愈发精准和有针对性的搜索结果。记者可以通过输入关键词或问题,快速获取到与其相关的新闻报道、文献资料等信息,从而更好地开展采访和报道工作。
其次,AI搜索可以通过大数据分析和语义分析等技术,对海量的数据和信息进行快速的筛选和过滤,帮助记者挖掘有价值的内容。这使记者得以大幅提升获取有效信息的效率,并将这些信息用于支持自己的报道和分析。
最后,AI搜索可以通过个性化推荐和自动化整理等技术,为记者提供更加智能和便捷的信息服务。记者可以根据自己的偏好和习惯,定制化自己的搜索和推荐设置,从而更好地满足自己的信息需求和工作要求。
2.AI支持智能信息整理
在新闻采写和报道工作中,通过对新闻资料的细致归类和深入分析,记者们可以更加准确地了解事件的来龙去脉、各方利益关系、相关人员的观点态度等重要信息,从而发现隐藏的信息和问题,挖掘出更有价值的新闻线索。
过去,这些细致繁琐的整理工作会消耗记者大量时间和心力,但现在凭借AI技术,记者可以更加轻松地对新闻资料进行系统整理和分析,更好地把握事件背后的故事。
例如,Pinpoint是Google Journalist Studio推出的一款基于AI技术的海量资料存储分析工具。借助光学字符识别和语音转文本技术,Pinpoint可以完成搜索pdf、照片、电子邮件和音频文件的任务。不仅如此,Pinpoint 还具备语义分析的能力,能够根据用户提供的关键词和语义,自动搜索相关的文档并将其结构化。在Pinpoint的辅助下,记者可以更敏捷地从信息海洋中捕捉和提炼出相关的主题和要点,避免疏漏,从而提高新闻报道的深度和效率。

▲资料图。图/IC photo
3.AI助力自动化新闻创作
AI写作工具已经成为自动化新闻创作的重要工具之一。这些工具利用自然语言处理、机器学习等技术,可以帮助记者自动生成新闻报道、摘要、标题等内容。相较于传统的新闻创作方式,利用AI写作工具可以提升工作效率,节省人力成本,并增强新闻报道的准确性和整体效果。
一方面,AI技术可以帮助记者优化内容质量,使得文章更加易读、易懂。例如,AI驱动的文本编辑器Hemingway Editor可以帮助记者改进文章的语言表达、结构和逻辑,检查文章中的复杂句子、过度使用的形容词和副词等问题,并提供简化建议。
另一方面,AI技术可以帮助记者收集和分析大量数据,提供数据支持,并生成相应的内容稿件。这大大缩短了内容生产的周期,并使得记者的报道更加有说服力。以Automated Insights 开发的Wordsmith为例,它可以自动将数据和信息转换成自然语言的文本。记者通过简单地输入数据,然后选择适当的模板和规则,就可以生成符合要求的自然语言文本。该工具已经被多家媒体公司使用,如福布斯和美联社。
总之,目前能够利用AI辅助记者进行内容写作的工具正逐渐丰富,记者们可以根据自己的需求和实际情况选择适合自己的工具。AI工具诚然为记者乃至新闻行业带来许多便利,但同时腾讯媒体研究院也提醒人们仍需保持警觉,避免过度依赖AI技术,保持自己的专业性和判断力。
4.AI图片与视频创作工具赋能多媒体生产
AI技术可以在图像识别、美化和编辑以及简化视频编辑过程中发挥至关重要的作用,帮助记者快速完成图片内容的处理,简化视频编辑过程并提高制作质量,从而降低人力成本,提高媒体生产的效率。

03
新闻伦理还得靠媒体人把关

媒体人在拥抱AI技术时,要注意什么?
“专业、理性地对待人工智能”虽已基本形成共识,但我们并不能满足于止步在这一句空洞的诺言。
青年记者杂志公众号在《面对AGI,媒体能做什么》中所点明,AI的未来是天使还是魔鬼,如何合理地、科学地、有节制地使用AI,平衡创新与风险,是媒体必须直面的。
毕竟,媒体行业、新闻报道是一个特殊的领域,依赖AI处理海量数据和复杂问题,提供更高效、更优质、更精准的内容服务的同时,更需要考虑新闻伦理、内容安全、虚假数据训练等问题。
如果AI系统被用于生成虚假信息或误导性内容,是否会对公众产生负面影响?如果AI的训练数据受到污染或具有歧视性,是否会产生不公平的带有偏见的报道?如果为了某一政治目的人为干预AI系统的训练学习,是否会产生难以估量的后果?
由此可见,AI并非全知全能,没有人对AI的严格把关和监督,新闻业将可能面临媒体伦理失范的沉重后果。捍卫大众新闻传媒作为社会公器的角色,确保新闻的真实性和客观性,尽可能规避潜在的法律与道德问题,都是我们在与技术共生的新时代所肩负的责任。
南方传媒研究《人机协同:ChatGPT在新闻领域的应用前景分析》明确断言:没有任何算法可以代替新闻工作者的新闻判断。
人工智能生产已经在逐步打破传统的新闻观念和新闻生产流程,驱动着媒体生态格局发生变动。
新闻工作者和新闻行业面对技术带来的由外而内的变化,需要坚持技术的工具属性,坚信技术向善的方向是由人来保持的,没有任何算法可以代替新闻工作者的新闻判断。
拥抱人工智能只是为新闻工作者提供一种以不同于以往的方式去完成重复性任务的可能性,将新闻工作者从繁碎的重复性工作中解放出来,投入到更需要人的情感和价值观的工作中。

来源:新京报传媒研究(公众号)
链接:https://mp.weixin.qq.com/s/-Ctmx5Y0EEZcGg0R28Qajg
编辑:郑程程

703#
 楼主| 发表于 2023-6-9 21:30:19 | 只看该作者
【案例】
ChatGPT生成内容,版权属于谁?

近期,ChatGPT引发新一轮科技浪潮,国内外厂商都开始积极布局生成式人工智能技术领域。ChatGPT的能力范围包括生成定制诗歌、游戏剧本、计算机代码等。那么,ChapGPT生成的内容,版权属于谁呢?

其实,人工智能生成内容已经不是一件新鲜的事儿。国外早在1983年就有机器人雷克特(Racter)生成了诗集《有着半人工胡子的警察》(The Policeman’s Beard is Half Constructed),国内也有微软开发的人工智能“诗人”小冰,生成诗集《阳光失了玻璃窗》,在图书市场中流通,还有人工智能编曲、作画、制作视频等。无论是文学作品还是艺术作品,在我国与其他国家均受到版权法保护。但是版权法通常仅保护自然人作者,部分情况下法人在雇佣合同或委托合同等法律规定的情形中也可以获得作品的版权。然而,人工智能既不是法律意义上的自然人,也不是法人,难以获得作者资格。

关于非人类作者的问题,美国“猴子自拍案”是一个经典案例。该案中摄影师斯莱特的相机被一只黑冠猕猴抢走,这只猕猴被相机快门的声音所吸引而摆弄快门拍了数百张照片。其中一张类似于自拍的相片冲印出来之后效果非常好,相关主体就该照片的版权问题产生了争议。法院最后判定猴子不是版权法意义上的作者,因此这些照片不受版权法保护。《美国版权局实践纲要(第3版)》更新后,在不符合人类作者要求的作品举例中,第一个例子就是“猴子拍的照片”。该案否定了人类以外的主体担任作者进而享有作品版权的资格。

我国版权保护制度同样不认可动物或者人工智能成为作品的作者。著作权法规定“创作作品的公民是作者。由法人或者其他组织主持,代表法人或者其他组织意志创作,并由法人或者其他组织承担责任的作品,法人或者其他组织视为作者”。也就是说,只有公民、法人或其他组织是我国版权法所承认的作者。著作权法还规定“著作权属于作者,本法另有规定的除外”。人工智能生成内容没有符合资格的作者,因此也无法界定合适的权利所有人。虽然法律规定的特殊情形,如雇佣作品、委托作品以及其他合同关系中,作者以外的主体也有可能获得作品的版权,但人工智能不具有民事主体资格,不能作为合同当事方签订合同,因此也不能成为这些法定情形中的版权所有人。

根据现行著作权法,人工智能没有资格担任ChatGPT生成内容的作者,因此也无法享有ChatGPT生成内容的著作权。然而,人工智能生成内容仍可能存在法律保护的需求。例如,密歇根大学一名学生利用ChatGPT写课程论文,获得全班最高分,引发全网热议;微软小冰的诗集出版后,也有一些诗文未经授权被复制并在网络空间中传播。国外版权实践中,甚至存在人工智能生成作品在版权局登记注册的案例。美国版权局网站上可以查询到《有着半人工胡子的警察》这本诗集的版权登记信息,其中作品权利所有者为研发人员威廉·张伯伦和诗集插画师琼·霍尔,作者则是生成诗歌作品的人工智能雷克特。版权局不对注册信息中作者名字是否为真实自然人进行审查,因此以人工智能为作者的注册申请得以审核通过,但是权利效力尚待质疑。后续人工智能生成内容在版权登记中大部分规避了这个问题。例如,2013年麻省理工学院的尼克·蒙特福特(Nick Montfort)教授利用自己编写的程序创作了小说《世界时钟》(World Clock)并出版,作者和版权所有人均标注为蒙特福特教授本人。

我国图书市场中流通的微软小冰诗集《阳光失了玻璃窗》扉页也印有“版权所有,侵权必究”类似的版权声明,作者署名为“小冰”。版权所有人信息未予注明,按通行做法应该是由“诗人”小冰的研发者原始取得版权,然后将发行权、复制权等财产性权利转让给图书出版公司。根据上文的分析,“小冰”不符合我国著作权法关于作者为公民的要求。那么“小冰”的研发者能否作为实际作者成为这本诗集的版权所有人呢?这个问题的关键在于其有没有实际参与诗文内容的创作。我国著作权法实施条例第三条指出:“著作权法所称创作,是指直接产生文学、艺术和科学作品的智力活动。”在创作的过程中,研发者为人工智能提供信息数据库,人工智能通过深度学习技术对数据库中作品的语言风格、语法、意向元素等内容进行学习,生成与其他作品不同的诗文后重复修改。研发者不参与学习与修改的过程,只是在特定节点,如100次、500次、10000次的时候对作品的质量进行评价,判断是否能够成为一篇合格的诗文作品。可见,研发者在人工智能创作过程中更多的是起到监督作用,而没有直接产生文字内容,不属于作品的作者,因而也无法获得作品的版权。

根据上述分析,当人工智能利用深度学习等技术创作出作品时,人工智能本身与人工智能研发者均不是符合法律要求的作者。即使作品满足版权法要求的原创性要求,人工智能作品没有合格的版权所有人,原则上应该进入公共领域。当然,也不排除部分国家可能会修改相关法律,扩展作者、版权主体范围,或者赋予人工智能以法律人格。这样人工智能就有可能成为作品的权利主体,或者作为合同主体通过签订合同来约定权利归属。从激励创新的角度而言,如果能赋予人工智能作品以版权保护,使得人工智能研发者或监督者获得一定程度经济回报,则可实现该领域技术的进一步创新与进步。版权保护体系比直接付诸人工智能作品于公共领域更能促进创新思想的传播与社会整体福利的提升。更何况人工智能作品是利用创新性人工智能技术来生成创新性作品,实现了双重创新。
(注:本文图片来源于网络,如有侵权请告知删除)
来源:法制日报
编辑:管佩钰(学会新媒体工作委员会)
审核:彭熙、李劲网络,如有侵权请告知删除)

来源:编辑大碗茶(公众号)
链接:https://mp.weixin.qq.com/s/0VzGwVkW3wB8wqrIKqV3ZQ
编辑:郑程程


704#
 楼主| 发表于 2023-6-9 21:41:33 | 只看该作者
【案例】
冯志伟等:为何乔姆斯基对ChatGPT持否定态度?
本文比较了乔姆斯基关于语言知识的本质、来源和使用的理论与 GPT 的不同, 说明了GPT没有可解释性。

2023年3月8日著名语言学家乔姆斯基与罗伯茨(Ian Roberts)、瓦图穆尔(Jeffrey Watmull)共同在《纽约时报》发表了题为“ChatGPT的虚假承诺”的文章。他们强调,人工智能和人类在思考方式、学习语言与生成解释的能力,以及道德思考方面有着极大的差异,并提醒读者如果ChatGPT式机器学习程序继续主导人工智能领域,那么人类的科学水平以及道德标准都可能因此降低。乔姆斯基还认为,ChatGPT使用的大语言模型,实质上是一种剽窃。

乔姆斯基对于GPT持否定态度,这是不足为奇的。在乔姆斯基生成语法(Generative Grammar)的发展过程中,赋予生成语法以生命活力的是生成语法的语言哲学理论。其中,最为重要的是关于人类知识的本质、来源和使用问题(Chomsky,1995)。乔姆斯基把语言知识的本质问题叫做“洪堡特问题”(Humboldt's problem)。

德国学者洪堡特(W. Humboldt)曾经提出“语言绝不是产品(Ergon),而是一种创造性活动(Energeria)”,语言实际上是心智不断重复的活动,它使音节得以成为思想的表达。人类语言知识的本质就是语言知识如何构成的问题,其核心是洪堡特指出的“有限手段的无限使用”。语言知识的本质在于人类成员的心智/大脑(mind/brain)中,存在着一套语言认知系统,这样的认知系统表现为某种数量有限原则和规则体系。高度抽象的语法规则构成了语言应用所需要的语言知识,由于人们不能自觉地意识到这些抽象的语法规则,乔姆斯基主张,这些语言知识是一些不言而喻的或者无意识的知识.

乔姆斯基主张把语言知识和语言的使用能力区分开来。两个人拥有同一语言的知识,他们在发音、词汇知识、对于句子结构的掌握等方面是一样的。但是,这两个人可能在语言使用的能力方面表现得非常不同。因此,语言知识和语言能力是两个不同的概念。语言能力可以改进,而语言知识则保持不变。语言能力可以损伤或者消失,而人们并不至于失去语言知识。所以,语言知识是内在于心智的特征和表现,语言能力是外在行为的表现。生成语法研究的是语言的心智知识,而不是语言的行为能力。语言知识体现为存在于心智/大脑中的认知系统。

GPT采用的数据驱动的“端到端嵌入”技术对于非人类的自然语言行为是行之有效的,但是,这种技术是处于人类的心智之外的,根本不存在“有限手段的无限使用”问题,与乔姆斯基对于语言知识本质的认识是迥然不同的。

语言知识的来源问题,是西方哲学中的“柏拉图问题”(Plato’s problem)的一个特例。“柏拉图问题”是:我们可以得到的经验明证是如此贫乏,而我们是怎样获得如此丰富和具体明确的知识、如此复杂的信念和理智系统呢?人与世界的接触是那么短暂、狭隘、有限,为什么能知道那么多的事情呢?刺激的贫乏(stimulus poverty)和所获得的知识之间为什么会存在如此巨大的差异呢?(杨小璐,2004)与“柏拉图问题”相应,人类语言知识的来源问题是:为什么人类儿童在较少直接语言经验的情况下,能够快速一致地学会语言?乔姆斯基认为,在人类成员的心智/大脑中存在着由生物遗传而天赋决定的认知机制系统。在适当的经验引发或一定的经验环境下,这些认知系统得以正常地生长和成熟。这些认知系统叫做“心智器官”(mental organs)。决定构成人类语言知识的是心智器官中的一个系统,叫做“语言机能”(language faculty)。这个语言机能在经验环境引发下的生长和成熟,决定着人类语言知识的获得(Pullum & Scholz,2002)。

研究发现,FOXP2是人类的独特基因。这一基因与其他哺乳动物的类似基因同属于一个家族,然而,这基因的排序却是人类特有的。因此,FOXP2也许就是乔姆斯基所假设的“语言机能”的生物学基础。由于存在FOXP2,所以,语言是天赋的,FOXP2给语言天赋论和刺激贫乏论提供了生物学上的支持(俞建梁,2011)

语言机能有初始状态(initial state)和获得状态(attained state)。初始状态是人类共同的、普遍一致的;获得状态是具体的、个别的。语言机能的初始状态叫做“普遍语法”(Universal Grammar,UG),语言机能的获得状态叫做“具体语法”(Particular Grammar,PG)。对普遍语法的本质特征及其与具体语法的关系的研究和确定,是解决关于语言知识的“柏拉图问题”的关键。

GPT采用的数据驱动的“端到端嵌入”技术对于非人类的自然语言机器学习是行之有效的,但是,这种技术依靠大规模的语言数据,根本不存在“刺激贫乏”的问题,与乔姆斯基对于语言知识来源的认识是大相径庭的。

乔姆斯基把语言知识的使用问题叫做“笛卡儿问题”(Cartesian problem)。基于机械论哲学的物质概念,法国哲学家和数学家笛卡儿(Descartes)认为,所有非生命物质世界的现象、动物的生理与行为、大部分的人类器官活动,都能够纳入物质科学(science of body)的范畴。但是。笛卡儿又指出,某些现象不能处于物质科学的范畴之内,其中最为显著的就是人类语言,特别是“语言使用的创造性方面”,更是超出了机械论的物质概念所能够解释的范围。所以,对于语言的正常使用,是人类与其他动物或机器的真正区别。为了寻求对于语言这一类现象的解释,笛卡儿设定了一种“第二实体”的存在,这种第二实体就是“思维实体’(thinking substance)。“思维实体”明显不同于物质实体,它与物质实体相分离,并通过某种方式与物质实体相互作用。这一种“思维实体”就是心灵或者心智。语言知识的使用是内在于心智/大脑的。因此,对于这样的问题是很难解决和回答的。

GPT采用的数据驱动的“端到端嵌入”技术对于非人类自然语言的使用是行之有效的,但是,这种技术与“思维实体”没有关系,与乔姆斯基对于语言知识使用的认识是完全不同的。乔姆斯基主张,语言是语言机能或者语言器官所呈现的状态,说某个人具有语言L,就是说他的语言技能处于状态L。语言机能所获得的状态能够生成无限数目的语言表达式,每一个表达式都是语音、结构和语义特征的某种排列组合。这个语言机能所获得的状态是一个生成系统或者运算系统。

为了与一般人理解的外在语言相区别。乔姆斯基把这样的运算系统,叫做“I语言”。字母I代表内在的(internal)、个体的(individual)、内涵的(intensional)等概念。这意味着,I语言是心智的组成部分,最终表现于大脑的神经机制之中,因此,I语言是“内在的”。I语言直接与个体有关,与语言社团存在间接的联系。语言社团的存在取决于该社团的成员具有相似的I语言,因此,I语言是“个体的”。I语言是一个函数或者生成程序,它生成一系列内在地表现与心智/大脑中的结构描写,因此I语言是“内涵的”。根据这种对于I语言的认识。乔姆斯基指出,基于社会政治和规范目的论因素之上的关于语言的通常概念,与科学的语言学研究没有任何关系,这些概念都不适合用来进行科学的语言研究。

生成语法对于语言的科学认识是内在主义(internalist)的,而GPT的大语言模型则是外在主义的(externalist)。GPT的方法是在广泛搜集语言材料的基础上,把离散的语言符号转化为词向量,通过机器学习来获取概率性的语言参数。这些参数存在于外部世界,处于人类的心智/大脑之外。GPT的方法是经验主义的方法,这种方法的基础是外在主义的语言观。乔姆斯基认为,根据外在主义的语言观,人们不能正确地认识和揭示人类语言的本质特征,不能解释人类语言知识获得的过程。只有内在主义的语言观才有可能正确地、全面地认识和解释人类语言知识的本质、来源和使用等问题。

乔姆斯基认为,生成语法的研究应当遵循自然科学研究中的“伽利略-牛顿风格”(Galilean-Newtonianstyle)。“伽利略风格”的核心内容是:人们正在构建的理论体系是确实的真理,由于存在过多的因素和各种各样的事物,现象序列往往是对于真理的某种歪曲。所以,在科学研究中,最有意义的不是考虑现象,而应寻求那些看起来确实能够给予人们深刻见解的原则。伽利略告诫人们,如果事实驳斥理论的话,那么事实可能是错误的。伽利略忽视或无视那些有悖于理论的事实。“牛顿风格”的核心内容是:在目前的科学水平下,世界本身还是不可解释的,科学研究所要做的最好的事情就是努力构建具有可解释性的理论,牛顿关注的是理论的可解释性,而不是世界本身的可解释性。科学理论不是为了满足常识理解而构建的,常识和直觉不足以理解科学的理论。牛顿摒弃那些无助于理论构建的常识和直觉。因此,“伽利略-牛顿风格”的核心内容是:人们应努力构建最好的理论,不要为干扰理论解释力的现象而分散精力,同时应认识到世界与常识直觉是不相一致的(吴刚,2006)。

生成语法的发展过程,处处体现着这种“伽利略-牛顿风格”。生成语法的目的是构建关于人类语言的理论,而不是描写语言的各种事实和现象(冯志伟,2009)。

语言学理论的构建需要语言事实作为其经验的明证。但是,采用经验明证的目的是为了更好地服务于理论的构建,生成语法所采用的经验明证一般是与理论的构建有关的那些经验明证。因此,生成语法研究的目的不是全面地、广泛地、客观地描写语言事实和现象,而是探索和发现那些在语言事实和现象后面掩藏着的本质和原则,从而构建具有可解释性的语言学理论。所以。在生成语法看来,收集和获得的语言客观事实材料越多,越不利于人们对于语言本质特征的抽象性的把握和洞察,而探索语言现象的可解释性,才是语言研究的目标之所在。GPT尽管功能强大,但是至今仍然是一个“黑箱”,不具有可解释性(Linzen,2019)。

乔姆斯基对于人类语言知识的本质、来源和使用问题的看法,与GPT对于非人类语言知识的本质、来源和使用问题的看法针锋相对,且GPT不具有可解释性,因此,乔姆斯基对于GPT持否定的态度,也就不足为奇了。

作者:冯志伟、张灯柯
原文:GPT与语言研究
来源:《外语电化教学》2023年第2期
综合编辑:应用语言学研习
微信公众平台审核:研习君

来源:再建巴别塔(公众号)
链接:https://mp.weixin.qq.com/s/Lzy54V6mfn5ye9Jph-q5oA
编辑:郑程程


705#
 楼主| 发表于 2023-6-10 21:20:13 | 只看该作者
【案例】
都是假的!美国一资深律师用ChatGPT协助办案被“坑”

中新网5月30日电 据美国有线电视新闻网(CNN)报道,纽约资深律师施瓦茨在提交的法庭文件中,使用了AI聊天机器人ChatGPT提供的案例,但其援引的很多案例都是杜撰编造的。施瓦茨已承认自己没有核实信息并为此道歉,他将面临处罚。

据报道,涉事律师施瓦茨在纽约已经执业30年。他负责代理的当事人马塔因2019年8月搭乘航班时被推车撞伤膝盖而起诉哥伦比亚航空公司,但哥航以诉讼时效已过,要求曼哈顿联邦法院撤案。

资料图:ChatGPT是由OpenAI开发的一个人工智慧聊天机器人程序。 图/视觉中国

施瓦茨在提交给法庭的文件中引用了6个类似裁决成功的案例,然而,哥伦比亚航空公司的律师4月致信法官,质疑施瓦茨所提交案例信息的真实性。纽约南区的凯文·卡斯特尔法官5月初在一份书面文件中写道,其中的6个案例的判决结果、引语等都是假的。

施瓦茨也在5月24日的一份宣誓书中承认,他曾用ChatGPT搜集案例。他询问过ChatGPT案例的真实性,ChatGPT再三确定这些案例是真实的,且在“可信的法律数据库”中可以查找到。

施瓦茨表示,在此案之前,他从未将 ChatGPT 用作法律研究来源,因此“不知道其内容可能是假的”。

施瓦茨称,他非常后悔用人工智能来补充法律研究,未来绝不会在没有核实其内容真实性的情况下这么做。

法官卡斯特则称,该情况“史无前例”,并下令6月8日就处罚施瓦茨举行听证会。
来源:中国新闻网
链接:https://www.chinanews.com/gj/2023/05-30/10016380.shtml
编辑:郑程程



706#
 楼主| 发表于 2023-6-10 21:56:36 | 只看该作者
【案例】
美媒:Meta召开全体员工会议,扎克伯格公布AI战略以安抚员工

6月9日,据彭博消息,Meta公司在完成最新一轮裁员两周后,其首席执行官马克·扎克伯格试图就公司战略对员工进行安抚,尤其是对人工智能(AI)的强调。

据Meta发言人介绍,扎克伯格在周四的全体员工会议上表示,公司的两大优先事项就是将AI纳入其各种产品和元宇宙平台。元宇宙是一个虚拟现实平台,被扎克伯格视为人们在一个遥远的未来进行在线交流的方式。扎克伯格还鼓励员工在公司计划于7月举行的生成式AI“黑客马拉松”上尝试新的想法。

据路透社此前报道,5月中旬,Meta Platforms开始实施由三部分组成的最后一轮裁员,预计将影响广告销售、营销和合作团队。这是今年3月份宣布的裁撤10000个职位计划的一部分。
免责声明:本内容来自腾讯平台创作者,不代表腾讯新闻或腾讯网的观点和立场。
来源:腾讯网
链接:https://new.qq.com/rain/a/20230609A03GX400
编辑:郑程程



707#
 楼主| 发表于 2023-6-10 22:21:57 | 只看该作者
【案例】

编辑:郑程程

708#
 楼主| 发表于 2023-6-13 17:28:08 | 只看该作者
【案例】

高盛:生成式AI或影响全球3亿个工作岗位!办公室和行政工作受影响最大

(央视财经《天下财经》)高盛集团的最新报告指出,生成式人工智能可能会影响全球3亿个工作岗位。具体哪些岗位受到的影响最大?关于人工智能和人的关系,又有哪些话题值得讨论?

人工智能AI,现在被鼓吹为是继互联网、移动网络和云计算之后的下一个重大技术变革。现在人们讨论最热烈的就是生成式AI,这是指一种通过学习已有数据,生成新数据的AI算法。此前大多数AI只能分析现有数据,但是生成式AI可以创作出全新的内容,包括生成音频、代码、图片、文字、视频等各式内容。而随着生成式AI领域的军备竞赛进入白热化阶段,高盛的最新报告指出,新技术可能会让劳动力市场出现重大变化。该银行对美国和欧洲数千个职业所需要执行的任务进行了分析,结果显示,大约有三分之二的工作在一定程度上会受到人工智能自动化的影响。受影响的职业中有25%到50%的工作可以被AI替代。

在美国,办公室和行政工作受到的影响比例最大,大约有46%的工作内容都可以被自动化,其次是法律工作,为44%。另一方面,高盛的报告指出,那些从事体力或户外工作的人受到的影响较小。例如,清洁和维护部门受到AI的影响最小,只有1%的任务可以被自动化。而全球层面来看,由于体力劳动在发展中国家的就业中所占的比例更大,高盛估计,大约有五分之一的工作可以由AI完成,也就是说在大型经济体中大约有3亿个工作岗位会受到影响。


美国高盛集团首席信息官 马可·阿根蒂:像GPT这样的生成式科技可以测试开发人员写的代码,或者开发人员可以测试GPT写的代码,这样的互利共生,我认为十分重要。重要的是,我们永远不是想要机器取代开发人员,而是让机器赋能开发人员,让他们提高生产效率。
从这个角度看,AI将一部分工作自动化了之后,也让人类可以腾出时间来从事更有成效的工作。
高盛的报告估计,生成式AI可能会在未来10年将全球GDP提高7%,同期生产率将增长1.5%,生成式AI的潜在市场总额为1500亿美元。不过对于生成式AI的热潮,著名投资人查理·芒格就警示,这其中有很多炒作,而AI也并不是万能的。


美国著名投资人 查理·芒格:我认为人工智能是很重要的,但是现在关于这个话题有很多疯狂的炒作。AI不会帮我们治愈癌症,它不能做到所有我们想做的事情。并且现在关于AI,有很多胡言乱语。所以我对现在所有AI的看法是,它是好坏参半的。

AI可能会给出一个看似可信的答案,但是我们不能完全相信它回答的所有内容,因为这是AI通过研究海量数据之后,根据概率做出的一个最佳猜测,而AI并不理解这些信息。这可能带来的一个潜在后果就是虚假信息的泛滥。

圣达菲研究所的计算机科学家梅兰妮·米切尔表示,在未来很长一段时间AI还不能完全实现自主,需要人类一起参与指导。

来源:央视财经

编辑:潘洁

709#
 楼主| 发表于 2023-6-13 18:39:23 | 只看该作者
【案例】

编辑:潘洁

710#
 楼主| 发表于 2023-6-13 23:07:12 | 只看该作者
【案例】
人类与ChatGPT的共存共生:从“数字鸿沟”到“数智鸿沟”——以日本“技能重塑”计划为例
江晖

摘要 新一代生成式人工智能的出现在带来技术惊喜的同时,也引发了有关“AI代人”的讨论。这场危机是数智时代的副产物“数智鸿沟”的全面升级,个人生存和国家技术治理受到严峻挑战。在全球对技能贫困者的广泛关注下,日本政府在数字化转型人才危机应对政策的基础上提出“技能重塑”计划,作为“新资本主义”经济框架下强化人力资源投资战略的支撑性举措。日本原有的企业员工培训体系和产学官连携机制在计划施行中发挥了重要作用,也给人类与以ChatGPT为代表的AI共存共生提出了新课题:如何在定政策、设标准的总体思路下,调动企业能动性、更新技术认知并警惕“唯技术”的导向风险,日渐成为AIGC时代人类必须直面的现实。
关键词 技能重塑  数智鸿沟  AI威胁论  日本新资本主义  产学官连携
基金项目 广州市哲学社会科学“十三五”规划项目“新媒介语境下在穗留学生的社交媒体接触现状与跨文化适应度的关联性研究”(2019GZQN01)

2022年底,ChatGPT的横空出世掀起了一场关于人工智能(AI)技术的热议,随后多模态预训练大模型GPT-4的公布更是将AI神话推向新一轮高潮。但是,正如科技界在呼吁暂停AI训练的联名公开信中所言,“我们是否应该开发最终可能在数量上超过我们、智慧上超越我们的非人思想来淘汰或取代我们?”AI革命给人类社会带来的,并非只有福利,还有被取代的恐慌。


然而,即便科技界的呼吁成真,以ChatGPT为标志性的新一代AI的进化也不会就此止步,由此引发的技术革新连锁反应亦无法掌控。洞悉风险、思考对策,应该成为我们迎接AI时代的首要课题。有学者提出,人类最理想的也是唯一的选择是与AI“共存融合、共同创造、共同进化”。但当社会大多数人都沦为技能贫困者,与AI共存共生何以可能?有一类看法是调整技术方向,例如建议将以提高智慧能力为目标的AI开发转变为以提高辅助能力为目标的人工辅能(AAI)开发。这仍然是从技术控制论视角出发的考量,与此相对应,还有不少意见认为有必要在人类自身层面采取措施以应对AI可能造成的失业风险,例如加强职业规划、促进劳动力素质提升、调整未来人才培养方向, 通过大数据普及教育等方法提升全民的“大数据科技素养” 等。对此,有学者强调,政府有必要发挥更大的制度保障功能,通过失业保障和再就业培训等方式,转化替代效应。换言之,理想的应对方案所期待的是在政府支持下开展的大型技能“扶贫”行动,这也是对国家技术治理能力提出的新考验。


2022年10月,日本首相岸田文雄在所信表明演说中提出“技能重塑(Reskilling)”计划,该词随即入围了日本当年的“流行语大奖”。顾名思义,技能重塑是指为应对技术升级,主动或被动地通过学习实现技能提升。这并非岸田内阁的原创概念,世界经济会议(达沃斯论坛)从2018年起连续三年设置了“技能重塑革命平台(Reskilling Revolution Platform)”,并宣布要在2030年实现对全世界10亿人的技能重塑。随后的新冠疫情让大多数国家无暇以顾,如今,日本政府在国家政策层面予以了响应,其具体内容和实施方案值得关注。


一、技术升级:赋能与恐惧的悖论


(一)从“数字鸿沟”到“数智鸿沟”


技术赋能的悖论可以追溯到工具的发明,人类提高生产力的智慧表征却因有限的资源成为资本的象征。工具的拥有权决定了社会资源的分配权,而几次工业革命带来的技术升级令这种生产与资本之间的矛盾愈加尖锐,导致社会阶层的逐步固化。

信息技术与数字技术的普及为改变上述现象带来了一线曙光,但很快“数字鸿沟(Digital Divide)”的出现再次验证了赋能悖论的存在。而技术的发展还在不断扩大和加深数字鸿沟,有学者甚至提出,数字鸿沟或许可以缓解,却无法被完全弥合。学者认为数字鸿沟经历了三次范式转变,关注的焦点从早期的接入问题到用户素养,再到当下基于数据驱动的智能算法。就互联网的普及程度而言,主要依赖于国家的信息网络基础设施建设和用户个人的经济条件,依然涉及硬件持有成本的问题。但是对于互联网用户而言,接入网络是否就可以实现信息平等呢?事实证明,技术本身并不能成为消除信息资源不均衡的利器,因为拥有信息获取手段不等同于拥有信息处理能力,社会原始资本和教育背景等条件不同程度地限制了用户的信息使用方式。例如在新冠疫情期间,老年人在智能手机使用上出现的代际数字鸿沟问题受到了社会的广泛关注。


但技术没有为技能贫困者们放缓前进的脚步,信息社会迈向了智能社会。大数据和算法全面渗入到以平台建设为基础的数字化社会关系网络结构当中,“数智鸿沟(Digital Intelligence Divide)”由此产生。与数字鸿沟的前期阶段相比,数智鸿沟隐蔽性极高,被算法边缘化却不自知的隐性“数智难民”实际数量庞大。并且值得注意的是,在信息时代,网络技术的应用带来的是信息资源的优化,而当下对智能技术的接受与否则关乎人类社会化生存的质量与意义。


(二)从AI赋能到AI威胁


随着人工智能技术的不断升级,尤其是以ChatGPT为代表的生成式人工智能在短时间内展现其惊人的进化能力之后,赋能论者也不禁动摇:拥有“智能”的技术似乎真的离取代人类不远了。代码、文案一键生成,多模态预训练大模型GPT-4又具备了图像、视频的处理能力。于是,“谁将最先被AI取代”成为时下的热门话题。


在新冠疫情期间,类似的恐慌也曾发生在前沿科技的另一个代表——机器人身上。尽管在疫情极为紧急的情况下,抗疫机器人的使用为降低病毒传播风险、节约人力发挥了重要作用,但仍然出现了大量有关机器人将取代人类工作、威胁人类生计的负面评论。不过这种舆论主要出现在西方国家,对于劳动力严重不足的日本而言,机器代人问题并未形成广泛的共识,日本政府还在推进2023年实现每个家庭一个机器人的计划。并且在事实上,机器人目前取代的只是一些相对低级的重复性劳动。因此有学者提出有必要辩证地去看待这个问题,区分“机器代人劳作”和“机器代人要位”。


相比之下,这次因ChatGPT而起的AI威胁论却显得来势汹汹。OpenAI在最新发布的一份报告中预估,美国大约80%的劳动力会因为引入GPTs而影响到其至少10%的工作任务,其中约19%的劳动者占半数以上的工作受到影响。并且报告强调,这种影响涉及所有的工资水平的人群,高收入人群甚至面临更大的风险,受影响最大的职业包括数学家、税务师、金融分析员、网络工程师、作家和翻译等。投资银行高盛的研究报告则直接指出,生成性AI带来的自动化预计会威胁到近3亿工作岗位。可见,这场AI带来的取代革命,无论是波及范围还是程度,都远远大于机器人。而如果尚无具身的AI进一步和实体机器人相结合,又将产生怎样的劳动力变革?


“奇点”何时来临尚有争议,而由此引发的危机论已经开始打乱人类的脚步。化解这场危机,人类责无旁贷,“技能重塑”的构想在此背景下应运而生。从本质上讲,这是人类在心态和行为上的一次逆向调整,化被动为主动,以迎接数智时代带给人类社会的副产物。


二、日本政府:从DX人才战略到技能重塑计划


(一)数字化转型人才危机的应对之策


2018年7月,美国政府发表“对美国劳动者的承诺(Pledge to America’s Workers)”,并于2020年5月发布了《全国劳动力恢复行动倡议(National Workforce Recovery Call-to-Action)》。在这一系列文件中,技能(再)培训被定位为促进美国劳动力发展、恢复就业的重要手段,这也是特朗普政府为缓解不断攀升的失业率出台的具体应对措施。截至目前,约460家组织签署了相关承诺书,其中包括在美国设有海外法人的其他国家企业,例如日本的佳能、丰田,韩国三星等,计划在未来五年内为美国的学生和工人提供超过1600万个的教育和培训机会。当然,技能(再)培训需要长期的投入,无法立竿见影地解决美国社会的失业问题,但特朗普政府展示了一种新的思路,即由政府主导、企业推行的全民性技能重塑的可能性。同时,也说明职业技能失配对当今世界劳动力市场所产生的负面影响广泛而紧迫,呼吁社会乃至国家层面的关注。


日本政府对技术人才不足的焦虑也在其数字化转型(Digital Transformation,DX)的相关政策中有所体现。2018年12月,日本经济产业省发布《数字化转型推进指导手册》,明确指出日本DX发展缓慢的三个原因:一是开发或使用新系统和软件的成本巨大,二是市场需求难以掌握,三是数据和数字技术人才紧缺。2022年9月,经产省在《指导手册》的基础上发布了《数字管理准则2.0》,将“数字人才的培育与输送”补充设定为DX项目认定的基本条件之一。


可见,日本政府对于数字化转型所伴生的人才空洞危机有着清醒的认识,但应该如何制定并推进相关政策?日本政府在近三年里组织开展了一系列的研讨,这是一个从模糊到清晰、从概念到措施的摸索过程,并在政策导向上作出相应的调整,例如将人才危机应对策略提升到人才战略的高度,同时也进一步明确并扩大对“数字人才”的定义。其中,相对重要的政府文件有经产省2020年9月发布的《保持企业价值提升与人力资本研究会报告书》(俗称“人才版伊藤报告”),以及两年后发布的2.0修订版。这份报告受到较高评价,被认为充分考虑了日本的现状与文化特性,对于日本企业的人力资本经营具有较高的实践价值。具体而言,报告提出数字时代的人才战略应具备三个视角(经营战略与人才战略的联动、定量掌握As is-To be落差、企业文化的稳固发展)和五个要素(动态的人才投资、知识·经验的D&I、技能重塑与重新学习、员工向心力、不拘泥于时间和场所的工作方式),而在数字技术、创造性方面的技能提升与学习被视为促进个人和组织活性化发展所不可或缺的要素。关于这一点,报告列举了5条详细建议:


1)机构需明确掌握技能欠缺所在:企业需对领域所需技能有清晰全面的了解,通过量化方式展示质与量的需求,积极与内外进行对话沟通;

2)启用关键人物、带动技能传播:明确责任主体,不过度依赖关键人物,有计划地培养传承者,不局限于目前已有岗位,为所有人提供技能重塑机会;

3)完善技能重塑与待遇薪酬的联动机制:宣传技能重塑后的岗位提升与愿景,明确技能重塑后的薪酬水平,设置员工互助学习场所,提升技能重塑动机;

4)战略性提供外部学习机会:制定短期长期留学制度,与高等教育机构合作,提倡学习经验的共享,确保人才正常流动;

5)支持员工创业:为挑战者提供机会,重视经验价值,鼓励多领域挑战,加强经验共享。


可以看出,“人才版伊藤报告”是对企业人才战略的框架指引,而具体的方案制定者与执行主体仍然是各用人单位。这就对企业的战略眼光和能动性提出较高的要求,例如对所欠缺技能的判断在很大程度上受限于企业对数字时代的理解、接受程度及其远景规划,其结果又将左右企业在技能重塑上的投入力度。


如何定义“数字人才”的技能水平?为了回应这个普遍存在的疑问,经产省在2021年11月召开的“第六次数字时代的人才政策相关检讨会”上公布了有关DX人才技能评价的官方标准。这个评价体系根据个人所掌握数字技术水平的高低,将日本国民分为四个层次:处于最低位置的第四层次包括儿童、老年人和普通市民,需要掌握智能手机、平板和电脑的使用方法;第三层次为商业人士,分为理解计算机的构造、能处理一般程序的下层人群和理解IT导入过程和相关法律的上层人群;第二层次为“DX推动人才”;最高层次为CEO、CIO、CDXO等企业管理人群。其中,第四层次与第三层次的下层人群可以在通过小学到高等教育机构里的信息教育达到所需技能的标准,原则上第二层次和第三层次的人群都需要具备DX的基本素养,尤其是第二层次需要新政策来帮助他们提高技能。


为进一步推进数字化转型,日本政府于2021年9月成立了“数字厅”,目标是“从国民视角出发,活用数字资源,创造数字服务,以实现全体国民共享数字化福利”。作为其工作的一环,数字厅联合日本总务省、厚生劳动省等其他部门,开始推动“数字人才育成平台”的建设,主要内容包括制定数字技能水平评测标准、建设专用门户网站、完善在线教育内容、组织实践型模拟学习项目、与企业联合实施研修项目等。


总体而言,日本政府为应对数字化转型中暴露出来的数字人才危机,进行了积极的政策框架建构,从中可以看到“技能重塑”理念与计划的雏形。但是根据2022年2月经产省的一份报告显示,对于政府大力提倡的员工个人的技能提升,有一半的企业并未建立相关的支援制度,或者制度形同虚设。因此,政策落地的问题摆在日本政府面前。


(二)岸田内阁的“新资本主义”与技能重塑


“技能重塑”的概念在日本民间的普及,源于日本首相岸田文雄在2022年10月3日召开的第210次国会上的演讲。演讲中,岸田明确提出要在政策上建立对个人技能重塑的支援制度,为强化人力投资以及企业间和产业间面向新领域的劳动力流动,新增或继续加大对从技能重塑到职业转换全过程的扶持力度,政府计划将目前三年4000亿日元的人力资源预算在五年内扩大到1兆日元。2023年1月,岸田进一步补充了相关施政方针。他强调要重点扶持GX(Green Transformation,绿色转型)、DX、初创企业(Startup Company)等新兴领域的相关技能重塑,在制度上将现有的以企业为中心的在职员工培训调整为直接向个人提供帮扶,并且这项政策将覆盖所有年龄与性别。


日本政府的“技能重塑”新政可以说是在DX人力资源战略改革的延长线之上,也是岸田内阁“新资本主义”经济政策的具体支撑。岸田文雄在2021年10月就任日本第100任内阁总理大臣后,随即发表了他的这个经济构想。何“新”之有?岸田在《文艺春秋》撰文,表明其资本主义升级的核心在于对“人”的重视,资本的概念从“物”升级到“人”,因此对“人”的投资是第一要务。 “技能重塑”就被放置于“新资本主义”的框架之下(图1)。


“新资本主义”经济框架包括三大领域,即“成长战略”“分配战略”和“实现让所有人感受到人生意义的社会”。在“分配战略”中,“强化对人的投资”这一条提到了“通过技能重塑支援能力提升并促进劳动力移动”。这里的“技能重塑”主要包括三个方面的支援:一是将重点放在提升企业和产业间的劳动力移动顺畅化,加大扶持力度将非正式雇佣工转为正式员工,以及接受跳槽和兼职的求职者;二是与专家协商制定从技能重塑到跳槽的全过程支援制度(政府预算753亿日元),帮助以职业晋升为目的的在职员工实现跳槽自由;三是通过提高补助金额等手段,强化以企业为主体开展的员工技能重塑。


尽管岸田的“新资本主义”构想招致较多争议,但技能重塑这项新政涉及广泛,关系到就业晋升等基础民生问题,自发布以来受到日本社会的高度关注。日本“第一生命经济研究所”在一份政策解读报告中指出,日本政府此次提出的“技能重塑”有以下几个特点:首先,重塑的技能以市场需求为导向,并不限于数字领域,例如可能出现 “GX·技能重塑”“航空·技能重塑”;其次,不同于欧美的失业对策,日本政府的主要目的在于促进新兴领域的劳动力流动;再次,技能重塑包括企业内和企业外两种形式,前者以内部晋升或部门调动为目的,后者则指企业和产业间的职业岗位转换;最后,技能重塑的核心并非在于提供学习机会,更重要的是建构对职业晋升、劳动力流动的支援体制。


目前日本政府并未出台关于技能重塑的具体施行方案,但从2022年底开始,日本厚生劳动省等部门对现有的人力资源支援制度进行了修订,例如从2001年就开始执行的“人才开发支援助成金”制度,加入了薪酬要求、技能资格等体现“新资本主义”经济构想的要素。在2023年1月参议院全体会议上,岸田因为建议国民利用产假或育儿假进行技能重塑而被批评不够体恤民情,可见日本政府的相关措施尚未酝酿成熟,仍需保持关注。


三、日本民间:自下而上的自救举措


(一)企业先行:员工培训体系的升级


数字化进程加速了第四次产业革命,这场革命不再局限于产业结构本身,劳动力需求也发生了翻天覆地的变化。与行业内部对技术的更新要求有关,美国电信巨头AT&T从2013年就开始实施名为“Workforce2020”的员工技能培训计划,至2020年,已投入10亿美元用于10万人的技能提升,包括提供学习平台、开发在线培训课程、完善与工作技能相挂钩的待遇制度等。亚马逊也宣布要在2025年前完成对10万员工的技能重塑。


根据“reskilling”的检索结果,可以看到日语的相关内容从2021年初开始增加,在整体行动上日本要晚于欧美。但是与日本政府相比,作为用人单位的日本企业更早地捕捉到了因技能不足造成的人才危机信号,并且自发采取了一系列的应对措施。2020年9月,日本“再就业研究所”发布了一份倡议书,强调“技能重塑”的根本责任在企业,希望日本社会能够形成这个共识,呼吁企业加大平台建设和资金投入。随后,日本各大企业在原有的职工培训体系的基础上,做出不同形式、不同程度的响应。日立集团在2020年9月为约16万名员工提供了“Digital Literacy Exercises”基础教育。在向DX企业转型过程中,富士通集团提出了DX人才应该具备的五项能力——“数字化战略·组织”“数字化思考”“数字化进程”“数字技术”和“数字素养”,并计划在五年内为相关人才培养投入5千亿至6千亿日元。以非技术型员工为主的各大商社也有所行动。2020年10月,住友商社对1千名员工进行了AI基础知识在线教育,三菱商事举办了6场“IT·Digital研修”讲座,丸红商事也新开设了包括Python数据分析、机器学习等实践型内容的“DigiChalle”讲座。尽管这些培训的规模各异,对象也仅限于企业内部员工,但是大型企业的率先行动还是给日本社会释放了重要的信号,也为日本政府之后的政策制定提供了前期经验。


日本企业的快速反应并非出自偶然,而是得益于企业“在职培训(On the Job Training,OJT)”制度长久以来的机制建构和经验积累。OJT是日本企业文化的重要一环,日立等大企业在集团内部都设有专门的培训机构。但OJT的目的是让员工能够更好地承担被分配的工作,维持企业的“连续性”,因此培训内容多针对企业现有的工作岗位。与之类似的概念还有日本政府一度倡导的“循环(recurrent)教育”,即鼓励在职员工离职去大学等高等教育机构进修后再就业。而实际上,这一理念并不为日本企业所欢迎,因为除影响工作进度、跳槽风险高以外,大学教育往往以理论为主,与企业的工作实践存在较大隔阂。相比之下,技能重塑重视的是一种“非连续性”的能力开发,针对的是既有岗位上的新问题或者未来可能出现的新工作。因此,对日本企业而言,OJT目前依然是实施技能重塑的重要体制保障,但是也面临革新理念以应对技能重塑的新要求。


(二)产学官连携:资源调配与再生


日本企业的这番行动还显示了另外一个特征,即发挥了日本“产学官连携”机制(Industry-Academia-Government Collaboration)的传统优势,利用政府和学术界资源共同提升技能重塑事业的合理性、创新性和影响力。三者首先在基础技能讲座资源开发方面取得了实质性进展,尤其是共通性较高的基础技能,例如数字技术培训等;与企业各自为政进行内容和平台开发相比,资源共享能够大幅度降低成本。


这种合作始于新冠疫情期间。2020年12月,日本经产省与日本软件协会等团体联合开设了“宅家DX分级讲座”,谷歌、微软等41家企业无偿提供了102门DX基础技能在线课程。疫情结束后,该项目升级为“Manabi DX”门户网站,由独立行政法人情报处理推进机构管理,在数字厅、文部科学省、厚生劳动省和经济产业省等政府部门的支持下,116家法人提供的342门DX技能分级培训课程可供在线学习。同时,经产省还启动了相关课程的认定制度,目前115门讲座获得了“第四次产业革命技能习得讲座”认定,涉及“云计算、IoT、AI、数据科学(99门)”“网络和网络安全(10门)”和“IT应用(6门)”三大领域。


这一类课程的设置体现了“技能重塑”计划的理念,与企业员工培训显示出较大差异。首先,课程向所有人开放,学习者可以根据需要自由选择学习内容,如果满足条件,学习者还可以申请由厚生劳动省提供的教育训练支援,获得一定比例的学费补助。其次,课程在统一的分级标准下由不同领域的法人提供,避免了内容重叠又保持了一定的竞争性。其中,如“数据科学家培育课程”“AI咨询师培养训练”等由培训企业提供的课程自2018年就获得了资助,此外还有由东海国立大学机构、北九州工业高等专门学校等学校法人和日本能率协会、日本电子回路工业会等社团法人提供的课程。但是,此类课程也存在难点,对学习者的主观能动性要求较高,因此其实施效果和影响范围存在较大的不确定性。日本政府通过课程认证在一定程度上保证了内容质量,也建立了奖学金制度以降低学习门槛,在此基础上,有必要进一步完善考核-学习成果认证制度,将培训结果与(再)就业相挂钩,构建闭环式培训体系。


I-A-G合作框架下,高等教育机构也在科研成果共享和DX人才培养方面发挥了积极的作用。例如,庆应义塾大学与富士通、京都大学与博报堂、东北大学与同和控股等高校和企业获得了日本政府的专项资金资助(总额3.6亿日元),用于联合举办讲座和人才培育,内容涉及碳中和、医疗制药、数字农业、海洋数字孪生等前沿领域。又如半导体巨头TSMC在日本熊本县的子公司JASM就是一个I-A-G连携合作模式的典型案例。在日本政府、熊本县地方自治体的支持下,JASM与当地八所大学、职高等45家机构共同制定了人才培养方案,以解决约1500名技术人才的缺口难题,而熊本当地也希望借助这个人才供给链再次振兴有“硅岛”之称的日本九州地区。


2022年5月,由经产省发起、企业和大学共同参与的“未来人才会议”提出,为了培养能够应对数字化、脱碳化等职业产业新需求的未来型人才,急需对包括劳动力雇佣和教育在内的社会整体系统做出方向性的调整。可以预见,产学官连携机制将在日本社会的技能重塑普及与推动中继续扮演重要角色。

四、结语与思考:技能重塑的未来性与有限性


ChatGPT及同类大规模生成性AI的到来,引爆了人类社会长久以来隐存的技术恐惧。人类立刻启动了预警系统,暂停、封杀的呼声不绝于耳,但目前的种种迹象显示,与AI共存或许已经成为人类无可选择的局面。在AI威胁论四起之时,我们仍然可以听到一些不同的声音。最先倡导技能重塑的达沃斯论坛也强调,第四次产业革命可能会造成8000万个工作岗位的消失,但是也会带来9700万个新工作。还有意见认为ChatGPT能够取代人类的部分工作,但不会完全取代人类的职业,并且专家们在人类需要“提高能力应对变化”这一点上基本形成了共识,指出“坚持学习和实践” 是实现这个目标的唯一途径。而技能重塑似乎可以成为这种认识的具体实践策略。通过对日本相关政策、举措的梳理,我们看到了技能重塑的必要性和可行性,同时也产生新的思考:


第一,需明确技能重塑的政策性定位。技能重塑的初衷是面向陷入技能危机的人群提供培训机会,解决个人的生存问题。在目的性上,技能重塑不同于为提高个人学养的“生涯学习”和追求晋升的在职进修;在内容上,也不同于以所在单位业务领域为主的员工培训。换言之,技能重塑具有更高的普遍性、紧急性与实践要求。因此,技能重塑的施行有赖于国家层面的政策规划与扶持力度,而非个人或用人单位的能动性。于国家而言,技术研发与技能帮扶需齐头并进,在领跑前沿的同时稳健民生基石。


第二,需解决企业育人-用人困境。在年功序列制度根深蒂固的日本社会,跳槽者往往面临巨大的压力。因此,日本政府在相关政策中强调要健全从技能重塑到跳槽的全过程支援体制,以保障劳动者的利益。尽管从长远来看,劳动力市场流动顺畅于企业而言是极大利好,但仍然存在理想与实践相背离的风险。企业通过对员工的技能重塑,可以提升工作效率、降低人才招聘成本、重新开发员工的创新能力,易于形成并传承企业文化,但是同时也伴随着人才流失、人事异动的高风险。作为技能重塑政策的重要实施者,企业或将面临“育人易、用人难”的尴尬局面,致使技能重塑陷入窘境。因此,如何协调与平衡个人、企业与劳动力市场等多方权益以确保政策执行的可持续性,也是无可回避的重要课题。


第三,需与时俱进地更新“技术”认知。总体而言,目前日本的相关政策还处在DX人才战略的延长线上,仍以应对数字化转型的数字技能培训为主,但是碳中和、半导体、海洋等其他前沿领域的关键词也开始频繁出现。这提醒我们,数智时代确实给技能重塑提出了更具体的要求,但不可被AI威胁一叶障目。有必要在国家的宏观指导下,对各领域的技术分布、各类岗位的技术要求进行全景式扫描并保持更新,实现技能重塑与未来规划的自洽融合,不断升级技术认知。


第四,需活用资源、巧设标准。日本的产学官连携机制在培训内容开发、人才输送等方面展示了一种合作范式。合理的资源共享可以大幅降低培训成本,分摊企业压力,避免无谓重复,但这也可能造成多种标准林立、不同资源之间衔接不畅的现象,例如对技能等级的分类缺乏统一标准。理想的解决方案是由国家相关机构统筹规划,制定指导性标准并保留一定的解释空间,在有典可依的同时鼓励创新。并且要重视标准的多样性,重视实践,避免纸上谈兵。


第五,需警惕“唯技术”的不良导向。技能重塑是人类社会应对技能恐慌的智慧之举,但要谨防从技术恐惧走向另一个极端——技术崇拜——唯技术论英雄。在日本制定的“未来人才图景” 中,技术仅是未来型人才需要具备的56项基本技能中的一个方面,能动性、责任感、沟通协调能力等软技能(soft skill)依然是人才评价的重要标准,也是硬技能甚至是人工智能不可替代的。技术并不等同于价值创造,让技术助力价值创造才是更高智慧的体现。莫让追赶新技术所造成的疲惫感吞噬人类的创意生产。


技术仍在大踏步向前,关于人类与技术的共存方式的探讨将会继续进行下去。历史总在上演着有趣的循环,人类与人类造物之间的较量听来也甚为有趣。既然这是一个未完待续的话题,不妨跳出一决胜负的思维窠臼,尝试创造一个人类与技术可以各司其职、互促共进的未来社会发展模式。

(中山大学外国语学院硕士研究生陆江隽在本文写作过程中帮助查找相关资料,特此致谢!)


来源:阅江学刊

编辑:潘洁


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表