传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
481#
 楼主| 发表于 2021-4-23 23:24:57 | 只看该作者
【案例】
                                                                                           拟限制滥用人工智能 欧委会公布法规草案
  欧盟官员本周三(4月21日)公布了关于限制滥用人工智能的法规草案,比如对可能威胁个人安全和人权的实时面部扫描等高风险应用加以限制。该草案的通过尚需一年多时间。

  
  欧盟拟定原则上禁止有争议的 "远程生物识别"

  (德国之声中文网)欧委会执行副主席玛格丽特-维斯塔格(Margrethe Vestager)在一份声明中表示, `通过制定具有裡程碑意义的规定,欧盟将带头制定全球新标准,让人工智能变得可以信赖。“这位负责数字政策的欧委会副主席还表示,通过制定这些标准,可以为建立全球科技伦理铺平道路,保证欧盟具有竞争力。

  禁止生物识别大规模监控
  欧委会提出的法规草案包括对快速发展的筛选学校、工作或贷款申请人的应用加以限制,同时在一些被视为风险过大的领域禁止人工智能,比如类似中国的基于个人行为和身体特征的社会评分体系。中国政府引入的社会信用体系对政府希望的行为予以奖励,同时对不当行为加以惩罚。
  维斯塔格在记者会上表示,原则上禁止有争议的 "远程生物识别",如使用实时面部识别技术从人群中选人。她说, "我们的社会不会给大规模监控留下空间。“不过,在狭义的以执法为目的的情况下可以有例外,如寻找失踪儿童或被通缉者以及防止恐怖袭击等。

   
  欧委会执行副主席玛格丽特-维斯塔格(Margrethe Vestager)4月21日在记者会上阐释人工智能法规草案

  条例草案还涵盖了构成"有限风险 "的人工智能应用,比如聊天机器人应被贴上标签,以便人们知道他们是在与机器互动。不过,大多数人工智能应用将不受影响,或被现有的消费者保护规则涵盖。
  违规行为可能导致高达30,000欧元的罚款。如果公司违规,可以被处以最高为其全球年收入6%的罚款。不过,维斯塔格表示,当局将首先要求供应商修改他们的人工智能产品,或者将其从市场上移除。
  条例生效之前,欧委会必须与欧盟各国政府和欧洲议会商讨细节,整个过程可能需要一年多的时间。

来源:德国之声中文网
编辑:古凤

482#
 楼主| 发表于 2021-4-23 23:50:06 | 只看该作者
【案例】
    王冬冬|相遇不相知:算法时代的文化景观重构|“算法社会:智能传播时代的文化与走向”圆桌会议①
                                                                                       

王冬冬教授

相遇不相知:算法时代的文化景观重构
  新媒体时代,人人都拥有了“麦克风”,都可以发声。艺术家安迪·沃霍尔指出,人人都有 15 分钟的成名时间,称得上是对于当下媒介发展境况最贴切的形容。然而,真实情况却是并非所有人都能成名。那么,到底什么样的人、什么样的话题能够最终“冲出重围”,跃入公共流量之中呢?置身于智能传播时代,很重要的依托就在于当下大家所广泛讨论的一大核心议题——算法。在信息大爆炸的当下,基于算法的媒介内容推荐正建构起一个新式的信息情境:为人们在信息海洋中短时间内匹配到需求信息。作为一个规范化计算而存在的算法,势必有着相应的程式,这同样也是给内容生产制作者的提示——更为适配算法推荐机制的内容将能够在平台分发中占据优势。如此一来,算法就以其强大的数据化计算能力规制着了内容由生产、传播再到反馈的全流程。


安迪·沃霍尔


  法国马克思主义理论家居伊·德波从批判视角出发提出“构境”这一概念,指代主体根据真实的愿望重新设计、创造和实验人的生命存在过程。用他的话来说,“构境”是由一个统一的环境和事件的游戏的集体性组织所具体而精心建构的生活瞬间。所谓“观看意味着权力,凝视铭刻了文化” ,在人们观看经由智媒算法推荐生成的系列内容过程中,人这一主体的真实愿望得以抒发,一种通由信息文本交流组成的构境得以呈现,并塑造出了当代人的媒介文化状态。算法在内容与受众点对点牵引过程中纳入了对整体社会话语体系的考量,并在内容分发抵达受众的过程中呈现出来,由此,什么样的内容匹配什么样标签的受众之间得以建构起映射关系。以自发光的移动终端屏幕为介,虚拟化的文本空间同实在的人之身体所处空间形成交融,人之信息获取、社会交往的场景进而铺陈开来。关于感官的刺激和文本叙事的表达,在万千信息的抵达瞬间外化,这一过程本身就描摹出了媒介化社会中的一种文化景观。

  算法所重塑的媒介文化景观触及了国内诸多学者的担忧。算法是否正在推动“信息茧房”的形成,使得人们自身的观点、态度经由“回音室”效应不断强化。现有研究多从理论和实证层面就算法逻辑下“信息茧房”的形成展开研究,这些探讨进路聚焦在了一大问题上:算法是否会导致用户自身信息接收和观点表达的窄化。相关讨论在理念上还原成了对于算法机制形成基础的观照——算法借助对用户行为的识别归纳了用户自身,一个个数据化标签建构了信息接收的主体,并可通过动态化判定用户的喜好来匹配出对应的信息文本。在系列探讨中,“置于‘信息茧房’中的主体为何者”这一问题成为讨论的前提,以至于我们在思索算法“所以然”的过程中,忽略性地认定了“所以然”这一过程是否成立。通过历史浏览、关注等记录识别并建立的喜好标签是否足以定义人之主体的期待性行为?过往经验的累积中是否充分蕴含了关于未来的面向?算法的这一窘境,恰如理念逻辑先验地认定了自身。在这一命题讨论中,本文将借鉴精神分析学说以阐明算法在核心机制表达上的主体建构问题。

提出“构境”观念的法国理论家居伊·德波



与万千信息相遇:
算法逻辑下的内容呈现原则

  在信息传播网络中,智能算法的出现,正在穷尽并重塑信息由传者生产、传播再到受者接受、理解,甚至是给予反馈的全过程,其核心在于对用户的洞察,借助逻辑规则界定用户所乐意接受并可能喜爱的信息文本类型和内容,从而实现用户需求的满足。这一需求本身就限定在了用户的主观偏好,并非固定为用户的客观实际需求。大众传播时代,人们信息偏好需求的满足主要有两大渠道:一种是借助专业记者、编辑等“把关人”的人工挑选,将受众最为感兴趣的信息以广播、报刊、电视的形式实现广而告之;另一种则是来自人们的社交链式传播。智媒算法出现后,信息的供给两侧正在被直接牵引,信息和受众可以完成直接匹配。尤其在当下信源丰富多元、信息内容庞杂多样的情况中,智媒算法凭借着定制化和自动化的优势深刻嵌入人们日常的交往场景中。

  置身于信息潮流的“风口”,藉由算法推荐机制每天与可能乐于接受的万千信息相遇。内蕴丰富的文本空间在人与屏的互动之中展现着它自身,并与人之主体的往续经验产生交叠。依循卡龙和拉图尔的行动者网络理论,算法作为一种技术,同样也是“行动者”,和人可以等视为一个结点,相互之间通路连接,共同编织成当下的媒介化社会。曼纽尔·卡斯特在《网络社会的崛起》一书中提及:“作为一种社会历史趋势,信息时代占支配地位的功能和过程均是围绕网络逐渐构成的”,根植于信息技术的网络,已成为现代社会的普遍技术范式,使得社会再结构化。所以,真正触发传播革命的是信息技术对于关系连接的重塑,以此为基础的社会结构是高度动态的、开放的社会系统。这种信息流变的逻辑,实质上就会改变生产、经验、权力与文化过程中的操作和结果。

《网络社会的崛起》作者:曼纽尔·卡斯特


  就算法逻辑而言,其对媒介文化生态产生的重大影响在于从内容生产基底层面开放了供给侧,结构了全新的供给关系,一种仰赖算法逻辑建构的“拟态环境”逐渐形成。这种开放主要体现在两大层面:一是信道的开放,传统意义上的信息通道为专业把关人所掌握,什么样的信息得以进入公共领域首要一关便是把关人的理性考验。如丹尼斯·麦奎尔等的描述,当传播者在制作信息时,他的脑海里总有一幅接收者的画像。这种画像仍旧是把关人自身依托理性标准建构出来的受者画像,言之“阳春白雪”和“下里巴人”在这里通由人们的理性考量区别开来。但在算法推荐的视阈中,理性逻辑正让渡于浅层化的外观呈现逻辑,人们同信息文本的接触如“擦肩而过”式相遇不相识,透由文本的思考空间驱逐在了传授过程中。

  以主打算法推荐的抖音为例,结合 2020 年抖音的各项爆款话题,梳理抖音官方发布的 2019 年点赞过亿的 24 个故事文本,可以发现其中三大内容趋向:一是“颜值即正义”,各类爆款内容当中隐藏了人们在视觉审美上的期待,“变装”式、艺术化的图像表达在视觉上呈现了广泛的吸引力,如走红的“1818 黄金眼”中的受访主人公、账户“@燃烧的小陀螺”拍摄创作的生活记录短片、“一指禅”式变装等;二是“奇观即期待”,从叙事角度出发,爆款内容形成的核心秘密在于建立期待,通过无数形式上或者风格上的诱因制造期待感,使得用户能够产生看下去的动机,并进而作出点赞、评论、分享等动作。视频文本本身以奇观化、不为日常生活中所见的景象,辅之以音乐上的形式配合,产生了内容文本上的期待,2019 年抖音上爆火起来的大唐不夜城、迪士尼度假区等地点相关的视频均是如此;三是“隐喻即特质”,文化产品的生成同样是权力话语体系的呈现,“记录美好生活”的抖音在内容推荐中不乏借鉴传统相声小品等文艺作品形式出圈的作品,借插科打诨等方式,或隐含对于社会现实的讽刺、或隐含对于生活点滴的分享等多方面情感。这一类的内容文本同样效果出众。根据 2019抖音数据报告,辽宁、吉林、黑龙江东三省创作者的系列视频平均播放量稳居排行榜前五 ,如以往走红的“@ 东北街溜子”“@ 玉溪小男孩”“@尤(局)”“@大花”等通过集中呈现东北式文化标签而备受关注。

  上述三大类型的内容盈斥在网络话语场中,本身就是算法筛选后的结果,在算法推荐的计算衡定之下,系列内容被精准地匹配受众并通过和用户产生互动得以成为“热门爆款”。由此算法逻辑下,跻身公共场域的话题内容筛选不再完全诉诸传者的理性原则,而是依据人们对于某类信息的停留时间、点赞评论等行为数据,其中占据绝对比重的是受者自身的行为,“把关人”之权由专业化生产者逐步转移为了受众自身。当信道的“把关”归咎于受众自身,权力和话语体系就发生了转变,传统意义中有着统一形态和表达的“把关”规则被打破,更多的测定尺度来自受众自身的个性化体验。受众本身是一个集体化的概念,具体表征并非是确切明朗的,不同个体的特征势必会引导推荐的信息内容文本走向不同的侧面,所以“把关”的规则已经悄然发生了置换。内容话语的天平倾向于受众一侧,正向层面上的结果是容纳了受众自身生产的内容转化为公众话题的更多可能性,由信息文本的“走红”衍生了诸多经济效应,带动着普罗大众对于偏远地区和贫困地区的关注。网络传播中信道和规则开放之后,可以窥见,算法的开放性在内容供给上实现了逻辑分野,更多来自受众生产的话题得以并存,分众化的兴趣和信息获取需求得以同步满足,多元化的内容耦合着单一化的文化景观,共同丰富着当下的舆论场。


与自身理性疏离:
算法逻辑下的“不相知”境遇

  受众得以充分参与的内容体系打造出了当下媒介内容的“百花齐放”。不可否认的是,算法便捷了人类同需求信息之间的匹配,人们的探索实践被收束在了屏幕前的一连串动作之中,传统人类中心主义中人类对于世界的探索和认识这一“独特品质”正逐步流失。图像、视频等内容将庞杂的信息场景拟真化地呈现在屏幕之前,并藉由算法实现人们对系列相关内容的匹配接收,甚至达成沉浸交融,先前人们在对外“操劳”的过程中体认自我存在的过程逐一被扁平化。智媒算法之中,人人皆可数据化,人人之行为皆可数据化。更有甚的是,智媒算法对于人之未来行为的预测圈定在了对于过往行为的总结认定之中,而忽视了人自我提升的主观能动性。其实质是利用了用户的价值观和信仰去制造符合当下价值观和信仰的信息环境,限定了用户的未来面向。




  依托智媒算法所形塑的电子图像时代逻辑,相对于文字的间接性表达而言,各类信息文本以直观化的图像和视频呈现在人们面前,断裂开了人们用以思考和体悟的空间。以短视频传播为例,其囿于自身时长的限制,在适应人们快节奏消费的同时,通过片段化的内容呈现将感官刺激瞬时化。普遍意义上的当下图景是,人们会为一部好的文学作品回味无穷,却在短视频传播中“间歇性失忆”——新的热点内容会很快覆盖掉人们关于时事热点的记忆。同时,视频内容的呈现趋向于表象化、去经历化。人类原先为之体验,在过往经历中建构连续性记忆的过程在下一个信息热点抵达时被瞬间中止。随着信息传递接收频率加快,对于信息内容的接受演变为表象化、无经历“褶皱”的过程。透过信息文本,人们无法完成关于世界深度知悉的过程,而仅仅是同信息“擦肩而过”式相遇,即“相遇不相知”。

  在这一过程中,再度观之算法推荐的核心要义——对于用户身份和特征的界定。依托于年龄、性别、地域等各类标签,智媒算法正在赛博空间中构建着关于“我”的虚拟形象——在信息文本空间展开的用户自身。由此,人基于文本的互动同赛博空间中的自身形成了关于“观看”的镜像化装置。赛博空间中的“镜像我”与“我”之间同根同源,是通过算法就“我”之经验性行为数据化呈现而成,藉由“我”与信息文本之间的互动行为而产生,即“镜像我”与“我”的行为产生了一种对照。而“我”同样在信息文本的传授过程中因受着感官刺激,并塑造着“我”关于世界的认识和探索,建构起了瞬间性的经验获取,即“我”和信息文本之间也形成了一种对照。由此,在观看的镜像化装置中,以信息文本为中介,“我”同“镜像我”之间形成了关联性对话——智媒算法实时地采集、识别和标注着“我”的点赞、转发、评论等行为数据,并用于建构赛博空间中的“镜像我”的特征。吉尔伯特·西蒙栋在论述个体化这一概念时就指出,个体化是技术对象自身发展的规则,是朝向稳定状态发展的趋势,个体与周围的环境进行互动,将外部因素进行吸收和内化。在算法作为行动者参与的网络结构过程中,对于外部环境的吸收和内化是动态化的。由此意味着“镜像我”始终处于动态演变之中,同过去之“我”不断趋近,而“我”在不断的交互过程中,透过堆叠的万千信息也在促使“我”向着“镜像我”靠近,实现“镜像我”与“我”之间的近似拟合。

  沿循弗洛伊德精神分析学说,“本我作为人们无意识的结构是最初的、生来就有的,有所本能、热情源自其中”。用户基本兴趣、爱好等生发的行为动作表达的是一种需求和欲望,来源于潜意识中的“本我”,而生发观看这一动作、处于实存空间中的“我”,则更多地表现为“自我”。因此,赛博空间中的“镜像我”囿于行为数据的标识是“本我”的一种计算呈现,每一次通过智媒算法推荐完成的信息文本传授过程,在镜像化装置中显现为“自我”同“本我”产生对话,并不断向外显的“本我”趋近拟合。最终可预见的结果是潜意识的无限释放,关于爱欲的呈现、情感化的感知驱动成为社会主导。在智媒算法的逻辑下,“我”之主体在信息接触过程中扁平化了关于世界的认识和探索这一过程,不断塑造着一个缺乏思考的表层化主体;在定位互动过程中通过“我”与“镜像我”的交流对话释放了潜意识,通过“自我”同“本我”的互动外化呈现了潜在的本我。类同于戈夫曼对于前台、中台和后台的划分,智媒算法正在逐步将后台“中台化”甚至是“前台化”,将后台中的角色置于屏幕之上、赛博空间之中。


  法国思想家帕斯卡尔曾说:“人是一根有思想的芦苇。”算法社会以技术之矛,刺向了思想之盾。为帕斯卡尔所称赞的人的思想特质面临着前所未有的挑战,在“相遇不相知”的文化景观中,人们关于信息的接受彰显为感官的刺激,依托理性原则建构起的算法逻辑正在扼杀逻辑本身,人之主体颇有沦为动物化、堕入思想蛮荒状态的危险意向。居于这一情境,回思波茨曼在《娱乐至死》中的经典一问:“人们感到痛苦的不是他们用笑声替代了思考,而是他们不知道自己为什么笑以及为什么不再思考。”这一论断放置于当下的媒介情境,不可谓其言之不预,反倒是对于智媒算法逻辑恰好的“突围警醒”。如何在理性逐步流失的当下,重新呼唤理性主义的回归?或言之,一场关于算法的“启蒙运动”亟待推动,将一应“超我”的道德标准和价值判断融入算法最初设定的过程之中,在“镜像我”的构境过程中给予其未来的面向,赋予其抵达“超我”的逻辑,方有媒介化社会中的诸多发展可能。


来源:探索与争鸣杂志

编辑:古凤

483#
 楼主| 发表于 2021-5-6 23:45:47 | 只看该作者
【案例】
韩隽 巨高飞丨融媒平台事实核查机制再造与路径革新
本文刊登在《中国编辑》杂志2021年第4期
    事实核查是现代媒体新闻内容生产中编辑操作最基本的问题。在算法分发、智能分发背景下,当下新闻内容生产中事实核查面临真实边界不清与机制法治欠缺、价值导向偏失与事实核查滞后、网络信息动态与核查流程静态、技术陷阱困境与核查范围模糊几大挑战。因此,再造与革新事实核查机制和路径意义深远。融媒平台可以依托革新核查意识、引导多元核查、开放核查模式、厘清核查关系等方面探索可行性路径。
    近年来,随着智能技术的快速发展,互联网上的新闻信息呈爆发式增长,给公众带来新闻获取便利性的同时,也让假新闻有了可乘之机。媒体技术造成作为核查对象的新闻消息亦真亦假、真假难辨,俨然成为媒体发展中需要关注的“日常态”,这其中暴露出来的热点流量泡沫、核查意识欠缺、核查流程断裂等诸多问题,使得事实核查一次次成为公众关注和业界反思的关键词。
事实核查一词最早出现在20世纪20年代的美国,主要是为了确保所刊载、发布的新闻消息准确无误而设立的专门事实核查部门和专业事实核查人。事实核查最初是附属于媒体编辑机制的一部分,而媒体对事实核查的重视体现了其追求真实的角色责任。信息技术普及和媒体元素扩散拓展了新闻媒体发展空间,以网络为核心的信息传播以其便捷性和全时性特点迅速成为常态,也带来了信息传播方式的巨大变革。信息传播时空障碍的打破使得内容生产者足不出户就可以获取信息,这在便捷新闻生产的同时也埋下了事实核查隐患。以此为基础进行新闻生产,既给事实核查增加了难度,也违背媒体追求真相的本质诉求。网络信息便利获取中夹杂着谣言与虚假,网络信息迅速传播中渗透着歪曲与异化,这些带有网络气息的信息使事实核查门槛更高、内容更复杂、层次更多元。
媒体平台与事实核查模式的历史演进
事实核查作为媒体内容生产的核心防线,在核查模式变革中见证着媒体平台的演进历程。纸媒时代、网媒时代、融媒时代是三个重要媒体平台阶段,而事实核查的角色价值也在不断发生变化。
(一)纸媒时代:编辑为中心的核查
总体而言,纸媒时代的事实核查更多以编辑核查为中心。彼时媒体平台更多以报纸、杂志为主,其运行核心就是编辑负责制。这种模式既能高效率、体系化将新闻面向受众,又能通过编辑审核提升作品质量。但一直也伴随着发展中的问题,越来越集中表现在媒体对于真实性追求不仅体现在内容真实,还体现在采访素材真实、创作过程真实、涉及人物和场景真实上,尤其是针对“深度报道”诸类体裁,传统编辑核查模式存在很大困难。美国《纽约客》杂志在1927年成立了事实核查部,设立了独立事实核查人,专门负责真实性核查,弥补了传统编辑核查的局限性,但是由于这一模式对核查人要求较高,且运行成本较大,故并未得到广泛采用。
(二)网媒时代:弱化审查和核查
以门户网站、论坛等为代表的Web1.0时代产物为新闻带来了新呈现方式,媒体在原有纸媒基础上向网络平台延伸,“报网联动”成为这一时期的特色。媒体利用门户网站传播速度快、互动性强等优势积极回应社会关切,但网络发展初期“去中心化”也为事实核查带来了新挑战。传统编辑为适应网络环境变化,客观上对核查环节有所忽略,且体系化核查机制尚未形成,新闻媒体陷入真实性陷阱。这一时期,网站运营者缺乏专业核查经验,用户媒介素养参差不齐,再加之商业资本入侵和互联网信息海量化,使事实核查更多依靠网站自查和用户反馈。网络虽然为媒体延伸了表达渠道,但也使事实核查面临从未有过的危机。
(三)融媒时代:以用户需求为核心的多元核查
布尔迪厄认为社会是由相互独立又相互联系的场组成,在不同场中,人们为了获得经济或文化财产而进行的象征性斗争是为了占有这些区分符号,而这些斗争必然会引起场结构及其权力变化1]。新闻场域经历的一次次媒体变革就是这些斗争及其所引起场域结构调整的见证。
在我国,最初是一批带有互联网基因的企业开始介入媒体市场,并不断与社交媒体融合,形成与主流融媒平台并存的格局。融媒体平台意味着信息传播的跨平台延伸,通过信息表达平台的多样化,来适应受众信息接收渠道的变化[2]。人民日报、新华社、央视新闻等融媒体平台在转型之后依托强大采编资源、专业记者队伍、系统核查流程、智能算法辅助,成为事实核查的核心力量;网易新闻、新浪新闻等网络媒体平台也通过新闻筛选、网民互动探索出适合互联网模式的事实核查。媒体平台转型是一个过程,事实核查不仅面临内容生产流程变革,也要面对如何处理事实核查与商业资本、社会问题、用户需求的关系问题,在此基础上形成“以用户需求为核心的多元核查”可以被看作事实核查适应融媒时代的初步探索。
无论是传统意义上以编辑为中心的核查,还是历史沿革中出现过的相对独立的事实核查人制度,抑或如今融媒平台初步探索技术引领下的多元核查和立体核查,都意味着新闻界一以贯之对事实核查的重视,其中彰显的是追求真实性的价值内核和基本取向。
融媒平台的事实核查面临新困境
融媒时代事实核查虽然在内容和形式方面都进行了不同程度的革新,但媒体实践长期形成的核查传统并不能随着媒体环境变化而迅速调整。同时,平台在探索过程中也走了一些弯路,问题和困境主要集中体现在以下几个方面。
(一)真实边界不清与机制法治欠缺
媒体以公众关心的热点话题为题材进行内容生产是其社会监督使命使然,但以速度和热点求“爆款”也使得多元信息亦真亦假、真假难辨。在网络匿名性的驱使下,传播过程中难免出现信息再加工和二次解读,真假界限在网络传播中逐渐被磨平。这不仅破坏真实性生存土壤,而且使事实核查也面临考验。当前融媒平台核查机制还处在探索阶段,编辑专业素养、内容生产经验依然是核查的主要保障,适应网络平台的核查体系尚未建立。我国部分网站采用双信源核实方式,即是否有两个以上的具有权威性的媒体发布了某一新闻消息,如果是,就跟进[3]。这种核查本质上缺乏严谨的机制制约,一定程度上把核查让渡给媒体权威性,以权威代替真实,核查公正性和核查结果也就更容易受到质疑。当然,这也是一种不得已的阶段性核查措施保障。与此同时,新闻法治缺位、惩罚机制不健全使跨越真实边界所付出的代价太小,新闻法治与核查机制之间的衔接鸿沟使事实核查无异于“隔靴搔痒”。面对来源复杂、真假难辨的网络信息,事实核查无论是从方式还是效果上来说都捉襟见肘。
(二)价值导向偏失与事实核查滞后
网络平台运行机制下,注意力经济使不少平台将点击率当作判断新闻信息有用与否的标准,为“蹭热点”不惜罔顾真实性,为迎合公众需求不惜举起“媒介审判”大旗。与此同时,非虚构写作“参与式观察”也介入新闻生产之中,采访者由“观察者”变为“参与者”,使新闻客观性遭受质疑[4]。后真相时代的受众已被区分为具有不同意义和价值框架的分众群体,事实核查只有符合受众原有的价值框架和接受心理,他们才更有可能将其认定为真相,并以此作为信息决策的依据[5]。新闻内容通过网络裂变式传播和公众情绪化解读助推,往往在完成核查之前就已经产生社会影响。在这样的传播基础之上,事实核查不仅结果滞后,而且从效果上看也是事倍功半,融媒环境下新闻内容“先发表,后审核”的延迟核查成为常态也就不难理解。核查机制滞后化使媒体把“社会传播力”置于“真实性”之前,事实核查价值导向在流量和资本的裹挟下逐渐偏失。
(三)网络信息动态与核查流程静态
信息流动性强虽然是网络优势,但也给融媒平台事实核查带来现实困难。反映社会变动是新闻媒体价值所在,这就意味着其必须紧密关注事件发展,信息获取和生产过程必然是动态过程。当前,我国现有核查模式仍以编辑与记者之间单向沟通为主,核查更多是以新闻产品为核心展开的。这种模式从本质上来说仍然是“被动”的静态核查,并未突破传统事实核查的封闭性,一方面核查流程不够透明,另一方面未能适应网络信息动态变化,导致新闻真实性存疑,反转新闻与假新闻频繁发生。
(四)技术陷阱困境与核查范围模糊
网络信息复杂化从内容层面为事实核查带来了挑战,而媒介多样化也从方式层面使事实核查更加多元化。技术对事实核查的影响是双向性的,一方面,依托算法的人工智能技术能够成为事实核查的可行性探索,这可以有效提升核查效率和透明度;另一方面,经由智能数据产生的假新闻更复杂、表现形式更新,这也对智能算法核查新闻的有效性带来了更大挑战[6]。智能算法核查的精度、准度如何,能否精准识别事实和观点暂且不论,这种将核查权力让渡给技术的核查其实某种程度上成为一种“以技术反制技术”的“技术乌托邦”。事实核查如何利用技术而又避免陷入技术陷阱困境是当前亟待解决的问题。与此同时,技术赋权下公民议程开始影响媒体议程,各种形式的用户生产内容(UGC)也成为媒体新闻来源的一部分。值得思考的是,UGC具有偶然性、无意识等特点,且并未受过专业训练,信息内容质量也参差不齐,这类信息如果成为媒体新闻来源,应该如何核查?未成为媒体新闻来源的信息如果产生舆论影响,是否也应该纳入媒体事实核查的范畴?这一关于“什么应该核查、应该如何核查”的核查范围模糊困扰着事实核查的深度发展。
媒体融合与平台时代来临带来的是全方位变革,如何适应信息环境变化是事实核查无法逃避的问题。
事实核查立体多元路径新探索
融媒平台在编辑机制中如何保证事实核查,是融媒平台能否成功转型的基本和核心问题。
(一)意识革新,立体核查与新闻法治双重约束
传统核查在长期实践过程中已然形成稳固根基,依靠技术推动和平台转型等外部力量更多只能是推动,只有意识革新才能打通新闻法治与事实核查之间的鸿沟。要建立以作品为核心的垂直核查与以平台为核心的平面核查相配合的立体核查机制:垂直核查要延伸到资料收集、采访、写作和反馈过程的各个环节,确保信息核查全流程覆盖;平面核查要统筹新闻与平台、新闻与编辑、新闻与记者、新闻与新闻之间的关系,在真实性内外查漏补缺,防止社会力量裹挟。与此同时,要加强新闻法治建设,将事实核查纳入新闻法治框架,加大失范新闻惩罚力度,为事实核查筑起“法治之墙”。
事实核查与新闻法治是融媒发展的两个方面,只有打通两者之间衔接障碍,使新闻发布在内部系统机制和外部严格法规的双重约束之下,才能织好事实核查这张大网的经纬线。
(二)技术引领,挖掘多元核查与角色引导价值
以音视频等形式为核心,直播、可视化记录为支撑,人工核查为基础,大数据和人工智能技术为辅助是推动“互联网+事实核查”,致力核查流程透明化、客观化的关键。与此同时,可以借助社交媒体平台事实核查经验,引入第三方核查、规范事实核查流程、打造专业的事实核查平台等多种方式,建立用户与事实核查机构的链接[7]。多元核查不仅意味着核查模式变革,更影响着媒体核查角色认知。媒体应该通过强化信息核查引导公众提升媒介素养,帮助公众正确获取与传播网络信息,逐渐完成由信息把关人向引路人的角色转变,为事实核查“正本清源”。
(三)开放核查,立足动态核查与互动核查
信息液态流动是融媒时代事实核查面临的第一难题。以编辑和记者为主的单向核查模式不仅不能适应网络信息的动态性,而且模式本身也存在着客观性不足和封闭的局限性。融媒平台事实核查应该摒弃“非黑即白”的结果式核查,适应动态化、互动化信息环境而采用动态化过程式核查,让事实核查与信息流动相伴而生,内化为新闻生产机制的一部分,变被动核查为主动核查。融媒时代的海量信息要求事实核查不仅需要精度、准度,更需注重核查广度、深度,因此,融媒平台的事实核查应该将用户纳入其中,从而建立以平台核查为基础、编辑核查为中心、用户监督为支撑、技术检验为辅助的开放核查体系,在技术联动下实现用户、平台、编辑的多元互动。与此同时,平台可以将新闻内容生产过程公开化,既可接受用户监督,也可调动用户参与积极性,使新闻更好地体现服务公众的属性。
(四)厘清关系,协调人工与技术的互动平衡
融媒平台事实核查既要积极利用新技术为核查力量注入活力,又要厘清技术与人的关系。本质而言,技术只能是外部推动力量,事实核查的基础始终是人。要以平台核查为基础、编辑核查为中心,强调实地调研和人物采访,使算法技术为编辑所用,编辑为算法技术引领方向,更好地将技术增长这个影响核查的“变量”变为推动核查进步的“增量”。未来,区块链、人工智能、大数据必然会成为事实核查的底层技术架构,而人与技术的互动进步才是事实核查的关键。媒体融合背景下,公民参与不断延伸内容生产范围,事实核查也应该在此基础上作出相应调整。笔者认为,对于核查范围而言,成为媒体新闻来源的UGC要做到“有用必查”;未成为媒体新闻来源但是产生舆论影响的要“应查尽查”,履行媒体环境监测功能,防止由此引发的舆论危机;普通UGC本质上属于用户言论的网络表现形式,媒体事实核查可以不必介入,但是也有必要设置监督预警功能,运用技术手段实现后台监测,同时注意通过社交媒体传播核查知识,提升公众媒介素养,正确引导舆论参与,从根本上筑牢“核查之门”。核查范围延伸和核查技术进步是人工与技术互动的产物,厘清人与技术的关系,始终坚持事实核查的基础在于人,也是一个人工与技术协调平衡的过程。
结语
媒体平台转型过程其实就是事实核查演进史。从纸媒到网媒再到融媒时代,随着技术进步、平台发展,核查模式也在探索中不断创新,出现了“类核查共同体”,“事实核查网”已经初步织起。当然,核查结果是否客观、是否经得起检验,以及如何应对融媒时代的巨大变革所带来的冲击与挑战,从而提升核查效果,也需要对事实核查这一时代命题做进一步深入研究与回答。
注释:略。
作者:韩隽,西北大学新闻传播学院教授、博士生导师,新媒体研究院执行院长;巨高飞,西北大学新闻传播学院硕士研究生。
来源: 中国编辑
链接:https://mp.weixin.qq.com/s/ExsJ8ObbE8zpyS7LbdeBrQ
编辑:马皖雪

484#
 楼主| 发表于 2021-5-9 22:40:37 | 只看该作者
【案例】



编辑:马皖雪
485#
 楼主| 发表于 2021-5-15 18:43:17 | 只看该作者
【案例】
AI续写火了!靠谱吗?作家会失业吗?
AI续写火了!有些故事很“惊人”
林黛玉大战孙悟空;孔融让梨因一个梨引发了血案;蒲松龄笔下的狼袭击了多个城市无人能敌;为孩子买橘子的父亲在月台摔倒暴毙……
  
这些“熟悉又陌生”并匪夷所思的故事情节都来自AI续写,并在B站等一些平台引发热议,“碳基生物写不出这样的文章”。AI写作能力已经这么强大了吗?人类作家饭碗还能保住吗?AI创作到底靠不靠谱?

  
在影响较大的蒲松龄《狼》AI续写中,屠户被两只狼吃掉,两只狼随后咬死很多人,甚至袭击了很多城市,县衙派出衙役捕捉,最后都被杀死,对此毫无办法,最后统治阶层宣布不允许再谈论此事。
  
故事结尾称:最后有猎人发现了两只狼的尸体。60年后,不再有两只狼袭击城市的事情发生了。历史变成传说,传说变成神话,你听的这个故事又有多少真实成分呢?
  
网友对此热议,“竟然有聊斋内味了”“最后结尾看的竟比人类还透彻”。
  
类似的AI续写还很多,鲁智深倒拔垂杨柳,垂杨柳开启反抗模式,大骂“死秃驴”;两小儿辩日,孔子竟撺掇俩小孩打架决对错;渔人误入桃花源,桃花源内的人都对渔人说“你已经死了”,渔人被放进棺材后,桃花源一切如故,一切都没有改变。
  
有网友称,桃花源这个故事续写惊到我了,“AI写的这最后一句看得我头皮发麻。”
  
还有网友自己也玩了起来,“让它续写了几段四大名著,现在已经笑得下巴脱臼了。”
  
体验:瞬间可写N个版本
  
记者对AI续写进行了体验,例如在某AI续写平台输入“叶公好龙”,AI续写当龙出现后,叶公果断选择了报警,警察初始不相信,然后调取监控后发现真的有龙……

以“揠苗助长”开头续写,“一些人会认为我这种方式太过于残忍,如果我现在不这样做,等我拥有实力后,那些人也会用同样的手段对待我……”
  
但也有一些AI续写“很小儿科”。或是重复啰嗦;或是毫无逻辑;或是规律性很强。例如,在微软人工智能小冰写的一些诗中,规律性就很强,每句都带一个“的”。
  
而且记者注意到,即便是同一个AI平台,同一个题材,AI续写呈现的内容都有所不同,所以是否能AI续写出精彩内容随机性很强。
  
AI续写都是几秒完成,还可以一次续写出多个版本,如果不满意还可以再换一批,或者随时编辑调整。甚至一些AI平台还可以选择风格,有“言情”,有“纯爱”等风格。
  
靠谱吗?什么原理?
  
这样的AI续写到底靠谱吗?目前观点并不一致。
  
有网友称,“这就是文字堆砌,毫无逻辑”“满满的晋江文学味”“我终于明白了,为什么一些网文日产几万字,啧啧”。

但也有网友认为,“写得不错,除了一些爽文,甚至有的内容很‘内涵’。例如在上述《狼》续写中,这不就是在讽刺现实有些事情解决不了就不再谈了?”
  
还有网友认为,“AI续写质量和人类差很远,但在构思和想象上,人类难以追赶。”
  
有AI写作平台介绍,“如果你每天写作超5000字,那么你需要AI写作,它能帮助你推敲用法、斟酌文法、改写文风等。”
  
还有分析称,AI续写基于网文的大数据采集,然后经过机器学习后,产生上下文联想等,最终呈现给大家。
  
我们写作“饭碗”还能保住吗?
几年前,柯洁与AlphaGo围棋大战,三战全败让人类看到了AI的强大。近几年AI应用更是层出不穷,人脸识别、AI招聘、自动驾驶等新技术日新月异。
  
但AI应用大多集中在数字化、智能制造等领域。AI更擅长的是识别、认知、深度学习等。AI写作虽有涉及,但表现平平。
  
例如几年前就存在的AI股市报盘写作,普遍认为,AI报盘顶多是制作了固定模型,有一定的写作套路,只需要定时采集相关数据即可。

AI写诗也被认为套路满满,虽然AI小冰都出了诗集等,但终究没引发多大反响,甚至还被嘲笑:“就是堆砌文字,我一天能写100篇。”“AI写作也就是敢出诗,因为大家都看不懂。”
  
主流观点认为,艺术创作是人类特有的能力,这是AI无法逾越的。但这次AI续写来势汹汹,不少人质疑:人类特有的创作能力,难道真被AI复制了?
  
不过有一点需注意,一些精彩的AI续写并不是完全由AI完成的,会人为调整,可以说是AI和人类共同完成的。在B站上传的一些精彩AI续写也都标注为作者和AI续写平台共同创作。
  
你有没有玩过AI续写,怎么看呢?
来源:中国新闻网
编辑:何晓琴
                                                     

486#
 楼主| 发表于 2021-6-8 10:34:14 | 只看该作者
【案例】
AI:如何在利润与道德之间找到平衡
  桑希尔:目前很大一部分公众注意力集中在人工智能令人担忧的用途上。但如果我们不去利用人工智能,社会可能会错失哪些好处呢?
  以下这个问题,即使是最聪明的人在最强大机器的帮助下也难以给出答案:在什么情况下,不去利用一项变革性技术的社会成本,会超过利用该技术所带来的明显风险?
  没什么不对的是,很大一部分公众注意力集中在人工智能令人担忧的用途上,例如杀人机器人或无处不在的面部识别技术。这导致人们要求对其进行更严格的监管,欧盟(EU)目前正在进行这项工作。但仍不可知的是,如果人们不以负责任的方式充分利用人工智能,社会可能会错失哪些好处。可以理解的是,我们对科技企业获得机密病历访问特权的可能性抱有反感。但我们很少意识到这些企业的宝贵贡献,在当前这场疫情期间,它们帮助疫苗接种工作以最快速度覆盖临床弱势群体。

来源:FT中文网
编辑:何晓琴

487#
 楼主| 发表于 2021-6-8 16:23:23 | 只看该作者
【案例】
短视频脚本难?Giiso写作机器人教你如何躺平创作爆款!
最近频频霸占热搜的“躺平”一词,调侃的背后,折射出年轻人拒绝“内卷”,追崇“躺平”的生活与工作。越来越多的人佛系躺平,那么如何实现躺平生活与工作就很关键!

工欲善其事,必先利其器!
这里要提到工具的重要性了。如今AI时代,躺平不是没有可能。生活中,我们用扫地机器人代替我们扫地、拖地;工作中,我们也喜欢寻找一些有利于工作效率提高的工具。依靠这些科技进步的产物,我们在生活与工作中躺平成为可能。
以短视频领域为例,想象下,你有一个超级勤快的助理,它不用吃饭睡觉,也不需要冥思苦想,很轻松的就能把你觉得很难搞定的任务,比如脚本、配音甚至剪辑都搞定,是不是觉得很赞?
下面,我们重点推荐3款短视频创作必用的AI效率工具,抖音很多大号亲测好用的人工智能效率软件哦~

01 脚本用Giiso写作机器人
Giiso写作机器人是一款AI写作工具,在人工智能帮助下,它能帮助撰写文案,尤其擅长热点事件的创作。内容爆不爆,热点很重要。比如说现在的高考热点,以高考为关键词,这个网站能够输出很多篇800字篇幅的文章。挑一篇再做内容上的精简与优化,改改后就是一篇很好的短视频脚本。
并且,这个网站目前正在做618活动,折扣力度前所未有。VIP会员不仅买一送一,还额外赠送写作金,真的是超实惠。
02 配音用标贝悦读
短视频离不开配音,自己不想配音,一定要去这个AI网站。标贝悦读支持在线文字转声音,适用于自媒体文章文字转声音、儿童故事文字转声音、小说文字转声音、视频文字转声音、商家促销文字转声音等多种场景。是不是很nice。
剪辑上Beatleap
剪辑其实是短视频里最费的工程了。有一款好用的剪辑软件简直是事倍功半。这里要推荐beatleap这个APP。用这个APP,视频可以一键调节,大片神器最关键的是高级感十足。
像以上这类的工具其实有很多,无论是我们短视频还是自媒体人,关键是找到一款适合自己的效率软件,躺平不是梦。

来源:Giiso写作机器人

编辑:何晓琴

488#
 楼主| 发表于 2021-6-15 22:51:20 | 只看该作者
【案例】
人民网发布《2020内容科技发展与前瞻》报告
615日,人民网组织编写的《2020内容科技发展与前瞻》报告正式发布!这是继《2019,内容科技(ConTech)元年》白皮书之后,人民网推出的第二本“内容科技”年度报告。

人民网党委委员、监事会主席、人民网研究院院长唐维红发布报告
人民网党委委员、监事会主席、人民网研究院院长唐维红在上午举行的“红色云展厅”上线仪式暨《2020内容科技发展与前瞻》报告发布会上讲到,回望2020年,新冠肺炎疫情成为世界百年未有之大变局中影响深远的重要变量,5G技术大规模商用加速万物互联进程。我国内容科技应用场景日益丰富,应用领域日益广泛。内容科技带来的变革性作用进一步凸显。
唐维红介绍,2020年,内容科技对内容产业的赋能在显著加速,技术和机器在内容采集、生产、分发、接收、反馈五个环节都开始发挥重要作用,引领驱动媒体深度融合发展。内容科技可以更充分地发挥内容信息的价值,创造新闻+政务服务商务的新模式。内容产业加快向数字化、智能化方向转变。
报告指出,内容科技不仅正在重构内容产业的生产关系、社会分工和产业链,也成为联接各行各业的桥梁,内容科技日益成为内容产业与其他行业融合发展的战略支撑。同时,内容科技也在提升社会管理与公共服务数字化智能化水平等方面,不断推进国家治理能力现代化。
唐维红表示,今年是中国共产党百年华诞,人民网在内容科技应用方面的探索更进一步,积极推动内容科技与党建工作深度融合。202154日,人民网智慧党建体验中心在北大科技园启动,集中呈现内容科技新成果、新亮点。正如报告序言所指出,未来人民网将长期在“智慧党建”领域不断研发创新,搭建公共平台,开放对外合作,及时挖掘各类内容科技切实服务党的建设。期待朋友们能和人民网一起,共同研究内容科技的技术演进,一同探索内容科技的实际应用,使内容科技更好地满足人民美好生活需求和国家发展战略的需要。
该报告记录了2020年内容科技新发展、产业新应用、认知新进展,梳理了内容科技在新闻媒体、社会管理与公共服务以及行业应用方面的15个典型案例,并对内容科技未来发展提出了五大展望。


2020内容科技发展与前瞻》视频版
发布会上展示了《2020内容科技发展与前瞻》视频版,报告网页版简版以及电子书完整版也在人民网上同步推出。金报电子音像出版中心还为报告制作了正式的电子出版物。
欢迎扫描下方海报二维码或点击阅读原文,打开这本内容科技报告!

2020内容科技发展与前瞻》电子书完整版
来源|人民网研究院

编辑:马皖雪

489#
 楼主| 发表于 2021-6-16 18:55:22 | 只看该作者
【案例】

域外法治 | 欧盟委员会2021年《人工智能法》提案研究
20214月,为了加强整个欧盟范围内对于人工智能的使用、投资和创新,欧盟委员会通过了《人工智能法》提案(以下简称提案)。提案提出一套人工智能领域的法律框架,以期对人工智能的应用进行规范和限制,保护人们日常生活和正当权利不受侵害。提案不仅对人工智能技术,如汽车自动驾驶、银行贷款、社会信用评分等一系列日常生活中的应用进行规范,还对欧盟执法系统和司法系统使用人工智能的情形提出了相应的规制路径。
值得注意的是,提案作为欧盟在人工智能领域作出的关键立法,意味着欧盟对人工智能领域的数字治理提出了新要求,反映了人工智能技术的治理与发展应当在《通用数据保护条例》(GDPR)的有效监管下进行,即按照与《通用数据保护条例》(GDPR)一致的方式进行统一部署。
提案采用具体法律框架的形式与各成员国实施的协调计划积极结合,以保障公众和企业的隐私安全和基本权利为主要出发点,进一步明确了人工智能在不断更新和发展的同时,应当满足于世界范围内符合社会基本价值观与发展新兴技术两者间的平衡要求,从而使欧洲公众能够增强对人工智能技术所提供的产品和服务的信任。
提案的出台背景与制度设计
在过去的十年里,人工智能技术经历了快速的发展,其为经济、社会和文化发展、能源可持续性、更好的医疗保健和知识传播提供了丰富的机会。但同时,这些机会也伴随着潜在风险,如失业、不平等、就业歧视、社会排斥、不知情的监督和操纵等。自人工智能技术问世以来,考虑到潜在风险的存在,欧盟委员会在符合欧盟价值观的背景下以提高其技术竞争力为主要目标,持续促进和加强欧盟各成员国在人工智能技术方面的合作。根据欧盟委员会的定义,人工智能技术是指采用官方所列明的一种或多种技术和方法开发的软件,并且能够针对特定人群或具体目标在内容、预测、建议或决定等方面产生一系列影响其交互环境的输出技术。
关于人工智能技术在欧盟的发展现状与前景,欧盟委员会数据执行副主席Margrethe Vestager表示:“在人工智能领域,公众信任是必须存在的,而对其进行监管和规制是建立这些信任的最佳方式。只有存在具有里程碑式的监管规则,才能确保人工智能值得信任。欧盟对人工智能技术采取的规则将面向未来的创新与进步,并在欧盟公民的安全和基本权利受到威胁时进行干预。”基于此,提案应运而生。这一举动体现了欧盟在人工智能领域积极引领并制定新的全球规范的意图。
提案的总体目标在于为全球范围内人工智能技术的应用与发展制定详细标准,以及为符合道德和法律双重标准的人工智能技术铺平道路,并确保欧盟在此过程中保持技术竞争力,从而有效加强欧洲作为全球卓越人工智能中心的地位,并使得欧洲人工智能技术的发展符合欧盟的总体价值观和规则。
提案明确了适用对象,并指出了几类主体范围,分别为将人工智能系统投放市场或投入使用的供应商、欧盟领域内人工智能系统的使用者、位于第三国的人工智能系统的供应商和使用者。
人工智能技术的风险分级
显然,欧盟已经意识到人工智能技术对欧洲价值观、基本权利及原则的风险影响。提案对人工智能采取了考虑风险但总体审慎的方法,将人工智能技术可能带来的风险划分为以下四个层级。
第一,不可接受的风险。此类风险被欧盟认为将会对公民的安全、日常生活和基本权利构成明显威胁,故予以明令禁止。如通过操纵人类行为来规避用户自由意愿的人工智能技术或应用程序,最典型的事例是使用智能语音辅助的玩具来鼓励未成年人从事危险行为。
第二,高风险。提案未对人工智能技术高风险的具体含义进行说明,但将人工智能技术可能发生高风险的覆盖领域详细归纳为关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、涉权型执法、出入境问题、司法和民主进程等8类。
提案强调了所有远程生物识别系统都应被划入高风险的范围。提案要求,部分成员国已经出台法律对该系统进行限制的,应当与提案所规定的内容保持一致。关于远程生物识别系统的禁止情形,提案还规定了豁免条款,即原则上禁止在公众可进入的空间和场所内使用远程生物识别系统,但出于执法目的的某些例外情况,可经司法或其他独立机构授权予以使用,如在紧急情况下搜寻失踪儿童,防止迫在眉睫的恐怖主义威胁,侦查、定位、识别或起诉严重刑事犯罪的犯罪嫌疑人等。同时,提案要求,即使在前述例外情况下,对于远程生物识别系统的适用时间、地理范围和搜索的数据库等方面依然必须进行适当限制。
提案还详细规定了存在高风险的人工智能技术在投放市场之前必须履行7种严格义务。同时,这些义务在人工智能系统投放市场或投入使用前及在整个生命周期内都要接受审查。7种严格义务具体包括:1.完备的风险评估系统;2.向系统提供高质量的数据集,以将风险和歧视性结果降至最低;3.记录活动以确保结果的可追溯性;4.提供有关系统及其目的的所有必要信息,以供当局评估其合规性;5.向用户提供清晰、充分的信息;6.采取适当的人为监督措施,将风险降至最低;7.高水平的安全性和准确性。
第三,有限的风险。此类风险指包含特定透明度义务的人工智能系统。因特定透明度义务的存在,故当用户使用人工智能系统时,能够意识到其本身正在与人工智能系统进行交互,即在用户知情的情况下提供用户方决定继续运行或中止的权利。
第四,极小的风险。如提案允许免费使用人工智能视频游戏或垃圾邮件过滤器等应用程序等。绝大多数人工智能系统都属于此类风险。因为欧盟认为这些人工智能系统对公民的权利或安全产生的风险极小,甚至无法产生风险,故提案并未对极小的风险进行干预。
关于人工智能的治理主体,提案指出人工智能系统的设计和开发应当保证在使用过程中能够受到公民的监督,故其规定由国家主管市场监督机构监督新规则的适用。未来,可以建立欧洲人工智能委员会来促进新规则的实施和推动人工智能标准的制定,并由其承担各种复杂的任务,如协助国家主管市场监督机构来确保提案的一致适用、发布与人工智能技术发展相关的意见和建议、在成员国之间收集和分享最佳实践等。
为此,提案还提出了鼓励不属于高风险范围的人工智能技术的提供者制定行为守则,促进自愿采纳适用于高风险人工智能技术的强制性要求,并提出了监管沙盒模式以促进人工智能领域的创新。在人工智能技术规制措施的执行方面,提案规定由各成员国根据不同国情予以严格执行。此外,提案还规定了企业在8种高风险领域范围内使用人工智能技术,若违反规定将处以高达3000万欧元或公司全球年度总营业额2%6%的行政罚款,最终选择罚金金额更高的处罚方案。
目前,提案已经提交给欧洲议会和欧洲理事会进行审议和分析。提案若通过,将会在欧盟官方公报上公布20天后生效,并将在生效后的两年内持续适用。鉴于人工智能技术涉及大量的利益相关者,且争议性较大,故欧盟方认为提案具体落实于公民现实生活的过程仍然道阻且长。
提案与《通用数据保护条例》
人工智能技术与个人数据长期保持着紧密联系。借助于人工智能技术,个人数据可以用来分析、预测和影响人类行为。在许多情况下,自动化的预测和决策不仅成本更低,而且比人类的预测和决策更精确、更公正。因为人工智能系统可以避免人类心理的典型谬误,并且可以受到严格的控制。
《通用数据保护条例》(GDPR)作为欧盟范围内保护个人数据的重要条例,充斥着模糊的条款和开放的标准,而这些条款和标准的应用往往需要平衡相互竞争的利益。在人工智能应用中,技术的新颖性、复杂性及其个人和社会影响的广泛性加剧了不确定性。显然,提案的出台将会在此方面予以明确和规制,从而有效保护个人数据的流通与收集。
尽管《通用数据保护条例》(GDPR)没有明确提到人工智能一词,其许多条款与人工智能相关,如《通用数据保护条例》(GDPR)允许开发人工智能和大数据应用程序,成功地平衡数据保护和其他社会经济利益,但它对如何实现这一目标仅提供了有限的指导。此外,提案规定了从事人工智能处理的控制者应当采取负责任和风险导向的方法,同时鉴于问题的复杂性及《通用数据保护条例》(GDPR)中存在的模糊性,不应让控制者单独参与该项工作。
笔者相信,随着提案的问世,欧盟各机构仍可能会继续促进对人工智能应用的广泛讨论,并进一步提供高水平的指示。欧盟数据保护当局需要积极参与和所有利益相关者的对话,包括人工智能系统的控制者、处理者和社会公民,以便根据共同的价值观和有效的技术制定适当的应对措施。当《通用数据保护条例》(GDPR)所规定的数据保护原则的一致应用与有效使用人工智能技术的能力相结合时,可以通过提案所指出的预防风险的方式,为人工智能技术在未来的成功应用做出贡献。
提案与欧盟《人工智能白皮书》
2020219日,欧盟委员会发布了《人工智能白皮书》(以下简称《白皮书》),旨在通过提升欧洲在人工智能领域的创新能力,防范和处理人工智能技术带来的各类风险,从而推动道德和可信赖人工智能的发展。《白皮书》就人工智能技术的重要战略意义作出了高度评价,其指出人工智能技术的发展趋势已不可阻挡,将会迎来新一轮数据浪潮机遇。不可否认,在人工智能技术带来大量好处的同时,也意味着可能会对经济和社会造成不稳定的影响,如劳动力剩余、个人信息失控、在线平台加剧垄断等。而前述问题仅依靠市场力量很难得到及时有效的处理。
为了取得人工智能领域的领先地位,欧盟希望通过政策监管与增加资金投入两种措施促进人工智能发展并解决其带来的风险。显而易见,提案作为《白皮书》中政策监管措施的积极践行,体现了欧盟正在采取实际立法行动对人工智能技术的风险予以规制。而在增加资金投入方面,《白皮书》也指出,未来十年,欧盟每年将吸引两百亿欧元的投资。
笔者认为,提案的出台,是《白皮书》实施计划中的重要一环,预示着欧盟已经开始针对人工智能领域的规制和监管采取了积极的立法措施,并在《白皮书》的引导和指示下不断增强对潜在风险的预警和处理,积极明确提案的规制对象与规制范围。此外,《白皮书》还曾指出为了应对人工智能的挑战,欧洲需要一个全面涵盖商业和公共管理的战略部署,除了为人工智能的发展创设有利环境外,还必须基于广泛认可的价值观和原则来建立全球监管规范和框架,以保证人工智能的发展以人为本。值得注意的是,提案重申了该内容,即符合社会基本价值观与发展新兴技术两者之间应当取得有效平衡,并进一步规定了诸多措施,从而使人工智能技术的不良影响降至最低。
可以预见,未来欧盟将会持续加大对人工智能技术的投资,并会严格按照提案与《白皮书》的要求进行规制和监管,使人工智能技术在符合欧洲基本价值观的前提下进一步加强其技术研究与应用实践。
(本文是国家社会科学基金项目【批准号:15CFX035】的阶段性成果)
来源:中国审判
链接;https://mp.weixin.qq.com/s/9E-I2DffrCM7eK-x5FnXBA
编辑:马皖雪

490#
 楼主| 发表于 2021-6-16 20:34:48 | 只看该作者
【案例】


耶鲁信息法教授:算法社会中的三大法则


内容提要

我们正在从互联网时代飞速走向算法社会,这是一个由算法、机器人和人工智能体围绕社会和经济决策组成的社会。阿西莫夫三大定律具有一定的启发性,但仅适用于科幻小说。人类与机器人的关系,犹如布拉格魔像传说中的“拉比和魔像”。在算法社会中,规制的核心问题不是算法,而是使用算法的人,以及允许自己被算法支配的人。我们需要的不是阿西莫夫定律,而是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则。算法操作者是委托人及终端用户的信息受托人,算法操作者对公众负有责任,算法操作者负有不参与算法妨害的公共义务构成了算法社会中的三大法则。

关键词

算法社会;信息受托人;算法妨害;人工智能



一、弗兰肯斯坦情结

在我孩童时期,我读了艾萨克·阿西莫夫(Isaac Asimov)所有关于机器人的故事。在阿西莫夫的世界里,机器人逐渐融入社会的方方面面,它们与人类有着不同程度的相似性。但随着故事的发展,最先进的机器人在外观和形态上开始非常“人类”。

这些机器人故事中最著名的就是阿西莫夫的三大定律,它将被植入每个机器人的正电子脑中。

这三条定律如下。

第一定律:“机器人不得伤害人类,或者通过不作为而使人类受到伤害。”

第二定律:“机器人必须服从人类的命令,除非该命令与第一定律相抵触。”

第三定律:“机器人必须保护自身的安全,只要这种保护不与第一或第二定律相抵触。”

这三条定律非常有影响力,甚至直到今天,人们还在想象将它们植入到机器人(例如自动驾驶汽车)上会是什么样子,或者这种植入是否有可能实现。

作为一种令人印象深刻的文学手法,三大定律用一种有趣得多的主题取代了人们熟悉的机器人主题。更古老的主题是“弗兰肯斯坦怪物”,或后来变得很邪恶或发狂的杀手机器人的主题。在《终结者》系列电影中,该文学主题的一个例子就是,神经网络(Skynet)变得有自我意识并接管了世界。但阿西莫夫写机器人故事是为了对抗他所谓的“弗兰肯斯坦情结”(Frankenstein Complex)——即机器人天生就具有威胁性或邪恶性——且人类不可避免地会创造出一些机械生物,而这些机械生物又会攻击它们的创造者。事实上,在他的许多小说中,人们一开始对机器人抱有偏见,最终却看到了它们的价值。例如,他几个故事的主角——侦探以利·亚贝利(ElijahBailey)。他最初怀疑机器人,最后却与他的机器人搭档丹尼尔·奥利瓦(R. Daneel Olivaw)成为最好的朋友。

通过设立三大定律,阿西莫夫让事情变得更加有趣。他没有担心机器人最终是否会攻击我们人类,而是提出了另一个律师非常关心的问题,即法律解释问题。当法律不明确或者法律冲突时,我们会做什么?或者在某些情况下,机器人本身会做什么?通过创立这三大定律,阿西莫夫把我们对机器人的想象从威胁转移到了解释和规制的对象,进而转移到了讽刺和冲突的对象。这是一个非常复杂的想法,也是从他的许多小说中发展出来的。

现如今,我们还不清楚我们是否真的能把阿西莫夫提出的三大定律应用到机器人和人工智能体上。毕竟,阿西莫夫的三大定律似乎相当模糊和不完整,可能存在漏洞。

当然,这也是需要重点关注的部分。在阿西莫夫的小说中,一个反复出现的主题是当法律不明确或模糊,或者在某些情况下可能会发生的冲突。因此小说情节往往转向用巧妙的方式来解释或重新解释它们,或者如何解决它们之间的冲突等。在其后期的一部小说中,机器人丹尼尔·奥利瓦(Daneel Olivaw)一开始是个侦探,但最终成为小说中一个非常重要的人物。他变得非常先进,以至于创造了自己的第零定律——“机器人不能伤害人类,或者通过不作为,让人类受到伤害”——这比他在原始程序中接收到的所有其他程序都要先进。

总之,我今天的目标是要问,我们可以利用阿西莫夫关于三大定律的最初想法做些什么。然而,当我谈到机器人时,将不仅包括机器人这种与环境交互的实物,还包括人工智能体和机器学习算法。我认为这与阿西莫夫的观点完全一致。虽然阿西莫夫主要写机器人,但他也写非常智能的计算机。他试图对抗的弗兰肯斯坦综合症(Frankenstein syndrome)可能源于对人工智能或算法的恐惧,也可能源于对实体化机器人的恐惧。今天,人们似乎不仅害怕机器人,而且害怕人工智能体和算法,包括机器学习系统。机器人似乎只是一系列更大问题中的一个特例。

事实上,我们正在从互联网时代飞速走向算法社会。我们将很快回顾作为算法社会先驱的数字时代。我说的算法社会是什么意思?我指的是一个由算法、机器人和人工智能体围绕社会和经济决策组成的社会,这些代理人不仅作出决定,而且在某些情况下,还执行这些决定。因此,机器人和人工智能的使用只是算法社会的一个特例。

大数据也只是算法社会的一个特征。事实上,大数据只是以算法决策为中心的社会的另一面。大数据是运行算法社会的燃料,也是其运作的产物。数据的收集和处理产生了越来越多的数据,而这反过来又可以提高算法的性能。这改变了康德的著名论断:没有数据的算法是无价值的,没有算法的数据是盲目的。

在这次演讲中,我将为算法社会提供新的三大法则。在此过程中,我还将介绍四个重要的理论观点,它们将帮助我们理解该如何监管这些实体。这四个观点是:侏儒谬误(The Homunculus Fallacy)、替代效应(TheSubstitution Effect)、信息受托人(The Information Fiduciaries)及算法妨害(The Algorithmic Nuisance)。随着演讲的进行,我将解释这四个观点。

虽然我的灵感来自于阿西莫夫的三大定律,但是我对于“机器人法则”的描述与他非常不同。

第一,这些法则将不仅限于机器人,它们将适用于人工智能体和算法,包括机器学习算法。当我想把这三个概念放在一起讨论的时候,我会概括地讲一下算法的法则。

第二,当人们在科幻小说中想到机器人时,他们通常会想到独立的实体。但是今天我们知道许多机器人和人工智能体都连接到云端,物联网和家用机器人就是这样。这很可能也适用于自动驾驶汽车。因此,无论“机器人法则”是什么,它们很可能是与互联网相连的云智能法则。

第三,因为机器人是云机器人,我们不应该忘记机器人和人工智能的核心问题之一是数据处理,特别是大数据。没有数据,机器人什么都不是。而且由于许多机器人将成为云机器人,且许多人工智能系统将连接到互联网云,导致它们将严重依赖于数据分析。数据是驱动人工智能引擎的燃料。

因此,当我们谈论机器人、人工智能体和算法时,我们通常也会谈论大数据和互联网连接。就像我们谈论大数据时,我们通常也会谈论机器人、算法和处理大数据的人工智能体的规则。“机器人法则”也是大数据时代的机器人法则、算法法则和人工智能法则。因此,这就是这次演讲的主题。

第四,也许是最重要的一点。阿西莫夫称他的三大定律,不是机器人使用者、机器人程序员或机器人操作者的定律。他的定律是机器人主导的,它们是以机器人为中心的。也就是说,它们是插入到机器人自身代码中的编程指令。这些是机器人必须遵循的定律,而不是机器人的使用者必须遵循的定律。你可以想象这些指令也是人工智能体或算法的一部分。作为对算法机器学习的检查,它们是一种软件方面的约束,就像权利是行为方面的约束一样。

可以肯定的是,人类被要求为每个机器人编写定律程序。但定律本身是针对机器人的,而不是针对人类的。阿西莫夫并没有提到很多关于要求这种程序的人类定律。但是有人认为政府有某种要求,要求每个机器人的正电子脑都要安装这种程序。

在这一点上,我的观点将与阿西莫夫背道而驰。我没有专注于针对机器人的定律(或算法),而是专注于针对那些编程和使用机器人、人工智能体和算法的人的法则。这是因为在新兴的算法社会中,我们需要的不是机器人定律,而是机器人操作者法则。

算法社会的理念是利用数据和算法来治理社会并改善社会,算法社会的抱负是无所不知地了解一切并预测一切。这是一个与人类自身一样古老的抱负,但现在似乎越来越触手可及。

在算法社会,规制的核心问题不是算法,而是使用算法的人及允许自己被算法支配的人。算法治理是由人使用特定的分析和决策技术对人进行治理。

因此,我们需要的不是像阿西莫夫的三大定律那样由机器人主导的定律。而是针对那些使用机器人进行分析、控制和对其他人行使权力的人的法则。



二、人类与机器人的关系:“拉比和魔像”

让我用一个故事来解释这个想法。2014年春天,玛戈·卡明斯基(Margot Kaminski)和我在耶鲁大学法学院教授了第一门法律和机器人学课程。她列出了一个阅读清单,这个清单在我以后的日子里都有用到。在第一堂课上,她选择了一些著名的文学例子,包括阿西莫夫公开三大定律的短篇小说,以及卡雷尔·恰佩克(Karel Capek)1921年的戏剧《机器人》(RUR),它是“机器人”一词的起源。她还选择了某个版本的布拉格魔像传说(The Legend of the Golem of Prague)。根据传说,布拉格的魔像是由拉比犹大·勒夫·本·贝扎列尔(Rabbi Judah Loewben Bezalel)创造的。拉比(Rabbi)是16世纪的一位圣人,因其学识和虔诚而广受尊敬。他利用犹太神秘主义的秘密知识,用泥土创造了一个活物,就像上帝创造了亚当一样。他通过说出一个神圣的名字使魔像复活了。它看起来就像是人类,非常强大,但不能说话。因为正如传说中所说,言语的力量是上帝单独赋予人类的(下次你和Siri说话的时候,想想事情是怎么改变的)。在很多情况下,拉比通过设置魔像来处理犹太社区受到的威胁。在传说中,魔像扮演一个侦探的角色,就像阿西莫夫的丹尼尔·奥利瓦(Daneel Olivaw)。他只要发现有人在诽谤犹太人,就会抓住这个人。完成了他的目的之后,他会回到拉比那里。拉比将同样的秘密咒语倒着念,魔像就变成了一块没有生命的黏土,被存放在犹太教堂的阁楼里。这个故事的重点是什么?这个版本的故事最有趣的地方就是那些没发生的事情。魔像不会发疯,他没有抓错人。拉比的妻子没有发现魔像并且偶然地释放了魔像;拉比的女婿没有用魔像来赚钱;一个不讲道德的人没有训练魔像去做坏事等。事实上,这个故事里没有什么坏事发生,魔像作了它应该做的事情。在某种程度上,这个版本的传说相当无聊。有一些其他版本的魔像传说中魔像出了问题,十分有趣。但是我们从这个故事中得到的最重要的教训是,没有出错的原因在于,魔像是由最虔诚、最有学问的拉比所设计和使用的。只有一个真正正直的人,或者一个圣人,才有能力把魔像用在好的地方。在我看来,这才是这个故事真正的教训。当我们谈论机器人或人工智能体和算法时,我们通常集中在他们是否会造成问题或威胁。但在大多数情况下,问题不在于机器人,而在于人类。为什么问题出在人类身上,而不是机器人?第一,人类设计算法,编写程序,把它们连接到数据库,然后释放它们。第二,人类决定如何使用这些算法,何时使用算法,以及用于何种目的。第三,人类用数据来编写算法,数据的选择、组织和内容包含了早期歧视和不公正的残余。第四,尽管人们常谈论机器人作了什么,人工智能体作了什么,或者算法作了什么,但是这种谈论忽略了一个重要的问题,即这些技术调节着人与人之间的社会关系。技术被嵌入到社会关系中,而且常常掩盖社会关系。当算法内容包含歧视或用于做坏事时,我们总是需要问算法是如何从事再生产和实现人类之间的特定社会关系的。这些社会关系产生并再现了正义与不公、权力与无权、优越地位与从属地位。机器人、人工智能体和算法是产生这些社会关系的装置。通过这些装置,特定形式的权力得到处理和转化。这就是我所说的问题不在于机器人,而在于人类。



三、人类与机器人的不同:侏儒谬误

这就把我带到了先前承诺会在这次演讲中讲到的四个观点中的第一个观点。我创造了一个短语——侏儒谬误(The Homunculus Fallacy),来描述人们对机器人、人工智能体和算法的看法。侏儒谬误是相信程序中有一个小人物在使程序运行,这个小人物有好的意图或坏的意图,并使程序做好的事情或坏的事情。但事实上,算法中并没有小人物,只有编程代码和数据。编程使用这些数据来运行,有好的影响也有坏的,有可预测的也有不可预测的。当我们批判算法的时候,我们实际上是在批判编程或者数据,或者它们之间的交互。但同样重要的是,我们也在批判那些为算法编程、收集数据或者使用算法和数据来执行特定任务的人们对它们的使用。我们批判的是拉比,而不是魔像。那么,这些技术产生和再产生了什么样的社会关系呢?为了解释这一点,我需要介绍这次演讲中四个观点中的第二个观点。这个观点我之前已经提过了,那就是替代效应(The Substitution Effect)。替代效应是指当机器人、人工智能和算法代替人类,并作为特殊目的的人运行时,对社会产生的影响。机器人或算法作为替代品的概念传达了四种不同的思想:(1)替代品在某些方面比原来的更好;(2)替代品在其他方面比原来的更有限;(3)人们认为替代品是活的——信奉物有灵论或拟人论;(4)替代品的行为是对人类和人类群体中权力社会基础的迷恋或偏离。第一,替代意味着优越。机器人、人工智能体和算法比人类和人类决策者更强大、更快捷。他们可以看到事物、做事情、分析事物并作出人类永远无法作出的决定。他们从不厌倦做这些事情,他们没有情感上的干扰,也不会因为做这些事情而感到内疚。第二,替代也意味着限制或不足。机器人、人工智能体和算法的能力有限,他们只能做某些事情,而不能做其他事情。他们缺乏人类判断力的许多特征。第三,替代涉及生命、能动性和意图在程序及机器上的投射。这也鼓励人们利用算法将自己的责任投射到算法本身上,因此也就产生了侏儒谬误。第四,替换涉及迷恋或意识形态的偏离。马克思谈到了著名的商品拜物教。正如古代社会认为图腾是无生命的物体且具有神奇的力量一样,马克思认为市场社会的人们把商品当作有价值的东西来对待,而实际上赋予它价值的是它嵌入了一个社会关系系统的事实。市场是一种社会关系,它既赋予人们权力,又允许人们相互行使权力。适用于市场上的大宗商品,也适用于机器人、人工智能体和算法等技术替代品的使用。这些技术成为个人和群体之间权力的社会关系的一部分。我们不能把魔像和拉比混为一谈。机器人技术的影响总是与人类或人类群体之间的权力关系有关。最近,媒体报道了一个关于选美选手的算法的故事,这个算法偏爱白人。这类故事加深了人们心中算法存在心理偏见的观点。这就是侏儒谬误——在这个算法中,没有一个选美评委会运用他或她的偏见。如果算法采用机器学习,那么就有以前选美比赛的历史、关于选美的文化假设、收集数据的类型和方式、算法采用的代码及修改代码的代码。还有一些人为了特定任务设置了宽松的算法。我们必须永远记住,在魔像背后是制造和使用魔像的拉比(或整个拉比社会)。



四、算法社会的法则

让我总结一下到目前为止的论点。我从阿西莫夫的三大定律开始了这次演讲,我指出这些定律是直接针对机器人和它们的代码的。然后通过魔像的故事,我指出问题不在于机器人,而在于人类。如果是这样的话,这意味着我们真正需要的不是阿西莫夫的定律,而是与机器人设计者和操作者有关的法则。在我们的算法社会中,我们需要的机器人法则是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则。因为没有数据的算法是无价值的,这些法则还控制着数据的收集、整理、使用、分发和销售,并使这些算法能够运作。

总而言之,我们需要的法则是控制制造和使用机器人的人及与机器人使用数据有关的法则。

这些法则将会是什么样的?回到我的中心观点——在机器人、人工智能体和算法的背后,是人类和人类群体之间的社会关系。所以我们需要的法则是,存在于制定并使用算法的人和受算法控制的人之间的公平交易、不受操纵、不受控制的义务。

人们使用算法对人群进行分类和治理。因为这种关系是一种治理关系,所以涉及的义务是诚信义务、非操纵义务和非支配义务,这些都是指导算法社会的原则。与阿西莫夫的三大定律不同,这些原则不会自动嵌入到机器人中。我们必须确保它们描述了人与人之间的关系并把它们纳入我们的人类社会中,编入我们的法律中。

算法用户对社会负有什么责任?为了回答这个问题,考虑一下算法社会的野心。算法社会的梦想是对社会的无所不知的统治。

野心带来了伤害,除了可能造成身体伤害外,还包括侵犯隐私、曝光、名誉损害、歧视、严格控制(或标准化)及操纵。

算法社会是治理人口的一种方式。所谓治理,我指的是控制算法的人理解、分析、控制、指挥、命令和塑造数据主体的方式。人们使用算法对整个人群进行分类、选择、理解和决策。这种关系不仅仅是一种市场利润关系,也是一种治理关系。

算法社会也涉及信息权力的关系。人工智能很了解你,但你对人工智能知之甚少。此外,你不能很好地监控人工智能体或算法做什么。在运行者和被治理者之间存在权力不对称和信息不对称,这种不对称是算法社会的核心特征——这是算法社会的公共和私人管理者与受他们管理的对象之间的知识和权力的不对称。

什么是算法社会的三大法则?或者更准确地说,什么是算法社会的法律原则?它们是公平治理的三项原则。

(1)就委托人、顾客和终端用户而言,算法用户是信息受托人(TheInformation Fiduciaries)。

(2)对于那些不是委托人、顾客和终端用户的用户,算法用户有公共职责。如果他们是政府,这就是他们作为政府的本质。如果他们是私人行为者,他们的生意会受到公共利益的影响,正如宪法律师在20世纪30年代所说的那样。

(3)算法用户的公共责任是避免其操作的成本(危害)外部化。算法决策的危害,最好的类比不是有意的歧视,而是社会不公正的污染。透明度、可解释性、正当程序和问责制的义务来自这三个实质性要求。透明度和它的“兄弟”——正当程序、问责制和可解释性——以不同的方式应用于所有这三项原则。

问责制、透明度、可解释性和正当程序可能是信托义务,它们可能遵循公共职责。并且它们可能是一种预防措施来防止不合理的伤害外化,或为伤害提供补救措施。

让我依次讨论这三个法律原则。



五、第一法则:算法操作者是委托人及终端用户的信息受托人

为了讨论第一法则,我介绍了另一个我承诺在本次演讲中会提到的关键概念。这就是信息受托人(The Information Fiduciaries)的概念。该概念是我在以前工作中提出的。要理解什么是信息受托人,我们首先应该问,什么是受托人?受托人的例子包括医生、律师等专业人士,以及管理不动产或他人财产的人。一个人能成为受托人的原因是人们依靠他们提供服务。但受托人与委托人之间在知识和能力上存在着明显的不对称,委托人无法方便地监督受托人代表其所做的事情。因此,法律要求受托人以值得信赖的方式真诚地行事,避免与委托人或病人产生利益冲突。受托人经常收集委托人敏感的个人信息,这些信息可能会对委托人造成损害。因此,法律要求他们保护委托人的隐私,不得以伤害委托人的方式泄露信息。当受托人收集和处理委托人的信息时,我们可以给他们起一个特殊的名字,即信息受托人。大多数作为受托人的专业人士也是信息受托人。

受托人有两项核心职责,第一是注意义务,第二是忠诚义务。注意义务是指受托人必须合理谨慎地行事,避免伤害委托人或病人。忠诚义务意味着受托人必须避免与他们的委托人或病人产生利益冲突,必须照顾他们的利益。忠诚义务要求的程度取决于受托人和委托人之间关系的性质。

数字时代创造了一系列新的实体,它们有许多类似于传统受托人的特征。它们包括像谷歌(Google)、脸书网(Facebook)和优步(Uber)这样的大型互联网企业。这些企业收集、整理、分析和使用与我们有关的信息。事实上,它们收集了大量关于我们的信息,从理论上讲,这些信息可能被用来损害我们的利益。这些业务成为我们日常生活中相当重要的一部分,甚至在某些情况下是不可或缺的。企业和终端用户、委托人之间的知识也不对称。互联网企业对我们了解很多,我们对它们的运营却知之甚少。它们把自己的内部流程视为专有的,避免竞争对手的窃取。与此同时,这些企业试图向他们的终端用户保证,它们将尊重用户的隐私并且不会背叛用户的信任。用弗兰克·帕斯奎尔(Frank Pasquale)的话来说,因为它们是一个黑匣子,大多数人只能相信它们。

我认为像这样的企业有许多传统受托人的标志,它们收集我们的信息、监视我们,但我们却不能轻易地监视它们。我们变得依赖它们且容易受到它们的伤害,以至于我们必须信任它们。传统上,这种关系决定了受托人的地位。因此,我认为这些企业对终端用户负有值得信赖的法律义务,它们是信息受托人的数字时代版本。

然而,数字时代信息受托人的职责与作为受托人的医生和律师的职责不同。他们提供的服务种类和他们创造的合理信任种类,使他们受到更多限制。

首先,不像医生和律师,个人数据货币化是许多网络服务公司的核心,因为这能资助他们所提供的服务或免费提供的服务。仅仅收回费用或从这些信息中获利本身并不违反他们的受托责任。

其次,许多网络服务提供商,比如搜索引擎和社交媒体网站,之所以能够盈利,是因为终端用户能够提供源源不断的内容和链接。因此,与传统的专业人士不同,这些公司有兴趣让人们尽可能多地展示自己,或者在其他方面尽可能多地公开表达自己。以便他们的活动产生内容和数据,供公司索引和分析。

最后,人们期望医生做的远远不止是不伤害他们。人们还期望医生会照顾他们的利益,警告他们健康、饮食等方面的潜在风险。但人们却并不期望他们的网络服务提供商、搜索引擎和社交媒体网站有如此全面的照顾义务。

由于这些差异,数字信息受托人应该比传统的职业受托人,如医生、律师和会计师,有不同的、更少的义务。他们是特殊目的的信息受托人,对他们施加何种责任是合理的,应取决于他们提供的服务的性质。

数字信息受托人的核心义务是他们不能像骗子一样行事。不能诱使终端用户信任他们以获取个人信息,然后以背叛这种信任的方式使用这种信息,这不利于终端用户的利益。互联网企业不应该自称提供数字安全和尊重数字隐私,然后操纵和歧视其终端用户;也不应该将其终端用户的数据出售或分销给不遵守类似照顾和诚信义务的公司。

目前的法律并没有像对待受托人那样对待这些互联网企业,但我认为应该这样做。法律应该将受托义务扩展到这些公司,并明确互联网企业对其客户和终端用户的义务。

现在想想家用机器人和智能房屋。家用机器人和智能房屋收集了大量关于我们的信息,从理论上讲,这些信息可以与存储在云中的许多其他人的信息进行比较。换句话说,家用机器人和智能房屋不仅仅是独立的产品。它们始终是互相连接的云实体,依赖并贡献于巨大的数据库。虽然我们可能会开始信任家用机器人和智能房屋,但事实上我们真正需要信任的实体不是机器人或房子。机器人和房子背后的公司,负责从机器人和房子的传感器收集数据,我认为这种类型的公司应该是信息受托人。

换句话说,受托责任的主体不是机器人,而是制造、安装、销售和操作我们家里机器人的公司。对我们负有信托义务的是拉比,而不是魔像。

因此,算法时代的第一法则是,那些使用机器人、人工智能体和算法的人对他们的终端用户和客户负有诚信和值得信任的义务。无论企业或实体在提供服务时是否使用机器人、人工智能体或机器学习算法,受托责任都适用。

家用机器人和智能家居就是明显的例子——法律并未将受托义务扩展到机器人和房子背后的公司。其他的例子可能是像爱彼迎(Airbnb)、优步(Uber)、OK丘比特(OKCupid)、默契网(Match.com)及基因和我(23andMe)这样的服务。重要的是,企业会在各种情况下诱导信任和收集我们的个人信息,并且可能以背叛我们的信任或制造利益冲突的方式使用这些信息。

早些时候,我注意到信托义务的典型例子出现在专业领域。事实上,机器人、人工智能体和算法可能越来越多地应用于传统受托人的传统业务中。这些受托人包括医生、律师、会计师和基金经理。联邦政府最近通过劳工部发布了新规定,将处理退休账户的投资顾问视为受托人。反过来,这些顾问越来越多地转向人工智能和算法来完成他们的工作。

信托义务的概念也延伸到政府,它们在日常功能中使用机器人、人工智能体和算法,包括提供社会服务。政府对其管理的人民负有关心和忠诚的责任。



六、第二法则:算法操作者对公众负有责任

因为政府对其管理的人民负有信托义务,所以使用算法的政府和公共实体是其管理的人民的信息受托人。那么私人行为者呢?正如我们所看到的,一些私人行为者是针对其客户、病人和终端用户的信息受托人。但并非所有使用机器人、人工智能体或算法的私营互联网企业都是信息受托人。或许同样重要的是,受托责任通常只适用于企业的委托人和终端用户,而不适用于整个公众。因此,信息受托人的概念不足以解释使用算法、人工智能体和机器人的私营企业的各种义务。在运营过程中使用算法的企业,仍然可能对那些既不是他们的委托人也不是他们的客户的人造成伤害,而且他们与这些人没有合同关系。例如,雇主决定是雇人还是借钱给他们——也就是说,与他们签订合同关系——并且将信用报告给为我们在网上建立声誉的公司,其他人会雇佣我们。如果我们简单地排除所有影响人们但与他们没有合同关系的企业,我们就是在重复20世纪初出现的一个问题。在现代工业经济中,企业生产出大规模生产的商品,而这些商品不再销售给与他们直接签约的消费者。相反,一连串的中间商把这些商品推向了市场。以合同相对性为基础的消费者保护措施,不能适应新的经济现实。因此,从1916年卡多佐在麦克弗森诉别克汽车公司案(MacPherson v. BuickMotorCo.)中的著名裁判开始,法院废除了相对性规则,认为制造商有公共义务。不仅对直接从中间商手中购买产品的消费者负责,而且对他们的家庭成员和因缺陷产品而受到伤害的旁观者负责。如果我们要阐明算法社会的规则,我们需要像麦克弗森诉别克汽车公司案(MacPherson v. Buick MotorCo.)式的案例。亦即我们需要认识到,算法的使用不仅会伤害所服务的终端用户,还会伤害社会上的许多其他人。例如,乔纳森·齐特林(Jonathan Zittrain)指出,脸书网(Facebook)可能会利用其终端用户的数据来操纵他们,从而影响全国大选。如果这种情况真的发生,不仅会影响到拥有脸书网(Facebook)账户的人,还会影响到全国的每一个人。同样,当公司在高速交易中使用算法时,他们可能引发市场崩盘。这不仅影响到与他们交易的人,而且影响到这个国家的每一个人,甚至影响到全世界。因此,当公司雇佣机器人、人工智能体和算法时,他们对公众负有责任。但是我们无法用对客户、病人和终端用户的信任的违背,来描述他们未负起对公众的责任。那么,如果这些义务不是以背叛信任为前提的,它们又是以什么为基础的呢?这就引出了算法社会的第三法则。



七、第三法则:算法操作者负有不参与算法妨害的公共义务

算法妨害(TheAlgorithmic Nuisance)是什么意思?在这里,我将气味、烟雾、声音、毒物及污染等私人和公共的妨害进行类比。传统上,这些危害与使用(和滥用)不动产有关,但近年来这一概念已扩大到范围更加广泛的伤害。私人妨害对相对较少人群的公认合法利益造成损害,公共妨碍对无限人口造成损害。是否采取行动减少这种妨害,由州当局决定。在另一种选择中,政府必须决定是否创建一个类似于消费者或环境保护的政府监管计划。

显然,我并不是说算法的危害是传统的普通法意义上的伤害。我更不是说算法上的损害是对私人使用和享受不动产的非侵入性侵犯。相反,我认为考虑这些伤害的最佳方式是通过类比于妨害侵权行为。

为什么我要把算法带来的危害类比为妨害?我这样做有三个原因。第一个是侏儒谬误(The Homunculus Fallacy)。我们不能说这个算法本身有什么不好的意图。相反,这个算法被人类使用以实现一些特定的管理目标。但是在这个过程中,最终伤害了不同群体的人。其中一些受害者很容易识别,但对另一些受害者的伤害则更为分散。

本质上,我们谈论的是计算能力的社会不公正使用,将成本外部化到无辜的其他人身上。在侵权法中,我们可以称这种外在化为公害或私害。事实上,在最近一篇关于如何规制算法警务的文章中,安德鲁·塞尔贝斯特(Andrew Selbst)认为,适当的补救措施是要求警察局制作类似于环境影响声明的歧视影响声明。算法歧视的特点是无论是使用程序的官员还是程序本身,都不容易被识别为恶意,这个算法没有目的、需求或欲望。这就是侏儒谬误。算法中没有一个小人物在指挥它。因此,基于反应优越理论对算法操作者的责任进行建模是无用的,尤其是一个自学习算法。我们不能把算法的意图、疏忽或恶意归咎于操作者。

相反,我们必须关注使用特定算法的社会影响,以及从整个社会的角度来看,这种影响是否合理和正当。与其将其类比于刑法或反歧视法中的差别待遇法,最好的类比是妨害和环境法。

将这个问题类比为妨害的第二个原因是,算法的危害是程度问题。此外,算法妨碍的危害源于数据整理、分析和决策对人们数字身份的累积影响。

塞尔贝斯特(Selbst)指出,算法歧视造成的危害并不适合简单的是或否的二元分类。也就是说,要么你已经歧视了,要么你没有歧视。相反,在设计过程中,以及在程序员如何编程算法要解决的问题时,都存在不可避免的权衡。可能难以确定用于衡量算法运行情况的非歧视性行动的基线,而且可能难以甚至不可能将算法运行的影响孤立到单一原因。归根结底,相关的问题是你是否对无辜的第三方强加了太多不合理的成本。算法歧视就像污染一样,是一个程度问题。

将该问题类比为妨害的第三个原因是,它帮助我们理解算法社会的危害是如何由公共和私人行为者的累积决策和判断产生的。公司和政府使用大数据和算法作出判断,构建人们的身份、特征和关联。这些身份和特征的数字结构,影响着人们的就业机会、信用、金融就业机会和职位。它们还塑造了人们的脆弱性——对于不断增加的监视、歧视、操纵和排斥。公司和政府从多个来源收集人们的数据,并对这些数据进行处理,以生成新的数据。在数据处理和决策过程中,公司和政府促进了人们数字身份、特征和联系的累积构建,而这些又反过来构建了人们未来的机会并塑造了他们的脆弱性。

其他公司则建立在这些数据、分数和风险评估的收集,以及由此产生的特征、联系和身份的数字结构之上。公司和政府在新的判断背景下创造性地利用所有这些信息,产生新的见解、判断和预测。通过这种方式,人们的生活受制于一系列算法判断,这些算法判断随着时间的推移塑造身份、机会和弱点。想象一下,如果你愿意,你的数字身份就像一个信息流,不断有新的判断、得分和风险评估被扔进这个信息流。

随着越来越多的企业参与到数字身份塑造的集体过程中,这种大量的判断愈发多地塑造着人们的生活。它可能以机会受限和脆弱性增强的形式,将一系列不合理的社会成本转嫁到人们身上。算法妨害的概念试图捕捉这些对个人的影响,因为公共和私人行为者将越来越多的判断放入代表个人的信息流中,并用于判断、分类和控制他们。

因此,我们今天面临的核心问题不是有意的歧视,而是对身份和机会的累积伤害。随着决策者利用多种数据来源来构建人们的数字身份和声誉,在警务、就业、住房和获得信贷等领域反复普遍地使用算法,将对全体居民产生累积效应。

在某些情况下,危害可以追溯到如代码错误、不合理的假设或有偏见的数据等粗心的编程和操作。或者,它可能是由于不合理地使用算法、数据源、过时的分级和分类所造成的。但是在许多情况下,程序员和用户可以貌似合理地声称他们的初始模型是合理的,给定手头的任务、分析的数据及模型的背景假设。即便如此,随着时间的推移,将决策权交给算法将可以预见地对个人和特定群体的成员造成广泛的危害。

一个核心问题是,身份,即具有积极和消极特征的人之间的联系,是如何在算法社会中构建和分布的。决策者不仅通过制定自己的算法判断来节约决策时间,而且还通过引入其他各方已经作出的关于人的特质、可信度和声誉的算法判断来节省决策时间。信用评分是一个简单的例子,但它们只是算法社会随着时间推移所能完成的工作的一个原始例子。

与其从头开始开发自己的评分算法,决策者可以通过使用其他算法在不同环境和不同目的下已经创建的评分和判断来节约成本,并修改和更新它们,以满足自己的需要。算法社会的一些最重要的见解,来自重新思考如何将为一个目的收集的数据,用于阐明起初看起来不相关的现象或问题。

公司专门收集、整理和分发人们的身份信息给其他决策者,这些决策者将他们的决定添加到不断增长的数字流或档案中。这意味着人们的特性,包括积极和消极的特征,是通过许多不同的数据库、程序和决策算法的交互作用来构建和分布的。通过这种方式,人们通过算法构建的身份和声誉可能会在社会上广泛普遍传播,从而增强了算法决策在他们生活中的影响力。随着数据成为决策的共同资源,它构建了数字声誉、实际机会和数字脆弱性。

在数字世界,关注蓄意侵权行为或者忽视算法的构建和监督可能是不够的。相反,侵权行为法理论中最好的类比可能是由于社会不公正的活动水平而产生的社会成本。活动水平的提高会导致社会成本的增加,即使活动是在适当小心的情况下进行的。即使假设公司行使应有的谨慎(当然,可能并不是),活动增加的累积效应仍可能对社会其他部分造成过大的伤害。这些都是妨害的典型情况。

当企业采用新技术以增加活动水平时,活动水平的提高和社会成本的增加可能会出现。在这种情况下,转向算法决策这种新技术,可以让政府和企业作出更多决策,从而更普遍、更廉价地影响更多人的生活。算法社会增加了分类、分级和决策的快速性、范围和广泛性,这样做也增加了分类、分级和决策对人类生活的副作用。这些副作用类似于工厂活动增加造成的污染水平的增加。

可以肯定的是,伤害不是一方就能构成的,受害方的行动也构成了算法决策的社会成本。那么,或许我们也应该激励公民减少自己暴露在算法判断的副作用面前。但是在算法社会,受害方不能轻易地避免找工作、住房、医疗保健和参与日常生活的寻常事务。在算法社会,人们扔掉数据,这些数据稍后将被用来判断他们是否生活在数字世界中。人们也不能轻易地缩小规模以避免算法判断的危害。集体行动问题是巨大的,更不用说获取有关他们处境的信息的成本了。在算法社会,人们的数字身份是由许多不同的参与者产生的,他们的数字身份流向各种各样的决策者,而决策是由人们知之甚少的实体作出的。

如果我们把它类比为妨害,那么第三法则就是,算法操作者有责任不让公众“污染”。也就是说,不合理地将算法决策的成本外部化给其他人。正如向工业社会的转变可以预见社会污染数量的增加,向算法社会的转变可以预见数据收集、计算和算法判断的副作用的增加。

这些代价或危害是什么?考虑一下算法社会带来的一些最常见的危害。我要强调的是,这些伤害是在传统的身体伤害之外的。比如自动驾驶汽车或工业机器人造成的伤害,以及监视和曝光造成的高度伤害。

(1)对声誉的危害——算法影响声誉主要有两个方面,第一是分类,第二是风险评估。算法通过给你和其他像你这样的人贴上危险的标签来影响你的声誉。也就是说,对你来说,成为你自己意味着某种风险或倾向。在不同的情况下,风险表现的方式会有所不同。它可能包括这样的想法,如你(或者居住在某个特定地区的人)创造了金融风险、就业风险、未来犯罪的风险、花费大量社会服务的风险、退货风险或成为昂贵客户的风险、因为你不会买任何东西而浪费广告费用的风险等。在这种情况下,算法伤害是指你是一个有风险的人,这是一种耻辱。

风险评估通常伴随着分类。算法通过将你放在一个类别或层级中来影响你的声誉,这不一定是风险评估。该算法构造你所处的组,并通过这些组了解你,因此可能会对你进行操作。分类可能会影响你的声誉,而无须对风险进行评估。因为它说明了你是什么样的人,以及你被当作什么样的人对待(而且,含蓄地说,比某些衡量标准更好或更差)。

(2)歧视——由于风险评估或分类工作,使用该算法的企业拒绝给你提供它为其他人提供的机会(信用卡、贷款、工作机会、晋升)。或者它增加了特殊成本(容易被拦截和搜身、监视、更高的价格、排除枪支拥有权或进入航空旅行等),它不强加给其他人。

(3)标准化或系统化——这种算法使你将它的分类和风险评估内化,从而使你改变自己的行为,以避免被监视或被归类为有风险。它使你改变自己的身份、行为或个人自我表现的其他方面,以便看起来对算法的风险较小,或者归入不同的类别。在另一种情况下,你会从事算法不注意的行为。

(4)操纵——人类和组织可以使用算法来引导你和其他像你一样的人作出(或多或少)可预测的选择。这些选择对算法操作者有利,但不会提高你的福利,实际上可能会降低你的福利。此外,算法分析使公司更容易发现哪些人最容易受到操纵,以及他们如何最容易和有效地被操纵。

(5)缺乏正当程序/透明度/可解释性——该算法作出的决定会以上述方式之一影响你的福利,但不具有透明性、可解释性、用外行的术语解释输入和输出、监视其操作的能力、提供反驳的方法或使算法负责的方法。

我们可以这样总结这个讨论:算法通过(a)分类和风险评估来(b)构建身份和声誉,为(c)歧视、标准化和操纵创造机会,而没有(d)足够的透明度、问责制、监督或正当程序。

这些伤害与算法妨害的概念有什么关系?这些危害是计算机化决策的副作用。它们是算法活动的社会成本。

算法的普遍采用极大地提高了我们生活中计算决策的水平和普遍性。算法的使用为决策者节省了金钱,因此从个体企业或决策者的角度来看可能是合理的。但在这个过程中,它可能会对个人和群体造成累积伤害。

例如,设想一组用于识别潜在雇员的算法。该算法可能足以用合格人员填补少量可用的空缺,但它排除了大量同样合格的人员,(在这种情况下,我们会说它产生了很少的假阴性但是出现了很多的假阳性)。即便如此,该算法使用和产生的数据及声誉得分,可能会输入其他人使用的数据库。其中不仅包括未来的雇主,还包括在许多其他情况下运作的许多其他决策者。或者想象一个警务算法,把警察派到警察已经逮捕过人的社区,从而强化了该地区犯罪率特别高,需要额外的警察监视的观念。

算法社会的意义在于增加决策的机会、速度和成本效益。公司使用算法来节省资金,并且大规模地执行重复的任务和计算,这些任务和计算对于人类来说是极其昂贵甚至是不可能完成的。这使得公司能够提出以前无法回答的问题,并作出以前制定和采纳成本极其昂贵的决定。

这种现象(更多种类的决策以更低廉的成本作出)只是机器人普遍具有的替代效应(The Substitution Effect)的另一个例子。我们用算法法官和计算器代替人类法官和计算器。但是算法的选择、类别的选择、收集的数据种类以及数字特性的分布式创建和维护都会产生社会成本,这些成本的负担会转移到其他人身上——转移到一般人身上,或转移到特定的群体,如穷人或少数群体身上。

在处理算法的危害和算法的歧视时,我们的目标不是找出不好的意图。以这种方式提出这个问题是侏儒谬误的又一个例子。相反,随着越来越多的公司转向算法决策,并提高其决策活动水平,其目标是要求公司采用从整个社会的角度来看是合理的方法。正如在公共妨害的情况下,国家必须决定如何最好地使企业将其成本内部化。

弗兰克·帕斯奎尔(Frank Pasquale)还指出,在某种程度上,我们使用这种算法妨害的方法,我们必须能够识别使用这种算法的个人或组织,他们给社会其他部分带来了损失。也就是说,算法必须被设计出来,这样我们才能知道哪些个人或组织在使用它们。魔像必须可以追溯到一个或一群拉比。在一些情况下,如金融、就业、警务,识别用户并不困难,因为使用该算法的组织会自我识别。但在许多情况下,算法及其使用的数据将由许多组织共同构建。在某些情况下,算法决策是由匿名或用假名的人士和组织作出的。然后,为了执行公共职责,法律将不得不要求公开谁是这个算法的幕后推手。



八、结论

对机器人和人工智能的希望和恐惧从最早的文学时代就一直伴随着我们。即使在今天,新闻工作者写的故事也会引起人们对失去控制的机器人、算法和人工智能体的恐惧,认为他们很快就会占领我们的世界。我这次演讲的目标是提供一个纠正的思路。我认为算法社会中机器人、人工智能体和算法本身是存在危险的,但真正的危险始终存在于那些使用这些装置并利用它们影响、控制和操纵他人的组织和企业中。如果我们都像拉比一样虔诚,我们就不必害怕魔像了。因为我们不是虔诚的拉比,所以我们需要学习如何约束自己。


来源:法学学术前沿




编辑:王奕

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表