传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

媒体法规案例

[复制链接]
1051#
 楼主| 发表于 2021-5-27 14:57:04 | 只看该作者
【案例】
美佛州新法:禁止社交媒体平台封杀政治竞选人

  原标题:美佛州新法:禁止社交媒体平台封杀政治竞选人

  (观察者网讯)美国《华尔街日报》5月25日消息,美国佛罗里达州州长罗恩·德桑蒂斯(Ron DeSantis)周一签署了一项法案,禁止Facebook、推特等社交媒体平台封杀佛罗里达州的政治竞选人,违者将被处以最高25万美元的罚款。


  德桑蒂斯是美国共和党总统的潜在竞选者,与前总统有联系。德桑蒂斯说,这项立法可以保护保守派免受不公平的网络限制。
  该法案将禁止互联网平台封杀佛罗里达州的政治竞选人。法案称,大型社交媒体平台不得封禁或删除佛罗里达州政治竞选人的账户超过14天,并且有权对社交媒体平台的违令行为处以每天25万美元的罚款。
  法案签署后,Facebook、推特、谷歌等互联网公司拒绝置评。
  美多家互联网公司的行业组织反对这项立法,指出该法案违宪,最终会让佛罗里达人更容易受到网上不良行为的影响。
  Facebook和推特被指控在2020年美国总统选举期间,限制分享《纽约时报》多篇指控拜登的报道,该法案被认为是对此举的反击。


来源:新浪新闻

编辑:古凤


1052#
 楼主| 发表于 2021-6-7 11:39:46 | 只看该作者
【案例】
6万多荷兰家长状告抖音 索赔14亿欧元
  荷兰数万名家长要求视频应用程序TikTok向他们的子女支付14亿欧元赔偿金。这些家长指责TikTok未经许可收集未成年人的信息,目的是定向向他们展示广告。另外这款应用程序上提供的各种挑战赛鼓励未成年人相互做出一些危险行为,这会让这些未成年人受到伤害。今年4月,英国儿童权益保护机构也提出过类似的指控。
  据自由亚洲引据荷兰市场信息研究基金会(SOMI)提供的信息称,向TikTok求偿的家长数量超过6.4万人。荷兰市场信息研究基金会是一家非盈利组织,致力于保护互联网用户的基本权益。
  TikTok抖音公司表示,该公司采取了很多措施保障年轻用户的安全。根据抖音的使用条款,未成年在使用该款应用程序时需要监护人的许可。不满13岁的儿童不可以使用TikTok。抖音TikTok公司还指出,该公司的网页上还为用户提供了信息保护的控制选项。用户可以自行选择“他们认为合适自己的选项”。
  今年4月,英国儿童权益保护机构也提出过类似的指控。
  该报道称,5月底,欧盟委员会宣布对Tiktok的商业行为进行审查。欧盟委员会5月28日宣布,在欧洲消费者组织BEUC发出关于违反欧盟消费者权利的警告后,已经与Tiktok展开了正式对话。

来源:法国广播电台
编辑:何晓琴


1053#
 楼主| 发表于 2021-6-7 11:47:13 | 只看该作者
【案例】
美司法部不再寻求司法手段强制获取记者通讯记录

  美国司法部6月5日(星期六)表示,将改变长期的做法,在调查机密消息外泄时,不再寻求获取记者的通讯记录以得到有关泄密源头。
  据路透社报道,美国有线新闻网CNN和华盛顿邮报曾表示,前总统特朗普政府的司法部曾试图获取他们部分记者2017年有关报道的电话记录。纽约时报也表示,特朗普和现任总统拜登的司法部都曾秘密通过法律手段获取该报4名记者的电邮记录,并向高层颁布禁令,不得披露事件。
  拜登总统上个月表示,不会允许司法部扣查记者的电话或电邮纪录,称任何此类做法都是错误的。
司法部发言人科雷(AnthonyColey)在一个声明表示,司法部已完成对所有仍在进行中的泄密调查的审查,将按照总统指令,不会在泄密调查中寻求强制性法律程序,从媒体成员那里获取消息来源的信息。
  白宫也在声明中表示,在泄密调查中发出传票获取记者的消息来源记录不符合拜登政府的政策。白宫发言人莎琪表示,司法部已再次确认今后不会再使用这种手段。
  前总统特朗普与主流媒体的关系紧张,他曾多次公开抨击这些媒体和记者的报道是“假新闻”。

来源:法国广播电台
编辑:何晓琴

1054#
 楼主| 发表于 2021-6-13 18:19:52 | 只看该作者
【案例】
【票·资讯】香港修订《电影检查条例》,防止危害国家安全的影片上映
据央视新闻客户端,随着香港国安法在香港全面落实,香港特区政府修订《电影检查条例》中对检查员的指引,拟上映影片须送呈电影检查员监督,检查员可按条例决定影片是否适合上映、对电影进行分级、要求删剪电影内容等。有关修订于6月11日刊宪,即日生效。



新修订的《电影检查条例》订明,检查员应小心留意影片中,对可能构成危害国家安全的罪行,或可能以其他方式损害香港特区维护国家安全的行为或活动所作的描绘、刻画或表现,以及可客观和合理地被视作认同、支持、宣扬、美化、鼓励或煽动此类行为或活动的内容。

当考虑整部影片及其对观众的影响时,检查员应顾及防范和制止危害国家安全行为或活动的职责,以及香港居民维护国家主权、统一和领土完整的共同义务。   

此外,鉴于维护国家安全及防范任何危害国家安全的行为等至关重要,检查员可按条例得出影片不宜上映的结论。   


特区政府商务及经济发展局发言人指出,香港特区负有维护国家安全的宪制责任,应当履行维护国家安全的职责。因此,电影检查员履行职务时,也须遵守有关条文。
来源:电影票房
编辑:何晓琴


1055#
 楼主| 发表于 2021-6-13 18:53:55 | 只看该作者
【案例】
社会组织对腾讯公司提起未成年人保护民事公益诉讼
2021年6月1日,新修订的《未成年人保护法》(以下简称“未保法”)正式实施。

为更好贯彻落实新未保法相关规定,6月1日上午,北京青少年法律援助与研究中心(以下简称“中心”)就腾讯运营的“王者荣耀”手机网络游戏侵害未成年人权益一案,向北京市第一中级人民法院提起未成年人保护民事公益诉讼,这是全国首例由社会组织提起的未成年人保护民事公益诉讼。
王者荣耀”存在哪些侵害未成年人权益的行为?
中心认为,“王者荣耀”游戏存在以下严重侵害未成年人合法权益的行为:

1.腾讯不断下调适龄标准,当前游戏评级不符合“12+”。2016年腾讯对“王者荣耀”游戏的适龄提示为成年人,即“本游戏适合18岁(含)以上玩家娱乐”,可见游戏设计之初的目标群体是成年人。然而,腾讯却不断下调游戏适龄标准,使得用户群体不断扩大。自2017年起,将适龄提示由“18+”下调至“16+”,2021年再次下调至“12+”。但是,目前这款游戏在角色形象、抽奖规则、语音交流、聊天频道等方面均存在大量不符合“12+”适龄等级的内容及设定。
“王者荣耀”游戏的适龄等级曾为18+,后降低为16+

2.游戏人物形象设计过于暴露,网站及社区存在大量色情、低俗等不适宜未成年人阅读的内容。“王者荣耀”存在大量违反《出版管理条例》、《网络出版服务管理规定》等法规规定的内容,如:游戏中的女性游戏角色,大多是低胸装、超短裤/裙等衣着过度暴露胸部、臀部的形象;游戏官方网站中充斥着大量色情、暴力、低俗内容及评论;游戏微社区也长期存在着大量宣扬色情、歪曲历史人物等不良内容,如诸葛亮与大乔是一对情侣、唐代著名诗人李白与西汉著名军事家韩信陷入热恋等。此外,一些评论色情、低俗,极易对尚未形成正确价值观的未成年人造成错误导向。然而,腾讯并未对上述内容采取删除、屏蔽、断开链接等措施。
游戏人物“钟无艳”穿着过分暴露。

3.游戏人物篡改了历史人物形象,践踏民族传统文化。如何传播传统文化关系到中华民族的兴衰,历史人物身上承载着中华民族传统文化的内核。《移动游戏内容规范(2016年版)》第十四条明确规定,移动游戏不得含有“践踏民族优秀文化遗产和恶意篡改重大历史、文化事件及代表人物形象”等危害社会公德或者民族优秀文化传统的内容。但“王者荣耀”作为一款历史题材类手机游戏,空有历史人物之名,却无历史人物之实,存在大量恶意篡改真实历史人物、践踏优秀传统文化以及向未成年人传递错误历史观的内容,如战国时期的军事家孙膑成为一个幼稚的小男孩、三国时蜀汉开国皇帝刘备成为一个身靠色情女郎的纽约黑帮教父等。
游戏人物“刘备”被设置成纽约教父的形象。

4.游戏商场充值限额及抽奖模式违反了国家规定。《国家新闻出版署关于防止未成年人沉迷网络游戏的通知》明确规定了网络游戏企业应当依法在其提供的游戏服务中限制未成年人的月消费额度,但腾讯并未严格按照该通知对未成年人的充值消费进行限制。此外,在“王者荣耀”的抽奖设定上,腾讯也存在违法违规行为,具有诱导未成年人沉迷的故意,侵害了不特定未成年人及其监护人、近亲属的财产权。

5.潜在的诱导性沉迷设定弱化了未成年人的自控力,增加了沉迷风险。新未保法明确规定,网络产品和服务提供者不得向未成年人提供诱导沉迷的产品或服务。然而,“王者荣耀”在广告推送、登入设定等方面均有诱导未成年人沉迷的嫌疑,尤其是默认开启获取QQ或微信好友选项的设定,增加了未成年用户的社交压力。此外,其防沉迷系统存在大量漏洞,“成长守护平台”未得到有效推广。

王者荣耀”给未成年人
带来了哪些侵害?
自“王者荣耀”上线后,注册用户增长迅速,其中包含大量未成年人。据相关报道显示,早在2017年,“王者荣耀”19岁以下的用户数量就已超过5000万人。167位家长曾因孩子沉迷“王者荣耀”等游戏问题而联合向国家有关部门写信,痛陈网络游戏沉迷的危害。具体来说,中心认为,“王者荣耀”手机游戏对未成年人造成了以下侵害结果:

1.大量未成年人尤其是农村留守儿童沉迷于网络游戏。在明知“王者荣耀”手机网络游戏存在大量未成年用户的情况下,腾讯未严格按照法律规定对未成年人游戏注册、实名认证、诱导成瘾性内容进行有效管理,造成大量未成年人尤其是农村留守儿童长时间使用或沉迷该游戏。《青少年成瘾行为调研报告——基于2017/2018青少年健康行为网络问卷调查数据分析》显示,留守儿童的游戏时间明显高于非留守儿童,两者每天玩4-5小时的占比分别是18.8%和8.8%,每天玩6小时以上的占比分别是18.8%和8.2%。

“叔叔,我不喜欢你带来的文具,我想要一个可以打王者荣耀的手机。”这是一个留守儿童写给资助他的志愿者的一段话。(图源:网络)

2.侵害了不特定未成年人的健康权。长时间近距离地盯着手机屏幕,将会引发未成年人近视的问题;长时间不动,也会引发肥胖、身体素质下降等问题;手部、颈部肌肉的长期高度紧张和颈椎长期弯曲,还会引发肌腱炎、颈椎病等问题。一位全国人大代表做的调研显示,“网络沉迷最直接的表现是使用者花费大量的时间进行网络活动。相较而言,过长和过量使用网络会对未成年人造成很大伤害,比如睡眠紊乱或匮乏、身体疼痛,以及社交活动匮乏等等”。

3.侵害了不特定未成年人及其监护人、近亲属的财产权。腾讯公司未依照规定限制未成年人在其旗下的手机网络游戏进行消费,如9岁未成年人在“王者荣耀”中充值近200元以后,当月仍然可以在腾讯公司的其他游戏中充值。此外,腾讯公司未对未成年人使用成年人的游戏账户进行充值付费尽到合理监管义务,从而出现了大量未成年人在未经过监护人同意的情况下进行大额充值的案例,如媒体曾报道《11岁少年玩“王者荣耀”花三万多》、《13岁男生在“王者荣耀”中偷偷充值了7万多元》等。一位全国人大代表做的调研显示,“在新冠肺炎疫情期间出现了非常多的游戏沉迷的孩子和盗刷父母银行卡、或信用卡的现象,有的金额竟然高达几万元。孩子沉迷游戏这一社会问题已经是一个待爆发的火山”。

4.导致部分未成年人尤其是农村留守儿童荒废学业。一些未成年人因沉迷“王者荣耀”手机游戏无心学习,致使学习成绩大幅下降,甚至出现休学、辍学等情况。一位未成年人家长向我们反映,“孩子在初一时的学习成绩位于年级第十六名,但是在沉迷游戏后,学习成绩大幅下降,初二下学期已经处于年级倒数排名,并最终放弃学习”。

5.导致部分未成年人与其监护人间的家庭关系严重恶化。现在,“王者荣耀”等网络游戏已经成为亲子关系冲突的导火索之一。有些家长反映,孩子经常抱着手机玩到很晚,在家长劝告时,孩子根本不听或者大发脾气、摔东西,甚至与家长发生正面冲突。一位未成年人家长提到,“据我的观察和统计,在玩‘王者荣耀’等网络游戏过程中,至少有3成的孩子存在和家长发生冲突的事件,因为一方面是家长不让玩,另一方面孩子又控制不住网瘾。”

6.践踏了民族优秀文化遗产,对未成年人尤其是农村留守儿童的历史认知造成严重不良影响。游戏中存在大量扭曲的历史人物形象,从根本上毁坏了中华民族传统文化,如:刘邦本是西汉开国皇帝,是中国历史上杰出的政治家、战略家和军事指挥家,但游戏中却被设置了名为“德古拉伯爵”的皮肤形象,“德古拉伯爵”是国外影视作品中嗜血、专挑年轻美女下手的吸血鬼。李白本是我国唐代著名诗人,然而在游戏中被设置了“范海辛”的皮肤形象,“范海辛”是国外影视作品中专门猎杀吸血鬼的猎人。这种将西汉开国皇帝与吸血鬼形象、诗仙与吸血鬼猎人形象相关联的操作,严重扭曲了刘邦、李白历史形象,践踏了民族优秀传统文化,极易导致尚未完全掌握历史知识的未成年人,尤其是缺乏有效监护和引导的农村留守儿童产生错误的历史认知。。
游戏人物“刘邦”被搭配上了吸血鬼的皮肤。

7.对未成年人尤其是农村留守儿童的价值观形成错误导向。“王者荣耀”官方微社区、王者营地中动辄出现“求男/女朋友”、“富婆求包养”、“处CP”、“老色批(lsp)”等信息,以及游戏中诸如“有钱男子汉、没钱汉子难”、“妲己一直爱主人,因为被设定成这样”、“给你的麻烦开个价吧”等内容,这些关于主仆关系、金钱关系的错误价值设定,明显不符合社会主义核心价值观。更过分的是,在角色扮演照片下,存在大量色情、低俗的评论,极易对尚未形成正确价值观的未成年人造成错误导向。

8.引发未成年人尤其是留守儿童语言交际能力退化,导致他们缺少现实多元互动。在农村留守儿童尤其是男生中,“王者荣耀”已经成为他们主要的交谈话题,很多孩子的交流对话仅仅围绕游戏的技能、装备及等级展开,而对现实生活中的其他话题并不感兴趣。长期沉迷于“王者荣耀”等游戏将会导致未成年人尤其是留守儿童,在现实生活中与他人进行人际交往的能力下降,社会适应能力退化。


来源:致诚儿童
编辑:何晓琴

1056#
 楼主| 发表于 2021-6-16 18:56:20 | 只看该作者
【案例】

域外法治 | 欧盟委员会2021年《人工智能法》提案研究
20214月,为了加强整个欧盟范围内对于人工智能的使用、投资和创新,欧盟委员会通过了《人工智能法》提案(以下简称提案)。提案提出一套人工智能领域的法律框架,以期对人工智能的应用进行规范和限制,保护人们日常生活和正当权利不受侵害。提案不仅对人工智能技术,如汽车自动驾驶、银行贷款、社会信用评分等一系列日常生活中的应用进行规范,还对欧盟执法系统和司法系统使用人工智能的情形提出了相应的规制路径。
值得注意的是,提案作为欧盟在人工智能领域作出的关键立法,意味着欧盟对人工智能领域的数字治理提出了新要求,反映了人工智能技术的治理与发展应当在《通用数据保护条例》(GDPR)的有效监管下进行,即按照与《通用数据保护条例》(GDPR)一致的方式进行统一部署。
提案采用具体法律框架的形式与各成员国实施的协调计划积极结合,以保障公众和企业的隐私安全和基本权利为主要出发点,进一步明确了人工智能在不断更新和发展的同时,应当满足于世界范围内符合社会基本价值观与发展新兴技术两者间的平衡要求,从而使欧洲公众能够增强对人工智能技术所提供的产品和服务的信任。
提案的出台背景与制度设计
在过去的十年里,人工智能技术经历了快速的发展,其为经济、社会和文化发展、能源可持续性、更好的医疗保健和知识传播提供了丰富的机会。但同时,这些机会也伴随着潜在风险,如失业、不平等、就业歧视、社会排斥、不知情的监督和操纵等。自人工智能技术问世以来,考虑到潜在风险的存在,欧盟委员会在符合欧盟价值观的背景下以提高其技术竞争力为主要目标,持续促进和加强欧盟各成员国在人工智能技术方面的合作。根据欧盟委员会的定义,人工智能技术是指采用官方所列明的一种或多种技术和方法开发的软件,并且能够针对特定人群或具体目标在内容、预测、建议或决定等方面产生一系列影响其交互环境的输出技术。
关于人工智能技术在欧盟的发展现状与前景,欧盟委员会数据执行副主席Margrethe Vestager表示:“在人工智能领域,公众信任是必须存在的,而对其进行监管和规制是建立这些信任的最佳方式。只有存在具有里程碑式的监管规则,才能确保人工智能值得信任。欧盟对人工智能技术采取的规则将面向未来的创新与进步,并在欧盟公民的安全和基本权利受到威胁时进行干预。”基于此,提案应运而生。这一举动体现了欧盟在人工智能领域积极引领并制定新的全球规范的意图。
提案的总体目标在于为全球范围内人工智能技术的应用与发展制定详细标准,以及为符合道德和法律双重标准的人工智能技术铺平道路,并确保欧盟在此过程中保持技术竞争力,从而有效加强欧洲作为全球卓越人工智能中心的地位,并使得欧洲人工智能技术的发展符合欧盟的总体价值观和规则。
提案明确了适用对象,并指出了几类主体范围,分别为将人工智能系统投放市场或投入使用的供应商、欧盟领域内人工智能系统的使用者、位于第三国的人工智能系统的供应商和使用者。
人工智能技术的风险分级
显然,欧盟已经意识到人工智能技术对欧洲价值观、基本权利及原则的风险影响。提案对人工智能采取了考虑风险但总体审慎的方法,将人工智能技术可能带来的风险划分为以下四个层级。
第一,不可接受的风险。此类风险被欧盟认为将会对公民的安全、日常生活和基本权利构成明显威胁,故予以明令禁止。如通过操纵人类行为来规避用户自由意愿的人工智能技术或应用程序,最典型的事例是使用智能语音辅助的玩具来鼓励未成年人从事危险行为。
第二,高风险。提案未对人工智能技术高风险的具体含义进行说明,但将人工智能技术可能发生高风险的覆盖领域详细归纳为关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、涉权型执法、出入境问题、司法和民主进程等8类。
提案强调了所有远程生物识别系统都应被划入高风险的范围。提案要求,部分成员国已经出台法律对该系统进行限制的,应当与提案所规定的内容保持一致。关于远程生物识别系统的禁止情形,提案还规定了豁免条款,即原则上禁止在公众可进入的空间和场所内使用远程生物识别系统,但出于执法目的的某些例外情况,可经司法或其他独立机构授权予以使用,如在紧急情况下搜寻失踪儿童,防止迫在眉睫的恐怖主义威胁,侦查、定位、识别或起诉严重刑事犯罪的犯罪嫌疑人等。同时,提案要求,即使在前述例外情况下,对于远程生物识别系统的适用时间、地理范围和搜索的数据库等方面依然必须进行适当限制。
提案还详细规定了存在高风险的人工智能技术在投放市场之前必须履行7种严格义务。同时,这些义务在人工智能系统投放市场或投入使用前及在整个生命周期内都要接受审查。7种严格义务具体包括:1.完备的风险评估系统;2.向系统提供高质量的数据集,以将风险和歧视性结果降至最低;3.记录活动以确保结果的可追溯性;4.提供有关系统及其目的的所有必要信息,以供当局评估其合规性;5.向用户提供清晰、充分的信息;6.采取适当的人为监督措施,将风险降至最低;7.高水平的安全性和准确性。
第三,有限的风险。此类风险指包含特定透明度义务的人工智能系统。因特定透明度义务的存在,故当用户使用人工智能系统时,能够意识到其本身正在与人工智能系统进行交互,即在用户知情的情况下提供用户方决定继续运行或中止的权利。
第四,极小的风险。如提案允许免费使用人工智能视频游戏或垃圾邮件过滤器等应用程序等。绝大多数人工智能系统都属于此类风险。因为欧盟认为这些人工智能系统对公民的权利或安全产生的风险极小,甚至无法产生风险,故提案并未对极小的风险进行干预。
关于人工智能的治理主体,提案指出人工智能系统的设计和开发应当保证在使用过程中能够受到公民的监督,故其规定由国家主管市场监督机构监督新规则的适用。未来,可以建立欧洲人工智能委员会来促进新规则的实施和推动人工智能标准的制定,并由其承担各种复杂的任务,如协助国家主管市场监督机构来确保提案的一致适用、发布与人工智能技术发展相关的意见和建议、在成员国之间收集和分享最佳实践等。
为此,提案还提出了鼓励不属于高风险范围的人工智能技术的提供者制定行为守则,促进自愿采纳适用于高风险人工智能技术的强制性要求,并提出了监管沙盒模式以促进人工智能领域的创新。在人工智能技术规制措施的执行方面,提案规定由各成员国根据不同国情予以严格执行。此外,提案还规定了企业在8种高风险领域范围内使用人工智能技术,若违反规定将处以高达3000万欧元或公司全球年度总营业额2%6%的行政罚款,最终选择罚金金额更高的处罚方案。
目前,提案已经提交给欧洲议会和欧洲理事会进行审议和分析。提案若通过,将会在欧盟官方公报上公布20天后生效,并将在生效后的两年内持续适用。鉴于人工智能技术涉及大量的利益相关者,且争议性较大,故欧盟方认为提案具体落实于公民现实生活的过程仍然道阻且长。
提案与《通用数据保护条例》
人工智能技术与个人数据长期保持着紧密联系。借助于人工智能技术,个人数据可以用来分析、预测和影响人类行为。在许多情况下,自动化的预测和决策不仅成本更低,而且比人类的预测和决策更精确、更公正。因为人工智能系统可以避免人类心理的典型谬误,并且可以受到严格的控制。
《通用数据保护条例》(GDPR)作为欧盟范围内保护个人数据的重要条例,充斥着模糊的条款和开放的标准,而这些条款和标准的应用往往需要平衡相互竞争的利益。在人工智能应用中,技术的新颖性、复杂性及其个人和社会影响的广泛性加剧了不确定性。显然,提案的出台将会在此方面予以明确和规制,从而有效保护个人数据的流通与收集。
尽管《通用数据保护条例》(GDPR)没有明确提到人工智能一词,其许多条款与人工智能相关,如《通用数据保护条例》(GDPR)允许开发人工智能和大数据应用程序,成功地平衡数据保护和其他社会经济利益,但它对如何实现这一目标仅提供了有限的指导。此外,提案规定了从事人工智能处理的控制者应当采取负责任和风险导向的方法,同时鉴于问题的复杂性及《通用数据保护条例》(GDPR)中存在的模糊性,不应让控制者单独参与该项工作。
笔者相信,随着提案的问世,欧盟各机构仍可能会继续促进对人工智能应用的广泛讨论,并进一步提供高水平的指示。欧盟数据保护当局需要积极参与和所有利益相关者的对话,包括人工智能系统的控制者、处理者和社会公民,以便根据共同的价值观和有效的技术制定适当的应对措施。当《通用数据保护条例》(GDPR)所规定的数据保护原则的一致应用与有效使用人工智能技术的能力相结合时,可以通过提案所指出的预防风险的方式,为人工智能技术在未来的成功应用做出贡献。
提案与欧盟《人工智能白皮书》
2020219日,欧盟委员会发布了《人工智能白皮书》(以下简称《白皮书》),旨在通过提升欧洲在人工智能领域的创新能力,防范和处理人工智能技术带来的各类风险,从而推动道德和可信赖人工智能的发展。《白皮书》就人工智能技术的重要战略意义作出了高度评价,其指出人工智能技术的发展趋势已不可阻挡,将会迎来新一轮数据浪潮机遇。不可否认,在人工智能技术带来大量好处的同时,也意味着可能会对经济和社会造成不稳定的影响,如劳动力剩余、个人信息失控、在线平台加剧垄断等。而前述问题仅依靠市场力量很难得到及时有效的处理。
为了取得人工智能领域的领先地位,欧盟希望通过政策监管与增加资金投入两种措施促进人工智能发展并解决其带来的风险。显而易见,提案作为《白皮书》中政策监管措施的积极践行,体现了欧盟正在采取实际立法行动对人工智能技术的风险予以规制。而在增加资金投入方面,《白皮书》也指出,未来十年,欧盟每年将吸引两百亿欧元的投资。
笔者认为,提案的出台,是《白皮书》实施计划中的重要一环,预示着欧盟已经开始针对人工智能领域的规制和监管采取了积极的立法措施,并在《白皮书》的引导和指示下不断增强对潜在风险的预警和处理,积极明确提案的规制对象与规制范围。此外,《白皮书》还曾指出为了应对人工智能的挑战,欧洲需要一个全面涵盖商业和公共管理的战略部署,除了为人工智能的发展创设有利环境外,还必须基于广泛认可的价值观和原则来建立全球监管规范和框架,以保证人工智能的发展以人为本。值得注意的是,提案重申了该内容,即符合社会基本价值观与发展新兴技术两者之间应当取得有效平衡,并进一步规定了诸多措施,从而使人工智能技术的不良影响降至最低。
可以预见,未来欧盟将会持续加大对人工智能技术的投资,并会严格按照提案与《白皮书》的要求进行规制和监管,使人工智能技术在符合欧洲基本价值观的前提下进一步加强其技术研究与应用实践。
(本文是国家社会科学基金项目【批准号:15CFX035】的阶段性成果)
来源:中国审判
链接;https://mp.weixin.qq.com/s/9E-I2DffrCM7eK-x5FnXBA
编辑:马皖雪

1057#
 楼主| 发表于 2021-6-16 20:27:26 | 只看该作者
【案例】


姚佳:论个人信息处理者的民事责任

摘要:在个人信息保妒中,“个人—个人信息处理者”形成了法定的两造主体关系。“欧洲标准”的数据隐私立法正在成为世界其他国家数据隐私法的标准,欧盟立法呈现出“信息自决”的法观念历史脉络,其应有之意是个体能够决定对自身信息的使用,即产生一种”控制”。与GDPR规定的主体不同,中国法仅创设和保留了“个人信息处理者”这一主体,其在实质意义上吸收了信息控制者这一主体概念。对于个人信息处理者侵害个人信息权益应承担的民事责任,《个人信息保护法》(草案二审稿)》规定了过错推定责任,但仍有完善空间,诸如是否根据不同主体、不同行为与不同信息类型而区分无过错责任与过错推定责任。个人在个人信息处理活动中享有以知情权为核心的一系列权利,个人信息处理者对包括知情权在内的个人权利的侵害,亦应承担相应的民事责任,法律应予明确。


关键词:个人信息保护;个人信息处理者;信息自决;知情同意;民事责任




现代科技对人们的行为方式产生较大影响,有如波兰尼(KarlPolanyi)、格兰诺维特(Mark Granovetter)的“嵌入”理论,科技正在以绝对强势地位嵌入、颠覆乃至重塑人类的行为模式。在经济迭代与规模化的平台经济出现以后,即便是“原子化”的个体也别无选择,只能主动或(更多是)被动地卷入其中。尽管个体从事的活动各异,但却都存在自身信息被收集、利用与存储等事实,如何保护此种处于“静态”或“动态”的个人信息以及如何规制信息相关主体的行为,成为信息时代面临的一个重要议题。根据谷歌书籍词频统计器(Google Book Ngram Viewer)显示,“个人识别信息”(personallyidentifiable information)自1992年开始就成为一个越来越流行的术语。围绕个人信息是否具有“可识别性”,将个人信息与人、人格、财产等基本命题在事实上与逻辑上紧密联系起来,并在相当程度上推动了世界范围内个人信息保护的立法热潮。


中国近年来在制定或修订相关法律之时都十分重视个人信息保护问题。2020年5月通过的《中华人民共和国民法典》在人格权编中专门规定了个人信息保护,首开世界范围内民法(典)或私法中特别规定个人信息保护之先河,此举在世界私法史上亦可圈可点。酝酿了若干年之后,2020年10月《个人信息保护法(草案)》的推出,更将中国的个人信息保护推至高潮。中国的个人信息保护立法相较于世界其他国家和地区,所处时代背景与发展阶段皆不相同,因此所面临的难题与所要解决的问题也不尽相同。尤其在“个人—个人信息处理者”之两造关系中,以“可识别性”为个人信息的核心构成,更使得相对方主体的一系列义务与保护的“开关”始终处于“打开”状态。鉴此,观察个人信息处理者的法律责任十分重要,此种法律责任,或可构造为一定体系,或可在不同“横截面”构造为一定“子体系”,并在相当程度上成为完善个人信息权利体系之重要的“反作用力”,殊值重视。

一、个人信息处理者的界定


由个人信息的产生、传递与流动的本质特征所决定,与个体发生联系的若干主体可抽象概括为“信息控制者”与“信息处理者”。世界范围内,隐私与个人信息立法以美国和欧盟为基础标杆,其他国家和地区分别在不同的法域之内紧跟或对标相应立法。美国和欧盟二者之间事实上也形成一种个人信息保护立法的竞争局面。而正如格林里夫教授(Graham Greenleaf)所指出的,美国隐私法在世界上的影响力远不如欧洲数据隐私法的影响力,可以合理地描述为“欧洲标准”的数据隐私法正在逐渐成为世界其他国家相关立法的标准。中国作为深受大陆法系法律理论影响的国家,在个人信息保护立法的观念与制度上也一定程度上受到欧盟立法的影响。然而吊诡的是,中国法恰恰在个人信息基本主体概念上与欧盟颇为不同,《民法典》历次草案与正式文本以及《个人信息保护法(草案)》中的个人信息相关主体的表述均不相同。对这一基础主体概念的不断修改,反映出立法者对个人信息处理活动的认识不断加深并逐渐体现出立法的着重面向。然而,对于基本主体概念的规定,并非单一的法技术问题,而关涉立法者对于社会事实的认识、对法观念的总结提炼以及能否实现立法的前瞻性等诸多问题,不能简单视之。既如此,认识与界定个人信息处理者,是个人信息保护立法与解释的基础工作之一。



(一)信息控制者vs.信息处理者



对于事物概念的确定,既是一个认识事物本质的过程,同时也是一个思维形成的过程。黑格尔在说明概念与事物之间的关系时认为,“当我们要谈论事物时,我们就称它们的本性或本质为它们的概念,而概念只是为思维才有的”,“我们的思维必须依照概念而限制自己,而概念却不应依我们的任意或自由而调整”。在立法概念选择的时候,立法者依然面对如何认识事物和如何选择概念的双重难题。


中国的个人信息保护立法,也同样面临上述认识与选择的方法论难题。中国在制定《民法典》和《个人信息保护法(草案)》的个人信息保护规则之时,在法技术层面不同程度地借鉴欧美国家的经验。然而,正如施瓦茨(Paul M. Schwartz)和索罗夫(Daniel J. Solove)所言,“美国和欧盟在隐私法方面分歧很大。在基本层面,二者的基本理念哲学不同:在美国,隐私法的重点是救济对消费者的损害以及平衡隐私与高效的商业交易之间的关系;在欧盟,隐私权被认为是一项基本权利,可以凌驾于其他利益之上。甚至在确定信息立法调整范围的边界等问题上,美国和欧盟的做法也完全不同。个人信息的存在——通常被称为‘个人识别信息’——触发了隐私法的适用。”美国关于隐私权理论探索较早,对世界产生较大影响,如何界定个人信息,在美国法上经历过较为激烈的讨论。主要通过三种方式界定个人信息,包括:同义反复(tautological)、非公开(nonpublic)以及具体类型(specific-types)。后来经不断发展,美国法上系将隐私权与个人信息保护等统一归至隐私法这一笼统概念之中,与欧洲的人格权理论与个人信息保护理论的“二分法”截然不同。相较美国法,欧盟立法相对更为清晰,这也就是为何欧盟的个人数据保护法更易于“输出”并成为较为通行的“世界标准”的重要原因之一。


从中国目前对于《民法典》个人信息保护的解释论和《个人信息保护法(草案)》的立法论角度来看,中国个人信息保护立法一定程度上参考借鉴了欧盟相关立法,包括一些基本规则和权利义务体系等方面。然而,如本文所讨论的,实证法恰恰并未将个人信息保护中涉及的关键主体——信息控制者——这一概念纳入。事实上,信息控制者并非一个简单的概念选择问题,也并非一个比较法意义上的形式上的“规则借鉴”问题,而是涉及对于个人信息保护活动通盘理解的问题。


“控制者”这一概念,主要应依循欧盟立法的脉络来理解。“控制者”(controller)最早见诸于《欧盟95/46/EC指令》(1995年10月),后在欧盟2012年拟议的《一般数据保护条例》(General Data ProtectionRegulation, GDPR)以及2016年通过的《一般数据保护条例》(GDPR)中延续使用。施瓦茨和索罗夫曾指出:“事实上,从欧盟95年指令开始,欧盟立法就已经为数据主体提供了对于他们自身数据使用的一种控制权。”而此处所谓的“控制权”,又与大陆法系典型国家的“信息自决”理论紧密相联。德国《基本法》第2条第1款确定了人格自由发展的权利。而个人信息对于人格构建和发展具有决定性的意义,“信息自决”(informationelle Selbstbestimmung)则是实现对个人自由发展的重要方式。此种信息自决观念将个人信息与人格权有效联系起来,并进而影响了个人信息保护的法律建构。


“信息自决”应有之意是个体能够决定自身信息的使用,即产生一种“控制”。殊值辨识的是,以“信息自决”为出发点的对个人信息的“控制”并不等于对个人信息的“控制权”,由于权利本身包含一种实践面向,而个人事实上无法享有对个人信息的绝对性、排他性的(全程)控制权,因此前述施瓦茨和索罗夫的观点也有不周延之处。当然,他们对于欧盟个人信息保护法的特征总体上有较好的把握与判断,这也就在相当程度上解释了,由于个人信息的产生、传递与流动等特征,当信息流动到与个体相对的主体,并由该主体进行“控制”之时,由于个体享有“信息自决”而并未丧失自己对信息的“延伸控制”,“控制”理念贯穿始终。比如,个人享有知情权,即“可以在一定程度上控制关于收集到的他们的数据的去向”。个人信息保护立法以“控制”为核心贯穿以个人信息为客体的一系列行为,当个人信息“脱逸”个体之后,能够控制信息的主体则是事实上占有信息的“控制者”。这也就是为何在欧盟《一般数据保护条例》中,信息控制者才是与个人直接相对的义务主体,而并非信息处理者。而控制者的核心活动与其主要活动有关,而与作为辅助活动的个人数据处理无关。在控制者客观控制数据的基础上,又进一步发展出“目的限制”原则,允许控制者评估为最初收集数据的目的以外的其他目的处理个人数据是否享有这样的依据,而这种依据并非基于法律或数据主体的同意。


在欧盟法的脉络下,信息控制者的概念绝非仅依立法而产生,而系与欧洲法长期关注与持续发展人格自由、信息自决等法思想、法理念紧密相关。信息处理者则是为了数据控制者而处理个人数据的主体,其行为与活动虽然具有相对独立性,也并非控制者的附庸,但在地位与角色上确实无法与控制者相提并论。二者的关系既反映出欧盟法的特色,同时也体现出个人信息活动本身的核心特征。反观中国法,遗憾的是,“信息控制者”这一概念在《民法典》制定过程中仅“昙花一现”,最终并未进入正式文本之中,这就有必要在中国法的“偶然”与“必然”之中进一步解释个人信息处理者的内涵,及其所辐射的制度脉络以及所反映的制度意旨。



(二)中国立法演进中的“个人信息处理者”



黑格尔认为,考察存在和本质的客观逻辑,真正构成了概念发生史的展示。客观而言,中国确实不存在如欧洲国家的信息自决观念的历史影响,因此即便是抛却已有概念,转而选择创设全新概念,也未尝不可。问题的关键在于,基本概念应起到贯穿制度核心脉络的作用,或重塑制度自身特征的作用,只有有意识循此设计制度,才能实现制度初衷,否则将会使制度变得空洞而无法实施。信息相关主体在历次法律草案与规范性文件中的表述,几无统一者,而最终《民法典》中改称“信息处理者”的表述,或有突袭之感,这也给如何解释信息处理者的地位与作用带来一定困难。


表:法律法规、规范性文件中的信息相关主体



从目前已公开的官方立法资料来看,对于上述概念变化并无特别说明。从概念表述与体系解释来看,大致可从以下几方面理解与建构:


第一,“信息处理论”吸收“信息控制论”。从概念使用来看,在制定法并未采用信息控制者这一概念之时,而仅使用信息处理者这一概念。通过体系解释,“信息处理论”表达为一系列客观的处理方式以及个人信息处理者的自主决定权利,这实际上也涵盖了包括有决定能力的控制者的一系列行为。立法阶段的终结,使信息处理者这一概念成为一种既定事实,后续研究和实践也只能在此基础上进行解释。


第二,非控制论之下的“信息自决”的贯穿。欧盟法脉络下的人格、信息自决与个人信息控制之间存在观念上与逻辑上的联系。尽管中国法并未选择以控制者为核心的“信息控制论”,但是无论是解释《民法典》的相关规定还是《个人信息保护法(草案)》一审稿与二审稿第44条中明确规定的“个人对其个人信息的处理享有知情权、决定权……”,已经较为明确地规定了“信息自决”或“个人信息自决权”。可见,即便立法选择了“信息处理论”或非控制论,但也仍然是选择了“信息自决”这一法价值,之后的法律体系构建或规则创设也仍然遵循此价值。


第三,跨法系基本概念的对话基础。欧盟个人数据保护立法在某种程度上作为一种“国际标准”,信息控制者也基本上成为一个通行概念,而中国立法之时仅选择使用信息处理者这一概念,这就带来一个国际对话基础以及法律适用上的问题。在数据面临跨境流动以及国内企业海外合规与外国企业在中国合规之时,都要面临概念转换与系列制度的理解问题,这在一定程度上增加了解释成本。因此,如何在制定《个人信息保护法》之时再进一步加强信息控制理念,使之与“信息自决”理念相协调,不得不通盘考虑,此谓周全之道。



(三)个人信息处理者的具体类型



信息时代与智能时代的首要特点就是信息呈规模化,以网络平台为代表的主体获取大量个人信息。个人信息保护与个人信息利用,二者表现为静动之分并体现不同价值取向,但二者实质上却是一种“价值合流”——安全。因此,个人信息处理者也是在安全价值指引下保护个人信息。个人信息处理者成为法律上的特定主体,预设的前提即该主体有能力保护个人信息安全,防范个人信息风险。尽管《民法典》适用于所有平等民事主体,但个人信息处理者由于其活动需要一定的物质和技术条件并负有较多义务,而在主体范围界定上有所限缩,并非所有民事主体均能成为个人信息处理者。这一点也符合国际通行规则,比如GDPR第30.5条规定控制者的责任不适用于雇员少于250人的经济主体或组织。有学者也认为:“个人信息保护法的义务主体具有特殊性,不是‘任何组织或者个人’这样的一般主体。”在此基础上,实践中的个人信息处理者的具体类型大致包括以下主体。


第一,网络服务提供者。在中国法项下,提供网络服务的主体被概括为网络服务提供者。在立法与实践中,涉及网络安全、电子商务等不同领域之时,也以不同主体称谓指代。在经济迭代转型出现平台经济之后,平台主体也往往成为一种经济学上的较为通行的主体称谓。当下个体购物、社交等行为基本上均以网络平台为中介,个人信息的收集、存储、使用、加工等行为也集中于平台之上。大规模的网络平台的出现,其相对于个体或消费者的强势地位,加剧了传统上经营者与消费者之间的交涉能力不平等。本次《个人信息保护法草案(二审稿)》第57条增加规定了提供基础性互联网平台服务主体的特别义务。由此,网络服务提供者是最为典型的个人信息处理者,最终的实际运营主体应承担个人信息保护等义务。


第二,公共机构。国家机关等公共机构也存在大量收集个人信息以及利用等行为。《个人信息保护法(草案)》第二章第三节专门规定了“第三节国家机关处理个人信息的特别规定”,但是除国家机关之外,还包括公共企事业单位也存在大量收集个人信息等行为。因此,包括国家机关在内的公共机构都应成为个人信息保护法上的个人信息处理者。当然,也有学者认为,国家机关作为信息处理者具有公共性、法定性、垄断性、强制性等特点,与以私人机构作为个人信息处理者为设想场景的个人信息保护法明显不同,未来还应当制定一个特别的规则来调整国家机关处理个人信息的行为。从目前来看,国家机关等公共机构在中国法上仍规定为个人信息处理者。


第三,线下经营主体。数字经济改变了人们的行为方式,线上交易与网络社交成为主要方式,但仍存在大量线下非网络平台主体收集、利用个人信息等情况,这些主体应系个人信息处理者。同时,实践中也存在经营者线上线下信息共享等情况,有些情形可能会侵害消费者的个人信息。就此,线下经营主体也是典型的个人信息处理者。


对于个人信息处理者的界定,不仅仅是一种概念理解或者类型识别,在“个人—信息控制者”“个人—(个人)信息处理者”的两造关系中,更应理解“信息自决”脉络下的个人对于自身信息的“延伸控制”。在此基础上构建个人信息处理者的民事责任体系,并且解释相应主体承担民事责任的机理,是为基础,更是必要前提。



二、个人信息处理者侵害个人信息的民事责任


个人信息保护呈现跨公私法域特征,有其自身相对独立的发展脉络,并非民法的特别法,法律责任也包括民事责任、行政责任和刑事责任。个人信息作为体现人格权益与人格发展的重要载体,在创设“信息自决”的观念与制度之下,如何实现个人对自身信息的“脱控”而不“失控”,在受有损害之时,能够得到充分救济,是制度建构与法律适用最为关注之点。在个人信息权益受到侵害之时,人格权法与侵权法是最为基本与最为有效的救济方式,也同时体现出侵权法旨在权衡行为自由与权益保护的机能。在考察《民法典》的适用与个人信息保护立法的双重面向之上,探讨个人信息处理者侵害个人信息的侵权责任,是法律为个人信息主体提供的最基础保障。



(一)个人信息处理者侵害个人信息的典型行为



与一般自然人之间的侵害个人信息的行为不同,个人信息处理者作为具有一定规模的网络服务提供者或线下经营主体以及公共机构,其侵害个人信息的行为特征主要包括面向不特定主体、运用技术手段等方面。主要包括以下典型行为:


第一,不当收集个人信息的行为。在《民法典》与系列规范性文件中,收集个人信息应符合“合法、正当、必要”原则,同时符合最小、必要原则。而在实践中,有相当多的APP存在涉嫌过度收集用户个人信息的情况。在备受瞩目的郭某诉杭州野生动物世界有限公司服务合同纠纷案中,二审认为,野生动物世界欲利用收集的照片扩大信息处理范围,超出事前收集目的,存在侵害郭某面部特征信息之人格利益的可能与风险。可见,是否正当收集的标准主要在于是否符合法定的收集原则,如超过则为不当收集个人信息。


第二,泄露个人信息的行为。泄露个人信息属于较为严重的侵害个人信息权益的行为,实践中具体表现形式不一。在庞某诉某航空公司和某信息技术有限公司隐私权纠纷案中,庞某在某网站订票之后,后收到其他短信,列明庞某的姓名、航班号等内容,法院认为两家公司存在泄露庞某隐私信息的高度可能,并且存在过错,应承担侵犯隐私权的相应侵权责任。在有的案件中,法院确认公民的举报信息具有私密性,购物平台擅自将订单编号告知被举报人,属于泄露个人私密信息的行为。泄露个人信息的行为往往涉及对私密信息和隐私权的保护,较之其他不当收集、不当利用与分享等行为更为严重。


第三,不当使用个人信息等行为。在未经个人信息主体的同意,而将个人信息作为他用的情况,属于不当使用个人信息的情形。在王某与某置地有限公司姓名权纠纷案中,该公司擅自利用王某的姓名与身份证号码进行个税申报,不当利用了王某的个人信息。在俞某诉北京乐某达康科技有限公司等网络侵权责任纠纷案中,俞某在线下的购物记录也被同步到线上购物平台的购物列表之中,这是一种扩张信息共享的行为,同时也是一种扩大收集信息的行为。上述行为都是建立在个人信息处理者掌握个人信息的前提下,将信息用于他用,或不当使用、或不当分享,均系较为典型侵犯个人信息权益的行为。


除上述几种情形以外,比较具有争议的情形还包括由用户画像或其他自动化决策所带来的不利影响是否会构成对人格权益或财产权益的侵害,比如评价分选、价格歧视、大数据杀熟等,目前相关案例中,法院并未支持当事人的相关请求。对滥用算法等行为,目前主要通过监管或数据治理等方式予以规制,在民事责任方面尚未见相关适用和突破。在风险泛在的智能时代与万物互联时代,人们没有脱离风险场域的可能性,对于概括风险而导致的权益受损目前较难实现个体救济;但在个体受到确定的侵害之时则有请求获得法律救济的权利,这也正是侵权法的基本意旨。



(二)构成要件



个人信息处理者侵害个人信息的侵权责任的构成要件,主要以《民法典》人格权编和侵权责任编的体系解释为主。将人格权编的框架安排与传统侵权责任的构成要件进行比对,人格权编对于过错和损害并未规定,也有学者认为,在适用人格权请求权时,既不需要考虑是否有损害(只要构成对人格权的侵害或者存在侵害的危险即可),也无需考虑侵权人有无过错。从民法典编章安排体系解释和司法机关关于民事案件案由规定来看,人格权请求权在适用上优先于侵权请求权。同时《个人信息保护法草案》一审稿第65条与二审稿第68条规定了个人信息处理者的损害赔偿责任,这一部分也将纳入体系解释范畴之中。鉴此,本部分的讨论总体上立足于解释论与立法论的双重面向。


1.过错


在归责原则之过错责任原则、过错推定原则和无过错责任原则三分法的基础上,《民法典》对侵害个人信息的归责原则并未明确规定。在前述案例中,法院基本上也并未特别考虑个人信息处理者的主观过错。由个人信息主体与个人信息处理者之间关系所决定,侵害特定个人的信息的行为,只会由比较特定或有限的个人信息处理者作出,而其侵害行为的范围和内容也基本比较确定,责任认定并不存在太多困难。


《个人信息保护法草案(二审稿)》第68条明确规定侵害个人信息的归责原则为过错推定。相较一审稿,二审稿有较大进步。一审稿第65条规定了侵害个人信息权益的赔偿责任,但该条却存在归责原则与损害赔偿责任的“颠倒”与“杂糅”。通常而言,“侵权请求权基础的检视原则上区分责任成立与责任范围两个阶段,各类侵权请求权基础检视程式的差异主要体现在责任成立部分”。对于一审稿中关于归责原则的不足之处,二审稿中有所纠正和调整。同时,二审稿第68条第2款系与《民法典》侵权责任编第1182条基本保持一致。


立法者在侵害个人信息的归责原则上或可考虑过错责任原则与无过错责任原则“二分法”思路:一是基于不同主体。借鉴我国台湾地区“个人资料保护法”相关规定,对个人信息侵权,公共机构承担无过错责任,非公共机构则承担过错推定责任;二是基于不同行为。借鉴德国《联邦数据保护法》相关规定,对于自动化数据处理所致损害适用无过错责任,非自动化数据处理所致损害适用过错推定责任;三是基于不同信息类型。有学者也提出应在区分敏感与非敏感信息的基础上,分别规定适用无过错责任与过错推定责任。此种通过不同角度的“二分法”确定归责原则,是一种较好的思路,可参酌吸收借鉴。


2.行为


个人信息处理者在收集、存储、使用、加工、传输、提供、删除和公开等活动过程中都可能会存在侵害个人信息的行为。前述关于个人信息处理者侵害个人信息的典型行为中已概括了相当一部分行为。作为“信息自决”观念的延伸,通过在信息的“可识别性”与人格权益保护之间建立联系,集中于是否侵害了具有可识别性的信息,从而引致侵权法的适用。


以信息的“可识别性”为“风险源”和“风险敞口”,是侵害个人信息行为的集中体现。这就使得个人信息处理者的几乎大部分活动都可能囊括其中。施瓦茨和索罗夫就认为,欧洲隐私立法的优势是几乎没有什么信息可以逃出立法之外,但同时也十分冒险地引发了数据处理者实际上承担了与个人隐私可能产生的风险实际上并不匹配的法律负担。近年来除侵害个人信息的典型行为讨论较多之外,基于相应实践发展和义务扩张的现实需求,关于电子商务经营者、直播平台和个人信息处理者等是否应承担安全保障义务就引发较多争论,尤其是在某主播在直播平台直播极限运动意外坠亡案件发生后,更将网络服务提供者等主体是否应承担安全保障义务推至风口浪尖。


安全保障义务源自德国判例中形成的交往安全义务学说,并在实践中不断确立和发展相关规则。我国在制定《侵权责任法》之时,通过列举和限缩适用范围和情形的方式,规定了安全保障义务。但其与两大法系学理与判例中所概括的交往安全义务和注意义务存在一定差异,虽然学界和实务界已基本接受了中国《侵权责任法》第37条(《民法典》第1198条)的规定。但由于对本国制定法的理解和接受存在一定思维惯性,人们对反过来理解安全保障义务的原貌反而产生一定障碍。近年来,中国法在安全保障义务的理解上、实践中和立法中不断与德国法和美国法接近,从而将确定相应主体是否负有安全保障义务聚焦于有学者所概括的——“注意义务的违反”以及“对加害人本身主观预见能力的考察”——两个层次的内容。


针对个人信息的安全保护义务,在欧盟的GDPR、中国民法典、消费者权益保护法、网络安全法、电子商务法等都有相应规定。《民法典》第1038条规定了信息处理者的信息安全保障义务。《个人信息保护法(草案)》一审稿和二审稿“第五章个人信息处理者的义务”中,系对履行安全保障义务的标准予以多维度细化。


殊值关注的是,基于公法规范以转介方式适用于私法领域等理论铺垫,近年来学界也有观点主张是否将网络信息领域的公法规范以转介方式适用于私法关系,以扩张网络经营者、信息处理者等主体的安全保障义务。在侵权法上,“违反保护他人法律的侵权责任”(《民法典》第1165条第1款,即《侵权责任法》第6条第1款)事实上起到一个“转介条款”的功能,可以将各种特殊的侵权法律政策引入到一般侵权法之中。但是对于保护他人的法律,如王泽鉴先生所言,系“以其是否以保护个人的权益为判断标准,个人权益的保护得与一般公益的保护并存,但不包括专以维护国家社会秩序的法律”。可见,“转介”之核心标准在于“是否以保护个人的权益为判断标准”,而非全部公法规范均不加限制和阻拦地进入私法领域。诚如有学者所言,此种适用可能会引发一系列民法体系内部以及公法与私法之间关系等问题,应谨慎适用,合理把握注意义务的标准。鉴此,在个人信息保护领域,尽管单行法可能会不断推出,但不能笼统地将《网络安全法》和未来出台的《数据安全法》和《个人信息保护法》等法律法规中包含的一系列公法规范直接转介入私法之中,并引致个人信息处理者承担相应的民事责任,此种认识不得不事先予以警惕,以维护法律最基本的公正价值。


3.损害


损害通常包括财产损失、人身损害和精神损害。关于侵害个人信息而产生的损害,欧盟GDPR第82条第1项规定:“任何因为违反本条例而受到物质或非物质性损害的人都有权从控制者或处理者处获得损害赔偿。”个人信息主体通常需证明自己受有物质或非物质性损害,非物质性损害主要包括外部风险的损害和内心焦虑的损害。个人信息的“可识别性”,即是否可通过个人信息识别到特定主体,是判断个人信息权益是否受到侵害的关键要素。在司法实践中,法院一般通过“可识别性”标准而确定是否侵害个人信息权益,只要侵害了具有可识别性的信息,基本上就判定侵害了个人信息权益,从而根据当事人的诉求进行利益衡量。实践中,对于赔偿经济损失等,根据相应侵权责任法规则,会给予一定程度的支持;而对于精神损害,却往往由于客观上难以认定,而较难支持。客观而言,将个人信息保护放置于《民法典》之内,尽管在一定程度上与其他国家或地区的个人信息保护规则体例并不相同,但却恰恰在相当程度上缓解了如何确定损害等问题,更有益于实现对当事人的救济。


4.因果关系


因果关系作为侵权法上的重要命题之一,即侵权行为造成损害结果的发生在通常情况下存在可能性。在侵害个人信息的情形中,有的因果关系链条并不复杂,大多是基于个人信息处理者这一特定主体的概括的“一因一果”,这就使得行为与损害结果之间关系的判定难度不高。在有的案件中,法院根据民事诉讼高度盖然性证明标准而对因果关系进行判定。但当存在复数信息控制者参与同一个人信息的处理活动而发生个人信息泄露时,受害人往往无法证明哪一主体是具体加害人,此时应当采用共同危险行为制度加以解决。当然,因果关系也是侵害个人信息责任中的必要构成,应在个案判定中予以重视。



(三)损害赔偿



个人信息处理者的行为造成个人信息主体损害,应承担损害赔偿责任。概括而言,包括停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、赔礼道歉等责任形式。对于停止侵害、排除妨碍、消除危险等几者不难理解,实际上在侵害知情权等一系列个人信息主体权利之时都可能会普遍适用。对于如何确定赔偿数额,原则上根据《民法典》第1182条确定。在前述相关案例中,法院支持当事人经济损失赔偿的不在少数。通常情况下,当事人请求赔偿经济损失的数额也较小,往往只有1元、2元等,相当程度上具有一定象征意义。


对于消除影响、恢复名誉和赔礼道歉等非金钱赔偿,2014年颁布的《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》第16条有所规定。根据该条,对于侵害个人信息的非物质性损害的赔偿应与侵权的具体方式和所造成的影响的范围相当。比如在2014年罗某诉某保险公司隐私权纠纷案中,法院认为,保险公司侵害了罗某的隐私权,判令保险公司向罗某赔礼道歉并赔偿罗某精神损害抚慰金1元及相关费用。当然,由于当时关于个人信息保护的意识并不明显,因此主要按照隐私权这一典型的人格权进行裁判并判以精神损害赔偿。而在庞某诉某航空公司案中,当事人虽然并未证明实际受有精神损害,但却在二审时改判支持了当事人关于赔礼道歉这一诉讼请求。可见,在个人信息侵权案件中,对于非金钱赔偿方式也具有相当的支持空间。




三、侵害个人信息处理活动中个人权利的民事责任


个人信息属于个人,理论上存在一个概括的、完全的权利,但是由于个人信息处理活动的存在,就使得个人信息主体所享有的抽象的完整权利被分解成数种具体权利——涵摄全过程的知情权、决定权,以自决意志为核心而外化的查阅权、更正权、删除权等权能。对于这些权利的保护,既仰赖公权力之管制与治理,同时亦可根据民事主体权利保护之本旨而给予救济,两种方式互相补充,相辅相成。这些权利在一定程度上可以类型化,并在类型化的基础上给予不同方式的救济。需要说明的是,侵害这些权利的民事责任与本文第二部分讨论的侵害个人信息的民事责任有一定交叉,这些权利系请求权基础,但由于这些权利被集中规定于《个人信息保护法草案》专章之中,因此有必要予以集中讨论与回应。



(一)个人信息主体的权利体系



世界范围内个人信息主体的权利形式上大同小异,但因各国自身社会、法律和文化等传统不同,而在个别权利和实施向度上有所不同。中国当前个人信息立法中,与GDPR相比,个人信息主体的大部分权利基本相似,只有在是否规定数据可携权和被遗忘权等方面而有所不同。总体而言,中国法上的个人信息主体的权利体系呈现如下特征。


第一,“信息自决”的主线贯穿。如本文第一部分所述,中国个人信息立法脉络中并无“信息自决”的观念,但本次个人信息立法之时创设了此种观念,并在知情同意(同意撤回)、决定权、查阅权、复制权、更正权、删除权等方面予以贯穿体现。由此,在个人信息处理活动中,但凡侵害信息自决的,则均需承担相应法律责任,即便是在《民法典》第1036条关于处理个人信息的免责事由方面,也对个人信息主体的同意予以强调,以及即便是对自然人自行公开或者其他已经合法公开的信息,但是该自然人明确拒绝的也不得处理等。当然中国立法并非GDPR的翻版,而是根据中国实践发展而建立相应信息自决观念。


第二,作为核心权利的知情权。与上述“信息自决”观念紧密联系,知情权系体现信息自决观念的重要基础性、核心权利。只有在个人信息处理活动中,将“知情”作为核心,才能充分保障信息自决。因此,知情权并非一个完全仅靠公法管制或对个人信息处理者进行数据治理的权利,而是充分保障信息主体个人信息权益的基础。


第三,围绕“知情”的系列权利。只有在信息自决与知情同意的基础上,才能进一步衍生出查阅权、复制权、更正权与删除权等,这些权利并非简单的程序性权利,而是体现知情权与决定权等基础权利的外在表现。在这些权利可能受到侵害之时,也应给予充分的救济。



(二)侵害知情权、决定权的民事责任



知情权在各类主体权益保护中都是一项基础性权利。从知情同意的本源来看,其根本上是一种主体交往之时设定法律关系的前提与基础行为,同时该行为还具有“限权与自我义务设定”之效果。“知情—同意”作为一种行为模式,其被应用于诸多社会关系建构之中,涉及政治国家、医疗领域、消费者保护与个人信息保护等。从正义价值维度考察,在美国消费者法上,“选择知情”(权)被归于程序正义之中。而决定权则实际上“被吸收”于知情权之中,比如在我国台湾地区的“请领身份证捺指纹案”中明确,保障人们决定是否揭露其个人资料,及在何种范围内、于何时、以何种方式、向何人揭露之决定权,并保障人们对其个人资料之使用有知悉与控制权即数据记载错误之更正权。由此可见,知情权、决定权与其后的一系列权利内在存在联系。对于决定权,主要吸收于知情权之中,并与之一并讨论。


在个人信息保护之中,知情权是一个贯穿全程、保证后续个人信息处理行为和活动具有正义价值的基础权利。在消费者法上,消费者的知情权体现为商品或服务的标签“客观化”,对侵害消费者知情权的救济,在已有大量案例中,通常是要求经营者承担合同上的义务和责任。而个人信息保护之中的知情权体现在同意、同意撤回以及后续的一系列权利,对于此类知情权的侵害,通常要求个人信息处理者履行一定法定义务,基本上并非通过合同义务与责任予以救济。


从实践来看,是否侵害“知情同意”权利较容易辨识。比如在有的案件中,用户不在某APP上添加关注即能看到好友读书信息,而APP自动为用户添加关注,此种情形显然需要显著提示用户并获得明确同意。在有的案件中,用户没有选择“授权”选项,则当然可认定用户并未同意,因此后续的个人信息处理活动就可能不具有合法性。从知情同意在各领域的发展与实践可见,在数字经济时代,知情同意更具有确定性与外显性,其也成为一个“大网”,使得未经授权的个人信息处理行为基本上无法逃逸,当然,符合《民法典》第1036条规定的行为有所例外。


对于侵害个人信息主体的知情权的民事责任,应包括停止侵害、删除个人信息等;如当事人能够证明自己受有精神损害,可请求侵权的个人信息处理者承担恢复名誉、消除影响、赔礼道歉等民事责任。



(三)行使《民法典》第1037条个人信息请求权的限制与救济



在“信息自决”的贯穿下,GDPR规定了个人信息主体的一系列权利,中国《民法典》和正在制定的《个人信息保护法》也规定了一系列个人信息主体的一系列权利。中国个人信息保护立法为何在吸收了立法理念与诸多规则之后,在个人信息主体权利方面却并没有完全借鉴?立法者的释义书对此也有所提及,《民法典》第1037条中的删除权并非GDPR所规定的“被遗忘权”,由于各方对欧盟的“被遗忘权”争议极大,因此本法对此未作规定。的确,个人信息主体的权利体系与一国法律发展脉络紧密相关,较难在各国和各地区完全达成一致。


《民法典》第1037条规定了个人信息主体的查询权、复制权、异议权、更正权和删除权等,这几种权利也分别是以人格权请求权的方式而出现,在《个人信息保护法(草案)》中也被进一步细化。这几个权利呈现出一定特征,即并非一次性行使的权利,可能会针对不同信息内容而反复行使,这就可能产生一定价值冲突——如何既保障个人信息主体有效行使权利,同时又能实现与个人信息处理者之间的利益平衡。对于查询权、复制权等权利,可借鉴《征信业管理条例》相关规定,即个人信息主体的查询权和复制权的行使在一定程度上可以受到次数限制。而对于异议权和更正权而言,则需由个人提出相应证据或要求予以补充更正。


在上述几个权利之中,相对而言属于一次性行使的,主要是删除权。第1037条第2款规定,自然人发现信息处理者违反法律、行政法规的规定或者双方的约定处理其个人信息的,有权请求信息处理者及时删除。《个人信息保护法(草案)》一审稿与二审稿进一步规定了个人信息处理者应主动删除或根据个人请求删除个人信息的具体情形。


对于侵害个人信息主体的查询权、复制权、异议权、更正权和删除权,又将如何救济?具体而言,对于查询权、复制权的救济,个人信息处理者应基于请求承担查询、复制等行为义务;对于异议权,个人信息处理者则有义务予以更正或解释;对于删除权,个人信息处理者则应停止侵害、删除个人信息等。对于可能产生的经济损失或精神损害,则应根据具体情况,由个人信息处理者承担赔偿责任。




四、结语


从世界范围来看,美国、欧盟与中国对个人信息保护立法呈现出不同的价值选择与立法体例选择,着眼于突出各自的个性与特性。然而,如施瓦茨所发现的,实际上美国和欧盟关于个人(信息)隐私的理念也并非完全对立与冲突,德国联邦宪法法院和德国联邦法院在1973年和1995年的相关案件中引用了沃伦和布兰代斯的《论隐私权》一文中的“不受干扰的权利”等内容,欧洲人权法院也多次援引这一重要的概念。可见,两大法系也在对隐私和个人信息问题的认识上不断实现沟通。同样地,中国个人信息保护立法也在立法理念、权利体系、义务体系与法律责任上尝试与两大法系实现一定沟通与融合。


在《民法典》之后,《个人信息保护法(草案)》一审稿与二审稿不断推出与完善之际,着眼于个人对自身信息的自决与控制,权利实现与救济,是个人信息保护在现代之于个人人格实现的新的表现形式。当然,本文主要聚焦于个人信息处理者的民事责任,对于个人信息处理者而言,不仅仅包括民事责任,还涉及行政责任与刑事责任。个人信息保护立法在法律责任方面,将从多维度保护个人信息,以此才能实现对个人信息主体的救济。人类经历社会变迁之时,在不同时期需要实现掌控不同物质的自由,而进入信息社会与智能时代,人们所要追求的就是掌控信息的意志自由,这一自由也即拉德布鲁赫与星野英一所言的人格的发展,毫无疑问,这种人格的发展本质上更是一种人的发展。


来源:中国法学网




编辑:王奕
1058#
 楼主| 发表于 2021-6-16 20:35:07 | 只看该作者
【案例】


耶鲁信息法教授:算法社会中的三大法则


内容提要

我们正在从互联网时代飞速走向算法社会,这是一个由算法、机器人和人工智能体围绕社会和经济决策组成的社会。阿西莫夫三大定律具有一定的启发性,但仅适用于科幻小说。人类与机器人的关系,犹如布拉格魔像传说中的“拉比和魔像”。在算法社会中,规制的核心问题不是算法,而是使用算法的人,以及允许自己被算法支配的人。我们需要的不是阿西莫夫定律,而是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则。算法操作者是委托人及终端用户的信息受托人,算法操作者对公众负有责任,算法操作者负有不参与算法妨害的公共义务构成了算法社会中的三大法则。

关键词

算法社会;信息受托人;算法妨害;人工智能



一、弗兰肯斯坦情结

在我孩童时期,我读了艾萨克·阿西莫夫(Isaac Asimov)所有关于机器人的故事。在阿西莫夫的世界里,机器人逐渐融入社会的方方面面,它们与人类有着不同程度的相似性。但随着故事的发展,最先进的机器人在外观和形态上开始非常“人类”。

这些机器人故事中最著名的就是阿西莫夫的三大定律,它将被植入每个机器人的正电子脑中。

这三条定律如下。

第一定律:“机器人不得伤害人类,或者通过不作为而使人类受到伤害。”

第二定律:“机器人必须服从人类的命令,除非该命令与第一定律相抵触。”

第三定律:“机器人必须保护自身的安全,只要这种保护不与第一或第二定律相抵触。”

这三条定律非常有影响力,甚至直到今天,人们还在想象将它们植入到机器人(例如自动驾驶汽车)上会是什么样子,或者这种植入是否有可能实现。

作为一种令人印象深刻的文学手法,三大定律用一种有趣得多的主题取代了人们熟悉的机器人主题。更古老的主题是“弗兰肯斯坦怪物”,或后来变得很邪恶或发狂的杀手机器人的主题。在《终结者》系列电影中,该文学主题的一个例子就是,神经网络(Skynet)变得有自我意识并接管了世界。但阿西莫夫写机器人故事是为了对抗他所谓的“弗兰肯斯坦情结”(Frankenstein Complex)——即机器人天生就具有威胁性或邪恶性——且人类不可避免地会创造出一些机械生物,而这些机械生物又会攻击它们的创造者。事实上,在他的许多小说中,人们一开始对机器人抱有偏见,最终却看到了它们的价值。例如,他几个故事的主角——侦探以利·亚贝利(ElijahBailey)。他最初怀疑机器人,最后却与他的机器人搭档丹尼尔·奥利瓦(R. Daneel Olivaw)成为最好的朋友。

通过设立三大定律,阿西莫夫让事情变得更加有趣。他没有担心机器人最终是否会攻击我们人类,而是提出了另一个律师非常关心的问题,即法律解释问题。当法律不明确或者法律冲突时,我们会做什么?或者在某些情况下,机器人本身会做什么?通过创立这三大定律,阿西莫夫把我们对机器人的想象从威胁转移到了解释和规制的对象,进而转移到了讽刺和冲突的对象。这是一个非常复杂的想法,也是从他的许多小说中发展出来的。

现如今,我们还不清楚我们是否真的能把阿西莫夫提出的三大定律应用到机器人和人工智能体上。毕竟,阿西莫夫的三大定律似乎相当模糊和不完整,可能存在漏洞。

当然,这也是需要重点关注的部分。在阿西莫夫的小说中,一个反复出现的主题是当法律不明确或模糊,或者在某些情况下可能会发生的冲突。因此小说情节往往转向用巧妙的方式来解释或重新解释它们,或者如何解决它们之间的冲突等。在其后期的一部小说中,机器人丹尼尔·奥利瓦(Daneel Olivaw)一开始是个侦探,但最终成为小说中一个非常重要的人物。他变得非常先进,以至于创造了自己的第零定律——“机器人不能伤害人类,或者通过不作为,让人类受到伤害”——这比他在原始程序中接收到的所有其他程序都要先进。

总之,我今天的目标是要问,我们可以利用阿西莫夫关于三大定律的最初想法做些什么。然而,当我谈到机器人时,将不仅包括机器人这种与环境交互的实物,还包括人工智能体和机器学习算法。我认为这与阿西莫夫的观点完全一致。虽然阿西莫夫主要写机器人,但他也写非常智能的计算机。他试图对抗的弗兰肯斯坦综合症(Frankenstein syndrome)可能源于对人工智能或算法的恐惧,也可能源于对实体化机器人的恐惧。今天,人们似乎不仅害怕机器人,而且害怕人工智能体和算法,包括机器学习系统。机器人似乎只是一系列更大问题中的一个特例。

事实上,我们正在从互联网时代飞速走向算法社会。我们将很快回顾作为算法社会先驱的数字时代。我说的算法社会是什么意思?我指的是一个由算法、机器人和人工智能体围绕社会和经济决策组成的社会,这些代理人不仅作出决定,而且在某些情况下,还执行这些决定。因此,机器人和人工智能的使用只是算法社会的一个特例。

大数据也只是算法社会的一个特征。事实上,大数据只是以算法决策为中心的社会的另一面。大数据是运行算法社会的燃料,也是其运作的产物。数据的收集和处理产生了越来越多的数据,而这反过来又可以提高算法的性能。这改变了康德的著名论断:没有数据的算法是无价值的,没有算法的数据是盲目的。

在这次演讲中,我将为算法社会提供新的三大法则。在此过程中,我还将介绍四个重要的理论观点,它们将帮助我们理解该如何监管这些实体。这四个观点是:侏儒谬误(The Homunculus Fallacy)、替代效应(TheSubstitution Effect)、信息受托人(The Information Fiduciaries)及算法妨害(The Algorithmic Nuisance)。随着演讲的进行,我将解释这四个观点。

虽然我的灵感来自于阿西莫夫的三大定律,但是我对于“机器人法则”的描述与他非常不同。

第一,这些法则将不仅限于机器人,它们将适用于人工智能体和算法,包括机器学习算法。当我想把这三个概念放在一起讨论的时候,我会概括地讲一下算法的法则。

第二,当人们在科幻小说中想到机器人时,他们通常会想到独立的实体。但是今天我们知道许多机器人和人工智能体都连接到云端,物联网和家用机器人就是这样。这很可能也适用于自动驾驶汽车。因此,无论“机器人法则”是什么,它们很可能是与互联网相连的云智能法则。

第三,因为机器人是云机器人,我们不应该忘记机器人和人工智能的核心问题之一是数据处理,特别是大数据。没有数据,机器人什么都不是。而且由于许多机器人将成为云机器人,且许多人工智能系统将连接到互联网云,导致它们将严重依赖于数据分析。数据是驱动人工智能引擎的燃料。

因此,当我们谈论机器人、人工智能体和算法时,我们通常也会谈论大数据和互联网连接。就像我们谈论大数据时,我们通常也会谈论机器人、算法和处理大数据的人工智能体的规则。“机器人法则”也是大数据时代的机器人法则、算法法则和人工智能法则。因此,这就是这次演讲的主题。

第四,也许是最重要的一点。阿西莫夫称他的三大定律,不是机器人使用者、机器人程序员或机器人操作者的定律。他的定律是机器人主导的,它们是以机器人为中心的。也就是说,它们是插入到机器人自身代码中的编程指令。这些是机器人必须遵循的定律,而不是机器人的使用者必须遵循的定律。你可以想象这些指令也是人工智能体或算法的一部分。作为对算法机器学习的检查,它们是一种软件方面的约束,就像权利是行为方面的约束一样。

可以肯定的是,人类被要求为每个机器人编写定律程序。但定律本身是针对机器人的,而不是针对人类的。阿西莫夫并没有提到很多关于要求这种程序的人类定律。但是有人认为政府有某种要求,要求每个机器人的正电子脑都要安装这种程序。

在这一点上,我的观点将与阿西莫夫背道而驰。我没有专注于针对机器人的定律(或算法),而是专注于针对那些编程和使用机器人、人工智能体和算法的人的法则。这是因为在新兴的算法社会中,我们需要的不是机器人定律,而是机器人操作者法则。

算法社会的理念是利用数据和算法来治理社会并改善社会,算法社会的抱负是无所不知地了解一切并预测一切。这是一个与人类自身一样古老的抱负,但现在似乎越来越触手可及。

在算法社会,规制的核心问题不是算法,而是使用算法的人及允许自己被算法支配的人。算法治理是由人使用特定的分析和决策技术对人进行治理。

因此,我们需要的不是像阿西莫夫的三大定律那样由机器人主导的定律。而是针对那些使用机器人进行分析、控制和对其他人行使权力的人的法则。



二、人类与机器人的关系:“拉比和魔像”

让我用一个故事来解释这个想法。2014年春天,玛戈·卡明斯基(Margot Kaminski)和我在耶鲁大学法学院教授了第一门法律和机器人学课程。她列出了一个阅读清单,这个清单在我以后的日子里都有用到。在第一堂课上,她选择了一些著名的文学例子,包括阿西莫夫公开三大定律的短篇小说,以及卡雷尔·恰佩克(Karel Capek)1921年的戏剧《机器人》(RUR),它是“机器人”一词的起源。她还选择了某个版本的布拉格魔像传说(The Legend of the Golem of Prague)。根据传说,布拉格的魔像是由拉比犹大·勒夫·本·贝扎列尔(Rabbi Judah Loewben Bezalel)创造的。拉比(Rabbi)是16世纪的一位圣人,因其学识和虔诚而广受尊敬。他利用犹太神秘主义的秘密知识,用泥土创造了一个活物,就像上帝创造了亚当一样。他通过说出一个神圣的名字使魔像复活了。它看起来就像是人类,非常强大,但不能说话。因为正如传说中所说,言语的力量是上帝单独赋予人类的(下次你和Siri说话的时候,想想事情是怎么改变的)。在很多情况下,拉比通过设置魔像来处理犹太社区受到的威胁。在传说中,魔像扮演一个侦探的角色,就像阿西莫夫的丹尼尔·奥利瓦(Daneel Olivaw)。他只要发现有人在诽谤犹太人,就会抓住这个人。完成了他的目的之后,他会回到拉比那里。拉比将同样的秘密咒语倒着念,魔像就变成了一块没有生命的黏土,被存放在犹太教堂的阁楼里。这个故事的重点是什么?这个版本的故事最有趣的地方就是那些没发生的事情。魔像不会发疯,他没有抓错人。拉比的妻子没有发现魔像并且偶然地释放了魔像;拉比的女婿没有用魔像来赚钱;一个不讲道德的人没有训练魔像去做坏事等。事实上,这个故事里没有什么坏事发生,魔像作了它应该做的事情。在某种程度上,这个版本的传说相当无聊。有一些其他版本的魔像传说中魔像出了问题,十分有趣。但是我们从这个故事中得到的最重要的教训是,没有出错的原因在于,魔像是由最虔诚、最有学问的拉比所设计和使用的。只有一个真正正直的人,或者一个圣人,才有能力把魔像用在好的地方。在我看来,这才是这个故事真正的教训。当我们谈论机器人或人工智能体和算法时,我们通常集中在他们是否会造成问题或威胁。但在大多数情况下,问题不在于机器人,而在于人类。为什么问题出在人类身上,而不是机器人?第一,人类设计算法,编写程序,把它们连接到数据库,然后释放它们。第二,人类决定如何使用这些算法,何时使用算法,以及用于何种目的。第三,人类用数据来编写算法,数据的选择、组织和内容包含了早期歧视和不公正的残余。第四,尽管人们常谈论机器人作了什么,人工智能体作了什么,或者算法作了什么,但是这种谈论忽略了一个重要的问题,即这些技术调节着人与人之间的社会关系。技术被嵌入到社会关系中,而且常常掩盖社会关系。当算法内容包含歧视或用于做坏事时,我们总是需要问算法是如何从事再生产和实现人类之间的特定社会关系的。这些社会关系产生并再现了正义与不公、权力与无权、优越地位与从属地位。机器人、人工智能体和算法是产生这些社会关系的装置。通过这些装置,特定形式的权力得到处理和转化。这就是我所说的问题不在于机器人,而在于人类。



三、人类与机器人的不同:侏儒谬误

这就把我带到了先前承诺会在这次演讲中讲到的四个观点中的第一个观点。我创造了一个短语——侏儒谬误(The Homunculus Fallacy),来描述人们对机器人、人工智能体和算法的看法。侏儒谬误是相信程序中有一个小人物在使程序运行,这个小人物有好的意图或坏的意图,并使程序做好的事情或坏的事情。但事实上,算法中并没有小人物,只有编程代码和数据。编程使用这些数据来运行,有好的影响也有坏的,有可预测的也有不可预测的。当我们批判算法的时候,我们实际上是在批判编程或者数据,或者它们之间的交互。但同样重要的是,我们也在批判那些为算法编程、收集数据或者使用算法和数据来执行特定任务的人们对它们的使用。我们批判的是拉比,而不是魔像。那么,这些技术产生和再产生了什么样的社会关系呢?为了解释这一点,我需要介绍这次演讲中四个观点中的第二个观点。这个观点我之前已经提过了,那就是替代效应(The Substitution Effect)。替代效应是指当机器人、人工智能和算法代替人类,并作为特殊目的的人运行时,对社会产生的影响。机器人或算法作为替代品的概念传达了四种不同的思想:(1)替代品在某些方面比原来的更好;(2)替代品在其他方面比原来的更有限;(3)人们认为替代品是活的——信奉物有灵论或拟人论;(4)替代品的行为是对人类和人类群体中权力社会基础的迷恋或偏离。第一,替代意味着优越。机器人、人工智能体和算法比人类和人类决策者更强大、更快捷。他们可以看到事物、做事情、分析事物并作出人类永远无法作出的决定。他们从不厌倦做这些事情,他们没有情感上的干扰,也不会因为做这些事情而感到内疚。第二,替代也意味着限制或不足。机器人、人工智能体和算法的能力有限,他们只能做某些事情,而不能做其他事情。他们缺乏人类判断力的许多特征。第三,替代涉及生命、能动性和意图在程序及机器上的投射。这也鼓励人们利用算法将自己的责任投射到算法本身上,因此也就产生了侏儒谬误。第四,替换涉及迷恋或意识形态的偏离。马克思谈到了著名的商品拜物教。正如古代社会认为图腾是无生命的物体且具有神奇的力量一样,马克思认为市场社会的人们把商品当作有价值的东西来对待,而实际上赋予它价值的是它嵌入了一个社会关系系统的事实。市场是一种社会关系,它既赋予人们权力,又允许人们相互行使权力。适用于市场上的大宗商品,也适用于机器人、人工智能体和算法等技术替代品的使用。这些技术成为个人和群体之间权力的社会关系的一部分。我们不能把魔像和拉比混为一谈。机器人技术的影响总是与人类或人类群体之间的权力关系有关。最近,媒体报道了一个关于选美选手的算法的故事,这个算法偏爱白人。这类故事加深了人们心中算法存在心理偏见的观点。这就是侏儒谬误——在这个算法中,没有一个选美评委会运用他或她的偏见。如果算法采用机器学习,那么就有以前选美比赛的历史、关于选美的文化假设、收集数据的类型和方式、算法采用的代码及修改代码的代码。还有一些人为了特定任务设置了宽松的算法。我们必须永远记住,在魔像背后是制造和使用魔像的拉比(或整个拉比社会)。



四、算法社会的法则

让我总结一下到目前为止的论点。我从阿西莫夫的三大定律开始了这次演讲,我指出这些定律是直接针对机器人和它们的代码的。然后通过魔像的故事,我指出问题不在于机器人,而在于人类。如果是这样的话,这意味着我们真正需要的不是阿西莫夫的定律,而是与机器人设计者和操作者有关的法则。在我们的算法社会中,我们需要的机器人法则是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则。因为没有数据的算法是无价值的,这些法则还控制着数据的收集、整理、使用、分发和销售,并使这些算法能够运作。

总而言之,我们需要的法则是控制制造和使用机器人的人及与机器人使用数据有关的法则。

这些法则将会是什么样的?回到我的中心观点——在机器人、人工智能体和算法的背后,是人类和人类群体之间的社会关系。所以我们需要的法则是,存在于制定并使用算法的人和受算法控制的人之间的公平交易、不受操纵、不受控制的义务。

人们使用算法对人群进行分类和治理。因为这种关系是一种治理关系,所以涉及的义务是诚信义务、非操纵义务和非支配义务,这些都是指导算法社会的原则。与阿西莫夫的三大定律不同,这些原则不会自动嵌入到机器人中。我们必须确保它们描述了人与人之间的关系并把它们纳入我们的人类社会中,编入我们的法律中。

算法用户对社会负有什么责任?为了回答这个问题,考虑一下算法社会的野心。算法社会的梦想是对社会的无所不知的统治。

野心带来了伤害,除了可能造成身体伤害外,还包括侵犯隐私、曝光、名誉损害、歧视、严格控制(或标准化)及操纵。

算法社会是治理人口的一种方式。所谓治理,我指的是控制算法的人理解、分析、控制、指挥、命令和塑造数据主体的方式。人们使用算法对整个人群进行分类、选择、理解和决策。这种关系不仅仅是一种市场利润关系,也是一种治理关系。

算法社会也涉及信息权力的关系。人工智能很了解你,但你对人工智能知之甚少。此外,你不能很好地监控人工智能体或算法做什么。在运行者和被治理者之间存在权力不对称和信息不对称,这种不对称是算法社会的核心特征——这是算法社会的公共和私人管理者与受他们管理的对象之间的知识和权力的不对称。

什么是算法社会的三大法则?或者更准确地说,什么是算法社会的法律原则?它们是公平治理的三项原则。

(1)就委托人、顾客和终端用户而言,算法用户是信息受托人(TheInformation Fiduciaries)。

(2)对于那些不是委托人、顾客和终端用户的用户,算法用户有公共职责。如果他们是政府,这就是他们作为政府的本质。如果他们是私人行为者,他们的生意会受到公共利益的影响,正如宪法律师在20世纪30年代所说的那样。

(3)算法用户的公共责任是避免其操作的成本(危害)外部化。算法决策的危害,最好的类比不是有意的歧视,而是社会不公正的污染。透明度、可解释性、正当程序和问责制的义务来自这三个实质性要求。透明度和它的“兄弟”——正当程序、问责制和可解释性——以不同的方式应用于所有这三项原则。

问责制、透明度、可解释性和正当程序可能是信托义务,它们可能遵循公共职责。并且它们可能是一种预防措施来防止不合理的伤害外化,或为伤害提供补救措施。

让我依次讨论这三个法律原则。



五、第一法则:算法操作者是委托人及终端用户的信息受托人

为了讨论第一法则,我介绍了另一个我承诺在本次演讲中会提到的关键概念。这就是信息受托人(The Information Fiduciaries)的概念。该概念是我在以前工作中提出的。要理解什么是信息受托人,我们首先应该问,什么是受托人?受托人的例子包括医生、律师等专业人士,以及管理不动产或他人财产的人。一个人能成为受托人的原因是人们依靠他们提供服务。但受托人与委托人之间在知识和能力上存在着明显的不对称,委托人无法方便地监督受托人代表其所做的事情。因此,法律要求受托人以值得信赖的方式真诚地行事,避免与委托人或病人产生利益冲突。受托人经常收集委托人敏感的个人信息,这些信息可能会对委托人造成损害。因此,法律要求他们保护委托人的隐私,不得以伤害委托人的方式泄露信息。当受托人收集和处理委托人的信息时,我们可以给他们起一个特殊的名字,即信息受托人。大多数作为受托人的专业人士也是信息受托人。

受托人有两项核心职责,第一是注意义务,第二是忠诚义务。注意义务是指受托人必须合理谨慎地行事,避免伤害委托人或病人。忠诚义务意味着受托人必须避免与他们的委托人或病人产生利益冲突,必须照顾他们的利益。忠诚义务要求的程度取决于受托人和委托人之间关系的性质。

数字时代创造了一系列新的实体,它们有许多类似于传统受托人的特征。它们包括像谷歌(Google)、脸书网(Facebook)和优步(Uber)这样的大型互联网企业。这些企业收集、整理、分析和使用与我们有关的信息。事实上,它们收集了大量关于我们的信息,从理论上讲,这些信息可能被用来损害我们的利益。这些业务成为我们日常生活中相当重要的一部分,甚至在某些情况下是不可或缺的。企业和终端用户、委托人之间的知识也不对称。互联网企业对我们了解很多,我们对它们的运营却知之甚少。它们把自己的内部流程视为专有的,避免竞争对手的窃取。与此同时,这些企业试图向他们的终端用户保证,它们将尊重用户的隐私并且不会背叛用户的信任。用弗兰克·帕斯奎尔(Frank Pasquale)的话来说,因为它们是一个黑匣子,大多数人只能相信它们。

我认为像这样的企业有许多传统受托人的标志,它们收集我们的信息、监视我们,但我们却不能轻易地监视它们。我们变得依赖它们且容易受到它们的伤害,以至于我们必须信任它们。传统上,这种关系决定了受托人的地位。因此,我认为这些企业对终端用户负有值得信赖的法律义务,它们是信息受托人的数字时代版本。

然而,数字时代信息受托人的职责与作为受托人的医生和律师的职责不同。他们提供的服务种类和他们创造的合理信任种类,使他们受到更多限制。

首先,不像医生和律师,个人数据货币化是许多网络服务公司的核心,因为这能资助他们所提供的服务或免费提供的服务。仅仅收回费用或从这些信息中获利本身并不违反他们的受托责任。

其次,许多网络服务提供商,比如搜索引擎和社交媒体网站,之所以能够盈利,是因为终端用户能够提供源源不断的内容和链接。因此,与传统的专业人士不同,这些公司有兴趣让人们尽可能多地展示自己,或者在其他方面尽可能多地公开表达自己。以便他们的活动产生内容和数据,供公司索引和分析。

最后,人们期望医生做的远远不止是不伤害他们。人们还期望医生会照顾他们的利益,警告他们健康、饮食等方面的潜在风险。但人们却并不期望他们的网络服务提供商、搜索引擎和社交媒体网站有如此全面的照顾义务。

由于这些差异,数字信息受托人应该比传统的职业受托人,如医生、律师和会计师,有不同的、更少的义务。他们是特殊目的的信息受托人,对他们施加何种责任是合理的,应取决于他们提供的服务的性质。

数字信息受托人的核心义务是他们不能像骗子一样行事。不能诱使终端用户信任他们以获取个人信息,然后以背叛这种信任的方式使用这种信息,这不利于终端用户的利益。互联网企业不应该自称提供数字安全和尊重数字隐私,然后操纵和歧视其终端用户;也不应该将其终端用户的数据出售或分销给不遵守类似照顾和诚信义务的公司。

目前的法律并没有像对待受托人那样对待这些互联网企业,但我认为应该这样做。法律应该将受托义务扩展到这些公司,并明确互联网企业对其客户和终端用户的义务。

现在想想家用机器人和智能房屋。家用机器人和智能房屋收集了大量关于我们的信息,从理论上讲,这些信息可以与存储在云中的许多其他人的信息进行比较。换句话说,家用机器人和智能房屋不仅仅是独立的产品。它们始终是互相连接的云实体,依赖并贡献于巨大的数据库。虽然我们可能会开始信任家用机器人和智能房屋,但事实上我们真正需要信任的实体不是机器人或房子。机器人和房子背后的公司,负责从机器人和房子的传感器收集数据,我认为这种类型的公司应该是信息受托人。

换句话说,受托责任的主体不是机器人,而是制造、安装、销售和操作我们家里机器人的公司。对我们负有信托义务的是拉比,而不是魔像。

因此,算法时代的第一法则是,那些使用机器人、人工智能体和算法的人对他们的终端用户和客户负有诚信和值得信任的义务。无论企业或实体在提供服务时是否使用机器人、人工智能体或机器学习算法,受托责任都适用。

家用机器人和智能家居就是明显的例子——法律并未将受托义务扩展到机器人和房子背后的公司。其他的例子可能是像爱彼迎(Airbnb)、优步(Uber)、OK丘比特(OKCupid)、默契网(Match.com)及基因和我(23andMe)这样的服务。重要的是,企业会在各种情况下诱导信任和收集我们的个人信息,并且可能以背叛我们的信任或制造利益冲突的方式使用这些信息。

早些时候,我注意到信托义务的典型例子出现在专业领域。事实上,机器人、人工智能体和算法可能越来越多地应用于传统受托人的传统业务中。这些受托人包括医生、律师、会计师和基金经理。联邦政府最近通过劳工部发布了新规定,将处理退休账户的投资顾问视为受托人。反过来,这些顾问越来越多地转向人工智能和算法来完成他们的工作。

信托义务的概念也延伸到政府,它们在日常功能中使用机器人、人工智能体和算法,包括提供社会服务。政府对其管理的人民负有关心和忠诚的责任。



六、第二法则:算法操作者对公众负有责任

因为政府对其管理的人民负有信托义务,所以使用算法的政府和公共实体是其管理的人民的信息受托人。那么私人行为者呢?正如我们所看到的,一些私人行为者是针对其客户、病人和终端用户的信息受托人。但并非所有使用机器人、人工智能体或算法的私营互联网企业都是信息受托人。或许同样重要的是,受托责任通常只适用于企业的委托人和终端用户,而不适用于整个公众。因此,信息受托人的概念不足以解释使用算法、人工智能体和机器人的私营企业的各种义务。在运营过程中使用算法的企业,仍然可能对那些既不是他们的委托人也不是他们的客户的人造成伤害,而且他们与这些人没有合同关系。例如,雇主决定是雇人还是借钱给他们——也就是说,与他们签订合同关系——并且将信用报告给为我们在网上建立声誉的公司,其他人会雇佣我们。如果我们简单地排除所有影响人们但与他们没有合同关系的企业,我们就是在重复20世纪初出现的一个问题。在现代工业经济中,企业生产出大规模生产的商品,而这些商品不再销售给与他们直接签约的消费者。相反,一连串的中间商把这些商品推向了市场。以合同相对性为基础的消费者保护措施,不能适应新的经济现实。因此,从1916年卡多佐在麦克弗森诉别克汽车公司案(MacPherson v. BuickMotorCo.)中的著名裁判开始,法院废除了相对性规则,认为制造商有公共义务。不仅对直接从中间商手中购买产品的消费者负责,而且对他们的家庭成员和因缺陷产品而受到伤害的旁观者负责。如果我们要阐明算法社会的规则,我们需要像麦克弗森诉别克汽车公司案(MacPherson v. Buick MotorCo.)式的案例。亦即我们需要认识到,算法的使用不仅会伤害所服务的终端用户,还会伤害社会上的许多其他人。例如,乔纳森·齐特林(Jonathan Zittrain)指出,脸书网(Facebook)可能会利用其终端用户的数据来操纵他们,从而影响全国大选。如果这种情况真的发生,不仅会影响到拥有脸书网(Facebook)账户的人,还会影响到全国的每一个人。同样,当公司在高速交易中使用算法时,他们可能引发市场崩盘。这不仅影响到与他们交易的人,而且影响到这个国家的每一个人,甚至影响到全世界。因此,当公司雇佣机器人、人工智能体和算法时,他们对公众负有责任。但是我们无法用对客户、病人和终端用户的信任的违背,来描述他们未负起对公众的责任。那么,如果这些义务不是以背叛信任为前提的,它们又是以什么为基础的呢?这就引出了算法社会的第三法则。



七、第三法则:算法操作者负有不参与算法妨害的公共义务

算法妨害(TheAlgorithmic Nuisance)是什么意思?在这里,我将气味、烟雾、声音、毒物及污染等私人和公共的妨害进行类比。传统上,这些危害与使用(和滥用)不动产有关,但近年来这一概念已扩大到范围更加广泛的伤害。私人妨害对相对较少人群的公认合法利益造成损害,公共妨碍对无限人口造成损害。是否采取行动减少这种妨害,由州当局决定。在另一种选择中,政府必须决定是否创建一个类似于消费者或环境保护的政府监管计划。

显然,我并不是说算法的危害是传统的普通法意义上的伤害。我更不是说算法上的损害是对私人使用和享受不动产的非侵入性侵犯。相反,我认为考虑这些伤害的最佳方式是通过类比于妨害侵权行为。

为什么我要把算法带来的危害类比为妨害?我这样做有三个原因。第一个是侏儒谬误(The Homunculus Fallacy)。我们不能说这个算法本身有什么不好的意图。相反,这个算法被人类使用以实现一些特定的管理目标。但是在这个过程中,最终伤害了不同群体的人。其中一些受害者很容易识别,但对另一些受害者的伤害则更为分散。

本质上,我们谈论的是计算能力的社会不公正使用,将成本外部化到无辜的其他人身上。在侵权法中,我们可以称这种外在化为公害或私害。事实上,在最近一篇关于如何规制算法警务的文章中,安德鲁·塞尔贝斯特(Andrew Selbst)认为,适当的补救措施是要求警察局制作类似于环境影响声明的歧视影响声明。算法歧视的特点是无论是使用程序的官员还是程序本身,都不容易被识别为恶意,这个算法没有目的、需求或欲望。这就是侏儒谬误。算法中没有一个小人物在指挥它。因此,基于反应优越理论对算法操作者的责任进行建模是无用的,尤其是一个自学习算法。我们不能把算法的意图、疏忽或恶意归咎于操作者。

相反,我们必须关注使用特定算法的社会影响,以及从整个社会的角度来看,这种影响是否合理和正当。与其将其类比于刑法或反歧视法中的差别待遇法,最好的类比是妨害和环境法。

将这个问题类比为妨害的第二个原因是,算法的危害是程度问题。此外,算法妨碍的危害源于数据整理、分析和决策对人们数字身份的累积影响。

塞尔贝斯特(Selbst)指出,算法歧视造成的危害并不适合简单的是或否的二元分类。也就是说,要么你已经歧视了,要么你没有歧视。相反,在设计过程中,以及在程序员如何编程算法要解决的问题时,都存在不可避免的权衡。可能难以确定用于衡量算法运行情况的非歧视性行动的基线,而且可能难以甚至不可能将算法运行的影响孤立到单一原因。归根结底,相关的问题是你是否对无辜的第三方强加了太多不合理的成本。算法歧视就像污染一样,是一个程度问题。

将该问题类比为妨害的第三个原因是,它帮助我们理解算法社会的危害是如何由公共和私人行为者的累积决策和判断产生的。公司和政府使用大数据和算法作出判断,构建人们的身份、特征和关联。这些身份和特征的数字结构,影响着人们的就业机会、信用、金融就业机会和职位。它们还塑造了人们的脆弱性——对于不断增加的监视、歧视、操纵和排斥。公司和政府从多个来源收集人们的数据,并对这些数据进行处理,以生成新的数据。在数据处理和决策过程中,公司和政府促进了人们数字身份、特征和联系的累积构建,而这些又反过来构建了人们未来的机会并塑造了他们的脆弱性。

其他公司则建立在这些数据、分数和风险评估的收集,以及由此产生的特征、联系和身份的数字结构之上。公司和政府在新的判断背景下创造性地利用所有这些信息,产生新的见解、判断和预测。通过这种方式,人们的生活受制于一系列算法判断,这些算法判断随着时间的推移塑造身份、机会和弱点。想象一下,如果你愿意,你的数字身份就像一个信息流,不断有新的判断、得分和风险评估被扔进这个信息流。

随着越来越多的企业参与到数字身份塑造的集体过程中,这种大量的判断愈发多地塑造着人们的生活。它可能以机会受限和脆弱性增强的形式,将一系列不合理的社会成本转嫁到人们身上。算法妨害的概念试图捕捉这些对个人的影响,因为公共和私人行为者将越来越多的判断放入代表个人的信息流中,并用于判断、分类和控制他们。

因此,我们今天面临的核心问题不是有意的歧视,而是对身份和机会的累积伤害。随着决策者利用多种数据来源来构建人们的数字身份和声誉,在警务、就业、住房和获得信贷等领域反复普遍地使用算法,将对全体居民产生累积效应。

在某些情况下,危害可以追溯到如代码错误、不合理的假设或有偏见的数据等粗心的编程和操作。或者,它可能是由于不合理地使用算法、数据源、过时的分级和分类所造成的。但是在许多情况下,程序员和用户可以貌似合理地声称他们的初始模型是合理的,给定手头的任务、分析的数据及模型的背景假设。即便如此,随着时间的推移,将决策权交给算法将可以预见地对个人和特定群体的成员造成广泛的危害。

一个核心问题是,身份,即具有积极和消极特征的人之间的联系,是如何在算法社会中构建和分布的。决策者不仅通过制定自己的算法判断来节约决策时间,而且还通过引入其他各方已经作出的关于人的特质、可信度和声誉的算法判断来节省决策时间。信用评分是一个简单的例子,但它们只是算法社会随着时间推移所能完成的工作的一个原始例子。

与其从头开始开发自己的评分算法,决策者可以通过使用其他算法在不同环境和不同目的下已经创建的评分和判断来节约成本,并修改和更新它们,以满足自己的需要。算法社会的一些最重要的见解,来自重新思考如何将为一个目的收集的数据,用于阐明起初看起来不相关的现象或问题。

公司专门收集、整理和分发人们的身份信息给其他决策者,这些决策者将他们的决定添加到不断增长的数字流或档案中。这意味着人们的特性,包括积极和消极的特征,是通过许多不同的数据库、程序和决策算法的交互作用来构建和分布的。通过这种方式,人们通过算法构建的身份和声誉可能会在社会上广泛普遍传播,从而增强了算法决策在他们生活中的影响力。随着数据成为决策的共同资源,它构建了数字声誉、实际机会和数字脆弱性。

在数字世界,关注蓄意侵权行为或者忽视算法的构建和监督可能是不够的。相反,侵权行为法理论中最好的类比可能是由于社会不公正的活动水平而产生的社会成本。活动水平的提高会导致社会成本的增加,即使活动是在适当小心的情况下进行的。即使假设公司行使应有的谨慎(当然,可能并不是),活动增加的累积效应仍可能对社会其他部分造成过大的伤害。这些都是妨害的典型情况。

当企业采用新技术以增加活动水平时,活动水平的提高和社会成本的增加可能会出现。在这种情况下,转向算法决策这种新技术,可以让政府和企业作出更多决策,从而更普遍、更廉价地影响更多人的生活。算法社会增加了分类、分级和决策的快速性、范围和广泛性,这样做也增加了分类、分级和决策对人类生活的副作用。这些副作用类似于工厂活动增加造成的污染水平的增加。

可以肯定的是,伤害不是一方就能构成的,受害方的行动也构成了算法决策的社会成本。那么,或许我们也应该激励公民减少自己暴露在算法判断的副作用面前。但是在算法社会,受害方不能轻易地避免找工作、住房、医疗保健和参与日常生活的寻常事务。在算法社会,人们扔掉数据,这些数据稍后将被用来判断他们是否生活在数字世界中。人们也不能轻易地缩小规模以避免算法判断的危害。集体行动问题是巨大的,更不用说获取有关他们处境的信息的成本了。在算法社会,人们的数字身份是由许多不同的参与者产生的,他们的数字身份流向各种各样的决策者,而决策是由人们知之甚少的实体作出的。

如果我们把它类比为妨害,那么第三法则就是,算法操作者有责任不让公众“污染”。也就是说,不合理地将算法决策的成本外部化给其他人。正如向工业社会的转变可以预见社会污染数量的增加,向算法社会的转变可以预见数据收集、计算和算法判断的副作用的增加。

这些代价或危害是什么?考虑一下算法社会带来的一些最常见的危害。我要强调的是,这些伤害是在传统的身体伤害之外的。比如自动驾驶汽车或工业机器人造成的伤害,以及监视和曝光造成的高度伤害。

(1)对声誉的危害——算法影响声誉主要有两个方面,第一是分类,第二是风险评估。算法通过给你和其他像你这样的人贴上危险的标签来影响你的声誉。也就是说,对你来说,成为你自己意味着某种风险或倾向。在不同的情况下,风险表现的方式会有所不同。它可能包括这样的想法,如你(或者居住在某个特定地区的人)创造了金融风险、就业风险、未来犯罪的风险、花费大量社会服务的风险、退货风险或成为昂贵客户的风险、因为你不会买任何东西而浪费广告费用的风险等。在这种情况下,算法伤害是指你是一个有风险的人,这是一种耻辱。

风险评估通常伴随着分类。算法通过将你放在一个类别或层级中来影响你的声誉,这不一定是风险评估。该算法构造你所处的组,并通过这些组了解你,因此可能会对你进行操作。分类可能会影响你的声誉,而无须对风险进行评估。因为它说明了你是什么样的人,以及你被当作什么样的人对待(而且,含蓄地说,比某些衡量标准更好或更差)。

(2)歧视——由于风险评估或分类工作,使用该算法的企业拒绝给你提供它为其他人提供的机会(信用卡、贷款、工作机会、晋升)。或者它增加了特殊成本(容易被拦截和搜身、监视、更高的价格、排除枪支拥有权或进入航空旅行等),它不强加给其他人。

(3)标准化或系统化——这种算法使你将它的分类和风险评估内化,从而使你改变自己的行为,以避免被监视或被归类为有风险。它使你改变自己的身份、行为或个人自我表现的其他方面,以便看起来对算法的风险较小,或者归入不同的类别。在另一种情况下,你会从事算法不注意的行为。

(4)操纵——人类和组织可以使用算法来引导你和其他像你一样的人作出(或多或少)可预测的选择。这些选择对算法操作者有利,但不会提高你的福利,实际上可能会降低你的福利。此外,算法分析使公司更容易发现哪些人最容易受到操纵,以及他们如何最容易和有效地被操纵。

(5)缺乏正当程序/透明度/可解释性——该算法作出的决定会以上述方式之一影响你的福利,但不具有透明性、可解释性、用外行的术语解释输入和输出、监视其操作的能力、提供反驳的方法或使算法负责的方法。

我们可以这样总结这个讨论:算法通过(a)分类和风险评估来(b)构建身份和声誉,为(c)歧视、标准化和操纵创造机会,而没有(d)足够的透明度、问责制、监督或正当程序。

这些伤害与算法妨害的概念有什么关系?这些危害是计算机化决策的副作用。它们是算法活动的社会成本。

算法的普遍采用极大地提高了我们生活中计算决策的水平和普遍性。算法的使用为决策者节省了金钱,因此从个体企业或决策者的角度来看可能是合理的。但在这个过程中,它可能会对个人和群体造成累积伤害。

例如,设想一组用于识别潜在雇员的算法。该算法可能足以用合格人员填补少量可用的空缺,但它排除了大量同样合格的人员,(在这种情况下,我们会说它产生了很少的假阴性但是出现了很多的假阳性)。即便如此,该算法使用和产生的数据及声誉得分,可能会输入其他人使用的数据库。其中不仅包括未来的雇主,还包括在许多其他情况下运作的许多其他决策者。或者想象一个警务算法,把警察派到警察已经逮捕过人的社区,从而强化了该地区犯罪率特别高,需要额外的警察监视的观念。

算法社会的意义在于增加决策的机会、速度和成本效益。公司使用算法来节省资金,并且大规模地执行重复的任务和计算,这些任务和计算对于人类来说是极其昂贵甚至是不可能完成的。这使得公司能够提出以前无法回答的问题,并作出以前制定和采纳成本极其昂贵的决定。

这种现象(更多种类的决策以更低廉的成本作出)只是机器人普遍具有的替代效应(The Substitution Effect)的另一个例子。我们用算法法官和计算器代替人类法官和计算器。但是算法的选择、类别的选择、收集的数据种类以及数字特性的分布式创建和维护都会产生社会成本,这些成本的负担会转移到其他人身上——转移到一般人身上,或转移到特定的群体,如穷人或少数群体身上。

在处理算法的危害和算法的歧视时,我们的目标不是找出不好的意图。以这种方式提出这个问题是侏儒谬误的又一个例子。相反,随着越来越多的公司转向算法决策,并提高其决策活动水平,其目标是要求公司采用从整个社会的角度来看是合理的方法。正如在公共妨害的情况下,国家必须决定如何最好地使企业将其成本内部化。

弗兰克·帕斯奎尔(Frank Pasquale)还指出,在某种程度上,我们使用这种算法妨害的方法,我们必须能够识别使用这种算法的个人或组织,他们给社会其他部分带来了损失。也就是说,算法必须被设计出来,这样我们才能知道哪些个人或组织在使用它们。魔像必须可以追溯到一个或一群拉比。在一些情况下,如金融、就业、警务,识别用户并不困难,因为使用该算法的组织会自我识别。但在许多情况下,算法及其使用的数据将由许多组织共同构建。在某些情况下,算法决策是由匿名或用假名的人士和组织作出的。然后,为了执行公共职责,法律将不得不要求公开谁是这个算法的幕后推手。



八、结论

对机器人和人工智能的希望和恐惧从最早的文学时代就一直伴随着我们。即使在今天,新闻工作者写的故事也会引起人们对失去控制的机器人、算法和人工智能体的恐惧,认为他们很快就会占领我们的世界。我这次演讲的目标是提供一个纠正的思路。我认为算法社会中机器人、人工智能体和算法本身是存在危险的,但真正的危险始终存在于那些使用这些装置并利用它们影响、控制和操纵他人的组织和企业中。如果我们都像拉比一样虔诚,我们就不必害怕魔像了。因为我们不是虔诚的拉比,所以我们需要学习如何约束自己。


来源:法学学术前沿




编辑:王奕
1059#
 楼主| 发表于 2021-6-16 20:42:48 | 只看该作者
【案例】

腾讯告赢国家知识产权局

根据 中国裁判文书网 公布的文件,2018年腾讯公司以损害旗下作品名称“王者荣耀”在先权益为由,请求国家知识产权局对贵州问渠成裕酒业有限公司注册的“王者荣耀”商标予以无效宣告,但被国家知识产权局驳回。

腾讯对裁定不服,将国家知识产权局告到北京知识产权法院,贵州问渠成裕酒业作为第三人参加诉讼。2020年,北京知识产权法院宣判腾讯胜诉,要求国家知识产权局撤销原裁定,重新作出裁定。

国家知识产权局对一审判决结果不服,上诉至北京市高级人民法院。近日北京市高级人民法院宣判,驳回上诉,维持原判。




来源:游戏动力




编辑:王奕
1060#
 楼主| 发表于 2021-6-16 20:47:36 | 只看该作者
【案例】

数据确权的首次立法尝试—— 《深圳经济特区数据条例(征求意见稿)》观察

2020年10月,中共中央办公厅、国务院办公厅印发了《深圳建设中国特色社会主义先行示范区综合改革试点实施方案(2020-2025年)》,要求深圳在数据产权制度、数据产权保护和利用新机制、数据隐私保护制度、政府数据开放共享以及数据交易等方面进行先行探索。为了贯彻中共中央、国务院关于大数据战略的决策部署,落实《综合改革实施方案》有关要求,深圳日前发布了《深圳经济特区数据条例(征求意见稿)》,从个人数据、公共数据、数据市场、数据安全管理的四大角度构建数据法律制度,从而充分发挥数据的基础资源作用和创新引擎作用,培育资源配置高效的数据要素市场。

一、进一步明确了个人数据处理的合法基础和处理方式

第二章  第十二条 数据处理者应当在处理个人数据前征得自然人或者其监护人的同意,并在其同意范围内处理其个人数据,但是法律、行政法规以及本条例另有规定的除外。

第二章 第二十二条 数据处理者向他人提供其处理的个人数据的,应当对数据进行去标识化处理,使得被提供的个人数据在不借助其他数据的情况下无法识别特定的自然人。法律、法规规定或者自然人与数据处理者约定应当进行匿名化处理的,数据处理者应当依照法律、法规规定或者双方约定进行匿名化处理。

第六十七条 数据处理者应当依照相关法律、法规规定以及国家标准的要求,对所收集的个人数据进行去标识化或者匿名化处理,并与可恢复识别的个人数据分开存储。

数据处理者应当针对敏感个人数据、国家规定的重要数据制定去标识化或者匿名化处理安全措施,并对数据去标识化或者匿名化处理过程进行记录。

《条例》遵循了我国现有授权同意和匿名化的合规路径,肯定了自然人或其监护人的同意是有效的数据权利基础之一;要求向他人提供其处理的个人数据时,应当对数据进行去标识化处理,在法律、法规以及国家标准有特殊要求时,需要对数据进行匿名化处理。

关于同意、匿名化和去标识化之间的关系,根据我国现行的法律规定,目前数据交易流通的合规基础主要有匿名化、基于同意和基于授权三种。基于授权的权利基础主要指公共数据场景下,相关国家机构可以依照行政法规的授权获得相应数据的管理权和处分权等。对于个人数据而言,相关市场主体可选择的合规基础即为数据匿名化和获得个人信息主体有效的授权同意。

匿名化和去标识化之间的关系而言,去标识化是指个人信息经过处理,使其在不借助额外信息的情况下无法识别特定自然人的过程;匿名化则是指个人信息经过处理无法识别特定自然人且不能复原的过程。二者的区别在于经过匿名化的个人信息无法再识别到个人,但是去标识化后的个人信息在借助额外信息的情况下仍可再次识别个人。

从法律性质上来看,个人信息匿名化处理后不再属于个人信息,而去标识化处理后仍属于个人信息。从立法要求上来看,匿名化数据可被视同于删除,可被直接对外提供。而去标识化是个人信息处理者内部的一种个人信息安全保护手段。个人信息去标识化后仍属于个人信息,需要满足知情同意规则或其他个人信息处理合法性基础。换言之,去标识化可被理解为是匿名化的一种中间形态,两者之间的关系也并非泾渭分明,而是会由于技术进步、数据泄露事件等因素而发生变化。

《条例》在充分了解法律关于匿名化“无法识别、无法复原”的要求超出现有技术发展水平、上位法尚未就匿名化的具体效果和实施场景做出进一步细化规定的情况下,提出数据处理者可以在没有法定和约定匿名化要求时对数据进行去标识化处理。因此,综合现行法律法规、标准和《条例》本身来看,数据处理者可以组合或择一选择基于同意和数据匿名化/去标识化两种合规路径。

在获取个人信息主体有效同意更容易实现的情况下,数据处理者可以通过周延的隐私政策和交互式弹窗等方式获取个人的首次和后续同意;在获取同意成本过高、对有效授权同意本身及授权链的合规性存疑的情况下,数据处理者可以通过去标识化或匿名化的路径满足合规要求。此外,在个人信息主体注销账户或平台停止运营等法定和约定匿名化的场景下,数据处理者需要对相关数据进行匿名化处理。当然,我们建议数据处理者可以在数据获取、处理和共享的不同环节,在评估风险点和技术实现效果的基础上综合运用同意和匿名化/去标识化技术以最小化合规风险。

二、赋予个人信息主体撤回同意的权利

第二章 第十八条 自然人有权随时撤回部分或者全部处理其个人数据的同意。

自然人撤回同意的,数据处理者不得继续处理其个人数据,但是不影响数据处理者在自然人撤回同意前基于同意进行的合法数据处理;法律、法规另有规定的,从其规定。

《条例》首先肯定了个人信息主体有撤回其个人数据的权利,在撤回同意之后数据处理者不再享有基于授权同意的合规基础,但肯定撤回同意本身不具有溯及力,依然肯定在撤回同意前数据处理的合法性。

关于《条例》中撤回同意是否影响基于同意获取数据而产生的衍生数据,我们认为存在两种理解方式。

第一,在个人撤回同意后,数据处理者不得在对数据本身及其衍生信息进行进一步的处理,但在撤回同意前已经形成的标签、评分等衍生信息仍然可进行使用和处理。在这个前提下,还可进一步提出衍生信息是否可被继续用于该用户本人的营销和个性化页面展示、可否不针对用户本人而作为统计数据等形态使用的问题。

第二,在个人撤回同意后,基于原授权同意而产生的衍生数据等信息不得再被处理和使用。举例来说,例如个人授权平台使用自己的身份证号,平台基于身份证号衍生出户籍地和出生日期等信息,获取到“北方人”“年轻人”等衍生信息,在用户撤回对身份证号的授权同意后,平台是否还可继续使用“北方人”“年轻人”的衍生信息、在何种范围和目的下使用该信息等均是值得进一步探讨的话题。

另外,在个人信息主体撤回同意后,数据处理者不再享有“授权同意”的合法基础,我们认为在将相关数据进行彻底的匿名化处理后,数据处理者依然可以对匿名化后的数据进行处理和使用。

首先匿名化本身和授权同意属于并列的数据合规处理基础。

第二,在《个人信息保护规范》(GB/T 35273-2000)中,匿名化的处理效果被等同于删除。最后,匿名化后的数据不再属于个人数据,而授权同意属于个人数据保护范畴的概念,因而匿名化后的数据也不因个人信息主体同意的撤回而丧失合规基础。

三、肯定市场主体的数据使用权、收益权和处分权

第五十四条 市场主体对合法处理数据形成的数据产品和服务,可以依法自主使用,通过向他人提供获得收益,依法进行处分。

第五十五条 市场主体通过开放、共享、交易等方式流通数据、数据产品或者服务的,应当明确各方当事人的权利和义务;超出权利人授权范围的,应当重新取得相应权利人授权。

“只有对社会成员之间互相划分对特定资源之间的排他性权利,才会产生适当的激励”,因而赋予特定企业对于数据产品一定程度的权益可能会产生正面的激励效应。对企业的数据权利进行正面确权,以减少企业对数据享有权利的模糊性,不仅有利于企业对数据及衍生产品加大投入与保护的力度,还能在客观上协同规制第三方的数据处理行为。淘宝诉美景等司法案例也认可了企业对其投入智力成果开发的数据产品享有独立的财产性权益。

《条例》在上位法尚未明确数据产权制度的基础上,率先以地方立法试点的形式正面回应数据确权之争,探索数据所有权和用益权、人格权和财产权分离的制度。在肯定自然人对其个人数据享有人格权益的基础上,允许自然人、法人和非法人组织在获得授权的基础上对其合法处理数据形成的数据及数据产品享有使用、收益和处分等财产性权益,从而在尊重现存平台免费提供服务、消费者免费提供数据的现状基础上,以用户和数据处理者之间的隐私政策等授权协议为基础,圈定数据处理者财产性权益的合理范畴。

四、正面回应用户画像、定推及大数据杀熟的问题

第二章 第二十三条 数据处理者可以基于提升产品质量或者服务体验的目的,对自然人进行用户画像,为其推荐个性化的产品或者服务。

第二章第二十四条 数据处理者对自然人进行用户画像时,应当向其明示用户画像的规则和用途,并采用足以引起注意的特别标识等易获取的方式向其提供拒绝的途径。

自然人有权随时拒绝对其进行的用户画像和基于用户画像向其进行的个性化产品或者服务推荐。

第六十一条 市场主体不得利用数据分析,对交易条件相同的交易相对人实施差别待遇,但是有下列情形之一的除外:

(一)根据交易相对人的实际需求,且符合正当的交易习惯和行业惯例,实行不同交易条件;

(二)针对新用户在合理期限内开展优惠活动;

(三)基于公平、合理、无歧视的规则实施随机性交易;

(四)法律、法规规定的其他情形。

前款所称交易条件相同,是指交易相对人之间在交易安全、交易成本、信用状况、所处交易环节、交易持续时间等方面不存在实质性影响交易的差别。

《条例》以大篇幅回应了利用大数据进行个性化推荐和“大数据杀熟”的现实问题,在平衡大数据侵犯消费者权益和提升用户体验方面进行了有益的制度创新。首先肯定了既有的用户画像技术在提升产品质量和用户服务体验方面的作用,允许企业正当地通过用户画像技术为用户提供个性化推荐的服务。在此基础上,通过对差别待遇本身是否具有合理性进行评估,得出用户画像是否具有合法性的结论。《条例》也通过列举合理“差别待遇”判断因素的方式,给予相关市场参与者判断合规与否的红线,也留出“正当的交易习惯和行业惯例”等司法自由裁量的空间以应对实践中复杂多变的场景。

此外,《条例》也赋予用户充分的选择权,例如用户可以选择关闭“定推”等方式,同等地尊重想要通过个性化推荐提升选择效率的用户和想要保全自由选择权用户的诉求。与此同时,用户的选择行为本身和随之而来的社会自发监督也可反向推动数据处理者将用户画像技术限制在合理、合法的范畴内,从而平衡数据产业发展的需要和个人信息保护的诉求。

五、加强对未成年人数据的保护

第二章 第十六条 处理未成年人个人数据的,按照处理敏感个人数据的有关规定执行;处理不满十四周岁的未成年人个人数据的,应当在处理前征得其监护人的明示同意。

第二章 第二十四条禁止对未成年人进行用户画像以及基于用户画像向未成年人推荐个性化的产品或者服务。

《条例》在吸收既往立法和标准要求对未成年人数据进行处理时需要获取监护人明示同意的基础上,创新将未成年人数据保护的级别提升到对敏感个人数据保护的高度。在用户画像的场景下,《条例》本身赋予用户选择是否接受用户画像和基于用户画像的个性化推荐的权利。出于对未成年人给予更周延保护的立法思想,禁止数据处理者对未成年人进行用户画像和个性化推荐。

但与此同时,我国法律法规目前还没有关于儿童年龄识别具体方法的具有可操作性的规定,数据处理者面临如何判断用户是否是儿童、儿童冒用他人账号致使平台难以核实年龄等现实问题。借鉴国外的立法,数据处理者可借鉴的关于儿童年龄的核实方法主要包括以下三种:

首先,用户自行填写出生日期等信息,数据处理者仅需要对该信息进行形式审核;

第二,数据处理者可依靠外部审核机制来判断自身用户的年龄,例如平台需要输入有效身份证号注册、仅支持信用卡作为支付方式等等。

第三,借鉴美国儿童网络隐私保护法(Children'sOnline Privacy Protection Act,COPPA)中提到的“可验证的家长同意”的6种情形,采用监护人参与的电子签名、邮件或语音、视频的即时确认等方式。

从司法的角度而言,在COPPA的执法机构美国联邦贸易委员会(Federal Trade Commission,FTC)发布的《企业六步合规计划》中,FTC明确网络运营者使用信用卡或者政府签发的身份验证信息作为监护人同意的形式审核方式已足以满足COPPA下的合规义务,无需再对做出同意的是否是儿童的监护人做出实质审核。

在实践中,部分不专门针对儿童提供产品和服务的数据处理者出于规避儿童数据保护义务和遵循最小必要原则等考虑,选择不获取用户出生年份等可能推知用户年龄的信息。除非用户群体基本不可能是儿童外,我们认为此类实践仍然存在一定程度的合规风险,建议相关数据处理者考虑至少对用户的年龄进行形式审核,并依照现行法律法规和标准制定相关儿童数据合规制度。

六、将司法案例确认的法律规则纳入法律规范中

第四章 第六十条 市场主体应当遵守公平竞争原则,不得实施下列侵害其他市场主体或者消费者合法权益的行为:

(一)使用非法手段破坏其他市场主体所采取的保护数据的技术措施;

(二)违反行业惯例收集或者利用其他市场主体数据;

(三)利用非法收集的他人数据提供替代性产品或者服务;

(四)未经其他市场主体或者消费者同意,将其他市场主体的数据直接进行商业利用;

(五)法律、法规规定禁止侵害其他市场主体或者消费者合法权益的其他行为。

第四章 第六十二条 市场主体不得达成垄断协议,不得滥用在数据市场的支配地位、不得实施经营者集中,不得排除、限制数据市场竞争。

在数据商业价值得到充分释放的同时,与数据相关的竞争法领域纠纷也日趋增多。从国内已有的司法实践来看,已有诸多不正当竞争和反垄断的案例。不正当竞争案例的当事人包括百度、淘宝、今日头条、新浪、大众点评、58同城等大型互联网企业,涉及的数据包括原始数据、数据产品和用户数据等等;就反垄断而言,华为和腾讯关于微信数据的纠纷、顺丰和菜鸟关于物流数据的纠纷均涉及数据巨头是否滥用市场支配地位、挤压相关行业竞争者生存空间的问题。在反垄断法目前缺乏数据行业相关条款、主要依赖《反不正当竞争法》第2条和第12条“互联网专条”原则性规定的前提下,《条例》将目前司法实践中确立的反不正当裁判规则通过纳入法律法规确立下来,进一步为司法实践和企业合规自查提供清晰的指导规则。

另外,在第六十条第二款中,条例也将违反行业惯例收集或者利用其他市场主体数据列为数据领域不正当竞争的客观表现形式之一,笔者认为这与百度公司诉奇虎360案中法院的裁判精神一致。在该案中,法院认为Robots协议尽管并非法律意义上双方合意的协议,但作为国内外互联网行业内普遍通行、普遍遵守的技术规范,已实质成为公认的行业商业道德和行为标准。在互联网行业技术迭代迅速的情况下,《条例》将行业惯例作为公平竞争原则的重要源头可以大大减轻被侵权方举证的难度,也为技术后续的发展预留了充分的合理解释空间。

七、补充个人信息主体的公力救济途径

第一章 第十一条 自然人发现数据处理者违反法律、法规规定或者双方约定处理其个人数据的,可以向市网信部门投诉举报,市网信部门应当及时依法处理。

第六章 第八十九条 未依照法律、行政法规以及本条例规定落实数据安全保护责任,或者非法处理数据,致使国家利益或者公共利益受到损害的,有关行业组织可以依法提起民事公益诉讼。有关行业组织提起相关民事公益诉讼,人民检察院认为有必要的,可以支持起诉。

前款规定的行业组织未提起民事公益诉讼的,人民检察院可以向人民法院提起民事公益诉讼。

人民检察院在履行职责中发现负有数据领域监督管理职责的行政机关违法行使职权或者不作为,致使国家利益或者公共利益受到损害的,应当向有关行政机关提出监察建议;行政机关不依法履行职责的,人民检察院可以依法向人民法院提起行政公益诉讼。

在个人信息权尚未被立法明确的前提下,个人信息主体很难通过司法途径获得救济。一方面由于个人信息权益的缺位,个人往往需要基于隐私权、名誉权、肖像权等既有的权利基础寻求救济,但个人信息权的内涵和外延都与此类权益有诸多不同,因而在既往的司法实践中个人往往无法通过隐私权保护等权利基础使被侵害的个人信息权益恢复圆满状态。《条例》明确市网信部门具有受理、调查、处理个人信息主体关于信息被违法、违约使用的职责。另外,行业组织和检察院支持起诉的公益诉讼的制度也明确延伸到数据保护领域,在既有的司法救济之外补充了公力救济的途径,更有利的保护个人信息主体的权益。

八、为企业提出合规建设的新要求

第四章  第五十三条 市场主体开展数据处理活动,应当建立健全数据治理组织架构和自我评估机制,组织开展数据治理活动,加强数据质量管理,确保数据的真实性、准确性、完整性、时效性,促进数据价值实现。

第五章  第六十五条 处理敏感个人数据或者国家规定的重要数据,应当按照规定设立数据安全管理机构或者明确数据安全管理责任人,并实施特别技术保护。

《草案》吸收了行业最佳实践和国家标准的数据管理建议,明确提出数据处理者应当建立数据治理组织和数据安全管理组织,并提出数据质量管理和自我评估机制的要求。

数据相关合规制度建设不仅成为法律法规施加的义务,也是企业在侵权事件发生时证明不存在过错的重要依据之一。例如方月明诉北京金色世纪商旅网络科技股份有限公司、中国东方航空股份有限公司合同纠纷案中,企业提供的等保测评报告、对外合作协议、任命数据保护官的通知等证据,满足了法院关于“充分履行个人信息保护义务”的要求,因而在未来个人信息的司法实践和企业合规建设中,合规制度本身都将成为“证明自己没有过错”和满足监管要求的重要组成部分。

九、为企业提出自证合规及留存证据的要求

第二章 第二十九条 自然人撤回处理其个人数据的同意,要求数据处理者删除其个人数据的,数据处理者可以留存告知和同意的证据,但是不得超过其履行法定义务、应对诉讼或者纠纷的必要限度。

第五章 第六十六条 数据处理者应当记录其收集数据的合法来源,保障数据来源清晰、可追溯。

《草案》在保障个人信息主体撤回同意、删除数据权利的同时,也关注到了数据处理者自证合规的现实需求。例如在最近的庞理鹏诉中国东方航空股份有限公司、北京趣拿信息技术有限公司隐私权纠纷案中,法院将证明行为人不存在过错、已履行信息安全保护义务、个人信息的实际泄露方以及泄露的具体环节分配给被告数据处理者,为企业施加了极高的证明责任。因此,我们建议相关数据处理者基于授权同意和匿名化两条合规路径,在个人信息的其他环节寻求用户个人信息保护和留存证据之间的平衡点。

十、充分发挥数据交易所的积极作用

第五十七条 引导市场主体通过依法设立的数据交易平台进行数据交易。

第五十八条 数据交易平台应当建立安全可信、管理可控、可追溯的数据交易环境,制定数据交易、信息披露、自律监管等规则,并采取有效措施保护个人数据、商业秘密和国家规定的重要数据。

第五十九条 支持数据价值评估、数据交易技术研发和数据交易模式创新,拓宽数据交易渠道,促进数据资源高效流通。

在数据孤岛效应显著、数据交易高度不透明、数据黑市交易难以监管的背景下,《条例》提出引导市场主体通过数据交易平台进行数据交易,进而通过数据交易所等平台提升监管的效能、数据交易的安全性和充分发挥数据资源的价值。对数据交易平台而言,《条例》也提出了交易规则制定、技术研发和服务模式创新等宏观的要求,充分发挥数据交易平台在数据资源挖掘和建立互信机制等问题上的独特作用,为数据交易流通注入新的活力。

来源:隐私计算联盟


编辑:王奕

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表