传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

媒体法规案例

[复制链接]
1050#
 楼主| 发表于 2021-6-17 18:00:44 | 只看该作者
【案例】

死者微信的个人信息拟由近亲属处理

个人信息保护法草案 二审稿
提供基础性互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当履行下列义务:成立主要由外部成员组成的独立机构,对个人信息处理活动进行监督;对严重违反法律、行政法规处理个人信息的平台内的产品或者服务提供者,停止提供服务;定期发布个人信息保护社会责任报告,接受社会监督。
自然人死亡的,个人在个人信息处理活动中的权利由其近亲属行使。
426日,个人信息保护法草案二审稿(下称草案二审稿”)提请十三届全国人大常委会第二十八次会议审议。
草案二审稿拟强化对超大互联网平台的个人信息保护义务,引入由外部成员组成的独立机构对个人信息活动进行监督。
专家表示,此举可让企业切实地负起保护个人信息的责任,并确保企业处理个人信息的透明性。
设独立机构监督超大平台处理个人信息
目前,互联网服务已深入人们的日常生活,涉及餐饮、购物、出行、理财等等。这些服务平台在为海量用户提供便捷服务的同时,也收集、存储了大量的个人信息,给个人信息安全带来诸多隐患。
草案二审稿规定,提供基础性互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当履行下列义务:成立主要由外部成员组成的独立机构,对个人信息处理活动进行监督;对严重违反法律、行政法规处理个人信息的平台内的产品或者服务提供者,停止提供服务;定期发布个人信息保护社会责任报告,接受社会监督。
对外经济贸易大学数字经济与法律创新研究中心执行主任许可介绍,外部成员可类比上市公司的独立监事、外部董事等和公司无关的人基础性服务则可能在欧盟定义的基础网络服务上,把社交等类别的网络服务平台纳入进来。
中国信息安全研究院副院长左晓栋强调,独立机构的人员和个人信息处理者不能有隶属关系,独立机构不对个人信息处理者负责。
平台不能证明自己无过错应担侵权责任
当个人信息权益被侵犯时,如何维权一直是公众关注的焦点和难点。对于被侵害个人信息权益的个人而言,维权成本高且举证责任大。
草案二审稿修改为,个人信息权益因个人信息处理活动受到侵害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。
天达共和律师事务所合伙人、数据合规团队负责人申晓雨告诉南都记者,草案二审稿的此条改动减轻了个人的举证责任,更有利于个人维权。举证责任倒置可能会倒逼企业去做更细致的合规工作,比如合规工作本身的证明记录等。
这是从现实情况出发作出的规定,因为用户处于弱势一方。左晓栋强调,此举体现了草案二审稿加大企业责任的立法价值取向。同时,如果事后个人信息泄露的责任进一步澄清了,个人信息处理者还可以主张自己的权益,找真正的泄露者索赔。
建议让用户可以在生前安排个人信息
值得注意的是,此次草稿二审稿新增要求:自然人死亡的,个人在个人信息处理活动中的权利由其近亲属行使。
如果一个人去世了,亲属想通知死者的微信好友,此时就需要掌握死者的微信号。类似的情况越来越多,左晓栋表示,草案二审稿增加的这条规定充分体现了人文关怀。
在申晓雨看来,这条新增规定具有进步意义。如果死者希望个人信息处理者删除其个人信息、账号,或者匿名化,除非涉及国家社会安全等例外情形,我觉得应该尊重他的个人选择,这跟遗嘱是相似的。她说。
对此,她建议个人信息处理平台设置相关功能,让用户可以在生前对死后的个人信息进行处理安排。

来源:南方都市报
链接:https://www.sohu.com/a/463409397_161795?g=0&spm=smpc.news-home.pol-news.4.1619570089008o0Q3P4u&_f=index_chan08polnews_3


编辑:王奕
1049#
 楼主| 发表于 2021-6-17 17:59:28 | 只看该作者
【案例】

前沿译文丨欧盟《人工智能法》提案(上)

编者按:421日,欧盟发布了《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》的提案,这是继2020219日欧盟《人工智能白皮书》之后的又一重量级法案。该提案从“维护欧盟的技术领先地位,并确保欧洲人民可以从按照欧盟价值观、基本权利和原则人工智能中受益”的原则出发,采取基于风险的监管思路,在区分“禁止类AI”和“高风险类AI”的基础上,提出了如下具体目标:
1)确保投放到欧盟市场并使用的AI系统是安全的,并尊重现行法律中的基本权利和欧盟价值;
2)确保法律上的确定性,以促进对人工智能的投资和创新;
3)加强对适用于AI系统的基本权利和安全要求的现有法律有效执行和治理;
4)促进针对合法、安全和可信赖的AI应用的开发,促进欧盟单一数字市场的发展。
鉴于该提案对于我国人工智能和算法治理的重要价值,我们特编译提案正文,以飨读者。因原文较长,我们将分两期刊发,敬请期待。
——对外经济贸易大学数字经济与法律创新研究中心执行主任 许可
布鲁塞尔21.4.2021 COM(2021)206最终
2021/0106(COD)
提案
欧洲议会和理事会
制定关于人工智能的统一规则(人工智能)并修某些联合立法行为
第一编
一般规定
1
主旨
该法规规定:
(a) 在欧盟中投放市场,投入服务和使用人工智能系统(“ AI系统”)的统一规则;
(b) 禁止某些人工智能实践;
(c) 高风险AI系统的具体要求以及此类系统的操作员的义务;
(d) 旨在与自然人互动的AI系统、情感识别系统和生物特征分类系统以及用于生成或操纵图像、音频或视频内容的AI系统的统一透明度规则;
(e) 市场监测和监督规则。

2
适用范围
1. 本法规适用于:
(a) 在欧盟中投放市场或将AI系统投入服务的提供商,无论这些提供商是在欧盟内部还是在第三国建立的;
(b) 位于欧盟内的AI系统的用户;
(c) 位于第三国的AI系统的提供者和用户,该系统产生的输出在欧盟中使用;
2. 对于属于产品或系统安全组件的高风险AI系统,或者本身属于产品或系统的高风险AI系统,属于以下行为的范围内,仅适用本法规的第84条:
(a) 法规(EC300/2008
(b) 法规(EU)第167/2013号;
(c) 法规(EU)第168/2013号;
(d) 指令2014/90/EU
(e) 指令(EU2016/797
(f) 法规(EU2018/858;
(g) 法规(EU2018/1139;
(h) 法规(EU2019/2144
3. 本法规不适用于专门用于军事目的而开发或使用的AI系统。
4. 本法规不适用于第三国的公共当局,也不适用于根据本条第1款属于本法规范围内的国际组织,在这些机关或组织在与执法机关进行国际执法和司法合作的国际协议框架内使用AI系统的情况欧盟或一个或多个成员国。
5. 本法规不得影响欧洲议会和理事会第2000/31 / EC号指令60 II章第IV节中所规定的中介服务提供者责任规定的适用[将由欧盟《数字服务法》的相应条款
3
定义
就本法规而言,适用以下定义:
1)“人工智能系统”(AI system)是指使用附件I中所列的一种或多种技术和方法开发的软件,并且对于给定的一组人类定义的目标,可以生成诸如内容、预测之类的输出,影响与其互动的环境的建议或决策;
2)“提供者”是指开发AI系统,或者拥有已开发的AI系统并将其投放市场或以自己名义(商标)投入使用的自然人、法人、公共机构或其他机构,无论是付费还是免费的;
(3) “小型提供商”是指委员会建议2003/361/EC61所指的小微企业的提供商;
(4) “用户”是指在其授权下使用AI系统的任何自然人、法人、公共机构、代理机构或其他机构,除非在个人非专业活动中使用了AI系统;
(5) “授权代表”是指在欧盟中建立的任何自然人或法人,均已从AI系统的提供者处获得书面授权,分别代表其执行和执行本法规所规定的义务和程序;
(6) “进口商”是指在欧盟中建立的任何自然人或法人,其在市场上投放或投入使用的AI系统均带有欧盟外所建立的自然人或法人的名称或商标;
(7) “发行人”是指供应商中除了供应商或进口商之外的任何自然人或法人,可以在欧盟市场上提供人工智能系统而不影响其属性;
(8) “运营商”是指提供者、用户、授权代表、进口商和分销商;
(9) “投放市场”是指在欧盟市场上首次提供AI系统;
(10) “在市场上可用”是指在商业活动过程中以联合市场的形式分发或使用的AI系统的任何供应,无论是付费还是免费;
(11) “投入使用”是指直接为用户提供的AI系统,或为其预期目的在欧盟市场上供其自己使用的AI系统;
(12) “预期目的”是指提供者针对AI系统的用途,包括提供者在使用说明,促销或销售材料和声明中提供的信息中指定的特定上下文和使用条件,如下所述:以及技术文档中的内容;
(13) “合理可预见的滥用”是指以不符合其预期目的的方式使用AI系统,但可能是由于合理可预见的人类行为或与其他系统的交互作用而导致的;
(14) “产品或系统的安全组件”是指为该产品或系统执行安全功能,或者其故障或功能失常危及人员或财产的健康和安全的产品或系统的组件;
(15) “使用说明”是指提供者提供的信息,用于告知用户特别是AI系统的预期目的和正确使用,包括打算将高风险AI系统纳入其中的特定地理,行为或功能设置用过的;
(16) “召回AI系统”是指旨在向用户提供AI系统提供商返还的任何措施;
(17) “退出AI系统”是指旨在防止AI系统的分发,显示和提供的任何措施;
(18) AI系统的性能”是指AI系统达到其预期目的的能力;
(19) “通知机构”是指负责建立和执行必要的程序以评估,指定和通知合格评定机构并进行监督的国家机构;
(20) “合格评定”是指验证本法规第二章第三章第三节中关于人工智能系统的要求是否得到满足的过程;
(21) “合格评定机构”是指执行第三方合格评定活动(包括测试,认证和检查)的机构;
(22) “通知机构”是指根据本法规和其他相关的欧盟协调法规指定的合格评定机构;
(23) “重大修改”是指在AI系统投入市场或投入使用后对AI系统进行的更改,这会影响AI系统对本法规第2章第III节中规定的要求的遵从性,或者导致对AI系统的修改。评估AI系统的预期目的;
(24) CE合格标记”(CE标记)是指提供者表明AI系统符合本法规第二章第III节和协调市场营销条件的其他适用的欧盟法规所规定的标记。(“统一法规”);
(25) “上市后监控”是指由AI系统提供者进行的所有活动,以主动收集和审查从他们投放市场或投入使用的AI系统获得的经验,以识别是否需要立即应用任何必要的东西。纠正或预防措施;
(26) “市场监督机构”是指根据(EU2019/1020法规开展活动并采取措施的国家机构;
(27) “统一标准”是指第1025/2012号法规(EU)第21)(c)条所定义的欧洲标准;
(28) “通用规范”是指除标准以外的包含技术解决方案的文件,该技术解决方案提供了一种手段来满足本法规规定的某些要求和义务;
(29) “训练数据”是指用于通过拟合其可学习的参数(包括神经网络的权重)来训练AI系统的数据;
(30) “验证数据”是指用于对经过训练的AI系统进行评估,调整其不可学习的参数及其学习过程等数据,以防止过拟合;验证数据集可以是单独的数据集,也可以是训练数据集的一部分,可以是固定拆分或可变拆分;
(31) “测试数据”是指用于对经过培训和经过验证的AI系统进行独立评估的数据,以便在该系统投放市场或投入使用之前确认该系统的预期性能;
(32) “输入数据”是指提供给AI系统或由AI系统直接获取的数据,并以此为基础产生输出;
(33) “生物特征数据”是指通过与自然人的身体,生理或行为特征相关的特定技术处理而得到的个人数据,这些数据允许或确认该自然人的唯一标识,例如面部图像或手指镜检查数据;
(34) “情感识别系统”是指用于根据自然人的生物特征数据识别或推断自然人的情感或意图的AI系统;
(35) “生物分类系统”是指一种AI系统,用于根据生物特征数据将自然人分为特定类别,例如性别、年龄,头发颜色,眼睛颜色,纹身,族裔或性别或政治取向;
(36) “远程生物特征识别系统”是指一种AI系统,其目的是通过将人的生物特征数据与参考数据库中包含的生物特征数据进行比较来在远处识别自然人,而无需AI系统用户的事先了解该人将在场并且可以被识别;
(37) “实时”远程生物特征识别系统是指一种远程生物特征识别系统,在此过程中,生物特征数据的捕获,比较和识别均没有明显的延迟。这不仅包括即时识别,还包括有限的短暂延迟,以避免规避。
(38) “发布远程生物特征识别系统”是指除“实时”远程生物特征识别系统之外的远程生物特征识别系统;
(39) “公众可进入的空间”是指公众可进入的任何物理场所,无论是否适用某些进入条件;
(40) “执法机关”是指:
(a) 负责预防,调查,侦查或起诉刑事犯罪或执行刑事处罚(包括防止和预防对公共安全的威胁)的任何公共当局;或者
(b) 成员国法律授权的其他任何机构或实体,为了预防,调查,侦查或起诉刑事犯罪或执行刑事处罚(包括保护和防止对公众的威胁)而行使公共权威和权力;
(41) “执法”是指执法机构为预防,调查,侦查或起诉刑事犯罪或执行刑事处罚而开展的活动,包括防范和预防对公共安全的威胁;
(42) “国家监督机构”是指成员国将实施和实施本法规,协调委托给该成员国的活动,作为委员会的单一联系点并在欧洲人工智能委员会成员国代表成员国的职责分配给的机构;
(43) “国家主管机关”是指国家监管机关,通知机关和市场监督机关;
(44) “严重事件”是指直接或间接导致,可能导致或可能导致以下任何事件的任何事件:
(a) 人的死亡或对人的健康,财产或环境的严重损害,
(b) 对关键基础架构的管理和运营的严重且不可逆转的破坏。

4
对附件一的修正
委员会有权根据第73条采取授权行动,以修改附件一中所列的技术和方法清单,以便根据与该技术和方法类似的特征将该清单更新为市场和技术发展在其中列出。
第二编
禁止的人工智慧实践
5
1. 禁止以下人工智能实践:
(a) 在市场上投放、投入使用或使用AI系统,该AI系统以个人无法认知的方式部署潜意识教化技术,以某种方式严重扭曲一个人的行为,从而导致或可能导致该人或他人的身体或心理伤害;
(b) 投放市场、投入使用或使用AI系统,该系统利用特定人群的年龄、身体或精神残疾等特定人群的任何脆弱性,实质性地扭曲与该人群有关的行为,以导致或可能造成该人或他人的身体或心理伤害的方式;
(c) 公共机构或其代表在市场上投放、投入使用或使用人工智能系统,用以根据自然人的社会行为或已知或预测的个性特征或性格,在一定时期内对自然人的信誉进行评估或分类,且该社交评分则导致以下一项或两项:
(i) 在与原始数据生成或收集的场景无关的社会场景中,对某些自然人或整个群体的有害或不利待遇;
(ii) 对某些自然人或整个群体的社会行为或其严重不合理或不相称的有害或不利待遇;
(d) 出于执法目的在公共场所使用“实时”远程生物特征识别系统,除非出于以下目的之一使用且绝对必要时:
(i) 有针对性地寻找特定的潜在犯罪受害者,包括失踪儿童;
(ii) 预防对自然人的生命或人身安全或恐怖袭击的具体、实质性和迫在眉睫的威胁;
(iii) 侦测、定位、识别或起诉理事会第2002/584 / JHA62 号决议第22)条所述的犯罪行为的犯罪嫌疑人或嫌疑人,并在有关成员国以监禁刑罚或根据该成员国的法律确定的最长拘留期限,至少为三年。
2. 为了第1d)项中提到的任何目标的执法目的,在公共场所使用“实时”远程生物特征识别系统时,应考虑以下因素:
(a) 导致可能使用的情况的性质,特别是在不使用该系统的情况下造成的损害的严重性,可能性和严重程度;
(b) 使用该系统对有关所有人的权利和自由产生的后果,特别是这些后果的严重性,可能性和严重性。此外,出于执法目的,在公共场所使用“实时”远程生物特征识别系统以实现第1d)项中提到的任何目标的目的,应符合与之相关的必要且相称的保障措施和条件,尤其是在时间,地理和个人限制方面。
3. 关于第1款第(d)项和第2款,为在公共场所使用“实时”远程生物特征识别系统的执法目的而进行的个人使用,均应事先获得司法当局或政府的批准。根据合理的要求并根据第4段所述的国家法律的详细规则发布的,将在其中进行使用的成员国的独立行政当局。但是,在有充分理由的紧急情况下,使用可能未经授权而启动系统,并且仅在使用期间或使用之后才可以请求授权。
司法或行政主管部门应仅在基于其客观证据或明确指示而感到满意的情况下,授予使用有争议的“实时”远程生物特征识别系统的必要性并与之成比例地授予该授权。请求中确定的第1款(d)项中指定的目标之一。在决定请求时,主管司法或行政当局应考虑到第2款所指的内容。
4. 为保持灵活性,成员国可以决定以完全或部分授权在公共场所使用“实时”远程生物特征识别系统,在第1段(d)点,第2和第3段中列出的限制范围内执法。该成员国应在其本国法律中制定必要的详细规则,以请求、签发和行使与上述许可有关的授权,并对其进行监督第3款。这些规则还应具体说明第1款第(d)项中列出的目标,包括第(iii)项中提到的哪些刑事犯罪,主管当局可以被授权使用这些系统出于执法目的。
第三编
高风险AI系统
1
AI系统归类为高风险
6
高风险AI系统的分类规则
1. 无论AI系统是独立于(a)和(b)点提到的产品投放市场还是投入服务,都应同时满足以下两个条件的AI系统视为高风险:
(a) AI系统旨在用作附件II中所列的欧盟协调法规所涵盖的产品或本身就是产品的安全组件;
(b) 安全组件为AI系统的产品或AI系统本身为产品的产品,必须经过第三方合格评定,以根据欧盟统一标准将该产品投放市场或投入使用附件二中列出的立法。
2. 除第1款所指的高风险AI系统外,附件三所指的AI系统也应视为高风险。
7
对附件三的修正
1. 委员会有权根据第七十三条采取授权行动,通过增加满足以下两个条件的高风险人工智能系统来更新附件三中的清单:
(a) 人工智能系统旨在用于附件三第1至第8点所列的任何领域;
(b) AI系统存在危害健康和安全的风险,或对基本权利造成不利影响的风险,即就其严重性和发生的可能性而言,等于或大于由附件三中已经提到的高风险AI系统所构成的危害或不利影响风险。
2. 为第1款的目的,评估人工智能系统是否会对健康和安全造成危害的风险或对基本权利的不利影响的风险等于或大于委员会已经在附件三中提及高风险人工智能系统所造成的风险时,应考虑以下标准:
(a) 人工智能系统的预期目的;
(b) AI系统已被使用或可能被使用的程度;
(c) 如报告所表明,使用人工智能系统已在多大程度上对健康和安全造成损害或对基本权利的不利影响,或已引起与这种损害或不利影响的实现有关的重大关切,提交给国家主管部门的书面指控;
(d) 这种损害或不利影响的潜在程度,特别是在其强度和影响多个人的能力方面;
(e) 可能受到伤害或受到不利影响的人的程度取决于人工智能系统产生的结果,特别是因为出于实际或法律原因,不可能合理地选择退出该结果;
(f) 相对于AI系统的用户而言,潜在受到伤害或受到不利影响的人员处于脆弱状态的程度,尤其是由于权力,知识,经济或社会环境或年龄的不平衡所致;
(g) 人工智能系统产生的结果易于逆转的程度,因此对人的健康或安全有影响的结果不应被视为容易逆转;
(h) 欧盟现有法规在多大程度上规定:(i) 针对人工智能系统带来的风险的有效补救措施,但不包括损害赔偿要求;(ii)采取有效措施来预防或大幅度降低这些风险。
2
高风险AI系统的要求
8
符合要求
1. 高风险的AI系统应符合本章规定的要求。
2. 确保遵守这些要求时,应考虑到第9条中提到的高风险AI系统和风险管理系统的预期目的。

9
风险管理系统
1. 应建立、实施、记录和维护与高风险AI系统有关的风险管理系统。
2. 风险管理系统应包括在高风险AI系统的整个生命周期中运行的连续迭代过程,需要定期进行系统更新。它应包括以下步骤:
(a) 识别和分析与每个高风险AI系统相关的已知和可预见的风险;
(b) 评估和评估高风险AI系统按照其预期目的并在合理可预见的滥用条件下使用时可能出现的风险;
(c) 根据对第61条所述的上市后监测系统收集的数据的分析,对其他可能产生的风险进行评估;
(d) 根据以下各段的规定,采取适当的风险管理措施。
3. 2款(d)项中提到的风险管理措施应适当考虑合并应用本第2章中规定的要求所产生的影响和可能的相互作用。这些措施应考虑到公认的风险状态和条款,包括相关的协调标准或通用规范中反映的内容。
4. 2款(d)点所指的风险管理措施应使得与每种危害相关的任何剩余风险以及高风险AI系统的总体剩余风险均被判定为可接受,但前提是高风险AI系统是根据其预期目的或在合理可预见的误用条件下使用的。这些剩余风险应传达给用户。
在确定最适当的风险管理措施时,应确保以下内容:
(a) 通过充足的设计和开发,尽可能消除或降低风险;
(b) 在适当的情况下,针对无法消除的风险,采取适当的缓解和控制措施;
(c) 根据第13条提供足够的信息,尤其是有关本条第2款(b)项中提到的风险的信息,并在适当情况下对用户进行培训。在消除或减少与使用高风险AI系统相关的风险时,应适当考虑用户的技术知识,经验,教育,培训以及打算使用该系统的环境。
5. 为了确定最适当的风险管理措施,应对高风险的AI系统进行测试。测试应确保高风险的AI系统按预期目的一致运行,并且符合本章规定的要求。
6. 测试程序应适合于实现AI系统的预期目的,并且不需要超出实现该目的所必需的范围。
7. 高风险AI系统的测试应在整个开发过程中的任何时候适当地进行,并且无论如何要在投放市场或投入使用之前进行。应针对适合高风险AI系统预期目的的预先定义的度量标准和概率阈值进行测试。
8. 在实施第1至第7段所述的风险管理系统时,应特别考虑高风险的AI系统是否可能被儿童使用或对其产生影响。
9. 对于受指令2013/36 / EU监管的信贷机构,第1至第8段中所述的方面应是这些机构根据该指令第74条建立的风险管理程序的一部分。

10
数据与数据治理
1. 利用涉及对数据进行模型训练的技术的高风险AI系统,应在满足第25段所述质量标准的训练,验证和测试数据集的基础上开发。
2. 培训、验证和测试数据集应遵守适当的数据治理和管理规范。这些实践应特别关注:
(a) 有关的设计选择;
(b) 数据采集;
(c) 相关的数据准备处理操作,例如注释,标记、清洗、充实和汇总;
(d) 制定有关假设,特别是有关数据应衡量和代表的信息的假设;
(e) 事先评估所需数据集的可用性、数量和适用性;
(f) 鉴于可能存在的偏见进行检查;
(g) 确定任何可能的数据空白或不足,以及如何解决这些空白和不足。
3. 培训、验证和测试数据集应是相关的、有代表性的、没有错误且完整的。它们应具有适当的统计属性,包括(如果适用)与打算使用高风险AI系统的人员或人群有关的属性。可以在单个数据集或其组合的级别上满足数据集的这些特性。
4. 培训、验证和测试数据集应在预期目的要求的范围内考虑到打算使用高风险AI系统的特定地理、行为或功能设置所特有的特征或要素。
5. 在一定程度上,出于确保与高风险AI系统相关的偏差监视、检测和更正的目的,此类系统的提供者可以处理第9条第1款所指的特殊类别的个人数据法规(EU2016/679,指令(EU2016/680的第10条和法规(EU2018/1725的第101)条。但是,当匿名化可能会极大地影响所追求的目的时,要对自然人的基本权利和自由采取适当的保障措施,包括技术限制重用和使用最新的安全性和隐私保护措施,例如假名或加密。
6. 适当的数据治理和管理实践应适用于高风险AI系统的开发,而不是使用那些涉及模型训练的技术的系统,以确保这些高风险AI系统符合第2款的规定。

11
技术文件
1. 高风险AI系统的技术文档应在该系统投放市场或投入使用之前起草,并应保持最新状态。技术文件的编制应证明高风险AI系统符合本章规定的要求,并向国家主管部门和指定机构提供所有必要信息,以评估AI系统的合规性满足这些要求。技术文件至少应包含附件四中列出的要素。
2. 如果与产品相关的高风险AI系统(适用附件II A节中列出的法律行为)投放市场或投入使用,则应草拟一份单独的技术文件,其中应包含本文档中列出的所有信息。附件四以及这些法律法案所要求的信息。
3. 委员会有权根据第73条采取授权行动,在必要时对附件四进行修订,以确保根据技术进步,技术文件提供所有必要的信息,以评估系统是否符合这一章中规定的要求。

12
记录保存
1. 高风险AI系统的设计和开发应具有能够在高风险AI系统运行时自动记录事件(“日志”)的功能。这些记录功能应符合公认的标准或通用规范。
2. 记录功能应确保AI系统在其整个生命周期中的功能可追溯性水平,该水平应适合于系统的预期目的。
3. 特别是日志记录功能应能够针对可能导致AI系统呈现第65条第1款所指的风险或导致实质性损失的情况的发生进行监视,并且修改并促进第61条所指的上市后监管。
4. 对于附件三第1段(a)点所指的高风险AI系统,日志记录功能至少应提供:
(a) 记录系统每次使用的时间(每次使用的开始日期和时间以及结束日期和时间);
(b) 系统已针对其检查输入数据的参考数据库;
(c) 搜索导致匹配的输入数据;
(d)根据第14条第5款的规定,确定参与结果验证的自然人的身份。
13
透明度和向用户提供信息
1. 高风险AI系统的设计和开发方式应确保其操作足够透明,以使用户能够理解系统的输出并适当地使用它。为了确保遵守本标题第3章中规定的用户和提供者的相关义务,应确保适当的类型和程度的透明性。
2. 高风险的AI系统应随附以适当的数字格式或以其他方式使用的说明,其中包括与用户相关,可访问和可理解的简明、完整、正确和清晰的信息。
3. 2款所指的信息应具体说明:
(a) 提供者及其授权代表(如适用)的身份和联系方式;
(b) 高风险AI系统的性能特征、功能和局限性,包括:
(i) 其预期目的;
(ii) 高风险AI系统已针对之进行测试和验证且可以预期的第15条中提到的准确性、鲁棒性和网络安全级别,以及可能对该预期精度水平产生影响的任何已知和可预见的情况,健壮性和网络安全性;
(iii) 与按照预期目的或在合理可预见的滥用条件下使用高风险AI系统有关的任何已知或可预见情况,可能会导致健康,安全或基本权利的风险;
(iv) 关于拟使用该系统的个人或人群的性能;
(v) 在适当的情况下,考虑到AI系统的预期目的,在使用的训练,验证和测试数据集方面确定输入数据的规范或任何其他相关信息。
(c) 提供者在初次合格评定时已预先确定的高风险AI系统及其性能的更改;
(d) 14条所述的人为监督措施,包括为方便用户解释AI系统的输出而采取的技术措施;
(e) 高风险AI系统的预期寿命以及确保该AI系统正常运行(包括软件更新)的任何必要维护和保养措施。

14
人为监督
1. 高风险的AI系统的设计和开发,包括使用适当的人机界面工具,应使其在使用AI系统期间可以由自然人有效地进行监督。
2. 人为监督的目的应是,防止或最大程度地降低高风险人工智能系统在其设计意图或在合理可预见的误用条件下可能产生的健康、安全或基本权利风险,尤其是当存在此类风险时,尽管此时本章规定的其他要求依然适用。
3. 应通过以下一项或全部措施确保人为监督:
(a) 在技术可行的情况下,识别并在提供商将其投放市场或投入使用之前,将其内置到高风险的AI系统中;
(b) 由提供商确定,然后再将高风险的AI系统投放市场或投入使用,并且应该由用户实施。
4. 3款所指的措施应使被指派进行人工监督的人员能够根据情况进行以下操作:
(a) 充分了解高风险AI系统的功能和局限性,并能够对其运行进行适当监控,以便尽快发现并解决反常,功能异常和意外性能的迹象;
(b) 意识到自动依赖或过度依赖高风险AI系统产生的输出的可能趋势(“自动化偏差”),特别是对用于为自然人决策提供信息或建议的高风险AI系统而言;
(c) 能够特别考虑系统的特征以及可用的解释工具和方法来正确解释高风险AI系统的输出;
(d) 能够在任何特定情况下决定不使用高风险AI系统或以其他方式无视,手动控制或逆转高风险AI系统的输出;
(e) 能够干预高风险AI系统的运行或通过“停止”按钮或类似程序来中断系统。
5. 对于附件三第1点(a)所指的高风险AI系统,第3款所指的措施应确保,在此之外,用户不根据系统产生的身份验证采取任何行动或决定,除非至少有两个自然人对此系统进行了验证和确认。

15
准确性、鲁棒性和网络安全性
1. 高风险AI系统的设计和开发方式应使其能够根据其预期目的达到适当的准确性、鲁棒性和网络安全性,并在其整个生命周期内在这些方面保持一致。
2. 高风险AI系统的准确性等级和相关准确性度量应在随附的使用说明中声明。
3. 高风险的AI系统应具有复原性,可以应对系统或系统运行所处的环境内可能发生的错误,故障或不一致,特别是由于其与自然人或其他系统的相互作用所致。高风险AI系统的鲁棒性可以通过技术冗余解决方案来实现,其中可能包括备份或故障安全计划。在投入市场或投入使用后仍会继续学习的高风险AI系统的开发方式,应确保适当处理用作未来操作输入的输出而产生的可能有偏差的输出(“反馈循环”)并且采取适当的缓解措施。
4. 对于未经授权的第三方通过利用系统漏洞来更改其使用或性能的尝试,高风险AI系统应具有复原性。旨在确保高风险AI系统的网络安全的技术解决方案应适合于相关情况和风险。解决AI特定漏洞的技术解决方案应在适当情况下包括预防和控制试图操纵训练数据集的攻击(“数据中毒”)的措施,旨在导致模型出错的输入(“对抗性示例”)或模型缺陷。
3
高风险AI系统和其他方的供应商和用户的义务
16
高风险AI系统提供商的义务
高风险AI系统的供应商应:
(a) 确保其高风险AI系统符合本标题第2章中规定的要求;
(b) 拥有符合第17条的质量管理体系;
(c) 编制高风险AI系统的技术文档;
(d) 在他们的控制下,保留由其高风险AI系统自动生成的日志;
(e) 确保高风险的AI系统在投放市场或投入使用之前经过相关的合格评定程序;
(f) 遵守第51条所述的注册义务;
(g) 如果高风险AI系统不符合本标题第2章规定的要求,则采取必要的纠正措施;
(h) 将不遵守情况和采取的任何纠正措施告知提供或启用人工智能系统的成员国的国家主管当局,并在适用的情况下通知指定机构;
(i) 根据其第49条,在其高风险AI系统上贴上CE标志,以表明其符合本法规的规定;
(j) 应国家主管部门的要求,证明高风险AI系统符合本标题第2章中规定的要求。

17
质量管理体系
1. 高风险AI系统的供应商应建立质量管理体系,以确保遵守本法规。该系统应以书面政策,程序和说明的形式系统地,有条理地形成文件,并且至少应包括以下几个方面:
(a) 监管合规性策略,包括合规性评估程序和高风险AI系统修改管理程序;
(b) 用于高风险AI系统的设计,设计控制和设计验证的技术,程序和系统动作;
(c) 用于高风险AI系统的开发,质量控制和质量保证的技术,程序和系统动作;
(d) 在开发高风险AI系统之前,之中和之后要进行的检查,测试和确认程序,以及执行这些程序的频率;
(e) 要应用的技术规范,包括标准,以及在未完全应用相关的统一标准的情况下,用于确保高风险AI系统符合本标题第2章中规定的要求的方法;
(f) 数据管理的系统和程序,包括数据收集、数据分析、数据标记、数据存储、数据过滤、数据挖掘、数据聚合、数据保留以及与放置之前和出于放置目的执行的任何其他有关数据的操作高风险AI系统的市场投放或投入使用;
(g) 9条所指的风险管理系统;
(h) 根据第61条建立,实施和维护售后监测系统;
(i) 依照第62条报告严重事件和故障的程序;
(j) 处理与国家主管当局,主管部门(包括部门主管部门)的通信,以提供或支持对数据,指定机构,其他运营商,客户或其他有关方面的访问;
(k) 记录所有相关文件和信息的系统和程序;
(l) 资源管理,包括与供应有关的措施的安全性;(m) 一个问责制框架,其中规定了管理层和其他员工在本段中列出的各个方面的责任。
2. 1款提及的方面的实施应与供应商组织的规模成正比。
3. 对于是受指令2013/36/EU监管的信贷机构的供应商,应通过遵守根据该指令第74条制定的内部治理安排,流程和机制的规则,视为已履行建立质量管理体系的义务。在这种情况下,应考虑本规章第40条提及的任何统一标准。

18
起草技术文件的义务
1. 高风险AI系统的供应商应按照附件IV的规定起草第11条中提到的技术文档。
2. 作为受指令2013/36/EU监管的信贷机构的供应商,应根据该指令第74条的规定,维护技术文件,作为有关内部治理,安排,流程和机制的文件的一部分。

19
合格评定
1. 高风险AI系统的供应商应确保其系统在投放市场或投入使用之前,已按照第43条进行了相关的合格评定程序。如果在进行合格性评估后证明AI系统符合本标题第2章中规定的要求,则供应商应根据第48条起草欧盟合格声明,并在合格性标志上粘贴CE合格标志。与第49条相同。
2. 对于投放市场或由指令2013/36/EU监管的信贷机构的供应商投入服务的附件III5b)点所指的高风险AI系统,应按照以下规定进行合格性评估:该指令第97101条中提及的程序的一部分。

20
自动生成的日志
1. 高风险AI系统的供应商应保留其高风险AI系统自动生成的日志,只要这些日志受与用户之间的合同安排或法律的约束而受其控制。根据高风险AI系统的预期目的以及欧盟或国家法律规定的适用法律义务,应将日志保存适当的时间。
2. 作为受指令2013/36/EU监管的信贷机构的供应商,应保留其高风险AI系统自动生成的日志,作为该指令第74条下文件的一部分。

21
纠正措施
高风险AI系统的供应商认为或有理由认为已投放市场或投入使用的高风险AI系统不符合本法规的规定,应确保采取必要的纠正措施使该系统符合要求,在必要的时候撤回或召回该系统。在系统存在风险的情况下,分销商应将此情况告知供应商或进口商(如适用)。

22
信息义务
如果高风险AI系统存在第65条第(1)款所指的风险,并且该风险已被系统供应商知晓,则该供应商应立即通知建立该系统的成员国的国家主管部门,以及在适用的情况下,通知为高风险AI系统颁发证书的指定机构,尤其是有关违规行为和采取的任何纠正措施的证书。
23
与主管部门的合作
高风险AI系统的供应商应应国家主管部门的要求,向该机构提供证明高风险AI系统符合本标题第2章所规定要求的所有必要信息和文件,并且使用有关成员国确定的官方正式语言。根据国家主管部门的合理要求,供应商还应允许该部门访问由高风险AI系统自动生成的日志,但前提是此类日志受与用户或其他方面的合同安排或根据法律在他们的控制范围内。
24
产品制造商的义务
凡与附件二a节所列法律行为适用的产品相关的高风险AI系统,以产品制造商的名义与根据该法律行为生产的产品一起投放市场或投入使用时,产品制造商应对AI系统符合本条例的规定承担责任,并就AI系统而言,负与本条例下供应商所负义务相同的义务。
25
授权代表
1. 无法识别进口商的情况下,在将其系统投放到欧盟市场之前,欧盟以外的供应商应通过书面授权,任命在欧盟内设立的授权代表。
2. 授权代表应执行从供应商那里收到的授权命令中规定的任务。授权命令应授权受权代表执行以下任务:
(a) 保留一份欧盟合格声明和技术文件的副本,供国家主管当局和第63(7)条所指的国家主管当局使用;
(b) 应合理要求,向国家主管当局提供所有必要的信息和文件,以证明高风险AI系统符合本标题第2章的要求,包括查阅由高风险AI系统自动生成的日志,只要这些日志由供应商根据与用户的合同安排或其他法律所控制;
(c) 在合理要求下,与国家主管当局合作,针对后者对高风险AI系统采取的任何行动。
26
进口商的义务
1. 在将高风险的AI系统投放市场之前,该系统的进口商应确保:
(a) AI系统的提供者已经执行了适当的合格评定程序
(b) 供应商已根据附件四起草了技术文件;
(c) 该系统带有要求的合格标记,并随附要求的文件和使用说明。
2. 进口商认为或有理由认为高风险AI系统不符合本条例的情况,进口商不得不得将其投放市场直到AI系统符合规定。如果高风险AI系统存在第65条第(1)款所指的风险,进口商应将此情况通知AI系统的提供者和市场监督机构。
3. 进口商应在高风险AI系统上注明其名称、注册商品名称或注册商标,以及可以联系到他们的地址,如不可能,则在其包装或随附文件上注明。
4. 进口商应确保,当高风险AI系统由其负责,在适用的情况下,储存或运输条件不会危及其符合本标题第二章规定的要求。
5. 应合理要求,进口商应向国家主管当局提供所有必要的信息和文件,以证明高风险AI系统符合本标题第2章规定的要求,所用语言应为国家主管当局易于理解,包括查阅由高风险AI系统自动生成的日志,只要这些日志在提供商根据与用户的合同安排或其他法律的控制下。进口商还应就国家主管当局就该系统采取的任何行动与当局合作。
27
经销商的义务
1. 在高风险AI系统上市之前,经销商应验证高风险AI系统具有要求的CE符合性标志,并附有所需的文件和使用说明,以及系统的供应商和进口商(如适用),是否遵守本规例所订明的义务。
2. 经销商认为或有理由认为一个高风险AI系统不符合本标题下第二章的要求,其不得让高风险的AI系统在市场上可用,直到系统已经符合这些要求。此外,如果系统在第65(1)条的含义范围内存在风险,则经销商应将该系统的相关信息告知供应商或进口商。
3. 经销商应确保,若其负责高风险AI系统,在适用情况下,存储或运输条件不会危及该系统与本标题第2章规定的要求的符合性
4. 经销商认为或有理由认为一个已在市场适用的高风险AI系统,不符合本标题第二章项下的要求,应当采取必要的纠正措施使系统符合这些要求,撤回或召回,或应确保供应商、进口商或任何相关经营者酌情采取纠正措施。当高风险的AI系统展现出了一种规定在第65(1)中的风险,经销商应立即通知使产品生效成员国的国家主管当局,提供细节,特别是不合规处及任何纠正措施。
5. 根据国家主管部门的合理要求,高风险AI系统的发行人应向该机构提供证明高风险系统符合本标题第2章所要求的所有必要信息和文件。经销商还应还应就国家主管当局就该系统采取的任何行动与当局合作。
28
经销商、进口商、用户或任何其他第三方的义务
1. 就本条例而言,任何经销商,进口商,用户或其他第三方均应被视为提供者,并应在下列任何一种情况下,遵守第16条规定的提供者的义务:
(a) 他们以其名称或商标将高风险AI系统投放市场或投入使用;
(b) 他们修改了已经投放市场或投入使用的高风险AI系统的预期目的;
(c) 他们对高风险的AI系统进行了实质性的修改。
2. 如果发生第1款第(b)或(c)项所述情况,最初将高风险AI系统投放市场或投入使用的提供者,出于本条例的目的不再被视为提供者。

29
高风险AI系统用户的义务
1. 高风险AI系统的用户应根据系统附带的使用说明(根据第2和第5款)使用此类系统。
2. 1款中的义务不影响欧盟或国家法律规定的其他用户义务,也不影响用户自行组织其资源和活动以实施提供者指示的人为监督措施的自由裁量权。
3. 不影响第1款的前提下,在用户对输入数据进行控制的范围内,该用户应确保输入数据是与高风险AI系统的预期目的相关的。
4. 用户应根据使用说明监视高风险AI系统的运行。当他们有理由认为按照使用说明进行使用可能导致AI系统存在第65条第(1)款所指的风险时,他们应通知提供商或经销商并中止使用该系统。当用户发现任何严重事件或第六十二条所指的任何故障并中断AI系统的使用时,他们也应通知提供商或经销商。如果用户无法联系提供者,则应比照适用第62条。对于受指令2013/36/EU规范的信贷机构的用户,根据该指令第74条的规定,通过遵守内部治理安排、流程和机制的规则,第一款规定的监督义务应被视为已履行。
5. 高风险AI系统的用户应保留该高风险AI系统自动生成的日志,只要这些日志受其控制。根据高风险AI系统的预期目的以及欧盟或国家法律规定的适用法律义务,应将日志保存适当的时间。作为受指令2013/36 / EU监管的信贷机构的用户,应根据该指令第74条的规定保存日志,作为有关内部治理安排,流程和机制的文件的一部分。
6. 高风险AI系统的用户,在适用的情况下,应使用第13条提供的信息来履行其根据条例(EU2016/67935条或指令(EU2016/68027条进行数据保护影响评估的义务。
4
通知当局和受通知机构
30
通知当局
1. 每个成员国均应指定或建立通知当局,负责建立和执行必要的程序,以进行合格性评估机构的评估,指定和通知以及对其进行监督。
2. 成员国可以指定(EC765/2008号条例所指的国家认可机构为通知当局。
3. 通知当局的建立,组织和运行应与合格评定机构不发生利益冲突,并应确保其活动的客观性和公正性。
4. 通知当局的组织方式应使与合格评定机构通知有关的决定由不同于对这些机构进行评定的主管人员作出。
5. 通报机构不得提供合格评定机构从事的任何活动或任何商业或竞争性的咨询服务。
6. 通知机构应保护所获得信息的机密性。
7. 通知当局应配备足够的工作人员,以适当地执行其任务。
8. 通报当局应确保以相称的方式进行合格评定,避免给供应商造成不必要的负担,并确保受通知机构在开展活动时适当考虑企业规模、业务所在的行业、其结构和AI系统的复杂程度。
31
合格评定机构通知申请
1. 合格评定机构应向其成立的成员国的通知机构提交通知申请。
2. 通知申请应附有合格评定机构声称具有能力的合格评定活动、合格评定模块和AI技术的说明,以及由国家认可机构发出的、证明合格评定机构符合第33条规定的要求的合格评定证书(如有)。应增加与任何其他欧盟统一法规所规定的申请人指定机构的现有指定有关的有效文件。
3. 如果合规评定机构不能提供认可证书,则应向通知当局提供必要的书面证据,以验证,确认和定期监测其是否符合第33条的要求。对于任何根据其他协调法规欧盟指定的指定机构,与该指定相关的所有文件证书均可酌情用于支持其在本法规下的指定程序。

32
通知程序
1. 通知当局只能通知已满足第33条规定的合规评定机构。
2. 通知当局应使用委员会开发、管理的电子通讯工具通知委员会和其他成员国。
3. 该通知应包括合规评定活动,合规评定模块与有关人工智能技术的完整详细信息。
4. 只有在委员会或其他成员国通知后的一个月内未提出异议的情况下,有关合规评定机构才能执行指定机构的活动。
5. 通知当局应将通知的任何后续相关变更通知给委员会和其他成员国。
33
指定机构
1. 指定机构应按照第43条规定的合规评定程序对高风险AI系统的合规性进行验证。
2. 指定机构应满足完成其任务所必需的组织,质量管理,资源和程序要求。
3. 指定机构的组织结构,职责分配,报告机构和运作应确保对其实施的合规评定活动的绩效和结果充满信心。
4. 指定机构应独立于进行合规评估活动的高风险AI系统的提供者、与该系统具有经济利益的任何其他运营商,以及提供者的任何竞争对手。
5. 指定机构的组织和运作应保证其活动的独立性,客观性和公正性。指定机构应形成文件并执行结构和程序,以保证公正性,并在其整个组织,人员和评估活动中促进和应用公正性原则。
6. 指定机构应有成文的程序,以确保其人员,委员会,子公司,分包商和任何相关机构或外部机构的人员对进行合规评定活动时知悉的信息保密,但法律要求披露的除外。指定机构的工作人员必须对依据本规章执行任务时所获得的所有信息专业保密,但与成员国的通知当局进行其活动有关的除外。
7. 指定机构应制定执行活动的程序,并适当考虑到企业的规模,其经营的部门,结构,所涉AI系统的复杂程度。
8. 指定机构应为其合规评定活动购买适当的责任保险,但是依据国内法应由有关成员国承担责任或者成员国直接对合规评定负责的除外。
9. 指定机构应能够以最高的职业操守和特定领域的必要能力来执行本法规规定的应由其实施的所有任务,无论这些任务是由指定机构本身执行,还是由其代表或在其责任下执行。
10. 指定机构应具有足够的能力,以便能够有效地评估外部机构代表其执行的任务。为此,对于任何合规评定程序以及与之相关的每种类型的高风险AI系统,指定机构应始终有足够的行政、技术和科学人员,他们应该具有相关AI技术、数据和数据计算、本法规第二章规定的条件相关的经验和知识。
11. 指定机构应参加第38条所述的协调活动。它们还应直接或被代表参加欧洲标准化组织,或确保它们了解相关标准的最新动态。
12. 指定机构应提供所有相关文件,并应要求将所有相关文件(包括提供者的文件)提交给第30条规定的通知机构,以使其能够进行评估,指定,通知,监督活动,并促进本章概述的评估。
34
指定机构的附属机构和分包机构
1. 指定机构分包与合规评定有关的特定任务或求助于附属机构时,应确保附属机构或分包机构符合第33条规定的要求,并相应地告知通知机构。
2. 无论建立在何处,指定机构均应对附属机构或分包机构执行的任务承担全部责任。
3. 仅在提供者同意的情况下,任务可以分包或由附属机构进行。
4. 指定机构应将有关附属机构或分包机构的资格评估及其根据本规章开展工作的有关文件交由通知机构处理。
35
本法规指定的指定机构的标识号和清单
1. 委员会应为指定机构分配一个标识号。即使在根据若干欧盟法案通知了机构的情况下,也应分配一个号码。
2. 委员会应公开提供根据本规章通知的机构的清单,包括已分配给它们的标识号和已通知的活动。委员会应保持更新该清单。
36
通知变更
1. 通知机构怀疑或被告知指定机构不再符合第33条规定的要求,或未能履行其义务时,应立即尽最大努力调查此事。在这种情况下,它应将提出的反对意见通知有关的指定机构,并使其有机会发表意见。如果通知当局得出结论,指定机构的调查不再满足第33条的要求或未能履行其义务,则应视情况的严重性,酌情限制,中止或撤回通知。它还应立即通知委员会和其他成员国。
2. 在限制,中止或撤回通知时,或在指定机构停止其活动的情况下,通知当局应采取适当措施,以确保该指定机构的档案被另一指定机构接管或应负责的通知当局请求供他们使用。
37
对指定机构能力的挑战
1. 在必要时,委员会应对有理由怀疑指定机构是否符合第33条规定条件的案子,进行调查。
2. 应请求,通知机构应向委员会提供与有关指定机构的通知相关的所有信息。
3. 委员会应确保对根据本条进行调查期间获得的所有机密信息进行保密。
4. 如果委员会确定指定机构不符合或不再符合第33条的要求,则应通过合理的决定,要求通知成员国采取必要的纠正措施,包括在必要时撤回通知。该实施法案应根据第74条第2款所述的审查程序通过。
38
指定机构的协调
1. 委员会应确保就本法规所涵盖的领域,按照本法规开展AI系统合规评定程序的活跃的指定机构之间进行适当的协调与合作,并以指定机构部门小组的形式进行适当的运作。
2. 成员国应确保其指定机构直接或通过指定代表参加该小组的工作。
39
第三国合规评定机构
根据与欧盟达成协议的第三国法律建立的合规评定机构,可以被授权从事根据本法规进行的指定机构的活动。

来源:数字经济与社会
链接:https://mp.weixin.qq.com/s/7Twi98_h_7D-5Ajd3COkkw


编辑:王奕
1048#
 楼主| 发表于 2021-6-17 17:58:26 | 只看该作者
【案例】

《个人信息保护法(草案)》(二次审议稿)全文

【按语】《个人信息保护法(草案)》二次审议稿汲取前沿理念和最佳实践,是个人信息保护与合规风控的重大进展。——吴沈括,网络法治国际中心执行主任、博导、中国互联网协会研究中心副主任。

《个人信息保护法(草案)》(二次审议稿)
第一章 总则
第一条为了保护个人信息权益,规范个人信息处理活动,促进个人信息合理利用,制定本法。
第二条自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益。
第三条组织、个人在中华人民共和国境内处理自然人个人信息的活动,适用本法。
在中华人民共和国境外处理中华人民共和国境内自然人个人信息的活动,有下列情形之一的,也适用本法:
()以向境内自然人提供产品或者服务为目的;
()分析、评估境内自然人的行为;
()法律、行政法规规定的其他情形。第四条个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开等。第五条处理个人信息应当采用合法、正当的方式,遵循诚信原则,不得通过误导、欺诈、胁迫等方式处理个人信息。
第六条处理个人信息应当具有明确、合理的目的,并应当限于实现处理目的所必要的最小范围、采取对个人权益影响最小的方式,不得进行与处理目的无关的个人信息处理。第七条处理个人信息应当遵循公开、透明的原则,公开个人信息处理规则,明示处理的目的、方式和范围。第八条处理个人信息应当保证个人信息的质量,避免因个人信息不准确、不完整对个人权益造成不利影响。第九条个人信息处理者应当对其个人信息处理活动负责,并采取必要措施保障所处理的个人信息的安全。第十条任何组织、个人不得违反法律、行政法规的规定处理个人信息,不得从事危害国家安全、公共利益的个人信息处理活动。
第十一条国家建立健全个人信息保护制度,预防和惩治侵害个人信息权益的行为,加强个人信息保护宣传教育,推动形成政府、企业、相关行业组织、社会公众共同参与个人信息保护的良好环境。
第十二条国家积极参与个人信息保护国际规则的制定,促进个人信息保护方面的国际交流与合作,推动与其他国家、地区、国际组织之间的个人信息保护规则、标准等的互认。
第二章 个人信息处理规则
第一节一般规定
第十三条符合下列情形之一的,个人信息处理者方可处理个人信息:
()取得个人的同意;
()为订立或者履行个人作为一方当事人的合同所必需;
()为履行法定职责或者法定义务所必需;
()为应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需;
()依照本法规定在合理的范围内处理已公开的个人信息;
()为公共利益实施新闻报道、舆论监督等行为,在合理的范围内处理个人信息;
()法律、行政法规规定的其他情形。依照本法其他有关规定,处理个人信息应当取得个人同意,但有前款第二项至第七项规定情形的,不需取得个人同意。第十四条处理个人信息的同意,应当由个人在充分知情的前提下自愿、明确作出。法律、行政法规规定处理个人信息应当取得个人单独同意或者书面同意的,从其规定。个人信息的处理目的、处理方式和处理的个人信息种类发生变更的,应当重新取得个人同意。第十五条个人信息处理者处理不满十四周岁未成年人个人信息的,应当取得未成年人的父母或者其他监护人的同意。第十六条基于个人同意而进行的个人信息处理活动,个人有权撤回其同意。个人信息处理者应当提供便捷的撤回同意的方式。个人撤回同意,不影响撤回前基于个人同意已进行的个人信息处理活动的效力。第十七条个人信息处理者不得以个人不同意处理其个人信息或者撤回其对个人信息处理的同意为由,拒绝提供产品或者服务;处理个人信息属于提供产品或者服务所必需的除外。
第十八条个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言向个人告知下列事项:
()个人信息处理者的身份和联系方式;
()个人信息的处理目的、处理方式,处理的个人信息种类、保存期限;
()个人行使本法规定权利的方式和程序;()法律、行政法规规定应当告知的其他事项。前款规定事项发生变更的,应当将变更部分告知个人。个人信息处理者通过制定个人信息处理规则的方式告知第一款规定事项的,处理规则应当公开,并且便于查阅和保存。第十九条个人信息处理者处理个人信息,有法律、行政法规规定应当保密或者不需要告知的情形的,可以不向个人告知前条规定的事项。紧急情况下为保护自然人的生命健康和财产安全无法及时向个人告知的,个人信息处理者应当在紧急情况消除后及时告知。第二十条个人信息的保存期限应当为实现处理目的所必要的最短时间。法律、行政法规对个人信息的保存期限另有规定的,从其规定。
第二十一条两个以上的个人信息处理者共同决定个人信息的处理目的和处理方式的,应当约定各自的权利和义务。但是,该约定不影响个人向其中任何一个个人信息处理者要求行使本法规定的权利。个人信息处理者共同处理个人信息,侵害个人信息权益的,应当承担连带责任。
第二十二条个人信息处理者委托处理个人信息的,应当与受托方约定委托处理的目的、期限、处理方式、个人信息的种类、保护措施以及双方的权利和义务等,并对受托方的个人信息处理活动进行监督。
受托方应当按照约定处理个人信息,不得超出约定的处理目的、处理方式等处理个人信息;委托合同不生效、无效、被撤销或者终止的,受托方应当将个人信息返还个人信息处理者或者予以删除,不得保留。
未经个人信息处理者同意,受托方不得转委托他人处理个人信息。
第二十三条个人信息处理者因合并、分立等原因需要转移个人信息的,应当向个人告知接收方的身份、联系方式。接收方应当继续履行个人信息处理者的义务。接收方变更原先的处理目的、处理方式,应当依照本法规定重新取得个人同意。
第二十四条个人信息处理者向他人提供其处理的个人信息的,应当向个人告知接收方的身份、联系方式、处理目的、处理方式和个人信息的种类,并取得个人的单独同意。接收方应当在上述处理目的、处理方式和个人信息的种类等范围内处理个人信息。接收方变更原先的处理目的、处理方式的,应当依照本法规定重新取得个人同意。
第二十五条利用个人信息进行自动化决策,应当保证决策的透明度和结果公平合理。
通过自动化决策方式进行商业营销、信息推送,应当同时提供不针对其个人特征的选项,或者向个人提供拒绝的方式。
通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。
第二十六条个人信息处理者不得公开其处理的个人信息,取得个人单独同意的除外。
第二十七条在公共场所安装图像采集、个人身份识别设备,应当为维护公共安全所必需,遵守国家有关规定,并设置显著的提示标识。所收集的个人图像、个人身份特征信息只能用于维护公共安全的目的,不得公开或者向他人提供,取得个人单独同意的除外。
第二十八条个人信息处理者处理已公开的个人信息,应当符合该个人信息被公开时的用途。超出与该用途相关的合理范围的,应当依照本法规定取得个人同意。
个人信息被公开时的用途不明确的,个人信息处理者应当合理、谨慎地处理已公开的个人信息。利用已公开的个人信息从事对个人有重大影响的活动,应当依照本法规定取得个人同意。
第二节敏感个人信息的处理规则
第二十九条个人信息处理者具有特定的目的和充分的必要性,方可处理敏感个人信息。
敏感个人信息是一旦泄露或者非法使用,可能导致个人受到歧视或者人身、财产安全受到严重危害的个人信息,包括种族、民族、宗教信仰、个人生物特征、医疗健康、金融账户、个人行踪等信息。
第三十条基于个人同意处理敏感个人信息的,个人信息处理者应当取得个人的单独同意。法律、行政法规规定处理敏感个人信息应当取得书面同意的,从其规定。
第三十一条个人信息处理者处理敏感个人信息的,除本法第十八条第一款规定的事项外,还应当向个人告知处理敏感个人信息的必要性以及对个人的影响。
第三十二条法律、行政法规对处理敏感个人信息规定应当取得相关行政许可或者作出其他限制的,从其规定。
第三节国家机关处理个人信息的特别规定
第三十三条国家机关处理个人信息的活动,适用本法;本节有特别规定的,适用本节规定。
第三十四条国家机关为履行法定职责处理个人信息,应当依照法律、行政法规规定的权限、程序进行,不得超出履行法定职责所必需的范围和限度。
第三十五条国家机关为履行法定职责处理个人信息,应当依照本法规定向个人告知并取得其同意;法律、行政法规规定应当保密,或者告知、取得同意将妨碍国家机关履行法定职责的除外。
第三十六条国家机关处理的个人信息应当在中华人民共和国境内存储;确需向境外提供的,应当进行风险评估。风险评估可以要求有关部门提供支持与协助。
第三十七条法律、法规授权的具有管理公共事务职能的组织为履行法定职责处理个人信息,适用本法关于国家机关处理个人信息的规定。
第三章 个人信息跨境提供的规则
第三十八条个人信息处理者因业务等需要,确需向中华人民共和国境外提供个人信息的,应当至少具备下列一项条件:
()依照本法第四十条的规定通过国家网信部门组织的安全评估;
()按照国家网信部门的规定经专业机构进行个人信息保护认证;
()按照国家网信部门制定的标准合同与境外接收方订立合同,约定双方的权利和义务,并监督其个人信息处理活动达到本法规定的个人信息保护标准;
()法律、行政法规或者国家网信部门规定的其他条件。
第三十九条个人信息处理者向中华人民共和国境外提供个人信息的,应当向个人告知境外接收方的身份、联系方式、处理目的、处理方式、个人信息的种类以及个人向境外接收方行使本法规定权利的方式等事项,并取得个人的单独同意。
第四十条关键信息基础设施运营者和处理个人信息达到国家网信部门规定数量的个人信息处理者,应当将在中华人民共和国境内收集和产生的个人信息存储在境内。确需向境外提供的,应当通过国家网信部门组织的安全评估;法律、行政法规和国家网信部门规定可以不进行安全评估的,从其规定。
第四十一条中华人民共和国境外的司法或者执法机构要求提供存储于中华人民共和国境内的个人信息的,非经中华人民共和国主管机关批准,不得提供;中华人民共和国缔结或者参加的国际条约、协定有规定的,可以按照其规定执行。
第四十二条境外的组织、个人从事损害中华人民共和国公民的个人信息权益,或者危害中华人民共和国国家安全、公共利益的个人信息处理活动的,国家网信部门可以将其列入限制或者禁止个人信息提供清单,予以公告,并采取限制或者禁止向其提供个人信息等措施。
第四十三条任何国家和地区在个人信息保护方面对中华人民共和国采取歧视性的禁止、限制或者其他类似措施的,中华人民共和国可以根据实际情况对该国家或者该地区对等采取措施。
第四章 个人在个人信息处理活动中的权利
第四十四条个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理;法律、行政法规另有规定的除外。
第四十五条个人有权向个人信息处理者查阅、复制其个人信息;有本法第十九条第一款规定情形的除外。个人请求查阅、复制其个人信息的,个人信息处理者应当及时提供。
第四十六条个人发现其个人信息不准确或者不完整的,有权请求个人信息处理者更正、补充。
个人请求更正、补充其个人信息的,个人信息处理者应当对其个人信息予以核实,并及时更正、补充。
第四十七条有下列情形之一的,个人信息处理者应当主动删除个人信息;个人信息处理者未删除的,个人有权请求删除:
()处理目的已实现或者为实现处理目的不再必要;
()个人信息处理者停止提供产品或者服务,或者保存期限已届满;
()个人撤回同意;
()个人信息处理者违反法律、行政法规或者违反约定处理个人信息;
()法律、行政法规规定的其他情形。法律、行政法规规定的保存期限未届满,或者删除个人信息从技术上难以实现的,个人信息处理者应当停止除存储和采取必要的安全保护措施之外的处理。
第四十八条个人有权要求个人信息处理者对其个人信息处理规则进行解释说明。
第四十九条自然人死亡的,本章规定的个人在个人信息处理活动中的权利,由其近亲属行使。
第五十条个人信息处理者应当建立个人行使权利的申请受理和处理机制。拒绝个人行使权利的请求的,应当说明理由。
第五章 个人信息处理者的义务
第五十一条个人信息处理者应当根据个人信息的处理目的、处理方式、个人信息的种类以及对个人的影响、可能存在的安全风险等,采取必要措施确保个人信息处理活动符合法律、行政法规的规定,并防止未经授权的访问以及个人信息泄露或者被窃取、篡改、删除:
()制定内部管理制度和操作规程;
()对个人信息实行分类管理;
()采取相应的加密、去标识化等安全技术措施;
()合理确定个人信息处理的操作权限,并定期对从业人
员进行安全教育和培训;
()制定并组织实施个人信息安全事件应急预案;
()法律、行政法规规定的其他措施。第五十二条处理个人信息达到国家网信部门规定数量的个人信息处理者应当指定个人信息保护负责人,负责对个人信息处理活动以及采取的保护措施等进行监督。
个人信息处理者应当公开个人信息保护负责人的联系方式,并将个人信息保护负责人的姓名、联系方式等报送履行个人信息保护职责的部门。
第五十三条本法第三条第二款规定的中华人民共和国境外的个人信息处理者,应当在中华人民共和国境内设立专门机构或者指定代表,负责处理个人信息保护相关事务,并将有关机构的名称或者代表的姓名、联系方式等报送履行个人信息保护职责的部门。
第五十四条个人信息处理者应当定期对其个人信息处理活动遵守法律、行政法规的情况进行合规审计。
第五十五条个人信息处理者应当对下列个人信息处理活动在事前进行风险评估,并对处理情况进行记录:
()处理敏感个人信息;
()利用个人信息进行自动化决策;
()委托处理个人信息、向他人提供个人信息、公开个人
信息;
()向境外提供个人信息;
()其他对个人有重大影响的个人信息处理活动。
风险评估的内容应当包括:
()个人信息的处理目的、处理方式等是否合法、正当、
必要;
()对个人的影响及风险程度;
()所采取的安全保护措施是否合法、有效并与风险程度相适应。
风险评估报告和处理情况记录应当至少保存三年。
第五十六条个人信息处理者发现个人信息泄露的,应当立
即采取补救措施,并通知履行个人信息保护职责的部门和个人。通知应当包括下列事项:
()个人信息泄露的原因;
()泄露的个人信息种类和可能造成的危害;
()已采取的补救措施;
()个人可以采取的减轻危害的措施;
()个人信息处理者的联系方式。个人信息处理者采取措施能够有效避免信息泄露造成损害的,个人信息处理者可以不通知个人;但是,履行个人信息保护职责的部门认为个人信息泄露可能对个人造成损害的,有权要求个人信息处理者通知个人。
第五十七条提供基础性互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当履行下列义务:
()成立主要由外部成员组成的独立机构,对个人信息处
理活动进行监督;
()对严重违反法律、行政法规处理个人信息的平台内的
产品或者服务提供者,停止提供服务;
()定期发布个人信息保护社会责任报告,接受社会监督。
第五十八条接受委托处理个人信息的受托方,应当履行本
章规定的相关义务,采取必要措施保障所处理的个人信息的安全。
第六章 履行个人信息保护职责的部门
第五十九条国家网信部门负责统筹协调个人信息保护工作和相关监督管理工作。国务院有关部门依照本法和有关法律、行政法规的规定,在各自职责范围内负责个人信息保护和监督管理工作。
县级以上地方人民政府有关部门的个人信息保护和监督管理职责,按照国家有关规定确定。
前两款规定的部门统称为履行个人信息保护职责的部门。
第六十条履行个人信息保护职责的部门履行下列个人信息保护职责:
()开展个人信息保护宣传教育,指导、监督个人信息处理者开展个人信息保护工作;
()接受、处理与个人信息保护有关的投诉、举报;
()调查、处理违法个人信息处理活动;()法律、行政法规规定的其他职责。第六十一条国家网信部门统筹协调有关部门依据本法推进
下列个人信息保护工作)制定个人信息保护具体规则、标准;()针对敏感个人信息以及人脸识别、人工智能等新技术、
新应用,制定专门的个人信息保护规则、标准;()支持研究开发安全、方便的电子身份认证技术;()推进个人信息保护社会化服务体系建设,支持有关机构开展个人信息保护评估、认证服务。第六十二条履行个人信息保护职责的部门履行个人信息保护职责,可以采取下列措施:
()询问有关当事人,调查与个人信息处理活动有关的情况
()查阅、复制当事人与个人信息处理活动有关的合同、记录、账簿以及其他有关资料;
()实施现场检查,对涉嫌违法个人信息处理活动进行调查
()检查与个人信息处理活动有关的设备、物品;对有证据证明是违法个人信息处理活动的设备、物品,向本部门主要负责人书面报告并经批准,可以查封或者扣押。履行个人信息保护职责的部门依法履行职责,当事人应当予以协助、配合,不得拒绝、阻挠。
第六十三条履行个人信息保护职责的部门在履行职责中,发现个人信息处理活动存在较大风险或者发生个人信息安全事件的,可以按照规定的权限和程序对该个人信息处理者的法定代表人或者主要负责人进行约谈,或者要求个人信息处理者委托专业机构对其个人信息处理活动进行合规审计。个人信息处理者应当按照要求采取措施,进行整改,消除隐患。
第六十四条任何组织、个人有权对违法个人信息处理活动向履行个人信息保护职责的部门进行投诉、举报。收到投诉、举报的部门应当依法及时处理,并将处理结果告知投诉、举报人。
履行个人信息保护职责的部门应当公布接受投诉、举报的联系方式。
第七章 法律责任
第六十五条违反本法规定处理个人信息,或者处理个人信息未按照规定采取必要的安全保护措施的,由履行个人信息保护职责的部门责令改正,给予警告,没收违法所得;拒不改正的,并处一百万元以下罚款;对直接负责的主管人员和其他直接责任人员处一万元以上十万元以下罚款。
有前款规定的违法行为,情节严重的,由履行个人信息保护职责的部门责令改正,没收违法所得,并处五千万元以下或者上一年度营业额百分之五以下罚款,并可以责令暂停相关业务、停业整顿、通报有关主管部门吊销相关业务许可或者吊销营业执照;对直接负责的主管人员和其他直接责任人员处十万元以上一百万元以下罚款。
第六十六条有本法规定的违法行为的,依照有关法律、行政法规的规定记入信用档案,并予以公示。
第六十七条国家机关不履行本法规定的个人信息保护义务的,由其上级机关或者履行个人信息保护职责的部门责令改正;对直接负责的主管人员和其他直接责任人员依法给予处分。
第六十八条个人信息权益因个人信息处理活动受到侵害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。
前款规定的损害赔偿责任按照个人因此受到的损失或者个人信息处理者因此获得的利益确定;个人因此受到的损失和个人信息处理者因此获得的利益难以确定的,根据实际情况确定赔偿数额。
第六十九条个人信息处理者违反本法规定处理个人信息,侵害众多个人的权益的,人民检察院、履行个人信息保护职责的部门和国家网信部门确定的组织可以依法向人民法院提起诉讼。
第七十条违反本法规定,构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
第八章 附则
第七十一条自然人因个人或者家庭事务处理个人信息的,不适用本法。
法律对各级人民政府及其有关部门组织实施的统计、档案管理活动中的个人信息处理有规定的,适用其规定。
第七十二条本法下列用语的含义:
()个人信息处理者,是指自主决定处理目的、处理方式等个人信息处理事项的组织、个人。
()自动化决策,是指利用个人信息对个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,通过计算机程序自动分析、评估并进行决策的活动。
()去标识化,是指个人信息经过处理,使其在不借助额外信息的情况下无法识别特定自然人的过程。
()匿名化,是指个人信息经过处理无法识别特定自然人且不能复原的过程。
第七十三条本法自 日起施行。

来源:网络法治国际中心
链接:https://mp.weixin.qq.com/s/6UlQredTOkAoy-OyHuhYww


编辑:王奕
1047#
 楼主| 发表于 2021-6-17 17:25:04 | 只看该作者

【案例】


北京互联网法院:《互联网社交媒体平台案件审判情况》(附典型案例)


6月1日上午,北京互联网法院召开了“互联网社交媒体平台案件审判情况”新闻发布会。北京互联网法院院长张雯介绍了相关案件的数据、特征及相关举措,六位法官讲述了其承办的相关典型案例,发布会由北京互联网法院副院长赵瑞罡主持。

据介绍,2018年9月9日至2021年5月31日,北京互联网法院共受理案件102585件,其中涉及社交媒体平台的23781件,占比23.18%。随着互联网平台经济的迅速崛起和创新发展,涉网络社交媒体平台案件逐年增长,其中2018年9月至12月收案量为458件,2019年收案量为8011件,2020年收案量为10424件,同比上升30.12%。

社交媒体平台纠纷中,著作权纠纷占比最高,为87.71%,其次为网络侵权责任纠纷,占6.81%,可以看出,侵权类纠纷占该类案件中的绝对多数。此外,社交媒体平台纠纷涉诉主体较为集中,截至2021年5月31日,数量排名前10的社交媒体平台共计涉诉20 402件,占该类案件总收案的85.79%,主要涉及社交类APP及各大门户网站。

据了解,北京互联网法院受理案件直接反映出北京作为全国科技创新中心及文化中心定位,呈现出以下特征:一是平台类型多元,诉讼主张呈现多样化趋势;二是新型商业模式频出,跨界经营、混业经营趋势明显;三是涉及新业态新模式的社交媒体平台案件包含大量前沿法律问题,对传统的避风港原则、侵权认定规则等产生了极大冲击。

北京互联网法院调研发现,社交媒体平台发展中存在以下问题:一是混业经营下,运营链上涉及平台、主播、品牌方、卖家、消费者等多方主体,可能涉及多重法律关系,且复合平台需要分业监管,易导致监管重叠或监管空白;二是平台具有市场主体和监督主体的双方身份,存在对平台内经营者准入资质、商品信息监管不严格的情况;三是个人信息保护存在短板,存在非法收集和过度收集等情况;四是基于平台“一对众”的产业模式及优势地位,平台在格式条款中为自己设立单方变更权免除自身责任,或约定“使用即同意”内容,侵害消费者权益的现象仍大量存在。

针对上述问题,北京互联网法院依托审判职能作用,积极探索诉源治理、典型案例示范调解、协同治理等创新机制、输出规则。


加强案件诉前分流引导

据介绍,针对要求社交媒体平台披露涉嫌侵权主体身份信息案件,北京互联网法院建立了信息披露类案件诉前化解机制,运行近一年来,在诉前调解阶段成功调解该类案件2350件,平均用时不足30天,高效化解了纠纷。针对社交媒体平台纠纷主体集中化、问题类型化的特点,进一步将调解延伸到在纠纷立案前,通过一个示范性判决,“一揽子”化解潜在未成讼的大批量案件。


强化新客体和新业态知识产权保护

面对数字经济下著作权保护的新挑战,张雯院长介绍了北京互联网法院采取的举措:一方面,积极探索新客体保护规则,鼓励新客体创作,比如,在某短视频平台著作权案中,认定短视频是否具备独创性与视频长短,保护正能量新类型作品著作权;另一方面,加强网络游戏、视频、教育等新业态领域知识产权保护,引导新技术、新业态规范有序发展,比如,在“共享会员”著作权及不正当竞争案中,认定提供共享会员服务的平台恶意利用他人视频资源牟利构成不正当竞争,否定社交媒体平台恶意搭便车行为。


依法规制社交媒体平台人格权侵权行为

张雯院长介绍到,北京互联网法院在某短视频平台侵害用户个人信息案中,明确了互联网平台要兼顾个人信息保护与数据合理使用的规则,依法规制平台随意收集、违法获取、过度使用个人信息的行为;在一起未成年子女被父母绑树上教育遭偷拍,并在社交媒体平台发布传播的网络侵权纠纷案中,贯彻“未成年人利益最大”原则,注重保护未成年人个人隐私信息;在某房地产平台诉杨某某网络侵权责任纠纷中,明确市场经营者利用自媒体进行宣传推广,必须在法律法规允许的范围内,不可捏造、传播虚假信息,恶意误导公众,进行商业诋毁。


合理认定平台承担与其经营利益相匹配的监管责任

张雯院长表示,为规范平台管理,北京互联网法院一是通过明确社交媒体平台涉及合同主体的权利义务,规制平台利用格式条款侵害消费者合法权益的行为,在“超前点播”服务合同案中,强调平台探索新的商业模式,不得损害用户依照法律或者约定享有的权利;二是要求平台应当尽到与其经营利益相匹配的审慎监管义务,在某直播平台著作权案中,认定直播平台未采取与其获益相匹配的预防侵权措施构成共同侵权;三是引导平台严格贯彻执行用户实名注册制,在某社交媒体平台著作权案中,认定平台未能证明涉案图片系用户上传,不适用“避风港”原则。


积极推动网络空间协同治理

网络平台已成为一个生态系统,要解决生态圈中的侵权问题,应当着眼于系统治理。张雯院长提到,北京互联网法院在推动网络空间协同治理方面的举措:一是建立版权领域“行政—司法”协同新机制,与市版权局、市版权保护中心联合发起“e版权诉源共治体系”,共建良性版权保护生态;二是通过召开发布会、开展普法活动、联合发起倡议等方式加强法治宣传,扩大裁判影响力;三是向相关监管机关、平台企业发送10余份司法建议,深挖类案问题背后的普遍性、深层次原因,倡导树立规则意识,推动网络空间协同治理。

发布会上还通报了十起涉社交媒体平台典型案例,这些典型案例认定了具有独创性的聊天表情构成美术作品,商业模式影响网络服务提供者过错认定,发表言论的注意义务可因身份不同而变化,明确了主播私下带货行为应承担经营者责任,超出引用目的和必要程度的使用作品行为不构成合理使用,自媒体不得捏造或传播虚假信息进行商业诋毁扰乱市场竞争秩序等。

下一步,北京互联网法院将聚焦互联网特性突出的新兴领域案件,比如针对不当收集、管理、利用个人信息、公共数据问题,强化网络空间人格权益保护,规范网络交易行为,维护网络信息安全;针对新兴互联网产业发展不规范、打法律擦边球问题,加强保护市场公平竞争秩序,严厉打击网络刷单炒作信用、身份盗用、“薅羊毛”等网络灰黑产业。针对网络环境下知识产权保护的新特点、新需求,明确新类型知识产权的权利属性、保护范围和追责机制,鼓励数字经济创新发展。同时,还要对网络平台治理、数据权属与交易、算法规制、区块链法治等前沿司法问题方面做出积极回应,既妥善处理纠纷、维护个案公正,又确立司法规则,明确权利义务,规范产业发展。

























































































来源:网络法实务圈




编辑:王奕

1046#
 楼主| 发表于 2021-6-17 16:16:50 | 只看该作者
【案例】

六家自媒体排队道歉后,特斯拉法务部门开通官微:向自媒体“宣战”?

熙熙攘攘中,有关特斯拉遭遇车主维权事件尚未完全褪去,然而,一波未平一波又起。

日前,有媒体报道称,特斯拉法务部门注册了官方微博,法务部门注册微博本就不多见,正当大家感到疑惑时,消息传出:特斯拉方面注册法务微博后,开始向自媒体发去“警告”。




据财经网引述自媒体“五千年的兔子”的反映,早在5月29日,他就收到了当时还没有加V的“特斯拉法务部”的私信。私信内容是:我司注意到您仍在持续发布涉及我司的侵权内容。请知悉,我司已在北京法院提起诉讼。如希望进一步沟通,请通过上述联系方式联系。

一句话就是特斯拉把“五千年的兔子”告了,但是还给了和解的通道。特斯拉还在下面评论称,“互联网不是法外之地”。


微博认证显示,特斯拉法务部注册时间为2021年5月31日,目前该微博未更新一条内容。

也即是说,其微博的注册或为了向自媒体发私信,通知一些或已被告的自媒体。





起诉就起诉,为啥还要起诉前告知一声呢?这让人很不解。

根据上述自媒体披露的截图,特斯拉特意在“警告信”中称:如希望进一步沟通,请联系。

言下之意:不想被告,就联系我们。



不过,被警告的@五千年的兔子并未认怂,甚至置顶了被指“违法”的文章,以示不认怂。

据悉,特斯拉起诉的原因是该用户4月24日在今日头条发了一篇题为《特斯拉维权女孩没有撒谎!用刹车数据还原事故前的惊魂五秒》的文章,详尽分析了“车顶维权”事件中特斯拉公布的数据。

值得一提的是,5月28日,特斯拉官方微博@特斯拉支持发出6封自媒体的道歉公告说:非常感谢大家对特斯拉相关信息、相关帖文的关注,更多消费者也因此逐步加深了对特斯拉以及电动车的了解。

但这其中也包含了少许不实信息,这些不实信息给特斯拉以及广大车主们带来了一些困扰。

为了帮助大家了解事实,我们会定期和大家分享真实情况。任何新兴产业的发展,都离不开全社会的关注和支持,真诚感谢大家!














对于自媒体齐刷刷地道歉行为,知名自媒体人罗永浩表示惊讶,其表示:咦?神奇。这是怎么做到的?我做 Smartisan 手机的那些年,很多自媒体赤裸裸地撒谎造谣诬蔑诽谤,即使发了律师信过去,也没有一个道歉的啊,最多就是半夜没人看的时候悄悄发一个澄清,还写得好像跟自己没关系似的。

对于特斯拉法务部门的行为,不少网友表示支持,并对“互联网不是法外之地”表示赞同,更有甚者为特斯拉“造谣一张嘴,辟谣跑断腿”而叫屈。

但有大V表示担心。





如有着70万粉丝的@观茬君说:我去那边看文章了,有理有据有数据,各位感兴趣的可以去看看原文,太长了,我就不贴了,反正现在自媒体只能夸,不能说不是,你说了就是黑,就是有组织有预谋的黑,就怀疑你是团伙了,太难了,以后都改夸夸群算了。

此外,亦有汽车自媒体表示:特斯拉法务部的这句“独立思考,明辨是非”看似是吐露心声,其实更像是通过法律手段来震慑国内舆论,已达到警示公众的效果。

特斯拉对自媒体的“警告”确实起到了作用。一位拥有51万粉丝的自媒体大V@闪飞说:特斯拉法务部上线,以后特斯拉的新闻不能随便骚了。



而拥有72万粉丝、认证为IT时评家@贾敬华说:从旁观者的角度来说,特斯拉法务部这个账号确实容易引起误会。看了一下很多公司的微博账号,几乎没有法务部这个账号。在频频曝出安全事故后,特斯拉成为了媒体和公众质疑的对象。然而,特斯拉一味的推卸责任,这让舆论危机不断发酵。

现在,公众舆论对特斯拉的质疑还在持续发酵。这种情况下,特斯拉法务部账号上线,这确实有点不妥。接下来,特斯拉法务部这个账号会发布什么内容,这同样是消费者关注的热点。如果内容不当,肯定会遭来太多的非议。


对此,你怎么看?

来源:传媒江湖荟




编辑:王奕
1045#
 楼主| 发表于 2021-6-16 20:47:36 | 只看该作者
【案例】

数据确权的首次立法尝试—— 《深圳经济特区数据条例(征求意见稿)》观察

2020年10月,中共中央办公厅、国务院办公厅印发了《深圳建设中国特色社会主义先行示范区综合改革试点实施方案(2020-2025年)》,要求深圳在数据产权制度、数据产权保护和利用新机制、数据隐私保护制度、政府数据开放共享以及数据交易等方面进行先行探索。为了贯彻中共中央、国务院关于大数据战略的决策部署,落实《综合改革实施方案》有关要求,深圳日前发布了《深圳经济特区数据条例(征求意见稿)》,从个人数据、公共数据、数据市场、数据安全管理的四大角度构建数据法律制度,从而充分发挥数据的基础资源作用和创新引擎作用,培育资源配置高效的数据要素市场。

一、进一步明确了个人数据处理的合法基础和处理方式

第二章  第十二条 数据处理者应当在处理个人数据前征得自然人或者其监护人的同意,并在其同意范围内处理其个人数据,但是法律、行政法规以及本条例另有规定的除外。

第二章 第二十二条 数据处理者向他人提供其处理的个人数据的,应当对数据进行去标识化处理,使得被提供的个人数据在不借助其他数据的情况下无法识别特定的自然人。法律、法规规定或者自然人与数据处理者约定应当进行匿名化处理的,数据处理者应当依照法律、法规规定或者双方约定进行匿名化处理。

第六十七条 数据处理者应当依照相关法律、法规规定以及国家标准的要求,对所收集的个人数据进行去标识化或者匿名化处理,并与可恢复识别的个人数据分开存储。

数据处理者应当针对敏感个人数据、国家规定的重要数据制定去标识化或者匿名化处理安全措施,并对数据去标识化或者匿名化处理过程进行记录。

《条例》遵循了我国现有授权同意和匿名化的合规路径,肯定了自然人或其监护人的同意是有效的数据权利基础之一;要求向他人提供其处理的个人数据时,应当对数据进行去标识化处理,在法律、法规以及国家标准有特殊要求时,需要对数据进行匿名化处理。

关于同意、匿名化和去标识化之间的关系,根据我国现行的法律规定,目前数据交易流通的合规基础主要有匿名化、基于同意和基于授权三种。基于授权的权利基础主要指公共数据场景下,相关国家机构可以依照行政法规的授权获得相应数据的管理权和处分权等。对于个人数据而言,相关市场主体可选择的合规基础即为数据匿名化和获得个人信息主体有效的授权同意。

匿名化和去标识化之间的关系而言,去标识化是指个人信息经过处理,使其在不借助额外信息的情况下无法识别特定自然人的过程;匿名化则是指个人信息经过处理无法识别特定自然人且不能复原的过程。二者的区别在于经过匿名化的个人信息无法再识别到个人,但是去标识化后的个人信息在借助额外信息的情况下仍可再次识别个人。

从法律性质上来看,个人信息匿名化处理后不再属于个人信息,而去标识化处理后仍属于个人信息。从立法要求上来看,匿名化数据可被视同于删除,可被直接对外提供。而去标识化是个人信息处理者内部的一种个人信息安全保护手段。个人信息去标识化后仍属于个人信息,需要满足知情同意规则或其他个人信息处理合法性基础。换言之,去标识化可被理解为是匿名化的一种中间形态,两者之间的关系也并非泾渭分明,而是会由于技术进步、数据泄露事件等因素而发生变化。

《条例》在充分了解法律关于匿名化“无法识别、无法复原”的要求超出现有技术发展水平、上位法尚未就匿名化的具体效果和实施场景做出进一步细化规定的情况下,提出数据处理者可以在没有法定和约定匿名化要求时对数据进行去标识化处理。因此,综合现行法律法规、标准和《条例》本身来看,数据处理者可以组合或择一选择基于同意和数据匿名化/去标识化两种合规路径。

在获取个人信息主体有效同意更容易实现的情况下,数据处理者可以通过周延的隐私政策和交互式弹窗等方式获取个人的首次和后续同意;在获取同意成本过高、对有效授权同意本身及授权链的合规性存疑的情况下,数据处理者可以通过去标识化或匿名化的路径满足合规要求。此外,在个人信息主体注销账户或平台停止运营等法定和约定匿名化的场景下,数据处理者需要对相关数据进行匿名化处理。当然,我们建议数据处理者可以在数据获取、处理和共享的不同环节,在评估风险点和技术实现效果的基础上综合运用同意和匿名化/去标识化技术以最小化合规风险。

二、赋予个人信息主体撤回同意的权利

第二章 第十八条 自然人有权随时撤回部分或者全部处理其个人数据的同意。

自然人撤回同意的,数据处理者不得继续处理其个人数据,但是不影响数据处理者在自然人撤回同意前基于同意进行的合法数据处理;法律、法规另有规定的,从其规定。

《条例》首先肯定了个人信息主体有撤回其个人数据的权利,在撤回同意之后数据处理者不再享有基于授权同意的合规基础,但肯定撤回同意本身不具有溯及力,依然肯定在撤回同意前数据处理的合法性。

关于《条例》中撤回同意是否影响基于同意获取数据而产生的衍生数据,我们认为存在两种理解方式。

第一,在个人撤回同意后,数据处理者不得在对数据本身及其衍生信息进行进一步的处理,但在撤回同意前已经形成的标签、评分等衍生信息仍然可进行使用和处理。在这个前提下,还可进一步提出衍生信息是否可被继续用于该用户本人的营销和个性化页面展示、可否不针对用户本人而作为统计数据等形态使用的问题。

第二,在个人撤回同意后,基于原授权同意而产生的衍生数据等信息不得再被处理和使用。举例来说,例如个人授权平台使用自己的身份证号,平台基于身份证号衍生出户籍地和出生日期等信息,获取到“北方人”“年轻人”等衍生信息,在用户撤回对身份证号的授权同意后,平台是否还可继续使用“北方人”“年轻人”的衍生信息、在何种范围和目的下使用该信息等均是值得进一步探讨的话题。

另外,在个人信息主体撤回同意后,数据处理者不再享有“授权同意”的合法基础,我们认为在将相关数据进行彻底的匿名化处理后,数据处理者依然可以对匿名化后的数据进行处理和使用。

首先匿名化本身和授权同意属于并列的数据合规处理基础。

第二,在《个人信息保护规范》(GB/T 35273-2000)中,匿名化的处理效果被等同于删除。最后,匿名化后的数据不再属于个人数据,而授权同意属于个人数据保护范畴的概念,因而匿名化后的数据也不因个人信息主体同意的撤回而丧失合规基础。

三、肯定市场主体的数据使用权、收益权和处分权

第五十四条 市场主体对合法处理数据形成的数据产品和服务,可以依法自主使用,通过向他人提供获得收益,依法进行处分。

第五十五条 市场主体通过开放、共享、交易等方式流通数据、数据产品或者服务的,应当明确各方当事人的权利和义务;超出权利人授权范围的,应当重新取得相应权利人授权。

“只有对社会成员之间互相划分对特定资源之间的排他性权利,才会产生适当的激励”,因而赋予特定企业对于数据产品一定程度的权益可能会产生正面的激励效应。对企业的数据权利进行正面确权,以减少企业对数据享有权利的模糊性,不仅有利于企业对数据及衍生产品加大投入与保护的力度,还能在客观上协同规制第三方的数据处理行为。淘宝诉美景等司法案例也认可了企业对其投入智力成果开发的数据产品享有独立的财产性权益。

《条例》在上位法尚未明确数据产权制度的基础上,率先以地方立法试点的形式正面回应数据确权之争,探索数据所有权和用益权、人格权和财产权分离的制度。在肯定自然人对其个人数据享有人格权益的基础上,允许自然人、法人和非法人组织在获得授权的基础上对其合法处理数据形成的数据及数据产品享有使用、收益和处分等财产性权益,从而在尊重现存平台免费提供服务、消费者免费提供数据的现状基础上,以用户和数据处理者之间的隐私政策等授权协议为基础,圈定数据处理者财产性权益的合理范畴。

四、正面回应用户画像、定推及大数据杀熟的问题

第二章 第二十三条 数据处理者可以基于提升产品质量或者服务体验的目的,对自然人进行用户画像,为其推荐个性化的产品或者服务。

第二章第二十四条 数据处理者对自然人进行用户画像时,应当向其明示用户画像的规则和用途,并采用足以引起注意的特别标识等易获取的方式向其提供拒绝的途径。

自然人有权随时拒绝对其进行的用户画像和基于用户画像向其进行的个性化产品或者服务推荐。

第六十一条 市场主体不得利用数据分析,对交易条件相同的交易相对人实施差别待遇,但是有下列情形之一的除外:

(一)根据交易相对人的实际需求,且符合正当的交易习惯和行业惯例,实行不同交易条件;

(二)针对新用户在合理期限内开展优惠活动;

(三)基于公平、合理、无歧视的规则实施随机性交易;

(四)法律、法规规定的其他情形。

前款所称交易条件相同,是指交易相对人之间在交易安全、交易成本、信用状况、所处交易环节、交易持续时间等方面不存在实质性影响交易的差别。

《条例》以大篇幅回应了利用大数据进行个性化推荐和“大数据杀熟”的现实问题,在平衡大数据侵犯消费者权益和提升用户体验方面进行了有益的制度创新。首先肯定了既有的用户画像技术在提升产品质量和用户服务体验方面的作用,允许企业正当地通过用户画像技术为用户提供个性化推荐的服务。在此基础上,通过对差别待遇本身是否具有合理性进行评估,得出用户画像是否具有合法性的结论。《条例》也通过列举合理“差别待遇”判断因素的方式,给予相关市场参与者判断合规与否的红线,也留出“正当的交易习惯和行业惯例”等司法自由裁量的空间以应对实践中复杂多变的场景。

此外,《条例》也赋予用户充分的选择权,例如用户可以选择关闭“定推”等方式,同等地尊重想要通过个性化推荐提升选择效率的用户和想要保全自由选择权用户的诉求。与此同时,用户的选择行为本身和随之而来的社会自发监督也可反向推动数据处理者将用户画像技术限制在合理、合法的范畴内,从而平衡数据产业发展的需要和个人信息保护的诉求。

五、加强对未成年人数据的保护

第二章 第十六条 处理未成年人个人数据的,按照处理敏感个人数据的有关规定执行;处理不满十四周岁的未成年人个人数据的,应当在处理前征得其监护人的明示同意。

第二章 第二十四条禁止对未成年人进行用户画像以及基于用户画像向未成年人推荐个性化的产品或者服务。

《条例》在吸收既往立法和标准要求对未成年人数据进行处理时需要获取监护人明示同意的基础上,创新将未成年人数据保护的级别提升到对敏感个人数据保护的高度。在用户画像的场景下,《条例》本身赋予用户选择是否接受用户画像和基于用户画像的个性化推荐的权利。出于对未成年人给予更周延保护的立法思想,禁止数据处理者对未成年人进行用户画像和个性化推荐。

但与此同时,我国法律法规目前还没有关于儿童年龄识别具体方法的具有可操作性的规定,数据处理者面临如何判断用户是否是儿童、儿童冒用他人账号致使平台难以核实年龄等现实问题。借鉴国外的立法,数据处理者可借鉴的关于儿童年龄的核实方法主要包括以下三种:

首先,用户自行填写出生日期等信息,数据处理者仅需要对该信息进行形式审核;

第二,数据处理者可依靠外部审核机制来判断自身用户的年龄,例如平台需要输入有效身份证号注册、仅支持信用卡作为支付方式等等。

第三,借鉴美国儿童网络隐私保护法(Children'sOnline Privacy Protection Act,COPPA)中提到的“可验证的家长同意”的6种情形,采用监护人参与的电子签名、邮件或语音、视频的即时确认等方式。

从司法的角度而言,在COPPA的执法机构美国联邦贸易委员会(Federal Trade Commission,FTC)发布的《企业六步合规计划》中,FTC明确网络运营者使用信用卡或者政府签发的身份验证信息作为监护人同意的形式审核方式已足以满足COPPA下的合规义务,无需再对做出同意的是否是儿童的监护人做出实质审核。

在实践中,部分不专门针对儿童提供产品和服务的数据处理者出于规避儿童数据保护义务和遵循最小必要原则等考虑,选择不获取用户出生年份等可能推知用户年龄的信息。除非用户群体基本不可能是儿童外,我们认为此类实践仍然存在一定程度的合规风险,建议相关数据处理者考虑至少对用户的年龄进行形式审核,并依照现行法律法规和标准制定相关儿童数据合规制度。

六、将司法案例确认的法律规则纳入法律规范中

第四章 第六十条 市场主体应当遵守公平竞争原则,不得实施下列侵害其他市场主体或者消费者合法权益的行为:

(一)使用非法手段破坏其他市场主体所采取的保护数据的技术措施;

(二)违反行业惯例收集或者利用其他市场主体数据;

(三)利用非法收集的他人数据提供替代性产品或者服务;

(四)未经其他市场主体或者消费者同意,将其他市场主体的数据直接进行商业利用;

(五)法律、法规规定禁止侵害其他市场主体或者消费者合法权益的其他行为。

第四章 第六十二条 市场主体不得达成垄断协议,不得滥用在数据市场的支配地位、不得实施经营者集中,不得排除、限制数据市场竞争。

在数据商业价值得到充分释放的同时,与数据相关的竞争法领域纠纷也日趋增多。从国内已有的司法实践来看,已有诸多不正当竞争和反垄断的案例。不正当竞争案例的当事人包括百度、淘宝、今日头条、新浪、大众点评、58同城等大型互联网企业,涉及的数据包括原始数据、数据产品和用户数据等等;就反垄断而言,华为和腾讯关于微信数据的纠纷、顺丰和菜鸟关于物流数据的纠纷均涉及数据巨头是否滥用市场支配地位、挤压相关行业竞争者生存空间的问题。在反垄断法目前缺乏数据行业相关条款、主要依赖《反不正当竞争法》第2条和第12条“互联网专条”原则性规定的前提下,《条例》将目前司法实践中确立的反不正当裁判规则通过纳入法律法规确立下来,进一步为司法实践和企业合规自查提供清晰的指导规则。

另外,在第六十条第二款中,条例也将违反行业惯例收集或者利用其他市场主体数据列为数据领域不正当竞争的客观表现形式之一,笔者认为这与百度公司诉奇虎360案中法院的裁判精神一致。在该案中,法院认为Robots协议尽管并非法律意义上双方合意的协议,但作为国内外互联网行业内普遍通行、普遍遵守的技术规范,已实质成为公认的行业商业道德和行为标准。在互联网行业技术迭代迅速的情况下,《条例》将行业惯例作为公平竞争原则的重要源头可以大大减轻被侵权方举证的难度,也为技术后续的发展预留了充分的合理解释空间。

七、补充个人信息主体的公力救济途径

第一章 第十一条 自然人发现数据处理者违反法律、法规规定或者双方约定处理其个人数据的,可以向市网信部门投诉举报,市网信部门应当及时依法处理。

第六章 第八十九条 未依照法律、行政法规以及本条例规定落实数据安全保护责任,或者非法处理数据,致使国家利益或者公共利益受到损害的,有关行业组织可以依法提起民事公益诉讼。有关行业组织提起相关民事公益诉讼,人民检察院认为有必要的,可以支持起诉。

前款规定的行业组织未提起民事公益诉讼的,人民检察院可以向人民法院提起民事公益诉讼。

人民检察院在履行职责中发现负有数据领域监督管理职责的行政机关违法行使职权或者不作为,致使国家利益或者公共利益受到损害的,应当向有关行政机关提出监察建议;行政机关不依法履行职责的,人民检察院可以依法向人民法院提起行政公益诉讼。

在个人信息权尚未被立法明确的前提下,个人信息主体很难通过司法途径获得救济。一方面由于个人信息权益的缺位,个人往往需要基于隐私权、名誉权、肖像权等既有的权利基础寻求救济,但个人信息权的内涵和外延都与此类权益有诸多不同,因而在既往的司法实践中个人往往无法通过隐私权保护等权利基础使被侵害的个人信息权益恢复圆满状态。《条例》明确市网信部门具有受理、调查、处理个人信息主体关于信息被违法、违约使用的职责。另外,行业组织和检察院支持起诉的公益诉讼的制度也明确延伸到数据保护领域,在既有的司法救济之外补充了公力救济的途径,更有利的保护个人信息主体的权益。

八、为企业提出合规建设的新要求

第四章  第五十三条 市场主体开展数据处理活动,应当建立健全数据治理组织架构和自我评估机制,组织开展数据治理活动,加强数据质量管理,确保数据的真实性、准确性、完整性、时效性,促进数据价值实现。

第五章  第六十五条 处理敏感个人数据或者国家规定的重要数据,应当按照规定设立数据安全管理机构或者明确数据安全管理责任人,并实施特别技术保护。

《草案》吸收了行业最佳实践和国家标准的数据管理建议,明确提出数据处理者应当建立数据治理组织和数据安全管理组织,并提出数据质量管理和自我评估机制的要求。

数据相关合规制度建设不仅成为法律法规施加的义务,也是企业在侵权事件发生时证明不存在过错的重要依据之一。例如方月明诉北京金色世纪商旅网络科技股份有限公司、中国东方航空股份有限公司合同纠纷案中,企业提供的等保测评报告、对外合作协议、任命数据保护官的通知等证据,满足了法院关于“充分履行个人信息保护义务”的要求,因而在未来个人信息的司法实践和企业合规建设中,合规制度本身都将成为“证明自己没有过错”和满足监管要求的重要组成部分。

九、为企业提出自证合规及留存证据的要求

第二章 第二十九条 自然人撤回处理其个人数据的同意,要求数据处理者删除其个人数据的,数据处理者可以留存告知和同意的证据,但是不得超过其履行法定义务、应对诉讼或者纠纷的必要限度。

第五章 第六十六条 数据处理者应当记录其收集数据的合法来源,保障数据来源清晰、可追溯。

《草案》在保障个人信息主体撤回同意、删除数据权利的同时,也关注到了数据处理者自证合规的现实需求。例如在最近的庞理鹏诉中国东方航空股份有限公司、北京趣拿信息技术有限公司隐私权纠纷案中,法院将证明行为人不存在过错、已履行信息安全保护义务、个人信息的实际泄露方以及泄露的具体环节分配给被告数据处理者,为企业施加了极高的证明责任。因此,我们建议相关数据处理者基于授权同意和匿名化两条合规路径,在个人信息的其他环节寻求用户个人信息保护和留存证据之间的平衡点。

十、充分发挥数据交易所的积极作用

第五十七条 引导市场主体通过依法设立的数据交易平台进行数据交易。

第五十八条 数据交易平台应当建立安全可信、管理可控、可追溯的数据交易环境,制定数据交易、信息披露、自律监管等规则,并采取有效措施保护个人数据、商业秘密和国家规定的重要数据。

第五十九条 支持数据价值评估、数据交易技术研发和数据交易模式创新,拓宽数据交易渠道,促进数据资源高效流通。

在数据孤岛效应显著、数据交易高度不透明、数据黑市交易难以监管的背景下,《条例》提出引导市场主体通过数据交易平台进行数据交易,进而通过数据交易所等平台提升监管的效能、数据交易的安全性和充分发挥数据资源的价值。对数据交易平台而言,《条例》也提出了交易规则制定、技术研发和服务模式创新等宏观的要求,充分发挥数据交易平台在数据资源挖掘和建立互信机制等问题上的独特作用,为数据交易流通注入新的活力。

来源:隐私计算联盟


编辑:王奕
1044#
 楼主| 发表于 2021-6-16 20:42:48 | 只看该作者
【案例】

腾讯告赢国家知识产权局

根据 中国裁判文书网 公布的文件,2018年腾讯公司以损害旗下作品名称“王者荣耀”在先权益为由,请求国家知识产权局对贵州问渠成裕酒业有限公司注册的“王者荣耀”商标予以无效宣告,但被国家知识产权局驳回。

腾讯对裁定不服,将国家知识产权局告到北京知识产权法院,贵州问渠成裕酒业作为第三人参加诉讼。2020年,北京知识产权法院宣判腾讯胜诉,要求国家知识产权局撤销原裁定,重新作出裁定。

国家知识产权局对一审判决结果不服,上诉至北京市高级人民法院。近日北京市高级人民法院宣判,驳回上诉,维持原判。




来源:游戏动力




编辑:王奕
1043#
 楼主| 发表于 2021-6-16 20:35:07 | 只看该作者
【案例】


耶鲁信息法教授:算法社会中的三大法则


内容提要

我们正在从互联网时代飞速走向算法社会,这是一个由算法、机器人和人工智能体围绕社会和经济决策组成的社会。阿西莫夫三大定律具有一定的启发性,但仅适用于科幻小说。人类与机器人的关系,犹如布拉格魔像传说中的“拉比和魔像”。在算法社会中,规制的核心问题不是算法,而是使用算法的人,以及允许自己被算法支配的人。我们需要的不是阿西莫夫定律,而是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则。算法操作者是委托人及终端用户的信息受托人,算法操作者对公众负有责任,算法操作者负有不参与算法妨害的公共义务构成了算法社会中的三大法则。

关键词

算法社会;信息受托人;算法妨害;人工智能



一、弗兰肯斯坦情结

在我孩童时期,我读了艾萨克·阿西莫夫(Isaac Asimov)所有关于机器人的故事。在阿西莫夫的世界里,机器人逐渐融入社会的方方面面,它们与人类有着不同程度的相似性。但随着故事的发展,最先进的机器人在外观和形态上开始非常“人类”。

这些机器人故事中最著名的就是阿西莫夫的三大定律,它将被植入每个机器人的正电子脑中。

这三条定律如下。

第一定律:“机器人不得伤害人类,或者通过不作为而使人类受到伤害。”

第二定律:“机器人必须服从人类的命令,除非该命令与第一定律相抵触。”

第三定律:“机器人必须保护自身的安全,只要这种保护不与第一或第二定律相抵触。”

这三条定律非常有影响力,甚至直到今天,人们还在想象将它们植入到机器人(例如自动驾驶汽车)上会是什么样子,或者这种植入是否有可能实现。

作为一种令人印象深刻的文学手法,三大定律用一种有趣得多的主题取代了人们熟悉的机器人主题。更古老的主题是“弗兰肯斯坦怪物”,或后来变得很邪恶或发狂的杀手机器人的主题。在《终结者》系列电影中,该文学主题的一个例子就是,神经网络(Skynet)变得有自我意识并接管了世界。但阿西莫夫写机器人故事是为了对抗他所谓的“弗兰肯斯坦情结”(Frankenstein Complex)——即机器人天生就具有威胁性或邪恶性——且人类不可避免地会创造出一些机械生物,而这些机械生物又会攻击它们的创造者。事实上,在他的许多小说中,人们一开始对机器人抱有偏见,最终却看到了它们的价值。例如,他几个故事的主角——侦探以利·亚贝利(ElijahBailey)。他最初怀疑机器人,最后却与他的机器人搭档丹尼尔·奥利瓦(R. Daneel Olivaw)成为最好的朋友。

通过设立三大定律,阿西莫夫让事情变得更加有趣。他没有担心机器人最终是否会攻击我们人类,而是提出了另一个律师非常关心的问题,即法律解释问题。当法律不明确或者法律冲突时,我们会做什么?或者在某些情况下,机器人本身会做什么?通过创立这三大定律,阿西莫夫把我们对机器人的想象从威胁转移到了解释和规制的对象,进而转移到了讽刺和冲突的对象。这是一个非常复杂的想法,也是从他的许多小说中发展出来的。

现如今,我们还不清楚我们是否真的能把阿西莫夫提出的三大定律应用到机器人和人工智能体上。毕竟,阿西莫夫的三大定律似乎相当模糊和不完整,可能存在漏洞。

当然,这也是需要重点关注的部分。在阿西莫夫的小说中,一个反复出现的主题是当法律不明确或模糊,或者在某些情况下可能会发生的冲突。因此小说情节往往转向用巧妙的方式来解释或重新解释它们,或者如何解决它们之间的冲突等。在其后期的一部小说中,机器人丹尼尔·奥利瓦(Daneel Olivaw)一开始是个侦探,但最终成为小说中一个非常重要的人物。他变得非常先进,以至于创造了自己的第零定律——“机器人不能伤害人类,或者通过不作为,让人类受到伤害”——这比他在原始程序中接收到的所有其他程序都要先进。

总之,我今天的目标是要问,我们可以利用阿西莫夫关于三大定律的最初想法做些什么。然而,当我谈到机器人时,将不仅包括机器人这种与环境交互的实物,还包括人工智能体和机器学习算法。我认为这与阿西莫夫的观点完全一致。虽然阿西莫夫主要写机器人,但他也写非常智能的计算机。他试图对抗的弗兰肯斯坦综合症(Frankenstein syndrome)可能源于对人工智能或算法的恐惧,也可能源于对实体化机器人的恐惧。今天,人们似乎不仅害怕机器人,而且害怕人工智能体和算法,包括机器学习系统。机器人似乎只是一系列更大问题中的一个特例。

事实上,我们正在从互联网时代飞速走向算法社会。我们将很快回顾作为算法社会先驱的数字时代。我说的算法社会是什么意思?我指的是一个由算法、机器人和人工智能体围绕社会和经济决策组成的社会,这些代理人不仅作出决定,而且在某些情况下,还执行这些决定。因此,机器人和人工智能的使用只是算法社会的一个特例。

大数据也只是算法社会的一个特征。事实上,大数据只是以算法决策为中心的社会的另一面。大数据是运行算法社会的燃料,也是其运作的产物。数据的收集和处理产生了越来越多的数据,而这反过来又可以提高算法的性能。这改变了康德的著名论断:没有数据的算法是无价值的,没有算法的数据是盲目的。

在这次演讲中,我将为算法社会提供新的三大法则。在此过程中,我还将介绍四个重要的理论观点,它们将帮助我们理解该如何监管这些实体。这四个观点是:侏儒谬误(The Homunculus Fallacy)、替代效应(TheSubstitution Effect)、信息受托人(The Information Fiduciaries)及算法妨害(The Algorithmic Nuisance)。随着演讲的进行,我将解释这四个观点。

虽然我的灵感来自于阿西莫夫的三大定律,但是我对于“机器人法则”的描述与他非常不同。

第一,这些法则将不仅限于机器人,它们将适用于人工智能体和算法,包括机器学习算法。当我想把这三个概念放在一起讨论的时候,我会概括地讲一下算法的法则。

第二,当人们在科幻小说中想到机器人时,他们通常会想到独立的实体。但是今天我们知道许多机器人和人工智能体都连接到云端,物联网和家用机器人就是这样。这很可能也适用于自动驾驶汽车。因此,无论“机器人法则”是什么,它们很可能是与互联网相连的云智能法则。

第三,因为机器人是云机器人,我们不应该忘记机器人和人工智能的核心问题之一是数据处理,特别是大数据。没有数据,机器人什么都不是。而且由于许多机器人将成为云机器人,且许多人工智能系统将连接到互联网云,导致它们将严重依赖于数据分析。数据是驱动人工智能引擎的燃料。

因此,当我们谈论机器人、人工智能体和算法时,我们通常也会谈论大数据和互联网连接。就像我们谈论大数据时,我们通常也会谈论机器人、算法和处理大数据的人工智能体的规则。“机器人法则”也是大数据时代的机器人法则、算法法则和人工智能法则。因此,这就是这次演讲的主题。

第四,也许是最重要的一点。阿西莫夫称他的三大定律,不是机器人使用者、机器人程序员或机器人操作者的定律。他的定律是机器人主导的,它们是以机器人为中心的。也就是说,它们是插入到机器人自身代码中的编程指令。这些是机器人必须遵循的定律,而不是机器人的使用者必须遵循的定律。你可以想象这些指令也是人工智能体或算法的一部分。作为对算法机器学习的检查,它们是一种软件方面的约束,就像权利是行为方面的约束一样。

可以肯定的是,人类被要求为每个机器人编写定律程序。但定律本身是针对机器人的,而不是针对人类的。阿西莫夫并没有提到很多关于要求这种程序的人类定律。但是有人认为政府有某种要求,要求每个机器人的正电子脑都要安装这种程序。

在这一点上,我的观点将与阿西莫夫背道而驰。我没有专注于针对机器人的定律(或算法),而是专注于针对那些编程和使用机器人、人工智能体和算法的人的法则。这是因为在新兴的算法社会中,我们需要的不是机器人定律,而是机器人操作者法则。

算法社会的理念是利用数据和算法来治理社会并改善社会,算法社会的抱负是无所不知地了解一切并预测一切。这是一个与人类自身一样古老的抱负,但现在似乎越来越触手可及。

在算法社会,规制的核心问题不是算法,而是使用算法的人及允许自己被算法支配的人。算法治理是由人使用特定的分析和决策技术对人进行治理。

因此,我们需要的不是像阿西莫夫的三大定律那样由机器人主导的定律。而是针对那些使用机器人进行分析、控制和对其他人行使权力的人的法则。



二、人类与机器人的关系:“拉比和魔像”

让我用一个故事来解释这个想法。2014年春天,玛戈·卡明斯基(Margot Kaminski)和我在耶鲁大学法学院教授了第一门法律和机器人学课程。她列出了一个阅读清单,这个清单在我以后的日子里都有用到。在第一堂课上,她选择了一些著名的文学例子,包括阿西莫夫公开三大定律的短篇小说,以及卡雷尔·恰佩克(Karel Capek)1921年的戏剧《机器人》(RUR),它是“机器人”一词的起源。她还选择了某个版本的布拉格魔像传说(The Legend of the Golem of Prague)。根据传说,布拉格的魔像是由拉比犹大·勒夫·本·贝扎列尔(Rabbi Judah Loewben Bezalel)创造的。拉比(Rabbi)是16世纪的一位圣人,因其学识和虔诚而广受尊敬。他利用犹太神秘主义的秘密知识,用泥土创造了一个活物,就像上帝创造了亚当一样。他通过说出一个神圣的名字使魔像复活了。它看起来就像是人类,非常强大,但不能说话。因为正如传说中所说,言语的力量是上帝单独赋予人类的(下次你和Siri说话的时候,想想事情是怎么改变的)。在很多情况下,拉比通过设置魔像来处理犹太社区受到的威胁。在传说中,魔像扮演一个侦探的角色,就像阿西莫夫的丹尼尔·奥利瓦(Daneel Olivaw)。他只要发现有人在诽谤犹太人,就会抓住这个人。完成了他的目的之后,他会回到拉比那里。拉比将同样的秘密咒语倒着念,魔像就变成了一块没有生命的黏土,被存放在犹太教堂的阁楼里。这个故事的重点是什么?这个版本的故事最有趣的地方就是那些没发生的事情。魔像不会发疯,他没有抓错人。拉比的妻子没有发现魔像并且偶然地释放了魔像;拉比的女婿没有用魔像来赚钱;一个不讲道德的人没有训练魔像去做坏事等。事实上,这个故事里没有什么坏事发生,魔像作了它应该做的事情。在某种程度上,这个版本的传说相当无聊。有一些其他版本的魔像传说中魔像出了问题,十分有趣。但是我们从这个故事中得到的最重要的教训是,没有出错的原因在于,魔像是由最虔诚、最有学问的拉比所设计和使用的。只有一个真正正直的人,或者一个圣人,才有能力把魔像用在好的地方。在我看来,这才是这个故事真正的教训。当我们谈论机器人或人工智能体和算法时,我们通常集中在他们是否会造成问题或威胁。但在大多数情况下,问题不在于机器人,而在于人类。为什么问题出在人类身上,而不是机器人?第一,人类设计算法,编写程序,把它们连接到数据库,然后释放它们。第二,人类决定如何使用这些算法,何时使用算法,以及用于何种目的。第三,人类用数据来编写算法,数据的选择、组织和内容包含了早期歧视和不公正的残余。第四,尽管人们常谈论机器人作了什么,人工智能体作了什么,或者算法作了什么,但是这种谈论忽略了一个重要的问题,即这些技术调节着人与人之间的社会关系。技术被嵌入到社会关系中,而且常常掩盖社会关系。当算法内容包含歧视或用于做坏事时,我们总是需要问算法是如何从事再生产和实现人类之间的特定社会关系的。这些社会关系产生并再现了正义与不公、权力与无权、优越地位与从属地位。机器人、人工智能体和算法是产生这些社会关系的装置。通过这些装置,特定形式的权力得到处理和转化。这就是我所说的问题不在于机器人,而在于人类。



三、人类与机器人的不同:侏儒谬误

这就把我带到了先前承诺会在这次演讲中讲到的四个观点中的第一个观点。我创造了一个短语——侏儒谬误(The Homunculus Fallacy),来描述人们对机器人、人工智能体和算法的看法。侏儒谬误是相信程序中有一个小人物在使程序运行,这个小人物有好的意图或坏的意图,并使程序做好的事情或坏的事情。但事实上,算法中并没有小人物,只有编程代码和数据。编程使用这些数据来运行,有好的影响也有坏的,有可预测的也有不可预测的。当我们批判算法的时候,我们实际上是在批判编程或者数据,或者它们之间的交互。但同样重要的是,我们也在批判那些为算法编程、收集数据或者使用算法和数据来执行特定任务的人们对它们的使用。我们批判的是拉比,而不是魔像。那么,这些技术产生和再产生了什么样的社会关系呢?为了解释这一点,我需要介绍这次演讲中四个观点中的第二个观点。这个观点我之前已经提过了,那就是替代效应(The Substitution Effect)。替代效应是指当机器人、人工智能和算法代替人类,并作为特殊目的的人运行时,对社会产生的影响。机器人或算法作为替代品的概念传达了四种不同的思想:(1)替代品在某些方面比原来的更好;(2)替代品在其他方面比原来的更有限;(3)人们认为替代品是活的——信奉物有灵论或拟人论;(4)替代品的行为是对人类和人类群体中权力社会基础的迷恋或偏离。第一,替代意味着优越。机器人、人工智能体和算法比人类和人类决策者更强大、更快捷。他们可以看到事物、做事情、分析事物并作出人类永远无法作出的决定。他们从不厌倦做这些事情,他们没有情感上的干扰,也不会因为做这些事情而感到内疚。第二,替代也意味着限制或不足。机器人、人工智能体和算法的能力有限,他们只能做某些事情,而不能做其他事情。他们缺乏人类判断力的许多特征。第三,替代涉及生命、能动性和意图在程序及机器上的投射。这也鼓励人们利用算法将自己的责任投射到算法本身上,因此也就产生了侏儒谬误。第四,替换涉及迷恋或意识形态的偏离。马克思谈到了著名的商品拜物教。正如古代社会认为图腾是无生命的物体且具有神奇的力量一样,马克思认为市场社会的人们把商品当作有价值的东西来对待,而实际上赋予它价值的是它嵌入了一个社会关系系统的事实。市场是一种社会关系,它既赋予人们权力,又允许人们相互行使权力。适用于市场上的大宗商品,也适用于机器人、人工智能体和算法等技术替代品的使用。这些技术成为个人和群体之间权力的社会关系的一部分。我们不能把魔像和拉比混为一谈。机器人技术的影响总是与人类或人类群体之间的权力关系有关。最近,媒体报道了一个关于选美选手的算法的故事,这个算法偏爱白人。这类故事加深了人们心中算法存在心理偏见的观点。这就是侏儒谬误——在这个算法中,没有一个选美评委会运用他或她的偏见。如果算法采用机器学习,那么就有以前选美比赛的历史、关于选美的文化假设、收集数据的类型和方式、算法采用的代码及修改代码的代码。还有一些人为了特定任务设置了宽松的算法。我们必须永远记住,在魔像背后是制造和使用魔像的拉比(或整个拉比社会)。



四、算法社会的法则

让我总结一下到目前为止的论点。我从阿西莫夫的三大定律开始了这次演讲,我指出这些定律是直接针对机器人和它们的代码的。然后通过魔像的故事,我指出问题不在于机器人,而在于人类。如果是这样的话,这意味着我们真正需要的不是阿西莫夫的定律,而是与机器人设计者和操作者有关的法则。在我们的算法社会中,我们需要的机器人法则是控制和指导人类创造、设计及使用机器人、人工智能体和算法的法则。因为没有数据的算法是无价值的,这些法则还控制着数据的收集、整理、使用、分发和销售,并使这些算法能够运作。

总而言之,我们需要的法则是控制制造和使用机器人的人及与机器人使用数据有关的法则。

这些法则将会是什么样的?回到我的中心观点——在机器人、人工智能体和算法的背后,是人类和人类群体之间的社会关系。所以我们需要的法则是,存在于制定并使用算法的人和受算法控制的人之间的公平交易、不受操纵、不受控制的义务。

人们使用算法对人群进行分类和治理。因为这种关系是一种治理关系,所以涉及的义务是诚信义务、非操纵义务和非支配义务,这些都是指导算法社会的原则。与阿西莫夫的三大定律不同,这些原则不会自动嵌入到机器人中。我们必须确保它们描述了人与人之间的关系并把它们纳入我们的人类社会中,编入我们的法律中。

算法用户对社会负有什么责任?为了回答这个问题,考虑一下算法社会的野心。算法社会的梦想是对社会的无所不知的统治。

野心带来了伤害,除了可能造成身体伤害外,还包括侵犯隐私、曝光、名誉损害、歧视、严格控制(或标准化)及操纵。

算法社会是治理人口的一种方式。所谓治理,我指的是控制算法的人理解、分析、控制、指挥、命令和塑造数据主体的方式。人们使用算法对整个人群进行分类、选择、理解和决策。这种关系不仅仅是一种市场利润关系,也是一种治理关系。

算法社会也涉及信息权力的关系。人工智能很了解你,但你对人工智能知之甚少。此外,你不能很好地监控人工智能体或算法做什么。在运行者和被治理者之间存在权力不对称和信息不对称,这种不对称是算法社会的核心特征——这是算法社会的公共和私人管理者与受他们管理的对象之间的知识和权力的不对称。

什么是算法社会的三大法则?或者更准确地说,什么是算法社会的法律原则?它们是公平治理的三项原则。

(1)就委托人、顾客和终端用户而言,算法用户是信息受托人(TheInformation Fiduciaries)。

(2)对于那些不是委托人、顾客和终端用户的用户,算法用户有公共职责。如果他们是政府,这就是他们作为政府的本质。如果他们是私人行为者,他们的生意会受到公共利益的影响,正如宪法律师在20世纪30年代所说的那样。

(3)算法用户的公共责任是避免其操作的成本(危害)外部化。算法决策的危害,最好的类比不是有意的歧视,而是社会不公正的污染。透明度、可解释性、正当程序和问责制的义务来自这三个实质性要求。透明度和它的“兄弟”——正当程序、问责制和可解释性——以不同的方式应用于所有这三项原则。

问责制、透明度、可解释性和正当程序可能是信托义务,它们可能遵循公共职责。并且它们可能是一种预防措施来防止不合理的伤害外化,或为伤害提供补救措施。

让我依次讨论这三个法律原则。



五、第一法则:算法操作者是委托人及终端用户的信息受托人

为了讨论第一法则,我介绍了另一个我承诺在本次演讲中会提到的关键概念。这就是信息受托人(The Information Fiduciaries)的概念。该概念是我在以前工作中提出的。要理解什么是信息受托人,我们首先应该问,什么是受托人?受托人的例子包括医生、律师等专业人士,以及管理不动产或他人财产的人。一个人能成为受托人的原因是人们依靠他们提供服务。但受托人与委托人之间在知识和能力上存在着明显的不对称,委托人无法方便地监督受托人代表其所做的事情。因此,法律要求受托人以值得信赖的方式真诚地行事,避免与委托人或病人产生利益冲突。受托人经常收集委托人敏感的个人信息,这些信息可能会对委托人造成损害。因此,法律要求他们保护委托人的隐私,不得以伤害委托人的方式泄露信息。当受托人收集和处理委托人的信息时,我们可以给他们起一个特殊的名字,即信息受托人。大多数作为受托人的专业人士也是信息受托人。

受托人有两项核心职责,第一是注意义务,第二是忠诚义务。注意义务是指受托人必须合理谨慎地行事,避免伤害委托人或病人。忠诚义务意味着受托人必须避免与他们的委托人或病人产生利益冲突,必须照顾他们的利益。忠诚义务要求的程度取决于受托人和委托人之间关系的性质。

数字时代创造了一系列新的实体,它们有许多类似于传统受托人的特征。它们包括像谷歌(Google)、脸书网(Facebook)和优步(Uber)这样的大型互联网企业。这些企业收集、整理、分析和使用与我们有关的信息。事实上,它们收集了大量关于我们的信息,从理论上讲,这些信息可能被用来损害我们的利益。这些业务成为我们日常生活中相当重要的一部分,甚至在某些情况下是不可或缺的。企业和终端用户、委托人之间的知识也不对称。互联网企业对我们了解很多,我们对它们的运营却知之甚少。它们把自己的内部流程视为专有的,避免竞争对手的窃取。与此同时,这些企业试图向他们的终端用户保证,它们将尊重用户的隐私并且不会背叛用户的信任。用弗兰克·帕斯奎尔(Frank Pasquale)的话来说,因为它们是一个黑匣子,大多数人只能相信它们。

我认为像这样的企业有许多传统受托人的标志,它们收集我们的信息、监视我们,但我们却不能轻易地监视它们。我们变得依赖它们且容易受到它们的伤害,以至于我们必须信任它们。传统上,这种关系决定了受托人的地位。因此,我认为这些企业对终端用户负有值得信赖的法律义务,它们是信息受托人的数字时代版本。

然而,数字时代信息受托人的职责与作为受托人的医生和律师的职责不同。他们提供的服务种类和他们创造的合理信任种类,使他们受到更多限制。

首先,不像医生和律师,个人数据货币化是许多网络服务公司的核心,因为这能资助他们所提供的服务或免费提供的服务。仅仅收回费用或从这些信息中获利本身并不违反他们的受托责任。

其次,许多网络服务提供商,比如搜索引擎和社交媒体网站,之所以能够盈利,是因为终端用户能够提供源源不断的内容和链接。因此,与传统的专业人士不同,这些公司有兴趣让人们尽可能多地展示自己,或者在其他方面尽可能多地公开表达自己。以便他们的活动产生内容和数据,供公司索引和分析。

最后,人们期望医生做的远远不止是不伤害他们。人们还期望医生会照顾他们的利益,警告他们健康、饮食等方面的潜在风险。但人们却并不期望他们的网络服务提供商、搜索引擎和社交媒体网站有如此全面的照顾义务。

由于这些差异,数字信息受托人应该比传统的职业受托人,如医生、律师和会计师,有不同的、更少的义务。他们是特殊目的的信息受托人,对他们施加何种责任是合理的,应取决于他们提供的服务的性质。

数字信息受托人的核心义务是他们不能像骗子一样行事。不能诱使终端用户信任他们以获取个人信息,然后以背叛这种信任的方式使用这种信息,这不利于终端用户的利益。互联网企业不应该自称提供数字安全和尊重数字隐私,然后操纵和歧视其终端用户;也不应该将其终端用户的数据出售或分销给不遵守类似照顾和诚信义务的公司。

目前的法律并没有像对待受托人那样对待这些互联网企业,但我认为应该这样做。法律应该将受托义务扩展到这些公司,并明确互联网企业对其客户和终端用户的义务。

现在想想家用机器人和智能房屋。家用机器人和智能房屋收集了大量关于我们的信息,从理论上讲,这些信息可以与存储在云中的许多其他人的信息进行比较。换句话说,家用机器人和智能房屋不仅仅是独立的产品。它们始终是互相连接的云实体,依赖并贡献于巨大的数据库。虽然我们可能会开始信任家用机器人和智能房屋,但事实上我们真正需要信任的实体不是机器人或房子。机器人和房子背后的公司,负责从机器人和房子的传感器收集数据,我认为这种类型的公司应该是信息受托人。

换句话说,受托责任的主体不是机器人,而是制造、安装、销售和操作我们家里机器人的公司。对我们负有信托义务的是拉比,而不是魔像。

因此,算法时代的第一法则是,那些使用机器人、人工智能体和算法的人对他们的终端用户和客户负有诚信和值得信任的义务。无论企业或实体在提供服务时是否使用机器人、人工智能体或机器学习算法,受托责任都适用。

家用机器人和智能家居就是明显的例子——法律并未将受托义务扩展到机器人和房子背后的公司。其他的例子可能是像爱彼迎(Airbnb)、优步(Uber)、OK丘比特(OKCupid)、默契网(Match.com)及基因和我(23andMe)这样的服务。重要的是,企业会在各种情况下诱导信任和收集我们的个人信息,并且可能以背叛我们的信任或制造利益冲突的方式使用这些信息。

早些时候,我注意到信托义务的典型例子出现在专业领域。事实上,机器人、人工智能体和算法可能越来越多地应用于传统受托人的传统业务中。这些受托人包括医生、律师、会计师和基金经理。联邦政府最近通过劳工部发布了新规定,将处理退休账户的投资顾问视为受托人。反过来,这些顾问越来越多地转向人工智能和算法来完成他们的工作。

信托义务的概念也延伸到政府,它们在日常功能中使用机器人、人工智能体和算法,包括提供社会服务。政府对其管理的人民负有关心和忠诚的责任。



六、第二法则:算法操作者对公众负有责任

因为政府对其管理的人民负有信托义务,所以使用算法的政府和公共实体是其管理的人民的信息受托人。那么私人行为者呢?正如我们所看到的,一些私人行为者是针对其客户、病人和终端用户的信息受托人。但并非所有使用机器人、人工智能体或算法的私营互联网企业都是信息受托人。或许同样重要的是,受托责任通常只适用于企业的委托人和终端用户,而不适用于整个公众。因此,信息受托人的概念不足以解释使用算法、人工智能体和机器人的私营企业的各种义务。在运营过程中使用算法的企业,仍然可能对那些既不是他们的委托人也不是他们的客户的人造成伤害,而且他们与这些人没有合同关系。例如,雇主决定是雇人还是借钱给他们——也就是说,与他们签订合同关系——并且将信用报告给为我们在网上建立声誉的公司,其他人会雇佣我们。如果我们简单地排除所有影响人们但与他们没有合同关系的企业,我们就是在重复20世纪初出现的一个问题。在现代工业经济中,企业生产出大规模生产的商品,而这些商品不再销售给与他们直接签约的消费者。相反,一连串的中间商把这些商品推向了市场。以合同相对性为基础的消费者保护措施,不能适应新的经济现实。因此,从1916年卡多佐在麦克弗森诉别克汽车公司案(MacPherson v. BuickMotorCo.)中的著名裁判开始,法院废除了相对性规则,认为制造商有公共义务。不仅对直接从中间商手中购买产品的消费者负责,而且对他们的家庭成员和因缺陷产品而受到伤害的旁观者负责。如果我们要阐明算法社会的规则,我们需要像麦克弗森诉别克汽车公司案(MacPherson v. Buick MotorCo.)式的案例。亦即我们需要认识到,算法的使用不仅会伤害所服务的终端用户,还会伤害社会上的许多其他人。例如,乔纳森·齐特林(Jonathan Zittrain)指出,脸书网(Facebook)可能会利用其终端用户的数据来操纵他们,从而影响全国大选。如果这种情况真的发生,不仅会影响到拥有脸书网(Facebook)账户的人,还会影响到全国的每一个人。同样,当公司在高速交易中使用算法时,他们可能引发市场崩盘。这不仅影响到与他们交易的人,而且影响到这个国家的每一个人,甚至影响到全世界。因此,当公司雇佣机器人、人工智能体和算法时,他们对公众负有责任。但是我们无法用对客户、病人和终端用户的信任的违背,来描述他们未负起对公众的责任。那么,如果这些义务不是以背叛信任为前提的,它们又是以什么为基础的呢?这就引出了算法社会的第三法则。



七、第三法则:算法操作者负有不参与算法妨害的公共义务

算法妨害(TheAlgorithmic Nuisance)是什么意思?在这里,我将气味、烟雾、声音、毒物及污染等私人和公共的妨害进行类比。传统上,这些危害与使用(和滥用)不动产有关,但近年来这一概念已扩大到范围更加广泛的伤害。私人妨害对相对较少人群的公认合法利益造成损害,公共妨碍对无限人口造成损害。是否采取行动减少这种妨害,由州当局决定。在另一种选择中,政府必须决定是否创建一个类似于消费者或环境保护的政府监管计划。

显然,我并不是说算法的危害是传统的普通法意义上的伤害。我更不是说算法上的损害是对私人使用和享受不动产的非侵入性侵犯。相反,我认为考虑这些伤害的最佳方式是通过类比于妨害侵权行为。

为什么我要把算法带来的危害类比为妨害?我这样做有三个原因。第一个是侏儒谬误(The Homunculus Fallacy)。我们不能说这个算法本身有什么不好的意图。相反,这个算法被人类使用以实现一些特定的管理目标。但是在这个过程中,最终伤害了不同群体的人。其中一些受害者很容易识别,但对另一些受害者的伤害则更为分散。

本质上,我们谈论的是计算能力的社会不公正使用,将成本外部化到无辜的其他人身上。在侵权法中,我们可以称这种外在化为公害或私害。事实上,在最近一篇关于如何规制算法警务的文章中,安德鲁·塞尔贝斯特(Andrew Selbst)认为,适当的补救措施是要求警察局制作类似于环境影响声明的歧视影响声明。算法歧视的特点是无论是使用程序的官员还是程序本身,都不容易被识别为恶意,这个算法没有目的、需求或欲望。这就是侏儒谬误。算法中没有一个小人物在指挥它。因此,基于反应优越理论对算法操作者的责任进行建模是无用的,尤其是一个自学习算法。我们不能把算法的意图、疏忽或恶意归咎于操作者。

相反,我们必须关注使用特定算法的社会影响,以及从整个社会的角度来看,这种影响是否合理和正当。与其将其类比于刑法或反歧视法中的差别待遇法,最好的类比是妨害和环境法。

将这个问题类比为妨害的第二个原因是,算法的危害是程度问题。此外,算法妨碍的危害源于数据整理、分析和决策对人们数字身份的累积影响。

塞尔贝斯特(Selbst)指出,算法歧视造成的危害并不适合简单的是或否的二元分类。也就是说,要么你已经歧视了,要么你没有歧视。相反,在设计过程中,以及在程序员如何编程算法要解决的问题时,都存在不可避免的权衡。可能难以确定用于衡量算法运行情况的非歧视性行动的基线,而且可能难以甚至不可能将算法运行的影响孤立到单一原因。归根结底,相关的问题是你是否对无辜的第三方强加了太多不合理的成本。算法歧视就像污染一样,是一个程度问题。

将该问题类比为妨害的第三个原因是,它帮助我们理解算法社会的危害是如何由公共和私人行为者的累积决策和判断产生的。公司和政府使用大数据和算法作出判断,构建人们的身份、特征和关联。这些身份和特征的数字结构,影响着人们的就业机会、信用、金融就业机会和职位。它们还塑造了人们的脆弱性——对于不断增加的监视、歧视、操纵和排斥。公司和政府从多个来源收集人们的数据,并对这些数据进行处理,以生成新的数据。在数据处理和决策过程中,公司和政府促进了人们数字身份、特征和联系的累积构建,而这些又反过来构建了人们未来的机会并塑造了他们的脆弱性。

其他公司则建立在这些数据、分数和风险评估的收集,以及由此产生的特征、联系和身份的数字结构之上。公司和政府在新的判断背景下创造性地利用所有这些信息,产生新的见解、判断和预测。通过这种方式,人们的生活受制于一系列算法判断,这些算法判断随着时间的推移塑造身份、机会和弱点。想象一下,如果你愿意,你的数字身份就像一个信息流,不断有新的判断、得分和风险评估被扔进这个信息流。

随着越来越多的企业参与到数字身份塑造的集体过程中,这种大量的判断愈发多地塑造着人们的生活。它可能以机会受限和脆弱性增强的形式,将一系列不合理的社会成本转嫁到人们身上。算法妨害的概念试图捕捉这些对个人的影响,因为公共和私人行为者将越来越多的判断放入代表个人的信息流中,并用于判断、分类和控制他们。

因此,我们今天面临的核心问题不是有意的歧视,而是对身份和机会的累积伤害。随着决策者利用多种数据来源来构建人们的数字身份和声誉,在警务、就业、住房和获得信贷等领域反复普遍地使用算法,将对全体居民产生累积效应。

在某些情况下,危害可以追溯到如代码错误、不合理的假设或有偏见的数据等粗心的编程和操作。或者,它可能是由于不合理地使用算法、数据源、过时的分级和分类所造成的。但是在许多情况下,程序员和用户可以貌似合理地声称他们的初始模型是合理的,给定手头的任务、分析的数据及模型的背景假设。即便如此,随着时间的推移,将决策权交给算法将可以预见地对个人和特定群体的成员造成广泛的危害。

一个核心问题是,身份,即具有积极和消极特征的人之间的联系,是如何在算法社会中构建和分布的。决策者不仅通过制定自己的算法判断来节约决策时间,而且还通过引入其他各方已经作出的关于人的特质、可信度和声誉的算法判断来节省决策时间。信用评分是一个简单的例子,但它们只是算法社会随着时间推移所能完成的工作的一个原始例子。

与其从头开始开发自己的评分算法,决策者可以通过使用其他算法在不同环境和不同目的下已经创建的评分和判断来节约成本,并修改和更新它们,以满足自己的需要。算法社会的一些最重要的见解,来自重新思考如何将为一个目的收集的数据,用于阐明起初看起来不相关的现象或问题。

公司专门收集、整理和分发人们的身份信息给其他决策者,这些决策者将他们的决定添加到不断增长的数字流或档案中。这意味着人们的特性,包括积极和消极的特征,是通过许多不同的数据库、程序和决策算法的交互作用来构建和分布的。通过这种方式,人们通过算法构建的身份和声誉可能会在社会上广泛普遍传播,从而增强了算法决策在他们生活中的影响力。随着数据成为决策的共同资源,它构建了数字声誉、实际机会和数字脆弱性。

在数字世界,关注蓄意侵权行为或者忽视算法的构建和监督可能是不够的。相反,侵权行为法理论中最好的类比可能是由于社会不公正的活动水平而产生的社会成本。活动水平的提高会导致社会成本的增加,即使活动是在适当小心的情况下进行的。即使假设公司行使应有的谨慎(当然,可能并不是),活动增加的累积效应仍可能对社会其他部分造成过大的伤害。这些都是妨害的典型情况。

当企业采用新技术以增加活动水平时,活动水平的提高和社会成本的增加可能会出现。在这种情况下,转向算法决策这种新技术,可以让政府和企业作出更多决策,从而更普遍、更廉价地影响更多人的生活。算法社会增加了分类、分级和决策的快速性、范围和广泛性,这样做也增加了分类、分级和决策对人类生活的副作用。这些副作用类似于工厂活动增加造成的污染水平的增加。

可以肯定的是,伤害不是一方就能构成的,受害方的行动也构成了算法决策的社会成本。那么,或许我们也应该激励公民减少自己暴露在算法判断的副作用面前。但是在算法社会,受害方不能轻易地避免找工作、住房、医疗保健和参与日常生活的寻常事务。在算法社会,人们扔掉数据,这些数据稍后将被用来判断他们是否生活在数字世界中。人们也不能轻易地缩小规模以避免算法判断的危害。集体行动问题是巨大的,更不用说获取有关他们处境的信息的成本了。在算法社会,人们的数字身份是由许多不同的参与者产生的,他们的数字身份流向各种各样的决策者,而决策是由人们知之甚少的实体作出的。

如果我们把它类比为妨害,那么第三法则就是,算法操作者有责任不让公众“污染”。也就是说,不合理地将算法决策的成本外部化给其他人。正如向工业社会的转变可以预见社会污染数量的增加,向算法社会的转变可以预见数据收集、计算和算法判断的副作用的增加。

这些代价或危害是什么?考虑一下算法社会带来的一些最常见的危害。我要强调的是,这些伤害是在传统的身体伤害之外的。比如自动驾驶汽车或工业机器人造成的伤害,以及监视和曝光造成的高度伤害。

(1)对声誉的危害——算法影响声誉主要有两个方面,第一是分类,第二是风险评估。算法通过给你和其他像你这样的人贴上危险的标签来影响你的声誉。也就是说,对你来说,成为你自己意味着某种风险或倾向。在不同的情况下,风险表现的方式会有所不同。它可能包括这样的想法,如你(或者居住在某个特定地区的人)创造了金融风险、就业风险、未来犯罪的风险、花费大量社会服务的风险、退货风险或成为昂贵客户的风险、因为你不会买任何东西而浪费广告费用的风险等。在这种情况下,算法伤害是指你是一个有风险的人,这是一种耻辱。

风险评估通常伴随着分类。算法通过将你放在一个类别或层级中来影响你的声誉,这不一定是风险评估。该算法构造你所处的组,并通过这些组了解你,因此可能会对你进行操作。分类可能会影响你的声誉,而无须对风险进行评估。因为它说明了你是什么样的人,以及你被当作什么样的人对待(而且,含蓄地说,比某些衡量标准更好或更差)。

(2)歧视——由于风险评估或分类工作,使用该算法的企业拒绝给你提供它为其他人提供的机会(信用卡、贷款、工作机会、晋升)。或者它增加了特殊成本(容易被拦截和搜身、监视、更高的价格、排除枪支拥有权或进入航空旅行等),它不强加给其他人。

(3)标准化或系统化——这种算法使你将它的分类和风险评估内化,从而使你改变自己的行为,以避免被监视或被归类为有风险。它使你改变自己的身份、行为或个人自我表现的其他方面,以便看起来对算法的风险较小,或者归入不同的类别。在另一种情况下,你会从事算法不注意的行为。

(4)操纵——人类和组织可以使用算法来引导你和其他像你一样的人作出(或多或少)可预测的选择。这些选择对算法操作者有利,但不会提高你的福利,实际上可能会降低你的福利。此外,算法分析使公司更容易发现哪些人最容易受到操纵,以及他们如何最容易和有效地被操纵。

(5)缺乏正当程序/透明度/可解释性——该算法作出的决定会以上述方式之一影响你的福利,但不具有透明性、可解释性、用外行的术语解释输入和输出、监视其操作的能力、提供反驳的方法或使算法负责的方法。

我们可以这样总结这个讨论:算法通过(a)分类和风险评估来(b)构建身份和声誉,为(c)歧视、标准化和操纵创造机会,而没有(d)足够的透明度、问责制、监督或正当程序。

这些伤害与算法妨害的概念有什么关系?这些危害是计算机化决策的副作用。它们是算法活动的社会成本。

算法的普遍采用极大地提高了我们生活中计算决策的水平和普遍性。算法的使用为决策者节省了金钱,因此从个体企业或决策者的角度来看可能是合理的。但在这个过程中,它可能会对个人和群体造成累积伤害。

例如,设想一组用于识别潜在雇员的算法。该算法可能足以用合格人员填补少量可用的空缺,但它排除了大量同样合格的人员,(在这种情况下,我们会说它产生了很少的假阴性但是出现了很多的假阳性)。即便如此,该算法使用和产生的数据及声誉得分,可能会输入其他人使用的数据库。其中不仅包括未来的雇主,还包括在许多其他情况下运作的许多其他决策者。或者想象一个警务算法,把警察派到警察已经逮捕过人的社区,从而强化了该地区犯罪率特别高,需要额外的警察监视的观念。

算法社会的意义在于增加决策的机会、速度和成本效益。公司使用算法来节省资金,并且大规模地执行重复的任务和计算,这些任务和计算对于人类来说是极其昂贵甚至是不可能完成的。这使得公司能够提出以前无法回答的问题,并作出以前制定和采纳成本极其昂贵的决定。

这种现象(更多种类的决策以更低廉的成本作出)只是机器人普遍具有的替代效应(The Substitution Effect)的另一个例子。我们用算法法官和计算器代替人类法官和计算器。但是算法的选择、类别的选择、收集的数据种类以及数字特性的分布式创建和维护都会产生社会成本,这些成本的负担会转移到其他人身上——转移到一般人身上,或转移到特定的群体,如穷人或少数群体身上。

在处理算法的危害和算法的歧视时,我们的目标不是找出不好的意图。以这种方式提出这个问题是侏儒谬误的又一个例子。相反,随着越来越多的公司转向算法决策,并提高其决策活动水平,其目标是要求公司采用从整个社会的角度来看是合理的方法。正如在公共妨害的情况下,国家必须决定如何最好地使企业将其成本内部化。

弗兰克·帕斯奎尔(Frank Pasquale)还指出,在某种程度上,我们使用这种算法妨害的方法,我们必须能够识别使用这种算法的个人或组织,他们给社会其他部分带来了损失。也就是说,算法必须被设计出来,这样我们才能知道哪些个人或组织在使用它们。魔像必须可以追溯到一个或一群拉比。在一些情况下,如金融、就业、警务,识别用户并不困难,因为使用该算法的组织会自我识别。但在许多情况下,算法及其使用的数据将由许多组织共同构建。在某些情况下,算法决策是由匿名或用假名的人士和组织作出的。然后,为了执行公共职责,法律将不得不要求公开谁是这个算法的幕后推手。



八、结论

对机器人和人工智能的希望和恐惧从最早的文学时代就一直伴随着我们。即使在今天,新闻工作者写的故事也会引起人们对失去控制的机器人、算法和人工智能体的恐惧,认为他们很快就会占领我们的世界。我这次演讲的目标是提供一个纠正的思路。我认为算法社会中机器人、人工智能体和算法本身是存在危险的,但真正的危险始终存在于那些使用这些装置并利用它们影响、控制和操纵他人的组织和企业中。如果我们都像拉比一样虔诚,我们就不必害怕魔像了。因为我们不是虔诚的拉比,所以我们需要学习如何约束自己。


来源:法学学术前沿




编辑:王奕
1042#
 楼主| 发表于 2021-6-16 20:27:26 | 只看该作者
【案例】


姚佳:论个人信息处理者的民事责任

摘要:在个人信息保妒中,“个人—个人信息处理者”形成了法定的两造主体关系。“欧洲标准”的数据隐私立法正在成为世界其他国家数据隐私法的标准,欧盟立法呈现出“信息自决”的法观念历史脉络,其应有之意是个体能够决定对自身信息的使用,即产生一种”控制”。与GDPR规定的主体不同,中国法仅创设和保留了“个人信息处理者”这一主体,其在实质意义上吸收了信息控制者这一主体概念。对于个人信息处理者侵害个人信息权益应承担的民事责任,《个人信息保护法》(草案二审稿)》规定了过错推定责任,但仍有完善空间,诸如是否根据不同主体、不同行为与不同信息类型而区分无过错责任与过错推定责任。个人在个人信息处理活动中享有以知情权为核心的一系列权利,个人信息处理者对包括知情权在内的个人权利的侵害,亦应承担相应的民事责任,法律应予明确。


关键词:个人信息保护;个人信息处理者;信息自决;知情同意;民事责任




现代科技对人们的行为方式产生较大影响,有如波兰尼(KarlPolanyi)、格兰诺维特(Mark Granovetter)的“嵌入”理论,科技正在以绝对强势地位嵌入、颠覆乃至重塑人类的行为模式。在经济迭代与规模化的平台经济出现以后,即便是“原子化”的个体也别无选择,只能主动或(更多是)被动地卷入其中。尽管个体从事的活动各异,但却都存在自身信息被收集、利用与存储等事实,如何保护此种处于“静态”或“动态”的个人信息以及如何规制信息相关主体的行为,成为信息时代面临的一个重要议题。根据谷歌书籍词频统计器(Google Book Ngram Viewer)显示,“个人识别信息”(personallyidentifiable information)自1992年开始就成为一个越来越流行的术语。围绕个人信息是否具有“可识别性”,将个人信息与人、人格、财产等基本命题在事实上与逻辑上紧密联系起来,并在相当程度上推动了世界范围内个人信息保护的立法热潮。


中国近年来在制定或修订相关法律之时都十分重视个人信息保护问题。2020年5月通过的《中华人民共和国民法典》在人格权编中专门规定了个人信息保护,首开世界范围内民法(典)或私法中特别规定个人信息保护之先河,此举在世界私法史上亦可圈可点。酝酿了若干年之后,2020年10月《个人信息保护法(草案)》的推出,更将中国的个人信息保护推至高潮。中国的个人信息保护立法相较于世界其他国家和地区,所处时代背景与发展阶段皆不相同,因此所面临的难题与所要解决的问题也不尽相同。尤其在“个人—个人信息处理者”之两造关系中,以“可识别性”为个人信息的核心构成,更使得相对方主体的一系列义务与保护的“开关”始终处于“打开”状态。鉴此,观察个人信息处理者的法律责任十分重要,此种法律责任,或可构造为一定体系,或可在不同“横截面”构造为一定“子体系”,并在相当程度上成为完善个人信息权利体系之重要的“反作用力”,殊值重视。

一、个人信息处理者的界定


由个人信息的产生、传递与流动的本质特征所决定,与个体发生联系的若干主体可抽象概括为“信息控制者”与“信息处理者”。世界范围内,隐私与个人信息立法以美国和欧盟为基础标杆,其他国家和地区分别在不同的法域之内紧跟或对标相应立法。美国和欧盟二者之间事实上也形成一种个人信息保护立法的竞争局面。而正如格林里夫教授(Graham Greenleaf)所指出的,美国隐私法在世界上的影响力远不如欧洲数据隐私法的影响力,可以合理地描述为“欧洲标准”的数据隐私法正在逐渐成为世界其他国家相关立法的标准。中国作为深受大陆法系法律理论影响的国家,在个人信息保护立法的观念与制度上也一定程度上受到欧盟立法的影响。然而吊诡的是,中国法恰恰在个人信息基本主体概念上与欧盟颇为不同,《民法典》历次草案与正式文本以及《个人信息保护法(草案)》中的个人信息相关主体的表述均不相同。对这一基础主体概念的不断修改,反映出立法者对个人信息处理活动的认识不断加深并逐渐体现出立法的着重面向。然而,对于基本主体概念的规定,并非单一的法技术问题,而关涉立法者对于社会事实的认识、对法观念的总结提炼以及能否实现立法的前瞻性等诸多问题,不能简单视之。既如此,认识与界定个人信息处理者,是个人信息保护立法与解释的基础工作之一。



(一)信息控制者vs.信息处理者



对于事物概念的确定,既是一个认识事物本质的过程,同时也是一个思维形成的过程。黑格尔在说明概念与事物之间的关系时认为,“当我们要谈论事物时,我们就称它们的本性或本质为它们的概念,而概念只是为思维才有的”,“我们的思维必须依照概念而限制自己,而概念却不应依我们的任意或自由而调整”。在立法概念选择的时候,立法者依然面对如何认识事物和如何选择概念的双重难题。


中国的个人信息保护立法,也同样面临上述认识与选择的方法论难题。中国在制定《民法典》和《个人信息保护法(草案)》的个人信息保护规则之时,在法技术层面不同程度地借鉴欧美国家的经验。然而,正如施瓦茨(Paul M. Schwartz)和索罗夫(Daniel J. Solove)所言,“美国和欧盟在隐私法方面分歧很大。在基本层面,二者的基本理念哲学不同:在美国,隐私法的重点是救济对消费者的损害以及平衡隐私与高效的商业交易之间的关系;在欧盟,隐私权被认为是一项基本权利,可以凌驾于其他利益之上。甚至在确定信息立法调整范围的边界等问题上,美国和欧盟的做法也完全不同。个人信息的存在——通常被称为‘个人识别信息’——触发了隐私法的适用。”美国关于隐私权理论探索较早,对世界产生较大影响,如何界定个人信息,在美国法上经历过较为激烈的讨论。主要通过三种方式界定个人信息,包括:同义反复(tautological)、非公开(nonpublic)以及具体类型(specific-types)。后来经不断发展,美国法上系将隐私权与个人信息保护等统一归至隐私法这一笼统概念之中,与欧洲的人格权理论与个人信息保护理论的“二分法”截然不同。相较美国法,欧盟立法相对更为清晰,这也就是为何欧盟的个人数据保护法更易于“输出”并成为较为通行的“世界标准”的重要原因之一。


从中国目前对于《民法典》个人信息保护的解释论和《个人信息保护法(草案)》的立法论角度来看,中国个人信息保护立法一定程度上参考借鉴了欧盟相关立法,包括一些基本规则和权利义务体系等方面。然而,如本文所讨论的,实证法恰恰并未将个人信息保护中涉及的关键主体——信息控制者——这一概念纳入。事实上,信息控制者并非一个简单的概念选择问题,也并非一个比较法意义上的形式上的“规则借鉴”问题,而是涉及对于个人信息保护活动通盘理解的问题。


“控制者”这一概念,主要应依循欧盟立法的脉络来理解。“控制者”(controller)最早见诸于《欧盟95/46/EC指令》(1995年10月),后在欧盟2012年拟议的《一般数据保护条例》(General Data ProtectionRegulation, GDPR)以及2016年通过的《一般数据保护条例》(GDPR)中延续使用。施瓦茨和索罗夫曾指出:“事实上,从欧盟95年指令开始,欧盟立法就已经为数据主体提供了对于他们自身数据使用的一种控制权。”而此处所谓的“控制权”,又与大陆法系典型国家的“信息自决”理论紧密相联。德国《基本法》第2条第1款确定了人格自由发展的权利。而个人信息对于人格构建和发展具有决定性的意义,“信息自决”(informationelle Selbstbestimmung)则是实现对个人自由发展的重要方式。此种信息自决观念将个人信息与人格权有效联系起来,并进而影响了个人信息保护的法律建构。


“信息自决”应有之意是个体能够决定自身信息的使用,即产生一种“控制”。殊值辨识的是,以“信息自决”为出发点的对个人信息的“控制”并不等于对个人信息的“控制权”,由于权利本身包含一种实践面向,而个人事实上无法享有对个人信息的绝对性、排他性的(全程)控制权,因此前述施瓦茨和索罗夫的观点也有不周延之处。当然,他们对于欧盟个人信息保护法的特征总体上有较好的把握与判断,这也就在相当程度上解释了,由于个人信息的产生、传递与流动等特征,当信息流动到与个体相对的主体,并由该主体进行“控制”之时,由于个体享有“信息自决”而并未丧失自己对信息的“延伸控制”,“控制”理念贯穿始终。比如,个人享有知情权,即“可以在一定程度上控制关于收集到的他们的数据的去向”。个人信息保护立法以“控制”为核心贯穿以个人信息为客体的一系列行为,当个人信息“脱逸”个体之后,能够控制信息的主体则是事实上占有信息的“控制者”。这也就是为何在欧盟《一般数据保护条例》中,信息控制者才是与个人直接相对的义务主体,而并非信息处理者。而控制者的核心活动与其主要活动有关,而与作为辅助活动的个人数据处理无关。在控制者客观控制数据的基础上,又进一步发展出“目的限制”原则,允许控制者评估为最初收集数据的目的以外的其他目的处理个人数据是否享有这样的依据,而这种依据并非基于法律或数据主体的同意。


在欧盟法的脉络下,信息控制者的概念绝非仅依立法而产生,而系与欧洲法长期关注与持续发展人格自由、信息自决等法思想、法理念紧密相关。信息处理者则是为了数据控制者而处理个人数据的主体,其行为与活动虽然具有相对独立性,也并非控制者的附庸,但在地位与角色上确实无法与控制者相提并论。二者的关系既反映出欧盟法的特色,同时也体现出个人信息活动本身的核心特征。反观中国法,遗憾的是,“信息控制者”这一概念在《民法典》制定过程中仅“昙花一现”,最终并未进入正式文本之中,这就有必要在中国法的“偶然”与“必然”之中进一步解释个人信息处理者的内涵,及其所辐射的制度脉络以及所反映的制度意旨。



(二)中国立法演进中的“个人信息处理者”



黑格尔认为,考察存在和本质的客观逻辑,真正构成了概念发生史的展示。客观而言,中国确实不存在如欧洲国家的信息自决观念的历史影响,因此即便是抛却已有概念,转而选择创设全新概念,也未尝不可。问题的关键在于,基本概念应起到贯穿制度核心脉络的作用,或重塑制度自身特征的作用,只有有意识循此设计制度,才能实现制度初衷,否则将会使制度变得空洞而无法实施。信息相关主体在历次法律草案与规范性文件中的表述,几无统一者,而最终《民法典》中改称“信息处理者”的表述,或有突袭之感,这也给如何解释信息处理者的地位与作用带来一定困难。


表:法律法规、规范性文件中的信息相关主体



从目前已公开的官方立法资料来看,对于上述概念变化并无特别说明。从概念表述与体系解释来看,大致可从以下几方面理解与建构:


第一,“信息处理论”吸收“信息控制论”。从概念使用来看,在制定法并未采用信息控制者这一概念之时,而仅使用信息处理者这一概念。通过体系解释,“信息处理论”表达为一系列客观的处理方式以及个人信息处理者的自主决定权利,这实际上也涵盖了包括有决定能力的控制者的一系列行为。立法阶段的终结,使信息处理者这一概念成为一种既定事实,后续研究和实践也只能在此基础上进行解释。


第二,非控制论之下的“信息自决”的贯穿。欧盟法脉络下的人格、信息自决与个人信息控制之间存在观念上与逻辑上的联系。尽管中国法并未选择以控制者为核心的“信息控制论”,但是无论是解释《民法典》的相关规定还是《个人信息保护法(草案)》一审稿与二审稿第44条中明确规定的“个人对其个人信息的处理享有知情权、决定权……”,已经较为明确地规定了“信息自决”或“个人信息自决权”。可见,即便立法选择了“信息处理论”或非控制论,但也仍然是选择了“信息自决”这一法价值,之后的法律体系构建或规则创设也仍然遵循此价值。


第三,跨法系基本概念的对话基础。欧盟个人数据保护立法在某种程度上作为一种“国际标准”,信息控制者也基本上成为一个通行概念,而中国立法之时仅选择使用信息处理者这一概念,这就带来一个国际对话基础以及法律适用上的问题。在数据面临跨境流动以及国内企业海外合规与外国企业在中国合规之时,都要面临概念转换与系列制度的理解问题,这在一定程度上增加了解释成本。因此,如何在制定《个人信息保护法》之时再进一步加强信息控制理念,使之与“信息自决”理念相协调,不得不通盘考虑,此谓周全之道。



(三)个人信息处理者的具体类型



信息时代与智能时代的首要特点就是信息呈规模化,以网络平台为代表的主体获取大量个人信息。个人信息保护与个人信息利用,二者表现为静动之分并体现不同价值取向,但二者实质上却是一种“价值合流”——安全。因此,个人信息处理者也是在安全价值指引下保护个人信息。个人信息处理者成为法律上的特定主体,预设的前提即该主体有能力保护个人信息安全,防范个人信息风险。尽管《民法典》适用于所有平等民事主体,但个人信息处理者由于其活动需要一定的物质和技术条件并负有较多义务,而在主体范围界定上有所限缩,并非所有民事主体均能成为个人信息处理者。这一点也符合国际通行规则,比如GDPR第30.5条规定控制者的责任不适用于雇员少于250人的经济主体或组织。有学者也认为:“个人信息保护法的义务主体具有特殊性,不是‘任何组织或者个人’这样的一般主体。”在此基础上,实践中的个人信息处理者的具体类型大致包括以下主体。


第一,网络服务提供者。在中国法项下,提供网络服务的主体被概括为网络服务提供者。在立法与实践中,涉及网络安全、电子商务等不同领域之时,也以不同主体称谓指代。在经济迭代转型出现平台经济之后,平台主体也往往成为一种经济学上的较为通行的主体称谓。当下个体购物、社交等行为基本上均以网络平台为中介,个人信息的收集、存储、使用、加工等行为也集中于平台之上。大规模的网络平台的出现,其相对于个体或消费者的强势地位,加剧了传统上经营者与消费者之间的交涉能力不平等。本次《个人信息保护法草案(二审稿)》第57条增加规定了提供基础性互联网平台服务主体的特别义务。由此,网络服务提供者是最为典型的个人信息处理者,最终的实际运营主体应承担个人信息保护等义务。


第二,公共机构。国家机关等公共机构也存在大量收集个人信息以及利用等行为。《个人信息保护法(草案)》第二章第三节专门规定了“第三节国家机关处理个人信息的特别规定”,但是除国家机关之外,还包括公共企事业单位也存在大量收集个人信息等行为。因此,包括国家机关在内的公共机构都应成为个人信息保护法上的个人信息处理者。当然,也有学者认为,国家机关作为信息处理者具有公共性、法定性、垄断性、强制性等特点,与以私人机构作为个人信息处理者为设想场景的个人信息保护法明显不同,未来还应当制定一个特别的规则来调整国家机关处理个人信息的行为。从目前来看,国家机关等公共机构在中国法上仍规定为个人信息处理者。


第三,线下经营主体。数字经济改变了人们的行为方式,线上交易与网络社交成为主要方式,但仍存在大量线下非网络平台主体收集、利用个人信息等情况,这些主体应系个人信息处理者。同时,实践中也存在经营者线上线下信息共享等情况,有些情形可能会侵害消费者的个人信息。就此,线下经营主体也是典型的个人信息处理者。


对于个人信息处理者的界定,不仅仅是一种概念理解或者类型识别,在“个人—信息控制者”“个人—(个人)信息处理者”的两造关系中,更应理解“信息自决”脉络下的个人对于自身信息的“延伸控制”。在此基础上构建个人信息处理者的民事责任体系,并且解释相应主体承担民事责任的机理,是为基础,更是必要前提。



二、个人信息处理者侵害个人信息的民事责任


个人信息保护呈现跨公私法域特征,有其自身相对独立的发展脉络,并非民法的特别法,法律责任也包括民事责任、行政责任和刑事责任。个人信息作为体现人格权益与人格发展的重要载体,在创设“信息自决”的观念与制度之下,如何实现个人对自身信息的“脱控”而不“失控”,在受有损害之时,能够得到充分救济,是制度建构与法律适用最为关注之点。在个人信息权益受到侵害之时,人格权法与侵权法是最为基本与最为有效的救济方式,也同时体现出侵权法旨在权衡行为自由与权益保护的机能。在考察《民法典》的适用与个人信息保护立法的双重面向之上,探讨个人信息处理者侵害个人信息的侵权责任,是法律为个人信息主体提供的最基础保障。



(一)个人信息处理者侵害个人信息的典型行为



与一般自然人之间的侵害个人信息的行为不同,个人信息处理者作为具有一定规模的网络服务提供者或线下经营主体以及公共机构,其侵害个人信息的行为特征主要包括面向不特定主体、运用技术手段等方面。主要包括以下典型行为:


第一,不当收集个人信息的行为。在《民法典》与系列规范性文件中,收集个人信息应符合“合法、正当、必要”原则,同时符合最小、必要原则。而在实践中,有相当多的APP存在涉嫌过度收集用户个人信息的情况。在备受瞩目的郭某诉杭州野生动物世界有限公司服务合同纠纷案中,二审认为,野生动物世界欲利用收集的照片扩大信息处理范围,超出事前收集目的,存在侵害郭某面部特征信息之人格利益的可能与风险。可见,是否正当收集的标准主要在于是否符合法定的收集原则,如超过则为不当收集个人信息。


第二,泄露个人信息的行为。泄露个人信息属于较为严重的侵害个人信息权益的行为,实践中具体表现形式不一。在庞某诉某航空公司和某信息技术有限公司隐私权纠纷案中,庞某在某网站订票之后,后收到其他短信,列明庞某的姓名、航班号等内容,法院认为两家公司存在泄露庞某隐私信息的高度可能,并且存在过错,应承担侵犯隐私权的相应侵权责任。在有的案件中,法院确认公民的举报信息具有私密性,购物平台擅自将订单编号告知被举报人,属于泄露个人私密信息的行为。泄露个人信息的行为往往涉及对私密信息和隐私权的保护,较之其他不当收集、不当利用与分享等行为更为严重。


第三,不当使用个人信息等行为。在未经个人信息主体的同意,而将个人信息作为他用的情况,属于不当使用个人信息的情形。在王某与某置地有限公司姓名权纠纷案中,该公司擅自利用王某的姓名与身份证号码进行个税申报,不当利用了王某的个人信息。在俞某诉北京乐某达康科技有限公司等网络侵权责任纠纷案中,俞某在线下的购物记录也被同步到线上购物平台的购物列表之中,这是一种扩张信息共享的行为,同时也是一种扩大收集信息的行为。上述行为都是建立在个人信息处理者掌握个人信息的前提下,将信息用于他用,或不当使用、或不当分享,均系较为典型侵犯个人信息权益的行为。


除上述几种情形以外,比较具有争议的情形还包括由用户画像或其他自动化决策所带来的不利影响是否会构成对人格权益或财产权益的侵害,比如评价分选、价格歧视、大数据杀熟等,目前相关案例中,法院并未支持当事人的相关请求。对滥用算法等行为,目前主要通过监管或数据治理等方式予以规制,在民事责任方面尚未见相关适用和突破。在风险泛在的智能时代与万物互联时代,人们没有脱离风险场域的可能性,对于概括风险而导致的权益受损目前较难实现个体救济;但在个体受到确定的侵害之时则有请求获得法律救济的权利,这也正是侵权法的基本意旨。



(二)构成要件



个人信息处理者侵害个人信息的侵权责任的构成要件,主要以《民法典》人格权编和侵权责任编的体系解释为主。将人格权编的框架安排与传统侵权责任的构成要件进行比对,人格权编对于过错和损害并未规定,也有学者认为,在适用人格权请求权时,既不需要考虑是否有损害(只要构成对人格权的侵害或者存在侵害的危险即可),也无需考虑侵权人有无过错。从民法典编章安排体系解释和司法机关关于民事案件案由规定来看,人格权请求权在适用上优先于侵权请求权。同时《个人信息保护法草案》一审稿第65条与二审稿第68条规定了个人信息处理者的损害赔偿责任,这一部分也将纳入体系解释范畴之中。鉴此,本部分的讨论总体上立足于解释论与立法论的双重面向。


1.过错


在归责原则之过错责任原则、过错推定原则和无过错责任原则三分法的基础上,《民法典》对侵害个人信息的归责原则并未明确规定。在前述案例中,法院基本上也并未特别考虑个人信息处理者的主观过错。由个人信息主体与个人信息处理者之间关系所决定,侵害特定个人的信息的行为,只会由比较特定或有限的个人信息处理者作出,而其侵害行为的范围和内容也基本比较确定,责任认定并不存在太多困难。


《个人信息保护法草案(二审稿)》第68条明确规定侵害个人信息的归责原则为过错推定。相较一审稿,二审稿有较大进步。一审稿第65条规定了侵害个人信息权益的赔偿责任,但该条却存在归责原则与损害赔偿责任的“颠倒”与“杂糅”。通常而言,“侵权请求权基础的检视原则上区分责任成立与责任范围两个阶段,各类侵权请求权基础检视程式的差异主要体现在责任成立部分”。对于一审稿中关于归责原则的不足之处,二审稿中有所纠正和调整。同时,二审稿第68条第2款系与《民法典》侵权责任编第1182条基本保持一致。


立法者在侵害个人信息的归责原则上或可考虑过错责任原则与无过错责任原则“二分法”思路:一是基于不同主体。借鉴我国台湾地区“个人资料保护法”相关规定,对个人信息侵权,公共机构承担无过错责任,非公共机构则承担过错推定责任;二是基于不同行为。借鉴德国《联邦数据保护法》相关规定,对于自动化数据处理所致损害适用无过错责任,非自动化数据处理所致损害适用过错推定责任;三是基于不同信息类型。有学者也提出应在区分敏感与非敏感信息的基础上,分别规定适用无过错责任与过错推定责任。此种通过不同角度的“二分法”确定归责原则,是一种较好的思路,可参酌吸收借鉴。


2.行为


个人信息处理者在收集、存储、使用、加工、传输、提供、删除和公开等活动过程中都可能会存在侵害个人信息的行为。前述关于个人信息处理者侵害个人信息的典型行为中已概括了相当一部分行为。作为“信息自决”观念的延伸,通过在信息的“可识别性”与人格权益保护之间建立联系,集中于是否侵害了具有可识别性的信息,从而引致侵权法的适用。


以信息的“可识别性”为“风险源”和“风险敞口”,是侵害个人信息行为的集中体现。这就使得个人信息处理者的几乎大部分活动都可能囊括其中。施瓦茨和索罗夫就认为,欧洲隐私立法的优势是几乎没有什么信息可以逃出立法之外,但同时也十分冒险地引发了数据处理者实际上承担了与个人隐私可能产生的风险实际上并不匹配的法律负担。近年来除侵害个人信息的典型行为讨论较多之外,基于相应实践发展和义务扩张的现实需求,关于电子商务经营者、直播平台和个人信息处理者等是否应承担安全保障义务就引发较多争论,尤其是在某主播在直播平台直播极限运动意外坠亡案件发生后,更将网络服务提供者等主体是否应承担安全保障义务推至风口浪尖。


安全保障义务源自德国判例中形成的交往安全义务学说,并在实践中不断确立和发展相关规则。我国在制定《侵权责任法》之时,通过列举和限缩适用范围和情形的方式,规定了安全保障义务。但其与两大法系学理与判例中所概括的交往安全义务和注意义务存在一定差异,虽然学界和实务界已基本接受了中国《侵权责任法》第37条(《民法典》第1198条)的规定。但由于对本国制定法的理解和接受存在一定思维惯性,人们对反过来理解安全保障义务的原貌反而产生一定障碍。近年来,中国法在安全保障义务的理解上、实践中和立法中不断与德国法和美国法接近,从而将确定相应主体是否负有安全保障义务聚焦于有学者所概括的——“注意义务的违反”以及“对加害人本身主观预见能力的考察”——两个层次的内容。


针对个人信息的安全保护义务,在欧盟的GDPR、中国民法典、消费者权益保护法、网络安全法、电子商务法等都有相应规定。《民法典》第1038条规定了信息处理者的信息安全保障义务。《个人信息保护法(草案)》一审稿和二审稿“第五章个人信息处理者的义务”中,系对履行安全保障义务的标准予以多维度细化。


殊值关注的是,基于公法规范以转介方式适用于私法领域等理论铺垫,近年来学界也有观点主张是否将网络信息领域的公法规范以转介方式适用于私法关系,以扩张网络经营者、信息处理者等主体的安全保障义务。在侵权法上,“违反保护他人法律的侵权责任”(《民法典》第1165条第1款,即《侵权责任法》第6条第1款)事实上起到一个“转介条款”的功能,可以将各种特殊的侵权法律政策引入到一般侵权法之中。但是对于保护他人的法律,如王泽鉴先生所言,系“以其是否以保护个人的权益为判断标准,个人权益的保护得与一般公益的保护并存,但不包括专以维护国家社会秩序的法律”。可见,“转介”之核心标准在于“是否以保护个人的权益为判断标准”,而非全部公法规范均不加限制和阻拦地进入私法领域。诚如有学者所言,此种适用可能会引发一系列民法体系内部以及公法与私法之间关系等问题,应谨慎适用,合理把握注意义务的标准。鉴此,在个人信息保护领域,尽管单行法可能会不断推出,但不能笼统地将《网络安全法》和未来出台的《数据安全法》和《个人信息保护法》等法律法规中包含的一系列公法规范直接转介入私法之中,并引致个人信息处理者承担相应的民事责任,此种认识不得不事先予以警惕,以维护法律最基本的公正价值。


3.损害


损害通常包括财产损失、人身损害和精神损害。关于侵害个人信息而产生的损害,欧盟GDPR第82条第1项规定:“任何因为违反本条例而受到物质或非物质性损害的人都有权从控制者或处理者处获得损害赔偿。”个人信息主体通常需证明自己受有物质或非物质性损害,非物质性损害主要包括外部风险的损害和内心焦虑的损害。个人信息的“可识别性”,即是否可通过个人信息识别到特定主体,是判断个人信息权益是否受到侵害的关键要素。在司法实践中,法院一般通过“可识别性”标准而确定是否侵害个人信息权益,只要侵害了具有可识别性的信息,基本上就判定侵害了个人信息权益,从而根据当事人的诉求进行利益衡量。实践中,对于赔偿经济损失等,根据相应侵权责任法规则,会给予一定程度的支持;而对于精神损害,却往往由于客观上难以认定,而较难支持。客观而言,将个人信息保护放置于《民法典》之内,尽管在一定程度上与其他国家或地区的个人信息保护规则体例并不相同,但却恰恰在相当程度上缓解了如何确定损害等问题,更有益于实现对当事人的救济。


4.因果关系


因果关系作为侵权法上的重要命题之一,即侵权行为造成损害结果的发生在通常情况下存在可能性。在侵害个人信息的情形中,有的因果关系链条并不复杂,大多是基于个人信息处理者这一特定主体的概括的“一因一果”,这就使得行为与损害结果之间关系的判定难度不高。在有的案件中,法院根据民事诉讼高度盖然性证明标准而对因果关系进行判定。但当存在复数信息控制者参与同一个人信息的处理活动而发生个人信息泄露时,受害人往往无法证明哪一主体是具体加害人,此时应当采用共同危险行为制度加以解决。当然,因果关系也是侵害个人信息责任中的必要构成,应在个案判定中予以重视。



(三)损害赔偿



个人信息处理者的行为造成个人信息主体损害,应承担损害赔偿责任。概括而言,包括停止侵害、排除妨碍、消除危险、消除影响、恢复名誉、赔礼道歉等责任形式。对于停止侵害、排除妨碍、消除危险等几者不难理解,实际上在侵害知情权等一系列个人信息主体权利之时都可能会普遍适用。对于如何确定赔偿数额,原则上根据《民法典》第1182条确定。在前述相关案例中,法院支持当事人经济损失赔偿的不在少数。通常情况下,当事人请求赔偿经济损失的数额也较小,往往只有1元、2元等,相当程度上具有一定象征意义。


对于消除影响、恢复名誉和赔礼道歉等非金钱赔偿,2014年颁布的《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》第16条有所规定。根据该条,对于侵害个人信息的非物质性损害的赔偿应与侵权的具体方式和所造成的影响的范围相当。比如在2014年罗某诉某保险公司隐私权纠纷案中,法院认为,保险公司侵害了罗某的隐私权,判令保险公司向罗某赔礼道歉并赔偿罗某精神损害抚慰金1元及相关费用。当然,由于当时关于个人信息保护的意识并不明显,因此主要按照隐私权这一典型的人格权进行裁判并判以精神损害赔偿。而在庞某诉某航空公司案中,当事人虽然并未证明实际受有精神损害,但却在二审时改判支持了当事人关于赔礼道歉这一诉讼请求。可见,在个人信息侵权案件中,对于非金钱赔偿方式也具有相当的支持空间。




三、侵害个人信息处理活动中个人权利的民事责任


个人信息属于个人,理论上存在一个概括的、完全的权利,但是由于个人信息处理活动的存在,就使得个人信息主体所享有的抽象的完整权利被分解成数种具体权利——涵摄全过程的知情权、决定权,以自决意志为核心而外化的查阅权、更正权、删除权等权能。对于这些权利的保护,既仰赖公权力之管制与治理,同时亦可根据民事主体权利保护之本旨而给予救济,两种方式互相补充,相辅相成。这些权利在一定程度上可以类型化,并在类型化的基础上给予不同方式的救济。需要说明的是,侵害这些权利的民事责任与本文第二部分讨论的侵害个人信息的民事责任有一定交叉,这些权利系请求权基础,但由于这些权利被集中规定于《个人信息保护法草案》专章之中,因此有必要予以集中讨论与回应。



(一)个人信息主体的权利体系



世界范围内个人信息主体的权利形式上大同小异,但因各国自身社会、法律和文化等传统不同,而在个别权利和实施向度上有所不同。中国当前个人信息立法中,与GDPR相比,个人信息主体的大部分权利基本相似,只有在是否规定数据可携权和被遗忘权等方面而有所不同。总体而言,中国法上的个人信息主体的权利体系呈现如下特征。


第一,“信息自决”的主线贯穿。如本文第一部分所述,中国个人信息立法脉络中并无“信息自决”的观念,但本次个人信息立法之时创设了此种观念,并在知情同意(同意撤回)、决定权、查阅权、复制权、更正权、删除权等方面予以贯穿体现。由此,在个人信息处理活动中,但凡侵害信息自决的,则均需承担相应法律责任,即便是在《民法典》第1036条关于处理个人信息的免责事由方面,也对个人信息主体的同意予以强调,以及即便是对自然人自行公开或者其他已经合法公开的信息,但是该自然人明确拒绝的也不得处理等。当然中国立法并非GDPR的翻版,而是根据中国实践发展而建立相应信息自决观念。


第二,作为核心权利的知情权。与上述“信息自决”观念紧密联系,知情权系体现信息自决观念的重要基础性、核心权利。只有在个人信息处理活动中,将“知情”作为核心,才能充分保障信息自决。因此,知情权并非一个完全仅靠公法管制或对个人信息处理者进行数据治理的权利,而是充分保障信息主体个人信息权益的基础。


第三,围绕“知情”的系列权利。只有在信息自决与知情同意的基础上,才能进一步衍生出查阅权、复制权、更正权与删除权等,这些权利并非简单的程序性权利,而是体现知情权与决定权等基础权利的外在表现。在这些权利可能受到侵害之时,也应给予充分的救济。



(二)侵害知情权、决定权的民事责任



知情权在各类主体权益保护中都是一项基础性权利。从知情同意的本源来看,其根本上是一种主体交往之时设定法律关系的前提与基础行为,同时该行为还具有“限权与自我义务设定”之效果。“知情—同意”作为一种行为模式,其被应用于诸多社会关系建构之中,涉及政治国家、医疗领域、消费者保护与个人信息保护等。从正义价值维度考察,在美国消费者法上,“选择知情”(权)被归于程序正义之中。而决定权则实际上“被吸收”于知情权之中,比如在我国台湾地区的“请领身份证捺指纹案”中明确,保障人们决定是否揭露其个人资料,及在何种范围内、于何时、以何种方式、向何人揭露之决定权,并保障人们对其个人资料之使用有知悉与控制权即数据记载错误之更正权。由此可见,知情权、决定权与其后的一系列权利内在存在联系。对于决定权,主要吸收于知情权之中,并与之一并讨论。


在个人信息保护之中,知情权是一个贯穿全程、保证后续个人信息处理行为和活动具有正义价值的基础权利。在消费者法上,消费者的知情权体现为商品或服务的标签“客观化”,对侵害消费者知情权的救济,在已有大量案例中,通常是要求经营者承担合同上的义务和责任。而个人信息保护之中的知情权体现在同意、同意撤回以及后续的一系列权利,对于此类知情权的侵害,通常要求个人信息处理者履行一定法定义务,基本上并非通过合同义务与责任予以救济。


从实践来看,是否侵害“知情同意”权利较容易辨识。比如在有的案件中,用户不在某APP上添加关注即能看到好友读书信息,而APP自动为用户添加关注,此种情形显然需要显著提示用户并获得明确同意。在有的案件中,用户没有选择“授权”选项,则当然可认定用户并未同意,因此后续的个人信息处理活动就可能不具有合法性。从知情同意在各领域的发展与实践可见,在数字经济时代,知情同意更具有确定性与外显性,其也成为一个“大网”,使得未经授权的个人信息处理行为基本上无法逃逸,当然,符合《民法典》第1036条规定的行为有所例外。


对于侵害个人信息主体的知情权的民事责任,应包括停止侵害、删除个人信息等;如当事人能够证明自己受有精神损害,可请求侵权的个人信息处理者承担恢复名誉、消除影响、赔礼道歉等民事责任。



(三)行使《民法典》第1037条个人信息请求权的限制与救济



在“信息自决”的贯穿下,GDPR规定了个人信息主体的一系列权利,中国《民法典》和正在制定的《个人信息保护法》也规定了一系列个人信息主体的一系列权利。中国个人信息保护立法为何在吸收了立法理念与诸多规则之后,在个人信息主体权利方面却并没有完全借鉴?立法者的释义书对此也有所提及,《民法典》第1037条中的删除权并非GDPR所规定的“被遗忘权”,由于各方对欧盟的“被遗忘权”争议极大,因此本法对此未作规定。的确,个人信息主体的权利体系与一国法律发展脉络紧密相关,较难在各国和各地区完全达成一致。


《民法典》第1037条规定了个人信息主体的查询权、复制权、异议权、更正权和删除权等,这几种权利也分别是以人格权请求权的方式而出现,在《个人信息保护法(草案)》中也被进一步细化。这几个权利呈现出一定特征,即并非一次性行使的权利,可能会针对不同信息内容而反复行使,这就可能产生一定价值冲突——如何既保障个人信息主体有效行使权利,同时又能实现与个人信息处理者之间的利益平衡。对于查询权、复制权等权利,可借鉴《征信业管理条例》相关规定,即个人信息主体的查询权和复制权的行使在一定程度上可以受到次数限制。而对于异议权和更正权而言,则需由个人提出相应证据或要求予以补充更正。


在上述几个权利之中,相对而言属于一次性行使的,主要是删除权。第1037条第2款规定,自然人发现信息处理者违反法律、行政法规的规定或者双方的约定处理其个人信息的,有权请求信息处理者及时删除。《个人信息保护法(草案)》一审稿与二审稿进一步规定了个人信息处理者应主动删除或根据个人请求删除个人信息的具体情形。


对于侵害个人信息主体的查询权、复制权、异议权、更正权和删除权,又将如何救济?具体而言,对于查询权、复制权的救济,个人信息处理者应基于请求承担查询、复制等行为义务;对于异议权,个人信息处理者则有义务予以更正或解释;对于删除权,个人信息处理者则应停止侵害、删除个人信息等。对于可能产生的经济损失或精神损害,则应根据具体情况,由个人信息处理者承担赔偿责任。




四、结语


从世界范围来看,美国、欧盟与中国对个人信息保护立法呈现出不同的价值选择与立法体例选择,着眼于突出各自的个性与特性。然而,如施瓦茨所发现的,实际上美国和欧盟关于个人(信息)隐私的理念也并非完全对立与冲突,德国联邦宪法法院和德国联邦法院在1973年和1995年的相关案件中引用了沃伦和布兰代斯的《论隐私权》一文中的“不受干扰的权利”等内容,欧洲人权法院也多次援引这一重要的概念。可见,两大法系也在对隐私和个人信息问题的认识上不断实现沟通。同样地,中国个人信息保护立法也在立法理念、权利体系、义务体系与法律责任上尝试与两大法系实现一定沟通与融合。


在《民法典》之后,《个人信息保护法(草案)》一审稿与二审稿不断推出与完善之际,着眼于个人对自身信息的自决与控制,权利实现与救济,是个人信息保护在现代之于个人人格实现的新的表现形式。当然,本文主要聚焦于个人信息处理者的民事责任,对于个人信息处理者而言,不仅仅包括民事责任,还涉及行政责任与刑事责任。个人信息保护立法在法律责任方面,将从多维度保护个人信息,以此才能实现对个人信息主体的救济。人类经历社会变迁之时,在不同时期需要实现掌控不同物质的自由,而进入信息社会与智能时代,人们所要追求的就是掌控信息的意志自由,这一自由也即拉德布鲁赫与星野英一所言的人格的发展,毫无疑问,这种人格的发展本质上更是一种人的发展。


来源:中国法学网




编辑:王奕
1041#
 楼主| 发表于 2021-6-16 18:56:20 | 只看该作者
【案例】

域外法治 | 欧盟委员会2021年《人工智能法》提案研究
20214月,为了加强整个欧盟范围内对于人工智能的使用、投资和创新,欧盟委员会通过了《人工智能法》提案(以下简称提案)。提案提出一套人工智能领域的法律框架,以期对人工智能的应用进行规范和限制,保护人们日常生活和正当权利不受侵害。提案不仅对人工智能技术,如汽车自动驾驶、银行贷款、社会信用评分等一系列日常生活中的应用进行规范,还对欧盟执法系统和司法系统使用人工智能的情形提出了相应的规制路径。
值得注意的是,提案作为欧盟在人工智能领域作出的关键立法,意味着欧盟对人工智能领域的数字治理提出了新要求,反映了人工智能技术的治理与发展应当在《通用数据保护条例》(GDPR)的有效监管下进行,即按照与《通用数据保护条例》(GDPR)一致的方式进行统一部署。
提案采用具体法律框架的形式与各成员国实施的协调计划积极结合,以保障公众和企业的隐私安全和基本权利为主要出发点,进一步明确了人工智能在不断更新和发展的同时,应当满足于世界范围内符合社会基本价值观与发展新兴技术两者间的平衡要求,从而使欧洲公众能够增强对人工智能技术所提供的产品和服务的信任。
提案的出台背景与制度设计
在过去的十年里,人工智能技术经历了快速的发展,其为经济、社会和文化发展、能源可持续性、更好的医疗保健和知识传播提供了丰富的机会。但同时,这些机会也伴随着潜在风险,如失业、不平等、就业歧视、社会排斥、不知情的监督和操纵等。自人工智能技术问世以来,考虑到潜在风险的存在,欧盟委员会在符合欧盟价值观的背景下以提高其技术竞争力为主要目标,持续促进和加强欧盟各成员国在人工智能技术方面的合作。根据欧盟委员会的定义,人工智能技术是指采用官方所列明的一种或多种技术和方法开发的软件,并且能够针对特定人群或具体目标在内容、预测、建议或决定等方面产生一系列影响其交互环境的输出技术。
关于人工智能技术在欧盟的发展现状与前景,欧盟委员会数据执行副主席Margrethe Vestager表示:“在人工智能领域,公众信任是必须存在的,而对其进行监管和规制是建立这些信任的最佳方式。只有存在具有里程碑式的监管规则,才能确保人工智能值得信任。欧盟对人工智能技术采取的规则将面向未来的创新与进步,并在欧盟公民的安全和基本权利受到威胁时进行干预。”基于此,提案应运而生。这一举动体现了欧盟在人工智能领域积极引领并制定新的全球规范的意图。
提案的总体目标在于为全球范围内人工智能技术的应用与发展制定详细标准,以及为符合道德和法律双重标准的人工智能技术铺平道路,并确保欧盟在此过程中保持技术竞争力,从而有效加强欧洲作为全球卓越人工智能中心的地位,并使得欧洲人工智能技术的发展符合欧盟的总体价值观和规则。
提案明确了适用对象,并指出了几类主体范围,分别为将人工智能系统投放市场或投入使用的供应商、欧盟领域内人工智能系统的使用者、位于第三国的人工智能系统的供应商和使用者。
人工智能技术的风险分级
显然,欧盟已经意识到人工智能技术对欧洲价值观、基本权利及原则的风险影响。提案对人工智能采取了考虑风险但总体审慎的方法,将人工智能技术可能带来的风险划分为以下四个层级。
第一,不可接受的风险。此类风险被欧盟认为将会对公民的安全、日常生活和基本权利构成明显威胁,故予以明令禁止。如通过操纵人类行为来规避用户自由意愿的人工智能技术或应用程序,最典型的事例是使用智能语音辅助的玩具来鼓励未成年人从事危险行为。
第二,高风险。提案未对人工智能技术高风险的具体含义进行说明,但将人工智能技术可能发生高风险的覆盖领域详细归纳为关键基础设施、公民教育、产品的安全组件、公民就业、公共服务、涉权型执法、出入境问题、司法和民主进程等8类。
提案强调了所有远程生物识别系统都应被划入高风险的范围。提案要求,部分成员国已经出台法律对该系统进行限制的,应当与提案所规定的内容保持一致。关于远程生物识别系统的禁止情形,提案还规定了豁免条款,即原则上禁止在公众可进入的空间和场所内使用远程生物识别系统,但出于执法目的的某些例外情况,可经司法或其他独立机构授权予以使用,如在紧急情况下搜寻失踪儿童,防止迫在眉睫的恐怖主义威胁,侦查、定位、识别或起诉严重刑事犯罪的犯罪嫌疑人等。同时,提案要求,即使在前述例外情况下,对于远程生物识别系统的适用时间、地理范围和搜索的数据库等方面依然必须进行适当限制。
提案还详细规定了存在高风险的人工智能技术在投放市场之前必须履行7种严格义务。同时,这些义务在人工智能系统投放市场或投入使用前及在整个生命周期内都要接受审查。7种严格义务具体包括:1.完备的风险评估系统;2.向系统提供高质量的数据集,以将风险和歧视性结果降至最低;3.记录活动以确保结果的可追溯性;4.提供有关系统及其目的的所有必要信息,以供当局评估其合规性;5.向用户提供清晰、充分的信息;6.采取适当的人为监督措施,将风险降至最低;7.高水平的安全性和准确性。
第三,有限的风险。此类风险指包含特定透明度义务的人工智能系统。因特定透明度义务的存在,故当用户使用人工智能系统时,能够意识到其本身正在与人工智能系统进行交互,即在用户知情的情况下提供用户方决定继续运行或中止的权利。
第四,极小的风险。如提案允许免费使用人工智能视频游戏或垃圾邮件过滤器等应用程序等。绝大多数人工智能系统都属于此类风险。因为欧盟认为这些人工智能系统对公民的权利或安全产生的风险极小,甚至无法产生风险,故提案并未对极小的风险进行干预。
关于人工智能的治理主体,提案指出人工智能系统的设计和开发应当保证在使用过程中能够受到公民的监督,故其规定由国家主管市场监督机构监督新规则的适用。未来,可以建立欧洲人工智能委员会来促进新规则的实施和推动人工智能标准的制定,并由其承担各种复杂的任务,如协助国家主管市场监督机构来确保提案的一致适用、发布与人工智能技术发展相关的意见和建议、在成员国之间收集和分享最佳实践等。
为此,提案还提出了鼓励不属于高风险范围的人工智能技术的提供者制定行为守则,促进自愿采纳适用于高风险人工智能技术的强制性要求,并提出了监管沙盒模式以促进人工智能领域的创新。在人工智能技术规制措施的执行方面,提案规定由各成员国根据不同国情予以严格执行。此外,提案还规定了企业在8种高风险领域范围内使用人工智能技术,若违反规定将处以高达3000万欧元或公司全球年度总营业额2%6%的行政罚款,最终选择罚金金额更高的处罚方案。
目前,提案已经提交给欧洲议会和欧洲理事会进行审议和分析。提案若通过,将会在欧盟官方公报上公布20天后生效,并将在生效后的两年内持续适用。鉴于人工智能技术涉及大量的利益相关者,且争议性较大,故欧盟方认为提案具体落实于公民现实生活的过程仍然道阻且长。
提案与《通用数据保护条例》
人工智能技术与个人数据长期保持着紧密联系。借助于人工智能技术,个人数据可以用来分析、预测和影响人类行为。在许多情况下,自动化的预测和决策不仅成本更低,而且比人类的预测和决策更精确、更公正。因为人工智能系统可以避免人类心理的典型谬误,并且可以受到严格的控制。
《通用数据保护条例》(GDPR)作为欧盟范围内保护个人数据的重要条例,充斥着模糊的条款和开放的标准,而这些条款和标准的应用往往需要平衡相互竞争的利益。在人工智能应用中,技术的新颖性、复杂性及其个人和社会影响的广泛性加剧了不确定性。显然,提案的出台将会在此方面予以明确和规制,从而有效保护个人数据的流通与收集。
尽管《通用数据保护条例》(GDPR)没有明确提到人工智能一词,其许多条款与人工智能相关,如《通用数据保护条例》(GDPR)允许开发人工智能和大数据应用程序,成功地平衡数据保护和其他社会经济利益,但它对如何实现这一目标仅提供了有限的指导。此外,提案规定了从事人工智能处理的控制者应当采取负责任和风险导向的方法,同时鉴于问题的复杂性及《通用数据保护条例》(GDPR)中存在的模糊性,不应让控制者单独参与该项工作。
笔者相信,随着提案的问世,欧盟各机构仍可能会继续促进对人工智能应用的广泛讨论,并进一步提供高水平的指示。欧盟数据保护当局需要积极参与和所有利益相关者的对话,包括人工智能系统的控制者、处理者和社会公民,以便根据共同的价值观和有效的技术制定适当的应对措施。当《通用数据保护条例》(GDPR)所规定的数据保护原则的一致应用与有效使用人工智能技术的能力相结合时,可以通过提案所指出的预防风险的方式,为人工智能技术在未来的成功应用做出贡献。
提案与欧盟《人工智能白皮书》
2020219日,欧盟委员会发布了《人工智能白皮书》(以下简称《白皮书》),旨在通过提升欧洲在人工智能领域的创新能力,防范和处理人工智能技术带来的各类风险,从而推动道德和可信赖人工智能的发展。《白皮书》就人工智能技术的重要战略意义作出了高度评价,其指出人工智能技术的发展趋势已不可阻挡,将会迎来新一轮数据浪潮机遇。不可否认,在人工智能技术带来大量好处的同时,也意味着可能会对经济和社会造成不稳定的影响,如劳动力剩余、个人信息失控、在线平台加剧垄断等。而前述问题仅依靠市场力量很难得到及时有效的处理。
为了取得人工智能领域的领先地位,欧盟希望通过政策监管与增加资金投入两种措施促进人工智能发展并解决其带来的风险。显而易见,提案作为《白皮书》中政策监管措施的积极践行,体现了欧盟正在采取实际立法行动对人工智能技术的风险予以规制。而在增加资金投入方面,《白皮书》也指出,未来十年,欧盟每年将吸引两百亿欧元的投资。
笔者认为,提案的出台,是《白皮书》实施计划中的重要一环,预示着欧盟已经开始针对人工智能领域的规制和监管采取了积极的立法措施,并在《白皮书》的引导和指示下不断增强对潜在风险的预警和处理,积极明确提案的规制对象与规制范围。此外,《白皮书》还曾指出为了应对人工智能的挑战,欧洲需要一个全面涵盖商业和公共管理的战略部署,除了为人工智能的发展创设有利环境外,还必须基于广泛认可的价值观和原则来建立全球监管规范和框架,以保证人工智能的发展以人为本。值得注意的是,提案重申了该内容,即符合社会基本价值观与发展新兴技术两者之间应当取得有效平衡,并进一步规定了诸多措施,从而使人工智能技术的不良影响降至最低。
可以预见,未来欧盟将会持续加大对人工智能技术的投资,并会严格按照提案与《白皮书》的要求进行规制和监管,使人工智能技术在符合欧洲基本价值观的前提下进一步加强其技术研究与应用实践。
(本文是国家社会科学基金项目【批准号:15CFX035】的阶段性成果)
来源:中国审判
链接;https://mp.weixin.qq.com/s/9E-I2DffrCM7eK-x5FnXBA
编辑:马皖雪

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表