传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 学术经纬 查看内容

脸上的权利:作为“非隐私个人敏感信息” 的面部图像

2022-7-3 16:05| 发布者: 刘海明| 查看: 59| 评论: 0|来自: 国际新闻界

摘要: 本文得到国家社科基金一般项目“网络安全发展视角下‘平台型’网络运营商法律责任研究”(项目编号:17BXW090)的资助。德国哲学家莱布尼茨(Gottfried Wilhelm Leibniz)的名言“世界上没有两片完全相同的树叶”被 ...

本文得到国家社科基金一般项目“网络安全发展视角下‘平台型’网络运营商法律责任研究”(项目编号:17BXW090)的资助。


德国哲学家莱布尼茨(Gottfried Wilhelm Leibniz)的名言“世界上没有两片完全相同的树叶”被广为流传。但据说此名言系经改编而成,莱布尼茨的原话是“凡物莫不相异”“天地间没有两个彼此完全相同之物”。对于比树叶复杂得多的人而言,更是“莫不相异”。尽管每个人都有五官,谁也不多,谁也不少,但我们仅仅通过人的脸,就能区分出亿万个不同的个体。而除了脸之外的任何其他部位,虽然也都各不相同,但作为普通人,很难通过它们将人区分开来。


随着面部识别技术的应用,大量的面部信息被采集、处理和使用,引起了社会的普遍关注。对此,已经有人通过诉讼捍卫面部信息的权利。浙江理工大学副教授郭兵因不愿意使用面部识别,将杭州野生动物世界诉至法院,成为中国人脸识别第一案。而《民法典》明确规定“生物识别信息”受法律保护,更是为公民个人捍卫面部信息的权利提供了法律依据。


如果说肖像权起源于光影成像技术对人面部的再现,那么计算机视觉技术、人工智能和机器学习,则使得人的面部信息能够以数字化的方式处理、使用。技术对人的入侵、干预的方式和程度被大大改变,从而使面部信息成为了个人信息权所保护的对象。本文从面部识别技术及其应用出发,分析了其对人的基本权利带来的影响及在传播语境中的表现。然后分析了面部信息为什么是“非隐私个人敏感信息”。最后,在对欧美关于面部识别信息的保护路径进行分析的基础上,提出对策建议。


 

研究背景:面部识别技术的应用与风险


(一)面部识别技术概述


面部识别技术(Facial Recognition Technology,FRT)也被称为人脸识别技术,是生物识别技术的一种,该技术通过创建“生物识别模板”(biometric template)来提取并进一步处理生物识别数据。关于面部识别技术的研究最早起源于20世纪60年代,到90年代进入了初级应用阶段。过去十年,面部识别技术已成为最强大的生物识别技术之一(WEF,2020)。基于计算机视觉技术、大数据、人工智能和机器学习,面部识别技术可以提取、检测和测量各种面部特征,并将它们与从其他面部获得的特征进行比较。通过面部识别技术,可以对人进行验证(verification)、识别(identification)、或分类(categorization)(FRA,2019)。将从摄像机(闭路电视CCTV)获取的连续镜头与数据库中的形象进行比对,被称为实时面部识别技术(Live FRT,LFRT)(Fussey & Murray,2019:36)。由于受光线、距离和位置等的影响,从闭路电视提取的面部图像的质量无法控制,因此,实时面部识别技术更有可能导致错误匹配。


计算能力的提高、海量面部数字图像以及现代机器学习算法的使用,使得面部识别技术的准确度自2014年以来取得巨大提升(Grother,Ngan & Hanaoka,2018)。面部识别技术的应用范围也在不断拓展。已经有研究尝试从面部图像中推断出性取向等特征(Wang & Kosinski,2013)。面部识别技术还可用于推断诸如愤怒、恐惧或幸福之类的情绪,并结合其他技术,检测人们是在说谎还是在讲真话。据美国国家标准与技术研究院(NIST)的研究显示,2010年,最高效的面部识别系统已经达到72%的准确率,而现在这个准确率甚至可以超过95%(Grother,Ngan & Hanaoka,2018)。目前应用最广的面部识别算法有Facebook的DeepFace(2014)和Google的FaceNet(2015)。据全球第二大市场研究机构Markets and Markets2019年年中发布的预测显示,面部识别系统的改进将使该项技术的市场总量从2019年的32亿美元增加到2024年的70亿美元(Market and Markets,2019)。


使用面部识别技术的主体也越来越多。过去几年,许多公共机构和私人企业开始在全球范围内测试或计划使用面部识别技术。对企业而言,面部识别技术被广泛用于广告、营销和其他目的,例如通过识别客户并根据其面部表情预测他们对产品的偏好,分析面试中应聘者的面部表情等。互联网和社交媒体公司如Facebook还会通过标记人脸来部署面部识别技术以改善其系统。在足球俱乐部等体育场所,面部识别技术被用来识别禁止参加俱乐部比赛的人,也有机构将其用于会员制场所的入场(FRA,2019)。人工智能驱动的面部识别技术的最新发展不仅对企业有吸引力,也为公共行政开辟了新的可能性,包括用于边境管理、搜索通缉犯等执法活动,以及对公共场所的安保,以使控制系统更加高效,此外,面部识别技术还被用于寻找失踪人员或刑事案件被害人等。


(二)面部识别技术对公民权利的影响及在传播语境中的风险


1.面部识别技术的应用风险及对公民权利的影响


新技术的产生总是会对既有的生活生产模式产生影响,也会带来一定的风险,触及传统的权利,调整既有的权力结构,促使制度层面做出相应的调整。工业革命、信息革命都是如此。面部识别技术对社会和对个人的益处都是公认的。但是,该技术的应用也会给人的基本权利带来负面的影响。例如国际社会普遍关注的准确性的问题。据美国电气与电子工程师学会(IEEE)发表的研究显示,面部识别可能存在不公平的偏见,会根据人口统计特征展现出不同的结果。性别、年龄、身高、是否戴眼镜或头巾都可能会影响其准确性和性能(Cook,Howard,Sirotin,Tipton & Vemury,2019)。因此,将非歧视要求纳入技术规范成为避免面部识别技术带来的风险的路径之一。在我国,尽管目前还没有关于人脸识别技术的国家标准(GB),但是已经制订了一些行业标准(GA)。


不过,准确性问题带来的不公平对待和偏见并不是面部识别技术应用具有的唯一风险,甚至不是最大的风险。商家不经授权就采集、处理和分析客户面部信息数据,学校运用面部识别技术监控学生,个人生物特征数据泄露事件,面部识别系统开发者未经同意使用用户数据进行开发等行为都在挑战着公民的基本权利。美国公民自由联盟(ACLU)指出,最令人担忧的是,面部识别技术原本仅仅是“收集和存储信息以备不时之需,现在却逐渐变成主动对人们进行监视,而且通常是实时监视”。


通常认为,对于身体的隐私部位,如果使其暴露、公开,是对人的尊严的侵犯,但人的面部通常总是公开暴露的,任何人都看得到,所谓“监视”也只是多一双眼睛来看,怎么会伤害尊严呢?人的脸上的尊严从何而来?


与暴露隐私部位会给人带来羞耻感不同,面部信息作为“个人信息”,其核心权利诉求是“信息自决”,即对自己的个人信息如何被收集、使用拥有决定权。尤其是人的面部,更是一个人人格的外在表征,是个人悉心经营的自我形象,因此有很多表达如“脸面”“长脸”“打人不打脸”等都将人的面部作为个人人格尊严的表征。因而,面部信息的采集、处理和使用如果不是在个人知情同意的前提下进行,那么就是对人的尊严的侵犯。因此,面部图像数据如何以尊重人的尊严的方式进行采集处理,以使人能被有尊严地对待,也是该技术使用需要面对和解决的问题。


同时,由于人的面部具有“强识别性”,如果它被用来作为进入酒店、公寓和住宅的钥匙,用于解锁手机、电脑、车辆等设备,或用于登录银行在内的线上线下服务,还可能危害人的人身、财产权利。


此外,面部识别技术对人的基本权利的影响还体现在其可能会干扰或侵犯表达自由。言论和信息自由是民主社会的基石。面部识别技术的应用,尤其是实时面部识别,会对知道自己正在被注视着的人产生“寒蝉效应”,在表达时畏首畏尾,而不会以原来的方式表达自己的想法。德国法院将通过社交媒体发布在示威活动中拍摄的照片认定为非法,理由是这会对集会自由产生负面影响(FRA,2019)。人们在前往受监视的公共场所以及网络空间时可能会感到不舒服,并因此改变自己的行为,退出社交生活,不去受监视的地点,避免参加文化、社交或体育活动,减少网络活动。


另外,从信息自由的角度看,使用面部识别技术还有一些法律和技术层面未能解决的问题。《欧盟基本权利宪章》第8条第2款和GDPR都规定了访问、更正和删除自己存储的个人数据的权利。我国《民法典》也在第1037条中规定了公民对个人信息的查阅、复制、修改、删除的权利。尽管鉴于执法机构有义务在一定程度的保密性下工作,以确保其工作的有效性,GDPR(General Data Protection Regulation,通用数据保护条例)和欧盟的《执法指令》规定了公民访问、修改和删除个人数据的例外情况,即如果数据处理的目的涉及预防、调查、侦查或起诉刑事犯罪,执行刑事处罚或维护公共安全,访问个人数据以及要求更正或删除的权利可能受到限制,但在这些例外情况之外,对于个人如何行使访问、更正或删除存储在大型IT系统中的个人数据的权利,如果立法不能做出合适的安排,就会损害公民获取信息的权利。而这一获取信息的权利,又是行使表达权的前提。


2.面部识别技术对传播活动的影响及其风险


微型摄录设备的普遍使用,使得越来越多的智能终端都能够接收和传输面部图像信息,这进一步拓展了面部识别技术和面部信息的应用场景。除了公共场所的闭路电视,PC和智能手机等日用的智能终端都有视频采集功能,这些硬件装置和面部识别软件的使用,使得对面部信息的采集、处理和分析都变得极为便利。而且,由于智能终端的使用者距离摄像装置更近,以及终端设备对光线的调适能力更强,其所能采集的面部图像的清晰度比公共场所的摄像机更清晰。


在面部识别技术的支持下,对面部信息的商业化采集、处理和使用呈现井喷态势,而由此带来的风险也逐渐浮出水面。如AI换脸软件“ZAO”仅需要一张正脸照,即可用用户的面部图像制作网络热门表情包,出演经典电影片段。但其也因数据安全问题于2019年9月被工信部约谈。还有企业开发APP,以提供小额贷款为名,要求用户注册后完善借款信息,获取用户姓名、身份证、银行卡、手机号码、人脸识别信息、通讯录、通话记录等信息。而面部信息的采集由静态变为动态,更是大大增加了人身、财产安全的风险。银行很多业务可以在线办理,只需做眨眼张嘴等简单的动作即可进行身份识别,而个人面部动态图像的采集,无疑会带来财产上的风险。此外,令人担忧的还有将面部图像用于色情产业领域等。例如,2017年,一位名叫“deepfakes”的外国网民利用人工智能技术,将电影《神奇女侠》《哈利·波特》中明星的脸“移花接木”到不雅视频的女主角身上,一度掀起轩然大波。


如果说,上述情况可能仅和某些软件或这些软件的某些功能的主动使用有关,那么,从2019年到今天的新型冠状病毒疫情期间,为实现远程线上交流,网络视频服务软件如视频会议平台等被普遍使用,使得更多的人不得不使自己的面部信息暴露于网络空间。如网络视频会议软件Zoom所暴露的加密技术的可靠性问题也确实会让人担心网络的视频互动是否会被非法干扰和利用。现在,几乎每个人都会在网络空间的多个平台留下自己的痕迹,其中包含大量个人信息,这些信息和具有“强识别性”的面部信息聚合,可以形成对人的非常全面具象且直观可视的深度画像。


目前,由于缺乏经验性研究,面部识别技术的风险还难以被全面认知和预测。但面部识别技术与无处不在的摄像头、人工智能和数据分析相结合,使大规模的监视有了很大的可能性。人们在未经知情同意的情况下被进行面部识别,尤其是“实时面部识别”,会使个体相对于公权力和“私权力”,处于非常弱势的地位(weak position),进而引发公众对国家以及大型互联网企业与个人之间权力严重失衡的担忧。


 

作为“非隐私个人敏感信息”的面部图像


(一)为什么不是肖像?


提及面部识别,往往会联想到肖像。其实二者存在根本的区别。肖像通常被认为是特定自然人外貌形象的固定形态(fixation)。自然人的外貌形象借助一定的手段,在某个物质载体上固定下来,就被称为他的肖像(魏永征,周丽娜,2019:178-180)。肖像是自然人形象的再现,这种“再现”并不要求在物质载体中表现的形象与本人的真实形象百分百的完全相同。因此,只要以某种方式在物质载体中表现出的形象能够使他人将其与特定的某人联想为同一人,就可构成“再现”(郭明瑞,2014)。这与作为生物识别信息意义上的面部信息是不同的。因此,漫画表现的人物形象如果能够辨别为某个特定的人就属于肖像,但却并不能被认为是面部信息。


(二)为什么不是隐私?


那么,面部图像属于隐私吗?有研究认为,面部图像的初始生物特征处理、视频片段的任何后续保留,以及将其数据与“监视列表”进行比较,都对尊重私人生活权和保护他人的权利构成了干扰(Fussey & Murray,2019)。国内也有学者提出,数字社会的隐私呈现出“信息隐私化”的新特征。即信息时代的隐私可能不同于传统社会,在信息的收集、储存、加工和使用中产生了性质的改变,一些传统上不属于隐私的信息在新的环境下成为了隐私(王俊秀,2020)。对于人的面部而言,一般社会环境下,除极少数文化背景外,都是公开示人的,本不属于隐私范畴,人体的私密部位才属于隐私。但人脸识别技术使得原本公开的信息成为隐私信息,也就是信息隐私化使得传统隐私的边界得以扩展(王俊秀,2020)。


的确,隐私的内涵与其最初产生时发生了很大的变化。在美国的语境中,从来没有将个人信息与隐私界分开来。布兰戴斯(Louis Brandeis)与沃伦(Samuel Warren)在《隐私的权利》中主张设立的隐私是“不被打扰的权利”(the right to be left alone)。早在1967年,艾伦·威斯汀(Alan Westin)就已在《隐私与自由》中将隐私定义为“对与自己有关的信息在何时、以何种方式、在多大范围公之于他人的决定权”(Westin,1967:7)。可见,在美国,隐私内涵的扩展早已把个人信息自决权包含在内。


尽管公共场合通常可以作为隐私侵权的抗辩理由,但是,并非公共场合就没有隐私。例如开在公共道路上的私人汽车里,处在公共场所的私人手机里的信息,都是隐私的范畴。与他人的亲密互动,即使是在公共场合,也可能属于私人生活。欧洲人权法院用“对隐私的合理期望”指代人们可以期望在公共场所获得隐私的程度。在公共场合,人们的确可以有“合理的隐私期待”,这种隐私期待也并不仅仅指公共场合的私人空间和私人信息。据联合国专家称,集会参加者公开露面这一事实并不意味着他们的隐私就不会受到侵犯。可见,隐私的范围已经扩展到私人生活范畴之外。


但是,在“个人信息”作为一项新的权利已经于1970年代被创设,今天已经成为普遍认可的独立权利,且面部信息作为生物识别信息已经被列入“个人敏感信息”进行特殊保护的背景下,继续延展隐私的边界,将几乎总是处于公开曝露状态的面部纳入隐私权进行保护,既没有必要,对于解决新技术带来的问题也并无帮助。


隐私权的内核和本质要求是保密、不公开、不受干扰。根据《民法典》,侵害隐私的方式是“刺探”“侵扰”“泄露”“公开”。而个人信息的权利本质(essence of right)是信息自决。面部信息的权利诉求是,它可以是公开的,但不是公共的,不可以随便采集、处理和使用,即个人对其有自决权。当然,对于隐私,个人也有自决的权利,但这一权利应当仅及于公开与否,而非如何被采集、处理和使用。面部信息从本质上没有保密的要求、属性和可能性。对于面部信息的采集、处理和使用,需要进一步分析其内在结构,而不能以隐私概之。将隐私的范畴延展至个人面部信息,不利于有效地规范面部信息的使用,同时也会消解掉隐私概念。


在《民法典》中,隐私指的是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。隐私指向不能公开,个人信息则指向不能采集、处理和使用,无论其是否是公开的。隐私主要是被作为消极的、防御性的权利,而个人信息则有更多的积极的、支配性意味。个人在公共场合可以被看,但不可以被拍,就是因为这种“自决”或“支配”的权利。人的面部在公共场合被看到,不会涉及任何侵权,但面部图像一旦被采集则意味着可以在别的场合、别的时空、以别的方式被看到、处理和使用。这种在别的时空中被看到的可能性,不知被用于何处的可能性,以及通过信息聚合所产生的不确定的且不为个人所知的信息增量,才是最令人不安的。换句话说,个人对于面部信息所担心的,不是这些信息被别人知晓,而是自己无法知晓别人了解了什么、会了解什么,以及了解之后会产生什么后果。对面部信息的保护不是为了保密,而是为了避免面部信息被采集、处理所可能产生的个人无法控制的后果,以及人被客体化对待的羞辱感。这是个人信息保护要解决的问题,而不是隐私权要解决的问题。英国民间社会代表曾起诉南威尔士警方,理由是警方对在面部识别技术测试时试图遮住脸的人处以罚款(FRA,2019)。人的尊严来自被当作主体的人来对待,来自自己能够按自己的意志控制与自己有关的事务。因此,面部识别技术所干扰的不是个人的私人生活,而是作为具有主体性的人按其自由意志行事的自由。


综上所述,面部信息和姓名一样,是重要的识别符,具有“强识别性”,但却不是隐私。但值得注意的是,面部信息虽然不是隐私,但是在什么地方、以什么方式、用什么系统收集到面部信息以及如何处理和使用面部信息可能会触及到隐私。即对面部信息的采集、处理和使用可能会产生和隐私权竞合的情况。面部信息不是隐私,也不是“合理的隐私期待”,但基于面部信息的聚合或者和其他信息的聚合所产生的信息则有可能是隐私。例如,利用多场合收集的面部信息确定一个人的行踪和生活习惯,通过与不同的人互动时的表情,推演出私人情感关系等。面部信息虽然本身不是隐私,但却有可能成为打开隐私的钥匙。从前面关于面部识别技术带来的风险看,由于其具有“强识别性”,如果被用于前文所述的进入酒店、住宅和公寓的钥匙,用于解锁手机、电脑、车辆等设备,或用于登录线上线下服务,那么通过它不仅可能获取隐私信息,还有可能进入私人空间。


(三)面部信息何以成为“个人敏感信息”?


面部信息在数据保护立法中通常被认为是生物识别数据的一种,生物识别数据在GDPR和欧盟《执法指令》中被定义为基于特别技术处理自然人的身体、生理或行为特征而得出的个人数据,这种个人数据是能够识别或确定自然人的独特标识。生物识别技术涵盖多种技术,包括但不限于人的DNA(GDPR将基因数据与生物识别数据分开,单列出来)、指纹、虹膜、手印、面部模板、语音、步态或签名等。欧盟将生物识别信息分为两类:一类是“身体(physical)/生理(physiological)”特征,如面部、指纹、视网膜和虹膜等身体特征;另一类是“行为特征”,如根深蒂固的习惯、行为、人格特质、成瘾等。


在数据保护立法中,生物识别信息被归入特殊类别的个人信息,即“个人敏感信息”,受到法律的特殊保护。GDPR第9条规定对特殊类型个人数据应当禁止处理。这些数据包括:显示种族或民族背景、政治观念、宗教或哲学信仰或工会成员的个人数据,为了独特地识别自然人的基因数据、生物识别数据,以及和自然人健康、个人性生活或性取向相关的数据。美国国会正在进行的隐私立法尝试,多个立法草案如Data Protection Act of 2020、Data Privacy Act、Consumer Data Privacy and Security Act of 2020、Consumer Online Privacy Rights Act等,也都将生物识别信息列入“个人敏感信息”。无论是美国的立法草案还是欧盟的GDPR,“个人敏感信息”的范围大体一致。


尽管GDPR禁止处理个人敏感数据,但也规定了一些例外情况,例如,数据主体同意授权的例外,为了保护数据主体或其他自然人基本权利的例外,公共利益和公共健康的例外,司法活动的例外,数据控制者履行责任的例外,为了研究统计目的的例外等,其中包括“数据主体已经明显公开的相关个人数据”的例外。中国的《民法典》也将自然人“自行公开”和“合法公开”的信息作为个人信息保护的例外情形。但值得注意的是,人的面部信息从来都不是,也不可能是处于保密状态的,而是基本处于“明显公开”的状态。相比指纹和DNA等其他生物识别数据,人们的面部图像不能轻易隐藏,也易于捕捉。人的面部不可避免地会曝露在公共场合,无论是真实的公共场合还是虚拟的网络公共场合,如个人所在机构或企业的官方网站上。此外,个人也常常主动在网络进行公开传播。一个人通常无法避免其面部图像在公共场合被看到或获取。如果仅仅因为面部信息已经被公开,就可以被处理和使用,显然不符合个人信息保护的初衷。尽管GDPR对简单的“照片”和作为生物特征的“面部图像”的法律性质进行了区分,而生物识别数据的定义仅适用于通过特殊技术手段处理的,允许对自然人进行唯一识别或认证的照片,但实际上,经过特殊技术手段处理并不是照片能对自然人进行唯一识别和认证的必要条件。只要面部清晰的照片都有很强的识别性甚至是唯一的识别性。因此,尽管面部信息作为生物识别信息被归入“个人敏感信息”,但面部信息本身的公开性使得关于“个人敏感信息”的规定并不能为面部信息提供与其他“个人敏感信息”一样的特殊保护。因此,这个“明显公开”的例外是否应适用于面部图像或如何适用于面部图像是值得商榷的。


那么,立法为什么要将这些信息作为“个人敏感信息”进行特殊保护?这些信息究竟因什么而“敏感”(sensitive)或需要特别对待呢?如果说生物识别信息的敏感是因为它们具有“强识别性”,那么其他的诸如种族、信仰、政见等并不具有“强识别性”的信息,为什么也被列入“敏感”信息呢?这些“敏感”信息有些是隐私,如个人的性生活、性取向,但更多的信息很难划归到隐私范畴,如种族、政治观点、工会成员等信息。是什么因素使立法需要对他们特殊对待?非隐私个人敏感信息所保护的法益究竟是什么呢?


 

图1:个人信息、隐私、个人敏感信息关系图

(图中阴影部分为“非隐私个人敏感信息”)


按属性分,上述“个人敏感信息”可分为两大类,一类可称之为自然性信息,包括种族、民族、基因数据、生物识别数据,以及和自然人健康、个人性取向相关的数据,另一类是社会性信息,包括政治观念、宗教或哲学信仰或工会成员的个人数据。这些被列入“敏感”信息的,无论是种族、DNA、指纹等纯生物性的信息,还是信仰、政见等具有社会文化属性的信息,其实本身都没有高低贵贱的差别。但它们是个人的自然属性和社会属性最本质的部分,通常也是难以改变的部分。且在特定的社会文化语境下,个人因这些属性有被区别对待的可能性。因此,个人希望自己能控制这些信息被了解的范围、程度,而不论其是否会带来其他的损害。这种控制本身就是对个人而言最核心的价值。外在的歧视也好,可能给人身和财产安全带来的危险也好,自然由其他的权利提供保护。“个人敏感信息”,作为个人最本质的、最难以改变的自然属性和社会属性,个人可以选择让谁知晓,让谁使用。这是作为主体的人的尊严的体现。将“个人敏感信息”作为特殊类型的个人信息予以特殊保护,保护的实际上是个人对自己作为一个独特个体的最本质的东西的守护。正如欧洲人权法院所指出的,人的面部图像构成了他/她人格的关键属性之一,因为它揭示了人的独特特征并将他/她从同龄人中区分出来。因此,保护面部图像的权利是个人发展的重要组成部分之一。


与肖像权通常仅及于一张图片的权益不同,对面部信息的采集、处理和使用通常是指向对信息主体的识别、分析、以及更多地了解,是为了获得信息的增量,而肖像侵权是没有这个指向的。而且,信息的聚合可能会带来范围和后果均不可知的信息增量,而这种可能不断扩展的信息增量就可能构成对人的监视,使人被客体化。


此外,与肖像权不同,面部信息的“敏感性”高度依赖场景。面部信息的应用场景不同,其敏感性也有很大差别。美国皮尤研究中心(Pew Research Center)于2019年9月发布的一项全国调查显示,尽管美国人中有过半数(56%)的人相信执法机构能够负责任地使用这些技术,但对技术公司(36%)或广告商(18%)则明显缺乏信任(Pew Research Center,2019)。英国调查显示,应用场景不同,公众的态度差别很大。只有9%的人对基于警务目的使用面部识别感到完全不适,在机场使用时感到不适的比例为10%,在公共交通中为24%,在学校中为28%,在超市中为37%,在工作场所中为37%。不会感到不适的主要原因与提高安全性有关,而感到不适的主要原因与干扰人们的隐私有关。


迄今为止,欧洲国家公共机构实际使用实时面部识别技术的例子尚不多见,但也已经有一些成员国如英国、德国、法国、匈牙利、瑞典、捷克、奥地利和荷兰在考虑、测试或计划将该技术用于执法目的、大型活动和聚会以及公共场所的日常保安(FRA,2019)。德国汉堡警察局在2017年7月G20峰会中根据八个火车站的录像资料以及其他来源(例如公共汽车、地铁)的图像和录像资料,确定犯罪活动和相关个人,但汉堡数据保护专员发布的关于G20中使用面部识别技术的报告称该技术的使用不符合数据保护法,尽管目前还没有看到德国法院有关于警方违法使用该技术的判决。在美国,西雅图机场部署面部识别技术受到抵制(EPIC,2020),而旧金山市及其他一些城市也禁止使用该技术,以避免该技术被执法机构滥用,过度侵犯人们的隐私。在英国,南威尔士州警方因在体育赛事中使用实时面部识别技术被起诉至卡迪夫法院。此前,Facebook因在伊利诺伊州使用面部识别技术引发集体诉讼而赔偿5.5亿美元。在中国,如前文所述,浙江理工大学副教授郭兵,也因不愿使用杭州野生动物世界设置的人脸识别,将其诉至法院,并获得了胜诉判决。但是,尽管面部识别技术面临来自各个方面基于各种理由的挑战,但一旦获得必要的法律和技术支持,面部图像处理还是会更系统地用于出入境、安全等目的的大型IT系统。


 

国际社会对面部识别技术应用的立法动向


(一)欧盟


欧盟已有多部法律为面部识别技术的使用提供指引,除了GDPR外,还有《执法指令》(Law Enforcement Directive,2016),《欧盟机构、团体和部门数据保护规定》(Data Protection Regulation for EU institutions,Bodies and Agencies,2018)等也涉及到欧盟执法活动中和欧盟的组织机构对面部信息使用的规定。


欧盟基本权利局(Agency for Fundamental Right,FRA)于2019年11月发布报告《面部识别技术:执法中的基本权利考虑》(Facial Recognition Technology : Fundamental Rights Considerations in the Context of Law Enforcement),其中介绍了欧盟公共机构使用面部识别技术的情况,并对面部识别技术给基本权利的潜在影响进行了不完全列举,包括尊重私人生活和保护个人数据、非歧视、儿童和老年人的权利、表达自由、集会和结社自由、享受善政权和有效救济权等。


(二)美国


在美国,关于面部识别技术的应用在一些州已进入立法试水阶段。2020年7月,华盛顿州《面部识别服务法》生效,成为美国首个通过面部识别法案的州。同年,加州也通过了《面部识别法》。这些立法旨在避免州和地方政府机构对面部识别技术无限制地使用所造成的社会后果,使州和地方政府以有益于社会、避免危害民主和公民自由的方式使用面部识别技术。根据这些立法,州和地方政府机构可以使用面部识别技术,定位或识别失踪人员、确定死者身份、警报对象或其他可能的受害者等。这些立法要求相关机构在面部识别技术投入使用前至少90天通过其公共网站向公众发布问责报告,其中包含面部识别名称、供应商和版本、如何生成、收集和处理数据,数据管理政策以及数据安全措施、错误匹配率以及接收反馈的流程等信息。


除了各州的立法外,在联邦层面,2020年2月,也有议员向参议院提出了《合乎伦理使用面部识别法案》(Ethical Use of Facial Recognition Act)草案,该草案拟由国会设立专门委员会,负责审议、制订面部识别技术指南。在委员会形成政府使用准则和限制条件之前,暂时禁止政府机构使用人脸识别,以防止面部识别技术违反宪法第一修正案中规定的公民权利,即侵犯公民隐私权和影响公民自由。该草案称,面部识别技术的影响尚未经过充分考虑和适当讨论,但已有越来越多的美国执法机构使用或被推介使用该技术。已有证据显示面部识别技术对有色人种、活动家、移民和其他原本就受到不公正对待的群体的不良影响更为显著,特别是在识别女性、年轻人、非裔美国人和其他族裔群体时。有证据显示,面部识别技术已在抗议和集会现场被使用,而这可能会使公民发表言论时感到畏惧。面部识别技术不可用于压制受美国宪法第一修正案保护的相关活动、侵犯隐私或以其它方式对个人的公民权利和公民自由产生不利影响。


(三)欧美对面部识别技术规制的特点


1.重视准确性问题。鉴于准确性问题可能带来歧视和不公平问题,欧盟和美国在准确性方面做了很多测试,而在规则制订中对准确性及由此带来的算法歧视问题也投入了较高的关注度。这些规则大多要求将达到技术标准,即错误率低于一定比例作为可以使用或部署面部识别技术的前置条件,并要求将其公开写入使用前的问责报告。另外,还要求提供人工干预或其他替代方案应对准确性风险带来的问题。


2.重视对公权力的规制。尽管相比技术公司和广告商等,公众对公权力基于安全目的使用面部识别技术的接受度更高,但不论是在欧洲还是美国,立法中对政府机构部署面部识别技术仍很谨慎。对于公权力对面部图像的采集处理在GDPR之外又通过《执法条例》等进行规范。对照面部识别技术的应用场景看,公权力对面部图像的采集处理往往不能受个人信息保护的一般性原则——知情同意或通知选择原则——的调节。例如,不管是执法或边境使用,以及用于失踪人口的寻找,都不可能获得权利人的知情同意,因此,需要超越关于个人信息保护的一般性规定,进行单独的规定。


3.强调面部识别技术使用的合理性、相称性,对必要性的要求有弱化倾向。与对个人信息处理的一般性要求——必要性原则不同,在面部识别技术的应用上,欧盟和美国都更强调要能证明采集和处理面部图像的合理性、相称性,而非必要性。


4.对透明性的要求范围广泛。这些规则普遍要求,对于面部识别技术的使用,应当对监管机构和相关权利人(包括终端用户)保持透明性。这种透明性一方面要求其提供的信息要以简明、易懂、非专业人士都可理解的形式公开披露,另一方面,立法对面部识别技术使用的透明性要求非常彻底,公开的范围很广,且具体翔实。


 

面部信息立法的对策建议


面部信息鉴于其具有“强识别性”以及和其他个人信息的聚合能力,成为了对社会管理、商业利用具有重要价值的资源。加之,人的面部常常处于公开状态,不易保密,对个人面部信息的采集处理不可能完全禁止。从国际和国内的立法看,都尽力在面部识别技术的利用价值和给个人权利带来的影响之间维持平衡,在进行限制的同时规定了大量的例外情形。而公众对面部识别技术的接受度因应用场景的不同而不同,对相同的应用场景,也会有个体差异。基于上文对面部信息法律属性和国际立法动向的分析,本文对面部识别技术的使用和面部信息的采集处理提出两项规范建议。


(一)确立面部信息采集处理的“二元规则”:“公用”与“民用(商用)”双轨制


面部图像具有公开性,任何人都能看见。但是,不同主体对面部信息处理能力和信息聚合能力的差别却非常悬殊。例如,个人的行车记录仪以及住宅外的摄像头也会采集人的面部信息,但由于个人的数据处理和聚合能力弱,因而给他人权利带来的风险相对较小。


公权力和作为“私权力”的网络服务商是对面部信息进行采集处理最主要的主体,公众对面部识别技术的担忧主要来自公私权力对面部信息的采集、处理和使用对个人是不透明的,而个人面对公私权力却是赤裸的。公众担忧的是,公私权力有可能成为被技术加持的big brother,而社会由此成为升级版的《1984》。对于面部识别技术的担忧来自其加剧了信息的不对称和由此带来的权力失衡,使个人在面对公权力、“私权力”时更加脆弱。而这种脆弱来自个人信息处理和聚合能力的悬殊。因此,治理的核心是改变个人在面对公权力和“私权力”时的弱势地位。如果不能改变这种权力失衡的状态,就无法回应公众对“智慧政府”“智慧城市”建设可能会导致监控社会的担忧。


从国际社会目前对面部识别技术的立法现状来看,针对公权力的立法较多。例如,欧盟在GDPR之外,《执法指令》《欧盟机构、团体和部门数据保护规定》都对面部图像的采集和处理做出规定。值得注意的是,其对面部图像的处理的要求是“透明”和“数据最小化”,而非数据保护法关于个人数据处理和使用的一般原则——“知情同意”(informed consent)或“通知选择”(notice-choice)的原则。从公权力对面部信息的应用场景看,这不难理解。公权力对个人信息的采集处理往往不能受该原则调节。例如,不管是通缉逃犯还是用于边境管理,抑或是用于失踪人口的寻找,都不可能让权利人知情同意。欧盟在GDPR之外对公权力的数据采集和使用进行单独规定,也在一定程度上说明,对于公权力和个人或企业对面部信息的采集处理应有不同的规制路径。


公共机构的核心价值指向是安全、秩序,而商业机构的价值指向是发展、自由。这与二者的法律属性和在社会结构中的地位和作用密切相关。面对公权力,作为个体,往往不能选择同意与否,也无法授权。但是,这并不意味着公权力对个人面部信息的采集、处理和使用就不需要权利人的同意。只是这种同意需要以另一种方式获得。个人对公权力的“授权”需要通过立法,即公民和政府的“契约”,以公民“集体决策”的方式进行。在引入面部识别技术时,应当对使用该技术的各种方式、涉及的所有基本权利、要达到的合法目的、面部图像的获取方式及其使用的合理性进行评估。诸如预防犯罪或公共安全之类的普遍关注目标本身不足以证明其采用面部识别技术是正当的。


(二)建立“互动式授权”机制,使“知情同意”更加有效


鉴于数据流动的常态性,面部信息的采集、存储和处理是动态的过程,处于不断变化中,因此,对数据使用的同意、撤回同意、访问、删除等权利的行使实际上应该是用户日常化的行为,而不是一次性的行为。而且,信息技术的升级迭代周期非常短,每一次技术升级,都可能对权利产生新的影响,信息聚合又可能会产生更多的个人信息,因此都应当对权利的影响进行重新评估和说明,然后由权利人在此基础上决定是否还要继续授权。在数据不断流动和被共享的动态情境中,个人根据不断变化的情势,在获取充分信息的基础上,遵从自己的意愿做出授权应该成为个人日常的决策。


但是,目前通行的授权机制,是通过“隐私政策”或“用户协议”这样的格式合同,让用户一次性、一揽子授权。这种传统的授权机制下,尽管权利人点击了同意,但很可能并不是建立在充分知情基础上真实的意思表示。要切实保障权利人授权的真实性,即建立在知情和平等磋商基础之上的同意,就需要改变格式合同造成的对权利人的不公平待遇。


“互动式授权”指对面部信息使用的授权可以由数据控制者或权利人任何一方启动,在数据被采集、处理、使用、分享或以其他方式流动的过程中,权利人对原来的授权有疑问,或有新的风险忧虑,随时都可以向数据控制者寻求解释和说明,并进行磋商。在这种机制下,权利人可以变单向的被告知为双向的沟通和磋商,同时,个人也可以有目的地寻求、获取相关信息,从而能够在信息流动具体的情境中进行动态授权。当然,这会增加数据控制者的成本,但这是其为使用权利人面部信息付出的必要的代价。不过,大量的常态性沟通可以通过客服机器人完成,正如现在很多购物平台所采取的方式一样。


此外,目前的授权机制下,用户对数据采集、使用的“知情”都仅停留在“应然”的层面,即其只知道服务商在“隐私政策”或“用户协议”里所描述的数据会被如何处理使用,但其并不知道其数据被处理和使用的“实然”情况,即数据究竟是被如何处理和使用的。将“互动式授权”机制与查阅权结合,在一定程度上,可以使权利人知晓其数据被处理、使用的实然状况。


在这种“互动式授权”的机制下,对个人权利产生影响的每一次数据处理或共享,都会给个人提示,以获取其重新授权。而个人可以根据自己对面部信息的关切度,选择对何种处理可以自动同意,何种处理或使用需要进行提示,也可以随时撤回同意。另外,用户应当可以方便地查看完整的授权和服务的详细对照列表。总之,贯穿整个过程的,是权利人在信息透明基础上的自我选择。而这种互动磋商和授权的记录也可以作为以后纠纷裁决的依据。


本文系简写版,参考文献从略,原文刊载于《国际新闻界》2022年第2期。

 封面图片来源于网络

本期执编/小恒



编辑:邓秋雨



鲜花

握手

雷人

路过

鸡蛋

最新评论

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.