传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

媒体法规案例

[复制链接]
1120#
 楼主| 发表于 2022-7-21 19:58:22 | 只看该作者
【案例】
华尔街见闻”创始人与副总裁分别被判刑:涉案金额7500余万元
近日,一份上海市黄浦区人民法院的刑事判决书披露,金融商业信息自媒体平台“华尔街见闻”的创始人吴晓鹏及高管樊殿华,被法院以犯非法经营罪,分别判处两年九个月和五年有期徒刑并处罚金。
这是自去年四月因“选股宝”涉嫌无照经营,吴晓鹏被警方带走协助调查后,首个被披露出来的司法程序结果。
华尔街见闻是中国金融和商业信息自媒体平台,通过APP、网站、微信公众号和微博等媒体矩阵向投资者提供财经信息服务。
华尔街见闻网站是吴晓鹏于2010年底创立的,吴晓鹏原是《21世纪经济报道》驻美金融记者,曾采访过“债券之王”格罗斯、“股神”巴菲特等众多美国金融名人。
吴晓鹏早先在博客上发布金融财经信息,其个人博客名为“华尔街见闻”。在2012年底,吴晓鹏辞职回国全职运作华尔街见闻。2013年5月,华尔街见闻网站创始团队将公司总部注册在上海,而后曾先后获得华人文化、芒果传媒等投资。
全职运作华尔街见闻不久后,该平台微信粉丝就上升到47万,微信粉丝也达到了22万。
随后华尔街见闻开发客户端,APP上线后华尔街见闻拥有60万的独立访客,微信粉丝也涨到了近百万。一时间“华尔街见闻”在财经媒体圈里风光无限。
2019年6月10日,华尔街见闻在微博发布公告称,依据有关部门要求,其网站和APP下线整改,且未在公告中明确产品上架时间。
据此前媒体报道,华尔街见闻APP和网站被迫关停整改后,吴晓鹏开始尝试转型,将此前上线的投资理财软件“选股宝”加以完善。
2020年9月22日,华尔街见闻重新回归,APP和官网都可以正常访问,而在华尔街见闻“下线”的15个月里,选股宝一直都处在正常运营状态。
2021年4月,有传言称“选股宝因无证荐股被查”。有媒体发现,4月23日,选股宝断连后恢复,但涉及“专家”“大V”直播、发文荐股的板块,已被悄然下线。
同时有消息传出,吴晓鹏夫妇被警方带走协助调查。
近日传出的上海市黄浦区人民法院刑事判决书中,出现了华尔街见闻副总裁樊殿华的名字。此外第二被告为吴某,出生于1984年的湖北红安县,上海A有限公司法定代表人兼公司总裁,因该案于2021年4月21日被羁押,5月28日被逮捕。上述该被告人信息与吴晓鹏的个人信息高度重合。
上海市黄浦区人民检察院指控,上海A公司成立于2013年5月,吴某为法定代表人兼公司总裁,樊殿华为该公司原副总裁。2016年下半年起,在吴某的主持下,A公司在互联网以及移动客户端推出“选股宝”业务。2017年5月起,“选股宝”推出大V栏目,由公司与第三人签订合作协议,邀请对方入驻“选股宝”平台,在未经批准的情况下,在“选股宝”大V版块发布各类关于证券股票市场及个股的分析预测,提供具体股票的买卖操作建议等文章内容,从而进行非法证券咨询业务。2019年6月,深圳B有限公司(以下简称“B公司”)注册设立。被告人樊殿华为B公司法定代表人兼CEO。B公司设立后,“选股宝”业务全部划转至B公司经营,并在樊殿华的主持下,继续以上述方式开展大V栏目业务,非法从事证券投资咨询活动。
起诉内容显示,因公安机关接到举报,2021年4月21日,公安机关在樊殿华、吴某住处将2人抓获。到案后,被告人樊殿华、吴某如实供述了相关犯罪事实。
经审计,在2017年5月至2021年4月期间,“选股宝”大V栏目接受用户充值金额人民币7500余万元(以下币种同)。其中,2017年5月3日至2019年6月25日,用户在A公司“选股宝”大V栏目充值金额2200万余元;2019年6月26日至2021年4月23日,用户在B公司“选股宝”大V栏目充值金额5300万余元。
公诉机关据此认为,被告人樊殿华、吴某在单位经营活动中,未经批准非法经营证券业务,扰乱市场秩序,情节严重,2人的行为已触犯《中华人民共和国刑法》应当以非法经营罪追究刑事责任。被告人樊殿华、吴某到案后,如实供述自己的罪行,认罪认罚。公诉机关建议对被告人樊殿华判处有期徒刑2年6个月至3年,并处罚金,对被告人吴某判处有期徒刑1年6个月至2年,并处罚金。
判决书显示,多份证据证明了检方指控的内容和金额。法院认为,被告人樊殿华、吴某其行为均已构成非法经营罪,且部分系共同犯罪,依法判处被告人樊殿华犯非法经营罪,判处有期徒刑五年,并处罚金人民币三十万元。被告人吴某犯非法经营罪,判处有期徒刑二年九个月,并处罚金人民币十五万元。违法所得予以追缴。
来源:传媒特训营
编辑:吴漫

1119#
 楼主| 发表于 2022-7-20 21:18:34 | 只看该作者
【案例】
汤计诉遭网络侵权案宣判:原媒体人刘虎被判赔礼道歉,腾讯无责
原媒体人刘虎因在其微信公号发布《新华社记者帮山西商人“平事”受赠250多平洋房》文章,他和深圳市腾讯计算机系统有限公司(以下简称:腾讯公司)被新华社内蒙古分社退休员工汤计以网络侵权起诉至呼和浩特市新城区人民法院,索赔160万元。
刘虎7月19日收到的该案一审判决书显示,新城区法院审理认为,刘虎的案涉文章中,对于未经查实的有关原告汤计的举报、评论等内容进行引述、整合,并进行了具有引导性、倾向性的叙述和评论,对文章所载内容未能尽到审核的审查义务,文章容易导致读者对汤计的名誉产生错误的认识,易使社会公众作出对汤计的贬低性评论,构成对汤计名誉权的侵害。在无证据证明腾讯公司存在主观过错的情况下,腾讯公司无需承担侵权责任。
鉴于此,新城区法院一审判决刘虎在判决生效后,连续十日在涉案微信公号上发表致歉声明,并向汤计赔礼道歉,驳回汤计的其他诉讼请求。
刘虎7月20日告诉澎湃新闻(www.thepaper.cn),他不认同一审判决结果,并准备上诉。

新华社退休员工汤计起诉腾讯和原媒体人刘虎网络侵权案一审宣判,腾讯无责,刘虎赔礼道歉。 澎湃新闻记者 谢寅宗
新华社退休员工诉腾讯和自媒体侵权索赔160万
一审判决书显示,汤计今年1月27日起诉刘虎和腾讯公司后,新城区法院1月28日对该案立案受理。
汤计在诉讼请求中表示,2022年1月10日,微信公众号“巴蜀独立评论”推送原创文章《新华社记者帮山西商人“平事”受赠250多平洋房》(以下简称:涉案文章),作者为刘虎。涉案文章通过整合方式,大量引述其他自媒体账号及相关人员关于汤计的不实言论。
公开资料显示,刘虎曾先后在国内多家媒体担任调查记者。
汤计在诉状事实理由中举三个例子称:1、引用公众号“鹈鹕说”文章内容“汤计……利用身份影响力,干预司法走向……他自己则获得了呼和浩特市恒大翡翠华庭小区首期14栋一套价值159万余元的洋房”;2、“宏泰(注:内蒙古宏泰房地产开发有限公司,以下简称宏泰公司)公司几位股东认为……汤计涉嫌受贿、敲诈勒索、强迫交易、干预司法等多项犯罪活动”;3、“一位曾经在呼和浩特市媒体工作的人告诉笔者(注:刘虎)‘消费呼格(注:呼格吉勒图)是一方面,这个电影也是汤计淫威来源’”等。
起诉状写道,除了大量引用不实言论,涉案文章还称经“笔者实地探访”,宏泰公司高管说“汤计实际没有出一分钱房款,钱由我们宏泰公司支付了”;“内蒙古资深记者告诉笔者,呼格吉勒图案的翻案……跟汤计的内参根本没有直接关系,他却贪天之功”。
除此之外,汤计对涉案文章中“汤计是否涉嫌违规违纪和违法犯罪?……中纪委驻新华社纪检组已对此立案调查……丰镇市公安局、呼和浩特市新城区公安分局等亦在调查核实相关情况”有异议,认为涉案文章在明知相关部门正在调查、结果待定的情况下,大量整合、引述未经核实、缺少事实依据的不实言论,严重误导了公众,使公众误认为汤计有违法乱纪行为;刘虎探访所得的所见所闻已经超出客观评价的范畴,也具有明显的误导性。
起诉状称,涉案文章发表后产生极大的浏览量,并在新浪微博等其他自媒体平台进一步转发、扩散,严重损害了汤计的名誉,降低了社会评价,侵害了汤计的名誉权。
其次,涉案文章所谓“资深记者”关于汤计因呼格吉勒图冤案平反所获荣誉属于“贪天之功”等言论,是对汤计所获荣誉的诋毁、贬损,侵害了汤计的荣誉权。
汤计认为,刘虎作为涉案文章的作者,应当立即消除不良影响,恢复原告名誉、荣誉,并承担赔偿责任。腾讯公司作为网络服务提供者,有责任对微信公众号平台上发布的文章内容进行审核、把控,涉案文章侵犯了原告的名誉权和荣誉权,原告有权要求腾讯公司对涉案文章采取删除、屏蔽、断开链接等必要措施防止侵害进一步扩大,永久关闭“巴蜀独立评论”公众号,并就原告的各项损失与刘虎承担连带赔偿责任。判决书显示,汤计的诉讼请求包括:腾讯公司立即停止侵权,对“巴蜀独立评论”发布的侵害汤计名誉权、荣誉权的全部文章采取删除、屏蔽、断开链接、关闭账户等必要措施;刘虎连续三十日在“巴蜀独立评论”头条文章以及全国公开发行的中央级媒体报纸上向汤计公开赔礼道歉;刘虎赔偿汤计经济损失100万元,赔偿精神损害抚慰金50万元,以及汤计维权产生的公证费、保全保险费、保全费、律师费等10万元,腾讯公司承担连带赔偿责任。
一审判刘虎赔礼道歉、腾讯无责,驳回索赔诉请
对于汤计的诉讼请求,刘虎一审时辩称,案涉文章的主要内容是报道“‘鹈鹕说’运营者举报汤计及内蒙古宏泰房地产开发公司举报汤计,汤计予以回应”一事,刘虎全文并未对该事件进行主观评价,且文末也明确表示案件正在侦办中,因此不存在误导公众导致原告社会评价降低的行为,故其没有侵犯汤计的名誉权、荣誉权,不应承担任何民事责任。汤计的索赔,没有法律依据和事实依据。
腾讯公司也辩称,汤计对该公司的的诉请没有事实和法律依据。
新城区法院经审理认为,名誉是民事主体的品德、声望、才能等的社会评价。民事主体享有名誉权,任何组织和个人不得以侮辱、诽谤等方式侵害他人的名誉权。
本案中,刘虎在其原创涉案文中,对于未经查实的有关原告的举报、评论等内容进行引述、整合,并进行了具有引导性、倾向性的叙述和评论。
刘虎作为资深媒体从业者,应当以谨慎、求实、客观、公正的态度撰写文章或发表评论,对于受害人名誉可能受到贬损的报道,更应承担与其身份性质及影响范围相适应的较高的注意义务,但其在发表案涉文章时,对于文章所载内容未能尽到审慎的审查义务,主观上存在过错,其发表文章容易导致读者对原告汤计的名誉产生错误的认识,易使社会公众作出对汤计的贬低性评价,构成对原告名誉权的侵害。
依照《民法典》关于人格权的相关规定,人格权受到侵害的,受害人有权依法请求行为人承担民事责任,包括停止侵害、恢复名誉、赔礼道歉等。刘虎的行为侵害了汤计的名誉权,故汤计主张刘虎进行赔礼道歉,理由正当,应予支持。
关于汤计要求腾讯公司对案涉文章采取删除、断开链接、关闭账户等必要措施的诉请,经庭审查明,案涉文章已由腾讯公司采取断开链接处理,故该诉请不再另行支持。
对于汤计主张的160万元赔偿:原告主张因维权产生的费用,仅提供了产生律师费的相关证据,但该费用并非维权产生的必然费用,且原告与律所所签订的委托代理合同约定的律师费包含了诉讼案件的一审和二审程序,而本案二审程序并未实际发生,其相应主张并无事实基础,该院不予支持。
原告未提供证据证明存在其他经济损失,其主张被告赔偿经济损失100万元的诉请,法院不予支持。
关于精神抚慰金的诉请,法院认为,鉴于原告并无证据证明案涉文章对其造成严重精神损害,且汤计作为享有一定知名度的新闻从业者,较之普通民众需要承受更多的评论压力,亦应当承担更多的容忍义务,故对汤计主张的精神损害抚慰金诉请不予支持。
因在案证据无法证明腾讯公司在原告起诉前即知悉涉案文章存在,目前涉案文章已被断开链接无法查看,在无证据证明腾讯公司存在主观过错的情况下,腾讯公司无需承担侵权责任。
综上,新城区法院判决刘虎在该判决生效之日起十五日内,连续在涉案微信公号“巴蜀独立评论”上发表致歉声明,并向汤计赔礼道歉,致歉内容需经该院审核;驳回汤计的其他诉讼请求。案件受理费15400元,刘虎负担500元,汤计负担14900元。
刘虎对此表示,他写了别人指控汤计的内容,也引述了汤计自辩的内容,然后实地观看了这个争议标的物,是很平衡的,没有什么误导,不构成对汤计的名誉侵害。所以他并不认同判决结果,并准备上诉。
汤计7月20日告诉澎湃新闻,对于一审判决结果,除了对案件受理费不满意外,其他的结果他都能接受。他表示,暂时还没考虑是否上诉。新华社纪检部门、内蒙古多个公安部门对其被指控的内容进行了调查。接下来,他将抽时间就此事在北京召开发布会,并展示相关证据。同时,还将对最早撰文披露此事的“鹈鹕说”进行诉讼。
来源:澎湃新闻
编辑:吴漫

1118#
 楼主| 发表于 2022-7-20 00:11:58 | 只看该作者
【案例】
推特董事会与马斯克的法律大战
78日,美国亿万富翁马斯克(Elon Musk)宣布撤回以440亿美元报价对网络社交平台推特(Twitter)的收购。马斯克的这项决定距离他与推特董事会达成收购协议不到三个月的时间。
推特董事会12日向法院提交诉状,要求马斯克履行收购协议。而在近三个月前马斯克宣布收购推特时,推特董事会曾打算以“毒丸计划”抵御马斯克的收购行动。
三个月不到,收购方与被收购方都发生了180度的变化,是什么原因呢?
马斯克指推特董事会违反收购协议的多项条款,未向他提供必要的数据来评估推特的假账户究竟有多普遍;马斯克发现,推特提交的用户名单中,有大量的假账户,又叫幽灵账户或者机器人账户。马斯克的律师指出:推特不能证明其假账户不超过用户总数的5%,推特用户总数不能如实反应推特的股价。也就是说,马斯克认为,440亿收购价显然高于推特的价值。
马斯克决定停止收购推特,重挫了推特员工的士气。440亿美元,对推特董事会来讲,是天降的一笔财富,其吸引力远远超过失去推特的不快。推特董事会表示,他们已经与马斯克完成交易,他们按照马斯克的要求,每日向他提供发送推文原始数据,每天删去100万个假账户。马斯克不相信推特的假账户占推特总用户的5%,那是为毁约找借口。
当初,马斯克宣布收购推特,引发美国企业界、政界与媒体的高度关注,媒体认为马斯克是网络言论自由的拥护者。马斯克也表示收购推特不为赚钱,是因为相信推特作为全球言论自由平台的潜力,并相信对于正常运作的民主体制来说,言论自由是不可或缺的社会元素。三个月后,马斯克由言论自由的拥护者回归为一个商人,痛惜自己的440亿美元,他虽为全球首富,即使为言论自由,也不愿多花一分钱。
推特是个坚持左派理念的言论平台,其董事会并无言论自由的概念,毫不手软的删除和屏蔽与自己的理念不符的言论,关闭发表这些言论的账户。但在440亿巨资收购面前,他们放弃了自己的理念,把表达自己政治理念的言论平台交给收购者马斯克。曾经要以“毒丸计划”抵御马斯克收购行动的推特董事会,现在为了让马斯克收购自己,甚至要与马斯克打一场法律大战。
马斯克与推特董事会不到三个月180度的变化,像是上演了一出剧情急剧翻转的大戏。戏中表达的理念是真的,但金钱比理念更真实。
推特董事会最终能不能迫使马斯克收购他不再想收购的推特,要看推特董事会与马斯克法律大战的结局,而结局将由法官决定。媒体报道:主审此案的是特拉华州衡平法院(Delaware Court of Chancery)首席法官麦考密克(Kathaleen McCormick)。根据法庭记录,命令想在收购中途走人的买家完成交易的法官屈指可数,麦考密克是其中之一。麦考密克主审此案,这对马斯克并不是好消息。
来源:法国国际广播电台
编辑:吴漫

1117#
 楼主| 发表于 2022-7-18 09:42:25 | 只看该作者
【案例】
SEC关注马斯克收购Twitter交易 将来或展开调查
来源:新浪科技
  新浪科技讯 北京时间7月14日晚间消息,据报道,Twitter今日提交给美国证券交易委员会(SEC)的文件显示,SEC上个月曾要求特斯拉CEO埃隆·马斯克(Elon Musk)对其有关Twitter交易的推文进行解释,而马斯克却回应称,没有这个必要。
  由于对Twitter平台上机器人账号的比例表示怀疑,马斯克5月17日曾在Twitter上发文称,除非Twitter能提供证据,证明其虚假用户比例不到5%,否则收购交易将无法推进。
  6月7日,马斯克的律师在一封信中称,SEC的工作人员对马斯克的这条推文提出了质疑,并要求做出解释。而马斯克则认为,这条推文还足以让他修改之前提交SEC的申报文件。
  Skadden, Arps, Slate, Meagher & Flom律师事务所的律师迈克·林格勒(Mike Ringler)在信中写道:“马斯克认为,2022年5月17日在Twitter平台上发布的关于垃圾邮件和虚假账户的推文,还不足以让他对之前提交的Schedule 13D文件进行任何必要的修订。
  林格勒还称:“尽管马斯克希望获得信息来评估潜在的垃圾邮件和虚假账户,但当时马斯克关于拟议交易的计划和提议并未发生实质性变化。”
  马斯克律师的这封信表明,SEC正在就马斯克以440亿美元收购Twitter交易的披露情况提出质疑。上周,马斯克表示将放弃这笔交易,而Twitter已经提起诉讼。
  2018年,马斯克曾与SEC达成了一项和解协议。除了罚款、卸任特斯拉董事长,根据该和解协议,特斯拉还承诺对马斯克的推文和其他有关公司的通讯进行监督。
  今年3月,马斯克请求法官终止这项协议,称该协议被SEC用于践踏《第一修正案》赋予他的权利,并事先限制他的言论。但该请求被法院驳回,而马斯克也提起上诉。
今日有分析人士称,SEC很可能会对马斯克收购Twitter交易展开调查,以评估马斯克在交易过程中是否误导了市场。
来源:新浪财经
编辑:屈妍君

1116#
 楼主| 发表于 2022-7-3 16:04:15 | 只看该作者
【案例】

脸上的权利:作为“非隐私个人敏感信息” 的面部图像

本文得到国家社科基金一般项目“网络安全发展视角下‘平台型’网络运营商法律责任研究”(项目编号:17BXW090)的资助。

德国哲学家莱布尼茨(Gottfried Wilhelm Leibniz)的名言“世界上没有两片完全相同的树叶”被广为流传。但据说此名言系经改编而成,莱布尼茨的原话是“凡物莫不相异”“天地间没有两个彼此完全相同之物”。对于比树叶复杂得多的人而言,更是“莫不相异”。尽管每个人都有五官,谁也不多,谁也不少,但我们仅仅通过人的脸,就能区分出亿万个不同的个体。而除了脸之外的任何其他部位,虽然也都各不相同,但作为普通人,很难通过它们将人区分开来。

随着面部识别技术的应用,大量的面部信息被采集、处理和使用,引起了社会的普遍关注。对此,已经有人通过诉讼捍卫面部信息的权利。浙江理工大学副教授郭兵因不愿意使用面部识别,将杭州野生动物世界诉至法院,成为中国人脸识别第一案。而《民法典》明确规定“生物识别信息”受法律保护,更是为公民个人捍卫面部信息的权利提供了法律依据。

如果说肖像权起源于光影成像技术对人面部的再现,那么计算机视觉技术、人工智能和机器学习,则使得人的面部信息能够以数字化的方式处理、使用。技术对人的入侵、干预的方式和程度被大大改变,从而使面部信息成为了个人信息权所保护的对象。本文从面部识别技术及其应用出发,分析了其对人的基本权利带来的影响及在传播语境中的表现。然后分析了面部信息为什么是“非隐私个人敏感信息”。最后,在对欧美关于面部识别信息的保护路径进行分析的基础上,提出对策建议。



研究背景:面部识别技术的应用与风险

(一)面部识别技术概述

面部识别技术(Facial Recognition Technology,FRT)也被称为人脸识别技术,是生物识别技术的一种,该技术通过创建“生物识别模板”(biometric template)来提取并进一步处理生物识别数据。关于面部识别技术的研究最早起源于20世纪60年代,到90年代进入了初级应用阶段。过去十年,面部识别技术已成为最强大的生物识别技术之一(WEF,2020)。基于计算机视觉技术、大数据、人工智能和机器学习,面部识别技术可以提取、检测和测量各种面部特征,并将它们与从其他面部获得的特征进行比较。通过面部识别技术,可以对人进行验证(verification)、识别(identification)、或分类(categorization)(FRA,2019)。将从摄像机(闭路电视CCTV)获取的连续镜头与数据库中的形象进行比对,被称为实时面部识别技术(Live FRT,LFRT)(Fussey & Murray,2019:36)。由于受光线、距离和位置等的影响,从闭路电视提取的面部图像的质量无法控制,因此,实时面部识别技术更有可能导致错误匹配。

计算能力的提高、海量面部数字图像以及现代机器学习算法的使用,使得面部识别技术的准确度自2014年以来取得巨大提升(Grother,Ngan & Hanaoka,2018)。面部识别技术的应用范围也在不断拓展。已经有研究尝试从面部图像中推断出性取向等特征(Wang & Kosinski,2013)。面部识别技术还可用于推断诸如愤怒、恐惧或幸福之类的情绪,并结合其他技术,检测人们是在说谎还是在讲真话。据美国国家标准与技术研究院(NIST)的研究显示,2010年,最高效的面部识别系统已经达到72%的准确率,而现在这个准确率甚至可以超过95%(Grother,Ngan & Hanaoka,2018)。目前应用最广的面部识别算法有Facebook的DeepFace(2014)和Google的FaceNet(2015)。据全球第二大市场研究机构Markets and Markets2019年年中发布的预测显示,面部识别系统的改进将使该项技术的市场总量从2019年的32亿美元增加到2024年的70亿美元(Market and Markets,2019)。

使用面部识别技术的主体也越来越多。过去几年,许多公共机构和私人企业开始在全球范围内测试或计划使用面部识别技术。对企业而言,面部识别技术被广泛用于广告、营销和其他目的,例如通过识别客户并根据其面部表情预测他们对产品的偏好,分析面试中应聘者的面部表情等。互联网和社交媒体公司如Facebook还会通过标记人脸来部署面部识别技术以改善其系统。在足球俱乐部等体育场所,面部识别技术被用来识别禁止参加俱乐部比赛的人,也有机构将其用于会员制场所的入场(FRA,2019)。人工智能驱动的面部识别技术的最新发展不仅对企业有吸引力,也为公共行政开辟了新的可能性,包括用于边境管理、搜索通缉犯等执法活动,以及对公共场所的安保,以使控制系统更加高效,此外,面部识别技术还被用于寻找失踪人员或刑事案件被害人等。

(二)面部识别技术对公民权利的影响及在传播语境中的风险

1.面部识别技术的应用风险及对公民权利的影响

新技术的产生总是会对既有的生活生产模式产生影响,也会带来一定的风险,触及传统的权利,调整既有的权力结构,促使制度层面做出相应的调整。工业革命、信息革命都是如此。面部识别技术对社会和对个人的益处都是公认的。但是,该技术的应用也会给人的基本权利带来负面的影响。例如国际社会普遍关注的准确性的问题。据美国电气与电子工程师学会(IEEE)发表的研究显示,面部识别可能存在不公平的偏见,会根据人口统计特征展现出不同的结果。性别、年龄、身高、是否戴眼镜或头巾都可能会影响其准确性和性能(Cook,Howard,Sirotin,Tipton & Vemury,2019)。因此,将非歧视要求纳入技术规范成为避免面部识别技术带来的风险的路径之一。在我国,尽管目前还没有关于人脸识别技术的国家标准(GB),但是已经制订了一些行业标准(GA)。

不过,准确性问题带来的不公平对待和偏见并不是面部识别技术应用具有的唯一风险,甚至不是最大的风险。商家不经授权就采集、处理和分析客户面部信息数据,学校运用面部识别技术监控学生,个人生物特征数据泄露事件,面部识别系统开发者未经同意使用用户数据进行开发等行为都在挑战着公民的基本权利。美国公民自由联盟(ACLU)指出,最令人担忧的是,面部识别技术原本仅仅是“收集和存储信息以备不时之需,现在却逐渐变成主动对人们进行监视,而且通常是实时监视”。

通常认为,对于身体的隐私部位,如果使其暴露、公开,是对人的尊严的侵犯,但人的面部通常总是公开暴露的,任何人都看得到,所谓“监视”也只是多一双眼睛来看,怎么会伤害尊严呢?人的脸上的尊严从何而来?

与暴露隐私部位会给人带来羞耻感不同,面部信息作为“个人信息”,其核心权利诉求是“信息自决”,即对自己的个人信息如何被收集、使用拥有决定权。尤其是人的面部,更是一个人人格的外在表征,是个人悉心经营的自我形象,因此有很多表达如“脸面”“长脸”“打人不打脸”等都将人的面部作为个人人格尊严的表征。因而,面部信息的采集、处理和使用如果不是在个人知情同意的前提下进行,那么就是对人的尊严的侵犯。因此,面部图像数据如何以尊重人的尊严的方式进行采集处理,以使人能被有尊严地对待,也是该技术使用需要面对和解决的问题。

同时,由于人的面部具有“强识别性”,如果它被用来作为进入酒店、公寓和住宅的钥匙,用于解锁手机、电脑、车辆等设备,或用于登录银行在内的线上线下服务,还可能危害人的人身、财产权利。

此外,面部识别技术对人的基本权利的影响还体现在其可能会干扰或侵犯表达自由。言论和信息自由是民主社会的基石。面部识别技术的应用,尤其是实时面部识别,会对知道自己正在被注视着的人产生“寒蝉效应”,在表达时畏首畏尾,而不会以原来的方式表达自己的想法。德国法院将通过社交媒体发布在示威活动中拍摄的照片认定为非法,理由是这会对集会自由产生负面影响(FRA,2019)。人们在前往受监视的公共场所以及网络空间时可能会感到不舒服,并因此改变自己的行为,退出社交生活,不去受监视的地点,避免参加文化、社交或体育活动,减少网络活动。

另外,从信息自由的角度看,使用面部识别技术还有一些法律和技术层面未能解决的问题。《欧盟基本权利宪章》第8条第2款和GDPR都规定了访问、更正和删除自己存储的个人数据的权利。我国《民法典》也在第1037条中规定了公民对个人信息的查阅、复制、修改、删除的权利。尽管鉴于执法机构有义务在一定程度的保密性下工作,以确保其工作的有效性,GDPR(General Data Protection Regulation,通用数据保护条例)和欧盟的《执法指令》规定了公民访问、修改和删除个人数据的例外情况,即如果数据处理的目的涉及预防、调查、侦查或起诉刑事犯罪,执行刑事处罚或维护公共安全,访问个人数据以及要求更正或删除的权利可能受到限制,但在这些例外情况之外,对于个人如何行使访问、更正或删除存储在大型IT系统中的个人数据的权利,如果立法不能做出合适的安排,就会损害公民获取信息的权利。而这一获取信息的权利,又是行使表达权的前提。

2.面部识别技术对传播活动的影响及其风险

微型摄录设备的普遍使用,使得越来越多的智能终端都能够接收和传输面部图像信息,这进一步拓展了面部识别技术和面部信息的应用场景。除了公共场所的闭路电视,PC和智能手机等日用的智能终端都有视频采集功能,这些硬件装置和面部识别软件的使用,使得对面部信息的采集、处理和分析都变得极为便利。而且,由于智能终端的使用者距离摄像装置更近,以及终端设备对光线的调适能力更强,其所能采集的面部图像的清晰度比公共场所的摄像机更清晰。

在面部识别技术的支持下,对面部信息的商业化采集、处理和使用呈现井喷态势,而由此带来的风险也逐渐浮出水面。如AI换脸软件“ZAO”仅需要一张正脸照,即可用用户的面部图像制作网络热门表情包,出演经典电影片段。但其也因数据安全问题于2019年9月被工信部约谈。还有企业开发APP,以提供小额贷款为名,要求用户注册后完善借款信息,获取用户姓名、身份证、银行卡、手机号码、人脸识别信息、通讯录、通话记录等信息。而面部信息的采集由静态变为动态,更是大大增加了人身、财产安全的风险。银行很多业务可以在线办理,只需做眨眼张嘴等简单的动作即可进行身份识别,而个人面部动态图像的采集,无疑会带来财产上的风险。此外,令人担忧的还有将面部图像用于色情产业领域等。例如,2017年,一位名叫“deepfakes”的外国网民利用人工智能技术,将电影《神奇女侠》《哈利·波特》中明星的脸“移花接木”到不雅视频的女主角身上,一度掀起轩然大波。

如果说,上述情况可能仅和某些软件或这些软件的某些功能的主动使用有关,那么,从2019年到今天的新型冠状病毒疫情期间,为实现远程线上交流,网络视频服务软件如视频会议平台等被普遍使用,使得更多的人不得不使自己的面部信息暴露于网络空间。如网络视频会议软件Zoom所暴露的加密技术的可靠性问题也确实会让人担心网络的视频互动是否会被非法干扰和利用。现在,几乎每个人都会在网络空间的多个平台留下自己的痕迹,其中包含大量个人信息,这些信息和具有“强识别性”的面部信息聚合,可以形成对人的非常全面具象且直观可视的深度画像。

目前,由于缺乏经验性研究,面部识别技术的风险还难以被全面认知和预测。但面部识别技术与无处不在的摄像头、人工智能和数据分析相结合,使大规模的监视有了很大的可能性。人们在未经知情同意的情况下被进行面部识别,尤其是“实时面部识别”,会使个体相对于公权力和“私权力”,处于非常弱势的地位(weak position),进而引发公众对国家以及大型互联网企业与个人之间权力严重失衡的担忧。



作为“非隐私个人敏感信息”的面部图像

(一)为什么不是肖像?

提及面部识别,往往会联想到肖像。其实二者存在根本的区别。肖像通常被认为是特定自然人外貌形象的固定形态(fixation)。自然人的外貌形象借助一定的手段,在某个物质载体上固定下来,就被称为他的肖像(魏永征,周丽娜,2019:178-180)。肖像是自然人形象的再现,这种“再现”并不要求在物质载体中表现的形象与本人的真实形象百分百的完全相同。因此,只要以某种方式在物质载体中表现出的形象能够使他人将其与特定的某人联想为同一人,就可构成“再现”(郭明瑞,2014)。这与作为生物识别信息意义上的面部信息是不同的。因此,漫画表现的人物形象如果能够辨别为某个特定的人就属于肖像,但却并不能被认为是面部信息。

(二)为什么不是隐私?

那么,面部图像属于隐私吗?有研究认为,面部图像的初始生物特征处理、视频片段的任何后续保留,以及将其数据与“监视列表”进行比较,都对尊重私人生活权和保护他人的权利构成了干扰(Fussey & Murray,2019)。国内也有学者提出,数字社会的隐私呈现出“信息隐私化”的新特征。即信息时代的隐私可能不同于传统社会,在信息的收集、储存、加工和使用中产生了性质的改变,一些传统上不属于隐私的信息在新的环境下成为了隐私(王俊秀,2020)。对于人的面部而言,一般社会环境下,除极少数文化背景外,都是公开示人的,本不属于隐私范畴,人体的私密部位才属于隐私。但人脸识别技术使得原本公开的信息成为隐私信息,也就是信息隐私化使得传统隐私的边界得以扩展(王俊秀,2020)。

的确,隐私的内涵与其最初产生时发生了很大的变化。在美国的语境中,从来没有将个人信息与隐私界分开来。布兰戴斯(Louis Brandeis)与沃伦(Samuel Warren)在《隐私的权利》中主张设立的隐私是“不被打扰的权利”(the right to be left alone)。早在1967年,艾伦·威斯汀(Alan Westin)就已在《隐私与自由》中将隐私定义为“对与自己有关的信息在何时、以何种方式、在多大范围公之于他人的决定权”(Westin,1967:7)。可见,在美国,隐私内涵的扩展早已把个人信息自决权包含在内。

尽管公共场合通常可以作为隐私侵权的抗辩理由,但是,并非公共场合就没有隐私。例如开在公共道路上的私人汽车里,处在公共场所的私人手机里的信息,都是隐私的范畴。与他人的亲密互动,即使是在公共场合,也可能属于私人生活。欧洲人权法院用“对隐私的合理期望”指代人们可以期望在公共场所获得隐私的程度。在公共场合,人们的确可以有“合理的隐私期待”,这种隐私期待也并不仅仅指公共场合的私人空间和私人信息。据联合国专家称,集会参加者公开露面这一事实并不意味着他们的隐私就不会受到侵犯。可见,隐私的范围已经扩展到私人生活范畴之外。

但是,在“个人信息”作为一项新的权利已经于1970年代被创设,今天已经成为普遍认可的独立权利,且面部信息作为生物识别信息已经被列入“个人敏感信息”进行特殊保护的背景下,继续延展隐私的边界,将几乎总是处于公开曝露状态的面部纳入隐私权进行保护,既没有必要,对于解决新技术带来的问题也并无帮助。

隐私权的内核和本质要求是保密、不公开、不受干扰。根据《民法典》,侵害隐私的方式是“刺探”“侵扰”“泄露”“公开”。而个人信息的权利本质(essence of right)是信息自决。面部信息的权利诉求是,它可以是公开的,但不是公共的,不可以随便采集、处理和使用,即个人对其有自决权。当然,对于隐私,个人也有自决的权利,但这一权利应当仅及于公开与否,而非如何被采集、处理和使用。面部信息从本质上没有保密的要求、属性和可能性。对于面部信息的采集、处理和使用,需要进一步分析其内在结构,而不能以隐私概之。将隐私的范畴延展至个人面部信息,不利于有效地规范面部信息的使用,同时也会消解掉隐私概念。

在《民法典》中,隐私指的是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。隐私指向不能公开,个人信息则指向不能采集、处理和使用,无论其是否是公开的。隐私主要是被作为消极的、防御性的权利,而个人信息则有更多的积极的、支配性意味。个人在公共场合可以被看,但不可以被拍,就是因为这种“自决”或“支配”的权利。人的面部在公共场合被看到,不会涉及任何侵权,但面部图像一旦被采集则意味着可以在别的场合、别的时空、以别的方式被看到、处理和使用。这种在别的时空中被看到的可能性,不知被用于何处的可能性,以及通过信息聚合所产生的不确定的且不为个人所知的信息增量,才是最令人不安的。换句话说,个人对于面部信息所担心的,不是这些信息被别人知晓,而是自己无法知晓别人了解了什么、会了解什么,以及了解之后会产生什么后果。对面部信息的保护不是为了保密,而是为了避免面部信息被采集、处理所可能产生的个人无法控制的后果,以及人被客体化对待的羞辱感。这是个人信息保护要解决的问题,而不是隐私权要解决的问题。英国民间社会代表曾起诉南威尔士警方,理由是警方对在面部识别技术测试时试图遮住脸的人处以罚款(FRA,2019)。人的尊严来自被当作主体的人来对待,来自自己能够按自己的意志控制与自己有关的事务。因此,面部识别技术所干扰的不是个人的私人生活,而是作为具有主体性的人按其自由意志行事的自由。

综上所述,面部信息和姓名一样,是重要的识别符,具有“强识别性”,但却不是隐私。但值得注意的是,面部信息虽然不是隐私,但是在什么地方、以什么方式、用什么系统收集到面部信息以及如何处理和使用面部信息可能会触及到隐私。即对面部信息的采集、处理和使用可能会产生和隐私权竞合的情况。面部信息不是隐私,也不是“合理的隐私期待”,但基于面部信息的聚合或者和其他信息的聚合所产生的信息则有可能是隐私。例如,利用多场合收集的面部信息确定一个人的行踪和生活习惯,通过与不同的人互动时的表情,推演出私人情感关系等。面部信息虽然本身不是隐私,但却有可能成为打开隐私的钥匙。从前面关于面部识别技术带来的风险看,由于其具有“强识别性”,如果被用于前文所述的进入酒店、住宅和公寓的钥匙,用于解锁手机、电脑、车辆等设备,或用于登录线上线下服务,那么通过它不仅可能获取隐私信息,还有可能进入私人空间。

(三)面部信息何以成为“个人敏感信息”?

面部信息在数据保护立法中通常被认为是生物识别数据的一种,生物识别数据在GDPR和欧盟《执法指令》中被定义为基于特别技术处理自然人的身体、生理或行为特征而得出的个人数据,这种个人数据是能够识别或确定自然人的独特标识。生物识别技术涵盖多种技术,包括但不限于人的DNA(GDPR将基因数据与生物识别数据分开,单列出来)、指纹、虹膜、手印、面部模板、语音、步态或签名等。欧盟将生物识别信息分为两类:一类是“身体(physical)/生理(physiological)”特征,如面部、指纹、视网膜和虹膜等身体特征;另一类是“行为特征”,如根深蒂固的习惯、行为、人格特质、成瘾等。

在数据保护立法中,生物识别信息被归入特殊类别的个人信息,即“个人敏感信息”,受到法律的特殊保护。GDPR第9条规定对特殊类型个人数据应当禁止处理。这些数据包括:显示种族或民族背景、政治观念、宗教或哲学信仰或工会成员的个人数据,为了独特地识别自然人的基因数据、生物识别数据,以及和自然人健康、个人性生活或性取向相关的数据。美国国会正在进行的隐私立法尝试,多个立法草案如Data Protection Act of 2020、Data Privacy Act、Consumer Data Privacy and Security Act of 2020、Consumer Online Privacy Rights Act等,也都将生物识别信息列入“个人敏感信息”。无论是美国的立法草案还是欧盟的GDPR,“个人敏感信息”的范围大体一致。

尽管GDPR禁止处理个人敏感数据,但也规定了一些例外情况,例如,数据主体同意授权的例外,为了保护数据主体或其他自然人基本权利的例外,公共利益和公共健康的例外,司法活动的例外,数据控制者履行责任的例外,为了研究统计目的的例外等,其中包括“数据主体已经明显公开的相关个人数据”的例外。中国的《民法典》也将自然人“自行公开”和“合法公开”的信息作为个人信息保护的例外情形。但值得注意的是,人的面部信息从来都不是,也不可能是处于保密状态的,而是基本处于“明显公开”的状态。相比指纹和DNA等其他生物识别数据,人们的面部图像不能轻易隐藏,也易于捕捉。人的面部不可避免地会曝露在公共场合,无论是真实的公共场合还是虚拟的网络公共场合,如个人所在机构或企业的官方网站上。此外,个人也常常主动在网络进行公开传播。一个人通常无法避免其面部图像在公共场合被看到或获取。如果仅仅因为面部信息已经被公开,就可以被处理和使用,显然不符合个人信息保护的初衷。尽管GDPR对简单的“照片”和作为生物特征的“面部图像”的法律性质进行了区分,而生物识别数据的定义仅适用于通过特殊技术手段处理的,允许对自然人进行唯一识别或认证的照片,但实际上,经过特殊技术手段处理并不是照片能对自然人进行唯一识别和认证的必要条件。只要面部清晰的照片都有很强的识别性甚至是唯一的识别性。因此,尽管面部信息作为生物识别信息被归入“个人敏感信息”,但面部信息本身的公开性使得关于“个人敏感信息”的规定并不能为面部信息提供与其他“个人敏感信息”一样的特殊保护。因此,这个“明显公开”的例外是否应适用于面部图像或如何适用于面部图像是值得商榷的。

那么,立法为什么要将这些信息作为“个人敏感信息”进行特殊保护?这些信息究竟因什么而“敏感”(sensitive)或需要特别对待呢?如果说生物识别信息的敏感是因为它们具有“强识别性”,那么其他的诸如种族、信仰、政见等并不具有“强识别性”的信息,为什么也被列入“敏感”信息呢?这些“敏感”信息有些是隐私,如个人的性生活、性取向,但更多的信息很难划归到隐私范畴,如种族、政治观点、工会成员等信息。是什么因素使立法需要对他们特殊对待?非隐私个人敏感信息所保护的法益究竟是什么呢?


图1:个人信息、隐私、个人敏感信息关系图
(图中阴影部分为“非隐私个人敏感信息”)

按属性分,上述“个人敏感信息”可分为两大类,一类可称之为自然性信息,包括种族、民族、基因数据、生物识别数据,以及和自然人健康、个人性取向相关的数据,另一类是社会性信息,包括政治观念、宗教或哲学信仰或工会成员的个人数据。这些被列入“敏感”信息的,无论是种族、DNA、指纹等纯生物性的信息,还是信仰、政见等具有社会文化属性的信息,其实本身都没有高低贵贱的差别。但它们是个人的自然属性和社会属性最本质的部分,通常也是难以改变的部分。且在特定的社会文化语境下,个人因这些属性有被区别对待的可能性。因此,个人希望自己能控制这些信息被了解的范围、程度,而不论其是否会带来其他的损害。这种控制本身就是对个人而言最核心的价值。外在的歧视也好,可能给人身和财产安全带来的危险也好,自然由其他的权利提供保护。“个人敏感信息”,作为个人最本质的、最难以改变的自然属性和社会属性,个人可以选择让谁知晓,让谁使用。这是作为主体的人的尊严的体现。将“个人敏感信息”作为特殊类型的个人信息予以特殊保护,保护的实际上是个人对自己作为一个独特个体的最本质的东西的守护。正如欧洲人权法院所指出的,人的面部图像构成了他/她人格的关键属性之一,因为它揭示了人的独特特征并将他/她从同龄人中区分出来。因此,保护面部图像的权利是个人发展的重要组成部分之一。

与肖像权通常仅及于一张图片的权益不同,对面部信息的采集、处理和使用通常是指向对信息主体的识别、分析、以及更多地了解,是为了获得信息的增量,而肖像侵权是没有这个指向的。而且,信息的聚合可能会带来范围和后果均不可知的信息增量,而这种可能不断扩展的信息增量就可能构成对人的监视,使人被客体化。

此外,与肖像权不同,面部信息的“敏感性”高度依赖场景。面部信息的应用场景不同,其敏感性也有很大差别。美国皮尤研究中心(Pew Research Center)于2019年9月发布的一项全国调查显示,尽管美国人中有过半数(56%)的人相信执法机构能够负责任地使用这些技术,但对技术公司(36%)或广告商(18%)则明显缺乏信任(Pew Research Center,2019)。英国调查显示,应用场景不同,公众的态度差别很大。只有9%的人对基于警务目的使用面部识别感到完全不适,在机场使用时感到不适的比例为10%,在公共交通中为24%,在学校中为28%,在超市中为37%,在工作场所中为37%。不会感到不适的主要原因与提高安全性有关,而感到不适的主要原因与干扰人们的隐私有关。

迄今为止,欧洲国家公共机构实际使用实时面部识别技术的例子尚不多见,但也已经有一些成员国如英国、德国、法国、匈牙利、瑞典、捷克、奥地利和荷兰在考虑、测试或计划将该技术用于执法目的、大型活动和聚会以及公共场所的日常保安(FRA,2019)。德国汉堡警察局在2017年7月G20峰会中根据八个火车站的录像资料以及其他来源(例如公共汽车、地铁)的图像和录像资料,确定犯罪活动和相关个人,但汉堡数据保护专员发布的关于G20中使用面部识别技术的报告称该技术的使用不符合数据保护法,尽管目前还没有看到德国法院有关于警方违法使用该技术的判决。在美国,西雅图机场部署面部识别技术受到抵制(EPIC,2020),而旧金山市及其他一些城市也禁止使用该技术,以避免该技术被执法机构滥用,过度侵犯人们的隐私。在英国,南威尔士州警方因在体育赛事中使用实时面部识别技术被起诉至卡迪夫法院。此前,Facebook因在伊利诺伊州使用面部识别技术引发集体诉讼而赔偿5.5亿美元。在中国,如前文所述,浙江理工大学副教授郭兵,也因不愿使用杭州野生动物世界设置的人脸识别,将其诉至法院,并获得了胜诉判决。但是,尽管面部识别技术面临来自各个方面基于各种理由的挑战,但一旦获得必要的法律和技术支持,面部图像处理还是会更系统地用于出入境、安全等目的的大型IT系统。



国际社会对面部识别技术应用的立法动向

(一)欧盟

欧盟已有多部法律为面部识别技术的使用提供指引,除了GDPR外,还有《执法指令》(Law Enforcement Directive,2016),《欧盟机构、团体和部门数据保护规定》(Data Protection Regulation for EU institutions,Bodies and Agencies,2018)等也涉及到欧盟执法活动中和欧盟的组织机构对面部信息使用的规定。

欧盟基本权利局(Agency for Fundamental Right,FRA)于2019年11月发布报告《面部识别技术:执法中的基本权利考虑》(Facial Recognition Technology : Fundamental Rights Considerations in the Context of Law Enforcement),其中介绍了欧盟公共机构使用面部识别技术的情况,并对面部识别技术给基本权利的潜在影响进行了不完全列举,包括尊重私人生活和保护个人数据、非歧视、儿童和老年人的权利、表达自由、集会和结社自由、享受善政权和有效救济权等。

(二)美国

在美国,关于面部识别技术的应用在一些州已进入立法试水阶段。2020年7月,华盛顿州《面部识别服务法》生效,成为美国首个通过面部识别法案的州。同年,加州也通过了《面部识别法》。这些立法旨在避免州和地方政府机构对面部识别技术无限制地使用所造成的社会后果,使州和地方政府以有益于社会、避免危害民主和公民自由的方式使用面部识别技术。根据这些立法,州和地方政府机构可以使用面部识别技术,定位或识别失踪人员、确定死者身份、警报对象或其他可能的受害者等。这些立法要求相关机构在面部识别技术投入使用前至少90天通过其公共网站向公众发布问责报告,其中包含面部识别名称、供应商和版本、如何生成、收集和处理数据,数据管理政策以及数据安全措施、错误匹配率以及接收反馈的流程等信息。

除了各州的立法外,在联邦层面,2020年2月,也有议员向参议院提出了《合乎伦理使用面部识别法案》(Ethical Use of Facial Recognition Act)草案,该草案拟由国会设立专门委员会,负责审议、制订面部识别技术指南。在委员会形成政府使用准则和限制条件之前,暂时禁止政府机构使用人脸识别,以防止面部识别技术违反宪法第一修正案中规定的公民权利,即侵犯公民隐私权和影响公民自由。该草案称,面部识别技术的影响尚未经过充分考虑和适当讨论,但已有越来越多的美国执法机构使用或被推介使用该技术。已有证据显示面部识别技术对有色人种、活动家、移民和其他原本就受到不公正对待的群体的不良影响更为显著,特别是在识别女性、年轻人、非裔美国人和其他族裔群体时。有证据显示,面部识别技术已在抗议和集会现场被使用,而这可能会使公民发表言论时感到畏惧。面部识别技术不可用于压制受美国宪法第一修正案保护的相关活动、侵犯隐私或以其它方式对个人的公民权利和公民自由产生不利影响。

(三)欧美对面部识别技术规制的特点

1.重视准确性问题。鉴于准确性问题可能带来歧视和不公平问题,欧盟和美国在准确性方面做了很多测试,而在规则制订中对准确性及由此带来的算法歧视问题也投入了较高的关注度。这些规则大多要求将达到技术标准,即错误率低于一定比例作为可以使用或部署面部识别技术的前置条件,并要求将其公开写入使用前的问责报告。另外,还要求提供人工干预或其他替代方案应对准确性风险带来的问题。

2.重视对公权力的规制。尽管相比技术公司和广告商等,公众对公权力基于安全目的使用面部识别技术的接受度更高,但不论是在欧洲还是美国,立法中对政府机构部署面部识别技术仍很谨慎。对于公权力对面部图像的采集处理在GDPR之外又通过《执法条例》等进行规范。对照面部识别技术的应用场景看,公权力对面部图像的采集处理往往不能受个人信息保护的一般性原则——知情同意或通知选择原则——的调节。例如,不管是执法或边境使用,以及用于失踪人口的寻找,都不可能获得权利人的知情同意,因此,需要超越关于个人信息保护的一般性规定,进行单独的规定。

3.强调面部识别技术使用的合理性、相称性,对必要性的要求有弱化倾向。与对个人信息处理的一般性要求——必要性原则不同,在面部识别技术的应用上,欧盟和美国都更强调要能证明采集和处理面部图像的合理性、相称性,而非必要性。

4.对透明性的要求范围广泛。这些规则普遍要求,对于面部识别技术的使用,应当对监管机构和相关权利人(包括终端用户)保持透明性。这种透明性一方面要求其提供的信息要以简明、易懂、非专业人士都可理解的形式公开披露,另一方面,立法对面部识别技术使用的透明性要求非常彻底,公开的范围很广,且具体翔实。



面部信息立法的对策建议

面部信息鉴于其具有“强识别性”以及和其他个人信息的聚合能力,成为了对社会管理、商业利用具有重要价值的资源。加之,人的面部常常处于公开状态,不易保密,对个人面部信息的采集处理不可能完全禁止。从国际和国内的立法看,都尽力在面部识别技术的利用价值和给个人权利带来的影响之间维持平衡,在进行限制的同时规定了大量的例外情形。而公众对面部识别技术的接受度因应用场景的不同而不同,对相同的应用场景,也会有个体差异。基于上文对面部信息法律属性和国际立法动向的分析,本文对面部识别技术的使用和面部信息的采集处理提出两项规范建议。

(一)确立面部信息采集处理的“二元规则”:“公用”与“民用(商用)”双轨制

面部图像具有公开性,任何人都能看见。但是,不同主体对面部信息处理能力和信息聚合能力的差别却非常悬殊。例如,个人的行车记录仪以及住宅外的摄像头也会采集人的面部信息,但由于个人的数据处理和聚合能力弱,因而给他人权利带来的风险相对较小。

公权力和作为“私权力”的网络服务商是对面部信息进行采集处理最主要的主体,公众对面部识别技术的担忧主要来自公私权力对面部信息的采集、处理和使用对个人是不透明的,而个人面对公私权力却是赤裸的。公众担忧的是,公私权力有可能成为被技术加持的big brother,而社会由此成为升级版的《1984》。对于面部识别技术的担忧来自其加剧了信息的不对称和由此带来的权力失衡,使个人在面对公权力、“私权力”时更加脆弱。而这种脆弱来自个人信息处理和聚合能力的悬殊。因此,治理的核心是改变个人在面对公权力和“私权力”时的弱势地位。如果不能改变这种权力失衡的状态,就无法回应公众对“智慧政府”“智慧城市”建设可能会导致监控社会的担忧。

从国际社会目前对面部识别技术的立法现状来看,针对公权力的立法较多。例如,欧盟在GDPR之外,《执法指令》《欧盟机构、团体和部门数据保护规定》都对面部图像的采集和处理做出规定。值得注意的是,其对面部图像的处理的要求是“透明”和“数据最小化”,而非数据保护法关于个人数据处理和使用的一般原则——“知情同意”(informed consent)或“通知选择”(notice-choice)的原则。从公权力对面部信息的应用场景看,这不难理解。公权力对个人信息的采集处理往往不能受该原则调节。例如,不管是通缉逃犯还是用于边境管理,抑或是用于失踪人口的寻找,都不可能让权利人知情同意。欧盟在GDPR之外对公权力的数据采集和使用进行单独规定,也在一定程度上说明,对于公权力和个人或企业对面部信息的采集处理应有不同的规制路径。

公共机构的核心价值指向是安全、秩序,而商业机构的价值指向是发展、自由。这与二者的法律属性和在社会结构中的地位和作用密切相关。面对公权力,作为个体,往往不能选择同意与否,也无法授权。但是,这并不意味着公权力对个人面部信息的采集、处理和使用就不需要权利人的同意。只是这种同意需要以另一种方式获得。个人对公权力的“授权”需要通过立法,即公民和政府的“契约”,以公民“集体决策”的方式进行。在引入面部识别技术时,应当对使用该技术的各种方式、涉及的所有基本权利、要达到的合法目的、面部图像的获取方式及其使用的合理性进行评估。诸如预防犯罪或公共安全之类的普遍关注目标本身不足以证明其采用面部识别技术是正当的。

(二)建立“互动式授权”机制,使“知情同意”更加有效

鉴于数据流动的常态性,面部信息的采集、存储和处理是动态的过程,处于不断变化中,因此,对数据使用的同意、撤回同意、访问、删除等权利的行使实际上应该是用户日常化的行为,而不是一次性的行为。而且,信息技术的升级迭代周期非常短,每一次技术升级,都可能对权利产生新的影响,信息聚合又可能会产生更多的个人信息,因此都应当对权利的影响进行重新评估和说明,然后由权利人在此基础上决定是否还要继续授权。在数据不断流动和被共享的动态情境中,个人根据不断变化的情势,在获取充分信息的基础上,遵从自己的意愿做出授权应该成为个人日常的决策。

但是,目前通行的授权机制,是通过“隐私政策”或“用户协议”这样的格式合同,让用户一次性、一揽子授权。这种传统的授权机制下,尽管权利人点击了同意,但很可能并不是建立在充分知情基础上真实的意思表示。要切实保障权利人授权的真实性,即建立在知情和平等磋商基础之上的同意,就需要改变格式合同造成的对权利人的不公平待遇。

“互动式授权”指对面部信息使用的授权可以由数据控制者或权利人任何一方启动,在数据被采集、处理、使用、分享或以其他方式流动的过程中,权利人对原来的授权有疑问,或有新的风险忧虑,随时都可以向数据控制者寻求解释和说明,并进行磋商。在这种机制下,权利人可以变单向的被告知为双向的沟通和磋商,同时,个人也可以有目的地寻求、获取相关信息,从而能够在信息流动具体的情境中进行动态授权。当然,这会增加数据控制者的成本,但这是其为使用权利人面部信息付出的必要的代价。不过,大量的常态性沟通可以通过客服机器人完成,正如现在很多购物平台所采取的方式一样。

此外,目前的授权机制下,用户对数据采集、使用的“知情”都仅停留在“应然”的层面,即其只知道服务商在“隐私政策”或“用户协议”里所描述的数据会被如何处理使用,但其并不知道其数据被处理和使用的“实然”情况,即数据究竟是被如何处理和使用的。将“互动式授权”机制与查阅权结合,在一定程度上,可以使权利人知晓其数据被处理、使用的实然状况。

在这种“互动式授权”的机制下,对个人权利产生影响的每一次数据处理或共享,都会给个人提示,以获取其重新授权。而个人可以根据自己对面部信息的关切度,选择对何种处理可以自动同意,何种处理或使用需要进行提示,也可以随时撤回同意。另外,用户应当可以方便地查看完整的授权和服务的详细对照列表。总之,贯穿整个过程的,是权利人在信息透明基础上的自我选择。而这种互动磋商和授权的记录也可以作为以后纠纷裁决的依据。

本文系简写版,参考文献从略,原文刊载于《国际新闻界》2022年第2期。
封面图片来源于网络
本期执编/小恒

来源: 国际新闻界
链接:https://mp.weixin.qq.com/s/uhpeSccxbwyLUWpV8qveTQ

编辑:邓秋雨


1115#
 楼主| 发表于 2022-7-3 16:01:05 | 只看该作者
【案例】
编辑:邓秋雨

1114#
 楼主| 发表于 2022-6-29 22:27:52 | 只看该作者
【案例】

美国大法官欲推翻“纽约时报诉沙利文案”,美媒的新闻自由差点没了!


美国最高法院大法官有意推翻纽约时报诉沙利文案。

当地时间6月27日,美国最高法院驳回了基督教媒体公司Coral Ridge Ministries Media诉南方贫困法律中心 (SPLC)的关于重申“实际恶意原则”的请愿书。

Coral Ridge Ministries Media因为反同性恋言论,被SPLC指定为“反LGBT仇恨团体”(Anti-LGBT hate group)。该公司认为这是一种诽谤,故而起诉了SPLC,但该案在下级法院被驳回,因为该公司的诽谤之诉并不适用“实际恶意”原则。

“实际恶意”原则是1964年,美国最高法院(沃伦法院)审理《纽约时报》诉沙利文案时确立的,指除非原告能证明被告存在实际恶意,明知陈述有误,或漠视事实真相,否则不能算是诽谤。这项原则给予了美国媒体极大的报道自由,被业界认为是1964年以来美国新闻自由最重要的法律保护原则。

但Coral Ridge Ministries Media认为这项原则并不合理,于是向美国最高法院提交请愿书,要求重新审视“实际恶意”原则。

尽管美国最高法院驳回了请愿书,但保守派大法官克拉伦斯·托马斯对此提出了反对意见。他提到,在这情况下,他会批准移审令(certiorari),重新审视“实际恶意”原则。

托马斯表示,这个案例只是众多案例中的一个,展示了《纽约时报》诉沙利文案及后续案件是如何允许媒体组织和利益集团对公众人物进行虚假诽谤,而几乎不受惩罚。”

托马斯认为,由于“实际恶意”原则规定的判定诽谤的标准几乎不可能被满足,所以Coral Ridge很难让SPLC对其所坚持认为的诽谤行为负责。

这并不是托马斯第一次对《纽约时报》诉沙利文案的裁决表示不满,据彭博社报道,托马斯在2019年就曾呼吁美国最高法院推翻《纽约时报》诉沙利文案的裁决。

但不得不说的是,《纽约时报》诉沙利文案的裁决为美国新闻自由的发展奠定了基石,“实际恶意”原则的确立让诽谤诉讼不再是遏制媒体发声的政治工具,在最大程度上保护了言论自由。正如当时作出裁决的大法官布伦南法官所说:“错误的陈述也有‘呼吸的空间’,故也需要保护。如果仅是事实错误,不得抑制言论自由。”


来源:传媒见闻(公众号)

编辑:邓秋雨


1113#
 楼主| 发表于 2022-6-18 20:56:01 | 只看该作者
【案例】

国家互联网信息办公室关于《互联网跟帖评论服务管理规定(修订草案征求意见稿)》公开征求意见的通知

根据《中华人民共和国网络安全法》《互联网信息服务管理办法》《网络信息内容生态治理规定》等法律法规,我办修订了《互联网跟帖评论服务管理规定》,现向社会公开征求意见。公众可通过以下途径和方式提出反馈意见:

1.通过电子邮件将意见发送至:mrc01@cac.gov.cn

2.通过信函将意见寄至:北京市西城区车公庄大街11号国家互联网信息办公室网络社会工作局,邮编100044,并请在信封上注明“互联网跟帖评论服务管理规定征求意见”字样。

意见反馈截止日期为2022年7月1日。

附件:互联网跟帖评论服务管理规定(修订草案征求意见稿)

国家互联网信息办公室

2022年6月17日

互联网跟帖评论服务管理规定

(修订草案征求意见稿)

第一条 为了规范互联网跟帖评论服务管理,维护国家安全和公共利益,保护公民、法人和其他组织的合法权益,根据《中华人民共和国网络安全法》《互联网信息服务管理办法》《网络信息内容生态治理规定》等法律法规和国家有关规定,制定本规定。

第二条 在中华人民共和国境内提供、使用跟帖评论服务,应当遵守本规定。

本规定所称跟帖评论服务,是指互联网站、应用程序以及其他具有舆论属性或社会动员能力的网站平台,以发帖、回复、留言、“弹幕”等方式,为用户提供发表文字、符号、表情、图片、音视频等信息的服务。

第三条 国家网信部门负责全国跟帖评论服务的监督管理执法工作。地方网信部门依据职责负责本行政区域内跟帖评论服务的监督管理执法工作。

各级网信部门应当建立健全日常检查和定期检查相结合的监督管理制度,依法规范各类网站平台的跟帖评论服务行为。

第四条 跟帖评论服务提供者应当严格落实跟帖评论服务管理主体责任,依法履行以下义务:

(一)按照“后台实名、前台自愿”原则,对注册用户进行真实身份信息认证,不得向未认证真实身份信息的用户提供跟帖评论服务。

(二)建立健全用户个人信息保护制度,处理用户个人信息应当遵循合法、正当、必要和诚信原则,公开个人信息处理规则,告知个人信息的处理目的、处理方式、处理的个人信息种类、保存期限等事项,并依法取得个人的同意,法律、行政法规另有规定的除外。

(三)提供“弹幕”方式跟帖评论服务的,应当在同一平台和页面同时提供与之对应的静态版信息内容。

(四)建立健全跟帖评论审核管理、实时巡查、应急处置、举报受理等信息安全管理制度,对跟帖评论信息内容实行先审后发,及时发现处置违法和不良信息,并向网信部门报告。

(五)创新跟帖评论管理方式,研发使用跟帖评论信息安全管理技术,提升违法和不良信息处置能力;及时发现跟帖评论服务存在的安全缺陷、漏洞等风险,采取补救措施,并向网信部门报告。

(六)配备与服务规模相适应的审核编辑队伍,提高审核编辑人员专业素养。

(七)配合网信部门依法开展监督检查工作,提供必要的技术、数据支持和协助。

第五条 具有舆论属性或社会动员能力的跟帖评论服务提供者上线跟帖评论相关新产品、新应用、新功能的,应当按照国家有关规定开展安全评估。

第六条 跟帖评论服务提供者应当与注册用户签订服务协议,明确跟帖评论的服务与管理细则以及双方跟帖评论发布权限、管理责任等权利义务,履行互联网相关法律法规告知义务,开展文明上网教育。

第七条 跟帖评论服务提供者应当按照用户服务协议对跟帖评论服务使用者和公众账号生产运营者进行规范管理。跟帖评论服务提供者对发布违反法律法规和国家有关规定的信息内容的跟帖评论服务使用者,应当依法依约采取警示、拒绝发布、删除信息、限制功能、暂停账号更新、关闭账号、禁止重新注册等处置措施,并保存相关记录;对未尽到自主管理义务导致跟评环节出现违法和不良信息内容的公众账号生产运营者,应当根据具体情形,依法依约及时采取警示、删除信息、阶段性限制跟帖评论功能直至永久关闭跟帖评论功能、暂停账号更新、关闭账号、禁止重新注册等处置措施,并保存相关记录,及时向网信部门报告。

第八条 跟帖评论服务提供者应当建立用户分级管理制度,对用户的跟帖评论行为开展信用评估,根据信用等级确定服务范围及功能,对严重失信的用户应列入黑名单,停止对列入黑名单的用户提供服务,并禁止其通过重新注册等方式开设账号使用跟帖评论服务。

第九条 跟帖评论服务使用者应当遵守法律法规,遵循公序良俗,弘扬社会主义核心价值观,不得发布法律法规和国家有关规定禁止的信息内容。

第十条 公众账号生产运营者应当履行跟帖评论信息内容自主管理责任,对账号跟帖评论信息内容加强审核管理,及时发现跟帖评论环节违法和不良信息内容,采取举报、主动处置等必要措施。

第十一条 公众账号生产运营者可按照用户服务协议向跟帖评论服务提供者申请获得举报、删除违法和不良评论信息、自主关闭账号跟帖评论功能等自主管理权限,跟帖评论服务提供者应当提供相关技术支持。

第十二条 跟帖评论服务提供者、跟帖评论服务使用者和公众账号生产运营者不得通过发布、删除、推荐跟帖评论信息以及其他干预跟帖评论信息呈现的手段侵害他人合法权益或者谋取非法利益。不得利用软件、雇佣商业机构及人员等方式散布信息,恶意干扰跟帖评论正常秩序,误导公众舆论。

第十三条 跟帖评论服务提供者应当建立健全跟帖评论违法和不良信息公众投诉举报和申诉制度,设置便捷投诉举报和申诉入口,及时受理和处置跟帖评论相关投诉举报和申诉。

跟帖评论服务使用者对被处置的跟帖评论信息存在异议的,有权向跟帖评论服务提供者提出申诉,跟帖评论服务提供者应当按照用户服务协议进行核查处理。

国家和地方网信部门依据职责,对举报申诉受理落实情况进行监督检查。

第十四条 跟帖评论服务提供者落实跟帖评论服务管理主体责任不到位,存在较大安全风险或者发生安全事件的,由国家和地方网信部门依照相关法律法规采取警告、通报批评、罚款、暂停跟帖评论功能、停止服务等措施。

第十五条 本规定自2022年 月 日起施行。

来源:中华人民共和国国家互联网信息办公室
链接:http://www.cac.gov.cn/2022-06/17/c_1657089000974111.htm

编辑:张铭麟

1112#
 楼主| 发表于 2022-6-16 23:41:52 | 只看该作者
【案例】

一网络主播涉偷逃税被追缴罚没1.08亿!

近期,江西省抚州市税务局通过税收大数据分析,发现网络主播徐国豪涉嫌偷逃税款,在相关税务机关配合下,依法对其开展了税务检查。


经查,徐国豪在2019年至2020年期间,取得直播打赏收入,未依法办理纳税申报少缴个人所得税1755.57万元,通过虚构业务转换收入性质等方式虚假申报偷逃个人所得税1914.19万元,少缴其他税费218.96万元。


江西省抚州市税务局稽查局依据《中华人民共和国个人所得税法》《中华人民共和国税收征收管理法》《中华人民共和国行政处罚法》等相关法律法规规定,按照《江西省税务行政处罚裁量权执行标准》,对徐国豪追缴税款、加收滞纳金并处罚款共计1.08亿元。其中,对其未依法办理纳税申报少缴的个人所得税1755.57万元,处1倍罚款计1755.57万元;对其虚构业务转换收入性质虚假申报偷逃的个人所得税1914.19万元,处2倍罚款计3828.38万元。日前,江西省抚州市税务局稽查局已依法向徐国豪送达税务行政处理处罚决定书。


江西省抚州市税务局有关负责人表示,税务部门将进一步依法加强对网络直播行业从业人员的税费服务和税收监管,依托税收大数据分析,对存在涉税风险的,按照“提示提醒、督促整改、约谈警示、立案稽查、公开曝光”的“五步工作法”进行处置,不断提升网络直播行业从业人员税法遵从度,促进行业长期规范健康发展。


网站截图

来源:半月谈
链接:https://mp.weixin.qq.com/s/Zwxtc-snv-bSrDqEQst-_g


编辑:张铭麟

1111#
 楼主| 发表于 2022-6-5 23:54:32 | 只看该作者
【案例】
欧盟《人工智能法》收到数千份修改建议
来源:Euractiv
翻译:黄锐奇,上海交大法学院硕士生
欧洲议会的每个政治团体对即将出台的人工智能法案提交了几百条修正建议,这为未来的讨论定下了基调。
这些修正建议总共有数千条,为将在夏季之前开始的复杂协商做了铺垫,在谈判期间,欧盟内部市场委员会(IMCO)的联合报告员Brando Benifei和公民自由委员会(LIBE)的Dragoș Tudorache将寻求通过妥协来达成多数。
据一位欧洲议会官员称,两个主要委员会的欧洲议会议员在中右和中左轴线上几乎平分秋色,在最有争议的问题上,这将是一场"计算游戏"。
定义
最具争议性的话题之一是人工智能(AI)本身的定义。
欧洲议会议员贝尼费提议采用宽泛的定义,并删除附件一中的人工智能技术和方法清单,以使该法面向未来。
相比之下,欧洲人民党坚持采用在经合组织层面商定的定义。欧洲人民党还提出了一个机器学习的定义,即在没有为特定任务明确编程的情况下寻找模式的能力。
这两位联合报告员坚持反对遏制通用人工智能的例外。相比之下,欧洲议会提议减轻这些提供者的义务负担,对新的、以前的和原来的提供者提出不同的要求。
范围
自由人Tudorache提出了一个新的条款,在监管的范围内捕捉元宇宙中的人工智能应用,包括对区块链支持的货币和NFT的提及。他还建议长臂管辖,在某些情况下将规则适用于不位于欧盟或不在欧盟经营的供应商。
禁止的实践
绿党议员在禁止行为方面提出了主要建议,将这一类别扩大到生物识别分类、情绪识别和任何自动监测人类行为。这些包括用于在执法、移民、工作和教育等领域推荐虚假信息和非法内容的推荐系统。
生物识别和认证
在一个重大的立场变化中,自由派的图多拉奇加入了社会民主党和绿党,主张完全禁止生物识别,取消了原提案中的例外情况。
关于生物识别,Tudorache和EPP都提议将进入服务、设备或场所的双方同意的认证排除在定义之外。
绿色团体提出禁止基于从互联网上刮取信息的私人生物识别数据库,如有争议的公司Clearview AI。
高风险系统
欧洲人民党提出了一个新的制度,改变了对属于附件三中提到的 "关键用例 "列表中的部门的系统的自动分类。
根据这些用途,人工智能供应商必须自我评估其系统是否对健康、安全和基本权利构成重大风险。
此外,EPP建议,如果通过履行法规的风险缓解措施,系统已经通过操作对策或内置功能充分缓解了风险,那么高风险应用的义务可以部分或完全取消。
保守的立法者还将旨在评估信用度的系统排除在高风险名单之外。相比之下,绿党的欧洲议会议员将这一类别扩大到了媒体推荐系统、医疗保险过程中使用的算法、支付和债务收集。
绿色集团提出了更严格的环境要求,并增加了第三方和被通知机构的参与。此外,基本权利影响评估已成为所有供应商和部署者的强制性要求。
法律的明确性
欧洲议会提议设立一个新的条款,通过引入一套原则来定义可信度,即在要求和技术标准方面,这一概念应如何应用于人工智能。
此外,为了更好地定义如何应用准确性、可靠性、稳健性和网络安全的概念,保守的立法者引入了要求国家计量和基准机构提供非约束性指导的条款。
治理
欧洲议会遵循主席国法国的建议,让利益相关者参与欧洲人工智能委员会的工作,并提议给予该机构更多的自主权,以制定自己的议程。
绿党希望欧洲EDPS为该委员会提供秘书处。欧洲EDPS将作为大型公司的监督机构,根据欧盟合并条例的标准,其违规行为具有 "社区层面"。
两边的立法者似乎都同意给予监督机构更多的调查权,而绿党在更正权方面尤其雄心勃勃。
广告和黑暗模式
欧洲议会议员Maria-Manuel Leitão-Marques在无跟踪广告联盟的支持下提出了一项单独的修正案,将用于提供在线广告的人工智能系统纳入高风险系统的名单。
绿色团体增加了一个段落,规定自动决策的透明度要求应有助于解决数字环境中的权力不平衡,并对抗黑暗模式。
罚款
自由派和保守派的议员都提议普遍降低罚款,特别是EPP包括对中小企业的豁免,并增加了当局在计算罚款时要考虑的因素,如意图、过失和合作。
相比之下,中左翼的Benifei正在推动全面增加制裁,并将规模和市场份额的考虑从当局实施处罚时必须考虑的标准中删除。
来源:数据保护官(公众号)
链接:https://mp.weixin.qq.com/s/1j2wdjh-qwEzjgDw5FDicw
编辑:屈妍君

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表