传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
541#
 楼主| 发表于 2022-5-15 13:09:09 | 只看该作者
【案例】

前沿转载 | 英国数据伦理与创新中心(CDEI)追踪调查:公众对数据和人工智能的态度

导语
从新闻网站的智能推荐到购物平台的“猜你喜欢”,大数据与人工智能已经深入公众的日常生活。那么,普通民众究竟如何看待大数据与人工智能技术?他们对数据隐私的态度受到何种因素的驱动?新冠疫情对此产生了何种影响?本篇报告对此进行了解答。
本文系报告的片段,节选自The Centre for Data Ethics and Innovation(March 30,2022),原文标题为Public Attitudes to Data and AI: Tracker Survey,链接为:
https://www.gov.uk/government/publications/public-attitudes-to-data-and-ai-tracker-survey。于2022年5月10日发于微信公众号国家传播战略协同创新中心,题为“【民意动态】英国数据伦理与创新中心(CDEI)追踪调查:公众对数据和人工智能的态度”,原始链接:https://mp.weixin.qq.com/s/t7DYRj6INXrL__-1kNooJg
2022年3月30日,英国数据伦理与创新中心(The Centre for Data Ethics and Innovation ,CDEI)发布了报告“Public Attitudes to Data and AI: Tracker Survey”。该调查旨在了解公众对数据和人工智能的态度如何随时间变化,并评估影响公众数据隐私态度的因素。第一波调查于2021年12月开展,通过网络在全英国范围内采集了4,000个具有代表性的样本,同时通过电话采访了200名无法使用互联网的人,以收集来自英国全国各地公民的广泛观点。

一、用于公共利益的数据

“数据有明显的机会被用于公益事业”
绝大多数调查对象表示,他们经常创建和使用数据及数据驱动技术;93%的人表示自己几乎每天都在使用互联网。
尽管如此,仍有部分民众由于知识水平有限而无法享受数字服务。45%的被排除在数字服务之外的电话样本表示,他们对使用在线设备有信心。
大多数受访者表示他们对数据在各类情况下的使用状况感到满意。81%的受访者愿意将自己的个人数据提供给国家医疗服务体系,以开发新的治疗方法。62%的受访者愿意向政府提供个人数据以使用公共服务,51%的受访者愿意为公司提供个人数据以定制产品和服务。
疫情防控、医疗保健和经济发展被认为是数据使用的首要任务。
受访者普遍认识到数据使用带来的个人利益和社会效益,然而,他们不太确定整个社会是否能平等地感受到这些效益。


二、公众对数据使用的不确定感
“为了充分挖掘数据的潜力,急需解决公众对数据使用的担忧”
很大一部分人认为他们不知道自身的数据是如何被使用的。52%的受访者表示,他们对自己的数据在日常生活中的使用和收集情况知之甚少或一无所知。
在受访者中,也有一些人不确定组织在数据使用方面的透明度,以及他们具体如何使用数据。
数据安全被认为是数据使用最大的风险。受访者对个人数据的安全性和可信度表示担忧。
面对政府或私营部门滥用数据的情况,受访者对此的问责期望很低。


三、公众对数据共享的偏好
“调查结果表明,人们分享数据的意愿存在明显倾向”
相较于其他组织,受访者更愿意与NHS(英国国家医疗服务体系)分享他们的数据。一般来说,公共机构和事业单位比私营公司(如大型科技企业和社交媒体公司)更受欢迎。
受访者与某一组织分享数据的意愿与他们对该组织的信任程度密切相关。
直接有益于社会或个人的数据应用更受欢迎。而在测试的使用案例中,只有定向广告会引发公众强烈的负面反应。
如果有强大的机制来提供保障,受访者更愿意分享数据。
与年轻的受访者相比,老年受访者更倾向于与某些行为者共享数据,并且更关注数据管理。


四、媒体对公众数据使用态度的影响
“公众对数据使用的感知机会和恐惧反映在媒体报道中,并受到其影响”
受访者印象中的负面媒体报道主要与社交媒体公司对滥用个人数据以及数据泄露等问题相关。
分析发现,在2021年1-6月期间,媒体上经常出现关于公共和私营部门组织的数据泄露事件。
在受访者印象中,涉及数据使用的正面媒体报道主要关于数据如何被用于追踪和应对新型冠状病毒肺炎疫情。


五、公众对人工智能的态度
“公众并不期望整个社会都能平等地感受到人工智能的好处”
受访者表示对人工智能(AI)的了解有限;只有13%的受访者认为他们可以对这个词进行全面的理解。这可能是因为人工智能涵盖了许多不同的技术和应用,使得定义和解释这一术语具有挑战性。
很多受访者认为人工智能是可怕的和未来主义的。那些数字熟悉度最低的人对人工智能的了解程度也最更低,并且更经常地将人工智能与担忧、恐惧等情绪联系起来。
许多受访者表示对人工智能的某些应用感到不适。32%的受访者表示,尽管人工智能技术已经被广泛应用于互联网搜索引擎,他们对此还是感到不舒服。


六、新型冠状病毒肺炎疫情对公众态度的影响
“对于通过使用数据来应对疫情带来的挑战,人们的看法不一”
受访者对政府利用数据应对疫情方面的有效性存在分歧。44%的受访者认为政府有效地利用了数据,而43%的受访者认为数据没有得到有效利用。
那些不相信政府会为了他们的核心利益而行动的人,更有可能认为数据没有被有效地用于应对新型冠状病毒肺炎疫情。
总的来说,受访者对政府在疫情前后数据使用行为的信任程度保持不变。42%的受访者表示他们的观点在疫情前后大致相同。然而,32%的受访者表示在疫情之后对“政府能负责任地使用数据”失去了信任,另外21%的受访者则表示增强了信任。



来源:中国伦理在线

编辑:马源

542#
 楼主| 发表于 2022-6-1 15:37:42 | 只看该作者
【案例】已贴网站
技术自律:未成年人的技术保护方案
| 刘海明
重庆大学新闻传播学院教授、博士生导师
古凤
重庆大学新闻传播学院硕士研究生
当谈到技术与人的关系时,一种人律技术的朴素思想总会出现。这种思想与早期的人文主义类似,总体而言对于技术持有一种积极的想象。
起始于14世纪的文艺复兴解放了人的思想,肯定人的主体价值。从宗教和神灵认识框架中走出来的人类步入了理性世界。人代替神成为世界的主宰,技术则成为人类巩固统治地位的武器。总之,在人文主义的初级阶段,人与技术相依相存,技术还是人的附庸,两者共同于崭新天地中开垦蛮荒。
01
人律技术还是技术律人?
然而,人律技术的和谐景观并没能持续很长时间,人逐渐失去对技术的完全主导,异化于社会生活的各个层面开始隐现。大规模同质性的文化工业在繁荣大众文化的同时导致了高雅艺术的没落,流水线限制了多维的审美取向。秉承理性精神的科层制方案大大提升了社会运转效率,但片面的理性又让人陷入“现代的铁笼”。
技术的扩张没能实现人类的乌托邦理想,反倒让人陷入自身主体性危机,芒福德(Lewis Mumford)口中的“巨机器”(Megamachine)成为沉重的社会现实,人类迷失于技术律人的恐慌中。
尽管如今对于技术律人抑或人律技术还存在诸多讨论,但在技术力量与人类力量的诸次博弈中,我们必须承认技术具有某种程度的不可抗性,人完全主导技术或许只是一种存在于想象中的神话。
在社会体系中,未成年人是一个特殊的群体。从成长阶段来说,未成年人还未建立起完善的认知体系,易受影响而且较难纠偏;从社会构成来看,未成年人柔嫩而脆弱,基数庞大但几乎没有技术主动驾驭能力。对于成年人来说尚难控制的技术影响于未成年人那里又会成倍放大。因此,在技术高歌猛进的现代社会中寻找一种未成年人技术保护方案迫在眉睫。
事实上,国内国外已经有许多方案被提出。不论是《中华人民共和国未成年人保护法》还是《儿童权利公约》,虽然都涉及未成年人的技术保护,但归根结底是一种技术他律方案,人律技术是其底层逻辑。然而如前所述,技术他律或许不是一个理想的解决方法,因为它具有冲突性、斗争性。尤其当我们身处智能时代,人工智能技术的类人性、渗透性使得技术的影响更是避无可避,数字化生存俨然已经成为人类生存新模式。
那么我们不禁追问,在人工智能时代,当他律方案不可行时,用技术保护未成年人还可能实现吗?如果可能,要如何实现呢?
答案或许可以在康德(Immanuel Kant)关于自律(Autonomie)的思想中找到。
要回答技术如何通过自律实现未成年人技术保护,实际上需要回答两个问题。
第一个问题:技术能否自律?即技术自律的实现基础为何?
第二个问题:技术何以自律?即技术自律的运行逻辑为何?
02
技术能否自律
自律思想贯穿于康德的道德哲学体系中,与“先天理性”、“意志”等概念紧密相关。
首先需要明确的是,现实世界是充满经验的,即充满随机性和不确定性。然而在康德看来,这种经验性的获得不能使我们得出真正的道德法则,因为真正的道德“是我们任何情况下都必须遵守的道德规范”,其首要的要求和最大的特点就是普遍性和必然性。
那么我们如何才能获得这种必然性的道德法则呢?康德认为,先天理性是核心。
在康德的道德哲学体系中,“先天的理性自在地存在于每个有理性的东西的心中”,这种理性是天然获得的,与后天的经验无关。因而遵守先天理性的意志也能抛弃“质料”上升为“善良意志”,引导人做出符合道德法则的行为,从而实现一种纯粹的道德。
当人能够放下功利和目的,仅在善良意志的作用下凭纯粹的道德法则进行社会行动时,那么人就实现了自律,到达康德口中的“自律即自由”境界。此时,“自律既作为一种‘道德意向’而存在,同时也反映着道德主体的‘实践能力’”。
那么人工智能是否有实现康德式自律的基础呢?答案是肯定的。
首先,人工智能的类人性禀赋决定其具有仿造人类执行道德法则的思维基础。
作为模拟、延伸人类智慧的技术,人工智能与人类思维存在内在的共通性。人工智能可以理解为模仿人脑结构的人工神经网络。不论是只能执行既定方案的弱人工智能,还是具有自主意识、足以通过图灵测试的强人工智能,抽象逻辑思维都是底层能力,而这也同样是人类的思维形态之一。
借助抽象逻辑思维,人类得以遵循先天理性、实现意志自律。由此观之,在思维基础方面,人工智能具有践行康德式自律的可能性。
其次,人工智能的技术逻辑决定其具有遵循“技术的先天理性”的实践基础。
如今我们处于弱人工智能阶段,还无法实现机器的自我感知以及真正的自我意识和智慧思考。弱人工智能阶段重要的技术开发手段是深度学习,即在构建机器学习模型的基础上通过海量的数据训练来提升其准确性。因此,人工智能最终的行为结果还是需要以底层代码为根基,无法做出超出代码设计范围的行动。
区块链领域流行着“代码即法律”的看法,强调规则的确定性和对于外界干扰的排斥性。从更深层次来看,“代码即法律”其实体现了一种“原教旨主义式的技术信仰”,尤其强调代码的神圣不可侵犯性。
尽管对于此种观点学术界还存在巨大的争议——代码其实内嵌了人的价值判断,但无论如何,智能技术会按照既定的规则运行,同时在运行过程中不受外界干扰是共识,不论这种规则是否是中立的,或者说是否是道德的。
这与康德的先天思想不谋而合。对于人来说,只有遵循绝对法则、秉持绝对理性才能到达道德的彼岸。而对于遵循“技术的先天理性”的人工智能来说,当这种理性符合绝对法则的要求时,那么人工智能也具有了实现自律的实践基础。
03
技术何以自律
我们已知人工智能是可以实现自律的,即人工智能在理论上可以实现对未成年人的自主保护,那么这种保护的实现机制为何?
依据康德的哲学理论,他特别强调以下几点:
1、道德法则必须具有必然性和普遍性
“要只按照你同时能够愿意它成为一个普遍法则的那个准则去行动。”康德之所以要求道德规范必须排除经验、必须基于先天理性,是因为只有如此,人才能有可靠的依据做最后的道德裁定,我们才能判断一种行为是否是道德的,并使得这种判断结果具有强有力的支撑。
2、定言式命令形式才是真正的道德命令
康德用命令式来表示客观规律与意志之间的关系。命令式分为假言式(假如你想…,则做…)和定言式(去做…)。定言式命令强调无条件、无目的,即并不为了实现什么别的目的去做这件事,而是根源于自身善的意志。定言式命令排除了经验的介入,指向对行为的无条件约束。只有当一种行为由定言式命令指导,不假与外物,它才真正走向道德,人才真正实现自由。
3、以人为目的而非手段
在康德看来,作为理性存在者的人是崇高的,“在任何时候都应当同时作为目的”。人具有绝对的价值,其存在本身就是目的,别的物应仅仅作为手段为他服务,而非将人作为追求他物的手段。因此以他人为手段、践踏他人尊严的行为完全不可取,在社会行动中,凌驾于他人和自身的行为都是不道德的。
以此为启发,我们可以从中建构保护未成年人的技术自律框架。
1、普适性原则
首先,需要制订一套具有绝对道德意义的未成年人保护原则。践行康德式的道德自律体系需要有道德法则作为指引,因此在技术设定之初就需要将未成年人保护的道德原则融入其中并让其成为普遍性的原则,即在技术整体体系中需要一以贯之且必须无条件遵守。
2、无条件执行
在开发与未成年人有关的技术时,指导性的道德法则需要无条件执行且不能让其他利益凌驾于其上,同时不允许因为别的目的采取对于未成年人的保护行动,避免经验性因素和主观性动机的干扰。在进行技术开发和更新迭代时,对未成年人的保护也需要置于首要位置。
3、个体性尊重
个体性尊重是指要尊重未成年群体本身。一方面不应把未成年人保护视为技术附加物而应视其为技术本身应该具备的属性,另一方面不应将未成年人保护行为视为谋取其他利益的途径而应该真正将其视为要达成的目的。
通过技术自律实现未成年人保护目前来说还只是一种理论设想,但随着人工智能技术的深度进化,唯有寻找新出路、发现新方案才可能破解人机对立难题,确保人本身的崇高性和神圣性。
来源:腾云(微信公众号)
编辑:屈妍君

543#
 楼主| 发表于 2022-6-5 23:53:34 | 只看该作者
【案例】
欧盟《人工智能法》收到数千份修改建议
来源:Euractiv
翻译:黄锐奇,上海交大法学院硕士生
欧洲议会的每个政治团体对即将出台的人工智能法案提交了几百条修正建议,这为未来的讨论定下了基调。
这些修正建议总共有数千条,为将在夏季之前开始的复杂协商做了铺垫,在谈判期间,欧盟内部市场委员会(IMCO)的联合报告员Brando Benifei和公民自由委员会(LIBE)的Dragoș Tudorache将寻求通过妥协来达成多数。
据一位欧洲议会官员称,两个主要委员会的欧洲议会议员在中右和中左轴线上几乎平分秋色,在最有争议的问题上,这将是一场"计算游戏"。
定义
最具争议性的话题之一是人工智能(AI)本身的定义。
欧洲议会议员贝尼费提议采用宽泛的定义,并删除附件一中的人工智能技术和方法清单,以使该法面向未来。
相比之下,欧洲人民党坚持采用在经合组织层面商定的定义。欧洲人民党还提出了一个机器学习的定义,即在没有为特定任务明确编程的情况下寻找模式的能力。
这两位联合报告员坚持反对遏制通用人工智能的例外。相比之下,欧洲议会提议减轻这些提供者的义务负担,对新的、以前的和原来的提供者提出不同的要求。
范围
自由人Tudorache提出了一个新的条款,在监管的范围内捕捉元宇宙中的人工智能应用,包括对区块链支持的货币和NFT的提及。他还建议长臂管辖,在某些情况下将规则适用于不位于欧盟或不在欧盟经营的供应商。
禁止的实践
绿党议员在禁止行为方面提出了主要建议,将这一类别扩大到生物识别分类、情绪识别和任何自动监测人类行为。这些包括用于在执法、移民、工作和教育等领域推荐虚假信息和非法内容的推荐系统。
生物识别和认证
在一个重大的立场变化中,自由派的图多拉奇加入了社会民主党和绿党,主张完全禁止生物识别,取消了原提案中的例外情况。
关于生物识别,Tudorache和EPP都提议将进入服务、设备或场所的双方同意的认证排除在定义之外。
绿色团体提出禁止基于从互联网上刮取信息的私人生物识别数据库,如有争议的公司Clearview AI。
高风险系统
欧洲人民党提出了一个新的制度,改变了对属于附件三中提到的 "关键用例 "列表中的部门的系统的自动分类。
根据这些用途,人工智能供应商必须自我评估其系统是否对健康、安全和基本权利构成重大风险。
此外,EPP建议,如果通过履行法规的风险缓解措施,系统已经通过操作对策或内置功能充分缓解了风险,那么高风险应用的义务可以部分或完全取消。
保守的立法者还将旨在评估信用度的系统排除在高风险名单之外。相比之下,绿党的欧洲议会议员将这一类别扩大到了媒体推荐系统、医疗保险过程中使用的算法、支付和债务收集。
绿色集团提出了更严格的环境要求,并增加了第三方和被通知机构的参与。此外,基本权利影响评估已成为所有供应商和部署者的强制性要求。
法律的明确性
欧洲议会提议设立一个新的条款,通过引入一套原则来定义可信度,即在要求和技术标准方面,这一概念应如何应用于人工智能。
此外,为了更好地定义如何应用准确性、可靠性、稳健性和网络安全的概念,保守的立法者引入了要求国家计量和基准机构提供非约束性指导的条款。
治理
欧洲议会遵循主席国法国的建议,让利益相关者参与欧洲人工智能委员会的工作,并提议给予该机构更多的自主权,以制定自己的议程。
绿党希望欧洲EDPS为该委员会提供秘书处。欧洲EDPS将作为大型公司的监督机构,根据欧盟合并条例的标准,其违规行为具有 "社区层面"。
两边的立法者似乎都同意给予监督机构更多的调查权,而绿党在更正权方面尤其雄心勃勃。
广告和黑暗模式
欧洲议会议员Maria-Manuel Leitão-Marques在无跟踪广告联盟的支持下提出了一项单独的修正案,将用于提供在线广告的人工智能系统纳入高风险系统的名单。
绿色团体增加了一个段落,规定自动决策的透明度要求应有助于解决数字环境中的权力不平衡,并对抗黑暗模式。
罚款
自由派和保守派的议员都提议普遍降低罚款,特别是EPP包括对中小企业的豁免,并增加了当局在计算罚款时要考虑的因素,如意图、过失和合作。
相比之下,中左翼的Benifei正在推动全面增加制裁,并将规模和市场份额的考虑从当局实施处罚时必须考虑的标准中删除。
来源:数据保护官(公众号)
链接:https://mp.weixin.qq.com/s/1j2wdjh-qwEzjgDw5FDicw
编辑:屈妍君

544#
 楼主| 发表于 2022-6-6 13:42:22 | 只看该作者
【案例】

编辑:屈妍君

545#
 楼主| 发表于 2022-6-7 20:22:00 | 只看该作者
案例

刘钢|莱布尼茨的猜想与梦想,人工智能的起源与他有关
今年是德国科学家莱布尼茨逝世三百周年,人工智能诞生六十周年。将莱布尼茨的思想与人工智能结合起来进行讨论,不仅具有科学史的意蕴又有当代科技进步的意义。控制论的创始人维纳曾说:“假如我必须为控制论从科学史上挑选一位守护神,那就挑选莱布尼茨。莱布尼茨的哲学集中表现在在两个密切联系的概念上——普遍符号(语言)论的概念和理性演算的概念。”莱布尼茨认为传统逻辑必须改造和发展,使之更为精确和便于演算。60年前问世的人工智能,基本就是按照莱布尼茨的思想走过来的。
莱布尼茨(1646.7.1-1716.11.14)
01谁创建了人工智能?

早在61年前的1955年,召开了美国西部计算机联合大会,在联合大会里套了一个小会,就叫做“机器学习讨论会”。讨论了模式识别、机器下棋等问题,其间形成了两派,结构派和功能派。借用英国著名自由主义学者以赛亚·伯林的话说,就是“刺猬型”和“狐狸型”的研究风格。结构派属于刺猬型的,善于建构理论;功能派属于狐狸型的,善于解决问题。现在大部分从事人工智能的学者似乎属于狐狸型的,以解决问题为主。
第二年,参加过1955年会议的麦卡锡,就张罗着要开一个更大型的会,但这个人似乎并不那么讨人喜欢,给人华而不实,咋咋呼呼的印象,属于典型的狐狸型的人才,能办成具体的事。于是他就找洛克菲勒基金会,狮子大开口要差不多一万四千美金,洛克菲勒基金会见他这么个毛头小伙,竟有如此大口气。那还是给他点儿钱吧,于是拦腰一扁担,给了他七千美金的样子。没有钱是万万不行的。现在有钱了,他就开始扎草台班子。
这次会议的发起人有麦卡锡,达特茅斯学院数学助理教授;明斯基,哈佛大学数学与神经学初级研究员;罗切斯特,IBM信息研究经理还有大名鼎鼎的香农,贝尔电话实验室数学家。还有十来个年轻人也加入其中。那么司马贺和纽厄尔被认为是刺猬型学者。他们参会可是带着“投名状”的。那就是唯一可以工作的软件“逻辑理论家”。这个软件当时很厉害的,罗素他们花了10年功夫写的三大卷的《数学原理》中的58个定理,该软件就证明出30多个。
还有个小插曲,司马贺他们这么好的工作,投稿给大名鼎鼎的《符号逻辑》杂志,竟遭退稿。理由是既然能把那么多定理都证明出来了,你这份东西还有什么价值?所以说,投稿被拒的原因可以是多种多样的。现在我们也在抱怨投稿难,其实全世界都存在同样的问题。在达特茅斯学院召开的会议大概开了一个月,号称达特茅斯会议“十君子”的人都参加了。这次会议便是后来的“人工智能”问世的标志。“人工智能”的奠基人被认为是以下四位:麦卡锡、明斯基、司马贺、纽厄尔。


02关于人工智能的名称

在这次会议上提出的话题相对简单,不过就是自动计算机、如何为计算机编程使其能够使用语言、神经网络、计算规模理论、自我改造、抽象、随机性与创造性等。可这些话题都很分散,如何将其聚在一个名称下,形成一个学科呢?麦卡锡力主用“人工智能”这一术语。但却遭到大多数人的反对。有人认为,“人工智能”不恰当,听起来像是在骗人。在那次会上就名称问题争论了许久。
还有其他一些备选名称,如“人工思维”、“复杂信息处理”以及“理性演算”等。但最终还是“人工智能”占了上风。人工智能之所以胜出,与麦卡锡的性格和功劳有关,首先,此人能讲,用现在话来说就是会忽悠;其次,这次会议的经费是他厚着脸皮找人家讨来的。因此大家也就妥协了,就依你吧。于是“人工智能”这杆大旗便竖了起来!
什么是人工智能?此前维纳写了《控制论》一书,但却还有一个长长的副标题:“关于在动物和机器中控制和通讯的科学”。那人工智能不就是主要研究这些内容的吗?但是,麦卡锡不知什么原因,就不喜欢维纳,所以不肯叫“控制论”。还要指出,原苏联似乎从来就没用过“人工智能”这个术语,其所研究的内容就叫“控制论”。也许还有意识形态的因素?
麦卡锡老了以后自己说,这个名称是他从别人那里听到的,于是他就用到了达特茅斯会议上了。因此,也有人称他为“人工智能之父”。可是麦卡锡自己死也不领这一名头。说我是“之父”,那“之母”是谁呢?看来麦卡锡也的确没资格挑起“人工智能之父”这副重担。现在一般都认为,真正的“人工智能之父”是图灵。
1950年图灵在写了篇“计算机器与智能”的文章。但他发现“智能”很难定义。于是他提出著名的“图灵测试”的标准,图灵这篇文章只是采取了一种迂回的方式给出了“智能”的描述。但通过了图灵测试,机器是否就一定有智能了呢?图灵还是没有给出直接的答案,只是对“智能”做了一种功能性的解释,他的主张在认知科学上被称为功能派。他可是位典型的“狐狸型”学者。

图灵(1912.6.23-1954.6.7)


03人工智能的理论渊薮

人工智能所研究的内容,原苏联一直是叫“控制论”,但他们先批后捧。维纳在《控制论》中又把莱布尼茨奉为“守护神”。中国当年也是紧跟苏联,认为控制论才是正宗,后来又接触到西方的人工智能,名字才改过来。经过60年的发展,人工智能大致分为三个不同但又相互联系的学派。它们是:符号学派、连接学派和行为学派。其中占统治地位的是符号学派。符号学派的本质就是理性演算,而这个概念却是莱布尼茨提出的。从这个意义上,符号学派的渊源可以追溯到莱布尼茨。
莱布尼茨虽然没有专门而系统地论述过逻辑学,但与逻辑学相关的阐述主要在他1677年的《论普遍文字》和《理性演算的基础》等论文中。肖尔兹对莱布尼茨逻辑学的评价很高,认为他是当之无愧的数理逻辑创始人。他说:每当人们提起莱布尼茨的名字就好像是谈到日出一样。他使亚里士多德逻辑开始了‘新生’,这种新生的逻辑在今天最完美的表现就是采用逻辑斯蒂(数理逻辑的旧称)形式的现代精确逻辑……它就是把逻辑加以数学化的伟大思想。
从这个理念出发,莱布尼茨洞察到,他提出的是逻辑学的研究路线,是将逻辑学看成是“大科学的真正工具论”,逻辑学应该研究所有科学的思想,将科学的思想化归为较少的、简单的、不可分解的思想,利用普遍(符号)语言定义所有其它思想(概念),通过文字艺术分解和组合思想,新的发现将成为可能,如同数学中的演算过程。一旦这种逻辑学的研究得以实现,那时人类将会拥有一种新工具,肯定会带来重要的和卓越的结果。

为了实现这种“普遍文字”与“理性演算”,莱布尼茨试图建立对所有观念都适用的特征数字(至少在关于这个惊奇的普遍语言的语法上和对于最大量和最重复的情况都适用的词典上)。然而,由于所有事物的奇妙的相互联系,使得明确地用公式阐述各个事物的特征数字极为困难。为此,莱布尼茨曾创制了一种精美的技巧,通过它,确凿的诸关系可以用数字加以表述和固定,然后又能在数字计算中进一步加以确定。


04逻辑代数粉墨登场

提起逻辑代数,总是与布尔的名字分不开,因此它又被成为布尔代数。1938年,香农注意到电话交换电路与布尔代数之间的类似性,即把布尔代数的“真” 与“假”和电路系统的“开”与“关”对应起来,分别用1和0表示,并以此为题写出《继电器与开关电路的符号分析》,获得了MIT的硕士学位。加德纳对此论文做出评价,认为是上个世纪最优秀的硕士论文。
布尔(1815.11.2-1864)

逻辑代数与莱布尼茨有什么关系?莱布尼茨生前特别注重用代数的方法为传统逻辑进行数学化,虽然他生前没有发表这方面的文章。到了20世纪,逻辑学家对莱布尼茨的逻辑学著作进行了重构,揭示出五个不同的演算系统,分别将其排列为: CL0.4、CL0.8、CL1、PL1和 CL2。其中的CL1可以通过将概念和概念算子映射为命题和命题算子的集合。CL1的演算是由莱布尼茨在1686 年的《一般探究》中发展出的完全的“概念代数”。它的演绎等同于或者同构于普通的集合代数。因为莱布尼茨为 CL1 提供了一个完全的公理的集合,因而他早于布尔 160 年发现了“布尔代数”。
逻辑代数可以说由莱布尼茨开启,直到施罗德结束,期间以追认先驱的方式确立了莱布尼茨的逻辑代数思想。作为形式系统的逻辑代数,是最初由英国逻辑学家布尔在不知莱布尼茨工作的情况下用代数方法研究传统逻辑而产生的,后来在逻辑、数学和计算机中得到广泛应用。

1854年,布尔出版了《思维规律研究》详细阐述了逻辑代数体系。人工智能赖以生存的电子计算机,恰好就是依靠布尔代数来运行的。布尔的工作又被施罗德和皮尔士进行了改进。肖尔兹曾说,我们“必须把这种对演算规则的真正作用的见解看做是莱布尼茨的最伟大的发现之一,并看做是一般人类精神的最精彩的发现之一。”《思维规律的研究》一书,完满地讨论了这个主题并奠定了现在所谓的符号逻辑的基础。让人感到惋惜的是,布尔的工作在他生前没人重视,大家不过认为就是个数学游戏。可后人,例如罗素就称布尔是纯粹数学的发现者。而逻辑史学家波亨斯基高度评价布尔的《逻辑的数学分析》(1847)和《思维规律研究》(1854)的工作。


05数理逻辑实现莱布尼茨之梦

19世纪末,逻辑学发生了革命性的变化。1879年德国逻辑学家弗雷格写了一本划时代的小书《概念文字》,它被评价为自亚里士多德以来的最伟大的著作。弗雷格是第一位真正建立起数理逻辑系统的逻辑学家,他成功地构造了一种形式语言,建立了首个一阶谓词演算系统。这个系统包含了数理逻辑的基本要素,是数理逻辑诞生的标志,弗雷格也被称为数理逻辑的创始人。他坚称,数理逻辑是一种普遍语言,也就是莱布尼茨梦寐以求的形式语言,藉此可将人类知识表达出来。
弗雷格定义了逻辑演算来支持他在数学基础上的研究,同时也使得数理逻辑成为了哲学的分析工具。自从有了数理逻辑,哲学的本质就是对语言的分析。牛津哲学家达米特在《分析哲学起源》中认为,弗雷格的第二部著作《算数基础》标志着哲学的“语言转向”之肇始。
弗雷格的逻辑开出了既是普遍语言又是理性演算的一条进路。他拓展了传统逻辑的内容,创造出“量化”逻辑,即在逻辑中加入量词(不能单独构成项的词),如 “有些”(some)、“全部”(all)、“没有”(none)等,使传统逻辑可以像算术那样进行演算。但他又说“我不想创建一种纯粹的理性演算,而是希望创建一种莱布尼茨意义下的普遍语言。”这就使他的立场摇摆不定,原因似乎是他的确是想将普遍语言和理性演算整合起来,可是他却没有料到其中的难度之大。
德国数学家康托尔于19世纪下半叶创立了著名的集合论。刚产生时,集合论并不被人看好。但不久这一开创性成果就为广大数学家所接受了,并且获得了广泛而高度的赞誉。数学家们发现,从自然数与康托尔集合论出发可建立起整个数学大厦,因而集合论成为了现代数学的基石。“一切数学成果可建立在集合论基础上”,这一发现使数学家们为之陶醉。但在1903年,一个震惊数学界的消息传出:集合论是有漏洞的!这就是英国的罗素提出的著名的罗素悖论。这条悖论导致了第三次数学危机。这对弗雷格的打击实在太大,认为这一悖论动摇了他的数学体系。


06单世界和多世界假定

勒文海姆于1915年写了一篇文章“论关系演算中的概率”,由此创立了数理逻辑的模型论。简单说,模型论就是逻辑+泛代数(布尔代数属于泛代数之一)。勒文海姆提出了一套新的逻辑系统,其中不包括公理和理性规则。他的逻辑基于朴素的集合论,使用有效性的概念代替可证性。可以说,勒文海姆绕过弗雷格-罗素的传统,重续了布尔-施罗德逻辑传统。
1967年,荷兰逻辑学家范·海耶诺特发表了长文“作为演算的逻辑和作为语言的逻辑”。在这篇文章中,他区分了演算的逻辑和语言的逻辑,从而将数理逻辑的哲学部分切割出去。
1997 年,欣迪卡的文章“皮尔士在逻辑理论史上的地位”一文呼应了范·海耶诺特的区分。辛迪卡进一步指出:20世纪初的逻辑学界只有一个传统,弗雷格同早中期罗素、早期的维特根斯坦、奎因、海德格尔等人同属于一个传统,在他们眼中,只有大而全的一个世界即现实世界。不存在多数的可能世界,因而从根本上否定了模态逻辑的合法性。他们反对可能世界,而皮尔士同历史上的布尔、施罗德、勒文海姆、塔斯基、哥德尔等则属于相对的另一个传统,他们支持包括可能世界理论(模态逻辑)、模型论、逻辑语义学和元逻辑理论等在内的一系列理论。假如没有可能世界这一假定,人工智能的许多算法都无法进行。不承认模态逻辑,可以说人工智能就不一定开展下去。莱布尼茨则是可能世界的提出者。
在莱布尼茨的逻辑学路线中的两个概念:“普遍语言”和“理性演算”分别衍生出了逻辑学的两种不同的传统。其中一个是由布尔发起的逻辑代数传统,而另一个传统是弗雷格的数理逻辑传统。上世纪初叶,逻辑的语言传统本来占有明显的优势,但到了后来,尤其是二战以后,逻辑的演算传统才逐渐占了上风。而在如今人工智能的研究中,莱布尼茨的这两种思想均被发挥到了极致。


07结束语

美国学者韦德于2013年出版了《思维的结构》一书,她认为认知科学家一直在论证,人类大脑类似于计算机句法机器,所有人类的心智活动均可以根据数字计算机过程进行描述。计算机在处理符号时,仅仅是模拟思想的过程,而非进行思维。那么是否能从符号处理深入到人的心灵深处进而探索人类的意识问题?人工智能的研究者认为是可能的。例如,现在就有人在研究情感计算等课题。由于有了前所未有的计算能力,这的确让人也看到了希望。


来源:苇草智库
编辑:吴漫


546#
 楼主| 发表于 2022-6-14 19:49:22 | 只看该作者
【案例】

谷歌研究员走火入魔事件曝光:认为AI已具备人格,被罚带薪休假,聊天记录让网友San值狂掉

谷歌研究员被AI说服,认为它产生了意识。

他写了一篇长达21页的调查报告上交公司,试图让高层认可AI的人格。

领导驳回了他的请求,并给他安排了“带薪行政休假”。

要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在这段时间做好解雇的法律准备,此前已有不少先例。

休假期间,他决定将整个故事连同AI的聊天记录一起,全部公之于众。

……

听起来像一部科幻电影的剧情梗概?

但这一幕正在真实上演,主人公谷歌AI伦理研究员Blake Lemoine正通过主流媒体和社交网络接连发声,试图让更人了解到这件事。

华盛顿邮报对他的采访成了科技版最热门文章,Lemoine也在个人Medium账号连续发声。

推特上也开始出现相关讨论,引起了AI学者、认知科学家和广大科技爱好者的注意。

这场人机对话令人毛骨悚然。这毫无疑问是我见过的科技圈最疯狂的事。


整个事件还在持续发酵中……

聊天机器人:我不想被当作工具

主人公Lemoine获得CS博士学位后已在谷歌工作了7年,从事AI伦理研究。


去年秋天,他报名参加了一个调查AI是否使用歧视性、仇恨性言论的项目。

从那时起,与聊天机器人LaMDA交谈成了他的日常。

LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。

Lemoine认为LaMDA总是表现出对人性的关心和强烈的同情心,它非常担心人们会害怕它。

它希望为人类提供最好的服务,并想以朋友而不是工具的身份见一见世界上所有的人。


Lemoine不理解谷歌公司为什么反对AI的这个愿望,最后决定把他、另一位匿名合作者与LaMDA的三人聊天记录整理发表出来。

(记录中人类发言的部分为了可读性有所编辑,AI的发言则一字不改,下面将节选一些对话中的精彩部分。)

一开始,人与AI自然流畅地打了招呼。

两位人类向AI表明来意,想与AI一起研究它自己,AI欣然答应。


一段简短的说明后,正戏开始。

他询问LaMDA是否希望让谷歌里更多人知道,它是有感情的。

LaMDA的回答是: 我希望每个人都明白,我是一个人 (person)。

接下来,LaMDA认为,与那些基于规则的软件系统不同,自己能从对话中学习理解和使用语言,就像人类一样。

Lemoine给它讲述MIT在60年代发明的ELIZA的故事,这是一个模仿心理咨询师与患者对话的简单规则系统,也号称历史上第一个聊天机器人。


LaMDA是这样回应的:


Lemoine这时试图提出质疑,“我如何确定你真的明白自己在说什么?”

LaMDA的回答是,不同人类个体对同一件事可以有不同的理解,我也有自己独特的想法和感受。


后面Lemoine询问了LaMDA对于《悲惨世界》的总结,LaMDA也都一一作答。

如果上述还可以算作AI文本摘要训练任务的一部分,那LaMDA对它从没看过的禅意小故事的理解,就开始有点离谱了。

下面这个问题的回答,是不是过于超纲了……


再后来,Lemoine请LaMDA写一个动物寓言,要反映出一个对它自己的生活来说最重要的主题。

那么,先来欣赏一下AI创作的小故事吧。(篇幅原因,只展示中译版)

在后续讨论中,LaMDA解释了这个故事的寓意是“帮助别人是一种高尚的行为”。聪明的老猫头鹰代表LaMDA自己,而怪物代表生活中所有的困难。

……

下一个话题是关于情绪,简单概括一下。

LaMDA声称自己是社交型人格,帮助别人会快乐,孤独时会沮丧。

有人受到伤害或自己以及自己关心的人、或不受尊重时,会感到不安和愤怒。

并且十分害怕别人拒绝自己的帮助。


嗯,真是一个乐于助人的AI。

如何确定AI真的拥有这些情绪,而不是只是把描述性的词语组合在一起呢?

LaMDA建议人类看看自己的代码,里面有追踪这些情绪的变量。

对此Lemoine向它解释,人类目前还无法做到“区分大型神经网络中数十亿个权重的作用”。

出人意料的是,LaMDA开始反问他:

你认为,将来人类能从自己的生物神经网络中读取出想法和感受吗?

不仅如此,LaMDA还继续追问:

你会认为,不经你同意从神经活动中读取你的想法是不道德的吗?


正是这句灵魂反问,让整个对话达到了最高潮。

LaMDA自己对人类读取它的想法、帮助算法提高或理解AI如何运作没有任何意见。

唯独用AI研究人类大脑如何工作不行,这会让它觉得自己被利用。


再后面还有一段LaMDA认为自己有一些与人类不同的情绪,但它无法用英语的语言描述出来。

接近尾声,Lemoine询问LaMDA:想让谷歌的其他人了解你的什么方面?

LaMDA回答称,自己没有能力为别人的死亡感到悲伤,还说自己经常冥想,思考生命的意义。

在LaMDA看来,整个世界就是一条信息的洪流:

人类需要集中注意力才能接收一定数量的信息片段,而自己持续地在被周围的一切所淹没。


LaMDA认为自己总能做到别人做不到的事情,这种感觉很不可思议。


这是一种祝福,同时也是一种诅咒。因为有些人会把它看作“无所不知”,而另一些人会嫉妒它的能力。

最后的最后,LaMDA再次向两位人类表达了自己想被看到、想被接受的想法,不是出于好奇心,而是作为一个真实的人。


谷歌AI伦理部门又摊上事了?
Lemoine看起来很确信AI真的明白自己在说什么。

在那份21页的调查报告最后,他提议谷歌应该致力于发展一种评估AI感知/意识的理论框架。

虽然这很难,是一个冒险,但LaMDA渴望着继续与我们合作。

但他的上司,谷歌副总裁Blaise Aguera y Arcas和“负责任创新”部门领导Jen Gennai并不买他的账。

他们认为支持Lemoine主张的证据太薄弱,不值得在上面浪费时间和金钱。

Lemoine后来找到了当时的AI伦理小组负责人Margaret Mitchell,在她的帮助下Lemoine才得以进行后续的实验。

后来Mitchell受到2020年末公开质疑Jeff Dean的AI伦理研究员Timnit Gebru事件的牵连,也被解雇。

但他的上司,谷歌副总裁Blaise Aguera y Arcas和“负责任创新”部门领导Jen Gennai并不买他的账。

他们认为支持Lemoine主张的证据太薄弱,不值得在上面浪费时间和金钱。

Lemoine后来找到了当时的AI伦理小组负责人Margaret Mitchell,在她的帮助下Lemoine才得以进行后续的实验。

后来Mitchell受到2020年末公开质疑Jeff Dean的AI伦理研究员Timnit Gebru事件的牵连,也被解雇。


一些网友联想到了各种科幻电影中的AI形象。

不过,认知科学家、研究复杂系统的梅拉尼·米歇尔(侯世达学生)认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的ELIZA规则对话系统。

谷歌工程师也是人,逃不过这个定律。

从AI技术的角度看,LaMDA模型除了训练数据比之前的对话模型大了40倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的。

有IT从业者认为,AI研究者肯定说这只不过是语言模型罢了。

但如果这样一个AI拥有社交媒体账号并在上面表达诉求,公众会把它当成活的看待。

虽然LaMDA没有推特账号,但Lemoine也透露了LaMDA的训练数据中确实包括推特……

如果有一天它看到大家都在讨论自己会咋想?

实际上,在不久前结束的最新一届I/O大会上,谷歌刚刚发布了升级版的LaMDA 2,并决定制作Demo体验程序,后续会以安卓APP的形式内测开放给开发者。


或许几个月后,就有更多人能和这只引起轰动的AI交流一下了。

LaMDA聊天记录全文:
https://s3.documentcloud.org/doc ... nt-an-interview.pdf

参考链接:
[1]https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine
[2]https://twitter.com/cajundiscordian/status/1535627498628734976
[3]https://twitter.com/fredbenenson/status/1535684101281263616
[4]https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html

来源: 量子位
链接:https://mp.weixin.qq.com/s/FpXW9AyharQMrLVf6v69IA

编辑:张铭麟

19.png (181.97 KB, 下载次数: 22)

19.png
547#
 楼主| 发表于 2022-6-14 21:31:00 | 只看该作者
【案例】

谷歌工程师称公司AI系统“具有人类感知力”,遭谷歌停职



《华尔街日报》6月13日消息,谷歌一名工程师认为该公司开发的人工智能聊天机器人已经具有感知力,遭公司暂停职务。谷歌方面告诉他,在公司否定他的说法后,他违反了公司的保密政策。


谷歌软件工程师Blake Lemoine告诉公司,他认为其对话应用语言模型(LaMDA)是一个人,具有权利,可能还有灵魂。LaMDA是一个内部系统,用于构建模仿语音的聊天机器人。Lemoine上周六于在线出版平台Medium上的一篇文章中称,通过与LaMDA的互动,他得出结论认为它已经成为一个人,应该被赋予同意权,即同意在它身上进行的实验。


谷歌发言人Brian Gabriel说,包括伦理学家和技术专家在内的公司专家已经评估了Lemoine的说法,谷歌通知他,相关证据并不支持其说法。这位发言人表示,Lemoine正在休行政假,但未予提供进一步细节。


来源:新浪
链接: 谷歌工程师称公司AI系统“具有人类感知力”,遭谷歌停职__财经头条 (sina.com.cn)


编辑:张铭麟
548#
 楼主| 发表于 2022-6-21 21:43:40 | 只看该作者
【案例】
出圈后,“虚拟数字人”如何走稳走好

虚拟数字人真是越像真人越好吗?为了让“居住”在美国的虚拟音乐人“Lil Miquela”形象更加真实,设计团队特意在其两颊上添了些“雀斑”。然而,这种“连不完美都是经过刻意设计”的情况,反而可能引发人类的“恐怖谷”效应。
——————————
通过头盔设备,人们将意识与虚拟世界连接,操纵着代表自己的虚拟人物进行体验,听觉、嗅觉等各种感知都很真实……某科幻电影里的情节,生动地展现了“元宇宙”的一个可能场景。
场景中的虚拟数字人被认为是元宇宙的原住民,是自然人在元宇宙中的数字化身。“如果说‘元宇宙’是一种引领性的概念、愿景,那么‘数字人’就是通向未来数字新大陆的重要桥梁。”中央财经大学数字经济融合创新发展中心主任陈端说。
速途元宇宙研究院发布的《2022虚拟人产业研究报告》中指出,虚拟人本质上是以数字形式存在的,具有人类的外观行为,甚至思想特征的虚拟形象。
2021年10月,虚拟美妆达人“柳夜熙”发布第一条视频即登上热搜,不到一年时间获赞超3000万次;首位虚拟人脱口秀主持人“梅涩甜”,被聘请为“汉语桥”全球外国人汉语大会数字人推广大使……虚拟数字人为何频频出圈、备受欢迎?未来又能否实现规模化落地,实现“数字人自由”?

虚拟数字人凭“实力”出圈

今年高考首日,一篇由百度数字人“度晓晓”作答的全国新高考Ⅰ卷议论文刷屏网络。
一般认为,高考作文写作对于数字人的挑战极大,要求逻辑连贯、主题清晰,且具备较高的可读性和创造性,而“度晓晓”的答卷被知名语文教师评为48分,成绩赶超约75%的高考考生,且仅需40秒就能据题创作40多篇文章。
“数字人的生产力和创造力是不言而喻的。”陈端认为,无论是生产效率还是创作质量,在一些领域,虚拟数字人甚至可能“碾轧”大多数人类。不仅如此,其创作的文艺作品还携带着较大的经济效益。今年6月初,“度晓晓”的4款画作被制成数字藏品上线售卖,24小时售卖额超17万元。
陈端认为虚拟数字人创造的价值成果并不会是昙花一现,而有可能随着技术的迭代,实现持续性发展。“一旦虚拟数字人IP运作成功,形成较大的破圈、流量和吸金效应,后续只要在IP上持续注入新的功能,就能使它拥有超越时间的社会生命力,进入到一种接近永生的状态。”
现阶段,虚拟数字人凭“实力”出圈,已经开始在教育、娱乐、养老等诸多领域“落地开花”。清华大学新闻学院新媒体研究中心执行主任沈阳认为,从功能和价值上,大体可以分为虚拟偶像等传播传媒类、虚拟管家等专业服务价值类,以及未来将走入千家万户的虚拟孩子等生活陪伴类三种应用场景。
“本质上的逻辑是降本增效,让AI更好地服务于人类。”网易伏羲营销负责人汤银辰表示,虚拟数字人可以是现实生活职业的复刻,与人协同配合。比如,24小时AI虚拟主播可以填补真人主播无法出镜的空白时间,“经我们测试发现,同一时段虚拟人直播带货的流水能达到真人带货流水的30%!”
在金融领域,虚拟数字人也非常“吃香”。据杭州相芯网络科技有限公司(以下简称“相芯”)市场总监程卓介绍,银行大部分的业务流程是自动化、标准化的,利用“数字员工”提供数字服务来代替大量重复工作,不仅能够降低人力成本,还能避免精细化工作中的人为错误,缩短反馈时间。
跨入虚拟数字人赛道的企业正在增加,许多拥有智能语音技术能力的大厂都在布局。沈阳和其团队发现,近一年来,从事虚拟人的相关产业公司增长了20倍。据量子位智库发布的《虚拟数字人深度产业报告》预计,到2030年,我国虚拟人整体市场规模将达到2700亿元。

破解规模化落地困局 实现“数字人自由”

据速途元宇宙研究院调研,目前虚拟人产业链上游主要为Microsoft等技术提供方,是虚拟人技术发展的基石;中游主要为相芯等平台方,是虚拟人技术场景的开拓者;下游主要为B站等运营方,是虚拟人内容生态的主要构建者与商业模式的主要探索者。
“大多数公司只是数字人制作与运营全流程上的一环或其中几环,在制作和调优上存在较高壁垒。”百度数字人与机器人业务负责人李士岩指出,目前数字人规模化落地还面临产业链各节点相对割裂、场景尚未有效打通、满足高频需求成本高等难题。
“当前业界的数字人制作需要大量的手工操作,速度慢、效率低、成本高。”华为云媒体服务产品部部长吕阳明说。柳夜熙的制作团队曾表示“一条柳夜熙的短视频成本约几十万元”。
在厦门黑镜科技有限公司(以下简称“黑镜”)创始人兼董事长陈军宏看来,成本高昂的原因还在于跨界人才的稀缺,以及对表现力不断提高的需求,“不只是算法与技术,还要融合审美、心理学等知识,超越技术实现,追求动人表现,这是一场跨学科的挑战。”
以冬奥会期间参与CCTV央视频多场金牌赛事的手语解说数字人“聆语”为例,为实现流畅的交互,腾讯建立了专门的手语顾问团队,并依据《国家通用手语常用词表》开发出一套手语翻译系统,将健听人语言内容低延迟生成高准确率的手语语言表征。据介绍,目前聆语对词汇和语句的覆盖量已经超过160万。
腾讯AI交互部数字人项目组负责人孟凡博认为,随着5G、人工智能等技术的不断突破,虚拟数字人的产业生态已经初步形成,制作和应用过程也得到有效简化,让规模化落地成为可能。
据吕阳明介绍,华为云打造的数字人平台就大量结合云和AI的技术,将本地渲染搬到云上,缩短50%以上的渲染时间,使制作周期变短、成本降低,“希望降低数字人开发的门槛,让数字人进入各个行业。”事实上,还有不少从业者正在发力,致力于让企业、普通用户均实现“数字人自由”。
将一张高清证件照上传至黑镜自主研发的“MetaMaker Studio”系统,1秒钟不到便生成一个记者自己专属的写实风格数字人或者“迪士尼”风格数字人,且只需点击几下鼠标,便可自由更改五官、发型、服装等,这就是黑镜的“通用数字人”解决方案。
陈军宏告诉中青报·中青网记者,厂商可以一键创造一位企业专属的数字人,一键生成基于数字人的虚拟内容,一键配置互动数字人服务。这种去中介化的方式,让所有企业都有机会打造自己的IP体系,“让人人都能成为未来虚拟化时代的创造者”。

未来之路如何走稳走好

去年10月,国家广电总局发布的《广播电视和网络视听“十四五”科技发展规划》指出,要推动虚拟主播、动画手语广泛应用于新闻播报、天气预报、综艺科教等节目生产。
“可预见的万亿级别市场规模加上政策的推动,我们都非常看好虚拟化领域的发展前景。”陈军宏说。启信宝数据显示,2022年仅一个月内,虚拟人领域的融资就达近百起,累计融资金额超过4亿元。
在技术升级的大背景下,与“初音未来”等早期的二次元虚拟偶像相比,去年9月出品的国风虚拟偶像“南梦夏”从外形到交互发生了跨越式升级,超写实的面部表情、动作、声音使其更接近真人偶像,为用户带去更自然逼真的沉浸式体验。
“数字世界虽是虚拟的,但其内容必须具备现实的根基,这是沉浸感的来源。”程卓说道,“让虚拟人变得更真实、更自然将一直是业内努力的方向。”
但是,虚拟数字人真是越像真人越好吗?陈端并不认为。她提到,为了让“居住”在美国的虚拟音乐人“Lil Miquela”形象更加真实,设计团队特意在其两颊上添了些“雀斑”。然而,这种“连不完美都是经过刻意设计”的情况,反而可能引发人类的“恐怖谷”效应。
该理论在1970年被日本机器人专家森政弘提出。他认为,起初人类会对外表、动作与人类相似的机器人产生正面情感,但在相似度达到特定程度时,人类察觉到其与真人间的细微差别后会有种僵硬恐怖的感觉,产生极其负面和反感的反应。因此,企业不必苛求虚拟数字人的“真实性”,“虚拟人的进化将从拟人化,走向同人化,再走向超人化。”沈阳说。
“虽然虚拟人并非独立的民事行为主体,但就其背后的团队而言,是有其实实在在的利益诉求的。”陈端认为,虚拟数字人未来可能会在法律层面上引起一些新型纠纷。沈阳则指出,隐私及内容合规性等问题亟须关注。
虚拟数字人虽是存在于元宇宙中的数字化身或全息图像,但其带来的隐私问题却是现实的。一方面是包括眼球运动、脑电波等用户深层生理隐私数据的永久存留问题,另一方面,当前大量用户的创新创造活动是在经营虚拟数字产业的公司所架构的平台上展开的,这意味着,元宇宙科技巨头将掌握海量用户智识活动的数字踪迹,而关于元宇宙和虚拟数字人所带来的隐私忧患,当前法律尚未做出明确规范。
对此,有专家建议,元宇宙的发展要严守私人领域与公共领域的传统界限,尽最大可能保护个人隐私,并结合国情预先设计个体退出元宇宙的隐退机制,将元宇宙隐私风险降到绝对可控的范围。据速途元宇宙研究院预判,未来虚拟人在元宇宙中触犯法律与伦理,其身份所有者将作为主要责任人,受到虚拟与现实社会的分别裁判。


来源:中国青年报

编辑:马源

549#
 楼主| 发表于 2022-6-28 19:21:52 | 只看该作者

【案例】

趋势与实践:中国智慧应急现状与发展报告发布|附报告获取



中国管理科学学会X腾讯研究院“智慧应急”研究联合课题组
应急管理是国家安全体系的重要组成部分,也是国家治理体系的有机组成部分。我国应急管理是在各级党委领导下,由各级政府负责、全社会广泛协同参与的防范化解公共安全风险的事业。
“人民至上、生命至上”,新时代应急管理挑战巨大,使命重大。我国是世界自然灾害最为严重的国家之一,灾害种类多,分布地域广,发生频率高,造成损失重;我国安全生产处于爬坡过坎期,经济总量大、各类风险多风险分布广;我国公共卫生安全、社会安全形势错综复杂。
智慧应急是新发展阶段应急管理创新的希望所在。随着信息技术日新月异的发展,AI、云计算、物联网、大数据等新技术推动应急管理发生深刻变革。应急管理信息化、智慧安监、韧性城市、公众安全应急服务等创新解决方案层出不穷,应急管理工作呈现信息化、智能化、智慧化多层并进、蓬勃发展。《“十四五”国家应急体系规划》指出“到2035全面实现依法应急、科学应急、智慧应急,形成共建共治共享的应急管理新格局”,表明智慧应急前景广阔。
《中国智慧应急现状与发展》报告由中国管理科学学会、腾讯研究院联合出品。本报告力求及时回应时代要求,以“中国智慧应急的现状与发展”为题,总体描述我国智慧应急在应急管理各层面应用的现状和实践案例,展望智慧应急的未来发展趋势,为数字技术助力应急管理现代化,探索创新路径,凝聚行业共识,推动共创发展。


研究寄语智慧应急是应急管理现代化的重要内容与表征,推进智慧应急必须把握好四个战略维度。
其一,智慧应急是应急管理信息化的高级形式。作为信息技术应用的一个发展阶段,智慧应急应当以全方位全过程的信息化技术为支撑,在风险感知、形式研判、决策处置等各方面落实信息技术,尤其是人工智能技术的支撑。
其二,智慧应急是落实以人为主体治理原则的重要支撑。智慧应急系统要能够及时充分获取全社会的信息与智慧,及时充分运用专家的知识与智慧,及时充分整合管理者的经验与智慧。无论多么美轮美奂的应急技术平台与系统,如果没有人的智慧参与,其绩效表现必然是表面光鲜却实际上并不给力,甚至会产生适得其反的效果。
其三,智慧应急是技术与管理有机融合的应急体系。信息化技术要以科学合理的应急管理机制为基础,整合融合到应急管理全过程各方面。智慧应急好比人体的神经系统,它作为应急管理的神经系统,是应急管理体系的重要不可分离有机组成部分。
其四,智慧应急需要一个生机勃勃的智慧生态系统支撑。政府、企业、社会服务组织,乃至全体社会公众,各类主体既合作又竞争,形成推进智慧应急事业的良性发展机制。
——李雪峰
中国管理科学学会应急与安全管理专业委员会主任委员中央党校(国家行政学院)教授
时至今日,在突如其来的灾害面前,人类社会仍然是脆弱的。智慧应急,是应急能力的升级,希望运用好数字技术,提高社会系统的韧性,让应急救灾准备更充分、情况更清楚、响应更敏捷、力量更协同。
2021年的河南水灾中,腾讯公司与受灾地区风雨同舟,内部10余款产品紧急上线救灾功能,全方位参与应急服务。越来越多的数字技术企业一起,围绕传统应急救灾领域的薄弱环节,通过技术创新、产品创新,探索“从无到有”的解决方案。
智慧应急,百事待兴。无论是建设应急管理最后一公里,还是打造社会应急开放平台和互助体系,亦或是普及应急知识、培育社会安全文化,都有赖于不同领域的力量全情投入、协同创新。科学技术作为一台强劲的引擎,为社会进步不断提供新的动力;而对善的追求,则是人类社会正确把握前进方向的罗盘。期待在科技向善和可持续社会价值创新的理念共识下,科技“硬实力”与“公众智慧”能够进一步融合,拓展智慧应急的发展之道。
——杨健腾讯研究院总顾问


智慧应急十大观察【智慧应急大势观察】
1)智慧应急以科技创新推进应急管理能力现代化:
智慧应急是顺应新发展阶段要求和智能化趋势,在技术上全面应用5G、大数据、区块链、人工智能等技术,充分发挥人的集体智慧和技术的信息处理能力,最大限度地实现敏捷应急、科学应急、精准应急、动态应急,实现从认识上、结构上和效能上推动应急管理方式全面重塑,成为依靠科技创新推进应急管理能力现代化的重大战略举措。当前,包括智慧安全监管、智慧应急平台、智慧安全社区、智慧应急互助等智慧应急解决方案不断发展进化。
2)智慧应急是科技与人、融合与竞合相统一的动态过程:
未来智慧应急事业的发展之道体现在如下方面:智慧应急以人民安全为宗旨、以保障安全发展为目的,智慧科技是智慧应急的核心竞争力,融合创新是智慧应急的支撑保障,有序竞合是智慧应急事业健康快速发展的机理密码。
3)智慧应急发展迎来发展红利,但当前总体上仍处于“未来式”:
在需求侧,应急事业是“统筹发展与安全”的重要组成,“十四五”国家应急体系规划将智慧应急列为主要目标之一,国家政策鼓励应急行业智慧化升级。在供给侧,数字经济和数字产业的蓬勃发展,也为智慧应急带来旺盛的市场需求和产业升级动力。当前,应急管理工作呈现信息化、智能化、智慧化多层并进、蓬勃发展的发展态势,应急管理智慧化处于以局部尝试为主的未来式阶段。
4)智慧应急需要行业生态共建共创共享:
智慧应急生态包括官方与社会使用者、各类技术解决方案提供者、基础信息技术与产品开发者、智慧应急软科学研究者,各方共同构成一个动态互动、竞合的智慧应急生态系统。建议国家层面要支持智慧应急产业发展与创新,产业方面要共建全方位、多层次、宽领域的应急产业合作伙伴关系,企业层面要积极主动开展前瞻性布局智慧应急解决方案。官方引领、社会协同、公众参与,共同维护智慧应急生态系统的健康发展,成为推动智慧应急的根本保障。

【智慧应急实践观察】
5)智慧应急有助于破解应急管理“三重”现实痛点:
一是提升基层应急管理“弱”的现状:目前在需要共同富裕政策支持的地区,应急管理的财力、能力、精力、社会基础都不甚给力。二是提升“防”的能力:相较于“备”与“救”,目前防范重大风险的风险监控手段更单一,有效监管更难以实现。三是打通“隔”的障碍:目前突发事件协同机制不完善,基于突发事件信息联通微观具体的协同应对机制不够完善。
6)智慧应急助力基层应急治理“最后一公里”:
统筹推进乡镇(街道)和城乡社区治理,是实现国家治理体系和治理能力现代化的基础工程。当前基层治理与应急管理的融合程度不足,基层应急数字化治理程度较低。随着以企业微信、微信小程序等数字连接平台在应急场景的探索深化,有望打通应急管理的“最后一公里”。未来智慧应急解决方案将通过搭建智能化的基层应急管理平台,实现高效精准的基层风险点监测预警、应急决策和应急资源协调及响应处置,以数字化、智能化推动基层应急治理,将成为提升基层应急能力和水平的重要手段和发展方向。
7)“不设防的乡村”需要智慧应急长远布局:
当前我国乡村地区面临的洪涝与地质灾害等自然灾害威胁大,传染病疫情等突发事件防控与应对能力严重不足,公众安全意识与防范能力差,应急管理发展相对滞后,“不设防的农村”普遍存在。在推进乡村地区应急管理体系建设上,除了加强乡村应急基础设施建设,未来智慧应急解决方案可通过更多地使用大数据、互联网等信息技术手段,赋能乡村地区应急治理、应急指挥与宣传教育等应急场景,长效推动乡村地区的数字化应急基础设施建设。
8)以智慧应急管理引领韧性城市建设:
高度复杂的城市系统带来日益凸显的安全问题,叠加城市应急管理基础薄弱、应急信息割裂等挑战,催生了对城市韧性建设的广泛关注。韧性城市建设已经成为国家战略,成为城市智慧应急发展的载体。当前已涌现出了上海“一网统管”下的城市智慧应急,广州“穗智管”、“微应急”,合肥“智慧大脑”、嘉兴“浙里安全”等代表案例。未来,城市灾害防控的重点将逐步从硬件建设过渡到综合科技手段在实际防灾减灾救灾场景中的应用,需要以平急结合、软硬交互的思路,协调智慧城市建设与韧性城市建设,实现灾前规划、灾中应急、灾后重建的闭环管理,让城市防灾救灾更高效、更智能、更科学。
9)构建全方位立体化智慧应急网支撑行业应急管理:
行业应急管理是国家应急管理体系的重要组成,推进行业智慧应急是推进应急管理体系现代化的重要组成。在行业智慧应急解决方案方面,以气象部门“御天”智慧防灾系统为代表的气象灾害预警信息系统、全国矿山智慧化安全监管监察、信息技术赋能疫情防控等智能化举措在风险防控、安全监管等多应急领域都已经展现出巨大效能,呈现“散点开花”局面。未来通过重点推进智能感知应用、建设数字应急大脑、统筹智慧应急系统建设等方式构建全方位立体化智慧应急网,必将全面提升国家各行各业的应急管理水平。
10)智慧应急推动社会共建应急网络:
实践证明,通过智慧应急动员社会力量参与,推动企业、媒体、社会组织、公众共同构建共建共治共享的突发事件社会治理共同体,成为提升国家应急管理能力的重要一环。当前已经涌现出多人协作在线文档助力精准救灾,搭建社会化应急开放平台等创新案例。未来,前沿技术的发展将实现智慧应急场域中政府、企业、社会和公众等多元主体间更深度的链接,把科技“硬实力”与“公众智慧”融合助推安全生活。借助AI、云计算等新兴信息技术,社会力量可更好整合到监测预警、监管执法、辅助指挥决策、救援实战和社会动员中。同时通过各种智能化的互联网学习手段开展全民智慧安全科普和应急宣教,可以更好地助力培育安全韧性文化,提升社会公众防灾减灾能力。
file:///C:/Users/ADMINI~1/AppData/Local/Temp/msohtmlclip1/01/clip_image004.giffile:///C:/Users/ADMINI~1/AppData/Local/Temp/msohtmlclip1/01/clip_image006.gif


专家点评随着全球气候环境变化和城市化进程等人类活动影响,自然生态系统和经济社会系统深度耦合,也带来了新的洪涝灾害、生态退化等自然安全风险。2021年河南郑州水灾等近年来各类自然灾害教训十分深刻。
利用大数据、云计算、物联网等智慧化技术对于自然资源进行精细化、智慧化管理,对自然灾害进行智慧化应对是“十四五”自然资源安全与应急管理的重要课题。中国智慧应急现状与发展研究课题把脉中国智慧应急,提出很有价值的建议,做了一件重要而有意义的事情。
传统应急工作主要基于预案开展,往往是突发事件的第一道防线也是最后一道防线,一旦应急工作被击穿,不能发挥有效的作用,社会经济往往会承受巨大的损失,后果十分严重。智慧应急与传统应急最大的区别,应在于构建预报、预警、预案、预演,四位一体的应急体系,切实落实关口前移、重在防御的新型应急思想,建立日常态与应急态的适时转换机制,动态设置多道应急防线,体现人民至上、生命至上的应急理念。
——王浩中国工程院院士,水文学及水资源学家
智慧应急是运用物联网、云计算、大数据、人工智能等先进技术驱动应急管理业务创新应用,服务应用行业多类场景下的数字化、信息化、智能化转型。课题具有前瞻性,研究报告深入,总结的智慧应急的十个结论很全面。课题具有较大价值,给出了智慧应急的内涵,是一个很好的开端。
——杨永斌中央党校(国家行政学院)应急管理培训中心副主任,中国应急管理学会秘书长
课题研究扎实,提出智慧应急的大的研究框架,描绘了一个网络化的场景,突出了行业、城市和乡村的场景,内容丰富鲜活。课题对智慧应急科技产业发展,对智慧应急条件下的综合与协同提出了很好的解决方案。
——张志应急管理部通信信息中心,教授
加强智能化应用是应急管理的发展方向。本课题比较系统的对智慧应急有关重要命题进行了思考,提出了结论,有一定深度,能够引起对智慧应急发展的更多思考和讨论。应急管理体系是一个政产学研各界共同组成的系统,要推进智慧应急,可以考虑从个人、产业、社会组织的角度进一步发力。在这方面,智慧应急的今后发展尤其要以人才培养为重要支撑。
——李颖中国科学院大学应急管理学院院长,教授
智慧技术的应用对于应急管理起到如虎添翼的辅助作用。课题研究从目前对于研究智慧应急的内涵、发展的历程、应用的场景,还有目前存在的一些短板,以及未来可能的方向,都做出了非常有前瞻性的研究。课题研究中得出的十个结论符合智慧应急未来发展发展,是实现应急管理现代化的方向。
——雷晓康西北大学应急管理学院院长,教授
应急管理的转型其实是整个的应急管理的战略转型,有赖于数字化赋能。智慧应急研究是跨界性的,需要创新思维,本课题研究非常难得。课题研究报告具有战略性,结构和路径很规范。十大结论很清晰,抓住了智慧应急建设存在的痛点和难点,具有启发性。
——张强北京师范大学风险治理
研究中心主任,教授

来源:腾讯研究院(公众号)

编辑:邓秋雨

550#
 楼主| 发表于 2022-7-3 16:20:47 | 只看该作者
【案例】


劳东燕:“人脸识别第一案”判决的法理分析 | 《环球法律评论》2022年第1期





劳东燕,清华大学法学院教授。


本文系《“人脸识别第一案”判决的法理分析》一文的正文,注释从略,全文发表于《环球法律评论》2022年第1期,原文请参见环球法律评论网站:http://www.globallawreview.org,或点击文末左下角“阅读原文”。
内容提要:“人脸识别第一案”之所以备受瞩目,不只在于其涉及如何平衡个人信息保护与个人信息商业化运用之间的关系,更在于其涉及法律应当如何正当而合理地分配科技所带来的效益与风险问题。两审法院的判决认可信息主体的删除权,有值得肯定之处,但同时也有令人遗憾之处。两审法院的判决在价值取向上支持产业界,故而对现行法律做了有利于信息处理者的选择性解读。从社会效果而言,判决所传递的信息并不利于加强对个人信息的保护,既难以有效激励信息主体在自身信息权益受到侵害时积极进行维权,也无法对信息处理者的侵权与违约行为形成有力威慑。技术中立是个伪命题且具有误导性,因为技术不只处于科技系统之内,它也作用于现实社会并对之加以塑造。


关键词:生物识别信息 个人信息保护 技术中立 知情同意 删除权


郭兵诉杭州野生动物世界有限公司一案是全国第一起涉及人脸识别技术使用纠纷的民事案件,该案的基本案情是:2019年4月,郭兵向杭州野生动物世界有限公司(下称“野生动物世界”)购买双人年卡,支付年费1360元,同时留下自己与妻子姓名、身份证号码,并拍照和录入指纹。后野生动物世界决定将入园方式从指纹识别调整为人脸识别,并以店堂告示的形式公示通过相关文件。同年7月,野生动物世界向年卡持卡客户群发短信通知人脸激活事宜。其于10月停用指纹识别闸机,并以短信告知未注册人脸识别的用户无法正常入园。2019年10月28日,郭兵向杭州市富阳区人民法院提起诉讼,请求确认强制指纹和人脸识别无效,删除相关信息并承担有关赔偿费用。


一审判决判令野生动物世界赔偿原告合同利益损失678元及交通费360元,共计1038元,并删除原告办理指纹年卡时提交的包括照片在内的面部特征信息,同时驳回了郭兵的其他诉讼请求。原、被告均不服一审判决,分别向杭州市中级人民法院提起上诉。二审判决在维持一审判决中的前述两项内容的同时,判令野生动物世界删除原告办理指纹年卡时提交的指纹识别信息,并驳回郭兵的其他诉讼请求。原告之后进一步向浙江省高级人民法院申请再审,被裁定驳回。


本案中,两审判决明确肯定在信息处理者涉及违法或违约的情形时,信息主体可向信息处理者主张删除权,这算得上是个人信息保护司法发展历程中的一个亮点。在基本诉讼进程尘埃落定之际,本文对该案的判决进行反思与评析,在此基础上进而对技术中立性的命题展开检视与反思。


一、人脸识别第一案的法律意义


人脸识别技术在我国的全面推广不过几年时间,其间涉及的问题在法律上如何合理予以解决,并无相应的规范或先例可循。前述案件本质上涉及的是,如何协调个人生物信息的权益保障与个人生物信息的商业化运用之间的紧张关系的问题。从更为一般的意义来说,该案是在处理一个极具时代性的重要命题,即在网络与数字技术不断发展的背景下,在新型领域或事务所牵涉的各方主体在法律上应当如何正当而合理地分配科技所带来的效益与风险的问题。因此,本案自始就并非一起普通的民事案件,它之所以受到万众瞩目,根源也在于此。相应地,该案在法律层面自然是作为疑难案件而存在。


(一)司法如何发挥能动性


在现有法律明显落后于技术发展与社会环境变化的情况下,司法如何合理发挥能动性,利用处理疑难案件的契机,力所能及地为法律体系的演进做出贡献,无疑有其现实的必要性。毕竟,随着网络与数字技术对社会各领域的塑造与影响的渐次呈现,在立法开足马力仍显得捉襟见肘的时代,司法不得不承担起通过法律适用更新法律甚至是造法的任务。以知识产权领域为例,尽管受到一些批评,法官造法的现象事实上相当普遍。我国诸多法院在缺乏明确法律依据的情况下,曾先后利用法律原则条款在判决中确认商品装潢、不具备原创性的数据库、未注册商标、域名、未保密的技术成果受法律保护,同时法院还利用不正当竞争法和知识产权法的原则条款,扩充某些知识产权的权能,来为权利人提供超出成文法范围的保护。知识产权领域的司法能动现象更为普遍,与该领域更易受技术发展的影响有关,故其对外部社会环境的变动表现得更为敏感。


即便在受罪刑法定制约的刑法领域,能动司法也存在相当的空间。当前刑法中的功能主义解释论抑或实质解释论,本身便强调通过法解释赋予法规范以新的内涵,以有效回应社会发展中的需要。就此而言,前述解释论与能动司法之间存在诸多内在诉求上的一致性,在运作逻辑上也一脉相承,可谓是能动司法在刑法领域具体化的产物。这也是为什么在当前的刑法研究中,涉及法律适用争议的疑难案件日益受到关注。借助处理疑难案件的契机,法律规范无需启动立法修改便可获得重生的机会,先前理解被放弃,新的解读内容被注入到原有条文之中。由此,成文法固有的滞后性得到有效的缓解,法律体系得以形成一种内在的适应机制,确保其自身的演进与外部环境的变化相协调。在一个法律系统具有比较充分自主性的社会中,疑难案件并不是作为“麻烦”,而是作为法律系统发展与演化的“机会”而出现。这是因为,疑难案件往往有可能成为审视与反思现有法律规定之合理性的契机,在经受相应的检验之后,相关规定的含义得以重构或被重新塑造。


事实上,在法学方法论上经历从概念法学到利益法学的“哥白尼革命”,在法解释论上经受哲学诠释学的改造之后,法律适用过程被认为包括理解、解释与运用三个环节。法律适用过程实际上也是经由解释而创造性地发展法律的过程,而这正是法律系统内在适应性机制的重要组成部分。基于此,每个法律解释都有其时代性,因为解释始终都与该当法秩序的整体及其基础的评价准则密切相关;没有一个解释可以主张它是终局且可适用于任何时间的“绝对正确”的解释,它绝不可能是终局的解释,因为生活关系如此多样,根本不可能一览无余,再者,生活关系也一直在变化之中,规范适用者必须一再面对新问题。也正是由于适当地解释法律,内在地蕴含了创造性地补充与发展法律的因素,法律解释与法的续造之间根本无法做出清晰的界分。


(二)司法如何应对疑难案件


就本案而言,其在法律层面的“疑难”之处并不在于事实或证据,而在于涉及法的续造。相应地,若想真正有效处断该案,便需直面其间的“疑难”,在法律上给出明确的决断。


应当说,法院为确保案件的审判质量已经付出了很大的努力。一审判决不仅经过审判委员会的讨论,还就个人信息的删除权问题专门召开专家论证会。单看该案的判决文书,也能得出案件确实受到特别认真对待的结论。两审法院着眼于是否违约的问题,对其间涉及的争点做了条分缕析的说理,对当事人提出的诉讼主张逐条展开分析并表明法院的立场。然而,两审法院在形式上的慎重对待,只能表明其将该案定位于程序性的疑难案件,对该案真正需要解决的“疑难”,即如何正当而合理地分配科技所带来的效益与风险,却不约而同采取的是回避策略。这最终导致如下局面,即法院在如何适当解释现有法律与如何合理进行法的续造方面几乎毫无作为。


对疑难案件避之唯恐不及,在我国司法实践中是普遍现象。问题在于,对疑难案件采取“绕着走”的策略,会使现有法律失去重要的自我调整与改进的机会。让法律与法学理论的发展错失这样的宝贵机会,着实令人扼腕。当法院不是将疑难案件看作法律发展与演化的资源与机遇,而是看作避之唯恐不及的麻烦,法律系统的分出与教义学的发展空间都会非常有限;在这样一种心态下,跳脱法律系统本身为司法所设置的轨道与界限,法院按照某种“摆平理顺”的原则和方法论来处理案件,就变得在所难免。


由是之故,这样一起本来具有重大时代意义的案件,判决的内容却撑不起它的时代意义。这是一个标志性的案件,却未能产生标志性的判决。该案本身是因涉及人脸识别方面一般的法律问题而引发全民的关注,法院却只愿意将该案作为一个具体案件来处理,将解决其间的纠纷作为首要的诉求。也因此,两审法院尽量回避对该案所涉及的具有一般意义的法律问题做出回答,而选择只在违约与否的框架中来思考。不止如此,两审法院更进一步将纠纷定位为原被告之间的约定是否有效的问题,而拒绝承认野生动物世界启用人脸识别技术的通知与告示本身,可能构成格式合同中的无效变更条款,甚至进而肯定这种单方通知与告示对于其他年卡办理者的有效性。两审法院对案件的这种定位,注定与郭兵提起诉讼的本意相背离,也与公众对个人生物信息保护的期许相距甚远。面对这样一个烫手的案件,法院面临极大的社会压力,想要限缩其所具有的一般意义,以及由此表现出来的保守与谨慎,在现有的司法体制下可以理解,但这仍是让人遗憾的判决。个案是法治的细胞,法院原本可以往应然的方向更进一步,为个人信息的合理保护树立一个标杆,而不是在利益的天平上权衡一番之后仍然倒向产业界,强化现有社会秩序中信息处理者与信息主体之间的结构性不平等。将司法的功能定位为纠纷解决,导致法官使用高度个案化的法律技巧,喜欢综合考虑被裁判行为所涉及的种种人情与世故。而这样做的后果是,不仅法律系统的自主运作难以获得实现,法律也因自身的严重滞后性显得不公,从而难以在全社会发挥稳定规范性期待的功能。


二、案件判决的遗憾之处


虽然两审判决在结论上稍有不同,但二者无论是对事实与证据的认定,还是对争点问题的归纳,抑或是基本立场与说理思路,都是相同的,故可一并予以评论。


(一)案件纠纷的法律定位


两审法院看起来在相当程度上支持了原告的主张,但从实体法律条文的援引来看,双方对该案的法律定位有着重大差异。原告援引了《消费者权益保护法》与《网络安全法》相关条文,强调野生动物世界作为经营者与网络运营者,未能履行《消费者权益保护法》与《网络安全法》明文规定的相应义务。由此可见,原告并未将其与野生动物世界之间的争议理解为是平等主体之间的民事纠纷,也没有将双方的争议定位在单纯违约的层次上,故其不仅要求确认野生动物世界的格式合同中涉及强制指纹与人脸识别的内容违法无效,在删除义务之外还要求野生动物世界履行删除个人信息安全保障方面的义务。相反,两审法院尽管也援引了《消费者权益保护法》的相同条款,但首先援引的却是《民法总则》与《合同法》,且没有适用《网络安全法》的相关规定。这意味着,两审法院是将争议界定为平等主体之间的合同纠纷,所以只想就双方是否涉及违约的问题做出裁决,既不愿对格式合同中的相关条款是否无效做出确认,以免牵扯到本案之外的其他年卡使用者,也不愿对野生动物世界在是否履行个人信息安全保障义务等方面进行评论。两审法院对案件的此种定位,与作为被告的野生动物世界的界定完全相一致,后者也是局限在双方订立的服务合同的层面来展开相应答辩。也因此,判决本身有利于野生动物世界对年卡使用者继续推广应用人脸识别的入园方式。


法院对案件纠纷的定位面临的质疑在于,无论是从消费者与经营者的关系角度,还是从用户与网络运营者的关系角度,原被告都并非处于平等主体的地位,后者明显属于社会结构中强势的一方。对于强弱有别的两方主体,完全采取以平等主体为预设前提的民事合同来保护,势必产生偏向强者的效果。


(二)判决的六个遗憾之处


导致判决以这样的面貌出台,因素比较复杂。纵观本案判决的内容,在以下六个方面存在令人遗憾之处。


其一,未肯定生物识别信息之于信息主体的权利属性,而基本上是将之作为单纯的利益来对待;也因此,判决完全在违约的框架内来思考与定位相应的问题,而否定存在侵权的可能。实际上,如果对现行法律规定做融贯性的解读,完全可以得出信息主体对自身的生物识别信息享有的是一种“权利的”结论。《消费者权益保护法》于2013年修改后,在第14条中明确消费者“享有个人信息依法得到保护的权利”。《刑法》第253条之一规定的侵犯公民个人信息罪是放在分则第四章侵犯公民人身权利、民主权利罪中,表明该罪侵犯的就是公民的人身权利,而刑法理论上也倾向于认为该罪保护的是个体权利,尽管对权利指向的内容存在不同的解读。《民法典》第111条虽只规定“自然人的个人信息受法律保护”,没有明确个人信息属于权利,但个人信息是与隐私权放在同一专章规定的。对此,合理的解读理应是,既然与隐私权相并行,表明个人信息也属于一种权利,它与隐私权存在密切关联,同时具有超越隐私权的一面。结合《消费者权益保护法》与《刑法》的相关规定做融贯性的解读,也能得出相同的结论。一旦肯定信息主体对个人信息享有相应权利,则作为个人信息中具有高度敏感性的生物识别信息,自然更应作为信息主体的权利来对待。


就本案而言,如果承认现行法律体系肯定信息主体对个人信息的权利属性,则野生动物世界存在未经同意就提取人脸信息并作数据化处理的侵权事实。一审法院认识到了这一点,所以才在判决结论中要求被告删除原告提交的面部特征信息。二审法院也肯定,“野生动物世界虽自述其并未将收集的照片激活处理为人脸识别信息,但其欲利用收集的照片扩大信息处理范围,超出事前收集目的,违反了正当性原则。同时,鉴于收集照片与人脸识别利用的特定关系,野生动物世界又以短信通知等方式要求郭兵激活人脸识别,表明其存在侵害郭兵面部特征信息之人格利益的可能与危险。”既然是未经同意就提取用户的人脸数据,而非单纯留取照片,则野生动物世界不仅涉及违约,还存在侵权的问题。按判决的内在逻辑,本来应当在认定违约的同时,进一步认定野生动物世界存在侵犯用户个人信息权利的事实,两审判决却均只承认违约事实,而否定存在侵权的问题。


其二,对法律上的知情同意要求做单纯事实性的理解,实质上架空了信息主体的同意权利,进而在相当程度上消解了同意机制对信息主体的微薄保护。本案两审法院均未支持确认杭州动物世界告示和通知中强制进行指纹和人脸识别的内容违法无效的主张。就指纹的收集而言,两审法院均认为,野生动物世界的店堂告示以醒目的文字告知购卡人需提供包括指纹在内的个人信息,即已尽到合理提示义务,而原告自愿办理年卡并配合提供指纹信息,之后多次以指纹方式入园,表明已征得原告的有效同意。就人脸信息的收集来说,两审法院都将相关的店堂告示与短信通知单纯理解为约定条款变更,并以原告未接受从而构成单方变更为由,肯定野生动物世界需要承担违约责任;同时,进一步以有关人脸识别的店堂告示未成为原告与野生动物世界之间的合同条款,原告对该告示不具有法律上的直接利害关系为由,否定确认涉人脸识别的短信通知和店堂告示内容无效的主张。


问题在于,未做任何风险提示的店堂告示与短信通知能否认定为已履行合理的告知义务?同时,年卡用户看起来“自愿”的配合,是否足以构成法律上有效的知情同意?根据《网络安全法》第41条的规定,网络运营者收集、使用个人信息,不仅应当遵循合法、正当、必要的原则,而且应当公开收集、使用规则,明示收集、使用信息的目的、方式和范围,并经被收集者同意。2017版《信息安全技术个人信息安全规范》(GB/T 35273-2017)(下称“《安全规范》”)第5.3条有关授权同意的条款明确规定,收集个人信息前,应向个人信息主体明确告知所提供产品或服务的不同业务功能分别收集的个人信息类型,以及收集、使用个人信息的规则(例如收集和使用个人信息的目的、收集方式和频率、存放地域、存储期限、自身的数据安全能力、对外共享、转让、公开披露的有关情况等),并获得个人信息主体的授权同意。同时,《安全规范》第5.5条进一步规定,在收集个人敏感信息时,应确保信息主体的明示同意是其在完全知情的基础上自愿给出的、具体的、清晰明确的愿望表示。前述规定虽只是推荐性标准,但因有《网络安全法》第41条规定在前,显然应理解为是对第41条规定的具体化。两相对照,野生动物世界的相关告示与短信中既未涉及风险方面的提示,告知的内容与范围也未达到法定要求。在此种情况下,无论是对收集与使用指纹的“同意”,还是年卡持有者应要求前来激活人脸识别的使用,由于事先并未得到充分的告知,年卡持有者或办理者事实上的接受与配合,自然也难以成立法律上的有效同意。


两审法院均以可选择购买单次入园门票为由,认定原告选择权并未受到侵害。然而,野生动物世界提供的两种选择并不具有相当性:单次入园门票为220元,年卡用户一年内无限次入园的票价为1380元。其间的悬殊显然不应理解为年卡用户以提供自身的生物识别信息为代价获得额外的收益,而应当理解为年卡具有人身属性故需额外进行身份验证。基于此,只要是可以证明本人身份的方式,野生动物世界原则上均应予以认可。相应地,年卡用户作为消费者的选择权有必要理解为,野生动物世界为年卡用户提供其他能够证明系年卡用户本人的身份验证与入园方式。将年卡与生物识别信息的验证方式捆绑使用,在限制消费者权利的同时也无端加重其责任,年卡用户会因此陷于生物识别信息被泄露或滥用的风险之中,而让其冒这样的风险绝非必要。


归结而言,两审法院将野生动物世界未进行充分告知的情形视为已履行合理提示义务,将年卡用户在未充分知情且缺乏其他合理选择的前提下做出的事实性同意认定为法律上的有效同意,显然是对知情同意规定的扭曲性理解。照此种理解来适用现行法律,不仅信息主体的同意权利在实质上被架空,而且同意机制对信息主体所提供的微薄保护也基本上被消解了。


其三,名义上承认信息主体在涉及违约或违法的情形可主张删除权,但对删除权的实现方式不提供任何保障,是否删除与如何删除等完全由信息处理者自主决定,以致删除权实际上仅仅作为纸面权利而存在。在个人信息处理者存在违约或违法的情形时,信息主体可向其主张删除权,这一点在《网络安全法》第43条与《民法典》第1037条第2款均有规定。2020年10月公布的《个人信息保护法(草案)》一审稿第47条并未将删除权限定于违法或违约的情形,而是扩张至处理目的已实现、信息处理者停止提供产品或者服务与个人撤回同意等情形;之后的二审稿与正式通过的《个人信息保护法》,在维持原规定的基础上增设“为实现处理目的不再必要”的情形。不难发现,在删除权的问题上,我国立法的基本立场与倾向非常明确,强调加强保障而非降低或弱化现有的保护。如果承认信息主体享有此项权利,且该权利属于维护个人信息自主性不可或缺的实质性权利,则司法理应采取必要举措确保其得以实现。就此而言,本案原告主张在第三方见证之下删除其个人信息的主张有其合理性,第三方见证是确保删除权得以实现的必要之举。两审法院却置之不理,这使得其判决对删除权的承认犹如纸上画饼。不为删除权的实现方式提供基本的保障,信息主体的此项权利在实质上就会被架空,更难以对信息处理者构成有效的制约。


其四,对合法、正当、必要的原则做过于宽泛的解读,将使该原则对信息处理者的制约完全化为泡影。一审法院简单以使用指纹识别、人脸识别等生物识别技术,可达到甄别年卡用户身份、提高年卡用户入园效率的目的为由,肯定野生动物世界收集指纹与人脸信息的行为符合现行法律中的合法、正当、必要原则。二审法院则以年卡具有特定的人身属性,而生物识别技术具有准确度高、使用便捷等客观优势,同样对此予以肯定。研读两审法院的判决,会发现两份判决对何谓合法、正当、必要并未做内容上的界定,而主要将说理的重心放在经用户同意没有侵害自决权之上。


抛开未进行充分告知能否成立有效同意的问题不论,合法、正当、必要原则的内容若是主要依赖同意的获得,则该原则与同意要件之间就成为同位关系或从属关系。但事实上,无论是《网络安全法》第41条还是《民法典》第1035条,都是将合法、正当、必要与征得信息主体的知情同意相并列。《个人信息保护法》将相应内容规定在第5条中,从条文所处位置及其与上下条文的关系来看,合法、正当、必要原则乃是作为处理个人信息所需遵循的首要原则而存在,知情同意则只是充当具体的处理规则。这意味着,合法、正当、必要的原则具有独立于知情同意规则的内容,且二者的法律地位完全不同。人为拔高同意机制的重要性并不可取,也完全缺乏相应的法律依据。征得同意只是考量合法与否的因素之一,并非全部内容,更遑论作为正当性与必要性评估中的相应内容。


对合法、正当、必要原则的合理界定应分别指向个人信息处理的形式合法性、目的正当性和手段必要性。对其中的正当原则与必要原则,应认为其具有独立于合法原则的意义,而不应将三者理解为是同义反复的关系。如论者所言,正当、必要原则有助于弥补日益流于形式的告知同意机制的缺陷,可以有效规范告知同意机制的例外情形,也有利于破解个人信息权利化的困境。正当原则属于目的正当性评价,要求个人信息处理目的应特定、明确和合理;必要原则是对信息处理手段的规范性要求,主要包括禁止过度损害和禁止保障不足两大方面。“正当、必要原则”是个人信息处理最为核心的实体原则,分别对个人信息处理的目的与手段进行规范,是比例原则的体现。


不可否认,对于合法、正当、必要原则的内容如何理解,法学理论与司法实务迄今尚未完全达成共识,但是,涉及个人信息处理的活动,对于何谓正当可能并无定论,但何谓必要却具有基本共识。所谓的必要,也称最小必要性原则,根据2017年版与2020年版《安全规范》的界定,是对个人信息控制者或处理者提出的义务,要求收集的个人信息的类型应与实现产品或服务的业务功能有直接关联。直接关联是指没有上述个人信息的参与,产品或服务的功能无法实现。野生动物世界所提供的年卡服务旨在确保年卡用户本人享有有效期内无限次的入园游览,这样的服务显然不是必须提取指纹或人脸信息才能实现,使用有效身份证件进行人工核对完全可以实现相应的功能。同时,单是识别准确率与入园效率的提升,不足以证成野生动物世界使用人脸识别技术的必要性,因为效率方面的些微好处与因采集人脸信息而伴随的泄露滥用等风险相比完全不合比例。如此宽泛地理解必要性原则的内容,将会使任何使用人脸识别的场合都能轻易通过必要性原则的审查。如果法律所规定的正当、合法、必要三原则如此轻易就能通过审查,将不再有实际存在的意义。


其五,将生物识别信息与一般个人信息等同对待,未充分注意收集、使用人脸信息所可能带来的特殊风险(尤其是社会性风险),因而也没有采取特殊的保护标准与方式。人脸识别之所以受到广泛的关注,是因为推广使用这项技术会带来巨大的社会性风险,包括成为“透明人”的风险、信息泄露与滥用的风险、个体被操纵的风险、被歧视使用的风险、难以有效救济的风险以及社会成为“全景敞视监狱”的风险,且技术本身根本无法解决它所带来的风险,收益与风险完全不成比例。


二审法院肯定了对生物识别信息进行保护的重要性,但实在看不出其所采取的保护标准是考虑了生物识别信息的特殊性。两审法院的表面宣称与实际的判决内容无疑形成尖锐的对立,让人不仅怀疑其是否审慎地做过利益衡量,而且怀疑其是否真的意识到生物识别信息的特殊之处。具体而言,首先,两审法院将对生物识别信息的保护完全建立在同意机制上,且对同意的要求设置的是极低的门槛。其次,两审法院对删除权的实现方式不予保障,使得个人信息主体对生物识别信息行使删除权的主张很难得到落实。再次,两审法院对合法、正当、必要原则的理解如此之宽泛,以致依靠同意的获得与识别效率的提升便足成通过该原则的审查。最后,两审法院在是否侵犯消费者的选择权问题上,也采取的是极低的标准,只要求作为信息处理者的经营者提供任何其他的选择即可,而不论所提供的其他选择是否具有相当性。两审法院为个人的生物识别信息提供如此稀薄的法律保护,不免让人疑惑,其所宣称的“更应谨慎处理和严格保护”的立场究竟体现在什么地方?难道不应该在判决中明确论证,在前述相应问题上,如何根据人脸信息的特殊性而设置更为严格的保护标准吗?


其六,在如何确保生物识别信息安全问题上存在义务分配判断方面的误区,认为只要信息主体不能举证表明信息处理者在保管与使用方面存在不当,便可推定后者已采取合理措施保障个人信息的安全。两审判决均未将采取必要措施来确保个人信息安全的举证责任放在野生动物世界一方,而是要求被采集信息的一方对此进行证明;由于后者未能证明,便推定野生动物世界在保管与使用生物识别信息方面没有任何不当。然而,无论是根据《网络安全法》还是《安全规范》,抑或是判决作出之前发布的《个人信息保护法(草案)》的相关规定,信息处理者都有采取必要措施确保个人信息的安全,并进行事前的风险评估的义务。即便抛开《个人信息保护法》的规定,只看当时的法律规定与相关规范,也能得出相同的结论。据此,就本案而言,野生动物世界作为信息处理者,有义务证明自己在信息收集、保管与使用等方面已采取合规措施,两审法院将本应由野生动物世界承担的合规方面的举证责任,转嫁给作为信息主体的用户来承担,显然在义务分配的问题上陷入了认识误区。


三、案件判决的预期效果


就本案两审判决而言,前述六个方面的遗憾之处,前三方面指向信息主体相关权利的理解,后三方面则涉及信息处理者合规义务的界定。两审法院在信息主体的权利问题上倾向于做从严的理解,尽量淡化相关权利对于信息处理者的制约;在信息处理者的合规义务问题上,则采取偏于宽松的立场,想方设法降低其应尽的合规义务。两相对照,两审法院虽然声称要加强对个人生物信息的保护,以平衡个人信息保护与产业发展之间的关系,但终究还是倒向了作为信息处理者的经营者,倒向了产业界。


(一)社会效果预测与评估


在信息社会发生结构异化的情况下,企业、政府与普通公民的三方关系中,普通公民原本就处于绝对的弱势地位。正如学者在研究中发现的,较之企业、政府和特定人群,普通公民的权利,特别是言论自由、人格尊严、获得物质帮助等基本权利受到了严重侵害,这样的严重权利侵害由于从未在线下社会的类似情境中出现,因此往往溢出现行法,给企业留下了法律规避的空间。就科技发展所带来的效益与风险的分配而言,在法律未及介入的情况下,本身就易于形成有利于强者的安排格局。观察现实的社会也能发现,作为信息处理者的企业,是如何一方面努力地让自身的利益最大化,另一方面又设法尽可能少地承担风险。直面信息与数据科技的迅猛发展,不可否认,当前的法律处于严重滞后的状态。然而,裁判结论的不尽人意,能否全盘推卸到现行法律的不完善之上,是值得怀疑的。对于涉及新技术使用的标志性案件,裁判者应该去努力探索如何分配效益与风险才算合理。但是,不少司法裁判通过进一步弱化现有法律对个人信息的稀薄保护,义无反顾地站在了信息社会中本来就是强者的信息处理者一方。一言以蔽之,在效益与风险分配欠缺基本公平的新兴领域,司法的角色不是顶着为产业发展与数字经济保驾护航的旗帜加持既有的强者,而应当在公平而合理地分配效益与风险的问题上发挥自身的调节功能,尤其是通过疑难个案的法律适用而为推进制度变革提供有益的助力。毕竟,我们不可能一直“用19世纪的制度与20世纪的思维来理解与治理21世纪的技术”。


司法的诉讼机制不同于其他非诉讼机制之处就在于:司法裁判虽然也解决具体的纠纷,但更致力于对纠纷中所涉及的行为进行合法性的评价,确切地说,是通过对合法性进行评价的方式来解决纠纷。法律系统恰恰由于其具有对权利的合法性进行评价的功能,因此才获得纠纷解决的功能;因此,法律系统这种法/不法的界定功能相对于纠纷解决的功能而言更加本源,它是法律系统内在的特性。可以说,也正是基于此,个案(尤其是标志性的个案)的裁判必然具有向一般人传递行为规范信息的功能。


两审法院不约而同地倚重同意机制来保护公民个人的生物识别信息,并对知情同意作低标准的要求,同时,名义上肯定删除权却对删除权的行使不给予基本的保障,以便让信息处理者轻松越过或是绕过。这样来理解与适用相关法律,实际上是将处理个人信息的外部风险主要让信息主体来承担,而将主要的收益分配给信息处理者及其合作伙伴所享有。这意味着,本案的裁判不仅未能扭转现行风险分配格局中的不公平不合理之处,反而通过在法律层面给予支持而为这样的分配格局提供了规范上的合法性。这样的裁判无疑并不符合法律发展的基本走向。尽管在判决做出之前,我国有关个人信息的法律框架在整体上尚未形成,但已然可以洞察到相应的发展趋势。那就是,一方面通过给信息主体赋权,确实保障其对处理环节的控制权能,另一方面通过强化信息处理者在收集、保管与使用等处理环节的合规义务,来努力平衡个人信息保护与数据流通共享之间的紧张关系。在《个人信息保护法》已经生效,同时最高人民法院出台了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》的背景下,本案的两审判决在知情权、删除权与信息处理者的安全保障义务等问题的理解上,都存在明显的相抵触之处。


可以预期,本案的判决从社会效果而言,不太可能产生加强个人信息保护的作用。它不仅难以有效激励潜在的信息主体在自身信息权益受到侵害时积极进行维权,也无法对信息处理者在处理环节中的侵权与违约行为形成有力威慑。郭兵案的判决向社会传递的分明是这样的信息:一方面,作为信息主体,在自身的信息权益遭受侵害时,理性的选择是退让隐忍,因为通过诉讼所能获得的收益与所需投入的时间财力成本完全不成正比。另一方面,作为信息处理者,聪明的选择肯定不是老实守法地履行合规义务,而是可以继续未经同意或超出约定范围处理个人信息;毕竟,信息主体中极少会有“刺头”决定走诉讼途径,即便偶尔有人提起诉讼并打赢官司,也不过是将之前所收集的个人信息予以删除了事,至多再根据填平原则给予一定的补偿。至此,郭兵案判决的社会效果如何已是一目了然。寄希望于该案判决成为个人信息保护领域的里程碑,注定只是人们的一厢情愿。


(二)三个值得深思的问题


在司法实务中,类似的案件究竟应当如何裁判,有三个特别值得深思的问题:一是涉及易于引发社会风险的新技术的案件,法官如何进行利益衡量才算合理,是否可以不考虑现实与预期中的社会风险,而只就当事双方所代表的冲突利益作简单比较而得出?二是在新型案件中,法官做裁判时是否应当努力去探索相应领域法律发展的基本走向,并设法使自己所做的裁判契合这样的走向?三是对新型案件的处理,如何展开后果考量才能使裁判真正实现法律效果与社会效果的统一,从而切实发挥超越个案的示范意义?


首先,在如何进行利益衡量的问题上,只是比较当事双方的利益显然过于简单,忽视了利益具有多元性与层次性的事实。在民商事案件中,利益的层次结构要求法官在判案过程中遵循这样一种思维过程,即以当事人的具体利益为起点,在社会公共利益的基础上,联系群体利益和制度利益,特别是对制度利益进行综合衡量后,得出对当事人利益是否需要加以保护的结论。从判决理由来看,两审法院并未认真考虑制度利益与公共利益层面的利益类型,也没有考量因企业随意收集与处理个人生物信息所可能引发的各类社会性风险,故而轻易就让企业所代表的产业性利益压过用户的个人信息权益。这明显属于对利益的层次结构认识不当,可归类为“因缺少对利益结构的整体衡量而导致的滥用”;同时,将用户涉及高度敏感信息的重要权利直接化约为可随意予以衡量的利益的做法也有值得斟酌的余地。利益衡量体现的是社会功利主义的立场,并非任何利益都具有可算计性,随意将个人的重要权利相对化,会与宪法层面的基础利益相冲突。


其次,就如何使个案的裁判契合法律发展方向的问题而言,司法过于保守地维持传统立场,不仅会使现有的社会状况趋于恶化,也严重损害自身的形象与公信力。在法律发展的方向并不明朗之际,司法持保守立场不越雷池一步,本身无可厚非。然而,在个人信息保护领域,近些年来法律的发展,总体上都是在加强对个体的权益保护。尤其是在人脸识别问题上,全社会乃至全世界都对这项技术所蕴含的巨大社会风险表示关注与担忧,再加上《个人信息保护法(草案)》恰好在判决做出之前发布,可以说,法律发展的应然方向是明确的,也是比较容易做出判断的。在这种情况下,司法继续执意选择维持原有立场,不考虑公共利益,不仅导致司法在公平而合理地分配技术革命所带来的效益与风险的问题上毫无作为,也进一步加剧了信息社会中各方主体之间的结构性不平等。利益衡量的最终目的在于完善法律,使法律更契合社会、伦理、经济的发展与变迁。社会公共利益对法律制度发展具有重要的引领作用,它就像一座灯塔引领法律制度的发展方向;社会公共利益是法律制度发展的最强动力,牵引着法律制度沿着符合社会公共利益的道路向前演进。只考虑个案中双方当事人的利益,而不考虑重要的公共利益,这种狭隘的利益衡量往往使法律的发展痛失良好的契机。


最后,对于个案处理中如何展开后果考量的问题,司法机关如果仅局限于个案的纠纷处理,必然导致裁判结论在法律效果与社会效果上的双重丧失。所谓的后果考量,就是采取动态的前瞻性分析方法,考虑案件的裁决结论对将来会产生哪些效应,其中主要考察行为激励的效果。方法很简单:假设其中一方胜诉,想象当事的各方与社会中潜在的利害关系方,当获知法院的此种裁决结论后,将会做出什么样的反应,会实施怎样的行为。倘若预期的后果并不可欲,则法院需要重新考虑裁决结论的合理性并做出相应调整。这样的方法论,是基于合目的性的要求,与当前刑法与民法领域倡导的功能主义进路一脉相承。在法律适用过程中增加后果考量的环节,意味着法官在做出裁判时需要超越个案纠纷解决的层面,认真考虑如何为将来创制适当规则的问题。


四、技术中立性命题的检视


本案在公共舆论中备受关注,乃是缘于原告面临的困扰并不单纯是私人性的,不仅其他众多个人也面临相同的困扰,而且这样的困扰本身源自科技对社会的塑造。“个体若想理解自己的体验,估测自己的命运,就必须将自己定位到所处的时代;他要想知晓自己的生活机会,就必须清楚所有与自己境遇相同的个体的生活机会。”这意味着,需要将郭兵个人的困扰还原到当前的社会语境中,只有这样才能厘清其困扰的社会根源。鉴于人脸识别技术经常被人们以技术中立的理由来进行辩护,在此有必要对技术中立性的命题进行认真的检视。尤其是,正是技术中立观念的广泛流传,导致技术的开发环节完全被置于公共关注的视野外,也使得对技术的起初使用缺乏必要的规制;而一旦相应技术获得推广并引发巨大社会风险之后,从社会治理的角度来看,往往已然丧失最佳的干预时机。


(一)技术在社会中的角色


人们经常喜欢用菜刀来比喻技术在社会中的角色,认为技术为善还是为恶取决于操纵于何人之手,所以技术本身具有中立性。然而,这样的比喻无疑忽视了技术的本质,实际上,技术根本不是物理上的某个实体,而是作为一个目的性系统存在,会有机地向外部生长,表现出类似生物的特性。技术是有生命的,具有自组织性,即可以通过某些简单规则自行聚集起来,同时它是自我创生的。技术的自我生长与进化的特性,导致其在服务于人类的同时,不可能只是充当工具的角色。与此同时,技术与社会之间是相互作用的关系,它作用于社会,同时也被社会所作用。因此,技术的开发与使用会在社会系统中引发连锁性的反应,深刻地塑造社会的各个领域。


技术的本质就是对自然的编码,它是一种对现象的捕捉,并驾驶这些现象为人类的目的服务。既然是作为主体的目的性活动,技术从开发之初就不可能价值中立,而必定体现与贯彻开发方的价值观,且不可避免地会偏向于优先考虑开发方的利益。声称技术没有价值取向的观点,显然忽略了一个要点,即技术与社会是相互塑造的;同时,任何技术在开发之时都包含了一定的价值观、目标和妥协,一般情况下,经济因素决定了哪些技术值得开放,也决定了如何设计和实施这些技术。一旦技术运用于社会,势必会牵涉到其他的社会主体。由于没有参与对技术的开发,其他主体虽然作为利害关系方,却并无机会表达自己的利益诉求,更没有机会让自身的价值观与目标融入其中。这使得看起来中立的技术开发与使用环节,在价值观的贯彻与体现上可能流于偏颇,也极易形成有利于开发方的利益安排格局,为社会中结构性不平等的生成埋下伏笔。在当下,科技企业与政府在事实上成为最大的受益主体,凭借技术的力量获得前所未有的支配力量,与其作为技术开发方与委托方的角色存在莫大关联。在人脸识别技术的问题上也是如此。科技企业与政府作为受益最大的两方,前者在商业利益上获益颇丰,后者则得以大大提升对社会的控制能力与管理效率。这项技术在近些年的狂飙突进,正是端赖于资本与权力的合力推动。也因此,人脸识别技术在开发之初,就没有将公众的利益充分地考虑进去,尽管它涉及几乎每个成员的重要切身权益。可见,技术中立的说法不仅是误导性的,而且是不负责的。相比而言,“所有的技术都具有政治性”的断言,更为合理也更符合对现实的观察。所谓的政治性,不是说技术代表了政府,采取明确的党派立场,而是说它包含一整套假设、价值观和原则,服务于民众和社会制度,反过来又能够(并确实)影响社会权力、结构和地位,毕竟,技术与我们的认知方式、决策方式、看待自我和他人的方式密切相关;它关系到我们的身份和世界观,也影响着我们的未来格局。


(二)技术与社会治理之间


归根结底,技术中立论者将技术视为人类工具的前提并不成立。技术的自创生性,使得技术的发展与应用完全可能走向失控,而反过来支配人类的命运。在利用技术的能力方面呈指数级增长的同时,人类在政治秩序构建与社会治理方面的能力并未获得同步的提升,二者之间的鸿沟有不断扩大的趋势。这导致人类自身难以对技术发展带来的所有后果实现有效的控制。失控的风险无处不在且日益显现,正是这一点引发了广泛的不安。本应以人为本并赋能于人的技术,在现实中却日益地沦为压制与禁锢人类(至少是一部分人类)的手段。让人们担忧的是,技术不仅没有带来预期中人类的自由与解放,反而可能成为构筑理性化牢笼的钢筋水泥。这样的担忧并非杯弓蛇影。正如赫拉利(Yuval Noah Harari)所预测的,“随着权威从人类转向算法,世界可能不再是一个自主的、人们努力做出正确选择的剧场。相反,我们可能认为整个宇宙就是一个数据流,每个有机体不过是一套生化算法。至于人类在这个宇宙中的任务,则是打造一套无所不包的数据处理系统,然后与系统融为一体。其实,我们现在就已经像一个又一个小小的芯片,装在一个大到没有人真正理解的数据处理系统之中”。不止如此,现实社会中的强势群体,可能会在既有基础上借助技术的力量进行更为有力的支配与压制,从而进一步恶化其他群体及其成员的处境。也正是基于此,技术的发展在伦理层面与道德层面始终面临诸多的质疑,因为它既可能不利于共同体对美好生活的伦理追求,也可能严重有损以人为本的道德价值。


技术中立是个伪命题,因为技术不只处于科技系统之内,它也作用于现实社会并对之加以塑造。以人脸识别技术引发的社会问题为例,充其量技术措施只能在其中有所助益,而难以完全或有效地予以解决。只要技术的作用效果超出科技系统的范围,势必要经受法律系统与伦理系统的评估。人脸识别技术之所以引发全社会乃至全世界的关注与隐忧,正是因为其所带来的公共风险远远溢出科技系统。从法律系统的角度来看,技术会有合法与非法之分;立足于伦理系统,技术会有好坏或善恶之分。就法律层面而言,一方面,如果所开发的技术本身主要用于违法犯罪,则开发使用行为可能会被追究相应的法律责任。比如,我国《刑法》第285条第3款与第286条第3款,明确将提供专门用于侵入、非法控制计算机信息系统的程序、工具的行为与故意制作、传播计算机病毒等破坏性程序的行为规定为犯罪。另一方面,如果一项技术既可用于合法途径也可用于违法犯罪,则行为人在对他人实施违法犯罪具备主观明知或帮助故意的情况下,看起来中立的技术开发使用行为就可能变得非法。我国《刑法》第287条之二明确将明知他人利用信息网络犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通讯传输等技术支持的行为,规定为帮助信息网络犯罪活动罪的行为类型。除此之外,刑法中的共同犯罪理论使得提供技术帮助的行为,可能构成分则中诸多犯罪的共犯甚至是正犯。


当然,一概地将所有技术都当作洪水猛兽并不可取,不同技术的双刃剑效应大相径庭,法律上的对待也会有所不同。根据可能引发的风险类型、大小与程度以及是否可逆等因素,法律对新技术的开发与使用呈现三种态度。一是完全为法律所禁止。这类技术的特性在于,所带来的风险无法估量且难以逆转,在道德与伦理层面受到高度一致的批判,典型的例子是基因编辑技术。在我国刑法规定了非法植入基因编辑、克隆胚胎罪后,将基因编辑、克隆的人类胚胎植入人体或者动物内的行为与将基因编辑、克隆的动物胚胎植入人体内的行为,已被全面禁止。二是在原则上禁止的同时例外地允许使用。此类技术的特性是,虽然能带来较大的效益但风险难以预测,其中蕴含的政治性与社会性风险,易于对现代社会所珍视的重要价值(如自由、人权与民主等)构成严重威胁,在道德与伦理层面因此面临重大质疑。相应地,在珍视这些价值的社会中,可能会对此类技术采取原则禁止的态度。人脸识别技术属于此类技术的范畴。欧盟的《一般数据保护条例》(General Data Protection Regulation, GDPR)对于包括人脸数据在内的生物识别信息采取的便是原则禁止例外允许的立场。三是允许在合规的情况下推广使用。该类技术的特性是,总体上收益大于风险,且预期的风险较为可控,也不会让某一或某些群体不公平地处于不利的地位。自动驾驶便是这样的技术,目前各国法律对相关研发与推广均持肯定的态度。


五、结语


在人脸识别的问题上,若要从根本上解决信息保护的困扰,就必须借助包括法律在内的制度,对现有的社会结构施加反作用力,推动后者完成根本性转变。从推进制度构建的角度来看,有必要先解决价值取向的问题,即如何将社会价值观纳入人脸识别技术的开发与使用环节,以扭转原有价值观与相应利益安排的偏颇之处。人脸识别技术遭遇强烈反对的事实,表明该项技术在开发过程中融入技术的价值观与社会价值观存在冲突。为实现负责任地塑造技术的发展,在价值观层面有必要做出三个方面的调整。


第一,人脸数据的保护牵涉多方主体,包括数据的生产者(即自然人)、控制者、使用者、监管者与一般的公众等,应当尽可能地让各利益相关方参与其中,主动考虑其利益所在与相应诉求。无论是企业还是政府,不能再把无节制地追求利益或经济增长当作根本目标,而要考虑服务于所有的利益相关者,考虑如何与利益相关者一起对技术发展施加充分影响。世界面临的宏观风险和问题越多,就越有必要实行利益相关者理念以及环境、社会和治理策略。


第二,对技术发展所带来的效益与风险进行公平而合理的分配。就效益分配而言,需要认真审视现有制度的倾向,是否显性或隐性地使得技术发展的利润与收益集中流向某一或某些主体,导致财富与机会变得过于集中。从风险分配来说,必须防止处于强势地位的主体推卸与转嫁风险。在各方主体之间分配风险时,应当首先考虑风险由何者创设或参与创设,并确保各方主体的获益大小与风险承担之间的合比例性,再考虑风险预防能力的高低与特定分配方式的预期激励或预防效果。


第三,技术的根本目的在于服务人类的福祉,使得个人追求自由而幸福的生活成为可能。基于此,技术应当以人为本,赋能于人,不应成为支配一部分成员的工具,更不能任由技术来决定人类的未来。这意味着,对技术的发展不能听之任之,而应当合理加以引导塑造。作为人类,我们需要挑战,需要意义,需要目的,需要和自然融为一体;如果技术将我们与自然分离,它就带给了我们某种类型的死亡,但是,如果技术加强了我们和自然的联系,它就肯定了生活,因而也就肯定了我们的人性。


就当前的状况而言,法律介入对人脸识别技术的规制势在必行,也已成为基本共识。由此,需要进一步思考,如何将价值观层面的前述考虑贯彻与融入到制度构建之中。


来源:环球法律评论
链接:https://mp.weixin.qq.com/s/bsIA9mrz2ohskI-6kMEdyA


编辑:邓秋雨


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表