传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
481#
 楼主| 发表于 2021-6-16 20:45:15 | 只看该作者
【案例】

Facebook员工呼吁公司解决对巴勒斯坦审查制度的担忧

据英国《金融时报》报道,Facebook员工正在发布一份内部请愿书,要求公司对内容审核系统进行调查,该系统导致许多巴勒斯坦人和盟友说他们的内容被审查了。这一消息是在以色列空袭造成加沙地区200多人死亡(包括至少63名儿童)几周后发出的。以色列和哈马斯现在已经达成了停火协议。

巴勒斯坦活动家和盟友长期以来一直指责社交媒体公司审查亲巴勒斯坦的内容--在最近的冲突中,这个问题只会变得更糟。在Facebook,内容审核的决定是由第三方承包商和算法做出的,而这个过程并不完美,尤其是在非英语国家。在Instagram限制了一个提及Al-Aqsa Mosque清真寺的标签后,亲巴勒斯坦的活动人士协调了一场运动,在应用商店中对Facebook留下一星评论。

似乎Facebook的员工正在注意到这一点。他们在请愿书中写道:“正如员工、媒体和国会议员所强调的那样,以及我们在应用商店的评级下降所反映的那样,我们的用户和广大社区认为,我们在保护围绕巴勒斯坦局势的公开表达方面没有履行承诺。我们相信Facebook可以而且应该做得更多,以了解我们的用户,并努力重建他们的信任。”

这封信是由员工在一个名为 "巴勒斯坦人@"和 "穆斯林@"的小组中发布在内部论坛上的。据报道,它有174个签名。

员工们要求Facebook对围绕阿拉伯和穆斯林内容的内容审核决定进行第三方审计。他们还希望以色列总理本雅明·内塔尼亚胡(Benjamin Netanyahu)的一篇帖子由该公司的独立监督委员会审查,据称他在帖子中称巴勒斯坦平民为恐怖分子。

上个月,Google、苹果和亚马逊的员工写了内部信,呼吁高管们支持巴勒斯坦。这三家科技巨头的员工都表示,他们认为高管们不支持穆斯林工人。一些人还希望Google和亚马逊审查这两家公司最近与以色列政府签署的价值12亿美元的云计算合同。然而,没有一家公司像Facebook那样对围绕战斗的信息产生了直接影响。

在通过电子邮件发给The Verge的一份声明中,Facebook发言人表示,该公司已承诺对其社区标准执行报告进行审计。“我们知道有几个问题影响了人们在我们的应用程序上的分享能力,”该发言人补充说。“虽然我们修复了它们,但它们一开始就不应该发生,我们对那些认为自己无法让人们关注重要事件,或者认为这是故意压制他们的声音的人感到抱歉。我们设计了我们的政策,让每个人都有发言权,同时保证他们在我们的应用程序上的安全,我们平等地适用这些政策,无论谁在发帖或他们的个人信仰是什么。”

来源:新浪科技


编辑:王奕
482#
 楼主| 发表于 2021-6-17 17:58:39 | 只看该作者
【案例】

《个人信息保护法(草案)》(二次审议稿)全文

【按语】《个人信息保护法(草案)》二次审议稿汲取前沿理念和最佳实践,是个人信息保护与合规风控的重大进展。——吴沈括,网络法治国际中心执行主任、博导、中国互联网协会研究中心副主任。

《个人信息保护法(草案)》(二次审议稿)
第一章 总则
第一条为了保护个人信息权益,规范个人信息处理活动,促进个人信息合理利用,制定本法。
第二条自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益。
第三条组织、个人在中华人民共和国境内处理自然人个人信息的活动,适用本法。
在中华人民共和国境外处理中华人民共和国境内自然人个人信息的活动,有下列情形之一的,也适用本法:
()以向境内自然人提供产品或者服务为目的;
()分析、评估境内自然人的行为;
()法律、行政法规规定的其他情形。第四条个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开等。第五条处理个人信息应当采用合法、正当的方式,遵循诚信原则,不得通过误导、欺诈、胁迫等方式处理个人信息。
第六条处理个人信息应当具有明确、合理的目的,并应当限于实现处理目的所必要的最小范围、采取对个人权益影响最小的方式,不得进行与处理目的无关的个人信息处理。第七条处理个人信息应当遵循公开、透明的原则,公开个人信息处理规则,明示处理的目的、方式和范围。第八条处理个人信息应当保证个人信息的质量,避免因个人信息不准确、不完整对个人权益造成不利影响。第九条个人信息处理者应当对其个人信息处理活动负责,并采取必要措施保障所处理的个人信息的安全。第十条任何组织、个人不得违反法律、行政法规的规定处理个人信息,不得从事危害国家安全、公共利益的个人信息处理活动。
第十一条国家建立健全个人信息保护制度,预防和惩治侵害个人信息权益的行为,加强个人信息保护宣传教育,推动形成政府、企业、相关行业组织、社会公众共同参与个人信息保护的良好环境。
第十二条国家积极参与个人信息保护国际规则的制定,促进个人信息保护方面的国际交流与合作,推动与其他国家、地区、国际组织之间的个人信息保护规则、标准等的互认。
第二章 个人信息处理规则
第一节一般规定
第十三条符合下列情形之一的,个人信息处理者方可处理个人信息:
()取得个人的同意;
()为订立或者履行个人作为一方当事人的合同所必需;
()为履行法定职责或者法定义务所必需;
()为应对突发公共卫生事件,或者紧急情况下为保护自然人的生命健康和财产安全所必需;
()依照本法规定在合理的范围内处理已公开的个人信息;
()为公共利益实施新闻报道、舆论监督等行为,在合理的范围内处理个人信息;
()法律、行政法规规定的其他情形。依照本法其他有关规定,处理个人信息应当取得个人同意,但有前款第二项至第七项规定情形的,不需取得个人同意。第十四条处理个人信息的同意,应当由个人在充分知情的前提下自愿、明确作出。法律、行政法规规定处理个人信息应当取得个人单独同意或者书面同意的,从其规定。个人信息的处理目的、处理方式和处理的个人信息种类发生变更的,应当重新取得个人同意。第十五条个人信息处理者处理不满十四周岁未成年人个人信息的,应当取得未成年人的父母或者其他监护人的同意。第十六条基于个人同意而进行的个人信息处理活动,个人有权撤回其同意。个人信息处理者应当提供便捷的撤回同意的方式。个人撤回同意,不影响撤回前基于个人同意已进行的个人信息处理活动的效力。第十七条个人信息处理者不得以个人不同意处理其个人信息或者撤回其对个人信息处理的同意为由,拒绝提供产品或者服务;处理个人信息属于提供产品或者服务所必需的除外。
第十八条个人信息处理者在处理个人信息前,应当以显著方式、清晰易懂的语言向个人告知下列事项:
()个人信息处理者的身份和联系方式;
()个人信息的处理目的、处理方式,处理的个人信息种类、保存期限;
()个人行使本法规定权利的方式和程序;()法律、行政法规规定应当告知的其他事项。前款规定事项发生变更的,应当将变更部分告知个人。个人信息处理者通过制定个人信息处理规则的方式告知第一款规定事项的,处理规则应当公开,并且便于查阅和保存。第十九条个人信息处理者处理个人信息,有法律、行政法规规定应当保密或者不需要告知的情形的,可以不向个人告知前条规定的事项。紧急情况下为保护自然人的生命健康和财产安全无法及时向个人告知的,个人信息处理者应当在紧急情况消除后及时告知。第二十条个人信息的保存期限应当为实现处理目的所必要的最短时间。法律、行政法规对个人信息的保存期限另有规定的,从其规定。
第二十一条两个以上的个人信息处理者共同决定个人信息的处理目的和处理方式的,应当约定各自的权利和义务。但是,该约定不影响个人向其中任何一个个人信息处理者要求行使本法规定的权利。个人信息处理者共同处理个人信息,侵害个人信息权益的,应当承担连带责任。
第二十二条个人信息处理者委托处理个人信息的,应当与受托方约定委托处理的目的、期限、处理方式、个人信息的种类、保护措施以及双方的权利和义务等,并对受托方的个人信息处理活动进行监督。
受托方应当按照约定处理个人信息,不得超出约定的处理目的、处理方式等处理个人信息;委托合同不生效、无效、被撤销或者终止的,受托方应当将个人信息返还个人信息处理者或者予以删除,不得保留。
未经个人信息处理者同意,受托方不得转委托他人处理个人信息。
第二十三条个人信息处理者因合并、分立等原因需要转移个人信息的,应当向个人告知接收方的身份、联系方式。接收方应当继续履行个人信息处理者的义务。接收方变更原先的处理目的、处理方式,应当依照本法规定重新取得个人同意。
第二十四条个人信息处理者向他人提供其处理的个人信息的,应当向个人告知接收方的身份、联系方式、处理目的、处理方式和个人信息的种类,并取得个人的单独同意。接收方应当在上述处理目的、处理方式和个人信息的种类等范围内处理个人信息。接收方变更原先的处理目的、处理方式的,应当依照本法规定重新取得个人同意。
第二十五条利用个人信息进行自动化决策,应当保证决策的透明度和结果公平合理。
通过自动化决策方式进行商业营销、信息推送,应当同时提供不针对其个人特征的选项,或者向个人提供拒绝的方式。
通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。
第二十六条个人信息处理者不得公开其处理的个人信息,取得个人单独同意的除外。
第二十七条在公共场所安装图像采集、个人身份识别设备,应当为维护公共安全所必需,遵守国家有关规定,并设置显著的提示标识。所收集的个人图像、个人身份特征信息只能用于维护公共安全的目的,不得公开或者向他人提供,取得个人单独同意的除外。
第二十八条个人信息处理者处理已公开的个人信息,应当符合该个人信息被公开时的用途。超出与该用途相关的合理范围的,应当依照本法规定取得个人同意。
个人信息被公开时的用途不明确的,个人信息处理者应当合理、谨慎地处理已公开的个人信息。利用已公开的个人信息从事对个人有重大影响的活动,应当依照本法规定取得个人同意。
第二节敏感个人信息的处理规则
第二十九条个人信息处理者具有特定的目的和充分的必要性,方可处理敏感个人信息。
敏感个人信息是一旦泄露或者非法使用,可能导致个人受到歧视或者人身、财产安全受到严重危害的个人信息,包括种族、民族、宗教信仰、个人生物特征、医疗健康、金融账户、个人行踪等信息。
第三十条基于个人同意处理敏感个人信息的,个人信息处理者应当取得个人的单独同意。法律、行政法规规定处理敏感个人信息应当取得书面同意的,从其规定。
第三十一条个人信息处理者处理敏感个人信息的,除本法第十八条第一款规定的事项外,还应当向个人告知处理敏感个人信息的必要性以及对个人的影响。
第三十二条法律、行政法规对处理敏感个人信息规定应当取得相关行政许可或者作出其他限制的,从其规定。
第三节国家机关处理个人信息的特别规定
第三十三条国家机关处理个人信息的活动,适用本法;本节有特别规定的,适用本节规定。
第三十四条国家机关为履行法定职责处理个人信息,应当依照法律、行政法规规定的权限、程序进行,不得超出履行法定职责所必需的范围和限度。
第三十五条国家机关为履行法定职责处理个人信息,应当依照本法规定向个人告知并取得其同意;法律、行政法规规定应当保密,或者告知、取得同意将妨碍国家机关履行法定职责的除外。
第三十六条国家机关处理的个人信息应当在中华人民共和国境内存储;确需向境外提供的,应当进行风险评估。风险评估可以要求有关部门提供支持与协助。
第三十七条法律、法规授权的具有管理公共事务职能的组织为履行法定职责处理个人信息,适用本法关于国家机关处理个人信息的规定。
第三章 个人信息跨境提供的规则
第三十八条个人信息处理者因业务等需要,确需向中华人民共和国境外提供个人信息的,应当至少具备下列一项条件:
()依照本法第四十条的规定通过国家网信部门组织的安全评估;
()按照国家网信部门的规定经专业机构进行个人信息保护认证;
()按照国家网信部门制定的标准合同与境外接收方订立合同,约定双方的权利和义务,并监督其个人信息处理活动达到本法规定的个人信息保护标准;
()法律、行政法规或者国家网信部门规定的其他条件。
第三十九条个人信息处理者向中华人民共和国境外提供个人信息的,应当向个人告知境外接收方的身份、联系方式、处理目的、处理方式、个人信息的种类以及个人向境外接收方行使本法规定权利的方式等事项,并取得个人的单独同意。
第四十条关键信息基础设施运营者和处理个人信息达到国家网信部门规定数量的个人信息处理者,应当将在中华人民共和国境内收集和产生的个人信息存储在境内。确需向境外提供的,应当通过国家网信部门组织的安全评估;法律、行政法规和国家网信部门规定可以不进行安全评估的,从其规定。
第四十一条中华人民共和国境外的司法或者执法机构要求提供存储于中华人民共和国境内的个人信息的,非经中华人民共和国主管机关批准,不得提供;中华人民共和国缔结或者参加的国际条约、协定有规定的,可以按照其规定执行。
第四十二条境外的组织、个人从事损害中华人民共和国公民的个人信息权益,或者危害中华人民共和国国家安全、公共利益的个人信息处理活动的,国家网信部门可以将其列入限制或者禁止个人信息提供清单,予以公告,并采取限制或者禁止向其提供个人信息等措施。
第四十三条任何国家和地区在个人信息保护方面对中华人民共和国采取歧视性的禁止、限制或者其他类似措施的,中华人民共和国可以根据实际情况对该国家或者该地区对等采取措施。
第四章 个人在个人信息处理活动中的权利
第四十四条个人对其个人信息的处理享有知情权、决定权,有权限制或者拒绝他人对其个人信息进行处理;法律、行政法规另有规定的除外。
第四十五条个人有权向个人信息处理者查阅、复制其个人信息;有本法第十九条第一款规定情形的除外。个人请求查阅、复制其个人信息的,个人信息处理者应当及时提供。
第四十六条个人发现其个人信息不准确或者不完整的,有权请求个人信息处理者更正、补充。
个人请求更正、补充其个人信息的,个人信息处理者应当对其个人信息予以核实,并及时更正、补充。
第四十七条有下列情形之一的,个人信息处理者应当主动删除个人信息;个人信息处理者未删除的,个人有权请求删除:
()处理目的已实现或者为实现处理目的不再必要;
()个人信息处理者停止提供产品或者服务,或者保存期限已届满;
()个人撤回同意;
()个人信息处理者违反法律、行政法规或者违反约定处理个人信息;
()法律、行政法规规定的其他情形。法律、行政法规规定的保存期限未届满,或者删除个人信息从技术上难以实现的,个人信息处理者应当停止除存储和采取必要的安全保护措施之外的处理。
第四十八条个人有权要求个人信息处理者对其个人信息处理规则进行解释说明。
第四十九条自然人死亡的,本章规定的个人在个人信息处理活动中的权利,由其近亲属行使。
第五十条个人信息处理者应当建立个人行使权利的申请受理和处理机制。拒绝个人行使权利的请求的,应当说明理由。
第五章 个人信息处理者的义务
第五十一条个人信息处理者应当根据个人信息的处理目的、处理方式、个人信息的种类以及对个人的影响、可能存在的安全风险等,采取必要措施确保个人信息处理活动符合法律、行政法规的规定,并防止未经授权的访问以及个人信息泄露或者被窃取、篡改、删除:
()制定内部管理制度和操作规程;
()对个人信息实行分类管理;
()采取相应的加密、去标识化等安全技术措施;
()合理确定个人信息处理的操作权限,并定期对从业人
员进行安全教育和培训;
()制定并组织实施个人信息安全事件应急预案;
()法律、行政法规规定的其他措施。第五十二条处理个人信息达到国家网信部门规定数量的个人信息处理者应当指定个人信息保护负责人,负责对个人信息处理活动以及采取的保护措施等进行监督。
个人信息处理者应当公开个人信息保护负责人的联系方式,并将个人信息保护负责人的姓名、联系方式等报送履行个人信息保护职责的部门。
第五十三条本法第三条第二款规定的中华人民共和国境外的个人信息处理者,应当在中华人民共和国境内设立专门机构或者指定代表,负责处理个人信息保护相关事务,并将有关机构的名称或者代表的姓名、联系方式等报送履行个人信息保护职责的部门。
第五十四条个人信息处理者应当定期对其个人信息处理活动遵守法律、行政法规的情况进行合规审计。
第五十五条个人信息处理者应当对下列个人信息处理活动在事前进行风险评估,并对处理情况进行记录:
()处理敏感个人信息;
()利用个人信息进行自动化决策;
()委托处理个人信息、向他人提供个人信息、公开个人
信息;
()向境外提供个人信息;
()其他对个人有重大影响的个人信息处理活动。
风险评估的内容应当包括:
()个人信息的处理目的、处理方式等是否合法、正当、
必要;
()对个人的影响及风险程度;
()所采取的安全保护措施是否合法、有效并与风险程度相适应。
风险评估报告和处理情况记录应当至少保存三年。
第五十六条个人信息处理者发现个人信息泄露的,应当立
即采取补救措施,并通知履行个人信息保护职责的部门和个人。通知应当包括下列事项:
()个人信息泄露的原因;
()泄露的个人信息种类和可能造成的危害;
()已采取的补救措施;
()个人可以采取的减轻危害的措施;
()个人信息处理者的联系方式。个人信息处理者采取措施能够有效避免信息泄露造成损害的,个人信息处理者可以不通知个人;但是,履行个人信息保护职责的部门认为个人信息泄露可能对个人造成损害的,有权要求个人信息处理者通知个人。
第五十七条提供基础性互联网平台服务、用户数量巨大、业务类型复杂的个人信息处理者,应当履行下列义务:
()成立主要由外部成员组成的独立机构,对个人信息处
理活动进行监督;
()对严重违反法律、行政法规处理个人信息的平台内的
产品或者服务提供者,停止提供服务;
()定期发布个人信息保护社会责任报告,接受社会监督。
第五十八条接受委托处理个人信息的受托方,应当履行本
章规定的相关义务,采取必要措施保障所处理的个人信息的安全。
第六章 履行个人信息保护职责的部门
第五十九条国家网信部门负责统筹协调个人信息保护工作和相关监督管理工作。国务院有关部门依照本法和有关法律、行政法规的规定,在各自职责范围内负责个人信息保护和监督管理工作。
县级以上地方人民政府有关部门的个人信息保护和监督管理职责,按照国家有关规定确定。
前两款规定的部门统称为履行个人信息保护职责的部门。
第六十条履行个人信息保护职责的部门履行下列个人信息保护职责:
()开展个人信息保护宣传教育,指导、监督个人信息处理者开展个人信息保护工作;
()接受、处理与个人信息保护有关的投诉、举报;
()调查、处理违法个人信息处理活动;()法律、行政法规规定的其他职责。第六十一条国家网信部门统筹协调有关部门依据本法推进
下列个人信息保护工作)制定个人信息保护具体规则、标准;()针对敏感个人信息以及人脸识别、人工智能等新技术、
新应用,制定专门的个人信息保护规则、标准;()支持研究开发安全、方便的电子身份认证技术;()推进个人信息保护社会化服务体系建设,支持有关机构开展个人信息保护评估、认证服务。第六十二条履行个人信息保护职责的部门履行个人信息保护职责,可以采取下列措施:
()询问有关当事人,调查与个人信息处理活动有关的情况
()查阅、复制当事人与个人信息处理活动有关的合同、记录、账簿以及其他有关资料;
()实施现场检查,对涉嫌违法个人信息处理活动进行调查
()检查与个人信息处理活动有关的设备、物品;对有证据证明是违法个人信息处理活动的设备、物品,向本部门主要负责人书面报告并经批准,可以查封或者扣押。履行个人信息保护职责的部门依法履行职责,当事人应当予以协助、配合,不得拒绝、阻挠。
第六十三条履行个人信息保护职责的部门在履行职责中,发现个人信息处理活动存在较大风险或者发生个人信息安全事件的,可以按照规定的权限和程序对该个人信息处理者的法定代表人或者主要负责人进行约谈,或者要求个人信息处理者委托专业机构对其个人信息处理活动进行合规审计。个人信息处理者应当按照要求采取措施,进行整改,消除隐患。
第六十四条任何组织、个人有权对违法个人信息处理活动向履行个人信息保护职责的部门进行投诉、举报。收到投诉、举报的部门应当依法及时处理,并将处理结果告知投诉、举报人。
履行个人信息保护职责的部门应当公布接受投诉、举报的联系方式。
第七章 法律责任
第六十五条违反本法规定处理个人信息,或者处理个人信息未按照规定采取必要的安全保护措施的,由履行个人信息保护职责的部门责令改正,给予警告,没收违法所得;拒不改正的,并处一百万元以下罚款;对直接负责的主管人员和其他直接责任人员处一万元以上十万元以下罚款。
有前款规定的违法行为,情节严重的,由履行个人信息保护职责的部门责令改正,没收违法所得,并处五千万元以下或者上一年度营业额百分之五以下罚款,并可以责令暂停相关业务、停业整顿、通报有关主管部门吊销相关业务许可或者吊销营业执照;对直接负责的主管人员和其他直接责任人员处十万元以上一百万元以下罚款。
第六十六条有本法规定的违法行为的,依照有关法律、行政法规的规定记入信用档案,并予以公示。
第六十七条国家机关不履行本法规定的个人信息保护义务的,由其上级机关或者履行个人信息保护职责的部门责令改正;对直接负责的主管人员和其他直接责任人员依法给予处分。
第六十八条个人信息权益因个人信息处理活动受到侵害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。
前款规定的损害赔偿责任按照个人因此受到的损失或者个人信息处理者因此获得的利益确定;个人因此受到的损失和个人信息处理者因此获得的利益难以确定的,根据实际情况确定赔偿数额。
第六十九条个人信息处理者违反本法规定处理个人信息,侵害众多个人的权益的,人民检察院、履行个人信息保护职责的部门和国家网信部门确定的组织可以依法向人民法院提起诉讼。
第七十条违反本法规定,构成违反治安管理行为的,依法给予治安管理处罚;构成犯罪的,依法追究刑事责任。
第八章 附则
第七十一条自然人因个人或者家庭事务处理个人信息的,不适用本法。
法律对各级人民政府及其有关部门组织实施的统计、档案管理活动中的个人信息处理有规定的,适用其规定。
第七十二条本法下列用语的含义:
()个人信息处理者,是指自主决定处理目的、处理方式等个人信息处理事项的组织、个人。
()自动化决策,是指利用个人信息对个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,通过计算机程序自动分析、评估并进行决策的活动。
()去标识化,是指个人信息经过处理,使其在不借助额外信息的情况下无法识别特定自然人的过程。
()匿名化,是指个人信息经过处理无法识别特定自然人且不能复原的过程。
第七十三条本法自 日起施行。

来源:网络法治国际中心
链接:https://mp.weixin.qq.com/s/6UlQredTOkAoy-OyHuhYww


编辑:王奕
483#
 楼主| 发表于 2021-6-17 17:59:36 | 只看该作者
【案例】

前沿译文丨欧盟《人工智能法》提案(上)

编者按:421日,欧盟发布了《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》的提案,这是继2020219日欧盟《人工智能白皮书》之后的又一重量级法案。该提案从“维护欧盟的技术领先地位,并确保欧洲人民可以从按照欧盟价值观、基本权利和原则人工智能中受益”的原则出发,采取基于风险的监管思路,在区分“禁止类AI”和“高风险类AI”的基础上,提出了如下具体目标:
1)确保投放到欧盟市场并使用的AI系统是安全的,并尊重现行法律中的基本权利和欧盟价值;
2)确保法律上的确定性,以促进对人工智能的投资和创新;
3)加强对适用于AI系统的基本权利和安全要求的现有法律有效执行和治理;
4)促进针对合法、安全和可信赖的AI应用的开发,促进欧盟单一数字市场的发展。
鉴于该提案对于我国人工智能和算法治理的重要价值,我们特编译提案正文,以飨读者。因原文较长,我们将分两期刊发,敬请期待。
——对外经济贸易大学数字经济与法律创新研究中心执行主任 许可
布鲁塞尔21.4.2021 COM(2021)206最终
2021/0106(COD)
提案
欧洲议会和理事会
制定关于人工智能的统一规则(人工智能)并修某些联合立法行为
第一编
一般规定
1
主旨
该法规规定:
(a) 在欧盟中投放市场,投入服务和使用人工智能系统(“ AI系统”)的统一规则;
(b) 禁止某些人工智能实践;
(c) 高风险AI系统的具体要求以及此类系统的操作员的义务;
(d) 旨在与自然人互动的AI系统、情感识别系统和生物特征分类系统以及用于生成或操纵图像、音频或视频内容的AI系统的统一透明度规则;
(e) 市场监测和监督规则。

2
适用范围
1. 本法规适用于:
(a) 在欧盟中投放市场或将AI系统投入服务的提供商,无论这些提供商是在欧盟内部还是在第三国建立的;
(b) 位于欧盟内的AI系统的用户;
(c) 位于第三国的AI系统的提供者和用户,该系统产生的输出在欧盟中使用;
2. 对于属于产品或系统安全组件的高风险AI系统,或者本身属于产品或系统的高风险AI系统,属于以下行为的范围内,仅适用本法规的第84条:
(a) 法规(EC300/2008
(b) 法规(EU)第167/2013号;
(c) 法规(EU)第168/2013号;
(d) 指令2014/90/EU
(e) 指令(EU2016/797
(f) 法规(EU2018/858;
(g) 法规(EU2018/1139;
(h) 法规(EU2019/2144
3. 本法规不适用于专门用于军事目的而开发或使用的AI系统。
4. 本法规不适用于第三国的公共当局,也不适用于根据本条第1款属于本法规范围内的国际组织,在这些机关或组织在与执法机关进行国际执法和司法合作的国际协议框架内使用AI系统的情况欧盟或一个或多个成员国。
5. 本法规不得影响欧洲议会和理事会第2000/31 / EC号指令60 II章第IV节中所规定的中介服务提供者责任规定的适用[将由欧盟《数字服务法》的相应条款
3
定义
就本法规而言,适用以下定义:
1)“人工智能系统”(AI system)是指使用附件I中所列的一种或多种技术和方法开发的软件,并且对于给定的一组人类定义的目标,可以生成诸如内容、预测之类的输出,影响与其互动的环境的建议或决策;
2)“提供者”是指开发AI系统,或者拥有已开发的AI系统并将其投放市场或以自己名义(商标)投入使用的自然人、法人、公共机构或其他机构,无论是付费还是免费的;
(3) “小型提供商”是指委员会建议2003/361/EC61所指的小微企业的提供商;
(4) “用户”是指在其授权下使用AI系统的任何自然人、法人、公共机构、代理机构或其他机构,除非在个人非专业活动中使用了AI系统;
(5) “授权代表”是指在欧盟中建立的任何自然人或法人,均已从AI系统的提供者处获得书面授权,分别代表其执行和执行本法规所规定的义务和程序;
(6) “进口商”是指在欧盟中建立的任何自然人或法人,其在市场上投放或投入使用的AI系统均带有欧盟外所建立的自然人或法人的名称或商标;
(7) “发行人”是指供应商中除了供应商或进口商之外的任何自然人或法人,可以在欧盟市场上提供人工智能系统而不影响其属性;
(8) “运营商”是指提供者、用户、授权代表、进口商和分销商;
(9) “投放市场”是指在欧盟市场上首次提供AI系统;
(10) “在市场上可用”是指在商业活动过程中以联合市场的形式分发或使用的AI系统的任何供应,无论是付费还是免费;
(11) “投入使用”是指直接为用户提供的AI系统,或为其预期目的在欧盟市场上供其自己使用的AI系统;
(12) “预期目的”是指提供者针对AI系统的用途,包括提供者在使用说明,促销或销售材料和声明中提供的信息中指定的特定上下文和使用条件,如下所述:以及技术文档中的内容;
(13) “合理可预见的滥用”是指以不符合其预期目的的方式使用AI系统,但可能是由于合理可预见的人类行为或与其他系统的交互作用而导致的;
(14) “产品或系统的安全组件”是指为该产品或系统执行安全功能,或者其故障或功能失常危及人员或财产的健康和安全的产品或系统的组件;
(15) “使用说明”是指提供者提供的信息,用于告知用户特别是AI系统的预期目的和正确使用,包括打算将高风险AI系统纳入其中的特定地理,行为或功能设置用过的;
(16) “召回AI系统”是指旨在向用户提供AI系统提供商返还的任何措施;
(17) “退出AI系统”是指旨在防止AI系统的分发,显示和提供的任何措施;
(18) AI系统的性能”是指AI系统达到其预期目的的能力;
(19) “通知机构”是指负责建立和执行必要的程序以评估,指定和通知合格评定机构并进行监督的国家机构;
(20) “合格评定”是指验证本法规第二章第三章第三节中关于人工智能系统的要求是否得到满足的过程;
(21) “合格评定机构”是指执行第三方合格评定活动(包括测试,认证和检查)的机构;
(22) “通知机构”是指根据本法规和其他相关的欧盟协调法规指定的合格评定机构;
(23) “重大修改”是指在AI系统投入市场或投入使用后对AI系统进行的更改,这会影响AI系统对本法规第2章第III节中规定的要求的遵从性,或者导致对AI系统的修改。评估AI系统的预期目的;
(24) CE合格标记”(CE标记)是指提供者表明AI系统符合本法规第二章第III节和协调市场营销条件的其他适用的欧盟法规所规定的标记。(“统一法规”);
(25) “上市后监控”是指由AI系统提供者进行的所有活动,以主动收集和审查从他们投放市场或投入使用的AI系统获得的经验,以识别是否需要立即应用任何必要的东西。纠正或预防措施;
(26) “市场监督机构”是指根据(EU2019/1020法规开展活动并采取措施的国家机构;
(27) “统一标准”是指第1025/2012号法规(EU)第21)(c)条所定义的欧洲标准;
(28) “通用规范”是指除标准以外的包含技术解决方案的文件,该技术解决方案提供了一种手段来满足本法规规定的某些要求和义务;
(29) “训练数据”是指用于通过拟合其可学习的参数(包括神经网络的权重)来训练AI系统的数据;
(30) “验证数据”是指用于对经过训练的AI系统进行评估,调整其不可学习的参数及其学习过程等数据,以防止过拟合;验证数据集可以是单独的数据集,也可以是训练数据集的一部分,可以是固定拆分或可变拆分;
(31) “测试数据”是指用于对经过培训和经过验证的AI系统进行独立评估的数据,以便在该系统投放市场或投入使用之前确认该系统的预期性能;
(32) “输入数据”是指提供给AI系统或由AI系统直接获取的数据,并以此为基础产生输出;
(33) “生物特征数据”是指通过与自然人的身体,生理或行为特征相关的特定技术处理而得到的个人数据,这些数据允许或确认该自然人的唯一标识,例如面部图像或手指镜检查数据;
(34) “情感识别系统”是指用于根据自然人的生物特征数据识别或推断自然人的情感或意图的AI系统;
(35) “生物分类系统”是指一种AI系统,用于根据生物特征数据将自然人分为特定类别,例如性别、年龄,头发颜色,眼睛颜色,纹身,族裔或性别或政治取向;
(36) “远程生物特征识别系统”是指一种AI系统,其目的是通过将人的生物特征数据与参考数据库中包含的生物特征数据进行比较来在远处识别自然人,而无需AI系统用户的事先了解该人将在场并且可以被识别;
(37) “实时”远程生物特征识别系统是指一种远程生物特征识别系统,在此过程中,生物特征数据的捕获,比较和识别均没有明显的延迟。这不仅包括即时识别,还包括有限的短暂延迟,以避免规避。
(38) “发布远程生物特征识别系统”是指除“实时”远程生物特征识别系统之外的远程生物特征识别系统;
(39) “公众可进入的空间”是指公众可进入的任何物理场所,无论是否适用某些进入条件;
(40) “执法机关”是指:
(a) 负责预防,调查,侦查或起诉刑事犯罪或执行刑事处罚(包括防止和预防对公共安全的威胁)的任何公共当局;或者
(b) 成员国法律授权的其他任何机构或实体,为了预防,调查,侦查或起诉刑事犯罪或执行刑事处罚(包括保护和防止对公众的威胁)而行使公共权威和权力;
(41) “执法”是指执法机构为预防,调查,侦查或起诉刑事犯罪或执行刑事处罚而开展的活动,包括防范和预防对公共安全的威胁;
(42) “国家监督机构”是指成员国将实施和实施本法规,协调委托给该成员国的活动,作为委员会的单一联系点并在欧洲人工智能委员会成员国代表成员国的职责分配给的机构;
(43) “国家主管机关”是指国家监管机关,通知机关和市场监督机关;
(44) “严重事件”是指直接或间接导致,可能导致或可能导致以下任何事件的任何事件:
(a) 人的死亡或对人的健康,财产或环境的严重损害,
(b) 对关键基础架构的管理和运营的严重且不可逆转的破坏。

4
对附件一的修正
委员会有权根据第73条采取授权行动,以修改附件一中所列的技术和方法清单,以便根据与该技术和方法类似的特征将该清单更新为市场和技术发展在其中列出。
第二编
禁止的人工智慧实践
5
1. 禁止以下人工智能实践:
(a) 在市场上投放、投入使用或使用AI系统,该AI系统以个人无法认知的方式部署潜意识教化技术,以某种方式严重扭曲一个人的行为,从而导致或可能导致该人或他人的身体或心理伤害;
(b) 投放市场、投入使用或使用AI系统,该系统利用特定人群的年龄、身体或精神残疾等特定人群的任何脆弱性,实质性地扭曲与该人群有关的行为,以导致或可能造成该人或他人的身体或心理伤害的方式;
(c) 公共机构或其代表在市场上投放、投入使用或使用人工智能系统,用以根据自然人的社会行为或已知或预测的个性特征或性格,在一定时期内对自然人的信誉进行评估或分类,且该社交评分则导致以下一项或两项:
(i) 在与原始数据生成或收集的场景无关的社会场景中,对某些自然人或整个群体的有害或不利待遇;
(ii) 对某些自然人或整个群体的社会行为或其严重不合理或不相称的有害或不利待遇;
(d) 出于执法目的在公共场所使用“实时”远程生物特征识别系统,除非出于以下目的之一使用且绝对必要时:
(i) 有针对性地寻找特定的潜在犯罪受害者,包括失踪儿童;
(ii) 预防对自然人的生命或人身安全或恐怖袭击的具体、实质性和迫在眉睫的威胁;
(iii) 侦测、定位、识别或起诉理事会第2002/584 / JHA62 号决议第22)条所述的犯罪行为的犯罪嫌疑人或嫌疑人,并在有关成员国以监禁刑罚或根据该成员国的法律确定的最长拘留期限,至少为三年。
2. 为了第1d)项中提到的任何目标的执法目的,在公共场所使用“实时”远程生物特征识别系统时,应考虑以下因素:
(a) 导致可能使用的情况的性质,特别是在不使用该系统的情况下造成的损害的严重性,可能性和严重程度;
(b) 使用该系统对有关所有人的权利和自由产生的后果,特别是这些后果的严重性,可能性和严重性。此外,出于执法目的,在公共场所使用“实时”远程生物特征识别系统以实现第1d)项中提到的任何目标的目的,应符合与之相关的必要且相称的保障措施和条件,尤其是在时间,地理和个人限制方面。
3. 关于第1款第(d)项和第2款,为在公共场所使用“实时”远程生物特征识别系统的执法目的而进行的个人使用,均应事先获得司法当局或政府的批准。根据合理的要求并根据第4段所述的国家法律的详细规则发布的,将在其中进行使用的成员国的独立行政当局。但是,在有充分理由的紧急情况下,使用可能未经授权而启动系统,并且仅在使用期间或使用之后才可以请求授权。
司法或行政主管部门应仅在基于其客观证据或明确指示而感到满意的情况下,授予使用有争议的“实时”远程生物特征识别系统的必要性并与之成比例地授予该授权。请求中确定的第1款(d)项中指定的目标之一。在决定请求时,主管司法或行政当局应考虑到第2款所指的内容。
4. 为保持灵活性,成员国可以决定以完全或部分授权在公共场所使用“实时”远程生物特征识别系统,在第1段(d)点,第2和第3段中列出的限制范围内执法。该成员国应在其本国法律中制定必要的详细规则,以请求、签发和行使与上述许可有关的授权,并对其进行监督第3款。这些规则还应具体说明第1款第(d)项中列出的目标,包括第(iii)项中提到的哪些刑事犯罪,主管当局可以被授权使用这些系统出于执法目的。
第三编
高风险AI系统
1
AI系统归类为高风险
6
高风险AI系统的分类规则
1. 无论AI系统是独立于(a)和(b)点提到的产品投放市场还是投入服务,都应同时满足以下两个条件的AI系统视为高风险:
(a) AI系统旨在用作附件II中所列的欧盟协调法规所涵盖的产品或本身就是产品的安全组件;
(b) 安全组件为AI系统的产品或AI系统本身为产品的产品,必须经过第三方合格评定,以根据欧盟统一标准将该产品投放市场或投入使用附件二中列出的立法。
2. 除第1款所指的高风险AI系统外,附件三所指的AI系统也应视为高风险。
7
对附件三的修正
1. 委员会有权根据第七十三条采取授权行动,通过增加满足以下两个条件的高风险人工智能系统来更新附件三中的清单:
(a) 人工智能系统旨在用于附件三第1至第8点所列的任何领域;
(b) AI系统存在危害健康和安全的风险,或对基本权利造成不利影响的风险,即就其严重性和发生的可能性而言,等于或大于由附件三中已经提到的高风险AI系统所构成的危害或不利影响风险。
2. 为第1款的目的,评估人工智能系统是否会对健康和安全造成危害的风险或对基本权利的不利影响的风险等于或大于委员会已经在附件三中提及高风险人工智能系统所造成的风险时,应考虑以下标准:
(a) 人工智能系统的预期目的;
(b) AI系统已被使用或可能被使用的程度;
(c) 如报告所表明,使用人工智能系统已在多大程度上对健康和安全造成损害或对基本权利的不利影响,或已引起与这种损害或不利影响的实现有关的重大关切,提交给国家主管部门的书面指控;
(d) 这种损害或不利影响的潜在程度,特别是在其强度和影响多个人的能力方面;
(e) 可能受到伤害或受到不利影响的人的程度取决于人工智能系统产生的结果,特别是因为出于实际或法律原因,不可能合理地选择退出该结果;
(f) 相对于AI系统的用户而言,潜在受到伤害或受到不利影响的人员处于脆弱状态的程度,尤其是由于权力,知识,经济或社会环境或年龄的不平衡所致;
(g) 人工智能系统产生的结果易于逆转的程度,因此对人的健康或安全有影响的结果不应被视为容易逆转;
(h) 欧盟现有法规在多大程度上规定:(i) 针对人工智能系统带来的风险的有效补救措施,但不包括损害赔偿要求;(ii)采取有效措施来预防或大幅度降低这些风险。
2
高风险AI系统的要求
8
符合要求
1. 高风险的AI系统应符合本章规定的要求。
2. 确保遵守这些要求时,应考虑到第9条中提到的高风险AI系统和风险管理系统的预期目的。

9
风险管理系统
1. 应建立、实施、记录和维护与高风险AI系统有关的风险管理系统。
2. 风险管理系统应包括在高风险AI系统的整个生命周期中运行的连续迭代过程,需要定期进行系统更新。它应包括以下步骤:
(a) 识别和分析与每个高风险AI系统相关的已知和可预见的风险;
(b) 评估和评估高风险AI系统按照其预期目的并在合理可预见的滥用条件下使用时可能出现的风险;
(c) 根据对第61条所述的上市后监测系统收集的数据的分析,对其他可能产生的风险进行评估;
(d) 根据以下各段的规定,采取适当的风险管理措施。
3. 2款(d)项中提到的风险管理措施应适当考虑合并应用本第2章中规定的要求所产生的影响和可能的相互作用。这些措施应考虑到公认的风险状态和条款,包括相关的协调标准或通用规范中反映的内容。
4. 2款(d)点所指的风险管理措施应使得与每种危害相关的任何剩余风险以及高风险AI系统的总体剩余风险均被判定为可接受,但前提是高风险AI系统是根据其预期目的或在合理可预见的误用条件下使用的。这些剩余风险应传达给用户。
在确定最适当的风险管理措施时,应确保以下内容:
(a) 通过充足的设计和开发,尽可能消除或降低风险;
(b) 在适当的情况下,针对无法消除的风险,采取适当的缓解和控制措施;
(c) 根据第13条提供足够的信息,尤其是有关本条第2款(b)项中提到的风险的信息,并在适当情况下对用户进行培训。在消除或减少与使用高风险AI系统相关的风险时,应适当考虑用户的技术知识,经验,教育,培训以及打算使用该系统的环境。
5. 为了确定最适当的风险管理措施,应对高风险的AI系统进行测试。测试应确保高风险的AI系统按预期目的一致运行,并且符合本章规定的要求。
6. 测试程序应适合于实现AI系统的预期目的,并且不需要超出实现该目的所必需的范围。
7. 高风险AI系统的测试应在整个开发过程中的任何时候适当地进行,并且无论如何要在投放市场或投入使用之前进行。应针对适合高风险AI系统预期目的的预先定义的度量标准和概率阈值进行测试。
8. 在实施第1至第7段所述的风险管理系统时,应特别考虑高风险的AI系统是否可能被儿童使用或对其产生影响。
9. 对于受指令2013/36 / EU监管的信贷机构,第1至第8段中所述的方面应是这些机构根据该指令第74条建立的风险管理程序的一部分。

10
数据与数据治理
1. 利用涉及对数据进行模型训练的技术的高风险AI系统,应在满足第25段所述质量标准的训练,验证和测试数据集的基础上开发。
2. 培训、验证和测试数据集应遵守适当的数据治理和管理规范。这些实践应特别关注:
(a) 有关的设计选择;
(b) 数据采集;
(c) 相关的数据准备处理操作,例如注释,标记、清洗、充实和汇总;
(d) 制定有关假设,特别是有关数据应衡量和代表的信息的假设;
(e) 事先评估所需数据集的可用性、数量和适用性;
(f) 鉴于可能存在的偏见进行检查;
(g) 确定任何可能的数据空白或不足,以及如何解决这些空白和不足。
3. 培训、验证和测试数据集应是相关的、有代表性的、没有错误且完整的。它们应具有适当的统计属性,包括(如果适用)与打算使用高风险AI系统的人员或人群有关的属性。可以在单个数据集或其组合的级别上满足数据集的这些特性。
4. 培训、验证和测试数据集应在预期目的要求的范围内考虑到打算使用高风险AI系统的特定地理、行为或功能设置所特有的特征或要素。
5. 在一定程度上,出于确保与高风险AI系统相关的偏差监视、检测和更正的目的,此类系统的提供者可以处理第9条第1款所指的特殊类别的个人数据法规(EU2016/679,指令(EU2016/680的第10条和法规(EU2018/1725的第101)条。但是,当匿名化可能会极大地影响所追求的目的时,要对自然人的基本权利和自由采取适当的保障措施,包括技术限制重用和使用最新的安全性和隐私保护措施,例如假名或加密。
6. 适当的数据治理和管理实践应适用于高风险AI系统的开发,而不是使用那些涉及模型训练的技术的系统,以确保这些高风险AI系统符合第2款的规定。

11
技术文件
1. 高风险AI系统的技术文档应在该系统投放市场或投入使用之前起草,并应保持最新状态。技术文件的编制应证明高风险AI系统符合本章规定的要求,并向国家主管部门和指定机构提供所有必要信息,以评估AI系统的合规性满足这些要求。技术文件至少应包含附件四中列出的要素。
2. 如果与产品相关的高风险AI系统(适用附件II A节中列出的法律行为)投放市场或投入使用,则应草拟一份单独的技术文件,其中应包含本文档中列出的所有信息。附件四以及这些法律法案所要求的信息。
3. 委员会有权根据第73条采取授权行动,在必要时对附件四进行修订,以确保根据技术进步,技术文件提供所有必要的信息,以评估系统是否符合这一章中规定的要求。

12
记录保存
1. 高风险AI系统的设计和开发应具有能够在高风险AI系统运行时自动记录事件(“日志”)的功能。这些记录功能应符合公认的标准或通用规范。
2. 记录功能应确保AI系统在其整个生命周期中的功能可追溯性水平,该水平应适合于系统的预期目的。
3. 特别是日志记录功能应能够针对可能导致AI系统呈现第65条第1款所指的风险或导致实质性损失的情况的发生进行监视,并且修改并促进第61条所指的上市后监管。
4. 对于附件三第1段(a)点所指的高风险AI系统,日志记录功能至少应提供:
(a) 记录系统每次使用的时间(每次使用的开始日期和时间以及结束日期和时间);
(b) 系统已针对其检查输入数据的参考数据库;
(c) 搜索导致匹配的输入数据;
(d)根据第14条第5款的规定,确定参与结果验证的自然人的身份。
13
透明度和向用户提供信息
1. 高风险AI系统的设计和开发方式应确保其操作足够透明,以使用户能够理解系统的输出并适当地使用它。为了确保遵守本标题第3章中规定的用户和提供者的相关义务,应确保适当的类型和程度的透明性。
2. 高风险的AI系统应随附以适当的数字格式或以其他方式使用的说明,其中包括与用户相关,可访问和可理解的简明、完整、正确和清晰的信息。
3. 2款所指的信息应具体说明:
(a) 提供者及其授权代表(如适用)的身份和联系方式;
(b) 高风险AI系统的性能特征、功能和局限性,包括:
(i) 其预期目的;
(ii) 高风险AI系统已针对之进行测试和验证且可以预期的第15条中提到的准确性、鲁棒性和网络安全级别,以及可能对该预期精度水平产生影响的任何已知和可预见的情况,健壮性和网络安全性;
(iii) 与按照预期目的或在合理可预见的滥用条件下使用高风险AI系统有关的任何已知或可预见情况,可能会导致健康,安全或基本权利的风险;
(iv) 关于拟使用该系统的个人或人群的性能;
(v) 在适当的情况下,考虑到AI系统的预期目的,在使用的训练,验证和测试数据集方面确定输入数据的规范或任何其他相关信息。
(c) 提供者在初次合格评定时已预先确定的高风险AI系统及其性能的更改;
(d) 14条所述的人为监督措施,包括为方便用户解释AI系统的输出而采取的技术措施;
(e) 高风险AI系统的预期寿命以及确保该AI系统正常运行(包括软件更新)的任何必要维护和保养措施。

14
人为监督
1. 高风险的AI系统的设计和开发,包括使用适当的人机界面工具,应使其在使用AI系统期间可以由自然人有效地进行监督。
2. 人为监督的目的应是,防止或最大程度地降低高风险人工智能系统在其设计意图或在合理可预见的误用条件下可能产生的健康、安全或基本权利风险,尤其是当存在此类风险时,尽管此时本章规定的其他要求依然适用。
3. 应通过以下一项或全部措施确保人为监督:
(a) 在技术可行的情况下,识别并在提供商将其投放市场或投入使用之前,将其内置到高风险的AI系统中;
(b) 由提供商确定,然后再将高风险的AI系统投放市场或投入使用,并且应该由用户实施。
4. 3款所指的措施应使被指派进行人工监督的人员能够根据情况进行以下操作:
(a) 充分了解高风险AI系统的功能和局限性,并能够对其运行进行适当监控,以便尽快发现并解决反常,功能异常和意外性能的迹象;
(b) 意识到自动依赖或过度依赖高风险AI系统产生的输出的可能趋势(“自动化偏差”),特别是对用于为自然人决策提供信息或建议的高风险AI系统而言;
(c) 能够特别考虑系统的特征以及可用的解释工具和方法来正确解释高风险AI系统的输出;
(d) 能够在任何特定情况下决定不使用高风险AI系统或以其他方式无视,手动控制或逆转高风险AI系统的输出;
(e) 能够干预高风险AI系统的运行或通过“停止”按钮或类似程序来中断系统。
5. 对于附件三第1点(a)所指的高风险AI系统,第3款所指的措施应确保,在此之外,用户不根据系统产生的身份验证采取任何行动或决定,除非至少有两个自然人对此系统进行了验证和确认。

15
准确性、鲁棒性和网络安全性
1. 高风险AI系统的设计和开发方式应使其能够根据其预期目的达到适当的准确性、鲁棒性和网络安全性,并在其整个生命周期内在这些方面保持一致。
2. 高风险AI系统的准确性等级和相关准确性度量应在随附的使用说明中声明。
3. 高风险的AI系统应具有复原性,可以应对系统或系统运行所处的环境内可能发生的错误,故障或不一致,特别是由于其与自然人或其他系统的相互作用所致。高风险AI系统的鲁棒性可以通过技术冗余解决方案来实现,其中可能包括备份或故障安全计划。在投入市场或投入使用后仍会继续学习的高风险AI系统的开发方式,应确保适当处理用作未来操作输入的输出而产生的可能有偏差的输出(“反馈循环”)并且采取适当的缓解措施。
4. 对于未经授权的第三方通过利用系统漏洞来更改其使用或性能的尝试,高风险AI系统应具有复原性。旨在确保高风险AI系统的网络安全的技术解决方案应适合于相关情况和风险。解决AI特定漏洞的技术解决方案应在适当情况下包括预防和控制试图操纵训练数据集的攻击(“数据中毒”)的措施,旨在导致模型出错的输入(“对抗性示例”)或模型缺陷。
3
高风险AI系统和其他方的供应商和用户的义务
16
高风险AI系统提供商的义务
高风险AI系统的供应商应:
(a) 确保其高风险AI系统符合本标题第2章中规定的要求;
(b) 拥有符合第17条的质量管理体系;
(c) 编制高风险AI系统的技术文档;
(d) 在他们的控制下,保留由其高风险AI系统自动生成的日志;
(e) 确保高风险的AI系统在投放市场或投入使用之前经过相关的合格评定程序;
(f) 遵守第51条所述的注册义务;
(g) 如果高风险AI系统不符合本标题第2章规定的要求,则采取必要的纠正措施;
(h) 将不遵守情况和采取的任何纠正措施告知提供或启用人工智能系统的成员国的国家主管当局,并在适用的情况下通知指定机构;
(i) 根据其第49条,在其高风险AI系统上贴上CE标志,以表明其符合本法规的规定;
(j) 应国家主管部门的要求,证明高风险AI系统符合本标题第2章中规定的要求。

17
质量管理体系
1. 高风险AI系统的供应商应建立质量管理体系,以确保遵守本法规。该系统应以书面政策,程序和说明的形式系统地,有条理地形成文件,并且至少应包括以下几个方面:
(a) 监管合规性策略,包括合规性评估程序和高风险AI系统修改管理程序;
(b) 用于高风险AI系统的设计,设计控制和设计验证的技术,程序和系统动作;
(c) 用于高风险AI系统的开发,质量控制和质量保证的技术,程序和系统动作;
(d) 在开发高风险AI系统之前,之中和之后要进行的检查,测试和确认程序,以及执行这些程序的频率;
(e) 要应用的技术规范,包括标准,以及在未完全应用相关的统一标准的情况下,用于确保高风险AI系统符合本标题第2章中规定的要求的方法;
(f) 数据管理的系统和程序,包括数据收集、数据分析、数据标记、数据存储、数据过滤、数据挖掘、数据聚合、数据保留以及与放置之前和出于放置目的执行的任何其他有关数据的操作高风险AI系统的市场投放或投入使用;
(g) 9条所指的风险管理系统;
(h) 根据第61条建立,实施和维护售后监测系统;
(i) 依照第62条报告严重事件和故障的程序;
(j) 处理与国家主管当局,主管部门(包括部门主管部门)的通信,以提供或支持对数据,指定机构,其他运营商,客户或其他有关方面的访问;
(k) 记录所有相关文件和信息的系统和程序;
(l) 资源管理,包括与供应有关的措施的安全性;(m) 一个问责制框架,其中规定了管理层和其他员工在本段中列出的各个方面的责任。
2. 1款提及的方面的实施应与供应商组织的规模成正比。
3. 对于是受指令2013/36/EU监管的信贷机构的供应商,应通过遵守根据该指令第74条制定的内部治理安排,流程和机制的规则,视为已履行建立质量管理体系的义务。在这种情况下,应考虑本规章第40条提及的任何统一标准。

18
起草技术文件的义务
1. 高风险AI系统的供应商应按照附件IV的规定起草第11条中提到的技术文档。
2. 作为受指令2013/36/EU监管的信贷机构的供应商,应根据该指令第74条的规定,维护技术文件,作为有关内部治理,安排,流程和机制的文件的一部分。

19
合格评定
1. 高风险AI系统的供应商应确保其系统在投放市场或投入使用之前,已按照第43条进行了相关的合格评定程序。如果在进行合格性评估后证明AI系统符合本标题第2章中规定的要求,则供应商应根据第48条起草欧盟合格声明,并在合格性标志上粘贴CE合格标志。与第49条相同。
2. 对于投放市场或由指令2013/36/EU监管的信贷机构的供应商投入服务的附件III5b)点所指的高风险AI系统,应按照以下规定进行合格性评估:该指令第97101条中提及的程序的一部分。

20
自动生成的日志
1. 高风险AI系统的供应商应保留其高风险AI系统自动生成的日志,只要这些日志受与用户之间的合同安排或法律的约束而受其控制。根据高风险AI系统的预期目的以及欧盟或国家法律规定的适用法律义务,应将日志保存适当的时间。
2. 作为受指令2013/36/EU监管的信贷机构的供应商,应保留其高风险AI系统自动生成的日志,作为该指令第74条下文件的一部分。

21
纠正措施
高风险AI系统的供应商认为或有理由认为已投放市场或投入使用的高风险AI系统不符合本法规的规定,应确保采取必要的纠正措施使该系统符合要求,在必要的时候撤回或召回该系统。在系统存在风险的情况下,分销商应将此情况告知供应商或进口商(如适用)。

22
信息义务
如果高风险AI系统存在第65条第(1)款所指的风险,并且该风险已被系统供应商知晓,则该供应商应立即通知建立该系统的成员国的国家主管部门,以及在适用的情况下,通知为高风险AI系统颁发证书的指定机构,尤其是有关违规行为和采取的任何纠正措施的证书。
23
与主管部门的合作
高风险AI系统的供应商应应国家主管部门的要求,向该机构提供证明高风险AI系统符合本标题第2章所规定要求的所有必要信息和文件,并且使用有关成员国确定的官方正式语言。根据国家主管部门的合理要求,供应商还应允许该部门访问由高风险AI系统自动生成的日志,但前提是此类日志受与用户或其他方面的合同安排或根据法律在他们的控制范围内。
24
产品制造商的义务
凡与附件二a节所列法律行为适用的产品相关的高风险AI系统,以产品制造商的名义与根据该法律行为生产的产品一起投放市场或投入使用时,产品制造商应对AI系统符合本条例的规定承担责任,并就AI系统而言,负与本条例下供应商所负义务相同的义务。
25
授权代表
1. 无法识别进口商的情况下,在将其系统投放到欧盟市场之前,欧盟以外的供应商应通过书面授权,任命在欧盟内设立的授权代表。
2. 授权代表应执行从供应商那里收到的授权命令中规定的任务。授权命令应授权受权代表执行以下任务:
(a) 保留一份欧盟合格声明和技术文件的副本,供国家主管当局和第63(7)条所指的国家主管当局使用;
(b) 应合理要求,向国家主管当局提供所有必要的信息和文件,以证明高风险AI系统符合本标题第2章的要求,包括查阅由高风险AI系统自动生成的日志,只要这些日志由供应商根据与用户的合同安排或其他法律所控制;
(c) 在合理要求下,与国家主管当局合作,针对后者对高风险AI系统采取的任何行动。
26
进口商的义务
1. 在将高风险的AI系统投放市场之前,该系统的进口商应确保:
(a) AI系统的提供者已经执行了适当的合格评定程序
(b) 供应商已根据附件四起草了技术文件;
(c) 该系统带有要求的合格标记,并随附要求的文件和使用说明。
2. 进口商认为或有理由认为高风险AI系统不符合本条例的情况,进口商不得不得将其投放市场直到AI系统符合规定。如果高风险AI系统存在第65条第(1)款所指的风险,进口商应将此情况通知AI系统的提供者和市场监督机构。
3. 进口商应在高风险AI系统上注明其名称、注册商品名称或注册商标,以及可以联系到他们的地址,如不可能,则在其包装或随附文件上注明。
4. 进口商应确保,当高风险AI系统由其负责,在适用的情况下,储存或运输条件不会危及其符合本标题第二章规定的要求。
5. 应合理要求,进口商应向国家主管当局提供所有必要的信息和文件,以证明高风险AI系统符合本标题第2章规定的要求,所用语言应为国家主管当局易于理解,包括查阅由高风险AI系统自动生成的日志,只要这些日志在提供商根据与用户的合同安排或其他法律的控制下。进口商还应就国家主管当局就该系统采取的任何行动与当局合作。
27
经销商的义务
1. 在高风险AI系统上市之前,经销商应验证高风险AI系统具有要求的CE符合性标志,并附有所需的文件和使用说明,以及系统的供应商和进口商(如适用),是否遵守本规例所订明的义务。
2. 经销商认为或有理由认为一个高风险AI系统不符合本标题下第二章的要求,其不得让高风险的AI系统在市场上可用,直到系统已经符合这些要求。此外,如果系统在第65(1)条的含义范围内存在风险,则经销商应将该系统的相关信息告知供应商或进口商。
3. 经销商应确保,若其负责高风险AI系统,在适用情况下,存储或运输条件不会危及该系统与本标题第2章规定的要求的符合性
4. 经销商认为或有理由认为一个已在市场适用的高风险AI系统,不符合本标题第二章项下的要求,应当采取必要的纠正措施使系统符合这些要求,撤回或召回,或应确保供应商、进口商或任何相关经营者酌情采取纠正措施。当高风险的AI系统展现出了一种规定在第65(1)中的风险,经销商应立即通知使产品生效成员国的国家主管当局,提供细节,特别是不合规处及任何纠正措施。
5. 根据国家主管部门的合理要求,高风险AI系统的发行人应向该机构提供证明高风险系统符合本标题第2章所要求的所有必要信息和文件。经销商还应还应就国家主管当局就该系统采取的任何行动与当局合作。
28
经销商、进口商、用户或任何其他第三方的义务
1. 就本条例而言,任何经销商,进口商,用户或其他第三方均应被视为提供者,并应在下列任何一种情况下,遵守第16条规定的提供者的义务:
(a) 他们以其名称或商标将高风险AI系统投放市场或投入使用;
(b) 他们修改了已经投放市场或投入使用的高风险AI系统的预期目的;
(c) 他们对高风险的AI系统进行了实质性的修改。
2. 如果发生第1款第(b)或(c)项所述情况,最初将高风险AI系统投放市场或投入使用的提供者,出于本条例的目的不再被视为提供者。

29
高风险AI系统用户的义务
1. 高风险AI系统的用户应根据系统附带的使用说明(根据第2和第5款)使用此类系统。
2. 1款中的义务不影响欧盟或国家法律规定的其他用户义务,也不影响用户自行组织其资源和活动以实施提供者指示的人为监督措施的自由裁量权。
3. 不影响第1款的前提下,在用户对输入数据进行控制的范围内,该用户应确保输入数据是与高风险AI系统的预期目的相关的。
4. 用户应根据使用说明监视高风险AI系统的运行。当他们有理由认为按照使用说明进行使用可能导致AI系统存在第65条第(1)款所指的风险时,他们应通知提供商或经销商并中止使用该系统。当用户发现任何严重事件或第六十二条所指的任何故障并中断AI系统的使用时,他们也应通知提供商或经销商。如果用户无法联系提供者,则应比照适用第62条。对于受指令2013/36/EU规范的信贷机构的用户,根据该指令第74条的规定,通过遵守内部治理安排、流程和机制的规则,第一款规定的监督义务应被视为已履行。
5. 高风险AI系统的用户应保留该高风险AI系统自动生成的日志,只要这些日志受其控制。根据高风险AI系统的预期目的以及欧盟或国家法律规定的适用法律义务,应将日志保存适当的时间。作为受指令2013/36 / EU监管的信贷机构的用户,应根据该指令第74条的规定保存日志,作为有关内部治理安排,流程和机制的文件的一部分。
6. 高风险AI系统的用户,在适用的情况下,应使用第13条提供的信息来履行其根据条例(EU2016/67935条或指令(EU2016/68027条进行数据保护影响评估的义务。
4
通知当局和受通知机构
30
通知当局
1. 每个成员国均应指定或建立通知当局,负责建立和执行必要的程序,以进行合格性评估机构的评估,指定和通知以及对其进行监督。
2. 成员国可以指定(EC765/2008号条例所指的国家认可机构为通知当局。
3. 通知当局的建立,组织和运行应与合格评定机构不发生利益冲突,并应确保其活动的客观性和公正性。
4. 通知当局的组织方式应使与合格评定机构通知有关的决定由不同于对这些机构进行评定的主管人员作出。
5. 通报机构不得提供合格评定机构从事的任何活动或任何商业或竞争性的咨询服务。
6. 通知机构应保护所获得信息的机密性。
7. 通知当局应配备足够的工作人员,以适当地执行其任务。
8. 通报当局应确保以相称的方式进行合格评定,避免给供应商造成不必要的负担,并确保受通知机构在开展活动时适当考虑企业规模、业务所在的行业、其结构和AI系统的复杂程度。
31
合格评定机构通知申请
1. 合格评定机构应向其成立的成员国的通知机构提交通知申请。
2. 通知申请应附有合格评定机构声称具有能力的合格评定活动、合格评定模块和AI技术的说明,以及由国家认可机构发出的、证明合格评定机构符合第33条规定的要求的合格评定证书(如有)。应增加与任何其他欧盟统一法规所规定的申请人指定机构的现有指定有关的有效文件。
3. 如果合规评定机构不能提供认可证书,则应向通知当局提供必要的书面证据,以验证,确认和定期监测其是否符合第33条的要求。对于任何根据其他协调法规欧盟指定的指定机构,与该指定相关的所有文件证书均可酌情用于支持其在本法规下的指定程序。

32
通知程序
1. 通知当局只能通知已满足第33条规定的合规评定机构。
2. 通知当局应使用委员会开发、管理的电子通讯工具通知委员会和其他成员国。
3. 该通知应包括合规评定活动,合规评定模块与有关人工智能技术的完整详细信息。
4. 只有在委员会或其他成员国通知后的一个月内未提出异议的情况下,有关合规评定机构才能执行指定机构的活动。
5. 通知当局应将通知的任何后续相关变更通知给委员会和其他成员国。
33
指定机构
1. 指定机构应按照第43条规定的合规评定程序对高风险AI系统的合规性进行验证。
2. 指定机构应满足完成其任务所必需的组织,质量管理,资源和程序要求。
3. 指定机构的组织结构,职责分配,报告机构和运作应确保对其实施的合规评定活动的绩效和结果充满信心。
4. 指定机构应独立于进行合规评估活动的高风险AI系统的提供者、与该系统具有经济利益的任何其他运营商,以及提供者的任何竞争对手。
5. 指定机构的组织和运作应保证其活动的独立性,客观性和公正性。指定机构应形成文件并执行结构和程序,以保证公正性,并在其整个组织,人员和评估活动中促进和应用公正性原则。
6. 指定机构应有成文的程序,以确保其人员,委员会,子公司,分包商和任何相关机构或外部机构的人员对进行合规评定活动时知悉的信息保密,但法律要求披露的除外。指定机构的工作人员必须对依据本规章执行任务时所获得的所有信息专业保密,但与成员国的通知当局进行其活动有关的除外。
7. 指定机构应制定执行活动的程序,并适当考虑到企业的规模,其经营的部门,结构,所涉AI系统的复杂程度。
8. 指定机构应为其合规评定活动购买适当的责任保险,但是依据国内法应由有关成员国承担责任或者成员国直接对合规评定负责的除外。
9. 指定机构应能够以最高的职业操守和特定领域的必要能力来执行本法规规定的应由其实施的所有任务,无论这些任务是由指定机构本身执行,还是由其代表或在其责任下执行。
10. 指定机构应具有足够的能力,以便能够有效地评估外部机构代表其执行的任务。为此,对于任何合规评定程序以及与之相关的每种类型的高风险AI系统,指定机构应始终有足够的行政、技术和科学人员,他们应该具有相关AI技术、数据和数据计算、本法规第二章规定的条件相关的经验和知识。
11. 指定机构应参加第38条所述的协调活动。它们还应直接或被代表参加欧洲标准化组织,或确保它们了解相关标准的最新动态。
12. 指定机构应提供所有相关文件,并应要求将所有相关文件(包括提供者的文件)提交给第30条规定的通知机构,以使其能够进行评估,指定,通知,监督活动,并促进本章概述的评估。
34
指定机构的附属机构和分包机构
1. 指定机构分包与合规评定有关的特定任务或求助于附属机构时,应确保附属机构或分包机构符合第33条规定的要求,并相应地告知通知机构。
2. 无论建立在何处,指定机构均应对附属机构或分包机构执行的任务承担全部责任。
3. 仅在提供者同意的情况下,任务可以分包或由附属机构进行。
4. 指定机构应将有关附属机构或分包机构的资格评估及其根据本规章开展工作的有关文件交由通知机构处理。
35
本法规指定的指定机构的标识号和清单
1. 委员会应为指定机构分配一个标识号。即使在根据若干欧盟法案通知了机构的情况下,也应分配一个号码。
2. 委员会应公开提供根据本规章通知的机构的清单,包括已分配给它们的标识号和已通知的活动。委员会应保持更新该清单。
36
通知变更
1. 通知机构怀疑或被告知指定机构不再符合第33条规定的要求,或未能履行其义务时,应立即尽最大努力调查此事。在这种情况下,它应将提出的反对意见通知有关的指定机构,并使其有机会发表意见。如果通知当局得出结论,指定机构的调查不再满足第33条的要求或未能履行其义务,则应视情况的严重性,酌情限制,中止或撤回通知。它还应立即通知委员会和其他成员国。
2. 在限制,中止或撤回通知时,或在指定机构停止其活动的情况下,通知当局应采取适当措施,以确保该指定机构的档案被另一指定机构接管或应负责的通知当局请求供他们使用。
37
对指定机构能力的挑战
1. 在必要时,委员会应对有理由怀疑指定机构是否符合第33条规定条件的案子,进行调查。
2. 应请求,通知机构应向委员会提供与有关指定机构的通知相关的所有信息。
3. 委员会应确保对根据本条进行调查期间获得的所有机密信息进行保密。
4. 如果委员会确定指定机构不符合或不再符合第33条的要求,则应通过合理的决定,要求通知成员国采取必要的纠正措施,包括在必要时撤回通知。该实施法案应根据第74条第2款所述的审查程序通过。
38
指定机构的协调
1. 委员会应确保就本法规所涵盖的领域,按照本法规开展AI系统合规评定程序的活跃的指定机构之间进行适当的协调与合作,并以指定机构部门小组的形式进行适当的运作。
2. 成员国应确保其指定机构直接或通过指定代表参加该小组的工作。
39
第三国合规评定机构
根据与欧盟达成协议的第三国法律建立的合规评定机构,可以被授权从事根据本法规进行的指定机构的活动。

来源:数字经济与社会
链接:https://mp.weixin.qq.com/s/7Twi98_h_7D-5Ajd3COkkw


编辑:王奕
484#
 楼主| 发表于 2021-6-17 18:07:45 | 只看该作者
【案例】

纠正算法的偏见,究竟是要与机器斗还是与人斗?

Joy Buolamwini是一位加纳裔科学家。一次,在做一项涉及面部识别软件的作业时,她发现,算法无法识别她的脸——除非她戴上白色面具。
这是Netflix最近上线的纪录片《编码偏见》中的一幕。此外,这部关于算法偏见的纪录片还呈现了广告、招聘、金融服务、警务和其他许多领域中,算法对社会现有种族、阶级和性别偏见不同程度的延续。
受此启发,Joy Buolamwini测试了许多面部识别商用软件发现,白人男性性别被正确识别的概率高达99%。随着肤色变暗,错误率也呈指数增长,近35%黑人女性无法被正确识别。
2020年,在国内,《外卖骑手,困在系统里》一文引发广泛讨论,焦点指向外卖平台的算法系统。技术的进步改善了生活的方方面面,但问题也逐渐浮现,人们不再相信算法决策是完全公平的。在逐渐被AI等智能技术包围的时代,算法偏见(algorithm bias)逐渐成为重要的信息伦理问题,乃至社会议题。
本期全媒派(IDquanmeipai)将从典型的算法偏见表现说起,分析偏见如何通过算法呈现到现实生活,再从现实出发,介绍科技公司在技术和操纵者层面,对纠正算法偏见可以做的努力。
随处可见的算法偏见
去年,杜克大学科学家发表能够将模糊照片清晰化的算法PULSE。不过,美国前总统奥巴马的模糊照片经处理后,生成的却是一张清晰的白人面孔。
图片来源:Twitter/ @Chicken3gg
这被视为算法偏见的典型案例。算法偏见,是在信息的生产、分发及核查的过程中对用户造成的非中立立场影响,从而导致片面、失实等信息观念的传播。现实生活中,算法偏见可能发生在每个人身上。
清华大学新闻与传播学院智媒研究中心在《算法治理与发展:以人为本,科技向善》报告中,从领域和对象出发,将算法偏见的表现分为有损群体包容性的偏见、有损群体公平性的偏见及有损个体利益的偏见。[1]

有损包容性
针对算法偏见的讨论,多数与种族、性别等指向不同群体的因素相关。这类偏见展现的,是算法对不同群体的包容度不足——不同肤色、特定环境下的弱势群体或女性,容易成为被算法忽视的对象。
开头Joy Buolamwini的例子,就是这类偏见的一种表现。有感于此,Joy发起了一项研究,收集来自非洲和欧洲共6个国家的1270张人脸照片,测试了IBM、微软、旷视3家公司的人脸识别产品,结果显示都存在不同程度的女性和深色人种歧视
类似的事情时有发生。2015年,Google Photos曾经把两个深肤色的人标记为大猩猩到了2018年,《连线》杂志对相册中4万多张动物图片测试后发现,谷歌没有完全修复这个漏洞,只是不再将任何图片标记为大猩猩。疫情期间,谷歌旗下服务Google Vision Cloud曾经将手持测温计的深肤色人员图像标记为,而相同条件下的浅肤色人员图像,则被标记为电子设备
去年,有用户指出,Twitter的图像裁剪算法存在种族和性别偏见。当用户在查看预览推文呈现的缩略图区域时,如果一张照片上有不同肤色人种,算法会更突出浅肤色的人像区域。
图像识别之外,频繁、深度使用语音识别、文字识别技术的科技公司,也常在这上面失误2015年的一个调查发现,谷歌助手、苹果Siri和亚马逊的Alexa对美国口音、印度口音和中国口音的英语识别准确率并不一致。

预测、决策不公
除了种族、性别和年龄等人类属性方面的偏见,算法也在消费、就业和犯罪风险检测等应用场景方面表现出偏见。[2]这种偏见最直接的影响,就是可能导致预测、决策的不公,造成对群体公平性的损害。
最常见的一类是招聘偏见。路透社曾在2018年报道,亚马逊设计的AI招聘算法中暗含对女性求职者的偏见。当读取到带有“women”的相关词,算法会降低简历的权重。比如,当简历中出现女子象棋俱乐部队长女子学院这样的词,算法会直接对求职者作降级处理。亚马逊最终关闭了这个招聘算法。
而当算法被用于招聘面试,分析应聘者肢体语言、眼神活动等更细致的维度时,面试过程中的一举一动,都不得不谨小慎微。这些工具可以帮助企业提高效率、节省开支,但也偶有偏见。被高盛、联合利华等企业普遍采用的AI面试工具HireVue,可能会分不清皱眉是因为在思考问题,还是情绪不佳(暗示性格易怒)。[3]
图片来源:视觉中国
犯罪领域中人脸识别算法的偏见也常导致不公。2016年,新闻机构ProPublica调查了美国各州政府用来评估被告人再犯罪风险的COMPAS算法,发现黑人假释候选人更容易被评为高风险。在美国,不止一次出现黑人或少数族裔因为算法原因被错误逮捕的事情。
除了司法、就业,当下生活中,算法参与决策的领域还包括金融、医疗、消费等,算法偏见的范围或许也比想象中广。

威胁个体利益
包容性的降低和公平性的损耗,必然影响个体利益。
例如,谷歌的PageRank的算法能评价网络链接的重要性,对网页进行排序。在Google Shopping里,谷歌曾暗暗将自己的商品置于网页排序中的显眼位置。[4]这影响了用户的消费选择。
在日常生活中,可能不少人都有过这样的体验:在一些网络平台消费的时候,同时同地同样的消费,其他人的费用可能比自己低。通过记录分析消费者的消费痕迹,来对不同消费者差别定价,这种算法杀熟也可以被视作一种算法偏见。

纠正算法偏见,科技公司怎么做?
当算法偏见越来越成为无法回避的技术、伦理和社会问题时,纠正偏见也就成为解决问题的重点。作为规则设计者、制定者和参与者的科技公司,也不得不主动做出回应。
纠正偏见,先要知道偏见为何发生。人工智能专家、AI公司Another Brain首席执行官Bruno指出:人工智能算法存在三种主要的偏差来源:训练数据集,让算法学习我们想要的东西,以及AI算法本身的原理。也就是说,算法的偏见来源于数据的纰漏、设计者的偏见,以及人机交互或算法本身的不足。
目前来看,科技公司纠正算法偏见,主要也是从算法的数据技术层面以及算法操纵者的偏见等方向来行动。
算法技术层面
近几年,不少公司都发布了用来检查算法偏差的工具。20185月,Facebook推出Fairness Flow,当算法根据一个人的种族、性别或年龄做出了不公的判断,它会自动发出警告来提醒。之后,谷歌在其开源网页中推出了工具What-If,帮助开发者检测算法公平性。[5] 也在同年,IBM推出AI Fairness 360开源工具包,提供超30个公平性指标、9个偏差缓解算法,用于检查在信用评分、预测医疗支出和面部图像性别分类等不同场景中的算法偏见,还会推荐改进的方法,比如算法调整或数据平衡。去年8月,微软旗下的领英推出公平工具包(LiFT),可以对数据集的属性(如种族和性别构成)做分析,并将结果与算法结果来比较,进而检测公平性。
图片来源:视觉中国


如果数据集本身有偏见,那显然,用数据集训练出的算法也很难客观。因此,不少举措也关注数据的修订和扩展。2018年,微软与专家合作修订、扩展了用于训练其面部识别算法Face API的数据集。在调整肤色、性别和年龄等在数据集中的占比并改进了分类器之后,算法在肤色较深的男性、女性间的识别错误率降低了20倍,女性识别误差率降低了9倍。
同样旨在提供检测、帮助改善数据,Facebook在今年4月也有新动向——公开名为Casual Conversations的数据集帮助研究人员评估潜在算法偏差。这个数据集的特别之处在于,让人们自己提供年龄和性别来标注,而不是由第三方或计算机系统估计。
Facebook还为数据集招募了训练有素的注释员,来确定参与者的皮肤类型。数据集还标记了视频的环境光照条件,帮助系统测量低光照条件下的肤色。
前不久,Twitter也宣布了一项负责任的机器学习新计划,研究平台采用算法的公平性。内容之一,就是由来自公司内部的数据科学家和工程师,研究Twitter对机器学习的使用如何导致算法偏差,并评估其算法可能造成的无意伤害,再将研究结果公开。
Twitter首席执行官Jack Dorsey曾表示,希望创建一个算法市场,类似应用商店形式,让用户能够控制自己使用的算法。
算法操纵者层面
对于算法偏见,常见的一种看法是,AI决策依赖于对人类决策的学习,因此,机器偏见其实是对社会传统偏见的投射。所以,除了技术层面改善数据集、打标等机器学习的环节外,更需要针对算法背后的人,以及公司的偏见做出限制。在这方面,除了外部的限制和规范,科技公司自己也有行动。
目前,不少大型科技公司都发布了人工智能的应用原则,其中都有涉及偏见治理的部分。2016年,微软、谷歌和Facebook等联合成立非营利人工智能合作组织Partnership on AI2017年,微软设立人工智能与道德标准委员(AETHER)来落实AI伦理问题,称未来推出的每个人工智能产品都要经过道德伦理审查。
也有委员会、联合组织之外的措施。比如,谷歌推出Model Cards功能,对采用的算法进行解释,告知具体的优点和局限性。
Face Detection算法的部分解释。图片来源:Model Cards主页公开信息
2020年,乔治·弗洛伊德之死在美掀起以“BLMBlack Lives Matter为口号的反种族歧视运动的同时,针对科技公司算法偏见中种族歧视的声讨也愈发激烈。根据《华尔街日报》报道,FacebookInstagram都为此组建了相应的公平与包容团队,负责调查美国黑人、西班牙裔和其他少数族裔用户受公司算法的影响,并将其与对白人用户的影响进行对比。
同样在6月,IBM宣布不再向警方提供人脸识别技术,原因是反对将技术用于种族歧视和大规模监视,亚马逊和微软相继发表类似声明。长远来看,这是科技公司在技术和偏见之间需要做出衡量、承担社会责任的缩影。
还有一种意见是,为了克服可能的偏见,企业需要更多样化的AI人才。如若程序员、工程师的构成本身就不多样,甚至有性别、种族偏见,这些偏见也很容易被传递到其开发的算法中。
不过,科技公司的算法纠偏路也不是一帆风顺。大多时候,科技公司主动做出行动,是出于改善业务、维护企业形象、承担社会责任的考量,也是一种在公众、政府和其他组织监督下的权衡选择。若纠偏会严重损害企业利益,企业是否要做、怎么做,就未可知了。
归根结底,当我们在说算法偏见的时候,依然要考虑那个核心问题——算法背后是人,算法偏见背后是人的偏见。正如开头案例中的MIT研究员Joy所说,人工智能是基于数据的,而数据是我们历史的反映。在批评算法的过程中,科技公司或许不该被安放在绝对的对立面,至少,它们的举措也是纠正算法偏见、抵达公正的一部分。
回到真实社会,许多偏见仍然根深蒂固,但这并不意味着袖手旁观。在能力之内让数字世界朝向更公平、更能依靠的方向发展,对于社会、个体,以及有重要影响力的公司来说,都是责任。

来源:全媒派
链接:https://mp.weixin.qq.com/s/poIOoQWKjTYPJXDwCBNniw


编辑:王奕
485#
 楼主| 发表于 2021-6-18 22:31:25 | 只看该作者
【案例】
追溯记忆留下的印痕,就能编辑记忆了吗?
关键句/ KEYPOINTS
○ 科学家在过往研究的基础上,首次在细胞集合的水平找到了记忆印记的因果证据:通过杀死杏仁核内一组特定的细胞,他们成功抹去了小鼠脑海中特定的记忆,由此证实了记忆印记细胞确实是大脑中对过往经验表征留下的物理痕迹。
○ 现如今,研究人员正在探索通过调节记忆印记细胞重新编辑记忆,他们使用光遗传学技术来刺激小鼠的记忆印记细胞,为它们“植入”人工记忆。
○ 随着技术的不断革新,成熟的调节记忆印记技术或许能在未来成为神经退行性疾病患者的福音。
在上个世纪初,德国演化生物学家里夏德·西蒙(Richard Semon)提出了记忆印记(engram)的概念。他认为人们的特定经历能够激活特定群体的大脑细胞,使它们产生持续性的化学/物理改变。
在里夏德默默无闻的一生中,记忆印记的概念在科学界不为人知。而即使记忆印记在他去世后成为了心理学界的热门话题之一,在随后的一个世纪里,无数科学家也只是在找寻记忆印记的道路上迷失了方向。
近年来,随着新技术的出现,我们终于能“看见”记忆的足迹。通过操纵记忆印记,神经科学家们还初步实现了记忆的植入与擦除。
记忆印记
早在古希腊时期,亚里士多德便在《论灵魂》(De Anima)中写道,人们的经历能留下痕迹,就像“人们用图章戒指(在蜡油中)盖印一样[1]。”是否真如亚里士多德所说,人们的感受所形成的记忆会在大脑中留下物理痕迹呢?
首个提出记忆印记的是德国演化生物学家里夏德·西蒙。在他的《记忆》(Mneme)一书中[2],西蒙将记忆印记定义为“一种由刺激带来的持续的、不可逆的潜在改变。”他认为,外界刺激能对神经系统造成持续性的改变,因此,系统才能保持记忆,对某个在久远过去经历的刺激做出同样的反应。西蒙的洞见远超前于他的时代,这或许也是他一生默默无闻的原因。尽管他的理论成功预测了一个世纪后的发现,西蒙明智地放弃了寻找记忆印记的任务。他认为:“以我们目前所掌握的知识而言,将这样一个问题推至分子领域,成功的希望十分渺茫,因此,我放弃这项任务[3]。”
许多年后,神经心理学家卡尔·拉什利(Karl Lashley)通过系统性实验探索了哺乳动物大脑中的记忆印记细胞。在他的经典实验中,拉什利训练小鼠在迷宫中进行数日的学习,记住能找到奖赏的路线。随后,他移除小鼠的部分大脑皮层,再次测试小鼠是否还能记住此前学到的路线。通过数次实验,拉什利发现,尽管移除皮层的大小与小鼠再次测试的成绩具有一定的相关性,他还是无法精确找到对小鼠记忆造成决定性影响的皮层位置[4]。在寻找记忆印记的道路上,命运没有垂怜这位神经学家。经过长达30年无果的寻找后,拉什利放弃了这个研究方向。
与拉什利相比,他的学生或许更加靠近记忆印记的本质。唐纳德·赫布(Donald Hebb)于1949年提出了赫布定律,认为经常同时放电的神经元会互相联合,形成细胞群。这种称为可塑性(plasticity)的现象兼顾了记忆所需的稳固性(stability,即记忆不能在形成后随意变动)和灵活性(flexibility,即在特殊情况下,记忆也需要允许改变)。但这种“经常同时放电,其间连结增强”的神经模式在后来的30年间都未能被验证,其潜在机制也因此不为人知。
1973年,蒂莫西·布利斯(Timothy Bliss)和泰耶·洛莫(Terje Lømo)发表了历史上第一篇有关长时程增强作用(LTP)的论文。布利斯与洛莫将电极插入至兔子的海马体中,利用高频刺激,试图模拟赫布提出的神经模式。在对突触前神经元进行高频刺激后,他们惊喜地发现,突触后神经元对突触前神经元发送的信号有了更大的回应,也就是说,它们之间的“沟通”变得更有效了。LTP的发现表明,神经元之间的连接受它们的活动规律调控。这样的细胞机制既满足了稳固性,也满足了灵活性,因此至今仍受到记忆领域的广泛关注。而记忆印记的相关研究,也将在几十年后从中脱壳而出。
图中发出绿色荧光的细胞表明,它们是在小鼠的大脑存储恐怖记忆时激活的。
Stephanie Grella and the Ramirez Group at Boston University
寻找记忆印记细胞
在一个世纪以前,西蒙将找寻记忆印记细胞的任务评价为“成功希望渺茫的重任”。但在近几年,新技术的出现却为我们带来了新的可能性。
2007年,梅福德实验室(Mayford Laboratory)率先在转基因小鼠的大脑中找到了证据[5]。这些转基因小鼠的神经元激活时,能产生一种荧光蛋白。通过检测这些荧光蛋白,研究者能够定位这些激活过的神经元。实验中,研究者在播放无害的声音刺激(条件刺激)同时对小鼠足部施加轻微电击(非条件刺激),经过数次重复训练后,小鼠习得条件反射,在听到无害声音刺激后也会因恐惧而产生僵硬反应。该团队经过对比发现,训练中的小鼠与三天后再次听见声音刺激时的小鼠,大脑中激活的神经元具有重复性。随后的一系列研究也支持了这个结论。
但是,要想证明记忆印记细胞确实是大脑中对过往经验表征留下的物理痕迹,我们还需要更加切实的证据。尽管由于缺乏精确的细胞定位技术,拉什利在长达三十年的研究中没能找到实证,但他的思路为后人带来了启发——如果记忆印记细胞中确实编码了记忆,那么抑制记忆印记细胞的活动,个体的记忆表现也应当受到影响。

非印记细胞旁的印记细胞(用红色荧光标记)。
ADAPTED FROM T. J. RYAN ET AL., SCIENCE 348, 1007 (2015).
在博士后研究期间,希娜·A.乔斯林(Sheena A. Josselyn)曾通过调节小鼠大脑神经元显著改变了小鼠长时记忆的表现。她认为自己可能无意间完成了拉什利的任务,而其后经过近十年的努力,她终于得出了记忆印记细胞存在的证明。2009年,乔斯林的研究团队首次在细胞集合的水平找到了记忆印记的因果证据:通过杀死杏仁核内一组特定的细胞,他们成功抹去了小鼠脑海中特定的记忆[6]
此前研究中,乔斯林证明了,在小鼠外侧杏仁核(lateral amygdala)中CREB蛋白水平过高的神经元可能与惊恐记忆有关。而在新实验中,他们训练小鼠对声音刺激习得惊恐反应,随后,他们使用一种能够精确定位过度表达CREB蛋白神经元(即记忆印记细胞)的病毒,将小鼠杏仁核中这部分神经元杀死。乔斯林发现,失去了记忆印记细胞的小鼠也随之失去了对惊恐经历的记忆。
乔斯林的成功掀起了一阵记忆研究的热潮,研究者们纷纷应用起这些能够精确操控记忆印记细胞的工具。如果说人工抹去特定的记忆为记忆印记的存在给出了更加切实的证据,随后的一系列研究为我们展示了,记忆印记细胞的发现为科学打开了无限的可能性。
通过调节记忆印记细胞改变记忆?
2012年,来自麻省理工学院利根川进(Susumu Tonegawa)实验室的研究者们通过光遗传学技术首次证明了,照射特定神经元能够激活相应的记忆活动。通过这种方式,研究者们还篡改了小鼠的记忆联结,给它们植入了新的记忆。

早期阿尔茨海默病小鼠模型的海马齿状回的冠状切片,在光遗传技术的结合下,情境性恐惧记忆下的记忆印迹细胞(绿色)被光敏蛋白ChR2标记。
Dheeraj Roy
在这项研究中[7],研究者们针对的是小鼠大脑中另一与记忆相关的脑区:海马体。通过光遗传学技术,研究者们培养出了能够转录光敏感通道蛋白的转基因小鼠,其后对转基因小鼠施加轻微电击,小鼠因电击产生惊恐情绪,作出僵直反应。这种刺激使转基因小鼠大脑内与恐惧相关的神经元表达光敏离子通道。随后,研究者只需通过蓝光照射小鼠的海马,就能激活这些编码光敏蛋白的神经元,使它们回忆起惊恐的记忆。即便在没有经历过电击的新环境中,照射蓝光也能使小鼠感到恐惧,产生僵直反应。
在随后的另一项发表于《科学》的研究中[8],研究者们通过刺激小鼠的记忆印记细胞,为它们“植入”了人工记忆。研究小鼠首先被放置于A笼中。在小鼠探寻笼子时,研究者们记录下了小鼠大脑中激活的神经元。随后,研究者将小鼠转移至B笼并给其施与电刺激,小鼠因此表现出了恐惧反应。与此同时,研究者还激活小鼠在探索A笼时激活的神经元。激活这些记忆印记细胞,让小鼠误以为自己在笼A中遭受了点击,因此在回到安全的A笼后,小鼠仍旧表现出了恐惧反应,即便此时并没有遭到电击。
自西蒙提出记忆印迹的概念以来,技术的革新持续推动着研究者们对记忆的探索。近年来,科学家们逐渐将目光从啮齿动物转向了人类。通过精密的大脑成像以及数据分析技术,研究者们在人类大脑中找到了与记忆相关的神经表征[9]。未来,通过调节记忆印记,科学家们或许能够帮助饱受创伤后应激障碍(PTSD)或阿尔茨海默病(AD)困扰的患者。就如乔斯林所说:“我们正处于技术发展的黄金时代,有了新技术,我们有望为过去的问题提供新的答案[10]。”
参考文献
[1] 苗力田() (1992). 亚里士多德(第三卷) (p. 135). 北京: 中国人民大学出版社.
[2] Semon, R. W. (1921). The mneme. G. Allen & Unwin Limited.
[3] Semon, R. W., Duffy, B., & Lee, V. (2018). Revival: Mnemic Psychology (1923). Routledge.
[4] Lashley, K. S. (1950). In search of the engram. In Society for Experimental Biology, Physiological mechanisms in animal behavior. (Society's Symposium IV.) (p. 454482). Academic Press.
[5] Reijmers, L. G., Perkins, B. L., Matsuo, N., & Mayford, M. (2007). Localization of a Stable Neural Correlate of Associative Memory. Science, 317(5842), 12301233. doi:10.1126/science.1143839
[6] Han, J. H., Kushner, S. A., Yiu, A. P., Hsiang, H. L. L., Buch, T., Waisman, A., ... & Josselyn, S. A. (2009). Selective erasure of a fear memory. Science, 323(5920), 1492-1496.
[7] Liu, X., Ramirez, S., Pang, P. T., Puryear, C. B., Govindarajan, A., Deisseroth, K., & Tonegawa, S. (2012). Optogenetic stimulation of a hippocampal engram activates fear memory recall. Nature. doi:10.1038/nature11028
[8] Ramirez, S., Liu, X., Lin, P. A., Suh, J., Pignatelli, M., Redondo, R. L., ... & Tonegawa, S. (2013). Creating a false memory in the hippocampus. Science, 341(6144), 387-391.
[9] Chen, J., Leong, Y. C., Honey, C. J., Yong, C. H., Norman, K. A., & Hasson, U. (2017). Shared memories reveal shared structure in neural activity across individuals. Nature neuroscience, 20(1), 115-125.
Josselyn, S. A., Köhler, S., & Frankland, P. W. (2017). Heroes of the engram. Journal of Neuroscience, 37(18), 4647-4657.
Marco, A., Meharena, H. S., Dileep, V., Raju, R. M., Davila-Velderrain, J., Zhang, A. L., ... & Tsai, L. H. (2020). Mapping the epigenomic and transcriptomic interplay during memory formation and recall in the hippocampal engram ensemble. Nature Neuroscience, 23(12), 1606-1617.
McCormick, D. A., & Thompson, R. F. (1984). Cerebellum: essential involvement in the classically conditioned eyelid response. Science, 223(4633), 296-299.
Suzuki, A., Josselyn, S. A., Frankland, P. W., Masushige, S., Silva, A. J., & Kida, S. (2004). Memory reconsolidation and extinction have distinct temporal and biochemical signatures. Journal of Neuroscience, 24(20), 4787-4795.
Josselyn, S. A., Köhler, S., & Frankland, P. W. (2015). Finding the engram. Nature Reviews Neuroscience, 16(9), 521534. doi:10.1038/nrn4000
作者:阿莫東森,山鸡 | 封面:Jordan Moss
编辑:JiahuiEY | 排版:光影
原文转载自nextquestion
https://mp.weixin.qq.com/s/DcTwntTJzDF7BwnCKcX9vw
来源:神经现实  
链接:https://mp.weixin.qq.com/s/sdNAJmm6ZNa7hYmemp8MQA
编辑:马皖雪
486#
 楼主| 发表于 2021-6-18 23:25:06 | 只看该作者
【案例】
社计联盟 | 如何对抗算法偏见?
编者荐语:
互联网时代已经到来,可之前预言的互联网会让偏见与隔阂被打破、让世界变得更平等却并未实现。取而代之的是,在互联网与人工智能加速发展的今天,偏激的观点、群体间的隔阂在网络力量的助推下势头不减。这究竟是为什么?本文便给予解答并进一步给予解决方案。
近年来,物理学家们越来越多地开发人工智能(AI)和机器学习(ML)技术,以增进我们对物理世界的理解。不过,人们也越来越担心这些系统中的偏见及其对整个社会的广泛影响。
Physics World 的这篇文章,探讨了人工智能中的种族和性别偏见问题,以及物理学家们可以如何认识和解决这些问题。
作者|Juliana Photopoulos
翻译|王雨丹
校译|于茗骞
2011年,在佐治亚理工学院攻读本科学位时,加纳裔美国计算机科学家乔伊·布奥兰维尼(Joy Buolamwini)发现,机器人无法陪她玩一把简单的躲猫猫游戏——因为机器无法识别她黑色的脸庞。2015年,麻省理工学院媒体实验室的硕士研究生布奥兰维尼参加了一个名为 “Aspire Mirror” 的科学艺术项目,在处理面部分析软件时也遇到了类似的问题:只有当她戴上白色面罩时,软件才能检测到她的脸。
这两件事只是巧合吗?
好奇心驱使布奥兰维尼去探索这其中的奥秘。她将自己的照片上传到四个不同的面部识别系统中,但结果都不如人意:要么根本识别不出是一张人脸,要么就是性别不对。她把系统的这种偏见称为 “编码凝视”(coded gaze)。随后,她决定对来自3个非洲国家和3个欧洲国家的1270名政客进行面部测试,他们有着不同的面部特征、肤色和性别。这一测试成为了她的硕士论文项目:“性别阴影:商用性别分析中的交叉精度差异”(Gender Shades: Intersectional accuracy disparities in commercial gender classification)(图1)。布奥兰维尼发现,由微软,IBMMegvii开发的三种商用面部识别技术,在识别面部深色皮肤的女性时都会出错,识错率约35%。而在白人男性身上,它们的识别结果几乎完美(99%[1]

1 精准度大比较 | 图源Joy Buolamwini
乔伊·布奥兰维尼(Joy Buolamwini)、蒂姆尼特·格布鲁(Timnit Gebru)、黛博拉·拉吉(Deborah Raji)及其同事致力于 “性别阴影” 项目(Gender Shades),以评估人工智能性别分类产品的准确性。这一项目研究了三家公司的商业产品,评估他们如何对来自非洲和欧洲国家的1270张人像进行分类。受试者按性别、肤色以及二者的交集进行分组。研究发现,尽管这些产品总体上具有较高的准确性,但不同组之间的错误率存在显著差异。所有公司的产品在面部识别上的精度,都是男性优于女性、浅肤色人群优于深肤色人群。其中,对深肤色女性的识别最差,三分之一以上的识别结果不及格。精度差异的一个关键因素,是机器在训练图像和基准数据集时缺乏多样性。
人们通常认为,机器能做出更明智、更好和更客观的决定,但这些现存的算法偏见,无疑消除了机器中立的概念,并且复制了社会现有的不平等现象。从黑人被误标记为大猩猩,到谷歌搜索 “黑人女孩” 或 “拉丁女孩” 弹出成人内容,再到医疗设备对肤色较深的人而言效果不佳…… 很明显,机器算法存在固有的歧视。
“这个不平等的社会充斥着种族主义和性别歧视,所以即使计算机编程人员心存善念,算法也会有偏见和歧视。” 来自纽约大学AI Now研究所的乔伊·利西·兰金(Joy Lisi Rankin)说道,她是人工智能中性别、种族和权力研究项目的负责人,其著作包括《美国人民计算史》( A Peoples History of Computing in the United States[2]。“它们只会反映和放大世界上更大的偏见。”
物理学家越来越多地将人工智能和机器学习应用到不同领域,从医学物理到材料学等等。虽然他们可能认为自己的研究只会应用于物理学,但他们的发现也可以转化到社会层面。
“作为粒子物理学家,我们的主要目标是开发工具和算法,以助我们找到超越标准模型的物理学。但不幸的是,我们没有停下来思考,没有料到这些工具和算法将如何在技术中得到广泛应用,并在社会中每天被用来进一步压迫边缘化的个体,”杰西卡·埃斯基维尔(Jessica Esquivel)说道,他是伊利诺伊州芝加哥费米国家加速器实验室(Fermilab)的物理学家和数据分析员,正致力于开发人工智能算法来增强Muon g-2实验中的束流存储和优化。
更重要的是,物理学中缺乏多样性的现状,不仅会影响到已完成的工作,也会影响正在被创建的系统。“性别和种族的失衡问题,无疑是纠正人工智能中一些更广泛的偏见问题的障碍。” 新泽西州普林斯顿大学的粒子物理和机器学习研究员萨凡纳·泰斯(Savannah Thais)表示。这就是为什么物理学家需要意识到他们现有的偏见,更重要的是,作为一个群体,他们需要扪心自问:自己到底应该做什么。
“智慧生命” 的诞生
机器可以成为智能生物,这一想法已经存在了几个世纪,古希腊和其他文明都有有关于机器人的神话。但直到第二次世界大战之后,科学家、数学家和哲学家们才开始真正讨论创造人工思维的可能性。
1950年,英国数学家阿兰·图灵(Alan Turing)提出了一个著名的问题:机器是否会思考?他提出用图灵测试(Turing Test)来测量机器的智力。六年后,在新罕布什尔州汉诺威市的人工智能达特茅斯夏季研究项目期间,人工智能的研究领域正式成立。基于人类思维过程可以在计算机程序中被定义和复制的想法,“人工智能”(artificial intelligence)一词由美国数学家约翰·麦卡锡(John McCarthy)首创,取代了以前使用的 “自动机研究”(automata studies)。
虽然上世纪五六十年代奠定了人工智能和机器学习的基础,但这一领域真正实现腾飞还是花了一段时间。“直到过去10年间,强大的计算能力、标记数据和高科技公司的财富才结合起来,使大规模的人工智能成为了可能。” 兰金表示。而且,正如1983年麻省理工学院《学术界平等的障碍:计算机科学领域的女性》报告所强调的那样 [3],尽管美国黑人和拉丁美裔妇女早在上世纪70年代就开始讨论计算机中的歧视和不平等问题,但直到近十年间,有关计算机系统中的偏见问题才得到了更广泛的讨论。


2 在计算机发展早期,计算机操作是一项主要由女性完成的低薪工作。随着这一领域声望渐高,白人男性逐渐占据了主导地位。图为1972年,一名美国政府的女性雇员正在使用NCR 796-201可视终端 | 图源:National Archives at College Park
实际上,自上世纪4060年代,女性已经成为了英美两国计算机行业的核心,正因如此,计算机领域对于女性的偏见才更令人惊讶。
“计算机过去是 ‘人’,而不是机器,而且这些‘人’大多都是女性。”兰金表示,“但当她们被淘汰且被白人男性取而代之时,这个领域便发生了变化。” 正如她说的那样:“计算机行业从女性化和不受重视变得声望日盛和更加男性化。”事实上,上世纪80年代中期,在美国获得计算机科学学位的所有毕业生中,将近40%是女性;但是到了2010年,这一比例已降至15%。
在科学、技术、工程、数学和医学领域,计算机科学和物理一样,从业者的性别差距都是最大的 [4]。尽管获得物理学学位的女性人数有所增加,但在美国授予的所有学位类型中,女性所占比例仅为20%,黑人的比例则更低。2017年,美国仅有3%的物理学本科学位授予了黑人学生。在英国也存在着类似的问题,2018年英国所有本科生中,女性占了57.5%,但在所有物理学本科生中,黑人女性只占了1.7%
这种性别和人种上的分布差异,对研究的构建、进行和实施都产生了严重的影响。兰金表示,构建算法技术时缺乏群体多样性,而新兴的技术又可能会伤害到妇女、有色人种、残疾人和LGBTQ群体,这二者之间形成了一个有害的反馈循环。一个现实的例子就是亚马逊的招聘算法,这一算法基于历史的招聘实践和申请人数据,会首先拒绝女性的工作申请。最后,亚马逊弃用了这一招聘算法,因为既往的招聘史将性别偏见深深刻进了他们的系统中,无法确保招聘公平。
机器算法偏见中的许多问题在《偏见系统》(Discriminating Systems)这份报告中得到了解决 [5]。《偏见系统》是AI Now研究所2019年的一份重要报告,报告表明,不应将群体多样性和人工智能的偏见问题分开来考虑,因为它们是 “同一问题的两个方面”。兰金补充说,职场性骚扰也与歧视和偏见有关,她指出,据美国国家科学院、工程院和医学院报告,科学领域中半数以上的女性教职员工都经历过某种形式的性骚扰。
泰斯表示,从多方来看,物理学中的多种声音是至关重要的。她目前正在为欧洲核子研究组织(CERN)的高光度大型强子对撞机开发基于机器学习的加速重建算法。“大部分物理研究人员没有与受到这些算法影响的其他种族、性别和群体的人群直接接触的经验。” 埃斯基维尔认为,正因如此,被边缘化的科学家个体需要参与到算法的开发中来,以确保他们不会被偏见所淹没。
美国斯坦福大学人工智能研究员普拉图莎·卡卢里(Pratyusha Kalluri)也这样认为。她参与创建了 “激进人工智能网络”(Radical AI Network),该网络提倡反压迫技术,并为那些被人工智能边缘化的人发声。卡卢里去年在Nature 上写道:“是时候把被边缘化和受算法影响的群体置于人工智能研究的中心了,他们的需求、知识和梦想应该指导技术的发展。” [6]
物理学家的角色
让我们回到费米实验室。布莱恩·诺德(Brian Nord)是一位宇宙学家,他利用人工智能来寻找宇宙起源和进化的线索。他解释说:“在多年的观测中,望远镜扫描天空,收集包括图像在内的大量复杂数据,而我则使用人工智能来分析这些数据,以了解导致时空扩张加速的暗能量。”
然而,2016年,他在阅读了 ProPublica 的一份调查报告后意识到:人工智能可能有害且会对黑人产生偏见 [7]。该报告分析了一个名为COMPAS的风险评估软件,该软件在美国法庭上用于预测哪些罪犯最有可能再次犯罪,以及决定保释条件。调查发现,不论是所犯罪行的严重程度还是再次犯罪的实际可能性,黑人被贴上高风险标签的可能性几乎是白人的两倍。对此,诺德表示:“我非常担心自己在开发算法时的‘共谋’行为,将来这些算法的应用可能会对我不利。” 作为黑人,他知道面部识别技术对他这样的人有偏见,经常错认黑人,且监管不严。
因此,虽然物理学家可能已经开发出某种人工智能技术来解决纯粹的科学问题,但在现实世界中,它的应用却超出了他们的控制范围——人工智能的使用者可能会动机不纯。“这更有可能使我的权利受到侵犯,剥夺我在群体、社会和生活各方面的权利,” 诺德说道。
对于这些问题,诺德决定不另起炉灶,而是建立一个由物理学家和计算机科学家组成的联盟,以便在开发算法时争取更多的审查。他指出,向美国执法机构和其他私人机构提供面部识别设备的Clearview AI等公司,正在搜集社交媒体数据,然后在未经用户明确同意的情况下向执法部门出售监控服务。他警告说,许多国家都在利用监视技术对民众进行广泛的压迫,“以数据为主导的技术剥夺了人们的权利,例如数据隐私问题、数据和科学如何被用来侵犯民权、技术如何维护白人至上和监视资本主义的历史等,物理学家应该致力于理解这些权力结构。”
为了让这个问题引起更广泛的关注,诺德、埃斯奎维尔和其他同事给粒子物理学界写了一封信。这也是 “雪团” 项目(Snowmass)的一部分,“雪团” 定期为美国和美国之外的粒子物理界的未来发展树立科学远景。他们在信中讨论了 “计算研究的伦理意义和科学家的角色”,强调了无论是作为个人、还是在各机构和基金会任职的物理学家们,都应该关心他们正在构建和实施的算法 [8]
泰斯还敦促物理学家们——这些有着深厚技术知识的公民们,积极参与到人工智能伦理的治理中来 [9]。她说:“让物理学家们意识到人工智能和机器学习方面的偏见问题非常重要,即使在机器学习的物理学研究应用中通常不会出现这种情况。” 泰斯解释说,这样做的原因之一是,许多物理学家离开原有领域,到计算机软件、硬件和数据科技公司工作。“许多这样的公司都在使用人工数据,因此我们必须让学生们提前具有责任意识。我们不能只教授技术技能,而忽视更广泛的社会背景,因为许多人最终将把这些方法应用到物理学之外。”
对此,泰斯和埃斯基维尔也都认为,物理学家在理解和管理人工智能方面扮演着重要的角色,因为他们往往必须使用产出更精确输出数据的方法,来解释和量化系统的不确定性,然后才能抵消数据中的固有偏差。泰斯说:“有了这种更加 ‘黑匣子’ 化的机器学习算法后,我们真的很想了解它的准确性,了解它在边界情况下是如何工作的,以及它为什么在某个特定的问题上表现最好。而这些都是物理学家们曾完成过的任务。”
另一位利用物理学来提高人工智能精准度和可靠性的研究人员,是帕耶尔·达斯(Payel Das),她是IBM托马斯·J·沃森研究中心的首席研究员。为了设计新的材料和抗生素,她和团队正在开发机器学习算法:将从数据和物理原理结合起来,从而使一项新科学发现的成功率提高百倍。达斯说:“我们经常借助已有的科学知识或其他形式的知识(例如基于物理学原理),来增强、指导或验证人工智能模型,以使其系统更耐用、高效、易于解释和可靠。” 她对此做了进一步解释,即“通过使用物理学驱动的学习,人们可以在准确性、可靠性和归纳偏差等方面对人工智能模型进行交叉检查。”
算法偏见的现实影响
算法决策工具可能是为科学研究而开发的,但被用于商业监视,在这种情况下,数据中任何微小的偏差都会产生现实后果。
1
2015年,一位黑人软件开发人员在推特上说,谷歌相册将他和朋友的照片标记为 “大猩猩”。而谷歌公司通过删除 “大猩猩” (gorillas)及其他表示灵长类动物的词来解决了这个问题。通过审查这些搜索,谷歌相册的识别照片服务再也找不出如 “大猩猩” “黑猩猩” 和 “猴子” 等灵长类动物。
2
在搜索 “黑人女孩” “拉丁女孩” 或 “亚洲女孩” 等词条时,谷歌广告门户网站会提供关联色情内容的关键词建议 [10]。搜索这些族裔的 “男孩” 也大多返回了与色情有关的建议,但搜索 “白人女孩” 或 “白人男孩” 时则未有建议词条出现。20206月,谷歌广告门户还在客体化黑人、拉丁裔和亚洲人,现已通过阻止这些词条的出现来解决该问题。
3
红外医疗技术(例如脉搏血氧仪),在深色皮肤上无法正常工作,因为其穿过皮肤的光线较少 [11]。这种情况会导致读数不准确,可能意味着患者无法获得所需的医疗护理。同样的红外线技术,在公共洗手间的皂液器上也被证明几乎不起作用。
审核算法
去年,数据伦理与创新中心(Centre for Data Ethics and Innovation)发表了一篇关于算法决策偏见的评论 [12]。该中心属于英国政府的数据驱动和技术独立咨询机构。研究发现,过去几年,在招聘、金融服务、警务和地方政府四个部门,算法决策有了显著增长,并发现了算法偏见存在的明确证据。报告呼吁各组织积极利用数据来识别和减轻算法偏见,并确保了解其工具的功能和局限。来自爱丁堡大学的人工智能教授、贝叶斯中心(Bayes Centre)主任迈克尔·罗瓦佐斯(Michael Rovatsos)也表达了这种看法:“要想真正获取数据或算法是非常困难的”,他补充说,政府应要求公司进行审计,并应该要求其在现实世界中应用的系统保持透明。
就像布奥兰维尼一样,一些研究人员正试图利用他们在人工智能方面的科学经验,从外部揭示商业算法中的偏见。其中包括数学家凯西·奥尼尔(Cathy O'Neil),她在2016年撰写了《数学杀伤性武器》(Weapons of Math Destruction)一书,讲述了她在数据偏见方面的工作。2018年,她成立了一家咨询公司,并与公司私下合作,审核他们的算法。如今,布奥兰维尼还在继续她的工作,通过非盈利的算法正义联盟(Algorithmic Justice League)创建更公平和负责任的技术,这是她于2016年成立的一个跨学科研究机构,旨在了解人工智能技术的社会意义。


3 镜子 | 图源TJ Rak
计算机科学家乔伊·布奥兰维尼(Joy Buolamwini)通过一些面部分析演示测试了自己的这张照片。微软和Face++没有检测到她的脸,而IBMKairos搞错了她的性别。
2018年,她与计算机科学家提姆尼特·格布鲁(格布鲁是 “Black in AI” 的创始人之一)共同发表了《性别阴影》(Gender Shades)研究报告,研究结果后被发送给了涉及到的公司。一年后,他们又进行了一项后续研究以重新审核,并新增了两家公司:亚马逊和凯罗斯(Kairos[13]。在计算机科学家、现任Mozilla基金会研究员黛博拉·拉吉的带领下,该研究的后续调查发现,这两家公司存在巨大的精度错误——亚马逊的面部识别软件甚至无法对米歇尔·奥巴马(Michelle Obama)脸进行正确分类,但最初的三家公司识别精度已经有了明显改善,这表明他们的数据集是用更多样化的图像进行训练的。
这两项研究对现实世界产生了深远的影响:促成了两项美国联邦法案:《算法责任法案》(Algorithmic Accountability Act)和《禁止生物特征住房壁垒法案》(No Biometric Barriers Act),以及纽约和马萨诸塞州的州法案。这项研究还说服了微软、IBM和亚马逊停止为警方办案提供面部识别技术。如今,她正在继续算法评估的工作,并在去年与谷歌的同事一起开发了一个用于人工智能准确度的算法审计框架。“内部审计至关重要,因为它允许在将系统被部署到世界各地之前对其进行更改,” 她补充说,人工智能有时所涉及的偏见可能对特定人群有害,“因此,确定在这些决策中最易受伤害的群体,并对人工智能领域发展过程中可能引入偏见的时刻进行审查是很重要的。”
2019年,AI Now研究所发布的一份详细报告 [14],为有兴趣负责人地使用算法决策工具的公共机构提供了一个架构,并在随后发布了算法问责政策工具包。该报告呼吁,人工智能和机器学习领域的研究人员应该了解自己正在构建什么,还要考虑从事领域的潜在风险和危害,并更好地记录模型和数据来源。
埃斯基韦尔指出,物理学家了解其数据来源的重要性(尤其是用于训练机器学习系统的数据集),“许多用于粒子物理数据的算法都是经过微调后的架构,由人工智能专家开发,并经过行业标准数据集训练。然而,这些数据后被证明充斥着种族主义、不公平对待和性别歧视。” 她以麻省理工学院为例:麻省理工学院删除了曾广泛使用的、拥有8000万张图像的人工智能数据集,因为这些图像被以攻击性的、种族主义的和厌女的方式贴上标签 [15]
格布鲁和同事最近还强调了大型数据集现存的一些问题,例如 Common Crawl ——一个网页爬虫数据的开放式储存,其中充满了白人至上主义、年龄歧视和厌女主义等观点的过度代表 [16],而她最近也因为这篇文章被谷歌人工智能的伦理团队解雇。基于这些现实情况,埃斯基韦尔清楚地表明:学术界 “有机会成为开发这些工具的公立第三方”。
消除偏见
2019年的报告中, AI Now 研究所还建议对人工智能偏见领域的研究应不止于技术修正。“我们不仅需要改变算法或系统,还需要改变行业制度和社会结构,” 兰金解释说。她认为,要想监管、消除或尽量减少人工智能算法中的偏见和歧视,就必须采取 “大规模的集体行动”,让自然科学界以外的人参与进来也会对此有所裨益。
诺德也认为,物理学家需要与其他学科的科学家及社会科学家、伦理学家们合作。
“不幸的是,就这些花费了大量时间和精力进行文献和群体研究的各领域而言,我没有看到物理学家或计算机科学家们充分参与进来。” 他指出,“几乎每隔几周,就会有一个新的基于机器学习的应用程序出现,但它们糟糕、有害、毫无意义,甚至试图去完成一些不可能和不道德的事情。”例如,德克萨斯大学奥斯汀分校最近才停止使用一个机器学习系统预测研究生院录取学生的可能性,该系统的数据基于此前的录取周期,因此会产生算法上的偏见。对此,诺德问道:“为什么我们要在一个必然需要人文主义的地方寻求这种充斥着技术官僚主义的解决方案?”
对于算法偏见,泰斯坚持认为,物理学家必须厘清这些偏见问题的现状,并了解其他人为缓解这些偏见而采取的方法。“我们必须将这些对话纳入围绕机器学习和人工智能的所有讨论中。” 她希望物理学家们可以参加相关的会议、研讨会或演讲,“这项技术深刻影响着我们生活的方方面面,因此,不把相关工作放在更广泛的社会背景下是不负责任的。”
对此,诺德的思考更加清晰:“物理学家们在自问是否 ‘能够’ 构建或施行某些人工智能技术之前,应该先问自己是否 ‘应该’。” 他补充表示,将来也有可能会停止使用现行的一些有害技术,“使用这些技术与否,即是个体也是社会的选择。” 图片
原文链接:
https://physicsworld.com/a/fighting-algorithmic-bias-in-artificial-intelligence/
参考资料(上下滑动可浏览)
▲ 本文为Physics World 专栏的第42篇文章。
版权声明
原文标题 Fighting algorithmic bias in artificial intelligence ”,首发于20215月出版的Physics World,英国物理学会出版社授权《知识分子》翻译。本译文有删节,中文内容仅供参考,一切内容以英文原版为准。未经授权的翻译是侵权行为,版权方将保留追究法律责任的权利。登陆 Physics World,关注日常全球科学新闻、热点报道和评论。Physics World 帮助学界与产业界的研究人员走在世界重大科研突破与跨学科研究的前沿。
制版编辑 | 卢卡斯
本文611日首发于《知识分子》(IDThe-Intellectual),经授权转载,如需二次转载请联系原作者。知识分子由非营利公益组织北京市海淀区智识前沿科技促进中心主办,以传播科学知识、弘扬科学精神、促进科学文化为使命,致力于关注科学、人文、思想。
来源:社计未来
链接:https://mp.weixin.qq.com/s/ktb9BXNPG3zZkwA_9iCJjg
编辑:马皖雪
487#
 楼主| 发表于 2021-6-24 20:17:12 | 只看该作者
【案例】
编辑:李佳怿

488#
 楼主| 发表于 2021-7-20 21:35:16 | 只看该作者
【案例】
《纽约时报》发布:人们最想知道的11件事情
思想 · 严选
早在《纽约时报》科学版块成立25周年的时候,也就是2003年,《纽约时报》就科学界最紧迫问题发表了自己的看法。15年后,问题发生了变化,同样,《纽约时报》推出了专题报道:“人们最想知道的十一件事情”,以下是主要内容:
1  宇宙仍然需要爱因斯坦吗?
物理学家在研究统一理论的过程中不再是统一的。科学家爱因斯坦在世的时候为现代科学设定了目标:寻找万物的最终理论,一个“统一理论”。他认为没有多宇宙的组合。
但在2017年夏天,《量子》在线杂志刊发了一篇标题为“没有物理定律”文章,这篇文章的作者是罗伯特•戴格拉夫(Robbert Dijkgraaf)博士。他写道,存在着一种极其复杂的可能性“景观(landcape)”,对于你做过的每一个好的或坏的梦,都有一个宇宙,每个梦都有自己所谓的基本粒子、力、定律和维度。
这一“景观”,也被成为多元宇宙,是弦理论学家的设想,他们在当前的科学想象中超过了爱因斯坦。弦理论将弯曲的宇宙引力和描述宇宙内部的量子力学结合起来,将自然界的基本成分想象成11维振动的微小能量弦。
对于一些物理学家来说,这幅“景观”是哥白尼革命逻辑的延伸,正如地球不是太阳系的中心,我们的宇宙也不是唯一的宇宙。而对于其他的物理学家来说,存在其他宇宙的想法是一种认识上的荒谬,是无法证明的死胡同,是对爱因斯坦独特宇宙梦想的背叛。
粒子物理学家现在已经在大型强子对撞机中筛选了数万亿次亚原子碰撞产生的碎片。大型强子对撞机是发现希格斯粒子的巨大机器。到目前为止,他们已经证实希格斯粒子的行为符合标准模型的预测。
这是一个伟大的成就,但它没有揭示更深层次理论的差异,研究人员没有发现期待的超对称现象。
法兰克福高级研究所的理论物理学家萨拜因•霍森菲尔德(Sabine Hossenfelder)认为超对称是一种错觉。
不过宇宙学家们就他们标准宇宙达成一致,5%是原子,25%是暗物质,70%是暗能量。如果科学家想要什么礼物,那就是新的理论,可以将这些“标准模型”打破,为我们的存在提供新的线索。
2  我们什么时候能解决精神疾病问题?
生物学本来被期望用来治疗精神疾病,但几十年后的今天,仍然有数百万的精神疾病患者。几个世纪精神病原因被归结为各种原因,从亚里士多德的“精神损坏”论到盖伦的“体液失衡”论。
过去的几十年,生物精神病学的出现,被期望可以详细描述大脑的异常问题,但这一目标尚未实现,但可能在未来实现。麻省理工学院布罗德研究所和哈佛大学斯坦利精神病研究中心主任史蒂文•海曼(Steven Hyman)博士说,研究人员需要和病人待在一起,进行更多的交流,没有精神病人,研究无法进行。
1998年修订的《精神病学领域指南》,它有效的排除了心理学方面的解释。研究人员现在可以使用整齐的标签,复杂的工具,包括:核磁共振成像动物模型、基因分析,用来指导对大脑的研究。
精神问题变成精神疾病,然后是大脑疾病,这些可能是由化学失衡或基因引起的。但是实际的科学并没有支持这些解释,生物精神病学对患者的价值微乎其微。
不过这些工作为未来的研究提供了两个指导方向:
1、精神病学的标准系统并不能很好地映射到任何共享的生物学上。抑郁症不是一种疾病,而是多种疾病,在不同人身上表现不同。2016年,布德罗研究所研究员发现了强有力的证据,证明精神分裂症的发展与调节突触修剪的基因有关。
2、关于生物学的影响,基因遗传起到了一定的作用,但对绝大多数数人来说,精神问题远远不是一个独立的原因导致的。
数百万精神病患者要么完全康复,要么学会一种让他们过上充实生活的方式来管理自己的痛苦。在未来,研究者不仅需要自下而上的研究遗传学,还需要自上而下的和精神病患者交流,
通过那些和精神病做过斗争的人来指导研究。研究人员通过建立一门科学来详细描述人类的精神痛苦还有很长的路要走。
3  我们是怎么变成人类的
从早期人类到现代人类,进化并没有画出一条直线,有一段时间,我们和许多近亲共同生活在地球上。近年来,科学家提供了大量关于我们如何成为人类的见解,很多时候,新的证据和我们认知的并不符合。
40年前,科学家对我们先祖如何从其他类人猿分化而来,并进化成古人类知之甚少。最古老的化石在埃塞尔比亚一个名露西(Lucy)的女性化石。古人类的进化似乎是一条从她到现代人类的相对直接的道路。
但露西和她的亲属仍然有类人猿的特征,很明显露西的物种不是我们进化的开始。
已知最早古人类在一个重要方面和我们相似,那就是他们能够在地面上行走,至少短距走路。沿着不同的进化路线,古人类独立进化出不同的特征,我们所知道多达30种古人类。在历史长河中,一种古人类并没有简单取代另一种古人类。
2017年,研究人员在摩洛哥发现了人类已知最古老的化石,距今约30万年。在那个时候,尼安德特人也存在,同时间,直立人仍然生活在印度尼西亚,不过随后都相继灭绝。
2015年,研究人员在南非一个洞穴发现了25万年前的化石,这个新物种被称为“纳莱迪人”,它的大脑结构和我们人类相似。
当纳莱迪人在非洲繁衍生息时,另一种神秘的物种在印度尼西亚的一个小岛上出现,这个岛现在被称为弗洛雷斯岛。这些被称为弗洛里斯人的古人类只有三英尺高,他们的大脑甚至比纳莱迪人的还要小。
在西伯利亚的一项重大发现中,研究人员检查了一块难以描述的小指骨,发现了另一种人科动物的基因组。
事实证明,我们只是在最近的4万年里拥有这个星球。这也许是我们比其他物种竞争得更激烈。也许他们只是在进化中运气不好。
4  我们能挺过气候变化吗?
如何你是气候方面的专家,你会经常被问到上面这个问题。政府间气候变化专门委员会的一项惊人分析预测:如果政府不采取强有力的行动,2040年就会出现严重的食品短缺,珊瑚礁大规模死亡。
巴黎气候协议设定了一个目标,即防止全球气温比工业化前上升2摄氏度,即3.6华氏度。在华氏2度的高温下,北极海冰可能在夏季消失。
但如果我们能把全球气温的上升控制在1.5摄氏度,北极海冰在夏季存活的可能性就会大得多。珊瑚礁将继续受到破坏,但不会完全消失。受严重热浪影响的人口比例将骤降至14%左右。受城市干旱影响的人数将减少6千多万人。
然而,没有一个主要工业化国家有望实现2摄氏度的目标,更不用说1.5摄氏度的目标了。
尽管情况严峻,但没有想象中的那么糟糕。但最坏的情况是制造出世界末日那样的气候报道。
30年前,科学家詹姆斯•汉森(JamesHansen)在具有里程碑意义的国会作证中就气候变化发出了警告。如果我们足够聪明气候灾难是可以避免的。我们人类是一个向前看的物种。
美国国家航空航天局戈达德太空研究所的副研究员凯特•马弗尔(Kate Marvel)说:“我们的确会考虑未来”。
德克萨斯理工大学的气候科学家凯瑟琳•海霍(Katharine Hayhoe)指出,年轻人正在成为气候变化的领导者,正在发展中的技术已经可以将二氧化碳从大气中提取出来。她说:“如果我们放弃了,最坏的情况将会发生”。
凯瑟琳说,一些人从最近的一份气候报告中推测,只剩10年多一点的时间来解决这个问题。但她认为,12年后的地球上还会有人,不过需要更多的人做事来应对气候变化。
5  人类最长能活多久?
严重疾病最常见的风险因素是高龄。心脏病、癌症、中风、神经系统疾病、糖尿病的风险都随着年龄增长而急剧增加。一个人年龄越大,他/她就越有可能患上多种慢性疾病。
有些科学家希望有一天能够通过针对衰老本身同时治疗所有这些疾病。
人类不是永生的。然而,人类能在最理想的环境下活多久的问题有相当大的争议。2016年,一组科学家宣布上限应为115岁。但在6月,查看意大利老年人死亡率的研究人员表明,人类寿命可能根本没有任何限制。
在过去几十年的动物研究中,科学家已经开始了解导致老年人身体退化的特定细胞和分子过程。
上个月在《美国医学会杂志》上发表的一篇论文中,梅奥医院的塔玛拉•奇科尼亚(Tamara Tchkonia)和詹姆斯•L•柯克兰(James L. Kirkland)博士将这些过程分为四大类:慢性炎症、细胞功能障碍、干细胞的变化使它们无法再生组织、细胞衰老及与疾病相伴的衰老细胞在组织中积累。
研究人员发现,衰老细胞分泌蛋白质、脂质和其他增加炎症和组织破坏的物质。在一项针对小鼠的研究中,将这些细胞移植到健康动物的膝关节会导致看起来非常像人类骨关节炎的疾病。
健康的年轻人很少有这样的细胞,但是在60岁以后,它们开始累积,并且其数量增加与老年失能相关。
是否有什么治疗方法可以在留下年轻细胞的同时清除这些衰老细胞?有几项方法正在测试中。
在一项针对小鼠的研究中发现,衰老细胞对两种药物的组合敏感:达沙替尼(一种抗癌药物)和槲皮素(一种植物类黄酮)。
一些已被批准用于其他目的的药物,正在测试作为抗衰老药的效力。
另一种候选药物涉及一种名为烟酰胺腺嘌呤二核苷酸或NAD的辅酶。它在细胞呼吸过程中起作用,将电子移动到产生能量的线粒体中。
伊利诺伊大学芝加哥分校流行病学教授S•杰伊•奥尔沙恩斯基(S. Jay Olshansky)是在该领域发表了诸多论文的研究者,他说我们能活多久有一个上限,大约85年。
“身体的某些部位,包括大脑,不是为了长期使用而设计的,”他说,“我们正在看到推动生存极限的后果:阿尔茨海默病、失智症、关节和髋关节问题的增加、肌肉质量的减少。”
我们都会死。严肃的科学是不相信永生的。但与此同时,我们距离有保障的健康晚年也更近了一步。
6  我们的星际之旅在哪里?
在科幻系列电影《星际迷航》中,美国企业号在“曲速引擎”的推动下穿梭于宇宙之间。遗憾的是,对于太空旅行的爱好者来说,这似乎违背了爱因斯坦的方程,该方程通常禁止超光速旅行。
但是如果加上“奇异物质(一种理论物质)”,上面的科幻发明实际上符合爱因斯坦广义相对论的范围。广义相对论描述的是时空会发生弯曲。
因此,物理学家们一直在计算和辩论,但没有得出结论,这样的装置是否可以制造出来,并用于前往恒星。
虽然广义相对论的方程可以很容易地写下来,但它们是不可能被解出来,除非在一些特殊的情况下。
墨西哥国立自治大学核科学研究所所长米盖尔•阿尔库别雷(Miguel Alcubierre)在为描述“扭曲气泡”的广义相对论方程构造一个特解。气泡会在前面挤压空间,在后面膨胀,气泡内的星际飞船会以比光速还快的速度移动,即使它保持静止。
米盖尔博士把这个概念比作机场里的移动走道,“你就站在那里,动一动,”他说。“你不必走路。它只是推动你前进。”
米盖尔•阿尔库别雷博士所描述的扭曲时空,最大的缺失是它需要某种未知物质的存在:能量密度小于零的物质。
物理学不排除负能量密度存在的可能性。一些人提出,卡西米尔效应可以用来产生负能量密度。卡西米尔效应是量子力学中一种奇怪但已得到证明的现象,在这种现象中,真空可以产生电磁力,将物体拉向彼此。
即使可以做到这些,早期的计算表明,曲速引擎将需要一个不可思议的庞大的能量。
如果比光速快的旅行成为可能,它也可以用于时间旅行。这将违反物理学的另一个宝贵概念:因果关系,即未来无法改变过去的概念。
曲速引擎可能会成为科学上的一时幻想。随着科学家们进一步解开支配宇宙的基本定律,他们可能会发现一个被证明是不可能的原理。
尽管如此,休斯顿约翰逊航天中心物理学家哈罗德G•怀特(Harold G. White)领导的一些NASA科学家已经尝试过这个概念。他们说,他们已经找到了一种配置假想的负能量物质的方法。
7  为什么我们还是这么肥胖?
现在科学家希望用一种药丸达到长期减肥效果。1976年,肥胖率在美国占15%,现在这一比例达到40%,没人真正知道身体为什么发生这么大的变化。
科学家指出了我们所处的环境因素,大量的廉价快餐和美味零食出现在我们身边。无论环境因素如何共同作用,但在基因允许的范围内,某些环境因素正在使大多数人越来越胖。
从医生到医药公司,从健康部门官员到肥胖者自己,所有人都希望有有效的治疗方法将身体调节到正常水平,但为什么还没有这样的方法呢?
有些人通过节食和锻炼达到了减肥目的,但是他们只是少数。大多数人花了几年的时间在节食和恢复中循环。目前只有一种几乎统一的有效方法,那就是减肥手术,这种剧烈的方法将胃变成一个小口袋,某些情况下,也可以改变肠道路径。
接受这种手术的大多数人体重减轻了,但是他们中还有很多仍然超重,甚至肥胖。不过他们的健康状况通常会改善,许多糖尿病患者不再需要胰岛素,胆固醇和血压会降低。
研究发现,当一个非常肥胖的人节食到正常的体重,他们在生理上还是一个饥饿的人,非常渴望食物。
20世纪80年代的一系列论文证明了肥胖和基因联系密切,体重可以遗传。幼儿时期被收养的孩子长大后,体重和他们亲生父母相当。分开抚养的双胞胎的体重几乎相同。
1995年专家发现一种脂肪细胞分泌的瘦素分子会告诉大脑身体有多少脂肪,然后大脑发出信号让人进食多少。
Amgen公司用2000万买下瘦素的专利,希望以此开发减肥新药。他们想法是让肥胖的人服用这种瘦素,这样他们的大脑会认为他们的脂肪太多,减少进食。令所有人懊恼的是,瘦素的效果并不理想。
减肥手术改变可以身体荷尔蒙和信号的组合,包括瘦素和其他许多激素。通过这种手术许多病人不再渴望高热量的食物来满足他们。许多人发现他们不再极度饥饿。
现在的希望是找出如何在不做手术的情况下获得减肥手术的好处。这些效果是否可以用药物来模拟,许多研究人员正在尝试,尽管大多数制药公司看到没有有效的疗法已经退出了这个市场。
8  我们能治愈阿尔茨海默症吗?
很少有药物被批准用于治疗这种痴呆症,而且没有一种效果很好。它已经成为医学界最棘手的问题之一。全世界约有4400万人患有此病,其中包括美国的550万人。
专家预测,到2050年,随着老年人口的增加,这一数字可能会增加两倍。为什么至今仍没有有效的治疗方法,也没有行之有效的方法来预防或延缓它的影响呢?答案很复杂。
20年来,研究人员、资助机构和临床试验主要集中在一个策略上:试图清除大脑中形成与该病有整体关联的斑块-β淀粉样蛋白团。
但是,尽管一些药物减少了淀粉样蛋白的积累,但没有一种药物能够成功阻止或逆转痴呆。淀粉样蛋白并不能解释阿尔茨海默症的一切,不是每个有淀粉样蛋白斑的人都有这种疾病。也有一些人把注意力集中在tau蛋白研究上。
目前只有五种药物被批准用于治疗这种痴呆症,但它们都是针对早期症状的,而且没有一种药物长时间有效。
2018年夏天,研究人员报告了一种新药物的第一个大型临床试验的结果,五个剂量最高的测试,不仅削减了淀粉样蛋白水平也,而且在早期阶段人的认知能力下降时,减缓了记忆和思考恶化发展问题。
不过,尽管几位专家表示,他们持谨慎乐观态度,但仍需要对这种名为BAN2401的药物进行更多的测试。
阿尔茨海默症的研究充斥着失败的临床试验,其原因不在于淀粉样蛋白和tau蛋白的问题。首先,研究人员发现很难设计出模仿人类痴呆症状的动物,这样他们就可以在对人进行测试之前有效地在动物身上试验药物。
另一个问题是:越来越复杂的扫描技术显示,阿尔茨海默症患者的大脑损伤可能在痴呆症症状出现前几十年就开始了。
正因为如此,近年来许多研究人员开始在患有早期痴呆症或者有风险患有痴呆症的人身上测试抗淀粉样蛋白药物。
有效的阿尔茨海默症疗法来得再快也不为过。有关研究发现,通过活动、音乐、舒适的食物和锻炼来帮助激发积极情绪,可以让患者感觉更好,减少焦虑和沮丧。但是这和逆转疾病的趋势是不一样的。
9  我们怎样辨别人工智能的谎言?
2016年美国总统大选之前的那个夏天,美国的两名研究人员约翰•西摩(John Seymour)和菲利普•塔利(Philip Tully)推出了一种新的Twitter机器人。这款机器人通过分析社交网络上的活动模式,学会了欺骗用户点击推文中的链接,链接可能是危险网站。
这个名为SNAP_R的机器人是一个自动的“钓鱼”系统,诱使某些人在不经意间将间谍软件下载到自己的机器上。
这两位研究人员建立了所谓的神经网络,这是一个复杂的数学系统,可以通过分析大量数据来学习。神经网络可以通过从数千张小狗的照片中学习识别小狗。
今天,同样的数学技术正在为机器注入从语音识别到语言翻译等各种各样的能力。在很多情况下,这种新型的人工智能也是互联网上欺骗人的理想手段。
许多技术观察人士对人工智能的崛起表示担忧。人工智能会产生深度造假,看起来像真品的假图像。
顶尖的人工智能实验室,甚至像谷歌这样的大型上市公司,都公开发布了他们的研究成果,在很多情况下,还公开了他们的软件代码。
今天,大多数Twitter机器人看起来像机器人,尤其是当你开始回复它们的时候。将来,它们回应方式将使你难以辨别它们是机器人。
谷歌的工程师设计了专门用于训练神经网络的计算机芯片。其他公司也在制造类似的芯片,随着这些芯片的问世,它们将进一步加速人工智能的研究。
OpenAI政策主管杰克•克拉克(JackClark)表示,在不远的将来,各国政府将创建机器学习系统,试图让其他国家的民众变得激进,或者将观点强加于本国民众。
“这是一种新的社会控制或宣传”,他说,“政府可以开始发起针对个人的运动。同时,为了一个更大的目标,政府可以操纵更多的人参与”。但理想情况下,人工智能也可以提供识别和阻止这种大规模操纵的方法。
也许阻止错误信息的唯一方法就是以某种方式教育人们以极度不信任的态度看待他们在网上看到的东西。但这可能是最难解决的问题。
10  为什么我们没有针对所有疾病的疫苗?
资金投入只是表面问题。一些疾病,比如艾滋病到目前为止,科学家也没有好的办法治疗。
疫苗是最具独创性的发明之一。一些全球杀手,如天花和小儿麻痹症,已经完全或几乎被根除。还有一些,比如疟疾和艾滋病尽管有了基因编辑等令人吃惊的新武器,但美国科学家至今还是没有有效的方法根治。
17世纪的英国,三分之一的儿童在15岁之前死亡。今天,多亏了疫苗的发明,这种情况不在发生。
但是,尽管经过30年的努力,仍然没有艾滋病疫苗,没有通用的流感疫苗,也没有针对疟疾或结核病的长效疫苗。
梅奥诊所疫苗研究小组主任格雷戈里A•波兰(Gregory A. Poland)博士说,疫苗研究要想取得更快的进展,存在两个困难,一个是科学,一个是资金。
通常情况下,如果一种疾病通常只留下少数完全没有疾病且终生免疫的幸存者,那么就有可能研制出针对这种疾病的疫苗。天花符合标准,但艾滋病、疟疾和肺结核则不然。
尽管如此,根据对6位专家的采访,如果全世界投入更多的资金,目前肆虐的许多疾病可能会被疫苗打败。
最近在一种新的结核病疫苗和一种旧疫苗的新用途方面的进展鼓舞了专家。
“如果你在18个月前问我是否有可能研制出结核病疫苗,我会说不可能,”新成立的医学研究所的首席执行官彭妮•希顿(Penny Heaton)博士说。“但我认为这个领域现在非常有前途”。
莱姆病疫苗于1998年获得许可,但4年后被撤回,这被称为“公共卫生的惨败”,因为谣言、诉讼和危言耸听的媒体报道吓跑了消费者。现在,据估计每年有30万美国人感染莱姆病,一种改良的疫苗正在研制中。
但是,就像所有其他正在进行的项目一样,疫苗研究需要更多的资金。
11  我们如何释放免疫系统?
虽然免疫疗法对癌症有奇效,但并不是对所有人都有帮助,副作用可能非常严重,成本也很高。
癌症具有隐藏天赋,可以逃避自然防御。免疫疗法的不断发展正在深刻地改变着癌症的治疗方法,挽救了许多晚期恶性肿瘤患者的生命。
《美国医学会杂志》最近的一篇社论说,“晚期癌症患者的寿命越来越长,可以活几年,而不是几个月。”免疫疗法在其中起了很大作用。尽管如此,它并不能帮助所有人,副作用可能非常严重,费用也可能很高。
总的来说,免疫疗法对不到一半的患者有效。到目前为止,美国食品和药物管理局批准的两种主要癌症免疫疗法药物,分别是检查点抑制剂和CAR-T细胞。两者都涉及到免疫系统的主力:t细胞。
但科学家们也在尝试开辟一种全新的免疫疗法,这种疗法的重点不是t细胞,而是免疫系统的另一部分,一种被称为巨噬细胞的白细胞。
在本月发表在《新英格兰医学杂志》上的一项研究中,研究人员对22名淋巴瘤患者进行了测试。11名患者的肿瘤缩小,8名患者完全消失。该研究的科研人员说,副作用很小,尤其是与其他形式的免疫疗法相比。
对于研究中的一个病人来说,结果非常惊人。一位71岁的病人患滤泡性淋巴瘤已有五年左右的时间,几种不同的治疗方法都未能控制这种疾病。他大约一年前进入斯坦福大学进行这项研究。
在试验开始时,他的PET扫描上出现了1015个光点,表明他得了癌症。现在,他说:“当我看新的扫描时,除了一个小点,其他的点都不见了,研究人员不认为这是癌症,也许只是死癌的残余。”
对巨噬细胞和t细胞的研究也是基于同样的基本观点:癌症有时会欺骗这些防御者,通过关闭身体的用来阻止免疫细胞攻击的组织的“关闭”开关。
检查点抑制剂阻断了“关闭”开关,释放t细胞去追踪癌症。两位研究人员发现了t细胞上的检查点,他们的工作导致了检查点抑制剂的产生,他们分享了诺贝尔生理学和医学奖。
CAR-T细胞涉及一种复杂得多的治疗方法,即从血液中提取数百万个患者的t细胞,通过基因重组攻击细胞上的特定目标,然后增殖,然后滴回患者的静脉。2012年,这种治疗方法在费城儿童医院进行实验,挽救了一名6岁的晚期白血病患者艾米丽•怀特海德(Emily Whitehead)。目前研究人员正在测试CAR-T疗法在其他血癌中的应用。
来源:思想严选
链接:https://mp.weixin.qq.com/s/ZIMqv6bfhZZ3oODhS4Ovew
编辑:马皖雪

489#
 楼主| 发表于 2021-8-1 21:42:47 | 只看该作者
【案例】
突发!字节跳动AI Lab总监李磊离职,加盟美国高校
据AI研究者王威廉推特消息,字节跳动AI实验室总监李磊重返学术界,进入加州大学圣巴巴拉分校担任助理教授。
对于该消息,李磊表示:非常激动加入UCSB,也非常高兴和威廉等学者一起工作。
李磊是ACL 2021最佳论文合著作者之一,上海交通大学ACM班2002级校友,一直以“做研究并且能真正做到业务上产生重大价值”为目标。
图注:ucsb官网上已经有相关教职信息
其在2016年加盟字节,在字节期间,升任AI总监之后负责技术方向规划,制定部门短期及远期技术发展和积累的目标。在一次讲座中,李磊也表示了当时选择加入字节的原因“它给了我让前沿技术在产品中产生重大作用的机会”。
至于为什么入职加州大学圣巴巴拉分校,知乎上有网友讨论,“字节不得人心”、“AI的产出不尽如人意”、“对学术真理的追求”....
而李磊作为马维英之后的又一位从字节重返学术界的科研人员,这在某种程度上说明字节跳动AI实验室人员结构的重大变动,也说明了AI领域学术界和工业界资源流动在加速。
1
谁是李磊?
业内公认的最权威的NLP科学家之一,此前为百度美国深度学习实验室少帅科学家,2016年被字节跳动招致麾下,担任人工智能实验室总监一职。当时美国计算机协会杰出科学家,前微软亚洲研究院常务副院长马维英、ACM 杰出科学家、IEEE Fellow李航均为该实验室成员。
李磊本科毕业于上海交通大学计算机系,是ACM班的第一届学生。ACM班由上海交通大学教授俞勇于2002年发起并设立,旨在培养中国最顶级的计算机科学家。ACM的命名源于美国计算机学会Association of Computing Machinery,它是世界上第一个、最有影响力的计算机组织,图灵奖也有由该组织设立和颁发。当时与李磊同为ACM班成员的还有林晨曦、张雷、周健等人。
之后,李磊前往卡耐基梅隆大学计算机系攻读博士学位。本科期间,李磊曾在有着人工智能黄埔军校之称的MSRA实习,积累了丰厚的业界资源。而之所以选择读博,林晨曦的建议给了他很大的决心。他说,“如果要做研究,一定是要去国外读博,因为如果你要学武功,那你一定要去少林寺,去世界上第一流的地方看看高手们是如何过招的。”
2014年,李磊从伯克利大学博士后毕业后正式转入业界,在Google、Facebook、BAT等众多大公司抛出的橄榄枝中,他选择了美国百度研究院。此时的他,对于职业选择更看重:人、事、公司/学校前景三个关键点。“如果把职业选择看成一个函数和一个优化过程,就要定下优化的目标”。
2016年,李磊决定回国发展,并选择了刚刚成立不久,但聚集了众多学术大咖的字节跳动AI Lab。然而时隔五年,继马维英离职加入清华大学后,李磊也转战学术界,加入了加州大学圣巴巴拉分校。对于此次离职的原因,他并未给出明确的说明。
不过,此前李磊在AAA校友会校会演讲曾透露,职业发展最重要的能否有长期不断发展的机会。他说,张钹院士80岁时还在KDD大会亲自讲很技术的talk,使他深受触动,他希望自己能够在非常长的时间内做一些事情,而这些事是比较有影响力的。
值得一提的是,就在刚刚结束的ACL 2021会议上,李磊作为通讯一作发表的“Vocabulary Learning via Optimal Transport for Neural MachineTranslation”论文被组委会评为最佳论文。截止目前,他已在机器学习、数据挖掘和自然语言理解领域于国际顶级学术会议发表论文40余篇。
谷歌学术显示,其学术成果共获得4084个引用,高引用论文大多数是在2016年之后获得,而2016年正是他刚刚加入字节跳动的时期,可见这五年来,李磊在字节跳动AI Lab的贡献和影响力。
此外,据公开资料显示,他在近五年曾先后担任CCF中文信息处理专委委员,2017 KDD Cup、2018 KDD Hands-on Tutorial、2019KDD Sponsorship联合主席,IJCAI2017和AAAI 2019资深程序委员、EMNLP2019领域主席和NeurIPS、ICML、KDD、IJCAI、AAAI、NAACL、EMNLP等大会程序委员。
2
反映了怎样的趋势?
李磊加入字节已经5年,今日他选择离开企业,选择继续“教书育人”,无疑是对当前AI研究人员纷纷重返学界这一趋势的印证。
这一趋势最早从吴恩达开始,随后李飞飞、张潼、张亚勤、贾佳亚等科学家也不断重返学校。
而在几年前,对应的正是AI基础研究者纷纷离开学术界,加盟工业界:代表性的标志事件是在2011年的NIPS大会上,Hinton接受了Google的邀请,正式加盟Google;此后Facebook、Amazon、Uber以及国内百度、阿里、腾讯、滴滴等巨头也纷纷跟进,而另一方面,产业界所能提供的海量数据以及资源投入对于AI研究者也具有莫大的吸引力,长期从事理论研究的他们也需要一个平台验证他们的想法,这也正是当时AI人才从学术界流向产业界的原因。
现在这些AI大牛从产业界重返学术界,有人将其视为AI科学家的“水土不服”,并进而得出“AI热度正在放缓”的结论。但从另一个角度上,我们也可以看到这些科学家们在产业界检验了自己之前的研究之后,带着新的问题回到学术界开展新的研究。
例如,原腾讯AI Lab主任张潼在被问及为什么回归学术界时,他回答:“我最关心的是10年以后, AI能够在技术理论等方面实现重大的突破,并且自己能够在整个学术研究上有更多的贡献。”而对于加入创新工场,张潼则表示:“我在进行学术研究的同时,也希望这些学识成果能够跟产业相结合。”另一位AI大牛贾佳亚,在离开腾讯优图之后并未远离产业界,而是成立了一家创业公司思谋科技,以另一种方式做到连接学术与产业。
拿AI届的黄埔“微软亚洲研究院”来说吧,他几任历任院长中,李开复创办了创新工场,以孵化器模式推动中国本土的科技与AI公司的发展;张亚勤牵头筹建“清华大学智能产业研究院(AIR)”,回归学术界并得到了马维英的襄助,“出走半生归来仍是少年”;沈向洋在担任清华大学兼职教授的同时,也还投资并担任News Break董事长;而进入投资界的张宏江,更是在以资本投票的方式践行着对AI的认知。这些顶尖人才的流动,无论是从学术界到产业界,还是从产业界到学术界,最终都是AI的进步。
来源:中外学术情报
链接:https://mp.weixin.qq.com/s/xIZ-rs6J6pAgd-hwL72r5g
编辑:李佳怿

490#
 楼主| 发表于 2021-8-3 00:06:39 | 只看该作者
【案例】
许可:从个人信息保护法看算法中的“人”


许可  对外贸易大学数字经济与法律创新研究中心执行主任
出自2021全球人工智能技术大会演讲报告


马克思在《德意志意识形态》中指出:人不是单个人所固有的抽象物,个人的一定的活动方式,是他们表现自己生命的一定的方式,他们的一定的生活方式。个人如何表现自己的生命,他们自己就是怎样。

算法恰恰通过“对人如何表现自己的生命”加以影响,以实现对人的控制。

我们可以上述控制可分为如下三步:

第一步是个人画像(profiling),通过收集、汇聚、分析个人信息,对某特定人的职业、经济、健康、 教育、个人喜好、信用、行为等方面作出分析或预测,形成其个人特征模型的过程,从而达到“知道你是谁”(who are you?)的目标。
第二步是个性化推荐,即基于特定个人的网络浏览历史、兴趣爱好、消费记录和习惯等个人信息,向他们展示信息内容、提供商品或服务及其价格等活动。算法利用人的喜好,投其所好,潜移默化地塑造你。
第三步是产生自动化决策,即在无人干预的情形下,由算法手段对人作出决策。自动化决策主要分为单独的自动化的决策(例如红灯拍照罚款),和基于个人画像的自动化决策(如健康码)。这种决策人将产生重大影响,可以带给你利益,也能剥夺或限制你的权利。

针对这三个步骤,个人信息保护法中也应有三种法律回应。

首先,个人画像的法律回应包括:确保个人的知情同意;应遵循最小化规则(即应当限于必要的范围内);对个人特征描述不应不应包含淫秽、色情、赌博、迷信、恐怖、暴力的内容;或者表达对民族、种族、宗教、残疾、疾病歧视的内容;对未成年人应有特殊保护,比如全面禁止对未成年人个人画像。

其次,针对个性化推荐的法律回应包括:明确算法的透明性,显著区分个性化展示内容和非个性化展示的内容(比如对新闻内容的推荐);赋予个人选择权,应当同时提供不针对其个人特征的选项,或者提供个人拒绝和退出的选项;反垄断或反不正当竞争规制,对于具有市场支配地位的企业滥用市场支配地位,不得无正当理由对交易条件相同的交易相对人实施差别待遇;对未成年人特殊保护:禁止对未成年人进行个性化推荐。

最后,针对自动化决策的法律回应包括:个人信息的风险评估,就个人信息处理目的,处理方式是否合法、正当、必要,对个人的影响和风险程度,对所采取的安全保护措施是否合法,有效并与风险程度相适应等作出评估;同时,应赋予个人以知情权、算法解释权、拒绝权和人工干预权。



来源:数字经济与社会

编辑:古凤

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表