原文来源:智酷实验室 原文链接: https://www.toutiao.com/i6754980501741666823/?wxshare_count=4&from=timeline×tamp=1573506408&app=news_article&isappinstalled=0&req_id=201911120506480100120651451898C257&group_id=6754980501741666823&pbid=6699053120973374989
10 月 31 日,由北京智源人工智能研究院主办的 2019 北京智源大会在国家会议中心开幕,会期两天。智源大会是北京创建全球人工智能学术和创新最优生态的标志性学术活动,定位于“内行的 AI 盛会”。在下午的《人工智能伦理、安全与治理专题论坛》分论坛上,剑桥大学未来智能研究中心研究员 Danit Gal 在演讲中表示,由于在管理方式、文化、社会等方面的一些根深蒂固的差异,东西方在人工智能伦理方面存在很多不同点,其主要体现在可及性、责任性、控制性、公平性等方面。人工智能伦理在全球范围内更好地分享和落地需要因地制宜,必须要考虑东西方、每个国家文化和社会的不同,不管你使用的是什么样的高端技术,我们需要在背后有一个标准,希望我们的技术在足够强大的同时,也能确保人们以一种正确的方式来使用这些技术,这是我们的终极目标。
Danit Gal 演讲主要围绕人工智能伦理在东西方的差异展开。
实际上在很多情况下,东方是从上到下的管理方式,而西方是从下到上的管理方式。这两个基本的差异会造成很多根深蒂固的文化及社会差异,体现在人工智能伦理方面,东西方亦有诸多不同。
第一点是可及性。我们要确保我们的技术是可及的、可用的,且为全世界的程序开发者所使用。理想的情况下,是全球的人都能使用这样的技术。举个例子,我们不同的数据库里有不同的解决方案。比如说,在中国有不同的数据库,不同的公司也有这样的数据库。如果这个公司想要获得额外的数据,它需要向政府申请,由政府来批准。在西方,我们有不同的公司,有不同的数据库,但谷歌的数据库不会跟苹果分享,虽然有些数据是可以分享的,但是他们的代码是不会分享的。我个人觉得中国的网络安全法更加重要,要优于西方的这些网络安全法。
第二个是责任性。我们要保证我们这些行动和行动所造成的后果是可追溯的。我们要知道这个中间的操作机构应该负起什么样的责任以及谁应该负这样的责任。一个好的例子就是我们现有的这些责任模型的不同。拿滴滴和优步举个例子,旗下司机都发生了谋杀事件,发生这样的事件后,滴滴关掉了它的平台,重新改善之后引入了一个新的管理机制。因为这个是政府强制他们这样做的。
优步也这样做,但它做的路线完全不同。他们只是确保相关的事件不会再次发生,优步并没有把它的平台彻底关掉,进行彻底的改善,他们只是进行了局部的“修饰”。比如说有些好的实践,有些不好的实践,他们避免了不好的实践,保留了好的实践。而中国政府会把一些 APP 列入“黑名单”,把它彻底删除。这些 APP 如果想重新进入市场,需要经过政府的批准。
第三个是可制性。我们这些使用技术的人要能够控制技术。举个好的例子,对于“人对于机器控制的层级架构”,这里的“人”是谁? 可能是一个公司的技术开发负责人,他应该是最终做决策的。但是在韩国,它有一个决策的层级,在一个特殊的场景中这个人可以做决策,但这个人的上级还有上级,上级还有上级,比如说可能 CEO 是做最终决策的。
因此,我们要了解,不同的社会有不同的架构,不同的社会当中最终做决策的那个人是不同的。我们在这个方面要作充分的考虑。
第四个是可解释性。我们必须要知道我们这个技术是可以解释的、可以被审核的、可以找到因果关系的。比如说,AI 做了一个决定,那谁应该负责任?AI 应该负责任,还是开发者负责任?在一些国家,有观点认为,AI 做出的决策是自动的,应该修改 AI,应该让 AI 负责任。但是,实际上开发这个 AI 的人不需要负责任。
在其他的国家,AI 的开发者和 AI 的使用者都会负一定的责任。这些 AI 的使用者必须要确保他们对 AI 有充分的了解才能使用,所以,他们也需要承担一定的责任。AI 的开发者也需要承担一定的责任,比如当有些不符合伦理的事情发生时,这些开发者必须要负一定的责任。这样做的前提条件就是 AI 的开发者必须要有强大的理解力、强大的技术力、强大的控制力。所以这是一个闭环的追责制。有了可解释性,我们就可以界定谁来负责任,到底是 AI,还是人。但是要做到这一点非常不容易。
第五个是公平性。我们要确保我们的技术是公平的,不会造成一些偏见和不公平的情况。如果一个国家的总人口中有 95% 的人来自不同种族,而另外一个国家基本上人人都来自同一个种族,这两个国家的人口种族分布情况是不一样的。因此,在全世界范围内应用同样的 AI 系统时,我们必须要进行不同的讨论。对具有很大异致性的国家,在设计的时候,我们必须要有针对性的考虑。
第六个是以人为中心。我们要确保我们的设计是以人为中心的。在日本我们有一个例子,日本有一个“社会共同发展 6.0”,谈的是人的尊严以及技术发展具有同等的重要性。现在,我们必须要理解人的未知在哪里,技术的未知在哪里。
就像在南韩,他们有一个人机之间决策的架构和层级,而其他国家却没有这样的架构。所以,我们要明确的是,技术的发展要有人的参与,如果没有人的参与,这个技术就毫无意义。只有把人和技术放到一起的时候,才能为这个技术更好地赋能,更加有力。
第七个是技术或者个人信息的保护。比如我们有一些个人的数据可能在网上都被滥用了。在中国也有数据滥用的状况,为此,中国政府出台了很多的法律法规、很多的政策来保护人的信息安全。如果出现违法使用个人信息的情况,那这些信息一定要被删除。在西方国家不太一样。在西方,谁来保护人们以及“谁是人们”这样的定义是不一样的。这不意味着西方的人没有隐私,而是我们的隐私定义不同。
最后一个是透明性,我们要确保技术的使用是透明的、可追溯的。它对用户透明,还是对政府透明?还是对其他的公司透明?谁需要这么高水平的透明性?
在中国,透明的级别非常直截了当,那就是要对政府透明。亚马逊、谷歌和脸书之间的透明性如何?我们如何防止透明性不够的状况?假如在国会中,有人对扎克伯格说你们公司的透明性不够,在这种情况下,我们谁对此负责,谁应该确保这种透明性?在中国我们是对政府透明,而不是对用户透明。那我们如何确保不同的机构之间都是透明的?如果能做到足够的透明,各个机构就能够知道自己的数据被如何使用。
最后,我想跟大家分享三点:
首先全球通用的这些 AI 伦理原则,它的理论解释其实是一样的,但它们在各个国家落实的情况不一样,但这种落实是一件好事,因为我们有一个全球共享的 AI 伦理理念并不意味着每个国家都应该以同一种方法来行使这样的技术或者是确保这样的伦理,各个国家应该考虑自己的不同情况,需要因地制宜。
第二点是,连接东西方或者是弥合东西方的 AI 伦理鸿沟的下一步是应该基于我们各自国家的特殊的情况以及对于技术的不同的解释,且把我们自己国家的情况放到国际的层面上进行讨论。也就是说,我们要确保如何在全世界、在不同的国家以不同的方式来落实这样的决策。可能这个国家有 A 模型,这个国家有 B 模型,我们使用了同样的方法,使用了同样的模型,但是各个国家对于这个体系的解释是不一样的。
第三点,为了了解 AI 伦理的不同,我们必须要考虑文化和社会的不同。不管你使用的是什么样的高端的技术,我们需要在背后有一个标准,我们希望技术足够强大,同时也能确保人们以一种正确的方式来使用这些技术,这是我们的终极目标。
编辑:吴悠
|