传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 457|回复: 0
打印 上一主题 下一主题

人工智能排在第一位的伦理规则/何怀宏:现代伦理如何应变高科技时代?

[复制链接]
跳转到指定楼层
楼主
发表于 2019-8-23 18:12:01 | 只看该作者 |只看大图 回帖奖励 |倒序浏览 |阅读模式
原文来源:博古睿研究院
原文作者:何怀宏

今天面对人工智能和基因工程等领域的迅猛发展,一些国家,乃至一些大公司都出台了一些一般的伦理规则,这些规则看起来都不错,但多是美丽的大词,细究起来内容也相差不多。这些概括性的原则语汇自然是有必要的,但可能还需要深入具体, 对一些专门智能机器的功能和使用制定比较具体的适用规则,包括明确一些准入或禁入门槛。这样也能从具体规则出发来更好地概括出一般规则,帮助我们区分它们的轻重缓急乃至排列次序。

在对人工智能的各种公示的伦理规则中,我认为比起诸如公平、隐私、透明、共享、反歧视等伦理规则,“安全可靠”是第一位的,因为它直接涉及保存生命。


2017年6月,德国公布了全球第一个针对无人驾驶汽车的道德规则。哪怕它还不完善, 很可能还需要修订,但这种预先防范的努力是值得赞许的。这些规则包括:保护生命优先于其他任何功利主义的考量,道路安全优先于出行便利,必须遵守已经明确的道路法规。无人驾驶系统要永远保证比人类驾驶员造成的事故少。人类生命的安全必须始终优先于对动物或财产的保护。为了辨明事故承担责任方,无人驾驶车辆必须配置始终记录和存储行车数据的“黑匣子”。不得对必须在两个人的生命之间做出选择的极端情况进行标准化设定或编程。法律责任和审判制度必须对责任主体从传统的驾驶员扩大到技术系统的制造商和设计者等这一变化做出有效调整。当发生不可避免的事故时,任何基于年龄、性别、种族、身体属性或任何其他区别因素的歧视判断都是不允许的。虽然车辆在紧急情况下可能会自动做出反应,但人类应该在更多道德模棱两可的事件中重新获得车辆的控制权等等。

当然,这一法规中的规则仍然是一些比较一般的原则规范,但它们强调了保障人的生命安全高于一切——高于功利、高于便利、高于财产、高于动物的生命。尽管这一法规肯定还需要在某些方面细化,也需要不断结合道德原则和现实进展情况进行重新审视、补充和修改,但它的确提供了一个宝贵的可供讨论的样本。

我们不要忘记,我们是在为一个比我们得到的信息更多、计算更快、动作更灵敏的机器设计规则乃至引入人类的价值观。它们在某些方面比我们更能干,但总体上并不比我们更智能。它们是专门化的工具, 只用于汽车驾驶,可以确信不会发展为总体上超越人类智能和综合性的自我意识的超级智能机器。我们对它们的规则设计可以奏效,它们没有滥用或颠覆这些基本规则和价值的危险。但如果我们面对的是一种可能发展为具有全面功能,包括控制和指挥其他智能机器,乃至最后控制人的超级智能机器,我想我们大概是不能将有可能促进其产生自我意识的因素输入给它的。我们在这方面要慎之又慎,宁愿让机器在这方面“傻”一点。

同样是聚焦生命安全问题,现在我想提出另一个可供分析和讨论的个案:即直接涉及对暴力和强制手段的反应和使用,但目的是保障人的生命安全的智能机器。也就是说,为了一个良好的目的,为了一个保障人的生命安全的目的,是否可以生产具有暴力和强制功能的机器人,比如机器战警、机器保镖和有暴力功能的机器保姆?我们要不要这样的有力帮手?如果说不能要, 是出于什么样的理由?人自己不是也在大量使用暴力和强制吗?为什么不能接受机器为了保护人而使用暴力和强制?

有关行使暴力的智能机器,据说已经有数十个国家正在秘密研制战争中可以使用的暴力机器,有些甚至可能已经成功了。但这个问题我们暂且不谈,这是一个涉及国际关系的悲哀话题。我们现在还是先集中讨论可能在一个国家内部使用的、包括可能民用的,具有暴力或强制功能的智能机器。

第一种是机器警察。

不是那些功能很有限、纯属防御性且其行动是由人直接指挥而非自主的智能机器人(比如能够排除定时炸弹的机器人),而是一种“机器战警”,即和人类警察一样,配有各种武器,甚至还有自己更独特、更强大的武器或火力的“机器警察”。这样的警察看起来不是很好吗?能力超人、钢筋铁骨、不怕损失、没有私心、能够高效地执行除暴安良的任务,这不正是人们梦想的“完美警察”吗?

第二种是可供个人使用的、具有暴力和强制功能的机器保镖。

它不掌握在政府手里,而是掌握在个人手里,为个人服务。这样的“机器保镖”就比较容易被我们否定了:如果一个想作恶的人获得了这样的机器,不是非常可怕吗?的确如此。而这样一个否定的理由也可以在某种程度上用于上述“机器战警”,因为政府中的一些个人、机构,有时甚至是整个政权机器, 也可能滥用或误用这种智能机器。但无论如何,我们是有更强有力的理由排除“机器保镖”的生产销售的,因为善意的用户有了它们固然可以增加自己的安全保障,但恶意的用户杀人越货也就有强大的帮手了。

第三种情况更复杂一些:“机器保姆”。

机器保姆可以用来照顾老人、病人和孩子,未来必将是一个广大的应用领域。但是否能让它们具有暴力和强制的功能呢?使用这些机器的人一般都是弱者,假设有歹徒入室侵犯用户,要不要让机器保姆能同样使用暴力制服暴徒?或者稍温和一些,让机器保姆具有一种强制功能,在判断某些老人或孩子的行为将对其生命健康造成严重伤害时,采取某些强制性的措施,比如关闭房门或限制行动,让人暂时成为“机器的囚徒”?

日本本田公司研发的ASIMO机器人

的确,在一些具体的情况下,如果机器具有这样的功能,在一时一事中大概是能够有效发挥作用的。但是如果让这成为普遍功能,这些功能同样有可能被机器和掌握机器的人误用甚至滥用,从全面和长远计,可能还是没有这种功能更好。尤其是当作为中枢的智能机器一旦突破人的控制,变得比人更聪明并具有自我意识时, 它就可能独立判断,使用和指挥众多暴力机器达到自己的目的。

所以,人类不去发展具有暴力功能的自主智能机器,这是一种“防患于未然”。因为它们和人类已经发展出来的其他战争工具和杀人武器不一样,那些武器(比如核武器)还是处在人类直接指挥和控制之下的,智能杀人机器却具有一种自我学习能力,具有某种程度的自主性,它还可能具有完全的自主性。我们禁止它们可能会因此失去某些具体情况下强大的安全保障, 但因此获得的一般情况下的安全系数却会更大。

当然,这并不是说人工智能机器不能在保障安全方面帮助我们。去掉机器的暴力攻击和强制功能,它们还是可以成为保护人类安全的重要工具。比如一个不具有暴力和强制功能的“机器保姆”,无疑还是可以被设计成具备监测和报警功能的,这样也可以威慑犯罪者和保护用户。但我们如果在这方面放开或放任暴力功能,就很可能会遇到难以测知的重大后果。

由此我想转入讨论高科技时代对现代伦理提出的一种新的重大挑战,即它所带来的“不可预测的严重后果”。那就是:我们做的许多事情看起来是好的,是探索物质世界、增长人类知识,甚至是试图造福人类的,但是由于技术达到了如此高端的程度,它的结果却常常是我们无法预知的。一些严重的恶果将可能和好的结果偕行, 乃至超过好的结果,还有些实验甚至可能打开“潘多拉的盒子”。

比如,未来可能会有计算速度极快、掌握数据极多的量子计算机出现,它将可以解决许多计算难题,也能破解世上所有的加密方式。那么,假如第一台这样的计算机掌握在不怀好意或过于贪求自己利益的机构或国家手里,就可能造成金融动荡以及社会和政治危机。

又如合成生物将制造出许多新的便利科技产品和治疗疾病的良药,但合成生物也有可能带来生物武器和难以控制的入侵物种等巨大的危险。再如基因工程、克隆技术,它们有可能增强人的各种能力、延长人的寿命,但也有可能带来基因编辑婴儿和克隆人的危险。还有一些高科技的发展可能带来大规模的安防监控,将可能侵犯人们的隐私,使边沁所设想的全景监视不仅用于监狱,也用于整个社会。还有能够制造出几乎可乱真的虚假音频和视频——深度造假(DeepFake)——的技术,可能摧毁好人的声誉、影响到司法证据等等,不一而足。

使用DeepFake进行“换脸”。(图片来自 CBC)

有科学家说,人工智能等高科技的发展目前都还在可控范围之内,就公开显示的信息而言,我基本同意。还有科学家认为,现在的人们可能高估了人工智能的发展速度,未来的二三十年都不会有发展出超级智能机器的可能或者出现大的危机。这也很好,我甚至希望这个时间能再延长到五六十年、上百年。但是,文明不仅要考虑十年大计、百年大计,还有千年大计。考虑到这几十年科技的飞速增长,以及各种意外发现的可能,以及下面将要谈到的人类现代文明的一个基本矛盾,人类就不能不尽早地未雨绸缪。

相对于其他动物来说,人的优势就在于:人有意识,从而能够有预期和计划地行动。在高科技时代之前,人虽然不能完全预测其行为的结果,但大致能够预测这结果的方向或性质。然而,进入到今天这样一个迅猛发展、不断变化的高科技时代,人们行动的后果不再像以前那样容易预测了,负面的后果可能比正面的成果更难于预测。而这后果一旦发生,有时相当严重,有时甚至是不可逆转的。

因为这些不可预知的后果的紧迫和重大,我们也许就需要一种预防性的伦理和法律,也就是说,为了防患未然起见,我们还要考虑如何对人们行为事先的动机和欲望有所限制,而不仅仅是在行为过程之中进行防范和在行为结果之后给予惩罚。

这样,面对“不可预知的严重后果”,现代伦理的两大流派——道义论和目的论——就都有一个在行为的过程和结果出现之前就预先防范的任务。道义论不能满足于只是在行为规范和过程的正当性上严防死守,也要考虑对行为动机进行有效地遏制;目的论也不能满足于只是抱有良好的目的并进行后果的评价,还要审视自身的目的动机,并谨防使用不当的手段来达到目的。

从人类整体进入到了一个高科技的时代来看,我认为似乎可以将目前人类文明的一个基本的、持久起作用的矛盾概括为人类不断快速增长的控物能力与自控能力的日益不相称。控物能力是指人向外用力,对外物有办法,表现为科技和经济;自控能力是指人向内有力,对自己有办法,表现为精神和道德。科技的发展目前看不到什么限度,或者说还有非常广阔的空间和提升的可能,但是道德的发展却会遇到人性的瓶颈,即人不可能成为天使。这并不是说现在的人比以前堕落、道德严重滑坡,而是只要人的道德自控能力不可能普遍提升到一个很高的程度,那么他所掌握的控物能力越大就越危险。人希望达到全能,但却永远达不到全善。人的这两种能力的不相称是一个根本的、近代以来始终存在,日后还很有可能加重的矛盾。而造成这一基本矛盾的原因,一方面是人对物质和身体的各种欲望在近代以来一直得到不断强化,平等释放了各种欲望,而物质的欲望渐渐成为主流,好新骛奇还在不断开发和刺激新的欲望;另一方面则是人类精神的注意力也转向了物质,本来可以驯化和节制欲望的各种制度和精神文化因素在不断弱化。

我们对现代伦理所期望的也许还有更多,即希望正当与好、规范与价值、道德与信仰能有一种比此前更紧密的结合,从而不仅让精神能够对道德的规则予以一种更强有力的支持,而且能帮助人们更注意生命的丰富和建立一种不那么物化的幸福观。

编辑:吴悠

分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表