传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 237|回复: 0
打印 上一主题 下一主题

脑机接口与增强智能的伦理倡议

[复制链接]
跳转到指定楼层
楼主
发表于 2021-10-14 13:38:05 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式


本文英文版2021年1月19日以Declaration on the ethics of brain–computer interfaces and augmentintelligence为题在线发表于Springer出版社期刊AI and Ethics,并于2021年8月在该刊第一卷第3期正式刊出。英文版链接https://doi.org/10.1007/s43681-020-00036-x 此处为中文翻译版。
脑机接口(Brain Computer Interfaces,简称BCI)是脑科学与人工智能的交叉领域,有侵入性脑机接口和非侵入性脑机接口两类。侵入性脑机接口目前主要面向医疗领域,解决脑疾病、脑损伤患者的认知功能障碍。非侵入性脑机接口目前主要面向普通消费市场,用于增强和拓展人类认知功能。
脑机接口是修复、增强、扩展、延申人类智能的颠覆性技术,是实现增强智能(Augment Intelligence)的重要手段之一。增强智能的目的是作为辅助技术增强人类的智能与认知能力,而并非取而代之。脑机接口与增强智能技术的初衷之一是为了帮助患有运动神经功能障碍的病人[1]。当今的脑机接口技术除用于治疗伤害和疾病外[2],还可用来做游戏控制[3],帮助残疾人控制轮椅[4],帮助和提高学习效果[5],以及在军事领域应用[6]。
脑机接口技术虽然总体上前景广阔,特别是在医疗和扩展人类认知方面。但其发展目前处于非常初步的阶段,基于现有脑机接口技术的应用有很多存在不可控的风险。深部脑刺激(Deep Brain Stimulation,DBS)是一种用于治疗帕金森、严重强迫症、严重抑郁症等疾病的脑机接口技术,使用该方法治疗存在伤口感染、感觉异常、异常癫痫发作、脑出血、偏瘫、脑梗死、以及医源性伤害等风险[7,8]。
虽然这个领域近期的若干进展是令人鼓舞的[9],可一旦脑机接口技术足够成熟,能够实现不同类型的读心术任务并应用于各种场景,那么个人的所思所想也就再难保持私密,这对个人隐私和人类的主体性将提出重大挑战。此外,我们应当如何对待与利用脑机接口技术提高记忆和学习能力或提高身体行动能力的人并和其相处?被增强能力的人将比普通人获得更多利益是否公平?这些已经出现和可能出现的由脑机接口技术引发的伦理问题只是冰山一角。
倡议:
我们提倡发展以人为本,可持续发展的脑机接口与增强智能技术,确保相关技术与应用促进人类的繁荣。在深度融合已有伦理考虑的基础上[2,10,11,12,13],我们发出如下倡议:
1.  保护用户隐私:进行脑机接口科学实验和技术服务时,应注意大脑数据采集和解析的边界,如果获取到与用户相关的疾病信息、潜在健康隐患信息、以及其他用户隐私相关信息(如不愿意通过言语表达,而通过脑机接口设备获取的信息),应当对上述信息进行合理处理,应用上述信息要做到用户的知情同意,并提供用户授权撤销的机制。
2.  身份与责任认同:脑机接口技术有可能影响和动摇人类关于自我和个人责任的认知,包括道德责任和法律责任(例如人类在使用脑机接口技术相关设备时,由于训练不充分,使用者注意力不够集中[14]、黑客入侵、脑机接口设备故障等情况都有可能对外部环境和其他人类造成伤害,这些并非使用者的主观意愿)。因此,当应用脑机接口技术,特别是侵入性脑机接口技术于人体时,需要密切关注用户对于自我认知、身份认同和责任认同的变化,防止脑机接口技术对人类身份和责任认同的负面影响。
3.  决策能动性:脑机接口技术和增强智能设备在未能充分证明其低于人类水平的社会风险情况下,应避免应用于替代和削弱人类决策能力,人类的决策、判断能力的能动性应当予以尊重和维护。
4.  设备安全风险:脑机接口技术存在因设备植入或接触设备对人体造成感染、头疼等伤害[13],也会因其设备技术漏洞或设计缺陷等造成被人利用、容易出现故障等问题。因此,应做到必要的关键技术公开与透明以降低潜在风险,不断提升脑机接口设备的稳定性、安全性、自适应性,可靠性,尽可能避免设计漏洞对用户、其他人类及环境引起的负面负效应。脑机接口设备应当设置合理的安全机制与途径,尽可能避免可能产生负面负效应意图的实施。
5.  知情同意:脑机接口与增强智能产品与服务提供方需明确告知用户相关产品与服务的潜在风险并明确征得用户(若用户为患者可授权其他人,如家属)同意。用户(若用户为患者可授权其他人,如家属)有权提出中止使用相关产品与服务,相关服务提供商(包括医疗机构)应当遵循用户意愿做出相应调整。
6.  可问责:脑机接口与增强智能技术应当确保设计、研发、使用、部署等阶段可问责。关键技术应做到必要的公开,系统相关组成部分具有必要的透明性、可解释性、可预测性、能够确保故障、风险的可追溯。
7.  公平性:脑机接口与增强智能具备让使用者获得更强的认知和运动等能力的潜力,在同没有条件使用该技术的普通人竞争中有可能获得明显优势。发达地区、高收入人群比落后地区、普通人更容易获得脑机接口与增强智能技术增强其社会优势地位,进而有可能出现拉大贫富差距,形成就业、教育等社会活动中的各种不公平现象。因此,需要关注脑机接口技术增强现有人类智能带来益处的同时,可能引起的公平性争议。特别是在教育、竞争性工作、资源分配等相关领域应尽可能避免由于应用脑机接口与增强智能技术带来的不公平隐患。
8.  避免偏见:通过脑机接口等增强智能技术修复、增强的人类思维与行为可能与未应用相关技术的人类有所差异,但不应对应用脑机接口与增强智能技术的人产生偏见,并应充分尊重相关用户,不损害其尊严,确保其一切应有权利。
9.  适度使用:由于脑机接口与增强智能诸多方面目前仍处于发展初期,特别是相关设备的成熟度仍有待提高,并且其对人类的长期影响尚不明确。因此脑机接口与增强智能产品与服务的使用应遵循适度原则,建议经谨慎论证与评估,在必要的情况下使用,尽可能最小化对人类造成的负面影响。
10.避免误用:避免在对脑机接口与增强智能产品与服务潜在负面影响没有足够了解情况下应用相关产品与服务。避免在对相关产品与服务适用范围不了解情况下进行不恰当的应用。
11.禁止滥用和恶用:禁止滥用脑机接口与增强智能产品与服务侵害他人尊严和基本权利。禁止滥用相关技术破坏社会稳定、信任、公正、团结与和平。禁止恶意应用脑机接口与增强智能产品与服务从事不法活动或谋取不正当利益。禁止利用脑机接口与增强智能产品与服务的漏洞从事不法活动或谋取不正当利益。使用者不应滥用相关技术来规避自身责任。
12.多利益相关方治理:脑机接口的伦理问题需要来自脑与神经科学、医学、人工智能、材料学、电子工程、哲学、伦理学、社会学等诸多领域的相关学者和研究机构、技术创新企业及公众共同研讨并长期关注,各个国家、政府间组织等应当以民主的方式逐步建立多利益相关方参与的脑机接口与增强智能治理框架与机制,并进行实践与评估,从而为不断完善脑机接口与增强智能伦理及其落地提供支持。
伦理原则的制定只是负责任发展脑机接口与增强智能技术的起点。更重要的是从技术和社会角度践行原则,并建立行之有效的评估机制确保原则如预期地有效落实[15]。
脑机接口和增强智能系统不同于传统工具,例如刀这种仅有非常有限安全和风险防范措施的工具(如刀无法识别对人类和其他生物的潜在伤害并避免它们)。而脑机接口和增强智能系统的服务提供商应该更负责任,承担更多责任。为此,脑机接口和增强智能系统应设计有监控功能或相关组件,可用于监控和帮助避免对他人的特定类型的潜在伤害。因此,如果脑机接口和增强智能系统的用户意图采取行动伤害他人(甚至是自己),为应对此类风险,则应逐步设计和实施这种监控和风险防控机制与组件,并由此协助避免执行可能的负面意图实施,例如伤害他人。
缺乏合乎伦理考虑的脑机接口与增强智能研发与使用将极大降低公众对创新性技术的信任和接受程度[16],并有潜在风险对人类社会产生不可逆转的负面影响。在脑机接口与增强智能产品与服务的全生命周期嵌入伦理考量,并持续性进行多利益相关方的治理才能够确保相关技术的可持续发展,进而才能够确保相关技术应用促进人类社会的可持续发展,并最终为人类的繁荣和人类社会的可持续发展做出贡献。
参考文献:
[1]M. Lebedev, “Brain-machineinterfaces: an overview,” Translat.Neurosci., vol. 5,no. 1, pp. 99–110,Mar. 2014, doi: 10.2478/s13380-014-0212-z.
[2]P.R. Wolpe, “Ethical and Social Challenges of Brain-Computer Interfaces,”AMAJournal of Ethics, vol. 9, no. 2, pp. 128–131, Feb. 2007,doi:10.1001/virtualmentor.2007.9.2.msoc1-0702.
[3]V.al Conocimiento, “Video Games Controlled by Thoughts,” OpenMind, Mar.04,2020.https://www.bbvaopenmind.com/en/ ... rolled-by-thoughts/(accessedNov. 17, 2020).
[4]J.Tang, Y. Liu, D. Hu, and Z. Zhou, “Towards BCI-actuated smartwheelchairsystem,” Biomed Eng Online, vol. 17, Aug. 2018,doi:10.1186/s12938-018-0545-x.
[5]M.Spüler, T. Krumpe, C. Walter, C. Scharinger, W. Rosenstiel, and P.Gerjets,“Brain-Computer Interfaces for Educational Applications,” inInformationalEnvironments : Effects of Use, Effective Designs, J. Buder and F.W. Hesse,Eds. Cham: Springer International Publishing, 2017, pp. 177201.doi:10.1007/978-3-319-64274-1_8.
[6]The US military is trying to read minds. MIT Technology Review(2020).https://www.technologyreview.com ... omputer-interfaces/(accessedNov. 17, 2020).
[7]A.J. Fenoy and R. K. Simpson, “Risks of common complications in deepbrainstimulation surgery: management and avoidance: Clinical article,” JournalofNeurosurgery, vol. 120, no. 1, pp. 132–139, Jan. 2014,doi:10.3171/2013.10.JNS131225.
[8]F.Gilbert and M. Lancelot, “Incoming ethical issues for deep brain stimulation:whenlong-term treatment leads to a ‘new form of the disease,’” Journal ofMedicalEthics, p. medethics-2019, May 2020, doi:10.1136/medethics-2019-106052.
[9]Elon Musk’s Neuralink is neuroscience theater. MIT TechnologyReview.https://www.technologyreview.com ... uroscience-theater/(accessedDec. 01, 2020).
[10]R.Yuste et al., “Four ethical priorities for neurotechnologies and AI,”NatureNews, vol. 551, no. 7679, p. 159, 2017.
[11]A.Coin, M. Mulder, and V. Dubljević, Ethical Aspects of BCI Technology:What Isthe State of the Art?,Philosophies, vol. 5, no. 4, Art. no. 4, Dec.2020, doi:10.3390/philosophies5040031.
[12]A.Coin and V. Dubljević, TheAuthenticity of Machine-Augmented HumanIntelligence: Therapy, Enhancement, andthe Extended Mind,Neuroethics,Oct. 2020, doi: 10.1007/s12152-020-09453-5.
[13]L. Drew, “The ethics of brain–computerinterfaces,” Nature, vol. 571, no. 7766,Art. no. 7766, Jul. 2019, doi:10.1038/d41586-019-02214-2.
[14]J. Kögel, R. J. Jox, and O. Friedrich,“What is it like to use a BCI? – insightsfrom an interview study withbrain-computer interface users,” BMC Med Ethics,vol. 21, Jan. 2020,doi: 10.1186/s12910-019-0442-2.
[15]O.O’Neill, From Principles to Practice: Normativity and Judgement in EthicsandPolitics. Cambridge: Cambridge University Press, 2018.doi:10.1017/9781316286708.
[16]O.O’Neill, Autonomy and Trust in Bioethics. Cambridge: CambridgeUniversityPress, 2002. doi: 10.1017/CBO9780511606250.
支持:本研究得到中国科学技术部以及北京市科学技术委员会相关研究经费支持。
原文作者信息:
曾毅1,2,3,4、孙康1、鲁恩蒙1
1.  中国科学院自动化研究所
2.  中国科学院脑科学与智能技术卓越创新中心
3.  北京智源人工智能研究院
4.  中国科学院哲学研究所
来源:智能的本质与未来
编辑:古凤

分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表