传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 学术经纬 查看内容

人工智能“合乎伦理设计”的实现路径探析

2020-1-7 16:25| 发布者: 刘海明| 查看: 116| 评论: 0|原作者: 闫坤如(华南理工大学 马克思主义学院,广东 广州 510640)|来自: 大连理工大学学报(社会科学版)

摘要: 链接:http://m.chaoxing.com/mqk/read_38502727e7500f2662552e2187cb8d4d428b358fc5e736561921b0a3ea255101fc1cf1fbb4666ae615e48b2e8ef154f8c1e6f657ad9b1755dd815733d04fb921ea2f532f313415043e5dda035e5e1895?ui ...

摘选自发表于《大连理工大学学报(社会科学版)》2019年第6期



要: 人工智能设计是为了满足设计主体的目的而设计出智能机器。人工智能设计体现设计者的意愿,关注设计的目的、行为以及人工物的功能。与其他技术人工物不同,智能机器具有智能属性及自身推理能力。为了更好地设计人工智能客体,充分发挥人工智能的功能,伦理学家与技术哲学家不能袖手旁观,人工智能设计应该遵循“合乎伦理设计”。人工智能设计主体必须在设计之初把人类道德与规范嵌入到智能机器算法中,从而使得人工智能系统的决策、行为具有可靠性与安全性。通过法律、法规的“他律”与伦理道德的“自律”甚至智能设计机器的“物律”相结合来规范人工智能的发展。

 

关键词: 人工智能;设计;合乎伦理设计;价值敏感性设计

 

21世纪以来,以智能机器为代表的人工智能飞速发展,技术的飞速发展使得人类遭遇“后人类同伴”,也引发人类担忧。人工智能技术发展带来的社会影响以及潜在风险也引发学者关注,人工智能的哲学问题特别是伦理问题也引发学者思考。例如,大数据在营销、医疗、教育等不同领域广泛应用,却带来数据共享与隐私悖论,带来侵犯个人隐私等伦理问题;机器学习的应用让AlphaGo战胜世界围棋冠军棋手,却带来了机器智能超越人类智能的担忧等。学者开始对人工智能规范发展与合理利用等问题进行思考。设计作为人工智能的逻辑起点更引起了学者关注,我们试图从人工智能技术设计的本质、人工智能的逻辑起点以及人工智能的“合乎伦理设计”等方面关注与规范人工智能的发展。

 

一、“合乎伦理设计”的内涵及重要性分析

 

1.“合乎伦理设计”的内涵

 

2015年,美国电气与电子工程师协会(Institute of Electrical and Electronics Engineers,简称IEEE)首次提出“合乎伦理设计”(Ethically Aligned Design,简称EAD)理念。它旨在解决人工智能和自主系统使用发展的伦理问题,201612月发布第1版“合乎伦理设计”倡议。201712月,美国电气与电子工程师协会发布第2版“合乎伦理设计”报告,报告名称为《合乎伦理设计:利用人工智能和自主系统优化人类福祉的愿景》(Ethically Aligned Design:A Vision for Prioritizing Human Wellbeing with Artificial intelligence and Autonomous System),呼吁将人类规范与道德价值观嵌入人工智能系统中,在人工智能发展过程中关注人工智能的设计正义性,避免人工智能设计的不公平、使用的不公平、算法歧视等社会问题。设计是人类价值的物化与具象化,人工智能设计的目的是设计出能够自己行动、判断,甚至具有自我推理能力以及决策能力的技术人工物,应该遵循人类道德规范与基本权益。201712月,在浙江乌镇举办的世界互联网大会上,苹果公司首席执行官库克(Martin Cooper)也表达了要把更好的人性与价值观嵌入到人工智能技术中去的想法。美国电气与电子工程师协会的人工智能“合乎伦理设计”的宗旨是让智能机器能够符合人类的道德价值与伦理原则,认为人工智能设计至少应该包括5个原则:“人类权利”、“福祉”、“问责”、“透明”和“慎用”。所谓人工智能设计中的“人类权利”原则是确保设计的机器不侵犯国际公认的人类权利;“福祉”原则指的是在智能机器由设计与使用中优先考虑人类福祉,至少不能伤害人类;“问责”原则是智能机器的设计者与操作者负责并且可问责;“透明”原则指的是智能机器的设计以透明的方式运行,并且智能机器嵌入的道德规则接受公开透明的评估与监管;“慎用”原则是将滥用的风险降低到最低点。

 

2.人工智能设计负载设计者价值

 

在人工智能的整个设计阶段中都包含着价值因素,设计过程是设计主体依靠价值理性与工具理性进行判断与决策的过程。智能人工物是合目的性与合价值性的统一体,人工智能设计是为了达到设计主体的目的而创造出智能人工物的过程。智能人工物是内在价值与工具价值的统一体。人工智能技术人工物可以同时具有工具价值与内在价值。例如,一个机器人作为在木板上钉钉子的有用工具,具有工具价值,同时作为一个有用的事物又具有内在价值。人工智能设计中也包含着价值冲突与不可通约性价值,这表现在设计结果背离设计者初始价值。例如,汽车的设计者与使用者都没有想到交通事故的发生以及环境污染问题,但是汽车设计与使用可能导致交通事故与环境污染。人工智能设计中的价值冲突还表现在功能、用途等价值获取是以对其他一部分功能、用途的放弃为前提。例如,汽车安全带是为了保障车内人的安全,但是放弃了车内人员随意活动的自由。汽车设计轻便达到节能环保的目的,但可能存在安全隐患。智能机器是特殊的人工物,人工智能技术的发展带来新的伦理问题。例如,如果人工智能获得与人类相近或者相同的思维能力和推理能力,如何界定人工智能和人类的道德地位将面临伦理挑战;机器道德与计算机伦理学者共同关注新的重要的话题:数据挖掘软件引发对隐私标准的新界定;军用机器人的应用引发如何权衡机器人及其生存权利的思考;利用大数据杀熟带来的公平问题的思考;机器学习与图像识别技术让无人驾驶汽车轻松上路,却带来机器设计道德上的伦理困境的思考等等。设计中往往存在着价值冲突,甚至不同设计者之间的价值也是相互冲突的,如何实现智能人工物的工具价值与内在价值的统一呢?价值因素又如何内化于智能人工物呢?这需要人工智能设计者进行道德选择。人工智能设计者在设计中如何进行道德选择的呢?唐凯麟认为:“道德选择是指主体面临着多种道德上的可能时,在一定的道德意识的支配下,根据一定的道德价值标准,自觉、自愿、自主、自决地进行善恶取舍的行为活动。”[1]价值是设计的核心,在人工智能设计中应把工具理性与价值理性结合起来。如果想避免设计中的价值冲突,智能人工物不能仅仅满足解决技术难题以及实现功能性目标,还必须使得设计的智能人工物符合人类的价值要求,自人工智能的设计之初就应该将人类相应的价值规范纳入考量。

 

3.人工智能“合乎伦理设计”重要性分析

 

人工智能的“合乎伦理设计”引发学界思考。如鲍曼(Zygmunt Bauman)所言:“我们生活在一个碎片化与充满模糊性的时代,我们比过去任何时代更迫切的需要伦理。”[2]人工智能机器与算法具有自我推理与决策能力,人工智能的功能由人工智能的算法决定,智能机器通过算法对环境中的数据进行分析,从而做出相应的决策与表现出同样的行为。在人工智能中嵌入人类的价值观与伦理原则显得尤为重要。首先,只有坚持人工智能的“合乎伦理设计”才能有效规避人工智能风险,人工智能机器的应用应该保障人类生命、财产安全。例如,2016年,谷歌Lexus无人驾驶汽车发生事故;2018年,特斯拉无人驾驶汽车的Autopilot模式引发交通事故; 2018年,Uber无人驾驶汽车致人死亡事故等。这些事故都由无人驾驶汽车程序设计问题引发,应该在设计之初嵌入紧急制动算法,规避人工智能风险。2016年,中国国际高新技术成果交易会上,集“自主导航、双目视觉、自然语义理解”等多项功能的陪伴型机器人“小胖”伤害无辜路人,也是因为在机器人中缺少误操作“自我关闭”程序所致,人工智能专家在设计之初就应该把“不伤害原则”嵌入到机器人中,从而保障机器人使用的安全。其次,智能机器是由人类设计出来的,如何让机器按照人类的伦理规则运行是不可回避的问题。从技术层面来讲,在人工智能的设计之初,应该在人工智能设计中嵌入人类道德,特别是嵌入人类“善”的道德规范与道德理念,使人工智能与人类具有共同的行为;应该在智能系统的设计中充分参考并融入人类的伦理价值,像约束人类行为一样约束人工智能机器的行为。设计之初的伦理缺失会影响到人工智能机器的属性与功能,阻碍人工智能的良性发展,因此,人工智能的发展迫切需要在设计之初嵌入伦理规范与道德规则。只有坚守“合乎伦理设计”的底线,才能保障人类的基本权利,才能规范人工智能机器与程序的合乎伦理发展。

 

二、“合乎伦理设计”是人工智能设计的逻辑起点与本质要求

 

设计是为了满足设计主体的需要创造出世界上本不存在的人工物的过程。本文从人工智能设计的本质、人工智能设计的逻辑以及人工智能设计负载设计者的价值等方面阐释“合乎伦理设计”。

 

1.人工智能“合乎伦理设计”符合设计的“结构-功能”关系

 

不同的学者对于技术设计具有不同的界定。飞机设计师文森蒂(Walter. G.Vincenti)在《工程师知道什么以及他们是如何知道的——基于航空史的分析研究》一书中指出:“人工物的设计是直接服务于人类一系列实践目标的社会活动。”[3]设计活动是具有目的性的活动。人工智能的设计亦是如此,也是为了达到设计者的目的设计出具有类似人类智能功能的某种技术人工物的过程。1995年,罗森博格(Roozenburg N F M)与埃克尔斯(Eekels J)在《产品设计:基本原理与方法》一书中把设计界定为一种功能转化活动,他们认为设计是所需功能转化为实现这些功能的物体的结构描述活动[4]。在人工智能设计中结构与功能缺一不可。例如对于一个智能机器而言,设计它的目的是什么?为了情感需要、减轻劳动负担或者为了避免战场上的人员伤亡?为了达到这些目的而设计出情感机器人、工业机器人以及军用机器人等。这个智能机器由几部分构成、由什么材料制作而成、各部分比例是多少,这是关于人工智能机器的结构性描述;具有看护病人、收拾家务或者情感陪伴等则是功能性描述。设计中结构描述与功能描述必不可少。设计是为了功能达到使用者的目的。“设计中的功能要素,始终是原始设计的主导因素”[5]。在人工智能设计过程中也应该包括结构描述与功能描述。荷兰技术哲学家克罗斯(Peter Kroes)指出:“功能描述自身与结构描述自身都不能完整地描述一个技术人工物的设计;功能设计忽视结构设计的同时,结构设计也缺少了功能设计特性,这就表明在描述人工物时,结构与功能特性都是工程实践中必不可少的。[6]”人工智能设计是根据设计主体需要创造出智能机器的过程,必须关注设计的结构与设计的功能特性。人类技术行为的主要结果是设计和制造了各种人工物的过程,盖罗(John S. Gero)在《人工智能》一书中提出设计的“功能-行为-结构” 模型(Function-Behavior-Structure,简称FBS模型)[7],提出以人工智能设计为中心的功能观,把设计与功能紧密地结合在一起。在FBS模型中,盖罗把设计者的意图作为设计过程的起点,他认为设计是从意向行为(即功能)到正在形成的人工物结构的一种映射(mapping)。人工智能不同流派基于不同的研究思路,联结主义采用结构模拟的方式,符号主义采取功能模拟的方式,行为主义采取行为模拟的方式,但不管哪种技术路线与研究思路都是通过构造智能人工物的结构来达到某种智能功能的过程,结构与功能关系是人工智能设计的本质所在。

 

2.“合乎伦理设计”是人工智能设计的逻辑起点

 

设计在智能机器中占有首要地位,人工智能包括语音识别、深度学习、智能机器、无人驾驶等人工物都是先有设计目标与设计理念,才可能设计出人工智能物。人工智能的设计伦理在智能机器伦理中居于首要地位,设计是人工智能的逻辑起点。机器伦理学家阿萨罗(Peter M Asaro)在智能机器伦理中提到3点:“首先,如何设计机器人的行为伦理;其次,人类如何在人工智能伦理中承担责任;再次,从理论上讲,机器人能成为完全的道德主体吗?[8]”机器伦理首先应该关注的是设计智能机器的行为伦理,人工智能设计除了关注人工智能物的结构性描述与功能性描述之外,还要关注设计者行为,“所谓一个主体是物品X的使用计划p的设计者d,当且仅当:d已经设计了p,目的是使其他主体实施行动p以达到目的,d有意向地选择x作为要操作的物品,成为实施p的一部分[9]”。首先,人工智能的功能与设计者的目的有关,智能机器设计的目的是为了达到某一个体现设计者目的的具体功能。例如机器翻译是从一种源语言翻译成目标语言的过程,目的是提供便捷的翻译服务;数据挖掘是为了更好地对数据进行分类、聚类、关联以及预测;深度学习基于人工网络模型,目的是为了发现数据的分布式特征等等。这都说明人工智能设计包含了设计者的目的。其次,设计智能人工物体现了设计者的意愿。人工智能的设计是为了达到设计者的目的,从而设计出智能人工物的过程。人工智能设计在构造人工智能的物理结构中处于起点,在人工智能设计行为序列中居于优先地位。因此,人工智能设计者的设计理念与设计行为在人工智能的技术设计中居逻辑起点地位。人工智能的设计必须以“合乎伦理设计”为根本出发点。

 

3.“合乎伦理设计”是人工智能设计的本质要求

 

设计是为了达到设计者的目的,设计活动是理念在先的活动,设计理念决定了设计的产品特性与功能。因此,人工智能设计要求在设计之初考虑其中的伦理问题。伦理是人工智能发展的前置性规范。人工智能设计最终是为了人类的福祉,设计的目的是为了人,因此,人工智能设计基础也应该以人为本,在人工智能设计中优先考虑伦理问题,人工智能设计要符合人类的价值观和伦理原则。人工智能设计首先要尊重人的基本权利,以不侵犯人的基本权利为人工智能设计的根本出发点。人工智能要坚持安全性的设计原则,设计的智能机器不能威胁到人类的主体性地位。除此之外,智能机器的应用也不应该扩大人与人之间的差距,因此,在人工智能设计中应该坚持公平性原则。只有在人工智能中坚持“合乎伦理设计”规范,才能更好地发挥人工智能的积极作用。通过上述论述,我们可以看出,“合乎伦理设计”既是人工智能发展的保障,也是人工智能发展的要求;“合乎伦理设计”既是人工智能的最终目的,也是人工智能的出发点;“合乎伦理设计”既是人工智能的“定盘星”,也是人工智能的“北斗星”;“合乎伦理设计”既是人工智能的“基线” “底线”,也是人工智能发展的“防线” “高压线”;“合乎伦理设计”既是人工智能的“先手棋”,也是人工智能发展的“助推器”。为了人工智能的规范发展,在设计之初,必须坚持“合乎伦理设计”这个本质规定与最终追求。

 

三、人工智能“合乎伦理设计”的实现路径分析

 

人工智能设计需要规范设计主体,需要关注设计过程,评估设计的结果。只有在人工智能设计中提倡设计主体的责任、遵循人工智能合乎伦理设计的路径,才能保障人工智能设计的智能机器的安全,实现人工智能“合乎伦理设计”的目标。

 

1.人工智能设计关注设计主体的责任意识

 

随着智能机器在深度学习能力、语音识别能力、大数据以及云计算处理速度等能力的不断加强和运用,智能机器人在社会交往、自然语言理解能力、商业价值等方面不断突破,人工智能推动社会进步的同时也带来负面效应。为了规避人工智能的负面效应,应该关注与提倡设计主体的责任。汉斯·乔纳斯(Hans Jonas)在《责任原理》中明确提出,科技进步远远高于伦理进步,必须建立一种新的伦理维度,即发展一种预防性、前瞻性的责任意识,通过提高设计主体的责任来约束与规范人工智能技术发展。翟振明提出 :“在人工智能的忧虑中,最为值得关切的是人工智能的应用伦理及其价值植入的技术限度。”[10]机器设计技术以智能机器为中心,注重人工智能的功能设计,以人工智能产品为中心,属于价值创新过程。设计又处于关键的首要环节。同时,设计也是改变世界的有利工具,不但可以改变环境,而且可以重塑社会与自我。在人工智能的设计阶段就应该嵌入“善”的道德,保障人工智能算法程序的公平正义。设计伦理学注重设计中的道德问题,以人为中心,注重设计的责任问题。技术哲学价值论研究必须关注设计者信念、行为以及设计者在技术实践中的作用与责任等主题。设计者应该关注两个方面的道德:第一,一般的社会伦理道德;第二,人工智能设计师的职业道德。人工智能设计伦理研究人工智能的设计和制造应遵循的伦理准则。首先,人工智能的设计与社会价值观保持一致;其次,人工智能社会伦理主要研究如何善用和阻止恶用人工智能,使人工智能造福于人类。这就要求提高设计者的责任意识,设计者明确道德选择标准。

 

2.人工智能设计以保障安全性为伦理准则

 

人工智能技术具有不确定性和潜在风险性因素。“科学家们应该认识到机器人或是其他高科技人造物,能够对社会的发展造成影响,这个影响可能与技术设计的初衷相违背。”[11]人工智能设计的理论基础也可能是错误的,“有些情况下,科学可能是有用的,但是很难预见潜在的错误后果,灰色区域必须经过逐一讨论,灰色区域的存在并不能否定基本论点:当非认识后果的错误不能预见时,非认识价值是科学推理的必要组成部分。[12]”因此,人工智能设计必须在经过验证的科学理论基础上保障设计安全。雅博尔斯基(Roman V. Yampolskiy)在论文《人工智能安全工程:为什么机器伦理是错误的》中呼吁,关注机器人的自我系统的安全性,加强对于智能机器的安全性研究,提高智能机器的安全性与可靠性,削弱人工智能的风险和负面影响。克罗斯曾经给出安全性的可操作性标准:“‘X用于做Y是安全的’,这可能意味着一种事实陈述,X满足做Y时所需要的可衡量的标准。然而,即使在这种情况下,似乎这些陈述中包含评价性因素,即建议当某人想做Y时应该使用X。此外,可操作性的接受意味着效果(effect)的价值判断,即操作安全概念是道德可接受的。”[13]安全性的一个可操作标准必须基于道德的可接受基础之上。

 

人工智能的设计者应对人工智能设计进行技术预见,对可能出现的伦理问题做出足够的论证。这是设计者们在人工智能设计中需要提前考虑的问题。智能机器设计者要有产品责任意识,遵守国家安全标准以及行业标准,以确保智能机器的使用安全,确保智能机器始终能够为全人类的利益与福祉高效率地服务。人工智能安全性的设计标准也会随着价值的改变而改变。荷兰代尔夫特理工大学的波尔(Ibo van de Poel)提出,设计要根据新价值的出现以及改变从而改变设计规范与要求:“①新价值观的出现;②改变与某项技术设计有关的价值;③改变价值的优先权或相对重要性;④改变如何概念化的价值观;⑤更改的指定方式,并转换为规范和设计需求。[14]”这要求人工智能安全设计的道德可接受标准也要随着价值的转变而相应地发生改变。例如,汽车的设计主要考虑车内人的安全,无人驾驶汽车的设计除了考虑车内人的安全之外,还要考虑路上行人的安全。人工智能设计的安全性考虑到当时的道德可接受标准。只有保障人工智能的安全,人工智能才是人类可信赖的。20181230日,欧盟通过《欧盟可信赖人工智能的伦理准则》,把“尊重隐私” “稳健性” “安全” “透明”等设计原则作为可信赖的人工智能的伦理准则,认为人工智能系统应该保障设计与使用的安全。20194月,中国国家人工智能标准化总体组通过《人工智能开源与标准化研究报告》和《人工智能伦理风险分析报告》两个政策性文件,对人工智能算法风险、数据风险以及人工智能引发的社会伦理风险进行分析,提倡为了保障人工智能的安全应该对人工智能伦理风险进行定期评估,提出人工智能开源与标准化联动的思考。

 

3.人工智能的“合乎伦理设计”的伦理进路

 

人工智能设计具有两种不同的伦理规范进路:一种是职业伦理进路,这是一种“外在主义进路”,技术发展引发新的伦理问题,宗旨在于对人工智能技术进行归纳批判;另一种由荷兰技术哲学家波尔等人提出的“内在主义进路”,即人工智能设计致力于关于技术发展的一种更加内在主义、经验性的观察,考虑设计过程本身的动态性并探讨该语境下产生的伦理问题[15]。人工智能技术发展会带来新的伦理问题,同时,人工智能技术也可以作为解决伦理问题的手段。

 

“合乎伦理设计”是将特定群体认可的价值观与道德标准程序化为道德代码,嵌入人工智能系统,同时内置道德决策场景的指导性抉择标准。1992年,美国华盛顿大学的弗里德曼(Batya Friedman)与卡恩(Peter Kahn)提出“价值敏感性设计(Value sensitive design)”。价值敏感性设计的目标是在设计中系统地融入道德价值,强调在信息系统设计和人机交互领域的设计之中嵌入道德价值,以发挥人工物对人的行为的道德引导作用。人工智能技术本身不是闭环系统,对于人工智能的价值反省与伦理追问也处于发展阶段。因此,人工智能算法的设计者在算法设计之初保持对价值的敏感性,在设计之初预测人工智能算法可能带来的伦理风险与社会问题,保障人工智能算法的安全。人工智能“合乎伦理设计”就是在人工智能设计中嵌入道德,让人工智能算法以及社会应用符合人类的道德规范。人工智能发展是为了满足人类的福祉,而不能让人工智能的研发与应用处于失控状态,因此,在人工智能的设计与应用过程中,伦理学家不能成为技术道德维度的旁观者,“伦理学家在评估和发展技术与新兴技术方面发挥建设性作用”。[16]

 

人工智能的“合乎伦理设计”应该遵循以下路径:“首先,识别特定社会或团体的规范和价值;其次,将这些规范和价值编写进人工智能系统;再次,评估被写进人工智能系统的规范和价值的有效性,即评估嵌入人工智能系统的规范与价值是否和现实的规范和价值相一致、相兼容。[17]”在设计中明确设计的规范与要求,在智能系统中嵌入“善”的道德理念,将特定群体认可的价值观与道德标准程序化为道德代码,嵌入人工智能系统。同时,对智能系统进行道德训练,在人工智能的设计中必须先识别抽象的伦理原则,并在人工智能设计中实现具体的伦理价值。通过完善设计的标准,避免人工智能技术异化,体现用物者尊严,通过人工智能的设计,应该保护人类在社会与工作中的尊严、完整性、自由、隐私与安全。在人工智能的设计中保障人的尊严、自由、隐私,保障智能物的安全,保障福祉、问责、透明,把伦理价值规范与法律规范等变为可以执行的设计标准来规范与约束智能机器的发展,通过伦理调节机器人的行为,使其成为合乎人类伦理的产物。任何设计都负载着设计者的价值,都体现设计者的价值取向,人工智能的设计路径中应该把“善”的设计理念嵌入到智能机器中,把“恶”的理念在设计之初剔除。同时,坚持“合乎伦理设计”也并非基于“性恶论”的道德假设从而对设计进行“道德约束”,而是为了更加规范人工智能设计的道德发展。人工智能设计不能仅仅满足设计者的目的,也需要对人工智能设计进行反思与价值重建,应该从单纯追求功能实现的目的到合乎伦理设计的规范。最后,人工智能的“合乎伦理设计”必须把“善”的理念变为具体可操作的设计规范,这些设计规范应该详细且易于设计者掌握,以便于“合乎伦理设计”的人工智能规范的实施。

 

综上所述,人工智能的“合乎伦理设计”必须立足于对设计本质的追溯与把握,在此基础上,把具体的伦理准则转化为具体的设计标准,这样才能真正实现人工智能的“合乎伦理设计”。对人工智能设计规范的约束不能仅仅局限于法律、法规等他律性约束,还要注重设计者的伦理与道德以及行业的规范,也要关注人工智能物的道德调节作用。通过法律法规的“他律”与伦理道德的“自律”甚至智能机器的“物律”相结合,规范人工智能的发展。

 

参考文献:

 

[1] 唐凯麟. 伦理学[M]. 北京:高等教育出版社,2000:57.

 

[2] 鲍曼. 后现代伦理学[M]. 张成岗,译. 南京:江苏人民出版社,2003:20.

 

[3] VINCENTIW G. What Engineers Know and How They Know It[M]. Baltimore:John Hopkins Press,1990:3.

 

[4] ROOZENBURG N F M,EEKELS J. Product Design,Fundamentals and Methods[M]. Chichester:John Wiley & Sons Ltd,19955.

 

[5] 朱铭,荆雷. 设计史[M]. 济南:山东美术出版社:2004:82.

 

[6] KEOES P. Coherence of structural and functional descriptions of technical artefacts[J]. Studies in History & Philosophy of Science Part A,2006,37(1):137-151.

 

[7] GERO J S. Design prototypes:a knowledge representation schema for design[J]. AI Magazine,1990,11(4):26-36.

 

[8] ASARO P M. Whatshould we want from a robot ethics? [J]. International Review of InformationEthics,2006,6(12):9-16.

 

[9] HOUKES W,VERMAAS P. Actions versus functions:a plea for an alternative metaphysics of artifacts[J]. Monist,2004,87(1):52-71.

 

[10] 翟振明,彭晓芸. “强人工智能”将如何改变世界——人工智能的技术飞跃与应用伦理前瞻[J]. 人民论坛·学术前沿,2016(7):22-33.

 

[11] TZAFESTAS S G. Roboethics A Navigating Overview[M]. Dordrecht:Springer International Publishing Switzerland,2016:66.

 

[12] DOUGLAS H. Inductive risk and values in science[J]. Philosophy of Science,2000,67(4):559-579.

 

[13] KROEA P,MEIJERS A W M. Toward an Axiological Turn in the Philosophy of Technology[M] FRANSSEN M,VERMAAS P E,KROES P,et al. Philosophy of Technology after the Empirical Turn. Dordrecht:Springer International Publishing,2016:11-30.

 

[14] POEL I V D. Design for value change[J]. Ethics and Information Technology,2018(6)1-8.

 

[15] POEL I V D,VERBEEK P P. Ethics and engineering design[J]. Science Technology & Human Values,2006,31(3):223-236.

 

[16] BREY P. Philosophy of technology after the empirical turn[J]. Techné Research in Philosophy and Technology,2010,14(1):36-48.

 

[17] SHAHRIARI K,SHAHRIARI M. IEEE Standard Review-Ethically Aligned Design:A vision for Prioritizing Human Wellbeing with Artificial Intelligence and Autonomous Systems[C] IEEE. Humanitarian Technology ConferenceTorontoCanada,2017:197-201.

 

编辑:冯梦玉


鲜花

握手

雷人

路过

鸡蛋

最新评论

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.