传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
411#
 楼主| 发表于 2020-4-29 20:11:23 | 只看该作者
【案例】



教科文组织国际专家组开始起草第一份全球人工智能伦理建议书

原创HQ  联合国教科文组织  今天
教科文组织国际专家组开始起草第一份全球人工智能伦理建议书
(English version below)

联合国教科文组织总干事阿祖莱于3月任命的24名独立专家已开始起草《人工智能伦理建议书》的初稿。它将成为关于这一重要问题的第一份全球规范性文件。

2020年4月20-24日,按照2019年11月教科文组织193个会员国在第40届大会上赋予教科文组织的任务,专家组举行了文件第一阶段筹备工作的线上讨论。

新冠疫情使我们增加了各种数字技术的应用。这使得关于人工智能发展的现存伦理挑战更加突出。因此,专家组必须开始起草一份规范性文件草案。

——教科文组织总干事阿祖莱强调

针对人工智能设计、开发和应用,专家组初步讨论了以普世伦理准则和人权为基础的一套价值观、基本原则和推荐的政策行动。专家们还强调了以下问题:

低收入国家的关切;
当代和后世的福祉;
人工智能对环境的影响;
《2030年可持续发展议程》;
性别和其他偏见;
国家间和国家内部的不平等;
不让任何人掉队。

事实上,正如国际生物伦理委员会(IBC)和世界科学知识与技术伦理委员会(COMEST)关于新冠疫情的声明所强调的那样:“手机、社交媒体和人工智能等数字技术能够监测、预测和影响疾病的传播和人类行为,从而在应对流行病方面发挥重要作用。关键在于确保使用这些技术带来的伦理、社会和政治问题得到充分解决。人权应始终得到尊重,隐私和自主性与安全的价值观应当得到审慎权衡。”

颠覆性技术带来的伦理挑战由来已久。人工智能有许多潜在的应用能够使未来更加美好,但如果缺乏适当的管理,这些应用也可能带来潜在的威胁。

2020年5月至7月,教科文组织将在国家、地区和国际层面广泛开展多利益相关方在线协商,以确保包括科学家、公民社会和公众在内的所有利益相关方能够参与制定第一份关于人工智能伦理的全球标准文件。随后,专家组将向教科文组织会员国提交一份关于人工智能伦理的包容性规范文件的初稿。教科文组织会员国将在这一初稿的基础上拟定一份最终文本,并在2021年11月进行表决。

关于文件和专家组的更多信息
http://en.unesco.org/artificial-intelligence/ethics
以秉持人类价值观的人工智能助力可持续发展
https://zh.unesco.org/artificial-intelligence
关于科学与技术伦理的更多信息
https://zh.unesco.org/themes/ethics-science-and-technology

媒体联系人:
ClaireO'Hagan
UNESCOPress Service
c.o-hagan@unesco.org


UNESCO’sinternational expert group begins work on drafting the first globalrecommendation on the ethics of AI

Thegroup of 24 independent experts appointed by UNESCO Director-General AudreyAzoulay in March has started work on the first draft of a Recommendation on theEthics of Artificial Intelligence. This will be the first global normativeinstrument on this important issue.

From 20to 24 April 2020, experts took part in online discussions for the first phaseof preparations for the instrument, in line with the mandate given to UNESCO byits 193 Member States at the 40th session of the General Conference in November2019.


TheCOVID-19 pandemic has led us to increase our use of various digitaltechnologies. This has highlighted existing ethical challenges associated withthe development of artificial intelligence. It was therefore important that thegroup of experts began its work on a draft normative instrument.

——stressed UNESCO Director-General Audrey Azoulay


Thegroup of experts discussed an initial set of values, basic principles andrecommended policy actions anchored in universal ethical values and humanrights for the design, development and deployment of AI. The experts alsoemphasized

theconcerns of low-income countries,
thewelfare of present and future generations,
theimpact of AI on the environment,
the 2030Sustainable Development Agenda,
genderand other biases,
inequalitiesbetween and within countries, and
leavingno one behind.

Indeed,as underlined in the IBC-COMEST Statement on COVD-19, “Digital   technologies like mobile phones, socialmedia and artificial intelligence can play a substantial role in dealing withpandemics, by making it possible to monitor, anticipate and influence thespreading of the disease and the behaviour of human beings. It is of crucialimportance to make sure that the ethical, social and political issues relatedto the use of these technologies are adequately addressed. Human rights shouldalways be respected, and values of privacy and autonomy should be carefullybalanced with values of safety and security.”

Theseethical challenges are not new, but rather long-standing concerns related todisruptive technologies. In particular, AI has many potential applications thatpromise to facilitate a better future for all, but also potential risks, if notmanaged adequately.

From Mayto July 2020, UNESCO is organizing extensive multi-stakeholder onlineconsultations at the national, regional and international levels. The purposeof these consultations is to ensure that all stakeholders, includingscientists, civil society and the public, take part in developing the firstglobal standard-setting instrument on the ethical dimensions of AI. The expertgroup will then deliver a first draft of an inclusive normative instrument onthe ethics of AI, which will be considered by UNESCO Member States when theydraft a final text for approval as a global Recommendation in November 2021.

For moreinformation on the instrument and expert group
https://en.unesco.org/artificial-intelligence/ethics
Artificialintelligence with human values for sustainable development
https://en.unesco.org/artificial-intelligence
More onEthics of Science and Technology
https://en.unesco.org/themes/ethics-science-and-technology

Mediainquiries:
ClaireO'Hagan
UNESCOPress Service
c.o-hagan@unesco.org

#COVID19#ShareSciences


编辑:张凉
2020年4月29日




412#
 楼主| 发表于 2020-4-29 20:49:19 | 只看该作者


【案例】

AI大觉醒:图灵奖得主Bengio称AI将产生意识,未来机器学习核心是注意力机制


来源:venturebeat

编辑:梦佳


【新智元导读】人工智能是时候该觉醒了吗?在本周的2020 ICLR 大会上,图灵奖得主Yoshua Bengio针对AI和机器学习的未来阐述了他的最新见解。他讲到未来机器学习完全有可能超越无意识,向全意识迈进。而注意力机制正是实现这一过程的关键要素。「新智元急聘主笔、高级主任编辑,添加HR微信(Dr-wly)或扫描文末二维码了解详情。」



人工智能会产生意识吗?


这是一直以来美剧《西部世界》中探讨的问题。AI主人公觉醒,意识到这个世界是人类杀伐主宰的乐园,于是开启了逆袭之路。


在本周举行的2020年ICLR上,图灵奖得主、蒙特利尔学习算法研究所主任Yoshua Bengio对AI和机器学习的未来提供了最新的见解。他讲到未来机器学习完全有可能超越无意识,向全意识迈进。而注意力机制正是实现这一过程的关键要素。


这位大咖2月份刚刚在纽约的2020年AAAI 会议上与图灵奖获得者Geoffrey Hinton 和 Yann LeCun 一起发表了演讲。而在ICLR的演讲中,Bengio 阐述了他更早之前的一些想法。


注意力机制是啥?


注意力机制来源于人类的视觉注意力,是人类在进化过程中形成的一种处理视觉信息的机制。最简单的例子,比如看一个图片,会有特别显眼的场景率先吸引注意力,因为大脑中对这类东西很敏感。


注意力是神经科学理论的核心,该理论认为人们的注意力资源有限,所以大脑会自动提炼最有用的信息。


在机器学习的语境下,「注意力」指的是一个算法关注一个或同时关注到几个元素的机制。它是一些机器学习模型架构的核心。2017年,谷歌论文Attention is All You Need当中提出了Transformer,一个利用注意力机制来提高模型训练速度的方法。Transformer在一些特定任务中性能表现超过Google之前的神经机器翻译模型。



                              

GoogleTransformer架构


目前,注意力模型(Attention Model)已经在自然语言处理、图像识别以及语音识别等领域取得了最先进的成果,是深度学习技术中最值得关注与深入了解的核心技术之一。注意力模型也是构成企业AI的基础,帮助员工完成一系列认知要求高的任务。


类比人类思维,靠直觉还是靠推理?


Bengio 在演讲中谈到了美籍以色列心理学家兼经济学家 Daniel Kahneman 在他2011出版的开创性著作《思考,快与慢》中提出的认知系统。


            


第一种认知类型是无意识的(快系统),凭直觉,非常快速,非语言性的,基于惯性,它只涉及隐含的知识类型,是人潜意识中的知识,深藏于脑海中。


简单说,这种过程不费脑子,第一反应,直觉地做出回应。比如说,思考1+1=2的过程。


当然这种直觉思考的过程会产生很多偏差,比如说曝光效应,光环效应等。曝光效应一个最明显的例子就是电视广告,天天重复播放的信息给你洗脑,会在人的大脑里构成曝光效应,让你觉得这个产品好。直觉很多时候是非理性的。


第二种认知类型是有意识的(慢系统),基于语言学和算法,要涉及更高级一些的推理和规划,以及显性的知识。换句话说,是需要费力思考的,比较慢,比如说脑内运算158乘以67。


正是快和慢的结合构成了我们人类的思维模式。


Bengio将这个人类的有意识思维和AI进行对比,他指出,有意识的认知系统的一个有趣特征是,它可以在新的情境下,将语义概念进行重组,这也是人工智能和机器学习算法所具备的特性。


某种程度上,AI和机器学习算法比人脑的直觉要更加理性。


这让人想起《西部世界》的科学顾问,神经学家大卫·伊格尔曼(David Eagleman)说的一句话,意识,是一种突破程序设定的连接。我们能够复制大脑的算法;如果这个算法等同于意识,那意识也理应可以被复制和转移。


      

意识从无到有,未来AI不再「跟着感觉走」?


目前的机器学习方法还没有完全超越无意识到全意识,但是 Bengio 相信这种转变未来是完全有可能的。


他指出,神经科学研究表明,有意识的思维中涉及的语义变量往往是含有因果关系的ーー它们涉及的对象可控,比如说意图。换句话说,不再跟着感觉走,是有逻辑和目的性在其中。


同时,语义变量和思维之间存在映射关系,例如词语和句子之间的关系,而且已有的概念可以进行重新组合,形成新的、不熟悉的概念。


注意力正是实现这一过程的核心要素之一,Bengio 解释道。


在此基础上,他和同事们在去年的一篇论文中提出了循环独立机制(recurrent independent mechanism,RIMs) ,这是一种新的模型架构,在这种架构中,多组单元独立运作,相互之间通过注意力机制交流。前者保证了专业,后者保证了泛化。


实验目标是,证明RIM 能够改善模型在不同环境和模块化任务中的泛化效果。该研究不关注该方法是否超出高度优化的基线模型,而是想展示该方法面对大量不同任务时的通用性,且这些任务的环境是不断变化的。


         

图 10:RIM 与 LSTM 基线模型的对比。在这 4 个不同实验中,研究者对比了 RIM 和两个不同的 LSTM 基线模型。在所有案例中,研究者发现 rollout 过程中,RIM 比 LSTM 更准确地捕捉到球的运动轨迹。


实验结果表明,RIM具备专门化(specialization)特性,可大幅提升模型在大量不同任务上的泛化性能。


「这使得智能体能够更快地适应分布的变化,或者... ... 推断出变化发生的原因,」Bengio 说。


他又讲到想要打造「有意识」的AI系统面临几大挑战,包括训练模型进行元学习(或理解数据中的因果关系) ,以及加强机器学习和强化学习之间的集成。但他相信,生物学和AI研究之间的相互作用最终将解开这把神奇的钥匙,使这些机器可以像人类一样推理,甚至表达情感。


「神经科学早已开始研究意识相关的问题了... ... 在过去的几十年里取得了很大进展。我认为现在是时候将这些进展纳入到机器学习模型当中了。」Bengio在演讲中表示。


看来西部世界中的世界也不远了...



参考链接:


https://venturebeat.com/2020/04/28/yoshua-bengio-attention-is-a-core-ingredient-of-consciousness-ai/

https://www.zhihu.com/topic/20127515/hot





编辑:张凉
413#
 楼主| 发表于 2020-5-7 23:33:13 | 只看该作者
案例
编辑:吴悠
202057
414#
 楼主| 发表于 2020-5-20 13:04:16 | 只看该作者
【案例】

中央广播电视总台国内首次实现5G+8K集成制作

  为迎接2020年全国两会,中央广播电视总台成功进行了国内首次5G+8K实时传输和快速剪辑集成制作。5月19日总台举办了“5G+4K/8K+AI”媒体创新应用推广活动周启动仪式,中宣部副部长,中央广播电视总台台长、总编辑慎海雄,中央广播电视总台副台长阎晓明、蒋希伟,中央广播电视总台编务会成员以及中国电信、中国移动、中国联通负责人出席。


  在“5G+4K/8K集成制作”展示区,技术人员通过5G+8K背包对两路8K外景信号进行了实时传输,同时对收录的8K信号进行了快速编辑,展现了8K视音频传输和制作流程。通过8K与4K信号对比测试,现场传输的两路8K信号完美地还原了令人惊艳的初夏美景。
  现场嘉宾还通过8K分辨率的LED屏幕观看了总台8K宣传片《八方云开炫彩中国》。这是总台一年来全面推进“5G+4K/8K+AI”创新应用的成果,包括国庆70周年盛典、总台长三角总部灯光秀、玉兰之城8K纪录片、2020年总台春晚和8K测试图像序列五部分精彩集锦。在8K LED大屏幕上呈现出来的精美画质,栩栩如生,纤毫毕现,赫赫之光,姹紫嫣红,带来极致视觉感受。

]

  在“AI云剪辑”展示区,技术人员展示了AI云剪辑技术应用。实时收录的多路信号通过人工智能计算,进行人脸检测、动作检测、镜头质量评测、穿帮镜头检测等主要算法逻辑展示,并现场生成了AI剪辑成片。总台在国庆70周年盛典中,通过AI云剪辑技术快速编辑合成了86条70秒的阅兵方阵短视频,极大地提高了制作效率。今年两会,总台将利用5G网络开展直播连线,全方位多角度报道两会新闻;总台摄制的8K实时视频将同步在新媒体平台和全国各大城市的40多万个超清大屏展示。


当前,5G、4K/8K、AI正在重构媒体制播流程,这为传统媒体提供了跨越式发展机遇。慎海雄表示,今年中央广播电视总台将全力推进从传统广播电视媒体向国际一流原创视音频制作发布的全媒体机构转变,从传统节目制播模式向深化内容生产供给侧结构性改革转变,从传统技术布局向 “5G+4K/8K+AI”战略格局转变。总台将继续与三大运营商等合作单位共同开展5G环境下的视音频制播技术创新,全面推动广播电视媒体和传播技术的跨越式发展。

来源:中央广播电视总台央视新闻

编辑:冯梦玉


415#
 楼主| 发表于 2020-5-21 20:48:44 | 只看该作者


【案例】



"她"来了 全球首位3D版AI合成主播精彩亮相

  新华社北京5月20日电(记者邬金夫)她能随时变换发型,她能随时更改服装,她能穿梭于演播室的不同虚拟场景中……然而,她却不是真人,她是全球首位人工智能驱动的3D版AI合成主播。

  ↑“新小微”走进虚拟演播室。

  “大家好,我叫新小微,是由新华社联合搜狗公司推出的全球首位3D版AI合成主播,我将为大家带来全新的新闻资讯体验。”
  一段“未来感”十足的视频播报画面让人眼前一亮,全球首位3D版AI合成主播在全国两会开幕前夕正式亮相,这是继全球首位AI合成主播、站立式AI合成主播、AI合成女主播、俄语AI合成主播之后,新华社智能化编辑部联合搜狗公司最新研发的智能化产品。
  “新小微”是如何诞生的?
  “新小微”的原型是新华社记者赵琬微,采用最新人工智能技术“克隆”而成。从外型上看,“新小微”高度还原真人发肤,在立体感、灵活度、可塑性、交互能力和应用空间等方面,较前一代AI合成主播(2D形象)有了大幅跃升。在特写镜头下,甚至连头发丝和皮肤上的毛孔都清晰可见。
  3D版AI合成主播,是如何诞生的?
  “‘新小微’的研发,经历了极其复杂的过程。”据项目负责人介绍,研发人员进行了海量数据采集工作。赵琬微戴着数据采集头盔,几百个摄像头对其身体部位360度全方位“打点”扫描,采集每一处细节,并对其多种形态的表情和动作进行细致入微的捕捉记录。

↑赵琬微正在进行数据采集,3D渲染由原力科技公司提供技术支持。

  “就像拼乐高一样,我们对‘新小微’的各个部位和表情进行了模块化处理,然后重新组装。”项目负责人解释说,通过算法实时驱动、渲染构建出来的3D数字人物模型,表情唇动、肢体动作和语言表达实现了高度契合。
  据介绍,目前绝大部分“能动”的3D数字人,主要是靠真人驱动。而“新小微”采用的是人工智能驱动,输入文本后,AI算法便可实时驱动“新小微”,生成的语音、表情、唇动更接近于真人。
  “新小微”实现了哪些升级进化?
  和前一代AI合成主播相比,“新小微”实现了从单一景深机位到多机位多景深、微笑播报到多样化精微表情播报等进步,播报形态可通过不同角度全方位呈现,立体感和层次感明显增强。

↑“新小微”在站姿状态下播报新闻。

  “前一代AI合成主播只能在坐姿或站姿下做一些简单的手势。‘新小微’不仅能走动和转身,还能摆出各种复杂动作和姿态,灵活性大大提升了。”项目负责人介绍。
  此外,“新小微”以其“微模块化”的特性,实现了灵活“变妆”。她的发型、服饰均能根据不同新闻和场景变换,这些功能也是前一代AI合成主播所不具备的。

↑“新小微”播报新闻,面部表情生动自然。

  “可以说,3D版AI合成主播在多方面都更加智能化了,在人工智能的实时驱动下,可实现功能持续自我更迭。”项目负责人说。
  “新小微”将开启怎样的未来想象?
  作为新闻界首位由人工智能驱动、3D技术呈现的AI合成主播,“新小微”在今年全国两会期间可量化生产新闻播报视频。
  只需要在机器上输入相应文本内容,“新小微”就能播报新闻,并根据语义生成相对应的面部表情和肢体语言。
  “随着后期自我更迭和进化,‘她’的工作空间会更大。”项目负责人说,随着3D虚拟场景不断拓展,“新小微”将走出演播室,在不同场景中更好地满足新闻呈现的多样化需求。

↑“新小微”的播报形态可通过不同角度全方位呈现。

  2018年11月7日,新华社联合搜狗公司发布全球首位AI合成主播,“克隆”出与真人主播拥有同样播报能力的“分身”。此后又不断迭代升级和扩容,业界评论这是人工智能技术在新闻领域的开拓性应用。
  作为新华社AI合成主播家族的最新成员,3D版AI合成主播在今年全国两会期间将通过新华社客户端为广大网友带来全新的新闻资讯体验,也将进一步助力新华社智能化编辑部建设,推动媒体融合向纵深发展,为新闻生产的“未来场景”开辟新空间。


来源:新华社
编辑:邱亚婷


416#
 楼主| 发表于 2020-5-24 20:42:03 | 只看该作者
【案例】
负责任创新框架下的人工智能伦理问题研究
  娜,陈  
(广州中医药大学马克思主义学院,广东广州 510006
  摘要:负责任创新(RRI)旨在科学和技术创新过程中社会行动者和创新者彼此负责,同时会考虑创新过程中的伦理问题及创新产品的可接受性、可持续性和社会需求。其内涵分为行政定义和学术定义。在预期、反思、协商、反应、可持续性、关怀这 6 种负责任创新框架的基础上引入无私利性,基于负责任创新这 7 种框架理念解析人工智能技术发展带来的安全、隐私、结果等三方面主要伦理问题,探讨嵌入 RRI 框架来解决人工智能(AI)在产生、应用和发展等过程中滋生的伦理问题的路径,使 AI 技术更好地造福人类社会。
  关键词:负责任创新;负责任创新框架;人工智能;人工智能伦理
  中图分类号:B829C930G031  文献标志码:A   文章编号:1000-769520206-0258-07
  Research on Ethics of Artificial Intelligence  Under the Framework of Responsible Innovation
Li Na, Chen Jun
  (School of Marxism, Guangzhou University of Chinese Medicine, Guangzhou 510006, China)
  Abstract:
  Responsible research and innovation (RRI) aims to make social actors and innovators accountable to each other in the process of scientific and technological innovation, at the same time, ethical issues in the innovation process and the acceptability, sustainability and social needs of innovative products will be considered. Connotation of RRI is divided into administrative definition and academic definition. This paper introduces selflessness based on the six responsible innovation frameworks of anticipation, reflexivity, inclusion, responsiveness, sustainability and care, based on the 7 framework concepts of responsible innovation, analyzes the three main ethical issues of security, privacy, and results brought by the development of artificial intelligence technology, explores the path of embedding the RRI framework to solve the ethical issues breeding in the process of generation, application and development of artificial intelligence (AI), so that enable AI technology to better benefit human society.
Key words: responsible innovation; framework of responsible innovation; artificial intelligence; artificial intelligence ethics
  1 研究背景
  负责任创新(responsible innovation),又称负责任的研究和创新(responsible research and innovation, RRI),是欧盟“地平线 2020”科研规划的重要内容,主要强调科学与社会之间的合作以及加强公众对科学的信心,同时也是一种道德观念、价值取向和实践伦理经验,更是一种带有伦理意义的创新理念[1]。“负责任创新”一词首次出现在欧盟 2002 年的“第六框架计划”(The Sixth Framework)中,此后各种机构和活动之间的合作开始应用“科学和技术的负责任研究和应用”等相关词语(条),促进了全球背景下的对话和科学技术伦理研究。“负责任的研究和创新”一词于 2013 年首次应用于欧盟“第七框架计划”(法规,EU No.1291/2013),近年来在学术出版物和欧洲层面的项目中进行了讨论、研究和开发,逐步也在中国工程项目中得到应用。
目前,负责任创新理念的实际应用已经得到了社会的认可。美国在 2008 年调整纳米技术科研基金的使用中就融入了负责任创新的欧文四维框架,由此美国学界将负责任创新称为人类共同追求的理想;荷兰在 2008 年鹿特丹港建设的马斯弗拉克特二期项目(MV2),从立项伊始就贯穿着负责任创新理念;英国在 2010 年提出的平流层粒子注入气候工程项目(SPICE 项目),经协商和反思意识到此项目存在一定风险,故最终取消该项目。以上这些案例都为负责任创新的实际应用提供了重要启示和有益经验。
  人工 能(artificial intelligence,AI) 自 1956 年在达特茅斯会议上提出至今,实现了前所未有的突破和发展。随着 AI 技术不断推陈出新以及快速更迭,无人驾驶技术、指纹识别、人脸识别、智能机器人、远程医疗等技术已逐步应用到现实生活之中,相关一系列技术伦理问题也随之突显,但因 AI 技术发展快速,传统的伦理规范道德制约和现有的法律法规已明显不足以应对当今复杂的社会发展局面,新兴科技的创新治理和发展规范成为当代世界各国面临的主要挑战和困境,也是国家创新与发展战略的重要组成部分。在中国,作为新兴科技代表的人工智能,面临着具有中国特色社会主义新时代特征的 AI 技术创新及伦理创新的重要挑战,由此 AI 伦理问题亟需得到解决。
  欧盟委员会强调 RRI 6 个关键点——公众参与、道德、科学教育、性别平等、开放获取和治理,同时负责任创新本身所坚持的科学、绿色、节能、环保等理念,正好符合中国新时代的发展理念和路线。基于负责任创新本身的理念和实践经验,本文旨在运用负责任创新理念及其框架解决 AI 技术的伦理问题,以从科技研发源头避免伦理问题的产生,并在科技创新实际应用中反思和及时改正出现的伦理问题,促使科学技术创新更好地造福全人类和全社会。
  • RRI 理念的背景及内涵
      “负责任创新”的概念首先在欧洲被提出,主要是基于预期治理(anticipatory governance)和美国的 ELSI 两种概念。预期治理主要指在一个受限制的研究领域,对情景进行预期的管理;美国的 ELSI 主要指新兴科学和技术的伦理、法律和社会方面。
      2.1 RRI 理念的背景
      RRI 的出现,根源于“预期治理”概念。预期治理的历史可以追溯到 2002 年,当时 Guston 等[2]学者使用了这一术语,但没有明确提及 RRI。预期治理主要是指在一个受限制的研究领域,包括创建未来可能出现的不同方式的情景,对其进行预期的管理,这或许有助于对未来可能出现的威胁作出最小化的决策并提供可行的替代方案。
    RRI 的出现,还值得一提的概念是从美国出现的 ELSA 概念,它代表着新兴科学和技术的伦理、法律和社会方面。Zwart 等[3]认为 ELSA 研究与 RRI有着惊人的相似之处,旨在为技术发展计划提供社会和伦理补充,这些补充最早可追溯到 1994 年的第四届欧盟框架计划。同时,ELSA 研究承认科学专业知识不能被视为开发和引进新技术的唯一基础,相反,社会应该尽早参与。RRI 定义最初的出现,并不是由专门的相关研究领域的学者提出,而是由科学政策制定者和欧洲委员会中大多的各种基金机构提出。因此,关于 RRI 的定义不仅包括学术定义,还包括行政定义。
    2.2 RRI 理念的内涵
    目前,关于负责任创新的具体定义学界还尚未达成共识。根据 Burget 等[1]的观点,将负责任创新的定义主要分为两种:行政定义和学术定义,行政定义主要是基于负责任创新概念在政策、方针、机构等方面的定义,学术定义主要是学术界对其概念的定义。
    2.2.1 行政定义
    2011 年在《关于负责任研究和创新的报告》中,Sutcliffe4]认为 RRI 有主要以下特点:(1)刻意关注研究和创新产品,以实现社会或环境效益;(2)社会始终如一地参与创新过程的开始和结束,并且公众和非政府组织也关注公共利益;(3)评估并有效地优先考虑现在和未来的社会、道德和环境影响、风险和机遇以及技术和商业;(4)监督机制能够更好地预测和管理各种问题和机遇,并且能够适应和快速响应不断变化的知识和情况;(5)开放性和透明度是研究和创新过程中不可或缺的组成部分。除此之外,Sutcliffe4]还提供了研究和创新的定义:研究是指一种系统调查方式,以便确定事实并得出新的结论;创新是指一种优越的过程或产品,也可指发明的有效商业结果。Schomberg5]认为,负责任的研究和创新是指社会行动者和创新者彼此负责的一种透明和交互的过程,为了在我们的社会中适当地嵌入科学和技术进步,这个过程同时会考虑到创新过程及其可销售产品的(道德)可接受性、可持续性和社会需求。Schomberg6]还将 RRI 定义为设计策略,该策略推动创新并为实现社会期望目标提供一些引导。在 Schomberg 的第二个定义中,RRI 不再仅仅是一个过程,而是一种设计策略,也就是说,RRI 成为一种能够塑造一个过程的策略。2013 年,欧洲委员会[7]在其发布的政策文件《加强负责任研究和创新的选择》中,将负责任研究和创新定义为:负责任的研究和创新是指在研究和创新过程中采用的综合方法,在早期参与研究和创新过程的所有利益相关者(1)获得关于他们的行动结果的后果以及对他们开放选择范围的相关知识;(2)在社会需求和道德价值方面有效地评估结果和选择;(3)将(1)和(2)的因素作为设计的功能要求和新研究、产品和服务的发展。类似于 Schomberg 5-6]的定义,RRI并不仅仅被定义为一个过程,而是指一种为研究和创新提供某种方向的方法
    政定义的特点
    是包含各种要素,例如预期、预测问题和确定替代方案及反映价值观等等,也有学者强调评估、社会期望和评估社会、道德及环境影响等等,并且确定其优先级,同时考虑技术影响、风险和机遇、预测和管理问题,快速响应不断变化的环境和知识。本文采纳的是 Schomberg5]的第一种 RRI 定义,即在面对和解决 AI 伦理问题的过程中,需要 AI 技术研发人员和社会行动者的共同参与,彼此透明沟通、相互协商,适当嵌入科学和技术进步理念和观点,这个过程同时会考虑到 AI 创新过程及AI 产品的(道德)可接受性、可持续性和社会需求。
    2.2.2 学术定义
    在学术界,大多数学者基本肯定了 Schomberg5-6]对 RRI 的定义,强调对潜在影响和社会期望的预期,并让利益相关者和公众参与研究和创新的过程。但部分学者也有不同见解,如 Roco 等[8]列出了负责任创新的以下 4 个特征:(1)跨部门和学科的变革,(2)考虑公平获取、健康、安全和环境的问题,(3)政府机构和其他利益相关者的参与,(4)预测和适应的长期措施;Stilgoe 等[9]进一步阐述了负责任创新的定义:负责任的创新意味着通过对当前科学和创新的集体管理来关注未来;Stahl10]将 RRI 视为一种元责任,将 RRI 定义为是一个更高层次的责任或元责任,旨在塑造、维护、发展、协调与调整现有的、新颖的研究和创新相关的过程、参与者及责任,以确保理想和可接受的研究成果;刘战雄[11]认为RRI 是创新共同体以尊重和维护人权、增进社会福祉为价值归旨,以积极承担全责任为方法特征的创新认识和创新实践;Spruit 等[12]将 RRI 描述为通过评估创新过程结果的可取性,例如根据责任法评估法院的有害产品结果,评估创新过程的质量;晏萍等[13]认为 RRI 是继可持续发展之后欧美国家提出的新的发展理念,其主要内容是将企业的社会责任与技术创新实践密切结合,从伦理角度有效评估和影响技术创新的各个环节,以保证技术创新成果的可持续性和社会可接受性。
    关于 RRI 的内涵问题一直是学术界热烈讨论的话题,但到目前为止,国内外对其具体概念、定义、内涵和外延还尚未达成统一共识。研究人员将 RRI主要视为一个包括利益相关者、预测、反思、协商和反馈社会需求和价值的过程;除此之外重要的是,关于学术定义,研究结果以及作为 RRI 终点的创新过程的结果一直被强调,并且将个人责任作为审议过程的一部分也被考虑在内。“负责任创新”这一概念是在 21 世纪中后期被一些学者引介到中国,国内学者倾向于 Schomberg 5-6]对 RRI 定义的比较多。
    2.3 RRI 的理论框架
    2013 年,英国经济学家 Owen 等[14]将负责任创新主要通过“四维框架”将伦理因素考量纳入整体考量的理论和实践来看,即预期(anticipation)、反 思(reflexivity)、 协 商(inclusion) 和 反 应(responsiveness)。“四维框架”以阶段性方式参与作为整体的负责任创新过程,得到了学术界的普遍认可。2017 年,Burget 等[1]在总结了 Owen 等[14] “四维框架”的观点基础上,增加了两个新兴的概念:“可持续性”和“关怀”。可持续性是指一种可以长久维持的过程或状态,通常包括生态可持续、经济可持续和社会可持续 3 个组成部分;关怀是属于公共领域的维度,指公民自己负责代表他们执行的决策和行动。在此基础上,本研究加入“无私利性”这一理论框架。无私利性主要是指科学研究人员不应该以科学活动或者科技创新的过程及结果来谋取私利。综上,构成了 RRI 研究及应用的 7 种理论框架,即:预期、反思、协商、反应、可持续性、关怀和无私利性。
  • AI 定义及 AI 伦理问题
    如今,AI 已经从实验领域走向实践领域,逐渐发展成为当前全球最炙手可热的技术之一。随着2016 年和 2017 年由谷歌公司研发的 AI 围棋软件“阿尔法狗”分别接连战胜围棋大师李世石和柯洁之后,AI 的发展开始快速走向公众的视野,促使公众开始思考 AI 到底是什么及其所带来的伦理问题。
    3.1 AI 定义
    人工智能 , 1956 年在美国达特茅斯人工智能夏季研讨会的提案上首次被公开提出,该提案由 McCarthy 等[15]科学家共同发起,旨在创造一种机器,使其学会使用语言、模仿人类行为和形成抽象的概念,以此来解决人类专有的遇到的各种问题并进行自我完善。其后,人工智能逐渐发展成为一种理念、一类技术和一门学科,既是理论概念又是实践方式。广义上,AI 是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门技术科学,是计算机科学的一个分支,也是计算机科学技术的前沿领域。AI 是对人的意识、思维的信息过程的模拟。AI 不是人类智能,但能像人那样思考、更有可能超过人类智能。狭义上,AI 是计算机科学或智能科学中涉及研究、设计和应用智能机器的一个分支,同时也是一门涉及计算机科学、信息学、神经心理学、哲学、伦理学、语言学等学科,通过学科融合发展起来的交叉性学科。关于 AI 的定义,至今还没有一个统一的表述,总体来看,对 AI 定义的不同见解都从一定程度上影射出 AI 的出现对于改善人类生活方式具有非凡的意义。
    3.2 AI 伦理问题
    工业革命前后,科技都以一种正面的力量存在,它被哲学家高度赞誉,被称之为一种美德、一种人类社会进步的标志,但是随着两次世界大战的出现,科技开始呈现出负面的影响,催生了包括核武器在内的威胁人类命运的成果。即使在当前社会 AI 技术得到不断创新和应用,人类和社会在享受技术创新所带来的便利的同时,也不得不面对技术创新所带来的伦理问题。主要概括为以下 3 个方面:

  • 安全问题。AI 安全问题主要是指 AI 技术在应用过程中出现,危及到人类安全及环境破坏等造成不良后果的问题。随着自动驾驶及智能机器人等 AI 技术的发展,出现了诸如自动驾驶成为武器,人类应该如何应对这一类问题。2018 3 20 日,美国亚利桑那州坦佩市一辆处于自动驾驶模式的Uber 自动驾驶汽车在进行路况测试时撞死一位过路的行人,这次交通事故成为全球首起自动驾驶致死案例,由此,AI 技术的安全问题引起了社会广泛的关注和讨论。2019 3 10 日,埃塞俄比亚航空公司一架型号为波音 737MAX8 的客机在起飞 6 分钟后进入无人驾驶的阶段,发生坠毁导致机上全部人员遇难,这也是继狮航空难事件之后该型号客机第二次发生安全事故,因此,相关专家及公众把此次有关安全问题的矛头指向 AI 自动驾驶技术,其安全隐患无法使公众放心。自动驾驶技术的研发本着方便出行,然而对创新的反思不足,给人类带来便利的同时也带来了灾难。
  • 隐私问题。AI 隐私问题主要是指 AI 技术在应用过程中出现的私人信息或者大数据泄露等问题。随着大数据技术、人脸识别技术、指纹识别技术、声控识别技术及云计算技术等技术的兴起,出现了诸如公众个人信息能否在应用中得到保障这一类问题。发展 AI 需大量数据的积累,利用大量数据训练算法可提高 AI 解决问题的能力,但这也威胁到个人隐私,成为开发数据资源价值过程中最突出的伦理挑战。2017 9 月,美国三大个人信用评估机构之一的 Equifax 被爆出遭遇黑客攻击,约有 1.42 亿用户的个人重要信息面临泄漏。2018 11 月,美国汇丰银行通知客户发生了数据泄露,攻击者访问了该金融机构的在线账户,泄露信息包括用户的详细个人信息、账户信息和交易记录。由此可见,大数据算法的研发本是方便数据管理和储存的,然而因缺乏预测可能会出现的后果,造成应用过程中的数据泄露。又如人脸识别技术的研发,本是为方便刷脸解锁及刷脸支付等私密和快捷的体验,但如果不充分考虑和保证隐私保护问题而被不法分子肆意滥用,将带来一系列不可预期的后果。
  • 后果问题。AI 后果问题主要是指 AI 在研发初期、应用过程以及应用之后可能会带来的一些负面影响或者是具有争议的复杂后果的问题。随着智能机器人、AI 金融及 AI 医疗等技术的不断发展,技术创新既会对人类主体地位带来威胁,又会出现技术伦理道德等问题,出现了诸如基因技术或生物工程技术是否会导致基因重组、对环境造成破坏之后谁来承担责任等问题。2014 年,由英国皇家学会举行的“2014 图灵测试”大会上,一个名为尤金·古斯特曼(Eugene Goostman)的聊天程序上演了一场精彩的与人类对话,首次通过了图灵测试,让人误以为尤金是个 13 岁的孩子,因此让人不得不重新思考 AI 是否有一天会超越人类思维、是否应该制止AI 的发展。医疗机器人在降低医疗成本的同时也带来了责任问题,如手术机器人在提高手术成功率方面表现优异,但安全风险一样存在,如果机器人在手术中发生系统故障,将直接危及患者的健康甚至生命安全,此类医疗事故存在责任认定的困难。因此,在技术研发初期就应该充分预测其可能带来的后果问题,以免陷入伦理困境。
    以上几种伦理问题均指向 AI 技术创新给人类和社会所带来的一系列影响,同时,也促使人们开始思考到底什么样的 AI 才是可行、可应用的,AI 技术创新的每个阶段需要结合什么样的责任才可以更安全,因此,把 RRI 框架的各个方面和 AI 技术研发、创新和成果的每个阶段结合在一起,可以完善 AI 技术的理论和应用的实践性。

  • 基于 RRI 框架的 AI 伦理问题分析
    基于已有的 6 RRI 框架,笔者通过学习科学的社会规范认为,无私利性是从科研人员利益角度出发进行分析,故新增无私利性框架。无私利性作为 RRI 框架,可以大大减少因科研人员和科研机构追逐利益为目标而产生的 AI 伦理问题。科研人员是科技创新的直接利益相关者,如果在科技研发之初就忽视利益问题而重视科技产品的价值和品质,那么将大大有益于科技创新的发展。
    4.1 AI 技术研发之处嵌入预期维度
    预期旨在展望研究和创新的未来,通过对当前状态的分析展望未来。预期促使研究人员和组织机构关心“如果……会怎样?”的问题[16],还要考虑偶然事件、已知事物、可能性、合理性和可行性。预期涉及提高复原力的系统思考,同时揭示创新的新机会和为社会稳健风险研究制定议程。负责任创新把关注的重点从风险转移到创新本身,从对下游环节 ( 后果 ) 的关注转移到对上游环节 ( 创新 ) 的关注,可以避免基于风险的危害评估不能提供关于未来后果的早期预警的弊端[17]。因此,预期维度主要指负责任创新主体基于现有条件,对未来可能出现的科技创新和科技研究对自然社会、人类社会以及其他宇宙空间等带来的后果给予一定的描述、分析和预测。预期维度高度关注研究和创新的初始阶段,而非创新成果所带来的影响。
    AI 技术创新所带来的是一种不确定的后果,或有益或有害。如果将负责任创新的预期维度嵌入到AI 技术的创新和发展起始之时,那么,以个体或者小集体为单位的责任主体以及以利益为目标的科研人员和生产商就显得不足以应对可能会出现后果。负责任创新的主体不仅仅是关乎决策机构、研究机构、高等院校、社会组织等主体间关系,也牵涉利益综合、权力冲突和话语选择间的博弈,还与技术可行性、经济效益和伦理考量密切相关,还可包括创新者之外的决策者、生产者、销售者、消费者、服务者及个体之外的集体等等。对于技术创新可能潜在的风险,我们可以通过预测进行系统化的考察和评估,从而更好地做到未来发展规划和风险规避,使 AI 技术创新更具有价值性和有益性。正如 Rose18]所强调的,对技术潜在影响的预期有助于(1)反思研究项目的动机和影响,(2)更清楚地了解不确定性和困境,(3)向更广泛的公众开放愿景和(4)利用成果塑造研究和创新轨迹。因此,预测在研发开始时起着重要作用。
    4.2 AI 技术创新过程中嵌入反思维度
    负责任意味着行动者和组织机构需要对自身进行反思。Stilgoe 等[9]学者认为,在 RRI 的背景下将反思定义为坚持某个活动的承诺和假设,了解知识的局限性并注意某个问题的特定框架可能不会普遍存在,并且意识到社会科学家和哲学家已经开始努力参与到实验室过程中。Wynne19]认为,责任将反思性转化为公共事务,需要一种制度性的反思,由此,反思这一概念开始得到了重视。在当前阶段,概念维度的反思性旨在反映技术研究和开发过程中的价值观和信念。一些学者认为对反思的理解和应用离不开公众对话、公众参与、科学和公共合作,强调了将预期与反思性联系起来的重要性,这些都是了解反思的关键。一些学者认为反思旨在对科技创新的研究和开发过程中的价值和信念进行思考,反思的过程离不开公众的参与,注重预期与反思性相结合。因此,主动反思将成为让公众参与讨论科技伦理问题的有效工具。将反思维度贯穿于 AI 技术的研发和发展使用过程中显得很有必要。公众参与、公众对话以及科学和公众合作等,让公众直接参与到科技研发过程之中,让科技不仅仅是科技发明者和创新者的专属,这样可以更加高效地提升 AI 技术的价值性和创造性,同时也有效避免因单一方面参与者的技术研发所带来的社会问题和伦理问题。我们可以建立一套AI 技术研发的科研人员行为规范准则,使反思成为科研人员和科研机构必须遵守的一种理念;公众和机构的参与不仅能够促使研发者反思自己的价值体系,而且还有助于在科学和创新实践中建立反思能力。反思性要求科学家们在公共场合模糊他们的角色责任与更广泛的道德责任之间的界限,因此它要求科学和创新文化中的开放与领导。
    4.3 AI 技术研发及应用过程中嵌入协商维度
    协商旨在让不同的利益相关者参与到研究和创新的早期阶段。Schomberg5]认为,每个人的肩上都承担着特定的道德责任,然后这些人形成集体参与,通过集体辩论作出决策。为了履行这一道德责任,Schomberg5]和 Owen 等[14]学者将这一责任与确定社会期望的结果联系起来,认为通过公众参与可以实现社会期望的结果。对于技术问题的解决,公众参与和公众协商同样是必不可少的,同时,经济和人文环境也有其存在意义。有学者认为,让公众参与到研究和开发的早期阶段,将会对技术发展产生积极的影响。基于此,将 RRI 的理念作为行为准则,指引各个行为者遵循安全、道德和有效的框架原则。在实践中,通常被采用的方法和技术有公民陪审团和公民小组、专门小组、共识会议、科学商店等等,但不包括构建特定种类的公众,权力不平衡将继续存在。
    协商是最能表征 RRI 的概念维度。在大多数情况下,RRI 与研究和开发中的社会包容性相关联,并且概念维度的实际实施已经开始出现。作为 RRI的主要特征,协商需要更多反思性和批判性的学术讨论,因此,AI 技术的研发和创新也需要加入协商维度的讨论。协商主体不仅应该包含科技创新的直接利益相关者,也应该包含科技创新的间接利益相关者。负责任创新本着以公共利益为导向,以公众参与、信息透明、民主化治理为手段,推动公众集体应对技术伦理挑战,通过协商,可以大大降低技术创新的不安全后果、伦理道德责任的缺失以及对生态环境的破坏,还可以更好地解决科研人员和人民群众之间存在的不理解和不信任,无论是科研人员还是技术的使用者、受用者,都可以通过共同探讨的方式重新评估和解决 AI 技术多带来的诸多伦理问题。
    4.4 AI 技术成果嵌入反应能力
    反应能力是反馈能力和响应能力的总称。负责任创新需要具有根据利益相关者的反应和变化情况对框架和方向进行调整。在实践中反应能力主要集中在主要集中在同化、反应或排他性的态度,而不是回应或包容。反应能力包含风险识别、透明度和无障碍性。新技术涉及的风险或是中期、或是长期,或者与经济有关、或者是与环境有关、抑或是与社会相关联。欧盟通过无障碍获取意味着开放获取科学成果,也就是说公共资助研究的结果必须向公众开放,具有一定的透明度。在一些分析性的文献中,涉及反应能力的讨论主要与道德、风险、透明度和可访问性等相关。
    AI 技术研发过程所需要的时间是不确定的,技术触及的风险类别也是不确定的,所以应该将风险类别、障碍程度等因素融入反应能力中,以便在技术研发过程中不断得到反馈,作出正确的响应,提前识别和预防技术导致的风险以及带来得危害或损失;同时,AI 技术的正负作用应该具有一定的透明性,至少是对技术操作人员来说是透明的,避免像波音 737MAX 客机事件的发生。此外,公众也可以参与进来,及时有效地提出意见,便于对创新过程中的方法进行调整;同时,国家或者政府等权威机构也可以无障碍获取 AI 技术成果,以达到及时的监管和监督效果。
    4.5 AI 技术产品嵌入可持续性
    可持续性通常指的是新产品的资源效率。虽然可持续性的概念可以在大多数文献中找到,但其还没有明确地被称为概念维度。“欧盟 2020 战略”强调了科学与技术之间的合作是保证可持续和包容性经济增长的关键因素,Galdon-Clavell20]支持这种想法并提出了“智慧城市”这一观点,认为当社会资本和基础设施投资通过预期治理来合理管理人力资源,以此支持可持续经济增长时,那么这个城市是“智慧”的。Owen 等[14]认为,在讨论社会需求和价值观等问题时也应考虑可持续性。Flipse 等[21]也支持“欧盟 2020 战略”中的观点,认为研究和创新与社会责任密切相关,因为它们可以帮助提高可持续性产品。也有观点认为,资源使用不足是资源节约型和科技创新需要解决的主要问题。
    AI 技术产品如果嵌入可持续性这一观点,可以提升资源的有效利用和长期发展,同时大大降低“科技垃圾”的生产,也可以提高社会经济的可持续增长。正如智慧城市想法的提出,以创造“智慧科技”,节能、环保、可持续的 AI 技术产品。AI 技术的研发和创新应与社会责任息息相关,社会责任在提高资源可持续和技术产品可持续上发挥着独特的影响力,因此,科技创新需要遵循可持续发展理念,以建设环境友好型社会。
    4.6 AI 技术研发和创新过程中嵌入关怀
    关怀指的是以一种独特的方式将道德心理学和发展与道德考虑的范围联系起来,面向未来的伦理学的主要问题是如何处理来自技术创新等社会实践的不确定性。Owen 等[14]描述了预期、反思、协商和反应等4 个概念维度,但并不专注于作为判断环境的内在决定者的人,因此,公民自己负责代表他们执行的决策和行动。引入关怀的概念,人们积极采取的责任理念开始变得重要。关怀同时被解释为人们共同发展感知、行动和判断能力的过程。关怀作为 RRI 的一个单独的概念维度是重要的,以便不将包容性视为满足重大挑战的手段,而是将人们的高目标和日常实践结合起来的一种方式,但并不专指将人们共同的发展感知、行动和判断能力作为判断环境的内在决定者的人。因此,通过引入关怀的概念,作为主体的我们开始重视采取积极的责任理念。
    AI 技术研发和创新过程中,如果嵌入 RRI 理念中的关怀,就要求科技研发人员以及参与到技术创新中的人应该关怀 AI 技术给人类所带来的影响。这一理念应该贯穿于科技创新的整个过程,从构思到实际应用的方方面面,以此有效避免在科技创新为人类服务及工作的同时对人类的生活质量和社会环境可能造成的影响,也可以是 AI 技术与人类更好地和平共处。
    4.7 AI 技术科研人员持有无私利性理念
    无私利性要求科研人员在科技研发过程中,不应该把科技成果视为追求名誉、地位、声望的“敲门砖”,或者是运用不正当的手段在竞争中提高自己,更不应该以追求科技产品所带来的利益为价值指标。无私利性规范要求科学家不以科学活动谋取私利。Groves22]认为,面向未来伦理学的主要问题是如何处理来自技术创新等社会实践的不确定性,尤其是科技创新工作者或者科技创新机构的不确定性。良好的研发开端才可能会产生有价值的科技创新成果。
    因此,AI 技术的研发人员或科研机构应该在创新之初持有无私利性的理念,并且将此理念贯穿于科技研发的整个过程以及科技成果的使用,不应该以单纯追求经济利益和社会利益等为目的,而应该首先忽略可能会带来的利益,忽略可能因为这一科技创新成果所带来的名誉、地位等超过科技成果本身所带来的价值,秉持无私利性的科学态度,为科技创新塑造良好的价值理念。
  • 结论与展望
    RRI 自被提出以来虽然只有 20 年的时间,在定义和概念维度仍然缺乏明确性,但其理念已经在纳米科技、环境治理等多项新兴技术中得以应用,是欧美前沿的科技创新与研究理念;并且,RRI 的概念已经开始出现在不同的机构文件和研究出版物中。尽管负责任创新的发展存在一定的局限性,但是,负责任创新的责任范畴已愈加广泛。从横向来看(空间),负责任创新的应用范围非常广泛,涉及人类社会、自然社会和宇宙空间等因素;从纵向来看(时间),负责任创新的责任范畴始终贯穿在创新准备、创新过程和创新结果之中。根据对 RRI 定义、概念维度和框架的讨论,可以认为 RRI 本质上是一种管理研究和创新的尝试,以便在研究和开发的早期阶段纳入所有利益相关者和公众;反过来,把不同的参与者和公众都考虑在内,意味着增加预测和辨别研究创新如何能够或可能使社会受益,以及防止任何负面后果发生的可能性。
    AI 技术产品越来越成为人们日常工作及生活不可缺少的一份子,因此,嵌入 RRI 框架来解决 AI 伦理问题成为可能,值得我们深入研究。通过预期、反思、协商、反应、可持续性、关怀、无私利性等框架理念,可以有效减缓 AI 伦理问题的产生。但是从长远的发展状况来看,RRI 框架不足以应对伦理问题的解决,还需要伦理道德规范和伦理法律的实施、多元学科与多元领域的协作、创新制度和法律法规的完善。不仅如此,AI 技术的发展也是任重而道远的。
    参考文献:
    1BURGET M, BARDONE E, PEDASTE M. Definitions and conceptual dimensions of responsible research and innovation: a literature reviewJ.Science and Engineering Ethics, 2017,23(1):1-19.2GUSTON D H, SAREWITZ D. Real-time technology assessmentJ.Technology in Society, 2002,24(1/2):93-109.
    3ZWART H, LAURENS L, VAN R A. Adapt or perish? Assessing the recent shift in the European research funding arena from 'ELSA' to 'RRI'J.Life Sciences, Society and Policy,2014,10(11):1-19.4SUTCLIFFE H. A report on responsible research and innovationEB/OL.(2016-02-14)2019-05-28.http://ec.europa.eu/research/sci ... y-sutcliffe_en.pdf.
    5SCHOMBERG R V. Towards responsible research and innovation in the information and communication technologies and security technologies fieldsR. Brussels:European Commission,2011.
    6SCHOMBERG R V. A Vision of responsible research and innovationM//OWEN R, HEINTZ M, BESSANT J. Responsible innovation: managing the responsible emergence of science and innovation in society.New York: Wiley, 2013:51-74.
    7EUROPEAN CONMISSION. Options for strengthening responsible research and innovation: report of the expert group on the state of art in Europe on responsible research and innovationR.Brussels:European Union, 2013:5,57-58.
    8ROCO M C, HARTHORN B, GUSTON D, et al. Innovative and responsible governance of nanotechnology for societal developmentJ.Journal of Nanoparticle Research, 2011,13(9):3557-3590.
    9STILGOE J, OWEN R, MACNAGHTEN P. Developing a framework for responsible innovationJ.Research Policy, 2013,42(9):1568-1580.
    10STAHL B C. Responsible research and innovation: the role of privacy in an emerging frameworkJ.Science and Public Policy, 2013,40(6):708-716.
    11]刘战雄 . 负责任创新研究综述 : 背景、现状与趋势[J. 科技进步与对策 , 2015,32(11):155-160.
    12SPRUIT S L, HOOPLE G D, ROLFE D A. Just a cog in the machine? The individual responsibility of researchers in nanotechnology is a duty to collectivizeJ.Science and Engineering Ethics, 2016,22(3):871-887.
    13]晏萍 , 刘伟 , 张卫 . 大连港负责任创新模式研究[J. 自然辩证法研究 ,2015,31(3):122-126.
    14OWEN R, MACNAGHTEN P, STILGOE J. Responsible research and innovation: from science in society to science for society, with societyJ.Science and Public Policy, 2012,39(6):751-760.
    15McCARTHY J, MINSKY M L, ROCHESTER Net al. A Proposal for the Dartmouth summer research project on artificial intelligence, August 31,1955 J.AI Magazine, 2006, 27(4):12-14.16BECK M B, RAVETZ J R, MULKEY L A, et al. On the problem of model validation for predictive exposure assessmentsJ.Stochastic Hydrology and Hydraulics, 1997,11(3):229-254.
    17]晏萍 , 张卫 , 王前 .“负责任创新”的理论与实践述评[J.科学技术哲学研究 ,2014,31(2):84-90.
    18ROSE N. The human brain project: social and ethical challengesJ.Neuron, 2014,82(6):1212-1215
    19WYNNE B. Lab work goes social, and vice versa: strategising public engagement processesJ.Science and Engineering Ethics, 2011,17(4):791-800.
    20GALDON-CLAVELL G.(Not so) Smart cities?: the drivers, impact and risks of surveillance-enabled smart environmentsJ.Science and Public Policy, 2013, 40(6):717-723. 21FLIPSE S M, MAARTEN C A, VAN DER S,et al. The why and how of enabling the integration of social and ethical aspects in research and developmentJ. Science & Engineering Ethics, 2013,19(3):703-725.
    22GROVES  C.  Future  ethics:  risk,  care  and  non-reciprocal responsibilityJ. Journal of Global Ethics, 2009,5(1):17-31.
    作者简介:李娜(1992—),女,辽宁朝阳人,硕士研究生,主要研究方向为科学、技术与社会发展;陈君(1966—),通信作者,女,河北霸州人,教授,硕士研究生导师,主要研究方向为科技伦理与医学伦理学、医学与哲学。
    来源:中国知网
    作者:李娜,陈君
    编辑:邱亚婷

417#
 楼主| 发表于 2020-5-24 21:08:37 | 只看该作者
【案例】

mMitra平台:用技术将人与人联结起来|科技向善

导读-段伟文

科技向善一个很重要的方面是通过其赋能作用改善人们的医疗健康状况,减少芸芸众生不必要的疾苦。在本文介绍的这个案例中,现代医院作为解决母亲、儿童和新生儿健康的一种制度性安排,并不能完全满足特定区域的需求;特别是在印度的欠发达地区,孕妇和年轻的母亲因缺乏相关医疗与预防护理资讯,而不得不面对本来可以避免的生命损失。

目睹这一严峻的现实,本文作者通过实地调研和试验尝试,将医疗资讯的访问渠道与移动电话相结合,找到了一种充分发挥技术正向外部性解决社会问题的适用方案。在此案例中,不论是mMitra平台的命名,还是为城市贫民窟培养女性领导人(称为Sakhis或“朋友”),都不难看到伙伴关系、领导力和道德敏感性——这些社会创新所推崇的弥足珍贵的观念——在其中所发挥的重要作用。

简单来说,这一案例给我们的启示有三:一是只要坚持科技向善的理念,总可以找到使问题得到缓解和逐步解决的办法;二是通过在地调研,反复尝试,总能够找到一种方式,较好的将技术与特定人群复杂细微的需求恰当地结合起来,为消除人的苦痛和增进其福祉找到适用的技术;三是创新的本质不仅在于将技术与人的需要连接起来,使技术成为人们生活和成长的有益伴侣,更在于用技术将人与人联结起来,使人们能够有效地从社会人群获得必要的知识和帮助,共同探寻改良和变革之路


我投身医学并成为了一名泌尿妇科医师。因为我希望在追求对科学研究的热爱的同时,为人们,尤其是为妇女服务。但是,当我在孟买一家位于市中心的大型公立医院——锡安医院(Sion Hospital)工作期间,我并不觉得满意,主要是因为我意识到我们无法满足所有人的需求。

在医院,我们曾长时间供职于产前诊所,为一个接一个的孕妇诊断。但是,无论我检查完多少人,门外永远会有更多的孕妇在等待。 可悲的是,很多时候我只能匆匆检查,甚至都不能注意到她们的脸。之后,同样是这些女人,会在怀孕的第九个月因并发症而回到医院。我查看了她们的记录并看到了我的签名,才意识到我在她们的妊娠早期就与她们会过面了,但是这些妇女并没有按照建议去做,并返回医院例行检查。

患者数量大只是问题的冰山一角。更大的问题是,这些妇女缺少如何进行常规预防保健、如何保持健康、如何识别生病迹象等相关资讯,以及能够在她们的妊娠期和孩子婴儿时期与她们相伴的人。

我见证了太多妇女死于分娩。可惜的是,如果我们在适当的时候为她们提供了相关资讯,即便不是大多数,也会有许多人本可以活下来。我们确实挽救了许多妇女的性命,这样做在理智上和情感上都令人欣慰。 但是,从更宏观的角度看,我们正在做的事情仅仅是将创可贴贴到枪伤上。 这是远远不够的。

根本的问题在于我们印度的公共卫生系统处理母婴健康问题的方式:太多的资源密集型试点项目大量占用人力资本,因此无法扩大规模。这导致的结果是,印度的孕产妇和儿童死亡率是世界上最高的。 10分钟就有一名妇女死于分娩,每年有300,000多名婴儿没有活过他们生命的前24个小时。


01
医疗保健和技术的连接

尽管存在着上述惊人的统计数字,但印度也有着数量比厕所还多的移动电话。早在2008年,我就看到即使在孟买最贫穷的贫民窟中,妇女也可以使用手机(到201512月,印度全国的移动电话服务订购总数已超过10亿)。我开始考虑如何将医疗资讯访问渠道和移动电话这两者结合在一起。

2008年,我成立了一家非营利组织ARMMANAdvancing Reduction in Mortality and Morbidity of Mothers, Childrenand Neonates,促进母亲,儿童和新生儿的死亡率和发病率的降低)。目的是创建一个全国范围内的本土NGO,该NGO实施具有成本效益的项目,这些项目具有客观的成果和可衡量的影响力,并且从一开始就计划实现项目的规模化。我意识到只有通过使用技术才能实现有意义的规模化,因为这将有助于创建那些在所需资源上比较精简的项目,但又能在影响力的深度和规模化之间找到适当的平衡。如果我不能亲自与每个妇女建立联系,那么我至少可以通过技术与她建立联系。

2010年,我们推出了ARMMAN的第一个计划,即HERO项目(Helpline for Emergency Relief Operations,紧急救援行动热线)。HERO致力于提供有关孟买医院和血库中重症监护病房(ICU)病床和血型的实时信息。 我曾见过一些妇女在分娩过程中遭受失血的情况,因为她们为了找到空置的ICU床位和得以匹配的血型而在一家又一家不同的医院之间往来流转。援助热线,网站,SMS(短信服务)和移动应用程序可将这些重要信息传递给患者和医生。

同时,我深入研究了一个专门为准妈妈们开发的技术程序,以解决她们在妊娠和婴儿期无法获得预防护理资讯的问题。最初,我考虑过基于SMS(短信)的服务,但对它们的功效有所怀疑。 这种方法似乎维度过于单一了:妇女们,特别在其中许多是文盲的情况下,还能否自如地阅读和回复短信?

为了找出与这些女性进行交流的最佳方式,我们进行了现场测试。锡安医院(Sion Hospital)对面就是达拉维(Dharavi),它是亚洲最大,最忙碌的贫民窟之一;在这里,我们与100位女性进行了交谈,以了解其中有多少女性对SMS(短信服务)感到满意。结果令人大跌眼镜:56%的女性不了解如何接收短信,62%的女性无法阅读短信,72%的女性无法发送短信。

因此,我们没有采取以短信与妇女进行医疗保健沟通的方式,而是组建了一个由在美国和印度的志愿者组成的小组,以建立一个基于语音的沟通系统。尽管是通过计算机,但这些每周一次或两次的简短电话,也给孕妇和新妈妈提供了有关怀孕各个阶段以及婴儿期的建议。当她们接听电话时,会有一个温柔动人的女声和她们打招呼。这个女声和接听者说的是同一种语言,有时甚至是同一地区的方言。因为像与朋友而不是医生通电话,我将平台命名为mMitramitra在印地语中意为“朋友”)。



现在,我们面临的挑战是如何确保妇女们收到我们的信息。我们了解到,许多女性没有自己的手机。 她们使用丈夫或家人的电话。 为了解决这个问题,我们要求她们每周登记电话号码,并记录她们每天可以被联系上的一个小时时间段。我们很早就意识到会有其他挑战。例如,网络问题通常使手机无法进行通信。此外,我们知道,女性可能在某些天无法使用电话,或者可能因太忙而无法接听电话。因此,我们会为每次通话连续三天在选定的时间段尝试拨打三次。

如果该女士仍未接听电话,她可以在方便时向我们的呼叫中心发送“未接电话”通知,系统会立即通过自动消息给她回电。在怀胎九月和孩子出生后的第一个生日期间,一个母亲总共会收到145个电话,单次通话时间为1.52分钟。


02
充满个人关怀的技术

2014年,我们在mMitra上有超过23,000名注册女性。到2016年,用户数已超过610,587,该计划已通过与政府医院和非政府组织的合作,从孟买扩展到了纳西克,浦那,中央邦,哈里亚纳邦,拉贾斯坦邦,比哈尔邦,哈布利和德里。与科学技术一样重要的,另一个使我们的计划成功的原因,是我们所提供的个人关怀。

我们不会在获得对方电话号码后一开始就贸然拨打给对方。相反,我们在政府医院的产前诊所派驻了训练有素的卫生工作者。他们向初次来访的妇女介绍该计划,并为她们注册mMitra。但是,许多妇女直到怀孕晚期才去政府医院就诊。为了解决这一时间缺口问题,我们与社区非政府组织合作,在每个城市贫民窟培养女性领导人(称为Sakhis或“朋友”)。通过这些女性,我们可以与其他女性接触,并在她们关键的妊娠中期之前将她们加入该计划。我们已经在77家政府医院中建立了卫生工作者网络,与超过43个社区非政府组织建立了合作伙伴关系,并在印度城市的贫民窟中招募了超过5,853Sakhis

但是,另一个重大挑战仍然存在:为印度农村地区的妇女提供医疗保健。那里的医疗设施稀缺,交通缓慢且不及时。这些妇女是日薪工作者,她们还时常需要一个同路人或配偶一起去附近的诊所,这会导致双方的日薪损失。结果是,大多数妇女喜欢在晚上去找当地的“医生”。这些人通常被称为“庸医”,他们只有很少或基本没有经过正规的医学培训。

为了阻止女性沦为“庸医”们的猎物,我们开发并测试了一种名为Arogya Sakhi的家庭护理系统。为了提供这项服务,我们对社区中的妇女进行了培训,使其成为保健企业家(Health Entrepreneurs),提供家庭式产前和婴儿护理,包括一些基本诊断和治疗干预措施,而只象征性地收取一小部分费用。这些保健企业家有移动应用程序的支持。该应用程序将指导她们完成整个护理过程,帮助识别高风险的体征和症状,并在患者需要转诊或更专业的咨询时发出警报。我们的计划除了帮助我们尝试接触的女性之外,还获得了重要的附属效益:我们培训了166名女性保健企业家,她们得以增加自身的家庭收入。每个Arogya Sakhi的月收入在1,5003,000印度卢比(2550美元)之间。

在印度一些拥有公共卫生基础设施的地区,例如在马哈拉施特拉邦的Nandurbar和拉贾斯坦邦的部分地区,我们还借助平板电脑和移动电话编码的应用程序来支持政府卫生工作者的工作,这些应用程序以数字化方式协调这些卫生工作者的活动,指导活动的进行,并就所需的护理和转诊提供直观、实时的情境化医疗指导。


03
创新不只是一种技术手段

技术使我们能够将mMitra服务的费用大幅度降低,每个妇女在妊娠期和婴儿出生后的第一年仅需要花费300印度卢比(5美元)。 其中包括了技术、语音呼叫的成本,也包括了协调程序的超过85名工作人员的人力成本。 作为医生,我们可以为这么多妇女提供每人300印度卢比的护理吗?当然不能。 但是在过去的八年中,我得出的结论是,技术本身不是创新。相反,创新在于运用该技术的方式。

如果我们单纯发送短信,那么到现在为止,我们可能已经发送了远远超过当前的海量讯息。但是这样做会带来真正的改变吗?不太可能。我认为,规模化并非单指服务对象的数量,而是关系到她们所获得的护理质量,以及在广度的基础上不断追求深度的永恒努力。

在一个拥有13亿人口的国家,尤为如此。







议题编辑:
林夕,关注社会创新和教育,MPA主修影响力投资,本职工作为美国教育科技公司MobLab国际市场负责人,曾任AI早期基金投资总监,数据教育公司联合创始人,Alchemist 斯坦福孵化器兼职小顾问。中美倒班无时差,爱好徒步露营、攀岩、网球、瑜伽,希望保持一颗初心,做现实的理想主义好青年;
姚森,《斯坦福社会创新评论》中文版编辑;

学术顾问:
段伟文,中国社科院哲学所科技哲学研究室主任、研究员,中国社科院科学技术和社会研究中心主任;主要研究方向为科技哲学、科技伦理、信息与智能的哲学、伦理与社会研究等。现任中国大数据专家委员会副主任委员,中国发展战略研究会常务理事,国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”首席专家等。著有《可接受的科学:当代科学基础的反思》、《网络空间的伦理反思》等;

作者:
阿尔帕娜·赫格德医生(Dr Aparna Hegde),ARMMAN的创始人。 她还是一名泌尿妇科医生,是新德里泌尿妇科学和盆腔健康中心(CUP)的创始人,也是《国际泌尿妇科学杂志》的编辑委员会成员。 赫格德曾在斯坦福大学和佛罗里达克利夫兰诊所学习。

来源:微信公众号:斯坦福社会创新评论
链接:https://mp.weixin.qq.com/s/tpclbsEWK8TaOiP02mMVuw

编辑:冯梦玉

418#
 楼主| 发表于 2020-5-25 19:58:15 | 只看该作者
【案例】3D 合成主播参与新华社两会报道,纯AI驱动一分钟出活,无需人工干预
【新智元导读】两会期间,一个AI生成的3D虚拟主播火了:输入文字,AI就能生成一个逼真3D数字人,口型精准、表情到位的将新闻播报出来。不仅可以坐着播,还可以站着播,甚至身体可以做出各种姿势动作。下面我们就来聊聊她背后的黑科技:「搜狗分身」!
两会期间,新华社一个百变新闻主播火了一把!
看起来,她长得有点儿像新华社记者赵琬微,却可以一秒换装、实时换发型,还可以同时穿梭在不同的虚拟演播室中。
她就是搜狗和新华社联合推出的、全球首个3D AI合成主播「新小微」。
在不需要后期填补细节的前提下,「新小微」就已经达到了非常逼真的效果,立体感和交互能力几乎和真人无二。甚至在特写镜头下,连头发丝和皮肤上的毛孔都看得清清楚楚。

轻轻松松无缝换装,西装外套像变魔术一样瞬间从蓝色变成了红色,简直是新闻界「百变小樱」。
不光能坐着播新闻,还能在虚拟直播间里走来走去。
实际上,「新小微」的诞生,是利用搜狗核心人工智能技术「搜狗分身」,在采集赵琬微真人海量数据的基础上,用AI算法生成的全球首个3D虚拟主播。只要输入文字,就能实时生成逼真的3D数字人视频,轻松做到对口型、秀表情、切机位。

全球「首个」3D AI合成主播:实时多景深切机位,业内第一家
当然了,「全球首个3D AI合成主播」的称号可不是随随便便就能叫的。而两会作为全国最重要的会议之一,对新闻播报的专业度、精确度、实时性等,都有着非常苛刻的标准,更是半点都马虎不来!搜狗3D AI合成主播经受住了这次严峻的考验,在以下5个方面展现了过人的实力。
超写实
高清特写镜头下,「新小微」的皮肤材质、毛孔、牙齿、嘴唇、眼睛、头发都清晰可见;AI合成主播讲话时,语音和唇动配合十分默契,面部的肌肉运动也十分流畅。同时,AI主播的眨眼、头动、身摆也更接近真人。
3D场景
可以做到对3D数字人360度的展现、全方位的呈现,这使得未来可以运用在多机位、多景深的场景下。
实时文本驱动
「我只是给了她一段文字,她却还了我一段逼真的视频」。搜狗AI技术已经拥有了给到一个文本,就能实时输出一个视频或者视频流的能力。请注意,它是实时的。现在大家在游戏中、电影中看到的很多NPC人物或3D电影角色,他们可能都是3D建模的,但都需要在前期和后期投入了相当大的人力、时间、财务成本,才能保证模型足够的写实。
灵活可控3D
AI合成主播是一个完全参数化的、数字化的模型,基于这个模型可以让它做各种各样的动作,可以让他走路、做各种手势,同时头动、身体的运动都非常自然,具有很强的灵活可控性。更强的灵活可控性,代表着这个数字虚拟人可以做出更多复杂的动作,从而适合更多的场景。比如做主播做新闻的时候,可以随时走动、做出各种肢体动作;做老师讲课的时候,可以跟学生互动,做手势等。
低成本迁移
将一个真人的各种数据做半自动化的数据标注,产生出大量的3D运动数据,结合语音数据、图像数据,共同做多模态建模,最后生成一个可驱动的3D数字人。我们可以听到AI主播的声音十分接近赵琬微,而在预训练模型的基础上,只用了赵琬微一个小时的语音数据,再做做微调,就实现了!成本简直不要太低。
AI模型,效果远超传统3D建模技术
「搜狗分身」的AI硬实力,为传统的3D技术创造了无限的想象空间。传统写实类的3D模型,很多是采用blendshape或骨骼动画去做的。做AI的小伙伴可能不是很熟悉这两个产品,下面我们简单介绍一下。blendshape3d软件里用来做模型形变的一种技术,通过调整权重,设计师可以将目标模型变化成一系列预定义的模型,或者这些模型的任意线形组合。
骨骼动画模型是动画中的一种。在骨骼动画中,模型具有互相连接的「骨骼」组成的骨架结构,通过改变骨骼的朝向和位置来为模型生成动画。

但是,单纯用骨骼动画,模型中只有骨骼参与了移动,没有考虑肌肉协调身体其他部分(比如面部表情)的联动效应,做出的效果就没有这么逼真。
那么搜狗的3D AI合成主播是如何实现的呢?
首先,基于真人原型采集海量数据:真人赵琬微戴着数据采集头盔,几百个摄像头对其身体各个部位360度全方位「打点」扫描,采集每一处细节,并对其多种形态的表情和动作进行细致入微地捕捉记录。其次,采用了行业领先的扫描还原算法,以及面部肌肉驱动、表情肢体捕捉等技术,生成高逼真度的3D数字人模型。最后,通过搜狗分身的多模态生成算法对3D数字人模型进行实时驱动、渲染,使其面部表情、唇动、肢体动作和语言表达能力实现了高度契合。3D AI合成主播采用的是全球最领先的肌肉绑定3D模型,从面部表情到肢体动作的细节,达到了影视级作品及游戏NPC的写实度,有时候甚至更高、更自然。
AI驱动,真正实现了「降本增效」
实际上,游戏或电影里面早就有了类似的虚拟数字形象,那么跟搜狗的3D AI合成主播相比,有什么区别呢?首先,游戏及电影行业多是靠人工驱动才能实现一个高写实的3D模型,需要投入大量的人力和财力成本。扫描一个人,再投入大量的人工,采集他讲的每一个字、每一个发音、每一个动作,靠美术师自己勾画出来,一点一点提升写实度,制作一个小时完整的3D写实视频,大约需要花几千万人民币。我们也咨询了游戏行业的专家,对AI主播的效果还是比较认可的。「如果想制作一个写实度这么高的3D视频,一分钟视频,一个专业的美术师差不多要花一个月的时间。」

其次,像现在市面上一些比较火的卡通形象(如洛天依)都是靠真人采集,没有做到真正意义上的AI驱动,搜狗AI很容易就能实现这种仿真的数字形象。

而「新小微」使用了端到端的模型,靠AI算法实时驱动。输入一个文本直接就能输出一个视频或者视频流,生成1分钟左右的视频,仅需要1分钟,总体来看效率几乎是实时的。此次官方宣称的「全球首个」,是因为他们做了一个3D的、基于AI驱动的数字合成主播,这是全球首创的,而并非一个简单的3D虚拟形象。更厉害的是,这个3D虚拟主播是在不输游戏中人物写实度的前提下,完全使用AI来驱动。
打造真正的「虚拟个人助理」:逼真、实时、可交互
说白了,3DAI合成主播只是一个演示案例。但这个案例,却是搜狗「以语言为核心的AI战略布局」的一次具象化体现。使用「搜狗分身」技术,能够构建很多数字人的形象。利用这些所谓的「分身」,可以代替本人做一些重复性的繁杂工作,把人真正解放出来,有更多精力去做更多创造性的工作。目前「搜狗分身」已经具备了3个特点:
1. 多领域。包括媒体、客服、司法等领域都得到了应用
2. 可交互。作为一个真正的数字人,可以与人进行对话
3. 多语种。不仅支持中文,还支持中英日韩俄五种语音播报
除了和新华社合作推出3D主播,搜狗还和平安普惠合作,将「搜狗分身」应用在面审客服上;和北京互联网法院合作,推出首个AI虚拟法官;搜狗自己还推出了自有IP主播「雅妮」,以及全球首个AI营养师。显然,做虚拟主播并不是搜狗的真正目的,毕竟这个和他们未来目标相比,难度太低了!他们真正想要的,是通过文本、语音、图像融合而成的高逼真数字人,让AI成为可交互、懂人言、拟人化的虚拟个人助理(VPA)。今天的「新小微」在新华社做主播,明天的「新小微」在你身边做小助理。这,才是·智能个人助理
来源:微信公众号——新智元
链接:https://mp.weixin.qq.com/s/m3HFtAPG_PoWfmGVQKz8Jg
编辑:宋婷
419#
 楼主| 发表于 2020-5-27 21:15:25 | 只看该作者
【案例】
智源研究院与剑桥大学、中科院自动化所、北大学者共同撰文并发布
《克服人工智能伦理与治理的跨文化合作阻碍》
为促进人工智能伦理与治理的国际合作,北京智源人工智能研究院、剑桥大学、中科院自动化所中英人工智能伦理与治理研究中心、北京大学相关学者合作撰文《克服人工智能伦理与治理的跨文化合作阻碍》,倡导推动跨文化背景下的人工智能伦理与治理的全球协作与创新。文章日前在线发表于《Philosophy and Technology》期刊,北京智源人工智能研究院人工智能伦理与安全研究中心、中科院中英人工智能伦理与治理研究中心组织翻译,并作为《人工智能伦理、治理与可持续发展译丛》文献第1期发布文章中文版。
译丛引言
人工智能伦理与治理关乎全球人工智能发展与创新的方向与未来。将人工智能作为使能技术推动人类、社会、生态及全球可持续发展是人类进行人工智能技术创新的共同愿景。在这个过程中,来自各个国家、政府间组织、国际组织的人工智能伦理与治理工作通过学术机构、产业、政府等以各种方式积极推动相关原则、政策、标准、法律的制定、技术与社会落地。虽然来自各个国家、组织的努力是在不同文化背景下建立的,但是文化的差异恰恰提供给我们思考问题的不同视角,和相互学习与借鉴的机会。如《论语》中有言“君子和而不同”。建立跨文化互信是全球和谐发展的基石。人工智能伦理、治理与可持续发展将是全球科技、社会领域的持续性重要议题。为此,北京智源人工智能研究院人工智能伦理与安全研究中心携手中国科学院自动化研究所中英人工智能伦理与治理研究中心等单位共同发起《人工智能伦理、治理与可持续发展 译丛》,将人工智能伦理与治理、可持续发展领域的重要文献进行遴选,组织翻译,并介绍给全球读者。期待从跨文化、跨语言的交流中各自有所裨益,促进伴随技术发展的文化交流,推动全球人工智能与人类未来的和谐发展。
曾毅
北京智源人工智能研究院人工智能伦理与安全研究中心 主任
中科院自动化所中英人工智能伦理与治理研究中心 联合主任
克服人工智能伦理与治理的跨文化合作阻碍
文章作者
Seán S. ÓhÉigeartaigh¹,², Jess Whittlestone¹, Yang Liu¹,², 曾毅²,³, 刘哲²,
1. 剑桥大学Leverhulme智能未来研究中心, 英国
2. 中英人工智能伦理与治理研究中心,中国
3. 北京智源人工智能研究院人工智能伦理与安全研究中心,中国
4. 北京大学哲学与人类未来研究中心,中国
说明
本文英文版2020515日在线发表于《Philosophy and Technology》期刊,英文原文可通过https://link.springer.com/article/10.1007/s13347-020-00402-x进行访问。本文中文译文由北京智源人工智能研究院人工智能伦理与安全研究中心及中国科学院自动化研究所中英人工智能伦理与治理研究中心组织翻译。本文责任作者联络方式(Seán S. ÓhÉigeartaigh so348@cam.ac.uk),本文两位国内作者联络方式:曾毅(yi.zeng@ia.ac.cn),刘哲(liu.zhe@pku.edu.cn)。下文是中文版全文的部分介绍,获取全文请参考文末链接。
主要内容简介
实现人工智能对全球有益需在人工智能伦理标准与治理的诸多相关领域达成国际合作,同时保证文化观与文化理念的多样性。当前,由于文化间信任缺失及跨地域合作的现实挑战等因素,实现这一目标还有诸多阻碍。欧洲、北美地区与东亚地区的合作将在人工智能伦理与治理发展上产生重大影响,因此本文主要探讨以上地区在开展合作过程中所面临的障碍。本文认为扩大基于人工智能伦理及治理的跨文化合作前景可观,且有因可循。人们往往低估不同文化或地区间误解的影响,但其实这些误解会瓦解跨文化信任,甚至导致根本分歧。然而,即便存在根本区别,也并不意味着跨文化合作无法有效推进,原因如下:
1)合作并不代表着需要在人工智能所有相关领域达成统一原则或标准;
2)尽管对某些概念性的价值观或原则存在分歧,各方也依旧可能在实际问题上达成一致。
本文相信,在促进人工智能伦理以及治理方面的跨文化合作中,学术界扮演的作用至关重要,包括建立相互了解的深厚基础以及阐明何时有必要且有可能求同存异。本文对实际行动与方案也提出了相关建议,包括翻译核心文件、发表核心文件多语种版本,研究人员交流项目,以及推进与跨文化话题相关的学术研究发展。
跨文化合作的重要性
(1)应当确保人工智能可以实现全球社会效益,共享某个地区的先进技术从而带动其他国家的发展,并确保社会共同进步且人工智能为各个地区带来一致的积极效益,要实现上述目标,合作必不可少。
(2)通过合作,世界各地的研究者可以共享专业知识、资源以及实践范例。由此可以更早实现有益人工智能的应用,也可以合理处理潜在的伦理问题以及关键性安全问题。
(3)如果缺失相应合作,可能会导致国家或不同商业生态系统间的竞争压力,从而在安全、伦理、以及人工智能社会效益发展等方面的发展投入有所缺失。(Askell et al.2019Ying2019)。
(4)国际合作的重要性也体现在诸多实际因素上,如为确保跨越国家和地区界限的人工智能应用(比如人工智能在主要搜索引擎以及智能驾驶领域的应用)能够有效融入不同监管环境,并与其他地区实现科技互联(Cihon2019)。
克服合作阻碍
实现人工智能伦理与治理的跨文化合作困难重重,但本文认为仍有推进进程的可行方案,且当下并不需要解决更深刻的问题,例如无需在所有基础伦理与哲学问题上寻求不同文化间的共识,也无需当即解决国家间数十年以来的政治矛盾。
建立深度相互理解,包括围绕分歧达成共识
对于人工智能伦理与治理的未来发展而言,国家间的不信任是一个严峻问题。本文所指的不信任一定程度上由相互间的误解与错误认知引起。因此,为建立更牢固的跨文化信任,首先要建立正确认知、消除误解,增进不同文化与国家之间的互相理解。长久以来,国家间的误解已然根深蒂固,为了建立更加牢固的跨文化合作,我们首先需要认清与人工智能伦理联系紧密的误解,在争议集中点以及最能影响治理方案的争议达成相互理解。在此过程中,需要明确伦理上的分歧,而不是治理方面的分歧。因为在某些情况下,虽然不同群体各具伦理观点,但也仍会在某些治理准则上达成一致。这一点我们会在后文进行讨论。这样做也利于区分与人工智能直接相关的误解(比如其他国家的科技投资或者数据保护法),以及化解更广泛的社会、政治、哲学等与人工智能间接相关的误解,毕竟不同的问题需要不同的对策。
求同存异建立合作途径
人工智能伦理、治理以及更广泛社会问题上的分歧也许很难根除,但这并不影响达成共识及合作。如前所述,人工智能伦理及治理面临的关键挑战是明确准则、标准以及制度达成跨文化共识尤为重要的领域,这些领域还需容纳或鼓励不同的理解以及方法。这一挑战本身就需要通过跨文化合作解决。该挑战所依据的信息来源于不同文化背景下对人工智能影响的理解,以及不同群体的需求与愿望。即便人们的根本观点或抽象观点持不同意见,但对于如何解决具体问题往往会达成一致意见。这一点是执法的关键所在,对于广义上的多元社会也一样重要。多位学者在关于跨文化信息伦理的论述中提到旨在达成“重叠共识”的相关概念,即不同群体或者文化体支持同一套规范或实践指导方针的出发点可能不尽相同。《新一代人工智能治理原则——发展负责任的人工智能》中便阐述了上述对策,并提出:“开展国际对话与合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范”。与就共同认同的根本价值观达成国际共识相比,更为重要的是探索在规范及实践性指导方针方面存在重叠共识的领域,从而确保人工智能对人类有益。
在实践中落实原则
理论上可以促进互相理解、达成治理方法共识之处也可能遭到反对,反对者认为在实践中影响人工智能的发展及应用比较困难,因为要达成这样的共识必须影响大国与实力雄厚的公司的行为,而这些国家或公司的合作意愿并不强烈。国际学术界及民间团体的努力有助于规范原则,为日后制定更具约束力的法规提供了坚实基础。例如,欧盟委员会发布的《人工智能白皮书——欧洲追求卓越和信任的方法》及其落地工作是一个有益的实例。
建议
学术界在支持人工智能伦理和治理的跨文化合作中发挥着重要作用,学术研究可以探索亟需合作的领域以及合作类型,制定方案可以克服更多合作中的实践障碍。本文提出了许多问题,需要不同领域的学术专家进行解答,问题包括:阻碍区域间合作的最大误解为何?何处需要基于人工智能伦理和治理的国际协议?在保留伦理问题分歧的同时,如何对具体的治理标准达成一致?
以下建议指出了学术中心、研究机构和研究人员可以采取的若干步骤,从而促进基于人工智能伦理和治理的跨文化理解与合作。在这些领域中,部分优质项目已经进入正轨。然而,本文认为人工智能在新领域和新地区的应用速度值得关注,呼吁学术界加强重视在更广泛的伦理和治理研究项目中建立跨文化桥梁,并将跨文化专业知识纳入其中。
制定基于跨文化合作的人工智能伦理及治理研究议程。提升跨文化合作研究项目对于建立支持国际政策合作的国际研究社群而言至关重要。符合此类合作要求的研究项目应进行比较性、前瞻性的实践,探索在不同文化中对于人工智能社会影响的积极愿景和突出担忧有何不同。这有助于形成国际化视野,明确人工智能发展中应当达成或避免的方面,指导关于伦理和治理框架的实际讨论。达成共识很可能可以力挽狂澜,安全与保障是全球人类文化的基础,因此制定协议、规避文化威胁成为更容易着手的切入点。包容根本或抽象伦理问题分歧,在具体案例、决策及治理标准上达成共识。然而,本文认为重视积极愿景也尤为重要。跨文化学者协力打造人类共享的美好未来,也是一种深入研究共同价值观中细微差别的良策。
翻译关键论文及报告。与其他科学领域相同,语言也是阻碍人工智能发展、治理及伦理的跨文化理解的主要实际障碍。因此,若能将人工智能伦理与治理以及人工智能研究领域蓬勃发展的著述翻译成多语版本,则将创造极大价值。虽然很多亚洲人工智能领域的领先学者能够熟练运用英语,但是不具备此能力的学者仍占多数,掌握中文普通话或者日语的西方学者更是少之又少。提供文章、报道的多语种高质量翻译版本也体现出一种尊重及参与跨文化交流的意愿,可能会鼓励进一步合作。此外,上文论述的一些误解与其他地区学者理解、引用某地区主要文献的方式也密切相关。西方媒体将中国于2017年发布的《新一代人工智能发展规划》描述为中国为在人工智能经济与策略领域巩固全球主导地位的手段。但对中国而言,国家人工智能发展目标主要是出于中国经济与社会的发展需求(中国国务院 ,2017),而不一定是国际竞争的优势。有些对于关键术语及要点的不当翻译造成了误解。例如,该《规划》的中文原文指出“中国力争到2030年成为世界主要人工智能创新中心” 。然而有些英文译文将此句翻译为中国即将成为“世界最主要的人工智能创新中心”。随后,谷歌母公司Alphabet前任执行董事Eric Schmidt进而将这句话理解并表述为“到2030年,中国将会主宰人工智能产业。真的是这样吗?这反正是(中国)政府说的。”。虽然从某种意义上来说这句话的措辞并未经历过大的变化,但是这句话毕竟承载着重要寓意。原文中的措辞较为婉转地表达了中国的领导能力和发展进程,而非国际霸主的地位。重要文件的多语种高质量翻译版本可以让学者辨别语言与上下文的细微差别,而这些信息很可能在转述中有所缺失。
确保主要人工智能研究会议、伦理及治理会议在不同大洲轮流召开。为了提高人工智能发展、伦理及治理的全球参与度,本文建议围绕这些话题的主要会议及论坛应当在不同大洲轮流召开。
建立博士生及博士后联合和/或交换项目。在不同文化背景下的研究人员职业生涯初期鼓励其参与跨文化合作将有助于加强合作和相互理解,推进研究进程。
局限与未来方向
本文认为学术界在推进人工智能伦理及治理的跨文化合作中发挥着重要作用。无需消除所有基本价值观差异即可有效建立基于相互理解与合作的社群,并且最重要的是减少文化体间的误会与误解。笔者们也意识到,本文的建议无法完全消除跨文化合作的障碍,未来还需要投入诸多努力以确保人工智能对全球有益。本文将简要点明指导这一目标的两个较为宽泛的未来研究方向。
细致分析跨文化合作的障碍,尤其是分析与权力分配、政治矛盾相关的内容。历史成功案例的分析表明,基于人工智能伦理及治理的跨文化举措可能在很大程度上影响实践中准则、标准和法规的制定,但在实施和执行层面仍然存在许多本文没有谈及的障碍。未来的研究可以回顾历史,探索过去成功影响全球性准则及制度的事件发生在哪些时期、如何发生。这样的研究将具有重大价值。
考虑未来强大的人工智能系统在跨文化合作上遇到的挑战。人工智能的未来发展可能为全球合作带来更大规模的全新挑战,一些学者也提出,人工智能的未来发展可能会像工业革命或农业革命一样产生变革性的影响。如果缺失严谨的全球方向把控,这种技术进步将导致技术领先的国家和落后的国家之间产生前所未有的鸿沟,体现于财富和权力的不平等之上。另一些学者的研究更加面向未来,提出开发具有超级人工智能系统的可能性。如果不考虑后果和安全性,这种系统的强大功能可能会对人类文明构成灾难性的风险。就共同价值观和原则达成全球共识、设计尊重多元价值观的系统已经成为了当务之急。
结语
从实际的角度而言,国际人工智能研究和人工智能伦理及治理团体必须仔细思考组织的活动如何支持全球合作,或是如何促进对不同地区社会观点和需求的理解。广泛的跨文化研究合作与交流、不同地区举办的会议以及多语种刊物有助于化解合作障碍、化解不同观点和共同目标的理解障碍。如今政治风向愈加偏向孤立主义,研究人员跨越国家和文化鸿沟、致力在全球范围内实现有益的人工智能显得尤为重要。
中文版全文下载(可点击「阅读原文」查看):
http://attachment.baai.ac.cn/share/aies/cn-overcoming-barriers-to-cross-cultural-cooperation-in-ai-ethics-and-governance-2020-05-26.pdf
参考文献请见论文完整版。
作者:BAAI  
来源:微信公众号北京智源人工智能研究院
编辑:宋婷
420#
 楼主| 发表于 2020-5-30 10:22:21 | 只看该作者
【案例】
推荐算法为啥这么“灵”,又为啥会“失灵”
推荐系统是为用户推荐所需物品的软件工具和技术。提供的推荐旨在通过各种决策过程来支持用户,例如,买什么物品、听什么歌曲或读什么新闻。推荐系统的价值在于帮助用户解决信息过载和做出更好的选择,也是现在互联网领域最强大和最流行的信息发现工具之一。今天就和大家聊聊:推荐算法为啥这么“灵”,又为啥会“失灵”?
推荐算法为啥这么“灵”?
要回答这个问题,首先得讲清楚推荐算法的原理是什么。
我们知道,互联网最大的特点就是有海量的信息。不过,光是数量庞大是没有任何意义的,需要信息真正发挥作用才能产生价值。所以,如何让信息发挥价值,始终是互联网发展的一条主轴。为此,我们想了很多办法。“算法推荐系统”出现前,我们的做法是发现信息,这就是搜索引擎。搜索引擎很有用,但限制也很明显,遗留了很多问题。回想一下:我们要用搜索引擎找信息,不是直接就得到想要的结果,而是得首先掏出一个“关键词”输入进去,然后才能看到命中的结果。这个过程叫信息检索,也就是你得首先知道自己对什么信息感兴趣,得有线索,然后才能通过搜索引擎检索信息。但这就有个问题,互联网实在太大了,而人的认知圈子实在太小了,这就导致了大量本该有价值的信息,因为没被人看到,而只能静静躺在角落被白白浪费了。
这个问题初看不可能有解,毕竟从常识推断,我们得首先知道那条信息,才可能判断对它是否感兴趣,这个过程应该没法颠倒过来,去发现我们不知道但感兴趣的信息。但推荐算法做到了,它改变了搜索引擎的做法,不再是发现信息,而是发现兴趣。
推荐算法是怎样发现兴趣的呢?听起来好像很玄乎,不过原理远没有想象中的那么复杂,我用一句话概括——就是依靠人和物的关联关系,最少只要经过三次关联,就能完成兴趣发现,进行一次推荐。这么说不太形象,我举一个例子。我爱喝快乐水,经常去家旁边的便利店买快乐水,店长当然很快就知道我对快乐水感兴趣,这是第一次关联——我关联快乐水。接着,店长收完钱,想起来有另一位顾客也对快乐水感兴趣,名字就叫小编吧。小编也常到店里买快乐水,这是第二次关联——快乐水关联小编。这位小编和我一样,对快乐水有着相同的执念,但又有点不同:除了到店里买快乐水,小编还常买另一样东西——薯片,这就是第三次关联——小编关联薯片。想到这里,店长觉得:既然我们都爱喝快乐水,那没准你们也都喜欢吃薯片呢?于是,店长就向我推荐了薯片。这就是基于兴趣的推荐算法,大数据分析常举的例子——啤酒尿布,就是上面的这个原理。
我最近看到很多文章,说推荐算法比女朋友更懂你,外人一看都觉得挺神奇的,其实明白了推荐算法的原理,就应该知道这是理所当然的,术业有专攻,除非你的女朋友正好是店长。当然了,推荐算法原理不复杂,但实际要发挥好作用,还需要根据应用场景作很多调整。推荐算法的重心在于发现人与人之间的共同点,但怎么划分共同点,是有很多不同的方法的。就拿我们常见的推荐来说,既有“看过这个视频的观众还看过”这类基于视频节目的推荐,也有“同城的观众都在看”这类基于地理位置的推荐。早期做推荐很简单,是基于点击量来推荐,但大家很快发现:基于点击量的推荐没法发现差异化的兴趣。所以,要想实现一套好用的推荐算法,通常要综合方方面面去考虑,而不只是单独的一两个点。
推荐算法为啥会“失灵”?
推荐算法平时没什么问题,但一旦出现极端情况,譬如说爆发大规模疫情,就会出现前面我们看到的推荐算法“失灵”的问题,大量推荐的都是疫情相同的信息,把其他信息都湮没了。不过说实话,推荐算法有这样的结果,其实是“合理”的。你想一下:疫情期间你的朋友、家人、同学或者同事,包括你自己,最关心的是什么?就是疫情。推荐算法这边呢,我们一再强调推荐算法要做的是发现兴趣,而恰恰是正确地发现了你对疫情的“兴趣”,所以推荐算法才给你大量推荐了疫情相关的信息。非要说这是问题的话,恐怕首先也得是社会学的问题。
但是,深入地想一想就会发现,这个问题没这么简单。互联网经济在过去很长一段的时间里是推崇一种理论的,叫长尾理论,大概意思是:人类社会中存在着大量的小众需求,你贩卖的东西再离经叛道,也总会能得到真爱的捧场,互联网就是沟通小众需求的桥梁。推荐算法在很大程度上也受了这种理论的影响,所以有一种说法是:推荐算法的最终目标就是能发现这一个一个的小众圈子,把小众的信息推荐给圈子里的人。
但现实却是另外一回事。近几年大家讨论更多的是另一种互联网现象,如果你经营过公众号或者当过UP主,应该会对这种现象印象深刻,这就是头部效应。大部分甚至绝大部分的互联网流量,实际上是被少数几个“头部”信息生产者吸走了,剩下绝大多数的信息生产者,则仍然是静静地呆在角落里面被人遗忘。本该打破这一现象的推荐算法,反而加剧了这种现象。因为占据头部,所以容易被推荐,因为容易被推荐,所以继续占据头部,推荐算法导致的这种上升螺旋,让头部效应更加明显。如果把本次疫情看作是一个新的头部,也许能更好地理解推荐算法为什么会在疫情中出现失灵。
那么,这个问题应该怎么解决呢?这个问题,容易回答,也不容易回答。从技术的角度看,这个问题想要解决,思路是很清晰的,就四个字:去极端化。理论研究和真实环境往往有差别。理论研究都爱对环境条件进行简化假设,智能算法也不例外,通常假设各种情况出现的概率是服从均匀分布的,大家应该是旗鼓相当的公平竞争,谁也压不住谁,然后再在这个假设条件下构建算法的各种逻辑。但实际上,一枝独秀也许才是真实环境中最为常见的情况。其它的所谓竞争者,要么是萌新,躲在角落瑟瑟发抖,要么是菜鸡,互啄上不了台面。在算法看来,这种现实情况和假设情况相差实在太远,太极端,所以,会出现奇奇怪怪的结果自然也就不值得奇怪了。要让算法恢复正常怎么办呢?只要把极端情况变得不那么极端就可以了,很多依靠评委打分的比赛为了避免受极端情况影响,通常会选择采取去掉一个最高分和一个最低分的做法,就是类似的思路。
不过,技术本身是中立的,是正是邪,要看使用的人,就好比菜刀,究竟是用来切菜还是砍人,不是由菜刀自己说了算。现在讨论的很多问题看起来是技术的问题,其实还是人的问题。譬如人工智能,说到自动驾驶,我们就很爱讨论一个话题,说算法应该怎么处理电车难题。但实际上,算法自己是不会产生价值观的,算法的价值观,说到底还是人的价值观。推荐算法究竟要怎么改,说到底还是要看推荐算法的使用者怎么定义价值。我想,推荐算法最后一定能够满足“推荐有价值信息”这一要求的,但是,这里的“有价值”究竟是对谁而言的有价值,那就是另一个问题了。
关于作者:
莫凡,娱乐向机器学习解说选手,《机器学习算法的数学解析与Python实现》作者,前沿技术发展观潮者,擅长高冷技术的“白菜化”解说,微信公众号“睡前机器学习”,个人知乎号“木羊”。
作者:木羊同学  
来源:微信公众号华章计算机
链接:https://mp.weixin.qq.com/s/ZmVNYfm_f8X2Dcypqn7ZjA
编辑:宋婷

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表