传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
31#
 楼主| 发表于 2019-2-15 18:59:37 | 只看该作者
【案例】美国人工智能计划关注的几个重点领域

2月11日,美国特朗普总统签署了一项行政命令,正式启动“美国人工智能计划” ,以刺激推动美国的在人工智能(AI)领域的投入和发展。

特朗普政府出招了——签署启动”美国AI计划“。

目前,美国在人工智能方面具有一定的领导地位,但其地位一点也不稳定。

虽然世界各国已经启动了刺激人工智能发展的计划,但特朗普政府却几乎忽视了这一话题。

而就在昨天,特朗普签署了一项行政命令,创建“美国AI计划”,这是一项指导美国人工智能发展的高层战略。根据白宫科技政策办公室披露的信息,美国人工智能计划包含五个重点领域,分别是投资人工智能研发、释放人工智能资源、制定人工智能治理标准、构建人工智能劳动力、国际参与及保护美国的人工智能优势。

“美国AI计划”包括五个关键领域:

研究和开发。联邦机构将被要求在其研发预算中“优先考虑人工智能投资”,并报告这些资金如何用于创建一个更全面的政府人工智能投资概述。

释放资源。联邦数据、算法和处理能力将提供给研究人员,为交通和医疗保健等领域的发展提供助力。

道德标准。像白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)这样的政府机构将被要求制定标准,指导“可靠、稳健、可信、安全、可移植和可互操作的人工智能系统”的开发。

自动化。各机构将被要求通过设立奖学金和学徒制,让工人为新技术带来的就业市场变化做好准备。

国际推广。 政府希望与其他国家合作开展人工智能开发,但这样做的方式是保留美国人的“价值观和利益”。

五项原则分别是:

1、美国必须在整个联邦政府、工业界和学术界推动人工智能的技术突破,以促进科学发现、经济竞争力和国家安全。

2、美国必须推动制定适当的技术标准,减少对人工智能技术进行安全测试和部署的障碍,以便创造新的人工智能相关产业,并使当前的产业应用人工智能技术。

3、美国必须培养当代和未来的美国工人,使他们具备开发和应用人工智能技术的技能,为今天的经济和未来的工作做好准备。

4、美国必须培养公众对人工智能技术的信任和信心,并在应用人工智能技术时保护公民自由、隐私和美国价值观,为美国人民充分发挥人工智能技术的潜力。

5、美国必须促进一个支持美国人工智能研究和创新的国际环境,为美国人工智能产业开放市场,同时保护美国在人工智能领域的技术优势,保护美国的关键人工智能技术不被战略竞争对手和敌对国家收购。

白宫(The White House)发文称:

美国人从成为人工智能的早期开发者和国际领导者中获益匪浅。然而,随着全球人工智能创新步伐的加快,我们不能坐视不管。我们必须确保人工智能的发展继续受到美国人的聪明才智的推动,反映美国的价值观,并为美国人民的利益服务。

而其它媒体对此计划的评价却侧重于对细节的担忧:

纽约大学(New York University)研究小组AI Now的联席主任凯特•克劳福德(Kate Crawford)对Science表示,该行政命令“正确地将人工智能作为美国决策的主要优先事项”,但缺乏学术界和民间领袖的参与。

参议院情报特别委员会副主席,美国参议员马克·华纳对CNET表示,他支持这个计划的某些条款, 但他也担心人工智能对就业市场的影响。 华纳表示,政策制定者应谨慎行事。 “如果我们从过去两年中学到了什么,那就是在考虑新兴技术时,美国的政策制定应该更加周到。特别是涉及到可能被滥用的技术时。”

专家称:方向是正确的,但关键看特朗普政府能否以积极方式贯彻执行

人工智能已有60年历史,旨在让机器能够完成被视为是人类或动物智能象征的脑力或体力工作。在过去7年里,一种称为机器学习的技术——算法通过处理示例数据获得技能——使计算机在理解世界方面得到显著提高。这种技术催生了能够读取医学扫描结果的软件,催生了能够回答琐碎问题的虚拟助理,并成为每家大型科技公司产品战略的核心。

特朗普政府计划的一个要素是,向从事AI研究的学者和公司开放一些政府数据。像谷歌母公司Alphabet这样的科技公司,它们有大量数据记录着存储在数据中心的消费者习惯;但在医疗保健等其他领域,它们很难积累推动AI项目所需的数据。

该计划将把联邦资金和资源转向人工智能研究,呼吁在人工智能领域建立以美国为首的国际标准,并对美国工人的再培训进行新的研究。

但该计划不包括人工智能开发的新资金,而且细节内容上也不够清晰。政府没有公布实现既定目标的时间表,而是承诺在未来6个月的某个时候拿出一个更详细的计划。

“美国AI计划”涉及了人工智能发展中一些关键关注领域的问题,但缺乏新的资金是一个重要的问题。迄今为止,已有18个国家启动了国家人工智能战略,其中一半包括新的资金来源。这些数字从澳大利亚和丹麦的约2,000万美元到韩国的近20亿美元不等。

值得注意的是,新计划未能解决移民问题。美国在人工智能领域的领先地位,在一定程度上是由于其吸引外国人才的能力,但专家警告称,研究人员正日益被特朗普政府的反移民言论及其限制签证自由的承诺所阻碍。根据美国国家科学基金会(National Science Foundation)的数据,2016年至2017年间,美国的海外研究生人数下降了5.5%。

哈佛教授Jason Furman表示:

该计划是朝着正确方向迈出的一步,但为了实现既定目标,所需要的不仅仅是承诺。关键的考验是看特朗普政府是否能以积极的方式贯彻执行。这个计划很有抱负,却没有任何细节。

一些AI项目可能会受益于1月份宣布的H-1B技术签证计划的变更。该计划现在将略微偏向于拥有美国高等院校学位的人,这被认为有利于从事先进技术工作的科技公司。

白宫正在起草一份备忘录,将在6个月内公布新计划的实施细节。

中美欧AI产业政策对比:中国全面务实、美国侧重国防、欧盟强调合作

中国:所有国家中最全面、最切实

中国在2017年7月宣布了《新一代人工智能发展计划》,这份规划也是所有国家人工智能战略中最全面的,包括了研发、工业化、人才发展、教育和技能获取、标准制定和法规、道德规范和安全方面的举措和目标。根据规划的三步走目标:

第一,到2020年人工智能总体技术和应用与世界先进水平同步;

第二,到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;

第三,到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。

到2030年,政府计划发展人工智能产业达到1万亿人民币规模,相关产业10万亿元人民币规模。这份计划还表明政府有意招募世界上最优秀的人才,加强对国内AI劳动力的培训,并在促进AI发展在法律、法规和道德规范方面引领世界。

自《新一代人工智能计划》发布以来,中国政府又出台了《促进新一代人工智能产业发展的三年行动计划》,为到2020年人工智能总体技术和应用与世界先进水平同步制定了规划。

具体说,“三年行动计划”推进四项主要任务:(1)专注于开发智能和网络化产品,如车辆、服务机器人和识别系统;(2)强调开发支持AI的系统,包括智能传感器和神经网络芯片;(3)鼓励智能制造的发展;(4)构建行业训练资源库、标准测试及知识产权服务平台、智能化网络基础设施等,完善AI的发展环境。此外,政府还与国家科技公司合作,在特定AI领域展开合作,致力于在研究和产业上取得领导地位。北京还建立了一个价值21亿美元的人工智能研究技术园区。

近年来,我国不断出台人工智能相关政策,大力促进人工智能技术和产业的发展。

2017年“两会”,人工智能首次出现在《政府工作报告》。该年《政府工作报告》中提到:“一方面要加快培育新材料、人工智能、 集成电路、生物制药、第五代移动通信等新兴产业,另一方面要应用大数据、云计算、物联网等技术加快改造提升传统产业,把发展智能制造作为主攻方向。”

美国:更侧重军事AI发展

与其他国家不同,美国政府没有一个协调统一的国家战略来增加人工智能投资或应对人工智能带来的社会挑战。不过,美国国防部发起了一项统筹AI各部门的计划,可见美国目前AI发展更侧重于军事方面。

在奥巴马总统任期的最后几个月,白宫分别在三份报告中为美国的战略奠定了基础。

第一份报告为《为人工智能的未来做好准备》,提出了与人工智能法规、公共研发、自动化、伦理和公平以及安全相关的具体建议。其配套报告《美国国家人工智能研究与发展策略规划》概述了计划公开资助的人工智能研发战略计划。

而最后一份《人工智能、自动化与经济报告》则进一步详细研究了自动化的影响以及需要什么样的政策能够增强AI带来的益处并降低其成本。

特朗普总统领导的白宫对人工智能采取了一种截然不同的、以自由市场为导向的方式。

2017年8月,特朗普邀请科技巨头进白宫参加峰会,图为苹果CEO库克与特朗普。

2018年5月,白宫邀请业界、学术界和政府代表参加人工智能峰会。在会议的讲话中,白宫科技政策办公室副首席技术官Michael Kratsios概述了总统对人工智能的态度。他宣布政府有四个目标:

(1)保持美国在人工智能领域的领导地位。

(2)支持美国工人。

(3)促进公共研发。

(4)消除创新障碍。

为了实现这些目标,Michael Kratsios宣布成立一个新的人工智能特别委员会,就人工智能研发的跨部门重点事项向白宫提供建议,并考虑与工业界和学术界建立联邦伙伴关系。他还明确指出,政府将致力于消除对创新的监管障碍,以使美国企业具有创新和发展的灵活性。

2018年11月19日,美国商务部工业安全署(BIS)出台了一份针对关键技术和相关产品的出口管制框架,同时将开始对这些新兴技术的出口管制面向公众征询意见。

在这份清单中,AI和深度学习被列为一大类。其中包括:

(1)神经网络和深度学习(例如:脑建模、时间序列预测、分类);

(2)进化和遗传计算(例如:遗传算法、遗传算法);

(3)强化学习;

(4)计算机视觉(例如:物体识别、图像理解);

(5)专家系统(例如:决策支持系统,教学系统);

(6)语音和音频处理(例如:语音识别和制作);

(7)自然语言处理(例如:机器翻译);

(8)规划(例如:调度、博弈);

(9)音频和视频处理技术(例如:语音克隆、deepfakes);

(10)AI云技术;

(11)AI芯片组。

此外,被纳入出口管制的技术还包括与AI关系密切的微处理器、先进计算、机器人、脑机接口技术等。从很大程度上讲,这份框架是美国全面收紧AI相关技术共享的重要标志。

今年1月11日,该意见征询意见期结束,正式进入实施阶段。

欧盟:强调内部合作,成立欧洲AI联盟

2018年4月,欧盟委员会通过了一份20页的有关人工智能的文件,列出了欧盟对人工智能的方法。欧盟委员会的目标是:

(1)增加欧盟的技术和工业能力,增加公共和私营部门对人工智能的吸收;

(2)为人工智能带来的社会经济变化做好准备;

(3)确保适当的道德和法律框架准备就绪。关键举措包括承诺增加欧盟在AI的投资将在2020年年底,从2017年的5亿欧元增加到15亿欧元;创建欧洲AI联盟(民众现在即可加入);针对公平性、安全性和透明度的AI道德指导方案。

一个新的人工智能高级小组将作为欧洲人工智能联盟的指导,并将起草一份伦理准则草案供成员国考虑。

该委员会目前正与成员国合作,将在2018年底前制定一项关于人工智能的协调计划。即将出台的计划的目标是“最大化欧盟和国家层面的投资影响,鼓励欧盟内部的协同和合作,交流实践,共同确定未来的道路,确保欧盟作为一个整体在全球的竞争能力。”

除了美国,日本、中国、英国、欧盟、德国等也有国家或区域层面的人工智能发展计划。

2016年7月,日本发布《日本下一代人工智能促进战略》,在工作层面明确了由总务省、文部科学省和经济产业省在技术研发方面的三省合作体制。2017年3月日本召开“人工智能技术战略会议”,并确立了发展“路线图”,主要分三个阶段,以期通过人工智能的运用,实现生产、流通、医疗与护理等领域效率的大幅提高。

2017年7月,中国颁布《新一代人工智能发展规划》,设立了三步走的战略目标,计划到2020年人工智能总体技术和应用与世界先进水平同步;到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。2017年12月,中华人民共和国工业和信息化部还发布了《促进新一代人工智能产业发展三年行动计划(2018-2020年)》。

2017年,英国政府发布《现代工业化战略》报告,直言英国政府将把英国置于人工智能和数据革命的最前沿,并使英国成为世界人工智能和数字驱动型创新的世界中心。英国政府围绕人工智能发布的政策还有《机器人与自动系统2020》、《现代工业化战略》、《发展英国人工智能产业》、《机器人与人工智能:政府对委员会2016-17年会议第五次报告回应》等。

2018年3月,有欧盟智库之称的欧洲政治战略中心发布题为《人工智能时代:确立以人为本的欧洲战略》的报告,建议欧盟鼓励发展人工智能,并努力建立起人与机器的共生关系。它还建议欧盟确立以人为本的战略,把政策目标设定为使人们感到被人工智能赋能,而非被其威胁。

2018年7月,德国出台《联邦政府人工智能战略要点》,希望将AI研发和应用水平提升到全球领先水平。该文件指出,德国应当成为全球领先的人工智能科研场,并将研究成果广泛而迅速地转化为应用;德国同法国合作建设的人工智能竞争力中心要尽快完成并实现互联互通。(本期编稿:熠婧)

资料来源:工业智能化 、装备参考。


编辑:冉玲琳

链接:https://mp.weixin.qq.com/s/UT_2k93tzlH3Ahn9a5rarQ



32#
发表于 2019-3-2 00:28:43 | 只看该作者
【案例】

沈浩 等:人工智能:重塑媒体融合新生态





原文链接:https://mp.weixin.qq.com/s/PfHkwPzIyN56aVR-Jfqrjw
编辑:付莎莎
33#
发表于 2019-3-3 12:12:58 | 只看该作者
【案例】


本期#马堡传播·前沿报告#迎来的主讲人是北京师范大学新闻传播学院博导、副院长,国家广电总局“新闻出版大数据用户行为追踪与分析重点实验室”主任张洪忠教授。2月26日晚7点半,张洪忠教授在传播学院五楼会议室做了一场题为“异类还是共生:社交媒体中的社交机器人研究路径探讨”的讲座。从机器人在社交媒体中的遍在入手,张洪忠教授以鲜活的案例讲述了人机共生的媒介新形态。通过比对计算机与社会科学领域的社交机器人研究,张教授进而提出了拓展传播研究范式的主张。讲座由传播学院张梅教授主持。传播学院、公共管理学院社会学专业等的近百位教师、研究生参与了张洪忠教授的讲座和讨论。


△讲座现场

张洪忠教授展示的第一个案例是微软小冰。他说,新闻客户端、腾讯QQ、网易云音乐里都有小冰的影子存在,在全球各种语言里,微软小冰共有6.6亿的人类用户,并在金融领域与“万得资讯”“华尔街见闻”合作,因此成为一个大的IP。从小冰延展开,张教授谈到其研究团队与微软合作对机器人写作的一项研究。通过对机器人写作与真人写作作精确的比较测试实验,该项研究证实了机器人写作的优秀表现。但张教授也认为,机器人写作是一把双刃剑。机器人写作虽然会提高新闻工作的效率,但也同时也会在伦理方面带来极大的挑战。在社交媒体上,机器人写作对政治、经济、文化诸方面尤其是政治选举方面的影响,尤其明显。他指出,AI机器人的参与改变了公共话语和调整了舆论意识,已经成为影响当今西方政治选举结果的一个重要变量。他认为,人类社会已经从人与人的关系转变为人与机器的关系。在社交网络中,社交机器人可能成为整个社会的一部分,这就需要对其进行深入研究。


△北京师范大学新闻传播学院博导、副院长张洪忠教授


张洪忠教授指出,目前学界关于社交机器人的研究主要是在计算机学科和社会科学两个领域,计算机学科的研究主要关注的是其背后的技术问题,如社交机器人的开发、社交机器人活动路径的追踪、社交机器人与用户交互行为的测量、仿真模型和预测系统的搭建、网络安全问题的评估等。其中,如何识别社交媒体中的社交机器人不仅是一个热点,也是与传播学学科相近的研究问题。他指出,社交媒体中的内容、关系网络、情感偏向和时间模式等特征既可以被社交机器人模仿,同时也可以据此进行社交机器人与真实用户的甄别。他认为,计算机科学家研发与识别社交机器人类似于病毒与杀毒软件的开发,两者处于紧张的博弈状态。


在社会科学方面,张洪忠教授发现,主要是把社交机器人视为他者,并做了四个方面的研究。首先是社交机器人的传播效果,其次是社交机器人行为的文化批判,如机器人的行为是否违法、是否存在欺诈、是否挑战了人类社会良俗等,再次是政策分析,最后则是人与社交机器人的传播关系研究。他指出,机器人与机器人互动已经成为一种常态,由此产生了多伦多大学的威尔曼教授所称的网络化的个人主义问题。网络个人主义是比一种网络的巴尔干化更加孤独的状态。人们以原子化的个体存在于现实世界,其周围围绕的是虚拟空间中海量的社交机器人,人与人之间的沟通少于人与机器人的沟通。他认为,网络化的个人主义会带来系列的社会研究问题,比如潜意识的幸福感、社会资本等的降低问题。



讲座的最后,张洪忠教授讨论了社交机器人对传播学研究的影响。他指出,随着社交机器人产品迭代加速,社交机器人正在成为信息的内容生产、观念传播和意义表达的重要参与者,人类用户在社交媒体中唯一主体的地位正在消解。社交媒体的生态,正在经历“人”主导向“人+社交机器人”共生状态的转变。社交机器人虽然与真人用户共生于一个网络空间,但基于运行机制的差异性,不能简单地以真人用户的行为规律来研究社交机器人。对社交机器人来说,运行程序的算法设计、接触数据来源等是决定其交互行为的关键因素,社交机器人的人格化特征会越来越明显,从而真正成为一只看不见的手,影响着现实的世界。因此,他认为,过去建立在真人研究基础上的传播学就需要一种研究范式的转换,从而实现传播学研究范式的拓展。

讲座的最后环节,张洪忠教授与现场的师生就社交机器人的图灵测试、社交机器人的行为伦理及社交机器人的可控性等问题进行了互动。针对师生们最为关心的机器人失控问题,张洪忠教授指出,社交机器人的失控问题目前还只是好莱坞电影的想像。他说,人工智能技术的发展有三个阶段。其一是人工智能专项,如基于自然语言的智能语音技术;其二是全能型的人工智能,如能够进行情感陪护、家务劳动的机器人,这种机器人看似智能,但它并没有思想的;其三是有意识的人工智能,有自己的价值观和价值判断,所谓失控应该发生在第三个阶段。他指出,今天的人工智能技术还处于刚刚起步阶段,尚未进入第二个阶段。现在,我们连自己大脑的研究都还只是表皮,更不可能创造一个和我们一样有自我意志的机器人。对于人工智能,一定要在技术逻辑上进行理解,不能把理解建立在好莱坞电影的想象之上。




△师生交流互动现场

编辑:付莎莎

34#
发表于 2019-3-4 11:54:18 | 只看该作者
【案例】


刚刚,全球首个AI合成女主播上岗了!

全球首位AI合成女主播今天正式上岗了。

新华社联合搜狗公司近日在京发布全新升级的站立式AI合成主播,并推出全球首个AI合成女主播。这是继去年双方联合发布全球首个合成新闻主播以来,人工智能与新闻采编深度融合的最新突破性成果。

此次AI合成主播的升级版和新品发布,再次引发全球媒体圈的关注,“今日俄罗斯”电视台网站、英国Daily Mail等海外媒体进行了大篇幅报道。



↑“今日俄罗斯”电视台网站和英国Daily Mail的报道


“今日俄罗斯”电视台网站称,新华社推出了全球首个AI合成女主播,在中国即将召开的两会上,由电脑生成的这名主播将与新华社现有的AI合成男主播一起工作。“新华社对其男主播进行了一系列升级。该主播已从过去的坐着播新闻升级成结合肢体动作的站立式播报,并且使用更有表现力的肢体语言。”

英国Daily Mail报道称,网民对新的主持人表示欢迎;印度媒体DaytodayGK称,除了嘴唇动作稍显僵硬外,她几乎可以以假乱真。


↑印度DaytodayGK、美国Futurism、约旦AI Bawaba的报道


美国Futurism报道称,“新小萌”从来没有上过新闻专业课,因为她并不是一个真正的人。但是新华社称,每一位AI合成主播都可以“每天24小时在其官方网站和各种社交媒体平台上工作,从而减少新闻生产成本、提高生产效率”。

约旦媒体AI Bawaba称,近年来,中国已成为全球领先的人工智能发展中心之一。


↑美国KTLA5的报道


此外,一周以来,还有英国The Daily Star、阿联酋The National、美国KTLA5等多家海外媒体对AI合成主播的升级予以了关注。

作为新华社的新员工,AI合成主播上线后立即投入到新闻报道中并实现量产,目前已播报新闻3400余条,累计时长达10000多分钟,参与了包括第五届世界互联网大会、首届进博会等重要报道,是助力新华社新闻生产的新生力量。据AI合成主播项目负责人齐慧杰介绍,此次升级在声音和图像两大引擎上有了较大的优化和突破,用户的新闻视听体验也进一步增强。

对此,美国财经新闻网站Quartz称,中国在淘汰传统记者的路上又迈出了一大步。


↑美国Quartz和阿联酋The National的报道


许多媒体人也担心自己会被AI合成主播取代。阿联酋媒体The National报道称,这也许是世界各地记者都不愿报道的新闻,中国刚刚发布的另一名AI主播,可能将偷走我们的工作,这虽然称不上灾难性消息,但仍然可能会让那些报道此事的人感到不安。


↑《参考消息》和英国The Daily Star的报道


而新华社《参考消息》援引“今日俄罗斯”电视台网站报道称,虽然AI合成主播经过一系列升级,更加栩栩如生,但对机器人革命感到担忧的记者可以安心,因为AI合成主播仍然需要真人作者和编辑提供播报的内容。


链接:https://mp.weixin.qq.com/s/jxpBU0B1YQSHLCUN9m3bwg

编辑:陈茗


35#
发表于 2019-3-4 14:57:47 | 只看该作者
【案例】


“全国两会时间”正式开启 小度机器人担任AI记者进行报道

3月3日,全国政协十三届二次会议在人民大会堂正式开幕。2019年是新中国成立70周年,是全面建成小康社会、实现第一个百年奋斗目标的关键之年,今年的全国两会,格外引人注目。目前已有3000多名中外记者报名采访全国两会,曾经在故宫站过岗、春晚打过卡的百度AI机器人小度,也因工作能力突出首次担任AI记者进入中央广播电视总台协助进行两会报道。


在2019全国两会的新闻中心,小度还与中央广播电视总台央视记者宋菀进行对话,这是小度首次出镜央视两会现场直播报道,也是中央广播电视总台首次启用机器人记者。据宋菀介绍,此次参加两会的小度是专门为今年两会报道特别定制的机器人,在上岗之前学习和储备了很多有关两会的知识,堪比一本“活”字典。今年央视两会报道将通过连线记者和小度互动,小度智能“预测记招热词”将通过搜索全网相关的文章、网友评论和热搜,回答记者提出的问题,预测本场记招的热词。此外,小度还将为媒体工作者提供大会区域位置查询、人脸识别、拍照、周边查询、聊天娱乐等等智能服务,有问题,找它就对了。



据了解,小度机器人是百度自主研发的智能机器人,集合了自然语言处理、对话系统、语音视觉等AI技术,从而自然、流畅地和用户进行信息、服务、情感等多方面的交流。小度机器人的强大功能背后是百度 AI 深厚的技术支撑,百度大脑目前已通过开放平台对外开放158项技术和能力,使开发者能够进入百度云,轻松地将AI应用到新开发和已开发的应用程序中。百度大脑开放平台形成了从深度学习框架、深度学习实训平台、通用AI能力、定制化训练平台、软硬一体模组到整体解决方案的全栈式开放平台,极大地推动了AI商业化进程。
最近,第十三届全国政协委员、百度董事长兼CEO李彦宏在两会提交了三项提案,均与人工智能相关。第一,提议构建智能交通解决方案,让老百姓出行更顺畅;第二,提议完善电子病历管理制度,促进智能医疗应用探索,助力“健康中国”战略实施;第三,提议加强人工智能伦理研究,打造智能社会发展基石。
其实,这已经是李彦宏连续五年提交与人工智能相关的提案。从2015年的“中国大脑”计划,到2016年希望“加快制定和完善无人驾驶汽车相关政策法规”,2017年的三项提案全部聚焦在人工智能,再到2018年希望国家出台政策鼓励人工智能的开放平台和关于无人驾驶的提案,这些年来李彦宏探索新技术、互联网、人工智能对于社会价值的思考从来没有停止,他认为,随着技术应用不断迈向成熟,产业开放合作的时代正在到来。“我们愿做人工智能这艘‘巨轮’上的‘甲板’,为更多创新者提供支持,共同推动产业健康发展。”
今年两会期间中央广播电视总台首次启用AI记者小度,将为现场记者带来更高效便捷的媒体服务,也通过直播报道让更多人有机会一览人工智能的风采。未来,期待以百度 AI 为代表的科技企业可以把越来越多的新技术应用到各领域,为中国智能化腾飞贡献力量。

来源:手机中华网


编辑:陈茗
36#
发表于 2019-3-4 21:17:16 | 只看该作者
【案例】

AI合成主播亮相两会,其噱头价值与实用价值之比较

全国两会新闻不断,你看过两位AI合成主播播报的新闻了吗?


3月3日,新华社联合搜狗开发的全球首位AI合成女主播“新小萌”正式上岗,与名为“新小浩”的AI合成男主播一同进行两会报道。

2018年11月的乌镇互联网大会上,全球首个AI合成主播“新小浩”正式诞生。四个月后,AI合成主播已经从过去只能坐着播报新闻升级为站立式播报。据了解,AI合成主播“入职”新华社以来,已生产3400余条新闻报道,累计时长达10000多分钟。

一手缔造“新小萌”的搜狗CEO王小川今天接受媒体采访时透露,他带着AI合成主播来开两会,希望能够帮他做一些应对。目前尚不清楚,AI合成主播能够帮助小川应对何种事情。

AI合成主播背后的黑科技到底是什么?未来主播这一岗位是否会被人工智能彻底取代?
技术并不新鲜
日本早就玩起了虚拟主播,比“新小浩”还要早。

虚拟主播 Kizuna

2017年11月,一位被玩家爱称为“人工智障爱酱”的日本虚拟主播在Youtube上开始流传。这位名叫“Kizuna AI”的3D萌妹经常抖机灵,时而恶意卖萌地说一些不着边际的话,时而吐槽自黑,吸引了众多宅男的目光。



虚拟主播 Yomiko



看到虚拟主播如此受欢迎,2018年4月日本放送协会(NHK)宣布在节目中使用AI主播“Yomiko”播报新闻。“Yomiko”在工作日晚间23时10分播出的“NEWS CHECK 11”节目中登场,每周播报一次约5分钟的新闻。

这位AI主播“Yomiko”是通过CG技术制作,模拟真人发音的AI主播。技术人员事先请NHK旗下的主播阅读大量新闻稿件并录音,然后将这些语音数据分解为10万个音素,再通过“Yomiko”播报出来。为了让播报更加自然,技术人员还让Yomiko事先记住了日本全国的地名、专有名词、口音等。

新华社和NHK分别推出的AI合成主播有一个明显的区别,前者采用的是真实人脸模式,后者则是虚拟卡通人物。

除去上述差异外,背后采用的技术有诸多相似之处。

首先是动作捕捉技术。这种技术最早被用于上个世纪的物理研究,专门用来分析物体的移动特性。

随着体育界大量应用动作捕捉技术,影视动画和游戏行业也加入了这个行列。在探访大片制作现场的时候,如果你看到有人穿着一件镶嵌着无数白点的黑衣服在做奇怪的动作,就一定是在给动态捕捉拍摄底板。通过把人体关节动作在计算机中重新解析和配上肌肉,动画人物就能做出和演员一模一样的动作。

其次是人脸识别技术。人脸识别其实和动作捕捉在原理上没有太多的区别,只是人脸肌肉的移动精密度更高,更难以捕捉细节而已。随着人脸识别算法的进步,现在软件能够通过摄像头捕捉到的面部表情被简化成80多个位点,在卡通人物的脸上移动相应的位点就能模拟出人做的表情。

最后就是语音合成技术。该技术能将任意文字信息实时转化为标准流畅的语音朗读出来,相当于给机器装上了人工嘴巴。至于转化声音则更简单,目前市面上有不少免费的声音转换器。

NHK模式的定制化虚拟AI主播,表情、唇动、肢体动作都相对较少。新华社的真人模式突破了以往语音图像合成领域中只能单纯创造合成形象、并配合语音输出唇部效果的约束,极大地提高了观众信息获取的真实度。

噱头价值远大于实用价值?

某种意义上,AI合成主播并非什么了不起的黑科技,只是目前已经在大规模使用的动作捕捉、人脸识别、语音合成等技术在媒体领域的一次实际应用而已。

而且,AI合成女主播“新小萌”的缺陷显而易见。

最明显的是,“新小萌”声音机器感强,嘴唇动作僵硬。有网友表示听她播报时间长了会感觉不舒服,还有网友质疑“就是录了几个主播的状态,换了个嘴,嘴还弄的贼尬”。此外,还有诸如表情僵硬、大小脸等问题。

人类新闻主播的工作不仅仅是播报新闻信息,也会与观众进行情感交流互动。相比之下,“新小萌”目前仍停留在播报阶段。

例如,在灾难发生时,人类新闻主播会自然流露出对于不幸的悲悯与同情;在节日来临时,人类新闻主播会以一种欣喜昂扬的姿态面对受众。这些表情、语调,AI合成主播很难达到人类主播的水平并引发观众内心的共鸣。

此外,AI合成女主播不具备独立思考的能力,而人类新闻主播可以在直播过程中对新闻稿件进行随机应变的灵活处理,这也是人类新闻主播不可替代的部分。

换句话说,AI合成主播离人类主播的水平还差得很远。有评论人士表示,现阶段AI合成主播的宣传和噱头价值远远大于实际应用价值。

搜狗CEO王小川也曾表达过AI合成主播无法取代人类的观点。王小川说,搜狗于2018年推出的AI合成主播就是在新闻播报领域去替代主播做一些简单的重复性事情,成为主播的一个分身。

他强调,如今的机器还没有掌握像知识、推理概念的能力,还不具有创造性,在这种层面上机器与人的距离相差很远,机器只能做一些重复性的事情,更谈不上机器取代。


编辑:陈茗


37#
发表于 2019-3-11 23:13:38 | 只看该作者
【案例】
《大西洋月刊》:人工智能将如何重塑人类社会秩序?文章来源:钛媒体

作者:长歌




摘要: 正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。

图片来源@视觉中国

耶鲁大学社会科学与自然科学教授尼古拉斯·克里斯塔基斯(Nicholas Christakis)在即将于4月出版的《大西洋月刊》上撰文称,人工智能技术不仅会给我们带来便利,还有可能在悄无声息间影响人类社会的基本秩序。


数十年来,人们一直在担心机器人可能会通过何种方式改变我们的生活。这也成为各种科幻小说热衷的主题。20世纪40年代,人类与人工智能之间的广泛互动似乎还遥遥无期,但艾萨克·阿西莫夫(Isaac Asimov)却在那时提出了着名的“机器人三大定律”,旨在防止机器人伤害我们。

第一条是:“机器人不得伤害人类,且应确保人类不受伤害。”它的根源在于,认为机器人会通过直接互动对人类产生影响。

回想一下经典的科幻电影:C-3PO和R2-D2与义军同盟合作,在《星球大战》中挫败帝国;或者《2001太空漫游》里的HAL 9000以及《机械姬》里面的Ava都策划谋杀它们假意服从的主人。

虽然这些作品都充满想象力,但却并没有把重点放在人工智能更广泛、更重要的社会影响上——人工智能可以对人类之间的互动方式产生具体影响。

当然,激进的创新之前也曾经彻底改变过人类共同生活的方式。5000到1万年前,城市的出现导致游牧民族减少,人口密度增加。无论是作为个体还是集体,我们都适应了这种状况(例如,这些新的环境更有可能引发传染病,而我们已经进化出相应的抵抗力)。最近,包括印刷机、电话和互联网在内的技术发明彻底改变了我们存储和传播信息的方式。

然而,虽然这些创新十分重要,但却并未彻底改变人类的基本行为,而这些基本行为也构成了我所谓的“社会套件”:这是我们历经数十万年进化出来的一系列关键能力,包括爱情、友谊、合作和教学。无论生活在城市还是农村,也无论是否使用现代科技,这些特征的基本轮廓在全世界范围内都高度一致。

但在我们中间加入人工智能可能会带来更大的破坏。特别是当机器的外观和行为与我们相似,并深入地渗透到我们生活时,它们可能会改变我们之间恋爱或交友的方式——不光是影响我们与相关机器之间的直接互动,还会影响我们人类彼此之间的互动。

实验带来的启示

我在耶鲁大学的实验室里做了一些实验,跟我的同事对这种效应如何发挥作用展开探索。在其中一项实验中,我们让一小群人与人形机器人一起在虚拟世界中铺设铁轨。每组由三个人组成,他们跟一个蓝白两色组成的小型机器人围坐在一张方桌四周,使用平板电脑工作。

我们通过程序让这个机器人偶尔犯一些错误,而且会承认自己的错误:“对不起,伙计们,我这轮犯了错误。”它调皮地说,“我知道这可能很难相信,但机器人也会犯错。”

事实证明,这个笨拙且懂得忏悔的机器人通过改善人类之间的沟通,帮助团队提升了表现。他们变得更加放松,也更加健谈,不仅会安慰犯错的同伴,还会经常在一起开怀大笑。与之相比,对照组的机器人只会冷冰冰地阐述信息,在团队合作方面显得逊色不少。

在另一个虚拟实验中,我们将4000个人类受试者分成大约20个组,并在组内为每个人分配“朋友”;这些友谊形成了一个社交网络。这些小组之后都领到一项任务:每个人必须在三种颜色中选择一种,但每个人选择的颜色都不能与其社交网络中指定的朋友的颜色相同。

受试者不知道的是,一些小组包含的机器人会因为内置的程序而故意偶尔犯错。与这些机器人直接接触的人类变得更加灵活,并且会主动避免那些可能对某个人有效,但却对整个小组无效的解决方案。更重要的是,由此产生的灵活性遍布整个社交网络,甚至会影响那些与机器人没有直接联系的人。

因此,这些容易犯错的机器人所在的小组,整体表现总是优于不会犯错的机器人所在的小组。换句话说,机器人能帮助人类来帮助他们自己。

这两项研究都表明,在我称之为“混合系统”的地方,也就是人类与机器人展开社交互动的地方,正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。例如,政治学家凯文·芒格(Kevin Munger)下令某种机器人在人们通过互联网向其他人发送种族主义言论之后,对此进行干预。

他发现,在某些情况下,如果机器人只是简单地提醒肇事者,他们的攻击目标是一个人,此人的感情可能受到伤害,就可以令这名肇事者在一个多月的时间内减少种族主义言论。

但是,在我们的社交环境中加入人工智能,也会降低我们的行为效率和道德水准。在另一个实验中,我们希望探索人工智能如何影响“公地悲剧”。这个概念指的是,每个人的自私行为汇总起来可能对我们的共同利益构成破坏。

在实验中,我们向几千名受试者提供资金,以供他们在好几轮网络游戏中使用。在每一轮中,受试者被告知可以保留他们的钱,也可以将一部分或全部的钱捐赠给邻居。如果他们捐款,我们会捐出同样的金额,使他们的邻居收到的钱增加一倍。

在游戏初期,三分之二的玩家采取了无私的行为。毕竟,他们意识到在一轮游戏中对邻居慷慨捐赠,就可能促使邻居在下一轮游戏中对自己慷慨捐赠,从而建立互惠的规范。

但从自私和短视的角度出发,最好的结果其实是留下钱不捐,等着邻居给自己捐钱。在这个实验中,我们发现只要添加一些冒充人类玩家的自私机器人,就能推动整个小组采取相似的行为。最终,人类玩家完全停止了合作。于是,机器人把一群慷慨大方的人变成了自私自利的混蛋。

我们来思考一下这项发现的含义。合作是人类这个物种的一项关键特征,对社会生活至关重要。信任和慷慨也是成功群体区别于不成功群体的关键特征。如果每个人为了帮助自己所在的群体而展开投入和牺牲,大家都会受益。然而,当这种行为模式被打破时,公共物品的概念就会消失,每个人都会受到损害。

人工智能可能会极大地降低我们的合作能力,这是一件非常令人担忧的事情。

现实生活的例子

事实上,现在已经有一些真实例子让我们领教了人工智能如何在实验室之外败坏人类之间的关系。一项在2016年美国总统大选前针对570万Twitter用户进行的研究发现,一些俄罗斯帐号(其中有一些由机器人操纵)经常通过跟非恶意帐号相似的方式转发信息,对保守派用户产生的影响尤其明显。

通过利用人类善于合作和好为人师的特征——这也是社交套件的两个特征——机器人甚至影响了没有与之直接互动的人,令美国的选举出现两极分化。

简单的人工智能所产生的其他社会影响每天都在我们周围发生。父母们看着他们的孩子咆哮着向Alexa或Siri这样的数字助理发出粗暴的命令,他们开始担心这种粗鲁行为会影响孩子们待人接物的方式,或者担心孩子与人工智能的关系会干扰甚至取代人际关系。

不久前,麻省理工学院的科技和社会学专家谢里·特克尔(Sherry Turkle),在给他的儿子买了一台玩具机器人后对《大西洋月刊》说,儿童成长过程中的同伴如果是人工智能,而不是人类,那么他们可能就会缺乏同理心。

随着数字助理无处不在,我们已经习惯于跟它们交谈,就好像它们也有感情一样。茱蒂丝·舒勒维茨(Judith Shulevitz)去年曾经阐述过我们中的一些人是如何开始将它们视为知己,甚至把它们当做朋友和治疗师。

舒勒维茨本人说,她向谷歌助手透露了一些连她的丈夫都不知道的事情。如果我们在与设备密切交谈时感觉越来越舒服,那么人类之间的婚姻和友谊会发生什么变化?

由于商业需要,设计师和程序员通常会开发各种能够让我们感觉更好的设备,但却可能无法帮助我们自我反思或思考痛苦的事实。随着人工智能渗透到我们的生活之中,我们必须面对这样一种可能性:它会阻碍我们的情绪,抑制人与人之间的深层关系,导致我们不再那么设身处地为别人着想,甚至变得更加肤浅和自恋。

所有这一切,最终可能以我们意想不到的方式改变人类社会,我们甚至需要将它当做一种政体来对待。我们是否希望让机器影响孩子的善良天性?我们是否希望机器影响成年人的性行为?

英国德蒙福特大学人类学家凯瑟琳·理查森(Kathleen Richardson)更担心后一个问题。作为“反对性爱机器人运动”的主席——没错,性爱机器人已经成为一种初级现象,所以为反对它们而掀起的运动不算杞人忧天——她警告说,这种机器人们将会令人们丧失人性,并可能导致用户退出真正的亲密关系。我们甚至可能不再单纯把机器人当成满足性欲的工具,还会以同样的态度对待他人。

其他观察家认为,机器人可以从根本上改善人类之间的性行为。

在2007年出版的《跟机器人谈恋爱滚床单》(Love and Sex With Robots)一书中,从反传统的国际象棋大师变身商人的大卫·莱维(David Levy)考虑了“具有情感吸引力和性诱惑力的机器人”所带来的积极影响。他认为有些人会更喜欢机器人配偶,而非人类伴侣(事实上,去年已经有一名日本人与人工智能全息影像“结婚”)。

性爱机器人不会传播性病,也不会意外怀孕。它们可以为寡廉鲜耻的实验和实践提供各种机会——从而帮助人类成为“大师级情人”。有基于此,再考虑其他因素的影响,莱维认为与机器人发生性行为是道德的,在某些情况下甚至是理所当然的。

事实上,对于我们大多数人而言,在遭遇这种跟亲密关系有关的人工智能难题之前,应该还是会率先遇到更为日常的挑战。毕竟,无人驾驶汽车的时代已经到来。这些车辆有望大大减少困扰人类驾驶员的疲劳和分心问题,从而防止事故发生。但是它们会对人类产生哪些其他影响呢?

驾驶是一种非常现代的社交互动,需要高水平的合作和社会协调。我担心的是,无人驾驶汽车会剥夺我们锻炼这些能力的机会,导致我们的能力萎缩。

这些车辆不仅会通过程序来承担驾驶职责,从而篡夺人类做出道德判断的权利(例如,当碰撞不可避免时,哪个行人会被撞击),还会影响没有根它们直接接触的人类。例如,当驾驶员以稳定不变的速度与自动驾驶车辆共同行驶一段时间后,可能会精神松懈,注意力涣散。

因此,当他们驶入只有人类驾驶员的高速公路后,就更有可能发生事故。另外,经验可能表明,与完全遵守交通法规的自动驾驶车辆一起驾驶,实际上可以提高人类驾驶员的表现。

无论如何,我们都会肆无忌惮地开发各种新型人工智能,而不会首先考虑这些社会溢出效应——我们也经常称之为外部性。我们在管理人工智能对车外人员产生的涟漪效应时,也投入了足够的努力和独创性,就像开发无人驾驶汽车的硬件和软件一样。毕竟,刹车灯之所以设计在车尾,主要不是为了你自身的利益,更多地是考虑到你身后其他人的利益。

新的社会契约

1985年,就在阿西莫夫制定“机器人三大定律”40年后,他又增加一条:机器人不可从事任何伤害人性的事情。但他在如何评估这种伤害时却陷入挣扎。“人类是一个具体的对象,”他后来写道,“可以估计和判断一个人的受伤情况。而人性却是抽象的。”

如果集中精力关注社会溢出效应,或许可以有所帮助。其他领域的溢出效应推动了法律法规的建设和民主监督的健全。无论是涉及污染水源的公司,还是在办公楼里散布二手烟的烟民,一旦某些人的行为开始影响其他人,社会就可能会介入。

由于人工智能对人与人之间的互动会产生严重而深远的影响,而且速度快、范围广,我们必须系统地调查可能出现的二阶效应,并讨论如何才能代表共同利益对其展开监管。

已经有各种各样的研究人员和从业人员(包括计算机科学家、工程师、动物学家和社会科学家)开始齐心协力发展“机器行为”学科,希望将我们对人工智能的理解建立在一个更健全的理论和技术基础之上。这个学科并不仅仅将机器人视做人造物体,而是将其视为一种新的社会行动者。

这方面的研究非常迫切。在不久的将来,内置人工智能的机器可以通过编程或独立学习(我们将赋予它们这种能力),展示出与在我们看来非常奇怪的智力和行为。

我们需要快速区分哪些只是看上去古怪,哪些是实实在在的威胁。关于人工智能,我们最关心的是它可能影响人类社会生活的核心元素,也就是那些让我们这个物种得以繁衍生息的特征。

启蒙运动哲学家托马斯·霍布斯(Thomas Hobbes)认为,人类需要一份集体契约来阻止我们变得杂乱无章。他错了。早在我们组建政府之前,进化就为人类提供了一套社会套件,让我们能够和平而有效地生活在一起。在人工智能尚未诞生的世界里,通过基因遗传的爱情、友谊、合作和教学能力不断帮助我们共同生活。

不幸的是,人类没有进化出与机器人共同生存的天赋能力。因此,我们必须采取措施,避免它们在与我们共处的过程中造成破坏。随着人工智能更深入地影响我们的生活,我们可能还需要建立一种新的社会契约——只不过,这次的契约对象是机器,而不是其他人类。


(注:本文所有观点仅代表作者本人,均不代表凤凰网国际智库立场)

编辑:何林

https://news.ifeng.com/c/7kx0zD5SWUi




38#
发表于 2019-3-23 20:38:53 | 只看该作者
【案例】
报告 | 欧盟可信人工智能的伦理指南(草案)介绍
欧盟委员会的人工智能高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG)于2018年12月发布了《可信人工智能伦理指南草案》,该指南提出一个可信人工智能框架,强调伦理规范性和技术健壮性,并提出总计10项可信人工智能的要求和12项用于实现可信人工智能的技术和非技术性方法,同时设计出一套评估清单,便于企业和监管方进行对照。当前我国大力发展人工智能产业,长远来看,技术安全可靠且合乎人类社会伦理规范至关重要,因此该指南草案对我国制定相关准则具有一定的借鉴意义。同时,对于力图进入欧盟市场的国内人工智能企业而言,应密切关注欧盟的相关监管要求,并为此做好准备。

file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml7576\wps11.jpg

一、可信人工智能的伦理指南综述
2018年4月25日,欧盟委员会在制定了欧盟人工智能(AI)愿景,同时设立了AI高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG),目前该专家组共由52名专家组成。《可信AI的伦理指南草案》即由AI HLEG在2018年12月18日发布,目前处在公开征询阶段,预计正式版将于2019年3月发布。
欧盟《可信AI的伦理指南草案》主要分为三个章节(见图1):第一章通过阐述应遵循的基本权利、原则和价值观,确定AI的伦理目标;第二章为实现可信AI提供指导,列举可信AI的要求,并概述可用于其实施的技术和非技术方法,同时兼顾伦理准则和技术健壮性;第三章提供了可信AI的评测清单。


1:欧盟可信AI框架
二、欧盟AI伦理的五项原则及相关价值观
1)福祉原则:“向善”
AI系统应该用于改善个人和集体福祉。AI系统通过创造繁荣、实现价值、达到财富的最大化以及可持续发展来为人类谋求福祉,因此,向善的AI系统可以通过寻求实现公平、包容、和平的社会,帮助提升公民的心理自决,平等分享经济、社会和政治机会,来促进福祉。
2)不作恶原则:“无害”
AI系统不应该伤害人类。从设计开始,AI系统应该保护人类在社会和工作中的尊严、诚信、自由、隐私和安全。AI的危害主要源于对个体数据的处理(即如何收集、储存、使用数据等)所带来的歧视、操纵或负面分析,以及AI系统意识形态化和开发时的算法决定论。为增强AI系统的实用性,要考虑包容性和多样性。环境友好型AI也是“无害”原则的一部分。
3)自治原则:“保护人类能动性”
AI发展中的人类自治意味着人类不从属于AI系统也不应受到AI系统的胁迫。人类与AI系统互动时必须保持充分有效的自我决定权。如果一个人是AI系统的消费者或用户,则需要有权决定是否受制于直接或间接的AI决策,有权了解与AI系统直接或间接的交互,并有权选择退出。
4)公正原则:“确保公平”
开发人员和实施者需要确保不让特定个人或少数群体遭受偏见、侮辱和歧视。此外,AI产生的积极和消极因素应该均匀分布,避免将弱势人口置于更为不利的地位。公正还意味着AI系统必须在发生危害时为用户提供有效补救,或者在数据不再符合个人或集体偏好时,提供有效的补救措施。最后,公正原则还要求开发或实施AI的人遵守高标准的追责制。
5)可解释性原则:“透明运行”
在伦理层面,存在技术和商业模式这两类透明性,技术透明指对于不同理解力和专业知识水平的人而言,AI系统都可审计和可理解;商业模式透明指人们可以获知AI系统开发者和技术实施者的意图。
三、实施AI系统的潜在问题
1)数据主体权利保护问题
AI可让公共或私人实体更有效地识别出特定个人。为了维护欧洲公民的自主权,需要在AI中合理使用监控技术。实现可信AI应当区别个体识别与个体跟踪之间的差异,以及有针对性的监视和普遍监视之间的差异,这点可以参照“一般数据保护条例”(GDPR)第6条(该条规定,只有具有有效的法律依据,数据处理才合法)。
2)隐蔽AI系统问题
人们应当知道其交互对象是人还是机器, AI开发和部署人员有责任并且需要可靠地实现这一点。AI开发和部署人员应确保人们可了解或通过请求并验证他们正在与AI进行交互。人与机器之间的边界模糊会带来如依附、影响或降低生而为人所应具有人生价值之类的恶果,因此发展人形机器人更应经过仔细的伦理评估。
3)偏离人类基本权利、未经同意的带有普遍性针对公民进行标准化评价问题
欧盟注重公民的自由和自治,大规模的规范性公民评价(如“道德人格”或“伦理完整性”等)可能危及这些价值观,尤其是使用时背离人类基本权利,使用不合适、目标不明确或者传导偏差的情况下,更是如此。当在有限的社会领域实行公民评价时,人们应该获知完全透明的程序,并知晓有关评分过程、目的和方法的信息,还可选择退出评分机制。
4)致命性自主武器系统(LAWS)问题
LAWS可在没有人为控制的情况下运行,但最终人类必须对所有伤亡负责。目前,众多国家和行业正在研究和开发致命自主武器系统,包括能够自主选择攻击的导弹、具有认知能力的自主杀人机器等,这都带来了基本的伦理问题。
5)其它潜在的长期问题
当前所有的AI均是针对特定领域的,但随着技术的发展,可能出现机器觉醒、或者实现自我改善的通用AI(AGI)等。虽然有些问题目前看来似乎还很遥远,但需要及早关注并投入资源,尽量减少对长期风险、未知数和“黑天鹅”认识的不确定性。
四、如何实现可信AI
报告提供了关于如何实施和实现可信AI的相对完整的指南,并提出了实现可信AI的10项基本要求,以及实现这些要求的方法。
(一)可信AI的基本要求解释
可信AI是将一般性和抽象性的伦理准则融入到AI系统和具体应用中。AI HLEG共提出10项要求,并按字母顺序排列,这10项要求均同等重要。针对不同的应用领域和行业,应根据特定环境进行评估。
1)可追责性
良好的AI管控应当包括可追责机制,根据目标不同选择也较多样化,如金钱补偿(无过失险)、缺陷调查、无赔偿的和解等。可追责机制的选择依据是行为的性质、重要性及自主性等级等。在AI歧视案例中,解释和道歉是必备的。
2)数据治理
数据收集过程中将不可避免包含偏见,因此应进行删减。此外,必须确保对训练数据的仔细分类,以及验证和测试,还要将匿名化的数据划分为多个子集,保证某些数据(例如来自同一人的图谱数据)不会同时进入训练和测试环节。
3)普惠性设计
系统的设计应面向所有公民提供产品或服务,无论其年龄、残疾状况或社会地位如何。AI应用程序不宜采用一刀切的方法,而应以用户为中心,并考虑人类的各种能力、技能和要求。
4)AI自主性的管控
确保诸如安全性、准确性、适应性、隐私性、可解释性、遵守法治和符合伦理等属性的正确方法,在很大程度上取决于AI系统的具体细节、应用领域、对个人、社区或社会的影响程度,以及其自主性水平。根据AI系统的应用领域和对个人、社区或社会的影响程度的不同,需要实施不同水平的管控。
5)非歧视
使用AI出现的直接或间接的歧视,可导致对特定群体的偏见和边缘化。控制算法的人可能会故意将某类群体排除在外。如,故意伤害可以通过明确操纵数据以排除某些群体来实现。伤害也可能来自于消费者偏见或不公平竞争,例如通过共谋或不透明市场手段造成价格同质化。
6)尊重和强化人类自治
AI系统的设计不仅要维护权利、价值观和原则,还应保护公民的多样性,使其免受AI技术所带来的政府和私人侵权行为的影响。AI产品和服务,可能通过极端个性化、潜在操纵诱导个人选择。用于帮助用户的系统,必须为用户提供详细的支持,促进其自己的偏好,并设置限制防止系统干预,确保用户的福祉由其自己定义,这是系统功能设计的核心。
7)隐私保护
隐私和数据保护必须在AI系统生命周期的各个阶段得到保证。这包括用户提供的所有数据,以及在与AI系统交互过程中生成的关于用户的所有信息。组织必须注意数据是如何使用并影响用户的,确保完全遵循GDPR和其他有关隐私和数据保护的可用法规。
8)健壮性
可信AI要求算法安全、可靠且足够稳健,以便在AI系统的设计、开发、执行、部署和使用阶段处理错误或不一致,并且能够应对错误输出。技术健壮性一般体现在以下四个方面:可靠性和可重现;精确性;弹性;应急预案。
9)安全性
安全性是指确保系统确实完成其应该做的事,而没有伤害到用户、资源或环境,包括使意外结果和系统行动错误最小化。应制定确认和评估与使用AI产品和服务相关的潜在风险的流程。此外,需要正式的机制来衡量和指导AI系统的适应性。
10)透明性
透明性是指减少信息不对称。可解释性作为透明性的一种形式,需要能够描述、监督和重现AI系统做出决策和学习、适应环境的机制,以及系统使用和创立的数据的来源和动态变化。对于使用人类数据或影响人类或可能产生其他道德上重大影响的所有模型,应明确公开关于数据来源、开发过程和利益相关者的选择和决策。
(二)实现可信AI的技术和非技术方法
为使AI系统满足上述十项要求,AI HLEG提出了实现可信AI的主要途径,并指出可在开发流程的各个层次(分析、设计、研发和使用)采用5个技术性方法和7个非技术性方法,同时该流程也是动态和持续循环的,如图2所示。

file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml7576\wps13.jpg

2:在系统的全生命周期实施可信AI
1)技术性方法
这些方法可以融入到AI系统的设计、开发和使用阶段,一般需要定期跟踪和持续评估。
将伦理和法律纳入设计
将对法律和伦理价值观的遵守,至少在某种程度上,融入到AI系统本身的设计之中。这也要求企业有责任在最初就识别AI系统的伦理影响,以及该系统应当遵守的伦理规则和法律规则。
设立可信AI的架构
可通过建立规则来控制智能代理的行为,或者通过设立行为边界对其采取监控。一个能够积极学习和适应其行为的智能系统,可被理解成一个随机系统,通常用“感知-计划-行动”循环进行描述。为使此架构符合可信AI,伦理目标和要求应当被融入到“感知”层,从而可以形成遵守这些准则的计划。
测试和验证
为了验证一致性和数据的既定处理流程,应当仔细监测模型的稳定性、健壮性、运行结果的易理解性和可预测性。应当明确计划过程的输出结果与输入相一致,确保所采取的决策经验证是合理的。系统的测试和验证应当尽早,并且持续迭代,确保在整个生命周期特别是在部署之后,系统能以既定的行为方式运作。重要的是,测试应当不仅限于数据,还应包括系统的所有输入,以及整个系统的行为。
可追溯、可审计
为应对透明性和可解释性的挑战,AI系统应当记录其所作的决策和产生决策的整个流程,使决策可追溯。可追溯有助于可审计,可以推动实现监控和验证算法、数据和设计流程。
可解释性
为建立一个可信系统,有必要了解为什么该系统出现给定的行为、为什么该系统提供给定的解释。也有必要限制对抗性情境。截至目前,这些对于基于神经网络的AI系统仍然是开放式的挑战。在整个研究领域中,可解释的AI(XAI)正试图解决这一问题,以更好地理解背后的机制,并找到解决方案。
2)非技术性方法
非技术性方法相对开放,并非强制性要求,但可确保实现可信AI。
监管
虽然如今已有较多规范性文件可提高AI的可信度,如安全立法或可信赖框架,但AI HLEG认为需要更新、适应或引进新的规则,这会在未来的第二版中进行增补。可信AI需要一个明确可追责的机制,该机制包括当AI造成伤害时的赔偿规则,以及是否故意及是否有错的认定机制,后续的和解、纠错、道歉等。
标准化
使用商定的设计、制造和商业标准可以作为AI的质量管理系统,为消费者、参与者和政府提供通过购买决策识别和奖励道德行为的能力。在公约标准之外,公共规范也同样可行,如认证体系、职业道德手册、符合基本权利的标准等。这类例子包括ISO标准、公平交易标准、或“欧洲制造”标签等。
责任落实
组织应当设定内部或外部的管理框架,确保可追责性,如:任命某人或内外部伦理委员会来负责AI相关的伦理问题,由该负责人或委员会对此类问题进行监督,并提供建议。
行为守则
组织和利益相关方可以通过签署指南、调整其公司章程中的责任、KPI、行为守则等来实现可信AI。
教育和培养伦理观念
既要确保AI潜在影响的知识普及,又要让人们意识到他们可以参与塑造社会发展。教育的对象包括系统制造商(设计者、开发者)、用户(公司、个人)以及其他有关团体。教育公众的先决条件是确保伦理学家拥有该领域的适当技能和培训。
多方沟通
需要设立开放式的讨论,让社会群体、利益相关方和普通公众等共同参与。许多组织已经依赖利益相关者委员会来讨论AI的使用和数据分析。这些委员会包括不同的专家和利益相关者,包括法律专家、技术专家、伦理学家、客户和员工代表等。
包容与多元
多样性和包容性是AI的基本特性。由于AI执行的任务种类繁多,因此设计、开发、测试和维护AI系统的团队,也应当反映用户、社会的总体多样性,这有助于提高系统客观性,兼顾不同视角、需求和目标。团队不仅应当在性别、文化、年龄方面是多样的,而且其职业背景和技能也应当是多元的。
(四)可信AI的评估
指南根据十项要求拟定了评估清单,以提醒负责人在评估时应考虑的事项。鉴于AI具有场景特定性,需要针对特定情况采取相适应的方法,因此清单适用性因实际用例不同而有所不同,可根据需要进行调整。评估过程是动态且循环迭代的过程,可用于AI流程中每个步骤的评估:从数据收集、初始设计阶段,到AI系统的开发、训练或运行,以及实际的部署和使用。
例如,关于“可追责性”要求的评估事项,包括:现有技能和知识是否能用于责任分担、是否成立AI伦理审查委员会、灰色地带的讨论机制、是否成立内部或外部专家小组等。
五、结语
欧盟的可信AI框架,强调自发的伦理约束、更关注对“人”的尊重和普遍参与、追求共同的福祉,并且便于理解和执行。这个框架的基础是伦理规范,即守护人类的基本权利、遵循道德准则和维护人类社会价值观,同时强调AI技术自身应具备健壮性和可靠性。该指南还提出可信AI的10项要求,以及技术性及非技术性共计12种实践途径和方法,还根据每类要求设计出评估清单,便于产业参与各方评估可信AI应用的达标情况,具有较强的操作性和适用性。
我国高度重视AI与其他产业的融合发展,从2016年起已陆续出台多项重要政策,如《“互联网+”AI三年行动实施方案》、《新一代AI发展规划》、《促进新一代AI产业发展三年行动计划(2018-2020年)》等,有力地推动了我国AI产业发展。但AI作为一项对人类社会未来发展影响深远的技术,也存在一定的安全风险,例如未来人类创造出来的超级智能是否会拥有超越人类的能力和意志,同时它们是否具有与人类相似的价值观和社会规范。因此应当未雨绸缪,及早布局和研究AI技术的安全性,确保技术的研究和应用符合人类社会的伦理规范。目前上海在2018世界人工智能大会中发布过关于AI安全的八项倡议,更早之前腾讯、科大讯飞等企业也发表过各自的AI倡议,但国家、产业尚未有统一的普遍共识,因此欧盟可信AI伦理指南可以提供有益的借鉴。另外我国部分AI企业也在积极开拓欧盟市场,因此这份指南是这类企业必须要关注的对象。
《可信人工智能伦理指南草案》原文:
https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
编辑:冉玲琳

39#
发表于 2019-3-24 22:12:43 | 只看该作者
【案例】[size=0.48]机器人坐办公室?美媒刊文:全球化或威胁白领岗位
[url=][size=0.24][/url]
[size=0.34]原标题:参考读书 | 如果以后坐在办公室里的是机器人——
[size=0.34]参考消息网3月24日报道 美国《华尔街日报》网站3月3日刊登了题为《如果机器人有办公室——评<全球化机器人崛起>》的文章,作者为马克·莱文森,文章摘编如下:
[size=0.34]全球化大潮正在退去,贸易壁垒在增加。海运相比20年前减慢,且可靠性降低。制造商和零售商保留更多的库存,以防供应链无法送货。但是,虽然工厂就业岗位在外国竞争中流失的现象可能已经减弱,新的就业威胁却可能迫在眉睫。如果理查德·鲍德温是对的,那么全球化很快就会严重影响白领工作岗位。
[size=0.28]《全球化机器人崛起》一书封面

[size=0.34]打破现有劳动力市场均衡
[size=0.34]鲍德温是日内瓦高级国际关系与发展学院教授,研究国际贸易的主要学者之一。在2016年出版的著作《大融合》中,他表明了向穷国转让先进技术如何使现阶段的全球化对富国的产业工人尤其不利,并呼吁采取新的社会政策来解决这个问题。现在,他在《全球化机器人崛起》一书中朝新的方向进行研究,考虑机器人和人工智能的普及将如何影响劳动力的全球分配。他认为,这些快速变化的技术将使相对高薪的工作岗位面临外国竞争。在这种情况下,那些到目前为止主要从全球化中受益的人将亲身感受全球化的代价。鲍德温写道:“我们不要再问经济影响主要是由全球化还是自动化造成的问题。全球化和机器人技术现在是一对连体双胞胎——它们是由相同的技术以相同的节奏驱动的。”
[size=0.34]到目前为止,装配线机器人和能预测我们可能在流媒体音乐服务平台上欣赏什么歌曲的算法都不是新闻。鲍德温认为,这类技术的普及一开始比较缓慢,因为人们要研究如何利用这些技术;但随着它们的潜力越来越突出以及企业家发明出利用这些技术的新方法,这类技术便呈几何级数增长。他说,人工智能以及与此相关的机器人将逐渐进入工作场所,但它们将以我们未曾料到的方式融入现行劳动力市场趋势,从而造成严重破坏。
[size=0.34]例如,远程工作已经存在多年,但许多机构很难使其无缝衔接。然而现在,先进的远程呈现系统可以让身处不同地点的人感觉像在同一个会议室。远程呈现机器人试图通过模拟远程工作者来克服相隔异地带来的心理影响:事实证明,如果有一个远程呈现机器人出现在你同事的办公桌上,并在其显示屏上显示你的实时视频图像,而你通过这个机器人与同事交谈,那么相比你与同事打电话或互发即时短信,你们两人可能都更有参与感。
[size=0.34]白领职业外包变得更容易
[size=0.34]同样,许多机构将工作外包给自由职业者,而自由职业者是按劳取酬,不要求额外福利。一旦雇主找到如何有效利用国内自由职业者的办法,它就可以同样容易地雇用成本较低的外国自由职业者。一些线上服务的涌现加快了这种交易。这些服务让企业可以发布自己的需求,评估相关候选人,并与远隔千山万水的一名会计师或编辑商定每小时费率。
[size=0.28]白领职业外包变得更容易(视觉中国)

[size=0.34]鲍德温说,妨碍大量就业机会以这种方式流向境外的唯一因素是语言。在大多数低工资国家,能读写和说富裕国家所需语言的劳动者相对较少。人工智能在过去两三年里大大提高了书面翻译的质量,并使计算机能够像本国人一样“理解”和“说话”。在不久的将来,偏远地方的劳动者可以用一种语言书写,用另一种语言让他们的信件被迅速送达,还可以参加配备实时翻译的会议。鲍德温写道:“鉴于机器翻译非常好,并且非常快速地变得越来越好,说英语的10亿人将很快发现自己可以与另外60亿人展开更为直接的竞争。”
[size=0.34]全球化机器人带来新挑战
[size=0.34]鲍德温预测,与影响蓝领工作的技术进步带来的后果不同,这种变化不会让整个职业完全被淘汰。相反,它将消除任务:一个拥有人工智能的虚拟助理将承担一部分我们现在所做的工作,让我们只做白领机器人(即本书书名中提到的“全球化机器人”)无法处理的那部分工作。这意味着办公室仍将开着,但需要做事的人将大为减少。鲍德温说:“5到10年以后,我们才会意识到,全球化机器人已经彻底且不可逆转地打乱了我们的工作场所和社区。”
[size=0.34]这种未来展望并非全是坏事。一方面,我们将从那些单调的办公室工作中解脱出来。另一方面,生产力增长缓慢阻碍美国经济多年,许多研究过这个问题的人得出结论认为,生产力增长与其说与政府的政策有关,不如说与企业界的创新有关。如果机器人流程自动化和虚拟现实提供了用较少资源生产较多产品的新方法,带来的经济影响可能是积极的。

[size=0.34]然而,也存在一些明显的政策挑战。我们如何应对与贸易有关、不动用配额和关税就无法阻止的工作岗位突然流失?当信息、服务和金融领域的大多数就业机会突然流向海外薪资低得多的劳动者时,我们如何维系社会?当能言善辩、受过良好教育的人发现自己的技能因他们无法逃避的技术变革而贬值时,我们如何应对他们可能涌起的愤怒情绪?鲍德温提出这些问题值得称赞。
[size=0.34]编辑:冉玲琳

40#
 楼主| 发表于 2019-3-28 12:42:09 | 只看该作者
【案例】20190828 NYT
  • • 三名人工智能领域的先驱科学家获得今年的图灵奖。Geoffrey Hinton、Yann LeCun和Yoshua Bengio三位科学家因在神经网络方面的研究获奖。过去十年来,他们的研究所孕育出的概念彻底改变了技术的构建方式,加速了人脸识别、自动驾驶汽车等人工智能技术的发展。
    谷歌机器人项目2.0版:2013年,谷歌曾开启了一个雄心勃勃的机器人项目,由公司高管安迪·罗宾领导。罗宾于2014年遭到性侵指控后离职,该项目陷入困境。现在,谷歌机器人2.0版卷土重来,比之前低调,但技术却更加先进。


发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表