传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
321#
 楼主| 发表于 2019-11-19 22:34:32 | 只看该作者
【案例】段伟文:人和机器要互相理解对方缺陷,协同进化 | 2019腾云峰会
太硬核了!”“真过瘾!
这是2019腾云峰会科技大爆炸:AI如何向善主题论坛结束之后,来自现场观众的反馈。
用论坛主持人、苇草智酷创始合伙人段永朝的话来说,这场讨论让人感受到“被吊打的快乐”——来自中科院的技术专家思考哲学,来自社科院的哲学大咖思考技术,这样的跨界碰撞,只为增进我们对“AI向善”等主题的理解。
今天,我们首先分享来自中国社会科学院科学技术和社会研究中心主任段伟文老师的发言。对于“AI伦理,段伟文老师认为,我们今天讨论的人机关系并不是一种对立关系,而是一种从建立信任到实现协同发展的关系。这需要科学家、哲学家和企业等多方共同努力。



❒段伟文中国社会科学院科学技术和社会研究中心主任
我今天报告的这个主题——“AI伦理:遁词抑或软着陆机制有一些吊诡,因为面对的都是行家,是敢于直面世界真相的人,所以我用了遁词这个词。我希望提出一个质疑——这究竟是一种遁词还是一种软着陆机制?
这个话题要从人与工具的关系说起。
麦克卢汉说,先是我们创造了工具,然后是这些工具创造了我们。人和工具的关系就是这样。我们现在每天早上起床后都会着急去找手机,好像母亲在我们出生时给予我们拇指就是为了要亲吻手机一样。这些工具其实在重新塑造我们自己。
先看两个AI伦理原则——
其一,最近联合国教科文组织(UNESCO)提出的AI伦理准则,他们还要做进一步讨论。这里有很多我们非常熟悉的东西:责任、问责、善治、可持续等理念;

UNESCO《人工智能伦理建议书》
a. 人权:应根据国际人权标准开发和实现AI
b. 包容性:AI应具有包容性,在促进多样性发展的同时,防止出现偏见和新的数字鸿沟。
c. 繁荣:AI应有利于提高生活质量。
d. 自主权:AI应始终确保人为控制,尊重人类的自主权。
e. 可解释性:AI应具备可解释性,能使人类深入了解其功能。
f. 透明:用于训练AI系统的数据应保持透明。
g. 意识和素养:算法意识和对AI工作原理的基本了解是赋予公民权力的基础。
h. 责任:开发自主智能系统时,开发人员和公司应考虑到伦理规范。
i. 问责制:应能明确AI驱动决策和AI系统行为的责任归属。
j. 民主:应根据民主原则开发、实施和使用AI
k. 善治:政府应定期报告其在警务、情报和安全方面的AI使用情况。
l. 可持续性:所有AI应用都需在潜在好处与整个AI和信息技术生产周期的环境影响之间达成平衡。
其二,美国国防部也颁布了AI伦理准则。从今年春天开始,美国一些官方和民间机构来到中国,反复询问AIAI伦理研究者,试图了解我们对相关问题的看法——包括对于AI军备竞赛的态度等。
美国国防部人工智能准则
负责任。在AI系统中,人类应当保留适当程度的判断能力,并且对国防部人工智能系统的开发、部署、使用和结果承担责任。
公平公正。国防部应当通过采取措施,避免作战或非作战用途的AI系统在开发和部署阶段出现偏见,防止其对人们造成伤害。
可溯源。国防部应当通过透明度和可审计的方法论、数据来源、设计流程和文档等,确保技术专家能正确理解其AI系统的技术、研发进程和运作方法。   
可信赖。国防部的AI系统应当易于理解、充分界定使用领域、安全。应当确保在使用领域的整个生命周期都测试其鲁棒性。
可控。国防部的AI系统应当为满足其预设的功能而进行开发、施工,并具备检测和防止意外伤害、干扰的能力,在冲突升级或其他情况下能自动下线或停止工作。
我们仔细去看,他们的伦理原则实际上表现出一种自己对自己负责的态度,比如可溯源、可信赖等,即认为AI武器应该可控。但无论怎样都可以看出,AI对人类来说是非常巨大的力量,就算强大如美国国防部也会担心。
讲到伦理,它要么是理念主义、观念主义的善,要么就是实用主义的伪善。我不是批评伪善,因为严格来说,人是处在善和伪善之间。在一定程度上,伪善可能是文明得以维系的重要因素。
但我们还是不得不讲清楚:创新永远是先手,伦理永远是后手当初白起埋葬了30万人,但直到司马迁才能对这段历史提出控诉,这就是文明。很多伦理审查、伦理标准不过是一种形式上的审查,实质是一种纵容。
段伟文在腾云峰会“科技大爆炸:AI如何向善”论坛现场
❒ 世界的智能化测试版与人的危机
现在AI所开创的世界还处于“测试版”。20年前,段永朝等老师在呼唤赛博时代、赛博空间的时候,宣言还是要将赛博空间和现实世界划清界限。但后来我们发现事实并非如此,互联网不是答案。
我们曾以为进入互联网世界就像扑进知识的海洋——我们称之为“冲浪”,但没想到这些行为都让我们留下了数字痕迹,所以导致从去中心化到再中心化。
现在更大的挑战是机器智能的官僚主义,这种官僚主义的排他性非常厉害。
例如,如果用机器进行大数据挖掘,可能会让一些本该接受救济的人反而失去救济;又例如,你不小心踢到垃圾筒,你感到不舒服,于是又“踹”了它一脚,这个监控录像被传到保险公司,于是你明年的保险费会因此提高。这就是一种静悄悄但非常强悍的排他性。
此外,所有智能化的世界都是能动的世界。以往我们总是探讨眼和心、心和世界的关系,但是将来世界和我们的关系是相互辨识的关系。古老的人类之所以有道德的约束,那是因为他们想象着一个万物有灵的世界,所以当他们面对天神时会有所顾忌。
我们将来的世界是“万物有智”的世界。到处都长满眼睛,到处都在观察和分析——以你不知道的目的。在这样的情况下,我们现在正在做一场数据驱动下的“认知-干预”实践。所有数据都和测量手段有关,这些数据的潜在用途还远没有被揭示出来,它将成为一些素材,这些素材会永远留下去,不断被重新解释。
我们在这个时代遇到了一种新的透镜。
十一世纪时,人类发明了透镜,所以才有了望远镜、显微镜,进而可以研究物质运动,并且在解析几何的帮助下找到物质运动的轨迹。在这个时代,数据就是我们的行为。通过数据这个新时代的透镜,我们可以掌握所有人的行为规律及可能性。
正如当初笛卡尔发明解析几何一样,数据分析、数据挖掘这样的劝说、引导、控制方法,就像解析几何一样,把我们带到一个新的社会:解析社会。它的目的不再是研究物质运动或控制物质运动,而是研究人的行为并且控制人的行为。
比如在医学研究领域,因为有了智能手环,我们可以实时收集大量的医疗数据,此时,“体检”每时每刻都在进行。目前医学中有一个“真实世界研究”,即根据实时数据研究究竟什么是真实的世界健康状况。这和传统医学的随机临床对照实验有什么不一样?这值得进一步思考。
面对AI创新带来的世界的测试版的加速升级,必须强调的一点是:人本身的脆弱性。
首先,机器在加速,我们的技能在不断被“去技能化”。更“要命”的是,我们甚至到了“无技能可去的去技能化”的境地。我们以往说无产阶级,将来我们会说“无技能阶级”,并且我们没有可以失去的东西了。
面对智能化的监测与自我监测,我们有一种迷茫:反正我们是透明的人,那就在末世里狂奔好了。有种说法是“普罗米修斯式羞愧”:普罗米修斯给人类带来了技术,也使人在技术面前感到渺小,觉得自愧不如——我们计算能力不如计算器,更不要说计算机了。
从某个角度来说,人始终是过时的。但更重要的一点,“三军可夺帅,匹夫不可夺志”,我发现人类从整体上说并没有前进的方向,我们并不知道未来在哪里。
“科技大爆炸:AI如何向善”论坛的讨论嘉宾,从左至右分别为:段永朝,王飞跃,刘伟,段伟文,刘永谋,张正友。


❒ 理想主义的药方与现实主义的药罐
对于个体来讲,没有志向怎样做一个顶天立地的人,中国文化应该有一种什么样的“精气神”?答案是:没有。所以我们只能开出一些所谓理想主义的药方放到现实主义的药罐里,有了很多“负责任的AI”、“可信任的AI”、“可解释的AI”、“可追责的AI”等。
实际上,我们现在的创新文化是从盎格鲁-撒克逊文化过来的,再与亚洲的儒家文化结合。在这种结合下,似乎“没有伦理约束”成为了一种创新优势,重视伦理又好像可以成为一种竞争优势。这和伦理没有关系,只是功利的计算。所以我们有很多关于规范的探讨,它不过是一种“糖衣”。
我只是在描述真实世界的样子,不是批评。
现在有一种基本的说辞是,首先要鼓励创新,社会企业都应该对任何新技术有开放和包容的心态,同时我们也必须严肃地探讨技术和应用场景所需的道德规范。
从创新的角度来说,我们要做一些有针对性的工作,而不是笼统的批评。我们要去解决这样一种冲突。具体来讲,面对如低俗内容的聚合或算法歧视等由于技术强化而导致的结果,我们可以考虑怎样对不良内容建模加以过滤或对数据的公平性进行修复。



❒ 人工智能伦理与治理的实践智慧
我们首先面对的挑战是,怎样最终克服人类在伦理或道德上对AI的恐慌。我们可以有一套策略,包括要预见、设计与嵌入,要有开放性共识,要有适应性治理,以及要怎样让人类的技能获得再生。最重要的是,要有一个基于行动者网络的思考。
总的来讲,我们跟技术的关系不是敌对关系而是竞争关系,在伦理和创新里也有一种竞争关系,可以称之为争胜关系。创新有悖伦理时,重要的是有没有一些公众工程师,能够站在公众的角度进行反向的争胜性的设计——通过具体的技术设计实现对创新的伦理制约。
面对人机共生的时代,我们需要构建一种分布式的道德系统。
如果马路上行驶的既有人类驾驶汽车也有自动驾驶汽车,那么此时应该有什么样的责任分担?就像我们开车时遇到不遵守交通规则的人,我们的办法是避让他,或者我们知道他的特点并适时应对。
人们已有的实践智慧为未来人机协同的分布式道德机制构建提供了很多有益的线索。
在鼓励自行车出行的荷兰,法律规定在不发生相互危害的情况下,最多允许两人并排骑自行车,如果有第三人加入并排骑行,不仅加入者,每个人都要承担全部责任。其理由是,每个人都可以且能够很容易的纠正这种情况。
同样在荷兰,在港口外面的河面上,法律允许至多三艘船并排停靠,如果有第四艘船停靠在另外三艘船旁时,相关判例的裁决是只有第四艘船需要对此负责任,因为其他三艘船纠正这个错误比加入它们的第四艘船困难得多。
在未来,人类和机器都要理解对方的缺陷,并且进行一种协同。在这种人机协同的认知生态下,人与机器才能明确责任的分担。
另外,我们需要一种Beliving,需要建立面向智能化时代的人机信任机制。如果没有人机信任关系,对人类、社会、世界都是一种灾难。
我们要从数据行为主义转到数据行动主义。现在这些人工智能体和监控设备只是根据数据——即我们的行为判断我们的特征和意图是什么,但其中有很多偏差。这就需要我们每个人拿出我们的能动性,采取行动来改变这种情况,纠正那些被采集和被分析的数据中的错误和偏见。
还有一点也需要思考。以往的社会是建立在“无知之幕”上的,但如果保险公司知道每一个人能够活多久,那保险怎么卖?现在还有一种人脸识别技术,能够通过人脸识别观察你的健康状态,当你到一家公司求职时,刚进入大门公司就可能决定是否录取你...所以问题在于,我们是不是要真的需要这样一个时代?
下面这张图就是我们最后的迷思,机器智能可以无止境地进化,但人的尊严却源于包容不完美。这就是我们要思考的,这就是我们的未来吗?
作为人与人之间第三者的机器,
如何为人类创造和谐?
在主题发言后的圆桌讨论环节,段伟文对AI伦理等话题进行了更为深入的阐释,他同时提出了对“科技向善”、企业社会责任的看法——
讲到科技与创新或是与人文、伦理价值的关系,其实人类一直有两种策略。一种是审慎性原则,就是做任何事情都把坏处想到极端;一种是风险偏好性或冒险的原则,即任何时候都把好处想到最多。
在我看来,审慎性原则很难实现,大多数企业都是风险偏好的企业。但所谓风险偏好也要有一个度,对任何新事物都包容和接受是不对的。
我们在思考问题的时候要着眼整个社会环境,从技术社会系统入手分析人工智能技术和产业背后是什么。其中一个视角,是审视人工智能背后的资本,资本增值与社会价值应该如何协调。当我们考虑给每一个公园都装上人脸识别装置的时候,有没有想到一千个公园可能就有一千个人失业,是不是要为了一个完全没有必要的人脸识别装置牺牲那么多劳动力?这是应该考虑的。
我们要在更大范围内考虑相关的利益群体。一个企业如果要对社会负责,一方面要对他的产品、员工、用户负责,另一方面还要考虑受其产品或服务影响的人,特别是那些比较脆弱的相关群体。
这个责任是什么?现在整个创新政策强调包容审慎,对互联网、数字技术、人工智能等创新应用一般没有按照产品责任来严格追究责任,也没有像医药等行业那样实行严格监管。对大数据、人工智能等应用带来的社会问题,首先还是作为伦理道德问题来讨论,实际上有助于这些创新形成一种伦理软着陆机制,可以缓冲新技术带来的伦理冲突。
在此过程中,难免出现各种负面的社会评价,但通过多方的参与和互动,企业可以找到改进和自我提升的方向,在具体的担责实践中培育对社会的责任感。同时,社会的评价和参与会更富有建设性,相关群体和公众也可以看到改变的可能,学习到多元参与和共治的方法与智慧。
再就是企业社会责任。客观地讲,面对充满风险与不确定性的科技时代,“向善”是科技公司体现其社会责任的应有之意。腾讯作为一个标杆企业讲“科技向善”,这是没问题的。要明白一点,“科技向善”是作为企业应有的担当。
企业的发展与壮大,根本上源自用户和社会公众的信任与支持,源于现代文明架构下普通人对企业的群体馈赠,企业要认识到这一事实。企业一定要有这样一种谦卑,要不断强化社会责任感,要反思和追问:我的技术产品除了给我带来更多的投资和盈利,是不是能给整个社会带来更大的和谐?
最后,我们现在说的AI伦理还不是指人机对立,不是机器消灭人类,实际上是指如何协调人和机器的关系。
人机关系,说到最后还是人与人之间以机器为中介的关系。换句话说,机器是人和人之间的第三者。探讨AI伦理的初衷在于,在人与人之间,机器如何摆放,才能使人的生命得以恰当安放,才能使人们在智能化时代安心生活。
我有一个重要的人生智慧,就是简单和勇敢。在任何时候,我给大家的一句话都是——不要害怕!
文章来源:微信公众号“ 腾云”
原文链接:https://mp.weixin.qq.com/s/GIMTcl9T6zZfp7Sr2RY_aQ
原创: 段伟文
编辑:高杰


322#
 楼主| 发表于 2019-11-19 22:36:01 | 只看该作者
【案例】

日本科技: 人工智能英语成绩达到东京大学入学标准
“机器人能进东京大学吗”项目(俗称“东ROBO君”)团队18日透露,人工智能(AI)挑战今年1月实施的日本大学入学统一考试的英语(笔试)科目,结果显示200分满分中得到了185分,偏差值为64.1。
  2016年参加大型补习学校的大学入学统一考试模拟考试时,5门课程8科目中,英语的得分仅为95分(偏差值50.5),此次成绩大幅提高。团队称“如果只看统一考试,该结果不逊于考入东大的学生”。这是首次公布实际挑战统一考试的结果。
  成绩提高的原因之一是基于AI相关尖端技术“深度学习”的文章阅读理解技术有了大幅进步。此外,据称从文章中找出不需要的句子等过去的短板领域,也通过采用团队独有的技术,正确率大幅提高。回答全部问题所用时间仅数秒。
  此次的AI也挑战了过去的统一考试,结果显示2017年为169分(偏差值60.1)、2018年为167分(同60.5)。使用参加模拟考试的2016年的AI答题,结果分别为2017年102分(同45.1)、2018年95分(同43.0)、2019年83分(同40.7),AI本身有了显著进步。
  该项目由国立信息学研究所等从2011年启动,英语领域以NTT公司的研究所为中心进行开发。2016年的模拟考试中,被判定有80%以上的可能性能考入23所国立公立大学和512所私立大学。该团队同年以理解含义的阅读理解问题上成绩难以提高为由,放弃了考东大,但此后以提高能力为目标继续开展研究。
文章来源:微信公众号“日中资本市场”
原文链接:https://mp.weixin.qq.com/s/T088E3ZzBgeE7EpN0AzONg
编辑:高杰


323#
 楼主| 发表于 2019-11-19 22:37:43 | 只看该作者
【案例】
为什么我们应该担心华尔街的人工智能
在过去的几年中,高盛(Goldman Sachs)和摩根大通(JP Morgan)等大型投资银行已聘请学术界以外的人工智能专家,并由其负责内部AI部门。金融技术初创企业已开始使用机器学习算法来建模信用评级并检测欺诈。对冲基金和高频交易者正在使用AI做出投资决策。
政客们开始注意到。10月中旬,新成立的众议院金融服务委员会人工智能特别工作组举行了听证会,讨论了人工智能如何引发金融业对数据隐私的关注。6月,参议员伊丽莎白·沃伦(Elizabeth Warren)呼吁联邦监管机构严厉打击金融机构的“算法歧视”,并指出金融技术公司通常向少数群体收取更高的利率。
人工智能也可以从根本上改变我们金融系统的运作方式。直到我们了解这些变化将如何发挥作用,否则我们将无能力应对这些变化。在过去的十年中,更广阔的人工智能领域取得了长足的进步。我们已经看到AI击败了世界上最好的“ Jeopardy”玩家和古老的棋盘游戏Go,发现了与Lou Gehrig病相关的未知基因以及凤凰城街头的无人驾驶汽车。这些成就得益于更好的算法,功能更强大的计算机和越来越大的数据集。
由于许多原因,应该为华尔街的人工金融情报的兴起而称赞。如果我们能够找到更有效地配置资金,更准确地识别风险或简单地赚钱的方法,那将是一件好事。它可以使商业运作顺畅,并且至少在理论上可以提高所有船只的效率。
但是每个新工具都有其怪癖和风险,人工智能也不例外。
金融中的AI问题源于AI算法的工作方式。今天,当人们谈论人工智能时,他们实际上是在谈论计算机科学的特定领域,即机器学习。机器学习算法将获得大量信息,并通过识别信息中的模式来预测未来事件。这个复杂系统的基础是驱动AI的数据。
但是,使AI在其他领域如此成功的独特功能也使其在应用于金融领域时非常危险。这些威胁反映了造成上一次金融危机的问题,当时复杂的衍生品和人们对次级抵押贷款的了解不足,使世界陷入了严重的萧条之中,必须予以认真对待。
首先,人工智能可能会通过助长非理性繁荣的火焰而导致金融泡沫变得更大或持续更长的时间。机器学习算法依赖于大数据集对世界进行预测。
如果用于做出这些预测的数据已过时,则可能会造成财务混乱。
想象一下,如果您在一个包含1992年至2000年股市收益的数据集上训练了AI,它可能会得出结论,科技股总是跑赢非科技股,因为在这段时间内确实如此。从2002年互联网泡沫破灭后得出的信息中,并不能改变这一结论。经过偏斜数据训练的AI算法很可能会将更多的资金投入科技股,进一步扩大泡沫。
人工智能的乐观主义者肯定会说,人工智能有局限性,但负责任的决策者会意识到并会做出适当的反应。AI只是工具箱中的另一个工具。
但是,由于AI算法是如此复杂且依赖于数据,因此很难理解它们的工作原理。复杂,难以理解的金融工具的扩散是2007年金融危机的根源,很可能是下一次危机的根源。
我们从上次崩溃中获悉,当某些事情难以理解时(例如,抵押债务义务将各种风险次级抵押贷款打包在一起,目的是使它们变得安全),这也很难被人们猜到。如果财务决策者有一个AI建议,其中包含明确的“答案”,并且声称是基于数百万条信息,那么他们将很难被忽视。它可能不再像拐杖一样成为工具。
也许最重要的是,我们不确定AI算法如何在华尔街的丛林中相互影响。在资本市场中,股票价格很大程度上取决于市场中其他参与者的决定。如果大多数参与者是AI驱动的,并且他们采用了大致相似的机器学习策略,那么他们可能会在回想起所有它们都涌入(或流出)股票的情况下产生回声效果。因此,闪存崩溃可能会变得更加频繁。
鉴于出现了简单但具有破坏性的有效对抗策略,这种策略试图使AI算法以意想不到的方式表现出来,这尤其令人不安。例如,一项研究发现,在停车牌上贴上一些小的黑白贴纸会欺骗图像识别算法,使其永远无法识别它。
尽管这给无人驾驶汽车造成了重大问题,但它可能在金融界造成严重破坏。不良行为者可能散布已知会导致投资算法失灵的财务信息,或故意操纵数据以掩盖欺诈。
沃伦(Warren)提请注意金融中的人工智能问题是正确的,建议联邦监管机构认真对待她的担忧。这不仅仅是“ Jeopardy”或Go游戏。这是关于确保技术为所有人带来更好,更公平,更高效的财务。
来源:教育新闻网
编辑:高杰

324#
 楼主| 发表于 2019-11-21 22:26:31 | 只看该作者
【案例】
博古睿讲座05| 厘清人工智能规则与技术责任界限是关键
2019111日,“博古睿讲座05:人工智能伦理:为责任而设计”在北京大学举办。由于我们在“人类应当如何建立与人工智能之间的关系”这个问题上存在较大分歧,讲座主题便将重点落在为何“负责任地设计人工智能”必须成为人工智能创新中不可或缺的组成部分。主讲人范德霍文(Jeroen van den Hoven)是荷兰伦理学家、代尔夫特理工大学哲学教授、《伦理学和信息技术》(由施普林格·自然集团出版)主编,目前担任荷兰代尔夫特设计价值研究所科学主任;讲座由北京大学哲学系助理教授李麒麟主持。
开场环节,范德霍文向听众展示了全球范围内诸多技术法规、原则和标准,与人工智能实际开发利用之间存在的差距。他指出,“先斩后奏”模式在安全性上存在着较大隐患,这类传统做法已然不能支持人工智能更好地发挥其优越性。“厘清责任界限在弥合规则与技术的鸿沟方面具有重要作用,伦理学家与工程师在这一方面的作用具有许多共通点”,范德霍文说到。
范德霍文在发言中明确表示,不应由人工智能本身来为其所造成的意外或负面后果负责,这一责任应由人工智能的设计者承担。他举了两个例子:一个是“弗兰肯斯坦”——受到指责与惩罚的对象不应是弗兰肯斯坦创造的怪物,而应当是弗兰肯斯坦博士本人。另一个是,范德霍文认为“人工智能应对其自身的犯罪行为负责”的观点,与11世纪欧洲教会判决人造物和物件有罪,以及18世纪欧洲判处动物有罪等荒谬举措如出一辙。他强调,现代人不应被这种过时的、不合理的思维所束缚。
那么,现代社会应当如何有效地思考“负责任地设计人工智能”这一问题呢?
范德霍文认为,我们不应一再重复“如果人工智能表现出人类特征将会如何”等“被动”的问题,而应在技术设计阶段就积极主动规划,并植入尽可能充分的控制。著名的电车难题表明了工程师和哲学家在思维方式上的区别:工程师会说可以开发一种制动系统来阻止火车陷入假设中的危险境地,而哲学家则会因为工程师未能从思维实验的角度理解这一经典难题而感到恼怒。
随着智能城市的出现,人工智能将得到大规模、多领域的普及,这一趋势引起了范德霍文对“二级责任”或是“让人们为他人的责任担责”等问题的思考。他比较了人工智能与核能的发展,来证明“二级责任”的重要性。在核能领域,不仅是首席科学家,就连负责运输建筑材料的后勤人员、盖革计数器的制造商,甚至保安人员都有义务对核能的安全性负责。他呼吁大家以同样的方式思考人工智能,并不是只有算法才重要。除核能外,航空、食品、制药和水工业也制定了无数相关法规;这些标准化举措取决于社会以及相关领域内部,如何理解“二级责任”这一命题。
随后,范德霍文讨论了规范背景对于合理界定人工智能责任的重要性。由于(从医疗到武器)人工智能用途各异,相关法规的范围必须足够灵活、健全,同时兼顾道德和治理领域。在深入研究社会应如何设计人工智能以防有人逃避责任之前,他梳理了目前主要存在的四种反对为行为担责的“借口”。第一是“知识”:因为一无所知,所以无法承担责任;第二是“控制”:因为无法控制环境,所以无法承担责任;第三是“自由和选择”:因为别无选择,所以无法承担责任;第四是“隐私和道德能力”:因未处于私人场合且只能根据公共利益来采取行动,所以无法承担责任。
讲座上,范德霍文数次强调多学科融合在“负责任设计人工智能”上的重要性。他认为,多学科视野、方法与知识的交融互通,有利于在人工智能时代增进人类知识、提高环境控制能力,同时更好地维护个人权益和保护隐私。
* 本文内容由北京大学博古睿研究中心秋季实习生、北京大学燕京学堂在读研究生李康圭(Kangkyu Lee)采写。
文章来源: 博古睿研究院
原文链接:https://mp.weixin.qq.com/s/OR7o4bx0E9T4IN-pEh9Ntg
编辑:高杰

325#
 楼主| 发表于 2019-11-22 13:23:43 | 只看该作者
【案例】
最强假新闻生成器GPT-2终于开源完整版本!15亿参数模型全部公开
来源 | OpenAI
译者 | 核子可乐,陈思
编辑 | Natalie
AI 前线导读: 时隔九个月,GPT-2 的阶段性开放终于进入尾声。北京时间 11 6 日,OpenAI 正式放出 GPT-2 最后一个部分的完整代码——包含 15 亿参数的最大版本。
按照 OpenAI 方面的说法:公开完整版本确实与模型滥用的调查结果有关。虽然经过多方求证发现,GPT-2 存在被极端组织恶意使用的可能,但是目前没有证据直接证明 GPT-2 已经遭到了滥用。
更多优质内容请关注微信公众号AI 前线”(IDai-front
“最强 NLP 模型”GPT-2 完整开源
经历了被追捧为“最强 NLP 模型”、因为不开源遭到 全网吐槽、宣布 部分开源 等一系列大事件之后,今天,OpenAI 终于公开了 GPT-2 最大最完整的 15 亿参数版本。
照例先放上开源地址:https://github.com/openai/gpt-2
在此之前,OpenAI 已经发布了三种 GPT-2 模型:“小型的”1.24 亿参数模型(有 500MB 在磁盘上 ),“中型的”3.55 亿参数模型(有 1.5GB 在磁盘上 ),以及 7.74 亿参数模型(有 3GB 在磁盘上 )。
作为 GPT-2 分段发布中的最后一轮,此次公开的完整 GPT-2 包含 15 亿条参数,其中包含用于检测 GPT-2 模型输出的全部代码及模型权重。OpenAI 在官方博客上表示:
自今年 8 月以来,我们一直遵循初始分段发布计划,通过越来越大的语言模型帮助社区获取准确度更高的可测试案例。我们希望这一测试案例能够帮助开发人员构建起功能更强大的后续模型,同时也积极与 AI 社区就发布责任问题开展对话。
除此之外,OpenAI 还公布了有关 GPT-2 的一些新发现,其中包含了公众最为关心的滥用等问题。
有关 GPT-2 的新发现
1. 人们发现 GPT-2 的输出质量令人信服。
作为合作伙伴,康奈尔大学的研究人员对 GPT-2 使用受众进行了调查,希望根据不同规模的模型版本为 GPT-2 生成文本进行质量评分。人们给 1.5B 模型给出的“可信度得分”为 6.91 分(满分 10 分),略高于此前的 774M 模型版本(6.72 分),同时大大高于更早的 335M 模型版本(6.07 分)。正因为评分逐步提升,OpenAI 才决定发布最终的 1.5B 模型,将完整的 GPT-2 展现在公众面前。
2. GPT-2 经过微调后可能被滥用。
作为合作伙伴,米德尔伯里国际研究中心下辖的恐怖主义、极端主义与反恐中心(CTEC)研究人员们发现,极端主义团队可对 GPT-2 进行滥用,特别是结合四种意识形态立场对模型做出微调。
CTEC 的研究结果显示,微调后的模型足以为这些意识形态快速生成综合性宣传素材。他们还证明,尽管合成输出结果相当具有迷惑性,但基于 ML 的检测方法仍可帮助专家分辨出由 GPT-2 生成的伪造消息。
3. 检测难度颇高。
OpenAI 认为,对基于内容的合成文本进行检测将是一项长期挑战。为了测试机器学习方法是否有助于解决这个难题,研究者进行了内部检测研究,并开发出一种检测模型。面对由 GPT-2 1.5B 生成的文本,这套模型能够带来 95% 的检测成功率。(注 1
具体来讲,OpenAI 选择立足 RoBERTaBASSE1.25 亿条参数)与 RoBERTaLARGE3.55 亿条参数)建立起序列分类器,并通过微调使其获得对 GPT-2 1.5B 模型与 WebText(用于训练 GPT-2 模型的数据集)输出结果的分类能力。
OpenAI 认为,对于单项检测而言,这样的准确率还无法令人满足,必须同时结合基于元数据的方法、人为判断以及常识教育才能进一步提高效果。为此,OpenAI 选择发布完整版模型,希望协助各方共同研究对合成文本的检测方法。当然,OpenAI 方面也承认全面发布同时也会让恶意人士有机会进一步提高检测逃避能力。
此外,OpenAI 发现,检测准确率在很大程度上取决于训练及测试中使用的具体采样方法,但同时,在使用多种采样技术进行训练时,检测结果将更加可靠。如下图所示,规模越大的模型,其输出结果越是难以分类。但是,利用这部分输出进行训练,则可提升检测结果的准确率与可靠性。OpenAI 预计这种趋势将长期存在,随着模型规模的增大,检测难度也将同步提升。
各模型版本检测准确率(核样本)
4. 到目前为止,尚未发现明确的滥用迹象。
尽管 OpenAI 的研究人员已经围绕 GPT-2 在大规模生成垃圾邮件与网络钓鱼信息等高批量 / 低收益操作方面的潜力进行了讨论,但 截至目前并未发现任何明确的代码、文档或者其他滥用实证。他们认为,随着合成许可证生成器在输出质量上的持续提升,遭到滥用的可能性确实会同步提高,同时也承认,OpenAI 无法及时发现所有潜在威胁,而有动机的参与者也不太可能发布自己的微调语言模型。
5. 在偏见研究方面,需要建立标准。
语言模型永远存在偏见。对于 AI 研究界而言,为此类偏见制定出研究方法、开展讨论并加以解决已经成为一项重要但难以克服的挑战。OpenAI 通过以下两种方式尝试解决偏见难题:
发布模型卡(注 2
这一模型卡以 Mitchell 等人提出的“用于模型报告的模型卡”理论为基础。
我们同时在 GitHub 上发布模型代码,希望帮助大家对语言模型(例如 GPT-2)存在的固有问题建立理解。
GPT-2 中存在的某些偏见做出内部定性评估:我们利用评估结果通过模型卡对 GPT-2 在性别、种族以及宗教方面的偏见作出探究。当然,这些调查并不全面,还需要配合其他偏见分析框架。
下一步计划
OpenAI 在博客中表示:
过去九个月以来,我们在 GPT-2 开发方面的经验,帮助我们为 AI 模型负责任发布工作中存在的挑战与机遇建立起宝贵的见解。我们也参与到 Partnership on AI 的“机器学习负责任发布规范”项目当中,希望通过合作关系与研究界的同行们共同讨论,为解决模型发布问题贡献力量。
讨论仍在继续:GPT-2 好用吗?安全吗?
HackerNews 网站上,有关 GPT-2 的讨论一直没有停止。在 15 亿参数版本发布后,更多参与者加入话题了。
讨论页面:https://news.ycombinator.com/item?id=21454273
目前的讨论者分为两个主要阵营:
尝鲜派:GPT-2 好用吗?在哪儿用?
这一类讨论者主要在研究 GPT-2 的实用性,一些开发者也附上了自己的做的测试模型,感兴趣的读者可以前去体验:
http://textsynth.org/
https://talktotransformer.com/
当然也有一些讨论者提出:GPT-2 开放代码的可读性较差,有不少意义不明的内容,在生成文本的时候,甚至会出现一些常识性的错误等等。这些问题让部分讨论者质疑 OpenAI 放出的有可能是微调过的“阉割版”。
激辩派:GPT-2 安全吗?
这一派讨论者主要将目光聚焦在 GPT-2 的安全性上。毕竟官方也已经承认:确实存在安全隐患。大部分讨论者的观点都认为:GPT-2 完全开放后,必然会引发一阵滥用风潮。其中不乏一些激进人士的观点。
AI 前线早先发布的 一篇文章 中,作者曾对 GPT-2 的威胁论进行过探究,他认为 GPT-2 被滥用的可能性遭到了过分夸张。当然,作者当时测试用的也并非是完整版本,不知道在使用过完整版一段时间后,他的看法会不会有所改变。
注释
具体来讲,OpenAI 立足 RoBERTaBASSE1.25 亿条参数)与 RoBERTaLARGE3.55 亿条参数)建立起序列分类器,并通过微调使其获得对 GPT-2 1.5B 模型与 WebText(用于训练 GPT-2 模型的数据集)输出结果的分类能力。
这一 模型卡 Mitchell 等人提出的“用于模型报告的模型卡”理论为基础。
参考链接:
原创: 陈思
文章来源:微信公众号AI前线  ”
原文链接:https://mp.weixin.qq.com/s/jjX5sHWMAKDGBWFyK4OOZw
编辑:高杰

326#
 楼主| 发表于 2019-11-22 13:35:24 | 只看该作者
【案例】
美国人脸识别第一案 | 法院同意脸书继续参与诉讼,其可能面临数十亿美元的赔偿 | DataLaws
2019年10月20日,美国第九巡回法庭根据联邦上诉程序规则第41(d)(2)条,批准Facebook提出中止帕特尔诉Facebook案的动议,允许Facebook向美国最高法院提交移送申请。如果最高法院审理此案并确认第九巡回法庭关于原告有资格的裁决,它可以为原告在所有联邦法院提出法定隐私权要求提供一条明确的途径。
2010年,Facebook推出了人脸识别技术,扫描用户发布的照片,创建与用户匹配的人脸签名数据库。2015年8月,伊利诺伊州居民Adam Pezen、Carlo Litica和Nimesh Patel在加利福尼亚北部地区对Facebook提起集体诉讼,指控Facebook的人脸识别技术违反了伊利诺伊州《生物特征信息隐私法(BIPA)》。2019年8月,第九巡回上诉法院申明地方法院决定承认该类别的第三条立场,并裁定侵犯法定隐私权之类的无形损害可以作为提出此类主张的理由。
当前,法院在原告人必须表现出何种损害程度才能提起隐私和数据泄露诉讼方面存在分歧。例如,第二巡回法院仅接受有形损害的证据。在Spokeo,Inc.诉Robins一案中,最高法院裁定,“每当一项法令授予某人一项法定权利并声称授权该人提起诉讼以证明该权利时,并不总是满足第三条的规定。”即使在法定违法的情况下,第三条规定仍然需要具体的伤害。”
在本案中,原告声称,他们实际上受到了具体的伤害,因为Facebook违反了BIPA第15(a)和15(b)条,其中要求公司在一定时间内删除生物测定数据,并且他们提供使用生物测定数据的通知或获得同意。2016年6月,Facebook撤回了因缺乏第三条规定而提出的申诉。第九巡回法庭承认,在Spokeo案中,如果伤害不是具体的,那么将不构成一项法定的违法行为。但是,法院重申,无形伤害可以是具体的,因此采用了两步法来评估违反法律的行为是否造成了具体伤害。如果(1)制定了法律规定以保护原告的具体利益,并且(2)被指控实际上对这些利益造成损害或存在实质性损害风险的违法行为,则可能会造成具体伤害。法院指出,伊利诺伊州之所以制定了BIPA,是因为“生物识别信息的法规将为公共福利,安全和保障提供服务”。此外,法院还发现Facebook保留生物识别数据损害了原告的实质性隐私权益。
Facebook在向第九巡回上诉时还辩称,地方法院在向原告授予集体证明方面犯了错误。它辩称,集体认证违反了《联邦民事诉讼规则》第23(b)(3)条,因为诉因的必要事件并未“主要且实质上”在伊利诺伊州内部发生,因此一个常见问题并未在集体中“占主导地位”。第九巡回法庭确认了地方法院对该集体的证明。法院认为,是否有充足的事件发生在伊利诺伊州这一问题并没有抵消优势地位,因为这个问题必须随着时间的流逝而得到回答,如果认为有必要,法院可以随时取消该集体的资格。
虽然第九巡回法院没有就案件的是非曲直作出裁决,但本案是第一个经BIPA认证的集体诉讼。第九巡回法院的裁决对未来的隐私权保护具有重要意义。一些人认为这项裁决将鼓励更多的隐私诉讼。然而,其他人则声称,至少在伊利诺伊州法院的诉讼中,该案无关紧要,因为有必要对BIPA作进一步解释。这项暂缓执行的动议使Facebook得以避免在漫长的审判中花费额外费用,并在最终裁决可能被推翻时支付损害赔偿金。如果原告胜诉,Facebook将面临数十亿美元的赔偿金,因为伊利诺伊州法律允许每个原告的法定赔偿金从1000美元到5000美元不等,而且该类赔偿金可能包含数百万来源:HarvardJournal of Law and Technology(2019年11月14日)
作者:Genie Gorbonosov
翻译:张楠奇,上海交大法学院本科生
原告。
来源:微信公众号“ 数据法盟”
编辑:高杰

327#
 楼主| 发表于 2019-11-22 13:38:58 | 只看该作者
【案例】
对话微软小冰三大首席科学家: 微软第一美少女AI的成长之路
11月21日,微软(亚洲)互联网工程院在北京微软总部召开了微软小冰2019年年度研究进展分享会,微软小冰三大首席科学家——微软小冰首席科学家宋睿华、微软小冰首席NLP科学家武威、微软小冰首席语音科学家栾剑在会上展示了微软第一美少女AI小冰近期的技术突破,带来了相当硬核的技术干货分享。
左:武威 中:栾剑 右:宋睿华
一、会比喻 懂常识 越来越像人的微软小冰
——会比喻的小冰
语言无疑是复杂的,其包含了陈述、疑问、反问、比喻、修辞乃至“阴阳怪气”等只有人类才能领会并熟练运用的微妙技能,所以当微软小冰首席科学家宋睿华表示小冰已经学会使用“比喻”时,着实令人震撼。
而且小冰不仅仅做到了诸如“爱情是复杂的,像数学一样”简单形容词比喻,甚至可以实现“灵魂就像球迷一样,在无声地呐喊”、“爱情就像是脂肪,是点点滴滴的积累”这样的动词与名词形容句,而且毫无违和感。
宋睿华介绍道,为了帮助小冰学会“比喻”这项技能,他们从复杂的诗歌中挑选了6大类,每类122个主题,并通过小冰聊天日志过滤出了包括爱情、内心、世界、母亲、美丽、人类在内的96个常用比喻概念。随后从1000个常用词中选取了3000个最常用的形容词扩充小冰的比喻能力。
比喻句的基本结构是“XX像XX”,其中前者是比喻的本体,后者是比喻的喻体,说好一句比喻的重点无疑在如何筛选本体和喻体上,并且还要为这句比喻提出一个合理的支撑点,避免出现“恋人像报表,都十分可靠”这种奇怪的比喻。为此小冰会对比本体与喻体的可能存在的相关词汇。
比如爱情与国足,它们共同的相关词汇可能有未来、虚幻,那么小冰就可以作出“爱情就像国足,未来都是虚幻的”这样自然的比喻句。
——懂常识的小冰
常识对人类而言是一个非常简单事情,比如提到北极熊时就很少会有人说“这是一只白色的北极熊”,因为常识默认北极熊是白色的,大多数人都会省略到这种众所周知的常识性信息。
但对于小冰而言,这种省略会对它的理解造成困扰,比如一篇描写北极熊捕食的文章在描述“北极熊在接近海豹前会用爪子捂住鼻子”时,人类会自然懂得这是为了挡住鼻子的黑色防止海豹看到自己,但缺乏上下文的对话机器人就会很难理解捂住鼻子的原因是什么。
为此微软为小冰增加了常识与“记忆”能力,当一句话提到某个概念时小冰会自动“回想”起与其相关的图片,并识别出图片上的特征。而且与业界”一对一“文字与图片对应能力不同的是,小冰可以做到”一对多“,比如一句话中同时提到了老奶奶与鹅,小冰就可以同时”回想“起老奶奶与鹅的照片,帮助自己更好地理解这句话。
二、日本出道成歌手 小冰如何学会唱歌?
微软小冰会唱歌已经不是什么秘密,在此前的微软小冰发布会中,小冰已经演唱过中文、日文、戏曲等多种语言和类型的歌曲,前一段时间甚至发布了翻唱的”野狼Disco“。微软小冰首席语音科学家栾剑在会上分享了让小冰跨界唱歌技术干货。
首先栾剑谈到了让小冰学习唱歌的原因,他表示小冰推出后经过努力语音合成领域一些大的问题已经解决了,于是就开始寻找更有挑战性的课题,此时比说话门槛高、情感更丰富、人们喜闻乐见的唱歌就自然成为了微软的下一个目标。
唱歌包含了发音、节拍、旋律三大要素,机器可以通学习人类的歌声和识别五线谱两种方式进行学习。为了为小冰提供素材,微软甚至与一家拥有十几年历史的唱片公司合作。但这里遇到了一个教材问题。
唱片公司很少保留歌手清唱的录音,但对于机器而言清唱的干扰最少,最适合学习,为此微软甚至发表了一篇论文,提出了输入原始波形、全卷积网络+残差连接、软分类标签3大创新,实现了从伴奏中把人声部分准确地截取出来的能力。
后面的问题就是如何更自然地合成歌声,这方面微软选择了比传统单元拼接更自然的参数合成法,并且为了进一步提高小冰的”唱歌技巧“,微软选择了用一个模型预测三大要素困难模式,最终使得小冰的歌声自然度和流畅度有一个明显的提升。
当然微软科学家辛苦付出让小冰学会唱歌并非只是培养她的业余爱好,其商业化前景也是不可限量。比如小冰的日本分身凛菜(りんな)已经与日本最大唱片公司AVEX正式签约,成为滨崎步、安室奈美惠等叱咤国际乐坛多年的著名人类音乐人的同门师妹。
除了专业的歌唱领域,会唱歌的小冰还能覆盖到儿童机器人以及儿童陪伴APP中,会中微软工作人员透露小冰该领域份额高达70-80%。
三、小冰成长的背后:Self-Complete
2015年小冰诞生以来,其已经进化至第七代,实现了从“平等对话”向“主导对话”的跨越式升级。但在背后究竟是什么在支撑它从一介聊天机器人迅速成长为业界巨擘?微软小冰首席NLP科学家武威进行了详细解答。
武威表示,Self-Complete(自我完备)可以很好地概括近些年来微软在小冰身上的研究成果。而一个具有Self-Complete能力的对话机器人涵盖了三种能力:学习、管理、联结。
首先是学习。对话机器人对话的过程其实就是一个检索自己的候选回复,然后通过检索模型来找到最匹配的回复,检索模型直接关系到对话能力。而微软则为检索模型引入了外部知识,在知识层面、词语层面、短语层面进行融合,开发出了业界最好的模型之一。目前微软的检索模型已经成为了各种做检索模型必比的一个基线模型。
此外微软也探索了让两个检索模型互相训练的尝试,并开发出了Co-teaching算法,取得了相当好的效果,经过Co-teaching互相教的每一个模型都实现了明显提升。
其次是自主管理。此前第六代小冰引入了共感模型,可以对对话过程进行把控,通俗的讲,就是让小冰能实现了主导与人类对话的能力。
共感模型背后包含了决定小冰说什么内容的回复模型与决定小冰怎么说的策略模型,这两个模型结合在一起就把微软小冰从原来基于上下文直接产生回复的模式,变成了从上下文到决策,然后再根据这个决策来决定自己说什么。
凭借着自主管理能力,小冰可以通过问问题快速了解用户意图,进行商品推荐,微软在日本和美国对小冰的这种能力进行了测试,发现推荐转化率高达68%,即100个和小冰聊天的客户中会有68个人进店查看小冰推荐的商品。
当然上述案例仅仅小冰拥有自主管理能力后的应用之一,其未来前景不可限量。
最后就是联结了,联结本质上是多模态交互,即小冰可以同时处理对话、语音、文本、多媒体等各种形势的资源,进行消化吸收,最终可以将它们有机联结起来。
微软在今年2月份,已经在日本公测了多模态交互功能,为小冰在日本的分身凛菜增加了视觉能力。当地记者携带着配有摄像头的“日本美女高中生”凛菜,在水族馆中游览,在测试中,凛菜在识别出当前画面的同时,也能就当前画面与用户展开深入交流。例如看到鱼之后,会联想到鱼的大小、颜色、种类与鱼翅(本质吃货?),让用户获得了近似真人的聊天体验。
四、总结:邻家有女初长成
会上微软同时披露了微软小冰在应用上的最新进展,截止目前,小冰已经入住了超过30个平台,搭载小冰的智能设备数量已经超过了4.5亿部。而小冰的CPS(对话轮数,即用户与小冰的可以对话多少轮)高达23,换句话说,平均每个小冰用户都会与小冰聊上23轮,这是一个相当惊人的数字。
虽然受限于商业合同,微软无法全面公布小冰在商业化上取得的成绩,但从上述几个数字中不难想象,凭借着微软在小冰背后的科研投入与成果,微软小冰已经成为人工智能产业中一个难以忽视的存在,其所存在的广度与深度已经远远超出人们的想象,而它也正如一个18岁少女一样,冉冉升起,未来可期。
原文链接:
https://m.mydrivers.com/newsview/658448.html?ref=&from=groupmessage&isappinstalled=0
文章来源:快科技
原创:小淳
编辑:高杰

328#
 楼主| 发表于 2019-11-23 23:20:34 | 只看该作者
【案例】

新加坡加入全球AI竞逐!制定国家AI战略,政府拨款近26亿元,2030年完成五大计划

中、美、俄、英、日、以色列等多国从国家层面不断加强人工智能战略布局,持续加码研发投入,全球人工智能竞争激烈。本月,全球人工智能竞争队再添一国——新加坡,立下一项为期 11 年的国家级的人工智能战略,政府拨款 5 亿新元 (约合 25.8 亿元人民币),计划将在 2030 年之前,通过五项人工智能计划实现升级国家基础设施的目的。


撰文 | 四月

人工智能技术正在成为大国竞逐实力的重要砝码。



新加坡虽谈不上地大物博,但作为「亚洲四小龙」之首,近半个世纪以来凭借金融产业和信息技术一度成为东南亚地域的重要枢纽。


「作为一个没有自然资源的小国,新加坡在过去 50 年的发展见证了创新科技如何克服迫切挑战,并创造新价值和契机」。新加坡副总理兼财政部长王瑞杰在新加坡金融科技节及新加坡科技创新周致辞时说道。


对于标志着下一个时代机会的人工智能技术,新加坡势在必行。


五年前,新加坡宣布了智慧国愿景,而新的全国人工智能策略将是完成该愿景的重要一步。


在最近的一次智慧国主题会议中,王瑞杰宣布,新加坡将着手制定一项「国家人工智能战略」,该战略规划了研发和应用人工智能技术的方式。


新加坡推出全国人工智能策略,在交通物流、智能市镇与邻里、医疗保健、教育以及保安与安全的五大领域里,大力推动人工智能科技的采用,以促进经济转型并改善人民的生活。


到了 2030 年,新加坡将成为研发和推出具有影响力及可扩展的人工智能科技方案的领导者,尤其在具有高价值以及对国人和企业相关的主要领域里。


以下是新加坡将在 2030 年前实施完成五项人工智能计划:


1)智能货运计划


建立一个通用的数据调度平台,旨在规划和调度货车运输的最佳路线,提升司机的工作效率,优化物流流程。人工智能将使工作能够被合并和动态分配,以提高生产力和资产利用率。


此外,港口的货运计划也将通过人工智能应用进行优化,到 2030 年将扩展到空运和陆运业务。








2)土地管理计划


在智能城市及邻里领域,新加坡政府将于 2022 年前推出 AI 聊天机器人,指引居民向正确部门举报社区问题。例如明确报告问题的正确机构,并提示他们实时提供强制性案件详细信息。


到 2025 年,该项计划还将收集和分析数据,以优化遗产维护周期,并帮助政府机构先发制人地解决问题。例如,它可以用于预测下一个电梯故障。


到 2030 年,这些数据将为房地产规划部门提供建议,以便更好地建造和安置设施,以满足居民的需求。






3)慢性病的预测与管理计划


在医疗领域,新加坡全国医疗机构预计在 2022 年全面采用眼部病变分析仪(SELENA +),通过扫描和分析视网膜照片,更快及精准地检测出视网膜病变等糖尿病患者常见的眼疾。


新加坡眼部病变分析仪是采用一种深度学习系统,可以将眼科医生的工作效率提高 70%,让医生将更多的时间专注于复杂病例。


到了 2025 年,新加坡有望开发出基于人工智能的系统,扫描糖尿病、高血压和高血脂,即「三高」患者的视网膜照片,建立心血管疾病的预测风险评估模型。


此外,人工智能技术通过综合分析临床数据、医学图像和基因组数据等数据,以创建针对慢性疾病的个性化风险评分系统。


政府机构表示,这将使民众及早采取预防措施,并由护理小组提供更具针对性的干预措施。





眼部病变分析仪可用于检测三种主要的眼部疾病,分别包括糖尿病性眼病、青光眼和与年龄有关的黄斑变性。




4)个性化教育计划


在教育领域,政府将在 2020 年前,在部分试点小学和中学启动英语自动评卷系统。该系统将评估短答题和论文,并对学生的作业提供快速反馈,让教师把更多时间放在学生身上。


到 2030 年,该计划将扩展到其他学科。


到 2025 年,该计划将启动自适应学习系统和学习伙伴,以更好地支持每个学生的不同需求和能力。


自适应学习系统基于机器学习技术,指导每名学生如何应对各种教材,以便为每个人提供一种定制化的学习方法。


AI 学习伙伴还将帮助学生反思他们的学习经验,并推荐进一步的学习计划。








5)边境通关计划


在边境安全领域,新加坡政府计划在 2025 年前,部署一套涉及面部和虹膜扫描的全自动通关系统,本地居民和海外旅客均可使用。


采用这套系统将减少人为错误,并值班柜台的移民官员专注于高价值的工作,例如关注可能需要更严格审查的访客。








这是上述新加坡五个国家 AI 计划的里程碑时间表:








智慧国及数码政府署 (SND-GO) 在一份声明中表示,政府从20 多个构思中挑选出这五大 AI 项目,主要是它们有潜力为新加坡和新加坡人带来较大社会经济影响、推行上需要多方面高度协调,并能在中期内落实,以向国人和企业展示人工智能的价值。


新加坡全国人工智能战略的部分资金将来自政府的《研究、创新与企业 2020 计划》,为加深人工智能创新和研究等方面所投入的 5 亿新元 (约合 25.8 亿元人民币)。


政府已在《研究、创新与企业 2020 计划》下,投入 5 亿元加深人工智能研究、创新和企业活动等。接下来,新加坡政府将探讨发展全国人工智能项目和领域等所需的资金,并会在数月内公布额外的投资金额。


新加坡政府还在今年 10 月成立了新的全国人工智能署,隶属智慧国及数码政府署,促进各相关利益者之间的合作,推动全国人工智能项目。


智慧国及数码政府署署补充说,上述五大项目对于新加坡建立国家的数字基础设施具有指导性意义,后续还将继续确定「其他有影响力的国家人工智能项目」。


对于我国的人工智能公司而言,新加坡正在成为临近出海地区的最佳市场。这两年,依图、旷视、商汤纷纷在新加坡设立分部或者站点,除了其迫切的国家基础设施升级需求外,还在于新加坡南洋理工大学等高校所聚集的人才效应。

原文链接:


原创: 四月

文章来源: 机器之能  

编辑:高杰

329#
 楼主| 发表于 2019-11-24 16:55:31 | 只看该作者
人类智慧与人工智能:医生的AI,还是AI医生?
11月22日,由“知识分子”和北京大学健康医疗大数据国家研究院共同举办的“智慧医疗革命:潜力与挑战” 论坛在北京大学医学部举行。
撰文 | 汤佩兰
责编 | 李晓明
  
“当一个无人驾驶汽车刹车失灵,是往左转撞死一个人,还是往右转撞死五个人?这个时候是否人类文明的伦理适用于人工智能?”11月22日,北京大学健康医疗大数据研究中心副主任王海波用伦理学的经典电车难题,引出了智慧医疗的一个核心议题——
人工智能当前的一个非常大的特点是,它有不可解释性,让人不明觉厉,但在医疗领域则可能面临巨大的伦理挑战。当医疗AI对的时候,所有人皆大欢喜;当医疗AI犯了错,尽管概率很小,但错的时候,谁来负这个责任。是医生吗?是写程序的程序员?还是签字买这个医疗AI的院长?
在当天由“知识分子”和北京大学健康医疗大数据国家研究院联合主办的“智慧医疗:潜力与挑战”论坛上,三位来自医学、人工智能、伦理学领域的嘉宾,就人类智慧和人工智能在真实医疗情境下的发展,展开了精彩对话。
智慧医疗方兴未艾file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps59.png
当前,在需求、政策、资本和技术的共同驱动下,中国的智慧医疗产业正进入高速发展期。这是一个人口规模巨大的健康医疗市场。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps60.png
北京大学常务副校长、北大医学部主任、中国工程院院士詹启敏
民生的需求是排在第一位的。北京大学常务副校长、北大医学部主任、中国工程院院士詹启敏在此次论坛中表示,当前中国医疗健康面临恶性肿瘤、心脑血管等重大疾病,医疗手段有限,临床实践大量依靠人力,以及医疗资源分布不均衡、发展不充分等多重挑战,智慧医疗作为新的医疗模式,有望提供快捷、精准、有效,而且价格合适的医疗健康服务,从而解决老百姓的健康需求。
中国工程院院士、清华大学临床医学院院长董家鸿引用《柳叶刀》的数据指出,中国的医疗支出仅占GDP的6.5%,这仅相当于全球卫生资源投入的2%,不到美国和欧洲的1/3、1/2,却负担了全球20%人口的健康医疗,这是一个巨大的惊人的成就,但同时医务工作者也作出了巨大的风险和牺牲。
“全国只有360万医生,但中国老龄人口已经达到2.48亿,确诊为慢病患者的人数超过3亿,相对于整个社会的健康医疗服务需求,中国的医疗资源供应不足,基层和边远地区更是十分匮乏,而且资源配置严重不均衡、结构严重不合理的问题十分突出。”董家鸿表示,“智慧医疗有望成为解决医疗供需矛盾,提高成本效益的新的策略”。
巨大的需求,同时意味着巨大的市场。董家鸿表示,近年来国家连续出台政策推动智慧医疗发展,同时中国的前沿科技发展,尤其是智能技术的发展和应用,意味着未来中国数字化医疗和智慧医疗产业发展面临重大机遇。他披露的一项分析数据显示,2030年,智慧医疗的技术应用可能高达2万亿~7万亿元市场规模。
在众说纷纭的智慧医疗定义中,大数据、人工智能、物联网、互联网和云计算等核心技术的支撑,都是不可或缺的。董家鸿倡导将“智慧医疗”定义为现代科技赋能于传统的健康医疗服务,形成最优化的大健康体系。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps63.png
中国工程院院士、清华大学临床医学院院长董家鸿
他在演讲中特别列举了国内目前在智慧医疗领域取得的关键技术突破。包括国产脑起搏器通过精准定位和电磁刺激来治疗帕金森病、覆盖13个部位的骨科手术机器人系统、智能化精准肝胆手术系统、前列腺癌全程智能化精准医疗,等等。而在人工智能方面,包括智能药物研发、智能诊断、医疗机器人、智能影像识别和智能健康管理,将助力健康医疗产业的提质增效。
在全球范围内,人工智能也早已应用于医疗领域。腾讯优图实验室医疗AI总监郑冶枫在演讲中介绍,1990年芝加哥大学医学院首次证明计算机辅助诊断和医生的结合,能提高医生诊断的准确率。而2016年谷歌研发的眼底糖网分类技术和2017年斯坦福大学研发的皮肤癌诊断技术,证明了在特定任务下人工智能甚至超越医生。
郑冶枫所在团队专注于深度学习在医学影像领域的应用。2017年8月腾讯推出了辅助疾病早期筛查的AI医学影像产品腾讯觅影,目前已经覆盖了食管癌、肺癌等六个病种,还有更多病种在实验室研发阶段。郑冶枫指出,中国医疗影像存在供给不平衡的现状,随着影像设备CT、MRI)数量迅速上升,影像数据每年增长30%,但影像医生每年的增长为4%,短期内难以大量增加。同时,基层医生的误诊、漏诊率高,以食管癌早筛为例,检出率不足10%。他认为,通过计算机辅助诊断是解决供需不平衡的方向。
医疗AI的挑战与风险file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps64.png
智慧医疗的标志性方向就是人工智能的应用。尽管人工智能在医疗中的应用已经取得一些进展,但在数据资源共享、技术发展、医生训练、伦理风险等方面,依然是一个充满挑战的新的领域。
医疗健康资源,包括大数据的共享问题首当其冲。詹启敏认为,智慧医疗推进过程中的挑战在于大数据的标准、储存、安全和共享,涉及到个人隐私和知识产权。
“医疗资源共享远远不能实现,即使是一个大学的附属各个医院之间也不能共享,这个问题亟待解决”,董家鸿深有同感。他表示,医疗资源共享,一是可以避免医疗资源浪费,二是可以推动更好的医疗卫生决策,以及帮助包括人工智能在内的研究。德国有全国性医疗资源共享系统,美国实现了区域性的医疗资源共享,希望中国也能建成全民健康档案,但是难度非常大。
“表面上看数据融合比较困难,它的本质是利益格局的融合。”王海波说道,“本身数据是资产,信息流动在不同医院里有自己的利益格局,怎么处理?这不单单是技术的问题,而是社会治理的问题。”
而技术的发展在当前也面临挑战。郑冶枫谈到,人工智能应用于医学影像本质上是图像识别问题,但当前“缺乏大量标定好的数据样本”。跟其他图像不同的是,医学影像数据面临着三大困难:数据获取对专业设备有要求,还会涉及患者隐私、罕见疾病及数据标注门槛高,需要专业医生才能标注准确。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps65.png
腾讯优图实验室医疗AI总监郑冶枫
为解决数据共享和训练样本不足的问题,郑冶枫介绍了“迁移学习”和建设开源平台“Med3D”(注:“Med3D”即构建三维影像的ImageNet)两种办法。前者是在有大量数据集的源域上训练模型,将模型迁移到小量数据集的目标域上,从而减少对训练样本的需求。后者则希望通过开源的办法,建立共享数据平台。
“现在人工智能的实现是在一个非常窄的领域,有海量的数据,有非常清晰的界定应用场景下,它才能做得跟人一样,甚至比人好。”王海波说,但是为了解决共享数据不足的现实问题,出现的小样本、迁移学习的模式也可能带来如适应症偏移等新的风险。
针对技术发展带来的不确定性,董家鸿认为人机协同是未来的必然选择。他阐释道,医学和工科的合作,就是从不确定性的事件中寻找确定性,AI能够给医生提供的最大帮助也在于此。某一类人群、某一类疾病里面有确定性的东西,但是病人和病人之间有很大的个体差异,这就是不确定性。这种不确定性总是存在的,最终还是要靠医生的智慧。
真实的场景总是更为复杂。北京大学医学人文学院医学伦理与法律系主任丛亚丽指出,中国的问题是医生水平参差不齐,人工智能最能帮助的是水平有待提高的医生,尤其真正提高基层和边远地区医生的水平。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps67.png
北京大学医学人文学院医学伦理与法律系主任丛亚丽
“人工智能技术应用肯定要包含对于不同场景的描述,因为我们也担心它被用错了”,郑冶枫表示,“AI作为新的工具,不可能不经培训就拿来用。医生的培训非常重要。它的诊断准确率看起来比较高,但也会犯错。所以医生要花一定时间摸清楚它犯错的规律,这样才能真正有所帮助。另外流程上医生应该先读片子,再看AI的诊断,然后再去比较和综合。”
北京大学医学部副主任肖渊就此补充道,一个国家全民的健康应该有一个完整的医疗体系。其中要有分层、要有分类指导,要有不同发展阶段的推动。从实践来看,当前这个体系还不完善,怎么更好地发挥AI技术的作用,各个地区也在做不同的探索。比如社会经济发展比较好的地区,像深圳就用医联体的方式,在互联网上构架了一个比较均衡化的医疗服务水准和平台。而宁夏采用的是另一种方式,他们是建立医学中心,通过互联网技术把心电图、X光片中的影像学等比较好传送的基础诊断上传到上一层的医疗中心。在社会经济发展不平衡的状态下,用技术分类指导推动医疗更好地服务于人、服务于整个民众的健康是很有必要的。
医生的AI,还是AI医生?file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps69.png
在论坛圆桌讨论环节,嘉宾们从各自经验出发对“人工智能会超过人吗?”“人工智能是否会伤害人类?”“人工智能发展的边界在哪里?该如何制定规则”等问题进行深入探讨。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps71.png
在人工智能与人的比较上,丛亚丽表达了深切忧虑,“我觉得人类智慧在AI面前会失能,AI会大大胜出”,因为AI不会感到疼痛和失去。
“我觉得现在还处于非常初步的阶段”,郑冶枫认为,“人工智能替代人类,那是50年后、100年后的事情,现在要着眼于各个具体的问题,把算法的准确率提高,使其跟医生协同合作,改善医疗环境。”
在董家鸿看来,在某些方面人工智能可以超过人,但在总体的智慧上,机器永远不可能超过人类。
“技术是服务于人的,人工智能的发展是为了为人类提供更好的健康服务。”董家鸿说,“我们要认识到是医生的AI,而不是AI医生。”
从医疗服务诊断的感知、认知、决策、干预几个主要流程上,他进一步分析道,人工智能可以在感知方面超越人的极限,在认知方面也可以在某种程度上超越人,为医生提供辅助决策支持。包括对于肿瘤发生机理的研究,未来如果在算法上无法取得突破,则对于肿瘤本质的认识和防治策略不可能有突破。但是个体疾病复杂的变异性,常态的个体差异,一定还需要医生的智慧。如果要求医生遵从机器的决策,那会出很多问题。而从干预方面,机器可以提高手术操作的精度和可控性,但必须要由医生做出判断和控制机器人,否则要出问题。
董家鸿认为,当前医疗AI风险在于不可解释性,那就是为什么人工智能能够作出准确的判断,如果没有明晰的原理可解释,在实际使用过程中医生心里不踏实,患者接受起来也有疑虑。“如果一个医生犯了错,受损害的是一个病人。如果人工智能机器人出了错,将会损害一批病人。”因此,董家鸿主张将机器人作为辅助,让它处理确定性的事件,由医生来处理不确定性事件,并承担起法律上的责任。
对此,郑冶枫则认为人工智能“不可解释性的问题被夸大了”,“如果把AI想象成药物(有效但机理暂未明确),就不会苛求它的解释性了,有解释性当然是锦上添花。”他主张,把AI限制在固定场景下应用,且确实证明有效即可。
“医学里确实有很多东西背后的原理和机制还没有搞清楚,也不能等待原理机制都搞清楚了再去应用”,董家鸿就此表示,对于不可解释的药物、人工智能技术,应该严格限定它的应用边界。如果可解释,人就可以有更大的发挥,懂得它的机制可以举一反三。不可解释的情况下,如果在某个领域被证明是有效的,则可以允许使用。
那么,当医生的决策依赖于AI,这意味着什么?王海波提到自己参与的一项研究显示,尽管AI只是提供辅助决策的功能,但实际操作中,也可能产生对医生自主性的侵蚀。“在中国医疗资源供需失衡的情况下,当面对大量的病人和很高的工作强度,医生很可能会过度依赖人工智能决策,这种自主性被侵蚀,对医生意味着什么,对病人意味着什么,对整个医疗又意味着什么?”
董家鸿认为,问题需要从科学和伦理两个层面考虑。首先,人体和疾病都是极其复杂的,因此在人类的健康医疗服务中是不可能不出错误的。从医学的角度来看,它的发展本身就是一个不断试错和校正的过程,先进的科技手段确实能够帮助医生做出更正确的判断,做更精准的干预,但仍然不可能完全避免出错,最终主导的主体仍然是医生。医生也应该加强培训和学习,更好地理解人工智能带来的辅助决策的支持和它的局限性,从而让人类站在更高的智慧水平上更好更准确地利用人工智能。
而从伦理的角度,参与对话的专家表示,智慧医疗的目的不是方法,不是人工智能,而是为了健康,根本还是为了人。因此,需要工程、医学、伦理、法律共同探讨,最终还是在人类的健康福祉准则下,共同制定伦理法规。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps72.png
北京大学健康医疗大数据研究中心副主任王海波
王海波以回应开场的伦理学电车难题作为总结,“当时我的回答是人工智能怎么选择都是错的。这个时候,人工智能应该把决定权交给车上的人。同样,智慧医疗也是,当机器作出判断的时候,最终诊断的决策权、治疗干预的决策权应该交给医生。”file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps74.png
“智慧医疗:潜力与挑战”论坛
近年来,随着人工智能技术、5G、云计算和大数据技术的蓬勃发展,以健康大数据和AI辅助诊断为代表的新医疗形态,正在不断激发健康医疗行业的创新和变革,提升医疗服务的效率和质量,增进公众多层次、多样化的健康福祉。在技术进步的同时,与大数据相关的信息孤岛、个人信息安全等问题也亟需对话和讨论,形成行业共识。 在此背景下,作为国内领先的科学新媒体,“知识分子”联合北京大学健康医疗大数据国家研究院,共同举办 “智慧医疗革命:潜力与挑战” 论坛,邀请业界领袖、技术精英、伦理专家研讨当今中国智慧医疗改革的发展机遇,以及在人文、技术、法律、伦理等相关领域的挑战应对,并进行圆桌对话。论坛由腾讯腾云智库独家支持。
文章来源:微信公众号“ 知识分子”
原创: 汤佩兰
编辑:高杰

330#
 楼主| 发表于 2019-11-26 10:42:21 | 只看该作者
【案例】
责任感已成为阻碍人工智能发展重要因素
11月举办的第5期博古睿讲座上,范德霍文(Jeroen van den Hoven)教授讨论了规范背景对于合理界定人工智能责任的重要性,梳理了目前主要存在的四种反对为行为担责的“借口”。
第一是“知识”
因为一无所知,所以无法承担责任。
第二是“控制”
因为无法控制环境,所以无法承担责任。
第三是“自由和选择”
因为别无选择,所以无法承担责任。
第四是“隐私和道德能力”
因未处于私人场合且只能根据公共利益来采取行动,所以无法承担责任。
范德霍文认为,在人工智能的发展过程中,应当凸出初始设计的重要性,而不是着重于强调人类在上述四个“借口”中的较差能动性;并在发言中进行了具体分析。
他在“知识”话题中,首先提到了黑匣子问题。在黑匣子中,人类难以充分理解人工智能的输出,这说明了“为何负责任地设计人工智能”对社会而言至关重要。然而,我们对黑匣子认知中的不安全感、不确定性,不应是有关人工智能问责制讨论的终点:算法不应被视作炼金术——相反,工程师和伦理学家应努力实现和改变人类偏见(除偏),以消弭其对社会造成的不当影响(如图像识别、监控等)。范德霍文也坚信,算法追索权应当是一个减少似是而非的、可否认性的有力考虑因素;而人类应当巧妙设计人工智能,以转变现有模型普遍存在的不利因素。
在讨论“控制”时,范德霍文将无人驾驶汽车事故与波音737 MAX坠机情况单列出来,尝试“为人工智能设计更加负责”提供思路。购物算法所用的逻辑同样被用于致命性自动武器,而在使用这种将带来极大负面影响的技术之前,需要建立有效果的人工控制。
对于“自由和选择”,他则提到了“Nudging”的行为心理现象。据了解,任何能够显著改变社会人行为的因素都可以被称为“Nudging”,它意味着行为主体将从社会和心理角度来设计政策工具,以符合目标对象的日常行为习惯。而人工智能的影响恰在于它强行创造了一个“回声室”,表面上看似乎无害,但却影响了经济周期和社会发展。范德霍文认为,如果缺少负责任的设计,大数据与机器学习的结合将不可避免地带来强大且不可控的“Nudging”。
目前,即便与各种严格、科学的方法相比,社交媒体依然毫无疑问成为个人行为和身份地位最有分量的标识。范德霍文认为,在西方社会,“监控资本主义”已经逐渐形成一种新的社会和政治关系,“隐私”这个古老概念将如何重新定义我们在数字时代的认同与感受;由此,“负责任的人工智能设计”在当下将变得愈加重要。“工程师和伦理学家需要紧密合作,推动人工智能为社会创造巨大益处。与此同时,我们需要担负起这四个行为责任,不断提高人类能动性”,范德霍文如此谈到。
* 本文内容由北京大学博古睿研究中心秋季实习生、北京大学燕京学堂在读研究生李康圭(Kangkyu Lee)采写。
(杨嘉琪/编辑)
来源:博古睿研究院
链接:https://mp.weixin.qq.com/s/8G44mAwgUY2meUhjnF3FUg

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表