传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
331#
 楼主| 发表于 2019-11-21 22:26:31 | 只看该作者
【案例】
博古睿讲座05| 厘清人工智能规则与技术责任界限是关键
2019111日,“博古睿讲座05:人工智能伦理:为责任而设计”在北京大学举办。由于我们在“人类应当如何建立与人工智能之间的关系”这个问题上存在较大分歧,讲座主题便将重点落在为何“负责任地设计人工智能”必须成为人工智能创新中不可或缺的组成部分。主讲人范德霍文(Jeroen van den Hoven)是荷兰伦理学家、代尔夫特理工大学哲学教授、《伦理学和信息技术》(由施普林格·自然集团出版)主编,目前担任荷兰代尔夫特设计价值研究所科学主任;讲座由北京大学哲学系助理教授李麒麟主持。
开场环节,范德霍文向听众展示了全球范围内诸多技术法规、原则和标准,与人工智能实际开发利用之间存在的差距。他指出,“先斩后奏”模式在安全性上存在着较大隐患,这类传统做法已然不能支持人工智能更好地发挥其优越性。“厘清责任界限在弥合规则与技术的鸿沟方面具有重要作用,伦理学家与工程师在这一方面的作用具有许多共通点”,范德霍文说到。
范德霍文在发言中明确表示,不应由人工智能本身来为其所造成的意外或负面后果负责,这一责任应由人工智能的设计者承担。他举了两个例子:一个是“弗兰肯斯坦”——受到指责与惩罚的对象不应是弗兰肯斯坦创造的怪物,而应当是弗兰肯斯坦博士本人。另一个是,范德霍文认为“人工智能应对其自身的犯罪行为负责”的观点,与11世纪欧洲教会判决人造物和物件有罪,以及18世纪欧洲判处动物有罪等荒谬举措如出一辙。他强调,现代人不应被这种过时的、不合理的思维所束缚。
那么,现代社会应当如何有效地思考“负责任地设计人工智能”这一问题呢?
范德霍文认为,我们不应一再重复“如果人工智能表现出人类特征将会如何”等“被动”的问题,而应在技术设计阶段就积极主动规划,并植入尽可能充分的控制。著名的电车难题表明了工程师和哲学家在思维方式上的区别:工程师会说可以开发一种制动系统来阻止火车陷入假设中的危险境地,而哲学家则会因为工程师未能从思维实验的角度理解这一经典难题而感到恼怒。
随着智能城市的出现,人工智能将得到大规模、多领域的普及,这一趋势引起了范德霍文对“二级责任”或是“让人们为他人的责任担责”等问题的思考。他比较了人工智能与核能的发展,来证明“二级责任”的重要性。在核能领域,不仅是首席科学家,就连负责运输建筑材料的后勤人员、盖革计数器的制造商,甚至保安人员都有义务对核能的安全性负责。他呼吁大家以同样的方式思考人工智能,并不是只有算法才重要。除核能外,航空、食品、制药和水工业也制定了无数相关法规;这些标准化举措取决于社会以及相关领域内部,如何理解“二级责任”这一命题。
随后,范德霍文讨论了规范背景对于合理界定人工智能责任的重要性。由于(从医疗到武器)人工智能用途各异,相关法规的范围必须足够灵活、健全,同时兼顾道德和治理领域。在深入研究社会应如何设计人工智能以防有人逃避责任之前,他梳理了目前主要存在的四种反对为行为担责的“借口”。第一是“知识”:因为一无所知,所以无法承担责任;第二是“控制”:因为无法控制环境,所以无法承担责任;第三是“自由和选择”:因为别无选择,所以无法承担责任;第四是“隐私和道德能力”:因未处于私人场合且只能根据公共利益来采取行动,所以无法承担责任。
讲座上,范德霍文数次强调多学科融合在“负责任设计人工智能”上的重要性。他认为,多学科视野、方法与知识的交融互通,有利于在人工智能时代增进人类知识、提高环境控制能力,同时更好地维护个人权益和保护隐私。
* 本文内容由北京大学博古睿研究中心秋季实习生、北京大学燕京学堂在读研究生李康圭(Kangkyu Lee)采写。
文章来源: 博古睿研究院
原文链接:https://mp.weixin.qq.com/s/OR7o4bx0E9T4IN-pEh9Ntg
编辑:高杰

332#
 楼主| 发表于 2019-11-22 13:23:43 | 只看该作者
【案例】
最强假新闻生成器GPT-2终于开源完整版本!15亿参数模型全部公开
来源 | OpenAI
译者 | 核子可乐,陈思
编辑 | Natalie
AI 前线导读: 时隔九个月,GPT-2 的阶段性开放终于进入尾声。北京时间 11 6 日,OpenAI 正式放出 GPT-2 最后一个部分的完整代码——包含 15 亿参数的最大版本。
按照 OpenAI 方面的说法:公开完整版本确实与模型滥用的调查结果有关。虽然经过多方求证发现,GPT-2 存在被极端组织恶意使用的可能,但是目前没有证据直接证明 GPT-2 已经遭到了滥用。
更多优质内容请关注微信公众号AI 前线”(IDai-front
“最强 NLP 模型”GPT-2 完整开源
经历了被追捧为“最强 NLP 模型”、因为不开源遭到 全网吐槽、宣布 部分开源 等一系列大事件之后,今天,OpenAI 终于公开了 GPT-2 最大最完整的 15 亿参数版本。
照例先放上开源地址:https://github.com/openai/gpt-2
在此之前,OpenAI 已经发布了三种 GPT-2 模型:“小型的”1.24 亿参数模型(有 500MB 在磁盘上 ),“中型的”3.55 亿参数模型(有 1.5GB 在磁盘上 ),以及 7.74 亿参数模型(有 3GB 在磁盘上 )。
作为 GPT-2 分段发布中的最后一轮,此次公开的完整 GPT-2 包含 15 亿条参数,其中包含用于检测 GPT-2 模型输出的全部代码及模型权重。OpenAI 在官方博客上表示:
自今年 8 月以来,我们一直遵循初始分段发布计划,通过越来越大的语言模型帮助社区获取准确度更高的可测试案例。我们希望这一测试案例能够帮助开发人员构建起功能更强大的后续模型,同时也积极与 AI 社区就发布责任问题开展对话。
除此之外,OpenAI 还公布了有关 GPT-2 的一些新发现,其中包含了公众最为关心的滥用等问题。
有关 GPT-2 的新发现
1. 人们发现 GPT-2 的输出质量令人信服。
作为合作伙伴,康奈尔大学的研究人员对 GPT-2 使用受众进行了调查,希望根据不同规模的模型版本为 GPT-2 生成文本进行质量评分。人们给 1.5B 模型给出的“可信度得分”为 6.91 分(满分 10 分),略高于此前的 774M 模型版本(6.72 分),同时大大高于更早的 335M 模型版本(6.07 分)。正因为评分逐步提升,OpenAI 才决定发布最终的 1.5B 模型,将完整的 GPT-2 展现在公众面前。
2. GPT-2 经过微调后可能被滥用。
作为合作伙伴,米德尔伯里国际研究中心下辖的恐怖主义、极端主义与反恐中心(CTEC)研究人员们发现,极端主义团队可对 GPT-2 进行滥用,特别是结合四种意识形态立场对模型做出微调。
CTEC 的研究结果显示,微调后的模型足以为这些意识形态快速生成综合性宣传素材。他们还证明,尽管合成输出结果相当具有迷惑性,但基于 ML 的检测方法仍可帮助专家分辨出由 GPT-2 生成的伪造消息。
3. 检测难度颇高。
OpenAI 认为,对基于内容的合成文本进行检测将是一项长期挑战。为了测试机器学习方法是否有助于解决这个难题,研究者进行了内部检测研究,并开发出一种检测模型。面对由 GPT-2 1.5B 生成的文本,这套模型能够带来 95% 的检测成功率。(注 1
具体来讲,OpenAI 选择立足 RoBERTaBASSE1.25 亿条参数)与 RoBERTaLARGE3.55 亿条参数)建立起序列分类器,并通过微调使其获得对 GPT-2 1.5B 模型与 WebText(用于训练 GPT-2 模型的数据集)输出结果的分类能力。
OpenAI 认为,对于单项检测而言,这样的准确率还无法令人满足,必须同时结合基于元数据的方法、人为判断以及常识教育才能进一步提高效果。为此,OpenAI 选择发布完整版模型,希望协助各方共同研究对合成文本的检测方法。当然,OpenAI 方面也承认全面发布同时也会让恶意人士有机会进一步提高检测逃避能力。
此外,OpenAI 发现,检测准确率在很大程度上取决于训练及测试中使用的具体采样方法,但同时,在使用多种采样技术进行训练时,检测结果将更加可靠。如下图所示,规模越大的模型,其输出结果越是难以分类。但是,利用这部分输出进行训练,则可提升检测结果的准确率与可靠性。OpenAI 预计这种趋势将长期存在,随着模型规模的增大,检测难度也将同步提升。
各模型版本检测准确率(核样本)
4. 到目前为止,尚未发现明确的滥用迹象。
尽管 OpenAI 的研究人员已经围绕 GPT-2 在大规模生成垃圾邮件与网络钓鱼信息等高批量 / 低收益操作方面的潜力进行了讨论,但 截至目前并未发现任何明确的代码、文档或者其他滥用实证。他们认为,随着合成许可证生成器在输出质量上的持续提升,遭到滥用的可能性确实会同步提高,同时也承认,OpenAI 无法及时发现所有潜在威胁,而有动机的参与者也不太可能发布自己的微调语言模型。
5. 在偏见研究方面,需要建立标准。
语言模型永远存在偏见。对于 AI 研究界而言,为此类偏见制定出研究方法、开展讨论并加以解决已经成为一项重要但难以克服的挑战。OpenAI 通过以下两种方式尝试解决偏见难题:
发布模型卡(注 2
这一模型卡以 Mitchell 等人提出的“用于模型报告的模型卡”理论为基础。
我们同时在 GitHub 上发布模型代码,希望帮助大家对语言模型(例如 GPT-2)存在的固有问题建立理解。
GPT-2 中存在的某些偏见做出内部定性评估:我们利用评估结果通过模型卡对 GPT-2 在性别、种族以及宗教方面的偏见作出探究。当然,这些调查并不全面,还需要配合其他偏见分析框架。
下一步计划
OpenAI 在博客中表示:
过去九个月以来,我们在 GPT-2 开发方面的经验,帮助我们为 AI 模型负责任发布工作中存在的挑战与机遇建立起宝贵的见解。我们也参与到 Partnership on AI 的“机器学习负责任发布规范”项目当中,希望通过合作关系与研究界的同行们共同讨论,为解决模型发布问题贡献力量。
讨论仍在继续:GPT-2 好用吗?安全吗?
HackerNews 网站上,有关 GPT-2 的讨论一直没有停止。在 15 亿参数版本发布后,更多参与者加入话题了。
讨论页面:https://news.ycombinator.com/item?id=21454273
目前的讨论者分为两个主要阵营:
尝鲜派:GPT-2 好用吗?在哪儿用?
这一类讨论者主要在研究 GPT-2 的实用性,一些开发者也附上了自己的做的测试模型,感兴趣的读者可以前去体验:
http://textsynth.org/
https://talktotransformer.com/
当然也有一些讨论者提出:GPT-2 开放代码的可读性较差,有不少意义不明的内容,在生成文本的时候,甚至会出现一些常识性的错误等等。这些问题让部分讨论者质疑 OpenAI 放出的有可能是微调过的“阉割版”。
激辩派:GPT-2 安全吗?
这一派讨论者主要将目光聚焦在 GPT-2 的安全性上。毕竟官方也已经承认:确实存在安全隐患。大部分讨论者的观点都认为:GPT-2 完全开放后,必然会引发一阵滥用风潮。其中不乏一些激进人士的观点。
AI 前线早先发布的 一篇文章 中,作者曾对 GPT-2 的威胁论进行过探究,他认为 GPT-2 被滥用的可能性遭到了过分夸张。当然,作者当时测试用的也并非是完整版本,不知道在使用过完整版一段时间后,他的看法会不会有所改变。
注释
具体来讲,OpenAI 立足 RoBERTaBASSE1.25 亿条参数)与 RoBERTaLARGE3.55 亿条参数)建立起序列分类器,并通过微调使其获得对 GPT-2 1.5B 模型与 WebText(用于训练 GPT-2 模型的数据集)输出结果的分类能力。
这一 模型卡 Mitchell 等人提出的“用于模型报告的模型卡”理论为基础。
参考链接:
原创: 陈思
文章来源:微信公众号AI前线  ”
原文链接:https://mp.weixin.qq.com/s/jjX5sHWMAKDGBWFyK4OOZw
编辑:高杰

333#
 楼主| 发表于 2019-11-22 13:35:24 | 只看该作者
【案例】
美国人脸识别第一案 | 法院同意脸书继续参与诉讼,其可能面临数十亿美元的赔偿 | DataLaws
2019年10月20日,美国第九巡回法庭根据联邦上诉程序规则第41(d)(2)条,批准Facebook提出中止帕特尔诉Facebook案的动议,允许Facebook向美国最高法院提交移送申请。如果最高法院审理此案并确认第九巡回法庭关于原告有资格的裁决,它可以为原告在所有联邦法院提出法定隐私权要求提供一条明确的途径。
2010年,Facebook推出了人脸识别技术,扫描用户发布的照片,创建与用户匹配的人脸签名数据库。2015年8月,伊利诺伊州居民Adam Pezen、Carlo Litica和Nimesh Patel在加利福尼亚北部地区对Facebook提起集体诉讼,指控Facebook的人脸识别技术违反了伊利诺伊州《生物特征信息隐私法(BIPA)》。2019年8月,第九巡回上诉法院申明地方法院决定承认该类别的第三条立场,并裁定侵犯法定隐私权之类的无形损害可以作为提出此类主张的理由。
当前,法院在原告人必须表现出何种损害程度才能提起隐私和数据泄露诉讼方面存在分歧。例如,第二巡回法院仅接受有形损害的证据。在Spokeo,Inc.诉Robins一案中,最高法院裁定,“每当一项法令授予某人一项法定权利并声称授权该人提起诉讼以证明该权利时,并不总是满足第三条的规定。”即使在法定违法的情况下,第三条规定仍然需要具体的伤害。”
在本案中,原告声称,他们实际上受到了具体的伤害,因为Facebook违反了BIPA第15(a)和15(b)条,其中要求公司在一定时间内删除生物测定数据,并且他们提供使用生物测定数据的通知或获得同意。2016年6月,Facebook撤回了因缺乏第三条规定而提出的申诉。第九巡回法庭承认,在Spokeo案中,如果伤害不是具体的,那么将不构成一项法定的违法行为。但是,法院重申,无形伤害可以是具体的,因此采用了两步法来评估违反法律的行为是否造成了具体伤害。如果(1)制定了法律规定以保护原告的具体利益,并且(2)被指控实际上对这些利益造成损害或存在实质性损害风险的违法行为,则可能会造成具体伤害。法院指出,伊利诺伊州之所以制定了BIPA,是因为“生物识别信息的法规将为公共福利,安全和保障提供服务”。此外,法院还发现Facebook保留生物识别数据损害了原告的实质性隐私权益。
Facebook在向第九巡回上诉时还辩称,地方法院在向原告授予集体证明方面犯了错误。它辩称,集体认证违反了《联邦民事诉讼规则》第23(b)(3)条,因为诉因的必要事件并未“主要且实质上”在伊利诺伊州内部发生,因此一个常见问题并未在集体中“占主导地位”。第九巡回法庭确认了地方法院对该集体的证明。法院认为,是否有充足的事件发生在伊利诺伊州这一问题并没有抵消优势地位,因为这个问题必须随着时间的流逝而得到回答,如果认为有必要,法院可以随时取消该集体的资格。
虽然第九巡回法院没有就案件的是非曲直作出裁决,但本案是第一个经BIPA认证的集体诉讼。第九巡回法院的裁决对未来的隐私权保护具有重要意义。一些人认为这项裁决将鼓励更多的隐私诉讼。然而,其他人则声称,至少在伊利诺伊州法院的诉讼中,该案无关紧要,因为有必要对BIPA作进一步解释。这项暂缓执行的动议使Facebook得以避免在漫长的审判中花费额外费用,并在最终裁决可能被推翻时支付损害赔偿金。如果原告胜诉,Facebook将面临数十亿美元的赔偿金,因为伊利诺伊州法律允许每个原告的法定赔偿金从1000美元到5000美元不等,而且该类赔偿金可能包含数百万来源:HarvardJournal of Law and Technology(2019年11月14日)
作者:Genie Gorbonosov
翻译:张楠奇,上海交大法学院本科生
原告。
来源:微信公众号“ 数据法盟”
编辑:高杰

334#
 楼主| 发表于 2019-11-22 13:38:58 | 只看该作者
【案例】
对话微软小冰三大首席科学家: 微软第一美少女AI的成长之路
11月21日,微软(亚洲)互联网工程院在北京微软总部召开了微软小冰2019年年度研究进展分享会,微软小冰三大首席科学家——微软小冰首席科学家宋睿华、微软小冰首席NLP科学家武威、微软小冰首席语音科学家栾剑在会上展示了微软第一美少女AI小冰近期的技术突破,带来了相当硬核的技术干货分享。
左:武威 中:栾剑 右:宋睿华
一、会比喻 懂常识 越来越像人的微软小冰
——会比喻的小冰
语言无疑是复杂的,其包含了陈述、疑问、反问、比喻、修辞乃至“阴阳怪气”等只有人类才能领会并熟练运用的微妙技能,所以当微软小冰首席科学家宋睿华表示小冰已经学会使用“比喻”时,着实令人震撼。
而且小冰不仅仅做到了诸如“爱情是复杂的,像数学一样”简单形容词比喻,甚至可以实现“灵魂就像球迷一样,在无声地呐喊”、“爱情就像是脂肪,是点点滴滴的积累”这样的动词与名词形容句,而且毫无违和感。
宋睿华介绍道,为了帮助小冰学会“比喻”这项技能,他们从复杂的诗歌中挑选了6大类,每类122个主题,并通过小冰聊天日志过滤出了包括爱情、内心、世界、母亲、美丽、人类在内的96个常用比喻概念。随后从1000个常用词中选取了3000个最常用的形容词扩充小冰的比喻能力。
比喻句的基本结构是“XX像XX”,其中前者是比喻的本体,后者是比喻的喻体,说好一句比喻的重点无疑在如何筛选本体和喻体上,并且还要为这句比喻提出一个合理的支撑点,避免出现“恋人像报表,都十分可靠”这种奇怪的比喻。为此小冰会对比本体与喻体的可能存在的相关词汇。
比如爱情与国足,它们共同的相关词汇可能有未来、虚幻,那么小冰就可以作出“爱情就像国足,未来都是虚幻的”这样自然的比喻句。
——懂常识的小冰
常识对人类而言是一个非常简单事情,比如提到北极熊时就很少会有人说“这是一只白色的北极熊”,因为常识默认北极熊是白色的,大多数人都会省略到这种众所周知的常识性信息。
但对于小冰而言,这种省略会对它的理解造成困扰,比如一篇描写北极熊捕食的文章在描述“北极熊在接近海豹前会用爪子捂住鼻子”时,人类会自然懂得这是为了挡住鼻子的黑色防止海豹看到自己,但缺乏上下文的对话机器人就会很难理解捂住鼻子的原因是什么。
为此微软为小冰增加了常识与“记忆”能力,当一句话提到某个概念时小冰会自动“回想”起与其相关的图片,并识别出图片上的特征。而且与业界”一对一“文字与图片对应能力不同的是,小冰可以做到”一对多“,比如一句话中同时提到了老奶奶与鹅,小冰就可以同时”回想“起老奶奶与鹅的照片,帮助自己更好地理解这句话。
二、日本出道成歌手 小冰如何学会唱歌?
微软小冰会唱歌已经不是什么秘密,在此前的微软小冰发布会中,小冰已经演唱过中文、日文、戏曲等多种语言和类型的歌曲,前一段时间甚至发布了翻唱的”野狼Disco“。微软小冰首席语音科学家栾剑在会上分享了让小冰跨界唱歌技术干货。
首先栾剑谈到了让小冰学习唱歌的原因,他表示小冰推出后经过努力语音合成领域一些大的问题已经解决了,于是就开始寻找更有挑战性的课题,此时比说话门槛高、情感更丰富、人们喜闻乐见的唱歌就自然成为了微软的下一个目标。
唱歌包含了发音、节拍、旋律三大要素,机器可以通学习人类的歌声和识别五线谱两种方式进行学习。为了为小冰提供素材,微软甚至与一家拥有十几年历史的唱片公司合作。但这里遇到了一个教材问题。
唱片公司很少保留歌手清唱的录音,但对于机器而言清唱的干扰最少,最适合学习,为此微软甚至发表了一篇论文,提出了输入原始波形、全卷积网络+残差连接、软分类标签3大创新,实现了从伴奏中把人声部分准确地截取出来的能力。
后面的问题就是如何更自然地合成歌声,这方面微软选择了比传统单元拼接更自然的参数合成法,并且为了进一步提高小冰的”唱歌技巧“,微软选择了用一个模型预测三大要素困难模式,最终使得小冰的歌声自然度和流畅度有一个明显的提升。
当然微软科学家辛苦付出让小冰学会唱歌并非只是培养她的业余爱好,其商业化前景也是不可限量。比如小冰的日本分身凛菜(りんな)已经与日本最大唱片公司AVEX正式签约,成为滨崎步、安室奈美惠等叱咤国际乐坛多年的著名人类音乐人的同门师妹。
除了专业的歌唱领域,会唱歌的小冰还能覆盖到儿童机器人以及儿童陪伴APP中,会中微软工作人员透露小冰该领域份额高达70-80%。
三、小冰成长的背后:Self-Complete
2015年小冰诞生以来,其已经进化至第七代,实现了从“平等对话”向“主导对话”的跨越式升级。但在背后究竟是什么在支撑它从一介聊天机器人迅速成长为业界巨擘?微软小冰首席NLP科学家武威进行了详细解答。
武威表示,Self-Complete(自我完备)可以很好地概括近些年来微软在小冰身上的研究成果。而一个具有Self-Complete能力的对话机器人涵盖了三种能力:学习、管理、联结。
首先是学习。对话机器人对话的过程其实就是一个检索自己的候选回复,然后通过检索模型来找到最匹配的回复,检索模型直接关系到对话能力。而微软则为检索模型引入了外部知识,在知识层面、词语层面、短语层面进行融合,开发出了业界最好的模型之一。目前微软的检索模型已经成为了各种做检索模型必比的一个基线模型。
此外微软也探索了让两个检索模型互相训练的尝试,并开发出了Co-teaching算法,取得了相当好的效果,经过Co-teaching互相教的每一个模型都实现了明显提升。
其次是自主管理。此前第六代小冰引入了共感模型,可以对对话过程进行把控,通俗的讲,就是让小冰能实现了主导与人类对话的能力。
共感模型背后包含了决定小冰说什么内容的回复模型与决定小冰怎么说的策略模型,这两个模型结合在一起就把微软小冰从原来基于上下文直接产生回复的模式,变成了从上下文到决策,然后再根据这个决策来决定自己说什么。
凭借着自主管理能力,小冰可以通过问问题快速了解用户意图,进行商品推荐,微软在日本和美国对小冰的这种能力进行了测试,发现推荐转化率高达68%,即100个和小冰聊天的客户中会有68个人进店查看小冰推荐的商品。
当然上述案例仅仅小冰拥有自主管理能力后的应用之一,其未来前景不可限量。
最后就是联结了,联结本质上是多模态交互,即小冰可以同时处理对话、语音、文本、多媒体等各种形势的资源,进行消化吸收,最终可以将它们有机联结起来。
微软在今年2月份,已经在日本公测了多模态交互功能,为小冰在日本的分身凛菜增加了视觉能力。当地记者携带着配有摄像头的“日本美女高中生”凛菜,在水族馆中游览,在测试中,凛菜在识别出当前画面的同时,也能就当前画面与用户展开深入交流。例如看到鱼之后,会联想到鱼的大小、颜色、种类与鱼翅(本质吃货?),让用户获得了近似真人的聊天体验。
四、总结:邻家有女初长成
会上微软同时披露了微软小冰在应用上的最新进展,截止目前,小冰已经入住了超过30个平台,搭载小冰的智能设备数量已经超过了4.5亿部。而小冰的CPS(对话轮数,即用户与小冰的可以对话多少轮)高达23,换句话说,平均每个小冰用户都会与小冰聊上23轮,这是一个相当惊人的数字。
虽然受限于商业合同,微软无法全面公布小冰在商业化上取得的成绩,但从上述几个数字中不难想象,凭借着微软在小冰背后的科研投入与成果,微软小冰已经成为人工智能产业中一个难以忽视的存在,其所存在的广度与深度已经远远超出人们的想象,而它也正如一个18岁少女一样,冉冉升起,未来可期。
原文链接:
https://m.mydrivers.com/newsview/658448.html?ref=&from=groupmessage&isappinstalled=0
文章来源:快科技
原创:小淳
编辑:高杰

335#
 楼主| 发表于 2019-11-23 23:20:34 | 只看该作者
【案例】

新加坡加入全球AI竞逐!制定国家AI战略,政府拨款近26亿元,2030年完成五大计划

中、美、俄、英、日、以色列等多国从国家层面不断加强人工智能战略布局,持续加码研发投入,全球人工智能竞争激烈。本月,全球人工智能竞争队再添一国——新加坡,立下一项为期 11 年的国家级的人工智能战略,政府拨款 5 亿新元 (约合 25.8 亿元人民币),计划将在 2030 年之前,通过五项人工智能计划实现升级国家基础设施的目的。


撰文 | 四月

人工智能技术正在成为大国竞逐实力的重要砝码。



新加坡虽谈不上地大物博,但作为「亚洲四小龙」之首,近半个世纪以来凭借金融产业和信息技术一度成为东南亚地域的重要枢纽。


「作为一个没有自然资源的小国,新加坡在过去 50 年的发展见证了创新科技如何克服迫切挑战,并创造新价值和契机」。新加坡副总理兼财政部长王瑞杰在新加坡金融科技节及新加坡科技创新周致辞时说道。


对于标志着下一个时代机会的人工智能技术,新加坡势在必行。


五年前,新加坡宣布了智慧国愿景,而新的全国人工智能策略将是完成该愿景的重要一步。


在最近的一次智慧国主题会议中,王瑞杰宣布,新加坡将着手制定一项「国家人工智能战略」,该战略规划了研发和应用人工智能技术的方式。


新加坡推出全国人工智能策略,在交通物流、智能市镇与邻里、医疗保健、教育以及保安与安全的五大领域里,大力推动人工智能科技的采用,以促进经济转型并改善人民的生活。


到了 2030 年,新加坡将成为研发和推出具有影响力及可扩展的人工智能科技方案的领导者,尤其在具有高价值以及对国人和企业相关的主要领域里。


以下是新加坡将在 2030 年前实施完成五项人工智能计划:


1)智能货运计划


建立一个通用的数据调度平台,旨在规划和调度货车运输的最佳路线,提升司机的工作效率,优化物流流程。人工智能将使工作能够被合并和动态分配,以提高生产力和资产利用率。


此外,港口的货运计划也将通过人工智能应用进行优化,到 2030 年将扩展到空运和陆运业务。








2)土地管理计划


在智能城市及邻里领域,新加坡政府将于 2022 年前推出 AI 聊天机器人,指引居民向正确部门举报社区问题。例如明确报告问题的正确机构,并提示他们实时提供强制性案件详细信息。


到 2025 年,该项计划还将收集和分析数据,以优化遗产维护周期,并帮助政府机构先发制人地解决问题。例如,它可以用于预测下一个电梯故障。


到 2030 年,这些数据将为房地产规划部门提供建议,以便更好地建造和安置设施,以满足居民的需求。






3)慢性病的预测与管理计划


在医疗领域,新加坡全国医疗机构预计在 2022 年全面采用眼部病变分析仪(SELENA +),通过扫描和分析视网膜照片,更快及精准地检测出视网膜病变等糖尿病患者常见的眼疾。


新加坡眼部病变分析仪是采用一种深度学习系统,可以将眼科医生的工作效率提高 70%,让医生将更多的时间专注于复杂病例。


到了 2025 年,新加坡有望开发出基于人工智能的系统,扫描糖尿病、高血压和高血脂,即「三高」患者的视网膜照片,建立心血管疾病的预测风险评估模型。


此外,人工智能技术通过综合分析临床数据、医学图像和基因组数据等数据,以创建针对慢性疾病的个性化风险评分系统。


政府机构表示,这将使民众及早采取预防措施,并由护理小组提供更具针对性的干预措施。





眼部病变分析仪可用于检测三种主要的眼部疾病,分别包括糖尿病性眼病、青光眼和与年龄有关的黄斑变性。




4)个性化教育计划


在教育领域,政府将在 2020 年前,在部分试点小学和中学启动英语自动评卷系统。该系统将评估短答题和论文,并对学生的作业提供快速反馈,让教师把更多时间放在学生身上。


到 2030 年,该计划将扩展到其他学科。


到 2025 年,该计划将启动自适应学习系统和学习伙伴,以更好地支持每个学生的不同需求和能力。


自适应学习系统基于机器学习技术,指导每名学生如何应对各种教材,以便为每个人提供一种定制化的学习方法。


AI 学习伙伴还将帮助学生反思他们的学习经验,并推荐进一步的学习计划。








5)边境通关计划


在边境安全领域,新加坡政府计划在 2025 年前,部署一套涉及面部和虹膜扫描的全自动通关系统,本地居民和海外旅客均可使用。


采用这套系统将减少人为错误,并值班柜台的移民官员专注于高价值的工作,例如关注可能需要更严格审查的访客。








这是上述新加坡五个国家 AI 计划的里程碑时间表:








智慧国及数码政府署 (SND-GO) 在一份声明中表示,政府从20 多个构思中挑选出这五大 AI 项目,主要是它们有潜力为新加坡和新加坡人带来较大社会经济影响、推行上需要多方面高度协调,并能在中期内落实,以向国人和企业展示人工智能的价值。


新加坡全国人工智能战略的部分资金将来自政府的《研究、创新与企业 2020 计划》,为加深人工智能创新和研究等方面所投入的 5 亿新元 (约合 25.8 亿元人民币)。


政府已在《研究、创新与企业 2020 计划》下,投入 5 亿元加深人工智能研究、创新和企业活动等。接下来,新加坡政府将探讨发展全国人工智能项目和领域等所需的资金,并会在数月内公布额外的投资金额。


新加坡政府还在今年 10 月成立了新的全国人工智能署,隶属智慧国及数码政府署,促进各相关利益者之间的合作,推动全国人工智能项目。


智慧国及数码政府署署补充说,上述五大项目对于新加坡建立国家的数字基础设施具有指导性意义,后续还将继续确定「其他有影响力的国家人工智能项目」。


对于我国的人工智能公司而言,新加坡正在成为临近出海地区的最佳市场。这两年,依图、旷视、商汤纷纷在新加坡设立分部或者站点,除了其迫切的国家基础设施升级需求外,还在于新加坡南洋理工大学等高校所聚集的人才效应。

原文链接:


原创: 四月

文章来源: 机器之能  

编辑:高杰

336#
 楼主| 发表于 2019-11-24 16:55:31 | 只看该作者
人类智慧与人工智能:医生的AI,还是AI医生?
11月22日,由“知识分子”和北京大学健康医疗大数据国家研究院共同举办的“智慧医疗革命:潜力与挑战” 论坛在北京大学医学部举行。
撰文 | 汤佩兰
责编 | 李晓明
  
“当一个无人驾驶汽车刹车失灵,是往左转撞死一个人,还是往右转撞死五个人?这个时候是否人类文明的伦理适用于人工智能?”11月22日,北京大学健康医疗大数据研究中心副主任王海波用伦理学的经典电车难题,引出了智慧医疗的一个核心议题——
人工智能当前的一个非常大的特点是,它有不可解释性,让人不明觉厉,但在医疗领域则可能面临巨大的伦理挑战。当医疗AI对的时候,所有人皆大欢喜;当医疗AI犯了错,尽管概率很小,但错的时候,谁来负这个责任。是医生吗?是写程序的程序员?还是签字买这个医疗AI的院长?
在当天由“知识分子”和北京大学健康医疗大数据国家研究院联合主办的“智慧医疗:潜力与挑战”论坛上,三位来自医学、人工智能、伦理学领域的嘉宾,就人类智慧和人工智能在真实医疗情境下的发展,展开了精彩对话。
智慧医疗方兴未艾file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps59.png
当前,在需求、政策、资本和技术的共同驱动下,中国的智慧医疗产业正进入高速发展期。这是一个人口规模巨大的健康医疗市场。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps60.png
北京大学常务副校长、北大医学部主任、中国工程院院士詹启敏
民生的需求是排在第一位的。北京大学常务副校长、北大医学部主任、中国工程院院士詹启敏在此次论坛中表示,当前中国医疗健康面临恶性肿瘤、心脑血管等重大疾病,医疗手段有限,临床实践大量依靠人力,以及医疗资源分布不均衡、发展不充分等多重挑战,智慧医疗作为新的医疗模式,有望提供快捷、精准、有效,而且价格合适的医疗健康服务,从而解决老百姓的健康需求。
中国工程院院士、清华大学临床医学院院长董家鸿引用《柳叶刀》的数据指出,中国的医疗支出仅占GDP的6.5%,这仅相当于全球卫生资源投入的2%,不到美国和欧洲的1/3、1/2,却负担了全球20%人口的健康医疗,这是一个巨大的惊人的成就,但同时医务工作者也作出了巨大的风险和牺牲。
“全国只有360万医生,但中国老龄人口已经达到2.48亿,确诊为慢病患者的人数超过3亿,相对于整个社会的健康医疗服务需求,中国的医疗资源供应不足,基层和边远地区更是十分匮乏,而且资源配置严重不均衡、结构严重不合理的问题十分突出。”董家鸿表示,“智慧医疗有望成为解决医疗供需矛盾,提高成本效益的新的策略”。
巨大的需求,同时意味着巨大的市场。董家鸿表示,近年来国家连续出台政策推动智慧医疗发展,同时中国的前沿科技发展,尤其是智能技术的发展和应用,意味着未来中国数字化医疗和智慧医疗产业发展面临重大机遇。他披露的一项分析数据显示,2030年,智慧医疗的技术应用可能高达2万亿~7万亿元市场规模。
在众说纷纭的智慧医疗定义中,大数据、人工智能、物联网、互联网和云计算等核心技术的支撑,都是不可或缺的。董家鸿倡导将“智慧医疗”定义为现代科技赋能于传统的健康医疗服务,形成最优化的大健康体系。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps63.png
中国工程院院士、清华大学临床医学院院长董家鸿
他在演讲中特别列举了国内目前在智慧医疗领域取得的关键技术突破。包括国产脑起搏器通过精准定位和电磁刺激来治疗帕金森病、覆盖13个部位的骨科手术机器人系统、智能化精准肝胆手术系统、前列腺癌全程智能化精准医疗,等等。而在人工智能方面,包括智能药物研发、智能诊断、医疗机器人、智能影像识别和智能健康管理,将助力健康医疗产业的提质增效。
在全球范围内,人工智能也早已应用于医疗领域。腾讯优图实验室医疗AI总监郑冶枫在演讲中介绍,1990年芝加哥大学医学院首次证明计算机辅助诊断和医生的结合,能提高医生诊断的准确率。而2016年谷歌研发的眼底糖网分类技术和2017年斯坦福大学研发的皮肤癌诊断技术,证明了在特定任务下人工智能甚至超越医生。
郑冶枫所在团队专注于深度学习在医学影像领域的应用。2017年8月腾讯推出了辅助疾病早期筛查的AI医学影像产品腾讯觅影,目前已经覆盖了食管癌、肺癌等六个病种,还有更多病种在实验室研发阶段。郑冶枫指出,中国医疗影像存在供给不平衡的现状,随着影像设备CT、MRI)数量迅速上升,影像数据每年增长30%,但影像医生每年的增长为4%,短期内难以大量增加。同时,基层医生的误诊、漏诊率高,以食管癌早筛为例,检出率不足10%。他认为,通过计算机辅助诊断是解决供需不平衡的方向。
医疗AI的挑战与风险file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps64.png
智慧医疗的标志性方向就是人工智能的应用。尽管人工智能在医疗中的应用已经取得一些进展,但在数据资源共享、技术发展、医生训练、伦理风险等方面,依然是一个充满挑战的新的领域。
医疗健康资源,包括大数据的共享问题首当其冲。詹启敏认为,智慧医疗推进过程中的挑战在于大数据的标准、储存、安全和共享,涉及到个人隐私和知识产权。
“医疗资源共享远远不能实现,即使是一个大学的附属各个医院之间也不能共享,这个问题亟待解决”,董家鸿深有同感。他表示,医疗资源共享,一是可以避免医疗资源浪费,二是可以推动更好的医疗卫生决策,以及帮助包括人工智能在内的研究。德国有全国性医疗资源共享系统,美国实现了区域性的医疗资源共享,希望中国也能建成全民健康档案,但是难度非常大。
“表面上看数据融合比较困难,它的本质是利益格局的融合。”王海波说道,“本身数据是资产,信息流动在不同医院里有自己的利益格局,怎么处理?这不单单是技术的问题,而是社会治理的问题。”
而技术的发展在当前也面临挑战。郑冶枫谈到,人工智能应用于医学影像本质上是图像识别问题,但当前“缺乏大量标定好的数据样本”。跟其他图像不同的是,医学影像数据面临着三大困难:数据获取对专业设备有要求,还会涉及患者隐私、罕见疾病及数据标注门槛高,需要专业医生才能标注准确。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps65.png
腾讯优图实验室医疗AI总监郑冶枫
为解决数据共享和训练样本不足的问题,郑冶枫介绍了“迁移学习”和建设开源平台“Med3D”(注:“Med3D”即构建三维影像的ImageNet)两种办法。前者是在有大量数据集的源域上训练模型,将模型迁移到小量数据集的目标域上,从而减少对训练样本的需求。后者则希望通过开源的办法,建立共享数据平台。
“现在人工智能的实现是在一个非常窄的领域,有海量的数据,有非常清晰的界定应用场景下,它才能做得跟人一样,甚至比人好。”王海波说,但是为了解决共享数据不足的现实问题,出现的小样本、迁移学习的模式也可能带来如适应症偏移等新的风险。
针对技术发展带来的不确定性,董家鸿认为人机协同是未来的必然选择。他阐释道,医学和工科的合作,就是从不确定性的事件中寻找确定性,AI能够给医生提供的最大帮助也在于此。某一类人群、某一类疾病里面有确定性的东西,但是病人和病人之间有很大的个体差异,这就是不确定性。这种不确定性总是存在的,最终还是要靠医生的智慧。
真实的场景总是更为复杂。北京大学医学人文学院医学伦理与法律系主任丛亚丽指出,中国的问题是医生水平参差不齐,人工智能最能帮助的是水平有待提高的医生,尤其真正提高基层和边远地区医生的水平。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps67.png
北京大学医学人文学院医学伦理与法律系主任丛亚丽
“人工智能技术应用肯定要包含对于不同场景的描述,因为我们也担心它被用错了”,郑冶枫表示,“AI作为新的工具,不可能不经培训就拿来用。医生的培训非常重要。它的诊断准确率看起来比较高,但也会犯错。所以医生要花一定时间摸清楚它犯错的规律,这样才能真正有所帮助。另外流程上医生应该先读片子,再看AI的诊断,然后再去比较和综合。”
北京大学医学部副主任肖渊就此补充道,一个国家全民的健康应该有一个完整的医疗体系。其中要有分层、要有分类指导,要有不同发展阶段的推动。从实践来看,当前这个体系还不完善,怎么更好地发挥AI技术的作用,各个地区也在做不同的探索。比如社会经济发展比较好的地区,像深圳就用医联体的方式,在互联网上构架了一个比较均衡化的医疗服务水准和平台。而宁夏采用的是另一种方式,他们是建立医学中心,通过互联网技术把心电图、X光片中的影像学等比较好传送的基础诊断上传到上一层的医疗中心。在社会经济发展不平衡的状态下,用技术分类指导推动医疗更好地服务于人、服务于整个民众的健康是很有必要的。
医生的AI,还是AI医生?file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps69.png
在论坛圆桌讨论环节,嘉宾们从各自经验出发对“人工智能会超过人吗?”“人工智能是否会伤害人类?”“人工智能发展的边界在哪里?该如何制定规则”等问题进行深入探讨。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps71.png
在人工智能与人的比较上,丛亚丽表达了深切忧虑,“我觉得人类智慧在AI面前会失能,AI会大大胜出”,因为AI不会感到疼痛和失去。
“我觉得现在还处于非常初步的阶段”,郑冶枫认为,“人工智能替代人类,那是50年后、100年后的事情,现在要着眼于各个具体的问题,把算法的准确率提高,使其跟医生协同合作,改善医疗环境。”
在董家鸿看来,在某些方面人工智能可以超过人,但在总体的智慧上,机器永远不可能超过人类。
“技术是服务于人的,人工智能的发展是为了为人类提供更好的健康服务。”董家鸿说,“我们要认识到是医生的AI,而不是AI医生。”
从医疗服务诊断的感知、认知、决策、干预几个主要流程上,他进一步分析道,人工智能可以在感知方面超越人的极限,在认知方面也可以在某种程度上超越人,为医生提供辅助决策支持。包括对于肿瘤发生机理的研究,未来如果在算法上无法取得突破,则对于肿瘤本质的认识和防治策略不可能有突破。但是个体疾病复杂的变异性,常态的个体差异,一定还需要医生的智慧。如果要求医生遵从机器的决策,那会出很多问题。而从干预方面,机器可以提高手术操作的精度和可控性,但必须要由医生做出判断和控制机器人,否则要出问题。
董家鸿认为,当前医疗AI风险在于不可解释性,那就是为什么人工智能能够作出准确的判断,如果没有明晰的原理可解释,在实际使用过程中医生心里不踏实,患者接受起来也有疑虑。“如果一个医生犯了错,受损害的是一个病人。如果人工智能机器人出了错,将会损害一批病人。”因此,董家鸿主张将机器人作为辅助,让它处理确定性的事件,由医生来处理不确定性事件,并承担起法律上的责任。
对此,郑冶枫则认为人工智能“不可解释性的问题被夸大了”,“如果把AI想象成药物(有效但机理暂未明确),就不会苛求它的解释性了,有解释性当然是锦上添花。”他主张,把AI限制在固定场景下应用,且确实证明有效即可。
“医学里确实有很多东西背后的原理和机制还没有搞清楚,也不能等待原理机制都搞清楚了再去应用”,董家鸿就此表示,对于不可解释的药物、人工智能技术,应该严格限定它的应用边界。如果可解释,人就可以有更大的发挥,懂得它的机制可以举一反三。不可解释的情况下,如果在某个领域被证明是有效的,则可以允许使用。
那么,当医生的决策依赖于AI,这意味着什么?王海波提到自己参与的一项研究显示,尽管AI只是提供辅助决策的功能,但实际操作中,也可能产生对医生自主性的侵蚀。“在中国医疗资源供需失衡的情况下,当面对大量的病人和很高的工作强度,医生很可能会过度依赖人工智能决策,这种自主性被侵蚀,对医生意味着什么,对病人意味着什么,对整个医疗又意味着什么?”
董家鸿认为,问题需要从科学和伦理两个层面考虑。首先,人体和疾病都是极其复杂的,因此在人类的健康医疗服务中是不可能不出错误的。从医学的角度来看,它的发展本身就是一个不断试错和校正的过程,先进的科技手段确实能够帮助医生做出更正确的判断,做更精准的干预,但仍然不可能完全避免出错,最终主导的主体仍然是医生。医生也应该加强培训和学习,更好地理解人工智能带来的辅助决策的支持和它的局限性,从而让人类站在更高的智慧水平上更好更准确地利用人工智能。
而从伦理的角度,参与对话的专家表示,智慧医疗的目的不是方法,不是人工智能,而是为了健康,根本还是为了人。因此,需要工程、医学、伦理、法律共同探讨,最终还是在人类的健康福祉准则下,共同制定伦理法规。
file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps72.png
北京大学健康医疗大数据研究中心副主任王海波
王海波以回应开场的伦理学电车难题作为总结,“当时我的回答是人工智能怎么选择都是错的。这个时候,人工智能应该把决定权交给车上的人。同样,智慧医疗也是,当机器作出判断的时候,最终诊断的决策权、治疗干预的决策权应该交给医生。”file:///C:\Users\le\AppData\Local\Temp\ksohtml7520\wps74.png
“智慧医疗:潜力与挑战”论坛
近年来,随着人工智能技术、5G、云计算和大数据技术的蓬勃发展,以健康大数据和AI辅助诊断为代表的新医疗形态,正在不断激发健康医疗行业的创新和变革,提升医疗服务的效率和质量,增进公众多层次、多样化的健康福祉。在技术进步的同时,与大数据相关的信息孤岛、个人信息安全等问题也亟需对话和讨论,形成行业共识。 在此背景下,作为国内领先的科学新媒体,“知识分子”联合北京大学健康医疗大数据国家研究院,共同举办 “智慧医疗革命:潜力与挑战” 论坛,邀请业界领袖、技术精英、伦理专家研讨当今中国智慧医疗改革的发展机遇,以及在人文、技术、法律、伦理等相关领域的挑战应对,并进行圆桌对话。论坛由腾讯腾云智库独家支持。
文章来源:微信公众号“ 知识分子”
原创: 汤佩兰
编辑:高杰

337#
 楼主| 发表于 2019-11-26 10:42:21 | 只看该作者
【案例】
责任感已成为阻碍人工智能发展重要因素
11月举办的第5期博古睿讲座上,范德霍文(Jeroen van den Hoven)教授讨论了规范背景对于合理界定人工智能责任的重要性,梳理了目前主要存在的四种反对为行为担责的“借口”。
第一是“知识”
因为一无所知,所以无法承担责任。
第二是“控制”
因为无法控制环境,所以无法承担责任。
第三是“自由和选择”
因为别无选择,所以无法承担责任。
第四是“隐私和道德能力”
因未处于私人场合且只能根据公共利益来采取行动,所以无法承担责任。
范德霍文认为,在人工智能的发展过程中,应当凸出初始设计的重要性,而不是着重于强调人类在上述四个“借口”中的较差能动性;并在发言中进行了具体分析。
他在“知识”话题中,首先提到了黑匣子问题。在黑匣子中,人类难以充分理解人工智能的输出,这说明了“为何负责任地设计人工智能”对社会而言至关重要。然而,我们对黑匣子认知中的不安全感、不确定性,不应是有关人工智能问责制讨论的终点:算法不应被视作炼金术——相反,工程师和伦理学家应努力实现和改变人类偏见(除偏),以消弭其对社会造成的不当影响(如图像识别、监控等)。范德霍文也坚信,算法追索权应当是一个减少似是而非的、可否认性的有力考虑因素;而人类应当巧妙设计人工智能,以转变现有模型普遍存在的不利因素。
在讨论“控制”时,范德霍文将无人驾驶汽车事故与波音737 MAX坠机情况单列出来,尝试“为人工智能设计更加负责”提供思路。购物算法所用的逻辑同样被用于致命性自动武器,而在使用这种将带来极大负面影响的技术之前,需要建立有效果的人工控制。
对于“自由和选择”,他则提到了“Nudging”的行为心理现象。据了解,任何能够显著改变社会人行为的因素都可以被称为“Nudging”,它意味着行为主体将从社会和心理角度来设计政策工具,以符合目标对象的日常行为习惯。而人工智能的影响恰在于它强行创造了一个“回声室”,表面上看似乎无害,但却影响了经济周期和社会发展。范德霍文认为,如果缺少负责任的设计,大数据与机器学习的结合将不可避免地带来强大且不可控的“Nudging”。
目前,即便与各种严格、科学的方法相比,社交媒体依然毫无疑问成为个人行为和身份地位最有分量的标识。范德霍文认为,在西方社会,“监控资本主义”已经逐渐形成一种新的社会和政治关系,“隐私”这个古老概念将如何重新定义我们在数字时代的认同与感受;由此,“负责任的人工智能设计”在当下将变得愈加重要。“工程师和伦理学家需要紧密合作,推动人工智能为社会创造巨大益处。与此同时,我们需要担负起这四个行为责任,不断提高人类能动性”,范德霍文如此谈到。
* 本文内容由北京大学博古睿研究中心秋季实习生、北京大学燕京学堂在读研究生李康圭(Kangkyu Lee)采写。
(杨嘉琪/编辑)
来源:博古睿研究院
链接:https://mp.weixin.qq.com/s/8G44mAwgUY2meUhjnF3FUg

338#
 楼主| 发表于 2019-11-26 11:04:54 | 只看该作者
【案例
伦理是智慧的内核驱动
又红又专,这在中国曾一度是用人的标准,现在又渐渐日益得到重视。为什么?很简单,人无信不立,德不配位,才能越大,危害就越大,思想品质、伦理道德是方向性的大,而才学智能是过程性的小,正可谓:失之毫厘,谬以千里。
当前,许多人有意、无意把信息化当成智能化,许多人有心、无心把自动化称为智能化,其结果不得而知,但很少有人把这些称为智慧化,为什么?缺“德”使然,智慧是融入了道、德、伦、理的智能,没有仁义道德岂敢论及智慧?!
仁,通人;义,为应;道,是路;德,同得。仁义道德就是“人(通过)应(当走的)路(获)得”。这也是智慧的内核和驱动:智能+伦理。伦理主要涉及的是人与人、人与社会之间所共同认定的思想行为规范关系,是对一定群体中事实和事物的分类、分析、分解,涉及安全、隐私、偏见、取代、不均等价值问题,也是是非、同情、同理心产生的人道基础,机(器之)道,即人的程序化知识表征对此还很无奈。
智慧是beingshould的综合体,它弥合了事实与价值、主观与客观、伦理与智能之间的鸿沟,这也是通用智能或强智能领域的重要标志,也是反思智能和洞察智能的体现。世上许多道理或许是圆的,当你以为的正确时,或慢慢地或突然间变为错误,反之也成立,智慧之所以比智能更重要、更聪明,就是因为她可能预见到这些智能也无法述说的事、物反转和出乎智能的意料之外。


一个地方不在大小,关键看有无灵气,剑桥就是这样一个神奇的地方,不但有山有水,还有剑有桥。那里的山其实就是一个小土坡,一个罗马人的兵营城堡(camp castle)遗址,但站在那里可以俯瞰整个剑桥的景色,让
人久久不愿离开。那里的水就是流淌了数千年的康河(Cam River),不深不宽,流过几座著名学院的石桥、木桥、铁桥(bridge),山水由桥相连,“cam+bridge”,自然就构成了剑桥(Cambridge)。有山有水有桥的地方多
了,为什么就此处那么有名呢?对,原因是这里有剑,还不是罗马人的剑,而是英国人的剑,英国人用这把锋利的剑为人类开辟了一个新的世界,认识到了宇宙和人类的秘密,本书就是试图发现发现这些秘密的秘密,同时也试
图延续这些发现,让那棵苹果树在肥沃的东方土地上不断地开花结果,生生不息,绵绵不断,进而铸剑建桥,使得东西方取长补短,相得益彰……
本书是笔者 2012 10 月~ 2013 10 月在剑桥大学访学时的所看所感所思所悟,结合科学哲学、艺术宗教等方面的观察思考;回国后针对起源于剑桥的人机交互技术、智能科学历史渊源,进行深入细致的梳理和分析,并结合自己正在进行中的人机融合智能研究展开本质性探讨和思考,比如在自主系统、人/机器学习、深度态势感知、人 - - 环境系统、智
能哲学、人机交互、群体智能、机器人、智能传播、伦理道德等方面进行了总结与反思,初步勾勒出了人工智能未来发展的趋势和变化。这些思考有的与剑桥有关,有的表面上虽看不出有直接关系,但也有某种内在的联系,可谓弦外有音、言外存意吧!总之,写作本书的目的实在是单纯:师夷长技以治己!正应了那句歌词所唱:我和我的祖国,一刻也不能分离…,无论走到哪里……
来源:人机与认知实验室  
链接:https://mp.weixin.qq.com/s/G6-eAwPR7zpmzQjEiEdT-w

339#
 楼主| 发表于 2019-11-27 23:16:50 | 只看该作者
【案例
Deepfake,深伪、AI换脸技术。当AI换脸技术发展至毫无破绽,你还相信自己的眼睛吗?时报视频节目The Weekly播出了一段被改过的视频,并披露其制作过程。Deepfakedeep learning(深度学习)和fake(伪造)的合成词,指利用AI改变人脸的图像合成技术。
来源:纽约时报

340#
 楼主| 发表于 2019-11-27 23:23:21 | 只看该作者
【案例】
为什么我们对deepfake技术又爱又恨?
原创: S. ai  
Deefake到底是什么?即便你对这个近来AI界频频出现的热词不够了解,对「AI换脸」也一定不陌生。从国外的恶搞奥巴马、盖尔加朵,到国内的朱茵换脸杨幂、以及ZAO App的昙花一现。这项脑洞大开的技术在2017年由Reddit网站用户「deepfakes」提出并开源,便在论坛炸了锅。随即衍生出FakeApp等视频合成工具和一系列伪造影片。
这种源自人工智能生成对抗网络(GANgenerative adversarial network)的伪造技术,可以实现用另一张人脸图片替换掉原始视频中的原始人像。基于GAN算法的博弈优化原理,最终生成逼真度极高的伪造视频,目前已可以以假乱真。
一方面,deepfake技术应用在影视文化行业的想象空间极大,另一方面,恶搞与色情影片对人性的耸动,使其从诞生之初就伴随着肖像权、版权和伦理层面的纷争。deepfake被滥用究竟有何威胁?造假之风日盛,打假军团也逐渐诞生。用AI打假AI,成为一场「军备竞赛」。而我们会获胜吗?  
01Deepfake被滥用对我们究竟意味着什么?
■ 近来的一项研究表明,目前网上有14678DeepFake视频,其中96%是色情视频。大部分都是著名女演员的脸,被转移到色情明星的身体上。(Deep Trace Lab)作为主要目标之一的女演员斯嘉丽就表示:「这对我的影响没有那么大,因为人们知道色情视频里的人并不是我......但是对于那些因此可能丢掉工作的人来说就不同了。」 (机器之心)
对于普通人或知名度较低的女性而言,deepfake技术让造假色情视频变得十分容易,基于报复或其他目的的色情视频,可能让女性面临更高的名誉风险而难以自辩。  
■ 技术的革新也让「欺诈产业」不断改头换面。基于deepfake的合成人像、合成语音乃至合成笔迹,让欺诈活动变得更加隐秘而难以侦查和防卫。
今年 3 月,犯罪分子成功模仿了一家英国能源公司的德国母公司CEO的声音,欺骗了多位同事和合作伙伴,一天内诈骗了 220,000 欧元(约合 173 万元人民币)。(Deeptech深科技)6月,间谍使用 AI 生成了一个并不存在的个像和资料,在职场社交平台LinkedIn上欺骗了包括政治专家和政府内部人士的众多联系人。(新智元)   
■ 除了已爆发的安全风险,Deepfake的潜在效应还将蔓延到大众的信息获取和社会信任层面。
「如果一个信息消费者不知道该相信什么,他们不能从虚构中辨别事实,那么他们要么相信一切,要么什么都不相信。如果他们什么都不相信,那就会导致长期的冷漠,这对美国是有害的。」(外交政策研究所研究员Clint Watts/新智元)
02AI对抗AI,会是好的解决方案吗?
■ 正如中国科学技术法学会李晟教授所言,deepfake的真正问题在于,「传统意义上「真实」与「虚假」的界线会被打破」。既然能用技术造假,可否利用更强有力的技术来检测假视频?这种AI对抗AI的思路成了过去两年内不少机构关注的方向。
纽约州立大学教授Siwei Lyu和学生发现,使用AI技术生成的假脸极少甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。美国国防部研究机构 DAPRA 据此研发出了首款「反变脸」的AI刑侦检测工具。(新智元)Hao Li 所在的团队通过追踪每个人特有的面部微表情来做到这一点。这些标记(微表情)被称为「软生物特征」,它们对 AI 来说太微妙了,目前还无法模仿。(机器之心)
■ 不过无论是Lyu还是Li都认为,这项技术可能没多久就没用了。「在伪造视频的后期处理中手动添加眨眼并不是一个巨大的挑战」,随着鉴别技术的提升,假视频的质量也会进一步提高。开发这种算法,「至少有助于阻止和延迟创建伪造视频的过程。」(Siwei Lyu网易)生成式对抗网络的原理就是让两套神经网络在相互博弈中学习,长远看来,两者永远处在不断的对抗当中,谁也无法彻底打败谁。(爱范儿)
■ 即便是当前十分有效的检测技术,也难以完美捕获所有的造假信息。人工智能基金会的研究副总裁Delip Rao 表示,「近期公布的 deepfake 检测算法据说可以达到 97% 的准确率。但考虑到互联网平台的规模,这剩下的 3% 仍然具有破坏性。假设 Facebook 每天要处理 3.5 亿张图像,即使是 3% 的错误率仍然会导致大量错误识别图像被放出。」(Delip Rao/机器之心)   
■ 另一个问题在于,「打假研究」与「造假研究」的规模和声量很不成比例。「2018年,全球加在一起,也只有25篇有关识别合成图像的论文发表。对比一下,GAN902篇。算下来,136。」(量子位)对于此,FacebookGoogle等巨头公司已开始调整思路,采用奖金竞赛、搭建数据集等方式,期望集众力填补这一缺口。9月,Facebook宣布与数家公司和高校合作发起Deepfake检测挑战赛。(cnBeta
这种规模化的行动能否帮助打假技术实现飞跃?我们尚需等待。   
03除了AI反制,还有什么应对思路?
■ 在不明确技术泛滥后果的前提下,合理地释放技术成果成为了一些企业的选择。比如OpenAI前段时间推出的无监督语言模型GPT-2,就没有按照行业惯例进行开源,只发布了简化版,不发布数据集、训练代码以及模型权重,目的就是避免「这一技术被人恶意利用」。(脑极体)      
■ 由于AI打假存在漏网之鱼,Hwang认为最有可能的解决方案是,在自动检测工具(可以扫描数百万个视频)和人工审查(可以关注更棘手的案件)之间取得平衡。例如,记者、事实检查员和研究人员可以收集视频内容的支持证据。对于经过特别打磨的deepfake作品尤其有用。(前瞻网)   
■ 美国弗吉尼亚州和加州都在deepfake技术的立法监管层面有所尝试。今年5月,我国民法典人格权编草案二审稿提出,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。「如果正式通过,这意味着即便没有营利目的和主观恶意,未经本人同意的AI换脸同样有可能构成侵权。」(北京大学法学院副院长薛军/新华网)
■ 「在我看来,最重要的是,公众必须意识到现代技术在视频生成和编辑方面的有很大的能力。这将使他们更批判性地思考自己每天消费的视频内容,尤其是在没有来源证明的情况下。」(斯坦福大学访问助理教授Michael Zollhofer/新智元)   
   
编者小结
正如这项技术的缔造者「deepfakes」所言:任何技术都可能被邪恶的动机利用。Deepfake诞生不久,就引发了诸如色情视频泛滥、更隐秘的欺诈手段、乃至身份识别和社会信任的挑战。如果我们想要拥抱这种能让Paul Walker在《速度与激情7》中复生的美妙技术,就更应当积极地参与到防止技术滥用的努力之中。
目前看来,依靠技术制衡技术、开发好的AI算法来检测虚假内容,依然是最可行的解决办法。虽然这条路径无法通向100%的成功率,并且面临造假技术更新带来的持久「军备竞赛」局面。这场竞赛已从最初的大小机构各自为阵,转向了巨头公司利用奖金竞赛、搭建数据集等方式,鼓励更广泛的关注和参与。
但在技术博弈之外,依然有很多重要的路径值得探索。例如:人工查证如何聪明地参与到技术侦测之中,起到四两拨千斤的作用?在能够驾驭之前,这类敏感技术是否应该有限度地开源?配套的监管政策如何不妨碍技术的正向发展?
回到最初的问题:deepfake出现将对大众如何定义真相将产生冲击。因而,对抗技术滥用并不只是行业和监管等一小部分人的事;当这一问题获得更广泛的关注,人们对造假的免疫力才会更强,更懂批判性思考和吸收,社会对「假象」的风险才有了最坚实的根基。
动态 MUST READ
1. AI+BCI脑机技术帮助瘫痪失语者用意念「书写」:每分钟可输入66个字符——AI使破解大脑秘密成为可能?
10月下旬,芝加哥的研究团队基于BCI脑机技术研发出能够帮助完全瘫痪的病人控制意念在屏幕上「写字」的AI系统。志愿者脑中的特定位置被植入电极,当他们使用大脑来控制光标移动时,神经网络会捕捉大脑活动的生物电信号规律,跟踪学习想象中笔尖的预期轨迹,显示出相应的字母。据该团队的最新成果显示,该神经网络能够以每分钟66个字母的速度进行识别,准确度高达约95%
2. Facebook开发视频脸部微调AI技术以躲避人脸识别系统——用AI欺骗AI
为了解决当下人脸识别技术滥用所产生的问题,Facebook AI Research创建了一种机器学习系统,能够对视频中的个人进行「去身份识别」,这一AI技术使用编码器-解码器体系结构生成蒙版和图像,能自动将视频(包括实时视频)中的人脸替换为略微变形的版本,以使最先进的人脸识别技术也难以识别。
3. DeepMind推出考古AI助手以破译古希腊碑文:识别率远超人类专家——AI又一次打败人类了吗?
谷歌旗下的DeepMind公司近日推出Pythia考古AI助手,它能够通过算法预测字母的排列位置,帮助考古学家破译残破缺字的古希腊碑文。开发团队请来常年破译古希腊碑文的牛津大学博士生与Pythia进行对比。结果显示人类专家破译的准确率为43%,而Pythia则接近70%。不可忽视的是,Pythia73%的正确预测来自于前20次破译时人类专家给出的修正建议。
4. 美国加州出台法律打击Deepfake的滥用——肆意AI换脸恐违法
10月初,美国加州通过两项新法令遏制Deepfake换脸视频的负面影响。一是禁止在选举后60天内发布使用竞选人头像的Deepfake视频,有学者担心美国版权法对政治言论的保护力度之大可能会影响新法的实行;二是当加州民众发现自己的肖像被Deepfake技术用于色情片,即可提起诉讼并获得一定的费用救济。
来源:腾讯研究院
链接:https://mp.weixin.qq.com/s/14r9oJHW73AlnXXcwj5a7A

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表