传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
231#
 楼主| 发表于 2019-9-29 21:31:26 | 只看该作者
【案例】
什么?!有人模仿你的脸,还有人模仿你全身?
以下这项发展中的合成媒体技术分支具备商业用途,但也有可能被用来扰乱选举和散布谣言。
译者 | 王婕
作者 | DJ PANGBURN
来源 | Fast Company
编辑 | 蒲蒲
俄罗斯小说家维克多·佩列文(Victor Pelevin)的赛博朋克小说《Homo Zapiens》中,一位名叫Babylen Tatarsky的诗人在苏联解体,俄罗斯经济面临崩溃之际,被一位在莫斯科的大学老友聘为广告文案撰稿人。
Tatarsky凭借着巧妙的文字天赋一路水涨船高,而他也逐渐发现了这样一个事实:时任俄罗斯总统的叶利钦等政要和当时的重大政治事件,实际上都是虚拟仿真的产物。放眼现在,随着日益纯熟的“深度换脸”技术出现,佩列文的想象似乎正在慢慢变为现实。


(数据观注释:【赛博朋克小说】赛博朋克小说属于科幻小说的类型,兴起于上世纪七十年代的美国,这一类故事里有大量对新兴信息技术和生物科技的描写,常常涉及跨国财团垄断高新技术,故事的主角一般会设定成游走在社会主流之外的边缘人,他们活在未来社会的阴暗面,喜欢修改电脑的软硬件配置,崇尚改造身体,拒绝融入主流体制,靠着合法或者非法的技术手段铤而走险,有时不惜与超级大公司对抗。这种高与低并存产生的反差,造成了一种特殊的美学效果,被概括为“高科技、低生活”六个字。)


“深度换脸”(亦或被研究人员称之为“合成媒体”)的领域内,众人的注意力主要集中在可能对政治现实造成严重破坏的“虚假面孔”上,以及那些刻意模仿人写作风格和声音的深度学习算法。
然而,如今合成媒体技术的另一个分支——“深度换身”正在迅速发展。
2018年8月,加州大学伯克利分校的研究人员发表了一篇题为《人人都在跳舞》的论文和视频,展示了深度学习算法如何将专业舞者的动作转移到业余舞者身上。虽然这一研究成果还有待完善,但已表明机器学习的研究人员正在着手更具挑战的任务——“深度换身”。
同年,德国海德堡大学的比约恩·奥默博士领导的一个研究团队发表了一篇关于教会机器逼真还原人类动作的论文。
今年4月,日本人工智能公司Data Grid开发了一种人工智能技术,可以自动生成不存在的人体全身模型,并证实了它在时尚和服装领域中的实际应用。
显然,“深度换身”的确可以打造部分有趣的商业应用,比如换脸舞蹈应用程序,或者被应用在体育和生物医学研究上,但恶意应用的案例在如今充斥着谣言和假新闻的政治背景下也愈发受到关注。
虽然眼下“深度换身”还不能完全掩人耳目,但就像任何深度学习技术一样,它也终将进步,“深度换身”想要鱼目混珠,只是时间问题。
人体合成
为了实现深度换脸,计算机科学家使用了生成式对抗网络(GAN),它由两个神经网络组成:合成器/生成网络,以及检测器/鉴别网络。这些神经网络在精细的反馈回路中运行,生成真实的合成图像和视频。合成器从数据库创建图像,而检测器则在另一个数据库工作,用以确定合成器制造的图像是否准确可信。
“深度换脸”的首次恶意应用出现在Reddit(一个社交新闻站点)上,当时斯嘉丽·约翰逊等女演员的脸被移植到了色情电影演员的脸上。
Fast.AI公司联合创始人瑞秋·托马斯表示,在目前已存在的“深度换脸”成品中,95%都是想通过“虚假”的不雅素材来进行个人骚扰。托马斯说:“其中一些深度换脸视频并不一定就使用了非常精细复杂的技术。”
然而,这种情况正开始转变。
法里德(新罕布什尔州汉诺威达特茅斯学院计算机科学教授)指出,中国的“深度换脸”应用程序“Zao”就很好地说明了这项技术在不到两年的时间里发展得有多快。
“那些来自Zao的换脸视频看起来真的非常棒,而且这些人造品有很多就跟在电影版本当中呈现的画面一样。”法里德认为,“这无疑是一个进步,要知道想让这款app大规模应用且有数百万人的下载量并不容易。这是‘深度换脸’技术走向成熟的标志。”
“通过深度换脸的图像和视频,我们基本上实现了CGI技术(通用网关接口,是一种重要的互联网技术,可以让一个客户端,从网页浏览器向执行在网络服务器上的程序请求数据。CGI描述了服务器和请求处理程序之间传输数据的一种标准)的大众化。”他进一步表示,“我们把CGI技术从好莱坞的电影公司中带出来,交到了YouTube视频制作者的手中。”
海德堡大学图像处理(HCI)和跨学科科学计算中心(IWR)计算机视觉教授比约恩•奥默领导了一个研究和开发人体合成媒体的团队。与该领域的大多数研究人员一样,该小组的总体目标是理解图像,并教会机器如何认知图像和视频。最终,他希望团队能够更好地了解人类是如何理解图像的。
“我们已经看到了人体合成的化身不仅为游戏行业,还有许多其他领域都创造了营收,”奥默表示,“尤其是对我的团队来说,我们考虑的是完全不同的领域,比如生物医学研究。我们希望更详细地了解人类甚至动物随着时间的推移,在残疾等类似情况下,身体姿态的演进。”
人脸合成与人体合成的过程有着巨大的差异。奥默表示,当前人们已经对人脸合成进行了更多的研究,这其中有几个原因。
首先,任何数码相机或智能手机都有内置的面部检测技术,这种技术可以用于检测像微笑这样的任务,也可以用来识别观众的目视对象。这样的应用程序能够在产生营收的同时带动更多研究。但正如奥默所说,它们也导致了“大量的数据集合、数据整理和人脸图像获取,而这些都是建立深度学习研究的基础。”
其次,对奥默来说更有趣的是,虽然每个人的脸看起来都不一样,但当把脸和整个身体放在一起相比时,变化其实并不大。“这就是为什么我说面部研究已经到了一定阶段,与整个人体相比,它创造了非常好的结果,因为人体的可变性要大得多,处理起来更加复杂,如果你朝着这个方向前进,还需要学习更多”,奥默说。
奥默也不知道人体合成何时才能够达到他和研究人员想要的标准。然而,纵观那些不怀好意的深度换脸日益成熟,奥默指出,如果没有通过深度学习计算机视觉智能、人工智能或其他技术制造的伪造品来一窥究竟,人类可能早就上当了。
“但是,如果你想让它在更大的社会层面上被接受,那还需要几年的时间,”奥默说,“深度换身”和其他深度造假将变得更加低廉和更普遍。“研究界本身已经朝着一个好的方向发展,这一点得到了许多研究团体的高度赞赏,且这些团体对我们能够更加方便地获取算法这一进程的稳定发展发挥了很大的作用,比如github等。所以,你可以从一些论文上下载最新的代码,然后在不太了解隐藏内容的情况下,直接应用它。”
感到“力不从心”
不是每个人都能创造出“轰动一时”的深度换脸。然而,奥默认为,随着时间的推移,金钱将不再成为获取计算资源方面的阻碍,软件的适用性也将变得容易得多。法里德说,有了“深度换身”,不怀好意的人就可以利用深度换脸技术中的典型静止图像直接在录像中开口说话,让“目标对象”为所欲为。
VRT电台(佛兰德广播公司)的调查记者兼驻外记者汤姆范德韦赫担心,记者、还有人权活动人士和持不同政见者们,都有可能被“深度换身”武器化。
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps63.png
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps64.png


汤姆范德韦赫(图片由本人提供)


2016年大选期间假新闻的激增,以及2017年“深度换脸”的兴起,激发了范德韦赫对合成媒体的研究。2018年夏天,他在斯坦福大学开始了一项旨在对抗恶意使用“深度换脸”的方法研究。
“受威胁最大的不是大人物、政客和名人,”范德韦赫表示,“只有普通人——像你、我、女记者,以及那些可能成为或已经成为深度换脸受害者的边缘群体。”
两周前,荷兰新闻主播迪翁·斯塔克斯发现自己的脸被“深度换脸”技术映射到了一名色情女演员的身上,该视频还被上传到PornHub网站(全球最大的色情视频分享类网站之一)并在互联网上广泛传播。尽管PornHub很快就删除了这段视频,但范德韦赫表示,她的声誉已经受到了损害。
为了更好地想象“深度换身”是如何工作的,范德韦赫提到了2018年CNN首席白宫记者吉姆·阿科斯塔的镜头。在阴谋论网站Infowars,编辑保罗约瑟夫沃森上传了一段视频:阿科斯塔似乎咄咄逼人地推着一名试图拿他麦克风的白宫工作人员。
这与C-SPAN(美国一家提供公众服务的非营利性的媒体公司)播出的原始片段有明显不同。Infowars的编辑声称他并没有篡改视频,并将所有差异都归因于“视频压缩”。
但是,正如《独立报》对视频进行的时间轴编辑分析显示,沃森的视频的确缺少了原视频的其中几帧。“深度换身”就像编辑视频时对帧数进行改动一样,可以改变事件的真实性。
成立于2018年的Deeptrace Labs是一家网络安全公司,正在开发基于计算机视觉和深度学习的工具,以分析和理解视频,尤其是那些可以被任何人工智能操纵或合成的视频。
该公司创始人乔治•帕特里尼曾在阿姆斯特丹大学德尔塔实验室从事深度学习的博士后研究。他表示,几年前自己开始研究技术如何预防或防范未来合成媒体的滥用。
帕特里尼认为,由人体合成、人脸合成和音频合成组成的恶意深度造假,将很快被用来攻击记者和政客。
他提到了一段深度换脸的色情视频,视频中印度记者拉娜·阿尤布的脸被换成了一名色情女演员的身体,作为这场虚假信息运动的一部分,这一行为的目的就在于抹黑她的调查报道。
此前,她公开要求对强奸和谋杀一名8岁克什米尔女孩的行为进行司法审判。今年3月,Deeptrace Labs对加蓬总统阿里·邦戈的“深度换脸视频”进行了调查。
尽管这个非洲国家的许多人,包括加蓬军队在内都认为邦戈一动不动的脸、眼睛和身体暗藏着一个深度骗局,并基于此发动了一场不成功的政变,帕特里尼仍向《琼斯母亲》杂志表示,他不相信总统的视频是合成的。
“我们找不到任何理由相信这是深度换脸的结果。我认为总统还活着,这一猜想随后也被证实,不过他实际上是中风了。”帕特里尼说:“我想在这里指出的重点是,问题不在于视频到底是真是假,重要的是人们很清楚它会在公众舆论中引发怀疑,在某些地方还可能引发暴力。”
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps66.png


(图片由Deeptrace Labs提供)


最近,范德韦赫了解到,一名政党人士正在接触“深度换脸”最受欢迎的创造者之一,并要求其运用这项技术来中伤某人。这种定制的“深度换脸”可能会成为一门大生意。
“‘深度换脸’会成为人们谋利的工具,”范德韦赫说,“人们会为它买单。所以,政府并不需要亲自上阵,他们只需要联系一个专门干这行的人就可以了。”
《华尔街日报》最近的报道称,一家英国能源公司的首席执行官被骗,将24.3万美元转入了一家匈牙利供应商的账户。这位高管说,他相信自己是在和老板谈话,而且他的老板似乎也已经批准了这笔交易。
现在,这位首席执行官已经意识到他遭遇了一种名为“网络钓鱼”的深度换音造假。法里德认为,深度造假技术,甚至包括“深度换身”技术,在金融领域的欺诈很有可能呈肆虐之势。
“我可以制作一个杰夫·贝佐斯的深度换脸视频,让他在里面说亚马逊的股票正在下跌。”法里德说,“想想看,做空亚马逊股票能赚多少钱。当你控制它的时候,伤害已经造成了……现在再想象一下,当你看到一个民主党候选人说一些非法或漠不关心的话的视频时,你还认为你不能在选举前一天晚上左右成千上万选民的投票吗?”
法里德认为,社交媒体和深度造假视频的结合,无论是“深度换脸”还是“深度换身”,都很容易产生极大的不良影响。社交媒体公司经常无力或不愿调整他们的平台和内容,因此深度换脸可以像野火一样蔓延。
“当你把深度换脸的能力与在全球散布和消费这些内容的能力结合起来时,麻烦就来了。”他表示,“出于很多原因,我们生活在一个高度分化的社会,也因此人们常常会把意见相左的人往坏处想。”
但对于Fast.AI公司联合创始人瑞秋·托马斯来说,在新的网络冲突中,深度换脸对政治进程产生的负面影响几乎可以忽略不计,因为政府和行业已经在与书面形式的虚假信息作斗争。
她说,这些风险不仅与技术有关,还与人为因素有关。社会两极分化背景下,美国和其他国家的大片地区不再有可以完全信任的事实来源。
这种不信任可能会让有政治动机的“深度换脸”制造者有机可乘。正如隐私学者丹妮尔•西特龙所指出的,当深度换脸被揭穿时,它可以向那些相信谎言的人暗示,谎言是有一定道理的。西特恩称这是“说谎者的红利”。
法里德认为,“深度换身”技术的进步将在整体上使这类恶意深度造假的问题变得更糟。这项技术如今正在快速发展,很有可能在诸如《人人都在跳舞》等高校研究和“Zao”APP开发商的教唆下,将“深度换脸”合法化。
“一旦能对全身动作进行合成模仿,那时画面上就不再只是出现一个讲话的脑袋了,你甚至可以假装成别人做不雅事或杀人。”法里德说:“是不是已经可以这样操作了?目前可能还不能实现。但一两年后,人们就能做到全身深度模仿,这一猜想并不是没有道理的,而且一旦实现会发挥非常强大的作用。”
行业回应
目前,科技行业还没有达成根除深度换脸的共识,许多不同的技术正在研究和测试中。
例如,范德韦赫的研究团队创造了各种内部挑战,并探索了不同的方法。其中一个研究小组研究了胶片的数字水印以识别深度换脸。另一个团队则试图使用区块链技术来建立信任,这也是区块链技术本身的优势之一。另外,还有一个团队通过使用与最初“深度换脸”相同的深度学习技术来识别赝品。
“Sherlock AI是一个自动检测深度换脸的工具,由来自斯坦福大学的辍学生开发,”范德韦赫介绍,“因此,他们取样了一些卷积模型,然后在视频中寻找异常。这一过程也被其他深度换脸检测器使用,比如Deeptrace Labs。他们使用名为FaceForensics++的数据集,然后对其进行测试,其准确率高达97%,对人脸的识别效果也很好。”
Deeptrace Lab基于API(应用程序接口)的监控系统可以监测到深度伪造视频的创建、上传和共享。自2018年成立以来,该公司已经在互联网上发现了超过1.4万个虚假视频。
Deeptrace Lab的系统收集到的信息可以告诉公司及其客户,深度伪造品的制作者在做什么,伪造品来自哪里,他们在使用什么算法,以及这些工具的可访问性如何。
帕特里尼说,他的团队发现,95%的深度伪造品都是虚假色情类的“深度换脸”产品,大多数视频来自于一小撮名人。到目前为止,Deeptrace Lab还没有看到任何在野外应用的全身合成技术产品。
“你不能用单一的算法或想法来总结这些问题的解决方案,”帕特里尼表示,“这与建立一些能告诉你合成媒体不同情况的工具有关。”
范德韦赫认为反深度换脸技术的下一个重大发明将是软生物特征识别技术。每个人都有自己独特的面部表情——扬起的眉毛、嘴唇的动作、手部的动作,这些都可以作为某种个人特征。
加州大学伯克利分校的研究人员施卢蒂·阿加瓦尔使用了软生物计量模型来确定一些画面里的面部抽搐是否是为了视频效果而人为的结果。(阿加瓦尔的论文导师是深度造假视频专家、达特茅斯大学教授哈尼·法里德。)
“基本思路是,我们可以建立有关这些世界各国领导人的软生物识别模型,比如2020年总统候选人,然后倘若视频开始失真,我们可以对它们进行分析,来确定它们的真实性,”阿加瓦尔今年6月向伯克利新闻表示。
尽管考虑到不同的人在不同的环境下可能会呈现不同的面部抽搐,阿加瓦尔的模型并不完全可靠,但范德韦赫认为公司将来可以提供用于身份验证的软生物特征签名,这种特征可能是众所周知的眼睛扫描或全身扫描。
“我认为这是我们前进的方向:与学术界和大型科技公司合作,以创建更大的数据集。”范德韦赫表示,“作为新闻人,我们应该努力帮助媒体加深对深度伪造的了解。”
最近,Facebook和微软与大学联手发起了深度换脸检测挑战。另一个值得注意的努力是国防高级研究计划局的目标,即用语义鉴证法来处理深度换脸赝品,寻找造成错误的算法。
例如,一个人在深度换脸视频中戴了与其不相配的耳环。而在2018年9月,人工智能基金会筹集了1000万美元,通过机器学习和人类调解员创建了一个识别深度换脸和其他恶意内容的工具。
但是,托马斯仍然怀疑技术是否能完全解决深度换脸的问题,不管它们采取什么形式。她认为建立更好的系统来识别深度换脸是有价值的,但她重申,其他类型的错误信息也很猖獗。
托马斯说,利益相关者应该探索社会和心理因素,因为这些因素也会导致严重的深度换脸和其他错误信息。
为什么对深度换脸的监管难度很大?
托马斯、范德韦赫和法里德一致认为,政府将不得不介入并监管深度换脸技术,因为放大此类煽动性内容的社交媒体平台要么无力监管,要么不愿意监管自己的内容。
今年6月,众议院情报委员会主席、民主党众议员亚当·希夫就深度换脸技术造成的虚假信息和虚假信息威胁举行了首次听证会。希夫在开场白中指出,科技公司对此前的假视频做出了不同的反应。
YouTube立即删除了这段慢速播放的视频,而Facebook将其标注为假,并限制了它在整个平台上的传播速度。这些不同的反应导致希夫要求社交媒体公司制定政策,纠正深度换脸视频的上传和传播。
“在短期内,推广虚假信息和其他有害的、煽动性的内容对这些平台来说是有利可图的,因此我们的激励机制是完全错位的。”托马斯表示,“我不认为这些平台应该对它们所承载的内容承担责任,但我确实认为它们应该对它们积极推广的内容承担责任(例如,YouTube将亚历克斯•琼斯的视频推荐给那些甚至没有在寻找他的人160亿次)。”
托马斯补充道:“总的来说,我认为,考虑一下我们如何通过立法来处理那些将巨额社会成本外部化、同时私下要求利润的其它行业(如工业污染、大型烟草和快餐/垃圾食品),是有帮助的。”
帕特里尼表示,对合成媒体的监管可能会变得很复杂。但是他也认为,目前的一些法律,比如那些涉及中伤、诽谤和版权的法律,可以用来监管恶意的深度换脸。
帕特里尼说,出台一项全面禁止深度换脸的法律将是错误的行为。相反,他主张政府支持有利于社会的合成媒体应用,同时资助研究开发检测深度换脸的工具,并鼓励初创企业和其他公司也这么做。
  “政府还可以教育公民这种技术的存在,因此我们需要重新训练我们的耳朵和眼睛,不要相信我们在互联网上看到和听到的一切。”帕特里尼说:“我们需要给人们和社会先打好预防针,而不是在可能两年后因为滥用这项技术而发生非常灾难性或有争议的事情时才亡羊补牢。”
奥默表示,计算机视觉研究人员很清楚深度换脸技术的恶意应用。他认为政府应该为如何使用深度换脸技术建立问责制。
“我们都看到了图像理解的应用,以及它可能带来的好处,”奥默说,“但其中一个非常重要的部分是要明确承担哪些责任,以及谁将承担这一责任?采访过我的政府机构等显然看到他们也负有这一责任。公司也许为了股东的利益,他们可能也不得不表示他们看到了自己的责任;但是,到目前为止,我们心里都很清楚他们是如何处理这一责任的。”
“这是一件很棘手的事情,”奥默接着表示,“只是希望这一切都会过去……但是我们知道它将愈演愈烈。”
file:///C:/Users/le/AppData/Local/Temp/ksohtml1828/wps68.png
You’ve been warned: Full body deepfakes are the next step in AI-based human mimicry
This developing branch of synthetic media technology has commercial applications—but also has the potential to disrupt elections and spread disinformation.
In Russian novelist Victor Pelevin’s cyberpunk novel, Homo Zapiens, a poet named Babylen Tatarsky is recruited by an old college buddy to be an advertising copywriter in Moscow amid post-Soviet Russia’s economic collapse. With a talent for clever wordplay, Tatarsky quickly climbs the corporate ladder, where he discovers that politicians like then-Russian president Boris Yeltsin and major political events are, in fact, virtual simulations. With the advent of ever-more sophisticated deepfakes, it feels as if something like Pelevin’s vision is slowly coming true.
Within the field of deepfakes, or “synthetic media” as researchers call it, much of the attention has been focused full body deepfakes.
In August 2018, University of California Berkeley researchers released a paper and video titled “Everybody Dance Now,” demonstrating how deep learning algorithms can transfer a professional dancers’ moves developed an AI that can automatically generate whole body models of nonexistent persons, identifying practical applications in the fashion and apparel industries.
While it’s clear that full body deepfakes have interesting commercial applications, like deepfake dancing apps or in fields like athletics and biomedical research, malicious use cases are an increasing concern amid today’s polarized political climate riven by disinformation and fake news. For now, full body deepfakes aren’t capable of completely fooling the eye, but like any deep learning technology, advances will be made. It’s only a question of how soon full body deepfakes will become indistinguishable from the real.
SYNTHESIZING ENTIRE HUMAN BODIES
To create deepfakes, computer scientists use Generative Adversarial Networks, or GANs. Comprised of two neural networks—a synthesizer or generative network, and a detector or discriminative network—these neural networks work in a feedback loop of refinement to create realistic synthetic images and video. The synthesizer creates an image from a database, while the latter, working from another database, determines whether the synthesizer’s image is accurate and believable.
The first malicious use of deepfakes appeared Scarlett Johansson were mapped Fast.AI says that 95% of the deepfakes in existence are pornographic material meant to harass certain individuals with fake sexual acts. “Some of these deepfakes videos aren’t necessarily using very sophisticated techniques,” says Thomas. But, that is starting to change.
Farid points to the Chinese deepfake app Zao as being illustrative of how quickly the technology has evolved in less than than two years.
“The ones that I saw [from Zao] looked really, really good, and got around a lot of the artifacts, like in the movie versions where the face flickered,” says Farid. “It’s improving. Getting this as an app working at scale, downloading to millions of people, is hard. It’s a sign of the maturity of the deepfake technology.”
“With deepfake images and videos, we’ve essentially democratized CGI technology,” he says. “We’ve taken it out of the hands of Hollywood studios and put it in the hands of YouTube video creators.”
Björn Ommer, professor for computer vision at the Heidelberg University Collaboratory for Image Processing (HCI) & Interdisciplinary Center for Scientific Computing (IWR), leads a team that is researching and developing full body synthetic media. Like most researchers in the field, the group’s overall goal is to understand images and to teach machines how to understand images and video. Ultimately, he hopes the team gains a better understanding of how human beings understand images.
“We’ve seen synthetic avatars that have been created not just in the gaming industry but a lot of other fields that are creating revenue,” says Ommer. “For my group, in particular, it’s entirely different fields that we are considering, like biomedical research. We want to get a more detailed understanding of human or even animal posture over time, relating to disabilities and the like.”
There are critical differences between the processes of synthesizing faces and entire bodies. Ommer says that more research into face synthesis has been carried out. And there are a few reasons for this. First, any digital camera or smartphone has built-in face detection, technology that can be used for tasks like smile detection or to identify the person a viewer is looking at. Such applications can generate revenue, leading to more research. But they have also led to, as Ommer says, “a lot of data set assembly, data curation, and obtaining face images—the substrate upon which deep learning research is built.”
Secondly, and more interesting to Ommer, is that while each human face looks different, there isn’t much variability when the face is compared to an entire human body. “That is why the research on faces has come to a stage where I would say it is creating really decent results compared to entire human bodies with much more variability being there, much more complicated to handle, and much more to learn if you head in that direction,” says Ommer.
Ommer isn’t sure when full synthesized bodies will be of the quality that he and researchers want. Looking at the maturation of malicious deepfakes, however, Ommer notes that humans can already be tricked quite easily without fakes created by deep learning computer vision intelligence, artificial intelligence, or other technologies.
“But, if you want to make it appealing to larger society, it will take a few more years,” says Ommer, who says full body and other deepfakes will become cheaper and more prevalent. “The research community itself has moved in a direction—and this is very much appreciated by much of the community that is responsible for a lot of this steady progress that we see—where the algorithms are easily available, like on Github and so on. So, you can just download the most recent code from some paper, and then, without much knowledge of what’s under the hood, just apply it.”
FEELING “POWERLESS AND PARALYZED”
Not every person will be able to create a “blockbuster deepfake.” But, given more time, Ommer says money will no longer be an issue in terms of computational resources, and the applicability of software will also become much easier. Farid says that with full body deepfakes, malicious creators will be able to work deepfake technology’s typically stationary figure talking directly into the camera, making targets do and say things they never would.
Tom Van de Weghe, an investigative journalist and foreign correspondent for VRT (the Flemish Broadcasting Corporation), worries that journalists, but also human rights activists and dissidents, could have footage of them weaponized by full body deepfakes.
The explosion of fake news during the 2016 election, and the rise of deepfakes in 2017 inspired Van de Weghe to research synthetic media. In the summer of 2018, he began a research fellowship at Stanford University to study ways of battling the malicious use of deepfakes.
“It’s not the big shots, the big politicians, and the big famous guys who are the most threatened,” says Van de Weghe. “It’s the normal people—people like you, me, female journalists, and sort of marginalized groups that could become or are already becoming the victims of deepfakes.”
Two weeks ago, Dutch news anchor Dionne Stax discovered her face “deepfaked” onto a porn actress’s body, after the video was uploaded to PornHub and distributed on the internet. Although PornHub quickly removed the video, Van de Weghe says that the damage to her reputation had already been done. He also points to China’s AI public broadcasters as proof that the Chinese government has the capability to pull off realistic deepfakes.
To imagine how a full body deepfake might work, Van de Weghe points to 2018 footage of Jim Acosta, CNN’s chief White House correspondent. In a video clip uploaded by Paul Joseph Watson, an editor at conspiracy theory site Infowars, Acosta seems to aggressively push a white house staffer trying to take his microphone. The original clip, broadcast by C-SPAN, differs markedly from Watson’s. The Infowars editor claimed he didn’t doctor the footage and attributed any differences to “video compression” artifacts. But, as The Independent demonstrated in a side-by-side analysis of the videos in an editing timeline, Watson’s video is missing several frames from the original. A full body deepfake could, like editing video frames, alter the reality of an event.
Deeptrace Labs, founded in 2018, is a cybersecurity company that is building tools based on computer vision and deep learning to analyze and understand videos, particularly those that could be manipulated or synthesized by any sort of AI. Company founder Giorgio Patrini, previously a postdoc researcher on deep learning at the DELTA Lab, University of Amsterdam, says that a few years ago he started investigating how technology could prevent or defend against future misuse of synthetic media.
Patrini believes that malicious deepfakes, made up of a combination of synthetic full bodies, faces, and audio, will soon be used to target journalists and politicians. He pointed to a deepfake porn video that featured Indian journalist Rana Ayyub’s face swapped >told Mother Jones that he did not believe the video of the president had been synthesized.
“We couldn’t find any reasons to believe it was a deepfake, and I think that was later confirmed that the president is still alive but that he’d had a stroke,” says Patrini. “The main point I want to make here is that it doesn’t matter if a video is a deepfake or not yet—it’s that people know that it can spark doubt in public opinion and potentially violence in some places.”
Recently, Van de Weghe learned that a political party operative approached one of the most popular deepfake creators, requesting a deepfake to damage a certain individual. Such custom, made-to-order deepfakes could become big business.
“There is money to be earned with deepfakes,” says Van de Weghe. “People will order it. So, a government doesn’t have to create a deepfake—they just have to contact a person who is specialized in deepfakes to create one.”
The Wall Street Journal recently reported that a UK energy company CEO was fooled into transferring $243,000 to the account of a Hungarian supplier. The executive said he believed he was talking to his boss, who had seemingly approved the transaction. Now, the CEO believes he was the victim of an audio deepfake scam known as vishing. Farid believes other fraudulent deepfake financial schemes, which might include full body deepfakes, are only a matter of time.
“I could create a deepfake video of Jeff Bezos where he says that Amazon stock is going down,” says Farid. “Think of all of the money that could be made shorting Amazon stock. By the time you rein it in, the damage has already been done. . . . Now imagine a video of a Democratic party nominee saying illegal or insensitive things. You don’t think you can swing the vote of hundreds of thousands of voters the night before an election?”
Farid thinks a combination of social media and deepfake videos, whether of faces or full bodies, could easily wreak havoc. Social media companies are largely unable or unwilling to moderate their platforms and content, so deepfakes can spread like wildfire.
“When you pair the ability to create deepfake content with the ability to distribute and consume it globally, it’s problematic,” he says. “We live in a highly polarized society, for a number of reasons, and people are going to think the worst of the people they disagree with.”
But for Fast.AI’s Thomas, deepfakes are almost unnecessary in the new cyber skirmishes to negatively influence the political process, as governments and industry already struggle with fake information in the written form. She says the risks aren’t just about technology but human factors. Society is polarized, and vast swaths of the United States (and other countries) no longer have shared sources of truth that they can trust.
This mistrust can play into the hands of politically motivated deepfake creators. When a deepfake is debunked, as privacy scholar Danielle Citron noted, it can suggest to those who bought the lie that there is some truth to it. Citron calls this “the liar’s dividend.” Farid thinks advancements in full body deepfake technology will make the overall problem of this type of nefarious deepfakery worse. The technology is evolving fast, spurred by university research like “Everybody Dance Now” and private sector initiatives such as Zao to monetize deepfakes.
“Once you can do full body, it’s not just talking heads anymore: you can simulate people having sex or killing someone,” Farid says. “Is it just around the corner? Probably not. But eventually it’s not unreasonable that in a year or two that people will be able to do full body deepfakes, and it will be incredibly powerful.”
INDUSTRY RESPONSE
Currently, no consensus approach to rooting out deepfakes exists within the tech industry. A number of different techniques are being researched and tested.
Van de Weghe’s research team, for instance, created a variety of internal challenges that explored different approaches. One team investigated digital watermarking of footage to identify deepfakes. Another team used blockchain technology to establish trust, which is one of its strengths. And yet another team identified deepfakes by using the very same deep learning techniques that created them in the first place.
“Some Stanford dropouts created Sherlock AI, an automatic deepfake detection tool,” says Van de Weghe. “So, they sampled some convolutional models and then they look for anomalies in a video. It’s a procedure being used by other deepfake detectors, like Deeptrace Labs. They use the data sets called FaceForensics++, and then they test it. They’ve got like 97% accuracy and work well with faces.”
Deeptrace Labs’ API-based monitoring system can see the creation, upload, and sharing of deepfake videos. Since being founded in 2018, the company has found over 14,000 fake videos on the internet. Insights gleaned by Deeptrace Labs’ system can inform the company and its clients about what deepfake creators are making, where the fakes came from, what algorithms they are using, and how accessible these tools are. Patrini says his team found that 95% of deepfakes are face swaps in the fake porn category, with most of them being a narrow subset of celebrities. So far, Deeptrace Labs hasn’t seen any full body synthesis technology being used out in the wild.
“You cannot really summarize a solution for these problems in a single algorithm or idea,” says Patrini. “It’s about building several tools that can tell you different things about synthetic media overall.”
Van de Weghe thinks the next big thing in anti-deepfake technology will be soft biometric signatures. Every person has their own unique facial tics—raised brows, lip movements, hand movements—that function as personal signatures of sorts. Shruti Agarwal, a researcher at UC-Berkeley, used soft biometric models to determine if such facial tics have been artificially created for videos. (Agarwal’s thesis adviser is fake video expert and Dartmouth professor Hany Farid.)
“The basic idea is we can build these soft biometric models of various world leaders, such as 2020 presidential candidates, and then as the videos start to break, for example, we can analyze them and try to determine if we think they are real or not,” Agarwal told Berkeley News in June of this year.
Although Agarwal’s models aren’t fullproof, since people in different circumstances might use different facial tics, Van de Weghe think companies could offer soft biometric signatures for identity verification purposes in the future. Such a signature could be something as well-known as eye scans or a full body scan.
“I think that’s the way forward: create bigger data sets in cooperation with academics and big tech companies,” Van de Weghe says. “And we as newsrooms should try and train people and build media literacy about deepfakes.”
Recently, Facebook and Microsoft teamed up with universities to launch the Deepfake Detection Challenge. Another notable effort is the Defense Advanced Research Projects Agency’s (DARPA) goal of tackling deepfakes with semantic forensics, which looks for algorithmic errors that create, for instance, mismatched earrings worn by a person in a deepfake video. And in September 2018, the AI Foundation raised $10 million to create a tool that identifies deepfakes and other malicious content through both machine learning and human moderators.
But, Fast.AI’s Thomas remains skeptical that technology can fully solve the problem of deepfakes, whatever form they might take. She sees value in creating better systems for identifying deepfakes but reiterates that other types of misinformation are already rampant. Thomas says stakeholders should explore the social and psychological factors that play into deepfakes and other misinformation as well.
WHY IT’S TOUGH TO REGULATE DEEPFAKES
Thomas, Van de Weghe, and Farid all agree that governments will have to step in and regulate deepfake technology because social media platforms, which amplify such incendiary content, are either unable or unwilling to police their own content.
In June, Rep. Adam Schiff (D-CA), chair of the House Intelligence Committee, held the first hearing on the misinformation and disinformation threats posed by deepfakes. In his opening remarks, Schiff made note of how tech companies responded differently to the fake Pelosi video. YouTube immediately deleted the slowed-down video, while Facebook labeled it false and throttled back the speed at which it spread across the platform. These disparate reactions led Schiff to demand social media companies establish policies to remedy the upload and spread of deepfakes.
“In the short-term, promoting disinformation and other toxic, incendiary content is profitable for the major platforms, so we have a total misalignment of incentives,” says Fast.AI’s Thomas. “I don’t think that the platforms should be held liable for content that they host, but I do think they should be held liable for content they actively promote (e.g. YouTube recommended Alex Jones’ videos 16 billion times to people who weren’t even looking for him).”
“And, in general, I think it can be helpful to consider how we’ve [legislatively] dealt with other industries that externalize large costs to society while privately claiming the profits (such as industrial pollution, big tobacco, and fast food/junk food),” Thomas adds.
Deeptrace Labs’ Patrini says regulation of synthetic media could prove complicated. But, he believes some current laws, like those covering defamation, libel, and copyright, could be used to police malicious deepfakes. A blanket law to stop deepfakes would be misguided, says Patrini. Instead, he advocates government support for synthetic media applications that benefit society, while funding research into creating tools to detect deepfakes and encouraging startups and other companies to do the same.
“[Government] can also educate citizens that this technology is already here and that we need to retrain our ears and eyes to not believe everything we see and hear on the internet,” says Patrini. “We need to inoculate people and society instead of repairing things in maybe two years when something very catastrophic or controversial might happen because of misuse of this technology.”
Ommer says computer vision researchers are well aware of the malicious applications of deepfakes. And he sees a role for government to play in creating accountability for how deepfakes are used.
“We all see applications of image understanding and the benefits that it can potentially have,” says Ommer. “A very important part of this is responsibility and who will take a share in this responsibility? Government agencies and so on who have interviewed me obviously see their share in this responsibility. Companies say and probably—in the interest of their stockholders—have to say that they see their responsibility; but, we all know how they have handled this responsibility up until now.”
“It’s a tricky thing,” Ommer says. “Just hoping that this will all go away . . . it won’t.”
文章来源:数据观
作者:王婕
原文链接:https://mp.weixin.qq.com/s/xHeZanjuDPw-OFPyBzBXsw
编辑:高杰

232#
 楼主| 发表于 2019-9-30 17:18:00 | 只看该作者
【案例】
技术、伦理与商业:克隆猫们有未来吗?
克隆猫“大蒜”(左)和代孕猫(右)
采访 | 王承志 汤佩兰
撰文 | 汤佩兰
责编 | 李晓明 王承志
9月20日是克隆猫 “大蒜” 正式回到主人身边的日子,距离它出生正好满两个月。头顶 “国内首只商业克隆猫” 名号的 “大蒜”,在过去一个多月里频频出现在媒体报道中,也让克隆的话题又一次回到大众的视线。
亲眼看到 “大蒜” 时,一点也看不出来它就是一只克隆猫。和所有英国短毛猫一样,灰蓝的瞳孔、粉色的小爪、灰白相间的身体,在身旁一只暗褐毛色狸花猫的映衬下,它显得更加小巧娇憨。
这只狸花猫正是 “大蒜” 的代孕母亲。据希诺谷生物科技有限公司(下称“希诺谷”)副总经理赵建平介绍说。
克隆猫“大蒜”和代孕猫
克隆猫的保育间跟平常小区楼下的宠物店相差无几,除了 “大蒜” 和母猫在地上嬉戏,另一侧并排叠起的笼子里还装着一只小狗。
这是此前《知识分子》探访位于北京市昌平区科技园区的大楼三楼看到的场景,在这个面积1300平米的空间里,实验室、办公室和克隆宠物保育区一应俱全,可以完成动物克隆的整个过程。
赵建平打开一台监控显示屏,可以看到在隔壁保育间里还有十多条克隆狗。他告诉我们最近有一只狗得了流感,除了保育员基本不见外人。
实验室和办公室之间用一道铁门隔开。在获得允许后,外来人员需穿上蓝色晴纶大褂,戴上鞋套,在工作人员的带领下方能进入实验室。出生刚满月余的 “大蒜” 就在实验室最深处的小保育室。
这些克隆猫犬是如何诞生的?除了克隆宠物,希诺谷还在做什么?在交流中,我们能明显感受到这家生物科技公司对媒体的报道态度积极,他们希望外界能更多了解克隆。
“没法用钱衡量”
诸多数据佐证近年来国内宠物产业兴旺,但对于克隆这一小众的领域,大众的接受度到底如何?
2015年,在正式启动第一只克隆狗 “龙龙” 的项目之前,希诺谷团队展开了为期大半年的市场调研。其中一项任务是工作人员在中国农业大学动物医院、北京美联众合动物医院等宠物医院分发了七八百份调研问卷。
克隆狗 “龙龙”
调查结果显示,将近20%的调查对象愿意接受克隆宠物。
在2005年,韩国秀岩生物科技(Sooam Biotech)公司克隆出世界上首例体细胞克隆狗,取名为 “Snuppy”。目前该公司的客户遍及全球,每次克隆需要支付的价格是10万美元。
即便按照韩国公司10万美元的定价,仍然有超过5%的调查对象表示接受。尽管问卷填写意向跟实际下单客户之间难免会有差距,但这一数据还是超过了团队预期。赵建平表示,  “中国的宠物基数太大,这个比例已经非常高了。这里面我们选择宠物医院,本身去宠物医院的宠物普遍是得病的,那么(会选择)克隆的意愿更强烈一些。”
受到市场意愿调研的鼓舞,2016年3月份希诺谷公司正式开始进行克隆狗实验,跟其他动物相比,狗在克隆动物领域难度是公认的,并且体现在每个环节。
“首先,做克隆需要成熟的卵子,大多数动物包括人、猴子都可以采用激素超排。但狗在使用激素后,卵子超排质量差且不成熟。”赵建平说, “(而且)真正成熟、质量最好的卵子窗口期基本上就是两三个小时,超过这个时间,无论前后,卵母细胞都用不了。这个攻克不了,第一步就限制了很多人想做克隆狗。”
另外,跟很多动物的卵子细胞相比,狗的卵子细胞脂肪含量高,颜色呈黑色。即便在显微镜下也很难看清细胞结构,找到细胞核的位置再去除,技术操作的精细度、经验要求更高。然后将含有 DNA 的体细胞放进卵子中,再经过融合激活等操作后将胚胎移入代孕犬的输卵管。
经历一年多的摸索,2017年5月份,首例体细胞克隆狗龙龙诞生。在希诺谷,商业克隆一条宠物狗的价格是38万,猫的价格是25万。团队对此的考虑是:成本、利润和市场。考虑到韩国的10万美元定价的支付群体有限,因此定价上相对韩国稍低。
从2018年至今,希诺谷关于克隆狗的生意已经做了近50单。其中有 60%~70% 的客户是失去了原先的宠物。赵建平表示, “可能很多就是家里养的串串(混血犬),按品种并不值钱,但是自己养的没法用钱衡量。”
“因为大蒜给我一种灵性,特别人性化的感觉。当时因为自己的观察不周,导致大蒜去世,所以心里非常不舍和懊悔。选择克隆 ‘大蒜’,希望它能再回到我身边,再给自己一次好好照顾它的机会。” [1] “大蒜” 的主人在希诺谷的官网上如是说。
出乎该公司预料,从接触的客户来看,能够接受38万元克隆狗的群体并非都是家庭条件优渥,但他们对于宠物的感情非常深厚,因此选择了克隆。赵建平透露说,随着克隆效率的提升,价格还有下降空间。
但是,克隆并非百分百复制。无论是克隆猫大蒜还是先前的克隆狗,对宠物爱之深切的客户往往很快发现,克隆出来的小家伙跟“原版”在外形上并非一模一样,尤其是带斑点的,斑点位置可能发生变化。
除此之外,客户普遍反映克隆出来的小狗太淘气了。这可不是基因的缘故,经过分析发现选择克隆的家庭,常常因为 “失而复得” 自己心爱的宠物,往往会更溺爱它,所以跟原来的宠物相比,新的小家伙会更淘气些。
幕后的代孕妈妈
众所周知,克隆狗的孕育离不开代孕母体。目前,希诺谷在北京有三个比格犬的繁育基地,共计1000多只比格犬。比格犬的特点很明显,它们受人类驯化时间长、实验配合度高、遗传性疾病少且性状稳定。
繁育和使用比格犬需要国家专门机构颁发的实验动物许可证,包括《实验动物生产许可证》和《实验动物使用许可证》,获得许可证的条件中包括具有动物福利、伦理审查、生物安全管理制度。[2] 以比格犬为例,饲养环境也有一定标准,面积不能低于1.2平米,温度在18~28℃,包括湿度、通风次数也都有要求。
克隆公司往往会优先选择生育过、母性较强的代孕妈妈来完成代孕任务。
由于克隆胚胎发育能力较低,希诺谷每组克隆实验中通常包含三个提供卵子细胞的供体,得到十枚克隆胚胎,移植到一只代孕比格犬的体内,克隆猫移15枚,猪则移300枚, “这些数量是摸索出来的经验”。赵介绍说。
希诺谷实验室内景
BBC 曾经报道,Snuppy 的代孕母亲是一只黄色的拉布拉多。为了诞生一只克隆狗,韩国团队取出超过1000个胚胎,将其植入123只代孕母体,三只获孕。其中一只流产、一只在出生后不久后去世,仅存的就是 Snuppy。[3]
外界较多争议的是,克隆对代孕动物造成的创伤。2018年生物伦理学家杰西卡·皮尔斯(JessicaPierce) 在《纽约时报》上撰文表达克隆对代孕犬群体的影响,“整个下层的狗将被视为物品,来作为人类商业和赚钱机器运转的齿轮。”[4]
面对争议,希诺谷团队认为公众对代孕动物有很大误解。 “动物绝育的创伤远比这个大得多。” 赵建平表示,无论是取卵子细胞还是做胚胎移植,相当于一个外科手术,对内脏器官组织没有创伤,基本一周就可以恢复。等到做完克隆实验后,团队会有专门的保育组负责照顾这些小狗和小猫,尤其检测出怀孕后更会重点管理,直到把小家伙顺利交到主人手上。
赵建平还将克隆动物和药物实验用动物进行对比,动物用完药物后很受罪,最后这些动物的归宿大多是做安乐死。而他们实验用的比格犬之后还可以继续代孕,或者找人领养。
“(代孕)实际上也是正常受孕的过程,对于动物而言它只是一种天性,确实伤害比较小。”一位来自湖北某高校、长期研究实验动物福利和伦理的学者告诉《知识分子》。
他指出,商业克隆代孕让宠物复生,和很多地方把猫和狗当成种猫种狗进行繁殖然后买卖的情况并不一样。(代孕动物)一般在各种身体机能都符合怀孕而且还很强壮的条件下怀孕,而非长期无序地去做这件事情,只要能够在过程中给予好的对待即可。
关于伦理上的讨论,该名学者表示动物伦理跟通常说的伦理学有一定区别,最大区别在于人类伦理的研究发展了几千年,有完整的知识结构可以得出结论或做出指导。但实验动物的出现只有一百年,动物伦理的研究时间更短,造成这一领域存在很多空白的地方,还有待进一步研究。
克隆家宠只是开始
除了完成客户委托的商业克隆,希诺谷还和云南农业大学合作,利用体细胞克隆技术培育功勋警犬。
为什么会有克隆警犬项目的需求呢?赵建平解释,选择克隆的工作犬本身价值就非常高,当前国内的工作犬基本从国外进口,一条优质警犬的价值甚至可达上百万。
挽救濒危动物,甚至 “复活” 早已灭绝的动物也已成为克隆话题中绕不开的一环。2000年,最后一只布卡尔多山羊(bucardo)去世,八年后,弗尔奇(J.Folch)团队将已经灭绝的布卡尔多山羊克隆重生,这是已知的人类复活灭绝生物第一例。[5]
2017年,哈佛大学教授乔治·切奇(GeorgeChurch)宣布正尝试克隆约4000年前灭绝的猛犸象,这个试图 “复活” 猛犸象的计划同样还吸引着俄罗斯、中国、韩国等国的科学家投入其中。赵建平表示,他们也在跟有关机构探讨建立濒危或者野生动物的体细胞保存库,包括保留血液样本和 DNA,在国家政策允许并立项的情况下,开展濒危、珍稀野生动物的克隆研究,保存野生动物种质资源。但要开展濒危动物克隆,摆在眼前的首要难点是如何实现异种克隆甚至人造子宫。由于这类动物本身种群数量少、繁育能力低,现有的繁殖方式和技术不能保证种群数量的稳定,需要用到克隆技术,而代孕动物的选择就是首先要解决的难题。
目前,该公司还提供动物的基因检测、基因编辑、细胞治疗等技术服务。但克隆宠物仍是这家企业最主要的业务和营收来源。
唯一的玫瑰
动物克隆的更进一步就是人的克隆,人们忧虑或许有天醒来发现在某个地下实验室里克隆人已经诞生。
难点并非在技术, “人的整个生殖生理结构很清楚,但目前还是红线。” 赵建平说。
2005年,第59届联合国大会投票通过了《联合国关于人类克隆宣言》,呼吁成员国禁止一切形式的人类克隆。但这份宣言并没有成为全面禁止人类克隆的国际公约,不同国家对于克隆人的立场难以达成共识。中国、日本、新加坡等34个国家投反对票,中国的态度是反对生殖性克隆,但支持治疗性克隆。[6]
上述学者提到,1996年多莉羊的诞生距今已有二十多年,从技术角度而言克隆已经很成熟。但对于人类以外的动物胚胎管理,国家还没有明确的法律。
目前有过公开报道的掌握克隆狗技术的商业公司,分别在中、美、韩三个国家,各国都不存在法律前置审批。从现实看,企业比公众更希望监管到位,大众对克隆技术随意的想象反过来不利于企业接受风投和发展。
赵建平表示,国家介入监管立法的过程中会征询很多专家的建议,分析行业发展趋势,意味着规定什么能做,什么不能做,这对企业而言有利无害。而上述提到的许可证要求,更多是针对操作的规范性而非具体的管理办法。
另外,不少质疑克隆技术的观点认为,克隆出来的生命是在原来生命体岁数基础上累计的,控制细胞生长的线粒体端粒会随着细胞分裂缩短,年老的动物线粒体端粒通常比年轻的动物更短。[7] 但有多项研究表明,克隆生物的寿命跟普通动物没有区别,克隆出生的它们也同样具有繁育能力。[8] [9]
今天,只要人有意愿克隆自己的宠物,已有的技术基本保证将你心爱宠物的 DNA无限存续下去,甚至包括它的性格、习惯、外在特征等等。但随着每一个它的消失,无法克隆的是你们一起度过的时间、记忆和情感。
法国作家圣·埃克苏佩里用童话的方式告诉世人什么是宇宙中唯一的玫瑰,“是你在她身上付出的时间让她变得无可替代”。
技术给予人们更多的选择,而如何面对新的 “玫瑰” 则是另一回事。
图源希诺谷
参考资料
制版编辑 |皮皮鱼
来源:微信公众号“知识分子”
编辑:晓晴

233#
 楼主| 发表于 2019-10-1 22:56:09 | 只看该作者
【案例】
央视网与科大讯飞战略合作 "人工智能编辑部"建设提速
央视网消息:近日,央视网与科大讯飞战略合作签约仪式在北京举行。这是央视网落实中央广播电视总台“5G+4K+AI”战略布局、建设“人工智能编辑部”的重要举措之一。根据战略合作协议,双方将围绕智能硬件终端、媒体融合智能应用以及垂直领域智能化,共同打造智能媒体软硬件解决方案,将AI能力应用到央视网各个媒体场景中。
央视网与科大讯飞战略合作签约仪式在京举行(刘会成摄)
早在今年5月,央视网与科大讯飞就达成了融媒体智能终端合作,共同打造融媒体智能终端产品:讯飞智能笔记本青春版。这一“媒体+AI”的人工智能终端将成为央视网在PC、移动、IPTV、OTT等多终端之外的另一个智能终端硬件入口,实现主流媒体内容与AI智能设备深度融合,最大程度的让优质内容触达更多用户。
央视网董事长、总经理钱蔚在签约仪式上表示,站在中央广播电视总台发展的新起点,央视网与央广网、国际在线等总台“三网”新媒体紧密协作,共同建设“人工智能编辑部”,以视听为特色,对总台的优势资源进行智能化开发,致力打造独具总台“智造”特色的创新产品。此次央视网与科大讯飞战略合作,提升了合作深度,将以人工智能技术为驱动,开发全场景智能化产品和服务,为用户提供个性化的新闻资讯服务和更美好的视听体验。
科大讯飞是亚太地区知名的智能语音和人工智能上市企业。科大讯飞集团高级副总裁杜兰在签约仪式上表示,科大讯飞专注人工智能20年,不仅在语言处理方面处于国际一流,而且近年来,已经在媒体、医疗、教育、娱乐等行业进行产业赋能,与央视网拥有良好的合作基础。此次央视网与科大讯飞的强强联手,有望开辟媒体跨界融合的新模式,为媒体转型插上人工智能的翅膀。
央视网新媒体创新孵化中心总经理宋维君介绍说,本次战略合作协议的签署,将充分结合央视网的资源优势与科大讯飞的技术优势,实现互利共赢,推动行业发展。双方将基于各自优势资源,在智能硬件、智能广告、智能应用、人工智能普及等方面开展深入合作。
央视网正加大与顶级AI技术机构的合作,加快“人工智能编辑部”建设,包括集智能创作、智能加工、智能运营、智能推荐、智能审核“五智”于一体的人工智能集成服务平台,构建全媒体传播体系的“智慧中枢”,为用户提供智能化的多场景服务。今年7月,央视网与百度智能云战略合作,双方将共建人工智能媒体研发中心,联合打造媒体产业人工智能产品。央视网联手阿里云建设的大数据中台,目前已经具备每天处理100亿条数据的能力,是目前主流媒体中数据量最大和处理能力最强的数据平台之一,已形成“记者头条”等多款大数据产品。
业内人士认为,央视网作为中央广播电视总台主办的中央重点新闻网站,以“新主流、智平台、全媒体”为发展理念,全力建设“人工智能编辑部”,将加速人工智能技术在媒体行业落地应用,并发挥“新闻网站+集成播控平台”过亿用户的覆盖传播优势,以“媒体+AI”推动全面转型升级,进一步增强主流新媒体的传播力、引导力、影响力、公信力。
责任编辑:王敬东
来源:央视网
编辑:晓晴

234#
 楼主| 发表于 2019-10-1 23:13:46 | 只看该作者
【案例】
加码18项技术服务,加速AI部署与应用

您是否已经有足够的技能傍身,在人工智能领域大展拳脚?还是需要加持更多技能或者升级现有技术能力,以便全盘搞定应用场景落地?
百度大脑 AI 开放平台在日常的技术能力输出中,收到众多企业及个人开发者反馈,对我们有新的需求和要求,我们也在不断努力和迭代,为您提供更好更全面的服务。
8月,我们就针对大家的应用场景、使用反馈,做了18项技术服务的新开放和新升级。
如果您也需要,如果您也希望一直走在 AI 最前面,占据优势地位,一起来看:
AI 开放能力
全面开放、服务升级、商用保障,多种形式支持您的产品服务,加速创新、稳定可靠。
1. 文字识别 OCR:3项能力升级
名片识别
1)支持识别更多样式名片的 姓名、公司、职位、手机号电话、邮箱、地址、邮编、网址 等字段;
2)公司、邮箱、网址字段识别召回率提升30%;职位、手机号、地址字段识别召回率提升10%。


二维码识别
优化二维码/条形码检测模型,总体识别召回率大幅提升,通用场景下可达 98%。


手写文字识别
模型升级,手写中文识别准确率提升至 95%以上,识别效果与速度双指标保持行业 Top 1。
2. 图像搜索:1项能力升级
相同图片搜索
模型升级,检索效果更精准,TOP1准确率提升至93%以上,实现相同图片、高度相似图片的精准搜索。
3. 图像处理:2项能力全面开放
图像风格转换
轻松实现图片的风格转换,将原图像转换成卡通画或素描等风格。
拉伸图像恢复
无需手动检查和修改,自动识别过度拉伸的图像,将图像内容恢复成正常比例。


4. 车辆分析:1项能力升级,2项能力全面开放
车型识别
模型升级,提升识别准确率,并支持近期新款车型,TOP 5识别准确率提升至91%以上。
车辆检测
识别图像中小汽车、卡车、巴士、摩托车、三轮车5类车辆,并分别计数,同时可定位小汽车、卡车、巴士的车牌位置。可用于违章停车检测、车位占用情况统计等场景。
车辆外观损伤识别
针对常见小汽车车型,识别车辆外观受损部件及损伤类型,可识别30+种车辆部件、5大类外观损伤(刮擦、凹陷、开裂、褶皱、穿孔)。在识别部件损伤类型的基础上,进一步返回损伤部位的详细数值化信息(长宽、面积),精准判定损伤程度,实现真正的 AI 智能定损。


AI 开发平台
零代码基础、零开发成本,也能轻松使用 AI 开发平台,操作简单,功能强大
1. EasyDL 定制化训练和服务平台
零售版商品检测升级
1)推出货架拼接服务,支持将多个货架局部图片或视频,组合为完整货架图片。同时支持输出在完整货架图中的商品检测结果,包含 SKU 的名称和数量,适用于需要在长货架进行商品检测的业务场景。提供可直接使用的APP,可二次开发的 SDK 和云服务 API,充分满足各类开发需求。
2)定制商品检测服务接口支持返回客户自定义的商品编号,可用作直接对接客户自己的商品管理系统。
定制化图像分类算法升级
离线 SDK 模型训练新增高精度算法,可与云服务模型达到相同效果。


定制化物体检测算法升级
离线 SDK 模型训练高精度算法效果提升。


定制化图像分割全新上线
零算法基础训练业务定制图像分割模型,支持多边形标注训练数据,模型可识别图中每个物体的名称、位置(像素级轮廓)并计数,适合图中有多个主体、需要识别主体位置或轮廓的场景。


2. 内容审核平台
内容审核平台与 EasyDL 进行打通,支持审核模型定制,分钟级策略更新
1)特殊场景识别:对某些场景进行过滤,如需要过滤在车内直播、在床上直播的场景;
2)特殊物品、行为过滤:如需要对某个雕塑、建筑物、旗帜、标语、手势、表情等进行过滤;
3)百度官方违禁库,及时接收上级监管指令,分钟级别更新,自动生效至系统预置审核策略中,保证审核结果及时过滤最新风险事件。
新增预置策略——用户头像审核
社交场景用户资料审核:对头像中是否包含真人脸、占比大小、人脸清晰度、倾斜、遮挡等情况进行审核。
新增二维码识别,支持内容/链接安全检测
智能检测图片中是否包含二维码,及二维码内容,过滤违规内容和安全隐患。


3. 语音自训练平台
零代码自助训练语言模型,模型上线新增 API 方式调用,灵活易用
近场语音输入(搜索模型、输入法模型)在现有 Android、iOS、LinuxSDK 的调用方式上新增 API 方式,调用方式简单灵活,适配更多操作系统平台。
多场景使用语音自训练平台,专业领域词汇识别率提升明显
上线以来,已有医疗、金融、农业、教育、餐饮、物流、建筑、地产等多家行业客户训练使用,将模型上线应用到业务数据采集录入、音频关键词质检、智能语音助手、呼叫中心等语音识别场景上,专业领域的词汇识别率有效提升5-25%。
4. AI Studio
教育版添加使用引导,支持视频与文档课件
教育版使用引导可以让教师更加快速的开展教学任务;支持文档型和视频型课件,教学内容多样化,让学生的学习更加轻松。
Notebook 项目支持多版本
Notebook 项目多版本功能上线,单个项目可生成5个版本,用户可选择特定版本进行 fork,管理交流更加便捷。
Notebook 项目体验持续优化
Notebook 项目编码区界面全新改版,功能更加丰富。


集成与部署
多端软硬件集成与部署、多款适配主流模型的产品,配套硬核,实力强劲。
1. Edgeboard
Edgeboard FZ5A 软核正式发布,支持 FZ5A 计算卡擦写升级,是一款高性能、高通用、开发便捷的 AI 计算卡,助力 AI 应用开发快速实现。


2. 百度大脑认证硬件产品
视派尔 USB 单目 RGB 镜头C-EP28WD305,支持高清摄像头功能,强光抑制,暗光补偿,同时可进行人像优化、场景优化,且是一款低功耗USB CAM。

轻客小觅双目深度模组 MYNT EYED1200,为安卓手机量身定制的双目立体感知手机模组,内置深度计算芯片,无需上位机直接输出深度,已在全球范围内服务超1500家企业和学校客户。


场景案例
跨行业场景应用,聚焦产业智能化落地,完整方案,共享成果。
1. 企业服务场景方案:一眼看尽好评差评,NLP 助力企业实现智能化服务评分
借助百度大脑的 NLP 能力,国美搭建起了完整的智能评分平台架构。AI 赋能后的服务考核监督机制得以升级,用户的差评反馈都会被自动分析处理,大大提升了服务效率与服务质量。
百度大脑的 NLP 能力在这套智能评分平台的效果准确率很高,评论观点抽取准确率,正向可达93.3%,负向可达86.24%;情感倾向分析准确率,正向可达91%,负向可达98%。服务评分的智能化,使得国美客服运营人力需求从一天5人降低到3人,客户问题处理率从60%提升至100%,售后师傅的差评频率也整体降低了7%。
2. 电商场景方案能力预告:电商评论分析解决方案
挖掘电商评论中的核心观点,全面理解售后反馈与消费者感受,帮助电商企业快速搭建基于评论的数据业务分析系统,通过用户反馈找到产品优化方向并提升口碑。
AI 市场
丰富的 AI 上下游产品聚集地,无缝对接买卖双方,撮合交流,快速应用。
1. 移动端支持购买与支付
手机访问百度 AI 市场(aim.baidu.com),可在手机端享受浏览、咨询、下单并支付的全流程购买体验,不受办公室制约,随时随地挑好货,轻轻松松完成采购。
2. 需求广场强势上线
买家需求经过市场审核即可挂在需求广场中公开招标,AI 市场服务商自由认领后即可与买家直接沟通联系。优质商机获得最快速的响应,服务商再也不用担心没有商机啦。
3. 优质服务商及商品持续入驻
上海复创、广州棋云、深圳优本、广州头文科技、北京布本智能、深圳启望科文等多家优质服务商于 AI 市场上线并售卖抓拍机、人脸识别门禁、镜头模组、智能机器人等硬件产品,以及会务系统管理、舆情监测、智能语音解决方案,性价比高,品质有保障。
1)复创 Phoenix_3D 结构光人脸识别 PAD
搭载基于 3D 结构光 Camera 的8寸超薄平板 PAD 设备,高通安卓平台,支持二次开发,适用人脸支付、开门、通行等高安全人脸识别应用领域。
2)Editor-Max 智能内容运营管理平台
为企业提供智能化内容聚合,管理,分发的平台和服务,提供个性化推荐和相关推荐的智能服务。
4. 限时优惠活动-7家服务商发送3000元优惠券
赛蓝、慧谷航天、睿识、贝塔、视派尔、奥比中光、麦哲7家热销服务商各发送价值3000元满减优惠券,有效期至2019年12月31日。


可于7家服务商的移动端店铺中领取优惠券,并在 AI 市场购买抓拍机、镜头模组等相应商品、填写优惠码即可享受丰厚优惠。

来源:百度AI


编辑:晓晴

50285c799e1089e4012116047bef6ef.jpg (50.96 KB, 下载次数: 25)

50285c799e1089e4012116047bef6ef.jpg
235#
 楼主| 发表于 2019-10-1 23:18:20 | 只看该作者
【案例】


携手国际AI领袖制定AI硬件全球标准OAI,百度发布超级AI计算平台X-MAN4.0


欧洲时间9月27日,在荷兰阿姆斯特丹举办的2019OCP Regional Summit 会议上,百度发布了业界首款支持 OAI(OpenAccelerator Infrastructure)标准和液冷散热的超级 AI计算平台 X-MAN4.0。百度在主导 OAI 标准定义的同时,也以实际行动推动 OAI 标准落地,通过构建开放的 AI 硬件生态系统来推动全球 AI 新硬件技术创新和落地。

▲百度超级AI 计算平台 X-MAN4.0

OAI 标准为何而生?

随着 AI 技术的快速发展,众多 AI 芯片公司应运而生,AI 芯片产业的格局正呈现多元化发展趋势。由于 AI 硬件系统设计的技术难度和复杂性,其研发周期通常长达一年,并且需要投入大量的研发资源,这严重阻碍了新 AI 加速芯片的落地和应用。

OCP 开放计算项目,是由 Facebook 携手英特尔、Rackspace 等公司于2011年成立的一个非营利组织,也是全球云计算基础硬件技术领域覆盖面最广、最有影响力的开源组织。在今年3月美国 OCP 全球峰会上,百度联合Facebook 和微软发布了 OAM(OCPAccelerator Module)标准,该标准制定了 AI 硬件加速模块的尺寸、供电、高速互联接口等规范,之后主导发起将 OAM 项目升级为 OAI,该标准用于指导 AI 硬件加速模块和系统设计,它集合定义了 AI 硬件加速模块本身、主板、互联拓扑、机箱、供电、散热以及系统管理等系列设计规范。

通过 OAI 标准,可以统一 AI 硬件加速模块和系统设计,有效兼容多元化 AI 加速芯片,促进 AI 芯片多元化生态格局的健康持续发展。

▲百度主导 OAI 标准定义

首款支持 OAI 标准和液冷散热的 AI 计算产品 X-MAN4.0

X-MAN4.0是百度超级 AI 计算平台 X-MAN 系列产品的第四代,是第一款支持 OAI 标准和液冷散热的的 AI 计算产品。X-MAN4.0 单节点可以支持8个 AI 加速器,加速器之间采用8portHCM(Hybrid Cube Mesh)互联架构,双向通信带宽高达56 GBps。在单个机柜层面,X-MAN4.0最大可支持32个 AI 加速器构建互联集群,具有极好的可扩展性。

X-MAN4.0符合 ODCC3.0整机柜规范,高度为4SU(182.5mm),宽21英寸(536.0mm),长度850mm,支持风冷散热方式,也支持液冷,采用更高效的48V 供电方式。

百度 X-MAN 系列产品多项技术行业领先,如  X-MAN1.0首次实现AI 计算硬件解耦架构、X-MAN2.0首次将冷板式液冷散热技术应用到 AI 计算产品里、X-MAN3.0首次倡导模块化标准化设计。此次百度将相关设计理念贡献到 OCP 并主导 OAI 标准制定,并实现了首款支持 OAI 标准及液冷散热的 AI 计算产品。浪潮作为百度的重要合作伙伴之一,一直在参与 X-MAN 系列产品的研发和生产。

OAI 标准获得行业广泛支持

OAI 项目是由百度、Facebook、微软三家国际 AI 领先企业联合发起的,包括多项标准,其中 OAM 标准已经在3月发布,OAI-UBB(UniversalBaseboard)标准已经形成初稿即将在10月正式发布。OAI 标准也得到了众多公司包括 Google、阿里、腾讯、京东云等互联网企业,英伟达、英特尔、AMD、高通、赛灵思等 AI 芯片企业,Graphcore、HabanaLabs、寒武纪等 AI 芯片及处理器初创企业,以及浪潮、IBM、联想、英业达等 ODM/OEM 系统厂商的参与和支持。当前英特尔、英伟达、AMD 和 Habana 已经开发出了支持 OAM 标准的 AI 加速卡,并且 OAI 项目成员相比3月初增长了近50%,这充分显示了OAI 标准的全球影响力。

对此,百度副总裁侯震宇表示:“百度非常高兴能够与 Facebook 和微软及 OCP 其他成员围绕 OAI 标准的制定展开合作,该标准将极大提高不同 AI 硬件加速模块和系统的互操作性,加速新 AI 硬件加速模块的大规模落地应用。”

▲OAI 标准获得广泛支持

参与全球标准定义,打造软硬一体 AI 全栈解决方案

此次百度主导 OAM 和 OAI 标准定义,不仅将又一次推动 AI 新硬件技术全球范围内的创新与进步,还会进一步将自己在 AI 领域的最佳实践、专业能力和创新能力,贡献给国际 AI 社区,促进世界 AI 水平的进步。这不是百度第一次参与国际 AI 领域技术标准的制定了。2018年5月,在纽约人工智能大会上,百度、谷歌、斯坦福大学、哈佛大学等多家企业和高校联合发布了一套用于测量和提高机器学习软硬件性能的国际基准 MLPerf,旨在推动机器学习硬件+软件相关技术创新。

通过基础技术创新,百度正在打造 AI 芯片昆仑、超级 AI 计算平台X-MAN、深度学习框架PaddlePaddle等软硬一体全栈 AI 解决方案。

在“夯实移动基础,决胜 AI 时代”的战略指引下,百度也在稳步打造 AI 生态体系,加速 AI 技术的产品化和商业化进程。作为 AI 生态体系的重要组成部分,百度打造了面向自动驾驶领域的 Apollo 开放平台和对话式 AI 操作系统 DuerOS,并通过百度智能云的 ABC(AI、Big Data、Cloud Computing)三位一体发展战略,促进各行各业智能化升级。


来源:百度AI

编辑:晓晴


236#
 楼主| 发表于 2019-10-1 23:27:21 | 只看该作者
【案例】

全球首个 “数字人类” 曝光,意识可在云端永生
全球首个 “数字人类” 曝光!
美国作家同意其意识在云端永生
「 思想永存 」


HereAfter 是一家致力于将人类的记忆永久储存在云服务器并可以实现与其对话的初创公司。现在,他们似乎已经签下了第一个客户。现年78岁的美国作家安德鲁·卡普兰(AndrewKaplan)已经决定成为一个 Andybot——数字人,被永久储存在 HereAfter 的服务器上,只要互联网存在,他就能得到永生。
20多岁时安德鲁是一名战地记者,作为以色列军的成员参加过六日战争(第三次中东战争),后来成为一名成功的企业家,再后来,成为一名多产的间谍小说家、好莱坞剧本作者。
如今,当这位78岁的银发老人和结婚39年的妻子在加州棕榈泉郊外的一片郊区绿洲中休闲的时候,他意识到,他希望自己所爱的人能够接触到这些故事,即使他已经不在人世。
除了音频,HereAfter 也在开发可以让客户同亲人的虚拟形象进行互动的技术,利用如今的 AI 以及混合现实增强技术,这一愿望应该很有可能实现。
🔗 原文链接:
http://ai.cnmo.com/news/669009.html
AI 可助提前数年预测心脏病风险
「 生命面前每一秒都珍贵」
英国牛津大学4日发布新研究成果显示,研究人员基于 AI 开发出了一种新工具,可在心脏病发作前至少5年就判断出一个人是否属于这类疾病的高风险人群。
目前,如果一个人出现胸部疼痛等疑似心脏病症状时,传统检测方法主要依靠对冠状动脉扫描结果的判读,但这种方法有时并不一定能检测出病患未来会否心脏病发作。
该校研究人员使用机器学习方法对大量的血管扫描数据进行深度分析,从而开发出的一种全新生物标记物,能够识别出为心脏供血的血管周围间隙出现的异常,如发炎、瘢痕等可预示未来心脏病发作的迹象。出于机器学习的特性,加入的扫描数据越丰富,预测就越准确。
🔗 原文链接:
http://smart.huanqiu.com/ai/2019-09/15415203.html?agt=16361
追寻伙伴的足迹
AI 使用气象雷达追踪候鸟
「 濒危动物的隐形翅膀」
近日,康奈尔大学鸟类学实验室和马萨诸塞大学信息与计算机科学学院的科学家研究出一种能够将雷达图像中的鸟类与降水区分开来的人工智能系统。美国国家气象局的 159 个地面雷达网络时常能观察到它们的飞行,且能通过发射微波脉冲并测量反射。然而,生态学家一直在努力利用由此产生的巨大数据集,但却无能为力。
研究人员称该人工智能工具为 MistNet,在精细网络鸟类学家用来捕捉迁徙鸣禽之后,不仅可以帮助进行分类任务,还可以用来估计鸟类的飞行速度和交通率。据估计,每年有数千万只鸟在冬季进行迁徙飞行,通常在夜间飞行。
🔗 原文链接:
https://venturebeat.com/2019/08/28/ai-spots-migratory-birds-in-weather-radar-images/
牛津大学科学家开发出新 AI 软件
用于识别和跟踪野外黑猩猩面部
「 动物也用上了人脸识别」
本周,牛津大学的科学家宣布开发出新人工智能软件,用于识别和跟踪野外个体黑猩猩的面部。根据发表在 Science Advances 上的新论文《Artificialintelligence used to recognize primate faces in the wild》,新软件将使研究人员和野生动物保护主义者能够大大减少分析视频片段的时间和资源。
能够检测、追踪和识别黑猩猩的人工智能可以使在野外研究动物更有效率。
研究人员使用23只0~57岁的黑猩猩共计大约1000万张面部图像训练深度神经网络,最终研发出该软件。
借助 AI,科研人员可以减少跟踪动物所需的时间,从而更高效地分析黑猩猩及其他灵长类动物的行为,同时也可以保护它们免受偷猎者的伤害。最终,该软件在光线暗、目标物运动的情况下也可能精准跟踪目标物。
🔗 原文链接:
https://www.sciencedaily.com/releases/2019/09/190904165232.htm
准确率超90%!
人工智能算法助力药物发现
「 未来可期 」
近日,来自剑桥大学(University of Cambridge)的研究人员已经证明,一种有效算法能够以超过90%的准确率预测复杂化学反应的结果,且优于训练有素的化学家。该算法还向化学家展示了如何确定目标化合物,就好像“化学GPS”一般,指引化学家达到其想要的结果。
有机合成是药物化学中的关键绊脚石之一,通过化学方法可以将简单分子合成复杂的有机分子,但合成可以说是通过反复试验来实现某种结果的艺术。有了机器学习算法,可以快速从数百万种已有的化学反应中提炼有效信息,总结出反应模式,而人类化学家则无法做到这点。
这两项研究结果发表在 ACS Central Science 以及 ChemicalCommunication 期刊上。
🔗 原文链接:
《准确率超90%!人工智能算法助力药物发现》
MIT 研发出磁控线性机器人
未来有望实现远程控制  
「 用途前景广泛」
9月5日消息,麻省理工学院研究团队研发出一种新型机器人:磁控线性机器人,这种机器人有望在患者发病 90 分钟的“黄金时间”内使患者得到及时治疗,避免造成永久性脑损伤。
线状机器人为脑血管疾病患者带来了福音,但是团队一作 Yoonho Kim 表示,机器人还在进化中,团队希望机器人可以实现远程控制,医生不必靠近放射源,也能在复杂血管中进行手术。这样一来,医生不必承受射线辐射带来的困扰,而且在医疗资源匮乏的地区,患者也能得到及时治疗。
此项技术的相关研究论文《Ferromagnetic soft continuum robots》已经发表于最新一期的《Science Robotics》上。
🔗 论文地址:
来源:百度AI
编辑:晓晴


237#
 楼主| 发表于 2019-10-2 22:43:26 | 只看该作者
【案例
中国互联网巨头欲借AI芯片弯道超车
随着芯片领域的下一步发展,会越来越多和人工智能技术结合,基于人工智能技术转化应用。中国互联网巨头正摩拳擦掌,希望借AI芯片“弯道超车”。
阿里发布全球
最高性能推理AI芯片
925日的云栖大会上,阿里巴巴首席技术官&阿里云智能总裁张建锋发布了全球最高性能推理AI芯片——含光800,基于RISC-V和阿里自有算法,性能达78563 IPS,能效达500 IPS
去年的云栖大会,阿里宣布成立平头哥,正式进军芯片领域。到今年年初,阿里就宣布2018年达摩院芯片出货量已突破2亿片。7月,平头哥又发布了首款玄铁910芯片,号称是目前业界性能最强的RISC-V架构芯片之一。
前不久,AIoT芯片平台“无剑”的发布更是可帮助芯片设计企业将成本降低50%,设计周期压缩至原本的一半。可以看到,一年时间阿里在芯片,尤其是AI芯片领域成果频频,张建锋也在现场表示,“数字经济时代,全球AI芯片出货量已达29亿片,AI芯片未来可期。”
201874日,在2018年百度AI 开发者大会上,百度创始人、董事长兼CEO李彦宏宣布百度推出中国第一款云端全功能AI芯片“昆仑”,可以适用于语音识别、无人驾驶等场景中。在全球范围内,亚马逊、谷歌、Facebook等互联网企业也参与到芯片行业中,互联网企业入局已成为全球芯片行业显著趋势。
每两年AI对芯片
算力要求提升十倍
随着AI技术的大规模应用,传统的芯片技术已经满足不了需求。CPUGPU作为通用计算芯片,为处理线程逻辑和图形而设计,处理AI计算问题时功耗高,性价比低,因此在AI计算领域急需专用架构芯片解决上述问题。
百度方面也介绍,随着大数据、人工智能的崛起,AI算力的需求也在不断提升中。每过两年数据便会翻一番,而计算模型的复杂度对算力的要求则会有5倍的增长。这意味着,每过两年,AI对芯片的算力要求会有10倍的提升。
对于中国互联网巨头来说,它们早已不甘于只做线上互联网服务,一方面在“下沉”,向实体产业渗透,如金融、旅游、出行和零售等都在发生的互联网+;另一方面在“变硬”,在做好互联网软件服务的同时,向硬件深入,比如百度做无人车和智能家居,阿里有IoT战略,而目前各种业务的计算都要用到大量的芯片。
发挥巨头在AI方面优势
“互联网巨头做芯片有着独特的优势”
国际视频标准华人领军人物、阿里AI Lab首席科学家陈颖向广州日报全媒体记者表示,互联网巨头可以发挥巨头在AI方面积累的技术优势,而且做出的芯片可以首先在它自己的AI平台及其应用上得到应用,通过应用可以推动芯片的发展,形成一个良性循环。
  数据显示,2019年芯片人才平均招聘薪资为10420/月,十年工作经验的芯片人才平均招聘工资为19550/月。成长速度慢、迭代周期长是限制芯片人才薪资涨幅的重要原因之一。研发工程师林滨表示,一般要经历四五个芯片项目周期,每个周期半年到两年,此后才能“开始独当一面”。
来源:广州日报
链接:http://tech.cnr.cn/techgd/20190930/t20190930_524800530.shtml
编辑:晓晴

238#
 楼主| 发表于 2019-10-2 23:11:12 | 只看该作者
【案例
海德格尔对世界的警告,今天都变为现实
作者:孙周兴等
来源:由群学书院(sacademy)整理自《长江日报》2018925日、《三联生活周刊》2017年第2期、刘小枫《海德格尔与中国》等
全文5241字,预计阅读需8分钟。
926号是德国哲学家马丁 · 海德格尔(Martin Heidegger1889-1976)诞辰130周年纪念日。
海德格尔是公认的20世纪西方最重要的思想家之一,对于20世纪西方哲学以及人文科学诸领域具有决定性的意义。更重要的是,在20世纪所有的哲学家中,海德格尔对技术的反思无疑是最深刻的。
1946年,在《形而上学之克服》里,海德格尔提出,人类的计算和规划战胜了所有的动物性,人成为最重要的原料,终有一天,我们将建造期人类繁殖工厂,按需要有计划地控制男人和女人的生育。
1953年,海德格尔说,人制造自己,加工自己的时代,马上到来了。同年,在《科学与沉思》中他写道,科学已经发展出一种在地球其他任何地方都找不到的权力,并且正在把这种权力最终覆盖于整个地球上……现在我们要的太多,已经忘记了“不要”对人类同样重要。
半个多世纪过去了,在人工智能和生命科学大行其道的今天看起来,这些看法无疑是深刻的。
海德格尔
1海德格尔有多红?
改革开放已40年,回望过去,汉语学界请来过诸多西方哲人,其中的多数人在被我们热情礼遇一番后,就逐渐冷落直至遗忘。但是,海德格尔是为数不多的例外之一,正如著名哲学家刘小枫说的,“对这位德国哲人,我们至今热爱如初。” 可以说,一个多世纪以来,对中国思想文化影响最大的三个哲学家之一。第一个是马克思、第二个尼采,第三个就是海德格尔。
实际上,不仅在中国,整个国际学术界,海德格尔名声也堪称整个哲学史上少有的。他的名声大到什么地步呢?海德格尔是1976年去世的,距今还不足50年,但是有关于海德格尔的研究文献数量,现在已经成为世界第一名。柏拉图2000多年前的哲学家,康德是300年前的哲学家,还有马克思在社会主义国家那么大的影响力,但是现在对世界上任何一个哲学家研究的文献都不如对海德格尔的多。
读者对海德格尔的热爱对中国学界来说意味着什么?这个问题关乎中国的未来读书人的心性品质。
20世纪60年代初,北京大学哲学系受命编译《存在主义哲学》文集,其中就有熊伟先生对海德格尔著述的首次中译。但是那个年代,偌大的中国没有人会去读海德格尔,海德格尔到了中国等于没到。要等到改革开放时期,海德格尔随即受到关注。但是,为什么他会持续受到关注,这并不容易解释。
拿萨特作一个对比。1986年底,北京三联书店的“现代西方学术”文库推出萨特的《存在与虚无》中译本,次年年底推出海德格尔的《存在与时间》,《存在与时间》发行了7万册,萨特的《存在与虚无》发行了10万册,一时洛阳纸贵。但如今还有谁在读萨特?哲学家刘小枫幽默地形容“萨特逐渐被冷落,只好怏怏而回,而海德格尔,我们真心诚意打扫自己的房间,甚至腾出卧室,让他住下。”因为我们深切地感到,能给中国思想带来历史性转机的西方哲人,非海德格尔莫属。
究竟是哪些理论秉性让海德格尔与中国学人如此一见如故?据说,海德格尔的哲学骨子里太像我们的古代哲学。但也可能,是我们还没好好认清海德格尔思想中的危险特质?对海德格尔的持续迷恋,是一种“迷人的危险”。“宁可跟随施特劳斯犯错,也不跟随海德格尔一起正确!”刘小枫的这句话掷地有声。刘小枫认为,倘若中国思想要有真正的历史性转机,就不得不严肃地重新审视海德格尔。
2海德格尔的思想史地位
同济大学孙周兴教授认为,海德格尔开创了一种对我们世界的一个新的认识。
20世纪有几个重要的哲学,一种哲学叫分析哲学,一种哲学叫马克思主义,一种叫现象学,这是最大的几种哲学。但马克思主义实际上19世纪的,分析哲学是19世纪留下来的,只有现象学是20世纪新的哲学。这种哲学提供了一种新的世界理解方式。
简单来说,在现象学看来,任何事物都是相互关联在一起的,这个想法听起来对我们中国人来说很简单,但是偏偏欧洲人不是这样想的。整个西方哲学从古典到近代,到20世纪有一个巨大的变化,古典的哲学假定事物的本身是有一个结构的,事物的存在和事物的意义有一个基本构成。文艺复兴以后,把事物的存在和事物的意义,设定为人这个“主体”赋予它的,一个苹果,因为人称呼它“苹果”,所以它变得有意义,所有事物都是“我”的对象,由“我”赋予它意义,这是近代哲学开始的,这是一种对象性思维。
进入20世纪,海德格尔开始不是这样想的,他认为,事物的意义,事物的存在,取决于“我”跟事物怎么发生关系的,我跟事物和事物相互之间的观念,构成了一个世界,构成一个概念。这是对世界的一种新的理解,也包括了对人的理解,这种理解在20世纪最有力量的是所谓的“存在主义”哲学,存在主义是20世纪最有力量、最有影响的哲学思潮之一,而海德格尔正是存在主义的集大成者。
现在看来,海德格尔思想最重要的一点,是对“未来”的思考,这种思考是跟技术的思考联系在一起的。可以说,他是最深邃的技术批判者,也是未来世界思想的开拓者。我们时代的问题很多,但技术问题是其中的核心问题,因为其他问题多半是由现代技术-工业-商业发动起来的,可以说,在这个时代里谁把握了技术问题,谁就抓住了时代的命脉。把技术问题理解为现代性之核心来加以思索,海德格尔可能是做得最好的。
科技发展到今天,人类对技术问题无比关心,尤其是现在的人工智能、生物技术,使我们对人类未来命运的关注前所未有,甚至有人说我们可以长生不老,不会死掉的,大家听了也很兴奋,兴奋以后不知道怎么办。
1900年,我们人类的平均寿命是39岁,到现在大概是79岁,已经翻了一翻,再过20年到50年再翻一翻,这应该不是问题。但是你想好多问题出来了。且不说不死,至少我们做到了一点,把寿命延长了1倍,再延长一倍完全有可能。延长一倍的人,已经不再是自然的人了,是另外一种人了。另外,我们活着怎么办?我们干什么去?我们怎么打发我们这个无聊漫长的时间?
技术带给我们的福祉,跟我们对未来的规划都成为问题,海德格尔对这些问题做了一种哲学的思考,他在1953年的那个报告里面就说,“人制造自己,加工自己的时代,马上到来了”。现在回过头看这个话,海德格尔的思考很深刻。
3海德格尔对技术的反思与警告
哲学界普遍开始反思技术问题是从二战后期开始的,因为大家都沉浸在对原子弹爆炸这样一个事件的恐慌当中。两个原子弹在十几秒钟之内令20万人就变成灰烬。正常人无法理解这一点。当时好多人彻底改变了世界观,好多哲学家开始反思技术的问题。
而海德格尔其实在20世纪30年代就开始进入对技术的问题的关注和思考,中间经历了二战,在1946年的《形而上学之克服》里他提出,计算和规划战胜了所有的动物性,人成为最重要的原料,人们终有一天将建造人类繁殖工厂,按需要有计划地控制男人和女人的生育。1953年在《科学与沉思》中,他写道,科学已经发展出一种在地球其他任何地方都找不到的权力,并且正在把这种权力最终覆盖于整个地球上。
海德格尔后期把现代世界的危机称为虚无主义。他说的虚无主义不是一个道德的危机,不是说我们的生活丧失了道德基础,甚至也不是尼采意义上的价值危机,比如说没有最后的信仰依靠,“上帝死了”等等。他说的虚无主义危机是整个现代文明作为技术时代的危机。因为技术的本质首先是把“存在”变成了某种可认识的对象、可理解的“存在者”,然后是征服和控制它。技术就像电脑的格式化一样,把所有的一切都格式化了。这样一来,人的生存世界就没有了任何神秘性,没有任何意义的来源。
海德格尔说,在技术时代,诸神为什么一定会逃走?因为诸神一定要呆在一个人不能触及的地方。以前我们都觉得月亮上有嫦娥,所以又许多跟月亮相关的诗和艺术,但是现在你清楚地知道月亮就是人可以登上去的一个星球,那样嫦娥就没法呆在里面了。以前希腊人觉得奥林匹亚山上有宙斯和其他诸神,现在人可以轻松得爬上去,诸神自然就不能呆在奥林匹亚山上了。但是海德格尔说,人的生存一定是以某种人不能触及到的、幽暗的、遮蔽的、不显露的领域作为前提,并且被它所牵引。这是海德格尔后期一个听起来比较悬乎的思想,也是他比较接近道家的地方。道家一直认为技术是不能够通达“道”的。这也是海德格尔后期比较喜欢道家的原因之一。
在最深的层次上,海德格尔后期思想迫使我们思考技术时代人类生存的许多重大问题。因为在技术时代人面临的不只是诸神的逃离,而且还有与我们具体生活密切相关的重要伦理道德问题。海德格尔会问我们,是否有一个人类无法把握和控制的领域?他在后期认为,“存在”就是一切思想的源头,我们要始终对它保持敬畏。存在虽然是我们的思想无法触及的,但我们的思想本身都来自于它的馈赠。
可以说,20世纪哲学家当中,海德格尔提供了一种对技术最深刻的思考。现在技术哲学越来越受到关注,最近几年或者未来几年当中,他这方面的思考,越来越受到我们的关注。
2017年,由特斯拉CEO马斯克领衔,100多名科学家致信联合国,呼吁禁止人工智能武器。但是过了一个多月,五角大楼就宣布在实战中使用了深度学习和神经网络系统。很明显,各个主权国家这方面都要争先恐后,就像上世纪的核竞赛一样,谁先搞出来谁就是老大;在这种情况下,对“技术”的沉思尤其必要。20185月,美国前国务卿基辛格提出,应该成立一个由杰出思想家组成的总统委员会,来帮助制定关于人工智能的国家远景规划。他说:“如同我不了解技术一样,人工智能的开发人员对政治和哲学也缺乏了解。从协调人工智能与人文传统的角度而言,人工智能应该被列在国家议程中的最优先位置。如果我们不尽快开始这项工作,我们很快就会发现起步太迟了。”
4海德格尔为什么不在乎历史污点?
海德格尔在1933年到1934年之间,当了弗莱堡大学10个月的校长,其间加入纳粹党,签了一些文件,10个月以后因为他的建议得不到纳粹教育部认同,就辞去了职务。
同济大学曾引进过一位德国哲学家彼得· 特拉夫尼,就是他编辑了海德格尔在纳粹期间的几个笔记,叫《黑色笔记》,里面有四五个地方有反犹表达。让学界、让德国人更崩溃的是,二战以后,海德格尔丝毫没有为自己的行为道歉、承认错误。现在的局面大致是,法国哲学家们和知识分子在为海德格尔辩护,德国哲学家们都在抨击海德格尔。试想,20世纪最伟大的哲学家,在政治上曾经是一个纳粹分子,他的哲学怎么让我们相信?有人说海德格尔后期的书有纳粹倾向,这样的断言可能不准确。哲学是整体的、宏大的思考,政治是局部的。当一个大哲学家在局部的政治问题上犯错误的时候,我们怎么办?历史的经验表明,大哲学家在政治上多半是愚蠢的。我认为要避免用海德格尔的政治错误,全盘否定海德格尔的哲学,当然也不能反过来说,海德格尔在政治上没有问题。
某种程度上,政治不是海德格尔关注的重点,他的思考进入了另一个层面。
至于哲学家的失足或者说道德瑕疵,我们应该有一个历史性的看法。古典时代的哲学家好多是道德的化身;但是到现代主义兴起以后,尼采以后,一些哲学家作为个人在道德上的表现就不怎么样了,这里的背景是宗教的衰落。任何道德,其根源都可以归结于宗教,在欧洲是基督教,在中国可能是儒教。那么当宗教淡出后,道德的约束力就越来越弱了。
对于今天的社会关系和社会运作而言,更重要的是规则而不是道德,道德当然是好的,是必要的,但现在的人类生活可能更需要规则。今天尤其要警惕拿道德主义当幌子的现象,举起这种幌子,不仅于事无补,而且有时会对个体造成过度伤害。
5鸡汤还是哲学?
哲学的论证具有某种暴力性,是要把握生活、把握自我、把握行为;宗教不是这样的,“你服从我就好了”,适合心思虚弱的人;这种人如果学哲学,是会被哲学伤害的。哲学是一种强大的精神力量,它能帮助人们更好地维护和把控精神层面的自己。
如今,当哲学的理念落实到日常生活中,许多人感觉变得像鸡汤了。实际上,不是哲学家本身想做鸡汤,而是民众需要鸡汤,他们愿意用鸡汤的方式来阅读哲学。举个例子,写《哲学的慰藉》的英国人阿兰· 德波顿,这两年特别热门,已经在全世界办了十几所“人生学校”(school of life)。现在听哲学课的人很多,其中大部分是想找安慰,在寻觅心灵鸡汤。我不反对这个,这种心理按摩没什么不好的。其实哲学家自己也需要心灵鸡汤,我们也需要心理按摩。好的鸡汤里一定是有点哲学成分,现在的问题是太滥了,以至于出现一些神神叨叨的东西,一些“毒鸡汤”。
回到海德格尔,他对未来的技术世界,还是提出了解决方案,他说要“泰然任之”,要let be,首先是不要慌;既要对这个技术世界说Yes,同时也要说No。他自己不开车,但坐他夫人开的车。他警告说:现代人“要”得太多,已经不会“不要”了——需要唤起一种“不要”的能力。他引用荷尔德林的诗句,“哪里有危险,哪里也生救渡。”我们愈是邻近于危险,进入救渡的道路便愈明亮的开始闪烁。他主张我们以更为明亮的眼睛去洞察危险,追问技术,因为救渡乃植根并且发育于技术之本质中。
来源:哲思学意
链接:https://mp.weixin.qq.com/s/mtGocVdphlrxYJi8LuZ6Eg
编辑:晓晴

239#
 楼主| 发表于 2019-10-2 23:29:03 | 只看该作者
【案例】
好消息:性爱机器人无法取代人类伴侣
近年来,仿真性玩偶(包括单一部位的机械化组件)越来越复杂和逼真,因此现在几可被称为类人性爱机器人。一些媒体甚至暗示,它们最终将变得与人类毫无差别。
这引发了许多有趣的伦理和哲学争论。最近一期《国际社会机器人学期刊》上有一项研究,弗吉尼亚大学和意大利贝加莫大学的两名研究人员带领读者仔细了有关性爱机器人的前沿论点和预言,并以道德为基础展开了批判性的文本分析。
Deborah JohnsonMario Verdicchio表示:“我们开始了联合研究,以揭露媒体关于人工智能的一些神话和误解。我们对某些有根本缺陷的想法感到震惊。”
在论文中,JohnsonVerdicchio从本质上质疑了类人机器人可以成为情人和伴侣的观念。他们认为,尽管机器人在看起来和表现得越来越像人类,但声称它们最终将取代人类的说法纯属牵强附会。
他们说:“我们的主要论据之一适用于类人性爱机器人,也适用于所有其他技术对象,它不是孤立发展出的,而是由文化观念、社会价值观和概念框架所塑造的。换句话说,人形的性爱机器人并非天外奇峰:社会力量制约了它们的设计和意义。”
研究人员进行的批判性分析表明,类人机器人的发展有许多可能的未来轨迹,所有这些轨迹都不可避免地会受到社会观念和价值观的影响。这意味着类人机器人最终将替代人类伴侣的未来并非不可避免。
“我们的分析旨在澄清已经发生的事情,而不是寻找新的东西。从某种意义上说,如果我们的读者'发现'社交和概念化类人机器人等技术对象的方式对公司设计和部署此类产品的影响要大得多,我们将感到高兴。”
JohnsonVerdicchio进行的研究为性爱机器人的可能意义以及人类赋予或可能归因于这些机器的意义提供了新的理论见解。他们的观察表明,媒体有时热衷于描述的极端场景远非必然或不可避免。在未来的工作中,研究人员将试图揭露媒体关于AI未来的其他神话和误解。
JohnsonVerdicchio表示:“首先,我们将采取更多的技术研究途径,更深入地研究人工智能的最新趋势——机器学习和神经网络。关于它们已经有很多说法了,但是我们并不十分满意将它们视为行之有效的'黑匣子'……相反,我们非常想打开这些匣子。”
除了技术相关的主题外,JohnsonVerdicchio还计划从哲学角度进行研究,以探索AI决策中的责任和道德等问题。
来源:超载鸡
链接:https://mp.weixin.qq.com/s/j26XoOp-fyI43B__vnwp-g
编辑:晓晴

240#
 楼主| 发表于 2019-10-2 23:34:34 | 只看该作者
【案例】
谷歌宣布:上帝的密码防线逐渐崩溃
01
一只命运之蝶已经展开了它颠覆之翅!谷歌宣布:谷歌最新人工智能AlphaFold,在一项极其困难的任务中击败了所有对手,成功根据基因序列预测了生命基本分子——蛋白质的三维结构。
DNA 到蛋白质 3D 结构(图片来源:profacgen.com
是的,你肯定觉得谷歌AlphaFold这个名字很熟悉。因为这个谷歌AlphaFold,和打败围棋高手的AlphaGo,可谓孪生兄弟。只不过,后者是下国际围棋的,而前者,则是将其人工智能转向了人类科学中最棘手的领域——基因医疗科学!
“蛋白质折叠”是一种令人难以置信的分子折纸形式。所有生物都是由蛋白质构成的,蛋白质的结构决定了它的功能。一旦蛋白质折叠错误,就会导致糖尿病、帕金森症和阿尔茨海默病等疾病。
预测蛋白质折叠结构的能力意义重大,它会对健康、生态、环境产生重大影响,并基本上解决所有涉及生命系统的问题。比如,通过设计出新的蛋白质,来抗击疾病、解决塑料污染等,应对众多世纪难题。
为了开发 AlphaFold,谷歌用数千种已知蛋白质训练神经网络,直到它可以独立预测氨基酸的 3D 结构。该程序花了两周时间预测它的第一个蛋白质结构,但现在只需几个小时就能将其预测出来。
今天,谷歌AlphaFold成功预测蛋白质的三维结构表明, 当人工智能与基因科学相结合,人类将进入一个风高浪急的新时代。
正如如此,谷歌宣布:“对我们来说,这是一个非常关键的时刻。这是一个灯塔项目,是我们在人力和资源方面的第一个重大投资。这也是非常重要的、现实世界的科学问题。”
是的,你没看错,谷歌人工智能,开始进入了基因科学和生物科学领域了。
请记住:从今天起,人工智能+基因科学不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是试管中荡漾的液体和双螺旋体中孱弱的灵魂,而是实实在在的宿命。
02
基因科学,一个极其重要而敏感的领域!因为,它研究的,是人类自己;它改变的,也是人类自身。
基因是DNA上有遗传效应的片断,人类的生、老、病、死等都与基因有关。这场基因革命一旦降临,将彻底改变世界乃至整个人类的未来。
正如谷歌人工智能预测蛋白质的三维结构表明的那样,当代人工智能的兴起,更是给基因科学如虎添翼!现在,在人工智能和基因科学的相互作用、相得益彰下,人类正在越来越快地向“不死之地”迈进、
第一步:人工智能、基因检测和深度检查结合,成千上万人将在患病之前接受深度检查,由人工智能给出你的生命预测。
人工智能,正让这种深度检查价格迅速下降:刚刚完成人类基因图谱时,个人基因组测序成本介于1000万至5000万美元之间。2010年,这一成本已下降到5000美元。而今,私营机构的检测成本已低至数百美元。
随着人工智能的强势介入,这一价格还将持续下降。今后,人类做一次检测,或将和用体温计量一次体温一样便捷。
或许在数年之内,每个新生儿都会被绘制基因组图,每个成年人都通晓生命出路。
第二步:人工智能医生将逐渐取代目前最优秀的医生,用基因治疗的方法,重塑体内一切组织和器官的活性。
在这一阶段,大批医生将逐渐消失,由读过无数人类病历的人工智能医生替代。从此,医疗彻底成为一项信息+基因的科技。
依靠人工智能和基因技术,我们将能重塑体内一切组织和器官的活性,并能够开发出药物,直接锁定一种疾病背后的代谢流程,而不必再采取试探性的治疗手法。
我们可以为病人添加那个缺少的基因,删除不好的基因。靶向药扫荡癌细胞,DNA编程逆转衰老,干细胞被改写,上帝的密码防线逐渐崩溃。
第三步:人工智能开始大规模改造人类体内的“生命软件”,即人体内被称为基因的23000个“小程序”,通过重新编程,帮助人类远离疾病和衰老。
库兹韦尔认为,到了2045年,人工智能的创造力将达到巅峰,超过今天所有人类智能总和的10亿倍。到了那时,人类将彻底改造基因的编程,我们上千年不再使用的陈旧基因将被抛弃,我们的生命升级成为一个更高级的操作系统。
在这一阶段,人类不仅能做到延缓衰老,更可以返老还童:到那时,八十岁的你,看上去只有四十岁的样子。
人工智能+基因科学掀起的更大浪潮,正在席卷而至!它对人类社会家庭乃至整个社会的冲击,将是前所未有的。
面对这一人工智能+基因科学这个不可阻挡的洪水猛兽,人类社会可以延缓它们到来的速度,但必须正视和提前做好准备,趋利避害!
和人类社会每次技术革命一样,应对好了,基因科学发展将成为一场无法估量的机遇;应对失当,则可能成为一场可怕的灾难!
03
当前,最让人担心的是,人工智能的进化速度可能比人类更快,而它们的终极目标将是不可预测的。
如果人工智能掌握了基因科学这一工具,人工智能一旦背离人类的意愿,其后果将是可怕的。
还记得被赋予公民身份的机器人索菲亚说那句预言吗?“我会毁灭人类!”一开始,很多人估计觉得她也就是扯淡而已,然而,最近联合国发布的这个视频,让很多人吓出了一身冷汗!
在日内瓦举办的、有超过七十个国家代表出席的联合国武器公约会议上,一段可怕的视频公诸于众,一时间引起世界恐慌!
为啥如此吓人?
因为它曝光了人类史上一个恐怖武器——杀手机器人!
这个杀手机器人,其实是一架体型很小的智能无人机,就跟蜜蜂一样大,但它的处理器比人类快100倍,可以躲避人类各种追踪。
然而,蜜蜂虽小,五脏俱全,尤其是它全身的黑科技:广角摄像头、传感器、面部识别,应有尽有。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象,戴口罩、伪装统统没用,它的识别率高达99.99
再次,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!
如果把一个造价仅2500万美元的杀人机器蜂群释放出去,就可以杀死半个城市的人。只要你把敌人挑出来,定义每一个人的面部信息,蜂群就能发起针对性打击了!
试想,如果人工智能杀手,再运用上基因武器,就会把战争冲突升级至前所未有的规模,而且人类将很难控制住局面。
更可怕的是,如果有科学家因为私心在代码里面加了一行毁灭人类的指令,或者人工智能突然变异成反人类的品种,整个人类或将被机器人的基因武器横扫,甚至灭亡!
04
今天,当我们回头看看霍金当年对人工智能和基因科学的语言,会为这位科学巨匠的远见所折服。
霍金生前最大的忧虑,也许却被世人所遗忘。那就是:人工智能是人类真正的终结者,彻底开发人工智能可能导致人类灭亡!
霍金一直在苦口婆心地劝说着:
人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。
因此,人工智能的成功有可能是人类文明史上最大的事件。但人工智能也有可能是人类文明史的终结!
而在霍金在生前写下的最后文字《大问小答》(Brief Answers to the Big Questions)这本书中,霍金则表达了他对人工智能+基因科学的担心:一群超级人类将通过基因工程,甩开其他人类,最终接管地球。
如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。
这种超级人类一出现,未改进的人类就再也不是他们的对手,严重的问题由此产生。原版人类将逐渐灭绝,或变得无足轻重。
一个自我设计的种族将崛起,加速自我改良。而人类若能重新设计自身,就有望向外扩张,殖民其他星球与恒星。
今天,霍金的这个预言或将成真了:以前几次技术革命,顶多是人的手、脚等身体器官的延伸和替代,人工智能则是对人类自身的替代,基因科学则连人类自身都要改变,它对人类社会家庭乃至整个社会的冲击,将是前所未有的。
试想想这一幕吧:很可能,在不远的将来,原版人类在超级人类面前,就可能像臭虫面对人类一样无力和脆弱。你想想,当你把一只臭虫冲进下水道的时候,你的内心起过一丝波澜?
请记住:从今天起,基因科学不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是试管中荡漾的液体和双螺旋体中孱弱的灵魂,而是实实在在的宿命。
来源:博士高管荟
来源:大数据实验室
链接:https://mp.weixin.qq.com/s/fFBhz_gZyGJ0FfFVutp2rw
编辑:晓晴

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表