传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
61#
 楼主| 发表于 2019-5-22 22:41:41 | 只看该作者
【案例】人工智能产业寻找商业化“落地”之路
文章来源:FT中文网
技术生态如何转化出更多的商业场景和应用,并被市场验证,形成可持续的发展与生存链条?行业中人仍在求解答案。
人工智能技术如何实现商业化“落地”? 关于这一问题的追问正变得日渐迫切。

在不久前于伦敦闭幕的“人工智能与大数据博览会”(AI & Big Data Expo) 上,“场景”、“应用”之类的词语,取代了诸多理想主义式的叙事,成了人工智能领域的从业者们谈论最多的话题。

历经两年的蓬勃兴起,这个产业已经在热钱和数据的哺育下,发展成一副布局蔚为壮观的图景。然而在今天的互联网时代,“方生方死”几乎是每个行业的命运主题,如今的人工智能产业,也正在面对类似的拷问。

其中那个最核心的问题,答案仍不清晰:一个由超强算力、海量数据和精英从业者构成的技术生态,能否从产业的基底层向垂直领域延伸,转化出更多的商业场景和爆款应用,并进而被市场验证,形成可持续的发展与生存链条?求解这个疑问,既意味着抱负,也意味着生死。

交流之中不难发现,从大型银行到初创企业,行业对于人工智能技术的预期,正趋于理性和具象。他们的观察和思考,也更加聚焦于对技术边界的界定、和对基本商业逻辑的回归。

靠金矿赚钱?还是靠淘金者赚钱?
“企业需要思考一个问题:究竟是想通过金矿赚钱,还是想通过淘金者赚钱?”

世界领先的企业管理软件服务商SAP的全球副总裁Marc Teerlink,将今天AI技术的产业化进程,比作1848年开始的美国加州淘金热。他强调,在那场人类史上最大规模的淘金浪潮中,只有少数人真正靠挖掘黄金而致富。最终产生经济效益的,反而来自于那些向淘金者们提供餐饮食宿、贩卖镐头铁锨,甚至研发牛仔裤的生意。

这对今天有什么启示?Marc Teerlink认为,在眼下这场以“智能”之名发起的数据淘金热潮中,多数企业并不需要从零做起研发AI技术的底层模型和算法,而是应该思考如何利用AI技术。

“数据是一种资产,AI是开发资产的引擎。但(今天)只有5%的企业承认他们在数据化转型中取得了成功”,在接受FT中文网的采访时,Marc Teerlink表示,“直到今天,很多AI领域的企业还在研发自己的生产工具和生产流程。但是随着AI淘金者越来越多,人们更应该注重增强自己所擅长的专业领域,而不是埋头于底层基础架构。”

这同时也意味着,认为人工智能必然颠覆传统产业的观念,同样需要得到反思。在Marc Teerlink看来,AI技术更为实际的角色,是成为传统产业优化资源配置、重构产业链条和数字化升级的助力性工具。其中蕴含的商机包括诸如数据训练、软件工具、咨询和整合服务等业务。

“AI并不是全新的事物,人们想做的仍然是他们业已熟悉和了解的事情,只是希望能做的更快、成本更低、并且通过更数据化的方式来完成。因此即便是对那些以数据为核心的企业而言,最好的商业化之路,还是去寻求能够运用好数据的技术和模式”,Marc Teerlink说。

关键要素是数据
即使是在AI时代,传统企业在各自的细分产业、细分区域市场仍将具有不可替代的竞争优势,这一观点正在被更多人所认同。但这并不代表,初创型的AI企业没有做大做强的机会。

“今天AI创业的最大机会在垂直应用领域”,来自中国AI创业公司乂学教育的崔炜对FT中文网表示。

崔炜是乂学教育旗下产品“松鼠AI”的首席科学家。在他看来,在今天的中国市场中,AI技术的商业版图已经十分明晰:为整个产业提供算力的“基础层”,与提供通用技术能力的“技术层”,均已被巨头公司或者技术成熟的企业牢牢占据。而崔炜和他的团队之所以押注垂直应用,理由是“巨头企业无法触及到这么细分的领域中来”。

据崔炜介绍,“松鼠AI”是一款针对K12教育领域的在线平台,致力于通过人工智能,为从学前教育到高中年龄层的学生提供个性化、系统性的学习内容和服务。按崔炜话讲,产品的定位就是做教育领域的“今日头条”。

“在教育和医疗这样的传统领域,有很多‘根深蒂固’的行业模式,不是随便一个科学技术就能改变的。否则早在移动互联网时代,这些领域的变革就已经发生了”。

然而在AI时代,这正好成了创业者的机会。在崔炜看来,在技术的商业化过程中,AI的四大要素:算法、算力、数据、场景,缺一不可。这其中最难获得的就是数据:“差异化的数据是需要一个产品来解决、梳理的。而且做成什么样的产品,就要采集什么数据”。

数据的转化,是商业化过程中的另一个关键要素。崔炜介绍:“AI实质上是模拟人脑的思维过程,模拟人的行为。其中需要科学家构建算法和模型;同时还要有了解行业的专家,负责把行业的经验解释给科学家,帮助后者思考模型需要模拟什么;接下来就是产品化的开发;积累的用户数据又能反过来不断强化、训练模型,让产品更完善。”

崔炜表示,对垂直应用领域的AI创业公司来说,建立壁垒的方式就是更精细的用户建模和更个性化的产品设计。在教育行业,就是“如何对用户进行画像,如何分析学生的学习状态,如何根据学生的学习情况,从海量学习资源中匹配学习内容和模型。”

商业化落地的挑战在哪里?
致力于将AI学术成果向商业转化的英国公司Faculty的首席商务官Richard Sargeant认为,在垂直应用场景中实现商业化落地,是小型AI初创企业的优势所在。

他对FT中文网表示:“在实际的垂直市场应用层面,大型科技企业实际上很难提供精准的客户服务。他们更擅长研发通用算法和技术,让尽可能多的用户都能够适用。但是现实的经济是一个非常多样化的世界,需求是非常不同的,这反而是小企业的优势。”
那么深入垂直领域的挑战在哪里?

“我们是第一个吃螃蟹的人,面临的难点是要做市场普及”,专注AI教育技术的崔炜表示:“就像第一代苹果手机已经带来了颠覆,但直到第四代iPhone,产品才能成为市场主流。对教育行业而言,大部分家长还是更信赖老师,因为老师有个人信誉在那里。而一个机器,它的教育水平还没有形成口碑。”

然而与智能手机等硬件产品不同,AI技术所提供的是更为抽象的服务和体验,这似乎也意味着消费者教育的周期与方式,存在更多不确定性。

对此崔炜表示,这是人工智能产品面对的另一个难题:“手机产品能开一个发布会,但是一个教育产品的体验,需要更长的周期。教育只有一个关键点,就是口碑。而(在中国)好的教育口碑的形成,最直接的还是中考和高考成绩。”

对于如何迈出AI商业化的第一步,传统企业也同样谨慎。英国Lloyd 银行集团商业整合与应用科学主管Abhijit Akerkar表示,AI技术在企业层面的应用,需要考虑如下因素:回报有多大?是否掌握了正确的数据?能否被监管机构批准?应用模式是否已有先例验证?以及,人们的预期有多大?应用落地后会不会在短期显现影响?

Abhijit Akerkar说:“这些因素的可以帮助确定行动的优先级,企业对AI的心态更像是一个风险投资人。可以先采用小规模尝试,如果结果是积极的,那么加倍投入”。

编辑:吴悠

62#
 楼主| 发表于 2019-5-24 19:04:40 | 只看该作者
【案例】人脸识别技术在英国被起诉

文章来源:数据法律资讯

英国首例警用人脸识别案于近日开庭。

案件当事人Ed Bridges以众筹的方式提起诉讼,其诉称南威尔士地区警局使用人脸识别技术侵犯了他的隐私。他同时主张,在加的夫民事审判与家事中心的持续三天的审讯违反了数据保护与平等法。人脸识别技术能够将人群的个体面部图像与“监视清单”中的图像进行比对(监视清单中包含了嫌疑人、失踪人员以及相关人员的图像)。警务人员希望通过此项技术减少犯罪,然而公益组织则主张人脸识别技术侵犯了个人隐私和公民权利。
2017年在欧冠总决赛时期,威尔士警局首次使用了人脸识别技术。Bridges声称他至少被扫描了两次——第一次是在一项平和的反枪支抗议活动中,另一次是在圣诞节购物中。

代表Bridges的公益组织“自由”,声称南威尔士警局在大约50种场合使用了人脸识别技术。该组织同时声称,公开的信息显示在人脸识别技术被投入使用的第一年,其精确度不足9%。警局回应道,在司法审查结束前,他们将不发表意见。

大都会警局也在伦敦适用了若干次人脸识别技术。流传于网络的一个视频显示,某男子因为在镜头前遮挡面部,而被施以90英镑的罚款。此项惩罚广受批评,虽然直到现在也没有弄清该男子究竟是因为遮挡面部还是因为与公务人员发生争执而被罚款。

此项技术在美国也饱受争议。乔治城大学的一向研究报告显示:当涉及到什么样的照片可以由警察呈递给人脸识别算法以生成调查指引时,无规则可循。结果便是,当纽约州警局发现他们没有某个嫌疑人的可供匹配的照片时,竟然尝试将演员伍迪哈里森的照片放入,因为他们认为这两人长得很像。

本月初,旧金山投票已禁止使用人脸识别技术,这项技术被一些活动家称为“老大哥技术”。
人脸识别技术是如何工作的?

由伦敦大都会警局所试用的该项技术(该项系统被称为“NeoFace”,由日本NEC公司制造),首先利用独特的相机来扫描人群中的人体面部结构,生成数字图片,然后与“监视清单”中的图像进行对比,“监视清单”由被纳入警方监管的目标人群的图像组成。
并不是所有被纳入警方监视清单中的人都是通缉要犯,因为清单中也包含了那些失踪人员和其他相关人员。如果匹配成功,那么相机旁边的公务人员就会被警醒。

为什么此项技术备受争论?

公益组织的活动人士认为,人脸识别技术侵犯公民权利。此次诉讼的推动者—公益组织“自由”声称,扫描并储存我们的生物信息,是对隐私的粗野的侵犯。

“老大哥监察者”,这个关注个人隐私与公民权利的组织说道,“直播式的人脸识别技术使得个体成为了行走的身份证,这实在是令人寒心!”
编辑:吴悠

63#
 楼主| 发表于 2019-5-26 21:51:19 | 只看该作者
【案例】如何确保人工智能不作恶?微软提出透明、负责等6个道德准则

文章来源:澎湃新闻

人工智能浪潮以迅猛之势席卷全球,一方面给经济社会的可持续发展带来了巨大的机遇,另一方面,安全、隐私、偏见、垄断等问题也随之而来。

7月9日,由中国发展研究基金会与微软公司联合撰写的《未来基石——人工智能的社会角色与伦理》报告在北京发布。

报告称:“如果我们决心要利用人工智能带来的无限机遇,最好在冲进未知之门之前给这辆汽车装上刹车,让它真正能行稳致远。这个刹车就是伦理规范和公共政策准则。”

在深度学习、云计算以及芯片、传感器技术的帮助下,人工智能成为马力惊人的社会发展加速器,带着全球向充满不确定性的未来疾驰。但在高速发展的过程中,一些担心也随之而来。
例如,人工智能技术是否会扩大贫富差距;如何确保人工智能技术不会武器化,如何防止某些公司对技术的滥用等。

在国家层面,人工智能的伦理问题已经引起了越来越多的关注,出台了一系列的政策指引和准则。日本的一个跨专业团体曾发布《下一代机器人安全问题指导方针(草案)》,韩国政府早在2007年就着手拟订《机器人道德宪章》,美国信息技术产业委员会(ITI)也于2017年颁布了人工职能的14条政策准则。最近,欧盟出台了史上最严格的史上最严格数据保护条例——《通用数据保护条例》(General Data Protection Regulation,简称GDPR),旨在加强对数据的保护。

在公司层面上,硅谷的一些巨头科技公司深有感触。此前,由于和美国国防部有军方合作项目,亚马逊、微软、谷歌等公司遭到外界的诟病。有媒体指出这些公司正利用人工智能技术助纣为虐,是在作恶。尤其是谷歌的Maven项目(编注:该项目主要指谷歌利用机器学习技术帮助美国国防部分析无人机视频,识别物体),这个人工智能项目受到公司内部和外部的指责,谷歌内部甚至出现了离职潮。

在内外舆论的压力之下,谷歌公司已经申明,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。

微软也给出了自己的答案,提出要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此提出6个道德基本准则,包括公平、包容、透明、负责、可靠与安全、隐私与保密。其中,透明和负责是其他四项原则的基石。

微软提出的6个道德基本准则

具体原则为:

公平:人工智能系统应当以公正、一致持平的态度对待每一个人,而不能对情况类似的群体施以不同的影响。

可靠:人工智能系统应确保运行可靠、安全,避免人工智能系统可能会在不可预见的情况下造成伤害,或者被人恶意操纵,实施有害行为。

隐私与保密:人工智能系统应当有保障且尊重隐私,这是赢得公众必要信任的条件,而公众信任又是充分利用人工智能的前提。
包容:人工智能系统应确保人人赋能、人人参与。要确保人工智能技术造福、赋能每一个人,这些技术必须考虑并解决广泛的人类需求和经验。

透明:人工智能系统应易于理解。一旦人工智能系统被用于做出影响人们生活的决策,人们就有必要了解人工智能是如何做出这些决策的。

负责:与其他技术和产品一样,设计和部署人工智能系统的人员必须对其系统的运行负责。

除了提及人工智能在伦理道德方面的发展约束外,这份报告中,也对中美两国人工智能发展情况进行了描述。

报告认为,美国和中国在人工智能领居于全球前列。目前,全球人工智能领域最有影响力的大学和企业主要分布在美国,在核心人才的培养上也是如此。从累计的专利数量和研究论文数量看,美国遥遥领先于世界其他国家,中国则在数量增长上后来居上,但质量上与美国还有较大的距离。

在产业层面,美国和中国也居世界前两位。截止2017年6月,全球2542家人工智能企业中,美国有1078家,占42%,中国592家,占23%,其余872家企业分布在瑞典、新加坡、日本、英国、澳大利亚、以色列、印度等。基础层企业美国有33家,中国有14家;技术层企业数量,美国有586家,中国273家;应用层企业美国有488家,中国有304家。

编辑:吴悠

64#
 楼主| 发表于 2019-5-26 22:00:28 | 只看该作者
【案例】欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 的指路明灯

文章来源:再建巴别塔
  欧盟委员会发布了由人工智能高级专家组(AI HLEG)编制的《人工智能道德准则》(AI Ethics Guidelines)草案,指出 AI 的发展方向应该是「可信赖 AI」,即确保这一技术的目的合乎道德,技术足够稳健可靠,从而发挥其最大的优势并将风险降到最低。该准则旨在为 AI 系统的具体实施和操作提供指导。《准则》最终版将于 2019 年 3 月发布。
  

执行摘要

  人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来的收益大于风险。我们必须遵循「最大化 AI 的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的 AI 发展方向,时刻铭记 AI 的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖 AI」(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从 AI 中全面获益。

  「可信赖 AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了「可信赖 AI」的基本框架:

  
  「可信赖 AI」框架

Chapter I :确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。

Chapter II:关于实现「可信赖 AI」的指导原则,同时强调 AI 发展目的的道德性和技术稳健性。这部分列出了「可信赖 AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)

Chapter III:提供「可信赖 AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。

与其他有关 AI 伦理道德的文件相比,这份准则的目的不是为 AI 增加一份核心价值观和原则清单,而是为 AI 系统的具体实施和操作提供指导。

该准则面向开发、部署或使用 AI 的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。

需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。

参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”

该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:

1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

人工智能,以人为本

欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。

加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”


玛利亚·加布里埃尔解读人工智能道德准则 图自视觉中国

编辑:吴悠

65#
 楼主| 发表于 2019-5-27 16:28:04 | 只看该作者
【案例】
人脸识别技术在英国被起诉
英国首例警用人脸识别案于近日开庭。
案件当事人Ed Bridges以众筹的方式提起诉讼,其诉称南威尔士地区警局使用人脸识别技术侵犯了他的隐私。他同时主张,在加的夫民事审判与家事中心的持续三天的审讯违反了数据保护与平等法。人脸识别技术能够将人群的个体面部图像与“监视清单”中的图像进行比对(监视清单中包含了嫌疑人、失踪人员以及相关人员的图像)。警务人员希望通过此项技术减少犯罪,然而公益组织则主张人脸识别技术侵犯了个人隐私和公民权利。
2017年在欧冠总决赛时期,威尔士警局首次使用了人脸识别技术。Bridges声称他至少被扫描了两次——第一次是在一项平和的反枪支抗议活动中,另一次是在圣诞节购物中。
代表Bridges的公益组织“自由”,声称南威尔士警局在大约50种场合使用了人脸识别技术。该组织同时声称,公开的信息显示在人脸识别技术被投入使用的第一年,其精确度不足9%。警局回应道,在司法审查结束前,他们将不发表意见。
大都会警局也在伦敦适用了若干次人脸识别技术。流传于网络的一个视频显示,某男子因为在镜头前遮挡面部,而被施以90英镑的罚款。此项惩罚广受批评,虽然直到现在也没有弄清该男子究竟是因为遮挡面部还是因为与公务人员发生争执而被罚款。
此项技术在美国也饱受争议。乔治城大学的一向研究报告显示:当涉及到什么样的照片可以由警察呈递给人脸识别算法以生成调查指引时,无规则可循。结果便是,当纽约州警局发现他们没有某个嫌疑人的可供匹配的照片时,竟然尝试将演员伍迪哈里森的照片放入,因为他们认为这两人长得很像。
本月初,旧金山投票已禁止使用人脸识别技术,这项技术被一些活动家称为“老大哥技术”。
人脸识别技术是如何工作的?
由伦敦大都会警局所试用的该项技术(该项系统被称为NeoFace”,由日本NEC公司制造),首先利用独特的相机来扫描人群中的人体面部结构,生成数字图片,然后与“监视清单”中的图像进行对比,“监视清单”由被纳入警方监管的目标人群的图像组成。
并不是所有被纳入警方监视清单中的人都是通缉要犯,因为清单中也包含了那些失踪人员和其他相关人员。如果匹配成功,那么相机旁边的公务人员就会被警醒。
为什么此项技术备受争论?
公益组织的活动人士认为,人脸识别技术侵犯公民权利。此次诉讼的推动者—公益组织“自由”声称,扫描并储存我们的生物信息,是对隐私的粗野的侵犯。
“老大哥监察者”,这个关注个人隐私与公民权利的组织说道,“直播式的人脸识别技术使得个体成为了行走的身份证,这实在是令人寒心!”

来源:数据法律资讯

来源:微信公众号“您懂的”
链接:https://mp.weixin.qq.com/s/icOXcLauT0Jr-QJqkPTiHw

编辑:马晓晴

66#
 楼主| 发表于 2019-5-29 11:24:57 | 只看该作者
【案例
中国报业第三届大会

链接:
https://writer.giiso.com/m/share.html?id=615056&originType=1&uid=11734&newsType=1&title=%E4%B8%AD%E5%9B%BD%E6%8A%A5%E4%B8%9A%E7%AC%AC%E4%B8%89%E5%B1%8A%E5%A4%A7%E4%BC%9A&author=%E9%A3%98%E5%9C%A8%E5%8D%97%E6%96%B9%E7%9A%84%E9%9B%AA&time=2019-05-29%2010:05:09&from=groupmessage&isappinstalled=0
编辑:马晓晴

67#
 楼主| 发表于 2019-6-4 21:04:02 | 只看该作者
【案例】
AI技术,给影像带来了什么?
从科幻电影《终结者》系列到AlphaGo战胜柯洁,人工智能(AI)从1956年正式提出起,经过了半个多世纪的发展,逐渐将理论科幻应用到了现实。
曾经关于人工智能,社会还掀起了一场“行业是否会被取代”大讨论。即便当时我们得到了肯定的答案,但综合各方报道,人工智能仍有很长的路要走。
昨晚,微博上有人分享了一个关于人工智能的话题:#AI修复的十六岁的林徽因#。今天一早就上了热搜,并且坐稳了热搜榜第二名。
拍者君看到修复后的林徽因照片,虽然与原片比清晰度高了,但是跟帖的评论却不买账:
@芋圆珍奶:无语死,大家百度一下好嘛,这张P得那么网红。
@权小孩and-LJ:怎么跟我书本上看到的不一样[允悲],不过都很好看。
@看见:真的不太像。她虽然五官并不十分精致,但气质比容貌出众太多,以及文化底蕴支撑起来的灵魂,才成就一身诗意的“人间四月天”。
不过话说回来,近几年,人工智能在影像领域,随着计算机运算能力的提升,也取得了不小的进步。本期,拍者君就简单整理了一下,人类在AI影像领域取得的成果吧。
20195月,有媒体报道,位于莫斯科的三星人工智能研究中心的研究人员在一篇论文中指出,他们研发出新的“Deepfake”技术,可以将静态照片中的人物添加不同的面部动作。
这个名叫“Deepfake”的AI技术,首先通过研究分析数据库进行广泛的“元学习”。
研究人员从专门收集人物说话短片的网站VoxCeleb上,取得了7000个样本给AI进行面部特征提取,然后通过训练卷积神经网络,再套用在照片上,生成高度逼真的动态人物头像。但研发人员表示,添加更多的照片有助于生成更惟妙惟肖的效果。
该技术特别之处在于,该算法并不是将一个人的表情完全拷贝到你想创作的那张人脸上,而是使用大多数人都有的面部特征,然后创作出一张会动的新面孔。
当然,也不仅是照片,此项技术也同样适用于肖像画。
美国NVIDIA公司的研究人员在2018年末发表一篇论文称,他们新研发的AI运用GAN(生成式对抗网络)技术,可以产生一些及其逼真的图片。
生成式对抗网络在2014年发明,最初只能生成模糊的人像,如今可以生成以假乱真的图片。
2014年,生成式对抗网络生成的人脸照片。
NVIDIA以一些真人照片作为样本,供人工智能来学习,然后人工智能会从照片中提取不同元素生成新的人物面孔。
除了人物之外,新款 AI 也能生成逼真的宠物、汽车与家居照片。

日本科技公司 DataGrid 20195月份宣布,他们研发出来了全身像的“AI模特”。
该公司宣称,这种新算法是基于 GAN(生成式对抗网络)来生成虚拟人物的高分辨率 (1024×1024) 图像。与之前不同的是,这次生成的是人物全身照。
从样片中可以看出,这些AI生成的全身人像无论男女,在面容、神色、身段还有姿态上都足以以假乱真。
2019年年初,美国NVIDIA公司研发出新的人工智能技术“GauGAN”,它可以将儿童画水平的涂鸦变成逼真的风景照片。
NVIDIA的研发团队称,他们用100万张照片训练人工智能,暂时不知什么时候将产品推向市场。,但他们相信们此项技术可以帮助建筑师等需要创建虚拟世界的行业。
以下是此项AI技术的部分作品



说了这么多,可能觉得人工智能还很遥远。不过低头看看自己的手机,许多人的手机中都有一个AI摄影功能吧。
摄像头拍摄到的画面经过手机强大的运算,可以分析出所处的拍摄环境与光线,自动调整画面,达到更好的呈现效果。
所以说,人工智能在影像上的应用,就在我们身边,并且它会尽力让我们的画面变得完美。
编辑:陈茗

微信图片_20190604205907.jpg (20.59 KB, 下载次数: 52)

微信图片_20190604205907.jpg
68#
 楼主| 发表于 2019-6-12 15:48:10 | 只看该作者
【案例】
微软删除人脸识别数据库,源于“伦理”识别


当地时间2019年5月14日,美国加利福尼亚州旧金山,监控摄像机悬挂在一栋建筑的侧面。旧金山城市监督委员会将就是否禁止政府部门购买和使用人脸识别技术进行投票表决。 图/视觉中国

据报道,近日,微软已经悄然删除其最大的公开人脸识别数据库——MS Celeb。MS Celeb数据库2016年建立,微软描述其为世界上最大的公开面部识别数据集,拥有超过1000万张图像,将近10万人的面部信息。这些数据信息被用于培训全球科技公司和军事研究人员使用的面部识别系统。

根据人工智能论文中的引文资料统计,在微软删除该资料库前,已经有多个商业组织在使用MS Celeb数据库,包括很多知名的互联网企业。所以,此次微软删除这个数据库影响颇大。问题来了,微软为什么要删掉这些人脸数据?

最直接的考虑,就是担心侵犯公众隐私权、“数据权”,产生法律上的风险。据了解,微软是通过“知识共享”许可,来抓取图像和视频中的人脸信息的。在“知识共享”(Creative Commons)许可之下,部分企业、机构可以将照片用于学术研究。

只不过,“知识共享”许可仅来自于图片和视频的版权所有者的授权,而微软并不一定直接得到了照片与视频中人物的授权许可。所以,这些人脸所对应的人,有可能指控微软侵权,从而产生法律问题。

法律问题很重要,但微软删除这个数据库,恐怕还有更深层次的考虑。

人脸识别当然是一项具有很大市场价值的技术。首先,这能带来不小方便。消费者通过“刷脸”解锁手机、进行电子支付,是全球消费电子领域的大趋势。人脸识别在商业上的应用,消费者始终是有选择权的,他们可以选择刷脸识别,也可以选择密码识别。而且,商业上得人脸识别仅仅是为了提供方便,并不意味着要多付出额外的个人隐私信息。

其次,这还可以加强执法力度。人脸识别可用在追捕逃犯、重要场合快速安检等方面。美国海关与边境保护局就利用生物识别摄像头部署人脸识别解决方案。这套生物识别系统推出至今,已帮助识别出7000名签证逾期人员。

但也应看到,人脸识别有可能突破这些领域,侵犯公民权利。作为一家技术公司,微软本身一直在公开反对将这种技术作为政府监督的一种形式。

在2018年12月的一篇博客中,微软呼吁各公司建立保障措施,敦促各国政府立法,要求对面部识别技术进行独立测试,以确保准确性。今年4月份,微软还拒绝了加州一家执法机构的要求——这家机构要求在警车和身体摄像头上安装面部识别技术。

不仅微软认识到这个问题,今年1月,旧金山提出了一项关于监视技术的行政法规——《停止秘密监视条例》,要求该市的政府部门在使用或购买监控技术前征求监事会的批准,并且每年向监察委员会提交监视技术设备或服务的审计报告。该条例特别指出,“人脸识别技术危害公民权利和公民自由的倾向,大大超过了其声称的好处,这项技术将加剧种族不平等,并威胁到我们不受政府长期监控的生活能力。”

技术在飞速的进步,而技术进步必然会对整个社会产生影响。人脸识别技术从出现到普及,仅仅在短短十年之中,这对从个体到整个社会,都来得太快。在这种快速变化的技术面前,社会必然会受到极大冲击。

而如今,人们崇尚的发展,含义更多地偏向了技术发展,却忽略了技术所带来的社会发展。微软删除人脸识别数据库,正是顾虑到技术发展对社会发展有可能的抑制。这对很多领域也是启示:面对一日千里的技术,是该放慢脚步,好好思考一下技术发展带来的各种社会效应了。

刘远举(上海金融与法律研究院研究员)


原文链接:https://kuaibao.qq.com/s/2019061 ... sec_share=sec_share



编辑:董莉


69#
 楼主| 发表于 2019-6-27 15:28:13 | 只看该作者
【案例】

在AI、GE等领域,美国受隐私和伦理的约束,应用发展不快,而中国完全没有这类约束,官方需要这些技术来监控民众。
现代科技越来越多是应用和市场驱动理论创新,而不是传统的理论创新驱动应用和市场,中国人口多、市场大,随意获取海量数据,所以在这些领域崛起。

70#
 楼主| 发表于 2019-6-30 20:45:00 | 只看该作者
【案例中国软件硬核简史

原文来源:中国国际软件博览会

我是一名软件程序员

人称“码农”

每天的工作就是代码+代码+代码……

突然有一天……
编辑:吴悠

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表