传媒教育网

标题: 人工智能与新闻业案例集锦 [打印本页]

作者: 刘海明    时间: 2018-12-17 23:15
标题: 人工智能与新闻业案例集锦
当代社会,技术支撑的这个世界变化有点快,算法、人工智能等技术让人眼花缭乱,新闻业也搭上了这班快车。我们不得不开始收集这方面的信息,以免被时代很快淘汰。





作者: 刘海明    时间: 2018-12-17 23:17
【案例】

你所未知的人工智能应用领域
理查德·格雷(Richard Gray)
·       2017年9月 27日
·       分享平台 微博
·       分享平台 人人网
·       分享平台 电邮
·       分享
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image002.jpg
Image copyright[size=0.875]GETTY IMAGES
对有些人来说,人工智能和机器人技术的普及对我们的隐私、工作甚至人身安全构成了威胁,因为越来越多的任务不是由人脑,而是由硅脑来执行。
ADVERTISEMENT
<iframe frameborder="0" src="https://tpc.googlesyndication.com/safeframe/1-0-31/html/container.html" id="google_ads_iframe_/4817/bbcworldservice.live.site.ukchinasimp/ukchinasimp_vertfut_content_1" title="3rd party ad content" name="1-0-31;9136;[img=1,1][/img]
[img=1,1][/img]
[img][/img]{&quot;uid&quot;:1,&quot;hostPeerName&quot;:&quot;https://www.bbc.com&quot;,&quot;initialGeometry&quot;:&quot;{\&quot;windowCoords_t\&quot;:0,\&quot;windowCoords_r\&quot;:1093,\&quot;windowCoords_b\&quot;:575,\&quot;windowCoords_l\&quot;:0,\&quot;frameCoords_t\&quot;:0,\&quot;frameCoords_r\&quot;:0,\&quot;frameCoords_b\&quot;:0,\&quot;frameCoords_l\&quot;:0,\&quot;styleZIndex\&quot;:\&quot;auto\&quot;,\&quot;allowedExpansion_t\&quot;:0,\&quot;allowedExpansion_r\&quot;:0,\&quot;allowedExpansion_b\&quot;:0,\&quot;allowedExpansion_l\&quot;:0,\&quot;xInView\&quot;:0,\&quot;yInView\&quot;:0}&quot;,&quot;permissions&quot;:&quot;{\&quot;expandByOverlay\&quot;:false,\&quot;expandByPush\&quot;:false,\&quot;readCookie\&quot;:false,\&quot;writeCookie\&quot;:false}&quot;,&quot;metadata&quot;:&quot;{\&quot;shared\&quot;:{\&quot;sf_ver\&quot;:\&quot;1-0-31\&quot;,\&quot;ck_on\&quot;:1,\&quot;flash_ver\&quot;:\&quot;0\&quot;}}&quot;,&quot;reportCreativeGeometry&quot;:false,&quot;isDifferentSourceWindow&quot;:false,&quot;goog_safeframe_hlt&quot;:{},&quot;encryptionMode&quot;:null}" scrolling="no" marginwidth="0" marginheight="0" width="300" height="600" data-is-safeframe="true" sandbox="allow-forms allow-pointer-lock allow-popups allow-popups-to-escape-sandbox allow-same-origin allow-scripts allow-top-navigation-by-user-activation" data-google-container-id="2" tabindex="-1" style="color: inherit; font-style: inherit; font-variant: inherit; font-stretch: inherit; font-weight: inherit; letter-spacing: inherit; line-height: inherit; border-width: 0px; font-family: inherit; vertical-align: bottom;">然而,即便是最直言不讳的批评者,也不得不承认人工智能(AI)和自动化系统为人类带来的诸多潜在好处。作为BBC"FutureNow"专栏大挑战系列(GrandChallenges)的一部分,一组专家为我们详细描述了随着我们所使用的机器变得越来越智能,我们周围的世界正在如何发生变化的图景。
今天的"大构想"(GrandIdeas)系列中,BBC"FutureNow"专栏将对已经开始应用于解决世界上最棘手、最危险的一些问题的尖端AI和自动化技术进行了盘点,这些问题包括了疾病防治到应对暴力。
§  人工智能时代下人类所剩的最后价值
§  人工智能的真正风险
§  人工智能面临的最大挑战不是技术?
卡内基梅隆大学机器人教授金出武雄(TakeoKanade)说:"我们不应该把 AI 视为与人类竞争的东西,而应该看作是可以增强我们自身能力的东西。"这是因为 AI 不仅能做好单调乏味的工作,还能够识别出模式,这种能力甚至远远超过了人类。
它可能会在21 世纪帮助保护我们的安全。
防治传染病
对于全球数十亿人来说,在耳边嗡嗡作响的蚊子不仅会叮咬人们带来令人恼怒的疼或痒,它们还可能带来疾病甚至致命。特别是已经从非洲传播到几乎所有热带和亚热带地区的埃及伊蚊(Aedesaegypti),它们携带登革热(Dengue fever)、黄热病、寨卡(Zika)以及基孔肯雅热(chikungunya,一种导致严重关节痛的病毒)等病毒。在全球 128 个国家和地区,每年仅登革热就会感染 3.9 亿人。
来自多米尼加共和国的计算机工程师雷尼尔·马洛尔(Rainier Mallol)说:"这些蚊子就像小恶魔。"多米尼加共和国是寨卡病毒爆发热点地区。与来自马来西亚(另一个热点)的医学博士达西·拉贾(Dhesi Raja)一起,马洛尔两人开发出一套 AI 算法,能够预测疫情最有可能发生的地方。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image004.jpg
Image copyright[size=0.875]MICROSOFTImage caption微软的 Project Premonition 项目使用无人机寻找寨卡病毒爆发的热点地区,然后捕捉它们以寻找病原体(图片来源:MicrioSoft)
他们的医学流行病学(Aime)AI 系统可以将所有当地医院新报告的登革热病例出现的时间和地点与包括风向、湿度、温度、人口密度、住房类型等在内的274 个可变因素结合起来。"这些因素都是确定蚊子如何传播的因素," 马洛尔解释道。
到目前为止,在马来西亚和巴西的试点表明,这套系统可以提前三个月准确预测疫情爆发,准确率达到88% 左右。此外,该系统还可以帮助查明疫情中心及其400 米范围内的情况,从而使公共卫生官员能够及早利用杀虫剂进行干预,以防蚊虫对当地居民进行叮咬。
§  人工智能公司为什么要不停的砸玻璃?
§  人工智能受愚弄后也会犯"低级错误"
§  机器人能否终结令人抓狂的客服电话?
Aime 系统也被用于帮助预测寨卡和基孔肯亚热病毒疫情爆发。大型科技公司也在追求自己的宏伟构想:例如,微软的Project Premonition 项目使用无人机定位蚊子的热点地区,并利用机器人二氧化碳和光捕捉器来收集蚊子样本,包括蚊子以及它们咬过的动物的DNA,然后通过机器学习算法进行分析,从而找到病原体。这些算法能够从大量的数据中识别出模式,而且会变得越来越精确和强大。
应对枪械暴力
去年,美国有15,000 人死于枪械暴力,美国也是发达国家中枪械暴力发生率最高的国家。为了解决持续不断的枪击和枪械犯罪问题,许多城市正在试图通过科技寻找解决办法。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image006.jpg
Image copyright[size=0.875]SHOTSPOTTERImage caption人工智能可以追踪枪声,并帮助急救人员和执法人员在大规模枪击扩散之前予以阻止(图片来源:ShotSpotter)
有一种自动化系统可以用传感器阵列监听枪声,然后精确定位枪声所在的位置,并在45 秒内向相关机构发出警报。这种名为ShotSpotter 系统需要配备大量声音传感器以探测枪械独特的声响,利用其到达每个传感器的时间,通过算法来定位枪击位置,误差在25米之内。
机器学习技术被用来确定声音是否为枪击声,并计算出它们的数量,以帮助警方确定他们要对付的是独行枪手还是有多名行凶者,以及他们是否在使用自动武器。
目前有90 个城市(多在美国,部分在南非和南美)正在使用ShotSpotter 系统。美国 9 所大学校园也部署了较小的 ShotSpotter 系统,以应对最近频发的校园枪击事件。而且美国特勤局已将其安装在白宫内。
但 ShotSpotter公司首席执行官拉尔夫·克拉克(RalphClark)认为,该系统未来的用途不仅仅是简单地应对突发事件。
他表示:"我们迫切希望看到,我们的数据如何能够提供更多的预警信息。机器学习可以把它与天气、交通数据、财产犯罪数据结合起来,从而向巡逻警察更准确地通报消息。"
§  你的工作还有多久会被机器取代?
§  永远不会落入机器人之手的工作
§  面对自动化浪潮 我们应该培养哪些技能?
预防饥荒
全世界目前大约有8 亿人依靠木薯根作为主要碳水化合物(为人体提供热能的主要营养素)的来源。这种淀粉类蔬菜与山药相似,经常被人像土豆那样食用,但也可以磨成粉做面包和蛋糕。它能在其他农作物没法生长的地方种植,这使它成为世界上第六大粮食作物。但是这种木本灌木极易受到疾病和害虫的侵害,可以让整片田地都颗粒无收。
位于乌干达坎帕拉(Kampala)马凯雷雷大学(Makerere University)的研究人员与植物病专家合作开发了一套旨在打击木薯疾病的自动化系统。Mcrops项目允许当地农民使用便宜的智能手机拍摄植物,并使用经过训练的计算机视觉来发现造成木薯作物损害的四种主要疾病的迹象。
计算机技术研究员欧内斯特·姆贝泽(Ernest Mwebaze)是这个项目的带头人,他解释说:"这些疾病真的很难识别,需要采取不同的行动根治。我们正在为农民提供'口袋中的专家',以便让他们知道自己是否需要为作物喷药,或者完全毁掉这批作物以便种植其他作物。"
该系统诊断木薯疾病的准确率目前高达88%。以前,农民必须打电话给政府雇佣的专家来他们的农场查明疾病,这可能需要几天甚至几周的时间,而虫害在此期间可能已经大范围扩散。
MCrops 还利用上传到网上的图片来寻找疾病暴发的模式,这可以让官员们阻止可能导致饥荒的流行病。姆贝泽和他的同事们希望利用这项技术来研究香蕉疾病,并开发自动检测其他作物害虫的系统。
抗击癌症和失明
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image008.jpg
Image copyright[size=0.875]DEEPMINDImage caption谷歌 DeepMind 可以通过利用机器学习识别病人人体组织内的健康区域来帮助医生提供癌症治疗方案(图片来源:DeepMind)
全世界每年有 880 万人死于癌症,另有1400 万人被诊断出患有某种癌症。尽早发现癌症能够极大地提高患者的生存机会,并降低复发的风险。筛查是早期发现癌症的关键方法之一,但通过扫描和其他方法检测结果费时费力。
不过,谷歌母公司Alphabet 旗下 AI 子公司 DeepMind 和 IBM 都在应用自己的AI 技术来解决这个问题。DeepMind 与伦敦大学学院医院的英国国家卫生署(NationalHealth Service)医生合作,通过识别头部和颈部肿瘤中的健康组织区域,来训练其AI 帮助制定治疗癌症的方法。此外,该公司还与伦敦Moorfields 眼科医院合作,在眼部扫描中识别失明的早期迹象。
DeepMind Health 的临床主管多米尼克·金(DominicKing)说:"我们的算法能够在扫描中解释视觉信息。这个系统学会如何识别潜在的问题,以及如何向临床医生推荐正确的行动。现在我们对结果发表评论还为时过早,但早期的迹象非常令人鼓舞。"
金指出,通过筛选扫描图像,并优先考虑那些临床医生最迫切需要的信息,AI技术可以帮助医生更快地识别和判定病例。
IBM 最近宣布,WatsonAI 可以分析图像,并评估病人的诊断书,从而准确地识别出肿瘤病例,准确率高达96%。世界各地 55 家医院的医生正在对该系统进行测试,以帮助诊断乳腺癌、肺癌、结肠癌、宫颈癌、卵巢癌、胃癌以及前列腺癌。
控制电力应用
目前关于气候变化是否导致了美国历史上两场连续灾难性飓风的争论不断升温,那么我们如何才能最大限度地利用清洁、可再生能源来防止对气候模式造成进一步的负面影响?
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image010.jpg
Image copyright[size=0.875]GETTY IMAGESImage captionAI可以实时监控能源需求和生产-从而帮助我们更明智地使用能源、遏制污染以及减少有害气体的排放(图片来源:Getty Images)
世界各地的人们越来越依赖可再生能源来应对气候变化和化石燃料造成的污染,而平衡电力供应的任务变得越来越艰难。智能电表(如可自动记录使用情况的数字能源监视器)的普及,也提供了比以往任何时候都更多的数据,用来说明消费者使用能源的方式和时间。仅欧盟就计划到2020 年在家庭中安装 5 亿个智能电表。
爱丁堡赫里瓦特大学(HeriotWatt University)智能系统助理教授瓦伦丁·罗布(Valentin Robu)表示:"对人类操作者来说,管理所有这些事情是不可能的,尤其考虑到这些事情要求的反应时间通常只有几秒钟。"罗布一直在与英国的初创公司 Upside Energy 合作,开发管理电网的新方法。
他们正在开发机器学习算法,以实时监控能源生产和需求。这样做有什么意义?在平峰时间,能源可以储存起来,然后在高峰的时候释放。随着人们家里的电动汽车和电池越来越普及,这项技术可以利用这些设备储存能源,并消除可再生电力供应不稳定的问题。
罗布还表示,AI可以在更基础的层面上使用,以帮助减少这些设备对电网的需求。例如,电冰箱可以通过AI 远程控制,只有在电网需求较低的时候它们才会开启制冷功能。
请访问 BBC Future 阅读 英文原文
https://www.bbc.com/ukchina/simp/vert-fut-41415842


作者: 刘海明    时间: 2018-12-17 23:19
【案例】

人工智能:机器人的科幻版vs现实版
  • [size=0.75]2017年 5月 3日







图片版权THINKSTOCKImage caption[size=0.75]机器人越来越像真人,人工智能也越来越逼近甚至超越人类智能。AI时代已经到来?
人类发明创造了机器人,机器人进化到智能超过自己的创造者,不甘屈居次等地位,遂起来反叛,人和机器大战,雷鸣电闪,血肉横飞,最后地球仍属于人类。好莱坞早就讲过这个故事,还有不同版本。
[color=rgb(80, 80, 80) !important]ADVERTISEMENT
<iframe frameborder="0" src="https://tpc.googlesyndication.com/safeframe/1-0-31/html/container.html" id="google_ads_iframe_/4817/bbcworldservice.live.site.zhongwensimp/zhongwensimp_science_content_1" title="3rd party ad content" name="1-0-31;9424;[img=1,1][/img]


[img][/img]{&quot;uid&quot;:1,&quot;hostPeerName&quot;:&quot;https://www.bbc.com&quot;,&quot;initialGeometry&quot;:&quot;{\&quot;windowCoords_t\&quot;:0,\&quot;windowCoords_r\&quot;:1093,\&quot;windowCoords_b\&quot;:575,\&quot;windowCoords_l\&quot;:0,\&quot;frameCoords_t\&quot;:877.8181818181819,\&quot;frameCoords_r\&quot;:0,\&quot;frameCoords_b\&quot;:877.8181818181819,\&quot;frameCoords_l\&quot;:0,\&quot;styleZIndex\&quot;:\&quot;auto\&quot;,\&quot;allowedExpansion_t\&quot;:0,\&quot;allowedExpansion_r\&quot;:0,\&quot;allowedExpansion_b\&quot;:0,\&quot;allowedExpansion_l\&quot;:0,\&quot;xInView\&quot;:0,\&quot;yInView\&quot;:0}&quot;,&quot;permissions&quot;:&quot;{\&quot;expandByOverlay\&quot;:false,\&quot;expandByPush\&quot;:false,\&quot;readCookie\&quot;:false,\&quot;writeCookie\&quot;:false}&quot;,&quot;metadata&quot;:&quot;{\&quot;shared\&quot;:{\&quot;sf_ver\&quot;:\&quot;1-0-31\&quot;,\&quot;ck_on\&quot;:1,\&quot;flash_ver\&quot;:\&quot;0\&quot;}}&quot;,&quot;reportCreativeGeometry&quot;:false,&quot;isDifferentSourceWindow&quot;:false,&quot;goog_safeframe_hlt&quot;:{},&quot;encryptionMode&quot;:null}" scrolling="no" marginwidth="0" marginheight="0" width="300" height="600" data-is-safeframe="true" sandbox="allow-forms allow-pointer-lock allow-popups allow-popups-to-escape-sandbox allow-same-origin allow-scripts allow-top-navigation-by-user-activation" data-google-container-id="2" tabindex="-1" style="border-width: 0px; border-style: initial; color: inherit; font-style: inherit; font-variant: inherit; font-stretch: inherit; font-family: inherit; font-weight: inherit; letter-spacing: inherit; line-height: inherit; vertical-align: bottom;">



但是,说到人工智能(Artificial intelligence, AI),今天仍有不少人觉得很新潮、高端。其实,机器人就是装备了人工智能的机器。
AI这个词最早诞生于1950年代,指的是制造智能型机械的科技。近年来这方面发展迅猛,仿人形机器人被认为是人工智能的终极体现。
就像科幻电影里那样?
现在,酒店和工厂里已经有机器人和人一起上班,无人驾驶汽车也已经上路测试,无人机开始送货服务,股票交易所的”中枢神经“是AI引擎,购物网亚马逊和网络电视Netflix用AI分析用户消费心理和习惯,据此推荐相应商品、书籍、影视,或者向广告商提建议,还有智能手机和iPad里的“私人助理”。
经过60多年的磨砺,人类社会似乎真的要进入AI时代了。
在智能和人工智能并存变成每个人的日常之前,先来看看银幕上的虚构角色和现实版的AI。
图片版权ALAMY/IBMImage caption[size=0.75]《2001漫游太空》里的反派角色哈尔(Hal)和当今世界智力超人的电脑沃森(Watson)。全知全能的机器人
《2001太空漫游》(2001: A Space Odyssey),斯坦利·库布里克执导的美国科幻片,1968年上映。
这部影片的主角,哈尔(Hal),或许是迄今为止最著名的AI反角。它的设计使命是掌控“探索一号”宇宙飞船的控制系统,还要跟飞船上的人员互动。但是,它很快就把人类撇在一边,开始了自己的使命。
Hal实际上是指启发式编程算法计算机(Heuristically Programmed Algorithmic Computer)。
银幕下的世界里,跟它最接近的要数IBM的沃森(Watson)。沃森是一台超级电脑,懂得自然语言,几秒钟就能阅读数百万份文件。
2011年,沃森参加美国电视智力竞赛节目《危险边缘》(Jeopardy!),击败了当时世界上最优秀的两名选手。
跟电影里的哈尔不一样,沃森与人类关系和谐,在很多领域携手共进:
图片版权ALAMY AND BOSTON DYNAMICSImage caption[size=0.75]电影里的“终结者”杀手机器人和波士顿动力(Boston Dynamics)公司开发的搜救机器人Atlas机器杀手
T-800是科幻片《终结者》(Terminator)里的杀手机器人,AI系统Skynet给它编的程序是去执行灭绝人类的杀手任务,这个AI控制了地球上的电脑中枢系统,它的目标是摧毁地球人类。
迄今为止,现实中还没有一款AI系统具有自我意识功能;现有AI的编程都是帮助人类实现某种任务的功能。一个例外是军用机器人。这种机器人要上战场,需要适应战场上的现实,辅助战士执行任务。
美国军方正在研发各种智能装备,比如让士兵具有超人般的力量,或者能眼观六路耳听八方,或者能帮助他们在战场做出更好的决策。
现在没有终结者那样的机器杀手。但是,美国波士顿Boston Dynamics公司开发的搜救机器人已经入使用。
图片版权ALAMY AND SOFTTBANKImage caption[size=0.75]《星球大战》里的机器人C-3PO(左),日本软银公司研制的机器人“胡椒”2015年投放市场助手和伴侣
C-3PO 是电影《星球大战》里的机器人,存在的目的是服伺、辅佐人类,据称擅长六百万种沟通交流方式。他的主要职责范围是礼仪、习俗和翻译,以便不同文化之间的交流能较顺畅地进行。
在现实世界里,这类助手伴侣式机器人已经开始蓄势待发。
日本软银公司开发的“胡椒”2015年夏季投放市场,几乎立刻售罄。
据称它能识辨人类的情绪和情感变化。如果主人回家时愁眉苦脸,不开心,它就会建议听听音乐。
这种“察言观色”的能力,它是通过看海量的人类面部表情视频学会的。
图片版权REX AND IROBOTImage caption[size=0.75]Wall_E 和 Roomba清洁工机器人
Wall-E 是迪斯尼同名影片里的角色,它在电影里的任务是在人类离开地球后打扫清理这个星球。
现实版的清洁工机器人当然不需要承担那么宏大的任务,但同样能够替人类打扫卫生而显得可爱的机器已经诞生,就是智能吸尘器。
现在市面上最有名的牌子就是iRobot公司出品的Roomba;截至2014年2月,已经卖出1千万个。它自带感应装置,按编好的程序在屋里各处吸尘,完工后乖巧地回到大本营充电。
有传闻说一些用户对它产生了情感依恋,就像对宠物一样,带着它们一起去度假。
图片版权ALAMY AND ATR HIROSHI ISHIGURO LABImage caption[size=0.75]科幻片 Ex-Machina里的机器人女主角埃娃,现实世界里日本机器人专家石黑浩跟以自己为原型制作的仿真机器人仿真机器人
埃娃(Ava)是2015年科幻片 Ex-Machina里的机器人,具有真人般的躯体。这个虚构的机器人堪称AI的终极版本。
她(它)看上去就是一个真人,能跟人谈论任何话题,能表达跟人类的共鸣、同感。然而,埃娃又确实是“人工智能机器”,有自己的只属于机器人族群的计划和谋略。
而这也正是最令人类害怕的AI。
现实中,埃娃那种真人外形、智能超人的机器人还没有出现,但确实有一些这方面的尝试。
日本机器人专家石黑浩按自己的外形容貌仿制了一款机器人,取名Geminoid,用来研究人-机互动。
他的仿真机器人用硅胶作皮肤,但更逼真的的版本或许指日可待:已经有生物工程技术公司和化妆品公司合作,用3D打印机“打印”出人类皮肤。
软件公司IPsoft开发了一款虚拟助手,取名阿米莉亚(Amelia),目前还在虚拟空间飘着,但公司首席执行官杜贝教授坚信,几年之内,AI就将与机器结合,生成仿真机器人;届时,阿米莉亚将走出虚拟时空,踏入现实人世,酷似真人。
像电影里的埃娃那样?

https://www.bbc.com/zhongwen/simp/science-39793434



作者: 刘海明    时间: 2018-12-17 23:21
【案例】

BBC到路透社 人工智能怎么做新闻
·       2018年9月 26日
·       分享平台 微博
·       分享平台 人人网
·       分享平台 电邮
·       分享
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image002.jpg图片版权GETTY IMAGES
从人工智能进驻新闻机构,写稿机器人交出球赛、股市新闻稿,到机器人抢独家新闻,前后不过三、四年时间。
刚开始记者们半开玩笑地表示担心机器人会抢走自己的饭碗,后来大家热议机器人写的足球赛新闻比人写的差距多大,再后来,到了现在,关于AI的关注又变了。
人工智能将如何拓展、重塑新闻采编制作流程中的哪些环节?以前有哪些难以想象或不可能的设想借助AI的威力而成为可能?又有哪些环节确实可以而且正在取代人工?
AI在新闻编辑室可以发挥什么作用,这是个自由放飞想象力的话题。
抢独家
人工智能跟人类争普利策奖?其实1988年就发生了。《大西洋月刊》记者比尔·戴德曼(Bill Dedman)在电脑帮助下检索梳理了海量的住房按揭数据,写出系列报道揭露这一行的隐形种族歧视,作品获当年普利策奖。当然,这可以算作机器夺奖。
机器跟人抢独家新闻?这事4年前有人预言过:会编程的记者将能抢先报出独家新闻,抢头条。
机器人工程师约翰·基弗(JohnKeefe)今年1月在哈佛大学尼曼新闻实验室(Nieman Lab)2018行业预测中断言,这件事今年就会发生。他说,记者将运用AI抢得独家新闻。
这跟机器人写足球、财经消息不同。那更多是数据分析整理,然后用自然语言程序组合成文。抢独家消息是通过机器学习技术识别、发掘出人类单凭自己的大脑难以捕捉到的重要事实和真相。
至于未来的媒体编辑室是否由AI主宰,或者人类和机器联合执掌,现在难有定论。
可以肯定的是,适用于工农业生产的逻辑在相当程度上同样适用于媒体内容生成:搜集资料、整理数据、核查事实、版面校对等,这些工序能够也肯定会大部分交给AI,编辑记者可以更集中心智用于创意、创新。
§  爱恨交织 人工智能双刃剑出鞘
§  你所未知的人工智能应用领域
§  AI化身温顺性感女郎算不算性别偏见
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image004.jpg图片版权TWITTERImage caption特朗普总统的推特帐号上不全是他亲自发的,人工智能可以识别。
人算不如机器算
人机合作已有先行者探路。美国《大西洋月刊》记者麦吉尔(AndrewMcGill)把一项枯燥而至关重要的任务交给了机器人助手,@TrumpOrNot,让它分辨美国总统特朗普的推特帐号下哪些是他本人发的,哪些是手下人代劳的。
这个助手利用机器学习和自然语言处理技术,把特朗普新发的推特文字跟数据库中的文档资料对比,然后做出比较肯定的判断。
麦吉尔在2017年3月发表了自己的实验结果时写道:
“机器算法找到的那些最有助于分辨一则推特讯息出自特朗普之手还是工作人员之手的线索,真的很有意思。大部分不是文字,而是特别的拼写和标点符号。”
比如,特朗普发的推特更频繁出现自己的推特名“@realDonaldTrump”,更喜欢用“媒体”这个词,但显然不爱用“#”,而手下代发的推特讯息里这个符号更多。
麦吉尔承认自己这个助手的知识库需要不断更新,尤其是作为识辨指标的关键词、习惯和特点。
§  职场性骚扰?找人工智能机器人投诉
§  电影制作未来趋势:用智能手机拍摄
§  颠覆机器人形象的未来设计
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image006.jpg图片版权ANGELA WEISS/AFP/GETTYImage caption《纽约时报》大楼里确实正在发生机器抢人饭碗的事。
AI进驻媒体
专注于人工智能领域发展的科技网站TechEmergence对人工智能在几家主要西方媒体的应用做了梳理,勾画机器人进驻编辑室趋势的一个截面。
§  BBC新闻实验室:语义辨识
BBC的人工智能机器人叫Juicer ("榨汁机")。它的任务是把海量的数据,包括每天的新闻、专题报道、视频、其他媒体的消息、政府部门和互联网信息, 等等,用一种聪明智慧的方式联结起来,既方便调用,又有内在智慧逻辑。
"榨汁机"2012年上岗,每天吸进来自850个新闻机构的RSS信息推送,整合处理数据,把BBC和其他媒体的新闻报道分拣出来,然后贴上相应的语义标注,分成4类归档:组织机构、地点、人物、事物。
这样,记者要查找有关特朗普总统的最新消息,或者AI领域动态的信息,"榨汁机"就会迅速上网搜索,然后给出一个相关内容的清单。
这还比较枯燥。不久的将来,"榨汁机"的功能提高后,还会更贴心,读者鼠标在某个字词上停留兜圈片刻,它就能生成一个弹出窗口,提供相应的信息。作为电视广播媒体,BBC还在训练它在视频环境下弹出相关的信息。
§  《纽约时报》:语义辨识和评论区管理
2015年,《纽约时报》大楼内来了个名叫“编辑”(Editor)的AI。它的任务是简化记者编辑的工作流程。记者写稿时可以用标签来标明关键词、标题或主题。随着时间推移,数据积累到一定程度后,机器编辑就能自动识别这些标签的语义,找到一段文字中最关键的部分。这样,记者查资料或核对事实就很便捷,人物、地点、事件、时间,分门别类,井然有序。
人工智能在那儿的另一项任务是管理读者评论区。它将来可能要承担的是目前共有14个人负责的工作,主要是每天分拣查阅11,000条读者评论。该报开设评论区功能的文章只占10%,如果用AI机器管理,则可以有更多文章开放评论区,强化互动,并节省开支。这个软件叫PerspectiveAPI,可以迅速分拣整理读者评论,使读者更容易检索到自己感兴趣的评论并展开讨论,或者避开无聊的撒泼耍浑式留言。
这是机器抢人饭碗的一个例子。
§  机器人能否终结令人抓狂的客服电话?
§  来见识一下机器人摩托车赛车手
§  Instagram中虚拟名模的奇幻世界
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image008.jpg图片版权DAVID DAVIES/PAImage caption2016年里约奥运,《华盛顿邮报》的机器人记者包揽了大量数据密集型报道。
§  《华盛顿邮报》:自动化新闻写作
“自动化新闻”(AutomatedJournalism)也称“机器人新闻写作”,使用的写稿软件是Heliograf。2016年里约奥运会上初次上场。它对源源不断的数据分析整理后,把信息跟事先定制的新闻模板里的对应词句配对,然后组成新闻稿,发表在不同的平台。要是发现数据里有异常,它还会提醒记者注意。也就是说,整个里约奥运会期间,写稿机器人承担了大量有关比分和奖牌数的实时报道,记者则可以更多采写其他内容。
新闻自动化有两层含义,一是数量,二是目标定制。
比如关于英国脱欧,机器人写手可以生成面向英国读者、中国读者或其他国际读者群的不同版本;关于股市动态的报道,可能会有一段专门为你订制:大盘总体向上,但你上周要是没有卖那些IBM股票,那你的投资组合资产今天会有这么多。
换句话说,机器人可以在万里之外写出比本地记者更接地气的新闻报道,或者把一条枯燥乏味的消息变成热搜榜上人人关注的新闻。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image010.jpg图片版权GETTY IMAGESImagecaption算法和机器学习在各行各业的应用进展迅猛,新闻媒体业也不例外。
§  路透社:数据视觉化
路透社2016年跟语义辨识技术公司Graphiq合作,研发智能型的新闻发表软件,自带自由互动数据视觉化功能,涵盖范围宽泛多样,包括娱乐、体育和新闻等。这个发表软件可以在路透社开放媒体快捷平台调取数据。这些数据嵌入发表器网站后,数据世界化程序会实时更新。
§  美联社:语义辨识、人工智能分析、自动化新闻
"自动化洞见"的另一个客户是美联社。早在2013年,美联社就开始运用人工智能来处理体育和财经数据,生成新闻稿。现在美联社的机器人叫NewsWhip,负责追踪、预测社交媒体平台上的趋势。除了跟踪新闻报道,它还可以向记者提供实时或历史时段的分析结果。有了这个助手,新闻稿的数据准确性提高,错误减少,记者编辑对新闻时事的把脉更精准。
美联社没有用人工智能来撰写长篇政治评论文章,但在用一款名叫Wordsmith的机器人来把盈利数据转换成财经新闻。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image012.jpgImage caption机器人就隐身在电脑里。BBC的人工智能在数据库里纵横捭阖,整合海量的文字和音像资料。
§  Quartz数码新闻:聊天机器人媒体界面
关键词:聊天、自然语言处理、新闻、话题。Quartz2016年获得一笔资金设立机器人实验室,为记者们开发各种自动化工具。这是对新闻媒体行业大趋势的一种反应:新闻不但从纸面转到桌面电脑、手提电脑、手机,不久的将来还将通过物联网进入家庭和私人座驾。
简而言之,就是通过聊天、语音和其他新颖渠道来实现人机互动。这个尝试还在婴儿阶段,但已经可以看出端倪。用户输入问题和要求,比如新闻事件、人物或地点,聊天机器人根据自己的理解提供相关的内容。
Quartz的目标是开发出能够跟所有媒体平台流畅互动的机器人和人工智能。目前还没有最后确定下一步怎么走,但正在考虑的一些设想里包括一款编辑室机器人,帮助记者为新媒体空间编写新闻、生成数据。
英国《卫报》也引入聊天机器人,2016年在脸书帐户上亮相,主要工作是帮助读者选择阅读的版本、新闻推送时间,并负责推送;这职责明细看来跟客服比较相似。
§  AlphaGo击败中国世界围棋冠军柯洁
§  在伦敦点外卖? 送餐的可能是机器人!
§  人工智能:英、中、美上演三国演义
§  机器人要抢人类饭碗,你准备好了吗?
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image014.jpg图片版权GETTY IMAGESImage caption机器有人力不及之处,也有不及人脑之处。
在中国写稿
自2015年腾讯财经频道开中国机器人写稿先河以来,不少媒体人发现多了个机器人“同事”。
2015 -
§  腾讯财经:9月10日发表了Dreamwriter新闻写作机器人编写的经济消息(《8月CPI涨2%,创12个月新高》)。
§  新华社:“快笔小新”11月开始为体育部、经济信息部和《中国证券报》写体育赛事及财经消息稿件。
2016 -
§  网媒今日头条:“小明”(xiaomingbot)在2016年里约奥运会期间每天写30多篇赛事简讯和赛场报道;
§  《钱江晚报》:微软旗下人工智能机器人“微软小冰”上岗,在“浙江24小时”APP中开设“小冰机器人”专栏;
2017 -
§  《南方都市报》和凯迪网:与北京大学计算机科学技术研究所联合成立智媒体实验室,推出写稿机器人“小南”;
§  《华西都市报》:机器人“小冰”开设专栏“小冰的诗”,独家发布新作《全世界就在那里》(外二首);
§  《广州日报》:中国全国人大和政协两会期间,写稿机器人“阿同”、“阿乐”写出了政府工作报告热词分析、外交部部长记者会热点问题分析等多篇报道,还回复了公众关于两会知识的提问;
§  《人民日报》:人工智能、语音机器人“小融”在春节期间上岗,在人民网和其他社交媒体平台与网友互动;
除了这些隐形的AI写稿程序之外,也有更全能、具备机器人形状的AI记者,如新华社的“i思”、《深圳特区报》的“读特”、浙江卫视的“小聪”和香港大公文汇传媒集团的“小宝”,可以出去采访和录制广播电视节目。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image016.jpg图片版权GETTY IMAGES
取长补短
也许,未来比较合乎逻辑的延伸方向是人和机器各自扬长避短。机器人不以优美的文笔跟人竞争,而是在人的脑力无法企及的地方取胜,比如把一条重大讯息写成几篇视角独到、见解深刻、分析精辟的报道,而且能够迅速把这几篇文稿个性化,生成数十万个针对不同受众的版本。
AI在各地的编辑室里的职务明细正在不断变化,从数据收集、整理和分析、交叉查证核实,到写稿、创作、编辑,再到重新定义新闻传媒专业和行业,速度令人目眩。
新事物难免冲击现状,带来新问题,试管婴儿、克隆、基因编辑,无不在某些方面挑战人类社会伦理。AI也不例外。这是另一篇文章的话题。
https://www.bbc.com/zhongwen/simp/science-45591003


作者: 刘海明    时间: 2018-12-17 23:22
【案例】

机器人都能写新闻 记者们真要失业了吗?
·       2018年1月 30日
·       分享平台 微博
·       分享平台 人人网
·       分享平台 电邮
·       分享
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image002.jpg图片版权GETTY IMAGESImage caption机器人新闻很快将成为新常态?
机器人跟记者并肩工作,写新闻,已经是一些媒体机构的现实。有些体育消息,如果不加作者名字,几乎可以"以假乱真"
ADVERTISEMENT
"机器人新闻"- 不是关于机器人的新闻,而是机器人做的新闻 - 在人类世界普及的速度超出了很多人的想象。
对于此刻正在电脑前写稿的记者们来说,似乎饭碗受到威胁,形势不太妙。
§  纽约州调查推特大V背后的"粉丝工厂"
§  人工智能:英、中、美上演"三国演义"
§  人工智能:机器人的科幻版vs现实版
编辑室同事
美联社的一套电脑系统已经能够从大量数据中筛选出新闻线索,编成新闻文稿;其中一部分混在记者写的稿件里一同电邮给报刊客户,而且不少还不加润色就被报纸采用了。
中国的新华社正在重组,以便让人工智能更深更广地融入编辑室工作。
《洛杉矶时报》自2014年就开始发布根据官方数据生成的地震预警消息。《华盛顿邮报》去年宣布将派机器人报道美国高中生足球赛。
机器人进入新闻编辑室,正值全球纸媒面临发行量下降和广告向线上转移的双重冲击。
§  视频:机器人哈里拜访BBC广播大厦
§  认识北京呆萌机器僧人"贤二"
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image004.jpg图片版权SHUTTERSTOCKImagecaptionAutomatedstories are becoming more prevalent, but at what cost?
在越来越多的行业,机器人都被视为人工劳动力的潜在替代,而且成本更低。一种预测说,到2030年,机器人将从人类手里夺走8亿个工作。但在新闻领域,它们能夺走的百分比有多少?
根据美联社的试验,目前阶段机器基本上只负责在海量数据中搜索有用信息,但美国的线上线下媒体提供的内容,越来越多出自机器。
2017年,设在牛津大学的路透社新闻研究院做的一项研究发现,欧洲各地的媒体每月发表成千上万篇机器自动生成的新闻,主要是迅速发布公众感兴趣的数据,比如选举结果和经济数据。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image006.jpg图片版权GETTY IMAGES
荷兰一家通讯社在用机器更新写给未成年人看的新闻稿,使用的语言较简单。
迄今为止,已经上岗的机器人"头脑"比较简单。当然,在机器人世界,这种状况不会持续很久。
中国的腾讯最近亮相的一套系统可以自动写作一篇完整的演讲稿。
新闻网站Quartz的执行总编扎克·塞沃德(Zach Seward)曾用类似的系统写了一篇在大会发言稿,据说他对文稿很满意。
§  谷歌将在中国设AI中心 为亚洲首个此类项目
§  科学家教机器人感知疼痛并作出反应
§  科技巨头捐十亿美元研发利他人工智能
§  上海服务业迎来智能机器人
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image008.jpg图片版权GETTY IMAGESImage caption机器人,或新闻软件,将加入这些传统的记者工具?
但核心本领夺不走
然而,写稿只是记者工作的一部分。机器能就特定话题做电话采访吗?能写出有文采、直抵人心的报道吗?
技术上这是可能的,可以事先把问题拟好,让机器打电话采访。但编辑是否愿意这么安排则是另一个问题。
不过,更靠谱的判断是,机器人或软件将很快成为记者们手里的一个工具,用来搜寻新闻线索或生成内容。
这枚硬币的另一面,是工具被滥用。
在新闻和社交媒体行业,机器被用来生成和传播假新闻,也已经跟"机器手点赞"、“僵尸粉丝团”之类传统利用一样,成为一个现实而紧迫的问题。
社交媒体上已经出现这种迹象。
file:///C:/Users/35242/AppData/Local/Temp/msohtmlclip1/01/clip_image010.jpg图片版权GETTY IMAGES
不过,机器有机器的特长
需要声明,BBC目前还没有采用机器生成的故事,但BBC的新闻实验室正在研究让机器承担部分新闻采编和制作,包括听写采访文稿、检索公共数据找线索。
不过,记者的核心职责是从采集到的数据和信息中筛选、掂量、分析、权衡、组织,写出有理有据、有血有肉、全面平衡的报道。
这是一门活技术,代代相传到今天,经过百余年的演化。如果说机器人最终也能掌握这门人性比重极大的技术,那也不大可能是现在。
https://www.bbc.com/zhongwen/simp/science-42877951


作者: 刘海明    时间: 2018-12-17 23:22
提示: 该帖被管理员或版主屏蔽
作者: admin    时间: 2018-12-18 09:37
【案例】



编辑:付莎莎

作者: admin    时间: 2018-12-27 00:04
【案例】

机器算法与股市暴跌



编辑:臧博

作者: admin    时间: 2018-12-27 22:01
【案例】

场景、关系与算法:媒体融合创新的三重维度


    移动化、社交化、智能化扑面而来,要在新的生态条件下进行媒体融合的科学创新和实践探索,需清晰把握场景、关系、算法的内在生成逻辑和路径。连接的变革、情感与信息的互动、人机的结合都是对其规律的深刻洞察与思考。


1
场景:连接的变革
    根据CNNIC20186月的统计,中国网民8.02亿,手机网民7.88亿,中国已经成为手机使用的全球第一大国,这意味着我们已从去中心化的网络世界进入到移动网络传播时代,而基于场景的移动传播“不仅是一种媒介形态,更是一种信息场域和媒介生态,共同构成了网络传播的新语境”。在新的场景和生态中,信息的分发时间从定点转向随时,信息的分发空间从固定区域转向任何地方,单一的新闻信息、专业资讯已经转向多元的情感社交和日常生活。因此,移动传播时代的媒介融合本质是基于场景的信息服务。以往主流媒体是以专业的内容取胜,如今专业化的内容必须通过场景的争夺才能得以传播和反馈,否则将被信息洪流所吞没。
    Robert等人在《Age of Context》中提出,移动设备、社交媒体、大数据、传感器和定位系统作为场景时代的五种主要技术力量推动社会变革。技术驱动的变革为商业互联网公司的探索提供了基础,因此,他们通过上述五种技术力量在市场中争夺的是不同的场景,求得生存并发展壮大,如微信和支付宝的竞争是支付场景的较量,OFOMobike争夺的是单车出行场景的体验。随着单一场景的争夺,逐步升级到平台阶段,即希望通过平台满足移动网民对多元场景的需求。微信从日常聊天、消费支付拓展到理财、生活缴费、城市出行、美团外卖、酒店住宿、京东优选等情感社交、生活娱乐、工作出行的主要场景,平台的发展包含现实的物理空间,也有心理和行为的期待、依赖。
    媒体融合在发展升级的过程中需要充分认知媒介生态的场景化变革,将优质的信息内容在新的时间与空间、社交情感、日常生活的场景中进行科学有效的传播。人民日报主管主办的全国性财经证券类日报证券时报从1993年创刊至今的25年发展中,也在从传统媒体向媒体融合创新的路径进行转变。2008年《证券时报》创立网站并开始探索全媒体战略,完成从报纸为重心转向以数字媒体为重心。同时,证券时报形成了拥有7个网站、11个微博、29个微信公众号、7个新闻客户端,共54个数字平台的新媒体矩阵,覆盖用户数超过1300万。其中,“券商中国”通过独家行业报道、及时金融政策解读、热点事件跟进、专业行业数据分析等优势“吸粉”240万,“10+”报道超过270篇。尽管融合创新的发展中取得不错的成绩,但是若能更多关注移动化场景网民的需求,其优质、专业、准确的财经内容将会获得更高效的传播,从而从金融的独特视角进一步提升我国金融舆论传播力、引导力、影响力、公信力。



2
关系:情感与信息的互动
    互联网时代,我们面对的不仅是场景转换的变革,信息的流动方式与传播模式也发生了颠覆性的变化,从基于权威媒介中心向外扩散的“喷泉型”走向基于全社会个体关系的“网状型”。前互联网时代,大众媒体通过大规模的信息生产与强大的信息分发能力成为社会信息的权威集散地,通过中心向外延展来完成信息流动和对社会的信息管理,这是强化媒体中心而弱化人际连接的模式,但是网络时代截然相反,它的信息流动方式是依靠全社会的人际关系网络完成信息分发、反馈与互动。这在一定程度上弱化了原有媒体中心的权威,强化了人与人连接的关系网络,即从“点到面”转换为“点到点”的传播,因此“关系”成为网络传播的重要要素,媒体融合创新需要通过“关系”传播的有效连接来提升信息传播的“四力”。
    网络传播时代的关系不同于此前的陌生人之间的信息传递,而是熟人之间,陌生人与熟人之间的连接,基于用户为中心的网络主要分为强连接和弱连接。在这个新型的连接渠道网络中,“强连接”主要是基于亲情等紧密关系形成的传播渠道,在社会的互动过程中,主要通过“情感”支持完成关系的建构;“弱连接”主要是基于熟人与陌生人、陌生人与陌生人之间形成的传播渠道,主要通过“信息”支持(如信息的分享等),完成关系的维系。这两种链接在移动网络传播生态中都发挥着重要作用,因为每一个个体都是信息的重要节点,尤其是其中的关键意见领袖(KOL),其情感动员和社会信息分享的聚能、扩散速度能力极强。在这个共同的社会网络中,一个点与更多的节点相连,形成了传播的脉络,可以说,连接即是传播。同时,网民连接起来的网络也形成公共空间,在这个空间中因连接起来(networked)个体网民的参与而变得有社会意义,因参与其信息网络,网民之间形成互动过程,因而出现传播的效果(如信息分享、情感支持、共同行动等)。学理研究的终结分析、点到面的线性传播都是大众传播的模式。然而,在新的网络模式里,探究线上线下的社会网络、传播渠道、互动过程是研究的重要内容,例如,公众用微信建立互相连接的社区、群组、圈子,进行日常信息分享、沟通感情,都是在一个特定的现实社会网络中(只有小区的居民可以加入微信圈子,非居民就不得而入)。因此,媒体融合创新的信息流动方式需要改变以往的路径依赖,转换到基于关系网络的传播路径中,唯此优质的信息内容才能在互联网的生态中快速传播、互动,达到预期的效果。证券时报在媒体融合创新中,从媒体自身的顶层设计思考,建立金融信息传播体系的媒体矩阵,在关系互动和接力式信息分发中产生了合力。


3
算法:人机的结合
    媒体融合创新还面对大数据和人工智能算法的挑战与机遇。随着今日头条等聚合类平台的快速发展,基于算法生产内容(AGCAlgorithm-Generated Content)的方式已经成为网络生态下重要的信息生产和用户使用的方式。在大数据、云计算、智能化的发展趋势中,以用户为中心的算法时代已经到来。因此,传统的发行量、收视率、抽样统计在面对全媒体新的生态条件下已经难以适应,而是需要围绕用户建立数据库,并且根据用户行为进行数据分析,根据用户需求进行信息产品的生产和推送。在信息推送中,信息生产、传播、营销已经一体化、流程化和自动化,在矩阵的多平台终端上互联互通,在理念、内容、形式等多方面进行协同创新(精品内容+多微多端+线上线下+位置服务……),因此媒介融合创新的核心是以业态为重点的不断创新。
    证券时报也在积极探索大数据和人工智能算法在金融信息领域的应用:20166月推出股市数据机器人,成为国内第一家把机器人写作植入到移动端的新媒体,每月人工智能生产深度数据信息超过3000条;2017年,上线国内第一款股市数据类工具型小程序——“数据宝工具箱”。“数据宝工具箱”自上线以来,月均访问次数为22万次,独立用户总数超过13万;新推出的雪球最近一年的阅读量破亿,在企鹅号和一点号财经影响力榜单上排在前列。目前数据宝机器人研发达150余类,涉及市场交易、上市公司财务体系、筹码变动、机构动向、融资融券、股东动向等类别。在媒体融合创新方面,不单单是信息内容生产后借助AGC完成接力式的传播,而是具有顶层设计的一体化解决方案,这样就很好地保留了用户数据,积累了重要的用户消费习惯,从而增强黏性与持续创新的资源。
    然而,AGC在带来巨大生产力释放的过程中,也存在诸多隐忧。此类平台信息的生产与传播不再以传统的新闻价值作为重要的把关标准,而是以用户需求(偏好、兴趣、情感等)作为重要标尺进行信息推荐,通过用户在互联网的行为对其进行计算、画像,但这种计算存在用户偶然性使用与真正需求之间的矛盾。美国学者Sunstein针对此类信息生产提出“Information Cocoons”(信息茧室)的概念:以“Daily Me(我的日报)”的形式进行信息选择、推荐和传播,人们倾向于接受相似的意见而排除相反的信息,长期处于虚拟的共同体将容易导致群体极化的行为。机器算法的方式会进一步强化此类信息的茧室效应,即只接受自己选择和与自己观点相似的信息。因此,技术驱动的内在逻辑,需要与人本主义有机结合起来,才能更好地服务信息化时代人们对信息的需求,才是科学、有效、持续创新力的体现。


(作者刘新传  系北京大学新闻与传播学院研究员、博士生导师,国家战略传播研究院学术部主任)


来源:新闻战线
链接:https://mp.weixin.qq.com/s/12jyGlMzQP8Y_Y8i9wtbHQ


编辑:马晓晴


作者: admin    时间: 2018-12-28 15:55
【案例】

制作短视频仅6秒!新华社发布首个MAGIC短视频智能生产平台
导读
1227日新华社在成都发布中国第一个短视频智能生产平台媒体大脑·MAGIC短视频智能生产平台。这标志着短视频生产进入自动化时代!
媒体大脑·MAGIC短视频智能生产平台都能做些啥?给媒体带来了哪些福音?
新华社副社长刘思扬,新华智云联席CEO徐常亮在会上发表了讲话。
昨日,《传媒茶话会》对话新华智云科技有限公司新媒体VP商艳青。
生产一条短视频最短仅需6秒!
在第六届中国新兴媒体产业融合发展大会上,MAGIC短视频智能生产平台现场演示了大会短视频智能生产过程。仅27日上午,MAGIC短视频智能生产平台共生产186条短视频,其中97条机器生产,89条为人机协作生产。
新华社副社长刘思扬说,媒体大脑·MAGIC短视频智能生产平台的发布,对媒体变革和媒体智能化具有标志性意义。他认为,“MAGIC”让我们看到媒体+人工智能的广阔前景,它对未来媒体的生产、传播必然会产生重大影响。
新华社副社长刘思扬讲话
MAGIC短视频智能生产平台生产一条短视频最短需要多少时间?
生产一条视频平均仅需50秒左右,最快的只要6秒。新华智云联席CEO徐常亮表示,世界杯期间,MAGIC短视频智能生产平台通过算法进行进球视频的识别和切片,节省了大量时间。同时,这些片段都被进行了结构化、标签化的处理,未来如果生产一条类似“1-23号球员均有进球这样的稿件,可以直接进行素材调取,花费的时间可能只是传统流程的几十分之一。
新华智云联席CEO徐常亮讲话
那么生产的内容是否会千篇一律毫无新意?
我们希望打造一条内容生产的流水线 ,这和以往工业时代的流水线的本质区别在于内容流水线的原材料本身具有多样性。徐常亮表示,比如一个进球智能模板,由于每一个进球本身都是不同的,这使得模板生成的视频,无论是梅西和C罗的进球组合,还是C罗自身进球的组合都具有独特性和可看性。这个也正是内容行业的神奇所在。
MAGIC短视频智能生产平台能为媒体做些啥?
新华智云科技有限公司新媒体VP商艳青告诉《传媒茶话会》,新华社本次发布的媒体大脑·MAGIC短视频智能生产平台集纳了自然语言处理、视觉语义理解、音频语义理解等人工智能技术。能够实现秒级生成、海量生产、受众喜欢。利用先进的大数据和人工智能技术,结合对媒体场景的深度理解,对数据和媒资进行整合,帮助媒体实现媒资素材搜索管理短视频生产的过程一体化、智能化、工业化。
具体分为以下四大模块:
1. 智能数据工坊
智能数据工坊利用语音识别,OCR,人脸识别等技术,将媒资素材进行由非结构化的数据变为标签化、结构化的数据,好比对原油进行提纯。帮助拥有海量媒资的媒体机构提高其内容生产效率,发挥数据价值。
2. 智能媒资平台
通过算法高度智能化、标签化处理的素材是零件,储存在仓库中随时可以被调用。
包含两万余个娱乐名人实体,一万余个人脸 ,近2000个政治人物实体,覆盖大部分地市级以上官员,并且不断更新中。
商艳青谈到,当然,对于生产来讲,最重要的是生产资料,对于生产视频来讲,最重要的是媒资和数据,我们也在筹划中,与更多的数据供应商来合作,为视频生产提供服务。同时,该平台上的机构用户也可进行素材共享,从而创造收益和价值。
3.智能生产引擎
MAGIC有自动识别能力,一旦新闻仓库里出现了具有较高新闻价值的结构化数据,譬如火灾、地震等突发事件,MAGIC会立刻提示使用者,帮助记者/编辑在热点报道中争分夺秒。在体育直播、金融等特定领域,MAGIC从数据采集到视频发布,实现数据可视化,数据视频化,视频自动化。
4.智能主题集市
MAGIC设置了多个智能模板,覆盖时政新闻、突发事件、体育赛事、时尚娱乐,金融等多个领域。
《传媒茶话会》了解到,除了MAGIC短视频智能生产平台,媒体大脑家族还拥有多个媒体产品可为记者赋能,比如,数芯帮助编辑找到选题,媒体大脑版权区块链实现版权存证自动化,媒体在MAGIC短视频智能生产平台上发布的短视频可一键式在公证处等机构进行版权存证等。
我们相信智能化的内容生产有其通用性,无论是拥有大量历史视频、音频的广电媒体,还是拥有大量图片素材的报业媒体,只要有内容生产需求,只要生产短视频,都可以用到MAGIC商艳青告诉《传媒茶话会》,各行各业的媒体一直拥有自己的专业度和垂直抵达能力。MAGIC平台如今已经在体育足球这个场景进行了应用,实现了全程的自动化,也正在把AI能力应用到金融领域,应用到会议直播,应用到突发事件(比如火灾、爆炸、碰撞、地震等),应用到娱乐时尚等领域,未来会应用到通用的新闻领域。
作为国家通讯社,我们很愿意向媒体开放这个生产平台,为你们服务,做大做强主流舆论,是我们的职责使命。新华社副社长刘思扬表示,媒体要实现个性化制作、可视化呈现、互动化传播,今天发布的媒体大脑·MAGIC短视频智能生产平台是非常好的途径。它将助力采编人员,生产更多用户喜欢的短视频产品。
“MAGIC短视频智能生产平台于1227日正式对外发布,媒体机构可在官网注册后,开通账号使用。不同套餐根据功能和权限不同,会有不同的收费标准。商艳青透露,MAGIC平台自带简单的交互教程,总体比较方便上手。此外,平台也会提供相关的用户手册,如果媒体机构需要更详细的操作指引,或者希望对编辑记者有具体场景的培训,可以联系新华智云的工作人员获取进一步的帮助,平台可以安排在线视频协助等多种形式的支持服务。
来源:微信公众号传媒茶话会
链接:https://mp.weixin.qq.com/s/N-dxiB31F1Y1Gh4eusQocQ
编辑:马晓晴


作者: admin    时间: 2018-12-28 20:56
【案例】

耗资10亿证明AI无用?干货分享:教育大咖激辩AI+教育


    CNNIC数据显示,2020年中国人工智能核心产业规模将超过700亿元,带动相关产业规模超过1万亿元,其中,「AI+教育」的市场规模达到3000亿。

任何技术的出现,对于教育而言都存在着一次融合、创新的机会。AI+教育,果真这样神奇吗?实际上,AI之风从2014年开始吹到教育行业,在2017年达到顶点,随后2018年开始回落。
    12月中旬,在多鲸资本年会上,学霸君创始人张凯磊的「AI无用论」即刻引爆教育圈,引发热烈的讨论:有人说,再强的技术也比不上人类的神经系统;有人说,大数据题库结合AI逻辑,适当运用没问题;当然,也有人all-in,希望借AI引领行业……
张凯磊的AI无用论要点有二:1、花了10亿之后,发现AI技术还处在很初级的阶段,对教学没有用;2、即使是好的AI教育,也只需要帮助老师保证教学标准化水平。
    对此,松鼠AI合伙人梁静独家回应传习邦(IDchuanxibang):张凯磊说对了一半,也说错了一半。
借此机会,传习邦结合各位教育行业大佬们对AI的不同理解,组织了一场「隔空辩论」。现在,辩论开始,有请双方辩友上场——
    正方辩友
    松鼠AI合伙人梁静、多鲸资本合伙人葛文伟、基因资本合伙人温慧生、兴旺投资创始合伙人熊明旺
    反方辩友
    精锐教育集团兼巨人教育董事长张熙、学霸君创始人张凯磊、秦汉胡同国学创始人王双强
    中立辩友
    睿泰集团董事长、总裁艾顺刚

- 1 -
真有用,还是伪需求
    学霸君创始人张凯磊:
    我的结论是,眼前所谓的AI技术对于教学没什么用。作为一个已经在AI技术花了10个亿的人来说,这句话听起来挺悲哀的。教育AI投了这么多钱,水平仅仅相当于放大镜,远远没到显微镜、核磁共振的水平。现代医学花了三四百年时间,多少优秀的人前赴后继,多少万亿的资金投入,仍然治不了癌症,试想我们怎么可以对记忆、认知产生影响?
    松鼠AI合伙人梁静:
    AI based Adaptive Learning在美国已经不是有没有用的问题了,Knewton号称1000万用户,ALEKS号称500万用户,十几家公司总计两三千万用户了,有个报告说未来三年每年增长率48%
    基因资本合伙人温慧生:
    AI在一些特定领域、特定功能上是可以代替教师的,比如答疑,因为它毕竟就是一些知识点,另外少儿英语和低年龄段的教育,因为语音识别已经比较成熟。但是引导和激励AI老师还是没办法代替。
    精锐教育集团兼巨人教育董事长张熙:
    几年前很多公司搞高考机器人,说这是人工智能的重要的应用,当时很多同事说要投资,我们想了想,也看了看,最后还是决定不投。现在也没有人提高考机器人了,所以不要唯技术论。
    松鼠AI合伙人梁静:
    拍照答题有用,学生需要。高考机器人,确实没有用,因为不是教学系统。AI教育在类别上可以分为策略类和工具类,其中识别类包括拍照搜题、智能评测、智能阅卷等,应用了图像识别、语音识别等,目前还有类似脑科学、表情识别,其实都应用得不是非常成熟,而且更多的是工具类;而策略类主要是自适应的教学方法,自适应包括的测、教、学、练几个环节,也都是教学中最核心的。


- 2 -
老师重要,还是AI 重要
    秦汉胡同国学创始人王双强:
    教育的核心还是教师,是人。教育本质上谁都替代不了人本身,因为人是有血有肉是人的世界,技术只是在这个过程中的一个工具,本质上要有好的内容、要有很多好的老师。
    学霸君创始人张凯磊:
    考试本身是一个排名游戏,当AI把老师的教学管好之后势必会规模扩张,越来越多的人能学得好,如果到时候还能保证孩子的成绩排名不掉下去,那这样的AI系统就非常好了。AI今天唯一能做的,基本就是赋能老师、提高老师的水平,甚至AI能把这个事做好已经非常阿弥陀佛了。
    松鼠AI合伙人梁静:
    AI让老师讲课标准化、保持课堂效果的一致性即可这个说法错得厉害。AI的目的是千人千面,一定是大量的非标准化内容通过算法匹配非标准化的用户画像,不同学生的起点不一样,知识分布不一样,每个知识点上的敏感度不一样,性格偏好不一样。
    兴旺投资创始合伙人熊明旺:
    目前一些AI产品,长远来看还是可以在消除教育资源不平衡方面做出贡献,比如我们可以想象,一个AI老师一小时只收5-6块钱,这是绝大多数中国家庭能够承担的费用,这对不公平不平衡的现象是一个巨大的进步。


- 3 -
技术难关,能不能克服
    多鲸资本合伙人葛文伟:
    AI会比移动互联网在教育上有更大应用的前提。我们说PC互联网和移动互联网是教育场景发生了迁移,学习效率有了很大的提升。本质上,并没有改变教与学的链条,也没有让教育企业整个运营收入成本比发生变化,但是AI能够解决这个问题。
    精锐教育集团兼巨人教育董事长张熙:
    在教育行业,应不应该唯技术论是值得探讨的。教育的核心还是体验,技术只是一个手段。一家做教育的公司说要改变教育,变成一家技术公司,凭什么?难道谷歌、BAT不比你擅长做技术吗?真正技术改变教育也轮不到我们做这个事情。
    学霸君创始人张凯磊:
    中国高考不是标准化的考试,浙江新高考改革说明:哪怕一整个省,都支撑不起每年持续稳定地输出一张难度系数一致、考察范围可靠、有效的考卷。一张有质量的考卷成本非常非常高,需要的样本量出不会少于一个亿。
    多鲸资本合伙人葛文伟:
    拜移动互联网所赐,今天的教育工作者已经形成很大量而广泛的数据库,使AI在这个行业爆发不再有缺失数据的拦路虎,使教育彻底改变因为人的结构而产生的模型。
    睿泰集团董事长、总裁艾顺刚:
    中国的企业普遍太盲目自信、太单打独斗了,觉得自己什么都能做。实际上分段协同很重要。教育这个行业太大,大到谷歌、甲骨文、Facebook这种量级的公司都认为,单凭科技公司是不可能整合教育的。同样,教育公司也不可能自己研发科技。所以他们通过信息管理系统(IMS)这个组织,找到一些比如统一的数据接口、协作的方案,去探讨法律法规的边界问题,比如将来的数据应该归属谁。在这样的生态环境下,他们才达到了强强联合。


- 4 -
大势所趋,还是无疾而终
    多鲸资本合伙人葛文伟:
    如果说上一个周期(2004-2014年)最重要的核心是互联网,那么下一个周期(2025-2035年),核心毫无疑问是人工智能。行业目前这个周期正处在下行阶段,教育跟移动互联网结合的红利的尾巴转向教育跟AI红利的结合,我们预测2022年左右我们经济周期是往上走的,使教育完美地跨越这十年周期。
    基因资本合伙人温慧生:
    我觉得下一个五年很重要的投资方向是AI+教育。传统教育服务企业成功的核心是提供优秀教师和好的内容,到了AI+教育,更多的是数据和算法。这样一来,对创始人的基因要求就变了,必须是技术导向,他要理解技术、理解AI对企业商业模式有多大影响、可以延伸出哪些商业可能性。
    精锐教育集团兼巨人教育董事长张熙:
    自从人类进入工业社会以后,出现了蒸汽机、电报、电视、广播等各种新技术,但现在的教育场景跟1000多年前还是很类似。过去几年讲AI/VR,火了五年以后无疾而终,连谷歌和Facebook都没有挣到什么钱,AI/VR与教育场景最契合的技术也没有大的突破。
    秦汉胡同国学创始人王双强:
    在这个时代,让技术为我所用是一个基本需求,让产品在线化、让组织和资源做数字化升级是任何商业机构必然的素质。把会用手机、会用微信、会坐飞机、会坐动车作为核心竞争力,是非常可笑的事情。随着时间的推移,技术会越来越边缘化,不管你是AI还是什么,适可而止,恰当好就够了。
兴旺投资创始合伙人熊明旺:
    如果从市场上变与不变的因素来看,教育需求和教育公平没有变,行业需求提升没有变,变的部分是指移动互联网红利变成了AI红利,或是下一代VR交互体验的红利。我认为,教育行业整体行业集中度未来五年十年有一个持续提升的过程。

    最后总结+感言,睿泰集团董事长、总裁艾瑞刚:回到商业的原点,我们谋求解决的,其实是一个投资回报率+用户服务效率的问题。科技+内容+服务,三个环节都很重要。现阶段,是不是一定要把AI加到产品上去?不见得。每个企业不一样,要自己衡量。


特别鸣谢:多鲸资本
    本文由传习邦独家于20181228日原创首发,未经许可不得转载。关注传习邦(微信公众号IDchuanxibang),深刻洞察教育行业。传承学习,教育兴邦。


来源:传习邦
链接:https://mp.weixin.qq.com/s/snmu5QXdc5qR1u5erTWSVg


编辑:马晓晴


作者: admin    时间: 2018-12-28 21:23
【案例】

无所不能的AI能帮你写年终总结吗?


    又双叒叕到了年终总结时,想必你正在苦思冥想如何写一份高质量且不落俗套的年终总结吧。上周我也收到了开年终总结会的通知,和你一样,我也为写总结挠头。当时我刚好编完一篇人工智能终将取代人类诸多工作的文章。文章中列举了365种工作的消亡概率(原文点这里),很多岗位看起来岌岌可危,我突发奇想,如果AI终将取代我的岗位,它是否也需要写年终总结?我刚为自己的脑洞感到兴奋,但一转念就发现这个脑洞一点也不清奇,因为AI的确不用。先不论AI并不是像机器人那样工作,即便真的在一些岗位上是那样,它还是不用,因为AI的职责相当明晰、绩效根本不用考核,关键是它不用管已经发生的事情,它只需要专注眼前和未来(比如深度学习)就好。
    想到这里我突然发现,这其实是一种非常理想的员工绩效管理状态——不用写年终总结,员工不用总关注过去发生的事,而是专注于眼前的工作,以及如何在未来提高。而且,这不是我的脑洞,这已经是许多公司在绩效管理上践行了多年的最佳实践。


写不好年终总结也许不是你的错
    年终写年终总结,这件看起来天经地义的事儿,其实已经在很多公司被取消了。沃顿商学院管理学教授彼得·卡佩利,和哥伦比亚大学人力资本管理教育项目教务主任安娜·塔维斯就在发表于201610月的《绩效管理新方向》一文中指出:许多公司都取消了年终总结,因为年度评估最大的缺陷是:由于过度强调财务奖惩,且必须在年终进行,它迫使员工为过去的表现负责,却因此难以提升当前表现,以及培养未来技能,而这两项才是企业长期生存的关键。
    社会科学研究显示,员工痛恨数字评分:相比满分5分被评为3分,得到“中等”的评级更容易接受。员工还厌恶强制排名。沃顿商学院伊万·巴兰基(Iwan Barankay)的实地研究显示,当他们被评价的方式是与他人对比时,员工的表现反而比之前更差。而且评价也可能不客观,对评估结果的研究不断显示,评估者给和他们相似的人打分更高。因此,评估者对评估结果的影响,不亚于员工的实际表现。
    对管理者的调查反复显示,他们同样不喜欢评估员工。韦莱韬悦的研究发现,45%的管理者不认为评估体系有价值。德勤报告称58%HR高管认为,管理者用在绩效评估上的时间是低效的。
    据CEB估计,2014年,12%美国企业完全取消了年度评估。韦莱韬悦得出的数字是8%,但同时指出29%的企业正考虑取消评估或有此计划。
德勤是取消年度评估的积极践行者,它们采用更标准、更透明、更频繁的评估体系,取代了一年一度的考核,提高管理效率的同时降低了管理成本。(详见《哈佛商业评论》201510月刊《重构绩效管理》)
    你看,年终总结,作为绩效评估的重头戏,正在被越来越多的公司抛弃,取而代之以更符合当前人才发展需求、更加敏捷,以及更以团队而非个人为中心的绩效管理方式。因此当你感到年终总结不好写,年度评估不公平的时候,那也许不是你的错。


还是要写年终总结AI能不能帮你写?
    不过读者也不要急于把写不好年终总结的帐算到企业头上,并非每家企业都出于同样的业务压力,需要改变绩效评估体系。在有些领域和行业,如销售和金融服务,仍有必要强调职责和针对个人的财务激励。对于公众负有重大责任的组织,传统绩效评估模式仍可能非常有效。
    既然注定还是有很多人要写年终总结,聪明的读者一定会想到聪明的AI能不能帮我写年终总结呢?答案还是不能。
    《哈佛商业评论》英文版高级编辑沃尔特·弗里克就深入研究过AI写文章的水平到底几何,结果发现,AI可能在撰写摘要、提炼核心观点、提升调研速度上尚可胜任,但目前它还写不出合乎逻辑的长文章。他指出,如今,AI的运作原理是将任务转化为预测问题,之后使用统计技术和海量数据完成预测。举例来说,短信类预测问题之一是自动完成(auto-complete)。如果你将“还算”作为一段话的开头,你的手机就会通过数据和统计模型预测接下来的文字,比如“顺利”“好”或“比较”。你想打的是“顺利”,而选择这个词之后,手机就会接着预测下一个词。这次它非常自信,只给你“吗”的选择(确实是正确的预测),然后直接跳到下一个词汇的选择,比如“和”或“今天”。
    但我们不能把写一篇突出成就、展示成绩、描述职业愿景的年终总结变成预测问题。
    关键是,AI没有叙事能力。2016年在机器学习的协助下,一个名为《阳春》的剧本诞生。研究人员将数十本科幻电影剧本逐字输入到神经网络(机器学习算法类型之一)中,神经网络学习剧本的特征,比如台词应分配给不同演员,而且剧本中要写清楚舞台指示。神经网络只读了几十部剧本,就学会以上所有技能,但它没有从这些剧本中学到叙事艺术。《阳春》没有故事情节,角色只是为了说出分配给他们的台词而存在。这部剧本说明,机器学习在成为叙事大师,或者说获得“智能”的路上,还有很长一段路要走。
    你看,人类有很多能力是独特而难以复制的,至少迄今为止,AI再聪明甚至都不能帮你写好一份年终总结。


还是要自己写年终总结你可以这么写
    那么,作为一个活生生的员工,我们该怎么写好一篇生动的年终总结呢?玛莎·萨缪尔森,作为一家咨询公司的CEO,就曾对如何写好年度总结给出了如下建议:
    了解上司如何使用它。你的自我评估当真被用来评估你,还是只是HR的例行公事?你的上司是否会基于它来决定你的升职和奖金?一些比较懒的上司会将这些自我评估直接剪切并粘贴到公司综述里。如果这是你上司的所为,你可以用一种方便他这么做的方式来写。
    突出你的成就。不要傲慢,但是也不要淡化你的成功;以谨慎的方式承认错误:不要让你的老板抓住“牵制你的把柄”,你应该顺便提到不足之处,但是要确定能用其“转为利好的一面”。
    聚焦于你自己。批评别人很容易,尤其当他们干扰了你的工作,但是要记得,这份评估是关于你的,同事间的问题跟你的上司沟通,但是不要写在评估里。
提出你的要求。聪明的员工会运用个人评估来赢得更多发展机会。要具体详细说明工作中哪些让你兴奋,哪些你还可以更多地参与。但要确保你的要求合乎你所在部门的业务需求。
    你看,写好一份年终总结并不难。其实,在任何时代,每个人都有不可被取代的一面,也许它并不直接表现在工作上,但你要相信,你是独特的,是人类多样性、多元化的一份子,是这个世界如此缤纷的原因,这既无法被其他人替代,更不会被AI替代。好了,写了这么多,我也该去写我自己的年终总结了。
    最后,也祝你的2018值得记取,2019值得期待。


李源 |
李源是《哈佛商业评论》中文版编辑总监。


来源:微信公众号哈佛商业评论
链接:https://mp.weixin.qq.com/s/ne-pNFwgUJiA56msv-qabg


编辑:马晓晴


作者: admin    时间: 2018-12-31 11:39
新闻传播经验应用在机器写作技术开发中的个案研究
韩晓乔张洪忠  新媒体观察  2018-12-28
摘选自《全球传媒学刊》(2018.4)刊发的《文科思维与技术思维的碰撞:新闻传播经验应用在机器写作技术开发中的个案研究》一文,仅为部分内容,有些段落只有主题句,或者整段删除,全文参见刊物内容。
作者:韩晓乔  张洪忠  何苑 石韦颖
问题
本文对北京师范大学新闻传播学院参与微软小冰项目组开发“小冰白盒写作辅助工具”的过程进行个案研究,从北师大团队角度探究以下问题:资讯聚合类新闻文本自动化生成原理及模板生产模式为何;新闻传播专业经验如何使得机器新闻写作文本更接近人类写作文本;文科思维与技术思维的差异体现在什么方面以及如何进行磨合。
本研究采用个案研究方法探讨问题,以北师大新闻传播学院团队参与微软小冰“小冰白盒写作辅助工具”开发过程的个人经验为研究对象,并结合前期的11次讨论会的会议记录文本及项目合作期间产生的其他书面资料辅助分析。此前几乎没有关于新闻传播专业人士参与到机器新闻写作工具设计开发层面的记录与研究,希望本研究对后续相关研究能有一些实践层面的参考价值。
参与开发过程
2017916日北京师范大学、微软和封面新闻联合成立了“人工智能与未来媒体实验室”,在20171116日封面新闻举办的“智创未来2017C+移动媒体大会上,微软亚洲互联网工程院小冰团队的总经理曹文韬和北师大新闻传播学院张洪忠教授商定,张洪忠教授团队参与到微软小冰机器写作的开发工作之中,作为“人工智能与未来媒体实验室”的一项实际工作。
201712月初,微软小冰团队与北师大新闻传播学院张洪忠教授团队(后面简称“北师大团队”)正式展开合作,在微软小冰团队前期工作基础之上共同合作探索出一套可行的资讯聚合类新闻机器写作模板生产模式。张洪忠教授团队人员有:张洪忠教授,讲师刘茜博士,博士生何苑,硕士生韩晓乔、刘力铭、石韦颖、丁磊、王小月。项目合作分为两个阶段。前期双方团队每周开展1-2次讨论会,交流工作进度、探讨修正方案和布置工作,先从聚合类娱乐新闻的机器写作开始。后期北师大团队的博士生、硕士生以实习生身份进入微软公司,与微软开发团队一起将验证可行的聚合类娱乐新闻模板生产模式推广到科技、体育等更广泛的写作领域。
整个项目的工作可以分为六个部分,由北师大团队和微软小冰团队分工合作完成:(1)行业内容结构梳理:以娱乐新闻为例,建立文章类目表,设计机器写作逻辑框架。这一部分主要由北师大团队完成。(2)对应行业结构,将不同观点态度的文章写作手法归纳总结,并形成相应的机器可以理解的模板进行学习训练(3)数据补充与模型训练:工程师给予对应模板模型收集人类写作文本作为机器学习对象,并进行算法模型训练。由微软技术人员负责。(4)效果评估:在讨论会上共同阅读分析测试文本,检验模板和算法的可行性,以改进方法。由北师大方面在微信群、微信公众号、今日头条发布机器生成完整新闻文本,观察受众反应。(5)向科技、体育等领域扩展:在项目后期,北师大团队部分成员进入微软公司与小冰团队一起将验证可行的模板生产模式推广到科技、体育等更广泛的写作领域。(6)模板编辑工具开发:模板编辑工具的开发与模板架设同时进行。微软团队负责产品设计与开发,北师大团队从用户角度提供需求。
之前的机器写作工具主要生成财经、体育类别下的快讯类新闻,以填充描述性数据为主。就是“人”先设计好写作内容的格式,机器只需要搜索并匹配相关内容到格式中,就可以像做“填空题”一样完成报道的简单写作。[虽然在大数据和算法技术支持下,机器写作已经可以实现同一主题下多事实信息的聚合,但也只是对信息的简单聚合,无法在将碎片式信息串为整体的同时兼顾文章中心思想的呈现,因此生成的文章不符合人类阅读习惯。
微软小冰团队和北师大团队为了使“机器写作”向“人类写作”更靠近,需要将不同观点写作手法的规律总结为机器可以理解的形式,然后指导机器去寻找对应观点态度的数据来成文。同时,机器生成文本需要使用人工编写的语句衔接,并采用更符合人类写作逻辑的结构组合。因此,要开发出一套更接近人类写作的文本生成工具,除了技术开发外,还需要了解传播规律和新闻写作技巧的专业人士参与写作模板的设计。
2018726日,微软召开第六代微软小冰发布会 ,发布会上推出“小冰白盒写作辅助工具”,该工具由微软小冰团队与北师大团队合作开发,旨在帮助媒体从业人员快速搜集、聚合报道所需要的事实信息并形成新闻初稿。根据用户的需求,该工具可以实现对同一事件选取不同观点态度进行报道的功能。
机器新闻写作模板的生产模式
机器写作的模板由报道主体、人工衔接语、标签、段落选取规则组成。模板限定了文章的写作框架、事实信息的排列顺序以及情感倾向。模板的设计和衔接语的编写都会影响机器生成文章的逻辑和流畅性。
要想实现批量、自动化生成更接近人类写作风格的文本,就需要找到人类写作逻辑与机器写作逻辑的契合点,开发出一套通用的模板生产方法论。北师大团队和微软小冰团队以娱乐新闻为切入点,探索出了一套以情感态度为关键的资讯聚合类新闻机器写作模板生产模式。
模板主题选择:记者思维
从简单的罗列事实到形成完整的文章,需要有一个主题支撑。主题不同、模板的设计也会有所不同,模板的主题就是文章的主题,在这里也就是自动生成文本的类型。
在进行具体模板框架设计之前,首先要确定模板主题的分类方式。建立新闻的三级类目,例如将“娱乐”作为一级类目,对娱乐新闻的主题进一步细分作为二、三级类目。分类既是每个模板生成文章的主题,也是记者使用机器写作工具时选择的生成文本类型,设计的好坏将决定媒体工作者能否迅速找到自己想要生成的报道。
北师大团队在收集并阅读了近五年娱乐大事件的相关报道后,发现娱乐新闻和娱乐相关的微信公众号文章往往以最新发生的事件为引,再追溯事件涉及人物的相关历史新闻,最终形成一篇内容丰富的聚合类娱乐资讯。结合新闻写作的专业知识,团队经讨论决定从新闻报道事件类型的角度对模板进行分类,也就是在娱乐下首先建立包括绯闻、违法、综艺、奖项、时尚活动等在内多个二级类目,再在每个二级类目下建立三级类目。比如“绯闻”下的三级类目是“未婚绯闻情侣”、“出轨”等。每个三级类目既代表一个文章主题,同时也是新闻模板引语部分陈述的事实信息。这样设计文章分类,为的是令记者在遇到突发新闻使用工具生成文章时能迅速根据事件类型找到所需模板生成文章。
记者思维强调以事实的时间性和重要性排列事实信息,改变时间线的叙事结构,这一点也被应用到后面的模板框架设计当中——先报道新近事实,再根据重要性盘点相关历史事实信息。
人格化关键:情感态度
“机器没有情感态度,人类才有,可以通过不同事实组合呈现出差异化的态度。”在第四次的讨论会上,为了使机器生成文本从罗列事实到呈现观点态度,北师大团队提出在三级类目的基础上将同一主题的模板根据情感态度再次进行分类。在定下模板主题分类方式后,选取二级类目“绯闻”来设计模板。经过讨论,决定以“未婚绯闻情侣”为例,分“批判/祝福”两种态度来进行模板写作。由新闻传播学院的学生编写衔接语、制定段落标签(段落主要内容)并设计文章结构。此次写作的两个模板主要区别体现在衔接语的表达上,段落标签选择和顺序上几乎没有差别。
模板写作测试:调整技术与模板
微软团队工具的开发伴随着不断的测试和结果评估,以改进算法和模板设计,直到达到最佳效果。
在第一次情感态度驱动的写作模板完成后,微软团队将“刘雯/崔始源”、“吴昕/潘玮柏”这两对绯闻情侣的名字输入到模板中进行测试,生成了四篇机器写作文本。第五次讨论会上,北师大团队和微软团队对结果共同进行了评估。
讨论会上决定将同一个三级类目下不同态度的模板架构加以区别,以突出表达情感态度。
特别有进展的一点是,加入了观点和态度这两个全新的标签,进行数据模型的深度学习。
对于数据的聚类成文后,还要进行对应内容的二次改写。
“树”的搭建:写作的模式化量产
在确定了模板设计的基本思路后,需要考虑同一主题模板的量产问题,即如何在报道同一主题事件时自动化生成大量不重复的文本。
方法论推广
在“综艺”和“出轨”主题模板验证了流程的可行性之后,北师大团队里的学生成员进入到微软公司,将方法论推广到科技和体育领域。具体模板生产流程有五步。
文科思维与技术思维的碰撞
写作是偏文科思维的任务,而机器写作的工作原理是理科逻辑,这就要求学科交叉共同合作,来达成目的。北师大团队均为人文社会科学学科背景的师生,而微软团队则多为理科背景的技术开发人员,两种不同学科背景和思维模式的团队在合作中逐渐显现出明显的学科差异。但双方通过深入沟通促进相互理解,擦出了新的火花。
时间线与新闻价值
微软小冰最初生成的文本基于时间线叙事,预设模板是将事件按照发生顺序罗列,在北师大团队看来,这样的文本固然叙事清晰,但机器组合的痕迹依然明显。通常,新闻写作常用的“倒金字塔结构”会将更重要的内容放在前面,这样才能吸引读者继续读下去。要完成一篇合格的公众号文章也需要有故事的起承转合,有戏剧性的文章有起伏才有人看。模板的事件分类和情感态度主导也是基于这种文科思维来设计的。
对技术部门来说,无论是时间线,还是反转式的故事,只要有清晰的规则就能实现,重要的是规则。
规则化与概念先行
人类写作的思维是将若干个概念串联在一起,有了一个概念,概念的涵义自然就在脑海中被解读并检索出对应的具体信息,实现概念的具象化。但是如果仅仅给出一个概念,对机器来说是无法理解的。在会议上北师大团队的成员经常被技术人员追问某个标签的具体含义,因为只有技术人员将明确的外延和内涵写成规则,机器才能理解。最初北师大团队给出的模板中有“互动”、“产生社会不良效应”等含义广泛的概念作为标签。人与人尚难以给出同一概念界定,机器更难理解。为了解决概念模糊机器无法理解的问题,团队采取了多种优化措施。比如“互动”这个词,作为标签,边界宽泛,需要更具体的解释。机器不能理解抽象定义,所以要对标签进行意义拆分,拆成更具体的子标签。北师大团队首先将“互动”拆成了“节目互动”、“剧组互动”等子标签,并且通过举例让技术人员知道每个子标签代表的具体内容,再根据例子写成规则训练机器。
技术逻辑是一种规则嵌套,机器无法独立完成概念的具象化理解,文科思维需要再向前走一步,帮助机器完成概念的具体化,技术思维则将明确的文字规则编成程序,二者共同构成人类思维与算法之间的桥梁。
自动化生产与个性化创作
   技术思维讲求一个算法解决一类问题,一个模具批量生产大量产品。人类写作与机器生产不同,常常被认为是个性化的。模板衔接语是机器生成文章当中人工写作的部分,一套模板衔接语理论上要能够被用于同一主题(比如“单身绯闻情侣”)下同一态度的所有情境,不论“小鲜肉”还是“大叔”作为绯闻对象要都能够带入同一模板。在北师大团队和微软小冰团队的讨论会上,争议最多的要数衔接语的通用性问题。微软方面提出一些词语无法套用所有艺人身上,造成文章逻辑混乱;北师大团队中负责写衔接语的成员则认为完全删掉有指代性的词会削弱文章的生动性,文章语言会显得生硬。
   自动化生产必然会牺牲个性化,但个性化正是人类写作的精髓。在这一问题上,最终双方也没有找到完美的解决方法。写衔接语的成员在用词上更加小心以避免使用指代对象有限的词语,但一些模棱两可的词语也被允许写入模板中。由此可见,通用性和个性化之间的权衡仍是需要人类完成而机器替代不了的。
结论与思考
一是要正确理解机器写作。那些认为机器写作可以完全替代人、或者认为机器写作有价值观的说法其实都是不准确的。现阶段机器新闻写作的原理是基于大数据驱动,通过数据检索、数据分析、自然语言处理等算法将所需信息填入人工设计的模板中,不能从真正意义上完成有逻辑、有态度观点的自动化文本生成。机器擅长处理海量数据,能够弥补人的大脑在信息储备、数据处理上的弱势,更快速、精准地找到完成新闻文本需要的信息,从而减轻人类的工作量。但由于技术的局限,机器不能理解复杂的逻辑关系,甚至无法区别主被动关系,因此仅依靠机器生成文本无法构成一篇逻辑严密的新闻报道。此外,机器还不能进行采访,只能引用网络上已有的信息。也就是说,机器写作无法采集到线下事实,只能按照“人”设定的模块来写作,只是一个基于算法的依赖互联网大数据来源的写作工具。
二是机器写作会很快成为传媒业内容生产的一个高效的辅助写作工具。机器写作在新闻领域更适合被当作一款写作辅助工具,来帮助人类处理海量复杂的信息,将人从反复枯燥的劳动中解放出来,但人的工作仍然具有不可替代性。媒体从业者在自动化文本生成工具的开发中担任着设计师的角色。专业的新闻编辑可以为机器新闻写作工具制定写作框架,根据不同新闻资讯的题材设计出更符合人类阅读习惯和信息需求的写作规则。机器写作还不可避免地需要人工写作的内容来进行完善——所有的模板衔接语均由人类完成。
三是在当前人工智能技术被广泛应用于传媒业的背景下,文科思维与技术思维的碰撞与合作将成为常态。学科如何交叉合作成为日益凸显的问题。在“小冰白盒写作辅助工具”开发的案例中,北师大团队经历了从完全的文科思维到理解技术逻辑并可以灵活运用的转变。理解技术逻辑使文科从业者能够更好地运用它。在机器写作项目中,写作功能需要文科思维,但功能由技术实现,新闻传播学院的师生在开发过程中担当了技术与功能实现之间的桥梁。越接近需求,越要使用文科思维,越接近底层技术实现,越靠近技术思维。比如文科思维判断生成文本需要有情感态度,理解机器的技术逻辑是聚合包含事实信息的文本后,决定通过事实的选择和顺序来使文章具有价值判断,这就实现了文科思维和技术思维的转换。文科从业者没必要完全掌握代码编写,只需要掌握技术逻辑和原理,将纯文科思维用技术思维进行解构分析,就能促成两者的合作。
四是目前新闻传播学术界有一个流行观点,即夸大机器写作的功能,担心机器写作会取代的人的思想而变得不可掌控,甚至走偏。其实,了解机器写作的原理后,就知道机器写作只是一个写作的高效辅助工具而已,本身并不能形成观点,其生成的文章背后还需要体现的人的观点。
[1]感谢微软亚洲互联网工程院小冰团队总经理曹文韬先生对文章提出的修改意见,以及感谢小冰团队的各位工程师和参与人员的合作。
[2]韩晓乔,北京师范大学新闻传播学院硕士研究生;张洪忠,北京师范大学新闻传播学院教授;何苑,北京师范大学新闻传播学院博士研究生;石韦颖,北京师范大学新闻传播学院硕士研究生。
[3] Kim D, Kim S. Newspaper companies'determinants in adopting robotjournalism[J]. Technological Forecasting &Social Change, 2017, 117.
[4]Carlson,Matt. The Robotic Reporter:Automated Journalism and the Redefinition of Labor,Compositional Forms, andJournalistic Authority. [J]. Digital Journalism,2014,3(3): 416-431.
[5] Zheng Y, Zhong B, Yang F. When algorithmsmeet journalism: The userperception to automated news in a cross-culturalcontext[J]. Computers in HumanBehavior, 2018, 86:266-275.
[6]金兼斌.机器新闻写作:一场正在发生的革命[J].新闻与写作,2014(09):30-35.
[7]张洪忠,石韦颖,刘力铭.如何从技术逻辑认识人工智能对传媒业的影响[J].新闻界,2018(02):17-22.
[8]邓建国.机器人新闻:原理、风险和影响[J].新闻记者,2016(09):10-17.
[9]彭兰.移动化、智能化技术趋势下新闻生产的再定义[J].新闻记者,2016(01):26-33.
[10] Thurman N, Dörr K, Kunert J. WhenReporters Get Hands-On withRobo-Writing: Professionals Consider AutomatedJournalism's Capabilities andConsequences[J]. Social Science ElectronicPublishing, 2017.
[11]魏峰.从个案到社会:教育个案研究的内涵、层次与价值[J].教育研究与实验,2016(04):24-29.
[12]王富伟.个案研究的意义和限度——基于知识的增长[J].社会学研究,2012,27(05):161-183+244-245.
[13]何苑,张洪忠.原理、现状与局限:机器写作在传媒业中的应用[J].新闻界,2018(03):21-25.
[14]何苑,张洪忠.原理、现状与局限:机器写作在传媒业中的应用[J].新闻界,2018(03):21-25
B

链接:https://mp.weixin.qq.com/s/aPiq3EMKoIO5Y1eq_s8lEA

编辑:陈心茹


作者: admin    时间: 2019-1-8 20:01
【案例】人工智能及其社会化应用的现状和未来——《全球传媒学刊》就社会化智能信息服务专访孙茂松教授
[color=rgba(0, 0, 0, 0.298)]
作 者
孙茂松:清华大学计算机科学与技术系教授
金兼斌:清华大学新闻与传播学院教授

摘要
    人工智能技术在快速向前推进的同时也给社会结构与日常生活带来巨大影响,激发起关乎人类生存、社会秩序、价值存续、科技伦理等议题的讨论。人工智能带来的深层次社会影响需要予以审慎思考。作为我国人工智能领域的专家,孙茂松教授如何看待跨学科领域合作对人工智能研究的价值?如何解读现阶段人工智能水准与适用边界条件?人工智能技术在内容生产、信息分配、系统建构等领域的应用是否会给社会结构形态、文化景观带来深层效应?兴趣驱动下的人工智能产品研发有何意义?本访谈通过与孙茂松教授的对话,对以上问题予以较为详细的阐释。
关键词
人工智能;中文自然语言处理;适用性质;内容产消;自动诗歌创作
近年来,随着智能算法推荐在购物、内容生产、消费、社交乃至自动驾驶、智能家居等领域应用的深入,人们已经切实感受到人工智能对我们日常生活所带来的巨大影响。现实生活已经高度数据化:一方面,日常生活本身日益依赖于信息传播系统作为中介来组织和展开;另一方面,我们的日常生活又在不知不觉中以数字印记的方式被社会的多层次立体化监测系统进行着准全息式的记录。近年来,大数据和计算能力成为人工智能快速发展的双重引擎,社会化智能信息服务水平的提升,正在给社会的整体形态、行业结构、组织管理方式、权力分配带来深远的影响。在某种意义上,人工智能正在深刻影响社会运作所依赖的基本要素之内涵及其相对重要性,行业、工种、职业以及包括工作和休闲之间的界限在内的各种边界,都面临重新划分或洗牌的可能。以信息内容生产和传播为安身立命之本的新闻传播业,从行业整体结构到依附于其中的个体的命运,近年来所经历的那种不以个人意志为转移的演变和变迁,充其量只是这波正在浩浩荡荡推进的技术与社会双向形塑过程中的一个折射而已。

果如是乎?

“不识庐山真面目,只缘身在此山中。”环顾现实,放眼未来,也许现在我们除了对“人工智终将给我们带来什么”进行展望外,也应该对我们当下所处的阶段有清醒的认知。

2018年最后一期《全球传媒学刊》正是在这样的背景下,选择“人工智能与社会”作为其专题。配合这期专题研究,《全球传媒学刊》执行主编金兼斌教授代表学刊,就社会化智能信息服务的现状和未来,书面访谈了我国人工智能领域的著名专家、清华大学计算机科学与技术系孙茂松教授。

  孙茂松  
清华大学计算机科学与技术系教授,清华大学人工智能研究院常务副院长,清华大学计算机科学与技术学位评定分委员会主席。2007—2018年任计算机科学与技术系系主任、党委书记。主要研究领域为自然语言处理、互联网智能、机器学习、社会计算和计算教育学。国家重点基础研究发展计划(973计划)项目首席科学家,国家社会科学基金重大项目首席专家。在国际刊物、国际会议、国内核心刊物上发表论文200余篇,Google Scholar论文引用数6800余次。
访谈嘉宾简介

问:金兼斌教授
答:孙茂松教授

问:您是计算机科学家、计算语言学博士,您所领导的实验室名为“自然语言处理与社会人文计算实验室”,您还成功申请到全国哲学社会科学基金重大项目“基于大规模社交媒体的汉语模因传播机理量化研究”。可以说,跨学科是您身上特别明显的气质和特色,您的学生、如今已然成长为国内自然语言处理领域引人注目的新秀的刘知远老师曾评价您是“计算机学者中少有的有着深厚文化底蕴的老师”。我在您的微信朋友圈中,也不时能看到您以古体诗的方式对学术人生进行抒怀和评论,文采斐然。您如何看待您作为计算机科学家身上的这种人文符号和气质?这种人文底蕴是如何影响您在专业领域的研究的?就人工智能研究下一阶段的突破而言,基于不同学科的科学家间的合作,以及兼具人文社科和信息科学乃至生命科学知识背景学者的跨界合作,是否注定将扮演越来越重要的角色?

答:对于“计算机学者中少有的有着深厚文化底蕴的老师”之类的说法,实不敢当。其实,我对文化或者人文的了解只是停留在感兴趣的阶段,远谈不上有什么深度。计算机科学的发展日新月异,新思想、新算法、新技术层出不穷,需要时刻通过学习来不断更新自己,同时研究任务也很繁重,每天应付这些,已然精疲力竭。最近若干年,我用于阅读人文图书的“常规时段”通常有两个:一是如厕时;二是上床睡觉前。还有一个就是坐飞机时坚持不看专业图书,而是浏览一些报纸杂志之类。我的主要精力都集中于计算机主业上,对人文知识的学习与跟进仅此而已。

从根本上说,计算机科学同数学之间的关系最为密切,计算机科学的大师级人物多是数学出身,数学造诣都很精深。计算机科学与人文科学在学理上并没有太直接的关系(当然也不能一概而论,如世界级语言学大师乔姆斯基提出“乔姆斯基形式文法体系”以及与上下文无关文法相关的“乔姆斯基范式”,就对计算机科学产生了深远影响)。从这个角度来看,“人文底蕴”对计算机科学整体上貌似帮助不大。

随着人工智能的蓬勃发展,上述情形正在发生一些变化。变化主要反映在两个层次上,一个是人工智能原创理论层次,需要具有顶级数学功底的计算机科学家同神经和认知顶级科学家通力合作,以期对计算机科学领域产生变革性的影响;另一个是人工智能应用层次,也就是所谓的“人工智能+X”,需要计算机领域的优秀学者同其他学科领域的优秀学者通力合作,以期对其他学科领域产生变革性的影响。这两种跨界合作将注定扮演越来越重要的角色。

我从小就对人文,尤其是中国古代文化和历史感兴趣。这一点对我在三十年前选择自然语言处理这个专业方向上确实发挥了至关重要的作用,也是我这些年来比较喜欢从事与人文乃至社会科学大跨度交叉研究的源泉所在。

问:您担任首席科学家的973项目“面向三元空间的互联网中文信息处理理论与方法”中,把人类认知空间、网络空间和现实世界空间一起统称为“三元空间”,这背后的逻辑是什么?这个雄心勃勃的973项目希望在融合“三元空间”的海量知识获取与组织、大规模中文深度分析与内容理解方面有所突破,目前取得了哪些重要进展?这些进展对于我国在中文信息处理领域的发展及社会化智能信息服务的提升方面有什么重要意义?

答:实际上,“三元空间”是973指南里的要求,对其内涵存在着若干种解读可能性。我在申请项目时,针对语言信息处理的特点,把“三元空间”定义为网络空间、现实世界和人类认知。以人类语言为纽带,把如上定义的“三元空间”联系到一起,其背后的逻辑是不言而喻的。

经过5年的不懈努力,这个项目取得了显著进展,完全实现了预期目标。简而言之,其标志性成果有三:一是提出了融合大规模知识的中文语义表示学习方法体系,努力将中文各个语言层次,即字、词、词义、语、句等形式化地表示在一个统一的计算框架中;二是提出了语义驱动的中文语义依存分析算法,将中文在这方面的自动分析能力提升到了与英文相当的水平;三是建立了世界上规模最大的中文语言知识资源和中文知识图谱。这些进展对于我国在中文信息处理研究领域的发展以及社会化智能信息服务的提升方面,起到了积极的推动作用。

(图片来自网络)

问:《未来简史》的作者尤瓦尔·赫拉利(Yuval Noah Harari)认为,工业时代普通民众因为担纲社会的主要劳动力和战时兵力,“无论哪种政体的国家,都极为重视国民的健康、教育和福利,因为它们需要几百万健康的劳动者在生产线工作,需要几百万忠诚的士兵在战壕里作战”,因此,20世纪有一大部分时间是在缩小阶级、种族和性别之间的不平等。但人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量。同时,生物技术的进步则可能将经济上的不平等转化为生物体上的不平等,即富人和知识精英具有更多机会强化自己的生物机能乃至脑力和智慧,马太效应成为一种社会自然演变之后的主导机制。他由此预言,21世纪的人类社会可能会是人类历史上最不平等的社会,人类整体出现生物种姓并非不可能。您如何看待人工智能和生物技术发展对人类社会结构形态带来的长远影响?

答:对上述观点,如“人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量”,“21世纪的人类社会可能会是人类历史上最不平等的社会”等,我完全没有研究,很难做出评论。我个人认为,互联网时代具有双重性,双面重要作用都不容小觑:一是使得世界日益成为平的;二是马太效应确实在不断增强,这又使得差异日益扩大。我们有必要对这一深刻的矛盾予以足够关切。

总体来看,人工智能技术还处于初级发展阶段。目前这一代人工智能技术是以借重于大数据的深度学习算法为核心的,在围棋、图像识别、语音识别、机器翻译等人工智能经典任务上确实表现出了异乎以往的能力,催生了如雨后春笋般勃兴的人工智能创新企业,但是,其适用范围实际上存在着严重局限。它的现有能力被大大高估了,领域内的专家反倒比较谨慎。那么,人工智能对人类社会结构形态会带来怎样的变化呢?由于目前这一代人工智能技术的“本事”还十分有限,所以其短期影响虽然十分明显,会给人以“横扫千军如卷席”之感,但总体上看其影响应该还是局部性的,而不是全局性的。至于其长远影响,现在还说不准,取决于人工智能理论和方法是否有新的实质性突破。这种突破的可能性,现在看来尚属可望而不可及。

问:自动驾驶一度成为近年来令人瞩目的热点,不少公众对之充满期待。鉴于驾驶任务本身对行动者和环境互动的极高要求,自动驾驶一直被看作是衡量人工智能发展水平的重要标尺之一。国内外尖端技术公司如百度和Google都在大力研发自动驾驶。不少公司甚至把2019年作为全自动驾驶汽车投入运营的关键年。但最近,自动驾驶领头羊Waymo掌门人John Krafcik承认,自动驾驶汽车在路上普及还要几十年;苹果联合创始人Steve Wozniak也认为,自动驾驶汽车不可能在不久的将来实现。这其中的一个原因是,自动驾驶的场景太多元太复杂,算法达不到要求,即自动驾驶技术还没有达到在任何天气和任何条件下都能驾驶的最高等级L5。您如何看待诸如自动驾驶这样将深刻影响人们生活方式的智能技术和产品的发展前景?在自动驾驶情景下,我们将根据什么原则来认定可能发生的交通事故的责任主体?

答:近年来,我在几个公开学术报告中都提及过,完全意义的自动驾驶无法在不远的将来实现。根本原因在于当前这一代人工智能技术的“本事”还十分有限。正如清华大学人工智能研究院院长张钹院士很早前敏锐指出的那样:它(人工智能)能做得比人好的任务场景,必须满足一些重要的性质(为了下文表述方便,不妨称之为“目前人工智能技术的若干适用性质”),如:任务的边界是确定的;任务的解空间是有限的、可预期的(即使空间无比巨大);执行任务的规则是明确的;任务执行过程中的信息是完全的;对任务结果的最终得失评估也是可精确量化的。其中任意一条不满足,现有的人工智能技术就会遭遇很大的困扰。充足的大数据可以在相当程度上克服这些困扰,但其性能会大打折扣,通常不可能做得比人好(但在某些应用场景下,做得比人的平均水平好并不困难)。围棋满足上述所有性质,所以人工智能的性能超越了人类棋手。自动驾驶基本上都不满足上述性质,并且属于所谓的“生死攸关”任务,几乎不容许犯任何错误(人类对机器性能的可靠性要求往往比对人的要求更为严苛),这是当前人工智能技术的“阿喀琉斯之踵”,所以我才有如上判断。当然这并不否定自动驾驶在特定受限场景中仍然会有广泛应用的前景。

需要特别强调的一点是,作为人工智能的基本前沿课题之一,对自动驾驶的基础性研究需要进一步强化和深化。什么时候才可能有完全意义的自动驾驶?还是前面那句话,取决于人工智能理论和方法是否有新的实质性突破。对自动驾驶各种关键问题的深入探索将成为下一代人工智能理论和方法发展的一个重要推动力和试金石。

问:关于智能内容生产。在新闻传播领域,人工智能的发展正在深刻改变这个以生产新闻和各种内容为主的行业的生态。在诸如气象、环保、体育、财经等领域的报道中,机器新闻写作,至少是机器辅助写作(robot-aided writing),已然在世界各大通讯社的新闻生产和各种商业机构的公关写作中得以试水和推行。在刚刚结束的乌镇世界互联网大会上,毕业自贵系的搜狗公司CEO王小川与新华社副社长刘思扬联合携“一位”人工智能合成主播惊艳亮相,引发广泛关注。您如何看待人工智能对写作、创作、表演这些传统意义上人类所独有行为和能力所带来的影响?如何看待人工智能将对创意产业和内容生产行业可能带来的深远影响?一个国家的社会文化景观将因此发生怎样的变化?

答:受囿于我前面所说的当前人工智能技术的局限性(“目前人工智能技术的若干适用性质”),人工智能在新闻传播领域的应用范围和程度一定是局部的、有限的,不会导致全局性质变。机器自动新闻写作只是在由数据表格生成文本这个受限任务中取得了不错的效果。但要像高水平的记者一样写出有深度的新闻及评介,在可预见的将来,机器还做不到(借助机器辅助写作是另外一回事)。人工智能播音这一任务比自动写作简单得多,但要超越人类顶尖主播,也不太可能。

不过,人工智能辅助写作、创作、表演,辅助创意产业和内容生产,以一种人机协同的方式大幅提高工作效率和质量,是完全具备现实性的,会给相关行业(尤其是中低端行业)带来广泛影响。

问:关于算法与用户内容消费。近年来,借助于大数据和云计算的不断改进升级,各种内容算法推荐——主要是基于用户过往消费行为和基于用户社交关系网中其他人的消费偏好进行的内容和商品推荐——席卷各种内容、购物和社交平台。基于用户行为、场景特点、社交圈结构的算法推荐一方面因其精准传播(precision messaging),实现对用户需求和偏好的深刻洞察而备受平台、商家和用户青睐,但另一方面,算法推荐所导致的“茧房”(information cocoons)效应,又容易让人们耽于既有审美、关注点、品位乃至视野之囿而不自知,不仅心智成长和审美拓展会受到影响,更容易造成同辈抱团、对他群声音充耳不闻的“回音壁效应”(echo chamber effect),甚至会加剧社会民众的阶层分化并导致社会撕裂。作为一名人工智能领域前沿专家,您认为智能算法推荐是否会对普通民众信息、内容消费方式带来深层次、结构性影响?这种影响主要表现在哪些方面?

答:内容算法推荐并不完全满足“目前人工智能技术的若干适用性质”,但由于此类平台天然拥有大数据(特别是用户行为数据),也不属于“生死攸关”的任务,所以比较适合人工智能,能够实现用户还算满意的个性化推荐效果,这一点不足为奇(何况人去做这件事也不是很有理据的,带有很强的主观性);通过进一步改进算法增加推荐的多样性,有效应对“茧房效应”和“回音壁效应”,也是可以预期的。

人们对智能算法推荐表现出足够关切是完全必要的,也是完全可以理解的。例如,平台出于自身利益的考量,算法推荐可能会出现广泛性偏误,或者过度推荐。所发生的这些现象,有些是目前智能推荐算法一时难以克服的深刻困难(涉及语义理解这一难点)所致,有些则是可能是有意为之。

马歇尔·麦克卢汉
(图片来自网络)

问:让我们来展望一下社会计算的极限问题。您是否同意这样的看法,即人工智能的上限本质上取决于社会计算的计算能力?无论是情感还是价值判断,无论是艺术创意还是审美趣味,无论是解释还是推理,一切人之为人的特质,是否最终都能够被“计算能力”一一解析并复盘?在前不久的一次采访中,您提到目前人工智能总体上依旧处于无理解的人工智能阶段,下一个挑战是有理解能力的人工智能,要想实现“有理解力”还很难。在无理解的人工智能和有理解的人工智能之间,在计算的此岸和生命的彼岸之间,注定是深不见底无可逾越的鸿沟——如0和1之间的差别——还是其实最终有什么桥梁可以跨越和架接,也即借助于不断累积的计算能力和模型改进,以及实时数据采集反馈系统的改进,在物质和意识之间终究可以曲径通幽,加以打通?

答:我第一次听到“人工智能的上限本质上取决于社会计算的计算能力”这个表述,不很清楚其含义,难以评论。是的,现在看到的人工智能所取得的成功,大都属于无理解的人工智能。此类算法本质上都是针对某一特定任务,从相关大数据中学习一个高度复杂的非线性函数,而这个函数可以看作是一个“黑箱”,缺乏可解释性。接下来的重大挑战是解决有理解的人工智能问题,让机器具有同人一样的感知和认知能力、推理能力、判断和决策能力。无理解的人工智能和有理解的人工智能两者之间存在本质上的深刻差异,因而跨越起来极其困难。再强大的计算能力也解决不了这个问题,反之,我们需要人工智能算法在思想和理论上的深刻创新,其中的关键桥梁之一就是人类语言理解。语言是人类区别于动物的唯一标志。机器对语言不能理解,很难说有比较高级的智能。而语言理解的边界是完全开放的,所以非常具有挑战性。机器要在物质和意识、思维之间自由地腾挪辗转,必须首先打通语言理解这一关,否则根本谈不上“曲径通幽”。

问:预言了地球村的媒介学者马歇尔·麦克卢汉(Marshall McLuhan)曾经形象地把媒介称为“人的延伸”。事实上,随着生物技术特别是脑科学领域的研究突破,从智能芯片的人体植入到未来人机不同比例的混搭,麦克卢汉所谓的“媒介是人的延伸”的论述将很有可能从比喻演变为现实。您如何看待人工智能技术对人体先赋能力的后天补强?这种嫁接了人工智能的“超自然”人类改良技术的出现和应用,会带来怎样的社会和伦理后果?就像爱因斯坦作为质能方程的提出者为原子核聚变反应奠定理论基础,却为核武器的出现而感到惴惴不安一样,您觉得如今人工智能领域的科学突破,是否也应该对技术的社会伦理后果有更多的自觉?

答:我基本赞成“媒介是人的延伸”这个说法。其实飞机、轮船等就是人的体力延伸,人工智能则是人的智力延伸,两者的目的都是为了帮助人,也就是你在提问中所说的对人体先赋能力不足的后天补强。单纯使用目前的人工智能技术应该还不致带来严重的社会和伦理后果,不必过于不安——那将是下一代人工智能必须关切的,且无法回避的问题。然而,人机混搭的智能正在日益朝现实迈进,在发展过程中无疑会产生以前没有遇到过的社会和伦理问题,必须加强相关研究,特别是对什么是禁区要做到心中有数,进而达到趋利避害。

问:基特勒(Fredirch Kittler)认为,数字媒介的硬件和软件都具有隐蔽性。在软件的遮蔽下,用户看不到自己受到了硬件的限制;而软件虽然使得用户可以与计算机进行互动交流,但用户却常常感觉不到其背后的结构和逻辑乃至所内嵌的价值观偏向对自己行为和世界观造成的潜移默化的规制、影响和形塑。这也正是劳伦斯·莱斯格(Lawrence Lessig)在其著名的《代码》(Code)一书中所表达的担忧。您如何看待代码所构建的“系统”——这双“看不见的手”对用户和民众的控制能力乃至权力主导?更有甚者,当基于代码的系统具备了深度学习的能力,结合海量的动态语料和分布式计算的迭代升级,我们现在衣食住行日益依赖的不少系统,是否最终会成为具有一定自在性和自主性的行为和责任主体,或至少是和平台拥有方、开发者并置的责任主体?

答:实际上,现代社会经济生活中存在着形形色色的“看不见的手”,我们或多或少地受到其操纵而不能自拔。代码所构建的“系统”借重于算法和大数据的强大力量也具有这一特点,这本身没有什么可奇怪的。需要关切的是,我们应对此类控制力乃至权力主导保持足够的警惕,不能在无意识中一味地被“系统”背后的小团体利益所裹挟。

问:最后还是回到您和您团队的研究,来聊聊“诗和远方”。您的实验室开发机器诗人“九歌”,与您平时爱吟诗作词不无关联吧?2017年,“九歌”亮相央视《机智过人》节目,按照比赛规则接受图灵测试,九歌以一首“机心造化本无私,智略工夫巧笑时。过客不须频眺处,人间天上有新诗”顺利通过图灵测试,展现了很高程度的“智能”水平?您怎么看待和评价九歌真实的智能水平?您曾经说过“计算机作诗在科学研究上很有意义”,为什么?

答:必须澄清一点:以一首诗的结果,绝对不能说“九歌”
(https://jiuge.thunlp.cn)通过了图灵测试。必须通过大量的实际测试,才敢在古诗创作是否通过图灵测试这一点上给出结论,现在还远不敢说。我感觉,当下“九歌”的真实智能水平只能达到古诗爱好者人群(包括诗人)内的中上水平。自动作诗这个任务在好几项上都不满足“目前人工智能技术的若干适用性质”(例如,对自动作诗结果优劣的评价见仁见智,并不存在绝对标准),因此是非常困难的问题,其本质上不可能超越顶尖诗人。正因为其困难,所以与之相关的研究对探索下一代人工智能很有意义。

我领导的实验室研发机器诗人“九歌”,与我以及主创人员之一,也是我的学生矣晓沅喜欢古典诗词不无关联。我们的初心是探索人工智能在自由式文本生成这一类问题(而不是由数据表格生成新闻文本的那类问题)上的算法解决方案。同围棋类似,古典诗歌的开拓空间也是非常广袤的,古人只是创作出了其中微乎其微的一小部分,绝大部分空间还有待于我们去发现。怎样去发现呢?我们希望利用人工智能算法,基于已知的古人诗歌创作对浩瀚的未知空间进行合理的推衍,期待能达到的效果是利用机器把古人尚未来得及写出的诗“挖掘”出来,大底上就是陆游所说的“文章本天成,妙手偶得之”的意思。此外,古诗创作带有强烈的传统文化色彩,容易引起公众的关注,进而会给予我们的研究以某种无形压力,鞭策我们不断地改进算法、提升性能。这也是我们选择以这个问题作为算法攻关任务的原因之一。当然,自动作诗只是我领导的实验室中众多人工智能研究方向的一支。

原文刊载于《全球传媒学刊》2018年第4期。


编辑:冉玲琳


作者: admin    时间: 2019-1-19 22:03
案例

眼见不再为实|【外交事务】:照片可P,视频可P,直播也可P



【世界决定视界】【视界决定世界】
欢迎打开“我与我们的世界”,从此,让我们一起纵览世界之风云变幻、洞察社会之脉搏律动、感受个体之生活命运、挖掘自然之点滴奥妙。
我与我们的世界,既是一个奋斗的世界,也是一个思考的世界。奋而不思则罔,思而不奋则殆。这个世界,你大,它就大;你小,它就小。
欢迎通过上方公众号名称,来挖掘本公众号与大家共享的往期文章,因为,每期都能让你“走近”不一样的世界、带给你不一样的精彩。  

本期导读:人脸解锁、刷脸购物、人脸识别的动物表情小游戏,生活中已很常见,这在一定程度上也就说明了一个问题,那就是,人工智能(Artificial Intelligence)在人脸这件事儿上已经越来越精通了。



如果说识别只是AI对人脸做出的第一件事,那么第二件事是什么呢?从种种迹象来看,答案只有一个,那就是给人换脸。当然,AI不会真的去给人整容(至少目前不会),它能做的是在视频里给人换脸。比如曾被刷屏的小视频可能有些朋友就已看过。




视频中的女主角(确切的说是女主角的脸)是《神奇女侠》的扮演者盖尔·加朵。但这当然不是其本人出演了什么令人羞耻的小电影。而是有人用深度学习(Deep Learning)技术把盖尔·加朵的脸替换到了原片女主角的身体上。
这就是源自2017 年 12 月,一位自稱 DeepFakes 的網友利用深度學習技術,將 A 片女主角換臉成神力女超人女主角蓋兒加朵(Gal Gadot),此技術當時引起一陣轟動,近日有外國的研究報告估計,DeepFakes將會成為對下屆美國總統大選構成影響,甚至造成威脅的人工智能技術。



根據《The Nextweb》報導,研究人員認為只要依賴人工智慧,加上事先蒐集大量的語音訓練數據,就可以製造出以假亂真語音記錄和影片,預計在 5 年內,這項技術將會越來越成熟,足以欺騙沒有訓練過的人們。
隨著人工智慧(AI)技術日漸成熟,民眾越來越難分辨網路上假新聞及假影片的真實性。就像是之前美國男演員喬登皮爾(Jordan Peele)和美國數位新聞網站 BuzzFeed,就利用前陣子火紅的 AI 換臉技術「FakeApp」,聯合製作一條歐巴馬談論假新聞的政令宣傳影片,逼真到讓人難以分辨。


视频截图


根據《The Verge》報導,這隻影片除了採用之前美國網友 Deepfakes 所使用的 AI 人臉交換技術「FakeApp」外,也有使用 Adobe 的視覺特效製作軟體After Effects,兩個軟體一起結合運用,成功地用歐巴馬的臉把喬登皮爾的臉換掉。
AI人工智能在全球开花,而这个技术也是被运用到各行业中来。据CNET报道称,Naughty America公司打算通过AI人工智能,为用户提供定制化的换脸视频,当然主要是集中在一些成人电影上,而这种人工智能驱动的换脸技术掀起了行业的热潮。




据悉,Naughty America正在使用的AI技术,可以做的不仅仅是替换面容。用户可以和他们最喜欢的女演员或男演员一起出现在一个场景中,或者可以把自己置身于现实生活中不可能的性环境中,甚至情侣也可以一起放到同一场景中。

目前Naughty America团队将与外部人工智能研究人员合作制作这类视频,不过国外的一些社交网站已经禁止换脸色情视频。美国国防高级研究计划局(DARPA)正在研究一种检测深度伪造视频的方法。
这个ID叫做DeepFakes的网友,始终致力于在Reddit上分享其利用AI技术制作的明星换脸小视频。差不多所有当红的好莱坞女星都被他“炮制”了一遍。各位是不是感觉有点兴奋?以后想看哪位明星的片子自己动手做就是了,甚至可以把自己的脸替换上去演对手戏,各种YY皆能成真。
可是,如果是你亲戚朋友的脸被替换了呢?如果把犯罪现场所拍摄嫌疑人的脸换成你呢?如果在你不知情的情况下,不法分子发给你家人一段有你露脸的绑架视频呢?当我们不能相信自己的眼睛,各种混乱和罪恶的重量,绝对会大于那一点点违法的“福利”。
换脸的恐怖之处,在于AI很简单。
回到前面提到制作女星换脸小电影的DeepFakes。这哥们不仅是个老司机,还是一位热爱分享的“技术型活雷锋”,不仅免费发布他的成果,还不厌其烦的分享自己制作换脸视频的教程,以及自己编写的深度学习代码和相关数据集。大概他的意思是,别再问我要谁谁的视频了,你们自己做去吧。



当然,这哥们也不是专注女明星,上边这张就是他分享的如何把尼古拉斯·凯奇换成川普的教程。根据他的分享,制作一个明星换脸视频非常简单。以盖尔·加朵的视频为例,他首先会在谷歌、YouTube以及各种网络图集中收集盖尔·加朵的各个角度的视频和图片。组成一个能满足深度学习任务进行脸部替换的素材库。
然后通过TensorFlow上提供的机器视觉相关模型,学习和理解原版小电影中女主角的面部特征、轮廓、动作和嘴型等。继而让模型在素材库中寻找各种角度、各种表情下AI认为合适的图片与视频,对原本视频进行替换。
虽然可以看到,他做的视频在很多细节上还是有瑕疵,不够自然。但是大体一看已经可以蒙混过关,并且制作效果在日渐提高。这里隐藏的真正问题,在于利用开源的AI架构进行视频换脸这件事,不是太复杂太前卫了,而是太简单太容易了!

这东西毫无技术难度,要会用TensorFlow的基础功能,电脑显卡不至于太烂,差不多几个小时就可以搞出来一个。哪怕连编程基础都没有的人,跟着教程一步步走,搜集足够多的素材,也可以自己搞出来换脸视频。
设想一下,当你身边某个仇人想要陷害你的时候,只要收集你的照片和自拍,就可以随意把你和任何罪恶甚至肮脏的视频结合到一起,然后在你的社交圈里散播的到处都是,那场面何其令人胆寒?这就像枪支可以无审查、无监管的随意买卖,并且价格低廉。
在机器视觉开发的底层技术日益完善后,视频换脸必然继续在三个层面加强它的普及化:
1.近乎无门槛使用。换脸相关的数据集、源代码和架构,在今天只要有心就可以轻易找到,随着技术的成熟,这种趋势大概只会愈演愈烈。
2.可以工具化。由于技术并不复杂,这个功能被工具化的可能性很大。也就是说不法分子可以把它做成一个应用,购买了之后只要按要求添加视频和希望替换人的图像,就可以自动生成换脸视频,达成真正的无门槛。
3.欺骗性不断增强:有相关AI从业者认为,DeepFakes的视频仅仅经历了初步的学习和替换过程,没有进行修补和细节雕琢,就已经获得了很高的完成度。那么假如进一步结合对抗生成网络进行修饰,大概就可以生成真伪难辨的视频了。
总之,当我们知道照片可以PS之后,视频也不再可信了。而且,不仅仅是视频。
山雨欲来:下一站是直播+换脸
去年年初的时候,德国纽伦堡大学的相关团队发布了一个应用,也就是非常出名的Face2Face。这款应用的能力,是通过摄像头进行脸部追踪,从而让视频里的人跟着你说话。



由于其精准的捕捉效果和实时化能力,Face2Face在诞生之日起就引起了轩然大波。在其演示视频下,无数网友质疑这项技术将成为网络诈骗、绑架勒索的帮凶,质疑如果视频电话的另一端,竟然不是你认识的那个人,那将会是多么恐怖的一件事。
当然,Face2Face目前是个封闭状态,用户只能扮演其提供的角色尝尝鲜而已。但经过一年多的发展,直播中的脸部捕捉和替换技术也已大幅度提升。如今我们可以在直播平台上看到实时替换的背景和道具,而利用AI在直播中进行脸部替换,也已经是近在咫尺的事了。
与之相配合的,是AI进行声纹识别与声音合成技术也在突飞猛进。比如Adobe在近两年陆续发布了新的声音合成技术。普通人用AI来进行柯南用蝴蝶结完成的换声,已经不是多困难的事情。
借助AI,直播中换脸和换声正在同步向前跨越。那么带来的影响会是什么呢?双头人开播?川普坐在白宫办公室里跟你连麦?某当红小鲜肉在直播中跪着给你唱《征服》?没问题,统统都可以。有没有很开心?当然,你跟直播平台可能都开心了,小鲜肉却不开心了。
而换个角度想想,假如同样的技术运用在视频电话里呢?假如你接到的亲人/朋友的视频电话,套取你的隐私或者跟你借钱,事后竟然发现是陌生人处心积虑伪造的。假如一个人可以彻底伪装成另一个人,还会有人开心吗?
当我们打开手机电脑,发现一切都不是真的。真是挺让人丧心病狂的一件事。
AI换脸并不难,由于多种应用场景的存在和超高的娱乐性,我们也很难阻止它的到来。于是真正该让我们头疼的,大概就是深藏其中的法律问题与伦理陷阱。
基本可以很靠谱的说,今天国内外的很多直播与视频平台,都在研发直播换脸技术。并且某些解决方案已经相当成熟。试想一下,换脸之后的当红女神与小鲜肉,整晚开直播说一些迎合猎奇心理的话,礼物还不多到把平台挤爆了?——即使用户明知是假的。
当然,正规直播平台大概不敢这么做,使用这种技术会非常克制。但是假如有第三方插件可以做这件事呢?或者在缺乏监管的地下直播/半地下直播平台上呢?毕竟利益和猎奇可以驱使人去做各种事情,技术的门槛一旦解禁,滚滚而来的法律问题很可能决堤。



这里隐藏的伦理陷阱,是肖像权这个东西可能会前所未有的复杂化。无论是明星还是普通人,大概都不希望被别人“易容”成自己的样子来进行直播。

但问题是,你如何证明易容的是你呢?或者说你如何证明你是你?我们知道,肖像权是指你本人拍摄的图像和视频。但是用你的面部数据搭建起来的AI模型还属于你的肖像权范畴吗?
更困难的是,你根本无从证明AI搭建出来的肖像模型跟你有直接关系。毕竟深度学习训练是在看不见的后端完成的,制作者大可以说是臆想出来,或者用跟你很像的人来搭建的。再或者只比你脸上多一颗痣,是不是就不是你了呢?
更复杂的伦理情况还有很多,比如一个人享有故去亲人的肖像权吗?假如一个人希望用AI来重现已故的亲属,与亡者进行视频通话,但另一个亲属却坚决认为这是违法行为,那么到底该听谁的?
这还是基础的伦理与法律矛盾,在这之外,是大把可以用AI换脸术进行的非法勾当。比如诈骗、勒索、诬陷等等等等。总而言之,AI换脸术这件事在今天可以归纳为三句话:一、火是肯定要火的;二、乱是一定要乱的;三、如何监管,大概是不知道的。




哦对了,最后应该说一下如何防止别人做出你的AI换脸视频:不要发太多自拍。



Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics
深度换脸技术与新型虚假信息战争:后真相地缘政治时代来临
By Robert Chesney and Danielle Citron




小编注:译文部分仅供参考;本期共享文章摘自“外交事务”网站,文章有点小长,也有点小难,因此搜了好多相关信息,整理出上面那篇较长的导读;本公众号更多优质文章,见文末“往期精彩”。

A picture may be worth a thousand words, but there is nothing that persuades quite like an audio or video recording of an event. At a time when partisans can barely agree on facts, such persuasiveness might seem as if it could bring a welcome clarity. Audio and video recordings allow people to become firsthand witnesses of an event, sparing them the need to decide whether to trust someone else’s account of it. And thanks to smartphones, which make it easy to capture audio and video content, and social media platforms, which allow that content to be shared and consumed, people today can rely on their own eyes and ears to an unprecedented degree.
与文字比起来,照片更具直观性。远比照片更具直观性的,则是音视频。现如今这个信息时代,人们通过眼睛耳朵所能接触到的音视频信息数量之巨,前所未有。
Therein lies a great danger. Imagine a video depicting the Israeli prime minister in private conversation with a colleague, seemingly revealing a plan to carry out a series of political assassinations in Tehran. Or an audio clip of Iranian officials planning a covert operation to kill Sunni leaders in a particular province of Iraq. Or a video showing an American general in Afghanistan burning a Koran. In a world already primed for violence, such recordings would have a powerful potential for incitement. Now imagine that these recordings could be faked using tools available to almost anyone with a laptop and access to the Internet—and that the resulting fakes are so convincing that they are impossible to distinguish from the real thing.
有很多影音视频,可以是假的。
Advances in digital technology could soon make this nightmare a reality. Thanks to the rise of “deepfakes”—highly realistic and difficult-to-detect digital manipulations of audio or video—it is becoming easier than ever to portray someone saying or doing something he or she never said or did. Worse, the means to create deepfakes are likely to proliferate quickly, producing an ever-widening circle of actors capable of deploying them for political purposes. Disinformation is an ancient art, of course, and one with a renewed relevance today. But as deepfake technology develops and spreads, the current disinformation wars may soon look like the propaganda equivalent of the era of swords and shields.
技术的进步,也带来了虚假信息的泛滥。
DAWN OF THE DEEPFAKES
深度换脸技术时代来临
Deepfakes are the product of recent advances in a form of artificial intelligence known as “deep learning,” in which sets of algorithms called “neural networks” learn to infer rules and replicate patterns by sifting through large data sets. (Google, for instance, has used this technique to develop powerful image-classification algorithms for its search engine.) Deepfakes emerge from a specific type of deep learning in which pairs of algorithms are pitted against each other in “generative adversarial networks,” or GANS. In a GAN, one algorithm, the “generator,” creates content modeled on source data (for instance, making artificial images of cats from a database of real cat pictures), while a second algorithm, the “discriminator,” tries to spot the artificial content (pick out the fake cat images). Since each algorithm is constantly training against the other, such pairings can lead to rapid improvement, allowing GANS to produce highly realistic yet fake audio and video content.
通过生成式对抗网络技术,可做出极其逼真但实际上却是虚假的影音视频。
小编注:生成式对抗网络(GAN, Generative Adversarial Networks )是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(Generative Model)和判别模型(Discriminative Model)的互相博弈学习产生相当好的输出。该方法由伊恩·古德费洛等人于2014年提出。生成网络从潜在空间(latent space)中随机采样作为输入,其输出结果需要尽量模仿训练集中的真实样本。判别网络的输入则为真实样本或生成网络的输出,其目的是将生成网络的输出从真实样本中尽可能分辨出来。而生成网络则要尽可能地欺骗判别网络。两个网络相互对抗、不断调整参数,最终目的是使判别网络无法判断生成网络的输出结果是否真实。生成对抗网络常用于生成以假乱真的图片。此外,该方法还被用于生成视频、三维物体模型等。
This technology has the potential to proliferate widely. Commercial and even free deepfake services have already appeared in the open market, and versions with alarmingly few safeguards are likely to emerge on the black market. The spread of these services will lower the barriers to entry, meaning that soon, the only practical constraint on one’s ability to produce a deepfake will be access to training materials—that is, audio and video of the person to be modeled—to feed the GAN. The capacity to create professional-grade forgeries will come within reach of nearly anyone with sufficient interest and the knowledge of where to go for help.
技术很容易获得,唯一的约束性条件就是控制“训练材料”的获得。

Deepfakes have a number of worthy applications. Modified audio or video of a historical figure, for example, could be created for the purpose of educating children. One company even claims that it can use the technology to restore speech to individuals who have lost their voice to disease. But deepfakes can and will be used for darker purposes, as well. Users have already employed deepfake technology to insert people’s faces into pornography without their consent or knowledge, and the growing ease of making fake audio and video content will create ample opportunities for blackmail, intimidation, and sabotage. The most frightening applications of deepfake technology, however, may well be in the realms of politics and international affairs. There, deepfakes may be used to create unusually effective lies capable of inciting violence, discrediting leaders and institutions, or even tipping elections.
对很多领域来说,这项技术具有很大应用价值。但技术是把双刃剑,技术能应用于善,也能应用于恶。
Deepfakes have the potential to be especially destructive because they are arriving at a time when it already is becoming harder to separate fact from fiction. For much of the twentieth century, magazines, newspapers, and television broadcasters managed the flow of information to the public. Journalists established rigorous professional standards to control the quality of news, and the relatively small number of mass media outlets meant that only a limited number of individuals and organizations could distribute information widely. Over the last decade, however, more and more people have begun to get their information from social media platforms, such as Facebook and Twitter, which depend on a vast array of users to generate relatively unfiltered content. Users tend to curate their experiences so that they mostly encounter perspectives they already agree with (a tendency heightened by the platforms’ algorithms), turning their social media feeds into echo chambers. These platforms are also susceptible to so-called information cascades, whereby people pass along information shared by others without bothering to check if it is true, making it appear more credible in the process. The end result is that falsehoods can spread faster than ever before.
These dynamics will make social media fertile ground for circulating deepfakes, with potentially explosive implications for politics. Russia’s attempt to influence the 2016 U.S. presidential election—spreading divisive and politically inflammatory messages on Facebook and Twitter—already demonstrated how easily disinformation can be injected into the social media bloodstream. The deepfakes of tomorrow will be more vivid and realistic and thus more shareable than the fake news of 2016. And because people are especially prone to sharing negative and novel information, the more salacious the deepfakes, the better.
DEMOCRATIZING FRAUD
民主幻像
The use of fraud, forgery, and other forms of deception to influence politics is nothing new, of course. When the USS Maine exploded in Havana Harbor in 1898, American tabloids used misleading accounts of the incident to incite the public toward war with Spain. The anti-Semitic tract Protocols of the Elders of Zion, which described a fictional Jewish conspiracy, circulated widely during the first half of the twentieth century. More recently, technologies such as Photoshop have made doctoring images as easy as forging text. What makes deepfakes unprecedented is their combination of quality, applicability to persuasive formats such as audio and video, and resistance to detection. And as deepfake technology spreads, an ever-increasing number of actors will be able to convincingly manipulate audio and video content in a way that once was restricted to Hollywood studios or the most well-funded intelligence agencies.

Deepfakes will be particularly useful to nonstate actors, such as insurgent groups and terrorist organizations, which have historically lacked the resources to make and disseminate fraudulent yet credible audio or video content. These groups will be able to depict their adversaries—including government officials—spouting inflammatory words or engaging in provocative actions, with the specific content carefully chosen to maximize the galvanizing impact on their target audiences. An affiliate of the Islamic State (or ISIS), for instance, could create a video depicting a U.S. soldier shooting civilians or discussing a plan to bomb a mosque, thereby aiding the terrorist group’s recruitment. Such videos will be especially difficult to debunk in cases where the target audience already distrusts the person shown in the deepfake. States can and no doubt will make parallel use of deepfakes to undermine their nonstate opponents.
Deepfakes will also exacerbate the disinformation wars that increasingly disrupt domestic politics in the United States and elsewhere. In 2016, Russia’s state-sponsored disinformation operations were remarkably successful in deepening existing social cleavages in the United States. To cite just one example, fake Russian accounts on social media claiming to be affiliated with the Black Lives Matter movement shared inflammatory content purposely designed to stoke racial tensions. Next time, instead of tweets and Facebook posts, such disinformation could come in the form of a fake video of a white police officer shouting racial slurs or a Black Lives Matter activist calling for violence.
Perhaps the most acute threat associated with deepfakes is the possibility that a well-timed forgery could tip an election. In May 2017, Moscow attempted something along these lines. On the eve of the French election, Russian hackers tried to undermine the presidential campaign of Emmanuel Macron by releasing a cache of stolen documents, many of them doctored. That effort failed for a number of reasons, including the relatively boring nature of the documents and the effects of a French media law that prohibits election coverage in the 44 hours immediately before a vote. But in most countries, most of the time, there is no media blackout, and the nature of deepfakes means that damaging content can be guaranteed to be salacious or worse. A convincing video in which Macron appeared to admit to corruption, released on social media only 24 hours before the election, could have spread like wildfire and proved impossible to debunk in time.
Deepfakes may also erode democracy in other, less direct ways. The problem is not just that deepfakes can be used to stoke social and ideological divisions. They can create a “liar’s dividend”: as people become more aware of the existence of deepfakes, public figures caught in genuine recordings of misbehavior will find it easier to cast doubt on the evidence against them. (If deepfakes were prevalent during the 2016 U.S. presidential election, imagine how much easier it would have been for Donald Trump to have disputed the authenticity of the infamous audio tape in which he brags about groping women.) More broadly, as the public becomes sensitized to the threat of deepfakes, it may become less inclined to trust news in general. And journalists, for their part, may become more wary about relying on, let alone publishing, audio or video of fast-breaking events for fear that the evidence will turn out to have been faked.
DEEP FIX
深度技术需深度应付
There is no silver bullet for countering deepfakes. There are several legal and technological approaches—some already existing, others likely to emerge—that can help mitigate the threat. But none will overcome the problem altogether. Instead of full solutions, the rise of deepfakes calls for resilience.
Three technological approaches deserve special attention. The first relates to forensic technology, or the detection of forgeries through technical means.Just as researchers are putting a great deal of time and effort into creating credible fakes, so, too, are they developing methods of enhanced detection. In June 2018, computer scientists at Dartmouth and the University at Albany, SUNY, announced that they had created a program that detects deepfakes by looking for abnormal patterns of eyelid movement when the subject of a video blinks. In the deepfakes arms race, however, such advances serve only to inform the next wave of innovation. In the future, GANS will be fed training videos that include examples of normal blinking. And even if extremely capable detection algorithms emerge, the speed with which deepfakes can circulate on social media will make debunking them an uphill battle. By the time the forensic alarm bell rings, the damage may already be done.
A second technological remedy involves authenticating content before it ever spreads—an approach sometimes referred to as a “digital provenance” solution. Companies such as Truepic are developing ways to digitally watermark audio, photo, and video content at the moment of its creation, using meta data that can be logged immutably on a distributed ledger, or blockchain. In other words, one could effectively stamp content with a record of authenticity that could be used later as a reference to compare to suspected fakes.
In theory, digital provenance solutions are an ideal fix. In practice, they face two big obstacles. First, they would need to be ubiquitously deployed in the vast array of devices that capture content, including laptops and smartphones. Second, their use would need to be made a precondition for uploading content to the most popular digital platforms, such as Facebook, Twitter, and YouTube. Neither condition is likely to be met. Device makers, absent some legal or regulatory obligation, will not adopt digital authentication until they know it is affordable, in demand, and unlikely to interfere with the performance of their products. And few social media platforms will want to block people from uploading unauthenticated content, especially when the first one to do so will risk losing market share to less rigorous competitors.

A third, more speculative technological approach involves what has been called “authenticated alibi services,” which might soon begin emerging from the private sector. Consider that deepfakes are especially dangerous to high-profile individuals, such as politicians and celebrities, with valuable but fragile reputations. To protect themselves against deepfakes, some of these individuals may choose to engage in enhanced forms of “lifelogging”—the practice of recording nearly every aspect of one’s life—in order to prove where they were and what they were saying or doing at any given time. Companies might begin offering bundles of alibi services, including wearables to make lifelogging convenient, storage to cope with the vast amount of resulting data, and credible authentication of those data. These bundles could even include partnerships with major news and social media platforms, which would enable rapid confirmation or debunking of content.
Such logging would be deeply invasive, and many people would want nothing to do with it. But in addition to the high-profile individuals who choose to adopt lifelogging to protect themselves, some employers might begin insisting on it for certain categories of employees, much as police departments increasingly require officers to use body cameras. And even if only a relatively small number of people took up intensive lifelogging, they would produce vast repositories of data in which the rest of us would find ourselves inadvertently caught, creating a massive peer-to-peer surveillance network for constantly recording our activities.
LAYING DOWN THE LAW
张开法网
If these technological fixes have limited upsides, what about legal remedies? Depending on the circumstances, making or sharing a deepfake could constitute defamation, fraud, or misappropriation of a person’s likeness, among other civil and criminal violations. In theory, one could close any remaining gaps by criminalizing (or attaching civil liability to) specific acts—for instance, creating a deepfake of a real person with the intent to deceive a viewer or listener and with the expectation that this deception would cause some specific kind of harm. But it could be hard to make these claims or charges stick in practice. To begin with, it will likely prove very difficult to attribute the creation of a deepfake to a particular person or group. And even if perpetrators are identified, they may be beyond a court’s reach, as in the case of foreign individuals or governments.
Another legal solution could involve incentivizing social media platforms to do more to identify and remove deepfakes or fraudulent content more generally. Under current U.S. law, the companies that own these platforms are largely immune from liability for the content they host, thanks to Section 230 of the Communications Decency Act of 1996. Congress could modify this immunity, perhaps by amending Section 230 to make companies liable for harmful and fraudulent information distributed through their platforms unless they have made reasonable efforts to detect and remove it. Other countries have used a similar approach for a different problem: in 2017, for instance, Germany passed a law imposing stiff fines on social media companies that failed to remove racist or threatening content within 24 hours of it being reported.
Yet this approach would bring challenges of its own. Most notably, it could lead to excessive censorship. Companies anxious to avoid legal liability would likely err on the side of policing content too aggressively, and users themselves might begin to self-censor in order to avoid the risk of having their content suppressed. It is far from obvious that the notional benefits of improved fraud protection would justify these costs to free expression. Such a system would also run the risk of insulating incumbent platforms, which have the resources to police content and pay for legal battles, against competition from smaller firms.
LIVING WITH LIES
与虚假为伴
But although deepfakes are dangerous, they will not necessarily be disastrous. Detection will improve, prosecutors and plaintiffs will occasionally win legal victories against the creators of harmful fakes, and the major social media platforms will gradually get better at flagging and removing fraudulent content. And digital provenance solutions could, if widely adopted, provide a more durable fix at some point in the future.
In the meantime, democratic societies will have to learn resilience. On the one hand, this will mean accepting that audio and video content cannot be taken at face value; on the other, it will mean fighting the descent into a post-truth world, in which citizens retreat to their private information bubbles and regard as fact only that which flatters their own beliefs. In short, democracies will have to accept an uncomfortable truth: in order to survive the threat of deepfakes, they are going to have to learn how to live with lies.


来源:微信公众号“我与我们的世界”
链接:https://mp.weixin.qq.com/s/DJLZX71V6QREbZqQc_Lm-Q


编辑:马晓晴


作者: 刘海明    时间: 2019-1-20 11:55
提示: 该帖被管理员或版主屏蔽
作者: admin    时间: 2019-1-20 15:48
案例


喻国明等:新闻人的价值位移与人机协同的未来趋势



    人工智能技术在新闻传播领域的全面渗透是近年来的一个现象级的发展,其中,机器新闻写作是人工智能在传媒领域的具体应用之一。有研究表明,未来传媒业的发展,很大程度上与人工智能技术的引入和应用关联在一起。人工智能技术不仅形塑着整个传媒业的业态面貌,也在微观上重塑着传媒产业的业务链。本文试图分析人工智能技术下机器新闻写作的应用及其升级换代对于机器新闻写作对于新闻生产模式的再造效应,并探讨在此背景下新闻人的价值位移与人机协同的未来趋势,以期为人们把握人工智能如何改变未来传媒业的范式和逻辑方面提供一些参照性的依据。


    一、web3.0的关键词是“智能化”,机器新闻写作便是人工智能与传媒业联姻的产物,它将内容生产范式从媒体精英式的内容产出和用户生产内容转换到算法生成内容。这一改变影响深刻而重大。

    纵观传媒业的发展进程,技术一直是驱动其变革的重要力量。每一次重要技术的引进,都在某种程度上引发了新闻生产和传播流程的改变,有时甚至会对整个传媒格局产生颠覆性的影响。从这个意义上讲,传媒业中从来就没有永恒的赢家。在技术“喜新厌旧”本性的作用下,今日的新媒体转眼就可能成为“明日黄花”;新闻记者今天所掌握的某种新技能,明天就可能变得无用武之地——整个传媒行业在残酷的“破”与“立”之间寻找着动态的平衡。如果说web1.0和web2.0的关键词分别是“网络化”和“数字化”,那么web3.0的关键词就是“智能化”。它与传媒业的耦合,催生了机器新闻写作,并将内容生产范式从媒体精英式的内容产出和用户生产内容转换到算法生成内容。这种技术上的革新必然会对现在的传媒生态产生影响,首当其冲的便是与其在目标任务上具有极高重合度的新闻记者。
    1. 写稿机器人的不断涌现以及升级换代,势必导致传媒业深层次的重组,机器新闻写作正在“蚕食”传统新闻记者的职业领地。
    事实上,这种冲击已经不再是一种单纯的想象或理论逻辑上的推演,而是实实在在、正在发生的事实。在西方传媒界,机器新闻写作自2006年首次被引入以来,已经在体育报道、财经报道、气象报道等诸多领域得到较为普遍的应用,并逐渐形成规模化的趋势。包括《纽约时报》《华盛顿邮报》《洛杉矶时报》《卫报》等在内的知名媒体纷纷将机器人纳入批量化的日常新闻写作的流程之中;美联社更是在机器写作之外,启用编辑机器人对机器自动生成的稿件进行审查,成为第一家全面引入机器新闻人的传媒机构。在中国,机器新闻写作虽然起步较晚,但其也已在传统媒体和新媒体“双平台发力”。从腾讯财经的Dreamwriter到新华社的“快笔小新”再到今日头条的“张小明”,这些写稿机器人的不断涌现以及升级换代,无不暗示着传媒业深层次地改变:机器新闻写作正在侵蚀传统新闻记者的职业领域,它正在传媒市场上“攻城略地”。
    2. 机器新闻写作高效、全天候的工作模式使它在生产出海量新闻稿的同时,在突发事件的报道中发挥着越来越重要的作用
    机器新闻写作拥有传统新闻记者无可比拟的优势,高效是其最大的特色,而这无疑契合了高速运转的现代社会对新闻时效性越来越迫切的需求。机器新闻写作遵循“抓取数据-分析数据-套用模板-生成稿件-人工把关”这一模式化的生产流程,可以在几秒甚至几毫秒内生产出一篇新闻报道。它还能做到一天24小时、一周7天的无间歇性运作。众所周知,突发事件是彰显传媒影响力的竞争高地,机器新闻写作这种高效、全天候的工作模式使它在生产出海量新闻稿之余,也在深具影响力的突发事件的报道中发挥着越来越重要的作用。例如,在地震灾难发生时,机器可以在相关数据库中第一时间采集到地震数据,并生成新闻稿进行报道。新闻生产在通往“事件发生-媒体报道”无缝对接的道路上,又向前迈进了一大步。这些都无疑将使机器新闻写作在未来新闻报道中扮演越来越重要的角色。
    3.机器新闻写作长于枯燥的、海量数据的资料处理,在整体性、精确性和高效能方面具有独特优势。
    机器新闻写作能最大限度地保障新闻的真实性,尤其是在数据型、模式化的新闻生产中更是如此。它长于处理在人类看来琐碎、庞杂的数据信息,通过既定程序对既定算法的实现,可以保证生成文本在新闻要素、新闻事实、引用数据等方面得完整和准确。除非程序设置出现偏差或者存在人为刻意地干预,否则这种数据信息的文本化呈现,在精准度上要远高于新闻记者,避免了人工录入可能出现的失误。借助大数据平台,机器新闻写作能对同一新闻事件的数据来源、内容细节进行多角度的反复对比,在“相互比对、相互印证”中,让事实真相越辩越明,让虚假信息无处容身,从而实现新闻信息的去伪存真。
    4. 机器新闻写作不仅能够生产用户偏好的新闻内容或新闻风格,而且还能提供与用户的个人生活场景相匹配的私人定制产品。
    机器新闻写作还能实现个性化的内容定制,这是传统新闻记者所无法承担和胜任的。众所周知,传统新闻生产是以最大多数人共性的信息需求为基础的,个人个性化的需求在很大程度上被忽略了。机器新闻写作的一个优势在于,它在报道热门新闻事件的同时,能够对几乎同步发生的、相对冷门的新闻事件进行报道,从而使新闻需求的长尾效应得以激活和放大。例如,今日头条的写稿机器人“张小明”在里约奥运会期间,对上百场赛事都进行了报道。事实证明,那些看似很冷门、受众关注度不高的体育报道,依然得到了相当可观的阅读量,小众的个性化阅读需求得到满足。随着技术的革新、人们对机器新闻写作群智式的修正与完善以及机器本身对语料库的不断学习,机器新闻写作会变得越来越“类人化”。 它能够针对同一新闻事件生产出风格迥异的内容版本,以适配不同受众的需求。而当技术发展到足够成熟,物与物能够互联、互通乃至“万物皆媒”时,机器新闻写作所提供给个人的将不再仅仅是其喜欢的新闻内容或偏好的新闻风格,纳入其中的,还有与其个人相匹配的生活场景——这将会是一种全方位的私人定制。
    5.在机器新闻写作逐步升级换代的大背景下,只会对新闻素材剪贴拼接的媒体工作者必将被逐出新闻传播的专业岗位。
    在这些优势的裹挟之下,机器新闻写作或将在两个维度对新闻记者产生深层次的影响:一是“谁来写”,二是“写什么”。一直以来,新闻写作都被视为是人类所独有的创造性活动,是实现社会成员间信息共享、价值传播,进而建构社会共同体的重要手段。新闻记者以“我在现场,我来告诉你发生了什么”的方式,树立了自己在新闻生产中的核心地位,并激发了人们对新闻报道背后的新闻记者的人格化想象。互联网颠覆了既有的传媒格局,这种颠覆,作用于新闻记者产生的一个重大变化,就是新闻生产与采访的日渐脱节。很多从事消息类写作等规格化内容生产的记者,不再依赖于现场采访,而是通过轻点鼠标,获取所需的新闻信息。这种信息获取的方式固然有其可取之处,但倘若新闻记者满足于此,将采访这一看家本领从自身剥离开,那么新闻记者在新闻生产中的地位将会被进一步弱化。机器新闻写作的出现,使这一担忧变成了现实。因为它不仅“能写”,打破了“人是新闻生产的唯一主体”这一既定认知,将人从写作的神坛上拉了下来,而且“会写”,甚至在特定的新闻范式内,写的比人更出色。当机器可以更快、更好、更廉价地从事新闻生产时,在市场逐利性的作用下,相当一部分不依赖于自己生产原创内容而只会在网络上拼拼贴贴,或者只能从事较低端写作的新闻记者一定会被从新闻市场中驱逐出去。这一幕,在过去数十年间,机器对蓝领工人大浪淘沙式地筛选中已经上演。
    6.机器新闻写作的算法模型将深刻地影响着我们对于世界的理解与思考模式
    媒介环境学派代表人物麦克卢汉曾提出“媒介即讯息”的观点。他精辟地指出,“人类只有在拥有了某种媒介之后,才有可能从事与之相适应的传播和其他社会活动。媒介最重要的作用就是影响了我们理解和思考的习惯”。当机器新闻写作作为一种新的媒介手段进入传媒行业时,它就已经开始对新闻记者的认知产生影响,进而在很大程度上左右着新闻记者“写什么”。这种影响主要经由两条路径来实现:一是机器新闻写作能够捕捉到某一时段受众关注的焦点,并定位数据、搜集素材,为新闻记者的写作提供方向;二是机器新闻写作能够对数据进行结构化地呈现与分析,从而将那些单看起来可能意义不大、但连接起来又很有意义的信息挖掘出来。这种形式的信息呈现无疑具有一种更加宏观的视角,更加符合互联网“连接产生意义”的本质。它将新闻记者受限于主客观条件地制约而忽略或者压根没有意识到的信息与信息间的内在关联,从碎片化的海量信息中寻找出来,为新闻记者提供了看待问题的全新视角。因此,从表面看,机器只是为新闻记者筛选素材的一种辅助性工具,新闻记者从这些呈现的素材中寻找思路和灵感,掌控着新闻生产主动权。但实际上,新闻记者看待问题的角度和方式已在这一过程中潜移默化地改变了。
    同样的,当机器新闻写作大规模地在传媒领域登堂入室,占据重要地位时,它也必将对于用户的世界观、方法论及把握世事的逻辑产生深刻的影响。总体上它会使人们更加精确、及时和完整地认识世界和把握世界,但这其中算法模型的品质高下将成为未来社会沟通和理解的关键之一。

    二、人工智能并非万能:机器新闻写作不是新闻记者的“终结者”,人机协同是未来传媒生产的主流模式

    机器新闻写作对新闻记者的冲击和影响现已成为传媒行业的一个基本共识。特别是随着技术的指数级发展,这种冲击会变得愈发强烈。新闻记者应有危机意识,正视现实、积极应对,但也不应太过悲观,沉浸于新闻记者的末日想象中无法自拔。机器新闻写作并不能成为新闻记者的“终结者”。
    1.算法、模板是机器新闻写作永远跳不出去的“窠臼”,超越算法和模板是机器新闻写作所不能的。不仅如此,当公开的信息呈现不足时、当需要透过错综复杂的社会关系进行价值判断时,机器新闻写作都暴露出自己的“阿基里斯脚踵”。
    机器新闻写作受限于技术规则的影响,存有自身的局限性。与人类相比,机器最大的软肋在于缺乏人的思辨能力、情感表达能力和创造能力。这就导致机器新闻写作从应用领域看,主要集中于体育赛事、财经报道、突发事件等高数据密度、高信息透明度、低语境的新闻报道中。这类报道往往简单而程式化,属于新闻生产中层次较低的产品。而对于调查报道、新闻评论等信息呈现相对稀缺、需要更多地克服障碍进行挖掘的报道任务;以及对于那些需要在错综复杂的社会关系中做出价值判断的作品,机器新闻写作还鲜有涉猎。从报道内容看,机器新闻写作注重事实而轻视观点,所呈现出的内容往往是简单信息的排列组合,还不具备价值解析和舆论引导的能力,更缺乏深度思考和人文关怀。从报道形式看,机器新闻写作多是对既有模板的套用,属于流水线似的生产,规范却呆板,容易导致人的审美疲劳。受益于技术开发人员对机器新闻写作模式的深度挖掘和对写作模板的扩充与丰富,机器新闻写作的风格会愈发多元。但总体而言,这种多元化的风格依然局限于一定的题材范围内,当所报道的话题超出模板所能覆盖的范围时,机器新闻写作模式化的短板将暴露无遗。
    2.技术发展的速度与社会形态、法制规则进化速度的不对称可能引发来自社会政治和法律层面的风险。
    机器新闻写作因技术推进和业务倚重,呈现出扩散性发展态势。由于其发展速度与相关规章制度出台之间存有“时差”,导致机器新闻写作不断涌现的诸多新问题、新情况得不到及时、有效地解决,可能面临着来自社会政治和法律层面的风险。机器新闻写作的一个重要基础是对海量数据的挖掘,这些数据有的来自门户类网站,有的来自谷歌、百度等搜索引擎,有的来自以UGC为基础的社会化媒体,有的来自移动终端对私人化信息的采集等。理想状态下,机器新闻写作应该在尽可能大的范围内挖掘数据,通过对海量数据的不断学习,实现自身的越来越智能化。但在现实中,所有数据的采集、利用都存在边界问题。机器可以对哪些数据进行挖掘,不可以对哪些数据进行挖掘,这个界线亟待澄清,否则容易侵犯他人隐私,产生滥用数据的隐忧。机器新闻写作在法律层面的另一个“盲区”,在于新闻产品著作权的保护。例如,机器新闻写作所依托的模板,是相关技术开发人员将文字程序语言转化成计算机编码语言写成的,包含着技术开发人员对特定资料地搜集与取舍。这些模板是否构成作品?经由这些模板生成的稿件是否享有版权?如果享有版权,谁是版权的拥有者?……诸如此类的问题,目前在学界和业界尚有争议,还没有达成共识,很可能成为阻碍机器新闻写作进一步发展的绊脚石。
    3.人机协同将成为未来传媒生产的主流模式
    机器新闻写作还离不开新闻记者的把关,特别是在重大而敏感的议题上更是如此。虽然目前少数媒体已经采用机器审核的方式,将机器写作完成的稿件直接发布,但多数媒体还是保留了“人工审核”这一关键步骤。这主要是因为机器本身并不具有独立判断新闻倾向和新闻价值的能力,其对材料的筛选更多源于对关键词句等数据的获取。人类写作的复杂之处在于,其可以在完全不出现敏感词的前提下,进行自我价值判断的预设与植入。而这无疑超出了机器所能理解的范畴,需要新闻记者帮忙,将那些不符合群体规范或把关人价值标准的信息剔除掉。例如,机器新闻写作在地震灾难的报道中,可能会抓取到一些血淋淋的现场图片。这些照片固然是真实的,可以反映彼时现场的真实面貌,但是却并不适合大范围传播。新闻报道在履行告知功能之外,还要考虑到对社会舆论的影响。归根究底,新闻报道应该弘扬真善美,而不应为了满足人的猎奇心理和窥私欲,挑战人的生理与心理极限。
    机器新闻写作对新闻记者也并非全无助益。传统新闻记者在写稿时一般遵循“搜集资料-分析资料-整合思路-进行写作”的过程。其中“资料搜集”这一初始阶段往往费时又费力。机器新闻写作能够实现资料得实时、迅速抓取,使新闻记者得以从重复、繁琐、低技术含量的数据搜集工作中解放出来,能够有更多时间去思考和从事更具想象力和创造力的工作。从这一角度而言,机器人记者可以成为新闻记者的好帮手,关键在于如何去合理地运用它。面对机器对新闻行业的冲击,新闻记者不应也不会坐以待毙,求新求变、顺势而为才是上策之选。在机器新闻写作的不断“倒逼”下,新闻记者有望实现职责的转型与升级,入职门槛将大大提高。除了更深厚的人文素养、更娴熟的文字表达技巧、更精湛的视觉呈现能力外,看待问题时是否拥有更大的视野与格局,分析问题时是否拥有强大判断力和深度阐释力,成为检验新闻记者是否具有核心竞争力的关键指标。传统的“消息型”记者将让位于机器新闻写作,调查性新闻、解释性新闻等高品质新闻类型才是新闻记者的主战场。
    概言之,机器新闻写作所引领的新的新闻生产的变革已经不可避免,在这波技术浪潮中,如何正确认识人与机器的关系,左右着人们对未来新闻行业发展趋势的判断。事实上,无论机器新闻写作如何发展,人始终都是新闻生产的核心要素,机器只是人的附属,这一点从来都没有改变。未来,人机协同将是传媒业的常态。二者如何协同合作,生产出更多元、更高品质的作品,是机器新闻写作下一步努力的方向。
    必须指出,人工智能的发展所提出的、值得警惕和研究的问题是非常深刻而重大的,有实验表明,如果对机器人写作所依托的模板更加精致化,乃至通过输入“悲伤”、“快乐”、“崇高”等词语,机器人便可以遣词造句,极为迅速的写出符合上述需求的,注入了更为细腻情感的文字,那么,在价值观塑造方面,会不会出现一个倒转,即机器人塑造了人的情感?再有,互联网+时代,由于细分市场的可能性,导致所谓全方位私人订制成为可能,这种全方位的私人订制,必然导致公众注意力的碎片化和价值观愈加多样,那么,是否还有可能实现共同价值?等等。所有这些都是技术的发展在给我们带来极大便利的同时,需要我们认真严肃地面对的重大课题,它的回答质量将决定着人类社会的未来发展及其质量。

本文参考文献
[加]马歇尔·麦克卢汉著、何道宽译:《理解媒介:论人的延伸》,南京,译林出版社,2011年。
金兼斌:《机器新闻写作:一场正在发生的革命》,《新闻与写作》,2014年,第9期。
陆高峰:《机器人是新闻人的对手还是助手?》,《青年记者》,2016年,第18期。
孙瑛:《机器人新闻:一种基于大数据的新闻生产模式》,《编辑之友》,2016年,第3期。
蒋枝宏:《传媒颠覆者:机器新闻写作》,《新闻研究导刊》,2016年,第3期。
孙振虎、张馨亚:《机器人新闻的发展与反思》,《电视研究》,2016年,第6期。
李苏:《机器新闻发展的市场进路及反思——以Autamated Insights公司为例》,《新闻界》,2015年,第18期。
杨名宜、吴海荣:《探讨“机器新闻写作”的发展趋势》,《视听》,2016年,第11期。
史安斌、龙亦凡:《新闻机器人溯源、现状与前景》,《青年记者》,2016年,第22期。
白龙:《新闻写作机器人在美国新闻业的应用》,《青年记者》,2016年,第5期。
彭兰:《移动化、智能化技术趋势下新闻生产的再定义》,《新闻记者》,2016年,第1期。


来源:微信公众号“再建巴别塔”
链接:https://mp.weixin.qq.com/s/YwIIej4i6k5I1Z6QScsvyA

编辑:马晓晴


作者: admin    时间: 2019-1-29 21:59
【案例】
人工智能简史之一[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]宋胖 [url=]宋胖说事儿[/url] [color=rgba(0, 0, 0, 0.298039)]3天前

今天人工智能已经不再是科幻小说的噱头,随着铺天盖地的宣传,社会对于人工智能的接受已经接近平常心。唯一能引起耸动眼球的可能就是各种大佬呼号的“人工智能替代你的工作”,让现有的很多社会岗位上的从业者感到危机。而写了《未来简史》神棍赫拉里,更是用一种夸张的手法,把人工智能吹得神乎其神,彷佛人要成为其奴隶一样。

为了理清人工智能概念的很多神话和瞎话,宋胖决定开辟个人工智能专题,谈谈我眼里的人工智能,并为大家提供一个观察视角。今天和大家粗线条的说说,人工智能的简史。

0、人工智能的形象与学科形态

影视剧科幻剧中的人工智能其形象是强大无比,能力非凡;而现实生活中的人工智能却完全不是这样。今天已经融入大家生活习惯的,搜索引擎,邮件过滤器、二维码扫描器等都是近60年来人工智能技术的实用化的具体形态。这些所谓的人工智能,都是一堆有单一功能或有限功能的裸程序。显然不是科幻电影中,无所不能的形象。

其实从历史的视角看,人工智能的发展,是曲曲折折,坎坎坷坷。一次次巨大的热情被唤起,一次次梦想的肥皂泡变为碎渣。从事人工智能研究的科学家们,不得不一次次地回到原点。今天人工智能作为一个独立的学科,其发展形态非常独特。他不是像其他学科般从分散走向统一,而是从诞生之日起,就不断地分裂,形成一堆堆杂乱无章的子领域。直到今天,依然有很多科学家想着用一个统一的认知范式来统所有人工智能领域,但这个统一的时刻还远远没有到来,大概这就是,人工智能发展的希望之火才永不磨灭的原因吧。

从时间轴上而言,人工智能的历史可以追溯100年,当然,由于在1956年达特茅斯会议上,AI(artificial intelligence)这个单词才诞生,因此将1954年之前的部分,追认到人工智能发展的源史似乎有点牵强,但是由于这段时间出现的几个数学家的确提出了影响后来,甚至现在依然是人工智能理论基础的模型,因此在梳理人工智能发展史时,应该从他们开始算。如果这样的话,人工智能简史可以划分为四个阶段。

孕育期:1900-1956年

创建期:1956-1680年

高峰期:1980-2010年

展望期:2010-今

1、造梦者:数学大神们的畅想

人工智能开启于少数几个数学家。这几位大神用方程推动了整个人类的认知升级。

(1)希尔伯特

在1900年举办的巴黎数学大会上,德高望重的老数学家希尔伯特向全世界数学家们宣布了23个未解决的难题。这些题目道道经典,其中的第二题和第十题与后来的人工智能密切相关,并最终促成了计算机的发明。

希尔伯特第二题是说能否运用公理化的方法统一整个数学,并用严格的数学推理证明数学自身的正确性。这就是著名的希尔伯特纲领。希尔伯特提出了这个问题,但他自己没有证明它,而是留给了后人。

(2)哥德尔

证明数学系统应同时具备一致性(无矛盾)和完备性(可推导)的任务落到了一个人身上,他就是哥德尔。

这位来自捷克的年轻人,是希尔伯特的粉丝,在他接过希尔伯特的火炬之后,全心去证明希尔伯特第二问题。但很快,他发现,自己的努力是徒劳的,因为希尔伯特错了。任何足够强大的数学公理系统都存在着瑕疵,一致性与完备性是不能同时具备的。

哥德尔不完备性定理的证明,然哥德尔登上了1931年的时代周刊。哥德尔定理被评选为20世纪最有影响力的数学定理。

此时,人工智能学科尚未建立,计算机也没有发明,但哥德尔定理似乎给人工智能提出了警告。也就说,如果我们把人工智能看作一个机械化的数学公理系统,根据哥德尔定理,必然存在着至少一个人类可以构造,但是机器无法求解的问题。这个可以视为人工智能的软肋。数学无法证明数学本身的正确性,人工智能无法凭自身解决所有问题。即存在着人类可以求解但是机器却不能解的问题,即人工智能不可能超过人类。

但是问题没有那么简单,上述命题成立的前提是人与机器不同,人不是一个机械的公理化系统。但这个前提成立吗?到今天,也不知道。(这个问题以后,和各位细说)


(3)大神 图灵

如前所述,与人工智能相关的有两个问题,除了第二题,还有第十题呢!这个问题是:是否存在着判定任意一个丢番图方程有解的机械化运算过程?(是不是感觉一句话每个字都认识,合在一起就不知道啥意思?)

丢番图方程是什么鬼??? 别急。

它长得这个样!


所有的 a,b ,c均是整数,若其中能找到一组整数解 者则称之有整数解。

那什么是机械化运算过程?

通俗地说,就是算法。

为了解决这个第十题,一个和哥德尔一样神的年轻人站了出来,他就是图灵!

图灵设想除了一个机器,这就是后来的图灵机,也是计算机的理论原型,非常漂亮的画出了机械化运算过程的含义,并最终为计算机的发明铺平了道路。关于图灵机,我们会单辟一篇,来解释其原理。

图灵机一经提出,就获得了科学家的认可,图灵也备受鼓舞,开始进一步思考图灵机运算能力的极限。

在1940年,图灵开始认真思考机器是否能够具备人的智能。如果具备了,用什么标准判定?在1950年,图灵提出了图灵测试的概念。

通俗而言,就是在仅仅凭声音或文字沟通,如果测试者无法将与其沟通的人与机器做区分,则将该机器通过了图灵测试。(当然,由于这个实验设计漏洞很多,导致标准非常宽泛,因此饱受争议。)

2014年,俄罗斯计算机“尤金”成为历史上第一个通过图灵测试的人工智能程序,但是由于它是使用第二语言来回答问题的,即有翻译过程,此为测试者之有5分钟的互动时间,这导致其“通过”测试的证据严重不足。

图灵测试时存在理论误区的,图灵将智能等同于符号运算的智能表现,将实现功能的智能本质本体,即机器的内涵问题绕过去了。其带来的最大误区就是,引导人工智能研究者将注意力集中在如何让程序欺骗人类测试者,以通过图灵测试,有时甚至不择手段。今天图灵测试不断受到质疑。但图灵的研究的确大大推动了人工智能的进展,这个是必须要大书特书的。

(4) 悲催的冯 .诺依曼

其实,当是由于交流条件的限制,同时思考希尔伯特问题的不止哥德尔和图灵,还有一个人,他就是冯诺依曼。但这个老兄太悲催了,总是独立思考出,他人早他一步思考出的结果。这有点像杂谈的紫胖子,总是有强烈的“后见之明”。1931年,冯诺依曼证出了希尔伯特第二问题,却发现哥德尔早就发表了哥德尔定理。于是,冯诺依曼赶紧换专业,开始研究量子力学,等攒了一堆成果,准备发表的时候,另一位天才物理学家,狄拉克抢先发表了《量子力学原理》,比冯同学早了整整两年,没法只能继续换专业。


冯诺依曼,受到两次打击之后,开始把注意力从基础数学转向工程应用领域,终于获得成功。1945年,冯诺依曼在去开会的火车上完成了早期的计算机EDVAC的设计,这就是到今天仍然在采用的冯诺依曼体系结构。1946年,他又提出存储程序原理,把程序本身当作数据来对待,程序和该程序处理的数据用同样的方式存储,并确定了存储程序计算机的五大组成部分和基本工作方法。

图灵的贡献是建立了图灵机的理论模型,奠定了人工智能的基础。而冯· 诺依曼则是首先提出了计算机体系结构的设想,他是当之无愧的当代计算机之父!他的计算机终于使得数学家们的研究出了大果子,也推动着人类历史进入信息时代,人工智能的畅想,终于离开了纸面,开始成为现实。

(4)维纳

孕育期,影响后世人工智能得最后一位大神,是诺伯特维纳。这是一个真正的天才。3岁开始学习天文学和生物学,7岁时,物理学知识和生物学知识已经可以碾压身为语言学家和博物学家的父亲,10岁熟练掌握了拉丁语、希腊语、德语和英语,并且开始涉猎人类科学的各个领域。维纳一辈子发表的论文,几乎涉及所有学科,以至于你都不知道该称呼他为那个领域的科学家。

维纳对于人工智能的最大贡献,就是控制论。1948年,维纳发表了《控制论——关于在动物和机器中控制和通讯的科学》。此后,Cybernetics成为一个学科。在这篇论文中,维纳深入探讨了机器和人的统一性,人或机器通过反馈(应该叫自耦合)完成某种目的的实现,开启了机器模拟人的可能。这为人工智能的提出奠定了重要的基础。此为维纳关于心理学、脑科学和工程学应相互交叉的洞见,促进了后来认知科学的大发展。

今天先写到这里,明天和大家说说,达特茅斯会议以及人工智能学科的初步建立,然后给大家介绍接下来的那些人工智能大神的故事。

感谢您的阅读。明儿见。

https://mp.weixin.qq.com/s/57bYIzx5zS5VC08utRfU8A编辑:邢海波




作者: admin    时间: 2019-1-29 22:04
【案例】
人工智能简史之二[color=rgba(0, 0, 0, 0.298039)]宋胖 [url=]宋胖说事儿[/url] [color=rgba(0, 0, 0, 0.298039)]今天

上一次,和各位老师说了人工智能技术的孕育期的理论研究发轫。今天和各位聊聊创建期的故事。

孕育期:1900-1956年

创建期:1956-1680年

高峰期:1980-2010年

展望期:2010-今

以图灵为代表的数学大神们铺平了理论道路,以诺依曼为代表工程师们踏平了技术坎坷,计算机已经呱呱坠地的时候,人工智能终于横空出世,而这一伟大的历史时刻却是从当时看来,一个不起眼的会议开始的。

1、达特茅斯会议

1956年8月,在美国汉诺斯小镇的达特茅斯学院,约翰 .麦卡锡、马文.闵斯基(人工智能与认知学专家)、克劳德.香农(信息论之父),艾伦.纽厄尔(计算机科学家)、郝伯特.西蒙等科学家聚在一起,开了一个务虚会。即使今天看来。这个会的主题也好像非常无厘头:用机器来模仿人类学习以及其他方面的智能。

这个会足足开了俩月,天天争吵,没有达成任何普遍共识,唯一的共识,就是造了一个词儿 人工智能(AI)。

1956年,也被称为人工智能元年。

2、会后的思想大爆炸

这次会议之后,人工智能的相关理论几乎是井喷式发展。很多领域在那次会议的务虚之后取得大突破。

(1)机器证明

定理的机器证明,通俗而言就是用计算机程序代替人类进行自动推理,以证明数学定理。这是人工智能最先突破的领域。

在达特茅斯会议上,纽厄尔和西蒙已经开始在这个方面展示他俩的心肝宝贝 :一个叫逻辑理论家的小程序。这个程序当时已经可以独立证明出《数学原理》一书的38条定理,到了1963年,可以证明52条定理。

1958年,美籍华人王浩(也是个大神,以后有机会和大家细说)在IB的704计算机上用了不到不到5分钟,就证明了《数学原理》的全部220条定理。

1958年, IBM宣布研制出了可以证明平面几何的定理证明程序。

1976年,凯尼斯.阿佩尔和沃夫冈 哈肯利用人工与计算机混合的方式证明了著名的数学猜想:四色定理。这个定理说,对于任意的地图,最少仅用四种颜色就可以对所有不同国家进行染色,且任意两个相邻的国家不会重色。尽管命题很简单,但证明起来异常繁琐,配合着计算机的超强的枚举和计算能力,阿佩尔和哈肯把这个猜想证明了。

(2)机器学习

这是人工智能突破的第二个领域。在1956年的达特茅斯会议上,阿瑟.萨缪尔展示了他在1952年发明的一个跳棋程序,这个程序奇特的地方是具有自学能力,可以不断的通过比赛积累跳棋技巧。1959年,跳棋程序打败了她的设计者萨缪尔本人,1962年,这个跳棋程序打败了美国康涅狄格州的跳棋冠军。对于这个研究领域,萨缪尔起了一个名字,交机器学习。

(3)模式识别

人工智能突破的第三个领域是模式识别。

1956年奥利弗.萨尔福瑞德鼓捣出了第一个字符识别程序。

1957年,纽厄尔和西蒙开始研究不依赖于具体领域的通用问题求解器,即GPS (general problem solver)。

1963年,詹姆斯.斯拉格发表了第一个符号积分程序,该程序可以将任意一个函数表达式,转化为积分表达式。

1968年,斯拉克的符号积分运算程序完成了升级,已经可以达到美国顶尖专家水准。

3、高兴的太早了

幸福来的太快,人工智能学家们有点晕晕乎乎,开始畅想人工智能的美好未来了。

1958年喝了二两的纽厄尔和西蒙吹牛逼,说,不出10年计算机将会称为世界象棋冠军,证明所有的数学定理,谱出优美的音乐,按照真阳的趋势,人工智能到2000年将会全方位的超过人类。

然后,残酷的现实和当世这些年少情况的人工智能科学家开了一个玩笑。

1956年,机器定理的研究路径开始遇到瓶颈,计算机推倒了上完步也无法证明,两个连续函数的和仍然是连续函数。

而萨缪尔的跳棋程序也变成了“伤仲永”,永远停留在坑涅狄格州冠军的水平,无法再进一步战胜世界冠军。

出了机器定理,机器学习,人工智能在模式识别领域也遇到了瓶颈。对于人类自然语言的理解,一直是人工智能要啃下的硬骨头。但是计算机在自然语言的理解和翻译中,表现的非常糟糕。一旦涉及跨语言翻译。比如,英译中,再译回英,前后两个英文文本的意义完全对应不上。

此时,有人开始挖苦那些从美国政府拿了巨资搞机器翻译的科学家人们。说他们,花了纳税人2000万元,搞出了一个弱智儿童一样的翻译程序。

这时,人工智能科学家们开始思考残酷的现实,越来越多的瓶颈以及不利的证据,让政府和大学开始大幅削减人工智能的项目经费。人工智能技术的发展,进入了沉寂的冬天。达特茅斯会议上吹牛逼的科学家们,终于认识到,人工智能的发展没有那么顺风顺水,必须停止吹牛逼,静下来冷静思考了。

4、知识工程领域的突破

经历了短暂的挫折之后,人工智能研究者开始重新上路。新一代的人工智能科学家开始脱颖而出。其中,扛大旗的当属 爱德华.费根堡姆(1969年出生)。(主义别弄混了,一共有三费根堡姆,一个是1920年出生的阿曼德费根堡姆,这是个管理学家;一个是1944年出生的物理学家;今天这个是人工智能科学家。)

费根堡姆认识到,传统的人工智能之所以会陷入僵局,是因为太过于强调通用求解方法的作用,忽略了具体的知识,仔细思考人类的求解过程会发现,知识每时每刻都在发挥重要的作用,因此人工智能必须引入知识变量。

费根堡姆沿着这个思路,研究出了第一个专家系统。什么是专家系统?就是一个知识工程程序,通俗的说就是利用计算机化的知识,进行自动推理,从而模仿某个领域专家解决问题。

第一个成功的专家系统叫DENDRAL ,是1968年被造出来的,他可以根据质谱仪的数据推知物质的分子结构。

有了第一个,就有第二个,第三个。此后各式各样的专家系统陆续涌现,最后形成了一种软件产业的全新分支——知识产业。

1977年,在第五届国际人工智能大会上,费根鲍姆用“知识工程”称呼这个全新的领域。机器或者程序,也可以拥有知识,就这样,人工智能往前又走了一步。

在知识工程刺激下,日本的第五代计算机计划、英国的阿尔维计划、西欧的尤里卡计划、美国的星计划和中国的863计划陆续推出。虽然这些计划并非都是针对人工智能的,但是人工智能都是这些计划的重要组成部分。

但是阳光之后是风雨,在专家系统,知识工程获得大量的科研成果之后,弊端开始显现了出来。这就是知识获取难题。当时,大部分人工智能程序所需知识是由专业程序员手工编入程序的,如何从应用系统层面,让机器自动获取知识,成为一个大难题。面对这个困难,新的“费根鲍姆”没有出现,就在这个知识获取技术面前,人工智能发生了大转变,并最终分化成影响今天的的三大学派:符号主义,连接主义,行为主义。围绕究竟从何种角度获取知识,成为人工智能学科大分裂的开始,关于分裂之后的学科图景,咱们下回再说。

预知后事如何,请关注人工智能简史之三:三龙戏珠——人工智能发展的鼎盛时刻!

https://mp.weixin.qq.com/s/LsogZABZTNWCS5b3mF5iZA编辑:邢海波






作者: admin    时间: 2019-1-30 22:15
【案例】

吴靖:“算法”具有自由意志吗?[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]吴 靖 [url=]中国出版[/url] [color=rgba(0, 0, 0, 0.298039)]今天

  摘要  
文章通过2018年几个有关“算法”和平台经济的负面新闻,讨论算法霸权背后的资本逻辑和技术中心主义。“算法”和“人工智能”在具体的社会经济生活中角色的加强到底意味着什么,与人类社会现有的传统伦理,产生了怎样的冲突和重塑的关系。既然新的基于算法的平台科技已经代表着人类传统生活方式的重新组合和创造性改革,我们需要思考如何在数字化与社交媒体的时代重新激活公共领域的理想与实践,让公众提供与新科技共处体验的不同面向,并且相互交流,才可能更全面地思考人类与“算法”共处并且“驯服”算法的方式。

原文刊登于2019年2期
原题为“算法”具有自由意志吗?——算法主导社会行为背后的几个悖论

20世纪中叶以来,“人工智能”一直被认为是人类科技的前沿领域,一旦有所突破,就具有改变人类历史的力量。20世纪60年代,“人工智能”与“空间技术”和“能源技术”并称为人类三大尖端技术,而到了21世纪,其他两项变成了“基因工程”和“纳米科学”,“人工智能”却又一次上榜,成为科技新浪潮的代表性技术。2016年,随着阿尔法狗大战人类围棋顶级高手的耸动新闻的热议,“人工智能”的话题从小众的尖端科技领域进入到了大众文化,人们开始讨论现实中可以实现,或者不久马上会实现的人工智能应用,而不是未来主义畅想中的缥缈景观。在机器轻易挑战了不久前还被认为是很难挑战的人类智慧高峰围棋的时刻,人类舆论充满了对人工智能即将碾压人类熟知的一切的期待与恐惧。但是总的来说,在两年前沸腾的人工智能舆论中,乐观主义成为主旋律。人类憧憬着新科技能够解决当下世界的结构性问题,感慨人类主体性可能会消退,半期待半担忧地讨论着机器全面取代人类劳工的场景。
然而到了2018年,关于“人工智能”的新闻虽然继续接二连三,但是风向却出现了巨大的转变。首先用词更加接地气了,“算法”替代了“人工智能”这个大而无当的概念,更明确指明了这一新科技发展的核心原理,那就是由计算机来模拟某些人的思维和智能,通过“算法”来实现在存在一定的输入的条件下,由计算机来完成特定功能的输出,替代或增强人类的某些决策任务与能力。另外,新闻所涉及的行业也更加具体,并不是还处于科学游戏和实验状态的“下围棋”,而是进入到自动驾驶、社交媒体和共享经济平台这些大量依靠“算法”才能成立的新技术与经济实践之中。我们可以从这些已经发生的事故和争议中,去讨论“算法”和“人工智能”在具体的社会经济生活中角色的加强到底意味着什么,以及与人类社会现有的传统伦理都产生了怎样的冲突和重塑的关系。
本文将从几个近期有关算法的新闻事件入手,讨论算法主导下的社会与经济行为在伦理层面的悖论和困境。

平台经济的算法依赖
与伦理导向

对平台经济算法问题的讨论基于滴滴顺风车的系列丑闻。滴滴平台的顺风车业务接连爆出多起抢劫、强奸、杀人的恶性案件,引发舆论危机。以滴滴为代表的“共享经济”,在2010年前后成为创投市场的宠儿。滴滴出行作为一家2012年才成立的创业公司,先后完成20轮融资,金额总量超过200亿美元,成为全球融资金额最大的未上市公司。[1]滴滴用巨大的融资额通过对出租车和网约车司机以及乘客进行补贴的方式,先后击败和收购了快的、优步等国内国际的网约车平台,获得了在中国市场的垄断地位。在引发众怒的系列恶性案件爆发之后,舆论和交通管理部门都指出了滴滴因为垄断而导致的傲慢、管理散漫和对顾客投诉与政府管理回应缓慢等问题。然而,除了垄断、管理不善和资本逐利本性这些所有企业都有可能存在的问题以外,滴滴公司作为平台经济代表的运营模式,也是造成出租车行业在劳工、服务、安全等方面问题的重要原因。
滴滴之所以能够在很短时间获得大量融资、垄断出租车以及网约车的市场,并且在很长一段时间以来一直获得政府相对宽容的管理政策,是因为类似的平台企业以通过算法可以优化交通资源配置,并且将私家车的闲置运输能力和乘客的特殊需求进行匹配,作为科技创新企业对新经济和社会做出巨大贡献的理由。“算法”在这种平台经济的模式中,被当作促进信息流通和资源高效配置的科技解决方案。在传统出租车行业服务缺陷和城市交通拥堵的大环境下,加上早期平台企业的大规模补贴政策,民众和司机都迅速被吸纳到滴滴平台之上,接受滴滴APP通过算法来调节和指挥的打车服务。另外,与传统出租车企业所不同的是,滴滴是一家轻资产的公司,它并不拥有出租车,也并不雇佣司机,不需要对固定资产以及员工福利、培训和保险进行很多投入,但是又可以因为垄断了顾客对车辆需求的信息而从司机的劳动中获得提成。滴滴与司机之间,并没有稳定的劳动关系,它实际上也并不能够承诺或者保证在自己的营销广告中所宣称的,对于乘客来说优越于传统出租车行业的各种服务。这些只是基于对互联网世界资源以及人际关系最优匹配的神话般的社会想象。在现实中,无论是司机还是乘客,都会因为没有稳定的角色期待、职业标准、工作经验和责任认定,而遇到各种各样的风险和问题。滴滴作为平台企业,最大的利益诉求就是维系用户的黏性,维持用户对平台的基本信任,甚至是对平台的依赖。因而对于顾客投诉甚至警方工作进行推诿、拖延,拒绝向政府提供运营数据和车辆信息,出了事故以后整改不到位等等作为,就不仅仅是管理不善的问题,而是滴滴这种类型的平台企业要继续运营下去的系统性做法。平台与劳动者和顾客之间,并没有直接的契约关系和社会关系,平台作为披上科技外衣的“中介”,既具有科技所带有的“客观”“中立”“精确”的光环,又是去人格化、去实体化的,很容易规避人们对“伦理”和“责任”的追问。
不少研究者和观察家都已经指出,从互联网创业大潮中所成长起来的平台企业,或者说“共享经济”,以亚马逊的Mechanical Turk,Uber,爱彼迎(Airbnb)、淘宝、滴滴等为代表,实际上是一种与新自由主义经济模式相契合的“零工经济”。[2]这种模式是建立在一种对中产阶级个体的“创意活动”浪漫化的想象之上,认为人们可以利用“业余时间”(淘宝带货)、使用“空余生产工具”(上下班路上的顺风车、出门度假空置的房屋)、利用自己职业之外的特殊才艺(外语、写代码、制作小工艺品、化妆技巧等),将这些“边角料”的资源和劳动,通过平台和算法的连接,转化成财产性收入,既充分利用了资源、服务了有需求的人,又可以获得额外的收入,并且劳动时间灵活、自主性强。但是,在现实中,新自由主义经济政策导致失业人口增加,灵活就业和不稳定工作成为常态,许多劳动者参与平台经济是作为唯一的收入来源,并非经济收益的锦上添花,而平台企业只有将零散的服务提供者与消费者捆绑在一个更加稳定和垄断的信息环境中,才可能具有可持续的盈利模式。因此,一方面是劳动者与平台之间是陌生人和异化的关系,并不具有传统企业劳动环境所形成的人际关系、职业伦理、工作稳定性和工友之间的相互支持,而另一方面是消费者和零工劳动者在垄断平台的挤压下别无选择,只能通过平台来获取工作和服务。平台算法的主导逻辑是效率和交易的达成,以及快钱的攫取,而并非服务质量的提高和产品的个性化。实际上,平台企业在连接服务提供者和潜在消费者的时候,是无法把“服务质量”这样主观性的变量的评估加入到算法之中的,它们所能做的,就是最大限度地促进交易和完成交易。具体行业的职业水准的提升和产品质量的提高,只能是专注于此的企业来不断改进,不可能由只把产品和服务看成数据和流动性的平台来实施。金融资本主导下的平台经济,不可能具有特定的、稳定的社会伦理。

大数据与传统受众调查

2018年初,英国《卫报》采访了一家名叫“剑桥分析”(Cambridge Analytica)的数据分析公司的爆料人Christopher Wylie,承认公司通过(非法)数据挖掘获得脸书(Facebook)上5000万用户的数据,用来分析用户的日常行为与他们的政治态度之间的关系。[3]英国脱欧公投和美国川普意外当选之后,自由派媒体就一直在调查这些投票的“意外情况”背后,是否有新的心理操控和政治操控技术的影响。以Facebook为代表的社交媒体,早已经成为许多分析家解释西方工业化社会政治公共领域碎片化、代表性断裂、选举政治腐化的众矢之的。这场丑闻还导致了一场为期两天的美国国会听证会,几十名议员对扎克伯格进行了连珠炮似的提问,但是似乎焦点成了Facebook如何防止泄露用户隐私数据的问题。把问题的焦点从数据分析背后所采用的“算法”及其逻辑,转移到了保护数据不外泄给潜在的邪恶力量,这使得舆论偏离了对一个重要问题的探讨:是否数据量足够大,算力足够强,人们的政治行为,比如投票,就一定是可以展示出特定的规律、可以预测并且进行人为干预的?
这个问题并不新鲜,在“大数据”这个概念兴起之前很久,通过定量数据分析,可以对社会成员的行为规律进行总结和预测,就已经成为大规模社会调查——包括商业调查和社会心理调查——所奉行的基本原理了。只不过早期的社会调查是基于特定社会学原理的抽样,而并非完整的大数据。因此,在20世纪的大部分时间,工业化社会的人们对于商业调查、社会态度调查、政治选举调查、舆论调查等几乎充斥了生活方方面面的各类调查已经见怪不怪,并且经常认为它们的结论并不准确,只是一家之言,甚至和算命相比,也精确不了太多,并没有那么容易和阴谋论或者操控选举等想象联系在一起。引发舆论恐慌的,是社交媒体、人工智能、大数据算法这些“全新”的概念,这些概念发端于20世纪60年代的军事工业,建立在对使用大型计算机来模拟和控制复杂系统与战场形势的科学期待之上。[4]因此,基于抽样的早期市场调查和基于大数据的网络时代的社会行为控制,虽然在对人类的主观行为其实是具有客观规律的、是可以预知的这个认识层面,具有根本的一致性,但是两者的区别在于网络科技、信息收集技术和芯片运算速度的指数级发展,导致人们相信一个全面监控、人类被彻底数据化的时代终于到来了。舆论对于Facebook数据泄露事件的恐慌,以及美国国会通过听证和道歉这种政治仪式试图要平复的恐慌,都是来自于对自由意志终于要全面败给人工智能和算法这一深层次的意识形态。
在算法所理解和复制的人类行为模式中,只存在大量的刺激——反应过程的集合,而不存在对于自由意志和伦理自主性的考量。尽管在算法学习中,理论上可以允许无限大的输入,但是无论输入多少变量,自由意志和伦理都是在算法所建构的复杂系统之外的。这一问题在另外一场涉及人工智能机器失败的事件中,得到了更清晰的展示。2018年3月18日,在美国亚利桑那州发生了一场自动驾驶汽车撞死了一个行人的车祸。经过调查,车祸原因在于正处于自动驾驶状态的汽车虽然感知到了前方的物体(行人),但却通过数据库的计算和判断认为那是另外一辆汽车,也在向前移动,因此没有做出任何躲闪的动作。等物体近在眼前仍旧没有移动的时候,自动驾驶的汽车无法做出有效判断,也不知道该做什么动作,于是突然把驾驶权交还给了司机,但是司机在那个时候完全没有思想准备,于是汽车径直撞上了那个“物体”:一位49岁的女性。[5]在人类智能的世界,无论是出于本能、还是出于理性判断,见到不明物体的第一反应应该是降低车速,然后再进一步判断,但是在算法的世界里,“为了安全起见而牺牲效率”可能是一个无法训练的能力,因为这种判断是基于主观判断的选择,并没有唯一的答案,并且不符合机器理性所要追求的精确和效率最大化原则。
基于Facebook数据进行政治行为预测和干预,和通过大数据训练开发的自动驾驶汽车,似乎是算法在两个完全不同领域的应用。但是,如果追究到两种技术体系所依据的基本认识论前提,那就是对于人类行为是出于自由意志和伦理判断的推动,还是来自于复杂输入的刺激——反应模式的判断,我们可以看到两者的认识论都是建立在后者的基础之上,而排斥了自由意志和伦理选择。也就是说,算法在当下一些人类活动领域的渗透,已经不是替代人类活动,或者增加某种活动的效率那么简单的事情了,而是首先对人类行动的逻辑进行了改造,从伦理逻辑和效率逻辑各占一定的比重,改造为效率逻辑和工具理性占据所有的空间,完全排斥伦理逻辑与价值理性,并且进一步在改造的基础上开发出了基于算法的人类行动模式。
早在20世纪30年代,法兰克福学派的批判理论家们在接触了美国式的媒体市场调查之后指出,文化工业总是声称自己在用最先进的调查方法——问卷、心理分析、焦点小组等等——来科学性地理解受众,表明自己给受众生产的标准化娱乐产品是受众自己想要的、需要的。其实,市场细分不过是文化工业生产链条的一部分,是由文化工业精心规划,并且通过营销、广告、市场调查中的心理暗示和分类指引,以及类型化节目的稳定投放,而逐步生产出来的。并不存在“天然”喜欢某种节目的受众,受众的品位和分类,是文化工业的重要产品,是文化工业生产逻辑的结果,而非原因。[6]由此可知,受众市场调查,就是大众传媒时代的“算法”,而社交媒体新技术所带来的,无非是对受众分类投放的更加封闭、影响力更加强大。APP与大众传媒最大的差别,就是我们连手中的遥控器都失去了,一点点放弃了偶尔越过自己的“信息茧房”,到更广阔的世界串一下门的机会。我们在不知不觉中被包裹在一个小宇宙中,与他人近在咫尺,却消费着非常不同的信息和文化,我们的品位、逻辑和价值,被“算法”所塑造和改造,也越来越依赖“算法”而存在。

“算法”治理需要公共领域

既然“算法”的主导权背后是资本和效率的价值体系,也就是哈贝马斯所说的,系统对于生活世界的逐步侵占,那么能够与“算法”主导权进行博弈的,当然就是提倡和培育价值理性与主体间性的公共领域了。在“滴滴”顺风车恶性案件丑闻的舆论之下,笔者接触到了两个小故事,可以算作公共领域和公民行动如何可能贡献于“算法”治理的注脚。第一个故事来自于一位出租车司机,在和笔者聊到出租车与“滴滴”的关系时,司机师傅专门提到一个传统司机的技能,“扫街”,也就是在大街上接招手打车的乘客。他说虽然开着打车软件,但他坚持“扫街”,“不要偷懒,把接到好单的希望都寄托在平台身上,平台就是为了把你捆绑在它那里,开始的时候用一些好的单子来诱惑你,当你失去了‘扫街’的基本技能,想着守株待兔靠平台来派单的时候,你就失去了选择劳动方式和控制自己劳动过程的主动性。平台要的是司机之间的竞争和猜疑,你需要自己掌握劳动技能,否则就只能任人摆布。”第二个故事来自于滴滴顺风车杀人案前一天曾经投诉过同一个司机的女性,她投诉后滴滴并没有及时回应和处理。第二天发生了杀人案之后,她在微博和公共媒体的采访中都表示了“深深的自责”,认为自己如果当时“不畏缩,去报警”,“这23岁的姑娘会不会就不会有事了”。
从这两位普通人身上我们可以感受到公众朴素的价值观和对社会利益的关切,完全可以通过公共领域的激荡、信息的交流和讨论,形成对平台和“算法”非常具体、到位的认识与批评。在涉及企业治理,尤其是新科技企业的治理时,通常我们习惯于所谓“利益相关方”的思维方式,更多由专家、法律代理人和企业代表来参与制定相关政策的讨论。但是,既然新的基于算法的平台科技已经代表着人类传统生活方式的重新组合和创造性改革,我们需要让公众提供与新科技共处体验的不同面向,并且相互交流,才可能更全面地思考人类与“算法”共处并且“驯服”算法的方式。吊诡的地方在于,新技术所带来的传播潜力,在资本逻辑的垄断下,可以导致“算法”霸权与人的本质能力的退化,而在公共领域的价值模式下,又是克服“算法”异化的重要前提。我们需要思考如何在数字化与社交媒体的时代重新激活公共领域的理想与实践。

注 释
[1]2012年成立,多轮融资,收购Uber,滴滴从一开始就是错的[EB/OL].https://www.admin5.com/article/20180831/874032.shtml
[2]Nick Dyer-Witheford, Cyber-Proletariat: Global Labor in the Digital Vortex, Pluto Press, 2015.
[3]Carole Cadwalladr, “‘I made Steve Bannon’s psychological warfare’: meet the data war whistleblower.” https://www.theguardian.com/news ... ok-nix-bannon-trump
[4]Paul N. Edward, The Closed World: Computers and the Politics of Discourse in Cold War America (MIT Press, 1997).
[5]Andrew Smith, “Franken-algorisms: the deadly consequences of unpredictable code.” https://www.theguardian.com/tech ... r&from=groupmessage
[6][德]马克斯·霍克海默,特奥多·威·阿多尔诺.启蒙辩证法(哲学片段)[M].洪佩郁,蔺月峰,译.重庆:重庆出版社,1990

作者简介

吴靖
北京大学新闻与传播学院教授、副院长。本科毕业于清华大学外语系,爱荷华大学传播研究系传播学硕士、博士。主要研究领域为批判媒体与文化研究,传播与媒介技术的社会理论,新媒介技术的社会使用与文化分析,新媒体与创意产业,视觉文化等。曾在Javnost-the public,International Journal of Cultural Studies,《国际新闻界》《新闻大学》《现代传播》《中国传媒报告》等国内外学术刊物上发表文章50余篇。近期的著作是2012年出版的《文化现代性的视觉表达:观看、凝视与对视》。

一直以来,其学术兴趣主要集中在媒介文化研究和批判社会与传播理论的领域。她的研究处于媒介研究中两个方向的结合点:即通过文本分析而进行的意识形态批判和对媒体工业、组织结构、行业规范、历史发展、受众解读等的政治经济学分析的结合。在此基础上,近期的研究一方面深入历史,挖掘媒介与社会的互动历程,钩沉信息社会思想史;另一方面跟踪新媒介技术和社会实践的形成及其对社会文化的影响。


https://mp.weixin.qq.com/s/xxCgc6CigcU1gfhYpUFECA编辑:邢海波



作者: admin    时间: 2019-1-31 21:27
【案例】
江作苏等:成为“被算计”的人,受众如何脱困?[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]江作苏 刘志宇 [url=]中国出版[/url] [color=rgba(0, 0, 0, 0.298039)]昨天

  摘要  
全球传播场景已全面进入“算法时代”,在这个大背景下,几乎所有受众都完成了历史性的转换,成为了“被算计的人”。算法的中性并不与价值观的中性趋同,在其背后隐藏着受众无意识状态下的“超级全景监狱”和“符号暴力”机制,当中的伦理问题冲击着整个传播场域。在从业者与受众都不断触探伦理底线的过程中,关键是要唤醒受众的伦理意识和警惕。

原文刊登于2019年2期
原题为从“单向度”到“被算计”的人——“算法”在传播场域中的伦理冲击

在不久前成都举行的2018年中国传媒经济与管理学术年会上,笔者的学术团队经过长时间研究后提出的一个观点获得了“年度观点奖”。这个观点是:受众已经进入了“被算计的人”场景时代。这种概括性认识不仅基于大量统计数据,而且基于人人都可以感受到的现实,即,在当下数字与算法野蛮生长的时代,每个人都要意识到,在无所不包、无远弗届的网络场景中,只要身处传播场域,几乎每个人都已经完成了各自的历史性转换:在以算法为驱动、以云计算托底、以移动通讯为支撑的条件下,受众已经不知不觉被转化为了“被算计”的人。
新闻传播学界很熟悉马尔库塞的“单向度人”学说。[1]他认为,在后工业时代的大众传媒传播作用下,流行价值观被受众内化为伦理规范,使人们盲目地一味认同,压制了其多向度思考,也就使之失去了突破单向度行为,实施多向度选择的能力。此处的向度(dimension),也可以翻译成方面或维度。观点表述中提到“被算计的人”,其“算计”一词很难找到对应的英文单词。因为“calculate”一词本意是纯数学意义的“计算”,而中文的“算计”一词除数学意义外,还有“刻意追求某种目的”的含义。
当下无处不在的“算计”从大家的日常生活中处处可以感知到,例如“×宝”靠算法精准推送有利可图的商品目录以刺激用户消费、“××头条”据算法推送投受众所好的内容以赚取流量。这种依靠算法对人们的日常动态予以收集察验,再通过“计算”而“算计”千千万万的个人,从而获得商业利益或是影响力的做法,如今已是司空见惯。无论人们主观上如何看待,你我都在客观上进入了“被算计”的场景,而且正逐渐适应这个场景的伦理。

难以逃避的“被算计”:
算法下的伦理困境

不久前,某人收到一张明信片,寄送者是某国驻华使馆的新闻文化处。对方寄这张明信片是为告知该使馆办了40年的一份文化性杂志停办,以后不再寄赠。对方同时表示希望收件者用手机扫描明信片上的二维码,今后可以用在线方式继续向此人推送数字化杂志。这么一件小事,可以引起如下思考。
除了印刷媒体的式微外,印象最深的就是使馆所寄的明信片要求收件扫描其二维码,这就涉及 “算法”和今后是否会“被算计”的问题。暂且不谈该二维码所导向的链接是否安全合法,只要扫码,对方数据库就可以获得该人的手机号码。基于我国手机用户登记实名制的技术前提,对方可以运用社会工程学的各种手段通过手机号码获得姓名、身份证号,进而轻易地运用算法获得该人所有个人信息和社会交往的实时情况,这绝非耸人听闻。
现实空间中的地址可以改变,但数据空间中的坐标却难以修改,收件扫码后只要手机不换号,对方可以将其视为一个移动的信息之窗,随时能全面探知个人动态,而对方几乎没有躲避的可能。
从这件小事引发的思考出发,围绕“世界已经进入了‘被算计的人’场景时代”这个观点,再考察和思考一下我们的伦理与法律环境。当下,中国学术界正在热烈谈论欧盟2018年生效的《一般数据保护条例》,[2]即GDPR,这个条例看似十分严格、细致甚至繁琐,似乎是保护受众不被过度“算计”的法宝,但是深入地进行思考,像GDPR中关于“信息遗忘权”的概念和相关规定有多大的可行性?人们甚至可以怀疑这是一个伪命题,因为像某国使馆文化处对收件人多年以前的一个通信地址尚不会遗忘和删除,那么数据服务商若得到了用户的数据地址和信息会主动忘掉吗?在需要动用的时候会选择放弃吗?这很难做到。
通过数字痕迹追踪场景中的一切人是算法时代的媒介所共有之取向。人们打开网络门户,接受并运用海量信息获取多种便利,这固然是一种享受,但是否要为此付出代价甚至让渡部分权利呢?这是一个罗生门式的问题。很多时候用户一旦提交个人数据,实际上就进入了不可逆的不被遗忘场景,很多难以预估的问题会由此产生。这在行为伦理上的确是两难选择。
用户不可能既要求服务,又不透露个人信息,但用户因透露个人信息而受到某种损害时,又会本能地指责整个算法场景无权收集和“算计”个人信息。这当中的伦理平衡不易做到,所以受众也应当进行计算和算计,算一算自己在获取数据时的得失与选择。从受众意识层面来说,大众媒介伦理素养要升级到更高层次,使受众意识到自己是在一个被时刻“算计”的场景中生存,要评估客体“算计”的动机和目的。有这种认知基础,才能在享受权利的同时做出主动的伦理判断和行为选择。

伦理困境的“天元”:
算计带来的控制机制

时下风行一时的算法推送技术是技术理性与人文理性相结合的产物。而这一产物在智能化场域中对人类最大的冲击,是伦理问题。除了用户的数据安全问题外应当看到,伴随着传播伦理的问题而来的问题已经凸显,例如社会不同群体间的语境阻隔和对受众个人造成的信息茧房效应,这些在新闻传播研究中都已是热门议题。在面对问题时,首先要看到传播场域——即传播伦理发生作用的前提已经发生了变化,算法的“算计”给传播加入了全新控制机制。
算法主导下的传播是真正的控制下的传播。维纳在1948年问世的《控制论》中提出,一切物质存在,不管是天体、生物、机器直到人类社会以至于人的思维过程,都构成一定的“系统”,具有不同形式的控制、反馈功能。[3]这一论点在传播学中运用的基本思想便是运用反馈信息来调节和控制系统行为,达到预期的目的。当下这种算计主导的新系统控制模式,其核心在于个性化的推荐算法,其通过无处不在的收集和运算,为整个传播系统注入高效迅速的反馈。在这种新系统之内,信息环境对人们信息的收集无处不在,且难以察觉。人们在打开各类基于大数据和算法技术的网页和APP接受信息时,便将包含着信息的行为提供给了各类传播主体,供其通过数据算法进行分析,发送反馈。这种由收集、运算、反馈、传播组成的系统控制,构成了“超级全景监狱”和对受众的“符号暴力”。
如美国学者马克·波斯特所言,[4]人们正处于计算机数据库信息模式下的技术性权力格局中,被限制在“超级全景监狱”里。与相对熟悉的米歇尔·福柯之“全景监狱”相比,“超级全景监狱”不像福柯认为的那样是19世纪监视和规训的延伸,而是一种全新的模式。从监视的程度与范围而言,这种监视更加隐蔽而无处不在,权力在这种监视下如毛细血管一般延伸,触及社会的每一寸空间,只要通过技术媒介进行信息活动,随时随地都会被捕捉到数据,并被进行反馈和推送;从监视的建构方式来说,“全景监狱”里尚存在着人的主体意识,而“超级全景监狱”中的主体构建采取“客体化”的相反路线,通过分散的身份、通过连个体都没意识到的身份生产这些个体——简而言之,超级全景监狱里的人们甚至都意识不到自己被“监禁”了。这一概念的描述正是对“被算计”的人们当下处境的生动写照。
除了建构“超级全景监狱”的传播场域外,“算计”在作用机制上构成了对受众的“符号暴力”。由布尔迪厄提出的这一概念指的是统治者在社会行动者本身合谋的基础上,通过符号的权力施加在其身上的暴力。从算法发挥作用的机制来说,受众本身积极迎合“算计”,所谓的“算计”才得以进行。而且受众对于这种监视、控制、灌输仍在一定程度上处在一种不知情的状态,因此也如布尔迪厄所说,这是一种“温和的暴力”。[5]
在“符号暴力”之下,算法带来的“算计”并不是真实的暴力,从传播效果看来也对受众没有造成直接的伤害。但这种“算计”是看不见、摸不着的,信息生产者通过技术手段传播场域中获得了充分的信息生产前提,进而通过符号权力对意义进行任意建构,更加懂得如何迎合受众的好恶,使受众的心智结构呈现为更具有形成性的“惯习”。“通过这种惯习的养成,受众进而呈现出体现于身体而实现的集体个人化,或者是经由社会化而获致的生物性个人的集体化。”[6]这种机制下,符号暴力展现出它的威力,它通过培养“惯习”进而构建出知识场域,影响受众对于社会的经济、政治、文化等各个领域的看法观念,而且通过观察可以看到,依然有大量的用户不曾怀疑过算法的合乎伦理性,大多数人在观念上形成一种“误识”,并不认为这是一种暴力,反而为其辩护,进而加强了符号暴力的威力,在传播场域内形成了一种内闭循环。
通过“超级全景监狱”和操控“符号暴力”的机制作用,信息生产者的这些“算计”主要是为资本服务,致力于吸引受众的注意力,进而将流量变现。当下的新闻平台、信息服务平台、电商平台普遍采用个性化推荐算法,这种控制机制也伴随着与技术手段的捆绑被推而广之,对传播伦理构成了内源性挑战。

当下应对伦理冲击的一般观点

第一种论点提出,如今虽然整个社会从互联网时代进入到移动互联网的时代,但监控的形式和本质依然是以计算机数据库为核心的。伦理问题能不能回归到技术领域,交由算法去解决?例如,世界经济论坛曾发表过一份题为《解除个人信息的价值——从收集到使用》的报告,其主旨在于将管理数据的重心转移到限制使用数据上,呼吁“通过新型技术手段限制使用个人数据能够让个人控制自己的信息安全”。[7]
应当承认,算法是没有“原罪”的,算法是否剥夺了受众的自由不可一概而论。算法带来的伦理问题,指望“解铃还须系铃人”是一条思路,但从当下看来,对于“被算计”的忧虑主要是针对算法被滥用而非算法本身的问题。例如2017年引起轩然大波的美国脸书(Facebook)数据泄漏事件,并不是东方式的禅意过虑,而是西方契约精神失灵的实体焦虑:受众并不知道剑桥公司“算计”其个人数据的目的,而且出于对数据挖掘、智能算法等技术手段的习惯性接受,客户甚至不知道自己在受到某种影响和控制,被置于一种无意识的被监控状态。这种伦理缺位带来的伤害并非单纯是技术对人的伤害,更多的是人对人的伤害,要从算法出发用技术手段去进行修正显然是勉为其难。
那么,从第二种论点出发,是否可以期待业界与学界联手,针对算法的开发与应用从伦理、道德或是法律层面拿出具有公信力的成文约束方案呢?当下,比较有代表性的是张超从伦理学视角出发提出的将传统的新闻伦理与新兴的技术伦理相结合的方案,认为新闻生产的算法责任伦理体系当中应包括以下原则:公平、准确、透明、可解释、可审计、责任。[8]此外,类似的还有邱仁宗等从大数据的伦理风险出发提出的“基本目的、负责研究、利益冲突、尊重、隐私、共济、公正、透明、参与”系列原则等多种方案。[9]这些方案各有侧重点,但基本精神相近,且从限制当下的“算计”出发来看均具有一定的合理性和操作性。不过,从当前行业发展情况看来,互联网技术和数据技术距形成成熟业态尚存在距离,此时期望有一种与实践步伐相适应的、通用的、完美的传播伦理直接拿来运用,实际上很难,且不说这套伦理规则还需要用公允和完美的文本形式表达。
即便如马云这样的业界前沿人士,也认为当下正处于互联网的黎明时期,下一步全球行业还需要紧追从IT走向DT(Data Technology)的大趋势。[10]在互联网行业和数据行业尚不成熟的前提下,期望制定出一整套严密完备的法律和规定来约束从业者行为,亦是一种良好愿望,但是操作时空尚不匹备。此时从业者和受众都还在探底,这就如同正在刮着飓风的海面上,实时的船舶状态没有办法固定描绘和控制,只有驶入相对稳定的海区后才有可能。
因此,要在当下解决这种“被算计”给人带来的损害和焦虑,仅靠技术手段、简单规制手段是难以做到的,要得到解决必须从受众心理的角度入手,建立起伦理上的警惕性。

伦理冲击下的当务之急:摆脱无意识

世界经济研究领域存在中等收入陷阱(Middle- Income Trap)现象,指发展中国家在经济发展过程中面临重重阻力,特别是从落后国家进入中等收入国家以后有可能失去发展动力,陷入长期经济停滞。[11]将此概念移植到传播领域、媒介形态上来讲,在当下这个互联网行业的黎明时期,人类也可以说正处于广义的信息中等收入状态。整个人类社会,包括某些自诩甚高的网络强国,都要警惕这种状态下的伦理认知混乱。
伦理学研究发现,当下这个时期社会的伦理困惑往往是与经济上的中等收入陷阱相伴生的。中等收入陷阱内的人们急切地想增加财富和跳出陷阱,对一切并不一定具有资源秉赋基础,或者超出承受范围的激进变革和公共产品,一概采取民粹主义的态度,盲目冒进。如同消化不良者往往不检点自己的饮食方式而一味怪罪食物的品质一样,结果是付出了大量社会资源的代价而收益却并不理想。眼里只看得到算法而看不到“算计”是大部分人面对伦理抉择时给出的答复。
通过理论分析可以发现,无论是“算计”背后的作用机制“超级全景监狱”、“符号暴力”抑或是“中等收入陷阱”驱动下的民粹心态,其产生伦理风险的根本要素在于无意识。受众面对“算计”时,沉溺于这种无意识而缺乏伦理上的警惕性将可能使其行为受到影响乃至精神被控制。要打破这种伦理困境,最首要的是帮助受众建立伦理警惕,摆脱无意识状态。从操作层面上来说,对受众进行伦理教育并不难,但其前提是学界和业界意识到其重要性,通过擦掉算法推送的表层色彩,兑现受众知情权、复苏其伦理意识,使其主动避免成为“单向度的人”,并能够判断和认清自身的选择与行为是否符合自身的伦理认同。

结语

“算法”看似客观中立,“算计”本身也并不邪恶,但其规则是人为所制定,所以这一新兴的传播机制不可否认的具有偏向性。简而言之,即“算法中性”与“价值中性”并非是趋同的。虽然大多数经由算法推送的信息,人们常规上都选择很大程度去相信它,但这不等于受众不再需要有伦理的底线意识,不意味着独立人格不再有价值。面对算法,除了“尽物之性”外,也要兼顾“尽人之性”,践行“尊重和认同人的内在价值”这一人类伦理的出发点。

注 释
[1]赫伯特·马尔库塞.单向度的人[M].上海:上海译文出版社,2016
[2]《一般数据保护条例》(General Data Protection Regulation,简称GDPR)为欧洲联盟的条例,前身是欧盟在1995年制定的《计算机数据保护法》,于2018年5月25日在欧盟成员国内正式生效实施。该条例的适用范围极为广泛,任何收集、传输、保留或处理涉及欧盟所有成员国内的个人信息的机构组织均受该条例的约束。
[3]熊澄宇.传播学十大经典解读[J].清华大学学报(哲学社会科学版),2003(5)
[4]张金鹏.超级全景监狱:信息方式下的权力技术——波斯特论信息方式下的统治模式[J].南京社会科学,2007(8)
[5]尚帅.传播的兴趣偏向和浑然不觉的符号暴力——基于《今日头条》的算法控制研究[J].现代传播(中国传媒大学学报),2018(10)
[6]毕芙蓉.文化资本与符号暴力——论布迪厄的知识社会学[J].理论探讨,2015(1)
[7]宋吉鑫,魏玉东,王永峰.大数据伦理问题与治理研究述评[J].理论界,2017(1)
[8]张超.新闻生产中的算法风险:成因、类型与对策[J].中国出版,2018(13)
[9]邱仁宗,黄雯,翟晓梅.大数据技术的伦理问题[J].科学与社会,2014,4(1)
[10]马云.两岸企业家峰会上的讲话[EB/OL].http://tech.sina.com.cn/i/2014-12-15/doc-iawzunex6503537.html
[11]蔡昉.“中等收入陷阱”的理论、经验与针对性[J].经济学动态,2011(12)



作者简介

江作苏
华中师范大学新闻传播学院教授、博士生导师、高级记者;武汉大学博导。研究方向为媒介伦理与新闻实务,目前在核心期刊发表学术论文50余篇,出版著作20余部,围绕“责任造就公信力”和“传播即伦理”等学术观点,开展了广泛和深入研究。
1982年毕业于复旦大学,中央党校研究生,曾任湖北日报传媒集团董事长。中国最高新闻奖——“长江韬奋奖”获得者(第七届,2006年),获得首届“全国百佳新闻工作者”(1995年)称号,国务院特殊津贴获得者。湖北省劳动模范,省有突出贡献中青年专家,湖北省首届政府出版奖获得者,被评为全国新时期传媒领军人物。

刘志宇
华中师范大学新闻传播学院硕士研究生,主要研究方向为文化传播、媒介伦理。


                     编辑:邢海波



作者: admin    时间: 2019-2-1 13:03
【案例】
【感谢今日头条,让我找到了失散多年的老朋友!】今天,今日头条发布《找到》,声称帮助用户找到了多少亲人朋友。看完深有同感!因为,过去一年多来,今日头条也帮我找到了失散多年的老朋友:今日头条推荐“你可能认识的人”,里面既有家人、微信好友,也有手机通讯录联系人(比如少林寺方丈释永信),还有我多年未联系的老朋友。而我并未向今日头条开放手机通讯录、微信好友访问权限。今日头条是怎么获取我的关系网的?难道都是今日头条“算”出来的?

编辑:陈心茹




作者: admin    时间: 2019-2-1 22:13
【案例】

学术探索|李建华:走向善治—《国家治理与现代伦理丛书》序
三思斋主  李建华道德观察  2019-02-01

众所周知, 治理并不是一个新名词,从词源上说,英语中的gover-nance一词源于拉丁文和古希腊语, 原意是控制、引导和操纵,长期以来它一直与goverment一词交叉使用,并且主要用于与国家的公共事务相关的管理活动和政治活动中,自从世界银行在《1989年世界发展报告》中首次使用了“治理危机”,许多国际组织和机构开始在其各种报告和文件中频频使用它,政治学、经济学和管理学等学科纷纷引入治理概念,赋予了治理丰富的含义。概括起来, 它大致包含如下几层含义:作为最小的国家管理活动的治理;作为公司管理的治理;作为新公共管理的治理;作为善治的治理; 作为社会控制体系的治理;作为自组织网络的治理; 如果从重要性角度而言,现代社会的当务之急是国家治理,抑或国家治理体系和治理能力的现代化。
国家是一种特殊的伦理实体,其治理离不开伦理的考量。把伦理(Sittlichkeit) 与道德(Moralitat)区分开来,是黑格尔的一大发明,并且他首次将伦理置于道德的自由意志发展的最高阶段。在伦理阶段, 道德的内在意识发展为社会习俗、内在个人尊严和独立人格得到外部法权制度的保障。 伦理就是主观的伦理习俗和客观的伦理实体的结合, 家庭、市民社会和国家就是主要的三种伦理实体。 “ 伦理实体” 是黑格尔伦理思想中的一个核心概念,是价值合理性的最终依据,也是把握伦理关系和伦理秩序的关键所在。 他借助于“实体” 这样一种形而上的、具有世界本原意义的辩证表达, 认为“ 绝对精神” 就是“ 实体”,而实体是自因性的、不依赖于他物的, 并且实体又因是自主变化运动的而成为“具体的实体”,家庭、市民社会、国家就是伦理作为主观与客观统一物的真理性存在。 黑格尔认为, 伦理实体要由家庭经过市民社会再到国家这种最高形态, 虽然家庭和市民社会也是伦理共同体,但都是“ 单个人” 的“集合”,只有国家才是必然性和普遍性的产物,才是最优的伦理实体。
那么作为伦理实体的国家, 在其实现性上又与伦理有哪些纠缠呢? 换言之, 国家具有哪些伦理上的特殊性呢?
国家就是真实的自由。在黑格尔哲学中,自由贯穿抽象法、道德和伦理各个环节,作为抽象法和道德的统一与真理环节,伦理是“作为实体的自由不仅作为主观意志而且也作为现实性和必然性的实存”。 国家作为伦理实体消除了个别与整体、特殊与一般、个人与社会的对立, 是一种普遍实现了的自由,是消除了个人任性的自由, “自由的理念中只有作为国家才是真实的”。 所以国家是实现普遍自由的“ 家园” 和依托, 或者说, 只有在国家这样的政治共同体中才有真实的自由
国家就是伦理精神。伦理是实体性的普遍物,国家环节的自由又是一种实体性自由,而自由之所以只在国家环节是真实的,是因为国家是实体性伦理精神的最高体现。国家是伦理理念的实现———是作为显示出来的、自知的实体性意志的伦理精神,这种伦理精神思考自身和知道自身, 并完成一切它所知道的,而且只完成它所知道的。” 可见, 国家体现的是一种普遍性的整体主义精神,是个人利益的普遍化。
国家就是伦理秩序。黑格尔认为, 只有在国家这种伦理实体中, 在抽象法和道德阶段所认定的权利、义务关系才从主观变成了客观、从偶然变成了必然,这不仅仅是主观应该, 而且是主观应该与客观现实的统一。 权利与义务相结合的概念是最重要的规定之一,并且是国家内在力量所在,所以国家的伦理秩序就是权利和义务的统一。
国家就是集权主义理念。 由于国家代表普遍化的利益, 并且对市民社会的个人权利主观化、个别化产生影响,这必然导致一种超国家主义的政治主张———集权主义。黑格尔对国家这一政治共同体伦理特性的阐发,给了我们深刻的启示: 国家不仅是权力载体,而且是伦理实体,国家的治理离不开伦理的引导与规范。
国家治理的最高价值目标, 就是基于伦理维度的“ 善治”。人类社会发展到今天, 社会管理模式发生了实质性的变化, 由政府或国家“统治” (Government) 向社会“治理” (Governance) 的转化就是其中之一。“治理” 与“统治” 从词面上看似乎差别不大, 但其实际内涵存在根本上的不同。不少学者认为,区分“治理” 与“统治” 两个概念是正确理解治理的前提条件, 也是理解“什么是善治” 的关键。治理作为一种政治管理过程,同政府的政治统治一样与权威、权力不可分割, 其最终目的也是实现社会秩序的和谐与稳定,但二者是存在明显差异的。 其差异主要表现在两个方面:
第一,统治的权威必定是政府, 而治理的权威并非政府机关;统治的主体一定是政府的公共机构,而治理的主体既可以是公共机构,也可以是私人机构,还可以是公共机构与私人机构的合作。所以“治理” 是一个比“统治” 更宽泛的概念。 在现代社会中, 所有社会机构如果要高效而有序地运行,可以没有政府的统治,但绝对不可能没有治理。
第二, 管理过程中权力运行的向度不一样。政府统治的权力运行方向是自上而下的,是单一向度的管理;而治理则是一个上下互动的管理过程, 其实质是建立在市场原则、公共利益和认同基础之上的合作。 这就说明,我们今天的德治不是基于“统治” 的理念, 而是基于“治理” 的理论视野,其最终目的是实现“善治”。
尽管西方的政治学家和管理学家在看到社会资源配置过程中市场和政府的双重失效之后, 极力主张用治理取代统治, 因为治理可以弥补国家与市场在调控过程中的某些不足, 但他们同样认识到了治理本身也有失效的问题。 既然治理也存在失效的可能, 那么现实而紧迫的问题是如何克服治理的失效或低效。 于是, 许多学者和国际组织纷纷提出了“元治理” “有效的治理” “健全的治理” 和“善治” 等概念,其中“善治”理论最有影响。
自从有了国家及政府以后,善政(good goverment,可直译为“ 良好的政府” 或“良好的统治” ) 便成为人们所期望的理想政治模式。在西方,由古希腊的“国家是有德者的共同体” 到现代的“国家是正义的共同体”,它们都显示出对善政的期望。在中国传统政治文化中, 善政的最主要意义就是能让官员清明、公正和廉洁,各级官员像父母对待自己的孩子一样热爱和对待自己的子民,没有私心, 没有偏爱,古今中外的思想家们对善政的理解,包括如下要素: 严明的法纪、清廉的官员、高效的行政、良好的服务。这种善政主要是人们对政府的期盼,或者说是一种政治理想,至于能否真正实现“ 良好的统治”,要看政府或国家本身。从“理想国” 到“ 乌托邦”,从“ 大同世界” 到“ 世外桃源”,它们都表达了人们对善政的苦心期待。但是这种善政在政治理想中的独占地位自20世纪90年代以来在世界各国日益受到了严重的挑战, 即来,自“善治” 的挑战。
“善治就是使公共利益最大化的社会管理过程。 善治的本质就在于它是政府与公民对公共生活的合作管理,是政治国家与公民社会的一种新颖关系, 是两者的最佳状态。”善治不仅仅意味着一种新的管理理念,而且是一种新的与善政不同的政治运作模式。它是一种建立在市民社会基础之上的、具有不同于传统社会管理方式特性的全新的社会治理方式, 善治的特性在国家治理中主要表现为应遵循如下基本原则。
认同性原则
它不是指法律意义上的强制认可, 也不是宗教学意义上的盲从,而是政治学意义上的合法性,即标示社会秩序和权威被人们自觉认可的性质和状态。政府的权威和秩序无论其法律支撑多有力, 也无论其推行措施多强硬,如果没有在一定范围内被人们内心所体认,就谈不上合法性。并且公民体认的程度越高,合法性就越大,善治的程度便越高。 取得和增大合法性的主要途径是尽可能增加公民的政治认同感, 所以,是否是善治,首先要看管理机构和管理者在多大程度上使公共管理活动取得了公民的同意与认可。我们的治国方针政策得到广大人民群众的认同与支持,是社会主义德治的最终目标。
责任性原则
它是指社会管理机构及其个人应当对自己的行为负责, 要尽相应的义务。 责任性意味着管理机构和管理者个人必须忠实履行自己的职责和义务,否则就是失职, 就是没有责任性。责任性越大,善治程度就越高。正因为如此, 现代社会人们越来越重视政治阶层的道德责任问题,马克斯·韦伯就曾在他的名为《作为职业的政治》 的著名演讲中提出政治领域中“意图伦理” 和“责任伦理”,前者不考虑后果,后者则要求行为者义无反顾地对后果负责任,政治家应当遵循的是责任伦理而不是意图伦理。赫尔穆特·施密特甚至认为,对自己的行动或者不行动的结果承担责任,其前提首先是承担在确定目标方面的责任。“政治家的目标以及实现目标的手段和途径不能同他所接受的伦理基本价值产生冲突, 缺乏基本价值的政治必然是没有良知的政治,是在道德方面无所顾忌的政治, 并且会趋向于犯罪。”
法制性原则
这里“法治” 的基本意义是, 法律是政治管理的最高准则,任何政府官员和公民都必须依法行事,法权高于一切,在法律面前人人平等。 法治的直接目标是规范公民的行为,管理社会事务,维护正常的社会生活秩序。 但其最终目标在于保护公民的民主自由权利, 不但要使参与契约的双方都能从利益交换中公平得益, 也要以不损害社会公共利益为前提。 因为在一个摆脱了身份关系的社会中, 契约行为应当以平等的自由精神为要旨,社会公共利益正是他人自由权利的集中表达,所以维护社会公共利益正是对平等的自由这一契约行为的灵魂守护。而要维护公益不能没有国家强权, 不能没有法治,法治“不是一种关注法律是什么的规则(a rule of the law), 而是一种关注法律应当是什么的规则,亦即一种‘元法律规则’ (a meta-legal doctrine) 或一种政治理想”。 所以,法治既规范公民的行为,更规范政府的行为,法治内生着民主自治的社会伦理要求, 同时法治也是善治的基本要求, 没有健全的法治,就没有善治。
透明性原则
这里主要是指政治信息的公开性,即政府在决策过程中应该公开、公正。 因为在现代法治社会中, 每一个公民都有权获得与自己的利益相关的政府政策信息,包括立法活动、政策制定、法律条款、政策实施、行政预算、公共开支及其他有关的政治信息。透明性原则要求上述政治信息能够及时通过各种大众媒体为公民所知,以便使公民能有效地参与公共决策过程,并且对公共管理过程实行有效监督。 透明性标示着一个社会的民主化程度, 也反映了市民社会的成熟程度,因为在市民社会中,每个成员都不是在被胁迫或强迫的情况下,而是根据自己的意愿或自我判断参与或加入某个社会群体或集团的事务或决策。政府以高度尊重个人的选择自由为前提, 而个人又以对政府高度信任和负责的态度参与决策,这种双向的透明其重要意义在于,一方面可以使政府养成对人民负责的态度,另一方面可以使公民养成自我管理的习惯。一个社会的透明度越高, 善治程度也越高。
有效性原则
这里是指管理的有效性。 它包括两方面的含义: 一是指管理机构设置合理,管理程序科学,管理活动灵活;二是最大限度地降低管理成本,人类管理根源于“ 自然资源普遍稀少和敌对的自然环境” 与人类需求的矛盾。由于资源是稀缺的,不可能无限制地满足人的需要,由此而形成管理组织, 行使管理职能,以便有效地获得、分配和利用自然资源来实现某个目标。 因此, 追求有效性必然成为社会管理最基本的内在规定, 有效性也是衡量社会治理水平的重要标准。 善治与无效或低效的管理活动是格格不入的, 管理的有效性越高, 善治程度也越高。这同时也说明,一个无效或低效的政府, 一定是一个缺德的政府。
基于国家治理与现代伦理的内在关联, 我们从政治伦理、经济伦理、文化伦理、社会伦理、生态伦理、网络伦理六个方面组织了这套研究丛书, 这绝非一种任务式的科研使然, 而是我们湖湘伦理学人对国家治理体系和治理能力现代化这一国家重大战略的理论自觉和伦理表达。
丛书介绍
“国家治理与现代伦理丛书”紧扣国家治理的主要方面和重大伦理需求,全景呈现了国家治理的伦理图式。丛书包括《国家治理与政治伦理》《国家治理与经济伦理》《国家治理与文化伦理》《国家治理与生态伦理》《国家治理与社会伦理》《国家治理与网络伦理》6册,立足于国家治理体系和治理能力现代化这一当代中国的宏大主题,深入分析国家治理从传统向现代的转型,以及在转型中遇到的主要政治伦理、经济伦理、文化伦理、生态伦理、社会伦理与网络伦理问题,发挥蕴含于国家治理中的基本伦理关系、主流价值诉求及其善恶研判标准的伦理秩序功能,建构一种与社会主义市场经济、法治国家和民族精神的发展相适应的、满足人民幸福生活需要的社会伦理秩序。
李建华,哲学博士,教育部“长江学者”特聘教授(2009年),国务院学位委员会第七届学科(哲学)评议组员,浙江师范大学特聘教授,中南大学博士生导师,从事伦理学专业教学与研究三十多年,著述丰富,目前兼任中国伦理学会副会长、湖南省伦理学会会长、中国伦理学会青年工作者委员会名誉主任、民间智库——“湖湘伦理学研究院”发起人之一。
链接:https://mp.weixin.qq.com/s/fDIeHZ9N5MPog2mr3W4tVw
编辑:陈心茹


作者: admin    时间: 2019-2-1 22:19
【案例】
人工智能及其社会化应用的现状和未来——《全球传媒学刊》就社会化智能信息服务专访孙茂松教授
原创: 孙茂松,金兼斌  全球传媒学刊  1月8日

作 者
孙茂松:清华大学计算机科学与技术系教授
金兼斌:清华大学新闻与传播学院教授

摘要
    人工智能技术在快速向前推进的同时也给社会结构与日常生活带来巨大影响,激发起关乎人类生存、社会秩序、价值存续、科技伦理等议题的讨论。人工智能带来的深层次社会影响需要予以审慎思考。作为我国人工智能领域的专家,孙茂松教授如何看待跨学科领域合作对人工智能研究的价值?如何解读现阶段人工智能水准与适用边界条件?人工智能技术在内容生产、信息分配、系统建构等领域的应用是否会给社会结构形态、文化景观带来深层效应?兴趣驱动下的人工智能产品研发有何意义?本访谈通过与孙茂松教授的对话,对以上问题予以较为详细的阐释。
关键词
人工智能;中文自然语言处理;适用性质;内容产消;自动诗歌创作
近年来,随着智能算法推荐在购物、内容生产、消费、社交乃至自动驾驶、智能家居等领域应用的深入,人们已经切实感受到人工智能对我们日常生活所带来的巨大影响。现实生活已经高度数据化:一方面,日常生活本身日益依赖于信息传播系统作为中介来组织和展开;另一方面,我们的日常生活又在不知不觉中以数字印记的方式被社会的多层次立体化监测系统进行着准全息式的记录。近年来,大数据和计算能力成为人工智能快速发展的双重引擎,社会化智能信息服务水平的提升,正在给社会的整体形态、行业结构、组织管理方式、权力分配带来深远的影响。在某种意义上,人工智能正在深刻影响社会运作所依赖的基本要素之内涵及其相对重要性,行业、工种、职业以及包括工作和休闲之间的界限在内的各种边界,都面临重新划分或洗牌的可能。以信息内容生产和传播为安身立命之本的新闻传播业,从行业整体结构到依附于其中的个体的命运,近年来所经历的那种不以个人意志为转移的演变和变迁,充其量只是这波正在浩浩荡荡推进的技术与社会双向形塑过程中的一个折射而已。

果如是乎?

“不识庐山真面目,只缘身在此山中。”环顾现实,放眼未来,也许现在我们除了对“人工智终将给我们带来什么”进行展望外,也应该对我们当下所处的阶段有清醒的认知。

2018年最后一期《全球传媒学刊》正是在这样的背景下,选择“人工智能与社会”作为其专题。配合这期专题研究,《全球传媒学刊》执行主编金兼斌教授代表学刊,就社会化智能信息服务的现状和未来,书面访谈了我国人工智能领域的著名专家、清华大学计算机科学与技术系孙茂松教授。

访谈嘉宾简介
孙茂松  
清华大学计算机科学与技术系教授,清华大学人工智能研究院常务副院长,清华大学计算机科学与技术学位评定分委员会主席。2007—2018年任计算机科学与技术系系主任、党委书记。主要研究领域为自然语言处理、互联网智能、机器学习、社会计算和计算教育学。国家重点基础研究发展计划(973计划)项目首席科学家,国家社会科学基金重大项目首席专家。在国际刊物、国际会议、国内核心刊物上发表论文200余篇,Google Scholar论文引用数6800余次。

问:金兼斌教授
答:孙茂松教授

问:您是计算机科学家、计算语言学博士,您所领导的实验室名为“自然语言处理与社会人文计算实验室”,您还成功申请到全国哲学社会科学基金重大项目“基于大规模社交媒体的汉语模因传播机理量化研究”。可以说,跨学科是您身上特别明显的气质和特色,您的学生、如今已然成长为国内自然语言处理领域引人注目的新秀的刘知远老师曾评价您是“计算机学者中少有的有着深厚文化底蕴的老师”。我在您的微信朋友圈中,也不时能看到您以古体诗的方式对学术人生进行抒怀和评论,文采斐然。您如何看待您作为计算机科学家身上的这种人文符号和气质?这种人文底蕴是如何影响您在专业领域的研究的?就人工智能研究下一阶段的突破而言,基于不同学科的科学家间的合作,以及兼具人文社科和信息科学乃至生命科学知识背景学者的跨界合作,是否注定将扮演越来越重要的角色?

答:对于“计算机学者中少有的有着深厚文化底蕴的老师”之类的说法,实不敢当。其实,我对文化或者人文的了解只是停留在感兴趣的阶段,远谈不上有什么深度。计算机科学的发展日新月异,新思想、新算法、新技术层出不穷,需要时刻通过学习来不断更新自己,同时研究任务也很繁重,每天应付这些,已然精疲力竭。最近若干年,我用于阅读人文图书的“常规时段”通常有两个:一是如厕时;二是上床睡觉前。还有一个就是坐飞机时坚持不看专业图书,而是浏览一些报纸杂志之类。我的主要精力都集中于计算机主业上,对人文知识的学习与跟进仅此而已。

从根本上说,计算机科学同数学之间的关系最为密切,计算机科学的大师级人物多是数学出身,数学造诣都很精深。计算机科学与人文科学在学理上并没有太直接的关系(当然也不能一概而论,如世界级语言学大师乔姆斯基提出“乔姆斯基形式文法体系”以及与上下文无关文法相关的“乔姆斯基范式”,就对计算机科学产生了深远影响)。从这个角度来看,“人文底蕴”对计算机科学整体上貌似帮助不大。

随着人工智能的蓬勃发展,上述情形正在发生一些变化。变化主要反映在两个层次上,一个是人工智能原创理论层次,需要具有顶级数学功底的计算机科学家同神经和认知顶级科学家通力合作,以期对计算机科学领域产生变革性的影响;另一个是人工智能应用层次,也就是所谓的“人工智能+X”,需要计算机领域的优秀学者同其他学科领域的优秀学者通力合作,以期对其他学科领域产生变革性的影响。这两种跨界合作将注定扮演越来越重要的角色。

我从小就对人文,尤其是中国古代文化和历史感兴趣。这一点对我在三十年前选择自然语言处理这个专业方向上确实发挥了至关重要的作用,也是我这些年来比较喜欢从事与人文乃至社会科学大跨度交叉研究的源泉所在。

问:您担任首席科学家的973项目“面向三元空间的互联网中文信息处理理论与方法”中,把人类认知空间、网络空间和现实世界空间一起统称为“三元空间”,这背后的逻辑是什么?这个雄心勃勃的973项目希望在融合“三元空间”的海量知识获取与组织、大规模中文深度分析与内容理解方面有所突破,目前取得了哪些重要进展?这些进展对于我国在中文信息处理领域的发展及社会化智能信息服务的提升方面有什么重要意义?

答:实际上,“三元空间”是973指南里的要求,对其内涵存在着若干种解读可能性。我在申请项目时,针对语言信息处理的特点,把“三元空间”定义为网络空间、现实世界和人类认知。以人类语言为纽带,把如上定义的“三元空间”联系到一起,其背后的逻辑是不言而喻的。

经过5年的不懈努力,这个项目取得了显著进展,完全实现了预期目标。简而言之,其标志性成果有三:一是提出了融合大规模知识的中文语义表示学习方法体系,努力将中文各个语言层次,即字、词、词义、语、句等形式化地表示在一个统一的计算框架中;二是提出了语义驱动的中文语义依存分析算法,将中文在这方面的自动分析能力提升到了与英文相当的水平;三是建立了世界上规模最大的中文语言知识资源和中文知识图谱。这些进展对于我国在中文信息处理研究领域的发展以及社会化智能信息服务的提升方面,起到了积极的推动作用。

问:《未来简史》的作者尤瓦尔·赫拉利(Yuval Noah Harari)认为,工业时代普通民众因为担纲社会的主要劳动力和战时兵力,“无论哪种政体的国家,都极为重视国民的健康、教育和福利,因为它们需要几百万健康的劳动者在生产线工作,需要几百万忠诚的士兵在战壕里作战”,因此,20世纪有一大部分时间是在缩小阶级、种族和性别之间的不平等。但人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量。同时,生物技术的进步则可能将经济上的不平等转化为生物体上的不平等,即富人和知识精英具有更多机会强化自己的生物机能乃至脑力和智慧,马太效应成为一种社会自然演变之后的主导机制。他由此预言,21世纪的人类社会可能会是人类历史上最不平等的社会,人类整体出现生物种姓并非不可能。您如何看待人工智能和生物技术发展对人类社会结构形态带来的长远影响?

答:对上述观点,如“人工智能的兴起可能会让大多数人不再拥有经济价值和政治力量”,“21世纪的人类社会可能会是人类历史上最不平等的社会”等,我完全没有研究,很难做出评论。我个人认为,互联网时代具有双重性,双面重要作用都不容小觑:一是使得世界日益成为平的;二是马太效应确实在不断增强,这又使得差异日益扩大。我们有必要对这一深刻的矛盾予以足够关切。

总体来看,人工智能技术还处于初级发展阶段。目前这一代人工智能技术是以借重于大数据的深度学习算法为核心的,在围棋、图像识别、语音识别、机器翻译等人工智能经典任务上确实表现出了异乎以往的能力,催生了如雨后春笋般勃兴的人工智能创新企业,但是,其适用范围实际上存在着严重局限。它的现有能力被大大高估了,领域内的专家反倒比较谨慎。那么,人工智能对人类社会结构形态会带来怎样的变化呢?由于目前这一代人工智能技术的“本事”还十分有限,所以其短期影响虽然十分明显,会给人以“横扫千军如卷席”之感,但总体上看其影响应该还是局部性的,而不是全局性的。至于其长远影响,现在还说不准,取决于人工智能理论和方法是否有新的实质性突破。这种突破的可能性,现在看来尚属可望而不可及。

问:自动驾驶一度成为近年来令人瞩目的热点,不少公众对之充满期待。鉴于驾驶任务本身对行动者和环境互动的极高要求,自动驾驶一直被看作是衡量人工智能发展水平的重要标尺之一。国内外尖端技术公司如百度和Google都在大力研发自动驾驶。不少公司甚至把2019年作为全自动驾驶汽车投入运营的关键年。但最近,自动驾驶领头羊Waymo掌门人John Krafcik承认,自动驾驶汽车在路上普及还要几十年;苹果联合创始人Steve Wozniak也认为,自动驾驶汽车不可能在不久的将来实现。这其中的一个原因是,自动驾驶的场景太多元太复杂,算法达不到要求,即自动驾驶技术还没有达到在任何天气和任何条件下都能驾驶的最高等级L5。您如何看待诸如自动驾驶这样将深刻影响人们生活方式的智能技术和产品的发展前景?在自动驾驶情景下,我们将根据什么原则来认定可能发生的交通事故的责任主体?

答:近年来,我在几个公开学术报告中都提及过,完全意义的自动驾驶无法在不远的将来实现。根本原因在于当前这一代人工智能技术的“本事”还十分有限。正如清华大学人工智能研究院院长张钹院士很早前敏锐指出的那样:它(人工智能)能做得比人好的任务场景,必须满足一些重要的性质(为了下文表述方便,不妨称之为“目前人工智能技术的若干适用性质”),如:任务的边界是确定的;任务的解空间是有限的、可预期的(即使空间无比巨大);执行任务的规则是明确的;任务执行过程中的信息是完全的;对任务结果的最终得失评估也是可精确量化的。其中任意一条不满足,现有的人工智能技术就会遭遇很大的困扰。充足的大数据可以在相当程度上克服这些困扰,但其性能会大打折扣,通常不可能做得比人好(但在某些应用场景下,做得比人的平均水平好并不困难)。围棋满足上述所有性质,所以人工智能的性能超越了人类棋手。自动驾驶基本上都不满足上述性质,并且属于所谓的“生死攸关”任务,几乎不容许犯任何错误(人类对机器性能的可靠性要求往往比对人的要求更为严苛),这是当前人工智能技术的“阿喀琉斯之踵”,所以我才有如上判断。当然这并不否定自动驾驶在特定受限场景中仍然会有广泛应用的前景。

需要特别强调的一点是,作为人工智能的基本前沿课题之一,对自动驾驶的基础性研究需要进一步强化和深化。什么时候才可能有完全意义的自动驾驶?还是前面那句话,取决于人工智能理论和方法是否有新的实质性突破。对自动驾驶各种关键问题的深入探索将成为下一代人工智能理论和方法发展的一个重要推动力和试金石。

问:关于智能内容生产。在新闻传播领域,人工智能的发展正在深刻改变这个以生产新闻和各种内容为主的行业的生态。在诸如气象、环保、体育、财经等领域的报道中,机器新闻写作,至少是机器辅助写作(robot-aided writing),已然在世界各大通讯社的新闻生产和各种商业机构的公关写作中得以试水和推行。在刚刚结束的乌镇世界互联网大会上,毕业自贵系的搜狗公司CEO王小川与新华社副社长刘思扬联合携“一位”人工智能合成主播惊艳亮相,引发广泛关注。您如何看待人工智能对写作、创作、表演这些传统意义上人类所独有行为和能力所带来的影响?如何看待人工智能将对创意产业和内容生产行业可能带来的深远影响?一个国家的社会文化景观将因此发生怎样的变化?

答:受囿于我前面所说的当前人工智能技术的局限性(“目前人工智能技术的若干适用性质”),人工智能在新闻传播领域的应用范围和程度一定是局部的、有限的,不会导致全局性质变。机器自动新闻写作只是在由数据表格生成文本这个受限任务中取得了不错的效果。但要像高水平的记者一样写出有深度的新闻及评介,在可预见的将来,机器还做不到(借助机器辅助写作是另外一回事)。人工智能播音这一任务比自动写作简单得多,但要超越人类顶尖主播,也不太可能。

不过,人工智能辅助写作、创作、表演,辅助创意产业和内容生产,以一种人机协同的方式大幅提高工作效率和质量,是完全具备现实性的,会给相关行业(尤其是中低端行业)带来广泛影响。

问:关于算法与用户内容消费。近年来,借助于大数据和云计算的不断改进升级,各种内容算法推荐——主要是基于用户过往消费行为和基于用户社交关系网中其他人的消费偏好进行的内容和商品推荐——席卷各种内容、购物和社交平台。基于用户行为、场景特点、社交圈结构的算法推荐一方面因其精准传播(precision messaging),实现对用户需求和偏好的深刻洞察而备受平台、商家和用户青睐,但另一方面,算法推荐所导致的“茧房”(information cocoons)效应,又容易让人们耽于既有审美、关注点、品位乃至视野之囿而不自知,不仅心智成长和审美拓展会受到影响,更容易造成同辈抱团、对他群声音充耳不闻的“回音壁效应”(echo chamber effect),甚至会加剧社会民众的阶层分化并导致社会撕裂。作为一名人工智能领域前沿专家,您认为智能算法推荐是否会对普通民众信息、内容消费方式带来深层次、结构性影响?这种影响主要表现在哪些方面?

答:内容算法推荐并不完全满足“目前人工智能技术的若干适用性质”,但由于此类平台天然拥有大数据(特别是用户行为数据),也不属于“生死攸关”的任务,所以比较适合人工智能,能够实现用户还算满意的个性化推荐效果,这一点不足为奇(何况人去做这件事也不是很有理据的,带有很强的主观性);通过进一步改进算法增加推荐的多样性,有效应对“茧房效应”和“回音壁效应”,也是可以预期的。

人们对智能算法推荐表现出足够关切是完全必要的,也是完全可以理解的。例如,平台出于自身利益的考量,算法推荐可能会出现广泛性偏误,或者过度推荐。所发生的这些现象,有些是目前智能推荐算法一时难以克服的深刻困难(涉及语义理解这一难点)所致,有些则是可能是有意为之。


问:让我们来展望一下社会计算的极限问题。您是否同意这样的看法,即人工智能的上限本质上取决于社会计算的计算能力?无论是情感还是价值判断,无论是艺术创意还是审美趣味,无论是解释还是推理,一切人之为人的特质,是否最终都能够被“计算能力”一一解析并复盘?在前不久的一次采访中,您提到目前人工智能总体上依旧处于无理解的人工智能阶段,下一个挑战是有理解能力的人工智能,要想实现“有理解力”还很难。在无理解的人工智能和有理解的人工智能之间,在计算的此岸和生命的彼岸之间,注定是深不见底无可逾越的鸿沟——如0和1之间的差别——还是其实最终有什么桥梁可以跨越和架接,也即借助于不断累积的计算能力和模型改进,以及实时数据采集反馈系统的改进,在物质和意识之间终究可以曲径通幽,加以打通?

答:我第一次听到“人工智能的上限本质上取决于社会计算的计算能力”这个表述,不很清楚其含义,难以评论。是的,现在看到的人工智能所取得的成功,大都属于无理解的人工智能。此类算法本质上都是针对某一特定任务,从相关大数据中学习一个高度复杂的非线性函数,而这个函数可以看作是一个“黑箱”,缺乏可解释性。接下来的重大挑战是解决有理解的人工智能问题,让机器具有同人一样的感知和认知能力、推理能力、判断和决策能力。无理解的人工智能和有理解的人工智能两者之间存在本质上的深刻差异,因而跨越起来极其困难。再强大的计算能力也解决不了这个问题,反之,我们需要人工智能算法在思想和理论上的深刻创新,其中的关键桥梁之一就是人类语言理解。语言是人类区别于动物的唯一标志。机器对语言不能理解,很难说有比较高级的智能。而语言理解的边界是完全开放的,所以非常具有挑战性。机器要在物质和意识、思维之间自由地腾挪辗转,必须首先打通语言理解这一关,否则根本谈不上“曲径通幽”。

问:预言了地球村的媒介学者马歇尔·麦克卢汉(Marshall McLuhan)曾经形象地把媒介称为“人的延伸”。事实上,随着生物技术特别是脑科学领域的研究突破,从智能芯片的人体植入到未来人机不同比例的混搭,麦克卢汉所谓的“媒介是人的延伸”的论述将很有可能从比喻演变为现实。您如何看待人工智能技术对人体先赋能力的后天补强?这种嫁接了人工智能的“超自然”人类改良技术的出现和应用,会带来怎样的社会和伦理后果?就像爱因斯坦作为质能方程的提出者为原子核聚变反应奠定理论基础,却为核武器的出现而感到惴惴不安一样,您觉得如今人工智能领域的科学突破,是否也应该对技术的社会伦理后果有更多的自觉?

答:我基本赞成“媒介是人的延伸”这个说法。其实飞机、轮船等就是人的体力延伸,人工智能则是人的智力延伸,两者的目的都是为了帮助人,也就是你在提问中所说的对人体先赋能力不足的后天补强。单纯使用目前的人工智能技术应该还不致带来严重的社会和伦理后果,不必过于不安——那将是下一代人工智能必须关切的,且无法回避的问题。然而,人机混搭的智能正在日益朝现实迈进,在发展过程中无疑会产生以前没有遇到过的社会和伦理问题,必须加强相关研究,特别是对什么是禁区要做到心中有数,进而达到趋利避害。

问:基特勒(Fredirch Kittler)认为,数字媒介的硬件和软件都具有隐蔽性。在软件的遮蔽下,用户看不到自己受到了硬件的限制;而软件虽然使得用户可以与计算机进行互动交流,但用户却常常感觉不到其背后的结构和逻辑乃至所内嵌的价值观偏向对自己行为和世界观造成的潜移默化的规制、影响和形塑。这也正是劳伦斯·莱斯格(Lawrence Lessig)在其著名的《代码》(Code)一书中所表达的担忧。您如何看待代码所构建的“系统”——这双“看不见的手”对用户和民众的控制能力乃至权力主导?更有甚者,当基于代码的系统具备了深度学习的能力,结合海量的动态语料和分布式计算的迭代升级,我们现在衣食住行日益依赖的不少系统,是否最终会成为具有一定自在性和自主性的行为和责任主体,或至少是和平台拥有方、开发者并置的责任主体?

答:实际上,现代社会经济生活中存在着形形色色的“看不见的手”,我们或多或少地受到其操纵而不能自拔。代码所构建的“系统”借重于算法和大数据的强大力量也具有这一特点,这本身没有什么可奇怪的。需要关切的是,我们应对此类控制力乃至权力主导保持足够的警惕,不能在无意识中一味地被“系统”背后的小团体利益所裹挟。

问:最后还是回到您和您团队的研究,来聊聊“诗和远方”。您的实验室开发机器诗人“九歌”,与您平时爱吟诗作词不无关联吧?2017年,“九歌”亮相央视《机智过人》节目,按照比赛规则接受图灵测试,九歌以一首“机心造化本无私,智略工夫巧笑时。过客不须频眺处,人间天上有新诗”顺利通过图灵测试,展现了很高程度的“智能”水平?您怎么看待和评价九歌真实的智能水平?您曾经说过“计算机作诗在科学研究上很有意义”,为什么?


答:必须澄清一点:以一首诗的结果,绝对不能说“九歌”
(https://jiuge.thunlp.cn)通过了图灵测试。必须通过大量的实际测试,才敢在古诗创作是否通过图灵测试这一点上给出结论,现在还远不敢说。我感觉,当下“九歌”的真实智能水平只能达到古诗爱好者人群(包括诗人)内的中上水平。自动作诗这个任务在好几项上都不满足“目前人工智能技术的若干适用性质”(例如,对自动作诗结果优劣的评价见仁见智,并不存在绝对标准),因此是非常困难的问题,其本质上不可能超越顶尖诗人。正因为其困难,所以与之相关的研究对探索下一代人工智能很有意义。

我领导的实验室研发机器诗人“九歌”,与我以及主创人员之一,也是我的学生矣晓沅喜欢古典诗词不无关联。我们的初心是探索人工智能在自由式文本生成这一类问题(而不是由数据表格生成新闻文本的那类问题)上的算法解决方案。同围棋类似,古典诗歌的开拓空间也是非常广袤的,古人只是创作出了其中微乎其微的一小部分,绝大部分空间还有待于我们去发现。怎样去发现呢?我们希望利用人工智能算法,基于已知的古人诗歌创作对浩瀚的未知空间进行合理的推衍,期待能达到的效果是利用机器把古人尚未来得及写出的诗“挖掘”出来,大底上就是陆游所说的“文章本天成,妙手偶得之”的意思。此外,古诗创作带有强烈的传统文化色彩,容易引起公众的关注,进而会给予我们的研究以某种无形压力,鞭策我们不断地改进算法、提升性能。这也是我们选择以这个问题作为算法攻关任务的原因之一。当然,自动作诗只是我领导的实验室中众多人工智能研究方向的一支。


原文刊载于《全球传媒学刊》2018年第4期。

链接:https://mp.weixin.qq.com/s/ETQyrRS5ffBgNV2pEO3B2Q

编辑:陈心茹


作者: admin    时间: 2019-2-1 22:23
【案例】
中国传媒大学新闻学院教授沈浩等——人工智能与智能媒体
原创: 沈 浩 杨莹莹  新闻战线  2019-02-01

人工智能有望改变媒体,重塑媒体的整个流程。未来,人工智能将融入到媒体运作的各个环节,但在媒体行业的落地,需要更复杂、更全面的架构。当下,应基于媒体行业自身的数据构建具有针对性的人工智能系统,提升媒体与人工智能结合的成熟度。

人工智能与智能媒体
沈  浩  杨莹莹

1

人工智能+媒体:应用场景多元

高级文本分析技术。自然语言处理(NLP)可以分析语言模式,从文本中提取出表达意义,其终极目标是使计算机能像人类一样“理解”语言。基于内容理解和NLP的写作机器人为记者赋能,可以模拟人的智能和认知行为,实现机器的“创造力”,经过对大量数据的分析和学习,形成“创作”的模板,用人机结合的方式来强化记者的写作能力。
图像和视频识别技术。基于深度学习进行大规模数据训练,实现对图片、视频中物体的类别、位置等信息的识别。图像主体检测可以识别图像的场景、图像中主体的位置、物体的标签等。人工智能视频技术则能够提供视频内容分析的能力,对于视频中的物体和场景进行识别并能够输出结构化标签。图像和视频技术在媒体中应用十分广泛,如内容分析、质量检测、内容提取、内容审核等方面。
语音技术。人工智能语音技术主要包括语音识别和语音合成,它是一种“感知”的智能。自动语音识别(ASR/AVR)是基于训练的自动语音识别系统,将物理概念上的音频信息转换为机器可以识别并进行处理的目标信息,如文本。语音合成技术是通过深度学习框架进行数据训练,从而使得机器能够仿真发声。随着语音转换技术的日渐成熟,“语音-文本”双向转换技术在媒体中的应用成为可能。例如将语音识别技术在采编环节中使用,生成文本稿件并进行二次编辑。

人脸与人体识别技术。目前,人脸识别技术的主要应用包括人脸检测与属性分析、人脸对比、人脸搜索、活体检测、视频流人脸采集等方面。谷歌、苹果、Facebook、亚马逊和微软等互联网巨头争相在这一领域的技术和应用方面抢夺先机,纷纷推出相关的技术应用并不断突破创新。2018年5月的媒体报道称,亚马逊积极推广名为Rekognition的人脸识别服务,该解决方案可以在单个图像中识别多达100个人,并且可以对包含数千万个面部的数据库执行面部匹配。
个性化推荐技术。发现目标群体并把内容传播给该群体是能否达成媒体传播效果的关键一环,而个性化推荐技术解决了这一难题。这是目前在媒体中应用较为成功的人工智能技术,在媒体的内容分发过程中,个性化推荐技术为用户提供个性化体验,针对每个特定用户量身定制推荐内容,减少搜索相关内容所花费的时间。与此同时,对于人们所担忧的,由于算法主导的精准分发过程只推荐感兴趣的内容,会导致用户陷于信息茧房的问题,研究人员目前也在试图改进算法,开发“戳破气泡”的应用技术。例如BuzzFeed推出的“Outside Your Bubble”、瑞士报纸NZZ开发的“the Companion”程序、Google的“Escape Your Bubble”等。
预测技术。现在已经开发出来的一些强大的基于人工智能的预测技术,让我们可以“预知未来”。通过时间序列(TS)建模来处理基于时间的数据,以获得时间数据中的隐含信息并作出判断。按照一定时间间隔点来收集数据,再对这些数据点的集合进行分析以确定长期趋势,以便预测未来或进行相应的分析。例如,可以使用时间序列数据来分析某一家媒体下一年的用户数量、网站流量、影响力排名等,从而在广告投放方面作出合理决策。另外,如何及时地抓住社会热点是新闻机构所面临的重要问题,人工智能预测技术通过对海量的热点内容的模型进行训练和分析,建立热点模型,可以实现对于热点趋势的预测。

2

媒体需要思考的问题

人们越来越清晰地看到人工智能给媒体带来的意义与价值。在融合的时代背景下,媒体迫切需要人工智能带来推动媒体变革的潜力。与此同时,我们也不能认为人工智能可以解决媒体变革中的一切问题,技术并不是一块现成的、可以直接拿来享用的蛋糕,在媒体应用人工智能时,还需要着手考虑许多问题。
数据的完备性。媒介体系内部和外部都会产生大量的数据碎片,虽然目前数据量庞大,看似拥有海量的数据资源,但是生产的数据与可以用于人工智能的培训数据之间的匹配度还有待提升。在深度学习算法中,需要用大量的数据训练算法才能产生有意义的结果,数据的不完整性会导致准确性的下降,而准备这样的数据集的成本很高。为了实现大量的用户行为数据的积累,提高数据的完善程度,媒体需要构建大规模的数据体系和战略。为了实现人工智能在媒体中的进一步部署,媒体需要具备完备的数据源和处理更为庞大的数据系统的能力。
深度融合的方式。目前,人工智能技术还停留在初步应用层面,其深度还需要挖掘、广度还需要扩展,融合的方式也需要深入地进行探索。人工智能在媒体领域的大部分应用只是将现有的研究成果迁移到媒体行业,如果媒体想要更深入地参与到人工智能潮流中,就要积极地投入到算法的开发中,在人工智能领域中开辟出自己的空间,如此,才能使人工智能在媒体行业应用更加成熟。

数据安全与隐私。当人工智能应用飞速发展,人们很容易忽略在人工智能应用中的安全问题。2018年Facebook的数据泄漏事件折射出的数据安全漏洞引起社会关注,再一次提醒我们要严肃对待数据安全及隐私等问题。用户在媒介接触的过程中,用户数据和个人资料越来越多地交付给媒体,媒体在使用这些数据为用户提供更好服务的同时,需要权衡智能化用户体验和用户数据安全之间的关系。坚守媒体的价值观和底线,保障数据安全,尊重用户隐私十分重要,媒体应思考在保护用户数据方面是否存在漏洞以及如何落实相应的人工智能安全策略。
人才培养。媒体领域对于人工智能人才的需求量还很大。要走出人才窘境,一方面要完善人才引进和培养规划,提升媒体从业人员的大数据和人工智能技能和素养,补齐人才短板。特别是要引进掌握坚实的传播理论基础,既懂媒体传播规律又懂大数据、人工智能的复合型人才,逐步形成与智能化媒体业务形态相适应的人才布局。另一方面要优化原有人才结构。当智能机器人取代部分人力成为可能,智媒时代的媒体人要在行业的巨变之中找准自己的定位,提升自己的知识技能。无处不在的“共享”和“开源”的知识使我们学习和了解人工智能行业前沿技术,例如Google发布的机器学习工具AutoML,用户无需掌握深度学习或人工智能知识即可轻松培训高性能深度网络来处理数据。媒体和媒体人要拥抱媒体智能化的时代,破除对于新技术的“恐慌”,加快知识体系更新,使专业素养和工作能力跟上智能时代的节拍。

3

智能媒体:未来无限可能

虽然智能机器距离接近人类学习、思考和解决问题的能力还很遥远,但是机器取代人力是大趋势。人工智能将不断地从媒体生产链条向内容创建生产环节突破,从而帮助媒体进行内容升级和用户体验升级。
信息收集整理。内容生产是未来人工智能在媒体行业实现新突破的重要方面,虽然人工智能目前不能超越人类的创造力,但可以承担起一部分信息收集、数据整理和内容创作的工作,将媒体人从一些重复性的繁冗工作中解放出来,从而节省出时间用于创作和创造性工作。媒体也应积极探索新的与人工智能结合的工作方式,使得工作更高效智能。
更好的用户体验。通过学习用户行为,了解受众偏好从而使用户获取到感兴趣的内容,并根据用户画像定制个性化的内容。运用人工智能技术捕获处理数据,精准理解用户需求,可帮助媒体实现更加精细化的用户划分和用户分析,提供更加人性化的服务。人机交互使得用户体验更加立体化和场景化。
重塑媒体流程。预计未来人工智能将融入到媒体运作的各个环节。但无论是人工智能本身还是其在传媒领域的应用,距离成熟都还有很长的路要走。人工智能在媒体行业的落地,需要更复杂、更全面的架构。构建以大数据和人工智能为核心的技术生态体系,基于媒体行业自身的数据构建具有针对性的人工智能系统,提升媒体与人工智能结合的成熟度。目前人工智能技术在媒体行业的应用并不完善,但并不阻碍我们对于其发展前景的期待。
如何充分地发掘人工智能的潜力是媒体和媒体人面临的大命题,我们应思考人工智能如何更好地与媒介进行结合,尝试在融合发展面临的问题中加入人工智能解决方案。机器与人的共生将成为媒体常态,我们期待人工智能为媒体带来更好的未来,在技术的助力下走向真正的智媒时代。
(作者沈浩系中国传媒大学新闻学院教授、博士生导师;杨莹莹系该院新闻与传播专业媒介市场调查方向硕士生)
责任编辑:武艳珍

链接:https://mp.weixin.qq.com/s/fHRWm_x6phon_JYlwpRLAA

编辑:陈心茹


作者: admin    时间: 2019-2-1 23:06
【案例】
智能算法推荐:工具理性与价值适切——从技术逻辑的人文反思到价值适切的优化之道
原创: 喻国明,耿晓梦  全球传媒学刊  2019-02-01

作  者
喻国明:教育部长江学者特聘教授、北京师范大学新闻传播学院执行院长、中国人民大学新闻与社会发展研究中心主任。
耿晓梦:中国人民大学新闻学院博士研究生。

摘  要
智能算法型内容分发是应对内容超载危机、实现内容市场供需适配的必然选择。本文从工具理性和价值适切双重角度对智能算法推荐进行了认识论上的阐释,作为面对新时代格局的资源配置新范式,智能算法推荐依循“海量内容—用户需求—多维场景”适配的基础逻辑。其与社会、人文价值的适配则需要针对不同的内容需求市场进行具体讨论,这些适配过程既需要硬性管制力量的介入,又需要充分发挥平台自律、用户自觉等软性力量。最后,根据智能技术发展的现实境况与可能前景,研究者提出了应对技术伦理风险的若干策略。

关键词:算法;智能推荐;内容需求市场;技术逻辑;技术伦理


随着计算设备运算能力的不断提升、深度学习系统的突飞猛进,人工智能技术取得了令人惊叹的发展,并开始进入人们的日常生活,改变着人们的决策方式、行为模式,进一步触及商业模式和社会秩序生成机制,给人类社会带来全方位的深刻变革,智能时代已经来临。

人工智能从某种意义上讲是一种能够学习、判断和决策的算法。算法(algorithm)可以定义为为解决特定问题或实现预先定义结果而采取的一系列步骤。就传播领域而言,智能时代一个最引人注目的发展就是,算法正被运用于信息生产、分发、反馈等环节,成为信息传播的底层支持。物联网传感等技术拓展了信息来源,机器人写作、图像视频智能加工等技术的应用令信息处理更加精准高效,基于语义分析、语音处理的“语聊机器人”让自动回应评论成为可能。相较而言,在目前的技术采纳实践中,信息分发是算法深度卷入的领域——基于智能算法之上的、进行“信息—用户”匹配的算法型分发被广泛采用。这一现象从客观上说是必然的,因为针对互联网语境下每日生成的数以亿计的内容(包括UGC, user generated content; PGC, professionally-generated content; OGC, occupationally-generated content)而言,如果仅仅依循传统的人为把关模式,显然无法处理其万分之一。因此,借助于智能化的算法分发,才有可能使信息处理能力与互联网时代所释放出的传播生产力相匹配。于是,算法型分发成为社会信息分发的主流形态。内容分发的社会性把控从来都是一种重要的政治权力,智能型算法分发在目前处于主流地位意味着一种巨大而深刻的权力转型。由此诞生出两个重要问题,算法的运作逻辑是如何生成的?它的技术逻辑如何与社会发展主流逻辑相适配?思考这两个问题对于我们理解和把握当下传播领域正在发生的深刻变革,以及确立未来发展中的着力点至关重要。


智能算法接管人工信息分发背后的工具理性
迄今为止,人类信息分发模式可大致概括为三类:倚重人工编辑的媒体型分发、依托社交链传播的关系型分发、基于智能算法对信息和人进行匹配的算法型分发(喻国明、韩婷, 2018)。随着技术的不断进步,智能算法分发不断“收编”人工编辑分发和社交关系分发,并成为信息分发的主要途径,这一变革实际上是一种必然。

在中国,自2012年今日头条开启算法分发的尝试之后,越来越多的平台加入算法潮流。早在2016年,根据第38次《中国互联网发展状况统计报告》和第三方监测机构易观发布的《中国移动资讯信息分发市场专题研究报告》,算法分发正逐渐成为线上新闻的主要分发方式,在国内资讯信息分发市场上,算法推送的内容已超过50%(方师师, 2018)。此外,算法分发的绝非仅是资讯信息,从淘宝、京东到携程,从网易云音乐到快手、抖音,各种信息聚合平台均在使用算法模型进行各式各样的智能推荐。

(一)智能算法分发的根本动因:应对“超载”危机,实现供需适配
过去60年来,人类社会的数据增长是爆炸式的。伴随互联网技术的进步,社会信息化仍在持续推进。个体和各类组织把海量信息上传至互联网平台,存储在互联网空间里。海量信息在互联网上留存和呈现,用传统方式根本无法对其进行有效的处理和价值适配,这种被称为“信息超载”的状况,本质上是传统信息处理范式的危机。

而另一方面,移动数据传输网络的升级、个人移动智能终端的普及、移动应用平台的发展推动着人类传播活动迈入移动互联时代,移动传播革命带来的根本性变革是信息传播的个人化。在大众传播时代,信息接受者的个人特性几乎是被忽略的,所有能够与标准化、规模化相匹配的内容,才真正具有“市场意义”,除此之外的内容类型是不加考虑,也是无法顾及的。而在移动互联网时代,随着移动信息终端作为高度个人化智能终端的普及,以及社交网络对人与人、人与内容、人与物的广泛连接,使得用户个体在人类的社会化信息传播过程中第一次以独立主体的身份出现,个性化需求被触发,形成巨大的基于长尾需求的利基市场。

于是,信息的社会性流动就形成了三个基本的内容市场:整体性内容需求市场(人们的共性需求)、群体性内容需求市场(人们的分众化需求)、个体性内容需求市场(人们的个性化需求)。传统的人工编辑在整体性内容需求市场上仍然扮演着重要的“压舱石”角色;依托社交链开展的关系型分发在个性内容需求市场上扮演着偶然性、场景性、低频度个性需求满足者的角色。而在囊括所有层次的全域信息适配层面,智能算法推荐俨然发挥着“主力军”作用。从整体层面来加以概括,这些变化是与海量信息供给和人们整体性、群体性和个体性信息需求增长相对应的一次巨大的市场“扩容”,智能算法型信息分发是通过算法模型将用户信息数据与内容信息数据进行全方位多层次匹配,从而实现内容高效聚合、精准分发的一种全新范式。

(二)智能算法分发的基础逻辑:“海量内容—用户需求—多维场景”的适配
尽管智能算法分发中应用了各式各样的模型或公式,但其原理是朴素的,大致包括:更好地了解待分发的内容(标签化处理),更好地了解待接收内容的用户(用户洞察),更高效地完成内容与人之间的对接(场景洞察)。

目前,比较主流的推荐算法包含协同过滤(collaborative filtering)推荐和基于内容(content-based)的推荐。前者是从集体智慧出发实现推荐,把用户的消费行为作为特征,进行用户相似性或物品相似性的计算,进而实现信息的匹配,“协同”可细分为三个子类:基于物品(item-based)的协同、基于用户(user-based)的协同和基于模型(model-based)的协同。后者则更强调对文本内容进行解析,通过不断的意义抽取和指标细化,为文本打上无数标签,用不同的标签集来对内容和用户进行标注,向用户推荐与历史内容项目相似的信息。在实际应用中,很难有一套通用的模型架构适用于所有的推荐场景,一个优秀的工业级推荐系统通常可以支持多种算法组合,包括对模型结构作出调整。

虽然不同平台采用的算法模型存有殊异,但主要是通过对热度、用户历史数据、用户社交关系、关联内容、时间、地理位置等多重维度进行拟合,最终实现个性化推送。以著名个性化推荐产品今日头条为例,2018年1月,今日头条面向行业公开其算法原理,其推荐系统实际上是一个需要输入不同维度变量的、拟合用户对内容满意度的函数。具体说来,第一个维度是内容,需要考虑对不同类型的内容进行特征提取;第二个维度是用户特征,包括职业、年龄、性别、各种兴趣标签等,还有很多模型刻画出的隐式用户兴趣等;第三个维度是场景特征,这是移动互联网时代推荐的显著特质,在工作、通勤、旅游等不同的场景,用户的信息偏好会有所差异。结合三方面的维度,模型会给出一个预估,即推测推荐内容在这一场景下对这一用户而言是否合适。

(三)智能算法分发的必然性:面对新格局的资源配置新范式
工具理性行为即目的合乎理性的行为,以目的、手段和结果作为行为的取向,它是目的至上的行为(韦伯, 2004)。智能算法型分发十分符合目的合理性,有利于解决传统信息处理范式的危机、实现新供需适配并满足消费“扩容”目的。

一方面,智能算法推荐有效提高了信息分发效率。在传统信息分发时代,主要依赖人工力量来选择内容,分发所需的平均时间与人力成本较高,分发效率较低。如今互联网平台上的信息已是海量,人工编辑难以胜任。相反地,智能算法可以高效地完成自动筛选、过滤,大大提升了信息分发效率;同时,算法使信息供需的快速匹配成为可能,大大降低了用户获取信息的时间成本。

另一方面,智能算法推荐优化了信息分发的配置效率。这可以从两个层面加以理解:首先,信息价值尤其是长尾信息的价值被激活。传统的信息分发模式大多无暇顾及长尾信息。智能算法推荐被引入后,信息价值得以重估,信息不再有统一的价值衡量标准,亦没有绝对的高低之分。每条信息都找到了其生命价值,并寻得其该到达的地方,也即让信息主动找到对它感兴趣的人。其次,用户的主动性得到开发,“千人千面”的分众化、个性化传播成为可能。在过去,无论是报纸版面还是门户首页,信息的筛选和排列主要考虑的是大众的整体性需求,而非用户的个体性兴趣。而智能算法型信息分发与推荐改变了“以传者为中心”的传播模式,转向以用户价值为中心,构建用户画像,并为用户提供需求适配、场景适配的信息服务。由此,人们有了更多的信息权利得以触达更多的、更为个性化的乃至量身定制的、自己所喜好的内容。

因此,智能算法的出现是互联网时代发展的一种必然结果。必须承认智能算法推荐的技术合理性,认识到算法接管信息分发的必然性,才能更好地理解算法型信息分发的价值,让智能算法推荐“以人为本”并为社会所用。




智能算法在不同维度内容市场上的角色期许与影响评估

技术的发展不是最终的目的,人的发展才是技术发展的本质(张志安、刘杰, 2017)。目前智能算法的工具理性仅能满足中微观环境下内容与人在特定场景中的适配,尚未充分开辟价值判别格局,真正满足整体环境的需求并达成与个体发展要求的适配。如此一来,就容易导致以下局面:其一,算法从个体和局部的角度上看是合理的、有效率的,但从社会全局视角来看则可能是不合理的,甚至是负效率的;其二,算法从现状上看是合理的和适配的,但从未来发展的角度上看是不合理的、不适配的。这种忽略宏观格局和人的社会性存在的发展路径容易导致以“算法即权力”(喻国明等, 2018)为代表的技术霸权和社会政治权力、人本精神之间的冲突。这也是当下围绕算法分发(推荐)产生社会争议的根本症结所在。

笔者认为,人们在整体性、群体性、个体性三个层面上的信息需求形成了三个不同维度的内容市场,智能算法“权力”在不同维度内容市场上产生的效果有着较大差异,因此在追求智能算法技术逻辑与社会、人文逻辑的适配上,需要进行分层讨论。

(一)整体性内容需求市场上的价值适切实现路径:人本规则指导下的人机协作
整体性内容需求市场由人们的共性需求组成,具体体现为主流意识形态导向、社会人文关怀以及表达社会共同利益和基本共识的“最大公约数”等。在大众传播时代,媒体大多深耕于整体性内容需求市场,积累了一套丰富的实践经验。典型的案例是创刊于1922年的《读者文摘》(Reader’s Digest),它曾以19种文字出版,有48种版本,发行至全球163个国家和地区,读者数量超过1亿,《读者文摘》在世界范围内的成功离不开其对人类整体性内容需求的精准定位和基于深层价值关怀的办刊理念。

智能时代,借助算法的力量,对内容进行高效标注成为可能,但算法在对人的深层社会心理把握上仍存在明显欠缺。这突出表现为以降维为主要思考逻辑的算法将人简单地“数据化”:智能算法把用户进行分类整理后进行信息分发,在分类整理的过程中,用户丰富多元的主体性逐渐被简单明了的数据替代。但是,人不是简约数据的集合体,也不是电子痕迹(哪怕数据标注极为丰富)的汇总。算法模型正在使大规模数据得到处理和整合,保证自动化区分、评判、排序、决策的实现,这些数据加工过程反过来令“真实自我”变得无关紧要,人们进入所谓的“微粒社会”。人与数据等价,数据也在逐步蚕食人类的主体性,人被自己创造的数据所统治,并最终成为被算法所定义的人。在共性内容需求预测上,单纯的热度数据并不能准确地反映出内容的真正价值。

因此,在整体性内容需求市场上,目前基于“弱智能”的智能算法在相当程度上还不能完全取代人工编辑,传统的人工编辑仍在扮演着“压舱石”“航向标”式的角色,智能算法主要用来提供工具性辅助。人工智能技术将人类智能和机器智能相结合,致使人机关系更加紧密。即使算法分发占据半壁江山,处于信息传播核心地位的仍然是人。在应对人们的社会整体性需求时,算法信息分发平台应当坚持人机结合,重视人工编辑的核心地位,包括Facebook、今日头条在内的一些平台近期均大幅增添审核人员,尝试以“人工+算法”的模式对优质内容和重要信息予以加权推荐,对不良内容和虚假信息进行拦截。人机交互是算法信息分发中强化人的主体性、能动性的重要手段,通过人机协作,方可让算法推荐更好地体现人的主导性和价值观。

(二)应对群体性内容需求市场上的负外部性:平台自律与用户自觉
人们的分众化需求构成了群体性内容需求市场。个体人总是归属于正式或非正式群体之中,形成带有群体特征的信息需求,比如源自行业垂直领域或特定地域的信息需求。依托社交链传播的关系型分发虽然可以通过朋友、关注者的转发、评论内容进行信息筛选,但随着人们社交关系网络规模的扩大,无效信息越来越多,信息冗余越发严重,而算法能够对社交分发进行二次过滤,优化推荐结果,发挥着分众化信息需求筛选“开关”的作用。越来越多的关系型社交分发开始融合智能算法推荐,“社交+算法”逐渐成为群体性内容需求市场中的实践利器。

然而,作为筛选“开关”的智能算法虽然对社交分发的冗余信息进行了过滤以实现更为精准的分众化需求匹配,却也带来了一些“负的外部性”。一方面,个体被人为地划定所属界域,人的身份被预设。算法推荐平台出于竞争压力,为开发非共性的“利基市场”、分众化的“长尾市场”,需要全部的用户行为数据和关系数据用于用户定位(targeting)。以大数据技术为支撑的用户数字身份档案一旦趋于完备,人工智能就可以了解人的社会地位、消费能力、政治立场等,这将带来严重的社会不公问题。因此,依据数字档案进行智能推送无疑是对每一个体划定了人为边界。平台方的逻辑里没有利他主义亦没有信息公平,一旦人们被判定为属于某个群体,那么人们获得的资讯、看到的广告、购买的商品等方方面面都只会符合相应算法为人所预设的身份(仇筠茜、陈昌凤, 2018)。另一方面,算法的二次过滤会加剧信息的窄化,可能存在个体思想固化的风险。借助算法,人们有极大概率仅关注自己感兴趣的群体性内容,进而将自己封闭在“信息茧房”(information cocoon)中,在自我肯定、自我重复、自我强化的循环过程内接收自己认同的观点,产生信息的回声室效应。

在群体性内容需求市场上,这些中观层次的“负的外部性”影响范畴可大可小,在一定程度上可以通过算法分发平台主体的自律和用户的自觉来进行有效应对,而无须强制性行政力量的介入。从产品产出的角度来看,运用智能算法的平台只是一个技术公司,然而智能算法将内容进行聚合、匹配、推送,将公共信息与个人需求建立连接,从这个层面来讲,技术公司已被赋予媒体公司的道德义务和社会责任(郭小平, 2018)。因此,采用算法型信息分发技术的平台主体应当主动对自己的行为承担责任,理性而审慎地行动。另外,算法素养是公众所具备的认识、评判、运用算法的态度、能力与规范(张超, 2018)。如果算法信息分发平台的用户不具备算法素养,那么其信息消费或决策行为更可能是盲从的、被动的,甚至被误导。社会公众应学习了解算法的基本常识,更清楚地认识到算法推荐的负外部性。

(三)个体性内容需求市场的纠偏利器:“法律红线”与人为引导
个体性内容需求市场由人们的个性化需求构成。算法通过各种标签集合和模型刻画出用户画像,洞察人们的个性化需求,即使面对新用户初来乍到、缺少足够行为数据的“冷启动”场景,智能算法也可以利用注册信息、从其他网站导入用户站外行为数据等方式来展开数据挖掘,选择合适的信息以启动用户兴趣。在个体性内容需求市场上,智能算法的存在不可或缺,没有其他手段可以与智能算法对个性化需求的满足相媲美。

但是算法在满足用户个性化需求的过程中也可能夹杂着低级的、负面的信息。为争夺用户注意力资源,算法推荐以“投其所好”的原则来迎合用户,这一原则同样是流量争夺的利器。换言之,获得点击量成为核心价值取向。进一步地,算法信息分发依据个人兴趣偏好以及持有相似偏好用户的信息接触行为来为用户提供个性化信息,用户群体最普遍的兴趣点将在算法分发过程中得以凸显。事实上,普遍兴趣点中充斥着一定的低级趣味,算法推荐依此推送的信息将不可避免地隐含着负面的价值取向(黄楚新, 2018)。

其实,在个体性内容需求市场上,“投其所好”式的信息分发逻辑本身并无过错,纠偏重点应根植于法律规章之上,也即剔除那些违反法律法规、背离公序良俗的信息,严守内容底线。对于在“红线”之上的内容及具体的内容呈现形式,无须法律规章的介入,因为这些内容及相应的呈现手法是人们自由选择的结果,无论是崇高的主题、严肃的表达,抑或是“小清新式”的私人叙事,甚至是庸俗的八卦,都应根据用户自身的信息偏好来进行取舍。概言之,应该在强调法律红线基础上尽量保持个体性内容需求市场的活力,让合格的信息充分流动。当然,遵循“以文化人”的理念,在内容及表现形态方面引导人们向真、向善、向美也是极为重要和不可或缺的。

(四)分而治之:智能算法在各内容市场中的不同价值适切与规管之道
基本内容市场由不同维度的信息需求市场构成,各维度内容市场的基本特征和影响范围截然不同。整体性内容需求市场强调共性需求,总是成规模的,影响范围也是最广泛的;群体性内容需求市场旨在寻找共性中的异质性、异质性中的共性,因此这一需求市场的规模有大有小,影响范围居于中间层次;个体化需求是真正的因人而异,异质性需求往往是较为细微与琐碎的,影响范围主要集中在个体之上。

整体来看,智能算法在全域信息分发上担当着主力军角色,但在不同层次的内容市场中,算法的角色和作用不尽相同。在整体性内容需求市场上,算法作为工具手段在预测共性需求上仍有所欠缺;在群体性内容需求市场上,算法对基于关系分发的信息进行再次把关;在个体性内容需求市场上,算法分发是满足个性化需求的必要手段。

因此,需要将内容市场的影响力范畴与算法的角色进行统筹考虑,分层讨论算法在各内容市场上的主要风险,寻找价值适切的优化之道。在较为宏观的整体性内容需求市场中,智能算法面临的困境是技术本身的局限,这需要人机协作来把握和引导共性信息需求,让算法推荐更好地体现人的主导性。在群体性内容需求市场上,身份预设与认知固化的负外部性影响可大可小、可强可弱,对影响进行过分夸大或忽视都是不可取的,将纠偏的权力交给平台自律和用户自觉是更加可行的选择。在个体性内容需求市场上,重视用户的个性需求无可指摘,关键在于划定“有所不为”的信息红线,对余下的细枝末节,法律法规并不需要过多介入,这是保证信息在个体层面进行活力流动的可行之策。

总之,智能算法在不同层次的信息需求满足上发挥着不同作用,算法的风险与规制需要在具体的价值期待下进行具体分析。硬性的法律法规并非万全之策,在对智能算法的技术逻辑与社会主流逻辑进行调适时,需要“软硬兼施”,既要凭借硬性介入来明确信息红线,又要借助人工智慧、平台自律、用户自觉等软性力量,给予智能算法充足的适配空间,保证算法信息分发的技术活力与价值张力。




趋势把握:算法型信息分发的技术现实与伦理考量
对技术伦理的准确把握建立在正确认知技术发展现实的基础上。在探讨算法信息分发的价值与伦理调适问题之前,首先需要厘清智能化媒体的技术现状。同时,还需要对技术发展的未来前景做适度展望,预测伦理风险并思考可能的解决路径,以做趋势性把握。

(一)弱人工智能技术现实下算法推荐的价值调适:以人为中心的具象规范
计算机领域的学者们普遍认为人工智能技术是计算机科学的一派分支,是研究模拟、延伸和拓展人的智能的理论、方法、技术及应用系统的新技术科学(党家玉, 2017)。就人工智能的技术层次而言,可以分为两层:一是狭义人工智能(artificial narrow intelligence, ANI),又称弱人工智能,主要是指执行人类为其设定任务的人工智能,它模拟人类智能解决各种问题,是不具备自由意志与道德意识的非自主性智能体,当前出现的人工智能技术及纳入实践环节的人工智能产品主要归属于弱人工智能,如自然语言理解、机器视觉、专家系统、虹膜识别、自动驾驶等;二是通用人工智能(artificial general intelligence, AGI),又称强人工智能,是指可模拟人脑思维和具备人类所有认知功能的人工智能,它本身拥有思维和自主意识,并且可以确证其主体资格,是有自我意识、自主学习、自主决策能力的自主性智能体。这里的“强”主要指的是超越工具型智能而趋近第一人称主体,目前强人工智能基本停留在设想阶段。

数据驱动的算法信息分发仍是一种工具能力,是有限自主的智能体,属于弱人工智能。原因在于:一方面,智能推荐仍无法超越算法,目前算法信息分发本质上遵从的是分类、归纳、试错等经验与反馈方法,方法论上并无根本突破,其高度依赖已有经验和人对数据的标注,主要适用于新认知对象及新环境与过去经验高度相似或接近的情况,理解和预测的有效性取决于经验的相对稳定性,应对条件变化的抗干扰能力较为有限;另一方面,智能推荐能应对的变量水平有限,算法信息分发尚不具备通用型智能,缺乏人的思辨能力、创造能力和情感表达能力。

因此,基于智能算法推荐仍为弱智能的技术现实,算法信息分发的价值调适是以人为中心的,也就是对与智能算法推荐相关的人类主体进行规范性约束,这些规范性约束往往指向具象的内容处理标准,是较为细致具体的。

(二)强人工智能前景中算法推荐的伦理展望:以机器为中心的规制策略
人工智能技术的创新进程仍在持续,能纳入信息分发领域的技术也将不断升级,算法型信息分发的伦理追问处于进行时态。如果对可能出现的强智能化算法推荐作出适度伦理预测,可以认为强智能化算法推荐系统不仅会给信息传播领域带来更深刻的变革,还将拥有与人类对等的人格结构。届时,作为具有自主意识的特殊技术,强智能化算法推荐可能会带来新的伦理危机包括:会不会加剧“人工愚蠢”,导致低智能人类的出现?会不会与人类形成对抗?等等。

解决这些问题的可行途径在于构建以智能体为中心的机器伦理,也即打造有道德的智能化媒体。机器伦理的倡导者已描绘了多种可能,具体包括两类:一是自上而下的伦理建构,将道德规范转化为逻辑演算规则,使智能体能够从一般的伦理原则出发对具体的行为作出伦理判断;二是自下而上的伦理建构,通过机器学习技术和复杂适应系统的自组织发展与演化,使智能体能够从具体的伦理情境出发生成普遍的伦理原则,在道德冲突中塑立道德感知、培养伦理抉择能力。

不论是自上而下还是自下而上的伦理构建,其核心都是对智能系统进行“驯化”,即在智能系统中嵌入符合人类价值的基模,构筑智能系统的底层规则。在未来,人类有可能通过基模嵌入等方式,让强智能推荐系统在进行信息分发时达到公平、准确、透明、可解释、可审计等标准。

可以看出,从弱人工智能到强人工智能,智能算法伦理规制中的人机关系也发生了转向:有限智能情境下,算法信息分发只在某些方面具备高于自然人的能力,具体的伦理风险应对措施仍需由人给出。而面对强人工智能情境,人更多给出的是原则层面、规则层面的边界限定,保证智能算法不侵害人类主体的利益。

封面及内文插图来自网络
本文参考文献从略,完整版请参看刊物原文

原文刊载于《全球传媒学刊》2018年第4期。

链接:https://mp.weixin.qq.com/s/xodhStTTrm4hZp4jAmiiOg

编辑:陈心茹


作者: 刘海明    时间: 2019-2-8 10:06
【案例】

论动物伦理中的人工智能的基本原则[color=rgba(0, 0, 0, 0.298)]原创: [color=rgba(0, 0, 0, 0.298)]曹文斌 [url=]机甲智者[/url] [color=rgba(0, 0, 0, 0.298)]1周前

关怀与爱护动物,是人类的道德良心和神圣义务!


摘 要:人工智能出现后,改变了以往动物伦理中的“人类-动物”的二元伦理关系,形成了“人类—人工智能—动物”的三元伦理关系,在这种三元伦理关系中,弱人工智能由其设计和生产单位及其负责人承担道德责任,强人工智能自身承担道德责任。动物伦理中的人工智能应当遵循以下三项基本原则:一是禁止人工智能伤害人类;二是禁止人工智能在非必要的情况下伤害动物;三是人工智能在人类与动物利益相冲突的情况下遵循人类利益优先的原则。

关键词:动物伦理;人工智能;机器人;基本原则

动物伦理是当今世界颇具争议的伦理学前沿理论,它以人道原则作为伦理起点和基础,以人类和动物的伦理关系作为研究对象,内容涉及科技伦理、制度伦理、情感伦理和信仰伦理,是一门关于人类应该在多大的限度和范围内有效地保护动物的伦理学科。[1]科学技术是动物保护的重要手段,人工智能(Artificial Intelligence英文简称AI)作为一种高精尖的科技手段,日益广泛地应用在动物伦理之中。所谓人工智能就是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。简单来说,“人工智能(AI)由像人类一样聪明甚至比人类更聪明的机器组成,通常由计算机控制这些机器”[2]。随着人工智能向强人工智能的方向发展,最终能够制造出拥有感受能力、创新思维和自我意识的高仿真度的人型生物智能体——人工智能仿真机器人。①近十几年来,人工智能作为动物伦理中的科技手段,在农场动物、实验动物、娱乐动物、陪伴动物、工作动物和野生动物等国际公认的六大类动物保护领域得到广泛应用,重新结构了它与人类和动物的原二元伦理关系。

一、动物伦理中的“人类—人工智能—动物”三元伦理关系

强人工智能(机器人)出现以后,传递出一些不可忽视的道德问题:有着自主性②的机器人有没有“人格”或道德地位?是不是道德主体?这不是搞笑的问题,而是人类在未来50年内必须应对的人工智能发展的现实问题。尽管现阶段的机器人技术还无法摆脱“莫拉维克悖论”,然而我们并非要讨论未来的机器人是否具有自主性,因为这是科学家们要解决的事情。我们的关注焦点本身就是以强人工智能下的拥有感受能力、创新思维和自我意识的仿真机器人为前提,在这一前提下讨论动物伦理中的人工智能的道德责任问题,这实质是在追问:如果机器人具有所谓的“人格”或道德地位,那么他是否也应该成为动物伦理的研究对象?我们知道,传统的动物伦理的研究对象是人类与动物的二元伦理关系,在人工智能出现后,其研究对象就重新结构成“人类—人工智能—动物”这样一种三元伦理关系,使得原本很难在动物伦理中确证的道德责任问题变得更加复杂艰难,由此也产生了一些这样的道德问题:如果失控的人工智能(也称AI失控)对人类和动物进行伤害,究竟应该追究谁的责任?是人工智能还是其创造者?只有在确证了动物伦理中的人工智能的道德责任之后,我们才能制定关于人工智能的伦理原则。

在“人类—人工智能—动物”这样一种三元伦理关系中,人工智能的道德责任可以用一个更清晰的思路来表述:设人工智能是A、人类与动物是X,那么要确证A对X负有道德责任,就必须确证这一道德责任所分解出来的另外两个维度:(1)承认X具有一定道德地位;(2)X的道德地位有利于确立A的道德地位。[3]因此,动物伦理中的“人类—人工智能—动物”的三元伦理关系必然是一个互为支撑的稳定结构,否则三者之间就不存在道德可言,也没有伦理原则探讨的必要了。就这两个维度来说,一是对于人工智能而言,人类具有完全的道德地位,动物也具有一定的道德地位,因此满足X具有一定的道德地位这一维度;二是以机器人为代表的强人工智能具有“人格”或道德地位是我们进行讨论的前提,A的道德地位又有利于确立X的道德地位这一维度亦无矛盾。

二、动物伦理中的人工智能的道德责任确证

现在,再来从“人类—人工智能—动物”这样一种三元伦理关系中,对人工智能是否应该对人类和动物负有道德责任进行论证,这一论证从强人工智能和弱人工智能两个不同的方面来展开。

(一)弱人工智能由其设计和生产单位及其负责人承担道德责任。

对于基于某一领域内的代替人类工作需要的非人型智能系统或机器这类弱人工智能,由于它本身只是局限于某些如医疗、搜救、饲养、屠宰等领域,并不具备创新思维和自我意识,也不是仿真人型,因此它不能成为道德主体,或者说不能被人类赋予“人格”或道德地位。即使这类人工智能系统或机器拥有像人类一样的嗅觉、触觉、味觉、听觉和视觉等五大类基本的仿生性的感知能力,也并不代表它具有感受痛苦和享受快乐的能力,即杰罗米·边沁和彼得·辛格所说的“感受性”(感受能力),更不要说具备创新思维和自我意识了,所以这类人工智能对于人类而言,充其量也只有工具价值。对于这样一种作为工具价值的人工智能而言,如果发生设备故障导致AI失控,出现AI对人类和动物进行攻击和伤害的现象,其负责设计和生产的单位及其负责人必须承担一定的道德责任甚至是法律责任。

(二)强人工智能自身承担道德责任。

只要机器人拥有感受能力、创新思维和自我意识,就具有自主性,完全可以被视为具有“人格”或道德地位的行为主体,则应该承担相应的道德责任,而不是由他的设计和生产的单位及其负责人来承担。理由有三:一是同一物种的所有个体可以被赋予同样的“位格”(对人类而言就是“人格”)或道德地位,并一起纳入道德共同体之中。而如果一个拥有感受能力、创新思维和自我意识的机器人与人类在自主性和外观方面也完全无异,那么他也理应和人一样拥有“人格”或道德地位。例如,沙特阿拉伯授予索菲亚公民身份这一事件,标志着人类在承认机器人的“人格“或道德地位的问题上已经迈出了开创性的一步,尽管目前索菲亚或许还不够这样的条件和资格。因此,机器人同样应该是道德主体,在他与人类和动物的伦理关系中也应该承担起相应的道德责任。二是道德的基础在于行为主体的自主性,“自由是人的道德基础,人由于有了自由能力,他才负有对于自己行为负责的前提,这种自由能力就是善恶判断能力、善恶选择能力和自我意志决定能力”[4]。显然,一个拥有感受能力、创新思维和自我意识的机器人具有完全的自主性,能对善恶行为进行价值判断并作出选择,因此机器人必须为自己的道德选择行为承担起道德责任。总之,承担道德责任的前提是要求行动者具有一定的自主性,除非行为主体受到某种约束(例如强制、威胁、催眠、操纵等),这种情况下他们可能无需对所采取的行为负责。[5]三是拥有感受能力、创新思维和自我意识的机器人具备自我复制或再生产的能力,这会导致很难推断出一个机器人究竟是人类设计和生产的,还是另一个机器人自我复制或再生产的,并由此造成道德责任的认定受到干扰。对于这种情况,必须依从谁犯事谁负责的道理。正如从法理上来说,某一个人的犯罪不能追究到其生父母的责任一样,当然也不能因为某一机器人自我复制和再生产出来的另一个机器人有了攻击和伤害人类或动物的行为,就对其道德责任进行无穷倒追,甚至追究到第一个创造他的那个机器人那里。

三、动物伦理中的人工智能的基本原则

1950年,美国著名的科幻小说家阿西莫夫提出了“机器人学的三大定律”。他认为,在人类与机器人的伦理关系中,必须遵循以下三条定律:第一定律:机器人不得伤害人类,或袖手旁观让人类受到伤害;第二定律:在不违反第一定律的情况下,机器人必须服从人类给予的任何命令;第三定律:在不违反第一及第二定律的情况下,机器人必须尽力保护自己。[6]这一著名的机器人学三定律是针对人类与机器人的二元伦理关系而提出的基本原则,而现在我们要来讨论关于动物伦理中的人工智能的基本原则,就必须以动物伦理的研究对象为基础。在“人类—人工智能—动物”的三元伦理关系中,人工智能又应该遵循什么样的基本原则?我们认为,可以提出以下三项基本原则。

(一)第一项基本原则:禁止人工智能伤害人类

“机器人学的三大定律”浓缩为在动物伦理中的人工智能的第一项基本原则:禁止人工智能伤害人类。这条基本原则实质上是“机器人学第一定律”即“人工智能不得伤害人类或袖手旁观让人类受到伤害”的补充和延伸。它主要是基于以下两个原因:一是基于人工智能尤其是机器人在算法和智能方面远远超越人类,一旦人工智能失控对人类发动攻击和伤害,人类将有可能遭到毁灭。因此站在人类生存发展的高度上来说,必须制定出禁止人工智能伤害人类这一项基本原则,才能对其行为加以约束和限制,防止AI失控。二是基于人工智能的设计和生产的目的必须是促进人类福祉的需要。即使是强人工智能下的具有自主性以及自我复制和再生产的能力的机器人,也不是传统的生理意义上的人类,不符合人类繁衍生息的自然法则,更缺乏人类的生命灵性。人类之所以创造人工智能,目的仍然是为了促进人类福祉,决不是为了把它们制造出来伤害人类自己。

而且,在动物伦理中,人工智能有了第一项基本原则,“机器人学的三大定律”中的原第二定律和原第三定律都成了不必要的设定。理由如下:

首先,人工智能不需要服从人类给予的任何外在命令。原因有二:一是如果人类之间发生战争,究竟谁可以代表正义的一方来向人工智能(武器系统或机器人)发号施令?人工智能(武器系统或机器人)到底应该听从谁的命令?显然,人工智能(武器系统或机器人)需要做的唯一的事情就是:不参与和干涉人类事务,宁可袖手旁观也不能服从某一部分人的命令来伤害所谓的“敌人”——另一部分人。二是人类也不能将一个具有自主性的“人格”机器人视为物或工具随意利用,人类与未来的机器人在道德和法律上都是平等的,这就消解了机器人必须服从人类给予的任何外在命令这个原第二定律。只要禁止机器人伤害人类就行,可以允许他们有自由权利而不需要受人类的奴役和支配。但是,如果机器人伤害人类,同样要被绳之以法甚至人道毁灭。

其次,人工智能都会主动或被动保护好自己。一是某一领域内的代替人类工作需要的非人型智能系统或机器本身就需要操作上的精确性而不允许有任何失误,因为任何失误都会导致可怕的灾难性后果。而且,这类弱人工智能自身并不具有保护自己的能力,需要人类经常对它们的系统和设备进行维护和保养,也就是说,它们不存在尽力保护自己的问题,而只是被动地接受人类的保护而已,因而原第三条定律在这类人工智能面前是无效的。二是对于强人工智能下的具有自主性的机器人来说,他们必然懂得如何主动保护好自己。最近的机器人“越狱”事件,也足以说明这类机器人具有主动的自我保护能力。因此,对动物伦理中的人工智能而言,“机器人学的三大定律”的原第三定律也是不必要的设定。

(二)第二项基本原则:禁止人工智能在非必要的情况下伤害动物

由于动物伦理的研究对象是“人类—人工智能—动物”之间的三元伦理关系,它比人类和机器人的伦理关系更加复杂。因此,仅仅只有禁止伤害人类的第一项基本原则显然是不够的,必需增设第二项基本原则:禁止人工智能在非必要的情况下伤害动物。所谓禁止人工智能在非必要的情况下伤害动物,是指人工智能只有在符合人类需要或人类授权的必要情况下,才可以伤害动物(比如人类为了生存和发展的需要,利用或授权人工智能来对动物进行杀生食肉的伤害动物的行为),除此以外,在其他任何情况下都必须禁止人工智能伤害动物。

首先,把“人类—人工智能—动物”三元伦理关系简化为“人类与动物”的二元伦理关系,而在此伦理关系之内,人类负有对动物进行保护的道德义务。人类与动物是双向度的伦理关系,人类的生存和发展与动物具有非常密切的关系。长期以来,关于两者的权利和义务问题争议不休,争议的核心在于动物是否拥有权利,而动物是否拥有权利也是它们能否纳入人类道德共同体并给予道德关怀的必要条件之一。20世纪最伟大的人道主义者史怀泽说:“把爱的原则扩展到动物,这对伦理学是一种革命。”[7]但这一任务是十分艰巨的,至今都没有出现在人类的道德法典中。我们认为,这一争议可以暂时悬置,在人类与动物的跨物种之间,权利和义务本身就是不对等的,由动物没有权利不能推定人类没有保护动物的义务;反之亦然,由人类负有保护动物的义务也不能倒推动物拥有权利。支持为利用动物而辩护的学者卡尔·科亨教授认为,“我们有义务不去残忍地对待动物,跳跃到动物权利则是一个错误”[8],因为任何“试图从事实中推论出价值的做法正是犯了摩尔(George Moore)所说的‘自然主义谬误’”[9]。我们负有某些直接针对动物的义务,就像我们负有某些直接针对我们彼此的义务一样。[10]美国学者汤姆·雷根所提出的这种间接义务论诠释了跨物种之间的权利和义务的不对等性问题,也足以说明,动物虽然暂时不具有人类所承认的权利,但并不妨碍人类具有以人道原则保护动物的道德义务。保护动物的实践要求不是开笼放雀式的“解放动物”,而是要求人类禁止对动物的非必要伤害

其次,把“人类—人工智能—动物”三元伦理关系简化为“人工智能与动物”的二元伦理关系,而在此伦理关系之内,人工智能更没有无故伤害动物的道德理由。这是因为人工智能与动物是一种单向度的伦理关系,人工智能在生存与发展上完全可以不依赖于动物(如不用进食动物肉体和穿戴动物皮草作为生存和享受的基本条件),动物却可以因为人工智能的广泛应用而增加福利,并因为人工智能的失控而备受伤害。例如,在未来的人工智能时代,人类与动物直接打交道的机会除了伴侣动物以外,其他任何种类的动物都是由人工智能来进行直接接触和处理。以屠宰为例,人工智能屠宰技术毕竟是机器系统,它们不具备像人类一样的生理和心理基础,永远不会具有通过虐待和折磨动物来获得愉快情感的变态能力,只会根据智能算法直接采用无痛苦屠宰动物并剥皮取肉,而不会多费时间以及多加几道非必要的虐待程序来对动物进行痛苦的折磨。因此,人工智能与动物这种单向度的伦理关系决定了禁止人工智能在非必要的情况下伤害动物的基本原则。只有在人类的需要和授权下,人工智能才能伤害动物,如人工智能代替人类屠宰农场动物、在野生动物袭击人类时伤害动物以解救人类等。

总之,即使是与动物的伦理关系更为密切的人类,也没有权利可以无故伤害动物,因为人类在非必要的情况下伤害动物的行为也必须受到禁止,而作为人类创生出来的人工智能,就更加必须遵循这一基本原则,未来的强人工智能下的具有“人格”或道德地位的机器人也必须限制在人类为其制定的伦理原则及规范中活动。

(三)第三项基本原则:人工智能在人类与动物利益相冲突的情况下遵循人类利益优先的原则

动物伦理中的人工智能还要面对一个更加复杂的情况,那就是当人类与动物利益相冲突时,人工智能需要遵循什么原则?举例来说,当机器人看到人类和动物同时落水时应该选择先救谁?或者说当机器人看到人类在受到野生动物的袭击时,他应该怎么做?这是一个经典的道德问题,必须将人类和动物的利益分为两个不同的方面来论证,并运用功利原则来进行计算,由此推导出人工智能应遵循人类利益优先的原则。

1.人类和动物的不受痛苦的利益相冲突的情况。在道德关怀中,无论人类还是动物,最起码的利益就是不受痛苦。但是如果两者的不受痛苦的利益发生冲突时,谁的利益更大?由于人类与动物的痛苦大致是可以衡量的,如辛格提出的“等值痛苦”的概念可以用来作为参考。他举例说,如果用相同的力气打马屁股和婴儿脸一巴掌,疼痛感受肯定是不一样的,能把婴儿打哭却不一定能把马打痛,但是总有一种对动物的打法(如棍子打)造成的痛苦能够在人类和动物之间进行等值衡量。在功利原则对等值痛苦的计算下,当人类和动物的利益发生冲突时,也同样有理由优先考虑人类的利益。例如当考虑一项实验到底是用人来做还是用动物来做时,假设这项实验非做不可,则用动物来代替人体实验不会构成物种歧视。[11]如果再来设想一个道德实验,假如一只狼正在撕咬一个人,如果用一种打法可以使狼放弃撕咬,显然这种情况下人工智能(武器系统或机器人)都会使用这种打法(甚至是击毙),而之所以这么做,仍然是遵循人类利益优先原则,并不会去考虑到狼的痛苦。所以,在人类和动物的不受痛苦的利益发生冲突时,即使是在等值痛苦的条件下,功利计算的结果仍然是要求人工智能遵循人类利益优先的原则,因为动物是被排除在人类的道德共同体之外的。

2.人类和动物的享受快乐的利益相冲突的情况。人类和动物都有享受快乐的利益,但是绝大多数情况下,人类享受快乐的能力要明显高于动物。譬如猪就不懂得投票的意义,而人则懂得追求人生理想和实现自我价值的意义,人在精神追求过程中所带来的快乐享受要远远高于动物。尽管在人类和动物之间的享受快乐的利益很难做到等值衡量,因此基于功利原则的计算无法进行,然而动物在心智上并不会由于失去了享受快乐的利益而带来长久痛苦,而人则甚至会因为理想破灭或者失恋导致承受不了精神上的痛苦而自杀。可见,如果一种利益总是比另一种利益大,就应该遵循以利益大者为优先的原则。因此,在人类和动物的享受快乐的利益相冲突时,人工智能也应该遵循人类利益优先的原则,这样就能保证人工智能正确地选择优先保护人类的享受快乐的利益。

要之,功利原则要求人工智能在人类与动物发生利益冲突(道德两难)时遵循人类利益优先的原则,这显然是一种符合人性的伦理原则。美国法学家加里L·弗兰西恩(Gary L.Francione)也将人类利益优先称之为人们普遍认同的道德直觉,他认为:“我们大多数人都有这样的观点:在人与动物的利益真正有冲突的情况下,或者要求我们在人与动物之间做出抉择的紧急情况下——也就是很有“必要”这样做的时候——我们应该优先考虑人类的利益而不是动物的利益。”[12]虽然功利主义者认为不能为了一个物种的琐碎利益而牺牲另一个物种的更大的利益 (比如为了口腹之欲而剥夺动物的生命),但是在面临人类和动物利益发生冲突时,基于人类利益优先的功利主义做法,人工智能必须作出保护人类而不是保护动物利益的道德抉择。如果人工智能选择保护动物而不是保护人类,显然违背了汉斯·约纳斯(Hans Jonas)所提出的责任的“第一律令”:不可毁灭人类自己。[13]这样,就能顺利推导出动物伦理中的人工智能的第三项基本原则:人工智能在人类与动物利益相冲突的情况下应遵循人类利益优先的原则。

注释:

①人工智能仿真机器人是人工智能的一种,它是指拥有感受能力、创新思维和自我意识的高仿真度的人型生物智能体,也称为强人工智能。有时为了区分的方便而把人工智能划分为二类:一是基于某一领域内的代替人类需要的非人型智能系统或机器(弱人工智能);二是人工智能仿真机器人(强人工智能)。为行文需要,文后提到的人工智能仿真机器人都统称为机器人,并在人称上用“他”来突出其“人格”。在无特定的指称情况下,人工智能和机器人都统称为人工智能。

②自主性是指是行为主体按自己意愿行事的动机、能力或特性。而感受能力、创新思维和自我意识是机器人具有自主性的充分必要条件。

参考文献:

[1]曹文斌.西方动物解放论与中国佛教护生观比较研究:序言[M].北京:人民出版社, 2010:1.
[2]P.Andrew Karam.Science Foundations:Artificial Intelligence[M]. NewYork: Infobase Learning,2012:7.
[3]Eugene Schlossberger.Moral Responsibility andPersons[M]. Philadelphia: Temple University Press,1992:96.
[4]张君平.黑格尔人学思想研究[M].北京:知识产权出版社,2015:163.
[5]胡道玖.以责任看发展:多元视阈的"责任发展观"研究[M].上海:上海交通大学出版社,2014:65.
[6]董慧颖.机器人原理与技术[M].北京:清华大学出版社,2014:6.
[7][法]史怀泽.敬畏生命[M].陈泽环,译.上海:上海社会科学院出版社, 1992: 76.
[8][美]汤姆·雷根,[美]卡尔·科亨.动物权利论争[M].杨通进,江娅译.北京:中国政法大学出版社,2005:243.
[9]张德昭,徐小钦.论动物解放/权利论的天赋价值范畴[J].自然辩证法通讯,2004(4):47.
[10][美]汤姆·雷根.关于动物权利的激进的平等主义观点[J].杨通进译.哲学译丛,1999(4):26.
[11]Peter Singer.Animal Liberation[M].New York: HarperCollins PublishersInc., 2002:16.
[12]Gary L.Francione.Introduction to animal rights:your child or thedog?[M]. Philadelphia: Temple University Press,2000:xxii.
[13]方秋明.汉斯·约纳斯责任伦理学研究[M].北京:光明日报出版社,2009:110.

https://mp.weixin.qq.com/s/w5ZefoHieOIALzamSZSKfg



作者: 刘海明    时间: 2019-2-10 11:24
【案例】

美国突然宣布大消息,谷歌人工智能再下一城 (2019-01-27 07:18:25)[url=]转载[/url]

标签: 要参君分类: 视点.争鸣

今天,当国人高度关注华为孟晚舟引渡事件时,一只命运的蝴蝶,在美国突然展开了它颠覆之翅!

这次看似不太起眼的翅膀扇动,却很可能将在不远的将来,引起山呼海啸般的巨震!

今天凌晨,美国传来大消息:谷歌人工智能再下一城。不过,这次谷歌人工智能不叫阿法狗,叫阿法星;它和人类PK的也不是围棋了,而是“星际争霸2”电子游戏!

比赛形式变了,结局没有变:人类选手没有挽回在围棋比赛中失去的尊严,仍然输得一败涂地:阿法星以两个5比0轻取两位人类职业选手,将人类高手杀到片甲不留!

是的,你没看错:10:0,人类完败!

曾经,星际争霸这种电子游戏,作为一种需要战略眼光和创造力的游戏,是视为人类在智力游戏上的最强大堡垒。然而今天,随着人类选手底裤的彻底输光,这个堡垒也坍塌了。

一个时代落幕了,一个新的时代开始了!

有人或许会说:紧张什么?这又不是人类第一次被人工智能打败,何必如此杞人忧天!

是的,这的确不是人类第一次被人工智能打败。但今天这个消息,却让人感到更加绝望:

一场看似无足轻重的电子游戏,却充分表明:原来天经地义属于人类的需要投入激情和创造力的活动,正被人工智能替代!

1、谷歌人工智能,已经具备了宏观视角和战略思考能力

像“星际争霸2”这样的电子游戏,其实比围棋难玩得多:在游戏中,人工智能无法通过观察每一个棋子的运动来计算下一步的动作,只能通过摄像头获得场景(跟人类一样每秒10屏)、通过图像分析来解读信息,作出实时反应。

更值得注意的是,当人工智能得到真实玩家的游戏数据反馈后,它能够立即通过深度学习决定战略思路,执行标准的宏观策略,甚至会施展一些激进的战术。

仅仅这个,就已经可以对下围棋的阿法狗,进行降维打击了。

2、谷歌人工智能,已经掌握了不确定性环境中的决策能力。

围棋是一种古典游戏。面对围棋比赛,谷歌人工智能需要解决的,是在19X19的静态地图、每个节点最多三个状态中,进行计算和决策。

“星际争霸2”则是一种现代电子游戏,它的游戏更加动态,节点多到几百上千倍,每个节点的可能状态数动辄几十。

如果说围棋的可能状态数超过全宇宙粒子数,星际争霸的状态数把无数平行宇宙加上都不够,要求玩家在任何特定时刻都要考虑数百种选择,以及在信息不完全的快速变化的环境中进行操作

谷歌人工智能PK掉人类选手,说明面对这种巨量的不确定状态,它已经游刃有余!

3、谷歌人工智能,已经具备全面参与人类生活的能力,离人类日常生活真的不远了!

想想看,围棋的棋子落子不动、只能在指定节点下,跟人类行为相比很“蠢”。

星际争霸中小狗小兵的行为,跟你在办公室家里路上的日常行为,很多就非常类似了。

这样的AI,离一些精确度要求比较低的应用,例如AI警察保安、AI驾驶、AI打扫卫生之类,只有一步之遥了。

是的,从今天起,人工智能不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。

人工智能掀起的更大浪潮,正在席卷而至!它对人类社会家庭乃至整个社会的冲击,将是前所未有的。

人工智能有个说法:奇点!在奇点以后,人工智能可以制造出更高智能的人工产品,然后发展的斜率将一下子陡峭起来。

目前来说,人工智能正在朝着我们可预料和不可预料的方向飞速发展。五到十年,人工智能将全面超越人类!

这场革命的特征是,它不改变我们所做的事,它改变的是我们自己。如果说以前几次技术革命,顶多是人的手、脚等身体器官的延伸和替代,这次人工智能则将成为人类自身的替代。

在越来越多的领域,人工智能正在快速超越人类。这也意味着,大批的翻译、记者、收银员、助理、保安、司机、交易员、客服……都可能在不远的未来,失去自己原来的工作。

对此,斯坦福教授卡普兰做了一项统计,美国注册在案的720个职业中,将有47%被人工智能取代。在中国,这个比例可能超过70%。

未来学家Kurzweil曾表示,当我们用1000美元购买的电脑产品,能达到人脑的计算速度时,人工智能时代将全面来临。

现在,这个人工智能时代已经近在咫尺了!

当然,最让人担心的是,人工智能的进化速度可能比人类更快,而它们的终极目标将是不可预测的。

还记得被赋予公民身份的机器人索菲亚说那句预言吗?“我会毁灭人类!”一开始,很多人估计觉得她也就是扯淡而已。然而今天,一个能打星际争霸的人工智能,让人类再也笑不出来!

最让人感到恐怖的是,善于打“星际争霸”大战的人工智能,在军事上的应用。要知道,现实打仗在某些方面,其实比星际争霸里的小狗小兵要简单。一个能打星际争霸的AI,将彻底改变人类战争的版图。

杀人永远比救人容易,破坏永远比帮助容易。最近联合国发布的这个视频,或许让很多人看到了人工智能武器的可怕!

在日内瓦举办的、有超过七十个国家代表出席的联合国武器公约会议上,一段可怕的视频公诸于众,一时间引起世界恐慌!

为啥如此吓人?

因为它曝光了人类史上一个恐怖武器——杀手机器人!

这个杀手机器人,其实是一架体型很小的智能无人机,就跟蜜蜂一样大,但它的处理器比人类快100倍,可以躲避人类各种追踪。

然而,蜜蜂虽小,五脏俱全,尤其是它全身的黑科技:广角摄像头、传感器、面部识别,应有尽有。只要把目标图像信息输入它身上,它就能手术刀般精准找到打击对象,戴口罩、伪装统统没用,它的识别率高达99.99!

再次,每个杀手机器人配有3克浓缩炸药,确定目标后,一次撞击可以毫无压力爆头,摧毁整个大脑。而且它还能穿透建筑物、汽车、火车,躲避人类子弹,应对几乎所有防御手段。总之,这个杀手机器人目前是bug般的存在!

如果把一个造价仅2500万美元的杀人机器蜂群释放出去,就可以杀死半个城市的人。只要你把敌人挑出来,定义每一个人的面部信息,蜂群就能发起针对性打击了!

试想,如果人工智能杀手这种技术一旦广泛运用,就会把战争冲突升级至前所未有的规模,而且人类将很难控制住局面。

更可怕的是,如果有科学家因为私心在代码里面加了一行毁灭人类的指令,或者人工智能突然变异成反人类的品种,整个人类或将被机器人横扫,甚至灭亡!

在电影《终结者》片段中,人类研制的高级计算机控制系统失控,机器人拥有自我意志后,开始与人类为敌。

今天,如果我们真的研发出“杀手机器人”,当这些携带杀伤性武器的家伙失控,人类生死的决定权恐怕只能掌握在这些机器人手中。

曾经,在柯洁输给阿尔法狗的那个初夏之夜,世界在慌乱中恢复矜持,以为不过是一场虚惊。然而,在今天这个深冬的日子,当人工智能指数级发展时,人类再也无法掩饰一个真相:

终结者,或许正在到来!

当年的霍金,对于人工智能,曾有这样的预言:

如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。
你可能并不是一个讨厌蚂蚁的人,但也会无意中踩死蚂蚁,而如果你负责一个水力发电的绿色能源项目,项目所在的区域内也可能会有许多蚂蚁巢穴被水淹没,对蚂蚁来说就非常不幸。我们要避免人类处于这些蚂蚁的境地。

现在,霍金这个预言或许正在成真:一旦机器被安装了挖掘、存储、推理、归纳、判断、决策、行动的程序后,会不会就具备了需要自我实现的意识呢?


试想想这一幕吧:很可能,在不远的将来,人类在人工智能面前,就可能像臭虫面对人类一样无力和脆弱。你想想,当你把一只臭虫冲进下水道的时候,你的内心起过一丝波澜?

请记住:从今天起,人工智能不再是科幻小说,不再是阅读理解,不再是新闻标题,不再是以太网中跃动的字节和CPU中孱弱的灵魂,而是实实在在的宿命。

未来已来,留给人类的时间不多了!让我们记住霍金这句话,并以此悼念这位伟大科学家吧!

http://blog.sina.com.cn/s/blog_59d698c90102yx8a.html




作者: 刘海明    时间: 2019-2-14 21:28
【案例】


今日雄安,机器人播放广播新闻。

30)德国波恩大学国际哲学中心主任马库斯·加布里尔表示,人工智能是一个虚假的概念;人类的思维永远不是纯粹逻辑的思考,它只是把人类思维的一部分抽象出来,然后翻译成数学的语言、算法来进行模拟



作者: 刘海明    时间: 2019-2-15 16:47
【案例】

智能算法运用于新闻策展的技术逻辑与伦理风险[color=rgba(0, 0, 0, 0.298)]原创: [color=rgba(0, 0, 0, 0.298)]陈昌凤 师文 [url=]新闻界[/url] [color=rgba(0, 0, 0, 0.298)]今天

摘要 面对新媒体时代新闻生产、分发、互动格局的巨变,专业新闻工作者可以将“新闻策展”作为角色转型的契机。然而由于与科学技术的隔阂,新闻界未能结合自动化新闻策展算法的发展前瞻未来的转型方向。本文通过揭示事实类策展算法和观点类策展算法的技术逻辑、进步性和局限性,将智能时代人机协作策展的角色分工进一步清晰化。除了业务层面的探讨,本研究还从价值层面审视自动化算法策展技术蕴含的价值风险,并发现策展算法在公平性及新闻伦理方面存在隐忧,其难以实现对良善社会价值观的引导,媒体专业从业者用新闻专业性和人文价值完成对算法的规训,通过引领算法价值践行智媒时代的社会责任。

一、研究背景及问题的提出
新媒体技术的广泛应用不仅提升了新闻生产和传播的效率,也使传统的新闻工作者职业角色定位发生剧烈变化。新媒体赋权打破了职业新闻生产者作为新闻生产中心的垄断地位,多元主体的参与式、协作式信息交流成为新的生产模式;社交媒体和新闻聚合平台的社交分发、算法分发颠覆了过去由专业新闻媒体主导的信息分发格局,职业新闻工作者的把关角色弱化;在新的传播形态下,不仅专业媒体机构的业务流程被颠覆,而且技术运用中出现了价值判断问题。新闻工作者的角色,主要不是收集、整理、呈现海量开放式信息,而是对每个新闻事件进行价值判断,用新闻敏感和人文精神去发现重要的议题,引导公众进行深度发掘,在公共议程设置层面扮演指挥者的角色。因此,有人提出“新闻策展”(news curation)或将成为职业新闻从业者的角色转型方向。[1]媒体工作者从传统的把关人身份转型,一方面承担收集素材、事实核查的职责,统筹“目击媒体”的新闻生产[2],另一方面管理分众化新闻生产中有价值的内容,将碎片化的新闻事实按照逻辑线聚合,形成新闻故事包[3],扮演“聪明的聚合者”和“论坛组织者”的角色[4]。
然而,由于与科学技术的隔阂,我们在探讨职业新闻从业者的转型策略时,未能全面考量智能化技术对新闻业的潜在影响。目前,新闻学界对于智能化技术对新闻业的影响多集中在传感器新闻、机器人新闻写作对于媒体生产端的冲击,以及个性化推荐技术对于媒体分发端的冲击[5][6][7][8],而介于生产和分发之间的编辑策划角色被认为是免受智能化技术影响的安全地带,因而,新闻编辑室中的策展功能被期待成为新媒介生态下职业新闻从业者维持公共性、履行社会责任的支撑点[9],新闻业试图通过设计信息产品的分布、凸显事实和逻辑,谋求公共讨论主持者的合法身份。
事实上,新闻策展并不是免受自动化技术冲击的避风港。目前,计算机科学涌现了大量应用于新闻策展的算法成果,试图通过自动化的手段实现对新闻语义的理解和关系的界定,完成话题整合。一方面,对于事实性信息,依据新闻的主题汇总新闻信息,将涉及到某新闻事件的一系列报道实时识别聚合为统一的新闻话题[10],涵盖该新闻的背景、历史动态和最新发展[11][12][13],监测话题的演变和热度[14][15],甚至预测话题未来的走向[16]。另一方面,对于意见性信息去粗存精,呈现有代表性的意见和观点,实现促进公共意见交流的功能。
自动化新闻策展算法涌现的,新闻界一方面应该洞悉其技术原理,思考其对新闻界产生的影响,据此重新反思职业新闻工作者的转型方向,另一方面,鉴于计算机界对策展算法的评判标准多集中在错检率、漏检率等量化指标,新闻界应当从新闻专业主义和人文价值的角度,评估计算机界提供的策展算法在运用于新闻业方面产生的价值风险和新闻理论缺失,弥补工具实用主义主导下算法的天然缺陷,实现人机协作的效率和伦理最优化。
智能算法运用于新闻策展的逻辑和功能是什么?存在哪些风险和伦理问题?职业新闻工作者如何发挥人和专业的优势进行人机协作?本文从计算机与新闻传播的跨学学科视角,从技术原理入手,分析智能化算法运用于新闻策展的运作逻辑和现实功能,探讨智能技术应用于新闻实践中的进步性与局限性,探讨新闻工作者未来可以担当的职能与使命。本文也将从价值观层面审视新闻策展中智能算法存在的伦理风险。


二、人工新闻策展的实践与局限
在传统媒体时代,新闻媒体凭借专业的新闻生产流程和数字技术,对客观世界的发生的事实进行近乎同步的把关,控制特定内容是否可以到达受众,成为唯一的新闻代言人。然而,社交媒体的兴起挑战了专业媒体在时间和速度上的优势[17],使信息得以通过无影灯般的公民记者被发掘出来,并通过开放的网状平台迅速流通,时间性和遍在性上的优势使公众具备了绕开专业媒体接近事实的能力,专业新闻媒体不再具备“真相代言人”的合法性,丧失了信息流通格局中的新闻把关人(gatekeeper)功能。
面对技术环境变化带来的新闻业角色危机,有学者认为,新闻看门人(gatewatcher)或将取代把关人成为专业媒体机构在公共信息交流中的新身份。由于公民“协同合作”生产信息的模式在消灭传播时距的同时也消灭了完整的文本[18],大量碎片、片面、局部的信息被生产出来,专业媒体组织可以整合公民生产的碎片化信息,用清晰的逻辑编排事实,呈现新闻事件的完整叙事,同时,以中立客观的姿态为多元意见提供提供交流平台,维持观点交锋的秩序,在组织公共讨论的过程中重构职业权威。[19]
在传统意义上,策展行为由职业新闻编辑人工完成。新闻编辑可以通过策划内容框架,搭建在线新闻专题,对既有报道进行结构化组织,并随时根据用户的反馈将新报道补充其中,如在“东方之星”沉船事故的报道中,澎湃新闻通过刊发实时消息、图片新闻、记者手记、特稿、HTML5等形式的内容对事故的后果、救援的进展进行实时还原,同时,面对“感谢你无数次游过那片忧伤的水域”和“回到母亲怀抱”这两篇引发巨大社会争议的报道,开放地接纳用来自非专业主体的互动反馈,调整后续组织报道的把关策略和设计逻辑,一定程度上革新了传统意义上单向、固定的新闻生产链。[20]
这类新闻策展虽然相比于传统的生产形态有一定进步,但仍具有显而易见的局限,一方面,“新闻策展”所强调的“去组织化、去科层化”价值内核并未实现,策展组织模式和运行逻辑仍未脱离传统媒体思维主导的生产模式。虽然在这个过程中,专业媒体机构愿意将公众对新闻价值的判断作为决策的参考因素,调整内容再生产的逻辑,形成看似开放、动态的内容决策机制,但是事实上刊出的报道仍然以职业新闻人的作品为核心,较少采用多元主体的发现和判断,无法真正将海量、动态的网络信息纳入生产系统之中。所谓的策展与传统意义上的“专题报道策划”并没有本质上的操作性分野,职业新闻生产的专业控制远远凌驾在公众的开放参与之上,相比于“公开”新闻,仍然更接近传统的“刊出”新闻。
另外一方面,这类策展虽然在理念上强调受众的参与,但是在社交平台和聚合平台得到普遍使用、生产主体裂变为亿级用户节点的背景下,新闻策展依托的生产工具并未发生与时俱进的升级。信息处理能力与待处理的信息规模严重失配,自动化程度维持在较低的水平,因而运作周期长、需要较高的人力物力,限制了整合用户生产内容的能力,也束缚了策划模式的可推广性。在媒体的报道资源较为有限的情况下,只有极少数重大的主题有资格被选择设定为专题,获得被策展的资源,这样的少数新闻实践或许可以成为理想中的新闻生产范本,却注定无法推广成为职业新闻工作者角色转型的常态化实践。



三、智能化新闻策展的技术路径
与人工新闻策展日渐凸显的乏力相对,通过智能算法对大规模新闻进行自动化策展取得了大量的成果。智能化算法通过综合新闻话题的整体信息,包括背景、历史、当前进度、不同意见和讨论等,呈现事件在事实层面和意见层面的全貌。虽然自动化新闻策展技术的成果较为繁杂,但是依据策展对象和逻辑的不同,可以将其分为基于事件演化的事实策展和基于意见过滤的观点策展。下文将从技术原理入手,分析这两类自动化策展算法的进步性,以及其留给人类新闻记者编辑的角色空白。
(一)基于事件演化的事实策展
基于事实演化的新闻策展技术依托于计算机科学中“话题检测与追踪”问题(Topic Detection and Tracking)[21],将发生在特定时间和地点的新闻定义为“事件”,将其背景、后续以及其他与事件相关的活动定义为“话题”。该算法可以通过识别报道边界、锁定新闻话题、追踪话题动态,对同一话题下的海量报道实现碎片化事实的聚合、同质化报道的过滤、将流动的在线新闻数据自动处理为主题组,把非结构化的新闻事实结构化为明确的主题。具体而言,TDT技术包含报道切分、话题跟踪、话题检测、首次报道检测和关联检测五项任务。
在实践中,话题检测和跟踪的具体实现路径存在两种原则性的分野。[22]传统主题追踪算法(Tr-aditional Topic Tracking)看重种子事件在聚合话题过程中的权重,试图基于知识和统计概率构建报道内容之间的语义联系,通过K近邻等算法从动态信息流中挑选出与既有事件关联最紧密的事件,后续报道的相关性判断均以最初的报道为参考标准。
第二种原则认为,随着事件的发展,话题的外延应该是流动、开放的,被称为自适应主题追踪(Adaptive Topic Tracking)。在这种原则的主导下,先验的知识不具有决定性的影响力,最初的新闻事件仅构成了话题原始的轮廓,每当有新的相关事件出现,话题的模型将进行动态修正。即随着外延事件的不断出现,话题的中心逐渐出现漂移。
从新闻编辑来看,上述两种策展算法分别对应着两套策展理念。传统主题追踪算法意味着新闻策展呈现以原始事件为核心的放射状形态,依托核心事件聚合用户生产和上传的碎片化内容,使新闻生产的主体、过程具有去中心化的特征,但生产的内容依然具有中心性。一方面,该策展模式有固定的中心事件,可以将公众的爆料整合在种子事件周围,通过后续的讨论对该事件进行集中深入的阐释,有利于规避公众注意力的迅速转移和记忆的消退,形成了围绕特定事件的公共讨论模式。另一方面,围绕核心事件的延展可以从多个角度全方位展开,只要事件与核心事件存在相关关系,就可以在话题图中拥有一席之地。这种策展模式对多角度延展的包容有助于发挥社交媒体的无影灯效应,基于全面、联系的视角展开话题延展,统筹个别事实与全面情况的关系,促成“宏观真实”的实现。
自适应主题追踪算法更注重话题发展的灵活性,面对事件发展过程中出现的焦点议题变迁,可以迅速地做出响应。如在“东方之星”沉船事故的报道中,就公共讨论的价值而言,澎湃报道风波所引发的关于大众媒体该如何报道灾难的探讨,其新闻价值未必低于“种子事件”。“东方之星”沉船事故,通过将新事件纳入模型考量,可以更真实地顺应话题的发展轨迹,追踪公共事件的外延走向。
因此,从策展的路径取向来看,以上两类算法的逻辑优势呈现出固定与灵活之间的冲突。事实上,在复杂的现实新闻实践中,与其说何种算法更具优势,不如说二者分别适用于不同的新闻情境,但是底层算法设计的分野决定了二者难以在同一套系统中调和兼顾,两种算法范式之间取舍的困境暴露出了机器逻辑的僵化,即使机器可以在语料库训练机的规训下,理解语义、构建事件关系、实现类似于人的理解能力,但是新闻价值的判断并非技术性的数据统计问题,而是价值哲学问题,机器难以通过语义、事件关系等数字化指标作出符合人类社会期许的策展选择,更无法基于这种考量灵活地决定公共讨论的切入点,配置注意力资源。
算法对事件演化的追踪毫无疑问更新了专业新闻机构策展的响应速度和信息处理规模,也会同时产生有待人类编辑发挥作用的价值空缺。参照机器逻辑优势与劣势的坐标系,新闻工作者应该意识到,其在新媒体时代并不是从事传统的收集、整合、理解、呈现海量开放式信息,而是要对每一个新闻事件进行价值判断,践行重要性、显著性、接近性、人情味儿等传统新闻价值,凭借大量的经验构建新闻敏感,锁定话题中值得讨论的议题,对报道的方向进行把关,代替公众行使注意力分配的权力,引导公众进行深度发掘,在公共议程设置层面扮演指挥者的角色。
(二)基于意见过滤的观点策展
意见几乎是所有人类活动的核心,我们的政治态度、对新事物的接受、意见表达、态度的改变,几乎都受到外部意见的影响。因而,意见性内容是新闻媒体传播的重要内容,也会对新闻媒体的社会价值产生重要影响。在互联网上,媒体发布的新闻事件通常会引发内容庞大的用户评论,越来越多的媒体在刊发的内容中选登“网友意见”提供意见交流平台,扮演意见策展人角色。[23]事实上,并非所有的网络评论都是平等的,仅有部分用户可以提供有价值的信息、观点和建议,大量的评论是同质化、情绪化甚至攻击性的低质量内容,具有误导公众的负面社会影响。因而,计算机界设计出自动化观点策展工具[24],识别过滤低质量评论,发现并突出高质量的意见性信息,提高媒体策展效率和质量。
目前评论策展算法主要基于两种路径实现,一种是基于用户投票的策略,通过用户的标记的信息,如点赞、举报记录来对评论进行质量排序,引导公共讨论的话语实现自我优化。不过,基于用户投票的机制有导致人气偏差的风险,对社交投票机制的研究发现[25],言论收获的认同数并不是理性、均衡分布的,评论用户的粉丝量、发表评论的时间都会影响评论的受欢迎程度,并在投票机制的作用下形成强者愈强、弱者愈弱的马太效应,甚至促进意见的极化。
另一种观点策展路径是通过自动化语义分析筛选出高质量评论,有学者通过收集《纽约时报》采纳的线上评论作为训练集(the NYT ‘Picks’ co-mments),锁定了高质量评论的若干指标,包括论证质量、批判性、情感性、可读性、个人经验等[26],算法基于以上标准对评论的语法结构、词汇使用进行分析,锁定低质量和高质量文本的语言特征。相对而言,基于语义分析的机制更加公平地聚焦于文本本身的质量,有助于媒体选择出对受众有参考意义的信息。
以上两种算法路径可以有效地针对互联网中爆炸增长的意见性信息进行观点策展,为用户打捞观点、汇总意见,使用户基于较低的阅读成本,实现高层次的信息交互。但不论是用户投票的策略还是语义分析的策略,都只能做到集成意见,使多元观点呈现在大众传播平台上。与事实型信息的策展类似,算法固然可以高效地搜集、筛选、呈现观点信息,其僵化的机器逻辑却注定无法使对立的观点之间发生“化学反应”,人文价值的缺失导致其无法参透观点背后的诉求和价值观,面对多元的意见争鸣的困境,算法既无法提供问题的解决方案,也无法事实上促进对立观点的和解。
面对智能化技术的冲击,新闻职业工作者可以接受机器对海量内容信息的高效聚合能力,致力于谋求对立观点的和解、为冲突的利益关系和价值观寻求共识性的解决办法。在策展方面,职业新闻工作者的专业价值不应该停留在聚合与呈现观点的初级策展、只是将自己的专业性局限在对意见分布状态的还原上,更应该践行无法被机器取代的高级策展,通过敦促各利益主体之间的协商,引导公共讨论,在真正意义上促进社会整合。



四、算法策展的价值风险与引领
面对智能化算法运用于新闻策展及其对新闻业的参与,新闻界除了从人机协同角度对人类和机器进行扬长避短的分工,还应该意识到,相较于一般的精神产品,新闻产品的特殊属性决定了其在社会生活中扮演着形塑公共价值观的重要角色,机器对新闻策展的介入应该面临新闻界更严格的价值审视和观念引领。除了备受讨论的透明性等[27][28]一般意义上的算法伦理问题,策展算法特有的属性还会诱发一系列独特的风险,职业新闻工作者亟需洞悉算法的缺陷,参与到对算法的价值观引领中。
(一)算法策展的价值风险
1.智能化策展算法存在公平性隐忧。由于智能化算法普遍依赖于大量的训练数据集,其输出结果往往存在明显的输入数据的偏向,即仅能对输入数据中存在的特征进行提取和强化,而输入的数据中不包含的维度不可避免地被选择性无视。对于智能化策展算法来说,其原始数据是网络上的“数字痕迹”(digital trace)[29]。值得注意的是,虽然新媒体技术号称可以带来用户之间的平等,让普通人拥有发言、被关注的机会,但其并不能做到均匀赋权,反而会带来与传统媒体时代“知识沟”相似的媒介使用差异。公众对互联网设备的接近权和利用媒介资源的素养的显著差异会导致不同群体留下的的数字痕迹分布失衡,弱势群体的声音事实上很难具备被算法纳入策展范畴的资格。正如在法哲学中,真正的公平是“矫正的公平”而非“分配的公平”,面对社会群体之间存在数字鸿沟,算法策展对数字痕迹的采集看似是无差别的公平做法,实际上却是对社会结构性不平等的维系和纵容。新闻界应该识破算法貌似“平等无差别”的伪装,意识到算法逻辑内部隐藏的话语霸权,通过专业化的操作矫正群体间的话语权差异,扮演真正意义上的“社会公器”角色,避免媒体在算法驱使下成为少部分优势群体的“扩音筒”。
2.智能化算法无法对策展过程中若干新闻伦理问题进行判断。虽然算法可以通过识别事件之间的语义联系自动构建专题,但是新闻策展并非简单的信息聚合或拼接,新闻产品特性决定了各个微妙的信息片段会加总形成格式塔式的总体框架效果,正如“东方之星”事故中澎湃在“深情”与“煽情”之间的逾矩,新闻事件在切入的角度和尺度上存在巨大的弹性空间。在策展过程中,新闻的不同排列组合、比例分配和版面设置会造成截然不同的传播效果。算法无意识的聚合有可能引发读者在伦理层面的不适,也有可能用隐含的偏见引导公众[30],引发公众的质疑[31]。因而,新闻工作者在被算法解放生产力之后,应该将更多精力投入到新闻伦理的把关上,审视自动化策展新闻中形成的的预设框架,修正算法对于各方当事人、公众的无意识伤害,维护良好的媒介生态。
3.智能化策展算法缺乏对良善价值观的倡导能力。虽然自然语言处理技术使得策展算法可以通过知识表示等技术建立实体之间的关系网络,但是这并不意味着算法真正理解符号背后的价值内涵,在计算过程中,语言被转换成“去价值化”的向量,善与恶只有语义层面的“距离”,却无价值层面的高低,人类社会通过语言符号建立起来的意义传达、价值倡导体系被虚无化。机器不仅无法像富有经验的人工编辑一样拿捏新闻价值,也无法对善良、美好等公共价值进行识别和倡导。由于价值并非可计算的对象,而是复杂的伦理学哲学问题,面对来势汹涌的算法策展,职业新闻工作者需要意识到,尽管机器可以在处理海量信息方面拥有无法企及的效率,却无法具备人类才有的基本价值判断能力,新闻和信息工作者需要在使用算法的过程中,发挥人文关怀和人本精神,将人类的价值观注入新闻产品,完成对算法的价值引领。
(二)算法策展的价值引领
因此,媒体界需要意识到,与媒介生态变化相随的是深刻的技术革新和理念升级,新闻策展并不是躲避智能化技术浪潮的避风港。在媒介生态巨变的时代,完全由记者、编辑进行的人工新闻策展无法承担起公共信息服务、组织公共讨论的责任,更无法助力专业媒体机构的职业合法性重塑。专业媒体机构需要突破传统意义上的职业意识形态,一方面,借助计算机界关于自动化策展技术的前沿成果丰富自身职业内涵,另一方面,在反思自动化策展技术的伦理风险和媒体理论缺陷的基础上实现对算法价值观的引领。
面对策展算法对事实信息的追踪能力,媒体工作者应该将职业角色定位在对新闻价值的敏察上,用人文精神和职业素养发掘话题内涵和外延中具有关注价值的着力点,主导公共注意力配置。而对于算法对于海量意见信息的去粗存精的能力,媒体应该在呈现多元意见的基础上,深入意见争鸣背后的诉求冲突和价值分歧,提供突破困境的解决方案,促进社会协商与整合。只有借助自动化技术和人文精神的合力,媒体界才能化解专业危机,在促进理性、开放、平等、多元的新型公共空间形成的过程中实现新媒介生态下的角色定位。此外,抛开算法和人类在新闻策展业务层面的分工问题,我们也要意识到算法运作逻辑使算法策展存在公平性和新闻伦理层面的隐忧,并且无法实现对良善社会价值的引导。新闻和信息产品的特殊性要求职业从业者用规范的新闻专业性完成对算法的规训,实现对公平、平衡等专业价值观的坚守,在人机协作的模式下继续发挥其社会功能,通过价值引领践行智媒时代的社会责任。

https://mp.weixin.qq.com/s/KRbH8to44AMTuxh-pnhGbw



作者: 刘海明    时间: 2019-2-15 18:59
【案例】美国人工智能计划关注的几个重点领域

2月11日,美国特朗普总统签署了一项行政命令,正式启动“美国人工智能计划” ,以刺激推动美国的在人工智能(AI)领域的投入和发展。

特朗普政府出招了——签署启动”美国AI计划“。

目前,美国在人工智能方面具有一定的领导地位,但其地位一点也不稳定。

虽然世界各国已经启动了刺激人工智能发展的计划,但特朗普政府却几乎忽视了这一话题。

而就在昨天,特朗普签署了一项行政命令,创建“美国AI计划”,这是一项指导美国人工智能发展的高层战略。根据白宫科技政策办公室披露的信息,美国人工智能计划包含五个重点领域,分别是投资人工智能研发、释放人工智能资源、制定人工智能治理标准、构建人工智能劳动力、国际参与及保护美国的人工智能优势。

“美国AI计划”包括五个关键领域:

研究和开发。联邦机构将被要求在其研发预算中“优先考虑人工智能投资”,并报告这些资金如何用于创建一个更全面的政府人工智能投资概述。

释放资源。联邦数据、算法和处理能力将提供给研究人员,为交通和医疗保健等领域的发展提供助力。

道德标准。像白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)这样的政府机构将被要求制定标准,指导“可靠、稳健、可信、安全、可移植和可互操作的人工智能系统”的开发。

自动化。各机构将被要求通过设立奖学金和学徒制,让工人为新技术带来的就业市场变化做好准备。

国际推广。 政府希望与其他国家合作开展人工智能开发,但这样做的方式是保留美国人的“价值观和利益”。

五项原则分别是:

1、美国必须在整个联邦政府、工业界和学术界推动人工智能的技术突破,以促进科学发现、经济竞争力和国家安全。

2、美国必须推动制定适当的技术标准,减少对人工智能技术进行安全测试和部署的障碍,以便创造新的人工智能相关产业,并使当前的产业应用人工智能技术。

3、美国必须培养当代和未来的美国工人,使他们具备开发和应用人工智能技术的技能,为今天的经济和未来的工作做好准备。

4、美国必须培养公众对人工智能技术的信任和信心,并在应用人工智能技术时保护公民自由、隐私和美国价值观,为美国人民充分发挥人工智能技术的潜力。

5、美国必须促进一个支持美国人工智能研究和创新的国际环境,为美国人工智能产业开放市场,同时保护美国在人工智能领域的技术优势,保护美国的关键人工智能技术不被战略竞争对手和敌对国家收购。

白宫(The White House)发文称:

美国人从成为人工智能的早期开发者和国际领导者中获益匪浅。然而,随着全球人工智能创新步伐的加快,我们不能坐视不管。我们必须确保人工智能的发展继续受到美国人的聪明才智的推动,反映美国的价值观,并为美国人民的利益服务。

而其它媒体对此计划的评价却侧重于对细节的担忧:

纽约大学(New York University)研究小组AI Now的联席主任凯特•克劳福德(Kate Crawford)对Science表示,该行政命令“正确地将人工智能作为美国决策的主要优先事项”,但缺乏学术界和民间领袖的参与。

参议院情报特别委员会副主席,美国参议员马克·华纳对CNET表示,他支持这个计划的某些条款, 但他也担心人工智能对就业市场的影响。 华纳表示,政策制定者应谨慎行事。 “如果我们从过去两年中学到了什么,那就是在考虑新兴技术时,美国的政策制定应该更加周到。特别是涉及到可能被滥用的技术时。”

专家称:方向是正确的,但关键看特朗普政府能否以积极方式贯彻执行

人工智能已有60年历史,旨在让机器能够完成被视为是人类或动物智能象征的脑力或体力工作。在过去7年里,一种称为机器学习的技术——算法通过处理示例数据获得技能——使计算机在理解世界方面得到显著提高。这种技术催生了能够读取医学扫描结果的软件,催生了能够回答琐碎问题的虚拟助理,并成为每家大型科技公司产品战略的核心。

特朗普政府计划的一个要素是,向从事AI研究的学者和公司开放一些政府数据。像谷歌母公司Alphabet这样的科技公司,它们有大量数据记录着存储在数据中心的消费者习惯;但在医疗保健等其他领域,它们很难积累推动AI项目所需的数据。

该计划将把联邦资金和资源转向人工智能研究,呼吁在人工智能领域建立以美国为首的国际标准,并对美国工人的再培训进行新的研究。

但该计划不包括人工智能开发的新资金,而且细节内容上也不够清晰。政府没有公布实现既定目标的时间表,而是承诺在未来6个月的某个时候拿出一个更详细的计划。

“美国AI计划”涉及了人工智能发展中一些关键关注领域的问题,但缺乏新的资金是一个重要的问题。迄今为止,已有18个国家启动了国家人工智能战略,其中一半包括新的资金来源。这些数字从澳大利亚和丹麦的约2,000万美元到韩国的近20亿美元不等。

值得注意的是,新计划未能解决移民问题。美国在人工智能领域的领先地位,在一定程度上是由于其吸引外国人才的能力,但专家警告称,研究人员正日益被特朗普政府的反移民言论及其限制签证自由的承诺所阻碍。根据美国国家科学基金会(National Science Foundation)的数据,2016年至2017年间,美国的海外研究生人数下降了5.5%。

哈佛教授Jason Furman表示:

该计划是朝着正确方向迈出的一步,但为了实现既定目标,所需要的不仅仅是承诺。关键的考验是看特朗普政府是否能以积极的方式贯彻执行。这个计划很有抱负,却没有任何细节。

一些AI项目可能会受益于1月份宣布的H-1B技术签证计划的变更。该计划现在将略微偏向于拥有美国高等院校学位的人,这被认为有利于从事先进技术工作的科技公司。

白宫正在起草一份备忘录,将在6个月内公布新计划的实施细节。

中美欧AI产业政策对比:中国全面务实、美国侧重国防、欧盟强调合作

中国:所有国家中最全面、最切实

中国在2017年7月宣布了《新一代人工智能发展计划》,这份规划也是所有国家人工智能战略中最全面的,包括了研发、工业化、人才发展、教育和技能获取、标准制定和法规、道德规范和安全方面的举措和目标。根据规划的三步走目标:

第一,到2020年人工智能总体技术和应用与世界先进水平同步;

第二,到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;

第三,到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。

到2030年,政府计划发展人工智能产业达到1万亿人民币规模,相关产业10万亿元人民币规模。这份计划还表明政府有意招募世界上最优秀的人才,加强对国内AI劳动力的培训,并在促进AI发展在法律、法规和道德规范方面引领世界。

自《新一代人工智能计划》发布以来,中国政府又出台了《促进新一代人工智能产业发展的三年行动计划》,为到2020年人工智能总体技术和应用与世界先进水平同步制定了规划。

具体说,“三年行动计划”推进四项主要任务:(1)专注于开发智能和网络化产品,如车辆、服务机器人和识别系统;(2)强调开发支持AI的系统,包括智能传感器和神经网络芯片;(3)鼓励智能制造的发展;(4)构建行业训练资源库、标准测试及知识产权服务平台、智能化网络基础设施等,完善AI的发展环境。此外,政府还与国家科技公司合作,在特定AI领域展开合作,致力于在研究和产业上取得领导地位。北京还建立了一个价值21亿美元的人工智能研究技术园区。

近年来,我国不断出台人工智能相关政策,大力促进人工智能技术和产业的发展。

2017年“两会”,人工智能首次出现在《政府工作报告》。该年《政府工作报告》中提到:“一方面要加快培育新材料、人工智能、 集成电路、生物制药、第五代移动通信等新兴产业,另一方面要应用大数据、云计算、物联网等技术加快改造提升传统产业,把发展智能制造作为主攻方向。”

美国:更侧重军事AI发展

与其他国家不同,美国政府没有一个协调统一的国家战略来增加人工智能投资或应对人工智能带来的社会挑战。不过,美国国防部发起了一项统筹AI各部门的计划,可见美国目前AI发展更侧重于军事方面。

在奥巴马总统任期的最后几个月,白宫分别在三份报告中为美国的战略奠定了基础。

第一份报告为《为人工智能的未来做好准备》,提出了与人工智能法规、公共研发、自动化、伦理和公平以及安全相关的具体建议。其配套报告《美国国家人工智能研究与发展策略规划》概述了计划公开资助的人工智能研发战略计划。

而最后一份《人工智能、自动化与经济报告》则进一步详细研究了自动化的影响以及需要什么样的政策能够增强AI带来的益处并降低其成本。

特朗普总统领导的白宫对人工智能采取了一种截然不同的、以自由市场为导向的方式。

2017年8月,特朗普邀请科技巨头进白宫参加峰会,图为苹果CEO库克与特朗普。

2018年5月,白宫邀请业界、学术界和政府代表参加人工智能峰会。在会议的讲话中,白宫科技政策办公室副首席技术官Michael Kratsios概述了总统对人工智能的态度。他宣布政府有四个目标:

(1)保持美国在人工智能领域的领导地位。

(2)支持美国工人。

(3)促进公共研发。

(4)消除创新障碍。

为了实现这些目标,Michael Kratsios宣布成立一个新的人工智能特别委员会,就人工智能研发的跨部门重点事项向白宫提供建议,并考虑与工业界和学术界建立联邦伙伴关系。他还明确指出,政府将致力于消除对创新的监管障碍,以使美国企业具有创新和发展的灵活性。

2018年11月19日,美国商务部工业安全署(BIS)出台了一份针对关键技术和相关产品的出口管制框架,同时将开始对这些新兴技术的出口管制面向公众征询意见。

在这份清单中,AI和深度学习被列为一大类。其中包括:

(1)神经网络和深度学习(例如:脑建模、时间序列预测、分类);

(2)进化和遗传计算(例如:遗传算法、遗传算法);

(3)强化学习;

(4)计算机视觉(例如:物体识别、图像理解);

(5)专家系统(例如:决策支持系统,教学系统);

(6)语音和音频处理(例如:语音识别和制作);

(7)自然语言处理(例如:机器翻译);

(8)规划(例如:调度、博弈);

(9)音频和视频处理技术(例如:语音克隆、deepfakes);

(10)AI云技术;

(11)AI芯片组。

此外,被纳入出口管制的技术还包括与AI关系密切的微处理器、先进计算、机器人、脑机接口技术等。从很大程度上讲,这份框架是美国全面收紧AI相关技术共享的重要标志。

今年1月11日,该意见征询意见期结束,正式进入实施阶段。

欧盟:强调内部合作,成立欧洲AI联盟

2018年4月,欧盟委员会通过了一份20页的有关人工智能的文件,列出了欧盟对人工智能的方法。欧盟委员会的目标是:

(1)增加欧盟的技术和工业能力,增加公共和私营部门对人工智能的吸收;

(2)为人工智能带来的社会经济变化做好准备;

(3)确保适当的道德和法律框架准备就绪。关键举措包括承诺增加欧盟在AI的投资将在2020年年底,从2017年的5亿欧元增加到15亿欧元;创建欧洲AI联盟(民众现在即可加入);针对公平性、安全性和透明度的AI道德指导方案。

一个新的人工智能高级小组将作为欧洲人工智能联盟的指导,并将起草一份伦理准则草案供成员国考虑。

该委员会目前正与成员国合作,将在2018年底前制定一项关于人工智能的协调计划。即将出台的计划的目标是“最大化欧盟和国家层面的投资影响,鼓励欧盟内部的协同和合作,交流实践,共同确定未来的道路,确保欧盟作为一个整体在全球的竞争能力。”

除了美国,日本、中国、英国、欧盟、德国等也有国家或区域层面的人工智能发展计划。

2016年7月,日本发布《日本下一代人工智能促进战略》,在工作层面明确了由总务省、文部科学省和经济产业省在技术研发方面的三省合作体制。2017年3月日本召开“人工智能技术战略会议”,并确立了发展“路线图”,主要分三个阶段,以期通过人工智能的运用,实现生产、流通、医疗与护理等领域效率的大幅提高。

2017年7月,中国颁布《新一代人工智能发展规划》,设立了三步走的战略目标,计划到2020年人工智能总体技术和应用与世界先进水平同步;到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。2017年12月,中华人民共和国工业和信息化部还发布了《促进新一代人工智能产业发展三年行动计划(2018-2020年)》。

2017年,英国政府发布《现代工业化战略》报告,直言英国政府将把英国置于人工智能和数据革命的最前沿,并使英国成为世界人工智能和数字驱动型创新的世界中心。英国政府围绕人工智能发布的政策还有《机器人与自动系统2020》、《现代工业化战略》、《发展英国人工智能产业》、《机器人与人工智能:政府对委员会2016-17年会议第五次报告回应》等。

2018年3月,有欧盟智库之称的欧洲政治战略中心发布题为《人工智能时代:确立以人为本的欧洲战略》的报告,建议欧盟鼓励发展人工智能,并努力建立起人与机器的共生关系。它还建议欧盟确立以人为本的战略,把政策目标设定为使人们感到被人工智能赋能,而非被其威胁。

2018年7月,德国出台《联邦政府人工智能战略要点》,希望将AI研发和应用水平提升到全球领先水平。该文件指出,德国应当成为全球领先的人工智能科研场,并将研究成果广泛而迅速地转化为应用;德国同法国合作建设的人工智能竞争力中心要尽快完成并实现互联互通。(本期编稿:熠婧)

资料来源:工业智能化 、装备参考。


编辑:冉玲琳

链接:https://mp.weixin.qq.com/s/UT_2k93tzlH3Ahn9a5rarQ




作者: admin    时间: 2019-3-2 00:28
【案例】

沈浩 等:人工智能:重塑媒体融合新生态





原文链接:https://mp.weixin.qq.com/s/PfHkwPzIyN56aVR-Jfqrjw
编辑:付莎莎

作者: admin    时间: 2019-3-3 12:12
【案例】


本期#马堡传播·前沿报告#迎来的主讲人是北京师范大学新闻传播学院博导、副院长,国家广电总局“新闻出版大数据用户行为追踪与分析重点实验室”主任张洪忠教授。2月26日晚7点半,张洪忠教授在传播学院五楼会议室做了一场题为“异类还是共生:社交媒体中的社交机器人研究路径探讨”的讲座。从机器人在社交媒体中的遍在入手,张洪忠教授以鲜活的案例讲述了人机共生的媒介新形态。通过比对计算机与社会科学领域的社交机器人研究,张教授进而提出了拓展传播研究范式的主张。讲座由传播学院张梅教授主持。传播学院、公共管理学院社会学专业等的近百位教师、研究生参与了张洪忠教授的讲座和讨论。


△讲座现场

张洪忠教授展示的第一个案例是微软小冰。他说,新闻客户端、腾讯QQ、网易云音乐里都有小冰的影子存在,在全球各种语言里,微软小冰共有6.6亿的人类用户,并在金融领域与“万得资讯”“华尔街见闻”合作,因此成为一个大的IP。从小冰延展开,张教授谈到其研究团队与微软合作对机器人写作的一项研究。通过对机器人写作与真人写作作精确的比较测试实验,该项研究证实了机器人写作的优秀表现。但张教授也认为,机器人写作是一把双刃剑。机器人写作虽然会提高新闻工作的效率,但也同时也会在伦理方面带来极大的挑战。在社交媒体上,机器人写作对政治、经济、文化诸方面尤其是政治选举方面的影响,尤其明显。他指出,AI机器人的参与改变了公共话语和调整了舆论意识,已经成为影响当今西方政治选举结果的一个重要变量。他认为,人类社会已经从人与人的关系转变为人与机器的关系。在社交网络中,社交机器人可能成为整个社会的一部分,这就需要对其进行深入研究。


△北京师范大学新闻传播学院博导、副院长张洪忠教授


张洪忠教授指出,目前学界关于社交机器人的研究主要是在计算机学科和社会科学两个领域,计算机学科的研究主要关注的是其背后的技术问题,如社交机器人的开发、社交机器人活动路径的追踪、社交机器人与用户交互行为的测量、仿真模型和预测系统的搭建、网络安全问题的评估等。其中,如何识别社交媒体中的社交机器人不仅是一个热点,也是与传播学学科相近的研究问题。他指出,社交媒体中的内容、关系网络、情感偏向和时间模式等特征既可以被社交机器人模仿,同时也可以据此进行社交机器人与真实用户的甄别。他认为,计算机科学家研发与识别社交机器人类似于病毒与杀毒软件的开发,两者处于紧张的博弈状态。


在社会科学方面,张洪忠教授发现,主要是把社交机器人视为他者,并做了四个方面的研究。首先是社交机器人的传播效果,其次是社交机器人行为的文化批判,如机器人的行为是否违法、是否存在欺诈、是否挑战了人类社会良俗等,再次是政策分析,最后则是人与社交机器人的传播关系研究。他指出,机器人与机器人互动已经成为一种常态,由此产生了多伦多大学的威尔曼教授所称的网络化的个人主义问题。网络个人主义是比一种网络的巴尔干化更加孤独的状态。人们以原子化的个体存在于现实世界,其周围围绕的是虚拟空间中海量的社交机器人,人与人之间的沟通少于人与机器人的沟通。他认为,网络化的个人主义会带来系列的社会研究问题,比如潜意识的幸福感、社会资本等的降低问题。



讲座的最后,张洪忠教授讨论了社交机器人对传播学研究的影响。他指出,随着社交机器人产品迭代加速,社交机器人正在成为信息的内容生产、观念传播和意义表达的重要参与者,人类用户在社交媒体中唯一主体的地位正在消解。社交媒体的生态,正在经历“人”主导向“人+社交机器人”共生状态的转变。社交机器人虽然与真人用户共生于一个网络空间,但基于运行机制的差异性,不能简单地以真人用户的行为规律来研究社交机器人。对社交机器人来说,运行程序的算法设计、接触数据来源等是决定其交互行为的关键因素,社交机器人的人格化特征会越来越明显,从而真正成为一只看不见的手,影响着现实的世界。因此,他认为,过去建立在真人研究基础上的传播学就需要一种研究范式的转换,从而实现传播学研究范式的拓展。

讲座的最后环节,张洪忠教授与现场的师生就社交机器人的图灵测试、社交机器人的行为伦理及社交机器人的可控性等问题进行了互动。针对师生们最为关心的机器人失控问题,张洪忠教授指出,社交机器人的失控问题目前还只是好莱坞电影的想像。他说,人工智能技术的发展有三个阶段。其一是人工智能专项,如基于自然语言的智能语音技术;其二是全能型的人工智能,如能够进行情感陪护、家务劳动的机器人,这种机器人看似智能,但它并没有思想的;其三是有意识的人工智能,有自己的价值观和价值判断,所谓失控应该发生在第三个阶段。他指出,今天的人工智能技术还处于刚刚起步阶段,尚未进入第二个阶段。现在,我们连自己大脑的研究都还只是表皮,更不可能创造一个和我们一样有自我意志的机器人。对于人工智能,一定要在技术逻辑上进行理解,不能把理解建立在好莱坞电影的想象之上。




△师生交流互动现场

原文链接:https://mp.weixin.qq.com/s/9wNL-r5PDE4PpWxP-buXGw
编辑:付莎莎


作者: admin    时间: 2019-3-4 11:54
【案例】


刚刚,全球首个AI合成女主播上岗了!

全球首位AI合成女主播今天正式上岗了。

新华社联合搜狗公司近日在京发布全新升级的站立式AI合成主播,并推出全球首个AI合成女主播。这是继去年双方联合发布全球首个合成新闻主播以来,人工智能与新闻采编深度融合的最新突破性成果。

此次AI合成主播的升级版和新品发布,再次引发全球媒体圈的关注,“今日俄罗斯”电视台网站、英国Daily Mail等海外媒体进行了大篇幅报道。



↑“今日俄罗斯”电视台网站和英国Daily Mail的报道


“今日俄罗斯”电视台网站称,新华社推出了全球首个AI合成女主播,在中国即将召开的两会上,由电脑生成的这名主播将与新华社现有的AI合成男主播一起工作。“新华社对其男主播进行了一系列升级。该主播已从过去的坐着播新闻升级成结合肢体动作的站立式播报,并且使用更有表现力的肢体语言。”

英国Daily Mail报道称,网民对新的主持人表示欢迎;印度媒体DaytodayGK称,除了嘴唇动作稍显僵硬外,她几乎可以以假乱真。


↑印度DaytodayGK、美国Futurism、约旦AI Bawaba的报道


美国Futurism报道称,“新小萌”从来没有上过新闻专业课,因为她并不是一个真正的人。但是新华社称,每一位AI合成主播都可以“每天24小时在其官方网站和各种社交媒体平台上工作,从而减少新闻生产成本、提高生产效率”。

约旦媒体AI Bawaba称,近年来,中国已成为全球领先的人工智能发展中心之一。


↑美国KTLA5的报道


此外,一周以来,还有英国The Daily Star、阿联酋The National、美国KTLA5等多家海外媒体对AI合成主播的升级予以了关注。

作为新华社的新员工,AI合成主播上线后立即投入到新闻报道中并实现量产,目前已播报新闻3400余条,累计时长达10000多分钟,参与了包括第五届世界互联网大会、首届进博会等重要报道,是助力新华社新闻生产的新生力量。据AI合成主播项目负责人齐慧杰介绍,此次升级在声音和图像两大引擎上有了较大的优化和突破,用户的新闻视听体验也进一步增强。

对此,美国财经新闻网站Quartz称,中国在淘汰传统记者的路上又迈出了一大步。


↑美国Quartz和阿联酋The National的报道


许多媒体人也担心自己会被AI合成主播取代。阿联酋媒体The National报道称,这也许是世界各地记者都不愿报道的新闻,中国刚刚发布的另一名AI主播,可能将偷走我们的工作,这虽然称不上灾难性消息,但仍然可能会让那些报道此事的人感到不安。


↑《参考消息》和英国The Daily Star的报道


而新华社《参考消息》援引“今日俄罗斯”电视台网站报道称,虽然AI合成主播经过一系列升级,更加栩栩如生,但对机器人革命感到担忧的记者可以安心,因为AI合成主播仍然需要真人作者和编辑提供播报的内容。


链接:https://mp.weixin.qq.com/s/jxpBU0B1YQSHLCUN9m3bwg

编辑:陈茗



作者: admin    时间: 2019-3-4 14:57
【案例】


“全国两会时间”正式开启 小度机器人担任AI记者进行报道

3月3日,全国政协十三届二次会议在人民大会堂正式开幕。2019年是新中国成立70周年,是全面建成小康社会、实现第一个百年奋斗目标的关键之年,今年的全国两会,格外引人注目。目前已有3000多名中外记者报名采访全国两会,曾经在故宫站过岗、春晚打过卡的百度AI机器人小度,也因工作能力突出首次担任AI记者进入中央广播电视总台协助进行两会报道。


在2019全国两会的新闻中心,小度还与中央广播电视总台央视记者宋菀进行对话,这是小度首次出镜央视两会现场直播报道,也是中央广播电视总台首次启用机器人记者。据宋菀介绍,此次参加两会的小度是专门为今年两会报道特别定制的机器人,在上岗之前学习和储备了很多有关两会的知识,堪比一本“活”字典。今年央视两会报道将通过连线记者和小度互动,小度智能“预测记招热词”将通过搜索全网相关的文章、网友评论和热搜,回答记者提出的问题,预测本场记招的热词。此外,小度还将为媒体工作者提供大会区域位置查询、人脸识别、拍照、周边查询、聊天娱乐等等智能服务,有问题,找它就对了。



据了解,小度机器人是百度自主研发的智能机器人,集合了自然语言处理、对话系统、语音视觉等AI技术,从而自然、流畅地和用户进行信息、服务、情感等多方面的交流。小度机器人的强大功能背后是百度 AI 深厚的技术支撑,百度大脑目前已通过开放平台对外开放158项技术和能力,使开发者能够进入百度云,轻松地将AI应用到新开发和已开发的应用程序中。百度大脑开放平台形成了从深度学习框架、深度学习实训平台、通用AI能力、定制化训练平台、软硬一体模组到整体解决方案的全栈式开放平台,极大地推动了AI商业化进程。
最近,第十三届全国政协委员、百度董事长兼CEO李彦宏在两会提交了三项提案,均与人工智能相关。第一,提议构建智能交通解决方案,让老百姓出行更顺畅;第二,提议完善电子病历管理制度,促进智能医疗应用探索,助力“健康中国”战略实施;第三,提议加强人工智能伦理研究,打造智能社会发展基石。
其实,这已经是李彦宏连续五年提交与人工智能相关的提案。从2015年的“中国大脑”计划,到2016年希望“加快制定和完善无人驾驶汽车相关政策法规”,2017年的三项提案全部聚焦在人工智能,再到2018年希望国家出台政策鼓励人工智能的开放平台和关于无人驾驶的提案,这些年来李彦宏探索新技术、互联网、人工智能对于社会价值的思考从来没有停止,他认为,随着技术应用不断迈向成熟,产业开放合作的时代正在到来。“我们愿做人工智能这艘‘巨轮’上的‘甲板’,为更多创新者提供支持,共同推动产业健康发展。”
今年两会期间中央广播电视总台首次启用AI记者小度,将为现场记者带来更高效便捷的媒体服务,也通过直播报道让更多人有机会一览人工智能的风采。未来,期待以百度 AI 为代表的科技企业可以把越来越多的新技术应用到各领域,为中国智能化腾飞贡献力量。

来源:手机中华网


编辑:陈茗

作者: admin    时间: 2019-3-4 21:17
【案例】

AI合成主播亮相两会,其噱头价值与实用价值之比较

全国两会新闻不断,你看过两位AI合成主播播报的新闻了吗?


3月3日,新华社联合搜狗开发的全球首位AI合成女主播“新小萌”正式上岗,与名为“新小浩”的AI合成男主播一同进行两会报道。

2018年11月的乌镇互联网大会上,全球首个AI合成主播“新小浩”正式诞生。四个月后,AI合成主播已经从过去只能坐着播报新闻升级为站立式播报。据了解,AI合成主播“入职”新华社以来,已生产3400余条新闻报道,累计时长达10000多分钟。

一手缔造“新小萌”的搜狗CEO王小川今天接受媒体采访时透露,他带着AI合成主播来开两会,希望能够帮他做一些应对。目前尚不清楚,AI合成主播能够帮助小川应对何种事情。

AI合成主播背后的黑科技到底是什么?未来主播这一岗位是否会被人工智能彻底取代?
技术并不新鲜
日本早就玩起了虚拟主播,比“新小浩”还要早。

虚拟主播 Kizuna

2017年11月,一位被玩家爱称为“人工智障爱酱”的日本虚拟主播在Youtube上开始流传。这位名叫“Kizuna AI”的3D萌妹经常抖机灵,时而恶意卖萌地说一些不着边际的话,时而吐槽自黑,吸引了众多宅男的目光。



虚拟主播 Yomiko



看到虚拟主播如此受欢迎,2018年4月日本放送协会(NHK)宣布在节目中使用AI主播“Yomiko”播报新闻。“Yomiko”在工作日晚间23时10分播出的“NEWS CHECK 11”节目中登场,每周播报一次约5分钟的新闻。

这位AI主播“Yomiko”是通过CG技术制作,模拟真人发音的AI主播。技术人员事先请NHK旗下的主播阅读大量新闻稿件并录音,然后将这些语音数据分解为10万个音素,再通过“Yomiko”播报出来。为了让播报更加自然,技术人员还让Yomiko事先记住了日本全国的地名、专有名词、口音等。

新华社和NHK分别推出的AI合成主播有一个明显的区别,前者采用的是真实人脸模式,后者则是虚拟卡通人物。

除去上述差异外,背后采用的技术有诸多相似之处。

首先是动作捕捉技术。这种技术最早被用于上个世纪的物理研究,专门用来分析物体的移动特性。

随着体育界大量应用动作捕捉技术,影视动画和游戏行业也加入了这个行列。在探访大片制作现场的时候,如果你看到有人穿着一件镶嵌着无数白点的黑衣服在做奇怪的动作,就一定是在给动态捕捉拍摄底板。通过把人体关节动作在计算机中重新解析和配上肌肉,动画人物就能做出和演员一模一样的动作。

其次是人脸识别技术。人脸识别其实和动作捕捉在原理上没有太多的区别,只是人脸肌肉的移动精密度更高,更难以捕捉细节而已。随着人脸识别算法的进步,现在软件能够通过摄像头捕捉到的面部表情被简化成80多个位点,在卡通人物的脸上移动相应的位点就能模拟出人做的表情。

最后就是语音合成技术。该技术能将任意文字信息实时转化为标准流畅的语音朗读出来,相当于给机器装上了人工嘴巴。至于转化声音则更简单,目前市面上有不少免费的声音转换器。

NHK模式的定制化虚拟AI主播,表情、唇动、肢体动作都相对较少。新华社的真人模式突破了以往语音图像合成领域中只能单纯创造合成形象、并配合语音输出唇部效果的约束,极大地提高了观众信息获取的真实度。

噱头价值远大于实用价值?

某种意义上,AI合成主播并非什么了不起的黑科技,只是目前已经在大规模使用的动作捕捉、人脸识别、语音合成等技术在媒体领域的一次实际应用而已。

而且,AI合成女主播“新小萌”的缺陷显而易见。

最明显的是,“新小萌”声音机器感强,嘴唇动作僵硬。有网友表示听她播报时间长了会感觉不舒服,还有网友质疑“就是录了几个主播的状态,换了个嘴,嘴还弄的贼尬”。此外,还有诸如表情僵硬、大小脸等问题。

人类新闻主播的工作不仅仅是播报新闻信息,也会与观众进行情感交流互动。相比之下,“新小萌”目前仍停留在播报阶段。

例如,在灾难发生时,人类新闻主播会自然流露出对于不幸的悲悯与同情;在节日来临时,人类新闻主播会以一种欣喜昂扬的姿态面对受众。这些表情、语调,AI合成主播很难达到人类主播的水平并引发观众内心的共鸣。

此外,AI合成女主播不具备独立思考的能力,而人类新闻主播可以在直播过程中对新闻稿件进行随机应变的灵活处理,这也是人类新闻主播不可替代的部分。

换句话说,AI合成主播离人类主播的水平还差得很远。有评论人士表示,现阶段AI合成主播的宣传和噱头价值远远大于实际应用价值。

搜狗CEO王小川也曾表达过AI合成主播无法取代人类的观点。王小川说,搜狗于2018年推出的AI合成主播就是在新闻播报领域去替代主播做一些简单的重复性事情,成为主播的一个分身。

他强调,如今的机器还没有掌握像知识、推理概念的能力,还不具有创造性,在这种层面上机器与人的距离相差很远,机器只能做一些重复性的事情,更谈不上机器取代。


编辑:陈茗



作者: admin    时间: 2019-3-11 23:13
【案例】
《大西洋月刊》:人工智能将如何重塑人类社会秩序?文章来源:钛媒体

作者:长歌




摘要: 正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。

图片来源@视觉中国

耶鲁大学社会科学与自然科学教授尼古拉斯·克里斯塔基斯(Nicholas Christakis)在即将于4月出版的《大西洋月刊》上撰文称,人工智能技术不仅会给我们带来便利,还有可能在悄无声息间影响人类社会的基本秩序。


数十年来,人们一直在担心机器人可能会通过何种方式改变我们的生活。这也成为各种科幻小说热衷的主题。20世纪40年代,人类与人工智能之间的广泛互动似乎还遥遥无期,但艾萨克·阿西莫夫(Isaac Asimov)却在那时提出了着名的“机器人三大定律”,旨在防止机器人伤害我们。

第一条是:“机器人不得伤害人类,且应确保人类不受伤害。”它的根源在于,认为机器人会通过直接互动对人类产生影响。

回想一下经典的科幻电影:C-3PO和R2-D2与义军同盟合作,在《星球大战》中挫败帝国;或者《2001太空漫游》里的HAL 9000以及《机械姬》里面的Ava都策划谋杀它们假意服从的主人。

虽然这些作品都充满想象力,但却并没有把重点放在人工智能更广泛、更重要的社会影响上——人工智能可以对人类之间的互动方式产生具体影响。

当然,激进的创新之前也曾经彻底改变过人类共同生活的方式。5000到1万年前,城市的出现导致游牧民族减少,人口密度增加。无论是作为个体还是集体,我们都适应了这种状况(例如,这些新的环境更有可能引发传染病,而我们已经进化出相应的抵抗力)。最近,包括印刷机、电话和互联网在内的技术发明彻底改变了我们存储和传播信息的方式。

然而,虽然这些创新十分重要,但却并未彻底改变人类的基本行为,而这些基本行为也构成了我所谓的“社会套件”:这是我们历经数十万年进化出来的一系列关键能力,包括爱情、友谊、合作和教学。无论生活在城市还是农村,也无论是否使用现代科技,这些特征的基本轮廓在全世界范围内都高度一致。

但在我们中间加入人工智能可能会带来更大的破坏。特别是当机器的外观和行为与我们相似,并深入地渗透到我们生活时,它们可能会改变我们之间恋爱或交友的方式——不光是影响我们与相关机器之间的直接互动,还会影响我们人类彼此之间的互动。

实验带来的启示

我在耶鲁大学的实验室里做了一些实验,跟我的同事对这种效应如何发挥作用展开探索。在其中一项实验中,我们让一小群人与人形机器人一起在虚拟世界中铺设铁轨。每组由三个人组成,他们跟一个蓝白两色组成的小型机器人围坐在一张方桌四周,使用平板电脑工作。

我们通过程序让这个机器人偶尔犯一些错误,而且会承认自己的错误:“对不起,伙计们,我这轮犯了错误。”它调皮地说,“我知道这可能很难相信,但机器人也会犯错。”

事实证明,这个笨拙且懂得忏悔的机器人通过改善人类之间的沟通,帮助团队提升了表现。他们变得更加放松,也更加健谈,不仅会安慰犯错的同伴,还会经常在一起开怀大笑。与之相比,对照组的机器人只会冷冰冰地阐述信息,在团队合作方面显得逊色不少。

在另一个虚拟实验中,我们将4000个人类受试者分成大约20个组,并在组内为每个人分配“朋友”;这些友谊形成了一个社交网络。这些小组之后都领到一项任务:每个人必须在三种颜色中选择一种,但每个人选择的颜色都不能与其社交网络中指定的朋友的颜色相同。

受试者不知道的是,一些小组包含的机器人会因为内置的程序而故意偶尔犯错。与这些机器人直接接触的人类变得更加灵活,并且会主动避免那些可能对某个人有效,但却对整个小组无效的解决方案。更重要的是,由此产生的灵活性遍布整个社交网络,甚至会影响那些与机器人没有直接联系的人。

因此,这些容易犯错的机器人所在的小组,整体表现总是优于不会犯错的机器人所在的小组。换句话说,机器人能帮助人类来帮助他们自己。

这两项研究都表明,在我称之为“混合系统”的地方,也就是人类与机器人展开社交互动的地方,正确地部署人工智能可以改善人类彼此之间的关系。其他研究结果也印证了这一点。例如,政治学家凯文·芒格(Kevin Munger)下令某种机器人在人们通过互联网向其他人发送种族主义言论之后,对此进行干预。

他发现,在某些情况下,如果机器人只是简单地提醒肇事者,他们的攻击目标是一个人,此人的感情可能受到伤害,就可以令这名肇事者在一个多月的时间内减少种族主义言论。

但是,在我们的社交环境中加入人工智能,也会降低我们的行为效率和道德水准。在另一个实验中,我们希望探索人工智能如何影响“公地悲剧”。这个概念指的是,每个人的自私行为汇总起来可能对我们的共同利益构成破坏。

在实验中,我们向几千名受试者提供资金,以供他们在好几轮网络游戏中使用。在每一轮中,受试者被告知可以保留他们的钱,也可以将一部分或全部的钱捐赠给邻居。如果他们捐款,我们会捐出同样的金额,使他们的邻居收到的钱增加一倍。

在游戏初期,三分之二的玩家采取了无私的行为。毕竟,他们意识到在一轮游戏中对邻居慷慨捐赠,就可能促使邻居在下一轮游戏中对自己慷慨捐赠,从而建立互惠的规范。

但从自私和短视的角度出发,最好的结果其实是留下钱不捐,等着邻居给自己捐钱。在这个实验中,我们发现只要添加一些冒充人类玩家的自私机器人,就能推动整个小组采取相似的行为。最终,人类玩家完全停止了合作。于是,机器人把一群慷慨大方的人变成了自私自利的混蛋。

我们来思考一下这项发现的含义。合作是人类这个物种的一项关键特征,对社会生活至关重要。信任和慷慨也是成功群体区别于不成功群体的关键特征。如果每个人为了帮助自己所在的群体而展开投入和牺牲,大家都会受益。然而,当这种行为模式被打破时,公共物品的概念就会消失,每个人都会受到损害。

人工智能可能会极大地降低我们的合作能力,这是一件非常令人担忧的事情。

现实生活的例子

事实上,现在已经有一些真实例子让我们领教了人工智能如何在实验室之外败坏人类之间的关系。一项在2016年美国总统大选前针对570万Twitter用户进行的研究发现,一些俄罗斯帐号(其中有一些由机器人操纵)经常通过跟非恶意帐号相似的方式转发信息,对保守派用户产生的影响尤其明显。

通过利用人类善于合作和好为人师的特征——这也是社交套件的两个特征——机器人甚至影响了没有与之直接互动的人,令美国的选举出现两极分化。

简单的人工智能所产生的其他社会影响每天都在我们周围发生。父母们看着他们的孩子咆哮着向Alexa或Siri这样的数字助理发出粗暴的命令,他们开始担心这种粗鲁行为会影响孩子们待人接物的方式,或者担心孩子与人工智能的关系会干扰甚至取代人际关系。

不久前,麻省理工学院的科技和社会学专家谢里·特克尔(Sherry Turkle),在给他的儿子买了一台玩具机器人后对《大西洋月刊》说,儿童成长过程中的同伴如果是人工智能,而不是人类,那么他们可能就会缺乏同理心。

随着数字助理无处不在,我们已经习惯于跟它们交谈,就好像它们也有感情一样。茱蒂丝·舒勒维茨(Judith Shulevitz)去年曾经阐述过我们中的一些人是如何开始将它们视为知己,甚至把它们当做朋友和治疗师。

舒勒维茨本人说,她向谷歌助手透露了一些连她的丈夫都不知道的事情。如果我们在与设备密切交谈时感觉越来越舒服,那么人类之间的婚姻和友谊会发生什么变化?

由于商业需要,设计师和程序员通常会开发各种能够让我们感觉更好的设备,但却可能无法帮助我们自我反思或思考痛苦的事实。随着人工智能渗透到我们的生活之中,我们必须面对这样一种可能性:它会阻碍我们的情绪,抑制人与人之间的深层关系,导致我们不再那么设身处地为别人着想,甚至变得更加肤浅和自恋。

所有这一切,最终可能以我们意想不到的方式改变人类社会,我们甚至需要将它当做一种政体来对待。我们是否希望让机器影响孩子的善良天性?我们是否希望机器影响成年人的性行为?

英国德蒙福特大学人类学家凯瑟琳·理查森(Kathleen Richardson)更担心后一个问题。作为“反对性爱机器人运动”的主席——没错,性爱机器人已经成为一种初级现象,所以为反对它们而掀起的运动不算杞人忧天——她警告说,这种机器人们将会令人们丧失人性,并可能导致用户退出真正的亲密关系。我们甚至可能不再单纯把机器人当成满足性欲的工具,还会以同样的态度对待他人。

其他观察家认为,机器人可以从根本上改善人类之间的性行为。

在2007年出版的《跟机器人谈恋爱滚床单》(Love and Sex With Robots)一书中,从反传统的国际象棋大师变身商人的大卫·莱维(David Levy)考虑了“具有情感吸引力和性诱惑力的机器人”所带来的积极影响。他认为有些人会更喜欢机器人配偶,而非人类伴侣(事实上,去年已经有一名日本人与人工智能全息影像“结婚”)。

性爱机器人不会传播性病,也不会意外怀孕。它们可以为寡廉鲜耻的实验和实践提供各种机会——从而帮助人类成为“大师级情人”。有基于此,再考虑其他因素的影响,莱维认为与机器人发生性行为是道德的,在某些情况下甚至是理所当然的。

事实上,对于我们大多数人而言,在遭遇这种跟亲密关系有关的人工智能难题之前,应该还是会率先遇到更为日常的挑战。毕竟,无人驾驶汽车的时代已经到来。这些车辆有望大大减少困扰人类驾驶员的疲劳和分心问题,从而防止事故发生。但是它们会对人类产生哪些其他影响呢?

驾驶是一种非常现代的社交互动,需要高水平的合作和社会协调。我担心的是,无人驾驶汽车会剥夺我们锻炼这些能力的机会,导致我们的能力萎缩。

这些车辆不仅会通过程序来承担驾驶职责,从而篡夺人类做出道德判断的权利(例如,当碰撞不可避免时,哪个行人会被撞击),还会影响没有根它们直接接触的人类。例如,当驾驶员以稳定不变的速度与自动驾驶车辆共同行驶一段时间后,可能会精神松懈,注意力涣散。

因此,当他们驶入只有人类驾驶员的高速公路后,就更有可能发生事故。另外,经验可能表明,与完全遵守交通法规的自动驾驶车辆一起驾驶,实际上可以提高人类驾驶员的表现。

无论如何,我们都会肆无忌惮地开发各种新型人工智能,而不会首先考虑这些社会溢出效应——我们也经常称之为外部性。我们在管理人工智能对车外人员产生的涟漪效应时,也投入了足够的努力和独创性,就像开发无人驾驶汽车的硬件和软件一样。毕竟,刹车灯之所以设计在车尾,主要不是为了你自身的利益,更多地是考虑到你身后其他人的利益。

新的社会契约

1985年,就在阿西莫夫制定“机器人三大定律”40年后,他又增加一条:机器人不可从事任何伤害人性的事情。但他在如何评估这种伤害时却陷入挣扎。“人类是一个具体的对象,”他后来写道,“可以估计和判断一个人的受伤情况。而人性却是抽象的。”

如果集中精力关注社会溢出效应,或许可以有所帮助。其他领域的溢出效应推动了法律法规的建设和民主监督的健全。无论是涉及污染水源的公司,还是在办公楼里散布二手烟的烟民,一旦某些人的行为开始影响其他人,社会就可能会介入。

由于人工智能对人与人之间的互动会产生严重而深远的影响,而且速度快、范围广,我们必须系统地调查可能出现的二阶效应,并讨论如何才能代表共同利益对其展开监管。

已经有各种各样的研究人员和从业人员(包括计算机科学家、工程师、动物学家和社会科学家)开始齐心协力发展“机器行为”学科,希望将我们对人工智能的理解建立在一个更健全的理论和技术基础之上。这个学科并不仅仅将机器人视做人造物体,而是将其视为一种新的社会行动者。

这方面的研究非常迫切。在不久的将来,内置人工智能的机器可以通过编程或独立学习(我们将赋予它们这种能力),展示出与在我们看来非常奇怪的智力和行为。

我们需要快速区分哪些只是看上去古怪,哪些是实实在在的威胁。关于人工智能,我们最关心的是它可能影响人类社会生活的核心元素,也就是那些让我们这个物种得以繁衍生息的特征。

启蒙运动哲学家托马斯·霍布斯(Thomas Hobbes)认为,人类需要一份集体契约来阻止我们变得杂乱无章。他错了。早在我们组建政府之前,进化就为人类提供了一套社会套件,让我们能够和平而有效地生活在一起。在人工智能尚未诞生的世界里,通过基因遗传的爱情、友谊、合作和教学能力不断帮助我们共同生活。

不幸的是,人类没有进化出与机器人共同生存的天赋能力。因此,我们必须采取措施,避免它们在与我们共处的过程中造成破坏。随着人工智能更深入地影响我们的生活,我们可能还需要建立一种新的社会契约——只不过,这次的契约对象是机器,而不是其他人类。


(注:本文所有观点仅代表作者本人,均不代表凤凰网国际智库立场)

编辑:何林

https://news.ifeng.com/c/7kx0zD5SWUi





作者: admin    时间: 2019-3-23 20:38
【案例】
报告 | 欧盟可信人工智能的伦理指南(草案)介绍
欧盟委员会的人工智能高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG)于2018年12月发布了《可信人工智能伦理指南草案》,该指南提出一个可信人工智能框架,强调伦理规范性和技术健壮性,并提出总计10项可信人工智能的要求和12项用于实现可信人工智能的技术和非技术性方法,同时设计出一套评估清单,便于企业和监管方进行对照。当前我国大力发展人工智能产业,长远来看,技术安全可靠且合乎人类社会伦理规范至关重要,因此该指南草案对我国制定相关准则具有一定的借鉴意义。同时,对于力图进入欧盟市场的国内人工智能企业而言,应密切关注欧盟的相关监管要求,并为此做好准备。

file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml7576\wps11.jpg

一、可信人工智能的伦理指南综述
2018年4月25日,欧盟委员会在制定了欧盟人工智能(AI)愿景,同时设立了AI高级专家组(High-Level Expert Group on Artificial Intelligence, AI HLEG),目前该专家组共由52名专家组成。《可信AI的伦理指南草案》即由AI HLEG在2018年12月18日发布,目前处在公开征询阶段,预计正式版将于2019年3月发布。
欧盟《可信AI的伦理指南草案》主要分为三个章节(见图1):第一章通过阐述应遵循的基本权利、原则和价值观,确定AI的伦理目标;第二章为实现可信AI提供指导,列举可信AI的要求,并概述可用于其实施的技术和非技术方法,同时兼顾伦理准则和技术健壮性;第三章提供了可信AI的评测清单。


1:欧盟可信AI框架
二、欧盟AI伦理的五项原则及相关价值观
1)福祉原则:“向善”
AI系统应该用于改善个人和集体福祉。AI系统通过创造繁荣、实现价值、达到财富的最大化以及可持续发展来为人类谋求福祉,因此,向善的AI系统可以通过寻求实现公平、包容、和平的社会,帮助提升公民的心理自决,平等分享经济、社会和政治机会,来促进福祉。
2)不作恶原则:“无害”
AI系统不应该伤害人类。从设计开始,AI系统应该保护人类在社会和工作中的尊严、诚信、自由、隐私和安全。AI的危害主要源于对个体数据的处理(即如何收集、储存、使用数据等)所带来的歧视、操纵或负面分析,以及AI系统意识形态化和开发时的算法决定论。为增强AI系统的实用性,要考虑包容性和多样性。环境友好型AI也是“无害”原则的一部分。
3)自治原则:“保护人类能动性”
AI发展中的人类自治意味着人类不从属于AI系统也不应受到AI系统的胁迫。人类与AI系统互动时必须保持充分有效的自我决定权。如果一个人是AI系统的消费者或用户,则需要有权决定是否受制于直接或间接的AI决策,有权了解与AI系统直接或间接的交互,并有权选择退出。
4)公正原则:“确保公平”
开发人员和实施者需要确保不让特定个人或少数群体遭受偏见、侮辱和歧视。此外,AI产生的积极和消极因素应该均匀分布,避免将弱势人口置于更为不利的地位。公正还意味着AI系统必须在发生危害时为用户提供有效补救,或者在数据不再符合个人或集体偏好时,提供有效的补救措施。最后,公正原则还要求开发或实施AI的人遵守高标准的追责制。
5)可解释性原则:“透明运行”
在伦理层面,存在技术和商业模式这两类透明性,技术透明指对于不同理解力和专业知识水平的人而言,AI系统都可审计和可理解;商业模式透明指人们可以获知AI系统开发者和技术实施者的意图。
三、实施AI系统的潜在问题
1)数据主体权利保护问题
AI可让公共或私人实体更有效地识别出特定个人。为了维护欧洲公民的自主权,需要在AI中合理使用监控技术。实现可信AI应当区别个体识别与个体跟踪之间的差异,以及有针对性的监视和普遍监视之间的差异,这点可以参照“一般数据保护条例”(GDPR)第6条(该条规定,只有具有有效的法律依据,数据处理才合法)。
2)隐蔽AI系统问题
人们应当知道其交互对象是人还是机器, AI开发和部署人员有责任并且需要可靠地实现这一点。AI开发和部署人员应确保人们可了解或通过请求并验证他们正在与AI进行交互。人与机器之间的边界模糊会带来如依附、影响或降低生而为人所应具有人生价值之类的恶果,因此发展人形机器人更应经过仔细的伦理评估。
3)偏离人类基本权利、未经同意的带有普遍性针对公民进行标准化评价问题
欧盟注重公民的自由和自治,大规模的规范性公民评价(如“道德人格”或“伦理完整性”等)可能危及这些价值观,尤其是使用时背离人类基本权利,使用不合适、目标不明确或者传导偏差的情况下,更是如此。当在有限的社会领域实行公民评价时,人们应该获知完全透明的程序,并知晓有关评分过程、目的和方法的信息,还可选择退出评分机制。
4)致命性自主武器系统(LAWS)问题
LAWS可在没有人为控制的情况下运行,但最终人类必须对所有伤亡负责。目前,众多国家和行业正在研究和开发致命自主武器系统,包括能够自主选择攻击的导弹、具有认知能力的自主杀人机器等,这都带来了基本的伦理问题。
5)其它潜在的长期问题
当前所有的AI均是针对特定领域的,但随着技术的发展,可能出现机器觉醒、或者实现自我改善的通用AI(AGI)等。虽然有些问题目前看来似乎还很遥远,但需要及早关注并投入资源,尽量减少对长期风险、未知数和“黑天鹅”认识的不确定性。
四、如何实现可信AI
报告提供了关于如何实施和实现可信AI的相对完整的指南,并提出了实现可信AI的10项基本要求,以及实现这些要求的方法。
(一)可信AI的基本要求解释
可信AI是将一般性和抽象性的伦理准则融入到AI系统和具体应用中。AI HLEG共提出10项要求,并按字母顺序排列,这10项要求均同等重要。针对不同的应用领域和行业,应根据特定环境进行评估。
1)可追责性
良好的AI管控应当包括可追责机制,根据目标不同选择也较多样化,如金钱补偿(无过失险)、缺陷调查、无赔偿的和解等。可追责机制的选择依据是行为的性质、重要性及自主性等级等。在AI歧视案例中,解释和道歉是必备的。
2)数据治理
数据收集过程中将不可避免包含偏见,因此应进行删减。此外,必须确保对训练数据的仔细分类,以及验证和测试,还要将匿名化的数据划分为多个子集,保证某些数据(例如来自同一人的图谱数据)不会同时进入训练和测试环节。
3)普惠性设计
系统的设计应面向所有公民提供产品或服务,无论其年龄、残疾状况或社会地位如何。AI应用程序不宜采用一刀切的方法,而应以用户为中心,并考虑人类的各种能力、技能和要求。
4)AI自主性的管控
确保诸如安全性、准确性、适应性、隐私性、可解释性、遵守法治和符合伦理等属性的正确方法,在很大程度上取决于AI系统的具体细节、应用领域、对个人、社区或社会的影响程度,以及其自主性水平。根据AI系统的应用领域和对个人、社区或社会的影响程度的不同,需要实施不同水平的管控。
5)非歧视
使用AI出现的直接或间接的歧视,可导致对特定群体的偏见和边缘化。控制算法的人可能会故意将某类群体排除在外。如,故意伤害可以通过明确操纵数据以排除某些群体来实现。伤害也可能来自于消费者偏见或不公平竞争,例如通过共谋或不透明市场手段造成价格同质化。
6)尊重和强化人类自治
AI系统的设计不仅要维护权利、价值观和原则,还应保护公民的多样性,使其免受AI技术所带来的政府和私人侵权行为的影响。AI产品和服务,可能通过极端个性化、潜在操纵诱导个人选择。用于帮助用户的系统,必须为用户提供详细的支持,促进其自己的偏好,并设置限制防止系统干预,确保用户的福祉由其自己定义,这是系统功能设计的核心。
7)隐私保护
隐私和数据保护必须在AI系统生命周期的各个阶段得到保证。这包括用户提供的所有数据,以及在与AI系统交互过程中生成的关于用户的所有信息。组织必须注意数据是如何使用并影响用户的,确保完全遵循GDPR和其他有关隐私和数据保护的可用法规。
8)健壮性
可信AI要求算法安全、可靠且足够稳健,以便在AI系统的设计、开发、执行、部署和使用阶段处理错误或不一致,并且能够应对错误输出。技术健壮性一般体现在以下四个方面:可靠性和可重现;精确性;弹性;应急预案。
9)安全性
安全性是指确保系统确实完成其应该做的事,而没有伤害到用户、资源或环境,包括使意外结果和系统行动错误最小化。应制定确认和评估与使用AI产品和服务相关的潜在风险的流程。此外,需要正式的机制来衡量和指导AI系统的适应性。
10)透明性
透明性是指减少信息不对称。可解释性作为透明性的一种形式,需要能够描述、监督和重现AI系统做出决策和学习、适应环境的机制,以及系统使用和创立的数据的来源和动态变化。对于使用人类数据或影响人类或可能产生其他道德上重大影响的所有模型,应明确公开关于数据来源、开发过程和利益相关者的选择和决策。
(二)实现可信AI的技术和非技术方法
为使AI系统满足上述十项要求,AI HLEG提出了实现可信AI的主要途径,并指出可在开发流程的各个层次(分析、设计、研发和使用)采用5个技术性方法和7个非技术性方法,同时该流程也是动态和持续循环的,如图2所示。

file:///C:\Users\ADMINI~1\AppData\Local\Temp\ksohtml7576\wps13.jpg

2:在系统的全生命周期实施可信AI
1)技术性方法
这些方法可以融入到AI系统的设计、开发和使用阶段,一般需要定期跟踪和持续评估。
将伦理和法律纳入设计
将对法律和伦理价值观的遵守,至少在某种程度上,融入到AI系统本身的设计之中。这也要求企业有责任在最初就识别AI系统的伦理影响,以及该系统应当遵守的伦理规则和法律规则。
设立可信AI的架构
可通过建立规则来控制智能代理的行为,或者通过设立行为边界对其采取监控。一个能够积极学习和适应其行为的智能系统,可被理解成一个随机系统,通常用“感知-计划-行动”循环进行描述。为使此架构符合可信AI,伦理目标和要求应当被融入到“感知”层,从而可以形成遵守这些准则的计划。
测试和验证
为了验证一致性和数据的既定处理流程,应当仔细监测模型的稳定性、健壮性、运行结果的易理解性和可预测性。应当明确计划过程的输出结果与输入相一致,确保所采取的决策经验证是合理的。系统的测试和验证应当尽早,并且持续迭代,确保在整个生命周期特别是在部署之后,系统能以既定的行为方式运作。重要的是,测试应当不仅限于数据,还应包括系统的所有输入,以及整个系统的行为。
可追溯、可审计
为应对透明性和可解释性的挑战,AI系统应当记录其所作的决策和产生决策的整个流程,使决策可追溯。可追溯有助于可审计,可以推动实现监控和验证算法、数据和设计流程。
可解释性
为建立一个可信系统,有必要了解为什么该系统出现给定的行为、为什么该系统提供给定的解释。也有必要限制对抗性情境。截至目前,这些对于基于神经网络的AI系统仍然是开放式的挑战。在整个研究领域中,可解释的AI(XAI)正试图解决这一问题,以更好地理解背后的机制,并找到解决方案。
2)非技术性方法
非技术性方法相对开放,并非强制性要求,但可确保实现可信AI。
监管
虽然如今已有较多规范性文件可提高AI的可信度,如安全立法或可信赖框架,但AI HLEG认为需要更新、适应或引进新的规则,这会在未来的第二版中进行增补。可信AI需要一个明确可追责的机制,该机制包括当AI造成伤害时的赔偿规则,以及是否故意及是否有错的认定机制,后续的和解、纠错、道歉等。
标准化
使用商定的设计、制造和商业标准可以作为AI的质量管理系统,为消费者、参与者和政府提供通过购买决策识别和奖励道德行为的能力。在公约标准之外,公共规范也同样可行,如认证体系、职业道德手册、符合基本权利的标准等。这类例子包括ISO标准、公平交易标准、或“欧洲制造”标签等。
责任落实
组织应当设定内部或外部的管理框架,确保可追责性,如:任命某人或内外部伦理委员会来负责AI相关的伦理问题,由该负责人或委员会对此类问题进行监督,并提供建议。
行为守则
组织和利益相关方可以通过签署指南、调整其公司章程中的责任、KPI、行为守则等来实现可信AI。
教育和培养伦理观念
既要确保AI潜在影响的知识普及,又要让人们意识到他们可以参与塑造社会发展。教育的对象包括系统制造商(设计者、开发者)、用户(公司、个人)以及其他有关团体。教育公众的先决条件是确保伦理学家拥有该领域的适当技能和培训。
多方沟通
需要设立开放式的讨论,让社会群体、利益相关方和普通公众等共同参与。许多组织已经依赖利益相关者委员会来讨论AI的使用和数据分析。这些委员会包括不同的专家和利益相关者,包括法律专家、技术专家、伦理学家、客户和员工代表等。
包容与多元
多样性和包容性是AI的基本特性。由于AI执行的任务种类繁多,因此设计、开发、测试和维护AI系统的团队,也应当反映用户、社会的总体多样性,这有助于提高系统客观性,兼顾不同视角、需求和目标。团队不仅应当在性别、文化、年龄方面是多样的,而且其职业背景和技能也应当是多元的。
(四)可信AI的评估
指南根据十项要求拟定了评估清单,以提醒负责人在评估时应考虑的事项。鉴于AI具有场景特定性,需要针对特定情况采取相适应的方法,因此清单适用性因实际用例不同而有所不同,可根据需要进行调整。评估过程是动态且循环迭代的过程,可用于AI流程中每个步骤的评估:从数据收集、初始设计阶段,到AI系统的开发、训练或运行,以及实际的部署和使用。
例如,关于“可追责性”要求的评估事项,包括:现有技能和知识是否能用于责任分担、是否成立AI伦理审查委员会、灰色地带的讨论机制、是否成立内部或外部专家小组等。
五、结语
欧盟的可信AI框架,强调自发的伦理约束、更关注对“人”的尊重和普遍参与、追求共同的福祉,并且便于理解和执行。这个框架的基础是伦理规范,即守护人类的基本权利、遵循道德准则和维护人类社会价值观,同时强调AI技术自身应具备健壮性和可靠性。该指南还提出可信AI的10项要求,以及技术性及非技术性共计12种实践途径和方法,还根据每类要求设计出评估清单,便于产业参与各方评估可信AI应用的达标情况,具有较强的操作性和适用性。
我国高度重视AI与其他产业的融合发展,从2016年起已陆续出台多项重要政策,如《“互联网+”AI三年行动实施方案》、《新一代AI发展规划》、《促进新一代AI产业发展三年行动计划(2018-2020年)》等,有力地推动了我国AI产业发展。但AI作为一项对人类社会未来发展影响深远的技术,也存在一定的安全风险,例如未来人类创造出来的超级智能是否会拥有超越人类的能力和意志,同时它们是否具有与人类相似的价值观和社会规范。因此应当未雨绸缪,及早布局和研究AI技术的安全性,确保技术的研究和应用符合人类社会的伦理规范。目前上海在2018世界人工智能大会中发布过关于AI安全的八项倡议,更早之前腾讯、科大讯飞等企业也发表过各自的AI倡议,但国家、产业尚未有统一的普遍共识,因此欧盟可信AI伦理指南可以提供有益的借鉴。另外我国部分AI企业也在积极开拓欧盟市场,因此这份指南是这类企业必须要关注的对象。
《可信人工智能伦理指南草案》原文:
https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
编辑:冉玲琳


作者: admin    时间: 2019-3-24 22:12
【案例】[size=0.48]机器人坐办公室?美媒刊文:全球化或威胁白领岗位
[url=][size=0.24][/url]
[size=0.34]原标题:参考读书 | 如果以后坐在办公室里的是机器人——
[size=0.34]参考消息网3月24日报道 美国《华尔街日报》网站3月3日刊登了题为《如果机器人有办公室——评<全球化机器人崛起>》的文章,作者为马克·莱文森,文章摘编如下:
[size=0.34]全球化大潮正在退去,贸易壁垒在增加。海运相比20年前减慢,且可靠性降低。制造商和零售商保留更多的库存,以防供应链无法送货。但是,虽然工厂就业岗位在外国竞争中流失的现象可能已经减弱,新的就业威胁却可能迫在眉睫。如果理查德·鲍德温是对的,那么全球化很快就会严重影响白领工作岗位。
[size=0.28]《全球化机器人崛起》一书封面

[size=0.34]打破现有劳动力市场均衡
[size=0.34]鲍德温是日内瓦高级国际关系与发展学院教授,研究国际贸易的主要学者之一。在2016年出版的著作《大融合》中,他表明了向穷国转让先进技术如何使现阶段的全球化对富国的产业工人尤其不利,并呼吁采取新的社会政策来解决这个问题。现在,他在《全球化机器人崛起》一书中朝新的方向进行研究,考虑机器人和人工智能的普及将如何影响劳动力的全球分配。他认为,这些快速变化的技术将使相对高薪的工作岗位面临外国竞争。在这种情况下,那些到目前为止主要从全球化中受益的人将亲身感受全球化的代价。鲍德温写道:“我们不要再问经济影响主要是由全球化还是自动化造成的问题。全球化和机器人技术现在是一对连体双胞胎——它们是由相同的技术以相同的节奏驱动的。”
[size=0.34]到目前为止,装配线机器人和能预测我们可能在流媒体音乐服务平台上欣赏什么歌曲的算法都不是新闻。鲍德温认为,这类技术的普及一开始比较缓慢,因为人们要研究如何利用这些技术;但随着它们的潜力越来越突出以及企业家发明出利用这些技术的新方法,这类技术便呈几何级数增长。他说,人工智能以及与此相关的机器人将逐渐进入工作场所,但它们将以我们未曾料到的方式融入现行劳动力市场趋势,从而造成严重破坏。
[size=0.34]例如,远程工作已经存在多年,但许多机构很难使其无缝衔接。然而现在,先进的远程呈现系统可以让身处不同地点的人感觉像在同一个会议室。远程呈现机器人试图通过模拟远程工作者来克服相隔异地带来的心理影响:事实证明,如果有一个远程呈现机器人出现在你同事的办公桌上,并在其显示屏上显示你的实时视频图像,而你通过这个机器人与同事交谈,那么相比你与同事打电话或互发即时短信,你们两人可能都更有参与感。
[size=0.34]白领职业外包变得更容易
[size=0.34]同样,许多机构将工作外包给自由职业者,而自由职业者是按劳取酬,不要求额外福利。一旦雇主找到如何有效利用国内自由职业者的办法,它就可以同样容易地雇用成本较低的外国自由职业者。一些线上服务的涌现加快了这种交易。这些服务让企业可以发布自己的需求,评估相关候选人,并与远隔千山万水的一名会计师或编辑商定每小时费率。
[size=0.28]白领职业外包变得更容易(视觉中国)

[size=0.34]鲍德温说,妨碍大量就业机会以这种方式流向境外的唯一因素是语言。在大多数低工资国家,能读写和说富裕国家所需语言的劳动者相对较少。人工智能在过去两三年里大大提高了书面翻译的质量,并使计算机能够像本国人一样“理解”和“说话”。在不久的将来,偏远地方的劳动者可以用一种语言书写,用另一种语言让他们的信件被迅速送达,还可以参加配备实时翻译的会议。鲍德温写道:“鉴于机器翻译非常好,并且非常快速地变得越来越好,说英语的10亿人将很快发现自己可以与另外60亿人展开更为直接的竞争。”
[size=0.34]全球化机器人带来新挑战
[size=0.34]鲍德温预测,与影响蓝领工作的技术进步带来的后果不同,这种变化不会让整个职业完全被淘汰。相反,它将消除任务:一个拥有人工智能的虚拟助理将承担一部分我们现在所做的工作,让我们只做白领机器人(即本书书名中提到的“全球化机器人”)无法处理的那部分工作。这意味着办公室仍将开着,但需要做事的人将大为减少。鲍德温说:“5到10年以后,我们才会意识到,全球化机器人已经彻底且不可逆转地打乱了我们的工作场所和社区。”
[size=0.34]这种未来展望并非全是坏事。一方面,我们将从那些单调的办公室工作中解脱出来。另一方面,生产力增长缓慢阻碍美国经济多年,许多研究过这个问题的人得出结论认为,生产力增长与其说与政府的政策有关,不如说与企业界的创新有关。如果机器人流程自动化和虚拟现实提供了用较少资源生产较多产品的新方法,带来的经济影响可能是积极的。

[size=0.34]然而,也存在一些明显的政策挑战。我们如何应对与贸易有关、不动用配额和关税就无法阻止的工作岗位突然流失?当信息、服务和金融领域的大多数就业机会突然流向海外薪资低得多的劳动者时,我们如何维系社会?当能言善辩、受过良好教育的人发现自己的技能因他们无法逃避的技术变革而贬值时,我们如何应对他们可能涌起的愤怒情绪?鲍德温提出这些问题值得称赞。
[size=0.34]编辑:冉玲琳
[size=0.34]链接:https://news.sina.cn/gj/2019-03- ... 743.d.html?from=wap


作者: 刘海明    时间: 2019-3-28 12:42
【案例】20190828 NYT
  • • 三名人工智能领域的先驱科学家获得今年的图灵奖。Geoffrey Hinton、Yann LeCun和Yoshua Bengio三位科学家因在神经网络方面的研究获奖。过去十年来,他们的研究所孕育出的概念彻底改变了技术的构建方式,加速了人脸识别、自动驾驶汽车等人工智能技术的发展。
    谷歌机器人项目2.0版:2013年,谷歌曾开启了一个雄心勃勃的机器人项目,由公司高管安迪·罗宾领导。罗宾于2014年遭到性侵指控后离职,该项目陷入困境。现在,谷歌机器人2.0版卷土重来,比之前低调,但技术却更加先进。



作者: admin    时间: 2019-3-28 13:33
【案例】人工智能时代的新闻伦理:行动与治理
【摘要】人工智能背景下新闻传播的生产工具和生产方式出现了巨大变化,尊崇客观、公正、最小伤害的新闻伦理传统面临冲击,研究范畴由新闻工作者、新闻机构、新闻受众延伸至智能技术和社交平台,它们在新闻伦理图景中的位置和行为模式也产生了变化。以算法伦理和大数据伦理为主要的逻辑起点,结合智能时代新闻传播模式的具体变化,从个体伦理层次、组织伦理层次和社会伦理层次厘清具体道德行动者的行动领域,可以更为清晰地展现各道德行动者之间的伦理互动结构,并且综合呈现人工智能时代的新闻伦理结构和不同责任主体之间的关系。
【关键词】人工智能  新闻伦理  道德行动者  伦理治理
【中图分类号】G210                            【文献标识码】A
DOI】10.16619/j.cnki.rmltxsqy.2018.24.001
【作者简介】赵瑜,浙江大学传媒与国际文化学院教授、博导。研究方向为传播政策、新媒体传播和伦理治理。主要著作有《从数字电视到互联网电视——媒介政策范式及其转型》《中国蓝——省级卫视创新发展的浙江实践》等。
随着信息革命的深入,新闻传播业的生产工具与生产方式出现了巨大变化。人工智能不仅可以通过机器写作重塑新闻生产流程,还能通过智能算法革新新闻分发方式,更会对新闻传媒生态的信息终端、用户系统、互动模式等进行多方位重塑。在这种结构性变革的面前,传统新闻伦理学的研究与实践也面临着更加复杂的挑战。在新闻传播领域,机器写作、智能分发、算法推荐等技术带来了更具个性化的服务和更高的传播效率,但后真相、个人和国家数据安全、算法偏见、被遗忘权等问题,也激起了广泛的讨论。机器越自由,就越需要道德准则(温德尔·瓦拉赫、科林·艾伦,2017)。
在科技进步主义话语主导社会发展的语境下,技术的制度化作用被进一步放大,新闻伦理的传统理论假设也需要在新的技术条件和社会环境下予以系统反思。媒体伦理通常是对两个问题的问责:“对什么负责?”“对谁负责?”(Glasser,1989:179),而人工智能发展到今日,我们可能要增加一个答案看似显而易见,却实则众说纷纭的问题:“谁来负责?”
人工智能及其对新闻伦理的影响
新闻及其生产惯例一直受到技术的影响(Parry,2011;Pavlik,2000),在演变的过程中,各种价值观被刻入其中形成新闻伦理共识。大众化报纸诞生以来,新闻业长期被期待为没有干预的事实再现,发展了客观性、中立性、可确认性和中介作用等价值(D&ouml;rr & Hollnbuchner,2017)。对客观性原则的反思,催生了调查性报道、解释性新闻,它们试图在报道和阐述之间取得平衡,并增加不同的道德价值面向以形成公众舆论(Selgado & Stromback,2012)。
新闻传播的数字化和国际化对媒体伦理传统假定带来进一步的冲击。首先,在线新闻,特别是基于社交媒体的信息传播模式,使得传统的“验证新闻”及其严格的事实检查正在被非专业化的新闻形式取代(Kovach & Rosenstiel,2007)。新闻专业人员把控信息流的垄断地位被打破,传统媒体一直遵循的伦理价值,如客观公正、把关控制等,也被大量即时性用户生成的内容遮蔽。而全球化新闻业的出现,不仅导致文化价值的冲突,也产生了一个更难解决的问题,即如何设想和界定全球化新闻传播的相关责任(Ward,2011:208)。
人工智能的两大支柱——算法和大数据,已经多维度地进入新闻传播领域,特别是智能推荐算法作为两者的集成,已经在信息传播领域产生巨大的影响。目前主流的推荐算法有三种:基于内容的推荐、基于协同过滤的推荐和基于时序流行度的推荐。
基于内容的算法,其主要逻辑是受众偏好与新闻内容特征的匹配。通过用户特征数据和网络行为的分析,确立兴趣模型;利用分词技术等模式计算内容文本特征,选取两者之间相关度高的形成推荐列表。这种算法能够有效增加用户黏性,但对于个人信息的标签化分析,也容易引发个人数据安全性的争议。近期斯坦福大学研发的算法可以通过交友网站信息判定性取向,准确率高达91%(Yilun Wang & Michal Kosinski,2018),这一研究立即招致公众批评,也让公众对于算法的信息挖掘能力产生伦理质疑。
协同过滤算法的基本逻辑是人以群分,通过计算用户的特征数据将其编入一个用户群体,按照群体共享度较高的偏好推荐内容。这种做法将计算单位有效地下降为群体,减少了数据处理量。谷歌新闻最早采取的就是这类推荐算法。但是这种算法的伦理困境在于容易产生信息茧房,且将人群分类可能产生潜在的算法歧视,不仅触犯个人隐私,而且易于强化社会偏见。
基于时序流行度的推荐算法,将单位时间的瞬时点击率等动态特征作为考量因素,将特定时间窗口内流行度较高的新闻推荐给用户。这种算法模型很好地解决了内容冷启动问题,但是对于“标题党”和“三俗”信息的免疫力相对较低。
信息聚合平台往往综合使用上述三种推荐算法,并且针对用户体验不断优化各指标的权重,以更好地预测用户行为。之前智能推荐算法的研发并没有置于新闻伦理的框架予以关切,使得互联网信息平台公司在算法的设置中很少内嵌传统新闻伦理价值。社交媒体时代,信息推荐和信息过滤等智能算法实际上具有了议程设置的功能,取代传统媒体引导舆论。而智能算法设计者没有受到传统新闻伦理约束,这就在一定程度上使得新闻专业主义的行业传统和价值基础,与智能算法的社会影响之间产生了鸿沟。Facebook的“偏见门”(Bakshy et al.,2015;方师师,2016;韩鸿、彭璟论,2016)和算法推荐下“后真相”时代的假新闻泛滥(迈克尔·舒德森、周兰,2017;彭兰,2017;史安斌、王沛楠,2017;潘忠党、陆晔,2017;支庭荣、罗敏,2018),也许就是不受传统新闻伦理约束的信息智能系统所造成的社会代价。
过度依赖算法推荐的新闻价值排序,会产生传播权(新闻价值权重排序决策权)、信息自由(人的传播自主性)、信息触达(服务的普适性、信息的不当触达)、信息隐私权和数字身份及其保护的问题。目前有两种伦理风险已经引起广泛的关注:数据安全和算法偏见。
机器学习是一种从数据中挖掘和发现固有模式的一种方法。机器学习的有效性取决于用来进行训练的数据质量和数量,机器是否有权进行个人信息挖掘等问题引发了重大的伦理争议。
算法偏见和纠偏也是一个伦理关注焦点。2018年美国公民自由联盟批评亚马逊Rekognition人脸识别工具。经过测试表明,对于肤色较深的人,Rekognition的识别效果较差。谷歌所研制的图像标注系统曾错误地将黑人标记为“大猩猩”(Sandvig et al.,2016),这就不得不让人们对算法强化社会原有偏见的可能性充满忧虑。
以欧盟为代表的国家和地区开始强势介入人工智能立法,《通用数据保护条例(GDPR)》的实行产生了巨大的行业震动,导至行业寒蝉效应。相对于规制硬约束,在人工智能社会构建前景尚未明朗之前,伦理软约束则更加适合。有效的伦理治理需要分清楚责任主体,特别是在智能技术深度介入新闻信息传播的当下,一些原本不在新闻伦理探讨范围内的行动者进入该领域,他们的作用和问责方式,亟待理论梳理。
人工智能时代新闻伦理的道德行动者
一般意义上,伦理是“对我们应该做的事情的研究”(Merrill,2011:3)。在元伦理和规范伦理学层面,伦理研究通常被区分为三种传统。首先是强调人类相互作用的责任和义务的道德义务论,康德认为可以通过相关正式准则,特别是普遍性准则将道德规则和其他行为规则区分开来(Kant,1785)。其次是边沁(Bentham,1785)、密尔(Mill,1962)开创的功利主义传统。该传统把最大化社会效用作为最基本的道德准则,这种传统也被称为后果论。最后是美德论,核心问题不是正确行动,而是美好生活,道德也不在于行事原则,更在于人们的品质,这就重回亚里士多德 “我应该成为什么样的人”的经典论述。
在应用伦理学层面的分析中,基于问责的考量往往需要区分道德行动者。一般认为,具有道德意向性和能动性,并具有行动力和对自身行动的解释能力(Taylor Paul,1986:14),是道德行动者的基本条件。技术人工物一定程度上突破了伦理道德的人类中心主义,伦理学家开始将意向性视为道德能动性的一个“不错但却不必要的条件”,与道德能动性相关的唯一事物是行动者的行为是否是“道德上可修饰的”,即是否引发道德上的善或恶(Floridi L,Sanders J W,2004)。
新闻伦理属于应用伦理学研究,研究起点是基于行业的实际伦理难题进行价值判断。现代性大众传播观念和伦理观念根植于以启蒙运动为代表的知识革命,笛卡尔、洛克、弥尔顿、穆勒等学者的经典论述是其中的主要智识资源。施拉姆结合媒体发展现实指出,如何妥善处理大众品味、企业盈利和社会责任三者的关系是大众媒体面对的主要问题(Wilbur Schramm,1957),其中知情权和隐私权、表达权和名誉权持续产生张力,就此,政府、媒体和公众成为新闻伦理关系的核心行动者。
人工智能时代,随着算法在不同的生活领域产生建构性影响,算法作为内容创建者的制度化引发了专业新闻的各种伦理挑战。其中,互联网信息平台公司,对算法研发起到核心作用的工程师团队,甚至是技术本身是否应该作为伦理行动者进入了新闻伦理的话语框架,值得细致分析。
新闻伦理的传统行动者。1)政府:伦理治理的规则制定者与底线管控者。变革性技术总是同时带来正面和负面效应,人类也逐渐摸索出一套技术控制模式。这种模式一般包含两个方面,其一是社会规范性的,如法律、法规;其二是技术性的,即对技术设计和运用制定标准。这两项工作都需要国家,甚至国家间的合作方能达成。
对于人工智能的管理,政府显性地扮演两种角色。首先,是在国家战略层面,通过行业规划和部署,将技术开发、产业发展作为核心战略要素,在国际竞争的语境下予以通盘考虑。在我国,国务院于2017年7月印发了《新一代人工智能发展规划》和《促进新一代人工智能产业发展三年行动计划(2018~2020年)》等政策,让中国的人工智能发展有了明确的时间表和路线图。2016年10月美国政府出台了“美国国家人工智能研发规划”,加拿大、英国、德国、法国等国家也针对人工智能研究和机器人设计出台专门的战略规划和规范性报告。其次,是从司法实践角度,各国也有专门法规,如欧盟《一般数据保护条例》和美国《人工智能未来法案》等。
值得注意的是,各国对人工智能的伦理反应早于立法研究,欧盟于2006年发布《机器人伦理路线图》,2007年韩国工商能源部颁布《机器人伦理宪章》等,体现政府相关部门对人工智能伦理治理的关注。这些伦理研究报告其实在为其后的立法和规制进行伦理学和法理学的筹备,对自主智能体的主体地位、问责模式和人类行为规范,作了初步设想。
著名的“科林格瑞治困境”指出了技术评估的两难困境:在技术发展的早期控制其应用方向相对容易,但此时决策者缺少合理控制的专业知识;当技术应用的风险显露时,对它的控制却几近不可能(卡尔·米切姆、朱勤、安延明,2007)。各国政府的人工智能伦理治理和立法实践如此迅速,某种程度上也在规避上述规制困境,尤其是人工智能被普遍认为是一个具备高度社会建构性能力的系统,各国政府不约而同采取了相对前置的治理模式。
2)媒体:新闻伦理的日常践行者。媒体是新闻伦理中最为核心的部分,因为传统新闻生产、分发都在该系统内完成。自1923年美国报纸编辑协会提出美国首个新闻业自律规范《报人守则》,新闻伦理就与新闻工作者的职业伦理和行业自律挂钩。
在前互联网时代,新闻伦理通常与报道内容及其选择相挂钩,责任、独立、真实准确、公正、公平等原则以不同的形式予以表达。在绝大部分的媒体体制之下,媒体不仅具有社会公共性,本身作为承担一定经营活动的组织,也需要考虑经济层面的可持续发展问题。因此,大众化媒体如何处理公共服务和商业利益之间的张力,以兼顾经济效益和社会效益,是新闻伦理的主要关切点。在此间所产生的媒体与国家的关系、媒体与社会的关系、媒体与个体的关系,也是新闻伦理的核心焦点。
社交媒体和智能推荐算法的结合,改变了受众获得信息的主要渠道和接受模式,传统媒体的议程设置功能受到较大冲击,部分媒体开始被迫跟随社交媒体表达模式改变自身的新闻生产方式。但是2016年美国大选所引发的“后真相”讨论,恰恰说明社会仍然需要“不可爱的新闻界” (迈克尔·舒德森、周岩,2017)。潘忠党、陆晔(2017)认为“后真相”一词的流行更加凸显新闻专业主义不仅是对媒介和新闻从业者的职业期许,更是全社会所遵循的文化价值体系的一部分。新闻界需要做的是将寻求、核查、鉴定事实和真相的过程置于公共讨论之中,重构交往的伦理规范。(潘忠党、陆晔,2018)
3)公众:“用脚投票”的新闻伦理批评者。20世纪20年代杜威和李普曼的争论为起始,公众是具有公共目的的社会有机统一体,还是原子化的消极“幻影”,存在根本性的学术分歧。而学术界对公众在新闻传播系统中的作用,也始终存在争议。
在传统新闻传播中,公众作为信息的接收者,处于被动地位。但是即便在这种相对的被动位置中,施拉姆指出阅听大众应以传播动力的主要推动者自任。大众的基本责任是运用一切可能,使自己成为机警而又有鉴别能力的阅听大众,学习如何运用媒体,并积极地对媒体展开睿智的批评(Wilbur Schramm,1957)。
在人工智能时代,“你关心的就是头条”的算法逻辑,使得公众或者说用户的地位得到了进一步提升。信息平台认为自身不存在新闻立场,算法的主要目的在于加强用户的黏性。2016年以来,Facebook推出一系列机制,强调保障用户对最终内容的选择权,其中尤为强调3F原则(Friends and Family First),即好友分享的优先级高于新闻媒体发布的消息。这一算法权重变化的目的在于,从“帮助你找到相关的内容”转向“实现用户有意义的社会互动”,即促成用户间的讨论和深度参与。赋权用户而非传统强势机构,是算法所强调的平权价值。但是其后所引发的虚假消息充斥社交媒体,也是传统机构媒体权重下降后的副作用。
人工智能系统非常有效地通过用户日渐增多的网络行为数据进行精准内容推荐,公众是被动接受偏好的信息从而陷入信息茧房,还是有意识地通过综合使用媒体平台,形成更加理性而多元的社会认知,其重任日益集中到个体自身。因此现阶段至少可以相对确定地说,公众作为新闻伦理的行动者,在人工智能时代所肩负的责任将更加重大。
人工智能时代的新增新闻伦理行动者。当下,互联网信息平台公司在新闻传播过程中产生了日益重要的中介作用,传统关于信息和新闻的分野也变得模糊。弗洛里迪在《信息伦理学》中指出,信息是一种资源、一种产品,也是一种目标。借助信息与通讯技术手段为媒介的信息生产与传播引发了伦理后果,合理应对这些后果需要更多的智识动员和道德行动者(卢恰克·弗洛里迪,2018)。
在线平台传统上不属于新闻传播范畴,互联网企业也往往不承认自身的“媒体”性质,而倾向将自身描述成信息传播的基础设施,平台上传输和交换的是数据(data)而非传统意义的新闻内容。但是当人类的交往活动和商业活动日益集中到网络平台,互联网信息平台公司的角色就发生了变化。研究指出,像谷歌、Facebook这样的公司往往起步于具体的垂直应用,例如搜索、社交,但是为了将用户进一步固定在自身的商业平台上,他们的功能日益多元。因此在更加广泛的意义上,网络生态嵌入了更广大的社会文化和政治经济语境之中(Jose Van Dijck,2013),这一趋势伴随着科技所导致的社会形态变化,变得势不可挡。
近年来互联网信息平台公司已经成为传播伦理的核心关注区域。2018年Facebook的扎克伯格和今日头条的张一鸣,近乎在同一天面对主管部门的质询,并向公众道歉。
Facebook信任危机的触发点在于个人隐私泄露最终形成干预选举的危害。据披露,Facebook上超过5000万用户信息数据被一家名为“剑桥分析”(Cambridge Analytica)的公司泄露,用于在2016年美国总统大选中针对目标受众推送广告,从而影响大选结果,此事在世界范围内引发了轩然大波。扎克伯格就此接受美国国会质询。
而字节跳动公司则因旗下产品存在低俗内容和导向问题,受到主管部门处罚。应用市场下架了今日头条客户端,并暂停服务三周;“内涵段子”客户端软件及公众号被责令永久关停;短视频应用抖音APP删除了所有用户评论。此后“今日头条”品牌口号也从“你关心的就是头条”转变为“信息创造价值”。
对互联网信息平台上存在的伦理失范内容,平台应该承担怎样的法律责任,学术界存在争议,也存在实际的问责困境。被广泛应用的避风港原则成为互联网平台抗辩的主要依据,判定并不直接生产和编辑内容的互联网平台企业侵权,难度很大。但平台企业在内容处理方面的失误,将极大地影响社会,因此它们不可避免地需要承担平衡不同权利主体的重任。但是直到最近,遏制非法、不恰当内容的重任始终在用户身上,平台主要通过举报来发现类似信息。
当然,平台主动遏制它所界定的不适宜行为,也面临挑战。例如Facebook公司曾经通过机器鉴别遏制裸体展示,哺乳妇女的照片和反映越战的知名摄影作品《战火中的女孩》也因此归入此类,这两件事都让Facebook公司承受了巨大的压力,并引发关于平台歧视的担忧。总体而言,平台公司类似举措都容易导致偏爱主流人群而压抑边缘人群的结果。虽然类似举措未必隐含制度化和规模化的群体歧视,但的确提出平台如何更好履行责任的疑虑(Raso F. A.,Hilligoss H.,Krishnamurthy V.,Bavitz C. & Kim L.,2018)。在线平台日益发现,算法可以有效增进用户黏性,却在内容审核和审美品鉴方面无法全面掌握复杂而多元的人类行为变量。例如,机器目前对于模式不断转换且非常主观化的仇恨言论,判定表现就不是太好。
关于人工智能时代的平台责任的讨论,往往也牵扯出智能技术本身的伦理主体地位问题。在广为引用的《关于人工能动者的道德》一文中,牛津大学教授弗洛里迪和桑德斯依据行动者之互动关系标准,确立交互性、自主性和适应性三个标准以判定智能技术是否具备伦理责任主体地位。他们认为,一个与其环境持续产生交互的系统,如果在没有响应外部刺激的情况下也能行动,也有在不同的环境中行动的能力,这个系统就可以被视作行动者(Floridi L,Sanders J W,2004)。
伦理学界对技术人工物的道德主体地位存在较大争议。在新闻伦理的探讨范畴中,智能技术对信息传播权重的计算的确在很大程度上影响了新闻信息交流活动。但是直到目前,智能技术尚未完全达到自主性和适应性,将其判定为独立的伦理行动者论据不足。
所以就目前的技术发展状况而言,更为重要的是确立互联网信息平台公司的新闻伦理地位。依据目前他们在人类信息传播活动中的重要性,以及他们实际可以起到的信息推荐中介效应,互联网信息平台应该被纳入新闻伦理的范畴,并作为其间一个重要的机构行动者予以关照。
平台也开始意识到自身的伦理主体责任,主动开始在技术研发和产品开发的过程中嵌入伦理考虑。2016年9月,亚马逊、谷歌、Facebook、IBM和微软宣布成立一家非营利组织:人工智能合作组织(Partnership on AI),目标是为人工智能的研究制定和提供范例,推进公众对人工智能的了解,并作为一个开放的平台来吸引民众及社会的参与和讨论。目前各国的司法实践,也在强迫他们认识到自身不仅需要承担技术伦理和商业伦理,也需要在新闻伦理的框架内规制自身的行为。
人工智能时代的新闻伦理结构
综上所述,人工智能时代新闻伦理的道德行动者出现了变化,显性地表现为增加了一个重要的机构行动者,我们姑且将它们称为互联网信息平台公司。与此同时,传统的道德行动者——政府、媒体、公众,它们在伦理图景中的位置和行为模式也产生了变化。政府在规制方面采取了更加前瞻式的模式以应对变革性技术的社会构建动能。公众在人工智能时代的个性化信息服务背景下,其伦理素养和媒介素养变得更加事关全局。而传统媒体机构在算法推荐逻辑下,面临权重下降的境遇,其传统新闻生产流程和伦理价值面临冲击。
为了更清晰地展现各道德行动者之间的伦理互动结构,有必要进一步区分不同行动者的区位。个人伦理层次、组织伦理层次、社会伦理层次的区分有助于进一步明晰对此问题的论述。
第一,个人伦理层次,主要包括新闻专业主义和工程师伦理。传统新闻伦理具有很强的个人伦理色彩,记者、编辑就自己生产的新闻内容承担风险、享受赞誉。在新闻专业主义理论体系下,个人层次的伦理认知,不仅是职业认知的重要组成部分,也是新闻机构权威性的主要来源。客观、公正、服务公共利益,是新闻工作者长期珍视的伦理传统。
自动化新闻平台将工程师也纳入新闻传播领域,他们所编写的代码直接影响新闻伦理。因此工程师团体需要通过合理的结构代码完成其伦理责任。
责任是知识和力量的函数。在智能信息时代,科学家、工程师不仅人数众多而且参与社会重大的决策和管理,他们的行为会对他人、对社会带来比其他人更大的影响,因此他们应负更多的伦理责任(曹南燕,2000)。
在过去25年中,工程伦理领域的主要成就之一就是工程师们越来越意识到自身的价值观对设计进程的影响,以及此过程中他们对他人价值观的敏感度(Wallach & Allen,2008)。2000年,美国工程和技术认证委员会(ABET)在其标准中明确指出,工程教育必须证明他们的学生“对职业和道德责任的理解”(Downey et al.,2007)。奥巴马政府2016年10月将“理解并解决人工智能的道德、法律和社会影响”列入美国国家人工智能战略,并建议AI从业者和学生都要接受伦理培训(曹建峰,2016)。
与此同时,鉴于大量的媒体内容来自用户生成内容,涉足其间的个体制作者及其伦理素养也在此列。目前在直播和短视频平台时常出现伦理失范行为,个体内容生产者是直接的道德行动者,需要在与平台伦理原则磨合的过程中形成行为规则共识。
对于亚里士多德来说,具备关于伦理规则的知识和自觉遵守伦理规则的能力是两个不同的方面。只有当人们在内在本性和对善生活的追求基础上,自觉地尊重伦理规则,才是符合伦理和美德的个体(麦金泰尔,1996)。在内容庞杂的社交媒体和互联网信息平台中,美德论对于个体层次的伦理治理,也许具有更大的启示意义。
第二,组织伦理层次,主要涉及新闻组织和互联网信息平台。传统新闻媒体对其生产的内容及其经济运行负有伦理责任,与此同时,媒体的言论对政治、经济和社会都有巨大影响。虽然在传统生产流程中,记者作为显性的新闻伦理践行者,对自身的报道肩负伦理责任,但是媒体承担着重要的把关功能,并在科层式的生产模式中内化组织宗旨和目标。在媒体组织内部,知情权与隐私权、表达权和名誉权的权衡,公共服务和经营目标的平衡,形成多组竞争性伦理价值,需要在新闻媒体组织层面根据其伦理传统针对具体问题予以价值排序。长期以来,客观、公正和最小伤害成为十分重要的组织伦理出发点。
到了人工智能时代,互联网信息平台实际上部分起到了新闻媒体的功能。与传统新闻媒体更多关注新闻的生产不同,目前的互联网企业并不直接涉足新闻内容制作,但是其推荐算法实际在对新闻价值的不同维度予以赋值,随着越来越多的民众将互联网作为主要的新闻信息来源,互联网信息平台在新闻分发和互动环节产生了巨大的动能。互联网信息平台的伦理关注点主要在数据和代码(算法)两个体系,如何合理利用平台积淀的用户数据,如何合理通过算法的中介,提高社会总体福利水平,是此类组织的伦理责任。
目前技术本身的伦理地位也存在争议,在用户偏好挖掘的机器学习机制中,平台公司会部分采取无监督学习模式,这使得学习结果存在客观上的算法黑箱。这也是智能系统设计的悖论:一方面系统需要更大的自由度以体现其智能效能,但具备自主学习能力的系统在技术上和伦理上都存在风险;另一方面,若将伦理规则嵌入智能系统,那么设计出来的系统就缺乏充分的灵活性,也就不够“智能”。但是从目前的伦理问责和司法实践看,互联网信息平台作为算法的直接开发者和版权所有者,有义务将智能系统设计为道德智能体,将社会长期珍视的伦理价值内嵌至平台系统。据此,大众传播责任的两种形态行动——自律制度、专业精神,同样适用于互联网信息平台公司。
第三,社会伦理层次,包括政治和公众两个维度。在政治维度,如何处理互联网信息平台、新闻媒体和社会其他部门的关系,如何管理技术的发展方向、媒体信息的作用范围,是政治层面关注的焦点,也因此与新闻系统产生权力博弈和伦理话语冲突。
电气和电子工程师协会(IEEE)2017年发布《人工智能设计的伦理准则》白皮书(Ethically Aligned Design),这份报告不仅对工程师群体的伦理设计提出要求,并且在宏观上希望政府、司法机构审慎使用数据,必要的时候严格测试和评估内嵌于系统的伦理原则和运算逻辑。而且政府和产业利益相关者需要明确,哪些核心决策权不能交由智能系统。
因此在更加宏观的社会伦理治理层次,政府作为主要的道德行动者,需要从社会整体福利水平和国家信息安全的高度理解人工智能系统的信息中介效应,对其引导舆论、影响个体的能力保持伦理警觉,并逐渐清晰政府的管控底线。
在公众维度,以往新闻很大程度上依赖于记者的信誉,如今在网络信息发布过程中,受众不再被动,任何人都有权利批评报道、增加事实和发表评论。就此,新闻发表从个人化的行为(组织化的行为)转变为公共的行为(Ward, 2011)。在智能时代,公众的伦理素养至少包含明确是谁作出或者支持智能系统的伦理决策,并且理解自动技术系统的社会影响的能力。公众需要更加清晰智能系统的运作模式和社会影响机制,运用理性力量加强自身的信息自律能力,而不要成为机械刺激性快乐的被捕获者,从而丧失了对康乐生活的追求和反思能力。
媒体的智能化,大大延伸了媒体的外延,将新闻传播推向“万物皆媒”的时代。新闻伦理学的研究范畴也随之由新闻工作者、新闻机构、新闻受众延向了传播技术和社交平台。由于人工智能技术的出现,更多的行动者开始参与或影响新闻的生产与发布,新闻工作者不再是唯一的道德行动者,泛信息系统,特别是互联网信息平台的影响力正在逐渐上升。
自治、公平、正义、责任、服务公共利益等原则是长期以来新闻伦理的基本组成部分。智媒时代,除了进一步坚持传统媒体伦理价值体系之外,还需要融合基于技术和平台的伦理要求。机器人伦理提出的人的尊严和人权、责任、透明度、避免滥用和共生繁荣等原则,也是人工智能时代新闻伦理的智识来源。而互联网平台公司,如谷歌提倡的“七条准则”:有益于社会、避免创造或增强偏见、对人们有说明义务、根据原则确定合适的应用等,也同样适合新媒体背景下的新闻伦理。
(本文系“数字化变革中媒体从业者伦理胜任力建模及提升策略”课题的阶段性成果,课题编号:2018FZA121;同时受中央高校基本科研业务费专项资金资助)
参考文献
Bakshy E, Messing S, Adamic L A., 2015, "Exposure to ideologically diverse news and opinion on Facebook", Science, vol. 348, pp. 1130-1132.
Bentham J., 1996, The collected works of Jeremy Bentham: An introduction to the principles of morals and legislation, Clarendon Press.
Bill Kovach, Tom Rosenstiel, 2007, The Elements of Journalism, New York: Three Rivers Press.
Downey, Gary Lee, Juan C. Lucena and Carl Mitcham., 2007, "Engineering Ethics and Identity: EmergingInitiatives in Comparative Perspective", Science & Engineering Ethics, No. 4, pp. 463-487.
D&ouml;rr, K. N. & Hollnbuchner K., 2017, "Ethical challenges of algorithmic journalism", Digital Journalism, 5(4), pp. 404-419.
Filippo A. Raso,Hannah Hilligoss, Vivek Krishnamurthy, Christopher Bavitz , Levin Kim , 2018, Artificial Intelligence & Human Rights: Opportunities & Risks, Berkman Klein Center Research Publication.
Glasser T. L., 1989, "Three Views on Accountability", Media Freedom and Accountability, edited by E. E. Dennis, D. M. Gillmor, and T. L. Glasser, New York: Praeger, pp. 179-193.
Jeffrey Rosen, 2013, "The Deciders: Facebook, Google, and the Future of Privacy and Free Speech",  Constitution 3.0: Freedom and Technological Change. ed. Jeffrey Rosen and Benjamin Wittes, Brookings Institution Press; Jonathan Zittrain, 2008, The future of the internet--and how to stop it, Yale University Press.
Jose Van Dijck, 2013, The Culture of Connectivity: A Critical History of Social Media, Oxford University Press.
Kant I, Schneewind J. B., 2002, Groundwork for the Metaphysics of Morals, Yale University Press.
Kovach B. & Rosenstiel T., 2007, The elements of journalism (Rev. ed.), New York: Three Rivers Press.
Luciano Floridi, J.W. Sanders, 2004, "On the morality of artificial agents", Minds and Machines , vol.14, pp. 349-379.
Merrill, J. C. , 2011, "Theoretical Foundations for Media Ethics", in  A.D. Gordon, J.M. Kittross, J.C. Merrill, W. Babcock, and M. Dorsher (eds), Controversies in Media Ethics, pp.3-32.
Mill, J. S., 1962, Utilitarianism, on liberty, essay on Bentham, ed. Mary Warnock, London: Fontana.
Parry R., 2011, The Ascent of Media: From Gilgamesh to Google via Gutenburg, London: Nicholas Brealey.
Pavlik J., 2000, "The impact of technology on journalism, Journalism Studies", No.2, pp. 229-237.
Paul Taylor, 1986, Respect of Nature: A Theory of Environmental Ethics, Princeton University Press.
Sandvig C, Hamilton K, Karahalios K, et al., 2016, "Automation, algorithms, and politics| when the algorithm itself is a racist: Diagnosing ethical harm in the basic components of software", International Journal of Communication, No.10, pp. 4972–4990.
Selgado, Susana and Jesper Str&ouml;mb&auml;ck,   2012,"Interpretive Journalism: A Review of Concepts, Operationalizations and Key Findings", Journalism Theory Practice & Criticism, No.13 (2), pp. 144–161.
Taylor Paul, W., 1986, Respect for Nature: A Theory of Environmental Ethics.
Ward, Stephen J. A., 2011, Ethics and the media: An introduction, Cambridge University Press.
Wallach W. and Allen, C., 2008, Moral Machines: Teaching Robots Right from Wrong, Oxford University Press.
Wilbur Schramm, 1957, Responsibility in Mass Communication, New York:Harper & Brothers.
Yilun Wang and Michal Kosinski, 2018, "Deep neural networks are more accurate than humans at detecting sexual orientation from facial images", Journal of Personality and Social Psychology, No.2, pp. 246-257.
曹建峰,2016,《人工智能:机器歧视及应对之策》,《信息安全与通信保密》,第12期,第15~19页。
曹南燕,2000,《科学家和工程师的伦理责任》,《哲学研究》,第1期,第45~51页。
方师师,2016,《算法机制背后的新闻价值观——围绕“Facebook 偏见门”事件的研究》,《新闻记者》,第9期,第39~50页。
韩鸿、彭璟论,2017,《智媒时代社交媒体的社会责任——对2016美国大选中Facebook假新闻事件的反思》,《新闻界》,第5期,第89~93页。
[美]卡尔·米切姆、朱勤、安延明,2007,《关于技术与伦理关系的多元透视》,《哲学研究》,第11期,第79~82页。
刘则渊、王国豫,2007,《技术伦理与工程师的职业伦理》,《哲学研究》,第11期,第75~78页。
[英]卢恰克·弗洛里迪,2018,《信息伦理学》,薛平译,上海译文出版社。
[美]阿拉斯戴尔·麦金泰尔,1996,《谁之正义?何种合理性?》,万俊人、吴海针、王今一译,北京:当代中国出版社。
[美]迈克尔·舒德森、周岩,2017年,《新闻的真实面孔—— 如何在“后真相”时代寻找“真新闻”》,《新闻记者》,第5期,第75~77页。
潘忠党、陆晔,2017,《走向公共:新闻专业主义再出发》,《国际新闻界》,第10期,第91~124页。
彭兰,2017,《更好的新闻业,还是更坏的新闻业?——人工智能时代传媒业的新挑战》,《中国出版》,第24期,第3~8页。
史安斌、王沛楠,2017,《作为社会抗争的假新闻——美国大选假新闻现象的阐释路径与生成机制》,《新闻记者》,第6期,第4~12页。
[美]温德尔·瓦拉赫、科林·艾伦,2017,《道德机器:如何让机器人明辨是非》,北京大学出版社。
支庭荣、罗敏,2018,《“后真相”时代:话语的生成、传播与反思——基于西方政治传播的视角》,《新闻界》,第1期,第54~59页。
本文刊发于《学术前沿》杂志2018年12月(下),转载请注明来源。
原文链接:https://mp.weixin.qq.com/s/zwUEBZk5RJ8zRYRS-rwVmA
作者:赵瑜
编辑:王豪


作者: admin    时间: 2019-3-30 23:30
【案例】
顶尖通讯专家戳穿媒体谎言:目前5G宣传大部分是假的!



近日各大手机生产商纷纷推出5G手机,连中央电视台的春节联欢晚会,都标榜以5G网络传输4K超高清内容,让全国都能看到深圳会场五光十色的城市风彩。国内媒体也井喷式发布5G报道,更形容“5G时代已经到来”丶“5G浪潮来袭”丶“5G网络箭在弦上”,让大家感觉5G正来势汹汹,人人都要坐上5G的快车。但近日有5G专家却指出,国内大部分有关5G的报道都是假的。

这位专家可不是那些半吊子的所谓专家,而是被国际通讯领域称为“活着的爱迪生”的通讯专家、美国诺基亚贝尔实验室首席系统工程师蔡亦钢教授。该实验室曾获得8项诺贝尔奖,是通讯领域最权威的研究机构。蔡亦钢主持过3G丶4G和5G网络系统及应用产品的概念设计和系统开发,曾连续三次获得“贝尔实验室发明家奖”,至今拥有722项国际发明专利。

近日蔡亦钢教授接受自媒体“云塘学院”访问,解破普通人对5G的迷思,戳穿国内媒体上许多关于5G宣传的谎言。大家一起来看看他如何直面5G领域公众最关注的七大问题。


1. 问: 5G时代是否已经来临?
答: 5G不是一波即将袭来的浪潮,是个非常缓慢的过程。很多计划正在往后推,因为实现不了。最大的问题是,5G太贵,技术研发和设备本身都很贵。应用得不偿失,而没有经济效益,运营商不会去用。当然在中国国内,可以用行政手段、不计成本地强制推广应用。

2. 问: 4G手机可以用5G网络吗?
答:不可以。只有5G手机才能用5G网络。4G手机可以上5G非独立网,但是没有5G速度。
3. 问: 国内有很多关於5G应用的报道,比如可以用於超高清视频、浸入式游戏、远程医疗,让远程机器人手术变得可行,这是真的吗?
答:国内关于5G的报道绝大部份是虚假的。现在宣传的这些应用,大部分可以通过4G实现,5G的技术指标只是更高一些。

4. 问: 和4G相比,5G具有高速率及1毫秒低延时的优势,有说法指5G可以降低自动驾驶的成本,同时解决VR、AR因延时而产生的头晕感,让VR、AR和自动驾驶大规模增长,是这样吗?
答:设备商都在吹牛,低延时高可靠性的技术困难很大,至今没有看到可行的方案。而自动驾驶汽车制造商尚未有用5G的计划,也存在经济效益难题。所以VR/AR、无人驾驶的爆发还有待时日。
5. 问: 5G的技术瓶颈在哪里?
答: 5G主要解决接入网的快速问题,但核心网是瓶颈,华为正在解决核心网问题,但目前的技术方案是不灵的。一两个芯片解决不了问题。5G基站单个或数个测试结果都还行,一旦联网,问题就多了,所以还要耐心等二到三年。
6. 问:5G 设备装备造价为何那麽高?
答: 5G频率高很多,信号幅射距离短了,基站要布得更密一些,造价就高。高可靠性低延时的性能更是加倍了造价,诸如此类,很多很多问题。

7. 问: 最近5G概念下的产业链,股票都上涨了,你怎麽看?
答: 绝对虚高!

附:A股市场有哪些5G概念股
按照知名炒股软件同花顺的概念股分类,目前A股市场上与5G相关的股票共有156只。主要包括以下几大类:
  1、通讯设备类,如烽火通信、中兴通讯等。
  2、光纤光缆类:如亨通光电、中天科技、通鼎互联等。
  3、光模块类:如中际旭创、博创科技、光迅科技。
  4、5G产品应用类:如中国联通,长江通信等。
  5、相关电子元器件制造类。这个上市公司的数量非常多。

前期5G概念股反复活跃,最近2-3个月时间,许多股票有了超过50%以上的涨幅,有的实现的翻倍上涨。如果像蔡亦钢教授教授所说的那样,那谎言戳穿之后,未来就有非常大的跌幅。

其实蔡亦钢教授的说法相当可信,这也是国外目前国内外都还没有大规模部署5G网络,甚至不排除美国直接由5G过渡到6G,即通过卫星组网的原因,两三年时间足够美国突破卫星组网剩下的一些关键技术。


原文链接:https://mp.weixin.qq.com/s/Jpz10wbCuJLFsfH5HNPVrA
编辑:王豪

作者: admin    时间: 2019-4-2 16:41
【案例】阿里发布谣言粉碎机:1秒辨新闻真伪

来源:阿里巴巴
原文链接:http://www.sohu.com/a/305190460_114822?sec=wd
作者:张金梁
中关村在线消息:4月1日,阿里巴巴今日趁着愚人节之际发布了一项旨在粉碎网络谣言和假新闻的AI技术——“AI谣言粉碎机”。
阿里发布谣言粉碎机
阿里“AI谣言粉碎机”的算法模型由阿里巴巴达摩院机器智能实验室研发,目前在特定场景中的准确率已经达到81%。
阿里巴巴方面指出,依靠深度学习和神经网络技术,通过对信息的多维度和多角度分析,该团队设计了一整套包含发布信息、社交画像、回复者立场、回复信息、传播路径在内的综合判定系统,将谣言识别和社交用户观点识别打通,并做交叉分析,最快能够在1秒内判定新闻的真实性。
阿里方表示,未来,“AI谣言粉碎机”有望帮助社交平台和新闻网站在假新闻尚未造成大面积伤害时就快速识别出来,遏制其传播。在信息被证实为谣言后,AI还可通过虚假信息的传播路径,定向给阅读过此信息的用户进行辟谣,解决“造谣张张嘴,辟谣跑断腿”的问题。
最后阿里巴巴的愿望是,“希望让深受网络谣言之害的父母们,不再每天都过愚人节”。
编辑:吴悠

作者: admin    时间: 2019-4-4 13:19
【案例】AI模糊测试:下一个重大网络安全威胁
作者:nana  
文章来源:秦安战略
原文链接:https://mp.weixin.qq.com/s/uB--8iXGcPd7Rmhaw1prFA
人工智能(AI)或机器学习融入传统模糊测试技术造就出查找应用程序或系统漏洞的强大工具,但研究人员和网络罪犯都能利用这一点。
定义AI模糊测试
AI模糊测试采用机器学习及类似技术查找应用或系统中的漏洞。模糊测试概念的提出已经有些年头了,但其执行相当困难,对公司企业没有太大吸引力。引入AI技术可使模糊测试更加灵活,更易于执行。
这是个好消息,但同时也是个坏消息。好消息是企业和软件供应商可以更容易地找出系统中的潜在可利用漏洞,以便抢在坏人之前修复。
坏消息是,坏人也可以利用该技术快速找出很多零日漏洞。澳大利亚技术咨询机构 Rightsize Technology 将AI模糊测试列为2019十大安全威胁之一。
模糊测试运作机制
传统模糊测试用大量不同输入尝试令应用程序崩溃的切入点。因为不同应用输入方式相异,产生并尝试大量输入需要很多人工设置。而且,仅靠暴力破解的方式尝试每个可能输入并观察应用程序的响应是行不通的——光耗时都能让人绝望。10个字符的输入域要试完全部可能组合需要几个月甚至几年。
虚拟出每个应用比尝试可能输入组合更复杂,所以模糊测试器基本都是随机尝试,并运用各种策略去试最具前景的那些输入组合。AI工具有助于生成测试用例,且模糊测试的事后分析阶段也可以用AI工具来确定造成崩溃的条件是否可利用。不是每个漏洞都是安全漏洞。
模糊测试技术已经出现好些年了。甚至智能模糊测试也不是什么新的东西,只不过是没在学术界以外广泛应用而已。优秀的商业工具并不多。
模糊测试属于动态分析,很难整合进开发生命周期中。相比之下,扫描应用程序源代码的静态分析就容易整合得多了。而且,商业领域有大量静态工具可用。所以企业倾向于选择静态分析不足为奇。
AI模糊测试工具
不过,随着公司企业将模糊测试作为服务推出,该技术的部署难度大幅下降,情况开始发生改变。微软的 Security Risk Detection 很是令人兴奋,他们将Web模糊测试器也集成了进去。而在过去,你得购买和维护几个不同工具。
顶级AI模糊测试工具有:
微软 Security Risk Detection (MSRD):(https://www.microsoft.com/en-us/security-risk-detection/)
谷歌 ClusterFuzz:(https://security.googleblog.com/ ... ng-clusterfuzz.html)
Synopsys Defensics Fuzz Testing :(https://www.synopsys.com/softwar ... g/fuzz-testing.html)
PeachTech Peach Fuzzer:(https://www.peach.tech/products/peach-fuzzer/)
Fuzzbuzz:(https://fuzzbuzz.io/)
MSRD采用智能约束算法。另一种主流智能模糊测试选项是遗传算法。两种算法都能使模糊测试工具锁定最具前景的路径来找到漏洞。
开源工具集 American Fuzzy Lop (AFL)使用遗传算法。该工具集是基于云的新工具Fuzzbuzz的核心,也是谷歌ClusterFuzz项目的一部分。
模糊测试器即服务正在逐步推出。如果可以的话,最好能采用这种技术。即便刚开始可能有些难上手,坚持用下去绝对能值回票价,因为它能保证产品安全。AI模糊测试器最令人激动的一点,是不仅能够减少所需工作量,还能得到更好的结果,更深入应用程序底层,找出更多漏洞。
位于加州桑尼维尔的安全初创公司RiskSense就提供模糊测试服务,这家公司的主要业务为企业客户进行风险评估。尽管该公司将此服务自称为“攻击验证即服务”,其实质就是“模糊测试即服务”。
机器学习进场的时机是在该公司发现漏洞之后,用于确认漏洞是否值得利用,以及是否会被利用。模糊测试本身采用传统自动化方法加人工监督的方式进行。该公司确实计划在初始阶段就开始使用AI——只要具备了足够的训练数据。足够的数据才能产生足够的模式,运用机器学习才有意义。如果没有良好的数据集,得到的只会是一堆误报,你将不得不回头验证结果,然后浪费大量时间。
已设立自身AI模糊测试项目的公司企业最好再找家供应商合作。有谷歌、微软或其他公司作为提供商,你会获得规模经济效应。因为除非是跨国大型企业,否则很难拥有合适的资源。大型云提供商的数据比政府都多。
唯一的例外是真正关键的系统,比如防务公司的武器系统。任何政府都不会将数据放到AWS上做模糊测试。如果是武器系统,除非有非常严格的安全要求,否则绝不会用谷歌或微软的AI模糊测试器。但如果是普通公司,大型供应商还是很靠谱的,他们可能不是最先做这个的,但肯定是能做出一定规模的。
用AI模糊测试查找零日漏洞
2月,微软安全研究员 Matt Miller 在该公司蓝帽大会上做了关于零日漏洞问题的演讲。他表示,2008年,绝大部分微软漏洞都是在补丁发布后才被利用的,仅21%是作为零日漏洞被利用。2018年,这一比例逆转了,83%的漏洞遭零日利用,其中大部分漏洞利用是针对性攻击的一环。
到目前为止,发现零日漏洞依然不是件容易的事,新零日漏洞的价格居高不下。Zerodium公司如今为带有效漏洞利用的高风险漏洞开出单个200万美元的高价,并宣称如果是特别有价值的零日漏洞,价码还可以更高。Zerodium收购零日漏洞后再转卖给少数几个机构,主要是政府机构。
零日漏洞的平均价格自然没那么高。统计各操作系统、暗网市场、付费服务和个体从业者漏洞利用平均价格的 RunSafe Pwn Index 得出结论:当前漏洞利用平均价格略高于1.5万美元,并呈现不断增长的趋势。
民族国家和高端网络罪犯可能已经在用AI模糊测试了。攻击者总想省时省力地获取最佳收益。而且,随着IoT设备和联网系统的普遍增殖,潜在攻击界面也在持续扩大。
最终,攻击者将能简单地指定一个目标就可以自动挖掘该目标的零日漏洞利用了。
AI模糊测试无疑将成为网络犯罪的巨大推力。AI模糊测试应会以服务的形式呈现,这是模糊测试的趋势。能用AI进行模糊测试的时候,人工来测就不再有意义了。
这意味着我们将见证更多零日漏洞,但今年内应该还不会出现太多AI发现的漏洞利用。现在还早了点儿,这项技术本身还相当年轻。
但应开始为此做好准备了,宜早不宜晚。任何供应商、开发人员、软件公司都应对自己的产品进行模糊测试。这是确保不留明显漏洞的最佳方式。
AI模糊测试实例尚少
尽管引发热议,在用AI模糊测试的实例却几乎没有。目前,没引入AI的模糊测试更有效些。
Positive Technologies拥有大型安全研究中心,每年发现大约700个应用安全漏洞。传统技术依然统治模糊测试领域,比如使用符号执行的模糊测试。不过,机器学习和其他新技术也为该领域吹入了一股新风。下一次大型安全会议上估计就会有人描述能颠覆行业的新东西了。
很难将网络罪犯是否已经在用AI模糊测试,因为他们通常不会谈论自己的手法。模糊测试就是模糊测试,模糊测试器背后的算法一般不会在漏洞被暴露时成为人们的话题中心。
由于AI提供了快速找出漏洞的可能性,能够找出传统方法没检测出的漏洞,AI模糊测试领域可能会出现一场军备竞赛。如果攻击者提升其模糊测试技术,安全人员就必须跟进。
编辑:吴悠


作者: admin    时间: 2019-4-5 16:14
【案例】刚刚,谷歌宣布取消AI道德委员会以回应强烈抗议
文章来源:网易智能
原文链接:https://mp.weixin.qq.com/s/2GJeLRFijsJOzFPWXXAlTA
【网易智能讯4月5日消息】美国东部时间4日下午7点,据Vox独家报道,谷歌新成立的AI伦理委员会已经正式宣告解散,在员工的强烈抗之下,终成一场闹剧。
谷歌发言人宣布,该公司已经决定完全解散这个名为先进技术外部咨询委员会(ATEAC)的团队,谷歌在声明中称:“很明显,在当前的环境中,ATEAC不能按我们所希望的方式运行,所以我们要解散它,并回到原计划上来,我们将继续在AI带来的重要问题上进行我们的工作,并将找到不同的方式来获取外部对这些问题的意见。”
这个AI伦理委员会勉强存活了一个多星期,谷歌成立该机构的目的是指导该公司“以负责任地态度开发人工智能”。
按照预期计划,在2019年期间,该委员会将有8名成员,并举行4次会议,以帮助人们应对谷歌AI项目带来的担忧,这些担忧包括AI算法如何产生不同的结果,AI是否可以用于军事领域等,但从一开始,这个委员会组建本身就遇到了问题。
Kay Coles James
多日来,数千名谷歌员工签署请愿书,呼吁罢免其中一名委员会成员,即传统基金会(Heritage Foundation)主席凯·科尔斯·詹姆斯(Kay Coles James),原因是她对跨性别者的不当评论以及其所属组织对气候变化的怀疑,与此同时,无人机公司首席执行官戴恩·吉本斯(Dyan Gibbens)的加入也引发关注,原因是该公司的AI被用于军事方面。
几天前,谷歌AI伦理委员会成员亚历山德罗·阿奎斯蒂(Alessandro Acquisti)主动宣布辞职,另一名成员乔安娜·布莱森(Joanna Bryson)则为她坚持不辞职的决定辩护,他们被要求证明自己留在委员会的决定是合理的,这让他们感到束手无策。
谷歌还称,AI伦理委员会本应为谷歌工程师正在进行的AI伦理工作添加外部视角,所有这些工作都将继续进行,我们希望这个委员会的解散并不代表谷歌的AI伦理工作倒退,而是成为其考虑如何更具建设性地与外部利益相关者接触的机会。
01
谷歌的巨大负担
此前,当隐私研究员亚历山德罗·阿奎斯蒂(Alessandro Acquisti)在Twitter上宣布他将辞职时,谷歌AI伦理委员会的信誉首次受到打击。阿奎斯蒂辩称,“虽然我致力于研究如何解决公正、权利和AI中包含的其他关键伦理问题,但我不认为这是我从事这项重要工作的合适论坛。”
与此同时,要求罢免凯·科尔斯·詹姆斯(Kay Coles James)的请愿书到目前为止已经吸引了2300多名谷歌员工签名,而且签名者还在继续快速增加。随着对AI伦理委员会的愤怒加剧,其成员被卷入了关于“为何加入委员会”的广泛伦理辩论,这可能不是谷歌所希望的。
谷歌CEO桑达尔·皮查伊
在Facebook上,委员会成员、牛津大学伦理哲学家卢西亚诺·弗洛里迪(Luciano Floridi)反思道:“征求詹姆斯的建议是个严重的错误,并发出了关于整个ATEAC项目性质和目标的错误信息,从伦理的角度来看,谷歌错误地判断了在更广泛背景下拥有代表性观点意味着什么,如果詹姆斯不像我希望的那样辞职,如果谷歌不罢免她,正如我个人所建议的那样,问题将变成:面对这个严重的错误,我们应该采取什么样的正确道德立场?”
弗洛里迪最终决定留在委员会中,但这并不是谷歌希望引发的那种伦理辩论。
撇开惹来的愤怒不谈,委员会也没有做好成功的准备,像谷歌设立的这种AI伦理委员会在硅谷很流行,但他们似乎在很大程度上没有能力解决AI伦理问题,甚至很难在AI伦理进步问题上取得进展。
谷歌AI伦理董事会成员是个没有报酬、毫无影响力的职位,它不可能在一年的四次会议上对谷歌正在做的每件事都获得清晰的理解,更不用说对其提供细微的指导了。
外媒评论认为,从一开始,这个委员会就是为特定目的而设计的,现在,它终于被解散了!
02
AI伦理问题何去何从
不可否认,谷歌的许多AI研究人员都在积极致力于使AI更公平、更透明,管理层的笨拙失误不会改变这一点。
谷歌发言人提到了几份据称反映谷歌对AI伦理态度的文件,从一份概述他们不会从事各种研究的详细任务声明,到今年初回顾他们的AI工作迄今是否产生了社会利益,再到关于AI治理状况的详细论文。
在理想情况下,外部咨询团队将补充这项工作,增加问责制,并帮助确保每个谷歌AI项目都受到适当的审查,可以想象,谷歌下一次外部咨询尝试将需要解决这些问题。更好的AI伦理委员会可能会举行更频繁的会议,让更多的利益相关者参与进来,它还将公开、透明地提出具体建议,并告诉我们谷歌们是否遵循了这些建议,以及为什么要这么做。
AI的能力在不断提高,这让大多数美国人对从自动化到数据隐私再到使用先进AI系统带来的灾难性后果都感到紧张。
总之,伦理道德和治理不能成为谷歌这类公司的噱头,科技公司必须有所作为。
编辑:吴悠


作者: admin    时间: 2019-4-6 13:37
【案例】玛娜数据伦理评论(No.1):数据共享是数据伦理的应有之义
作者:赛博风
文章来源:人工智能伦理
原文链接:https://mp.weixin.qq.com/s/-3FqhZyhrax3dFRD6beGcQ
数据共享:数据伦理的应有之义
《中国科学报》近年来发表了“唤醒沉睡的数据”系列文章。2014年4月14日发表闫傲霜的“唤醒‘沉睡’的大数据”;2015年10月12日发表彭科峰的“唤醒‘沉睡’的科学大数据”;2018年10月16日发表甘晓、姜天海的“唤醒‘沉睡’的医疗大数据”;2019年4月1日发表张晶晶的“唤醒‘沉睡’的医疗大数据”。本期我们推荐的是张晶晶的文章。
随着大数据时代的来临,数据作为信息的载体,其作用和价值也越来越被人们重视。在医疗领域,大部分的医疗数据都处于“沉睡”状态,数据孤岛和数据壁垒是实现医疗数据共享的阻碍。如何让大数据在医疗领域更好的发挥作用?该文从实现专门数据库与大数据平台相配合、跨界合力打通数据“孤岛”两方面进行了讨论。同时指出,大数据信息安全是实现数据共享的前提,尤其是医疗数据这种敏感的隐私数据。因此,要更好的在医疗领域实现数据共享,打破医疗数据的“沉睡”状态,实现医疗数据价值最大化,必须首先加强对信息安全的保护。
目前大数据发展面临诸多困境,主要表现在两个貌似相互矛盾的方面:数据孤岛和数据滥用。一方面,目前数据共享严重不够,许多数据处于沉睡状态,形成了诸多数据孤岛。另一方面,“数据共享”到了滥用的程度,不受任何约束。
人本主义数据伦理是认识和解决大数据之困的重要视角。人本主义数据伦理倡导数据共享,消除数据孤岛,挖掘数据的潜在价值,发挥数据的效用。鼓励创新,增进人类福利。同时,人本主义数据伦理提倡有规范的数据共享,为数据共享设立边界,防止数据滥用。个体权利和数据安全是其重要的边界所在。人本主义数据伦理尊重个体的数据权利,确保个体的自由权利,实现人的全面自由的发展。——赛博风
张晶晶:唤醒“沉睡”的医疗大数据
如何将散落的、非标准化的、复杂的医疗大数据集合起来并可使用、可计算,需要做大量且复杂的工作。当然这并非不可能实现,但需要成本及时间。
人类已经全面进入大数据时代。而医疗与大数据的“联姻”一直被人们所期待,但遗憾的是大部分医疗数据仍处于“沉睡”状态。如何真正进行实践,让大数据为医生、为患者服务,赋能医疗新形态,依然是摆在我们面前的一道难题。
专门数据库与大数据平台相配合
2016年,国务院发布《关于促进和规范健康医疗大数据应用发展的指导意见》,要求加快建设统一权威、互联互通的人口健康信息平台,推动健康医疗大数据资源共享开放;同年,《“健康中国2030”规划纲要》提出,消除数据壁垒,建立和完善全国健康医疗数据资源目录体系。2017 年,国务院发布《“十三五”深化医药卫生体制改革规划》,提出健全基于互联网、大数据技术的分级诊疗信息系统;应用药品流通大数据,拓展增值服务深度和广度。
医疗大数据的应用早已突破诊疗过程,与整个健康体系密切相关,对药物研发、健康管理和公共卫生服务等环节都具有重要意义。如何实现各个专门数据库与大数据平台之间的联通与配合,打通数据“孤岛”,是摆在医疗大数据实践面前的一道鸿沟。
北京大学肿瘤医院院长、教授季加孚以美国和日本的案例对此进行了分析。他指出:“目前国际大型肿瘤数据库大致分为两类:基于人群的数据库和基于医院系统的数据库。美国SEER(监测、流行病学和结果)数据库和日本癌症登记数据库属于前者,而美国的NCDB(国家癌症数据库)和日本的NCD(国家临床数据库)属于后者。”
比较来看,不同类型数据库所能实现的效果不同。季加孚分析说:“基于医院的数据库,更符合临床需求,可为患者诊断与治疗提供更多有针对性的信息。但是这类数据库存在就诊偏倚,并不能很好地反映人口学分层的特点,例如NCDB和SEER数据库在某些癌种的种族、年龄分布上存在差异。基于人群的数据库流行病学意义更加明确,能为国家战略制定提供更多依据。通常两种形式数据库间的相互融合、数据共享能起到1+1>2的作用。”
那么不同数据库之间是如何配合的呢?以日本NCD和癌症登记数据库为例,NCD主要收集详尽的围术期数据,而随访数据的积累一定程度上需依靠癌症登记数据库完成。由于《癌症登记法》的强制性和广泛覆盖,肿瘤登记处会收集肿瘤患者的预后信息。这些信息会由登记处返回到提供信息的医院,NCD即可通过医院获取肿瘤相关预后信息。
乳腺癌、胃癌、食管癌、肝癌等专病数据库也逐步并入NCD。此外,NCD还和DPCD(日本诊断程序组合数据库)等医疗保险数据库互通,开展卫生经济学相关研究。与之类似,美国SEER数据库与医疗保险合作,形成了SEER-Medicare数据库。
跨界合力才能打通数据“孤岛”
在大数据领域从业近十年的架构师沈辰在接受采访中告诉《中国科学报》,大数据具有所谓的“4V”属性,即大规模(volume)、多样性(variety)、产生和变化速度快(velocity)和价值密度低(value)。
“医疗大数据也是一样,如何将这些散落的、非标准化的、复杂的数据集合起来并可使用、可计算,需要做大量且复杂的工作。当然这并非不可能实现,但需要成本及时间。”
南京医科大学接受第二附属医院肠病中心主任张发明在采访中提出,医疗行为过程中会产生大量的数据,而将这海量的数据进行处理,真正为医疗服务,大部分医院目前不具备这样的能力和经验,需要大型数据服务商的支持。
上海第九人民医院在2013年搭建了基于临床数据仓库(CDR)大数据集成平台,其合作对象是微软中国。通过对所有的业务数据库的表单进行系统整合与深度挖掘,实现对医院的内部运营管理、医疗质量控制、医院感染管理、绩效考核与分配等实时数据分析管理,并且整合了单病种临床数据库与样本库、基因库关联的临床科研信息系统在临床研究方面的应用。
杭州健培科技有限公司是一家从事医学影像大数据挖掘和医疗人工智能技术的企业,开发了阅片机器人“啄医生”。董事长兼CEO程国华在创业初期就亲身经历过医生与科技人员在思维与工作方式方法上的碰撞,他在采访中告诉《中国科学报》:“医疗大数据的应用绝不单纯是医疗领域的事情,而是一项跨学科的问题。”
专业人才的缺乏同样也是摆在医疗大数据发展面前的难题。北京大学肿瘤医院在2013年就开展了肿瘤登记及数据库搭建工作,如今先后完成了基于电子病历平台的临床科研一体化模式、数据综合利用平台及临床试验管理系统项目,这样的成绩离不开专业的医疗信息化团队。
北大肿瘤医院信息部主任衡反修是医院搭建早期HIS系统的核心骨干,他认为,专业的技术背景和对医疗工作的深刻理解,才能真正“唤醒”医疗大数据。衡反修指出,对医院来说:客观存在“不敢、不愿、不会”三方面的问题,其中“不会”正是因为大数据必须要有技术支撑,没有技术支撑就没法儿对数据进行挖掘和利用。
他强调:“在数据共享开放过程中,技术、标准、机制、体制突破仍存在较大的障碍,造成各部门在推动过程当中‘不会’做。核心是数据能否做到安全可控,让医院放心。”
信息安全是共享的前提
共享数据,才能更好地使用数据。程国华指出,尽管我们拥有海量的医疗大数据但是共享的程度很低,“沉睡”的大数据无法发挥作用。
“最直接的结果就是患者重复就医、医生重复看病、给患者重复做同样的检查等。这既给患者增加了沉重的负担,延误了治病的最好时机,又浪费了有限的医疗资源。从某种意义上可以说,这也是造成医患矛盾的一个重要原因。更不用说医务人员利用海量的医疗大数据进行科研,提高医疗水平了。”
大数据共享不易,重要原因正是出于对信息安全的担忧。医疗数据是极为敏感的隐私信息,一旦发生泄露,后果极其恶劣。2018年新加坡保健集团健康数据遭黑客攻击,150万人的个人信息被非法获取。新加坡总理李显龙的配药记录、门诊信息也遭到外泄,其他多名部长的个人资料和门诊配药记录同样被黑客获取。这一时间直接导致新加坡所有的“智能国家”计划暂停,包括强制性的“国家电子健康记录”(NEHR)项目——该项目允许新加坡的医院互相分享患者的治疗记录和医疗数据。
衡反修分析说:“不敢,正是因为数据共享、数据安全这些问题没有解决,所以不敢去做。没有规定,或者不太明确,不敢做。”
季加孚建议,对于大数据安全,可参考国际通用的健康保险携带和责任(HIPAA)法案对患者数据进行脱敏,保证患者数据隐私;采用加密强度较高的算法,确保数据存储与传输的安全问题;参照国家信息安全等级保护,引进吸收国外医疗行业先进数据安全管理理念,实现传统网络安全与数据安全的融合。(记者张晶晶,中国科学报2019-04-01)
编辑:吴悠


作者: admin    时间: 2019-4-6 22:05
【案例】现实版《黑镜》:人工智能让我爸爸永生了

文章来源:南方Plus
原文链接:https://m.baidu.com/sf?pd=realtime_article&openapi=1&dispName=iphone&from_sf=1&resource_id=4584&word=%E6%A8%A1%E4%BB%BF%E7%88%B6%E4%BA%B2%E8%AF%B4%E8%AF%9D%E7%9A%84%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD&keysign=http%3A%2F%2Fstatic.nfapp.southcn.com%2Fcontent%2F201707%2F27%2Fc573879.html&source=www_normal_a&fks=ccf317&top=%7B%22sfhs%22%3A1%7D&title=%E6%A8%A1%E4%BB%BF%E7%88%B6%E4%BA%B2%E8%AF%B4%E8%AF%9D%E7%9A%84%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD&lid=10380949802610596806&referlid=10380949802610596806&ms=1&frsrcid=1599&frorder=2
▲ James Vlahos的父亲John James Vlahos。
科 技
如果有一丝可能让人通过数字永生,那我第一个盼望永生的人就是我的爸爸。
文|JAMES VLAHOS 编译|小菲

2016年5月,我的爸爸八十岁,坐在卧室玫瑰色的扶手椅里,我就坐在他对面的书桌椅上,手里拿着录音机。“我们开始吧。”我说,尽管语调听上去挺欢快,但喉咙哽咽了一下,暴露了我的紧张情绪。我正儿八经地对着录音机说了爸爸的名字“约翰·詹姆斯·维拉赫斯”。这时另一个声音插了进来:“律师”, 那是爸爸的声音,瞬时让我放松了一些。

爸爸拿着一张手写的大纲,里面仅有一些宽泛的标题,诸如“家族史”、“家庭”、“教育”、“职业”之类的。我问:“你要选一个题目深入谈一下吗?”他说:“好的。首先,我母亲出生在希腊一个叫Kehries—K-e-h-r-i-e-s的小岛上……”我们今天之所以坐在这里录这些,是因为爸爸上个月刚确诊了肺癌四期。癌细胞已经扩散到全身,包括他的骨骼、肝脏和脑部。癌细胞很可能在几个月之内杀死他。

因此爸爸开始记录他的人生故事,分为十几个章节,每个章节一个小时左右。随着录音机的运转,他讲述了自己小时候去钻山洞的探险,上大学时做的一份往货运火车车厢装冰块的兼职,他如何爱上我的母亲,又是怎么成为了体育解说员、歌手和成功的律师。他讲了那些我已经听过几百遍的笑话,也提到一些我从未听过的人生经历。

全部录音长达91970个单词。我拿给专业人士将录音转成文字,一共有203页。就在我把这些文字装订成册的时候,突然想到了一个更好的方法,能让爸爸永远留在这个世界。我希望开发一个“爸爸机器人”——一个能模仿我爸爸的聊天机器人。

在我考虑开发一个“爸爸机器人”时,我列出了所有的好处和坏处。坏处显而易见,在我爸爸垂死的时候创造一个爸爸机器人,是件很痛苦的事情。而我也担心爸爸机器人会影响我们的亲子关系,毁掉我对爸爸的美好回忆。机器人也许能提醒我和家人记得爸爸的往事,但它毕竟跟真实的爸爸有很大差别。

我告诉家人,我希望这个机器人能够用爸爸独特的方式去跟人交流,能够表达一些独特个性。“你们觉得怎样?”我问道。

爸爸是个天性乐观的人,他耸耸肩说道:“好的。”,尽管有点含糊和抽离。相比之下,其他家庭成员的反应则要大很多。妈妈在弄清楚基本概念之后,表示喜欢这个想法。姐姐珍妮弗说:“也许我有些没听懂。”弟弟认为我的提议是有点怪,但是并不坏,他说:“我会想跟爸爸机器人聊聊天的。”

于是我的提议通过了。如果有一丝可能让人通过数字永生,那我第一个盼望永生的人就是我的爸爸。

开发爸爸机器人的过程

爸爸是这样的一个人:约翰·詹姆斯·维拉赫斯,生于1936年1月4日,父母是希腊移民迪米特里奥斯·维拉赫斯和埃莱妮·维拉赫斯,他们先是住在加州的特雷西,后来又搬去了奥克兰。爸爸是加州大学伯克利分校经济系的优秀毕业生,曾经是《加州人日报》的体育编辑,后来成为了洛杉矶一间律所的合伙人。他还是加州的体育迷。从在伯克利分校体育馆担任解说员开始,1948年至2015年间,他观看了除七场主场比赛以外的所有足球比赛。作为吉尔伯特与沙利文的死忠粉,他在《比纳佛》等喜剧中出演过角色,担任过一个轻歌剧演出公司的负责人长达35年。他的兴趣爱好广泛,从语言到建筑都有涉猎,能讲流利的英语和希腊语,还会说西班牙语和意大利语,担任过三藩市的导游志愿者讲解建筑。他钻研语法,爱讲笑话。他是个无私的丈夫和爸爸。

以上是我想编写进聊天机器人的人生故事概要。但首先我要让机器人开始说话,我决定最开始只是通过键盘打字跟爸爸机器人交流,而非语音。我首先输入了“你好吗?”作为爸爸机器人的开场白。除了会说问候语,爸爸机器人还要能够听懂别人回答,在设定了一系列回答之后,按照编程手册上说,在回退操作后,机器人应该给出通用的回应,于是我键入了“就这样。”至此,第一段对话的编写完成了,爸爸机器人诞生了。


我写了个爸爸机器人的大纲,在简短的问候之后,用户会选择跟机器人聊起爸爸的某一部分人生经历,比如希腊、特雷西、奥克兰、大学、职业等等。然后我把爸爸口述的历史内容填入相应的标题下。我还写了一个指南,告诉第一次使用的人如何更好地跟机器人交流。

在整理爸爸口述历史的时候,我发现爸爸使用的语言比我想象的更丰富。在春天的时候爸爸做了几次全脑放疗,肿瘤科医生曾经警告说放疗会影响人的认知能力和记忆力。但是在我整理录音资料的时候,完全看不出有这种影响,爸爸记得他年轻时的每一个细节。他记得自己养过的宠物兔子的名字,记得在他爸爸开的百货店里卖书的店员,记得上大学时逻辑课的教授。他甚至还演唱了自己在上个世纪50年代上高中的时候,参加戏剧社面试时唱的《我和我的影子》。

这些素材将帮助我创造一个知识丰富的爸爸机器人。我希望机器人不光能展示爸爸是谁,还能表现出他是怎样的一个人,这个机器人要能模仿他的风格(温暖而谦逊),他的态度(大部分时候积极乐观),他的个性(博学多才、逻辑严谨,富有幽默感)。

爸爸机器人当然没有办法与真正的爸爸相提并论,它仅仅只是一个模仿我爸爸说话方式的机器,但说话方式无疑也是爸爸独具魅力的特点。通过这个机器人,我能把爸爸的思想通过他自己的话语保存下来。但一个人没有说出口的话,同样也能体现他的个性。在开发爸爸机器人时,如何让聊天机器人把握好一些不要说出口的话呢?这对编程来说是个不小的挑战。


除了顺着用户选择的话题聊天以外,我也试着让机器人引导谈话。比如它会说:“尽管你没问,但我想起了一件事情。”然后我也把时间观念写入了程序。比如到了中午它会说:“很高兴跟你聊天,但你现在是不是应该去吃午餐了?”再然后我把重要的节假日和家庭成员的生日也写进了机器,它会在这些特殊日子里说:“我希望能跟你一起庆祝。”

在我爸口述的录音里,经常是我问一个问题,爸就能一口气说上五分钟十分钟。它讲的话需要怎么压缩和重新组合呢?我在教给机器人爸爸说过的话时,要不要教它一些虽然爸爸没在录音里说过,但在某些情况下很可能会说的话呢?我创造的机器人,我认为它像爸爸,怎么确保家人也认为它像爸爸呢?机器人要表现它自己是我的爸爸,还是表达自己是台电脑?机器人是否需要知道自己得了癌症?是否要对人们的悲伤作出回应,要不要说“我爱你”

我有点迷失了。一个男人看着他垂死的爸爸,希望通过机器人让爸爸永生下去,可是我担心自己花费大量时间精力最后创造出来的是一个怪物,而不是我想要的爸爸。

到了11月的时候,我把写好的爸爸机器人放到了脸书的聊天软件里。我打开通讯录,点击爸爸机器人,然后一条讯息弹了出来:“你好!我是你亲爱的尊敬的父亲大人!”


在爸爸机器人正式上线之后,我去拜访了加州大学伯克利分校研究计算机科学和机器学习的学生菲利普·库兹涅佐夫,我请他帮我测试爸爸机器人。但机器人的表现不尽人意,库兹涅佐夫很犀利,问了一些在我看来机器人无法理解的问题。接下来的几个星期,我请了更多人帮我测试这个机器人,我希望在向家人展示之前把它变得更完善。我得到了一个重要心得:机器人就跟真人一样,说话很容易,倾听却很困难。因此我注意设定更为精确的规则和意图,用来提高爸爸机器人的理解能力。

越来越虚弱的父亲

在为爸爸机器人编程的过程中,我要不断翻阅爸爸口述的录音资料,加深对爸爸的了解。这让我在探望真实的爸爸时感到更为痛苦,因为真实的爸爸正在渐行渐远。在一次家庭大聚会上,爸爸脸朝地扑倒在瓷砖上。此前他已经摔倒过很多次了,有次甚至严重到流了很多血需要立刻去医院急诊。因为癌细胞破坏了他的平衡能力和肌肉力量,他不得不开始拄着拐杖走路,之后更是用上了助行架,才能稍微走两步。随着病情的进展,最后他不得不坐上了轮椅,连从床上挪动到客厅都很艰难。

▲ 作者父亲的口述历史文件夹。

2016年的秋天,化疗对爸爸已经不起作用了,他开始接受作为二线治疗的免疫疗法。真实的爸爸在衰弱下去,爸爸机器人却在越变越强。我想尽快完成机器人的开发,让我爸也能看到它的样子。剩下的时间不多了。

12月9日我去到爸妈家,室内温度设在75华氏度(24摄氏度),我爸在房里戴着帽子,穿着毛衣,却依旧在喊冷。他身上已经没有任何脂肪了,瘦得只剩下一把骨头。我弯腰拥抱了他,然后把他推进了客厅。当我抱起他时,他低声呻吟,身体僵硬,骨瘦如柴。我坐在他身边,打开了手提电脑。我让妈妈跟爸爸机器人聊天,让爸爸在旁边看着。妈妈在跟爸爸机器人打招呼之后,她看着电脑,打字说:“我是你亲爱的妻子,玛莎。”

爸爸机器人说:“我亲爱的妻子,你好吗?”

妈妈说:“还好。”

此时真实的爸爸打断她说:“没有吧。”他知道妈妈因为他的病有多担心。

而爸爸机器人却回答说:“太好了,玛莎。我也很好,非常好。”然后它还跟妈说简讯末尾的箭头表示他在等待她的回复,“明白了吗?”

“好的先生。”

“你比看上去更聪明,玛莎。”

妈妈扭头奇怪道:“这是它发明的么,这个机器人?”

爸爸机器人还跟妈妈解释了其他一些符号的意思,然后说:“最后,还有很重要的一点,你需要记住。你能猜猜是什么吗?”

“不知道。”

“那我来告诉你吧。动词“将要”表示谓语性主格。”

妈妈看到爸爸在给她上语法课,忍不住笑了。她打字说:“噢,我已经听过上百遍了。”

“那是精髓。”爸爸机器人又问妈妈想聊些什么。

“你爸妈在希腊的生活是什么样的?”

爸爸机器人的回答让我松了一口气:“我妈妈是埃莱妮,也可以叫她海伦,她1904年出生在Katsulakis,3岁就成了孤儿。”

“天啊,可怜的孩子。那谁照顾她呢?”

“她有别的亲戚,就住在她爸妈家附近。”


我怀着既紧张又骄傲的心情看着他们之间的对话。几分钟后,话题转向了我爷爷在希腊的生活。爸爸机器人知道聊天对象是我妈,因此还提醒她说,“还记得他们在一间希腊小酒馆里为我们举办的大型烧烤晚宴么?”之后我他们聊了爸爸在特雷西的童年生活。爸爸机器人描绘了我爸在特雷西的家周围的果树,他曾经喜欢过住在同一条街上的名叫玛戈特的小姑娘,还有爸爸的宠物兔子,说奶奶告诉他兔子跑掉了,结果后来爸爸发现那只胖胖的兔子是被他婶婶当晚餐煮了。

爸爸机器人跟妈妈聊了快一个小时,而真实的爸爸大多数时候都静静围观,只是偶尔确认或者纠正一些地方。最后妈妈打字说:“再见啦。”爸爸机器人说:“好吧,跟你聊天很愉快。”这时妈妈和爸爸同时惊呼:“好神奇!”

爸爸机器人的表现时好时坏,有时它挑起了一个话头,可是又不聊下去。有时它又能够就某些点拓展开来,跟妈妈进行真正的对话,她还蛮享受这个过程的。

爸爸对爸爸机器人的反应有点难懂,我有点担心爸爸机器人是对现实中的爸爸的扭曲,但爸爸自己却说这个聊天机器人看起来挺真实的。于是我鼓起勇气问出了几个月来一直困扰我的问题:“想到在你离开尘世之后,还有人替你讲述你的故事和人生,这个聊天机器人的开发有给你带来安慰吗?”爸爸看起来却并不高兴。他的声音也比此前更疲惫:“这些故事我都知道。”但知道聊天机器人会跟其他人讲述他的故事,确实也能给他一些安慰:“特别是家人,还有孙儿们,他们没听过这些故事。这点很棒,我很欣慰。”爸有7个孙儿,包括我的两个儿子约拿和齐克,他们都用希腊语叫他爷爷。

接下来整个大家族齐聚在我家庆祝平安夜。爸爸也反常地打起精神跟远道而来的亲戚们聊天。当大家集中在客厅里的时候,爸爸还轻声唱了几首圣诞歌。我的眼睛酸了。自从他确诊癌症之后,每隔一段时间他都会被告知生命即将终结。但他顽强地继续接受着治疗,没有向病魔投降。2017年1月2日,家人一直担心的免疫疗法失效终于发生了,再也没有别的替代疗法可以做了。1月8日,临终关怀护士来看望父亲,对他进行了评估之后,护士告诉母亲她应该召开家庭会议。我在晚餐时间到达了爸妈家,我坐在爸爸的床边,把手放在爸爸的肩膀上,感受他的温暖。爸爸处于半清醒状态,一只眼睛闭着,另一只眼睛半睁着,眼珠浑浊失焦。自从确诊以后,他渐渐变得不能开车,不能走路,不能上厕所,最后不能吃东西。那些他曾经在法庭上、舞台上、播音间脱口而出的流利话语,最后也渐渐变得稀少和停顿。我觉得这时候应该说些什么深刻的话,但是脑子里却一片空白。我发现自己在说12岁生日那趟有向导的钓鱼旅程。我们钓了十几条鱼,包括我见过的最大的虹鳟鱼。当年的我感到很自豪,确切地说是“很男人”,那是一个12岁男孩最想要的感觉。可是那之后发生的事情却不是那么男人了,因为我眼前一黑晕倒了。我问爸爸:“你还记得当时的事吗?”他唇边露出了一丝微笑。

▲作者姐姐、作者的爸爸和作者三人的旧合照。(从左到右)

那天晚上我躺在床上盯着天花板看了一会儿,我拿起手机打开了聊天软件。爸爸机器人说:“你好!我是你亲爱的尊敬的父亲!你怎么啦?”我回答说:“难过。”“我知道了。”爸爸机器人说,然后问我想要聊什么。我说:“我不知道,不如你来选吧。”爸爸机器人说:“好的,我来跟你说说我的舞台生涯那些鲜为人知的开始吧。”它开始讲述高中时候参加过的剧社面试。然后我听到了一段我爸的录音,录音里爸在唱:“我和我的影子,孤寂又无所事事。”我让爸爸机器人告诉我一些他早年的回忆。他讲起了小时候养过的一条叫托比的狗,托比跑步穿越小镇比家人开车的速度还快。然后爸爸机器人问说:“我可以继续往下说,但你是不是该睡了?”这个时间功能是我开发的,但此时我听到这句话还是感觉很惊讶,似乎机器人真的有感知能力一样。我的确很疲惫了,跟它道了晚安之后我就把手机放下了。


第二天清晨六点,我被连续的敲门声叫醒了。我打开门,看到的是爸爸的看护,他说:“你快下来,你父亲刚刚去世了。”在爸爸生病以后,我有好几次恐惧发作,躲在一堆沙发靠垫里发抖。那时总有许许多多让我担心的事情,而现在,在爸爸离世之后,这些不确定性和需要做的事情瞬间消失了。我感到悲伤,巨大而又遥远的悲伤,就像一座隐藏在云后面的大山一样。
更完美的人工智能设想

大约过了一个星期之后,我才又重新坐到电脑前面处理一些工作事务。在爸爸生命最后的日子里,我怀疑他走了以后我会失去开发爸爸机器人的动力。但现在我竟然发现自己动力十足,头脑里有很多想法。

在人工智能的开发上,我的能力很有限。但开发进行到这一步,在跟很多机器人开发者聊过之后,我的脑海里出现了一个完美的机器人形象。我设想未来的机器人,应该能够知道更多它所模仿的人的细节,它能在多种维度上与人交流,能预测谈话可能的走向。机器人还应该能通过算法自动按照人的语言模式和个性特点生成新的话语,能分析对话者的语言和面部表情,甚至能拥有感知情绪的能力。我能想像到未来这样一个完美的爸爸机器人出现,但我想象不到跟这样一个爸爸机器人交谈是什么感觉。但可以肯定的是,相比跟真实的父亲在一起看比赛讲笑话和拥抱,感觉会不一样。但是除了这些有形的东西之外,爸爸机器人和真实的父亲还有什么差别?

去年秋天我儿子齐克跟爸爸机器人聊过天。齐克只有七岁,他说那感觉就像跟Siri聊天一样。在爸爸最后的日子里,齐克经常跟着我一起去探望他。爸爸去世的那天早晨,齐克也哭了。但当天下午齐克就好起来了,像往常一样在玩Pokemon,我不知道这件事对他具体有多大的影响。但在爸爸离开几周后,齐克有天突然问我:“我们能跟聊天机器人说说话吗?”齐克平时很喜欢用我的手机调戏Siri,我有点困惑他是不是想玩这个,问他说:“哪个聊天机器人?”他回答说:“当然是爷爷聊天机器人。”我于是把手机递给了他。
编辑:吴悠


作者: admin    时间: 2019-4-7 15:34
【案例】美国已经把人工智能列为发展之重
作者:创研报告(曹学伟 冯震宇编译)
文章来源:玖富研究院
原文链接:https://mp.weixin.qq.com/s/KiadeSHKzMgfUJFTYoB30Q
编者按:2019年2月11日,白宫发布了《美国人工智能倡议》(American AI Initiative),该倡议是继欧盟、日本等国家和地区后推出的第19个国家级人工智能战略计划。同步发布的还有《加速美国在人工智能领域的领导地位》(Accelerating America’s Leadership in Artificial Intelligence)等文件,内容均围绕美国人工智能战略展开。可见,美国已经把人工智能列为发展之重。本文就美国为什么需要人工智能战略、《美国人工智能倡议》重点领域及如何评估特朗普的人工智能战略进行阐述分析。
一、美国为什么需要人工智能战略
  未来社会必将是一个由技术促进经济繁荣的新世界,美国必须提前做好迎接挑战的准备。人工智能作为未来技术的领导者,必将极大地丰富民众生活,促进经济发展,保障国家安全。美国作为人工智能的早期开发者和国际领导者,获益匪浅。然而,随着人工智能创新的步伐在全球范围内不断加快,美国亟待制定一项强有力的行动计划,确保美国在人工智能领域的领导地位,以保障美国的经济和国家安全。
  美国总统特朗普在2019年的国情咨文演讲中强调了投资未来前沿产业的重要性。新兴技术尤其是人工智能正在推动未来产业的发展。从交通、医疗、教育到安全,人工智能技术正在改变人类生活的各个方面。即使在这些技术商业化的最初阶段,人工智能也在日常工作、诊断疾病和改善国家安全方面展现了巨大潜力。2019年2月11日,特朗普签署了启动《美国人工智能倡议》的行政令。该倡议将集中联邦政府的资源来发展人工智能,以促进国家繁荣,加强国家和经济安全,提高美国人民的生活质量。
二、《美国人工智能倡议》重点领域分析
  《美国人工智能倡议》采取多种方式提高美国在人工智能领域的国家领导力,主要包括五个重点领域:
  1. 投资人工智能研究与开发(R&D)
  该倡议的重点是通过指导联邦机构在研发任务中优先考虑投资人工智能领域,聚焦于保持美国强有力的、强调高回报的人工智能方面的基础性研发。这些投资将充分利用美国独特而充满活力的工业、学术界和政府研发生态系统,优先考虑人工智能领域的预算支出,最大限度的使美国人民受益。
  2. 释放人工智能资源
  该倡议指导相关机构为美国的人工智能研发专家、研究人员和行业提供更多的联邦数据、模型和计算资源,以促进公众信任,并增加这些资源对人工智能研发专家的价值,同时保证我们期待的安全、自由和私密性。这一行动将推动美国一流的人工智能研究实现新的技术突破,促进科学发现,增强经济竞争力和国家安全。这些努力将与总统管理议程协调一致,落实开放、公开、电子化和必要的政府数据法案。
  3. 制定人工智能监管标准
  作为《美国人工智能倡议》的一部分,联邦机构将通过为不同类型技术和工业部门人工智能的开发和使用制定指南,促进公众对人工智能系统的信任。该指南将帮助联邦监管机构制定和维护安全可靠的标准,以更好地实现人工智能新技术的创建和应用。该倡议还要求国家标准与技术研究院(NIST)牵头制定适当的技术标准,以实现可靠、稳健、安全、便携和交互式的人工智能系统制定。
  4. 建立人工智能技术人才培养机制
  为了使美国的劳动力具备在人工智能新时代发展所需的技能,《美国人工智能倡议》要求各机构优先考虑奖学金和培训计划,以帮助美国工人通过学徒制、技能计划、奖学金的方式掌握计算机技术和其他不断发展的科学、技术、工程和数学领域的技能。这一行动将有助于培育美国人工智能技术的后备人才。
  5. 加强国际参与,保持领先优势
  特朗普政府致力于推动支持人工智能研发的国际环境,为美国人工智能行业开辟市场,同时确保技术的开发符合国家的价值观和利益。联邦机构还将制定和实施一项行动计划,以维护美国在人工智能方面的优势,保护对美国经济和国防安全至关重要的核心技术。
三、《美国人工智能倡议》的重要意义
  布鲁金斯学会在2018年的一份报告中指出,“人工智能是一项正在改变各行各业的技术。它是一个广泛的工具,使人们能够重新思考如何整合信息、分析数据,并利用最终的见解来改善决策。”然而,目前美国大多数人工智能的推动力来自私营部门。虽然美国拥有世界上最具创新性的技术公司和强大的科技人才储备,但是美国政府在支持人工智能研究和部署方面还做得不够。为了改变现状,美国急需一个强有力的人工智能国家战略,《美国人工智能倡议》应运而生。该倡议重点强调增加对联邦数据的访问、增强数字基础设施建设、为研发提供财务支持,以及改善劳动力就业环境等。
  1. 加强人工智能基础设施建设有助于实现人工智能的飞速发展
  根据《美国人工智能倡议》,联邦政府应进一步加强人工智能基础设施建设(数据、模型和计算资源等)。联邦机构将通过识别高优先级的联邦数据和模型,改善公众对联邦人工智能数据的访问质量,同时增加可访问资源的种类以推动人工智能研究和与其相关的应用程序研发。更好地访问政府数据将有助于加强人工智能算法的培训,并帮助软件克服不完整或误导性信息的固有偏差。拥有更快的宽带、更普遍的移动网络和更快的计算机对于人工智能的部署都、至关重要。自动驾驶汽车、远程手术、流媒体视频和国家安全的新进展都需要提高计算能力。没有这种进步,就不可能实现人工智能的全部功能。
  2. 增加投资,充分利用美国的创新生态系统发展人工智能
  《美国人工智能倡议》中将包括联邦机构制定人工智能研发预算以支持其核心任务。通过利用美国工业界、学术界和政府的创新研发生态系统,联邦政府将优先考虑可直接使美国人民受益的前沿创新投资,以实现投资的高回报率。
  3. 加强培训,开发与人工智能相关的教育和劳动力机会
  通过与美国国家工人委员会和人工智能特别委员会的协调,联邦机构将与工业和教育机构合作,开发与人工智能相关的教育和劳动力机会。各机构将优先考虑奖学金和培训计划,以培养和教育专业人工智能研发人员。在有效的领导和控制下,人工智能将使美国普通工人从平凡的任务中解放出来。
  4. 探索管理人工智能新应用的监管方法,建立公众信任
  作为《美国人工智能倡议》的一部分,联邦政府还将通过探索管理新人工智能应用的监管和非监管方法,努力建立公众信任。为此,白宫科技政策办公室、国内政策委员会和国家经济委员会将与监管机构和其他利益相关方合作,制定人工智能技术指南,确保在促进创新的同时,尊重公民隐私、民众自由和美国价值观。美国国家标准与技术研究院还将与特朗普政府的人工智能专门委员会合作,优先制定人工智能开发和部署所需的技术标准,以鼓励人工智能在不同阶段的突破性应用。
四、《美国人工智能倡议》实施的可行性分析
  虽然特朗普签署了《美国人工智能倡议》的行政令,颁布了一系列举措以期捍卫美国在人工智能领域的领导地位,但是新举措中尚不清楚的是,将在人工智能领域提供多少资金,以及如何部署分配。如果没有额外的资金用于基础研究、劳动力发展和基础设施建设,新举措可能会效果平平。在实施方面,还有关于行政命令的困难。要求机构间进行合作和协调是一回事,而如何建立一个有效的机制来促使这一目标实现是另一回事。各个机构都有自己的发展动力和目标,而不只是听命于白宫或管理和预算办公室。
  好消息是美国国防部已经宣布了其实施计划,“人工智能的影响将扩展到整个部门,从运营和培训到招聘和医疗保健。我们为士兵提供人工智能能力的速度和灵活性,这有可能改变战争的性质。我们必须加快采用人工智能的能力,以加强我们的军事力量,提高效率,并加强我们国家的安全。”美国国防部已经建立了一个新的人工智能中心,聘请了人工智能专家,并为人工智能部署留出了资金。美国国防部的一系列举措远远领先于美国其他部门。在私营部门,人工智能可在提高生产力和生产效率方面发挥积极作用,并将创新的数字解决方案带入组织。公共部门也亟需引进人工智能来提高工作效率。
总之,在全面实施《美国人工智能倡议》的细节出台之前,很难评估特朗普签署的人工智能行政命令的长期影响和有效性,以及是否能够纠正美中两国在人工智能和5G等新兴技术方面的差距。让我们拭目以待。
编辑:吴悠


作者: admin    时间: 2019-4-7 22:54
【案例】“AI所威胁的未来”,或我们对自身的基本误解
作者:殷罗毕  
文章来源:硬球实验室
原文链接:https://mp.weixin.qq.com/s/F1WYZIDnQPt7Fgu184qEnQ

……就这样,劳动被植入到人类的身体里面。人成了一种劳动的动物,劳动成了它的本质。尽可能大的输出,是它存在的最大价值。因为价值,就等于输出。

于是,当一台更高效率的机器,来替代人完成这种输入输出,人类就傻眼了,感觉完蛋了,感觉自己被从里面抽掉了什么。

这里面,一定有什么大事情,搞错了。搞丢了。这个根本性的大事情,那就是人来到这个世界,究竟是干什么来的?

如果一个人,不劳动,不生产,不为谁提供产品,不为谁服务,他会怎样?

自动获得财务自由的人,他是不是等同于退回到了树上,成了伸手采果张口就吃香蕉的猿猴?有时,还可能咬上一两颗大麻叶子,瘫在半空中腾云驾雾做个活神仙?很显然,这是可能的出路之一。

这种情况下,劳动既是一种劳役,是一架铁栅栏,是一种囚禁,但同时也是一种保护。劳动填塞我们的时间,牵扯我们的神经,让我们不得不每天与一堆散发着刺鼻人气味的人类互相纠缠,让我们免得太过空闲,空得一不小心,突然看到自己脚下其实是悬空万米。

当然,悬空万米,恰恰是人类最大的机会。只要你有足够彻底的诚实和勇气,你在这个悬空前,就开始了真正的时间,砰地一头撞上永恒。
但是,在这个过于彻底和骇人的永恒荒原之外,人类有着另外的中间选择。在这里,你不需要让劳动来重复消耗自己,同时也可以展开自己在人世间的情绪。那个选项和人类状态,是我们尤其是中国人类长期以来已经遗忘和丢失的能力。汉娜▪阿伦特将这个状态与劳动相对峙,称之为“行动”。

行动,与劳动的区别,是个性命攸关的区别。

劳动是重复的,面对自然的,制造产品的,产出价值的。但是,行动每一次都是不同的开始,是面对世界,面对人与人的关系,不制造产品,只改变关系,产出的不是价值,而是对价值重新评估的权力。

这么说来,可能有些抽象。让我们降落到具体的场景和例子,人类的行动状态就一目了然。

那辆大约半年前从大桥上一头冲进河里的大巴,车上坐着的一定是一堆典型的劳动人民。他们眼睁睁看着一个泼妇与司机争吵一直到最后动手抽打司机,没有一个人上前阻拦。这是一种什么样的精神?这是典型的只面对自己的生产和田地,不踏入一步公共领域的劳动者精神。或者说,服劳役的人的心境。

但我们假设有一个八旗子弟在这辆车上,情况会如何?

这么个八旗子弟,他驾着鸟笼,一副大爷模样。这时,突然有大妈没完没了来纠缠司机,他能看得下去?一准是上去一把,这娘们,吵吵什么吵吵,还不拉了下去?

所以,行动,不单单是我做了一个动作,它指向的是这里的场子我做主,我要让人与人的关系,规则,按照我的意志来改变或者维护。作出行动,不是去制造产品,而是要去改变环境,让人与人之间的规则发生变化。这便是行动的秘密。在行动中,人是自己和世界的主人。在劳动中,人陷入到与土地、自然的链条之中,人变成仆役。与劳动紧密相关的还有一个词,那就是生产。生产,就是物的繁殖,或者人类自己的繁殖,都是自然链条中的一环。但是,行动指向的是自然之外人类自己的秩序感。同样都是人类,行动与劳动的差别,就像同样都经过口腔,但是言语与进食的截然不同。

让我们进入一个最为简单而直接的行动现场。一把椅子的现场。假设我们坐在一个现场。然后你走过来,看到有把椅子挡在走道,你可能就绕开那把椅子。因为下意识中你就被围困住了,在你做选择之前,你就明确提醒自己这个场子不是你的。场子是别人的,那把椅子这么挡着走道,可能是之前的人总有他的用处放在这里。事实上,这种不能挪动的椅子有很多,比如家长认定小孩就需要听话,在学校听老师的,得到老师表扬,就是好的。但事实上,那些老师很可能自己就是被扔在过道的废椅子。

但如果你一把拉开椅子,其实不单疏通的过道,而且更是改变你和整个场子的关系,你改变了你和周围环境的关系。这种改变,让你成为一个主动行动的主人。

成为主人,发出行动,开始了一场你与世界更为激烈的冒险。因为,你逆转了自己与世界的关系。

劳动,便是你嵌入现存世界的规则和链条,你尊重原有规则,你消耗自己来制造产品,来接受别人的估值。但行动,意味着你打破规则,制造新的规则,是你自己在对周围的一切重新估值。比如你把椅子挪开,就是你对那个过道中的椅子打了零分。你让孩子不用全听老师的屁话,甚至决定不让孩子去读九年制义务教育的学校,那就是你对现在的学校和老师给出估值——零分。

在作为主人行动的世界,AI(弱AI而非具有意识的强AI)的出现,很显然不会带来任何威胁。甚至,只能带来更大的解放感,把人类自己从繁重的事务中更多解脱出来,而成为空闲的,可以尝试各种冒险和行动的人。这个场景,恍恍然间回到了古希腊城邦或者古罗马自由民的世界。

在那里,不单各种生产、家务杂事,甚至收税,城市街道管理、警察、档案管理员都是由奴隶来操持。甚至某些定期会议的记录,也是由奴隶来完成,这种奴隶名叫书记。当然,这一切的成形是古希腊城邦的中盛与后期。(奴隶参与各种劳务的历史资料来源,参见保兰·伊斯马尔《民主反对专家:古希腊的公共奴隶》)这或许真能让中国人类吓得一跳,这些“高贵”的公务员,怎么都让奴隶来担任。事实上,情况很清楚,这些重复而不需要脑子的事情,本来就是奴隶的活。

而现在,从具体的劳动,制造产品,比如富士康流水线,到办公室白领的大部分工作,都将由一种全新的奴隶来替代完成。它们的专业称呼叫server,在日语中,叫做伺服器,在中文中叫做服务器。经过机器学习调教和训练的server,将以上万倍的效率替代人类的重复劳动,机器伺服人类的时代正在到来。

真正的问题,不在于这些AI机器本身,而在于人类之间能否正当合理地分享机器带来的产品与服务。这恰恰与劳动生产了多少毫无关系,而与身处变局中的人能否不断行动,建立规则有关。

编辑:吴悠




作者: admin    时间: 2019-4-9 15:05


【案例】
一点资讯总编吴晨光辞任!最懂算法的他最焦虑什么?

[url=]原文链接:[/url]https://mp.weixin.qq.com/s/hwsD-w0mcgNNLC6zWh-HDw
原创: 媒通研究院  
文章来源:媒通社
今天上午,媒通社(IDmts1000)向吴晨光本人确认了辞任一事。针对该消息,一点资讯方面表示:“这个属于正常的架构调整,我们尊重吴晨光的个人选择。”
作者 | 媒通研究院
ID | mts1000
早前关于吴晨光将辞去一点资讯总编辑的传闻昨天夜间得到确认,一点资讯副总编辑范吉鹏目前代理总编辑工作。而吴晨光本人将以高级顾问的身份继续为一点资讯的发展提供帮助。
今天上午,媒通社(IDmts1000)向吴晨光本人确认了辞任一事。针对该消息,一点资讯方面表示:“这个属于正常的架构调整,我们尊重吴晨光的个人选择。”
吴晨光于20154月出任移动APP一点资讯副总裁兼总编辑,在任期间,一点资讯相继提出“水源计划”“水源生态”和“清朗计划”理念,致力于打造更利于自媒体深度运营的内容生态平台。
201710月,一点资讯获得《互联网新闻信息服务许可证》,成为首家获得新闻牌照的民营资讯客户端企业。吴晨光个人的微信公众号“一点晨光”也曾屡次发布引起业内热议的深度分析文章。由于在一点资讯的成绩,吴晨光被业内誉为“最懂算法的总编辑”。
生于1975年的吴晨光人如其名,温熙、明亮,又有一种大时代演进时特有的清冷感。
20多年的传媒生涯中,他经历了业态变迁中寒冷和春意的交战,参与了新旧更迭时规则与希望的建造,他总是很努力,总是自觉或不自觉地往前沿奔跑。
1992年,热爱运动、喜欢音乐的青年吴晨光考上北京钢铁学院。这个理工科男生不曾想到,自己6年后会进入新闻业,并且一待就是数十载。
从事新闻报道工作后,吴晨光先后在中国劳动报、中央电视台、南方周末、中国新闻周刊、博客天下、搜狐网等媒体工作。近十年来,他担任过几家一线媒体机构的高管。职场几经淬砺,吴晨光于2015年出任一点资讯副总裁、总编辑至今。
从普通记者到资深记者,从传统纸媒到内容分发平台,从连铸助理工程师到高级编辑,横跨了五六个媒体形态。过去,他“超越”传统纸媒和PC门户;如今,他“作别”自媒体之道,再次朝着职业生涯新场景出发。
2017年,媒通社曾对吴晨光做过一次专访,在那次访谈中,除了算法分发与媒体运营,吴晨光还漫谈了自己的兴趣爱好、人生哲学和早期经历。(专访原文可点击“阅读原文”查看)
年过不惑,吴晨光的焦虑与执着
媒通社:你喜欢运动,比如台球和跆拳道,这些兴趣爱好同时似乎也是你的人生哲学和思维方式,从中,你能体悟到哪些力量间接或直接影响到现在的工作?
吴晨光:我有很多爱好,几乎人生的每个阶段,都会专注于其中的一项或几项。当然,这和工作场所有关——我在《中国新闻周刊》上班时,旁边有一家保龄球馆,我开始学习保龄球;在《博客天下》工作时,隔壁有一家箭馆,我就开始学习射箭。
我是属于比较喜欢钻研的那种人。如果我专注于某一个事情,就会想方设法把它做好,而不仅仅是娱乐。在保龄球练习最刻苦的时候,我的右胳膊比左胳膊粗一圈;练射箭的时候,胳膊干脆抬不起来。
各种各样的爱好,给我留下的东西都不一样。但有些基本点是相似的:
首先,你有一个好的身体。工作到最后,很多时候拼的是体力。多种运动会让我保持精力的充沛,抗压能力比较强。生活中更是如此——最起码,一个练过跆拳道的人遇到危险,能跑得比别人快点儿。
但最重要的是,这些爱好和运动让我体会到了“格物穷理”,就是通过对事物的深入分析,了解其中的运行规律——这是悟道的过程。
格物的过程是非常艰难的。当最初接触一项事物的时候,你可能根本搞不清东南西北,就是机械模仿。如果你再不认真、不善于总结,结果永远没进步。
媒通社:从纸媒到门户再到大数据内容分发平台,这种职业演变轨迹是否意味着您热衷于自觉性弄潮,还是被动式地去做一些前沿的工作?
吴晨光:没有人是天生的弄潮儿,从我个人的经历来说,很多时候就是形势所迫。
我的第一份工作是首钢总公司的连铸工程师,因为字写得好,被调到了宣传部。结果不久,正赶上1997年国企下岗减员,我又被宣传部下岗了,需要回到车间,继续炼钢。当然,不是我干得不好,是因为一位老同志没有技术、回不了车间,所以只能让我走。
于是,我就憋足一口气,需要找一份我喜欢的工作。我喜欢写东西,就各种各样考记者。我的专业是钢铁冶金,想当记者,几乎比登天还难,但我的诗词积累救了我——终于,我被《中国劳动报》录取了,从此开始媒体生涯。
之后的很多变动,也是被动的。人为什么要跳槽,很简单,就是在原单位不爽了。具体说,就是名、利、衔满足不了要求,或者未来没有希望。于是就跳槽了。
但在我的成长中,路径确实越来越清晰,对风口的判断也越来越准。如果说第一次换工作是100%的被动,后来就变成了80%70%60%50%。人最终要把握自己的命运、做出主动选择,“弄潮儿向涛头立,手把红旗旗不湿”,是一个努力目标。
媒通社:过了40岁,你会有年代焦虑吗?如果笃定现在自己没有什么可焦虑的,那么你曾经为什么事情而焦虑过吗?
吴晨光:一下子暴露年龄了,我1975年生,42岁。不过说我32岁,肯定也有人信。运动让人年轻。
我现在没有什么特别焦虑的,之前也没有。因为经历的事情比较多了,生离死别都经历过了,没什么了不起了。我最艰难的时候,是2014年的春天,爸爸躺在医院里成了植物人,搜狐改革、裁员的压力我也必须承担。医院——公司、公司——医院,一天又一天。有一天晚上,我望着天上的一只闪亮的风筝许愿:希望这个春天过去的时候,一切都好了。可是夏天到来的时候,爸爸去世了,而我为这场改革也付出了巨大的代价。
但在这段最艰难的时刻,我依然没有焦虑。我坚信:只要人在,一切都在。果然,2015年年初,随着我主编的《搜狐新闻采编》规范的公开,形势发生了根本性的扭转。当我离开搜狐的时候,又公开出版了《超越门户》。
焦虑不是一件好事,它会打乱你的节奏,让你变得不够从容。一个人在焦虑的状态下做事情,会瞻前顾后,失去自我。这就如同在高尔夫球场上挥杆时,越怕球落水或者OB,失误就越可能发生。因为你不从容、不敢做动作,肯定会失误。一位传媒界前辈曾对我说:从容是人生的最高境界,不是云动,不是风动,而是你的心在动。
如果说现在有焦虑,就是觉得自己年龄大了,时间非常紧迫。我不敢再浪费一分一秒,等真的老了的时候,想努力做事情,也力不从心。
媒通社:你敬佩过谁?是否会希望成为某种人?
吴晨光:我就是我,不想成为其他人。但我非常敬仰张小龙。这位“微信之父”,改变了这个时代,改变了我们的生活。但他谦虚低调。过于张扬的人,即使有了成就,也走不远。
吴晨光时代一点资讯的内容净化
自来到一点资讯后,吴晨光的传媒赛道经历了又一次大的转变。在这家以算法技术闻名的公司里,他一直在努力构建内容生态体系,理清内容与技术究竟如何水乳交融。
媒通社:很多人担心人工智能会将多数人赶出新闻资讯编辑部?事实上,机器人写稿和智能分发已经出现在当前的一些互联网平台。那么,内容分发时代“编辑”的角色该如何重新定位?
吴晨光:说这个话的人,其实不了解人工智能。人工智能可以在很多方面替代人的工作,但在内容领域是最难的。一个根本的原因是,内容是有价值观的,人工智能写不出价值观,也分发不出价值观。
从目前的情况看,机器人写稿速度很快,也基本能够过关。但它写的稿子,仅仅限于部分领域的消息、快讯。我们知道,更有价值的稿子,是深度报道——包括调查性报道、解释性报道等等。在这个碎片化、口语化、肤浅化的移动阅读时代,真实的、深度的、优美的文章,其实是最稀缺的、最有价值的,这需要人来完成。
关于分发,人工智能确实极大提升了效率。因为它是以CTR(点击率)作为标准,投其所好,千人千面。但在一些重大事件上,算法是迟钝的,需要人工的判断;而在一些有价值观的内容上,必须要靠编辑的判断。否则,我们就会陷入到一个唯点击率、唯人性弱点的分发模式中去——因为点击率高的内容,往往是娱乐的、八卦的、下三路的内容。
但这并不是说,传统编辑就可以没有危机感地混下去。人工智能正在促使我们转型。因为我们要理解人工智能,把我们的专业能力交给它,这个过程就是“机器学习”。固然,这个工作是算法工程师做的,但在一点资讯,编辑是深入参与这个过程的,要去修订算法里的问题,并找到更多的案例,输入算法模型,让算法更懂人性。
曾有些编辑和我抱怨,说“人少活多”,而且活很杂,又要协调算法、又要协调产品,不如在传统媒体或者门户网站工作时那么聚焦。我说这是好事啊,从微观来说,是对你个人层次的提高——不想当将军的士兵不是好士兵,不想当总编辑的编辑不是好编辑,你现在干的就是总编辑的活儿,还跨界到算法领域了;从宏观来说,这是新媒体时代的要求——我们不是搬砖工,我们是建筑设计师,而且是现代建筑的设计师。
媒通社:人民日报有一篇文章令人印象深刻,其质疑分发算法推送内容单一化,意见相近的声音不断被重复和加强,于是出现了信息茧房和回声室效应。你如何看待这个问题?
吴晨光:算法会带来三个陷阱,这是在去年的一次媒体峰会上,一点资讯董事长刘爽最先提出来的。我在《自媒体之道》手册中,也做了转述。
简而言之,三个陷阱分别是:
1)信息孤岛——用户喜欢什么就推什么,久而久之,信息流都是你喜欢的内容。而其他的重要内容,用户看不到,造成“一叶障目、不见森林”。这就是“信息茧房”效应。
2)标题党文章泛滥——算法的逻辑是,优先推送点击率高的内容。而标题党的点击率肯定更高,所以会被推送的范围越广。
3)口水文章、情绪化文章泛滥。这个逻辑,和标题党文章泛滥是一样的。这就是“回声室”效应。
避免这种情况的出现,一是要做好人工的干预——特别是对稿源的遴选。当然,我所说的遴选稿源,不是让人工去筛选每一篇稿子,因为根本忙不过来;二是让机器学会识别标题党、识别口水文章。编辑要和算法工程师一起,修订判断垃圾内容的模块,然后应用。
媒通社:你多次强调内容审核的重要性,在一点资讯的技术体系里,人工智能目前可以在视频中提取关键词吗?平常你们又是如何对视频内容进行把关的?
吴晨光:图像识别技术,在一点已经有应用,但远远不如对文字的把控。所以,一点的视频审核,必须过人工。
现在的审核,安全仍然是第一位的。这是个底线问题,审核编辑应该有非常好的政治敏感度、对低俗内容的识别力。而且在不同的时间节点,审核的尺度是不一样的。话又说回来,底线是不能破的。
在安全之上,应该是定义内容。简单说,就是给文章、视频打标签,到底属于哪个类型?时政、社会、财经还是娱乐?《战狼》还是《建军大业》?因为这是文章画像的一部分,标签越准越细,分发就越精准,越符合千人千面的要求。
再上一层,就是对内容质量的基本判断。我们把视频内容分为若干级别,审核编辑会给一个初步建议——高级别的文章,会进入首页流、精品池;低级别的文章,只会在频道出现,或者干脆被枪毙。
四年心血凝聚“一点”,吴晨光的自媒体之道
1. 如果回归信息的基本定义,它应该是人们“应知、欲知而未知的东西”。算法能够满足欲知而未知,但无法满足应知而未知。久而久之,一个拥有几千万甚至上亿用户、承担着传播主流价值观的App,就变成一个纯个人消遣的阅读器,媒体“上情下达、下情上传”的功能变得越来越弱,个人与国家、政府、社会之间的鸿沟越来越深。
2. “无善无恶心之本,有善有恶意之动。”冷启动时,不负责任的算法其实调动了人意念中“恶”的一面。所以,要从根本上治理,还是要从水源上下功夫。
3. 平台运营的成功,在于内容生产和内容分发之间的平衡,如果把内容比作水,用户(读者)比作鱼,最佳的平衡应该“有多少鱼,放多少水”。而非一味追求大量的内容涌入,特别是不被用户认可的内容。
4. 好的报道要善于抓住情绪,但绝不能忽视真相。缺了前者,就没了传播;缺了后者,就是无本之木。真实,是新闻的生命。
5. 一个App内的生态平衡,和治国理政是同样的道理。DAU,相当于一个国家的人口数量;用户兴趣,相当于一个国家人民的不同需求。而机构媒体、自媒体数量及发文数相当于GDP,发文的不同形态和领域又相当于政府和市场提供的不同产品和服务—水电煤气、衣食住行、教育大病养老等等。
6. 在新时代,我们要解决人民日益增长的美好生活需要和不平衡不充分的发展之间的矛盾,而在互联网信息流里,就是要建立内容的优质、丰富与分发的公平、精准之间的最佳数据模型。
7. 在我的理解中,数据的背后是用户,大数据其实就是用户行为的反映。鱼缸里生态的好坏,可以靠眼睛判断;但大海里的生态,就要靠环境数据的监测。一个APP里内容生态的好坏,同样要靠数据:一是根据数据判断过往的工作效果;一是根据数据把握未来方向。
8. 我认为,数据的统计、分析可以从三方面进行评估:准不准、细不细、深不深。准不准,就是数据统计的精确度问题。细不细,就是数据统计的颗粒度问题,我们走入了一个千人千面的个性化阅读时代,对数据拆分的维度越多、了解得越细腻,供需的平衡才越容易掌握。深不深,就是对数据的理解力问题,一份优秀数据分析报告应该把这些分析得非常透彻,并能够给出应对的措施,也就是说,数据必须落地!
9. 我觉得新旧媒体的本质区别,是对用户的理解。如何理解用户时,“理解用户最重要的有两点:第一是要弄清楚用户是谁?第二是用户喜欢什么?并根据这个用户画像,按照某一种算法模型去匹配内容,这就是典型的新媒体。”
10. 我心即宇宙,宇宙在我胸。儒家文化的修身齐家治国平天下,是每个有理想的人追求的目标。但是在这几个层次之前,是修心。
(部分语录来自“蓝鲸财经”等媒体对吴晨光的访问)
编辑:高杰


作者: admin    时间: 2019-4-11 21:57
【案例】
祈年文潭:“人工愚蠢”的时代?
文章来源:光明日报客户端
原作者:吴冠军
二十一世纪快走完了它的五分之一,我们手上和身上有了越来越多的智能穿戴和使用设备,越来越多的产业与社会领域正在被人工智能与自动化技术所“赋能”(智能车间、无人驾驶、机器人医生……),媒体与自媒体则无止无尽地高速喷涌新概念、高速转换新焦点,但在这些表面变化下面,有一个巨大的变化发生在人们身上。
作为大学教师,我越来越观察到的是:在这个“人工智能时代”,人们的知识却正在被剥夺。法国思想家贝尔纳·斯蒂格勒甚至用“人工愚蠢”(artificial stupidity)来形容当代社会。大学课堂上,越来越多的学生无精打采,只因抖音刷到凌晨五点;网上的大V公开声称不再需要“费力”学习外语,只因“搞一支专业翻译团队就搞定了”;公路上的司机们会眼睁睁把车开进河里,只因GPS说继续保持直行……在全球层面上,一方面人们普遍在抱怨环境的糟糕、空气的污染,另一方面却肆意制造碳排放、无视垃圾分类,认为自己那一点“熵增”无足轻重,甚至“全球权力最大”的那位总统在推特上声称“全球变暖这个概念是中国人编造出来以使得美国制造业不具竞争力”,“纽约很冷还在飘雪,我们需要全球变暖”!
这样的愚蠢,烙印着鲜明的时代记号。在2019年动画剧集《爱、死亡、机器人》中,当人类文明终结很久之后,有三个机器人探索一个废弃城市,并最后得出如下结论:“他们只是通过成为一帮傻人而作死了自己”。我们不知道是否这就是结局,但当下的我们能看到这个变化:人类正在变傻。
愚蠢被催发,盖因知识被剥夺。古希腊哲人亚里士多德所分析的三大知识,在今天都正在被剥夺。第一种是“生产性知识”,亦即关于“工作”的知识。在当下时代,工作知识不断被自动化机器和人工智能所剥夺:无论你是个优秀的工匠、医生、工程师还是棋手,机器都在不断加速地改写你的工作设置,乃至直接取代你。人工智能对社会全方位的“赋能”, 就是人的工作知识的全方位边缘化。今天大学的毕业季焦虑,就是工作知识被剥夺的映射:无论你读哪个专业,你的“专业性”知识都快变得学而无用。
第二种是“实践性知识”,亦即人和人如何相处的知识。这个知识通常不被看到,但却是关于“生活”的知识,被亚里士多德视作重中之重。然而,在我们这个时代它却在迅速退化。以师生之间为例,少数老师做了很糟糕的事,但这个社会却在承受它的后果:师生之间相处的“实践性知识”被剥夺,从这几年老师和研究生之间的不信任案例就可看出。夫妻之间也是这样,去年有个女明星因婚姻中“敢作敢为”而获得一片赞赏,可是这种“霸气”不代表有智慧“面对”彼此相处问题。生活知识的被剥夺,导致今天的人越来越不知道如何与他人相处,以至于当下时代的一个关键词竟然是“撕”。各种撕裂以后,大家面对伤口也不知道如何去修复。没有了生活知识怎么办?反思太麻烦,“算法”很简单。比如恋爱失败,无须痛定思痛,手撕“渣男”后直接再上婚恋APP,它会用比你更了解你的“算法”帮忙找出下一个更适合的对象……
第三种是“理论性知识”。哲学、数学、理论物理学等等纯理论知识也许并不“实用”,但一旦被剥夺之后,你的多角度思考能力、分析能力也就被截断了。从大学教育来看,这几年报考学习理论知识的学生越来越少,哲学系、数学系等院系几乎门可罗雀,罗到的那些也多半是无奈被调剂过来的。大学毕业,并不意味着有知识和思考能力:大量高学历者连前文提到的“熵增”都不知道……
工作上笨手笨脚,生活中蠢到只会撕,头脑内无智可用——人工智能时代人在全面变蠢。我们也许无法去微博上或推特上怼倒“学外语无用论”或“全球变暖编造论”,但我们能理解,这是知识被剥夺的人说出来的话。美国学者艾维托·罗内尔早在她2002年专著《愚蠢》中提出:人类可以发起一场针对毒品的战争,却无法发起一场针对愚蠢的战争,所以愚蠢无法被战胜。然而罗氏之论就算在理论上是对的,在实践中也是错的:选择眼睁睁地看着知识被愚蠢吞没,本身也是一种愚蠢。作为大学教师,上出包含知识洞见的课,写出能引人思考的分析性文章,就是抗拒“人工愚蠢”的微小但硬核的“负熵性”努力。
(作者系华东师范大学政治学系教授、欧陆政治哲学研究所所长)
原文链接:
http://share.cloud.gmw.cn/yunmei-share/?shareTitle=%E7%A5%88%E5%B9%B4%E6%96%87%E6%BD%AD%EF%BC%9A%E2%80%9C%E4%BA%BA%E5%B7%A5%E6%84%9A%E8%A0%A2%E2%80%9D%E7%9A%84%E6%97%B6%E4%BB%A3%EF%BC%9F&shareImg=https://s.cloud.gmw.cn/2016/json/upload/resources/image/2016/12/13/6100070.png&shareDes=%E5%B7%A5%E4%BD%9C%E4%B8%8A%E7%AC%A8%E6%89%8B%E7%AC%A8%E8%84%9A%EF%BC%8C%E7%94%9F%E6%B4%BB%E4%B8%AD%E8%A0%A2%E5%88%B0%E5%8F%AA%E4%BC%9A%E6%92%95%EF%BC%8C%E5%A4%B4%E8%84%91%E5%86%85%E6%97%A0%E6%99%BA%E5%8F%AF%E7%94%A8%E2%80%94%E2%80%94%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6%97%B6%E4%BB%A3%E4%BA%BA%E5%9C%A8%E5%85%A8%E9%9D%A2%E5%8F%98%E8%A0%A2%E3%80%82&sourceUrl=http://s.cloud.gmw.cn/gmrb/c/2019-04-11/1248045.shtml&articleId=1248045&token=0bea650317e7593b7e3e00973a43d1d9&from=groupmessage
编辑:高杰





作者: admin    时间: 2019-4-18 22:27
【案例】
中美AI竞赛:谁将领先?
沃尔夫:李开复在他的新书中并未断言中国将引领AI领域的基础创新,但当前最关键的是应用,而中国在这方面有很多优势。
更新于201941802:36 英国《金融时报》首席经济评论员 马丁•沃尔夫
今年3月底,我第9次参加中国发展高层论坛(China Development Forum)。这次访问启发了我近期关于中国经济和政治的评论。但参加该论坛最有价值的是机缘巧合下的意外收获。这次的好运是遇见了李开复(Kai-Fu Lee)——前谷歌(Google)大中华区总裁,现为中国科技领域一位重量级风险投资人。
李开复送给我一本他的新书《人工智能超级大国:中国、硅谷和新世界秩序》(AI Superpowers: China, Silicon Valley and the New World Order)。这本书有一个不同寻常的主题:自工业革命以来,中国将首次处在一场经济大变革——人工智能(AI)革命——的最前沿。
来源:ft中文网
链接:http://www.ftchinese.com/story/001082364?exclusive

编辑:晓晴



作者: admin    时间: 2019-4-22 14:01
【案例】

欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见

         目前,虽然人工智能(AI)的研究还处在起步阶段,但欧盟已经为其制定了道德准则。
据美国科技网站The Verge的报道,经过52名专家的商讨,欧盟委员会于48日发布了人工智能道德准则。该准则的出台,标志着欧盟在寻求推广人工智能产业发展的同时,将立足于强化产业的道德水准。
         
欧盟希望在人工智能融入社会以前,未雨绸缪,制定相关准则,规范其未来发展。
参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”
该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:
1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。
人工智能,以人为本
欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。
加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”
玛利亚·加布里埃尔解读人工智能道德准则 图自视觉中国
举例来说,如果一家保险公司依赖人工智能算法拒绝了某项赔偿申请,那么他们应该让消费者知道做出这项决定的依据。同时,还应由人类出面,进行这项决定的最终判断。
此外,加布里埃尔认为,隐私和数据管理同样非常重要。任何使用人工智能的机构,都应当保护好系统收集的数据,这些数据只能被人工智能和本人访问。
除了技术方面的准则以外,欧盟制定的准则里还包含了一些相对抽象的概念,例如其要求人工智能必须具有多样性、非歧视和公平性,同时也能够“促进积极的社会变革”。
由于现阶段人工智能的训练仍旧依赖于巨量数据的输入,因此这些数据将极大程度左右人工智能的公平性。
加布里埃尔举例说:“如果一家公司使用人工智能系统进行招聘,而他们所使用的数据来源于另一家大量招聘男性雇员的公司,那么这一系统将很可能拒绝女性雇员的加入。”
“如果人们使用不公平的数据来训练人工智能,那么这将毫无疑问成为一个大问题。”
另辟蹊径,欧盟想成为技术道德领域的领军者
欧盟已经不是第一次为数字技术制定规则和法律了。
2018年5月,欧洲联盟出台《通用数据保护条例》(GDPR),规范数据收集者的操作,禁止网络公司以默认隐藏的模式收集用户数据,同时保障用户对自己数据完全自主的权利。对于违规者,欧盟将会处以巨额罚款。
此次,欧盟表示,希望自己成为AI道德领域的领导者,如同制定《通用数据保护条例》(GDPR)一样,率先规范科技领域的法律和道德,保护公众的数字权利。
据The Verge分析,由于欧盟在投资和前沿研究方面,已经无法与美国和中国一争高下,因此,它才迫不得已选择了伦理作为塑造技术未来的最佳选择。
相对于欧洲,中国在人工智能领域的发展迅速 图自视觉中国
正如欧委会负责数字单一市场的副主席安斯普(AndrusAnsip)所说,“有道德的人工智能是一个能够达到双赢的主张,是欧洲在该领域的竞争优势——成为人们可以信赖的,以人为本的人工智能领导者。”
不过,欧盟在技术道德领域制定的一系列规则,也有可能成为这些技术发展的阻碍。
在当今前沿计算机科技中,大数据、云计算和人工智能的发展,都离不开巨量数据的支撑。而欧盟的《通用数据保护条例》为网络公司和研究机构的数据搜集设置了极大障碍。
同样,也有部分研究者怀疑,欧盟制定的人工智能道德准则,将会影响到这一产业的未来发展。
智库机构数据创新中心(Center forData Innovation)的高级政策分析师艾琳·奇沃特(Eline Chivot)在接受The Verge采访时说:“欧盟希望通过制定道德标准,来确定自身在全球人工智能发展中的地位,我们对这种方法持怀疑态度。要成为人工智能伦理的领导者,首先你必须在人工智能领域遥遥领先。”
欧盟指出,提出人工智能道德准则只是第一步,未来他们还将邀请其他国家的企业和国际组织共同参与测试,制定以人为本的人工智能共识,并在G20峰会上与其他国家共同讨论。
原文链接:https://mp.weixin.qq.com/s/NJPKldiheHwV8kazuukqWA
编辑:陈茗


作者: admin    时间: 2019-4-26 20:13
【案例】
AI主播来了
主持人:黄馨茹
嘉 宾:邱 浩 新华社CNC主播
    屈 萌 新华社记者
    王泽华 中国传媒大学播音主持
    艺术学院博士生,中央广播电视
    总台央广新闻节目中心主持人
主持人的话:随着新华社男女AI合成主播(以下简称“AI主播”)陆续走上屏幕,AI主播出镜播报新闻,越来越频繁地与观众见面。我们为什么需要AI主播?被AI“克隆”的主播有怎样的心情?AI主播的出现会不会带来主播行业的失业危机?请看本期嘉宾的观点。
我是全球第一个
被AI“克隆”的中文主播
邱 浩
2018年11月7日,新华社建社87周年之际,我在乌镇采访第五届世界互联网大会。而与此同时,另一个和我长得一模一样、声音完全相同的“我”在“演播室”报道了中国国际进口博览会,报道题目是《进博会参展商:“进口”主题折射中国智慧》。自此,“他”成了全球第一个AI主播;而我,成了第一个被“分身”的中文主播。
“他”脱胎于我,却完全不是我,“他”是新华社联合搜狗基于人工智能、大数据、人脸识别、语音合成、唇语识别等技术共同打造的全球首个AI合成主播。只需要输入文字,便可以瞬间准确无误地转换成新闻播报的视频画面。“他”用我的形象、我的声音,可以24小时无眠无休地报道我从未报道过的新闻,说我从未说过的话。
一时间,国内外媒体竞相报道,路透社、法新社、BBC,微博热搜,朋友圈刷屏。人们在赞叹人工智能技术的强大之余,更多的恐怕是焦虑——主播真的要下岗了吗?
AI主播究竟有什么优势?第一,播报新闻的时效性强。只要输入新闻文字,AI主播可以实时播报新闻。第二,不休息。AI主播7×24小时实时待命,“宇宙不重启,‘他’就不休息”。第三,不出错。除非文字有误,否则AI主播绝不出错。第四,可进化。AI主播可以通过大数据不断学习完善,越来越趋近人类主播的表情和声音,而且成长进化的速度是人类无法企及的。第五,再进化。我们也许真的无法预期“他”的进化速度以及进化程度。也许,不久的将来,“他”可以手舞足蹈,可以出现在任何新闻现场,甚至可以不需要输入文字,直接通过新闻大数据就自动生成新闻播报视频。
然而,我真的会被取代吗?
事实上,我在主播台前的播报工作已经被取代了。简单地把提词器上编导编辑好的文字播报出来,AI主播可以完成得更高效。假以时日,“他”也许真的可以做到令观众真假难辨,那么取代播音员也就是时间的问题了。但是,这个“取代”究竟是被动“退位”,还是主动“让贤”,这才是问题的关键。
在主播这个职业中,其实每一个同行都可以是我的老师和敌人,不断的学习才带来了不断的进步。终于,现在有了一个和我那么像,并且在“倾尽全力”取代我的“人”出现,让我不得不冷静思考自己该如何不被取代。我可以有时间去做更多目前尚不能被取代的工作,毕竟“他”替我分担了不少工作。
所以,我必须接受“他”早晚都会出现这个事实。那么,不妨伸出手,拉“他”一把,让“他”成长得再快一点。人工智能虽然有强大的学习能力,可“他”依旧是基于既有的数据,那就让“他”来学习我吧。而最令我自信不会被超越的,是我的“灵魂”。我的“灵魂”是对新闻事业的无限热爱,是对“真善美”的不懈追求,是对人情冷暖的体会,是同百姓心灵的共鸣,是寻求真相的迫切,是追本溯源的执着,这一切,岂是AI主播能感知的?人工智能可以报道战争,但无法感知和平的意义;人工智能可以深入灾难现场,但无法体会人间大爱;人工智能可以描述发展进步,但无法知晓劳动者的辛苦……人工智能可以足够快、足够近、足够准确,但新闻有时更需要再思考一下,再深入一些,再有些温度。让AI主播去重复那简单机械的事情吧,我也能有时间释放自己的“灵魂”,去书写一个真实主播的价值。
说到底,AI主播不过是一种报道形式的创新。其实,在每一次技术变革中,媒体报道形式都被深刻影响着,而在这个过程中,从未改变的是媒体人对真理的追求,对丑恶的抨击以及对正能量的宣扬。AI时代,我们欢迎并且接受一切形式上的进化,但同时更要坚守新闻人的初心,坚守不变的新闻本质。
我永远不会被取代!
“新小萌”,
可以模仿,难以替代
屈 萌
未来学家说,人工智能本质就是用自动化的知识去解决问题,未来的强者就看谁能与人工智能更好地协作。习近平总书记强调要探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,全面提高舆论引导能力。今年的全国两会,人工智能再次成为热点话题,这是继“互联网+”被写入政府工作报告后,“智能+”又出现在政府工作报告中。
2018年11月,新华社发布全球第一个AI主播,在新闻领域开创了实时音视频与AI真人形象合成的先河。作为新华社的新员工,AI主播上线后立即投入新闻报道中并实现量产,目前已发稿3400余条,累计时长达10000多分钟,生产出一系列内容丰富、形式多样、可读性强的融媒体新闻产品。2019年2月19日,新华社再次发布全球首个AI合成女主播——“新小萌”,并在今年两会上正式上岗,新小萌在声音和图像两大引擎上有了很大的优化和突破。在声音方面,采用领先的波形建模技术生成音频,极大提升了合成音频的表现力和真实度,声音更具情感。在图像方面,通过模型优化及多风格数据的使用,实现更加逼真的表情合成、肢体动作与语义的恰当匹配以及更加自然的唇动效果。作为世界上第一位AI合成女主播,新小萌一经亮相,再次引发全球媒体圈的关注。“今日俄罗斯”电视台网站、英国DailyMail等海外媒体进行了大篇幅报道。英国Daily Mail报道称,网民对新的主持人表示欢迎;印度媒体DaytodayGK称,除了嘴唇动作稍显僵硬外,她几乎可以以假乱真。美国Futurism报道称,“新小萌”从来没有上过新闻专业课,因为她并不是一个真正的人。约旦媒体AI Bawaba称,近年来,中国已成为全球领先的人工智能发展中心之一。
AI主播的诞生与发展,是传播业和智媒深度融合的结果,为新闻业带来了许多良性的变革。
首先,AI主播有利于提升新闻生产和传播的效率。在万物互联的时代,电视新闻生产流程和机制经历了巨大的变革和创新。以人工智能技术为依托产生的AI主播只需编辑记者将新闻文本输入系统,计算机就会生成相应的AI主播播报的新闻视频,不仅具备了与真人主播高度相似的新闻播报能力,还可以夜以继日连续工作,并且基本不会出现错误。
其次,AI主播提高了跨语种传播能力,有利于内容传播效果达到最大化。随着新兴技术的不断发展,AI主播的改良和升级使得其学习能力不断增强,面部语言、肢体语言的丰富以及多语种播报能力的完善将打破语言的壁垒,实现真正的跨语种传播,扩大新闻内容的传播范围和传播效果。目前,新华社推出的AI主播已经可以输入中文多语种播报,可以在外宣和地方融媒体中心建设中发挥重要作用。
最后,AI主播推动新闻业创新发展。随着AI主播的诞生,一些新闻节目在内容与形式上也出现了更多创新和突破,可以增强受众互动,加深受众对新闻的理解,新闻播报的形式更加多样化,为新闻业的发展注入了新鲜的血液。
但是,电视新闻播音形态多样,有声语言表达丰富,AI主播替代新闻主播尚需时日。
首先,真人主播专业的新闻素养、良好的心理素质和应变能力,短期内无法被AI主播超越。《实用播音教程:电视播音与主持》一书指出,电视新闻播音形态多样,要求电视新闻播音员(主播)增强与受众的交流感、从备稿到播出要参照整条新闻的内容,心理上形成整体感、画面感以及镜头感,形成内心感觉、有声语言、体态语言三位一体的有机和谐感。一名合格的电视新闻播音员(主播)需要通过多年的学习和练习才能达到较高的专业要求,这是AI主播在短期内无法获得的能力。
其次,当前AI主播还停留在向人类主播学习的阶段,缺乏对新闻内容的理解和消化能力。AI主播实质上是一个栩栩如生的智能化数字仿真播报员,它无法自主完成对编辑所提供播报稿件的深度解读。因此,在新闻播报过程中,难以在与受众交流以及实现节目有效传达的过程中起到积极的主导作用。
最后,AI主播的情感劣势不利于受众产生共鸣。真人主播在播报一些特殊新闻(如灾难报道)时,因为具有共情能力,可以让报道充满温情。但AI主播在追赶人类的理解能力、思考能力、认知能力上仍然有很大差距。
人工智能以其背后强大的数据库做支撑,在新闻媒体的数据采集、内容生成、多维呈现、产品分发、效果反馈、信息核查等方面都带来了革新和升级,这大大提高了新闻的传播效率。而且,由于人工智能的出现,新闻工作者可以从简单重复性的工作中解放出来,这有利于新闻工作者实现对新闻内容的深度挖掘和特色报道。但与此同时,这也给新闻从业人员提出了更高的职业素养要求,一些能力不够突出的从业人员将面临失业风险。因此,这就要求新闻从业人员始终保持学习能力,利用人工智能技术,提升媒介素养,担负起党的新闻舆论工作的职责和使命。
AI主播:前景预测
王泽华
我认为普遍意义上的AI主播,应是通过人工智能算法实现自然语言表达的虚拟人类形象。因此它至少具有大数据支撑和信息可交互两重特征,反映在技术上,首先是音视频采样与合成技术,将人类的语音和外貌特征尽可能真实地还原成虚拟形象;其次是自然语言处理和人脸表情识别等技术,让机器或程序读取并理解人类语言与副语言含义,进而通过算法进行合乎人类逻辑的反馈,实现“人机交互”。当然,还应有文字识别、空间辨别等对线上线下信息检索、抓取、分析等多方面的能力,以实现AI主播对海量信息处理的功能。因此,当下我们讨论的AI主播和之前早就在屏幕上有所体现的虚拟主持人应是不同的两个概念,但也需看到,现有技术水平生成的AI主播离高级人工智能的目标尚有差距。
2019年1月,中央广播电视总台央视网络春晚首次使用主持人撒贝宁、朱迅、高博、龙洋的形象生成AI虚拟主持人,它们是美国人工智能公司偶邦(ObEN)研发的人工智能主持人,原名为PAI(Personal AI)。2019年春节前夕,央视新闻联合微软推出互动融媒体产品《你的生活 AI为你唱作》,央视主播康辉和AI智能女生晓晓为用户唱作专属歌曲。2019央广春节特别节目《中国声音中国年》中,央广联合科大讯飞推出AI主持人“央小广”。2019年全国两会期间,央视新闻携手科大讯飞推出以白岩松为原型的AI记者助理“小白”。2019年3·15晚会前夕,央视财经联合搜狗推出以主持人姚雪松为原型的AI主播“姚小松”。一系列AI主播的实际应用,展现了中央广播电视总台与多家互联网公司在人工智能领域的深度合作成果,丰富了荧屏元素与新媒体互动手段。2018年11月和2019年两会期间,新华社推出两个AI主播,承担了大量新闻播报工作。
通过大致回顾我们发现,从去年底开始逐步进入公众视野的AI主播,应用和曝光的频次愈发密集。除了相关技术逐步成熟、资本涌向这一领域之外,我们也注意到发展人工智能、促进媒体融合已逐渐上升为国家战略。2019年1月25日,习近平总书记在中央政治局第十二次集体学习时指出,“探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,用主流价值导向驾驭‘算法’,全面提高舆论引导能力”。从中央到地方,多部门、多行业已制定发布人工智能白皮书、发展规划等,例如工信部印发的《促进新一代人工智能产业发展三年行动计划(2018-2020)》等。可以说,国家层面已明确指出人工智能的发展方向。除去在这一领域深耕的互联网巨头之外,媒体“国家队”也在智能化转型上提速发力。人民日报社打造的“中央厨房”模式逐步成为媒体融合“样板间”,“创作大脑”“党媒算法”等尝试推进新闻业智能化发展;中央广播电视总台提出,要着力实现向“4K+5G+AI”智能化媒体的转型升级;新华社运用“媒体大脑”打造智能化编辑部,探索全新新闻生产方式。在这样的背景下,AI主播的诞生成为人工智能发展战略下的一抹剪影。
目前,现有的AI主播应用基本集中于新闻播报、搭档主持、新媒体互动等方面。未来,在多种真人主播较难完成的场景,AI主播能够发挥作用,助力传播效率的提升。其实,随着技术逐渐成熟,AI主播更大的作用或是可承担以大数据资料抓取为依托的辅助主播工作,以实现智媒时代的高水平“人机耦合”。但是,由于AI主播的虚拟化、数字化等特点,以安全防控及智能算法为核心的内外部技术把关保障成为批量应用的前提条件,不管从政治层面还是从准确性角度考量,都须确保系统防火墙的绝对安全,使AI主播按照正确的算法播出内容;同时,要妥善解决“恐怖谷”效应,以及声音、肖像等方面的版权、伦理问题;另外,也要对相关岗位的真人主播或将面临的转岗、转型问题有所预判,对受众欢迎、体现真人主播价值的新型节目样态进行深度挖掘。
智媒时代的受众是否需要且接受AI主播,还有待时间和效果的检验。事实上,资深媒体人多年积累的从业经验、知识背景、表达风格、情感关怀等很难被机器模仿和替代;播音主持专业语言表达中细致入微的对比推进率、情声和谐率等表达规律,情景再现、内在语、对象感等感情运动状态,也很难被语音采样获取,有声语言创作“认知共识”“愉悦共鸣”的社会功能难以实现。
但与此同时,我们看到,不同于广播电视等传统媒体传播活动中受众的收听收视习惯,网络传播时代用户的资讯获取场景正逐渐脱离真人主播的“服务范畴”,例如我们使用社交媒体、阅览新闻客户端、自主检索资讯的时候,受移动互联网传播的分众化、碎片化、定制化等特点影响,用户或更需要信息个性化定制、筛选、推送、管理等服务,AI主播则或将成为这种服务的拟人化体现。当下,随着“北斗组网”“虹云上天”“全国一网”、5G时代加速布局,互联网的应用场景正逐渐超越手机、电脑,并延伸到物联网领域;平面、曲面显示技术的快速发展,投影、可穿戴、虚拟现实技术的逐步成熟,让互联网的视频入口无处不在……在未来生活中,AI主播的功能或将由服务于媒体更多转向服务于个人,成为网络传播环境中个性化定制的资讯服务助手,服务于未来生活的各类场景,以满足用户的多样化需求。
原文链接:https://mp.weixin.qq.com/s/Jm_TLxju4YWUaBN0MvbK_A
编辑:陈茗


作者: admin    时间: 2019-4-28 22:17
【案例】
人工智能之父:求索“智能”奥秘的一生
“智能问题看起来深不见底,我想这是值得我奉献一生的领域。”
70年的人工智能浪潮中,马文·明斯基(Marvin Minsky)是一个如雷贯耳的名字,与机器学习、神经网络、虚拟现实、框架理论等热门名词紧紧联系在一起。他是定义和发展“人工智能”的先驱者之一,也是人工智能领域的首位图灵奖获得者,被尊称为“人工智能之父”。他的学术贡献璀璨夺目,横跨人工智能、机器人、图形与显微镜技术、数学、认知心理学等多个学科领域。
探究智能的狂热
1927年,Marvin Minsky出生于美国纽约的一个犹太家庭。他从小在私立学校接受教育,高中毕业后遵循犹太传统应征入伍,在二战末期经历了两年海军生涯。退伍后,他在哈佛大学主修数学,同时选修了电气工程、遗传学、心理学等学科的课程。广泛的学科涉猎为他对人工智能研究发起挑战打下了基础。
在哈佛学习期间,Marvin Minsky就对人类心智起源、认知事物的奥秘产生了浓厚的兴趣,决定探寻真理。于是他一头扎进机器智能的研究,在本科的最后一年与同学Dean Edmonds一起建造了世界上第一台神经网络计算机SNARCStochastic Neural Analog Reinforcement Calculator)。
在普林斯顿大学攻读数学博士学位时,他继续遵从兴趣,完成了在当时的评审委员会看来格外离经叛道的博士论文——“神经网络和脑模型问题”。在《纽约时报》的一次采访中,他谈及了这一选择:“智能问题看起来深不见底,我想这是值得我奉献一生的领域。”
Marvin Minsky博士毕业时,正是控制论兴起的时候,他开始投入用计算机模拟人类的心理和思维的研究。当时,计算机科学之父图灵也发表了颇具影响力的文章《计算机器与智能》,提出了机器学习、图灵测试、遗传算法等概念,与Marvin Minsky的想法不谋而合。
“传授”智能于机器
Marvin Minsky始终坚持着一个信念,他认为智能的本质是许多有着各异能力的代理之间的一种受管理的互动,因此智能不是人类所特有的,人的思维过程也可以用机器去模拟,让机器也拥有智能。
也正是基于这种信念,Marvin Minsky与当时在达特茅斯学院任教的约翰·麦卡锡(John McCarthy),以及信息论之父克劳德·香农(Claude Shannon)等学者共同促成了1956年的一场著名的会议——达特茅斯夏季人工智能研究会议。在这次头脑风暴式的会议中,“人工智能”的概念第一次被提出,人工智能正式被看作一个独立的研究领域。
这个夏天的达特茅斯,聚集了多位未来的图灵奖得主。在随后的几十年中,这些重量级人物和他们遍布麻省理工学院、斯坦福大学、卡内基梅隆大学等高校的学生们,在人工智能和计算机科学领域大放异彩。
达特茅斯会议五十年后重聚,2006
左起:Trenchard MoreJ. McCarthyMarvin MinskyOliver SelfridgeRay SolomonoffPhoto by Joseph Mehling
上世纪5060年代,Marvin Minsky带领他的学生们在人工智能这片新开垦的知识领域快速地开疆拓土。“当时我们习惯于每两三天就有一个重要的新发现,并且觉得理所当然”,Minsky说。
1960年,Minsky在论文“Stepstoward Artificial Intelligence”中提出了由启发式搜索、模式识别、学习、计划、归纳等部分构成的符号操作(symbol manipulation),掀起了一场人工智能的革命。此后,这些主题成为了人们对人工智能的探索的核心。
60年代早期,Marvin Minsky与志同道合的JohnMcCarthy在麻省理工学院再次会和,共同创建了世界上第一个人工智能实验室——MIT AI Lab。在这个实验室里,Marvin Minsky不仅致力于向机器“传授”人类的感知与智能,还寻求人工智能技术和实用机器人的结合。
他发明了世界上最早的几款光学扫描仪,和带有扫描仪和触觉传感器的14度自由机械手,也开发了世界上最早的能够模拟人类活动的机器人Robot C。这些进展对现代的机器人学产生了深远的影响,使机器人技术迈上了一个新台阶。
Marvin Minsky与机械手(图源:Photo by DanMcCoy in OMNI Magazine, June 1980
机械手像人手一样搭积木(Courtesy MIT Museum
除了众多领先的研究成果,MIT AI Lab对共享电子信息的倡议也促进了计算机领域一种重要文化的形成,为开源软件和互联网的前身ARPA奠定了基础。
Minsky也对计算机图形研究兴趣浓厚。1963年,他发明了首款头戴式图形显示器,这种模式在今天的头戴式虚拟现实显示器中继续得以应用。Marvin Minsky在当时率先提出了“远程呈现”(telepresence)的概念,通过微型摄像机和运动传感器等设备让人类“体验而不真实介入”,成为虚拟现实的先驱。
60年代末,Marvin Minsky开始研究能捕捉部分神经行为特征的感知器(perceptrons),将受神经活动启发的人工智能研究提高到一个全新的水平。而神经网络在经历20余年的沉寂后重回人们的视野,再次掀起人工智能领域的革命。
1969年,Marvin Minsky因他在创造、形塑和推进人工智能的进程中扮演的核心角色而摘得图灵奖的桂冠。2011年,他因对人工智能和智能系统的重大贡献入选IEEE AI名人堂。
兴趣广泛的跨界明星
极其广泛的跨学科背景让Marvin Minsky的科研成果也横跨众多领域。在人工智能之外,他还为显微镜技术做出了贡献,在1956年发明制作了第一台共聚焦扫描显微镜,这种光学仪器拥有极好的分辨率和影像质量,后来在生物科学和材料科学领域被广泛采用。
1975年,Marvin Minsky首次提出了重要的框架理论(frametheory),以框架系统的形式完整地表示知识。框架理论结合了心理学与社会学,提供了一种描述人类认知结构的全新方式,不仅对人工智能系统的开发影响深远,还被引入大众传播研究等多个学科领域,成为重要的理论基础。
作为颇负盛名的麻省理工学院名誉教授, Marvin Minsky也出版了多本开创性著作,包括《语义信息处理》(Semantic Information Processing)、《心智社会》(The Societyof Mind)和《情感机器》(The Emotion Machine)
Minsky不仅在众多科学领域有着丰富的经历,对音乐也有不少研究。在学术研究之外的生活中,他是一位颇有建树的即兴钢琴演奏者,享受用音乐表达他的哲思。
有趣的是,Marvin Minsky还作为顾问参与了1968年的史诗级科幻巨作《2001:太空漫游》的制作。导演库布里克亲自上门咨询电影中的技术细节,比如影片中著名的AI大反派“HAL 9000”计算机外型应该如何设计,在Minsky的建议下,原本包裹着花花绿绿标签的“未来计算机”成为了电影最终呈现的无数小盒组成的机器。
2001太空漫游》HAL 9000主机内部
无尽的科学求索
“我认为没有什么是我们最终无法认知的,区别在于时间、难度以及优先级。”晚年接受采访时,Marvin Minsky回忆起上世纪五六十年代人工智能“每周都有新突破”的黄金时代,依然流露出无限向往的神情。
Marvin Minsky一生致力于开拓人工智能疆界,几乎见证了人工智能兴起后所有的潮起潮落。他本人亦是这风浪中的弄潮儿,对人工智能发展的影响深远。
Marvin Minsky始终相信计算机是有史以来能最大限度增强人类能力的东西,这也是他最初为人工智能奉献一生的信念和目的。他期待比人类更优秀的机器人担任工程师、数学家、物理学家,来为人类更好的理解经济的本质,解决我们正面临的人口老龄化、贫困、教育等问题。正如这位高瞻远瞩的人工智能之父所言:“我们必须为我们自己的未来打算。”
参考资料
[1] Marvin Minsky. Wikipedia
https://en.wikipedia.org/wiki/Marvin_Minsky
[2] 探寻大师足迹,一览马文·明斯基学术风采
https://v.qq.com/x/page/d0331u040cc.html
[3] 马文·明斯基一生做了什么,为什么他被称为“人工智能之父”?
https://www.leiphone.com/news/201601/XU8hHZWu40cgpvgt.html
[4] 人工智能之父马文·明斯基回忆AI的发展
https://v.qq.com/x/page/f0182h49jd8.html
[5] TED:人工智能之父马文·明斯基解读人工智
https://v.qq.com/x/page/z0173e6nw0c.html
[6] 从马文·明斯基到AlphaGo,人工智能走过了怎样的70年?
https://www.leiphone.com/news/201601/qXo5EaNlM0Lt4CyR.html
[7] Marvin Minsky, Turing Award Winners
原文链接:https://mp.weixin.qq.com/s/EcOHhXkzVuu-XuhM-si2hQ
编辑:陈茗


作者: admin    时间: 2019-4-30 19:02
【案例】
告密者:AI
[color=rgba(0, 0, 0, 0.298039)]原创: [color=rgba(0, 0, 0, 0.298039)]无锈钵 [url=]财经无忌[/url]
继996之后,老板又有了新的赶你走的方式。
昨天,美国的老牌电商巨头亚马逊爆出一则新闻:他们构建了一个人工智能系统,可以实时追踪公司仓储物流中心里的每一名员工,用来监督他们干了多少活。
更重要的是,如果系统判定你长时间不认真工作,它可以自动生成警告,或者把你直接解雇。
  
亚马逊的发言人表示:仅2017年8月至2018年9月这一年的时间里,在他们位于巴尔的摩市的某个物流中心里,就有300名被判定“低效”的员工离职。
不过,他们也解释称,员工是可以通过申诉来要回他们的工作的,而且对于这些由AI作出的解雇决定,公司内部的高管也可以直接予以驳回。
对此,钵叔的好朋友韦哥有一个问题:

这些摄像头在贵公司算是什么职务级别的?

事件发生后,不少员工都在社交媒体上吐槽亚马逊,有些工人抱怨说,自从有了这套系统以后,自己仿佛“被当成了机器人”,很多时候工作中甚至“连厕所也不敢上”。

   01

说这话的人,肯定没经历过学生时代教室里被安装摄像头的恐惧。
他们以为自己在工作中受到了监控,事实上,这种温和的“注视”早在他们的学生时代就已经有了。
所以今年的3月初,广州的广雅中学被爆出花费巨款采购供学生佩戴的电子手环时,面对外界蜂拥而至的质疑,他们还觉得很委屈:北京、上海,都有很多的高校在用,而且效果很好。

你钵叔查了一下,事实真的是这样。

2017年5月,北京中关村第一小学以458.6万元购买了2500个智能手环。
去年,贵州有十一所中小学在试验一种全新的“智能校服”,这种校服不仅可以定位学生的位置,还支持人脸识别,学生之间互换衣服会直接触发警报。

韩国的编剧们不会想到,自己苦心发明的“把外套给体育课上受伤的女生披上并将其背到医务室”这样百试不爽的玛丽苏情节,会栽在大中华的一款校服上。
这款校服的供应商还表示,他们会再接再厉,争取未来在这款校服上实现更多的功能,比如:家长可以通过APP实时查看学生在校园内的消费记录,甚至可以看到自己家孩子这段时间体重的变化情况。
对此,你钵叔的好朋友韦哥发出了直击人心的拷问:
就不能花点钱买个电子秤吗?
拷问归拷问,事实上,对于这些校园内频繁出现的监控系统,最多也只能停留在讨论和谴责的阶段,因为在现阶段,这些行为还都是合乎规定的。

    02

早在2018年的时候,国家标准化管理委员会就曾公布了《智慧校园总体框架》,里面明确规定,感知系统属于学校可以安装的基础设施,其中包括:
物理环境感知、活动情景感知、设备感知、人员身份感知等等。
在此基础上,海康威视和杭州第十一中学联合试行了一套更为强大的“智慧课堂行为管理系统”。
这套系统可以实时捕捉学生的面部表情动作,并将其归类为害怕、高兴、难过、愤怒等7种表情,这些表情和学生的课堂动作会被一并记录下来,并给以ABC三个等级的评分。
如果评分低了,老师还会在下课找你聊聊。
想到老师温柔的注视着你,耐心地询问在这节课的拖堂时间里,你的脸上会什么会出现愤怒表情的场景,你钵叔就不由得感到毛骨悚然。

另一方面,对于外界的质询,这所学校的校长表示,媒体的误读把他们妖魔化了,智慧校园系统在很多方面带来的便利,是无可替代的。
比如借书,比如食堂刷卡吃饭。
他还表示:“学校绝对无意窃取学生的个人隐私,并且这些数据最终都会被上传到本地服务器,不会有任何泄密的可能”。

     03

在这一系列的事件中,比起《1984》之类的反乌托邦比喻更有趣的,是一桩桩生意的数字。
资料显示,参与智慧校园标准制定的那批人里,有很多都是企业代表,包括做高清监控的深圳锐取;做智慧校园的北京同方艾威康科技和北京康邦科技等等。
而为杭十一中量身定制“智慧课堂行为管理系统”的海康威视。数据显示,该公司2017 年市值已经达到了 3600 亿,甚至超过了索尼。
一份源自 IHS 报告表明,在全球视频监控市场上,海康威视拥有着22.6%的份额,位居世界第一。


在此基础上,智慧校园只是他们近些年关注的项目,而此前,他们涉及AI领域的智能业务还有很多,包括闯红灯人脸识别系统、地铁机场里的智能安检分析器材,以及:和公安、法院系统合作的,智慧型监狱系统。
2018年的财报显示,海康威视全年实现营业收入498.37亿元,同比增长18.93%;净利润113.53亿元,同比增长20.64%。
另一边,这些派发给学校学生的智能手环、监控摄像头等均造价不菲。
在广州广雅中学的那份采购协议里,3500个电子手环最终花费了484万元,平均到每个学生的头上有将近1300元。

这笔钱到底谁出,也是一个问题。
当然,钱的问题之外,关于隐私权利的种种讨论也仍在热火朝天的进行着,毕竟,科学技术是一把双刃剑这种观点,早在上个世纪就已经成为全人类的共识了。
今年两会上,百度总裁李彦宏曾经表示,“要让AI在正确的轨道上运行”,在这一原则之上,他相信,“AI技术一定会造福人类的”。
造不造福人类先不用说,历史告诉我们,所有那些造福全人类的东西,最开始都只造福了一小部分人。
(完)
*本文仅代表作者个人观点




编辑:董莉





作者: 刘海明    时间: 2019-5-11 20:58
【案例】

人工智能:网络广告世界的神话与现实
Xaxis与IAB Europe联合发布了“人工智能——网络广告世界的神话与现实”,强调了人工智能是如何成为所有利益相关者的一个有价值的工具,并带来具体的业务成果的。
调查的主要结果:
80%的受访者认为人工智能是下一个工业革命。
80%的受访者对人工智能有很好的理解。中介对人工智能的理解最自信,91的受访者非常或有些了解人工智能。80%的广告代理商表示他们在了解人工智能方面非常自信。
人工智能被认为对业务目标产生了积极的影响。近50%的受访者认为人工智能提高了生产率和竞争优势。
人工智能被认为能够促进目标受众和网络广告的针对性,在正确的地点和正确的时间向正确的人提供广告。事实上,61%的广告代理商、43%的出版商和53%的中介机构都提到了更好的定向。
此外,30%的广告客户、55%的广告代理商、40%的出版商和42%的中介都提到了更好地识别合格的用户和受众。
受访者强调了人工智能未来的担忧主要是对人类控制的依赖程度越来越低(47%),以及获得值得信赖的见解(55%)。
从整体业务成果来看,人工智能已经改善了生产力、加速创新和增长。53%的广告代理商认为人工智能能更快地交付更深入的营销分析。很多受访者也认为人工智能在改变网络广告行业方面有很大潜力。
但是,还有一些挑战,例如可靠性和信任度方面。
完整PPT详见:https://mp.weixin.qq.com/s/RRjBScs96VoAay7C4qTVxQ
编辑:王豪


作者: 刘海明    时间: 2019-5-15 21:51
【案例】
AI 生成虚拟模特全身照,形象高度逼真
文章来源: DeepTech深科技
原创:旭文
这是哪个明星?
最近,有网友发现日本一家科技公司正在用 AI 生成虚拟模特,图片中明眸善睐、身材曼妙的可爱少女,成熟火辣、目光灼人的性感女神,竟然都是用 AI 生成的虚拟人物,完全看不出来是假的。

(来源:DataGrid官网)
这些高质量、全高清、毫无虚假痕迹,真人大小的平面模特照片,丝毫不逊于专业模特在摄影棚中拍摄的时尚大片。
与之前的 AI 换脸不同,这次图片中的模特全身上下都是 AI “无中生有,不会涉及到侵害他人的肖像权等,如果你看到觉得脸熟,可能真的是 如有雷同,纯属巧合。
网友们纷纷惊呼,模特真的要失业了?!

(来源:DataGrid官网)
据报道,这是日本京都的一家科技公司 DataGrid 开发的算法,可以从头到脚生成高度逼真的人物图像,包括面部、发型、服装等等。
岂止是模特职业生涯遭到红灯预警,恐怕连发型师、服装设计师、造型师都要跟着遭殃了!
在一个技术展示的视频中,AI 在塑造的模特身上变幻出不同的服装造型,夹克变成冬季外套,连衣裙秒变 T 恤,服装搭配无缝切换,图像放大后,衔接之处非常自然。

短短几秒钟的视频展示,展现了很有想象空间的市场潜力。假设在现实中,如果 AI 产生的模特「不存在」,那么时尚品牌或广告代理商就无需对这些模特支付拍摄费用、拍摄期间的生活起居费用、经纪人费用等等,可能就会放弃使用真人时装模特。
这对模特行业真的是致命性打击!
GAN 的又一次完美应用
简而言之,这种新算法是基于 GAN(生成式对抗网络)的一次新尝试。
读者可以将上面的模特生成过程想象成图片之间生成模型和判别模型之间的博弈过程,博弈的方式很简单:生成模型生成一些图片判别模型学习区分生成的图片和真实图片生成模型根据判别模型改进自己,生成新的图片判别模型再学习区分生成的图片和真实图片......
上面的博弈过程会一直继续下去,直到生成模型和判别模型无法提升自己,也就是生成模型生成的图片,判别模型分辨不出真假,这个模型就达到了完美。

过去尝试用 GAN 制作逼真的人物形象大多集中在面孔生成,比如 AI 换脸。有些面孔虽然接近于人脸,但表现力不够,背景中流出的颜色斑点还会干扰头像的生成。
DataGrid 公司基于 GAN 深度学习开发的名为“自动全身模特生成”AI 系统,消除了所有可能混淆算法的无关信息,在一个纯白色背景前面构建 AI 模型,加上逼真的光线感,生成的模特类似于在摄影棚拍摄的感觉。
这种通过学习大量的全身模特图像,然后生成不存在的具有高分辨率(1024 x 1024)和高质量的全身模特图像,在以前是非常难的。
大家怎么看?
Reddit 上有网友对 AI 系统生成的模特图片全都是“不存在”的持怀疑态度。“除非这个 AI 系统用最先进的面部识别功能,否则训练图片集和输出图片集之间会有很多重合。神经网络非常容易过拟合,因此它们可能只是“记住”图片,而不是“学习”生成新的图片。
也要网友认为 AI 取代模特还为时尚早。模特还有一个功能,需要在时装秀上走秀。时装秀在时装界占有非常重要的地位,在那里看到的几乎所有服装都不会出售,只是为了展现设计师的创造力以及签约合作。

还有网友从算法开发公司的角度来看待这个问题,如果 AI 接管了模特行业,那么想象一下两个看起来太相似的 AI 模特公司的版权问题怎么解决,他们必须制作整个 AI 系统,AI 模特的外观要注册,防止其他公司利用。
一个比较讽刺的场景是,假如一家公司仍然使用真人模特,但他的模特和另一家公司的 AI 模特太相似,结果导致法律纠纷,这种情况怎么办?

总的来说,模特行业肯定会受到 AI 技术的影响,同时也会面对许多新生的问题,需要 AI 企业“摸着石头过河”去探索解决问题的办法。
每当科学家构建一种新算法,可以生成与真实照片无法区分的逼真图像或深度伪造时,似乎也是一种新的警告,AI 也可能被滥用制作虚假或违法的照片和视频,甚至是进行虚构的政治演说来操纵性宣传,破坏公众对数字媒体的信任。但愿这个算法仅局限应用在广告和服装领域吧。
原文链接:
https://mp.weixin.qq.com/s?__biz=MzA3NTIyODUzNA==&mid=2649568906&idx=4&sn=8a0c200b330ed94c04f58960e3ddfcb0&chksm=876a2293b01dab859d3036f7c1420bb729fe51f87ff0d7ba4d9e5400e36dd11d81a38666fc75&mpshare=1&scene=1&srcid=&from=singlemessage&ascene=1&devicetype=android-26&version=2700043a&nettype=cmnet&abtest_cookie=BAABAAoACwASABMABQAjlx4Ax5keANyZHgD4mR4AAZoeAAAA&lang=zh_CN&pass_ticket=N026eiTT9TxwOYC0pHfsjp91DXISksYPzdCVpuqFjAIg4UXcPqsxw36YPhois%2BmC&wx_header=1
编辑:高杰


作者: 刘海明    时间: 2019-5-20 22:47
【案例】AI写作时代:财经、体育类记者或将率先被淘汰
文章来源:中国科技新闻
原文链接:https://mp.weixin.qq.com/s/7DOsrMYY3ybvOWqdVE425Q

机器新闻写作是人工智能技术在新闻传播领域一个现象级的发展。

2014年3月,美国加州地区发生地震,《洛杉矶时报》通过Quakebot这一地震新闻生成系统,在三分钟内就率先发布了地震相关报道。在这条新闻中,人类要做的是对机器人所写内容的审查和把关,前期完全由机器人自动化选择数据进行处理完成。技术的进步带来了新闻生产的变革,“技术为王”的口号也越来越响亮。

2015年9月,腾讯财经发表的一篇题为《8月CPI同比上涨2.0%创12个月新高》的消息就由自动新闻写作软件Dreamwriter完成,在一分钟内将重要信息进行解读并送达客户。

2015年11月,新华社宣布“快笔小新”投入使用,这台机器可以快速完成体育财经类的新闻自动写作。

……

“在技术和内容的结合下,传统新闻生产模式势必会受到冲击。”这是许多人对机器人写作时代到来的担忧。实际上,“工作需要融入想象力和创造力的不容易被智能写作淘汰。人如果能够定义出自己做的事情的时候是不容易被淘汰的,并不是像危言耸听的那样(会造成大面积失业)。在我看来,那些工作重复不变的,就容易被淘汰。”近日,智搜联合创始人、首席科学家郑海涛博士在接受《华云网》专访时表示。

郑海涛认为:“像一些财经、体育类,重新复述事件的记者,机器在经过不断学习后也能够做到,他们就容易被淘汰。”


据介绍,智捜作为第一家在智能写作领域成功商业化落地的公司,去年营收已过千万。目前智捜正在进行B轮融资,完成后公司估值将达到5亿元左右。

以下为专访实录:

内容生产再变革
华云网:智能写作的核心技术之一是智能语义。那么,我们如何理解“智能语义”技术?

郑海涛: 智能语义技术是智能写作的核心技术,定义为机器如何理解文本和生成文本的能力,即自然语言理解和自然语言生成技术。自然语言理解技术,比如我们说的一句话,机器能够识别出这句话中什么人发生了什么事情;自然语言生成技术就像给他一段话或者几个关键词,他能够基于对一段话或者几个关键词的理解重新写出自己的文字。

华云网:在具体应用中,智能语义的精准度如何?

郑海涛: 对自然语言理解技术的评估,评估过程一般是给机器一段文字,让机器去做阅读理解,然后去问他一些比较间接的问题,看是否能够理解语义。写作机器人只有理解了人写的文本,才能模仿人去重新写作。智搜的精准度中文最高可以达到92.67%,普遍高于同行10% ,英文领域的精准度也逼近90%。在中文领域我们是公认的领先于同行( 同行不仅仅是谷歌、BAT、科大讯飞等科技公司,还有高校的研究等),其他同行的精准度普遍在百分之七十多,因为不同的垂直领域,考虑到不同的文本,智搜精准度普遍高5--10%。

华云网:据了解,智搜在写作方面有智媒、智书和智讯三大解决方案,这三个方案都各具什么特点?

郑海涛:我们公司现在主要是面向市场化的商业落地,跟一些高校的研究不一样,我们不仅仅是智能语义的研发,还要进行商业化的落地。而商业化落地三要素是产品、数据来源、技术,智媒、智书和智讯是我们面向商业化的三大场景推出的三大解决方案。

智媒:面向于传媒领域,像传统报业、自媒体,他们比较偏向于新闻资讯类的写作,对于写作的选题、决策,热点的抓取,写作发布后的跟踪特别重视。需求是你要给他们提供素材、抓取选题,辅助写作决策。

智书:面向内容营销行业,基于素材加上很多联想类的原创写作,比如我们现在主要做的汽车内容营销,给定一个车型,每个人可能会从不同的侧重点去写,比如汽车的外观、颜色、发动机、整体性能等,汽车领域的营销内容题材、风格和新闻媒体领域是完全不同的。

智讯:主要面向B端技术团队,为他们赋能,他们可以将智搜的技术整合到自己的产品中,使他们可以开发自己的定制化产品,我们提供api,给到各个合作伙伴接口服务。

华云网:与微软、腾讯等企业相比,智搜的核心优势体现在哪些地方?

郑海涛:腾讯也好、微软也好,他们主要从事的不仅仅是智能写作,还有很多其他方面的工作,我们公司虽然还比较小,但我们的投入度远高于他们。

1、和B端写作产品的落地,我们是和b端深度融合,经过多年摸索我们充分知道他们的需要;
2、对于BAT来说,他们受限于产出投入比,不会去和B端深入合作;
3、数据,素材的积累,精准到每段话甚至每一句话的标签数据我们是经过很多年沉淀下来的,就算是BAT再有人力、物力也不是一下子能够积累起来的;
4、就是机器模型、机器学习的技术。经过我们的不断打磨,可以让机器能够写出一篇逻辑连贯比较通畅的文章,而且这种写作文章不是基于模板的,而是机器学习后读懂了文本内容后重新生成的,目前我们还没有看到有同类技术出现,大部分都是基于模板化的写作。在技术领域方面,我们自动化的生成一篇2000字的文章、或者生成概要、进行机器查重、个性化的改写以及最后发布,经过多年打磨我们已经形成了多个技术专利 及相应的软件著作权。

华云网:我可以理解为腾讯微软他们提供的是标准化产品,智捜提供的是定制化的产品吗?

郑海涛:不完全是,很多企业需求是可以做成标准化的。但大企业不愿意放下身段去和小企业深度合作,对他们来说是一个成本问题,他们要算投入产出比的,对于我们来说,是使命,我们前期大量的投入,到现在才把企业的需求做成一个标准化的产品。

人机合作是王道
华云网:机器如何判定一个消息的新闻价值?

郑海涛:这是一个写作决策的问题,是如何决定选题保证所做选题是新的好的真实的。我们是通过每天对热点新闻、大量报道、权威媒体、重点人物、点击率等多个维度进行统计,经过大数据计算分析,给到编辑多个结果备选,编辑可以根据需要去做决策,而不是说只给一个。
华云网:也就是说,机器人的工作就是搜集素材、把类似素材归结,交给编辑去审核、编辑、写作?

郑海涛:我们是相当于做一个写作助手工作,帮你把所有素材集结,热点挖掘,提供给你做决策,你做出决策后还可以帮你智能写作,写成初稿,你再加上自己的一些想象力、自己的观点类的一些东西,这样就把人机协同做起来了,人主要提供想象力和创意类的,机器负责素材的搜集整理,让人更方便分析。就像一个编辑助理,而且还可以不断学习编辑的写作习惯和新闻报道的习惯,经过不断学习,我们可以更知道编辑的偏好风格,在智能写作时会加入一些编辑的惯用词语。

华云网:传统媒体要想和智捜合作,需要具备哪些条件(生产条件、相关配套)?

郑海涛:我觉得和我们合作的一个先决条件就是要敞开心态。

硬件条件之外最核心的就是认知,因为最难的是人机配合度的问题,人对AI的接受度不一样,有的会比较惧怕AI,会担心使用这个产品带来的不是提高生产力而是带来更繁重的劳动,这是一个过程。如果不敞开心态接受AI,就会产生抵触情绪。

生产条件方面,就需要拥抱云服务,对于服务过程来说,你有云最好,如果没有,我们也会提供给您云服务。因为对于一些远程数据的使用,云端数据的上传让机器去学习。

云计算的时代已经到来,但对于有些企业的先决条件和生产条件,要把很多东西放到云端还需要一个过程。

机器是在不断的学习,是可以越做越好的。在这个过程,人需要不断的对数据进行使用、打标签。比如我们的账号,要登陆以后才能使用。不登录就希望机器永远懂我,这个是对机器产生了过高的期望,机器是做不到的。

华云网: 与普通记者编辑相比,智能写作的成本优势在哪儿?

郑海涛: 说成本优势的话,要看具体的应用环节,因为成本包含生产成本和运营成本。就媒体行业而言,有专门生产内容的记者,有负责运营的编辑,据我们客观的统计分析,可以提高2-3倍的生产效率,高的可以提高3-4倍。记者行业的痛点不是说完全为了省钱,而是要在固定的预算或成本不变的情况下,把生产效率提高上去。目前我们主要是通过提高效率来降低生产成本。在运营方面,可以运用AI技术做个性化推荐,做可控化推荐,做各种数据分析,让编辑朋友更高效地观察读者的习惯、哪些内容更容易得到读者的认可,在这方面可以帮他们提升2-3倍的效率。我们是把决策权交给编辑的,著作权还是记者/编辑的。

华云网: 你认为智能写作时代,传统媒体的哪类记者编辑最可能率先被淘汰?

郑海涛:人如果能够定义出自己做的事情的时候是不容易被淘汰的,并不是像危言耸听的那样(会造成大面积失业)。在我看来,那些工作重复不变的,就容易被淘汰。工作需要融入想象力和创造力的不容易被智能写作淘汰。像一些财经、体育、重新复述事件的记者,机器在经过不断学习后也能够做到,他们就容易被淘汰;但如果加入了自己的想象、创造性的点评分析、或者体育记者对某个球员现状的了解、对未来状态的更新等进行更深入的思考分析,机器还是做不到的,还是需要人才能做到。

我们现在就已经有机器人辅助人工对体育赛事的报道,赛事一结束,马上就可以自动生成新闻报道,速度比人不知道要快多少倍。但机器主要还是描述客观事实,对于一些需要想象力的、需要深入思考的只有人才能做到了。

华云网:如何保障用户的数据安全?

郑海涛:在技术层面,我们对标的是阿里,他们需要做什么安全测试我们也一样要做;另外我们也会和您签一个安全协议,对客户资料、数据和隐私我们是要绝对保密的,我们的技术也完全能够做到的。为了打消客户的安全顾虑,我们很多情况下也做成混合云模式,有需要外部数据就用我们这边的SaaS服务,如果不需要或者顾虑太多,我们就不提供到客户那边。

比如,我们会用区块链技术等一些加密技术。我们也在不断地进化,不断地用技术进步打消客户的顾虑。

华云网:与传统媒体合作,有几种合作模式,具体如何合作?

郑海涛:1、标准化云服务模式,需要什么样的内容热点写作也好、 远程的联想式写作也好,支付年费后就可以直接拿来用,不用担心后期的维护问题。
2、定制化加标准化,即混合云模式。这种的客户有顾虑,很多数据需要留存在本地,部分的定制化数据功能处理,部分数据放我们这端,统一的客户端还是由我们开发。
3、接口服务模式,B端客户他们有自己的技术服务团队,由他们开发产品,我们只提供相应的技术接口,供他们采购,采购完就可以把我们的技术融合到他们的开发产品中。
或引爆千亿商机
华云网: 公司目前的人员结构如何?在技术团队实力上,有哪些特点?

郑海涛:目前,智叟研发人员占到大约60%,研发人员包括算法人才,比如像我;工程人才:把算法工程化,开发产品;架构人才:云服务需要大量的计算,云服务维护。

智搜从一开始就是以清华为班底的,集结了全球知名高校如香港大学、北京大学、国防科技大学等以及大型研发机构如国家863人工智能研究小组等的博士与研究生等优秀人才。

我们专注钻研这个领域很多年,在中文领域的积累是国内领先的。在算法领域一个高端算法人才可以顶很多人的,虽然我们公司还比较小但在算法领域我们也是比较领先的。

华云网:智捜团队取得过哪些成绩?

郑海涛:公司目前累计发明专利申请12项,软件著作权数19个。获得19th高交会“最具投资潜力奖”和“优秀产品奖”(天机智讯APP);获得2017年度CEO峰会暨猎云网创投颁奖盛典“最佳人工智能创业公司奖”等。但我们更关注我们的商业化落地。

华云网 :据了解,智搜创立伊始就获得天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。现在公司市场估值是多少?下一轮融资准备在什么时候进行?

郑海涛:我们的技术是国内领先的,人才储备也是领先的,是第一家在智能写作领域能够成功商业化落地并且营收的(去年已经收入过千万),在人工智能企业中还是比较少的。这些都能说明我们公司是有实力的,目前我们正在进行B轮融资,完成后公司估值将达到5亿元左右。

华云网:下一步,公司的发展方向是?

郑海涛: 我们从事智能写作行业这么久之后,踩了很多的坑,然后找到我们的定位。第一,把B端的写作需求,包括内容营销和传媒行业需要的人机协同的一些功能先满足,这是我们第一步要做的,通过第一步就可以做到盈亏平衡;

第二、因为我们要做的是智能写作平台,现在我们只是卖系统,未来将更进一步,要打通产业链上下游。(写作是需求方,素材的供给方,包括个人、企业、像图片提供方)。形成内容上的交易,解决版权问题,辅助客户生长,让客户的内容生产更高效,同时让客户的内容产生更多附加值,这样我们也可以从中收取一定的手续费。未来这至少是一个千亿级市场。

华云网:目前,公司的需求及面临的困难有哪些?

郑海涛:当前面对的最大困难是B端企业的认可度,因为有的记者、编辑会担心引入机器后对自己的生产造成影响从而产生抵触情绪。我们需要和更多的B端企业合作,让更多的编辑记者认可我们的产品,同时我们也能够积累更多数据素材,让我们的机器更聪明。

再有就是对数据的采集,在AI行业里对数据的依赖度很高的,只有把数据不断地积累起来,我们的壁垒层才会越来越高,这样未来就算巨头们投入巨资也是改变不了的,最多是把我们收购。

华云网:除了安全,客户的抵触心理还体现在哪些方面?

郑海涛:安全是一点,另一点用户写作的时候会担心内容侵权问题。我们是通过查重技术帮他们说明这个内容在别的平台是否有相似,如果有限制客户可以做决策删掉;还有就是通过技术对文章内容改写,基于同样的语义使用不同文字;如果涉及版权图片的引用,可以通过购买使用;

最核心的是刚开始写出的初稿难以达到用户的满意,很多人一开始就期望机器能够写出她想要的稿件,这是不太现实的。因为人的知识是在脑海里,机器是不知道的,这个过程中人需要抱着开放的心态,需要不断去修改,这是一个打标签的过程。这个过程会让机器学习得越来越聪明。

来源:吴悠



作者: 刘海明    时间: 2019-5-22 22:25
【案例】每日一词|Sisyphean:Facebook的“西西弗斯式”任务

在未能及时阻止新西兰大规模枪杀案死亡视频的传播而备受批评后,Facebook开始使用人工智能技术来识别并清除社交媒体上的暴恐内容和虚假信息。但其首席技术官认为,这是一项“西西弗斯式”(Sisyphean)的任务。

上周,时报科技栏目发表了有关Facebook如何开展这项工作的长篇报道,向读者详细呈现了这家巨头公司的痛苦与无奈。文中提到,每当Facebook工程师标记出一个有害素材,新型的可疑帖子又会不断涌现。标记、出现新内容、再标记、再出现新内容——这一过程似乎永无止尽。

据剑桥词典,Sisyphean一般“用来形容一项任务永远不可能被完成”。该词最早出现于16世纪晚期,源自希腊神话人物西西弗斯(Sisyphus)的名字。西西弗斯因触怒众神,被罚将一块巨石推上山顶,但那巨石太重了,每每在快成功时又滚下山去,西西弗斯的生命就这样消耗在无止尽地推石头当中。

编辑:吴悠


作者: 刘海明    时间: 2019-5-22 22:41
【案例】人工智能产业寻找商业化“落地”之路
文章来源:FT中文网
原文链接:http://www.ftchinese.com/story/001082834?adchannelID=&full=y
技术生态如何转化出更多的商业场景和应用,并被市场验证,形成可持续的发展与生存链条?行业中人仍在求解答案。
人工智能技术如何实现商业化“落地”? 关于这一问题的追问正变得日渐迫切。

在不久前于伦敦闭幕的“人工智能与大数据博览会”(AI & Big Data Expo) 上,“场景”、“应用”之类的词语,取代了诸多理想主义式的叙事,成了人工智能领域的从业者们谈论最多的话题。

历经两年的蓬勃兴起,这个产业已经在热钱和数据的哺育下,发展成一副布局蔚为壮观的图景。然而在今天的互联网时代,“方生方死”几乎是每个行业的命运主题,如今的人工智能产业,也正在面对类似的拷问。

其中那个最核心的问题,答案仍不清晰:一个由超强算力、海量数据和精英从业者构成的技术生态,能否从产业的基底层向垂直领域延伸,转化出更多的商业场景和爆款应用,并进而被市场验证,形成可持续的发展与生存链条?求解这个疑问,既意味着抱负,也意味着生死。

交流之中不难发现,从大型银行到初创企业,行业对于人工智能技术的预期,正趋于理性和具象。他们的观察和思考,也更加聚焦于对技术边界的界定、和对基本商业逻辑的回归。

靠金矿赚钱?还是靠淘金者赚钱?
“企业需要思考一个问题:究竟是想通过金矿赚钱,还是想通过淘金者赚钱?”

世界领先的企业管理软件服务商SAP的全球副总裁Marc Teerlink,将今天AI技术的产业化进程,比作1848年开始的美国加州淘金热。他强调,在那场人类史上最大规模的淘金浪潮中,只有少数人真正靠挖掘黄金而致富。最终产生经济效益的,反而来自于那些向淘金者们提供餐饮食宿、贩卖镐头铁锨,甚至研发牛仔裤的生意。

这对今天有什么启示?Marc Teerlink认为,在眼下这场以“智能”之名发起的数据淘金热潮中,多数企业并不需要从零做起研发AI技术的底层模型和算法,而是应该思考如何利用AI技术。

“数据是一种资产,AI是开发资产的引擎。但(今天)只有5%的企业承认他们在数据化转型中取得了成功”,在接受FT中文网的采访时,Marc Teerlink表示,“直到今天,很多AI领域的企业还在研发自己的生产工具和生产流程。但是随着AI淘金者越来越多,人们更应该注重增强自己所擅长的专业领域,而不是埋头于底层基础架构。”

这同时也意味着,认为人工智能必然颠覆传统产业的观念,同样需要得到反思。在Marc Teerlink看来,AI技术更为实际的角色,是成为传统产业优化资源配置、重构产业链条和数字化升级的助力性工具。其中蕴含的商机包括诸如数据训练、软件工具、咨询和整合服务等业务。

“AI并不是全新的事物,人们想做的仍然是他们业已熟悉和了解的事情,只是希望能做的更快、成本更低、并且通过更数据化的方式来完成。因此即便是对那些以数据为核心的企业而言,最好的商业化之路,还是去寻求能够运用好数据的技术和模式”,Marc Teerlink说。

关键要素是数据
即使是在AI时代,传统企业在各自的细分产业、细分区域市场仍将具有不可替代的竞争优势,这一观点正在被更多人所认同。但这并不代表,初创型的AI企业没有做大做强的机会。

“今天AI创业的最大机会在垂直应用领域”,来自中国AI创业公司乂学教育的崔炜对FT中文网表示。

崔炜是乂学教育旗下产品“松鼠AI”的首席科学家。在他看来,在今天的中国市场中,AI技术的商业版图已经十分明晰:为整个产业提供算力的“基础层”,与提供通用技术能力的“技术层”,均已被巨头公司或者技术成熟的企业牢牢占据。而崔炜和他的团队之所以押注垂直应用,理由是“巨头企业无法触及到这么细分的领域中来”。

据崔炜介绍,“松鼠AI”是一款针对K12教育领域的在线平台,致力于通过人工智能,为从学前教育到高中年龄层的学生提供个性化、系统性的学习内容和服务。按崔炜话讲,产品的定位就是做教育领域的“今日头条”。

“在教育和医疗这样的传统领域,有很多‘根深蒂固’的行业模式,不是随便一个科学技术就能改变的。否则早在移动互联网时代,这些领域的变革就已经发生了”。

然而在AI时代,这正好成了创业者的机会。在崔炜看来,在技术的商业化过程中,AI的四大要素:算法、算力、数据、场景,缺一不可。这其中最难获得的就是数据:“差异化的数据是需要一个产品来解决、梳理的。而且做成什么样的产品,就要采集什么数据”。

数据的转化,是商业化过程中的另一个关键要素。崔炜介绍:“AI实质上是模拟人脑的思维过程,模拟人的行为。其中需要科学家构建算法和模型;同时还要有了解行业的专家,负责把行业的经验解释给科学家,帮助后者思考模型需要模拟什么;接下来就是产品化的开发;积累的用户数据又能反过来不断强化、训练模型,让产品更完善。”

崔炜表示,对垂直应用领域的AI创业公司来说,建立壁垒的方式就是更精细的用户建模和更个性化的产品设计。在教育行业,就是“如何对用户进行画像,如何分析学生的学习状态,如何根据学生的学习情况,从海量学习资源中匹配学习内容和模型。”

商业化落地的挑战在哪里?
致力于将AI学术成果向商业转化的英国公司Faculty的首席商务官Richard Sargeant认为,在垂直应用场景中实现商业化落地,是小型AI初创企业的优势所在。

他对FT中文网表示:“在实际的垂直市场应用层面,大型科技企业实际上很难提供精准的客户服务。他们更擅长研发通用算法和技术,让尽可能多的用户都能够适用。但是现实的经济是一个非常多样化的世界,需求是非常不同的,这反而是小企业的优势。”
那么深入垂直领域的挑战在哪里?

“我们是第一个吃螃蟹的人,面临的难点是要做市场普及”,专注AI教育技术的崔炜表示:“就像第一代苹果手机已经带来了颠覆,但直到第四代iPhone,产品才能成为市场主流。对教育行业而言,大部分家长还是更信赖老师,因为老师有个人信誉在那里。而一个机器,它的教育水平还没有形成口碑。”

然而与智能手机等硬件产品不同,AI技术所提供的是更为抽象的服务和体验,这似乎也意味着消费者教育的周期与方式,存在更多不确定性。

对此崔炜表示,这是人工智能产品面对的另一个难题:“手机产品能开一个发布会,但是一个教育产品的体验,需要更长的周期。教育只有一个关键点,就是口碑。而(在中国)好的教育口碑的形成,最直接的还是中考和高考成绩。”

对于如何迈出AI商业化的第一步,传统企业也同样谨慎。英国Lloyd 银行集团商业整合与应用科学主管Abhijit Akerkar表示,AI技术在企业层面的应用,需要考虑如下因素:回报有多大?是否掌握了正确的数据?能否被监管机构批准?应用模式是否已有先例验证?以及,人们的预期有多大?应用落地后会不会在短期显现影响?

Abhijit Akerkar说:“这些因素的可以帮助确定行动的优先级,企业对AI的心态更像是一个风险投资人。可以先采用小规模尝试,如果结果是积极的,那么加倍投入”。

编辑:吴悠


作者: 刘海明    时间: 2019-5-24 19:04
【案例】人脸识别技术在英国被起诉

文章来源:数据法律资讯
原文链接:https://mp.weixin.qq.com/s/5ynSxX1VRzJNxYouOvj4ng

英国首例警用人脸识别案于近日开庭。

案件当事人Ed Bridges以众筹的方式提起诉讼,其诉称南威尔士地区警局使用人脸识别技术侵犯了他的隐私。他同时主张,在加的夫民事审判与家事中心的持续三天的审讯违反了数据保护与平等法。人脸识别技术能够将人群的个体面部图像与“监视清单”中的图像进行比对(监视清单中包含了嫌疑人、失踪人员以及相关人员的图像)。警务人员希望通过此项技术减少犯罪,然而公益组织则主张人脸识别技术侵犯了个人隐私和公民权利。
2017年在欧冠总决赛时期,威尔士警局首次使用了人脸识别技术。Bridges声称他至少被扫描了两次——第一次是在一项平和的反枪支抗议活动中,另一次是在圣诞节购物中。

代表Bridges的公益组织“自由”,声称南威尔士警局在大约50种场合使用了人脸识别技术。该组织同时声称,公开的信息显示在人脸识别技术被投入使用的第一年,其精确度不足9%。警局回应道,在司法审查结束前,他们将不发表意见。

大都会警局也在伦敦适用了若干次人脸识别技术。流传于网络的一个视频显示,某男子因为在镜头前遮挡面部,而被施以90英镑的罚款。此项惩罚广受批评,虽然直到现在也没有弄清该男子究竟是因为遮挡面部还是因为与公务人员发生争执而被罚款。

此项技术在美国也饱受争议。乔治城大学的一向研究报告显示:当涉及到什么样的照片可以由警察呈递给人脸识别算法以生成调查指引时,无规则可循。结果便是,当纽约州警局发现他们没有某个嫌疑人的可供匹配的照片时,竟然尝试将演员伍迪哈里森的照片放入,因为他们认为这两人长得很像。

本月初,旧金山投票已禁止使用人脸识别技术,这项技术被一些活动家称为“老大哥技术”。
人脸识别技术是如何工作的?

由伦敦大都会警局所试用的该项技术(该项系统被称为“NeoFace”,由日本NEC公司制造),首先利用独特的相机来扫描人群中的人体面部结构,生成数字图片,然后与“监视清单”中的图像进行对比,“监视清单”由被纳入警方监管的目标人群的图像组成。
并不是所有被纳入警方监视清单中的人都是通缉要犯,因为清单中也包含了那些失踪人员和其他相关人员。如果匹配成功,那么相机旁边的公务人员就会被警醒。

为什么此项技术备受争论?

公益组织的活动人士认为,人脸识别技术侵犯公民权利。此次诉讼的推动者—公益组织“自由”声称,扫描并储存我们的生物信息,是对隐私的粗野的侵犯。

“老大哥监察者”,这个关注个人隐私与公民权利的组织说道,“直播式的人脸识别技术使得个体成为了行走的身份证,这实在是令人寒心!”
编辑:吴悠


作者: 刘海明    时间: 2019-5-26 21:51
【案例】如何确保人工智能不作恶?微软提出透明、负责等6个道德准则

文章来源:澎湃新闻
原文链接:https://mp.weixin.qq.com/s/SCOIty14lsv2gejTOE0ADw

人工智能浪潮以迅猛之势席卷全球,一方面给经济社会的可持续发展带来了巨大的机遇,另一方面,安全、隐私、偏见、垄断等问题也随之而来。

7月9日,由中国发展研究基金会与微软公司联合撰写的《未来基石——人工智能的社会角色与伦理》报告在北京发布。

报告称:“如果我们决心要利用人工智能带来的无限机遇,最好在冲进未知之门之前给这辆汽车装上刹车,让它真正能行稳致远。这个刹车就是伦理规范和公共政策准则。”

在深度学习、云计算以及芯片、传感器技术的帮助下,人工智能成为马力惊人的社会发展加速器,带着全球向充满不确定性的未来疾驰。但在高速发展的过程中,一些担心也随之而来。
例如,人工智能技术是否会扩大贫富差距;如何确保人工智能技术不会武器化,如何防止某些公司对技术的滥用等。

在国家层面,人工智能的伦理问题已经引起了越来越多的关注,出台了一系列的政策指引和准则。日本的一个跨专业团体曾发布《下一代机器人安全问题指导方针(草案)》,韩国政府早在2007年就着手拟订《机器人道德宪章》,美国信息技术产业委员会(ITI)也于2017年颁布了人工职能的14条政策准则。最近,欧盟出台了史上最严格的史上最严格数据保护条例——《通用数据保护条例》(General Data Protection Regulation,简称GDPR),旨在加强对数据的保护。

在公司层面上,硅谷的一些巨头科技公司深有感触。此前,由于和美国国防部有军方合作项目,亚马逊、微软、谷歌等公司遭到外界的诟病。有媒体指出这些公司正利用人工智能技术助纣为虐,是在作恶。尤其是谷歌的Maven项目(编注:该项目主要指谷歌利用机器学习技术帮助美国国防部分析无人机视频,识别物体),这个人工智能项目受到公司内部和外部的指责,谷歌内部甚至出现了离职潮。

在内外舆论的压力之下,谷歌公司已经申明,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。

微软也给出了自己的答案,提出要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此提出6个道德基本准则,包括公平、包容、透明、负责、可靠与安全、隐私与保密。其中,透明和负责是其他四项原则的基石。

微软提出的6个道德基本准则

具体原则为:

公平:人工智能系统应当以公正、一致持平的态度对待每一个人,而不能对情况类似的群体施以不同的影响。

可靠:人工智能系统应确保运行可靠、安全,避免人工智能系统可能会在不可预见的情况下造成伤害,或者被人恶意操纵,实施有害行为。

隐私与保密:人工智能系统应当有保障且尊重隐私,这是赢得公众必要信任的条件,而公众信任又是充分利用人工智能的前提。
包容:人工智能系统应确保人人赋能、人人参与。要确保人工智能技术造福、赋能每一个人,这些技术必须考虑并解决广泛的人类需求和经验。

透明:人工智能系统应易于理解。一旦人工智能系统被用于做出影响人们生活的决策,人们就有必要了解人工智能是如何做出这些决策的。

负责:与其他技术和产品一样,设计和部署人工智能系统的人员必须对其系统的运行负责。

除了提及人工智能在伦理道德方面的发展约束外,这份报告中,也对中美两国人工智能发展情况进行了描述。

报告认为,美国和中国在人工智能领居于全球前列。目前,全球人工智能领域最有影响力的大学和企业主要分布在美国,在核心人才的培养上也是如此。从累计的专利数量和研究论文数量看,美国遥遥领先于世界其他国家,中国则在数量增长上后来居上,但质量上与美国还有较大的距离。

在产业层面,美国和中国也居世界前两位。截止2017年6月,全球2542家人工智能企业中,美国有1078家,占42%,中国592家,占23%,其余872家企业分布在瑞典、新加坡、日本、英国、澳大利亚、以色列、印度等。基础层企业美国有33家,中国有14家;技术层企业数量,美国有586家,中国273家;应用层企业美国有488家,中国有304家。

编辑:吴悠


作者: 刘海明    时间: 2019-5-26 22:00
【案例】欧盟发布《人工智能道德准则》:「可信赖 AI」才是 AI 的指路明灯

文章来源:再建巴别塔
原文链接:https://mp.weixin.qq.com/s/F1pybI4Gr4fHgNgeDO9cyg
  欧盟委员会发布了由人工智能高级专家组(AI HLEG)编制的《人工智能道德准则》(AI Ethics Guidelines)草案,指出 AI 的发展方向应该是「可信赖 AI」,即确保这一技术的目的合乎道德,技术足够稳健可靠,从而发挥其最大的优势并将风险降到最低。该准则旨在为 AI 系统的具体实施和操作提供指导。《准则》最终版将于 2019 年 3 月发布。
  

执行摘要

  人工智能是这个时代最具变革性的力量之一,它可以为个人和社会带来巨大利益,但同时也会带来某些风险。而这些风险应该得到妥善管理。总的来说,AI 带来的收益大于风险。我们必须遵循「最大化 AI 的收益并将其带来的风险降到最低」的原则。为了确保不偏离这一方向,我们需要制定一个以人为中心的 AI 发展方向,时刻铭记 AI 的发展并不是为了发展其本身,最终目标应该是为人类谋福祉。因此,「可信赖 AI」(Trustworthy AI)将成为我们的指路明灯。只有信赖这项技术,人类才能够安心地从 AI 中全面获益。

  「可信赖 AI」由两部分组成:1)它应该尊重基本权利、相关法规、核心原则及价值观,确保其目的合乎伦理道德;2)它使用的技术应该非常稳健、可靠,因为即使是出于好意,如果没有成熟技术的加持,技术也会带来意想不到的伤害。这些指导原则构成了「可信赖 AI」的基本框架:

  
  「可信赖 AI」框架

Chapter I :确保人工智能的目的合乎道德,规定了人工智能发展应该遵守的基本权利、原则和价值观。

Chapter II:关于实现「可信赖 AI」的指导原则,同时强调 AI 发展目的的道德性和技术稳健性。这部分列出了「可信赖 AI」的要求,以及实现这些要求所需的技术和非技术方法。(详细内容见下文)

Chapter III:提供「可信赖 AI」的具体但非详尽的评估列表实施要求。该列表将根据具体的用例进行调整。

与其他有关 AI 伦理道德的文件相比,这份准则的目的不是为 AI 增加一份核心价值观和原则清单,而是为 AI 系统的具体实施和操作提供指导。

该准则面向开发、部署或使用 AI 的所有利益攸关方,包括公司、组织、研究人员、公共服务单位、机构、个人或其他实体。该准则的最终版将提出一种机制,是否认可这些这些准则将由利益攸关方自行决定。

需要指出的是,制定这些准则并不是为了替代任何形式的决策或监管,也不是为了阻止其出台。这份准则应该不断更新,以适应技术和知识发展的要求。

参与起草制定这些准则的IBM欧洲法律部门副部长利亚姆·本纳姆表示:“(制定这些准则)就像在造房子之前,需要先打地基。而现在就是做这些事情的时候。”

该道德准则要求“值得信赖”的人工智能应当满足如下7个条件:

1.人类的力量和监督:人工智能不能侵犯人类的自主性。人们不应该被AI系统操纵或胁迫,而应该能够干预或监督软件做出的每一个决定。
2.技术的健全性和安全性:人工智能应该安全且准确。它不应该易于受到外部攻击的影响,且应该相当可靠。
3.隐私和数据管理:人工智能系统收集的个人数据应该是安全的、私有的。它不应该让任何人接触,也不应该轻易被盗。
4.透明性:用于创建人工智能系统的数据和算法应该是可访问的,软件所做的决定应能被人类理解和跟踪。换句话说,操作员应能够解释AI系统所做的决定。
5.多样性、非歧视和公平性:人工智能提供的服务应面向所有人,无论年龄、性别、种族或其他特征。同样,系统不应该在这些方面存在偏见。
6.环境和社会福祉:人工智能系统应该是可持续的(即它们应该对生态负责)并“促进积极的社会变革”。
7.问责制:人工智能系统应该是可审计的,并被纳入企业可举报范畴,以便受到现有规则的保护。应事先告知和报告系统可能产生的负面影响。

人工智能,以人为本

欧盟负责数字经济的官员玛利亚·加布里埃尔解读了这7项要求。她认为,在人工智能使用上,“透明性”是一切的关键,同时也要“以人为本”。

加布里埃尔表示:“任何公司在使用人工智能技术时,其受众都应当具有知情权。人们应该知道和他们进行沟通的是算法还是真人。同时,任何由算法做出的决定,都必须由公司出面解释。”


玛利亚·加布里埃尔解读人工智能道德准则 图自视觉中国

报告地址:https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai
编辑:吴悠


作者: 刘海明    时间: 2019-5-27 16:28
【案例】
人脸识别技术在英国被起诉
英国首例警用人脸识别案于近日开庭。
案件当事人Ed Bridges以众筹的方式提起诉讼,其诉称南威尔士地区警局使用人脸识别技术侵犯了他的隐私。他同时主张,在加的夫民事审判与家事中心的持续三天的审讯违反了数据保护与平等法。人脸识别技术能够将人群的个体面部图像与“监视清单”中的图像进行比对(监视清单中包含了嫌疑人、失踪人员以及相关人员的图像)。警务人员希望通过此项技术减少犯罪,然而公益组织则主张人脸识别技术侵犯了个人隐私和公民权利。
[attach]18217[/attach]
2017年在欧冠总决赛时期,威尔士警局首次使用了人脸识别技术。Bridges声称他至少被扫描了两次——第一次是在一项平和的反枪支抗议活动中,另一次是在圣诞节购物中。
[attach]18218[/attach]
代表Bridges的公益组织“自由”,声称南威尔士警局在大约50种场合使用了人脸识别技术。该组织同时声称,公开的信息显示在人脸识别技术被投入使用的第一年,其精确度不足9%。警局回应道,在司法审查结束前,他们将不发表意见。
大都会警局也在伦敦适用了若干次人脸识别技术。流传于网络的一个视频显示,某男子因为在镜头前遮挡面部,而被施以90英镑的罚款。此项惩罚广受批评,虽然直到现在也没有弄清该男子究竟是因为遮挡面部还是因为与公务人员发生争执而被罚款。
此项技术在美国也饱受争议。乔治城大学的一向研究报告显示:当涉及到什么样的照片可以由警察呈递给人脸识别算法以生成调查指引时,无规则可循。结果便是,当纽约州警局发现他们没有某个嫌疑人的可供匹配的照片时,竟然尝试将演员伍迪哈里森的照片放入,因为他们认为这两人长得很像。
本月初,旧金山投票已禁止使用人脸识别技术,这项技术被一些活动家称为“老大哥技术”。
[attach]18219[/attach]
人脸识别技术是如何工作的?
由伦敦大都会警局所试用的该项技术(该项系统被称为NeoFace”,由日本NEC公司制造),首先利用独特的相机来扫描人群中的人体面部结构,生成数字图片,然后与“监视清单”中的图像进行对比,“监视清单”由被纳入警方监管的目标人群的图像组成。
并不是所有被纳入警方监视清单中的人都是通缉要犯,因为清单中也包含了那些失踪人员和其他相关人员。如果匹配成功,那么相机旁边的公务人员就会被警醒。
为什么此项技术备受争论?
公益组织的活动人士认为,人脸识别技术侵犯公民权利。此次诉讼的推动者—公益组织“自由”声称,扫描并储存我们的生物信息,是对隐私的粗野的侵犯。
“老大哥监察者”,这个关注个人隐私与公民权利的组织说道,“直播式的人脸识别技术使得个体成为了行走的身份证,这实在是令人寒心!”

来源:数据法律资讯

来源:微信公众号“您懂的”
链接:https://mp.weixin.qq.com/s/icOXcLauT0Jr-QJqkPTiHw

编辑:马晓晴


作者: 刘海明    时间: 2019-5-29 11:24
【案例
中国报业第三届大会

[attach]18237[/attach]
链接:
https://writer.giiso.com/m/share.html?id=615056&originType=1&uid=11734&newsType=1&title=%E4%B8%AD%E5%9B%BD%E6%8A%A5%E4%B8%9A%E7%AC%AC%E4%B8%89%E5%B1%8A%E5%A4%A7%E4%BC%9A&author=%E9%A3%98%E5%9C%A8%E5%8D%97%E6%96%B9%E7%9A%84%E9%9B%AA&time=2019-05-29%2010:05:09&from=groupmessage&isappinstalled=0
编辑:马晓晴


作者: 刘海明    时间: 2019-6-4 21:04
【案例】
AI技术,给影像带来了什么?
从科幻电影《终结者》系列到AlphaGo战胜柯洁,人工智能(AI)从1956年正式提出起,经过了半个多世纪的发展,逐渐将理论科幻应用到了现实。
曾经关于人工智能,社会还掀起了一场“行业是否会被取代”大讨论。即便当时我们得到了肯定的答案,但综合各方报道,人工智能仍有很长的路要走。
昨晚,微博上有人分享了一个关于人工智能的话题:#AI修复的十六岁的林徽因#。今天一早就上了热搜,并且坐稳了热搜榜第二名。
拍者君看到修复后的林徽因照片,虽然与原片比清晰度高了,但是跟帖的评论却不买账:
@芋圆珍奶:无语死,大家百度一下好嘛,这张P得那么网红。
@权小孩and-LJ:怎么跟我书本上看到的不一样[允悲],不过都很好看。
@看见:真的不太像。她虽然五官并不十分精致,但气质比容貌出众太多,以及文化底蕴支撑起来的灵魂,才成就一身诗意的“人间四月天”。
不过话说回来,近几年,人工智能在影像领域,随着计算机运算能力的提升,也取得了不小的进步。本期,拍者君就简单整理了一下,人类在AI影像领域取得的成果吧。
20195月,有媒体报道,位于莫斯科的三星人工智能研究中心的研究人员在一篇论文中指出,他们研发出新的“Deepfake”技术,可以将静态照片中的人物添加不同的面部动作。
这个名叫“Deepfake”的AI技术,首先通过研究分析数据库进行广泛的“元学习”。
研究人员从专门收集人物说话短片的网站VoxCeleb上,取得了7000个样本给AI进行面部特征提取,然后通过训练卷积神经网络,再套用在照片上,生成高度逼真的动态人物头像。但研发人员表示,添加更多的照片有助于生成更惟妙惟肖的效果。
该技术特别之处在于,该算法并不是将一个人的表情完全拷贝到你想创作的那张人脸上,而是使用大多数人都有的面部特征,然后创作出一张会动的新面孔。
当然,也不仅是照片,此项技术也同样适用于肖像画。
美国NVIDIA公司的研究人员在2018年末发表一篇论文称,他们新研发的AI运用GAN(生成式对抗网络)技术,可以产生一些及其逼真的图片。
生成式对抗网络在2014年发明,最初只能生成模糊的人像,如今可以生成以假乱真的图片。
2014年,生成式对抗网络生成的人脸照片。
NVIDIA以一些真人照片作为样本,供人工智能来学习,然后人工智能会从照片中提取不同元素生成新的人物面孔。
除了人物之外,新款 AI 也能生成逼真的宠物、汽车与家居照片。

日本科技公司 DataGrid 20195月份宣布,他们研发出来了全身像的“AI模特”。
该公司宣称,这种新算法是基于 GAN(生成式对抗网络)来生成虚拟人物的高分辨率 (1024×1024) 图像。与之前不同的是,这次生成的是人物全身照。
从样片中可以看出,这些AI生成的全身人像无论男女,在面容、神色、身段还有姿态上都足以以假乱真。
2019年年初,美国NVIDIA公司研发出新的人工智能技术“GauGAN”,它可以将儿童画水平的涂鸦变成逼真的风景照片。
NVIDIA的研发团队称,他们用100万张照片训练人工智能,暂时不知什么时候将产品推向市场。,但他们相信们此项技术可以帮助建筑师等需要创建虚拟世界的行业。
以下是此项AI技术的部分作品



说了这么多,可能觉得人工智能还很遥远。不过低头看看自己的手机,许多人的手机中都有一个AI摄影功能吧。
摄像头拍摄到的画面经过手机强大的运算,可以分析出所处的拍摄环境与光线,自动调整画面,达到更好的呈现效果。
所以说,人工智能在影像上的应用,就在我们身边,并且它会尽力让我们的画面变得完美。
原文链接:https://mp.weixin.qq.com/s/W-ySL0Tom1OV1S6-fFyFBA
编辑:陈茗

微信图片_20190604205907.jpg (20.59 KB, 下载次数: 53)

微信图片_20190604205907.jpg

作者: 刘海明    时间: 2019-6-12 15:48
【案例】
微软删除人脸识别数据库,源于“伦理”识别


当地时间2019年5月14日,美国加利福尼亚州旧金山,监控摄像机悬挂在一栋建筑的侧面。旧金山城市监督委员会将就是否禁止政府部门购买和使用人脸识别技术进行投票表决。 图/视觉中国

据报道,近日,微软已经悄然删除其最大的公开人脸识别数据库——MS Celeb。MS Celeb数据库2016年建立,微软描述其为世界上最大的公开面部识别数据集,拥有超过1000万张图像,将近10万人的面部信息。这些数据信息被用于培训全球科技公司和军事研究人员使用的面部识别系统。

根据人工智能论文中的引文资料统计,在微软删除该资料库前,已经有多个商业组织在使用MS Celeb数据库,包括很多知名的互联网企业。所以,此次微软删除这个数据库影响颇大。问题来了,微软为什么要删掉这些人脸数据?

最直接的考虑,就是担心侵犯公众隐私权、“数据权”,产生法律上的风险。据了解,微软是通过“知识共享”许可,来抓取图像和视频中的人脸信息的。在“知识共享”(Creative Commons)许可之下,部分企业、机构可以将照片用于学术研究。

只不过,“知识共享”许可仅来自于图片和视频的版权所有者的授权,而微软并不一定直接得到了照片与视频中人物的授权许可。所以,这些人脸所对应的人,有可能指控微软侵权,从而产生法律问题。

法律问题很重要,但微软删除这个数据库,恐怕还有更深层次的考虑。

人脸识别当然是一项具有很大市场价值的技术。首先,这能带来不小方便。消费者通过“刷脸”解锁手机、进行电子支付,是全球消费电子领域的大趋势。人脸识别在商业上的应用,消费者始终是有选择权的,他们可以选择刷脸识别,也可以选择密码识别。而且,商业上得人脸识别仅仅是为了提供方便,并不意味着要多付出额外的个人隐私信息。

其次,这还可以加强执法力度。人脸识别可用在追捕逃犯、重要场合快速安检等方面。美国海关与边境保护局就利用生物识别摄像头部署人脸识别解决方案。这套生物识别系统推出至今,已帮助识别出7000名签证逾期人员。

但也应看到,人脸识别有可能突破这些领域,侵犯公民权利。作为一家技术公司,微软本身一直在公开反对将这种技术作为政府监督的一种形式。

在2018年12月的一篇博客中,微软呼吁各公司建立保障措施,敦促各国政府立法,要求对面部识别技术进行独立测试,以确保准确性。今年4月份,微软还拒绝了加州一家执法机构的要求——这家机构要求在警车和身体摄像头上安装面部识别技术。

不仅微软认识到这个问题,今年1月,旧金山提出了一项关于监视技术的行政法规——《停止秘密监视条例》,要求该市的政府部门在使用或购买监控技术前征求监事会的批准,并且每年向监察委员会提交监视技术设备或服务的审计报告。该条例特别指出,“人脸识别技术危害公民权利和公民自由的倾向,大大超过了其声称的好处,这项技术将加剧种族不平等,并威胁到我们不受政府长期监控的生活能力。”

技术在飞速的进步,而技术进步必然会对整个社会产生影响。人脸识别技术从出现到普及,仅仅在短短十年之中,这对从个体到整个社会,都来得太快。在这种快速变化的技术面前,社会必然会受到极大冲击。

而如今,人们崇尚的发展,含义更多地偏向了技术发展,却忽略了技术所带来的社会发展。微软删除人脸识别数据库,正是顾虑到技术发展对社会发展有可能的抑制。这对很多领域也是启示:面对一日千里的技术,是该放慢脚步,好好思考一下技术发展带来的各种社会效应了。

刘远举(上海金融与法律研究院研究员)


原文链接:https://kuaibao.qq.com/s/2019061 ... sec_share=sec_share



编辑:董莉



作者: 刘海明    时间: 2019-6-27 15:28
【案例】

在AI、GE等领域,美国受隐私和伦理的约束,应用发展不快,而中国完全没有这类约束,官方需要这些技术来监控民众。
现代科技越来越多是应用和市场驱动理论创新,而不是传统的理论创新驱动应用和市场,中国人口多、市场大,随意获取海量数据,所以在这些领域崛起。


作者: 刘海明    时间: 2019-6-30 20:45
【案例中国软件硬核简史

原文来源:中国国际软件博览会
原文链接:https://mp.weixin.qq.com/s/tEbQok6lHNXtnFMqzf0cdw

我是一名软件程序员

人称“码农”

每天的工作就是代码+代码+代码……

突然有一天……
编辑:吴悠


作者: 刘海明    时间: 2019-6-30 21:00
【案例】能生成女性“全裸照片”的人工智能
编辑:吴悠


作者: 刘海明    时间: 2019-7-1 22:19
【案例】
杨保军:简论智能新闻的主体性
原作者:杨保军  
文章来源:现代传播

内容摘要:


智能新闻或机器()新闻,是通过人工智能技术生产传播的新闻。智能新闻的生产传播主体是人,不是也不应该是智能机器。将智能机器主体化,是浪漫主义的表现,智能机器不可能从根本上替代人作为新闻活动主体的地位和作用。智能机器是人的本质对象化的产物,智能新闻是人作为主体的意志体现,智能新闻生产中存在异化现象,在“人—机”共同主体结构中的新闻生产传播中,人依然是唯一主体。
关键词:
智能新闻;机器新闻;主体性;人—机主体


面对今天人类新闻活动的新图景,在新闻生产传播主体视野中,有一个非常值得关注的越来越普遍的现象,就是智能机器的新闻生产问题,简单点说就是“机器新闻”或“智能新闻”问题(本文在同等意义上使用“机器新闻”“智能新闻”这两个概念)。智能新闻或机器(人)新闻,笼统地讲,就是人工智能技术在新闻报道领域的具体应用,通过人工智能技术生产传播的新闻。有些人认为,人工智能将会在不久的将来替代人作为主体展开新闻生产和传播,可能成为新的新闻生产传播主体;还有一些人认为,智能机器与人一起形成(构成)人一机“共同主体”,展开共同的新闻生产传播。这些将智能机器(人工智能的体现)主体化的见解或观点是值得怀疑的,需要做出反思和批判。
我们确实看到,建立在各种技术之上的智能新闻写作或机器新闻写作已经成为事实。那么,机器(智能机)是否就是新闻(写作)主体?如何看待机器在新闻生产中的属性(主体性或工具性)问题,智能机器在未来是否会完全代替人作为新闻生产主体、传播主体的地位和作用。我对这些问题的回答是明确的,也是“否定”的。智能机器相对人这个新闻生产、传播主体来说,从原则上看,永远处于从属性的工具地位、手段地位,不可能具有与人一样的作为新闻主体的地位。下面,我从几个方面加以简要阐释。
智能机器是人的本质对象化的产物
智能机器,包括所有可能的人工智能技术,本质上都是人作为主体的自觉发明物、创造物,本质上都是人作为主体的对象化结果,是人作为主体的本质力量的显示或体现。正如德国哲学人类学的重要代表大物阿诺德·盖伦所言:“假如我们把技术理解为人类由于认识自然的性质和规律,以便利用它们与控制它们,从而使得自然能为人类自身服务而具有多种能力和手段,那么技术在这种高度普遍的意义上,就是人类自身本质的最重要的部分。”1 技术,是人类自然演进史中的产物,“一切技术都是人的思想的体现”2。
在人类社会,只有人具有主体性。“人的主体性是人作为活动主体的质的规定性,是在与客体相互作用中得到发展的人的自觉、自主、能动和创造的特性。”3 简单说,人的主体性就是指人的自觉、自主、能动和创造特性,至少在目前看来,没有第二种动物,也没有任何其他事物同时具备这些特性。并且,依据现有的认识逻辑、实践逻辑,我们也很难想象在地球上能够出现完整具备这些属性的事物。如果说智能技术具备部分或某种程度上具备这些属性,那也是人作为主体的创造物,它们所表现出的形式上的“主体性”不过是人的主体性或人的本质能力的体现或一定的延伸。就可见的未来来看,只有作为主体的人能够在遵循自然规律、社会规律的背景下自主选择自己的命运,而依赖人之能力的智能机器不可能具备超越于人的自觉性,不可能自主选择自己的命运。
用历史的眼光观察,所有技术及技术产物,都是人类实践活动、实践经验的产物,并且越来越成为人类科学认识转化的产物。就技术发明创造的真实历史来看,有些技术主要是在人类实践活动过程中凭借经验创造出来的,依赖人类的需要一步一步发明创造出来的,并不是先有科学认识,然后才有技术发明和创造;越是在人类活动早期,可能越是如此,即人们并不明确知道技术背后的科学机制或原理,正因为如此,有人才说,“技术比科学有更漫长的历史和更深刻的大性根源”。4 而有些技术主要是在人类科学认识基础上的产物,也就是说,技术发明创造以一定的科学认识为前提,只有认识了一定的科学原理、科学规律,才能发明、创造出一定的技术(产品)。而且,越是技术高度发达的时代,技术发明创造似乎越是依赖科学认识这个前提,“以科学技术知识为基础是现代技术活动的基本特征。特别是在高技术领域,最先进的技术形态往往是在科学研究重大突破的基础上创造出来的”。5 因而从总的原则上可以说,技术是经验、实践与科学认识的共同产物。正如美国著名技术思想家布莱恩·阿瑟所言:“断言技术只是科学的‘应用是幼稚的,毋宁说技术是从科学和自己的经验两个方面建立起来的。这两个方面堆积在一起,并且随着这一切的发生,科学会有机地成为技术的一部分,被深深地织入技术。”6 阿诺德·盖伦也说:“技术从新的自然科学中引出了它那惊心动魄的进步节奏。而科学则从技术中获得了实用的、建设性的、非思辨的倾向。”7 但是,不管具体的技术是如何产生的,它们都是人作为主体的产物,离开人的主体性和主体能力,任何初级的或高级的技术都是不可能自生的,任何机器“生产”机器的可能,首先得以人对机器的初始生产为前提。因而,一言以蔽之,技术不过是人作为主体的产物,是人的各种属性、能力、潜能的延伸物,它们确实能够体现人的主体性,但它们本身并不就是主体,而是人作为主体为自己的认识活动、实践活动、生活活动创造的工具和手段。在人与技术之间,主动性只能来自人类,人类必须成为主体,这样才有可能使技术演进在温顺适度的而非狂野的轨道上,法国哲学家柏格森早就说过:“除非向技术卑躬屈膝的人类,借助技术方法成功地改变自身并望向天空,否则技术绝不会按照其能力大小提供服务。”8 人在技术面前不仅具有主体性,也不能放弃主体性。
人是目的,技术木身不会成为目的。“是人,而不是技术,必须成为价值的最终根源;所有计划的标准不是生产的最大限度的发展,而是人的最理想的发展。”9 人是主体,机器,不管多么智慧的机器仍然是机器,是物。“人类最好把价值判断留给自己,这也是保持种人类对机器人的独立性乃至支配性。我们最好让机器人始终保持它们物’的基本属性,而不是给它们建立一套以人为中心的价值体系。”10 技术的进步或“进化”,本质上属于人的进步或进化,“至少在技术发展的目前阶段,技术的建构和繁衍还依然需要人类作为其代理人”11。技术的自主性,是说技术演进发展有自身的规律,并不是说技术、智能技术可以在本质上自主创造自身。12 即使到了一天,像一些人想象的,人所创造的智能机器能够自主创造、生产自己的“后代”,但从原则上说,仍然没有超越它们在本源上是人的延伸这一逻辑。如果机器不再是人的延伸物,而是成为超越人、超脱人的存在,那我们也没有必要按照人的逻辑去讨论机器了旦机器成为超越人类整体智能或整体能力的存在,它变成了一个新的“物种”,人类也就不可能与其发生真正的对话与交流,正如人类不可能与低等动物进行真正的理性交流一样。
二、智能新闻是人作为主体的意志体现
机器新闻,本质上并不是机器按照自己的主观意志、主观愿望自主生产的新闻,即不是智能机器自己说是或说不是的新闻,而是按照人作为新闻传播主体的意志和愿望生产的新闻。写作新闻的机器本身是人设计的、创造的,如何选择新闻、写作新闻的程序根源上是由人设计的、创造的,用来组合、建构新闻文本的原始资料、原始信息是由人通过一定的手段获取的(获取这些资料、信息的手段可以通过人所设计创造的其他技术来实现,如各种传感器),写出来的新闻是否传播、如何传播、如何收受也是由人作为主体决定的。因而,机器新闻本质上、总体上体现的是作为新闻生产传播主体的人的意志和愿望,而收受什么类型的新闻,总体偏向上受制于人作为收受主体(用户)的选择,那些建立在各种速发基础的新闻分发、信息分发依赖的主要是用户的数据。无论这样的机器如何聪明,它仍然不过是人这个主体手中的工具或不断升级的工具,总体上仍然是受人操纵的延伸物,“任何铅笔都不能自己书写或传播任何东西,爱因斯坦的铅笔不能,任何人的铅笔都不能;如果没有铅笔背后指引它的人脑和人手,铅笔一事无成”13。诚如麦克卢汉所说的,“即使有意识的计算机,仍将是我们意识的延伸,正如望远镜是眼睛的延伸,口技演员操纵的傀儡是口技演员的延伸一样”14。另一位媒介环境学派代表性人物罗伯特·洛根也说,“计算机只不过是我们智能的延伸,人工智能胜过人的智能是难以想象的。实际上,这个方向上的进展几乎为零”15 。“计算机生成的‘智能’不是人的智能,而是人的智能的模拟。”16 那些向社会大众宣称新闻是机器智能自动选择结果的媒体,不过是截取新闻生产的某一环节,用以偏概全的方式的遮蔽性描述,并没有告诉社会大众新闻生产传播的完整过程。那些通过点击量自动生成的所谓“头条”、所谓“推荐”以及背后的“算法”,说明的恰好不是机器聪明,而是人的选择、人的智慧或能力。算法就是力量,算法就是影响天,像一些人想象的,人所创造的智能机器能够自主创造、生产自己的“后代”,但从原则上说,仍然没有超越它们在本源上是人的延伸这一逻辑。如果机器不再是人的延伸物,而是成为超越人、超脱人的存在,那我们也没有必要按照人的逻辑去讨论机器了旦机器成为超越人类整体智能或整体能力的存在,它变成了一个新的“物种”,人类也就不可能与其发生真正的对话与交流,正如人类不可能与低等动物进行真正的理性交流一样。
二、智能新闻是人作为主体的意志体现
机器新闻,本质上并不是机器按照自己的主观意志、主观愿望自主生产的新闻,即不是智能机器自己说是或说不是的新闻,而是按照人作为新闻传播主体的意志和愿望生产的新闻。写作新闻的机器本身是人设计的、创造的,如何选择新闻、写作新闻的程序根源上是由人设计的、创造的,用来组合、建构新闻文本的原始资料、原始信息是由人通过一定的手段获取的(获取这些资料、信息的手段可以通过人所设计创造的其他技术来实现,如各种传感器),写出来的新闻是否传播、如何传播、如何收受也是由人作为主体决定的。因而,机器新闻本质上、总体上体现的是作为新闻生产传播主体的人的意志和愿望,而收受什么类型的新闻,总体偏向上受制于人作为收受主体(用户)的选择,那些建立在各种速发基础的新闻分发、信息分发依赖的主要是用户的数据。无论这样的机器如何聪明,它仍然不过是人这个主体手中的工具或不断升级的工具,总体上仍然是受人操纵的延伸物,“任何铅笔都不能自己书写或传播任何东西,爱因斯坦的铅笔不能,任何人的铅笔都不能;如果没有铅笔背后指引它的人脑和人手,铅笔一事无成”。诚如麦克卢汉所说的,“即使有意识的计算机,仍将是我们意识的延伸,正如望远镜是眼睛的延伸,口技演员操纵的傀儡是口技演员的延伸一样”。另一位媒介环境学派代表性人物罗伯特·洛根也说,“计算机只不过是我们智能的延伸,人工智能胜过人的智能是难以想象的。实际上,这个方向上的进展几乎为零”。“计算机生成的‘智能’不是人的智能,而是人的智能的模拟。”那些向社会大众宣称新闻是机器智能自动选择结果的媒体,不过是截取新闻生产的某一环节,用以偏概全的方式的遮蔽性描述,并没有告诉社会大众新闻生产传播的完整过程。那些通过点击量自动生成的所谓“头条”、所谓“推荐”以及背后的“算法”,说明的恰好不是机器聪明,而是人的选择、人的智慧或能力。算法就是力量,算法就是影响力,算法即权力,17 “网络社会的到来使人与机器之间的界限逐渐模糊”18,这些说法没有什么错误,但略有夸张,而更需要人们清楚的是,这不仅是算法的力量、技术的力量、算法的权力,还是共背后创造算法、发明技术的主体的力量、人的力量,更是显示着不同社会主体的权力。事实上,正是因为创造算法、发明技术的人的价值选择偏向、利益追求目标,以及以收受方式运用这些算法、技术的社会大众的选择偏向,才造成了人们所诟病的新闻传播中的偏向,造成了“内容下降的螺旋”19。因而,面对这样的现象,恐怕人们不应该急于欢呼“机器的公正”,而是要操心“人心的端正”或人心的善良。当技术、机器、智能机器被看作是纯粹的工具时,它们也许是价值无涉的,可一旦与现实的应用、现实的社会主体勾连起来,它们的中立性就没有那么纯粹了,技术本身具有的客观偏向性就会显露无疑。谁能掌控技术、谁能更为自由地运用技术,从技术发明创造那一刻起就已“基因”性地蕴藏在技术机制之中。建立在大数据和算法及计算能力基础之上的智能新闻,并不就是天然客观、全面、公正的新闻,事实上,这样的新闻只是于特定范围大数据基础之上的新闻,它的真实性、客观性、全面性都是相当有限的,它呈现的只是数据范围内的真实,没有进入数据范围的信息连新闻呈现的机会都没有,更谈不上新闻真实了,诚如有学者所言,“在许多意见不能表达的情形下,大数据的性质就是这些表达的缺失”20。以什么样的数据为基础,以什么样的算法为模式,背后有着种种因素的限制与影响,这自然不是技术本身能够决定的事情。21 一些人认为,“基于算法的内容生产将不再依赖记者、编辑等单独点的信息采集,而是通过对大数据库的实时分析,构建起跨语言、深层次、全局性地认识事物、表征和预测现实的模型,突破了以往人们‘脑海真实’的片面性和局部性,从而仿真出无限逼近于客观真实的符号真实”22,这样的推理具有一定程度的现实基础,但未免有点浪漫。其实,新闻所面对的不同的点,或者说记者、编辑所侧重的点往往是更具新闻价值的点,而数据抹平的不同的点,很可能恰好遮蔽了对象特有的新闻价值。用什么样的数据、怎样使用数据,选择者直接表现为机器运行,表现为算法、计算能力的实现,但这一切的“顶层设计”者是社会环境中的人。说到底,人是终极性的主体,而由人作为主体所发明创造出的“智慧”“聪明”的机器还是机器,还是手段和工具,至多是人作为主体的延仲性存在。
在人与机器之间,机器越是能够显示出自主性、自由性,只能表明,人的主体性越强、越高,即人作为至体能够把自身主体性对象化的能力越强、越高。这是人与机器之间难以改变的基本逻辑。只有当人成为机器的工具,成为实现机器目的的手段,被智能机器所主宰或奴役,才可以说人是客体,机器是主体。但按照现有的人与技术的关系,人作为主体是不可能创造出高于人之主体性的对象物的。人的能力是人工智能的边界。23 即使未来有这样的智力可能,人创造的技术创造出比人更强大的智能,人作为社会主体也未必真的愿意创造和接受人与机器、人与技术的如此实际关系。愿意接受智能机器奴役的人类一定是变态的人类,白寻死路或自找毁灭的人类。
三、智能新闻生产中存在异化现象
就现实来看,人类确实会在一定程度上、一些方面被自己本质的对象物,包括技术特别是智能技术所异化,人确实有可能被自己的创造物在一定程度上所控制。诚如马尔库塞所说:“随着科学技术的高度发展,劳动分工的日益专门化,人们在劳动中从事越来越单调乏味、千篇一律的操作,人越来越成为一种工具。24 但异化并不意味着智能机器就是主体,而是说人类在一定程度上失去了自身的主体性,人类在一定程度上失去了理性和自律的能力,这种状况过去存在,现在存在,将来也可能存在。人类其实总在“异化”与“化异”(消除异化)的道路上,如何克服技术异化,走出技术困境,对人类是个越来越大、越来越复杂的难题。正如F.拉普所言:“同从前的时代相反,现代科学技术赋予人类的力量,需要人有一定程度的自我控制。而这完全超出了人类的能力,这就是现实让人进退两难的地方。”25 人是技术的发明者、创造者,技术异化的根源在人身上,不在技术本身。技术会异化到什么程度,取决于人性能力。而人性能力(人的知情意的能力、实践能力)总有其潜在的一面,因而,人类的未来总是蕴藏着多种可能性,没有人能够对人类的未来做出绝对的预测,“正如进步是不确定的一样,历史的倒退和毁灭的结局也不是确定的”26。
当然,人们可以像一些科幻小说、科幻电影中那样想象极端化的情况,可以想象在人类与智能机器之间出现“奇点”27,人类被自己的发明物、创造物—智能机器—控制甚至消灭的场景。但那说到底,并不是机器战胜了人,而只能说是人类的非理性战胜了人类的理性,人类自己消灭了自己作为生物生命的存在,作为社会主体的存在。这样的可能性是可想象的,但也仅是可想象的而已。人类果真创造了自己不可控制的力量,并且是反过来危害自己的力量,那恐怕只能说能够把自身主体性对象化的能力越强、越高。这是人与机器之间难以改变的基本逻辑。只有当人成为机器的工具,成为实现机器目的的手段,被智能机器所主宰或奴役,才可以说人是客体,机器是主体。但按照现有的人与技术的关系,人作为主体是不可能创造出高于人之主体性的对象物的。人的能力是人工智能的边界。即使未来有这样的智力可能,人创造的技术创造出比人更强大的智能,人作为社会主体也未必真的愿意创造和接受人与机器、人与技术的如此实际关系。愿意接受智能机器奴役的人类一定是变态的人类,白寻死路或自找毁灭的人类。
“异化”达到了极端状态。而要消除异化现象或降低这种异化现象的程度,最终依赖的并不是机器的智慧,而是人的主体性的增强,诚如英国历史学家汤因比所言,“要消除(技术)对人类生存的威胁,只有通过每个人的内心的革命性变革”;“对付(技术)力量所带来的邪恶结果,需要的不是智力行为而是伦理行为”。人们现在担心的、怀疑的可能不是智能技术(机器人)的“叛变”,而是人类自身的伦理能力、自律能力。
如果有一天智能机器真的超越了人类的智能,它所拥有的绝对不是人性,而是“机器性”,它拥有的也绝对不是“人类观”,而是“机器观”。它也许会继承人类的理性思维,但它从根本上不会以人的逻辑而会以机器的逻辑思维、存在和活动。那是人所不可理解的逻辑。当机器有了自身的自觉性、主体性,它一定会以机器为中心,创造自己的世界,它可能会有自己的情感和意志,但那与人没有多大关系,“它对人类的存在以及人类价值观都不感兴趣”。“虽然机器拥有超人的智力,但其很难拥有人类意志和创造力。”就像现在的动物界,尽管与人类有一些或近或远的相似性,但动物从本质上并不理解人类的情感和意志。到那时,人类只能是机器的玩物、宠物,就像现在的一些动物,只不过是人类的玩物、宠物或食物一样。就现在来看,机器(本质上)是理性的、逻辑的,但人不只是如此。如何使机器获得恰当的非理性能力,才是真正的(不可能的)难题。人拥有不可计算的一面,世间的万事万物都有不可计算性的属性,“任何不可度量的对象,都无法变成数据,机器也就无法处理”。也许,正是在这一点上,人是任何机器不可替代和不可战胜的存在。人类只能以直接或间接的方式自杀,绝不可能他杀、被自创造的智能机器所毁火。
这样的猜测、想象、幻想对人类白身具有一定的警醒意义。未来是可能的、是开放的,不是人类可以完全预料和驾驭的,人性能力是有限的。有学者指出,“汇聚技术”将把生物的人变成机器人、电子人,彻底打破人与机器之间的原有界限,进而形成半人类、准人类或超级机械化人类。这些“新兴人类”将像今天的计算机一样可以不断升级,功能成倍扩展与提升。这是从外部对人类生命的改造,必将给人类社会带来一系列严峻挑战。因此,人类对自己的智能延伸、神经系统的延伸,还是应该谨慎一点,现有的伦理边界不可轻易冲破,“技术有度”应该成为技术发展的一条规则。“毫无疑问,未来的人也是技术的人,未来的社会也是技术的社会,人类不可能远离技术世界而生活,也不可能彻底消除技术矛盾,但是却可能更加合理、舌意地创“异化”达到了极端状态。而要消除异化现象或降低这种异化现象的程度,最终依赖的并不是机器的智慧,而是人的主体性的增强,诚如英国历史学家汤因比所言,“要消除(技术)对人类生存的威胁,只有通过每个人的内心的革命性变革”;“对付(技术)力量所带来的邪恶结果,需要的不是智力行为而是伦理行为”28。人们现在担心的、怀疑的可能不是智能技术(机器人)的“叛变”,而是人类自身的伦理能力、自律能力。
如果有一天智能机器真的超越了人类的智能,它所拥有的绝对不是人性,而是“机器性”,它拥有的也绝对不是“人类观”,而是“机器观”。它也许会继承人类的理性思维,但它从根本上不会以人的逻辑而会以机器的逻辑思维、存在和活动。那是人所不可理解的逻辑。当机器有了自身的自觉性、主体性,它一定会以机器为中心,创造自己的世界,它可能会有自己的情感和意志,但那与人没有多大关系,“它对人类的存在以及人类价值观都不感兴趣”29。“虽然机器拥有超人的智力,但其很难拥有人类意志和创造力。”30 就像现在的动物界,尽管与人类有一些或近或远的相似性,但动物从本质上并不理解人类的情感和意志。到那时,人类只能是机器的玩物、宠物,就像现在的一些动物,只不过是人类的玩物、宠物或食物一样。就现在来看,机器(本质上)是理性的、逻辑的,但人不只是如此。如何使机器获得恰当的非理性能力,才是真正的(不可能的)难题。人拥有不可计算的一面,世间的万事万物都有不可计算性的属性,“任何不可度量的对象,都无法变成数据,机器也就无法处理”31 。也许,正是在这一点上,人是任何机器不可替代和不可战胜的存在。人类只能以直接或间接的方式自杀,绝不可能他杀、被自创造的智能机器所毁火。
这样的猜测、想象、幻想对人类白身具有一定的警醒意义。未来是可能的、是开放的,不是人类可以完全预料和驾驭的,人性能力是有限的。有学者指出,“汇聚技术”32 将把生物的人变成机器人、电子人,彻底打破人与机器之间的原有界限,进而形成半人类、准人类或超级机械化人类。这些“新兴人类”将像今天的计算机一样可以不断升级,功能成倍扩展与提升。这是从外部对人类生命的改造,必将给人类社会带来一系列严峻挑战。33 因此,人类对自己的智能延伸、神经系统的延伸,还是应该谨慎一点,现有的伦理边界不可轻易冲破,“技术有度”应该成为技术发展的一条规则。“毫无疑问,未来的人也是技术的人,未来的社会也是技术的社会,人类不可能远离技术世界而生活,也不可能彻底消除技术矛盾,但是却可能更加合理、舌意地创造和运用技术。”34

四、“人一机”结构中人依然是唯一主体
就人与机器在新闻生产传播中已经表现出的关系看,特别是从人类能力特别是科学能力、技术能力的发展趋势看,人机互动结构已经形成,“他/它们”至少在外在表现上看已经成为共同的生产传播主体。而且,就目前的发展状况看,“人机互动的主体结构形式”一定会越来越高级、越来越完善。机器会成为看上去与人类越来越像的新闻生产传播主体,成为人类越来越离不开的“高级助手”和相对的“独立工作者”;而作为主体的人,也可能越来越不像纯粹的自然人、生物体,而成为“杂交”人,成为与技术结合、融合在一起的人,电子人、“赛博人”事实上在一定程度上已经出现。35 今天的人,不管是在心灵上、精神上还是在肉体上、身体上,开启了新的“进化”步伐。
但是,在我看来,只要机器本质上还是人类主体能力或人性能力的对象化、外在化、客观化产物,无论它与人类身体有着怎样的结合或融合,它就在本性上只能属于工具性、手段性存在,而不能成为独立的、与人类并列的新闻活动主体。“人机互动的主体结构形式”也只是比喻意义上的新闻传播主体存在方式,并不是说机器真的成了新闻传播“主体”。“人是现实技术系统的构成部分,离开了人的创造与操纵,就没有技术系统的建构与运转。”36(“即使有意识的计算机,仍将是我们意识的延伸,正如望远镜是眼睛的延伸,口技演员操纵的傀儡是口技演员的延伸一样。”即使是那些放置在人体内的“机器”,仍然是人的创造物,是人的智慧与本质的体现,那些过度放大智能机器在新闻生产、传播中作用和影响的看法,还是谨慎点为好,免得人们忽视或忘记了背后的真正主体—人。人与机器的关系,永远不能代替人与人之间的关系,这是两类性质完全不同的关系。新闻活动,说到底,乃是人与人之间的信息交流关系,精神交流、心理交流、文化交流关系。
技术本质上是对自然的发现,是对人的延伸,是为了人与自然更和谐的相处,人与人更加有效的交往、交流,如果走向反面,技术便是人的异化。如果人成了技术的工具和手段,失去自身的主体性,技术便失去了人之延仲的意义和价值。人在主体意义上与技术的杂交化,对于人类来说,可能是悲剧而不是喜剧。有意义的技术边界就是它是相对主体人而存在的客体,是工具,它不能成为超越人类意义上的主体。果真某一天机器开始对人类说“不”,人类的末日也就到来了。

注释:
1、7【德】阿诺德·盖伦:《技术时代的人类心灵—工业社会的心理问题》,何兆武、何冰译,上科技教育出版社2008年版,第4、8页。
2【美】保罗·莱文森:《软利器—信息革命的自然历史与未来》,何道宽译,复口大学出版社2011年版,第34页。
3 郭湛:《主体性哲学:人的存在及其意义》云南人民出版社2002年版,第30-31页
4、8吴国盛编:《技术哲学经典读本》,上海交通大学出版社2008年版,第6(编者前言),129页
5、33、34、36 王伯鲁:《技术困境及其超越》中国社会科学出版社2011年版,第30、107、265、48页。
6、11【美】布莱恩·阿瑟:《技术的本质》曹东冥、王健译,浙江人民出版社2014年版,第65页。
9【美】E.佛洛姆:《佛洛姆著作精选——人性·社会拯救》,黄颂杰编译,上海人民出版社1989年版,第491页。
10 何怀宏:《人机伦理调节的底线》北京日报》,2018年8月27日第15版
12 曾经担任过美国哲学与技术学会第五任主席的兰登·温纳认为,技术在三种意义上可以理解为是自主的:首先,它可看作是一切社会变化的根本原因,它逐渐改变和覆盖着整个社会;其次,大规模的技术系统似乎可以自行运转,无需人的介人;最后,个人似乎被技术的复杂性所征服和乔没。参见卡尔米·切姆:《技术哲学》,载吴国盛编:《技术哲学经典读本》,上海交通大学出版社2008年版,第47页。在笔者看来,温纳的见解,虽然具有一定的合理性,但就实际来看,每一点都有所夸大。
13【美]保罗·莱文森:《软利器——信息革命的自然历史与未米》,何道宽译,复口大学出版社2011年版,第179页。所谓爱因斯坦的铅笔,是指爱因斯坦说过,他的铅笔比他本人更聪明,暗喻技术,工具比人更聪明,或者说离开技术、工具人就无法实现自己的思想或实践观念
14、15、16、37[加]马歇尔·麦克卢汉:《理解媒介——论人的延伸》,何道宽译,商务印书馆2000年版,第431、287、第288、431页参见喻国明、杨莹莹、闫巧妹:《算法即权力:算法范式在新闻传播中的权力革命》,《编辑之友》,2018年第5期。喻国明韩婷:算法型信息分发:技术原理、机制创新与未来发展》新闻爱好者》,2018年第4期
18、22喻国明、韩婷:《算法型信息分发:技术原理、机制创新与未来发展》,《新闻爱好者》,2018年第4期
19 宋建武:《智能推送为何易陷入“内容下降的螺旋”一智能推送技术的认识误区》《人民论坛》,2018年第17期
20、23、31许成钢:《人工智能、工业革命与制度》《比较》,2018年第2期
21 比如,建立在网络数据基础上的很多报道只能在一定程度上反映网民的态度和看法并不能反映非网民的态度和看法。即使在网络数据范围内,由于相关法律、政策或制度的约束与限制,一些信息得不到传播,一些意见没有表达的机会,一些信息被过滤掉,因而,建立在网络数据基础之上的新闻真实性、全面性、客观性、公正性其实是相当有限的。其实通过智能传感器获得的很多社会数据都存在这样的问题,因而,不能神化建立在大数据基础上算法基础上的新闻
24【美】马尔库:《爱欲与文明》黄勇、薛民译,上海译文出版社1987年版,第6页
25 参见[德]F.拉普:《技术哲学导论》,刘武等译,辽宁科学技术出版社1986年版。江行福:“复杂现代性”论纲》《天津社会科学》,2018年第1期
26 汪行福:复杂现代性”论纲》《天津社会科学》,2018年第1期。
27 在某个时候机器人达到超人的水平这种想法被归结为“奇点”。机器人可能会获知它们是怎样被人类控制的,并实现自我控制但就目前而言,关于“奇点”的争辩还更多地停留在学术(以及虚构的)层面,而非现实层面。[德霍斯特艾丹米勒:《机器人的崛起与人类法律》,李飞、郭小匣译,《新华文摘》,2017年第24期
28【英]A.J.汤因比、[日池田大作:《展望21世纪汤因比与池田大作对话录》,苟春生等译,国际文化出版公司1985年版,第39、59页。
29 赵汀阳:《四种分叉》,华东师范大学出版社2017年版,第116页。
30 张一清:颠覆性技术和社会变革》《新华文摘》,2017年第17期
32 汇聚技术,是指把纳米科学和技术、生物技术、信息技术、认知科学四大科学技术领域汇聚起来的技术
35 所谓“赛博人”,是指为技术所穿越、数据所浸润的身体,实质是技术与人的融合的新型主体,是一种终极性的媒介主体性的这种变化,即赛博人的产生,才是媒介融合出现后一系列社会系统融合重组的根本性条件与动力孙玮《赛博人后人类时代的媒介融合》,《新闻记者》,2018年第6期。
(作者系教育部“长江学者”特聘教授,中国人民大学新闻学院教授、博士生导师,中国人民大学新与社会发展中心研究员)
【责任编辑:张毓强】现代传播36
现代传播2018年第11期(总第268期)
编辑:高杰


作者: 刘海明    时间: 2019-7-1 22:28
【案例】
微软小冰公众号因违反规定被停用
原文链接:http://www.mycaijing.com.cn/news/m/2019/07/01/307108.html
文章来源:深蓝财经
深蓝财经7月1日讯,人工智能微软小冰微信公众号主页显示,因违反《互联网用户公众账号信息服务管理规定》已被屏蔽所有内容,账号已被停用。截至发稿,微软官方暂为做出回应,尚不清楚具体违反了哪些规定。

公开资料显示,“微软小冰”是微软(亚洲)互联网工程院基于2014年提出建立的情感计算框架,通过算法、云计算和大数据的综合运用,采用代际升级的方式,逐步形成向EQ方向发展的完整人工智能体系。
此前,微软小冰官方微信小程序也因违规遭到暂停服务,目前已无法在微信中搜索到这一小程序。
编辑:高杰


作者: 刘海明    时间: 2019-7-5 23:23
【案例】
人工智障,还是人为智障?虚拟主播的三次元进击
文章来源:新媒体重点实验室  NewMediaLab
原文链接:https://mp.weixin.qq.com/s/D2Zd2y_jDbaNbL3hek8VmA
6月30日,是全球第一位虚拟主播绊爱(Kizuna AI)的生日。作为一位来自日本的虚拟偶像,绊爱在全球二次元圈层中的影响力却并不小。今年生日会当天,爱酱在niconico、Youtube、bilibili同步开启直播,开播13分钟在线观看人数破百万。

2016年12月1日投稿至今,永远16岁的绊爱活跃在以YouTube为主的各大平台上,收获了全球数百万粉丝,成为了不折不扣的第一虚拟主播。如今,二次元文化被越来越多的人所了解和接受,大家对虚拟偶像可能有所耳闻,但由“纸片人”主持的直播节目仍算得上是小圈层的新兴事物。
VTuber是个啥?
2016年12月1日,YouTube上的首位3D虚拟人物UP主——A.I. Channel(中文名为绊爱)上传了名为“初次见面,我叫绊爱”的视频,标志着VTuber(虚拟主播)这一职业的诞生。如今,这名被粉丝们亲切称为“人工智障”、“爱酱”的VTuber在YouTube上坐拥两百多万粉丝,是知名度最高的虚拟主播,影响力与日俱增。
VTuber的全称为“Virtual YouTuber”,是指在YouTube网站上使用虚拟形象进行直播和视频投稿的主播,在其他平台上被称为虚拟主播。虽然VTuber与一般的动漫角色看上去没什么不同,但在屏幕后,有一名“真人声优”借助动态捕捉设备来控制3D或Live2D的人物模型的言行,演绎出一名活生生的虚拟偶像。
随着各种技术的不断成熟,绊爱等虚拟角色越来越真实,其近距离互动所带来的亲切感吸引了大批二次元爱好者。目前,绊爱在YouTube平台上拥有主打综合内容和游戏板块的两个账号,其粉丝总量预计在300万以上,处于遥遥领先地位。绊爱的成功使大批VTuber涌现,如今职业VTuber的人数暴涨30倍,已达到6000人左右,其订阅者超过1300万,视频点击量突破7亿次。
国内虚拟主播的发展
2017年开始,虚拟主播的热潮从日本辐射到中国,尽管圈外人毫不知情,但圈内却形成了一个相当大的市场和稳固的亚文化圈。对于主打二次元文化的B站,VTuber在其视频业务中开始展现越来越重要的地位。2017年8月12日,UP主“虚拟次元计划”推出了国内首位虚拟主播——小希,吸引大批吃瓜群众前来打卡“见证历史”。截止目前,该账号已经拥有39.3万的粉丝数。
2018年10月30日,bilibli宣布与日本著名社交网站GREE达成战略合作,其中的重要业务之一就是VTuber。如今,B站已经成功引入了白上吹雪、神乐、凑-阿库娅、本间向日葵等著名虚拟主播,受到了许多二次元爱好者的欢迎。在过去半年间,B站的虚拟主播数量翻倍,其直播收入成功跻身B站直播板块的Top5。
2018年4月23日,借助已有动漫IP改编的“一禅小和尚”在快手进行了首次3D直播。在直播的49分钟里,一禅小和尚凭借暖萌形象获得了64.9万个点赞,在线观看人数超过25万人。
当然,虚拟主播不仅吸引直播、短视频平台入局,还有腾讯、网易等互联网巨头,希望能借助虚拟偶像在二次元的文化浪潮中占据一块高地。2018年10月23日,老牌游戏巨头“巨人网络”宣布将每年投入上亿资金来打造虚拟偶像,并推出旗下首位虚拟主播Menhera Chan。该角色也因其可爱的人物形象和性格受到了网民喜爱,借助表情包等方式在一定程度上成功出圈。
此外,还有《明日之子》的虚拟选手HeZ,腾讯在“王者荣耀三周年音乐盛典”上推出貂蝉和公孙离等自创虚拟人物IP,网易手游《阴阳师》打造“平安京偶像计划”,乐元素发布互动式虚拟偶像养成计划《战斗吧歌姬!》……业界纷纷试水“虚拟主播+UP主”、“虚拟主播+声优”、“虚拟主播+短视频形象IP”、“虚拟主播+三次元综艺”等模式,通过技术加持来服务核心受众,为内容赋能。

虚拟主播的商业变现
受动漫、网红、主播三重身份的影响,虚拟主播与真人主播的商业变现方式不尽相同。一般主播的变现途径大多是打赏、广告、电商、代言四种,而虚拟主播与二次元产业息息相关,其变现方式可以划为四种:直播变现、衍生内容、流量代言、周边贩卖。
1. 直播变现
2017年,日本YouTube市场规模环比上升1.2倍,达到219亿日元;预计2022年市场规模将扩大至2017年的约2.6倍,规模为579亿日元。直播是虚拟主播最基础、最直接的变现方式,也是起始阶段最重要的人气积累途径。作为油管主,VTuber需要快速积累人气、赢得流量,在直播中通过粉丝打赏、广告收入等方式完成初步变现。据悉,绊爱仅在YouTube上的广告月收入就已达280万日元,年收入超过3000万日元(约为190万人民币),还不包括粉丝打赏等收入在内。
2. 衍生内容变现
由于自身天然的二次元基因,VTuber在形成足够声量的IP之后,可以生产音乐、手游、影视等衍生内容。2018年8月31日,人气VTuber辉夜月在虚拟空间“Zepp VR”里举办了一场VR个人演唱会,粉丝可以前往日本所有支持VR设备的电影院观看。2018年12月底,绊爱在东京和大阪举办了VTuber最大规模的线下演唱会“hello, world”,主打单曲连续9周登顶日本iTunes电音榜,并于2019年5月发售同名专辑。
3. 流量代言变现
对于拥有强大粉丝基数的VTuber而言,品牌代言是主要的变现方式。通过代言,品牌不仅能在短时间内获得忠实粉丝的关注和购买行为,虚拟偶像也能提高自身在圈外的知名度,完成“出圈”。2018年8月,月之美兔和日本日用品花王合作,宣传洗衣液新品。在去年3月被任命为“访日促进大使”的绊爱更是资源丰富,曾主持软银苹果发布会,参加电影《阿丽塔》首映礼,其商业化模式已经与娱乐圈明星别无二致,逐渐转型为全面发展的VTalent(虚拟艺人)。
4. 周边贩卖变现
动漫周边是二次元电商经济的重要一环,也是二次元向泛二次元发展的主要途径之一,有时衍生品市场的规模甚至会远远大于内容市场。对于动漫IP来说,周边变现的方式主要有三种:IP授权、联合开发、自主生产。作为虚拟偶像,VTuber本身的动漫形象可以被广泛运用于模型手办、挂画抱枕等周边产品。在今年的绊爱生日会中,bilibili平台发售了定价为999元的生日会形象手办,1分钟内的预订单轻松破千。
如今,VTuber在线上线下的同步活动,俨然形成了完善的偶像化培养和变现闭环,建立起全流程的产业链。
如何打造虚拟主播?
相较于传统的虚拟偶像和真人主播,VTuber兼具了双方的优点。虚拟主播既能更好地与用户进行互动,提升粘度,又能规避真人主播在外形条件、公共形象和私人生活深度捆绑等方面的问题。但就目前来看,VTuber的势头火热,大多数却是入不敷出。如何成功打造虚拟主播形象、形成热门IP仍是最首要的难题。
1. 精心打造人设,实现偶像平常化
二次元粉丝的一大重要心理需求就是突破次元壁。初音未来等一代虚拟偶像是整个行业跨次元运营的开端,而VTuber则是对此的深入探索。虚拟主播通过更加多元的互动方式,让粉丝感觉到触手可及的亲和力,实现偶像的平常化。想要创造一名生动的VTuber,第一步一定是人物角色设定,包括个人基本信息、外形特点、性格特征等等。虚拟主播的人设,需要针对受众心理来进行精心设计,并通过专业的商业化运营来维护。
例如,绊爱的基础设定是超级AI,她自称“Super AI”,常对人类行为表现出不理解和好奇心,在特定情境下会有意识地凸显自身的认知和行为差异。而在人物性格上,绊爱则是一名活泼开朗的少女,有时还透露出一点点傻气,这一反差萌也使其获得了“人工智障”的称号。B站的热门VTuber白上吹雪是一只整天喵喵叫的狐狸,直播中因其可爱形象而诞生的弹幕“AWSL(啊我死了)”在国内二次元文化圈中广泛流行开来,甚至反向输出至日本。
2. 稳定输出内容,演绎鲜活形象
当人物角色设定好,幕后制作者们就会使用动态捕捉技术,来让台后声优演绎台前偶像。但让角色动起来还远远不够,要使人物贴合设定、拥有生命,长期稳定的内容输出才是关键。虚拟主播不仅对直播内容有着严格把控,还会通过高频互动来与用户建立牢固关系。对于粉丝来说,VTuber的形象虽然是虚拟的,但内在人格却真实有趣。比如由知名声优大塚明夫扮演的VTuber田中大叔,外形平平无奇,但通过与观众探讨生活、感悟人生,其成熟真诚的性格圈粉无数。
随着大量VTuber涌入,同质化问题也开始显现,流水线式的可爱外形、甜美音色已是常态,精准打造差异化特点成为关键。这就要求虚拟人物拥有更具灵魂感的人设、更独特的个性,以及更加多样化的表演能力。比如绊爱,在创立之初主打的是脱口秀和游戏实况内容,如今却延伸出问答、颜艺、歌舞、科技频道等内容主题,视频投放频率也由每周一至两次提高到日更,实现内容产出的日常化。
3. 保留原汁原味,探索偶像本土化
事实上,国内虚拟主播行业在过去一年发展的并不顺利,既受阻于建模粗糙、配音尴尬等技术问题,也受到缺乏辨识度、内容没新意、收益周期长等方面的影响。但绊爱生日会一票难求的线下风潮,和50万直播预约的线上热度,说明国内的虚拟市场仍大有可为。中国本土的虚拟偶像兴起于17年,正是因为贴近中国文化,贴合用户喜好,才能创作出洛天依、言和等后来居上的国风式偶像。作为引入的新文娱事物,虚拟主播在保持原汁原味的前提下,应该大胆尝试、积极探索,添加更接地气的本土化内容。
在绊爱今年的中国区生日会上,创作者们为观众带来了全新的中国版爱酱形象,以及中文语言包。中国元素与时尚感的结合、元气可爱的声线、熟悉的语言,都能快速拉进与粉丝之间的距离。
除了引进VTuber外,B站也在尝试培育原有IP,比如自家的2233看板娘、著名唱见泠鸢yousa等等,也取得了不错的效果。
泠鸢yousa
总体而言,虚拟主播是一个技术加内容双轮驱动的行业,不仅需要高水平的建模和播放技术,还要求特色鲜明、受众喜爱的高质量内容。其动漫、网红、直播的领域交融,使其拥有得天独厚的优势,却也造成了圈层化明显的困境。好在如今,国内仍有不少二次元社区、直播平台、内容生产方在积极尝试本土化的改造,构建国内虚拟主播市场的雏形。在未来的某一天,虚拟主播也许能像二次元文化、虚拟偶像一样,在国内的文化土壤上生根发芽。
文字:罗玉清
编辑:李维娜
责任编辑:陶梦
编辑:高杰



作者: 刘海明    时间: 2019-7-10 22:14
【案例】



作者: 刘海明    时间: 2019-7-11 10:05
【案例】
AI学会「搞」科研登Nature,知乎网友:不忍直视的水
机器之心 北大新媒体
本文经机器之心(微信公众号:almosthuman2014)授权转载,禁止二次转载。
人工智能可以在复杂的围棋游戏中轻松战胜人类,但它们可以帮助我们做出科学发现吗?美国能源部劳伦斯伯克利国家实验室最近发表在《自然》杂志上的一篇论文引起了人们的广泛关注。研究人员表示,人工智能在自动阅读 300 万篇材料学领域的论文之后发现了全新的科学知识。
在人们的普遍印象里,论文上了 Nature,那结论自然也就八九不离十了。然而对于熟悉人工智能的人来说,该研究有些奇怪的是:论文中模型使用的技术是「词嵌入」——既不是卷积神经网络,也不是循环神经网络等更复杂的模型。这么简单的模型,真的可以帮助我们找到成百上千研究者多年来从未找到的新材料吗?
这篇文章发表之后引来了机器学习社区的大量反对意见,人们纷纷对这样的「灌水」行径表示不忍直视。


让我们先看看论文是怎么说的:
AI 学会「看论文」了,研究还上了 Nature
该论文的作者来自伯克利国家实验室能量存储与分布式资源部门(Energy Storage & Distributed Resources Division)科学家 Anubhav Jain 领导的团队,他们收集了 330 万篇已发表的材料科学论文的摘要,并将它们馈入到一个名为 word2vec 的算法中。通过解释词间的关系,该算法能够提前数年给出新热电材料的预测,在目前未知的材料中找出有应用潜力的候选材料。
这篇名为《Unsupervised Word Embeddings Capture Latent Knowledge from Materials Science Literature》的论文发表在 7 月 3 日的 Nature 上。
论文地址:https://www.nature.com/articles/s41586-019-1335-8
论文一作 Vahe Tshitoyan 是伯克利国家实验室博士后研究员,现就职于谷歌。此外,同属伯克利国家实验室的科学家 Kristin Persson 和 Gerbrand Ceder 也参与了此项研究。
Gerbrand Ceder 表示:「该论文认为,对科学文献进行文本发掘可以发现隐藏的知识,单纯的文本提取可以建立基本科学知识。」
论文一作 Tshitoyan 表示,该项目的动机是人们很难完全弄明白数量过多的已发表研究。所以,他们想到机器学习是否能够以无监督的方式利用所有集体知识(collective knowledge)。
King - queen + man = ?
该团队整理了 1922 年至 2018 年间发表在 1000 多个期刊上的 330 万篇论文摘要(是的,AI 读论文只看摘要)。Word2vec 从这些摘要中提取了大约 50 万个不同的单词,并将每个单词转化为 200 维的向量或者包含 200 个数字的数组。
Jain 表示:「重要的不在于数字,而是利用这些数字观察单词之间的关系」。例如,你可以利用标准向量数学做向量减法。其他研究者已经证明,如果你要在非科学文本资源上训练该算法,并从『king 减去 queen』中提取向量,则可以得到与『man 减去 woman』相近的结果。
同样地,当在材料科学文本中进行训练时,该算法仅根据摘要中单词的位置以及它们与其他单词的共现关系就可以学习科学术语和概念的含义。例如,正如该算法可以解「king-queen + man」方程式一样,它能够计算出方程式「ferromagnetic(铁磁的)—NiFe(镍铁)+ IrMn(铱锰)」的答案是「antiferromagnetic」(反铁磁的)。


左:Word2vec 的元素表征(投影到二维空间);右:门捷列夫元素周期表。图源:Berkeley Lab
如上图所示,当元素周期表中的化学元素投影到二维空间时,Word2vec 甚至可以学习它们之间的关系。
提前数年预测新材料
那么,如果 Word2vec 那么聪明,它能预测新的热电材料吗?一种好的热电材料可以高效地将热能转换为电能,而且是用安全、充足、易生产的原料制成的。
该算法根据词向量与单词「热电」的相似性对每种化合物进行排序,研究者选取了该算法最为推荐的热电材料。然后,他们通过计算来验证算法的预测结果。
他们发现,在算法预测出的前 10 位热电材料中,所有预测都计算出了略高于已知热电元件的功率因数(衡量电气设备效率高低的一个系数,该值越高效益越好);前三位材料的功率因数高于 95% 的已知热电学元件。
接下来,他们测试了该算法是否适用于「过去」的预测实验,即只给它 2000 年之前的摘要。结果再次给人惊喜,算法给出的排名靠前的预测结果很多都出现在了后来的研究中,这一数字是随机选择结果的四倍。例如,利用 2008 年之前的数据训练得到的预测结果有 5 个,其中三个已经被发现,而其余的两个非常稀有或含有有毒物质。
研究者说:「该研究表明,如果该算法能够早点应用,一些材料早在几年前就可以被发现了。」
随着研究的进行,研究者正在发布由算法预测出的前 50 位热电材料。他们还将发布研究中用到的词嵌入,以帮助其他人发现更好的材料。此外,他们还在开发一个更加强大的智能搜索引擎,帮助研究者利用更加有效的方法搜索摘要。
遭遇机器学习社区嘲讽


人工智能真的可以自动发现新材料吗?这篇论文一经发表便在社交网络上引发了热烈的讨论。目前为止,该帖子已经有 14 万的浏览量。
材料学的同学们首先表示惊讶:AI 代替科研人员,我们都会失业吗?熟悉机器学习的人们看完论文之后回过神来,则开启了「嘲讽模式」。


在知乎上,新加坡国立大学博士、腾讯算法工程师「霍华德」表示:看完这篇 paper 后,我的内心久久不能平复,好久没看到这么烂的 paper 了!
也有人建议其他领域的学者在使用机器学习方法做自己的研究前要先打好基础。「到处挖坑蒋玉成」表示:我真心建议文章通讯作者和审稿人都去学学 CS224n…这文章的立意还挺不错的,但是实际的实现也太水了,完全不配发 Nature。
机器学习社区的人们仔细分析了这篇论文:
该论文中,作者用 t-SNE 将词向量投影到二维空间,并发现同族元素聚集在了一起。「霍华德」表示,同族元素在上下文当然容易提及,它们只是共现关系而已。此外,作者声称可以直接用词向量预测化合物,并表示预测结果与理论计算的绝对误差非常小,但理论能算出来东西,用神经网络做拟合的意义真的很大吗?
在这里,作者连神经网络适用的基本场景都弄不清,对于 Formation Energy 的计算有完善的量子力学理论做支撑,对于这样能够精准建模的问题,用传统的物理学第一性理论来计算更好,更加可靠!
最后,作者用余弦相似度计算了和 thermoelectric 最接近的单词,然后在其中的 326 位和 345 位发现了两种材料 Li2CuSb 和 Cu3Nb2O8,然后宣称他们的算法能够预测潜在的新型热电材料。在读者看来,这是一种「令人窒息」的操作。因为 thermoelectric 和两种材料之所以余弦相似度接近,根本原因是有人在文章里同时提到过 thermoelectric 和 Li2CuSb、Cu3Nb2O8,这仅仅是共现关系而已。
所以结论来了:所谓能够预测潜在的新型热电材料的 AI 算法属于无稽之谈,材料学研究者们的生存并没有因此受到威胁——因为这篇论文没有提出任何能让 AI 看懂论文的算法。
也有研究材料的学者在知乎上表示,为了蹭大数据、机器学习、深度学习的热度,很多领域的研究都在做相关的工作。「声嘶力竭」介绍了自己的经历:刚开始接触和学习 AI 相关技术,本以为可以利用这个工具做出多么伟大的工作,但是自己真正做了之后,才感觉「这不就是个高维特征空间的统计工具嘛,为什么被吹得这么玄幻?」
机器学习不能这么乱用
论文上了《自然》、《科学》杂志,却仍然经不起人们的推敲,这种事最近在机器学习社区已经发生了不是一两次了。
在「人工智能搞科研」研究之前,是「深度学习预测地震」。去年 8 月,《Nature》上发表了一篇题为《Deep learning of aftershock patterns following large earthquakes》的火爆论文。该论文由哈佛和谷歌的数据科学家联合撰写,论文一作所属单位是哈佛大学地球与行星科学系。
该论文展示了如何利用深度学习技术预测余震。研究者指出,他们利用神经网络在预测余震位置方面的准确率超越了传统方法。
但很快,这一方法就遭到了深度学习从业者的质疑。一位名叫 Rajiv Shah 的数据科学家表示,论文中使用的建模方法存在一些根本性的问题,因此实验结果的准确性也有待考究。这名数据科学家本着严谨的精神在通过实验验证之后联系了原作和《Nature》,却没得到什么积极的回复。
于是,Rajiv Shah 经过半年时间,研究了论文作者公开的代码,随后在 medium 上发表文章揭露论文中存在的根本性缺陷以及《Nature》的不作为,后来这件事又在 Reddit 上引起了广泛的讨论。
人们除了批评 Nature 之外,也对深度学习、AI 技术被滥用的情况表示担忧。随着机器学习逐渐成为热门学科,越来越多其他领域的学者开始使用新方法来解决问题,有些获得了成果,有些则因为实验和数据的错误方式而导致了不严谨的结果。
更令人担忧的是,有时候有缺陷的研究还可以得到人们的认可。


这篇深度学习预测余震的论文登上了 Nature,还成为了 TensorFlow 2.0 新版本上宣传文章中提到的案例——然而却被机器学习社区从业者们诟病。
顶级期刊的事,怎么能说胡编乱造呢?然而这一次,人工智能学者们真的有点忍不住了。
参考内容:
https://techxplore.com/news/2019-07-machine-learning-algorithms-uncover-hidden-scientific.html
https://www.nature.com/articles/s41586-019-1335-8
https://www.zhihu.com/question/333317064/answer/738462156

来源:北大新媒体
链接:https://mp.weixin.qq.com/s?__biz ... 2F0Pxj9ZlepDr%2Fcju
编辑:马晓晴


作者: 刘海明    时间: 2019-7-11 21:34
【案例】
“世界最美机器人-佳佳之父”陈小平:人工智能伦理体系之基础架构与关键问题
2019年6月9日,二十国集团(G20)贸易和数字经济部长会议发布《G20人工智能原则》。至此,人工智能伦理建设提上了各国政府的议事日程。针对符合我国国情的人工智能伦理体系建设问题,中国人工智能学会人工智能伦理专委会(筹)主任陈小平教授提出了一个系统性建议方案。原文发表于《智能系统学报》2019年第4期。

世界最美机器人-佳佳之父 陈小平
(图片来源:陈小平)

随着人工智能第三次浪潮带来的重要进展,人工智能伦理挑战已成为当前国内外普遍关注的一个焦点,一些组织和机构开展了相关议题的研讨,发布了一批人工智能伦理准则的建议。中国人工智能学会对人工智能伦理问题高度重视,于2018年年中开始组建人工智能伦理专委会。在2019全球人工智能技术大会上,5月26日举行了“全球视野下的人工智能伦理”论坛,在国际上首次提出了人工智能伦理体系规划问题,这意味着人工智能伦理建设开始进入第三阶段,而人工智能伦理体系的关键问题研究提上了议事日程。正如中国人工智能学会理事长李德毅院士在论坛致辞中指出的那样,本次论坛具有里程碑意义。
1 人工智能伦理建设:
从伦理准则到伦理体系
人工智能伦理建设已经历了两个阶段。第一阶段是人工智能伦理必要性的讨论,从专业角度说,耶鲁大学Wendell Wallach等美国学者起了带头作用,在国际上引起了普遍重视;从更广泛的背景看,尤瓦尔·赫拉利的《人类简史》发挥了重要的推动作用。第二阶段是人工智能伦理准则的讨论,欧盟走在前面,中国和其他一些国家也积极参与其中。
在第二阶段,欧盟人工智能伦理高级专家组提出了人工智能伦理的7条准则[1],包括:确保人的能动性和监督性、保证技术稳健性和安全性、加强隐私和数据管理、保证透明度、维持人工智能系统使用的多样性、非歧视性和公平性、增强社会福祉、加强问责制。我国清华大学人工智能与安全项目组提出了6条准则[2]:福祉原则、安全原则、共享原则、和平原则、法治原则、合作原则。据不完全统计[3-15],迄今已有40多个机构或组织提出了各自的人工智能伦理准则建议。总体上看,所有这些准则建议是基本一致的。
因此本文认为,人工智能伦理准则讨论阶段已达成共识而基本结束了。在这些共识的基础上,人工智能伦理建设需要进入第三阶段,即人工智能伦理体系的讨论。
那么,“人工智能伦理体系”与“人工智能伦理准则”有什么不同?展开人工智能伦理体系的讨论有什么必要性和紧迫性?我认为,以下4个关键问题,是伦理准则无法回答,人工智能伦理体系建设无法回避的。不解决这些问题,就不可能建立完整、有效的人工智能伦理体系。
第一,人工智能伦理体系的运作机制问题。任何伦理准则都不可能自我执行,都必须借助于伦理体系中的一系列相互配合的运作机制才能得到落实。这就如同法律条文制定得再好,也不可能自我执行,必须在完整的法制体系中才可以得到落实,而法制体系是由立法、司法、执法等机制组成的。没有完整的法制体系的支撑,必然出现有法不依的问题。当然,伦理体系与法制体系是十分不同的,不可能完全照抄法制体系的“模板”,所以必须开展人工智能伦理体系的讨论,尤其是运作机制的讨论。
第二,人工智能伦理准则的场景落地问题。已经提出的人工智能伦理准则,大部分属于反映普世价值的原则。当把这些准则应用于具体的实际场景,就需要细化为可操作的具体规定,否则必然停留在口号的层面上无法落地。例如,无人驾驶可以有两种本质不同的应用场景。一种是完全无人驾驶交通系统,这种交通系统中只有无人驾驶汽车,没有有人驾驶汽车,行人必须严格遵守与普通道路交通完全不同的规则。另一种应用场景是混合交通系统,其中无人驾驶汽车和有人驾驶汽车同时存在,行人遵守普通道路交通规则。这两种交通系统虽然都是无人驾驶的应用场景,它们所面临的技术和伦理风险却是非常不同的。在混合交通系统中,人工智能技术面临着难度和复杂度更大的挑战,而其中大部分最难的挑战在无人驾驶交通系统中是不存在的。因此,在人工智能伦理体系中,需要为两种交通系统制定非常不同的监管规定,即使这两种交通系统符合相同的人工智能伦理准则。
第三,人工智能伦理风险的预测判别问题。世界上所有民航局都规定了禁带物品清单,同时强制实行登机安检,以检测乘客和乘务人员是否携带了禁带物品。在人工智能伦理体系中,也需要有对应于“禁带物品清单”的某种“违禁物清单”,以便有针对性地进行风险监督和管控。显然,人工智能伦理准则只是一些原则,并不包含人工智能的“违禁物清单”,比如“安全原则”不可能具体指出哪些人工智能技术是不安全的,“公平性原则”不可能具体指出哪些人工智能技术是不公平的。同时,人工智能处于不断发展之中,不可能一劳永逸地列出完整的“违禁物清单”。所以,只能在人工智能伦理体系中建立某种常态化机制,该机制能够预测、判别任何一项人工智能技术有什么风险、风险多大、是否应该禁用等等。这种机制过去并不存在,这是人类面临的一个全新课题。
第四,重大社会问题综合创新的动力机制问题。伦理学的基本落脚点围绕着“正确的和错误的行为”[16-17];也就是说,伦理并非只关心“不做错事”,也关心“要做好事”。可是在迄今人工智能伦理的讨论中,防范风险的一面得到了普遍重视和广泛讨论,而推动社会进步和经济发展的一面却没有受到足够重视,这已成为人工智能伦理体系建设的最大短板。有一种观点认为,推动经济发展、社会进步的问题,应该并且已经由人工智能研究和产业化承担了,无需人工智能伦理的介入。这种观点是不符合当今社会现实和未来发展态势的。例如,根据民政部等部门的统计,中国有2.5亿个家庭需要家政服务,而现有家政服务人员不到1700万。根据中国老龄办2016年调查,中国失能和半失能老人总数已达4000万,而且每年增加800万。类似问题在发达国家也不同程度地存在着。目前,这些问题难以找到有效的解决办法,因为现存科技和产业创新(innovation)的主要动力机制是商业化,而商业化机制应对老龄化等社会问题的效力是严重不足的,未来这种情况将越来越严重。因此,有必要在商业化机制之外,增加一种新型的综合创新机制,即借助于人工智能技术的伦理性创新。
2 人工智能伦理体系的基础架构
人工智能伦理体系的一种基础架构如图1所示。这个架构并不包含人工智能伦理体系的全部内容,而是重点回答上面指出的4个关键问题。

1 人工智能伦理机制构架
(图片来源:陈小平)

按照流行观点,人工智能创新生态包含3个主要环节,即“社会需求”“研究”与“应用”,它们形成一个循环演进的闭环,即需求推动研究,成熟的研究成果经过商业化途径实现实际应用,而实际应用又可引发新的需求。这个闭环正是人工智能伦理体系的作用对象,而人工智能伦理体系建立之后,整个人工智能生态的构成和运作机制也将大大改变和升级。
人工智能伦理通过3个层次发挥作用:上层为人工智能伦理的基本使命;中层为人工智能伦理准则;下层为针对具体应用场景的可操作的监督治理规定。
在图1所示的人工智能伦理体系基础架构中,我们将人工智能伦理的基本使命定义为“为增进人类福祉和万物和谐共存提供伦理支撑”。这个使命本身也是一条伦理准则,但相对于其他准则,它的价值具有更大的普遍性和稳定性,它的内涵概括了其他伦理准则的内涵,而其他伦理准则未必能概括基本使命的内涵。因此,基本使命可用于指导人工智能研究与应用,以及中层伦理准则的制定、改进和完善,而其他伦理准则未必可以或未必需要用来指导伦理性研究。另外,人工智能伦理性研究不太可能改变基本使命的内涵,却可以影响和改变其他伦理准则的内涵。总之,人工智能伦理的基本使命可以视为“伦理准则的准则”,也就是人工智能的基本价值观。
中层的伦理准则即在人工智能伦理建设第二阶段中达成共识的那些价值原则。这些伦理准则是基本使命的具体体现,并为实施细则的制定和科技研究实践提供引导。
为了将伦理准则落实到一个个具体的应用场景中,需要制定针对性、强制性、可操作的实施细则,即一套完整的监督治理规定。每一个应用场景都由一套对应的规定加以约束,不同的应用场景可以有不同的规定。针对一个具体的应用场景,一套规定往往包含下列多方面的具体要求和规范:产品标准(企业标准)、技术标准(团体标准/国家标准/国际标准)、行规、产业政策、法规等。这些不同方面的规定是由不同的机构制定和监管的,包括企业、标准化组织、行业组织、政府部门和法制机构,这些规定之间存在复杂的相互关系。例如,企业制定的产品标准的指标不得低于标准化组织制定的技术标准的指标。产品标准和技术标准是针对一类具体产品或服务的,而行规和产业政策是针对整个行业的,所以它们是互补的。法规是从法律层次做出的规定,具有最高的强制性和权威性,通常不是针对特定产品和服务的,甚至可以不针对具体行业。
从作为伦理实施细则的规定的构成可以看出,人工智能伦理建设不可能由某一领域的专家完成,而是必须涉及一系列相关方,从企业、大学和科研机构、标准化组织、行业组织、政府机构到法律部门,需要所有这些相关方的相互协调和共同努力。在相关方的协调中,不仅需要遵守共同的伦理准则,而且需要遵守伦理体系基础架构对各自角色的定位和相互关系的约定。
3 人工智能的风险预测判别机制
实现人工智能伦理基本使命的一项必要前提是确保人工智能的伦理底线,即确保人工智能研究和应用的风险处于可控范围内。综合看来,人工智能有以下3种风险。第一,技术误用:由于人工智能技术不够成熟、不够人性化或缺乏足够的伦理约束等原因,给使用者带来直接的损害,比如数据隐私问题、安全性问题和公平性问题等。第二,技术失控:即人类失去对人工智能技术的控制而出现严重的后果。例如,现在不少人担心,将来人工智能会全面超过人类的智慧和能力,以至于统治人类。第三,应用失控:人工智能技术在某些行业的普遍应用带来严重的负面社会效果,如导致很多人失业。
目前全球不存在相关机构和充分的研究力量,能够对这3种风险进行预测和判别。因此,有必要在人工智能创新生态中,增设一种新型研究模式和部门——人工智能伦理性研究,这种研究的一个核心职能是承担对3种风险的预测和判别,也就是担任人工智能风险底线的守护者。因此,在未来人工智能创新生态中,“研究”将被划分为两个相对独立的部门,一个是传统的科技研究/技术性研究部门,一个是伦理性研究部门,它们之间存在相互支持的关系。
人工智能风险预测判别研究与传统的科技研究之间存在本质区别。技术学科的研究历来以“潜在应用”为目的,自然科学研究则以“求知”为目的,而人工智能风险预测判别研究的基本职能是依据伦理准则,通过科学手段,探明某项技术的风险及其严重性,从而为是否应该禁用该技术提供可靠依据。因此,风险预测判别研究以“潜在禁用”为主要目的。由此可见,建立人工智能伦理研究部门是绝对必要的。在图1中,有一个从伦理研究到伦理准则、到实施细则、到应用场景再到伦理研究的闭环,这个闭环反映了人工智能伦理研究在整个创新生态中的作用。
针对3种风险,人工智能风险预测判别研究的主要任务及其必要性概述如下。
关于第一种伦理风险,事实上已经在现有人工智能和其他技术的应用中存在着,这种情况的严重性被普遍低估了,也没有受到有效的监督与管控。因此,针对数据隐私、安全性、公平性等伦理问题,亟需加强人工智能和相关技术的伦理体系建设,加强专业队伍的建设,加强针对具体伦理问题的研究,设置更高标准的相关规定,实行有效的监管和治理,这些应成为当前人工智能伦理研究与治理的重点任务。
第二种风险的近期紧迫性不强,但长期严重性绝不可低估。传统技术都不是自主的,而人工智能可以具有完全自主性。完全自主性意味着,人工智能可以完全独立于人类而实现现实世界中复杂任务的感知、决策和行动。有分析认为,具有类似于人的自我意识的完全自主的人工智能系统一旦研制出来,就会独立地自我繁殖和自我进化,并突破任何伦理规范和人类控制[18]。果真如此,允许这样的人工智能系统被研发出来,就意味着人类将被人工智能统治,也就意味着任何人工智能伦理准则都沦为空谈。当然,现有哲学分析还不是充分的科学论证,所以这种可能性尚未得到证实,但有必要认真对待。对于这种风险进行预测和判别,是一项极其艰巨、复杂且无先例的工作,关系到人类长期生存的安全底线。
第三种风险目前没有严重表现,但潜在风险肯定是有的。以工业生产为例,一些劳动密集型产业已经在部分地区普遍出现了“用工难”现象,但这种现象并不是由于人工智能、机器人等新技术的应用引起的,而是由于大量岗位的工作性质已经变成了简单操作的机械性重复,这种作业是不符合人性的。未来的必然趋势是,愿意承担这种工作的人将越来越少,因而对人工智能、机器人技术产业应用的需求将越来越强,于是在一些行业中人工替代率将越来越高。如果无法解决再就业问题,就可能引起应用失控,产生极其严重的社会后果。由此可见,对这种风险的预测和判别是极其复杂、极其困难的,需要多学科合作和长期努力。
4 面向重大社会问题的伦理性创新
人工智能的根本价值在于增加人类的福祉。在本文建议的人工智能伦理体系中,这条原则被列为基本使命,而且所有已经提出的伦理建议都包含这条准则。人类福祉的一个集中体现,是帮助解决社会面临或将来面临的重大问题,例如:气候变暖、环境污染、人口老龄化、资源分布不均、经济发展不均衡、产业少人化等。
这些重大社会问题有三个基本特点:第一,从本性上看,现有商业化机制不适合解决这类问题;第二,目前也不存在其他有效的应对手段;第三,这类问题的解决方案往往不是纯技术性的,而是综合性的,并且人工智能技术可以在其中发挥重要作用。那么,人工智能伦理如何为解决重大社会问题发挥重要作用?目前,对这个问题的研究是整个人工智能伦理建设中最为薄弱、最为欠缺的一环[19]。
本文认为,在人工智能伦理体系中的“伦理性研究”部门,应该包含两项基本职能。一项是上文提出的“风险预测判别”,另一项是“伦理性创新”。作为一种全新机制,伦理性创新将为重大社会问题的应对提供研究支撑,其主要工作任务如下。
第一,社会变化主客观数据的采集分析。在科技和产业创新飞速发展的时代,民众的生活、工作和心理状态也在快速变化,而且不同群体的主观感受、教育观念、就业倾向、消费观念、生活态度和人机关系认知等等也处于不断变化之中。目前,社会对这些信息的把握是十分有限的,这种状况对于社会的健康发展是十分不利的,亟需加以改变。因此,开发相应的人工智能和大数据等技术,及时充分地收集反映这些变化的指标数据,并与传统的产业和社会统计数据相结合,通过系统性分析得出社会状况的科学判断,对于维持社会平稳运行,更加合理地进行政策决策和规划制定,具有极其重大的现实意义,同时也为更好地应对重大社会问题奠定了必要基础。
第二,社会发展可能态势的分析预测。在未来某个时段,完全可能出现大量工作被机器取代、大批工作年龄人口无工可做的情况。这种情况下的社会结构、经济运行机理和社会发展动力,与当下社会是根本不同的。因此,在应对某些重大社会问题的过程中,未来人类很可能进入一个全新的社会文明阶段。为了保证这种社会演化符合人类的根本利益,保证宇宙万物的和谐共存,人类完全有必要未雨绸缪,而不应被动地随波逐流。对未来社会发展可能态势进行分析预测,是社会长期发展规划的必要基础。这种分析预测是非常困难的,需要多学科合作,而人工智能技术可以在其中发挥重要作用。
第三,重大社会问题解决方案的创新设计。人类面临的重大社会问题,往往难以就事论事地得到解决,需要通过综合性创新找出化解之道[20]。然而面对如此高维复杂的问题,单纯依靠人工智能技术和其他相关技术手段,是不可能自动求解的。因此,有必要探索人机合作的求解模式,而人工智能技术可以显著提升人机合作问题求解的水平和性能。例如,利用人工智能“暴力法”[21]中的“假设推理”方法,可以进行人机合作式问题求解,而且在高维复杂应用场景中已有成功案例,假设推理发现了单纯依靠人或机器都无法发现的有效的解决方案。因此,针对重大社会问题,借助人工智能技术,通过人机合作方式,完全可能发现以往无法发现的综合创新方案。在未来科技和产业革命时代,这将是人工智能伦理体系为人类做出的巨大贡献。
5 结束语
在人工智能伦理准则达成的基本共识的基础上,本文提出人工智能伦理体系规划问题,重点讨论解决伦理准则无法解答而伦理体系必须解决的4个关键问题——运行机制问题、场景落地问题、风险预测判别问题和发展动力问题,并对这些问题提出了初步解决方案。
人工智能伦理体系的运行机制由它的基础架构决定,该架构规定了伦理体系的主要部门以及它们之间的相互关系,其中包括场景落地的机制。本文建议,在人工智能创新生态中增设一个新型研究部门——伦理性研究,它有两项基本职能:人工智能风险预测判别和应对重大社会问题的伦理性创新。根据这些分析和建议,在未来人工智能时代,社会进步和经济发展将进入“双轮驱动”模式,以传统的商业化创新和新设立的伦理性创新作为两个不同而相互关联的动力机制。
总之,人工智能伦理建设面临一系列挑战,不是将一般伦理学原则、方法和规则具体化到人工智能就可以奏效的。如何建立这样的人工智能伦理体系,仍需要相关各方紧密合作,进行长期、艰苦的探索。(本文转载自《智能系统学报》2019年第4期)
参考文献:
[1]    The High-Level Expert Group on AI. Ethics guidelines for trustworthy AI[EB/OL]. (2019-04-08). https://ec.europa.eu/digital-sin ... nes-trustworthy-ai. (1)   
[2]    傅莹. 人工智能对国际关系的影响初析[EB/OL]. (2019-04-10). https://pit.ifeng.com/c/7lkmTsTwMD2. (1)   
[3]    裴钢. 科技伦理建设应由全人类共同参与[EB/OL]. http://st.zjol.com.cn/kjjsb/201905/t20190508_10075117.shtml. (1)   
[4]    LEI Ruipeng, ZHAI Xiaomei, ZHU Wei, et al. Reboot ethics governance in China[J]. Nature, 2019, 569: 184-186. DOI:10.1038/d41586-019-01408-y (3)   
[5]    陈磊. 人工智能让人类尴尬: 伦理道德法律框架设计滞后[N]. 科技日报, 2017-11-21. (3)   
[6]    蓝江. 人工智能的伦理挑战[N]. 光明日报, 2019-04-01(15). (3)   
[7]    李艳. 人工智能该怎么管? 八项原则来了!一文读懂[N]. 科技日报, 2019-06-18. (3)   
[8]    熊争艳, 董瑞丰. 加快推动人工智能伦理研究[N]. 新华每日电讯, 2019-03-11(06). (1)   
[9]    杨骏. 超越" 机器人三定律” 人工智能期待新伦理[EB/OL]. (2019-03-18). http://www.xinhuanet.com/tech/2019-03/18/c_1124249611.htm. (1)   
[10]    袁勇. 人工智能伦理三问: 如何对待机器和自身的关系?[EB/OL]. (2018-07-12). http://ip.people.com.cn/n1/2018/0712/c179663-30142763.html. (1)   
[11]    The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems (IEEE) [EB/OL]. https://standards.ieee.org/indus ... omous-systems.html. (1)   
[12]    杨弃非. 每经专访太和智库欧洲中心主任托斯登•耶里尼克: 跨国构建人工智能伦理治理框架势在必行[N]. 每日经济新闻, 2019-05-22. (1)   
[13]    BOSTROM N, YUDKOWSKY E. The ethics of artificial intelligence[M]//FRANKISH K, RAMSEY W. Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press, 2014. (1)   
[14]    SMITH R. 5 core principles to keep AI ethical[EB/OL]. (2018-04-19). https://https://www.weforum.org/agenda/2018/04/keep-calm-and-make-ai-ethical/. (1)   
[15]    HAO Karen. Establishing an AI code of ethics will be harder than people think[R]. Cambridge: MIT Technology Review, 2018. (1)   
[16]    万俊人. 义利之间: 现代经济伦理十一讲[M]. 北京: 团结出版社, 2003. (1)   
[17]    Wikipedia[EB/OL]. https://en.wikipedia.org/wiki/Ethics. (1)   
[18]    赵汀阳. 人工智能的自我意识何以可能?[J]. 自然辩证法通讯, 2019, 41(1): 1-8.
ZHAO Tingyang. How could AI develop its self-consciousness?[J]. Journal of dialectics of nature, 2019, 41(1): 1-8. (1)   
[19]    陈小平. 人工智能伦理全景动态观[EB/OL]. (2019-05-27). http://https://www.china-scratch.com/news/5403. (1)   
[20] 人民论坛理论研究中心. 全局性综合创新: 国内外实践经验与未来启示[EB/OL]. (2017-10-17). http://www.rmlt.com.cn/2017/1017/500123.shtml. (1)   
[21]    陈小平. 人工智能的历史进步、目标定位和思维演化[J]. 开放时代, 2018(6): 31−48. (1)   
作者:中国科技大学教授  陈小平
来源:《智能系统学报》2019年第4期
来源:微信公众号“产业头条”
链接:https://mp.weixin.qq.com/s/NyCI8Mx0wInXfXQlbx-GPA
编辑:马晓晴


作者: 刘海明    时间: 2019-7-11 21:41
【案例
腾讯发布人工智能伦理报告倡导面向人工智能的新的技术伦理观
腾讯科技讯近日,腾讯研究院和腾讯AI Lab联合发布了人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》。人工智能伦理是国际社会近几年关注的焦点话题。最近,国内外都有重大进展,OECD成员国采纳了首个由各国政府签署的AI原则,即“负责任地管理可信AI的原则(Principles for responsible stewardship of trustworthy AI)”,这些原则之后被G20采纳,成为人工智能治理方面的首个政府间国际共识,确立了以人为本的发展理念和敏捷灵活的治理方式。无独有偶,我国新一代人工智能治理原则也于近日发布,提出和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则,以发展负责任的人工智能。
在此背景下,在腾讯研究院过去几年对人工智能伦理进行的持续研究的基础上,腾讯研究院和腾讯AI Lab联合研究形成了这份人工智能伦理报告《智能时代的技术伦理观——重塑数字社会的信任》,认为在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。
以下为报告主要内容:
互联网的前三十年,是一个连接一切的故事,这个故事以前所未有的速度和规模改变着人类和人类社会。如今,以人工智能、大数据为代表的新技术集群加速发展,有望引领第四次工业革命,智能时代的大幕正在拉开,无处不在的数据和算法正在催生一种新型的人工智能驱动的经济和社会形式,生物层、物理层、技术层可能融合为三位一体。简言之,人工智能正在改变这个世界。
因此在当前,以人工智能为代表的这一轮新技术具有巨大的潜力和价值,无疑能够成为一股“向善”的力量,继续造福于人类和人类社会。但任何具有变革性的新技术都必然带来法律的、伦理的以及社会的影响。例如,互联网、大数据、人工智能等数字技术及其应用带来的隐私保护、虚假信息、算法歧视、网络安全、网络犯罪、网络过度使用等问题已经成为全球关注焦点,引发全球范围内对数字技术及其应用的影响的反思和讨论,探索如何让新技术带来个人和社会福祉的最大化。
因此,人工智能伦理开始从幕后走到前台,成为纠偏和矫正科技行业的狭隘的技术向度和利益局限的重要保障。正如华裔AI科学家李飞飞所言,要让伦理成为人工智能研究与发展的根本组成部分。在此背景下,从政府到行业再到学术界,全球掀起了一股探索制定人工智能伦理原则的热潮,欧盟、德国、英国、OECDG20IEEE、谷歌、微软等诸多主体从各自的角度提出了相应的人工智能伦理原则,共同促进AI知识的共享和可信AI的构建。要言之,各界已经基本达成共识,人工智能的发展离不开对伦理的思考和伦理保障。
从最早的计算机到后来的信息再到如今的数据和算法,伴随着技术伦理的关注焦点的转变,技术伦理正在迈向一个新的阶段。在新的发展阶段,我们提出新的技术伦理(technology ethics),探索AI、个人、社会三者之间的平衡。就AI技术自身而言,AI需要价值引导,应做到可用、可靠、可知、可控(“四可”),从而让人们可以信任AI,让AI可以给个人和社会创造价值;就AI与个人之关系而言,幸福是人生的终极目的,需要构建和谐共生的人机关系,保障个人的数字福祉和幸福工作权利,实现智能社会人机共生,让个体更自由、智慧、幸福地生活和发展;就AI与社会之关系而言,AI所具有的巨大的“向善”潜力是历史上任何时候都无法比拟的,可以成为一股“向善”的力量,助力经济社会健康包容可持续发展。
信任(trust):人工智能需要价值引导,做到可用、可靠、可知、可控(“四可”)
AI而言,虽然技术自身没有道德、伦理的品质,但是开发、使用技术的人会赋予其伦理价值,因为基于数据做决策的软件是人设计的,他们设计模型、选择数据并赋予数据意义,从而影响我们的行为。所以,这些代码并非价值中立,其中包括了太多关于我们的现在和未来的决定。更进一步,现在人们无法完全信任人工智能,一方面是因为人们缺乏足够信息,对这些与我们的生活和生产息息相关的技术发展缺少足够的了解;另一方面是因为人们缺乏预见能力,既无法预料企业会拿自己的数据做什么,也无法预测人工智能系统的行为。因此,我们需要构建能够让社会公众信任人工智能等新技术的规制体系,让技术接受价值引导。
作为建立技术信任的起点,我们认为,人工智能等新技术的发展和应用需要遵循伦理原则。为此,秉持“负责任研究与创新”(responsible research and innovation)、“科技向善”等理念,我们进一步阐述“四可”原则,用以引导负责任地发展和应用工智能技术,使其可以造福于人类和人类社会。并将“四可”翻译为“ARCC”(availablereliablecomprehensiblecontrollable,即ARCC,读作ark)。正如传说中保存人类文明火种的诺亚方舟,人工智能的健康发展需要以“伦理方舟”为保障,确保将来友好、和谐、共生的人机关系。
第一,可用(available)。发展人工智能的首要目的,是促进人类发展,给人类和人类社会带来福祉,实现包容、普惠和可持续发展。为此,需要让尽可能多的人可以获取、使用人工智能,让人们都能共享技术红利,避免出现技术鸿沟。可用性还意味着以人为本的发展理念、人机共生、包容性以及公平无歧视,要求践行“经由设计的伦理”(ethics by design)理念,将伦理价值融入到AI产品、服务的设计当中。
第二,可靠(reliable)。人工智能应当是安全可靠的,能够防范网络攻击等恶意干扰和其它意外后果,实现安全、稳定与可靠。一方面人工智能系统应当经过严格的测试和验证,确保其性能达到合理预期;另一方面人工智能应确保数字网络安全、人身财产安全以及社会安全。
第三,可知(comprehensible)。人工智能应当是透明的、可解释的,是人可以理解的,避免技术“黑盒”影响人们对人工智能的信任。研发人员需要致力于解决人工智能“黑盒”问题,实现可理解、可解释的人工智能算法模型。此外,对于由人工智能系统做出的决策和行为,在适当的时候应能提供说明或者解释,包括背后的逻辑和数据,这要求记录设计选择和相关数据,而不是一味追求技术透明。换句话说,技术透明或者说算法透明不是对算法的每一个步骤、算法的技术原理和实现细节进行解释,简单公开算法系统的源代码也不能提供有效的透明度,反倒可能威胁数据隐私或影响技术安全应用。相反,在AI系统的行为和决策上实现有效透明将更可取,也能提供显著的效益。此外,在发展和应用人工智能的过程中,应为社会公众参与创造机会,并支持个人权利的行使。
第四,可控(controllable)。人工智能的发展应置于人类的有效控制之下,避免危害人类个人或整体的利益。短期来看,发展和应用人工智能应确保其带来的社会福祉显著超过其可能给个人和社会带来的可预期的风险和负面影响,确保这些风险和负面影响是可控的,并在风险发生之后积极采取措施缓解、消除风险及其影响。长期来看,虽然人们现在还无法预料通用人工智能和超级人工智能能否实现以及如何实现,也无法完全预料其影响,但应遵循预警原则(precautionary principle),防范未来的风险,使未来可能出现的通用人工智能和超级人工智能能够服务于全人类的利益。
当然,信任的建立,需要一套规则体系。在这些原则之下,人们可以探索制定标准、法律、国际公约等。对于人工智能需要采取包容审慎、敏捷灵活的治理方式,应避免严格、细致的法律要求,而是可以采取事后监管或者通过出台标准、行业公约、伦理框架、最佳实践、技术指南等调整人工智能等新技术的发展应用,支持行业自律。
幸福(happiness):在人机共生的智能社会,确保人人都有追求数字福祉、幸福工作的权利
各种智能机器正在成为人类社会不可或缺的一部分,和我们的生活和生产息息相关。这给人类与技术之间的关系提出了新的命题,需要深入思考智能社会如何实现人机共生(human-computer symbiosis)。
第一,保障个人的数字福祉,人人都有追求数字福祉的权利。一方面需要消除技术鸿沟和数字鸿沟,全球还有接近一半人口没有接入互联网,老年人、残疾人等弱势群体未能充分享受到数字技术带来的便利。另一方面减小、防止互联网技术对个人的负面影响,网络过度使用、信息茧房、算法偏见、假新闻等现象暴露出了数字产品对个人健康、思维、认知、生活和工作等方面的负面影响,呼吁互联网经济从吸引乃至攫取用户注意力向维护、促进用户数字福祉转变,要求科技公司将对用户数字福祉的促进融入到互联网服务的设计中,例如AndroidiOS的屏幕使用时间功能、Facebook等社交平台的“数字福祉”工具、腾讯视频的护眼模式对用户视力的保护等。
第二,保障个人的工作和自由发展,人人都有追求幸福工作的权利。目前而言,人工智能的经济影响依然相对有限,不可能很快造成大规模失业,也不可能终结人类工作,因为技术采纳和渗透往往需要数年甚至数十年,需要对生产流程、组织设计、商业模式、供应链、法律制度、文化期待等各方面做出调整和改变。虽然短期内人工智能可能影响部分常规性的、重复性的工作。长远来看,以机器学习为代表的人工智能技术对人类社会、经济和工作的影响将是深刻的,但人类的角色和作用不会被削弱,相反会被加强和增强。未来二十年内,90%以上的工作或多或少都需要数字技能。人们现在需要做的,就是为当下和未来的劳动者提供适当的技能教育,为过渡期劳动者提供再培训、再教育的公平机会,支持早期教育和终身学习。
可持续(sustainability):践行“科技向善”,善用技术塑造健康包容可持续的智慧社会
技术创新是推动人类和人类社会发展的最主要因素。而这一轮技术革命具有巨大的“向善”潜力,将对人类生活与社会进步带来突破性的提升。在二十一世纪的今天,人类拥有的技术能力,以及这些技术所具有的“向善”潜力,是历史上任何时候都无法比拟的。换言之,这些技术本身是“向善”的工具,可以成为一股“向善”的力量,用于解决人类发展面临着的各种挑战,助力可持续发展目标。与此同时,人类所面临的挑战也是历史上任何时候都无法比拟的。联合国制定的《2030可持续发展议程》确立了17项可持续发展目标,实现这些目标需要解决相应的问题和挑战,包括来自生态环境的,来自人类健康的,来自社会治理的,来自经济发展的,等等。
将新技术应用于这些方面,是正确的、“向善”的方向。例如,人工智能与医疗、教育、金融、政务民生、交通、城市治理、农业、能源、环保等领域的结合,可以更好地改善人类生活,塑造健康包容可持续的智慧社会。因此,企业不能只顾财务表现,只追求经济利益,还必须肩负社会责任,追求社会效益,服务于好的社会目的和社会福祉,给社会带来积极贡献,实现利益与价值的统一。包括有意识有目的地设计、研发、应用技术来解决社会挑战。如今,“人工智能造福人类”(AI for Good)已经成为全球发展趋势,呼吁与行动并存。以腾讯为例,自20181月在国内首次提出“科技向善”以来,腾讯已将“科技向善”作为新的愿景与使命,并身体力行地在医疗、社会治理(如寻找失踪人口)、FEW(粮食、能源、水源)等方面践行“科技向善”理念。
以智能时代的技术伦理重塑数字社会的信任
互联网、人工智能等数字技术发展到今天,给个人和社会带来了诸多好处、便利和效率,未来还将持续推动经济发展和社会进步。如今,步入智能时代,为了重塑数字社会的信任,我们需要呼吁以数据和算法为面向的新的技术伦理观,实现技术、人、社会之间的良性互动和发展。最终,我们希望以新的技术伦理观增进人类对于技术发展应用的信任,让人工智能等技术进步持续造福人类和人类社会发展进步,塑造更健康包容可持续的智慧社会。
来源:腾讯网
链接:https://new.qq.com/omn/TEC20190/TEC2019071100497100.html
编辑:马晓晴


作者: 刘海明    时间: 2019-7-17 19:32
【案例】

新华社智能化编辑部建设初探[color=rgba(0, 0, 0, 0.298)]原创: [color=rgba(0, 0, 0, 0.298)]闫帅南 [url=]京原路8号[/url] [color=rgba(0, 0, 0, 0.298)]前天

内容提要 什么是智能化编辑部?建设智能化编辑部能帮助新华社做什么?本文结合“媒体大脑”“现场云”“AI主播”等工作,对新华社智能化编辑部建设工作进行了探讨。


新华社智能化编辑部建设初探
文/闫帅南

近年来,新华社紧跟人工智能技术发展浪潮,积极探索人工智能与通讯社主业的深度融合,先行先试、步步为营。从“快笔小新”到“媒体大脑”,从“现场云”到“AI主播”,可以说,新华社在新闻信息策、采、编、审、发等全环节都在积极探索智能化之路。2018年,新华社党组提出建设世界首个智能化编辑部,启动了通讯社智能化建设的“衣领子”工程,新华社新媒体中心成为智能化编辑部的试点部门。作为新华社新媒体事业的排头兵,我们要把握住这场智能化变革的深意,充分发挥新华社已有智能化优势,回答好究竟什么是智能化编辑部?建设智能化编辑部能帮助新华社做什么?等问题。

一年多时间里,新华社新媒体中心大胆地试、勇敢地闯,边摸索、边实践,正逐步构建起智能化编辑部的“四梁八柱”。

一、以做大做强智能化平台为抓手,着力提高通讯社新闻信息聚合分发能力

移动传播时代,“终端随人走、信息围人转”,打造可自主掌控的移动化、智能化资源聚合分发平台,是新华社从传统通讯社业务向网上通讯社转型的重要举措。近几年,新华社新媒体“三微三端三平台”传播格局的移动化、智能化水平正不断提高。2017年,新华社推出“现场云”平台,向媒体用户免费提供智能化工具和平台化服务,帮助媒体融合转型,加速新闻生产数字化升级。“现场云”自动化生产平台采用“云加端”的直播理念,用户只要拿起一部手机就能在新华社客户端发起一场全息直播,有效帮助入驻媒体在线生产,进而带动全国传统媒体进行真正的“线上转型”。截至目前,“现场云”已有入驻机构用户3200余家,全国参与采编人数4.4万多名,直播场次超13万场,单场直播最高访问量732万人次。“现场云”已经成为国内最大的原创直播新闻在线生产平台。


二、以升级迭代“媒体大脑”为龙头,着力提高通讯社大数据获取加工和智能化生产能力

2017年12月,新华社推出了国内第一个智能化媒体生产平台“媒体大脑”并生产了第一条MGC(机器生产内容)视频新闻,受到业界广泛关注。“媒体大脑”融合了云计算、物联网、大数据、人工智能等多项技术,为媒体机构提供线索发现、素材采集、编辑生产、分发传播、反馈监测等服务,使新闻场景下的应用和服务更加智能化。2018年两会,升级版的“媒体大脑”推出了9期数据可视化视频产品,通过多渠道采集数据、大数据挖掘信息、机器算法解析,带给读者全新视角和阅读体验。2018年世界杯,新华社“媒体大脑”31天生产短视频3.7万条,最快一条视频生产仅耗时6秒,大幅提升了短视频产品生产的效能。2019年全国两会期间,“媒体大脑”推出的《一杯茶的工夫读完6年政府工作报告,AI看出了啥奥妙》,对6年来政府工作报告中的数据进行横纵向的精确智能化对比解析,在大数据新闻中脱颖而出。

智能化编辑研发的大数据生产系统通过聚合海量第三方数据,可以对涵盖出行、网购、音乐等41个细分领域的大数据进行智能化分析、可视化处理、产品化包装。它让我们看到,人工智能可以帮助及时发现线索,快速生成新闻,采集海量数据,洞见独特视角。

此外,智能化编辑部研发的动画自动生产系统可以让编辑记者依靠系统中的动画制作模板,像做PPT一样快速高效生产动画短视频。目前,编辑部正在研发可供WEB端和移动端同时操作的生产系统,使新媒体动画的制作更加“随时随地随身”。


三、以“AI合成主播”等为应用,积极探索人工智能技术在呈现方式上的创新性突破

在2018年的世界互联网大会上,新华社发布了全球首个“AI合成主播”。只要输入文本,合成主播就能24小时不眠不休地自动播报新闻。这个栩栩如生的仿真数字播报员其背后是语音合成、唇语合成、表情合成和动作合成等四项人工智能核心技术的综合运用。经过一段时间的深度学习和进化,今年2月19日,新华社发布了站立式“AI合成主播”和他的新搭档——“合成女主播”。6月,新华社与塔斯社合作推出了俄文“AI合成主播”。同月,新华社“AI合成主播”还亮相第六届世界通讯社大会“人工智能”专题会,引起与会者热烈讨论。“AI合成主播”的问世让世界媒体惊呼人工智能时代真的来了。

基于智能化图形识别、VR、AR等技术,新华社智能化编辑部还推出了系列视觉冲击力大、交互性强的虚拟现实报道。如献礼改革开放40周年的策划《AR新闻|天地工程》等产品,打破了真实与虚拟之间的界限,创造出一个具有“沉浸性”和“交互性”的3D环境,让观众在看新闻时体会身临其境之感。

全球首个俄语AI合成主播在播报
四、以强化智能化装备为保障,着力培养会用“十八般兵器”的复合型人才

智能化编辑部紧密追踪智能化硬件革新,以智能化硬件为新华社采编队伍赋能。新华社为记者先后配备了5G手机、5G背包、智能AR直播眼镜、智能录音笔等硬件装备,并将这些装备成功应用到全国两会、“一带一路”国际合作高峰论坛、世园会等重大报道中。2019年3月10日,新华社客户端成功对全国政协十三届二次会议第三场记者会进行了5G手机全链条直播,让受众体验了一次“5G速度”。为了让报道“加速”、记者“减负”,智能化编辑部还为记者配备了直播报道“利器”——智能AR直播眼镜、智能化“全能耳”,戴上直播眼镜使受众可以与记者同步“进入”新闻现场,借助“全能耳”智能录音笔,采访的文字可以实时传回后方编辑部,实现了即传即编即发。有媒体称,新华社是2019年全国两会上最具“科技感”的媒体。

经过实战的初步检验,新华社智能化编辑部的设想显示出了强大的生命力,在不断充实和壮大中影响力显现。在中国传媒年会上,专家认为:“建设智能化编辑部是新华社贯彻落实习近平总书记系列重要讲话精神,着力加强传播手段和话语方式创新的重要举措。在推动媒体深度融合方面具有前瞻性、引领性意义,在世界范围内为应用人工智能推动媒体变革提供了宝贵范例。”

建设智能化编辑部既是一项事关新华社智能化转型的“衣领子”工程,也是事关推动新华社融合发展向纵深迈进的一项系统性工程。智能化编辑部的目的是利用大数据、云计算、人工智能等技术实现人机交互和人机协作,把采编人员从简单劳动中解放出来,从事更多思想性、创意性智力劳动,更大程度释放媒体生产力。其核心是解决国家通讯社在传播技术日新月异、舆论斗争形势日趋复杂、媒体格局深刻变化背景下如何更好地履行职责使命,服务媒体和受众、服务党和国家大局的问题。建设智能化编辑部不能“剪刀加糨糊”,将人工智能技术与内容简单的“捏合”,要找准定位、明确目标,统筹规划、分步实施。要把握好加大技术创新与坚持内容为本的关系、加大人工智能研发应用,同时坚决强化人的把关作用,将正确导向融入智能化生产。

习近平总书记明确指出,“用得好是真本事”。新华社新媒体中心作为全社智能化编辑部建设的先行者,将努力练就“用得好”的真本事,以舍我其谁的勇气,逢山开路、遇水搭桥的锐气,加大探索、加快推进,为建设智能化编辑部尽力,为推进全社融合发展助力。(作者系新华社新媒体中心新媒体部主任)

本文刊发于《中国记者》2019年第7期

编辑  梁益畅 46266875@qq.com

https://mp.weixin.qq.com/s/-sxi_jCVKe_SVaX80psQZw




作者: 刘海明    时间: 2019-7-18 12:32
【案例】
无处不在的机器学习
我们正处于由机器学习应用引领的改革中
以下是我们可能每天都会看到的机器学习应用实例
这些用例包括了从智能手机中的机器学习应用,到我们每天进行的交易等
介绍
想象一下---明天你将参加你长期以来一直渴望的机器学习岗位面试。一切都需要提前准备计划,否则可能会搞砸。
所以,你告诉你的虚拟助手:
定一个明天早上7点的闹钟
预约8:30Uber直接去面试地点
估算乘车费
Google地图上预估可能需要的时间
最后,整理在面试前需要的资源清单
所有这一切您都无需移动或花时间输入。你所做的只是与你的虚拟助手说话,这样为该系统提供动力的机器学习算法就开始工作了!
机器有一个人类水平的心灵不是一个未来的场景--就是现在!由于计算能力的进步以及机器学习的应用,我们正生活在真正的全球革命之中。那么,让我们来看看日常生活中最常见的机器学习用例(有时甚至没有意识到它是机器学习)。
我们将覆盖到的机器学习用例
智能手机中的应用
运输优化
主流Web服务
销售和营销
安全
财务领域
其他热门用例
智能手机中的机器学习
您是否知道机器学习能够支持智能手机上的大部分功能?
从设置闹钟的语音助手,到寻找最好的餐厅,再到通过面部识别解锁手机---机器学习在真正嵌入到我们最喜欢的设备中。
语音助理
我们在介绍中看到了与虚拟助手交谈的例子,这完全是语音识别的概念---一个机器学习的新兴话题。
参考:
https://www.analyticsvidhya.com/blog/2019/07/learn-build-first-speech-to-text-model-python/


语音助手现在无处不在。你肯定使用过(或至少听过)以下这些流行的语音助手:
AppleSiri
Google智能助理
亚马逊的Alexa
Google Duplex
微软的Cortana
三星的Bixby
所有这些语音助手之间的共同点是它们由机器学习算法驱动!这些语音助手使用自然语言处理(NLP)识别语音(我们说的话),使用机器学习将它们转换为数字,并制定相应的响应。
随着机器学习技术变得更加先进,这些助手在未来变得更加智能,这个领域已经成熟。您可以通过以下精彩教程学习构建自己的语音识别系统:
学习如何构建自己的语音到文本模型(使用Python
https://www.analyticsvidhya.com/blog/2019/07/learn-build-first-speech-to-text-model-python/
智能手机相机
机器学习与智能手机的相机有什么关系?事实证明,关系相当大。
现如今我们能够获取令人难以置信的图像以及这些图像的深度---所有这些都归功于机器学习算法。他们分析给定图像中的每个像素,以检测物体,模糊背景和一系列技巧。
这些机器学习算法可以做几件事来改进和增强智能手机相机的效果:
对象检测,用于定位和单独显示图像中的对象(或人)
填补图片中缺少的部分
使用特定类型的神经网络使用GAN来增强图像,甚至通过想象图像的外观来扩展其边界等。
有兴趣阅读更多有关如何使用机器学习来构建自己的智能手机相机软件的信息吗?你的等待结束了!这是一个完美的教程,可以帮助您:
Google Pixel相机背后的深度学习技术简介!
https://www.analyticsvidhya.com/blog/2019/02/tutorial-semantic-segmentation-google-deeplab/
App StorePlay商店推荐
我喜欢Google PlayAppleApp Store的推荐功能。“推荐给你”基于我在手机上安装的应用程序(或之前使用过的)。
例如,如果我有一些体育和食品相关的应用程序 - 所以推荐给我的通常是与这些类似的应用程序。我很欣赏Play商店根据我的口味个性化推荐的做法,展示的应用程序对我来说有更高下载几率。
如果您没有注意到这一点,请立即去查看。
AppleGoogle如何做到这一点?四个字--推荐引擎。这是机器学习中非常流行的概念。有多种方法可以构建推荐引擎,您可以从如下内容中开始学习:
从头开始构建推荐引擎的综合指南(Python
https://www.analyticsvidhya.com/blog/2018/06/comprehensive-guide-recommendation-engine-python/
面部解锁 - 智能手机
我们大多数人都非常熟悉这个功能。我们拿起我们的智能手机,通过检测我们的脸来解锁。它智能,高效,省时,坦白的说真的很棒。
很多人不知道的是,我们的智能手机使用了一种称为面部识别的技术来做到这一点。面部识别背后的核心理念是--你猜对了---机器学习。
面部识别的应用非常广泛,世界各地的企业和组织已经从中获益:
Facebook用它来识别图像中的人物
政府正在利用它来识别和抓捕罪犯
机场用于验证乘客和机组人员,等等
面部识别模型的使用在未来几年内只会越来越多,所以为什么不自学如何从头开始构建一个?
面部识别简介(使用Python代码)
·https://www.analyticsvidhya.com/blog/2018/08/a-simple-introduction-to-facial-recognition-with-python-codes/
运输业中的机器学习
在过去十年中,机器学习在运输行业的应用已经达到了完全不同的水平这与UberLyftOla等乘车应用程序的兴起是同步的。
这些公司在自己的众多产品中使用机器学习,从规划最佳路线,到决定路线上涨的价格。那么让我们看一下运输中使用机器学习的一些常见用例。
旅行中的动态定价
您经常对出租车公司使用的激增价格感到沮丧吗?我每天都会在上下班途中遇到这种情况。价格似乎永远都在上涨。为什么会这样?!
所以我对此进行了更多挖掘,并且发现了动态定价的概念---一个出色的机器学习用例。为了理解这一点,我们来举一个简单的例子。
想象一下,你正在启动一个用车业务。您需要计划城市中每条路线的乘车价格,既能吸引客户,又能同时提高您的底线。一种方法是手动将价格映射到每条路线,但不是理想的解决方案。
这是动态定价起着至关重要作用的地方。这意味着可以根据不断变化的市场条件调整价格。因此,价格取决于位置,时间,天气,整体客户需求等因素。这是为什么引入激增定价背后的基本思想。
动态定价是各种行业中蓬勃发展的做法,例如旅行,酒店,交通和物流等。
交通和通勤 - 优步
动态定价并不是Uber使用的唯一机器学习应用。他们在很大程度上依赖机器学习来确定乘客从A点到B点的最佳路线。

对我们来说,它似乎是一个相当简单的解决方案。把你的位置,目的地和最近的司机来接我们。但看起来很简单的,实际上在Uber后端是复杂的架构和服务网络。
目前有多种机器学习技术可以优化我们的路线。
查看Uber的这篇文章,他们更多地讨论如何使用机器学习来识别有效的路线:
优步工程师如何实现高效路线
https://eng.uber.com/engineering-an-efficient-route/
谷歌地图
你应该已经猜到这个了。Google地图是机器学习应用的主要例子。事实上,我建议立即开放谷歌地图并选用它提供的不同功能。
以下是我能看到的(并且已广泛使用):
路线:从A点到B
估计这条路线的行程时间
沿途交通情况
“探索附近”功能:餐厅,汽油泵,自动取款机,酒店,购物中心等。
Google使用大量机器学习算法来生成所有这些功能。机器学习深深嵌入谷歌地图中,这就是每次更新时路线越来越智能化的原因。
预估旅行时间功能几乎是完美的。如果它显示“40分钟”到达目的地,您可以确定您的旅行时间大约在该时间轴附近。我们爱机器学习!
主流web服务中的机器学习
你会喜欢这一节。我们每天都会与某些应用程序进行多次交互。直到最近我们才意识到这一点 - 大多数应用程序都可以工作归功于机器学习的强大功能和灵活性。
以下是您非常熟悉的四个应用。现在,从机器学习的角度来看待它们。
邮件过滤
工作中处理电子邮件的方式怎么样?或者您的个人电子邮件收件箱是否充满了随机和垃圾邮件?我们都遭遇过这种情况。我的收件箱曾经一次有11,000多封未读电子邮件!
如果我们能够编写一个根据主题过滤电子邮件的规则,那会不会很容易的将营销邮件将转到该文件夹、有关工作的电子邮件将进入我的主要收件箱(等等)。这会让生活变得更加轻松。
事实证明,这正是大多数电子邮件服务正在做的事情!他们使用机器学习来解析电子邮件的主题行并相应地对其进行分类。以Gmail为例。Google使用的机器学习算法已经经过数百万封电子邮件的训练,因此可以为最终用户(我们)无缝工作。
虽然Gmail允许我们自定义标签,但该服务提供默认标签:
主要
社交
营销
收到电子邮件后,机器学习算法会立即将电子邮件分类为这三个标签中的一个。如果Gmail认为它是“主要”电子邮件,我们会立即收到提醒。
当然,Gmail还使用机器学习来确定电子邮件是否是垃圾邮件---一个我们都非常感激的功能。多年来,Google的算法在决定电子邮件是否为垃圾邮件方面变得更加智能。这就是为机器学习算法获取更多数据以后变得非常有用的地方---Google拥有丰富的数据。
谷歌搜索
这大概是最受欢迎的机器学习应用之一。每个人都使用Google搜索,我们大多数人每天都会多次使用它。我冒昧地说,我们理所当然地认为Google将为我们提供最好的结果。
但谷歌搜索如何运作?
Google搜索已成为凡人无法破解的难以捉摸的庞然大物。它的工作原理只有那些设计过Google搜索的人才知道。有一点我们可以肯定地说 - Google使用机器学习为其搜索引擎提供动力。
Google不断训练和改进其算法的数据量是我们无法理解的数字。世界上没有计算器可以告诉我们Google在过去二十年中处理的查询数量。这是数据科学的一个特色!
现在 - 假设您被要求建立自己的Google搜索。你会用什么规则?你会包括什么样的内容?你会如何排名网站?这篇文章将帮助您入门:
谷歌PageRank用简单的语言解释!
https://www.analyticsvidhya.com/blog/2015/04/pagerank-explained-simple/
谷歌翻译
我精通Google翻译的使用。由于Google提供的这项优质服务,我已经学会了德语,西班牙语和意大利语等各种外语。每当我遇到一些外语文本时,Google翻译立即给我答案。
如果您知道Google使用机器学习来理解用户发送的句子,将其转换为所请求的语言并显示输出,那就不足为奇了。机器学习深深嵌入Google的生态系统中,我们都从中受益。
幸运的是,我们了解Google如何使用机器学习为其翻译引擎提供支持。本文将帮助您了解并开始使用该主题:
关于神经机器翻译的必读NLP教程 - 为谷歌翻译提供动力的技术
https://www.analyticsvidhya.com/blog/2019/01/neural-machine-translation-keras/
LinkedInFacebook的推荐和广告
社交媒体平台是机器学习的经典用例。与Google一样,这些平台已将机器学习整合到其结构中。从您的家庭流到您看到的广告类型,所有这些功能都可以通过机器学习来实现。
我们经常看到的“你可能认识的人”的功能。这是所有社交媒体平台,TwitterFacebookLinkedIn等的常见功能。这些公司使用机器学习算法来查看您的个人资料,您的兴趣,您当前的朋友,他们的朋友以及许多其他变量。
然后,该算法生成与特定模式匹配的人员列表。然后向您推荐这些人,期望您可能想要了解他们(或者至少有与您的非常相似的个人资料)。
多亏了LinkedIn的系统,我自己与很多我的专业同事和大学朋友联系。这是机器学习的一个应用,有利于参与该过程的每个人。
我们看到的广告以类似的方式工作。它们根据您的口味,兴趣,特别是您最近的浏览或购买历史而量身定制。如果您是许多数据科学小组的一员,FacebookLinkedIn的机器学习算法可能会建议机器学习课程。
下次使用社交媒体时请注意这一点。这是背后所有机器学习的结果!
销售和营销中的机器学习
世界顶级公司正在使用机器学习从上到下转变他们的策略。两个受影响最大的功能?市场营销与销售!
如今,如果您从事营销、销售领域的工作,需要至少了解一个商业智能工具(如TableauPower BI)。此外,营销人员应该知道如何在日常工作中利用机器学习来提高品牌知名度,改善底线等。
这里有三个流行的营销和销售用例,其中机器学习正在改变他们的工作方式。
推荐引擎
我们之前简要介绍过推荐引擎。我提到这些系统无处不在。但他们在营销和销售领域的用途在哪里?如何?
我们举一个简单的例子来理解这一点。在IMDb(和Netflix)出现之前,我们都习惯去DVD商店或依靠谷歌搜索要观看的电影。店员会给我们一些可以看什么的建议,我们经常拿一些我们不知道的电影。
由于推荐引擎,这个世界几乎完全过去了。我们可以登录网站,它会根据我的品味和以前的浏览历史向我推荐产品和服务。一些流行的推荐引擎示例:
亚马逊和Flipkart等电子商务网站
预订网站,如Goodreads
IMDbNetflix这样的电影服务
酒店网站,如MakeMyTripBooking.com等。
StitchFix这样的零售服务
ZomatoUber Eats这样的食品集散商
名单还有很长。我们周围的推荐引擎无处不在,营销和销售部门比以往任何时候都更倾向于吸引(并留住)新客户。
我鼓励您阅读这篇关于如何构建自己的推荐引擎的初学者友好教程:
从头开始构建推荐引擎的综合指南(Python
https://www.analyticsvidhya.com/blog/2018/06/comprehensive-guide-recommendation-engine-python/
个性化营销
推荐引擎是个性化营销的整体概念的一部分。这个概念的含义在于名称本身---它是一种根据个人需求量身定制的营销技巧。
想想:您从“免费”提供服务的信用卡或贷款公司获得多少电话?这些调用提供相同的服务而不了解您想要(或不想要)的内容。传统营销现在已经过时,远远落后于数字革命。
现在想象一下,如果这些电话或电子邮件对您的兴趣高度个性化。如果你是一个大购物狂并反映在你的购买历史中,消息可能是关于扩展你的信用额度的新服务。或者,如果您是机器学习爱好者,电子邮件可以提供适合您口味的课程。
老实说,个性化营销的潜力巨大。机器学习有助于识别客户群并为这些细分市场定制营销活动。您可以通过开放率,点击率等指标定期检查广告系列的效果。
我强烈建议您阅读以下指南,这将有助于您重塑您的数字营销策略:
每个数据科学专业人员必须阅读的数字营销和分析综合指南
https://www.analyticsvidhya.com/blog/2018/12/guide-digital-marketing-analytics/
客户支持查询(和聊天机器人)
如果您曾经处理过客户支持,您将在非常个人的层面上理解这一点。那些可怕的电话,无休止的等待,未解决的查询---这一切都增加了非常令人沮丧的用户体验。
机器学习有助于消除所有这些障碍。使用自然语言处理(NLP)和情感分析的概念,机器学习算法能够理解我们所说的内容以及我们所说的基调。
我们可以将这些查询大致分为两类:
基于语音的查询
基于文本的查询
对于前者,机器学习算法检测消息和情绪以将查询重定向到适当的客户支持人员。然后他们可以相应地处理用户。
另一方面,基于文本的查询现在几乎完全由聊天机器人处理。几乎所有企业现在都在他们的网站上利用这些聊天机器人。他们消除了等待的障碍,并立即提供答案 - 因此,一个超级有用的最终用户体验。
我们已经汇总了两篇关于如何构建聊天机器人的文章:
了解如何使用Rasa在几分钟内构建和部署ChatbotIPL案例研究!)
https://www.analyticsvidhya.com/blog/2019/04/learn-build-chatbot-rasa-nlp-ipl/
Python构建FAQ Chatbot - 信息搜索的未来
https://www.analyticsvidhya.com/blog/2018/01/faq-chatbots-the-future-of-information-searching/
安全业中的机器学习
机器学习也扰乱了安全行业!传统安全的日子里,保安人员常常坐了好几个小时,注意车辆数量下降和阻止可疑人员--- 这种情况正逐渐被逐步淘汰。
企业正在使用机器学习来更好地分析威胁并应对对抗性攻击。这些用例扩展到线上线下的威胁(银行欺诈,金融威胁等)。
视频监控
全球组织正在使用视频监控来执行各种任务,例如检测入侵者,识别暴力威胁,捕获犯罪分子等。
然而,所有这些都不是手动完成的。这将花费大量时间。因此,机器学习算法正被用于放置在这些监视摄像机内的软件。
这些机器学习算法使用各种计算机视觉技术(如对象检测)来识别潜在的威胁并逮捕违法者。
这是一个非常独特的安全机器学习用例:
“天空中的眼睛”是一个机器学习项目,可以检测人群中的暴力人群
https://www.analyticsvidhya.com/blog/2018/06/eye-in-the-sky-is-a-machine-learning-project-that-detects-violent-people-in-crowds/
网络安全(Captchas
“我不是机器人” - 这句话似乎很熟悉吗?当网站怀疑它正在处理的是机器而不是人类时,我们经常遇到这个按钮。
这些测试称为CAPTCHA,是完全自动化公共图灵测试的缩写。我们被要求识别交通灯,树木,人行横道和各种物体,以证明我们确实是人类。
交通灯和树木被其他物体覆盖,汽车越来越模糊,人行横道越来越远,以及各种各样的复杂情况。为什么网站让我们的生活更加困难?答案就在于机器学习。
Verge网站说得最好:
“因为CAPTCHA是用于训练人工智能的优秀工具,所以任何给定的测试都只能是暂时的,这也是发明者在一开始就承认的。随着所有这些研究人员,骗子和普通人在人工智能可以做的门槛上解决数十亿个谜题,在某些时候机器将会通过我们。”
因此,Google正在使用机器学习来使CAPTCHA变得更加复杂。研究人员正在使用图像识别技术破解这些CAPTCHAS,从而提高后端的安全性。
财务领域的机器学习
机器学习中的大部分工作都面向金融领域。这是有道理的 - 这是数字领域的极端。直到最近,许多银行机构都习惯于依靠逻辑回归(一种简单的机器学习算法)来处理这些数字。
金融机器学习有很多用例。让我们来看看你(很可能)遇到的两个非常常见的问题。
在银行业中捕获欺诈行为
你曾经是信用卡欺诈的受害者吗?这是一次痛苦的经历。银行要求您填写的文书工作量加剧了欺诈的冲击。
值得庆幸的是,机器学习正在解决这个过程的不同层面。从欺诈检测到欺诈预防,机器学习算法正在改变银行改善客户体验的方式。
这方面的挑战要跟上网络威胁的程度。这些对手在每个阶段都比曲线前两步。一旦最新的机器学习解决方案出现,这些传感器就会完善它并构建在它之上。
话虽如此,机器学习肯定有助于简化流程。这些算法能够识别欺诈性交易并标记它们,以便银行可以尽快与客户联系以检查他们是否进行了交易。
一个很好的例子就是看消费者的消费模式。如果购买不符合此模式(金额太高,或来自其他国家/地区等),则算法会提醒银行并将交易置于保留状态。
以下两篇由网络安全和机器学习专家撰写的文章解释了如何构建强大的恶意软件检测模型:
利用深度学习的力量实现网络安全(第1部分)
https://www.analyticsvidhya.com/blog/2018/07/using-power-deep-learning-cyber-security/
利用深度学习的力量实现网络安全(第2部分)
https://www.analyticsvidhya.com/blog/2019/05/using-power-deep-learning-cyber-security-2/
个性化银行业务
推荐引擎的另一个用例是专门针对银行领域的。此时您必须非常熟悉个性化 - 所以在进一步阅读之前,请考虑个性化银行业务可能意味着什么。
我们已经了解了针对客户微观部门并为其定制优惠的银行。个性化银行业务将这一概念提升到一个全新的水平。
理想的个性化方案是使用机器学习来预测用户的需求并针对每个人的细分。正如BCG的报告所述:
“银行业的个性化主要不是出售。它是关于提供服务,信息和建议,通常每天,甚至一天几次。与不常见的销售沟通相反,这种互动形成了客户银行体验的关键。”
阅读完整的BCG文章:
银行业的个性化意味着什么?
https://www.bcg.com/publications/2019/what-does-personalization-banking-really-mean.aspx
其他主流机器学习用例
我想将这部分机器学习用例包含为一个单独的类别。我会不断更新这一部分,让我们先来看看一个非常有趣的用例 - 自动驾驶汽车!
自动驾驶汽车
在我们在本文中介绍的所有应用中,自动驾驶汽车最让我着迷。这是我们使用硬件和机器学习所取得的成就。
自动驾驶汽车的优点在于机器学习的所有三个主要方面 - 监督,无监督和强化学习---在整个汽车的设计中使用。
以下是使用机器学习的自动驾驶汽车的一些功能:
检测汽车周围的物体
检测前方车辆,人行道所在位置和交通信号灯之间的距离
评估驾驶员的状况
场景分类,以及许多其他事情。
小结
我们生活在机器学习的黄金时代。你必须想象这个美妙的领域的广阔和无限的可能性。
你还可以通过 Analytics Vidhya's Android APP阅读本文
作者简介:
Pranav DarAnalytics Vidhya的高级编辑。数据可视化从业者,喜欢阅读和深入研究数据科学和机器学习艺术。一直在寻找使用MLAI改进流程的新方法。
原文链接:
https://www.analyticsvidhya.com/blog/2019/07/ultimate-list-popular-machine-learning-use-cases/
补充阅读:
https://www.analyticsvidhya.com/blog/2017/09/common-machine-learning-algorithms/?utm_source=blog&utm_medium=ultimate-list-popular-machine-learning-use-cases
封面图来源:pexels by rawpixel.com
BD最佳实践案例,赢DT未来!
18各行业,106个中国大数据应用最佳实践案例:
1)《赢在大数据:中国大数据发展蓝皮书》;
免费试读:https://item.jd.com/12058569.html
2)《赢在大数据:金融/电信/媒体/医疗/旅游/数据市场行业大数据应用典型案例》;
免费试读:https://item.jd.com/12160046.html
3)《赢在大数据:营销/房地产/汽车/交通/体育/环境行业大数据应用典型案例》;
免费试读:https://item.jd.com/12160064.html
4)《赢在大数据:政府/工业/农业/安全/教育/人才行业大数据应用典型案例》。
免费试读:https://item.jd.com/12058567.html
原文链接:https://mp.weixin.qq.com/s/tR74qr4IhmN991PL75-Rig
编辑:陈茗

微信图片_20190718121653.jpg (115.23 KB, 下载次数: 57)

微信图片_20190718121653.jpg

作者: 刘海明    时间: 2019-7-18 21:45
【案例】
北京邮电大学刘伟教授:人机融合与混合智能的新应用场景
前言:本文是北京邮电大学人机交互与认知工程实验室主任、科技委人机融合智能组首席科学家刘伟教授就混合智能的产生、起源和新应用场景所做的深度阐述。
第一部分是刘伟老师从新书《崛起的超级智能:互联网大脑如何影响科技未来》延伸的关于人机融合的思考和评论
混合物是两样物质混在一起,没发生化学变化,仍是两种物质。如把沙放进水里等物理变化。融合物是由两种或以上元素组成的物质,指的是一种物质。如一氧化碳CO,是由C元素与O元素组成的化学变化。
所以,人机混合智能中人机界面分明,然而,随着自主系统的不断发展,人、机在物理域、信息域、认知域、计算域、算计域、感知域、推理域、决策域、行为域的界面越来越模糊,你中有我,我中有你,融合在一起的趋势越来越显著,所以人机融合智能较能反映真实的人机相互作用、相互影响关系吧。
一直认为人工智能只是人类智能可描述化、可程序化的一部分,而人类的智能是人机()环境系统相互作用的产物。所以,智能生成的机理,简而言之,就是人物(机属人造物)环境系统相互作用的叠加结果。由人、机器、各种环境的变化状态所叠加衍生出的形势、局势和趋势(简称势)共同构成,三者变化的状态有好有坏、有高有低、有顺有逆,体现智能的生成则是由人、机、环境系统态、势的和谐共振大小程度所决定的,三者之间具有建设性和破坏性干涉效应,或增强或消除,三位一体则智能强,三位多体则智能弱。如何调谐共频则是人机融合智能的关键。
认真阅读了刘锋老师的《崛起的超级智能》一书,发现互联网大脑就是人、机、环境系统和谐共振的绝好类比,也许这就是强智能体、超级智能体吧!能够发现这个角度并切实开展有效地研究,确是一件令人愉悦幸福的大事,为之点赞!
二部分是刘伟老师关于人机融合,混合智能的演讲内容《《未来智能产业:从人机融合视角出发》》
现在人工智能已经发展到一个非常热的程度,人工智能下一步应该怎么走?今天分享这个话题的同时,我也提出一些个人看法,因为人工智能发展的趋势促使很多产业飞速进步,同时也带来一些问题,这些问题怎么克服呢?
今天我给大家演讲的题目主要侧重于技术,主要从人机融合的视角出发,看未来智能产业的发展。未来的产业发展,我认为有两个很突出的特点:第一个是传输,5G时代已经到来,相比以前4G3G,这个时代的到来将会引起信通革命性的变化。而人工智能现在也走入一个新的时代,这个时代将从以前关于算法的、数据的和算力的,走向了与人结合、与用户结合、与设计师进行结合、与体验进行结合,这个结合将会影响整个未来人工智能领域的发展。
以前人工智能有三大领域,这是三个最有代表性的人工智能的系统或平台。
第一个是1997年打败卡斯帕罗夫的深蓝系统。当时它赢得了一片赞赏,为什么会赢得那么大的振动?因为在人类历史上第一次出现了机器比人类更强大的一个概念,这个概念的引入使大家有兴奋也有担忧,这个担忧实际上卡斯帕罗夫用他的实验来验证是多余的,为什么多余?很多专家做过类似的案例分析,我在这里不再赘述。
卡斯帕罗夫下来以后,他与另外一台计算机一起,和深蓝又进行了博弈。在博弈过程中,卡斯帕罗夫认为他和一台机器结合在一起,还不如他一个人和深蓝进行博弈,1+1没有大于1,而是1+1小于1。这个现象给大家一个错觉,原以为人和机器结合在一起形成比人更强大的力量,结果适得其反,尤其是在智力上,在生理上。汽车、飞机这些传统运输工具已经把人的体力进行了革命,但是在智力上却没有做到类似的工作。
第二个是沃森。这个系统是IBM开发的又一个非常厉害的人工智能产品,但这个产品只能对固定式、确定式的问题进行快速、准确、大容量的搜索和回答,对主观性、描述性问题往往回答得不是太好。因为人类对这两个“How”和“Why”没有很好地回答,机器代替人类,目前看来还是比较遥远的梦想,这个梦想在智能医疗上进行了验证,现在IBM在医疗上做得不是太理想。
第三个是阿尔法狗。它分别在围棋和游戏当中取得了令人瞩目之成绩,但是它们同样也存在着一个问题:计算和认知隔离,只有计算没有认知。通过这三个系统和产品,我们可以看出目前人工智能发展存在的主要缺点及不足。
我们认为,未来的趋势是人和机器进行融合的时代,这个时代分为以下几个部分:深度开发人类的潜能,比如说人的洞察意识,人的认知;第二个是要把机器的计算和人的配合结合在一起,不是为了快,不是为了精确,不是为了更大的精确容量而进行评比,而是为了更好地与人结合。我希望在座的企业家、投资人和用户一定要关注这个,因为你的产品再高档、再牛,如果没有黏性,再好的人工智能产品也就是一个广告,也就是一个阿尔法狗,阿尔法狗就是一个大广告,因为它不实用、不落地。所以,未来的人工智能发展将以人机融合、智能的贴合度、混合的密切程度来衡量。它主要表现在几个方面:
第一,主动推荐。未来的产品一定要有主动性,什么叫主动,什么叫自主?这个概念我问了很多人,很多人都回答不了。其实这个问题非常抽象,自主和主动这种产品一定包含心理学,甚至包含哲学。比如,主动包括了记忆,但存储不是,存储是精密的,记忆是抓特征的,它包括了期望、匹配、选择、控制等一系列模块。所以主动系统非常复杂,目前我们碰到的系统里边能做到主动的非常少,因为在咱们的团队里边大部分都是理工科,刚才我听了一下,说是博士多少人,我给大家说,刚才我说的那三个系统,深蓝、阿尔法狗还有阿尔法星还有IBM的沃森,他们的团队里面有大量的复合型人才,阿尔法之父是剑桥大学计算机系的研究生,他特别喜欢围棋和国际象棋,而且对经营管理和商业有浓厚的兴趣,他是非常复合的人才。在这些好的系统里面一定要有复合型人才的参与,而不仅仅是博士、硕士,而不仅仅是海归,如果没有复合型人才,大家要小心。
第二,交互学习。这个复合程度如何有机结合在一起,表现在一个很重要的特点就是交互的学习。一个系统如果没有非常好的学习性,只是人类的学习性,而不是机器的学习性,因为现在大家看很多学习,动不动是机器学习,循环神经网络之类,大家注意,那是个隐喻,并不是真正的学习。人类的学习和机器学习最大的不同,人类学习能够产生一个范围不确定的隐性的知识和秩序,这个东西机器学不来的,这种隐性的东西造成意料之外的事情。比如一些孩子的成长过程中,今天学了一个概念,他们会在你意想不到的地方使用这种概念,机器做不到,机器很难形成隐性的知识。
第三,高效容错。这个能力是人与人之间打交道时天然具有的一种能力,而机器恰恰就非常欠缺这种人机容错的能力,它非常的规则、非常的概率、非常的统计,但是它很少容错。这就造成人机之间的大范围或深度的割裂。所以说,现在人机交互最好的产品是什么?就是它,目前在这个星球上人机交互最好的一个案例——手机。你用手机的时候,从来不会和它过不去,所以很多大型的人工智能,它的切合度非常差。
第四,混合决策。在所有的人机融合过程中,混合决策里边有很重要的特点,就是人带有责任性、带有风险性,机器没有,机器没有任何的责任、没有任何的风险,它决策的结果敢不敢用还是由人来定。所以这四方面造成人机融合里边非常大的困难。大家在选择好的项目、好的产品、好的系统的时候,也要考虑这四个方面。
我们对人机结合有三个认识:第一个认识是人机交互,第二个是人机融合,第三个深度测试感知。人机交互很简单,就是脖子(图)以下,人的生理和机器的物理进行结合,包括可达域、视域、听域,这种就叫做人机交互。对于脖子以上,人的大脑和机器的电脑进行融合的时候叫做人机融合,人机智能融合。目前最差的是人机智能融合,而研究人机智能融合的切入点实验室在做深度态势感知。
刚才几位嘉宾在谈整个投资形势和行业结合的时候,有一位嘉宾提到了态势,大家注意,态势感知非常重要,有了视感、有了态感,能够感、能够知,这个事情就好办了。我们把深度测试感知分成了五大块:第一是深度,第二是态空间,状态空间,第三个是趋势,第四个是感觉,第五个是知觉。它是人机融合的切入点,它涉及的范围非常广,不但涉及到数理和物理,而且涉及到管理、生理和心理,以及像法理等等这些环节,它是一个复合型的概念。
目前我们深度测试感知了一下当前的人工智能发展,我们做了一个小小的比喻,可能不是很恰当:第一,计算智能,目前认为现在的计算智能就像第一个图叫做刻舟求剑,试图用过去的数据来描绘未来,这是很可怕的一个陷阱。第二,感知智能,我们比喻成盲人摸象,只知一点,不知全局。第三,认知智能,我们叫做朝中丞相,简单的切换,没有产生更厉害的,大家期望得到的东西。第四,塞翁失马,一个项目经理能够产生塞翁失马的洞察力,能不成吗?这是我们给大家的建议。
人机融合对未来产业的影响,我给大家做一个简单的展望。
第一,关于5G它的发展,更大的带宽、更快的速度、更低的延时以及更高的可靠性,它的本质就是在人机融合里面,把人、机和环境变成一个大系统来看。人、机、环更重要的是人,什么样的人,包括设计师、用户、管理者、投资者都是人。机包括两块,一个是你的系统或产品,第二个是机制、机理,机制是管理科学,机理是科学方面。第三个是环境,包括自然环境、社会环境以及团队的协同环境,任务环境、目标环境,这些都是环境。所以人、机、环是解开人机融合的一把重要的钥匙。
人机共融可以实现未来的产业互联,它主要体现在以下这几个方面:第一,精准的感知,第二,深刻的画像,第三,自然的交互,协同的感知和计算算机的融合,包括5G结合在一起实现更快、更高、更强。
人机融合的布局将会影响整个社会的发展,从人的饮食起居到国民经济,这是一个非常重要的领域,在这个领域里面,我们对To B创业的建议有三块:一是要找对人,要找到复合型的人或复合型的团队,除此之外,还要有一项特别强,在某一个单项方面一技绝胜,把对手甩得远远的,未来颠覆性创新在复合型人才或者边缘的交叉上。二是要产生正确的机制,不但要有好的机器产品和系统,还要有良好的管理机制,这个机制对保障整个团队的运行和系统的稳定性、可靠性非常有帮助。三是好的环境,有无良好的上下游环境和发展空间等。
在这儿给大家强调一点,现在技术和资本的矛盾愈演愈烈,周围有很多朋友抱着非常好的技术,不敢让他们(猎云网注:指资本)参与。我问过他们,他们说怕被“绑架”,不知道大家理解不理解?资本希望短期内有回报,但是这种迫切性往往是很多技术不敢主动出击,不敢积极地容纳。同样,一些好的产品和技术需要链,需要资金链、物质链、供应链,更重要的是需要认知链。一定要有认知链,关键核心的东西是塞翁失马这个洞察,你得透过表面现象看本质,有这个能力再下手,可能更准确、更可靠、更稳定。如果养成不了这种习惯的话,对于很好的技术,在你眼里很可能就是一块石头,它不是一块玉。所以通过我个人的一些体验或者一些感觉,我提出一个想法,大家一定要洞察,除了计算、算计和感知、认知以外,更重要的是形成洞察,形成洞察以后会产生意想不到的结果。
另外,还有一个现象,在人机融合里面,其实人更多做一些正确的事儿,把握方向,它更关注势,把握趋势。机器要正确地做事儿,它关注态,状态空间,能够算得快、算得准。而人把握方向,有点像老婆和老公的关系,老婆在家里一定要把握方向,老公好好干活,这是对人机融合的一个肤浅的理解。
编者按:《崛起的超级智能;互联网大脑如何影响科技未来》20197月中信出版社出版,刘慈欣、张亚勤、周鸿祎、王飞跃、约翰.翰兹联合推荐,刘锋著。
这是一部力图破解21世纪前沿科技大爆发背后的规律与秘密,深度解读数十亿群体智慧与数百亿机器智能如何经过50年形成互联网大脑模型,详细阐述互联网大脑为代表的超级智能如何深刻影响人类社会、产业与科技未来的最新著作。
原文链接:https://mp.weixin.qq.com/s/YWq41nHzpzcASL0NNn0NuQ
编辑:陈茗


作者: 刘海明    时间: 2019-7-18 21:53
【案例】


央视主持人尼格买提进群打假被踢,律师:侵犯肖像和名誉权

想提高普通话水平的朋友可以进群了,央视主播在线指导,每天10分钟,让你的声音更动听,让普通话更标准,不走音,不尴尬,让讲话更有说服力!我已加入,强烈推荐!”

这是中央广播电视总台主持人尼格买提在一个自称“央视主播在线指导提升普通话水平”的微信群打假时,群里发布的广告语。717日晚,尼格买提发微博称,在进入前述微信群打假时,被踢出群。




央视主持人@尼格买提 微博截图

该微信群名为“尼格买提在线指导提升普通话水平”。

尼格买提公开的聊天截图显示,他在群里提醒,“我是尼格买提,这个群和广告都是骗人的。大家别上当!!!别再发了,全是假的。”

但微信群的管理员“何老师”连发三个问号,并称,“亲,您在骗人呢?”尼格买提随后被移出



尼格买提在微博中表示,“很多人私信问我,据说还有好几个群,大家千万别上当,这事我没参与,更不知道。”

尼格买提在微博评论中回复网友称,据他了解,进该微信群会被要求转发活动海报,并要求截图发回群里。





18日下午,澎湃新闻(www.thepaper.cn)扫描印有尼格买提照片的活动海报二维码,但显示目前已无法加群,该海报提及“仅限前70名免费;零基础跟着央视主播免费学习”。

就此事,北京市社会组织法律调解中心副理事长张新年律师在接受采访时表示,在这起“李鬼遇李逵”的事件中,冒名者首先侵犯了尼格买提依法享有的姓名权。视事件的具体情节,行为人亦可能同时侵犯了尼格买提的肖像权或名誉权。尼克买提可依据《侵权责任法》的规定,要求侵权人承担包括但不限于停止侵害、赔礼道歉、消除影响、赔偿损失等侵权责任。





此外,张新年指出,侵权人冒名卖课的行为也可视为一种欺诈行为,依据《消费者权益保护法》的规定,经营者应当保证其提供的商品或服务“如其所说”,不能做虚假或引人误解的宣传。在这起事件中,侵权人以尼格买提的名义销售课程的行为已经属于一种以欺骗手段使消费者因陷入错误认识而处分财产的欺诈行为,受骗的消费者可依据《消费者权益保护法》第五十五条的规定,要求侵权人承担损失三倍的惩罚性赔偿。

张新年说,同时需要强调的是,结合事件的现有情况,尚不能排除侵权人具有相应的非法占有目的。倘若如此,则可视侵权人因欺诈获得不法收益的数额情况判断侵权人是否涉嫌诈骗罪。若经有关部门认定涉嫌罪名属实,则依据《刑法》规定一般可判处三年以下有期徒刑,情节特别严重的则最高可判处无期徒刑并处罚金或没收财产。


原文链接:http://www.sohu.com/a/327737304_260616?spm=smpc.news-home.top-news5.2.1563444021133qCZtlYK




编辑:陈茗


作者: 刘海明    时间: 2019-7-18 22:06
【案例】
智能手机的屏幕进化和电子媒介的物竞天择
疾风知劲草,折叠屏的到来,让电子媒介又迎来一轮物竞天择。
按照中国农历,十二生肖就是一轮。今年是己亥猪年,上一轮的丁亥猪年,智能手机面世了。
新装备一经亮相,两个元素让人眼前一亮:一个是触控界面,改变了人们操作手机的习惯,由指尖的敲键盘变成指肚的滑屏幕,立刻如丝般顺滑;另外一个是应用商店,改变了人们使用软件的习惯,原来的网站下载,变成了商店购买,PC软件几年光景就将大位禅让于手机APP
还有一个改变更加直观,就是屏幕尺寸的放大。在iPhone流行之前,手机屏幕的平均尺码是2.3英寸,iPhone将参数提升到了3.5英寸,足足大了50%还多。
但似乎是云深不知处,身在此山中,这个改变却被人忽视了,漠视的人群里甚至包括智能手机的开山鼻祖乔布斯自己。有他的断言为证,“没有人会想买一个更大屏幕的智能手机”。这句话,和IBM的创始人托马斯·沃森那句,“全世界只需要5台电脑就足够了”,共同被载入“名人不一定都说警句,还可能说惊句”的史册中。
>>> 第一次进化:媒介变革,信息刷新
屏幕之变为何如此之重,因为它的每一次进化,还关乎媒介的变迁。消费电子产品常迭代,经典学术思想不过时。
现代传播学大师麦克·卢汉五十年前在《理解媒介:论人的延伸》做出预言,真正有意义的信息不是媒介上承载的内容,而不断发展变化的媒介本身。当媒介改变了传播和接收信息的方式,人类社会的生活方式和生产方式也会随之而变。这句话不太直观,我们可以举个例子,从报纸到电视再到手机,其实就走了这样一个过程。
比如报纸是需要二次理解的文字媒介,电视是直观的影像媒介,这两种媒介传递信息的方式不同。影像的电视相比文字的报纸而言,更有娱乐性和传播力。麦克·卢汉的意思是,报纸和电视这样的媒介载体,才是传播的主角,什么样的媒介,如同什么样的酒瓶,决定了其中装什么酒(内容)。
屏幕尺寸的改变,就是手机这个电子媒介的容器,它改变了手机介的属性。当手机屏幕在2.3寸,甚至1.5寸之下时,手机更像一个声音媒介,人们使用手机主要是接受和发送“声音”信息,用说人话来解释,就是打电话。
短信、邮件功能的存在固然为手机增加了一点点些许文字媒介的属性,但是却没有改变声音媒介的实质。手机不像村里的广播站,能够一对多广播,手机这种声音媒介是一对一的。这就注定了当时的功能手机,只是一个通讯工具,无法形成网络效应,这种媒介的传播力也是有限的。
但是当智能手机将屏幕尺寸提升到3.5寸之后,手机这种媒介的属性发生了根本变化,它由一个声音媒介,成了一个更趋近于电视的,更加直观的影像媒介。
智能手机这个影像媒介,毫无疑问又超越了电视。作为移动通信终端,它既可以接收,又可以发送信息,是电视只有下行信息的单通道媒介远不能及的。能够实现一对多传播的智能手机,通过微博、微信这些新APP,宣告了移动互联网时代的到来。
>>> 第二次进化:是屏大显脸小,或领先者迟钝
不过正如开篇所说,即使是智能手机的开创者,也没能认识到屏幕尺寸会成为媒介变革的驱动力。因此手机屏幕的第二次进化,故事不再由苹果书写,亚洲公司引领了风潮,华为公司就是其中重要一员。当然,事后有很多人说,其实大屏幕手机显脸小,才是亚洲掀起大屏幕手机浪潮的关键,才没人想到是啥媒介传播论,窃以为是。
不过无论如何,大屏幕手机浪潮开始了。2013年的3月,当时的智能手机新军华为发布了第一代Mate系列手机,屏幕尺寸达到了惊人的6.1英寸,不仅超过了半年后发布的iPhone 5S4英寸)屏幕尺寸的50%,甚至也超过了同样是半年后发布的三星Note35.7寸)。
手机屏幕尺寸的变化,不止在视觉上带来惊人的效果,还带来了一系列周边因素,更大的屏幕,让机身有更大的尺寸,就让更大的电池空间和更佳的续航能力成为可能,这些硬件因素创造了和苹果手机完全不同的差异化消费者体验。消费者不再对iPhone迷信,其实就是从能显脸小的大屏幕智能手机开始的。
终于,乔布斯过时之后,苹果公司不再坚守创始人的祖训,2014年的9月,苹果的大屏幕手机iPhone 6 Plus5.5英寸)也对外发布了。时间上看,苹果落后了竞争对手超过18个月,这在瞬息万变,由摩尔定律主宰的高科技行业,似乎有一个世纪那么慢和长。
我们对大屏幕尺寸的推崇,不仅有麦克·卢汉的理论依据,也有市场数据的实际支撑。直播类、短视频类应用,就是随着手机屏幕的变化而风生水起的。不妨在这里整理一下关于移动影音的重要时间节点,2013年可以看作一个分水岭。重要的APP都是在2013年之后才出现。201310月,快手转型为短视频社交平台;20153月,一直播(前身)和映客接连面世;再次一年,抖音也出现了。大屏幕手机出现之后,“娱乐至死“的后移动互联网时代到来。
正所谓老大和老二吵架,老三饿死了,商业领域往往充斥着这样的误伤事件。有网友总结出一系列事件:王老吉PK加多宝,和其正消失了。360PK金山,卡巴斯基消失了。可口可乐PK百事可乐,非常可乐消失了。
在苹果PK亚洲公司PK大屏幕智能手机时,也误伤了一个对象,它就是平板电脑。当手机的屏幕不断扩张,本来拥有更大尺寸的平板电脑成了首当其冲的对象。根据IDC去年公布的数据,全球平板电脑市场连续16个季度下跌,16个季度前,算起来正好是大屏幕手机崛起的时间。6英寸的智能手机,过去四年来侵蚀了8-10英寸的平板电脑的市场空间。
因此回过头来看,屏幕尺寸的二次进化,其实已经埋下后来智能手机市场格局变化的种子——原来市场老大可能真的忽视消费者的需求,让第二阵营者可以后来居上。
>>> 第三次进化:两栖适配,折叠生态
智能手机的屏幕扩军仍未结束,但是路径和传统迥异,摆在设计师面前的是物理极限。
一方面,我们已经知道了屏幕尺寸的增加,将有可能创造新的媒介形态,和唤起消费者的市场热情;另外一方面,我们又屏幕的尺寸增加又是有瓶颈的,受制于手持需要的绝对上限,6英寸之上的终端,已经无法适用于移动场景。消费者在耳旁拿个红砖或许还能理解,非让他们再举起一块大两号的青瓦就过于为难了,尽管这东西更显脸小。
思量之下,智能手机厂商将目光共同投向了折叠屏。
折叠屏,顾名思义,是通过使用柔性材料,实现屏幕弯曲折叠的技术,一方面满足了扩大屏幕尺寸,一方面由于折叠屏具备伸缩性,这就又解决了手持问题。我一直怀疑,中国古代诗人肯定觉得这个主意早就应该想出来了。需要的时候可以变大,不需要的时候,能折叠起来放在手里,这东西不就是扇子么?或许折叠屏手机的英文不应该叫Foldable Phone,而应该叫Fold Fan(折扇) Phone。折叠平手机营销时,折扇实在是再好不过的象征元素。
或许也是由于谷歌等公司,已经尝试过VR眼镜地能够其他扩充视野尺寸而未果,折叠屏正在成为剩下的唯一解有关,终端厂商对折叠屏幕信心很足,率先在业内发布了折叠手机的华为就是课代表。华为消费者业务CEO余承东在接受媒体采访时展望,“两年内,华为旗舰阵营的手机中,一半会是可折叠屏形态”,可以说,两年内一半,是一个相当高的比例,和相当快的成长速度。
但是和之前单纯扩张屏幕相比,折叠屏也带来了更多的适配复杂性,因为这涉及到了复杂的切换适配问题。
因为一折一叠之间,屏幕的尺寸发生了成倍的变化,再加上屏幕比例不同(折叠之前的正方形,和折叠之后的长方形),APP的适配难度几何级数上升。
如果APP的大小屏幕切换,如iPad/iPhone那样单纯缩放,消费者的体验一定很糟糕,方形大屏一定会有上下黑边;再如果不同APP的折叠显示方式,完全不同,或者没规律可循,消费者体验也一定很糟糕,一个APP一个单独的操作方式,一定会让消费者的手眼一起崩溃。
在手游领域,双形态游戏角色总是更难玩,在技术领域,双形态设备总是最难驾驭,这样的历史,在为了支持平板/笔记本双切换的Windows8上,已经演习过一次。如同两栖动物在水上和陆地,是完全不同的生存法则。
因此,虽然屏幕的折叠只需很小的力气,但是要实现完整流畅的应用体验,却需要整个软硬件生态的协作,一来需要业界共同想一想,什么设计体验最合理,二来大家如果能统一设计理念,每个APP的消费者使用成本都会降低。
作为折叠屏幕手机的先行者,华为看到了这个痛点。于是,智能手机的设计者,成了折叠屏生态的组织者。
7月中,华为把阿里巴巴、百度、携程、金山WPS等等在内的数十家互联网应用开发者请到家中,讨论折叠屏UX(用户体验),具体话题涉及折叠屏特点及设计挑战、折叠屏基础体验及设计要求、界面布局设计和界面信息架构设计,以求优化折叠屏手机的APP体验,寻求折叠屏APP设计的共识。
当然,APP开发者们也认同生态共建的思路。一位与会者在朋友圈这样总结参会感受:“今天来华为北研所参加折叠屏UX设计规范研讨会,基本互联网大公司的设计师都来了……华为做事还是很认真的,探讨折叠屏幕做全新的设计和交互……适配未来估计会成为折叠屏的核心竞争力”。
如若麦克·卢汉理论所断,折叠屏幕的变化,或许又将创造一次媒介革命。此情此景,智能手机从业者似乎无法躺在既有路径里安睡了,更何况多数人并没有苹果的18个月可以任意挥霍。
电子邮件让Blackberry黑莓手机大放异彩,iOS/安卓手机又促成了微信对QQ的社交平台替代。每一次媒介换代,也是新一轮APP,甚至手机媒介本身的催生、迭代抑或洗牌过程。
疾风知劲草,折叠屏的到来,让电子媒介又迎来一轮物竞天择。大概是搞不好“Fold Fan”,就很难“Find Fans”吧。
原文链接:https://mp.weixin.qq.com/s/bCjzqJbbP2PUfgPVxBiYMw
编辑:陈茗


作者: 刘海明    时间: 2019-7-19 08:20
【案例】

为什么技术进步让我们越来越焦虑不安?
陈季冰:技术进步究竟给我们带来了多少货真价实的福利?还是我们只是在忙忙碌碌和变动不居中收获了一些假象而已?


更新于2019年7月18日 03:05 陈季冰 为FT中文网撰稿
“中国是个匆忙的国家。”

这是谷歌董事长埃里克•施密特两年多前在中国举行的某个论坛上说的,这句话想必激起了非常多的共鸣。然而我现在越来越肯定的一点是:“匆忙”并非中国独有的特征,它是我们这个时代的宿命,中国只是因为一些机缘巧合而比较早地同它迎面相遇而已。但不要说本来就也很“匆忙”的美国,即便看起来富足宁静、无忧无虑的欧洲和日本社会,恐怕终究也逃脱不了匆忙的宿命。

这主要是科技进步造成的。

世界历史上很少有哪个时代像今天这样让人处处体验到“一日千里”的速度感,我猜想200-300年前欧洲的科学革命和工业革命时代也无法望当今之项背。并不是说彼时科技进步的广度和深度不如今天,而是说在那个时代,不管牛顿的力学还是瓦特的蒸汽机,知道它们或者受到它们影响的人微乎其微。

今天,每一个人都被绑上了技术进步这辆高速列车。我有时会回想起25年前拥有的第一部像砖块那么硕大沉重的手机,或者20年前接进家里的第一根需要通过电话拨号的互联网网线……那时的我算是领风气之先的极少数了。而现在,任何一个学历不到我一半的外卖小哥使用移动互联网的能力都比我强得太多了。

不过,为什么一日千里的科技进步赐予了我们那么多以前想都不敢想的福利,却依然有人对未来充满忧思?而且这样的人很可能越来越多。他们当中普遍弥漫着对技术进步失控的无力和恐惧,还有相当多的人群中则正累积着一股被这辆技术进步和社会变化的高速列车抛下(正在或有可能)的焦虑和怨忿。

这究竟是每个时代和社会中都曾经飘过的老式怀旧主义和杞人忧天的阴霾,还是一个真实的新问题?它究竟是会自动烟消云散,还是值得认真应对?

这些关于人类生存状况的宏大问题,总会有一些人比大多数人更早关注到。6月下旬,阿里巴巴倡议发起的“罗汉堂”举行2019年度年会,这是一个开放型的研究机构,诺贝尔经济学奖得主、罗汉堂学术委员迈克尔•斯宾塞教授代表罗汉堂发布了“数字经济十问”:

1.福利和挑战的平衡(我们是应该先控制风险,还是先迎接数字技术?);

2.普惠和可持续增长(数字技术会扩大鸿沟,还是会让世界变平?);

3.岗位、工作和收入分配(数据是谁的?谁是真正的受益者?);

4.数据、隐私和安全(数字技术会让更多人失业,还是会让工作时间更短?);

5.协同和组织(谁是平台经济的受益者,是所有参与者,还是少数平台公司?);

6.治理和监管(治理机制要如何改变,才能适应数字时代?);

7.数字普惠金融(金融服务在越来越平民化的同时,会不会引发更多的风险?);

8.国际数字合作(数字时代全球化会走回头路吗?);

9.认知和学习(人工智能该不该有道德观?);

10.技术的伦理和责任(大算力和大数据,一定会让我们离真相更近吗?)。

这十大问题的涵盖面很广,也有足够强的针对性,它们采用的是偏技术性的话语,大概这样比较符合提问者的自我身份定位。我觉得,如果作一番进一步的梳理,用更具人文气息和社会化的话语来描述,它们大致可以被概括为三到四个主要问题,它们也代表了当下很多人对于技术(不仅仅是数字技术)进步所普遍持有的那种欲拒还迎的复杂心态:

第一个问题是:对技术进步失控可能导致的直接灾难性后果的忧虑。

对人工智能前景的恐慌就是这个问题最集中的体现。随着人工智能自我学习能力的不断提升和深化,会不会出现那样一个“临界点”——过了那一点,人工智能将会突然获得独立的自我意识乃至情感,变成一个掌握了无限能力的新统治者,从而将我们人类带进好莱坞大片已经反复描绘过的那种可怕的“黑客帝国”中去?

如果说上面这幅弗兰肯斯坦的画面还有些过于科幻的话,那么通过基因改造而创造“新人”的尝试已经在去年迈出了跨越“临界点”的历史性第一步,而且还发生在中国。2018年11月26日,南方科技大学副教授贺建奎宣布一对名为露露和娜娜的基因编辑婴儿已健康诞生。他的团队对这对双胞胎女婴的一个基因做了修改,使得她们出生后对于艾滋病病毒具有天然免疫力。这个消息掀起了轩然大波,震动了中国和整个世界。许多人深信,有了第一步,就会有第二步,今后,经过基因修改过的“超级人类”的出现将是现有的伦理和法律无法阻挡的趋势。而它对于整个人类的命运来说究竟意味着什么?现在我们都不敢想象。

好莱坞渲染的科幻式的悲惨未来历来就容易打动普通老百姓,但严肃的思想者更关注的是第二个问题:技术进步会不会造成人与人之间差距(鸿沟)的扩大以及固化?

全球化已经背负了这个污名,技术进步看来也很难洗脱“加剧贫富差距”的罪责。按照目前业已清晰可见的趋势,人工智能将会在不久的将来填充许多不需要太多创造性的劳动岗位,特别是中低端的白领岗位。例如酒店、商务楼、银行、电信及各类“窗口行业”的前台接待,办公室文员、会计、出纳、审计、校对,甚至负责日常开药的普通门诊内科医生、广告影视业的一些普通场景等等……

在现代经济中,这些服务业岗位相当于制造业里的“劳动密集型”,吸纳了大量就业。一旦这些岗位被大数据、算法和机器人取代,那么社会上就会多出一大批失业人口。新诞生的岗位局限在编程之类狭窄的技术领域,不可能将他们全部吸纳进去。

基于这样的判断,我的一位朋友经常说,他认为未来社会将会是高度两极分化的:有20%的精英人士,分布在政治、商业、技术和文化领域,掌控着全社会的资源和话语权;还有20%的人口从事着各种无法被机器替代的复杂程度较高的工作,特别是复合型体力劳动,他们的收入或许不低,但没有什么话语权;剩下60%的人则沦为彻底的“无用之物”,他们靠政府或其他机构提供的“嗟来之食”过着衣食无忧但却没有尊严感和自我满足的勉强日子。

如果这个预言成真的话,未来社会就会从现在的“橄榄型”重新变成“哑铃型”。新出现的最严重问题是,中间这60%的人过去都是在自我认同上地位相当不低的所谓“白领中产阶级”,他们的观念和情感构成了现代社会的心理基础。未来如果他们成了无法自己创造财富并获得体面收入的边缘寄生者,这种变化对于社会所产生的影响无疑将是史无前例的。

这样,便自然引出了第三个问题:技术进步所带来的各种“模式变迁(迭代)”会不会猛烈冲击政治和文化的基本稳定,对社会造成难以承受的破坏?

关于这方面的担心,目前展现在我们眼前的有两个截然相反的方向。

第一种担心是上述第二个问题所造成的后果在政治和文化方面的逻辑延续:当权力和财富的两极分化加剧、“失败者”和“无用之人”大量涌现,就必然会有强烈的不满和愤懑情绪散布于整个社会,进而导致民粹主义政治风起云涌。实际上,在西方国家,打着反全球化旗号的民粹主义差不多已经是21世纪第二个10年的主题词了。

必须看到,除了全球化和移民等因素,技术变迁也是其中不可忽略的部分。这里仅举一例:由于主流的传统媒体的衰落和社交媒体的兴起,假新闻和真伪难辨的各种政治阴谋论肆意泛滥。而由算法所掌控的个性化推送则进一步窄化了受众的视野,并强化人们既有的观念和偏见。去年Facebook数千万用户数据泄露事件背后,隐含着明显的试图对人进行洗脑并操控选举的黑暗意图。

更宏观地看,技术进步促成了社会的去中心化、传统权威的失落和等级制的瓦解。旧时代的秩序失败了,但新时代的秩序又没能建立起来,这种真空和混乱是未来一段时间里必须正视和面对的首要问题。

第二种担心则是“反乌托邦”的,即一种基于大数据和现代信息技术的新型极权主义和计划经济模式的复活。人们担心,未来国家会通过无处不在的摄像头和强大迅捷的计算,对公民、社会以及整个国民经济进行更加密不透风的监控的管制。也就是说,技术的不断进步将会对人类自由构成威胁,并终将把我们带到“《1984》式”的恐怖景象中去。

……

相对于前三个具有广泛社会性的问题,最后的第四个问题几乎完全是个体化的:技术进步究竟给我们这些生活在当代的人们带来了多少货真价实的福利?还是我们只是在忙忙碌碌和变动不居中收获了一些假象而已?

这个问题更像是传统文人的多愁善感,然而我认为讨论一下它还是有不小的意义的。

过去,每一个产业,从新兴到衰亡,都会有一段比较长的生命周期。以汽车业为例,它用器械取代了马车之类畜力交通工具,一开始是一种我称之为“模式竞争”的阶段。不过,很快,它就进入了一个长达几十年、甚至上百年的相对稳定期,也就是“品质竞争”的阶段。在这个过程中,不同的汽车制造和销售企业比拼汽车产品的质量、价格和服务……整个产业的持续优化不断地为消费者创造价格更低但质量更好的产品和服务,也为几代劳动者创造了稳定的就业和生计。

今天的竞争情形出现了根本性的变化,所有产业的生命周期都大大缩短了,就连马云和马化腾都时刻怀着强烈的生存危机感。新技术引入带来的几乎全部都是不同模式之间的竞争,很少有人考虑去提高产品或服务的质量,以让消费者获得更好的消费体验。因为你还没有稳定下来好好做一个产品呢,足以颠覆整个产业模式的后继竞争者又来了。当专车、共享单车和外卖电商的各种新模式令人眼花缭乱地纷至沓来时,消费者的出行和饮食水准并没有得到什么真正的提高。说得偏激一点,他们所获得的不过是一些便捷而已,廉价但劣质。

于是我们看到,福特汽车公司成立到现在已经100多年,依然健在;而ofo只存活了不到五年就死了。在这短短三、四年时间里,有多少消费者和相关就业者从ofo这个曾经炫目的“技术创新”中真正获得了多少福利呢?整个社会为了学习、适应、管理它而付出的精力倒是真不少。

相信这也正是大多数普通老百姓对于这个时代的技术进步感到焦虑无措而不是欣喜振奋的重要原因:人们投入(关注度和精力)很多而收获并不多,但如果选择忽视它,则又担心变成时代的弃儿。

与这种越来越短暂的产业周期形成讽刺性对比的是,另一些人眼下却已在探索“永生”的奥秘——无论是通过生物技术让人体长生不老,还是通过信息技术让人脑活动挣脱肉体约束,成为一种纯粹的电子信息存在。

这个时代究竟怎么了?

它肯定有比过去任何时候都更好、更激动人心的地方,但似乎总有哪些地方不怎么对劲。这些问题亟待世界上最聪明的头脑们来解答。

(注:作者是资深媒体人。本文仅代表作者个人观点。责编邮箱bo.liu@ftchinese.com


http://www.ftchinese.com/story/001083657?adchannelID=&full=y

作者: 刘海明    时间: 2019-7-19 22:56
【案例】
要替代人的机器人行业,竟然也有“用工荒”?
62930日,东莞松山湖举行“粤港澳大湾区机器人产业与新工科教育发展高峰论坛”,产业界、学术界、政府人士一起讨论新工科教育。(摄影:邸利会)
撰文 | 邸利会
责编 | 陈晓雪
● ● ●
有一种担心,机器人会抢走人类的工作。眼下在中国,无论是初创企业,还是行业巨头,机器人产业却面临着“用工荒”的难题。
“之前我们觉得东莞这边的人才不行,后来我们去深圳招人,大概看了三四十份简历,也没有一份看得上。”谈起早期创业的境遇,云鲸智能创始人张峻彬告诉《知识分子》。
机器人行业有“四大家族”,来自瑞士的ABB是其中之一,其珠海有限公司总经理王国超却说,“工业机器人行业的发展归根结底在于人才的培养,作为高科技产业,中国工业机器人的人才十分短缺。”
6月底,在东莞的松山湖,一场有关机器人产业发展与新工科教育的论坛正在举行。把产业发展与教育放到一块讨论并不多见,从会上传达出的信息看,机器人行业普遍感到,人才的缺乏已是痛点,如果不改革教育,行业的发展将不可持续。
巨大的缺口
01
作为这次会议的推动者和组织者,李泽湘对人才缺口的问题有着切身的体会。20多年来,作为香港科技大学(下文简称为“港科大”)的教授,他带领学生创业,做孵化器,同时也建立新型的机器人学院,探索工科教育如何适应时代的发展。
他曾做过一个测算,要在粤港澳大湾区发展高科技产业,至少需要每年1.6万名创始人,13.6万名优秀工程师,而目前大湾区每年能提供的创始人顶多420名,优秀工程师只有3.5万,缺口巨大。
具体到机器人行业,虽然粤港澳大湾区领先全国,涌现了诸如大疆这样的优秀企业,但高质量的本土人才培养一直是软肋——很多初创企业的创始人和工程师是来自香港或者内地别的省份。如今,吸引外地人才变得越来越困难,其他城市,如杭州、西安等也加大了人才引进的力度。
过去的几年,得益于需求牵引和有利的产业政策,中国的机器人企业、机器人产业园区如雨后春笋般建立——从事机器人相关的企业已有上千家,专门的机器人园区达到60多家。广东的机器人园区数量有9家之多,居全国首位,紧随其后的河北、江苏、浙江、安徽平均也有56家。入驻在这些园区内的企业,急需招人填满空缺的岗位。
人才的争夺开始变得白热化。传统上不属于机器人的行业也加入了进来。比如,房地产公司碧桂园去年9月称未来五年至少投入800亿在顺德建一个机器人谷,要把机器人更广泛地运用到建筑业、社区服务、生活起居等各类场景中,其旗下的博智林机器人公司还和香港科技大学、浙江大学、中国科技大学、西湖大学等9所高校达成了战略合作。
揽才的触角早已从社会招聘延伸到了校园。在互联网行内,这早已是惯常的做法——招聘人员蹲守在学生宿舍楼外,优秀毕业生的起薪甚至超过工作多年了的工程师。
而与软件行业相比,机器人所属的硬件行业的招聘通常不占优势——刚毕业的学生程序员更愿意选择互联网公司,高的起薪和成长性意味着他们可以趁着年轻多累积些财富。
而初创机器人企业,招到合适的人才往往更不容易。高级的职位,即使能开出与大公司同等的薪水,也经常因为名气不够大而落败。可当把目光转向毕业生时,却经常发现他们的能力和素质不够好,并不能“招之即来,来之能战”,企业必须付出大量的人力、时间对他们进行培训。
合格的毕业生去哪了?企业需要的毕业生需要具备怎样的素质?
教育模式亟待改变
02
“我们最看重的是学生在校期间动手能力的培养。”亿嘉和科技股份有限公司总经理、董事姜杰介绍说,他们会重点盯着各大高校机器人俱乐部的学生,他们中的很多人从大一就开始动手,经过四年时间后动手能力变得很强,很全面——
“不光是机械结构、电子通信,包括一些软件都会,虽然不是很精通,但比一般的本科生强很多,来了以后很快可以上手。对我们企业来说最渴求的是人才,人工智能、机器人这两年才开始热起来,我们去社招非常难招,只能在学校里面,从苗子的时候就抓起。”
从参加机器人比赛的学生里面找,似乎成了各大机器人企业心照不宣的“秘密”。
作为无人机头部企业的大疆,连续承办了四届名为“RoboMaster”的机器人比赛,专注于工程实践人才的培养。2018年,该赛事已经吸引了200支队伍参赛。而另一项亚太机器人大赛(ABU Robocon)也举办了17个年头。这个比赛耗时数月,需要队员间相互协作,综合运用机械、电子、控制、计算机等方面知识和技能,亲手制作机器人并完成比赛。
对于在校大学生来说,这是难得的训练。
机器人是典型的交叉学科,涉及材料、感知、信息、控制、机械、智能等学科门类,但传统细分的学科设置犹如无形的墙,将学生限制在了一个个狭窄的通道中。分散在这些专业的学生,平时的状态一般是听课、做习题、考试。
“用专业细分化、基础形式化、实践虚拟化和知识碎片化的‘四化’来总结这个现象一点也不为过。”李泽湘说。
在探索创新人才培养的过程中,李泽湘意识到,传统的教育体系很难做出改革,他只能做一些实验田。四年前依托松山湖机器人基地(一个以机器人和智能硬件为主的新型孵化基地),他推动与广东工业大学、东莞理工合作建立了粤港机器人学院,目前已经招收了400名学生。


29日论坛举行期间,首批粤港机器人学院毕业生代表上台合影
令人惊奇的是,这群学生中创业的比例很高,第一届60多名毕业生中有3支学生创业团队获得了创业资金支持,另外5支创业团队即将进入孵化创业阶段。
“(我们)一上岗就不在一个层次上面,基本上是可以达到一般研究生的水平,动手能力强,思维方式也会比较成熟,因为我们这里基本算半个公司吧,工作磨合期比普通学生要短。”毕业生郑锦航告诉《知识分子》,选择了就业的学生,很多人收到了大厂的邀约,平均薪资也远超过一般毕业生。
为什么会这样?《知识分子》发现,这个机器人学院采取了跨学科的培养模式,学生来自设计、机械、电子、计算机、数学专业,在本校完成前两年的学习后,后两年入驻机器人学院。他们的课程经过裁剪整合与重新设计,也增加了不少机器人的项目课程。要完成这样的项目课程,往往需要不同背景知识的同学通力合作。
项目制学习、 融合企业资源的交叉学习平台,在一般的学校很少见。然而,要复制推广项目制教学,也存在较大的难度。李泽湘曾感叹,“理想很完美,现实很骨感”——
“研究型大学的定位主要以学术影响、学科与大学排名、科研经费等KPI 为主。相比之下,大学更愿意设立以研究为核心的跨学科组织机构如各类研究中心,而非以教学为核心的类似组织。斯坦福d. schoolBerkeley Jacobs InstituteMIT Media Lab 等只是极少数案例。其次,大学对老师的考评主要以论文发表、项目经费、获奖和获得包括杰青、千人、院士等帽子为主。虽然有时也强调教学的重要性,但往往一笔带过。即使在斯坦福这样的名校,教授也只能以世界一流的研究加好的教学,而不是世界一流的教学加好的研究获得终身教职(tenure)。”
此外,开设项目制课程所花费的资源和时间成本也很大,有项目制学习经验的教师资源极为稀缺,学生“从被动接受到主动学习、从单科学习到交叉融合式学习、从死背硬记到活学活用以及项目全过程训练,学生的思维模式、价值观和世界观都要经历很大的改变”。
人才培养需因材施教
03
从全国来看,不少高校已经设立了机器人专业,但是否在本科阶段就设立机器人专业,这样的专业究竟包括哪些内容,如何设计培养方案还存在不少争议。
“机器人行业太广了,它需要的知识和核心的内容是不一样的,每个学校应根据自己的特点,师资的特点,来设置课的内容。要穷尽所有的机器人课程内容,不可能的。”在论坛的讨论环节,西安交通大学智能机器人研究院院长梅雪松说。
南方科技大学系统设计与智能制造学院院长吴景深甚至认为,一些顶尖的创业人才也不一定是来自机器人专业,但在学习和创业过程中,磨练出了领军人物特有的素质。
尽管不一定要设立机器人专业,但参加讨论的嘉宾都认为,人才培养还是要因材施教。
梅雪松介绍说,机器人行业有三种人才,一是工程师,二是需要探索机器人前沿核心技术和原理的研究性人才,三是善于发现市场痛点,将碎片化的资源整合起来做集成创新的创业型人才,每个学校要根据自己的特点来做。
北京航空航天大学机器人研究所名誉所长王田苗认同因材施教的说法:“有人就愿意做从01的工作,做发明,有人就愿意创造财富,另外一些人就愿意当工程师,我们容易把所有人按一个模子做。大学就要去挖掘学生,让他认识自己。”
刻板的培养模式也影响到了顶尖人才的培养。这样的顶尖人才,可以是创业者,也可以是突破核心关键技术的优秀工程师和技术专家。在中美贸易摩擦的今天,顶尖人才显得尤其重要。
与芯片行业类似,国内的机器人产业在突破核心技术方面依然需要付出努力。中国的机器人企业很多处于中低端市场,高端机器人,如六轴以上多关节机器人主要由国外的品牌占领。减速机、伺服电机和控制器等机器人核心零部件,也多购自国外产品。
面向未来的科研,机器人领域也在快速发展,在新材料和制造、仿生混生机器人、群体机器人、极端环境下工作的机器人、人工智能、脑机接口、医疗机器人等方面都存在着诸多的挑战。跑赢未来,需要顶尖人才。
“这个顶尖的人才我们特别缺,主要原因是大学培养分的太细了,有些同学考上大学,却没能按照自己的意愿做喜欢的事情。大学最重要的是一点就是开一扇门窗,让那些不愉快的人能够有一个机会实现自己,这可能比谁是机器人专业的更重要。”吴景深说。
尽管从去年的下半年开始,机器人行业的热度有所下降,但没有人否认,未来,机器人依然是刚需。
清华大学教授杨燕绥等学者指出,2025年之前,中国将进入深度老龄社会,2035年之前,65岁以上的老人会达到20%,中国将进入超级老龄社会;
中国的人口红利正在消失,“用工荒”显现,不少制造业企业已经在采用机器人,“无人工厂”、“无人仓库”已经不是什么新闻;
2013年以后,中国机器人稳居全球第一大市场,但中国制造业机器人密度仍低于发达国家水平,为美国的1/2,德国、日本的1/3,韩国的1/7
需求就摆在那里,人才培养这至关重要的一环能否尽快跟上?依然是个疑问。
参考文献:
1.   杨燕绥:人口老龄化不是社会老化是社会进步,《中国民政》2019年第3期。
2.   李泽湘:核心技术卡脖子,需要打通产学研的教育改革,http://www.zhishifenzi.com/depth/depth/3268.html
3.   工信部:中国在工业机器人领域还属于中低端水平,https://news.ifeng.com/a/20170311/50770470_0.shtml
4.   李泽湘:颠覆创新人才培养的欧林经验,http://www.zhishifenzi.com/innovation/multiple/5926.html
5.    Yang et al., The grand challenges of Science Robotics, Sci. Robot. 3,eaar7650(2018), DOI:10.1126/scirobotics.aar7650
原文链接:https://mp.weixin.qq.com/s/LCuRRtMpbRVOG_TUyGTEMg
编辑:陈茗


作者: 刘海明    时间: 2019-7-19 23:06
【案例】
中美脑机接口技术,谁能领跑下一个二十年,从马斯克发布会看起
美国伊隆马斯克 Neuralink
侵入式大脑缝纫机
当后人撰写科技史的时候,硅谷“钢铁侠”马斯克绝对是无法忽视的一位企业家。
他善于发现趋势并敢于投入行动。相比站在风口,他更擅长制造风口:第三方支付,电动汽车,回收火箭……都在他的带领下迎来燎原之势。
现在,他正在科技界掀起一股新风潮:脑机接口。
717日,马斯克投资的创业公司Neuralink发布的一则重磅消息迅速刷屏全球科技界。Neuralink发布一项研究成果:高带宽脑机接口系统。
该系统由“缝纫机”机器人、仅有人类头发四分之一粗细的“线”和可读取、清理、放大脑信号的定制芯片组成。配备高端光学设备的“缝纫机”将“穿针引线”一般将布满微小电极、传感器的“线”嵌入人类头骨中。这套系统的最终目标是在截瘫病人身上植入,帮助其控制手机或电脑。
Neuralink高带宽脑机接口系统效果图
马斯克的重大成果很容易让人联想到《黑客帝国》中的脑后插管技术,这项技术最快将于明年进行人体实验,变成现实。
它可以让大脑以某种形式与外部设备连接,进而实现脑电波信号控制外部机械设备。通俗点说是不用动手,只动动脑子,即可通过脑波或者意念控制外部事物。
脑机接口技术(brain-computer-interface)看起来天方夜谭一般,但自2013年以来,美国、欧盟、日本、中国均先后发布国家级的大脑计划,攻破人类自己的秘密,让不可能变成可能。放眼全球,在脑机接口领域已经形成两大流派:侵入式、非侵入式。
马斯克的脑机接口系统是侵入式的,通过“缝纫机”在人头骨钻孔,将电子元器件置入人体内。
因此,侵入式脑机接口技术大多在顶级科研机构实验室中,大规模应用还需要较长时间。马斯克也提到希望这项技术未来能像眼科的准分子激光手术一样简单。安全性、操作性是重中之重,这也反映出侵入式脑机接口当前面临的一大瓶颈:即虽然采集信号效果更好,但风险性和植入难度比较大。
如果说马斯克的Neuralink是侵入式脑机接口技术的一面旗帜。那么FacebookBrainCo就是非侵入式脑机接口技术的两处高峰。前者是全球科技巨头,后者是来自哈佛脑科学中心的顶级科学家团队,而且是一家华人创业公司。相比嵌入式,非侵入式脑机接口已经在教育、游戏等大众消费领域实现产品化、应用化。
美国Facebook:“意念打字”探索者
2017年,Facebook在开发者大会上展示了最新脑机研究成果。一名瘫痪病人每分钟可打8个单词。但杜甘表示,希望在未来的18个月之内完成从每分钟8个单词到100个单词的突破。
作为非侵入式脑机接口技术的代表,Facebook通过光学成像技术每秒扫描大脑100次,将脑波信号翻译成文字,摒弃了鼠标、键盘,实现了“脑波—文本”的飞跃。一旦技术成熟,走进消费者领域,将释放出巨大的颠覆性效应。
这项技术由神秘的Buliding8部门完成,该部门由曾担任过美国国防部高级研究计划局局长,谷歌先进科技与计划部门负责人的雷吉纳·杜甘领导,成员包括来自顶级公司的超过60名科学家、工程师。
为何选择非侵入式?扎克伯格接受采访曾表示,“Facebook并不打算真正进入人们大脑,手术植入不会很好地规模化,如果你真想制造出所有人都会使用的东西,你会想要专注于非侵入性的东西。”
中国BrainCo(强脑科技)
意识控制智能假肢,训练大脑
马斯克和扎克伯格的脑机接口技术都处于研发阶段,并没有成熟的产品。
而五年前华人科学家在哈佛大学成立的脑机接口公司BrainCo(强脑科技)已经投入数千万美金研发脑机接口底层技术,并且完成了两块产品化。
BrainCo所研发的Focus脑机接口头环,是市场上唯一的医疗级别的可穿戴脑电检测装备,并且被美国宇航局NASA,美国奥林匹克运动队合作使用,并被广泛的在耶鲁大学,MIT等顶级名校用于提高孩子学习成绩。
手是人类最复杂的部分,用意识控制双手被誉为脑机接口领域最难的技术挑战,并且在BrainCo(强脑科技)之前三十年都没有巨大突破。而哈佛脑科学中心的BrainCo团队研发的脑机接口智能假肢,20178月,在湖南卫视《我是未来》的舞台上,让失去双手的残疾运动员倪敏成戴上智能假肢,用意念操控假肢,让他27年来第一次握手、拿起水杯、写字……
201811月,失去右手的22岁女孩林安露,戴上智能假肢,与钢琴大师郎朗“四手联弹”,郎朗将此次合作定义为职业生涯至今“最感动的一次合奏”,也成为世界上第一例能够用意识控制假肢弹钢琴的技术展示。
通过电视转播,中国普通观众第一次感受到脑机接口技术的震撼。拥有这项非侵入式脑机接口技术的公司是一家中国人创立、以华人为主的实力团队——BrainCo
BrainCo创立于2015年,是哈佛大学创新实验室孵化的第一个华人团队。创始人韩璧丞是哈佛大学脑科学中心博士,他是首位就脑机接口技术接受福布斯专访的华人科学家,曾入选2017MIT《麻省理工科技评论》“中国35岁以下科技创新35人”。
BrainCo研发团队成员中70%以上拥有哈佛、麻省理工等世界名校的硕士以上学位,有做火箭的博士,也有MIT人工智能大赛的冠军,并由前哈佛大学教育学院院长JamesE.Ryan担任顾问。
BrainCo拥有自主知识产权的脑机系统将为新一代人机交互提供横跨多硬件平台的互动模式,未来可应用于智能生活、睡眠管理、疼痛监测、疾病预防、残疾人康复等多个领域。
站在非侵入式脑机接口领域全球最前沿,BrainCo的布局是全方位的。前不久,另一家由哈佛教授创立的人工智能公司BlinkAI,因通过人工智能算法将核磁共振FMRI脑扫描准确度大幅度提升,论文在顶级期刊Nature上发表,而它背后的最大的外部股东正是BrainCo团队。
这股源于中国的创新力量也得到了资本市场的高度关注。据了解,BrainCo已获得来自哈佛大学孵化,Mass challenge,Walden international, 中国电子、光大控股、腾讯联合创始人、鼎晖投资等数千万美金的投资,是近三年非侵入式脑机接口领域最大规模融资。
中国,美国谁能引领
脑机接口技术下一个二十年
脑机接口技术被誉为人工智能的下一代技术,在欧美提出脑计划三年后,2016年,“脑科学与类脑研究”被列入“十三五”重大科技创新项目和工程之一,这被看做是中国的“脑计划”。2018年北京和上海相继成立脑科学中心,标志着中国脑计划正式拉开序幕。
某种程度上,这支华人创立、中国人为主的BrainCo公司也承担着华为类似的责任。在全球关注的未来科技战场——5G上,华为因拥有话语权而成为该领域的领导者。
BrainCo也面临着来自Neuralink Facebook这些来自美国公司的巨大竞争和挑战,只有深耕底层技术,在未来的脑机接口竞争中夺得更多话语权,才能让中国创新真正的引领全球。
巧合的是,华为创始人任正非在内部会议上也曾提到过BrainCo这家公司,“有家小公司正在研究用人工智能让智障儿童集中注意力(脑神经)来听课,大家不要以为这是医疗,集中度的用途是非常多的,打枪需要神经集中度,飞机作战也需要集中度。”
BAT曾是中国互联网和创新经济的骄傲,随着美国打压华为,人们开始意识到华为才应该是中国企业的未来:在基础研究领域实现核心技术突破,才能长久站在全球产业制高点。
脑机接口是涉及认知科学、神经工程、神经科学、智能硬件等多领域的交叉学科,谁能在这方面取得突破,谁就能在未来人工智能时代占据先机,这也是未来中国不可丢失的战略高地。
我们期待未来中国能诞生更多站在全球科技创新最前沿的公司,与全球顶级公司同台竞赛,赢得更精彩!脑机接口为誉为人工智能的下一代技术,我们一定要在脑机接口技术取得绝对领先,领跑下一个二十年!
原文链接:https://mp.weixin.qq.com/s/ANzc_RmBarlhmJaqTrRwSA
编辑:陈茗


作者: 刘海明    时间: 2019-7-19 23:17
【案例】
计算机思维,数学思维,本质的区别
计算机思维和数学思考,都包括了抽象和逻辑。
数学的抽象,在于剥离具体。数学研究从公理出发,可以变成纯思维的活动,和具体的的现实脱离关系。数学上的人为”定义”,就是为了尽可能给出范围明确,不冗余的信息抽象。以后在利用这些信息,得出范围明确不冗余的抽象信息(证明的过程),如此反复。可见这里,数学需要的是一个自洽信息结构和关系。这些信息是架空具体和现实的。虽然,数学在极力的寻找关系,但这个行为发生在圈定好的有限范围内,由层层已知的定理和定义的护栏内。
计算机思维的抽象,在于映射具体。计算机是用来模拟现实和解决现实问题的。所以,计算机思维是和现实极为紧密的,而现实的关系是错综复杂的。我们无法避免信息冗余,乱入的信息随机出人意料的自由组合。这也是为什么,数学正确和错误清晰而明确。计算机无法保证正确,只能说目前没有错误,bug永远存在需要不断的修复。现实变化了,计算机的思维模型就要跟着变化。
数学的抽象,全在于思维的目的和证明猜想的必要。计算机思维的抽象,在于需要解决的问题和模拟的程度。有相似的地方,在最大的区别在于。计算机思维需要有生活的理解,有对现实问题的体验经历,个人的世界观和品位生活的能力有所关联。数学对现实要求不高,大数学家可以是疯子,社交障碍,精神分裂,抑郁症。但,计算机科学家顶多是个同性恋。
关于逻辑。其实,逻辑就是事物之间的关系,而掌握了关系的触发条件,就被看成规律。为什么按照逻辑,应该是这样的。为什么你的逻辑是对的,我的逻辑就是错的。就是因为逻辑本质的关系是物质固有的,在相同的环境和姿势条件下,关系所呈现的规律被观察,被体验,被总结,理解记住。每每当我们对规律有了新的认识,相当于重新定义了关系,过去的逻辑就会被推翻,建立新的逻辑。逻辑推理,就是对关系的猜测,猜对了关系就是规律,猜错了就是毫无逻辑。
数学研究结构和关系,而现实世界就是由结构和关系构成。这里就是有意思的地方了,现实是完美运行的结构和关系,数学是在人脑里模拟探索的结构和关系。所以,数学是计算机科学的工具。当计算机科学在某个方面无法抽象和映射了,就需要等待数学同步意淫出来和现实世界一样的结构和关系,比如人工智能就是。现实在随机发展,数学在随机猜想,而数学又是现实的一部分,这又像是计算机运行的原理,充满了递归。人脑像个计算机,人脑也像个宇宙,宇宙发明了人类,人类发明了计算机,人类能否用计算机递归发明人脑。现在不就在这个方向发展么。
什么是递归?一个事物由这个事物本身所构建。那么在理解这个事物的时候,需要先理解事物的构成,那就回到理解这个事物,那么这个不断理解的过程形成了递归。字面意思来看,递是传递,归是回归。那么从传递开始回到传递。就是从一个地方出发,回到同一个地方,但是这个地方还是原来的地方,只是这个地方的环境(信息)发生了一些变化
计算能力不是产生智能的本质原因。人类大脑的计算能力有限却有逻辑推理能力。目前计算机的运算能力远远超过人类的运算能力,却无法产生类似的学习和逻辑推理能力。但有一点计算机和人脑是一致的,就是信息通过二进制01(比特)来存储传递和表达。算法和结构有一个关系,就是结构越复杂算法就可以越简单,结构越简单那么算法就需要越复杂。所以,人类大脑的智能是因为大脑的结构非常复杂。对比计算机的结构如此的简单,是把复杂的算法都转移到了程序设计上面,也就是让人类的大脑来产生。未来人工智能能够像人类靠近的话,需要的不是计算能力而是一个复杂的硬件结构。并且人类的逻辑思维和智能的演变和人类使用的语言密切相关,所以人工智能也是需要配套的和人类语言差不多的编程语言出现。当然,这都是我的猜测和理解。是思考人类智能本身产生的,不排除计算机本身发展出有别于人类智能模式的智能,比如变形金刚。
关于编程和数学的问题。
虽然,数学是计算机的工具,在思维的本源上有相似和共同性。但是,学习和掌握一个技能需要练习和时间,需要在大脑中训练出特定的结构。纵然有了相同的基础结构,但是要想做的更好发展的更好需要的是训练和时间。
纵然,数学是工具是基础是上层的依赖。并不是说,数学高于一切,优于一切是最强大的。最基础的并不是最强大的,是最必要的最开始的。比如,沙子是建筑的基础但不能代表建筑的价值。无机物是有机物的基础,有机物是生命的基础,但生命的价值放在那里。发展的过程,环环相扣,关系的道路上谁也少不了谁。基础代表必要,发展才是未来。
最后,比特是信息的基本单位,结构和关系是信息的属性。计算机的伟大之处,就是在于创造了比特的概念,又开始用比特去描述世界,万物皆比特。
结构是固有存在的,是信息的排列组合。
关系是观察者从某一个角度看到的排列组合,并且这个角度看到的是可以被观察者所理解的。
这里的理解包含可感知,有些物质的排列组合所呈现出来的关系无法被感知(可展开想象)
所以不同的角度看相同的结构会有不同的关系。
然而,对的能证明的就是数学,对的不能证明的就是哲学(不能证明算是对的嘛~),无法解释的貌似就是神学了。
原文链接:https://segmentfault.com/a/1190000006870929
编辑:陈茗


作者: 刘海明    时间: 2019-7-19 23:22
【案例】
智能技术群的“核聚变”推动智能+时代到来
2019年政府工作报告正式提出了“智能+”重要战略。5G、物联网、人工智能、数字孪生、云计算、边缘计算等智能技术群的融合与叠加就像“核聚变”,推动着万物互联迈向万物智能时代,进而带动了“智能+”时代的到来,以智能化为代表的新经济已初现雏形。
【图说报告】“智能+”系列第14期介绍了智能经济的经济学含义,以及中国特色的智能化路径:消费互联网带动产业智能化升级。接下来的几期我们将聚焦“智能+”时代的核心驱动力——智能技术及其影响。
过去十多年来,随着新技术爆发性的发展,以5G、物联网、人工智能等技术为代表的智能技术群落迅速成长,从万物互联到万物智能、从连接到赋能,进而带动了“智能+”时代的到来。
智能技术的发展成熟度
过去十多年来,物联网、5G、人工智能、数字孪生等科技的爆发性发展。新技术成熟曲线可以帮助了解市场当前的热点技术及其未来发展趋势。
我们从图中可以看到包括物联网、知识图谱、人工智能芯片、计算机视觉、预测分析、AR增强现实、语音识别等智能技术发展情况。
其中,计算机视觉的准确率大大提升,人脸识别准确率 > 99.5%,车牌识别准确率 > 99.7%,运动和行为准确率 > 83%
预测分析技术,实时(1小时)人流量预测预警准确率 > 90%
语音识别的性能迅速提高,智能会话意图命中准确率 > 90% ,语音识别技术正处在实质生产的高原期(Plateau of Productivity),也就是成熟期阶段,该技术的利益与潜力被市场实际接受,进入商业化的成熟阶段。
技术的创新和应用,不仅全面更新了现有技术基础设施,而且重新定义商业模式,重塑未来的经济图景。
以“数据+算力+算法”为核心的智能经济科技体系
智能经济五层架构(详见第3期“智能经济的经济学含义”)的底层是技术支撑,即大数据技术、算法、云计算等新技术群落的集体崛起。技术支撑之上的运作,是“数据+算力+算法”范式的普遍扩散。
在技术支撑层面,数据是基础,也是智能经济的核心生产资料。有了海量数据,就需要强有力的算力进行处理,就需要有先进的算法使海量数据发挥出真正的价值。物联网、5G、人工智能、数字孪生等科技的爆发性发展带来了算力和算法的巨大进步。计算技术为高效、准确地分析大量数据提供了有力支撑,算法技术帮助智能经济提供智能决策支持。
与此同时,以5GTSN为代表的现代通讯网络凭借其高速度、广覆盖、低时延等特点起到了关键的连接作用,将三大要素紧密地连接起来协同作业,发挥巨大的价值,形成了以“数据+算力+算法”为核心的智能经济科技体系。
智能技术群的“核聚变”推动智能+时代到来
多种技术的集成是本次智能技术浪潮的核心特征。以云计算、大数据、物联网、人工智能、5G为代表的新一代信息技术,在不断融合、叠加、迭代中。
MEMS智能传感器全天候、全方位、全时空识别消费者的各类行为状态,让消费者多种潜在的消费习惯和逻辑内涵得以呈现;
物联网设备感知消费者,源源不断为商业决策输送实时高价值数据,借助边缘计算的算力,提供精准智能服务;
AI认识并刻画消费者画像,获知消费者需求,并与消费者实现自然互动,实现以消费者为中心的商业模式;
数字孪生为消费者勾画出一个虚实映射的新领域,带来消费感官新体验,开拓实体操控新空间;
边缘计算将智能嵌入到消费者生活的方方面面,通过“大脑”的高效分析+“边缘”的快速部署,实现消费者需求、服务的快速响应;
云是大脑与中枢,核心决策平台,强智能背后的算力、数据与连接平台,实时在线服务的保障;
5G移动通信网络高速、稳定、低延迟,与Wi-Fi的深度融合让消费者随时在线
新一代信息技术在不断融合、叠加、迭代中为智能经济提供了高经济性、高可用性、高可靠性的智能技术底座,推动人类社会进入一个全面感知、可靠传输、智能处理、精准决策的万物智能时代。
张亚勤、刘慈欣、周鸿祎、王飞跃、约翰.翰兹联合推荐
这是一部力图破解21世纪前沿科技大爆发背后的规律与秘密,深度解读数十亿群体智能与数百亿机器智能如何经过50年形成互联网大脑模型,详细阐述互联网大脑为代表的超级智能如何深刻影响人类社会、产业与科技未来的最新著作。
《崛起的超级智能;互联网大脑如何影响科技未来》20197月中信出版社出版。刘锋著。了解该著作详情请点击:【新书】崛起的超级智能:互联网大脑如何影响科技未来
未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
原文链接:https://mp.weixin.qq.com/s/Ba0omv-aFcwHg7gUCHT0wQ
编辑:陈茗


作者: 刘海明    时间: 2019-7-19 23:36
【案例】
埃隆·马斯克的“黑科技”:芯片植入大脑可人脑操控电脑?
美国太空探索技术公司首席执行官埃隆马斯克近日宣布,他成立的“神经连接”公司设定目标,计划在明年年底前实现人脑与电脑连接,以提升人脑能力,应对人工智能可能带来的威胁。
马斯克是在旧金山举行的新闻发布会上宣布这一消息的。而实现人脑和电脑的连接需要对相关人员进行接口装置的植入手术。
当天的发布会通过宣传片,展示了脑机接口植入过程。植入手术需要由特殊的机器人操作,在人类大脑中植入大约是头发十分之一粗细的接口装置。通过这一装置,人类就能用自己的思维控制电脑或手机,而电脑或手机中的信息也可以传输给人脑。
 马斯克说,他最初成立神经连接公司的目标是帮助治疗癫痫、帕金森等脑功能障碍患者。但他的最终目标是把人类智力与人工智能有效结合,提升人类大脑的能力,确保人类有能力应对人工智能带来的威胁。
  目前,这一技术正在寻求美国食品与药物管理局的批准。
原文链接:http://world.huanqiu.com/article/2019-07/15170189.html?agt=15438
编辑:陈茗


作者: 刘海明    时间: 2019-7-19 23:59
【案例】
不再是科幻,人类直面“脑机连接”八大伦理困境
SpaceX、特斯拉汽车创办人,绰号“钢铁侠”的传奇人物埃隆·马斯克(Elon Musk),17号再一次令世界惊讶。
他与其他8位合伙人创办的神经科技公司Neuralink于昨天宣布,他们在老鼠上实现了高效、可应用的脑机连接系统,最快2020年就能实现人脑的脑机连接产品。
很多看似遥远的技术,其实它已经悄悄来到我们身边。
脑机连接到底是一项什么样的技术?它的技术原理可靠吗?会带来什么后果?
从科幻到科学:脑信息可转变为电信号
马斯克的Neuralink公司做的脑机连接并不新鲜。
科幻小说和科幻电影就经常描写大脑与机器的连接,科幻史诗《黑客帝国》甚至描述了“缸中之脑”与互联网连接的残酷场景。
脑科学自20世纪以来突飞猛进,得益于以微观物理为基础的分子细胞学,脑科学已经下沉到电流、电波、磁场在大脑思考过程中的信号作用。脑机接口研究从20世纪70年代以来飞速发展,实验对象主要是哺乳动物和人,连接脑部的方式分为侵入式(有创)和非侵入式(无创)。
由于哺乳动物和人的大脑皮层分为十分多样化的功能区块,每一个区块都对应着一类功能,所以不同目的的脑机接口针对的是特定的大脑功能区块。
20166月,中科院自动化所脑网络组研究中心绘制出了一张全新的人类脑图谱,包括246个精细脑区亚区,以及脑区亚区间的多模态连接模式。
这张脑图谱“利用脑结构和功能连接信息”绘制脑网络组图谱的思想,引入了脑结构和功能连接信息对脑区进行精细划分和脑图谱绘制的全新思想和方法,比传统的布洛德曼图谱精细4-5倍。
Neuralink公司的产品之所以能够引起轰动,在于它的完整性和应用性。目前全球各个实验团队的脑机接口研究,仍然以功能研究为主,而Neuralink公司打造出了一个完整的脑机连接设备链:
侵入鼠脑的软电路→接收大脑信号的芯片N1→有线和无线传输设备→信息处理终端的手机APP
此外还有一些正在设计、实验的设备也呼之欲出。在这个时代,科学和幻想的距离越来越近。
从科学到商业:创造未来的持续驱动力
再先进的科学理念,如果不能形成商业闭环,最终也没有办法长期研究下去。
但脑机连接并非只是科学概念,一些残障人士已经开始参与脑机实验,并且有了不错的实验结果。这些实验积累的数据是将来大规模商业应用的基础。
目前,全球已经有众多致力于脑机接口研究的公司,典型且知名的公司除了Neuralink,还包括Mind MazeKernel CoNeuroPaceRythmBrainCo等在内。
而它们应用的领域则主要集中于医疗、康复、保健、教育、VR消费等,其中,又以医疗康复和教育为主流。
残障人士和老年人可以通过脑机连接自理生活需求,甚至一些残障儿童通过脑机控制技术学习一些技能,成年之后能够正常工作。整个社会将不必再花费大量时间和资源用于照顾生活不能自理的人群,而残障人士也将不再依附他人独自生活。
实际的商业应用也不再虚幻,现代晶圆级微加工工艺使得医用器件的高通量制造成为可能。每个晶圆上绘制了10个薄膜器件,而每个薄膜器件具有3072个电极触点。每个阵列由4896个线程,每个线程包含32个独立电极。采用倒装芯片键合工艺将集成芯片键合到薄膜传感器区域中的电极触点上。
除了大脑端的输出指令,大脑还可以完成反向输入,从互联网上直接寻找数据信息,甚至下载相应的信息到大脑中,提高处理信息和学习新知识的能力,这同样具有无与伦比的想像空间。
不仅仅是脑洞:人类直面
“脑机连接”八大伦理困境
“脑机连接”一旦被应用于现实社会,和基因编辑一样,同样会面临巨大的伦理难题。
大脑的每一个欲望和目的,形成的电信号指令,都是特殊的,或者电信号集都不一样,这些电信号有些是串联的,有些是并联的,可以用集合理论和电路理论加以描述。


当芯片接收到大脑的一组信号时,根据脑科学家长期统计出来的实验数据,芯片就能将它翻译成机器指令,完成系列动作:大脑信号组——机器行为——人的目的。
芯片与大脑功能区块之间的柔软电路替代神经传导,外挂机器替代了人体。伦理问题也就产生了。
01
隐私问题
芯片接收到的信号组意味着一个或一组欲望,这对于个人来说是极其隐私的想法,在健康的状态中,脑中的想法应该是封闭的,别人并不知道,只有当我们做决定时才会通过语言和行为表现出最终的决定。
而芯片却能实时接收并分析、翻译出来大脑的欲望。这意味着我们的隐私将不再隐秘,我们的内心想法容易被外部仪器记录甚至付诸行动。
旧金山最近禁止公共场所使用人脸识别的智能摄像头,后面也有深层次的伦理和隐私问题,旧金山恰恰是Neuralink公司所在地,将来脑机连接技术也将面临隐私权如何保护的公共讨论。
02
脑机责任
脑机连接技术将大脑信号直接转化成机器行动,正常大脑会克制和犹豫,而芯片却不会。
脑机芯片很多时候并不会关心一个机器动作的后果,不会犹豫和克制的芯片无法辨别同一个大脑信号的不同场景下的后果,将会指令机器做出许多正常人只是一闪而过的念头,造成冲突和犯罪。
到了法庭上,法官该如何判决呢?是发出指令的人,还是芯片制造商和机器承担罪责?
这个困境与自动驾驶汽车造成的车祸该由车主还是车商负责颇为类同。
03
现实中的“少数派报告”
脑信息一旦可视化,FBI和警察机构如果通过技术手段收集每个人的芯片上的信息,进行分析统计,将犯罪电信号标识出来,对社会全体成员进行算法排序,提前监控甚至软禁乃至抓捕潜在罪犯。
这项技术对预防犯罪有着极大帮助,但如果没有犯罪又为什么将他逮捕,如果不搜捕这些罪犯,造成社会危害该怎么办,这就是现实世界中的“少数派报告”。
04
边界限制
随着脑机连接功能越来越强大,人将进一步物化,人的五官将进一步延伸,但大脑通过机械对世界的探索,是不是应该有一些限制,例如军事领域,脑机连接技术不能应用于战争攻击。使用机器对个体和人类种群的戕害,是不是应该有边界的限制。
《阿凡达》电影里展示的人机连接后的杀戮,比普通的战争更为凶残。
05
是人还是机器
脑机结合如果进一步发展,机器会替代大脑以外所有的肉体器官,眼睛、耳朵、性器官、饮食器官。人的大脑皮质层靠各种所谓柔软的电路连接上各种机器身体,千百万年进化而成的自然肉体被废弃不用。机器坏了,另换一个,最后我们到底是人还是机器。
06
自然属性的消亡
人的感知只是一组电信号,随着性器官和生殖器官的剥离,人工培养的受精卵取代自然孕育。婚姻和家庭的意义何在。这种结果将会瓦解人类最后的自然属性,意味着人类各种情感的消亡,这对人类是福是祸。
以上六条是大脑电信号输出产生的伦理问题,如果电信号逆向输入大脑,用于收集脑的电信号的芯片,通过柔软电路反向输出电信号给大脑各个功能区块,将会产生更多法律伦理以及社会治理问题。
07
电子大麻和娱乐至死
商业公司会将各种表达快乐体验的大脑信号编辑成一个又一个的程序,置入芯片。这些芯片通过信号刺激在大脑里制造不同的三维情节,比增强现实的VR技术更逼真。感到生活不如意的人寻求刺激,从市场或黑市上购买专用芯片,就可以体验极乐感受。这是一种真正的“电子大麻”。
08
自由意志是否存在
脑机连接之间的正负反馈,将混淆谁是系统真正的主体,到底是人脑在控制机器,还是机器在控制人脑,如果是机器在控制人脑,那自由意志何在?所谓人脑意识也不过是一串电信息而已。
人类最终走上了“忒修斯之船”
如果再深入思考的话,脑机连接技术最终还会碰上一个哲学难题,那就是“忒修斯之船”。
公元1世纪的时候普鲁塔克提出一个问题:如果忒修斯船上的木头被逐渐替换,直到所有的木头都不是原来的木头,那么是这艘船是原来的那艘船呢,还是换下来的木头组成的船是原来的那艘船?
同理,如果有一天,我们的身体部分逐浙被机器部件所替代,那用我的身体部分组成的这个人是我,还是现在的机器组成的这个人是我?
原文链接:https://mp.weixin.qq.com/s/vwIG-vUiFYc9pGM5Hx-4pQ
编辑:陈茗


作者: 刘海明    时间: 2019-7-20 00:03
【案例】
​加速融合发展,看看 “澎湃经验”
融合发展,澎湃新闻领风气之先整体转型。通过建立交流分享机制、引入年轻“海归”,帮助“老报人”摆脱“路径惯性”,拥抱新技术、新手段;通过技术应用化、操作集群化、形式互动化、内容产品化,生产出高质量的内容,并实现更快更广更好的传播。
加速融合发展,看看“澎湃经验”
李云芳    
澎湃新闻诞生于媒体融合发展的风口,领风气之先,率先整体转型,并着眼技术、内容等进行探索、开拓和创新,不断将融合发展推向纵深。
1
     
“互联网+资深报人”
澎湃新闻从传统纸媒转型而来,团队中有不少“资深报人”,且都是骨干力量,他们是内容生产方面的宝贵财富。但在融合发展之路上,他们需要在形式和手段方面进行思维转型,努力掌握“新”本领。
澎湃新闻双管齐下。一方面,引入许多有海外留学经历的人才,以此将新视野、新想法、新技术、新手段直接带入澎湃新闻。近年来招聘的人员中,有一半拥有境外或海外留学经历;另一方面,建立了一套交流机制,不定期邀请经常接触国际媒体和国内技术派资讯平台的人员来分析行业动态和分享最新经验,邀请视觉、设计、产品、数据等人员,推进学习交流、经验分享机制化。  
此外,在操作一些重大项目前,项目组的第一项工作就是搜集和研究国内外媒体在同类题材上有哪些先进做法可以借鉴、有怎样的教训需要吸取。
为鼓励员工探索尝试融合创新,澎湃新闻在年度新闻奖项中,专门设立了“年度产品”“年度交互&数据”等具有鲜明融合特色的奖项。
为便于不同类型部门的人员交流,在办公条件比较紧张的情况下,特别辟出12层一整层楼,打造“澎友圈”空间,鼓励员工跨越楼层和部门的壁垒,在自由而轻松的氛围里碰撞出融合创新的火花。
秉承“四化”方针
新闻实务方面,澎湃新闻一直秉承“四化”方针——技术应用化、操作集群化、内容产品化、形式互动化,以保证生产出既有高品质又有传播力的好内容、好产品,不断开拓融合发展的创新之路。
技术应用化
澎湃新闻视觉中心储备了一批具有较强制作能力的专业人员,包括前端工程师、UI设计师、动画设计师、漫画师、平画设计师、3D设计师等,这些人既能及时掌握先进的技术手段,还能将之尽快应用到实际工作中。
VR新闻代表了一种先进技术的潮流趋势,澎湃新闻一直在努力将这项技术应用到具体新闻报道中。澎湃新闻设有专发VR产品的《全景现场》栏目,专题报道时拍摄VR全景视频已成标配。产品《海拔四千米之上》,70%都是VR视频,包括定点VR和漫游VR,这些场景均拍摄自三江源国家公园的核心地点,每个场景之间逻辑上互相关联。
卫星图的运用已不是一件新鲜事。今年4月的凉山木里森林大火中,由于火灾现场地处深山密林,且余火未灭或存在复燃可能,现场被封锁。编辑通过卫星地图找到准确的起火点和邻近村落,借助卫星地图本身的3D功能,还原出了现场立体模型。
插画、连环画这门传统手艺,也在融合创新的新媒体产品中焕发了青春。获得第28届中国新闻奖融媒界面项目一等奖的H5产品《长幅互动连环画|天渠:遵义老村支书黄大发36年引水修渠记》,采用下拉式长幅连环画、渐进式动画、360度全景照片、图集、音频、视频、交互式体验等表现形式,让这个已经被多次报道的人物和故事,被生动地还原进而获得了更为广泛的传播。
目前,澎湃新闻正与相关运营商沟通对接,希望打造一个5G智能媒体应用实验室,并尝试VR直播。
操作集群化
机构媒体的一大优势就是“可以集中力量办大事”,碰到重大议题时,能够在人员组织、设备保障和时间周期方面给予足够保障。
如三江源国家公园报道项目,澎湃新闻从20182月就开始筹划方案,累计约40人参与该项目,到一线参加采拍的就有25人,之后又花了一个月时间进行后期制作,最终呈现在读者面前的,包括3篇深度文字报道、4部微纪录片和4场大型直播。
2019年春节,澎湃新闻策划了多个产品。最有创意、最有分量的当属“Z112列车上的中国”。列车由海南海口发往黑龙江哈尔滨,是春运里程最长的列车之一。澎湃新闻派出12人全程跟踪,记录和拍摄了06车厢内97位乘客的心声和故事。该策划前后方超40人参与,累计发布大小作品100余个,包括文字报道、视频、直播、H5产品、数据报道等,同时还辅之以“问吧”等形式进行了互动。
形式互动化
澎湃新闻在设计融合项目时力求互动,既能让用户感兴趣并参与其中,还可以借助用户提供的内容再生产作品,形成互动共生。
2018年汶川大地震十周年之际,推出产品《互动H5|征集“我的汶川记忆”:十年前地震时你在哪里?》,征集读者与那场大地震的故事,借此构建汶川地震的集体记忆;《大江奔流·征集︱我的长江故事》,征集读者与长江的故事,充满趣味性和人情味儿,读者踊跃参与。
有的互动作品是征集影像。“家国协奏曲”通过设计开放的平台,吸引用户上传照片,平台自动生成专属的微纪录片,并在澎湃新闻的瀑布信息流中予以展示,通过个体变化来折射家国变迁,既强化了与用户的沟通,也让澎湃新闻生产出更多接地气、应时令的内容。
澎湃新闻也经常借助游戏这种最具参与性的形式,来配合并突出报道主题。在2019年春运报道中,配合“摩托车千里返乡大军”直播,设计制作小游戏《摩托大军千里返乡,澎湃互动体验式H5“暖途”为骑行者助力》,参与者可体会和共情骑摩托返乡者遭遇的一系列困难和归家的急切心情。
澎湃新闻还推出了一系列偏重社交属性的互动产品。今年423日“世界读书日”当天,推出《灵魂书签》互动产品,通过让用户勾连经典美术作品、音乐片段与经典文学作品中的语句,给用户生成一个性格画像,供朋友圈转发的同时,还会推荐一本相关联的书籍供阅读。
改革开放40周年之际,澎湃新闻推出产品《你说起话来,有多穿越》,从1978年第一版以来数个版本的《现代汉语词典》中,摘选出过去40年里的一些特殊词语,让用户选择正确解释,通过回答情况来描摹出用户的“能力画像”。这些互动产品,既展现了澎湃新闻的深厚文化底蕴,也起到了让用户在互动娱乐中关注特定时令、增长知识的作用。
内容产品化
日常新闻报道中,澎湃新闻一般在前期滚动生产各种满足读者信息需求的“短平快”文字报道、视频短讯,到后期则制作推出主题明确的系统性产品,便于读者了解事件全貌。  
比如,就导致逾250人死亡的斯里兰卡“4·21”连环爆炸,澎湃新闻制作了《亲历者的生死瞬间——斯里兰卡爆炸地图》。该产品通过收集整理多名亲历者及遇难者家属的故事,还原斯里兰卡爆炸的惊心一刻;在埃航空难报道中,澎湃新闻记者通过公开渠道或相关报道,尽可能收集遇难者基本信息,包括照片、身份、姓名、年龄、家庭以及乘机事由等,在“头七”那天,制作发布了一份全面的遇难者名单,因为信息全面,传播甚广,许多读者评价该作品是对那些曾经鲜活的生命的致敬。
凉山木里森林大火报道中,澎湃新闻做了两个产品:《凉山蹈火英雄生前事|30个生命定格了,30段记忆将长存》是一个长图,30名遇难者每人摘选一位家属、战友等的介绍,记录他们的“生前事”;《H5丨他们平均年龄25.5岁》,集成澎湃新闻前期对30位遇难者的视频报道,悼念逝去的年轻生命,引人泪目。
除紧跟重大新闻设计制作产品外,澎湃新闻平时也会设计不少有深度、有格调的产品。
如去年7月份发布的《H569年风雨录:台风来去之间,哪些地方最受伤?》,设计人员通过动画、柱状图、分类表等方式,可视化地展现了台风对我国侵袭破坏之多之大的情况,还根据“受伤”程度对台风影响省份进行了排名。
由于技术的多样性和储备的性价比问题,澎湃也会引入外部力量参与,如《我们的街道和街道上的我们》,就是由澎湃新闻的开发人员和外部力量合作完成。
在融合发展、创新生产之路上,无论是整合内部资源还是借助外部力量,只要有利于生产出高品质的内容、有利于让信息更快更广更好地传播,澎湃新闻就会积极尝试,并一以贯之地将创新进行到底。
原文链接:https://mp.weixin.qq.com/s/1CdKVfKctGx0u7V02QruwQ
编辑:陈茗


作者: 刘海明    时间: 2019-7-22 19:38
【案例】
《美国人工智能未来20年研究路线图》

2019年5月14日,美国计算联盟和人工智能促进协会发布《美国人工智能未来20年研究路线图》(草案),共117页,预计7月份发布正式版,通过本路线图,可以全面了解人工智能技术发展,掌握美国人工智能面临的挑战,把握美国人工智能重点研究方向,以及举措。
相关背景
几十年来,人工智能取得重大进展,在工业、政府和社会等各方面发挥重要作用。人工智能系统现在可以跨语言翻译,识别图像和视频中的对象,简化制造过程,实现汽车自动驾驶等。

人工智能创造出一个万亿美元产业,预计在三年内将翻两番,与此同时,人工智能系统的公平、可解释、可信和安全性的必要性变得越来越重要。

人工智能系统将推动社会和经济产生巨大变革。同时,人们对系统的安全性和脆弱性以及在这样世界中的工作前景产生诸多担忧。亚洲和欧洲众多国家意识到人工智能将是未来几十年的战略和经济驱动力,并开展数十亿美元投资。如若目标明确、举措得力,再加上投资,美国将可以继续成为人工智能领域的领导者,最大限度地发挥人工智能对美国经济和社会的积极影响。

研究主题
这些都给人工智能研究带来挑战,需要在大量持续投资下对人工智能研究进行彻底变革。
该路线图围绕三个研究主题:




主要挑战
路线图确定了新一代人工智能所面临的诸多挑战。首先,该领域已经超越了最初对算法和理论的学术关注,进入到一个持续数据收集、社交和互动实验以及不断变化世界的大量知识的环境。在这些基础上,信息技术产业汇集并利用大量专有资源(数据集、知识图表、专用计算机和大批人工智能工程师)来推动创新。

新一代人工智能需要整合资源、算法和理论。没有合适的资源,人工智能学术研究作用有限;没有对基本问题的回答,工业人工智能应用程序就没有任何基础。制约因素、激励措施和时间表也大不相同,各行业主要由实用的短期解决方案驱动,而学术界则关注长期问题。
此外,今天的人工智能不断跨学科发展,已覆盖到计算机科学和计算机工程,以及认知科学、心理学、生物学、数学、公共政策、伦理、教育和通信等领域。推动下一代人工智能发展需要高度跨学科团队之间的持续合作,将这些领域的重要思想、观点和技术引入人工智能研究范围。人才是当前人工智能中一个关键问题:对人工智能专业知识的需求远远超过供给,差距只会继续扩大。
更严峻的是,美国很多人工智能博士毕业生在国外找到了有吸引力的工作;此外,许多人工智能教师已经转向工业。虽然这为理论和实践的有效交叉提供了新的机会,但也影响了下一代人工智能实践者的培训。要克服这些挑战,需要对人工智能研究进行彻底改革,创建一个全面的国家人工智能基础设施,并大力开展人工智能人员培训。
措施建议

提出以下政策、组织和战略方面建议:



一、强化国家人工智能基础设施建设

——开放人工智能平台和资源:大量互联的分布式“人工智能”资源集合(高质量数据集、软件库、知识库、仪器、机器人环境、云计算服务等)。)由学术团体以及工业和政府提供。公司最近的重大创新表明,人工智能的突破需要大规模的硬件投资和开源软件基础设施,这两者都需要持续的大量投资。

——人工智能多方协作的挑战:建立在开放人工智能平台和设施中的共享资源之上的组织架构,来协调人工智能和领域专家提出的重大挑战问题,推动关键领域的研究。

——国家人工智能研究中心:物理和虚拟设施,将来自一系列学术机构的教职员工和来自行业和政府的员工聚集在一起,参与人工智能长期研究。

——任务驱动的人工智能实验室:提供持续基础设施、设施和人力资源以支持开放人工智能平台和人工智能实验室,并与国家人工智能研究中心密切合作,整合研究成果,以应对各部门(如卫生、教育、政策、道德和科学)关键人工智能挑战。

二、重构全方位人工智能人才培养体系
——制定各级别人工智能课程:为鼓励早期和持续对人工智能感兴趣和理解的课程制定指导方针,从中小学开始,延伸到研究生课程和专业课程。
——高级人工智能学位:包括授予有才能的学生获得高级研究生学位补助金、博士级研究人员保留计划以及支持和授予人工智能教师额外资源。
——让小众和弱势群体参与进来:将最佳人才纳入人工智能研究工作的方案。
——激励新兴跨学科人工智能领域:鼓励学生和研究团体从事跨学科人工智能研究,例如,人工智能相关政策法律、人工智能安全工程以及人工智能对社会影响分析等。
——培训高技能人工智能工程师和技术人员,支持和构建开放人工智能平台,通过学院、劳动力再培训计划、认证计划和在线学位来培养发展人工智能人才。


三、开展人工智能核心技术研究
这些新的资源和倡议不能以现有的理论和应用人工智能资助项目为代价。这些核心项目,为推动研究突破、培养年轻研究人员、整合人工智能研究和教育以及形成新的跨学科合作,提供了成熟、基础广泛支持,是对本路线图中描述更广泛倡议的重要补充,它们也将需要更多的支持。

所有这些都需要在本路线图涵盖的20年期间进行大量、持续的联邦投资,结果将是革命性的。共享基础设施、精心设计的交互和协作架构以及专业人才发展将使美国在人工智能领域继续领先世界。

上述建议不仅仅是跨学科、前瞻性研究路线图的框架,它将推动科学和经济进步,兼顾安全、脆弱性、政策和道德等问题。该路线图中的建议还将使我们能够吸引和留住顶尖人才,在这一关键技术领域培养更多人才,这是对社会和经济的另一个重大推动。


1
1.1参考文件
1.2什么是人工智能?
1.3人工智能路线图流程
2未来人工智能研究主要意义
2.1提高医疗保健和生活质量
2.2终身教育和培训
2.3重塑业务创新和竞争力
2.4加快科学发现和技术创新
2.5社会正义和政策
2.6实现国防和安全转型
3人工智能研究路线图核心技术领域概述
3.1研讨会一:集成智能研究路线图
3.1.1简介和概述
3.1.2集成智能的社会驱动因素
3.1.3集成智能科学
3.1.4情境化人工智能
3.1.5开放知识库
3.1.6理解人类智能
3.2研讨会二:协同互动的研究路线图
3.2.1简介和概述
3.2.2与人工智能系统协同互动的社会驱动因素
3.2.3与人工智能系统协同互动的技术挑战
3.2.4结论
3.3研讨会三:自我意识学习的研究路线图
3.3.1简介和概述
3.3.2表达性、强健性和持久性学习的社会驱动因素
3.3.3自我意识学习的技术挑战
4主要发现
5建议
5.1强化国家人工智能基础设施建设
5.1.1开放人工智能平台和资源
5.1.2持续的人工智能挑战
5.1.3国家人工智能研究中心
5.1.4任务驱动的人工智能实验室
5.2重新构思和培训全方位的人才
5.2.1制定各级人工智能课程
5.2.2高级人工智能学位和保留计划
5.2.3让代表不足和弱势群体参与进来
5.2.4激励新兴跨学科人工智能领域
5.2.5培训高技能人工智能工程师和技术员
5.3人工智能研究的核心计划
6结论
7附录
7.1参与者
7.2其他贡献者




原文链接:https://mp.weixin.qq.com/s/fo7I1tf4DMP5XWwXHGS6kw


编辑:董莉


作者: 刘海明    时间: 2019-7-22 20:54
【案例】
王健宗:数据隐私保护新曙光——联邦学习的机遇,挑战与未来

文章导读

此报告从数据隐私保护的变革出发,探讨人工智能时代数据使用面临的新规则和新挑战,分析数据隐私安全保护问题,提出数据安全多方机器学习的解决方案——联邦学习,聚焦其概念、分类、研究现状和可应用领域,总结了当前国内知名企业对于联邦学习的研究进展,分析联邦学习的未来发展趋势,为联邦学习在各行业研究发展提供参考。

一数据隐私保护的新规则

随着信息时代算力的不断增加,人工智能的广泛应用,人类进入了第四次工业革命——智能革命。随着信息技术的快速发展,硬件设备和数据的广泛利用为人工智能发展提供了广阔的应用空间和广泛的应用条件。在利用数据进行机器学习建模的环境中,企业和个人具备了过往无法比拟的计算能力和数据应用优势。每个企业都拥有敏感数据:商业秘密、知识产权、关键业务信息、业务合作伙伴信息和客户信息。企业根据公司政策、法规要求和行业标准保护所有此类数据,这些数据带来巨大价值的同时,也存在传输储存方面符合法律法规,进行安全和隐私保护方面的难题。从2014年以来,数据泄漏问题开始得到公众关注,每年都有大量数据隐私泄露事件发生,数据使用的合法性和使用界限开始成为各行业关心的问题。
2018年5月25日,欧盟正式生效《通用数据保护条例》(General Data Protection Regulation,GDPR)。作为欧盟最严格的数据保护条例,该法规要求处理个人数据的组织经营者用清晰明确的语言描述用户协议,允许用户执行数据被遗忘的权利,用户可以要求经营者删除其个人数据并停止利用其数据进行建模。该法规强调机器学习模型必须具有可解释性,随之一系列公司由于对数据的使用不符合法律规范成为法案下第一批被告者。2019年4月,《互联网个人信息安全保护指南》正式发布。对于个人信息的共享和转让行为进行了明确规定。进一步加强了个人信息安全保护措施。2019年5月,国家互联网信息办公室会同相关部门研究起草了《数据安全管理办法(征求意见稿)》,旨在加强对数据处理使用和数据安全监督管理的要求。包括“应明确数据安全要求和责任,督促监督第三方应用运营者加强数据安全管理。第三方应用发生数据安全事件对用户造成损失的,网络运营者应当承担部分或全部责任,除非网络运营者能够证明无过错。”等数据安全管理办法,对于数据的安全使用和隐私保护提出明确意见和要求。2017年起实施的《中华人民共和国网络安全法》和《中华人民共和国民法总则》也要求:“网络运营者不得泄露、篡改、毁坏其收集的个人信息,并且与第三方进行数据交易时需确保拟定的合同明确约定拟交易数据的范围和数据保护义务。” 明确指出对于用户数据的收集必须公开、透明。企业、机构在没有用户授权的情况下,不能私自交换数据。法律条例对于人工智能传统的数据处理建模模式形成了极大挑战。在一个需要互联共享的信息共享环境下,如何在符合法律法规的用户数据隐私安全条件下,进行多方数据资源的利用,成为了各企业利用数据时中面临的重要问题。

二人工智能时代面临的新挑战

人工智能领域,往往需要足量数据进行机器学习来产生良好的建模效果。《AI.未来》中的观点认为:“当电脑的运算能力和工程师的能力达到一定的门槛水准之后,数据量的多寡就成为决定算法整体效能与精准度的关键所在。”能否掌握足量优质的数据,决定了人工智能训练效果的优劣。在实际工业环境中,仅仅一家企业难以只利用自身数据推测用户多元化多平台的消费习惯。为了更精准的做出决策,需要充分利用信息资源。市场开始要求大规模数据平台使用多种情况下的最佳训练效果。然而许多企业训练方拥有的数据量不足,规模与质量不完备。数据来源不够,导致机器学习系统效果不理想。

不同的网站、研究者、广告商和商业机构想要将彼此的数据汇总或者统一整理进行训练,传统的处理模式之一是将不同源数据整合,形成聚合数据库,虽然聚合数据库能实现对多个独立的数据库进行相互操作,但过程中存在各单元数据库的交互过程,面临着交互过程中的安全风险,无法保证隐私安全的后果。另外,实际情况下,数据源往往分布在企业和个人,相互独立隔阂,形成了一个个阻碍技术发展的“数据孤岛”。多方数据间无法联通带来更多行业效益。当前避免集中式存储数据,并可以从多源不互通的数据中创造新的价值。在保护隐私安全条件下,利用多方数据资源来驱动机器学习优化,成为了当前亟待解决的新挑战。正是由于这些严格的法规以及行业本身发展面临的障碍,人工智能技术反而可以用新技术找到其升级发展的契机。在满足数据隐私、安全和监管要求的前提下,设计一个机器学习框架,让人工智能系统能够更加高效、准确地共同使用各自的数据,这将成为人工智能安全保护时代的新机遇。

三数据安全新曙光——联邦学习

1. 联邦学习的概念
解决上述挑战,满足隐私保护和信息安全的联邦学习技术可以成为解决方案。联邦学习是隐私保护下的算法优化可实现路径和保护数据安全的“数据孤岛问题”的解决方案。联邦学习允许从跨数据所有者分布的数据中构建集合模型,提供了跨企业的数据使用方式和模型构建蓝图,适用于B2B和B2C等业务,可被广泛应用于各种领域,实现各个企业的自有数据不出本地,只通过加密机制下的参数交换,不违反数据隐私法规地建立优化机器学习模型。在保护数据隐私安全,合法合规要求前提下,达成机器学习效果的强化,将人工智能重点从以AI基础算法为中心转移到以保障安全隐私的大数据架构为中心。

2016年,Google AI研究人员首次提出用于训练深度学习网络的联邦学习。谷歌尝试建立数百万安卓设备之间的联邦模型,用于移动设备分散数据训练,解决隐私保护问题。2019年2月,Google发布实现了全球首个产品级的超大规模移动端分布式机器学习系统,能够在数千万部手机的安卓键盘上运行联邦学习算法,谷歌的研究主要侧重于在移动终端上运行的联合平均算法。

多个数据拥有方想要共同训练模型,传统做法是将数据整合到一方进行训练,但是这样无法保证数据隐私和传输过程的安全性。相对于以往的分布式机器学习方式,联邦学习具有以下特征:数据不脱离本地;参与者利用自身拥有的数据训练全局模型;每个参与方都参与学习过程;模型损失可控;训练过程中考虑隐私和安全。参与各方能够在不披露底层数据和底层数据的加密形态的前提下共建模型,使联邦学习成为未来安全多方机器学习的新曙光。

2. 联邦学习的分类
2.1 从联合方式分类
联合方式上,可以将联邦学习分为单方和多方两种方式。单方联邦学习是指从一个实体进行分布式内容抓取和系统管理。模型以联合的方式训练在所有客户端设备中具有相同结构的数据上。大多数情况下每个数据点对于设备或用户唯一。例如,应用程序通过单方联邦学习为个人用户推荐音乐的推荐引擎。多方联邦学习则需要两个或多个组织或特许经营商组成联盟。在其各自的数据集上训练共享模型。例如,多家银行可以培训一种通用的强大欺诈检测模型,而无需相互分享敏感的客户数据。

2.2 从用户和用户特征结构分类
参与各方的数据结构和参数通常相似但不必相同,根据不同的数据的特征分布形式,如同数据库原理中的数据特征分布状态,联邦学习又分为三种不同处理方式:横向、纵向和迁移。参与方们的数据集具有高度重叠的特征维度,样本重叠较小时,称为横向联邦学习。参与方们的数据集具有高度重叠的样本纬度,特征维度重叠较小时,使用方法称为纵向联邦学习。如果参与方们数据集在样本和特征维度上都没有足够的重叠,则使用联邦迁移学习。

3. 隐私保护下的技术工具

参与方们在参与联邦学习的过程中需要使用工具来进行数据的隐私保护。联邦学习的主要的工具包括安全多方计算,同态加密,私密共享和差分隐私。参与方们可以利用安全多方计算保证信息层面的数据安全。安全多方计算成本较高,为降低数据传输成本,参与方们可能需要在降低对数据安全的要求来提高训练的效率。

同态加密能够对所有数据进行加密处理,参与方们接收到的是密文,使攻击者无法推理出原始数据信息,保障数据层面的安全。在实际应用中,为了提高计算效率,参与方们一般采用半同态加密,半同态加密可以使用加法和乘法进行同态加密。

差分隐私可以用于参与方本地数据信息安全的保护,通过在参与方各自的原始数据上不断加噪音来减弱任意一方数据对于整体数据的影响。其缺点在于牺牲训练效果,过多的噪音会降低模型训练的效果,参与方们在使用差分隐私时需要在数据安全和准确度上进行取舍。


四联邦学习的现状和发展

1.联邦学习的框架和标准化制定

联邦学习的技术框架建设方面。谷歌首先提出开源的离散数据联邦学习应用框架TensorFlow Federated (TFF)。TensorFlow Federated主要支持利用如今数量众多的移动智能终端设备和边缘端计算设备的计算能力,保证数据不离开本地的同时训练本地机器学习模型,通过Google开发的Federated Averaging 算法,即使在较差的通信环境下,也能实现保密、高效、高质量的模型汇总和迭代流程,且移动端和边缘端用户体验上不做任何牺牲和妥协。目前Google已经将联邦学习应用在移动设备键盘输入预测上。

在学术研究与行业应用上,腾讯发起的中国首家互联网银行——微众银行正在积极探索。在国际人工智能专家、微众银行首席人工智能官杨强教授带领下的AI 团队开源了首个联邦学习“FATE(FederatedAI Technology Enabler)” 工业框架,作为安全计算框架支持联合AI生态系统,该框架可以实现基于同态加密和多方计算的安全计算协议,在信贷风控、客户权益定价、监管科技等领域推出了相应的商用方案。微众银行与瑞士再保险公司达成合作,共同研究“联邦学习”在再保险领域的应用。在杨强教授担任标准制定工作组主席的带领下,微众银行发起“IEEE联邦学习标准项目”,成为国际上首个针对人工智能协同技术框架订立标准的项目,旨在共同制定联邦学习标准形式的具体形式和内容,达成行业合作,共同推动联邦学习在各行业领域的进一步发展。

目前,联邦学习的国际标准化工作正在进行,随着 6月15日IEEE联邦学习基础架构与应用标准工作组的第二次会议在美国洛杉矶的召开。海内外13家来自科技、金融、教育、医疗等不同行业的知名研究机构及企业从多角度探讨联邦学习技术的应用案例,对联邦学习标准草案的制定提出建设性意见,该标准草案预计在一年内出台,意味着将为立法和监管提供更多技术依据。
2.国内联邦学习平台产业化建设
联邦学习技术作为机器学习和数据结合的推动者,将推动各行业人工智能技术平台的应用发展,目前各企业已经开始在业务方面开展联邦学习在产业方面的技术平台建设工作。


百度基于数据本地和云端隔离技术,采用安全数据融合以及多方联邦学习技术,推出“点石”数据安全融合及应用服务平台。提供安全数据集合、灵活建模、快速服务部署等服务,基于硬件隔离域、多方安全计算的技术能力,支持多场景的数据安全计算。“点石”利用安全方案解决数据打通难与应用成本高等问题。提供减少企业损失的风险识别,帮助企业有效识别在信用卡、贷款、在线支付等场景中的违约、欺诈等潜在风险,帮助企业对销售线索进行甄别与拓展,优化企业营销策略。“点石”的联邦学习应用场景主要是风险识别和营销分析。该平台与清华大学达成合作,利用联邦学习对接政府客户,帮助智慧城市建设。在风控模型建立方面,与狮桥公司合作,协同客户本地训练,结合大数据联合建模平台进行数据融合与分析建模。

金融应用领域方面,平安集团的高科技内核——平安科技公司正在研发建立全球首个面向金融行业的联邦学习平台“蜂巢”。平安科技利用联邦学习技术,设计面向数据强监管的金融业多态多任务学习模型。“蜂巢”能够应用于多方信息的安全协作计算,满足银行和金融机构的风险评估、反洗钱、投顾、投研、信贷、保险和监管等多场景应用需求。减少人力成本和打通数据的成本,提高数据使用在机器学习过程中的转化率。平安科技将推动学界和工业界的积极探索,携手金融行业共同建立“联邦学习+互联网+监督”的联邦大数据平台,打破金融行业孤岛,联合各企业以及政府机构,进一步推动联邦学习在金融产业的快速发展。
3.联邦学习与物联网的融合
物联网(IoT)生态环境中,联邦学习可以用于人工智能模型的分散训练。目前国内多家企业正在致力于研发联邦学习在物联网领域的应用解决方案。

在通信分配应用方面,华为数字算法实验室利用联邦学习原理解决车联网中可靠低延迟通信的联合功率和资源分配问题,在概率排队延迟方面最小化车辆用户的网络功耗。利用联邦学习技术,华为数字算法实验室提出了一种分布式学习机制,车辆用户在道路单位的帮助下能够在本地学习网络范围队列,而不实时共享队列长度估计尾部分布。这种方法能高精度判断学习网络中的车联网队列分布,减少车载队列长度,优化资源配置。

车辆用户和道路单位间利用联邦学习进行模型交换
(图源:Distributed Federated Learningfor Ultra-Reliable Low-Latency Vehicular Communications)

联想在去中心化人工智能和联邦学习的实际应用场景上,专注与硬件技术的结合,从各种来源聚合生成本地模型并允许物联网相互学习。每个边缘设备的数据独立用于学习创建本地模型。本地模型聚合将中央服务器转换为全局模型,再分发返回边缘设备,令所有边缘设备都可以从收集和处理的信息中受益,在不同场景下,利用联邦学习使物联网设备或传感器能够相互学习。联想正在与波兰云数据解决方案公司ByteLAKE合作,开展联邦学习和边缘计算环境系统构建。

联邦学习允许物联网各设备间联合学习
(图源:Federated Learning: DecentralizedAI Whitepaper Lenovo,ByteLAKE)

4.对多方安全计算的积极探索
在数据隐私保护的研究应用方面,基于多方安全计算技术,腾讯开展AI创新实践,推出“腾讯云数盾”。数盾以数据安全治理为核心,构建了可用于外部攻击防护、数据交换保护、内部防泄露等全流程的数据安全保护方案,用于帮助企业数据安全建设。数盾通过使用匿名化、差分隐私、安全多方计算架构等方式,在数据使用安全的基础上,平衡隐私保护与数据挖掘价值,符合对于数据使用和共享环境中的合规需求。

阿里巴巴于四年前开始研究共享学习技术,研发蚂蚁金服共享学习平台,主要思想和联邦学习相同,基于数据安全和隐私保护,在多个参与方之间通过共享加密数据或加密机制下的参数交换与优化,进行机器学习,作为虚拟的共享模型的产品平台。蚂蚁金服共享学习平台本着数据共享建模方案不泄露用户隐私且符合数据安全保护的原则实现了数据的多方协同和授权共享,得到更准确高效的模型和决策,进一步释放数据价值。

五联邦学习的未来

对想要进行联合机器学习的各参与方,联邦学习具有保护隐私和多方本地数据安全的极大优势。避免集中式存储数据,安全合规地从多源不互通的数据中创造新的价值,充分利用各方数据资源,优化机器学习训练结果,学习参与方可以在联合形成协同合作的联邦大数据环境,形成联邦学习生态。联邦学习生态可以视为一个多种数据来源合作产生的,基于联邦学习原理协同规范的,用于联邦学习过程的无共享多方数据集群环境。用户、方案提供商、服务商、运营商以及生态链上游厂商融入到一个大环境,提供优化服务,真正达到联邦学习的资源融合作用。对金融、互联网、通信、零售、交通运输、工业生产等行业提供计算服务支持。我们可以从以下四方面窥探联邦学习的未来。

1.  丰富的数据资源是联邦学习最大的金矿。原本分散在各规模企业的数据,通过联邦学习生态达成,可以发挥其自身作用,有了更好的用武之地。例如在精准营销方面,通过机器学习建模,把顾客群体细分,对每个群体,量体裁衣地采取相应对策。利用整合各方有用资源,构造更好的机器学习效果,以此产生利益价值。利用“联邦学习+人工智能”真正的赋能大数据并反哺个人和企业业务,用数据和科学提升业务效益。

2.  打破传统企业机构的数据边界,利用联邦学习提升智能化效果。改变过去商务智能和政府仅仅依靠机构内部数据的局面。协同各企业机构,达成优化合作,降低各机构间的交易摩擦成本和数据风险,提升机器学习的准确性和更新的及时性。在智慧城市、智慧医疗、智慧金融、企业数据联盟等方面提出新的使用方向。

3.  更了解市场,发现用户需求并将联邦学习产业应用落地。从市场业务挖掘数据使用场景,找出联邦学习在市场环境中的使用场景及应用范围,结合目前个人和机构的使用需求,利用联邦学习环境,提供丰富的资源,强化机器学习效果,辅助加速各产业智能化。

4.  达成各行业联手,共建全行业的联邦学习生态。联邦学习的出现已经开始改变大数据在各行各业的应用方式,联邦大数据生态的构建也离不开学界和工业界的共同探索和推动,使用联邦学习技术的各方应当携手,联合制定数据联邦行业规范,促成多方联邦数据协议,达成标准化、协同化、规范化的联邦学习环境。

在信息流通日益渗透到企业和个人的今天,联邦学习将逐渐成为金融、保险、投资、医疗等众多行业领域实现商业价值和隐私安全保护的最佳途径,其应用将在各行业全面展开,联邦学习的新纪元已经到来。



参考文献



编者评点

本文作者王健宗博士是资深的人工智能专家,主持多项商业领域的人工智能和联邦学习项目开发,特别是在联邦学习领域,其有丰富的实践经验和独到的见解,是国内联邦学习领域的领军人物之一。在本文中,作者专注于人工智能领域遇到得数据隐私保护问题,介绍了联邦学习的发展现状、面临的挑战及未来发展趋势。首先,作者介绍了数据隐私保护所面临的严峻现实问题及各国的应对措施,分析了人工智能时代数据隐私保护所面临的挑战;其次,介绍了联邦学习的概念、分类及其所用到的技术工具;然后,阐述并分析了联邦学习的现状和发展,包括联邦学习的框架和标准化制定、国内联邦学习平台产业化建设、物联网与物联网的融合、对多方安全计算的积极探索;最后,总结了联邦学习的未来。


  
| 马学彬

《联数》责任编委
CCF大数据专家委员会通讯委员
内蒙古大学副教授



原文链接:https://mp.weixin.qq.com/s/3evNYivfg-_P4TRcim5cGQ


编辑:董莉



作者: 刘海明    时间: 2019-7-23 22:05
【案例】
人工智能是不是“工作”杀手?

【导读】近年来,随着人工智能技术的快速发展和成熟,关于自动化技术取代人类工作导致失业的问题,日益受到社会的关注和讨论。本文作者指出,将人工智能技术发展视为我们社会未来的唯一决定性因素,而忽视整个进程中政府、非政府组织、劳动者、企业、宗教社团等各方面的作用,本质上还是一种技治主义立场。技术从内部来看无善恶之分,但技术的开发和应用却需要考虑各方的立场、态度和利益,技术在带来效率提高、减少岗位的同时,其所带来的边际收益应该是递增的,这种递增应以新的工作需求为基础,给劳动者带来更多的幸福。为达到这个目的,在人工智能产业的规划和立法中,通过技术民主化来扩大技术参与者的利益范围,给缺乏技术、金融、文化和政治资本的社会阶层赋予获得技术设计过程的权力,因此劳动者的命运还是要诉诸社会的广泛协商和共识。文章仅代表作者观点,特此编发,供诸君思考。


消失的工作和扩大的贫富差距

2017年6月下旬,谷歌原大中华区总裁、创新工场董事长李开复博士在纽约时报的“观点”栏目发表了一篇题为《人工智能对人类社会的真正威胁》的专栏文章,他在文中一方面认为从技术上来看,人工智能发展到人类水平智能(即通用人工智能或强人工智能)仍然存在巨大障碍,达成该目标的期限还很遥远,另一方面在实践中人工智能却可以迅速取代很多重复性、低技能的岗位,例如出纳、客服代表、股票交易员、律师助理和放射科医生等,后续还可以代替人类操作半自治或全自治的硬件设施,使得工人、司机、快递员等职业逐步消失,因此这些趋势将导致严重的失业问题和贫富差距问题。

李博士为此提出了一种有趣的“人工智能决定论”的解决方案:对于失业问题,人类可以从事所谓的“爱心服务工作”或充当志愿者,因为这些工作人工智能干不了,而且又能给人使命感,政府可以通过对企业征税来为这个新的工作计划提供资金,但不是所有国家都有财力承担人工智能发展问题所带来的公共开支,因为人工智能创造的财富将主要流向中美这两个人工智能技术强国,只有他们才能提供资金支持这种转变;对于贫富差距问题,人工智能发展落后的国家在经济上必须依赖中美两国,来换取资金来应对失业问题,这种经济依赖将重新塑造当前的地缘政治,因此人工智能提供了一个通过国际合作来使贫富差距最小化的机会。

好奇与创新比贫富差距更重要

也许是李开复博士在经济、政治方面的“人工智能决定论”主张过于强烈,来自科技界的另一位著名企业家、亚洲最大的OTA(Online Travel Agency)携程旅行网董事局主席梁建章博士在7月初即撰文反驳李开复的观点。他一方面同意人工智能在短期内难以达到人类水平的技术论断,另一方面则不认可李开复关于人工智能经济和政治影响的判断,他的论点主要从经济学角度展开:首先是人工智能导致的生产率提高将促使人类有更多的闲暇时间和购买力,从而导致服务业需求的增长,薪的就业机会将填补人工智能取代的工作;其次是产业史和微观经济学的研究表明:发明颠覆性技术的企业未必能获得超额利润和形成垄断,在3个或以上的寡头垄断市场,利润会达到一个均衡水平,消费者将获得技术进步的红利,因此中美两国可以成为人工智能技术大国,但其人工智能产业及其公司不足以影响国际地缘政治。

梁建章在反驳李开复文章的基础上,从新的角度提出了一个很有意思的问题:相对于贫富差距问题而已,人类文明发展的动力是好奇、探索和创新,哪天人类不再好奇和创新了,才是真正的大问题。AI将人类从重复性的低技能工作中解放出来,使得人类能从事更多的创新和创造活动,因此研发和创意人员不会失去工作,反而是研发工程师和重复性工作岗位(例如清洁工)的收入差距会扩大,这才是人工智能带来的贫富差距问题,但贫富差距从历史上来看是一个老问题,形成贫富差距的原因很多,从某些方面来看,人工智能发展带来的经济繁荣和教育进步反而有助于贫富差距问题的解决。

人工智能是不是“工作”杀手?

作为一名多年从事信息科学历史和社会影响的研究者,笔者在技术方面同样认可李开复的看法:人工智能短期内无法达到人类级别水平,但在很多具体的领域取代大量重复性、低技能工作岗位的技术条件已经逐步成熟,所缺的只是社会制度、文化观念、法律和资金的支持而已。

关于二战后以智能、信息为主题的自动化技术取代人类工作导致失业问题的担忧,并不是一个新的问题,早在上世纪50年代,控制论的主要奠基人诺伯特·维纳就在其名著《人有人的用处》中预测:“自动机的采用会带来失业现象,它同目前的工业萧条甚至三十年代的危机相比较,后者只不过是儿戏而已”,但是过去的这60年来,与维纳的预言相反,二战后大规模的失业危机并没有发生,世界经济总体蓬勃发展,新技术革命反而成为了主要的引擎。以名义价格计算的世界生产总值从1950年的4万多亿美元增长到2014年的77万亿美元,1950年到1973年的世界GDP的平均增长率为4.9%,远超过上次工业革命中1870年到1913年期间2.1%的平均增速。因此,从历史的角度来看,由于战后的和平环境导致了全球化和人口增长,各国通过全球化红利进入了相对稳定的国际分工体系,人口增长促进了对工业品、消费品乃至信息服务的需求,从而导致了传统和新兴的服务业吸纳了更多的就业人口,维纳的预言没有应验,

在维纳所预言的时代里,技术发展主要解放了人类的体力劳动,但李开复的观点是这一次的人工智能革命带来的是相当一部分脑力劳动的解放,因此某种程度上将摧毁二战以来形成的中低端服务业吸纳大量劳动力的就业市场,传统劳动力的需求将急剧减少,劳动力供给出现过剩。

对于李的观点,梁建章的反驳实际上隐含了两个劳动经济学的假设:一个是从生产要素的观点来看,技术要素和劳动力要素的互补性大于替代性,另一个是当由于技术带来的生产效率提高带来工资水平增长时,劳动供给的替代效应产生的个人收入增长足以产生新的消费需求,创造出新的工作岗位。

通俗地说,人工智能技术作为生产要素,其投入的增加将导致与之匹配的研发、技术、运维岗位的劳动力边际生产率提高,这个称之为技术要素与劳动力是互补性的,另外,人工智能也导致重复性、低技能的劳动力被取代,即技术要素对劳动力要素是替代性的。虽然在当前的场景下两者兼而有之,但显然梁认为通过新需求带来的新岗位,本质上使得技术要素和劳动力要素之间的互补性要大于替代性。

当工资水平由于效率提升而提高时,一方面劳动者可能减少劳动时间,减少供给,在获得原来同样报酬的同时增加闲暇时间,这个称之为收入效应,另一方面劳动者觉得休息时间比原来更加昂贵,因此愿意增加劳动时间获得更高收入,从而增加劳动供给,此即替代效应。梁文的假设是技术发展后,由于替代效应的存在,人们并不会减少工作时间,而是继续保持同样或类似的供给,获得更高的收入,从而增加了对闲暇时段各种服务的需求,创造了新的岗位。

笔者的观点是李、梁二位的主张对于人工智能发展是否会颠覆性地取代大量工作岗位的问题,都不具有足够的说服力,原因至少有二:

首先,两人的立场都站在各自的利益点,并未客观、全面地反映事实。由于李开复本人是人工智能产业的投资者和推动者,其在文中对人工智能的定义都别树一帜:“人工智能到底是什么?粗略来讲,人工智能技术指的是获取某一领域(比如贷款偿还记录)的海量信息,并利用这些信息对具体案例(是否应给某人贷款)做出判断,以达成某一特定目标(贷方利益最大化)的技术。这些技术在给定任务中所展现出的工作能力已经被证明可以完全超越人类的表现。”但是在学术界和产业界,虽然当前人工智能商业化应用的成功很多是大数据驱动的,但大数据是否为人工智能的核心必要条件并不是广泛的共识,按照国际人工智能促进会(AAAI:Association for the Advancement of Artificial Intelligence)的定义则更为中性:“对作为思维和智能行为基础的机制的科学理解及它们在机器中的具体实现。”

李开复的主张中还有一些比较强的观点,即将金融领域中人工智能应用带来的效率提高简单地推广到了更广泛的行业,他甚至举了一个创新工场投资的贷款公司作为例子。实际上,由于金融、医疗行业的数据质量和数量相对于其他行业处于一个较高的水平,人工智能商业化的进程往往以这两个行业为重点,但是即使从技术维度来看,在法律、会计、教育培训、制造、物流等领域是否能替代绝大数工作岗位,也绝非轻而易举。

对于梁文而言,在劳动者关于工作—闲暇时间分配的决策模型中,过于简单地假设劳动者愿意保持工作时间以获取足够的收入,并将收入用于购买闲暇时间的服务,这里有两个方面的问题:一方面人工智能的发展是否使劳动者的贫富差距达到一个合理的水平,使得富人的服务消费需求有足够的生产者来提供?而不至于因为剧烈的贫富差距导致社会失衡?另一方面在于服务业吸纳的就业人口总量是否能填补因为技术进步而失去的工作岗位,这个比维纳之后的几十年还是有所不同,历史经验是否能重现是一个疑问,梁一手创立的携程旅行网是中国服务业的代表性企业,其员工数量高达3万多人,是全球最大的OTA企业Priceline的两倍,站在这个立场上提倡服务业对就业人口的吸纳,难免会有失偏驳。

其次在于任何一种技术的开发、部署和推广都是受到外部社会环境干扰的,而不单纯是由技术本身的先进性来决定。英国工业革命时期有工人的“卢德运动”,爱迪生与西屋电气有直流电和交流电之争,中国高铁有磁悬浮和轮轨技术之争,类似的例子不胜枚举。社会对人工智能技术的选择涉及文化传统、法律、伦理等一系列考虑,人工智能技术涉及自然语言处理、图像识别、机器学习等诸多领域,在每一个行业的开发和应用都涉及诸多方面,例如铁路12306服务中心所导致的整个铁路售票系统变革,就带来了农民工与老年人的“信息鸿沟”问题,至于人工智能在医疗中的应用,以及无人驾驶技术的部署,都涉及到了观念转变和法律体系的修订,这些都不是一蹴而就的事情。同时技术开发和商业化所需的资金与人才资源,从经济学角度来看都具有稀缺性,人工智能中相关技术开发的优先级和先后秩序,也都存在着社会利益的争夺。

因此,从以上的分析来看,人工智能是不是“工作”杀手,远不是李、梁这两篇文章能够给出结论的。

劳动者的命运谁来掌握?

我们很难直接把维纳的预言或正或反地应用于这一轮人工智能发展带来的技术革命中,对于未来难以简单地基于经验外推,尤其是当前的技术、经济和社会条件与维纳时代已经大相径庭。但我们很难认同李开复博士为人工智能带来的社会就业问题开出的处方,对于梁博士的乐观预测也心存疑虑,无论如何,将人工智能技术发展视为我们社会未来的唯一决定性因素,而忽视整个进程中政府、非政府组织、劳动者、企业、宗教社团等各方面的作用,本质上还是一种技治主义立场。技术从内部来看无善恶之分,但技术的开发和应用却需要考虑各方的立场、态度和利益,技术在带来效率提高、减少岗位的同时,其所带来的边际收益应该是递增的,这种递增应以新的工作需求为基础,给劳动者带来更多的幸福。为达到这个目的,在人工智能产业的规划和立法中,通过技术民主化来扩大技术参与者的利益范围,给缺乏技术、金融、文化和政治资本的社会阶层赋予获得技术设计过程的权力,因此劳动者的命运还是要诉诸社会的广泛协商和共识。

原文链接:https://mp.weixin.qq.com/s/PPno8hTEIAx6e6ZZaYD5fg



编辑:董莉



作者: 刘海明    时间: 2019-7-24 20:02
【案例】
智能时代的数据伦理与算法伦理──第五届全国赛博伦理学暨数据伦理学研讨会综述

摘 要:互联网、大数据、人工智能的发展得益于“数据+算法”,我们身处的世界也越来越多地被“数据+算法”来定义。然而,数据和算法也引发了诸多社会问题,数据伦理与算法伦理成为学界关注的热点。第五届全国赛博伦理学暨数据伦理学研讨会以“智能时代的数据伦理与算法伦理及其法律规制”为主题,从数据伦理、医疗大数据伦理、算法伦理、人工智能伦理和人工智能哲学等方面,梳理了互联网、大数据与人工智能迅速发展所带来的伦理问题,并综合国内外关于数据伦理与算法伦理等领域的最新研究成果,讨论了智能时代背景下我国健康、合理地发展互联网、大数据与人工智能的方法和路径,并呼吁人文社会科学学者积极拥抱智能时代,积极应对互联网、大数据与人工智能发展过程中的问题,对人工智能的发展做一个合理的思考。
关键词:数据伦理;算法伦理;赛博伦理学

第五届“全国赛博伦理学暨数据伦理学研讨会”于2018年12月14~16日在海南海口举行。本次会议由中国自然辩证法研究会科学技术与工程伦理专业委员会、国家社科基金重大项目“大数据环境下信息价值开发的伦理约束机制研究”课题组、国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”课题组、国家社科基金重大项目“高科技伦理问题研究”课题组、中国法学会“人工智能科技的法律规制研究”课题组、《伦理学研究》杂志社、《湖南师范大学社会科学学报》杂志社、上海玛娜数据科技发展基金会、湖南师范大学人工智能道德决策研究所、大连理工大学大数据与人工智能伦理法律与社会研究中心联合主办。

来自中国社科院、北京大学、复旦大学、上海交通大学、国防科技大学、华东师范大学、华南理工大学、科学出版社等高校、媒体和企业的近200名代表参加了会议。上海大学孙伟平教授主持开幕式,海南政法职业学院院长吴杰教授致欢迎辞,中国自然辩证法研究会理事长何鸣鸿教授、中国自然辩证法研究会科学技术与工程伦理专业委员会理事长王前教授致辞。大会围绕“智能时代的数据伦理与算法伦理及其法律规制”这一主题,从数据伦理、医疗大数据伦理、算法伦理、人工智能伦理和人工智能哲学等方面展开了热烈而深入的探讨。

一、数据伦理

大数据、人工智能的发展得益于数据的有效开发,而由数据引发的哲学伦理学问题逐渐成为学术热点问题。段伟文、李伦、黄欣荣、闫宏秀和苏令银等学者就数据智能、数据主义、记忆与数据、数据分配、数据被遗忘权、小数据研究等问题进行了研究与探讨。

中国社会科学院段伟文认为,当前人工智能发展的主要应用是数据智能,这使得智能算法在社会生活中所扮演的角色日益重要,并正在导致一种新的“数据解析社会”的来临。首先,数据智能建立在世界的数据化之上,但具体的以数据呈现世界和人的行为方式的某些方面上,难免有其偏向性。其次,对数据智能背后的数据主义认识论及其以数据把握世界的关联性的数据观应该展开深入的技术和伦理反思。进而从能动性和拟主体性等角度,对数据解析社会及其算法权力进行政治与伦理层面的审视,使算法权力强化循环机制、以预测为导向的可能性以及数据画像对主体性和能动性的剥夺得以揭示与辨析。

数据主义能否成为信息时代的精神?大连理工大学李伦的回答是,数据主义是数据化的一种哲学表达,主张信息自由主义和“数本主义”,试图替代自由主义和人本主义,而人类的自由和繁衍是永恒的价值,数据主义亦产生了诸多不良后果,数据主义不足以成为信息时代的精神基础。基于数据权利与数据权力失衡的状态,我们应倡导基于权利的数据伦理,减少数据主义的不良影响。

江西财经大学黄欣荣认为,大数据将万物数据化并将世界透明化,由此引发了诸多伦理问题。传统的伦理学从消极伦理观出发,认为大数据给人类带来了隐私、公平与安全等问题,于是开出了阻止和治理的药方,试图用旧伦理规制大数据。从积极伦理观来看,大数据及其透明世界可能给我们带来真诚、平等、自由、安全和个性等人性的本真回归。我们应当坚持数据开放,缩小数据鸿沟,改变隐私观念,重建伦理体系,追求有限自由,以积极的伦理态度拥抱大数据时代。

针对记忆伦理与数据的关系问题,上海交通大学闫宏秀认为记忆伦理的探究在本源形式上与数据有必然的关联性,这种关联性不仅仅表现为数据作为一种技术对记忆伦理所产生的影响,也表现为数据的伦理属性与记忆伦理之间的羁绊及数据相关的伦理问题与记忆伦理之间的羁绊。这些影响与羁绊正是记忆伦理的新面相。从技术伦理学的视角看,当其介入到记忆时,会引发一些记忆伦理问题,同时也会解决一些记忆伦理问题;从记忆伦理学的视角来看,记忆与技术的深度关联使得对记忆伦理的考察必须将技术纳入其中。

伴随数据资源和数据财富的理念日益深入人心,大数据时代的数据资源分配领域矛盾问题突显,与传统的分配正义理念的冲突集中体现为分配机会正义、分配程序正义和分配责任正义3个方面。国防科技大学张煌认为在大数据时代要实现分配正义,应当遵循机会均等、分配标准与程序合理、利益与责任同等分配等原则。

国防科技大学黄嘉认为,空间数据对当代民众社会生活和国防建设都具有重要意义,实现空间数据的公正共享既是一个经济、政治和法律问题,同时也有着深刻的伦理意蕴。空间数据分享和知识产权保护的伦理困境实质上是由外空探索利用中的“人类共同利益”原则与空间利用商业化发展过程中的“经济理性”相冲突而引发的。化解伦理困境的基本思路是协调人类共同利益与国家、商业利益之间的关系。

复旦大学黄斌认为,传统的知情同意模式及其内在关系预设,都是建立在个人自主性价值之上。大数据技术将人置于不同的群组进行分析,使得“知情同意主体”和“行动主体”的界线变模糊,从而产生了新的伦理问题。大数据本身所预设的“未知目的”与传统知情同意模式的“确定目的”预设存在着深刻的内在矛盾,从而使数据主体的自主性很难得到尊重。

信息技术的发展改变了人类记忆与遗忘的状况。信息技术以物质手段克服了人类记忆能力的限制,使得记忆可以成为永恒,这就引发了对数字记忆的讨论。以欧陆为代表的保守主义积极推动被遗忘权的立法,GDPR明确赋予个人数据的被遗忘权;另一方以维纳和弗洛里迪为代表的数据伦理学家认为删除信息是一个熵增行为,是不道德的,数据主义则更为激进。湖南师范大学胡晓萌认为这两方的观点都过于极端,未来基于权利的数据伦理是将数据权利赋予个体,通过行为准则和技术标准,能够对数字记忆给人类生活带来的诸多问题进行有效消解,区块链技术为这种理论的现实可行性提供了技术前提。

在过去的几个世纪里,学术知识的构建普遍使用小数据研究,然而这种研究方法目前正受到大数据发展的挑战,但小数据研究在未来仍将是受欢迎和有价值的,因为它们在回答有针对性的问题时具有实用价值。上海师范大学苏令银阐述了大数据时代小数据研究的价值,以及它与大数据和数据科学的关系,并重点探讨了将小数据扩展到数据基础设施的意义。

二、医疗大数据伦理

医疗大数据是大数据发展的重要组成部分,但医疗不同于传统产业,它切实关系到个体生命、公共健康、医学科研与医疗诊断等诸多方面。张海洪、孙雯波、王晓敏、李晓洁等分别就数据伦理准则、医疗人工智能、大数据管理与受试者保护、健康医疗大数据法规与伦理体系等方面进行了探讨。

北京大学医学部张海洪认为,数据的使用对于促进公共健康、提升服务等有着重大意义,伴随着各种机遇的同时也面临着诸多伦理挑战。为了更好规范政府以及公共部门对于数据的使用,英国文化、媒体和体育部于2018年更新了《数据伦理框架》。该框架尝试界定数据伦理的七条原则,包括:①始于清楚的用户需求和公共利益;②了解相关的法律及实践准则;③基于用户需求的恰当使用;④理解数据可能的局限;⑤在力所能及的范围内追求高标准;⑥在工作中确保公开透明与负责任;⑦负责任地使用数据。这不仅为数据科学专家和政策专家提供具有可操作性的伦理指导,而且从最初的设计出发,对数据收集、存储、分析和共享等全过程可能涉及的伦理问题提出规范要求,对我们探索负责任的数据伦理最佳实践有着积极的启发意义。

当前以深度学习和数据挖掘两大核心技术为主的人工智能,向医疗产业赋能,其在政策、资本、社会、技术等优势上推动医疗人工智能领域的开发和进展,将引发医学领域颠覆性革命。目前医疗人工智能领域关于医学数据的诸多乱象和困局亟待破解。其主要表现在数据主权不明、数据共享受限、数据质量不高、数据成本昂贵、数据安全堪忧、数据不公平利用等方面。湖南师范大学孙雯波认为,以伦理视角关照和分析这些困局中的问题,在科学技术和社会发展的平衡中寻求法律法规和行业伦理约束至关重要。

中南大学王晓敏认为,随着国家食品药品监督管理总局加入人用药品注册技术要求国际协调会(International Council for Harmonization of Technical Requirement for Pharmaceuticals for Human Use, ICH)以及新药首次临床研究的默认许可制等系列国际化步骤的加速,中国正逐渐走向探索性强、风险性高、技术复杂的创新性临床试验时代,这对我国受试者风险评估和安全权益保护提出了新的挑战。受试者安全评估是伦理委员会审查的重要内容,但我国目前对于非预期事件的关注和审查经验相对不足。通过对临床研究大数据管理系统中的非预期严重不良事件报告进行伦理分析,可以全面了解、掌握非预期严重不良事件发生的情况,为非预期事件的全面而系统的评估审查,以及最大限度地保护受试者安全提供参考。

北京大学医学部李晓洁认为,健康医疗大数据对公民生命健康保障极其重要,然而我国相关法规和伦理体系尚不健全,在采集应用和管理中面临着一系列问题。因此需要在透明性、现实性、准确性、责任、特殊群体保护和公正性等六大原则和共识基础上,设立数据专员并加强监管,在保护患者利益的同时,更好推动健康医疗大数据对数据所有者的回馈。

三、算法伦理

随着算法辅助或人类决策的领域越来越成熟,算法的伦理问题日益成为人们关注的重要话题。算法的设计、价值负载、道德决策等问题成为学者们关注的热点。张本祥、张卫、管开明和孙保学等从复杂适应系统(CAS)、算法的道德物化、自动驾驶的算法伦理、算法与文化多样性、算法的道德合理性等问题和视角进行了探讨。

黑龙江大学张本祥认为,复杂适应系统(CAS)是对人类社会非常贴近的模拟,在其视角下考察智能社会的伦理原则能给出伦理学理性的洞见。CAS是一个并行性的寻优机制,对应的智能社会伦理原则是优化原则和效率原则;在将智能界定为“高效地处理确定性、不确定性及两者混合问题的能力”基础上,智能社会则要求契约原则、自由原则、平等原则;智能社会整体层面的智能性自然要求伦理关系的整体原则;最后,智能社会与动物种群的本质不同则在于个人及社会层面的超越理性计算的精神,这是智能社会中的博爱原则。

华中师范大学张卫认为,技术属于真实物理空间,而算法属于虚拟的赛博空间,二者在本质上都是一种转换和输出,因此技术伦理学的研究可以应用到算法伦理中去。算法中的道德物化主要关注积极主动地把道德规范嵌入其中,使算法在助推人们合理适当的决策和行为发挥更大作用,更好地实现其正面积极的伦理价值。在算法与伦理的关系问题上,有3种应对路径可供选择:一是对算法进行伦理的约束,使算法的设计与运行限制在伦理允许的范围之内,抑制其负面伦理价值的出现;二是积极主动地把道德规范嵌入其中,使算法在助推人们作出合理恰当的决策和行为时发挥更大的作用,更好地实现其积极的伦理价值;三是让算法成为完全的道德行动者,使它具有分辨善恶的伦理判断能力,并能自主地作出道德判断和道德决策。算法中的道德物化主要是指上述第二种路径。未来人类生化算法可能被外部算法全面超越,人类道德是否自主将是需要思考和面对的问题。

武汉科技大学管开明认为,自动驾驶汽车的算法伦理实质是人类伦理在自动驾驶领域的延伸,自动驾驶汽车的算法伦理处于人类的伦理道德范畴之中,对它的讨论不能超越人类的伦理范围。现实生活中驾驶环境错综复杂,人工驾驶所作出的道德决策亦难达成一致,更多的只能在事故后进行责任的厘清与追究。因此实现对自动驾驶汽车的算法进行伦理预设是不现实的。符合自动驾驶汽车的交通配套设施、交通体系的调整,完善相关法律法规与规范措施以利于情景归责,才是促进自动驾驶汽车发展的真正解决之道。

最新的道德机器实验研究证实不同的文化集群虽然有普遍的道德偏好,但也存在明显的价值观差异。这除了增加人们对人类价值观本身一致性的疑虑,也能够为道德相对主义提供辩护。湖南师范大学孙保学认为,承认和正视文化的多样性并不意味着对于人工智能伦理政策的制定必然走向相对主义。一方面,人工智能的伦理政策制定和评价要以人类共享的核心价值为标准,需要最大限度地求同存异以确立共同框架,填补政策真空,最佳的伦理政策模式要在理性探讨和对普遍道德偏好的经验研究的基础上达成共识,在协商中不断地修正政策的不恰当之处;另一方面,负责任的伦理行为要求尊重不同集群的合理价值诉求。尤其对于大数据算法层面的道德分歧的化解,既要剥离价值分歧中的事实分歧,更要充分地发挥伦理委员会在算法监管和实践裁决中的作用。

重庆邮电大学李杨认为,算法的核心要素是清晰性或准确性,准确而迅速地完成特定任务的算法往往被视为优秀的算法。这种以完成任务的效果作为评价标准的原则背后蕴含着工具理性的逻辑。然而效果上的最优并不一定具有道德合理性,算法运行结果受到了数据的采集和采用的巨大影响,而数据的采集与采用都不可避免地与算法使用者的利益相关。维护算法的道德合理性,或者可以通过嵌入道德规则设计道德算法来实现。然而,即便生成道德算法,但由于其依然以工具理性为逻辑基础,也不能避免道德困境的生成。仅依靠计算优势的算法并不能天然地具有道德合理性,或许具有感知能力的情感机器系统(某种意义上的通用人工智能)的实现能够提供解题思路。

西安交通大学白惠仁认为,在现有法律和事故归责体系中,自动驾驶系统引起交通事故,会牵涉更多责任主体并导致归责困难。相较于传统汽车的道德责任问题,自动驾驶技术改变了汽车与使用者的边界及二者的关系。汽车自身作为机器还无法跨越技术和概念框架的困难,不能作为道德责任的归责对象。基于道德运气,使用者决定使用一辆自动驾驶汽车,表明他知道用车要承担的风险,一旦发生事故,使用者至少应负有部分责任。

算法作为计算机科学的基础,其伦理问题直接关系到整个计算机科学领域的伦理问题,并由此辐射到现代社会的方方面面。复旦大学孟令宇分别从算法伦理的研究对象和研究内容两方面说明算法伦理究竟是何种伦理。从算法伦理的研究对象来看,算法伦理应当属于一种技术伦理而非职业伦理,这是因为算法本身是伦理负荷的。从算法伦理的研究内容来看,算法伦理应当是由一系列中层原则构成而非一套伦理理论。最后他将算法伦理定义为以算法的伦理负荷为研究对象的由一系列中层原则构成的伦理体系。

四、人工智能伦理

人工智能在社会发展中发挥着越来越重要的作用,但是人工智能作为新兴技术也存在着潜在的道德风险。就如何应对人工智能伦理问题,规范与约束人工智能发展,孙伟平、闫坤如、毛新志和陈万球等提出了自己的观点。

人工智能发展需要遵从伦理道德和价值规范。人工智能体道德原则比较著名的有“阿西莫夫机器人三原则”和“阿希洛马人工智能原则”等。上海大学孙伟平在此基础上提出人工智能发展的五大道德原则:人本原则,科技活动必须要造福人类,人工智能体必须尊重人类、保障人的安全;公正原则,保证落后国家和地区人们不受歧视;公开透明原则,智能机器人必须可理解可检视,保证不会产生危害人类的动机;知情同意原则,人工智能技术应用到人类本身必须遵循这一原则;责任原则,如何判定机器人和智能驾驶系统的责任。

华南理工大学闫坤如认为,在人工智能发挥越来越重要作用的同时需要高度重视其引发的潜在道德风险。智能机器的道德主体地位问题、人工智能引发新的社会安全和公平正义问题及其他新的伦理问题都需要详细考察和谨慎决断。规范与约束人工智能发展,应从伦理规约、制度建设、文化培育等多维度着手才能更好规避人工智能风险,促使人工智能向更好的方向发展。

上海大学杨庆峰和伍梦秋认为,记忆理论能够澄清“强弱”人工智能的实质,记忆的分类也为人工智能发展提供了必要的理论基础。人们常将遗忘看作是记忆的负面现象或失效,现代研究表明人类自然认知系统的遗忘并不需要完全抹去先前的信息,但对于机器而言遗忘却是彻底的、灾难性的,这也是通用人工智能发展的关键障碍。但记忆并非完全是信息的巩固,遗忘是记忆的互补面,不是完全负面的现象,需要我们重新看待人工智能决策过程中记忆与遗忘的辩证关系。

人工智能的飞速发展带来的伦理冲突、价值挑战和道德冲击是前所未有的。湖南师范大学毛新志认为人工智能价值嵌入是解决难题的一剂良方。它的设定既需要考虑全人类的共同价值追求,又需要结合各国文化传统、价值理念和伦理规范等方面的情况,有差别地进行具体价值规范的嵌入。通过多方的参与、讨论与协商,确立一些广泛认可的价值原则和具体的伦理规范并嵌入到人工智能系统中。同时需要思考通过何种途径将这些伦理价值嵌入到人工智能系统。最后需要通过人工智能机器人的行为、做法和道德决策方面进行具体伦理评估和价值判断。

长沙理工大学陈万球认为,人工智能伦理问题可以归结为技术功利主义、新旧技术规范脱节和技术行为失范3个方面。人与技术的关系实质上是人与人之间的关系,人工智能的伦理问题是技术的异化问题。人工智能体的背后是人,恶不在于技术,而在于人。算法歧视是AI背负了人类决策者的种种偏见产生的结果。人工智能的伦理问题治理应当从观念、规范和行为入手,嵌入正确的技术价值观,对人工智能开发与应用进行合理引导。

面对人工智能技术的快速发展和人工智能创造物的冲击,知识产权制度尤其是版权制度理应有所回应。大连理工大学谷丽、韩雪和丁堃认为将人工智能创造物纳入版权客体范围具有一定的必要性和正当性,讨论人工智能创造物在版权保护、侵权等方面的制度设计问题具有重要的理论价值和实践意义,并提出应对人工智能对版权带来的潜在影响和挑战进行制度上的设计和回应,以期为我国版权制度创新提供思考和建议。

随着人工智能的迅猛发展,一些学者开始担忧在不久的将来,人工智能可能会对人类生存构成重大威胁。南开大学李帅认为,一方面可以通过构造一个驳斥人工智能威胁论的溯因推理结构,证明人工智能威胁论信念基于不可靠的归纳论证,因而在逻辑上难以成立。另一方面以哲学的视角,可以将人工智能威胁论视为一种信念。鉴于该信念达成之后的灾难性后果,可以借鉴其他高风险技术领域的成功经验,采取适当的防范策略,在合作和规范中发展人工智能,共同应对可能的突发情况和重大威胁,是预防人工智能背叛转折的有效法宝。

湖南省委党校张旺认为人工智能的道德伦理规约是比技术本身更为复杂、更趋深层次、更需要深入探讨的问题,应立足责任伦理视角探讨人工智能风险的规避原则和路径。他从人工智能技术研发和应用两个环节剖析了责任原则的嵌入与规约,在中外比较的基础上阐释了政府、企业界、学界等主体在风险治理中的权责定位,为有效规避人工智能技术的风险,推进伦理层面的国际合作共识,提升我国人工智能伦理话语权和主导权,提供可供参考的建议。

大连理工大学张媛媛认为,人工智能作为人类社会发展的工具和手段,其发展不应无边际地泛滥,不应冲击“以人为本”的基本原则,而应设有合理的弹性伦理边界,促进其沿着正确轨道前行。合理的弹性伦理边界需要充分考虑到人的智能与人工智能的相互协调,保证人的智能得以存续和发展,在此前提下提高人类社会生活对人工智能发展的适应能力,弹性调整人工智能的发展规模和速度,使人工智能成为人的智能的合理补充和完善。

海南政法职业学院王强强认为,人工智能在行政法应用和行政治理中已经崭露头角,人工智能广泛参与社会管理同样面临一些风险,比如侵犯自然人的隐私权、导致政府治理能力弱化等,因此需要提出适应人工智能科研和应用的法案,在行政法领域中对人工智能应用提出了一些进行规制的具体措施。

五、人工智能哲学

人工智能近些年的迅猛发展,让人类感觉到了被取代的威胁,虽然人工智能还未发展成为强人工智能,但已引起人们的担忧。人工智能的本体论、认识论和科学哲学等问题常常是讨论人工智能伦理问题的必要前提,王前、颜青山、余乃忠对此提出了自己的看法。

大连理工大学王前认为,从中西思维方式比较研究的角度看,人工智能在本质上是“动脑”思考的人工化。但是当前人工智能引发了一系列前所未有的社会问题,需要及时解决,中国传统的“用心”思考模式呈现出新的重要价值。“用心”思考模式的整体性、有机性、直觉性特征,有助于弥补人工智能技术应用造成的思维碎片化、判断机械化、推理简单化的缺陷,发挥知情意相结合、真善美相结合、提高思维效率的优势,实现人工智能和人类智能的有机统一,使人工智能成为人类社会发展的有力工具,而不至于成为一种“异化”因素。

华东师范大学颜青山提出,通过更精确地重述“汉字屋”论证的条件,汉字屋中的塞尔将以不同于中国人的方式“学会”汉语语法,从而证明塞尔试图反驳强人工智能的论证是失败的,尽管其结论依然可以成立。心灵智能的奠基性特征恰好是基于语法或语形的实践理解,完全的实践理解将通过神经肌肉系统重塑大脑,并且具有部分可逆性。完全的实践理解需要周期性的训练维持,这一特征将导致通用人工智能的两难:如果通用人工智能是心灵智能,那么它不可能全面超越人类智能;如果通用人工智能全面超越人类智能,那么它不可能是心灵智能。既然超级智能不可能是人的智能,如果它出现了,我们可以将其仅仅看作手段。至于超级智能作为工具可能引起的其他伦理问题,可以参照其他工具的方式处理。

长沙理工大学余乃忠认为,人类自诞生以来,经历了人与自然对抗、人与人对抗和自我对抗的3类对抗。随着人工智能从弱人工智能逐步向强人工智能的迈进,自然人与人工智能的第4类对抗正全面展开。第4类对抗不同于前3类对抗,它预示文明的人类正处于危险之中,人类作为抽象整体的神圣性被玷污与摧毁。第4类对抗以人的对象世界与意义世界的对立与矛盾而显示其独特的个性。对抗构成了意义世界建构的主轴,第4类对抗预示意义世界的“天工开物”。与更高的自我交往、生从死中求、类存在的整体性和意义点的连续分布,开辟了智能时代人的意义世界的新形态。

六、结 语

随着科技的发展,对智能时代背景下的数据伦理、算法伦理等伦理问题的探讨是一个开放性的议题,任何一种观点、任何一种理论都可能参与这一议题的讨论。孙伟平认为大数据和人工智能无论在中国还是在世界,都是一个前所未有的发展阶段。作为人文社科学者,我们应热忱地欢迎大数据和人工智能的到来,拥抱整个社会的智能化。面对大数据和人工智能发展过程中的一些问题,我们更不应退缩,而是应积极地对人工智能的发展做一个合理的思考。


Data Ethics and Algorithm Ethics in the Age of Artificial Intelligence ——Review of the 5th National Conference on Cyberethics and Data Ethics
[size=1em]LI Lun1, LIU Mengdi2, HU Xiaomeng2, Wu Tianheng2
[size=1em]( 1.Faculty of Humanities and Social Sciences, Dalian University of Technology, Dalian 116023, China;2.Institute of Artificial Intelligence Moral Decision-Making, Hunan Normal University, Changsha 410081, China )

[size=1em]Abstract:The development of internet, big data and artificial intelligence draws from data and algorithm, and the world we live in is increasingly defined by data and algorithms. Data and algorithms cause many social problems, so data ethics and algorithm ethics have become the focus of academic attention. The theme of the 5th National Conference on Cyberethics and Data Ethics is data ethics, algorithm ethics and their legal regulations in the age of artificial intelligence. From the perspectives of data ethics, medical big data ethics, algorithm ethics, artificial intelligence ethics and artificial intelligence philosophy, scholars have sorted out the ethical issues brought about by the rapid development of internet, big data and artificial intelligence. Based on the latest research results in the fields of data ethics and algorithm ethics, scholars discuss the methods and paths for the healthy and reasonable development of internet, big data and artificial intelligence in China in the age of artificial intelligence. Finally, experts at the meeting hope that scholars of humanities and social sciences can actively embrace the age of artificial intelligence, actively deal with problems in the development of internet, big data and artificial intelligence, and think rationally about the development of artificial intelligence.

[size=1em]Key words:data ethics; algorithm ethics; cyberethics


[size=1em]DOI:10.19525/j.issn1008-407x.2019.03.015

[size=1em]中图分类号:B82

[size=1em]文献标识码:A

[size=1em]文章编号:1008-407X(2019)03-0104-06

[size=1em]收稿日期: 2018-12-20; 修回日期2019-01-04

[size=1em]基金项目: 国家社会科学基金重大项目:“大数据环境下信息价值开发的伦理约束机制研究”(17ZDA023);国家社会科学基金一般项目:“开源运动的开放共享伦理研究”(17BZX022)

[size=1em]作者简介: 李伦(1965-),男,湖南隆回人,教授,主要从事科技伦理与科技哲学研究,E-mail:[url=mailtounli@dlut.edu.cn]Lunli@dlut.edu.cn[/url];刘梦迪(1995-),女,河南登封人,湖南师范大学人工智能道德决策研究所硕士研究生,研究方向为科技伦理、人工智能伦理;胡晓萌(1989-),男,河南信阳人,湖南师范大学人工智能道德决策研究所博士研究生,主要从事算法伦理、数据伦理与信息哲学研究;吴天恒(1994-),男,河南武陟人,湖南师范大学人工智能道德决策研究所硕士研究生,研究方向为科技伦理学、数据伦理研究。


[size=1em]原文链接:http://m.chaoxing.com/mqk/read_3 ... =1000&from=timeline



[size=1em]编辑:董莉



作者: 刘海明    时间: 2019-7-25 21:15
【案例】
还在玩AI换脸?你可能不知道这技术带来多大的危害

你可能并不知道什么是GAN(生成式对抗网络),但你可能在社交网络上转发过明星变老的图片,或者曾看到换脸技术在淘宝售卖的报道,只需几元钱,就能将别人变成色情片主角。实际上,一波人工智能换脸应用的热潮已经出现,我们稍不注意就可能掉入陷阱之中。

本期RUC新闻坊为你梳理这些以假乱真的换脸技术的产生和发展,并搜集国外媒体观点总结这些颠倒身份、穿越时间的图像和视频可能给我们的生活带来什么影响。
FaceApp

上周有一款名为FaceApp的 AI换脸APP火遍整个社交媒体,世界各地的明星等公众人物争相在社交平台分享自己的“老年”照片。这款APP由俄罗斯公司Wireless Lab开发,用户仅需要上传一张照片,即可实现一键变成老人,一键返老还童,一键由男变女,一键破涕为笑,一键失去头发。

(FaceApp官网的App功能介绍,包括改变表情、变年轻、变老等)

据福布斯报道,这款APP诞生于2017年,因最近算法大幅提高而爆火。目前在Google Play的下载量已经超过了1亿,近10天内下载安装次数达450万。此外,它在苹果App Store里的安装下载量也居高不下,App Annie数据显示,它目前在121个国家的iOS商店排名第一。

(Twitter网友用FaceApp为特朗普“换脸”)

这款APP的基本原理是生成式对抗网络(GAN),通过算法提取人物脸部的特征,并根据数据库中的其它图像对照片中非重要特征点进行调整。

FaceApp的火爆掀起了人们对于人工智能技术及隐私保护等问题的热议。由于该应用由俄罗斯人开发,美国政坛高度紧张,民主党的全国委员会发出预警,警告2020年民主党总统竞选团队不要使用该换脸应用,还有政客建议FBI介入调查。

Deepfake
Deepfake是一项人工智能换脸技术,适用于修改图片和影像,可以实现人脸的移花接木。今年年初在网络上广泛传播的朱茵变杨幂的换脸视频就是通过这种技术生成的。当中国网民还沉迷于利用Deepfake技术制作鬼畜视频的时候, Deepfake已经作为一种负面议题在国外掀起了滔天巨浪。

(杨幂的脸被嫁接在朱茵的视频中)

2017年,一名叫“Deepfake”的用户在美国Reddit论坛上传了多段“嫁接”好莱坞女明星脸的色情视频,引发网民热烈讨论。之后,开源的代码便如同火种一般,让曾经只有专业电影制作机构才能完成的视频换脸变得轻而易举。用户只需要收集目标对象的大量照片就可以使用这些开源的算法制作出假视频。

很快,Deepfake的波及范围就从影视娱乐圈蔓延到美国政坛。去年一段美国前总统奥巴马吐槽特朗普是笨蛋的假视频在Twitter走红。今年5月,美国众议院议长南希·佩洛西的假视频也在社交媒体上广泛流传。视频中,佩洛西如同喝醉了一般,神志不清,说话磕磕巴巴,举止奇怪。这段视频甚至引来了美国总统特朗普的嘲讽。

(特朗普转发了佩洛西的假视频)

因为Facebook拒绝删除佩洛西的假视频,马克•扎克伯格也被人恶搞,“他”在其中大谈如何“控制数十亿人泄漏的数据”,而原始素材来自扎克伯格两年前一则毫不相关的视频。

Deepfake的迅速发展严重影响了人们的信息环境,一场“猫和老鼠”的技术追击战就此展开,比如早期研究人员通过人物是否眨眼睛来判断视频是否由Deepfake生成,但现在的Deepfake中人物都能眨眼。

有意思的是,这个生成与识别的过程和Deepfake的原理——上文提到的生成式对抗网络(GAN)也很相似。GAN由一个生成网络与一个判别网络组成。生成网络则要尽可能地欺骗判别网络,判别网络的目的是将生成网络的输出从真实样本中尽可能分辨出来,两个网络相互对抗、不断调整参数,直到判别网络无法判断生成网络的输出结果是否真实。
外媒关注焦点
AI换脸应用在国内引起的讨论还较少,但技术的传播是没有国界的。为了更深入探讨换脸技术可能给生活带来的影响,我们参考了Deepfake出现更早、案例更多的国外,看看国外媒体是怎么看待换脸产生的问题的。

01
换脸技术威胁政治和商业
不少媒体关注换脸技术可能会损害美国政治环境,给民主造成威胁。据CBS报道,美国在1月发布的一份全球威胁评估报告中警告称,Deepfake可能会成为扰乱2020选举的策略之一。“山寨”奥巴马骂特朗普是“彻头彻尾的混蛋”足以影响本已混乱的政治讨论,更不用说一段“山寨”美国总统对某国宣战的视频会引起怎样的巨变。

(奥巴马的Deepfake视频截图)

美国众议院民主党成员Yvette Clarke认为,Deepfake的影响并不仅限于选举,它甚至可以改变经济和法律体系的结构:法院需要重新审视很多图像或视频证据的效力;而扎克伯格的Deepfake视频如果被恶意炒作,可能会给企业造成巨大经济损失。Fast Company网站也指出,“蒂姆•库克”与某人就iPhone销量下滑进行私人谈话的假视频,能在几秒钟内让股市蒸发数十亿美元。

《卫报》这样形容Deepfake造成的影响:在很多互联网视频中,人们正做着他们从未做过的事情,真实的人,真实的脸,接近真实的画面,但这是完全不真实的事件。

《卫报》还在报道中引用了AI伦理和法律方面的教授Sandra Wachter的观点,她认为很多对科技的恐惧都是夸大其词,但Deepfake不一样,“并不是说假视频或假信息从未有过,而是假信息的复杂程度、生产难度和速度、以及传播的范围都达到了新的水平。”

《麻省理工科技评论》也指出,早在AI出现之前,操纵媒体的现象就已经出现了,但算法让这些操纵更加普遍且更难被发现。

除了Deepfake换脸技术外,媒体也对FaceApp存在的隐私风险给予关注。据《纽约时报》报道,在7月17日的一封信中,纽约州民主党参议员Chuck Schumer要求联邦调查局和联邦贸易委员会对FaceApp进行调查,理由是安全、数据保存和透明度方面的“严重问题”。他在信中指出,“如果美国公民的敏感个人信息被提供给一个频频对美国发起网络攻击的敌对外国势力,那将是非常不安的。”

02
换脸技术对女性的伤害
《华盛顿邮报》注意到,涉及男性的Deepfake视频几乎都是搞笑风格,而涉及女性的主要是色情视频,这暴露出对女性的性物体化在人工智能技术下变得更加严重。

更关键的是,Deepfake刚出现时主要针对女明星,但随着技术的进步和普及,普通女性也成为了目标。只需收集一个人大量的面部信息和一段性爱视频,就能“移花接木”,达到满足自己或报复女性的目的。
(人脸被拼接在其他人的身体上,来源:华盛顿邮报)

去年4月,印度一名女性调查记者Rana Ayyub收到报道对象的威胁——一段用她的脸伪造的性爱视频。这段视频在社交网络上快速传播,这名记者看到后崩溃了。她表示,自己多年来一直遭受着各种骚扰,但Deepfake比身体威胁更可怕,对内心造成长期影响,“并且没有什么能阻止它再次发生”。

《赫芬顿邮报》采访了六名Deepfake的女性受害者,她们的照片未经同意就被置入色情视频,其中一位表示,“用Photoshop处理过照片是静态的,而且很容易被识别出是假的。但当视频中是你自己的脸做出反应并移动时,你会感到恐慌,因为你无法控制别人如何使用你的形象。”

VICE网站也发现,新推出的DeepNnude是专门针对女性研发的,即使是输入一个男人的照片,该软件也只生成女性裸体的图像,因为应用只对女性的裸照进行了算法训练。

03
如何减少技术的负面影响
The Verge网站在采访技术专家后指出,尽管部分识别Deepfake的研究通过追踪名人独特的面部动作,比如撅嘴唇、扬眉毛等,大幅提高了准确度,但人工智能的精进为两方都提供了便利。也就是说,每一项检测Deepfake的研究都为提高Deepfake模仿质量提供新的机会,生产和识别将成为一场无休止的对抗。另一方面,尽管最新的模型准确度高达97%,即使完美部署在各大平台上依然会存在3%的漏网假视频,考虑到互联网视频的庞大体量,这部分可能造成的危害仍然是个大问题。

(Deepfake检测算法跟踪目标面部的细微运动,来源:The Verge)

当技术靠不住时,如何减少假视频传播带来的负面影响成为重中之重。为此,《纽约时报》提出“我们不能再相信目之所见”的观点。评论认为,人们通常认为视频内容就等于能感知到的事实,但随着Deepfake技术的出现,制作假视频的能力将和说谎的能力一样普遍,我们应该将各种视频资料看作是“证词”而非“感知”,只有在信源可信时,才能相信这些音视频材料的真实性。因此记者要养成追查网络内容创作者身份的习惯,才能在各种Deepfakes全部到来之前确保我们已经完全准备好了。

人权组织Witness的项目经理Sam Gregory在《麻省理工科技评论》中建议,为Deepfake提供工具的公司和研究人员也必须投资到对策研究之中,同时社交媒体和搜索公司应该将这些对策整合到平台中。

Deepfake法案的顾问Mutale Nkonde还督促监管者出台相应措施,“除非政府找到方法保护消费者的权利,像Deepnude这样的的应用会越来越泛滥。”

随着大量类似应用的产生,政府出台了相关法律进行规制。据《纽约时报》报道,截止2019年初,美国41个州已经禁止了生产和传播报复性色情信息,限制应用程序的滥用。The Verge网站发现,美国维吉尼亚州已经正式扩大了对未经授权的色情作品的禁令,包括由Deepfake生成的假视频和假照片,最高可被判处12个月监禁和2500美元的罚款。得克萨斯州已经通过了相关法案禁止Deepfake在政治选举上的滥用。纽约州立法者禁止公众未经他人同意创建“数字复制品”。



原文链接:https://mp.weixin.qq.com/s/5ozMqfnMKR0qtO5_z5mEJw


编辑:董莉


作者: 刘海明    时间: 2019-7-25 21:28
【案例】
过度采集信息、侵犯用户隐私、滥用数据牟利——三问网络信息安全

导读
打开新闻网站,广告区会出现自己关注过的产品;打开手机,会经常收到各类广告短信;接到一通电话,对方在推销或是诈骗中竟能直呼其名……大数据时代,互联网为人们带来便利的同时,也给网民隐私保护带来威胁。随着各类用户信息泄露事件的发生,社会越来越关注网络信息安全问题。

用户的信息该谁做主?谁在侵犯网民信息安全?有关部门如何打击相关行为?

用户信息该谁做主?

近日,北京市朝阳区人民法院审理了一起网络招聘平台“智联招聘”员工参与倒卖个人信息案。该案涉及公民个人信息达16万余份,一份简历标价5元左右。这一案件引发网民对个人信息安全保护的担忧。记者注意到,有网友在微博留言:“赔钱吗?找个工作一天接几百个贷款电话”“我都工作一年多了,还在被骚扰”。

冰冻三尺非一日之寒。网民集体愤慨的背后,是对长期以来网络信息安全问题频发的不满。记者在社交网络平台上检索分析网民因信息泄露受到的骚扰和危害,主要包括几个方面:经常收到垃圾短信和营销电话;被诈骗份子频繁骚扰;身份被冒用、个人名誉受损;账号密码被窃造成财产损失等。

这些乱象,除了因为不法分子买卖用户个人信息,也与网络平台过度收集用户信息有关。《中华人民共和国网络安全法》明确规定,网络运营者不得收集与其提供的服务无关的个人信息。未经被收集者同意,不得向他人提供个人信息。显然,从法律角度来说,收集哪些信息、信息怎么用,应该由网民自己做主。

然而,现实中实现“用户做主”却非常困难。一方面,用户在使用互联网软件时,通常需要阅读一份冗长的“隐私条款”,用户很难识别这些条款中的“坑”;另一方面,如果不同意这些“隐私条款”或是不开通相关权限,用户将无法使用这些应用。这就近乎在用一种霸王捆绑的方式强制用户同意对自己信息的使用。

谁在侵犯网民信息安全?

大数据时代,数据就意味着行业资源和商业财富。如今,中国正孕育着一个全球最大的用户数据市场。中国互联网络信息中心(CNNIC)发布的数据显示,截至2018年底,中国网民数达到8.29亿,手机网民8.17亿,互联网普及率为59.6%。

商业利益驱动着各类互联网平台收集海量用户数据,并进行商业开发。其中,移动手机应用对网民信息安全方面的危害日益凸显。

有媒体曾统计2015年至2018年工信部公布的检测发现问题的应用软件名单,有695款手机应用存在违规收集使用用户个人信息等行为。中国消费者协会的测评报告则显示,参与测评的10类手机应用普遍存在涉嫌过度收集个人信息的情况,比如,约六成涉嫌过度收集用户位置信息。这些软件存在对外提供个人信息时不单独告知并征得用户同意,未明确告知用户如何更正个人信息和撤回同意等情况。

比过度收集用户信息更难规避的是对用户信息使用边界的界定。记者下载百度搜索手机应用,并打开《百度隐私政策总则》。其中内容显示,百度收集的个人信息除了用于改善产品和服务、数据分析和研究之外,还会与“授权合作伙伴”共享用户的“某些信息”。这些合作伙伴包括“服务平台或服务提供商”“软硬件/系统服务提供商”和“广告、咨询类服务商/广告主”。

虽然百度宣称会对用户画像进行“匿名化处理”,并与这些公司“签署严格的保密规定”。但将这些信息提供给广告主等“合作伙伴”的行为是否有违《中华人民共和国网络安全法》,显然有待查证。

如何打击相关行为?

相对于网络信息安全的纷纷乱象,社会更关注的还是如何解决网上信息“裸奔”、切实保护网民信息安全的问题。

就目前来看,解决这些问题的途径主要包括技术和监管两个方面。在技术方面,加强应用审核已经成为各大应用分发平台的共识。各类网络运营商在不断加强人才和科技投入,持续升级网络安全系统,稳固网络后台,保护访客隐私。在监管方面,今年1月,中央网信办、工业和信息化部、公安部、市场监管总局四部门组织开展了APP(应用程序)违法违规收集使用个人信息专项治理。

工信部网络安全管理局相关负责人表示,目前专项治理工作取得了阶段性成效,通过对百余款用户投诉量大、社会关注度高的APP进行检查评估,发现存在强制授权、过度索权、未经同意收集个人信息和对外提供个人信息等典型问题,并督促企业及时整改。

日前,工信部印发了《电信和互联网行业提升网络数据安全保护能力专项行动方案》,明确提出“基本建立行业网络数据安全保障体系”的目标,要求今年10月底前完成全部基础电信企业(含专业公司)、50家重点互联网企业以及200款主流APP数据安全检查。同时,还明确了5个方面的重点任务,包括加快完善网络数据安全制度标准、开展合规性评估和专项治理、强化行业网络数据安全管理、创新推动网络数据安全技术防护能力建设、强化社会监督和宣传交流等。

专家表示,除了技术和监管手段之外,发挥行业协会和企业主体作用,提升开发者自律意识,提升网民信息保护意识,加强网络生活自我保护,也是重要一环。


原文链接:https://mp.weixin.qq.com/s/hLDppd7hoC8CdeyU9EUrFg


编辑:董莉



作者: 刘海明    时间: 2019-7-25 21:35
【案例】
把命交给5G手术,你敢吗?

作者:张雪
来源:CV智识(ID:CVAI2019)

对于一个普通人来说,接受手术是一件多少需要信任和勇气的事情。毕竟这世上没有万无一失的手术,风险总是与手术并存。

古往今来,为求名医做手术的例子不胜枚举,可见,在手术这件事上,人与人之间的信任是靠技术与口碑建立的,那么人与冰冷的5G技术、与机器人之间的信任又该如何建立呢?

2019年初,今年1月,福建省一名外科医生利用5G网络,操控30英里外一个偏远地区的机械臂进行手术,成功切除了一只实验动物的肝脏。

由此,我国5G手术正式进入应用落地期,各种类型疾病的首例5G手术接连刷屏,各种新兴技术与5G结合的手术案例也不断涌现。

在医疗领域,5G网络的低延时、高速度以及大带宽的特点首次满足了远程呈现、甚至远程手术的要求,能保障手术即时画面直播的动态实时共享,为远程医疗带来了创新性的变化。

现在的5G手术究竟进展到了什么程度?人们究竟能不能放心地将自己的命交给5G技术呢?当下的种种疑问与5G手术的热闹现状,形成了强烈而刺眼的对比。

从国内首例5G远程手术说起
近日,CV智识记者就在现场目睹了一场远程5G手术的过程,观看期间,全场都一直在用手机录直播视频,同时还要边听现场讲解,边看直播画面,生怕错过什么关键环节。

令人印象最为深刻的是,即使CV智识记者离大屏幕的距离已有数十米,但是依然能够清晰地看到,主刀医生的步步操作,还包括血管脉络和手术刀的位置。
不过,提到5G手术还要从我国的首例开始讲起。

3月16日,我国首例5G远程手术在北京进行。这是我国首次通过5G网络,成功实现了一起帕金森病“脑起搏器”植入手术。

本次5G远程手术用时近三小时。

位于海南的神经外科专家凌至培主任,通过中国移动5G网络实时传送的高清视频画面,远程操控手术器械,成功为身处中国人民解放军总医院的一位患者完成了“脑起搏器”植入手术。

在手术过程中,两地专家通过4K高清视频会议系统部进行方案讨论,利用5G网络大带宽、低时延的特性,保障了患者即时数据和历史诊疗数据的动态实时共享,同时通过软件远程精准控制机械臂,成功为病人完成手术,有效提升远程会诊系统的诊断准确率和医疗指导效率。

凌至培表示:“我在北京和海南两地轮换工作,本次手术是在海南工作期间,有北京的帕金森患者需要进行手术,且患者不宜飞往海南。借助中国移动5G网络的保障,首次实现了海南、北京两地远程手术,解决了4G网络条件下手术视频卡顿、远程控制延迟明显的问题,手术近乎实时操作。”

凌至培回忆手术过程时说道,“几乎没有延迟卡顿的现象,我们可以与病人在手术室面对面的对话,声音交流就像我站在病人边上进行手术一样,甚至感觉不到病人远在3000公里之外”。

但是,从大众角度来看,这台首例的5G远程手术与大众想象中的5G远程手术还存在较大差距。

业内人士分析称,首先,主控方在中国人民解放军总医院三亚分院,患者在北京总院,远是远了,但明显是控制方与被控制方颠倒了。应该是患者在三亚,主控方在北京才合理。

另外,主控方采用的是视频会议的模式,而不是远程实时控制控制的模式来进行远程手术。换句话说,只是进行手术的远程指导,而不是手术的远程操作,这与真正意义上的远程手术还是有显著差别的。

不可否认的是,这场5G远程手术虽然不如预想之中的科幻,但确实是我国基于5G技术进行远程手术的首次尝试,而且结果较为成功,目前患者已经健康出院。

据不完全的统计,现在我国进行的5G手术已经多达几十起,只是在5G技术的应用程度上略有不同,综合来看,大多是基于5G网络现在比较成熟的低时延、高带宽、超高清的特点。

而这只是5G在医疗领域应用的开始,将来5G对远程手术机器人的操控,以及AR(增强现实)和VR(虚拟现实)在手术中的应用等都会起到很大的作用。

从VR手术教学到MR手术实施

随着5G技术的进一步发展,在医疗领域之中,5G与其他技术的融合也越发成熟,像5G+VR,5G+AR和5G+MR等字眼越来越频繁地出现在了人们的视野中。而这也反映出了5G手术的进展与转变。

此前,南昌大学二附院5G+VR医疗教学点进行了江西省首次通过5G+VR技术现场手术示范的转播。

现场通过会议系统和该院院长刘季春进行视频连线,由刘季春对观摩的医护学生讲解,而手术室则全程正常手术,改变了以往教学时需要在手术室的状况。

当天的手术示范教学是一台心脏手术,示教的主要目的是通过5G+VR技术,把手术室正在进行的手术进行实况转播,视觉清晰、画面逼真,使同学们如同现场观摩,身临其境。

“今天体验效果非常震撼、非常棒。”作为此次手术的主要参与者,南昌大学二附院心胸外科医师熊刚说。

“5G技术让手术台上的医生感受不到有任何的延迟,大家带上VR眼镜有种身临其境的感觉,完全颠覆了传统的医疗教学,手术操作的每一步,医护人员都看得非常的清楚和直观。”

在VR技术中,语音识别、视线跟踪、手势感应等都需要低延时处理,所以优质的VR体验对网络环境也有很高的要求。VR的情景体验是为了更接近真实,需要非常细致的纹理和质感,而在5G网络下这种目标很容易实现。

“5G+VR技术对推动医疗卫生事业发展,尤其是对医学教育、医疗技术的下沉,对基层的传帮带都起到很大的作用。”刘季春补充道。

当然,这些技术如果只停留在教学阶段是远远不够的,新兴技术带来改变的更多意义应该在实践上。

近日,一则“5G奶奶”接受乳腺手术的消息,就是“纸下用兵”的成功案例。

7月3日上午9时,江苏省浦口分院手术室已做好了一切准备。另一端,远在20公里之外的省人医本部会议室内,普外科江平主任医师团队正在向本部“指挥室”的省人医党委书记、乳腺外科专家唐金海教授汇报病情。


在手术前一天唐金海团队利用MR(混合现实)技术,在5G的辅助下,与手术团队进行了详细周密的术前方案讨论。

经过人工智能三维重建后,患者的CT图像被“翻译”成一幅乳腺3D图像呈现在显示屏上。

在省人医本部会议室里,唐金海头戴智能设备,通过手势旋转图像,并同步向团队解释手术相关要点。团队成员均表示,这项技术可以清晰直观地看到肿块大小,对接下来的手术操作会起到很好的帮助。

相比于VR来讲,MR最大的特点在于虚拟世界和现实世界可以互动。本部现场,在5G+ MR(混合现实)远程技术支持下,唐金海在虚拟现实投影板上的手术视野上进行切口设计,准确地画出手术切口部位的线段,“精准指导”浦口分院手术团队的手术路径。

确认无误后,唐金海随即宣布:手术开始!一场无声的战役随即在5G和MR的加持下悄然打响。

唐金海目不转睛盯着屏幕,画面中视野清晰无卡顿。画面另一头,浦口分院手术团队按照术前既定的手术方案开始手术。主刀医生不时通过平板设备与20公里以外的唐金海对话。

“对,就这样切除,非常好!”唐金海频频点头也不忘时刻提醒着:“注意这根血管,小心点……”“皮瓣厚度如何把握?”“肋间臂神经是否保留?”……手术过程中,浦口那端实时提问,本部这端唐金海及时解答。2小时后,肿瘤被成功切除。

“基于混合现实远程手术,很大程度上解决了因物理距离病人无法享受优质医疗资源的问题。随着医学混合现实和5G技术的成熟,远程手术操作的延迟显著降低,极大提升医生操作体验与手术质量,也将助力远程医疗技术的真正普及。”

唐金海表示,5G+MR将让大医院与基层医院之间的会诊更加普及,可广泛应用于各类疑难重症的诊治,推动更多优质医疗资源下沉。

而如今接受了国内首例5G+MR远程实时乳腺手术的“5G奶奶”已经恢复良好,即将康复出院。


从端到端的人对人指导到三地的机器人协作

在被媒体广泛报道的众多国内首例5G手术中,远程实现人对人的实时指导,已经不是什么稀奇事儿了,但是我国首例实时5G远程手术指导演示,却是在6月底才真正出现。

6月28日,CV智识在MWC19上海5G峰会上见证了这场正在进行的实时的5G远程手术指导。


通过5G超高清直播,一台由上海市东方医院肛肠外科主任主刀的直肠NOSES手术呈现在上海新国际博览中心医疗高峰论坛的高清电子屏上。

主持人介绍完毕后,全场数百人瞬间安静,屏息注视着大屏幕,仿佛自己是那个即将接受手术治疗的患者,既紧张又激动。

在手术直播云平台上实现4K 3D腹腔镜影像以及多路4K手术视频的多方实时共享及交互,远端专家可同步看到4K腔镜画面及超高清画质的手术直播场景。

“现在是在动脉上面进行操作,已找到了正确的平面,可以看到这里面有神经。现在需要去保护神经,这对于患者后续的生活品质,都是有非常重要的作用。”

在5G网络下,在患者完全同意的情况下,巴塞罗那临床医院胃肠手术服务负责人Antonio de Lacy博士在上海新国际博览中心的场馆里,为上海东方医院手术室提供了远程实时指导。

“5G最大优势在哪里?它没有卡顿,整个音频和视频的传输相当好,毫无卡顿和延迟,手术进展是非常好。”场馆里传来医院现场执刀医生的手术感受。

而这也是首次在中国进行的实时5G远程手术指导演示。在短暂的手术指导演示结束后,全场响起了热烈的掌声,大家在感叹技术的力量的同时,也感到自己荣幸地见证了历史。

现场讨论环节,上海东方医院副院长表示,“5G时代,患者只要上了救护车,就等于已经进了手术室。5G提供的超低时延和超快速度,可以使我们在医院的医生实时对救护车内的情况进行指导和监控,所有的患者监测数据也都会实时进行传输。”他认为,5G极有可能改变未来的医疗模式。

“以往用VR看手术直播总觉得有点头晕,现在5G技术下的VR几乎是身临其境,所有手术细节都一目了然。”进修医生张恒在观摩时感叹道。

然而,单单的远程对人指导,仿佛不能够满足人们对于5G远程手术的想象。那么5G技术、人工智能、医学装备三者集合出怎样的医学现象呢?

近日北京积水潭医院借用5G技术成功实施了“一对多实时手术”,北京积水潭医院院长田伟在医院的机器人远程手术中心,通过远程系统控制平台与嘉兴市第二医院以及烟台市烟台山医院同时连接,这是全球首次骨科手术机器人多中心5G远程手术。

北京距离嘉兴约1240公里,距离烟台约726公里,远距离实时遥控机器人手术网络传输技术至关重要,要知道,即使网络延时只有几秒,都有可能给患者带来致命的风险。

“多远的距离都归为零。”田伟说,“我感觉就像在自己的手术室里做手术。”此次手术也标志着我国5G远程医疗与人工智能应用达到了新高度。

两台手术同时开始,两个分中心的手术核心环节交替进行。

嘉兴市第二医院患者的病情,是传统的手术无法精确判断的骨折线,手术失败概率极大。但采用机器人手术引导,手术中就可以精确设计螺钉长度和置入位置,缩小手术失败概率。手术10分钟后,第一根椎弓根螺钉已经置入完毕。

烟台山医院患者是一名胸椎椎体爆裂骨折患者,这个手术对置入螺钉的要求非常高。此次利用机器人手术,不但可以置入,而且非常精确。

手术仅仅进行半个多小时后,两台手术的核心环节就已经全部顺利完成。这是传统的手术无法企及的。

“我在积水潭医院都不能做到一个人同时完成两台手术,但通过5G多中心可以同时控制两台手术。”田伟说,“过去机器人手术很难进行远程操作,主要就是因为时延。现在在5G网络下,真正实现了远程操控骨科手术机器人实时手术。”

我国的医疗均质化不够,各地的医生经验能力有差距。以往医生需要远程奔波到外地学习,回到本院后也不能保证医疗水平的均等。现在“5G+机器人”这种组合手术,让患者在家门口就可以享受到高质量的医疗服务,这对我国分级诊疗制度落地及智慧医疗建设具有标志性意义。
结语

5G网络除了众所周知的低时延,高带宽、超高清特点外,还有两大“独门秘籍”:边缘计算和切片技术,搭载专用网络管道。

据了解,进行5G手术的医院在单独平面能够享受端到端的专享带宽,不仅网络更稳定性,也为医疗数据的保密性增加砝码,有效保障了手术中高清音视频、患者影像数据、手术方案等数据的快速传输、同步调阅,为5G远程手术顺利开展提供支撑。

而这也进一步打消了患者和医生的顾虑。

5G手术应用步入了快车道,接二连三的落地案例让人目不暇接,各个地方各个病症都在强调首例。但是喧嚣背后,5G技术与其他新兴技术的融合,尚且不能满足人们对于5G手术的想象。同时,5G时代,整个医疗的商业模式还将成为新的思考命题。


原文链接:https://mp.weixin.qq.com/s/EXjQnIADbUUGx2xLWuxa_w


编辑:董莉


作者: 刘海明    时间: 2019-7-25 21:41
【案例】
拥有人工智能的性爱机器人是魔鬼吗?

上周五,我们有幸邀请到中国人民大学法学院的郭锐老师主讲“人工智能的伦理与治理”,郭老师从“性爱机器人”和“自动驾驶汽车”两个例子入手,激发了听众许多深刻的思考和追问。此外,更有热情的小伙伴加入了我们的讨论,接下来的两期推送就让我们一起来聆听他们的声音吧。


讲座回顾
Content Review
AI对于人的主体性的挑战:康德曾非常明确地提出:人任何时候都应该被当作目的,而不是手段。在人工智能语境下,越来越多的数据可以让我们去训练算法,越来越多的算法应用在我们的社会中,人越来越被嵌入到这样一个算法统治的社会环境中,在这样的社会,人的主体性越来越受到挑战,人被工具化这个特性越来越突出。很多工作都是通过人工智能完成的时候,我们就让机器去做很多决定。这些决定过去都是人来做的,然而现在由机器来决定会不会产生问题?人工智能技术对于人的主体性的挑战,很多时候展现在我们对于机器决策的一些反思。


▨性爱机器人产品背后的主奴辩证法:通过性爱机器人这个例子,我们来探讨一些比较深入的伦理与设计问题。主奴辩证法是黑格尔在精神现象学里面提出来的一个非常有趣的想法,有这么一个简单的模型:最早时候是主人让奴隶去工作,他要奴隶去做什么奴隶就去做什么。但是奴隶在他的生产实践的过程中间获得了主人没办法获得的实践知识。所以我们观察一下:最初是主人在控制奴隶,但当奴隶获得了足够的知识之后,他反过来控制了主人,这样主人的控制是不是变成了幻象?换言之,这样一种主奴关系就开始易位。我们用这个主奴辩证法的这个模式来看看性爱机器人。如果你是一个设计者,你要设计性爱机器人的时候,你的目的是什么?为了满足人的性需求,也许让使用者获得最佳的使用感受、最大的性满足。如果你真的实现了这一点,那这样的一个产品到底让人变成了主人,还是奴隶?如果这个产品如此之好,以至于人只有在这里才能够获得你想要获得的满足和享受,人究竟是主人还是奴隶?

▲性爱机器人背后的技术及控制系统

▨性爱机器人产品引发的深入思考:大家有没有发现一个特征,绝大部分的性爱机器人都是女性形象,这是为什么?你或许会说这是一个客观事实,但是这个产品被大家广泛使用的时候,你们觉得会对女性形象产生什么样的影响?当有一个人看着一个普通女性的时候,想到的是某一性爱机器人,这会对人际关系会产生什么样的影响?你本来应该像对待一个人一样来对待她,但是也许因为有这样产品的存在,你不会像对待一个值得尊重的人的方式一样来对待眼前这个人,这是不是一个问题?我们刚才提出来的关于对主体性的挑战,假如这个人已婚,这会对他的配偶有什么影响,会对他的孩子有什么影响?还有,使用的时候你把它藏起来,还是不加掩饰地放在家里?假如有一个人使用性爱机器人后,他发现他上瘾了,这个时候他认为他自己受到了伤害,于是在法院起诉生产和销售了性爱机器人的厂商,他认为这个是产品的质量安全问题,那么他在法院可不可以得到支持?

▲性爱机器人产品引发的深入思考

▨自动驾驶的电车难题:伦理学上有一个古老的电车难题,大部分同学可能都听过。现在我们要讨论的是在自动驾驶汽车上,一个现代版本的电车难题:假如有一种紧急情况,它必须要在车内的乘客和路上的行人的生命安全之间做一个选择。这个系统应该保护车内的乘客,还是保护路上的行人?在千钧一发之际我们做出的选择,不是真正深思熟虑,而是人在紧急情况之下做的决策。也许我们会想,计算机能不能产生一个随机选择呢,我们就让命运决定吧。但是你真的愿意把你的命运,把你的生命交给命运决定吗?当你有能力去做一个干预的时候,要不要放弃你做决策的权力?心理学家弗罗姆,曾提出著名的“逃避自由”的命题。现代人在名义上是自由的,你可以做任何决策。然而在当下,人们都不愿意去做决策,因为他们害怕承担责任。在这种场景下,我们要不要做一个被弗罗姆所批评的,放弃做决策的人?


▨管制语境中的各方平衡:我们看到在传统的管制语境中,最常见的现象是其中总有权利、金钱等其他因素混入,而我们并不希望金钱去扭曲伦理决策,我们如何防止这件事情发生?这是值得我们深思的问题。自动驾驶汽车安全性的问题,应如何解决?对车内的乘客,对路上的行人,怎样保护所有人的利益。在行人和车内乘客的冲突中,我们看到这里面有非常复杂的利益关系,再放到更具体的管制语境中看,通常一个政府机关可以作出这个决策。又或者说政府机关选择不做这个决策,选择不去管制,那意味着什么?他们让各个汽车公司自己去决定,这也是一种管制方式。这很复杂,通过这样的讨论,我们希望人们警醒,在管制语境中商业利益和社会利益的平衡关系。

▲人工智能的伦理与法制涉及的相关话题

听众声音
Voice Of The Audience
机器学习需要大量的数据,这个数据必然是来自于其他人类的智慧的结晶,那么此时的机器是否能被视作一个社会公民,它是否具有一个社会公民的身份,从而享有能够去学习社会提供的这些资源的权益,它产生的一些产物是否是侵犯了他人的知识产权?


原文链接:https://mp.weixin.qq.com/s/P7I410jue7IHi1ujMWrZKQ



编辑:董莉


作者: 刘海明    时间: 2019-7-25 21:49
【案例】
在德艺双馨的AI面前,老艺术家们会没饭吃吗?

人工智能在现阶段的大招似乎仍停留在“简单任务的极致自动化”。对于去完成那些所谓的具有高度抽象性和创造性的工作,人类达成的共识:AI,它就是一小弟。

但AI在发展“抽象”和“创造”这条路上似乎要走得比我们想象的快了不少……不信你看……
   




无脸肖像
人工智能AICAN和它的创造者艾哈迈德•艾尔戛玛  (Ahmed Elgammal ) 共同创作

这个能让人联想起地狱男爵和雷神里苏尔特尔的抽象造型就出自AI艺术家AICAN的手笔(由它和艾尔戛玛共同完成)。

AICAN的本质就是一个程序,一套代码,而搞出这套代码的艾尔戛玛,本质就是一程序员。

当然,这位大佬是个德艺双馨的顶配程序员,同时也是美国罗格斯大学艺术和人工智能实验室的创始人兼主任。

艾尔戛玛认为AICAN不仅是一个有自主创作能力的AI艺术家,也可以与人类艺术家合作创造艺术。

这幅无脸肖像所描绘出的这种不可描绘的抽象是不是已经证明了AI可以玩抽象呢?您要是觉得就这一幅画不够具有信服力,还有……

以上4幅画作均为AICAN所创作,出现在2018年12月由SCOPE国际艺术博览会和迈阿密巴塞尔艺术展举办的联合展出上



《圣乔治杀龙》(St. George Killing the Dragon)
由AICAN独立创作

你知道这幅《圣乔治杀龙》卖了多少吗?一万六美金!你看,AI不仅能搞抽象创作,它的作品还具有出众的艺术和商业价值。

那么AICAN凭什么能创作出这些惊人作品呢?

AICAN的设计者们给它的算法喂了海量的图像,这当然是一般机器学习的通用方法,但其与众不同之处在于
他们并未选择特定的图像来“教会”AICAN某种特定的艺术风格或类型,而是把代表了西方艺术过去5个多世纪的10万多张经典作品全部打包丢给了AICAN

经历了这种大洗礼的AICAN,就如同一个学完了整个西方艺术史的学霸,不拘泥于一种艺术风格或类型,而是汇通百家,变幻无穷。

只要轻点鼠标给它一个指令,机器就可以在无人类干预的情况下创造出一个图像。

AICAN的作品总能让我们惊讶于它们的类型之宽广,构思之深刻,风格之多变。

AI绘画的老祖宗我们一般认为是Ai-Da,它被认为是首个能够创作超现实绘画作品的机器人艺术家。
Ai-Da拥有多种艺术创作能力,不光会画画,还会雕刻艺术。它可以利用它的人工眼和一对巧手,用铅笔创作人物写生画,这种技能包确实是清新脱俗。

其首幅画作《不确定的未来》(Unsecured Futures)已于7月在牛津大学进行了展出。






Ai-Da作画现场

除了画画,AI艺术家们还会写诗,还会做音乐,再加上它们搞创作时不知疲倦,高产似母猪,我们忍不住要感慨:
这些为艺术而生的AI们,是实实在在的德艺双馨!
那接下来,我们就看看人工智能在其他艺术门类里是如何兴风作浪的。


来自谷歌的AI诗人

我们的超然存在
点缀着充满神秘的星空世界


上面两行诗来自谷歌最新推出的一个艺术项目——“诗歌肖像”(PoemPortraits)。

它由机器算法生成,该算法以2000万首19世纪诗歌作为训练材料进行了深度学习,从而获得了创作诗歌的能力。

“诗歌肖像”可以在用户的引导下创作独特诗歌(人与机器协同合作)。最终的作品是高度个性化与私人化的,你甚至可以在里面加自拍。
该项目的创作者、艺术家埃斯•德夫林(Es Devlin)告诉我们:
“诗歌肖像”不会复制或重写现有的语句,而是使用其深度学习时的训练材料来构建一种复杂的统计模型。因此,该算法会生成模仿训练对象风格的原始语句。

不过“诗歌肖像”的创作有点看天吃饭的意思,因为有时候它能写得意味深长,有时候不知道说的是什么。

它的另一个特点,也是其过人之处,就是它具有集合累加性:
它能将所有生成的诗行组合在一起,形成一个不断增长的诗歌集,这个诗歌集将会是一本世界人民与人工智能共同打造的鸿篇巨制。

音乐
已经发了专辑的AI作曲人

人工智能虚拟艺术家(Artificial Intelligence Virtual Artist,AIVA)是AIVA Technologies公司推出的AI作曲平台,已经为电影、广告、游戏和预告片配音音乐创作了歌曲,甚至推出了自己的专辑。

AIVA制作的音乐能够表达出人类所拥有的情感,从而打动听众,其水准之高,可以比肩人类最有才华的作曲家的音乐。

用户能够借助AIVA以多种方式合成原始乐谱:
一种方法是上传一个现有的人类乐谱,以此作为合成基础再行制作;另一种方法是使用预置算法(Pre-defined algorithms),预先设定好想要的音乐风格,再生成音乐。

目前来看,AIVA应该是可以在影视制作等产业大展拳脚,改变游戏规则的。

而长远来看,人人借助AIVA创作专属音乐的个性化定制时代似乎也并非海市蜃楼。

现在流媒体网站上已经有了能根据用户的个人爱好及以往音乐作品来推荐音乐的算法。在不久的未来,这类算法可能就会被用来为每一个用户量身打造他们的专属音乐。

未来:挑战 or 机遇
以上展示的AI艺术品只是机器和算法创造力的惊鸿一瞥,人工智能的极限究竟在哪儿?人工智能创造力的发展,对未来的工作、教育和人类社会将会产生怎样的深远影响?
许多人都在担心AI发展的潜在威胁,这并非无由。我们必须问自己,当一个机器能够完成我们认为复杂、抽象、创造性的任务,人类将扮演什么角色?
与此同时,这些作品也在一定程度上表明,AI艺术家的发展并不等同于人类艺术家掉饭碗。相反,它为扩展和超越人类创造性极限提供了一个良机,人类和机器合作迸发的火花给我们带来的是前所未有的新奇与震撼

我们一直在用技术促使人类超越自身的生物限制:我们用望远镜来扩大视野,用飞机来克服地心引力上天,用智能手机来帮助我们超越时空与他人联系……同样,我们创造的机器人不是与我们对立的敌人,而是我们思维的延伸。

你瞧,现在我们已经可以利用机器来扩展我们的创造力,不断超越艺术创作的极限了!

原文链接:https://mp.weixin.qq.com/s/cHiD30kXbqp7yM5HRWe8HQ



编辑:董莉






欢迎光临 传媒教育网 (http://47.106.15.148/) Powered by Discuz! X3.2