传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
351#
 楼主| 发表于 2019-12-13 21:38:52 | 只看该作者
【案例】
人脸识别大行其道,10项建议保护隐私 | DataLaws


本文转载自布鲁金斯学会(Brookings Institution)于10月31日发表的10 Actions that Will Protect People from Facial Recognition Software,作者是布鲁金斯学会政府治理研究项目的副主席兼主任达雷尔·韦斯特(Darrell M. West),他的研究主要包括竞选和选举、公众舆论、技术政策和电子化政府。

这是一个“看脸”的时代。人脸识别软件让生活更便利的同时也引发了关于公众隐私和信息安全的焦虑。许多人担忧人脸识别技术会带来一场《1984》式的噩梦——我们将暴露在无孔不入的监控下,个人隐私无处可逃。他们将人脸识别和摄像头、人工智能(AI)与大数据视为限制个人自由的枷锁。

但另一方面,人脸识别技术在失踪搜救、安保升级、导盲、反恐等领域都发挥了积极作用。这项技术是一把锋利的双刃剑,既有广阔前景,如滥用又有极大风险,让个体闻之色变的同时又可救死扶伤、造福人类。


鉴于人脸识别技术的应用尚有诸多不确定风险,一些人认为我们应该全面禁止这项技术,直到对其潜在后果有更深的了解。另一些人则呼吁暂缓推行,为立法改革争取一段缓冲期。还有一些人虽然赞同人脸识别的应用,但前提是监管机构应该设立合理防护,监管恶意滥用行为。

本文提供了十条监管人脸识别的政策建议,从而规避这项技术潜在的最大风险。这些举措包括限制数据存储与共享、强制精度标准(Mandating Accuracy Sandards)以及建立第三方评估等。


人们对人脸识别最大担忧是图片、影像长期存储,这些信息有多种被滥用的风险,从而侵犯个体隐私和自由。尽管好处颇多,但人脸识别应用采集了海量视觉数据,且对它们限制寥寥无几,不禁引发公众担忧。

我们可以进行变革以缓解公众忧虑,限制数据滥用,其中之一是设置视频和图片存储期限。在某些突发情况下可能对特定图像数据有迫切需求,但一旦危机平息后这些数据应该被立刻清除。事实上,对于许多应用,时间限制可以在发挥人脸识别积极效用同时,将风险降至最低。

更具理智的人会考虑到设限时长是多长。这个期限应因数据使用类型而异,一些信息需要保存更长时间,而有些信息在发挥有短期效力后应该被删除。例如,为应对突发险情而编译的特定图像具有极高瞬时价值,但其他目的的图像可能需要通过长时间储存来分析。一种称为“分布式学习”(Fedrated Learning)的机器学习方法确保数据只独立储存于摄像头,而永远不用发送到中央数据中心,提高了数据安全性。

人们普遍担忧为某一目的采集的信息被用作其他目的。现实中不乏这样的案例,例如机动车管理部门将车牌信息出售给第三方组织。人们一般对这种信息的转卖并不知情,而且他们也不会同意将这些信息用于其他商业目的。把甲公司的图像向乙、丙方传输时应该有明确标准,按需调用。任何企业都不应该在没有限制的情况下传输或销售脸部识别图像。换言之,脸部识别图像的传输需要清晰合理的原因。

民意调查显示,个人对脸部识别所持态度也会因使用情景而异。布鲁金斯学会(Brookings Institution)一项研究发现,对人脸识别的支持率在不同环境中存在差异。如下图所示,人们最支持的应用是保障学生在校安全(41%支持率),但只有27%的受访者赞成便利店使用脸部识别防范盗窃行为。在机场和体育场馆情景下应用支持率处于中间值。


一切通过拍摄或其他方式收集公众信息以用于人脸识别的企业或政府机构,应该在公共区域明确标注声名此类行为。他们有职责提醒该区域内所有人,其面部信息正在被记录,这样不愿意被拍到的人可以选择绕行。这一举措也可以加深用户对人脸识别技术的认知,也能让不愿意共享信息的人享有个人信息不被记录的自由。


图像识别主要问题之一是针对不同肤色其精确度也不尽相同。由于大多数训练数据不完整且种族代表性不足,因此基于这些数据开发的人脸识别技术也有偏向性。白人相比其他肤色人种有更高的识别精度,且肤色越深准确度越低。随着人脸识别应用在执法、边检、零售和机场等各个领域,不同群体之间的差异可能导致偏见、歧视和其它倾向性判断。

因此在大规模应用前,人脸识别应该达到什么精度?这是一个挑战性的问题。该精确度应取决于识别结果对人们生活的影响程度。例如在执法行动中误判可能会导致无辜之人被拘捕或监禁,那么识别精度就应该非常高。加的夫大学(Cardiff University)的一项研究发现澳大利亚发生过数千例误匹配,此外人脸识别系统在低光环境下也会运行失常。


与就业相关的应用也会带来严重后果,也需要较高的精度标准。一些存在歧视性或偏向性识别判定的企业应该被问责,而对于因人脸识别产生的种族偏见或滥用人脸识别的产品应该受到相应的惩罚。


第三方评估可以让人们更加信任人脸识别产品和服务。消费者希望识别应用只完成“份内”工作,同时避开“问题”应用。可以设立一个类似“能源之星*”由政府评定的评级系统,帮助大众更深刻地了解应用的功能以及他们应顾虑的地方。总体而言,第三方组织可以提升人们对应用方式和准确性的信心。

* 能源之星(Energy Star),是美国能源部和美国环保署共同推行的一项政府计划,旨在更好地保护生存环境,节约能源。1992年由美国环保署参与,最早在电脑产品上推广。


一些人脸识别应用程序中收集了大量与主要目的无关的附加信息。例如,佩戴随身摄像机的警察在勘察事发现场时,不仅会拍到嫌疑人的画面,还可能拍到碰巧在视线范围内的路人。除非这些证据与案件有明显关联,否则执法部门在调查之外没有必要保留不相关信息。当图像不再具有调查价值时,它们可以被模糊处理或干脆销毁。


嵌入人脸识别技术的营销APP必须向用户确认授权,包括将用户姓名附加到商业名单并推送广告等行为。消费者对个人隐私很敏感,这些以营销为目的的应用应受到用户授权选择的限制,消费者有权利将他们的信息共享限制在他们觉得合理的水平。

同样,用户也应该有自主退出选择权。在对长期数据存储没有明显需求的低风险情况下,应该为用户提供删除个人图像信息的途径,从而让公众确信他们的信息不会被用作它途。“被遗忘权”可以提升公众对人脸识别的接受程度。


技术标准是企业保护产品的一种传统安全措施。例如,移动通讯技术还处于开发阶段时,专家们就共同确定了通信、安全和兼容性的通用标准,所有智能手机都必须符合这些规格才能上市销售。国际机构则将这些标准扩展到全球范围。


同样的逻辑也适用于人脸识别,应该有一套标准来确保应用安全、隐私得到保护。共同规则可以有效缓解大众恐惧心理,从而改善由此带来的种种应用限制。人脸识别也应该像其他“有利有弊”的技术一样对技术负责。美国电气与电子工程师协会(Institute of Electrical and Electronics Engineers)目前已经着手制定人脸识别技术标准,美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)也应该进行相关试点研究。


企业系统安全系数由国际标准化组织(ISO)等机构认证,具体来说,ISO将评估特定产品是否符合监管法规,并由第三方机构对产品进行合规性测试,帮助消费者更清楚某项技术的用途是否符合相应规则。认证保证了安全性的高度一致,从而提升公众对整个行业的接受程度。

在美国,NIST是产品认证的主要机构,它通过公共数据库进行人脸识别测试并认证相关应用。但也有人质疑,NIST测试的主要数据来源是私有网站的浅层数据,无法普及到日常的使用场景中。此外,NIST数据选择也过于片面,以执法相关应用为主,测试主要依赖图像质量和操作功能等。一种改进方法是将自动化测试与人工检查相结合,从而获得较为可靠的测试和认证。


脸部识别的认证、技术标准和政府合规测试应基于有代表性和非单一用途的数据,且测试应该在实际应用环境中进行。在一个拥有大量专业信息的商业系统中,使用具有代表性的数据库进行基线测试和产品认证是至关重要的。单一用途数据例如警用正面照不能覆盖整个人群,因此在测试中的效用有限。识别测试应该基于海量图像信息、实际应用环境以及足够有代表性的人群样本分组,从而让公众消除疑虑。由于识别精度会受到光照条件和图像分辨率影响,可靠的实地测试就非常关键。





编辑:董莉


352#
 楼主| 发表于 2019-12-14 20:56:24 | 只看该作者
【案例】
新华社智能化编辑部建成运行 实现人工智能再造新闻生产全流程

10922de4f1a4dbed2038a70f0d0317fc-f52bb9f821204f92b9adbcf0e7b971f0-2.mp4
新华社北京12月12日电 人工智能时代,新闻事业会如何演进?12日,新华社首个智能化编辑部正式建成并投入使用,开启了一场新闻生产与传播的智慧革命。
新华社社长蔡名照表示,智能化编辑部是新华社落实习近平总书记要求,加快建设国际一流的新型世界性通讯社、全面提升全媒编辑能力的重要抓手,也是推动媒体融合向纵深发展的关键举措。
据介绍,智能化编辑部一年前在新华社新媒体中心试点建设。它以人工智能技术为基础,以人机协作为特征,对新闻生产进行全环节、全流程、全系统再造,旨在大幅提高新媒体产品创意创新能力和生产传播效率。
近年来,新华社持续追踪人工智能技术前沿成果,创造性地研发新闻应用场景,初步形成全流程技术创新体系,包括智能技术体系、智能产品体系、智能硬件体系、数据支撑体系和机制制度体系。
在采集环节,智能化编辑部利用“媒体大脑”摄像头新闻机器人和“鹰眼”智能监测系统,能够超早期记录突发事件、发现新闻热点;记者应用“现场云”移动采集系统和智能手机、AR智能眼镜、智能录音笔等智能硬件随时发起“现场新闻”全息直播,并同步采集文字、图片、短视频等全媒体形态新闻素材。
在生产环节,利用“媒体大脑”、AI合成主播、时政动漫平台等智能化工具和平台,对新闻素材进行自动分类和标引,智能化生产文字、图片、AI主播视频、短视频、地图新闻、数据新闻、卫星新闻、VR、AR、MR等30余个品类的全媒体产品。全程人机协作,人工审签。
在分发环节,面向新华社的媒体用户和新华社客户端等终端受众,基于用户画像技术,实现对象化精准推送。
在反馈环节,依托智能版权评价系统和区块链技术,精准评估传播效果。
在大步推进技术革新的同时,智能化编辑部同步探索重塑适应融合发展的“编辑部”生产流程、组织架构和机制制度。
智能化编辑部通过一次采集,N次加工,多元分发,让新闻生产通过智能化创新,提速、提量、提质、提效,打通了在线新闻生产的“最后一公里”。
在试点基础上,智能化编辑部系列成果已开始更大范围辐射应用,并迭代升级。在新华社刚刚改造完成的新媒体大楼智能化编辑部,编辑记者表示,在智能系统助力下,生产效率可提升3-5倍,节省了大量时间和精力,从而更多地投入创意创新。(记者宋玉萌)




编辑:董莉

353#
 楼主| 发表于 2019-12-15 22:05:35 | 只看该作者
【案例】
俄罗斯人工智能发展中的市场与国家



华盾博士作客欧亚研究前沿讲坛
发表新人新论
探讨俄罗斯人工智能发展中市场与国家
2019年12月7日下午,应上海外国语大学欧亚文明研究特色研究生班的邀请,俄罗斯科学院普里马科夫世界经济与国际关系研究所博士候选人华盾在上海外国语大学松江校区29号小别墅204教室作了题为《俄罗斯人工智能发展中的市场与国家》的讲座。本次讲座由上海外国语大学国际关系与公共事务学院院长助理、欧亚文明研究特色研究生班负责人杨成教授主持,包括欧亚班在内的国际关系与公共事务学院、俄罗斯东欧中亚学院等单位的众多师生参加。此场学术报告也是欧亚班为庆祝上海外国语大学建校70周年组织的系列学术活动的第四场。
华盾博士认为,俄罗斯发布的《2030年前国家人工智能发展战略》有三个主要的框架性特征,它们对俄罗斯人工智能发展战略的范畴做出了界定:一、时间跨度短,可预测性较强;二、技术应用范围为民用技术和国民经济领域,但实际上俄罗斯在军事领域已有人工智能研究;三、技术开发的优先方向是解决单一专业化任务的弱人工智能领域,但更重要的是支持旨在保障人工智能超前发展的可持续研究,尤其是以发展通用人工智能(即强人工智能)为目标的技术科研,这也是该战略的首要目的。华盾博士认为,这体现出俄罗斯人工智能的发展目标已经剑指强人工智能发展时代。据此,该战略的主要内容就可以概括为未来十年俄罗斯在弱人工智能民用领域的发展规划。
接着,华盾博士指出,人工智能的发展将在未来对俄罗斯的发展产生各方面的影响。但由于目前数据资料有限,评估俄罗斯的人工智能发展状况困难重重。语言、文化的差异和国际政治都会导致俄罗斯在欧美主导的科学话语权体系中被边缘化。要全面认识游离于世界评价体系之外的俄罗斯就要充分意识到俄罗斯本身的复杂性、矛盾性,和世界其他国家作为“他者”的主体性。
随后,华盾博士系统地分析了俄罗斯人工智能的优劣之处。一方面,在人工智能的数理基础和算法优势上,俄罗斯拥有深厚的发展底蕴与相对优势。就技术发展本身而言,俄罗斯是该领域的先行者。人们普遍认为,人工智能起源于1956年美国的达特茅斯会议,在这次会议上“artificial intelligence”一词第一次被提出。但实际上早在 1954年,在俄罗斯计算机控制创始人之一A. Lyapunov院士的指导下,莫斯科国立大学举办了“自动化与思维”研讨会,人工智能在苏联诞生。华盾博士认为,俄罗斯人工智能起步早的原因恰恰在于俄罗斯深厚的数学底蕴。成熟的、可持续的教育体系为俄罗斯人工智能发展储备了大量人才。从权力和财富两方面来看,算法作为人工智能发展的核心要素之一,其市场前景广阔,所以俄罗斯侧重人工智能软件的开发符合国家利益。但另一方面,人才流失、有效需求不足、数据资源匮乏作为市场痛点大大限制了俄罗斯人工智能的发展。国家信息技术行业待遇低、人工智能市场有效需求不足这两大主要原因导致该领域人才流失严重。市场的有效需求又分为投资需求和消费需求。相对于中美两国,俄罗斯在人工智能领域投资谨慎,市场活力度低。其造成的根本性后果就是俄罗斯数据资源匮乏,缺少场景规划。垄断性质的商业文化也对初创公司的发展壮大带来不利影响。
在分析了俄罗斯人工智能发展的优缺点之后,华盾博士提出国家在俄罗斯人工智能发展进程中发挥的作用。其主要作用为:政策引领、公共支出、投资促进。俄罗斯人工智能发展一直以来都带有很强的国家干预特点。该特点产生的原因有三:一、从产业生态建设的角度来看,以人工智能为代表的数字经济的发展的确需要国家资源的投入。人工智能最大的作用在于对传统行业的数字化改造以提高传统行业的效率,从这一角度出发,国家干预并扶持人工智能产业的发展是必然的。二、俄罗斯对战略行业一直严格管控。数据就如传统的石油、天然气等资源一样,也是一种战略资源。此外,人工智能可以作为国家决策的辅助手段,使国家的管理监督更加高效理性。实际上,尽管俄罗斯具有自己的算法优势,但国内人才外流的困境与国外替代项目的出现都对俄罗斯人工智能发展构成了挑战。俄罗斯为了防止在全球经济中被边缘化,更加重视人工智能的战略地位。三、俄罗斯经济发展具有路径依赖的特点。人工智能时代国家作用的强调符合俄罗斯传统上集体动员式的经济组织形式。这预示着在人工智能领域有可能会出现苏联时期核领域、航空航天领域的爆发式成就。
最后,华盾博士基于内生性和外生性原因预测人工智能时代下的中俄关系会更加紧密。人工智能本身是资本和技术密集型技术。只有中美两国能全部囊括人工智能的算法、算力、场景、资本四大要素,而其他国家会更多地考虑成本和收益问题。当这些国家缺少任一要素时,它们就会选择抱团取暖或者依附于另一国家。所以,俄罗斯在只有算法优势的情况下势必会加强和别国的合作,而且更大可能是和中国合作,这就涉及到国际政治的外生性原因。基于此,中俄在该领域的潜在合作有可能会让双边关系会进一步提升。
华盾博士的讲解细致入微,有理有据,在场听众受益匪浅。本场讲座在热烈的掌声中圆满结束。



原文链接:https://mp.weixin.qq.com/s/klQKPXRXAa5EHUMHJa-aoQ



编辑:董莉

354#
 楼主| 发表于 2019-12-16 13:42:58 | 只看该作者

再谈智能的一多性

【案例】


近日,斯坦福联合MIT、哈佛、OpenAI等院校和机构发布了"2019年度AI指数报告"。虽然AI的表现让人印象深刻,但我们离通用人工智能还很远。正如报告中所言:“千万不要过度解读这些结果,因为列表中的任务是非常具体的,这些系统也无法迁移到其他任务上,因此可扩展性有限。”。换句话说:AI系统是一次性使用的工具,而不是人类可重复多次使用的智能。

图灵奖得主、贝叶斯网络之父Judea Pearl 曾自嘲自己是”AI 社区的反叛者“,因为他对人工智能发展方向的观点与主流趋势相反。Pearl 认为,尽管现有的机器学习模型已经取得了巨大的进步,但遗憾的是,所有的模型不过是对数据的精确曲线拟合。从这点而来看,现有的模型只是在上一代的基础上提升了性能,在基本的思想方面没有任何进步。例如机器学习就是分层寻找特征值,输入标签的质量和数量很关键, 而人通常知道每个标签的内涵外延和之间的弥散聚合关系,机器不懂,只是符号的规定舞蹈,场景的机械分割,不能产生整体的感觉、知觉和理解。

理解就是看见了联系。在各种智能中,输入端的灵活性极其重要,标识内涵外延的弥聚弹性大小、速度如何在很大程度上就已经决定了智能的好坏(如同很多人生一样,儿时的理想和梦想就决定了ta一生的方向高度),同时,这也是自主地产生新信息知识、新功能(函数)、新网络、新能力的基础。一般而言,标识范围太大了不好存储,太小了不能达意,标识命名的唯一性与泛化性(即弥聚效应)要保持平衡,也即可理解性(语义性)与中心化(唯一性)的对立统一,所以输入数据、信息、知识标识的最小颗粒度,即边界范围的大小非常重要,颗粒度阈值过大易造成智能的不确定性,反之若过小易丢失关键特征。这些将直接影响着智能的体系架构:表征—标识—组网—优化—修正—迭代。

除了输入端的表征随机变化之外,推理、决策的实施也非常重要。知识驱动与网络重构之间的迭代关系,处理不好,智能内容也很难形成多种有效的新知识。规划对智能来说“只是一个推敲的基础而已”。一个好的智能体系,依靠的并不仅是逻辑,还有直觉,比起刻板的理性逻辑推进,更忠实于自己的创新灵感。有点像宫崎骏所说的那样:“所谓的电影,并非存在于自己的头脑之中,而是存在于头上的空间。”,“拍电影不能靠逻辑,或者说如果你换个角度看,任何人都可以用逻辑拍电影,但是我的方式是不用逻辑的,我试图挖掘自己的潜意识,在那个过程中的某个时刻,思维之泉被打开,各式各样的观点和想法奔涌而出。”宫崎骏作品的结构失衡,虽然有很多评论者都指出过,但很少有人对此做出批判。他的弱点,反而被视为他作品的一种风格体现——“即使凭借感觉创作,依然能够创作出满足观众观影生理快感的电影,这体现出了宫崎骏非凡的才能。”

人类智能相比机器智能有许多不同的机理,其中的反思、冥想、忏悔等机制非常重要:反思是非事实性推断,是各种假设的复盘,可以把“做一件事”演绎成“做多件事”,这也是机器智能中的“反馈”机制望尘莫及之处;冥想是一种相关无关性的非逻辑,它视时、空、逻辑为无,有点像一些好的诗歌,任性地在动静、有无、虚实、强弱中游刃穿梭;忏悔是格式化自我,任何事物都有利弊的沉淀和垢余,时间一长,清理打扫是不可避免的,删除的垃圾信息越多,阻塞就会越少,复杂性就会越少,智能就会变得越智能,进而越容易形成智慧……

细细想来,一多性,这个起源于神学的概念,在包含精神的智能中一样令人难忘和神往!


来源:人机与认知实验室


编辑:宋婷

355#
 楼主| 发表于 2019-12-17 21:51:17 | 只看该作者

喻国明:算法与“信息茧房”间不应画等号

【案例】
作为一种普遍规律,但凡是创新,就必然会受到来自方方面面的审视与诘问。对于算法型信息分发而言,眼下最具社会普及性意义的一个突出问题就是:它是不是造成“信息茧房”(以及见识窄化,甚至是引发“后真相”时代)的罪魁祸首?
答案是否定的。
“信息茧房”假说未证实
迄今为止,人类的信息分发模式大体上经历了三个主要的发展类型:1.倚重人工编辑的媒体型分发;2.依托社交链传播的关系型分发;3.基于智能算法对于信息和人匹配的算法型分发。作为一种“闯入”信息传播实践的新生产力量,算法型信息推荐(分发)技术实现了信息生产与传播范式的智能化转向,同时带来了用户价值主导下的场景化适配。其发展与变化是一种重塑传播规则、改变人们认知的全新机制设计。
“信息茧房”则是由哈佛大学教授凯斯·桑斯坦在2001年所提出的一种假说。在传播学中,欧美学者常见的概念表述是“信息回音室”或“过滤气泡”。前者突出的是“人们听到和自己类似的声音”,也就是所谓“回音”。后者强调的是社交媒体上的人际关系,以及算法推荐功能带来的信息过滤效果。而对于算法信息分发的质疑就在于,认为智能机器会持续地为你只推荐一类信息,从而造成用户的兴趣和见识窄化。
从逻辑上讲,这一假说成立的前提是,你喜欢看什么算法就只给你推送什么。事实上,算法没有好恶,虽然能判断你的兴趣爱好,却无法判断你的观点和态度。因此会推荐正反两方的文章给你,避免偏听偏言。相比起订阅和关注这类高度认同的信息来源,算法少了人工干涉,反而帮助你高效地接受多元化的信息。现实的情况是,人们除了被动接受平台所推送的信息和观点之外,还可以用搜索功能来主动探索求证形成自己的认知,主动打破“茧房”隐患。
事实上,桑斯坦关于“信息茧房”的假说在其后的学术性实证研究中,从来没有被证实过。反而,习惯研究常常得出与之相异的结论:在算法型内容推送之下,人们的认知边界不但没有缩小,反而在明显地扩张,并且认知层次也在随之加深。
算法已越来越多元
换言之,在社会生活的具体实践中,算法其实不但不会造成“信息茧房”现象,反而会更有利于打破这种见识窄化。原因是显而易见的:
首先,关于智能算法型信息分发所依赖的算法,已具有越来越多元的发展趋势。在市场竞争日趋激烈与分工更加细化的格局之下,不同的算法型信息分发平台很少会使用同一种算法。而是根据自己的市场定位与资源禀赋,采用多种不同类型的推荐算法,以实现自身所掌握的资源与用户需求的场景适配。实际上,采用多种算法的信息分发平台所具有的社会构造,从信息流动来说,总体上能够有效地避免“茧房效应”的发生。因此,问题的关键不是将重点置于一个算法型信息分发平台对于人们的需求满足是不是有局限性,而是应该放在整个社会的信息推送的算法本身,是否有足够多元化的特征。
其次,智能算法型信息分发所依赖的算法,如今正处在不断优化和迭代过程中。FacebookGoogle、今日头条均已深度介入到信息的分发中,算法是互联网信息分发平台在实现传播效能中一个最重要的工具。目前,所有算法型信息分发平台的优化包括如下举措:
第一,它们都有限度地向社会开放其算法,加强透明性,引入社会的监督和参与。如今日头条在2018年公开了自己的算法原理,核心是为用户量身定制精准度更高的信息推荐。
第二,算法的迭代将沿着两个维度持续升级:一是通过引入更加多维的数据(如:席位数据、未知数据、社交关系数据等)加深对于用户需求定义和理解的广度与深度;二是除了注重用户价值之外,将更多的价值维度引入算法的计算框架中,如人们所处群体的价值维度、人们所处社会的价值维度、人们所处国家的价值维度等等,如此一来可以使算法越来越包容社会性的价值诉求,从而使信息的分发成为一种社会诸多价值“合力作用”的结果。
平台不追求用户兴趣窄化
再次,作为平台来说,“聪明”的算法平台都不会希望自己的用户兴趣窄化,就像没有一个商场的经理会希望顾客每一次来到商场都只关注同一类别的商品一样。事实上,商场经理都希望顾客关注尽可能多的产品品类,以扩大其消费能力。同样的道理,算法型信息分发平台也希望自己的用户,尽可能持续地拓展自己的兴趣和关注的范围与数量。
从根本上说,从海量内容中挑选用户感兴趣的内容,这样的信息推荐系统一定是智能的、可学习的系统,并且会根据用户的反馈调整自己。通过种种正向、负向反馈,不断观察学习,根据这些市场信号和社会信号不断调整自己,让自己更能符合用户的兴趣需求和社会的价值潮流。所以,从推荐系统设计者来讲,非常希望推荐系统短期数据有很好的表现,更需要挖掘用户更多的兴趣点,尽量在一个平台上满足用户更多的兴趣点。显而易见的事实是:推荐内容的多样性越好,用户的信息依赖度及长期留存概率便越大。
以上就是算法推荐不但不会导致“信息茧房”,反而会有助于人们打破“信息茧房”的基本缘由以及其社会逻辑、产业逻辑和市场逻辑。一句话,将算法与“信息茧房”简单画等号的做法真的可以休矣。(作者是北京师范大学新闻传播学院执行院长、教育部长江学者特聘教授)

来源:环球时报
作者:喻国明
链接:https://opinion.huanqiu.com/article/9CaKrnKomYh

编辑:宋婷


356#
 楼主| 发表于 2019-12-18 19:01:49 | 只看该作者
【案例】
美国商会发布面部识别政策原则的建议
201912月,美国商会起草了一套原则,协助政策制定者考虑面部识别的技术提案。美国商会认为,面部识别技术具有极大的潜力,可以提高安全性和安全性,并可以在交通、零售、酒店和金融服务等众多领域进行创新。该技术已经可以用于航空旅客便利化、刑事调查、防盗和欺诈检测等应用中。然而,面部识别技术已受到政策制定者和公众的高度关注,关于是否暂停或禁止使用该技术,目前美国正在进行全国讨论与对话。商界认识到有责任确保人脸识别技术的安全开发和部署。为了应对这一挑战,美国商会技术合作中心(C_TEC)集结其各方面的成员,包括面部识别供应商、开发人员、使用者和其他利益相关者,起草一套政策原则。具体建议如下:
优先使用透明的面部识别技术
透明度应该是控制面部识别技术使用的基石。商业和政府用户应该对何时以及在何种情况下使用该技术保持透明度,以及对控制面部识别数据的收集、处理、存储、使用和传输的流程和程序保持透明。
保护隐私和个人数据
面部识别技术涉及敏感面部生物特征数据的收集、处理、存储和使用。因此,C_TEC认为需要明确和一致的隐私保护,以确保所有面部识别技术使用者以谨慎、安全的保护个人隐私的方式处理数据。政策制定者应将美国商会的隐私原则作为制定隐私规则的指南,这些规则在促进创新的同时保护人权和公民自由。此外,C_TEC还支持一种基于风险的方法来管理人脸识别技术的网络安全,如加密人脸模板和传输图像。政策制定者还应该为处理面部识别技术相关数据的个人促进网络卫生。
开发适当的监管框架,以促进创新,公民自由和人权
在减轻风险的同时促进面部识别技术的有益用途。面部识别技术在商业、政府和执法环境中具有众多有益的功能应用。政策制定者应认识到并认可这些众多的用途,在制定公共政策时要严格限定范围,以促进面部识别技术的创新和有益部署,并防止滥用面部识别技术。政策制定者不应支持过于繁琐的监管制度,例如暂停执行或全面禁止。
采用基于风险和特定用例的管理方法。面部识别技术具有创新性和广泛的使用案例。因此,面部识别技术的任何法规都应基于风险和性能,并考虑到特定的用例,而不是建立“一揽子”、“一刀切”的规范性法规。政策制定者还应考虑采用现有法规,以防止相互冲突的管理规定阻碍创新。
建立统一的国家层面的治理和监管框架。随着面部识别技术的应用越来越普遍,国会必须确保采取清晰一致的方法来管理面部识别技术。国家和地方之间的冲突将阻碍创新、抑制公共安全,并给消费者带来困惑。为了解决这一问题,所有在联邦层面的框架都应该优先于所有州和地方法律对面部识别技术的使用。
通过适当的标准和测试促进问责制和一致性
支持基于风险的绩效标准的制定。通用的、全国性的标准对于确保面部识别技术的可靠性和准确性、提高数据质量以及在所有人口统计数据中推动一致的基于使用案例的绩效非常重要。根据现有法律,标准的制定应是自愿的,以行业为驱动力且基于共识,并且应由现有的独立标准制定机构(例如美国国家标准技术研究院,简称NIST)来进行。此外,考虑到面部识别技术的独特技术和概率属性,标准应灵活,以使用案例和绩效为基础,且非指定性的。
确保联邦政府在测试和基准测试方面的投资。建立公众和消费者对人脸识别技术准确性的信任至关重要。为了进一步实现这一目标,政策制定者应该优先通过现有的独立实体(如NIST)对面部识别技术进行标准化测试和基准测试。为了加强这些重要的工作,政策制定者应确保NIST有足够的现代化资源来支持测试和基准测试工作。由于绩效与使用案例紧密相关,因此基准测试必须紧随其后。
来源:数据法盟
作者:石月
编辑:宋婷

357#
 楼主| 发表于 2019-12-19 08:59:40 | 只看该作者
如何应对人工智能给国家政治安全带来的挑战
人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。政治安全是国家安全的根本,充分认清人工智能对国家政治安全的挑战,研究应对之策,有效维护国家政治安全,意义重大而深远。
人工智能如何影响政治安全
作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。
从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术与生俱来就是政治斗争的工具,技术的进步不可避免地直接或间接服务于政治安全。“政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。”是以,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。
第二,政治领域欢迎技术“天使”的一面,同时也不得不接纳技术“魔鬼”的一面,导致政治安全与技术进步相生相克、相生相长。马克思主义认为,“技术进步直接带动机器改进,机器改进理论上可以减轻劳动强度、缩短劳动时间、增强人对自然的驾驭能力等。”先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。然而技术并非是完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步“反噬”。
第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票,争夺执政权。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。
从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。
第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。
人工智能将给政治安全带来哪些挑战
恩格斯曾警告道:“我们不要过分陶醉于我们人类对自然界的胜利。”技术变革具有两面性,人工智能既是政治安全新机遇,也是新挑战。
挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势,非国家行为体的权力扩大,给国家治理带来新难题。在传统的民族国家治理模式中,执政党或政府处于权力的中心。而在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。平等、民主的理念将成为时代主流,人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,“所有人面对所有人”,任何人在线上发布一张图片、一个视频、一段文字、或一条语音,都有可能引起连锁反应、酝酿政治事件。这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,个人、企业团体、社会组织等非国家行为体,在某种意义上都得以成为与政府平等的发声主体,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,呈现出明显的权力去中心化趋势,国家治理难度大大增加,政治安全风险也大大增加。
目前,这种风险已初露端倪。今年923日,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。仅仅一句谣言,就引起如此轩然大波。不难想象,一旦有人围绕敏感政治议程,恶意歪曲、篡改、伪造“事实真相”,蓄意策划、组织、酝酿、推动“线上”政治运动,并混合利用大量人力和机器人进行策应,煽动不明真相的民众“线上”“线下”同时行动,将会造成多么严重的后果。更为严重的是,这也许只是未来众多错综复杂政治事件的场景之一。
挑战之二:资本的权力将随着人工智能技术和数据垄断持续扩张,进而染指国家传统权力。首先需要说明的是,这个问题实际上也是“非国家行为体权力扩大”的应有内容。但鉴于人工智能时代“资本的权力”的特殊地位作用,以及带来的挑战之重大性,有必要单列出来讨论。马克思主义认为,生产力决定生产关系,经济基础决定上层建筑。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重要特征。人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。
另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。目前,人工智能领域几乎所有重要的突破性成果都出自谷歌、微软、IBM、亚马逊等商业巨头或其投资的研究机构。而且,这些巨头企业本身就对全球核心技术、顶尖人才具有强大的虹吸效应。商业巨头实际上掌握了目前人工智能领域的大部分话语权,正在逐步形成行业垄断地位。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而插手政治事务。2016年发生的“剑桥分析事件”即是例证。国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。
挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力,这也意味着新的政治风险。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。2016年美国总统大选就是典型案例。布鲁金斯学会研究人员伊丽莎白·萨布里克称,大选期间,为影响选举结果,“俄罗斯投入的总成本仅为100万美元,却产生了高回报。俄罗斯‘互联网研究机构’仅在脸书上发布的内容,就影响了1.25亿美国人。”类似的情况,接连出现在2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。这种利用技术干涉政治的风险,在所有国家都可能出现。特别是技术水平相对落后的发展中国家,由于缺乏相应的技术积累,没有有效的方式保护数据安全,也没有足够的能力应对技术干涉,这种挑战更加严酷。
挑战之四:人工智能技术极有可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动,危及国家政治安全。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。无线电技术出现后,经常被用于窃取国家秘密,或者实施洗脑式政治宣传。比如美国之音广播电台,几十年如一日地对我实施反动宣传、进行意识形态渗透。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果可能比以往的技术更为严重。20188月,委内瑞拉国内反对派势力勾结美国,利用无人机携带炸弹袭击该国总统马杜罗,即是牛刀小试。人工智能也正在成为恐怖势力实施暴恐活动的武器。美国学者迈克斯·泰格马克担忧,从人工智能“军备竞赛中获益最大的,并不是超级大国,而是一些较小的‘流氓国家’和非国家主体,比如恐怖分子……只要他们把目标的照片和地址上传到杀手无人机中,它就会飞到目的地,识别和杀死那个人,然后自毁,以确保没人知道谁是幕后黑手。”人工智能还可以通过自动化社会工程攻击来助长各种暴力破坏活动,比如国内外敌对势力可能会通过聊天机器人,在线上宣传极端思想、招募恐怖分子,怂恿诱导他们在线下实施暴恐暗杀活动,制造政治恐慌。
挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。广大发展中国家受限于自身发展水平、技术实力、人才积累等因素,短期内难以同发达国家抗衡。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大,技术强国不断扩大竞争优势,提升其全球地位和政治影响力,甚至形成“强者愈强”“赢者通吃”的局面。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性严重存在,后者在国际战略博弈中很难翻盘。正如法国国际问题专家高大伟(David Gosset)所讲,“人工智能是人类制造分裂的数码鸿沟。一旦你有高科技,能力就会非常强;没有,你完全就没有什么机会。”
人工智能时代如何有效维护我国政治安全
政治安全事关我党生死存亡和国家长治久安,也与民族复兴和人民福祉休戚相关。必须高度重视人工智能带来的政治安全挑战,对症下药,多措并举,综合施策。
针对“权力去中心化”趋势,转变执政理念,探索国家治理新模式。人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,成立人工智能安全咨询专家组,密切跟踪技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,积极适应“权力去中心化”趋势,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以掌握技术和应用的前沿动态和发展趋势,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。
针对技术短板弱项,实施重点突破,努力跻身世界一流,争取掌握未来国际竞争战略主动权。当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键十年。举全国之力,集全民之智,戮力建设自主创新体系。加强政策引导和资金支持,打造一批国家级人工智能研发平台。加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器入手,加快核心技术突破。技术创新的关键在人才,要在加强国内人才培养的同时,拿出具有吸引力的政策措施,全球招贤纳士,聚天下英才而用之。
针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。没有规矩,不成方圆。要随着技术的发展变化,在《人工智能标准化白皮书》(2018 版)的基础上,进一步修订完善相关技术标准。制定完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管,积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、越过权力边界等不良行为的惩戒力度。
针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要立足我军实际,统筹推进机械化、信息化、智能化复合发展,成体系加强战斗力建设。要保持战略定力和战略清醒,既高度重视、加快发展、加紧赶超,又要清醒地看到美国利用“星球大战计划”引诱拖垮前苏联的殷鉴不远,谨防掉入对手构设的“战略陷阱”。要保持强大战略自信,找准对手的“短板”和“死穴”,运用非对称战略制衡思维,坚持“你打你的,我打我的”,创新发展智能化条件人民战争的战略战术。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平,为军事上决战决胜、政治上安全稳定提供坚强力量保证。
针对战略互疑,加强国际交流合作,共同制定人工智能技术国际行为准则。近年来,国内外学术界、产业界围绕人工智能主题的交流合作逐渐增多,然而主要大国尚未在双边或多边层面展开真诚、深入的对话。甚至有人把中美在人工智能等高科技领域的竞争比作另一场“星球大战”。某些大国无端猜忌别人,并且人为地对相关技术、产品、供应链等设置技术壁垒。
随着全球化的深入发展和技术突破传统的国家疆界,一国的安全早已与其他国家紧密相联,人工智能发展过程中出现的问题,只有各国共同携起手来才能解决。固步自封、相互掣肘从短期看尚可以找到掩耳盗铃、自我欣赏的快感,从长远看没有出路。我国要展现大国姿态,发挥自身优势,积极探索与技术强国开展务实交流合作的可行性路径,互相取长补短,努力增信释疑,避免恶性竞争,共同应对难题。要加大对国外优质创新企业的风险投资与合作并购,鼓励国内实体大力引进高级专业技术人才、合作创办研究机构。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。
来源:战略前沿技术
作者:许春雷
链接:https://mp.weixin.qq.com/s/iVOOsteyvgBIpSedL2K2Dw
编辑:宋婷

358#
 楼主| 发表于 2019-12-21 17:19:05 | 只看该作者
【案例】
微软亚洲研究院周明:深度“懂你”的聊天机器人,路在何方

近年来,聊天机器人受到了大量的关注,也得到了快速的发展。
从字面上来讲,聊天机器人就是会“聊天”的机器人。
从远古时代起,语言就是人类最简单基本的交互方式,
而到了人工智能时代,我们有条件实现与机器用语言“对话”。
作为人工智能时代的入口级产品,聊天机器人就是一个最典型的体现。


聊天机器人的分类有很多种,
从用途和使用场景上看,聊天机器人可以简单分为功能类和娱乐类。
从生态系统上看,聊天机器人可以分为产品、框架和平台三类,
从交互方式上看,聊天机器人可以分为主动交互型和被动交互型,等等
“虚拟生命+智能语音”,更贴近真实自然的交流,
能像人一样自然聊天的机器人,一直都是研发者所追求的目标之一,
如何做到“会聊天”,也是我们今天推荐这场报告中言及的重点。


由于缺乏理解和推理,聊天机器人的回复存在着前后矛盾、万能回复、不能回答问题、缺乏常识和推理等问题,离真正意义上的理解还有很长距离。微软亚洲研究院副院长周明在CNCC技术论坛报告《面向深度理解的聊天机器人》中,介绍了目前的聊天机器人技术的进展, 并且分析其不足,还为专业研发者带来一些新的思路。






来源:中国计算机学会



编辑:宋婷

359#
 楼主| 发表于 2019-12-22 22:07:39 | 只看该作者
【案例】
国际保护知识产权协会(AIPPI)发布《人工智能生成物的版权问题》决议
2019AIPPI伦敦世界知识产权大会
通过的决议
2019918
背景:
1
本决议旨在说明有关人工智能(以下简称“AI)的问题中涉及版权领域的内容。
2
本决议旨在确定AI生成物是否享有版权和/或邻接权,以及在何种情况下享有版权和/或邻接权。
3
本决议不涉及以下内容:
AI生成物的版权侵权问题;
• 用于AI系统的计算机程序或算法的版权问题;
• 中间生成物(也即在最终生成物产生过程中得到的生成物)的版权问题,本研究专题仅涉及最终生成物。
4
就本决议之目的而言,
• 本决议所称“版权”系指《保护文学和艺术作品伯尔尼公约》(1971年修订版)(以下简称“《伯尔尼公约》”)规定的与版权有关的权利。一些国家和地区还规定了《伯尔尼公约》保护范围之外以及非《伯尔尼公约》项下的版权专有权保护内容。该等版权保护内容不属于本决议所称之“版权”。
• 本决议所称“邻接权”系指所有其他与版权相关的权利,例如“与版权相关的权利”、“与版权类似的权利”、“有关的权利”等。
• 本决议所称“财产权”系指授予权利人的版权专有权或邻接权专有权,例如复制权(详见《伯尔尼公约》第9条)(1996年《世界知识产权组织版权条约》(以下简称“WCT”)第1条第4款的规定)、发行权(详见WCT6条)或向公众传播的权利(详见WCT8条)。
• 本决议所称“人身权”系指《伯尔尼公约》项下,作者享有的除财产权以外的与人身相关的版权权利,例如:反对作品被歪曲的权利。
5
为给本决议的作出提供具体依据,本决议采用下述研究示例:
• 步骤1:创建一个或多个AI主体,以能够接收、分析和学习自外界输入的内容,且能够灵活采取相应行为以使得AI可在一定时间内达成特定的目标成果。[1]这些目标成果由人类来选择确定,且就本研究议题之目的而言,这些目标成果所涉及的生成物系通常能获得版权保护的作品。
• 步骤2:选择数据以将其输入一个或多个AI主体。该“数据”可以是已有作品(例如艺术作品、音乐作品或文字作品),也可以是基于特定筛选标准而获得的来自传感器、摄像机或其他渠道(例如互联网)的内容。
a. [情况数据或数据的筛选标准由人类选择确定。
b. [情况数据或数据的筛选标准不由人类选择确定。
• 步骤3:将所选数据输入一个或多个AI主体中,AI通过生成区别于任何先前作品的“新生成物”以达成特定的目标成果。
a.[情况人类基于其对作品的质量及审美要求从“新生成物”中选出最终生成物。
b.[情况从“新生成物”中选出最终生成物的过程不涉及人类干预。
6
国际保护知识产权协会(以下简称AIPPI”)收到了32个协会成员方(也即各国家和地区分会以及独立成员)提交的报告,这些报告就各国和各地区内与本决议相关的法律制度提供了详尽的信息和分析。这些报告经 AIPPI总报告人团队审阅后,行成了一份总结报告(可访问文末链接获取)
7
20199月举行的 AIPPI伦敦世界知识产权大会上,本决议的主题内容经一个专题研究委员会进一步讨论,并在全体会议中再次进行了讨论,最终由AIPPI执行委员会投票通过。
AIPPI决议如下:
1
统一或协调对AI生成物的保护是有必要的。
2
AI生成物只有在其生成过程有人类干预的情况下,且在该生成物符合受保护作品应满足的其他条件的情况下,才能获得版权保护。对于生成过程无人类干预的AI生成物,其无法获得版权保护。
上述原则也适用于研究示例中各个步骤所描述的情形,具体结论如下:
• 针对步骤1AI生成物不应仅仅因为其是人类创建的AI系统的输出内容而获得版权保护;
• 针对步骤2的情况2a,若用以输入AI的数据筛选标准系人类选择确定的,则AI生成物可获得版权保护;
• 针对步骤2的情况2b,若用以输入AI的数据或该数据的筛选标准完全不由人类选择确定(或仅仅由非人类选择确定),则AI生成物不能获得版权保护;
• 针对步骤3的情况3aAI生成物不能仅因为人类从“新生成物”中选出最终生成物而获得版权保护;
• 针对步骤3的情况3bAI生成物不能仅因为从“新生成物”中选出最终生成物的过程不涉及人类干预而获得版权保护。
3
AI生成物所具备的独创性(具体由各国国内法规定)产生于生成物形成过程中的人类干预,该独创性应是受版权保护的条件之一。
4
AI生成物受版权保护的情况下,由于该AI生成物已经满足与前述第2)项提及的“人类干预”以及前述第3)项提及的“独创性”相关的条件,该AI生成物受到的版权保护机制应与其他作品相同,尤其是在以下几个方面:
•  财产权;
• 人身权(具体由各国国内法规定);
• 保护期限;
• 保护的例外与限制;
• 原始权利归属。
5
即使AI生成物的生成过程并无人类干预,该AI生成物也可能受到《伯尔尼公约》规定的版权保护以外的其他层面的保护。
AI生成物不应因为其由AI生成而被排除在现有邻接权的保护范围外,只要该AI生成物符合获得邻接权保护所应满足的条件,其就应当获得保护。只要各国及各地区的版权制度(非《伯尔尼公约》项下的版权制度)已将AI生成物纳入版权专有权保护范围内,AI生成物可在该国及该地区获得版权专有权保护。
由于AI尚处于不断发展的过程中,探讨未纳入本决议前述保护范围的AI生成物应受邻接权专有权保护还是版权专有权(非《伯尔尼公约》项下的版权制度)保护为时尚早。
来源:数据法盟
链接:https://mp.weixin.qq.com/s/Do3KoG1Llk-cTwoLfkE0LA
编辑:宋婷

360#
 楼主| 发表于 2019-12-22 22:20:38 | 只看该作者
【案例】
《人工智能对出版业的未来影响》白皮书完整版
近期德国管理咨询公司Gould Finch公司与法兰克福书展合作发布了《人工智能对出版业的未来影响》(The future impact of artificial intelligence on the publishing industry)白皮书。这是一项为期6个月的国际调查,共有来自17个国家的233名受访者接受了调查。白皮书总结了出版商在尝试人工智能(AI)应用时所面临的挑战,同时就如何集中精力实现利益最大化提出了建议。
——国际君按
人工智能为出版业发展提供机遇
出版业能从人工智能技术中获得什么
人工智能在经济转型中的不足
与出版业平行
人工智能如何应用于出版业
对人工智能和出版业未来的分析
“六步走” 迈开使用人工智能的脚步
人工智能对于各个行业的从业者都保持着足够的吸引力,这种拓展人类想象力的新兴技术为故事内容创作提供了无尽的素材,激励着人们去创造一个不一样的“世界”。然而,当人工智能技术扎根于常见的商业实践中时,很多想法看似都是不可能发生的,但是它们正在慢慢地变为现实。虽然人工智能依然给人“技术性强”的感觉,但不可否认的是,随着“大数据”“预测分析”“自然语言处理”等人工智能常用术语成为家喻户晓的词汇,许多文化创意产业人士开始关注这一技术。
随着人们对于人工智能的关注度提升,关于人工智能的讨论也越来越多。本报告通过6个月的调查研究,对300名调查者进行了跟踪分析,并与包括企业高层、出版编辑、行业代表等专业人士进行访谈,旨在深入了解人工智能技术,帮助出版业(包括图书出版、杂志、报纸、数字出版商)在商业实践中更轻松地驾驭这项技术。由于人工智能技术并非处于成熟阶段,现在断言其将如何改变出版业还为时尚早,但毫无疑问的是,人工智能技术的影响力将会是巨大的。这一报告也阐述了出版企业在面对人工智能技术时可能会遇到的挑战,并为企业实现利益最大化提出了建议。
人工智能为出版业发展提供机遇
虽然关于“什么是人工智能”的讨论仍在继续,但在使用“人工智能”一词来指通过计算机或机器自动执行任务过程的企业中,出现了一个共同的定义,那就是直到今天,虽然有机器的参与,人类工作依然需要部署人力或使用熟练工人。具体到人工智能对图书出版行业的影响,本报告认为有三方面:
第一,人工智能是不会取代专业作家的,但是它能够加强出版商的核心业务。虽然人工智能技术可以模仿人类语言,并创作看似合理的散文,但叙事技巧和畅销书特质尚未被简化成为一种算法。现有技术为出版商提供了一系列新媒体流程和操作范式,从而能够加强营销、分析、生产、管理等领域。
第二,投资人工智能领域,并不意味着人类的就业机会减少。相反,目前开展人工智能技术的企业,例如《华盛顿邮报》、阿克塞尔·斯普林格集团出版社,以及规模较小的出版社,看到了人工智能技术对读者统计和销售产生的正面影响,也为记者和作家带来了更稳定的工作机会。
第三,最低限度的投资仍然可以带来一定的收益和回报。研究结果显示,在投资人工智能方面,对前景的不确定性会导致投资者不参与投资。尽管很高比例的调查参与者认为,在没有任何保证回报的情况下,大量投资的风险太大,但有证据表明,即使是最低限度的投资,无论是雇佣新员工还是培训现有已经熟练的员工,都可能使销售额获得大幅增长。值得注意的是,那些投资过人工智能的调查者对自己的经验感到满意,并将继续在各个层面进行投资。另外,越来越多的服务提供商使用不同的人工智能技术,以合理的价格向出版商提供付费服务,从而增加了服务商的流量。
这可以看出,人工智能及其未来的发展为出版业提供了良好的机遇。出版事业是一项公众事业,这项技术不会取代工业中人与人之间的互动,而是在价值链中提供各个层面的改进。作家们将利用人工智能技术使他们的创造力获得更完美的表达,营销创意者也会为顾客提供个性化的体验项目。
出版业能从人工智能技术中获得什么
随着计算成本的降低,机器学习算法的广泛适应性推动了人工智能技术的重现。有了机器学习,一些早期的人工智能系统无法做到的事情,或者一些我们认为非常人性化的事情,现在只是成本的一小部分。这也意味着企业转向人工智能技术发展,让任务执行变得更快、更便宜、更可靠,最终比人类自己做得更好。
对于出版商来说,人工智能技术正在加速进入出版行业,在印刷、发行、数据加工、数字阅读、数字教育等领域广泛应用,为出版业的转型升级带来了更多可能。以往如果将旧手稿转为数字格式可能需要几天的时间,工人需要逐字输入到电脑。但是,通过OCR识字技术或光学字符识别技术,页面上的单词就可以被识别出来,并直接被转换成文本。
在管理和会计方面,人工智能有助于实现报告和付款背后的流程自动化,确保处理发票和转移费用等任务不仅及时执行,而且准确性更高。同时,人工智能并不像人类那样需要休息,聊天助手机器人可以全天候待命,为来自世界各地的客户提供任何时间、任何语言的服务。
人工智能也可以在推荐引擎系统方面服务于出版业,例如出版社或书店的员工对于根据某人的阅读历史和喜好推荐图书的概念并不陌生。根据不同流派的经验和知识,人们可能不难将作者、背景、人物发展和情节的各个点联系起来,找到合适的契合点。例如,一位顾客说,他目前正在疯狂迷恋阅读犯罪小说,他们碰巧遇到的员工可能会告诉他们有关这方面的事情,或者推荐一本时下的畅销书,客户也会感到满意。
但是当顾客的兴趣很模糊时,事情往往变得困难。例如当读者要求推荐以中世纪法国药剂师为中心的反乌托邦浪漫小说时,基本很少会有店员了解这方面的内容,这就会让顾客空手而归。而通过人工智能技术,这样的问题就会迎刃而解。书店内部系统会记住顾客买的每一本书以及他们喜欢的书,从而通过更复杂的推荐引擎过滤任何大小的目录和清单,以找到任何请求下的最相关的推荐书目。
但是,在这些领域和过程中,人工智能技术需要通过数据进行训练。为了充分利用机器学习,所研究的人工智能系统必须输入大量的数据才能获得最佳的学习效果。例如,如果你有大量关于一个产品的销售情况以及在生产、分销和广告上花费金钱的数据,你可以将这些数据输入到一个设计充分的人工智能系统中,然后再识别出一个可能的模式。一旦学习了这个模式,人工智能系统就可以根据它所学的做出预测。虽然人类能够在有限的维度下学习,但人工智能技术能够处理大量高维数据,最终使其预测能力远远超过人类能够接近的数据。
这种技术可被作为一种工具,使出版企业能够以显著提高的准确性进行分类和预测。利用处理后的数据信息,人工智能不仅可以对新客户进行分类,还可以预测他们的购买模式,以及消费者转向购买竞争对手产品的情况。
当然,人工智能技术也存在局限性。虽然“深蓝”可以在国际象棋中击败加里·卡斯帕罗夫,但在系鞋带、刷牙、唱歌等方面都无法击败他。这意味着人工智能在执行任务中的能力是固定的,并不是普遍适用的。它仅限于使用为其设置的参数。
同样,将人工智能应用到当前和新的商业实践中,其好处在很大程度上取决于它的准确性。如果一家在线书店考虑使用人工智能向顾客推荐图书,准确率达到80%,从而导致80%的顾客在购物车上添加更多的图书,这似乎是一项合理的投资;80%的购物者感到满意,即使剩下20%的读者觉得推荐的书很无聊。
然而,如果一家汽车制造商考虑在自动驾驶汽车上实施同样精确程度的人工智能技术,结果将是灾难性的:十个过街行人中有八个被认作是人,却误认了另外两个,从而导致事故。用加里·卡斯帕罗夫的话说:“人工智能是一种工具,它是一种技术,不是一根魔杖,也不是终结者。”因此,首先要考虑最重要的方面是人工智能可以应用到何处,它试图解决的任务或问题又是什么。
人工智能在经济转型中的不足
技术进步永无止境。过去只存在于幻想中的设施已经融入到我们的日常生活中,它们帮助我们打扫房屋、停放汽车,让我们随时随地获取全世界的最新信息。随着数字化的发展,我们只需轻触电子设备上的图标,即可轻松收听音乐、收看电影、浏览新闻、获取知识。但是发展也带来一些问题,消费者之间的竞争变得越来越激烈,曾经只有富裕的公司才能负担得起的技术,现在已经可以为更多小型企业所用。技术成本的下降引起了经济格局的必然转变。
虽然人工智能也被认为是这样一种会被逐渐普及的技术,但根据调查结果,人工智能在出版领域的发展仍然处于起步阶段。出版机构需要首先熟悉数据驱动型技术,然后才能充分利用人工智能的优势。
尽管出版商认为,人工智能将对整个行业产生巨大影响,但大多数人并没有进行投资。不过调查结果也显示,那些已经通过与初创企业合作或在早期阶段引入外部专家来使用人工智能的人,对过程和结果都感到满意,并将继续使用人工智能技术并对其进行投资。
人工智能和软件驱动的流程并不会消失或变得不那么重要,这意味着出版机构需要做好当下的决策,从现在开始逐渐开始战略性地应用人工智能技术。这不仅能营造创新开放的公司氛围,还能随着技术发展,为公司经济成功转型提供保障。但是需要注意的是,引领人工智能浪潮,需要正视公司的定位,以免在过渡到以技术为主导的实体经济时陷入经营困境。
说起来容易,但做起来难,如何定位人工智能技术、如何引入数据因素,需要关注以下这些方面。
与出版业平行
“中断”的概念对创意产业的从业者来说并不陌生。但是,如果最容易受到破坏的是创意经济本身,“中断”便变得十分危险。同时,虽然在内容创作中投入人工智能技术可以帮助生成有价值的内容,或执行人力成本高昂的任务,但是如果过于依赖人工智能技术而不对其加以约束,它还可能创建出不妥的甚至是错误的内容。如由诸多硅谷大亨联合建立的人工智能非营利组织Open人工智能发布的人工智能语言模型GPT-2,它能够生成连贯的文本段落而无需任何特定任务的培训。换句话说,给它一个故事的第一行,它就会“写出”剩下的部分,这在多个领域特定的语言建模任务上实现了当前的最佳性能。不过,它也存在着生成误导性新闻文章,并自动在社交媒体上大规模生产虚假和网络钓鱼内容的风险。
目前,由于许多人工智能技术仍处于不同程度的发展阶段,它们对创意经济的最终影响尚不确定,许多企业已经在不断探索、考量如何将该技术与员工工作结合在一起,共同应用于当前实践中。
随着基于信息的技术不断改变内容的创建、分发和最终使用方式,从事各个领域的多家公司都在重新部署和重新计算其基于人工智能技术的经营方法,以期通过超过70亿美元的机器学习领域外部投资,获得更多由人工智能技术产生的额外收入。
在所有参与调查的公司中,仅有25%目前已经在经营过程中使用了人工智能技术。与还没有在人工智能方面进行投资的公司的比例(即超过60%)相比,这个数字并不令人惊讶。虽然预计的投资增量(从平均6万美元增加到13.8万美元)似乎是有希望实现的,但一半还未在该领域进行投资的公司并不打算在未来改变自身的投资方式。
这可能是因为许多出版从业者认为,这笔投资的数额非常巨大,而且根据调研结果,投资的回报存在不确定性和较高风险。但是值得肯定的是,部分参与调研的人表示,统一的公司思维方式和对创新持开放态度的企业文化十分重要,出版业需要减轻并逐步解决对人工智能技术的盲目信任或盲目恐惧。
需要注意到的是,即使是最少的人工智能技术投资也将带来经济收益,这是缓解公司对人工智能技术的恐惧和犹豫的关键一环。此外,公司可以通过多种方式来测评投入使用人工智能技术可能产生的经济效益。
调查结果显示,出版机构中希望通过人工智能技术来最大程度地发挥潜力并优化流程的部门是营销和分销部门,编辑和制作团队也格外青睐人工智能技术带来的便利。反观行政部门和新闻部门,相关工作人员可能对人工智能技术的需求相对较少,但这也无法阻挡整个出版业的人工智能技术发展。
除了定量研究,调查还从许多个人访谈中收集了有关公司计划使用人工智能技术的部门。
调查结果显示,从翻译到用户交互再到推荐服务,人工智能技术都能在其中发挥重要作用。
人工智能如何应用于出版业
《纽约时报》和机器学习
《纽约时报》使用的名为Perspective的人工智能工具,可以检测恶意评论并将其标记为“有害”,极大地减轻了审核管理员的工作负担。目前《纽约时报》已经在他们的平台上开始使用这个人工智能工具,方便用户评论。这不仅使他们的读者受益,也使他们本身受益。
在评论中,任何人都可以发表自己的想法,然而当评论失控时就会充斥负面和歧视性的言论,最终成为一场噩梦。由于评论管理需要大量人力资源,早前《纽约时报》只开放了10%的文章评论功能。
为了解决这个问题,工具开发人员和谷歌技术团队创建了机器学习和语言处理的透视图。通过向人们生成评论数据库的透视图,根据评论与已经被标记为“有害”的定义将用户的评论进行分类,这就是技术和人类共同工作的实例。
现在《纽约时报》主页上的每个热门报道都开放了评论。这使得《纽约时报》能够建立一个彼此联系的庞大在线社区。从商业的角度来说,这有利于与所有用户交流并吸引新用户。人工智能技术驱使《纽约时报》及同类公司大规模进行此项工作,以从前无法想象的方式大规模地执行工作。
�自动定价和动态广告
2018年欧洲电子书和有声书发行商Bookwire使用的人工智能工具能够匹配和比较各种定价的历史数据点,并追踪不同品种的销售情况。此外,它还能就任意时间点和限时特价促销期间的理想定价给出建议,并基于图书品种的相似度以及消费者偏好自动集成电子书的广告推荐。这一技术推动了出版商销售的大幅增长,同时为西班牙和拉丁美洲市场的图书品种带来了25%的增长。
�客户服务和聊天机器人
在消费者服务方面,人工智能聊天机器人能够同时与上千个用户进行互动。聊天机器人可充当正在浏览在线目录的消费者的购物助手,或是发布个性化定制的即时新闻报道的消息助手。通过编程,聊天机器人还能够提供常见问题的答案,并且根据消费者的回复进行产品推荐。对于出版商来说,这意味着读者无需使用刻板的搜索和筛选功能就能够自主地探索书目,提高了图书的可发现性,最终最优化地为每个读者推荐图书。通过机器学习,库存书目成为了当前市场趋势下潜在的销售“金矿”。虽然目前该技术还不如“苹果”的Siri智能,但是其潜力是无限的。
KlangooSpotify和人工智能个性化推荐
Klangoo是一家致力于通过消费者跟踪技术参与出版商出版工作的人工智能公司,他们的技术Magnet将机器学习和自然语言处理相结合,使出版商能够为每位客户建立档案。档案内容不仅包括用户的通讯信息、浏览历史,也包括用户参与的活动信息和发布的文章。
音乐流媒体平台Spotify也开始使用人工智能技术,通过互动问答及消费者跟踪技术分析用户听歌的行为,为用户提供个性化歌单。该技术应用的第一年,就有超过4000万的用户通过该技术制作出属于自己的歌曲播放列表,包括他们想听的音乐以及在他们喜好范围中的音乐。
�《华盛顿邮报》和语言生成技术
受到互联网技术的影响,现在报纸也通过人工智能技术帮助生成内容进而增加读者数量。《华盛顿邮报》利用获奖的人工智能技术Heliograf,每年平均发表850篇额外的报道,这些报道带来了超过50万的点击量,并且增加网站流量。这种语言生成技术能够根据被明确定义的现实素材(如体育赛事的结果),以短新闻片段的形式,生成适合发布在脸书(Facebook)和推特(Twitter)等社交媒体平台上的内容。这不仅减轻了记者的工作负担,也使其能更专注于重要的报道。
《华盛顿邮报》并不是唯一一家使用该技术的纸媒。德国报纸出版发行商阿克塞尔·斯普林格集团首席执行官马西亚斯·多夫纳(Mathias Doepfner)认为,对于记者来说,这种趋势是意料之中的。这家媒体巨头利用人工智能技术撰写了大量文章,这不仅拓宽内容的覆盖面,增加了读者数量,而且还帮助其利润实现了两位数的增长。
很多出版商也发现了这种技术的发展飞速。尽管目前人工智能技术还未写出一本畅销书,但是一些人表示,通过训练,人工智能技术能够分析出当前最受欢迎的图书和作者数据,并且告诉你哪位作家会写出下一本爆款图书。
对人工智能和出版业未来的分析
�数据是人工智能的燃料
尽管人工智能的灵感来源于人类利用身体和大脑进行计算和推理,但是两者的运作方式是完全不同的。人工智能并不是一根魔杖,而是工人手中的工具。尽管机器学习可以高效地工作,但是最初技术不完善时并做不了很多事情。首先需要做的是将正确的数据进行调整和验证。
人工智能算法是不可预测的,但是经过适当地训练,即拥有大量的实例、图片、文字等,算法就从一个笨拙的工具变成一个值得信赖的伙伴。
数据,特别是数据的增长,对人工智能的发展是至关重要的。数据不仅使得人工智能变得更加智能,而且还提高了其准确性,数据增长为人工智能技术提供了“燃料”。
另外数据的质量也起到重要作用。人工智能最终会在一系列程序内运作,并实现其预定目标。在对数据质量进行评估之前,必须对其进行结构化。然而,当你已经坐拥一座数据“金矿”时,那么其价值并不重要。如果你把它交给适合的人,那么它将会带给你更多利润。
使用软件从不同来源自动收集数据,并对数据进行分类。这些自动化流程不仅速度快、成本低,而且还节省工作人员录入数据的时间,让他们可以专注于其他工作。使用数据系统,创建报告,详细描述日期、地理位置、用户类型、购买历史和用户偏好,最终获得最新的数据趋势。
�数据是工具,需要专业人员
大数据无处不在,它是产业中的一部分,也是企业中的一部分。由于大数据存在独特的特性,许多企业在竞争中寄希望于利用大数据,因此他们大多数情况下都非常关注如何利用人工智能和大数据让员工的工作更有效率。他们也面临着很多挑战,如寻找相关专业人员,将数据转化为市场趋势。
数据处理人员通过收集、分析大数据,可以改善用户的使用体验、改进系统流程和相关服务,并创造新的商业机会。组建人才团队是至关重要的一步,但这也会给公司带来挑战,解决好从领导到员工之间关系也是非常重要的。
现在专业的数据学家已经供不应求,如果没有资深的数据学家来领导公司组建的团队,那么运作会非常困难。通过雇佣一位拥有丰富经验的团队领导,你可以向员工证明,你对人工智能的投资是非常认真的,而不是盲目追随潮流。另外很多公司考虑到成本,大多数都会选择培训现有员工,让他们熟练使用人工智能技术。
对于那些已经在工作中表现出数学和统计学天赋的人来说,参加数据科学和人工智能研讨会会是一个很好的选择。而对于那些专注于人工智能的人来说,参加数据科学训练营会是最好的选择,让他们对人工智能有更加深入的了解。
根据最新调查,《福布斯观察》(Forbes  Insights)采访了近300名企业高管,他们均认为人工智能将在未来扮演重要角色,但是只有25%的人将人工智能运用到自己的工作中。尽管越来越多的企业愿意将人工智能技术融入到工作流程中,但是很多企业还会考虑任何保证其完成率。随着人工智能的不断普及,企业领导们应该专注于创新和网络化工作,围绕数据塑造新的企业文化。
首先是数据的普遍性。帮助员工了解数据使得他们在决策中,利用获得新知识,鼓励员工尝试新的数据驱动流程,从而增加员工的好奇心和对工作的主动性。最后组织课程和研讨会,帮助企业组建数据中心,帮助员工建立数据化的思维模式。
�保持出版“核心”能力与人工智能共同创作
“人工智能正在取代人类讲故事”这种说法曾被频繁提及,但很快就变成了陈词滥调。尽管当前有些技术,如Open人工智能开发的语言模型GPT-2模型,该模型能够生产连贯的文本段落,而且在没有任务特定训练的情况下,能够做到初步的阅读理解、机器翻译、问答和自动摘要。但以目前的技术来看,人类叙事时存在的“叙事弧线(narrative arc)”,即阐述——上升动作——危机——高潮(问题的解决)——下降动作(结局),尚未被提炼成为可复制的算法。也就是说,目前人工智能的创作,在很大程度上仍是混乱的语法以及无关场景的串联。至于说人工智能所讲的“故事”,灵感来自于人类?对;但其具有超越人类的“讲故事”的创造力?目前还没有。
对出版业而言,上述论述可以说是一种宽慰和鼓舞。出版人能够继续做他们最擅长的事情,即内容策划、“讲故事”和生发灵感,提供一种能够为人类更好地协作创造新机会的工具。
随着人工智能的发展,“讲故事”的人不仅能够接触和使用一系列新兴媒介,还能够接触和使用那些旨在用于支持他们表达情感的技术。情感是故事的核心,而通过对优秀故事的“叙事弧线”的架构分析,人工智能可以辨认出故事的叙事特征,即在故事的哪一节点上发生了哪种类型的事件,可能会引发何种情感反应。对出版商来说,这种技术能够帮助他们预测读者对某一“故事”的反应,同时出版商也能够观察和测试到哪些附加元素,如声音、背景、关系、对话等能够强化故事,放大他们希望读者有的情感反应。
�借助人工智能强化“核心”业务
除了内容创建之外,人工智能技术还可用于辅助你完成所在领域的许多事务,最终使人们能够专注于“核心业务”。
如,人工智能技术能够帮助人们完成客户采购历史记录等数据收集整理工作,并进一步发挥数据的效用。Deep.BIMedia-Servista等公司通过人工智能技术收集有关消费者的行为和内容消费历史记录等相关数据并作预测性分析,得出内容消费与受众群体和渠道的关系,进而帮助出版商扩大市场。这些公司的技术还可以帮助出版商验证以往的战略规划,并为下一步战略规划提供参考。
利用从此类技术中获得的信息,营销人员能够更好地评估大众营销推广活动的效果,并将工作重点转向个性化内容分发。当消费者与网站互动时,智能算法可以跟踪其行为并提供最适合其偏好的内容,并从那些被消费者忽略的产品列表中提取建议。通过分析消费者的种种消费行为并将其分类也有助于市场趋势预测,使营销人员能够实时了解目标受众群体的偏好,并据此判断通过何种方式向用户精准营销内容产品。
“六步走” 迈开使用人工智能的脚步
尝试使用人工智能并充分利用它的最佳途径是什么?如何利用人工智能实现公司增值?对于有意愿使用人工智能的出版公司,我们建议“六步走”:
第一步:问题。确定哪些是你希望使用人工智能解决的问题,并通过使用人工智能确定优化的潜力。使用人工智能本身并不是目的。使用人工智能的最好办法是借助人工智能解决当前公司发展面临的问题。分析那些从公司发展角度出发能够通过数据驱动或自动化步骤进行优化的组织架构、任务、流程和服务以及用户的观点,并确定清晰、可量化的目标。此外,考虑到投资回收率,公司领导者还应考虑与上述要解决问题相关的成本、解决方案可能带来的经济价值等问题。
第二步:文化。在公司营造人工智能使用方面的开放文化和创造性思维。人工智能应被理解为是一个不断迭代的实验过程,其结果会因数据质量以及问题是否被明确定义而有所不同。在全公司范围内开展对人工智能的讨论,收集不同部门对于人工智能给公司以及整个行业带来的机遇和挑战的观点,以便更好地了解公司员工对人工智能的态度,从而制定下一步计划。
第三步:知识。建立一个由商业专家、数据科学家和技术专家组成的人工智能协作团队。在尝试使用人工智能前,企业要先组建一个跨学科人工智能团队。该团队由业务专家、数据科学家、计算机技术专家组成。团队能够确保问题解决方案的成功率和可靠性。同时,团队能够识别并分析相关数据,创建和管理商业项目和行动计划,同时建设并管理相关的计算机基础设施。
第四步:数据。检测数据源,分析和构造数据,并创建有效的数据。使用人工智能的基础是数据。除了要有大量数据可用之外,数据质量也是人工智能能否发挥作用的决定性因素。检测你的数据源,确认目前公司中关于需要人工智能解决的问题已经存在哪些相关数据,同时还要确定其他用于收集相关数据的外部数据源。
第五步:学习。通过使用、测试和学习现有的应用程序或开源解决方案来获得使用人工智能的初步经验。如果不知道如何开始使用人工智能,可以先采取一些“小尝试”,以此来检查原先的规划。现在,市场上有很多云服务提供商可以向用户提供低成本的预培训应用程序。此外企业还可以考虑使用开源解决方案。当然,具体采用哪种方法,还取决于公司的运营成本以及现有的内部技能和资源。根据公司的具体需求择优而用,将工具与自身的数据结合起来,迈出人工智能化的第一步。接下来,应根据不断变化的环境机敏地进行小型调整,并利用测试后的反馈对模型进行迭代开发,直到人工智能程序能够令人满意地解决问题。
第六步:组织。在公司推广人工智能,构建人工智能协作的生态系统。迈出使用人工智能的第一“小步”后,就需要继续使用和“训练”人工智能应用程序,让它学习更多数据,同时随着时间的推移增加人工智能程序的使用率。此后,要在整个公司分享人工智能应用程序的测试和学习经验,并鼓励其他人使用可用的数据基础架构解决问题,从更多的测试和用例中提取数据信息,使公司可根据持续进行的人工智能实验结果来制定数据策略,并能系统地利用数据和人工智能解决其他各种问题或开发服务。当然,进行这些操作前,要充分考虑到人工智能应用推广的潜在成本和投资回报。
来源:国际出版周报
链接:https://mp.weixin.qq.com/s/Y9FOwlKNLNpp9mYwQULwmw
编辑:宋婷

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表