传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
151#
 楼主| 发表于 2019-8-12 22:52:47 | 只看该作者
【案例】
“AI奇点”是个什么鬼?
作者:六个太阳
文章来源:企鹅号 - 读芯术
原文链接:https://cloud.tencent.com/developer/news/68740
人工智能领域里,有一个新名词叫“奇点”,围绕着“人工智能奇点”、“奇点时刻”,专家学者们纷纷加入讨论。
人工智能奇点?读芯君乍一听只能用“不明觉厉”来形容。
你是不是也好奇,老被@的人工智能奇点到底是什么?科学家口中的奇点时刻是啥时候?AI奇点对人类又是福是祸?
烧脑的“奇点”
在解释人工智能奇点之前,先来说说“奇点”。
“奇点”来自英文单词:Singular point或Singularity,至于中文读音,当把“奇点”解释为“奇异点”的时候,读作qi(第二声)点;当把“奇点”当成数学、物理领域的一个科学术语时,读作ji(第一声)点。
是的,奇点并不是人工智能独有的概念,“奇点”一词最早在数学领域里使用,是一个未定义的点。比如在一个y=1/x的函数中,当x无限逼近0的时候,这个函数的取值将趋向无穷大。当它无穷大时,取无穷大的最后一个点,这就是一个不存在、未被定义的点,也就是奇点。
一般人们所说的奇点指的是宇宙奇点,是指根据宇宙大爆炸理论推导出来的一个“原点",万物从这儿产生,时间和空间从奇点爆炸后才有意义。
奇点是物理学中的一个术语。是指在空间和时间上曲率无穷大的一点。在这里,所有的定律全部失效。所以物理学中的奇点,被认为是宇宙的起始点,由奇点爆炸产生了宇宙时空,也被描述黑洞中心的状态,它的密度无限大、时空曲率无限高、热量无限高、体积无限小,一切已知物理定律都在奇点失效,这和数学领域的奇点一样,也是既存在又未被描述定义的。
听起来确实足够烧脑,而当奇点进入人工智能领域,也不断冲击着我们的想象力。
最先将“奇点”引入人工智能领域的是美国的未来学家 雷·库兹韦尔。在他的《奇点临近》《人工智能的未来》两本书中,将二者结合,他用“奇点”作为隐喻,描述的是,当人工智能的能力超越人类的某个时空阶段。
而当人工智能跨域了这个奇点之后,一切我们习以为常的传统、认识、理念、常识,将不复存在,技术的加速发展会导致一个“失控效应”,人工智能将超越人类智能的潜力和控制,迅速改变人类文明。
用更通俗的话翻译一下就是:
如果有人现在跟你说你可以活到150岁,250岁,甚至会永生,你是不是觉得他在扯淡——
“自古以来,所有人都是会死的。”是的,过去从来没有人永生过,但是飞机发明之前也没有人坐过飞机呀。接下来的内容,你可能一边读一边心里“呵呵”,而且这些内容可能真的是错的。但是如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将发生比我们预期的多得多得多得多的变化。
同样的逻辑也表明,如果人类这个地球上最发达的物种能够越走越快,总有一天,他们会迈出彻底改变“人类是什么”这一观点的一大步,就好像自然进化不断朝着智能迈步,并且最终迈出一大步产生了人类,从而完全改变了其它所有生物的命运。如果你留心一下近来的科技进步,你会发现,到处都暗示着我们对于生命的认知将要被接下来的发展而彻底改变。
接近奇点的过程:从弱变强再超
人工智能接近奇点的过程,必然是自身不断发展壮大的过程。学者们大致划分出人工智能将经历的三个阶段和层次:弱人工智能、强人工智能、超人工智能。
就目前来说,人工智能远未达到奇点,在它的60年发展史,行业依然处在一个弱人工智能的阶段。弱人工智能只擅长于单一的智能,像是机器翻译、语音识别、深度学习。再比如AlphaGo,它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就懵了。
强人工智能是指在各方面都能和人类比肩的人工智能,综合素质要强。它应该具备“宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手,但目前还做不到。
对超级人工智能,有学者将它定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。” 它能够准确回答几乎所有困难问题,能够执行任何高级指令,能执行开放式任务,而且拥有自由意志、情感认知和自由活动能力。这些,我们只能在电影里想象了。
AI走到超人工智能的阶段,就意味着奇点的来临。
现在,人类已经掌握了弱人工智能。其实弱人工智能无处不在,人工智能革命是从弱人工智能,通过强人工智能,最终到达超人工智能的旅途。这段旅途中人类可能会生还下来,也可能不会,但是无论如何,世界将变得完全不一样。
奇点时刻:那时的世界可能面目全非
超人工智能什么时候会实现?什么时候奇点来临?
前面提到的雷·库兹韦尔认为:“2045年,奇点来临,人工智能完全超越人类智能,人类历史将彻底改变。”
有一幅关于超人工智能的发展曲线很知名:
看上去非常刺激吧?但是你要记住,当你真的站在时间的图表中的时候,你是看不到曲线的右边的,因为你是看不到未来的。
假设这个人能突然穿越到未来,他会是什么体验?惊讶、震惊、脑洞大开这些词都太温顺了,很可能是这位同学直接被吓尿了。
对这一时间点,2013年的时候,Bostrom做了个问卷调查“你预测人类级别的强人工智能什么时候会实现”,涵盖了数百位人工智能专家,并让回答者给出一个乐观估计、正常估计和悲观估计。
乐观估计中位年:2022年
正常估计中位年:2040年
悲观估计中位年:2075年
当然,这些都只是专家们的推测,但我们要注意的是,这是一群懂人工智能的人做出的。
当人工智能开始朝人类级别智能靠近时,我们看到的是它逐渐变得更加智能,就好像一个动物一般。然后,它突然达到了最愚笨的人类的程度,我们到时也许会感慨:“看这个人工智能就跟个脑残人类一样聪明,真可爱。”
但问题是,从智能的大局来看,人和人的智能的差别,比如从最愚笨的人类到爱因斯坦的差距,其实是不大的。所以当人工智能达到了脑残级别的智能后,它会很快变得比爱因斯坦更加聪明:
奇点来临,对人类是福是祸?
到达奇点的超级人工智能,他们的力量是难以预测甚至想象的,奇点处,究竟是人类的天堂还是地狱?
·库兹韦尔构想的奇点时代是三个技术领域的共同革命造成的:生物技术、纳米技术和最重要的人工智能技术。能让我们大幅度提高智商和情商,还能帮助我们创造这种有趣的体验世界,让我们享受。人类最终战胜自己的生理,并且变得不可摧毁和永生。
·库兹韦尔无疑是乐观的,但批评的声音也同样逆耳。
霍金就主张人工智能的崛起可能是人类文明的终结,马斯克也认为人工智能将是人类的一大威胁。
当我们考虑各种掌握力量的人和目标,可怕的后果将出现:怀着恶意的人/组织/政府,掌握着怀有恶意的超人工智能。这会是什么样的情况呢?
当我们无法预料人工智能的最终走向,我们茫然;目睹他一步步影响我们的社会,我们开始恐慌,当他有了自我意识,甚至和人一样的人性阴暗时,我们创造出了一个很恐怖的词:生存危机,意味着灭绝。
所有这些,最终都指向两个字“失控”,我们制造了人工智能,却失去了对它的控制。
读芯君开扒
AI奇点必须由人控制
只要参与其中,看好与不看好人工智能奇点未来的人,都在以各自的方式推动AI的发展。一个为我们大胆想象和构建美丽新世界,另一个战战兢兢为我们敲响警钟防止失控。不过读芯君始终认为,人工智能发展的核心和全部内容,都必须基于人类的控制,因为失控的风险太高,人类难以承受其后果。
人工智能奇点设想的是人工智能超越人类的可能性,但现在看起来,它更像是一团混沌的迷雾,我们离他太远,以至于未来究竟如何,还看不清看不透,就连它是否存在都仍有争议。人工智能奇点到来,对人类究竟是福是祸,这一争论或许只有等到那一天真正到来才有定论。
从这一点来看,这更像是一场与人工智能的豪赌,赌上全人类,我们自己的命运,而赢者通吃!要么更上一层楼,要么满盘皆输,全军覆没!
To beor not to be, that’s a question.
生存还是毁灭,这是一个问题。
最后送上《奇点临近》里的一个描述:
第一纪元:物理与化学
第二纪元:生物与DNA
第三纪元:大脑
第四纪元:技术
第五纪元:人类智能与人类技术的结合
第六纪元:宇宙觉醒
编辑:高杰

152#
 楼主| 发表于 2019-8-12 23:00:17 | 只看该作者
【案例】

编辑:高杰
153#
 楼主| 发表于 2019-8-13 20:32:13 | 只看该作者
【案例】
规范重组:数字媒体环境下的新闻伦理体系建构
原文链接:
作者: 常江
文章来源: 新闻记者
本文分别在道义论、功利主义和美德伦理三个层面,通过深度访谈的方法,对数字媒介环境下的新闻伦理体系进行了探索,提出将社会责任、人本主义和美德原则作为数字新闻伦理体系的三个核心观念支柱。
通过对来自一线新闻从业者的伦理认知、认同状况的归纳,本文认为,在宏观层面上,数字新闻伦理仍需紧扣社会责任这一价值内核,以追求民主作为新闻伦理道义论的基础;在中观层面上,以人本主义遏制功利主义的蔓延,针对各类数字技术的具体特征探索建立可为全行业普遍遵守的新生产规范,是数字新闻伦理体系建构的核心任务;在微观层面上,调和新闻行业社会责任和新闻从业者的美德标准两者之间的关系,也是数字新闻伦理建构的重要工作。
.引言
作为哲学的一个分支,伦理学主要探讨人类行为的道德问题,特定的伦理体系通常包含一套指引人类行为的规则体系,以及评估上述规则的各种原则。随着数字媒体时代的到来,传统新闻职业的边界、新闻流通的机制,以及新闻生产与新闻消费之间的界限都变得比以往更加模糊,这对既有新闻伦理体系提出了前所未有的挑战。目前,对新闻伦理问题的考察已经变得相当紧迫,不仅需要我们采纳一种更加激进的思维方式,而且也要竭力通过理论研究工作去促进媒介伦理行动主义media ethics activism)的发生和发展。
作为一种规范体系,新闻伦理同时在个体和社会的层面发挥作用,它既关乎新闻从业者如何在日常工作中做出各种决策,而且也有力地塑造着新闻从业者群体与既定社会规则之间的关系。简而言之,新闻伦理不但指引着新闻从业者做出个人选择,而且也界定着新闻职业的身份……它设定边界,区分新闻业的局内人和局外人,并鼓励新闻从业者与非专业人士和实践保持距离。目前,已有一些学者对数字技术的冲击对传统新闻伦理产生的影响,以及新闻从业者对这一过程做出的反应展开了探索性的研究。
早在1998年,Cooper就提出了新媒体给新闻业带来的40个伦理问题,尽管这些问题较多集中在比较表浅的层面(如文字剽窃和图片篡改现象)。在2000年展开的一项调查中,两位学者严肃审视了媒介融合可能导致的机构利益冲突,以及这种冲突会对新闻生产的道德标准产生的影响。在比较的维度上,有研究者认为,传统新闻伦理体系对新闻的公正性以及新闻源核查的强调,正在转化为对用户协作、生产过程透明性以及后期纠错(postpublication correction)机制的强调,因此数字技术的发展对传统新闻伦理体系提出了几乎是颠覆性的修正要求。在认知或行为层面,有研究指出,数字环境下的新闻从业者普遍对这一变化体现出了抵制(resist)或抗拒(reject)的情绪,他们以前会将伦理作为一种合法性考量的基本原则,今天却只会将伦理当作一种(适应技术环境的)工具
在新伦理体系建构方面,有多位学者展开过深入的讨论。如WardWasserman曾提出建立互联网媒体的开放伦理open ethics),即在全球话语体系下,允许不同的文化与专业思维参与新新闻伦理的建构;Singer更加细致地设计了这一新体系的建构路径,包括对公共服务的强调,对信息准确性的承诺,对煽情主义(sensationalism)的抵制,以及独立于经济压力的业务体系
Fourie则提出应当超越新闻伦理或媒介伦理的概念界限,而致力于建立合乎伦理的传播系统ethical communication)这一价值体系,进而为数字媒体时代设定新的规范理论。
然而,现有的研究并未就数字新闻伦理digital journalism ethics)这一概念的内涵达成共识,这在某种程度上是由于主导新闻业发展转型的数字技术进化速度太快,这一现状使大部分相关研究都不得不紧扣某一种特定的技术在新闻业内制造的伦理困境,如大数据的检索和来源问题、算法的客观性和透明性问题,等等。但在一个问题上,几乎所有研究者都表达了相似的观点,那就是:数字技术的发展凸显出探索建立新的伦理体系,乃至新的新闻规范理论(normative theory)的紧迫性,研究者必须在数字新闻研究中重视对新的伦理道德体系的探索,从而不断明确和锚定新闻从业者在社会中的角色和位置。
本文主要采用Ananny提出的分析框架,回归经典伦理学的基本概念,分别从道义论(deontology)、功利主义(utilitarianism)和美德伦理(virtue ethics)三个维度,对数字媒体环境下的新闻伦理体系进行探索性的建构;而在分析中,这三个维度又分别对应着我们理解新闻伦理问题的三个层面:
宏观的新闻媒体的社会责任、中观的新闻机构及日常新闻生产机制,以及微观的新闻从业者对自身的约束。这一框架有两个显著的优势:
第一,它使研究者得以超脱于具体的技术形式,将数字化视为当代新闻业所拥有的一种总体性生态加以理解,以形成稳定的、规律性的认识;
第二,它兼顾伦理分析的基本框架和新闻业所拥有的独特的结构,使得我们对规范理论的探讨得以更加紧密地与新闻业自身的特征及发展需求相结合。
在方法论方面,本项研究采纳与经典媒介社会学研究既有关联又有区别的文化研究的视角,这种视角将新闻业内的生产实践、身份认同和专业主义视为特定人群(新闻从业者)的特定生活方式,并通过自下而上的路径,获取一手的质化经验资料。
具体而言,笔者在20162月至201712月之间,针对不同的研究议题,对美国、英国和瑞士三个国家共106位一线新闻从业者和数字新闻用户进行了半结构或无结构的深度访谈,尝试通过一手的质化经验资料,勾勒出数字时代的全景式的新闻生态系统news ecosystem)。
这些受访者分别来自17家新闻机构,其中既有ProPublicaSlate、美国在线等数字新闻机构,也有《华盛顿邮报》、《纽约时报》、英国广播公司(BBC)、瑞士法语广播电视公司(RTS)等正在进行数字转型的传统新闻机构(见表1)。由于受到客观条件的限制,一部分访谈是通过Skype等即时通讯软件和电子邮件书面采访完成的。绝大部分访谈用英语完成,一小部分访谈通过法语的电子邮件通信完成。
本文认为,既然新闻学存在的合法性几乎完全来源于它与新闻业之间的辅车相依的关联,那么新闻理论的经验基础必然是也只能是一线新闻从业者对行业的认知、态度和判断。文化研究要求研究者穿上他人的鞋子走路,本土地、自觉地完成对生活经验的理论化,这种视角以往甚少为新闻理论研究人士所借鉴。笔者期望通过这项研究,将文化研究的思维方式的价值注入新闻理论的发展路径。
本文即从上述质化的经验资料出发,对一线新闻从业者对数字时代伦理问题的认知和反思进行呈现和挖掘,尝试建构数字新闻伦理体系。本文认为,一线新闻从业者在数字化转型时期的日常生产实践中对伦理问题形成的种种思考,可以为我们勾勒出一幅清晰的认知地图,帮助我们更好地进行数字新闻伦理体系的建构。
具体而言,本文分别从道义论/新闻媒体的社会责任、功利主义/新闻机构及其日常生产,以及美德伦理/新闻从业者的自我约束三个方面,对访谈资料进行结构性整理。在结论中,也将紧扣这三个方面完成理论化工作。
.数字新闻的道义论
道义论缘起于康德的哲学思想,强调道德的基础是人类交流行为中的职责和义务。在新闻伦理范畴,道义论的话语常见于对新闻业的社会责任的讨论之中。在传统新闻伦理体系中,新闻媒体的社会责任居于核心地位,因为一个负责任的新闻界被视为个体自由和制度民主的重要保障,一如哈钦斯委员会(Hutchins Commission)在《一个自由而负责任的新闻界》(A Free and Responsible Press)中所强调的:如果人民要想在拥有自由的同时为社会做出贡献,就必须确保他们拥有接近真实信息的权利,而且这些信息必须能够公正呈现每天发生的重要事务,以及这些事务对普通人的影响。
对于传统新闻伦理为新闻业设定的这一宏大责任,受访的新闻从业者呈现出观点的分化。其中,大部分受访者坚持新闻业在传统时代被赋予的这种社会责任,并通过对数字技术的某些偏向的批评,来强调新的伦理体系绝不可放弃对社会责任的坚守。
例如,一位来自美国某新闻网站的编辑称:我其实从来都对算法所声称的中立性不以为然。对于某一条报道来说,大数据是有用的,也是高效的,但在总体的图景上,算法只会利用已有的数据,而这些数据对于我们理解整个社会永远是有限的。新闻要想发挥自己应有的作用,就必须克服这种绝对客观的话语,要看到数据并不是万能的。
还有一位来自英国的受访者则干脆认为,大数据往往是被操纵的,她反问:究竟人类生活的哪些领域的数据能够被收纳进所谓的大数据?又是哪些机构和人有资格对这些数据的质量和用处进行分类、分级?如果整个行业都把选择和判断的权力交给大数据和机器人,那么这个行业还能称自己为新闻业吗?我们还有资格称自己为新闻从业者吗?
从这些言论中可以看出,新闻的社会责任论不但在数字时代的新闻从业者群体中有着深厚的认知基础,而且在某种程度上成为其理解和探讨其他层面的伦理问题(比如机构层面、个体层面)的前提。很多新闻从业者用社会责任,以及与之相关的其他话语(如公共服务),来抵御或至少延缓数字技术给自己造成的心理冲击。
不过,也有一些受访者认为,数字技术本身其实并不存在破坏新闻业社会责任的偏向,恰恰相反,对于数字技术的正确使用也许可以令新闻业更好地履行其社会责任。例如,一位瑞士的受访者称:我们不得不承认,算法的确在某种程度上让我们关注到了以往不会去关注的东西,为我们看待某些事务打开了眼界,让我们能够理解一些社会现象的潜在意义,从而给读者提供更好的指引。但持有这样观点的受访者往往也会同时强调的因素不可或缺,即人对于技术的全面掌控是技术的发展能够服务于新闻业的终极伦理的保障,一如一位来自美国某报纸的受访者所说的:比起威胁来,我更愿意将数字技术的潮流看作是新闻业所面临的一个机遇,只要从业者对技术保持清醒,坚持新闻业的公共服务精神,那么整个行业有比过去更大的可能去克服责任和市场之间的矛盾,从而使整个社会的构成更加符合民主的精神。
当然,也不难发现,持有这一观点的受访者大多来自数字化成色更足的新闻机构,比如新闻网站。在这些机构,新闻生产的技术和新闻分发的渠道已完全是数字化的,其从业者对技术的态度也更加温和,这在一定程度上印证了Willnat等人在2013-2014年间展开的一项调查的结果:传统新闻媒体(电视和报纸)的从业者比其他新闻媒体从业者更重视新闻业的传播者(disseminator)角色,进而也拥有更加强烈的公共性理念。
当然,也有少数受访者对社会责任这一概念本身提出了质疑,认为人们对这一概念的理解从始至终都是权力结构操纵的结果。如一位英国的受访者所言:在新闻业的社会责任中,很少包括对边缘群体和弱势群体的关注;追求多数人的利益其实是一种更加基础的、本质性的偏见,而数字时代到来以后这一点并没有根本性的改变。不过,持这样观点的受访者很少,其对支配欧美新闻业的权力结构(power structure)的分析,也超出了本文所要讨论的话题范畴。
总体而言,无论如何看待传播技术在新闻业的社会责任中扮演的角色,受访者皆普遍认同社会责任是新闻业在现代社会中存在、立足和发展的基本道义,这一点并未因为数字时代的到来而出现显著的变化。这也表明,至少在宏观层面来看,社会责任论在数字新闻伦理体系中仍然占有不可替代的位置,它既被新闻从业者用来规划自己在行业中的长远价值目标,也被运用于遏制数字化的新闻业可能出现的反民主倾向。
不过,在数字技术环境下,新闻业的社会责任的内涵究竟是什么,还需要从业者和学界展开全面的反思和探讨。正像Glasser所指出的那样:新闻业不能在高扬民主大旗的同时,又以一种独断专行的立场去理解伦理问题……这样的新闻业不过是披着民主外衣的独裁机构而已。
.功利主义视角下的数字新闻伦理
功利主义的新闻伦理观主要源于边沁的古典功利主义理论,这种伦理观的核心在于探索和追求如何在最大程度上令最大数量的人受益。在日常生活的实践中,功利主义通常将大多数人的利益(或幸福)作为评判制度的标准,因此在很多情况下体现为一种缺乏人性考量的、绝对化的理性。
正如博克斯所指出的:功利主义往往通过对导致未来特定后果的现实行为的强调,来批判甚至否定一切感官化的生活……包括个体化的情感与动物本能。功利主义忽视情感和个体的(偏离集体趋势的)价值选择的倾向,往往很容易跟各种形式的社会进化论结合,甚至,在当代社会,功利主义思想的主要表现形式就是进化论功利主义evolutionary utilitarianism),其主要的修辞就体现在功利主义者应当遵守哪些能够让人类幸福最大化的道德准则
在某种程度上,数字技术在新闻业内的迅猛发展与功利主义伦理观的盛行有直接的关系:正是由于对数字技术的引入和使用能够在最大程度上提升行业效率,以更低的成本完成新闻的流通并令更大范围的用户受益,因此即使在传统新闻伦理体系内,也往往存在着支持和鼓励技术的倾向。在新闻从业者的日常生产实践中,追求效率受益的功利主义的伦理观一直有着强大的影响力,是新闻从业者采纳、理解和反思数字新闻生产技术的重要的认知依据。
然而,在访谈中发现,大多数受访者对于功利主义的伦理观持有较为强烈的批判态度,并将对这一观点的批评作为其反思数字技术的话语基础。其中,数字技术给新闻业带来的前所未有的时效性需求,成为其批判的重点。
比如,一位来自瑞士的受访者称:“当下新闻业的道德问题,几乎就是由新闻机构过分追求时效造成的,每一个新闻机构都想抢在同行之前提供信息以获得最大的收益,这不可避免导致新闻中存在比以往更多的错误,这种错误正在一点一点将新闻变成一个可笑的东西。”另一位来自美国的受访者也表示:“对速度的追求,迫使记者和编辑不得不与用户合作以获得一手信息,也迫使新闻机构不得不投入大量的精力去解决纠错的问题。如果为了速度连基本的准确性都不要了,那么还有什么理由让公众相信新闻是为他们的利益服务的呢?”
当然,甚少受访者会明确将日常新闻生产中这种为竞争而牺牲准确性的现象与一般意义上的数字技术环境联系起来,他们更多是在批评新闻机构和新闻从业者的具体选择。在某种程度上,这也体现出了新闻从业者对于自己在新闻生产中的垄断地位受到威胁做出的反应——他们感觉自己是在被迫做出过于功利主义的选择。
在具体的技术应用层面上,受访者的批评和反思主要集中在大数据和算法两个领域。
针对大数据,受访者大多强调其可能导致的两类伦理问题:一是隐私权问题,二是数据操纵问题。例如,一位来自英国的受访者指出:记者被要求使用数据来完成报道,但却无法确定数据的来源,比如,这些数据是不是用非法的手段收集来的?拥有这些数据的公司在多大程度上可以保证数据的合法和透明?更重要的是,这些数据在被记者和编辑使用之前,是不是存在被篡改的可能?对于这些问题,新闻机构或许还能知悉一些,但记者完全是一头雾水的。而一位来自美国的受访者也称:必须要警惕数据对私人空间的侵袭,尤其是……当这些数据被用于新闻报道,它所产生的破坏力将是我们难以想象的。
很多受访者认为,尽管与数据来源相关的很多问题都是法律问题,但新闻机构在使用这些数据的时候却不得不在道德和效率之间做出选择。一些受访者失望地表示,在这种情况下新闻机构往往会选择后者,做出这一选择则多半是迫于生存压力。
至于算法,受访者的意见较为集中:多针对算法的透明性问题。很多受访者表示自己的专业技能不足以对自动化报道生成的整个过程进行必要的干预,因而产生了一种失控感。一位来自英国的受访者表示:在过去,保护新闻源是全行业一个不言自明的准则。
但是,当算法代替记者和编辑做了绝大部分工作,我认为新闻源也相应地不应该继续是一个秘密。还有一些受访者表示,算法的不透明有可能导致很多实际的问题,比如信息的准确性。一位美国受访者提到,美联社曾在一篇商业报道中,因算法的编码过程出了问题而生成了错误的内容,将某公司过去一年的经营情况完全弄反了。用这位受访者的话来说:如果算法的编码过程没做好,那么软件完全有可能自动生成错误的报道。
更糟糕的是,对于编辑来说,这个过程是完全无法介入的,我们只能在报道发布之后,再去纠错。我想,这严重地损害了新闻的公共价值。此外,还有受访者提出,基于算法的自动化报道或许不应该被视为严格意义上的新闻,而应该有专门的生产规范和伦理规则。
总体而言,在较为中观的层面,本文的受访者普遍表示了对数字技术冲击下的新闻机构过分追求效率、收益和影响力的功利主义态度的批判。大多数人认为,应当强化人性在新闻生产机制中的重要性以制衡日趋失控的功利主义倾向。至于如何在日常生产实践中体现人性的存在和影响,大多数受访者并未达成共识。
但无论如何,受访者均在如下问题上持有高度相似的观点,那就是新闻机构应当对于数据的来源、编码的质量以及经算法生成的报道可能具有的潜在法律及道德风险进行更加严格的审核,同时也应当在盈利和新闻报道质量之间做好平衡。在数字媒体时代,显然新闻从业者对新闻机构的操守提出了更高的要求。对于数字时代的新闻机构而言,平衡功利主义和人本主义(humanitarianism)之间的关系或许将是一个持续存在的伦理难题。
.新闻从业者对自身的美德要求
在伦理学体系中,美德主要关注的是个体对自身的道德要求。简而言之,就是个体对于我应该做一个什么样的人的思考和回答。对于新闻从业者来说,对美德问题的认识不可避免要受到新闻业的行业规范和从业者的主流身份认同的影响。因此,新闻从业者的美德是人性美德与职业美德相融合的产物。传统新闻伦理体系下的美德标准较为多元,但这些标准可被大致归结为三方面的要求:
性质(character)先于结果(consequences)、good)先于right),以及主体相涉(agent-relative)价值与主体中立(agent-neutral)价值并重。在新闻从业者的个体认知中,上述三方面的要求往往具体化为一系列行为原则,包括关切(care)公众及弱势群体的利益、避免对无辜的人构成冒犯或伤害、尽量以客观的方式呈现与自身所在社区或群体利益相关的冲突、努力追求报道过程的程序合法及正义,等等。这些行为原则对于新闻从业者的职业身份认同,以及他们对自身与行业、自身与社会之间关系的思考,发挥着至关重要的作用。
总体而言,对于传统新闻伦理的各项美德原则,本文的受访者均保持着较为强烈的认同。绝大多数受访者认为,新闻从业者应当具有一种源于公共服务精神的,尽管在日常工作中要遵从理性和客观的要求,但应当是理性和客观的基础。正如一位瑞士的受访者所说的:要想成为一名好新闻记者,你首先要是一个好人……当然,这不是指你要同情心泛滥,或者时时刻刻想要做拯救地球的英雄。
善良是贯穿在日常新闻工作中的,如同一种世界观,它的存在确保你的新闻报道并不仅仅是冷冰冰的事实和不关己事的冷漠。还有一位美国的受访者提出,善良与否主要体现在新闻从业者对待公权力和对待公民个体的态度的差异上——在很多时候,对公权力的审视越是严苛和冷酷,反而表明了从业者的行为越是合乎善的法则。几乎所有的受访者都认为,对个人美德层面的的追求,并没有因新闻生产的技术环境的变化而发生根本性的改变。
但尽管如此,受访者还是对于数字技术可能对从业者的总体美德水平构成的侵蚀表示担忧。相当一部分受访者认为,数字技术给记者和编辑群体带来了太多的诱惑,而新闻从业者要想抵御这些诱惑,就必须对技术的负面效应有更加清醒的认识。比如,一位英国的受访者认为,数字技术在某种程度上诱使从业者将自己变成业务上的多面手,其结果则是新闻生产的结果导向。他说:我认为应该将那种需要时时刻刻盯着最新的信息流、留意其他媒体报道的标题、关注社交媒体上的讨论的职位,和那种需要人潜下心来寻找有价值的选题、撰写有深度的文章、追求专精于某一领域的职位区分开来。将生产调查性报道的人和只知道在推特及Facebook上发帖子的人混为一谈,是十分可笑的。
而在另一位瑞士的受访者看来,数字技术对时效性的过分强调仍然是最值得警惕的伦理危机:在数字化之前,编辑部门已经是24小时不间断运转的了。数字化完成后,情况变得更加荒唐可笑,很多编辑甚至会因为偶尔离开了自己的办公桌而产生愧疚感,因为他们觉得自己浪费了太多时间……我们常说假新闻越来越多,这实际上是新闻从业者在时间的压力下不可避免会犯的错误。
很多受访者认为,新闻从业者的美德在很大程度上体现在他们生产的新闻不止揭示事实本身,而且也能够让新闻符合某种程度上的正义性。例如,一位美国的受访者即表示算法在新闻生产中的推广在很大程度上印证了人的价值判断的重要性。他说:算法只会执行程序的命令,而不会对选题和表述做出合乎人情的判断。我很担心一种情况发生,那就是当越来越多的新闻报道是由程序自动生成的,记者们会渐渐习惯于这种过于冷静,甚至过于客观的新闻。这样一来,新闻最重要的一项使命就被忽视了,那就是让读者能够知道自己究竟如何在当下的社会环境下做出正确的选择。
也有受访者指出,数字技术其实并不必然带来负面的影响,它对协同性生产participatory production)的强调或许会令新闻从业者更多地理解和吸纳普通用户的观点,从而使其观念和行为更加符合的标准。当然,持这一观点的受访者大多供职于数字化程度较高的新闻机构。如美国某新闻网站的一位受访者称:数字新闻记者其实已经拥有了属于自己的(伦理)标准,而这套标准其实是在从业者和公众的协同关系中被制定出来的。由于读者在规则制定的过程中有越来越大的话语权,因此记者的行为也就要受到更多力量的制衡。
但无论持有何种观点,绝大多数受访者都对新闻从业者的美德给予很高的重视。一些受访者甚至认为个体美德水准的重要性要高于整个行业所设定的共同的价值标准,正像一位瑞士受访者所说的:当行业的规则与自己内心的选择发生冲突时,应当坚定不移地选择后者。这实际上体现出了传统新闻伦理体系在从业者个体认知和情感层面的稳定性。这一结论在某种程度上印证了García-Avilés的观点:新闻从业者对自身的美德要求并未因新闻机构的类型(传统或数字)差异而有本质的变化,作为实践共同体community of practice)的新闻从业者有能力很好地应对当下的种种伦理挑战
.建构中的数字新闻伦理体系
本文采用成熟的分析框架,分别在道义论、功利主义和美德伦理三个层面,以深度访谈的方法,对数字媒介环境下的新闻伦理体系进行了探索。通过对来自一线新闻从业者的伦理认知、认同状况的归纳,本文认为,对于数字新闻伦理体系的建构工作在宏观、中观和微观三个层面,面临着不同的任务和挑战,也有不同的目标。
在宏观(新闻行业)层面上,传统的社会责任话语始终在一线新闻从业者的认知中占据核心地位。尽管人们对于数字技术和新闻业的社会责任之间的关系形成了不尽相同的理解,但这并未动摇社会责任本身作为现代新闻业的道义基石这一事实。新闻业以民主为价值宗旨,通过生产和传播基于事实的信息的方式推动社会进步,这一点并未因数字时代的到来而有所改变。在我们对数字新闻伦理体系进行建构时,仍需紧扣社会责任这一价值内核,以追求民主作为新闻伦理道义论的基础。
在中观(新闻机构)层面上,本文发现,数字技术的介入无节制地放大了传统新闻伦理中的功利主义面向,从而在日常生产实践中制造了功利导向的伦理危机。数字新闻机构存在盲目追求效率、价值虚无以及技术崇拜的倾向,的存在和价值则受到不同程度的轻视,这凸显出了在我们将计算机伦理移植到新闻场域时,积极而有效地引入人本主义观念的重要性。因此,在日常生产和机构运作层面,以人本主义遏制功利主义的蔓延,强调人相对于数据和算法的价值主体地位,并针对各类数字技术的具体特征探索建立可为全行业普遍遵守的新生产规范,是数字新闻伦理体系建构的核心任务。
在微观(新闻从业者个体)层面上,不难发现在数字技术的影响下,美德原则的重要性大大提升,其权重甚至在很多情况下超越了整个新闻业的社会责任。数字技术的普及显然在从业者和行业、机构之间制造了矛盾,记者和编辑不再充分信赖行业和机构能够代表自身,在面对伦理挑战的时候做出的选择。因此,与传统新闻伦理体系不同,数字新闻伦理中的个体美德和全行业的社会责任不再基于逻辑上的一致性。
恰恰相反,越来越多的新闻从业者会以一种更加自我、更加个人化的标准,在遭遇伦理困境时做出符合美德标准的选择。如何在技术哲学的框架内,调和新闻行业社会责任和新闻从业者的美德标准两者之间的关系,透过两者表面的冲突,建立起一种具有内在连续性的观念体系,也是数字新闻伦理建构的重要工作。
因此,我们不妨将社会责任、人本主义和美德原则作为数字新闻伦理体系的三个核心观念支柱。而对于未来的新闻伦理研究来说,如何弥补抽象而宏大的“社会责任”与人本主义、美德原则等嵌入具体新闻生产实践和个人选择的伦理原则之间的逻辑裂缝,是一个重要而紧迫的任务。
编辑:高杰

154#
 楼主| 发表于 2019-8-13 23:00:17 | 只看该作者
【案例】
剑桥大学2019年度AI发展报告
原文链接:https://mp.weixin.qq.com/s/AaDFM269EeLh_mTRCNy6qg
文章来源:智能制造  
导读

近日,剑桥大学发布了2019年度AI发展报告,在这份137页的报告中,涵盖了AI研究、人才、产业等多方面内容,值得一提的是,这份报告专门开辟了一个章节来介绍中国AI技术的发展。
本期我们将推荐剑桥大学的报告《2019AI发展》, 梳理过去十二个月AI技术的发展。

研究和技术进步
增强学习技术已在多个游戏中取得大幅进步,包括《蒙特祖玛的复仇》、 《星际争霸2》、《雷神之锤3》。在《蒙特祖玛的复仇》中,AI应用最新的随机网络蒸馏技术( RandomNetwork Distillation (RND) )已经取得了10000分的超高分;在《星际争霸2》中Deepmind以5:0的比分战胜了世界级人类选手。Open AI的dota2选手现在已经进行了超过7000场与人类对决的游戏,并取得了99.4%的胜率。
相比于去年的版本,OpenAI 有了超过八倍的训练量,Dota项目已经相当于人类打了45000年的游戏。
接下来,增强学习将有以下几个趋势:1、使机器人以玩耍的形式来学习,就像人类孩童时期获得复杂技能和行为时的方式一样;2、好奇心驱动的探索;3、面向在线计划学习动态模型;4、研究成果逐步实用化。
机器学习技术在生命科学也取得了重大突破:AlphaFold预测出了折叠蛋白的三维结构。
在自然语言处理方面,今年出现了一个里程碑般的模型:预先训练的语言模型。
在医学方面,深度学习技术已经可以诊断眼部疾病、心电图法检测和分类心律失常。最轰动的是,神经网络已经可以从脑电波中解码你的想法。
神经网络可以恢复残障人士的肢体控制。

机器现在可以学习如何合成化学分子,利用神经网络与蒙特卡罗树搜索相结合,通过对1240万个反应的训练来解决反合成问题。
GAN的技术水平在不断发展,从颗粒到GANgsta,较大的模型和大批量训练进一步提高了使用GAN生成的图像的质量。
AI现在已经可以从一张图片中识别出一个物体的三维轮廓。
16625篇人工智能论文的分析表明,在过去25年里,随着机器学习和强化学习成为最受欢迎的话题,人工智能论文的出版数量出现了巨大的增长。
人才
谷歌继续保持领先地位,在AI顶级会议 NeurIPS 上的论文最多。
科技巨头的高级AI工程师的薪酬接近100万美元。
另一方面,每小时1.47美元的数据标签工作也有了巨大的增长。
欧洲发表的人工智能论文最多,但只有中国的平均引文率在增长。欧洲的产量似乎超过了其所占比重。分析不同地区论文的平均被引率表明,只有来自中国的论文才引用率在增长。美国作者发表的论文被引用的次数比全球平均水平高出83%。
大学人工智能课程的招生人数在增长,尤其是在中国。
AI产业
人工智能相关的全球风险投资以每年270亿美元的速度增长。在17财年和18财年,投资资本增加了近80%,其中北美市场份额最高,达到55%。
科技巨头继续吞并人工智能技术优势的初创企业。
美国工厂正在安装创纪录数量的机器人。去年美国工厂增加了35880台机器人,比2017年增加了7%。下图显示了2011-18年按行业划分的单位数量。
自动驾驶汽车现在是数十亿美元资产负债表的游戏。
2012年到2017年,人工智能专利的增长速度超过了人工智能科学出版物(28%对6%)。随着机器学习发现更多的商业应用,科学论文与专利的比例大幅下降。
计算机视觉是最受欢迎的专利领域。在计算机视觉中,最受欢迎的领域是生物统计学(与生物数据相关的应用)。
人工智能硬件:高通的骁龙处理器通过为浮点和量化神经网络展示非常强大的性能和硬件加速赢得了胜利。基准测试任务包括分类、人脸识别、去模糊、超分辨率、分割和增强。
file:///C:/Users/le/AppData/Local/Temp/ksohtml20492/wps46.png
中国AI发展
人脸识别的用户体验:减少日常用户用例的摩擦。
中国互联网巨头开始向农业领域扩张,阿里巴巴和京东都进入了畜牧业和昆虫养殖业。
中国的工业自动化和工作岗位的转移正在增加,在过去的三年里,一些中国的工业企业已经使其40%的劳动力自动化。这可能部分是因为自2012年以来,中国每年的机器人安装数量增长了500%(欧洲为112%)。然而,目前还不清楚这些安装的机器人上多大程度上运行人工智能软在,或者在多大程度上促进了它们的增长。
在中国,机器人正在推动自动化仓储。京东上海配送中心每天使用自动化仓库机器人组织、挑选和运送20万份订单。这个设施由四名工人照管。京东的仓库数量和表面积同比增长45%。
中国企业拥有的专利最多,但只有23%是“发明专利”。发明专利的审批过程充满挑战,一旦获得批准,将获得20年的保护。实用新型和外观设计专利都有10年的使用寿命,不需要经过严格的审查,可以在不到1年内授予。这种双重专利制度使中国在专利方面领先于其他国家。
中国最近发表了许多有影响力的机器学习学术研究成果。中国发表的ML研究论文数量已经超过了美国。艾伦研究所(Allen Institute)最近的一项分析显示,中国在质量方面的差距也在迅速缩小。
未来
剑桥预测了接下来的12个月AI领域的六件大事。分别是:1、目前有一波新的初创企业正在应用NLP研究最近取得的突破。在接下来的12个月里,他们将筹集超过1亿美元的资金。2、自动驾驶技术在很大程度上仍处于研发阶段。2019年,没有哪家自动驾驶汽车公司的行驶里程超过1500万英里,仅相当于加州1000名司机一年的行驶里程。3、许多公司将采用保护隐私的ML技术,以加强其数据安全和用户隐私政策。4、高等教育机构设立专门的人工智能本科学位,以填补人才空缺。5、谷歌在量子计算硬件方面取得重大突破,使得至少5家试图进行量子机器学习的初创企业的成立。6、随着人工智能系统变得越来越强大,对人工智能的治理成为一个更大的主题,至少有一家大型人工智能公司将对它们的治理模型做出了实质性的改变。
我们认为,AI技术在过去的一年里取得了突飞猛进的进展,很多实用型的技术从研究阶段走到了实用化阶段,尤其在医药、自动驾驶、机器人等行业。在这份剑桥大学的报告中,中国的AI行业发展被单独拿出来作为一个章节,虽然评价有正有负,但这也反映出了中国AI在世界已经占有不小的影响力。
编辑:高杰

图片3.png (332.12 KB, 下载次数: 18)

图片3.png

图片30.png (145.75 KB, 下载次数: 18)

图片30.png
155#
 楼主| 发表于 2019-8-13 23:08:32 | 只看该作者
【案例】
路透社如何使用人工智能报道新闻
文章来源:西外译新社

作者:Jacob Granger
  2018年11月12日
  路透社执行编辑雷格蔡(Reg Chua,如图)在上周(11月7日)举行的新闻连线会议上指出,路透社正在利用AI助手新闻追踪器(News Tracer)和Lynx Insight,以人类的判断力和机器功能共同推动其新闻事业发展。
  正如他所描述的那样,“新闻编辑控制室”依赖于人类和机器的共同力量,将各自的优势展现出来。
  Lynx Insight通过识别趋势、关键事实和建议记者应该撰写的新闻,来为人文新闻添砖加瓦。
  路透社使用大规模的自动化数据筛选以及社内记者自行编写的算法程序,目的是给观众一个新鲜且由数据驱动的视角。
  “机器比人类做得好的地方是什么?”雷格蔡说道。“是速度、广度和计算分析。”
  “人类比机器做得更好的又是什么呢?我们给机器指明方向,给故事提供背景,可以应对非数据世界,可以得到更好的报价。”
  “当我们把这些问题放在一起时,我们真正需要问的问题是:人类和机器如何才能将各自的优势完美地结合起来?这正是新闻编辑控制室的起源。”
  雷格蔡表示,开发Lynx Insights最初的想法是帮助他们做市场报道,但未来可能会应用于其他领域。比如在体育报道中,它可以生成大量的统计数据、报告和排名,以便在赛前和赛后进行报道。
  他补充说,此前路透社曾推出过一款名为“新闻追踪工具”的智能助手,它可以帮助记者在Twitter上搜索突发新闻,并融合人类和机器各自的优势,剔除不可靠的消息来源。
  这个AI助手每天可以实时筛选7亿条推文,并标记出任何在算法中符合特定新闻价值和真实性要求的潜在突发性新闻事件。
  它会根据“新闻价值评级”来查找类似的推文,然后根据粉丝、关联媒体、链接和推文结构等大量因素来验证消息来源。
  这个工具模仿最初的新闻程序,其范围和速度是人类无法企及的。随后它将这些调查结果提交给记者,由他们自己完成最后的独立核查,以确保消息来源和报道内容符合发表的要求。
  雷格蔡说,这是人类记者和机器人“记者”如何在新闻收集和写作过程中发挥协调作用的又一个例子。
  “我们在考虑如何让双方实现最好的协作。我们可以从数据中生成语句,创造洞察力。”
  “这是我们可以创造出来的东西,它是一堆不连贯的句子,我们可以把它们交给记者,让他们决定什么是重要的,选取出故事中最重要的部分。”
  “我们可以用机器来挖掘数据,让人类来讲述故事。机器可以帮助人类在新闻上领先一步。”
  -END-
  此平台为西安外国语大学新闻与传播学院学生自媒体编译实践平台所译文章,仅作学术交流和业务探讨,无任何商业用途,如有版权问题,请及时联系我们。转载请注明来自“西外译新社”。
  翻译:冯瑞博
  校对:蔡榕
  图片来源:journalism.co.uk
编辑:高杰

156#
 楼主| 发表于 2019-8-14 21:51:03 | 只看该作者
【案例】
未来的智能研发趋势:从Being Should
文章来源:人机与认知实验室  
作者:金声  
原文链接:https://mp.weixin.qq.com/s/jA9GdkwkVW1F02t1SP7P1Q
认知是真实的表征反映,计算是符号的模拟仿仿真。算法的实质是建立在计算逻辑基础上的理性思路,缺少非事实或反事实想象过程,即面向事实中对象、属性、关系不断变换调整的认知动态过程。
    数据不会告诉你,但认知——会。
问:你是在暗示有一种远离机器学习的趋势吗?
Judea Pearl:不是一种趋势,而是一种严肃的自我反省,包括这些问题:我们要去哪里?下一步是什么?
问:那是我最不愿意问你的问题。
Judea Pearl:我很高兴你没有问我关于自由意志的问题。
问:那么,你对自由意志有什么看法?(智能菌标注:好尴尬,提问者机智如我~)
Judea Pearl:我们绝对会开发出具有自由意志的机器人。我们必须了解如何对它们进行编程,以及从中我们能获得什么。由于某些原因,对于进化来讲,这种自由意志是可以被计算的。
问:以什么方式呢?
Judea Pearl:你具备自由意志,进化使我们有了这种感觉。显然,它提供了一些计算功能。
问:机器人出现自由意志的时候会很明显吗?
Judea Pearl:我认为第一个证据是,如果机器人开始反事实地相互交流,比如它们说出“你应该做得更好”。如果一个机器人团队开始用这种语言进行交流,那么我们就将知道他们具备了自由意志。“你应该把球传给我——我在等你,而你没有!”“你应该做某件事”意味着你可以控制做或者不做某件事。所以第一个迹象是交流,第二个是能够踢更好的足球。
    也许真的被休谟说中了:从Being 到Should就是未来智能领域的归宿……
编辑:高杰

157#
 楼主| 发表于 2019-8-14 22:07:24 | 只看该作者
【案例】
中国决定以“六大政策”推动新一代人工智能发展
原文链接:https://mp.weixin.qq.com/s/QCjFpXqvMOr1l-WXKFxVEQ
文章来源:智造智库
以新一代人工智能为代表的新一轮科技革命和产业变革已经呈现出强大的影响力和生命力,人工智能技术对生产、流通、消费等形成高度渗透、跨界融合,新业态、新模式不断涌现,给以往的产业生态、社会分工、行业和企业边界、生产组织方式等诸多方面带来前所未有的新变化。促进新业态、新产业发展的关键在于强化产业政策,为新兴产业发展创造更加有利的外部环境。面对新形势新需求,必须主动求变应变,牢牢把握人工智能发展的重大历史机遇,紧扣发展、研判大势、主动谋划、把握方向、抢占先机,引领世界人工智能发展新潮流,服务经济社会发展和支撑国家安全,带动国家竞争力整体跃升和跨越式发展。为此,我国政府决定,以“六大政策”为主,围绕推动我国人工智能健康快速发展的现实要求,妥善应对人工智能可能带来的挑战,形成适应人工智能发展的制度安排,构建开放包容的国际化环境,夯实人工智能发展的社会基础。
  • 制定促进人工智能发展的法律法规和伦理规范
    加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等。重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础。开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。积极参与人工智能全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,共同应对全球性挑战(图1)。

file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps22.png
1 制定促进人工智能发展的法律法规和伦理规范
人工智能也带来了隐私权问题。现阶段人工智能的应用是和数据密不可分的。例如商家在利用人工智能挖掘消费者偏好时,就必须依赖从消费者处搜集的数据(包括身份信息、交易习惯数据等)。对于消费者来讲,让商家搜集这些数据将是有利有弊的——一方面,这些数据可以让商家更充分地了解他们的偏好,从而为他们更好地服务;另一方面,消费者的这些数据被搜集后也会带来很多问题,例如可能被商家进行价格歧视,受到商家的推销骚扰,在部分极端的情况下甚至可能因此而受到人身方面的威胁。在数据的搜集和交换不太频繁的情况下,消费者在遭受因数据引发的麻烦时很容易追踪到责任源头,因此他们可以有效地对出让数据而带来的风险进行成本收益分析。在理性决策下,一些消费者会选择自愿出让自己的数据。但是,随着大数据和人工智能技术的发展,这种情况发生了改变:(1)商家在搜集了数据后可以更持久保存,可以在未来进行更多的使用,因此消费者出让数据这一行为带来的收益和遭受的累积风险之间将变得十分不对称;(2)由于现在商家搜集数据的行为已经变得十分频繁,当消费者遭受了数据相关的问题后也很难判断究竟是哪个商家造成的问题,因此事实上就很难进行追责;(3)商家在搜集消费者数据后,可能并没有按照其事先向消费者承诺的那样合理使用数据,而消费者却很难惩罚这种行为。在上述背景下,如何对数据使用进行有效治理,如何在保护消费者合法权益的基础上有效利用数据就成为了一个需要尤其值得关注的问题。目前,对于人工智能条件下如何保护消费者隐私的争议很多,有学者认为应当由政府进行更多监管,有学者认为应当由企业自身进行治理,有学者则认为应该由民间团体组织治理。总体来讲,几种思路都各有其利弊,因此这一问题目前仍然是一个开放性问题。人工智能技术与物理世界日益紧密的联系,也会带来数据安全及伦理道德方面的挑战。在这个数据赋能的新时代,我们必须充分关注数据共享在创造便利和优势的同时所面临的潜在安全风险。建立健全网络安全相关的法律法规以及道德行为准则,将成为人工智能兼顾发展和风险控制的重要保障。法律规则。数据的收集、处理和使用,不但涉及当事人的隐私及对社会的控制限度问题,也涉及与数据相关的权益与责任界定问题、法律约束的法理机制问题以及法律执行和监控等操作性问题。没有这些规则基础,基于大数据运行的社会系统就不可能是有序的系统。这些法律法规构成了大数据交流与利用的法律规则保障。与此同时,不同系统的数据对接和传输,也需要自动协调的技术性协议:异构数据的表征、聚类、传输、处理及其应用,需要可以相互识别的执行标准,需要评价数据价值的指标,需要自配置自适应的系统接口和对应人类解读的人机界面设计和自协同模式,这是大数据交流与利用的系统协议保障。
  • 完善支持人工智能发展的重点政策
    落实对人工智能中小企业和初创企业的财税优惠政策,通过高新技术企业税收优惠和研发费用加计扣除等政策支持人工智能企业发展。完善落实数据开放与保护相关政策,开展公共数据开放利用改革试点,支持公众和企业充分挖掘公共数据的商业价值,促进人工智能应用创新。研究完善适应人工智能的教育、医疗、保险、社会救助等政策体系,有效应对人工智能带来的社会问题(图2)。
    2 完善支持人工智能发展的重点政策

  • 建立人工智能技术标准和知识产权体系
    加强人工智能标准框架体系研究。坚持安全性、可用性、互操作性、可追溯性原则,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准。加快推动无人驾驶、服务机器人等细分应用领域的行业协会和联盟制定相关标准。鼓励人工智能企业参与或主导制定国际标准,以技术标准“走出去”带动人工智能产品和服务在海外推广应用。加强人工智能领域的知识产权保护,健全人工智能领域技术创新、专利保护与标准化互动支撑机制,促进人工智能创新成果的知识产权化。建立人工智能公共专利池,促进人工智能新技术的利用与扩散(图3)。

file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps25.png
3 建立人工智能技术标准和知识产权体系
  • 建立人工智能安全监管和评估体系
    加强人工智能对国家安全和保密领域影响的研究与评估,完善人、技、物、管配套的安全防护体系,构建人工智能安全监测预警机制。加强对人工智能技术发展的预测、研判和跟踪研究,坚持问题导向,准确把握技术和产业发展趋势。增强风险意识,重视风险评估和防控,强化前瞻预防和约束引导,近期重点关注对就业的影响,远期重点考虑对社会伦理的影响,确保把人工智能发展规制在安全可控范围内。建立健全公开透明的人工智能监管体系,实行设计问责和应用监督并重的双层监管结构,实现对人工智能算法设计、产品开发和成果应用等的全流程监管。促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度。加强人工智能网络安全技术研发,强化人工智能产品和系统网络安全防护。构建动态的人工智能研发应用评估评价机制,围绕人工智能设计、产品和系统的复杂性、风险性、不确定性、可解释性、潜在经济影响等问题,开发系统性的测试方法和指标体系,建设跨领域的人工智能测试平台,推动人工智能安全认证,评估人工智能产品和系统的关键性能(图4)。

file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps27.png
4 建立人工智能安全监管和评估体系
(五)大力加强人工智能劳动力培训加快研究人工智能带来的就业结构、就业方式转变以及新型职业和工作岗位的技能需求,建立适应智能经济和智能社会需要的终身学习和就业培训体系,支持高等院校、职业学校和社会化培训机构等开展人工智能技能培训,大幅提升就业人员专业技能,满足我国人工智能发展带来的高技能高质量就业岗位需要。鼓励企业和各类机构为员工提供人工智能技能培训。加强职工再就业培训和指导,确保从事简单重复性工作的劳动力和因人工智能失业的人员顺利转岗(图5)。
file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps29.png
5 大力加强人工智能劳动力培训
(六)广泛开展人工智能科普活动支持开展形式多样的人工智能科普活动,鼓励广大科技工作者投身人工智能的科普与推广,全面提高全社会对人工智能的整体认知和应用水平。实施全民智能教育项目,在中小学阶段设置人工智能相关课程,逐步推广编程教育,鼓励社会力量参与寓教于乐的编程教学软件、游戏的开发和推广。建设和完善人工智能科普基础设施,充分发挥各类人工智能创新基地平台等的科普作用,鼓励人工智能企业、科研机构搭建开源平台,面向公众开放人工智能研发平台、生产设施或展馆等。支持开展人工智能竞赛,鼓励进行形式多样的人工智能科普创作。鼓励科学家参与人工智能科普(图6)。
file:///C:/Users/le/AppData/Local/Temp/ksohtml1448/wps31.png
6 广泛开展人工智能科普活动
编辑:高杰

158#
 楼主| 发表于 2019-8-16 22:43:54 | 只看该作者
【案例】
《人工智能》杂志“人工智能伦理”主题出版!践行科技向善,筑牢可信AI的道德藩篱
原文链接:
文章来源:人工智能产业创新联盟  
《人工智能》杂志由工业和信息化部主管,中国电子信息产业发展研究院、赛迪工业和信息化研究院(集团)有限公司主办(CN10-1530/TP,ISSN2096-5036)。该杂志为双月刊,将精准聚焦人工智能领域,每期重点围绕“一个主题”,邀请业界专家发表见解和研究成果。
2019年8月的《人工智能》杂志主题是:人工智能伦理——践行科技向善,筑牢可信AI的道德藩篱。本期邀请了二十五位撰稿人,发表了精彩的文章。
《人工智能》是一本公开发行的杂志,它的媒体属性将有效地提升并扩大专家、学者、企业等在该领域的影响力。
每年6期的《人工智能》杂志更像是6本书,成为值得学习、收藏的人工智能宝典。
杂志发行对象
发行对象涵盖工业和信息化相关主管部门,人工智能相关高校、科研院所,包括“人工智能产业创新联盟”成员在内的企事业单位,以及所有关注人工智能技术和产业发展的人群。
第十一期文章及作者
栏目一:分析综述
1、人工智能发展为何需要伦理规范?
   
中国电子信息产业发展研究院政策法规研究所所长、工业和信息化法律服务中心主任,从事行业法律、产业布局、工业经济、数据治理、产业政策等方面的研究。中国政法大学法学博士。主要负责《工业和信息化部行政复议实施办法》《工业和信息化部行政应诉工作规则》《工业和信息化系统“七五”普法规划》《稀有金属管理条例》《监控化学品管理条例实施细则》《2018智能网联汽车政策法律研究报告》《2019中国数据治理发展报告》等文件、报告的撰写和修订工作;参与了《工业转型升级规划(2011-2015年)》系列解读,以及《制造业转型升级知识干部读本》(电子工业出版社)、《中国工业转型升级发展蓝皮书》(中央文献出版社)等著作的编写工作。
2、人工智能的伦理与治理
   
中国人民大学法学院副教授,未来法治研究院社会责任和治理研究中心主任。主要关注公司法、金融管制、法律与发展、比较法、宪法等领域,积极参与了技术与法律的前沿研究,特别是人工智能伦理和法律的研究。从2017年开始,参与中国第一个以人工智能标准化为主题的白皮书的写作,并撰写《人工智能标准化白皮书(2018)》的“安全、隐私和伦理”部分,又以课题组负责人的身份主持了国家标准化管理委员会人工智能标准化总体组人工智能社会伦理专项研究,并主持撰写了国家人工智能标准化总体组《人工智能伦理风险研究》报告。
栏目二:前沿思考
1、人工智能中的三个经济伦理问题
陈永伟
《比较》杂志研究部主管,同时也是《经济观察报》、财新等媒体的专栏作家,经济学博士。研究领域为产业经济学、法律经济学。已在中英文学术期刊上发表论文50余篇,在报刊上发表评论文章数百篇。
2、迈向制度化的人工智能伦理
   
中国电子信息产业发展研究院政策法规研究所助理研究员,北京邮电大学法学硕士。目前主要从事人工智能、自动驾驶、数据治理等领域的战略咨询和政策法规研究工作。
黄克同
目前就读于北京工业大学城市交通学院,主要参与交通数据采集分析、智慧公路方向研究,关注自动驾驶和驾驶人行为分析等领域。
3、欧盟人工智能伦理与治理的路径及启示
曹建峰
腾讯研究院高级研究员,中国互联网协会青年专家,广东省法学会信息通信法学研究会理事,长期从事互联网法律政策和前沿技术研究,关注领域包括人工智能与法律交叉领域、算法治理、自动驾驶法律政策、数据及平台法律、法律科技、网络知识产权和科技法等,在《法律科学》、最高人民法院内参《信息周报》、国家行政学院《行政改革内参》、《大数据》《信息安全与通信保密》《学习时报》《法制日报》、FT中文网等各类媒体上发表论文、文章上百篇。
方龄曼
腾讯研究院法律研究中心助理研究员,华南理工大学知识产权法学硕士。研究方向为知识产权法,网络法。
4、人工智能在行政司法中的伦理考量
李勇坚
中国社会科学院财经战略研究院研究员、互联网经济研究室主任、博士生导师,研究方向为服务经济、互联网经济理论、互联网金融。在国家核心期刊发表论文50余篇,曾参与国家“十一五”、“十二五”、“十三五”服务业发展规划的研究编制工作,参与《国务院办公厅关于加快发展高技术服务业的指导意见》(国办发〔2011〕58号)、《关于促进分享经济发展的指导性意见》(2017)、《服务业创新发展大纲(2017—2025年)》(2017)等文件的起草或研讨工作,并承担多项与数字经济相关的课题。
   
百度公共政策研究院高级研究员,中国公路学会自动驾驶工作委员会常务委员、信息系统项目管理师。毕业于北京理工大学车辆学院交通工程专业,获得中国社会科学院MBA、北京工业大学交通运输工程双硕士学位。负责百度自动驾驶领域政策及行业研究,深度参与北京、雄安新区、长沙等地自动驾驶政策的制定。
5、应对风险与挑战 人工智能治理已成全球共识
   
北京旷视科技有限公司高级市场经理。曾任华西都市报高级记者,全国省级晚报(都市报)年度好新闻三等奖、四川新闻奖一等奖、四川环境好新闻一等奖、华西都市报“年度明星记者”获得者。曾专访曾荫权、梁振英、林郑月娥三位香港特首,以及中联办主任彭清华(现任四川省委书记)、美国国会议员Mike Honda、美国著名华侨领袖方李邦琴等;曾赴美前往英特尔、通用汽车、杜邦、摩根大通、可口可乐等世界500强全球总部,专访数位全球副总裁,回国后参与写作《500强的老底》一书。
栏目三:技术治理
1、医疗人工智能技术研发与应用的伦理挑战和对策—以我国大型公立医院为例的思考
李鸿浩
四川省医学会医学伦理委员会青年委员会副主任委员、四川省成都市人工智能产业协会人工智能专委会委员。医学博士,药理学硕士,助理研究员。主要研究方向是医疗人工智能关键技术及创新管理、创新医疗的循证研究等。先后主研国家“十一五”课题一项,国家自然科学基金资助项目一项,医疗健康行业基金课题二项,省级项目三项,市级课题一项,211工程院校重大超前课题一项。参编教材4部,专著2部。以第一作者身份发表学术论文15篇,其中一篇被评为中国精品科技期刊顶尖学术论文,另二篇被四川省医学会授予“优秀论文奖”。2015年荣获中国医院协会医院科技创新一等奖。
段伟文
中国社会科学院哲学所研究员、博士生导师,博士,中国社会科学院科学技术和社会研究中心主任、中国大数据专家委员会副主任委员、中国发展战略研究会创新驱动战略专业委员会副主任、国家社科基金重大项目“智能革命与人类深度科技化前景的哲学研究”首席专家等。著有《可接受的科学:当代科学基础的反思》、《网络空间的伦理反思》等多部专著。
   
博士研究生导师,教授,医学博士。长期从事神经内科临床工作,曾获“美国神经科学会国际奖学金”和“美国医学研究联盟Henry Christian奖”。近年先后主持科研项目7项,包括国家自然科学基金2项和四川大学杰出青年基金1项,参研国家及省部级项目多项;在国内外专业期刊发表学术论文60余篇,包括SCI论文30余篇。
蒲晓蓉
电子科技大学英才实验学院副院长,教授,人工智能专业博士、心理学硕士。主要研究人工智能、机器学习、医学影像计算、医疗健康大数据等。主持完成国家自然基金、973 子项、863 计划、电子发展基金等国家级、省部级科研项目 20 余项,获四川省科技进步二等奖。在国际学术期刊等发表学术论文 50 余篇,发明专利10余项。全国计算机学会高级会员、全国肿瘤人工智能专委会委员、四川省计算机学会大数据专委会副主任委员、华西医院大数据中心特聘专家;《现代医药卫生》杂志编委。
   
高级工程师。作为项目主研人员,主要研究方向是云计算及大数据技术。先后参加了国家“863”计划重点项目《新型管制自动化系统核心技术》、四川省重大科技成果转化项目《基于国产数据库的EPCloud云计算基础架构及服务平台产业化》等项目研究。获得授权发明专利3项,四川省科技进步奖二等奖一项。
郑尚维
四川大学华西医院医院管理研究所名誉所长,教授,研究员,中华医学会医学伦理专业委员会委员、中国医师协会道德建设委员会委员、《医学与哲学》编委。先后作为主研人员承担国家“十一五”科技支撑计划课题1项、国家“十二五”科技支撑计划课题1项、国家“863”计划课题1项及多项省级科研课题。主编《华西医院管理实务》系列丛书12本及其他专著1本、副主编专著1本,主译专著1本,发表论文30余篇。2009年获《医学与哲学》杂志社突出贡献奖。
   
四川大学华西医院医院管理研究所副所长,副教授,硕士生导师,四川省卫计委学术技术带头人后备人选,四川省卫生信息学会健康医疗大数据专业委员会常委、中国老年医学学会流行病学与疾病预防分会委员等。先后主持过国家自然科学基金、中国博士后科学基金等课题。近年来发表论文50余篇,其中以第一作者或通讯作者身份发表SCI论文11篇。副主编人民卫生出版社专著《循证医疗卫生管理与决策》,参编国家级规划教材3本,参编其他专著3本。
2、人工智能时代的法治畅想
何海锋
北京市天同律师事务所顾问,律师。法学博士、中国科技法学会金融科技法律专委员秘书长、中国法学会证券法学研究会理事、北京市网络法学研究会常务理事、中国散文学会会员、中国金融作协会员;兼任《银行家》杂志主持人、《环球财经》杂志特约编辑、《财富管理》杂志编委、中国社科院金融法律与监管研究基地特约研究员、中国政法大学民商经济法学院和中央财经大学金融学院校外导师;专业方向为金融法、科技法、立法法。
3、人工智能应用与伦理
   
爱点击联合创始人兼COO、CTO。毕业于清华大学计算机系智能技术与系统国家重点实验室,获工学博士学位。广告营销技术与大数据应用领域专家,深耕大数据研究与应用领域。毕业后先后任职于微软亚洲研究院、百度、Yahoo全球研发中心等科技企业核心技术部门,其间承担或引领多个重大项目的技术架构和研发管理工作。之后加入腾讯公司,作为程序化广告交易平台的发起人和负责人。2012年创立移动DSP企业智云众。2015年7月智云众被爱点击并购后,以联合创始人身份出任爱点击集团COO、CTO,负责集团的日常管理、业务运营和技术研发工作。2016 年,入选Campaign亚洲Digital A List全球数字领域极具影响力人物榜单。
栏目四:挑战与展望
1、用信任解码人工智能伦理
闫宏秀
现担任上海自然辩证法研究会理事、上海中青年技术哲学论坛发起人、负责人,中国自然辩证法研究会技术哲学专业委员会常务理事、上海技术哲学专业委员会主任等。博士毕业于复旦大学哲学系,并于同年进入上海交通大学、牛津大学互联网研究院和牛津大学哲学系做访问学者。在《自然辩证法研究》《科学技术哲学研究》《道德与文明》《探索与争鸣》《科学学与科学技术管理》等顶尖期刊发表文章30多篇,由上海市学术著作出版资助专著1本、国家出版基金项目资助专著1本、译著3本,参编与主编国家级等各类教材6本,主持国家级、教育部、上海市等各类项目20余项,相关研究成果被上海市科协等纳入决策咨询与发展研究报告等。研究方向为技术哲学、技术伦理学和设计哲学。
2、人工智能道德的问题、挑战与前景
苏令银
上海师范大学经济伦理研究中心副主任,上海师范大学马克思主义学院副教授、法学博士、硕士生导师。主要研究方向:人工智能伦理、机器人伦理。
栏目五:AI探索
1、人机融合智能的再思考
   
北京邮电大学岗位教授,工学博士,剑桥大学访问学者(2012-2013),科技委人机融合智能组首席科学家。研究领域为:人机融合智能、认知工程、用户体验、人机环境系统工程、分析哲学、未来态势感知模式与行为分析/预测技术等。至今发表论文70多篇,出版专著2部,译著1部,参与出版专著2部。作为项目负责人及主要参加者,参加过国家自然科学基金、总装预研、中国博士后科学基金、国防预研基金、航空基础科学基金、国家博士点基金、北邮-剑桥合作项目等。现为中国信息与电子工程科技发展中心专家委员会特聘专家、国家自然科学基金评议专家、全国人类工效学标准化技术委员会委员、中国人工智能学会高级会员,《北京邮电大学学报》《航空学报》《心理学报》、Ergonomics、Human factor等审稿专家。主要代表作为:《人机交互技术与评估》(北京:科学出版社,2008.7)、《人机交互-超越人机交互》(北京:机械工业出版社 2018.3,译著)。
2、论飞行汽车制度障碍及其突破—未来汽车政策伦理进化的视角
张夕夜
腾讯研究院助理研究员,西南大学民商法学硕士,主要从事互联网领域法律与公共政策的研究,包括飞行汽车、人工智能等前沿科技,游戏监管,数据和隐私治理等,在相关期刊及公号发表文章数篇。
栏目六:附录
《人工智能创新发展道德伦理宣言》全文
《人工智能创新发展道德伦理宣言》解读和思考
   
中国电子信息产业发展研究院政策法规研究所所长,工业和信息化法律服务中心主任,毕业于中国政法大学民商经济法学院,法学博士。主要从事行业法律、工业经济、产业布局、产业政策等方面的研究。
   
现供职于中国电子信息产业发展研究院。中国人民大学民商法学专业博士。研究方向主要包括民商事法律、产业政策、人工智能法律伦理、智能网联汽车法律政策等领域。
   
中国电子信息产业发展研究院政策法规研究所助理研究员。北京邮电大学法学硕士。目前主要从事人工智能、自动驾驶、数据治理等领域的战略咨询和政策法规研究工作。
   
中国电子信息产业发展研究院政策法规研究所助理研究员。中国政法大学宪法与行政法学专业博士。主要从事行政法学、循环经济法学、工业与互联网产业法学体系等方面的研究。
编辑:高杰

159#
 楼主| 发表于 2019-8-16 22:53:04 | 只看该作者
【案例】
隐私保护产业的起落及其启示
文章来源: 腾云
原文链接:
作者: 朱悦
「中国需要自己的数据保护方案」
“在讨论数据隐私这一话题时,关于‘法律、规范、架构、市场’四大框架中的‘市场’的深入讨论仍然不多。研究其发展、现状及趋势,显得尤为重要。”
❒ 文 | 朱悦
对外经济贸易大学数字经济与法律创新中心研究院研究员
数据隐私是当前热点。一方面,个体忧虑隐私,且相应思潮愈发显著;另一方面,数据成为数字新经济所需的“石油”。如何求取二者之恰当平衡?针对这一题目的思想框架不少。其中较为经典者,当属Lawrence Lessig提出的“四要素”框架:法律、规范、架构、市场。
无论是数据隐私相关之法律议题,还是行业如何在隐私方面自律,抑或互联网这一全新架构如何变动隐私保护之格局,对前三项要素的讨论,实已“汗牛充栋”。然而,对市场的深入谈论,暂时而言仍然不多;实际上,一旦提及“买卖隐私”或“数据交易”,招来的可能更多是不解,甚或厌恶。
如此偏倚,忽视了数据隐私议题中相当重要且有趣的一面。在2019年由纽约大学出版社刊行的新著The Identity Trade: Selling Privacy and Reputation Online中,Nora Draper全面检视了过去近30年间,市场在隐私保护方面发挥的作用。
具体而言,他将这一市场的起落大致划为两个阶段:第一阶段,隐私保护产业以“避世”为卖点,侧重为个体提供匿名浏览或交易的工具。然而,这一趋势未成气候;方兴未艾的第二阶段,产业参与者不再强调完全匿名。由“经营声誉”“自我营销”与“从数字经济中分润”等角度切入,企业转而关注如何保障网络世界中个体的自主地位。
这一市场本身,及努力开拓市场、彼此激烈竞争的相应企业,都远非孤立实体;恰恰相反,承继、传播数据隐私相关之思想观念的同时,这些企业也在影响着四要素的平衡。
以第一阶段中侧重“遁世”的隐私产业为例:一方面,这一产业的生长源于同时段盛行的“互联网乌托邦”设想,其中企业的广泛宣传又塑造了后来议员与民众的思想观念;另一方面,这一产业既催生了2000年前后的立法热潮,本身又倾坍于“9 ·11”事件后安全话题的甚嚣尘上,与隐私话题的失语。
类似的复杂互动,亦见于尚未结束的第二阶段。以下将分别介绍上述两段演变,并结合现状作评论与展望。
“遁世”:
匿名技术与数据经纪的兴起
在美国,针对数据隐私的忧虑由来已久:19世纪末时,人口普查引入机械手段以加速处理效率,即已引发隐私担忧;20世纪中叶,征信机构“遍地开花”,又兼政府广泛利用电子计算机处理政务,引致各界纷纷催促立法规范数据收集、存储及处理。
然而,数据隐私真正落实到个体层面,还要追溯到90年代:伴随个人计算机及互联网“飞入寻常百姓家”,今日频引争议的、商业企业广泛收集并利用个体数据的问题,已频频现诸纸面。据原书所引皮尤机构调查显示:至2000年前后,担忧企业或陌生人借网络获取自己或家人数据的美国人,占总体比例已高达86%。
与此相伴者,是对未来互联网之近乎“乌托邦”的设想。其中最具代表者,莫过于名噪当时的《网络空间独立宣言(下称《宣言 》)》:“工业世界的政府们,你们这些令人生厌的铁血巨人们……作为未来的代言人,我代表未来,要求过去的你们别管我们。在我们这里,你们并不受欢迎。在我们聚集的地方,你们没有主权。”
之后,持无政府立场的《宣言》,亦相应强调互联网应是一个“不存在……特权或偏见”“都可以表达他们的信仰而不用害怕被强迫保持沉默或顺从”的世界。循此,匿名成为互联网世界的自然要求:分割线上线下,则线上及线下人格均得以自由。
如此意识形态与相应商业前景,共同催化了第一代隐私产业。实际上, 那些开设企业、兜售隐私服务的年轻创业者,通常有极高的学历,笃信以上乌托邦思想,亦躬行匿名化宗旨。如果将隐私混同于“保密”或“私密”,这些创业者的产品,无疑在保障隐私方面做到了极致。
简言之,借助他们开发的产品,互联网用户可在“隐身”与“实名”间灵活切换:一旦选择前者,网站只能读到产品赋予用户的假身份,而无法识别至个体;再进一步,部分企业为用户提供多重身份,以满足不同场景下的需求;保护最严者,连产品提供方——以及监管机构——都无法解开用户真实身份。
类似保护亦延伸至交易层面:一方面,与银行及邮政服务合作,部分企业支持用户匿名购物。借助一次性购物卡及毋需真实地址的投递服务,用户可在掩盖真实身份的前提下完成交易;另一方面,也有初创企业致力为用户充当数据“经纪”。
具体而言,同样定位于维护匿名,此类企业左手沟通用户,展现企业需求;右手联络企业,助力采集信息。理想状态下,企业得到信息,却无法由此识别个体;同理,个体可享受定制服务,又毋需担忧企业知晓自己。部分企业甚至提供更为严密的“分布式”保护:账户密钥拆为几部分,分别封入银行保险;除此,账户不能解密。
设想很美。然而,2001年之后,以上创新,大多销声匿迹。“大气候”和“小天气”,都是产业面临滑铁卢的原因:一方面,如多位产业参与者所述,隐私理念“超越了(20世纪90年代)这个时代”,产品销量因而始终不温不火;另一方面,紧随互联网泡沫破灭的,是举世瞩目的“9·11”事件。
“9·11”恐袭给美国造成的深远影响之一,是国家出于反恐的理由,对个人数据隐私干涉和入侵力度日益加大,这一格局至今未变。图为“9·11”恐袭之后的双子塔遗址。
袭击以后,对安全的担忧,彻底压过了对隐私的呼唤。之前,从业者是立法者和投资者的“宠儿 ”,时常出入国会,参与立法听证,融资亦顺风顺水;之后,多部已成形的立法草案,均“无疾而终”。一度热情的投资者,也不乐意冒成为恐怖分子“帮凶”的风险,继续为此类隐秘网络服务买单。
“当头棒喝”下,从业者也在反思。以下教训,因实践愈显深刻:首先,超越时代,既可能是勇敢,也可能是鲁莽。诚然,从业者的许多宣传与论说,唤起了公众关注,也赋予学者灵感;然而,对一新生产业而言,以宣传扭转公众观念,无疑是过分沉重的负担。
实际上,部分揭示隐私威胁、宣扬产品安全的广告,还曾因“夸大宣传”等原因,引起监管机构关切。其次,比前一点更为重要的,是不能片面地将隐私视为“保密”或“匿名”。在理论层面,这一界定忽视了太多侧面;在实践层面,如此定义之隐私,在实践权衡中过于单薄,难与其他价值颉颃。这也催生了产业的转型。
“市隐”:
声誉管理与数据经纪的“进化 ”
相比以“遁世避离”为纲领的第一阶段,21世纪初的隐私产业——尽管风波险恶,许多企业仍然活了下来——可谓发生了“90度”急转弯。简言之,在对待个人信息的态度方面,它们比之前更开放、更灵活:声誉管理取代匿名化,成为产业界的新“宠儿”。
现在,隐私产业的任务不再是将个人置于黑暗,使其无法识别;而是为个人“打光”,展示自己乐意展示的一面。当然,原有的精神并未尽数消弭,数据经纪业务仍然存在。与上述一致,新的经纪服务,同样淡化了其中“匿名中介”的一名;与之相反,个体当由此类经纪“了解你自己”,并从积极参与数字经济中分润。
声誉管理层面,霍夫曼“拟剧”理论的影响清晰可见。所谓“拟剧”,可大致翻译为“生活就是舞台”:面临不同的场景,个体戴上不同的“面具”,以社会所期待的方式举手投足;不分场景行事,或打破场景常规,不仅会因“不配合场景”而招致尴尬或羞愧,还可能因违背社会规范而遭受惩罚。
一旦提出,这一理论即受广泛引证;引证者中,不乏隐私领域中里程碑式研究——譬如John Whitman对欧美隐私文化的比较,又如Helen Nissenbaum对“基于场景的隐私”的阐释,等等。对应于生活实践,通过策略性地表达信息来培植、守护好名声,可谓每个人的日常“功课”。
互联网激发了这一需求。一方面,“互联网永不遗忘”:已淡出回忆的青葱丑事或当年悔恨,仍有可能停留于陈旧页面,成为个体约会、申请或求职时意想不到的障碍;另一方面,部分企业,甚至将“贩卖丑闻 ”做成一种商业模式。
例如,在美国,个体一朝被捕,其个人信息及身着囚衣的照片就会公开于当地网站。部分企业由此嗅到了生财之道:它们将这些信息收集起来,以“便利个体查询社区安全”为名,予以集中列示。哪怕个体实属清白, 一旦搜索他/她姓名,囚衣照仍将显示于结果前列。想要摆脱,个体只能向网站交钱。同理,也有网站借汇集不雅照索取钱财。
声誉管理企业应运而生。据作者观察访谈,一言以蔽之,此类企业侧重“以正面信息淹没负面历史,使搜索个体姓名的结果符合个体期待”。为此,他们广泛借助公关理论与搜索引擎优化术,以精心编写的积极消息充塞搜索结果前列,将旧的不堪内容“挤”到无人关注的后几页。
有的企业走得更远:消除不堪往事与强化正面形象,在具体实现方面并无显著差异;循此,“擦除负面、维护隐私”与所谓“营销个体、界定品牌”间,实无明确界限。靠声誉赚取巨额利益的名人,以及在社交媒体中“泡”大的学生,都是此类企业的主要客户。隐私不再是“遁入山林”,更多是“隐于市集”。
隐私产业的另一特点,是前述“数字经纪”的转型。与甘当守秘中间人的业界先辈不同,领域内新军更重视以下两点:其一,协力个体了解、成就数字时代里的自己。现在,此类产品不再竭力隐藏用户信息,而是帮助用户收集、分析自己产生的信息,并以此实现用户的目的。
据从业者称,一方面,借助更丰富的、由自己衍生的数据,个体得以更深入地了解自己,并由此实现自我管理与自我提升;另一方面,确实,在数字经济巨头面前,个体在知识、技术方面都处于劣势。通过使用这类新工具,个体也将逐渐具备数字思维、熟稔相应技术;二者间沟壑,当因此逐渐弥合。
数字经济的新卖点之二,是消灭数字时代的剥削、为个体争取公平的回报。近来,围绕数字经济,尤其是个体数据权属及相应收益回报的争议,很多。显然,并不是所有人都认同所谓“免费模式”足以补偿个体在数据方面的付出。
新一代从业者称,他们将解决这个问题:现在,由数字经纪协助,个体得以“从心所欲 ”地追踪、收集、存储、交易自己的各方面数据。“合则多利”:对个体,交易系于一人之手,纠纷自有经纪处理,毋需再担忧巨头的“压迫”或“剥削”;对企业,如此交易在尊重用户意愿、维护双方信任的同时,也确保了所得个体数据的完整、准确与及时。
“浑然”:数字经济大潮下
隐私保护的新趋势
原书内容远较以上部分丰富:一方面,“一阶段”“二阶段”分期实属权宜之计,未必能勾勒丰富产业动态的全貌。实践中,两期企业所秉持理念,及两期企业所开发之产品,均有许多连贯与交集;另一方面,穿插于产业观察与相关访谈之间,尚有作者对各派隐私理论的全面梳理与编织。
对本书写作风格,以下赞誉似并不过分:很难再找到另外一本如同此书一般,“称提”妥帖一手业界内容与深度学理论说的隐私研究著作。这些貌似“佶屈聱牙 ”的梳织绝非冗赘:没有这些引证,作者也写不出产业、学术与监管间的丰富互动——前者从后两者汲取诸多灵感,又反哺于后两者。
譬如,在第一阶段,隐私在人格层面意义的竭力张扬,成为以上三者间的共同语言:产业奉此圭臬,循此纲领,以“无法追踪、识别个体”为出发点做产品;那些在学堂讲演,或于国会作证的创业者,又将这一潮流携入学术与监管语境。
今日对“可识别性”之强调,背后或多或少有产业的一分力。同理,在共识逐渐移向数据开放、流动与利用的今天,产业也成为其中“弄潮儿”:前面已提到,哪怕是从业者,许多人也会征引霍夫曼的理论;反之亦然,以上针对数字经济的宽容态度,本身又是前述共识游移的动力之一。再进一寸,市场与法律,本身就是规制倚赖的两根彼此相依的台柱。
不过,以上联结之下,尚有更为丰富的故事图景。原文结尾有所简述,但未投入多少篇幅:相比容易发现的“助人隐遁”或“予人假面”,更为通行的趋势,是令隐私价值观“浑然”于其他用途应用之中。
譬如,主打“实名社交”、以“信息流”为特色的脸书占据社交市场主导之余,倡扬“阅后即焚”“私密聊天”的新生代社交软件纷纷崛起;实际上,连脸书自己,也开始鼓呼隐私这重叙事。
固然,这些应用并非用于求取匿名,也常无意于搽除历史;然而,讨论隐私产业,怕是不能脱开这些“舞者”——隐私是它们的特点所在,也常常是用户非彼而此的原因,它们也是舞台上的一员。
这也与笔者之前撰写的一篇文章(《听说这一届年轻人不关心隐私?》)观点一致:谈论信息时代的隐私时,部分“国民应用”不应缺席。在国内,专门的匿名或加密软件很难称得上普及;是否确实存在针对个体声誉管理的,也颇值得商榷。以上并不意味着隐私没有在产业中留下丝毫烙印;截然相反,在移动互联网最为令人艳羡的胜利之一中,也有隐私的浓厚痕迹。
从近几年陆续放出的公开课演讲等材料中,笔者曾简笔整理微信产品的设计哲学:给用户多点安宁,让用户按自己的意愿“打扮”自己,以及给用户一个“遗忘历史”的机会,都曾造就其中特定产品特性的设计。对照此处哲学与前述学理,相似之处依稀。
结评与展望
总之,借助对已有理论的全面编理及大量业界内容的积累,作者写出了一本颇为独特的著作:回环往复的说理与产业人士的简明交颈环绕,而不显其突兀。细看之下,隐私产业的发展又可大致分为两个阶段:第一阶段时,产业价值观更切合“隐私”的字面含义,旨在帮助个体“遁世”——保持匿名与秘密。
然而,这条路走不通;于是,等到第二阶段,产业开始拥抱数据开放与流动。在这一纲领下,包括声誉管理、数字经纪在内,各类协助个体拥抱数字经济的产品纷纷出现,生机一片大好。从这个角度看,数字经济的未来图景,必将是开放流动与尊重隐私的融合。
产业演变的本身即已激动人心:社会对隐私的了解因此更加深入,相应教益也早已传导至学术、监管等层面。不过,这一故事的图景,至少还可做两重扩张:第一重扩张,指的是隐私价值观向其他领域应用的渗透——那些以隐私为“卖点”“护城河”甚或商业模式根基的应用,也当纳入对隐私产业的考察之中;第二重扩张的视角则更为远大。
开头提到,保护隐私权有四根“柱石”:市场、法律、规范与架构,四者总在动态中相互平衡。相比法律等“梁柱”,对市场的考察,之前尚显稀薄;现在,随着相应研究日益系统,或有必要正视市场之用、并在此基础上重新考察四者之平衡。
编辑:高杰






160#
 楼主| 发表于 2019-8-16 23:00:09 | 只看该作者
【案例】
防止数据滥用!首份人工智能行业自律公约公布
文章来源:南方plus
原文链接:
https://static.nfapp.southcn.com/content/201908/16/c2530432.html?colID=2147483647&code=200&msg=%E7%99%BB%E5%BD%95%E6%88%90%E5%8A%9F&evidence=07a62813-1fe5-4427-952e-98aaf13db5ed&appversion=5250&firstColID=653&date=bnVsbA%3D%3D
作者:记者 郜小平
首份由企业界联合发布的人工智能(AI)行业自律公约正式公开。816日,全球人工智能创业者大会在深圳举办。此次会上,包括优必选、奥比中光、酷开、高新兴、云译、旷视、科大讯飞在内的数十家人工智能企业共同发起《新一代人工智能行业自律公约》(下称《公约》),倡导AI技术健康可持续发展。 今年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》。这是我国首次发布发展人工智能治理原则,提出发展负责任的人工智能。 中山大学数据科学与计算机学院教授赖剑煌表示,当前人工智能技术存在被滥用,如用户在浏览、搜索、网上购物和社交时,大量软件在分析用户行为偏好,此外,人脸识别技术也被滥用,他认为,生物特征识别具有隐私性,为避免相关数据被非法使用,他呼吁相关部门对此加强管理。 为推动科技向善,由暨南大学新闻与传播学院,深圳市宝安区人民法院知识产权审判庭作指导单位,深圳市人工智能行业协会与旷视、科大讯飞、优必选、奥比中光、酷开、夸克云智,Testin云测,高新兴,云译等数十家人工智能企业共同发起《公约》。 该《公约》包括坚持以人为本、促进正义公平、确保安全可控、注重隐私保护、促进包容共享、确保权责明晰、加强协同合作、健全行业标准等8个方面,例如在促进正义公平方面,提出提升人工智能算法决策的透明度,从算法决策、编码设计以及商业应用等不同层面,确保人工智能的设计与应用公平、合理、无歧视;在注重隐私保护方面。人工智能应加强个人对数据的控制,防止数据滥用。 当天,深圳市人工智能行业协会对外发布《2019人工智能产业发展白皮书》,从人工智能产业、技术、企业及伦理等领域进行研究,该报告显示,国内人工智能产业已初步形成产业链,其中上游企业提供基础能力,中游企业将基础能力转化成AI 技术,下游企业则将AI 技术具体运用到特定应用场景。截至今年6月,北京以709家人工智能企业数量位居全国第一,深圳居第二,相关企业为636家,平均年龄在4.42年,近七成集中在应用层领域。 【记者】郜小平编辑:高杰

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表