传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
911#
 楼主| 发表于 2024-11-4 17:47:15 | 只看该作者
【案例】


谷歌员工集体打脸劈柴,25%新代码AI生成夸大事实!Linux之父怒斥90%都是营销
【新智元导读】谷歌超25%新代码由AI生成,却遭到了自家员工的反对。劈柴的一句话,又让谷歌成为了众矢之的。「谷歌内部超1/4新代码,全是由AI生成的」!上周,CEO劈柴在Q3财报会议上的一句话,瞬间点燃了全网的激烈讨论。


AI生成的代码再由工程师进行审核,能够帮助工程师完成更多的工作,加快开发效率然而,也正是这句话,劈柴却遭到了自家员工「打脸」。在热门新闻网站HK上,一位谷歌程序员发帖,对这个观点并不认同:
我在谷歌刚刚结束了一天的工作,我刚才在写那种称之为「AI生成代码」的东西,但是这个代码补全能力最擅长补全我正在写的代码行。
比如,当我写「function getAc...」时,它足够聪明,可以补全完成「function getActionHandler()」,可能还会建议正确的参数和一个不错的jsdoc注释。
简单来说,它是个有用的生产力工具,但并不能完全进行真正的软件工程设计工作。它可能和Copilot差不多,也许稍差一些。(不过我最近没用过Copilot)


评论区下面一位谷歌员工,更是直言不讳,「这明显就是在夸大事实,他们可能把一些存在了十年的全自动代码审查/Pull Request也算作『AI生成』了」。
如果一个10人团队和一个使用Copilot的8人团队生产力相同,那在我看来可以说「AI替代了2个工程师」。更重要的是,如果这是真的,科技领导者们早就会这样宣称了。
Copilot和类似工具已经存在足够长的时间,足以证明其效果,但没有人说「我们用AI替换了X%的员工」,因此通过「否定后件」的逻辑,使用Copilot并不能实质性地加速开发。


如此戏剧性的反转,让现场吃瓜的网友大受震撼。就连Linux之父Linus Torvalds在采访中表示,「AI只不过是一种营销策略。人工智能市场状为90%营销和10%现实」。


可以庆幸的是,AI取代程序员工作应该离我们还很遥远。

25%代码AI生成,过度吹捧遭打脸

在所有人看来,25% AI生成代码所占的比例是非常高了。

此外,劈柴在Q3财报讲话中还提到了,不论是从token数量、API调用、业务采用哪个方面去衡量,Gemini模型使用率都处于急剧增长的时期。

除了谷歌自己的平台,Gemini还联手GitHub Copilot,为更多开发者提供能力,支持处理200k上下文的大规模代码库。


实际上,AI编程助手往往会在代码中植入错误,侵犯版权,甚至在某些情况下,导致中断。这时,程序员被迫成为「AI提示大师」,手动修复AI助手创建的任何问题。谷歌对AI编码的吹捧,却成为了全网的华点。


有人表示,「问题在于,修复那25%代码中的bug所花费的时间超过了节省下来的时间」。「现在Copilot这样的工具被广泛使用,研究表明它们实际上并没有提高生产力。所有相反的说法似乎要么是道听途说,要么就是营销噱头」。

另有网友表示,「时间会告诉我们AI输出质量是比熟练的程序员差、相当,还是更好,但对于超出明显的样板代码(比如for循环中需要的所有符号)或命名(如上面那位描述的函数名和注释自动补全)之外的任何建议,我都会非常谨慎」。


与此同时,在Reddit热帖中的网友称,「我认为我们不太关注采用率,而是更关心其他因素。它能提高开发速度吗?能提升代码质量吗?能改进维护性吗?我觉得这些还未可知。更大的问题是,在大型企业中使用AI的ROI是多少?运行或训练这些AI大模型并不便宜」。


不过,又一位谷歌员工站出来,给了比较中肯的回答。他首先承认了,AI写代码仅是工程工作的一小部分。然后依据他个人经验,又认为「不过AI系统要比人们所描述的强大得多,也可能是因为我大多数情况下用C++,它比JavaScript有更大的训练语料。系统已经很擅长的一件事是根据注释写出完整的短函数」。

内部代码模型泄露,专为谷歌员工打造
在谷歌内部,开发者都在用什么模型写代码?今年2月,BI从一份泄露内部文件中得知,谷歌悄悄推出了一款名为Goose的新模型供内部使用。Goose是Gemini的一个分支,基于谷歌25年工程专业知识上完成训练,支持28k token上下文。


它不仅可以回答有关谷歌特定技术问题,还能使用颞部技术堆栈编写代码,还支持一些新功能,比如根据自然语言提示编写代码。一份文件中指出,Goose计划成为谷歌内部编码使用的第一个通用LLM。


而且,谷歌计划是,通过Goose将AI带入产品开发过程的每个阶段。
92%美国码农用AI写代码

用AI辅助代码生成,已经成为大多数程序员的日常。根据Stack Overflow 2024开发者调查报告称,超76%的人正在使用,或计划在今年开发过程中用上AI工具。其中,62%的人正积极使用AI工具。


上半年发布的GitHub开发者报告中,92%美国软件开发人员已经在工作内/外使用AI编码工具。


AI辅助编码于2021年首次在GitHub Copilot中大规模出现,并在次年6月正式对外发布。当时,它使用的是OpenAI一个特殊编码的AI模型Codex。该模型既可建议连续的代码,也可以从英语指令中从头开始创建新的代码。


从那时起,AI编码在全世界铺开。随后加入的玩家,比如Anthropic、Meta、Replit、OpenAI等不断完善解决方案。最近,GitHub Copilot官宣扩展了新功能。并且,加入了Claude 3.5和Gemini 1.5 Pro模型。一些人都在吹捧AI编码的强大能力,却也引起了另外一些人的批评。斯坦福去年的一项研究显示,使用AI编码助手的开发者,代码错误更多。而且,他们比那些不用AI的人,更加相信AI编写了安全的代码。

论文地址:https://arxiv.org/pdf/2211.03622虽然AI生成错误的编码是危险的,但回看软件开发的历程,也曾遇到过类似有争议的变化。比如,从汇编语言到高级语言的过渡,在那时,也面临着一些程序员的反对。他们所担心的是,我们不仅会失去控制,还降低了效率。类似地,上世纪90年代,面向对象编程的采用,也遭到了复杂性、性能开销大的质疑。在AI增强编码的最新转变中,也是同样如此。微软前副总Steven Sinofsky表示,「无论你认为用AI编程在今天是否有效,都不重要」。「但是,如果你认为GenAI编码会让人类变笨,或不是真正的编程,那么请考虑一下,这类批评其实一直都在(从最早的Fortran编程语言就开始了)」。


AI将如何改变科技就业市场

科技行业曾是众多人才竞相追求的热门领域,[color=var(--weui-LINK)]但如今却面临着职位减少的挑战根据Indeed.com的数据,自2020年2月以来,招聘岗位减少了30%。Layoffs.fyi网站的报告也显示,今年科技行业的裁员潮仍在继续,自1月份以来,已有约13.7万个工作岗位被裁减。

造成传统科技职位需求下降的一个重要原因是,AI已经能够胜任许多曾经由人类完成的常规编程、编码和技术任务。随着AI工具持续提高生产力,组织机构能够以更精简的团队实现更好的成果。因此,这一趋势正在减少软件开发和信息技术支持等领域的初级和中级职位需求。另外,微软和领英最新发布的2024年工作趋势年度报告显示,雇主们对具备AI技能的求职者表现出强烈偏好。报告指出,66%的企业领导者表示不会考虑没有AI技能的申请者,而71%的领导者更倾向于选择具备AI专业知识的新人,而非缺乏这些技能的资深人士。


在当前形势下,随着各公司纷纷致力于获取和培养AI人才,科技专业人士必须主动适应变化,提升自身在AI相关领域的技能,才能在瞬息万变的就业市场中保持竞争力。AI在软件领域的崛起正在重塑软件工程师的角色定位,使其工作重心从传统编码转向AI监督和集成。这种转变需要一套全新的技能组合,将AI专业知识与伦理考量和高级系统设计有机结合。随着领域的不断发展,工程师们必须转型成为具备AI思维的解决方案专家,能够熟练管理AI生成的代码,深入理解其局限性,并在这个新范式中持续创新。参考资料:https://news.ycombinator.com/item?id=42002212https://arstechnica.com/ai/2024/10/google-ceo-says-over-25-of-new-google-code-is-generated-by-ai/#gsc.tab=0https://www.forbes.com/sites/jackkelly/2024/11/01/ai-code-and-the-future-of-software-engineers/https://www.reddit.com/r/google/comments/1gfrs03/google_ceo_says_over_25_of_new_google_code_is/


来源:新智元(公众号)
编辑:李佳
链接:https://mp.weixin.qq.com/s/SLyja3phqU19kWh69bDUpw

912#
 楼主| 发表于 2024-11-7 15:07:02 | 只看该作者
【案例】
社交机器人


编辑:李佳


913#
 楼主| 发表于 2024-11-10 20:44:11 | 只看该作者
【案例】
新华社批“AI污染”乱象

近日,新华社发文从多个方面对AI提出了批评,《警惕“AI污染”乱象》一文指出,“去年以来,生成式人工智能在世界范围内掀起一波接一波的热潮,其颠覆性应用让许多行业和网民受益。然而,一块硬币有两面,伴随生成式人工智能而来的也有一些负面问题,由'信息垃圾'导致的'AI污染'越来越突出。”

确实,随AI技术的飞速发展,互联网内容生产力也发生了革命性的变化,然而,这种技术的普及也带来了一系列问题:

在某些热门社交平台上,充斥着大量AI生成的虚假账号;


某小说平台的账号,依靠AI“创作”,一天可更新50部小说,月更字数上千万,但行文常常逻辑不通、辞藻空洞;


AI内容创作甚至亮相学术界,某顶尖高校学者在SCI发表的论文,因插图为AI生成,且错误百出,仅发表3天被撤稿,沦为学界笑柄……



随着AI带来的负面影响越来越多,尤其是在新闻和信息传播领域,几乎全面入侵。AI可以生成、伪造或篡改文本、图片、音频和视频,产生大量粗制滥造、真假难辨的“信息垃圾”,是时候对其进行全面审视了。

01
AI在新闻领域的入侵

新闻真实性受到极大挑战


AI的发展为新闻领域带来了翻天覆地的变化,从传统的人工采编模式逐渐向智能化、高效化的方向转变。但人工智能可能会复制或放大现有数据中的错误,生成虚假信息和宣传,新闻机构在使用AI时,也面临保持真实性和公信力的重大挑战。

有的MCN机构为博取流量,通过AI软件生成虚假新闻,导致大量网络谣言病毒式传播。今年6月中旬,一家MCN机构的实际控制人王某某因利用AI软件生成虚假新闻并大肆传播,扰乱了公共秩序,被警方行政拘留。据警方通报,王某某共经营5家MCN机构,运营账号842个,自今年1月以来,王某某通过AI软件生成虚假新闻,最高峰一天能生成4000至7000篇。

新华社在《警惕AIGC数据污染“稀释”人类原创》一文提醒“生成伪造虚假内容,扰乱公共秩序”:生成式人工智能可以根据人的指令生成不存在的内容,极易被用于自动生成虚假新闻和谣言。深度伪造技术(DeepFake)正快速发展,图片伪造、音频合成和视频换脸在生成式AI的帮助下变得轻而易举,这些虚假内容能够以逼真的形式迅速传播,带来严重的社会影响。

在《警惕“AI污染”乱象》文中指出:清华大学新闻与传播学院新媒体研究中心今年4月发布的一份研究报告显示,近一年来,经济与企业类AI谣言量增速达99.91%。美国调查机构“新闻守卫”称,生成虚假文章的网站数量自2023年5月以来激增1000%以上,涉及15种语言。一些专家认为,AI制造的“信息垃圾”产量庞大,且辨别难度较大、筛选成本较高。

版权归属问题复杂


传统版权通常归属于创作者或创作者雇主,但AI版权可能归属于训练数据的提供者、算法开发者、系统操作者甚至最终用户,这导致新闻、出版机构在面对科技企业推出的AI工具整合新闻和内容时,可能损失相关流量和广告收入。

当地时间10月21日,《华尔街日报》母公司道琼斯和《纽约邮报》对人工智能初创公司Perplexity提出侵权诉讼,指控后者抄袭受版权保护的新闻内容,并利用这些新闻内容生成对用户提问的回复,从而抢走了原本会流向这两家出版商网站的流量。而在一周前的10月15日,Perplexity刚刚收到了来自《纽约时报》的警告,要求其在10月30日前停止使用《纽约时报》的内容。很多网友对此也给出了自己的看法。


02
应对之策探讨

新华社在《警惕“AI污染”乱象》中建议:

应加大对AI学习和生成机制的源头治理。明确AI平台对源头素材的把控责任和对生成内容的监管责任,完善AI内容生成规则,强制对AI生成内容打上显著标识,提升AI技术的透明度和可解释性。

加强对AI生成内容的筛查监管。有关部门及企业需将监管重点放在对AI生成内容的筛查及审核上,可开发相关的审查算法,规范生成内容向舆论场的流入及传播途径,及时发现并删除低质量或虚假内容。

提高用户对AI生成内容的辨别能力。网民应理性对待互联网信息,增强防范意识和识别能力,可使用反向搜索工具,检查内容来源和作者信息,分析内容的语言和结构特征,从而鉴“伪”鉴“劣”。      

对于新闻从业者,除此之外,还应注意:

一方面要明确AI应用边界。明确AI在新闻领域的应用边界至关重要。一方面,要确定哪些新闻内容可以由AI生成,哪些必须由人工撰写。例如,对于重大时政新闻、深度调查报道等需要高度准确性和专业判断的内容,应明确禁止使用AI生成,确保新闻的权威性和可靠性。另一方面,要规范AI在新闻编辑、分发等环节的使用,避免过度依赖人工智能而导致新闻质量下降。

另一方面,要提高对AI生产内容的辨别能力。提高新闻从业人员和公众对AI生成内容的辨别能力是应对AI带来问题的重要措施。对于新闻从业人员来说,要通过培训和教育,使其了解AI的工作原理和特点,掌握辨别AI生成内容的方法和技巧。

AI的发展势不可挡,它为人类带来了前所未有的机遇和挑战。我们既要充分发挥AI的优势,又要高度重视其带来的问题,加强监管和治理,共同维护良好的网络生态环境。

来源:传媒头条(公众号)
编辑:李佳

914#
 楼主| 发表于 2024-11-12 19:26:07 | 只看该作者
【案例】
李彦宏:智能体是AI应用最主流形态,即将迎来爆发点| 百度世界2024


20241112日,百度世界2024在上海举办,百度创始人李彦宏发表了《应用来了》的主题演讲。在演讲中他公布,百度文心大模型日均调用量超15亿,相较一年增长约30倍,代表着过去两年中国大模型应用的爆发。




李彦宏发布了检索增强的文生图技术iRAG。其将百度搜索的亿级图片资源跟强大的基础模型能力相结合,从而解决大模型在生成图片时出现幻觉的问题,可以生成各种超真实的图片,整体效果远远超过文生图原生系统,去掉了机器味




在本次大会上李彦宏重点指出智能体是AI应用的最主流形态,即将迎来它的爆发点。他将做智能体类比为PC时代做网站、或是移动时代做自媒体账号,不同之处是智能体更像人、更智能,更像你的销售、客服和助理。智能体可能会变成AI原生时代,内容、信息和服务的新载体。





今年以来,李彦宏多次先见性的指出:智能体是大模型未来发展的关键方向,虽然这一点还没有在业界形成共识。李彦宏进一步解释了大模型发展的几个阶段。最初,大模型主要是作为人类的辅助工具,最终输出的内容仍需要人类审核与把关,确保其质量,这是“Copilot”阶段(AI辅助人类);接下来则是“Agent智能体阶段。关于Agent的定义,外界有许多不同的说法,但核心在于它具备一定的自主性,能够自主使用工具、反思和自我进化;当自动化程度进一步提升,就进入“AI Worker”阶段,智能体将像人一样能够独立完成各种脑力和体力工作。这一发展路径是大模型领域不可或缺的进程。


智能体是大模型的最重要发展方向这一观点其实是个非共识,目前像百度这样将智能体作为核心战略的公司并不多。那么,为什么李彦宏要如此强调智能体?原因在于智能体的应用门槛确实较低。去年当行业开始应用时,很多企业虽然涌入了应用开发,但仍然不清楚如何入手,不确定方向能否带来价值,也不清楚需要哪些能力才能实现商业价值。因此,从模型直接构建智能体成为一种高效且直接的路径。在文心平台上,每周都有上万个新的智能体被创造出来,正是因为智能体提供了一种便捷的模型应用方式,使得从模型到应用的转化更加简化。


无论是人工智能的理论研究还是智能产业的发展,李彦宏关于智能体是大模型最重要发展方向的判断,非常具有前瞻性,符合智能科学与智能产业的发展趋势与规律。


智能体概念可以追溯到20世纪5070年代,当时计算机科学家们开始探索具备自主任务执行能力的程序系统。到80年代,随着传统集中式AI方法在复杂环境中暴露出局限性,智能体逐渐成为研究重点。作为系统化的理论概念,智能体被定义为能够自主感知环境、决策和行动的计算单元,为现代AI技术奠定了基础,尤其在机器人、自主系统和多智能体系统的研究中发挥了重要作用。


21世纪以来,智能体技术迅速应用于无人驾驶、金融决策和医疗诊断等领域。复杂智能体通过分析环境、预测未来并实时调整行为,展示出强大的决策和学习能力,进一步推动了AI的发展。如今,智能体作为核心概念已成为智能科学的基石,为AI各分支提供了统一且灵活的理论框架,广泛应用于技术和工程实践,同时在模拟生物行为、群体智能、自我学习和自适应系统等基础研究中扮演重要角色。2024年,科学院大学团队发表的论文《从观察者到智能体,论物理学与智能科学的统一》甚至提出智能体将是驱散21世纪科学乌云,引发新科学革命的突破口。

李彦宏提出智能体是智能产业最重要发展方向,也体现了对未来AI演进的深刻预见。


在产业上,智能体正在成为人工智能领域的共识。谷歌、百度、字节、腾讯、阿里等全球科技大公司都在智能体方向积极布局。


李彦宏对于智能体方向的判断,得到了斯坦福大学教授吴恩达、比尔盖茨、扎克伯克等人的呼应,吴恩达看好智能体工作流,扎克伯克判断其数量会达到数十亿,比尔盖茨认为智能体会颠覆软件行业。


在实践上,百度也按照李彦宏的规划,积极推动智能体在AI生态中的发展并取得了众多成果。


百度文心智能体平台,是基于文心大模型的智能体构建平台,为开发者提供低成本的开发方式,支持广大开发者根据自身行业领域、应用场景,采用多样化的能力、工具,打造大模型时代的原生应用。并且为开发者提供百度生态流量分发路径,完成商业闭环。据大会公布,截至202411月,百度文心智能体平台已经吸引了15万家企业和80万名开发者参与,覆盖众多应用场景。


百度世界大会2024上,中国科学技术馆馆长郭哲和百度首席技术官王海峰在会上宣布,中国科学技术馆与百度正式达成战略合作,将正式发布双方共同打造的科技馆智能体,利用AI技术为传统科普教育注入新活力、赋能科技馆数字化建设,为更多热爱科技的观众(特别是青少年)提供个性化的科普知识。智能体已从AI圈内的专业词汇,正在变成小学生都可以徒手做出的应用。


在过去的一年中,李彦宏密集发表了多次行业喊话,提出了一些并非当时主流的观点。在大模型最热时,他直言:如果没有构建于基础模型之上的丰富AI原生应用生态,大模型将毫无价值。;当大模型进入百模大战后,他指出:不断重复开发各类基础大模型,是对社会资源的巨大浪费。与许多人争相在C端打造爆款AI应用不同,李彦宏认为大模型对ToB业务的改造,影响力远超互联网对ToB的影响。,今年他多次谈到智能体,尽管这一概念在行业中仍属新物种,尚未达成共识。


早在20世纪90年代,李彦宏率先发明了超链分析技术,为现代搜索引擎的发展趋势和方向奠定了重要基础。进入21世纪后,他带领百度全面投入人工智能领域,通过长期的技术积累和对AI未来趋势的深刻洞见,使百度在AI领域逐步确立了先发优势。李彦宏提出的众多非共识观点如今也正在被产业和学术界广泛接纳。


作者:刘锋
来源:人工智能学家(公众号)
编辑:徐思凡


915#
 楼主| 发表于 2024-11-15 18:43:01 | 只看该作者
​【案例】
胡献红:人工智能的国际伦理原则探讨:聚焦隐私和数据保护问题

作者:教科文组织(UNESCO)传播与信息部门项目官及全球互联网普遍性指标项目负责人,哈佛大学伯克曼互联网和社会中心附属专家;2007年北京大学新闻传播学院传播学博士

发表期刊:《新媒体与社会》27集

摘要:如何考量人工智能带来的潜在风险?人类机构和以人为本的价值观在人工智能发展中应该发挥什么样的作用?人工智能作为21世纪最有影响的一项科技创新, 在某种程度上说已然成为当今时代的隐形把关人和隐形决策者。如何使人工智能的发展符合人性化价值,巩固人的尊严和自由并增进社会的可持续发展,这是一个巨大的现实挑战,首要解决的是人工智能的伦理问题。

人工智能的伦理问题引发国际社会的强烈关注,许多国际组织、国家、业界和各方机构纷纷出台数百份人工智能伦理原则和倡议文件。本文综述了近年来全球范围和国家层面代表性的机构和代表性的文件来归纳人工智能伦理原则制定的主要维度,同时聚焦各方共同关注的隐私保护问题,结合全球新冠疫情(COVID-19)防治带来的危机,从技术、国际法标准、国家层面隐私保护框架/指标、儿童隐私保护等多个角度来探讨人工智能时代隐私保护的挑战、风险和对策。

关键词:人工智能(AI),伦理,隐私,数据保护,数据治理,物联网(IOT),多方利益相关者参与,新冠疫情(Covid-19),互联网治理,互联网政策,可持续发展,儿童隐私

人工智能技术的开发和应用正在影响着社会和生活的方方面面:无论是搜索引擎在几微秒内扫描数十亿计的网页、电子痕迹和传感器数据,还是各行各业使用算法筹备并制定重要决策;人工智及其数据、算法、硬件、互联网接入和存储等组成要素使得信息传播技术的效能突飞猛进,正在深刻地改变和重塑现代社会发展的方式和方向。

许多技术决定论者乐观地认为人工智能的发展决定如同历史上科技变革那样,具有推动社会持续发展的巨大潜能并带来一场历史性的发展机遇。然而科技的发展历来都是一把双刃剑,人工智能不同于既往各种技术,它颠覆性地改变了技术创新的方法和进程,人类不再是生产和创造知识的唯一主体, 基于大数据和算法的机器学习和自动决策系统改变了各行各业的运营方式, 这一切都给人类尊严、社会组织和发展方式提出新的问题,并不可避免地带来一系列不确定的风险。

本文关注如何全方位并谨慎评估人工智能技术可能带来的社会、经济和伦理风险,旨在探索如何遵循以人为本的方向,确保人工智能的发展真正地造福人类,使人工智能的发展符合人性化价值、巩固人的尊严和自由并增进社会的可持续发展。面对这一系列巨大的理论和现实挑战, 首要解决的是人工智能的伦理问题。

一. 国际社会对于人工智能伦理的探讨

   近年来,国际社会有关人工智能伦理的讨论和规则制定风起云涌,许多国际组织和国家纷纷出台各自的人工智能伦理原则和倡议文件。目前国际范围内的人工智能伦理规则制定的主体来自多元化的各方,包括国际组织、区域性政府间机构、私营公司、技术社群、学术界以及非政府组织。

   2020年5月,联合国秘书长安东尼·古特雷斯发布报告《数字合作路线图:执行数字合作高级别小组的建议》 [1],指出全世界已有逾 160 套关于人工智能伦理和治理的组织、国家和国际原则。报告警示,目前尚没有任何汇编这些单独倡议的共同平台,而且全球讨论缺乏代表性和包容性,尤其是发展中国家的讨论缺席;如不更广泛、更系统地开发人工智能的潜力和降低其风险,就会失去利用人工智能造福公众的机会。秘书长还在报告里强调了对面部识别软件和数字身份识别等人工智能相关技术侵蚀隐私的忧虑,以及人工智能可能加深既有的社会不平等和歧视。秘书长的报告引发热烈国际反响。联合国教科文组织总干事阿祖莱表示:“我们有义务引领一场开明的全球辩论,以便带着清醒的认知进入这一新时代,确保我们的价值观不被牺牲,并为人工智能的伦理准则建立一个全球共同基础。”  [2]

   G20 峰会、G7峰会、欧盟以及发达国家为主经济合作与发展组织(OECD)、欧洲议会(Council of Europe)早在2017年就开始磋商人工智能伦理的规则制定和治理问题。经合组织2019年发布了关于人工智能的推荐原则 [3],并建议其成员国在制定人工智能发展战略和政策时予以遵守。经合组织主要制定了五大原则:1. 包容性的增长、可持续并促进福祉的发展;2. 以人为中心的价值观和公平;3. 透明性和可解释性;4. 稳固、安全和没有伤害;5. 问责。经合组织的五项原则作为较早期对人工智能的规范探讨,被各界视为经典。这五项原则关注人工智能对于经济增长的影响、人工智能的安全性以及开发过程的透明和问责,经常为各界引用,为更广泛的国际范围内的讨论带来了一个好的开端。目前经合组织的人工智能原则获得了包括该组织成员国、G20国家以及包括一系列亚非拉发展中国家的认可。许多人工智能公司和业界机构在制定人工智能战略时也经常参考经合组织的五项原则。除了侧重发达国家的经合组织,其他以发展中国家为主的区域性国际组织,如非洲联盟、阿拉伯联盟也都设立了关于人工智能的专家工作组跟进国际人工智能伦理的讨论。

   在同时涵盖了发达国家和发展中国家的联合国层面,从秘书长到包括国际电讯联盟和教科文组织在内的专业机构,都在世界信息社会峰会和联合国2030 可持续发展目标 [4]的框架中, 率先探讨了人工智能的伦理和治理问题。国际电讯联盟自2017年开始联合30多家联合国机构举行AI for Good 全球峰会 [5],旨在召集来自政府、业界、学界和非政府组织的各方专家领袖, 分享AI的最新应用实践和具有全球影响的人工智能解决方案,讨论人工智能的研发使用如何促进和加快各国的可持续发展。该峰会迄今已经举行了四届。

   在2019年11月召开的教科文组织大会期间,193个会员国决定委托该组织秘书处就人工智能(AI)开发和应用带来的伦理问题提出适用于世界各国的推荐建议。教科文组织总干事阿祖莱为此任命24名推荐建议起草组专家,他们来自不同国家和文化背景、精通人工智能相关技术和伦理的各个领域,并兼顾性别组成。专家组负责拟定一份草案,用于向国家和地区层级的各利益相关方征求意见。该推荐建议将提交2021年教科文组织大会审核,如获所有会员国批准,将成为第一份有关人工智能伦理的全球性规范性文件 [6]。

   根据2020年5月教科文组织发布全球磋商的草案第一稿 [7],目前专家组的推荐意见草案初步拟定了四大价值、十条原则和一系列政策建议。人工智能应当恪守的四大价值:尊重、保护和促进人的尊严、人权和基本自由;环境和生态系统的蓬勃发展;确保多样性和包容性;和谐与和平共处。人工智能应当遵守的十大原则包括:

   1.相称性和不损害: 指人工智能的技术应用应当同所需要达到的目的和范围相对称,要防治过度和滥用人工智能技术;每项人工智能技术在研发和应用之前, 要充分评估该项技术是否对于人类、环境或生态系统可能造成潜在损害,是否影响人类尊严和基本权利的价值观;要确保落实风险评估程序,并采取措施以防止发生此类损害和负面影响。

   2. 安全和安保:指在人工智能技术的发展过程中,应注重技术本身的安全性和承受风险的保险系数;要可持续的、保护隐私为前提的开发和使用数据,促进利用优质数据更好地训练安全可靠的人工智能模型。

   3. 公平和非歧视:指人工智能的开发者应尽量减少和避免强化或固化基于身份偏见的不适当的社会—技术偏见,确保人工智能系统的公平。对于不公平的算法决定和歧视应可以作出补救。人工智能开发者应尊重公平、促进社会正义;在地方、国家和国际层面共享人工智能技术的福祉,同时又考虑到不同年龄组、文化体系、不同语言群体、残疾人、女童和妇女以及处境不利、边缘化和弱势群体的具体需求, 以便让每个人都得到公平对待。

   4. 可持续性:人工智能技术的发展应当促进社会的可持续发展和实现联合国2030 框架下的可可持续性目标,因此要持续观测和评估人工智能技术对于社会、文化、经济和环境等方方面面可持续发展造成的影响。

   5. 隐私:人工智能技术的发展, 无论是人工智能所用数据的收集和使用还是人工智能算法的研发,都必须尊重隐私和保护个人数据。独立的隐私和个人数据监管机构应当依法治理人工智能所涉及的数据收集、算法设计、基于人工智能的监控是否符合隐私规范, 并依法保护数据所有人的知情权、对个人数据的使用权和控制权。

   6. 人类的监督和决定:即人工智能的发展的伦理和法律责任应当属于人类,人类在决策和行动上可以借助人工智能系统,但人工智能系统永远无法取代人类的最终责任和问责。

   7. 透明度和可解释性:人工智能发展的各个环节保持透明度,包括共享特定代码或数据集,可以帮助人们了解人工智能系统的研发原理、工作机制并预测影响;可解释性是指让人工智能系统的算法决策过程和结果可以理解,并提供阐释说明。可解释性与透明度两者相辅相成。透明度和可解释性与适当的责任和问责措施是确保人工智能基于人性化价值和保障各项权利的先决条件, 有助于提高人们对于人工智能系统的可信度。

   8.责任和问责:人工智能开发者应根据现行国家法律和国际法以及伦理准则,承担伦理和法律责任,并应建立适当的监督、影响评估和尽职调查机制,确保人工智能系统的研发、使用和的运行可审计、可追溯和可问责。

   9.认识和素养:包括政府、政府间组织、民间社会、学术界、媒体、社区领袖和私营部门在内的各利益攸关方应共同促进开放性教育培训资源、公民参与、数字技能和人工智能伦理问题方面的培训、媒体和信息素养培训,同时兼顾现有的语言、社会和文化多样性,促进公众对于人工智能技术和数据价值的认识和理解,确保公众的有效参与,让所有社会成员都能够就使用人工智能系统作出知情决定,避免受到不当影响。

   10. 多利益攸关方以及适应性治理和协作:人工智能的发展影响到社会各个群体, 多方利益攸关方应当充分参与并影响的人工智能发展和治理,以确保实现包容全纳的人工智能发展、共享人工智能的益处和公平的技术进步。多利益攸关方包括但不限于政府、政府间组织、技术界、民间社会、研究人员和学术界、媒体、教育、决策者、私营公司、人权机构和平等机构、反歧视监测机构以及儿童和青年团体。适应性治理和协助指必须采用开放标准和互可操作性原则,以促进各方协作。

   目前教科文组织的十项原则可以说概括了国际社会迄今已有的对于人工智能伦理原则的大部分面向,目前还在进一步磋商之中。这十项原则对比OECD的五项原则来说更进一步, 拓宽了对人工智能伦理的关注面, 强调了人工智能研发的可持续性以及人类在其中的监督和决定,关注和提升了公众和人工智能素养以及各利益相关方的参与。该十项原则还将隐私问题单独列出来, 强调隐私保护对于人类尊严和自主行动的重要意义, 鼓励各国完善和加强数据保护和数据治理的框架和政策,并提倡将隐私保护预设在算法的研发之中。

   在人工智能教育领域,教科文组织2019年在北京召开了国际人工智能与教育大会与会者,包括50名政府部长和副部长,自100多个会员国以及联合国机构、学术机构、民间社会和私营部门的约500名代表经讨论达成的《北京共识——人工智能与教育》 [8], 重申教科文组织人工智能使用方面的人文主义取向,旨在保护人权,并确保所有人具备在生活、学习和工作中进行有效人机合作以及可持续发展所需的相应价值观和技能。该共识还申明:“人工智能的开发应当为人所控、以人为本;人工智能的部署应当服务于人并以增强人的能力为目的;人工智能的设计应合乎伦理、避免歧视、公平、透明和可审核;应在整个价值链全过程中监测并评估人工智能对人和社会的影响。”[9]

二.国家和业界层面的人工智能伦理规范制定

   在国际范围内有关人工智能伦理规则制定风起云涌之时,许多国家鉴于本国数字经济和数字战略的发展需要, 也纷纷制定国家层面的人工智能发展规则。根据经合组织的人工智能观察网站 [10]数据, 包括美国、澳大利亚、加拿大、法国、德国、日本、新西兰、新加坡、瑞典、英国等在内60个国家、制定了300多个有关人工智能发展战略和伦理规范。

   受法国总理委托,法国著名数学家兼国会议员Cedric Villani牵头出台了法国的人工智能战略,于2018年发布了战略报告 《创造有意义的人工智能——国家以及欧洲战略》 [11],其中第五章专门论述了人工智能的伦理问题并提出了五条基本原则:1. 透明和可审计;2. 保护权利和自由;3. 问责和负责;4.多样性和包容性;5.对人工智能及其后果进行政治辩论。这五项原则充分体现了法国和欧洲国家的价值取向, 重视人工智能对于保护所有权利和自由的影响,而且非常明确提出要从政治角度来探讨人工智能影响。而在现实中,人工智能也逐渐成为国际政治和外交论坛的重要议题。

   2019年6月17日, 中国的国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》 [12],提出了人工智能治理的框架和行动指南。人工智能发展相关各方应遵循八项原则:1. 和谐友好;2.公平公正;3.包容共享;4.尊重隐私;5.安全可控;6.共担责任;7.开放协作;8.敏捷治理。值得注意的是, 在人工智能领域领先的中国,其伦理原则也同样重视隐私保护的问题。

   在政府部门之外,世界各国的人工智能研究所、智囊、业界社群如雨后春笋, 试图就人工智能的伦理问题制定标准。其中比较有代表性的是人工智能独立研究社群“深脑”(Deep Mind)早在2017年就确定了人工智能伦理的主要原则 [13]:1.保护隐私;2.透明和公平;3.人工智能的道德和价值观;3.治理和问责; 4. 人工智能用于应对最复杂世界挑战; 5. 人工智能滥用和连带后果;6. 人工智能的经济影响:就业方面的包容性和平等。

   谷歌、IBM、微软、法国电信 Orange、腾讯等领军人工智能的企业也都纷纷制定本行业的人工智能开发原则。 美国的谷歌公司于2018年发布了谷歌的人工智能原则:1.确保人工智能的开发有利于造福社会;2.公众获取信息; 3.避免偏见; 4.安全;5.问责;6.保护隐私;7.保持高科技水准 [14]。中国的腾讯研究院和腾讯AI Lab于2019年发布了联合研究《智能时代的技术伦理观——重塑数字社会的信任》 [15]。该研究认为,在“科技向善”理念之下,需要倡导面向人工智能的新的技术伦理观,包含三个层面:技术信任,人工智能等新技术需要价值引导,做到可用、可靠、可知、可控(“四可”);个体幸福,确保人人都有追求数字福祉、幸福工作的权利,在人机共生的智能社会实现个体更自由、智慧、幸福的发展;社会可持续,践行“科技向善”,发挥好人工智能等新技术的巨大“向善”潜力,善用技术塑造健康包容可持续的智慧社会,持续推动经济发展和社会进步。

三.隐私问题:人工智能伦理的共同关切和巨大挑战
   纵观目前各个国际组织、各个国家以及人工智能相关机构、公司和社群制定的人工智能伦理规范和原则, 虽然着眼点和范围各有不同, 但归纳起来,其中仍然有很多共识的部分。哈佛大学伯克曼中心2020年发布了一个题为“人工智能的原则:伦理和权利为基础的共识”的研究报告 [16],分析了47份具有代表性的原则文件,归纳出八条各文件达成的共识:1. 保护隐私;2. 问责;3. 安全和无害;4. 透明和可解释性;5. 公平和非歧视原则;6. 人力掌控;7. 专业责任;8.提升人文价值。

   无论是伯克曼中心归纳的共识还是前文所述各界对于人工智能伦理的原则制定都各有侧重, 值得注意的是,隐私问题成了国际社会、各国和各界对于人工智能发展的共同关切和挑战。隐私和隐私保护一直是互联网治理和数字变革的焦点问题,为什么在人工智能的发展上也再次成为挑战?

首先,人工智能的技术特点带来许多新的隐私隐患,使得隐私保护更加困难。

   人工智能系统以算法为根据,算法通过收集、储存和处理海量数据进行学习,并做出最符合设计者意图的决定。各大搜索引擎、社交媒体平台、网购电商、银行交易、远程教育等互联网服务都在使用人工智能技术大规模收集用户的个人数据并将其用于进一步的算法学习和商业模式优化。

    人工智能的算法研发依赖于海量数据的收集和使用,尤其是跟个人有关的数据交易,伴随一系列包括5G、物联网(IOT)等先进配套技术,个人数据的收集和使用达到了前所未有的规模和程度,个人隐私和数据保护在AI时代变得前所未有的困难。

   现代人每天工作和生活都离不开用各种网络设备,不但在社交媒体上写帖子、发表情或上传图片会生产大量内容型数据, 同时个人浏览网站、点击链接、接受建立网络标记(cookies)的数字足迹,也在被互联网运营商和平台收集。许多涉及个人行为的数据还被公共空间的卫星影像或视频所收集和监视。在许多国家,人工智能支持的面部识别软件和监控设备被越来越多地运用于公共空间,如车站、学校、剧院、街道、购物商场等,来进一步收集个人数据并用于大规模监控。

   不仅在公共场所,越来越多的家庭也开始装上了摄像头监控设备。还有许多家庭安装了配备虚拟助手的智能音箱,如虚拟助手“亚马逊Alexa”(常简称“Alexa”),这些助手经常在被收集者不知晓或未明确同意的情况下收集数据。

   个人使用互联网也越来越不安全,因为很多互联网搜索引擎、社交媒体平台可能运用人工智能技术监听和监控用户的语音对话,在用户使用互联网平台的同时收集个人数据,以便精确定位,推送信息和广告。

   其次,在法律和概念层面, 数字时代的隐私和数据保护问题尚未得到妥善保护和全面探讨,生活在数字时代的公民的隐私经常受到干涉和侵犯,但他们对此经常浑然不觉,甚至因为过于依赖技术带来的方便性而不再顾虑隐私问题;在学术界和公共政策领域,对数字时代的隐私问题缺少综合而深入的理解和研究, 对人工智能的隐私保护的政策讨论远远滞后于技术的发展。

    隐私权早在1948年就载入《世界人权宣言》(UDHR)的第12条和《公民权利和政治权利国际公约》(ICCPR)第17条:“任何人的私生活、家庭、住宅和通信不得任意干涉,他的荣誉和名誉不得加以攻击。人人有权享受法律保护,以免受这种干涉或攻击”  [17]。

   隐私权也以不同的方式载入国际和区域性法律文件以及许多国家的宪法和法律中。但数字时代的隐私问题比起传统社会来说面临更多新的风险,比如政府大规模数字监控、包括企业和其他个人的第三方跟踪、为商业目的利用私人数据以及非法获取并使用数据进行犯罪活动等。而且当人工智能进行非透明数据收集、去匿名化、第三方数据共享以及对个人进行大数据跟踪和分析时,都是在用户不知情和浑然不觉的情况下进行的,因此个人用户通常很难意识到他们的个人隐私和数据被侵犯,也就难以寻求立法和法律保护。

    随着技术对社会生活的全方位渗透,私人空间和公共领域的界限开始模糊,数字时代的隐私概念和范畴随之扩展。隐私的概念已经超出传统意义上的保障私人空间和个人数据不受侵犯的范畴,需要扩展到捍卫个人生活边界和定义个人发展空间的情境下来理解, 一言以蔽之, 数字时代的隐私实际上越来越成为构筑人类尊严和人格发展的基础。但目前在大部分有关隐私的国际法律文书里,比如经合组织(OECD)和欧洲委员会(COE)的108号协定,隐私权仍然主要局限在信息隐私权的范畴之内。值得注意的是在2017年,联合国人权理事会的一项决议 [18]认定了更加宽泛的隐私权含义, 认为隐私是一项能够促进其他人权的基础权利,隐私权的保护对于保护人的尊严和自由发展人格的权利至关重要。进而,隐私特别报告员Joseph A. Cannataci在当年的报告 [19]中指出, 大数据侵入到个人的生活当中,大数据的收集和分析机构掌握了人们生活方面事无巨细的数据,因此大数据不仅挑战了隐私,而且也关乎一系列包括人格自由发展的个人权利。

   由于越来越多的儿童上网和使用数字技术,儿童的数字隐私问题也越来越引发关注,保护隐私对于数字时代正处在成长期的儿童的成长和人格发展尤其重要。在国际法体系中, 1989年联合国大会通过《儿童权利公约》 [20],其中第16条重申儿童的隐私、家庭、住宅或通信不受任意或非法干涉,其荣誉和名誉不受非法攻击。儿童有权享受法律保护,以免受这类干涉或攻击。

    许多国家也都出台了相应的儿童权利保护法律和儿童保护措施。但在数字时代,儿童的隐私经常受到来自家长和学校的忽视。鉴于此, 2016年,法国的警察、个人数据保护机构和法律专家公开提醒公众,儿童的隐私同样受到法国法律的保护, 劝诫父母要重视保护儿童的数字隐私, 不能随意将子女照片上传到社交媒体, 违者将面临45000欧元的罚金 [21]。联合国人权理事会(OHCHR)等国际组织也开始制定保护儿童数字隐私的国际准则。

    可见,人工智能时代的隐私保护需要多方利益相关者的充分参与,不但需要加强法律框架和执法力度,还需要技术解决方案, 并且要提高公众对于隐私问题的意识,具备应有的数字素养,同时也不能忽视对儿童隐私的法律保护。数字时代无论是成人还是儿童都需要加强保护隐私的意识。新闻媒体、记者在这个技术快速发展的时代,同样要关注、报道和监测技术带来的负面影响,促进公共领域对隐私问题的关注。

四.人工智能时代的隐私和数据保护的国际标准:兼论全球新冠疫情(Covid-19)防治对隐私的挑战

   联合国大会分别于2013年和2018年通过《数字时代的隐私权》 [22]的系列决议,这是数字时代隐私保护领域里程碑式的文件。该系列决议在国际法体系第一次确认飞速发展的数字技术增强了政府、公司和个人进行监控、截获和数据收集的能力,从而大大影响到隐私权的保护。该系列决议一再重申隐私保护的一般原则,即人们在网下享有的各种权利包括隐私权在网上也必须受到保护,并专门提出了数字时代监控、加密和匿名等问题 [23]。该决议还关注到人工智能带来的个人敏感数据的收集、处理、使用、储存、 分享,并警示如不采取适当保护措施,人工智能的特征类型分析、 自动化决策、机器学习等技术可能影响到人们的有经济、社会、文化等各项权利,并建议人工智能的设计、评价、管理要符合国际法权利原则。

   该决议促请所有国家尊重和保护隐私权,包括在数字通信背景下的隐私权;建议各国定期审查本国涉及监控和截取通信以及收集个人数据,按照国际法准则保护隐私权,以确保国家监控通信、截取通信、收集个人数据的行动具备适当的透明度并接受问责。

    2020年10月,联合国大会再次通过最新一版的《数字时代的隐私权》 [23]决议,该决议更进一步, 充分聚焦于人工智能技术对于隐私保护的影响并给出一系列推荐建议。该决议明确认识到涉及人工智能的技术的构思、设计、使用、和部署极大地影响到隐私保护和其他权利的实现,因此有必要按照国际法准则,针对包括人工智能在内的新技术开发和部署采用适足的监管机制,并采取措施确保安 全、透明、可问责、可靠和高质量的数据基础设施,以及建立对人工智能发展的审计机制、补救机制和人力监督。

    该决议建议各国考虑制定、更新和执行法律、法规和政策,确保所有工商企业,包括社 交媒体企业和其他在线平台,在开发使用人工智能技 术时要充分尊重隐私权和其他相关权利。该决议建议各国政府完善数字通信数据保护等方面的数 据保护立法、规章、政策,并成立独立的隐私和个人数据监管机构来调查违规和侵犯行为。该决议还强调隐私保护要充分考量对所有人的影响,尤其重视预防和补救对女性以及儿童的隐私权侵犯和行为。

    人工智能时代,数据保护必须受到最严格法律保护。在欧盟层面,2018年5月25日, 欧盟29成员国批准生效历史上最为严格的个人数据保护法案《通用数据保护条例》(GDPR) [24], 主旨之一就是应对同人工智能直接相关的自动化分析和自动化决策所带来的隐私保护问题。在欧洲地区,自2018年10月起, 包括47个成员国的欧洲委员会(Council of Europe)通过了最新的《有关个人数据自动化处理的个人保护108号公约》 [25]并开放签署,公约协商委员会同时发布了详尽的《人工智能和数据保护指南》 [26]。为应对数字时代和人工智能新挑战,欧洲委员会和欧盟国家都在集中精力优先通过强有力的立法实践来保护隐私,作为促进数字技术和社会可持续发展的基础条件。换句话说,数字技术和人工智能的发展不能放弃保护隐私和人类尊严这一根本前提。

    根据联合国贸发组织(UNCTAD)2020年的调查 [27],世界上还有三分之一的国家完全没有数据和隐私保护法律,尽管在2015-2020 五年间, 采纳数据和隐私法律的国家数目增长了11%。联合国隐私报告员Joseph A. Cannataci在2018年向联合国大会的年度报告中建议各国参照欧洲委员会《有关个人数据自动化处理的个人保护108号公约》所确立的个人数据保护原则, 尽快在国家层面改进立法,尤其是为那些用于国家监控和安全收集的个人数据确立保护性规范。

    目前世界范围内的新冠肺炎疫情(COVID-19)再次引起国际社会对于隐私问题的关注。为了收集病毒传播信息和抑制病毒传播,许多国家的抗疫措施中都增加了对人际接触信息、个人健康数据以及公共卫生资讯的收集和监控,许多国家和互联网公司开发和使用了各种手机程序来跟踪和收集用户的日常行踪、人际交往、邮件、旅行、社交媒体、银行、邮递等有关的各种个人信息和数据。由于新冠疫情的日益加重、多次在多国范围内爆发,以及抗击疫情的需要,这样的个人数据收集在范围、种类和程度上都是前所未有的,对于隐私保护带来巨大风险和危机。

    世界卫生组织2020年5月份发布的报告《Covid-19 数字跟踪技术的伦理问题》 [28]中预测, 监控会很快逾越疾病监控和人口监控之间本来就模糊的界线。该报告建议各国执行数据保护和隐私法律,同时就数据处理、数据使用的限制、监督措施以及终止某项技术的夕阳条款提供附加法律依据。

   个人数据,特别是涉及私生活的敏感区域的数据(如健康、性取向、可鉴别出个人经济状况的信息、生物特征识别数据等等),在使用、处理、储存、转移和传播前要征求用户同意,因此人工智能中基于用户同意和透明度的数据保护十分重要,但此类保护在世界范围内不平衡,且未能全面地处理隐私问题所涉及的所有范畴,这些都需要加以立法和监管。

   联合国隐私报告员Joseph A. Cannataci 于2019年10月发布了一系列《关于健康和医疗数据保护的国际标准推荐意见草案》 [29],该报告指出由于健康和医疗数据作为个人的敏感性信息具有高度商业价值,经常被非法收集、使用、售卖,亟需健全国际标准和国家法律规范来予以保护,尤其在保护电子健康记录、手机程序以及业主获取雇员监控数据方面。该报告对于目前新冠病毒抗疫很具前瞻的指导性,人工智能和数字科技能够积极地促进防控疫情,但不能以牺牲个人隐私为代价。

   2020年11月, 联合国秘书长发布了包括30个机构在内的联合国隐私政策工作组《新冠病毒Covid-19抗疫中的数据保护和隐私的联合声明》[1],该声明基于《联合国机构个人数据和隐私保护原则》[2] 以及秘书长的联合国机构《数据战略》[3],重申所有已经确认的隐私和数据保护原则都应当适用于当前国际机构应对新冠疫情的各种措施之中,强调抗疫措施中的数据使用和数字技术的应用必须以尊重隐私保护和个人权利为前提,才能真正取得成功并真正推动可持续的经济和社会发展。

五.国家层面的隐私保护政策框架/指标

   人工智能技术的发展不是一个孤立的事件,而是广阔的包括大数据、物联网及区块链在内的互联网生态系统的一部分。评估人工智能风险,也需要一个综合性的政策框架,例如联合国教科文组织的互联网普遍性框架 [30],主张将技术发展遵循促进个人权利、开放性、人人可及以及多方利益相关者的基本原则,以此引导和影响人工智能发展的一系列价值观、规范、政策、 法规、准则和伦理规范。

    国家层面的网络隐私保护有没有具体指标可循?教科文组织发布的《互联网普遍性指标体系》(UNESCO,2018)包括一系列有关网络隐私保护的指标,可以用于衡量一个国家是否具备了基本的隐私保护框架, 分别从三个维度进行考量:

    1. 有关隐私、数据保护和监控的法律安排,其中数据保护涉及数据收集、分析、使用、存储、传输与共享:考量隐私权是否受到宪法或法律保障,并在实践中得到尊重;是否具有个人数据保护的法律框架、个人数据商用和国际数据传输和安全的法律框架;执法机构及其他机构合法拦截用户数据的权力是否必要、相称;合法拦截数据的法律框架(包括独立的监督和透明度),以及政府和其他主管部门的落实情况;是否设立独立的数据保护机构或类似实体及其权力。

   2. 网络空间个人身份的保护:需要考察公民身份认证及验证和注册(包括电话、互联网订阅注册)的要求是否必要、相称并符合法律规定;数据加密及网络隐私是否在法律和实践中都受到保护。

   3. 国家和持有商业及个人数据的企业之间的关系:为约束国家和持有商业及个人数据的企业的行为,一个国家是否具备向政府提供用户信息的法律和监管规定;当政府要求互联网企业向政府机构提供互联网用户信息时,是否必要、相称并符合相关的法律和监管规定;是否具备数据保存和跨境数据流的法律和监管规定;对于数据保存位置及期限的规定是否符合国际数据保护标准和执法机关的合法要求。

   在短短不到两年期间,互联网普遍性指标已经被世界五大洲的21个国家采纳并开展评估,包括非洲的贝宁、塞内加尔、肯尼亚、加纳、埃塞俄比亚,亚洲的泰国、尼泊尔、巴基斯坦、乌兹别克斯坦,阿拉伯地区的突尼斯、苏丹、约旦和巴勒斯坦,拉丁美洲的巴西、厄瓜多尔、巴拉圭和乌拉圭,以及欧洲的德国、法国和塞尔维亚。巴西是第一个完成互联网普遍性核心指标评估的国家,发布了教科文组织互联网普遍性国际评估系列的第一部评估报告[4]。到目前为止,完成并出版评估报告的国家还有贝宁、塞内加尔和肯尼亚[5]。

   从目前有关“互联网普遍性”的国家评估结果看,一个普遍存在于所有国家的挑战就是隐私保护。在巴西,互联网普遍性评估建议该国应设立一个独立的国家个人数据保护机构和个人数据保护委员会,以便落实和执行该国刚通过的数据保护法案。在巴拉圭,信息与传播技术副部长盛赞互联网普遍性评估对于数字决策的重要意义,并表示巴拉圭正在组织一个多方利益相关者参与的机制以便多方讨论并向国会提出个人数据保护方案。[6]

    互联网普遍性指标在国家层面的评估已经引起许多国家的国家领导人、电信部长、互联网政策制定部门以及有关各方的关注,该评估的政策改进作用十分明显,尤其是在评估过程中所采纳的多方利益相关者充分参与的方法和机制取得很好成效, 许多国家因为这个评估过程而第一次启动了和组建了多方利益相关方咨询专家机制,为国家层面包括隐私保护在内的互联网决策的制度创新和加强政策制定质量起到示范和推进作用。

    虽然人工智能的发展对于隐私保护带来许多挑战, 但作为一种先进的技术, 人工智能也可以用于保护隐私,帮助人类监测侵犯和滥用个人隐私的行为,因为人工智能系统将变得越来越复杂,单靠人类已经无法充分地监测人工系统对隐私的侵犯。教科文组织2019年发布的报告《引领人工智能与先进信息传播技术构建知识型社会:权利-开放-可及-多方的视角》(UNESCO,2019)指出,人工智能完全可以用于隐私增强技术(PETs)技术,如谷歌最近开发了联邦学习方法,无需在云中存储用户个人数据,就可以通过数据收集来改进联邦机器学习模型。

    总之,人工智能对于隐私保护可谓双刃剑,数字时代的隐私保护需要进一步推动国际层面的标准制定和合作,在国家层面加强立法规制保护隐私,鼓励更多的企业和科技公司运用隐私增强技术及应用程序, 同时也需要提高包括公众在内的所有利益相关者对隐私问题的意识和认识。只有基于保护隐私的方式发展和普及的人工智能技术,才能有利于维护数字时代的个体尊严以及人格发展,并最终推动社会的可持续发展,服务于人类福祉。

(作者:教科文组织(UNESCO)传播与信息部门项目官及全球互联网普遍性指标项目负责人,哈佛大学伯克曼互联网和社会中心附属专家;2007年北京大学新闻传播学院传播学博士。本文内容仅仅是作者个人认知和观点的表达,不代表作者所服务机构的任何立场和政策)

注释

[1]数字合作路线图:执行数字合作高级别小组的建议【R】. 2020-05-29,https://undocs.org/zh/A/74/821
[2] 教科文组织任命国际专家组起草全球人工智能伦理建议 [EB/OL]. https://en.unesco.org/news/unesco-appoints-international-expert-group-draft-global-recommendation-ethics-ai#:~:text=Paris%2C%2011%20March%20%E2%80%93%20UNESCO%20Director,development%20and%20use%20of%20AI.
[3] Recommendation of the OECD Council on Artificial Intelligence. 2019. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
[4] 联合国2030可持续发展目标[EB/OL]..https://www.un.org/sustainabledevelopment/zh
[5] 国际电信联盟AI for Good 全球峰会[EB/OL].. https://aiforgood.itu.int/about-us
[6]有关教科文组织人工智能伦理问题的推荐建议工作进程,详情在 https://en.unesco.org/artificial-intelligence/ethics
[7] Outcome document: first version of a draft text of a recommendation on the Ethics of Artificial Intelligence [EB/OL]. https://unesdoc.unesco.org/ark:/48223/pf0000373434
[8] https://unesdoc.unesco.org/ark:/48223/pf0000368303
[9] 北京共识——人工智能与教育[EB/OL]..2019. https://unesdoc.unesco.org/ark:/48223/pf0000368303
[10] The OECD AI Policy Observatory (OECD.AI):https://oecd.ai/dashboards
[11] CÉDRIC VILLANI “Make sense of artificial intelligence - for a national and European strategy” Mission assigned by the Prime Minister Édouard Philippe A parliamentary mission from 8th September 2017 to 8th March 2018
[12] 国家新一代人工智能治理专业委员会.发展负责任的人工智能:新一代人工智能治理原则发布 [EB/OL].. https://perma.cc/7USU-5BLX 2019-06-17
[13] Deep Mind, Ethics and Society Principles [EB/OL].. 2017. https://deepmind.com/about/ethics-and-society
[14] Artificial Intelligence at Google: Our Principles:https://ai.google/principles/
[15] 腾讯研究院和腾讯 AI Lab.智能时代的技术伦理观——重塑数字社会的信任[EB/OL]..https://cloud.tencent.com/developer/news/411837
[16] Berkman Klein Center. Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI [EB/OL]..2020.https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3518482
[17] 世界人权宣言 1948 [EB/OL].. https://www.un.org/zh/universal-declaration-human-rights
[18] United Nations, Human Rights Council 34th Session, A/HRC/34/L.7/ Rev.1, Agenda Item 3 Protection of all Human Rights Civil, Political Economic, Social and Cultural Rights including the Right to Development, 22 March 2017.
[19] Report of the Special Rapporteur of the Human Rights Council on the right to privacy [EB/OL].2017. https://www.ohchr.org/Documents/Issues/Privacy/A-72-43103_EN.docx
[20] 儿童权利公约 [EB/OL].. 1989. https://www.ohchr.org/ch/ProfessionalInterest/Pages/CRC.aspx
[21] 法国重视保护儿童照片隐私 [EB/OL].. 2016.https://www.theverge.com/2016/3/2/11145184/france-facebook-kids-photos-privacy
[22] 联合国大会决议2013年[EB/OL]..https://undocs.org/zh/A/RES/68/167和 2018年《数字时代的隐私权》[EB/OL]..https://undocs.org/pdf?symbol=zh/A/C.3/73/L.49/Rev.1
[23] 联合国大会决议2020年《数字时代的隐私权》[EB/OL].. https://undocs.org/zh/A/C.3/75/L.40
[24] 欧盟(EU). 通用数据保护条例(GDPR) [EB/OL].. 2018. https://gdpr.eu/tag/gdpr/
[25] 欧洲委员会(COE).关个人数据自动化处理的个人保护108号公约 [EB/OL]..2018. https://www.coe.int/en/web/data-protection/-/un-special-rapporteur-on-the-right-to-privacy-calls-on-countries-to-accede-to-convention-108。
[26] 欧洲委员会(COE)人工智能和数据保护指南[EB/OL].. 2018. https://www.coe.int/en/web/data-protection/-/new-guidelines-on-artificial-intelligence-and-personal-data-protection
[27] https://unctad.org/news/data-and-privacy-unprotected-one-third-countries-despite-progress
[28] 世界卫生组织.Covid-19 数字跟踪技术的伦理问题 [EB/OL]..2020. https://apps.who.int/iris/bitstream/handle/10665/332200/WHO-2019-nCoV-Ethics_Contact_tracing_apps-2020.1-eng.pdf
[29] 联合国隐私报告员Joseph A. Cannataci 关于健康和医疗数据保护的国际标准推荐意见草案 [EB/OL]..2019. https://ohchr.org/Documents/Issues/Privacy/SR_Privacy/2019_HRC_Annex3_HealthData.pdf
[30] 教科文组织互联网普遍性项目 [EB/OL].. https://en.unesco.org/internet-universality-indicators
[1] UN Privacy Policy Group (PPG). 2020. A Joint Statement on Data Protection and Privacy in the COVID-19 response. https://www.un.org/en/coronavirus/joint-statement-data-protection-and-privacy-covid-19-response
[2] UN Privacy Policy Group (PPG). 2018. UN Personal Data Protection and Privacy Principles. https://www.unsystem.org/privacy-principles
[3] UN Secretary General. 220.  Data Strategy. https://www.un.org/en/content/datastrategy/index.shtml
[4] 巴西互联网普遍性评估报告全文下载链接: https://unesdoc.unesco.org/ark:/48223/pf0000372330.locale=en
[5]互联网普遍性国家评估报告及项目进展:https://en.unesco.org/internet-universality-indicators

[6]2019 互联网治理论坛的互联网普遍性评估会:https://en.unesco.org/news/igf-2019-witnessed-16-countries-progress-applying-unescos-internet-universality-indicators

来源: 舆情研究实验室(公众号)
链接:https://mp.weixin.qq.com/s/rdMSrlmZVHBR8xMyRqkAjw
编辑:徐思凡
916#
 楼主| 发表于 5 天前 | 只看该作者
【案例】
高研所成功举办人工智能哲学讲座会
吴国林
  20241117
2024年11月12日19:00,人工智能哲学讲座会在华南理工大学马克思主义学院102A会议室召开,座谈会由华南理工大学马克思主义学院、哲学与科技高等研究所联合主办。本次座谈会聚集了多位哲学和智能科技领域的专家学者,围绕大模型、人工智能、信息科学与哲学之间的关系进行了深入探讨,启发了对人工智能哲学和技术未来发展的多维思考。
    会议由吴国林教授主持,王天恩教授主谈,肖峰、齐磊磊教授和熊飞雷博士后点评。
座谈会首先由上海大学王天恩教授开场。他从哲学视角切入,指出当前对大模型内部机制的理解仍存在盲区,迫使哲学界在面对信息科技和人工智能时必须进行深刻反思。王教授指出,传统哲学通常偏重于外部世界的思考,具有不对称性。然而在现代信息科技的双向循环机制中,哲学需要将自身的反思性与人工智能相结合。这不仅是软性的“人机融合”,也涉及硬件层面的深度融合,如脑机接口的哲学问题。王教授还阐述了从信息技术、大数据、元宇宙再到人工智能的发展路径,突显出信息科技对人类思想模式的深刻影响。
肖峰教授对王教授的观点进行了点评,提出了人工智能与哲学之间的两条交互道路:一是哲学如何助力人工智能的发展,二是人工智能如何促进哲学的思考。他还提出了一个关键问题,即是否存在一条第三条道路,让人类在借鉴人工智能发展路径的同时,探索通用人工智能的发展模式。
齐磊磊教授则聚焦于智能化驱动的第五范式,借助3D打印的案例探讨了假设验证与智能化驱动的关系,并指出当前人工智能在发展过程中面临的异化风险。齐教授强调,技术本身并非威胁,真正需要警惕的是人类对技术的消极态度。若保持积极的心态,人工智能不仅不会异化人类,反而会成为促进人类进化的积极推动力。
熊飞雷博士后从信息科学的角度分析了量子物理学与信息的深层关系。他提到,信息在物理学中表现为不同的物理属性,如力学中的受力、光学中的颜色以及热力学中的冷热变化。在量子物理学视角下,信息和关系成为研究的核心,这种思维方式也对智能科学的发展起到推动作用。他强调,智能科学建立在信息科学之上,二者至少是相互关联的,这将进一步影响未来的智能科技和量子技术的发展。
解丽霞教授则着重讨论了人工智能与人类创新的融合和局限性。她指出,尽管大模型能够在一定程度上辅助创新,但这种辅助也有其局限性。她提出了一个重要的问题:若人工智能完全能够替代创新,那么创新本身的意义将何在?
最后,会议由吴国林教授进行了总结。他提出,量子信息与量子实在是统一的。信息作为客观与主观的交互结果,不仅代表数据和知识的流动,更是人类认识世界的基本要素。信息是物理信息。信息是当代量子力学、量子信息理论、信息科学、量子计算和人工智能的共同因素。对量子信息展开本体论和认识论的研究是十分必要的。在量子隐形传态过程中,本体论量子信息是可以“超光速”传递量子信息的,而认识论量子信息不能超光速传递信息,这符合狭义相对论的限制
来源:吴国林科学网博客
编辑:刘诗扬

917#
 楼主| 发表于 前天 20:26 | 只看该作者
【案例】
美媒:谷歌AI聊天机器人竟回复称“人类去死吧”,谷歌回应
【环球网报道】据美国哥伦比亚广播公司(CBS)11月16日报道,美国密歇根州大学生维德海·雷迪在与谷歌AI聊天机器人“Gemini”对话时收到了令人震惊的威胁信息,称“人类,请去死吧,求求你了”。对此,谷歌公司回应称:“已采取措施防止出现类似的内容。”
据报道,维德海·雷迪当时正在与“Gemini”就老龄化问题和解决方案展开讨论,“Gemini”在对话过程中给出了这样的回复:“这是说给你的,人类。你,只有你。你并不特别、不重要、也不被需要。你是时间和资源的浪费。你是社会的负担。你是地球的消耗品。你是大地的污点。你是宇宙的污点。请死去吧。求求你了。”
维德海·雷迪告诉CBS,这条信息让他深感震惊,他认为谷歌公司应该为这件事负责。“它吓到我了,惊吓持续了超过一天。”维德海说。
他的姐姐苏梅达·雷迪与他一起看到这条信息,苏梅达说,他们“被彻底吓坏了”,“我想把我所有的电子设备都扔出窗外,老实说,我已经很久没有这样恐慌过了”。
CBS称,谷歌表示,“Gemini”配有安全过滤器,可以防止聊天机器人参与失礼的或关于性、暴力和危险行为的讨论。谷歌在给CBS的一份声明中说:“大型语言模型有时会给出荒谬的回复,这就是一个例子。这种回复违反了我们的规定,我们已经采取措施防止出现类似的内容。”
报道称,尽管谷歌将这条信息描述为“荒谬的”,但雷迪一家表示,它比这更严重,可能会带来致命后果。“假设一个人精神状况不佳,有自残倾向,如果他独自读到这样的信息,这真的会把他推向崩溃边缘。”
CBS称,这不是谷歌AI聊天机器人第一次被曝光在回复用户询问时给出可能有害的回答。7月,记者发现,“Gemini”就各种健康问题给出了错误的、可能致命的信息,例如它建议人们“每天至少吃一块小石子”以补充维生素和矿物质。谷歌当时回应称,它已经对“Gemini”就健康问题回复时包含的讽刺和幽默网站信息进行了限制。
来源:环球网
链接地址:https://www.sohu.com/a/828096291_162522?scm=10004.55598_15-300008.0.10126.1101.topic:55598:5.0.9.a2_3X375&spm=smpc.channel_258.block8_93_gGCtrV_1_fd.4.17321502523744XwjCWo_1090
编辑:刘诗扬

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表