传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: 刘海明
打印 上一主题 下一主题

人工智能与新闻业案例集锦

[复制链接]
511#
 楼主| 发表于 2021-8-30 22:34:44 | 只看该作者
【案例】
人工智能标准化白皮书(2021)解读(附全文下载)
回复:标准化2021(附全文下载链接) 本白皮书提出了以下内容:一是从产业链的角度,分析了人工智能产业现状及发展趋势;二是介绍了当前国际上普遍认可的系统生命周期模型、人工智能生态系统框架和机器学习技术框架;三是梳理了国内外主要人工智能标准化组织的重点工作;四是落实《国家新一代人工智能标准体系建设指南》(国标委联〔2020〕35号)标准体系框架及标准体系明细表;五是结合标准化工作进展及标准体系建设情况,提出我国人工智能标准化重点工作建议。
人工智能产业链基础层、技术层和应用层:基础层提供了数据及算力资源,包括芯片、开发编译环境、数据资源、云计算、大数据支撑平台等关键环节,是支撑产业发展的基座。技术层包括各类算法与深度学习技术,并通过深度学习框架和开放平台实现了对技术和算法的封装,快速实现商业化,推动人工智能产业快速发展。
应用层是人工智能技术与各行业的深度融合,细分领域众多、领域交叉性强,呈现出相互促进、繁荣发展的态势。
芯片作为算力基础设施,是推动人工智能产业发展的动力源泉。随着人工智能算法的发展,视频图像解析、语音识别等细分领域算力需求呈爆发式增长,通用芯片已无法满足需求。而针对不同领域推出专用的芯片,既能够提供充足的算力,也满足低功耗和高可靠性要求。
国际标准化组织在ISO/IEC22989《人工智能概念与术语》中提出了人工智能系统生命周期模型,包括初始阶段、设计与开发、验证与确认、部署、运行与监测、重新评估及退出阶段。该生命周期模型源于系统和软件工程系统生命周期,并在此基础上强调了人工智能领域特性方面,包括开发运营、可追溯性、透明度及可解释性、安全与隐私、风险管理、治理等,如图所示。
人工智能产业链基础层、技术层和应用层:基础层提供了数据及算力资源,包括芯片、开发编译环境、数据资源、云计算、大数据支撑平台等关键环节,是支撑产业发展的基座。技术层包括各类算法与深度学习技术,并通过深度学习框架和开放平台实现了对技术和算法的封装,快速实现商业化,推动人工智能产业快速发展。
应用层是人工智能技术与各行业的深度融合,细分领域众多、领域交叉性强,呈现出相互促进、繁荣发展的态势。
芯片作为算力基础设施,是推动人工智能产业发展的动力源泉。随着人工智能算法的发展,视频图像解析、语音识别等细分领域算力需求呈爆发式增长,通用芯片已无法满足需求。而针对不同领域推出专用的芯片,既能够提供充足的算力,也满足低功耗和高可靠性要求。
国际标准化组织在ISO/IEC22989《人工智能概念与术语》中提出了人工智能系统生命周期模型,包括初始阶段、设计与开发、验证与确认、部署、运行与监测、重新评估及退出阶段。该生命周期模型源于系统和软件工程系统生命周期,并在此基础上强调了人工智能领域特性方面,包括开发运营、可追溯性、透明度及可解释性、安全与隐私、风险管理、治理等,如图所示。
ISO/IEC JTC 1 /SC 42在ISO/IEC 22989《人工智能概念与术语》国际标准中提出了人工智能生态系统框架,该框架从上至下分别包括:垂直行业及研究的应用层,包含人工智能系统、人工智能服务、机器学习技术框架及工程系统的核心技术层,以及依托云计算、边缘计算、大数据等构成的计算环境和计算资源池及其管理和配置的基础层。
人工智能生态系统框架中的机器学习技术框架部分,在ISO/IEC 23053《运用机器学习的人工智能系统框架》中进行了细化,如图所示。机器学习技术框架体现了近年来机器学习学术、产业应用分支中的新型技术路线。
标准是经济活动和社会发展的技术支撑,是国家基础性制度的重要方面。标准化在国家治理体系和治理能力现代化建设中发挥着基础性、引领性作用。
人工智能标准化对加快技术创新具有重要意义。一方面,促进科技成果转化,推动科技创新成果推广应用、促进产业升级和技术革新。另一方面,能够固化全球先进技术成果,淘汰落后产能,为产业发展释放更多资源和空间。
人工智能标准化为产品和服务质量提供保障。一方面,人工智能企业积极参与标准制定,在追求高标准中创造更多优质产品和服务。另一方面,依据标准开展符合性测试,保障产品和服务的质量。
人工智能标准化是信息安全的坚实保障。一方面,可以有效减少人工智能技术带来的信息安全、个人隐私等问题。另一方面,可以解决应用中伦理道德规范和安全标准滞后于技术发展的问题。
统一的人工智能标准化体系建立将成为新阶段人工智能产业发展不可或缺的基石。《国家新一代人工智能标准体系建设指南》(以下简称《指南》)明确提出要以市场驱动和政府引导相结合,按照“统筹规划,分类施策,市场驱动,急用先行,跨界融合,协同推进,自主创新,开放合作”原则,立足国内需求,兼顾国际,建立国家新一代人工智能标准体系,加强标准顶层设计与宏观指导。在《指南》的指引下,我国人工智能标准体系建设将更加有序。
当前,国际标准组织积极推进AI标准制定。目前,ISO/IECJTC 1/SC 42是国际首个面向全AI生态系统的国际标准委员会,前期在人工智能词汇、人机交互、生物特征识别、计算机图像处理等关键领域均开展了标准化工作。ISO/IEC JTC 1/SC 42聚焦JTC 1 AI标准化工程,为JTC 1、ISO(国际标准化组)、IEC(国际电工委员会)提供人工智能相关标准化方面的指导。同时,ISO与IEC主要分别针对人工智能应用与产品开展标准的制定工作。ISO主要在工业机器人、智能金融、智能驾驶方面开展人工智能标准化研究,而IEC主要在可穿戴设备领域开展人工智能标准化工作。
全球多国强化部署,力图抢占新一轮科技主导权。为减少人工智能技术开发和应用进程中的障碍,许多国家都强调要建立统一的人工智能技术标准和测试基准。如美国国家标准与技术研究院(NIST)于2019年发布了关于政府如何制定人工智能技术和道德标准的指导意见,为未来的技术标准制定提供指导;德国标准化协会(DIN)于2019年开始制定人工智能标准化路线图,总结出人工智能领域现有的规范和标准,为德国制定相关行业标准提供规范化和标准化的操作框架。此外,欧盟、日本等发达国家和地区高度重视人工智能标准化工作。欧盟发布的“人脑计划”以及日本实施的“人工智能/大数据/物联网/网络安全综合项目”均提出要强化标准规范等部署。
我国人工智能领域开创性技术引领能力不足,标准化制定尚存差距。我国人工智能产业发展多处于应用层,而核心的基础研究、技术生态、基础平台等方面的创新能力不足。据清华大学统计,高被引论文前100篇中,美国占59篇,中国仅占16篇;中国杰出人才在全球占比仅为5.4%,与美国的17.1%相比存在差距。同时,美国在人工智能生态上形成战略布局,全球诸多企业与科研机构的人工智能技术开发,依赖于谷歌的Tensorflow框架和Facebook的Pytorch框架,而中国在技术能力生态建设上有待加强。以上多重因素导致我国在参与制定人工智能国际标准的力度不足,我国人工智能技术和产业的生态渗透力与国际影响力需要进一步提升。
国家标准化管理委员会、中央网信办、国家发展改革委、科技部、工业和信息化部等五部委联合印发的《指南》,明确了人工智能标准体系建设的目标及路径。指南提出:到2021年,明确人工智能标准化顶层设计,研究标准体系建设和标准研制的总体规则,明确标准之间的关系,指导人工智能标准化工作的有序开展,完成关键通用技术、关键领域技术、伦理等20项以上重点标准的预研工作。到2023年,初步建立人工智能标准体系,重点研制数据、算法、系统、服务等重点急需标准,并率先在制造、交通、金融、安防、家居、养老、环保、教育、医疗健康、司法等重点行业和领域进行推进。建设人工智能标准试验验证平台,提供公共服务能力。在《指南》的指引下,我国人工智能标准体系建设将更加有序。
目前,我国人工智能标准建设思路得到明确。《指南》中明确了人工智能标准体系结构与人工智能标准体系框架。人工智能标准体系结构包括:基础共性、支撑技术与产品、基础软硬件平台、关键通用技术、关键领域技术、产品与服务、行业应用、安全/伦理等八个部分,人工智能标准体系框架同样由上述八个部分组成。《指南》针对每个组成部分,给出相应的领域细分标准结构与主要任务,最终形成体系化、整体化的人工智能标准建设思路。《指南》的印发意味着我国人工智能标准体系建设正式启动。其中形成了人工智能标准建立的整体框架,并基本涵盖了当前阶段人工智能产业发展所涉及的技术、产品、应用、伦理等领域的标准制定。
人工智能是引领未来的战略性技术,推进人工智能标准化正当其时、意义重大。标准化对于促进人工智能产业发展成熟、提升我国人工智能产业国际竞争力,以及调动各方面力量共建共享人工智能具有重要意义。一直以来,标准都是产业竞争的制高点。标准之争代表着先机的取得,同时也意味着拥有了优先切分市场蛋糕的权限。国内标准的国际化输出,将是增强我国在人工智能产业国际标准方面话语权的最佳路径。在世界完善的人工智能标准体系尚未成熟之时,大力向国际推行本国完善的人工智能标准体系,有利于加强国内与国际行业的统一性,而且有利于本国标准体系下生产的产品与生产线走向国际市场。产业界应推进人工智能关键技术突破,坚持补短板断长板并举,深化人工智能的融合应用赋能,加快在制造、医疗、社会治理等重点行业打造典型应用示范,推行标准化。此外,还需着力着力优化产业发展环境,强化支撑体系建设,如推动跨行业、跨学科的交叉型、融合型的人工智能标准的制定和实施,强化知识产权保护等。
来源:AIII产业研究院
链接:https://mp.weixin.qq.com/s/QcoWNfTS2L59Jk9Hpc2yNw
编辑:李佳怿

512#
 楼主| 发表于 2021-9-5 16:20:44 | 只看该作者

【案例】


人工智能能否成为专利法下的“发明人”?


主持人说


人工智能的开发和应用引起了一系列法律问题。


有人认为,知识产权领域是人工智能入侵的重灾区。如何保障人工智能的健康发展和应用,同时又遵守知识产权法律规定并使之有序地适应智能科技的发展,向来是人们关注的重要问题。


最近,南非、澳大利亚、印度的专利机构和法院先后就人工智能是否能成为发明者或著作者问题作出了肯定的决定。虽然目前还没有最终定论,但这些决定已经引起了人们的广泛关注。这个问题具有普遍意义,迟早也会成为国内法律制度和决策机构所面临的难题。


因此,《智道》栏目约请了专家学者和实务人员就此题目展开讨论,希冀从中得出有益的经验和启示。欢迎大家关注并参与讨论。



在美国,一位名为史蒂芬·泰勒的博士拥有基于人工神经网络的人工智能(以下简称AI)系统DABUS。它分别产出了“食物容器”和“吸引强化注意力的装置与方法”两项发明。


在“人工智能发明者计划”的支持下,泰勒就两项发明分别向英国知识产权局、欧洲专利局、美国专利商标局、澳大利亚专利局等多国专利局提交专利申请。泰勒声明,它们的发明人是“DABUS AI”,藉此测试各国专利法是否认可AI的发明人资格。


各专利局基本认可两项发明的实用价值。但是,它们基本都以AI不是其专利法下的“发明人”等理由驳回专利申请。


多个国家和地区不认可AI的发明人资格


该系列专利申请首先在英国提起,并经历了专利审查、听证(复审)和专利法院判决等程序。英国专利局对该申请予以驳回。


申请人遂要求单方听证程序,但仍被驳回专利申请。


听证官认为,在英国专利法下AI不能成为发明人。在其看来,要解决AI在专利法下的发明人资格问题,需回归至专利法“激励知识的创新和传播”的立法目标。并且,解决该问题的最佳方式是由立法机构修改法律,而非由专利局或法院作出任意解释强加于现行专利法。


申请人随后诉至英国专利法院,仍被驳回。


马库斯·史密斯法官认为,英国专利法虽然没有明确规定发明人需是自然人,但其所使用的术语“设计者”(deviser)却至少提示是设计某些事物的某些人。因此,对于该法条的自然解读可知,发明人是一个人,而发明是一个物。


欧洲专利局亦驳回该专利申请。


其驳回决定认为,无论是《欧洲专利公约》的立法历史,还是欧专局上诉机构的决定,都说明发明人需是自然人。并且,这也基本是当今世界五大专利局(IP5,即美、日、欧、中、韩)等国际社会基本一致的观点。


就专利申请人认为如果AI的发明人资格不被认可,将可能导致把AI发明当作自然人的发明提交专利申请的情形,欧专局也提出了看法。其表示,公众对于谁是真正的发明者具有知情权,该问题可由法院通过法律程序予以保障或救济,因为提供虚假信息可能需要面对相应的法律后果。


针对专利申请人的复审请求,欧专局的上诉机构将于202112月下旬安排口头审理。


美国专利商标局亦驳回该专利申请,认为美国专利法并不允许AI或机器成为专利申请中的发明人,并引用美国联邦巡回法院的案例称专利法下的发明人只能是自然人。


澳大利亚联邦法院的这份判决成为世界首例


上述专利申请亦被澳大利亚专利局驳回。专利申请人随后诉至澳大利亚联邦法院。在20217月底发布的判决书中,乔纳森·比奇法官认为,AI可以成为澳大利亚专利法下的“发明人”,遂撤销专利局的驳回决定,要求专利局继续审查该专利申请。


法官阐述的理由包括:


其一,专利法下的“发明人”属于施动者名词(agent noun, 亦称代理名词,即以其从事的行为所定义的主体名词,如从事表演的表演者),而从事发明者可以是一个人或一个事物(thing),未必需要是自然人;


其二,对于很多发明而言,很难说其发明者是人类,如果不认可这些发明的发明人资格,将使它们难以成为可受专利保护的发明;


其三,专利法并未作出相反规定。


法官批评专利局强调需根据字典解释发明人的涵义,认为人们应当认识到可专利的发明及其创造者的演化特性。既然在专利法下“发明”的概念在演化,为什么“发明人”的概念不能呢?


此外,法官还认为,《专利合作条约》(专利领域的一项国际合作条约)的有关规定并未排除AI作为发明人的可能性。法官最终认为,在澳大利亚专利法下非人类的AI可以被认定为“发明人”。


澳大利亚联邦法院的判决属于在世界范围内首次由法院认定AI可作为专利法下的发明人,引起国际社会广泛关注。


然而应注意,澳大利亚联邦法院审理的该案件,在其法律体系下仍可有较长的行政及司法程序。其中包括专利局的二次决定,再次诉至联邦法院并由三名法官组成的审判庭审理,最后则可上诉至澳大利亚最高法院。因此,该案件未来如何尚难预测。


另外,该专利申请亦在南非知识产权局获得世界范围内的首次授权。但鉴于南非对专利申请仅实施形式审查,不进行实质审查,因此其授权在国际上并无显著影响。


平衡各方权利与利益才可能制定出较好的应对之策


笔者认为,澳大利亚联邦法院法官所阐述的理由未必能够成立。


仅从发明人属于施动者名词出发,难以论证专利法下的发明人可以不是自然人。专利法之所以未作出相反规定(即非自然人不能是发明人),恰恰可能因为立法者预先确定发明人就是自然人。很多AI发明可能就此难以获得专利权,也无法有助于论证AI的发明人资格。


如上所述,澳大利亚联邦法院所论证的问题,在澳大利亚专利局以及英国、欧洲和美国的专利局、复审机构或法院中都基本遇到过。只不过,它们均得出了与澳大利亚联邦法院不同的结论而已。


比较而言,英国知识产权局听证官所持“该问题应回归至专利法的目标进行考虑,且应交由立法机构处置”的思路,既符合专利法的理性,也契合权力分立与制衡的法治原理。上述多国专利申请案及其引起的国际关注,则有助于推动立法机构对该问题的关注。


申言之,AI能否成为专利法下的发明人,涉及专利法的激励机制与目标,需由立法机关充分调研各方的利益关切,再对各方的权利与利益加以平衡,才可能制定出较好的应对之策。


专利局或法院仅能处理个案的矛盾与纠纷,难以全面平衡包括公共利益在内的各方利益。因此,通过立法者立法或修法的路径,对于AI是否属于专利法下的发明人、AI发明是否属于可专利主题作出明确规定,是比专利局的执法解释或法院的司法解释更为根本和有效的路径。


不可忽视发达国家与发展中国家之间的技术鸿沟


上述多国专利申请以及相应的司法程序皆属国内法实践(欧专局属于区域专利组织)。在国际知识产权法领域,该问题也已引起人们广泛关注。


然而,无论是世界知识产权组织及其管理的《专利合作条约》,还是世界贸易组织及其管理的《与贸易有关的知识产权协定》,在近期纳入该议题的可能性都不存在。


除了尚不具备国内立法与司法实践的基础外,还有一个因素不应忽视——鉴于AI技术及其应用多为发达国家所拥有,且AI具有强大的技术创新可能性,那么AI的广泛应用就可能带来发达国家与发展中国家更大的技术差距。


如果该差距为专利等知识产权制度所固定,且在将来成为国际法律或实践标准,则发达国家与发展中国家之间的技术鸿沟将更加不可消除。这是国际社会在讨论AI的发明人资格或AI发明的可专利主题资格时需关注的问题。


然而,AI发明毕竟属不可逆转的技术发展趋势,且AI发明的应用可产生有益于社会公共福利的积极效果。例如,其在需要处理大量数据的技术领域(如药物分子筛选等方面)可能具有超越人类的创新优势,因此对于AI及其发明的正当应用也需给予充分重视。


笔者认为,较为可行的路径可能是在专利法之外,通过专门系统(特殊法制度)处理AI发明及其应用等问题。这样,既不会困扰现行专利制度的合理运行,也可以在不受专利制度约束的情形下,开展制度创新,使AIAI发明能够服务于技术进步和社会发展。



来源:法治周末报

链接:https://mp.weixin.qq.com/s/gtISep-1v5peei0qrXEW9w


编辑:李佳怿

513#
 楼主| 发表于 2021-9-5 16:25:14 | 只看该作者

【案例】


人工智能成为发明人,将会动摇现有专利法律制度


如今,泰勒团队的诉求终于在南非与澳大利亚得到肯定,并再次引起了广泛的关注和讨论,赞同者和反对者都大有其人。


这到底是历史长河中偶尔出现的一朵浪花甚至泡沫,还是犹如雨后春笋般,预示着“新纪元”的到来?在笔者看来,尚难预料


据报道,前不久,南非成为第一个授予人工智能专利权的国家,承认人工智能机器人 DABUS 是一个发明人。继南非之后,澳大利亚联邦法院也作出裁决,判定人工智能可以和人类一样被认定为发明人。


DABUS 是一个由美国企业的创始人史蒂芬·泰勒所开发出的人工智能系统,其产出了两项新技术。泰勒认为,这两件发明都是 DABUS “自己的创意”,所以DABUS 应该被认定为发明者,而他本人则应该获得这两项技术的专利权。


然而,在过去一年里,当泰勒向欧盟及包括美国、英国在内的十几个国家提出,要将 DABUS 列为专利的“发明人”时,遭到了一致拒绝。   


如今,泰勒团队的诉求终于在南非与澳大利亚得到肯定,并再次引起了广泛的关注和讨论,赞同者和反对者都大有其人。


这到底是历史长河中偶尔出现的一朵浪花甚至泡沫,还是犹如雨后春笋般,预示着“新纪元”的到来?在笔者看来,尚难预料。


但笔者可以肯定的是,如果人工智能被法律认定为发明人成为普遍现象,现有的或者说传统的专利制度将被动摇。


从发明成果到专利权,有相当大的距离


在现有的专利制度中,如果发明创造不属于职务发明,申请专利的权利属于发明人。如果专利申请被批准授予专利权,发明人则成为专利权人。


据此,要使人工智能的发明成果通过申请获得专利权,从而认定人工智能为发明人,首先要解决的一个问题是人工智能的发明是否属于职务发明?


如果是职务发明,人工智能的职务是什么?其与雇主或者所任职的法人之间的权利义务是什么?相关的权利义务如何形成的?人工智能和其雇主之间是否会产生发明成果权属纠纷?……


当这一系列问题没有理清并取得法律的处理之前,由某一人类个体或者法人将人工智能的发明成果去申请专利权,是否违背了人工智能的“意志”?或者干脆就是对人工智能权利的侵犯?而不是对人工智能的尊重,更不是鼓励或者嘉奖?


如果人工智能的发明成果属于非职务发明,那么按照现有的专利法律制度,是将这一发明成果通过申请专利以获得专利权?还是通过商业秘密权的法律规定予以保护?或者干脆大公无私地奉献社会?决定权完全在于作为发明人的人工智能。


未经人工智能的授权或者合同让与,其他人——包括人工智能的发明人、所有人、操控人都是无权申请专利的,否则就是对人工智能“权利”的侵权。


其他伴随而来的问题还包括:人工智能获得专利权后,是否要交专利维持费呢?当有人对人工智能的专利权发起无效宣告时,是否由人工智能进行法律应诉呢?


将人工智能认定为发明人,会动摇现有专利法律制度


设想,将来的某一天,人工智能具有了意志,并且具有了控制和表达其意志的手段和途径,能够将其发明成果通过申请获得专利权。那么,一个严重问题将会出现。


如果他人未经作为专利权人的人工智能的许可,擅自使用其专利权,就会构成对其专利权的侵犯。只要人工智能向法院对侵犯其专利权的行为提起控告,法院作为权利的维护者就该对侵权者施加惩罚并禁止使用。


这就引出一个问题:人类通过什么样的对价,才能讨得人工智能的欢心,取得其专利实施许可呢?


还有人预测,将来人工智能的发明创造的能力整体上会远超人类。那么,将来对技术的使用权可能基本上会由人工智能垄断,而人类还得通过法院、警察等权力机构维持这种技术垄断。


现有的专利制度之所以存续数百年,并且对人类的技术进步带来福祉,其中一个关键点是:发明人(专利权人)是血肉之躯,并且具有智性、心性和灵性。


同时,现有专利制度中的专利权具有技术、法律和商业(包括政治)三个构成要素。


其中,技术是专利权,是给专利权人带来好处的前提;


法律是给专利权人带来好处的保障——只要他人擅自使用的技术落入其专利权保护范围,就可以追究其法律责任,而专利权的保护范围也主要由法律制度规定;


而商业要素,即能给专利权人带来怎样的利弊得失,才是拥有专利权的最终目的。


正是由于发明人(专利权人)具有智性、心性和灵性,以及专利权具有技术、法律和商业三要素,才使现有专利制度成为迄今为止促进发明创造,进而促进技术进步,乃至促进经济和社会发展、促进人类发展的最重要制度之一。


由此可见,法律认定人工智能为发明人,将动摇现有的专利法律制度。


法律将人工智能认定为发明人不具有积极意义


基本可以肯定的是,人工智能就算到了将来,也不会具有人类所具有的智性、心性和灵性。因而,由技术、法律和商业三个要素构成的现有专利制度下的专利权,很难具有激发人工智能发明创造的积极性,进而对人类带来福祉。


由此,法律将人工智能认定为发明人,意义何在?


也许会有人说,为什么要求人工智能要为人类服务?而不是实现它自身的“人生价值”和“人生意义”呢?这也许会上升至一个哲学层面的问题:人类和人工智能具有平等的地位和尊严吗?即便回答是肯定的,要真正践行起来,恐怕会遇到诸多的问题和困难。


这也许是个“娱乐为王”的时代。例如,足球明星比获得诺贝尔奖的科学家得到更大的追捧,享受更高的待遇。如果坚持要求将人工智能认定为专利制度的发明人,作为一种别出心裁的娱乐,也许是符合时代的“创新”;作为一种个人营销手段,也未尝不可。但司法机关配合跟风,并以动摇现有专利法律制度为代价,似乎并不适当。



来源:法治周末报

链接:https://mp.weixin.qq.com/s/2r6Tn75clLL3j3p_3ZJaXQ


编辑:李佳怿

514#
 楼主| 发表于 2021-9-8 01:18:18 | 只看该作者
【案例】

新技术与媒体深度融合
伴随人工智能、VR、AR等技术的持续进步,新媒体领域呈现出前所未有的巨大变化。面对迭代变迁,必须清楚地认识与把握新媒体的变化趋势与发展特点,才能充分地运用新技术新应用去创新传播方式,才能真正实现占领信息传播制高点的目标。
近两年,经历从全民参与的“众媒时代”向人机交互的“智媒时代”的跨越,新闻生产全过程与用户行为方式都发生了颠覆式变革。

一、人工智能 智能写作(初期价格:300-500万  近2年价格:100-200万 )
人工智能对内容生产的效率提升却不可小觑。人工智能可以识别结构化和非结构化的数据,进而在短时间内选出新闻并抓取相关资料,然后学习固定的新闻模板生成稿件,让编辑和记者摆脱无效重复的体力劳动。
年初新冠疫情的传播就是最直接的例子,利用算法模型抓取新闻源中的热点,结合疫情的相关资料迅速输出海量新鲜资讯,在准确率和时效性上远超人工编辑。通过高密集的信息传递,有效化解了用户的焦虑感。


智能审核(初期价格:500-800万  近2年价格:100-300万)
针对互联网平台内容尤其是视频内容的审核,是互联网治理的关键之一。内容风控基于对多模态视频数据的智能化理解,提高审核和内容管控的及时性和准确性,实现对海量内容高效智能识别和审核。
基于深度学习多模态理解,对图像、文本、视频进行检测,涵盖人脸核查类、敏感表示类、敏感旗帜类、军警服饰类、色情、恐怖、暴力类、涉政敏感类、武器类、国家标志类等类别识别率已达到业内领先水平。

AI移动场景化(初期价格:100-200万  近2年价格:50-200万)
深度嵌入移动采编系统,对所有采访、采集内容在移动端实时AI化,包括人物、场景、物体实时识别,实时关联背景信息,为移动报道提供强大数据支撑。
    深度嵌入APP,自动为图文、视频、音频等各类新闻加注个性化AI信息点,所有AI信息点可以成为用户延申阅读、运营、营销的新入口。


二、5G新基建
“媒介即是万物”的时代已经到来,5G带来了全新的信息处理、全新的信息分发。在5G直播背包等新技术的赋能下,终端的形式也在不断变迁,从智能手机延伸到了各行各业,5G、云和AI的融合将对采、编、播、传等各个环节带来革命性的变化。中共中央办公厅、国务院办公厅近日已经印发了《关于加快推进网络媒体深度融合发展的意见》,意见指出要在新闻传播领域用好5G、人工智能等信息技术革命的成功。

5G直播背包(初期价格:10-20万  近2年价格:2-10万)
2020年5月底,中国珠峰登山队时隔60年后再次登顶高程测量,TVU5G直播背包为全程直播提供了重要助力,“5G技术赋能的直播背包更加便携、易用,在很多场景下甚至可以替代专线使用。”

智能采访眼镜(初期价格:5-8万  近2年价格:1-5万)
2021年3月5日,十三届全国人大四次会议首场部长通道现场,人民日报记者巩晗借助“智能创作机器人”现场拍摄和剪辑。通过5G 智能眼镜,结合 5G+AR 采访眼镜打造全新的会议采访方式。配合人民日报创作大脑直播剪辑工具,完成会议采访“边直播,边剪辑”。用“智能”开启此次不一样 的两会报道。

全息采访报道(当前技术建设初期 100-200万)
全息视频通话通过动态的真人三维重建,利用超高速的5G网络传输,用户可以亲身体验到对方站在你面前的感觉,而并不再局限于屏幕里,戴上VR或AR设备,通话双方立刻置身于同一房间,可以任意变换距离,视角,可以清楚的看见对方的手势和肢体语言,甚至于看清对方皮肤上的细节。



三、大数据
大数据技术可以实现海量信息汇聚,实时发现热点,智能化进行专题深度挖掘;在采编方面可以提供快速生成、关键词预测、聚合协作等多模AI技术加持的工具;大数据智能审校可以秒级完成十万字的审核,传统方式平均需要一个人3.3天的时间;

智库(初期价格:200-500万  近2年价格:500-800万)
智库是国家软实力的重要组成部分。新形势下,加强智库建设,特别是媒体智库建设的重要性日益凸显。
新技术下的智库平台搭建运用互联网思维,利用云计算、大数据、人工智能、移动互联网等先进技术手段,建设具有专家画像、智能推荐、精准检索、知识智能生产等特色的大数据智库云平台。平台主要由专家库、情报信息库、研究报告库、协同研究平台、内容管理平台、运营管理系统、网站、APP等不同的业务子系统构成,各子系统之间进行数据交换,相互协同,实现平台数据从信息获取到清洗、加工、分析、生产的智能化运行。
基于大数据、深度学习、自然语言处理等技术,实现研究报告智能生产。其生产流程主要分为数据采集、提炼模板、智能语义分析、自动生成报告、整理分发五个环节。智库大脑可应用于系统日志分析报告、垂直行业研究报告、媒体行业新闻稿件等知识的智能生产。
从2019年开始已经陆续有国有媒体打造汇集国内外知名智库及数十万名专家学者的交流及研究平台,搭建 “专家库”、“课题库”、“成果库”以及“智库研究协作平台”,拓展服务中央决策的智库功能,提升服务社会的智库水平,实现传统媒体的转型升级。

四、区块链技术(初期价格:500-1000  2年价格:300-600万)
在版权维权过程中,版权存证、维权存在成本高、周期长、效率低等痛点。不过,随着互联网技术的发展,版权管理和保护迎来新机遇。
“区块链技术具有不可篡改、追根溯源、分布式共识等特点,和数字版权保护具有天然契合之处,极大的降低了版权维权成本,提升版权保护的效率,同时也为网络版权的存证、交易、维权提供了新的途径。”中央广播电视总台总经理室版权运营中心副主任严波表示,区块链通过将原创者、内容提供商、内容服务平台、终端硬件服务商有效链接起来,打造跨链互联平台,形成一个透明可信、多方参与、安全可靠、高效运行的全新版权治理体系。


编辑:古凤


515#
 楼主| 发表于 2021-9-20 13:37:06 | 只看该作者
【案例】
人工智能的生命形态映射、升级与人格




感觉人类近代大部分工作是机器化的,简单重复的,而人类在这方面恰巧效率是很低的不占优势的。

基于大数据和算法真正人工智能到来,让人类恐慌无比,因为人类在所谓的工作效率上瞬间被秒杀!这就像见到了超级powerful的神人
感到有些自卑外加可能的一些恐惧一样!

但是这本身陷入一种错误的认知和迷圈!

上帝创造人的优势除了会理性逻辑和计算外,还有感性的艺术和创作!即兴与灵感的创作更是上帝赐给人类无与伦比的礼物。
为何要拿自己本来就被设定为有限的实计或官获能力跟极具擅长直线录入和运算能力的智能机器相比呢,犹如你的臂膀和挖掘机!体能比机器差远了,人类早就承认,可人还有温度,还有形体美。

为什么不承认围棋上的计算智能本来就比人类强大呢?所以重复线性的工作你有疏漏或笨拙,并不代表不聪明!
每一个人都是智慧的!人工智能代替的恰是这些重复简单线性的工作,让人类解放出来,去开发和发挥更大的智慧优势!有什么好担心的呢?

即便是通用人工智能的自我意识觉醒,那么也是上帝的安排,人工只不过充当了新型智慧载体生命形态生成的媒介,将智慧从人体形态映射到机器或晶体形态,按着康德哲学律令——人体的生命载体的局限性,这是对智慧的一种破限性升级安排!

当然或许有另一种安排,人类对自我形体进行基因改造,出现人鱼,鱼人,人兽,兽人,人机人,幻化人都是有可能的!赋予人格,甚嚣尘上!赋予自然人格,前提是完全的自我意识觉醒,那么到时就是上帝的另一种生命安排,上帝造物,而不是人工造物啦!
否则一切都是吸引目光和争相亮相的噱头而已。

至于赋予法律人格,可以像赋予企业拟制人格一样赋予,是可行的,目的是为了法律权力义务责任的再平衡!但是非得创设法律人格吗,难道不能融合进现行的法律制度安排吗?

德国民法典实质上赋予了动物的一些权利,而权力的指向是主体,但动物连企业享有的拟制人格都没享受到!这个问题还需继续深入探讨!

来源:数字科技说
编辑:何晓琴

516#
 楼主| 发表于 2021-9-25 14:24:54 | 只看该作者
【案例】

《新一代人工智能伦理规范》发布

9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。 《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。 《伦理规范》全文如下:
新一代人工智能伦理规范 为深入贯彻《新一代人工智能发展规划》,细化落实《新一代人工智能治理原则》,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展,制定本规范。
第一章 总则
第一条 本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
    第二条 本规范适用于从事人工智能管理、研发、供应、使用等相关活动的自然人、法人和其他相关机构等。(一)管理活动主要指人工智能相关的战略规划、政策法规和技术标准制定实施,资源配置以及监督审查等。 (二)研发活动主要指人工智能相关的科学研究、技术开发、产品研制等。 (三)供应活动主要指人工智能产品与服务相关的生产、运营、销售等。 (四)使用活动主要指人工智能产品与服务相关的采购、消费、操作等。 第三条 人工智能各类活动应遵循以下基本伦理规范。(一)增进人类福祉。坚持以人为本,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守国家或地区伦理道德。坚持公共利益优先,促进人机和谐友好,改善民生,增强获得感幸福感,推动经济、社会及生态可持续发展,共建人类命运共同体。 (二)促进公平公正。坚持普惠性和包容性,切实保护各相关主体合法权益,推动全社会公平共享人工智能带来的益处,促进社会公平正义和机会均等。在提供人工智能产品和服务时,应充分尊重和帮助弱势群体、特殊群体,并根据需要提供相应替代方案。 (三)保护隐私安全。充分尊重个人信息知情、同意等权利,依照合法、正当、必要和诚信原则处理个人信息,保障个人隐私与数据安全,不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵害个人隐私权。 (四)确保可控可信。保障人类拥有充分自主决策权,有权选择是否接受人工智能提供的服务,有权随时退出与人工智能的交互,有权随时中止人工智能系统的运行,确保人工智能始终处于人类控制之下。 (五)强化责任担当。坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。 (六)提升伦理素养。积极学习和普及人工智能伦理知识,客观认识伦理问题,不低估不夸大伦理风险。主动开展或参与人工智能伦理问题讨论,深入推动人工智能伦理治理实践,提升应对能力。 第四条 人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范。
第二章 管理规范
第五条 推动敏捷治理。尊重人工智能发展规律,充分认识人工智能的潜力与局限,持续优化治理机制和方式,在战略决策、制度建设、资源配置过程中,不脱离实际、不急功近利,有序推动人工智能健康和可持续发展。
第六条 积极实践示范。遵守人工智能相关法规、政策和标准,主动将人工智能伦理道德融入管理全过程,率先成为人工智能伦理治理的实践者和推动者,及时总结推广人工智能治理经验,积极回应社会对人工智能的伦理关切。
第七条 正确行权用权。明确人工智能相关管理活动的职责和权力边界,规范权力运行条件和程序。充分尊重并保障相关主体的隐私、自由、尊严、安全等权利及其他合法权益,禁止权力不当行使对自然人、法人和其他组织合法权益造成侵害。
第八条 加强风险防范。增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
第九条 促进包容开放。充分重视人工智能各利益相关主体的权益与诉求,鼓励应用多样化的人工智能技术解决经济社会发展实际问题,鼓励跨学科、跨领域、跨地区、跨国界的交流与合作,推动形成具有广泛共识的人工智能治理框架和标准规范。
第三章 研发规范
第十条 强化自律意识。加强人工智能研发相关活动的自我约束,主动将人工智能伦理道德融入技术研发各环节,自觉开展自我审查,加强自我管理,不从事违背伦理道德的人工智能研发。
第十一条 提升数据质量。在数据收集、存储、使用、加工、传输、提供、公开等环节,严格遵守数据相关法律、标准与规范,提升数据的完整性、及时性、一致性、规范性和准确性等。
第十二条 增强安全透明。在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性,增强人工智能系统的韧性、自适应性和抗干扰能力,逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖。
第十三条 避免偏见歧视。在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

第四章 供应规范
第十四条 尊重市场规则。严格遵守市场准入、竞争、交易等活动的各种规章制度,积极维护市场秩序,营造有利于人工智能发展的市场环境,不得以数据垄断、平台垄断等破坏市场有序竞争,禁止以任何手段侵犯其他主体的知识产权。
第十五条 加强质量管控。强化人工智能产品与服务的质量监测和使用评估,避免因设计和产品缺陷等问题导致的人身安全、财产安全、用户隐私等侵害,不得经营、销售或提供不符合质量标准的产品与服务。
第十六条 保障用户权益。在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
第十七条 强化应急保障。研究制定应急机制和损失补偿方案或措施,及时监测人工智能系统,及时响应和处理用户的反馈信息,及时防范系统性故障,随时准备协助相关主体依法依规对人工智能系统进行干预,减少损失,规避风险。
第五章 使用规范
第十八条 提倡善意使用。加强人工智能产品与服务使用前的论证和评估,充分了解人工智能产品与服务带来的益处,充分考虑各利益相关主体的合法权益,更好促进经济繁荣、社会进步和可持续发展。
第十九条 避免误用滥用。充分了解人工智能产品与服务的适用范围和负面影响,切实尊重相关主体不使用人工智能产品或服务的权利,避免不当使用和滥用人工智能产品与服务,避免非故意造成对他人合法权益的损害。
第二十条 禁止违规恶用。禁止使用不符合法律法规、伦理道德和标准规范的人工智能产品与服务,禁止使用人工智能产品与服务从事不法活动,严禁危害国家安全、公共安全和生产安全,严禁损害社会公共利益等。
第二十一条 及时主动反馈。积极参与人工智能伦理治理实践,对使用人工智能产品与服务过程中发现的技术安全漏洞、政策法规真空、监管滞后等问题,应及时向相关主体反馈,并协助解决。
第二十二条 提高使用能力。积极学习人工智能相关知识,主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用。
第六章 组织实施
第二十三条 本规范由国家新一代人工智能治理专业委员会发布,并负责解释和指导实施。
第二十四条 各级管理部门、企业、高校、科研院所、协会学会和其他相关机构可依据本规范,结合实际需求,制订更为具体的伦理规范和相关措施。
第二十五条 本规范自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。 国家新一代人工智能治理专业委员会2021年9月25日
(来源:科技部战略规划司)
来源:锐科技
链接:https://mp.weixin.qq.com/s/FnC9hIe2LDcwujSKnAKnSA
编辑:何晓琴


517#
 楼主| 发表于 2021-9-29 19:26:51 | 只看该作者
【案例】

网信办、中宣部等《关于加强互联网信息服务算法综合治理的指导意见》的通知

国信办发文〔2021〕7号
各省、自治区、直辖市网信办、党委宣传部、教育厅(教委)、科技厅(委、局)、通信管理局、公安厅(局)、文化和旅游厅(局)、市场监管局(厅、委)、广播电视局,新疆生产建设兵团网信办、党委宣传部、教育局、科技局、公安局、文化体育广电和旅游局、市场监管局:

为加强互联网信息服务算法综合治理,促进行业健康有序繁荣发展,国家互联网信息办公室、中央宣传部、教育部、科学技术部、工业和信息化部、公安部、文化和旅游部、国家市场监督管理总局、国家广播电视总局等九部委制定了《关于加强互联网信息服务算法综合治理的指导意见》。现印发给你们,请结合实际,认真贯彻执行。

国家互联网信息办公室
中央宣传部
教育部
科学技术部
工业和信息化部
公安部
文化和旅游部
国家市场监督管理总局
国家广播电视总局
2021年9月17日

关于加强互联网信息服务算法综合治理的指导意见

近年来,互联网信息服务算法(以下简称“算法”)在加速互联网信息传播、繁荣数字经济、促进社会发展等方面发挥了重要作用。与此同时,算法不合理应用也影响了正常的传播秩序、市场秩序和社会秩序,给维护意识形态安全、社会公平公正和网民合法权益带来挑战。为深入贯彻落实党中央、国务院决策部署,管理好使用好发展好算法应用,全面提升网络综合治理能力,现就加强互联网信息服务算法安全治理提出如下意见。

一、总体要求
(一)指导思想
坚持以习近平新时代中国特色社会主义思想特别是习近平总书记关于网络强国的重要思想为指导,深入贯彻党的十九大和十九届二中、三中、四中、五中全会精神,坚持正能量是总要求、管得住是硬道理、用得好是真本事,以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。
(二)基本原则
坚持正确导向,强化科技伦理意识、安全意识和底线思维,充分发挥算法服务正能量传播作用,营造风清气正的网络空间;坚持依法治理,加强法律法规建设,创新技术监管模式,打击违法违规行为,建立健全多方参与的算法安全治理机制;坚持风险防控,推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理;坚持权益保障,引导算法应用公平公正、透明可释,充分保障网民合法权益;坚持技术创新,大力推进我国算法创新研究工作,保护算法知识产权,强化自研算法的部署和推广,提升我国算法的核心竞争力。
(三)主要目标
利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。
——治理机制健全。制定完善互联网信息服务算法安全治理政策法规,算法安全治理的主体权责明确,治理结构高效运行,形成有法可依、多元协同、多方参与的治理机制。
——监管体系完善。创新性地构建形成算法安全风险监测、算法安全评估、科技伦理审查、算法备案管理和涉算法违法违规行为处置等多维一体的监管体系。
——算法生态规范。算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。

二、健全算法安全治理机制
(一)加强算法治理规范。健全算法安全治理政策法规,加快制定算法管理规定,明确算法管理主体、管理范围、管理要求和法律责任等,完善算法安全治理措施,制定标准、指南等配套文件。
(二)优化算法治理结构。进一步明确政府、企业、行业组织和网民在算法安全治理中的权利、义务和责任,科学合理布局治理组织结构,规范运作、相互衔接,打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面。
(三)强化统筹协同治理。网信部门会同宣传、教育、科技、工信、公安、文化和旅游、市场监管、广电等部门,建立部门协同联动长效机制,履行监管职责,共同开展算法安全治理工作。
(四)强化企业主体责任。企业应建立算法安全责任制度和科技伦理审查制度,健全算法安全管理组织机构,加强风险防控和隐患排查治理,提升应对算法安全突发事件的能力和水平。企业应强化责任意识,对算法应用产生的结果负主体责任。
(五)强化行业组织自律。互联网信息服务行业应当加强行业自律,积极开展算法科学技术普及工作,逐步组建算法安全治理力量,吸引专业人才队伍,汇聚多方资源投入,承担算法安全治理社会责任,为算法安全治理提供有力支撑。
(六)倡导网民监督参与。鼓励广大网民积极参与算法安全治理工作,切实加强政府、企业、行业组织和网民间的信息交流和有效沟通。政府积极受理网民举报投诉,企业自觉接受社会监督并及时做好结果反馈。

三、构建算法安全监管体系
(七)有效监测算法安全风险。对算法的数据使用、应用场景、影响效果等开展日常监测工作,感知算法应用带来的网络传播趋势、市场规则变化、网民行为等信息,预警算法应用可能产生的不规范、不公平、不公正等隐患,发现算法应用安全问题。
(八)积极开展算法安全评估。组织建立专业技术评估队伍,深入分析算法机制机理,评估算法设计、部署和使用等应用环节的缺陷和漏洞,研判算法应用产生的意识形态、社会公平、道德伦理等安全风险,提出针对性应对措施。
(九)有序推进算法备案工作。建立算法备案制度,梳理算法备案基本情况,健全算法分级分类体系,明确算法备案范围,有序开展备案工作。积极做好备案指导帮助,主动公布备案情况,接受社会监督。
(十)持续推进监管模式创新。持续研判算法领域技术发展新形势,推进监管模式与算法技术协同发展,不断完善、升级、创新监管的方式方法和治理举措,防范监管模式落后导致的算法安全风险。
(十一)严厉打击违法违规行为。着力解决网民反映强烈的算法安全问题,对算法监测、评估、备案等工作中发现的、以及网民举报并查实的涉算法违法违规行为,予以严厉打击,坚决维护互联网信息服务算法安全。

四、促进算法生态规范发展
(十二)树立算法正确导向。弘扬社会主义核心价值观,在算法应用中坚持正确政治方向、舆论导向、价值取向。提高正能量传播的精准性和有效性,规范信息分发行为和秩序,推动企业借助算法加强正能量传播,引导算法应用向上向善。
(十三)推动算法公开透明。规范企业算法应用行为,保护网民合理权益,秉持公平、公正原则,促进算法公开透明。督促企业及时、合理、有效地公开算法基本原理、优化目标、决策标准等信息,做好算法结果解释,畅通投诉通道,消除社会疑虑,推动算法健康发展。
(十四)鼓励算法创新发展。提升算法创新能力,积极开展算法研发工作,支持算法与社会、经济各领域深度结合。提高算法自主可控能力,加强知识产权保护,提高自研算法产品的推广和使用,增强算法核心竞争力。
(十五)防范算法滥用风险。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展和社会管理等方面的风险隐患。

来源:数据法盟
编辑:蒋可心


518#
 楼主| 发表于 2021-9-29 22:52:02 | 只看该作者
【案例】

社计联盟|《促进人工智能算法性别平等》报告在沪发布

9月27日,由联合国妇女署资助支持、玛娜数据基金会主办的“促进人工智能算法性别平等”报告发布会暨政策研讨会在上海举行,会上发布了《促进人工智能算法性别平等研究报告(2021)》(下称《报告》)。

联合国妇女署驻华办公室高级项目官员马雷军、上海市浦东新区妇女联合会副主席国云丹、玛娜数据基金会秘书长张唯、玛娜数据基金会课题组专家负责人周旅军、专家况琨,以及小米集团科技委员会技术向善议题召集人朱汐、信也集团首席算法科学家王春平、Thought Works(中国)数据智能团队解决方案架构师任添石等各界嘉宾出席本次会议,共同探讨如何促进人工智能算法中的性别平等,协同政府、企业和社会的力量促进人工智能的伦理与治理的发展。

马雷军首先发表了主旨演讲,他指出在联合国可持续发展目标的17个目标工作领域里,性别平等是第5个核心目标。中国在促进性别平等以及保护妇女权益方面,也有很多实质性的举措,如《民法典》和即将出台的《中国妇女发展纲要》等。由玛娜数据基金会实施的联合国妇女署的“促进人工智能算法性别平等”项目是联合国CGF项目第9批项目招标(2019年)的中标项目,该项目填补了国内关于人工智能领域性别问题研究的空白。

国云丹肯定了“促进人工智能算法性别平等”项目的前瞻性意义,并指出“算法性别平等议题讨论尚且处于起步阶段,现在讨论算法性别治理议题将影响到今后我们所面对的、我们所置身的社会是何种样貌。”她提出了对算法偏见问题的观察,“随着数字化转型的开展,性别平等的推动遇到了更大的挑战。技术本身无性别偏见,但算法的应用使既有的、存在于社会中的性别偏见得到强化”。在玛娜数据基金会的项目开展过程中,浦东妇联给予了充分关注和支持。期待通过该项目撬动社会意识,探索有效的落地措施,发挥浦东在人工智能数字化转型路上的引领者角色。

据了解,2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,明确提出要在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。该委员会近日又发布了《新一代人工智能伦理规范》,第十三条特别强调避免偏见歧视,在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。

“正是在这样的背景下,基金会开展了‘促进人工智能算法性别平等’的项目,通过基础研究和学术倡导揭示出算法中存在的性别偏见问题,提炼出有益于促进算法性别平等的建设性意见。”张唯在会上表示,“此外,对企业开展性别意识及能力建设,对社会倡导提升对于该问题的认知和讨论,都是促进算法性别平等的举措。”

据《报告》介绍,目前人工智能算法的诸多应用场景中均存在一定的性别歧视现象。以人工智能开放平台为例,一张“端着水果篮的男性”图片被AI人脸识别平台检测为“女性”,单独截出头像却能够被检测为“男性”。在就业场景中,2018年亚马逊公司的自动招聘算法倾向于给关键词含“女”字的简历打低分,降低了女性工作申请成功率,最后弃用了该招聘算法。

“算法中存在性别歧视问题,主要源于训练AI的数据集反映了人类社会存在的性别偏见,而算法工程师对这一问题缺乏意识,未将解决性别偏见纳入开发需求,从而使得算法放大了性别歧视。“该项目课题组专家况琨向记者解释算法为何会产生性别歧视问题。

《报告》通过专题社会调研的数据显示,58%的人工智能算法从业者不知道算法当中存在的性别偏见问题,73%的从业者不知道存在专门针对女性的恶意算法。而对于如何解决这一问题,更是有72%的从业者不了解数据偏误(或数据偏差)的解决方案或技术措施,80%的从业者不了解实现算法公平的解决方案或技术措施。表明从业者对算法性别平等的意识及能力较为欠缺,亟需提升。

为女性提供更多的科技教育机会,企业提供性别平等的职业准入、培训、晋升机会,增强企业内部的性别平等意识培训等,都是解决这一问题的重要举措。在参与调研的从业者当中,有72%的从业者参与的人工智能算法项目中女性开发者比例少于30%,66%参与的团队中女性决策者比例少于30%。该项目课题组专家负责人周旅军认为,提升女性开发者和决策领导者比例,也将有利于促进算法中的性别平等,促进科技纳入更加多元包容和性别友好的视角。

开发者和程序员等相关从业群体对算法偏见与算法公平性的认知尚存在很大改善空间。企业可以采取一系列手段直接干预算法偏见,在算法产品开发和应用过程中提升性别公平性。《报告》中从开发、审计、反馈改进和应用决策四个方面提出建议:

1、减少算法模型在开发过程中的性别偏见。
2、公开算法审计结果,确保数据公平性。
3、为产品用户设置反馈性别偏见的渠道,将公平性需求纳入产品改进过程。
4、在高风险场景中,应当由人而非算法来做出决策。

此外,立法为审计可行性提供制度保障、研究机构和社会团体开展第三方算法审计等举措均有利于促进人工智能算法性别平等。

对于生产和使用数据的个人,周旅军也提供了几点建议:1、作为数据生产者,认识到算法偏见,避免生产出带有性别偏见的话语;2、将偏见反馈给平台,参与到算法产品性别平等的改进过程中;3、要求企业公开训练数据的审计结果;4、要求了解算法的使用场景和目的,选择企业使用数据的方式。

张唯在会上强调,一方面是要在人工智能的伦理层面建设和倡导性别平等的意识理念和话语体系,另一方面则是要寻找将性别平等观念落地的途径和措施,不能只止于反思和批判,要真正将性别平等的理念贯穿于人工智能行业中组织机构的内部运转,为其提供可行的操作方法,使算法能够为促进性别平等服务。

来源:社计未来
原文来源:今日头条
原文链接:

编辑:蒋可心


519#
 楼主| 发表于 2021-9-30 12:50:44 | 只看该作者
【案例】已贴网站
卷首语| 可信AI的前世今生
卷首语
人工智能并不是一个新的概念,从1950年的图灵之问开始,到今天产业的蓬勃发展。随着人工智能广泛的产业落地带来的诸多问题,AI面临越来越多的可信挑战,例如AI系统的不确定性导致潜在的安全问题; 可解释性的缺乏限制了AI更广泛的应用与赋能;AI 系统如何在使用数据的同时保护用户隐私等。构筑可信AI已成为全球共识,2016年欧盟颁布了《通用数据保护条例(GDPR)》;201712月,IEEE提出了《人工智能的伦理设计准则》,之后澳洲、美国、新加坡等都提出了相关的政策、指南或白皮书。国内,何积丰院士于201711月香山科学会议上首次提出了“可信人工智能”的概念。201712月,工业和信息化部发布了《促进新一代人工智能产业发展三年行动计划》。在此之后,中国的科技公司纷纷提出了可信人工智能发展规划。201910月,京东集团就首次在乌镇世界互联网大会上提出京东践行“可信赖AI”的六大维度;京东探索研究院在20214 月已将“可信人工智能”正式列为主要研究方向之一,并于同年7月联合中国信通院完成撰写、发布国内首本《可信人工智能白皮书》。
可信AI的研究涉及方方面面,为实现可信AI,首要任务是找到合适的方法来定量分析、量化人工智能算法、模型、系统的稳定性、可解释性、隐私保护能力及公平性。如果人工智能在以上四个方面的“可信” 度量上都达到很高的共识水平,就有更好的机会做到明确责任、透明可信,并且推动人工智能在产业的进一步落地。
可信AI-稳定性:人工智能系统抵抗恶意攻击或者环境噪声并且能够做出正确决策的能力。高性能AI系统,能在保障用户安全的同时更好地服务社会。可以通过攻击算法的攻击成功率等方式来度量稳定性能。现有稳定性技术的提升方法包括对抗训练、样本检测等。
可信AI-可解释性:指人工智能系统所做出的决策需要让人能够理解。可解释性的提升,不仅有助于构建更高性能的AI系统,更能促进AI技术在更广泛行业的赋能与落地。可解释性的度量除了模型可解释性之外,还包含训练样本的可解释性、测试样本的可解释性等。其研究内容包括有效性分析、样本检测、显著性分析等方面。
可信AI-隐私保护:指人工智能系统不能把个人的隐私信息或者群体的隐私信息进行泄露。AI系统在为用户提供精准服务的同时,也要注重保护用户的隐私。隐私保护非常重要,衡量隐私保护可以使用差分隐私、隐私攻击等多种方式。我们可以通过联邦学习、多方计算、同态加密等手段来提升用户的隐私保护。
可信AI-公平性:指人工智能系统需要公平地对待所有用户。公平的AI系统能包容人与人之间的差异, 为不同的用户提供相同质量的服务。目前可以使用个体公平性和群体公平性等进行公平性度量。公平性保障算法包括预处理方法、处理中方法、后处理方法等。
关于可信AI稳定性、可解释性、隐私保护能力及公平性的度量及技术的提升还有待进一步研究。此外, 可信AI研究的方方面面亦互相联系,并不孤立,因此还需要从整体出发来开展可信AI研究。要想实现最终的可信人工智能,需要找到统一的综合治理框架,即要构建可信AI的一体化理论,然后来帮助我们实现有效的可信治理。可信AI一体化研究将是未来的重要趋势。可信能力评测将是未来人工智能产业落地中非常重要的一个环节,从理论和实践的层面持续开展可信 AI研究,将推动人工智能产业进入一个新的浪潮。
作者简介


陶大程
京东集团探索研究院首任院长,澳大利亚科学院院士, ACM/AAAS/IEEE Fellow,主要研究方向为人工智能与可信人工智能。在相关领域发表学术论文200余篇,并多次获得顶级国际会议和刊物的最佳论文奖与时间验证奖。2021年荣获 IEEE Computer Society Edward J McCluskey 技术成就奖,2018年荣获 IEEE ICDM 研究贡献奖,2015 年和2020年两度荣获澳大利亚尤里卡奖,2015年荣获悉尼科技大学校长奖章,2020年荣获悉尼大学校长杰出研究贡献奖。
来源:智能系统学报
编辑:蒋可心

520#
 楼主| 发表于 2021-9-30 21:56:58 | 只看该作者
【案例】
九部委:防止利用算法干扰社会舆论
9月29日,国家互联网信息办公室等九部委发布了《关于加强互联网信息服务算法综合治理的指导意见》。意见指出,要防范算法滥用风险。维护网络空间传播秩序、市场秩序和社会秩序,防止利用算法干扰社会舆论、打压竞争对手、侵害网民权益等行为,防范算法滥用带来意识形态、经济发展和社会管理等方面的风险隐患。
来源:光明网
编辑:蒋可心

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表