传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 新闻聚焦 查看内容

社计联盟|《促进人工智能算法性别平等》报告在沪发布

2021-9-29 12:58| 发布者: 刘海明| 查看: 25| 评论: 0|原作者: 今日头条|来自: 社计未来

摘要: 社计联盟|《促进人工智能算法性别平等》报告在沪发布 9月27日,由联合国妇女署资助支持、玛娜数据基金会主办的“促进人工智能算法性别平等”报告发布会暨政策研讨会在上海举行,会上发布了《促进人工智能 ...


社计联盟|《促进人工智能算法性别平等》报告在沪发布


927日,由联合国妇女署资助支持、玛娜数据基金会主办的“促进人工智能算法性别平等”报告发布会暨政策研讨会在上海举行,会上发布了《促进人工智能算法性别平等研究报告(2021)》(下称《报告》)。


联合国妇女署驻华办公室高级项目官员马雷军、上海市浦东新区妇女联合会副主席国云丹、玛娜数据基金会秘书长张唯、玛娜数据基金会课题组专家负责人周旅军、专家况琨,以及小米集团科技委员会技术向善议题召集人朱汐、信也集团首席算法科学家王春平、Thought Works(中国)数据智能团队解决方案架构师任添石等各界嘉宾出席本次会议,共同探讨如何促进人工智能算法中的性别平等,协同政府、企业和社会的力量促进人工智能的伦理与治理的发展。


马雷军首先发表了主旨演讲,他指出在联合国可持续发展目标的17个目标工作领域里,性别平等是第5个核心目标。中国在促进性别平等以及保护妇女权益方面,也有很多实质性的举措,如《民法典》和即将出台的《中国妇女发展纲要》等。由玛娜数据基金会实施的联合国妇女署的“促进人工智能算法性别平等”项目是联合国CGF项目第9批项目招标(2019年)的中标项目,该项目填补了国内关于人工智能领域性别问题研究的空白。


国云丹肯定了“促进人工智能算法性别平等”项目的前瞻性意义,并指出“算法性别平等议题讨论尚且处于起步阶段,现在讨论算法性别治理议题将影响到今后我们所面对的、我们所置身的社会是何种样貌。”她提出了对算法偏见问题的观察,“随着数字化转型的开展,性别平等的推动遇到了更大的挑战。技术本身无性别偏见,但算法的应用使既有的、存在于社会中的性别偏见得到强化”。在玛娜数据基金会的项目开展过程中,浦东妇联给予了充分关注和支持。期待通过该项目撬动社会意识,探索有效的落地措施,发挥浦东在人工智能数字化转型路上的引领者角色。


据了解,2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南,明确提出要在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视。该委员会近日又发布了《新一代人工智能伦理规范》,第十三条特别强调避免偏见歧视,在数据采集和算法开发中,加强伦理审查,充分考虑差异化诉求,避免可能存在的数据与算法偏见,努力实现人工智能系统的普惠性、公平性和非歧视性。


“正是在这样的背景下,基金会开展了‘促进人工智能算法性别平等’的项目,通过基础研究和学术倡导揭示出算法中存在的性别偏见问题,提炼出有益于促进算法性别平等的建设性意见。”张唯在会上表示,“此外,对企业开展性别意识及能力建设,对社会倡导提升对于该问题的认知和讨论,都是促进算法性别平等的举措。”


据《报告》介绍,目前人工智能算法的诸多应用场景中均存在一定的性别歧视现象。以人工智能开放平台为例,一张“端着水果篮的男性”图片被AI人脸识别平台检测为“女性”,单独截出头像却能够被检测为“男性”。在就业场景中,2018年亚马逊公司的自动招聘算法倾向于给关键词含“女”字的简历打低分,降低了女性工作申请成功率,最后弃用了该招聘算法。


“算法中存在性别歧视问题,主要源于训练AI的数据集反映了人类社会存在的性别偏见,而算法工程师对这一问题缺乏意识,未将解决性别偏见纳入开发需求,从而使得算法放大了性别歧视。“该项目课题组专家况琨向记者解释算法为何会产生性别歧视问题。


《报告》通过专题社会调研的数据显示,58%的人工智能算法从业者不知道算法当中存在的性别偏见问题,73%的从业者不知道存在专门针对女性的恶意算法。而对于如何解决这一问题,更是有72%的从业者不了解数据偏误(或数据偏差)的解决方案或技术措施,80%的从业者不了解实现算法公平的解决方案或技术措施。表明从业者对算法性别平等的意识及能力较为欠缺,亟需提升。


为女性提供更多的科技教育机会,企业提供性别平等的职业准入、培训、晋升机会,增强企业内部的性别平等意识培训等,都是解决这一问题的重要举措。在参与调研的从业者当中,有72%的从业者参与的人工智能算法项目中女性开发者比例少于30%66%参与的团队中女性决策者比例少于30%。该项目课题组专家负责人周旅军认为,提升女性开发者和决策领导者比例,也将有利于促进算法中的性别平等,促进科技纳入更加多元包容和性别友好的视角。


开发者和程序员等相关从业群体对算法偏见与算法公平性的认知尚存在很大改善空间。企业可以采取一系列手段直接干预算法偏见,在算法产品开发和应用过程中提升性别公平性。《报告》中从开发、审计、反馈改进和应用决策四个方面提出建议:


1、减少算法模型在开发过程中的性别偏见。

2、公开算法审计结果,确保数据公平性。

3、为产品用户设置反馈性别偏见的渠道,将公平性需求纳入产品改进过程。

4、在高风险场景中,应当由人而非算法来做出决策。


此外,立法为审计可行性提供制度保障、研究机构和社会团体开展第三方算法审计等举措均有利于促进人工智能算法性别平等。


对于生产和使用数据的个人,周旅军也提供了几点建议:1、作为数据生产者,认识到算法偏见,避免生产出带有性别偏见的话语;2、将偏见反馈给平台,参与到算法产品性别平等的改进过程中;3、要求企业公开训练数据的审计结果;4、要求了解算法的使用场景和目的,选择企业使用数据的方式。


张唯在会上强调,一方面是要在人工智能的伦理层面建设和倡导性别平等的意识理念和话语体系,另一方面则是要寻找将性别平等观念落地的途径和措施,不能只止于反思和批判,要真正将性别平等的理念贯穿于人工智能行业中组织机构的内部运转,为其提供可行的操作方法,使算法能够为促进性别平等服务。


编辑:蒋可心


鲜花

握手

雷人

路过

鸡蛋

最新评论

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.