传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
楼主: admin
打印 上一主题 下一主题

新闻伦理案例集锦

[复制链接]
1291#
发表于 2021-10-3 10:21:25 | 只看该作者
【案例】



编辑:蒋可心

1292#
发表于 2021-10-4 23:35:48 | 只看该作者
【案例】
37岁前女雇员揭露Facebook滔天罪行:用放大仇恨言论算法赚钱
新智元报道
来源:cbs
编辑:yaxin
【新智元导读】周日,前女雇员Frances Haugen在美国60 Minutes采访上揭露Facebook用放大仇恨言论的算法谋利。为了提高用户参与度,Facebook发现最好的方式便是向用户灌输恐惧和憎恨。
Facebook 数万页内部文件一夜之间尽数曝光!
告密者揭露了 Facebook 一直以来不肯承认的罪行——用「放大仇恨言论的算法」谋取利益。
这只披着羊皮的狼终现原形。
周日,告密者在美国 60 Minutes 节目上揭露了这个世界上最强大的社交媒体平台 Facebook 更多的内部运作机制。
与此同时,这位告密者也公布了自己的身份 —— Facebook前雇员Frances Haugen,并与《华尔街日报》分享了大量内部文件。

她表示,一家致力于产品优化的公司,却采用了放大仇恨言论的算法。
大量性爆炸指控都有哪些?
Facebook算法黑箱:抓住人性的弱点
此前一项数据显示,Facebook 在致力于反对仇恨言论所做的努力。
现在看来更像是一场笑话。


虽然该公司一再声称,至少在自己的产品上,它正在帮助阻止仇恨言论,但Haugen泄露的一份 Facebook内部文件表明:
「我们预计,我们的优化可能只会对Facebook3%-5%的仇恨言论、大约0.6%的暴力和煽动内容产生作用,尽管在这一点上我们已经做到世界上做好了。」


(观看完整视频请点击链接:https://mp.weixin.qq.com/s/A2i8DPVHIL9oXWos2aDJaA
另一份文件甚至更加直白:我们从各种渠道获得的证据表明,仇恨言论、分裂性政治言论以及 Facebook 和旗下其他应用程序的错误信息正在影响世界各地的社会。
Haugen声称问题的根源在于「2018年推出的算法控制了你在平台上看到的东西」。

你用手机滑动五分钟,可能只能看到100条内容。但是 Facebook 可以向你展示成千上万种选择。
该算法根据你过去接触最多的内容类型来推送信息,通过参与度优化内容。
她表示,Facebook为了提高用户的参与度,发现最好的参与方式便是向用户灌输恐惧和憎恨。
因为激发人们的愤怒比激发其他情绪更容易。
1.6国会暴乱,Ins青少年自杀倾向,还有什么?
当时,扎克伯格称算法的改变是正面的。
「我们觉得有责任确保我们的服务不仅仅是有趣的,而且有益于人们的福祉。」


对社会负面影响案例不是没有,2018年缅甸军方利用 Facebook 发动种族灭绝,包括种族暴力。
还有2020年大选,Facebook 明白其潜在的危险,因此启动了安全系统,以减少错误信息。



Haugen表示,许多变化都是暂时的, 选举一结束,他们就把安全系统关闭了。
但是,在选举之后,Facebook 被一些人用来组织16日的起义,即2021年美国国会大厦遭冲击事件。
检察官引用 Facebook 上的帖子作为证据——武装游击队员的照片和文字,包括「通过子弹或选票恢复共和国即将到来!」这样的信息。
这些极端分子使用了很多平台,但 Facebook 反复出现。
「当你消费更多内容时,Facebook 会赚更多的钱。」
Facebook编写算法的方式正在改变欧洲主要政党领导国家的方式。
Haugen获得的这份2019年的内部报告称,对算法的改变迫使他们在 Facebook上的沟通中产生负面影响,导致他们采取更加极端的政策立场。
除了Facebook,其危害也带到了 Instagram 上。
一项研究表明,13.5% 的青少年说 Instagram 让自杀的想法更糟糕; 17% 的青少年说 Instagram 让饮食失调更糟糕。
就在上周,Facebook 表示,它将推迟为更小的孩子创建 Instagram 的计划。

告密者是谁
「我在 Facebook 一次又一次地看到,对公众有利和对 Facebook 有利之间存在利益冲突。而 Facebook一次又一次地选择优化自己的利益,赚更多的钱。」




自上个月一位匿名的前雇员向联邦执法部门投诉以来,Facebook 一直急于知道告密者是谁。
此前投诉称,有证据表明,Facebook在反对仇恨、暴力和错误信息方面的问题上对公众撒了谎,但该公司一直隐瞒了它所知道的一切。
Frances Haugen今年37岁,是来自爱荷华州的数据科学家,拥有计算机工程学位和哈佛商学硕士学位。
根据一份已被删除的 LinkedIn 个人资料,Haugen 曾是 Facebook 的产品经理,被分配到 Civic Integretity 小组工作。
她在5月份辞职时偷偷拿走了一批 Facebook 研究资料,并向美国证券交易委员会泄露了一份内部研究报告,希望借此改善对该公司的监管。
她指出,自己曾在许多公司工作过,包括谷歌和 Pinterest,但在 Facebook,情况要糟糕得多,因为该公司希望将利益置于用户福祉之上。
参考资料:
https://www.theverge.com/2021/10/3/22707860/facebook-whistleblower-leaked-documents-files-regulation
https://www.cbsnews.com/news/facebook-whistleblower-misinformation-public-60-minutes-2021-10-03/
来源: 新智元
编辑:马皖雪



1293#
发表于 2021-10-7 17:00:54 | 只看该作者
【案例】
告密者:Facebook在反对仇恨言论、暴力、错误信息方面误导了公众
弗朗西丝·豪根(FrancesHaugen)说,在她在Facebook工作期间,她看到了“对公众有利的东西与对Facebook有益的东西之间的利益冲突”。斯科特·佩利报道。
她叫弗朗西斯·豪根。这是一个事实,自从上个月一位匿名的前雇员向联邦执法部门投诉以来,Facebook就一直渴望知道这个事实。这些投诉称,Facebook自己的研究显示,它放大了仇恨、错误信息和政治动荡--Facebook隐瞒了自己所知道的一切。一项指控称,FacebookInstagram伤害了十几岁的女孩。Haugen的抱怨之所以史无前例,是因为她在5月份辞职时进行了大量的Facebook私人研究。这些文件首先出现在上个月的“华尔街日报”(WallStreetJournal)上。但今晚,弗朗西丝·豪根透露了她的身份,以解释她为什么成为Facebook的告密者。


Facebook60分钟报告“Facebook告密者”的回应
Facebook告密者表示,公司鼓励“愤怒、两极分化、分裂的内容”。
观看现场:Facebook告密者弗朗西斯·豪根在参议院委员会作证
弗朗西斯·豪根:我在Facebook上一遍又一遍地看到,在对公众有益的东西和对Facebook有益的东西之间存在着利益冲突。而Facebook一次又一次地选择为自己的利益而优化,比如赚更多的钱。
弗朗西丝·豪根37岁,来自爱荷华州,拥有计算机工程学位和哈佛商学院硕士学位。15年来,她一直在谷歌(Google)Pinterest等公司工作。
弗朗西丝·豪根:我见过很多社交网络,在Facebook上,这比我以前见过的任何网站都要糟糕得多。
斯科特·佩利:你知道,其他人可能就辞职了,继续前进。我不知道你为什么要这么做。
弗朗西丝·豪根:想象一下,你知道Facebook里面发生了什么,你知道外面没有人知道。我知道如果我继续呆在Facebook里,我的未来会是什么样子。Facebook是一个接一个的人,一个接一个地在Facebook里解决这个问题,然后把自己压在地上。
斯科特·佩利:你是什么时候、怎么想到把所有这些文件都从公司拿走的?
弗朗西丝·豪根:2021年的某个时候,我意识到,“好吧,我必须系统性地做这件事,而且我必须要有足够的时间,没有人会怀疑这是真的。”
facebookvideo.jpg
弗朗西丝·豪根
她秘密复制了数以万计的Facebook内部研究报告。她说,有证据表明,该公司在反对仇恨、暴力和错误信息方面取得了重大进展,这是在向公众撒谎。她在今年的一项研究中发现,“我们估计,尽管我们是世界上最好的,但在Facebook上,我们的仇恨可能只有3-5%,而暴力和煽动行为仅占1%的六分之一。”
斯科特·佩利(ScottPelley):引用你带来的另一份文件,“我们有各种来源的证据表明,仇恨言论、分裂的政治言论、Facebook上的错误信息以及应用程序家庭正在影响世界各地的社会。”
弗朗西斯·豪根:当我们生活在一个充满愤怒、仇恨和两极分化内容的信息环境中,它侵蚀了我们的公民信任,侵蚀了我们对彼此的信心,侵蚀了我们相互关心的能力。今天存在的Facebook版本正在使我们的社会四分五裂,并在世界各地引发种族暴力。
“种族暴力”,包括2018年缅甸军方利用Facebook发动种族灭绝。
弗朗西丝·豪根告诉我们,她是在2019年被Facebook招聘的。她说,她同意接受这份工作,但前提是她必须克服错误的信息,因为她失去了一位被网络阴谋论所欺骗的朋友。
弗朗西丝·豪根:我从来不想让任何人感受到我所感受到的痛苦。在确保Facebook上有高质量的信息方面,我看到了风险有多大。
在总部,她被分配到公民廉正处,负责处理选举的风险,包括错误的信息。但在上一次选举之后,出现了一个转折点。
弗朗西斯·豪根:他们告诉我们,“我们正在瓦解公民的诚信。”比如,他们基本上说,“哦,很好,我们通过了选举。没有暴动。我们现在可以摆脱公民廉正。”快进几个月,我们就有叛乱了。当他们摆脱公民诚信的时候,我说:“我不相信他们真的愿意投资那些需要投资的东西,以防止Facebook变得危险。”
Facebook表示,公民诚信的工作已分发给其他部门。豪根告诉我们,Facebook问题的根源在于它在2018年对其算法所做的改变--决定你在Facebook新闻提要上看到什么的编程。
弗朗西丝·豪根:那么,你知道,你有你的手机。如果你坐下来滚动5分钟,你可能只会看到100条内容。但Facebook有成千上万的选项可以展示给你。
算法根据您过去参与最多的内容类型从这些选项中选择。
弗朗西斯·豪根:Facebook今天如何挑选内容的后果之一是--优化内容,以获得参与或反应。但它自己的研究表明,那些可恨的、分裂的、两极分化的内容比其他情绪更容易激起人们的愤怒。
斯科特·佩利:错误的信息,愤怒的内容--吸引着人们并保持--
弗朗西斯·豪根:非常诱人。
斯科特·佩利:--把它们放在站台上。
弗朗西丝·豪根:是的。Facebook已经意识到,如果他们改变算法,以更安全,人们将花费更少的时间在网站上,他们会点击更少的广告,他们会赚更少的钱。
豪根说,Facebook明白2020年选举面临的危险。因此,它打开了安全系统,以减少错误信息--但她说,其中许多变化都是暂时性的。
弗朗西丝·豪根:选举一结束,他们就把他们关掉,或者他们把设置改回到原来的位置,把增长放在安全之上。
对我来说,这真的是对民主的背叛。
Facebook表示,一些安全系统仍然存在。但是,选举后,Facebook被一些人用来组织16日的起义。检察官引用Facebook的帖子作为证据--武装游击队的照片和文字,包括:“以子弹或选票恢复共和国即将到来!”极端分子使用了许多平台,但Facebook是一个反复出现的主题。
袭击发生后,Facebook员工在Haugen复制的内部留言板上怒不可遏。“…,我们还没有足够的时间想出如何在不使用暴力的情况下管理话语吗?”我们寻找积极的评论,并发现,“我不认为我们的领导团队忽视数据,忽视异议,忽视真相…”但这得到了这样的回答:“欢迎来到facebook!我看到你刚刚在202011月加入…我们 一直在看…多年来公司领导层的一厢情愿的行为。“…。同事…不能为一家没有为减轻其平台的负面影响做更多工作的公司工作。“
斯科特·佩利(ScottPelley)Facebook本质上放大了人性最糟糕的一面。
弗朗西丝·豪根:这是这些不幸的后果之一,对吗?Facebook上没有人是恶意的,但动机是不一致的,对吗?比如,当你消费更多的内容时,Facebook会赚更多的钱。人们喜欢参与引起情绪反应的事情。他们接触到的愤怒越多,他们互动的越多,消费的也就越多。
这种动态导致了欧洲各大政党对Facebook的投诉。豪根获得的这份2019年内部报告称,“…强烈认为,算法的改变迫使他们在facebook…上的通信中歪曲负面,导致他们陷入更极端的政策立场。”
斯科特·佩利(ScottPelley):欧洲政党基本上是在对Facebook说,你写算法的方式正在改变我们领导国家的方式。
弗朗西丝·豪根:是的。你强迫我们采取我们不喜欢的立场,我们知道这对社会是有害的。我们知道,如果我们不采取这些立场,我们就不会在社交媒体市场上获胜。
她说,伤害的证据延伸到FacebookInstagram应用程序。
斯科特·佩利(ScottPelley):你发现的Facebook内部研究之一是关于Instagram如何伤害十几岁女孩的。一项研究显示,13.5%的少女说Instagram会让自杀的想法更糟糕;17%的少女说Instagram会使饮食失调更严重。
弗朗西丝·豪根:最可悲的是Facebook自己的研究表明,当这些年轻女性开始消费这个--这种饮食紊乱的内容--她们变得越来越沮丧。这实际上让他们更多地使用这个应用程序。因此,他们最终进入了反馈周期,他们越来越讨厌自己的身体。Facebook自己的研究表明,不只是Instagram对青少年是危险的,它还伤害了青少年,而且它明显比其他形式的社交媒体更糟糕。
Facebook表示,就在上周,它将推迟为年幼儿童创建Instagram的计划。
上个月,豪根的律师向美国证券交易委员会(SEC)提交了至少8份申诉,该委员会在金融市场上实施了这项法律。这些抱怨将公司内部的研究与公司的公众形象(通常是首席执行官马克·扎克伯格的脸)进行了比较。扎克伯格去年3月向国会远程作证。
马克·扎克伯格325日作证:
我们已经删除了可能导致即将到来的现实世界伤害的内容。我们建立了一个前所未有的第三方事实核查计划。系统并不完美。但这是我们找到的符合我国价值观的处理错误信息的最佳办法。
弗朗西斯·豪根的律师之一是约翰·泰。他是华盛顿一个名为“举报人援助”的法律组织的创始人。
斯科特·佩利:去美国证交会的法律理论是什么?你声称哪些法律被违反了?
约翰·泰伊:作为一家上市公司,facebook必须不对投资者撒谎,甚至不得隐瞒实质性信息。因此,美国证交会定期提起执法行动,指控Facebook等公司做出了重大错报和遗漏,对投资者产生了不利影响。
斯科特·佩利(ScottPelley)Facebook可能宣称的一件事是,她窃取了公司文件。
约翰·泰:十多年前通过的“多德-弗兰克法案”在证交会内部设立了一个告密者办公室。该法律的一条规定规定,任何公司都不得禁止员工与SEC沟通,不得与SEC共享公司内部文件。
弗朗西斯·豪根:我对马克有很多同理心。马克从来没有做过一个可恨的平台。但他已经允许做出选择,在这些选择的副作用是,可恶的,两极分化的内容得到更多的分发和更多的影响。
Facebook拒绝接受采访。但在一份长达60分钟的书面声明中,声明说:“我们的团队每天都必须在保护数十亿人公开表达自己的权利与让我们的平台成为一个安全和积极的地方的需要之间取得平衡。我们继续做出重大改进,以解决错误信息和有害内容的传播问题。建议我们鼓励不良内容,不做任何事情,这是不正确的。”
“如果任何研究都能找到这些复杂挑战的确切解决方案,那么科技行业、政府和社会早就该解决这些问题了。”
Facebook是一家价值1万亿美元的公司。它只有17岁,拥有28亿用户,占地球上所有互联网用户的60%。弗朗西斯·豪根计划本周在国会作证。她认为联邦政府应该实施监管。
弗朗西斯·豪根:Facebook已经证明他们不能独立行事,Facebook一次又一次地表明它选择利润而不是安全。它是在补贴,它是用我们的安全来支付利润的。我希望这会对世界产生足够大的影响,让他们有足够的毅力和动力去实施这些规则。那是我的希望。
Maria GavrilovicAlex Ortiz制作。广播助理米歇尔·卡里姆。作者声明:Michael Monulla
来源:CBS新闻
链接:https://www.cbsnews.com/news/facebook-whistleblower-frances-haugen-misinformation-public-60-minutes-2021-10-03/
编辑:马皖雪




1294#
发表于 2021-10-8 21:13:03 | 只看该作者
【案例】
【网曝#微信在后台反复读取用户相册# 每次长达1分钟】今日,有网友爆料称微信有在后台反复读取用户相册的行为。该网友开启了iOS 15的隐私新特性记录App活动,对所有App的隐私读取行为进行7天的监控,并使用App Privacy Insights对记录进行读取。监控发现,微信在用户未主动激活App的情况下,在后台数次读取用户相册,每次读取时间长达1分钟。对此,微信官方尚未回应。(快科技)http://t.cn/A6MayoWL[/cp]
来源:新浪科技
编辑:马皖雪

1295#
发表于 2021-10-8 21:43:25 | 只看该作者
【案例】

                                                                                                                  编辑:马皖雪
1296#
发表于 2021-10-9 21:57:10 | 只看该作者
案例
微信回应“后台读取相册”:便于快速发图,新版本中将取消
108日,有用户在网络贴出截图称“iOS版微信在后台反复读取用户相册”。
根据用户描述,新版iOS 15的“隐私”功能有“记录APP活动”,可以存储7天内APP访问位置或麦克风等数据,上述用户发现,微信在用户未主动激活应用的情况下,在后台数次读取相册,每次读取时间长达40秒至1分钟不等。
该用户同时表示,发现QQ、淘宝等多款国产软件也存在后台频繁读取用户相册的行为。对此,该用户表示质疑:“为什么要这么操作,究竟读取了什么额外信息,如何处理用户隐私?读取用户隐私信息必须要让用户知情,这是底线。”
8日晚间,微信向澎湃新闻回应称,iOS系统为APP开发者提供相册更新通知标准能力,相册发生内容更新时会通知到APP,提醒APP可以提前做准备,APP的该准备行为会被记录成读取系统相册。
当用户授权微信可以读取“系统相册权限”的前提后,为便于用户在微信聊天中按“+”时可以快速发图,微信使用了该系统能力,使用户发送图片体验更快速流畅。
微信表示,上述行为均仅在手机本地完成,最新版本中将取消对该系统能力的使用,优化快速发图功能。
前情回顾:
曝微信后台数次读取用户相册 每次长达1分钟
来源: 快科技
手机APP私自浏览用户文件、侵犯个人隐私的事件层出不穷,工信部也不止一次的公布名单,要求整改,但至今也未完全杜绝。
今天,有网友爆料称十几亿人都在使用国民APP——微信,居然有在后台反复读取用户相册的行为。
该网友开启了iOS 15的隐私新特性“记录App活动”,对所有App的隐私读取行为进行7天的监控,并使用App Privacy Insights对记录进行读取。
监控发现,微信在用户未主动激活App的情况下,在后台数次读取用户相册,每次读取时间长达1分钟。




这位用户的微信状态/权限设置如下:
1、用户前台未主动运行微信
2iOS默认开启微信后台应用数据刷新,未手动改变过状态。
3、上次使用微信后,直接上划返回主屏幕,没有彻底杀死后台
该网友还给出了应对方案:
1. 进入“设置”,下拉找到“微信”-“相册”,将“所有照片”改为“选中的照片”或“不允许”(需要注意的是,此项修改会在发图片时每次都要跳转,会很麻烦)。
2. 进入“设置”-后台App自动刷新,关闭微信该项权限。(ps.关闭微信此项权限不会影响微信的消息推送)
对此,微信官方尚未回应。
来源:网易新闻
编辑:马皖雪




1297#
发表于 2021-10-14 13:37:03 | 只看该作者
【案例】
脑机接口与增强智能的伦理倡议
本文英文版2021年1月19日以Declaration on the ethics of brain–computer interfaces and augmentintelligence为题在线发表于Springer出版社期刊AI and Ethics,并于2021年8月在该刊第一卷第3期正式刊出。英文版链接https://doi.org/10.1007/s43681-020-00036-x 此处为中文翻译版。
脑机接口(Brain Computer Interfaces,简称BCI)是脑科学与人工智能的交叉领域,有侵入性脑机接口和非侵入性脑机接口两类。侵入性脑机接口目前主要面向医疗领域,解决脑疾病、脑损伤患者的认知功能障碍。非侵入性脑机接口目前主要面向普通消费市场,用于增强和拓展人类认知功能。
脑机接口是修复、增强、扩展、延申人类智能的颠覆性技术,是实现增强智能(Augment Intelligence)的重要手段之一。增强智能的目的是作为辅助技术增强人类的智能与认知能力,而并非取而代之。脑机接口与增强智能技术的初衷之一是为了帮助患有运动神经功能障碍的病人[1]。当今的脑机接口技术除用于治疗伤害和疾病外[2],还可用来做游戏控制[3],帮助残疾人控制轮椅[4],帮助和提高学习效果[5],以及在军事领域应用[6]。
脑机接口技术虽然总体上前景广阔,特别是在医疗和扩展人类认知方面。但其发展目前处于非常初步的阶段,基于现有脑机接口技术的应用有很多存在不可控的风险。深部脑刺激(Deep Brain Stimulation,DBS)是一种用于治疗帕金森、严重强迫症、严重抑郁症等疾病的脑机接口技术,使用该方法治疗存在伤口感染、感觉异常、异常癫痫发作、脑出血、偏瘫、脑梗死、以及医源性伤害等风险[7,8]。
虽然这个领域近期的若干进展是令人鼓舞的[9],可一旦脑机接口技术足够成熟,能够实现不同类型的读心术任务并应用于各种场景,那么个人的所思所想也就再难保持私密,这对个人隐私和人类的主体性将提出重大挑战。此外,我们应当如何对待与利用脑机接口技术提高记忆和学习能力或提高身体行动能力的人并和其相处?被增强能力的人将比普通人获得更多利益是否公平?这些已经出现和可能出现的由脑机接口技术引发的伦理问题只是冰山一角。
倡议:
我们提倡发展以人为本,可持续发展的脑机接口与增强智能技术,确保相关技术与应用促进人类的繁荣。在深度融合已有伦理考虑的基础上[2,10,11,12,13],我们发出如下倡议:
1.  保护用户隐私:进行脑机接口科学实验和技术服务时,应注意大脑数据采集和解析的边界,如果获取到与用户相关的疾病信息、潜在健康隐患信息、以及其他用户隐私相关信息(如不愿意通过言语表达,而通过脑机接口设备获取的信息),应当对上述信息进行合理处理,应用上述信息要做到用户的知情同意,并提供用户授权撤销的机制。
2.  身份与责任认同:脑机接口技术有可能影响和动摇人类关于自我和个人责任的认知,包括道德责任和法律责任(例如人类在使用脑机接口技术相关设备时,由于训练不充分,使用者注意力不够集中[14]、黑客入侵、脑机接口设备故障等情况都有可能对外部环境和其他人类造成伤害,这些并非使用者的主观意愿)。因此,当应用脑机接口技术,特别是侵入性脑机接口技术于人体时,需要密切关注用户对于自我认知、身份认同和责任认同的变化,防止脑机接口技术对人类身份和责任认同的负面影响。
3.  决策能动性:脑机接口技术和增强智能设备在未能充分证明其低于人类水平的社会风险情况下,应避免应用于替代和削弱人类决策能力,人类的决策、判断能力的能动性应当予以尊重和维护。
4.  设备安全风险:脑机接口技术存在因设备植入或接触设备对人体造成感染、头疼等伤害[13],也会因其设备技术漏洞或设计缺陷等造成被人利用、容易出现故障等问题。因此,应做到必要的关键技术公开与透明以降低潜在风险,不断提升脑机接口设备的稳定性、安全性、自适应性,可靠性,尽可能避免设计漏洞对用户、其他人类及环境引起的负面负效应。脑机接口设备应当设置合理的安全机制与途径,尽可能避免可能产生负面负效应意图的实施。
5.  知情同意:脑机接口与增强智能产品与服务提供方需明确告知用户相关产品与服务的潜在风险并明确征得用户(若用户为患者可授权其他人,如家属)同意。用户(若用户为患者可授权其他人,如家属)有权提出中止使用相关产品与服务,相关服务提供商(包括医疗机构)应当遵循用户意愿做出相应调整。
6.  可问责:脑机接口与增强智能技术应当确保设计、研发、使用、部署等阶段可问责。关键技术应做到必要的公开,系统相关组成部分具有必要的透明性、可解释性、可预测性、能够确保故障、风险的可追溯。
7.  公平性:脑机接口与增强智能具备让使用者获得更强的认知和运动等能力的潜力,在同没有条件使用该技术的普通人竞争中有可能获得明显优势。发达地区、高收入人群比落后地区、普通人更容易获得脑机接口与增强智能技术增强其社会优势地位,进而有可能出现拉大贫富差距,形成就业、教育等社会活动中的各种不公平现象。因此,需要关注脑机接口技术增强现有人类智能带来益处的同时,可能引起的公平性争议。特别是在教育、竞争性工作、资源分配等相关领域应尽可能避免由于应用脑机接口与增强智能技术带来的不公平隐患。
8.  避免偏见:通过脑机接口等增强智能技术修复、增强的人类思维与行为可能与未应用相关技术的人类有所差异,但不应对应用脑机接口与增强智能技术的人产生偏见,并应充分尊重相关用户,不损害其尊严,确保其一切应有权利。
9.  适度使用:由于脑机接口与增强智能诸多方面目前仍处于发展初期,特别是相关设备的成熟度仍有待提高,并且其对人类的长期影响尚不明确。因此脑机接口与增强智能产品与服务的使用应遵循适度原则,建议经谨慎论证与评估,在必要的情况下使用,尽可能最小化对人类造成的负面影响。
10.避免误用:避免在对脑机接口与增强智能产品与服务潜在负面影响没有足够了解情况下应用相关产品与服务。避免在对相关产品与服务适用范围不了解情况下进行不恰当的应用。
11.禁止滥用和恶用:禁止滥用脑机接口与增强智能产品与服务侵害他人尊严和基本权利。禁止滥用相关技术破坏社会稳定、信任、公正、团结与和平。禁止恶意应用脑机接口与增强智能产品与服务从事不法活动或谋取不正当利益。禁止利用脑机接口与增强智能产品与服务的漏洞从事不法活动或谋取不正当利益。使用者不应滥用相关技术来规避自身责任。
12.多利益相关方治理:脑机接口的伦理问题需要来自脑与神经科学、医学、人工智能、材料学、电子工程、哲学、伦理学、社会学等诸多领域的相关学者和研究机构、技术创新企业及公众共同研讨并长期关注,各个国家、政府间组织等应当以民主的方式逐步建立多利益相关方参与的脑机接口与增强智能治理框架与机制,并进行实践与评估,从而为不断完善脑机接口与增强智能伦理及其落地提供支持。
伦理原则的制定只是负责任发展脑机接口与增强智能技术的起点。更重要的是从技术和社会角度践行原则,并建立行之有效的评估机制确保原则如预期地有效落实[15]。
脑机接口和增强智能系统不同于传统工具,例如刀这种仅有非常有限安全和风险防范措施的工具(如刀无法识别对人类和其他生物的潜在伤害并避免它们)。而脑机接口和增强智能系统的服务提供商应该更负责任,承担更多责任。为此,脑机接口和增强智能系统应设计有监控功能或相关组件,可用于监控和帮助避免对他人的特定类型的潜在伤害。因此,如果脑机接口和增强智能系统的用户意图采取行动伤害他人(甚至是自己),为应对此类风险,则应逐步设计和实施这种监控和风险防控机制与组件,并由此协助避免执行可能的负面意图实施,例如伤害他人。
缺乏合乎伦理考虑的脑机接口与增强智能研发与使用将极大降低公众对创新性技术的信任和接受程度[16],并有潜在风险对人类社会产生不可逆转的负面影响。在脑机接口与增强智能产品与服务的全生命周期嵌入伦理考量,并持续性进行多利益相关方的治理才能够确保相关技术的可持续发展,进而才能够确保相关技术应用促进人类社会的可持续发展,并最终为人类的繁荣和人类社会的可持续发展做出贡献。
参考文献:
[1]M. Lebedev, “Brain-machineinterfaces: an overview,” Translat.Neurosci., vol. 5,no. 1, pp. 99–110,Mar. 2014, doi: 10.2478/s13380-014-0212-z.
[2]P.R. Wolpe, “Ethical and Social Challenges of Brain-Computer Interfaces,”AMAJournal of Ethics, vol. 9, no. 2, pp. 128–131, Feb. 2007,doi:10.1001/virtualmentor.2007.9.2.msoc1-0702.
[3]V.al Conocimiento, “Video Games Controlled by Thoughts,” OpenMind, Mar.04,2020.https://www.bbvaopenmind.com/en/ ... rolled-by-thoughts/(accessedNov. 17, 2020).
[4]J.Tang, Y. Liu, D. Hu, and Z. Zhou, “Towards BCI-actuated smartwheelchairsystem,” Biomed Eng Online, vol. 17, Aug. 2018,doi:10.1186/s12938-018-0545-x.
[5]M.Spüler, T. Krumpe, C. Walter, C. Scharinger, W. Rosenstiel, and P.Gerjets,“Brain-Computer Interfaces for Educational Applications,” inInformationalEnvironments : Effects of Use, Effective Designs, J. Buder and F.W. Hesse,Eds. Cham: Springer International Publishing, 2017, pp. 177201.doi:10.1007/978-3-319-64274-1_8.
[6]The US military is trying to read minds. MIT Technology Review(2020).https://www.technologyreview.com ... omputer-interfaces/(accessedNov. 17, 2020).
[7]A.J. Fenoy and R. K. Simpson, “Risks of common complications in deepbrainstimulation surgery: management and avoidance: Clinical article,” JournalofNeurosurgery, vol. 120, no. 1, pp. 132–139, Jan. 2014,doi:10.3171/2013.10.JNS131225.
[8]F.Gilbert and M. Lancelot, “Incoming ethical issues for deep brain stimulation:whenlong-term treatment leads to a ‘new form of the disease,’” Journal ofMedicalEthics, p. medethics-2019, May 2020, doi:10.1136/medethics-2019-106052.
[9]Elon Musk’s Neuralink is neuroscience theater. MIT TechnologyReview.https://www.technologyreview.com ... uroscience-theater/(accessedDec. 01, 2020).
[10]R.Yuste et al., “Four ethical priorities for neurotechnologies and AI,”NatureNews, vol. 551, no. 7679, p. 159, 2017.
[11]A.Coin, M. Mulder, and V. Dubljević, Ethical Aspects of BCI Technology:What Isthe State of the Art?,Philosophies, vol. 5, no. 4, Art. no. 4, Dec.2020, doi:10.3390/philosophies5040031.
[12]A.Coin and V. Dubljević, TheAuthenticity of Machine-Augmented HumanIntelligence: Therapy, Enhancement, andthe Extended Mind,Neuroethics,Oct. 2020, doi: 10.1007/s12152-020-09453-5.
[13]L. Drew, “The ethics of brain–computerinterfaces,” Nature, vol. 571, no. 7766,Art. no. 7766, Jul. 2019, doi:10.1038/d41586-019-02214-2.
[14]J. Kögel, R. J. Jox, and O. Friedrich,“What is it like to use a BCI? – insightsfrom an interview study withbrain-computer interface users,” BMC Med Ethics,vol. 21, Jan. 2020,doi: 10.1186/s12910-019-0442-2.
[15]O.O’Neill, From Principles to Practice: Normativity and Judgement in EthicsandPolitics. Cambridge: Cambridge University Press, 2018.doi:10.1017/9781316286708.
[16]O.O’Neill, Autonomy and Trust in Bioethics. Cambridge: CambridgeUniversityPress, 2002. doi: 10.1017/CBO9780511606250.
支持:本研究得到中国科学技术部以及北京市科学技术委员会相关研究经费支持。
原文作者信息:
曾毅1,2,3,4、孙康1、鲁恩蒙1
1.  中国科学院自动化研究所
2.  中国科学院脑科学与智能技术卓越创新中心
3.  北京智源人工智能研究院
4.  中国科学院哲学研究所
来源:智能的本质与未来
编辑:古凤

1298#
发表于 2021-10-16 13:54:42 | 只看该作者
【案例】



编辑:古凤

1299#
发表于 2021-10-17 22:43:55 | 只看该作者
【案例】



编辑:古凤

1300#
发表于 2021-10-20 16:15:16 | 只看该作者

【案例】


又现吹哨人!Facebook华裔前员工将在英国议会作证


美国中文网综合报道一名华裔数据科学家将于本月晚些时候在英国议会就Facebook安全性作证。一周前,另一名Facebook吹哨人指责这家社交媒体巨头重利益而忽视安全。


据报道,Facebook前员工张学菲(Sophie Zhang)将于1025日在英国议会就该国“网络安全法案”草案作证。她曾在Facebook工作了近3年,去年被Facebook解雇时,她写了一份冗长的备忘录,详细说明了她认为该公司在处理仇恨和错误信息方面做得不够——尤其是在较小的发展中国家。张学菲还说,公司告诉她,她被解雇是因为工作表现不佳。


根据网络安全法案联合委员会的一份网上声明,针对Facebook的证词“将为委员会制定《网络安全法案》的工作提供信息,这是一项旨在规范社交媒体的重要立法,将于2022年提交给议会批准。”


一周前,另一名Facebook前数据科学家豪根(Frances Haugen)在国会参议院听证会上呼吁对这家社交媒体巨头加强监管。她批评Facebook的产品危害未成年人身心健康,并加剧了两极分化。


张学菲于周一在推特上表示,她愿意在美国国会作证。她还说,愿意“在任何其他民主国家的议会”公开作证。


在此前公开的张学菲的备忘录中,她写道,她“发现外国政府多次公然试图大规模滥用我们的平台,误导自己的公民,并在多个场合引发国际新闻。”


张学菲表示,她已向美国执法部门提供了“潜在违法行为”的详细文件。


豪根听证会后,Facebook驳斥了对其将利润置于安全之上的指控。Facebook首席执行官扎克伯格(Mark Zuckerberg)上周在一篇帖子中写道:“这些指责的核心是,我们把利润放在安全和幸福之上。事实并非如此。那种认为我们为了利润而故意推送让人们愤怒的内容的说法是非常不合逻辑的。”



来源:美国中文网



编辑:李佳怿

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表