本期内容主要包含算法厌恶、可见性、算法新闻等,论文选自《Journal of Computer-mediated Communication》《New Media & Society》《Digital Journalism》等。
01 算法厌恶 How do people react to AI failure? Automation bias, algorithmic aversion, and perceived controllability 作者:S Mo Jones-Jang ,Yong Jin Park 来源:Journal of Computer-mediated Communication
尽管人们从人工智能(AI)中获得了很多好处,但一次不愉快的遭遇可能会将他们的欣赏转化为对AI的厌恶。这种负面经历尤其会在医疗、金融、招聘等涉及重大决策的领域产生重大影响。因此,本文研究人们在经历人工智能产生的负面影响后,如何感知和评估人工智能。与以往研究不同,之前有研究考察人们是否喜欢人工智能,这项研究旨在确定和理论化人们在经历人工智能决策导致的负面事件后的心理机制。
研究者进行了2组在线实验。研究1和研究2的结果表明,两种心理路径,即感知到的对预期一致性能的违反和感知到的人工智能的可控性,显著决定了人工智能决策的公平性判断。
具体而言,首先,当用户意识到人工智能无法实现预期功能时,他们倾向于对人工智能的失败后果做出相较于人主体更严厉的评估。其次,与人类相比,人工智能被认为对结果的控制力较弱,这种认知会使人们对人工智能带来的不满意结果进行更积极、可容忍的评价。
作者认为,该研究的发现突出了一些有趣的现象,这些现象表明人工智能具有其他技术所缺乏的独特品质。与其他技术不同,人工智能被认为可以像具有高度自主性的人一样思考和行动,能做出明智、独立的判断,同时也会犯下意想不到的错误。为了证明人工智能的人性,该研究利用了人类专家占据垄断地位的高风险场景,但研究表明,尽管人工智能具有半人半机器的特性,用户在做出关键人工智能决策时仍然高度看重人工智能类似机器的特性。
原文链接: https://doi.org/10.1093/jcmc/zmac029
02 可见性 Tactics of invisibility: How people in vulnerable positions make datafied everyday life livable 作者:Karoliina Talvitie-Lamberg 来源:New Media & Society
数据以及我们与数据的关系深刻地塑造了我们在成为一个数字主体方面的日常生活。各种数据平台迫使个人保持持续存在和可见性,并使日常生活中的监控文化正常化。所谓可见性,本文指的是当代数字生活的逻辑和它对被看见的要求。有一种隐含的紧张关系通过被看到的义务而产生:要在分享过多和分享不足之间取得平衡。
本文使用de Certeau开发的战术概念,目的是了解个人如何通过所谓的隐形战术使日常监控文化变得宜居。本文引用的实证证据包括对三个可能是弱势群体的成员进行的定性访谈和撰写的日记:未就业人员、无证人员和老年人。参与者在7到10天的时间里记录他们的日常生活,重点关注数字维度。参与者被要求每天至少记录一次他们与数字技术的接触,包括对自己经历的反思。采访和日记一样,都是在数据分析的背景下关注日常生活。研究人员和参与者讨论了参与者对互联网、数字服务和(社交)媒体的使用,以及相关的体验和感受。
基于分析,本研究得出了在这种情况下的三种策略:保持世界的距离、把自己裁剪在框架之外,以及避开。研究补充了之前将策略概念应用于数据化平台的研究,因为除了具体的策略之外,本研究还揭示了生活在数据化环境中的弱势群体的生活经历。研究结果明确了参与这些策略给参与者带来的感受。研究者发现,我们发现,将这些战术解释为与Phelan(2003)的 “可视性”意识形态的交会,为考虑个人使用这些战术的成本以及它们挑战现有权力结构的潜力提供了一种新的方式。
原文链接:https://doi.org/10.1177/14614448221136077
03 算法与新闻业 Go, Robots, Go! the Value and Challenges ofArtificial Intelligence for Local Journalism 作者:Alexandra Borchardt 来源:Digital Journalism
本文探讨了人工智能冲击下的新闻业危机以及解决方式。随着注意力经济的衰退和免费数字新闻的丰富发展,许多出版商都在缩减收入。此外,由于能源危机,传统媒体的印刷产品生产成本高昂。这对新闻从业者的工资、福利和工作保障都是不利的。工作要求越来越高,回报越来越少,新闻人何去何从?
文章指出,解决方案需要尽可能围绕数据分析和客户服务来推动订阅。人工智能驱动的数据新闻可以在许多方面提供帮助。机器人进行简单采访可以鼓励用户生成内容。交通堵塞和火车延误等数据点可以自动分析,以服务于特定地区。新闻内容可以根据位置和偏好进行个性化生产。此外,人工智能可以确保某些价值观在报道和新闻供应中得到反映,在不同的社区,它可以推送反映少数群体的内容,控制男性和女性是否被平等地报道,帮助突出显示具有重大意义的话题。
但同时,也必须关注人工智能运用带来的风险和挑战。首先,数据安全或保护问题非常重要,特别是在地方层面。其次,要减少对大型科技公司的依赖。必须集中力量为小型新闻室开发人工智能解决方案,只有他们才能被信任仔细评估特定领域的需要,并帮助其参与者实现其战略目标。第三,在旧的新闻界,以白人男性为主导的权力结构决定了发表的内容。在人工智能带来的新结构中,多样性需要得到支持和重视。第四,使用游戏化来改善新闻教育。当所有的常规工作都由人工智能覆盖时,记者需要其他形式的学习来练习和完善那些只有人类才有的技能。第五,道德监督至关重要,新闻的重点应该是“什么可以留给人工智能?”。
原文链接:https://doi.org/10.1080/21670811.2022.2149584
Chinese Digital Platform: “We Write What theAlgorithm Wants” 作者:Emeka Umejei 来源:Digital Journalism
2019年,中国内容共享平台Opera News Hub在尼日利亚推出,该平台使用推荐算法来管理和分发媒体内容。该平台使用推荐算法,帮助内容创作者“瞄准受众,帮助用户找到符合他们兴趣的内容”。Opera News Hub使用自动把关流程,在该流程中,推荐算法在发布内容之前对其进行审核。
为了创造吸引尼日利亚观众的内容,Opera News Hub招聘了资深编辑和记者,他们接受传统媒体实践的培训,来自不同的领域,包括社会与娱乐、政治、调查报道、商业等。
本研究聚焦于这一类内容创作者,试图阐明非洲记者在新闻制作和传播中亲身体验算法的感受。本研究是一项新颖的尝试,旨在填补学术文献中关于算法在过渡民主国家(如尼日利亚)数字平台上新闻制作和发布中的作用的空白,在这些国家,记者仍在努力应对数字媒体对传统新闻规范的入侵。
本文采用了内容分析、半结构化内部视图和焦点小组讨论(FGD)等方法。研究表明,Opera News Hub的推荐系统在个性化新闻的分发方面有效,但在内容生产者制作的媒体内容的把关方面有限。参与者一致认为,将新闻个性化引入尼日利亚媒体领域可能成为一个游戏规则的改变者,这将提高媒体业务并改善尼日利亚记者的福利。然而,有限的多样性仍然是新闻个性化的一个挑战。
原文链接: https://doi.org/10.1080/21670811.2022.2151026
编辑:邓秋雨 |
掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1 )
Copyright 2013 小马版权所有 All Rights Reserved.
Powered by Discuz! X3.2
© 2016-2022 Comsenz Inc.