传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
传媒教育网 学术经纬 查看内容

透视算法黑箱:数字平台的算法规制与信息推送异质性(上)

2024-2-18 15:06| 发布者: 刘海明| 查看: 53| 评论: 0|原作者: 刘河庆、梁玉成|来自: 《社会学研究》2023年第2期

摘要: 本研究借鉴实验和逆向工程方法,通过设置若干虚拟账号与数字平台进行长时间真实互动,以尝试真正进入算法的政治化空间,分析算法规制对用户信息获取异质性的影响。

本研究借鉴实验和逆向工程方法,通过设置若干虚拟账号与数字平台进行长时间真实互动,以尝试真正进入算法的政治化空间,分析算法规制对用户信息获取异质性的影响。实证结果揭示了数字时代算法规制的高度复杂化、精细化和隐蔽化。从信息主题维度看,算法增加了个体获得多样化主题信息的机会。从信息语义维度看,算法强化了过滤气泡效应,出现信息推送的窄化和固化,不同个体被算法框定在语义向量空间中相对固定的位置,只被推送特定语义维度的信息。

一、引言

算法无处不在。数字时代,信息呈井喷式爆发,过去留给个体的操作、决策和选择空间越来越被基于计算机代码所编写的算法所取代。算法及其推动的工具、服务和平台通过处理人工难以处理的海量复杂数据,在众多领域扮演着愈加重要的角色,成为连接、重组和调解数字社会与真实社会的关键部分(Cheney-Lippold,2017)。向用户推送新闻和短视频(Bail,2021)、外卖骑手的派单与送餐路线(陈龙,2020)等,都是算法应用的丰富场景。

鉴于算法已成为当代社会生活的重要组成部分,学界迫切需要对算法及其影响给予批判性和经验性的关注,进而对算法如何重组、调解、动员原有社会关系(Ruppert et al.,2013)及其潜在的影响形成更为清晰的认识。以数字平台广泛应用的信息推荐算法为例,信息推荐算法通过自动为用户筛选和推送信息流,同时影响和塑造个体信息获取与社会整体的舆论和心态(Perra & Rocha,2019)。与信息推荐算法在数字时代扮演的关键角色不匹配的是,目前学界对算法如何具体影响信息的扩散、分化仍有较大争议。例如,算法究竟是为用户解锁高质量的多样化信息,还是不断迎合个体喜好而过度推送特定类型的信息,从而将用户锁定在单一、狭窄的过滤气泡之中?超大规模、超高频次的算法与个体行为的动态互动会将不同个体带到信息空间中的哪个位置?是否会因此加剧不同用户间信息的隔离与分化?对上述问题的回答不仅有助于我们厘清算法对个体信息获得、社会知识生产以及公众观念极化等重要议题的影响,而且也是理解作为当代重要技术物的算法如何行使权力以及如何塑造数字时代的社会关系与社会现实的关键(Burrell & Fourcade,2021;王天夫,2021)。

对上述问题作出实证回答并不容易。一方面我们所关心的算法通常非常复杂,晦涩难懂,处于不透明、难追踪的黑箱状态(Mittelstadt et al.,2016),平台公司较少详细公布平台算法架构或工作细节,研究者直接获得平台公司的数据更是难上加难。另一方面,即使研究者拥有足够的技术基础且可以获得部分算法架构或运作细节,仍难以有效分析算法对社会现实的影响,原因在于算法影响社会的突出特征是一种算法介入的社会(algorithmically infused societies)出现(Wagner et al.,2021;Perra & Rocha,2019),具体表现为算法、训练数据集、外部约束条件以及庞大个体用户群之间超大规模、超高频次的循环互动。这种拉图尔意义上的不同行动者高度复杂的动态网络(Latour,2005),意味着我们的研究对象不是一个简单的、确定性的算法黑盒,而是庞大的、网络化的、与社会现实高频互动的算法系统(Seaver,2017)。因此,我们不能仅在技术意义上讨论算法,也难以仅通过公开的部分算法原理和代码来准确分析算法的社会影响(Brown et al.,2021),算法的上述特征给社会科学实证研究带来巨大挑战。

针对上述难题,本文借鉴实验和逆向工程方法,将虚拟账户作为研究工具,通过对参与主体的属性进行虚构观察,关注其与算法、数字平台的长期交互结果,进而尝试真正进入算法的政治化空间(Amoore,2020),以此透视算法黑箱,实证分析算法规制对用户信息获取异质性的影响效应。具体而言,本文尝试以T平台这一高度强调算法的信息推送数字平台为例,设置155个不同信息点击行为的虚拟个体账号,使每个账号按照设定的点击偏好与平台进行25天的持续互动,进而收集不同账号在该平台包含233973个推送信息流(news feed)以及超过294万条具体信息在内的推送信息大数据。基于该数据,本文从信息主题异质性与语义异质性两个分析维度对比平台为不同虚拟用户推送信息的具体结构和内容的异同,进而探讨数字时代算法对个体信息获取和个体间信息分化的潜在影响以及对治理的启示。

二、文献评述

(一)算法作为社会权力

算法在计算机科学中通常被理解为“完成给定任务的控制结构”(Beer,2015),然而算法并非在真空中运行,社会科学研究更为关注算法的社会属性与社会后果(邱泽奇,2017)。例如,算法规制(algorithmic regulation)关注算法在建构社会秩序方面所扮演的角色(Kitchin,2017),杨(Karen Young)和洛奇(Martin Lodch)将算法规制定义为规制某一领域行为的决策系统,其通过对大规模数据进行学习,来管控风险、改变行为,以便实现预定目标(杨、洛奇编,2020)。简单来说,算法规制即算法依据海量数据对目标群体进行分类(Amoore,2020),根据分类结果进行自动决策,从而替代传统人工进行的规制,而算法作为社会权力正是来源于上述自动分类和决策过程(Burrell & Fourcade,2021;Thorson et al.,2021)。

与传统人工对个体的识别和分类不同,算法识别“我们是谁”是由无数诠释层组成的,分类的目标也有成千上万个(性别、喜好等),个体随意点击或浏览行为都可能成为分类决策的一部分(Amoore,2020)。现实中清晰的身份变成数字平台中概率化、碎片化以及快速变动的身份,因此算法规制的主要特征就是其动态的模块化控制(Koopman,2019;段伟文,2019)。在这一过程中算法如何实施权力、基于何种标准决定我们从属于特定身份的概率则是一个黑箱,难以知晓(Burrell & Fourcade,2021)。另外,算法作为社会权力的表现是其通过概率化输出的形式将无数不可计算的差异缩减为单个输出。这可能会将不确定的、个人主观的、情境性的东西被完全忽略或将其强行作为一个确定的概率呈现,进而导致分类的错误和对个体的不公平对待(Amoore,2020)。

 

如果说算法的分类过程是在“了解”人们的行为,那么算法的决策过程则是在大规模地“塑造”人们的行为,已有对算法决策过程及后果的研究主要关注以下方面。一是商业导向促使算法拥有者通过上瘾设计等方式不断争夺用户注意力(Bakshy et al.,2015),这造成假新闻、标题党、阴谋论等的泛滥(Bucher,2012;孙萍、刘瑞生,2018);二是算法规制系统精准但却片面的大规模信息推送,可能会降低信息的多样化程度以及公共讨论的质量,进而影响整个社会的知识生产与观念结构(陈云松,2022;邱泽奇,2022);三是算法决策的黑箱化及其潜在风险,用户没有充分的解释和追索权,研究者同样难以准确评估该算法决策标准的合理性及潜在风险(Perra & Rocha,2019)。

综上,算法在自动分类和决策中扮演的角色集中体现了数字时代算法权力是通过排除(个体是否从属于某一类别)与不可见(是否推送特定类型的信息)而非剥削来运作(拉什,2009),但已有研究多是外在地指出上述现象,而对于算法究竟如何具体行使排除和不可见权力以此塑造社会现实,特别是在算法介入的社会这一背景下,算法与不同个体的持续互动所带来更深层的影响和后果,有待我们真正进入算法空间进行检验。另外,关于算法作为社会权力的已有文献往往笼统地将多种算法合起来讨论,针对特定算法深入、系统的实证研究将有助于我们更为准确地理解算法在不同情境下对不同个体的真实影响。

(二)算法规制与个体间信息获取异质性

算法规制最直接的体现是对信息流的动态控制(Bail,2021)。通过有针对性地为用户推送信息,信息推荐算法主导着数字时代的信息扩散和流动(Bail,2021;Bakshy et al.,2015;Bucher,2012)。关于算法究竟如何通过排除和不可见权来运作,会如何影响个体的信息获取以及个体间的信息分化,仍存在较大争议。已有文献主要分为“过度个体化”与“分类权力”两个研究脉络。

“过度个体化”研究认为,算法依据个体浏览记录等特征为每个个体创造微信息环境,这个微信息环境随着算法与个体互动的深入会不断同质化,进而降低个体对多元化信息的偶遇能力(Bakshy et al.,2015)。这通常被描述为信息茧房、回音室(桑斯坦,2008)或过滤气泡(Pariser,2011)。如帕里瑟(Eli Pariser)认为,脸书、谷歌等平台使用的算法不断推测并提供我们感兴趣的内容,算法正在创建过滤气泡,迎合并放大个体偏好,用户最终可能会被暴露在一幅带有偏见的、碎片化的世界图景中,从而加剧信息隔离以及观念分化(Pariser,2011)。

“分类权力”研究则强调,算法规制将带来个体主动性的丧失。算法根据预测的个体类别进行内容推送,个体的偏好、主观意愿并不重要,个体在数字时代无限多维的类别化或指数化对个体信息获取有着重要的影响(Amoore,2020;Cheney-Lippold,2017)。在数字社会中,方法论的个体主义已被指数化所取代,个体仅仅是不同类别编码中的一个数字,个体的主观独特性、想法不仅没有被过度重视,反而变得不再重要(Cheney-Lippold,2017)。信息推荐算法的本质是依据对个体的数据标注与画像将其转化为无限多维的数据集,进而对相关人群进行更具针对性的内容推荐、目标管理乃至行为引导与控制,个体能获取的只是算法推测的、你的同类人感兴趣的信息(段伟文,2019;韩炳哲,2019)。

上述两种研究视角讨论了算法规制对个体信息获取和个体间信息分化的可能影响。值得关注的是,在后续算法推荐实践中,究竟是“过度个体化”还是“分类权力”在起作用,算法是否导致并强化了过滤气泡效应,个体间产生了何种信息获取差异等重要议题均未得到普遍的实证支持(Thorson et al.,2021;Bail,2021;葛岩,2020;陈华珊、王呈伟,2019),相关研究陷入碎片化和争议(施颖婕等,2022)。例如,有研究发现算法会放大个体偏好,导致个体接收信息的窄化以及个体间接收信息的差异程度变大(Bucher,2012);而另有研究认为过滤气泡的威胁被夸大了,个性化的影响比通常认为的要小(Nechushtai & Lewis,2019)。索尔森(Thorson Kjerstin)等就发现,相对于用户自我报告的兴趣,在算法上被归类为对政治感兴趣的人更有可能被推送该类信息(Thorson et al. ,2021)。聂静虹、宋甲子(2020)关于平台用户健康信息获取的研究发现,用户需最大化主观能动性才能部分获得其感兴趣的信息,这与算法所标榜的自动化和精准推送相矛盾。

本文认为,之所以出现上述理论与经验层面的矛盾和张力,重要原因是已有文献或是不分维度笼统、模糊地开展讨论,或是在不同的单一维度讨论信息,而信息在研究中被过度压缩和简化了(Amoore,2020;Cheney-Lippold,2017;拉什,2009)。信息本身高度复杂,包括信息来源、主题和语义等多个维度;此外,控制着信息分发的数字平台在商业利益、政府监管、信息热度等多个因素的影响下(吕鹏等,2022;赵璐,2022),长期面临信息推送精确性与多样性的抉择(Helberger et al.,2018)。深度学习方法的发展使平台有能力在信息来源、主题等基础上捕捉更为深层次的信息语义(刘波,2019),以求根据信息的不同维度实现更精细化的信息推送,进而更好地满足平台、用户和政府等各方需求。在此背景下,在研究中区分信息的不同维度,特别是比较不同用户在粗粒度信息主题与细粒度信息语义两个维度上信息获取的差异,有助于我们更为准确地理解数字时代的算法如何通过精细地控制信息流来行使社会权力以及可能带来的潜在社会后果。

综上,已有文献仍有需要深化之处。第一,已有研究多基于单一的信息主题维度来分析推荐算法对信息异质性的影响(Thorson et al.,2021),鲜有研究综合多个维度分析算法对个体信息获取的影响。第二,需重视算法的实时性和变动性,长时间持续而非从单个时间点观察算法与用户的交互情况有助于检验算法对不同个体信息获取的真实影响。第三,已有研究多采用受访者自我报告、浏览历史等方式来分析算法的影响,这往往使推荐算法的行为与用户对内容的偏好相混淆。若要克服用户点击行为本身的内生性,理想情况下需要锚定用户的行为,进而收集平台推荐算法为不同用户所推送的完整信息列表。

三、研究设计

(一)数据收集与处理

T平台作为国内最大的信息分发平台之一,完全依靠信息推荐算法实现自动内容分发(推送信息包括科技、体育等百余个垂直领域)。从平台公开的算法推荐原理来看,其算法主要依据用户行为特征、内容特征和环境特征三个维度,综合使用协同过滤方法以及深度神经网络等多种方法进行信息推荐。在其信息推荐实践中,相关性特征、环境特征、热度特征和协同特征是重要考量因素(刘波,2019)。除了模型输入参数以及考虑特征的高度复杂外,T平台推荐算法的另一特征是实时性和高度变动性,算法根据用户行为、内容特征以及环境特征等方面的实时变化不断在线训练更新模型参数,进而实现信息实时动态推送。



基于上述信息推荐算法的基本原理,考虑到在研究设计中兼顾用户特征、内容特征、环境特征和算法推荐的实时性与变动性,本研究尝试设置12个拥有不同信息主题点击偏好的用户组(共155个账号),使其分别按照设定的点击偏好与平台进行较长时间的实时互动,收集不同账号在该平台的推送信息大数据。

 

本研究设计流程包括:(1)招募志愿者注册平台账号,注册完毕后研究者设定不同账号的信息偏好和点击行为。使用虚拟账号的优点在于该方法便于我们按照自己的研究设计设定具体参数。(2)笔者首先通过信息特征预收集器对数据进行预爬取来获取平台信息的标签或分类情况。其次,本研究参考平台发布的历年用户行为报告(报告会从性别、年龄、所在城市级别等角度对用户进行划分,并分析不同用户的信息点击偏好),将155个个体虚拟账号分为12组,每组在面对平台实时推送的信息流时具有不同的信息点击偏好。(3)表1报告了不同组别账号的偏好,其中第一组为随机测试组,包括20个账号,具体工作机制是面对平台提供的推送信息流(通常包括14~15条信息),该组账号均以30%的概率随机点击信息流中的信息(没有偏好的信息类别),继而自动刷新到下一屏,继续上述点击行为(具体流程详见图1);第二组~第九组则参照平台公布的用户点击偏好设置不同的理想用户类型,如第二组对应的用户类型为一线、二线城市高年龄段男性用户(该组账号会以90%的概率去点击信息推送流中政治、金融、科技、自然和汽车等五种标签的信息),第三组对应的用户类型则为三线、四线、五线及以下城市高年龄段男性用户(该组账号会以90%的概率去点击信息推送流中社会、军事、历史、法制、健康、世界等六种标签的信息);第十组~第十二组为极端测试组,分别只点击特定某一类标签的信息。(4)需要说明的是,本研究设计并不寻求完全复制用户与平台的真实互动情况。一方面,用户自身及平台的参数均过于复杂,完全复制并不现实;另一方面,本文主要研究的问题是探讨算法对用户信息获取的异质性影响,通过锚定用户的信息偏好和点击行为,持续观测平台为不同用户推送信息的内容变化情况,有助于克服用户点击行为本身的内生性,进而更准确地分析平台算法对信息获取的影响。



1展示了数据的基本收集流程,账号首先获得平台推送的信息流(生成信息流ID),信息流中包括每条信息的ID、标题、摘要、推荐日期和标签等内容;之后,账号根据预先设置的标签点击偏好,选择是否点击推送信息流的信息,生成点击行为,继而刷新屏幕,获取新的信息流,并重复上述流程。在实际研究中,笔者设置了155个个体账号,连续25天以一定的时间间隔按照设计的信息点击偏好与平台互动,并保存推送信息流信息。最终,本研究生成包含233973个推送信息流及其基本特征(包括信息流ID等),以及超过294万条具体信息及其基本特征(包括标题、摘要、标签等)在内的多层级数据库。

 

(二)数据分析策略与方法

结合已有研究以及平台算法的实际运作过程,本文尝试基于信息主题以及信息语义两个维度对不同用户获取的平台推送信息的差异进行分析。

 

1.信息主题维度

本研究首先通过对比不同组别推送信息主题分布差异和推送信息流熵指数来测量信息主题异质性。(1)在不同组别推送信息主题分布差异及历时性变化方面,若支持算法强化过滤气泡效应,则可以预期,在总体推送结果中,各组别初始设定中偏好的信息主题占比会更高(随实验的推进不断变高),且由于各组具有不同的点击行为模式,各组被推送的信息主题会存在明显的差异。(2)本研究借用熵指数对各组别推送信息流中信息类别的结构以及多样性程度进行分析(Zhang et al.,2017)。如实证结果支持算法强化过滤气泡效应,则可以预期,偏好信息点击主题类别多的组别(如第二组)相较于点击主题类别少的组别(如第十组)被推送信息的熵指数(即信息主题多样化程度)更高。

 

2.信息语义维度

相较于信息主题,深层次的信息语义维度的测量更为复杂。通过平台公开的算法推荐原理可知,平台通过深度学习等方法将超高维用户特征和内容特征转化为低维实数向量,并通过比较用户向量、内容向量之间的距离来进行信息推送。因此,欲有效分析不同个体推送信息在信息语义维度的异质性,需要测量不同用户和内容在向量空间中的距离及其动态变化。基于此,本研究首先尝试使用文档向量模型(Doc2vec)对收集的超过294万条具体信息进行建模。Doc2vec是将词向量模型(Word2vec)扩展到句子、段落、文档或特定类别的方法(Le & Mikolov,2014),该方法通过在词汇上下文信息中引入文档或文档属性变量(Rheault & Cochrane,2018),在文档或文档属性内预测具体的词汇,从而可使用单个密集向量表示文档或文档属性。本文以平台推送的每条具体信息的标题和摘要(将两者合并)作为语料库,使用Doc2vec模型对该数据进行训练,设置训练窗口为5,训练中使用词汇的最小出现频率为10,迭代次数为20次,得到每条推送信息内容的200维实数向量表示。在将上述200维实数向量与每条信息其他特征拼接后,笔者使用PCA降维以及多层次固定效应模型等方法对不同个体获取信息的语义维度的异质性进行分析。若在语义维度支持算法强化过滤气泡效应,则可以预期:(1)在组别内部,各个虚拟账号在语义向量空间中的分布不会混乱无序,而是会较为接近。(2)不同组别的推送信息在语义向量空间中会出现较为明显的差异和分化。(3)随着各组虚拟账号与平台互动的深入,各组别在语义向量空间中的差异和分化会呈扩大趋势。

 

四、基于信息主题异质性的实证分析结果

(一)不同组别推送信息主题分布

本节首先分析12个组别在与平台较长时间的互动后被推送信息主题的总体分布情况。表2计算了各组别推送主题信息中占比前六的主题及占比。

 


按照研究设计,第一组为随机测试组,由表2可见,第一组被推送的政治新闻(news_politics)最多,占比为27.98%,占比排第二~第六的主题标签分别为“社会”“娱乐”“世界”“历史”“金融”新闻,占比分别为7.50%、7.31%、5.16%、5.15%、4.62%。第一组被推送的“政治”的占比远高于其他组(除第二组外)。在与算法互动过程中,第一组并没有设置特定的信息类别点击偏好,但由于研究实施初期推送信息流中“政治”的比例较高(详见表1),若该组账号以30%的概率随机点击推送信息流中的信息,点击到“政治”类新闻的概率就会相对较高。

 

2同时报告了第二组~第十二组推送信息主题分布,上述各组在研究中均有固定的信息点击偏好,若各组偏好的信息主题出现在前六大类别中,则表2对该主题进行了加粗显示。从结果来看,一方面,一旦我们设置的账号偏好点击特定主题,则从长时间的互动结果看平台确实会增加这些主题的推送总量,如第三组被推送的“社会”(11.51%)、“世界”(6.98%)、“历史”(6.21%)等该组偏好主题的比例高于各组均值。但另一方面,从各组推送信息主题分布对比来看,平台信息推荐算法虽然考虑个体点击偏好,但各组均未出现因考虑个体点击偏好而过度推送特定主题信息的情况。以第十组为例,作为极端测试组,该组只点击“历史”新闻,在该组最终被推送的信息主题占比中“历史”排第四(7.55%),仅略高于各组均值(6.16%),并未出现因过度推送而占比过高的情况。同时除第二组和第九组外,各组最终推送结果中占比第一的信息主题均非初设中偏好的信息主题,由此可见,算法并非完全按照个体点击偏好进行信息推送。最后,尽管各组拥有不同的信息点击偏好,但各组被推送的信息主题存在较高程度的重叠(如在12个组别中有8组占比第一的信息主题为“政治”,4组占比第一的信息主题为“娱乐”),各组并未因点击偏好的差异而出现推送主题上的明显差异和分化。

 

上述基于信息主题维度的分析结果虽未直接否定算法导致的过滤气泡效应,但平台的推荐算法并未出现已有部分文献强调的过度迎合且放大个体偏好的情况,过滤气泡的威胁被夸大了(Nechushtai & Lewis,2019),个性化的影响比通常认为的要小。

 

(二)不同组别信息推送的历时性变化

本节进一步分析不同组别推送信息主题的历时性变化,以探索平台推荐算法与不同组别信息获取的动态互动情况。图2以“政治”主题新闻为例,展示了各组别“政治”信息推送占比的动态变化情况,图2上半部分和下半部分分别呈现第一组~第六组以及第七组~第十二组的情况,横轴日期代表研究开始天数,纵轴代表各组别被推送的“政治”类主题信息占总体被推送信息的比例。

 



鲜花

握手

雷人

路过

鸡蛋

最新评论

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.