传媒教育网

 找回密码
 实名注册

QQ登录

只需一步,快速开始

搜索
做个试验
查看: 372|回复: 1
打印 上一主题 下一主题

拯救数据科学的“半贝叶斯人”

[复制链接]
跳转到指定楼层
楼主
发表于 2019-8-9 23:29:21 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
编译:赵伟、张秋玥、钱天培
一位科学家在他的论文中写道:"人类知识的大部分是围绕因果关系而不是概率关系组织的,而概率微积分的语法并不足以描述这些关系......正因如此,我认为自己只是半个贝叶斯人"。
或许一场关于自然语言处理的精彩辩论可以告诉我们何谓“半个贝叶斯人”,让我们把时光拨回到几年前。
一场精彩的辩论
辩论的双方分别是:号称“现代语言学之父”Noam Chomsky、身为谷歌研发总监的Peter Norvig。他们分别是自然语言处理领域的旧派和新派代表。
当谈到该领域的发展方向时,Chomsky说到:
“想象一下,有人说他想要消灭物理系并转而使用‘正确’的方式。所谓‘正确’的方式是将真实世界发生的事情录制成无数录像带,然后将这数十亿字节的数据输入最大、最快的计算机,并进行复杂的统计分析 - 你知道的,对所有东西都用一下贝叶斯方法 - 你就能对接下来会发生的事情做一些预测。事实上,你做的预测会比物理学家能给出的好得多。“如果‘成功’被定义为对大量混乱的未分析数据的合理近似,那么这样做的结果比物理学家的更接近‘成功’。显而易见,这样一来,诸如绝对光滑平面之类的思想实验就不复存在了。但这样做,你将不会得到科学所一直致力于达到的那种理解水平 - 你所得到的只是对正在发生的事情的近似。”
Chomsky在许多其他场合也强调了这种观点:当前对‘成功’自然语言处理的定义 —— 即预测准确性 —— 并不科学。将“一些巨大的语料库”投入到“复杂的机器”,仅仅是“未分析数据的近似处理”简直就像撞大运,并不能使我们“真正理解”语言。
他认为,科学的首要目标是发现关于系统实际运作的“解释性原理”,而实现目标的“正确方法”则是“让理论引导数据”:通过精心设计的实验抽离掉“不相关干扰”,以此来研究系统的基本性质 - 就像自伽利略以来的现代科学研究方法一样。简而言之:“只处理待分析的混乱数据不太可能让你明白任何原理,就算你是伽利略也不行。”
Norvig随后以一篇长文回应了Chomsky的主张,这篇文章挑战了Chomsky在科学上的‘成功’的观念,并为使用概率模型象征人类语言处理进行了辩护。Norvig指出,语言处理中几乎所有主要的应用领域 - 搜索引擎、语音识别、机器翻译和问答 - 都是由训练有素的概率模型主导,因为它们比基于理论/逻辑规则的旧工具表现得更好。
他认为,Chomsky关于科学上的“成功”的标准 - 强调找到原因而忽视方法的重要性 – 是误入歧途,这可以引用Richard Feynman的话加以说明:“没有论证,物理学可以进步;但没有事实,我们寸步难行。”
说起来其实还挺low的,Norvig顺带提了一句 - 概率模型“每年创造数万亿美元的收入,而Chomsky理论的产物几亿美元都不到。” (注:数据来自在亚马逊上Chomsky著作的销售额)
Norvig揣测,Chomsky对“对一切应用贝叶斯方法”的蔑视实际上来自于Leo Breiman所描述的统计模型中两种文化之间的分裂。
1)数据建模文化,它假设自然是一个内部变量随机联系的黑箱,建模者的任务就是确定最符合这些联系的模型;
2)算法建模文化,它假设黑箱中的关联太复杂而不能用简单模型来描述,此时建模者的任务就是使用能最好地用输入量估计输出量的算法,而不再期望黑箱内变量真正的潜在联系可以被理解。
Norvig认为Chomsky可能对概率模型(数据建模文化)本身并没有什么意见,他只是针对具有“亿万参数”且难以解释的算法模型,因为它根本无法解决“为什么”的问题。
Norvig属于2号阵营,他们认为像语言这样的系统过于复杂、随机,很难用一小组参数来表示;抽离出复杂性就类似于制造一个实际上不存在的、“完全符合永恒领域的神秘设施”,因此“忽略了语言是什么以及它是如何工作的。”
Norvig在另一篇论文中重申,“我们应该停止以创造完美理论为目的的行为。我们应当拥抱系统复杂性、并接受数据就是有用的这一特点。”。他指出,在语音识别、机器翻译甚至是几乎所有使用网页数据的机器学习应用中,例如基于数百万计具体特征的n-gram统计模型或线性分类器的这些简单模型,比试图发现普遍规律的精美模型表现更好。
这次辩论最让人们受触动的不是Chomsky和Norvig的分歧,而是他们的共识:他们都同意,不试图去理解变量就用统计学习方法分析大量数据往往会产生比试图给变量之间的关系建模更好的预测效果。
而且我们也并非唯一被这一现象困扰的人:那些被访谈过许多的具有数学科学背景的人也认为这是违反直觉的 - 最符合事物基本结构关系的方法难道不应该也是预测得最为准确的吗?我们怎么能在不知道事物如何实际运作的情况下做精准的预测呢?
预测与因果推论
即使在经济学和其它社会科学等学术领域,预测能力和解释能力的概念也通常被混为一谈 - 显示出高解释力的模型通常被认为是具有高度预测性的。但是,构建最佳预测模型的方法与构建最佳解释模型的方法完全不同,建模决策通常要考虑两个目标之间的权衡。为了说明这两种方法上的差异,下面是“An Introduction to Statistical Learning”(ISL,统计学习导引)中一段关于预测和推理建模的简短摘要。
预测建模
预测模型的基本原理相对简单,使用一组已知的输入X来估计Y。如果X的误差项平均为零,则可以使用以下方法预测Y:





其中ƒ是由X提供的关于Y的系统信息,当给定X时,它给出结果Ŷ(Y的预测)。只要能准确地预测Y,ƒ的确切函数形式通常是不重要的,它被视为“黑箱”。
这种模型的准确度可以分解为两部分,可减少的误差和不可减少的误差:




为了提高模型的预测准确性,模型主要目标是通过使用最合适的统计学习技术来使可减少的误差最小,从而估计ƒ。
推理建模
当我们的目标是理解X和Y之间的关系,比如Y是如何作为X的函数而变化时,ƒ不能被视为“黑箱”,因为我们无法在不知道函数形式的情况下理解X对Y的影响ƒ。
几乎总是如此,在推理建模时,使用参数化方法来估计ƒ。参数化是指通过假设参数形式的ƒ并通过假设的参数来简化对ƒ的估计的方法。这种方法有两个一般步骤:
假设ƒ的函数形式。最常见的假设是ƒ是关于X的线性函数:



使用数据拟合模型,也即找到参数值β0、β1、...、βp,使得:






最常用的拟合模型的方法是普通最小二乘法(OLS)。
灵活性/可解释性的权衡
你可能已经在想:我们怎么知道ƒ是否具有线性形式?因为ƒ的真实形式是未知的,我们也不知道,如果我们选择的模型与真实的ƒ相差太远,那么估计就会有偏差。那为什么我们要先做出如此肯定的假设呢?这是因为模型的灵活性和可解释性之间存在内在的权衡。灵活性是指模型可以生成的用以适应ƒ的多种不同的可能函数形式的形状范围,因此模型越灵活,它产生的形状就能符合得越好,预测精度就越高。但是更灵活的模型通常更复杂并且需要更多参数来拟合,并且ƒ的估计通常变得太复杂以至于任何预测因子的关联都难以解释。另一方面,线性模型中的参数相对简单且可解释,即使它在准确预测方面做得不是很好。这是ISL中的一张图表,它说明了不同统计学习模型中的这种灵活性-可解释性之间的权衡:



正如你所看到的,具有更好预测精度、同时也更灵活的机器学习模型(例如支持向量机和Boosting方法)的可解释性非常低。对ƒ的函数形式进行较肯定的假设使模型更具解释性,推理建模在这个过程中也放弃了对预测准确性的追求。
因果识别/反事实推理
但是,请等一等!即使用了能很好符合并且高度可解释的模型,你仍然不能将这些统计数据用作证明因果关系的独立证据。这是因为,“相关性不是因果关系”啊!这里有一个简单的例子:假设你有一百个旗杆及其阴影的长度和太阳位置的数据。你知道阴影的长度是由杆的长度和太阳的位置决定的,但是即便你将杆的长度设置为因变量而把阴影长度作为自变量,你的模型仍然会十分符合统计显著性系数。显然,你不能说杆子的长度受阴影长度影响。这就是为什么我们不能仅通过统计模型进行因果推理,我们还需要背景知识和理论来证明我们的结论。因此,因果推理的数据分析和统计建模通常要受到理论模型的严格指导。
即使你确实有一个坚实的理论依据说X导致Y,确定因果关系仍然非常棘手。这是因为,评估因果效应涉及要识别在没有发生X的“反事实世界“里会发生什么,这显然是你观察不到的。
这还有另一个简单的例子:设想一下你要确定维生素C对健康的影响。你有某人是否服用维生素的数据(如果他们这样做则X = 1;否则为0),以及一些二元化的健康状况(如果他们健康则Y = 1;否则为0),如下所示:



Y1代表服用维生素C的人的健康状况,Y0代表那些不服用维生素C的人的健康状况。为了确定维生素C对健康的影响,我们要估计平均治疗效果:
𝛉 = E(Y₁)- E(Y₀)
但是为了做到这一点,我们需要知道不服用维生素C、但原本有服用维生素C的人的健康状况,反之亦然(或E(Y0 | X = 1)和E (Y1 | X = 0)),表中的星号表示不可观察的反事实结果。没有这些输入,我们就不能一致地评估平均治疗效果(θ)。
更糟糕的是,想象一下这种情况:健康的人往往服用维生素C,不健康的人则不会。在这种情况下,即使维生素C实际上对健康没有任何影响,恐怕也会显示强烈的治疗效果。在此,先前的健康状况被称为影响维生素C摄入和健康状况(X和Y)的混淆因素,这导致对𝛉估计的偏差。
产生𝛉的相合估计的最安全的方法是通过对治疗进行随机化实验,使X独立于Y。当随机分配治疗实验时,未治疗组结果的均值可以作为代表治疗组的反事实结果的无偏值,并可以保证这样做消除了混淆因素。A/B测试就以这个观点为指导。但是随机实验并不总是可行的(甚至可能是不道德的,比如如果我们想要研究吸烟或吃太多巧克力饼干对健康影响的话),在这些情况下,必须通过观察常常是非随机实验的数据来评估因果效应。有许多统计技术通过构建反事实结果或模拟观测数据中的随机治疗分配来识别非实验环境中的因果效应,但可以想象,这些类型的分析结果往往不是非常稳健或可重复。更重要的是,这些方法的造成障碍的层面并不是为了提高模型的预测准确性而设计的,而是为了通过结合逻辑和统计推断来提出因果关系的证据。
评价预测模型是否成功比因果模型要容易得多 ——预测模型有标准的性能度量,但评估因果模型的相对成功要困难得多。但即使因果推理很棘手,也并不意味着我们应该停止尝试。预测模型和因果模型有着非常不同的目的,需要非常不同的数据和统计建模过程,通常这两点同时发生。这一关于电影业的例子说明了这一点:电影制片厂使用预测模型来预测票房收入,以预测电影发行的票房结果,评估其电影放映组合的金融风险/回报等。但预测模型在理解电影市场的结构和动态并为投资决策提供信息方面不是很有用。这是因为在电影制作过程的早期阶段(通常是发布日期之前的好几年),当做出投资决策时,可能的票房结果的方差非常高,因此基于早期阶段输入数据的预测模型的准确性要大为降低。预测模型在电影发行日期附近才是最准确的,然而这个时候绝大多数制作决策已经被制定,预测也就失去了行动指导力。另一方面,因果推理建模允许制片商了解到,不同的生产特征如何影响生产过程早期阶段的潜在收入,因此对于帮助制定其策略至关重要。
我们真的过分强调预测嘛?
从定量研究文献的现状来看,不难看出为什么Chomsky感到不安 - 预测模型现在主导着学术界和业界。对学术预印本的文本分析发现,在增长最快的定量研究领域中,近十年来越来越关注预测。例如,在AI中,提及与“预测”相关的术语的论文数量增长了2倍以上,而提及与“推理”相关的术语的论文数量自2013年以来已经下降了一半。现今的数据科学课程在很大程度上忽略了因果推理方法,并且数据科学业界大多期望从业者专注于预测模型。即使像Kaggle和Netflix大奖赛这样高调的数据科学竞赛也总是专注于改进预测性能指标。
另一方面,仍有许多领域没有对经验预测给予足够的重视,尽管它们可以从机器学习和预测建模方面的进步中受益。
但是,把目前的状况描述为“Chomsky队”和“Norvig队”之间的文化战争似乎是一个错误的选择 —— 谁说我们只能二选一的呢,在很多时候这两种观点会相互交流相互促进。
为了让机器学习模型更易于理解,我们能做得还有很多。比方说,我对斯坦福大学Susan Athey在因果推理方法中应用机器学习技术的工作尤其感兴趣。




最后,我想以Judea Pearl的大作《The book of why》中的结论做结尾。Pearl曾于20世纪80年代领导了AI研究工作,以便让机器可以使用贝叶斯网络进行概率推理;但自那时起他便成为AI只关注概率关联风气的最大批评者,认为这样会阻碍这个领域的发展进步。
与Chomsky的观点相仿,Pearl认为“深度学习取得的所有璀璨成就仅仅相当于数据拟合曲线”,而直到今天AI仍在做与机器30年前就会做的同样的事情(预测和诊断/分类),现在只是表现得稍好一点,但预测和诊断“仅仅是人类智慧的一角。”
他认为,制造真正的能像人类一样思考的智能机器的关键,是教会机器思考因果关系,这样机器就可以提出反事实问题、设计实验,并找到科学问题的新答案。他过去三十年的工作重点是为机器建立形式语言,以便使因果推理成为可能;这类似于他在贝叶斯网络上所做的工作,其能使机器建立概率关联。

相关报道:
https://towardsdatascience.com/predicting-vs-explaining-69b516f90796

来源:大数据文摘
链接:https://mp.weixin.qq.com/s/RpKtZRlTafgM4wKw3dUt3g


编辑:晓晴

分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 支持支持 反对反对
沙发
 楼主| 发表于 2019-8-9 23:30:58 | 只看该作者
【案例
我是一名数据科学家,但我对大数据持怀疑态度
都说未来是数据时代。数据说明一切,数据不会骗人。数据是罗塞塔之石,可皮衣一切人类代码。现实果真如此吗?纽约大学数据科学教授Andrea Jones-RooyJuly不同意这种说法。因为数据并不是客观的现实,它也是由人来定义的,会存在各种偏差。所以我们需要仔细甄别,周全考虑。
我是一名数据科学家,但我对大数据持怀疑态度
几千年来,我们一直都在靠轶事、直觉以及老太太的故事来做为我们观点的证据,今天我们大多数人都要求大家要用数据来支持自己的论点和想法。无论是治愈癌症,解决职场的不平等,还是赢得选举,数据现在都被认为是罗塞塔石,几乎可以破译人类所有现存的代码。
但在这一片狂热当中,我们已经将数据与真相混为一谈。这种认知,对我们理解、解释以及改进我们所关心的事物的能力,会产生危险的影响。
我这么讲对自己是有风险的。我是纽约大学数据科学教授和企业的社会科学顾问,我为他们进行定量研究,帮助他们理解和改进多样性。我靠数据谋生,但我却总发现不管我跟学生还是客户交谈时,我都要提醒他们数据其实并不是现实的完美体现:数据这东西基本上是人类的杜撰,因此会受制于偏见和局限,以及其他随之而来的不完美。
这种误解最清晰的表现是从会议室到教室都能听到的问题,当好心人试图弄清楚棘手问题的真相时:
“数据是怎么说的?”
数据什么都没说。说话的是人类。他们说的是数据当中他们注意到的或者要寻找的东西,数据从一开始之所以存在,是因为人类选择去收集它们,并且利用率人类制造的工具去收集数据。
数据说明不了问题的任何东西,它的作用不会大过可以造房子的锤子或者做马卡龙的杏仁粉。数据是发现的必要因素,但是你需要有人来选择它,塑造它,然后把它变成洞察。
因此,数据的有用程度只能跟它的质量以及掌握它的人的技能一样。(如果你曾经试过制作马卡龙就知道我说的了。我就试过。我们只能说那种数据肯定不符合法国糕点店的标准。)
因此,如果数据本身不能做任何事情或者说明不了任何东西的话,那数据是什么?
数据是什么?
在某个时间和地点,数据是这个世界某个方面不完美的相似物。(我知道,这个定义远不如我们所希望的那么性感。)这是当人们想要了解关于某个东西的一些东西,试图去测量它,然后以特定方式去组合这些测量值时的结果。
以下是我们会把不完美引入到数据当中的四种主要方法。
随机偏差
系统偏差
测量选择偏差
排除偏差
但是,这些错误并不意味着我们应该抛弃所有数据,意味着一切都是不可知的。而是意味着要深思熟虑地进行数据收集,问问我们自己可能错过了什么,并对收集更多数据表示欢迎。
这种观点不是反科学或反数据。相反,这两者的优势来自于清楚我们自身工作的局限性。意识到可能会出现的错误可令我们的推断更加强大。
首先是随机偏差。随机错误发生在当人类决定要去测量某些东西之时,由于设备损坏或他们自己的错误,导致记录的数据是错误的。其形式可以是将温度计挂在墙上测量温度,或者用听诊器来计算心跳。如果温度计坏了,它可能无法告诉你正确的度数。听诊器可能没坏,但是计数的人可能会错过一次心跳。
随机错误会对我们的余生造成很大的影响(当我们没有勤勉地记录温度和心跳时),其形式之一是医疗筛检中的误报。例如,乳腺癌的误报意味着筛检结果说患有癌症,但其实没有。发生这种情况的可能原因有很多,其中大部分可归结为在将关于世界的事实(是否患有癌症)转化为数据(通过乳房X线照片和人得出数据)的过程中的失误。
这种错误造成的后果也是非常真实的。研究表明,误报可导致出现多年负面的心理健康的后果,哪怕患者的身体状况良好。从好的方面来说,对误报的恐惧也会导致对筛查更加小心谨慎(......这会进一步增加误报的可能性,算了不说了,这离题了)。
一般来说,只要我们的设备没坏并且我们努力做到了最好,我们希望这些错误在统计上是随机的,因此会随着时间的推移而慢慢被中和掉——尽管如果你的医疗筛查是错误之一的话,这并不算一个很大的安慰。
其次是系统偏差。系统误差是指这样一种可能性,即某些数据以牺牲其他数据为代价不断进入到你的数据集,从而可能导致你对世界做出错误的结论。这可能是由于许多不同的原因而导致的:你抽样谁,什么时候抽样,或者加入你的研究或填写你的调查的人是谁。
选择偏差就是一种常见的系统误差。比方说,用来自Twitter推文的数据来理解公众对特定问题的情绪如何,这种作法是有瑕疵的,因为我们大多数人都不会发推文——而且那些发推的人并不总是将自己的真实感受示于人。相反,来自Twitter的数据集就是:一种了解方式,通过它可以知道选择了参与到该特定平台的部分人跟世界分享了什么东西,仅此而已。
2016年的美国总统大选就是例子,一系列的系统误差可能导致了民意调查错误地偏向于希拉里·克林顿。人们很容易得出结论认为其实一切民意调查都是错误的——也许是,但跟我们平时想象的可能不一样。
有一种可能性是选民不太可能会报告说自己将投票给特朗普,因为大家认为这是不受欢迎的选择。我们称之为社会期望偏差。停下来思考一下这个问题很有帮助,因为如果我们事先对这种偏差更加警惕的话,我们可能就会将它植入到我们的模型里面,从而更好地预测选举结果。
令人遗憾的是,医学研究的系统偏差也到处可见:医学研究的对象往往是那些已经生病并且有手段找医生或者参加临床试验的人。作为克服这一缺点的办法之一,可穿戴技术的发展稍微令人有点兴奋。比方说,如果有Apple Watch的每个人都可以将他们的心率和每天的步数发送到云端,那么我们就会拥有更多的数据,而且偏差更小。但这可能也会引入一种全新的偏差:现在的数据有可能会偏向西方世界的富裕成员。
第三是选择测量内容选择偏差。当我们以为我们正在测一样东西,但事实上测的却是其他东西时就会发生这种情况。
有很多公司对想办法做出更客观的招聘和晋升决策都比较感兴趣,我跟他们有过合作。为此他们往往会求助于技术:我们如何给经理提供更多的数据,好让他们做出更好的决策?我们怎么才能应用正确的筛选条件来确保招聘人员能找到最优秀的人才?
但很少有人会停下来问一下自己在测量的数据是不是他们想要测量的东西。比方说,如果我们正在寻找顶尖的求职者,我们可能更青睐那些上名牌大学的人。但这可能并非衡量人才的手段,而是衡量社交网络成员不仅仅是衡量人才的标准,它可能只是衡量你是否具备某些社交网络成员资格的一种标准,这种资格能为某些人提供一系列“合适”的机会,让他们得以能进入一所优秀的大学。一个人的GPA成绩可能是衡量一个人选择自己能胜任的课程的能力很好手段,而他们的SAT成绩可能是他们父母在请私教方面的财力的一种可爱的表达。
企业以及我的学生对最前沿的方法论如此痴迷,以至于他们都忽略了一个更深层次的问题:为什么我们要用这种方式去衡量这个?还有没有可以更彻底去了解人的方式?而且,根据我们手上的数据,我们如何对过滤器进行调整才能减少这种偏差?
最后一个,是排除偏差。当数据集里面系统性地忽略了某个群体时就会发生这种情况,而这就会为进一步的排除创造出先例。
比方说,现在女性比男性更容易死于心脏病,这被认为主要是因为大多数心血管数据都是基于男性的,而男性经历的症状与女性的不同,从而导致诊断的不正确。
关于白人女性在美国竞选政治职位时的表现的数据目前有很多,但是有色人种的就不是很多,相对于竞选过程当中的白人女性,她们会面临着不同的偏差。在我们进行这些研究之前,我们就会试图从有关橙子的数据推断出苹果——但其结果要比一盆不均衡的水果沙拉要糟糕得多。
选择去研究一样东西还可以激励对该专题进行进一步的研究,这本身就是一种偏差。由于根据现有数据集做东西要比创建自己的数据集更容易,因此研究人员经常会围绕着某些主题展开研究——比如参与竞选的白人女性或男性的心血管健康——而牺牲了其他人。如果你反复多次如此这般,突然之间的男性就成了默认的心脏病研究对象,而白人女性就成了默认的政治参与研究对象。
其他的例子比比皆是。衡量“领导力”可能会激励大家在会议中表现得更加积极,从长远来看这会破坏沟通。给SAT中增加“逆境”分可能会怂恿父母搬到不同的社区,以便让他们的得分更高。
我看到这在多元化领域也产生了影响:DiversityInc等尝试苹果公司多样性的组织已经选择若干用来奖励公司的指标——比方说,“领导认可”的衡量标准是是否设有首席多元化官(Chief Diversity Officer)。为了给这个方框打勾,它可能会刺激一些并无任何实际用途的行为,比如任命一个没有实权的CDO
为什么我们仍然需要相信数据
在反智主义、假新闻以及另类事实和伪科学横行的时代,我其实非常不愿意这么说。有时我感觉我们科学家几乎都没有坚持下去。但我相信数据和科学之所以有用,并不是因为它是完美的和完整的,而是因为我们认识到我们自身努力的局限性。就像我们想要用统计数据和算法对事情进行仔细分析一样,我们也需要仔细地收集数据。我们有多谦卑,对自身局限性的认识有多深,我们自己就有多强。
这并不意味着要抛弃数据。这意味着当我们的分析中包含有证据时,我们应该考虑影响其可靠性的偏差。我们不应该仅仅去问“它说明了什么?”而且还要问,“ 数据是谁收集的?他们是怎么做的?那些决定是如何影响结果的?”
我们需要去质疑数据,而不是仅仅因为我们已经把一个数字分配给某个东西,就假设那个东西突然之间就变成冰冷的真相。当你遇到一项研究或一个数据集时,我恳请你问问自己:这幅图中可能缺了什么?还有没有其他办法可以去考虑究竟发生了什么?这个特定的衡量手段包含了什么,排除了什么,激励了什么?
我们需要对数据考虑周全,因为我们正在开始关注统计数据,算法和隐私。只要数据被认为是冰冷、确切、绝对可靠的事实,对我们周围的世界,我们就有可能产生并且强化许多不准确的理解的风险。
译者:boxi
来源:36kr
链接:
编辑:晓晴

发表回复

您需要登录后才可以回帖 登录 | 实名注册

本版积分规则

掌上论坛|小黑屋|传媒教育网 ( 蜀ICP备16019560号-1

Copyright 2013 小马版权所有 All Rights Reserved.

Powered by Discuz! X3.2

© 2016-2022 Comsenz Inc.

快速回复 返回顶部 返回列表