Facebook在美国选举中的虚假新闻更多地影响了保守派,研究表明 - 彭博社
Davey Alba, Aisha Counts
2020年Facebook的选举信息页面。
摄影师:Gabby Jones/Bloomberg根据《科学》学术期刊周四发布的一项新研究,研究人员观察到在2020年美国总统选举期间,保守派在Facebook上与虚假新闻故事互动的次数比自由派多,这是一个庞大研究项目中的首个发现,该项目旨在了解Facebook对民主的影响。研究发表在学术期刊Science中。
Facebook的母公司Meta Platforms Inc.向来自纽约大学、德克萨斯大学奥斯汀分校和其他十所学术机构的17名独立研究人员提供了内部数据,这些研究人员旨在研究社交媒体在美国民主中的作用,特别是在2020年选举期间。
以往关于Facebook的学术研究往往依赖于各种在平台上使用的抓取方法自行收集的数据。研究人员表示,这一努力的独特之处在于项目的规模之大,以及数据来自Meta本身,确保了更好的质量。根据德克萨斯大学媒体参与中心的Talia Jomini Stroud和纽约大学社交媒体与政治中心的Joshua Tucker领导的学术团体的联合声明,“社会科学家在研究社交媒体对美国民主的影响方面受到了限制。”
该合作伙伴关系是基于Facebook在2018年启动的一项倡议,当时该公司承诺与外部研究人员分享大量帖子、链接和其他数据,以便他们研究并标记该网站上的虚假信息。参与该项目的研究人员没有得到Facebook的报酬,Facebook承诺不参与研究人员提出的问题或得出的结论,该公司表示。
这些论文发表的研究不会解决关于社交媒体和民主的所有争论,但我们希望并期望它将推动社会对这些问题的理解,”Meta全球事务总裁尼克·克莱格在一篇博客文章中说。在一篇博客文章中说。
周四,首批四篇经过同行评议的研究成果同时发表在科学和学术期刊自然上。除了研究观察Facebook上的政治极化外,研究人员还展示了另外三个实验的结果,这些实验改变了同意用户的Facebook和Instagram信息流,并检查了美国成年人的平台数据。这些变化包括将信息流从算法性转变为时间性,减少来自志同道合用户的政治内容以及抑制再分享的内容。研究项目还将在未来几个月内发表更多研究结果,总共16项,研究联盟表示。
在研究Facebook上意识形态隔离的研究中,研究人员分析了从2020年9月到2021年2月间2.08亿美国Facebook用户的聚合和匿名数据。他们收集了平台上分享的政治新闻故事的独特域名和独特URL,检查了在Facebook上新闻分享高峰期间每天超过9万个链接 — 就在11月3日选举前和1月6日暴动后,当时一群支持特朗普的人群袭击了美国国会大厦。
研究人员发现,在Facebook上至少被发布100次并被Meta的第三方事实核查人员评为虚假的政治新闻URL的97%被更多保守派用户看到和参与,根据Facebook对用户政治倾向的算法分类器。与平台上观察到的新闻链接相比,被评为虚假的链接比例非常低。
研究表明,在Facebook上,在2020年选举期间,被标记为虚假信息的新闻报道的受众倾向于保守派,宾夕法尼亚大学安娜伯格传播学院的教授、研究的主要作者桑德拉·冈萨雷斯-巴伊隆说。
研究人员小心翼翼地不对他们观察到的行为做因果推断。东北大学政治科学和计算机科学教授、研究合著者之一大卫·莱泽在接受采访时表示,还有其他因素可以解释结果。例如,目前尚不清楚Facebook使用何种机制在网站上标记潜在的错误信息,可能这种机制会系统地标记吸引保守派受众的新闻。莱泽说,另一项研究也可以更仔细地审查Facebook的事实核查过程,以了解为什么第三方事实核查人员将更多右翼政治新闻评为虚假。“我们还没有严格评估那个流程,”他说。
但研究人员发现,在Facebook上,整体上,受众在政治上高度分隔。研究人员发现,从一个链接到另一个链接,故事主要被保守派或自由派看到和参与,而不是两者兼有。莱泽说,许多以前的学术文献“暗示基于互联网的消费并不那么政治上分隔”。这项新研究指向相反的结论。这一观察是“新的,也不是,因为在某种程度上,人们认为我们已经知道了。但我们并不知道。”
这项研究还发现,与自由派相比,保守派几乎独家看到了更多政治新闻链接。当链接发布到Facebook页面和群组时,观众的政治隔离甚至比链接由个人用户发布时更加明显。“Facebook的功能——比如页面和群组——确实让人们能够以一种以往可能很难实现的方式传递同质化内容,”Lazer说。
周四发表的另外三项研究基于在2020年美国大选高潮期9月至12月之间的三个月内,改变了一组同意的Facebook和Instagram用户的算法。在其中一项研究中,研究人员将人们的信息源从算法排序改为按时间排序,这样人们看到的帖子顺序是按时间顺序排列的,而不是基于他们的偏好。另一项研究减少了来自意识形态相近用户的政治内容。第三项研究从人们的信息源中删除了在Facebook上重新分享的内容。
总的来说,根据实验研究,改变算法的方式不太可能改变政治态度。研究人员指出了这些研究中可能解释用户政治态度影响相对较低的限制因素,包括研究的长度以及在选举周期附近的时机。这些研究中的用户样本“甚至比平均水平更具有政治知识和政治参与度,”普林斯顿大学公共与国际事务学院助理教授、两项研究的主要作者安德鲁·猜测说。“这可能表明,这些人的态度可能在一开始就更加明确。”
总的来说,这些研究发现,对算法订阅和重新分享功能的更改并没有改变用户的政治态度或行为。
“我们现在知道算法在塑造人们在平台上的体验方面有多大影响力,但我们也知道,即使改变算法几个月,也不太可能改变人们的政治态度,”斯特劳德和塔克说,他们是研究Facebook数据的学术团体的领导者。“我们不知道的是为什么。”