科技巨头对假新闻的秘密战争过于秘密 - 彭博社
Paul Barrett
插图:731
脸书,谷歌和推特面临有害内容的问题。最近,政治虚假信息和恐怖主义煽动这两种在线祸害的后果已充分显现。在华盛顿的三场国会听证会上,立法者和我们其他人了解到,多达1.26亿脸书用户可能看到了俄罗斯人试图干预2016年选举而发布的分裂性内容。与此同时,在纽约,当局表示,一名在10月31日的卡车袭击中杀死八人的乌兹别克移民是通过伊斯兰国视频在网上被激进化的。五天后,谷歌新闻放大的推文传播了虚假故事,称德克萨斯州教堂大屠杀的枪手是希拉里·克林顿和参议员伯尼·桑德斯的支持者。
彭博社商业周刊机器人出租车的裁决已出——华尔街正在乘坐火车杰米·戴蒙担任财政部长:永不消逝的想法贾伦·布伦森是NBA现在需要的球员深入了解设定体育博彩赔率的公司这些发展应该促使全球主导搜索引擎(谷歌)及其两个主要社交网络(脸书和推特)承担更多责任,以应对互联网污染。加利福尼亚州民主党参议员黛安·范斯坦在11月1日的参议院情报委员会听证会上列出了选项。在对这三家公司总法律顾问的讲课中,这位加州民主党人说:“你们创建了这些平台,现在它们被滥用。你们必须采取行动。否则我们会。”
对所有相关方——公司、用户和整个社会——来说,如果谷歌、Facebook和Twitter听从费因斯坦的警告,并实施严肃的改革以应对其平台可能传播的宣传和暴力图像,那将是更好的选择。这将避免关于政府对内容限制的复杂言论自由争论,并使立法者免于深入他们专业知识薄弱的技术领域。(在11月初,关于俄罗斯与美国社交网络之间的联系出现了一个新维度,多家媒体报道,过去对Facebook Inc.和Twitter Inc.的数亿美元投资间接来自克里姆林宫控制的金融机构。)
关于有害在线材料的话题,互联网公司能够取得实质性进展的最佳证据来自于它们最近在改善算法、提供更好的用户警告和增加对自动化系统的人类监督方面的记录。正如纽约大学斯特恩商业与人权中心在一份名为“有害内容”的新报告中所论述的,这些公司可以——而且应该——做得更多。
在进一步讨论之前,让我们先假设在这一领域进行全面的美国监管的可能性微乎其微。一个由共和党控制、对商业友好的国会不太可能去追究美国最成功的两家公司——谷歌和Facebook——甚至是Twitter,尽管后者的财务状况较弱,但仍然是首席推特用户的最爱平台。
国会可能采取行动的一个领域是政治广告。亚利桑那州的参议员约翰·麦凯恩(R-Ariz.)共同发起了一项 两党法案,该法案将使在线选举广告遵循与传统广播广告相同的披露要求。在最近的听证会上,三家公司的律师发誓将采取类似于麦凯恩法案的自愿规则——这是行业试图在威胁立法之前主动出击的明显且完全健康的例子。如果这些公司在2016年实施严格的透明度规则,他们可能会阻止俄罗斯特工的帖子和推文。
更广泛地说,如果数字巨头们向外部开放他们的公司数据操作——当然,不包括客户的私人数据——他们可以证明自己的善意并减少对其平台的滥用。“研究人员很难甚至不可能看到”公司系统内部发生的事情,“因此,我们知道的很少,或者我们在猜测,”北卡罗来纳大学教堂山分校的传播学助理教授爱丽丝·马威克(Alice Marwick)说。“只有通过结束社交媒体的模糊性和保密性,我们才能完全理解哪里出错,”前谷歌产品经理和互联网活动家瓦埃尔·戈尼姆(Wael Ghonim)说。
激进的透明度将与当前的企业本能发生冲突——并且必须通过仔细保护用户隐私来加以调和——但这可能会为行业带来新想法并赢得新的信任水平。例如,推特表示,在2016年竞选期间,大约有36,000个俄罗斯控制的“机器人”在 推特上发推。但弗吉尼亚州的参议员马克·华纳(Mark Warner)在11月1日的听证会上表示,推特对自动账户的统计数字偏低。华纳引用独立估计,最多有15%的推特账户——可能达到4900万——是由软件而非人类控制的。更多的公司数据访问可能会解决华纳的怀疑,并可能帮助提供推特应该如何处理所有这些机器人的答案。
当被问及透明度的想法时,Twitter的一位发言人提到了一份最近的 公司报告,其中提到:“Twitter致力于信息的开放交流。”
Facebook、Google和Twitter通过将用户的注意力出售给广告商来赚钱。这些公司通过 算法——复杂的指令,告诉计算机如何选择和排名内容,进行大部分数字业务。尽管算法非常微妙,但有时会提升明显错误的信息。虽然不能假装算法可以被完美化——毕竟它们是人类的构造——但期望互联网公司以最大的紧迫感来改进它们并不过分。
考虑一个最近涉及Google的例子。今年四月,该公司在一个 内部博客上表示,0.25%的搜索——意味着每天数百万次——“返回了冒犯性或明显误导性内容。”在2016年12月的一个例子中,搜索“大屠杀发生过吗?”的第一个结果是来自新纳粹网站Stormfront的一页,提供了“十大理由说明大屠杀没有发生。”对此及类似事件感到震惊,Google启动了一项名为 Project Owl的算法清理项目。今年四月,Google宣布它已使虚假信息“出现的可能性降低。”
该公司没有提供一个新的误导性内容比率以与0.25%的数据进行比较,但根据一个公认的轶事指标,Project Owl似乎产生了一些效果。我在11月9日搜索了“大屠杀发生过吗?”一个专门“对抗大屠杀否认”的网站位于结果的最前面;Stormfront的相反信息直到第四页中间才出现。对更精细算法的追求需要加速。Google的一位发言人通过电子邮件表示:“虽然我们取得了良好的进展,但我们认识到还有更多工作要做。”
在一些市场,Facebook 一直在尝试一种事实核查功能,以保持其新闻推送的真实性。根据用户报告和其他信号,该公司表示,它将故事发送给第三方事实核查机构,如 PolitiFact。当他们质疑一个故事时,Facebook 会通知用户该故事已被“争议”,并不鼓励分享。“在我们社区的安全和保护方面,我们已经做了很多,”一位 Facebook 发言人在电子邮件中表示。现在,事实核查程序及其他类似的项目值得扩展并在其他地方模仿。
在涉及暴力煽动时,搜索和社交网络公司面临着打地鼠的问题:他们不断删除极端主义视频,却又看到复制品被重新上传。作为回应,Facebook、谷歌的 YouTube 视频网站和 Twitter 正在尝试一种称为“哈希”的技术,这使得公司能够跟踪复制视频的数字指纹,以便可以自动删除。YouTube 最近使用哈希技术删除了数万条由安瓦尔·阿尔-阿瓦基(Anwar al-Awlaki)讲授的讲道,他是一位因恐怖主义招募而臭名昭著的美国出生的神职人员,2011年在美国无人机袭击中被杀。
在八月,YouTube 加强了对包含煽动性宗教或至上主义内容但不符合删除条件的视频的立场。这类材料现在会附带警告,并且不符合推荐状态、点赞或评论的资格。边缘视频也更难通过搜索找到,并且不能在旁边出售广告。
在一项相关实验中,一家谷歌的附属公司开发了一种名为 重定向方法 的工具,可以根据用户的搜索词检测其可能的极端主义倾向。一旦识别出这样的人,该工具会将他们重定向到展示恐怖主义残酷行为的负面视频。在最近为期八周的试运行中,大约有300,000人观看了重定向方法推荐的视频,总时长超过五十万分钟。
正如这些插图所示,数字平台公司愿意并能够改进,但他们需要加快努力的速度、广度和强度。Facebook在国会听证会上宣布,到2018年底,它将把“安全和保障”方面的员工和承包商人数增加到20,000人。首席执行官马克·扎克伯格在11月1日告诉投资者,这些费用将“影响我们的盈利能力”。
当然,在公司发布重磅业绩的日子,首席执行官说这些话更容易。Facebook在第三季度赚取了47亿美元,同比增长79%。扎克伯格还表示:“保护我们的社区比最大化我们的利润更重要。”但这是一种错误的二分法。从长远来看,互联网公司只有在避免被不当内容淹没的情况下,才能留住用户和广告商。通往利润的道路指向做正确的事情。 巴雷特*,前* 《彭博商业周刊》 记者,是纽约大学斯特恩商业与人权中心的副主任。