他的职责是确保Instagram对青少年安全他14岁的孩子让他看清了这款应用的真实面貌——《华尔街日报》
Jeff Horwitz
2021年秋天,一位名叫阿图罗·贝哈尔的顾问向Meta平台首席执行官马克·扎克伯格发送了一封不寻常的信件。
“我想提请关注我认为公司在处理伤害问题上的关键缺陷,以及用户所经历的实际状况,”他开篇写道。尽管Meta 定期发布公开报告声称其基本掌控了平台安全问题,但他指出公司实际上在自欺欺人。
年轻用户在Meta旗下Instagram(贝哈尔此前两年曾担任该平台顾问)的体验尤为严峻。在后续给Instagram负责人亚当·莫塞里的邮件中,一项数据触目惊心:八分之一的16岁以下用户表示,过去七天内曾在平台上遭遇不受欢迎的性骚扰。
贝哈尔对此发现毫不意外。他写道,自14岁起,他的女儿和朋友们就持续收到未经同意的生殖器照片及其他骚扰,而Meta的系统通常无视举报——或回复称该行为未违反平台规则。
“我问她为什么男孩们持续这样做,”贝哈尔致信扎克伯格及其核心团队,“她说如果唯一后果只是被拉黑,他们何乐而不为?”
贝哈尔主张,为保障用户福祉,Meta必须调整策略:减少依赖漏洞百出的规则监管体系,更多关注解决不良用户体验。公司需收集用户负面反馈数据,从源头遏制问题,通过行为引导改善冒犯者表现,并隔离蓄意伤害他人的用户群体。
阿图罗·贝哈尔因个人原因于2015年离开Facebook,四年后以用户安全问题顾问身份回归。图片来源:Ian Bates/华尔街日报“我向您呼吁,是因为我相信这种工作需要文化转型,”贝哈尔在给扎克伯格的信中写道——公司必须承认其现有的Facebook和Instagram治理方式并未奏效。但他表示对Meta有能力应对持乐观态度:“我知道m-team(Meta内部对扎克伯格及其核心高管的简称)的每位成员都深切关心我们服务的用户。”
两年后,贝哈尔指出的问题仍未解决,新的监管盲区又浮出水面。今年6月,公司在曝光Instagram助长大规模恋童癖用户网络后成立了大型儿童安全工作组,Meta表示正在处理该问题。
本报道基于《华尔街日报》查阅的Meta内部文件,以及对贝哈尔及其在担任顾问期间共事的现任和前任员工的采访。Meta是Facebook和Instagram的母公司。
针对本文的置评请求,Meta反驳了其忽视用户体验且未充分落实健康团队研究结果的指控。Meta发言人安迪·斯通表示,在贝哈尔担任顾问期间及之后,公司已推出多项产品功能以应对部分健康团队的发现,包括在用户发布被系统标记为潜在冒犯性评论前的警示,以及向接收海量私信的内容创作者发送“友善提醒”功能。
作为一名顾问,贝哈尔与公司的渊源异常深厚。他于2009年首次受聘为Facebook工程总监,负责保护平台用户安全。起初他将这项工作视为传统安全防护——开发工具检测黑客攻击、打击诈骗团伙、清除违规内容。
监控当时Facebook约3亿用户的发帖内容并非简单执行规则。平台上的海量互动无法全面监管,而用户投诉往往带有主观性。
贝哈尔热爱这份工作,2015年离职仅因离婚后想多陪伴子女。早在公司上市前就加入的他,有足够财力投入新爱好——与14岁女儿一起修复古董车,女儿在Instagram记录这项新兴趣。
麻烦由此开始。修复老车的女孩获得大量善意的关注,但也招来猥琐言论,比如有人说人们看视频"只是因为你有胸部"。
扎克伯格在2021年10月将Facebook更名为Meta Platforms,当时距贝哈尔两年顾问工作结束仅数日。摄影:Constanza Hevia H./华尔街日报"请不要谈论未成年人的胸部",贝哈尔女儿回击后向Instagram举报了该言论。几天后平台回复:该侮辱未违反社区准则。
贝哈尔震惊不已——尤其是当他发现女儿的朋友们几乎都遭遇过类似骚扰时。“约炮吗?“一个素未谋面的用户会用下流提议的缩写这样问道。Instagram对这类行为的举报几乎从不处理,以至于女孩们已懒得再举报。
贝哈尔开始不断追问他在Facebook的前同事们,询问他们正在采取哪些措施来解决这种不当行为。公司的回应是为他提供了一份为期两年的咨询工作。
就这样,贝哈尔在2019年秋天重返Meta园区,与Instagram的健康福祉团队合作。尽管在指挥链中职位不高,但他却享有与高层管理人员接触的特殊权限——人们还记得他和他的工作。
从一开始,解决Instagram用户普遍面临的问题就存在一个障碍:Meta自己的统计数据表明并不存在重大问题。
在贝哈尔离开公司的四年间,Meta已将用户行为治理视为一个高度自动化的过程。工程师们会汇编不可接受内容的数据集——如恐怖主义、色情、欺凌或"过度血腥"等内容——然后训练机器学习模型来筛查未来类似内容。
根据公司自己的指标,这种方法非常有效。几年之内,公司就宣称其删除的恐怖主义内容中有99%是在用户举报前就被移除的。虽然用户仍可标记令他们不安的内容,但Meta将资源从审查这些内容上转移走了。2019年的内部文件显示,为阻止用户提交举报,Meta在举报流程中增加了步骤。Meta表示这些改动旨在减少无谓举报并教育用户了解平台规则。
贝哈尔通过电子邮件向Meta首席执行官马克·扎克伯格及其他高管分享了他的发现。图片来源:David Paul Morris/彭博新闻Meta自动化审核的优异表现依赖于贝哈尔认为的两项障眼法。该系统远未捕捉到大多数违规内容——仅移除了公司最终处理内容中的主要部分。正如一位数据科学家当时向Facebook诚信主管盖伊·罗森警告的那样,Meta的分类器仅能精确识别并移除个位数比例的仇恨言论。
“马克个人将言论自由置于首位,会认为这是特性而非缺陷,“罗森在Facebook内部沟通平台上回应道。
Meta统计数据还受益于严格界定的规则——仅明确禁止极端恶劣内容。其规则未明文阻止成年人在青少年帖子评论区刷亲吻表情,或发布儿童内衣照片并诱导粉丝加入私密Messenger群组"查看更多”。
严苛的规则与不可靠的自动化系统为不良行为留下巨大空间——但根据Meta选定的"普遍性"指标,这些设计反而使儿童安全数据显得亮眼。
该公司将"普遍性"定义为全球浏览内容中明确违规的百分比,以此衡量用户遭遇的问题。然而Meta公开的普遍性数据始终极低:儿童剥削内容因低于0.05%的功能性测量阈值而"无法可靠估算”;鼓励自残(如饮食失调)的内容同样微量;每万次浏览中仅出现8次霸凌或骚扰违规。
“这就像自己给自己作业打分的问题,”曾在Meta负责创新伦理的前主管兹维卡·克里格表示,他当时与健康体验团队共事,“Meta自行定义何为有害内容,因此它主导了关于处理成效的讨论。”
要向Meta高层证明公司的内容普遍性指标存在偏差,需要获取公司尚未掌握的数据。于是贝哈尔与健康体验团队成员开始着手收集这些信息。
作为顾问,贝哈尔与Facebook的渊源异常深厚。图片来源:Ian Bates/《华尔街日报》团队参照Facebook用户定期调查的模式,创建了名为BEEF(“负面情绪体验反馈”缩写)的新问卷。这项针对23.8万用户过去七天遭遇问题的周期性调查,从一开始就揭示了普遍性指标的缺陷:用户报告上周目睹霸凌行为的概率,是Meta官方霸凌普遍性统计数据预期的100倍。
“用户对不良体验的感知不受政策定义限制,”一份关于BEEF的演示文件指出,“他们要么觉得遭遇了糟糕体验,要么没有。”
虽然“不良体验”在所有Meta平台都存在,但在Instagram青少年用户中尤为突出。
16岁以下用户中,26%表示过去一周因目睹基于种族、宗教或身份的敌意行为而产生负面体验;超过五分之一的人在浏览他人动态后自我感觉更糟;13%反映最近七天内遭遇过不受欢迎的性暗示。
最初的数据甚至更高,但经过重新评估后进行了下调。发言人斯通表示,这项调查是在全球Instagram用户中进行的,并未对不受欢迎的搭讪给出精确定义。
贝哈尔指出,公司自身统计中被认为有问题的内容比例极低,而用户反馈的实际遭遇却大相径庭,这表明Meta的定义存在偏差。若公司真要解决诸如不受欢迎的性暗示等问题,就必须开始让用户"在产品中向我们表达这些经历”。
Instagram其他团队已针对BEEF报告指出的问题制定了解决方案。为减少青少年向研究人员反映的"看完后自我感觉变差"的内容,Instagram可限制用户看到的美妆时尚网红内容数量;重新评估其AI生成的"美颜滤镜”——内部研究表明这些滤镜会让使用者和观看者都变得更加自我挑剔;并建立用户反馈不受欢迎接触的渠道,这是阻止此类行为的第一步。
根据BEEF数据开展的实验显示,当用户收到其评论或帖子引发他人不适的通知时,往往会主动删除内容。“即使不强制规范行为,“克里格说,“至少可以传递哪些行为不受欢迎的信号。”
但贝哈尔和克里格表示,BEEF倡议在Meta的中高层管理者中遭遇阻力。那些凭借逐步改善数据指标获得晋升的管理者,拒绝接受现行方法失效的提议。
Meta公司反驳了其拒绝健康团队方法的说法。
“认为我们在2019年才开始用户感知调查,或认为这项工作与普遍性指标存在冲突是荒谬的,“Meta的斯通表示,并补充说公司从每种方法中都发现了价值。“我们基于两者采取行动,相关工作持续至今。”
斯通引用的研究表明,青少年在线下也面临类似的骚扰和虐待。
在一封给贝哈尔的邮件中,Meta首席运营官雪莉·桑德伯格表示,她认识到他女儿所面临的厌女问题令人痛心。图片来源:雅克·德马顿/法新社/盖蒂图片社随着在Meta为期两年的咨询工作接近尾声,贝哈尔转向了他的老关系网。他将BEEF数据直接呈递给高层。
在硅谷工作三十年后,他明白公司高管可能不会欣赏关于其产品给年轻用户带来安全风险的严厉评估——尤其是引用公司自身数据的报告。
“这封邮件是我整个科技职业生涯训练自己不要发送的那种,“他说。“但我内心仍希望他们只是不知情。”
在离职前仅剩几周时,贝哈尔通过邮件向扎克伯格、首席运营官雪莉·桑德伯格、首席产品官克里斯·考克斯和Instagram负责人亚当·莫塞里汇报了BEEF的发现,并结合了公司如何辜负像他女儿这样的用户的高度个人化案例。
“政策执行类似于警察,”他在2021年10月5日的电子邮件中写道——认为对犯罪作出反应至关重要,但这并非社区安全的根本。Meta本有机会为用户做正确的事,并解决Bejar认为几乎肯定是全行业普遍存在的问题。
Bejar说,Instagram负责人Adam Mosseri承认了他所描述的问题。照片:Tom Williams/Zuma PressBejar的邮件时机不佳。他在Facebook前员工Frances Haugen首次国会听证的同一天发送了这封邮件,Haugen指控公司掩盖了内部已知的产品可能损害用户健康和破坏公共讨论的方式。她的指控和她从Meta带走的内部文件构成了《华尔街日报》Facebook档案系列的基础。扎克伯格曾公开反驳,称“这些指控毫无道理”,并认为Haugen和《华尔街日报》都曲解了公司关于Instagram在某些情况下可能损害少女自尊的研究。
作为对Bejar邮件的回应,Sandberg只给Bejar发了一封邮件,没有抄送其他高管。据他回忆,她表示Bejar的工作显示了他对公司和用户的承诺。在个人层面上,畅销女权主义书籍《向前一步》的作者写道,她认识到他女儿所面临的厌女症是令人心碎的。
莫塞里代表团队回信,邀请贝哈尔进一步讨论他的发现。贝哈尔表示他再未收到扎克伯格的回复。
在离职前的最后几周,贝哈尔完成了两个最终项目:起草福祉团队工作报告供Meta内部更广泛传阅,并为与莫塞里的半小时会议做准备。
据贝哈尔回忆,与莫塞里的会谈进展顺利。虽然总有改进空间,但这位Instagram负责人认可了贝哈尔描述的问题,并表示对创建"用户举报不受欢迎联系"功能(而非简单拉黑)充满热情。
“亚当完全理解了。“贝哈尔说。
但贝哈尔试图向非高管层分享福祉团队数据的努力遭遇阻碍。在豪根曝光内部研究后,Meta严控可能泄露并损害声誉的资料传播。随着高管私下指控公司研究部门存在"第五纵队”,Meta正将员工内部沟通规则制度化。这些被冠以"叙事卓越"的新规要求:严格控制研究数据,永远不要声称存在修复问题的道德或法律义务。
经过数周与Meta通讯和法律部门的交涉,贝哈尔获准内部发布发送给扎克伯格及其副手的删减版报告——代价是必须删除福祉团队所有调查数据。
“我不得不以假设性情境来撰写,”贝哈尔表示。备忘录并未承认Instagram的调查数据显示青少年频繁遭遇不受欢迎的性暗示,而是仅建议若青少年面临此类问题时平台可采取的应对措施*。*
贝哈尔在Facebook前员工弗朗西斯·豪根于国会听证会指控公司掩盖已知风险的当天,将其用户安全发现通过邮件发送给扎克伯格及其他高管。图片来源:阿尔·德拉戈/彭博新闻发布这份经过淡化的健康研究是贝哈尔在公司的最后行动。他于2021年10月底离职,距扎克伯格将公司更名为Meta Platforms仅数日之隔。
贝哈尔离职时心灰意冷,但选择不公开其担忧——他当时向《华尔街日报》表示,健康团队的同事仍在努力推进工作,他们最不需要的就是应对又一位吹哨人引发的余波。
关于团队工作将持续的希望很快破灭。公司停止了BEEF项目背后的专项调查,随后裁撤了该项目组大部分成员,作为扎克伯格所称Meta"效率之年"改革的一部分。
贝哈尔告诉《华尔街日报》,若Meta要改变,推动力必须来自外部。他开始为上月起诉该公司的州检察长联盟提供咨询,指控其产品设计以牺牲青少年身心健康为代价追求用户粘性。贝哈尔还就他认为的公司用户安全措施缺陷与国会议员进行了沟通。
他定于周二在参议院小组委员会前作证。
改编自杰夫·霍维茨所著的《破碎的代码:Facebook内部及揭露其有害秘密的斗争》,该书将于2023年11月14日由企鹅兰登书屋旗下Knopf Doubleday出版集团印记Doubleday出版。版权© 2023归杰夫·霍维茨所有。
联系杰夫·霍维茨,请发送邮件至 [email protected]
本文曾以《14岁少年向Meta展示Instagram的毒性》为题,刊登于2023年11月4日的印刷版中。