Instagram被曝存在庞大恋童癖网络——《华尔街日报》
Jeff Horwitz and Katherine Blunt
据《华尔街日报》及斯坦福大学、马萨诸塞大学阿默斯特分校研究人员的调查显示,由Meta平台公司所有的热门社交媒体Instagram,公然为大量涉及未成年人色情内容制作与交易的账户提供联系渠道并助长其传播。
恋童癖者长期利用互联网进行活动,但与那些迎合非法内容需求的论坛和文件传输服务不同,Instagram不仅为这些行为提供平台,其算法还主动推送相关内容。《华尔街日报》和学术研究人员发现,Instagram通过擅长连接小众兴趣群体的推荐系统,将恋童癖者与内容贩卖者相互关联并引导交易。
尽管这些性化账户对多数用户不可见,它们在Instagram上公然展示其特殊癖好。研究人员发现,Instagram允许用户搜索#恋童癖#、#幼童性行为#等露骨标签,并将其导向利用这些术语兜售儿童性虐内容的账户。此类账户常自称由未成年人运营,使用包含"你的小荡妇"等明显性暗示的用户名。
提供非法性内容交易的Instagram账户通常不会公开上传材料,而是发布内容"菜单"。斯坦福互联网观察站发现,某些账户邀请买家定制"特殊要求",部分菜单包含儿童自残视频及"未成年人与动物发生性行为影像"的标价。只要支付足够金额,还可安排线下"见面会"。
推广未成年人性内容违反了Meta制定的规则以及联邦法律。
针对《华尔街日报》的提问,Meta承认其执法运营存在问题,并表示已成立内部工作组来解决所提出的问题。该公司表示:“剥削儿童是一种可怕的罪行”,并补充说,“我们正在不断研究积极防范这种行为的方法。”
Meta表示,过去两年已取缔了27个恋童癖网络,并计划进行更多清除行动。自收到《华尔街日报》的询问后,该平台表示已屏蔽了数千个将儿童性化的标签,其中一些标签下有数百万条帖子,并限制其系统推荐用户搜索已知与性虐待相关的术语。该公司还表示,正在努力防止其系统推荐潜在的恋童癖成年人相互联系或互动彼此的内容。
斯坦福互联网观察站主任、2018年前Meta首席安全官亚历克斯·斯塔莫斯表示,即使是控制明显的虐待行为也可能需要持续的努力。
“一个只有三名学者、访问权限有限的团队能发现如此庞大的网络,这应该给Meta敲响警钟,”他指出,该公司拥有比外部人员更有效的工具来绘制其恋童癖网络。“我希望公司重新投资于人类调查员,”他补充道。
亚历克斯·斯塔莫斯,加利福尼亚州帕洛阿尔托斯坦福互联网观察站主任照片:Helynn Ospina为《华尔街日报》拍摄技术和法律障碍使得Meta公司以外的任何人难以精确衡量该网络的整体规模。
由于有关儿童性内容的法律极为宽泛,即使在公开平台上调查其公开推广行为也具有法律敏感性。
在报道过程中,《华尔街日报》咨询了在线儿童安全领域的学术专家。斯坦福大学网络政策中心下属的斯坦福互联网观察站专注于社交媒体滥用问题,对Instagram上帮助用户连接和查找内容的功能进行了独立量化分析。
《华尔街日报》还联系了马萨诸塞大学救援实验室,该实验室评估了Instagram上的恋童癖者如何融入更大的在线儿童剥削世界。通过不同方法,这两个机构都迅速识别出了推广犯罪性虐待的大规模社区。
研究人员建立的测试账户仅查看网络中的一个账户,就立即收到了"为你推荐"的所谓儿童性内容卖家和买家,以及链接到平台外内容交易网站的账户。仅关注其中几个推荐就足以让测试账户充斥性化儿童的内容。
斯坦福互联网观察站使用与未成年人性行为相关的标签,找到了405个被研究人员标记为"自生成"儿童性材料的卖家——或据称由儿童自己运营的账户,其中一些自称年仅12岁。根据通过网络映射软件Maltego收集的数据,这些卖家账户中有112个共拥有22,000名独立关注者。
未成年性内容创作者和购买者只是致力于儿童色情内容的更大生态系统中的一角。Instagram上的恋童癖社区中,其他账号汇集了支持恋童癖的梗图,或讨论他们接触儿童的途径。曾参与Instagram儿童安全倡议的Meta现任及前任员工估计,主要关注此类内容的账号数量即使没有数百万,也有数十万之多。
一位Meta发言人表示,公司积极寻求清除此类用户,仅一月份就因违反儿童安全政策删除了49万个账号**。**
“Instagram是通往互联网上更露骨儿童性虐待内容的入口,”马萨诸塞大学救援实验室主任布莱恩·莱文说道。该实验室研究网络儿童受害问题并开发法医工具以应对此问题。莱文是司法部研究机构国家司法研究所2022年一份关于网络儿童剥削报告的作者之一。
Instagram估计拥有超过13亿用户,在青少年中尤为受欢迎。斯坦福大学的研究人员在其他较小的社交平台上发现了一些类似的性剥削活动,但他们表示Instagram上的问题尤为严重。“对这些买卖网络来说,最重要的平台似乎是Instagram,”他们在定于6月7日发布的报告中写道。
Meta Platforms位于门洛帕克的园区。照片:Helynn Ospina为《华尔街日报》拍摄Instagram表示,其内部统计数据显示,用户每浏览一万条帖子中,看到儿童剥削内容的不到一条。
社交媒体平台和执法部门打击网络儿童色情传播的努力主要集中在追查已确认的图像和视频,即已知在流通的儿童性虐待材料(CSAM)。美国非营利组织"国家失踪与受虐儿童中心"与执法部门合作,维护了一个此类图像和视频的数字指纹数据库,以及一个在互联网公司之间共享此类数据的平台。
根据美国联邦法律要求,互联网公司算法会对照该列表检查其平台上发布的图像的数字指纹,并在检测到时向中心报告。2022年,该中心收到了3190万份儿童色情报告,主要来自互联网公司,比两年前增加了47%。
Meta旗下包括Instagram、Facebook和WhatsApp在内的应用拥有超过30亿用户,如果这些已知图像未加密,Meta能够检测到这些类型的已知图像。Meta向该中心提交的儿童色情报告占85%,其中约500万份来自Instagram。
Meta对现有儿童剥削内容的自动筛查无法检测到新图像或销售广告。现任和前任员工以及斯坦福大学的研究人员表示,预防和检测此类活动不仅需要审查用户报告,还需要追踪和瓦解恋童癖网络。目标是使这些用户难以相互联系、寻找内容和招募受害者。
马萨诸塞大学的莱文指出,这项工作至关重要,因为执法机构缺乏资源来调查国家失踪与受虐儿童中心收到的海量线索中的一小部分。这意味着平台负有主要责任,以防止形成和正常化儿童性虐待的社区。
斯坦福大学研究发现,与其他平台相比,Meta在这些努力上更为挣扎,既因为执法不力,也因为其设计特性促进了合法和非法内容的发现。
斯坦福团队在Twitter上发现了128个提供儿童性虐待材料出售的账户,不到他们在Instagram上发现数量的三分之一,而Instagram的整体用户基数远大于Twitter。团队发现,Twitter并未像Instagram那样程度地推荐此类账户,并且下架速度要快得多。
在其他受年轻人欢迎的平台上,Snapchat主要用于直接消息传递,因此它无助于创建网络。而TikTok的平台是“这类内容似乎并未扩散”的地方,斯坦福报告称。
Twitter未回应置评请求。TikTok和Snapchat拒绝评论。
斯坦福互联网观察站的首席技术专家大卫·蒂尔表示:“Instagram的问题归结于内容发现功能、话题推荐方式以及平台对搜索和账户间链接的依赖程度。”曾在Meta负责安全和安保问题的蒂尔补充道:“你必须为这种增长密集型的东西设置防护栏,以使其名义上仍然安全,而Instagram没有做到。”
该平台在监管一项基础技术——关键词方面遇到了困难。标签是Instagram内容发现的核心部分,用户可以通过标签标记和找到特定社区感兴趣的内容,从#时尚或#NBA等广泛主题,到#刺绣或#洞穴探险等更小众的标签。
斯坦福互联网观察站拍摄的截图显示了在搜索与恋童癖相关的标签时Instagram弹出的警告和点击选项。图片来源:斯坦福互联网观察站恋童癖者也有他们选择的标签。学术研究人员发现,#pedobait和#mnsfw(“未成年人不宜”)等搜索词及其变体曾被用于标记数千条宣传涉及儿童的性内容帖子,使买家能够轻松找到这些内容。在《华尔街日报》询问后,Meta表示正在禁止这些词汇。
在许多情况下,Instagram允许用户搜索其算法已知可能与非法材料相关的词汇。在这种情况下,用户会看到一个弹出屏幕,提示“这些结果可能包含儿童性虐待的图像”,并指出制作和消费此类材料会对儿童造成“极端伤害”。屏幕为用户提供了两个选项:“获取资源”和“仍然查看结果”。
在回应《华尔街日报》的提问后,Instagram移除了用户查看可能产生非法图像词汇的搜索结果选项。该公司拒绝解释为何曾提供这一选项。
研究人员发现,Instagram上的恋童癖账号既肆无忌惮,又试图用肤浅的手段掩盖其活动。据马萨诸塞大学的莱文称,某些表情符号充当了一种代码,比如地图图像——“对未成年人感兴趣的人"的简称——或者"奶酪披萨”,其首字母与"儿童色情"相同。许多人宣称自己是"生活中小事物的爱好者"。"
账号自称"卖家"或"s3ller",许多人在个人简介中注明了偏好的付款方式。这些卖家账号通常通过说他们"在第14章"或"31岁"后跟一个反向箭头表情符号来暗示孩子的所谓年龄。
马萨诸塞大学的莱文说,一些账号带有性交易的迹象,比如一个账号展示了一个青少年,脸上潦草地写着"妓女"。
一些声称出售自制性内容的用户表示,他们是"无脸的"——只提供颈部以下的图像——因为过去有顾客跟踪或勒索他们的经历。其他人则冒险,通过展示面部可能暴露身份的图像和视频收取高价。
许多账号显示用户的手臂内侧或大腿上有自残疤痕,其中一些人提到了过去的性虐待经历。
即使只是瞥一眼Instagram恋童癖社区的某个账号,也可能触发平台开始推荐用户加入。
加拿大两个孩子的母亲莎拉·亚当斯在Instagram上建立了一个关注群体,致力于揭露儿童剥削问题。照片:《华尔街日报》Alana Paterson摄莎拉·亚当斯是加拿大的一位双胞胎母亲,她在Instagram上建立了一个讨论儿童剥削和社交媒体过度分享风险的社群。由于她的关注焦点,亚当斯的粉丝有时会向她发送他们在平台上遇到的令人不安的内容。她说,二月份有人通过一个标有"乱伦幼童"字样的账号联系她。
亚当斯表示,她只花了报告给Instagram所需的几秒钟时间查看了这个账号——一个拥有超过10,000名粉丝的支持乱伦的梗图合集,之后便试图忘记它。但在接下来的几天里,她开始收到惊恐的家长们的消息。她说,当这些家长查看亚当斯的Instagram个人资料时,由于亚当斯与该账号的接触,他们被推荐了"乱伦幼童"相关内容。
Meta的一位发言人表示,“乱伦幼童"违反了其规定,Instagram在执行上犯了错误。该公司表示,计划通过其新的儿童安全工作组来解决此类不恰当的推荐问题。
与大多数社交媒体平台一样,Instagram推荐的核心是基于行为模式,而不是将用户的兴趣与特定主题匹配。这种方法在提高推荐相关性方面很有效,对于兴趣范围狭窄的社群尤其可靠。
理论上,Instagram上恋童癖社群的这种紧密性应该使Instagram更容易绘制出这个网络并采取措施打击它。《华尔街日报》此前审查的文件显示,Meta过去曾做过这类工作来压制其认为有害的账号网络,比如在1月6日美国国会大厦骚乱后,压制那些宣扬选举非法化的账号。
与其他平台一样,Instagram表示会动员用户协助识别违规账户。但这些举措并非总是有效。
根据对过去一年间多位儿童安全倡导者提交的数十份举报记录的审查,有时用户关于涉及儿童裸露内容的举报会数月得不到回应。
今年早些时候,一名反恋童癖活动人士发现一个自称售卖未成年人性内容的Instagram账户,其中包含"这个少女已为你们这些变态准备好"的帖子。当该活动人士举报该账户时,Instagram回复了一条自动消息:“由于收到的举报数量庞大,我们的团队尚未能审核此内容。”
当同一位活动人士举报另一则衣着暴露的少女配有色情文字的帖子时,Instagram回应称:“我们的审核团队认定该账户内容未违反社区准则。“回复建议用户隐藏该账户以避免看到相关内容。
Meta发言人承认公司收到过这些举报但未采取行动。该发言人表示,经审查发现软件故障导致大量用户举报未能得到处理,且内容审核人员未正确执行平台规则。公司称已修复举报系统漏洞,并重新培训内容审核团队。
即便Instagram下架了售卖未成年人性内容的账户,这些账户也未必会彻底消失。
根据该平台的内部准则,违反其社区标准的处罚通常针对账户而非用户或设备。由于Instagram允许用户运营多个关联账户,该系统使得逃避实质性处罚变得容易。用户经常在个人简介中列出“备用”账户的用户名,这样即使Instagram删除了他们的账户,他们也能轻松地继续向同一批粉丝发布内容。
莎拉·亚当斯的粉丝有时会向她发送他们在Instagram上遇到的令人不安的内容。图片来源:Alana Paterson for The Wall Street Journal在某些情况下,Instagram的推荐系统直接削弱了其自身安全团队的努力。在公司决定打击来自一个以传播儿童色情内容而臭名昭著的加密文件传输服务的链接后,Instagram屏蔽了对该服务名称的搜索。
Instagram基于人工智能的话题标签建议并未领会这一意图。尽管拒绝显示该服务名称的搜索结果,但平台的自动填充功能却建议用户在名称末尾加上“boys”和“CP”等词进行搜索。
在回应《华尔街日报》的询问时,该公司试图禁用这些话题标签。但几天之内,Instagram又开始推荐该服务名称的新变体,这些变体同样指向销售所谓未成年人色情内容的账户。
在斯坦福大学和《华尔街日报》引起公司注意后,Instagram进行了初步清理,UMass的莱文随后检查了Instagram上一些剩余的未成年人卖家账户。和之前一样,即使只是查看其中一个账户,Instagram也会推荐新的类似账户。Instagram的推荐正在帮助重建该平台安全团队正试图拆除的网络。
Meta发言人表示,目前正在构建防止此类推荐的系统。莱文称Instagram在推广恋童内容和账户中扮演的角色不可接受。
“拉下紧急刹车,“他说。“经济利益值得这些孩子受到的伤害吗?”
联系杰夫·霍维茨,邮箱:[email protected];联系凯瑟琳·布伦特,邮箱:[email protected]
刊登于2023年6月8日印刷版,标题为《Instagram与恋童癖网络存在关联》。