Instagram用血腥内容淹没用户信息流,一句“抱歉”难以平息众怒——彭博社
Dave Lee
Instagram用户不应被迫面对暴力与死亡的画面。
摄影师:Vincent Feuray/AFP/Getty Images
十四岁那年,我在当时最流行的文件共享软件Limewire上搜索视频时,误下载了一段内容。
实际收到的视频与描述完全不符。至今我仍清晰记得关闭视频那几秒后残留的恐怖画面——一名年轻女性被杀害的惨状,当时反应迟缓未能避开这骇人场景。在那个互联网如同蛮荒西部的年代,这类事情时有发生,使用此类服务就得承担这种风险。
彭博社观点越南向埃隆·马斯克递出的橄榄枝开了坏先例美日战争?只存在于《美国队长》中当"中国替代者"身份不再足够为表情包收购InfowarsInstagram用户本不该遭遇这种危险。
然而周四,404 Media、华尔街日报等媒体纷纷报道该应用出现"故障",将极端暴力和死亡视频推送到用户日常的朋友和网红内容之间。据《华尔街日报》报道,周三起信息流开始充斥黑暗内容,受影响者可能包括未成年人。
部分视频在播放前会显示“敏感内容”警告,需要用户点击才能查看。但许多视频并未如此——它们直接自动开始播放。
阅读毫无戒心的用户评论时,我想起了14岁的自己,以及那些突如其来、毫无心理准备的暴力视频带来的持久阴影。“今天我目睹了十个人死去,”一位用户告诉《华尔街日报》。另一位在Reddit上写道:“感觉今天失去了部分人性”,称这导致彻夜难眠。
Instagram母公司Meta平台公司已致歉。“我们已修复导致部分用户在Reels推荐流中看到不当内容的错误,”发言人表示。该公司拒绝透露受影响人数。网络讨论表明这绝非孤立事件。
受影响用户必须追究Meta的责任。这是首次出现该公司算法主动对用户造成心理创伤的明确案例。错误原因是什么?将采取哪些措施防止重演?是否有人需担责?Meta不会主动说明。另一个关键问题是:为何Instagram会允许存在名为"BlackPeopleBeingHurt"这类页面分享的内容?
去年底,140余名为Meta工作的肯尼亚内容审核员被确诊创伤后应激障碍——医生表示,这是长期筛查创伤性材料所致。值得庆幸的是,Instagram用户周三(或许还有周四)所见,不过是这些每天工作10小时的审核员所处理内容的冰山一角。但请相信我:只需一个片段,就足以在你的脑海中烙下终身印记。
公司坚称这一错误与其近期宣布的内容审核政策调整无关。上个月,该公司表示将停止删除部分原先会被禁止的内容,但尚未完整说明当前允许发布的具体标准。其表示将减少使用自动化流程删除有害内容,转而依赖用户举报。首席执行官马克·扎克伯格承认这意味着公司"会漏掉更多不良内容"。
Meta针对暴力内容的现行政策允许平台上出现最令人不安的画面。展示人体"肢解"和"内脏"的影像只要加上警示标签即可发布,展示"烧焦"尸体和"割喉"的图像视频同样被允许。不过应家属要求,Meta员工会删除此类内容——这倒显得他们格外仁慈。
不幸的是(虽然并非Meta的过错),网络上确实存在对此类俗称"重口味"视频的热衷群体。其他社交平台也面临同样问题,例如Reddit曾清理"观看死亡"等版块。但那些案例中,寻求此类内容者需要主动搜寻。而这次不同:作为数十亿用户信赖的防护盾,这家公司出现了灾难性的系统失效。
在Instagram动态中看到极端暴力内容会对年轻人的心理产生什么影响?Meta的道歉并不能解决问题。
更多来自彭博观点的内容:
想要更多彭博观点?终端读者请前往OPIN <GO>。或订阅我们的每日通讯。