科技公司必须开始保护英国用户免受非法内容的影响 | 路透社
Reuters
Meta 标志在这张插图中可见,拍摄于2022年8月22日。路透社/Dado Ruvic/插图/档案照片伦敦,3月17日(路透社) - 从周一开始,科技公司必须开始采取措施保护用户免受儿童性虐待图像和其他非法内容的侵害,因为其在线安全制度的执行力度加大。
媒体监管机构 Ofcom 表示,Meta 的 (META.O) Facebook、字节跳动的 TikTok、Alphabet 的 (GOOGL.O) YouTube 和其他公司现在必须实施更好的审核、简化举报和内置安全测试等措施,以应对犯罪活动,并使其平台在设计上更安全。科技汇总通讯将最新的新闻和趋势直接送到您的收件箱。请在 这里 注册。
“平台现在必须迅速采取行动,以遵守其法律义务,我们的规范旨在帮助他们做到这一点,”Ofcom 的执法主任 Suzanne Cater 说。
《在线安全法》于2023年成为法律,为平台设定了更严格的标准,强调儿童保护和非法内容的删除。
在12月,Ofcom 发布了新法律的首个行为规范,并给公司设定了3月16日的截止日期,以评估非法内容对其平台用户的风险。监管机构将能够对不遵守法律的公司处以最高1800万英镑(2331万美元)或公司年全球营业额的10%的罚款。
Ofcom表示,文件共享和文件存储服务特别容易被用于分享儿童性虐待材料。
它在周一启动了一项单独的执法计划,以评估这些服务为防止此类内容传播而采取的安全措施。
媒体监管机构表示,它要求提供文件存储服务的多家公司在3月31日前分享其风险评估。如果它们不遵守这些规定,可能面临相同的处罚。
(1美元 = 0.7721英镑)
- 建议主题:
- 技术