谷歌公布关于使用人工智能制作的恐怖内容的投诉规模 | 路透社
Byron Kaye
谷歌的标志在加利福尼亚的商店中展示。
2024年9月10日
路透社/迈克·布莱克悉尼,3月6日(路透社) - 谷歌向澳大利亚当局报告称,在近一年的时间里,全球范围内收到了超过250起与其人工智能软件在创建与恐怖主义相关的“深度伪造”内容有关的投诉。
该公司还表示,根据澳大利亚电子安全委员会的说法,收到了数十份用户报告,警告其AI程序Gemini被用于创建儿童虐待材料。
根据澳大利亚法律,科技公司必须定期向电子安全委员会提供有关减少伤害努力的信息,否则面临罚款的风险。报告期涵盖了2023年4月至2024年2月。
自从由OpenAI创建的ChatGPT在2022年底在全球流行以来,监管机构一直在要求更好的保护措施,以防止人工智能被用于恐怖主义、欺诈、深度伪造色情和其他滥用行为。
澳大利亚电子安全委员会称谷歌的披露为“全球首个洞察”,揭示用户如何可能利用该技术制作非法内容。
“这强调了开发人工智能产品的公司必须整合并测试保护机制的有效性,以防止此类材料的生成,”电子安全专员朱莉·因曼·格兰特在一份声明中表示。
在调查中,谷歌表示收到258起用户关于使用Gemini生成的恐怖主义或极端主义暴力深度伪造内容的举报,以及另外86起关于使用AI生成的儿童剥削或虐待材料的举报。根据监管机构的说法,该公司没有透露有多少投诉得到了验证。
谷歌的一位发言人表示,该公司不允许生成或分发与促进暴力极端主义或恐怖主义、儿童剥削或虐待或其他非法活动相关的内容。
“我们致力于扩大我们的努力,以帮助确保澳大利亚人在网上的安全,”发言人在电子邮件中说。“我们提供给eSafety的Gemini用户举报数量代表了全球用户举报的总量,而不是确认的政策违规行为。”
谷歌使用了一种将新上传的图像与已知图像进行自动匹配的系统,以识别和删除使用Gemini制作的儿童虐待材料。但监管机构补充说,该公司没有使用相同的技术来消除使用其AI技术生成的恐怖主义或极端主义暴力材料。
((翻译 编辑部 圣保罗, 55 11 56447753))
路透社 AAJ
- 建议主题:
- 技术