AI“Nudify”应用程序在照片中脱掉女性的使用量飙升-彭博社
Margi Murphy
应用程序和网站使用人工智能在照片中脱掉女性的人气正在飙升,研究人员称。
社交网络分析公司Graphika发现,仅在九月份,就有2400万人访问了脱衣网站。
Graphika称,许多这些脱衣或“裸化”服务利用流行社交网络进行营销。例如,自今年年初以来,在社交媒体上广告脱衣应用的链接数量增加了2400%,包括在X和Reddit上。这些服务利用人工智能重新创建图像,使人物裸体。许多服务只对女性有效。研究人员说。
阅读更多:没有法律保护人们免受深度伪造色情的侵害。这些受害者进行了反击
这些应用程序是非自愿色情的一种令人担忧的趋势的一部分,这是由于人工智能的进步而开发和传播的——一种被称为深度伪造色情的虚构媒体。它的传播涉及严重的法律和道德障碍,因为这些图像通常是从社交媒体上获取并在未经主体同意、控制或知情的情况下传播。
Graphika表示,这一受欢迎程度的上升与几个开源扩散模型的发布相对应,或者说是人工智能可以创建比几年前更优秀的图像。由于它们是开源的,应用程序开发者使用的模型是免费提供的。
“你可以创建一些看起来真实的东西,”Graphika的分析师Santiago Lakatos说道,指出以前的深度伪造通常模糊不清。
在X上发布的一张图片宣传了一个脱衣应用,使用的语言暗示客户可以创建裸体图片,然后发送给被数字脱衣的人,引发骚扰。与此同时,其中一个应用在谷歌的YouTube上付费推广内容,并且在搜索“nudify”时首先出现。
一位谷歌发言人表示,公司不允许包含性暗示内容的广告。
“我们已经审查了相关广告,并删除了违反我们政策的广告,”该公司表示。
一位Reddit发言人表示,该网站禁止非自愿分享虚假的性暗示材料,并因此研究结果封禁了几个域名。X没有回复评论请求。
除了流量增加外,一些服务声称他们的网站吸引了大量客户,其中一些服务每月收费9.99美元。“他们的业务做得很好,”Lakatos说道。他描述了其中一个脱衣应用,“如果你相信他们的话,他们的网站宣传每天有超过一千名用户。”
公众人物的非自愿色情素材长期以来一直是互联网的祸害,但隐私专家越来越担心人工智能技术的进步使深度伪造软件变得更容易和更有效。
“我们看到越来越多的普通人以普通目标为对象进行这样的行为,”电子前沿基金会的网络安全主任Eva Galperin说道。“你会看到这种情况发生在高中生和大学生中。”
许多受害者从未发现这些图片,但即使发现了,他们也可能很难让执法部门进行调查或找到资金来进行法律诉讼,Galperin说。
目前,美国没有禁止制作深度伪造色情作品的联邦法律,尽管美国政府确实禁止生成这类未成年人的图片。去年11月,一名北卡罗来纳州的儿童精神病医生因使用脱衣应用程序对他的患者的照片进行深度伪造而被判处40年监禁,这是根据禁止深度伪造生成儿童性虐待材料的法律进行的首次起诉。
TikTok已经封锁了关键词“脱衣”,这是与这些服务相关的热门搜索词,警告任何搜索这个词的人,它“可能与违反我们准则的行为或内容有关”,该应用表示。TikTok的一位代表拒绝详细说明。作为回应,Meta Platforms Inc.也开始封锁与搜索脱衣应用程序相关的关键词。一位发言人拒绝置评。