韩国直面AI性犯罪的无形创伤:“法律未能保护我” | 南华早报
Lee Seung-ku
当韩国研究生露玛*2021年通过Telegram收到自己的AI换脸淫秽图片时,她连续数周无法入睡。这些图片是基于她公开资料照片用人工智能技术合成的,而警方却告知她无能为力。31岁的露玛对《本周亚洲》表示:“我感到孤立无援,不得不自己收集证据甚至指认罪犯…感觉像在替警方办案。”
嫌疑人朴姓大学校友共锁定61名女性,通过Telegram散布了1852张AI生成的淫秽图片。朴某及其同伙姜某自称"照片合成专家"。
去年9月,朴某和姜某分别被判10年与4年监禁。二人提起上诉后,首尔高等法院上周五考虑到已与部分受害者达成和解,将刑期分别减为9年和3年6个月。
露玛的个案折射出韩国数字性犯罪激增现象。韩国性别平等与家庭部数据显示,2024年此类案件超1.8万起,同比增加12.7%。
韩国504所学校中超过800名学生和教职员工仅在一个月内就成为了深度伪造色情犯罪的受害者。照片:Shutterstock
尤其令人担忧的是这些犯罪中深度伪造技术的爆炸式增长,仅去年此类案件就上升了227%。深度伪造利用人工智能模仿一个人的面部、声音或行为——受害者常被植入伪造的色情内容中。