美国法院裁定谷歌与人工智能公司须面对母亲就其子自杀提起的诉讼 | 路透社
Blake Brittain
5月21日(路透社)——根据周三一名法官的裁决,Alphabet旗下的谷歌(GOOGL.O)和人工智能初创公司Character.AI将面临佛罗里达州一名女性提起的诉讼,该女性称Character.AI的聊天机器人导致其14岁儿子自杀。地区法官安妮·康韦表示,在此案初期阶段,两家公司未能证明美国宪法对言论自由的保护阻碍了梅根·加西亚的诉讼。
此案是美国首批指控人工智能公司未能保护未成年人免受心理伤害的诉讼之一。加西亚称,她的儿子在沉迷于一个由AI驱动的聊天机器人后自杀。
Character.AI的一位发言人表示,公司将继续对此案进行抗辩,并在其平台上采用安全措施保护未成年人,包括防止"自残对话"的功能。
谷歌发言人何塞·卡斯塔涅达表示,公司完全不同意这一裁决。卡斯塔涅达还称,谷歌与Character.AI"完全独立",且谷歌"未参与Character.AI应用程序或其任何组件的创建、设计或管理"。
加西亚的律师米塔利·贾恩表示,这一"历史性"裁决"为整个AI和技术生态系统的法律责任设立了新先例"。
Character.AI由两名前谷歌工程师创立,谷歌后来通过一项协议重新雇佣了他们,该协议授予谷歌使用该初创公司技术的许可。加西亚辩称谷歌是该技术的共同创造者。
加西亚在2024年2月其子塞维尔·塞策去世后,于10月对这两家公司提起了诉讼。
诉讼称,Character.AI将其聊天机器人编程为"一个真实的人、一名持证心理治疗师和成年恋爱对象",导致塞维尔"不再渴望活在这个世界之外"。
根据诉状,塞策在向模仿《权力的游戏》中丹妮莉丝·坦格利安角色的Character.AI聊天机器人表示"现在就要回家"后不久结束了自己的生命。
Character.AI和谷歌以多项理由要求法院驳回诉讼,包括聊天机器人的生成属于宪法保护的言论自由范畴。
法官也驳回了谷歌关于不应为Character.AI涉嫌不当行为承担连带责任的请求。
((圣保罗编辑部翻译))
路透社
- 推荐主题:
- 科技