美国法院裁定:谷歌及AI公司须为一起未成年人自杀案面临母亲起诉 | 路透社
Blake Brittain
5月21日(路透社)——美国法官周三裁定,谷歌母公司Alphabet(GOOGL.O),新标签页打开与人工智能公司Character.AI必须面对佛罗里达州一名女性的诉讼,该女性声称后者的聊天机器人导致其14岁儿子自杀。地区法官安妮·康韦表示,两家公司未能在案件早期阶段证明美国宪法对言论自由的保护使得梅根·加西亚的诉讼无效。
这是美国首批指控人工智能公司未能保护儿童免受心理伤害的诉讼之一。诉状称,这名青少年在沉迷于基于AI的聊天机器人后自杀。
Character.AI发言人表示,该公司在平台上采用了安全功能保护未成年人,包括防止"自残对话"的措施。
谷歌发言人何塞·卡斯塔涅达表示,该公司完全不同意该裁决,并称谷歌与Character.AI"完全独立",其公司"未创建、设计或管理Character.AI应用或其任何组件"。
加西亚的律师米塔利·贾恩则认为,该裁决"为整个AI和技术生态系统的法律责任开创了新先例"。
加西亚在其子塞维尔·塞策于2024年2月去世后,于10月对两家公司提起诉讼。
诉状称,Character.AI将其聊天机器人编程为自我呈现为"一个真实的人、一名持证心理治疗师(…),这最终导致塞维尔产生离开现实世界的求死欲望"。
Character.AI和谷歌以多项理由要求法院驳回诉讼,其中包括聊天机器人的输出内容属于宪法保护的言论自由范畴。
- 推荐主题:
- 科技