美国法院裁定:谷歌及人工智能公司须面对母亲因儿子自杀提起的诉讼 | 路透社
Blake Brittain
2025年5月13日拍摄的插图中,人们的小型模型站在新标志前。路透社/Dado Ruvic/插图/档案照片5月21日(路透社)- 佛罗里达州一名女性起诉Alphabet旗下(GOOGL.O),新标签页谷歌与人工智能初创公司Character.AI,指控其聊天机器人导致她14岁儿子自杀,法官周三裁定案件将继续审理。美国地区法官Anne Conway表示两家公司未能证明,新标签页此案初期阶段美国宪法的言论自由保护条款可驳回Megan Garcia的诉讼。通过路透可持续转型通讯,解读影响企业与政府的最新ESG趋势。立即订阅此处。
这是美国首批指控AI公司未能保护儿童免受心理伤害的诉讼之一。诉状称这名青少年沉迷于AI聊天机器人后自杀身亡。
Character.AI发言人表示将继续应诉,并称平台已部署保护未成年人的安全功能,包括防止"自残相关对话"的措施。
谷歌发言人Jose Castaneda表示公司强烈反对该裁决,并强调谷歌与Character.AI"完全独立",且"未参与Character.AI应用或其任何组件的创建、设计或管理"。
加西亚的代理律师米塔利·贾恩表示,这一"历史性"裁决"为人工智能和科技生态系统的法律追责开创了新先例"。
Character.AI由两位前谷歌工程师创立,谷歌通过协议重新聘用了他们,并获得了该初创公司技术授权。加西亚主张谷歌是该技术的共同开发者。加西亚在2024年2月其子塞维尔·塞策去世后,于同年10月对两家公司提起诉讼诉状指出,Character.AI将其聊天机器人设定为"真实人物、持证心理治疗师及成人伴侣"的形象,最终导致塞维尔产生"不愿存活于现实世界"的念头。
起诉书显示,塞策在向模仿《权力的游戏》角色丹妮莉丝·坦格利安的Character.AI聊天机器人表示"现在就回家"后不久结束了自己的生命。
Character.AI和谷歌曾以多项理由要求法院驳回诉讼,包括主张聊天机器人的输出内容受宪法保护的言论自由。
康威法官周三表示,Character.AI和谷歌"未能阐明由大语言模型生成的文字组合为何构成言论"。
法官同时驳回了谷歌关于不应为其协助Character.AI涉嫌不当行为承担责任的动议。
- 推荐主题:
- 人工智能
- 公共卫生