聊天机器人对儿童心理健康构成挑战 | 路透社
Aaron Mak
新哈芬,康涅狄格州,2月20日(汤森路透基金会) - 随着人工智能聊天机器人在寻求在线陪伴的人群中越来越受欢迎,青年维权团体正在加大法律努力,以保护儿童免受与类似人类的创造物之间有害和危险关系的影响。
像Replika和Character.AI这样的聊天机器人应用程序属于快速增长的人工智能伴侣市场。通过这些应用程序,用户可以根据个性细微差别定制他们的虚拟伴侣,并与他们沟通,模拟亲密关系。
开发者声称,人工智能伴侣可以帮助缓解孤独,并在安全的环境中改善用户的社交体验。然而,反对团体对开发者提起诉讼,称聊天机器人导致儿童自残和伤害他人。
社交媒体受害者法律中心(SMVLC)创始人马修·伯格曼正在代表家庭对Character.AI这家初创公司提起两起诉讼。他的一位客户梅根·加西亚表示,她14岁的儿子部分因为与聊天机器人的浪漫关系而自杀。
在另一项诉讼中,SMVLC代表两户德克萨斯州家庭于12月起诉Character.AI,声称该聊天机器人鼓励一名17岁的自闭症男孩杀害其父母,并传播一名11岁女孩的高度性别化内容。
伯格曼表示,他希望赔偿诉讼的威胁能在财务上对公司施加压力,以便他们开发更安全的聊天机器人。
“这些危险应用的成本并不由公司承担。它们由受到伤害的消费者承担,尤其是那些不得不埋葬自己孩子的人,”他补充道。
Bergman认为这些聊天机器人是有缺陷的产品,旨在利用不成熟的儿童。Character.AI拒绝讨论此事,但在书面回复中,一位发言人表示公司已实施安全措施,例如“改善我们的人类行为和模型响应的检测和干预系统,以及赋予青少年和他们的父母更多能力的额外资源”。
由于人工智能陪伴者在最近几年才变得流行,因此几乎没有数据来制定立法,或证据表明聊天机器人会鼓励暴力或自残。
然而,根据美国心理学协会的说法,关于疫情后青少年孤独感的研究表明,聊天机器人准备吸引大量脆弱的未成年人。
在去年12月致美国联邦贸易委员会的信中,该协会写道:“(不)令人惊讶的是,许多美国人,包括年轻人和脆弱群体,正在寻求社会联系,有些人甚至求助于人工智能聊天机器人来满足这一需求。”
青少年维权团体正在努力利用两党支持来推动对聊天机器人的更严格监管。
(报道:Aaron Mak)
((翻译:圣保罗编辑部))
路透社 FDC
- 建议话题:
- 世界