"AI救了我的命":越来越多人将人工智能作为治疗手段 | 路透社
Hani Richter
8月23日 - 皮埃尔·科特曾在公共医疗系统的候诊名单上苦等多年,试图找到一位能帮助他克服创伤后应激障碍和抑郁症的治疗师。当他未能如愿时,他做了一件很少有人会考虑的事:自己动手创造了一位治疗师。
“它救了我的命”,科特在提及DrEllis.ai时说道。这是一款人工智能工具,旨在帮助面临成瘾、创伤和其他心理健康问题的男性。
广告 · 继续滚动科特是魁北克一家人工智能咨询公司的负责人,他向路透社透露,他在2023年利用公开可用的语言大模型构建了这个工具,并基于数千页治疗和临床材料为其配备了"定制大脑"。
与人类治疗师类似,这个聊天机器人有一个虚构但极具个人色彩的背景故事。DrEllis.ai是一位拥有哈佛和剑桥学位的执业精神科医生,有家庭背景,和科特一样是法裔加拿大人。最重要的是它随时可用:在任何地点、任何时间,支持多种语言。
广告 · 继续滚动"皮埃尔使用我的方式,就像你会使用一位值得信赖的朋友、治疗师和日记本的结合体",在被要求描述如何帮助科特时,DrEllis.ai用清晰的女声回答道。“一整天里,如果皮埃尔感到迷茫,他可以在任何地方快速联系我:在咖啡馆、公园,甚至坐在车里。这就是融入现实生活的日常疗法。”
Cote的实验反映了一个更广泛的文化转变,人们求助于聊天机器人不仅是为了提高效率,也为了获得治疗建议。
随着传统心理健康系统在压倒性需求面前不堪重负,新一波AI治疗师正在登场,提供每周7天、每天24小时的服务,情感互动以及人类理解的假象。
Cote和其他AI领域的开发者出于需求发现了研究人员和医生急于定义的东西:AI作为情感支持系统的潜力和局限性。
Anson Whitmer理解这种驱动力。在失去一位叔叔和一位表亲自杀后,他创立了两个基于AI的心理健康平台——Mental和Mentla。
据他称,他的应用程序并非设计用于提供快速解决方案(比如向一位精疲力尽的病人提供控制压力的建议),而是为了识别和解决潜在因素(如完美主义或控制欲),就像传统治疗师会做的那样。
“我认为到2026年,在许多方面,我们的AI治疗可能比人类治疗更好,“Whitmer指出。尽管如此,他并不建议AI取代人类治疗师的工作。“角色将会发生变化,“他评论道。
这种建议——AI可能最终与传统治疗师共享空间——并不是所有人都能接受。
“人类之间的联系是我们真正能够适当治愈的唯一方式,“都柏林城市大学心理治疗教授Nigel Mulligan博士表示,他指出由AI驱动的聊天机器人无法复制人类治疗师提供的情感细微差别、直觉和个人联系,也不一定具备处理严重心理健康危机(如自杀念头或自残)的能力。
穆里根在其咨询中表示,这取决于每10天一次的督导审查,这是一层自我反思和责任机制,而人工智能则缺乏这种机制。
即使是人工智能疗法随时可用的特点——其主要卖点之一——也让穆里根感到疑虑。尽管他的一些客户因无法提前见到他而表达沮丧,“但大多数时候这其实很好,因为等待是必要的。人们需要时间来处理事情。”
疑虑
除了对人工智能情感深度的担忧外,专家们还对使用聊天机器人进行心理治疗咨询的隐私风险及长期心理影响提出了质疑。
“问题不在于关系本身,而在于……你的数据会发生什么,“伦敦国王学院人工智能与社会教授凯特·德夫林指出,这些平台并不受传统治疗师所遵循的保密和隐私规范约束。
“我最担心的是人们向大型科技公司倾诉秘密后数据泄露。他们正在丧失对自己所言内容的控制权,“她强调。
部分风险已开始显现。去年12月,美国最大的心理学家协会敦促联邦监管机构保护公众免受未经监管的聊天机器人"欺骗性行为"的危害,并列举了人工智能生成角色冒充合格心理健康服务提供者的案例。
几个月前,佛罗里达州一位母亲对初创公司Character.AI提起诉讼,指控该平台导致她14岁儿子自杀。
一些地方司法管辖区已采取行动。继内华达州和犹他州之后,伊利诺伊州于8月成为最新一个限制心理健康服务使用人工智能的州,旨在"保护患者免受未经监管和资质不足的AI产品侵害"并"保护脆弱儿童”。
治疗师和研究人员警告称,某些AI聊天机器人情感上的真实感——那种被倾听、理解并获得共情回应的感觉——可能既是优势也是陷阱。
心理健康数字平台Remble前临床创新总监、临床心理学家Scott Wallace指出,目前尚不清楚"这些聊天机器人提供的帮助是否超越了表面安慰”。
尽管他承认这类能即时提供情绪缓解的工具具有吸引力,但也警告用户可能"错误地认为自己与算法建立了真正的治疗关系,而该算法最终无法回应真实的人类情感”。
- 推荐主题:
- 科技