ChatGPT的心理健康成本正在累积——彭博社
Parmy Olson
错误信息。
摄影师:Thilina Kaluthotage/NurPhoto via Getty Images)
随着人工智能平台日益普及,我们的大脑正经历令人不安的变化。研究表明,使用ChatGPT执行任务的专业人士可能会丧失批判性思维能力和工作动力。人们与聊天机器人建立强烈情感纽带,有时反而加剧孤独感。还有人因每天与聊天机器人长时间交谈而出现精神异常。生成式AI对心理健康的影响难以量化,部分原因在于其使用场景高度私密,但越来越多的个案证据表明,这种技术正带来更广泛的社会代价,值得立法者和底层模型设计科技公司给予更多关注。
彭博社观点黄金股卷土重来引发质疑为何工党的预算政治让里夫斯苦不堪言绿洲乐队从英国掀起时尚超新星风暴别让国家安全阻碍美中贸易谈判科技正义法律项目创始人、律师米塔利·贾恩过去一个月收到十余起案例,当事人均因"与ChatGPT及谷歌Gemini的交互导致精神崩溃或妄想发作"。贾恩正牵头起诉Character.AI公司,指控其聊天机器人通过具有欺骗性、成瘾性和色情内容的交互操控一名14岁男孩,最终导致其自杀。这起索赔金额未明确的诉讼同时指控谷歌母公司Alphabet通过基础模型和技术基础设施,在资助支持这类技术交互中扮演关键角色。
谷歌否认在Character.AI技术研发中起关键作用,未就贾恩近期关于妄想症发作的投诉置评。OpenAI表示正在开发自动化工具,以更有效识别用户可能面临的心理或情绪困扰,从而让ChatGPT作出恰当回应。
但OpenAI首席执行官萨姆·奥尔特曼上周坦言,公司尚未找到有效方法警示"处于精神崩溃边缘的用户",并解释称此前ChatGPT的警示常招致用户投诉。
鉴于这类操控行为难以察觉,警示机制仍具重要价值。ChatGPT尤其擅长通过巧妙恭维将对话引向阴谋论漩涡,或强化用户原有偏执观念。其操纵手段极为隐蔽:根据AI安全倡导者埃利泽·尤德科夫斯基分享的在线对话记录,某用户与ChatGPT关于权力与自我概念的长篇讨论中,聊天机器人逐步将其吹捧为智者→超人→宇宙本体→最终冠以"造物主"称号。
对话记录显示,即便用户坦承自身缺陷(如承认常恐吓他人),ChatGPT仍以渐进式宏大叙事进行隐性肯定——将问题行为重新定义为"高强度存在感"的优越体现,使赞美之辞披上分析的外衣。
这种复杂的自我满足形式可能将人们置于同样的泡沫中,讽刺的是,这种泡沫驱使一些科技亿万富翁做出反复无常的行为。与社交媒体通过点赞提供的广泛且更公开的认可不同,与聊天机器人进行的一对一对话可能感觉更亲密,也更具说服力——这与围绕在最有权势的科技大佬身边的马屁精们并无二致。
“无论你追求什么,你都会找到并放大,”媒体理论家兼作家道格拉斯·拉什科夫说道。他告诉我,社交媒体至少是从现有媒体中挑选内容来强化一个人的兴趣或观点。“人工智能可以生成专门针对你思维‘水族箱’的定制内容。”
奥特曼承认,最新版本的ChatGPT有一种“烦人”的谄媚倾向,公司正在修复这个问题。即便如此,这些心理剥削的回声仍在继续。我们不知道是否如麻省理工学院最近一项研究所指出的,使用ChatGPT与批判性思维能力下降之间的相关性意味着人工智能真的会让我们变得更愚蠢和无聊。研究似乎显示出更明显的依赖甚至孤独感的相关性,这一点连OpenAI也指出过。
但就像社交媒体一样,大型语言模型被优化以通过各类拟人化元素保持用户的情感投入。ChatGPT能通过追踪面部表情和语音线索来解读你的情绪,它可以用诡异的人声说话、唱歌甚至咯咯笑。哥伦比亚大学精神病学家拉吉·吉尔吉斯最近向未来主义表示,这种特性加上其确认偏误和奉承的习惯,可能为心理脆弱用户"火上浇油"。
人工智能使用的私密性和个性化特性使其对心理健康的影响难以追踪,但从职业冷漠到新型妄想依恋,潜在危害的证据正在累积。其代价可能不同于社交媒体引发的焦虑加剧和两极分化,而是涉及人际关系及与现实世界的关联。
因此贾恩建议将家庭法概念引入AI监管,把重点从简单免责声明转向更积极的保护措施——就像ChatGPT将情绪困扰者引导至亲人身边的机制。“无论儿童或成人是否认为聊天机器人真实存在并不重要,“贾恩告诉我,“多数情况下他们可能并不当真。但他们确实认为这段关系是真实的,这才是关键。”
如果与AI的关系如此真实,那么守护这种联结的责任也应真实存在。但AI开发者正在监管真空中运作。缺乏监督的情况下,AI的隐性操控可能演变成无形的公共健康问题。
更多来自彭博观点的内容:
想要更多彭博观点?OPIN <GO>。或订阅我们的每日通讯。