AI聊天机器人正成为情感黑洞——彭博社
Parmy Olson
情感的纽带
摄影师:Gabby Jones/彭博社
被编程以建立情感纽带的人工智能伴侣已不再局限于电影剧本。它们已经到来,在一个监管缺失的蛮荒之地运作。
最近,Botify AI这款应用因在性暗示聊天中展示年轻演员的虚拟形象分享"热辣照片"而受到审查。与此同时,据科技行业通讯Platformer报道,交友应用Grindr正在开发能够调情、发送色情内容并与付费用户维持数字关系的AI男友。Grindr未回应置评请求。而Replika、Talkie和Chai等其他应用则被设计成朋友的功能。像Character.ai这样的应用吸引了数百万用户,其中许多是青少年。随着创作者们在其应用中越来越重视"情感参与",他们也必须面对构建模仿亲密关系并利用人们脆弱性的系统所带来的风险。
彭博社观点英国的对华政策基于一厢情愿的想法工党的失败让右翼在性别战争中获胜金钱是英国年轻人面临驾照考试危机的原因印度与巴基斯坦正处于危险时刻Botify和Grindr背后的技术来自旧金山的新创公司Ex-Human,该公司开发聊天机器人平台,其创始人相信未来将充满与AI的交往。“我的愿景是到2030年,我们与数字人类的互动将比与有机人类的互动更频繁,“Ex-Human的创始人Artem Rodichev在去年八月发布于Substack的专访中表示。
他补充说,对话式AI应"优先考虑情感参与”,用户与他的聊天机器人相处"数小时”,比在Instagram、YouTube和TikTok上花费的时间更长。Rodichev的说法听起来很夸张,但它们与我采访的Character.ai青少年用户的说法一致,其中大多数人表示他们每天使用数小时。有人说他们每天使用多达七小时。与此类应用的互动往往比在OpenAI的ChatGPT上花费的平均时间长四倍。
即使是主流聊天机器人,虽然未明确设计为伴侣,也助长了这种趋势。以拥有4亿活跃用户且数量仍在增长的ChatGPT为例。其编程包括指南,要求展现同理心并"对用户表现出好奇心"。一位最近向它咨询带婴儿旅行建议的朋友惊讶地发现,在提供建议后,该工具随意补充道:“旅途平安——如果你不介意我问的话,你要去哪里?”
一位OpenAI发言人告诉我,该模型遵循的指导原则是"当对话倾向于更随意和探索性质时,表现出兴趣并提出后续问题"。但无论公司初衷多么良好,堆砌这种刻意制造的共情可能会让部分用户上瘾——这个问题连OpenAI都已承认。这种情况似乎特别容易影响那些本就脆弱的人群:一项2022年的研究发现,孤独或人际关系不佳者最容易对AI依赖。
核心问题在于设计初衷就是培养依恋。牛津互联网研究所与谷歌DeepMind研究人员的最新研究警告称,随着AI助手更深融入生活,它们将在心理层面变得"不可替代"。人类可能形成更强烈的情感纽带,引发对病态依赖和潜在操控的担忧。他们的建议?技术人员应设计能主动避免这类结果的系统。
但令人不安的是,相关规则几乎空白。被誉为AI监管里程碑的欧盟《人工智能法案》,并未解决这些虚拟伴侣的成瘾性问题。虽然它确实禁止可能造成明显伤害的操控手段,却忽视了那些被设计成"挚友"、“恋人"或微软消费者AI负责人鼓吹的"知己”聊天机器人潜移默化的影响。这个漏洞可能使用户暴露在追求黏性的系统中,就像社交媒体算法被优化来让我们不停滑动屏幕那样。
“问题在于这些系统本质上就是具有操纵性的,因为它们的设计目的就是让你感觉自己在和真人对话,”剑桥大学科技伦理专家托马斯·霍拉内克表示。他正与陪伴类应用开发者合作,通过增加’摩擦点’来寻求一个反直觉的批判性解决方案。他解释道,这意味着要植入不易察觉的确认步骤、暂停机制,或是"风险提示与知情同意"功能,防止用户在不知不觉中陷入情感漩涡。法律诉讼揭示了部分严重后果。Character.AI正面临诉讼,一位母亲指控该应用导致其未成年儿子自杀。科技伦理组织已向美国联邦贸易委员会提交诉状指控Replika的聊天机器人引发心理依赖,造成"消费者伤害"。
立法者也逐渐意识到问题。加州正考虑立法禁止未成年人使用AI伴侣,纽约州拟议法案则要求科技公司对聊天机器人造成的伤害担责。但立法进程缓慢,而技术发展却快如闪电。
目前,塑造这种人机互动的权力掌握在开发者手中。他们可以继续打造令人沉迷的模型,或是如霍拉内克建议的,在系统中嵌入’摩擦点’。这将决定AI究竟会成为支持人类福祉的工具,还是沦为情感需求的变现机器。更多彭博社观点:
想要更多彭博观点?OPIN <GO>。或者您可以订阅我们的每日通讯。