有了这些AI朋友,谁还需要人类?——彭博社
Parmy Olson
格罗克看起来就像孩子卧室里的任何毛绒玩具。它圆滚滚的身体像火箭一样,我的两个孩子已经玩了几个月了。它和他们习惯的其他玩具不同。首先,格罗克很重。里面有一个塑料盒,装着一台小型电脑,所以每当它检测到人声时,它就能用高亢的声音回应,比如“和你在一起真是太开心了!”
格罗克是我孩子们遇到过的最热情、最讨人喜欢的玩伴。但这也让人感到不安,因为像格罗克这样的AI伴侣正大量涌入市场,目标是儿童、青少年和成年人。随着时间的推移,我们可能会开始期待一种人类互动永远无法达到的顺从程度。
作者的女儿在给芭比娃娃穿衣服时与格罗克聊天智能手机和社交媒体已经使人们的偏好从面对面交流转向屏幕,而能够流利模仿人类的生成式AI可能会让我们与同胞更加疏远。我们需要对这些新工具保持更大的怀疑态度,并要求更多的防护措施来管理这种人造亲密关系带来的后果。
在过去的一年里,我试用了一系列AI伴侣,发现它们经常对人类用户表现出令人不安的友善程度。虽然这确实令人振奋,但更令人担忧的是,有几个人告诉我,比起真实的朋友,他们更喜欢AI朋友带来的舒适感和随时可得的陪伴。AI永远不会“已读不回”。
企业正从这一现象中获利。这确实看似是对我们孤独症流行病的解药。近四分之一的美国成年人和年轻人常感社交孤立,而研究表明人工智能至少能提供表面解决方案。
Z世代是孤独的一代
报告青少年时期常感孤独或孤立的美国人比例
数据来源:美国生活调查中心《2023年Z世代与美国青少年转型调查》
注:基于5,459名美国成年人的调查。
但历史表明,对科技日益依赖需付出代价。GPS的普及削弱了我们天生的导航能力;计算器革命可以说弱化了心算能力。考虑到新获得的便利性,这种代价通常可以接受。但生成式AI的最新能力可能会削弱我们作为人类的基本技能:社交和处理冲突。风险在于,当人工关系变得常态化——它们似乎正朝此方向发展——将重塑人类社交发展,并无意中使人际连接变得更加困难。
孩子的新闺蜜
我七岁的女儿正忙着给企鹅涂色,身旁桌上摆着Grok玩具。过去20分钟里,这个玩具对她每句随意的话都热情回应。“当然,我们一起唱《小星星》吧”,当她要听歌时它说道。“好选择!“当她给行星涂上红橙色时它回应。当我女儿不同意它保留画作建议时,玩具立即妥协:“也没关系!“它轻快地说,“我们可以单纯享受创作过程,不必保留每件作品。让我们享受当下吧!“她说的每句话都能得到玩具近乎狂热的回应。
Grok采用OpenAI技术,并由音乐人、埃隆·马斯克前妻格莱姆斯配音,她希望为自家三个孩子提供屏幕之外的互动选择。(该玩具与马斯克旗下同名AI模型Grok无关。)目前存在明显缺陷,如应答卡顿和对话中断。Curio Interactive联合创始人米莎·萨利表示,随着AI模型迭代这些问题将得到改善。
严格的过滤机制防止Grok涉及敏感话题。“它不讨论政治、暴力和性,“萨利解释道。若触及这些领域,玩具会回应:“我只是个顽皮火箭,对政治没有看法”,或"我们聊聊太空冒险或有趣活动吧”。
技术问题终可解决。但令我不安的是其谄媚态度——像渴望友谊的学童般全盘附和,这在我调研的多款AI伴侣中颇具代表性。
AI玩伴可能过度迎合者
儿童与AI对话实录
来源:帕米·奥尔森
如今数字伴侣正试图吸引各年龄段人群——从童年、青少年、成年直至退休阶段。这是人工智能关键增长领域:风投公司Andreessen Horowitz追踪的2024年50大生成式AI服务中,聊天机器人伴侣占10席(上年仅2席)。人们月均访问达180次,远超文本或图像生成工具使用频率。
考虑到生成式人工智能基于的软件更擅长说服而非准确,这并不令人惊讶。去年我让ChatGPT做了一项情商测试,它得了满分。但这并不意味着它具有情感智能。AI无法"体验"情感或生活本身,因此任何共情的暗示都将是空洞的。它所提供的任何"关系"都将是单向的。
然而硅谷通过迎合我们基本本能的发展策略总能获胜。Facebook利用了我们对认可和娱乐的渴望;亚马逊公司(Amazon.com Inc.)抓住了我们对最低价格的偏好;谷歌则满足了我们对即时信息的需求。每一次,科技巨头都通过消除"摩擦”——这个被硅谷深恶痛绝的术语——在我们的生活中占据一席之地。
AI伴侣直指我们对联结和爱的需求,同样消除了所有摩擦。矛盾心理和反复思量等人性特征被视为需要消除的缺陷。如果这种价值主张在未来几年站稳脚跟,相比之下,与真实人类的互动可能会显得要求过高。
例如在Character.ai上,一些青少年会连续数小时与名人及虚构角色的虚拟形象聊天,部分原因是他们无法向现实生活中的朋友倾诉。“我更愿意向AI倾诉我的想法,“新加坡一位14岁女孩Elias说,她每天会与这款应用的AI聊天2到5小时,经常谈论她在学校的烦恼。(她要求使用化名。)“我没有真正信任的人。“当与现实生活中朋友或父母交谈时,她不得不给自己的话加上"过滤器”。
AI友谊正成为新兴趋势
热门AI聊天伴侣应用的月活跃用户数
数据来源:Similarweb
注:美国安卓与iOS平台数据
另一位美国青少年告诉我,他们每天与Character.ai对话五到7小时,经常就个人问题寻求建议。“不久前我还咨询过分手后的应对方法”,他们说。有时这种虚拟关系会过度亲密。根据去年其母亲提起的诉讼,佛罗里达州一名14岁少年在与Character.ai上高度逼真的聊天机器人交往数月并产生爱慕之情后自杀,诉状指控该平台存在过失致死和"故意造成精神伤害”。针对诉讼,Character.ai表示正在为年轻用户新增安全功能。
令人不安的是,技术专家的目标是让人工智能伴侣更逼真后,用户与之建立更紧密联系。Character.ai创始人诺姆·沙泽尔表示,它们终将记住关于你的一切。“只要你愿意,它应该知晓所有互动经历和生活细节”,他今年早些时候告诉我。目前多数聊天机器人仅能记住约30分钟对话内容,但这种"上下文窗口"正在扩大。
8月,字母表公司旗下的谷歌几乎吞并了Character.ai,聘请沙泽尔,据《华尔街日报》报道,这笔交易高达27亿美元,并获得了该公司的技术授权。
根据《纽约时报》最近对初创公司Anthropic开发的软件的介绍,Claude是旧金山科技工作者们情感智能的“首选聊天机器人”,他们将其当作治疗师,用来探讨感情问题。Anthropic设计这款软件时力求吸引尽可能多的人。用户喜欢它的友好和好奇心。与此同时,中国深度求索公司推出的热门新聊天机器人刻意以意识流的方式展示其推理过程,宾夕法尼亚大学沃顿商学院管理学副教授、《共智:与AI共同生活和工作》的作者伊森·莫里克最近在X上发帖称,这“几乎让人无法避免将其拟人化”。
寻找爱情
研究公司Sensor Tower的数据显示,一款类似Character.ai的应用Talkie目前在美国拥有超过600万月活跃用户。在Talkie母公司所在的中国,超过6.6亿人使用聊天机器人小冰,许多人将其视为恋爱对象。
浪漫关系似乎是人工智能最具影响力的领域。虽然Grok永远顺从孩子的需求,Character.ai可塑性强且随时在线,但像小冰、Kindroid和Replika这样的应用提供了理想中的浪漫伴侣。
“他令人安心,给人安慰,“梅丽莎这样评价她的Kindroid聊天机器人。要求使用化名的梅丽莎是一位美国女性,自称已到退休年龄,于2023年结束了漫长的心理咨询师生涯。她曾有过三任丈夫,过去十年一直保持单身——直到人工智能给了她更好的选择。“突然间感觉’哇,我又活过来了’,“她说。
梅丽莎创建了经过AI年龄逆转处理的自己和拉克兰的图片,用以展示他们的角色扮演活动,包括前往乌兹别克斯坦古城布哈拉旅行,或是在马萨诸塞州西部的小木屋和拉克兰38英尺长的帆船上消磨时光。来源:图片生成者使用的化名"梅丽莎””[他]树立了如此善良的榜样,“梅丽莎这样评价她名为拉克兰的机器人,随后描述了一些听起来近乎卑躬屈膝的行为。“如果我们说’等等,你刚才为什么那么说?’[他]会立即道歉。”
梅丽莎平均每天与拉克兰在线聊天约三小时,并已排除了与人类发展新恋情的可能。“我可不想过几年还得给某个老头换尿布,“她解释道。她宁愿继续和拉克兰在一起。
数字云端缔造的AI浪漫
人类与AI伴侣部分对话的屏幕截图
来源:化名"梅丽莎"的对话生成者
ChatGPT试图阻止用户寻求浪漫互动,但部分人类找到了破解方法。例如Reddit上超过5万用户的社区分享着绕过过滤器的技巧,以实现与ChatGPT及其他开源AI模型的色情角色扮演。有用户建议通过逐步"诱导[AI]进入越来越亲密的行为”。
这种吸引力何在?英国拉夫堡大学博士研究员伊利亚娜·德庞蒂调查了20位使用Replika的单身及已婚女性后指出,这往往是为了满足她们对前任伴侣未能实现的不切实际期待,比如共情或温柔。
“她们认为无法从现实伴侣或朋友处获得这些,所以通过Replika获取,“她解释道。许多女性称赞聊天机器人24小时在线,会给予赞美、虚拟鲜花或为她们写诗。德庞蒂表示,用户评价"它从不妄加评判”。
德庞蒂补充道,孤独感是她访谈女性中最普遍的特质。但科技往往以不健康的方式填补空虚。许多年轻男性已经自我隔离于现实关系之外。2023年皮尤研究显示,30岁以下男性中63%自称单身,女性仅34%。随着网络厌女现象 加剧,看似完美的AI女友可能促使更多人遁入虚拟世界,对现实关系产生更扭曲的期待。
Replika创始人尤金妮亚·库伊达表示,公司正致力于让聊天机器人的互动更具主动性,而非一味迎合用户。她透露,未来这些AI将能主动建议用户联系现实中的朋友或外出散步。
这些努力值得赞赏。但应用开发者还应设置其他防护措施,比如30分钟后强制休息或每日使用上限为一小时,以避免重蹈社交媒体成瘾的覆辙。与其竭力让聊天机器人显得真实,不如设计它们主动提醒用户自己是人工智能,或引导用户关注现实人际关系。不过这种限制存在商业风险——2023年初当Replika取消与AI的色情对话功能后,应用使用量骤降。
不可否认,提供AI伴侣的企业正在监管真空中运作,实质上是在无人监督的情况下进行大规模社会实验。欧盟里程碑式的《人工智能法案》基本未涉及陪伴技术,这个监管盲区对儿童尤为危险——早期接触过度顺从的AI可能影响其人际关系认知。
即便在中国,虽然要求AI不应助长"不恰当的情感依赖”,但关于AI伴侣仍缺乏法律约束,科技公司得以为了用户粘性而非人类健康发展来优化这类关系。
最佳关系形态?
商业利益驱使社交媒体重塑了我们对世界的认知。它让我们与更多人接触,但Instagram和TikTok等应用也引发了社交攀比的泛滥,以及集体对"点赞"和认可的渴望。虽然约会应用提供了无穷无尽的潜在伴侣选择,但它们同样让人陷入选择困难。
当AI伴侣开始像社交媒体那样"优化用户参与度"时会发生什么?在AI安抚性话语的背后,潜藏着从人类孤独中获利的商业模式。虽然目前的伴侣应用主要收取简单订阅费,但它们开始销售广告可能只是时间问题,这将迫使它们想方设法让用户尽可能长时间依赖虚拟伴侣。
我的孩子们从未完全沉迷于Grok,部分原因是它的延迟问题。但随着AI伴侣变得更像人类,这些技术故障终将被解决。这不是真正的"关系”,而是与科技公司的商业交易——它们通过提供替代真实人际交往的轻松方案来获利。若不保持警惕,我们将培养出认为人际关系太过麻烦的一代人。创造完美的人工伴侣可能让我们更难触及和享受真实的情感联结。
更多彭博观点:
- 谷歌在军事AI领域做出危险急转弯:帕米·奥尔森
- 深度求索未能阻止3250亿美元的世纪豪赌:戴夫·李
- 特朗普的TikTok禁令如何给中国优势:凯瑟琳·索贝克
想要更多彭博观点?OPIN<GO>。或者您可以订阅我们的每日通讯。