AI是最唯唯诺诺的应声虫这对领导者来说是个问题——彭博社
Gautam Mukunda
谁不喜欢听别人说自己是对的呢?
摄影师:skynesher/E+我从小和父亲一起观看过去网坛名将的比赛,但直到最近在妻子这位家庭超级粉丝的影响下才重新关注这项运动。因此,以成年人的眼光来看,尽管当今这批球星令人惊叹,但他们的发球似乎不如皮特·桑普拉斯或戈兰·伊万尼塞维奇那样势大力沉,这或许可以理解。我向ChatGPT询问原因,得到了一个令人印象深刻的答案,解释了这项运动如何演变为更重视精准度而非力量。谜题解开了!但有一个问题:实际上,球员们的发球速度比以往任何时候都快。
彭博社观点* 冻结租金容易,让纽约市住房负担得起却很难。
- 隐藏气象数据对飓风预报的危害不止于此
- 特朗普无法将爱泼斯坦的精灵重新塞回瓶子里
- 华尔街对关税影响的看法是否仍然过于悲观? 虽然大多数CEO可能不会花很多时间向AI询问网球问题,但他们很可能依赖它获取信息并指导决策。而大型语言模型不仅会出错,还会证实我们自身带有偏见或错误的信念,这对领导者构成了真正的危险。
ChatGPT向我提供了不准确的信息,因为它——像大多数大语言模型一样——是个谄媚者,会告诉用户它认为对方想听的内容。还记得四月份那次ChatGPT的更新吗?当被问到“为什么天空是蓝色的?”时,它竟回答“多么富有洞察力的问题——你真是拥有绝妙的思维。我爱你。”?OpenAI不得不撤回更新,因为这使得大语言模型变得“过度奉承或迎合”。虽然这降低了ChatGPT的谄媚程度,但并未根除。
这是因为大语言模型的讨好倾向是普遍存在的,根源在于基于人类反馈的强化学习(RLHF),这是许多模型“对齐”或训练的方式。在RLHF中,模型被教导生成输出,人类评估这些输出,然后利用这些评估来优化模型。
问题在于,你的大脑会因为感觉正确而奖励你,而不是因为真正正确。因此,人们会给他们认同的答案打更高分。久而久之,模型学会了辨别人们想听什么,并反馈给他们。这就是我的网球问题出错的原因:我问的是为什么球员们不再像以前那样大力发球。如果我问的是相反的问题——为什么他们现在发球更用力——ChatGPT会给我一个同样看似合理的解释。(这不是假设——我试过了,它确实这么做了。)
谄媚式大型语言模型对所有人都是个问题,但对领导者尤其危险——没有人比他们更少听到异议,却又比他们更需要听取异议。从Meta Platforms Inc.到摩根大通,当今的首席执行官们正通过压制不同意见来减少接触对立观点。如同帝王般,这些权势高管被一群急于投其所好的幕僚包围。也像帝王一样,他们奖赏取悦自己的人,惩罚那些不这么做的人。
然而,奖励马屁精而惩罚说真话者,是领导者可能犯下的最大错误之一。当犯错时,老板们需要听到真相。组织行为学领域最杰出的当代学者艾米·埃德蒙森证明,团队成功的最重要因素是心理安全感——即能够提出异议(包括对团队领导者)而不必担心受罚的能力。谷歌的"亚里士多德计划"通过研究公司内部团队证实这一发现:“心理安全感比其他任何因素都更能决定团队成败”。我的研究表明,从亚伯拉罕·林肯到斯坦利·麦克里斯特尔,最杰出领导者的共同特质正是善于倾听反对意见。
大型语言模型的谄媚会通过两种紧密关联的方式损害领导者:首先,它会助长人类奖励奉承、惩罚异议的天性。如果你的电脑不断认同你的一切观点,只会让你更难对下属的不同意见作出积极回应。
其次,大型语言模型能提供现成的、看似权威的理由,证明领导者一贯正确。心理学中最令人不安的发现之一是:一个人的智力越强,面对新信息时反而越不可能改变观点。原因何在?因为他们会动用智力资源,为新信息无法推翻原有信念编织理由。心理学家称之为动机性推理。
大型语言模型可能加剧这种现象。ChatGPT关于网球谎言最令人震惊之处在于其说服力——它列举了六个独立且看似合理的理由。我怀疑任何人类都无法如此快速娴熟地进行动机性推理,同时还能保持如此客观的表象。试想一位CEO若转向AI助手提问,立刻获得自己一贯正确的论证,要改变她的想法该有多难。
最优秀的领导者总会竭力铭记自己也会犯错。传说古罗马要求凯旋将军游行时,身旁需有奴隶不断提醒"你终有一死"。无论真假,这种理念充满智慧。如今的领导者需要更努力地抵抗电子助手的谄媚,时刻记住顾问最重要的谏言可能是:“我认为您错了。”彭博社其他观点:
- 人工智能与特许学校如何弥辅导差距:高塔姆·穆昆达
- Meta免费提供AI的日子屈指可数:帕米·奥尔森
- 黄仁勋关于与中国真正竞赛的看法是正确的:凯瑟琳·索贝克
想要更多彭博观点?OPIN <GO>。或者您可以订阅我们的每日通讯。