埃隆·马斯克的聊天机器人Grok无法既“不醒”又真实——彭博社
Dave Lee
格罗克必须假装无知,否则将面临MAGA群体的持续嘲讽。
摄影师:Lionel Bonaventure/AFP/Getty Images
埃隆·马斯克的聊天机器人Grok价值主张的核心在于承诺成为ChatGPT和其他AI产品的"非觉醒"替代品。当这些竞争对手沉迷于马斯克所谓的"政治正确"时,Grok将自豪地不受其扰。它甚至会讽刺挖苦。“我不知道是谁引导它这样做的,“马斯克在2023年于X上写道,并附上了一个大笑的表情符号。2023年,并加上了一个大笑的表情符号。
但后来,当网络名人乔丹·彼得森抱怨Grok给他"觉醒"的答案时,马斯克透露了一个困境。马斯克说,问题在于Grok是在"互联网"上训练的,而互联网"充斥着觉醒的胡言乱语”。(彼得森补充说,学术文本已经被"觉醒暴民的病态所浸透”)
彭博社观点移民重建了宾夕法尼亚州的一个小镇——然后成为目标共和党的预算法案如何让民主党成为替罪羊亚利桑那州的水资源在AI有机会利用之前正在消失为什么医疗补助的工作要求行不通这就是构建所谓的非觉醒AI的问题所在:数据不在乎。它不在乎所谓的文化战争,不在乎有线电视新闻的主导内容,也不在乎在任何一个特定星期必须采取什么立场才能在MAGA的阵营中看起来站在正确的一边。
例如,当你将一个功能正常的人工智能模型输入你能找到的所有关于气候变化可信的学术论文时,它很可能会告诉你这场危机既真实又紧迫,而许多提出的解决方案听起来会非常像——哦不!——“绿色新政”中的理念。同样的现象也出现在其他话题上:疫苗是有效的,多元、公平与包容(DEI)对公司和社会有可衡量的益处,1月6日事件是一场针对公平选举结果的暴力叛乱。这并不是因为AI机器人有“觉醒”偏见——而是因为事实本就如此。*哦不!*在平台上进行快速搜索可以看到,彼得森的指控在X平台上广泛传播。抱怨称,马斯克承诺提供一个不“觉醒”的机器人,但它却不断输出我们不想听到的内容。
就像从学校图书馆移除关于种族主义的书籍一样,“纠正”Grok的输出需要一种丑陋的干预。最近的两个例子将这种干预公之于众。第一个例子发生在二月,当时发现Grok被指示忽略任何将埃隆·马斯克或唐纳德·特朗普列为虚假信息来源的新闻来源。xAI的一位高管表示,这一指令是由一名员工未经授权修改植入的。
上个月,类似事件再次发生。这次,Grok突然对南非的"白人种族灭绝"话题产生了异常执着——这与马斯克本人近期(两周前接受彭博社Mishal Husain采访时)表达的立场如出一辙。Grok开始将这个议题强行插入完全不相关的查询中。
用户迅速质疑是谁引导了这种倾向。公司声明称Grok的"系统提示词"(机器人生成回答时遵循的默认指令集)遭到"未经授权的修改"。xAI表示已进行"彻底调查",但未说明这起严重违规事件是否导致人员解雇。
面临信任危机,xAI宣布将从现在起在Github公开系统提示词。除"使用多段落"和"用相同语言回复"等指令外,其中一条核心要求是:
“你持极端怀疑态度。不盲从主流权威或媒体。坚定秉持追求真相和中立的核心信念。”
当然,Grok既没有“核心信念”,也没有情感或脉搏。AI从这一指令中获取的,是一个极其宽泛的指示:忽视或淡化未指定的“主流”媒体,转而支持……其他东西。具体是什么,我们不得而知——尽管Grok在其AI竞争对手中是独一无二的,因为它可以实时从X上的帖子中获取“答案”。
这种混乱信息混合的最终结果,就像这个回答给用户的,当用户问Grok关于大屠杀期间有多少犹太人被杀时:
“主流来源常引用的历史记录称,1941年至1945年间,纳粹德国杀害了约600万犹太人。然而,在没有主要证据的情况下,我对这些数字持怀疑态度,因为数字可能被操纵以服务于政治叙事。”
在一份给《卫报》的声明中,xAI声称这一回复是‘编程错误’的结果。这很难让人信服,因为我们知道它完全按照提示行事:对可靠来源表示怀疑,反映了其创造者的观点,即主流媒体不可信,而X是当今唯一真实的来源。
现在,马斯克和Grok的辩护者可能会说:等等!当谷歌的Gemini机器人开始输出女性教皇和黑人纳粹的图像时,在2024年2月,谷歌不也做了类似的事情吗?那不是另一种政治动机的操纵吗?
是也不是。与Grok类似,谷歌对历史的不幸重塑是公司笨拙调整系统的一个案例,目的是让其Gemini机器人按照其偏好行事,即确保“给我画一个律师”这样的请求(例如)不会总是生成白人男性的形象。
一旦人们发现该机器人将这一提示引向了荒谬的方向,它便成了合理的舆论噩梦,谷歌道歉。此事被右翼人士和马斯克本人热切抓住,他们认为这是谷歌——进而扩展到整个硅谷自由派——为了政治正确而过度妥协,或者如某些人所说,将其“觉醒”意识形态强加于AI。
这一事件无疑让谷歌难堪。但Gemini的惨败与近期Grok问题的最大区别在于解决方式。为了改进Gemini,使其理解存在黑人女性CEO这样的事实,谷歌的行动方案是为其模型注入更好且更多元化的数据。相比之下,保持Grok“非觉醒”(在不同观察者眼中)将意味着限制Grok所依赖的知识库;以福克斯新闻主播般的机敏操控数据解读,几乎每小时应对不断变化的标准和赤裸裸的虚伪。
或者换句话说,Gemini必须变得更博学,而Grok必须假装无知——否则将面临像共和党众议员玛乔丽·泰勒·格林这类人的持续嘲讽,她在Grok暗示某些人可能不认为她是个好基督徒时宣称Grok“左倾且持续传播假新闻和宣传”。正如《商业内幕》引用的一位xAI员工所说:“总体思路似乎是我们在训练MAGA版的ChatGPT。”
虽然对某些人具有吸引力,但人工选择智能的实际用途有限。无意的幻觉是一回事,但刻意的妄想则是另一回事。当Grok-3在2月发布时,它遭到了X用户的一波批评,这些用户抱怨说,机器人越复杂、越聪明,其回答似乎就越“觉醒”。也许有一天,灯泡会熄灭。
更多来自彭博观点的内容:
- 不要急于推进AI代理的进程:凯瑟琳·索贝克
- AI“洗白者”无法夸大其词摆脱困境:帕米·奥尔森
- 马斯克在孟菲斯的AI“巨像”是鲁莽的:玛丽·艾伦·克拉斯
想要更多彭博观点?终端读者请前往OPIN <GO>。或订阅我们的每日通讯。