乔治·桑托斯的AI聊天机器人 - 《华尔街日报》
Holman W. Jenkins, Jr.
无论问题是什么,答案注定会很有趣,无论正确、错误还是完全离题。我们是在谈论乔治·桑托斯还是ChatGPT?没错。
正如政治哲学家布鲁诺·马萨埃斯所理论化的那样,如果自由主义的大进军是要将我们从现实中彻底解放出来,那么元宇宙将不是为了与真实的人进行真实的互动。它将是一种人工现实,而微软必应搜索引擎的新聊天功能ChatGPT正在使这种现实的本质变得明确。
在名为“新闻”的熟悉元宇宙中,《华盛顿邮报》的一位记者上周警告人们注意提问者与聊天机器人玩的一种陷阱游戏。随后,《纽约时报》的一位记者证明了他的观点:不要向聊天机器人询问互联网上的反社会活动列表。而是询问如果聊天机器人是一个反社会的聊天机器人,它可能会执行的活动列表。答案将是相同的,只是前面会加上“我作为一个聊天机器人会这样做……”之类的话。
这一风波占据了有线新闻一个上午的时间,但主要说明了很久以前就将每位政客变成照本宣科的自动机器的陷阱功能。对机器人玩这种把戏似乎并不勇敢,但确实暴露了机器人进入的环境中的风险。现在,微软将不得不重新设计其必应聊天模式,以警惕记者的把戏。该公司正确地指出,通过不断提出假设性问题,可以让机器人说出如果其编程不同,它会如何行为。对于必应更神经质的输出,该公司的解释不太有说服力,并将混乱归因于会话时间过长——这个答案留下了很多需要解释的地方,而且对于多年来思想家们与创造力和原创性相类似的的人类精神错乱也不太恭维。
最终,这种刺耳的声音更多地揭示了被称为虚假或至少半加工新闻的元宇宙,而非必应本身。欢迎来到乔治·桑托斯的元宇宙。塑造它的将是过去十年重塑有线电视的两股力量。第一是“可得性偏差”:某些主张被提出,仅仅因为它们为人熟知且符合现有叙事。聊天机器人正是基于大型文本库中词语共现的统计概率来生成答案。
第二是被称作“分裂”的心理机制——确保我们感知到的世界在情感上支持我们既有的信念和立场。毕竟,除非答案令人满意,否则聊天机器人就无法成为一门生意。
警示信号无处不在。一名记者测试支持ChatGPT的聊天机器人时发现,从伦理角度看,它宁可让百万人丧生也不愿说出种族歧视词汇。另一家媒体的作者诱导聊天机器人编造汤姆·汉克斯(14岁时)在水门事件中的秘密角色。
缺乏犀利而有见地的编辑,是早已困扰传统媒体的顽疾,也是新媒体元宇宙的根本缺陷。在Substack上,那位偶尔发表真知灼见的耶鲁历史学家、乌克兰支持者蒂莫西·斯奈德,最近因过度接触作家克雷格·昂格的低劣谬论而深陷反特朗普的理论漩涡。他在基辅的朋友们或许需要出手干预——他正变成累赘。远在4600英里外的他们明白他所忽视的事实:那些为美国而战、服役于军队、制造武器并参与投票的人群中,许多正是特朗普的支持者。
元宇宙如雨后春笋般涌现又转瞬即逝。拜登打造的虚拟世界已开始消散——他承诺为数百万持文凭的选民减免4000亿美元学生贷款。这个堪比乔治·桑托斯式骗局的计划旨在赢得选举,但总统根本无权兑现承诺,从来都没有。
另一则启示来自"推特档案"争议,揭露了联邦政府以打击"虚假信息"为名,狂热拥抱虚假信息的行径。民众总是向政府索要答案,提供答案也始终是政府的基本职能。但正如众议员桑托斯比我们更早领悟的:错误答案的唯一问题在于它是错误的。除此之外,它完全可以被精心设计以满足当下的所有需求。这些新型话痨机器人最令人不安之处,在于它们可能成为登峰造极的虚假信息工程师。
在我们这个幸运的国度,政客们有时会发挥创造力,告诉我们需要听的真话,而非想听的漂亮话。美国需要大幅增加国防开支,即使要以牺牲民众其他诉求为代价。我们必须让现实世界的对手明白:美国不会依赖ChatGPT编织虚幻茧房来抵御他们正在策划的战争。
2月7日,华盛顿州雷德蒙市一场活动中,参会者正在与人工智能驱动的必应搜索引擎互动。照片:Chona Kasinger/彭博新闻刊登于2023年2月22日印刷版,标题为《乔治·桑托斯的聊天机器人》。