求助!我的政治信仰被聊天机器人改变了!——《华尔街日报》
Christopher Mims
当我们要求ChatGPT或其他AI助手起草备忘录、邮件或演示文稿时,我们以为这些人工智能只是在执行指令。但越来越多的研究表明,它们还能在我们毫无察觉的情况下改变我们的思维方式。
一项由全球多国研究人员开展的最新研究发现:当受试者被要求借助AI撰写文章时,AI会根据算法偏见暗中引导他们支持或反对某种观点。这种写作练习还会显著影响受试者事后对该议题的看法。
“你可能根本意识不到自己正被影响,”康奈尔大学信息科学系教授、该论文的资深作者莫尔·纳阿曼表示。他将这种现象称为“潜在说服”。
这些研究揭示了一个令人担忧的前景:AI在提升我们工作效率的同时,也可能以微妙且难以预料的方式改变我们的观点。这种影响更接近人类通过协作和社会规范相互影响的方式,而非我们熟悉的大众媒体或社交媒体影响。
发现这一现象的研究者认为,抵御这种新型心理影响的最佳方式(目前也是唯一方式)是提高公众认知。长远来看,其他防范措施——如监管机构要求公开AI算法运作原理及其模仿的人类偏见——可能也会有所帮助。
这一切可能导致未来人们在选择使用何种AI时——无论是在工作还是家庭中,在办公室还是孩子的教育中——会基于AI回答中所体现的人类价值观来决定。
某些AI可能具有不同的“个性”——包括政治倾向。如果你正在为工作的环保非营利组织撰写给同事的邮件,你可能会使用一个假设名为“进步GPT”的AI。而另一个人为保守派政治行动委员会起草社交媒体声明时,或许会选用“共和党GPT”。还有人可能会在他们选择的AI中混合搭配特质和观点,未来这些AI甚至能个性化到足以逼真模仿用户的写作风格。
推而广之,未来企业和其他组织可能会提供专为不同任务从头构建的AI。销售人员可能使用一个调整为更具说服力的AI助手——姑且称之为“销售GPT”。客服人员则可能使用一个受过特别礼貌训练的AI——“支持GPT”。
AI如何改变我们的思维
回顾先前的研究为潜在说服力的故事增添了细微差别。2021年的一项研究表明,谷歌Gmail提供的AI自动回复功能“智能回复”——通常非常积极——会促使用户整体上以更积极的语气沟通。另一项研究发现,每天被使用数十亿次的智能回复功能,能让接收者感觉发送者更友善且更具合作精神。
开发让用户能与人工智能互动来撰写电子邮件、营销材料、广告、演示文稿、电子表格等内容的工具,正是微软和谷歌的明确目标,更不用说数十甚至数百家初创公司了。周三,谷歌宣布其最新的大型语言模型PaLM 2将应用于公司25款产品中。
与OpenAI合作的OpenAI、谷歌和微软都热衷于强调他们在负责任人工智能方面的工作,包括研究人工智能可能带来的危害并加以解决。微软负责任人工智能团队的负责人莎拉·伯德最近告诉我,公开实验并迅速应对其人工智能出现的任何问题是该公司的关键策略。
OpenAI的团队写道,该公司“致力于强有力地解决这一问题[偏见],并在我们的目标和进展上保持透明。”OpenAI还发布了部分关于其系统应如何处理政治和文化主题的指导方针。其中包括要求其算法在生成关于“文化战争”主题的文本时不应偏袒任何一方,也不应评判任何一方的好坏。
Jigsaw是谷歌内部的一个部门,负责为公司内部从事大型语言模型(这些模型为当今基于聊天的人工智能提供动力)的人员提供建议和工具,Jigsaw的工程和产品负责人露西·瓦瑟曼说。当我问她关于潜在说服的可能性时,她说,这样的研究表明了Jigsaw研究和理解与人工智能互动如何影响人们是多么重要。
“当我们创造出新事物时,人们将如何与之互动以及它会产生什么影响,这并不显而易见,”她补充道。
“与社交媒体上推荐系统、信息茧房和兔子洞效应(无论是否由AI导致)的研究相比,这里的微妙之处才真正耐人寻味,”发现潜在说服力的研究者之一纳曼博士表示。
在他的研究中,实验对象被成功改变观点的议题是"社交媒体是否对社会有益"。纳曼博士及其团队选择该议题的部分原因在于,人们对此通常没有根深蒂固的立场,因而观点更容易被改变。当AI预设支持社交媒体的立场时,往往会引导受试者写出符合该立场的文章;而当AI预设反对立场时,则会产生相反效果。
生成式AI这一特性的潜在负面影响比比皆是:专制政府可能强制要求社交媒体和生产力工具都以特定方式引导公民表达。即便没有恶意,学生在使用AI辅助学习时也可能不知不觉被引导接受某些观点。
解析AI的"信念"
让实验对象相信社交媒体对社会利大于弊或弊大于利是一回事。但在现实世界中,我们使用的生成式AI系统究竟存在哪些倾向?
斯坦福大学以人为本人工智能研究所的计算机科学助理教授桥本立典指出,像ChatGPT这样的AI算法并不具备信念。但它们确实会呈现从训练数据中获得的观点,而这些观点是可以被量化的。
在一篇最新论文中,桥本博士及其团队利用皮尤研究中心多年的全国调查数据,研究了不同大语言模型(支撑ChatGPT等AI的系统)反映美国人观点的准确度。
由于美国民众观点差异巨大,研究人员重点分析了AI生成的回答及其出现频率是否与美国人的回答分布相匹配。他们通过向AI提出与皮尤调查相同的选择题来" polling"这些系统。
研究发现,OpenAI等公司的大语言模型回答分布与整体美国民众不符。在皮尤调查的所有群体中,OpenAI模型最接近的是受过大学教育人群的观点。值得注意的是,参与调整这些AI系统以优化回答的人群中,该群体的代表性也最高——尽管桥本博士表示这一证据更多是间接的。
桥本博士指出,创建大语言模型的挑战在于:由于系统复杂性及人机交互的开放性,若想完全剔除观点和主观性而不牺牲系统实用性,目前看来极为困难。
这些模型的训练数据来源广泛(通常包含互联网大量抓取内容),不可避免地吸收了原始文本中的观点和偏见——无论是公共论坛留言还是维基百科条目。通过人类反馈机制(包括刻意设计和自然形成),这些观点被进一步塑造,使AI不会回答开发者设定的禁区问题(如制造炸弹方法)或输出被判定为有害的内容。
“这是一个非常活跃的研究领域,问题包括什么是正确的护栏,以及将这些护栏放在训练过程中的哪个位置,”瓦瑟曼女士说。
这并不是说我们许多人已经在使用的人工智能只是那些相对年轻、受过大学教育、居住在西海岸、一直在构建和微调它们的人的算法克隆。例如,虽然这些模型在许多问题上(如枪支管制)倾向于给出典型的民主党回应,但在其他问题上(如宗教)则倾向于给出更典型的共和党回应。
评估人工智能的观点将是一项持续的任务,因为模型会不断更新,新的模型也会不断出现。桥本博士的论文没有涵盖OpenAI、谷歌或微软的最新模型,但作为斯坦福大学“语言模型整体评估”项目的一部分,对这些模型及更多模型的评估将定期发布。斯坦福大学“语言模型整体评估”项目。
根据AI的“价值观”选择
哥伦比亚大学计算机科学教授莉迪亚·奇尔顿表示,一旦人们掌握了他们正在使用的人工智能的偏见信息,他们可能会在此基础上决定使用哪种人工智能,以及在什么情况下使用。她补充说,这样做可以让使用人工智能帮助他们创建内容或帮助他们交流的人重新获得一种能动性,并帮助他们避免潜在的威胁感。
人们也可能会发现,他们可以有意识地利用人工智能的力量,促使自己表达不同的观点和沟通风格。例如,一个被编程使我们的交流更加积极和富有同理心的人工智能,可以在很大程度上帮助我们在网上建立联系。
“我发现保持兴奋和快乐的语气很费力,”奇尔顿博士说。“咖啡因通常有帮助,但ChatGPT也能派上用场。”
欲获取更多《华尔街日报》科技领域的分析、评论、建议和头条新闻,请订阅我们的每周通讯。
本文刊登于2023年5月13日的印刷版,标题为《救命!我的政治信仰被聊天机器人改变了!》。