《华尔街日报》:没有意识,人工智能将成为反社会者
Michael S.A. Graziano
ChatGPT作为最新的技术热潮,是一款具备惊人对话能力的人工智能聊天机器人。它依托于一个粗略模拟人脑的庞大人工神经网络,并通过分析互联网信息资源进行训练。ChatGPT处理过的文本量远超人类一生可能阅读的总和,使其能流畅回答问题,甚至能模仿特定人物,以它认为对方会采用的方式回应疑问。我正值青春期的儿子最近就用ChatGPT与模拟的卡尔·马克思进行过政治辩论。
作为一名专攻意识脑机制研究的神经科学家,与聊天机器人对话总让我感到不安。它们具有意识吗?很可能没有。但以技术发展的速度,未来几年内会出现有意识的AI吗?我们又该如何判断?
判断机器是否拥有或理解类人意识已不仅是科幻假设。人工智能正以惊人速度变得过于强大,很快可能对人类构成威胁。我们正在创造比人类更聪明的机器,并赋予它们掌控世界的能力。如何才能确保AI与人类需求一致而非对立?
尽管听起来有违直觉,但要打造良性AI,或许应该增强而非削弱其意识。关于AI最常见的误解是:高智能必伴随意识,有意识就会自主行动甚至统治世界。但随着对意识研究的深入,这些观点并不成立——一个能做出复杂决策的自主系统并不需要意识。
关于意识最重要的一点是,对人类而言,它不仅仅关乎自我。我们能在自身感知到意识,也会将其投射到周围世界中。意识是进化赋予我们的工具包之一,使我们成为具有同理心的亲社会物种。若没有意识,我们必然成为反社会者,因为我们将缺乏亲社会行为的工具。而机器由于不理解意识为何物或无法认知其他生命体拥有意识,本质上就是反社会的。
目前我们拥有的唯一机器意识检测工具是图灵测试,这个以英国计算机科学家艾伦·图灵命名的思想实验。其最常见版本认为:如果一个人与机器对话时,将其回应误认为真人作答,那么这台机器就应被视为具有意识。
图灵测试默认了一个前提——我们只能通过他者(或它者)的外在交流方式判断其意识存在。但该测试的局限性显而易见:宠物狗无法通过对话伪装成人,难道意味着它没有意识?若真想让机器通过测试,只需让它对孩童说几句话,甚至可能骗过某些成年人。
事实上,图灵测试无法揭示ChatGPT等程序内部的真实运作机制。它真正检验的是人类参与者的社会认知能力——作为社会性动物,我们的大脑会本能地将意识、能动性、意图和情感投射到周遭物体上。我们天生倾向于认为万物有灵:古代泛灵论认为每条河流、每棵树都栖息着精灵;同理,人们容易在月亮或发霉吐司等随机物体上看到人脸。
艾伦·图灵在1950年论文中提出的原始测试比如今人们讨论的版本复杂得多。值得注意的是,图灵只字未提"意识"概念,他从未深究机器是否具有主观体验,只追问它能否像人类一样思考。
图灵设计了一个"模仿游戏":玩家需要通过文字问答判断A、B两人的性别(一男一女),其中A会欺骗性作答,若玩家判断错误则A获胜;B则诚实回答,玩家判断正确即B获胜。图灵设想,若用机器替代A或B,且其获胜频率与真人相当,就证明机器掌握了人类思维的微妙之处——包括辩论、操控和揣测他人想法的能力。
原始测试的复杂性被后世简化为人机对话的单一版本,但恰恰是这种怪诞的复杂性才是关键。社会认知需要"心智理论"支撑——即理解他人拥有独立心智,并能推测其内容。
要判断计算机是否具备意识,就需要测试它是否理解意识主体间的互动。这相当于一个反向图灵测试:观察计算机能否分辨对话对象是人类还是机器。若它能区分,或许就理解了意识的本质。目前的ChatGPT显然无法通过——它根本不知道自己在与有意识的人类对话,还是在处理预设问题列表。
一台能够做出重大决策的反社会机器将极其危险。目前,聊天机器人的能力仍然有限;它们本质上只是玩具。但如果我们不更深入地思考机器意识,一年或五年后我们可能会面临一场危机。如果计算机终将超越我们的思维,赋予它们更类似人类的社会认知能力,或许是我们让它们与人类价值观保持一致的最大希望。
格拉齐亚诺博士是普林斯顿大学心理学和神经科学教授,著有《重新思考意识:主观体验的科学理论》。
本文发表于2023年1月14日的印刷版,标题为《没有意识,人工智能将成为反社会者》。