人工智能会梦见电子羊吗?——《华尔街日报》
Andy Kessler
图片来源:盖蒂图片社昨晚我做了一个奇怪的梦。相信你也常这么说。但为什么会做梦?从西格蒙德·弗洛伊德到卡尔·荣格,再到卡尔文·霍尔,人们对梦境的研究已汗牛充栋,却仍无法确切解释梦的成因。是无意识欲望?维持神经元活跃?记忆巩固?性心理愿望满足?无人知晓。就连弗洛伊德也曾坦言:“有时雪茄就只是雪茄。”
如今,人工智能及其模仿大脑的神经网络正为解梦提供新线索。1968年,菲利普·K·迪克出版小说《仿生人会梦见电子羊吗?》——1982年电影《银翼杀手》正是基于此作。事实证明答案是肯定的。
首先快速了解神经网络的简化原理:其数字层由互联节点组成,模拟人脑神经元与突触连接,擅长识别模式。当扫描数百万张照片后,某层节点可能通过数值权重判定,带有眼睛、鼻子和嘴的圆形物体是人脸。数据随后传递至下一层,该层会识别模式中的模式,比如判断这是猫脸或狗脸。接着另一层继续识别模式的模式,最终能确定狗的品种是西伯利亚雪橇犬。如此层层递进。
可训练神经网络的理论早在1943年就已提出,但直到1958年心理学家弗兰克·罗森布拉特在康奈尔航空实验室展示感知机时才真正问世。然而直到过去十年间,人工智能才真正实现规模化应用,获得了理解人类语音和识别照片中人脸的能力。
是什么带来了改变?更快的处理器和更廉价的内存固然功不可没,但过去的神经网络常因"过拟合"数据而陷入误区——比如判定所有长着猫眼的东西都是猫,或是得出恐龙建造了巨石阵的结论。人类也会犯类似错误:因为球队上次获胜时我们敲了木头或穿了幸运袜,就认定这些行为与胜利相关。计算机可能像人类一样产生迷信。
1970年芬兰学生塞波·林纳因马提出了"反向传播"算法(此处仍属过度简化),即通过神经网络层反向传递误差来调整权重参数,从而更好地识别模式。但直到1986年《通过反向传播误差学习表征》论文发表(合著者包括神经网络研究先驱杰弗里·辛顿),反向传播研究才真正起飞。该方法又经过20年才实现规模化应用,这就是当今语音和面部识别AI表现优异的原因。
最新理论进展:2020年时任塔夫茨大学教授的神经科学家埃里克·霍尔提出,人类大脑同样会陷入过拟合困境,需要通过泛化来解决问题。霍尔认为大脑"通过每晚经历光怪陆离的梦境来实现这一点"。他提出假说认为"梦境本质上是被刻意扭曲的输入信号,可能源自大脑层级结构中注入的噪声"。听起来很熟悉?没错,或许梦境正是通过注入噪声和错误来进行反向传播,打破我们固有的模式识别框架。这就能解释为何梦境总是如此荒诞离奇。
霍尔先生甚至写道,也许"小说、电影等虚构作品就像人工梦境,至少能部分实现同样的功能",即注入噪音和错误。这倒是个不错的一口气看完漫威电影宇宙31部(还在增加)电影的理由。或许有一天虚拟现实能部分替代那些怪梦,治愈睡眠不足。
神经网络面临的另一个问题是"灾难性遗忘"——新数据会覆盖旧信息。加州大学圣地亚哥分校医学院睡眠研究员马克西姆·巴热诺夫最近发表的论文指出:“人脑持续学习并将新数据整合到现有知识中”,且"当新学习与睡眠记忆巩固期交替进行时效果最佳"。他认为人工智能神经网络同样如此——适当休眠能让它们学得更好。或许这就是微软将其必应聊天机器人回复限制在20条以内的原因。关于最新版本ChatGPT 4的早期评价显示,它更准确但缺乏创造力。也许它需要好好睡一觉。
在过拟合与灾难性遗忘之间,我们的大脑需要将新经历与旧记忆融合而不遗忘过去。我曾听国际象棋冠军马格努斯·卡尔森讲述他用自己多年前发布的象棋程序对战年轻时的自己的故事。他说这感觉有点超现实,但看着自己的进步轨迹实在令人着迷。或许这就是我们会做梦的原因——不是为了抹去旧记忆,而是为了弱化并微调它们,从而获得成长与进步。通过ChatGPT和人工智能研究,我们将更深入地了解自己。祝你好梦。
刊登于2023年4月3日印刷版,标题为《甜美的梦,ChatGPT》。