不,人工智能机器不会思考——《华尔街日报》
Andy Kessler
做好准备吧。不久之后,数字精英们就会宣布人工智能机器已通过图灵测试,超级智能与有感知能力的计算机时代就此来临。他们许诺的应许之地是人工通用智能(AGI)。但请别上当——你颅腔内的内在声音和自我意识会告诉你原因。
1950年,计算机先驱艾伦·图灵提出一个简单的"模仿游戏"测试来回答"机器能思考吗?":如果审讯者通过盲测无法根据回答区分机器与人类,则判定机器能思考。图灵预测到2000年,机器在五分钟对话后能有70%概率模仿人类。随后他又推翻自己的分析,认为"‘机器能思考吗’这个问题本身毫无意义,不值得讨论"。图灵测试本质只是检验机器能否愚弄人类——不妨查查动词"模仿(ape)“的本义。
尽管如此,危言耸听者仍大行其道。在硅谷的鸡尾酒会上,“你的p(末日)值是多少?“已成为流行谈资。这个极客指标用来衡量AI灭绝人类的概率,许多人给出的数值超过30,而我的答案是零。
简单的图灵测试存在诸多缺陷。你以为AI会产生幻觉或胡编乱造?现实中许多会思考的"机器”(你知道的,那些有皮肤的)同样荒诞:男人能怀孕,无聊猿NFT价值连城,男人发髻,和平抗议。
Inflection AI首席执行官、被谷歌收购的DeepMind联合创始人穆斯塔法·苏莱曼近期提出一项新图灵测试:给机器10万美元,观察它能否通过阿里巴巴等电商平台将资金增值到100万美元。这很荒谬——按此标准,连垃圾邮件机器人也算得上智能!
19世纪数学家阿达·洛芙莱斯的思想远超时代。她对查尔斯·巴贝奇1837年发明的早期计算机"分析机"写道:“它不具备任何创造能力,只能执行我们明确指令的任务。“真正的洛芙莱斯测试或许是:“AI能否产生真正原创的内容?“且需令人愉悦性,而非如谚语所说让一千只猴子乱打出的小说。电影、音乐和艺术同理。伦斯勒理工学院教授塞尔默·布林斯约德2001年就提出"(更优)洛芙莱斯"测试来检测创造性。
我们真正需要的是对思考、智能和感知的准确定义。计算机已在许多任务上超越人类——除非你是"雨人”,否则电子表格算加法比你快;优步调度优于人工;2016年谷歌展示的计算机在围棋中击败人类;1997年IBM"深蓝"通过每秒计算数亿步棋路,战胜国际象棋大师(兼《华尔街日报》撰稿人)加里·卡斯帕罗夫;IBM"沃森"甚至赢得电视竞答节目《危险边缘》。这些成就固然惊人,但……
但这些是有限系统。我们姑且称之为二维世界。国际象棋有64个方格,双方各16枚棋子,遵循既定规则。OpenAI为ChatGPT开发的大型语言模型拥有上万亿参数(其中许多涉及版权争议)和庞大服务器群,但终究存在边界。在规则明确的世界里,算力决定一切。
然而现实生活没有规则。人类是三维、四维乃至无限维度的存在。我们拥有近乎无限的选择自由——尽管常被道德与宗教规范约束(而这些约束也常被无视)。法律维持着社会秩序,但多数人仍保有自由意志。据莱斯特大学研究者估算,人类每天要做超过3.5万次有意识决策。要模拟人类,计算机需处理10的10万次方量级的可能选择(约等于3.5万的阶乘)——这个数字连天文学家都难以想象。
批评者将生成式AI和ChatGPT贬为"自动补全工具"或更刻薄的"随机鹦鹉”。实则它能同时分析数千词语的关联模式。但AI真正的智慧源自词语与句子间嵌入的人类逻辑,这足以实现基础推理。AI的真正潜力尚未完全释放,但要说它能思考?我站图灵这边。
为何?因为生命充满变化与惊喜。人类被赋予远超理性范畴的诸多矛盾特质:共情、欢愉、野心、创造力、情感、爱、忠诚、幽默、责任感、信仰、信任、喜悦、绝望、直觉、固执。再加上弗洛伊德的本我与自我、内心声音、自我意识、灵魂。真正的通用人工智能需要模拟这一切。
AI的发展轨迹令人惊叹,将在许多二维边界内的领域超越人类。如今的AI只是模式匹配的超级机器。有知觉?会思考?或许能蒙骗部分人,但我认为远未实现。电影《银翼杀手》中,通过检测脉搏和瞳孔反应的沃伊特-坎普夫测试能区分人类与复制人。在荒谬的"AI有意识"论调掩盖现实前,我们需要这种现代版无可辩驳的图灵或洛夫莱斯测试——提示:AI可能不擅长双关语和悖论。
联系邮箱:[email protected]
图片来源:英国王室版权2021年/路透社刊载于2024年1月8日印刷版,标题为《不,AI机器不会思考》