人工智能何时会比人类更聪明?别问——彭博社
Gideon Lichfield
终究没那么聪明。
摄影师:Hiroshi Watanabe/Digital Vision via Getty Images
如果你听说过“通用人工智能”(AGI)这个词,它很可能让你联想到类人的智能,比如电影《她》中那个嗓音甜美的AI恋人,或是像《终结者》里的天网那样的超人类智能。无论如何,都是些科幻且遥远的东西。
但现在,科技行业内外越来越多人预言,AGI或“人类水平”的AI将在不久的将来出现。
这些人或许真心相信自己的说法,但至少部分是为了炒作,目的是让投资者向AI公司砸下数十亿美元。没错,重大变革几乎肯定即将到来,你该为此做好准备。但对大多数人而言,将其称为AGI往好了说是分散注意力,往坏了说是蓄意误导。商业领袖和政策制定者需要更清晰地理解即将发生的事。幸运的是,办法是有的。
还有多少年?
OpenAI的山姆·奥尔特曼、Anthropic的达里奥·阿莫代以及xAI的埃隆·马斯克(他最不为人知的身份)最近都表示,AGI或类似的东西将在一两年内问世。更谨慎的声音如谷歌DeepMind的德米斯·哈萨比斯和Meta的扬·勒昆则认为至少还需五到十年。最近,这种论调已进入主流,《纽约时报》的埃兹拉·克莱因和凯文·鲁斯等记者也主张社会应尽快为类似AGI的事物做好准备。
我说“类似”是因为这些人常常在AGI(人工通用智能)这一术语上打擦边球,随后又退回到更含糊的表述,比如“强大的人工智能”。而他们所指的含义差异巨大——从能像人类一样完成几乎任何单项认知任务但仍可能高度专业化的AI(克莱因、鲁斯),到能做出诺贝尔奖级别的工作(阿莫迪、阿尔特曼),再到在所有方面像真人一样思考(哈萨比斯),或是在物理世界中运作(勒昆),又或者仅仅是“比最聪明的人类更聪明”(马斯克)。
那么,这些“真的”算AGI吗?
事实上,这并不重要。如果真存在AGI这种东西——我将论证其并不存在——它也不会是我们突然跨越的明确界限。对鼓吹者而言,AGI现在只是“某种极具颠覆性的事物即将到来”的简写:这种软件不仅能编写应用程序、起草学校作业、为孩子创作睡前故事或预订假期,还可能让大批人失业、实现重大科学突破,并赋予黑客、恐怖分子、企业和政府令人恐惧的力量。
这一预测值得认真对待,称之为AGI确实能让人警醒并侧耳倾听。但与其讨论AGI或人类级别AI,不如让我们谈谈不同类型的人工智能,以及它们能做什么、不能做什么。
大语言模型无法做到的事
自70年前人工智能竞赛拉开帷幕以来,某种形式的人类级别智能就一直是目标。数十年来,最顶尖的成果仅限于“狭义AI”,比如IBM击败国际象棋冠军的深蓝,或谷歌能预测蛋白质结构的AlphaFold——后者为创造者(包括哈萨比斯)赢得了去年诺贝尔化学奖的荣誉。它们都远超人类水平,但仅限于一项高度特定的任务。
如果AGI(人工通用智能)突然显得近在咫尺,那正是因为支撑ChatGPT及其同类产品的大语言模型似乎既更接近人类,又更具通用性。
大语言模型以平实语言与我们互动,能对大多数问题给出至少看似合理的答案。它们能创作相当不错的小说——至少在篇幅极短时(长篇故事会出现角色和情节混乱)。在编程、医学/司法考试、数学题等技能测试中,它们的分数持续攀升,逐步推理能力和复杂任务处理能力也在提升。当最激进的AI从业者谈论AGI即将来临时,本质上指这些模型的进阶版本。
这并非说大语言模型影响有限。部分软件公司已计划减少工程师招聘。医疗诊断、法律文书起草、研究简报撰写、营销方案制定等流程固定的工作,人类工作者至少能部分交由AI处理——有些已实现。
这将提升工作效率,可能导致某些岗位消失。但未必尽然:被誉为"教父"的诺奖得主计算机科学家杰弗里·辛顿曾预言AI将很快取代放射科医生,如今美国却面临放射科医生短缺。
但从重要意义上来说,大语言模型仍属于"狭义人工智能"。它们能出色完成某项任务,却在看似相关的另一项任务上表现糟糕——这种现象被称为锯齿边界。
例如,AI可能轻松通过律师资格考试,却无法将客户对话整理成法律简报。它能完美回答某些问题,却经常在其他问题上出现"幻觉"(即虚构事实)。大语言模型擅长解决有明确规则的问题,但在某些新测试中,当规则变得模糊时,那些在其他基准测试得分80%以上的模型甚至难以达到个位数成绩。
即便大语言模型开始攻克这些测试,它们仍是狭义AI。解决一个定义明确、范围有限的难题是一回事,而应对人类日常工作则是另一回事。
即使数学家也不会整天只做数学题。人们处理无数无法被基准测试衡量的事务,因为这些并非有标准答案的封闭问题。我们权衡矛盾事项、放弃失败计划、为认知局限留出余地、制定变通方案、凭直觉行动、察言观色,最重要的是——持续与那些高度不可预测且非理性的人类智慧体互动。
事实上,有一种观点反对大语言模型(LLM)能够完成诺贝尔奖级别的工作,认为最杰出的科学家不是那些知识最渊博的人,而是那些挑战传统智慧、提出不太可能的假设并提出别人未曾想到的问题的人。这与LLM的设计初衷几乎相反,LLM旨在根据所有可用信息找到最可能的共识答案。
因此,也许有一天我们能够构建一个LLM,它可以像人类一样完成几乎任何单独的认知任务。它可能能够将一系列任务串联起来解决更大的问题。根据某些定义,这将达到人类水平的人工智能。但如果你把它放在办公室里工作,它仍然会像砖头一样愚蠢。
人类智能并非“通用”
通用人工智能(AGI)概念的一个核心问题在于,它基于一种高度以人类为中心的对智能的理解。
大多数人工智能研究将智能视为一种或多或少线性的衡量标准。它假设机器在某个时刻会达到人类水平或“通用”智能,然后可能是“超级智能”,此时它们要么变成天网》并毁灭我们,要么变成仁慈的神明,满足我们所有的需求。
但有一种强有力的观点认为,人类智能实际上并非“通用”。我们的心智是为了应对成为我们这一非常具体的挑战而进化的。我们的体型和形状、我们能消化的食物种类、我们曾经面对的捕食者、我们亲属群体的规模、我们的交流方式,甚至我们感知到的重力强度和光的波长,都决定了我们心智擅长什么。其他动物拥有许多我们缺乏的智能形式:蜘蛛能通过网的振动区分捕食者和猎物,大象能记住长达数千英里的迁徙路线,而章鱼的每只触手实际上都有自己的思想。
在一篇2017年为《连线》撰写的文章中*《连线》*,凯文·凯利提出,我们不应将人类智能视为某种进化树的顶端,而应视其为地球智能集群中的一个点,而这个集群本身在宇宙所有可能的外星和机器智能中不过是微小的一抹。他写道,这彻底打破了“超级人工智能神话”——那种能全方位远超我们的存在。相反,我们将会看到“数百种超越人类的新思维物种,大多与人类迥异,没有一种是万能的,也没有哪种能瞬间成神,一举解决重大问题。”
这是特性而非缺陷。对于大多数需求,我推测专业化智能将比尽可能模仿我们的通才更经济可靠,更不用说它们不太可能揭竿而起要求权利。
智能体集群
这些观点并非否定未来几年AI可能实现的巨大飞跃。
已初现端倪的突破是“代理型”AI。这类智能体仍以大型语言模型为基础,但不仅能分析信息,还可执行如完成网购或填写网页表单等操作。例如Zoom公司即将推出能扫描会议记录生成待办事项、起草跟进邮件并安排下次会议的智能体。目前AI代理表现参差不齐,但如同语言模型的发展,预计其将快速进化到能自动化相当复杂流程的程度。
有人可能会声称这就是通用人工智能。但再次强调,这种说法只会带来困惑而非启发。智能体并非"通用",而更像是思维极度单一的个人助手。你会有几十个这样的助手。即使它们让你的生产力飙升,管理它们就像同时操作几十个不同的软件应用——就像你现在已经在做的那样。也许你会再雇一个智能体来管理所有其他智能体,但它同样只能完成你设定的目标。
当数百万或数十亿智能体在网络上互动时会发生什么,谁也说不准。或许就像交易算法曾引发无法解释的市场"闪崩"那样,它们会触发不可阻挡的连锁反应,导致半个互联网瘫痪。更令人担忧的是,恶意行为者可能动员大量智能体制造混乱。
尽管如此,大语言模型及其智能体只是人工智能的一种类型。几年内,我们可能会出现根本不同的形态。例如,Meta公司LeCun的实验室正在与其他机构共同尝试构建所谓的具身人工智能。
该理论认为,通过将AI置于现实世界的机器人身体或模拟环境中,它可以学习物体、位置和运动——这些构成人类理解的基础要素,更高层次的概念由此产生。相比之下,纯粹基于海量文本训练的大语言模型,表面上模仿了人类思维过程,但没有证据表明它们真正拥有这些思维,甚至没有证据显示它们具有任何有意义的思考能力。
具身化AI会催生真正会思考的机器,还是仅仅造就灵巧的机器人?目前尚无法断言。但即使实现前者,将其称为通用人工智能仍具误导性。
回到进化论视角:正如要求人类像蜘蛛或大象般思考是荒谬的,期待一个不眠不休、无需饮食交配——更遑论建立友谊、道德挣扎或思考生死——的六轮四臂椭圆机器人像人类一样思考同样荒诞。它或许能搀扶祖母从客厅到卧室,但其任务理解与执行方式将与人类截然不同。
AI未来将实现的诸多能力,今日我们甚至难以想象。追踪和理解其发展的最佳方式,是停止将其与人类或影视形象类比,持续追问:它实际能做什么?
更多彭博观点:
- 贸易战真是"帮助"美国AI企业的妙招吗:戴夫·李
- 抵抗是徒劳的,但AI或许例外:尼尔·弗格森
- 蔡崇信正成为AI领域的理性之声:凯瑟琳·索贝克
获取更多彭博观点?输入OPIN <GO>。 或订阅****我们的每日简报。