山姆·奥尔特曼能让人工智能足够聪明以回答这6个问题吗?- 彭博社
Niall Ferguson
山姆·奥尔特曼,AI的高级祭司。
摄影师:帕特里克·T·法伦/法新社/盖蒂图片社
小说家尼尔·斯蒂芬森的预言力量令人惊叹。钻石时代(1995年)设定在一个技术高度发达的世界,除了普遍存在的纳米技术外,还有一种奇怪熟悉的东西叫做“P.I.” 这个缩写在以下对话中得到解释:
“我是一名工程师…碰巧在这个项目上做了一些工作。”
“做什么样的工作?”
“哦,主要是P.I.的事情,”哈克沃斯说。据说芬克尔-麦格劳仍然关注事物,会认出伪智能的缩写,甚至可能欣赏哈克沃斯做出这种假设。
芬克尔-麦格劳稍微振作了一下。“你知道,我小时候他们称之为A.I.人工智能。”
哈克沃斯允许自己微笑了一下。“嗯,可以说有点厚颜无耻,我想。”
然而,尽管他们在技术上非常先进,这两个人却是“新维多利亚人”。他们选择拥抱19世纪的礼仪和时尚,部分是为了抵御国家权力的崩溃和国家分裂成“部落”。
彭博观点利率对世界来说是平的英国如何面临洪水和干旱的风险?伦敦政治经济学院失去像壳牌这样的巨头是一个非常真实的威胁债券市场风险因借款需求激增而出现错位对于那些对生成式人工智能最近的进展感到兴奋的人来说,这里有一个重要的警告。技术领域的惊人发展并没有使历史变得过时。它与最新的小工具并存,因为现在并不是历史结束和未来开始的地方;它是过去和未来融合的地方。
自2022年11月30日OpenAI发布ChatGPT以来,世界一直处于人工智能狂潮中。仅在五天内,ChatGPT就拥有了超过一百万用户。现在已经有一亿用户。该公司的最新成就是Sora,它可以根据您最奇特的提示生成出DreamWorks级别的动画。所有这些都是由拥有数千亿参数的深度学习系统实现的,这个术语在这里有定义。(举个例子,GPT-4的训练模型需要超过一万亿个参数。)而用于训练最先进的大型语言模型(LLMs)的计算量每六个月就会翻倍以上。
随着时间的推移,模型规模的增长速度必须放缓并与摩尔定律(见下文)趋于一致,否则训练新模型的成本将变得过高 —— 超出任何可能从商业化技术中获利的关系。这意味着只有在计算能力不断变得指数级便宜的情况下,人工智能才能不断进步。
我对人工智能的技术、财务和经济未来有六个问题:
1. Moore定律是否有终点?
1965年,英特尔公司的联合创始人戈登·摩尔推测,密集集成电路(也称为微处理器、半导体或芯片)中的元件数量(晶体管、电阻器、二极管或电容器)将在接下来的10年内每年翻一番。根据进一步观察,他在1975年将这一翻番时间修正为每两年一次。Moore定律经受住了近50年的创新考验。
现在看来,Moore定律显然是一个更深层次现象的体现,这个现象在摩尔之前就已存在,而且可能在他去世后的很多年里继续存在。自19世纪末期以来,计算的价格性能(计算机或芯片每美元成本能执行的操作数量)以及其他相关过程,如信息存储和信息传输,一直呈指数增长,当时赫尔曼·霍勒里斯的原型计算机使用电气机械继电器和穿孔卡片。即使目前基于硅的技术存在潜在限制,我们应该假设在达到这些限制时很快会找到一种新技术。让我们不要反对Moore定律。
2. 谁赚钱?
首先,必须是英伟达公司和台积电。他们在设计和制造关键的图形处理器单元(GPU),LLM运行在这些单元上,占据主导地位。
最近英伟达股价的惊人飙升提醒我们,技术最赚钱的用例并不总是其创始人所期望的用途。黄仁勋(Jen-Hsun “Jensen” Huang)是一个台湾神童,1972年,他九岁时被父母送到美国,1993年创建了英伟达,设计芯片以改善视频游戏中的图形。但事实证明GPU还有另一个更好的用途。如今,英伟达在专门用于人工智能的芯片市场份额约为80%。它之所以价值2万亿美元,是因为它每个月赚取数十亿美元。
谁还在赚钱?毫无疑问,OpenAI肯定在赚钱,因为它的GPT-4是(如果不是)最先进的LLM,而且它有微软公司雄厚的资金支持来资助下一个版本的训练,预计是GPT-5。今天,全世界都在关注OpenAI首席执行官Sam Altman说的每个字。但OpenAI面临的竞争比Nvidia更为紧迫,不仅来自Alphabet公司的Google。开源AI系统包括LLaMA、Alpaca和Vicuna也并不落后。很容易想象有相当一部分用户愿意接受不那么出色但免费(或广告支持)的AI聊天机器人,留下专业人士为高级服务付费。
另一个重要机会在于数据 — 是的,它们确实是新的石油。到目前为止,最先进的LLM已经在互联网上可以轻松抓取的大部分高质量文本上进行了训练。为了推动持续的能力提升,下一代模型将需要一种日益稀缺的商品:关于相关主题(例如人类健康)的大型干净数据集。能够提供这些数据的公司应该会赚钱。与石油一样,有些数据集的提取成本比其他数据更高。随着AI需求和数据价格的上升,钻探不太容易获取的数据将变得经济上划算。
3. 我们正在见证人工智能泡沫吗?
金融历史上充满了颠覆性技术引发股市泡沫的例子。当前的人工智能狂热可能会是另一个吗?
当然,最近有许多虚假公司在他们的推介文件中添加了“人工智能”,就像上世纪90年代那样,有许多公司虚假地声称自己是“点子公司”。但是英伟达是一只泡沫股票吗?正如我的彭博观点同事约翰·奥瑟斯最近所指出的,英伟达在销售和利润方面的表现比点子公司时代的思科系统公司更令人印象深刻,思科是互联网运行的路由器制造商。
黄先生称人工智能“可能是科技行业最伟大的发明”,“很可能是21世纪最重要的事情”。但我们以前听过这样的炒作。现实是(问问特斯拉公司),只要存在巨额利润的可能性,很快就会出现竞争。谷歌、微软、亚马逊和超威半导体公司都在设计他们自己的人工智能芯片。在帕特·盖尔辛格的领导下,英特尔正在重新崛起,力争在设计和晶圆代工业务中竞争。
泡沫破裂的方式部分原因是竞争不可避免地压低利润率,使峰值估值变得荒谬。但还有一个额外的动态。一方面,投资于人工智能的金额是巨大的。不满足于微软给予OpenAI的130亿美元,阿尔特曼现在谈到需要7万亿美元用于芯片制造和发电。尽管GPT-4和Sora令人印象深刻,但即使OpenAI的未来收入也无法证明这么庞大的资本总额是合理的。事实:7万亿美元是拜登政府提议的2025财政年度的联邦政府总预算。
本月早些时候,The Information 发表了一些关于美国企业对LLMs能为他们的业务做多少的重要怀疑。在二月的财报电话会议上,亚马逊CEO Andy Jassy表示,AI带来的近期收入“相对较小”。Salesforce Inc.的高管们表示,生成式AI在今年不会对收入增长产生“实质性贡献”。这些都是炒作周期过去的第一个迹象。
一个关键的担忧是,AI仍然比人类“幻觉”(即,编造东西)要多得多。市场采用的真正决定因素是AI能以人类或更好的可靠性做什么。
4. 我们是否会有足够的计算能力达到人工通用智能(AGI)?
AGI指的是一种假设的通用算法系统,可以在所有认知任务上与一般受过教育的人类相匹敌。
这显然是Altman渴望构建的东西。但这是可以实现的吗?这实际上是一个关于我们能多快增长计算能力以达到可能需要的规模来与人脑竞争的问题 —— 这可能意味着一个拥有一百万亿参数训练模型的计算模型,相比之下,GPT-4估计只有一万亿。这将需要大量的计算能力(或者像AI专家们所说的“计算”)。
1999年,未来学家雷·库兹韦尔预测AGI将在2029年到来。最近,2022年1月1日,由聚合平台 Metaculus 编制的预测者的加权平均值预测,“弱AGI”将在2042年达到人类一般智能水平。三个月后,谷歌的PaLM AI掌握了“思维链推理”,这被视为一个关键障碍。
1170名预测者最近的Metaculus平均值是,“第一个弱智能系统将在2026年被设计、测试并公开宣布”,四分位范围在2025年至2030年之间。在“弱人工智能”发布后,还需要额外28个月才能使人工智能变得超级智能,即在所有认知任务上比最优秀的人类更聪明。
指数增长的力量就在于此。如果模型大小每六个月翻一番,每年增四倍,每18个月增八倍,那么即使对人工智能所需计算能力的估计低了10倍,也只会延迟预期到达时间19个月。低估100倍将使其延迟三年。
人工智能是科幻小说的内容(想想阿瑟·克拉克的《2001太空漫游》中的HAL 9000)。但这并不意味着它不能成为现实,就像《钻石时代》中的纳米技术和会说话的书一样。
5. 人工智能会导致大规模失业吗?
三个世纪以来,劳动力市场一直在适应新技术,长期趋势是就业总量、小时生产率和最终工资的增加。新技术确实会摧毁某些职业:织布工、速记员、电话接线员、电梯操作员。但这些工作都在没有长时间大规模失业的情况下消失了。新技术带来了其他职业。
然而,关于自动化和国际贸易对劳动力市场的冲击的最新证据表明,人工智能的负面影响将在地理和人口上集中,受冲击最严重的地方的劳动力市场不会顺利适应。一个很好的例子是2001年北京加入世界贸易组织后对美国制造业造成的“中国冲击”,这一冲击在工厂自动化的几乎同时推进下被放大。
与经济理论的预测相反,许多受影响的工人并没有搬迁、转行或接受薪酬较低的无技能工作。相反,他们倾向于离开劳动力市场。受影响的社区遭受了工资、总需求和公共卫生方面的负面溢出影响 — 想想“绝望之死”。目前尚不清楚拥有大学学位的“知识工作者”是否会更适应“人工智能冲击”。
麦肯锡公司的研究估计,即使没有生成式人工智能,到2030年,自动化也可能接管美国经济中目前工作时间的21.5%的任务。有了人工智能,这一比例为29.5%。人们可能会想象每个人都在AI副驾驶的帮助下愉快地提高生产力。更有可能的是,从法律行业到娱乐业,白领就业将在各个领域缩减。
随着通用人工智能的出现,甚至可以想象更加激进的结果,即在大多数角色中雇用人类可能不再有意义,甚至包括企业领导。
6. 人工智能采用会遇到抵制吗?
你知道这个问题的答案:是的。
技术变革长期以来一直引起政治争议和社会动荡,但组织起来的抵抗很少成功阻止采用。1675年伦敦和1773年莱斯特发生的暴力骚乱中,纺织工人摧毁了他们担心会摧毁自己生计的机器。从1811年开始,卢德分子破坏和摧毁了动力织机。
我们这个时代也有卢德派。2022年12月,苹果公司推出了一项服务,允许图书出版商使用听起来像人类的AI叙述者,威胁到录制有声读物的配音演员。生成式AI有朝一日可能取代编剧和演员的前景成为了好莱坞编剧协会和SAG-AFTRA罢工的中心争议。
对技术变革的抵抗通常是徒劳的。尽管卢德派组织得相当好,但他们被镇压了。如今,只有1.3%的美国金融服务业工人和2.3%的专业和商业服务工人加入了工会,低于10%的全国平均水平。由于缺乏组织,AI革命的失败者在工作场所抵抗的机会将微乎其微。
然而,如果公众和精英感到恐慌,对新技术的政治抵抗是有可能成功的。一个很好的例子是人类克隆和基因工程引起的强烈反对。1997年,英国成功克隆哺乳动物“多莉羊”,标志着首次使用体细胞核移植技术克隆哺乳动物。美国于2003年通过了《人类克隆禁止法》,禁止使用联邦资金进行生殖克隆和研究克隆。
这段历史引发了这样一个可能性,即随着生成式人工智能变得更加类似人类,监管者和立法者可能会面临压力,限制其使用 — 例如,在创建深度伪造视频或音频内容模仿个人方面。
在尼尔·斯蒂芬森想象中的《钻石时代》中,PI未能达到那种模仿水平,但这仅仅是因为,“尽管我们拥有所有的技术,伪智能算法,庞大的异常矩阵,预兆和内容监视器,以及其他一切,我们仍然无法接近生成一个听起来像真正的、活生生的演员所能给我们的人类声音。”
在我们的硅时代,人工智能轻松地克服了这一障碍。但是监管 — 或者更加直接的大众强烈反对 — 能否减缓计算的指数增长,LLMs的崛起,以及AGI的命运接近?在未来的专栏中,我将转向人工智能的新兴政治。
弗格森还是Greenmantle咨询公司、FourWinds Research、Hunting Tower风险投资合作伙伴以及电影制作公司Chimerica Media的创始人。
更多尼尔·弗格森在彭博观点的文章:
- 全球人口崩溃 不再是科幻
- 如果你认为第三次世界大战是不可想象的,请阅读这篇文章
- 美国和欧洲 面临地缘政治101的失败
想要更多彭博观点吗? OPIN <GO> 。或者订阅****我们的每日新闻简报 。