萨姆·阿尔特曼的人工智能双重言辞将OpenAI描绘为安全 - 彭博社
Parmy Olson
萨姆·阿尔特曼。
摄影师:大卫·保罗·莫里斯/彭博社
还记得当OpenAI的非营利董事会毫无预兆地 解雇 萨姆·阿尔特曼吗?这位首席执行官经历了四天的孤立,原因是他没有对董事们“始终如一地坦诚”。一年后,阿尔特曼对人工智能的未来并没有表现出很大的一致性。在周一发布的 与彭博商业周刊的采访中,阿尔特曼承认他曾随意想出一个“完全随机”的日期,表示OpenAI将构建人工通用智能(AGI),这是一个理论上的门槛,意味着人工智能超越人类智能。这个日期是2025年,距离公司成立已有十年。
彭博社观点抖音出售应该是特朗普的第一笔交易不要让数据欺骗你:美国正在辜负职场女性私募股权不应出现在你的401(k)中特朗普的内阁人选为低谷做准备阿尔特曼对那个错误的坦诚让人感到一时的清新,直到他在同一次采访中轻松做出了另一个预测:“我认为AGI可能会在这位总统的任期内开发出来,”他说。他在周一的一篇个人 博客文章中做出了更大的声明,称我们将在今年看到AI“代理”加入劳动力, “实质性地改变公司的产出。”
阿特曼已经成为在谦逊和炒作之间调节的高手。他会承认自己过去的猜测,同时对未来做出同样投机的新预测,这是一种令人困惑的鸡尾酒,转移了人们对更棘手当前问题的注意。对他的所有声明都要持有很大的怀疑态度。
科技公司领导者们长期以来一直试图向我们出售未来的海市蜃楼。埃隆·马斯克 声称他会在2020年前让自动驾驶出租车上路,而史蒂夫·乔布斯因其 现实扭曲场而被嘲笑。但阿特曼的战略模糊性更为复杂,因为他将自己的主张与明显的坦率混合在一起,例如在周一发推称OpenAI正在亏损,因为其高级服务太受欢迎,或者承认自己之前对AGI的猜测。这使得其他预测和主张听起来更可信。
风险也与马斯克不同,马斯克销售汽车和火箭,乔布斯销售消费产品。阿特曼正在营销可能改变数百万人的教育和就业的软件,就像互联网本身几乎改变了一切一样,他的预测可以帮助引导那些害怕被抛在后面的企业和政府的决策。
例如,一个风险是潜在的监管减弱。虽然AI安全机构在2024年在包括美国、英国、日本、加拿大和新加坡在内的几个国家 相继成立,但全球监管在今年可能会收回。政策研究公司欧亚集团,由美国政治学家伊恩·布雷默创立,将AI监管放松列为其2025年的主要风险之一。布雷默指出,候任总统唐纳德·特朗普 可能会撤销总统乔·拜登关于AI的行政命令,并且由英国发起的国际AI安全峰会系列将在今年在巴黎举行时更名为“AI行动峰会”(在那里,像Mistral AI这样的有前景的初创公司也恰好位于此地)。
在某种程度上,奥特曼关于AGI即将到来的评论帮助为这些峰会从“安全”转向“行动”提供了理由,因为当事情发展如此迅速时,建立有效的监督显得更加具有挑战性。信息变成了:“这一切发展得如此之快,传统的监管框架将无法奏效。”而且奥特曼在谈论AI安全时也表现得不一致。在他周一的博客文章中,他强调了其重要性,但在与《纽约时报》记者安德鲁·罗斯·索尔金在12月的Dealbook峰会上的采访中,他却淡化了这一点,表示:“我们和其他人表达的许多安全担忧实际上并不会在AGI时刻出现。就像,AGI可以被构建,世界大致上还是那样运转。经济运转得更快,事物发展得更快。”
这对已经倾向于轻监管的政治领导人,如特朗普,构成了一个有说服力的叙述,奥特曼正在为其提供100万美元的启动基金捐款。问题在于,光明未来的承诺不断分散人们对短期问题的注意力,比如AI对劳动、教育和创意艺术的潜在干扰,以及生成性AI仍然存在的偏见和安全问题。
当奥特曼被彭博社问及人工智能的能源消耗时,他立即提到了一个未经测试的新技术作为答案。“核聚变会成功,”他回答道,指的是从核聚变中大规模获取能量的仍然理论化的过程。“很快,”他补充道。“好吧,很快就会有净增益核聚变的演示。”实际上,核聚变几十年来一直是过于乐观的预测的主题,而在这种情况下,奥特曼再次将其作为转移一个威胁到他雄心壮志的问题的手段。
奥特曼似乎正在运作一个更复杂、迭代的硅谷炒作机器。这很重要,因为他不仅仅是在销售一种服务,而是在塑造企业和政策制定者在一个关键时刻对人工智能的看法,尤其是关于监管方面。他认为,通用人工智能将在特朗普总统任期内到来,但世界将继续运转。没有必要进行太多的制衡。这远非事实。更多来自彭博社观点:
想要更多彭博社观点吗?OPIN<GO>。或者您可以订阅 我们的每日通讯**。**