OpenAI联合创始人计划成立新的人工智能研究实验室 - 彭博社
Ashlee Vance
2023年,苏茨凯弗在特拉维夫大学。
摄影师:杰克·盖兹/法新社/盖蒂图片社
摄影师:埃里克·卡特为彭博商业周刊拍摄在过去几个月里,“伊利亚在哪里?”这个问题在人工智能领域变得司空见惯。伊利亚·苏茨凯弗,这位著名的研究员,是联合创始人之一OpenAI,参与了2023年董事会罢免首席执行官萨姆·奥尔特曼的事件,然后改变了主意,帮助奥尔特曼重返公司。从那时起,苏茨凯弗保持沉默,留下了他在OpenAI的未来笼罩在不确定性之中。然后,在五月中旬,苏茨凯弗宣布离开,只表示他将“适时”披露他的下一个项目。
彭博商业周刊特朗普连任后对美联储能做什么,以及不能做什么找到完美的肥皂盒并不容易。我们找到了17个好的摩根大通引发400亿美元涌入印度债券市场马斯克的股东胜利对他的薪酬计划意味着什么?现在苏茨凯弗正在推出该项目,一个名为Safe Superintelligence Inc.的企业,旨在创建一个安全、强大的人工智能系统,该系统属于一个纯粹的研究机构,没有近期出售人工智能产品或服务的意图。换句话说,他试图在没有OpenAI、谷歌和Anthropic等竞争对手面临的许多干扰下继续他的工作。“这家公司很特别,它的第一个产品将是安全的超级智能,直到那时它不会做其他任何事情,”苏茨凯弗在一次关于他计划的独家采访中说道。“它将完全隔离于外部压力,不必处理大型复杂产品和陷入竞争激烈的竞赛中。”
Sutskever拒绝透露Safe Superintelligence的资助者或透露他筹集了多少资金。
Altman和Sutskever在2023年于特拉维夫大学。摄影师:Amir Cohen/路透社正如公司的名称所强调的那样,Sutskever已将AI安全作为首要任务。当然,关键在于确定究竟是什么使一个AI系统比另一个更安全,或者说,根本上是安全的。目前,Sutskever对此还很模糊,尽管他暗示这个新的创业项目将尝试通过嵌入到AI系统中的工程突破来实现安全,而不是依靠临时应用于技术的防护栏。“通过安全,我们的意思是像核安全一样安全,而不是像‘信任和安全’那样安全,”他说。
Sutskever有两位联合创始人。其中一位是投资者兼前苹果公司AI主管Daniel Gross,他通过支持许多备受关注的AI初创公司而引起了关注,包括Keen Technologies。(由著名编码者、视频游戏先驱和最近在Meta Platforms Inc.担任虚拟现实大师的John Carmack创立,Keen正试图开发基于非传统编程技术的人工通用智能。)另一位联合创始人是Daniel Levy,在OpenAI与Sutskever一起工作并培训大型AI模型方面建立了良好声誉。“我认为现在是开展这样的项目的时机,”Levy说。“我的愿景与Ilya完全一致:一个小而精干的团队,每个人都专注于实现安全超级智能的单一目标。”Safe Superintelligence将在加利福尼亚州帕洛阿尔托和特拉维夫设立办公室。Sutskever和Gross都在以色列长大。
鉴于Sutskever在人工智能行业中的近乎神话般地位,围绕他身份的不确定性成为硅谷数月来的关注焦点。作为一名大学研究员,后来又成为谷歌的科学家,他在开发许多关键人工智能进展方面发挥了重要作用。他在OpenAI早期的参与帮助吸引了至关重要的顶尖人才,这对其成功至关重要。Sutskever因成为构建规模不断扩大的模型的主要倡导者而闻名——这一策略帮助这家初创公司超越了谷歌,并对ChatGPT的崛起至关重要。
在去年OpenAI发生的事件后,人们对Sutskever计划的迷恋只增加了。他仍然拒绝透露太多细节。在被问及与Altman的关系时,Sutskever只表示“很好”,他说Altman大致了解新创业的情况。谈到过去几个月的经历,他补充说:“非常奇怪。非常奇怪。我不知道我是否能给出比这更好的答案。”
“安全超智能”在某种程度上是对原始OpenAI概念的回归:一个试图构建人工通用智能的研究组织,该智能可以在许多任务上与甚至超越人类。但随着需要为计算能力筹集大量资金的必要性变得明显,OpenAI的结构也发生了变化。这导致公司与微软公司的紧密合作,并促成了其推动产生收入的产品。所有主要的人工智能参与者都面临着同样的困境,需要支付不断扩大的计算需求,因为人工智能模型的规模以指数速度增长。
这些经济现实使得Safe Superintelligence对投资者来说是一场赌博,他们将押注Sutskever及其团队能否取得突破,从而在拥有更大团队和显著先发优势的竞争对手之上获得优势。这些投资者将在没有希望在途中创造盈利产品的情况下投入资金。而Safe Superintelligence希望实现的目标甚至是否可能实现,目前尚不清楚。通过“超级智能”,该公司使用人工智能行业术语指的是一个系统,将远远超越大多数最大科技公司正在追求的人类水平人工智能。行业内对于是否可以实现这样的智能或者公司应该如何构建这样的智能并没有共识。
尽管如此,鉴于其创始团队的背景和该领域的强烈兴趣,Safe Superintelligence筹集资金可能不会遇到太多困难。Gross表示:“在我们面临的所有问题中,筹集资金不会是其中之一。”
研究人员和知识分子几十年来一直在考虑使人工智能系统更加安全,但围绕这些问题的深度工程一直很少。目前的技术水平是同时利用人类和人工智能来引导软件朝着符合人类最佳利益的方向发展。如何阻止人工智能系统失控仍然是一个主要的哲学问题。
Sutskever表示,他已经花了多年时间思考安全问题,并且已经有了一些想法。但Safe Superintelligence目前还没有讨论具体细节。“在最基本的层面上,安全的超级智能应该具有这样的特性,即它不会对人类造成大规模伤害,”Sutskever说。“在这之后,我们希望它能成为一种善的力量。我们希望它能基于一些关键价值观运行。我们正在考虑的一些价值可能是过去几百年来在自由民主制度中取得成功的价值观,比如自由、民主、自由。”
Sutskever表示,主导人工智能的大型语言模型将在安全超级智能中发挥重要作用,但他的目标是追求更强大的东西。他表示,使用当前的系统,“你与它交谈,进行一次对话,然后就结束了。” 他想要追求的系统将更具通用性和扩展性。“你在谈论一个巨大的超级数据中心,它正在自主地开发技术。这太疯狂了,对吧?我们想要为此做出贡献的是安全性。”
埃隆·马斯克计划将X扩展为“一切应用”的一个重要支柱是在其主要社交网络服务上植入支付网络。这个项目的细节仍然模糊不清,但该公司提交给州监管机构的数十份文件(此前未公开)提供了一个新的业务视角。这些计划包括一个类似Venmo的支付功能,让用户可以在X账户上存钱,向其他用户或企业付款,甚至在实体店购买商品和服务。
马斯克经常表示,X需要除广告之外的收入,广告历来占销售额的90%以上。他还表示,X 可能成为 世界上最大的金融机构。文件显示,X并不打算对其支付服务收取重大费用,而且该公司告诉监管机构,它认为提供支付服务是通过“增加用户参与度和互动”来推动其业务的一种方式。