伊利亚·苏茨凯弗谈人工智能将如何改变以及他的新的初创公司安全超智能 | 路透社
Reuters
人工智能(AI)字母和机器人手放置在计算机主板上的插图,拍摄于2023年6月23日。路透社/Dado Ruvic/插图/档案照片旧金山/纽约,9月5日(路透社)- OpenAI前首席科学家伊利亚·苏茨克维尔(Ilya Sutskever)推出了一家名为安全超智能(Safe Superintelligence,SSI)的新公司,旨在开发远超人类能力的安全人工智能系统。
他和他的联合创始人在本周与路透社的独家采访中概述了他们的创业计划。37岁的苏茨克维尔是人工智能领域最有影响力的技术专家之一,曾在“人工智能教父”杰弗里·辛顿(Geoffrey Hinton)手下学习。苏茨克维尔是规模化的早期倡导者——这一理念认为,人工智能的性能随着计算能力的大幅提升而改善——为像ChatGPT这样的生成性人工智能的进步奠定了基础。他表示,SSI将以不同于OpenAI的方式进行规模化。
以下是采访的要点。
创办SSI的理由
“我们发现了一座与我之前工作的山略有不同的山……一旦你攀登到这座山的顶峰,范式将会改变……我们对人工智能的所有认知将再次改变。在那时,最重要的超智能安全工作将会进行。”
“我们的第一个产品将是安全超智能。”
你会在超智能之前发布与人类同样聪明的人工智能吗?
“我认为问题是:这安全吗?它在世界上是一个积极的力量吗?我认为当我们达到这个点时,世界将会发生很大的变化,因此给你提供我们将要做的明确计划是相当困难的。
我可以告诉你,世界将会是一个非常不同的地方。每个人对人工智能发生的事情的看法将会有很大的不同,这些变化是难以理解的。这将是一个更加激烈的对话。这可能不仅仅取决于我们的决定。”
SSI将如何决定什么构成安全的人工智能?
“你问题的一个重要部分将需要我们进行一些重要的研究。尤其是如果你像我们一样认为,事情会有很大的变化……有许多重要的想法正在被发现。
许多人在思考,随着人工智能变得更强大,应该采取什么步骤和测试?这变得有点棘手。还有很多研究要做。我不想说现在就有明确的答案。但这是我们将要弄清楚的事情之一。”
关于扩展假设和人工智能安全
“每个人都在说‘扩展假设’。每个人都忽略了问,我们在扩展什么?过去十年的深度学习的伟大突破是扩展假设的一个特定公式。但它会改变……随着它的变化,系统的能力将会增加。安全问题将变得最为紧迫,这正是我们需要解决的。”
关于开放源代码SSI的研究
“在这一点上,所有人工智能公司都没有开放他们的主要工作。我们也是如此。但我希望,根据某些因素,将会有许多机会开放相关的超级智能安全工作。也许不是全部,但肯定会有一些。”
关于其他人工智能公司的安全研究努力
“我对这个行业实际上有很高的评价。我认为,随着人们不断取得进展,所有不同的公司都会意识到——也许在稍微不同的时间——他们面临的挑战的本质。因此,与其说我们认为没有其他人能做到,不如说我们认为我们可以做出贡献。
通过《竞选之路》新闻通讯获取关于美国选举的每周新闻和分析,以及它对世界的重要性。注册 这里。