伊利亚·苏茨克维尔表示,具有推理能力的人工智能将变得不那么可预测 | 路透社
Jeffrey Dastin
伊利亚·苏茨克维尔,OpenAI的联合创始人和首席科学家,在以色列特拉维夫大学的演讲中发言,时间是2023年6月5日。路透社/阿米尔·科恩/档案照片温哥华,12月13日(路透社) - 前OpenAI首席科学家伊利亚·苏茨克维尔,人工智能领域的知名人物之一,周五发表了一个预测:推理能力将使技术变得更加不可预测。
在接受“时间考验”奖时,他的2014年论文与谷歌的(GOOGL.O)奥里奥尔·维尼亚尔斯和阮国,苏茨克维尔表示,人工智能的前景将发生重大变化。他说,他的团队十年前探索的一个想法,即通过“预训练”AI系统来扩大数据规模,将使其达到新的高度,正开始达到极限。更多的数据和计算能力导致了OpenAI在2022年推出的ChatGPT,受到了全球的赞誉。
“但我们所知的预训练无疑将结束,”苏茨克维尔在温哥华的NeurIPS会议上对数千名与会者宣称。“虽然计算能力在增长,”他说,“数据并没有增长,因为我们只有一个互联网。”
苏茨克维尔提供了一些方法来推动这一困境的前沿。他说,技术本身可以生成新的数据,或者AI模型可以评估多个答案 然后为用户选择最佳响应,以提高准确性。其他科学家已将目光投向现实世界的数据。但他的演讲以对未来超级智能机器的预测结束,他表示“显然”在等待着这一点,某些人对此表示不同意见。今年,Sutskever共同创办了 安全超级智能公司,这是在他在Sam Altman短暂被迫离开OpenAI后的结果,他在几天内表示对此感到遗憾。他说,长期以来一直在开发的AI代理将在未来时代实现,具有更深的理解和自我意识。他表示,AI将像人类一样推理解决问题。
但有一个问题。
他说:“它推理得越多,就变得越不可预测。”
通过数百万个选项进行推理可能使任何结果变得不明显。举个例子,Alphabet的DeepMind构建的系统AlphaGo以其难以理解的第37步令复杂棋类游戏的专家感到惊讶,最终在2016年的一场比赛中击败了李世石。
Sutskever同样表示:“国际象棋AI,真正优秀的那些,对最好的国际象棋选手来说是不可预测的。”
他说,我们所知道的AI将是“截然不同的”。
路透社日报简报提供您开始一天所需的所有新闻。请在 这里注册。
报道由杰弗里·达斯廷和安娜·汤在温哥华撰写;编辑:萨姆·霍尔姆斯
- 建议主题:
- 人工智能