山姆·奥特曼谈人工智能的未来——以及如何应对前进道路上的棘手问题 - 《华尔街日报》
wsj
在人工智能快速发展的世界中,关于未来的讨论往往聚焦于所谓的“通用人工智能”(AGI)——即AI能够胜任人类任何工作且表现更优的阶段。
或许没有哪家公司比OpenAI(微软持股49%)更适合探讨这种AGI的潜在收益与风险,这家公司正是热门聊天机器人ChatGPT的创造者。上周在《华尔街日报》年度Tech Live科技大会上,该报资深个人科技专栏作家Joanna Stern与OpenAI首席执行官山姆·奥尔特曼及首席技术官米拉·穆拉蒂展开对话。以下是经过编辑的访谈节选。
**《华尔街日报》:**为何将AGI作为目标?
**山姆·奥尔特曼:**未来十到几十年间,改善人类生存状态最关键的要素有两个:一是充沛且廉价的智能——越强大、越通用、越智能越好。我认为这就是AGI。二是充足而廉价的能源。若能实现这两点,几乎难以想象我们还能成就多少其他事情。我们深信,当人们获得更好的工具时,他们将创造出令你惊叹的成果。而AGI将成为人类有史以来打造的最佳工具。
借助它,我们将能解决各类难题,以新颖的创造性方式表达自我,为彼此、为自己、为世界、为这部正在展开的人类史诗创造出难以置信的成就。当然,新生事物总会伴随变革,而变革并非总是轻而易举。
**华尔街日报:**它何时会到来?我们又如何判断它已经到来?
**米拉·穆拉蒂:**很可能在未来十年内,但这有点复杂。我们经常讨论智能,这个东西有多智能,或者它是否有意识、有感知等等——这些术语都不太准确。因为它们某种程度上定义的是我们自己的智能,而我们正在构建的是略有不同的东西。
**华尔街日报:**有些人对于你们用来训练某些模型的数据并不满意,比如好莱坞和出版商。在开发下一代模型时,你们围绕数据进行了哪些讨论?
**阿尔特曼:**首先,我们显然只想使用人们乐意让我们使用的数据。
但挑战之一在于,不同类型的数据所有者有着截然不同的诉求。所以我们正在试验多种方案,尝试各种形式的合作。我们认为就像任何新领域一样,最终会形成某种新标准。
另外,随着模型变得更智能、更强大,我们需要的训练数据量会减少。由于技术进步,关于数据及其形态的讨论即将发生转变。
**华尔街日报:**像我们这样的出版商希望数据能变现。这场竞赛的未来是否取决于谁能出最高价购买最优数据?
**阿尔特曼:**不是的。这正是我想表达的观点。人们真正喜欢GPT模型的原因,本质上不在于它掌握特定知识(有更好的方式获取知识),而在于它具备这种初级的推理能力——这种能力会越来越强。这才是关键所在。
人工智能关系
**华尔街日报:**未来我们是否可能与这类机器人建立深厚关系?
**穆拉蒂:**这将成为一种重要关系。因为我们正在构建的系统将无处不在:在你的家中、教育环境、工作场所,甚至娱乐时。
正因如此,正确构建它至关重要。我们必须极其谨慎地设计这种互动方式,最终使其具有提升性、趣味性,能提高生产力并激发创造力。
在产品层面,我们还要确保人类能掌控这些系统——能引导它们执行我们期望的任务,并确保输出可靠。随着系统更了解你的偏好、喜好和行为模式,加之模型能力提升,它将变得更加个性化。
这并非单一系统。你可以拥有多个针对特定领域和任务定制的个性化系统。
**华尔街日报:**但这是重大责任。你们某种程度上将掌控人们的"朋友",甚至可能发展为"恋人"。如何看待这种控制权?
**阿尔特曼:**我们不会是唯一参与者。未来会有多方力量介入。虽然我们能对技术发展轨迹施加影响,但:a) 我们坚信决策权属于全人类和社会;b) 我们只是众多构建复杂系统的参与者之一。届时将出现提供不同功能的竞争产品,社会会有接纳与抵制,监管措施也将出台。
我个人对未来这一愿景深感忧虑——人人将与AI朋友亲密无间,甚至超越人类朋友。我本人并不希望如此。但我理解他人会有此需求,也必然有人去实现它。如果这是世界的选择,是我们共同认可的方向,那么这一未来终将到来。
关于"恐惧"的议题
**华尔街日报:**当前我们只有简单聊天机器人。为何会演变成如今这种对AI无处不在的恐惧?
**阿尔特曼:**无需太多想象力就能构想出需要极度谨慎的情景。重申一次,我们投身于此是因为对巨大潜力与积极影响充满热忱。若不为人类追求这些可能性,将是道德上的失职。但我们必须应对——正如其他技术发展过程中那样——随之而来的负面影响。
这意味着要审慎考量风险,评估技术能力边界,并以降低风险的方式构建自身技术体系。当研发出新的安全技术时,应当将其开放共享。
**华尔街日报:**能举例说明吗?
**穆拉蒂:**不存在单一解决方案。通常需要全链条干预——从数据采集、模型训练到产品工具开发,当然还包括政策制定。同时要构建与之匹配的监管体系和社会基础设施,以跟上我们正在创造的技术发展步伐。
因此,当考虑具体的安全措施时,首要任务实际上是逐步推广技术并缓慢接触现实;理解它如何影响特定用例和行业;并实际处理其带来的影响。无论是监管、版权,还是其他任何影响,都要实际吸收、应对,并逐步提升能力。我认为在实验室里、在真空中——不接触现实世界,也不面对现实中的摩擦——构建技术,并不是安全部署的好方法。
**阿尔特曼:**米拉提出的观点非常重要。在实验室里让技术“安全”是非常困难的。社会以不同的方式使用事物,并以不同的方式适应。我认为,我们部署的人工智能越多,人工智能在世界上使用得越多,人工智能就越安全,我们也就越能共同决定:“嘿,这是不可接受的风险容忍度,而人们担心的另一件事,那完全没问题。”
检测工具
**华尔街日报:**目前至少从OpenAI来看,还没有一种工具可以让我输入一张图片或一些文本,然后询问“这是AI生成的吗?”,对吗?
**穆拉蒂:**对于图像,我们拥有几乎99%可靠的技术。但我们仍在测试中,目前还处于早期阶段。
**华尔街日报:**你们计划发布这个工具吗?
**穆拉蒂:**是的。
**华尔街日报:**包括图像和文本吗?
**穆拉蒂:**对于文本内容,我们正在探索合理的处理方式。而图像问题则相对明确——我们通常会进行实验性发布,收集反馈后撤回改进,再重新推出。
**阿尔特曼:**关于内容"数字水印"的争议很大,好坏标准因人而异。许多用户强烈反对生成内容被标记水印。况且这种技术并非万能——可能适用于图像和长文本,但对短文本效果有限。
正因如此,我们希望通过对话达成共识。在这个问题上,我们愿意遵从社会集体意愿。这绝非非黑即白的简单议题。
工作形态的变革
**观众提问:**我们将彻底改变工作本质。但社会大多数群体甚至未能参与讨论。如何建立包容性框架,主动构建不让任何人掉队的更美好世界?
**穆拉蒂:**我完全认同您的观点。这项技术既可能加剧不平等,对人类文明造成灾难;也可能释放惊人创造力,提升生产力实现自我超越。或许很多人不愿每周工作8小时甚至100小时,而希望每天工作4小时去体验多元人生。
这无疑将导致劳动力市场的巨大动荡。
**阿尔特曼:**这是个极其重要的问题。每次技术革命都会影响就业市场。对此我毫不担心。事实上,我认为这是好事,是进步的方式。我们会找到更新更好的工作。
我认为社会真正需要应对的,是变革发生的速度。我们必须为这种转型采取切实行动。仅靠全民基本收入远远不够。人们需要掌握主动权,拥有影响变革的能力,我们需要共同成为未来的设计者。
如你所说,并非所有人都参与了这些讨论,但每年都有更多人加入。通过将ChatGPT交到数十亿用户手中,人们不仅能思考即将到来的变化并参与讨论,更能直接使用工具推动未来。这对我们至关重要。
联系邮箱 [email protected]
本文发表于2023年10月24日印刷版,原标题为《OpenAI首席执行官与技术总监谈AI未来前景及如何应对前行荆棘之路》。