山姆·奥尔特曼退出OpenAI:人工智能安全吗?- 彭博社
Tyler Cowen
对人工智能的担忧导致了OpenAI联合创始人的下台。
摄影师:Andrew Caballero-Reynolds/AFP/Getty Images
在人工智能领域,技术界最常争论的问题之一是安全性——这一问题甚至导致了OpenAI联合创始人Sam Altman的下台,据彭博社报道。
这些担忧归结为一个难以想象的问题:人工智能会不会毁灭我们?让我来安抚你:人工智能并不比其他人类面临的存在风险更危险,从超级火山到流浪的小行星再到核战争,人类面临着许多存在风险。
如果你觉得这并不令人 gerp,我很抱歉。但这比像人工智能研究员Eliezer Yudkowsky这样的人更为乐观,他认为人类已经走向了最后的时刻。在他看来,人工智能会比我们更聪明,不会与我们分享目标,很快我们人类就会像尼安德特人一样灭绝。其他人呼吁暂停六个月人工智能的进展,这样我们人类就能更好地掌握局势。
人工智能只是人类历史上面临的许多技术挑战的最新体现。印刷术和电力也涉及利弊,但要按下“停止”甚至“减速”按钮都是错误的。
AI担忧者喜欢从这个问题开始:“AI对人类构成真正的灭绝风险的‘p’ [概率]是多少?”由于“零”显然不是正确答案,讨论继续进行:鉴于存在非零的总灭绝风险,我们难道不应该真正谨慎吗?然后,你可以权衡AI带来的潜在风险与即将到来的生产力改进,就像斯坦福大学的一位经济学家在最近的一项研究中所做的那样。你最终还是会感到相当恐惧。
一个可能的反驳是我们可以成功地使AI系统的内部运作与人类利益保持一致。我对这一点持乐观态度,但我对AI悲观主义者如何提出问题有更根本的反对意见。
首先,我认为AI更有可能降低而不是提高总体灭绝风险。人类面临着许多灭绝风险。我们需要更好的科学来限制这些风险,而强大的AI能力是改进科学的一种方式。没有AI的情况下,我们的默认路径并不令人安心。
上述引用的风险可能不会杀死每一个人,但它们可能给我们所知的文明以决定性的打击。中国或其他一些敌对势力在美国之前获得超强大的AI也是另一个风险,虽然不是灭绝性的,但值得避免,特别是对美国人来说。
AI确实可能帮助恐怖分子制造生物武器,但由于互联网,这已经是一个主要的担忧。AI可能帮助我们开发对抗这些病原体的防御和治疗方法。我们没有科学的方法来衡量AI是否会增加或减少总体风险,但我会选择一个拥有更多智慧和科学而不是更少的世界。
另一个问题是我们是否应该以概率的方式或者边际思考来面对问题。人工智能的末日预言者倾向于用这种方式提出问题:“末日的概率是多少?”更好的方式可能是这样的:“我们不会阻止人工智能的发展,那么我们应该做什么?” 显而易见的答案是努力让人工智能变得更好、更安全,并且更有可能降低风险。
在抽象的情况下很难估计人工智能或者其他任何潜在风险。通过考虑具体的现实世界背景下的问题,我们可以取得更多进展。
需要注意的是,悲观的论点并没有得到大量经过同行评议的研究支持 —— 不像气候变化的论点那样。因此,我们被要求基于极少的经过确认的研究来阻止一项重大技术的发展。在另一个背景下,这可能被称为伪科学。
此外,末日的风险并没有反映在市场价格中。风险溢价目前并不特别高,大多数经济变量似乎表现良好,处于正常范围内。如果你认为人工智能会毁灭世界,很可能会有一段中间时期,你可以通过做多波动率和做空市场来获利。至少,你可以在最后的大幕降下之前捐出钱财,减轻人类的苦难。然而,这并不是许多经验丰富的交易者愿意去做的赌注。
当我问人工智能悲观主义者是否根据他们的信念调整了投资组合,他们几乎总是说他们没有。归根结底,他们太明智了,无法对每一个生活决策进行概率化和全新的思考。最好的人正在努力让人工智能更安全 —— 这是一个我们应该继续鼓励的项目。
在彭博观点的其他地方:
- 人工智能末日论者得到了太多资金:Parmy Olson
- CEO必须继续前行,即使人工智能的焦虑笼罩着:Adrian Wooldridge
- 担心流氓聊天机器人?雇佣一名黑客:Dave Lee
想要更多彭博观点吗? 订阅 我们的新闻简报 。