人工智能教父担心监管机构没有足够时间采取行动 - 彭博社
Shirin Ghaffary
美国国会大厦。
摄影师:Stefani Reynolds/Bloomberg人工智能领域最有影响力的学者之一担心我们可能没有足够的时间来监管这项技术。但首先……
三件事需要知道:
• OpenAI将允许公司定制其最强大的人工智能模型• Condé Nast与OpenAI达成多年合作伙伴关系的新人工智能协议• 百度的销售停滞,因为它在努力从人工智能中获利
行动呼吁
曾几何时,Yoshua Bengio对人工智能安全并不太担心。Bengio被认为是“人工智能教父”之一,他长期认为我们距离开发能够与人类相媲美的人工智能“还有几十年”。他假设我们可以在面对风险之前“享受人工智能的好处”很多年。
但他现在不再那么确定。他对人工智能发展速度的假设——以及这项技术可能带来的社会威胁——在OpenAI于2022年底发布ChatGPT后被颠覆。“在我们最终拥有能够与我们对话的机器后,我完全改变了主意,”Bengio说,他在深度学习领域的开创性研究——一种模仿人脑运作方式的人工智能方法——为今天的人工智能模型奠定了基础。
在那次警醒之后,Bengio开始投入更多精力倡导人工智能监管。与另一位学者和人工智能先驱Geoff Hinton一起,Bengio最近支持加利福尼亚州一项有争议的法案,该法案将使公司对其人工智能模型造成的灾难性损害负责,如果他们不采取安全预防措施。鉴于加利福尼亚在科技生态系统中的核心地位,以及美国缺乏任何联邦立法,这项法案可能为其他地方如何监管人工智能设定标准。Bengio认为这是“桌面上第二重要的提案”,仅次于欧盟人工智能法案。这项名为SB 1047的加利福尼亚法案避免过于具体,而是利用责任确保人工智能公司不忽视“合理专家会采取的”安全预防措施,”他说。“这将为公司创造一个不成为班上最差学生的激励。”
约书亚·本吉奥摄影师:格雷厄姆·休斯/彭博社许多科技公司、风险投资家和人工智能学者意见不一。周三,OpenAI 表示该立法将损害人工智能创新,并可能对美国在人工智能和国家安全方面的竞争力产生“广泛而重大的”影响。
本吉奥表示,他认为关于人工智能监管的讨论可能受到希望从技术中获利的风险投资家和公司的影响。“你可以将其与气候变化、化石燃料公司等进行类比,”他说。
本吉奥渴望看到人工智能法规的进展。“政策需要很长时间,”本吉奥说,他现在担心可能没有太多时间来“做好这件事”。
在我们的采访中,我们还讨论了本吉奥对我们是否需要更多人工智能突破以实现人类水平智能的看法,以及他认为迄今为止最鼓舞人心和令人担忧的人工智能应用。这次采访经过轻微编辑,以便于长度和清晰度。
彭博社:在过去几年中,人工智能进展中最让你感到惊讶的是什么?
**本吉奥:**我们现在有掌握语言的机器。这是没有预料到的如此迅速。没有人,我想,真的预见到这一点,甚至是那些构建这些系统的人。你可以看到,人们认为我们可能距离人类水平智能还有几年到几十年或更长时间。普遍认为,一旦我们达到人类水平智能,预测可能发生的事情就变得非常棘手——我们是否会得到非常好的结果或非常糟糕的结果,以及我们如何应对这一点。存在很多不确定性。这正是推动我目前在科学和政策方面工作的原因。
你认为围绕人工智能风险的紧迫性随着时间的推移是否增加了?
哦,是的。在ChatGPT之前,在2022年底之前,我认为这至少还需要几十年,我们可以在很长一段时间内享受人工智能的好处,而不必处理风险。在我们最终拥有能够与我们对话的机器后,我完全改变了主意。这就是为什么我在政策讨论中更加积极参与。政策需要很多时间。需要多年的分歧,然后需要多年才能使任何此类立法生效。你需要建立一些流程,然后还需要更多的时间才能真正做好它的工作。不幸的是,我们可能没有十年的时间来解决这个问题。可能会更短。因此,我们需要开始。更糟的是:这不仅仅是监管;这还是国际条约。我们需要在全球范围内解决这个问题。
你个人对风险水平的看法是什么?
我认为自己对风险持中立态度。我听到很好的论据,认为比我们更聪明的人工智能可能非常危险。即使在它们比我们更聪明之前,它们也可能被人们以对民主极其危险的方式使用,更不用说人权了。任何说他们知道的人都是过于自信,因为实际上,科学没有答案。没有办法以可验证的方式回答。我们可以看到一方或另一方的论据,它们都是合理的。但是如果你持中立态度并考虑政策,你需要保护公众免受真正糟糕事情的发生。这就是政府在许多其他领域所做的。没有理由他们不能在计算和人工智能领域做到这一点。
在硅谷,我必须说,支持加州法案的人受到了很多批评,因为人们说这太强硬了。
这不是真的。恰恰相反。它并没有那么强硬。它并没有施加太多限制。它只是说:如果你造成了数十亿的损失,你将承担责任。整个计算领域在几十年里一直与任何形式的监管相对隔离。
我认为[反对派]更多的是意识形态上的原因。我真的很担心游说团体的力量和数万亿的利润,甚至 数十万亿,根据斯图尔特·拉塞尔的说法,预计来自人工智能的利润正在激励公司抵制任何监管。
从监管中退一步:你认为我们需要一些重大突破才能达到人类水平的智能,还是认为这些人工智能模型已经在朝着这个方向发展?
我会说我持中立态度,但让我深入一点。如果我必须做出一个选择,我会说是的,我们需要在训练系统的方式上进行一些改变。但我也必须保持谦逊,因为我没有预料到我们会如此迅速地掌握语言。所以也许会有人提出一个意想不到的简单技巧,基于现有的训练方式,能够解锁推理,至少达到足够人类的水平。
目前顶尖人工智能公司和实验室之间的竞争非常激烈,争夺下一个层次。你如何平衡在这一领域快速创新的愿望与对监管和控制的需求?
我认为对快速创新的渴望,尤其是在危险的事情上,是不明智的。在生物学中,当研究人员发现通过所谓的功能增强研究可以创造出危险的病毒时,他们共同决定:“好吧,我们不这样做。让我们要求政府制定规则,以便如果你在不受控制的条件下这样做,就可能入狱。”我们在人工智能中也应该采取同样的预防原则行为。
到目前为止,你看到的最负面的人工智能应用是什么?
我相信你知道合成儿童色情内容。这是可怕的。也许情感上挑战较小,但甚至更重要的是,可能会扭曲民主过程的深度伪造技术。这些深度伪造技术只会越来越好。声音会变得更好。视频会变得更好。
还有一件人们讨论得不够的事情:当前甚至未来系统说服人们改变主意的能力。几个月前,瑞士有一项非常 最新研究比较了GPT-4与人类在说服那些显然不知道自己是在与人类还是机器交谈的人改变主意的能力。猜猜谁赢了。
有没有一些人工智能应用的例子让你感到希望?
在生物学方面,比如理解我们身体如何运作,我们每个细胞如何运作,这可能会彻底改变医学和药物发现等领域。在气候方面,它可以帮助我们开发更好的电池、更好的碳捕集技术、更好的能源存储。所有这些都可能是游戏规则的改变者。虽然这还没有发生,但我认为这些是我们可以在人工智能上做出的好赌注。顺便说一下,这些类型的应用——大多数情况下并不危险。我们应该在这些显然能帮助社会应对挑战的事情上投入更多。
对人工智能有问题吗? 给我发邮件,Shirin Ghaffary,我会在未来的新闻通讯中尝试回答你的问题。
本周人类名言
**“新闻业的未来不应在幕后交易中决定。”**来自西部媒体工会、新闻工会-CWA及其他工会的领导人
这是对谷歌与加利福尼亚州达成的一项协议的回应,该协议将在五年内拨款2.5亿美元,主要用于资助新闻机构并启动一个AI“加速器”以支持记者的工作。媒体行业的工会领导人抨击该协议为“灾难性的。”工会曾倡导加利福尼亚新闻保护法案,该法案将迫使包括谷歌和Meta在内的科技公司向新闻公司支付费用,以在线分发其内容。如果该法案通过,谷歌威胁要从其平台上撤回加利福尼亚的新闻内容。立法者现在已同意搁置该提案。这一辩论引发了关于媒体出版物应如何获得补偿的更大问题,这些文章不仅在搜索和社交媒体平台上使用,还在谷歌的Gemini和OpenAI的ChatGPT等工具中使用。### 值得关注
由Sam Altman共同创办的Worldcoin初创公司决心逐一验证地球上的每一个人。联合创始人Alex Blania将在“彭博科技”节目中与Ed Ludlow和Caroline Hyde一起出席。### 深度学习
- 这家小型初创公司正在帮助埃隆·马斯克的Grok进行图像生成
- 在人工智能竞赛中领先的科技巨头们找到了一种方法来掩盖他们日益增长的电力使用对气候的影响
- 谷歌DeepMind的员工据报道正在推动公司放弃军事合同
- 尽管科技公司提出了建议,政治活动对使用人工智能工具持谨慎态度
更多来自彭博社
获取每日科技和更多彭博科技周刊到您的邮箱:
- 网络简报,涵盖黑客和网络间谍活动的阴影世界
- 游戏进行中,报道视频游戏行业
- 电力开启,获取苹果新闻、消费科技新闻等
- 屏幕时间,前排观看好莱坞与硅谷的碰撞
- 声音片段,报道播客、音乐产业和音频趋势