AI制造的生物武器威胁引起美国政府官员的关注 - 彭博社
David Gura, Thomas Lu
摄影师:Reptile8488/E+/Getty Images别错过任何一集。立即关注 The Big Take 每日播客。
## Big Take
AI制生物武器的威胁
13:38
2023年4月,一名携带一个小黑盒子的男子走进了国家最安全的建筑之一,就在白宫旁边。盒子里装着可以用来制造生物武器的成分。这名男子透露的关于他如何获取这些成分的信息更加可怕:一个AI聊天机器人给了他配方。
在今天的Big Take节目中,主持人大卫·古拉与彭博健康记者莱利·格里芬讨论了为什么这一把戏惊动了白宫官员,并唤醒了他们对AI制生物武器潜在危险的认识。
阅读更多: AI制生物武器成为华盛顿最新的安全焦虑
进一步收听:
收听并关注The Big Take,可在 Apple Podcasts、Spotify 或您获取播客的任何地方
终端客户端:在桌面上运行{NSUB BIGTAKEPOD <GO>}进行订阅
以下是对话的轻微编辑转录:
**大卫·古拉:**彭博记者莱利·格里芬有一个非常独特的报道领域。
**莱利·格里芬:**我是一名医疗保健记者,我驻扎在华盛顿特区,我特别关注健康和国家安全的交汇处。
**古拉:**自新冠疫情爆发以来,在健康和国家安全交汇处,故事不断。
**格里芬:**我们都对那一刻感到非常谦卑,我认为,在那之前,我一直关注制药公司的管道,以及它们如何确保盈利和繁荣的业务。我没有想到医疗保健会威胁我们的经济或威胁我们日常行为的能力。
**古拉:**对可能构成威胁的可能性有了新的警觉后,莱利在得到线报时感到好奇。
**格里芬:**我是从见证了那位带着一个黑匣子进入的家伙的简报的政府官员那里听说的
**古拉:**一个黑匣子。而那个简报不是在任何地方举行的。
**格里芬:**他带着那个黑匣子进入艾森豪威尔行政办公大楼,EEOB。嗯,那栋建筑就在西翼旁边,实际上。那里有很多白宫工作人员。
**古拉:**莱利说她与参加那次会议的几个人交谈过,他们告诉她,在那个小塑料容器里……
格里芬:……里面装着合成DNA的试管。
**古拉:**合成DNA中包含了可以用来制造致命疾病的成分。
这已经够可怕了。但莱利的消息来源告诉她,真正让他们吃惊的是当他们发现那个人——一名前联合国武器检查员——是如何找出应该放入那些试管中的物质的。
这是通过一个AI聊天机器人的帮助。
**格里芬:**他的团队基本上在假装成生物恐怖分子。如果一个生物恐怖分子想要更好的指导如何制造生物武器或者在实验室中实际制造它的过程中需要帮助,它会问什么?它需要知道什么?
**古拉:**他们输入问题,然后得到答案。
但这不仅仅是配方——如何处理那些合成DNA。
莱利说那些政府官员听说了那个聊天机器人推荐在哪里放置病原体,以及如何部署它们以造成最大的伤害。
这引发了一个令人震惊的问题:
**格里芬:**如果一个坏人能够获得合成DNA和将其在实验室中组装的指导,那会意味着什么?
**古拉:**我是大卫·古拉,这里是彭博新闻的“重要观点”。
今天节目内容:有关可以用来制造生物武器的信息是如何绕过AI的保障措施的,以及这告诉我们有关监管这项仍然相当新颖的技术所面临的挑战。
**古拉:**当然,关于如何制造各种致命武器的信息早就存在了。
有助于武器化疾病的信息被埋在书中,Riley Griffin说,如果你知道在哪里找,它们也在网上。
**格里芬:**互联网上有很多关于病毒、病原体、呼吸道疾病、真菌疾病的信息,对吧?事实上,谷歌上有很多关于生物领域危险的信息。
**古拉:**我问Riley现在有什么不同。一个坏演员——生物恐怖分子——能用AI聊天机器人做什么,而不能用标准搜索引擎做什么?
**格里芬:**在采访过程中,有一件事让我印象深刻,就是听一些研究人员解释聊天机器人在头脑风暴阶段的表现有多好,提出了一些起初并未被探讨的想法。
**古拉:**AI公司知道他们的变革性技术有很多潜在危险,他们也意识到它可能造成的危害。不仅仅是对他们的商业模式。
因此,许多公司已经试图提前解决这些问题,Anthropic就是其中之一。
它是由曾在OpenAI工作过的人创立的。
**格里芬:**Anthropic的创建确实是出于对安全的考量。他们希望在这些技术达到公众之前进行检查和平衡,以较慢的速度商业化。
**古拉:**是Anthropic雇佣了那位前联合国武器检查员,他将那个黑匣子带到了华盛顿的中心。
他的名字叫Rocco Casagrande。Anthropic雇佣他来测试其AI聊天机器人克劳德。
**格里芬:**所以这个故事的起源就是这样。他和一个团队一起测试了超过150个小时。他有病毒学家,微生物学家,真正地检查了它能做什么,不能做什么。所以他们经历了这个过程,发现了令Casagrande感到恐惧的事情。
**古拉:**他担心的是,获取制造生物武器的相当准确的指导和如何最大程度地造成伤害是多么简单。
但莱利说,还有另一件事让Casagrande更加担忧。
**格里芬:**与我分享的另一个引人注目的信息是,聊天机器人可以建议如何获取材料,去哪里购买它们,以及如何在这样做时避开监视。一些销售这种合成DNA,这种人造DNA的公司,想要了解他们的客户。他们想知道谁在购买这个。这是CDC的研究人员吗?是研究埃博拉的学者吗?如果不是,你知道,就会引起警觉。
**古拉:**但莱利说,并非所有销售人造DNA的公司都有严格的规程或遵循规程。
**格里芬:**就像所有公司一样,对这个事业的承诺程度各不相同,聊天机器人可以推荐哪里可能更擅长避开这种监视。
**古拉:**这激励了卡萨格兰德组装那个黑匣子,并将其携带进入世界上最安全的办公大楼之一。
他称之为“噱头”,但他想表达一个观点。莱利说,这引起了卡萨格兰德会面的人们的共鸣:
**格里芬:**他用那个黑匣子真正打动了华盛顿的想象力
**古拉:**广告后:
政府官员如何回应罗科·卡萨格兰德的黑匣子警告,以及这对从人工智能安全到我们治疗和治愈疾病的一切可能意味着什么。
**古拉:**在罗科·卡萨格兰德简报仅仅几个月后,去年十月,乔·拜登总统呼吁加强对政府资助研究的监督,并为技术公司和人工智能开发者制定新的安全协议。
**乔·拜登总统:**为了实现人工智能的承诺并避免风险,我们需要管理这项技术,我认为别无选择。它必须受到管理。
**古拉:**他提出了一种新的思考人工智能公司所面临的威胁的方式。
**拜登:**我即将签署一项行政命令。这是全球任何政府采取的关于人工智能安全、安全性和信任的最重要行动。
**古拉:**此后,彭博的莱利·格里芬说,华盛顿关于人工智能监管的辩论变得更加激烈和紧迫。
**格里芬:**自十月以来,关于监管的严肃讨论真正开始了,或者可以采取哪些措施而不是硬性规定,只是为了限制风险。所以这是首要问题。每个机构都在考虑这个问题。国土安全部、商务部、国防部。我是说,这是一场全面的政府对话。
**古拉:**去年底,副总统卡玛拉·哈里斯宣布成立“美国人工智能安全研究所”。
在她的讲话中,哈里斯特别提到了人工智能制造的生物武器是一种威胁。
**副总统卡玛拉·哈里斯:**从人工智能启动的规模超出我们以往所见的网络攻击,到可能危及数百万人生命的人工智能制定的生物武器,这些威胁通常被称为“人工智能的存在威胁”,因为它们可能危及人类的存在。毫无疑问,这些威胁是深远的,需要全球行动。
**古拉:**但与此同时,政府制定了新的防范措施,一些研究人员却表示,“不要那么快。”
**格里芬:**没有人希望停止,或者至少很多人,包括科学界的人,不希望停止人工智能为新治疗方法、疾病和诊断医疗状况方面所做出的贡献。科学家指出有很多好处,他们担心这些好处可能会受到监管的阻碍。
**古拉:**174名学者签署了一封承诺要负责任地在他们的研究中使用人工智能的信件。
他们认为,当涉及到人工智能时,其好处“远远超过潜在的危害。”
莱利表示他们主张更加审慎的监管方法:
**格里芬:**你知道,这封信的重点是我们认识到存在一些风险,但等一下。我们不想限制可以实现的进展。嗯,我们可以用这些工具做好事情,这是一个优先考虑的事情,我们承诺,并承诺在使用这些工具时采取安全行为。例如,只从可靠的供应商购买合成DNA,这不仅仅是一个人工智能问题,而是一个更广泛的关于随着技术进步生物领域安全的讨论。
**古拉:**一些批评者谴责所谓的“人工智能悲观主义”,他们认为生成式人工智能对人类构成了存在威胁是一种错误的担忧。
**格里芬:**有些人认为关于生物威胁和人工智能的讨论是在转移注意力。
**古拉:**而莱利指出,虽然卡萨格兰德和他的团队能够做出一些令人感到恐惧的聊天机器人,但他们进行的测试导致了积极的结果:
**格里芬:**我的报道表明,这些最初的简报实际上是政府开始考虑在大流行病之后以一种新方式思考生物风险的一个重要起点,同时也是在快速发展的新兴技术的背景下。
**古拉:**这些会议也引发了对更广泛对话的呼吁。这样,不仅仅是像Anthropic和OpenAI这样的最大的人工智能公司向政府官员进行简报。
**格里芬:**你知道,我听到一个有趣的评论,很多人希望看到更多规模较小的人工智能公司出现在会议室里。目前,参与与政府就这个问题进行交流的是最大的参与者,但一些规模较小的公司,特别是那些专注于生物数据的公司,可能没有那么积极的发声。
**古拉:**辩论仍在继续,根据莱利的说法,这一趋势看起来比她得到那个关于黑匣子的提示时去年要好。
格里芬:希望我们现在处于一个更难从聊天机器人那里获取信息的地方。。
**古拉:**Anthropic的一位创始人告诉莱利,公司已经“做出了改变以解决漏洞”卡萨格兰德和他的团队“发现的漏洞”。
但“还需要更多的工作。”
莱利说,她不希望这个故事的要点是恐惧,而更多地是关于当有这么多创新在许多地方发生时我们如何思考我们的行动。
**格里芬:**我希望这个故事的要点不是我们正处于末日场景,最糟糕的情况已经到来并将在明天影响我们。更多地是围绕如何监管一个快速发展的技术的辩论的细微差别。我认为每个人都知道围绕人工智能的监管存在疑问,因为人工智能是可以获取的。但生物学领域在这种对话中并不那么突出,我们谈论合成生物学,或者生物学领域的这种革命。它的发展速度同样迅猛。所以我的观点是,当两种快速发展的革命性技术相互碰撞时会发生什么?
**古拉:**这里是彭博新闻的《大事件》。我是大卫·古拉。
本集由制作人:托马斯·卢;高级制作人:娜奥米·沙文和金·吉特尔森,他们也编辑了这个故事;高级编辑:伊丽莎白·庞索。执行制作人:尼科尔·比姆斯特博尔;声音设计/工程师:罗伯特·威廉姆斯;事实核查员:亚历克斯·杉浦。
大型科技股的暴力轮换使纳斯达克100指数陷入修正区域,仅在三周多的时间内抹去了超过2万亿美元的价值,因为交易员平仓了一年多来一直赚钱的赌注。
周五午盘时,该指数下跌了2.2%,自7月10日创纪录以来的跌幅已超过10%。如果这种情况持续到收盘,它将符合修正的定义。该指数今年仍上涨近10%。