人工智能能否制造致命的生物武器?我们最好不要去发现 - 彭博社
The Editorial Board
需要更好的防御。
摄影师:Christophe Simon/法新社/盖蒂图片社
尽管新冠病毒大流行造成了严重的伤亡,但下一个大流行可能会更加可怕。强大的新型人工智能模型,加上新颖的实验室工具,可能很快会使一些不法科学家或国家能够制造出一种传播更快、对疫苗抵抗力更强、并且造成更多死亡的病原体。各国政府、科技公司和科学研究人员应该立即采取行动,以降低风险。
自然界一直有能力制造出可怕的病原体,从瘟疫到西班牙流感。几十年来,人类也如此:日本在第二次世界大战期间进行了残酷的生物战实验;美国和苏联在冷战期间储存了毒素,后者的计划甚至在1972年签署《生物武器公约》后仍在继续。五角大楼认为俄罗斯和北朝鲜仍在发展生物武器。
但这些努力传统上受到受过必要研究训练的科学家数量和生产及分发有效武器的工具的限制。科技正在打破这两个障碍。大型语言模型(LLMs),如OpenAI公司的ChatGPT,可以快速合成大量知识:在一次实验中,一个聊天机器人向一组麻省理工学院的学生提供了关于如何制造四种潜在致命病原体的建议,以及如何在不被发现的情况下获取所需DNA的地点——仅用一个小时。
更具体的基于生物数据训练的人工智能程序,被称为生物设计工具,甚至更为强大。随着时间的推移,这些程序可能加速开发具有致命特性的全新病原体,甚至可能具备针对特定人群的能力。新兴技术——从“台式”合成器,使个别研究人员能够创建自己的DNA链,到所谓的云实验室,实验可以通过机器人和自动化仪器远程进行——将降低测试和生产潜在武器的其他障碍。
值得注意的是,生产和分发可行武器的障碍仍然相当高。但科学家表示,考虑到所有这些技术的快速进展,这种情况可能在几年内发生变化。现在是采取行动的时候,在它们成熟之前。一系列干预措施将有所帮助。
从人工智能模型开始。一些美国最强大的大型语言模型的开发者自愿将其提交给政府进行进一步评估。这是受欢迎的,但对于风险最高的模型——那些基于敏感生物数据训练的模型,可能需要更多的审查。国会应与人工智能开发者和科学家合作,制定哪些模型可能需要正式筛查的标准,以及在那些被发现存在最高风险的模型中可以包含哪些保护措施。虽然立法者目前应保持狭窄的关注,但随着技术的发展,可能需要更严格的监督。
下一个任务是防止任何人工智能设计的病毒进入现实世界。合成核酸的供应商应被要求了解他们的客户,并筛查订单中的可疑DNA序列。所有请求都应被记录,以便在新病原体释放到野外时能够追溯。控制措施也应内置于台式合成器中,而云实验室应审查客户和请求。风险实验应始终有人工参与。
美国应敦促其他国家采取类似的保护措施,以便流氓行为者无法简单地寻找其他不那么严谨的供应商。如果生物武器公约因外交摩擦无法加强,那么志同道合的国家至少应就一套最佳实践达成一致,正如他们已开始在人工智能方面所做的那样。
最重要的是,各国应加强其疫情防御,以便任何能够利用系统漏洞的人都无法造成广泛的损害。人工智能本身可以提升 政府检测新病原体出现的能力,更不用说加速疫苗的开发以及个人防护装备的生产和分发。更强大的公共卫生系统至关重要,无论新病毒是由恐怖分子、流氓国家、事故还是自然产生。
新冠疫情暴露了这些防御中的巨大漏洞,而这些漏洞中有太多仍未填补。各国政府有充分的动力在还有时间的时候遏制这一新威胁。
更多来自彭博社观点:
- 人工智能“暂停”将是创新的灾难:社论
- 面对人工智能创造化学武器的潜力:丽莎·贾维斯
- 人工智能起初是一个梦想。然后,大型科技公司接管了:帕米·奥尔森
想要更多彭博社观点?OPIN <GO>。或者你可以订阅 我们的每日通讯 。