国际原子能机构(IAEA)模式用于人工智能?该模式已然失败——《华尔街日报》
Mike Watson
多年来仅局限于学术讨论和技术会议热议的人工智能问题,终于引起了公众的关注。ChatGPT、Dall-E 2等新程序证明,计算机能够生成与人类创作极为相似的句子和图像。
人工智能研究人员正在敲响警钟。今年三月,该领域的一些领军人物与埃隆·马斯克、史蒂夫·沃兹尼亚克等科技先驱联名呼吁暂停人工智能实验六个月,理由是"先进AI可能意味着地球生命史上的深刻变革,应当以相应的谨慎和资源进行规划管理"。上月,开发ChatGPT的OpenAI领导层提出需要"类似国际原子能机构的超级智能监管组织",该机构将"检查系统、要求审计、测试安全标准合规性、对部署程度和安全等级实施限制等"。若危言耸听者对AI风险的预言成真,而人类试图用原子能机构式方案应对,那么我们早已注定失败。
在关于AI风险的讨论中,核能类比屡见不鲜。曾呼吁国会监管AI的OpenAI首席执行官萨姆·奥尔特曼谈及公司时,常提及曼哈顿计划。以审慎著称的亨利·基辛格也表示:“AI的影响可能堪比核武器问世——但其不可预测性更甚。”
国际原子能机构(IAEA)模式对许多关注AI发展的人士具有吸引力,因为其目标与他们的诉求高度契合。该机构致力于促进核能和平利用,同时防止核武器扩散。许多AI研究人员同样希望自己的发明能促进人类繁荣,而非助长破坏力。
遗憾的是,核武管控的技术手段难以直接套用于计算机程序。核武器需要反应堆、浓缩设施等庞大基础设施支撑,而AI的物理足迹要小得多。OpenAI团队认为计算资源和能源消耗的追踪可能成为监管合规性的重要突破口。
但这仍存在不足。正如OpenAI团队承认的,“确保超级智能安全的技术能力"仍是"待解的研究课题”。缺乏明确标准,合规性评估便无从谈起。
IAEA的核心缺陷不在于监测而在于执行。1957年该机构成立时全球仅美、苏、英三个核国家,在其监管下这个数字却增长了两倍。
冷战期间的地缘政治对抗导致核扩散:法国、中国、印度相继试爆核装置,以色列秘密研发核武。尽管美苏试图限制核武器,但都不愿因阻止盟友拥核而削弱阵营实力。
即便在苏联解体后,IAEA防扩散使命仍遭遇挫败。巴基斯坦、朝鲜先后核试验,伊朗铀浓缩浓度已接近武器级。以色列虽在伊拉克和叙利亚取得显著防扩散成果,但通常只有大国才能强制IAEA合规。除伊拉克这个存疑的例外,美国始终认为核扩散的代价低于战争风险。
中国日益增长的实力和好战态度是众多因素之一,这些因素将使国际人工智能管控机制面临挑战。中国一直是核扩散最肆无忌惮的国家之一,很可能在武器化人工智能领域不断突破界限——因为相比中国军方高层,人工智能发动政变或违抗命令的可能性更低,且北京将能控制那些依赖中国开发人工智能的国际合作伙伴。
但即便是友好的民主国家也会对人工智能限制感到不满。计算技术将释放巨大经济效益,其中许多发明都将具有军事应用价值。美军必将使用人工智能,虽然美国大多数盟友和伙伴愿意受其核保护伞庇护,但如果华盛顿实施双重标准,他们也不太可能自断经济增长之路。
具有讽刺意味的是,OpenAI希望效仿国际原子能机构模式,而此刻核不扩散的前景正变得日益黯淡。比尔·克林顿对其重大成就之一——1994年《布达佩斯备忘录》感到遗憾,该备忘录使乌克兰放弃了苏联时代的核武器。“他们都认为如果乌克兰仍持有这些武器,俄罗斯绝不敢如此妄为。“他今年四月表示。朝鲜和伊朗的核计划正迫使美国在亚洲的伙伴和盟友重新评估拥核的必要性。
归根结底,核不扩散与人工智能风险存在相同弱点:它们都低估了人为因素。
沃森先生是哈德逊研究所自由社会未来中心副主任。
5月16日,塞缪尔·阿尔特曼在华盛顿参议院司法委员会隐私、技术与法律小组委员会作证。图片来源:Win McNamee/Getty Images刊登于2023年6月2日印刷版,标题为《AI领域的IAEA?该模式已然失败》。