人工智能构成国家安全威胁——《华尔街日报》
Klon Kitchen
人工智能对美国国家安全构成威胁,拜登政府对此高度重视。10月30日,总统签署了一项涵盖范围广泛的行政命令,要求国内大部分人工智能企业必须检测其模型是否存在国家安全漏洞及潜在滥用风险。这意味着需要成立由专家组成的"红队",试图让人工智能执行危险行为——进而设计防范外部类似威胁的方案。
这绝非简单的官僚程序,而是新时代责任意识的嘹亮号角。该行政命令将"两用人工智能"定义为:任何"基于广泛数据训练、通常采用自我监督学习、包含至少数百亿参数、适用于多场景,且当前表现或经简单修改即可在威胁安全、国家经济安全、公共卫生安全或综合风险领域展现高性能"的模型。
根据这一定义,人工智能监管不再局限于国防或情报应用,而是覆盖各类人工智能产品与服务。这意味着涉足AI领域的企业必须预先推演潜在滥用场景。政府实质上已宣告:无论情愿与否,人工智能产业都已成为国家安全体系的重要组成部分。
这不仅仅是防止聊天机器人回答诸如“如何制造炸弹?”这类危险问题。随着大语言模型和其他新兴人工智能技术在经济和公共生活的各个领域投入使用,企业必须预先识别的风险将发生巨大变化。
以一家部署大语言AI模型管理其专有业务和研究数据的化工公司为例。该公司必须评估心怀不满的员工滥用该AI制造化学武器——或更可能的是将操作指南发布到网上的可能性。但公司还需识别声誉风险:如果黑客入侵企业AI并利用它实施其他非法行为,后果会如何?这对公司声誉和股价将是灾难性的。
问题的核心在于风险管理而非风险消除。人工智能与国家安全形势不断变化,防范滥用必须成为持续进行的企业核心责任。关于AI的行政命令将企业置于美国政府国家安全、外交政策、经济繁荣和国内稳定考量的中心位置。虽无法做到万无一失,但必须通过严谨审慎的努力来降低风险。
没有企业能独自应对。威胁范围太广、复杂性太高,任何单一公司都难以招架。商业领袖必须组建能结合内部能力与外部专业知识的优化团队,与政府机构及其他利益相关方合作势在必行。
开发人工智能的企业必须立即成立专门部门来测试其产品。该部门应具备跨学科性质,不仅包括技术专家,还需涵盖伦理、法律及国家安全领域的专业人士。团队职责必须明确:对企业AI模型进行漏洞检测、压力测试和潜在滥用挑战。企业应主动与政府机构及行业伙伴展开对话,分享最佳实践与洞见。这一新范式要求采取协作透明的应对方式。鉴于风险过高,行政命令不容忽视,政府已明确表示不会容忍任何懈怠行为。
风险测试并不能保证AI模型永远不会引发或加剧国家安全灾难。但忽视风险测试无异于对灾难敞开大门。那些无视这一呼吁的企业,不仅是在拿自身前途冒险,更是在轻率地玩弄国家安全。
基钦先生是Beacon Global Strategies董事总经理,美国企业研究所非常驻高级研究员,曾任职于中央情报局、国防情报局及国家反恐中心。
拜登总统10月30日在白宫签署关于人工智能的行政命令。图片来源:Chip Somodevilla/Getty Images