拜登的AI行政令是政府争夺主导权的尝试——《华尔街日报》
The Editorial Board
拜登总统正确指出美国正与中国展开一场技术军备竞赛。既然如此,他为何还要下令政府对人工智能(AI)进行全面干预,从而拖慢美国的创新步伐?
“为了实现人工智能的潜力并规避风险,我们需要监管这项技术——在我看来别无他法,必须加以监管。”拜登总统上周签署长达63页的行政命令时如此表示。他宣称这是“全球各国政府在AI安全、保障与可信度方面采取的最重大行动”。这并不能让人放心。
***
人工智能涵盖广泛的应用领域,包括聊天机器人、深度学习以及以指数级算力模拟人类神经网络的大语言模型。大多数大型企业已以某种形式应用AI,其在提升劳动生产率、推动人类知识进步和挽救生命方面潜力巨大。但AI也伴随风险,尤其是当生成式AI最终能模拟人类认知时。
总统令中包含若干可取举措,例如提供内容认证指导和水印技术,明确标注AI生成内容,使民众能辨别政治广告是否含有伪造图像或声音。该命令还试图增加对具备AI技能外国工作者的签证配额。
然而,政府是否具备理解快速演进AI技术的专业能力尚存疑问,更遑论明智监管其多样化应用的智慧。更大的风险在于,这一政策可能将致力于开发有益AI应用的美国企业束缚在繁文缛节之中。
根据该行政令,联邦机构须在270天内制定“开发部署安全、可靠、可信人工智能系统”的指导方针。开发对国家安全、经济安全或公众健康安全构成“严重风险”AI模型的企业,在训练模型时必须向监管机构报备,并分享“红队安全测试”结果。
这些安全测试必须探查AI系统的缺陷,包括歧视性偏见、功能局限、错误及滥用风险。即使联邦机构挖走OpenAI的工程师,也无力监管可能归其管辖的数十万套AI系统——从犯罪预测模型到工厂机器人。
虽然工程师通常在发布前会进行产品缺陷测试,但没有任何系统是完美的。众所周知,聊天机器人偶尔会“幻觉发作”——即编造信息。但随着漏洞被发现修复、更多数据输入模型,每个新版本都会有所改进。这就是迭代式人工智能的工作原理。
进步人士警告,如果训练数据中固有偏见,AI模型可能放大种族和性别歧视。这虽属实,但使用AI的企业仍需遵守民权法,因此他们有充分动力确保模型不存在歧视。
拜登政府更担忧的是,AI系统极擅长发现可能导致特定群体受到差异性影响的微妙模式与关联。因此拜登指示联邦机构审查商业AI模型(如贷款核批和招聘中使用的系统),排查对“受保护群体”造成差异影响的算法。
如果大型语言模型AI的训练数据来源于倾向自由派的新闻媒体和学术研究,它们可能会基于政治立场进行歧视,并放大进步主义叙事。然而这一风险似乎并未引起行政当局的担忧——尽管AI开发者应当警惕,因为这可能导致半数国民抵制这项技术。
AI在药物研发、疾病风险预测和治疗方案选择方面潜力巨大。但该行政令通过对医疗机构和药企使用AI实施微观管理,并建立中央数据库追踪所谓"造成伤害(包括偏见)的事件",反而会阻碍这些进展。这或许正中侵权诉讼集团的下怀。
科技巨头等大企业或许能应付这些新的监管和法律难题——这也可能是许多CEO主动拥抱监管的原因。但初创企业和小公司将额外承担向政府汇报的法务和监察负担,从而削弱行业竞争。若拜登的行政令十年前生效,OpenAI还能取得今日的突破吗?
***
白宫法律团队心知肚明,总统试图推动的多数举措缺乏法律授权,这正是其要动用1950年《国防生产法》赋予总统的宽泛国防权力。试想当年比尔·克林顿若以同样手段对自由发展的互联网实施政府管控会如何?
当局正吹嘘美英中三国上周签署的"AI安全承诺"。但中国在AI(包括军事应用)领域快速赶超美国之际,不太可能真正遵守这些保障措施。该行政令唯一的好消息是:其实施必须通过监管规则,而这些规则可能因越权而在法庭上受到挑战。
乔·拜登总统于10月30日在白宫签署了一项关于生成式人工智能规则的行政命令。图片来源:克里斯·克莱波尼斯/祖玛通讯社