欧洲的人工智能法律需要明智暂停,而非彻底叫停——彭博社
Parmy Olson
摄影师:马丁·伯特兰/法新社 试图改变人工智能发展轨迹的人都有一个共同武器:暂停键。两年前,埃隆·马斯克和其他科技领袖发表公开信呼吁科技公司暂停AI研发六个月以更好保护人类。如今目标已转移——在日益担忧落后于超级计算机竞赛的恐慌中,一群欧洲商界领袖正将"暂停"的枪口对准自封为全球AI警察的欧盟。
彭博社观点美国复制粘贴式关税将激怒"日本先生"疲弱银行无法稳定国债市场美国,这不是降息的正确方式纽约等美国城市需要移民 与两年前试图约束AI的科技精英们如出一辙,这个鲁莽建议忽视了问题的复杂性。正如45家企业所言,全面暂停AI监管无助于欧洲追赶中美。这掩盖了欧洲科技初创企业亟需资金扩大规模、抗衡硅谷巨头的根本困境。所谓欧洲必须在创新者与监管者间二选一的论调,实则是科技巨头游说团体精心编织的叙事——监管越宽松,他们获益越大。
但这并不意味着《人工智能法案》本身不需要暂缓执行——尽管企业呼吁的"暂停"范围较窄。包括阿斯麦控股公司、空中客车SE和Mistral AI在内的企业在周四发表的公开信中要求欧盟委员会主席乌尔苏拉·冯德莱恩推迟他们称为"模糊不清、相互重叠且日益复杂"的法规。这些企业在信中提出了"暂停计时"的诉求。
他们的观点有一定道理,但仅针对这部180页法案中为应对ChatGPT等"通用"AI模型而在最终谈判时仓促添加的部分。该法案最初起草于2021年,那时距离ChatGPT引发生成式AI热潮还有近两年时间。其初衷是监管用于疾病诊断、财务建议或关键基础设施控制的高风险AI系统。法案对这些应用场景有明确定义,从使用AI判定个人健康福利资格到控制供水系统皆涵盖其中。法律要求在此类AI部署前,必须经过技术开发者和应用企业的双重严格审查。
如果某家医院想要部署用于医疗诊断的AI系统,根据该法案这将被视为"高风险AI"。AI供应商不仅需要测试模型的准确性和偏见,医院还必须配备人工监督员持续监测系统准确性。这些都是合理且明确的要求。
但对于2023年仓促出台的通用人工智能系统新规章节,相关条款却显得模糊不清这些规定旨在应对ChatGPT等生成式AI模型和图像生成器Midjourney。当这些产品横空出世时,AI突然能够执行无限任务,布鲁塞尔当局通过扩大监管范围来应对这一局面,但不幸的是,这也使得规则更加笼统。
问题始于法案第83页,该章节声称要界定像ChatGPT这样的通用系统何时构成系统性风险:当训练使用的浮点运算量(FLOPs)超过10的25次方(即10^25)时,意味着训练过程中计算机至少进行了10,000,000,000,000,000,000,000,000次运算。
法案既未解释这个数字的意义,也未说明其危险性。此外,麻省理工学院的研究人员已证明,较小规模但采用高质量数据训练的模型,其能力可媲美庞大模型。“FLOPs"未必能准确衡量模型的实力或风险,以此作为标准可能忽略更重要的因素。
与此同时,这些技术阈值并未用于定义"通用人工智能"或"高影响力能力"的具体含义,导致企业面临解释空间过大、定义含混不清的困境。
“这些都是深奥的科学问题,”LatticeFlow AI的首席执行官佩塔尔·赞科夫表示。该公司致力于指导企业遵守《人工智能法案》等法规。“现有基准并不完善。”
布鲁塞尔不应暂停整部AI法案。对于2026年8月即将实施的高风险AI系统(如医疗和关键基础设施领域)监管规定,应继续按原计划推进。但针对"通用"AI的规则三周后就将生效——这些条款亟需时间完善。赞科夫建议再给予两年调整期。
欧洲AI法案有望为行业带来亟需的透明度。若下月实施,OpenAI等公司将被迫公开其训练数据和流程的商业机密。这对研究AI在心理健康等领域危害性的独立伦理学者将是福音。但若法规模糊导致企业拖延或钻法律漏洞,这种积极效应将难以持续。
对法案中最模糊条款实施精准暂缓,既能帮助布鲁塞尔避免法律混乱,也能确保最终落地的规则切实有效。
更多彭博观点专栏:
想要更多彭博观点?OPIN <GO>。或者您可以订阅我们的每日通讯。