欧盟计划对最强大的生成式人工智能模型实施更严格的规定 - 彭博社
Alberto Nardelli, Jillian Deutsch
欧盟正在考虑采取三层方法来规范生成式人工智能模型和系统,根据彭博社看到的一份提案,这是遏制快速发展的技术的开创性努力的一部分。
这三个级别将为不同的基础模型建立规则 — 这些人工智能系统可以适应一系列任务 — 并要求对最强大的技术进行额外的外部测试,根据文件。
欧盟有望成为第一个在人工智能上制定强制规则的西方政府。根据所提议的名为AI法案的立法,预测犯罪或分类工作申请的系统将必须进行风险评估,以及其他要求。谈判代表希望在下次会议上,即10月25日,完善立法,目标是在年底前最终敲定。
阅读更多: 制作伪视频变得如此容易,以及为什么构成威胁
根据提议的规则,第一类将包括所有基础模型。第二层的“非常有能力”系统将根据用于训练其大型语言模型的计算能力的数量来区分 — 这些算法使用大规模数据集来开发人工智能能力。根据提案,这些模型可能“超越当前的技术水平,可能尚未完全被理解”。
最后,第三类被称为规模化通用人工智能系统,将包括最受欢迎的人工智能工具,并将根据用户总数来衡量。
欧洲委员会目前尚未就此发表评论。
自去年OpenAI发布ChatGPT以来,生成式人工智能工具在人气上迅速增长,这导致科技行业大部分公司纷纷着手开发自己的版本。生成式人工智能软件可以根据其庞大的语言模型对简单提示做出文本、图片和视频回应,通常表现出令人不安的高超技能。
欧盟在如何处理这项技术方面仍面临一些关键问题,包括如何确切地监管生成式人工智能以及是否完全禁止在人群中进行实时面部扫描。欧盟议会和委员会的计划遭到批评,认为政府可能会阻碍小公司与主要科技巨头竞争的能力。
欧盟三个机构的代表通常支持分层方法,但技术专家在本月早些时候制定了更具体的提案。根据彭博社看到的10月16日文件,这些想法正在成形,尽管随着谈判的展开它们可能会发生变化。
以下是欧盟可能如何处理这三个层次:
1. 所有基础模型
在将任何模型投放市场之前,人工智能开发者将受到透明度要求的约束。他们必须记录模型及其训练过程,包括内部“红队”努力的结果 —— 即独立专家尝试推动模型产生不良行为的过程。还将进行基于标准化协议的评估。
在一个模型上市后,公司需要向使用该技术的企业提供信息,并使它们能够测试基础模型。
公司必须包括一个“足够详细”的内容摘要,说明他们用来开发模型的内容以及如何处理版权问题,包括确保权利持有人可以选择不让他们的内容用于训练模型。公司还必须确保人工智能内容可以与其他材料区分开来。
谈判代表提议将基础模型定义为能够“胜任各种独特任务的系统”。
2. 非常有能力的基础模型
生产这一技术层次的公司将遵守更严格的规定。在上市之前,这些模型将不断接受外部专家的红队测试,这些专家将由欧盟新成立的人工智能办公室审查。这些测试的结果将发送给该机构。
公司还必须引入系统以帮助发现系统风险。在这些模型上市后,欧盟将由独立审计员和研究人员执行合规控制,包括检查公司是否遵守透明度规则。
谈判代表还在考虑创建一个公司讨论最佳实践和由欧洲委员会支持的自愿行为准则的论坛。
非常有能力的基础模型将根据训练它们所需的计算能力进行分类,使用一种称为FLOPS的度量,即每秒浮点运算次数。确切的阈值将由委员会在以后确定,并根据需要进行更新。
公司可以对这一评估提出异议。相反,委员会可以考虑一个模型非常出色,即使它在调查后没有达到门槛。谈判者还在考虑使用该模型的“潜在影响”——基于构建在其上的高风险人工智能应用数量——作为对技术进行分类的一种方式。
3. 大规模通用人工智能系统
这些系统还必须接受外部专家的红队测试,以识别漏洞,并将结果发送给委员会的人工智能办公室。公司还必须引入风险评估和缓解系统。
欧盟将考虑任何拥有1万注册商业用户或4500万注册终端用户的系统为大规模通用人工智能系统。委员会随后将确定如何计算用户数量。
公司可以对其作为大规模通用人工智能系统的地位提出上诉,同样,欧盟可以要求其他系统或模型遵守这些额外规则——即使它们没有达到门槛但可能“带来风险”。
需要进一步讨论以确定防范通用人工智能系统和非常出色人工智能系统生成非法和有害内容的防护措施。
大规模通用人工智能系统和非常出色基础模型的额外规则将由新的人工智能办公室监督。根据文件,该机构可以要求文件,组织合规测试,创建经过审查的红队测试人员注册表并进行调查。该机构甚至可以作为“最后手段”暂停一个模型。
该机构虽然设在委员会内,但将是“独立的”。欧盟可以通过从大规模通用人工智能和非常强大的基础模型收取费用来为办公室雇佣人员。