具有系统性风险的AI模型获指引以遵守欧盟AI法规 | 路透社
Foo Yun Chee
2025年2月5日,英国伦敦奥林匹亚展览中心举办的"2025人工智能与大数据博览会"上展示的《欧盟人工智能法案》副本。路透社/伊莎贝尔·因凡特斯/资料图片购买授权许可,打开新标签页布鲁塞尔,7月18日(路透社)- 欧盟委员会周五发布指导方针,旨在帮助被认定具有系统性风险的人工智能模型遵守欧盟人工智能法规(AI法案),这些模型将承担更严格的义务以减轻潜在威胁。
此举旨在回应部分企业对《人工智能法案》和监管负担的批评,同时为违规企业提供更明确的指引——违规罚款从750万欧元(870万美元)或营业额的1.5%到3500万欧元或全球营业额的7%不等。通过路透社可持续转型通讯,了解影响企业和政府的最新ESG趋势。立即注册。
广告·继续滚动去年生效的《人工智能法案》将于8月2日起适用于具有系统性风险的人工智能模型和基础模型,例如谷歌开发的模型。(GOOGL.O),新标签页打开,OpenAI,Meta Platforms (META.O),新标签页打开,Anthropic和Mistral。企业需在明年8月2日前遵守该法规。欧盟委员会将具有系统性风险的AI模型定义为:拥有极强计算能力、可能对公共卫生、安全、基本权利或社会产生重大影响的模型。
首批被列入名单的模型必须执行模型评估、风险研判与缓解、对抗性测试,向欧盟委员会报告严重事件,并确保针对盗窃和滥用的充分网络安全防护。
广告·继续阅读通用人工智能(GPAI)或基础模型需满足透明度要求,包括编制技术文档、采用版权政策,并提供用于算法训练内容的详细摘要。
欧盟技术主管汉娜·维尔库宁在声明中表示:“通过今日发布的指南,委员会支持《人工智能法案》平稳有效实施。”
(1美元=0.8597欧元)
- 推荐主题:
- 人工智能 使用路透AI聚焦本报道关键点