英伟达芯片在人工智能系统训练中取得进展,新数据显示 | 路透社
Stephen Nellis
旧金山,6月4日(路透社)——英伟达(NVDA.O),新标签页打开最新芯片在训练大型人工智能系统方面取得进展,周三公布的新数据显示,训练大语言模型所需的芯片数量大幅减少。非营利组织MLCommons发布了关于英伟达、AMD(AMD.O),新标签页打开等公司芯片训练性能的新数据,这些数据是人工智能系统通过海量数据学习时的基准参考。广告·继续滚动尽管股市关注焦点已转向更广泛的AI推理市场(即AI系统处理用户提问的环节),但训练这些系统所需的芯片数量仍是重要竞争指标。中国公司深度求索宣称,其开发的聊天机器人仅用远少于美国竞争对手的芯片数量就实现了竞争力。
这是MLCommons首次发布关于芯片在训练Llama 3.1 405B等AI系统性能的数据,该开源AI模型由Meta(META.O),新标签页打开发布。英伟达及其合作伙伴是唯一提交该大模型训练数据的参与者,数据显示其新一代Blackwell芯片的单芯片速度较前代Hopper芯片快两倍以上。
广告 · 继续滚动在Nvidia新芯片的最快测试结果中,2,496块Blackwell芯片在27分钟内完成了训练测试。根据数据,要达到更快的速度,需要大约三倍于Nvidia上一代芯片的数量。
在新闻发布会上,CoreWeave的产品总监Chetan Kapoor(该公司与Nvidia合作完成了部分测试结果)表示,他观察到AI行业的一个趋势:将较小规模的芯片组集中在子系统中,用于独立的AI训练任务,而不是创建由10万块或更多芯片组成的同质集群。
“通过这种方法,他们可以继续加速或缩短这些拥有数万亿参数的疯狂模型的训练时间,”Kapoor说道。
(旧金山,Stephen Nellis报道)
(圣保罗编辑部翻译)
路透社 PVB
- 推荐主题:
- 科技