新的人工智能基准测试评估运行人工智能应用的速度 | 路透社
Max A. Cherney,Stephen Nellis

项目 1 共 2 项 一款 Nvidia GPU 在 2024 年 10 月 8 日于台湾台北的富士康年度科技日展示的计算机服务器中可见。路透社/安王/档案照片
一款 Nvidia GPU 在 2024 年 10 月 8 日于台湾台北的富士康年度科技日展示的计算机服务器中可见。路透社/安王/档案照片 旧金山,4 月 2 日(路透社) - 人工智能组织 MLCommons 发布了两个新基准,称其可以帮助确定顶级硬件和软件运行 AI 应用程序的速度。
自从两年前 OpenAI 的 ChatGPT 发布以来,芯片公司开始将重点转向制造能够高效运行代码的硬件,使数百万人能够使用 AI 工具。由于基础模型必须响应更多查询以支持聊天机器人和搜索引擎等 AI 应用程序,MLCommons 开发了两个新版本的 MLPerf 基准来评估速度。
路透社日报简报提供您开始一天所需的所有新闻。注册 这里。
其中一个新基准基于 Meta 的 (META.O) 所谓的 Llama 3.1 4050 亿参数 AI 模型,测试目标是一般问答、数学和代码生成。新格式测试系统处理大查询和从多个来源合成数据的能力。英伟达(NVDA.O)提交了几款芯片用于基准测试,系统制造商如戴尔科技也提交了芯片(DELL.N)。根据MLCommons提供的数据,未见超微半导体的提交(AMD.O)用于大型的4050亿参数基准测试。对于新的测试,英伟达最新一代人工智能服务器 - 名为Grace Blackwell,内部配备72个英伟达图形处理单元(GPU) - 比上一代快2.8到3.4倍,即使在新服务器中仅使用八个GPU进行直接比较时,公司的发言人在周二的简报中表示。
英伟达一直在努力加快其服务器内部芯片的连接速度,这在AI工作中非常重要,因为聊天机器人同时运行在多个芯片上。
第二个基准测试也是基于Meta构建的开源AI模型,测试旨在更接近消费者AI应用程序(如ChatGPT)设定的性能期望。
目标是缩短基准测试的响应时间,使其接近即时响应。
- 建议主题:
- 人工智能