蚂蚁集团采用国产GPU替代英伟达,AI模型训练成本降低20% | 南华早报
Ann Cao
蚂蚁集团,作为阿里巴巴集团控股旗下的金融科技关联公司,已能够利用国产图形处理器(GPU)训练大语言模型(LLM),从而减少对英伟达高端芯片的依赖,并将训练成本降低20%。这一进展源自一篇研究论文及媒体报道。负责大模型开发的蚂蚁灵团队披露,其拥有3000亿参数的专家混合模型(MoE)“灵基增强版"可在"较低性能设备上实现有效训练”。该研究成果发表于学术开放平台arXiv的最新论文中。
论文指出,通过规避高性能GPU,该模型在预训练阶段成功降低20%计算成本,同时性能仍可对标Qwen2.5-72B-Instruct、DeepSeek-V2.5-1210-Chat等主流模型。
这一突破使这家杭州金融科技巨头与深度求索、字节跳动等国内企业站在同一战线,共同降低受美国严格出口管制的高端英伟达芯片依赖。研究团队在论文中强调:“这些成果证实了在算力较弱的硬件上训练尖端大规模MoE模型的可行性,为基础模型开发提供了更灵活、更具成本效益的算力选择方案。”
MoE是一种机器学习技术,它通过多个专业知识网络将问题空间划分为同质区域。这项技术已被包括Grok、DeepSeek和阿里巴巴的Qwen在内的主流人工智能(AI)模型广泛采用,用于将大语言模型扩展至万亿级参数规模,同时保持固定计算成本。阿里巴巴集团持有《南华早报》。