富士康发布首个大型语言模型 | 路透社
Reuters
台北,3月10日(路透社) - 台湾的富士康(2317.TW)周一表示,它已推出首个大型语言模型,并计划利用该技术改善制造和供应链管理。该模型名为“FoxBrain”,使用120个Nvidia的(NVDA.O) H100 GPU进行训练,并在大约四周内完成,全球最大的合同电子制造商在一份声明中表示。该公司为苹果(AAPL.O)组装iPhone,并生产Nvidia的人工智能服务器,表示该模型基于Meta的(META.O) Llama 3.1架构。它是台湾首个具有推理能力的大型语言模型,优化了传统中文和台湾语言风格。
富士康表示,尽管与中国DeepSeek的蒸馏模型相比存在轻微的性能差距,但其整体性能非常接近世界级标准。

项目1中的2个富士康高能量密度固态锂金属电池在2024年10月8日于台北举行的富士康年度科技日上展示。路透社/安王/档案照片
在2024年10月8日,富士康在台湾台北的年度科技日上展示了一款高能量密度固态锂金属电池。路透社/安王/档案照片最初设计用于内部应用,FoxBrain涵盖数据分析、决策支持、文档协作、数学、推理和问题解决以及代码生成。
富士康表示,计划与技术合作伙伴合作,扩展该模型的应用,分享其开源信息,并推动人工智能在制造、供应链管理和智能决策中的应用。
富士康表示,Nvidia通过其位于台湾的超级计算机“台北-1”提供支持,并在模型训练期间提供技术咨询。
台北-1是台湾最大的超级计算机,由Nvidia在该岛南部城市高雄拥有和运营。
富士康将在3月中旬的Nvidia GTC开发者大会上宣布有关该模型的更多细节。
科技汇总通讯将最新的新闻和趋势直接送到您的收件箱。注册这里。
- 建议主题:
- 中断