标签:混合专家MoE
蚂蚁集团自研AI大模型采用国产芯片训练,混合专家MoE技术优化计算成本,深度解析开源技术优势与未来发展潜力
(由多段落组成) 蚂蚁集团近期在AI大模型领域取得了显著进展,针对媒体关于其百灵大模型训练成本的报道,蚂蚁方面向界面新闻回应称,公司正通过优化不同芯片性能来降低AI应用成本,并计划逐步通过开源方式分享技术成果。 据此前媒体报道,蚂蚁集团正在利用中国制造的半导体开发AI模型训练技术,预计可将成本降低20%。知情人士透露,蚂蚁集团采用了来自阿里巴巴和华为等厂商的芯片,并结合混合专家(MoE)机器学习方法进行模型训练。结果显示,这种方案能够达到与使用英伟达H800等高端芯片相似的效果。 尽管如此,蚂蚁集...