标签:大规模GPU训练
马斯克斥资20万块GPU打造Grok-3 AI模型,凭借强大推理能力在数学领域暴击DeepSeek R1,深度搜索性能远超OpenAI,彰显大规模GPU训练优势
马斯克口中最强AI模型Grok-3震撼登场 近日,马斯克带领xAI团队正式发布了全球最强大的大模型Grok-3。这款模型使用了20万块GPU进行训练,是人类历史上首次在如此大规模的硬件集群上完成的训练任务。Grok-3一经发布便迅速席卷多个排行榜,击败了o3-mini(high)和DeepSeek-R1等强劲对手。 Grok-3的技术亮点 Grok-3的训练计算量达到了惊人的10倍于Grok-2,其背后支撑的是世界最大的超算集群Colossus,该集群拥有20万块GPU。第一阶段用时122天搭建了10万块GPU,第二阶段再用92天完成了全部20万块GPU的配置。在多项基准测试中...