在最新公布的MLPerf AI训练基准测试中,英伟达推出的GB300 NVL72平台凭借Blackwell Ultra架构展现出惊人实力,一举包揽全部七个测试项目的冠军。这一成果标志着AI计算硬件领域迎来新一轮性能突破,特别是在处理超大规模语言模型时展现出显著优势。
测试数据显示,该平台在训练4050亿参数的Llama 3.1大模型时,仅耗时10分钟便完成全部训练流程。面对Llama 2 70B模型的LoRA微调任务,其处理速度更是达到每0.4分钟完成一次迭代。对于80亿参数的Llama 3.1 8B模型训练,整个过程仅需5.2分钟,三项测试均刷新行业纪录。
与前代产品相比,新一代架构的性能提升堪称飞跃。在Llama 2 70B微调任务中,8块GB300 GPU组成的集群展现出相当于同等数量H100 GPU五倍的处理能力。当面对4050亿参数的Llama 3.1预训练任务时,其性能表现更是达到H100的四倍以上,较同架构的GB200平台提速近两倍。
支撑这种突破性表现的是软硬件协同创新的系统设计。硬件层面,系统搭载的Quantum-X800 InfiniBand高速网络实现800GB/s的传输速率,每块GPU配备的279GB HBM3e高带宽内存,使整个系统的总内存容量(含GPU与CPU)突破40TB大关。这种配置为处理超大规模数据流提供了坚实基础。
软件层面的革新同样关键。英伟达全面采用FP4精度计算技术,在模型训练的每个计算层均应用这种低精度格式。相比传统的FP8精度,新方案使计算速度直接翻倍,而Blackwell Ultra架构的优化设计更将效率提升至三倍水平。这种精度与架构的双重优化,成为突破性能瓶颈的核心要素。
测试结果还显示,该平台在多任务处理场景中保持稳定性能输出。无论是需要高精度计算的微调任务,还是要求海量数据吞吐的预训练过程,系统都能维持高效运行状态。这种全场景覆盖能力,使其成为AI研发机构构建超算集群的理想选择。




