摘要
NVIDIA近期将计算重心转向AI性能,导致其最新GPU产品B300的64位双精度(FP64)计算性能大幅下降至1.2 TFLOPS,远低于前代H100/H200的34 TFLOPS,引发了科学计算领域的担忧。对此,NVIDIA高级总监Dion Harris强调公司并未放弃64位计算,并指出通过更新的cuBLAS库可利用矢量核心模拟FP64计算,实现1.8倍的性能提升。同时,NVIDIA承诺未来的GPU将在核心硬件层面提升FP64性能。
线索
NVIDIA在AI计算领域的极致追求与在HPC(高性能计算)领域的策略性收缩,揭示了其业务重心与潜在风险。一方面,通过FP4等低精度计算实现能效50倍的巨大提升,巩固了其在AI市场的绝对领导地位,这是其核心增长引擎。另一方面,FP64性能的急剧下滑可能使其在传统科学计算(如气候模拟、材料科学)这一高价值市场中面临份额流失的风险,为竞争对手(如AMD)提供了机会。NVIDIA的应对策略——利用强大的软件生态(cuBLAS库)弥补硬件短板——既是短期有效的防御,也加深了客户对其生态的依赖。未来的关键观察点在于明年3月GTC大会,若NVIDIA发布的新架构能显著恢复FP64性能,将消除市场疑虑,成为股价上行的催化剂;反之,若继续忽视,则可能动摇其作为“全能计算平台”的长期地位。
正文
近年来,人工智能(AI)的快速发展正在改变芯片产业的方向。这一趋势导致NVIDIA等厂商将AI性能作为核心,计算精度随之降低。过去衡量GPU性能的核心指标FP64(双精度)和FP32(单精度),其重要性正被FP16、FP8及更新的FP4等AI计算精度所取代。
NVIDIA新一代显卡,从Blackwell架构开始,将重点转向其自有的NVFP4标准。该标准与E2M1 FP4结构类似,但精度损失极小。在GB300平台上,支持FP4后性能提升50%,精度与FP8相比几乎没有损失,内存占用减少2-3倍,能效提升50倍。
然而,在FP64性能方面,近几代顶级显卡不仅没有提升,反而出现倒退。数据显示,A100的FP64性能为9.7 TFLOPS,H100及H200提升至34 TFLOPS,但B100和B200分别为30和37 TFLOPS,而B300则大幅降低至1.2 TFLOPS。
FP64性能的下降引起了学术界的关注。TOP500榜单发起人、田纳西大学教授Jack Dongarra在SC25大会期间表示,NVIDIA从Hopper架构转向Blackwell架构时,FP64性能未得到实质性提升。FP64计算性能在材料科学、气候建模、流体力学模拟等科学计算领域具有不可替代的作用。
针对上述观点,NVIDIA负责HPC与AI超大规模基础设施解决方案的高级总监Dion Harris回应称,公司并未放弃64位计算,它依然是公司的核心之一。他介绍,NVIDIA在10月份推出了更新的cuBLAS库,这是一个CUDA-X数学库,能够通过矢量核心模拟FP64计算,使用该库可使FP64性能提升1.8倍。
对于硬件层面的FP64性能提升,Dion Harris表示NVIDIA未来的GPU将在核心底层进行改进,但具体信息暂未披露。预计在明年3月的GTC大会上,NVIDIA可能会公布下一代GPU架构,相关细节或将在届时揭晓。
发布时间
2025-12-14T23:01:00+00:00



评论 ( 0 )