DeepSeek 刚提到 FP8,英伟达就把 FP4 精度推向预训练,更快、更便宜

华尔街见闻
2025.08.27 11:30
portai
我是 PortAI,我可以总结文章信息。

DeepSeek 在发布 V3.1 时提到 FP8 量化设计,引发对国产芯片和大模型训练的关注。FP8 作为超低精度格式,能降低存储和计算开销。与此同时,英伟达推出 NVFP4 策略,扩展至预训练阶段,声称能以 4 位速度和效率进行训练,提升大规模 LLM 训练效率。这显示出国产大模型与芯片的不同发展路径。