
DeepSeek 刚提到 FP8,英伟达就把 FP4 精度推向预训练,更快、更便宜

我是 PortAI,我可以总结文章信息。
DeepSeek 在发布 V3.1 时提到 FP8 量化设计,引发对国产芯片和大模型训练的关注。FP8 作为超低精度格式,能降低存储和计算开销。与此同时,英伟达推出 NVFP4 策略,扩展至预训练阶段,声称能以 4 位速度和效率进行训练,提升大规模 LLM 训练效率。这显示出国产大模型与芯片的不同发展路径。
登录即免费解锁0字全文
因资讯版权原因,登录长桥账户后方可浏览相关内容
感谢您对正版资讯的理解与支持

