机构:DeepSeek 会拉动总算力需求倍数提升

华尔街见闻
2025.02.07 09:26
portai
我是 PortAI,我可以总结文章信息。

DeepSeek 因 “服务器资源紧张” 突然暂停 API 服务充值,引发外界对其算力不足的猜测。分析认为,DeepSeek 可能难以满足日益增长的需求,如果这种情况持续下去,DeepSeek 可能只能借鉴 OpenAI 的做法,加大对基础设施的投资。

一夜爆红后,新用户蜂拥而至,DeepSeek 可能算力吃紧了。

2 月 6 日周四,DeepSeek 突然暂停其 API 服务充值,按钮显示灰色不可用状态。

随后,DeepSeek 对此发表声明称,“当前服务器资源紧张,为避免对您造成业务影响,我们已暂停 API 服务充值。存量充值金额可继续调用,敬请谅解!”

截至今早,DeepSeek 的 API 服务充值仍处于暂停状态。这不禁引发外界猜测:难道是 DeepSeek 算力不够了?

春节期间,DeepSeek 由于产品更新 “光速出圈”,其用户量在短时间内飙增。

据媒体援引国内 AI 产品榜统计数据,DeepSeek 应用上线 20 天,日活已经突破 2000 万,DeepSeek 应用(不包含网站数据)上线 5 天内,日活已超 ChatGPT 上线同期日活,成为全球增速最快的 AI 应用。

根据国泰君安证券分析师舒迪、李奇的测算,假设 DeepSeek 的日均访问量为 1 亿次、每次提问 10 次,每次提问的回复用到 1000 个 token,1000 个 token 大概对应 750 个英文字母,则 DeepSeek 每秒的推理算力需求为 1.6*1019TOPs。

在这种普通推理情境下, 假设 DeepSeek 采用的是 FP8 精度的 H100 卡做推理,利用率 50%,那么推理端 H100 卡的需求为 16177 张,A100 卡的需求为 51282 张。

国泰君安进一步表示,在以 DeepSeek 为首的低成本推理模型的逐渐普及下,推理成本及价格大幅削减势必会带来应用测的繁荣,这反过来还会拉动成倍数的总算力需求提升。

有分析指出,随着用户量持续增长,DeepSeek 可能难以满足日益增长的需求。如果这种情况持续下去,DeepSeek 可能别无选择,只能借鉴 OpenAI 的做法,加大对基础设施的投资。

目前,DeepSeek 的部分 API 服务还处于优惠时间段内。

官方价目表显示,deepseek-chat 模型优惠期至北京时间 2025 年 2 月 8 日 24:00,优惠结束后将按每百万输入 tokens 2 元,每百万输出 tokens 8 元计费。deepseek-reasoner 模型上线即按每百万输入 tokens 4 元,每百万输出 tokens 16 元计费。

原标题:DeepSeek 算力不够了?