
DeepSeek 并不是唯一的低成本 AI 初创公司。这对 OpenAI 和英伟达意味着什么

DeepSeek 是一家中国的人工智能研究实验室,已以美国公司如 OpenAI 和 Nvidia 成本的一小部分开发出具有竞争力的大型语言模型(LLMs)。其 V3 模型的开发成本为 560 万美元,挑战 OpenAI 的产品,而后者的成本约为 200 亿美元。美国对 Nvidia 最新 GPU 的禁令促使 DeepSeek 在较低性能的硬件和高效算法上进行创新。这种走向商品化的趋势可能会威胁到 OpenAI 的市场地位,而尽管 GPU 在训练中的需求减少,Nvidia 可能会因较低的推理成本而受益
DeepSeek 是一家总部位于中国的人工智能(AI)研究实验室。它于 2023 年从中国最成功的对冲基金 High-Flyer 分拆而出。该基金多年来一直在利用人工智能开发交易算法。
DeepSeek 团队找到了一种方法,以美国领先的人工智能公司花费的极小一部分资金开发出强大的大型语言模型(LLMs)。这在周一引发了美国股市的恐慌,投资者考虑到对芯片供应商如 Nvidia(NVDA 0.77%)和知名开发者如 OpenAI(由 Microsoft 支持)的影响。
这可能是人工智能竞赛中的一个变革性时刻。DeepSeek 的方法不仅可能有效,而且至少还有一家中国人工智能初创公司似乎也取得了类似的成果。这对 Nvidia 和 OpenAI 意味着什么呢?
图片来源:Getty Images。
人工智能模型正迅速商品化
Ilya Sutskever 是美国领先的人工智能开发公司 OpenAI 的联合创始人之一。他曾认为数据和计算能力是训练最佳人工智能模型和生产最智能人工智能软件的关键成分。这被称为预训练扩展,这意味着拥有最多财力的开发者可以建立最佳的数据中心,购买最佳的芯片,从而赢得人工智能竞赛。
但在 2024 年 11 月,他告诉路透社,使用该方法的结果已经停滞。OpenAI 此后开发了具有更好 “推理” 能力的模型,这意味着它们花更多时间 “思考”,以从 ChatGPT 聊天机器人中产生最佳响应。这被称为测试时扩展,使用该方法的模型(GPT-4o1 到 GPT-4o3)在解决问题方面表现更好,并在学术层面上使人工智能更接近人类智能。
OpenAI 花费了约 200 亿美元才达到这一点(这笔钱主要是自 2015 年以来从投资者那里筹集的)。但 DeepSeek 最近发布了其 V3 模型,仅花费 560 万美元,却在多个性能基准上与 OpenAI 的 GPT-4o 模型竞争。
美国政府禁止 Nvidia 向中国人工智能公司出售其最新的图形处理器(GPU),因此 DeepSeek 使用了像 H100 和 H800 这样的低功率版本开发 V3。为了弥补性能不足,DeepSeek 不得不在软件方面进行创新,创造出更高效的算法和数据输入方法。
该公司还使用了一种称为蒸馏的技术来创建 V3。它涉及使用成功模型(如 GPT-4o1)训练一个小模型,以产生类似的最终产品。这一策略大大加快了人工智能公司训练竞争性 LLM 的速度,并可能导致商品化。换句话说,未来市场上可能会有数百个具有类似能力的 LLM,它们大多是可以互换的。
这可能对 OpenAI 甚至 Nvidia 构成真正的威胁。OpenAI 可能会失去其凭借可观财力建立的优势,而由于对 LLM 训练的需求减少,Nvidia 可能会遭受 GPU 需求下降的影响。
DeepSeek 以低成本震撼科技行业,但并非孤军作战
训练只是方程式的一部分。还有推理过程,涉及人工智能模型将提示转化为准确响应。但与任何业务一样,整体成本降低可以转化为客户的价格降低。
截至目前,DeepSeek 仅收取每百万个输入标记 0.14 美元,这比 OpenAI 每百万个输入标记 2.50 美元的收费便宜 94%(输入标记是根据用户提示中的单词数量计算的)。
但 DeepSeek 并不是唯一一家似乎破解了这一代码的人工智能实验室。曾在 Alphabet 的 Google 中国业务负责运营的李开复,推出了一家名为 01.ai 的人工智能初创公司。根据其网站,其 Yi 模型在与 DeepSeek 的竞争模型相比时表现良好。该公司仅收取每百万个输入标记 0.10 美元,甚至比其中国竞争对手更便宜——而且远低于 OpenAI 的价格。
这一切对 OpenAI 和 Nvidia 意味着什么
我认为如果 LLM 继续朝着商品化趋势发展,OpenAI 将面临麻烦。此外,其模型是闭源的,因此开发者被锁定在公司的生态系统中,这在竞争性开源 LLM 广泛可用时将不是一个理想的特性。
相比之下,DeepSeek 采用开放源代码的方法,使开发者可以根据需要自由调整其模型以构建人工智能软件。开发者还可以在本地下载开源模型,因此他们无需与创建者共享敏感数据。
但尽管 OpenAI 面临不确定性,Nvidia 可能实际上会从推理成本的下降中受益,这可能抵消部分在训练方面失去的 GPU 需求。
想想手机的发展。当我们每次发送短信或浏览互联网都需要支付费用时,我们并没有像现在这样频繁使用手机。无限计划提供无限的通话、短信和数据,使我们每天可以花几个小时在手机上,只需支付名义上的月费——简单来说,当成本降低时,使用量激增。
人工智能可能会走上类似的道路,随着使用量的增加,公司将需要更多 Nvidia 的 GPU 来满足推理的需求。尤其是在推理能力不断发展的情况下,因为更多的思考需要显著更多的计算能力。
短期内的情况则稍显不确定。Nvidia 的一些客户会不会像 DeepSeek 那样优化他们的训练方法,从而减少数据中心的支出?这很难说,但新的季度财报季刚刚开始,因此我们应该在接下来的几周内从几乎每一家公司那里收到更新。

