
英伟达加速欧洲 AI 生态布局:扩展 Lepton 云平台以接入当地开发者

英伟达正在加速其在欧洲的 AI 生态布局,推出 Nvidia DGX Cloud Lepton 的扩展版本,旨在连接当地开发者与全球计算生态系统。该平台通过多家云服务提供商提供 GPU,支持高性能计算。亚马逊 AWS 和微软 Azure 将是首批参与者。此外,英伟达与欧洲风险投资公司合作,为初创企业提供计算资源,以推动区域发展。
智通财经 APP 获悉,英伟达 (NVDA.US) 表示,其正致力于将欧洲的开发者与其全球计算生态系统相连接。该公司宣布推出 Nvidia DGX Cloud Lepton 的扩展版本——这是一个集成了全球计算市场功能的 AI 平台,该平台可连接开发人员所构建的面向机构和物理应用的人工智能应用程序。现在,该平台的 GPU 已可通过一系列云服务提供商网络获得。
这家人工智能芯片巨头表示,Mistral AI、Nebius、Nscale、Firebird、Fluidstack、Hydra Host、Scaleway 和 Together AI 现已将 NVIDIA Blackwell 及其他 NVIDIA 架构的 GPU 推向市场,从而扩大了高性能计算的区域覆盖范围。
英伟达指出,亚马逊 (AMZN.US) 的 AWS 和微软 (MSFT.US) 的 Azure 将是首批参与 DGX Cloud Lepton 项目的大型云服务提供商。
英伟达补充道,这些公司与 CoreWeave(CRWV.US)、Crusoe、Firmus、富士康、GMI Cloud、Lambda 以及 Yotta Data Services 一同入驻了该平台。
英伟达还与一些欧洲风险投资公司 (如 Accel、Elaia、Partech 和 Sofinnova Partners) 合作,为投资组合公司提供 DGX Cloud Lepton 平台的信用额度,使初创企业能够获得加速计算资源并推动区域发展。
此外,通过与英伟达软件套件 (包括英伟达 NIM、NeMo 微服务和 Cloud Functions) 的整合,DGX Cloud Lepton 能够简化并加速人工智能应用开发和部署的每一个阶段,无论规模大小。
英伟达指出,为了使加速计算能够更广泛地服务于全球的人工智能领域,Hugging Face 正在推出 “训练集群即服务” 这一新服务。该服务与 DGX Cloud Lepton 平台相整合,能够无缝地将构建基础模型的 AI 研究人员和开发人员与英伟达的计算生态系统连接起来。
英伟达的创始人兼首席执行官黄仁勋表示:“我们正与该地区的各合作伙伴携手合作,构建一个人工智能工厂网络。开发者、研究人员和企业可以利用这个网络将本地的突破成果转化为全球性的创新成果。”

