
英伟达新的增长点来了:重磅推出印地语 AI 模型

英伟达推出了一款针对印地语的轻量级人工智能模型,旨在进入印度不断增长的 AI 软件市场。此举显示出英伟达在 AI 基础设施领域的垄断地位之外,积极拓展本地语言 AI 应用。CEO 黄仁勋透露,最新的 Blackwell 架构 AI GPU 设计缺陷已修复,预计 2024 年第四季度将批量出货,贡献营收 100 亿美元。黄仁勋还将在孟买与信实工业集团主席穆克什·安巴尼会面。
智通财经 APP 获悉,全球 AI 芯片霸主英伟达 (NVDA.US) 周四为印度广泛使用的当地语言——印地语,针对性地推出了一款轻量级的人工智能模型,此举凸显出英伟达在整个印度市场的 AI 野心不仅限于英伟达堪称处于垄断地位的 AI 基础设施领域——即为印度发展人工智能技术提供 AI GPU 这一最核心基础设施,还希望借印度当地语言 AI 模型进入印度这一不断增长的人工智能软件市场。
在这一消息出炉前一天,英伟达 CEO 黄仁勋在访问丹麦时透露,在台积电 (TSM.US) 提供的重大帮助下,其最新款的 AI GPU——Blackwell 架构 AI GPU 的一个影响芯片制造的重要设计缺陷已得到全面修复。黄仁勋周三表示,该公司最新的 Blackwell 架构 AI GPU 曾存在设计缺陷,“它的功能非常强大,但设计缺陷导致良率刚开始很低。” 他表示,这一缺陷 “100% 是英伟达的错”,后来全靠台积电协助才得以从这一挫折中恢复过来,并 “以惊人的速度” 恢复芯片制造工作。
华尔街大行摩根士丹利预计,英伟达 2024 年第四季度 Blackwell 架构 AI GPU 有望批量出货,预计 Blackwell Q4 贡献的营收将达到 100 亿美元,且利润率将非常高。
这家总部位于加利福尼亚的芯片巨头在周四表示,其首席执行官黄仁勋将在印度商业之都孟买与印度信实工业集团的主席、亚洲首富穆克什·安巴尼进行面对面会谈。
英伟达表示,该公司正在向印度全面推出一款全新的轻量级语言模型,名为 “Nemotron-4-Mini-Hindi-4B”,拥有 40 亿级别参数,供印度国内各大公司用于开发自己的类似 ChatGPT 的人工智能应用程序,或者在该轻量级基础上用于打造能力更强大或者专业性更精确的人工智能模型。
英伟达周四在一份声明中表示:“该人工智能模型经过修剪、蒸馏以及预训练,充分结合了现实世界的印地语大数据体系、合成化的印地语数据以及基本上等量的英语数据。”
英伟达在声明中透露,来自印度的 IT 服务和咨询公司 Tech Mahindra 是第一个使用英伟达 AI 模型产品开发名为 Indus 2.0 的定制化人工智能模型的印度公司,经过该公司调整后的这一款定制化 AI 模型专注于印地语及该国的数十种方言。
据了解,印度宪法承认高达 22 种语言,虽然印度乃英联邦成员国,但是印度高达 14 亿人口中仅仅有十分之一的人会用英语进行日常交流与表达。
从大型公司到初创科技公司,印度的企业当前都专注于基于其多种本国语言来构建人工智能模型,以增强对于印度庞大消费者群体的吸引力,并推动高质量客户服务以及本国语言的内容翻译等诸多企业经营活动与生成式人工智能全面融合,力争能够借助 AI 不断提升企业盈利水平以及企业经营效率。
与应用于为 ChatGPT 等具备强大推理能力的 AI 聊天机器人提供支持的大型语言模型 (比如 OpenAI 推出的 GPT-4/GPT-4o) 截然不同的是,轻量级的小型语言模型参数级别较低,通常是在更小、但是更加具体的数据集上进行预训练,它们通常价格更便宜,且易于根据公司本身的需求进行定制化调整,能够打造出在某些领域精准度更高的生成式 AI 应用程序,这些都使得它们对 AI 算力资源较少的公司更具吸引力。相比于通用级别的 AI 大模型,轻量级 AI 模型通常被用于特定任务或应用中,比如针对于特定客户群体的 AI 智能客服、特定语言的文本生成、翻译等。
包括英伟达、美光以及应用材料在内的全球顶级芯片公司正在印度投资并加速建立工厂,以扩大在经济快速增长的印度市场的业务,并且该国在莫迪政府提供的巨额资金支持下,正在努力建立其半导体产业链,给予国外芯片大厂,尤其是芯片制造类大厂丰厚补贴,以便能够与韩国、中国台湾等全球主要半导体中心进行竞争。
但是分析师们普遍表示,印度建立起最基本的半导体产业链可能需要数年时间,预计 2030 年之前可能难以达成。据了解,近二十年前首次在印度开设实体店面的英伟达在印度设有工程与设计中心,并在印度南部的科技中心班加罗尔和邻近的海德拉巴等主要城市设有英伟达办事处。
软件业务,或将助推英伟达股价触及 200 美元
华尔街知名投资机构 Rosenblatt 表示,相比于英伟达 AI GPU 创收,更加看好以 CUDA 为核心的软件业务带来的创收规模。Rosenblatt 芯片行业分析师 Hans Mosesmann 在一份研报中将该机构对英伟达的 12 个月内目标股价从 140 美元大幅上调至每股 200 美元的惊人水平,位列华尔街对于英伟达的最高目标价。
根据知名研究机构 IDC《全球人工智能和生成人工智能支出指南》的一项最新预测,该机构预计到 2028 年,全球人工智能 (AI) 相关的支出 (重点包括人工智能支持的应用程序、AI 芯片等人工智能基础设施以及相关的 IT 和商业服务) 较当前将至少翻番,预计将达到约 6320 亿美元。人工智能,特别是生成人工智能 (GenAI) 快速融入各种终端设备与产品,IDC 预计全球人工智能支出将在 2024-2028 年的预测期内实现 29.0% 的复合年增长率 (CAGR)。
IDC 指出,软件或应用程序将是最大规模的人工智能技术支出类别,在大多数预测中占整个人工智能市场的一半以上。IDC 预计人工智能软件的五年期 (2024-2028) 复合年增长率将达到 33.9%。这也是为什么英伟达不仅聚焦于在 AI 基础设施领域堪称垄断的 AI GPU 的营收规模,近期更加聚焦于 AI 大语言模型、轻量级模型以及推动全球企业在基于英伟达高性能 AI GPU 的云端推理算力以及基于 CUDA 平台提供的加速基础上部署 AI 应用。
CUDA 生态壁垒,可谓是英伟达的 “最强大护城河”。英伟达在全球高性能计算领域已深耕多年,尤其是其一手打造的 CUDA 运算平台风靡全球,可谓 AI 训练/推理等高性能计算领域首选的软硬件协同系统。CUDA 加速运算生态是英伟达独家开发的一种并行化计算加速平台和编程辅助软件,允许软件开发者和软件工程师使用英伟达 GPU 加速并行通用计算 (仅支持英伟达 GPU,无法兼容 AMD 以及英特尔等主流 GPU)。
关于如何微调 AI 模型,以及如何以低技术门槛且无需购置任何昂贵 AI GPU 的方式进行 AI 模型定制化调整,英伟达也为企业或个人用户们提供了一套完整的云端解决方案。基于无比强大且渗透率极高的 CUDA 平台和性能强大的 AI GPU,英伟达近期在软硬件全栈生态方面的布局可谓不断加码。英伟达在 3 月 GTC 正式推出名为 “NVIDIA NIM” 的微服务,按每 GPU 使用时间收费,它是专注于优化的云原生微服务,旨在缩短基于各类型 AI 模型的生成式 AI 应用上市时间并简化它们在云端、数据中心和 GPU 加速工作站上的部署工作负载,使得企业能够在英伟达 AI GPU 云推理算力以及基于 CUDA 平台提供的加速基础上部署 AI 应用,寻求建立专属英伟达 GPU 体系的 AI 应用全栈开发生态。

