
阿里云吹响 “AI 基建” 冲锋号

ALL IN 投入。

作者 | 柴旭晨
编辑 | 周智宇
当大模型落地如火如荼,AI 对物理世界的渗透还方兴未艾,整个计算架构也在发生根本性变化。作为背后的 AI 云大厂,阿里云正全力冲刺,准备成为这场 AI 盛宴里的基建赢家。
在 9 月 19 日云栖大会上,阿里云 CTO 周靖人开篇立意地表示,阿里云正在围绕 AI 时代树立 AI 基础设施的新标准,他随之祭出三张 “王炸” -- 升级的大模型和硬件平台,以及降价政策。
过去两年,模型的尺寸已增长数千倍,模型的算力成本却在持续下降,企业使用模型的成本也越来越低。AI 的加速渗透,带来了巨大想象空间,阿里云董事长吴泳铭判断,生成式 AI 将提高整个世界的生产力水平,“这种价值创造,可能是移动互联网连接价值的十倍、几十倍”。
但他指出,下一代模型需要具备更大规模、更通用、更泛化的知识体系,全世界先进模型竞争的投入门槛将达到数十亿、数百亿美金的级别。如此量级的投入,似乎让生成式 AI 成了大厂的 “专属”。
为了加速 AI 渗透普及,推动真正通用人工智能时代的到来,周靖人在大会现场宣布通义旗舰模型 Qwen-Max 升级,性能接近 GPT-4o;同时发布最强开源模型 Qwen2.5 系列,成为仅次于 Llama 的世界级模型群。
阿里云方面表示,此次共开源语言、音频、视觉等 100 款模型,创造大模型开源史上之最,让企业和开发者以低成本的方式用上大模型。
在加码开源吸引开发者的同时,阿里云再次祭出价格牌,宣布通义千问三款主力模型大幅降价,最高降幅 85%,百万 tokens 价格低至 0.3 元。其实在过去的半年,阿里云百炼平台已经降低大模型调用的门槛,推动大模型的普及。
据悉,中国一汽、联想、微博等 30 多万企业客户已经接入通义大模型;未来,生物医药、工业仿真、气象预测、游戏等行业还在加速拥抱大模型,将带来新一轮的 AI 算力增长。
阿里云副总裁张启向华尔街见闻表示,“现在的 AI 相当于 1996 年左右的互联网,那时候上网资费非常昂贵。后来当运营商大力搞基建,才让网络普及成为可能。现在我们也在疯狂搞 AI 大基建,把资费降下来,才有可能去谈未来应用的爆发”。
更强的模型、更低的价格,周靖人强调这是 AI 基础设施全面革新带来的技术红利。冰面下,一场以 AI 为中心的技术架构变革,正在快速浮现。他向华尔街见闻表示,因为 AI 基建的重要创新,才让今天大模型的训练和创新变成了可能。
周靖人指出,不同于传统 IT 时代,AI 时代对基础设施的性能、效率要求更高,CPU 主导的计算体系已快速向 GPU 主导的 AI 计算体系转移。张启向华尔街见闻透露,整个市场上新增的算力需求,AI 占比已经超过了 50%,“这个速度非常之快,而且会不断持续”。
为了牢牢跟随市场走向,周靖人表示阿里云会持续投入先进 AI 基础设施的建设,加速大模型走进千行百业。
为此,阿里云以 AI 为中心,从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系全面升级。
周靖人在现场展示了全系升级的产品家族,包括磐久 AI 服务器、GPU 容器算力、为 AI 设计的高性能网络架构 HPN7.0、支持高数据吞吐的 CPFS 文件存储、以及实现了万卡级训练推理调度的人工智能平台 PAI。
云厂商拥有全栈技术储备,并通过基础设施的全面升级,让 AI 训练、推理、部署和应用整个生命周期变得更高效。周靖人表示,“为应对 GPU 算力的指数级增长需求,尤其是即将爆发的推理市场,阿里云已经准备好了”。
百模大战一年后,应用成为了大模型产业的主旋律。作为最早提出模型即服务(MaaS)理念的企业,阿里云一直把大模型生态的繁荣作为首要目标。
“我们希望企业和开发者能以最低的成本做 AI、用 AI,让所有人都能用上最先进的大模型。” 周靖人说。

