
“云第一大厂” 清晰阐述了 AI 战略:大模型也好、芯片也好,都会是选项而非核心

AWS 押注 “生成式 AI 产品化”,将产品和服务作为发展的核心,构建更易于使用、可访问的平台,降低用户使用 AI 的门槛,未来大模型重要性也将逐渐降低,不同用途的模型对用户差别不大。
看似是 AI 竞赛中的 “落后者”,但亚马逊 AWS 有着清晰的战略图景。
本周三,亚马逊举行 re:Invent 年度大会,并发布一系列重磅产品和计划,包括全球最大 AI 超算、新一代 AI 芯片和模型、训练苹果 AI......
而其中最值得关注的是亚马逊对未来发展的规划,AWS 押注的是 “生成式 AI 产品化”,将产品和服务作为发展的核心,构建更易于使用、可访问的平台,降低用户群体使用 AI 的门槛。
AWS 认为,未来生成性 AI 将更为普遍,不仅仅是一个附加功能,而是成为计算基础设施的一部分。而产品化的必要途径是,大模型重要性会逐渐降低,不同用途的模型对用户来说差别不大。
大模型绝不会一家独大,重要性会逐渐降低
在传统的 AI 开发中,大模型可以说是核心,需要精心设计和训练以解决特定问题。但 AWS 认为,在生成性 AI 的产品化过程中,大模型将不再是唯一的焦点。
过去两年,亚马逊一直依赖 Anthropic 的人工智能和 Nvidia 的硬件来推动其云销售增长,但在 re:Invent 大会上亚马逊 CEOAndy Jassy 表示:
我认为几乎所有人最终都会使用 Anthropic 的 Claude 模型,但他们也在使用 Llama 模型,也在使用 Mistral 模型,也在使用我们自己的一些模型......
这与亚马逊 AWS CEO Matt Garman 的观点类似,他此前表示 AI 竞赛没有终点,未来 AI 大模型绝不会一家独大。
有分析表示,AWS 的赌注是,生成式 AI 产品化的一个必要组成部分是大模型重要性逐渐降低,这将降低用户进入生成性 AI 领域的门槛。换句话说,AI 将足够重要以至于最终根本不会特别。
Garman 在 No Priors 播客节目中也表达出,未来生成性 AI 将成为 “必需品”:
从技术的发展,生成性 AI 将不仅仅是一个附加功能,而是成为计算基础设施的一部分,就像存储、计算和数据库一样,是构建应用程序时需要考虑的基本要素。
在应用程序中,如果需要进行大量的数据处理和决策(即推理),那么生成性 AI 将是一个关键的组成部分。这表明 AI 的推理能力将被广泛地集成到各种应用程序中,以满足这些需求。
产品和服务才是核心,降本方面取得进展
当大模型重要性降低,AWS 聚焦打造 AI 产品和服务。AWS 正在努力将生成性 AI 集成到其平台中,开发者在构建应用程序时,可以利用 AWS 提供的 AI 服务,而不需要从头开始构建复杂的 AI 系统。
谈到公司发展的重点,Garman 表示:
亚马逊现在已经拥有一个 Bedrock(预训练模型家族)平台、训练芯片和推理芯片,以及我们提供的一系列其他功能和模型,既有专有的也有开源的,还有开放权重的。
企业喜欢在这个平台上构建,我们看到企业真的倾向于并希望在这一领域进行构建,因为这给了他们很多自主权,而这正是他们在构建应用时想要的。
Garman 认为:
AWS 们的工作是如何让用户以紧密耦合的方式越来越容易地构建 AI 应用,从而更容易使用不同的组建,更容易快速创新,更容易从 AWS 数据湖中构建专有数据。坦白地说,如果你没有有趣的数据,大多数这些生成 AI 系统都不会非常有用。
在使用生成性 AI 时,开发者需要在成本和延迟能力等方面做出权衡。大模型可能提供更复杂的功能,但可能成本更高,延迟更大;而小型模型可能更经济,响应更快,但功能可能有限。而通过提供多种模型选项,AWS 允许用户根据特定需求选择最合适的模型,而不是依赖于单一的模型。
在降低模型和芯片成本方面,亚马逊取得一定进展,Jassy 表示,亚马逊最先进的新模型基本上与 Anthropic(和 OpenAI )最新模型性能一样强大,而且值得注意的是,它的价格比这些模型低三分之一以上。
Garman 表示,亚马逊的新款 AI 芯片 Trainium 2 对 AI 开发者的价值远高于 Nvidia 的旗舰 H100 芯片,他还表示 Anthropic 将使用大量 Trainium 芯片来开发未来的模型。

