热搜词: 2025 2026

Arm : 大规模AI建设的“长期需求毋庸置疑”

Arm 数据中心业务负责人表示,包括他所在的公司在内的全球最大、最具影响力的科技公司正在大力建设大规模的人工智能数据中心,“毫无疑问,这是长期需求”。

Arm 基础设施业务高级副总裁兼总经理 Mohamed Awad表示:“如果从长远角度考虑,毫无疑问所有这些都是必需的。”

上个月出现了几笔庞大的人工智能数据中心交易,其中包括 OpenAI 协议使用 Nvidia GPU 平台构建至少 10 千兆瓦的基础设施,以及使用 AMD GPU 平台构建6 千兆瓦的服务器场。

仅本周,OpenAI 就与博通达成协议,设计价值 10 千兆瓦的定制 AI 加速器芯片,Oracle 与 AMD 达成 50,000 个 GPU 交易,谷歌向美国 AI 基础设施投资 90 亿美元,以及由 Nvidia、微软和埃隆马斯克的 xAI 组成的财团以 400 亿美元收购 Aligned Data Centers。

休斯顿系统集成商Mark III Systems的一位高管表示,由于代理AI应用能力的不断增强,对此类数据中心的需求正日益受到推理能力的驱动。这与几年前培训成为AI数据中心市场主要增长来源的情况不同。

Mark III Systems 首席技术官兼战略与创新副总裁 Andy Lin 表示:“目前所需的规模,尤其是当你谈论这些代理模型、这些更大的推理模型时,它们的规模很大,因此随着越来越多的组织想要利用它们而不是训练自己的基础模型,他们将需要类似的平台。”该公司多年来一直被评为Nvidia 的顶级合作伙伴。

但Awad和其他业内人士一样,也承认日益凸显且日益严重的能源限制阻碍了越来越多的大型人工智能数据中心的建设。这些项目包括Arm与OpenAI、甲骨文、投资公司MGX及其最大投资者软银集团共同参与的价值5000亿美元的“星际之门”合资项目。

Arm 在周二的 2025 年 OCP 全球峰会上宣布,Awad 表示将通过为科技公司提供构建定制的、基于小芯片的硅产品的新标准来解决这些能耗问题,从而最大限度地提高每瓦性能。

Arm 宣布将向开放计算项目 (OCP) 贡献基础芯片系统架构 (FCM) 规范。OCP 是由 Meta 公司创立的组织,旨在为超大规模数据中心建设者制定一系列标准。全球最大的超大规模数据中心运营商——亚马逊、微软和谷歌——均使用 Arm 技术来定制数据中心芯片,其中亚马逊是最知名、使用量最大的用户。该公司的技术也应用于英伟达最新的机架式 AI 平台,这些平台正在部署于许多新的 AI 数据中心。

新规范基于该公司去年推出的 Arm Chiplet 系统架构,旨在标准化依赖于 Arm CPU 内核的基于 Chiplet 的硅封装上 Chiplet 的分区和相互通信方式。

“我们决定让更广泛的行业从中受益。这不应该仅仅与 Arm 挂钩,”Awad说。“这其中肯定有 Arm 特有的成分,但我们认为,我们所采用的原则实际上远不止于此。”

Awad 表示,通过向 OCP 贡献基础 Chiplet 系统架构规范,这将为企业创造机会,使其能够构建基于任何指令集架构的 Chiplet 产品。这包括 x86,其主要用户是 AMD 和英特尔,后者正在重新推动定制芯片的设计。

他说:“系统的某些方面不一定与 Arm 挂钩。如果你正在构建一个具有最新 PCIe 版本的 I/O 芯片组,那么这不一定是我们需要控制的。”

Awad 表示,此举将使企业在设计基于小芯片的硅产品时拥有更大的自由,在人工智能数据中心对能源需求空前高涨的当下,这些产品可以在设定的功率范围内实现尽可能多的性能。

他说:“在性能功耗比至关重要的环境下,我们越来越多地看到,建设数据中心的大型技术供应商正在指定系统的各个方面,以尽可能提高性能。”

不过,尽管该规范对任何指令集架构开放,但Awad表示,他预计 Arm 将通过提供具有竞争力的计算产品而受益,例如其 Neoverse CPU 核心设计,这些设计所需的投资比客户构建完全定制产品要少得多,但提供的定制性却比现成的 CPU 产品要高得多。

这位高管为有计算需求的公司提出了这样的选择:“一方面,我可以花费十亿或数十亿美元去获得 Arm架构许可并构建自己的硅片或使用一些新的架构并建立整个生态系统,这是非常昂贵的。

另一方面,他们可以从 Ampere 或 Nvidia 购买一块硅片,例如 Nvidia 的 Grace CPU。或者他们可以购买 x86 CPU,”他补充道。

据Awad称,介于这两个选项之间的是 Arm 的现成 CPU 内核和相关技术,企业可以授权这些技术来设计自己的产品。该公司还推出了自己的生态系统项目 Arm Total Design,该项目将有计算需求的企业与芯片设计商、芯片制造商和其他可以帮助定制芯片开发的技术提供商联系起来。

“这是一个连续的过程,轨迹上的每个点都对应着不同程度的定制化和不同的成本。从生态系统的角度来看,我们的工作就是帮助实现尽可能多的定制化,同时降低成本。”他补充道,成本也意味着公司将产品推向市场的速度。

正是由于这些原因,再加上 Arm 现有的超过 3000 亿台设备(其中包括由世界上最大的超大规模企业构建的服务器场),Awad 对 Arm 在正在进行的 AI 数据中心建设中的长期前景感到“非常放心”。

想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!