人工智能 (AI) 正重塑數(shù)字格局,開發(fā)者也正面臨全新挑戰(zhàn):基礎設施不僅要具備強大算力,還需兼具可擴展性、成本效益和高能效等特征。當前,亞馬遜云科技、谷歌、微軟、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大規(guī)模云服務提供商與 AI 領軍企業(yè),均已基于 Arm 架構打造定制化解決方案,布局 AI 數(shù)據(jù)中心。
這一趨勢正在蓬勃展開。2025 年頭部超大規(guī)模云服務提供商的新增服務器算力中,有近半數(shù)是基于 Arm 架構。Arm Neoverse 平臺正在為量產(chǎn)級 AI 工作流、向量搜索引擎、實時機器學習 (ML) 平臺及云原生微服務提供算力支撐,同時在成本效益、吞吐量與節(jié)能方面實現(xiàn)可量化的顯著提升。隨著 AI 工作負載持續(xù)擴展,基礎設施的選擇愈發(fā)關鍵。
AI 工作負載貫穿端到端,Arm 賦能全流程優(yōu)化
AI 的應用早已不再局限于推理或模型訓練環(huán)節(jié)。從數(shù)據(jù)預處理、模型編排,到實時服務與內(nèi)存管理,如今的 AI 技術棧已覆蓋整個計算工作流。這也帶來了延遲、成本、功耗及擴展性方面的全新系統(tǒng)級挑戰(zhàn),而這些早已超出了傳統(tǒng)通用 CPU 的設計初衷與能力范圍。
Arm 在這場變革中扮演核心角色——其價值不僅限于 CPU 層面,更貫穿整個 AI 系統(tǒng)架構。
在亞馬遜云科技, Arm Neoverse 核心為 Graviton 通用計算平臺、Nitro 數(shù)據(jù)處理單元 (DPU) 提供算力支撐,并作為 AI 加速器的頭節(jié)點 (head node),為 AI 工作流打造高度集成、能效出眾的基礎設施。
NVIDIA 亦采用類似架構設計:Arm 架構是 Grace 與 Vera CPU 的技術基石,二者均作為 AI 系統(tǒng)的頭節(jié)點部署;同時 Arm 還為 BlueField DPU 提供算力支撐,助力數(shù)據(jù)遷移與卸載處理,為 AI 數(shù)據(jù)中心設計打造一體化的平臺解決方案。
憑借卓越的每瓦性能、強大的內(nèi)存帶寬,以及在 Amazon Graviton、Google Cloud Axion、Microsoft Azure Cobalt、NVIDIA Grace 等平臺上的規(guī)模化部署,基于 Arm 架構的基礎設施正日益成為可擴展、高性價比 AI 工作負載的優(yōu)選方案。
Arm 正成為云計算的新標準
云計算領域正經(jīng)歷一場戰(zhàn)略性轉(zhuǎn)變:全球領先的云服務提供商均在加碼基于 Arm 架構的基礎設施建設,將其作為融合型 AI 數(shù)據(jù)中心規(guī)?;渴鸬哪J路徑。這并非試點探索,而是著眼于長期的架構戰(zhàn)略。
在軟件層面,Atlassian、Spotify 和 優(yōu)步 (Uber) 等企業(yè),已開始借助通用工具與社區(qū)文檔,將核心工作負載遷移至基于 Arm 架構的云基礎設施,且無需對底層平臺進行深度重構。Atlassian 表示,在將核心服務遷移至 Arm 實例后,計算成本顯著降低,CI/CD 工作流運行速度也得到提升;Spotify 在后端工作負載中試用 Graviton 平臺后,實現(xiàn)了顯著的基礎設施效率提升;Uber 則通過基于 Arm 架構的基礎設施,在優(yōu)化微服務性能的同時,降低了單實例的運營成本。
與此同時,Arm 提供的一系列工具正加速這一遷移進程。例如 Arm MCP(模型上下文協(xié)議)服務器以及集成于 GitHub Copilot 的 Arm 云遷移智能體 (Cloud Migration Agent),正幫助開發(fā)者評估工作負載兼容性、加快云遷移進程,并實現(xiàn)穩(wěn)定可靠的規(guī)?;渴?。目前,專為各類 Arm 云平臺量身打造的 Arm MCP 服務器已面向所有軟件開發(fā)者開放,它可將云遷移工具與專業(yè)經(jīng)驗直接融入開發(fā)者常用的 AI 助手中,從而賦能自主化的智能體工作流。
通過自動化最佳實踐、加速開發(fā)流程并提供實時指導,該工具顯著簡化了遷移路徑,讓開發(fā)團隊從項目首日起,即可更輕松地獲得成本、能效與性能優(yōu)勢。早期用戶的反饋也驗證了其在真實遷移場景中具備高度實用性。
開發(fā)者轉(zhuǎn)向 Arm 架構的五大案例
除上述全球軟件企業(yè)外,其他科技公司在日常運營中采用基于 Arm 架構的云基礎設施時,也收獲了類似效益。
借助 Graviton3,LLM推理成本降低 35%
Vociply AI 是一家專注于大規(guī)模部署大語言模型 (LLM) 的 AI 初創(chuàng)企業(yè),在切換至 Amazon Graviton3 后,其月度基礎設施成本從 2000 美元降至 1300 美元,同時性能實現(xiàn)同步提升,具體包括:
· 性價比提升 40%
· 詞元(token) 吞吐量提升6%
· 功耗降低23%
· 這一成果得益于 Arm Neoverse 核心、Neon? 指令集深度優(yōu)化,以及 llama.cpp 等量化推理引擎的支持。
生成式 AI 工作流提速,基礎設施成本降低 40%
生成式 IT 及 AI 解決方案平臺 Esankethik 將其完整技術棧——涵蓋預處理、訓練與推理環(huán)節(jié),全面遷移至基于 Arm 架構的 Graviton 實例,取得了顯著成效,具體包括:
· 推理業(yè)務延遲降低 25%
· 每百萬次請求的 Lambda 成本降低 40%
· 內(nèi)存效率提升 15%
· 通過在 Arm 平臺上統(tǒng)一運行預處理、訓練與推理任務,Esankethik 有效緩解了性能瓶頸,并顯著提升了系統(tǒng)可擴展性。
SiteMana 實現(xiàn)實時ML 的穩(wěn)定規(guī)模化
獲客技術公司 SiteMana 已將其實時 ML 推理與數(shù)據(jù)攝取任務遷移至 Graviton3 平臺,并取得了顯著成效:
· 月度成本降低約 25%
· P95 延遲降低約 15%
· 網(wǎng)絡帶寬提升5 倍
· 此次遷移有效解決了 CPU 降頻問題,并實現(xiàn)了峰值負載下的系統(tǒng)性能穩(wěn)定。
AuthZed 提升開發(fā)者工作流效率
AuthZed 作為基礎設施服務授權平臺,已將其從開發(fā)筆記本到云端的所有工作負載統(tǒng)一遷移至 Arm 架構,由此實現(xiàn)了:
· 本地構建速度提升 40%
· 生產(chǎn)環(huán)境 CPU 利用率提升20%–25%
· 計算成本降低約 20%
· 該方案在不改變開發(fā)者既有工作習慣的前提下,實現(xiàn)了工作流程的大幅精簡優(yōu)化。
Zilliz Cloud 提升 AI 搜索吞吐量
面向生產(chǎn)級 AI 應用的全托管向量數(shù)據(jù)庫平臺 Zilliz Cloud,將其向量搜索引擎遷移至 Graviton3 后,實現(xiàn)了以下優(yōu)化成果:
· 索引構建性能提升 50%
· 十億級查詢場景下,向量搜索速度提升 20%
· 單查詢成本降低,吞吐量提升
· 該成果適用于語義搜索、檢索增強生成 (RAG) 及多模態(tài) AI 任務。
為 AI 云時代而生
Arm Neoverse 專為現(xiàn)代工作負載打造——涵蓋 LLM、向量搜索、實時 ML、數(shù)據(jù)分析及高密度微服務等場景。與 x86 相比,基于 Arm 的實例具備以下優(yōu)勢:
· 更卓越的性價比優(yōu)勢
· 更出色的 AI 與云原生工作負載性能
· 成熟的軟件生態(tài)與完善的開發(fā)者工具鏈
· 通過 Arm KleidiAI 為 AI 框架提供優(yōu)化支持,實現(xiàn)無縫性能調(diào)優(yōu)與集成
Arm 提供涵蓋開發(fā)者資源、性能調(diào)優(yōu)指南與云遷移清單在內(nèi)的完整套件,顯著簡化 AI 與云工作負載的遷移流程。這些資源可降低遷移阻力,支持性能調(diào)優(yōu),且無需對平臺進行全面重構。
開發(fā)者可通過 Arm 云遷移計劃獲取遷移資源、技術指南及專家咨詢服務。
此外,Arm MCP Server 現(xiàn)已向所有開發(fā)者開放,可幫助識別并高效執(zhí)行從 x86 到 Arm 架構的遷移。開發(fā)者可點擊此處,訪問 Arm MCP Server。
AI 時代的基礎設施平臺
基于 Arm 的云基礎設施正快速成為 AI 計算戰(zhàn)略的基石。
隨著工作負載持續(xù)擴展,能效的重要性日益凸顯,基礎設施需以更少資源提供更多價值。Arm 為打造下一代 AI 系統(tǒng)的開發(fā)者,提供了切實可行的實踐路徑。

