3 月 19 日消息,華碩今日宣布,在英偉達 GTC 2024 上展示其基于 MGX 的數(shù)據(jù)中心解決方案。
華碩表示,為了滿足生成式 AI 不斷增長的需求,華碩使用了來自英偉達的最新技術 —— 包括 B200、GB200 Grace Blackwell 和 H200 NVL,以提供優(yōu)化的 AI 服務器解決方案。
基于英偉達 MGX 的華碩服務器解決方案,專為 AI 需求定制
華碩本次發(fā)布了 ESC NM1-E1 與 ESC NM2-E1 2U 服務器,基于英偉達 MGX 模塊化架構,采用英偉達 GH200 Grace Hopper 超級芯片。英偉達 GH200 包括支持 SVE2 的 Arm Neoverse V9 CPU 核心,并由 NVLink-C2C 技術互聯(lián)。結合英偉達 BlueField-3 DPU 和 ConnectX-7 網(wǎng)絡適配器,該服務器數(shù)據(jù)吞吐能力達 400Gb / s。
▲ 英偉達 MGX 架構
液冷解決方案
▲ 左:ESC N8-E11,右:RS720QN-E11-RS24U
華碩 D2C(direct-to-chip)冷卻方案支持快速部署,降低數(shù)據(jù)中心的 PUE(Power Usage Effectiveness)比率。本次展示的 ESC N8-E11 和 RS720QN-E11-RS24U 服務器支持多樣化的冷卻解決方案。此外,華碩服務器支持與標準機架服務器設計兼容的換熱器,無需更換所有機架 —— 只需更換后門即可啟用機架內(nèi)的液冷。
AI 軟件解決方案
▲ 華碩 ESC4000A-E12
華碩將在 GTC 展會上使用 ESC4000A-E12 服務器,演示無代碼 AI 平臺與集成軟件棧,加速企業(yè)在 LLM 預訓練、微調(diào)和推理上的 AI 開發(fā)速度,支持 7B、33B 甚至到超過 180B 參數(shù)的大模型。華碩表示其定制軟件可以通過通過優(yōu)化 GPU 資源的分配,確保 AI 應用程序和工作負載可以在不浪費資源的情況下運行,從而提高效率和投資回報率(ROI)。
查詢?nèi)A碩官網(wǎng)獲悉,ESC4000A-E12 服務器使用 AMD EPYC 9004 處理器,支持四塊雙槽 GPU,采用液冷散熱解決方案,提供 8 根 PCIe 5.0 插槽。