本文來源: 半導體行業(yè)觀察
原文鏈接:https://mp.weixin.qq.com/s/kQGR_04iML9QSBdrsx2KJQ
眾所周知,隨著生成式AI的大熱,英偉達正在數據中心領域大殺四方,這也幫助他們實現了更好的業(yè)績。根據公司公布的數據,截至 2023 年 7 月 30 日的第二季度,英偉達收入為 135.1 億美元,較上一季度增長 88%,較去年同期增長 101%。
不過,英偉達目前的業(yè)績預期很多都是基于當前的芯片和硬件所做的。但有分析人士預計,如果包含企業(yè) AI 及其 DGX 云產品,該數據中心的市場規(guī)模將至少是游戲市場的 3 倍,甚至是 4.5 倍。
瑞銀分析師Timothy Arcuri也表示,英偉達目前在DGX云計算方面的收入約為10億美元。但在與客戶交談后,他認為,該公司每年可能從該部門獲得高達100億美元的收入。他給出的理由是Nvidia仍然可以在DGX云上添加額外的產品,包括預先訓練的模型,訪問H100 GPU等等。他說,現在這些領先GPU仍然“非常難”獲得訪問,能夠根據需要擴大和縮小規(guī)模,并與現有的云或內部部署基礎設施“基本上無縫集成”。
因此,英偉達在最近公布了一個包括H200、B100、X100、B40、X40、GB200、GX200、GB200NVL、GX200NVL 等新部件在內的產品路線圖,這對英偉達未來的發(fā)展非常重要。
數據中心路線圖
根據servethehome披露的路線圖,英偉達的一項重大變化是他們現在將其基于 Arm 的產品和基于 x86 的產品分開,其中 Arm 處于領先地位。作為參考,普通客戶現在甚至無法購買 NVIDIA Grace 或 Grace Hopper,因此在 2023-2025 年路線圖的堆棧中顯示它是一個重要的細節(jié)。以下是 NVIDIA 提出的路線圖:
在Arm方面,英偉達計劃將在2024年推出GH200NVL,在2024年推出GB200NVL,然后在2025年推出GX200NVL。我們已經看到 x86 NVL 系列與NVIDIA H100 NVL一起推出,但這些都是基于 Arm 的解決方案。然后是 2024 年推出的 GH200NVL。還有快速跟隨的 GB200NVL,然后是 GX200NVL。還有非 NVL 版本。
在NVIDIA 宣布推出雙配置的新型 NVIDIA Hopper 144GB HBM3e 型號(可能最終成為 GH200NVL)的時候,我們介紹了具有 142GB/144GB 內存的 GH200 (非 NVL)。據介紹,與當前一代產品相比,雙配置的內存容量增加了 3.5 倍,帶寬增加了 3 倍,包括一臺具有 144 個 ArmNeoverse 核心、8 petaflops 的 AI 性能和 282GB 最新 HBM3e內存技術的產品。
GB200 將成為 2024 年的下一代加速器,GX200 將成為 2025 年的下一代加速器。
面向 x86 市場,英偉達預計 2024 年將推出 H200,它會在 Hopper 架構上進行更新,并具有更多內存。B100和B40是下一代架構部件,隨后是2025年的X100和X40??紤]到B40和X40位于“企業(yè)”賽道上,而當前的L40S是PCIe卡,因此這些可能是PCIe卡。
在網絡方面,Infiniband 和以太網都將于 2024 年從 400Gbps 發(fā)展到 800Gbps,然后在 2025 年達到 1.6Tbps。鑒于我們已經在 2023 年初研究了 Broadcom Tomahawk 4 和交換機,并看到了合作伙伴今年的800G Broadcom Tomahawk 5 交換機,感覺有點像 NVIDIA 以太網產品組合在以太網方面明顯落后。Broadcom 的 2022-2023 年 800G 系列似乎與 NVIDIA 的 2024 年升級保持一致,NVIDIA 在 2023 年中期宣布了 Spectrum 4,而Tomahawk 5 則在大約 21-22 個月前宣布。在業(yè)界,芯片發(fā)布與投入生產之間通常存在很大的差距。
由此可見,在 Infiniband 方面,NVIDIA 是孤軍奮戰(zhàn)。從該路線圖中,我們沒有看到 NVSwitch/NVLink 路線圖。
其他人工智能硬件公司應該會被 NVIDIA 的企業(yè)人工智能路線圖嚇到。在人工智能訓練和推理領域,這意味著 2024 年將更新當前的 Hopper,然后在 2024 年晚些時候過渡到 Blackwell 一代,并在 2025 年采用另一種架構。
在 CPU 方面,我們最近已經看到了令人激動的更新節(jié)奏,x86 方面的核心數量之戰(zhàn)出現了大幅增長。例如,英特爾的頂級 Xeon 核心數量預計從 2021 年第二季度初到2024 年第二季度將增加 10 倍以上。NVIDIA 在數據中心領域似乎也在緊跟這一步伐。對于構建芯片的人工智能初創(chuàng)公司來說,考慮到 NVIDIA 的新路線圖步伐,這現在是一場競賽。
對于英特爾、AMD,或許還有 Cerebras 來說,隨著 NVIDIA 銷售大型高利潤芯片,他們的目標將會發(fā)生變化。它還將基于 Arm 的解決方案置于頂級賽道中,這樣它不僅可以在 GPU/加速器方面獲得高利潤,而且可以在 CPU 方面獲得高利潤。
一個值得注意的落后者似乎是以太網方面,這感覺很奇怪。
精準的供應鏈控制
據semianalysis說法,英偉達之所以能夠在群雄畢至的AI芯片市場一枝獨秀,除了他們在硬件和軟件上的布局外,對供應鏈的控制,也是英偉達能坐穩(wěn)今天位置的一個重要原因。
英偉達過去多次表明,他們可以在短缺期間創(chuàng)造性地增加供應。英偉達愿意承諾不可取消的訂單,甚至預付款,從而獲得了巨大的供應。目前,Nvidia 有111.5 億美元的采購承諾、產能義務和庫存義務。Nvidia 還額外簽訂了價值 38.1 億美元的預付費供應協議。單從這方面看,沒有其他供應商可以與之相媲美,因此他們也將無法參與正在發(fā)生的狂熱AI浪潮。
自 Nvidia 成立之初起,黃仁勛就一直積極布局其供應鏈,以推動 Nvidia 的巨大增長雄心。黃仁勛曾在重述了他與臺積電創(chuàng)始人張忠謀的早期會面中表示:
“1997 年,當張忠謀和我相遇時,Nvidia 那一年的營收為 2700 萬美元。我們有 100 個人,然后我們見面了。你們可能不相信這一點,但張忠謀曾經打銷售電話。你以前經常上門拜訪,對嗎?你會進來拜訪客戶,我會向張忠謀解釋英偉達做了什么,你知道,我會解釋我們的芯片尺寸需要有多大,而且每年都會變得越來越大而且更大。你會定期回到英偉達,讓我再講一遍這個故事,以確保我需要那么多晶圓,明年,我們開始與臺積電合作。Nvidia 做到了,我認為是 1.27 億,然后,從那時起,我們每年增長近 100%,直到現在?!?/p>
張忠謀一開始不太相信英偉達需要這么多晶圓,但黃仁勛堅持了下來,并利用了當時游戲行業(yè)的巨大增長。英偉達通過大膽供應而取得了巨大成功,而且通常情況下他們都是成功的。當然,他們必須時不時地減記價值數十億美元的庫存,但他們仍然從超額訂購中獲得了積極的收益。
如果某件事有效,為什么要改變它?
最近這一次,英偉達又搶走了SK海力士、三星、美光HBM的大部分供應,這是GPU和AI芯片正在追逐的又一個核心。英偉達向所有 3 個 HBM 供應商下了非常大的訂單,并且正在擠出除Broadcom/Google之外的其他所有人的供應。
此外,Nvidia 還已經買下了臺積電 CoWoS 的大部分供應。但他們并沒有就此止步,他們還出去考察并買下了Amkor的產能。
Nvidia 還利用了 HGX 板或服務器所需的許多下游組件,例如重定時器、DSP、光學器件等。拒絕英偉達要求的供應商通常會受到“胡蘿卜加大棒”的對待。一方面,他們可以從英偉達那里獲得看似難以想象的訂單,另一方面,他們也面臨著被英偉達現有供應鏈所設計的問題。他們僅在供應商至關重要并且無法設計出來或多源時才使用提交和不可取消。
每個供應商似乎都認為自己是人工智能贏家,部分原因是英偉達從他們那里訂購了大量訂單,而且他們都認為自己贏得了大部分業(yè)務,但實際上,英偉達的發(fā)展速度是如此之快,甚至已經超出了他們的想想。
回到上面的市場動態(tài),雖然 Nvidia 的目標是明年數據中心銷售額超過 700 億美元,但只有 Google 擁有足夠的上游產能,能夠擁有超過 100 萬個規(guī)模的有意義的單元。即使AMD最新調整了產能,他們在AI方面的總產能仍然非常溫和,最高只有幾十萬臺。
精明的商業(yè)計劃
眾所周知,Nvidia 正在利用 GPU 的巨大需求,利用 GPU 向客戶進行追加銷售和交叉銷售。供應鏈上的多位消息人士告訴semianalysis,英偉達正在基于多種因素對企業(yè)進行優(yōu)先分配,這些因素包括但不限于:多方采購計劃、計劃生產自己的人工智能芯片、購買英偉達的 DGX、網卡、交換機和光學器件等。
Semianalysis指出,CoreWeave、Equinix、Oracle、AppliedDigital、Lambda Labs、Omniva、Foundry、Crusoe Cloud 和 Cirrascale 等基礎設施提供商所面臨的分配的產品數量遠比亞馬遜等大型科技公司更接近其潛在需求。
據semianalysis所說,事實上,Nvidia 的捆綁銷售非常成功,盡管之前是一家規(guī)模很小的光收發(fā)器供應商,但他們的業(yè)務在 1 季度內增長了兩倍,并有望在明年實現價值超過 10 億美元的出貨量。這遠遠超過了 GPU 或網絡芯片業(yè)務的增長率。
而且,這些策略是經過深思熟慮的,例如目前,在 Nvidia 系統(tǒng)上通過可靠的 RDMA/RoCE 實現 3.2T 網絡的唯一方法是使用 Nvidia 的 NIC。這主要是因為Intel、AMD、Broadcom缺乏競爭力,仍然停留在200G。
在Semianalysis開來,Nvidia正在趁機管理其供應鏈,使其 400G InfiniBand NIC 的交貨時間明顯低于 400G 以太網 NIC。請記住,兩個 NIC (ConnectX-7) 的芯片和電路板設計是相同的。這主要取決于 Nvidia 的 SKU 配置,而不是實際的供應鏈瓶頸。這迫使公司購買 Nvidia 更昂貴的 InfiniBand 交換機,而不是使用標準以太網交換機。當您購買具有 NIC 模式 Bluefield-3 DPU 的 Spectrum-X 以太網網絡時,Nvidia 會破例。
事情還不止于此,看看供應鏈對 L40 和 L40S GPU 的瘋狂程度就知道了。
Semianalysis透露,為了讓那些原始設備制造商贏得更多的 H100 分配,Nvidia 正在推動 L40S的銷售,這些 OEM 也面臨著購買更多 L40S 的壓力,進而獲得更好的 H100 分配。這與 Nvidia 在 PC 領域玩的游戲相同,筆記本電腦制造商和 AIB 合作伙伴必須購買大量的 G106/G107(中端和低端 GPU),才能為更稀缺、利潤率更高的 G102/G104 獲得良好的分配(高端和旗艦 GPU)。
臺灣供應鏈中的許多人都被認為 L40S 比 A100 更好,因為它的 FLOPS 更高。需要明確的是,這些 GPU 不適合 LLM 推理,因為它們的內存帶寬不到 A100 的一半,而且沒有 NVLink。這意味著除了非常小的模型之外,以良好的總體擁有成本在它們上運行LLM幾乎是不可能的。高批量大?。℉igh batch sizes)具有不可接受的令牌/秒/用戶(tokens/second/user),使得理論上的 FLOPS 在實踐中對于 LLM 毫無用處。
Semianalysis說,OEM 廠商也面臨著支持 Nvidia 的 MGX 模塊化服務器設計平臺的壓力。這有效地消除了設計服務器的所有艱苦工作,但同時也使其商品化,創(chuàng)造了更多競爭并壓低了 OEM 的利潤。戴爾、HPE 和聯想等公司顯然對 MGX 持抵制態(tài)度,但臺灣的低成本公司,如超微、廣達、華碩、技嘉、和碩和華擎,正在急于填補這一空白,并將低成本“企業(yè)人工智能”商品化。
當然,這些參與 L40S 和 MGX 游戲的 OEM/ODM 也獲得了 Nvidia 主線 GPU 產品更好的分配。
雖然英偉達正在面臨著芯片廠商和系統(tǒng)廠商自研芯片的夾擊。但這些布局,似乎短期內都能讓英偉達高枕無憂。他們依然會是AI時代最成功的“賣鏟人”。
更多精彩內容歡迎點擊>>電子技術應用<<