《電子技術(shù)應用》
您所在的位置:首頁 > 模拟设计 > 业界动态 > 英伟达坚持HBM:SRAM应用于AI芯片容量瓶颈是硬伤

英伟达坚持HBM:SRAM应用于AI芯片容量瓶颈是硬伤

2026-01-08
來源:IT之家
關(guān)鍵詞: 英伟达 HBM SRAM CES2026

1 月 8 日消息,科技媒體 Tom's Hardware 今天(1 月 8 日)發(fā)布博文,報道稱在 CES 2026 展會期間的問答環(huán)節(jié),英偉達首席執(zhí)行官黃仁勛針對“是否用更廉價的 SRAM 取代昂貴的 HBM”這一行業(yè)熱點進行了回應。

注:SRAM 全稱為 Static Random Access Memory,直譯為靜態(tài)隨機存取存儲器,是高速小容量的靜態(tài)緩存,基于觸發(fā)器,速度極快但成本高、密度低;HBM 是超高帶寬、大容量的 3D 堆疊式主存(基于 DRAM),通過垂直堆疊實現(xiàn)超高帶寬,功耗低、容量大,主要用于 AI / GPU,兩者定位不同,SRAM 是片上緩存,HBM 是系統(tǒng)級高帶寬內(nèi)存,共同服務 AI 算力需求。

AI 行業(yè)當前正積極尋找降低成本的途徑。隨著 SRAM 加速器、GDDR 推理方案以及開放權(quán)重模型的興起,業(yè)界出現(xiàn)了一種聲音,認為這些低成本方案可以緩解對英偉達昂貴組件的依賴。

特別是在基準測試(Benchmark)和受控演示中,SRAM 憑借極高的訪問速度和無延遲特性,展現(xiàn)出了誘人的性能優(yōu)勢,甚至被視為 HBM 的潛在替代者。

黃仁勛并未否認 SRAM 的速度優(yōu)勢。他直言:“對于某些特定工作負載,SRAM 快得驚人?!比欢?,一旦進入生產(chǎn)級 AI 系統(tǒng),SRAM 的優(yōu)勢便會因容量瓶頸而崩塌。

黃仁勛指出,SRAM 的容量增長速度遠跟不上現(xiàn)代模型的需求,其可容納的模型規(guī)模僅為 HBM 系統(tǒng)的百分之一。在模型因上下文增加或功能擴展而溢出 SRAM 時,系統(tǒng)被迫調(diào)用外部內(nèi)存,導致效率優(yōu)勢瞬間消失。

黃仁勛進一步剖析了 AI 工作負載的不可預測性?,F(xiàn)代 AI 模型形態(tài)各異,包含混合專家模型(MOE)、多模態(tài)任務、擴散模型及自回歸模型等。

這些架構(gòu)對硬件的壓力點截然不同:有的依賴顯存容量,有的依賴互連帶寬(NVLink),且需求時刻在變。如果硬件針對某一特定模式(如純 SRAM)過度優(yōu)化,一旦工作負載發(fā)生變化,昂貴的芯片就會閑置。

基于此,英偉達堅持選擇 HBM 路線。黃仁勛認為,在共享數(shù)據(jù)中心中,靈活性是決定經(jīng)濟效益的關(guān)鍵。即使某種專用硬件在 5%-10% 的任務中表現(xiàn)極致,但如果無法處理其余 90% 的通用任務,就會造成巨大的資源浪費。

相比之下,HBM 方案雖然物料成本更高,但能適應不斷變化的算法和模型架構(gòu),確保硬件在數(shù)周甚至數(shù)月的運營周期內(nèi)保持高利用率。

針對“開放模型是否會削弱英偉達壁壘”的提問,黃仁勛表示,開放并不意味著降低基礎設施要求。隨著開放模型整合更長的上下文和更多模態(tài),其內(nèi)存占用同樣會激增。

英偉達愿意承擔高昂的 HBM 成本和復雜的系統(tǒng)設計,正是為了保留“可選性”(Optionality),既防止客戶被鎖定在狹窄的性能范圍內(nèi),也保護自身硬件免受模型架構(gòu)快速迭代的沖擊。


subscribe.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。