8月11日消息,AI這兩年來成為市場熱點,并且也成為大國競爭的關(guān)鍵技術(shù)之一,NVIDIA的GPU雖然更強大,但在存儲芯片上也要依賴韓國廠商,因為HBM內(nèi)存逐漸卡住AI脖子。
HBM(High Bandwidth Memory)是一種高帶寬內(nèi)存標(biāo)準(zhǔn),主要用于滿足日益增長的計算需求。
相比傳統(tǒng)內(nèi)存,HBM可以提供更高的數(shù)據(jù)傳輸速率和更低的延遲。
在這個領(lǐng)域,率先量產(chǎn)的是SK海力士,美國也有美光公司開始量產(chǎn),內(nèi)存一哥三星反而是最慢的。
HBM最新標(biāo)準(zhǔn)已經(jīng)到了HBM4,但市場上當(dāng)前的主力還是HBM3E,堆棧層數(shù)正在從8層提升到12層,單顆容量輕松達到36GB,而SK海力士憑借技術(shù)優(yōu)勢可以做到16層堆棧,容量48GB,今年就能供貨。
得益于市場優(yōu)勢,SK海力士HBM事業(yè)部高管崔俊龍Choi Joon-yong日前在采訪中表示,來自終端用戶對AI的需求非常龐大,而且非常穩(wěn)固。
該公司也預(yù)測到2030年之前,HBM市場將以每年30%的增長率發(fā)展,市場規(guī)模將達到數(shù)百億美元。
HBM內(nèi)存也逐漸成為韓國芯片出口的王牌,去年對美國的芯片總出口為107億美元,其中HBM就占了存儲芯片的18%。
NVIDIA、AMD及Intel三家主要的AI芯片巨頭當(dāng)前及下一代的AI芯片也會進一步提升HBM顯存的容量和速度,其中AMD明年的主力產(chǎn)品MI400將使用高達432GB的HBM4,帶寬19.6TB/s,對比MI350系列的288GB HEM3E、8TB/s分別增加50%、145%,比競爭對手的產(chǎn)品也高出50%。
值得一提的是,HBM也成為國內(nèi)AI芯片發(fā)展的關(guān)鍵限制因素之一,國內(nèi)也有公司在自研HBM芯片,但技術(shù)水平落后SK海力士一兩代,HBM3e、HBM4量產(chǎn)還要等幾年時間。
不過華為即將在未來兩天公布一項新技術(shù),這項成果或能降低中國AI推理對HBM(高帶寬內(nèi)存)技術(shù)的依賴,提升國內(nèi)AI大模型推理性能,完善中國AI推理生態(tài)的關(guān)鍵部分。