《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > AMD MI300X即將大量出貨:有望搶下7%AI市場

AMD MI300X即將大量出貨:有望搶下7%AI市場

2024-03-19
來源:快科技
關(guān)鍵詞: AMD MI300X AI芯片

雖然NVIDIA目前仍是AI芯片市場的霸主,不過年中開始,挑戰(zhàn)者AMD的最強AI芯片MI300X也即將大批量出貨,可能將會搶下部分NVIDIA的市場,并再次影響從晶圓代工到服務(wù)器的AI產(chǎn)品供應(yīng)鏈。

根據(jù)日本瑞穗證券報告,在目前的AI芯片市場,NVIDIA的市占率高達95%,“遠比AMD和英特爾的份額相加還要高”。

NVIDIA在2023年第四季僅數(shù)據(jù)中心業(yè)務(wù)的營收就高達184億美元,較前一年同期增加了409%。

但隨著AMD的最強AI芯片MI300X的出貨,或?qū)屜翹VIDIA的部分市場份額。

據(jù)業(yè)內(nèi)人士透露,AMD MI300X芯片目前已小量出貨,微軟等正在測試。這款芯片下半年預(yù)計會有大量出貨,主要買家是微軟等有大型數(shù)據(jù)中心的公司,“5或6月開始,就會有一批拉貨潮”。

1.jpg

據(jù)悉,微軟、Meta、甲骨文、OpenAI等大廠都會采購這款芯片,美超威、華碩、技嘉、鴻佰科技、英業(yè)達、云達等服務(wù)器廠也在設(shè)計解決方案。

在去年的第三財季會議上,AMD CEO蘇姿豐表示,數(shù)據(jù)中心收入2024年可達20億美元,這代表MI300會是AMD史上最快營收達10億美元的產(chǎn)品。

AMD反擊NVIDIA的武器,是利用更高容量的高帶寬內(nèi)存(HBM)和先進封裝提高AI運算效率。

AI芯片挑戰(zhàn)在于,要在內(nèi)存和處理器間搬動大量數(shù)據(jù),因此AMD采用臺積電的先進封裝技術(shù),將原本放在芯片外的內(nèi)存直接搬進芯片,讓大量數(shù)據(jù)直接在芯片內(nèi)就能從內(nèi)存搬到處理器計算。

在此前的發(fā)布會上,AMD CEO蘇姿豐就表示,只用一顆芯片,就能執(zhí)行數(shù)據(jù)量高達40GB的AI模型,而這顆芯片最高可執(zhí)行80GB 的AI模型。

根據(jù)官方公布的數(shù)據(jù)顯示,MI300X的HBM容量高達192GB,比NVIDIAH100 SXM芯片的80GB高了一倍多,多項算力測試性能也高于NVIDIAH100 SXM芯片。

不過,隨后NVIDIA也拿出數(shù)據(jù)來表示,輝達H100芯片性能比MI300X明顯更快,并公布測試細節(jié),讓使用者自行比較兩顆芯片性能。

雙方之間競爭的火藥味明顯上升。

對于AMD來說,除了MI300X的產(chǎn)品優(yōu)勢之外,它還有著另一大優(yōu)勢,那就是客戶不希望AI芯片市場被NVIDIA獨占。

據(jù)業(yè)界人士觀察,“AI芯片問題不是產(chǎn)能不夠,是NVIDIA賣的很貴”。

微軟等大客戶不希望市場只有一家供應(yīng)商很正常,但自研芯片又無法像專業(yè)的半導(dǎo)體公司,在性能上保持領(lǐng)先,自然希望有新的供應(yīng)商出現(xiàn),不僅性能能和NVIDIA匹敵,價格還更具優(yōu)勢。

根據(jù)富國銀行此前的預(yù)測,AMD雖然在2023年的AI芯片的營收僅為4.61億美元,但是2024年將有望增長到21億美元,將有望拿到4.2%的市場份額。Intel也可能拿到將近2%的市場份額。

這將導(dǎo)致NVIDIA的市場份額可能將小幅下滑到94%。

2.jpg

不過,根據(jù)AMD CEO蘇姿豐在1月30日的電話會議上公布的數(shù)據(jù)顯示,AMD在2023年四季度的AI芯片營收已經(jīng)超越此前預(yù)測的4億美元,同時2024年AMD的AI芯片營收預(yù)計也將達到35億美元,高于先前預(yù)測的20億美元。

如果AMD的預(yù)測數(shù)據(jù)準確的話,那么其2024年在AI芯片市場的份額有望進一步提高到7%左右。

然而NVIDIA也不會坐等競爭對手壯大。

3月18日,NVIDIA即將召開GTC2024大會,屆時將會正式發(fā)布全新的AI芯片H200,將會把HMB內(nèi)存從上一代的80GB提升至141GB,并且采用的是速率更快的HBM3E規(guī)格。

此外,NVIDIA今年還將提出更強的B100芯片,其性能將會達到H200的兩倍。AMD明年也會推出新一代的采用HBM3E內(nèi)存的AI芯片MI350進行應(yīng)對。

供應(yīng)鏈方面,隨著NVIDIA和AMD對于HBM容量及規(guī)格的需求提升,HBM的供應(yīng)也將持續(xù)供不應(yīng)求。目前兩大HBM供應(yīng)商——SK海力士和美光的今年的HBM產(chǎn)能都已經(jīng)銷售一空。

與此同時,臺積電的先進封裝產(chǎn)能也仍面臨供應(yīng)緊張的局面,因為不僅AI芯片需要先進封裝產(chǎn)能,HBM芯片的制造也需要先進封裝產(chǎn)能。

對此,臺積電在2023年啟動了其CoWoS先進封裝產(chǎn)能大擴產(chǎn)計劃。

近日業(yè)內(nèi)傳出,臺積電本月對臺系設(shè)備廠再度追單,交機時間預(yù)計將在今年第四季,因此,今年年底臺積電CoWoS月產(chǎn)能將有機會比其原定的倍增目標的3.5萬片進一步提高到4萬片以上。

臺積電更是和SK海力士結(jié)盟,大力布局HBM。

業(yè)界人士預(yù)測,接下來AI芯片會越來越多元,從高階一路到中低階,配合從模型訓練到AI邊緣計算需求。

比如,上個月美國人工智能初創(chuàng)公司Groq最新推出的面向云端大模型的推理芯片引發(fā)了業(yè)內(nèi)的廣泛關(guān)注,該芯片采用了全新的Tensor Streaming Architecture (TSA) 架構(gòu),以及擁有超高帶寬的SRAM,從而使得其對于大模型的推理速度提高了10倍以上,甚至超越了NVIDIA的GPU。這也使得一些客戶對于Groq的AI芯片產(chǎn)生的興趣。

近日,新創(chuàng)AI芯片公司Cerebras Systems近日推出了其第三代的晶圓級AI芯片WSE-3,具有125 FP16 PetaFLOPS的峰值性能,相比上一代的WSE-2提升了1倍,將用于訓練業(yè)內(nèi)一些最大的人工智能模型。

與此同時,Cerebras還推出了基于WSE-3的CS-3超級計算機,可用于訓練參數(shù)高達24萬億的人工智能模型,這比相比基于WSE-2和其他現(xiàn)代人工智能處理器的超級計算機有了重大飛躍。

另外,如果只是用來推理,X86和Arm處理器也有機會拿到一定的市場。


weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。