越來越多的證據(jù)表明,人工智能芯片的供應(yīng)緊張問題正有所緩和,一些購買了大量英偉達(dá)H100 80GB處理器的公司現(xiàn)在正試圖轉(zhuǎn)售這些處理器。
目前,據(jù)悉用于人工智能(AI)和高性能計算(HPC)應(yīng)用的英偉達(dá)H100 GPU的交付周期已從8-11個月大幅縮短至3-4個月。
據(jù)報道,一些公司正在轉(zhuǎn)售他們的H100 GPU或減少訂單,因?yàn)檫@些芯片的稀缺性開始下降,并且維護(hù)這些尚未使用庫存的成本也很高。
此類情形與一年前相比出現(xiàn)重大轉(zhuǎn)變,當(dāng)時獲得英偉達(dá)的Hopper GPU是一個重大挑戰(zhàn)。
目前人工智能處理器供應(yīng)短缺的緩解還表現(xiàn)在,從AWS、谷歌云和微軟Azure等云服務(wù)提供商租用英偉達(dá)的H100 GPU變得更加容易了。
例如,AWS推出了一項(xiàng)新服務(wù),允許客戶安排更短時間的GPU租賃,解決了之前芯片可用性的問題,這導(dǎo)致獲得人工智能芯片的等待時間在減少。
盡管芯片可得性有所提高,交貨時間也大大縮短,人工智能芯片的需求仍然遠(yuǎn)遠(yuǎn)超過供應(yīng)。
特別是那些自己開發(fā)并培訓(xùn)大型語言模型的公司仍然面臨供應(yīng)問題,很大程度上是因?yàn)樗麄冃枰腉PU數(shù)量過于龐大。這些公司在獲得所需處理器或容量方面仍面臨著幾個月的延遲。
也正因如此,英偉達(dá)H100和其他處理器的價格并沒有下降,該公司也繼續(xù)享有高利潤率。
不過,隨著諸多英偉達(dá)處理器的替代品接連問世,例如AMD和AWS的處理器,該市場可能會迎來更加平衡的局面。
還有一點(diǎn)原因是,各公司對人工智能處理器的支出也變得更加謹(jǐn)慎了。
無論如何,就目前而言,市場對人工智能芯片的需求依然強(qiáng)勁,并且隨著大型語言模型越來越大,對計算性能的需求也越來越高。