繪圖芯片大廠NVIDIA近來成了鎂光燈的焦點所在,盡管該公司業(yè)已致力于繪圖處理器(GPU)加速運算超過10來年有余,但直到1年前,科技業(yè)界才真正轉(zhuǎn)而聚焦在這股運算趨勢上。在此之前,業(yè)界仰賴的是通用型的微處理器,也就是由英特爾(Intel)的芯片所主導,然而,隨著摩爾定律減緩,資料中心亟需替代方案好進一步改善其運算效能。
相較于英特爾,NVIDIA另辟蹊徑、采取了完全不一樣的途徑,與其單獨仰賴晶體管倍增的摩爾定律,NVIDIA開發(fā)出一整套系統(tǒng),藉此在不同層次上提供先進運算,包括了處理器架構(gòu)、系統(tǒng)軟件、算法以及應(yīng)用等。雖然NVIDIA的老本行電競領(lǐng)域正觀察到強勁的市場增長,但受惠于人工智能(AI)革命所驅(qū)動的資料中心爆炸性成長,更是NVIDIA讓人另眼相看之處。
NVIDIA的GPU加速器從HPC擴張到云端服務(wù)領(lǐng)域
NVIDIA從5年前開始便替旗下GPU探索通用型GPU的商機所在,這乃是著眼于GPU具有遠比CPU來得更快的運算能力。這些GPU先前則為了試行先進模擬被用在高效能運算(high-performance computing;HPC)系統(tǒng)上,這些HPC系統(tǒng)通常用在預(yù)測性模型上,藉此解決復雜的問題,該系統(tǒng)能夠快速處理大量資料。
根據(jù)NVIDIA旗下資深副總裁Shankar Trivedi表示,1顆以Pascal架構(gòu)為基礎(chǔ)的Tesla P100 GPU平臺便足以取代掉19個機架的純CPU服務(wù)器系統(tǒng),預(yù)計可以節(jié)省1,300萬美元的成本,而且這樣的成本撙節(jié)還不僅僅來自于服務(wù)器數(shù)量的減少,更可以減少功耗與節(jié)省空間,對客戶而言均省下相當?shù)呢摀?/p>
GPU加速器所掀起的風潮促使了眾多的高效能運算中心爭相采用AI,雖然大多數(shù)業(yè)者選擇NVIDIA的GPU作為加速器之用,但也有部分業(yè)者導入賽靈思(Xilinx)或英特爾旗下Altera的FPGA芯片作為加速器之用。隨后到了2016年,GPU的使用也擴張到HPC以外的云端服務(wù)供應(yīng)商與企業(yè)端,而NVIDIA的資料中心部門營收也因此呈現(xiàn)每季3級跳、超過4億美元規(guī)模。
從財報資料來看,過去4年來,NVIDIA的電競游戲部門已經(jīng)增長高達40%,在此同時,隨著PC電競需求的增長,該公司也主導著高階GPU市場。同樣地,在資料中心市場方面,也觀察到類似的趨勢,隨著云端服務(wù)供應(yīng)業(yè)者逐漸采用GPU應(yīng)用在AI任務(wù)上例如影像辨識或語音辨識等,GPU加速運算市場需求從2017會計年度起開始攀升,越來越多的領(lǐng)域采用GPU作為其AI解決方案,而NVIDIA正是這領(lǐng)域的領(lǐng)先者。
NVIDIA的資料中心部門營收在2018會計年度第1季年增186%、季增38%達到4.09億美元規(guī)模,使得資料中心部門對于公司的營收貢獻度僅僅亞于電競游戲部門,成為NVIDIA旗下第二大部門,預(yù)估長期而言該部門貢獻度可望提升至30%。先前使用英特爾FPGA芯片加速器的微軟(Microsoft),近來也采購NVIDIA的Tesla P100和P40 GPU作為其Azure云端平臺加速運算之用。
NVIDIA的GPU加速器協(xié)助云端業(yè)者進行深度學習任務(wù)
誠然,GPU加速運算的確幫助超級計算機更有效率地解決了許多復雜的問題,而透過GPU所節(jié)省的成本與時間也因此更進一步鼓勵許多云端業(yè)者,藉由使用NVIDIA的GPU來進行各自的深度學習任務(wù)。一般來說,深度學習可分兩階段,第一階段是訓練,深度神經(jīng)網(wǎng)絡(luò)透過大量資料來訓練,而第二階段便是推論,計算機透過訓練所得來應(yīng)對現(xiàn)實世界的回應(yīng)。
以目前來說,NVIDIA的GPU被亞馬遜(Amazon)用來作為其數(shù)碼助理的訓練之用、也被微軟用來作為影像識別的訓練之用、另外也被Google和百度用來作為語音指令的深度學習訓練之用。有監(jiān)于GPU能夠縮短深度學習訓練的時間從好幾個月縮短到幾周內(nèi)即可完成,上述亞馬遜、微軟、Google和百度等均使用NVIDIA的GPU來訓練自家的深度神經(jīng)網(wǎng)絡(luò)。
NVIDIA執(zhí)行長黃仁勛日前在財報法說會上曾經(jīng)表示,其實AI目前還在早期階段,而且尚未被制造業(yè)者、汽車業(yè)者和其它業(yè)者所大規(guī)模采用。NVIDIA目前仍在探索深度學習和AI各種不同的應(yīng)用可行性。不過,NVIDIA目前正快速搶進、寄望成為AI革命背后的關(guān)鍵推手,該公司從2012年以來,已明顯地改善了旗下GPU生態(tài)系統(tǒng),NVIDIA已經(jīng)擴增AI應(yīng)用達4倍之多,從108項到460項,而且也積極擴展其開發(fā)者基礎(chǔ)達10倍之多,從原先大約5萬人到目前超過50萬人之多。
過去2年來,超大規(guī)模(hyperscale)資料中心客戶(例如Google或亞馬遜),從NVIDIA資料中心部門里微不足道的客戶組成增長到該部門成長最為快速的客戶群,如此快速的增長,其實是導因于云端運算的三大支柱所驅(qū)動的:
其一,云端業(yè)者導入GPU作為內(nèi)部深度學習訓練任務(wù)之用;其二,云端業(yè)者亟需深度學習推論任務(wù)所要求的運算能力;其三,云端業(yè)者也開始在云端服務(wù)中提供GPU運算服務(wù),包括Google、百度、騰訊、和IBM等均讓用戶使用NVIDIA的Tesla GPU和深度學習云端服務(wù)。
NVIDIA的競爭對手 Google和英特爾分別以TPU和ASIC、FPGA尬場
NVIDIA目前可說是在AI領(lǐng)域里的市場領(lǐng)先者,在深度學習訓練方面幾乎占據(jù)了近乎寡占優(yōu)勢,如今,該公司正積極開發(fā)各種解決方案、企圖挺進深度學習的推論領(lǐng)域。不過,AI市場上的強勁增長商機也同時吸引了其它大型科技業(yè)者的青睞,包括Google、英特爾等在內(nèi)的高科技業(yè)者均企圖與NVIDIA一較高下。
Google甫于5月底揭露了該公司第二代的TPU(tensor processing units),聲稱可以同時處理深度學習的訓練和推論這兩大任務(wù),至于Google原先第一代的TPU只能執(zhí)行推論任務(wù)。在此同時,Google表示,第二代的TPU執(zhí)行深度學習的訓練任務(wù)遠比NVIDIA的GPU來得更令人滿意,因此,Google計劃免費提供1,000顆云端TPU給Open AI的研究者好讓其Google Cloud更具有競爭力。
然而,即使就效能表現(xiàn)而言,Google的TPU當真遠比NVIDIA的GPU來得更具有競爭力,但Google仍不太可能會成為NVIDIA的直接競爭對手,畢竟,Google的TPU基本上并不打算對外銷售,只計劃提供公司內(nèi)部使用,也就是說,對NVIDIA的沖擊最多在于Google本身可能減少對NVIDIA的GPU采購。
不過,上述Google免費提供TPU的盤算,在于企圖把TPU用戶鎖在Google自家的TensorFlow AI架構(gòu)里,相對地,NVIDIA的GPU卻是可以透過大多數(shù)的云端平臺接取,也能運行大多數(shù)的AI架構(gòu),包括Caffe、Torch和PaddlePaddle。
至于在英特爾方面,英特爾先前收購了AI新創(chuàng)企業(yè)Nervana Systems,該公司開發(fā)了一種ASIC芯片,稱為Nervana Engine,號稱其運算能力比起GPU高出10倍。英特爾收歸旗下后,計劃將此ASIC集成進入自家的Knights Mill Xeon Phil處理器,作為深度學習之用,預(yù)計在2017年下半發(fā)表。
在此同時,英特爾還打算集成Altera的FPGA芯片到旗下的服務(wù)器處理器當中。值得注意的是,相較于耗電的GPU而言,F(xiàn)PGA功耗來得比較低,從云端資料中心的角度出發(fā),可以省下明顯的成本支出,然而,有監(jiān)于FPGA需要在硬件和軟件方面的專家來進行程序化,相對而言,困難度較高。雖然微軟目前正在導入FPGA作為深度學習的訓練之用,但該公司也開始采用NVIDIA的GPU進行AI任務(wù)。
綜上所述,無論是GPU、TPU、ASIC還是FPGA等,并沒有一種放諸四海皆好用的AI應(yīng)用芯片,然不可諱言的是,NVIDIA目前正享有在AI領(lǐng)域的先發(fā)者優(yōu)勢,但隨著未來AI市場的進化以及競爭對手的產(chǎn)品強化,NVIDIA勢必將面臨激烈挑戰(zhàn)。