《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > Google 英特爾以“芯”尬場 欲與NVIDIA一較高下

Google 英特爾以“芯”尬場 欲與NVIDIA一較高下

2017-07-24
關(guān)鍵詞: 英特爾 NVIDIA 摩爾定律 芯片

TIM截圖20170723195710.jpg

繪圖芯片大廠NVIDIA近來成了鎂光燈的焦點(diǎn)所在,盡管該公司業(yè)已致力于繪圖處理器(GPU)加速運(yùn)算超過10來年有余,但直到1年前,科技業(yè)界才真正轉(zhuǎn)而聚焦在這股運(yùn)算趨勢上。在此之前,業(yè)界仰賴的是通用型的微處理器,也就是由英特爾(Intel)的芯片所主導(dǎo),然而,隨著摩爾定律減緩,資料中心亟需替代方案好進(jìn)一步改善其運(yùn)算效能。

相較于英特爾,NVIDIA另辟蹊徑、采取了完全不一樣的途徑,與其單獨(dú)仰賴晶體管倍增的摩爾定律,NVIDIA開發(fā)出一整套系統(tǒng),藉此在不同層次上提供先進(jìn)運(yùn)算,包括了處理器架構(gòu)、系統(tǒng)軟件、算法以及應(yīng)用等。雖然NVIDIA的老本行電競領(lǐng)域正觀察到強(qiáng)勁的市場增長,但受惠于人工智能(AI)革命所驅(qū)動的資料中心爆炸性成長,更是NVIDIA讓人另眼相看之處。

NVIDIA的GPU加速器從HPC擴(kuò)張到云端服務(wù)領(lǐng)域

NVIDIA從5年前開始便替旗下GPU探索通用型GPU的商機(jī)所在,這乃是著眼于GPU具有遠(yuǎn)比CPU來得更快的運(yùn)算能力。這些GPU先前則為了試行先進(jìn)模擬被用在高效能運(yùn)算(high-performance computing;HPC)系統(tǒng)上,這些HPC系統(tǒng)通常用在預(yù)測性模型上,藉此解決復(fù)雜的問題,該系統(tǒng)能夠快速處理大量資料。

根據(jù)NVIDIA旗下資深副總裁Shankar Trivedi表示,1顆以Pascal架構(gòu)為基礎(chǔ)的Tesla P100 GPU平臺便足以取代掉19個機(jī)架的純CPU服務(wù)器系統(tǒng),預(yù)計可以節(jié)省1,300萬美元的成本,而且這樣的成本撙節(jié)還不僅僅來自于服務(wù)器數(shù)量的減少,更可以減少功耗與節(jié)省空間,對客戶而言均省下相當(dāng)?shù)呢?fù)擔(dān)。

GPU加速器所掀起的風(fēng)潮促使了眾多的高效能運(yùn)算中心爭相采用AI,雖然大多數(shù)業(yè)者選擇NVIDIA的GPU作為加速器之用,但也有部分業(yè)者導(dǎo)入賽靈思(Xilinx)或英特爾旗下Altera的FPGA芯片作為加速器之用。隨后到了2016年,GPU的使用也擴(kuò)張到HPC以外的云端服務(wù)供應(yīng)商與企業(yè)端,而NVIDIA的資料中心部門營收也因此呈現(xiàn)每季3級跳、超過4億美元規(guī)模。

從財報資料來看,過去4年來,NVIDIA的電競游戲部門已經(jīng)增長高達(dá)40%,在此同時,隨著PC電競需求的增長,該公司也主導(dǎo)著高階GPU市場。同樣地,在資料中心市場方面,也觀察到類似的趨勢,隨著云端服務(wù)供應(yīng)業(yè)者逐漸采用GPU應(yīng)用在AI任務(wù)上例如影像辨識或語音辨識等,GPU加速運(yùn)算市場需求從2017會計年度起開始攀升,越來越多的領(lǐng)域采用GPU作為其AI解決方案,而NVIDIA正是這領(lǐng)域的領(lǐng)先者。

NVIDIA的資料中心部門營收在2018會計年度第1季年增186%、季增38%達(dá)到4.09億美元規(guī)模,使得資料中心部門對于公司的營收貢獻(xiàn)度僅僅亞于電競游戲部門,成為NVIDIA旗下第二大部門,預(yù)估長期而言該部門貢獻(xiàn)度可望提升至30%。先前使用英特爾FPGA芯片加速器的微軟(Microsoft),近來也采購NVIDIA的Tesla P100和P40 GPU作為其Azure云端平臺加速運(yùn)算之用。

NVIDIA的GPU加速器協(xié)助云端業(yè)者進(jìn)行深度學(xué)習(xí)任務(wù)

誠然,GPU加速運(yùn)算的確幫助超級計算機(jī)更有效率地解決了許多復(fù)雜的問題,而透過GPU所節(jié)省的成本與時間也因此更進(jìn)一步鼓勵許多云端業(yè)者,藉由使用NVIDIA的GPU來進(jìn)行各自的深度學(xué)習(xí)任務(wù)。一般來說,深度學(xué)習(xí)可分兩階段,第一階段是訓(xùn)練,深度神經(jīng)網(wǎng)絡(luò)透過大量資料來訓(xùn)練,而第二階段便是推論,計算機(jī)透過訓(xùn)練所得來應(yīng)對現(xiàn)實世界的回應(yīng)。

以目前來說,NVIDIA的GPU被亞馬遜(Amazon)用來作為其數(shù)碼助理的訓(xùn)練之用、也被微軟用來作為影像識別的訓(xùn)練之用、另外也被Google和百度用來作為語音指令的深度學(xué)習(xí)訓(xùn)練之用。有監(jiān)于GPU能夠縮短深度學(xué)習(xí)訓(xùn)練的時間從好幾個月縮短到幾周內(nèi)即可完成,上述亞馬遜、微軟、Google和百度等均使用NVIDIA的GPU來訓(xùn)練自家的深度神經(jīng)網(wǎng)絡(luò)。

NVIDIA執(zhí)行長黃仁勛日前在財報法說會上曾經(jīng)表示,其實AI目前還在早期階段,而且尚未被制造業(yè)者、汽車業(yè)者和其它業(yè)者所大規(guī)模采用。NVIDIA目前仍在探索深度學(xué)習(xí)和AI各種不同的應(yīng)用可行性。不過,NVIDIA目前正快速搶進(jìn)、寄望成為AI革命背后的關(guān)鍵推手,該公司從2012年以來,已明顯地改善了旗下GPU生態(tài)系統(tǒng),NVIDIA已經(jīng)擴(kuò)增AI應(yīng)用達(dá)4倍之多,從108項到460項,而且也積極擴(kuò)展其開發(fā)者基礎(chǔ)達(dá)10倍之多,從原先大約5萬人到目前超過50萬人之多。

過去2年來,超大規(guī)模(hyperscale)資料中心客戶(例如Google或亞馬遜),從NVIDIA資料中心部門里微不足道的客戶組成增長到該部門成長最為快速的客戶群,如此快速的增長,其實是導(dǎo)因于云端運(yùn)算的三大支柱所驅(qū)動的:

其一,云端業(yè)者導(dǎo)入GPU作為內(nèi)部深度學(xué)習(xí)訓(xùn)練任務(wù)之用;其二,云端業(yè)者亟需深度學(xué)習(xí)推論任務(wù)所要求的運(yùn)算能力;其三,云端業(yè)者也開始在云端服務(wù)中提供GPU運(yùn)算服務(wù),包括Google、百度、騰訊、和IBM等均讓用戶使用NVIDIA的Tesla GPU和深度學(xué)習(xí)云端服務(wù)。

NVIDIA的競爭對手 Google和英特爾分別以TPU和ASIC、FPGA尬場

NVIDIA目前可說是在AI領(lǐng)域里的市場領(lǐng)先者,在深度學(xué)習(xí)訓(xùn)練方面幾乎占據(jù)了近乎寡占優(yōu)勢,如今,該公司正積極開發(fā)各種解決方案、企圖挺進(jìn)深度學(xué)習(xí)的推論領(lǐng)域。不過,AI市場上的強(qiáng)勁增長商機(jī)也同時吸引了其它大型科技業(yè)者的青睞,包括Google、英特爾等在內(nèi)的高科技業(yè)者均企圖與NVIDIA一較高下。

Google甫于5月底揭露了該公司第二代的TPU(tensor processing units),聲稱可以同時處理深度學(xué)習(xí)的訓(xùn)練和推論這兩大任務(wù),至于Google原先第一代的TPU只能執(zhí)行推論任務(wù)。在此同時,Google表示,第二代的TPU執(zhí)行深度學(xué)習(xí)的訓(xùn)練任務(wù)遠(yuǎn)比NVIDIA的GPU來得更令人滿意,因此,Google計劃免費(fèi)提供1,000顆云端TPU給Open AI的研究者好讓其Google Cloud更具有競爭力。

然而,即使就效能表現(xiàn)而言,Google的TPU當(dāng)真遠(yuǎn)比NVIDIA的GPU來得更具有競爭力,但Google仍不太可能會成為NVIDIA的直接競爭對手,畢竟,Google的TPU基本上并不打算對外銷售,只計劃提供公司內(nèi)部使用,也就是說,對NVIDIA的沖擊最多在于Google本身可能減少對NVIDIA的GPU采購。

不過,上述Google免費(fèi)提供TPU的盤算,在于企圖把TPU用戶鎖在Google自家的TensorFlow AI架構(gòu)里,相對地,NVIDIA的GPU卻是可以透過大多數(shù)的云端平臺接取,也能運(yùn)行大多數(shù)的AI架構(gòu),包括Caffe、Torch和PaddlePaddle。

至于在英特爾方面,英特爾先前收購了AI新創(chuàng)企業(yè)Nervana Systems,該公司開發(fā)了一種ASIC芯片,稱為Nervana Engine,號稱其運(yùn)算能力比起GPU高出10倍。英特爾收歸旗下后,計劃將此ASIC集成進(jìn)入自家的Knights Mill Xeon Phil處理器,作為深度學(xué)習(xí)之用,預(yù)計在2017年下半發(fā)表。

在此同時,英特爾還打算集成Altera的FPGA芯片到旗下的服務(wù)器處理器當(dāng)中。值得注意的是,相較于耗電的GPU而言,F(xiàn)PGA功耗來得比較低,從云端資料中心的角度出發(fā),可以省下明顯的成本支出,然而,有監(jiān)于FPGA需要在硬件和軟件方面的專家來進(jìn)行程序化,相對而言,困難度較高。雖然微軟目前正在導(dǎo)入FPGA作為深度學(xué)習(xí)的訓(xùn)練之用,但該公司也開始采用NVIDIA的GPU進(jìn)行AI任務(wù)。

綜上所述,無論是GPU、TPU、ASIC還是FPGA等,并沒有一種放諸四海皆好用的AI應(yīng)用芯片,然不可諱言的是,NVIDIA目前正享有在AI領(lǐng)域的先發(fā)者優(yōu)勢,但隨著未來AI市場的進(jìn)化以及競爭對手的產(chǎn)品強(qiáng)化,NVIDIA勢必將面臨激烈挑戰(zhàn)。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。