《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 嵌入式技術(shù) > 業(yè)界動(dòng)態(tài) > IBM和NVIDIA新款人工智能服務(wù)器又把英特爾秒了

IBM和NVIDIA新款人工智能服務(wù)器又把英特爾秒了

2016-09-12

  在傳統(tǒng)服務(wù)器芯片市場(chǎng),英特爾是個(gè)巨無(wú)霸,無(wú)論是IBM Power還是ARM陣營(yíng),所占有的份額都微乎其微。但戰(zhàn)線轉(zhuǎn)移到人工智能領(lǐng)域,IBM似乎更有優(yōu)勢(shì)。

  據(jù)外媒報(bào)道,近日IBM和NVIDIA聯(lián)手推出了新服務(wù)器IBM Power Systems S822LC for High Performance Computing(還有兩款產(chǎn)品分別為IBM Power Systems S821LC和IBM Power Systems S822LC for Big Data),從這一串名字可看出,這并不是一款普通的服務(wù)器,它是專門為人工智能、機(jī)器學(xué)習(xí)和高級(jí)分析應(yīng)用場(chǎng)景而推出的。

  IBM官方宣稱,這款服務(wù)器數(shù)數(shù)據(jù)處理速度比其它平臺(tái)快5倍,和英特爾x86服務(wù)器相比,每美元的平均性能高出80%。

HMpJ-fxvukhx4771595.jpg

  這款服務(wù)器比英特爾x86強(qiáng)在哪?

  據(jù)了解,該款服務(wù)器使用了兩個(gè)IBM Power8 CPU和4個(gè)NVIDIA Tesla P100 GPU。Power8是目前IBM最強(qiáng)的CPU,從之前媒體的評(píng)測(cè)數(shù)據(jù)來(lái)看,其性能是要優(yōu)于英特爾E7 v3的,而Tesla P100是NVIDIA今年才發(fā)布的高性能計(jì)算(HPC)顯卡,這樣的配置組合在處理性能上自然不弱。

  原因有兩個(gè):

  其一,相比CISC指令集,采用的RISC指令集的Power處理器可同時(shí)執(zhí)行多條指令,可將一條指令分割成多個(gè)進(jìn)程或線程,交由多個(gè)處理器同時(shí)執(zhí)行,因此并行處理性能要優(yōu)于基于CISC架構(gòu)的英特爾x86芯片。

  另外,這款服務(wù)器的巧妙之處還在于Power8和Tesla P100之間的“配合”。

  Power架構(gòu)的另一大特點(diǎn)就是具有充分發(fā)揮GPU性能的優(yōu)勢(shì)。

  實(shí)際上,Tesla P100有兩個(gè)版本,一個(gè)是NVIDIA今年4月推出的NVLink版,另一個(gè)是6月發(fā)布的PCI-E版本,簡(jiǎn)單來(lái)講,前者是后者的加強(qiáng)版,與IBM Power8配對(duì)的正是Tesla P100 NVLink版。

  Tesla P100采用的是Pascal架構(gòu),能夠?qū)崿F(xiàn)CPU與GPU之間的頁(yè)面遷移,不過(guò)每塊NVLink版還配置了4個(gè)每秒40 GB NVIDIA NVLink端口,分部接入GPU集群。NVLink是OpenPOWER Foundation獨(dú)有的高速互連技術(shù),其有效帶寬高達(dá)40GB/S,堪稱PCIE的升級(jí)版,足以滿足多芯片并行計(jì)算的需求。不過(guò)支持這一標(biāo)準(zhǔn)的CPU屈指可數(shù),Power8則是其中之一(英特爾不在此之列)。

  這就意味著,Power8 CPU能夠和Tesla P100 GPU以更高的速度完成通信,這一特性可讓IBM Power Systems S822LC for High Performance Computing中的CPU和GPU之間的連接速度遠(yuǎn)快于普通的在PCIe總線上交換數(shù)據(jù)的表現(xiàn)。

  CPU、GPU這樣協(xié)作更配,IBM和NVIDIA新款人工智能服務(wù)器又把英特爾秒了

  IBM表示,“這一功能意味著,不同于在GPU處于PCI-E界面上的x86系統(tǒng)上,數(shù)據(jù)庫(kù)應(yīng)用程序、高性能分析應(yīng)用程序和高性能計(jì)算應(yīng)用程序運(yùn)行能夠在要大得多的數(shù)據(jù)集上運(yùn)行?!?/p>

  另外,Tesla P100的半精度浮點(diǎn)運(yùn)算性能達(dá)到了每秒21萬(wàn)億次 —— 比插入現(xiàn)代PCI-E插槽的GPU高出大約14%,這樣的處理能力對(duì)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的重要性不言而喻。

  IBM還做了個(gè)縱向?qū)Ρ龋屠峡頟ower S822LC服務(wù)器的Tesla K80 GPU加速器相比,新款服務(wù)器的加速能力提升了兩倍多。

  預(yù)計(jì)明年問(wèn)世的IBM Power9會(huì)延續(xù)對(duì)CPU+GPU組優(yōu)化。

  為何是“CPU+GPU”?

  眾所周知,在人工智能人工智能和深度學(xué)習(xí)等計(jì)算任務(wù)上,CPU早已不堪重任。因此,不少企業(yè)紛紛推出人工智能專用芯片概念,例如谷歌的TPU(Tensor Processing Unit);還有業(yè)內(nèi)人士力挺FPGA更適合深度學(xué)習(xí)的算法,這也是英特爾以高價(jià)收購(gòu)Altera的主要原因。

  不過(guò),上述兩個(gè)替代CPU的方案都還未成熟,目前大多數(shù)企業(yè)采用的依然是“CPU+GPU”的組合,或者稱為異構(gòu)服務(wù)器。通常來(lái)說(shuō),在這種異構(gòu)模式下,應(yīng)用程序的串行部分在CPU上運(yùn)行,而GPU作為協(xié)處理器,主要負(fù)責(zé)計(jì)算任務(wù)繁重的部分。

8yp2-fxvuvfp3354054.jpg

  因?yàn)楹虲PU相比,GPU的優(yōu)勢(shì)非常明顯:

  1.CPU主要為串行指令而優(yōu)化,而GPU則是為大規(guī)模的并行運(yùn)算而優(yōu)化。所以,后者在大規(guī)模并行運(yùn)算的速度更快;

  2。同等面積下,GPU上擁有更多的運(yùn)算單元(整數(shù)、浮點(diǎn)的乘加單元,特殊運(yùn)算單元等等);

  3。一般情況下,GPU擁有更大帶寬的 Memory,因此在大吞吐量的應(yīng)用中也會(huì)有很好的性能。

  4.GPU對(duì)能源的需求遠(yuǎn)遠(yuǎn)低于CPU。

  當(dāng)然,這并不代表人工智能服務(wù)器對(duì)CPU沒有需求,CPU依然是計(jì)算任務(wù)不可或缺的一部分,在深度學(xué)習(xí)算法處理任務(wù)中還需要高性能的CPU來(lái)執(zhí)行指令并且和GPU進(jìn)行數(shù)據(jù)傳輸,同時(shí)發(fā)揮CPU的通用性和GPU的復(fù)雜任務(wù)處理能力,才能達(dá)到最好的效果,通俗點(diǎn)說(shuō)就是實(shí)現(xiàn)CPU和GPU的協(xié)同計(jì)算。

  雖然NVIDIA和Intel等芯片商正在為GPU和CPU孰強(qiáng)孰弱陷入了口水戰(zhàn),但實(shí)際上這些企業(yè)已經(jīng)開始在異構(gòu)計(jì)算上加大了研發(fā)力度,至少在近期內(nèi),CPU和GPU的結(jié)合將繼續(xù)成為人工智能領(lǐng)域最有效的方案。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。