《電子技術(shù)應用》
您所在的位置:首頁 > 人工智能 > AET原創(chuàng) > Graphcore高級副總裁盧濤:構(gòu)建先進計算平臺,幫助創(chuàng)新者實現(xiàn)下一突破

Graphcore高級副總裁盧濤:構(gòu)建先進計算平臺,幫助創(chuàng)新者實現(xiàn)下一突破

2021-06-16
作者:韋肖葳
來源:電子技術(shù)應用

“我們希望構(gòu)建一個先進的計算平臺,幫助創(chuàng)新者實現(xiàn)下一個突破。我們做的就是面向未來的事情?!?br/>

——Graphcore高級副總裁兼中國區(qū)總經(jīng)理 盧濤

 

 

第一次知道Graphcore的中文譯名時其實很驚訝。

 

“擬未”,既不是直譯,也不是音譯。

 

第二次再見盧總的時候,謎題揭曉。

 

“很多人覺得我們的名字特別詩意,”盧總笑道,“‘擬未’,其實就是共同定義并建立未來的意思。我們希望構(gòu)建一個先進的計算平臺,幫助創(chuàng)新者實現(xiàn)下一個突破。我們做的就是面向未來的事情?!?/p>

 

2021年5月21日,第五屆世界智能大會第三屆工業(yè)互聯(lián)網(wǎng)之智能網(wǎng)聯(lián)汽車產(chǎn)城人文協(xié)同發(fā)展高峰論壇在天津舉辦。會后,盧濤接受了記者的采訪,分享了他對于AI行業(yè)的深刻洞見以及Graphcore在中國市場開拓上的規(guī)劃。


Picture 1.png 


Graphcore高級副總裁兼中國區(qū)總經(jīng)理 盧濤

 

Graphcore整體發(fā)展策略:仰望星空,腳踏實地,以點帶面

 

盧濤在參會后表示,在“智能網(wǎng)聯(lián)汽車”中,Graphcore還是比較關(guān)注和計算相關(guān)的“智能”。在汽車領(lǐng)域,公司已經(jīng)在一些項目上取得進展。

 

由于AI的應用行業(yè)化、場景化程度很高,即便行業(yè)間的一部分軟件和算法是共通的,但個性化的情況會更多,因此Graphcore在策略上十分注重頭部的應用。“一般我們會在某一個垂直領(lǐng)域找一兩家頭部合作企業(yè),先把相關(guān)能力、行業(yè)的Know-How(技術(shù)經(jīng)驗)建立起來,然后再‘以點帶面’地往前突破。不僅在汽車領(lǐng)域,在智能零售、智慧城市等方面,我們也都是類似的策略,這是我們整體的做法,”盧濤如是說,“我一直講‘我們仰望星空,但是腳踏實地’。我們腳踏實地就是要找頭部的合作伙伴,做了典型案例落地之后,我們再‘以點帶面’地鋪開。”

 

數(shù)據(jù)中心,Graphcore的全速前進方向

 

“今天,很多智能其實是在云端發(fā)生的,”盧濤講到,“在全球范圍之內(nèi),數(shù)據(jù)中心、互聯(lián)網(wǎng)、AI,都屬于‘走得最快’的產(chǎn)業(yè)之列。很多人講‘AI產(chǎn)業(yè)化’、‘產(chǎn)業(yè)AI化’?!瓵I產(chǎn)業(yè)化’就是把AI變成一個產(chǎn)業(yè)。這一點互聯(lián)網(wǎng)已經(jīng)實現(xiàn)了,互聯(lián)網(wǎng)數(shù)據(jù)通過AI、算法已經(jīng)轉(zhuǎn)換成各種各樣的商業(yè)方式了?!a(chǎn)業(yè)AI化’就是用AI技術(shù)‘武裝’各種各樣的產(chǎn)業(yè),數(shù)據(jù)中心和互聯(lián)網(wǎng)就是其中非常重要的一環(huán),原因有兩個:第一,它是整個AI落地的前沿陣地;第二,各種各樣的行業(yè)能力要依靠數(shù)據(jù)中心的能力來支撐。所以基于當前這樣的一個背景,整體上我們在數(shù)據(jù)中心上的步伐會走得更快?!?/p>

 

對標英偉達DGX Station,Graphcore有IPU-M2000

 

在4月份舉辦的GTC 2021技術(shù)大會上,英偉達宣布將升級DGX Station和DGX SuperPod。當談及Graphcore與之相對的發(fā)展規(guī)劃時,盧濤表示:“英偉達的產(chǎn)品系列非常多,不僅僅有DGX Station、DGX A100、還有一些針對邊緣應用的。首先,我們必須要承認別人的產(chǎn)品系列跟型號可能會更多一些。我們在目前其實是沒有在規(guī)劃Station這種形式的產(chǎn)品的。我們今天在展區(qū)(第五屆世界智能大會展區(qū))展出了IPU-M2000組成的IPU-POD4、IPU-POD16和IPU-POD64。我們的產(chǎn)品還在繼續(xù)迭代,可能有一些產(chǎn)品形態(tài)會跟DGX Station長得不一樣,但是可能能夠起到類似的作用。DGX Station跟DGX A100很大的一個區(qū)別,就是DGX A100在6U的機器里面有8個A100,功耗、成本都非常高,而DGX Station是一個規(guī)模更小的產(chǎn)品形態(tài),不管是功耗、成本,還是體積,都會更小一點,能夠比較方便地在一些入門級的場景中使用。從某種意義上,目前我們單個的IPU-M2000可以做到類似的事情,因為我們的粒度本來就很細。我們還在進一步地思索我們未來的產(chǎn)品形態(tài),但是目前來講,入門級產(chǎn)品方面,一個IPU-M2000就可以起到類似的作用,成本、功耗比較低,也能進行一些需要比較大規(guī)模的平臺來處理的計算?!?/p>

 

IPU跟GPU,到底有啥區(qū)別?

 

GPU本身的優(yōu)勢是較高的并行處理任務的效率,但是碰到一些強化學習或者是RNN這些模型的時候優(yōu)勢就不會那么明顯。那么與之相比,“為AI而生”的IPU具體優(yōu)勢體現(xiàn)在哪些地方呢?盧濤指出了如下幾點:

 

“從芯片到芯片級別,IPU跟GPU有兩個最大的差異化的特點。第一個是我們比GPU更擅長做并行處理。我們有一千多個處理器內(nèi)核。第二個,我們的內(nèi)存架構(gòu)非常不一樣。GPU是層次化的內(nèi)存結(jié)構(gòu),片內(nèi)有一個大概二三十兆的片內(nèi)緩存,片外是高速的顯存。我們?nèi)吭谄瑑?nèi)。我們一顆芯片有900兆的處理器內(nèi)存儲。如果是要擴展成集群,還有一些不同的地方,比如我們的IPU-Link能夠很方便地做芯片與芯片之間的協(xié)同?!?/p>

 

此外,和GPU比起來,IPU在LSTM和RNN方面也有巨大的優(yōu)勢?!皬娀瘜W習底層的算法邏輯用的是LSTM的cell。RNN就是循環(huán)神經(jīng)網(wǎng)絡。LSTM就是長短期記憶網(wǎng)絡。計算機的記憶存在內(nèi)存里面,需要用的時候讀一下,它就記得了。它要不停地訪問存儲。這些算法相對來說并行度沒有別的一些算法那么高。那么內(nèi)存這一塊就非常重要了。”盧濤補充道。

 

另外,在計算的顆粒度較細,以及對時延要求較為嚴格的場景中,IPU都會存在優(yōu)勢?!拔覀兗饶茏鲇柧?,也能做推理。其中在幾類計算上我們會比較有優(yōu)勢,”盧濤說道,“一類是計算的顆粒度比較細的時候,我們的優(yōu)勢很大。AI中,很多底層是要算一個矩陣的乘法。矩陣有大矩陣和小矩陣。本來是一個很大的矩陣,我把它拆成一堆小矩陣,就是顆粒度細了?,F(xiàn)在有很多算法,像谷歌的科學家做的EfficientNet,其中很重要的一點,就是把很大的矩陣拆成很多很小的矩陣,這樣就降低了算法模型的參數(shù)規(guī)模,并且提高了算法的精度。這種算法上我們的表現(xiàn)很好。還有一類是推理中有一些場景對時延要求很嚴格。我們的時延很低,與此同時我們整個的吞吐量也非常高。在大量的實際案例中,我們可以看到,我們在這方面具有數(shù)量級的優(yōu)勢?!北R濤最后說道。

 

CPU、GPU、IPU,人工智能時代的三足鼎立

 

“我們認為CPU和GPU是會長期存在的,因為它們各自都有自己的應用領(lǐng)域和自己很擅長的方向,” 當談及人工智能時代IPU與CPU、GPU的競爭關(guān)系時,盧濤表示,“我們希望CPU、GPU、IPU并存。IPU跟它們比起來也有自己的領(lǐng)域?!?/p>

 

據(jù)介紹,Graphcore的第一代產(chǎn)品大概比英偉達V100晚了18個月發(fā)布。但是第二代產(chǎn)品在時間上已基本追平(英偉達5月份發(fā)布,11月份量產(chǎn);Graphcore 7月份發(fā)布,12月份量產(chǎn))。所以從某種意義上來說,Graphcore的產(chǎn)品迭代比英偉達還要快?!斑@是一個很關(guān)鍵的點。半導體在過去幾十年很重要的一個產(chǎn)品邏輯和商業(yè)邏輯,就是要保持一個很穩(wěn)定的迭代速度。我們目前在很積極地研發(fā)我們后面的一些產(chǎn)品。我們覺得從節(jié)奏上我們未必會比他們慢。未來我們也是希望能保持一個比較穩(wěn)定的迭代周期來往前推進?;旧衔覀冏詈笠彩菚瘛淮慨a(chǎn)、一代研發(fā)、一代架構(gòu)’這樣的一個過程?!北R濤繼續(xù)講到。

 

“開放、開源,然后擁抱社區(qū)”,Graphcore的軟件之路

 

“軟件是今天GPU最大的護城河,也是用戶從GPU遷到別的平臺上的最大阻力。我們最近也在做一些工作,希望能夠盡量降低用戶在移植工作上的工作量?!闭劶败浖?,盧濤說到。

 

Graphcore是一家硬件公司,同時也是一家軟件公司。據(jù)介紹,目前公司的軟件工程師比芯片工程師要多很多,以后數(shù)值差可能還會拉大?!败浖慕M件非常多,以GPU為例,從CUDA,到TensorFlow、PyTorch等不同的機器學習框架軟件,到類似于Keras的更高層框架,再到類似ResNet、BERT用戶的算法、模型等等,最后再到圖像的前處理、后處理等。整個軟件棧確實是非常大的。如果一個做AI處理器的公司沒有意識到軟件的重要性,將會是一個很嚴重的問題。”盧濤告訴記者,“當前,軟件方面,從棧的角度來看,我們在層次化的角度上跟英偉達還是比較類似的:比如對應CUDA,我們有Poplar;再上面是cuDNN、cuBLAS,我們上面是PopLibs;再往上面是TensorFlow、PyTorch等等。在這一層,我們正在做對于PaddlePaddle的支持。再往上就是應用?!?/p>

 

在Graphcore看來,軟件的成功并不是靠單家公司的一己之力來實現(xiàn)的。Graphcore會秉承“開放、開源,然后擁抱社區(qū)”的整體策略,在整個應用的生態(tài)里面盡己所能,與合作伙伴共同打造良好的軟件生態(tài)系統(tǒng)。

 

提及生態(tài),盧濤也表示,Graphcore目前的發(fā)展瓶頸就在于生態(tài)?!敖⑸鷳B(tài)是一個需要長期投入和努力的事情,我們現(xiàn)在還是一個比較新的公司,建立生態(tài)不是一蹴而就的,我們正在不停地加大投資、投入來做?!?/p>

 

壯大中的Graphcore中國團隊

 

生態(tài)的建立同時需要人力的投入。

 

作為Graphcore在中國的零號員工,盧濤正在帶領(lǐng)本地團隊快速壯大。目前,Graphcore中國團隊共有40人左右,市場、銷售等只占很小一部分,其余的主要都是工程師,當中又有很多人是軟件工程師。

 

“Graphcore在全球的研發(fā)中心主要集中在英國,包括布里斯托、倫敦、劍橋,另外,在挪威奧斯陸以及美國的帕拉奧托也有我們的軟件團隊,中國的軟件團隊目前有20多個人?!?/p>

 

盧濤告訴記者,Graphcore中國軟件團隊的表現(xiàn)無論從業(yè)務水平還是執(zhí)行力上來講,都收獲了大家的認可。因此,在未來12-18個月,Graphcore要在中國打造出一支超過200人的軟件團隊,做機器學習框架相應的一些算法等。

 

“我覺得我們中國的軟件團隊在全球的軟件團隊里的份額應該會越來越大。雖然當時團隊很小,很長時間一段時間都是十幾個人,但是做的一些成果我覺得大家都比較認可。我們做了一些比較關(guān)鍵性的交付,比如我們TensorFlow上的BERT方面的工作,其實是中國團隊做的?!北R濤談到。

 

在中國建立研發(fā)中心也需要進行本地化工作。盧濤提及,Graphcore屬于PaddlePaddle于去年發(fā)起的“百度飛槳硬件生態(tài)圈”的初始成員之一,因此Graphcore正在做對于PaddlePaddle的支持。另外,Graphcore也正與阿里云合作HALO、與微軟亞洲研究院合作NNFusion。與此同時,Graphcore與國內(nèi)做框架、做集成的機構(gòu)也都在探索合作的過程中。



WechatIMG454.jpeg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。