5月份,谷歌推出其用于阿法狗的二代AI架構(gòu)芯片TPU2,還就此發(fā)布論文顯示TPU的速度比現(xiàn)行的CPU、GPU高30倍;與之爭鋒相對的是,GPU巨頭英偉達(dá)CEO黃仁勛在隨后的年度開發(fā)大會上稱:TPU太僵化,英特爾的FPGA太耗能。英特爾的CPU、英偉達(dá)的GPU、TPU群雄崛起,現(xiàn)在的AI底層芯片接近“三國殺”的局面。有趣的是,他們比的不是誰的技術(shù)更強(qiáng),而是誰的路子是正確的。
前端數(shù)據(jù)獲取,后端決策控制都需要CPU,中間GPU的并行計算優(yōu)勢更大,而TPU在長期訓(xùn)練上成本能耗都低,三者配合才構(gòu)成完整的AI。
———一位業(yè)內(nèi)人士評價
從CPU到TPU變了什么?
CPU、GPU、TPU都是一種芯片架構(gòu),他們的區(qū)別是什么呢?“簡單理解,CPU是一個大學(xué)生,會一些專業(yè)技能(比如說游戲辦公等日常任務(wù));GPU是一個高中生,課本知識學(xué)得很好(比如說圖像識別);TPU則是小學(xué)生,只知道1+1=2?!睈刍罹W(wǎng)創(chuàng)始人劉澤申告訴南都記者,CPU可以完成不同的任務(wù),但在功耗成本一定情況下,計算能力很難再提升了;TPU很“白癡”,但功耗更低,并行更多,GPU介乎兩者之間?!昂唵握f來,就是一個公司有錢請30個大學(xué)生或者3萬個小學(xué)生,要怎么分配就看你的需求?!?/p>
那AI需要什么?!癆I實際上就是暴力計算,需要的是海量計算,簡單說來就是訓(xùn)練與推理,不斷優(yōu)化從A點到B點的路線,”一位AI創(chuàng)業(yè)者開玩笑說,這相當(dāng)于算30萬題1+1,30萬個小學(xué)生速度肯定比30個精算師快,“其實可以理解人工智能底層需求實際上是最‘白癡’的?!?/p>
但英偉達(dá)不這么看。有英偉達(dá)相關(guān)人士告訴南都記者,TPU的缺陷在于不能更換任務(wù),靈活性差。不過,反過來在“懟”傳統(tǒng)芯片老大CPU上,英偉達(dá)表示,“AI需要工作負(fù)載與加速運算?!秉S仁勛在一篇博文里說,以前那種花數(shù)十億美元的CPU節(jié)點來打造數(shù)據(jù)中心已經(jīng)不適應(yīng)AI的大規(guī)模運作。“目前亞馬遜等主流前端應(yīng)用廠商都在英偉達(dá)芯片上開發(fā)其軟件系統(tǒng)。
“未來算法越來越專用化,AI需要海量迭代的‘暴力計算’能力,從這個角度說,CPU確實沒以前那么重要了?!瘪S勢科技創(chuàng)始人,前英特爾研究院院長吳甘沙告訴南都記者,“但反過來AI是一個系統(tǒng),不只是一個算法,CPU還是標(biāo)配?!?/p>
“AI還是需要像CPU這樣的全能選手作為支撐,”英特爾相關(guān)人士告訴南都記者,沒有一把鑰匙能開萬把鎖,“英特爾的Xeon占全球支援AI應(yīng)用服務(wù)器芯片市場超過97%。”從這個角度說,CPU可能在服務(wù)器后端連接作用更加明顯。
“三國殺”怎么殺?
在面對TPU上,黃仁勛說:“人們無需再投資建立一個TPU,我們有現(xiàn)成的,而且由世界上最優(yōu)秀的芯片設(shè)計師設(shè)計?!?/p>
一位AI創(chuàng)業(yè)者告訴媒體,英偉達(dá)的好處在于其開源,不鎖定使用服務(wù),這對于開發(fā)者很重要。
至于CPU老大英特爾,其相關(guān)人士則告訴南都記者,“很多企業(yè)用戶已經(jīng)有很多CPU,他們更希望利用現(xiàn)有資產(chǎn)?!钡⑻貭栆惨庾R到CPU的運算能力接近極致,通過“買買買”來擴(kuò)充自己的版圖,這兩年就有167億美元收購FPGA(介于TPU與GPU的一種架構(gòu))生產(chǎn)商Altera公司、153億美元收購自動駕駛方案的Mobileye以及深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的Nervana Systems。英特爾研究院院長宋繼強(qiáng)在今年展示了利用Nervana優(yōu)勢推出專用AI芯片Lake Crest,這也是他目前主流的“CPU+FPGA”架構(gòu)———不忘老本行,新趨勢也不掉隊。