隨著機器學習應用開始出現(xiàn)在終端設備和物聯(lián)網網絡邊緣,實現(xiàn)AI的加速器可能看起來更像FPGA和SoC模組,而不是英特爾和英偉達目前的數(shù)據(jù)中心綁定芯片(data-center-bound chip)。
人工智能和機器學習需要功能強大的芯片來從大數(shù)據(jù)集中計算答案。大多數(shù)AI芯片——包括訓練和推理——都是為數(shù)據(jù)中心開發(fā)的。然而,這種趨勢很快就會改變。其中很大一部分處理將發(fā)生在邊緣,即網絡的邊緣或傳感器和傳感器陣列的內部或附近。
幾乎可以肯定,訓練將留在云端,因為對于這一大塊資源的最有效產品是英偉達的GPU,它主導著這一部分市場。盡管數(shù)據(jù)中心可能會承擔包含大量數(shù)據(jù)集的訓練部分,但推理可能最終會交給邊緣。市場預測似乎同意這一點。
Tractica公司研究主管、邊緣設備AI報告的作者Aditya Kaul說:“推理硬件市場是一個新市場,但變化迅速。數(shù)據(jù)中心有一些機會,并將繼續(xù)存在?;谠频臄?shù)據(jù)中心AI芯片市場將繼續(xù)增長。但是推理處于邊緣,這里開始變得引人注目。至少有70家專業(yè)人工智能公司正在研究某種與芯片相關的人工智能技術?!?/p>
Kaul說:“在邊緣,智能手機、機器人、無人機、相機、安全攝像頭等所有需要AI處理的設備都將成為未來的熱點。”
圖1:按市場領域劃分的深度學習芯片組收入。 (來源:Tractica)
到2025年,基于云的AI芯片組將帶來146億美元的收入,而基于邊緣的AI芯片組將帶來516億美元的收入,是數(shù)據(jù)中心的3.5倍,邊緣AI芯片組主要由手機、智能音箱、無人機、AR/VR耳機,以及其他所有需要AI處理的設備組成。
雖然英偉達和英特爾現(xiàn)在可能主導基于數(shù)據(jù)中心的機器學習應用的市場,誰將占據(jù)遠離數(shù)據(jù)中心的邊緣計算AI市場?那些芯片會是什么樣子?
AI邊緣芯片需要做什么
根據(jù)Semico Research公司ASIC和SoC分析師Rich Wawrzyniak所言,邊緣計算、物聯(lián)網和消費終端設備將需要以相對較低的功耗、價格和較小芯片尺寸進行高性能推理處理。這很困難,特別是因為邊緣設備處理的大多數(shù)數(shù)據(jù)是龐大的視頻和音頻數(shù)據(jù)。
Wawrzyniak說:“數(shù)據(jù)很多,但如果你有監(jiān)控攝像頭,它必須能夠實時識別出壞人,而不是把一張照片發(fā)送到云端,然后等著看有沒有人認出他?!?/p>
圖2 (來源:Barclays Research于2018年5月的報告,由Xilinx提供)
將ML級別的智能添加到邊緣設備的一些愿望來自于需要將這些設備上的數(shù)據(jù)保密,或者降低將數(shù)據(jù)發(fā)送到云端的成本。然而,大部分需求來自那些希望設備位于邊緣計算設施或掌握在客戶手中的客戶,他們不希望設備簡單地收集數(shù)據(jù)并定期將其發(fā)送到云端,以便他們可以直接與公司自己的數(shù)據(jù)或其他客戶和路人進行實時交互。
NXP半導體AI技術主管Markus Levy表示:“客戶意識到,他們不想把大量處理工作轉移到云端,因此他們認為邊緣是真正的目標。既然你可以在邊緣實現(xiàn)AI,你就可以把物聯(lián)網變成真正具有能力的東西。我們看到消費者物聯(lián)網、工業(yè)物聯(lián)網以及嵌入式的增長非??欤@是我們最大的增長領域?!?/p>
據(jù)IDC分析師Shane Rau稱,今年接受IDC調查的商業(yè)技術客戶表示,他們確定會把機器學習轉移到邊緣設備上,主要是汽車、智能家居、視頻監(jiān)控攝像頭和智能手機。該公司的客戶調查將這四種設備列為ML的候選設備。
邊緣AI架構發(fā)展趨勢
邊緣計算的需求范圍可能包括數(shù)億計的工業(yè)和消費設備,因此任何單一的架構都不太可能滿足所有這些需求。
NXP的Levy表示:在微控制器和相對低端的芯片上運行推理模型是可以的,但大多數(shù)機器學習功能需要從基于FPGA、ASIC和其他SoC配置的一長串可選CPU附加項,以及GPU和CPU的組合,有時還需要由Google的TPU等特殊用途的ASIC來增強。
大部分的增強都是以加速器的形式出現(xiàn)的。這些FPGA、SoC、ASIC和其他專用芯片旨在幫助資源受限的基于x86的設備通過一層接一層的分析標準處理大量圖像或音頻數(shù)據(jù),因此app可以正確地計算和加權每個數(shù)據(jù)的值。
英特爾和英偉達已經向邊緣AI市場發(fā)起沖擊。Kaul說,像英偉達的Jetson這樣的產品并不能令人信服。Jetson是一個GPU模塊平臺,具有7.5W的功率預算,只有英偉達更典型產品的70W功率的一小部分,但對于一般不超過5W的邊緣應用來說還是太高了。
Levy說:“有很多IP公司正在為神經網絡尋求加速,因此有足夠的選擇使加速器開始成為邊緣設備推理的需求。”
圖3:按類別劃分的AI邊緣設備出貨量。(來源:Tractica)
但是,要想在潛在的億萬個設備上添加ML加速和支持,將需要更多的可定制性、更低的成本,以及更專門針對資源受限設備上ML應用需求的規(guī)范——這意味著,如果要取得成功,整個市場將需要更好的處理器。
神經推理需要數(shù)萬億次乘法累加運算,因為模型從其公式矩陣的一層提取數(shù)據(jù),盡管每一層可能需要不同的數(shù)據(jù)大小,而且其中一些設備可能在輸入設置為8位整數(shù)而不是16位整數(shù)時運行得更快。
Flex Logix聯(lián)合創(chuàng)始人兼首席執(zhí)行官Geoff Tate表示:“為了在數(shù)據(jù)中心獲得良好的吞吐量,大多數(shù)架構依賴于必須使用相同的權重集來創(chuàng)建批處理的數(shù)十或數(shù)百個任務。如果你有28張圖片,你加載圖片,加載第一階段的權重,對第一階段做數(shù)學運算,保存結果,然后加載第二階段的權重。通過在每一層上完成所有28個批次,你可以將權重加載時間縮減到一次只加載一個的1/28。如果加載和管理權重是你不擅長的,那么你可以通過批處理來解決它。這就是為什么你會看到基準測試顯示第28批的運行效率低于第1批。如果加載權重的速度很慢,則難以擴展。但在數(shù)據(jù)中心之外的任何地方都必須這樣做。如果你有監(jiān)控攝像頭,則必須在圖像傳入時對其進行處理,以便批大小始終等于1。如果你在測量性能,則數(shù)據(jù)中心外的批大小始終等于1?!?/p>
Flex Logix開發(fā)的神經網絡引擎可以避免批處理問題。Tate說:“因為我們加載權重的速度非???,所以我們不需要進行批處理,我們的性能在第1批和第28批時相同,這在邊緣應用中非常重要?!?/p>
推理硬件方面的兩項新工作
Xilinx試圖利用其在FPGA和系統(tǒng)級設計方面的經驗,推出新的產品系列和路線圖,以滿足盡可能多的邊緣/設備市場的需求。
Xilinx在去年春天討論了這個想法,但直到10月才正式宣布,該公司描述了一個自適應計算加速平臺,該平臺“利用CPU、GPU和FPGA的力量來加速一切應用”。
Xilinx的演示描述了一個廣泛的產品線、使用案例列表和有關其AI引擎核心的詳細信息,其目標是提供比傳統(tǒng)方法的單位芯片面積高出3~8倍的性能,并提供高性能DSP能力。
與此同時,F(xiàn)lex Logix創(chuàng)建了一個使用低DRAM帶寬的可重構神經加速器。芯片的面積和功率的目標規(guī)格將在明年上半年完成,并在下半年流片。推理引擎將充當CPU,而不僅僅是一個更大,更漂亮的加速器。它提供了模塊化、可擴展的架構,旨在通過減少移動數(shù)據(jù)的需要以及通過改進數(shù)據(jù)和矩陣計算的加載方式來減少瓶頸,從而降低移動數(shù)據(jù)的時間和精力成本。
該芯片將DRAM專用于單個處理器塊,而不是將其作為一個大內存池進行管理。DRAM不能同時將數(shù)據(jù)饋送到芯片的多個部分。Tate說:“將DRAM作為流入一個處理器塊的大內存池處理,這是范諾依曼架構的典型特征,但它不會成為神經網絡的成功架構。”
早期
Wawrzyniak表示,Xilinx,F(xiàn)lex Logix和其他公司蜂擁到了一個仍處于發(fā)展中的邊緣推理市場,顯示出市場和SoC、FPGA制造商提供良好技術以應對它們的能力的廣泛信心,但這并不能保證他們能夠克服安全、隱私、現(xiàn)狀的慣性和其他無形的問題。同樣,F(xiàn)PGA、ASIC和SoC加速ML的市場仍處于起步階段。
Linley Group的Linley GwenNap表示,當一個新市場發(fā)展起來時,看到許多新的參與者和新方法是正常的。FPGA和ASIC供應商也在其中,因為這些技術使一家知道自己在做什么的公司能夠快速生產出合理的產品。不過,標準最終將在一兩年內回歸,這將穩(wěn)定所涉及的參與者的數(shù)量和專長,并確保與其他市場的互通性。