英特爾最新推出了IPU(基礎(chǔ)設施處理器),親自向CPU“下手”,進行任務卸載。
從數(shù)據(jù)中心長期的迭代方向來看,光網(wǎng)絡的鋪設、通信的密度、底層算力的生態(tài)設施建設等,都在逐漸升級的過程中。帶寬不斷提升、更大的數(shù)據(jù)量涌入,數(shù)據(jù)的處理越來越復雜,包括網(wǎng)絡協(xié)議處理、存儲壓縮、數(shù)據(jù)加密等,給CPU和GPU帶來更大挑戰(zhàn)。這些任務該由誰來處理?這正是英特爾推出IPU、英偉達等推出DPU的大背景。
這些年來,英特爾憑借x86 CPU牢牢占據(jù)著數(shù)據(jù)中心的絕對地位。這一次,他親自下場給CPU卸載任務,有很多深層的原因值得發(fā)掘。雖命名不同于DPU,但從大體的功能職責來看,似乎并無太大異同。英特爾為什么選擇這個時候高調(diào)入局?有哪些野心?底氣又是什么?
為什么是IPU?
我的第一個問題就是關(guān)于命名,英特爾的IPU側(cè)重于基礎(chǔ)設施角度,而非業(yè)界廣泛提及的DPU(側(cè)重于數(shù)據(jù)),除了差異化的戰(zhàn)略考慮,還有哪些原因?
英特爾數(shù)據(jù)平臺事業(yè)部首席技術(shù)官Guido Appenzeller告訴<與非網(wǎng)>,IPU針對的是基礎(chǔ)設施處理功能,卸載CPU上用于基礎(chǔ)設施管理和虛擬化的任務,而不是去做特定的數(shù)據(jù)類型處理或AI負載,這是其與眾不同之處。英特爾與大型云服務提供商一直緊密合作,收到了很多的相關(guān)需求,因此英特爾和大型云服務提供商共同開發(fā)了這款I(lǐng)PU芯片,它是真正的客戶驅(qū)動產(chǎn)品。在他看來,服務器眾多處理器都是針對數(shù)據(jù)的,AI處理器、CPU等都是處理數(shù)據(jù),DPU(Data Processing Unit;數(shù)據(jù)處理器)并不準確描述其功能定位。
英特爾研究院副總裁/中國研究院院長宋繼強也表示,從IPU定位角度來講,它主要卸載的任務包括網(wǎng)絡虛擬化、存儲虛擬化,以及對網(wǎng)絡存儲進行管理,要能夠很好地根據(jù)業(yè)務應用的需求,虛擬化不同種類的任務,并且能夠提供相應的接口或QS監(jiān)測。同時還要針對加密、解密等信息安全保障功能做卸載。
“IPU作為可編程的網(wǎng)絡設備,旨在使云和通信服務提供商減少在CPU方面的開銷,并充分釋放性能價值,都是和虛擬化基礎(chǔ)設施有關(guān)的”, 宋繼強指出,“這就不能用單一產(chǎn)品去滿足所有需求,必須根據(jù)不同應用和需要卸載的不同方式,采用不同的方案”。
IPU的更大野心:云服務提供商的新“彈藥”
越來越多的云數(shù)據(jù)中心,工作負載正在按照微服務集合的架構(gòu)進行整合。雖然微服務導向的架構(gòu)有很多好處,但也因為聚合的特點,造成了大量的通信開銷,這種用于基礎(chǔ)設施開銷的CPU循環(huán),并不會對云服務提供商的收入帶來增長。Facebook的一篇論文顯示,超大規(guī)模數(shù)據(jù)中心的微服務開銷高達31-83%。
而通過基于IPU的架構(gòu),云服務提供商可以把基礎(chǔ)設施任務從CPU轉(zhuǎn)移到IPU,釋放出的服務器CPU循環(huán),則用來處理能夠帶來收益的任務,這樣就可以把數(shù)據(jù)中心獲得的收入最大化。
英特爾網(wǎng)絡與邊緣事業(yè)部副總裁、以太網(wǎng)產(chǎn)品部總經(jīng)理Patricia Kummrow近日撰文指出:云數(shù)據(jù)中心就像酒店,而不是家。類似于酒店劃分住客和員工活動的不同區(qū)域,包含IPU的數(shù)據(jù)中心架構(gòu)也對租戶和云服務提供商的工作負載進行區(qū)隔。通過把IPU引入數(shù)據(jù)中心來實施基礎(chǔ)設施功能,云服務提供商的基礎(chǔ)設施工作負載將在IPU上運行,這就解除了服務器CPU的負擔,使其用于運行更多租戶的應用。
也正是如此,基于IPU的數(shù)據(jù)中心架構(gòu)具備以下優(yōu)勢:
可以嚴格分離基礎(chǔ)設施功能和租戶的工作負載,租戶可以全面掌控服務器CPU,并獲得其全部的性能。
通過把基礎(chǔ)設施任務轉(zhuǎn)移到IPU,云服務提供商可以把服務器CPU全部租賃給客戶。IPU專門處理基礎(chǔ)設施任務而不是通用任務,它可以應用硬件加速并更精細地優(yōu)化計算,從而大幅提高性能和能效。
在傳統(tǒng)的企業(yè)數(shù)據(jù)中心架構(gòu)中,每臺服務器擁有自己的一套磁盤驅(qū)動器和固態(tài)盤,而IPU能夠讓云數(shù)據(jù)中心實現(xiàn)全面的無磁盤服務器架構(gòu)。
這里要說明的是,如果采用全面的無磁盤模式,那么意味著所有存儲都由中央存儲服務提供。當客戶在該服務器上啟動一個工作負載時,云服務提供商就可以在存儲服務上創(chuàng)造一個虛擬卷。通過管理網(wǎng)絡,云服務提供商告訴IPU根據(jù)這個虛擬卷創(chuàng)建一個新的NVMe固態(tài)盤。在PCIe總線看來,這個虛擬NVMe固態(tài)盤就像是一個常規(guī)固態(tài)盤。而且,存儲服務器和服務器上的工作負載之間的實際存儲流量是在高速路徑上進行的,這意味著不會涉及IPU或CPU上的任何內(nèi)核,時延低,擁有高吞吐量和更高的靈活性。
IPU更遠的未來是ASIC芯片
英特爾最新推出的IPU方案基于兩種架構(gòu)類型:Mount Evans是專用ASIC架構(gòu),Oak Springs Canyon(OSC)基于FPGA和Xeon D。
Mount Evans是英特爾第一款 ASIC IPU,與大型云服務提供商聯(lián)合設計開發(fā)。更值得一提的是,其CPU核心非常罕見地采用了Arm針對基礎(chǔ)設施推出的Neoverse N1內(nèi)核。
對此,Guido Appenzeller的評價是“這是一種是相當務實的做法,英特爾總是評估能帶來性能、集成和功耗的最佳組合,在這種情況下,選擇Neoverse N1最適合。”
IPU涉及加速器以及其它很多技術(shù),需要進行快速數(shù)據(jù)包處理。Mount Evans包含兩個部分:網(wǎng)絡子系統(tǒng)和計算復合體。采用N1的16個高頻率內(nèi)核附帶由三個LPDDR4控制器支持的大型系統(tǒng)級緩存,這個計算復合體與網(wǎng)絡子系統(tǒng)密切結(jié)合,使得網(wǎng)絡子系統(tǒng)加速器能夠把系統(tǒng)級緩存用作最后一級緩存,以及提供兩者之間高帶寬、低時延連接,并能夠靈活地整合硬件和軟件數(shù)據(jù)包處理。
據(jù)介紹,Mount Evans IPU支持大量使用場景,例如vSwitch卸載、防火墻和虛擬路由等。通過擴展英特爾傲騰NVMe控制器而開發(fā)的另外一項技術(shù),讓Mt. Evans能夠模擬NVMe設備,在FPGA IPU上運行的英特爾基礎(chǔ)設施操作系統(tǒng)也將能夠在Mount Evans上運行。
Oak Springs Canyon(OSC)基于Agilex FPGA,Agilex在性能、功耗、工作負載效率等方面都有一定優(yōu)勢。OSC與基于至強CPU的服務器協(xié)同工作,提供卸載2x100G 工作負載所需的基礎(chǔ)設施加速,能夠滿足新興云服務提供商對于部署100GB工作負載的需求。
這種混合 IPU 架構(gòu)可以用硬件的速度進行網(wǎng)絡管理,更高的軟件靈活性可以使用戶輕松實施控制面功能。使用 FPGA 板載資源的基于硬件的數(shù)據(jù)路徑,和基于軟件的控制平面與 IPU 的板載處理器上的基礎(chǔ)設施 OS 堆棧一起運行,這種可編程性使IPU更靈活、性能更強。
“在美國和中國,六大云服務提供商目前使用基于FPGA的IPU,但我們看到,他們正在緩慢地轉(zhuǎn)向?qū)S肁SIC IPU”,Guido Appenzeller進一步解釋,“FPGA帶來更大的靈活性,如果你希望實施一個特別的算法,就用FPGA,這對于很多云的服務來說很重要,目前排名前八的云全都使用不同的專有存儲協(xié)議,那么選擇FPGA是合理的,因為專用芯片不支持這種做法。 ”
而FPGA的一個劣勢是,編程門檻較高,客戶需要一個強大的團隊,且吞吐量、功耗在一定程度上也會受到限制。隨著帶寬變高,未來的趨勢是使用更專用的ASIC IPU。
SmartNIC/DPU/IPU——一個越來越擁擠的賽道
從業(yè)界當前發(fā)展DPU/IPU的思路來看,它作為一個可編程處理器,運行的都是非應用型負載,從而可以讓服務器CPU資源更好地服務應用負載。如果再往前追溯,承擔此功能的還有SmartNIC,包括英特爾,也推出過Smart NIC智能網(wǎng)卡架構(gòu)。
IPU與SmartNIC的本質(zhì)差別是什么?Guido Appenzeller表示,主要區(qū)別在于IPU 具有本地控制平面,本質(zhì)上IPU是可以控制CPU的,當CPU想要在網(wǎng)絡上發(fā)送一個數(shù)據(jù)包時,IPU 可確保此數(shù)據(jù)包位于特定的虛擬覆蓋網(wǎng)絡上,由IPU控制PCI總線,可以把虛擬設備展示給 CPU?;旧鲜怯?IPU 控制服務器,它是管理服務器的一部分,這也是信任的根源。而SmartNIC沒有CPU,它所做的就是卸載,更多地用于通信服務場景,由CPU 處于控制之中,SmartNIC是CPU控制系統(tǒng)。英特爾希望通過基于ASIC和基于FPGA的IPU方案,再結(jié)合SmartNIC,用這幾種綜合方案滿足不同基礎(chǔ)設施服務商的需求。
在英特爾看來,超大規(guī)模云服務提供商正在分階段實現(xiàn)IPU的價值:
第一階段:加速網(wǎng)絡——把虛擬交換機和防火墻等常見網(wǎng)絡任務從服務器CPU轉(zhuǎn)移到IPU。把流量查找和封裝/解封等用戶面功能(UPF)從CPU轉(zhuǎn)移到IPU,從而釋放CPU循環(huán)。
第二階段:加速存儲——把存儲堆棧從服務器CPU轉(zhuǎn)移到IPU,提高了存儲吞吐量,并降低了存儲的復雜性、開銷和管理負擔。
第三階段:加速安全——轉(zhuǎn)移加密/解密、壓縮和其它消耗服務器CPU循環(huán)的安全功能。(這些安全功能經(jīng)常與第二階段轉(zhuǎn)移的存儲功能搭配)。此外,IPU可以開啟主機系統(tǒng)的啟動和配置,而通過隔離安全功能和提供與CPU分離的信任根,進一步加強安全。
第四階段:基礎(chǔ)設施處理——或許是最精妙的用途,把虛擬機管理程序服務管理功能從CPU轉(zhuǎn)移到IPU。
加速網(wǎng)絡、存儲、安全再到基礎(chǔ)設施處理,這個方向不只是業(yè)界頭部廠商在關(guān)注,也成為一些創(chuàng)業(yè)公司扎堆的熱門領(lǐng)域。
“這顯然是一個大市場。長遠來看,幾乎每個云端服務器都會有類似 IPU 的產(chǎn)品”, Guido Appenzeller表示,“云服務提供商認為IPU對他們來說是很好的投資。之前,如果是一個包含32個核心的CPU,他們需要把某些核心用于基礎(chǔ)設施處理,并不能把所有核心租給最終用戶。但是在采用IPU的情況下,用戶會得到額外的容量?;旧献屢粋€系統(tǒng)有更高密度的客戶工作負載,這在收益水平上對云服務提供商極具吸引力?!?/p>
在可以預見的未來,如果IPU確實分階段達到應用效果,它將使云服務提供商出租CPU變得更容易,這也意味著人們會消費更多技術(shù),可能會進一步拉動CPU和GPU的使用需求,這何嘗不是幾條產(chǎn)品線的雙贏?IPU也將可能成為英特爾未來數(shù)據(jù)中心的戰(zhàn)略元件,成為其數(shù)據(jù)中心/云計算戰(zhàn)略的重要一步,進一步提高性能、降低成本,提供更好的云數(shù)據(jù)中心架構(gòu)能力。