《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > Intel五代至強Emerald Rapids CPU架構剖析

Intel五代至強Emerald Rapids CPU架構剖析

2024-03-26
來源:快科技
關鍵詞: Intel 五代至強 CPU AI

AI漫長的歷史中,ChatGPT絕對是濃墨重彩的一筆。正是它引爆了AI大模型概念,也讓以往高高在上的AI飛入了尋常百姓家,開始融入每個人的日常工作、生活,AI PC、AI手機、AI邊緣也都在大踏步前進,變革千行百業(yè)。

有調(diào)研數(shù)據(jù)顯示,預計到2026年,AIGC相關投入將超過3000億美元,到2028年,80%以上的PC都會轉換成AI PC,而在邊緣應用中AI的普及率也將超過50%。

1.jpg

AI大模型等應用最需要的當然是高算力,GPU加速器隨之變得炙手可熱,但是AI的發(fā)展與變革同樣是多元化的,CPU通用處理器、NPU神經(jīng)網(wǎng)絡引擎也都在各司其職,貢獻自己的力量。

尤其是傳統(tǒng)的CPU,也在緊跟時代的腳步,全方位擁抱AI,Inte第五代至強(Emerald Rapids)就是一個典型代表。

2.png

Intel 2023年初發(fā)布的第四代至強(Sapphire Rapids),年底就升級為第五代,速度之快前所未有,主要就是為了跟上形勢,尤其是AI的需求,很多指標都是為此而優(yōu)化的。

這包括更多的核心數(shù)量、更高的頻率、更豐富的AI加速器,都帶來了性能和能效的提升,對于AIGC非常有利。

還有多達3倍的三級緩存,可以減少對系統(tǒng)內(nèi)存的依賴,內(nèi)存帶寬也同時進一步提升。

軟件生態(tài)方面,Intel提供了全方位的開發(fā)支持與優(yōu)化,尤其加大了對主流大模型、AI框架的支持,特別是PyTorch、TensorFlow等等,在AI訓練、實時推理、批量推理等方面,基于不同算法,性能提升最多可達40%,甚至可以處理340億參數(shù)的大模型。

3.png

根據(jù)Intel提供的數(shù)據(jù),五代至強SPECInt整數(shù)計算性能提升21%,AI負載性能提升最多達42%,綜合能效也提升了多達36%。

具體到細分領域,圖像分割、圖像分類AI推理性能提升最多分別42%、24%,建模和模擬HPC性能提升最多42%,網(wǎng)絡安全應用性能提升最多69%。

網(wǎng)絡與云原生負載能效提升最多33%,基礎設施與存儲負載能效提升最多24%。

有趣的是,Intel指出五代至強也有很高的性價比,其中一個評估標準就是同時支持的用戶數(shù),五代至強可以在BF16、INT8精度下同時滿足8個用戶的實時訪問需求,延遲不超過100ms。

五代至強的優(yōu)秀,也得到了合作伙伴的驗證,比如阿里云、百度云都驗證了五代至強運行Llama 2 700億參數(shù)大模型的推理,其中百度云在四節(jié)點服務器上的結果僅為87.5毫秒。

再比如京東云,Llama 2 130億參數(shù)模型在五代至強上的性能比上代提升了多達50%。

4.png

44.png

接下來,Intel至強路線圖推進的速度同樣飛快,今年內(nèi)會陸續(xù)交付Granite Rapids、Sierra Forest兩套平臺,均升級為全新的Intel 3制程工藝。

其中,Sierra Forest首次采用E核架構,單芯片最多144核心,雙芯整合封裝能做到288核心,今年上半年就能問世。

Sierra Forest主要面向新興的云原生設計,可提供極致的每瓦性能,符合國家對設備淘汰換新的要求,而且因為內(nèi)核比較精簡,可以大大提高同等空間內(nèi)的核心數(shù)量。

緊隨其后的Granite Rapids,則依然是傳統(tǒng)P核設計,具備更高頻率、更高性能。

Granite Rapids針對主流和復雜的數(shù)據(jù)中心應用進行優(yōu)化,尤其是大型程序,可以減少對虛擬機的依賴。

到了2025年,Intel還會帶來再下一代的至強產(chǎn)品,代號Clearwater Forest,無論制程工藝還是技術特性抑或性能能效,都會再次飛躍。

5.png

那么問題就來了,Intel至強的更新?lián)Q代如此頻繁,尤其是五代至強似乎生命周期很短,它究竟值不值得采納部署呢?適合哪些應用市場和場景呢?

五代至強發(fā)布之初,Intel從工作負載優(yōu)化性能、高能效計算、CPU AI應用場景、運營效率、可擴展安全功能和質量解決方案五個方面進行了介紹。

現(xiàn)在,我們再換一個維度,從另外五個方面了解一下五代至強的深層次價值。

一是制程工藝改進。

五代、四代至強都是Intel 7工藝,都采用了Dual-poly-pitch SuperFin晶體管,但也改進了關鍵的技術指標,特別是在系統(tǒng)漏電流控制、動態(tài)電容方面,它們都對晶體管性能有很大影響。

通過這些調(diào)整,五代至強在同等功耗下的整體頻率提升了3%,其中2.5%來自漏電流的減少,0.5%來自動態(tài)電容的下降。

二是芯片布局。

受到芯片集成復雜度、制造技術的限制,現(xiàn)在主流芯片都不再是單一大芯片,而是改為多個小芯片整合封裝。

四代至強分成了對稱的四個部分,做到最多60核心,五代至強則變成了鏡像對稱的兩部分,核心數(shù)反而提升到最多64個。

之所以如此改變,是因為切割的小芯片越多,彼此互相通信所需要的控制器、接口和所占用的面積也更多,還會額外增加功耗,并降低良品率。

通過芯片質量控制,五代至強可以更好地控制芯片面積,并且在相對較大的面積下獲得很好的良率,鏡像對稱的布線也更靈活。

6.jpg

這是五代至強單個芯片的布局圖,可以看到中間是33個CPU核心和二三級緩存,其中一個核心作為冗余保留。

左右兩側是DDR5內(nèi)存控制器,上方是PCIe、UIPI控制器,以及DLB、DSA、IAA、QAT等各種加速器,底部則是EMIB封裝和通信模塊,用于雙芯片內(nèi)部高效互連。

說到連接,五代至強使用了高速內(nèi)部互連Fabric MDF,包括七個SCF(可擴展一致性帶寬互連),每一個都有500Gbps的高帶寬,讓兩顆芯片在邏輯上實現(xiàn)無縫連接。

7.jpg

三是性能與能效。

看一下五代至強的關鍵性能指標:

- CPU架構升級到Raptor Cove,13/14代酷睿同款。

- 核心數(shù)量增加,最多60核心來到最多64核心。

- 三級緩存擴容,平均每核心從1.875MB增加到5MB,這是歷代提升最大的一次。

- DDR5內(nèi)存頻率從4800MHz提升到5600MHz。

- UPI總線速度從16GT/s提供到20GT/s。。

- 芯片拓撲結構更改,四芯片封裝改為雙芯片。

- 待機功耗降低,通過全集成供電模塊(FIVR)、增強主動空閑模式等技術實現(xiàn)。

8.jpg

四是三級緩存。

至強處理器以前每核心的三級緩存都只有1-2MB,這次直接來到了5MB,總容量最多達320MB。

在數(shù)據(jù)集不是很大的情況下,三級緩存本身就可以基本承載,無需轉移到系統(tǒng)內(nèi)存,從而帶來極大的性能提升。

但是,緩存容量并不是單純堆起來的,因為大緩存會面臨可靠性問題,尤其是在大規(guī)模數(shù)據(jù)中心里存在一個比特反轉的軟故障,緩存越大,故障幾率越高,當錯誤足夠多而無法糾正的時候就會導致系統(tǒng)宕機。

這就需要超強的糾錯機制,五代至強就采用了新的編碼方式DEC、TED,一個緩存行出現(xiàn)兩個位錯誤的時候也可以糾正,三個位錯誤的時候也可以檢測,比傳統(tǒng)單位糾錯、兩位檢錯有著更強的容錯性,此外還有一些新的數(shù)據(jù)修復方案。

五是內(nèi)存IO。

DDR5-4800升級到DDR5-5600,看似幅度不大,但其實很不容易,因為內(nèi)存速度提升后,從芯片到基板需要全線進行優(yōu)化匹配,包括供電和噪音控制等。

為了保證高頻下的信號完整性,五代至強還加入了4-tap DFE功能,盡可能減少碼間干擾(ISI)。

9.png

最后再單獨說說基于至強這樣的通用處理器的AI負載應用,以及相應的解決方案。

其實,AI應用并非只是大模型,還有大量的傳統(tǒng)非大模型AI應用,都非常適合在CPU上部署。

比如基因測序這樣的科學計算,2018年至今,至強每一代都有顯著提升,因為科學計算很多時候就是“暴力”計算,最考驗CPU的處理能力。

除了硬件上的支持,Intel還有強大的軟件生態(tài)優(yōu)化,包括基于OpenVINO對整個模型進行優(yōu)化、量化,在推薦、語音識別、圖像識別、基因測序等方面Intel都做了大量的優(yōu)化。

比如模型非常大的推薦系統(tǒng)、稀疏矩陣等應用,CPU的效率其實優(yōu)于GPU,因為單個GPU不夠用的時候就得跨GPU,或者和CPU頻繁交互傳輸,而在與內(nèi)存互通方面CPU的效率是更高的。

其他像是網(wǎng)絡、數(shù)據(jù)服務、存儲等等,至強無論性能還是能效都在行業(yè)處于領先地位,更關鍵的是系統(tǒng)故障率非常低。

10.png

對于通用的AI工作負載,Intel采用了AMX、AVX-512兩個指令集,并基于OpenVINO進行優(yōu)化。

AMX適合處理BF16、INT8數(shù)據(jù)類型,比如推薦系統(tǒng)、自然語言處理、圖像識別與目標檢測等等。

AVX-512適合處理FP32、FP64數(shù)據(jù)類型,比如數(shù)據(jù)分析、機器學習等等。

在推理的過程中,指令集還可以進行靈活切分,通過加速器定向加速某一部分,替代基于GPU的AI模型是完全沒有問題的。

事實上,AI只是工作負載的一部分,更多的是通用負載,很多深度學習模型也都是“混合精度”,四代、五代至強運行它們的時候都可以根據(jù)需要在AMX、AVX-512之間靈活無縫切換。

針對大模型的加速,Intel也推出了自己的框架BigDL LLM,有很多框架層針對CPU進行了大量的優(yōu)化,并針對模型做了量化。

另外,Intel擁有開放的生態(tài),行業(yè)伙伴和友商都可以直接納用,這對Intel自身來說也是一件好事,可以帶動整個生態(tài)的發(fā)展,讓Intel的解決方案得到更廣泛的普及。

總的來說,在這個AI時代,CPU、GPU、NPU等各種計算引擎都有自己的獨特優(yōu)勢,都有自己的適用場景和領域,不存在誰取代誰,更多的是靈活的選擇與協(xié)同的高效,需要結合具體業(yè)務的能效、成本等多方面綜合考慮。

CPU作為最傳統(tǒng)的通用計算引擎,始終都會占據(jù)不可替代的地位,無論是作為整個計算平臺的中心樞紐,還是對各種通用負載、AI負載的靈活處理,未來依然可以橫刀立馬!

11.jpg


雜志訂閱.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。