8月14日消息,北極雄芯(Polar Bear Tech)官方宣布,歷經(jīng)近2年的設(shè)計(jì)開發(fā),自主研發(fā)的啟明935系列芯粒(Chiplet)已經(jīng)成功交付流片,而且一次性投出兩顆,一是通用型HUB Chiplet“啟明935”,二是原生支持Transformer全系算子的AI Chiplet“大熊星座”。
北極雄芯成立于2018年,由清華大學(xué)交叉信息研究院助理教授馬愷聲創(chuàng)辦,清華大學(xué)姚期智院士創(chuàng)建的交叉信息核心技術(shù)研究院孵化發(fā)展,在西安、北京、天津、南京設(shè)立研發(fā)中心。
該公司致力于成為基于Chiplet的定制化高性能計(jì)算解決方案領(lǐng)航者,采用創(chuàng)新型的Chiplet異構(gòu)集成模式,以通用型Hub Chiplet、功能型Functional Chiplet等模塊為基礎(chǔ),針對(duì)不同場(chǎng)景支持靈活的封裝方式,為廣大高性能計(jì)算場(chǎng)景使用方提供低成本、短周期、高靈活性的解決方案。
2023年初完成測(cè)試并發(fā)布了國內(nèi)首個(gè)基于Chiplet架構(gòu)的“啟明930”芯片,在國產(chǎn)封裝供應(yīng)鏈上成功完成了工藝驗(yàn)證;
同年,發(fā)布首個(gè)基于國內(nèi)《高速芯?;ヂ?lián)標(biāo)準(zhǔn)》的D2D接口PB Link,為Chiplet獨(dú)立開發(fā)組合大規(guī)模量產(chǎn)奠定了基礎(chǔ)。
北極雄芯的啟明935系列芯粒包括以“啟明935”高性能通用HUB Chiplet為核心,以及“大熊星座”AI Chiplet和GPU Chiplet等功能型Chiplet的芯粒家族,基于車規(guī)級(jí)要求設(shè)計(jì),靈活搭配,可快速生成面向自動(dòng)駕駛、具身智能、AI推理加速等場(chǎng)景的終端產(chǎn)品。
“啟明935”高性能通用HUB Chiplet,基于多核ARM CorteX-A系列CPU核心,支持PCIe 5.0、LPDDR5,集成北極雄芯自主研發(fā)的車規(guī)級(jí)Zeus Gen2 NPU核心提供AI加速算力,還包含視頻編解碼模塊、ISP模塊、萬兆網(wǎng)口及MIPI接口、信息安全及功能安全模塊等,符合車規(guī)級(jí)設(shè)計(jì)要求。
4個(gè)獨(dú)立的PB Link接口,芯?;ヂ?lián)帶寬合計(jì)128GB/s,可與其他功能型芯粒拓展組合。
“大熊星座”AI Chiplet基于自主研發(fā)的Zeus Gen2 NPU核心,不同核心既可獨(dú)立運(yùn)行,也可聯(lián)合運(yùn)行加速同一任務(wù)。
原生支持Transformer全部算子,帶寬利用率高,支持INT4、INT8、INT16、FP16等計(jì)算精度,支持常見的卷積層、線性層、池化層和激活層,功能上支持常用檢測(cè)、分類等模型,包括但不限于VGG、ResNet、Yolo等。
可有效支持PyTorch、TensorFlow、PaddlePaddle、ONNX等主流AI框架,在不同AI模型上實(shí)測(cè)平均利用率達(dá)到70%以上。
北極雄芯用于智能座艙領(lǐng)域的GPU Chiplet也在同步開發(fā)中,預(yù)計(jì)2025年中交付流片。
通過啟明935 HUB Chiplet與不同數(shù)量的AI Chiplet靈活搭配組合,可形成不同算力檔次的自動(dòng)駕駛芯片,覆蓋輔助自動(dòng)駕駛、高速NOA、城市NOA、車路協(xié)同等自動(dòng)駕駛算力需求。
未來加入GPU Chiplet組合后,可生成不同AI、GPU算力的艙行泊一體芯片,為下游OEM、Tier1提供智能駕駛解決方案,而且成本較低,靈活性更高。
基于啟明935 HUB Chiplet及AI Chiplet異構(gòu)集成的多顆自動(dòng)駕駛芯片,已于2024年取得SGS、中汽研境內(nèi)外ISO-26262 ASIL-B車規(guī)級(jí)雙認(rèn)證,是國內(nèi)首個(gè)取得車規(guī)級(jí)認(rèn)證的Chiplet產(chǎn)品,預(yù)計(jì)將于2024年底提供核心板交付下游開展適配工作。
基于啟明935 HUB Chiplet與AI Chiplet組合的AI推理加速模組、加速卡,也可以廣泛應(yīng)用于邊緣側(cè)、端側(cè)AI推理應(yīng)用領(lǐng)域,包括AI推理一體機(jī)、工控機(jī)、機(jī)器人等,并支持70B的大模型推理加速。