根據(jù)v1版本使用記錄和市場評測進一步完善,以應用于更多的實際產(chǎn)品
邊緣AI領域的領先標桿企業(yè)LeapMind有限公司今日公布了其正在開發(fā)和授權的超低功耗AI推理加速器IP “Efficiera” v2版本(以下簡稱“v2”)。LeapMind于2021年9月發(fā)布了Efficiera v2的測試版,并收到了許多公司的測試及反饋,包括SoC供應商和終端用戶產(chǎn)品設計師。Efficiera v2預計2021年12月開始發(fā)售,如有意向獲取,請通過此郵箱垂詢:business@leapmind.io。
LeapMind首席執(zhí)行官Soichi Matsuda表示:“去年,我們正式推出了v1的商用版本,許多公司對Efficiera進行了評測。截至2021年9月底,我們共與8家日本國內公司簽署了授權協(xié)議?!蚴澜鐐鞑ゲ捎脵C器學習的新設備’是我們根據(jù)企業(yè)理念所設定的座右銘,而我們正通過提供v1來穩(wěn)步推進這一理念的落地。在未來,我們將進一步通過技術創(chuàng)新和產(chǎn)品陣容擴展,繼續(xù)努力實現(xiàn)人工智能的普及?!?/p>
Efficiera v2根據(jù)v1的使用記錄和市場評測,擴大了應用范圍,在保持最小配置的電路規(guī)?;A上,可覆蓋更廣泛的性能范圍,并應用于更多的實際產(chǎn)品。產(chǎn)品由此得到了進一步的完善。
Efficiera v2概念
LeapMind董事兼首席技術官Hiroyuki Tokunaga博士表示:“自去年發(fā)布v1以來,我們強化了設計/驗證方法和開發(fā)流程,旨在‘開發(fā)世界上最節(jié)能的DNN加速器’。我們一直在開發(fā)v2,以使產(chǎn)品能夠適用于專用集成電路(ASIC)和專用標準產(chǎn)品(ASSP)。我們還在開發(fā)一個深度學習方面的推理學習模型,以便將超小量化技術的優(yōu)勢最大化。LeapMind的最大優(yōu)勢就在于我們可以提供一種技術來實現(xiàn)雙管齊下?!?/p>
Efficiera v2的主要規(guī)格與特性
A.在保持最小電路規(guī)模的同時,覆蓋更廣泛的性能范圍,從而擴大應用范圍。
硬件特性
● 通過多路復用MAC陣列+多核,性能可擴展至48倍
V2允許你將卷積管道中的MAC陣列數(shù)量增加到v1的3倍(可選擇x1、x4),并通過提供多達4個內核的選擇,進一步擴大性能的可擴展性。
● 除卷積和量化外,還可實現(xiàn)硬件執(zhí)行跳過連接和像素嵌入
1. 跳過連接是多層卷積神經(jīng)網(wǎng)絡(CNN)中常見的一種操作。(v1中由CPU執(zhí)行)
2. 像素嵌入是一種對輸入數(shù)據(jù)進行量化的方法
● 資源使用方面,配置與Efficiera 1相同
1. 有些應用只因AI功能可在規(guī)模有限的FPGA器件上實現(xiàn)就能創(chuàng)造價值。
2. LeapMind分析了一個實用型深度學習模型的執(zhí)行時間,并仔細選擇了額外的硬件功能。
集成到SoC中
● AMBA AXI接口
● AMBA AXI interface
AMBA AXI繼續(xù)被用作與外部的接口,并且當接口被視為一個黑盒子時與以前一樣,易于從當前設計中遷移。
● 單時鐘域
FPGA中的目標頻率
● FPGA的運行頻率與先前相同,雖然取決于具體設備,但預計約為150到250MHz。
1. 256 GOP/s @ 125MHz (單核)
2. 高達12 TOP/s @ 250MHz (雙核)
● 以加密RTL的形式提供
B. 通過改進設計/驗證方法并審查開發(fā)流程,我們確保質量不僅適用于FPGA,也適用于ASIC/ASSP。
C. 開始提供一個模型開發(fā)環(huán)境(NDK),使用戶能夠為Efficiera開發(fā)深度學習模型。目前為止只有LeapMind實現(xiàn)了這項工作。
● 為Efficiera創(chuàng)建超小型量化深度學習模型所需的代碼和信息包
● GPU深度學習模型的開發(fā)者可立即上手使用
● 支持PyTorch和TensorFlow 2的深度學習框架
● 學習環(huán)境為一個配備GPU的Linux服務器
● 推理環(huán)境為一個配備Efficiera的設備
● 來自LeapMind的技術支持