文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2021.06.007
引用格式: 陳雅倩,黃魯. 基于浮柵器件的低位寬卷積神經(jīng)網(wǎng)絡(luò)研究[J].信息技術(shù)與網(wǎng)絡(luò)安全,2021,40(6):38-42.
0 引言
卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)在圖像識(shí)別等領(lǐng)域有著廣泛的應(yīng)用,隨著網(wǎng)絡(luò)深度的不斷增加,CNN模型的參數(shù)也越來(lái)越多,例如Alexnet[1]網(wǎng)絡(luò),結(jié)構(gòu)為5層卷積層,3層全連接層,網(wǎng)絡(luò)參數(shù)超過(guò)5 000萬(wàn),全精度的模型需要250 MB的存儲(chǔ)空間,而功能更加強(qiáng)大的VGG[2]網(wǎng)絡(luò)和Res[3]網(wǎng)絡(luò)的深度以及參數(shù)量更是遠(yuǎn)遠(yuǎn)超過(guò)Alexnet。對(duì)于這些卷積神經(jīng)網(wǎng)絡(luò),每個(gè)運(yùn)算周期都需要對(duì)數(shù)百萬(wàn)個(gè)參數(shù)進(jìn)行讀取和運(yùn)算,大量參數(shù)的讀取既影響網(wǎng)絡(luò)的計(jì)算速度也帶來(lái)了功耗問(wèn)題?;隈T諾依曼架構(gòu)的硬件由于計(jì)算單元和存儲(chǔ)單元分離,在部署CNN模型時(shí)面臨存儲(chǔ)墻問(wèn)題,數(shù)據(jù)頻繁搬運(yùn)消耗的時(shí)間和能量遠(yuǎn)遠(yuǎn)大于計(jì)算單元計(jì)算消耗的時(shí)間和能量。
存算一體架構(gòu)的硬件相對(duì)于馮諾依曼架構(gòu)的硬件,將計(jì)算單元和存儲(chǔ)單元合并,大大減少了數(shù)據(jù)的傳輸,從而降低功耗和加快計(jì)算速度[4],因此將深度卷積神經(jīng)網(wǎng)絡(luò)部署在基于存算一體架構(gòu)的硬件上具有廣闊的前景。目前實(shí)現(xiàn)存算一體化的硬件主要包括相變存儲(chǔ)器[5](Phase Change Memory,PCM),阻變存儲(chǔ)器ReRAM[6]以及浮柵器件Flash,其中Flash由于制造工藝成熟,受到廣泛關(guān)注。
本文詳細(xì)內(nèi)容請(qǐng)下載:http://ihrv.cn/resource/share/2000003598
作者信息:
陳雅倩,黃 魯
(中國(guó)科學(xué)技術(shù)大學(xué) 微電子學(xué)院,安徽 合肥230026)