《電子技術應用》
您所在的位置:首頁 > 其他 > 設計應用 > 基于NOR Flash的存算一體模擬乘加電路設計
基于NOR Flash的存算一體模擬乘加電路設計
信息技術與網(wǎng)絡安全
丁士鵬,黃 魯
(中國科學技術大學 微電子學院,安徽 合肥230026)
摘要: 提出一種基于NOR Flash的存算一體模擬乘加電路以及相應的偏置電路,運用NOR Flash工作于深線性區(qū)的I-V特性,實現(xiàn)模擬乘累加運算。通過將同一位線、不同字線的兩個浮柵管上電流相減,實現(xiàn)其閾值電壓差值與漏源電壓的乘法運算。同時將同一字線、不同位線的浮柵管電流相加,實現(xiàn)乘法結(jié)果的加法運算。給出電路使NOR Flash位線電流相加、字線電流相減,將運算結(jié)果以偽差分的形式輸出,仿真結(jié)果表明電路可以實現(xiàn)存算一體的模擬乘累加運算。
中圖分類號: TN432
文獻標識碼: A
DOI: 10.19358/j.issn.2096-5133.2021.06.012
引用格式: 丁士鵬,黃魯. 基于NOR Flash的存算一體模擬乘加電路設計[J].信息技術與網(wǎng)絡安全,2021,40(6):69-74.
Design of an analog multiply accumulate circuit based on NOR Flash
Ding Shipeng,Huang Lu
(College of Microelectronics,University of Science and Technology of China,Hefei 230026,China)
Abstract: This article proposed a NOR Flash-based storage-calculation integrated analog multiply-accumulate circuit and the corresponding bias circuit, using the I-V characteristics of NOR Flash working in deep linear region to realize analog multiply-accumulate operations. Subtracting the current on the two floating gate tubes of the same bit line and different word line, the difference threshold voltage multiplied with the drain-source voltage. And the current on the floating gate tubes of the same word line and different bit lines were added together to realize the addition operation of the multiplication result. This article provided a circuit to add NOR Flash bit line current and subtract word line current, and output the calculation results in the form of pseudo-differential. The simulation result showed that the circuit can realize the analog multiply-accumulate operation of storing and calculating.
Key words : NOR Flash;storage and calculation;analog multiply and accumulate circuit

0 引言

隨著對人工智能研究的不斷深入,深度學習正成為訓練機器實現(xiàn)智能的重要研究方法。在深度學習中,有著大量的輸入數(shù)據(jù)、網(wǎng)絡參數(shù)以及乘累加運算[1]。

在以馮·諾依曼為主流的存算分離架構(gòu)中,計算單元與內(nèi)存單元數(shù)據(jù)搬運的時延和功耗開銷越來越成為深度學習神經(jīng)網(wǎng)絡所面臨的一個嚴峻問題[2],嚴重制約著深度學習神經(jīng)網(wǎng)絡的應用。以應用深度學習神經(jīng)網(wǎng)絡的AlphaGo為例,其在進行每一局的圍棋活動中,用電成本約為3 000美元[3],對于大多數(shù)智能設備而言,是無法接受的。面對傳統(tǒng)存算架構(gòu)在深度學習神經(jīng)網(wǎng)絡運算中的功耗與速度瓶頸,采用存算一體的架構(gòu)成為現(xiàn)階段解決帶寬與功耗問題的一條有效途徑。





本文詳細內(nèi)容請下載:http://ihrv.cn/resource/share/2000003603




作者信息:

丁士鵬,黃  魯

(中國科學技術大學 微電子學院,安徽 合肥230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。