7 月 31 日消息,來自明尼蘇達(dá)大學(xué)雙城校區(qū)的研究團(tuán)隊最新研制出計算隨機(jī)存取存儲器(CRAM),可以將 AI 芯片的能耗降至千分之一。
國際能源機(jī)構(gòu) (IEA) 預(yù)測,AI 的能源消耗將翻一番,2022 年耗電量為 460 太瓦時(TWh),而在 2026 年耗電量預(yù)估將達(dá)到 1000 太瓦時。
團(tuán)隊表示,傳統(tǒng) AI 芯片需要在邏輯(處理)和內(nèi)存(存儲)之間不斷傳輸數(shù)據(jù),因此導(dǎo)致耗電量巨大。
而 CRAM 新型存儲器通過將數(shù)據(jù)保存在存儲器內(nèi)進(jìn)行處理來解決這一問題,數(shù)據(jù)無需離開計算機(jī)存儲信息的網(wǎng)格,可以完全在內(nèi)存陣列中進(jìn)行處理。
團(tuán)隊表示和傳統(tǒng)方法相比,基于 CRAM 的機(jī)器學(xué)習(xí)推理加速器能耗可降低至千分之一,甚至在某些場景應(yīng)用下可以達(dá)到 1/1700 或者 1/2500。
該團(tuán)隊成立于 2003 年,由物理學(xué)、材料科學(xué)、計算機(jī)科學(xué)和工程學(xué)專家組成,在過去 20 多年來一直開發(fā)該技術(shù)。
該研究以磁性隧道結(jié)(Magnetic Tunnel Junctions,MTJs)相關(guān)專利為基礎(chǔ),而 MTJ 是硬盤、傳感器和其他微電子系統(tǒng)(包括磁隨機(jī)存取存儲器 MRAM)中使用的納米結(jié)構(gòu)器件。
CRAM 架構(gòu)克服了傳統(tǒng)馮-諾依曼架構(gòu)(計算和內(nèi)存是兩個獨立的實體)的瓶頸,能夠比傳統(tǒng)系統(tǒng)更有效地滿足各種人工智能算法的性能需求。
明尼蘇達(dá)大學(xué)團(tuán)隊目前正與半導(dǎo)體行業(yè)的領(lǐng)導(dǎo)者合作,擴(kuò)大演示規(guī)模,并生產(chǎn)必要的硬件,以更大規(guī)模地降低人工智能能耗。