《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 如何讓IoT應用得以從芯片自我學習中受益

如何讓IoT應用得以從芯片自我學習中受益

2017-06-15

  比利時研究機構Imec認為,相較于使用神經網(wǎng)絡,基于電阻和磁內存單元數(shù)組的機器學習加速器更有助于降低成本和功耗。例如,在其最初的研究結果顯示,磁阻式隨機存取內存(MRAM)數(shù)組可讓功率降低兩個數(shù)量級。

  但這項具有前景的開發(fā)工作仍處于初期階段。Imec預計要到今年稍晚提出專利申請后,才會發(fā)布更多有關該芯片的架構及其性能等細節(jié)。該研究機構從一年半以前開始組成機器學習小組,期望擴展在其核心任務——芯片制程技術以外的更多相關研究。

  在今年的Imec技術論壇(ITF2017)開幕當天,研究人員們率先發(fā)布這款芯片,同時也介紹其于低功耗眼動追蹤系統(tǒng)的最新進展,以及一款可為義肢提供更高階觸覺反饋的植入式芯片。

  在自我學習分類任務方面,采用MRAM單元的Imec數(shù)組具有更高100倍的能源效率。Imec半導體技術與系統(tǒng)執(zhí)行副總裁An Steegen表示:「整體而言,使用新興內存比基于CMOS的機器學習架構更節(jié)能?!?/p>

  另一款芯片采用基于金屬氧化物電阻式隨機存取內存(ReRAM)的單元數(shù)組,Imec研究人員們稱之為‘OxRAM’。 這款65nm的芯片經由取得40首古典長笛樂曲上的資料,學會了預測模式,然后再根據(jù)所學習的模式自行創(chuàng)作音樂。

  新興內存的優(yōu)點在于能讓數(shù)據(jù)位儲存在同一個單元中,從而實現(xiàn)最小的晶粒尺寸。這種方法讓Imec更加期望有一天能將其整合于傳感器節(jié)點中,讓物聯(lián)網(wǎng)(IoT)應用得以從自我學習中受益。

  該芯片需要許多數(shù)組的層級架構以執(zhí)行有利的工作。但 Imec尚未透露這款芯片上的數(shù)組大小。

  負責這項開發(fā)計劃的Praveen Raghavan說:「OxRAM一直用于內存儲存,但我們想將它用于兩個對象之間的隨機鏈接。該展示以饋入編碼機制作為輸入,并提供可能的預測,饋入地址并讀取預測作為輸出數(shù)據(jù)?!?/p>

  「其優(yōu)點在于能實現(xiàn)極其密集的自我學習芯片——相形之下,IBM的True North的占位面積太大了。而且,這款極高密度且極低功耗的芯片是可以大量制造的,」他補充說。

  雖然不完全是神經網(wǎng)絡,但這種技術在應用方面類似于可預測事件序列的長短期記憶(LSTM)網(wǎng)絡。他說:「相較于LSTM加速器需要更多的數(shù)據(jù)以及一款用于訓練的較大GPU,這款OxRAM芯片的成本比更低?!?/p>

  OxRAM途徑也適用于像生成對抗網(wǎng)絡(GAN)等應用;GAN是一種新興的技術,讓神經網(wǎng)絡之間互相對抗,以加快學習速度。

  義肢觸覺與眼動追蹤技術

  此外,Imec還開發(fā)了具有128個記錄電極和32個刺激電極的植入式神經芯片硬件,可實現(xiàn)較現(xiàn)有裝置更多10倍的觸點數(shù)。這款芯片如今正在進行動物試驗,期望能提供較現(xiàn)有義肢更明顯有效的控制與觸覺反饋。

  這款芯片能夠以數(shù)百毫秒(ms)的速度在大腦和義肢之間傳送訊號。雖然比人類的神經傳導速度更慢,但較當今的義肢所要求的秒數(shù)更快。

  然而,Imec至今僅開發(fā)了硬件原型,尚未對于軟件進行優(yōu)化。隨著導線數(shù)量持續(xù)增加,未來可能會產生明顯的延遲。

  該計劃是Imec與美國佛羅里達大學(University of Florida)合作的一部份,該?,F(xiàn)正進行美國國防部先進研究計劃署(DARPA)的一項研究計劃。

  最后,Imec并展示提供眼動追蹤技術的眼鏡,其方式是在眼睛周圍監(jiān)測人腦與神經訊號。截至目前為止,該系統(tǒng)的準確度還比不上目前基于攝影機的眼動追蹤技術。不過,它更有助于大幅降低成本與功耗。


本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。