分布式 AI 的分層方法支持增量訓練或“聯(lián)合學習”,從而實現(xiàn)持續(xù)改進?!安粩嗟刂匦掠柧毢透律窠浘W(wǎng)絡。你必須有一些非易失性內存或一些內存,你可以將這些更新推送到所有這些設備中——無論大小?!?/p>
例如,聯(lián)想的 ThinkEdge 包括一個支持人工智能的邊緣設備。它使用高性能 DDR4 DRAM 和容量 SSD 來支持人工智能和機器學習模型,例如用于跟蹤倉庫和物流操作或自動化制造過程的計算機視覺。
對于工業(yè)機器人和自動駕駛汽車等汽車用例,可能需要更多的內存帶寬和容量,但不一定是最重要的。
Macronix 技術營銷總監(jiān) Jim Yastic 表示,人工智能的炒作周期類似于物聯(lián)網(wǎng),現(xiàn)在物聯(lián)網(wǎng)在汽車、工業(yè)和安全環(huán)境中發(fā)揮著重要作用。IDC 預測,到 2023 年,70% 的物聯(lián)網(wǎng)部署將包括用于自主或邊緣決策的人工智能,其中計算機視覺是增長最快的邊緣人工智能應用之一。
Yastic 表示,分布式的人工智能方法是有意義的,因為在數(shù)據(jù)中心做任何事情都是昂貴的。正如物聯(lián)網(wǎng)設備在本地具有更多處理能力一樣,更多的人工智能操作正在移出數(shù)據(jù)中心,同時確定需要將哪些內容發(fā)送回中央云。
在工業(yè)和汽車領域,邊緣 AI 的內存需求由各種類型的傳感器決定,這些傳感器都執(zhí)行某種級別的過濾,并通過將選定的數(shù)據(jù)發(fā)送回中心位置來幫助創(chuàng)建更好的 ML 模型。然后下載新模型。
Yastic 說,這種方法是必要的,因為汽車等行業(yè)根本無法在短時間內處理 TB 級數(shù)據(jù)。即使有 5G 的可用性,本地系統(tǒng)也必須快速做出一些明智的決定,而不需要來回傳輸大量數(shù)據(jù)。在自動駕駛汽車中,5G 支持 ADAS 和 AI 功能。
Yastic 表示,不同設備必須做出決策的速度決定了 AI 系統(tǒng)架構,因此也決定了以性能和密度衡量的內存需求?!案鶕?jù)應用的不同,它可能只是一個”嵌入式多媒體卡。
內存菜單
用于汽車和工業(yè) AI 的其他存儲設備可能包括通用閃存、NAND 閃存 SSD、DRAM 甚至 SRAM。
在許多這些生態(tài)系統(tǒng)中,尤其是在汽車領域,沒有改變的是可靠性、安全性和安保性。這就是為什么現(xiàn)有內存仍將是首選,即使對于 AI 任務也是如此。就像今天的汽車是車輪上的服務器一樣,它們也是嵌入式端點的集合,包括傳感器和帶有板載內存的攝像頭,它們的使用壽命與車輛一樣長。
Yastic 預測,高可靠性和長壽命是 NOR 閃存將在汽車 AI 中長期發(fā)揮作用的原因,它可以在惡劣的環(huán)境中運行十年或更長時間。它還因其快速啟動能力而受到汽車制造商的青睞。例如,Macronix 的 OctaFlash SPI NOR 閃存提供快速啟動和快速接口,可以到達自動駕駛汽車的大多數(shù)端點。
Yastic 指出,這也歸結為成本:NOR 閃存已經存在了很長時間,因此價格點已經下降。
所有內存技術都不可避免地增加了密度和性能,同時以更小的外形尺寸以更低的成本消耗更少的功率。數(shù)據(jù)中心仍然需要高性能內存來處理 AI 和 ML 工作負載,但商品內存也有機會滿足分布式系統(tǒng)中的許多 AI 需求。
根據(jù) Rambus 研究員 Steve Woo 的說法,從長遠來看,計算的歷史可以預測 AI 系統(tǒng)內存的未來?!敖裉斓某売嬎銠C就是明天的智能手機,”他指出。
一些需要高端硬件的早期 AI 模型現(xiàn)在可以使用更主流的內存來處理。“現(xiàn)在它更容易獲得,部分原因是半導體行業(yè)已經為小型化做出了貢獻,并且不得不降低硬件成本?!?/p>
今天的 HBM2 很快就會變成一些 DDR DIMM 和其他通過 Compute Express Link (CXL)連接的內存?!澳鷮⒛軌蜻_到今天看起來遙不可及的相同性能水平,”Woo 說。
Woo 將人工智能的主流化比作智能手機長達十年的演變。“有各種各樣的開發(fā)人員想出了使用這項技術的新方法,”他指出。隨著規(guī)模的擴大,市場發(fā)展到隨著數(shù)量的增加,開發(fā)出服務于低功耗市場的專用存儲器。Woo 期望 AI 記憶具有相同的協(xié)同作用。“成本將繼續(xù)下降。專業(yè)組件現(xiàn)在將是合理的,因為您可以為它實現(xiàn) [投資回報]。”
Woo 補充說,這些進步也與互聯(lián)網(wǎng)的架構變化相一致?!皵?shù)據(jù)移動正在成為瓶頸?!?將數(shù)據(jù)移動到云端進行處理會消耗過多的能源,因此在本地進行處理可以降低成本并提高性能,同時消耗更少的電力。
Woo 還看到了推理和計算任務以及端點類型來確定隨著 AI 的進步哪些存儲器最適合。無論如何,熱特性和功率限制將是一個因素?!澳憧梢钥吹饺∩??!?他說,如果只是推理,那么片上 SRAM 可能就足夠了。
Woo 說,隨著人工智能變得無處不在并分布在不同的平臺上,最終對記憶至關重要的是神經網(wǎng)絡的精簡,例如,使它們成為主流人工智能平臺。
Rambus 研究員補充說,在可預見的未來,基于人工智能的應用程序將需要超級計算,但摩爾定律縮放和其他內存進步將有助于使數(shù)據(jù)更接近計算資源。任何新的內存類型面臨的挑戰(zhàn)是展示證明替換經過嘗試和真實的東西的好處。
“行業(yè)中真正需要的內存數(shù)量有限。在很多情況下,有很多現(xiàn)任者似乎足夠優(yōu)秀,”Woo 說。
更多信息可以來這里獲取==>>電子技術應用-AET<<