分布式 AI 的分層方法支持增量訓(xùn)練或“聯(lián)合學(xué)習(xí)”,從而實現(xiàn)持續(xù)改進(jìn)?!安粩嗟刂匦掠?xùn)練和更新神經(jīng)網(wǎng)絡(luò)。你必須有一些非易失性內(nèi)存或一些內(nèi)存,你可以將這些更新推送到所有這些設(shè)備中——無論大小?!?/p>
例如,聯(lián)想的 ThinkEdge 包括一個支持人工智能的邊緣設(shè)備。它使用高性能 DDR4 DRAM 和容量 SSD 來支持人工智能和機(jī)器學(xué)習(xí)模型,例如用于跟蹤倉庫和物流操作或自動化制造過程的計算機(jī)視覺。
對于工業(yè)機(jī)器人和自動駕駛汽車等汽車用例,可能需要更多的內(nèi)存帶寬和容量,但不一定是最重要的。
Macronix 技術(shù)營銷總監(jiān) Jim Yastic 表示,人工智能的炒作周期類似于物聯(lián)網(wǎng),現(xiàn)在物聯(lián)網(wǎng)在汽車、工業(yè)和安全環(huán)境中發(fā)揮著重要作用。IDC 預(yù)測,到 2023 年,70% 的物聯(lián)網(wǎng)部署將包括用于自主或邊緣決策的人工智能,其中計算機(jī)視覺是增長最快的邊緣人工智能應(yīng)用之一。
Yastic 表示,分布式的人工智能方法是有意義的,因為在數(shù)據(jù)中心做任何事情都是昂貴的。正如物聯(lián)網(wǎng)設(shè)備在本地具有更多處理能力一樣,更多的人工智能操作正在移出數(shù)據(jù)中心,同時確定需要將哪些內(nèi)容發(fā)送回中央云。
在工業(yè)和汽車領(lǐng)域,邊緣 AI 的內(nèi)存需求由各種類型的傳感器決定,這些傳感器都執(zhí)行某種級別的過濾,并通過將選定的數(shù)據(jù)發(fā)送回中心位置來幫助創(chuàng)建更好的 ML 模型。然后下載新模型。
Yastic 說,這種方法是必要的,因為汽車等行業(yè)根本無法在短時間內(nèi)處理 TB 級數(shù)據(jù)。即使有 5G 的可用性,本地系統(tǒng)也必須快速做出一些明智的決定,而不需要來回傳輸大量數(shù)據(jù)。在自動駕駛汽車中,5G 支持 ADAS 和 AI 功能。
Yastic 表示,不同設(shè)備必須做出決策的速度決定了 AI 系統(tǒng)架構(gòu),因此也決定了以性能和密度衡量的內(nèi)存需求?!案鶕?jù)應(yīng)用的不同,它可能只是一個”嵌入式多媒體卡。
內(nèi)存菜單
用于汽車和工業(yè) AI 的其他存儲設(shè)備可能包括通用閃存、NAND 閃存 SSD、DRAM 甚至 SRAM。
在許多這些生態(tài)系統(tǒng)中,尤其是在汽車領(lǐng)域,沒有改變的是可靠性、安全性和安保性。這就是為什么現(xiàn)有內(nèi)存仍將是首選,即使對于 AI 任務(wù)也是如此。就像今天的汽車是車輪上的服務(wù)器一樣,它們也是嵌入式端點的集合,包括傳感器和帶有板載內(nèi)存的攝像頭,它們的使用壽命與車輛一樣長。
Yastic 預(yù)測,高可靠性和長壽命是 NOR 閃存將在汽車 AI 中長期發(fā)揮作用的原因,它可以在惡劣的環(huán)境中運(yùn)行十年或更長時間。它還因其快速啟動能力而受到汽車制造商的青睞。例如,Macronix 的 OctaFlash SPI NOR 閃存提供快速啟動和快速接口,可以到達(dá)自動駕駛汽車的大多數(shù)端點。
Yastic 指出,這也歸結(jié)為成本:NOR 閃存已經(jīng)存在了很長時間,因此價格點已經(jīng)下降。
所有內(nèi)存技術(shù)都不可避免地增加了密度和性能,同時以更小的外形尺寸以更低的成本消耗更少的功率。數(shù)據(jù)中心仍然需要高性能內(nèi)存來處理 AI 和 ML 工作負(fù)載,但商品內(nèi)存也有機(jī)會滿足分布式系統(tǒng)中的許多 AI 需求。
根據(jù) Rambus 研究員 Steve Woo 的說法,從長遠(yuǎn)來看,計算的歷史可以預(yù)測 AI 系統(tǒng)內(nèi)存的未來。“今天的超級計算機(jī)就是明天的智能手機(jī),”他指出。
一些需要高端硬件的早期 AI 模型現(xiàn)在可以使用更主流的內(nèi)存來處理?!艾F(xiàn)在它更容易獲得,部分原因是半導(dǎo)體行業(yè)已經(jīng)為小型化做出了貢獻(xiàn),并且不得不降低硬件成本。”
今天的 HBM2 很快就會變成一些 DDR DIMM 和其他通過 Compute Express Link (CXL)連接的內(nèi)存?!澳鷮⒛軌蜻_(dá)到今天看起來遙不可及的相同性能水平,”Woo 說。
Woo 將人工智能的主流化比作智能手機(jī)長達(dá)十年的演變?!坝懈鞣N各樣的開發(fā)人員想出了使用這項技術(shù)的新方法,”他指出。隨著規(guī)模的擴(kuò)大,市場發(fā)展到隨著數(shù)量的增加,開發(fā)出服務(wù)于低功耗市場的專用存儲器。Woo 期望 AI 記憶具有相同的協(xié)同作用?!俺杀緦⒗^續(xù)下降。專業(yè)組件現(xiàn)在將是合理的,因為您可以為它實現(xiàn) [投資回報]?!?/p>
Woo 補(bǔ)充說,這些進(jìn)步也與互聯(lián)網(wǎng)的架構(gòu)變化相一致?!皵?shù)據(jù)移動正在成為瓶頸。” 將數(shù)據(jù)移動到云端進(jìn)行處理會消耗過多的能源,因此在本地進(jìn)行處理可以降低成本并提高性能,同時消耗更少的電力。
Woo 還看到了推理和計算任務(wù)以及端點類型來確定隨著 AI 的進(jìn)步哪些存儲器最適合。無論如何,熱特性和功率限制將是一個因素。“你可以看到取舍。” 他說,如果只是推理,那么片上 SRAM 可能就足夠了。
Woo 說,隨著人工智能變得無處不在并分布在不同的平臺上,最終對記憶至關(guān)重要的是神經(jīng)網(wǎng)絡(luò)的精簡,例如,使它們成為主流人工智能平臺。
Rambus 研究員補(bǔ)充說,在可預(yù)見的未來,基于人工智能的應(yīng)用程序?qū)⑿枰売嬎悖柖煽s放和其他內(nèi)存進(jìn)步將有助于使數(shù)據(jù)更接近計算資源。任何新的內(nèi)存類型面臨的挑戰(zhàn)是展示證明替換經(jīng)過嘗試和真實的東西的好處。
“行業(yè)中真正需要的內(nèi)存數(shù)量有限。在很多情況下,有很多現(xiàn)任者似乎足夠優(yōu)秀,”Woo 說。
更多信息可以來這里獲取==>>電子技術(shù)應(yīng)用-AET<<