《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 通信與網(wǎng)絡(luò) > 業(yè)界動(dòng)態(tài) > 谷歌開(kāi)源 GPipe 庫(kù),主要用于大規(guī)模深度學(xué)習(xí)模型的快速訓(xùn)練

谷歌開(kāi)源 GPipe 庫(kù),主要用于大規(guī)模深度學(xué)習(xí)模型的快速訓(xùn)練

2019-04-26

  谷歌 人工智能部門(mén) 最近開(kāi)源了 GPipe ,這是一個(gè)用于快速訓(xùn)練大規(guī)模深度學(xué)習(xí)模型的 TensorFlow 類(lèi)庫(kù)。

  深層神經(jīng)網(wǎng)絡(luò)(DNN)主要用于解決自然語(yǔ)言處理和視覺(jué)目標(biāo)識(shí)別等人工智能任務(wù)。以視覺(jué)識(shí)別為例,該領(lǐng)域的最新方法通常以 ImageNet 挑戰(zhàn)賽 的獲勝方案為基準(zhǔn)。每一屆冠軍的成績(jī)都優(yōu)于前一屆;當(dāng)然,模型的復(fù)雜度也會(huì)相應(yīng)增加。2014 年的冠軍 GoogLeNet 通過(guò)使用 400 萬(wàn)個(gè)模型參數(shù)達(dá)到了 74.8% 的 top-1 準(zhǔn)確率,而 2017 年的冠軍 Squeeze-and-Excitation Networks 則使用了 1.458 億個(gè)參數(shù)并達(dá)到了 82.7% 的 top-1 準(zhǔn)確率。

20130219_122824_907.jpg

  在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時(shí)候,模型大小的增加通常會(huì)引起問(wèn)題。為了在合理的時(shí)間內(nèi)完成訓(xùn)練,我們把大部分的計(jì)算任務(wù)委托給了加速器:諸如 GPU 和 TPU 之類(lèi)的專用硬件。但是這些設(shè)備的內(nèi)存有限,這也就限制了訓(xùn)練模型的大小。我們可以通過(guò)一些方法來(lái)減少模型對(duì)內(nèi)存的依賴,比如將數(shù)據(jù)從加速器內(nèi)存中置換出去,但這會(huì)大大減慢訓(xùn)練速度。另一種解決方案則是模型分區(qū),這可以讓模型同時(shí)在多個(gè)加速器中并行執(zhí)行。對(duì)順序性 DNN 來(lái)說(shuō),最好的策略是按層劃分模型,然后由不同的加速器來(lái)訓(xùn)練不同的層。但是由于 DNN 的順序性本質(zhì),有些時(shí)候可能只有一個(gè)加速器在工作,別的加速器則因?yàn)樾枰却渌鼘拥挠?xùn)練結(jié)果而閑置下來(lái)。

  GPipe 通過(guò)進(jìn)一步細(xì)化訓(xùn)練任務(wù)解決了這個(gè)問(wèn)題,它將批量任務(wù)分解為更細(xì)小的“微批量”任務(wù),并在每一層中管道化執(zhí)行這些“微批量”任務(wù)。這樣,下一層的加速器就可以優(yōu)先處理上一層已完成的“微批量”任務(wù)結(jié)果,而不需要等待整個(gè)訓(xùn)練過(guò)程的結(jié)束。

  通過(guò)使用 GPipe 以及 8 個(gè) TPUv2(第二代 TPU 芯片),谷歌研究人員能夠用 18 億個(gè)參數(shù)來(lái)訓(xùn)練視覺(jué)目標(biāo)識(shí)別模型:在使用 GPipe 的情況下,單個(gè) TPUv2 可訓(xùn)練的參數(shù)量增加了 5.6 倍。通過(guò)此次訓(xùn)練的大規(guī)模模型,ImageNet 數(shù)據(jù)驗(yàn)證的準(zhǔn)確率達(dá)到了 84.7%,超過(guò)了 2017 年奪冠時(shí)的 82.7%。

  GPipe 的模型分區(qū)除了能支持更大的模型以外,它也允許多個(gè)加速器并行訓(xùn)練所指定的模型。研究報(bào)告稱,使用 4 倍以上的加速器可以達(dá)到 3.5 倍的加速效果。

  Gpipe 目前是 Lingvo 框架 的一部分,該框架主要用來(lái)在 TensorFlow 中構(gòu)建順序神經(jīng)網(wǎng)絡(luò)模型。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問(wèn)題,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。