《電子技術應用》
您所在的位置:首頁 > 通信與網(wǎng)絡 > 設計應用 > GSDCPeleeNet:基于PeleeNet的高效輕量化卷積神經(jīng)網(wǎng)絡
GSDCPeleeNet:基于PeleeNet的高效輕量化卷積神經(jīng)網(wǎng)絡
2021年電子技術應用第3期
倪偉健,秦會斌
杭州電子科技大學 電子信息學院 新型電子器件與應用研究所,浙江 杭州310018
摘要: 卷積神經(jīng)網(wǎng)絡在各個領域都發(fā)揮著重要的作用,尤其是在計算機視覺領域,但過多的參數(shù)數(shù)量和計算量限制了它在移動設備上的應用。針對上述問題,結(jié)合分組卷積方法和參數(shù)共享、密集連接的思想,提出了一種新的卷積算法Group-Shard-Dense-Channle-Wise。利用該卷積算法,在PeleeNet網(wǎng)絡結(jié)構(gòu)的基礎上,改進出一種高效的輕量化卷積神經(jīng)網(wǎng)絡——GSDCPeleeNet。與其他卷積神經(jīng)網(wǎng)絡相比,該網(wǎng)絡在具有更少參數(shù)的情況下,幾乎不損失識別精度甚至識別精度更高。該網(wǎng)絡選取1×1卷積層中卷積核信道方向上的步長s作為超參數(shù),調(diào)整并適當?shù)剡x取該超參數(shù),可以在網(wǎng)絡參數(shù)量更小的情況下,擁有更好的圖像分類效果。
中圖分類號: TN911.73;TP399
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.200844
中文引用格式: 倪偉健,秦會斌. GSDCPeleeNet:基于PeleeNet的高效輕量化卷積神經(jīng)網(wǎng)絡[J].電子技術應用,2021,47(3):22-26,30.
英文引用格式: Ni Weijian,Qin Huibin. GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet[J]. Application of Electronic Technique,2021,47(3):22-26,30.
GSDCPeleeNet:efficient lightweight convolutional neural based on PeleeNet
Ni Weijian,Qin Huibin
Institute of New Electronic Devices and Applications,School of Electronic Information,Hangzhou Dianzi University, Hangzhou 310018,China
Abstract: Convolutional neural network plays an important role in various fields, especially in the field of computer vision, but its application in mobile devices is limited by the excessive number of parameters and computation. In view of the above problems, a new convolution algorithm, Group-Shard-Dense-Channle-Wise, is proposed in combination with the idea of grouping convolution and parameter sharing and dense connection. Based on the PeleeNet network structure, an efficient lightweight convolutional neural network, GSDCPeleeNet, is improved by using the convolution algorithm. Compared with other convolutional neural networks, this network has almost no loss of recognition accuracy or even higher recognition accuracy under the condition of fewer parameters. In this network, the step size s in the channel direction of convolution kernel in the 1×1 convolutional layer is selected as the super parameter. When the number of network parameters is smaller, better image classification effect can be achieved by adjusting and selecting the super parameter appropriately.
Key words : image classification;convolutional neural network;lightweight;dense connectivity;parameter sharing

0 引言

    隨著深度學習理論的提出和硬件設備計算速度的不斷突破,卷積神經(jīng)網(wǎng)絡在近年來得以迅速發(fā)展。2012年,AlexNet[1]在ImageNet大規(guī)模視覺識別挑戰(zhàn)賽中獲得了圖像分類冠軍。之后,為了提高網(wǎng)絡模型的準確率,研究人員不斷地加深卷積網(wǎng)絡的深度,相繼提出了性能更加優(yōu)越的卷積神經(jīng)網(wǎng)絡,如VGG16[2]、GoogLeNet[3]和DenseNet[4]等。

    這些網(wǎng)絡準確率普遍較高,但是有著非常復雜的模型和很深的層次,參數(shù)量十分巨大。在實際生活的應用中,模型往往需要在資源有限的嵌入式設備和移動設備上運行。因此,研究人員開始著手研究,并且相繼提出了更高效的輕量級卷積神經(jīng)網(wǎng)絡。它們保持了網(wǎng)絡的性能,大大減少了模型的參數(shù)量,從而減少計算量,提升了模型速度。

    曠視科技的ShuffleNet在ResNet[5]單元上進行了改進,有兩個創(chuàng)新的地方:逐點分組卷積和通道混洗[6]。WANG R J等提出的PeleeNet是一種輕量級網(wǎng)絡,它在DenseNet基礎上進行了改進和創(chuàng)新,主要有五個方面的結(jié)構(gòu)改進[7]。ZHANG J N等提出了一種卷積核及其壓縮算法,通過這種卷積方法,ZHANG J N等發(fā)明了輕量卷積神經(jīng)網(wǎng)絡SDChannelNets[8]

    可以看出,上述輕量卷積神經(jīng)網(wǎng)絡均存在一定不足。在使用分組卷積時,為了解決分組卷積導致的信息丟失問題,需要增加額外的操作。在運用1×1卷積時,會導致1×1卷積的參數(shù)量在網(wǎng)絡總參數(shù)量中占據(jù)大部分。通過分析,這些網(wǎng)絡需要通過調(diào)整相應的超參數(shù)來提高網(wǎng)絡識別精度。這些操作往往會大大增加網(wǎng)絡模型參數(shù)量。

    為了解決這個不足,本文結(jié)合參數(shù)共享、密集連接的卷積方法和分組卷積,基于PeleeNet網(wǎng)絡,提出了輕量級卷積神經(jīng)網(wǎng)絡架構(gòu)GSDCPeleeNet。適當調(diào)節(jié)超參數(shù),在損失較小準確度甚至擁有更高準確度的情況下,減小了模型的參數(shù)量。  




本文詳細內(nèi)容請下載:http://ihrv.cn/resource/share/2000003403




作者信息:

倪偉健,秦會斌

(杭州電子科技大學 電子信息學院 新型電子器件與應用研究所,浙江 杭州310018)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權禁止轉(zhuǎn)載。