文獻(xiàn)標(biāo)識(shí)碼: A
DOI:10.16157/j.issn.0258-7998.183300
中文引用格式: 袁冰清,王巖松,鄭柳剛. 深度學(xué)習(xí)在無(wú)線電信號(hào)調(diào)制識(shí)別中的應(yīng)用綜述[J].電子技術(shù)應(yīng)用,2019,45(5):1-4.
英文引用格式: Yuan Bingqing,Wang Yansong,Zheng Liugang. A survey of deep learning applied to radio signal modulation recognition[J]. Application of Electronic Technique,2019,45(5):1-4.
0 引言
無(wú)線電信號(hào)的調(diào)制識(shí)別是頻譜監(jiān)測(cè)過程中的重要組成部分,也是難點(diǎn)之一。隨著現(xiàn)代無(wú)線電通信技術(shù)的發(fā)展與應(yīng)用,無(wú)線電信號(hào)特征與電磁環(huán)境變得更加復(fù)雜,因此,無(wú)線電信號(hào)更容易受到外界信號(hào)的干擾,監(jiān)測(cè)人員須對(duì)監(jiān)測(cè)到的信號(hào)進(jìn)行調(diào)制分析、頻譜波形比較等才能判斷信號(hào)的屬性,并與正常登記的臺(tái)站比對(duì),確定是否為干擾信號(hào),為進(jìn)一步抗干擾做鋪墊。然而這種傳統(tǒng)的人工分析判斷,不僅效率低下,而且存在諸多不可靠因素,并且能識(shí)別的信號(hào)類型也有限。為了提高無(wú)線電信號(hào)的調(diào)制識(shí)別效率和準(zhǔn)確率,無(wú)線電信號(hào)的自動(dòng)調(diào)制識(shí)別的研究勢(shì)在必行。
目前,無(wú)線電信號(hào)調(diào)制自動(dòng)識(shí)別方法從原理上看主要有兩大類:一類是基于貝葉斯決策論的方法;一類是基于統(tǒng)計(jì)機(jī)器學(xué)習(xí)理論的方法[1-3]。貝葉斯決策論的實(shí)現(xiàn)方法本質(zhì)上可歸結(jié)為一個(gè)多重假設(shè)檢驗(yàn)的問題,雖然理論完備,但是通用性較差,實(shí)現(xiàn)復(fù)雜度很高,而識(shí)別率卻一般,特別是在電磁環(huán)境復(fù)雜、低信噪比條件下,識(shí)別率會(huì)急劇下降[3]。隨著人工智能(Artificial Intelligence,AI)的興起,基于人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,ANNs)的統(tǒng)計(jì)機(jī)器學(xué)習(xí)理論的信號(hào)調(diào)制識(shí)別漸漸成為信號(hào)調(diào)制識(shí)別領(lǐng)域的主流研究方向。其優(yōu)勢(shì)在于:技術(shù)思路簡(jiǎn)單清晰,算法切實(shí)可行,實(shí)現(xiàn)流程簡(jiǎn)單明了,性能優(yōu)良,適用于通用的模擬和數(shù)字信號(hào)識(shí)別。另外,基于人工神經(jīng)網(wǎng)絡(luò)的調(diào)制識(shí)別分類器具有很好的魯棒性,可以自適應(yīng)電磁環(huán)境的變化,即使在較低信噪比條件下仍然可以很好完成無(wú)線電信號(hào)調(diào)制識(shí)別任務(wù)。
1 基于人工神經(jīng)網(wǎng)絡(luò)的信號(hào)調(diào)制識(shí)別
基于人工神經(jīng)網(wǎng)絡(luò)的信號(hào)調(diào)制識(shí)別的通用流程如圖1所示,包括信號(hào)的預(yù)處理和特征提取,信號(hào)分類器的訓(xùn)練學(xué)習(xí),待分類信號(hào)的識(shí)別[2]。
其中,如何提取合適的信號(hào)特征來區(qū)分不同的調(diào)制模式對(duì)識(shí)別效果有重要影響,一般特征提取方法有:基于信號(hào)瞬時(shí)特征、基于小波變換、基于高階累積量、基于星座圖、基于循環(huán)譜等。在搭建神經(jīng)網(wǎng)絡(luò)架構(gòu)方面,大多都是構(gòu)建BP(Back Propagation,BP)神經(jīng)網(wǎng)絡(luò)或者傳統(tǒng)的多層感知器(Multi-Layer Perceptrons,MLPs)來實(shí)現(xiàn)自動(dòng)識(shí)別。最早可以追溯到1996年AZZOUZ E E、NANDI A K等提取信號(hào)的瞬時(shí)值為特征向量,利用人工神經(jīng)網(wǎng)絡(luò)作為分類器,完成多種模擬數(shù)字信號(hào)的調(diào)制識(shí)別[4],指出ANN架構(gòu)優(yōu)于決策論架構(gòu)的原因在于:決策論只能同時(shí)考慮信號(hào)的一個(gè)特征,而ANN架構(gòu)可以同時(shí)考慮信號(hào)所有的特征,導(dǎo)致關(guān)鍵特征的時(shí)序性不影響信號(hào)調(diào)制類型的判斷。2009年HASSAN K基于小波變化理論利用多層神經(jīng)網(wǎng)絡(luò)對(duì)不同的M進(jìn)制移位鍵控類型(M-ASK,M-FSK,M-PSK等)的信號(hào)進(jìn)行調(diào)制識(shí)別[5];2010年Qian Lanjun基于循環(huán)譜的差異設(shè)計(jì)的BP神經(jīng)網(wǎng)絡(luò)調(diào)制分類器[6],但是對(duì)于16QAM與64QAM區(qū)分效果不太理想;2015年ADZHEMOV S S基于信號(hào)的二階及四階統(tǒng)計(jì)量設(shè)計(jì)的MLPs兩層神經(jīng)網(wǎng)絡(luò)調(diào)制分類器[7],對(duì)FSK、PSK、ASK、QAM的識(shí)別率高達(dá)0.7~0.99,但是對(duì)PSK-4信號(hào)識(shí)別率僅僅為0.7。國(guó)內(nèi)文獻(xiàn)顯示基于BP神經(jīng)網(wǎng)絡(luò)或者多層感知器(MLPs)的信號(hào)分類系統(tǒng),對(duì)某一類的數(shù)字信號(hào)的自動(dòng)識(shí)別效果也很好[8],特別是在信噪比SNR≥10時(shí),如2007年電子科技大學(xué)的潘明從信號(hào)的瞬時(shí)幅度、瞬時(shí)相位、瞬時(shí)頻率特征中提取5種特征參數(shù),設(shè)計(jì)了一種分層式結(jié)構(gòu)的BP神經(jīng)網(wǎng)絡(luò)分類器對(duì)2ASK、4ASK、2FSK、4FSK、BPSK、QPSK 6種調(diào)制信號(hào)進(jìn)行分類,采用動(dòng)量梯度算法分類器的正確識(shí)別率達(dá)到98%以上(SNR>10 dB時(shí))[3,9];此外,基于人工神經(jīng)網(wǎng)絡(luò)對(duì)某一特定波段內(nèi)的信號(hào)類型的識(shí)別也是很好的,如2015年于成龍基于BP神經(jīng)網(wǎng)絡(luò)利用偏差權(quán)重法的特征提取方法對(duì)C波段無(wú)線電信號(hào)分類識(shí)別[10]。但是以上設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)模型都是屬于淺層神經(jīng)網(wǎng)絡(luò)分類識(shí)別器范疇[11],設(shè)計(jì)者需要從原始的信號(hào)采樣數(shù)據(jù)中人工設(shè)計(jì)和提取特征,用于優(yōu)化網(wǎng)絡(luò)的輸入,因此最終模型識(shí)別的準(zhǔn)確率很大部分取決于信號(hào)特征這部分,這要求特征設(shè)計(jì)者具備良好通信和信號(hào)領(lǐng)域的專業(yè)知識(shí) 。如果一旦選擇的分類器不合適,那么就可能造成分類效果極差,也就是說,基于人為的特征提取的方法,泛化能力弱。另外,基于一般ANN的識(shí)別分類器,對(duì)全波段的所有類型的信號(hào)識(shí)別率有待提高。因此,需要一種神經(jīng)網(wǎng)絡(luò)架構(gòu),弱化前期的特征提取部分而達(dá)到自動(dòng)識(shí)別的功能,并且提高所有類型的信號(hào)識(shí)別率。因此,有必要找到一種更加魯棒和有效的方法,基于深度學(xué)習(xí)的深度神經(jīng)網(wǎng)絡(luò)架構(gòu)的信號(hào)調(diào)制識(shí)別系統(tǒng)應(yīng)運(yùn)而生。
2 深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
2.1 深度學(xué)習(xí)的起源與主要思想
2006年,HINTON G E等人提出深度信念網(wǎng)絡(luò)[12](Deep Belief Network,DBN)及其相應(yīng)的非監(jiān)督貪心逐層訓(xùn)練算法,解決了深層結(jié)構(gòu)相關(guān)的優(yōu)化難題,并以此引入了深度學(xué)習(xí)的概念。如圖2所示,傳統(tǒng)的ANN的淺層結(jié)構(gòu)(即通常只包含1層或2層)直接將原始輸入信號(hào)或特征轉(zhuǎn)換到待求解問題的特征空間中,因而對(duì)復(fù)雜函數(shù)的表示能力有限。
而深度學(xué)習(xí)可通過學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,本質(zhì)上是構(gòu)建含有多層隱層的機(jī)器學(xué)習(xí)架構(gòu)模型[13],將特征和分類器結(jié)合到一起,通過大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練學(xué)習(xí)大量更具代表性的特征信息,減少了手工設(shè)計(jì)特征的巨大工作量。因此,深度學(xué)習(xí)是一種可以自動(dòng)地學(xué)習(xí)特征的方法。
2.2 深度學(xué)習(xí)主要的兩個(gè)模型
目前,深度學(xué)習(xí)算法廣泛應(yīng)用在計(jì)算機(jī)視覺和語(yǔ)音識(shí)別等領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)是其中最典型的模型。
2.2.1 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)最早由LECUN Y提出并應(yīng)用在手寫字體識(shí)別上(MINST),2012年,HINTON G E課題組構(gòu)建的CNN網(wǎng)絡(luò)AlexNet參加ImageNet圖像識(shí)別比賽一舉奪得冠而吸引了眾多研究者對(duì)深度學(xué)習(xí)的注意與研究熱情,隨后各種更多層的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如GoogleNet、Residual Net被相繼發(fā)明。
卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如圖3所示,包含卷積層、池化層、全連接層[14-15]。
卷積層是CNN的核心,在卷積層中,每個(gè)神經(jīng)元看做一個(gè)濾波器(filter)或內(nèi)核(kernel),具有小的視覺感受野,共享權(quán)值。一組內(nèi)核對(duì)層(layer l)的輸入出數(shù)據(jù)進(jìn)行卷積(即計(jì)算內(nèi)核與輸入數(shù)據(jù)之間的點(diǎn)積),對(duì)應(yīng)的輸出稱之為特征圖,用于后一層即池化層(layer l+1)的輸入數(shù)據(jù)。如果標(biāo)記dl[x,y,c]為三維數(shù)據(jù)中某一點(diǎn)的數(shù)據(jù),標(biāo)記Kl為卷積層的某一個(gè)卷積核,該卷積核表征了一個(gè)四維的數(shù)據(jù)[kx,ky,cl,cl+1],且0≤kx≤Kx-1,0≤ky≤Ky-1,卷積層的輸出數(shù)據(jù)dl+1[x,y,c]與各卷積核和輸入數(shù)據(jù)的關(guān)系可表達(dá)為式(1)[14]:
池化層又稱下采樣,它的作用是減少訓(xùn)練參數(shù)的數(shù)量并降低卷積層輸出的特征向量的維度,同時(shí)保留有用特征信息。最常見的兩種池化層的形式:最大池化,選取指定區(qū)域內(nèi)最大的一個(gè)數(shù)來代表正片區(qū)域;均值池化,選取指定區(qū)域內(nèi)數(shù)值的平均值來代表整片區(qū)域。
全連接層的工作原理與一般的淺層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)很類似,只需把池化層輸出的張量重新排布成向量,乘上權(quán)重矩陣,加上偏置值,然后對(duì)其使用ReLU激活函數(shù),之后用梯度下降法優(yōu)化網(wǎng)絡(luò)參數(shù)即可。
2.2.2 循環(huán)神經(jīng)網(wǎng)絡(luò)
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks ,RNNs)的結(jié)構(gòu)如圖4所示,RNN與各層按單一方向相連接的基本前向全連接神經(jīng)網(wǎng)絡(luò)相比,多了一層從前一隱層輸出反饋到當(dāng)前輸入的循環(huán)層,因此,RNN表現(xiàn)出了在時(shí)間維度上的深度結(jié)構(gòu)特性。它的深度是時(shí)間的長(zhǎng)度按時(shí)間序列展開來看,就是當(dāng)前隱藏層的輸出值不僅與當(dāng)前的輸入值有關(guān),還取決于上一次隱藏層的值。對(duì)于給定的輸入序列X=(x1,…,xT),RNN通過式(2)、式(3)循環(huán)迭代計(jì)算從t=1到t=T時(shí)刻,隱層的矢量輸出序列H=(h1,…,hT)和輸出層的矢量序列Y=(y1,…,yT)[15]。
式中,Wxh、Why、Whh分別代表了輸入層與隱層、輸出層與隱層、隱層之間的權(quán)重矩陣,bh和by分別表征了隱層和輸出層的偏置向量,σ為隱層的激活函數(shù),一般選為sigmoid函數(shù)。循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練算法是BP算法的變體BPTT(Back Propagation Trough Time)。在實(shí)踐中,為了更好解決長(zhǎng)時(shí)的依賴問題,通常使用一種改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)如長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short Term Memory Network,LSTM)及其變體GRU(Gated Recurrent Unit)。
3 基于深度學(xué)習(xí)的無(wú)線電信號(hào)調(diào)制識(shí)別的研究現(xiàn)狀
目前深度學(xué)習(xí)在無(wú)線電信號(hào)調(diào)制識(shí)別的研究中主要是基于CNN及LSTM架構(gòu)。最早在深度學(xué)習(xí)網(wǎng)絡(luò)信號(hào)調(diào)制識(shí)別分類器中,特別是在CNN分類器中,一般根據(jù)CNN對(duì)圖片識(shí)別的原理,對(duì)接收到的信號(hào)進(jìn)行預(yù)處理,生成循環(huán)譜圖或者星座圖[16]等,并將生成的圖形作為CNN網(wǎng)絡(luò)的輸入,通過卷積層和子采樣層交替進(jìn)行對(duì)循環(huán)譜圖或星座圖的特征提取并完成自動(dòng)識(shí)別。其中利用信號(hào)的循環(huán)譜特征識(shí)別方法是早前比較受歡迎的識(shí)別方法,因?yàn)槊恳粋€(gè)調(diào)制信號(hào)的循環(huán)譜都是不一樣的,所以可以根據(jù)信號(hào)的循環(huán)譜中峰值個(gè)數(shù)排列方式等特點(diǎn)來對(duì)不同的調(diào)制信號(hào)進(jìn)行識(shí)別[17-18]。同時(shí)因?yàn)樽V相關(guān)函數(shù)對(duì)噪聲的抑制能力很強(qiáng),即使在低信噪比的情況下,依然能夠檢測(cè)出信號(hào)的類型。這些方法本質(zhì)也需要特征提取,并且需要對(duì)信號(hào)進(jìn)行預(yù)處理,形成圖片模式,再通過卷積神經(jīng)網(wǎng)絡(luò)自動(dòng)學(xué)習(xí)圖片的特征,進(jìn)而對(duì)原始信號(hào)進(jìn)行分類。而在2016年O′SHEA T J提出了利用CNNs的框架對(duì)通信信號(hào)中11種調(diào)制信號(hào)進(jìn)行自動(dòng)調(diào)制識(shí)別[19],并且是對(duì)接收信號(hào)的原始采集數(shù)據(jù)進(jìn)行自動(dòng)學(xué)習(xí)分類,相比于傳統(tǒng)的機(jī)器學(xué)習(xí)算法,識(shí)別率有了很大的提升。O′SHEA T J提出的調(diào)制識(shí)別分類器的模型是一個(gè)四層的卷積神經(jīng)網(wǎng)絡(luò),兩個(gè)卷積層和兩個(gè)全連接層,前三層使用ReLU函數(shù)作為激活函數(shù),在最后的輸出層使用SoftMax激活函數(shù),經(jīng)過最后一層SoftMax激活函數(shù)的計(jì)算,得到概率最大的輸出即為當(dāng)前數(shù)據(jù)的分類結(jié)果。
后續(xù)研究發(fā)現(xiàn),LSTM模型中隱含層中的節(jié)點(diǎn)保留了信號(hào)的動(dòng)態(tài)時(shí)域特性[20],因此,在目前流行的調(diào)制識(shí)別分類器中,結(jié)合了CNN和LSTM的結(jié)構(gòu),即一般在卷積層與全連接層中間插入一層LSTM層,在同等條件下,這種混合結(jié)構(gòu)的分類器的識(shí)別率要高于單一的CNN模型。
綜合國(guó)內(nèi)外各種文獻(xiàn)發(fā)現(xiàn),基于深度學(xué)習(xí)的信號(hào)調(diào)制識(shí)別模型的識(shí)別率隨著信噪比的減小而降低,一般在10 dB以上信噪比識(shí)別率達(dá)到90%,0 dB以上信噪比條件下識(shí)別率最高能達(dá)到80%,但是一般0 dB以下信噪比的識(shí)別率一般不到50%。因此,除了結(jié)合CNN與LSTM的優(yōu)點(diǎn),搭建一種混合神經(jīng)網(wǎng)絡(luò)架構(gòu),提高0 dB以下信噪比的信號(hào)識(shí)別率之外,進(jìn)一步的工作應(yīng)該側(cè)重于設(shè)計(jì)新型的架構(gòu),比如結(jié)合CNN與GRU的架構(gòu),或者通過新穎的訓(xùn)練方法來達(dá)到省事省力并且高效的識(shí)別率。
4 結(jié)論
本文主要介紹了深度學(xué)習(xí)在無(wú)線電信號(hào)調(diào)制識(shí)別中的應(yīng)用。由于基于人工神經(jīng)網(wǎng)絡(luò)的信號(hào)調(diào)制識(shí)別沒有完善明確統(tǒng)一的理論,特別是基于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型更是沒有統(tǒng)一明確的理論,而處于探索摸索的階段。因此綜合以上發(fā)現(xiàn)及結(jié)合無(wú)線電監(jiān)測(cè)工作,未來深度學(xué)習(xí)在無(wú)線電信號(hào)調(diào)制識(shí)別中的應(yīng)用可以發(fā)展提升的地方有以下幾個(gè)方面:提高低信噪比信號(hào)的調(diào)制識(shí)別率,特別是信噪比0 dB以下信號(hào)的識(shí)別率;對(duì)于CNN-LSTM混合架構(gòu),在不降低識(shí)別率的條件下,探索新的訓(xùn)練方法,減少模型參數(shù),達(dá)到省力而有效的自動(dòng)學(xué)習(xí)方法;探索CNN-GUR網(wǎng)絡(luò)模型,對(duì)某一段波段(如短波、超短波、C波段等)內(nèi)所有類型信號(hào)的自動(dòng)識(shí)別并保證模型的泛化性;在特定的業(yè)務(wù)頻段,如廣播業(yè)務(wù)頻段,深度利用RNN-HMM混合聲學(xué)模型對(duì)整個(gè)無(wú)線電頻段內(nèi)可能的非法發(fā)射的廣播進(jìn)行自動(dòng)識(shí)別。
參考文獻(xiàn)
[1] 楊敏,王金庭,朱靜.一種PSK/QAM數(shù)字調(diào)制方式識(shí)別方法[J].電子技術(shù)應(yīng)用,2013,41(11):11-13.
[2] 潘明.基于神經(jīng)網(wǎng)絡(luò)的軟件無(wú)線電信號(hào)調(diào)制識(shí)別[D].成都:電子科技大學(xué),2007.
[3] 周江.基于神經(jīng)網(wǎng)絡(luò)的通信信號(hào)調(diào)制識(shí)別研究及實(shí)現(xiàn)[D].成都:電子科技大學(xué),2018.
[4] AZZOUZ E E,NANDI A K.Modulation recognition using artificial neural networks[J].Signal Processing,1996,56(2):165-175.
[5] HASSAN K,DAYOUB,HAMOUDA H,et al.Automatic modulation recognition using wavelet transform and neural network[C].IEEE International Conference on Intelligent Transport Systems Telecommunications,2010.
[6] QIAN L J,ZHU C Y.Modulation classification based on cyclic spectral features and neural network[C].IEEE International Congress on Image & Signal Processing,2010.
[7] ADZHEMOV S S,TERESHONOK M V,CHIROW D S.Type recognition of the digital modulation of radio signals using neural networks[J].Engineering Physics,2015,70(1):23-28.
[8] 馮濤.基于人工神經(jīng)網(wǎng)絡(luò)的通信信號(hào)分類識(shí)別[J].Radio Engineering,2006,36(6):24-26.
[9] 王康利,謝建菲,趙蘭華.基于神經(jīng)網(wǎng)絡(luò)的軟件無(wú)線電信號(hào)的調(diào)制識(shí)別[J].計(jì)算機(jī)測(cè)量與控制,2004,12(9):877-894.
[10] 于成龍,趙寶江.基于BP神經(jīng)網(wǎng)絡(luò)的C波段無(wú)線電信號(hào)分類識(shí)別[J].牡丹江師范學(xué)院學(xué)報(bào),2015(2):21-22.
[11] 李佳宸.基于深度學(xué)習(xí)的數(shù)字調(diào)制信號(hào)識(shí)別方法研究[D].哈爾濱:哈爾濱工程大學(xué),2017.
[12] HINTON G E,OSINDERO S,TEH Y W.A fast learning algorithm for deep belief nets[J].Neural Computation,2006,18(7):1527-1554.
[13] LECUN Y,BENGIO Y,HINTON G.Deep learning[J].Nature,2015,521:436-444.
[14] SONG L H,QIAN X H,CHEN Y R,et al.A pipelined ReRAM-based accelerator for deep learning[C].IEEE International Symposium on High Performance Computer Architecture,2017.
[15] GUAN Y G,YUAN Z H,SUN G Y,et al.FPGA-based accelerator for long short-term memory recurrent neural networks[C].IEEE Asia and South Pacific Design Automation Conference,2017.
[16] 彭超然,刁偉鶴,杜振宇.基于深度卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字調(diào)制方式識(shí)別[J].計(jì)算機(jī)測(cè)量與控制,2018,26(8):222-226.
[17] WEST N E,O′SHEA T J.Deep architectures for modulation recognition[C].2017 IEEE International Symposium on Dynamic Spectrum Access Networks,2017.
[18] 張永樂.基于CNN架構(gòu)的通信信號(hào)調(diào)制模式分類識(shí)別研究[D].沈陽(yáng):沈陽(yáng)航空航天大學(xué),2018.
[19] O′SHEA T J,CORGAN J,CLANCY T C.Convolutional radio modulation recognition networks[C].International Conference on Engineering Applications of Neutral Networks,2016.
[20] ZHANG M,ZENG Y,HAN Z D,et al.Automatic modulation recognition using deep learning architectures[C].2018 IEEE 19th International Workshop on Signal Processing Advances in Wireless Communications(SPAWC),2018.
作者信息:
袁冰清,王巖松,鄭柳剛
(國(guó)家無(wú)線電監(jiān)測(cè)中心上海監(jiān)測(cè)站,上海201419)