基于生成對(duì)抗網(wǎng)絡(luò)合成噪聲的語(yǔ)音增強(qiáng)方法研究
所屬分類:技術(shù)論文
上傳者:aetmagazine
文檔大?。?span>491 K
標(biāo)簽: 語(yǔ)音增強(qiáng) 生成對(duì)抗網(wǎng)絡(luò) 數(shù)據(jù)增強(qiáng)
所需積分:0分積分不夠怎么辦?
文檔介紹:在語(yǔ)音增強(qiáng)領(lǐng)域,深度神經(jīng)網(wǎng)絡(luò)通過(guò)對(duì)大量含有不同噪聲的語(yǔ)音以監(jiān)督學(xué)習(xí)方式進(jìn)行訓(xùn)練建模,從而提升網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)能力。然而不同類型噪聲的獲取成本較大,噪聲類型難以全面采集,影響了模型的泛化能力。針對(duì)這個(gè)問(wèn)題,提出一種基于生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)的噪聲數(shù)據(jù)樣本增強(qiáng)方法,該方法對(duì)真實(shí)噪聲數(shù)據(jù)進(jìn)行學(xué)習(xí),根據(jù)數(shù)據(jù)特征合成虛擬噪聲,以此擴(kuò)充訓(xùn)練集中噪聲數(shù)據(jù)的數(shù)量和類型。通過(guò)實(shí)驗(yàn)驗(yàn)證,所采用的噪聲合成方法能夠有效擴(kuò)展訓(xùn)練集中噪聲來(lái)源,增強(qiáng)模型的泛化能力,有效提高語(yǔ)音信號(hào)去噪處理后的信噪比和可理解性。
現(xiàn)在下載
VIP會(huì)員,AET專家下載不扣分;重復(fù)下載不扣分,本人上傳資源不扣分。