基于多頭卷積殘差連接的文本數(shù)據(jù)實(shí)體識(shí)別
所屬分類:技術(shù)論文
上傳者:wwei
文檔大?。?span>1297 K
標(biāo)簽: 深度學(xué)習(xí) 命名實(shí)體識(shí)別 神經(jīng)網(wǎng)絡(luò)
所需積分:0分積分不夠怎么辦?
文檔介紹:為構(gòu)建工作報(bào)告中的文本數(shù)據(jù)關(guān)系型數(shù)據(jù)庫(kù),針對(duì)非結(jié)構(gòu)化文本數(shù)據(jù)中有效信息實(shí)體提取問題以及傳統(tǒng)網(wǎng)絡(luò)在提取信息時(shí)特征丟失問題,設(shè)計(jì)了一種基于深度學(xué)習(xí)的實(shí)體識(shí)別模型RoBERTa-MCR-BiGRU-CRF,首先利用預(yù)訓(xùn)練模型RoBERTa作為編碼器,將訓(xùn)練后的詞向量輸入到多頭卷積殘差網(wǎng)絡(luò)層MCR擴(kuò)充語義信息,接著輸入到門控循環(huán)BiGRU層進(jìn)一步提取上下文特征,最后經(jīng)過條件隨機(jī)場(chǎng)CRF層解碼進(jìn)行標(biāo)簽判別。經(jīng)過實(shí)驗(yàn),模型在工作報(bào)告數(shù)據(jù)集上F1值達(dá)到96.64%,優(yōu)于其他對(duì)比模型;并且在數(shù)據(jù)名稱實(shí)體類別上,F(xiàn)1值分別比BERT-BiLSTM-CRF和RoBERTa-BiGRU-CRF提高了3.18%、2.87%,結(jié)果表明該模型能較好地提取非結(jié)構(gòu)化文本中的有效信息。
現(xiàn)在下載
VIP會(huì)員,AET專家下載不扣分;重復(fù)下載不扣分,本人上傳資源不扣分。