《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計應(yīng)用 > 基于動態(tài)圖注意力聚合多跳鄰域的實(shí)體對齊
基于動態(tài)圖注意力聚合多跳鄰域的實(shí)體對齊
2022年電子技術(shù)應(yīng)用第11期
汪浣沙1,2,黃瑞陽1,2,宋旭暉3,余詩媛3,胡 楠3
1.國家數(shù)字交換系統(tǒng)工程技術(shù)研究中心,河南 鄭州450002; 2.中國人民解放軍戰(zhàn)略支援部隊信息工程大學(xué),河南 鄭州450002;3.鄭州大學(xué) 軟件學(xué)院,河南 鄭州450001
摘要: 實(shí)體對齊是實(shí)現(xiàn)對不同來源知識庫進(jìn)行融合的重要技術(shù)方法,在知識圖譜、知識補(bǔ)全領(lǐng)域具有廣泛應(yīng)用?,F(xiàn)有基于圖注意力的實(shí)體對齊模型多使用靜態(tài)圖注意力網(wǎng)絡(luò)且忽略了實(shí)體屬性中的語義信息,導(dǎo)致模型存在有限注意、難以擬合、表達(dá)能力不足等問題。針對這些問題,開展基于動態(tài)圖注意力結(jié)構(gòu)建模實(shí)體對齊方法研究,首先使用圖卷積層建模目標(biāo)實(shí)體的單跳節(jié)點(diǎn)表示,其次應(yīng)用動態(tài)圖注意力網(wǎng)絡(luò)獲得多跳節(jié)點(diǎn)注意力系數(shù)并建模,再次利用逐層門控網(wǎng)絡(luò)聚合圖卷積層與動態(tài)圖注意力層輸出的單跳、多跳節(jié)點(diǎn)信息,最后拼接通過外部知識預(yù)訓(xùn)練自然語言模型提取的實(shí)體名稱屬性嵌入并進(jìn)行相似度計算。該方法在DBP15K的三類跨語言數(shù)據(jù)集中都獲得了一定的提高,證明了應(yīng)用動態(tài)圖注意力網(wǎng)絡(luò)與融入實(shí)體屬性語義在提高實(shí)體表示能力上的有效性。
中圖分類號: TP393
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.222717
中文引用格式: 汪浣沙,黃瑞陽,宋旭暉,等. 基于動態(tài)圖注意力聚合多跳鄰域的實(shí)體對齊[J].電子技術(shù)應(yīng)用,2022,48(11):51-56.
英文引用格式: Wang Huansha,Huang Ruiyang,Song Xuhui,et al. Entity alignment based on dynamic graph attention aggregation in multi-hop neighborhood[J]. Application of Electronic Technique,2022,48(11):51-56.
Entity alignment based on dynamic graph attention aggregation in multi-hop neighborhood
Wang Huansha1,2,Huang Ruiyang1,2,Song Xuhui3,Yu Shiyuan3,Hu Nan3
1.National Digital Switching System Engineering & Technological R&D Center,Zhengzhou 450002,China; 2.Information Engineering University,Zhengzhou 450002,China;3.Software College,Zhengzhou University,Zhengzhou 450001,China
Abstract: Entity alignment is an important technical method to realize the fusion of knowledge bases from different sources. It is widely used in the fields of knowledge graph and knowledge completion. The existing entity alignment models based on graph attention mostly use static graph attention network and ignore the semantic information in entity attributes, resulting in the problems of limited attention, difficult fitting and insufficient expression ability of the model. To solve these problems, this paper studies the entity alignment method based on the structure modeling of dynamic graph attention. Firstly, the single hop node representation of the target entity is modeled by GCN. Secondly, the multi hop node attention coefficient is obtained and entity modeled by using the dynamic graph attention network, and then the single hop and multi hop node information output by GCN and dynamic graph attention layer is aggregated by layer-wise gating network. Finally, the entity attribute semantic extracted by external knowledge pre training natural language model is embedded and concatenated to calculate similarity. This method has been improved in three types of cross language datasets of DBP15K, which proves the effectiveness of applying dynamic graph attention network and integrating entity attribute semantics in improving entity representation ability.
Key words : dynamic GAT;graph convolution network;entity alignment;knowledge graph;representation learning

0 引言

    實(shí)體對齊任務(wù)指利用模型或算法判斷多個不同表示的實(shí)體是否指代現(xiàn)實(shí)世界中的同一對象,隨著知識圖譜因其結(jié)構(gòu)性表示知識等優(yōu)勢而在各大自然語言處理與計算機(jī)視覺領(lǐng)域任務(wù)中廣泛應(yīng)用,實(shí)體對齊作為知識圖譜補(bǔ)全任務(wù)的重要組成部分受到越來越多研究者的關(guān)注。

    現(xiàn)有實(shí)體對齊方法主要分為基于轉(zhuǎn)移距離模型與基于圖卷積網(wǎng)絡(luò)模型,即利用轉(zhuǎn)移距離模型或圖卷積網(wǎng)絡(luò)將多源實(shí)體表示為低維向量并計算相似性以找到對齊實(shí)體對。目前主流的基于圖卷積網(wǎng)絡(luò)的實(shí)體對齊模型常使用傳統(tǒng)的靜態(tài)圖注意力網(wǎng)絡(luò)對實(shí)體進(jìn)行特征提取與語義建模,但靜態(tài)圖注意力網(wǎng)絡(luò)注意力函數(shù)存在單調(diào)性,即對于任意查詢節(jié)點(diǎn)i,圖注意力網(wǎng)絡(luò)都傾向給予同一節(jié)點(diǎn)j更高的注意力權(quán)重,這將會嚴(yán)重影響網(wǎng)絡(luò)的特征提取能力。而文獻(xiàn)[1]所提出的動態(tài)圖注意力網(wǎng)絡(luò)中每個查詢(Query)對鍵(Key)的注意系數(shù)都有不同的排序,因此具有更強(qiáng)的表示能力。圖1展示了靜態(tài)與動態(tài)圖注意力網(wǎng)絡(luò)注意力傾向示意。




本文詳細(xì)內(nèi)容請下載:http://ihrv.cn/resource/share/2000005004




作者信息:

汪浣沙1,2,黃瑞陽1,2,宋旭暉3,余詩媛3,胡  楠3

(1.國家數(shù)字交換系統(tǒng)工程技術(shù)研究中心,河南 鄭州450002;

2.中國人民解放軍戰(zhàn)略支援部隊信息工程大學(xué),河南 鄭州450002;3.鄭州大學(xué) 軟件學(xué)院,河南 鄭州450001)




wd.jpg

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。