1. 程式人生 > 其它 >論文筆記:InductivE_Inductive Learning on Commonsense Knowledge Graph Completion

論文筆記:InductivE_Inductive Learning on Commonsense Knowledge Graph Completion

本文提出一個基於歸納學習(inductive learning)的常識知識圖譜補全框架,旨在從可見實體構成的圖中歸納出常識模式,從而用於實現不可見實體的補全,即本文提出的常識知識補全。

本文整體架構為encoder-decoder架構,整體和SACN很像,框架一共包含三大部分:free-text encoder,graph encoder以及Conv-TransE decoder。

其中free-text encoder通過使用預訓練好的Bert 以及fast text對知識圖譜中的實體以及簡短的文字描述進行聯合embedding,將其對映為\(d\)維向量方便後續運算;graph encoder則是負責圖稠密化以及完成對(head,relation)對的特徵提取操作,圖稠密化主要是通過比較兩實體經由GCN處理後的特徵向量的餘弦相似度判定是否屬於語義相近的實體,如果是,則根據閾值\(m\)

(超引數)判斷是否需要增加邊,少於\(m\)則取相似實體的\(k\)個最近鄰居進行補齊,並且在訓練過程中迭代地進行更新,以此實現圖的稠密化;稠密化後的圖輸入進加入門控機制的R-GCN(GR-GCN)中,此處進行圖卷積操作,\(h^{(l)}\)為經過\(l\)層圖卷積後的實體的表示,\(\beta\)代表門控機制,其實就是設定自轉換以及鄰居資訊的比重生成下一層的表示,最終通過sigmoid函式將值對映到(0,1)區間內,\(W_o\)以及\(W_1\)分別代表自轉移矩陣以及鄰居轉移矩陣。

本文對Conv-TransE也進行了改進,改進措施為在卷積操作之前進行了維度混洗的操作(打亂特徵順序),目的是實現跨維度的更多互動,$\phi_s$為混洗操作,$w$代表卷積核,$\phi_s * w$代表卷積操作,$vec()$代表將多個特徵圖拼接到一起再進行向量化,最後通過轉移矩陣$W$映射回d維向量。因為頭實體加關係最終對應的可能不止一個尾實體,所以將其看成一個多標籤分類問題,採用二元交叉熵損失,實質為對每個標籤取交叉熵最終相加取平均,其中$t$為標籤向量,$t_i$代表標籤的每個維度,$p$代表經sigmoid函式處理過的預測分數。

Experimental Setup:

CN ATOMIC
GR-GCN layers 2 2
m 5 3
the frequency of updating graph every 100 epochs every 500epochs
number of kernels 300 300
kernel size \(2\times 5\) \(2\times 5\)
learning rate 3e-4 1e-4

Result:

 

Evaluation:

本文最大創新點在於提出基於inductive learning 的補全框架以及構造了兩個用於該任務的資料集,而單從模型架構來看的話其實算是SACN在常識知識圖譜上的全面升級版,很多地方可以對比來看,如embedding生成採用更加成熟的預訓練模型而不是由高斯分佈中隨機產生,引入門控機制去控制鄰域資訊聚合,相當於升級了WGCN的權重分配,同時引入圖稠密化解決資料稀疏問題,decoder方面則是在Conv-TransE基礎上加入維度混洗以獲取更多互動。

注:本文僅為個人拙見,如有錯誤之處,煩請大佬指正。