知識圖譜(KG)嵌入通過學習實體和關系的低維表示來預測缺失的事實。KGs通常表現出層次結構和邏輯模式,必須在嵌入空間中保留這些模式。對于層次數據,雙曲線嵌入方法已經顯示出高保真和精簡表示的前景。然而,現有的雙曲線嵌入方法并不能解釋KGs中豐富的邏輯模式。在本文中,我們介紹了一類雙曲線KG嵌入模型,該模型同時捕獲層次模式和邏輯模式。我們的方法結合了雙曲線反射和旋轉,并注意到模型的復雜關系模式。在標準KG基準上的實驗結果表明,我們的方法在低維平均倒數秩(MRR)方面比以前的基于歐幾里德和雙曲線的方法提高了6.1%。此外,我們觀察到不同的幾何變換捕獲不同類型的關系,而基于注意的變換泛化為多個關系。在高維情況下,我們的方法可以得到最新的MRRs, WN18RR為49.6%,YAGO3-10為57.7%。
題目
Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings,使用知識庫嵌入改進知識圖上的多跳問答
摘要
知識圖(KG)是由實體作為節點,實體之間的關系作為類型化邊組成的多關系圖。 KG問答(KGQA)任務的目的是回答對KG提出的自然語言查詢。 多跳KGQA要求在KG的多個邊緣進行推理,以得出正確的答案。 KG通常缺少許多鏈接,這給KGQA尤其是多跳KGQA帶來了額外的挑戰。 最近對多跳KGQA的研究已嘗試使用相關的外部文本來處理KG稀疏性,但這種方式并非一帆風順。 在另一項研究中,提出了KG嵌入方法,以通過執行丟失的鏈接預測來減少KG稀疏性。 此類KG嵌入方法盡管非常相關,但迄今為止尚未針對多跳KGQA進行探索。 我們在本文中填補了這一空白,并提出了EmbedKGQA。 EmbedKGQA在執行稀疏KG上的多跳KGQA方面特別有效(但是當知識圖譜不稀疏時,也應該能夠超過基線)。 EmbedKGQA還放寬了從預先指定的鄰域中選擇答案的要求,這是先前的多跳KGQA方法實施的次優約束。 通過在多個基準數據集上進行的廣泛實驗,我們證明了EmbedKGQA在其他最新基準上的有效性。
主題: Low-Dimensional Hyperbolic Knowledge Graph Embeddings
摘要: 知識圖譜(KG)嵌入學習實體和關系的低維表示,以預測缺失的內容。 KG通常表現出必須保留在嵌入空間中的分層和邏輯模式。對于分層數據,雙曲線嵌入方法已顯示出對高保真和簡約表示的希望。但是,現有的雙曲線嵌入方法無法解決KG中的豐富邏輯模式。在這項工作中,我們介紹了一類雙曲KG嵌入模型,該模型同時捕獲層次結構和邏輯模式。我們的方法將雙曲線反射和旋轉結合在一起,以注意對復雜的關系模式進行建模。在標準KG基準上的實驗結果表明,我們的方法在較低維度上的平均倒數排名(MRR)比以前的基于歐幾里德和雙曲線的方法提高了6.1%。此外,我們觀察到,不同的幾何變換捕獲不同類型的關系,而基于注意力的變換則泛化為多個關系。在高維度上,我們的方法在WN18RR上產生了49.6%的最新技術水平,在YAGO3-10上產生了57.7%的最新技術水平。
題目: Hyperbolic Heterogeneous Information Network Embedding
摘要: 異構信息網絡嵌入(Heterogeneous information network, HIN)以將其投射到低維空間為目標,已經引起了相當多的研究關注。現有的HIN嵌入方法主要是在歐幾里得空間中保留內部網絡結構和語義相關性。然而,一個基本的問題是歐幾里得空間是否是HIN的合適的或內在的等距空間?。近年來的研究認為,復雜網絡的底層可能具有雙曲幾何,因為底層的雙曲幾何可以自然地反映復雜網絡的一些特性,如層次結構和冪律結構。在本文中,我們首次嘗試將HIN嵌入到雙曲空間中。我們分析了兩個實際HIN的結構,發現HIN中也存在冪律分布等性質。為此,我們提出了一種新的雙曲異構信息網絡嵌入模型。具體地說,為了捕獲節點之間的結構和語義關系,我們采用元路徑引導隨機游走對每個節點的序列進行采樣。然后利用雙曲空間中的距離作為近似度量。雙曲距離能滿足三角不等式,并能很好地保持HIN中的傳遞性。我們的模型使節點及其鄰域具有小的雙曲線距離。進一步推導出有效的優化策略,迭代更新雙曲嵌入。實驗結果表明,該模型不僅在網絡重構和鏈路預測任務上具有優越的性能,而且在HIN中通過可視化顯示了捕獲層次結構的能力。
題目: Hyperbolic Attention Network
摘要: 最近的方法已經成功地證明了在雙曲空間中學習淺層網絡參數的優勢。我們將雙曲幾何引入到用于計算不同神經網絡結構的注意力機制的嵌入中,從而擴展了這一工作。通過改變object表示的嵌入幾何形狀,可以在不增加模型參數的情況下能更有效地利用嵌入空間。更重要的是,由于查詢的語義距離以指數的速度增長,雙曲幾何與歐幾里得幾何相反—可以編碼那些object而沒有任何干擾。我們的方法在總體上對WMT' 14(英語到德語)的神經機器翻譯、圖學習(合成和現實世界圖任務)和視覺問答(CLEVR)3個任務得到了提升,同時保持神經表征的簡潔。
題目: Hyperbolic Graph Attention Network
摘要: 圖神經網絡(GNN)在圖處理方面表現出了優越的性能,近年來引起了人們的廣泛關注。然而,大多數現有的GNN模型主要是為歐幾里得空間中的圖設計的。最近的研究已經證明,圖數據顯示非歐幾里得潛在的解剖學。不幸的是,到目前為止,很少有研究GNN在非歐幾里得的設置。為了彌補這一缺陷,本文首次對雙曲空間中具有注意機制的GNN進行了研究。雙曲GNN的研究有一些獨特的挑戰:由于雙曲空間不是向量空間,不能進行向量操作(如向量的加法、減法和標量乘法)。為了解決這個問題,我們使用回旋向量空間,它提供了一個優雅的代數形式的雙曲幾何,以轉換圖的特征;在此基礎上,我們提出了基于雙曲接近的注意力聚合機制。此外,由于雙曲空間中的數學運算比歐幾里得空間中的更為復雜,我們進一步設計了一種新的利用對數和指數映射的加速策略來提高模型的效率。通過與其他最先進的基線方法的比較,發現在四個真實數據集上的綜合實驗結果證明了我們提出的雙曲圖注意力網絡模型的性能。
題目: Multi-relational Poincaré Graph Embeddings
摘要: 雙曲嵌入最近在機器學習中獲得了關注,因為它們能夠比歐幾里得類似物更準確和簡潔地表示層次數據。然而,多關系知識圖譜經常顯示多個同時的層次結構,這是目前的雙曲模型沒有捕捉到的。為了解決這個問題,我們提出了一個模型,在雙曲空間的龐加萊球模型中嵌入多關系圖數據。我們的多關系龐加萊模型(MuRP)通過Mobius矩陣向量乘法和Mobius加法學習特定關系參數來轉換實體嵌入。在WN18RR層次知識圖上的實驗表明,我們的龐加萊嵌入方法在鏈路預測任務上優于歐氏嵌入方法和現有的嵌入方法,特別是在低維的情況下。
題目: Low-Dimensional Hyperbolic Knowledge Graph Embeddings
摘要: 知識圖譜(KG)嵌入通過學習實體和關系的低維表示,以預測缺失事實。KGs通常具有層次結構和邏輯模式,必須在嵌入空間中保留這些模式。對于分層數據,雙曲嵌入方法已顯示出高保真度和簡潔表示的優勢。然而,現有的雙曲嵌入方法不能解釋KGs中豐富的邏輯模式。在本工作中,我們引入了一類雙曲KG嵌入模型,可以同時捕獲層次和邏輯模式。我們的方法結合雙曲反射和旋轉注意力模型復雜的關系模式。在標準KG基準上的實驗結果表明,我們的方法在低維的平均倒數(MRR)方面比預先的歐幾里得和雙曲的工作提高了6.1%。此外,我們觀察到不同的幾何變換捕捉不同類型的關系,而基于注意的變換則推廣到多重關系。在高維情況下,我們的方法在WN18RR和YAGO3-10上分別獲得了49.6%和57.7%的最先進的MRR。
回答大規模知識圖譜上的復雜邏輯查詢是一項基本而又具有挑戰性的任務。在本文中,我將概述如何使用向量空間嵌入在知識圖譜中執行邏輯推理。首先,我將討論預測一對實體之間關系的知識圖譜補全方法:通過捕獲與實體相鄰的關系類型來考慮每個實體的關系上下文,并通過一種新的基于邊的消息傳遞方案進行建模;考慮關系路徑捕獲兩個實體之間的所有路徑;通過一種可學習的注意力機制,自適應地整合關系上下文和關系路徑。其次,我們還將討論QUERY2BOX,這是一個基于嵌入的框架,用于推理使用and、or和存在操作符進行的大量且不完整的KGs中的任意查詢。
We introduce hyperbolic attention networks to endow neural networks with enough capacity to match the complexity of data with hierarchical and power-law structure. A few recent approaches have successfully demonstrated the benefits of imposing hyperbolic geometry on the parameters of shallow networks. We extend this line of work by imposing hyperbolic geometry on the activations of neural networks. This allows us to exploit hyperbolic geometry to reason about embeddings produced by deep networks. We achieve this by re-expressing the ubiquitous mechanism of soft attention in terms of operations defined for hyperboloid and Klein models. Our method shows improvements in terms of generalization on neural machine translation, learning on graphs and visual question answering tasks while keeping the neural representations compact.