題目: Hyperbolic Attention Network
摘要: 最近的方法已經成功地證明了在雙曲空間中學習淺層網絡參數的優勢。我們將雙曲幾何引入到用于計算不同神經網絡結構的注意力機制的嵌入中,從而擴展了這一工作。通過改變object表示的嵌入幾何形狀,可以在不增加模型參數的情況下能更有效地利用嵌入空間。更重要的是,由于查詢的語義距離以指數的速度增長,雙曲幾何與歐幾里得幾何相反—可以編碼那些object而沒有任何干擾。我們的方法在總體上對WMT' 14(英語到德語)的神經機器翻譯、圖學習(合成和現實世界圖任務)和視覺問答(CLEVR)3個任務得到了提升,同時保持神經表征的簡潔。
圖神經網絡(GNN)已經在許多具有挑戰性的應用中展示了優越的性能,包括小樣本學習任務。盡管GNN具有強大的從少量樣本中學習和歸納的能力,但隨著模型的深入,GNN通常會出現嚴重的過擬合和過平滑問題,這限制了模型的可擴展性。在這項工作中,我們提出了一個新的注意力GNN來解決這些挑戰,通過合并三重注意機制,即節點自我注意,鄰居注意和層記憶注意力。我們通過理論分析和實例說明了所提出的注意模塊可以改善小樣本學習的GNN的原因。廣泛的實驗表明,在mini-ImageNet 和Tiered-ImageNet數據集上,通過誘導和直推設置,提出的注意力GNN在小樣本學習方面優于基于最先進的GNN方法。
題目: Hyperbolic Heterogeneous Information Network Embedding
摘要: 異構信息網絡嵌入(Heterogeneous information network, HIN)以將其投射到低維空間為目標,已經引起了相當多的研究關注。現有的HIN嵌入方法主要是在歐幾里得空間中保留內部網絡結構和語義相關性。然而,一個基本的問題是歐幾里得空間是否是HIN的合適的或內在的等距空間?。近年來的研究認為,復雜網絡的底層可能具有雙曲幾何,因為底層的雙曲幾何可以自然地反映復雜網絡的一些特性,如層次結構和冪律結構。在本文中,我們首次嘗試將HIN嵌入到雙曲空間中。我們分析了兩個實際HIN的結構,發現HIN中也存在冪律分布等性質。為此,我們提出了一種新的雙曲異構信息網絡嵌入模型。具體地說,為了捕獲節點之間的結構和語義關系,我們采用元路徑引導隨機游走對每個節點的序列進行采樣。然后利用雙曲空間中的距離作為近似度量。雙曲距離能滿足三角不等式,并能很好地保持HIN中的傳遞性。我們的模型使節點及其鄰域具有小的雙曲線距離。進一步推導出有效的優化策略,迭代更新雙曲嵌入。實驗結果表明,該模型不僅在網絡重構和鏈路預測任務上具有優越的性能,而且在HIN中通過可視化顯示了捕獲層次結構的能力。
題目: Hyperbolic Graph Attention Network
摘要: 圖神經網絡(GNN)在圖處理方面表現出了優越的性能,近年來引起了人們的廣泛關注。然而,大多數現有的GNN模型主要是為歐幾里得空間中的圖設計的。最近的研究已經證明,圖數據顯示非歐幾里得潛在的解剖學。不幸的是,到目前為止,很少有研究GNN在非歐幾里得的設置。為了彌補這一缺陷,本文首次對雙曲空間中具有注意機制的GNN進行了研究。雙曲GNN的研究有一些獨特的挑戰:由于雙曲空間不是向量空間,不能進行向量操作(如向量的加法、減法和標量乘法)。為了解決這個問題,我們使用回旋向量空間,它提供了一個優雅的代數形式的雙曲幾何,以轉換圖的特征;在此基礎上,我們提出了基于雙曲接近的注意力聚合機制。此外,由于雙曲空間中的數學運算比歐幾里得空間中的更為復雜,我們進一步設計了一種新的利用對數和指數映射的加速策略來提高模型的效率。通過與其他最先進的基線方法的比較,發現在四個真實數據集上的綜合實驗結果證明了我們提出的雙曲圖注意力網絡模型的性能。
題目: Low-Dimensional Hyperbolic Knowledge Graph Embeddings
摘要: 知識圖譜(KG)嵌入通過學習實體和關系的低維表示,以預測缺失事實。KGs通常具有層次結構和邏輯模式,必須在嵌入空間中保留這些模式。對于分層數據,雙曲嵌入方法已顯示出高保真度和簡潔表示的優勢。然而,現有的雙曲嵌入方法不能解釋KGs中豐富的邏輯模式。在本工作中,我們引入了一類雙曲KG嵌入模型,可以同時捕獲層次和邏輯模式。我們的方法結合雙曲反射和旋轉注意力模型復雜的關系模式。在標準KG基準上的實驗結果表明,我們的方法在低維的平均倒數(MRR)方面比預先的歐幾里得和雙曲的工作提高了6.1%。此外,我們觀察到不同的幾何變換捕捉不同類型的關系,而基于注意的變換則推廣到多重關系。在高維情況下,我們的方法在WN18RR和YAGO3-10上分別獲得了49.6%和57.7%的最先進的MRR。
知識圖譜(KG)嵌入通過學習實體和關系的低維表示來預測缺失的事實。KGs通常表現出層次結構和邏輯模式,必須在嵌入空間中保留這些模式。對于層次數據,雙曲線嵌入方法已經顯示出高保真和精簡表示的前景。然而,現有的雙曲線嵌入方法并不能解釋KGs中豐富的邏輯模式。在本文中,我們介紹了一類雙曲線KG嵌入模型,該模型同時捕獲層次模式和邏輯模式。我們的方法結合了雙曲線反射和旋轉,并注意到模型的復雜關系模式。在標準KG基準上的實驗結果表明,我們的方法在低維平均倒數秩(MRR)方面比以前的基于歐幾里德和雙曲線的方法提高了6.1%。此外,我們觀察到不同的幾何變換捕獲不同類型的關系,而基于注意的變換泛化為多個關系。在高維情況下,我們的方法可以得到最新的MRRs, WN18RR為49.6%,YAGO3-10為57.7%。
圖卷積運算符將深度學習的優勢引入到各種以前認為無法實現的圖和網格處理任務中。隨著他們的不斷成功,人們希望設計更強大的架構,通常是通過將現有的深度學習技術應用于非歐幾里德數據。在這篇論文中,我們認為在新興的幾何深度學習領域,幾何應該保持創新的主要驅動力。我們將圖神經網絡與廣泛成功的計算機圖形學和數據近似模型:徑向基函數(RBFs)聯系起來。我們推測,與RBFs一樣,圖卷積層將受益于將簡單函數添加到強大的卷積內核中。我們引入了仿射跳躍連接,這是一種將全連通層與任意圖卷積算子相結合而形成的新型構造塊。通過實驗驗證了該方法的有效性,表明改進的性能不僅僅是參數數目增加的結果。在我們評估的每一項任務中,配備了仿射跳躍連接的操作人員都顯著地優于他們的基本性能。形狀重建,密集形狀對應,和圖形分類。我們希望我們的簡單而有效的方法將作為一個堅實的基線,并有助于緩解未來在圖神經網絡的研究。
題目: MEMORY-BASED GRAPH NETWORKS
摘 要:
圖神經網絡是一類對任意拓撲結構的數據進行操作的深度模型。我們為GNNs引入了一個有效的記憶層,它可以聯合學習節點表示并對圖進行粗化。在此基礎上,我們還引入了兩個新的網絡:基于記憶的GNN (MemGNN)和可以學習層次圖表示的圖存儲網絡(GMN)。實驗結果表明,所提出的模型在9個圖分類和回歸基準中有8個達到了最新的結果。我們也證明了這些表示學習可以對應于分子數據中的化學特征。
題目: Hyperbolic Graph Convolutional Neural Networks
摘要: 圖卷積神經網絡(GCNs)將圖中的節點嵌入到歐幾里德空間中,在嵌入具有無標度或層次結構的真實圖時,歐幾里德空間會產生很大的失真。雙曲幾何提供了一個令人興奮的選擇,因為它使嵌入具有更小的失真。然而,將廣義神經網絡擴展到雙曲幾何中,由于目前尚不清楚如何定義雙曲空間中的特征變換和聚集等神經網絡操作,因此提出了一些獨特的挑戰。此外,由于輸入特征通常是歐幾里德的,因此如何將特征轉換為具有適當曲率的雙曲型嵌入尚不清楚。本文提出了雙曲圖卷積神經網絡(HGCN),它是第一個同時利用GCN和雙曲幾何的表達能力來學習層次圖和無標度圖的歸納節點表示的雙曲型GCN。推導了雙曲空間雙曲面模型的GCN運算,并將歐氏輸入特征映射到每層可訓練曲率不同的雙曲空間中的嵌入。
作者簡介: Ines Chami,斯坦福大學ICME數據科學項目的碩士,她的研究方向包括計算機視覺,自然語言處理,更具體地說,多模態分析。個人主頁://profiles.stanford.edu/ines-chami
Rex Ying,斯坦福大學計算機科學博士,他的研究主要集中在開發應用于圖結構數據的機器學習算法上。個人主頁:
We introduce hyperbolic attention networks to endow neural networks with enough capacity to match the complexity of data with hierarchical and power-law structure. A few recent approaches have successfully demonstrated the benefits of imposing hyperbolic geometry on the parameters of shallow networks. We extend this line of work by imposing hyperbolic geometry on the activations of neural networks. This allows us to exploit hyperbolic geometry to reason about embeddings produced by deep networks. We achieve this by re-expressing the ubiquitous mechanism of soft attention in terms of operations defined for hyperboloid and Klein models. Our method shows improvements in terms of generalization on neural machine translation, learning on graphs and visual question answering tasks while keeping the neural representations compact.