題目: How Powerful are Graph Neural Networks?
摘要: 圖神經網絡(GNNs)是一種有效的圖表示學習框架。GNNs遵循鄰域聚合方案,通過遞歸地聚合和轉換鄰域節點的表示向量來計算節點的表示向量。許多GNN變體已經被提出,并且在節點和圖分類任務上都取得了最新的結果。然而,盡管GNNs給圖形表示學習帶來了革命性的變化,但是對于它們的表示性質和局限性的理解還是有限的。在這里,我們提出了一個理論框架來分析GNNs捕捉不同圖形結構的表現力。我們的結果描述了流行的GNN變體,如圖卷積網絡和圖年齡的辨別能力,并且表明它們不能學習辨別某些簡單的圖結構。然后,我們開發了一個簡單的體系結構,它可以證明是GNNs類中最具表現力的,并且與Weisfeiler-Lehman圖同構測試一樣強大。我們在一些圖形分類基準上實證驗證了我們的理論發現,并證明我們的模型達到了最先進的性能。
作者簡介: Keyulu Xu,麻省理工學院EECS系的研究生,也是CSAIL和機器學習小組的成員。他的興趣是智力和推理理論。
WeiHua Hu,哈爾濱工業大學(深圳)助理教授。
題目: Continuous Graph Neural Networks
摘要:
本文建立了圖神經網絡與傳統動力系統之間的聯系。我們提出了持續圖神經網絡(CGNN),它將現有的圖神經網絡與離散動力學進行了一般化,因為它們可以被視為一種特定的離散化方案。關鍵思想是如何表征節點表示的連續動力學,即關于時間的節點表示的導數。受現有的基于擴散的圖方法(如社交網絡上的PageRank和流行模型)的啟發,我們將導數定義為當前節點表示、鄰節點表示和節點初始值的組合。我們提出并分析了兩種可能的動態圖,包括節點表示的每個維度(又名特征通道)各自改變或相互作用的理論證明。所提出的連續圖神經網絡在過度平滑方面具有很強的魯棒性,因此允許我們構建更深層次的網絡,進而能夠捕獲節點之間的長期依賴關系。在節點分類任務上的實驗結果證明了我們提出的方法在和基線對比的有效性。
介紹
圖神經網絡(GNNs)由于其在節點分類等多種應用中的簡單性和有效性而受到越來越多的關注;、鏈接預測、化學性質預測、自然語言理解。GNN的基本思想是設計多個圖傳播層,通過聚合鄰近節點的節點表示和節點本身的表示,迭代地更新每個節點表示。在實踐中,對于大多數任務,幾層(兩層或三層)通常就足夠了,更多的層可能導致較差的性能。
改進GNNs的一個關鍵途徑是能夠建立更深層次的網絡,以了解數據和輸出標簽之間更復雜的關系。GCN傳播層平滑了節點表示,即圖中相鄰的節點變得更加相似。當我們堆疊越來越多的層時,這會導致過度平滑,這意味著節點表示收斂到相同的值,從而導致性能下降。因此,重要的是緩解節點過平滑效應,即節點表示收斂到相同的值。
此外,對于提高我們對GNN的理論理解,使我們能夠從圖結構中描述我們可以學到的信號,這是至關重要的。最近關于理解GCN的工作(Oono和Suzuki, 2020)認為GCN是由離散層定義的離散動力系統。此外,Chen等人(2018)證明了使用離散層并不是構建神經網絡的唯一視角。他們指出,帶有剩余連接的離散層可以看作是連續ODE的離散化。他們表明,這種方法具有更高的記憶效率,并且能夠更平滑地建模隱藏層的動態。
我們利用基于擴散方法的連續視角提出了一種新的傳播方案,我們使用來自常微分方程(即連續動力系統)的工具進行分析。事實上,我們能夠解釋我們的模型學習了什么表示,以及為什么它不會遭受在GNNs中常見的過度平滑問題。允許我們建立更深層次的網絡,也就是說我們的模型在時間價值上運行良好。恢復過平滑的關鍵因素是在連續設置中使用了最初在PageRank中提出的原始分布。直觀上,重新開始分布有助于不忘記鄰接矩陣的低冪次信息,從而使模型收斂到有意義的平穩分布。
本文的主要貢獻是:
題目: Graph Random Neural Networks
摘要:
圖神經網絡(GNNs)將深度學習方法推廣到圖結構數據中,在圖形挖掘任務中表現良好。然而,現有的GNN常常遇到具有標記節點的復雜圖結構,并受到非魯棒性、過度平滑和過擬合的限制。為了解決這些問題,本文提出了一個簡單而有效的GNN框架——圖隨機神經網絡(Grand)。與現有GNNs中的確定性傳播不同,Grand采用隨機傳播策略來增強模型的魯棒性。這種策略也很自然地使Grand能夠將傳播從特征轉換中分離出來,減少了過度平滑和過度擬合的風險。此外,隨機傳播是圖數據擴充的一種有效方法。在此基礎上,利用無標記節點在多個擴展中的分布一致性,提高模型的泛化能力,提出了Grand的一致性正則化方法。在圖形基準數據集上的大量實驗表明,Grand在半監督的圖形學習任務上顯著優于最先進的GNN基線。最后,證明了它可以顯著減輕過度平滑和過度擬合的問題,并且它的性能與魯棒性相結合。
主題: Graph Neural Networks with Composite Kernels
摘要: 近年來,對圖結構化數據的學習引起了越來越多人的興趣。諸如圖卷積網絡(GCN)之類的框架已經證明了它們在各種任務中捕獲結構信息并獲得良好性能的能力。在這些框架中,節點聚合方案通常用于捕獲結構信息:節點的特征向量是通過聚集其相鄰節點的特征來遞歸計算的。但是,大多數聚合方案都將圖中的所有連接均等化,而忽略了節點特征的相似性。本文從內核權重的角度重新解釋了節點聚合,并提出了一個框架來考慮特征相似性。我們表明歸一化的鄰接矩陣等效于Kerin空間中基于鄰居的內核矩陣。然后,我們提出功能聚集作為基于原始鄰居的內核和可學習的內核的組成,以在特征空間中編碼特征相似性。我們進一步展示了如何將所提出的方法擴展到圖注意力網絡(GAT)。實驗結果表明,在一些實際應用中,我們提出的框架具有更好的性能。
芬蘭阿爾托大學CSE4890深度學習課程第7講:圖神經網絡,由Alexander Ilin主講,全面詳細地介紹了GNN的背景動機、GCN、循環關系網絡、通用網絡。
主題: Principal Neighbourhood Aggregation for Graph Nets
摘要: 圖神經網絡(GNN)已被證明是針對圖結構數據的不同預測任務的有效模型。 關于它們表現力的最新工作集中在同構任務和可數特征空間上。 我們擴展了該理論框架,使其包含連續的功能(在現實世界的輸入域中以及在GNN的隱藏層中定期發生),并說明了在這種情況下對多個聚合函數的需求。 將多個聚合器與度標度器結合在一起(可以對總和聚合器進行概括)。 最后,我們通過基準測試比較了不同模型捕獲和利用圖形結構的能力,該基準包含了經典圖形理論中的多個任務,這證明了我們模型的能力。
圖神經網絡是解決各種圖學習問題的有效的機器學習模型。盡管它們取得了經驗上的成功,但是GNNs的理論局限性最近已經被揭示出來。因此,人們提出了許多GNN模型來克服這些限制。在這次調查中,我們全面概述了GNNs的表達能力和可證明的強大的GNNs變體。
題目: Logical Expressiveness of Graph Neural Networks
摘要:
圖神經網絡(Graph Neural Networks, GNNs)是近年來在分子分類、知識圖譜補全等結構化數據處理領域中流行起來的一類機器學習體系結構。最近關于GNNs表達能力的研究已經建立了它們對圖中節點進行分類的能力與用于檢查圖同構的WeisfeilerLehman (WL)測試之間的緊密聯系。具體來說,這兩篇論文的作者分別觀察到,WL測試產生的節點分類總是細化了任何GNN產生的分類,而且有GNN可以重現WL測試。這些結果表明,GNNs在節點分類方面與WL測試一樣強大。然而,這并不意味著GNNs可以表達任何通過WL測試改進的分類器。我們的工作旨在回答以下問題:什么是可以用GNNs捕獲的節點分類器?在本文中,我們從邏輯的角度來看待這個問題,將其限制在FOC2中可表達的屬性上,即具有計數能力的一階邏輯的兩變量片段進行研究。
作者:
Pablo Barceló是智利天主教大學工程學院和數學學院數學與計算工程研究所所長,研究領域為數據庫理論、計算機科學中的邏輯、自動機理論。
題目: Hyperbolic Graph Convolutional Neural Networks
摘要: 圖卷積神經網絡(GCNs)將圖中的節點嵌入到歐幾里德空間中,在嵌入具有無標度或層次結構的真實圖時,歐幾里德空間會產生很大的失真。雙曲幾何提供了一個令人興奮的選擇,因為它使嵌入具有更小的失真。然而,將廣義神經網絡擴展到雙曲幾何中,由于目前尚不清楚如何定義雙曲空間中的特征變換和聚集等神經網絡操作,因此提出了一些獨特的挑戰。此外,由于輸入特征通常是歐幾里德的,因此如何將特征轉換為具有適當曲率的雙曲型嵌入尚不清楚。本文提出了雙曲圖卷積神經網絡(HGCN),它是第一個同時利用GCN和雙曲幾何的表達能力來學習層次圖和無標度圖的歸納節點表示的雙曲型GCN。推導了雙曲空間雙曲面模型的GCN運算,并將歐氏輸入特征映射到每層可訓練曲率不同的雙曲空間中的嵌入。
作者簡介: Ines Chami,斯坦福大學ICME數據科學項目的碩士,她的研究方向包括計算機視覺,自然語言處理,更具體地說,多模態分析。個人主頁://profiles.stanford.edu/ines-chami
Rex Ying,斯坦福大學計算機科學博士,他的研究主要集中在開發應用于圖結構數據的機器學習算法上。個人主頁: