題目: Stochastic Graph Neural Networks
簡介:
圖神經網絡(GNN)對圖數據中的非線性表示進行建模,并在分布式智能體協調,控制和規劃等方面進行了應用。當前的GNN架構假設理想情況,并且忽略由于環境,人為因素或外部攻擊而發生的波動。在這些情況下,如果未考慮拓撲隨機性,則GNN無法解決其分布式任務。為了克服這個問題,我們提出了隨機圖神經網絡(SGNN)模型:一種GNN,其中分布式圖卷積模塊解決了隨機網絡的變化。由于隨機性引入了新的學習范式,因此我們對SGNN輸出方差進行統計分析,以識別學習濾波器為實現向擾動場景的魯棒轉移而應滿足的條件,最終揭示隨機鏈路損耗的顯式影響。我們進一步為SGNN開發了基于隨機梯度下降(SGD)的學習過程,并推導了學習速率收斂的條件,在該條件下該學習過程收斂于平穩點。數值結果證實了我們的理論研究,并將SGNN魯棒與傳統GNN的優勢進行了比較,后者在學習過程中忽略了圖形擾動。
題目: Continuous Graph Neural Networks
摘要:
本文建立了圖神經網絡與傳統動力系統之間的聯系。我們提出了持續圖神經網絡(CGNN),它將現有的圖神經網絡與離散動力學進行了一般化,因為它們可以被視為一種特定的離散化方案。關鍵思想是如何表征節點表示的連續動力學,即關于時間的節點表示的導數。受現有的基于擴散的圖方法(如社交網絡上的PageRank和流行模型)的啟發,我們將導數定義為當前節點表示、鄰節點表示和節點初始值的組合。我們提出并分析了兩種可能的動態圖,包括節點表示的每個維度(又名特征通道)各自改變或相互作用的理論證明。所提出的連續圖神經網絡在過度平滑方面具有很強的魯棒性,因此允許我們構建更深層次的網絡,進而能夠捕獲節點之間的長期依賴關系。在節點分類任務上的實驗結果證明了我們提出的方法在和基線對比的有效性。
介紹
圖神經網絡(GNNs)由于其在節點分類等多種應用中的簡單性和有效性而受到越來越多的關注;、鏈接預測、化學性質預測、自然語言理解。GNN的基本思想是設計多個圖傳播層,通過聚合鄰近節點的節點表示和節點本身的表示,迭代地更新每個節點表示。在實踐中,對于大多數任務,幾層(兩層或三層)通常就足夠了,更多的層可能導致較差的性能。
改進GNNs的一個關鍵途徑是能夠建立更深層次的網絡,以了解數據和輸出標簽之間更復雜的關系。GCN傳播層平滑了節點表示,即圖中相鄰的節點變得更加相似。當我們堆疊越來越多的層時,這會導致過度平滑,這意味著節點表示收斂到相同的值,從而導致性能下降。因此,重要的是緩解節點過平滑效應,即節點表示收斂到相同的值。
此外,對于提高我們對GNN的理論理解,使我們能夠從圖結構中描述我們可以學到的信號,這是至關重要的。最近關于理解GCN的工作(Oono和Suzuki, 2020)認為GCN是由離散層定義的離散動力系統。此外,Chen等人(2018)證明了使用離散層并不是構建神經網絡的唯一視角。他們指出,帶有剩余連接的離散層可以看作是連續ODE的離散化。他們表明,這種方法具有更高的記憶效率,并且能夠更平滑地建模隱藏層的動態。
我們利用基于擴散方法的連續視角提出了一種新的傳播方案,我們使用來自常微分方程(即連續動力系統)的工具進行分析。事實上,我們能夠解釋我們的模型學習了什么表示,以及為什么它不會遭受在GNNs中常見的過度平滑問題。允許我們建立更深層次的網絡,也就是說我們的模型在時間價值上運行良好。恢復過平滑的關鍵因素是在連續設置中使用了最初在PageRank中提出的原始分布。直觀上,重新開始分布有助于不忘記鄰接矩陣的低冪次信息,從而使模型收斂到有意義的平穩分布。
本文的主要貢獻是:
當前的圖神經網絡(GNN)簡單地將節點嵌入到聚合的圖表示中——可能會丟失結構或語義信息。我們在這里介紹了OT-GNN,它通過GNN節點嵌入集合與“原型”點云之間的最佳傳輸距離作為自由參數來計算圖嵌入。這允許不同的原型突出顯示不同圖子部分的關鍵方面。證明了點云上的函數類滿足一個通用的近似定理,這是一個由于和和而失去的基本性質。然而,根據經驗,該模型在訓練過程中有一種崩潰回標準聚合的自然趨勢。我們通過提出一種有效的噪聲對比調節器來解決這一優化問題,從而使模型朝著真正挖掘最優運輸幾何的方向發展。我們的模型在幾個分子性質預測任務上始終表現出更好的泛化性能,也產生更平滑的表示。
題目: Graph Random Neural Networks
摘要:
圖神經網絡(GNNs)將深度學習方法推廣到圖結構數據中,在圖形挖掘任務中表現良好。然而,現有的GNN常常遇到具有標記節點的復雜圖結構,并受到非魯棒性、過度平滑和過擬合的限制。為了解決這些問題,本文提出了一個簡單而有效的GNN框架——圖隨機神經網絡(Grand)。與現有GNNs中的確定性傳播不同,Grand采用隨機傳播策略來增強模型的魯棒性。這種策略也很自然地使Grand能夠將傳播從特征轉換中分離出來,減少了過度平滑和過度擬合的風險。此外,隨機傳播是圖數據擴充的一種有效方法。在此基礎上,利用無標記節點在多個擴展中的分布一致性,提高模型的泛化能力,提出了Grand的一致性正則化方法。在圖形基準數據集上的大量實驗表明,Grand在半監督的圖形學習任務上顯著優于最先進的GNN基線。最后,證明了它可以顯著減輕過度平滑和過度擬合的問題,并且它的性能與魯棒性相結合。
芬蘭阿爾托大學CSE4890深度學習課程第7講:圖神經網絡,由Alexander Ilin主講,全面詳細地介紹了GNN的背景動機、GCN、循環關系網絡、通用網絡。
題目: MEMORY-BASED GRAPH NETWORKS
摘 要:
圖神經網絡是一類對任意拓撲結構的數據進行操作的深度模型。我們為GNNs引入了一個有效的記憶層,它可以聯合學習節點表示并對圖進行粗化。在此基礎上,我們還引入了兩個新的網絡:基于記憶的GNN (MemGNN)和可以學習層次圖表示的圖存儲網絡(GMN)。實驗結果表明,所提出的模型在9個圖分類和回歸基準中有8個達到了最新的結果。我們也證明了這些表示學習可以對應于分子數據中的化學特征。
題目: Tensor Graph Convolutional Networks for Text Classification
摘要: 文本分類是自然語言處理中一個重要而經典的問題。已有許多研究將卷積神經網絡(如規則網格上的卷積,序列)應用于分類。然而,只有有限數量的研究已經探索了更靈活的圖卷積神經網絡(卷積在非網格上,例如,任意圖)的任務。在這項工作中,我們建議使用圖卷積網絡進行文本分類。基于詞的共現關系和文檔詞之間的關系,我們為一個語料庫建立一個文本圖,然后學習一個文本圖卷積網絡(text GCN)。我們的文本GCN使用word和document的一個熱表示進行初始化,然后在已知文檔類標簽的監督下,共同學習word和document的嵌入。我們在多個基準數據集上的實驗結果表明,沒有任何外部單詞嵌入或知識的普通文本GCN優于最新的文本分類方法。另一方面,文本GCN還學習預測詞和文檔嵌入。此外,實驗結果表明,隨著訓練數據百分比的降低,文本GCN相對于現有比較方法的改進變得更加突出,這表明文本GCN對文本分類中較少的訓練數據具有魯棒性。
Graphs, which describe pairwise relations between objects, are essential representations of many real-world data such as social networks. In recent years, graph neural networks, which extend the neural network models to graph data, have attracted increasing attention. Graph neural networks have been applied to advance many different graph related tasks such as reasoning dynamics of the physical system, graph classification, and node classification. Most of the existing graph neural network models have been designed for static graphs, while many real-world graphs are inherently dynamic. For example, social networks are naturally evolving as new users joining and new relations being created. Current graph neural network models cannot utilize the dynamic information in dynamic graphs. However, the dynamic information has been proven to enhance the performance of many graph analytical tasks such as community detection and link prediction. Hence, it is necessary to design dedicated graph neural networks for dynamic graphs. In this paper, we propose DGNN, a new {\bf D}ynamic {\bf G}raph {\bf N}eural {\bf N}etwork model, which can model the dynamic information as the graph evolving. In particular, the proposed framework can keep updating node information by capturing the sequential information of edges, the time intervals between edges and information propagation coherently. Experimental results on various dynamic graphs demonstrate the effectiveness of the proposed framework.