圖卷積網絡(Graph Convolutional Networks, GCNs)作為一種學習圖結構數據的神經網絡,在處理圖數據分析問題上表現出了極大的人氣,被用于如節點分類、圖分類、鏈路預測、推薦等任務中。典型的GCN及其變體通常采用消息傳遞方式,其關鍵步驟是特征聚合,即一個節點在每個卷積層中聚合來自其拓撲鄰居的特征信息。這樣,特征信息通過網絡拓撲結構傳播到鄰居節點表示中,然后通過學習所有節點嵌入表示用于下游任務如分類等,該學習過程是由部分節點標簽來監督的。實際上,GCNs能夠取得巨大的成功部分歸功于它提供了一種拓撲結構和節點特征的融合策略來學習節點表示,而這種融合策略的學習訓練過程由一個端到端的模型框架來監督。
這里我們首先思考了一個問題:作為端到端框架的GCNs,從拓撲結構和節點特征中真正學習和融合了什么樣的信息? 在第二小節我們通過實驗設計評估了GCNs融合拓撲結構和節點特征的能力。實驗結果表明,GCNs在融合網絡拓撲結構和節點特征上能力上與最理想的水平相差甚遠。即使在一些簡單的情況下(節點的特性/拓撲與節點標簽的關聯是非常明確的)GCN仍不能自適應地融合節點特性和拓撲結構并提取最相關的信息。而無法自適應學習到拓撲結構、節點特征與最終任務之間最相關的信息,可能會嚴重阻礙GCNs在分類任務中的表現能力,并且由于實際應用中圖數據與任務之間的相關性往往非常復雜且不可知,因此自適應能力也是很重要的。
針對這些問題,我們提出了一種靈活地用于半監督節點分類的自適應多通道圖卷積網絡方案。其核心思想是同時學習基于節點特征、拓撲結構及其組合的節點嵌入,并依據特征與結構之間的相似性對標簽預測的作用往往是互補的這一事實,采用設計的自適應融合機制來獲取對分類任務最有幫助且最深層次的相關信息。
本文研究如何更好聚合網絡拓撲信息和特征信息。中心思想是,構造了結構圖,特征圖(feature graph),以及兩者的組合來提取特定的和通用的嵌入,并使用注意機制來學習嵌入的自適應重要性權重。實驗發現,AM-GCN可以從節點特征和拓撲結構中提取自適應地提取相關的信息,對應不同的參數取值。 //arxiv.org/abs/2007.02265
摘要:圖卷積網絡(GCNs)在處理圖數據和網絡數據的各種分析任務方面得到了廣泛的應用。然而,最近的一些研究提出了一個問題,即GCNs是否能夠在一個信息豐富的復雜圖形中優化地整合節點特征和拓撲結構。在本文中,我們首先提出一個實驗研究。令人驚訝的是,我們的實驗結果清楚地表明,當前的GCNs融合節點特征和拓撲結構的能力遠遠不是最優的,甚至是令人滿意的。由于GCNs無法自適應地學習拓撲結構與節點特征之間的一些深層次關聯信息,這一弱點可能會嚴重阻礙GCNs在某些分類任務中的能力。我們能否彌補這一缺陷,設計出一種新型的GCNs,既能保留現有GCNs的優勢,又能大幅度提高拓撲結構和節點特征融合的能力?為了解決這個問題,我們提出了一種自適應多通道半監督分類圖卷積網絡。其核心思想是同時從節點特征、拓撲結構及其組合中提取具體的和常見的嵌入,并利用注意機制學習嵌入的自適應重要度權值。我們在基準數據集上進行的大量實驗表明,AM-GCN從節點特征和拓撲結構中提取了最多的相關信息,顯著提高了分類精度。
摘要
圖神經網絡(GNNs)已被證明在建模圖結構的數據方面是強大的。然而,訓練GNN通常需要大量指定任務的標記數據,獲取這些數據的成本往往非常高。減少標記工作的一種有效方法是在未標記數據上預訓練一個具有表達能力的GNN模型,并進行自我監督,然后將學習到的模型遷移到只有少量標記的下游任務中。在本文中,我們提出了GPT-GNN框架,通過生成式預訓練來初始化GNN。GPT-GNN引入了一個自監督屬性圖生成任務來預訓練一個GNN,使其能夠捕獲圖的結構和語義屬性信息。我們將圖生成的概率分解為兩部分:1)屬性生成和2)邊生成。通過對兩個組件進行建模,GPT-GNN捕捉到生成過程中節點屬性與圖結構之間的內在依賴關系。在10億規模的開放學術圖和亞馬遜推薦數據上進行的綜合實驗表明,GPT-GNN在不經過預訓練的情況下,在各種下游任務中的表現顯著優于最先進的GNN模型,最高可達9.1%。
**關鍵詞:**生成式預訓練,圖神經網絡,圖表示學習,神經嵌入,GNN預訓練
消息傳遞被證明是一種設計圖神經網絡的有效方法,因為它能夠利用排列等方差和對學習局部結構的歸納偏差來實現良好的泛化。然而,當前的消息傳遞體系結構的表達能力有限,無法學習圖的基本拓撲性質。我們解決了這個問題,并提出了一個新的消息傳遞框架,它是強大的同時保持置換等方差。具體來說,我們以單熱點編碼的形式傳播惟一的節點標識符,以便了解每個節點的本地上下文。我們證明了我們的模型在極限情況下是通用的,同時也是等變的。通過實驗,我們發現我們的模型在預測各種圖的拓撲性質方面具有優勢,為新型的、功能強大的等變和計算效率的結構開辟了道路。
視頻描述是一項具有挑戰性的任務,需要對視覺場景有深刻的理解。最先進的方法使用場景級或對象級信息生成標題,但不顯式地建模對象交互。因此,他們往往無法做出有視覺根據的預測,而且對虛假的相關性很敏感。本文提出了一種新的視頻描述時空圖模型,該模型利用了時空中物體間的相互作用。我們的模型建立了可解釋的鏈接,并能夠提供明確的視覺基礎。為了避免由于對象數量的變化而導致系統性能的不穩定,提出了一種基于局部對象信息的全局場景特征正則化的對象感知知識提取機制。我們通過在兩個基準上的大量實驗來證明我們的方法的有效性,表明我們的方法具有可解釋預測的競爭性能。
標簽傳播(LPA)和圖卷積神經網絡(GCN)都是圖上的消息傳遞算法。兩者都解決了節點分類的任務,但是LPA將節點標簽信息傳播到圖的邊緣,而GCN傳播并轉換節點特征信息。然而,雖然概念相似,LPA和GCN之間的理論關系還沒有得到研究。這里我們從兩個方面研究了LPA和GCN之間的關系:(1)特征/標簽平滑,分析一個節點的特征/標簽如何擴散到它的鄰居;(2)一個節點的初始特征/標簽對另一個節點的最終特征/標簽的影響程度。在理論分析的基礎上,提出了一種統一GCN和LPA的節點分類端到端模型。在我們的統一模型中,邊緣權值是可學習的,LPA作為正則化幫助GCN學習合適的邊緣權值,從而提高分類性能。我們的模型也可以看作是基于節點標簽的注意力學習權重,它比現有的基于特征的注意力模型更面向任務。在真實圖數據的大量實驗中,我們的模型在節點分類準確度方面顯示出優于目前最先進的基于gcn的方法。