本文出自Criteo AI實驗室,圖神經網絡適合處理圖結構,但在處理具有表格節點特征的圖時,較為困難。本文利用梯度提升決策樹(GBDT)處理異構表格數據的優勢,搭建一套BGDT處理異構特征、GNN處理圖結構的體系,通過廣泛的實驗證明該體系結構處理表格節點特征圖時性能顯著提高。
圖神經網絡(GNN)是功能強大的模型,已在各種圖表示學習任務中取得了成功。面對異構表格數據時,梯度提升決策樹(GBDT)通常優于其他機器學習方法。但是,對于具有表格節點特征的圖,應該使用哪種方法?先前的GNN模型主要集中在具有同質稀疏特征的網絡上,并且如我們所示,在異構環境中次優。在這項工作中,作者團隊提出了一種新穎的體系結構,該體系結構可以聯合訓練GBDT和GNN以獲得兩者的最佳選擇:GBDT模型處理異構特征,而GNN負責圖結構。通過允許新樹適合GNN的梯度日期,我們的模型受益于端到端優化。通過與領先的GBDT和GNN模型進行廣泛的實驗比較,我們證明了具有表格特征的各種圖形的性能均得到了顯著提高。
BGNN(GBDT和GNN進行端到端培訓)的訓練如下圖1所示,在算法1中,介紹了結合GBDT和GNN的BGNN模型的訓練,以解決任何節點級預測問題。
圖神經網絡(GNN)是學習圖的主要技術,并且已經得到非常廣泛的應用。但是GNN訓練往往需要大量的參數且訓練時間很長。這里我們可以通過組合忽略圖結構的淺層模型和利用標簽結構相關性的兩個簡單后處理步驟,來獲得GNN性能的提升。例如,在OGB-Products數據集上,相對性能最好的GNN模型,我們將參數減少137倍,訓練時間減少超過100倍,還能獲得更好的性能。
(1)“誤差相關性”,它分散訓練數據中的殘留錯誤以糾正測試數據中的錯誤
(2)“預測相關性”,它使測試數據上的預測變平滑。我們稱此過程為“糾正和平滑”(C&S)
后處理步驟是通過從早期基于圖的半監督學習方法對標準標簽傳播技術進行簡單修改而實現的。我們的方法在各種各樣的網絡上都超過或接近了最新的GNN的性能基準,并且參數和運行時間大大減小。我們將標簽信息直接整合到學習算法中,從而獲得簡單而可觀的性能提升。我們還將該技術融合到大型GNN模型中,從而獲得性能的提升。
1.INDUCTIVE REPRESENTATION LEARNING IN TEMPORAL NETWORKS VIA CAUSAL ANONYMOUS WALKS
//arxiv.org/pdf/2101.05974.pdf
時序網絡是現實世界中動態系統的抽象。這些網絡通常根據某些定律發展,例如社交網絡中很普遍的三元閉包定律。歸納表示學習時間網絡應該能夠捕獲此類定律,并進一步將遵循相同定律應用于未在訓練過程中見過的數據,即inductive的能力。以前的工作主要依賴于網絡節點身份或豐富邊屬性,通常無法提取這些定律。因此,本文提出了因果關系匿名游走(Causal Anonymous Walks, CAW)來inductively的進行時序網絡的表示學習。
具體來說,CAW是通過時間隨機游走提取類似motif的結構來捕獲圖的動態性,這避免了motif計算復雜的問題。同時,CAW采用新穎的匿名化策略,用一組節點的命中計數來替換節點身份以保持模型inductive的能力,同時也建立了motif之間的相關性,這對于某些圖挖掘任務(如鏈路預測)是非常關鍵的。進一步的,本文進一步提出了一個神經網絡模型CAW-N來編碼CAW。最后,在6個真實時序網絡數據集上,CAW-N均取得了大幅度的提升,例如AUC提升了15%!
2.HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:GRAPH ATTENTION DESIGN WITH SELF-SUPERVISION
圖神經網絡中的注意力機制旨在分配更大的權重給重要的鄰居節點,以進行更好地表示。但是,圖神經網絡學到的東西不是那么容易理解的,尤其是在有噪聲的圖上。而本文提出的自監督的圖注意力網絡(SuperGAT)就是用來解決這一問題的。
3.ON THE BOTTLENECK OF GRAPH NEURAL NETWORKSAND ITS PRACTICAL IMPLICATIONS
自從Gori等人提出圖神經網絡(GNN)以來,訓練GNN的主要問題之一是在圖中的遠距離節點之間傳播信息。本文提出GNN在較長路徑中聚集信息時會出現瓶頸。這個瓶頸導致over-squarshing。這樣GNN就無法傳播源自遠程節點的消息,執行效果也不好。本文中調整了遠程GNN模型問題,無需任何調整或額外的權重即可突破瓶頸得到改善后的結果。
4.ADAGCN: ADABOOSTING GRAPH CONVOLUTIONALNETWORKS INTO DEEP MODELS
深圖模型的設計仍有待研究,其中至關重要部分是如何以有效的方式探索和利用來自鄰居的躍遷。在本文中,通過將AdaBoost集成到網絡計算中,提出了一種新穎的類RNN深度圖神經網絡架構。提出的圖卷積網絡AdaGCN(Adaboosting圖卷積網絡)具有有效提取來自當前節點的高階鄰居知識的能力。
不同于其他直接堆疊圖卷積層的圖神經網絡,AdaGCN在所有“層”之間共享相同的基礎神經網絡架構并進行遞歸優化處理,類似于RNN。
此外,本文還在理論上建立了AdaGCN與現有圖卷積方法之間的聯系,從而展示了模型的優勢。最后,用實驗證明了AdaGCN的計算優勢。
5.ACCURATE LEARNING OF GRAPH REPRESENTATIONSWITH GRAPH MULTISET POOLING
消息傳遞圖神經網絡已廣泛用于建模圖數據,在許多圖形分類和鏈路預測任務上取得了很好的效果。然而,為了獲得圖形的準確表示還需要定義良好的池化功能,即在不丟失單個節點特征和全局圖結構的前提下將節點表示集映射到緊湊的形式。
為了解決現有的圖池化的限制,本文將圖池化問題表述為帶有關于圖結構的輔助信息的多集編碼問題,并提出了圖形多集轉換器(GMT)。該方法可以輕松擴展到以前的節點聚類方法,來進行分層圖池化。實驗結果表明,GMT明顯優于其他圖形池化方法,并在圖重構和生成任務上獲得很大的性能提升。
6.GRAPH COARSENING WITH NEURAL NETWORKS
隨著大規模圖的日益流行,處理,提取和分析大型圖形數據的計算難題有著越來越重要意義。圖粗化是一種在保持基本屬性的同時減小圖尺寸的技術。盡管有豐富的圖粗化文獻,但只有有限的數據驅動方法。
本文利用圖深度學習的最新進展來進行圖粗化。首先提出測量粗化算法質量的框架并說明我們需要根據目標仔細選擇圖粗化的Laplace運算符和相關的投影/提升運算符。由于粗化圖的當前邊權可能不是最優的選擇,用圖神經網絡對權重分配圖進行參數化并對其進行訓練,以無監督的方式提高粗化質量。通過在合成網絡和真實網絡上進行的廣泛實驗,證明了該方法顯著改善了各種條件下的常用圖粗化方法指標,縮小率,圖尺寸和圖類型。它概括為較大的尺寸(訓練圖的25倍),可適應不同的損耗(可微分和不可微分),并且可以縮放到比以前大得多的圖。
可以看到GOREN可以在不同類型的圖上優化粗化方法。
由于不同道路間交通流時空分布格局具有復雜的空間相關性和動態趨勢,交通流時空數據預測是一項具有挑戰性的任務。現有框架通常利用給定的空間鄰接圖和復雜的機制為空間和時間相關性建模。然而,具有不完全鄰接連接的給定空間圖結構的有限表示可能會限制模型的有效時空依賴學習。此外,現有的方法在解決復雜的時空數據時也束手無策:它們通常利用獨立的模塊來實現時空關聯,或者只使用獨立的組件捕獲局部或全局的異構依賴關系。為了克服這些局限性,本文提出了一種新的時空融合圖神經網絡(STFGNN)用于交通流預測。首先,提出一種數據驅動的“時序圖”生成方法,以彌補空間圖可能無法反映的幾種現有相關性。SFTGNN通過一種新的時空圖融合操作,對不同的時間段進行并行處理,可以有效地學習隱藏的時空依賴關系。同時,該融合圖模塊與一種新的門控卷積模塊集成到一個統一的層中,SFTGNN可以通過層堆疊學習更多的時空依賴關系來處理長序列。在幾個公共交通數據集上的實驗結果表明,我們的方法達到了最先進的性能比其他基準一致。
論文鏈接://www.zhuanzhi.ai/paper/5e4dd4fd6b06fc88a7d86e4dc50687c6
簡介:數據增強已被廣泛用于提高機器學習模型的通用性。但是,相對較少的工作研究圖形的數據擴充。這在很大程度上是由于圖的復雜非歐幾里得結構限制了可能的操縱操作。視覺和語言中常用的增強操作沒有圖形類似物。在改進半監督節點分類的背景下,我們的工作研究了圖神經網絡(GNN)的圖數據擴充。我們討論了圖數據擴充的實踐和理論動機,考慮因素和策略。我們的工作表明,神經邊緣預測器可以有效地編碼類同質結構,以在給定的圖結構中促進類內邊緣和降級類間邊緣,并且我們的主要貢獻是引入了GAug圖數據擴充框架,該框架利用這些見解來提高性能通過邊緣預測的基于GNN的節點分類在多個基準上進行的廣泛實驗表明,通過GAug進行的增強可提高GNN架構和數據集的性能。
圖神經網絡(GNNs)的快速發展帶來了越來越多的新架構和新應用。目前的研究側重于提出和評估GNNs的具體架構設計,而不是研究GNNs的更一般的設計空間,后者由不同設計維度的笛卡爾積(如層數或聚合函數的類型)組成。此外,GNN設計通常專門針對單個任務,但很少有人努力了解如何快速為新任務或新數據集找到最佳GNN設計。這里我們定義并系統地研究了GNNs的架構設計空間,它包含了超過32種不同的預測任務的315000種不同的設計。我們的方法有三個主要創新:(1)一個通用的GNN設計空間;(2)具有相似度度量的GNN任務空間,這樣對于給定的新任務/數據集,我們可以快速識別/傳輸性能最好的架構;(3)一種高效的設計空間評價方法,可以從大量的模型-任務組合中提取洞察力。我們的主要結果包括:(1)一套設計性能良好的GNN的全面指南;(2)雖然針對不同任務的最佳GNN設計存在顯著差異,但GNN任務空間允許在不同任務之間傳輸最佳設計;(3)利用我們的設計空間發現的模型實現了最先進的性能。總的來說,我們的工作提供了一個原則性和可擴展性的方法,實現了從研究針對特定任務的個體GNN設計到系統地研究GNN設計空間和任務空間的過渡。最后,我們發布了GraphGym,這是一個用于探索不同GNN設計和任務的強大平臺。GraphGym具有模塊化的GNN實現、標準化的GNN評估和可重復和可擴展的實驗管理。
在本文中,我們提出了一種端到端的圖學習框架,即迭代深度圖學習(IDGL),用于共同迭代地學習圖結構和圖嵌入。IDGL的關鍵原理是學習基于更好的節點嵌入的更好的圖結構,反之亦然(即基于更好的圖結構的更好的節點嵌入)。我們的迭代方法動態停止時,學習圖接近足夠優化的圖預測任務。此外,我們將圖學習問題轉換為一個相似度量學習問題,并利用自適應圖正則化來控制學習圖的質量。最后,結合基于錨點的近似技術,我們進一步提出了一個可擴展的IDGL版本,即IDGL- anch,在不影響性能的前提下,顯著降低了IDGL的時間和空間復雜度。我們在9個基準上進行的廣泛實驗表明,我們提出的IDGL模型始終能夠優于或匹配最先進的基線。此外,IDGL還能更魯棒地處理對抗圖,并能同時處理傳導學習和歸納學習。
圖神經網絡(GNN)已經在許多具有挑戰性的應用中展示了優越的性能,包括小樣本學習任務。盡管GNN具有強大的從少量樣本中學習和歸納的能力,但隨著模型的深入,GNN通常會出現嚴重的過擬合和過平滑問題,這限制了模型的可擴展性。在這項工作中,我們提出了一個新的注意力GNN來解決這些挑戰,通過合并三重注意機制,即節點自我注意,鄰居注意和層記憶注意力。我們通過理論分析和實例說明了所提出的注意模塊可以改善小樣本學習的GNN的原因。廣泛的實驗表明,在mini-ImageNet 和Tiered-ImageNet數據集上,通過誘導和直推設置,提出的注意力GNN在小樣本學習方面優于基于最先進的GNN方法。
題目: Graph Neural Networks:A Review of Methods and Applications
簡介: 許多學習任務需要處理圖形數據,該圖形數據包含元素之間的關系信息。對物理系統進行建模,學習分子指紋,預測蛋白質界面以及對疾病進行分類,都需要從圖輸入中學習模型。在諸如從文本和圖像之類的非結構數據中學習的其他領域中,對提取結構的推理,例如句子的依存關系樹和圖像的場景圖,是一個重要的研究課題,它也需要圖推理模型。圖神經網絡(GNN)是連接器模型,可通過在圖的節點之間傳遞消息來捕獲圖的依賴性。與標準神經網絡不同,圖神經網絡保留一種狀態,該狀態可以表示來自其鄰域的任意深度的信息。盡管已經發現難以訓練原始圖神經網絡來固定點,但是網絡體系結構,優化技術和并行計算的最新進展已使他們能夠成功學習。近年來,基于圖卷積網絡(GCN)和門控圖神經網絡(GGNN)的系統已經在上述許多任務上展示了突破性的性能。在本綜述中,我們對現有的圖神經網絡模型進行了詳細的回顧,對應用程序進行了系統分類,并提出了四個未解決的問題,供以后研究。
作者簡介: 周杰,教授,清華大學自動化系黨委書記,教授,博士生導師。