【導讀】圖神經網絡與因果推理是當下大家關注的焦點,GNN有強大的圖結構建模表達能力,因果推理旨在探究因果關系結構,如何將兩者聯系起來是一個挑戰性的問題?來自TU&DeepMind的研究人員將這兩者做了研究,建立基于GNN的因果推理。
因果性可以用結構因果模型(SCM)來描述,該模型承載了有關興趣變量及其機械關系的信息。對于大多數感興趣的過程來說,底層的SCM將只是部分可見的,因此因果推理試圖利用任何觀察的信息。圖神經網絡(GNN)作為結構化輸入的通用逼近器,為因果學習提供了一個可行的候選者,建議與SCM更緊密的集成。為此,我們提出了從第一原理出發的理論分析,在GNN和SCM之間建立了新的聯系,同時提供了一般神經因果模型的擴展觀點。然后我們建立了一個新的基于GNN的因果推理模型類,該模型類是因果效應識別的必要和充分條件。我們對模擬和標準基準的實證說明驗證了我們的理論證明。
//www.zhuanzhi.ai/paper/8c09c90940b1603f6d6dbce7335df3fc
引言
理解因果關系是人類認知的核心,因此對科學、工程、商業和法律具有很高的價值(Penn and Povinelli 2007)。發展心理學向我們展示了孩子們是如何像科學家一樣進行探索的,都是通過問“如果……會怎么樣?””和“為什么?這類問題((Gopnik 2012; Buchsbaum et al. 2012; Pearl and Mackenzie 2018),而人工智能研究夢想將科學家的行為方式自動化(McCarthy 1998; McCarthy and Hayes 1981; Steinruecken et al. 2019)。深度學習帶來了可優化的逼近普適性,這是指對于任何函數都存在一個接近任意精度的神經網絡(Cybenko 1989;Hornik 1991)。這種能力已經在各種應用中獲得了巨大的成功(Krizhevsky, Sutskever, and Hinton 2012;Mnih et al. 2013;Vaswani et al. 2017)。因此,將因果關系與深度學習相結合,對于即將達到人類智能水平的研究具有至關重要的意義。對所謂的神經-因果模型進行緊密整合的初步嘗試(Xia et al. 2021;Pawlowski, Castro, and Glocker 2020)的存在,并顯示出有望實現一個系統的夢想,該系統在其最令人印象深刻的應用中,可以執行與現代神經模塊同樣規模的有效性的因果推理。
雖然因果關系在過去十年中已經被徹底地正式化了(Pearl 2009;Peters, Janzing, and Scholkopf 2017),“另一方面,深度學習在實際應用中取得了成功,理論突破仍然很少。”Bronstein等人(2017)率先提出了幾何深度學習的概念,從幾何觀點出發并將其推廣到現代架構的一類重要神經網絡是圖神經網絡(GNN) (Velickovi ˇ c et al. 2017; Kipf and Welling 2016a; Gilmer ′ et al. 2017)。與其他專門的神經網絡類似,GNN在藥物發現(Stokes et al. 2020)和谷歌地圖的ETA預測(DerrowPinion et al. 2021)等專門應用中取得了最先進的性能。這些特性,我們稱之為歸納偏差,可以利用其他證明不可能的推論(Gondal et al. 2019)。
顧名思義,GNN在輸入的結構上放置了一個歸納偏差,即,輸入的維度是相關的,這樣它們就形成了一個圖結構。要回到因果關系,其核心是結構因果模型(SCM),它被認為是負責數據生成的現實模型。SCM在其所建模的變量上暗示了一個圖結構,而由于GNN研究的是圖,對這兩個模型之間的關系進行更仔細的檢查似乎對神經因果人工智能的研究進展是合理的。我們沒有從因果關系的原則中獲得靈感來改進機器學習(Mitrovic等人,2020年),而是展示了GNN如何用于執行因果計算,即因果關系如何在神經模型中出現。更準確地說,因果推理是指Pearl因果層次(PCH)模型(Bareinboim et al. 2020)。也就是說,我們以(部分)因果圖和/或來自層次結構不同層次的數據的形式獲得了關于SCM的部分知識。
總的來說,我們做出了一些關鍵貢獻: (1) 我們從第一性原理推導出GNN和SCM之間的理論聯系; (2)定義一個更細粒度的NCM; (3) 我們形式化了GNN的干預,并由此建立了一個新的神經因果模型類,利用自動編碼器;(4) 在與現有工作相關的情況下,我們提供了關于這一新的模型類的可行性、表達性和可識別性的理論結果和證明。(5) 我們實證檢驗了我們的理論模型在識別和估計任務中的實際因果推理。
模型可解釋問題一向都是一個玄學問題,主要核心問題在于怎么評估一個好的模型解釋器。在以往的工作中,圖解釋性模型往往是取一個邊集合,并且將邊集合得到的子圖預測結果與真實標簽做對比然后算一個acc,然而,本文作者則認為如果將解釋結果與真實情況對比的話實際上并不是特別靠譜。因此,本文主要提出了幾種更貼切于解釋性方法的評估數據,包括感染檢測,社區檢測,負樣本評估。
來自阿肯色大學zhang lu 博士介紹《因果發現和因果推理》的Slides。
因果分析的黃金法則是:沒有任何因果論斷可以純粹通過統計方法建立起來。
科學事業的核心是理性地努力去理解我們所觀察到的現象背后的原因。快速增加的觀測和模擬數據打開了新的數據驅動的因果方法的使用,超越了通常采用的相關技術。在這里,我們給出了一個因果推理框架的概述。
圖神經網絡(GNNs)在各種網絡相關任務已被證明是非常有效的。大多數現有的GNN通常利用節點特征的低頻信號,這就產生了一個基本的問題: 低頻信息是我們在現實應用中所需要的全部嗎?在本文中,我們首先提出了一個實驗研究來評估低頻和高頻信號的作用,結果清楚地表明,探索低頻信號與在不同場景下學習有效的節點表示是遙遠的。在GNN中,我們如何自適應地學習低頻信息以外的更多信息?一個可行的方案可以幫助GNNs增強適應性。針對這一問題,我們提出了一種具有自適應機制的頻率自適應圖卷積網絡(FAGCN),該網絡能夠在消息傳遞過程中自適應地整合不同的信號。為了加深理解,我們從理論上分析了低頻信號和高頻信號在學習節點表示上的作用,進一步解釋了為什么FAGCN能在不同類型的網絡上表現良好。在六個真實網絡上的廣泛實驗證實,FAGCN不僅緩解了過度平滑的問題,而且比最先進的技術有優勢。
從異步視頻面試(AVI)中的自動語音識別(ASR)轉錄中,我們解決了基于文本特征自動為候選人的能力評分的任務。問題的關鍵在于如何構建問題與答案之間的依賴關系,并對每個問答(QA)對進行語義級交互。然而,目前AVI的研究大多集中在如何更好地表示問題和答案上,而忽視了它們之間的依賴信息和相互作用,而這是QA評估的關鍵。在這項工作中,我們提出了一種層次推理圖神經網絡(HRGNN)用于問答對的自動評估。具體來說,我們構建了一個句子級關系圖神經網絡來捕獲問題和答案之間的句子依賴信息。基于這些圖,我們采用語義級推理圖注意網絡對當前QA會話的交互狀態進行建模。最后,我們提出了一種門控遞歸單元編碼器來表示用于最終預測的時間問答對。在CHNAT(一個真實數據集)上進行的實證結果驗證了我們提出的模型顯著優于基于文本匹配的基準模型。消融研究和10個隨機種子的實驗結果也表明了我們模型的有效性和穩定性。
//www.zhuanzhi.ai/paper/5c766d478e8b7fae79e95f2a09e5bdd1
【導讀】ICML(International Conference on Machine Learning),即國際機器學習大會, 是機器學習領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。因疫情的影響, 今年第37屆ICML大會將于2020年7月13日至18日在線上舉行。據官方統計,ICML 2020共提交4990篇論文,接收論文1088篇,接收率為21.8%。與往年相比,接收率逐年走低。在會議開始前夕,專知小編為大家整理了ICML 2020圖神經網絡(GNN)的六篇相關論文供參考——核GNN、特征變換、Haar 圖池化、無監督圖表示、譜聚類、自監督GCN。
ICML 2020 Accepted Papers //icml.cc/Conferences/2020/AcceptedPapersInitial
ACL2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN
1. Convolutional Kernel Networks for Graph-Structured Data
作者:Dexiong Chen, Laurent Jacob, Julien Mairal
摘要:我們引入了一系列多層圖核,并在圖卷積神經網絡和核方法之間建立了新的聯系。我們的方法通過將圖表示為核特征映射序列將卷積核網絡推廣到圖結構數據,其中每個節點攜帶關于局部圖子結構的信息。一方面,核的觀點提供了一種無監督的、有表現力的、易于正規化的數據表示,這在樣本有限的情況下很有用。另一方面,我們的模型也可以在大規模數據上進行端到端的訓練,從而產生了新型的圖卷積神經網絡。我們的方法在幾個圖分類基準上取得了與之相當的性能,同時提供了簡單的模型解釋。
網址:
代碼鏈接:
2. GNN-FILM: Graph Neural Networks with Feature-Wise Linear Modulation 作者:Marc Brockschmidt
摘要:本文提出了一種新的基于特征線性調制(feature-wise linear modulation,FiLM)的圖神經網絡(GNN)。許多標準GNN變體僅通過每條邊的源的表示來計算“信息”,從而沿著圖的邊傳播信息。在GNN-FILE中,邊的目標節點的表示被附加地用于計算可以應用于所有傳入信息的變換,從而允許對傳遞的信息進行基于特征的調制。基于基線方法的重新實現,本文給出了在文獻中提到的三個任務上的不同GNN體系結構的實驗結果。所有方法的超參數都是通過廣泛的搜索找到的,產生了一些令人驚訝的結果:基線模型之間的差異比文獻報道的要小。盡管如此,GNN-FILE在分子圖的回歸任務上的表現優于基線方法,在其他任務上的表現也具有競爭性。
網址:
3. Haar Graph Pooling
作者:Yu Guang Wang, Ming Li, Zheng Ma, Guido Montufar, Xiaosheng Zhuang, Yanan Fan
摘要:深度圖神經網絡(GNNs)是用于圖分類和基于圖的回歸任務的有效模型。在這些任務中,圖池化是GNN適應不同大小和結構的輸入圖的關鍵因素。本文提出了一種新的基于壓縮Haar變換的圖池化操作-HaarPooling。HaarPooling實現了一系列池化操作;它是通過跟隨輸入圖的一系列聚類序列來計算的。HaarPooling層將給定的輸入圖變換為節點數較小、特征維數相同的輸出圖;壓縮Haar變換在Haar小波域中過濾出細節信息。通過這種方式,所有HaarPooling層一起將任何給定輸入圖的特征合成為大小一致的特征向量。這種變換提供了數據的稀疏表征,并保留了輸入圖的結構信息。使用標準圖卷積層和HaarPooling層實現的GNN在各種圖分類和回歸問題上實現了最先進的性能。
網址:
4. Interferometric Graph Transform: a Deep Unsupervised Graph Representation 作者:Edouard Oyallon
摘要:我們提出了Interferometric Graph Transform(IGT),這是一類用于構建圖表示的新型深度無監督圖卷積神經網絡。我們的第一個貢獻是提出了一種從歐幾里德傅立葉變換的推廣得到的通用復數譜圖結構。基于一個新穎的貪婪凹目標,我們的學習表示既包括可區分的特征,也包括不變的特征。通過實驗可以得到,我們的學習過程利用了譜域的拓撲,這通常是譜方法的一個缺陷,特別是我們的方法可以恢復視覺任務的解析算子。我們在各種具有挑戰性的任務上測試了我們的算法,例如圖像分類(MNIST,CIFAR-10)、社區檢測(Authorship,Facebook graph)和3D骨架視頻中的動作識別(SBU,NTU),在譜圖非監督環境下展示了一種新的技術水平。
網址:
5. Spectral Clustering with Graph Neural Networks for Graph Pooling
作者:Filippo Maria Bianchi, Daniele Grattarola, Cesare Alippi
摘要:譜聚類(SC)是發現圖上強連通社區的一種流行的聚類技術。SC可以在圖神經網絡(GNN)中使用,以實現聚合屬于同一簇的節點的池化操作。然而,Laplacian的特征分解代價很高,而且由于聚類結果是特定于圖的,因此基于SC的池化方法必須對每個新樣本執行新的優化。在本文中,我們提出了一種圖聚類方法來解決SC的這些局限性。我們建立了歸一化minCUT問題的連續松弛公式,并訓練GNN來計算最小化這一目標的簇分配。我們的基于GNN的實現是可微的,不需要計算譜分解,并且學習了一個聚類函數,可以在樣本外的圖上快速評估。從提出的聚類方法出發,我們設計了一個圖池化算子,它克服了現有圖池化技術的一些重要局限性,并在多個監督和非監督任務中取得了最好的性能。
網址:
6. When Does Self-Supervision Help Graph Convolutional Networks?
作者:Yuning You, Tianlong Chen, Zhangyang Wang, Yang Shen
摘要:自監督作為一種新興的技術已被用于訓練卷積神經網絡(CNNs),以提高圖像表示學習的可傳遞性、泛化能力和魯棒性。然而,自監督對操作圖形數據的圖卷積網絡(GCNS)的介紹卻很少被探索。在這項研究中,我們首次將自監督納入GCNS的系統探索和評估。我們首先闡述了將自監督納入GCNS的三種機制,分析了預訓練&精調和自訓練的局限性,并進而將重點放在多任務學習上。此外,我們還提出了三種新的GCNS自監督學習任務,并進行了理論分析和數值比較。最后,我們進一步將多任務自監督融入到圖對抗性訓練中。研究結果表明,通過合理設計任務形式和合并機制,自監督有利于GCNS獲得更強的泛化能力和魯棒性。
網址:
代碼鏈接:
圖神經網絡是解決各種圖學習問題的有效的機器學習模型。盡管它們取得了經驗上的成功,但是GNNs的理論局限性最近已經被揭示出來。因此,人們提出了許多GNN模型來克服這些限制。在這次調查中,我們全面概述了GNNs的表達能力和可證明的強大的GNNs變體。
【導讀】圖神經網絡依然是當下的研究熱點。來自新加坡南洋理工大學Xavier Bresson和Bengio聯合發布了一篇論文《Benchmarking Graph Neural Networks》,如何構建強大的GNN成為了核心問題。什么類型的架構、第一原則或機制是通用的、可推廣的、可伸縮的,可以用于大型圖數據集和大型圖數據集? 另一個重要的問題是如何研究和量化理論發展對GNNs的影響?基準測試為回答這些基本問題提供了一個強有力的范例。作者發現,準確地說,圖卷積、各向異性擴散、剩余連接和歸一化層是開發健壯的、可伸縮的GNN的通用構件。
圖神經網絡(GNNs)已經成為分析和學習圖數據的標準工具。它們已經成功地應用于無數的領域,包括化學、物理、社會科學、知識圖譜、推薦和神經科學。隨著這個領域的發展,識別架構和關鍵機制變得至關重要,這些架構和關鍵機制可以泛化圖的大小,使我們能夠處理更大、更復雜的數據集和域。不幸的是,在缺乏具有一致的實驗設置和大型數據集的標準基準的情況下,評估新GNN的有效性和比較模型變得越來越困難。在這篇論文中,我們提出了一個可復制的GNN基準測試框架,為研究人員方便地添加新的數據集和模型提供了便利。我們將該基準測試框架應用于數學建模、計算機視覺、化學和組合問題等新型中型圖數據集,以建立設計有效GNNs時的關鍵操作。準確地說,圖卷積、各向異性擴散、剩余連接和歸一化層是開發健壯的、可伸縮的GNN的通用構件。
自(Scarselli et al., 2009; Bruna et al., 2013; Defferrard et al., 2016; Sukhbaatar et al., 2016; Kipf & Welling, 2017; Hamilton et al., 2017)圖神經網絡(GNNs)近年來引起了人們極大的興趣,開發出了很有前途的方法。隨著這個領域的發展,如何構建強大的GNN成為了核心問題。什么類型的架構、第一原則或機制是通用的、可推廣的、可伸縮的,可以用于大型圖數據集和大型圖數據集? 另一個重要的問題是如何研究和量化理論發展對GNNs的影響?基準測試為回答這些基本問題提供了一個強有力的范例。它已被證明是有益的,在幾個領域的科學推動進步,確定基本的想法,并解決領域特定的問題(Weber et al., 2019)。最近,著名的2012年ImageNet (Deng et al.,2009)挑戰提供了觸發深度學習革命的基準數據集(Krizhevsky et al., 2012; Malik, 2017)。國際團隊競相在大型數據集上生成最佳的圖像分類預測模型。自從在ImageNet上取得突破性成果以來,計算機視覺社區已經開辟了一條道路,以識別健壯的體系結構和訓練深度神經網絡的技術(Zeiler & Fergus, 2014; Girshick et al., 2014; Long et al., 2015; He et al., 2016)。
但是,設計成功的基準測試是非常具有挑戰性的:它需要定義適當的數據集、健壯的編碼接口和用于公平比較的公共實驗設置,所有這些都是可重復的。這樣的需求面臨幾個問題。首先,如何定義合適的數據集?它可能很難收集有代表性的,現實的和大規模的數據集。這是GNNs最重要的問題之一。大多數發表的論文都集中在非常小的數據集,如CORA和TU數據集(Kipf & Welling, 2017; Ying et al., 2018; Velickovi ˇ c et al. ′ , 2018; Xinyi & Chen, 2019; Xu et al., 2019; Lee et al., 2019),其中所有的gnn執行幾乎相同的統計。有些與直覺相反的是,沒有考慮圖結構的基線表現得和GNNs一樣好,有時甚至更好(Errica et al., 2019)。這就提出了開發新的、更復雜的GNN架構的必要性問題,甚至提出了使用GNNs的必要性問題(Chen et al., 2019)。例如,在Hoang & Maehara(2019)和Chen等人(2019)的近期著作中,作者分析了GNNs的容量和組成,以揭示模型在小數據集上的局限性。他們聲稱這些數據集不適合設計復雜的結構歸納學習架構。
GNN文獻中的另一個主要問題是定義常見的實驗設置。正如Errica等人(2019)所指出的,最近關于TU數據集的論文在訓練、驗證和測試分割以及評估協議方面沒有達成共識,這使得比較新思想和架構的性能變得不公平。目前還不清楚如何執行良好的數據分割,除了隨機分割之外,后者已知會提供過于樂觀的預測(Lohr, 2009)。此外,不同的超參數、損失函數和學習速率時間表使得很難識別架構中的新進展。
本文的貢獻如下:
我們發布了一個基于PyTorch (Paszke et al., 2019)和DGL (Wang et al., 2019)庫的基于GitHub的GNNs開放基準基礎架構。我們專注于新用戶的易用性,使新數據集和GNN模型的基準測試變得容易。
我們的目標是超越流行的小型CORA和TU數據集,引入中等規模的數據集,其中包含12k-70k圖,節點大小為9-500個。提出的數據集包括數學建模(隨機塊模型)、計算機視覺(超級像素)、組合優化(旅行商問題)和化學(分子溶解度)。
我們通過建議的基準測試基礎設施來確定重要的GNN構建塊。圖卷積、非istropic擴散、殘差連接和歸一化層對設計高效的GNN非常有用。
我們的目標不是對已發布的GNN進行排名。為特定的任務尋找最佳模型在計算上是昂貴的(并且超出了我們的資源),因為它需要使用交叉驗證對超參數值進行徹底的搜索。相反,我們為所有模型確定了一個參數預算,并分析性能趨勢,以確定重要的GNN機制。
數值結果完全可重復。通過運行腳本,我們可以簡單地重現報告的結果。此外,基準基礎設施的安裝和執行在GitHub存儲庫中有詳細的說明。
1、Approximation Ratios of Graph Neural Networks for Combinatorial Problems
作者:Ryoma Sato, Makoto Yamada, Hisashi Kashima;
摘要:本文從理論的角度研究了圖神經網絡(GNNs)在學習組合問題近似算法中的作用。為此,我們首先建立了一個新的GNN類,它可以嚴格地解決比現有GNN更廣泛的問題。然后,我們彌合了GNN理論和分布式局部算法理論之間的差距,從理論上證明了最強大的GNN可以學習最小支配集問題的近似算法和具有一些近似比的最小頂點覆蓋問題比率,并且沒有GNN可以執行比這些比率更好。本文首次闡明了組合問題中GNN的近似比。此外,我們還證明了在每個節點特征上添加著色或弱著色可以提高這些近似比。這表明預處理和特征工程在理論上增強了模型的能力。
網址://www.zhuanzhi.ai/paper/9cad40c81920dfd71fa91e4ddf778616
2、D-VAE: A Variational Autoencoder for Directed Acyclic Graphs
作者:Muhan Zhang, Shali Jiang, Zhicheng Cui, Roman Garnett, Yixin Chen;
摘要:圖結構數據在現實世界中是豐富的。在不同的圖類型中,有向無環圖(DAG)是機器學習研究人員特別感興趣的,因為許多機器學習模型都是通過DAG上的計算來實現的,包括神經網絡和貝葉斯網絡。本文研究了DAG的深度生成模型,提出了一種新的DAG變分自編碼器(D-VAE)。為了將DAG編碼到潛在空間中,我們利用了圖神經網絡。我們提出了一個異步消息傳遞方案,它允許在DAG上編碼計算,而不是使用現有的同步消息傳遞方案來編碼局部圖結構。通過神經結構搜索和貝葉斯網絡結構學習兩項任務驗證了該方法的有效性。實驗表明,該模型不僅生成了新穎有效的DAG,還可以生成平滑的潛在空間,有助于通過貝葉斯優化搜索具有更好性能的DAG。
網址:
3、End to end learning and optimization on graphs
作者:Bryan Wilder, Eric Ewing, Bistra Dilkina, Milind Tambe;
摘要:在實際應用中,圖的學習和優化問題常常結合在一起。例如,我們的目標可能是對圖進行集群,以便檢測有意義的社區(或者解決其他常見的圖優化問題,如facility location、maxcut等)。然而,圖或相關屬性往往只是部分觀察到,引入了一些學習問題,如鏈接預測,必須在優化之前解決。我們提出了一種方法,將用于常見圖優化問題的可微代理集成到用于鏈接預測等任務的機器學習模型的訓練中。這允許模型特別關注下游任務,它的預測將用于該任務。實驗結果表明,我們的端到端系統在實例優化任務上的性能優于將現有的鏈路預測方法與專家設計的圖優化算法相結合的方法。
網址:
4、Graph Neural Tangent Kernel: Fusing Graph Neural Networks with Graph Kernels
作者:Simon S. Du, Kangcheng Hou, Barnabás Póczos, Ruslan Salakhutdinov, Ruosong Wang, Keyulu Xu;
摘要:雖然圖內核(graph kernel,GK)易于訓練并享有可證明的理論保證,但其實際性能受其表達能力的限制,因為內核函數往往依賴于圖的手工組合特性。與圖內核相比,圖神經網絡通常具有更好的實用性能,因為圖神經網絡使用多層結構和非線性激活函數來提取圖的高階信息作為特征。然而,由于訓練過程中存在大量的超參數,且訓練過程具有非凸性,使得GNN的訓練更加困難。GNN的理論保障也沒有得到很好的理解。此外,GNN的表達能力隨參數的數量而變化,在計算資源有限的情況下,很難充分利用GNN的表達能力。本文提出了一類新的圖內核,即圖神經切線核(GNTKs),它對應于通過梯度下降訓練的無限寬的多層GNN。GNTK充分發揮了GNN的表現力,繼承了GK的優勢。從理論上講,我們展示了GNTK可以在圖上學習一類平滑函數。根據經驗,我們在圖分類數據集上測試GNTK并展示它們實現了強大的性能。
網址:
5、HyperGCN: A New Method of Training Graph Convolutional Networks on Hypergraphs
作者:Naganand Yadati, Madhav Nimishakavi, Prateek Yadav, Vikram Nitin, Anand Louis, Partha Talukdar;
摘要:在許多真實世界的網絡數據集中,如co-authorship、co-citation、email communication等,關系是復雜的,并且超越了成對關聯。超圖(Hypergraph)提供了一個靈活而自然的建模工具來建模這種復雜的關系。在許多現實世界網絡中,這種復雜關系的明顯存在,自然會激發使用Hypergraph學習的問題。一種流行的學習范式是基于超圖的半監督學習(SSL),其目標是將標簽分配給超圖中最初未標記的頂點。由于圖卷積網絡(GCN)對基于圖的SSL是有效的,我們提出了HyperGCN,這是一種在超圖上訓練用于SSL的GCN的新方法。我們通過對真實世界超圖的詳細實驗證明HyperGCN的有效性,并分析它何時比最先進的baseline更有效。
網址:
6、Social-BiGAT: Multimodal Trajectory Forecasting using Bicycle-GAN and Graph Attention Networks
作者:Vineet Kosaraju, Amir Sadeghian, Roberto Martín-Martín, Ian Reid, S. Hamid Rezatofighi, Silvio Savarese;
摘要:從自動駕駛汽車和社交機器人的控制到安全監控,預測場景中多個交互主體的未來軌跡已成為許多不同應用領域中一個日益重要的問題。這個問題由于人類之間的社會互動以及他們與場景的身體互動而變得更加復雜。雖然現有的文獻探索了其中的一些線索,但它們主要忽略了每個人未來軌跡的多模態性質。在本文中,我們提出了一個基于圖的生成式對抗網絡Social-BiGAT,它通過更好地建模場景中行人的社交互來生成真實的多模態軌跡預測。我們的方法是基于一個圖注意力網絡(GAT)學習可靠的特征表示(編碼場景中人類之間的社會交互),以及一個反方向訓練的循環編解碼器體系結構(根據特征預測人類的路徑)。我們明確地解釋了預測問題的多模態性質,通過在每個場景與其潛在噪聲向量之間形成一個可逆的變換,就像在Bicycle-GAN中一樣。我們表明了,與現有軌跡預測基準的幾個baseline的比較中,我們的框架達到了最先進的性能。
網址:
7、Scalable Gromov-Wasserstein Learning for Graph Partitioning and Matching
作者:Hongteng Xu, Dixin Luo, Lawrence Carin;
摘要:我們提出了一種可擴展的Gromov-Wasserstein learning (S-GWL) 方法,并建立了一種新的、理論支持的大規模圖分析范式。該方法基于Gromov-Wasserstein discrepancy,是圖上的偽度量。給定兩個圖,與它們的Gromov-Wasserstein discrepancy相關聯的最優傳輸提供了節點之間的對應關系,從而實現了圖的匹配。當其中一個圖具有獨立但自連接的節點時(即,一個斷開連接的圖),最優傳輸表明了其他圖的聚類結構,實現了圖的劃分。利用這一概念,通過學習多觀測圖的Gromov-Wasserstein barycenter圖,將該方法推廣到多圖的劃分與匹配; barycenter圖起到斷開圖的作用,因為它是學習的,所以聚類也是如此。該方法將遞歸K分割機制與正則化近似梯度算法相結合,對于具有V個節點和E條邊的圖,其時間復雜度為O(K(E+V) logk V)。據我們所知,我們的方法是第一次嘗試使Gromov-Wasserstein discrepancy適用于大規模的圖分析,并將圖的劃分和匹配統一到同一個框架中。它優于最先進的圖劃分和匹配方法,實現了精度和效率之間的平衡。
網址:
8、Universal Invariant and Equivariant Graph Neural Networks
作者:Nicolas Keriven, Gabriel Peyré;
摘要:圖神經網絡(GNN)有多種形式,但應該始終是不變的(輸入圖節點的排列不會影響輸出)或等變的(輸入的排列置換輸出)。本文考慮一類特殊的不變和等變網絡,證明了它的一些新的普適性定理。更確切地說,我們考慮具有單個隱藏層的網絡,它是通過應用等變線性算子、點態非線性算子和不變或等變線性算子形成的信道求和而得到的。最近,Maron et al. (2019b)指出,通過允許網絡內部的高階張量化,可以獲得通用不變的GNN。作為第一個貢獻,我們提出了這個結果的另一種證明,它依賴于實值函數代數的Stone-Weierstrass定理。我們的主要貢獻是將這一結果推廣到等變情況,這種情況出現在許多實際應用中,但從理論角度進行的研究較少。證明依賴于一個新的具有獨立意義的廣義等變函數代數Stone-Weierstrass定理。最后,與以往許多考慮固定節點數的設置不同,我們的結果表明,由一組參數定義的GNN可以很好地近似于在不同大小的圖上定義的函數。
網址: