亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

主題: Principal Neighbourhood Aggregation for Graph Nets

摘要: 圖神經網絡(GNN)已被證明是針對圖結構數據的不同預測任務的有效模型。 關于它們表現力的最新工作集中在同構任務和可數特征空間上。 我們擴展了該理論框架,使其包含連續的功能(在現實世界的輸入域中以及在GNN的隱藏層中定期發生),并說明了在這種情況下對多個聚合函數的需求。 將多個聚合器與度標度器結合在一起(可以對總和聚合器進行概括)。 最后,我們通過基準測試比較了不同模型捕獲和利用圖形結構的能力,該基準包含了經典圖形理論中的多個任務,這證明了我們模型的能力。

付費5元查看完整內容

相關內容

劍橋大學(英語:University of Cambridge;勛銜:Cantab)為一所座落于英國劍橋郡劍橋市的研究型大學。它是英語世界中歷史第二悠久的大學,也是世界現存第四古老的大學。劍橋大學的起源為一群牛津大學的學者,因與牛津市民發生沖突而移居至劍橋。劍橋與牛津這兩所在中世紀建立的英國大學,在校務運作、學術聲望、社會地位等多方面都非常相似,經常合稱為“牛劍”

題目: Continuous Graph Neural Networks

摘要:

本文建立了圖神經網絡與傳統動力系統之間的聯系。我們提出了持續圖神經網絡(CGNN),它將現有的圖神經網絡與離散動力學進行了一般化,因為它們可以被視為一種特定的離散化方案。關鍵思想是如何表征節點表示的連續動力學,即關于時間的節點表示的導數。受現有的基于擴散的圖方法(如社交網絡上的PageRank和流行模型)的啟發,我們將導數定義為當前節點表示、鄰節點表示和節點初始值的組合。我們提出并分析了兩種可能的動態圖,包括節點表示的每個維度(又名特征通道)各自改變或相互作用的理論證明。所提出的連續圖神經網絡在過度平滑方面具有很強的魯棒性,因此允許我們構建更深層次的網絡,進而能夠捕獲節點之間的長期依賴關系。在節點分類任務上的實驗結果證明了我們提出的方法在和基線對比的有效性。

介紹

圖神經網絡(GNNs)由于其在節點分類等多種應用中的簡單性和有效性而受到越來越多的關注;、鏈接預測、化學性質預測、自然語言理解。GNN的基本思想是設計多個圖傳播層,通過聚合鄰近節點的節點表示和節點本身的表示,迭代地更新每個節點表示。在實踐中,對于大多數任務,幾層(兩層或三層)通常就足夠了,更多的層可能導致較差的性能。

改進GNNs的一個關鍵途徑是能夠建立更深層次的網絡,以了解數據和輸出標簽之間更復雜的關系。GCN傳播層平滑了節點表示,即圖中相鄰的節點變得更加相似。當我們堆疊越來越多的層時,這會導致過度平滑,這意味著節點表示收斂到相同的值,從而導致性能下降。因此,重要的是緩解節點過平滑效應,即節點表示收斂到相同的值。

此外,對于提高我們對GNN的理論理解,使我們能夠從圖結構中描述我們可以學到的信號,這是至關重要的。最近關于理解GCN的工作(Oono和Suzuki, 2020)認為GCN是由離散層定義的離散動力系統。此外,Chen等人(2018)證明了使用離散層并不是構建神經網絡的唯一視角。他們指出,帶有剩余連接的離散層可以看作是連續ODE的離散化。他們表明,這種方法具有更高的記憶效率,并且能夠更平滑地建模隱藏層的動態。

我們利用基于擴散方法的連續視角提出了一種新的傳播方案,我們使用來自常微分方程(即連續動力系統)的工具進行分析。事實上,我們能夠解釋我們的模型學習了什么表示,以及為什么它不會遭受在GNNs中常見的過度平滑問題。允許我們建立更深層次的網絡,也就是說我們的模型在時間價值上運行良好。恢復過平滑的關鍵因素是在連續設置中使用了最初在PageRank中提出的原始分布。直觀上,重新開始分布有助于不忘記鄰接矩陣的低冪次信息,從而使模型收斂到有意義的平穩分布。

本文的主要貢獻是:

  • 基于PageRank和擴散方法,提出了兩個連續遞增模型容量的ODEs;
  • 我們從理論上分析了我們的層學習的表示,并表明當t → ∞我們的方法接近一個穩定的不動點,它捕獲圖結構和原始的節點特征。因為我們在t→∞時是穩定的,我們的網絡可以有無限多個“層”,并且能夠學習遠程依賴關系;
  • 我們證明了我們的模型的記憶是高效的,并且對t的選擇是具有魯棒性的。除此之外,我們進一步證明了在節點分類任務上,我們的模型能夠比許多現有的最先進的方法表現更好。
付費5元查看完整內容

當前的圖神經網絡(GNN)簡單地將節點嵌入到聚合的圖表示中——可能會丟失結構或語義信息。我們在這里介紹了OT-GNN,它通過GNN節點嵌入集合與“原型”點云之間的最佳傳輸距離作為自由參數來計算圖嵌入。這允許不同的原型突出顯示不同圖子部分的關鍵方面。證明了點云上的函數類滿足一個通用的近似定理,這是一個由于和和而失去的基本性質。然而,根據經驗,該模型在訓練過程中有一種崩潰回標準聚合的自然趨勢。我們通過提出一種有效的噪聲對比調節器來解決這一優化問題,從而使模型朝著真正挖掘最優運輸幾何的方向發展。我們的模型在幾個分子性質預測任務上始終表現出更好的泛化性能,也產生更平滑的表示。

付費5元查看完整內容

最近,人們對在非歐幾里得空間中表示數據的方法(例如雙曲或球面)越來越感興趣,這些方法提供了對某些真實世界數據屬性(例如無尺度、分層或循環)有用的特定歸納偏差。然而,流行的圖神經網絡目前僅限于通過歐幾里得幾何和相關的向量空間操作來建模數據。在這里,我們通過提出將圖卷積網絡(GCN)在數學基礎上推廣為常曲率空間的(乘積)來彌補這一差距。我們通過i)引入一種統一的形式,可以在所有常曲率幾何之間平滑地插入,ii)利用陀螺質心坐標,推廣了經典的歐幾里德質心概念。當曲率從任何一邊變為零時,我們這類模型平滑地恢復它們的歐幾里得對應模型。根據其離散曲率,我們在非歐幾里得行為的符號數據上的節點分類和失真最小化的任務表現優于歐幾里得GCNs。

//arxiv.org/abs/1911.05076

概述

圖卷積網絡 針對圖像數據的卷積網絡和深度學習的成功啟發了對于共享參數與圖形幾何形狀一致的圖推廣。Bruna等人(2014);Henaff等人(2015)是利用圖上的局部譜濾波器在圖傅里葉空間中開發頻譜圖卷積神經網絡的先驅。然而,為了減少對拉普拉斯特征模式的圖依賴,Defferrard等人(2016)利用Hammond等人(2011)的結果使用Chebyshev多項式近似卷積濾波器。所得到的方法(在附錄A中討論)在計算效率和精度和復雜性方面是優越的。此外,Kipf和Welling(2017)通過考慮一階近似來簡化這種方法,從而獲得高可伸縮性。提出的圖卷積網絡(GCN)是通過對稱歸一化鄰接矩陣來插值節點嵌入,而這種權值共享可以理解為一種有效的擴散式正則化器。最近的工作擴展了GCNs,實現了鏈接預測(Zhang & Chen, 2018)、圖分類(Hamilton等,2017;和節點分類(Klicpera et al., 2019;Velickoviˇc et al .′, 2018)。

ML中的歐幾里得幾何。在機器學習(ML)中,由于各種原因,數據通常在歐幾里得空間中表示。首先,有些數據本質上是歐幾里得的,比如經典力學中三維空間中的位置。其次,直覺在這樣的空間中更容易,因為它們擁有一個吸引人的矢量結構,允許基本的算術和豐富的線性代數理論。最后,許多感興趣的量,如距離和內積在封閉公式中是已知的,可以在現有的硬件上非常有效地計算。這些操作是當今大多數流行的機器學習模型的基本構建模塊。因此,歐幾里得幾何強大的簡單性和效率已經導致許多方法實現了最先進的任務,如機器翻譯(Bahdanau等,2015;wani et al., 2017),語音識別(Graves et al., 2013),圖像分類(He et al., 2016)或推薦系統(He et al., 2017)。

黎曼ML 盡管取得了成功,但某些類型的數據(例如分層數據、無標度數據或球形數據)被證明可以更好地用非歐幾里德幾何表示(Defferrard et al., 2019;Bronstein等,2017;Nickel & Kiela, 2017;Gu et al., 2019),尤其帶來了豐富的流形學習理論(Roweis & Saul, 2000;和信息幾何(Amari & Nagaoka, 2007)。在活力操縱非歐幾里得幾何的數學框架被稱為黎曼幾何(Spivak, 1979)。雖然它的理論導致了許多強而優雅的結果,但它的一些基本量,如距離函數d(·,·),通常不能以封閉的形式提供,這對許多計算方法都是禁止的。

常曲率幾何的代表性優勢。在一般黎曼流形和歐幾里得空間之間的一個有趣的權衡是由常截面曲率流形給出的。他們一起定義了所謂的雙曲(負曲率),橢圓(正曲率)和歐幾里得(零曲率)幾何。正如下面和附錄B中所討論的,歐幾里得空間在嵌入某些類型的數據(如樹)時具有局限性,并且會產生很大的失真。在這些情況下,雙曲空間和球面空間具有代表性的優勢,為各自的數據提供了更好的歸納偏差。

雙曲空間可以直觀地理解為一棵連續樹:球的體積隨半徑呈指數增長,類似于二叉樹的節點數隨深度呈指數增長(圖1)。它的樹狀性質已經被數學研究了很長時間(Gromov, 1987;哈曼,2017;與歐幾里得幾何結構相比,它被證明能夠更好地嵌入復雜網絡(Krioukov et al., 2010)、無標度圖和分層數據(Cho et al., 2019; Sala et al., 2018; Ganea et al., 2018b; Gu et al., 2019; Nickel & Kiela, 2018; 2017; Tifrea et al., 2019)。一些重要的工具或方法找到了它們的雙曲線對應物,例如變分自編碼器(Mathieu et al., 2019;、注意力機制(Gulcehre等,2018)、矩陣乘法、遞歸單位和多項logistic回歸(Ganea等,2018)。

常曲率空間中的GCNs。在這項工作中,我們引入了一個擴展的圖形卷積網絡,它允許學習存在于具有任何曲率符號的常曲率空間(乘積)中的表示。我們通過將導出的統一陀螺框架與GCNs的有效性相結合來實現這一點(Kipf & Welling, 2017)。與我們的工作同時,Chami等人(2019年);Liu等人(2019)考慮了通過切線空間聚合在雙曲空間中學習嵌入的圖神經網絡。他們的方法將在第3.4節中作更詳細的分析。我們的模型更一般化,因為它在一個包含雙曲空間的嚴格超集中產生表示。

付費5元查看完整內容

題目: Hyperbolic Graph Attention Network

摘要: 圖神經網絡(GNN)在圖處理方面表現出了優越的性能,近年來引起了人們的廣泛關注。然而,大多數現有的GNN模型主要是為歐幾里得空間中的圖設計的。最近的研究已經證明,圖數據顯示非歐幾里得潛在的解剖學。不幸的是,到目前為止,很少有研究GNN在非歐幾里得的設置。為了彌補這一缺陷,本文首次對雙曲空間中具有注意機制的GNN進行了研究。雙曲GNN的研究有一些獨特的挑戰:由于雙曲空間不是向量空間,不能進行向量操作(如向量的加法、減法和標量乘法)。為了解決這個問題,我們使用回旋向量空間,它提供了一個優雅的代數形式的雙曲幾何,以轉換圖的特征;在此基礎上,我們提出了基于雙曲接近的注意力聚合機制。此外,由于雙曲空間中的數學運算比歐幾里得空間中的更為復雜,我們進一步設計了一種新的利用對數和指數映射的加速策略來提高模型的效率。通過與其他最先進的基線方法的比較,發現在四個真實數據集上的綜合實驗結果證明了我們提出的雙曲圖注意力網絡模型的性能。

付費5元查看完整內容

題目: Heterogeneous Graph Attention Network

摘要: 圖神經網絡作為一種基于深度學習的功能強大的圖表示技術,表現出了優越的性能,引起了廣泛的研究興趣。然而,對于包含不同節點和鏈接類型的異構圖,圖神經網絡還沒有充分考慮到這一點。異構性和豐富的語義信息給異構圖的圖神經網絡設計帶來了很大的挑戰。最近,深度學習領域最令人興奮的進展之一是注意力機制,其巨大的潛力在各個領域都得到了很好的展示。本文首先提出了一種基于分層關注的異構圖神經網絡,包括節點級關注和語義級關注。具體來說,節點級注意的目的是學習節點與其基于元路徑的鄰居之間的重要性,而語義級注意能夠學習不同元路徑之間的重要性。通過對節點級和語義級注意的學習,可以充分考慮節點和元路徑的重要性。然后將基于元路徑的鄰域的特征分層聚合,生成節點嵌入。在三個真實世界的異構圖上的廣泛實驗結果不僅顯示了我們所提出的模型的優越性能,而且也顯示了它對圖分析的潛在良好的可解釋性。

付費5元查看完整內容

題目: Graph Random Neural Networks

摘要:

圖神經網絡(GNNs)將深度學習方法推廣到圖結構數據中,在圖形挖掘任務中表現良好。然而,現有的GNN常常遇到具有標記節點的復雜圖結構,并受到非魯棒性、過度平滑和過擬合的限制。為了解決這些問題,本文提出了一個簡單而有效的GNN框架——圖隨機神經網絡(Grand)。與現有GNNs中的確定性傳播不同,Grand采用隨機傳播策略來增強模型的魯棒性。這種策略也很自然地使Grand能夠將傳播從特征轉換中分離出來,減少了過度平滑和過度擬合的風險。此外,隨機傳播是圖數據擴充的一種有效方法。在此基礎上,利用無標記節點在多個擴展中的分布一致性,提高模型的泛化能力,提出了Grand的一致性正則化方法。在圖形基準數據集上的大量實驗表明,Grand在半監督的圖形學習任務上顯著優于最先進的GNN基線。最后,證明了它可以顯著減輕過度平滑和過度擬合的問題,并且它的性能與魯棒性相結合。

付費5元查看完整內容

題目: Bayesian Neural Networks With Maximum Mean Discrepancy Regularization

摘要: 貝葉斯神經網絡(BNNs)訓練來優化整個分布的權重,而不是一個單一的集合,在可解釋性、多任務學習和校準等方面具有顯著的優勢。由于所得到的優化問題的難解性,大多數BNNs要么通過蒙特卡羅方法采樣,要么通過在變分近似上最小化一個合適的樣本下界(ELBO)來訓練。在這篇論文中,我們提出了后者的一個變體,其中我們用最大平均偏差(MMD)估計器代替了ELBO項中的Kullback-Leibler散度,這是受到了最近的變分推理工作的啟發。在根據MMD術語的性質提出我們的建議之后,我們接著展示了公式相對于最先進的公式的一些經驗優勢。特別地,我們的BNNs在多個基準上實現了更高的準確性,包括多個圖像分類任務。此外,它們對權重上的先驗選擇更有魯棒性,而且它們的校準效果更好。作為第二項貢獻,我們提供了一個新的公式來估計給定預測的不確定性,表明與更經典的標準(如微分熵)相比,它在對抗攻擊和輸入噪聲的情況下表現得更穩定。

付費5元查看完整內容

題目

幾何圖形卷積網絡,GEOM-GCN: GEOMETRIC GRAPH CONVOLUTIONAL NETWORKS

關鍵字

消息傳遞神經網絡,圖卷積神經網絡,圖表示學習,深度學習

簡介

消息傳遞神經網絡(MPNN)已成功應用于各種現實應用中的圖表示學習。但是,MPNN聚合器的兩個基本弱點限制了它們表示圖結構數據的能力:丟失了鄰居中節點的結構信息,并且缺乏捕獲解離圖中的長期依賴關系的能力。很少有研究注意到不同觀點的弱點。通過對經典神經網絡和網絡幾何的觀察,我們提出了一種新穎的圖神經網絡幾何聚合方案,以克服這兩個缺點。背后的基本思想是圖形上的聚合可以受益于圖形下方的連續空間。提出的聚合方案是置換不變的,由節點嵌入,結構鄰域和雙層聚合三個模塊組成。我們還介紹了該方案在圖卷積網絡(稱為Geom-GCN)中的實現,以對圖執行轉導學習。實驗結果表明,Geom-GCN在各種開放的圖形數據集上均達到了最先進的性能。

作者

Hongbin Pei,Bingzhe Wei,Kevin Chen-Chuan Chang,Yu Lei,Bo Yang

付費5元查看完整內容

題目: How Powerful are Graph Neural Networks?

摘要: 圖神經網絡(GNNs)是一種有效的圖表示學習框架。GNNs遵循鄰域聚合方案,通過遞歸地聚合和轉換鄰域節點的表示向量來計算節點的表示向量。許多GNN變體已經被提出,并且在節點和圖分類任務上都取得了最新的結果。然而,盡管GNNs給圖形表示學習帶來了革命性的變化,但是對于它們的表示性質和局限性的理解還是有限的。在這里,我們提出了一個理論框架來分析GNNs捕捉不同圖形結構的表現力。我們的結果描述了流行的GNN變體,如圖卷積網絡和圖年齡的辨別能力,并且表明它們不能學習辨別某些簡單的圖結構。然后,我們開發了一個簡單的體系結構,它可以證明是GNNs類中最具表現力的,并且與Weisfeiler-Lehman圖同構測試一樣強大。我們在一些圖形分類基準上實證驗證了我們的理論發現,并證明我們的模型達到了最先進的性能。

作者簡介: Keyulu Xu,麻省理工學院EECS系的研究生,也是CSAIL和機器學習小組的成員。他的興趣是智力和推理理論。

WeiHua Hu,哈爾濱工業大學(深圳)助理教授。

付費5元查看完整內容
北京阿比特科技有限公司