亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

當前的圖神經網絡(GNN)簡單地將節點嵌入到聚合的圖表示中——可能會丟失結構或語義信息。我們在這里介紹了OT-GNN,它通過GNN節點嵌入集合與“原型”點云之間的最佳傳輸距離作為自由參數來計算圖嵌入。這允許不同的原型突出顯示不同圖子部分的關鍵方面。證明了點云上的函數類滿足一個通用的近似定理,這是一個由于和和而失去的基本性質。然而,根據經驗,該模型在訓練過程中有一種崩潰回標準聚合的自然趨勢。我們通過提出一種有效的噪聲對比調節器來解決這一優化問題,從而使模型朝著真正挖掘最優運輸幾何的方向發展。我們的模型在幾個分子性質預測任務上始終表現出更好的泛化性能,也產生更平滑的表示。

付費5元查看完整內容

相關內容

摘要

圖神經網絡(GNNs)已被證明在建模圖結構的數據方面是強大的。然而,訓練GNN通常需要大量指定任務的標記數據,獲取這些數據的成本往往非常高。減少標記工作的一種有效方法是在未標記數據上預訓練一個具有表達能力的GNN模型,并進行自我監督,然后將學習到的模型遷移到只有少量標記的下游任務中。在本文中,我們提出了GPT-GNN框架,通過生成式預訓練來初始化GNN。GPT-GNN引入了一個自監督屬性圖生成任務來預訓練一個GNN,使其能夠捕獲圖的結構和語義屬性信息。我們將圖生成的概率分解為兩部分:1)屬性生成和2)邊生成。通過對兩個組件進行建模,GPT-GNN捕捉到生成過程中節點屬性與圖結構之間的內在依賴關系。在10億規模的開放學術圖和亞馬遜推薦數據上進行的綜合實驗表明,GPT-GNN在不經過預訓練的情況下,在各種下游任務中的表現顯著優于最先進的GNN模型,最高可達9.1%。

**關鍵詞:**生成式預訓練,圖神經網絡,圖表示學習,神經嵌入,GNN預訓練

付費5元查看完整內容

消息傳遞被證明是一種設計圖神經網絡的有效方法,因為它能夠利用排列等方差和對學習局部結構的歸納偏差來實現良好的泛化。然而,當前的消息傳遞體系結構的表達能力有限,無法學習圖的基本拓撲性質。我們解決了這個問題,并提出了一個新的消息傳遞框架,它是強大的同時保持置換等方差。具體來說,我們以單熱點編碼的形式傳播惟一的節點標識符,以便了解每個節點的本地上下文。我們證明了我們的模型在極限情況下是通用的,同時也是等變的。通過實驗,我們發現我們的模型在預測各種圖的拓撲性質方面具有優勢,為新型的、功能強大的等變和計算效率的結構開辟了道路。

付費5元查看完整內容

題目: Stochastic Graph Neural Networks

簡介:

圖神經網絡(GNN)對圖數據中的非線性表示進行建模,并在分布式智能體協調,控制和規劃等方面進行了應用。當前的GNN架構假設理想情況,并且忽略由于環境,人為因素或外部攻擊而發生的波動。在這些情況下,如果未考慮拓撲隨機性,則GNN無法解決其分布式任務。為了克服這個問題,我們提出了隨機圖神經網絡(SGNN)模型:一種GNN,其中分布式圖卷積模塊解決了隨機網絡的變化。由于隨機性引入了新的學習范式,因此我們對SGNN輸出方差進行統計分析,以識別學習濾波器為實現向擾動場景的魯棒轉移而應滿足的條件,最終揭示隨機鏈路損耗的顯式影響。我們進一步為SGNN開發了基于隨機梯度下降(SGD)的學習過程,并推導了學習速率收斂的條件,在該條件下該學習過程收斂于平穩點。數值結果證實了我們的理論研究,并將SGNN魯棒與傳統GNN的優勢進行了比較,后者在學習過程中忽略了圖形擾動。

付費5元查看完整內容

題目: Graph Random Neural Networks

摘要:

圖神經網絡(GNNs)將深度學習方法推廣到圖結構數據中,在圖形挖掘任務中表現良好。然而,現有的GNN常常遇到具有標記節點的復雜圖結構,并受到非魯棒性、過度平滑和過擬合的限制。為了解決這些問題,本文提出了一個簡單而有效的GNN框架——圖隨機神經網絡(Grand)。與現有GNNs中的確定性傳播不同,Grand采用隨機傳播策略來增強模型的魯棒性。這種策略也很自然地使Grand能夠將傳播從特征轉換中分離出來,減少了過度平滑和過度擬合的風險。此外,隨機傳播是圖數據擴充的一種有效方法。在此基礎上,利用無標記節點在多個擴展中的分布一致性,提高模型的泛化能力,提出了Grand的一致性正則化方法。在圖形基準數據集上的大量實驗表明,Grand在半監督的圖形學習任務上顯著優于最先進的GNN基線。最后,證明了它可以顯著減輕過度平滑和過度擬合的問題,并且它的性能與魯棒性相結合。

付費5元查看完整內容

主題: Graph Neural Networks with Composite Kernels

摘要: 近年來,對圖結構化數據的學習引起了越來越多人的興趣。諸如圖卷積網絡(GCN)之類的框架已經證明了它們在各種任務中捕獲結構信息并獲得良好性能的能力。在這些框架中,節點聚合方案通常用于捕獲結構信息:節點的特征向量是通過聚集其相鄰節點的特征來遞歸計算的。但是,大多數聚合方案都將圖中的所有連接均等化,而忽略了節點特征的相似性。本文從內核權重的角度重新解釋了節點聚合,并提出了一個框架來考慮特征相似性。我們表明歸一化的鄰接矩陣等效于Kerin空間中基于鄰居的內核矩陣。然后,我們提出功能聚集作為基于原始鄰居的內核和可學習的內核的組成,以在特征空間中編碼特征相似性。我們進一步展示了如何將所提出的方法擴展到圖注意力網絡(GAT)。實驗結果表明,在一些實際應用中,我們提出的框架具有更好的性能。

付費5元查看完整內容

主題: Principal Neighbourhood Aggregation for Graph Nets

摘要: 圖神經網絡(GNN)已被證明是針對圖結構數據的不同預測任務的有效模型。 關于它們表現力的最新工作集中在同構任務和可數特征空間上。 我們擴展了該理論框架,使其包含連續的功能(在現實世界的輸入域中以及在GNN的隱藏層中定期發生),并說明了在這種情況下對多個聚合函數的需求。 將多個聚合器與度標度器結合在一起(可以對總和聚合器進行概括)。 最后,我們通過基準測試比較了不同模型捕獲和利用圖形結構的能力,該基準包含了經典圖形理論中的多個任務,這證明了我們模型的能力。

付費5元查看完整內容

題目: Bayesian Neural Networks With Maximum Mean Discrepancy Regularization

摘要: 貝葉斯神經網絡(BNNs)訓練來優化整個分布的權重,而不是一個單一的集合,在可解釋性、多任務學習和校準等方面具有顯著的優勢。由于所得到的優化問題的難解性,大多數BNNs要么通過蒙特卡羅方法采樣,要么通過在變分近似上最小化一個合適的樣本下界(ELBO)來訓練。在這篇論文中,我們提出了后者的一個變體,其中我們用最大平均偏差(MMD)估計器代替了ELBO項中的Kullback-Leibler散度,這是受到了最近的變分推理工作的啟發。在根據MMD術語的性質提出我們的建議之后,我們接著展示了公式相對于最先進的公式的一些經驗優勢。特別地,我們的BNNs在多個基準上實現了更高的準確性,包括多個圖像分類任務。此外,它們對權重上的先驗選擇更有魯棒性,而且它們的校準效果更好。作為第二項貢獻,我們提供了一個新的公式來估計給定預測的不確定性,表明與更經典的標準(如微分熵)相比,它在對抗攻擊和輸入噪聲的情況下表現得更穩定。

付費5元查看完整內容

題目

圖神經網絡的泛化與表示極限,《Generalization and Representational Limits of Graph Neural Networks》

關鍵字

圖神經網絡,泛化與表示,深度學習,人工智能,圖論

簡介

我們討論了圖神經網絡的兩個基本問題。首先,我們證明了幾個重要的圖屬性不能由完全依賴于局部信息的GNNs來計算。這些gnn包括標準的消息傳遞模型,以及更強大的空間變體,它們利用局部圖結構(例如,通過消息的相對方向或本地端口排序)來區分每個節點的鄰居。我們的研究包括一種新的圖論形式。其次,我們為消息傳遞GNNs提供了第一個數據相關泛化界限。該分析明確地解釋了GNNs的局部排列不變性。我們的界限比現有的基于vc維的GNNs保證要嚴格得多,并且可與遞歸神經網絡的Rademacher界限相媲美。

作者

Vikas K. Garg, Stefanie Jegelka, Tommi Jaakkola

付費5元查看完整內容
北京阿比特科技有限公司