亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

圖卷積神經網絡(GCNNs)是深度學習技術在圖結構數據問題上的一種強大的擴展。我們對GCNNs的幾種池方法進行了實證評估,并將這些圖池化方法與三種不同架構(GCN、TAGCN和GraphSAGE)進行了組合。我們證實,圖池化,特別是DiffPool,提高了流行的圖分類數據集的分類精度,并發現,平均而言,TAGCN達到了可比或更好的精度比GCN和GraphSAGE,特別是對數據集較大和稀疏的圖結構。

付費5元查看完整內容

相關內容

本文研究如何更好聚合網絡拓撲信息和特征信息。中心思想是,構造了結構圖,特征圖(feature graph),以及兩者的組合來提取特定的和通用的嵌入,并使用注意機制來學習嵌入的自適應重要性權重。實驗發現,AM-GCN可以從節點特征和拓撲結構中提取自適應地提取相關的信息,對應不同的參數取值。 //arxiv.org/abs/2007.02265

摘要:圖卷積網絡(GCNs)在處理圖數據和網絡數據的各種分析任務方面得到了廣泛的應用。然而,最近的一些研究提出了一個問題,即GCNs是否能夠在一個信息豐富的復雜圖形中優化地整合節點特征和拓撲結構。在本文中,我們首先提出一個實驗研究。令人驚訝的是,我們的實驗結果清楚地表明,當前的GCNs融合節點特征和拓撲結構的能力遠遠不是最優的,甚至是令人滿意的。由于GCNs無法自適應地學習拓撲結構與節點特征之間的一些深層次關聯信息,這一弱點可能會嚴重阻礙GCNs在某些分類任務中的能力。我們能否彌補這一缺陷,設計出一種新型的GCNs,既能保留現有GCNs的優勢,又能大幅度提高拓撲結構和節點特征融合的能力?為了解決這個問題,我們提出了一種自適應多通道半監督分類圖卷積網絡。其核心思想是同時從節點特征、拓撲結構及其組合中提取具體的和常見的嵌入,并利用注意機制學習嵌入的自適應重要度權值。我們在基準數據集上進行的大量實驗表明,AM-GCN從節點特征和拓撲結構中提取了最多的相關信息,顯著提高了分類精度。

付費5元查看完整內容

題目: Continuous Graph Neural Networks

摘要:

本文建立了圖神經網絡與傳統動力系統之間的聯系。我們提出了持續圖神經網絡(CGNN),它將現有的圖神經網絡與離散動力學進行了一般化,因為它們可以被視為一種特定的離散化方案。關鍵思想是如何表征節點表示的連續動力學,即關于時間的節點表示的導數。受現有的基于擴散的圖方法(如社交網絡上的PageRank和流行模型)的啟發,我們將導數定義為當前節點表示、鄰節點表示和節點初始值的組合。我們提出并分析了兩種可能的動態圖,包括節點表示的每個維度(又名特征通道)各自改變或相互作用的理論證明。所提出的連續圖神經網絡在過度平滑方面具有很強的魯棒性,因此允許我們構建更深層次的網絡,進而能夠捕獲節點之間的長期依賴關系。在節點分類任務上的實驗結果證明了我們提出的方法在和基線對比的有效性。

介紹

圖神經網絡(GNNs)由于其在節點分類等多種應用中的簡單性和有效性而受到越來越多的關注;、鏈接預測、化學性質預測、自然語言理解。GNN的基本思想是設計多個圖傳播層,通過聚合鄰近節點的節點表示和節點本身的表示,迭代地更新每個節點表示。在實踐中,對于大多數任務,幾層(兩層或三層)通常就足夠了,更多的層可能導致較差的性能。

改進GNNs的一個關鍵途徑是能夠建立更深層次的網絡,以了解數據和輸出標簽之間更復雜的關系。GCN傳播層平滑了節點表示,即圖中相鄰的節點變得更加相似。當我們堆疊越來越多的層時,這會導致過度平滑,這意味著節點表示收斂到相同的值,從而導致性能下降。因此,重要的是緩解節點過平滑效應,即節點表示收斂到相同的值。

此外,對于提高我們對GNN的理論理解,使我們能夠從圖結構中描述我們可以學到的信號,這是至關重要的。最近關于理解GCN的工作(Oono和Suzuki, 2020)認為GCN是由離散層定義的離散動力系統。此外,Chen等人(2018)證明了使用離散層并不是構建神經網絡的唯一視角。他們指出,帶有剩余連接的離散層可以看作是連續ODE的離散化。他們表明,這種方法具有更高的記憶效率,并且能夠更平滑地建模隱藏層的動態。

我們利用基于擴散方法的連續視角提出了一種新的傳播方案,我們使用來自常微分方程(即連續動力系統)的工具進行分析。事實上,我們能夠解釋我們的模型學習了什么表示,以及為什么它不會遭受在GNNs中常見的過度平滑問題。允許我們建立更深層次的網絡,也就是說我們的模型在時間價值上運行良好。恢復過平滑的關鍵因素是在連續設置中使用了最初在PageRank中提出的原始分布。直觀上,重新開始分布有助于不忘記鄰接矩陣的低冪次信息,從而使模型收斂到有意義的平穩分布。

本文的主要貢獻是:

  • 基于PageRank和擴散方法,提出了兩個連續遞增模型容量的ODEs;
  • 我們從理論上分析了我們的層學習的表示,并表明當t → ∞我們的方法接近一個穩定的不動點,它捕獲圖結構和原始的節點特征。因為我們在t→∞時是穩定的,我們的網絡可以有無限多個“層”,并且能夠學習遠程依賴關系;
  • 我們證明了我們的模型的記憶是高效的,并且對t的選擇是具有魯棒性的。除此之外,我們進一步證明了在節點分類任務上,我們的模型能夠比許多現有的最先進的方法表現更好。
付費5元查看完整內容

題目: Graph Random Neural Networks

摘要:

圖神經網絡(GNNs)將深度學習方法推廣到圖結構數據中,在圖形挖掘任務中表現良好。然而,現有的GNN常常遇到具有標記節點的復雜圖結構,并受到非魯棒性、過度平滑和過擬合的限制。為了解決這些問題,本文提出了一個簡單而有效的GNN框架——圖隨機神經網絡(Grand)。與現有GNNs中的確定性傳播不同,Grand采用隨機傳播策略來增強模型的魯棒性。這種策略也很自然地使Grand能夠將傳播從特征轉換中分離出來,減少了過度平滑和過度擬合的風險。此外,隨機傳播是圖數據擴充的一種有效方法。在此基礎上,利用無標記節點在多個擴展中的分布一致性,提高模型的泛化能力,提出了Grand的一致性正則化方法。在圖形基準數據集上的大量實驗表明,Grand在半監督的圖形學習任務上顯著優于最先進的GNN基線。最后,證明了它可以顯著減輕過度平滑和過度擬合的問題,并且它的性能與魯棒性相結合。

付費5元查看完整內容

主題: Graph Neural Networks with Composite Kernels

摘要: 近年來,對圖結構化數據的學習引起了越來越多人的興趣。諸如圖卷積網絡(GCN)之類的框架已經證明了它們在各種任務中捕獲結構信息并獲得良好性能的能力。在這些框架中,節點聚合方案通常用于捕獲結構信息:節點的特征向量是通過聚集其相鄰節點的特征來遞歸計算的。但是,大多數聚合方案都將圖中的所有連接均等化,而忽略了節點特征的相似性。本文從內核權重的角度重新解釋了節點聚合,并提出了一個框架來考慮特征相似性。我們表明歸一化的鄰接矩陣等效于Kerin空間中基于鄰居的內核矩陣。然后,我們提出功能聚集作為基于原始鄰居的內核和可學習的內核的組成,以在特征空間中編碼特征相似性。我們進一步展示了如何將所提出的方法擴展到圖注意力網絡(GAT)。實驗結果表明,在一些實際應用中,我們提出的框架具有更好的性能。

付費5元查看完整內容

芬蘭阿爾托大學CSE4890深度學習課程第7講:圖神經網絡,由Alexander Ilin主講,全面詳細地介紹了GNN的背景動機、GCN、循環關系網絡、通用網絡。

付費5元查看完整內容

題目: Composition-Based Multi-Relational Graph Convolutional Networks

摘要: 圖卷積網絡(GCNs)最近被證明在對圖結構數據建模方面是非常成功的。然而,主要的重點是處理簡單的無向圖。多關系圖是一種更為普遍和流行的圖,其中每條邊都有一個與之相關的標簽和方向。現有的大多數處理此類圖的方法都存在參數過多的問題,并且僅限于學習節點的表示形式。在本文中,我們提出了一種新的圖卷積框架COMP-GCN,它將節點和關系共同嵌入到一個關系圖中。COMP-GCN利用知識圖譜嵌入技術中的各種實體關系組合操作,并根據關系的數量進行擴展。它還概括了幾種現有的多關系GCN方法。我們評估了我們提出的方法在多個任務,如節點分類,鏈接預測,和圖分類,并取得了明顯的結果。

付費5元查看完整內容

題目: Tensor Graph Convolutional Networks for Text Classification

摘要: 文本分類是自然語言處理中一個重要而經典的問題。已有許多研究將卷積神經網絡(如規則網格上的卷積,序列)應用于分類。然而,只有有限數量的研究已經探索了更靈活的圖卷積神經網絡(卷積在非網格上,例如,任意圖)的任務。在這項工作中,我們建議使用圖卷積網絡進行文本分類。基于詞的共現關系和文檔詞之間的關系,我們為一個語料庫建立一個文本圖,然后學習一個文本圖卷積網絡(text GCN)。我們的文本GCN使用word和document的一個熱表示進行初始化,然后在已知文檔類標簽的監督下,共同學習word和document的嵌入。我們在多個基準數據集上的實驗結果表明,沒有任何外部單詞嵌入或知識的普通文本GCN優于最新的文本分類方法。另一方面,文本GCN還學習預測詞和文檔嵌入。此外,實驗結果表明,隨著訓練數據百分比的降低,文本GCN相對于現有比較方法的改進變得更加突出,這表明文本GCN對文本分類中較少的訓練數據具有魯棒性。

付費5元查看完整內容

題目: Hyperbolic Graph Convolutional Neural Networks

摘要: 圖卷積神經網絡(GCNs)將圖中的節點嵌入到歐幾里德空間中,在嵌入具有無標度或層次結構的真實圖時,歐幾里德空間會產生很大的失真。雙曲幾何提供了一個令人興奮的選擇,因為它使嵌入具有更小的失真。然而,將廣義神經網絡擴展到雙曲幾何中,由于目前尚不清楚如何定義雙曲空間中的特征變換和聚集等神經網絡操作,因此提出了一些獨特的挑戰。此外,由于輸入特征通常是歐幾里德的,因此如何將特征轉換為具有適當曲率的雙曲型嵌入尚不清楚。本文提出了雙曲圖卷積神經網絡(HGCN),它是第一個同時利用GCN和雙曲幾何的表達能力來學習層次圖和無標度圖的歸納節點表示的雙曲型GCN。推導了雙曲空間雙曲面模型的GCN運算,并將歐氏輸入特征映射到每層可訓練曲率不同的雙曲空間中的嵌入。

作者簡介: Ines Chami,斯坦福大學ICME數據科學項目的碩士,她的研究方向包括計算機視覺,自然語言處理,更具體地說,多模態分析。個人主頁://profiles.stanford.edu/ines-chami

Rex Ying,斯坦福大學計算機科學博士,他的研究主要集中在開發應用于圖結構數據的機器學習算法上。個人主頁:

付費5元查看完整內容

We present graph attention networks (GATs), novel neural network architectures that operate on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximations. By stacking layers in which nodes are able to attend over their neighborhoods' features, we enable (implicitly) specifying different weights to different nodes in a neighborhood, without requiring any kind of costly matrix operation (such as inversion) or depending on knowing the graph structure upfront. In this way, we address several key challenges of spectral-based graph neural networks simultaneously, and make our model readily applicable to inductive as well as transductive problems. Our GAT models have achieved or matched state-of-the-art results across four established transductive and inductive graph benchmarks: the Cora, Citeseer and Pubmed citation network datasets, as well as a protein-protein interaction dataset (wherein test graphs remain unseen during training).

北京阿比特科技有限公司