亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

圖神經網絡(GNNs)是圖信號支持的信息處理體系結構。它們在這里作為卷積神經網絡(CNNs)的推廣提出,其中每個層包含圖卷積濾波器,而不是經典卷積濾波器。濾波器由點態非線性組成并分層堆疊。結果表明,GNN結構對排列的方差相等,對圖形變形的穩定性較好。這些特性提供了一個解釋的措施,可以觀察到的良好性能的GNNs經驗。如果圖收斂于一個極限對象,圖形,GNN收斂于一個相應的極限對象,圖神經網絡。這種收斂證明了GNN在不同節點數量的網絡之間的可遷移性。

//www.zhuanzhi.ai/paper/c2f153249a7ff16b6b73279c30e7b93f

付費5元查看完整內容

相關內容

在本章中,我們將訪問圖神經網絡(GNNs)的一些理論基礎。GNNs最有趣的方面之一是,它們是根據不同的理論動機獨立開發的。一方面,基于圖信號處理理論開發了GNN,將歐氏卷積推廣到非歐氏圖域[Bruna et al., 2014]。然而,與此同時,神經信息傳遞方法(構成了大多數現代GNN的基礎)被類比提出,用于圖模型中的概率推理的信息傳遞算法[Dai等人,2016]。最后,基于GNN與weisfeler - lehman圖同構檢驗的聯系,許多研究對其進行了激發[Hamilton et al., 2017b]。

將三個不同的領域匯聚成一個單一的算法框架是值得注意的。也就是說,這三種理論動機中的每一種都有其自身的直覺和歷史,而人們所采用的視角可以對模型的發展產生實質性的影響。事實上,我們推遲對這些理論動機的描述直到引入GNN模型本身之后,這并非偶然。在這一章,我們的目標是介紹這些背后的關鍵思想不同理論的動機,這樣一個感興趣的讀者可以自由探索和組合這些直覺和動機,因為他們認為合適的。

付費5元查看完整內容

在本章中,我們將關注更復雜的編碼器模型。我們將介紹圖神經網絡(GNN)的形式,它是定義圖數據上的深度神經網絡的一般框架。關鍵思想是,我們想要生成實際上依賴于圖結構的節點的表示,以及我們可能擁有的任何特征信息。在開發復雜的圖結構數據編碼器的主要挑戰是,我們通常的深度學習工具箱不適用。例如,卷積神經網絡(CNNs)只在網格結構的輸入(如圖像)上定義良好,而遞歸神經網絡(RNNs)只在序列(如文本)上定義良好。要在一般圖上定義深度神經網絡,我們需要定義一種新的深度學習架構。

付費5元查看完整內容

圖神經網絡(GNN)已經在許多具有挑戰性的應用中展示了優越的性能,包括小樣本學習任務。盡管GNN具有強大的從少量樣本中學習和歸納的能力,但隨著模型的深入,GNN通常會出現嚴重的過擬合和過平滑問題,這限制了模型的可擴展性。在這項工作中,我們提出了一個新的注意力GNN來解決這些挑戰,通過合并三重注意機制,即節點自我注意,鄰居注意和層記憶注意力。我們通過理論分析和實例說明了所提出的注意模塊可以改善小樣本學習的GNN的原因。廣泛的實驗表明,在mini-ImageNet 和Tiered-ImageNet數據集上,通過誘導和直推設置,提出的注意力GNN在小樣本學習方面優于基于最先進的GNN方法。

付費5元查看完整內容

我們討論關于圖神經網絡(GNNs)的兩個基本問題。首先,我們證明了幾個重要的圖屬性是不能由完全依賴于局部信息的GNN計算的。這樣的GNN包括標準的消息傳遞模型,以及更強大的空間變體,利用本地圖結構(例如,通過消息的相對方向,或本地端口排序)來區分每個節點的鄰居。我們的處理包括一種新的圖論形式主義。其次,我們為消息傳遞GNN提供了第一個依賴數據的泛化邊界。該分析明確地說明了GNN的局部置換不變性。我們的邊界比現有的基于VC維的GNN保證更緊,并且可與遞歸神經網絡的Rademacher邊界相媲美。

付費5元查看完整內容

當前的圖神經網絡(GNN)簡單地將節點嵌入到聚合的圖表示中——可能會丟失結構或語義信息。我們在這里介紹了OT-GNN,它通過GNN節點嵌入集合與“原型”點云之間的最佳傳輸距離作為自由參數來計算圖嵌入。這允許不同的原型突出顯示不同圖子部分的關鍵方面。證明了點云上的函數類滿足一個通用的近似定理,這是一個由于和和而失去的基本性質。然而,根據經驗,該模型在訓練過程中有一種崩潰回標準聚合的自然趨勢。我們通過提出一種有效的噪聲對比調節器來解決這一優化問題,從而使模型朝著真正挖掘最優運輸幾何的方向發展。我們的模型在幾個分子性質預測任務上始終表現出更好的泛化性能,也產生更平滑的表示。

付費5元查看完整內容

題目: Stochastic Graph Neural Networks

簡介:

圖神經網絡(GNN)對圖數據中的非線性表示進行建模,并在分布式智能體協調,控制和規劃等方面進行了應用。當前的GNN架構假設理想情況,并且忽略由于環境,人為因素或外部攻擊而發生的波動。在這些情況下,如果未考慮拓撲隨機性,則GNN無法解決其分布式任務。為了克服這個問題,我們提出了隨機圖神經網絡(SGNN)模型:一種GNN,其中分布式圖卷積模塊解決了隨機網絡的變化。由于隨機性引入了新的學習范式,因此我們對SGNN輸出方差進行統計分析,以識別學習濾波器為實現向擾動場景的魯棒轉移而應滿足的條件,最終揭示隨機鏈路損耗的顯式影響。我們進一步為SGNN開發了基于隨機梯度下降(SGD)的學習過程,并推導了學習速率收斂的條件,在該條件下該學習過程收斂于平穩點。數值結果證實了我們的理論研究,并將SGNN魯棒與傳統GNN的優勢進行了比較,后者在學習過程中忽略了圖形擾動。

付費5元查看完整內容

【導讀】Graph Neural Network(GNN)由于具有分析圖結構數據的能力而受到了廣泛的關注。本文對Graph Neural Network進行了簡要介紹。它涵蓋了一些圖論,以便于理解圖和分析圖時遇到的問題。然后介紹了不同形式的Graph神經網絡及其原理。它還涵蓋了GNN可以做什么以及GNN的一些應用。

圖論

首先,我們需要知道什么是圖。圖是一種由兩個部分組成的數據結構:頂點和edge。它用作分析目標和實體之間成對關系的數學結構。通常,將圖定義為G =(V,E),其中V是一組節點,E是它們之間的邊。

圖通常由鄰接矩陣A表示。如果圖具有N個節點,則A的維數為(N x N)。人們有時會提供另一個特征矩陣來描述圖中的節點。如果每個節點都有F個特征,則特征矩陣X的維數為(N x F)。

為什么圖難以分析?

首先,在歐幾里得空間中不存在圖,這意味著它無法用我們熟悉的任何坐標系表示。與其他類型的數據(例如波,圖像或時間序列信號)相比,這使得圖數據的解釋更加困難(“文本”也可以視為時間序列),可以輕松地將其映射為2-D或3-D歐幾里德空間。

其次,圖沒有固定的形式。為什么?看下面的例子。圖(A)和圖(B)具有完全不同的結構和外觀。但是,當我們將其轉換為鄰接矩陣表示形式時,兩個圖具有相同的鄰接矩陣(如果不考慮邊的權重)。那么我們應該考慮這兩個圖是相同還是不同?

最后,一般來說,圖很難直觀地顯示出來以供人類解釋。我不是在談論像上面的例子這樣的小圖。我說的是涉及數百或數千個節點的巨型圖。它的維數很高,節點密集地分組在一起,甚至使人難以理解圖。因此,為該任務訓練機器是具有挑戰性的。以下示例顯示了對集成電路中邏輯門進行建模的圖。

Example of a giant graph: circuit netlist. Figure from J. Baehr et. al. “Machine Learning and Structural Characteristics of Reverse Engineering”

為什么要使用圖?

人們選擇使用圖的原因可以歸納為以下幾點:

  1. 圖提供了一種更好的方式來處理諸如關系和交互之類的抽象概念。它們還提供了直觀的視覺方式來思考這些概念。圖也構成了在社會環境中分析關系的自然基礎。
  2. 圖可以通過將問題簡化為更簡單的表示形式來解決更復雜的問題,或者從不同的角度將問題轉換為表示形式。
  3. 圖論和概念用于研究和建模社交網絡,欺詐模式,功耗模式,病毒性以及在社交媒體中的影響力。社交網絡分析(SNA)可能是圖論在數據科學中最著名的應用。

傳統圖分析方法

傳統方法主要基于算法,例如:

  1. 搜索算法,例如BFS,DFS
  2. 最短路徑算法,例如Dijkstra算法,最近鄰居
  3. 生成樹算法,例如Prim算法
  4. 聚類方法,例如高度連接的組件,k均值 這種算法的局限性在于,在應用該算法之前,我們需要以一定的置信度獲得圖的先驗知識。換句話說,它對我們研究圖本身沒有任何意義。最重要的是,沒有辦法執行圖級別分類。

圖神經網絡

所謂的圖神經網絡是一種可以直接應用于圖的神經網絡。它為節點級別,邊緣級別和圖級別的預測任務提供了一種方便的方法。

文獻中主要有三種類型的圖神經網絡:

  1. 遞歸圖神經網絡
  2. 空間卷積網絡
  3. 譜卷積網絡

GNN的直覺是,節點自然是由其鄰居和連接定義的。為了理解這一點,我們可以簡單地想象一下,如果刪除節點周圍的鄰居和連接,則該節點將丟失其所有信息。因此,節點的鄰居和與鄰居的連接定義了節點的概念。

考慮到這一點,我們然后給每個節點一個狀態(x)來表示其概念。我們可以使用節點狀態(x)產生輸出(o),即有關概念的決策。節點的最終狀態(x_n)通常稱為“節點嵌入”。所有GNN的任務是通過查看其相鄰節點上的信息來確定每個節點的“節點嵌入”。 我們將從圖神經網絡,循環圖神經網絡或RecGNN的經典版本開始。

遞歸圖神經網絡

正如原始GNN論文中介紹的那樣,RecGNN是基于Banach不動點定理的假設而構建的。Banach不動點定理指出:(X,d)是一個完整的度量空間,而(T:X→X)是一個壓縮映射。然后,T具有唯一的不動點(x ?),對于任何x∈X,n→∞的序列T_n(x)收斂到(x ?)。這意味著,如果我申請的映射T上X為?倍,X ^ K在幾乎等于x ^(K-1),即:

RecGNN定義了一個參數化函數f_w:

其中L_N,l_co,x_ne,l_ne 表示當前節點的特征[n],節點的邊緣[n],相鄰節點的狀態,與相鄰節點的功能。(在原始論文中,作者將節點特征稱為節點標簽。這可能會造成一些混亂。)

An illustration of node state update based on the information in its neighbors. Figure from “The Graph Neural Network Model” 最終,在經過k次迭代之后,最終的節點狀態將用于生成輸出,以決定每個節點。輸出函數定義為:

空間卷積網絡

空間卷積網絡的直覺類似于著名的CNN,后者主導著圖像分類和分割任務的文獻。要了解圖像上的CNN,您可以查看這篇文章,其中詳細說明了CNN。

簡而言之,在圖像上進行卷積的想法是對中心像素周圍的相鄰像素求和,該像素由參數化大小和可學習權重的濾波器指定。空間卷積網絡通過將相鄰節點的特征聚合到中心節點中采用了相同的思想。

Left: Convolution on a regular graph such as an image. Right: Convolution on the arbitrary graph structure. Figure from “A Comprehensive Survey on Graph Neural Networks”

譜卷積網絡

與其他類型的GNN相比,這種類型的圖卷積網絡具有非常強大的數學基礎。譜卷積網絡建立在圖信號處理理論的基礎上。并通過簡化和逼近圖卷積。 通過Chebyshev多項式逼近 (Hammond et al。2011),圖卷積可以簡化為以下形式:

進一步簡化后,GCN論文提出了一種2層神經網絡結構,可以用以下等式描述:

其中A_head是原始圖鄰接矩陣A的預處理拉普拉斯算子。(有關數學的詳細信息,請參見GCN論文。將需要大量的精力來進行充分說明。)

如果您有一些機器學習經驗,則此公式看起來非常熟悉。這不過是常用的兩個完全連接的層結構。但是在這種情況下,它確實可以用作圖卷積。我將在下面說明為什么它可以執行圖卷積。

Example of a graph with a feature assigned to each node. Figured by author

讓我們考慮一下,我們有一個包含4個節點的簡單圖。如上圖所示,為這些節點中的每個節點分配了一個特征矩陣。圖鄰接矩陣和特征矩陣很容易得出,如下所示:

Example of the adjacency matrix and feature matrix. Figure by author

注意,鄰接矩陣的對角線故意更改為“ 1”,以為每個節點添加一個自環。當我們執行特征聚合時,這將包括每個節點本身的特征。 然后,我們執行A x X(為簡單起見,我們先忽略A的拉普拉斯算子和權重矩陣W。)

Example of graph convolution by matrix multiplication. Figure by author

矩陣乘法的結果顯示在最右邊的矩陣中。讓我們以第一個節點的結果功能為例。不難發現結果是[節點1]的所有特征之和,包括[節點1]本身的特征,并且[節點4]中的特征不包括在內,因為它不是[節點1]的鄰居。。在數學上,僅當存在邊時,圖的鄰接矩陣才具有值“ 1”,否則具有“ 0”。這使得矩陣乘法成為連接到參考節點的節點的特征之和。 因此,頻譜卷積網絡和空間卷積網絡盡管是在不同的基礎上開始的,但是它們共享相同的傳播規則。 當前可用的所有卷積圖神經網絡共享相同的格式。他們都嘗試學習通過該消息傳遞過程傳遞節點信息并更新節點狀態的功能。 任何圖神經網絡可被表達為與消息傳遞神經網絡(J. Gilmer et al. , 2017)的消息傳遞功能,節點更新功能和讀出功能。

GNN可以做什么?

GNN解決的問題可以大致分為三類:

  1. 節點分類
  2. 鏈接預測
  3. 圖分類 在節點分類中,任務是預測圖中每個節點的節點嵌入。通常以半監督的方式訓練此類問題,其中僅對部分圖進行標記。節點分類的典型應用包括引文網絡,Reddit帖子,Youtube視頻和Facebook朋友關系。 在鏈接預測中,任務是了解圖中實體之間的關系,并預測兩個實體之間是否存在連接。例如,推薦系統可被視為鏈接預測問題,其中模型被賦予一組用戶對不同產品的評論,任務是預測用戶的偏好并調整推薦系統以根據用戶推送更多相關感興趣的產品。 在圖分類中,任務是將整個圖分類為不同的類別。它類似于圖像分類,但是目標變為圖域。有許多工業問題可以應用圖分類,例如在化學,生物醫學,物理學中,模型被賦予分子結構并被要求將目標分類為有意義的類別。它加快了對原子,分子或任何其他結構化數據類型的分析。

一些實際的應用

在了解了GNN可以執行哪種類型的分析之后,您一定想知道我可以對圖進行哪些實際應用。好了,本節將為您提供有關GNN實際應用的更多見解。

自然語言處理中的GNN

GNN被廣泛使用在自然語言處理(NLP)中。實際上,這也是GNN最初開始的地方。如果您中的某些人具有NLP經驗,則必須考慮到文本應該是一種序列或時間數據,則可以由RNN或LTSM最好地描述。然而,GNN則從完全不同的角度解決了這個問題。GNN利用單詞或文檔的內部關系來預測類別。例如,引文網絡嘗試根據論文引文關系和其他論文中引用的詞來預測網絡中每篇論文的標簽。它也可以通過查看句子的不同部分而不是像RNN或LTSM中那樣的純粹序列來構建語法模型。

計算機視覺中的GNN

許多基于CNN的方法已經在圖像中的目標檢測中達到了最新的性能,但是我們還不知道目標之間的關系。GNN在CV中的一種成功應用是使用圖來建模基于CNN的檢測器檢測到的物體之間的關系。從圖像中檢測到目標后,將它們輸入到GNN推理中以進行關系預測。GNN推斷的結果是生成的圖,該圖對不同目標之間的關系進行建模。

Scene Graph Generation. Figure from D. Xu, Y. Zhu, C. B. Choy, and L. Fei-Fei, “Scene graph generation by iterative message passing,” in Proc. of CVPR, 2017

CV中另一個有趣的應用是根據圖描述生成圖像。這可以解釋為幾乎與上述應用相反。圖像生成的傳統方式是使用GAN或自動編碼器生成文本到圖像。從圖到圖像的生成不是使用文本來描述圖像,而是提供了有關圖像語義結構的更多信息。

Image generated from scene graphs. Figure from J. Johnson, A. Gupta, and L. Fei-Fei, “Image generation from scene graphs,” in Proc. of CVPR, 2018 我想分享的最有趣的應用是零樣本學習(ZSL)。您可以找到這篇文章,以全面了解ZSL。總之,ZSL是想學給定的一類分類NO(目標類別的)訓練樣本。這是非常具有挑戰性的,因為如果沒有給出訓練樣本,我們需要讓模型在邏輯上“思考”以識別目標。例如,如果給了我們三張圖像(如下圖所示),并告訴我們在其中找到“ okapi”。我們以前可能沒有看過“okapi”。但是,如果我們還得到信息,“okapi”是一種有四只腿,斑馬紋皮膚的鹿面動物,那么我們就不難確定哪個是“okapii”。典型的方法是通過將檢測到的特征轉換為文本來模擬這種“思考過程”。但是,文本編碼彼此獨立。很難對文本描述之間的關系進行建模。換句話說,圖表示很好地模擬了這些關系。

Figure from X. Wang, Y. Ye, and A. Gupta, “Zero-shot recognition via semantic embeddings and knowledge graphs,” in CVPR 2018

其他領域的GNN

GNN的更多實際應用包括人類行為檢測,交通控制,分子結構研究,推薦系統,程序驗證,邏輯推理,社會影響預測以及對抗攻擊。下面顯示了對社交網絡中人際關系建模的圖表。GNN可用于將人們分為不同的社區群體。

結論

我們在本文中介紹了一些圖論,并強調了分析圖的重要性。人們總是將機器學習算法視為“ 黑匣子 ”。大多數機器學習算法僅從訓練數據的特征中學習,但沒有實際的邏輯可以執行。使用形,我們也許能夠將一些“邏輯”傳遞給機器,并使其更自然地“思考”。

GNN仍然是一個相對較新的領域,值得更多的研究關注。它是分析圖數據的強大工具。但是,它不僅限于圖中的問題。它可以很容易地推廣到任何可以通過圖建模的研究中。圖建模是分析問題的自然方法。

參考鏈接:

//medium.com/datadriveninvestor/an-introduction-to-graph-neural-network-gnn-for-analysing-structured-data-afce79f4cfdc

付費5元查看完整內容

圖神經網絡是解決各種圖學習問題的有效的機器學習模型。盡管它們取得了經驗上的成功,但是GNNs的理論局限性最近已經被揭示出來。因此,人們提出了許多GNN模型來克服這些限制。在這次調查中,我們全面概述了GNNs的表達能力和可證明的強大的GNNs變體。

付費5元查看完整內容

1、Graph Convolutional Networks using Heat Kernel for Semi-supervised Learning

作者:Bingbing Xu , Huawei Shen , Qi Cao , Keting Cen and Xueqi Cheng;

摘要:圖卷積網絡在圖結構數據的半監督學習中取得了顯著的成功。基于圖的半監督學習的關鍵是捕捉由圖結構施加于節點上的標簽或特征的平滑性。以往的方法,包括spectral方法和spatial方法,都致力于將圖卷積定義為相鄰節點上的加權平均,然后學習圖卷積核,利用平滑度來提高基于圖的半監督學習的性能。一個開放的挑戰是如何確定合適的鄰域來反映圖結構中表現出來的平滑相關信息。在本文中,我們提出了GraphHeat,利用heat kernel來增強低頻濾波器,并在圖上的信號變化中增強平滑性。GraphHeat利用熱擴散下目標節點的局部結構靈活地確定其相鄰節點,而不受先前方法所受的順序約束。GraphHeat在三個基準數據集(Cora、Citeseer和Pubmed)上實現了基于圖的半監督分類,并取得了最先進的結果。

網址://www.ijcai.org/proceedings/2019/0267.pdf

2、Graph WaveNet for Deep Spatial-Temporal Graph Modeling

作者:Zonghan Wu , Shirui Pan , Guodong Long, Jing Jiang, Chengqi Zhang;

摘要:時空圖(Spatial-temporal graph)建模是分析系統中各組成部分的空間關系和時間趨勢的一項重要工作。假設實體之間的底層關系是預先確定的,現有的方法主要捕獲固定圖結構上的空間依賴關系。但是,顯式圖形結構(關系)不一定反映真實的依賴關系,并且由于數據中的不完整連接可能會丟失真正的關系。此外,現有的方法無法捕捉時間趨勢,因為這些方法中使用的RNNs或CNNs不能捕捉long-range的時間序列。為了克服這些局限性,本文提出了一種新的圖神經網絡結構—Graph WaveNet,用于時空圖的建模。通過開發一種新的自適應依賴矩陣,并通過節點嵌入學習,該模型可以精確地捕捉數據中隱藏的空間依賴關系。利用stacked dilated一維卷積分量,其接收域隨著層數的增加呈指數增長,Graph WaveNet能夠處理非常長的序列。這兩個組件無縫集成在一個統一的框架中,整個框架以端到端方式學習。在METR-LA和PEMS-BAY這兩個公共交通網絡數據集上的實驗結果表明,該算法具有優越的性能。

網址:

3、Hierarchical Graph Convolutional Networks for Semi-supervised Node Classification

作者:Fenyu Hu, Yanqiao Zhu, Shu Wu, Liang Wang and Tieniu Tan;

摘要:圖卷積網絡(GCNs)已成功地應用于網絡挖掘的節點分類任務中。然而,這些基于鄰域聚合的模型大多比較淺顯,缺乏“graph pooling”機制,無法獲得足夠的全局信息。為了增加感受野,我們提出了一種新的深度層次圖卷積網絡(H-GCN)用于半監督節點分類。H-GCN首先重復地將結構相似的節點聚合到超節點,然后將粗糙的圖細化為原始圖,以恢復每個節點的表示形式。該粗糙化方法不只是簡單地聚合一個或兩個hop的鄰域信息,而是擴展了每個節點的接受域,從而獲得更多的全局信息。提出的H-GCN模型在各種公共基準圖數據集上表現出較強的經驗性能,性能優于目前最先進的方法,在精度方面獲得了高達5.9%的性能提升。此外,當只提供少量帶標簽的樣本時,我們的模型得到了實質性的改進。

網址:

4、AddGraph: Anomaly Detection in Dynamic Graph Using Attention-based Temporal GCN

作者:Li Zheng, Zhenpeng Li, Jian Li, Zhao Li and Jun Gao;

摘要:動態圖中的異常檢測在許多不同的應用場景中都是非常關鍵的,例如推薦系統,但由于異常的高靈活性和缺乏足夠的標記數據,也帶來了巨大的挑戰。在學習異常模式時,最好考慮所有可能的提示,包括結構、內容和時間特征,而不是對部分特征使用啟發式規則。在本文中,我們提出了AddGraph,一個使用extended temporal GCN(Graph Convolutional Network,圖卷積網絡)和注意力模型的端到端異常邊緣檢測框架,它可以同時捕獲動態圖中的長期模式和短期模式。為了解決顯式標注數據不足的問題,我們采用了選擇性負采樣和邊際損失的方法,對AddGraph進行半監督訓練。我們在實際數據集上進行了大量的實驗,并證明了AddGraph在異常檢測方面可以明顯優于最先進的方法。

網址:

5、Dual Self-Paced Graph Convolutional Network: Towards Reducing Attribute Distortions Induced by Topology

作者:Liang Yang, Zhiyang Chen, Junhua Gu and Yuanfang Guo;

摘要:基于圖卷積神經網絡(GCNNs)的半監督節點分類的成功,歸功于其拓撲上的特征平滑(傳播)。然而,利用拓撲信息可能會干擾特征。這種失真將導致節點的一定量的錯誤分類,這可以僅用特征正確地預測。通過分析邊緣在特征傳播中的影響,連接具有相似特征的兩個節點的簡單邊緣應該在訓練過程中優先于根據curriculum learning的復雜邊緣。為了在充分挖掘屬性信息潛力的同時減少拓撲結構引起的失真,我們提出了Dual Self-Paced圖卷積網絡(DSP-GCN)。具體來說,在節點級self-paced learning中,將具有可信預測標簽的無標簽節點逐步添加到訓練集中,而在邊緣級self-paced learning中,在訓練過程中,將邊緣從簡單的邊緣逐漸添加到復雜的邊緣到圖中。這兩種學習策略通過對邊緣和無標簽節點的選擇進行耦合,實現了相互增強。在多個實際網絡上進行了transductive半監督節點分類的實驗結果表明,我們提出的DSP-GCN在僅使用一個圖卷積層的情況下,成功地減少了拓撲引起的特征失真,同時具有較好的性能。

網址:

6、Masked Graph Convolutional Network

作者:Liang Yang, Fan Wu, Yingkui Wang, Junhua Gu and Yuanfang Guo;

摘要:半監督分類是機器學習領域中處理結構化和非結構化數據的一項基本技術。傳統的基于特征圖的半監督分類方法在通常由數據特征構造的圖上傳播標簽,而圖卷積神經網絡在真實圖拓撲上平滑節點屬性,即傳播特征。本文從傳播的角度對其進行了解釋,并將其分為基于對稱傳播和基于非對稱傳播的方法。從傳播的角度看,傳統的方法和基于網絡的方法都是在圖上傳播特定的對象。然而,與標簽傳播不同的是,直覺上“連接的數據樣本在特征方面趨于相似”,在特征傳播中僅部分有效。因此,提出了一種masked圖卷積網絡(Masked GCN),它只是根據一個masking indicator將一部分特征傳播給鄰居,這是通過聯合考慮局部鄰域中的特征分布和對對分類結果的影響而為每個節點學習的。在傳transductive和inductive節點分類任務上的大量實驗證明了該方法的優越性。

網址:

7、Learning Image-Specific Attributes by Hyperbolic Neighborhood Graph Propagation

作者:Xiaofeng Xu, Ivor W. Tsang, Xiaofeng Cao, Ruiheng Zhang and Chuancai Liu;

摘要:特征作為視覺目標描述的一種語義表示,在各種計算機視覺任務中得到了廣泛的應用。在現有的基于特征的研究中,通常采用類特定特征(class-specific attributes, CSA),這是類級別的標注,由于其對每個類的標注成本較低,而不是對每個單獨的圖像進行標注。然而,由于標注錯誤和單個圖像的多樣性,class-specific的特征通常是有噪聲的。因此,我們希望從原始的class-specific特征中獲得特定于圖像的特征(image-specific,ISA),即image level標注。在本文中,我們提出了通過基于圖的特征傳播來學習image-specific的特征。考慮到雙曲幾何的內在屬性,其距離呈指數擴展,構造雙曲線鄰域圖(HNG)來表征樣本之間的關系。基于HNG,我們定義了每個樣本的鄰域一致性,以識別不一致的樣本。然后,根據HNG中不一致的樣本的鄰居對其進行細化。在5個基準數據集上的大量實驗表明,在zero-shot目標分類任務中,學習的image-specific的特征明顯優于原始的class-specific的特征。

網址:

付費5元查看完整內容
北京阿比特科技有限公司