亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

近年來,為了提高學習任務在圖數據集上的性能,人們提出了各種圖對比學習模型。雖然有效且普遍,但這些模型通常是經過仔細定制的。特別是,盡管所有最近的研究都創建了兩種對比的視角,但它們在視圖增強、架構和目標方面存在很大差異。如何針對特定的圖學習任務和數據集從零開始建立你的圖對比學習模型仍然是一個開放的問題。本文旨在通過研究對比學習過程中圖信息的轉換和轉移,提出一種信息感知的圖對比學習框架InfoGCL,以填補這一空白。這個框架的關鍵是遵循信息瓶頸原則減少相互之間的信息對比部分,同時保持任務相關信息完整的單個模塊的水平和整個框架,信息損失在圖表示學習可以最小化。我們首次表明,所有最近的圖對比學習方法可以統一在我們的框架。我們在節點和圖分類基準數據集上驗證了我們的理論分析,并證明我們的算法明顯優于目前的水平。

//arxiv.org/abs/2110.15438

付費5元查看完整內容

相關內容

類不平衡問題作為學習節點表示的一個重要問題,越來越受到社會的關注。盡管現有研究中所考慮的不平衡源于不同類別中標記示例的數量不等(數量不平衡),但我們認為,圖數據暴露了不平衡的唯一來源,即標記節點的不對稱拓撲屬性,即:標記節點在圖中的結構角色不平等(拓撲不平衡)。在本工作中,我們首先探討了之前未知的拓撲不平衡問題,包括其特征、原因和對半監督節點分類學習的威脅。然后通過標簽傳播算法考慮節點影響轉移現象,提供了一個統一的視角來共同分析數量不平衡和拓撲不平衡問題。根據我們的分析,我們設計了一種基于影響沖突檢測——基于度量的Totoro來測量圖拓撲不平衡的程度,并提出了一種模型無關的ReNode方法來解決拓撲不平衡問題,方法是根據標記節點相對于類邊界的相對位置對其影響進行自適應加權。系統實驗證明了該方法在緩解拓撲不平衡問題和促進半監督節點分類方面的有效性和可泛化性。進一步的分析揭示了不同的圖神經網絡對拓撲不平衡的敏感性不同,為評價圖神經網絡體系結構提供了新的視角。

//www.zhuanzhi.ai/paper/e4392c7e18418db5eab9b0f759470985

付費5元查看完整內容

本文研究了無監督圖表示學習,這在許多任務中至關重要,如藥物和材料中分子特性預測。現有方法主要側重于保留不同圖實例之間的局部相似性,但是沒有考慮整個數據集的全局語義結構。在本文中,作者提出了一個統一的框架,GraphLoG,用于自監督的全圖表示學習。

具體來說,除了局部相似性之外,GraphLoG 還引入了層次原型來捕獲全局語義。進一步提出了一種有效的在線期望最大化 (EM) 算法來學習模型。本文評估的方法是通過在未標記圖預訓練,然后對下游任務進行微調來進行。對化學和生物基準數據集的大量實驗證明了所提出方法的有效性。

付費5元查看完整內容

圖結構數據的自監督學習最近引起了從無標記圖學習可泛化、可遷移移和魯棒表示的興趣。其中,圖對比學習(GraphCL)以良好的表征學習性能出現。不幸的是,與圖像數據不同的是,GraphCL的有效性依賴于特定的數據擴展,由于圖數據的多樣性,必須根據經驗或反復試驗的規則手動選擇每個數據集。這極大地限制了GraphCL更普遍的適用性。為了填補這一關鍵空白,本文提出了一個統一的雙層優化框架,在對特定圖形數據執行GraphCL時自動、自適應、動態地選擇數據增強。聯合增強優化(JOint Augmentation Optimization, JOAO)的通用框架被實例化為最小最大化優化。JOAO所做的增強的選擇通常與從手工調優中觀察到的以前的“最佳實踐”一致:但現在已經自動化,更加靈活和通用。此外,我們提出了一種新的增強感知投影頭機制,在每個訓練步驟中,通過選擇不同的投影頭對應不同的增強來路由輸出特征。大量實驗表明,JOAO在不同規模和類型的多個圖數據集上的性能與最先進的競爭對手(包括GraphCL)相當,有時甚至更好,而無需對增強選擇進行任何費力的數據集特定調優。我們在//github.com/ Shen-Lab/GraphCL_Automated發布了代碼。

付費5元查看完整內容

圖神經網絡(GNN)已經成為圖表示學習的事實標準,它通過遞歸地聚集圖鄰域的信息來獲得有效的節點表示。盡管 GNN 可以從頭開始訓練,但近來一些研究表明:對 GNN 進行預訓練以學習可用于下游任務的可遷移知識能夠提升 SOTA 性能。但是,傳統的 GNN 預訓練方法遵循以下兩個步驟:

在大量未標注數據上進行預訓練; 在下游標注數據上進行模型微調。 由于這兩個步驟的優化目標不同,因此二者存在很大的差距。

在本文中,我們分析了預訓練和微調之間的差異,并為了緩解這種分歧,我們提出了一種用于GNNs的自監督預訓練策略L2P-GNN。方法的關鍵是L2P-GNN試圖以可轉移的先驗知識的形式學習如何在預訓練過程中進行微調。為了將局部信息和全局信息都編碼到先驗信息中,我們在節點級和圖級設計了一種雙重自適應機制。最后,我們對不同GNN模型的預訓練進行了系統的實證研究,使用了一個蛋白質數據集和一個文獻引用數據集進行了預訓練。實驗結果表明,L2P-GNN能夠學習有效且可轉移的先驗知識,為后續任務提供好的表示信息。我們在//github.com/rootlu/L2P-GNN公開了模型代碼,同時開源了一個大規模圖數據集,可用于GNN預訓練或圖分類等。

總體來說,本文的貢獻如下:

  • 首次探索學習預訓練 GNNs,緩解了預訓練與微調目標之間的差異,并為預訓練 GNN 提供了新的研究思路。
  • 針對節點與圖級表示,該研究提出完全自監督的 GNN 預訓練策略。
  • 針對預訓練 GNN,該研究建立了一個新型大規模書目圖數據,并且在兩個不同領域的數據集上進行了大量實驗。實驗表明,該研究提出的方法顯著優于 SOTA 方法。

付費5元查看完整內容

弱監督目標檢測(WSOD)已經成為一種僅使用圖像級別的類別標簽訓練目標檢測器的有效工具。然而,由于沒有目標級標簽,WSOD檢測器容易檢測出顯著物體、聚雜物體和判別性物體部分上的標注框。此外,圖像級別的類別標簽不會強制對同一圖像的不同變換進行一致的目標檢測。針對上述問題,我們提出了一種針對WSOD的綜合注意力自蒸餾(CASD)訓練方法。為了平衡各目標實例之間的特征學習,CASD計算同一圖像的多個變換和特征層聚合的綜合注意力。為了加強對目標的一致空間監督,CASD對WSOD網絡進行自蒸餾,通過對同一幅圖像的多個變換和特征層同時逼近全面注意力。CASD在標準數據集上如PASCAL VOC 2007/2012和MS-COCO產生了最好的結果。

//www.ri.cmu.edu/publications/comprehensive-attention-self-distillation-for-weakly-supervised-object-detection/

付費5元查看完整內容

Code://github.com/Shen-Lab/GraphCL Paper:

對于當前的圖神經網絡(GNNs)來說,圖結構數據的可泛化、可遷移和魯棒表示學習仍然是一個挑戰。與為圖像數據而開發的卷積神經網絡(CNNs)不同,自監督學習和預訓練很少用于GNNs。在這篇文章中,我們提出了一個圖對比學習(GraphCL)框架來學習圖數據的無監督表示。我們首先設計了四種類型的圖擴充來包含不同的先驗。然后,我們在四種不同的環境下系統地研究了圖擴充的各種組合對多個數據集的影響:半監督、無監督、遷移學習和對抗性攻擊。結果表明,與最先進的方法相比,即使不調優擴展范圍,也不使用復雜的GNN架構,我們的GraphCL框架也可以生成類似或更好的可泛化性、可遷移性和健壯性的圖表示。我們還研究了參數化圖增強的范圍和模式的影響,并在初步實驗中觀察了性能的進一步提高。

付費5元查看完整內容

在本文中,我們提出了一種端到端的圖學習框架,即迭代深度圖學習(IDGL),用于共同迭代地學習圖結構和圖嵌入。IDGL的關鍵原理是學習基于更好的節點嵌入的更好的圖結構,反之亦然(即基于更好的圖結構的更好的節點嵌入)。我們的迭代方法動態停止時,學習圖接近足夠優化的圖預測任務。此外,我們將圖學習問題轉換為一個相似度量學習問題,并利用自適應圖正則化來控制學習圖的質量。最后,結合基于錨點的近似技術,我們進一步提出了一個可擴展的IDGL版本,即IDGL- anch,在不影響性能的前提下,顯著降低了IDGL的時間和空間復雜度。我們在9個基準上進行的廣泛實驗表明,我們提出的IDGL模型始終能夠優于或匹配最先進的基線。此外,IDGL還能更魯棒地處理對抗圖,并能同時處理傳導學習和歸納學習。

//arxiv.org/abs/2006.13009

付費5元查看完整內容

圖神經網絡(GNNs)已被證明是有效的模型,用于對圖結構數據的不同預測任務。最近關于它們表達能力的工作集中在同構任務和可數特征空間。我們對這個理論框架進行了擴展,使其包含連續的特性——在真實世界的輸入域和gnn的隱藏層中定期出現——并演示了在此上下文中對多個聚合函數的需求。為此,我們提出了一種新的聚合器結構——主鄰域聚合(PNA),它將多個聚合器與度標器相結合,從而推廣了總和聚合器。最后,我們通過一個新的基準來比較不同模型捕獲和利用圖結構的能力,該基準包含了來自經典圖理論的多個任務,以及來自現實領域的現有基準,所有這些都證明了我們模型的強大。通過這項工作,我們希望引導一些GNN研究轉向新的聚合方法,我們認為這對于尋找強大和健壯的模型至關重要。

//www.zhuanzhi.ai/paper/bee47b0e291d163fae01c

付費5元查看完整內容

小樣本分類的目的是在只有少量樣本的情況下識別不可見的類。我們考慮了多域小樣本圖像分類的問題,其中不可見的類和樣例來自不同的數據源。人們對這個問題越來越感興趣,并激發了元數據集等基準的開發。在這種多領域設置的一個關鍵挑戰是有效地整合來自不同訓練領域集的特征表示。在這里,我們提出了一個通用表示轉換器(URT)層,該元學會通過動態地重新加權和組合最合適的特定于領域的表示來利用通用特性進行小樣本分類。在實驗中,我們表明,URT在元數據集上設置了一個新的最先進的結果。具體來說,它在三個數據源上的性能超過了之前最好的模型,或者在其他數據源上也有相同的性能。我們分析了城市軌道交通的各種變體,并給出了一個可視化的注意力分數熱圖,以闡明該模型是如何執行跨領域泛化的。我們的代碼可以在//github.com/liulu112601/URT獲得

付費5元查看完整內容
北京阿比特科技有限公司