亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

雖然許多現有的圖神經網絡(gnn)已被證明可以執行基于?2的圖平滑,從而增強全局平滑,但在本工作中,我們旨在通過基于?1的圖平滑進一步增強GNN的局部平滑自適應。在此基礎上,提出了一種基于?1和?2圖平滑的彈性GNN。特別地,我們提出了一種新的、通用的消息傳遞方案。該消息傳遞算法不僅有利于反向傳播訓練,而且在保證理論收斂的前提下達到了預期的平滑特性。在半監督學習任務上的實驗表明,所提出的彈性GNN在基準數據集上具有較好的自適應能力,對圖對抗攻擊具有顯著的魯棒性。

//www.zhuanzhi.ai/paper/09bea7a76036948cbbba30e86af56ef8

付費5元查看完整內容

相關內容

最近解開深度學習中的隱式正則化之謎的努力促使了對矩陣分解的理論關注——通過線性神經網絡的矩陣完成。作為對實際深度學習的進一步研究,我們首次對張量因子分解中的隱正則化進行了理論分析——通過某種非線性神經網絡的張量補全。我們采用動力學系統的觀點,規避了張量問題的困難,刻畫了梯度下降引起的演化。給出了貪心低張量秩搜索的一種形式,在一定條件下給出了嚴格的證明,并在其他條件下給出了經驗證明。基于張量秩捕獲非線性神經網絡隱含正則化的動機,我們將其作為復雜性的度量方法進行了實證研究,并發現它捕獲了神經網絡所泛化的數據集的本質。這使我們相信張量秩可以為解釋深度學習中的隱正則化以及將這種隱正則化轉換為泛化的真實數據的特性鋪平道路。

付費5元查看完整內容

最近最優傳輸(OT)理論在機器學習中的幾個應用都依賴于正則化,尤其是熵和Sinkhorn算法。由于矩陣向量乘積在Sinkhorn算法中是普遍存在的,一些工作已經提出使用低秩因子來近似其迭代中出現的核矩陣。另一種方法是在OT問題中考慮的可行耦合集上施加低非負秩約束,不需要對代價或核矩陣進行逼近。這條路線首先由forrow2018探索,他提出了一種為平方歐氏地面成本量身定制的算法,使用了一個代理目標,可以通過正則化的Wasserstein重心機制來解決。在此基礎上,我們引入了一種通用方法,旨在完全通用性地解決具有任意代價的低非負秩約束下的OT問題。我們的算法依賴于低秩耦合的顯式分解,將其作為由公共邊際連接的子耦合因子的乘積; 與NMF方法類似,我們交替更新這些因素。證明了該算法的非漸近平穩收斂性,并通過基準實驗證明了該算法的有效性。

//www.zhuanzhi.ai/paper/9f498d13bd99855dfac185ee9d905999

付費5元查看完整內容

本文研究了無監督圖表示學習,這在許多任務中至關重要,如藥物和材料中分子特性預測。現有方法主要側重于保留不同圖實例之間的局部相似性,但是沒有考慮整個數據集的全局語義結構。在本文中,作者提出了一個統一的框架,GraphLoG,用于自監督的全圖表示學習。

具體來說,除了局部相似性之外,GraphLoG 還引入了層次原型來捕獲全局語義。進一步提出了一種有效的在線期望最大化 (EM) 算法來學習模型。本文評估的方法是通過在未標記圖預訓練,然后對下游任務進行微調來進行。對化學和生物基準數據集的大量實驗證明了所提出方法的有效性。

付費5元查看完整內容

圖神經網絡(GNNs)被廣泛用于學習一種強大的圖結構數據表示。最近的研究表明,將知識從自監督任務遷移到下游任務可以進一步改善圖的表示。然而,自監督任務與下游任務在優化目標和訓練數據上存在內在的差距。傳統的預訓練方法可能對知識遷移不夠有效,因為它們不能適應下游任務。為了解決這一問題,我們提出了一種新的遷移學習范式,該范式可以有效地將自監督任務作為輔助任務來幫助目標任務。在微調階段,我們的方法將不同的輔助任務與目標任務進行自適應的選擇和組合。我們設計了一個自適應輔助損失加權模型,通過量化輔助任務與目標任務之間的一致性來學習輔助任務的權重。此外,我們通過元學習來學習權重模型。我們的方法可以運用于各種遷移學習方法,它不僅在多任務學習中有很好的表現,而且在預訓練和微調中也有很好的表現。在多個下游任務上的綜合實驗表明,所提出的方法能夠有效地將輔助任務與目標任務相結合,與現有的方法相比,顯著提高了性能。

//www.zhuanzhi.ai/paper/852db932624d6feeb7bbd32e67772b27

付費5元查看完整內容

圖表示學習算法的歸納偏差通常被編碼在其嵌入空間的背景幾何中。在本文中,我們證明了一般有向圖可以有效地用一個包含三個成分的嵌入模型來表示: 一個偽黎曼度量結構,一個非平凡的全局拓撲,以及一個明確包含嵌入空間中首選方向的唯一似然函數。我們將該方法應用于自然語言應用和生物學中一系列合成的和真實的有向圖的鏈接預測任務,從而證明了該方法的表征能力。特別地,我們證明了低維柱面閔可夫斯基和反Sitter時空可以產生與高維彎曲黎曼流形相同或更好的圖表示。

//www.zhuanzhi.ai/paper/3582fcbd7b41d17b32f87c148733df66

付費5元查看完整內容

深度圖神經網絡(GNN)在具有數百萬節點和邊的日益龐大的圖數據集上的各種任務中取得了良好的效果。然而,由于節點、邊和中間激活的數量巨大,記憶的復雜性已經成為訓練深度GNN用于實際應用的主要障礙。為了提高GNN的可擴展性,之前的工作提出了智能圖采樣或劃分策略,用更小的節點或子圖集訓練GNN。在這項工作中,我們研究可逆連接,群卷積,權重捆綁和平衡模型,以提高記憶和參數效率的GNN。我們發現,可逆連接結合深度網絡體系結構可以訓練過參數化GNN,在多個數據集上顯著優于現有方法。我們的模型RevGNN-Deep(1001層,每層80個通道)和RevGNN-Wide(448層,每層224個通道)都在單一的普通GPU上進行訓練,在ogbn-蛋白質數據集上獲得了87.74±0.13和88.14±0.15的ROC-AUC。據我們所知,RevGNN-Deep是文獻中最深的一個數量級的GNN。

//www.zhuanzhi.ai/paper/3673b63b3020fa9a26d4aab38cbb0806

付費5元查看完整內容

論文題目:Graph Neural Networks Inspired by Classical Iterative Algorithms

作者:Yongyi Yang,Tang Liu,Yangkun Wang,Jinjing Zhou,Quan Gan,魏哲巍,Zheng Zhang,Zengfeng Huang,David Wipf

論文概述:圖神經網絡(GNN)作為建模實體間關系的代表性方法,已被成功應用于多個領域。然而現有方法仍存在一些局限性,例如過平滑問題、長距離依賴性問題等。本篇論文基于兩種經典迭代算法提出了首個unfolding視角的GNN集成框架TWIRLS,首先通過模仿近似梯度下降設計了一個可擴展的基礎GNN架構,能夠允許任意的傳播步驟以捕捉長距離依賴關系同時有效避免過平滑問題。在此基礎上,結合迭代加權最小二乘法的更新規則提出了新的注意力機制系列,無需引入額外參數或設計啟發式方法而對邊的不確定性表現魯棒。同時,本篇論文進行了大量實驗旨在評估不同情況下算法的性能,實驗結果表明,即使與特定任務SOTA模型相比,本篇論文所提算法均取得具有競爭力或更高的節點分類精度。

//www.zhuanzhi.ai/paper/49b1ba16194db9f330657396a37982dd

付費5元查看完整內容

圖神經網絡(GNN)中缺乏各向異性核極大地限制了其表達能力,導致了一些眾所周知的問題,如過度平滑。為了克服這個限制,我們提出了第一個全局一致的各向異性核GNN,允許根據拓撲導出的方向流定義圖卷積。首先,通過在圖中定義矢量場,我們提出了一種方法應用方向導數和平滑投影節點特定的信息到場。然后,我們提出用拉普拉斯特征向量作為這種向量場。在Weisfeiler-Lehman 1-WL檢驗方面,我們證明了該方法可以在n維網格上泛化CNN,并證明比標準的GNN更有分辨力。我們在不同的標準基準上評估了我們的方法,發現在CIFAR10圖數據集上相對誤差減少了8%,在分子鋅數據集上相對誤差減少了11%到32%,在MolPCBA數據集上相對精度提高了1.6%。這項工作的重要成果是,它使圖網能夠以一種無監督的方式嵌入方向,從而能夠更好地表示不同物理或生物問題中的各向異性特征。

//www.zhuanzhi.ai/paper/f415f74f0c50433285945af702223eaf

付費5元查看完整內容

多種圖神經網絡(GNN)在圖結構數據的廣泛應用。本文作者提出了一個理論框架實現比較這些 GNN 架構的表達能力。首次證明了GNN 的函數逼近保證,為更好地理解其泛化能力鋪平了道路。論文的理論結果針對兩類 GNN 框架:一類是不變圖神經網絡(invariant GNNs),用于計算圖級別嵌入,輸入圖的節點的排列變化不影響輸出結果;另一類是同變圖神經網絡(equivariant GNNs),用來計算節點嵌入,輸入的排列變化會影響輸出;論文表明FGNN 是迄今為止對給定階數張量提出的表達能力最強的架構。實驗在二次分配問題上驗證了效果,達到比現有算法更好的平均性能。

付費5元查看完整內容

我們知道,目前的圖神經網絡(GNNs)由于被稱為過度平滑的問題,很難變深。多尺度GNN是一種很有前途的方法,以減輕過度平滑問題。然而,很少有人從學習理論的角度解釋為什么它在經驗上有效。在本研究中,我們推導了包括多尺度GNN的轉導學習算法的優化和泛化保證。利用boosting理論,證明了訓練誤差在弱學習類型條件下的收斂性。通過將其與泛化間隙邊界在轉導距離復雜度上的結合,我們證明了在此條件下,某一特定類型的多尺度GNN的測試誤差邊界隨深度的減小而相應減小。我們的結果為多尺度結構對抗過平滑問題的有效性提供了理論解釋。我們將boosting算法應用于訓練多尺度的GNN來完成真實的節點預測任務。我們證實其性能與現有的GNNs相當,實際行為與理論觀測一致。代碼可在//github.com/delta2323/GB-GNN下載。

付費5元查看完整內容
北京阿比特科技有限公司