亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

神經網絡已經成功地完成了許多推理任務。從經驗上看,這些任務需要專門的網絡結構,例如,圖神經網絡(GNNs)在許多這樣的任務中表現良好,而較少結構的網絡會失敗。從理論上講,盡管網絡結構具有相同的表達能力,但人們對網絡結構為什么以及何時比其他網絡結構更能泛化的理解是有限的。本文通過研究網絡的計算結構與相關推理過程的算法結構之間的一致性,建立了一個描述網絡能很好學習哪些推理任務的框架。我們正式定義了這種算法對齊,并推導出一個隨更好的對齊而減小的樣本復雜度界。該框架為流行推理模型的經驗成功提供了一個解釋,并指出了它們的局限性。例如,我們通過一個強大的算法范例——動態規劃(DP),將看似不同的推理任務,如直覺物理、可視化問題回答和最短路徑統一起來。我們證明了gnn與DP是一致的,因此可以解決這些問題。在一些推理任務中,我們的理論得到了實證結果的支持。

付費5元查看完整內容

相關內容

人工神經網絡(Artificial Neural Network,即ANN ),是20世紀80 年代以來人工智能領域興起的研究熱點。它從信息處理角度對人腦神經元網絡進行抽象, 建立某種簡單模型,按不同的連接方式組成不同的網絡。在工程與學術界也常直接簡稱為神經網絡或類神經網絡。神經網絡是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成。每個節點代表一種特定的輸出函數,稱為激勵函數(activation function)。每兩個節點間的連接都代表一個對于通過該連接信號的加權值,稱之為權重,這相當于人工神經網絡的記憶。網絡的輸出則依網絡的連接方式,權重值和激勵函數的不同而不同。而網絡自身通常都是對自然界某種算法或者函數的逼近,也可能是對一種邏輯策略的表達。 最近十多年來,人工神經網絡的研究工作不斷深入,已經取得了很大的進展,其在模式識別、智能機器人、自動控制、預測估計、生物、醫學、經濟等領域已成功地解決了許多現代計算機難以解決的實際問題,表現出了良好的智能特性。

題目: Continuous Graph Neural Networks

摘要:

本文建立了圖神經網絡與傳統動力系統之間的聯系。我們提出了持續圖神經網絡(CGNN),它將現有的圖神經網絡與離散動力學進行了一般化,因為它們可以被視為一種特定的離散化方案。關鍵思想是如何表征節點表示的連續動力學,即關于時間的節點表示的導數。受現有的基于擴散的圖方法(如社交網絡上的PageRank和流行模型)的啟發,我們將導數定義為當前節點表示、鄰節點表示和節點初始值的組合。我們提出并分析了兩種可能的動態圖,包括節點表示的每個維度(又名特征通道)各自改變或相互作用的理論證明。所提出的連續圖神經網絡在過度平滑方面具有很強的魯棒性,因此允許我們構建更深層次的網絡,進而能夠捕獲節點之間的長期依賴關系。在節點分類任務上的實驗結果證明了我們提出的方法在和基線對比的有效性。

介紹

圖神經網絡(GNNs)由于其在節點分類等多種應用中的簡單性和有效性而受到越來越多的關注;、鏈接預測、化學性質預測、自然語言理解。GNN的基本思想是設計多個圖傳播層,通過聚合鄰近節點的節點表示和節點本身的表示,迭代地更新每個節點表示。在實踐中,對于大多數任務,幾層(兩層或三層)通常就足夠了,更多的層可能導致較差的性能。

改進GNNs的一個關鍵途徑是能夠建立更深層次的網絡,以了解數據和輸出標簽之間更復雜的關系。GCN傳播層平滑了節點表示,即圖中相鄰的節點變得更加相似。當我們堆疊越來越多的層時,這會導致過度平滑,這意味著節點表示收斂到相同的值,從而導致性能下降。因此,重要的是緩解節點過平滑效應,即節點表示收斂到相同的值。

此外,對于提高我們對GNN的理論理解,使我們能夠從圖結構中描述我們可以學到的信號,這是至關重要的。最近關于理解GCN的工作(Oono和Suzuki, 2020)認為GCN是由離散層定義的離散動力系統。此外,Chen等人(2018)證明了使用離散層并不是構建神經網絡的唯一視角。他們指出,帶有剩余連接的離散層可以看作是連續ODE的離散化。他們表明,這種方法具有更高的記憶效率,并且能夠更平滑地建模隱藏層的動態。

我們利用基于擴散方法的連續視角提出了一種新的傳播方案,我們使用來自常微分方程(即連續動力系統)的工具進行分析。事實上,我們能夠解釋我們的模型學習了什么表示,以及為什么它不會遭受在GNNs中常見的過度平滑問題。允許我們建立更深層次的網絡,也就是說我們的模型在時間價值上運行良好。恢復過平滑的關鍵因素是在連續設置中使用了最初在PageRank中提出的原始分布。直觀上,重新開始分布有助于不忘記鄰接矩陣的低冪次信息,從而使模型收斂到有意義的平穩分布。

本文的主要貢獻是:

  • 基于PageRank和擴散方法,提出了兩個連續遞增模型容量的ODEs;
  • 我們從理論上分析了我們的層學習的表示,并表明當t → ∞我們的方法接近一個穩定的不動點,它捕獲圖結構和原始的節點特征。因為我們在t→∞時是穩定的,我們的網絡可以有無限多個“層”,并且能夠學習遠程依賴關系;
  • 我們證明了我們的模型的記憶是高效的,并且對t的選擇是具有魯棒性的。除此之外,我們進一步證明了在節點分類任務上,我們的模型能夠比許多現有的最先進的方法表現更好。
付費5元查看完整內容

最近,人們對在非歐幾里得空間中表示數據的方法(例如雙曲或球面)越來越感興趣,這些方法提供了對某些真實世界數據屬性(例如無尺度、分層或循環)有用的特定歸納偏差。然而,流行的圖神經網絡目前僅限于通過歐幾里得幾何和相關的向量空間操作來建模數據。在這里,我們通過提出將圖卷積網絡(GCN)在數學基礎上推廣為常曲率空間的(乘積)來彌補這一差距。我們通過i)引入一種統一的形式,可以在所有常曲率幾何之間平滑地插入,ii)利用陀螺質心坐標,推廣了經典的歐幾里德質心概念。當曲率從任何一邊變為零時,我們這類模型平滑地恢復它們的歐幾里得對應模型。根據其離散曲率,我們在非歐幾里得行為的符號數據上的節點分類和失真最小化的任務表現優于歐幾里得GCNs。

//arxiv.org/abs/1911.05076

概述

圖卷積網絡 針對圖像數據的卷積網絡和深度學習的成功啟發了對于共享參數與圖形幾何形狀一致的圖推廣。Bruna等人(2014);Henaff等人(2015)是利用圖上的局部譜濾波器在圖傅里葉空間中開發頻譜圖卷積神經網絡的先驅。然而,為了減少對拉普拉斯特征模式的圖依賴,Defferrard等人(2016)利用Hammond等人(2011)的結果使用Chebyshev多項式近似卷積濾波器。所得到的方法(在附錄A中討論)在計算效率和精度和復雜性方面是優越的。此外,Kipf和Welling(2017)通過考慮一階近似來簡化這種方法,從而獲得高可伸縮性。提出的圖卷積網絡(GCN)是通過對稱歸一化鄰接矩陣來插值節點嵌入,而這種權值共享可以理解為一種有效的擴散式正則化器。最近的工作擴展了GCNs,實現了鏈接預測(Zhang & Chen, 2018)、圖分類(Hamilton等,2017;和節點分類(Klicpera et al., 2019;Velickoviˇc et al .′, 2018)。

ML中的歐幾里得幾何。在機器學習(ML)中,由于各種原因,數據通常在歐幾里得空間中表示。首先,有些數據本質上是歐幾里得的,比如經典力學中三維空間中的位置。其次,直覺在這樣的空間中更容易,因為它們擁有一個吸引人的矢量結構,允許基本的算術和豐富的線性代數理論。最后,許多感興趣的量,如距離和內積在封閉公式中是已知的,可以在現有的硬件上非常有效地計算。這些操作是當今大多數流行的機器學習模型的基本構建模塊。因此,歐幾里得幾何強大的簡單性和效率已經導致許多方法實現了最先進的任務,如機器翻譯(Bahdanau等,2015;wani et al., 2017),語音識別(Graves et al., 2013),圖像分類(He et al., 2016)或推薦系統(He et al., 2017)。

黎曼ML 盡管取得了成功,但某些類型的數據(例如分層數據、無標度數據或球形數據)被證明可以更好地用非歐幾里德幾何表示(Defferrard et al., 2019;Bronstein等,2017;Nickel & Kiela, 2017;Gu et al., 2019),尤其帶來了豐富的流形學習理論(Roweis & Saul, 2000;和信息幾何(Amari & Nagaoka, 2007)。在活力操縱非歐幾里得幾何的數學框架被稱為黎曼幾何(Spivak, 1979)。雖然它的理論導致了許多強而優雅的結果,但它的一些基本量,如距離函數d(·,·),通常不能以封閉的形式提供,這對許多計算方法都是禁止的。

常曲率幾何的代表性優勢。在一般黎曼流形和歐幾里得空間之間的一個有趣的權衡是由常截面曲率流形給出的。他們一起定義了所謂的雙曲(負曲率),橢圓(正曲率)和歐幾里得(零曲率)幾何。正如下面和附錄B中所討論的,歐幾里得空間在嵌入某些類型的數據(如樹)時具有局限性,并且會產生很大的失真。在這些情況下,雙曲空間和球面空間具有代表性的優勢,為各自的數據提供了更好的歸納偏差。

雙曲空間可以直觀地理解為一棵連續樹:球的體積隨半徑呈指數增長,類似于二叉樹的節點數隨深度呈指數增長(圖1)。它的樹狀性質已經被數學研究了很長時間(Gromov, 1987;哈曼,2017;與歐幾里得幾何結構相比,它被證明能夠更好地嵌入復雜網絡(Krioukov et al., 2010)、無標度圖和分層數據(Cho et al., 2019; Sala et al., 2018; Ganea et al., 2018b; Gu et al., 2019; Nickel & Kiela, 2018; 2017; Tifrea et al., 2019)。一些重要的工具或方法找到了它們的雙曲線對應物,例如變分自編碼器(Mathieu et al., 2019;、注意力機制(Gulcehre等,2018)、矩陣乘法、遞歸單位和多項logistic回歸(Ganea等,2018)。

常曲率空間中的GCNs。在這項工作中,我們引入了一個擴展的圖形卷積網絡,它允許學習存在于具有任何曲率符號的常曲率空間(乘積)中的表示。我們通過將導出的統一陀螺框架與GCNs的有效性相結合來實現這一點(Kipf & Welling, 2017)。與我們的工作同時,Chami等人(2019年);Liu等人(2019)考慮了通過切線空間聚合在雙曲空間中學習嵌入的圖神經網絡。他們的方法將在第3.4節中作更詳細的分析。我們的模型更一般化,因為它在一個包含雙曲空間的嚴格超集中產生表示。

付費5元查看完整內容

【導讀】深度學習革新了很多應用,但是背后的理論作用機制一直沒有得到統一的解釋。最近來自谷歌大腦和斯坦福的學者共同撰寫了深度學習統計力學的綜述論文《Statistical Mechanics of Deep Learning》,共30頁pdf,從物理學視角闡述了深度學習與各種物理和數學主題之間的聯系。

最近,深度神經網絡在機器學習領域取得了驚人的成功,這對它們成功背后的理論原理提出了深刻的疑問。例如,這樣的深度網絡可以計算什么?我們如何訓練他們?信息是如何通過它們傳播的?為什么他們可以泛化?我們如何教他們想象?我們回顧了最近的工作,其中物理分析方法植根于統計力學已經開始提供這些問題的概念上的見解。這些見解產生了深度學習與各種物理和數學主題之間的聯系,包括隨機景觀、旋轉玻璃、干擾、動態相變、混沌、黎曼幾何、隨機矩陣理論、自由概率和非平衡統計力學。事實上,統計力學和機器學習領域長期以來一直享有強耦合交互作用的豐富歷史,而統計力學和深度學習交叉領域的最新進展表明,這些交互作用只會進一步深化。

概述

具有多層隱含層(1)的深度神經網絡在許多領域都取得了顯著的成功,包括機器視覺(2)、語音識別(3)、自然語言處理(4)、強化學習(5),甚至在神經科學(6、7)、心理學(8、9)和教育(10)中對動物和人類自身的建模。然而,用于獲得成功的深度神經網絡的方法仍然是一門高度熟練的藝術,充滿了許多啟發,而不是一門精確的科學。這為理論科學提出了令人興奮的挑戰和機會,以創建一個成熟的深度神經網絡理論,該理論強大到足以指導在深度學習中廣泛的工程設計選擇。雖然我們目前離這樣成熟的理論還有很長的距離,但是最近在統計力學和深度學習交叉領域出現的一批研究已經開始為深度網絡的學習和計算提供理論上的見解,有時還會提出新的和改進的方法來推動這些理論的深入學習。

在這里,我們回顧了建立在統計力學和機器學習相互作用的悠久而豐富的歷史基礎上的這一工作體系(11-15)。有趣的是,正如我們下面所討論的,這些工作在統計力學和深度學習之間建立了許多新的橋梁。在本介紹的其余部分中,我們將為機器學習的兩個主要分支提供框架。第一個是監督學習,它涉及到從例子中學習輸入-輸出映射的過程。第二種是無監督學習,它涉及到學習和挖掘數據中隱藏的結構模式的過程。有了這兩個框架,我們將在1.3節中介紹本綜述中討論的幾個深度學習的基本理論問題,以及它們與與統計力學相關的各種主題的聯系。

付費5元查看完整內容

圖神經網絡是解決各種圖學習問題的有效的機器學習模型。盡管它們取得了經驗上的成功,但是GNNs的理論局限性最近已經被揭示出來。因此,人們提出了許多GNN模型來克服這些限制。在這次調查中,我們全面概述了GNNs的表達能力和可證明的強大的GNNs變體。

付費5元查看完整內容

題目: What Can Neural Networks Reason About?

摘 要:

神經網絡已經成功地完成了許多推理任務。從經驗上看,這些任務需要專門的網絡結構,例如,圖神經網絡(GNNs)在許多這樣的任務中表現良好,但較少結構的網絡會失敗。從理論上講,盡管網絡結構具有相同的表達能力,但人們對網絡結構為什么以及何時比其他網絡結構更能泛化的理解是有限的。本文通過研究網絡的計算結構與相關推理過程的算法結構之間的一致性,建立了一個描述網絡能很好學習哪些推理任務的框架。我們正式定義了這種算法對齊,并推導出一個隨更好的對齊而減小的樣本復雜度界。該框架為流行推理模型的經驗成功提供了一個解釋,并指出了它們的局限性。例如,我們通過一個強大的算法范例——動態規劃(DP)的鏡頭,將看似不同的推理任務,如直覺物理、可視化問題回答和最短路徑統一起來。我們證明了GNN與DP是一致的,因此可以解決這些問題。在一些推理任務中,我們的理論得到了實證結果的支持。

付費5元查看完整內容

題目: How Powerful are Graph Neural Networks?

摘要: 圖神經網絡(GNNs)是一種有效的圖表示學習框架。GNNs遵循鄰域聚合方案,通過遞歸地聚合和轉換鄰域節點的表示向量來計算節點的表示向量。許多GNN變體已經被提出,并且在節點和圖分類任務上都取得了最新的結果。然而,盡管GNNs給圖形表示學習帶來了革命性的變化,但是對于它們的表示性質和局限性的理解還是有限的。在這里,我們提出了一個理論框架來分析GNNs捕捉不同圖形結構的表現力。我們的結果描述了流行的GNN變體,如圖卷積網絡和圖年齡的辨別能力,并且表明它們不能學習辨別某些簡單的圖結構。然后,我們開發了一個簡單的體系結構,它可以證明是GNNs類中最具表現力的,并且與Weisfeiler-Lehman圖同構測試一樣強大。我們在一些圖形分類基準上實證驗證了我們的理論發現,并證明我們的模型達到了最先進的性能。

作者簡介: Keyulu Xu,麻省理工學院EECS系的研究生,也是CSAIL和機器學習小組的成員。他的興趣是智力和推理理論。

WeiHua Hu,哈爾濱工業大學(深圳)助理教授。

付費5元查看完整內容

論文摘要:

教機器理解人類語言文檔是人工智能中最難以捉摸和長期存在的挑戰之一。本文探討了閱讀理解的問題:如何構建計算機系統來閱讀文章和回答理解問題。一方面,我們認為閱讀理解是評價計算機系統對人類語言理解程度的一項重要任務。另一方面,如果我們能夠構建高性能的閱讀理解系統,那么它將成為問答和對話系統等應用的關鍵技術。本文以神經閱讀理解為研究對象:一種基于深度神經網絡的閱讀理解模型。與傳統的稀疏的、手工設計的基于特征的模型相比,這些端到端神經模型在學習豐富的語言現象方面更加有效,并且在所有現代閱讀理解基準上的表現都有很大的提高。本文由兩部分組成。第一部分是對神經閱讀理解的本質進行概括,介紹我們在構建有效的神經閱讀理解模型方面所做的努力,更重要的是了解神經閱讀理解模型實際學到了什么,以及解決當前任務需要什么樣的語言理解深度。我們還總結了該領域的最新進展,討論了該領域的未來發展方向和有待解決的問題。在本文的第二部分,我們探討了如何在最近神經閱讀理解成功的基礎上建立實際應用。特別是,我們開創了兩個新的研究方向:1)如何將信息檢索技術與神經閱讀理解相結合,解決大規模開放領域的問題;(2)如何從當前的單圈、跨步閱讀理解模式中構建會話問答系統。我們在DrQA和CoQA項目中實現了這些想法,并證明了這些方法的有效性。我們相信他們對推動未來的語言技術有很大幫助。

付費5元查看完整內容
北京阿比特科技有限公司