【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。這周會議已經虛擬召開。圖深度學習研討會(DL4G)展示結構化數據的嵌入和表示學習以及圖深度學習的最新進展。來自DeepMind的研究科學家Petar Veli?kovi?給了關于《圖表示學習算法推理》的報告,共46頁ppt,詳述了神經圖算法推理的前沿研究進展,涵蓋GNN基準、泛化、多任務學習和算法發現。
圖表示學習算法推理是個新的和令人興奮的方向,尋求理解和使用GNNs的表達能力建模經典算法。其潛在的影響是巨大的: 為元學習和搜索等任務提供可擴展的解決方案,幫助理論計算機科學中的新發現,以及嚴格地對GNNs進行基準測試。
Petar Veli?kovi? 是DeepMind研究科學家。他擁有劍橋大學博士學位。他目前的研究興趣廣泛地涉及設計操作復雜結構數據(如圖)的神經網絡架構,以及它們在算法推理和計算生物學中的應用。他在機器學習領域(ICLR、NeurIPS-W、ICML-W)和生物醫學領域和期刊(生物信息學、PLOS One、JCB、PervasiveHealth)發表了他的研究成果。特別是,他是Graph Attention Networks(一種流行的圖卷積層)和Deep Graph Infomax(一種用于圖形的可伸縮的本地/全局無監督學習管道)的第一作者。他的研究已經在ZDNet等媒體上發表。此外,他還在ICLR 2019年和NeurIPS 2019年聯合組織了關于圖形表示學習的研討會。
【導讀】DeepMind開設了一系列深度學習課程。本次課講述了深度學習自然語言處理。
這個報告由DeepMind研究科學家菲利克斯·希爾(Felix Hill)主持,分為三個部分。首先,他討論了用ANN建模語言的動機:語言是高度上下文相關的,典型的非組合性的,依賴于協調許多競爭的信息來源。本節還涵蓋了Elman的發現結構在時間和簡單遞歸網絡,上下文和transformers的重要性。在第二部分,他探索了從Word2Vec到BERT的語言的無監督和表征學習。最后,Felix討論了情景語言理解,基礎和具體化語言學習。。
深度學習自然語言處理
在過去幾年里,注意力和記憶已經成為深度學習的兩個重要的新組成部分。本講座由DeepMind研究科學家Alex Graves講授現在廣泛使用的注意力機制,包括任何深度網絡中的內隱注意力,以及離散和可區分的變體的顯性注意力。然后討論了具有外部記憶的網絡,并解釋了注意力是如何為他們提供選擇性回憶的。它簡要地回顧了Transformer,一種特別成功的注意力網絡類型,最后看可變計算時間,這可以被視為一種形式的“注意力集中”。
地址:
Alex Graves在愛丁堡大學(University of Edinburgh)完成了理論物理學的理學學士學位,在劍橋大學(University of Cambridge)完成了數學的第三部分,在IDSIA與尤爾根·施米德胡貝爾(Jurgen Schmidhuber)一起完成了人工智能博士學位,之后在慕尼黑工業大學(technology University of Munich)和杰夫·辛頓(Geoff Hinton)一起完成了博士后學位。他現在是DeepMind的一名研究科學家。他的貢獻包括用于序列標簽的連接主義時態分類算法,隨機梯度變分推理,神經圖靈機/可微分神經計算機架構,以及用于強化學習的A2C算法。
關于講座系列:
深度學習講座系列是DeepMind與UCL人工智能中心之間的合作。在過去的十年中,深度學習已發展成為領先的人工智能范例,使我們能夠以前所未有的準確性和規模從原始數據中學習復雜的功能。深度學習已應用于對象識別,語音識別,語音合成,預測,科學計算,控制等問題。由此產生的應用程序觸及我們在醫療保健和醫學研究,人機交互,通信,運輸,保護,制造以及人類努力的許多其他領域中的所有生活。認識到這一巨大影響,深度學習的先驅獲得了2019年圖靈獎,這是計算機領域的最高榮譽。
在本系列講座中,來自領先的AI研究實驗室DeepMind的研究科學家針對深度學習中的一系列令人興奮的主題進行了12次講座,內容涵蓋了通過圍繞記憶,注意力和生成建模的先進思想來訓練神經網絡的基礎知識,以及重要的 負責任的創新主題。
深度學習注意力與記憶機制
自2006年以來,神經網絡是引發深度學習革命的模型,但它們的基礎可以追溯到20世紀60年代。在這堂課中,DeepMind研究科學家Wojciech Czarnecki將介紹這些模型如何操作、學習和解決問題的基礎知識。他還介紹了各種術語/命名慣例,為與會者進一步、更高級的會談做準備。最后,他簡要介紹了神經網絡設計和開發的更多研究方向。
【導讀】圖神經網絡依然是當下的研究熱點之一。DeepMind研究科學家Petar Veli?kovi?在Twitter上開放了自己的劍橋大學博士論文《深度神經網絡結構的》,共有147頁pdf,里面涵蓋了出名的圖神經網絡GAT和Deep Graph Infomax的經典工作。
Petar Veli?kovi?,DeepMind研究科學家。在Pietro Lio的指導下獲得了劍橋大學的計算機科學博士學位。我的研究興趣包括設計操作非平凡結構數據(如圖)的神經網絡架構,以及它們在算法推理和計算生物學中的應用。特別地,我是Graph Attention Network(圖注意力網絡)的第一作者和Deep Graph Infomax的第一作者。我的研究已經在ZDNet等媒體上發表。
深層神經網絡結構的復興
摘要:
使用深度神經網絡的機器學習(“深度學習”)允許直接從原始輸入數據學習復雜特征,完全消除了學習流程中手工“硬編碼”的特征提取。這促使了計算機視覺,自然語言處理,強化學習和生成模型的相關任務性能的提升。這些成功案例幾乎都是與大量帶有標記的訓練樣本(“大數據”)密切相關的,這些示例展示了簡單的網格狀結構(例如文本或圖像),可通過卷積或循環層加以利用。這是因為神經網絡的自由度非常大,使得它們的泛化能力容易受到過度擬合等影響。然而,在許多領域,廣泛的數據收集并不總是合適的,負擔得起的,甚至是可行的。此外,數據通常以更復雜的結構組織起來——大多數現有的方法都會簡單地拋棄這種結構。這類任務的例子在生物醫學領域非常豐富。我假設,如果深度學習要在這樣的環境中充分發揮其潛力,我們需要重新考慮“硬編碼”方法——通過結構性歸納偏差,將輸入數據中的固有結構假設直接整合到我們的架構和學習算法中。在本文中,我通過開發三個注入結構的神經網絡架構(操作稀疏多模態和圖結構的數據)和一個基于結構的圖神經網絡學習算法直接驗證了這一假設,證明了超越傳統基線模型和算法的性能提升。
地址:
論文結構:
本文主要貢獻的概述。首先,提出了兩種具有特殊結構誘導偏差的多模態學習早期融合模型;一個用于網格結構輸入模式(X‐CNN[176]),另一個用于順序輸入模式(X‐LSTM[177])。接下來,圖卷積層的理想結構偏差在圖注意力網絡(GAT[174])模型中得到了應用,并且第一次同時得到了滿意的結果。最后,通過Deep Graph Infomax (DGI[175])算法成功地引入了局部互信息最大化,將其作為一個無監督學習目標用于圖的結構輸入,允許在學習節點表示時結合圖卷積編碼器引入非常強大的結構誘導偏差。
【導讀】WWW2020的DL4G論壇,William L. Hamilton做了關于元學習與圖上邏輯規則推導的報告,55頁ppt。
【導讀】圖神經網絡依然是研究焦點之一。最近在WWW2020的DL4G@WWW2020論壇,斯坦福大學Jure Leskovec副教授介紹了圖神經網絡研究最新進展,包括GNN表現力、預訓練和公開圖神經網絡基準等。值得關注。
近年來,深度學習領域關于圖神經網絡(Graph Neural Networks,GNN)的研究熱情日益高漲,圖網絡已經成為各大深度學習頂會的研究熱點。GNN 處理非結構化數據時的出色能力使其在網絡數據分析、推薦系統、物理建模、自然語言處理和圖上的組合優化問題方面都取得了新的突破。但是,大部分的圖網絡框架的建立都是基于研究者的先驗或啟發性知識,缺少清晰的理論支撐。
Jure Leskovec
圖網絡領域的大牛Jure Leskovec,是斯坦福大學計算機學院的副教授,也是圖表示學習方法 node2vec 和 GraphSAGE 作者之一。在谷歌學術搜索(Google Scholar)上,Jure擁有接近4.5萬的論文引用數量,H指數為84。
下載鏈接: 鏈接: 提取碼: mtth
【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。由于疫情影響,這次會議在線上舉行,本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。小編推薦一份圖深度學習-圖神經網絡教程,預覽版可以查看。
從圖數據和關系數據中學習在許多應用中起著重要的作用,包括社交網絡分析、市場營銷、電子商務、信息檢索、知識建模、醫學和生物科學、工程等。在過去的幾年里,圖神經網絡(GNNs)已經成為一種很有前途的新型監督學習框架,能夠將深度表示學習的能力引入到圖和關系數據中。越來越多的研究表明,GNNs在鏈路預測、欺詐檢測、目標配體結合活性預測、知識圖譜補全和產品推薦等方面的性能達到了最新水平。
本教程的目標有兩個。首先,它將概述GNN背后的理論,討論GNN非常適合的問題類型,并介紹一些最廣泛使用的GNN模型體系結構和設計用來解決的問題/應用程序。其次,它將引入深度圖庫(Deep Graph Library, DGL),這是一種新的軟件框架,簡化了高效的基于GNN的訓練和推理程序的開發。為了使事情更具體,本教程將提供使用DGL的實踐會話。這個實踐部分將涵蓋基本的圖形應用程序(例如,節點分類和鏈接預測),以及更高級的主題,包括在大型圖和分布式設置中訓練GNN。此外,它還將提供使用GNNs和DGL進行實際應用(如推薦和欺詐檢測)的實踐教程。
第1節:圖神經網絡概述。本節描述了圖神經網絡是如何運作的,它們的基本理論,以及它們相對于其他圖學習方法的優勢。此外,它還描述了圖形上的各種學習問題,并展示了如何使用GNNs來解決這些問題。
第2節:深度圖庫(DGL)概述。本節描述DGL提供的不同的抽象和api,這些抽象和api旨在簡化GNN模型的實現,并解釋DGL如何與MXNet、Pytorch和TensorFlow進行接口。然后介紹DGL的消息傳遞API,該API可用于開發任意復雜的GNNs和它提供的預定義GNN nn模塊。
第3節:基本圖任務的GNN模型。本節演示如何使用GNNs解決四個關鍵的圖數據學習任務:節點分類、鏈接預測、圖數據分類和網絡嵌入前訓練。它將展示如何使用DGL的nn模塊實現一個流行的GNN模型GraphSage,并展示如何在不同類型的下游任務中使用由GraphSage計算出的節點嵌入。此外,本文還將演示使用DGL的消息傳遞接口實現定制的GNN模型。
第4節:大型圖的GNN訓練。本節使用第3節中描述的一些模型來演示DGL中的微型批處理訓練、多GPU訓練和分布式訓練。它首先描述了mini-batch訓練的概念如何應用于GNN,以及如何通過使用各種抽樣技術來加速mini-batch計算。接下來將舉例說明一種稱為鄰接抽樣的抽樣技術,如何使用木星筆記本在DGL中實現。然后將該筆記本擴展為多GPU訓練和分布式訓練。
第5節:實際應用的GNN模型。本節使用前面幾節中描述的技術,展示如何使用GNNs開發用于推薦和欺詐檢測的可伸縮解決方案。在推薦方面,本文提出了一種基于最近鄰的項目推薦方法,該方法通過采用端到端的學習方法,利用GNN模型學習項目嵌入。對于欺詐檢測,它擴展了上一節中的節點分類模型,以處理異構圖,并解決了標記樣本很少的情況。
論文題目: Dynamic graph representation learning via self-attention networks
論文摘要: 學習圖中節點的潛在表示是一項重要且普遍存在的任務,在鏈接預測、節點分類和圖可視化等領域有著廣泛的應用。以往的圖表示學習方法主要集中在靜態圖上,而現實世界中的很多圖都是動態的、隨時間變化的。在這篇論文中,我們提出了Dynamic Self-Attention Network (DySAT),這是一種新型的神經架構,它操作在動態圖上,并學習節點表示,以捕捉結構特性和時間演化模式。具體來說,DySAT通過在兩個維度(結構鄰域和時間動態)上聯合使用self-attention層來計算節點表示。我們對兩類圖進行了鏈接預測實驗:通信網絡和二分評級網絡。我們的實驗結果表明,DySAT在幾種不同的最先進的圖嵌入baseline上有顯著的性能提升。
作者簡介: 武延宏,Visa Research的研究員。在加入Visa之前,他是IBM T.J.Watson研究中心的博士后研究員,負責金融領域的異常檢測和分析。他還曾在Aviz | INRIA和Microsoft Research Asia擔任訪問學者,專注于大型圖挖掘和可視化。他于2013年6月從香港理工大學獲得博士學位,并于2013年6月在復旦大學軟件學院獲得學士學位。他的研究興趣包括圖形建模、深入學習和可視化分析。等
主題:Deep Learning for Graphs: Models and Applications
摘要:圖提供了多種類型的數據的通用表示,而深度學習在表示學習方面顯示了巨大的能力。因此,用圖連接深度學習提供了機會,使各種現實世界問題的通用解決方案成為可能。然而,傳統的深度學習技術對常規網格數據(如圖像和序列)具有破壞性,因此不能直接應用于圖結構數據。因此,將這兩個領域結合起來面臨著巨大的挑戰。在本教程中,我將全面概述圖深度學習的最新進展,包括模型和應用。特別地,我將介紹一些基本概念,回顧最先進算法,并舉例說明各種重要的應用。最后,我將通過討論開放問題和挑戰來總結本教程。
嘉賓簡介:唐繼良(Jiang Tang)自2016年秋季@起擔任密歇根州立大學計算機科學與工程系的助理教授。在此之前,他是Yahoo Research的研究科學家,并于2015年從亞利桑那州立大學獲得博士學位。他的研究興趣包括社交計算,數據挖掘和機器學習及其在教育中的應用。他曾獲得2019年NSF職業獎,2015年KDD最佳論文亞軍和6項最佳論文獎,包括WSDM2018和KDD2016。他是會議組織者(例如KDD,WSDM和SDM)和期刊編輯(例如TKDD)。他的研究成果發表在高排名的期刊和頂級會議論文集上,獲得了數千篇引文(Google學術搜索)和廣泛的媒體報道。