圖神經網絡(GNNs)是針對圖信號的信息處理體系結構。它們已經被開發出來,并在本課程中作為卷積神經網絡(CNNs)的推廣來介紹,它被用來在時間和空間上處理信號。這句話聽起來可能有些奇怪,這取決于你對神經網絡(NNs)和深度學習的了解程度。CNN不就是NN的特例嗎?GNN不也是這樣嗎?從嚴格意義上說,它們是存在的,但我們這門課的重點是涉及高維信號的大規模問題。在這些設置中,神經網絡無法伸縮。CNN為信號在時間和空間上提供可擴展的學習。GNNS支持圖信號的可擴展學習。
在本課程中,我們將在學習單特征和多特征GNN之前,介紹圖卷積濾波器和圖濾波器組。我們還將介紹相關的架構,如經常性的GNN。特別的重點將放在研究GNN的排列的等方差和圖變形的穩定性。這些特性提供了一個解釋的措施,可以觀察到的良好性能的GNNs經驗。我們還將在大量節點的極限范圍內研究GNN,以解釋不同節點數量的網絡間GNN的可遷移性。
Lecture 1: Machine Learning on Graphs 圖機器學習
圖神經網絡(GNNs)是一種具有廣泛適用性和非常有趣的特性的工具。可以用它們做很多事情,也有很多東西需要學習。在第一節課中,我們將回顧本課程的目標并解釋為什么我們應該關注GNN。我們還提供了未來的預覽。我們討論了在可擴展學習中利用結構的重要性,以及卷積是如何在歐幾里得空間中實現這一點的。我們進一步解釋如何將卷積推廣到圖,以及隨后將卷積神經網絡推廣到圖(卷積)神經網絡。
1.1 – Graph Neural Networks 圖神經網絡
在這門課程中,我希望我們能夠共同完成兩個目標。您將學習如何在實際應用程序中使用GNNs。也就是說,您將開發使用圖神經網絡在圖上表述機器學習問題的能力。你將學會訓練他們。你將學會評估它們。但你也會學到,你不能盲目地使用它們。你將學習到解釋他們良好的實證表現的基本原理。這些知識將允許您確定GNN適用或不適用的情況。
1.2 Machine Learning on Graphs: The Why 圖機器學習
我們關心GNN是因為它們使機器能夠在圖上學習。但我們為什么要關注圖機器學習呢?我們在這里詳述圖機器學習的原因。它為什么有趣?我們為什么要關心這個?我們關心的原因很簡單:因為圖表在信息處理中無處不在。
1.3 – Machine Learning on Graphs: The How
在討論了原因之后,我們來處理如何做。我們如何在圖上進行機器學習?這個問題的答案很簡單:我們應該使用神經網絡。我們應該這樣做,因為我們有豐富的經驗和理論證據證明神經網絡的價值。理解這些證據是本課程的目標之一。但在我們準備這么做之前,有一個潛在的阻礙因素:神經網絡必須利用結構來實現可擴展。
不確定性的概念在機器學習中是非常重要的,并且構成了現代機器學習方法論的一個關鍵元素。近年來,由于機器學習與實際應用的相關性越來越大,它的重要性也越來越大,其中許多應用都伴隨著安全要求。在這方面,機器學習學者們發現了新的問題和挑戰,需要新的方法發展。事實上,長期以來,不確定性幾乎被視為標準概率和概率預測的同義詞,而最近的研究已經超越了傳統的方法,也利用了更一般的形式主義和不確定性計算。例如,不確定性的不同來源和類型之間的區別,例如任意不確定性和認知不確定性,在許多機器學習應用中被證明是有用的。講習班將特別注意這方面的最新發展。
綜述論文:
不確定性的概念在機器學習中是非常重要的,并且構成了機器學習方法的一個關鍵元素。按照統計傳統,不確定性長期以來幾乎被視為標準概率和概率預測的同義詞。然而,由于機器學習與實際應用和安全要求等相關問題的相關性穩步上升,機器學習學者最近發現了新的問題和挑戰,而這些問題可能需要新的方法發展。特別地,這包括區分(至少)兩種不同類型的不確定性的重要性,通常被稱為任意的和認知的。在這篇論文中,我們提供了機器學習中的不確定性主題的介紹,以及到目前為止在處理一般不確定性方面的嘗試的概述,并特別將這種區別形式化。
本課程的教材是從機器學習的角度寫的,是為那些有必要先決條件并對學習因果關系基礎感興趣的人而開設的。我盡我最大的努力整合來自許多不同領域的見解,利用因果推理,如流行病學、經濟學、政治學、機器學習等。
有幾個主要的主題貫穿全課程。這些主題主要是對兩個不同類別的比較。當你閱讀的時候,很重要的一點是你要明白書的不同部分適合什么類別,不適合什么類別。
統計與因果。即使有無限多的數據,我們有時也無法計算一些因果量。相比之下,很多統計是關于在有限樣本中解決不確定性的。當給定無限數據時,沒有不確定性。然而,關聯,一個統計概念,不是因果關系。在因果推理方面還有更多的工作要做,即使在開始使用無限數據之后也是如此。這是激發因果推理的主要區別。我們在這一章已經做了這樣的區分,并將在整本書中繼續做這樣的區分。
識別與評估。因果效應的識別是因果推論所獨有的。這是一個有待解決的問題,即使我們有無限的數據。然而,因果推理也與傳統統計和機器學習共享估計。我們將主要從識別因果效應(在第2章中,4和6)之前估計因果效應(第7章)。例外是2.5節和節4.6.2,我們進行完整的例子估計給你的整個過程是什么樣子。
介入與觀察。如果我們能進行干預/實驗,因果效應的識別就相對容易了。這很簡單,因為我們可以采取我們想要衡量因果效應的行動,并簡單地衡量我們采取行動后的效果。觀測數據變得更加復雜,因為數據中幾乎總是引入混雜。
假設。將會有一個很大的焦點是我們用什么假設來得到我們得到的結果。每個假設都有自己的框來幫助人們注意到它。清晰的假設應該使我們很容易看到對給定的因果分析或因果模型的批評。他們希望,清晰地提出假設將導致對因果關系的更清晰的討論。
圖神經網絡(GNNs)是圖信號支持的信息處理體系結構。它們在這里作為卷積神經網絡(CNNs)的推廣提出,其中每個層包含圖卷積濾波器,而不是經典卷積濾波器。濾波器由點態非線性組成并分層堆疊。結果表明,GNN結構對排列的方差相等,對圖形變形的穩定性較好。這些特性提供了一個解釋的措施,可以觀察到的良好性能的GNNs經驗。如果圖收斂于一個極限對象,圖形,GNN收斂于一個相應的極限對象,圖神經網絡。這種收斂證明了GNN在不同節點數量的網絡之間的可遷移性。
阿姆斯特丹大學Max Welling教授為你講解圖神經網絡發展趨勢
Max Welling教授是阿姆斯特丹大學機器學習研究主席和高通公司技術副總裁。他還被任命為加拿大高級研究所(CIFAR)的高級研究員。他是“Scyfer BV”的聯合創始人,該公司是深度學習領域的大學子公司,于2017年夏天被高通收購。在過去,他在加州理工學院(98- 00),倫敦大學學院(00- 01)和多倫多大學(01- 03)擔任博士后。他于1998年在諾貝爾獎得主g.t Hooft教授的指導下獲得博士學位。Max Welling 2011-2015年擔任IEEE TPAMI副主編(影響因子4.8)。自2015年(機器學習領域最大的會議)以來,他擔任NIPS基金會的董事會成員,2013年和2014年分別擔任NIPS項目主席和一般主席。他也是2009年AISTATS和2016年ECCV的項目主席,以及2018年MIDL的總主席。他曾在JMLR和JML的編委會任職,并擔任神經計算、JCGS和TPAMI的副編輯。他獲得了來自谷歌,Facebook, Yahoo, NSF, NIH, NWO和ONR-MURI的多次資助,其中NSF在2005年的職業資助。他是2010年ECCV Koenderink獎的獲得者。Max Welling是阿姆斯特丹數據科學研究中心的董事會成員,他主管阿姆斯特丹機器學習實驗室(AMLAB),并共同指導高通- UvA深度學習實驗室(QUVA)和博世- UvA深度學習實驗室(DELTA)。Max Welling在機器學習、計算機視覺、統計學和物理學方面發表了超過250篇科學論文,H指數為62。
//staff.fnwi.uva.nl/m.welling/
Graph Nets: The Next Generation - Max Welling
在這次演講中,我將介紹下一代的圖神經網絡。GNN具有對圖中節點的排列和圖的整體旋轉不變的特性。我們認為這是不必要的限制,在這次談話中,我們將探索這些GNN的擴展,以更靈活的等變結構。特別地,一般圖的自然圖網絡在節點排列下是全局等變的,但仍然可以通過本地消息傳遞協議執行。我們在流形上的mesh-CNNs在SO(2)規范變換下是等變的,因此,與常規的GNN不同,它具有非各向同性的核。最后,我們的SE(3)轉換器是局部消息傳遞GNN,對排列不變性,但對全局SE(3)變換是等價的。這些發展清楚地強調了幾何和對稱作為圖(或其他)神經網絡設計原則的重要性。
幾何深度學習
很多數據不是序列和歐幾里得分布的,而是球面圖網絡分布,那如何使用卷積在這些數據結構上?
概覽
結論
【導讀】Graph Neural Network(GNN)由于具有分析圖結構數據的能力而受到了廣泛的關注。本文對Graph Neural Network進行了簡要介紹。它涵蓋了一些圖論,以便于理解圖和分析圖時遇到的問題。然后介紹了不同形式的Graph神經網絡及其原理。它還涵蓋了GNN可以做什么以及GNN的一些應用。
圖論
首先,我們需要知道什么是圖。圖是一種由兩個部分組成的數據結構:頂點和edge。它用作分析目標和實體之間成對關系的數學結構。通常,將圖定義為G =(V,E),其中V是一組節點,E是它們之間的邊。
圖通常由鄰接矩陣A表示。如果圖具有N個節點,則A的維數為(N x N)。人們有時會提供另一個特征矩陣來描述圖中的節點。如果每個節點都有F個特征,則特征矩陣X的維數為(N x F)。
為什么圖難以分析?
首先,在歐幾里得空間中不存在圖,這意味著它無法用我們熟悉的任何坐標系表示。與其他類型的數據(例如波,圖像或時間序列信號)相比,這使得圖數據的解釋更加困難(“文本”也可以視為時間序列),可以輕松地將其映射為2-D或3-D歐幾里德空間。
其次,圖沒有固定的形式。為什么?看下面的例子。圖(A)和圖(B)具有完全不同的結構和外觀。但是,當我們將其轉換為鄰接矩陣表示形式時,兩個圖具有相同的鄰接矩陣(如果不考慮邊的權重)。那么我們應該考慮這兩個圖是相同還是不同?
最后,一般來說,圖很難直觀地顯示出來以供人類解釋。我不是在談論像上面的例子這樣的小圖。我說的是涉及數百或數千個節點的巨型圖。它的維數很高,節點密集地分組在一起,甚至使人難以理解圖。因此,為該任務訓練機器是具有挑戰性的。以下示例顯示了對集成電路中邏輯門進行建模的圖。
Example of a giant graph: circuit netlist. Figure from J. Baehr et. al. “Machine Learning and Structural Characteristics of Reverse Engineering”
為什么要使用圖?
人們選擇使用圖的原因可以歸納為以下幾點:
傳統圖分析方法
傳統方法主要基于算法,例如:
圖神經網絡
所謂的圖神經網絡是一種可以直接應用于圖的神經網絡。它為節點級別,邊緣級別和圖級別的預測任務提供了一種方便的方法。
文獻中主要有三種類型的圖神經網絡:
GNN的直覺是,節點自然是由其鄰居和連接定義的。為了理解這一點,我們可以簡單地想象一下,如果刪除節點周圍的鄰居和連接,則該節點將丟失其所有信息。因此,節點的鄰居和與鄰居的連接定義了節點的概念。
考慮到這一點,我們然后給每個節點一個狀態(x)來表示其概念。我們可以使用節點狀態(x)產生輸出(o),即有關概念的決策。節點的最終狀態(x_n)通常稱為“節點嵌入”。所有GNN的任務是通過查看其相鄰節點上的信息來確定每個節點的“節點嵌入”。 我們將從圖神經網絡,循環圖神經網絡或RecGNN的經典版本開始。
遞歸圖神經網絡
正如原始GNN論文中介紹的那樣,RecGNN是基于Banach不動點定理的假設而構建的。Banach不動點定理指出:(X,d)是一個完整的度量空間,而(T:X→X)是一個壓縮映射。然后,T具有唯一的不動點(x ?),對于任何x∈X,n→∞的序列T_n(x)收斂到(x ?)。這意味著,如果我申請的映射T上X為?倍,X ^ K在幾乎等于x ^(K-1),即:
RecGNN定義了一個參數化函數f_w:
其中L_N,l_co,x_ne,l_ne 表示當前節點的特征[n],節點的邊緣[n],相鄰節點的狀態,與相鄰節點的功能。(在原始論文中,作者將節點特征稱為節點標簽。這可能會造成一些混亂。)
An illustration of node state update based on the information in its neighbors. Figure from “The Graph Neural Network Model” 最終,在經過k次迭代之后,最終的節點狀態將用于生成輸出,以決定每個節點。輸出函數定義為:
空間卷積網絡
空間卷積網絡的直覺類似于著名的CNN,后者主導著圖像分類和分割任務的文獻。要了解圖像上的CNN,您可以查看這篇文章,其中詳細說明了CNN。
簡而言之,在圖像上進行卷積的想法是對中心像素周圍的相鄰像素求和,該像素由參數化大小和可學習權重的濾波器指定。空間卷積網絡通過將相鄰節點的特征聚合到中心節點中采用了相同的思想。
Left: Convolution on a regular graph such as an image. Right: Convolution on the arbitrary graph structure. Figure from “A Comprehensive Survey on Graph Neural Networks”
譜卷積網絡
與其他類型的GNN相比,這種類型的圖卷積網絡具有非常強大的數學基礎。譜卷積網絡建立在圖信號處理理論的基礎上。并通過簡化和逼近圖卷積。 通過Chebyshev多項式逼近 (Hammond et al。2011),圖卷積可以簡化為以下形式:
進一步簡化后,GCN論文提出了一種2層神經網絡結構,可以用以下等式描述:
其中A_head是原始圖鄰接矩陣A的預處理拉普拉斯算子。(有關數學的詳細信息,請參見GCN論文。將需要大量的精力來進行充分說明。)
如果您有一些機器學習經驗,則此公式看起來非常熟悉。這不過是常用的兩個完全連接的層結構。但是在這種情況下,它確實可以用作圖卷積。我將在下面說明為什么它可以執行圖卷積。
Example of a graph with a feature assigned to each node. Figured by author
讓我們考慮一下,我們有一個包含4個節點的簡單圖。如上圖所示,為這些節點中的每個節點分配了一個特征矩陣。圖鄰接矩陣和特征矩陣很容易得出,如下所示:
Example of the adjacency matrix and feature matrix. Figure by author
注意,鄰接矩陣的對角線故意更改為“ 1”,以為每個節點添加一個自環。當我們執行特征聚合時,這將包括每個節點本身的特征。 然后,我們執行A x X(為簡單起見,我們先忽略A的拉普拉斯算子和權重矩陣W。)
Example of graph convolution by matrix multiplication. Figure by author
矩陣乘法的結果顯示在最右邊的矩陣中。讓我們以第一個節點的結果功能為例。不難發現結果是[節點1]的所有特征之和,包括[節點1]本身的特征,并且[節點4]中的特征不包括在內,因為它不是[節點1]的鄰居。。在數學上,僅當存在邊時,圖的鄰接矩陣才具有值“ 1”,否則具有“ 0”。這使得矩陣乘法成為連接到參考節點的節點的特征之和。 因此,頻譜卷積網絡和空間卷積網絡盡管是在不同的基礎上開始的,但是它們共享相同的傳播規則。 當前可用的所有卷積圖神經網絡共享相同的格式。他們都嘗試學習通過該消息傳遞過程傳遞節點信息并更新節點狀態的功能。 任何圖神經網絡可被表達為與消息傳遞神經網絡(J. Gilmer et al. , 2017)的消息傳遞功能,節點更新功能和讀出功能。
GNN可以做什么?
GNN解決的問題可以大致分為三類:
一些實際的應用
在了解了GNN可以執行哪種類型的分析之后,您一定想知道我可以對圖進行哪些實際應用。好了,本節將為您提供有關GNN實際應用的更多見解。
自然語言處理中的GNN
GNN被廣泛使用在自然語言處理(NLP)中。實際上,這也是GNN最初開始的地方。如果您中的某些人具有NLP經驗,則必須考慮到文本應該是一種序列或時間數據,則可以由RNN或LTSM最好地描述。然而,GNN則從完全不同的角度解決了這個問題。GNN利用單詞或文檔的內部關系來預測類別。例如,引文網絡嘗試根據論文引文關系和其他論文中引用的詞來預測網絡中每篇論文的標簽。它也可以通過查看句子的不同部分而不是像RNN或LTSM中那樣的純粹序列來構建語法模型。
計算機視覺中的GNN
許多基于CNN的方法已經在圖像中的目標檢測中達到了最新的性能,但是我們還不知道目標之間的關系。GNN在CV中的一種成功應用是使用圖來建模基于CNN的檢測器檢測到的物體之間的關系。從圖像中檢測到目標后,將它們輸入到GNN推理中以進行關系預測。GNN推斷的結果是生成的圖,該圖對不同目標之間的關系進行建模。
Scene Graph Generation. Figure from D. Xu, Y. Zhu, C. B. Choy, and L. Fei-Fei, “Scene graph generation by iterative message passing,” in Proc. of CVPR, 2017
CV中另一個有趣的應用是根據圖描述生成圖像。這可以解釋為幾乎與上述應用相反。圖像生成的傳統方式是使用GAN或自動編碼器生成文本到圖像。從圖到圖像的生成不是使用文本來描述圖像,而是提供了有關圖像語義結構的更多信息。
Image generated from scene graphs. Figure from J. Johnson, A. Gupta, and L. Fei-Fei, “Image generation from scene graphs,” in Proc. of CVPR, 2018 我想分享的最有趣的應用是零樣本學習(ZSL)。您可以找到這篇文章,以全面了解ZSL。總之,ZSL是想學給定的一類分類NO(目標類別的)訓練樣本。這是非常具有挑戰性的,因為如果沒有給出訓練樣本,我們需要讓模型在邏輯上“思考”以識別目標。例如,如果給了我們三張圖像(如下圖所示),并告訴我們在其中找到“ okapi”。我們以前可能沒有看過“okapi”。但是,如果我們還得到信息,“okapi”是一種有四只腿,斑馬紋皮膚的鹿面動物,那么我們就不難確定哪個是“okapii”。典型的方法是通過將檢測到的特征轉換為文本來模擬這種“思考過程”。但是,文本編碼彼此獨立。很難對文本描述之間的關系進行建模。換句話說,圖表示很好地模擬了這些關系。
Figure from X. Wang, Y. Ye, and A. Gupta, “Zero-shot recognition via semantic embeddings and knowledge graphs,” in CVPR 2018
其他領域的GNN
GNN的更多實際應用包括人類行為檢測,交通控制,分子結構研究,推薦系統,程序驗證,邏輯推理,社會影響預測以及對抗攻擊。下面顯示了對社交網絡中人際關系建模的圖表。GNN可用于將人們分為不同的社區群體。
結論
我們在本文中介紹了一些圖論,并強調了分析圖的重要性。人們總是將機器學習算法視為“ 黑匣子 ”。大多數機器學習算法僅從訓練數據的特征中學習,但沒有實際的邏輯可以執行。使用形,我們也許能夠將一些“邏輯”傳遞給機器,并使其更自然地“思考”。
GNN仍然是一個相對較新的領域,值得更多的研究關注。它是分析圖數據的強大工具。但是,它不僅限于圖中的問題。它可以很容易地推廣到任何可以通過圖建模的研究中。圖建模是分析問題的自然方法。
參考鏈接:
【導讀】新加坡國立大學的Xiang Wang、Tat-Seng Chua,以及來自中國科學技術大學的Xiangnan He在WSDM 2020會議上通過教程《Learning and Reasoning on Graph for Recommendation》介紹了基于圖學習和推理的推薦系統,涵蓋了基于隨機游走的推薦系統、基于網絡嵌入的推薦系統,基于圖神經網絡的推薦系統等內容。
Tutorial摘要:
推薦方法構建預測模型來估計用戶-項目交互的可能性。之前的模型在很大程度上遵循了一種通用的監督學習范式——將每個交互視為一個單獨的數據實例,并基于“信息孤島”進行預測。但是,這些方法忽略了數據實例之間的關系,這可能導致性能不佳,特別是在稀疏場景中。此外,建立在單獨數據實例上的模型很難展示推薦背后的原因,這使得推薦過程難以理解。
在本教程中,我們將從圖學習的角度重新討論推薦問題。用于推薦的公共數據源可以組織成圖,例如用戶-項目交互(二部圖)、社交網絡、項目知識圖(異構圖)等。這種基于圖的組織將孤立的數據實例連接起來,為開發高階連接帶來了好處,這些連接為協作過濾、基于內容的過濾、社會影響建模和知識感知推理編碼有意義的模式。隨著最近圖形神經網絡(GNNs)的成功,基于圖形的模型顯示了成為下一代推薦系統技術的潛力。本教程對基于圖的推薦學習方法進行了回顧,重點介紹了GNNs的最新發展和先進的推薦知識。通過在教程中介紹這一新興而有前景的領域,我們希望觀眾能夠對空間有更深刻的理解和準確的洞察,激發更多的想法和討論,促進技術的發展。
Tutorial大綱:
本文為大家帶來了一份斯坦福大學的最新課程CS234——強化學習,主講人是斯坦福大學Emma Brunskill,她是斯坦福大學計算機科學助理教授,任職斯坦福大學人類影響力實驗室、斯坦福人工智能實驗室以及統計機器學習小組,主要研究強化學習。要實現人工智能的夢想和影響,需要能夠學會做出正確決策的自主系統。強化學習是這樣做的一個強有力的范例,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程通過講課、書面作業和編碼作業的結合,學生將精通強化學習的關鍵思想和技術。
1.課程介紹(Description)
要實現人工智能的夢想和影響,需要能夠學會做出正確決策的自主系統。強化學習是這樣做的一個強有力的范例,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程將為強化學習領域提供扎實的介紹,學生將學習包括通用化和探索在內的核心挑戰和方法。通過講課、書面作業和編碼作業的結合,學生將精通強化學習的關鍵思想和技術。作業將包括強化學習和深度強化學習的基礎,這是一個極有前途的新領域,將深度學習技術與強化學習相結合。此外,學生將通過期末專題來增進對強化學習領域的理解。
課程地址:
//web.stanford.edu/class/cs234/schedule.html
2.預備知識(Prerequisites)
1)熟練Python
所有的課程都將使用Python(使用numpy和Tensorflow,也可以使用Keras)。這里有一個針對那些不太熟悉Python的人的教程。如果你有很多使用不同語言(如C/ c++ / Matlab/ Javascript)的編程經驗,可能會很好。
2)大學微積分,線性代數(如 MATH 51, CME 100)
你應該能夠熟練地進行(多變量)求導,理解矩陣/向量符號和運算。
3)基本概率及統計(例如CS 109 或同等課程)
你應該了解基本的概率,高斯分布,均值,標準差等。
4)機器學習基礎
我們將闡述成本函數,求導數,用梯度下降法進行優化。CS 221或CS 229均可涵蓋此背景。使用一些凸優化知識,一些優化技巧將更加直觀。
3.主講:Emma Brunskill
Emma Brunskill是斯坦福大學計算機科學助理教授,任職斯坦福大學人類影響力實驗室、斯坦福人工智能實驗室以及統計機器學習小組。
主要研究強化學習系統,以幫助人們更好地生活。并處理一些關鍵技術。最近的研究重點包括:1)有效強化學習的基礎。一個關鍵的挑戰是要了解代理商如何平衡勘探與開發之間的局限性。2)如果要進行順序決策,該怎么辦。利用巨大數量的數據來改善在醫療保健,教育,維護和許多其他應用程序中做出的決策,這是一個巨大的機會。這樣做需要假設/反事實推理,以便在做出不同決定時對潛在結果進行推理。3)人在回路系統。人工智能具有極大地擴大人類智能和效率的潛力。我們正在開發一個系統,用其他眾包商(CHI 2016)生產的(機器)固化材料對眾包商進行訓練,并確定何時擴展系統規格以包括新內容(AAAI 2017)或傳感器。我們也有興趣研究確保機器學習系統在人類用戶的意圖方面表現良好(Arxiv 2017),也被稱為安全和公平的機器學習。
個人主頁:
4.課程安排
01: 強化學習導論(Introduction to Reinforcement Learning)
02: 表格MDP規劃(Tabular MDP planning)
03: 表格RL政策評估(Tabular RL policy evaluation)
04: Q-learning
05: 帶函數逼近的強化學習(RL with function approximation)
06: 帶函數逼近的強化學習(RL with function approximation)
07: 帶函數逼近的強化學習(RL with function approximation)
08: 從馬爾可夫決策過程到強化學習(Policy search)
09: 從馬爾可夫決策過程到強化學習(Policy search)
10: 課堂中期(In-class Midterm)
11: 模仿學習/探索(Imitation learning/Exploration)
12: 探索/開發(Exploration/Exploitation)
13: 探索/開發(Exploration/Exploitation)
14: 批處理強化學習(Batch Reinforcement Learning)
15: 嘉賓講座:Craig Boutilier(Guest Lecture: Craig Boutilier)
16: 課堂測驗(In-class Quiz)
17: 蒙特卡洛樹搜索算法(Monte Carlo Tree Search)
18: 墻報展示(Poster presentations)
課程介紹: 最近,圖神經網絡 (GNN) 在各個領域越來越受到歡迎,包括社交網絡、知識圖譜、推薦系統,甚至生命科學。GNN 在對圖形中節點間的依賴關系進行建模方面能力強大,使得圖分析相關的研究領域取得了突破性進展。本次課程對比傳統的卷積神經網絡以及圖譜圖卷積與空間圖卷積,從理論知識入手,并結合相關論文進行詳細講解。
主講人: Xavier Bresson,人工智能/深度學習方面的頂級研究員,培訓師和顧問。在“圖深度學習”上的NeurIPS'17和CVPR'17(2019年頂級人工智能會議排名)上的演講者,在劍橋,加州大學洛杉磯分校,布朗,清華,龐加萊,海德堡等地進行了30多次國際演講。
課程大綱: