神經網絡在各種機器學習任務和不同領域取得了巨大的進步。通常,神經網絡依賴于啟發式地優化非凸目標,這引發了對它們的透明度、效率和經驗性能的質疑。在這篇論文中,我們展示了各種神經網絡架構都可以適應凸優化,意味著它們的非凸目標可以通過半無限對偶公式重新構成為凸優化問題。我們首先展示對于具有ReLU激活函數的雙層全連接神經網絡,優化問題是凸的,并且與共積程序編程有著獨特的聯系,該程序具有一種促進網絡中使用的激活模式數量稀疏性以及每種激活模式中活躍的神經元數量稀疏性的正則化器。我們展示了在某些數據情況下,這種公式能夠獲得封閉形式的解決方案,并使用共積程序編程來放松問題,使其在問題維度上為多項式時間,對于固定秩的數據矩陣而言。我們展示了解決凸形式的重構問題會比應用于原始非凸目標的啟發式算法(如梯度下降)找到更好的解決方案。
在本論文的其余部分,我們探索了不同的神經網絡架構和訓練機制,這些機制對凸優化公式提出了新的挑戰。我們展示了對于卷積神經網絡和Transformer架構,優化問題也可以接受凸重構。我們還展示了對于具有批量歸一化和生成對抗網絡的神經網絡,相同的凸重構技術可以解開非凸優化中無法解釋的方面,并對實際問題提供更快、更穩健的解決方案。最后,我們展示了這些方法可以通過Burer-Monteiro分解凸目標來擴展到更深的網絡,同時保持凸保證,但允許以可擴展的方式逐層堆疊凸子網絡。
神經網絡在多種任務中的應用變得越來越強大和廣泛。它們廣泛使用的最新原因是深度學習的出現,深度學習已被證明在多種任務中有效,包括圖像分類和自然語言處理。近年來,深度學習和在機器學習的基礎問題上應用大規模計算和數據的步伐改變,帶來了人工智能的許多突破,例如能夠生成與人類撰寫文本無法區分的文本的大型語言模型(LLMs),以及具有超人類準確度的圖像分類器。
然而,盡管取得了成功,神經網絡通常被認為是黑盒,很難理解它們為什么如此有效。這種缺乏理解是神經網絡進一步發展的主要障礙。具體來說,訓練神經網絡的優化過程并不被充分理解,尚不清楚為何這種優化過程能產生在未見數據上表現良好的解決方案。這尤其令人困惑,因為并沒有保證神經網絡會收斂到全局最優解,在許多情況下,眾所周知神經網絡只會收斂到局部最優,這些局部最優在解決方案空間的某個鄰域內是最優的,但不是最佳可能解決方案。這引發了一個問題:是否存在更好的解決方案,以及如何找到它們。此外,由于優化過程不被充分理解,神經網絡訓練往往是一個效率低下的試錯過程,需要重度的直覺和實驗來找到一個好的解決方案。在大規模機器學習的世界里,這尤其令人關注,因為訓練LLMs的成本對于少數機構來說是高得令人望而卻步的。 在這篇論文中,我們旨在通過理解和利用神經網絡優化問題的隱含結構來解決這些問題。我們將通過找到神經網絡問題的一個等價公式來做到這一點,這個公式是凸的,可以高效地解決。
受寬神經網絡(NNs)理論的啟發,核學習和特征學習近期作為兩個范式浮現出來,通過它們我們可以實際理解大規模深度學習系統的復雜行為。在文獻中,它們通常被描述為二分法的兩個對立面,各自具有優點和缺點:核學習與經過深入研究的機器學習技術(如核方法和高斯過程)建立聯系,而特征學習則承諾捕捉更多豐富而尚未解釋的,獨特于神經網絡的屬性。在這篇論文中,我們介紹了三項研究,研究結合了來自兩個角度的見解來研究神經網絡的性質,不僅強調它們的差異,而且強調共同點。我們首先回顧了有關深度學習理論的相關文獻,重點是寬神經網絡的研究。這為核學習和特征學習的討論提供了背景,基于此,我們繼續描述我們的貢獻。首先,我們研究了寬神經網絡集合與貝葉斯推斷之間的關系,利用核學習與高斯過程之間的聯系,并提出了一種修改,以解釋神經網絡函數在初始化時缺失的方差,從而使我們訓練過的深度集合具有貝葉斯解釋。接下來,我們結合核學習和特征學習來展示特征核的適用性,即通過最終層神經網絡特征的內積引導的核,作為知識蒸餾的目標,其中人們尋求使用強大的教師模型來提高弱學生模型的性能。最后,我們探討自監督學習中折疊特征和白化特征之間的差距,強調特征核中特征值的衰減率作為一項關鍵量,它彌合了這一差距,并影響下游泛化性能,特別是在標記數據稀缺的情況下。我們以討論我們的貢獻,包括局限性和未來展望,作為結論。
由于深度神經網絡(DNN)模型的訓練具有非凸性質,它們的有效性依賴于非凸優化啟發式方法的使用。傳統的DNN訓練方法通常需要昂貴的實證方法來生成成功的模型,并且沒有明確的理論基礎。在這篇論文中,我們研究了如何利用凸優化理論改進神經網絡的訓練,并提供對它們最優權重的更好解釋。在這篇論文中,我們專注于具有分段線性激活函數的兩層神經網絡,并表明它們可以被表述為有限維度的凸程序,帶有促進稀疏性的正則化項,這是一種群體Lasso的變體。我們首先利用半無限編程理論證明有限寬度神經網絡的強對偶性,然后將這些架構等價地描述為高維凸模型。值得注意的是,當數據矩陣的秩有界(這是卷積網絡中的情況)時,解決凸程序的最壞情況復雜度在樣本數量和神經元數量上是多項式的。為了將我們的方法擴展到任意秩的訓練數據,我們基于zonotope采樣開發了一種新的多項式時間近似方案,該方案具有保證的近似比率。我們的凸模型可以使用標準的凸求解器進行訓練,而無需像非凸方法那樣使用啟發式方法或進行大量的超參數調整。由于凸性,優化器超參數如初始化、批大小和步長計劃對最終模型沒有影響。通過大量的數值實驗,我們展示了凸模型可以勝過傳統的非凸方法,并且對優化器超參數不敏感。
在論文的其余部分,我們首先將分析擴展到某些標準的兩層和三層卷積神經網絡(CNN),這些網絡可以在全多項式時間內全局優化。與第一部分研究的全連接網絡不同,我們證明了這些CNN的等價表述在所有輸入維度上都具有全多項式復雜性,而無需依賴任何近似技術,因此在計算復雜性上有顯著的改進。然后,我們討論將我們的凸分析擴展到各種神經網絡架構,包括向量輸出網絡、批量歸一化、生成對抗網絡(GANs)、更深的架構和閾值網絡。
引言
深度神經網絡因其在大量機器學習任務中的出色實證成功而受到歡迎。然而,盡管它們在機器學習中的普遍存在,以及人們對其的熱情不斷激增,但我們對神經網絡模型的基本理解仍存在重大差距。理解其出色的泛化特性背后的機制仍是一個未解的問題。訓練深度神經網絡的非凸性引起了一項重大的挑戰。在非凸優化中,優化方法的選擇及其內部參數,如初始化、小批處理和步長,對學習模型的質量有著顯著的影響。這與凸優化問題形成了鮮明的對比,在凸優化問題中,這些優化參數沒有影響,可以以非常健壯、高效、透明和可復制的方式獲得全局最優解。因此,我們將通過凸優化理論的視角研究深度神經網絡的訓練問題,并引入精確的凸優化形式,其全局最優解可以通過標準的凸優化求解器實現。在下一部分,我們將為整篇論文中將要使用的概念提供背景。
這篇論文的主要貢獻可以總結如下:
機器學習在過去十年取得了重大進展。其最成功的范式是深度神經網絡,由連續表示層組成,其參數通過梯度下降在大規模數據集上進行優化。
深度神經網絡在許多任務上取得了卓越的性能,如物體識別、語言理解和自動駕駛。然而,他們仍然在推理任務中掙扎,這些任務通常需要操作符號并將多個步驟組合起來,例如,求解數學方程或編寫計算機程序。在這篇論文中,我們的目標是彌合這一差距,并教機器以精確、系統、可解釋和魯棒的方式進行推理,以應對現實環境中的模糊性。**本文采用神經符號方法,結合機器學習和符號推理的互補優勢。符號推理具有精確性和系統性。**但它已被限制在可嚴格形式化的領域。相比之下,主要的機器學習方法很靈活,但眾所周知難以解釋,需要大量數據,并且無法在訓練分布之外進行泛化。集成兩種方法的優勢對于構建具有精確和系統泛化能力的靈活推理機至關重要。具體而言,本文從兩個角度研究了神經符號推理。首先,將機器學習應用于與符號推理相關的任務,如自動定理證明(第2章)。其次,將符號推理啟發的歸納偏差引入機器學習模型,以提高其可解釋性、泛化性和數據效率(第3章和第4章)。結果強調了(1)神經符號模型架構,(2)在適當的抽象水平上進行推理,以及(3)明確的、推理的組合表示,如符號證明。 //dataspace.princeton.edu/handle/88435/dsp015q47rr958
圖神經網絡(GNNs)成功地從大多數類型的網絡數據學習表示,但在大型圖的情況下受到限制。挑戰出現在學習架構的設計本身,因為大多數GNN是由圖的一些矩陣表示(例如,鄰接矩陣)參數化的,當網絡很大時,這可能很難獲得。此外,在許多GNN架構中,圖操作是通過譜域中的卷積操作來定義的。在這種情況下,另一個障礙是圖譜的獲得,這需要代價高昂的矩陣特征分解。
然而,從共享結構屬性的意義上來說,大型圖通常可以被識別為彼此相似。因此,我們可以預期,處理這些圖上支持的數據應該會產生類似的結果,這將減輕大尺寸的挑戰,因為我們可以為小圖設計GNN,并將它們轉移到更大的圖上。在這篇論文中,我將這種直覺形式化,并表明當這些圖屬于同一個“族”時,這種圖的可移植性是可能的,其中每個族由不同的圖元標識。
graphon是一個函數W(x,y),它描述了一類具有相似形狀的隨機圖。我們可以將參數(x,y)看作是一對節點的標簽,以及圖元值W(x,y)作為x和y之間一條邊的概率的標簽。這產生了一個從圖元采樣的圖的概念,或者,等價地,一個隨著采樣圖中節點數量增長的極限的概念。從一個graphon上采樣的圖形幾乎肯定在極限上具有相同的屬性,例如同態密度,這在實踐中意味著,graphon識別的網絡家族在某種意義上是相似的,某些“motifs”的密度是保持不變的。這激發了對圖上的信息處理的研究,作為在大型圖上進行信息處理的一種方法。
信號處理理論的核心部分是一個移位的概念,它引入了一類具有傅立葉變換(FT)特征的光譜表示的線性濾波器。本文表明,graphon誘導了一個線性算子,可用于定義移位,從而定義graphon濾波器和graphon FT。基于圖序列和相關圖信號的收斂性質,可以證明對于這些序列,圖FT收斂到graphon FT,圖濾波器的輸出收斂到具有相同系數的graphon濾波器的輸出。這些定理表明,對于屬于某些族的圖,圖傅里葉分析和圖濾波器設計具有明確的限制。反過來,這些事實使具有大量節點的圖上的圖信息處理成為可能,因為為極限圖設計的信息處理管道可以應用于有限圖。
我們通過組合具有點非線性的graphon濾波器組來進一步定義graphon神經網絡(WNNs)。WNNs是理想的極限,在實際中并不存在,但它們是理解GNNs基本性質的有用工具。特別是,graphon濾波器的采樣和收斂結果可以很容易地擴展到WNNs,從而表明當圖收斂到graphon時,GNN收斂到WNNs。如果兩個GNN可以任意接近同一個WNN,那么通過一個簡單的三角形不等式參數,它們也可以任意接近彼此。這個結果證實了我們的直覺,即GNN可以在相似的圖之間轉移。一個GNN可以在中等規模的圖上訓練,并在一個可轉移性誤差主要為最小圖的大小的倒數的大尺度圖上執行。有趣的是,這種誤差隨著卷積濾波器光譜響應的可變性而增加,揭示了從圖濾波器繼承來的可轉移性和光譜鑒別性之間的權衡。在實踐中,由于非線性,這種權衡在GNN中很少出現,它能夠將數據的光譜成分分散到特征值譜的不同部分,在那里它們可以被區分。這解釋了為什么GNN比圖過濾器更可轉移。
本文提出了計算概率神經網絡局部魯棒性的方法,特別是由貝葉斯推理得到的魯棒性。從理論上講,將貝葉斯推理應用到神經網絡參數的學習中,有望解決頻繁主義學習范式下出現的許多實際困擾問題。特別是,貝葉斯學習允許有原則的架構比較和選擇,先驗知識的編碼,以及預測不確定性的校準。最近的研究表明,貝葉斯學習可以導致更多的對抗魯棒預測。雖然從理論上講是這樣的,并且在具體實例中已經證明了這一點,但提高魯棒性的軼事證據并不能為那些希望在安全關鍵環境中部署貝葉斯深度學習的人提供足夠的保證。雖然有方法可以保證確定性神經網絡的魯棒性,但貝葉斯神經網絡權重的概率性質使這些方法不可操作。本文研究了貝葉斯神經網絡的魯棒性概念,允許同時考慮模型的隨機性和模型決策的魯棒性保證。本文提供了一種方法,可以為給定的貝葉斯神經網絡計算這些數量,這些方法要么對估計的精度有先驗的統計保證,要么有可靠的概率上下界。最后,我們將魯棒性作為神經網絡參數貝葉斯推斷的主要要求,并演示了如何修改似然,以推斷出具有良好魯棒性的后驗分布。對似然的修正使我們的方法對貝葉斯神經網絡的近似推理技術是透明的。
我們使用貝葉斯神經網絡來評估我們提出的方法的實用性,這些神經網絡訓練了幾個真實的數據集,包括空中碰撞避免和交通標志識別。此外,我們評估了使用五種不同近似推理方法近似推斷的貝葉斯后驗分布的魯棒性。我們發現,我們的方法為貝葉斯神經網絡提供了第一個可證明的魯棒性保證,從而使它們能夠部署在安全關鍵場景中。此外,我們提出的神經網絡參數的魯棒貝葉斯推理方法使我們能夠推斷出后驗分布,這大大提高了可證明的魯棒性,即使是在全色圖像上。概述經典計算機科學關注的是如何創建解決給定問題的程序。相應地,經典程序驗證是確保(通常通過形式證明)給定程序在每個實例[6]中正確解決給定問題的任務。近年來,計算機科學家們已經將他們想要解決的問題的類別擴大到那些過于復雜或定義欠佳而無法用經典編程范式處理的任務。在程序不能再由人類設計的地方,它們可以通過示例[57]學習。隨著學習到的解決方案變得比手工編碼的解決方案好得多,它們所應用的領域也變得更加復雜。學習具有最大潛在影響的領域也具有最大的危害風險,這并不奇怪[1,10]。針對這類任務(包括醫療診斷和自動駕駛汽車)的學習解決方案,在部署和獲得公眾信任之前,必須保證其安全性。不幸的是,為這些任務編寫經典程序的障礙也阻礙了它們的正式驗證[79]。此外,檢驗習得解的基本穩定性的初步嘗試揭示了它們顯著的脆弱性[136]。這種脆弱性表現為過度自信、不正確的預測,幾乎對學習算法的每個輸入都可能產生這種預測。
因此,如果我們想要利用機器學習算法的光明未來,我們必須確保它們在部署之前是安全的。在這篇論文中,我們將關注到目前為止最流行和最強大的學習算法:深度神經網絡神經網絡是功能強大的函數逼近器,它有望在廣泛的任務中對先進性能的進步做出持續和重要的貢獻。神經網絡已經在諸如醫療診斷和病理以及控制和規劃等安全關鍵領域取得了顯著的強大性能。然而,在這些領域采用神經網絡的主要障礙是它們的預測缺乏可解釋性和可靠性[1]。我們將使用兩個主要漏洞來激發貝葉斯神經網絡(BNNs)的魯棒性研究,BNNs是由貝葉斯規則推斷的參數分布的神經網絡。第一個潛在的漏洞是確定性神經網絡(DNNs)缺乏校準的不確定性,即知道自己不知道什么[81]。當確定性神經網絡用于對統計上偏離訓練數據的數據點進行推斷時,這是一個特別的挑戰。在這種情況下,DNN經常會做出高度自信、不正確的預測,如果依賴這些預測,可能會導致糟糕的行為[104]。第二個弱點是對抗性的例子[136]。一個對抗性的例子是一個輸入,它被精心設計成與自然發生的輸入無法區分,但這會導致神經網絡在輸出中做出錯誤的分類或不安全的更改。在醫學診斷中,這可能是由于病理幻燈片色調的輕微變化而預測患者患有癌癥,或者在自主導航中,這可能是基于照明條件的輕微變化而預測轉向角度的較大變化[105]。對抗攻擊已被證明不僅在圖像分類[58]中存在安全隱患,在音頻識別[163]、惡意軟件識別[126]和自然語言處理[41]中也存在安全隱患。這些對安全性和安全性關鍵型應用程序構成了巨大的安全風險。當然,證明對抗實例的安全性是在安全關鍵環境下部署任何神經網絡的先決條件。
在過去幾年里,證明神經網絡預測的安全性一直是一個重要而活躍的研究領域,并且在有效證明對抗例子不存在方面取得了巨大進展[79,22,152]。雖然這滿足了我們的一個愿望(缺乏對抗性的例子),但確定性神經網絡在校準不確定性方面仍然提供很少的東西。特別是,給定一個確定性神經網絡和一個我們想要分類的輸入,通常的情況是,如果一個對抗的例子存在,那么它被錯誤地分類,置信度非常高[58]。這意味著,基于輸出,無法推斷輸入是否可能不正確或損壞。此外,有關于確定性神經網絡的研究表明,對于許多任務來說,對抗實例的存在是不可避免的[47,46],進一步說,魯棒確定性學習是不可能的[59]。雖然合理的局部驗證(證明不存在對抗性例子)對于向用戶保證在特定情況下的正確性能是必要的,但貝葉斯學習范式提供了一種系統的方法,可以在更一般的水平上減輕這些不可能結果的擔憂。通過引入校準的不確定性,貝葉斯神經網絡在理論和經驗上都被證明對對抗性例子具有更強的魯棒性,并且可以潛在地削弱或擊敗確定性網絡的不可能結果[53,23,7]。因此,在需要安全性和魯棒性證明的安全關鍵場景中,貝葉斯神經網絡似乎是一種自然和可行的部署方案。
盡管貝葉斯神經網絡有許多吸引人的特性,但無法用確定性神經網絡開發的技術直接分析貝葉斯神經網絡[168]。貝葉斯網絡與確定性網絡的主要區別在于前者的參數值具有后驗分布。為了驗證這種模型的魯棒性,必須找到一種方法來執行確定性神經網絡可用的正確性分析,同時以合理的方式考慮到范圍或可能的參數值。這樣做是在安全關鍵場景中安全部署貝葉斯神經網絡的必要前提。在這篇論文中,我們開發了一些工具,允許我們在貝葉斯環境下利用確定性神經網絡的魯棒性量化方面的進展。特別地,我們研究了貝葉斯神經網絡魯棒性的兩個概念,這允許從業者在給定貝葉斯神經網絡部署之前量化其最壞情況的行為。貝葉斯神經網絡魯棒性的第一個概念是概率魯棒性(在第4章中定義)。這允許從業者理解模型固有的隨機性及其對抗魯棒性之間的相互作用,也可以被視為不確定性的最壞情況度量。魯棒性的第二個概念是貝葉斯決策魯棒性。貝葉斯神經網絡除了在其權重上有一個分布之外,還與確定性神經網絡不同,因為我們必須對其預測分布和錯誤決策的風險或損失進行推理,以便做出預測。決策魯棒性考慮了考慮中的貝葉斯模型的決策過程,并允許我們證明即使在對手存在的情況下,也會發布正確的決策。這些定義允許我們量化貝葉斯神經網絡的概率正確性。
自然智能具有從環境中不斷學習的能力,環境是不斷變化的,因此產生了需要應對的不確定性,以確保生存。相比之下,人工智能(AI)通常只在特定的訓練階段從數據中學習一次,很少明確表示或利用不確定性。在這篇論文中,我們通過設計和理解基于神經網絡的模型,在這些方面為改進人工智能做出貢獻,這些模型可以持續學習,并明確表示幾種不確定性來源,最終目標是獲得有用、可靠和實用的模型。
我們首先將這項研究置于一個更廣泛的背景下,并提供對不確定性估計和持續學習領域的介紹。對于那些有興趣熟悉這些主題的人來說,這個詳細的回顧可以成為一個入門點。在奠定這個基礎之后,我們將深入研究如何持續學習一組任務的具體問題,并提出我們基于神經網絡系統解決這一問題的方法。更具體地說,我們訓練一個元網絡為推理模型生成特定于任務的參數,并表明,在這種設置下,可以在元級別使用簡單的正則化來防止遺忘。由于任務特定解決方案的存在,出現了必須推斷不可見輸入所屬的任務的問題。我們研究了解決這一任務推理問題的兩種主要方法:(i)基于重玩的方法和(ii)基于不確定性的方法。盡管基于重放的任務推理在簡單的基準測試中表現出了顯著的性能,但我們的這種方法的實現依賴于生成建模,隨著任務復雜性的增加,這變得不成比例地困難。另一方面,基于不確定性的任務推理不依賴外部模型,更容易擴展到復雜的場景。因為校準任務推斷所需的不確定性是困難的,在實踐中,人們經常求助于應該知道他們不知道的東西的模型。這在理論上可以通過對模型參數的貝葉斯處理來實現。然而,由于對基于神經網絡的模型的先驗知識的難以解釋,也就很難解釋模型知道什么是不知道的。這種認識的意義超越了持續學習,更普遍地影響了當前機器學習模型如何處理看不見的輸入。我們討論了神經網絡中與選擇先驗知識相關的復雜性,并表明常見的選擇往往導致不確定性,這些不確定性在本質上不能反映特定的需求數據,如檢測模型不應推廣到的看不出的輸入。
總體而言,本文對當前深度學習研究中的兩個重要課題——不確定性估計和持續學習進行了總結和貢獻,同時揭示了現有的挑戰,評估了新的方法,并確定了未來研究的有前途的途徑。
對稱和不變性在機器學習任務中無處不在。雖然卷積神經網絡以成功利用平移對稱性而聞名,但其他對稱性直到最近才經常被忽視。將對稱性或不變性納入神經網絡體系結構可以避免昂貴的數據增強,并減輕對大型數據集的需求。提出的工作集中在不變和等變神經網絡層,把對稱性放在神經網絡架構設計的中心。具體而言,本文涵蓋了三種不同的不變性:排列不變性、旋轉-平移不變性和標簽不變性。
圖神經網絡(GNNs)是廣泛使用的深度學習模型,從圖結構數據學習有意義的表示。由于底層循環結構的有限性質,當前的GNN方法可能難以捕獲底層圖中的長期依賴關系。為了克服這個困難,我們提出了一個圖學習框架,稱為隱式圖神經網絡(IGNN),其中的預測是基于一個涉及隱式定義的“狀態”向量的不動點平衡方程的解。利用Perron-Frobenius理論推導了保證框架良好性的充分條件。利用隱式微分,我們推出了一個易于處理的投影梯度下降方法來訓練框架。對一系列任務進行的實驗表明,IGNNs始終能夠捕獲長期依賴關系,并優于最先進的GNN模型。
在本章中,我們將訪問圖神經網絡(GNNs)的一些理論基礎。GNNs最有趣的方面之一是,它們是根據不同的理論動機獨立開發的。一方面,基于圖信號處理理論開發了GNN,將歐氏卷積推廣到非歐氏圖域[Bruna et al., 2014]。然而,與此同時,神經信息傳遞方法(構成了大多數現代GNN的基礎)被類比提出,用于圖模型中的概率推理的信息傳遞算法[Dai等人,2016]。最后,基于GNN與weisfeler - lehman圖同構檢驗的聯系,許多研究對其進行了激發[Hamilton et al., 2017b]。
將三個不同的領域匯聚成一個單一的算法框架是值得注意的。也就是說,這三種理論動機中的每一種都有其自身的直覺和歷史,而人們所采用的視角可以對模型的發展產生實質性的影響。事實上,我們推遲對這些理論動機的描述直到引入GNN模型本身之后,這并非偶然。在這一章,我們的目標是介紹這些背后的關鍵思想不同理論的動機,這樣一個感興趣的讀者可以自由探索和組合這些直覺和動機,因為他們認為合適的。
圖神經網絡是解決各種圖學習問題的有效的機器學習模型。盡管它們取得了經驗上的成功,但是GNNs的理論局限性最近已經被揭示出來。因此,人們提出了許多GNN模型來克服這些限制。在這次調查中,我們全面概述了GNNs的表達能力和可證明的強大的GNNs變體。