題目: Lorentzian Graph Convolutional Networks 會議: WWW 2021
圖卷積神經網絡(GCN)最近受到了大量研究者的關注。大多數GCN使用歐幾里得幾何學習節點的特征表示,但是對于具有無標度或層次結構的圖,歐幾里得幾何可能會產生較高的失真。近來,一些GCN使用非歐幾里得幾何,例如雙曲幾何,解決以上問題。盡管雙曲GCN展示了其性能,但是現有的雙曲圖操作實際上不能嚴格遵循雙曲幾何,這可能會限制雙曲幾何的能力,從而損害雙曲GCN的性能。 在本文中,我們提出了一種新穎的洛倫茲圖卷積網絡(LGCN),它在雙曲空間的雙曲面模型上設計了統一的圖操作框架。從該框架派生出嚴格的雙曲圖操作,包括特征變換和非線性激活,以確保變換后的節點特征遵循雙曲幾何。此外,基于洛倫茲距離的質心,我們提出了一種優雅的雙曲鄰居聚合方式,以確保被聚合的節點特征滿足數學意義。并且,我們從理論上證明了一些提出的操作等同于在另一類雙曲幾何中的定義,表明所提出的方法填補了雙曲面模型缺乏嚴謹的圖操作的空白。
現有的協同過濾(CF)方法大多是基于匹配的思想設計的,即通過使用淺層或深層模型從數據中學習用戶和項目嵌入,試圖捕獲數據中的關聯關聯模式,這樣用戶嵌入就可以通過設計或學習的相似函數與相關的物品嵌入相匹配。然而,推薦作為一種認知而非感知智能任務,不僅需要從數據中進行模式識別和匹配的能力,還需要對數據進行認知推理的能力。在本文中,我們將協同過濾(CF)提升為協同推理(CR),即每個用戶知道推理空間的一部分,并在空間中協作進行推理,以估計彼此的偏好。在技術上,我們提出了一個神經協作推理(NCR)框架來連接學習和推理。具體來說,我們整合了表示學習和邏輯推理的能力,其中表示從感知的角度捕捉數據中的相似模式,而邏輯促進了知情決策的認知推理。然而,一個重要的挑戰是在一個共享的體系結構中架起可微分神經網絡和符號推理的橋梁,以進行優化和推理。為解決這一問題,我們提出了一種模塊化的推理體系結構,將AND(∧)、OR(∨)、NOT(?)等邏輯運算學習為蘊涵推理(→)的神經模塊。這樣,邏輯表達式就可以等效地組織成神經網絡,從而在連續空間中進行邏輯推理和預測。與淺層、深層和推理模型相比,在真實數據集上的實驗驗證了我們的框架的優勢。
近年來,圍繞著圖卷積網絡(GCN)這一主題的文獻大量涌現。如何有效地利用復雜圖(如具有異構實體和關系類型的知識圖譜)中豐富的結構信息是該領域面臨的主要挑戰。大多數GCN方法要么局限于具有同質邊類型的圖(例如,僅引用鏈接),要么只專注于節點的表示學習,而不是針對目標驅動的目標共同傳播和更新節點和邊的嵌入。本文提出了一種新的框架,即基于知識嵌入的圖卷積網絡(KE-GCN),該框架結合了基于圖的信念傳播中知識嵌入的能力和高級知識嵌入(又稱知識圖嵌入)方法的優勢,從而解決了這些局限性。我們的理論分析表明,KE-GCN作為具體案例提供了幾種著名的GCN方法的優雅統一,并提供了圖卷積的新視角。在基準數據集上的實驗結果表明,與強基線方法相比,KE-GCN方法在知識圖譜對齊和實體分類等任務中具有明顯的優勢。
知識圖譜(KG)是一種靈活的結構,能夠描述數據實體之間的復雜關系。目前,大多數KG嵌入模型都是基于負采樣進行訓練的,即模型的目標是最大限度地增加KG內被連接實體的某些相似度,同時最小化被采樣的斷開實體的相似度。負抽樣通過只考慮負實例的子集,降低了模型學習的時間復雜度,這可能會由于抽樣過程的不確定性而無法提供穩定的模型性能。為了避免這一缺陷,我們提出了一種新的KG嵌入高效非采樣知識圖譜嵌入框架(NS-KGE)。其基本思想是在模型學習中考慮KG中的所有負面實例,從而避免負面抽樣。框架可應用于基于平方損失的知識圖譜嵌入模型或其損失可轉換為平方損失的模型。這種非抽樣策略的一個自然副作用是增加了模型學習的計算復雜度。為了解決這一問題,我們利用數學推導來降低非采樣損失函數的復雜度,最終為我們提供了比現有模型更好的KG嵌入效率和精度。在基準數據集上的實驗表明,NS-KGE框架在效率和準確率方面均優于傳統的基于負采樣的模型,該框架適用于大規模知識圖譜嵌入模型。
題目:Graph Structure Estimation Neural Networks
作者:Ruijia Wang, Shuai Mou, Xiao Wang, Wanpeng Xiao, Qi Ju, Chuan Shi and Xing Xie
簡介:盡管現有的GNN已成功應用于各種場景,但存在一個基本的假設:所觀察到的圖結構是正確的且符合GNN的性質。實際上,由于圖通常抽取自復雜的交互系統,該假設總是被違反。原因之一是這些交互系統通常包含不確定性或錯誤。例如,在蛋白質相互作用圖中,傳統的實驗誤差是錯誤的主要來源。另一個原因是數據缺失是不可避免的。例如,Internet構建的圖通過檢查路由表或跟蹤路由路徑集合確定,而這兩個表僅給出了邊的子集。已經有研究表明不可靠的圖結構可能會嚴重限制GNN的表示能力,其中一個典型的例子是GNN的性能會在同配性(即同一社區內的節點傾向于相互連接)差的圖上大大降低。簡而言之,在實際的圖中普遍存在缺失、無意義甚至錯誤的邊,這導致其與GNN的性質不匹配,并對結果的準確性或正確性產生影響。因此,迫切需要探索適宜于GNN的圖結構。
然而,有效學習適合于GNN的圖結構在技術上具有挑戰性。我們認為,需要解決兩個障礙。(1)應考慮圖生成機制。網絡科學的很多文獻中已經證明圖的生成可能受某些基本原則的約束,如隨機塊模型模型。考慮這些原則,可以從根本上驅使學得的圖保持規則的全局結構,并對實際觀測中的噪聲更魯棒。不幸的是,大多數當前方法對每條邊進行參數化,沒有考慮全局結構和圖的基礎生成機制,因此學得的圖對噪聲和稀疏性的容忍度較低。(2)應該利用多方面信息以減少偏差。從一個信息源學習圖結構不可避免地會導致偏差和不確定性。合理的假設是如果一條邊在多次測量中存在,則邊存在的置信度會更大。因此,一個可靠的圖結構應該考慮全面的信息,盡管要獲得多視圖的信息并描述它們與GNN的關系是很復雜的。現有的方法主要利用特征相似性,從而使學得的圖易受單一視圖偏差的影響。
為了解決上述問題,在本文中我們提出了圖結構估計神經網絡(GEN),通過估計適宜于GNN的圖結構來提高節點分類性能。我們首先分析GNN的性質以匹配適當的圖生成機制。GNN作為低通濾波器,平滑鄰域以使相鄰節點表示相似,適用于具有社區結構的圖。因此,我們提出結構模型約束圖生成過程,假設圖是從隨機塊模型(SBM)中產生的。此外,除觀察到的圖結構和節點特征外,我們還創造性地利用多階鄰域信息來規避偏差,并提出觀測模型將上述多視圖信息作為最佳圖結構的觀測共同建模。為了估計最佳圖結構,我們在GNN訓練期間構造觀測集合,并基于結構和觀測模型應用貝葉斯推斷來計算圖結構的后驗分布。最后,估計的圖結構和GNN的參數通過精心設計的迭代優化實現彼此增強。
雙曲空間提供了豐富的設置來學習具有優越屬性的嵌入,這些屬性在計算機視覺、自然語言處理和計算生物學等領域得到了利用。最近,有人提出了幾種雙曲線方法來學習推薦設置中的用戶和項目的魯棒表示。但是,這些方法不能捕獲推薦領域中通常存在的高階關系。另一方面,圖卷積神經網絡(GCNs)則擅長通過對局部表示應用多層聚合來捕獲更高階的信息。在本文中,我們提出了一個用于協同過濾的雙曲線GCN模型,以一種新穎的方式將這些框架結合起來。我們證明了我們的模型可以在邊緣損失的情況下有效學習,并證明了雙曲空間在邊緣設置下具有理想的性質。在測試時,我們的模型使用雙曲距離來進行推理,雙曲距離保留了學習空間的結構。我們對三個公共基準進行了廣泛的實證分析,并與一組大型基線進行比較。我們的方法實現了非常具有競爭力的結果,并超過領先的基線,包括歐幾里德GCN對等物。我們進一步研究了雙曲線嵌入的性質,并表明它們對數據提供了有意義的見解。該工作的完整代碼可以在這里://github.com/layer6ai-labs/HGCF。
隨著深度學習的成功,基于圖神經網絡(GNN)的方法[8,12,30]已經證明了它們在分類節點標簽方面的有效性。大多數GNN模型采用消息傳遞策略[7]:每個節點從其鄰域聚合特征,然后將具有非線性激活的分層映射函數應用于聚合信息。這樣,GNN可以在其模型中利用圖結構和節點特征信息。
然而,這些神經模型的預測缺乏透明性,人們難以理解[36],而這對于與安全和道德相關的關鍵決策應用至關重要[5]。此外,圖拓撲、節點特征和映射矩陣的耦合導致復雜的預測機制,無法充分利用數據中的先驗知識。例如,已有研究表明,標簽傳播法采用上述同質性假設來表示的基于結構的先驗,在圖卷積網絡(GCN)[12]中沒有充分使用[15,31]。
作為證據,最近的研究提出通過添加正則化[31]或操縱圖過濾器[15,25]將標簽傳播機制納入GCN。他們的實驗結果表明,通過強調這種基于結構的先驗知識可以改善GCN。然而,這些方法具有三個主要缺點:(1)其模型的主體仍然是GNN,并阻止它們進行更可解釋的預測;(2)它們是單一模型而不是框架,因此與其他高級GNN架構不兼容;(3)他們忽略了另一個重要的先驗知識,即基于特征的先驗知識,這意味著節點的標簽完全由其自身的特征確定。
為了解決這些問題,我們提出了一個有效的知識蒸餾框架,以將任意預訓練的GNN教師模型的知識注入精心設計的學生模型中。學生模型是通過兩個簡單的預測機制構建的,即標簽傳播和特征轉換,它們自然分別保留了基于結構和基于特征的先驗知識。具體來說,我們將學生模型設計為參數化標簽傳播和基于特征的2層感知機(MLP)的可訓練組合。另一方面,已有研究表明,教師模型的知識在于其軟預測[9]。通過模擬教師模型預測的軟標簽,我們的學生模型能夠進一步利用預訓練的GNN中的知識。因此,學習的學生模型具有更可解釋的預測過程,并且可以利用GNN和基于結構/特征的先驗知識。我們的框架概述如圖1所示。 圖片
圖1:我們的知識蒸餾框架的示意圖。學生模型的兩種簡單預測機制可確保充分利用基于結構/功能的先驗知識。在知識蒸餾過程中,將提取GNN教師中的知識并將其注入學生。因此,學生可以超越其相應的老師,得到更有效和可解釋的預測。
我們在五個公共基準數據集上進行了實驗,并采用了幾種流行的GNN模型,包括GCN[12]、GAT[30]、SAGE[8]、APPNP[13]、SGC[33]和最新的深層GCN模型GCNII[4]作為教師模型。實驗結果表明,就分類精度而言,學生模型的表現優于其相應的教師模型1.4%-4.7%。值得注意的是,我們也將框架應用于GLP[15],它通過操縱圖過濾器來統一GCN和標簽傳播。結果,我們仍然可以獲得1.5%-2.3%的相對改進,這表明了我們框架的潛在兼容性。此外,我們通過探究參數化標簽傳播與特征轉換之間的可學習平衡參數以及標簽傳播中每個節點的可學習置信度得分,來研究學生模型的可解釋性。總而言之,改進是一致,并且更重要的是,它具有更好的可解釋性。
本文的貢獻總結如下:
點擊率(CTR)預測在推薦系統和在線廣告中起著至關重要的作用。這些應用程序中使用的數據是多字段類別數據,其中每個特征屬于一個字段。字段信息被證明是重要的,在他們的模型中有一些考慮字段的工作。在本文中,我們提出了一種新的方法來有效和高效地建模場信息。該方法是對FwFM的直接改進,被稱為場矩陣分解機(FmFM,或FM2)。在FmFM框架下,我們對FM和FwFM提出了新的解釋,并與FFM進行了比較。除了對交叉項進行修剪外,我們的模型還支持特定領域的可變維度的嵌入向量,這是一種軟修剪。在保持模型性能的同時,我們還提出了一種有效的最小化維數的方法。FmFM模型還可以通過緩存中間向量來進一步優化,它只需要數千次浮點運算(FLOPs)就可以做出預測。實驗結果表明,該算法的性能優于復雜的FFM算法。FmFM模型的性能也可以與DNN模型相媲美,DNN模型在運行時需要更多FLOPs 。
//www.zhuanzhi.ai/paper/39df3ac3e3acb641f86294a4d6acb39f
圖神經網絡(GNNs)在各種圖分析任務中得到了廣泛的關注,設計良好的消息傳播機制是GNNs中最基本的組成部分,并且被證明是十分有效的。雖然傳播機制多種多樣,但基本上都是以沿網絡拓撲傳播聚合節點特征的方式來利用拓撲與特征這兩種信息的。鑒于此,一個問題自然會被提出:盡管不同圖神經網絡有不同的傳播策略,是否存在統一的數學準則,能夠從本質上指導著不同的傳播機制?如果有的話,是什么?對這個問題較為完善的回答,可以幫助我們從宏觀的角度考察不同圖神經網絡之間的關系與差異。這樣的數學準則一旦被發現,就能夠幫助我們發現現有圖神經網絡的不足之處,進而激發更多新的圖神經網絡被設計出來。
本文中,我們首先分析了幾個具有代表性的圖神經網絡(例如GCN,SGC,PPNP)的傳播過程,并抽象出他們的共性。我們發現它們均可以歸結到一個統一的優化目標框架下,該優化目標由一個帶有靈活圖卷積核的特征擬合約束項和一個圖拉普拉斯正則項組成。特征擬合約束項旨在建立節點表示與原始節點特征之間的關系,而圖拉普拉斯正則項則起到拓撲平滑特征的作用。而對應圖神經網絡傳播后的節點表示則可以隱式地看做這個統一優化目標的最優解。
同時,基于該統一優化目標框架也較容易發現現有圖神經網絡傳播策略的不足之處,為設計新的圖神經網絡也提供了機會。通常來說,設計新的圖神經網絡往往側重于設計特定的譜圖濾波器或者空域聚合策略,而該統一框架為實現這一目標提供了另一種新的途徑,即通過設計傳播過程對應的優化目標函數來得到新的GNNs。這樣,我們就能夠清楚地知道傳播過程背后的優化目標,使新設計的圖神經網絡更具有可解釋性和可靠性。
本文的主要貢獻總結如下:
提出了一個包含特征擬合項與圖正則化項的統一優化目標框架,并從理論上證明了該框架能夠解釋多個圖神經網絡的傳播策略,為理解圖神經網絡提供了一個較宏觀的視角,也為設計新的圖神經網絡帶來新思路。 基于該統一優化框架,我們設計了兩種具有靈活圖卷積核擬合項的圖神經網絡傳播目標,并給出相應的網絡模型。同時對他們的收斂性,表達能力等進行了理論分析。 我們在六個數據集上驗證了提出兩種圖神經網絡模型的效果,實驗也表明他們具有較好的緩解過平滑的能力。這進一步驗證了基于該統一框架設計新圖神經網絡的可行性。
圖卷積網絡(GCNs)在推薦方面表現出巨大的潛力。這歸功于他們通過利用來自高階鄰居的協作信號來學習良好的用戶和項目嵌入的能力。與其他GCN模型一樣,基于GCN的推薦模型也存在著臭名昭著的過平滑問題——當疊加更多層時,節點嵌入變得更加相似,最終無法區分,導致性能下降。最近提出的LightGCN和LR-GCN在一定程度上緩解了這一問題,但是我們認為他們忽略了推薦中出現過平滑問題的一個重要因素,即在圖卷積操作中,用戶的嵌入學習也可以涉及到與用戶沒有共同興趣的高階鄰域用戶。因此,多層圖卷積會使不同興趣的用戶具有相似的嵌入性。在本文中,我們提出了一種新的興趣感知消息傳遞GCN (IMP-GCN)推薦模型,該模型在子圖中進行高階圖卷積。子圖由具有相似興趣的用戶及其交互項組成。為了形成子圖,我們設計了一個無監督的子圖生成模塊,該模塊利用用戶特征和圖結構來有效識別具有共同興趣的用戶。為此,我們的模型可以避免將高階鄰域的負面信息傳播到嵌入學習中。在三個大規模基準數據集上的實驗結果表明,我們的模型可以通過疊加更多的層來獲得性能的提高,顯著優于目前最先進的基于GCN的推薦模型。
題目:Interpreting and Unifying Graph Neural Networks with An Optimization Framework
作者:Meiqi Zhu, Xiao Wang, Chuan Shi, Houye Ji, Peng Cui
簡介:圖神經網絡(GNNs)在各種圖分析任務中得到了相當廣泛的關注。設計良好的消息傳遞機制是經典圖神經網絡中最基本的組成成分,并且經驗與實驗證明該部分是非常有效的。雖然傳播機制多種多樣,但基本都是通過沿著網絡拓撲結構聚合節點特征來利用網絡結構與特征信息的。鑒于此,一個問題自然產生:”盡管圖神經網絡有著不同的傳播策略,是否存在一個統一的數學準則,從本質上指導這不同圖神經網絡的傳播過程?如果有的話,是什么?“ 對這個問題較為完善的答案,可以幫助我們從宏觀上有原則地考察不同圖神經網絡之間的關系和差異,并且這樣的數學準則一旦被提出,就能夠幫助我們發現現有圖神經網絡的不足之處,進而激發設計更多新的圖神經網絡。
在本文中,我們致力于建立不同圖神經網絡傳播機制之間的聯系,將他們的傳播過程建模成一個統一的優化問題。分析表明,多種經典圖神經網絡的傳播機制實際上是在優化一個結合了特征擬合約束項和圖拉普拉斯正則化約束項的優化目標,而他們傳播后的節點表示可以隱式地看作是這個統一優化目標的最優解。特征擬合項旨在建立節點表示與原始節點特征之間的關系,通常用于滿足特定圖神經網絡的不同需求。圖拉普拉斯正則化項則是這些圖神經網絡所共享的,它起到拓撲平滑特征的作用。
我們提出的統一優化目標框架,總結了幾種最具代表性的GNN之間的共性,不僅為探索不同GNN之間的關系提供了一個宏觀的視角,也進一步為靈活設計GNN提供了新的機會。傳統上,在提出一種新的圖神經網絡模型時,我們通常側重于設計特定的譜域濾波器或空域聚合策略。現在,統一的優化目標框架為實現這一目標提供了另一種新的途徑,即通過設計傳播目標函數而得到新的圖神經網絡。這樣,我們就清楚地知道傳播過程背后的優化目標,使新設計的圖神經網絡更具有可解釋性和可靠性。舉例來說,本文我們發現現有的工作通常使用非常簡單的圖卷積核來設計特征擬合約束項,因此基于現有的不足開發出兩個具有可調低通和高通濾波器性質的靈活優化目標函數。此外,我們提供了收斂證明和表達能力的比較。在基準數據集上進行的大量實驗表明,基于本文優化框架提出的GNN模型不僅性能優于現有的優化方法,而且能夠很好地緩解過度平滑問題,進一步驗證了采用統一優化框架設計GNN的可行性。