亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

題目: GRAPH-BERT : Only Attention is Needed for Learning Graph Representations

摘要: 主要的圖神經網絡過度依賴于圖鏈接,已經出現了一些嚴重的性能問題,如假死問題和過平滑問題。更重要的是,內在的相互連接特性阻止了圖數據中的并行化,這對于大型圖數據非常重要,因為內存限制限制了節點間的批處理。在本文中,我們將介紹一種新的圖神經網絡,即基于圖的BERT(Graph-BERT ),它完全基于注意力機制,沒有任何圖的卷積或聚合操作。我們不再用完整的大輸入圖來訓練Graph-BERT,而是在局部上下文中用抽取的無鏈接子圖來訓練Graph-BERT。Graph-BERT可以在獨立模式下有效地學習。同時,如果有任何監督的標簽信息或特定的應用導向的目標可用,一個預先訓練的Graph-BERT也可以直接轉移到其他應用任務中,或者進行必要的微調。我們在幾個圖基準數據集上測試了Graph-BERT的有效性。在節點屬性重構和結構恢復任務的預訓練Graph-BERT的基礎上,進一步對節點分類和圖聚類任務的Graph-BERT進行微調。實驗結果表明,該算法在學習效率和學習效果上都優于現有的神經網絡算法。

付費5元查看完整內容

相關內容

BERT全稱Bidirectional Encoder Representations from Transformers,是預訓練語言表示的方法,可以在大型文本語料庫(如維基百科)上訓練通用的“語言理解”模型,然后將該模型用于下游NLP任務,比如機器翻譯、問答。

題目: KG-BERT: BERT for Knowledge Graph Completion

摘要: 知識圖譜是許多人工智能任務的重要資源,但往往是不完整的。在這項工作中,我們使用預訓練的語言模型來對知識圖譜進行補全。我們將知識圖譜中的三元組視為文本序列,并提出了一種新的框架結構——知識圖譜雙向編碼方向轉換器(KG-BERT)來對這些三元組進行建模。該方法以一個三元組的實體描述和關系描述作為輸入,利用KG-BERT語言模型計算三元組的評分函數。在多個基準知識圖譜上的實驗結果表明,我們的方法在三元組分類、鏈接預測和關系預測任務上都能達到最新的性能。

付費5元查看完整內容

在多標簽文本分類(MLTC)中,一個樣本可以屬于多個類。可以看出,在大多數MLTC任務中,標簽之間存在依賴關系或相互關系。現有的方法往往忽略了標簽之間的關系。本文提出了一種基于圖的注意力網絡模型來捕獲標簽間的注意依賴結構。圖注意力網絡使用一個特征矩陣和一個相關矩陣來捕獲和探索標簽之間的關鍵依賴關系,并為任務生成分類器。將生成的分類器應用于文本特征提取網絡(BiLSTM)獲得的句子特征向量,實現端到端訓練。注意力允許系統為每個標簽分配不同的權值給相鄰節點,從而允許系統隱式地學習標簽之間的依賴關系。在5個實際的MLTC數據集上驗證了模型的結果。與以往的先進模型相比,該模型具有相似或更好的性能。

付費5元查看完整內容

題目: Factorized Graph Representations for Semi-Supervised Learning from Sparse Data

簡介:

節點分類是圖數據管理中的一個重要問題。它通常由不同的標簽傳播方法來解決,這些方法從幾個有標簽的種子節點開始迭代地工作。對于具有類之間任意兼容性的圖,這些方法主要依賴于了解必須由領域專家或啟發式提供的兼容性矩陣。我們能否以一種有原則和可伸縮的方式,從一個稀疏標記的圖中直接估計正確的兼容性?我們肯定地回答了這個問題,并提出了一種稱為遠程兼容性評估的方法,這種方法甚至可以在標記極為稀疏的圖(例如,標記了10,000個節點中的1個)上工作,而這只是標記其余節點所需時間的一小部分。我們的方法首先創建多個因式圖表示(大小與圖無關),然后對這些更小的圖進行估計。我們將代數放大定義為利用算法更新方程的代數性質來放大稀疏信號的一般思想。我們證明了我們的估計器要比其他方法快幾個數量級,并且端到端的分類精度與使用標準兼容性相當。這使得它對于任何現有的標簽傳播方法都是一個廉價的預處理步驟,并且消除了當前對啟發式的依賴。

付費5元查看完整內容

機器學習的許多應用都需要一個模型來對測試樣本做出準確的預測,這些測試樣本在分布上與訓練示例不同,而在訓練期間,特定于任務的標簽很少。應對這一挑戰的有效方法是,在數據豐富的相關任務上對模型進行預訓練,然后在下游任務上對其進行微調。盡管預訓練在許多語言和視覺領域都是有效的,但是如何在圖數據集上有效地使用預訓練仍是一個有待解決的問題。本文提出了一種新的圖神經網絡訓練策略和自監督方法。我們的策略成功的關鍵是在單個節點以及整個圖的層次上預訓練一個具有強表示能力的GNN,以便GNN能夠同時學習有用的局部和全局表示。我們系統地研究了多類圖分類數據集的預處理問題。我們發現,在整個圖或單個節點級別上對GNN進行預訓練的樸素策略改進有限,甚至可能導致許多下游任務的負遷移。相比之下,我們的策略避免了負遷移,顯著提高了下游任務的泛化能力,使得ROC-AUC相對于未經訓練的模型提高了9.4%,實現了分子特性預測和蛋白質功能預測的最好性能。

付費5元查看完整內容

題目: MEMORY-BASED GRAPH NETWORKS

摘 要:

圖神經網絡是一類對任意拓撲結構的數據進行操作的深度模型。我們為GNNs引入了一個有效的記憶層,它可以聯合學習節點表示并對圖進行粗化。在此基礎上,我們還引入了兩個新的網絡:基于記憶的GNN (MemGNN)和可以學習層次圖表示的圖存儲網絡(GMN)。實驗結果表明,所提出的模型在9個圖分類和回歸基準中有8個達到了最新的結果。我們也證明了這些表示學習可以對應于分子數據中的化學特征。

付費5元查看完整內容

簡介: 主導圖神經網絡(GNN)完全依賴圖連接,已經存在幾個嚴重的性能問題,例如,過度平滑問題。此外,由于內存限制了節點之間的批處理,因此固定連接的特性會阻止圖形內的并行化,這對于大型數據輸入至關重要。在本文中,引入一種新的圖神經網絡,即GRAPH-BERT(基于圖的BERT),該網絡僅基于注意力機制而無需任何圖卷積或聚合算法。本文在局部上下文中使用采樣的無連接子圖訓練GRAPH-BERT。此外,如果有任何監督的標簽信息或某些面向應用的目標,則可以使用其他最新的輸出層對預訓練的GRAPH-BERT模型進行微調。我們已經在多個基準圖數據集上測試了GRAPH-BERT的有效性。在預訓練的GRAPH-BERT具有節點屬性重構和結構恢復任務的基礎上,我們進一步針對節點分類和圖聚類任務進一步調整GRAPH-BERT。

付費5元查看完整內容

【導讀】近年來,隨著網絡數據量的不斷增加,挖掘圖形數據已成為計算機科學領域的熱門研究課題,在學術界和工業界都得到了廣泛的研究。 但是,大量的網絡數據為有效分析帶來了巨大的挑戰。 因此激發了圖表示的出現,該圖表示將圖映射到低維向量空間中,同時保持原始圖結構并支持圖推理。 圖的有效表示的研究具有深遠的理論意義和重要的現實意義,本教程將介紹圖表示/網絡嵌入的一些基本思想以及一些代表性模型。

關于圖或網絡的文獻有兩個名稱:圖表示和網絡嵌入。我們注意到圖和網絡都指的是同一種結構,盡管它們每個都有自己的術語,例如,圖和網絡的頂點和邊。挖掘圖/網絡的核心依賴于正確表示的圖/網絡,這使得圖/網絡上的表示學習成為學術界和工業界的基本研究問題。傳統表示法直接基于拓撲圖來表示圖,通常會導致許多問題,包括稀疏性,高計算復雜性等,從而激發了基于機器學習的方法的出現,這種方法探索了除矢量空間中的拓撲結構外還能夠捕獲額外信息的潛在表示。因此,對于圖來說,“良好”的潛在表示可以更加精確的表示圖形。但是,學習網絡表示面臨以下挑戰:高度非線性,結構保持,屬性保持,稀疏性。

深度學習在處理非線性方面的成功為我們提供了研究新方向,我們可以利用深度學習來提高圖形表示學習的性能,作者在教程中討論了將深度學習技術與圖表示學習相結合的一些最新進展,主要分為兩類方法:面向結構的深層方法和面向屬性的深層方法。

對于面向結構的方法:

  • 結構性深層網絡嵌入(SDNE),專注于保持高階鄰近度。
  • 深度遞歸網絡嵌入(DRNE),其重點是維護全局結構。
  • 深度超網絡嵌入(DHNE),其重點是保留超結構。

對于面向屬性的方法:

  • 專注于不確定性屬性的深度變異網絡嵌入(DVNE)。
  • 深度轉換的基于高階Laplacian高斯過程(DepthLGP)的網絡嵌入,重點是動態屬性。

本教程的第二部分就以上5種方法,通過對各個方法的模型介紹、算法介紹、對比分析等不同方面進行詳細介紹。

1、Structural Deep Network Embedding

network embedding,是為網絡中的節點學習出一個低維表示的方法。目的在于在低維中保持高度非線性的網絡結構特征,但現有方法多采用淺層網絡不足以挖掘高度非線性,或同時保留局部和全局結構特征。本文提出一種結構化深度網絡嵌入方法,叫SDNE該方法用半監督的深度模型來捕捉高度非線性結構,通過結合一階相似性(監督)和二階相似性(非監督)來保留局部和全局特征。

2、 Deep recursive network embedding with regular equivalence

網絡嵌入旨在保留嵌入空間中的頂點相似性。現有方法通常通過節點之間的連接或公共鄰域來定義相似性,即結構等效性。但是,位于網絡不同部分的頂點可能具有相似的角色或位置,即規則的等價關系,在網絡嵌入的文獻中基本上忽略了這一點。以遞歸的方式定義規則對等,即兩個規則對等的頂點具有也規則對等的網絡鄰居。因此,文章中提出了一種名為深度遞歸網絡嵌入(DRNE)的新方法來學習具有規則等價關系的網絡嵌入。更具體地說,我們提出了一種層歸一化LSTM,以遞歸的方式通過聚合鄰居的表示方法來表示每個節點。

3、Structural Deep Embedding for Hyper-Networks

是在hyperedge(超邊是不可分解的)的基礎上保留object的一階和二階相似性,學習異質網絡表示。于與HEBE的區別在于,本文考慮了網絡high-oeder網絡結構和高度稀疏性。 傳統的基于clique expansion 和star expansion的方法,顯式或者隱式地分解網絡。也就說,分解后hyper edge節點地子集,依然可以構成一個新的超邊。對于同質網絡這個假設是合理地,因為同質網絡地超邊,大多數情況下都是根據潛在地相似性(共同地標簽等)構建的。

4、 Deep variational network embedding in wasserstein space

大多數現有的嵌入方法將節點作為點向量嵌入到低維連續空間中。這樣,邊緣的形成是確定性的,并且僅由節點的位置確定。但是,現實世界網絡的形成和發展充滿不確定性,這使得這些方法不是最優的。為了解決該問題,在本文中提出了一種新穎的在Wasserstein空間中嵌入深度變分網絡(DVNE)。所提出的方法學習在Wasserstein空間中的高斯分布作為每個節點的潛在表示,它可以同時保留網絡結構并為節點的不確定性建模。具體來說,我們使用2-Wasserstein距離作為分布之間的相似性度量,它可以用線性計算成本很好地保留網絡中的傳遞性。此外,我們的方法通過深度變分模型隱含了均值和方差的數學相關性,可以通過均值矢量很好地捕獲節點的位置,而由方差可以很好地捕獲節點的不確定性。此外,本文方法通過保留網絡中的一階和二階鄰近性來捕獲局部和全局網絡結構。

5、 Learning embeddings of out-of-sample nodes in dynamic networks

迄今為止的網絡嵌入算法主要是為靜態網絡設計的,在學習之前,所有節點都是已知的。如何為樣本外節點(即學習后到達的節點)推斷嵌入仍然是一個懸而未決的問題。該問題對現有方法提出了很大的挑戰,因為推斷的嵌入應保留復雜的網絡屬性,例如高階鄰近度,與樣本內節點嵌入具有相似的特征(即具有同質空間),并且計算成本較低。為了克服這些挑戰,本文提出了一種深度轉換的高階拉普??拉斯高斯過程(DepthLGP)方法來推斷樣本外節點的嵌入。 DepthLGP結合了非參數概率建模和深度學習的優勢。特別是,本文設計了一個高階Laplacian高斯過程(hLGP)來對網絡屬性進行編碼,從而可以進行快速和可擴展的推理。為了進一步確保同質性,使用深度神經網絡來學習從hLGP的潛在狀態到節點嵌入的非線性轉換。 DepthLGP是通用的,因為它適用于任何網絡嵌入算法學習到的嵌入。

付費5元查看完整內容

題目: Attention Models in Graphs: A Survey

摘要: 圖結構數據自然地出現在許多不同的應用領域。通過將數據表示為圖形,我們可以捕獲實體(即節點)以及它們之間的關系(即邊)。許多有用的見解可以從圖形結構的數據中得到,這一點已被越來越多的關注于圖形挖掘的工作所證明。然而,在現實世界中,圖可以是大的-有許多復雜的模式-和噪聲,這可能會給有效的圖挖掘帶來問題。解決這一問題的一個有效方法是將“注意力”融入到圖挖掘解決方案中。注意機制允許一個方法關注圖中與任務相關的部分,幫助它做出更好的決策。在這項工作中,我們對圖形注意模型這一新興領域的文獻進行了全面而集中的調查。我們介紹了三個直觀的分類組現有的工作。它們基于問題設置(輸入和輸出類型)、使用的注意機制類型和任務(例如,圖形分類、鏈接預測等)。我們通過詳細的例子來激勵我們的分類法,并使用每種方法從一個獨特的角度來調查競爭方法。最后,我們強調了該領域的幾個挑戰,并討論了未來工作的前景。

作者簡介: Ryan A. Rossi,目前在Adobe Research工作,研究領域是機器學習;涉及社會和物理現象中的大型復雜關系(網絡/圖形)數據的理論、算法和應用。在普渡大學獲得了計算機科學博士和碩士學位。

Nesreen K. Ahmed,英特爾實驗室的高級研究員。她在普渡大學計算機科學系獲得博士學位,在普渡大學獲得統計學和計算機科學碩士學位。研究方向是機器學習和數據挖掘,涵蓋了大規模圖挖掘、統計機器學習的理論和算法,以及它們在社會和信息網絡中的應用。

付費5元查看完整內容

題目:GNEG:Graph-Based Negative Sampling for word2vec

論文摘要; 負抽樣是分布式詞表示學習的一個重要組成部分。我們假設,考慮全局的語料庫級信息,為每個目標詞生成不同的噪聲分布,比原始的基于頻率的分布更能滿足每個訓練詞的反例要求。為此,我們從語料庫中預先計算單詞的共現統計量,并將其應用于隨機游走等it網絡算法中。我們通過一系列實驗驗證了這一假設,實驗結果表明,我們的方法將單詞類比任務提高了約5%,并將單詞相似性任務的性能提高了約1%。

付費5元查看完整內容

Knowledge graphs are important resources for many artificial intelligence tasks but often suffer from incompleteness. In this work, we propose to use pre-trained language models for knowledge graph completion. We treat triples in knowledge graphs as textual sequences and propose a novel framework named Knowledge Graph Bidirectional Encoder Representations from Transformer (KG-BERT) to model these triples. Our method takes entity and relation descriptions of a triple as input and computes scoring function of the triple with the KG-BERT language model. Experimental results on multiple benchmark knowledge graphs show that our method can achieve state-of-the-art performance in triple classification, link prediction and relation prediction tasks.

北京阿比特科技有限公司