亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

自然語言文本以非結構化的形式存在,它擁有大量關于我們所生活的世界的知識。隨著自然語言文獻數量的不斷增加,分析文本并從中提取重要知識已成為一項非常耗時的工作。這導致了信息提取(IE)和自然語言處理(NLP)方法和工具的出現。IE專注于從文本中自動提取結構化語義信息。對這些清晰概念和關系的提取和附加分析有助于發現文本中包含的各種見解。本文的研究重點是開放信息提取(OIE)這一新型信息提取方法。與傳統IE不同的是,OIE不局限于預先確定的一組特定于領域的關系,而是期望提取自然語言文本中發現的所有關系。已經提出了幾種神經OIE算法,將OIE作為序列標記或序列生成問題來處理。序列標記方法將輸入文本中的每個標記標識為屬于主題、謂詞或對象的,而序列生成方法在給定的輸入文本中每次生成一個單詞的元組。提出的方法有一定的局限性,這啟發了本研究。

首先,由于OIE數據集中標簽頻率不等,序列標記技術往往過于強調出現頻率較高的標簽。第二,序列生成系統不僅容易多次產生相同的事實,而且還容易第二,序列生成系統不僅容易多次產生相同的事實,而且容易在事實中產生重復的標記。第三,盡管序列生成系統在構建隱含事實時使用詞匯表中的詞匯,但它們缺乏明確鼓勵它們使用詞匯表中的詞匯或輸入文本的功能。第四,通過在實際輸入文本之外使用詞性(PoS)和依賴標記來合并語法信息的技術沒有充分利用大量的語法信息,特別是在依賴樹結構中反映出來的信息。

本文旨在解決OIE早期方法的上述缺點。在這項研究中,我只研究了神經OIE方法,因為它們優于先前的基于規則的系統,并解決了基于規則的系統中的錯誤傳播問題。在利用最先進的(SOTA)深度學習方法的同時,我給出了解決早期方法局限性的新方法。此外,我還研究了將知識圖(KGs)中的事實知識合并到神經OIE模型中是否可以提高OIE方法的性能。首先,我提出了三種用于OIE方法序列標簽的創新訓練程序,以消除模型上OIE數據集中標簽頻率不均勻造成的模型偏差。其次,我避免了在事實中創建多余的標記,并通過提供方法顯式地指導模型使用詞匯表或輸入文本中的術語,提高了模型創建隱式事實的能力。這種策略實際上大大減少了重復出現的令牌的數量。此外,當使用這種策略時,模型從原始短語中重復較少的標記,而從詞匯表中引入更多的標記,這意味著具有更好的生成隱含事實的能力。第三,我提出了一種最大化依賴樹拓撲提供的語法信息的方法。使用依賴樹的結構,我計算了輸入文本標記的語法豐富的向量表示。第四,我提出了一個用于序列標記和序列生成OIE技術的知識增強OIE框架,該框架基于在預訓練語言模型(PLMs)中嵌入知識的最新成果。經過徹底的測試,我確認知識增強的OIE框架提高了OIE模型的性能。最后,為神經OIE模型訓練提供了一種獨特的判別策略。

//ora.ox.ac.uk/objects/uuid:dea203ca-c183-4d25-9237-057abe0224dd

付費5元查看完整內容

相關內容

是一所英國研究型大學,也是羅素大學集團、英國“G5超級精英大學”,歐洲頂尖大學科英布拉集團、歐洲研究型大學聯盟的核心成員。牛津大學培養了眾多社會名人,包括了27位英國首相、60位諾貝爾獎得主以及數十位世界各國的皇室成員和政治領袖。2016年9月,泰晤士高等教育發布了2016-2017年度世界大學排名,其中牛津大學排名第一。

在過去的十年里,深度學習取得了巨大的成功,但在權值更新和訓練樣本數量方面,實際有用的深度模型的訓練仍然非常低效。為了解決這些問題的一個方面,本文研究了持續學習設置,該模型利用一系列的任務,利用之前的知識來快速學習新任務。持續學習的主要挑戰是,在為新任務更新模型時,避免模型災難性地忘記之前的信息。

//ora.ox.ac.uk/objects/uuid:7a3e5c33-864f-4cfe-8b80-e85cbf651946

為此,本文首先提出了一種持續學習算法,通過正則化兩個連續任務的條件似然之間的kl -散度來保留之前的知識。結果表明,這種正則化對網絡權值施加了二次懲罰,該懲罰基于上一個任務的最小曲率。其次,本文提出了一種更有效的持續學習算法,利用對過去任務的情景記憶作為約束,這樣當對新任務進行權重更新時,情景記憶的損失不會增加。結果表明,使用情景記憶約束目標比正則化網絡參數更有效。此外,為了提高學習新任務的速度,提出了使用組合任務描述符的聯合嵌入模型,大大提高了正向遷移。基于情景記憶的持續學習目標通過直接在損失函數中使用記憶來簡化。盡管它傾向于記憶出現在微小情景記憶中的數據,結果算法顯示出比使用記憶作為約束的算法更好的泛化。分析認為,這種驚人的概化是由于新任務數據帶來的正則化效應。然后利用該算法對合成數據和真實數據進行持續學習。為此,提出了一種方法,通過優化重放緩沖區上的事后遺忘損失,為每個任務生成合成數據點。設計了一個嵌套的持續學習優化目標,有效地利用這些綜合點來減少基于記憶的持續學習方法的遺忘。最后,本文提出了一種持續學習算法,在不重疊的特征子空間中學習不同的任務。通過保持不同任務的子空間相互正交來最小化重疊,可以減少這些任務表示之間的干擾。

付費5元查看完整內容

自深度學習革命以來,機器學習文獻中的一個總體趨勢是大型深度模型將持續優于小型淺模型。然而,這種趨勢也帶來了計算需求不斷增加的缺點,最近許多最先進的成果所需的資源遠遠超出了頂級行業實驗室的范圍。這些問題引發了關于機器學習研究民主化的非常現實的擔憂,如果不加以解決,最終可能會導致更多的權力和財富集中在今天能夠向其人工智能研究項目投資巨額資金的機構中。

遷移學習技術是這些問題的潛在解決方案,它允許大型的、通用的模型經過一次訓練,然后在各種情況下重用,只需要最少的計算來適應它們。本文探索了遷移學習的新算法和應用,包括分層強化學習、生成式建模和計算社會科學等領域。在分層強化學習領域內,本文提出一種算法,允許在選項之間遷移(即在不同的選項之間遷移)。例如,時間上抽象的動作),用于獨立但相似的任務。在生成建模領域,我們提出了一種算法,可以在新的數據上重用現有的可逆生成模型,而不產生任何額外的訓練成本。最后,在計算社會科學領域,本文表明,可以從人類設計的模型中遷移知識,以檢測針對排名算法的惡意活動。

在這篇論文中提出的所有算法之間的共同線索是它們本質上是貝葉斯的。我們認為,貝葉斯范式自然適合于遷移學習應用,因為貝葉斯先驗可以作為適應性強的通用模型,通過推理過程可以轉換為特定任務的后驗。

付費5元查看完整內容

開放信息抽取(OpenIE)有助于從大型語料庫中獨立于領域的關系事實發現。該技術非常適合許多開放世界的自然語言理解場景,如自動知識庫構建、開放領域問題回答和顯式推理。由于深度學習技術的快速發展,許多神經OpenIE架構被提出,并取得了相當大的性能提升。在這項綜述中,我們提供了最先進的神經OpenIE模型的廣泛概述,它們的關鍵設計決策,優點和缺點。然后,我們討論了當前解決方案的局限性和OpenIE問題本身的開放性問題。最后,我們列出了有助于擴大其范圍和適用性的最新趨勢,為OpenIE的未來研究奠定了良好的方向。據我們所知,這是關于神經OpenIE的第一篇綜述

OpenIE(開放信息抽取)以n元關系元組的形式提取事實,即(arg1, predicate, arg2,…, argn),從非結構化文本,而不依賴預定義的本體模式[Niklaus等人,2018]。圖1顯示了從給定句子中提取的示例OpenIE元組。與傳統的(或封閉的)IE系統要求預定義關系相比,OpenIE減少了設計復雜的、領域相關的關系模式的人力勞動。因此,它有可能在最少的人工干預下處理異構語料庫。通過OpenIE,可以開發Web規模的無約束IE系統,獲取大量的知識。然后,收集的知識可以集成并用于廣泛的自然語言處理(NLP)應用,如文本蘊積[Berant et al., 2011],總結[Stanovsky et al., 2015],問題回答[Fader et al., 2014; Mausam, 2016]和顯性推理[Fu et al., 2019]。

在深度學習之前,傳統的OpenIE系統要么基于統計,要么基于規則,并且嚴重依賴于語法模式的分析[Niklaus et al., 2018]。最近,由于大規模OIE基準(如OIE2016 [Stanovsky and Dagan, 2016], CaRB [Bhardwaj et al., 2019]),以及基于神經的模型在各種NLP任務上的巨大成功(如NER [Li et al.,2022],機器翻譯[Yang et al.,2020]),神經OpenIE解決方案變得流行起來。從Stanovsky等人2018年和Cui等人2018年開始,基于神經的方法主導了OpenIE研究,因為它們在多個OpenIE基準上具有良好的提取質量。神經解決方案主要將OpenIE定義為序列標記問題或序列生成問題。基于標記的方法將句子中的標記或span標記為參數或謂詞[Stanovsky et al.,2018;Kolluru et al.,2020a;詹和趙,2020]。生成方法使用自回歸神經結構從句子輸入中生成提取[Cui et al.,2018;Kolluru et al.,2020b]。最近的一些工作側重于通過引入新的損失來校準神經模型參數[Jiang et al.,2019年],或通過引入新的目標來實現語法上合理和語義上一致的提取[Tang et al.,2020年]。

本文系統地回顧了神經OpenIE系統。現有的OpenIE綜述[Niklaus et al., 2018; Glauber and Claro, 2018; Claro et al., 2019]關注傳統解決方案,并沒有很好地涵蓋最近的基于神經的方法。由于范式的改變,OpenIE未來研究機會的潛在途徑也需要重新考慮。在這項綜述中,我們總結了最近的研究進展,分類現有的神經OpenIE方法,確定剩余的問題,并討論開放的問題和未來的方向。本文的主要貢獻如下: 1) 基于神經OpenIE模型的任務公式,提出了神經OpenIE模型的分類方法。然后我們討論他們的優點和缺點; 2) 我們對OpenIE的背景和評估方法進行了有益的討論。我們還提供了當前SOTA方法的詳細比較;3) 我們討論了制約OpenIE發展的三個挑戰:評估、注釋和應用。在此基礎上,我們突出未來的方向: 更開放、更專注、更統一

神經OpenIE解決方案

標記模型 Tagging-based Models

基于標記的模型將OpenIE定義為序列標記任務。給定一組標記,其中每個標記表示一個標記或標記跨度的一個角色(例如,參數,謂詞),模型學習每個標記或標記跨度以句子為條件的標記的概率分布。然后,OpenIE系統根據預測的標記輸出元組。基于標記的OpenIE模型與NLP中用于序列標記任務的其他神經模型(例如,NER NER [Li et al., 2022])共享類似的架構。一個模型通常包含三個模塊: 生成標記的分布式表示的嵌入層,生成上下文感知的標記表示的編碼器,以及基于標記表示和標記方案預測標記的標記解碼器。該嵌入層通常將詞嵌入與句法特征嵌入相結合,以更好地捕獲句子中的句法信息。最近,預訓練語言模型(PLMs)在各種NLP任務中表現出了卓越的性能[Devlin et al,2019]。因為PLM產生上下文感知的令牌表示,它們既可以用于產生令牌嵌入,也可以用作編碼器。根據標記方案,我們將模型分為基于token的模型、基于span的模型和基于圖的模型

生成式模型 Generative Models

生成模型將OpenIE定義為一個序列生成問題,它讀取一個句子并輸出一系列的提取。圖2(d)給出了生成序列的示例。形式上,給定一個令牌序列S和期望的提取序列Y = (y1, y2,…, ym),模型使條件概率Q P(Y |S) = IIp(yi |y1, y2, . . . , yi?1; S); 也有生成對抗性元組的工作,目的是使分類器難以將它們與真實元組區分開來。

模型結果比較

神經OpenIE系統在兩個流行的基準OIE2016和CaRB上的性能,每個都有多個部分匹配策略。每個評估設置下的最佳結果(基于可用的分數)以黑體顯示,次佳的結果以下劃線顯示。文獻中缺失的結果標記為“-”。由于logcian僅在中國基準上進行評估,而Adversarial-OIE僅在OIE2016上給出了precision-recall曲線,沒有AUC評分,因此這兩個系統不在這里列出。為了全面起見,我們還包括了兩種流行的基于規則的系統,即ClausIE和OpenIE4。

付費5元查看完整內容

【導讀】牛津大學的博士生Oana-Maria Camburu撰寫了畢業論文《解釋神經網絡 (Explaining Deep Neural Networks)》,系統性介紹了深度神經網絡可解釋性方面的工作,值得關注。

作者介紹:

Oana-Maria Camburu,來自羅馬尼亞,目前是牛津大學的博士生,主修機器學習、人工智能等方向。

Explaining Deep Neural Networks

深度神經網絡在計算機視覺、自然語言處理和語音識別等不同領域取得了革命性的成功,因此越來越受歡迎。然而,這些模型的決策過程通常是無法向用戶解釋的。在各種領域,如醫療保健、金融或法律,了解人工智能系統所做決策背后的原因至關重要。因此,最近研究了幾個解釋神經模型的方向。

在這篇論文中,我研究了解釋深層神經網絡的兩個主要方向。第一個方向由基于特征的事后解釋方法組成,也就是說,這些方法旨在解釋一個已經訓練過的固定模型(事后解釋),并提供輸入特征方面的解釋,例如文本標記和圖像的超級像素(基于特征的)。第二個方向由生成自然語言解釋的自解釋神經模型組成,也就是說,模型有一個內置模塊,為模型的預測生成解釋。在這些方面的貢獻如下:

  • 首先,我揭示了僅使用輸入特征來解釋即使是微不足道的模型也存在一定的困難。我表明,盡管有明顯的隱含假設,即解釋方法應該尋找一種特定的基于真實值特征的解釋,但對于預測通常有不止一種這樣的解釋。我還展示了兩類流行的解釋方法,它們針對的是不同類型的事實基礎解釋,但沒有明確地提及它。此外,我還指出,有時這兩種解釋都不足以提供一個實例上決策過程的完整視圖。

  • 其次,我還介紹了一個框架,用于自動驗證基于特征的事后解釋方法對模型的決策過程的準確性。這個框架依賴于一種特定類型的模型的使用,這種模型有望提供對其決策過程的洞察。我分析了這種方法的潛在局限性,并介紹了減輕這些局限性的方法。引入的驗證框架是通用的,可以在不同的任務和域上實例化,以提供現成的完整性測試,這些測試可用于測試基于特性的后特殊解釋方法。我在一個情緒分析任務上實例化了這個框架,并提供了完備性測試s1,在此基礎上我展示了三種流行的解釋方法的性能。

  • 第三,為了探索為預測生成自然語言解釋的自解釋神經模型的發展方向,我在有影響力的斯坦福自然語言推斷(SNLI)數據集之上收集了一個巨大的數據集,數據集約為570K人類編寫的自然語言解釋。我把這個解釋擴充數據集稱為e-SNLI。我做了一系列的實驗來研究神經模型在測試時產生正確的自然語言解釋的能力,以及在訓練時提供自然語言解釋的好處。

  • 第四,我指出,目前那些為自己的預測生成自然語言解釋的自解釋模型,可能會產生不一致的解釋,比如“圖像中有一只狗。”以及“同一幅圖片中沒有狗”。不一致的解釋要么表明解釋沒有忠實地描述模型的決策過程,要么表明模型學習了一個有缺陷的決策過程。我將介紹一個簡單而有效的對抗性框架,用于在生成不一致的自然語言解釋時檢查模型的完整性。此外,作為框架的一部分,我解決了使用精確目標序列的對抗性攻擊的問題,這是一個以前在序列到序列攻擊中沒有解決的場景,它對于自然語言處理中的其他任務很有用。我將這個框架應用到e-SNLI上的一個最新的神經模型上,并表明這個模型會產生大量的不一致性。

這項工作為獲得更穩健的神經模型以及對預測的可靠解釋鋪平了道路。

地址: //arxiv.org/abs/2010.01496

付費5元查看完整內容

本篇推薦來自CMU-LTI的小姐姐Zhuyun Dai博士論文《Neural Matching and Importance Learning in Information Retrieval》,是信息檢索領域值得關注的最新工作。

作者介紹:

Zhuyun Dai

卡內基梅隆大學語言技術學院(LTI)的博士生。研究方向是提升當今信息檢索系統的語言理解能力,構建下一代信息助理系統,幫助人們無縫地獲取世界上的知識。

//www.cs.cmu.edu/~zhuyund/index.html

信息檢索中的神經匹配與重要性學習

地址:

在50-60年的時間里,信息檢索(IR)系統依賴于詞匯袋方法。盡管詞包檢索有一些長期存在的限制,但解決這些問題的嘗試大多是不成功的。最近,神經網絡為自然語言建模提供了一種新的范式。這篇論文的目的是結合IR的觀點和神經網絡的關鍵優勢,以帶來更深入的語言理解IR。

本論文的第一部分主要研究如何匹配查詢和文檔。 最先進的排序器以前依賴于精確的詞匯匹配,這導致了眾所周知的詞匯不匹配問題。本文開發了將軟匹配引入相關性排序的神經模型。利用分布式文本表示,我們的模型可以對每個查詢詞和每個文檔詞進行軟匹配。由于軟匹配信號有噪聲,本文提出了一種新的核池技術,該技術根據軟匹配對相關性的貢獻對軟匹配進行分組。本文還研究了預訓練好的模型參數是否可以改善低資源域,以及模型架構在非文本檢索任務中是否可重用。我們的方法比以前最先進的排名系統有很大的優勢。

本論文的第二部分主要研究如何表示查詢和文檔。一個典型的搜索引擎使用頻率統計來確定單詞的權重,但是頻繁的單詞對文本的意義不一定是必要的。本論文開發的神經網絡,以估計詞的重要性,基于如何相互作用的語言語境。開發了一種弱監督方法,允許在沒有任何人工注釋的情況下訓練我們的模型。我們的模型可以離線運行,在不影響效率的前提下顯著提高了第一階段的檢索。

總之,本文提出了一種新的神經檢索范式,克服了傳統檢索模型在匹配和重要性加權方面的局限性。在神經相關性排序、深度檢索模型和深度文檔理解等方面提出了一些有前景的方法。

付費5元查看完整內容

摘要

知識圖譜(KGs)在工業和學術領域有很多應用,這反過來又推動了朝著大規模地從各種來源提取信息大量的研究工作。盡管付出了這些努力,但眾所周知,即使是最先進的KGs也是不完整的。鏈路預測(Link Prediction, LP)是一種根據KG中已存在的實體去預測缺失事實的任務,是一種有前途的、廣泛研究的、旨在解決KG的不完整的任務。在最近的LP技術中,基于KG嵌入的LP技術在一些基準測試中取得了很好的性能。盡管這方面的文獻在迅速增加,但對這些方法中各種設計選擇的影響卻沒有引起足夠的注意。此外,這一領域的標準做法是通過測試大量的事實來報告準確性,其中一些實體被過度表示;這允許LP方法通過只修改包含這些實體的結構屬性來展示良好的性能,而忽略KG的主要部分。本篇綜述分析提供了基于嵌入的LP方法的全面比較,將分析的維度擴展到常見的文獻范圍之外。我們通過實驗比較了16種最先進的方法的有效性和效率,考慮了一個基于規則的基準,并報告了文獻中最流行的基準的詳細分析。

介紹

知識圖譜(KGs)是真實世界信息的結構化表示。在一個KG中,節點表示實體,例如人和地點;標簽是連接它們的關系類型;邊是用關系連接兩個實體的特定事實。由于KGs能夠以機器可讀的方式對結構化、復雜的數據進行建模,因此它被廣泛應用于各個領域,從問答到信息檢索和基于內容的推薦系統,并且對于任何語義web項目都非常重要。常見的KG有FreeBase、WikiData、DBPedia、Yago和行業KG有谷歌KG、Satori和Facebook Graph Search。這些巨大的KG可以包含數百萬個實體和數十億個事實。

盡管有這樣的努力,但眾所周知,即使是最先進的KGs也存在不完整性問題。例如,據觀察FreeBase是用于研究目的的最大和最廣泛使用的KGs之一,但是在FreeBase中超過70%的個體沒有出生地點,超過99%的個體沒有民族。這使得研究人員提出了各種各樣的技術來糾正錯誤,并將缺失的事實添加到KGs中,通常稱為知識圖譜補全或知識圖譜增強任務。可以通過從外部源(如Web語料庫)提取新的事實,或者從KG中已經存在的事實推斷缺失的事實,來增長現有的KG。后來的方法,稱為鏈接預測(LP),是我們分析的重點。

LP一直是一個日益活躍的研究領域,最近受益于機器學習和深度學習技術的爆炸式增長。目前絕大多數LP模型使用原始的KG元素來學習低維表示,稱為知識圖譜嵌入,然后利用它們來推斷新的事實。在短短幾年的時間里,研究人員受到RESCAL和TransE等一些開創性工作的啟發,開發了幾十種基于不同的架構的新模型。這一領域的絕大多數論文都有一個共同點,但也存在問題,那就是它們報告的結果匯總在大量的測試事實之上,其中很少有實體被過度表示。因此,LP方法可以在這些基準上表現出良好的性能,只對這些實體進行訪問,而忽略其他實體。此外,當前最佳實踐的局限性可能使人們難以理解這一文獻中的論文是如何結合在一起的,以及如何描述出值得追求的研究方向。除此之外,目前技術的優點、缺點和局限性仍然是未知的,也就是說,幾乎沒有研究過允許模型更好地執行的情況。粗略地說,我們仍然不知道是什么可以讓一個事實變得容易還是難以學習和預測。

為了緩解上述問題,我們對一組有代表性的基于KG嵌入的LP模型進行了廣泛的比較分析。我們優先考慮最先進的系統,并考慮屬于廣泛的體系結構的工作。我們從零開始對這些系統進行訓練和調整,并通過提出新的、信息豐富的評估實踐,提供超出原始論文的實驗結果。具體是:

我們考慮了16個模型,屬于不同的機器學習和深度學習架構;我們還采用了一個基于規則挖掘的附加的最先進的LP模型作為基線。我們提供了實驗比較考慮的方法的詳細描述和相關文獻的總結,以及知識圖譜嵌入技術的教育分類。 我們考慮了5個最常用的數據集,以及目前用于基準測試的最流行的指標;我們詳細分析了它們的特點和特性。 對于每個模型,我們為每個數據集提供了效率和有效性的定量結果。 我們在訓練數據中提出一組結構特征,并測量它們如何影響每個模型對每個測試事實的預測性能。

方法概述

在本節中,我們描述并討論了基于潛在特征的知識管理的主要方法。正如在第2節中所描述的,LP模型可以利用各種各樣的方法和架構,這取決于它們如何對優化問題進行建模,以及它們實現來處理優化問題的技術。

為了概述它們高度不同的特征,我們提出了一種新的分類法,如圖1所示。我們列出了三個主要的系列模型,并進一步將它們劃分為更小的組,以獨特的顏色標識。對于每個組,我們都包括最有效的代表性模型,優先考慮那些達到最先進性能的模型,并且在任何可能的情況下,優先考慮那些具有公開可用實現的模型。結果是一組16個模型,基于極其多樣化的架構;這些是我們隨后在比較分析的實驗部分所使用的模型。對于每個模型,我們還報告了發表的年份以及從其他模型得到的信息。我們認為,這種分類有助于理解這些模型和在我們的工作中進行的實驗。表1報告了關于所包括的模型的進一步信息,例如它們的損失函數和空間復雜性。我們確定了三大類模型:1)張量分解模型;2)幾何模型;3)深度學習模型。

張量分解模型

這個家族的模型將LP解釋為一個張量分解的任務。這些模型隱式地將KG考慮為一個三維鄰接矩陣(即一個3維張量),由于KG的不完整性,這個鄰接矩陣只有部分可觀測。張量被分解成低維向量的組合(比如一個多線性乘積):這些向量被用作實體和關系的嵌入表示。張量分解的核心思想是,只要訓練集訓練不過擬合,則學習到的嵌入應該能夠泛化,并將高值與圖鄰接矩陣中不可觀測的真實事實相關聯。在實踐中,每個事實的得分都是通過對事實中涉及的特定嵌入進行組合計算得出的;通過優化所有訓練事實的評分函數,可以像往常一樣進行學習嵌入。這些模型傾向于使用很少或根本沒有共享參數;這使得它們特別容易訓練。

幾何模型

幾何模型將關系解釋為潛在空間的幾何變換。對于給定的事實,頭實體嵌入進行空間轉換τ,使用嵌入的關系作為參數的值。對事實評分的值是結果向量和尾向量之間的距離;這樣則可以使用距離函數計算δ(例如L1和L2范數)。

?

深度學習模型

深度學習模型使用深度神經網絡來執行LP任務。神經網絡學習參數,如權重和偏差,它們結合輸入數據,以識別顯著模式。深度神經網絡通常將參數組織成獨立的層,通常穿插非線性激活函數。

隨著時間的推移,人們開發了許多不同類型的層,對輸入數據應用不同的操作。例如,全連接層將把輸入數據X與權重W結合起來,并添加一個偏差B: W X + B。為了簡單起見,在下面的公式中我們將不提及偏差的使用,使其保持隱式。更高級的層執行更復雜的操作,如卷積層(它學習卷積內核以應用于輸入數據)或遞歸層(以遞歸方式處理順序輸入)。

在LP任務中,通常結合各層的權重和偏差來學習KG嵌入;這些共享的參數使這些模型更有表現力,但可能導致參數更多,更難訓練,更容易過擬合。

付費5元查看完整內容
北京阿比特科技有限公司