亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

自然語言理解(NLU)的最新進展正在推動信息檢索(IR)的快速發展,這在很大程度上要歸功于對文檔排序的深層語言模型(LMs)的微調。雖然非常有效,但是基于這些LMs的排序模型比以前的方法增加了幾個數量級的計算成本,特別是因為它們必須通過一個龐大的神經網絡來為每個查詢文檔對提供數據,從而計算單個相關分數。為了解決這個問題,我們提出了一種新的排序模型ColBERT,它采用深度LMs(特別是BERT)來進行有效的檢索。ColBERT引入了一種后期交互體系結構,該體系結構使用BERT獨立地對查詢和文檔進行編碼,然后使用一種廉價但功能強大的交互步驟來建模它們的細粒度相似性。通過延遲并保留這種細粒度交互,ColBERT可以利用深度LMs的表達能力,同時獲得離線預先計算文檔表示的能力,這大大加快了查詢處理的速度。除了降低通過傳統模型檢索的文檔重新排序的成本外,ColBERT的修剪友好交互機制還支持利用向量相似度索引來直接從大型文檔集合進行端到端檢索。我們使用兩個最近的文章搜索數據集對ColBERT進行了廣泛的評估。結果表明,ColBERT的有效性與現有的基于bert的模型相比是有競爭力的(并且優于每個非bert基線),同時執行兩個數量級的速度更快,每個查詢需要減少四個數量級的錯誤。

付費5元查看完整內容

相關內容

 信息檢索( )指信息按一定的方式組織起來,并根據信息用戶的需要找出有關的信息的過程和技術。信息檢索的目標:準確、及時、全面的獲取所需信息。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

圖表示學習已經成為解決現實問題的一種強大的技術。節點分類、相似度搜索、圖分類和鏈接預測等各種下游圖學習任務都受益于它的最新發展。然而,現有的圖表示學習技術側重于特定領域的問題,并為每個圖訓練專用的模型,這些模型通常不能轉移到域外數據。受最近自然語言處理和計算機視覺的預訓練進展的啟發,我們設計了圖對比編碼(GCC)——一種無監督圖表示學習框架——來捕獲跨多個網絡的通用網絡拓撲屬性。我們將GCC的預訓練任務設計為網絡中或跨網絡的子圖級實例識別,并利用對比學習來授權模型學習內在的和可轉移的結構表示。我們對三個圖學習任務和十個圖數據集進行了廣泛的實驗。結果表明,在一組不同的數據集上進行預訓練的GCC可以取得與任務相關的從零開始訓練的GCC具有競爭力或更好的性能。這表明,預訓練和微調范式為圖表示學習提供了巨大的潛力。

//arxiv.org/abs/2006.09963

付費5元查看完整內容

圖卷積網絡(GCN)已經成為協同過濾的最新技術。然而,其推薦的有效性的原因還沒有很好地理解。現有的將GCN用于推薦的工作缺乏對GCN的深入消融分析,GCN最初是為圖分類任務而設計的,并配備了許多神經網絡操作。然而,我們實證發現,兩種最常見的設計-特征轉換和非線性激活-對協同過濾的性能貢獻很小。更糟糕的是,包括他們增加了訓練的難度,降低了推薦的效果。在這項工作中,我們的目標是簡化GCN的設計,使其更簡潔,更適合推薦。我們提出了一個新的模型LightGCN,它只包含GCN中最重要的組件——鄰域聚合——用于協同過濾。具體來說,LightGCN通過在用戶-項目交互圖上線性傳播用戶和項目嵌入來學習它們,并使用在所有層上學習到的嵌入的加權和作為最終的嵌入。這種簡單、線性、簡潔的模型更容易實現和訓練,在完全相同的實驗設置下,比神經圖協同過濾(NGCF)——一種最先進的基于GCN的推薦模型——有了顯著的改進(平均大約16.0%的相對改進)。從分析和實證兩方面進一步分析了簡單LightGCN的合理性。我們的實現在TensorFlow和PyTorch中都可用。

付費5元查看完整內容

深度和大型的預訓練語言模型是各種自然語言處理任務的最新技術。然而,這些模型的巨大尺寸可能會阻礙在實踐中使用它們。最近的一些并行工作使用知識蒸餾來將這些龐大的模型壓縮成小型模型。在這項工作中,我們以多語言命名實體識別(NER)為重點來研究知識蒸餾。特別地,我們研究了幾種提煉策略,并提出了一種利用教師內部表征的階段性優化方案,該方案不考慮教師體系結構,并證明其優于以往工作中所采用的策略。此外,我們還研究了幾個因素的作用,比如未標記數據的數量、注釋資源、模型架構和推理延遲等等。我們證明,我們的方法可以將類mbert教師模型的參數壓縮高達35倍,批量推理的延遲壓縮51倍,而NER超過41種語言的95%的f1分都保留下來。

付費5元查看完整內容

語言模型的預訓練已經被證明能夠獲取大量的世界知識,這對于NLP任務(如回答問題)是至關重要的。然而,這些知識隱式地存儲在神經網絡的參數中,需要更大的網絡來覆蓋更多的事實。

為了以更模塊化和可解釋性的方式捕獲知識,我們在語言模型前訓練中增加了一個潛在的知識檢索器,它允許模型從一個大型語料庫(如Wikipedia)中檢索和處理文檔,這些語料庫在前訓練、微調和推理期間使用。我們第一次展示了如何以一種無監督的方式預先訓練這種知識檢索器,

使用掩碼語言建模作為學習信號,并通過一個考慮數百萬文檔的檢索步驟進行反向傳播。

通過對具有挑戰性的開放領域問題回答(Open-QA)任務進行微調,我們證明了增強語言模型預訓練(REALM)的有效性。我們比較了三種流行的開放qa基準上的最先進的顯式和隱式知識存儲模型,發現我們的性能顯著優于所有以前的方法(4-16%的絕對準確性),同時還提供了定性的好處,如可解釋性和模塊化。

地址:

//kentonl.com/pub/gltpc.2020.pdf

付費5元查看完整內容
北京阿比特科技有限公司