內容感知的推薦方法對于向新用戶提供有意義的推薦是必不可少的。我們提出了一種基于內容感知神經哈希的協同過濾方法,它為用戶和項生成二進制哈希碼,這樣就可以利用高效的漢明距離估計用戶項相關性。NeuHash-CF被建模為一個自動編碼器架構,由兩個用于生成用戶和項哈希碼的聯合哈希組件組成。受語義哈希的啟發,項目哈希組件直接從項目的內容信息(即,它以相同的方式生成冷啟動和可見項哈希碼)。這與現有的最先進的模型形成了對比,后者分別處理兩個項目的情況。用戶哈希碼是通過學習用戶嵌入矩陣,直接基于用戶id生成的。我們通過實驗證明,在冷啟動推薦設置中,NeuHash-CF的性能顯著優于最先進的基線,最高可達12%的NDCG和13%的MRR,而在所有項目都在訓練時出現的標準設置中,NeuHash-CF和MRR的性能均可達4%。我們的方法使用2-4倍的更短的哈希碼,同時獲得與現有技術相同或更好的性能,因此也可以顯著減少存儲空間。
針對自監督學習的深度聚類是無監督視覺表示學習中一個非常重要和有前途的方向,因為設計前置任務需要較少的領域知識。而關鍵組件嵌入聚類由于需要保存整個數據集的全局潛在嵌入,限制了其擴展到超大規模的數據集。在這項工作中,我們的目標是使這個框架在不降低性能的情況下更加簡單和優雅。提出了一種不使用嵌入聚類的無監督圖像分類框架,與標準的監督訓練方法非常相似。為了進一步解釋,我們進一步分析了其與深度聚類和對比學習的關系。在ImageNet數據集上進行了大量的實驗,驗證了該方法的有效性。此外,在遷移學習基準上的實驗驗證了它對其他下游任務的推廣,包括多標簽圖像分類、目標檢測、語義分割和小樣本圖像分類。
地址:
題目: Disentangled Graph Collaborative Filtering
簡介: 從交互數據中學習用戶和項目的信息表示對于協同過濾(CF)至關重要。當前的嵌入功能利用用戶-項目關系來豐富表示,從單個用戶-項目實例演變為整體交互圖。然而,他們在很大程度上以統一的方式對關系進行建模,而忽略了用戶采用這些項目的意圖的多樣性,這可能是為了消磨時間,出于興趣或為家庭等其他人購物。這種對用戶興趣進行建模的統一方法很容易導致次優的表示形式,無法對各種關系進行建模,也無法使用戶的意圖分解開來。
在這項工作中,我們會以用戶意圖的更細粒度特別注意用戶與項目之間的關系。因此,我們設計了一個新模型,即解纏圖協同過濾(DGCF),以解開這些因素并產生解開的表示。具體來說,通過對每個用戶項目交互的意圖分布進行建模,我們可以迭代地細化意圖感知交互圖和表示形式。同時,我們鼓勵不同意圖的獨立性。這導致了糾纏的表示,有效地提取了與每個意圖有關的信息。我們在三個基準數據集上進行了廣泛的實驗,并且DGCF在一些最新模型(如NGCF [40],DisenGCN [25]和MacridVAE [26])上取得了顯著改進。進一步的分析可以深入了解DGCF在消除用戶意圖和表示可解釋性方面的優勢。
圖卷積網絡(GCN)已經成為協同過濾的最新技術。然而,其推薦的有效性的原因還沒有很好地理解。現有的將GCN用于推薦的工作缺乏對GCN的深入消融分析,GCN最初是為圖分類任務而設計的,并配備了許多神經網絡操作。然而,我們實證發現,兩種最常見的設計-特征轉換和非線性激活-對協同過濾的性能貢獻很小。更糟糕的是,包括他們增加了訓練的難度,降低了推薦的效果。在這項工作中,我們的目標是簡化GCN的設計,使其更簡潔,更適合推薦。我們提出了一個新的模型LightGCN,它只包含GCN中最重要的組件——鄰域聚合——用于協同過濾。具體來說,LightGCN通過在用戶-項目交互圖上線性傳播用戶和項目嵌入來學習它們,并使用在所有層上學習到的嵌入的加權和作為最終的嵌入。這種簡單、線性、簡潔的模型更容易實現和訓練,在完全相同的實驗設置下,比神經圖協同過濾(NGCF)——一種最先進的基于GCN的推薦模型——有了顯著的改進(平均大約16.0%的相對改進)。從分析和實證兩方面進一步分析了簡單LightGCN的合理性。我們的實現在TensorFlow和PyTorch中都可用。
知識圖譜被廣泛用于提高推薦準確度。知識圖譜上的多跳用戶-物品連接還提供了關于為什么推薦某個項的推理。然而,路徑推理是一個復雜的組合優化問題。傳統的推薦方法通常采用蠻力方法來尋找可行路徑,這導致了與可解釋性和收斂性相關的問題。在本文中,我們通過更好地監督尋路過程來解決這些問題。關鍵思想是用最小的標記努力提取不完美的路徑演示,并有效地利用這些演示來指導尋路。特別地,我們設計了一個基于演示的知識圖推理框架用于可解釋推薦。我們還提出了一個反面的actor批評家(ADAC)模型用于演示導向的尋路。在三個真實基準上的實驗表明,我們的方法比最先進的基準更快地收斂,并且具有更好的推薦精度和可解釋性。
自然語言理解(NLU)的最新進展正在推動信息檢索(IR)的快速發展,這在很大程度上要歸功于對文檔排序的深層語言模型(LMs)的微調。雖然非常有效,但是基于這些LMs的排序模型比以前的方法增加了幾個數量級的計算成本,特別是因為它們必須通過一個龐大的神經網絡來為每個查詢文檔對提供數據,從而計算單個相關分數。為了解決這個問題,我們提出了一種新的排序模型ColBERT,它采用深度LMs(特別是BERT)來進行有效的檢索。ColBERT引入了一種后期交互體系結構,該體系結構使用BERT獨立地對查詢和文檔進行編碼,然后使用一種廉價但功能強大的交互步驟來建模它們的細粒度相似性。通過延遲并保留這種細粒度交互,ColBERT可以利用深度LMs的表達能力,同時獲得離線預先計算文檔表示的能力,這大大加快了查詢處理的速度。除了降低通過傳統模型檢索的文檔重新排序的成本外,ColBERT的修剪友好交互機制還支持利用向量相似度索引來直接從大型文檔集合進行端到端檢索。我們使用兩個最近的文章搜索數據集對ColBERT進行了廣泛的評估。結果表明,ColBERT的有效性與現有的基于bert的模型相比是有競爭力的(并且優于每個非bert基線),同時執行兩個數量級的速度更快,每個查詢需要減少四個數量級的錯誤。
主題: Learning Term Discrimination
摘要: 文檔索引是有效信息檢索(IR)的關鍵組件。經過諸如詞干和停用詞刪除之類的預處理步驟之后,文檔索引通常會存儲term-frequencies(tf)。與tf(僅反映一個術語在文檔中的重要性)一起,傳統的IR模型使用諸如反文檔頻率(idf)之類的術語區分值(TDV)在檢索過程中偏向于區分性術語。在這項工作中,我們建議使用淺層神經網絡學習TDV,以進行文檔索引,該淺層神經網絡可以近似TF-IDF和BM25等傳統的IR排名功能。我們的建議在nDCG和召回方面均優于傳統方法,即使很少有帶有正標簽的查詢文檔對作為學習數據。我們學到的TDV用于過濾區分度為零的詞匯,不僅可以顯著降低倒排索引的內存占用量,而且可以加快檢索過程(BM25的速度提高了3倍),而不會降低檢索質量。
知識圖譜補全(KGC)任務的目的是自動推斷知識圖譜(KG)中缺失的事實信息。在本文中,我們采用了一個新的視角,旨在利用豐富的用戶-項目交互數據(簡稱用戶交互數據)來改進KGC任務。我們的工作靈感來自于許多KG實體對應于應用程序系統中的在線項目的觀察。然而,這兩種數據源具有非常不同的內在特性,使用簡單的融合策略可能會影響原始的性能。
為了解決這一挑戰,我們提出了一種利用KGC任務的用戶交互數據的新穎的對抗性學習方法。我們的生成器是與用戶交互數據隔離的,用于提高鑒別器的性能。鑒別器將從用戶交互數據中學習到的有用信息作為輸入,逐步增強評價能力,以識別生成器生成的虛假樣本。為了發現用戶的隱式實體偏好,我們設計了一種基于圖神經網絡的協同學習算法,該算法將與鑒別器共同優化。這種方法可以有效地緩解KGC任務的數據異構性和語義復雜性問題。在三個真實數據集上的大量實驗證明了我們的方法在KGC任務上的有效性。