亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

GNN(圖神經網絡)基礎的推薦系統在捕捉復雜的用戶-物品交互方面表現出色,通過多跳消息傳遞實現。然而,這些方法往往未能考慮到用戶-物品交互的動態特性,導致在適應用戶偏好變化和新數據分布方面面臨挑戰。因此,它們在真實世界動態環境中的可擴展性和性能受到限制。在我們的研究中,我們引入了GraphPro,一個將動態圖預訓練與提示學習以參數高效的方式結合起來的框架。這種創新的結合使得GNN能夠熟練掌握持久的用戶偏好和短暫的行為變化,從而提供精確且最新的推薦。GraphPro通過將時間提示機制和圖結構提示學習機制整合到預訓練的GNN架構中,解決了用戶偏好變化的問題。時間提示機制將時間相關信息印刻到用戶-物品交互上,使模型能夠固有地吸收時間動態,而圖結構提示學習機制允許將預訓練的洞見應用于新的行為動態,而無需持續的重訓練。我們還引入了一個動態評估框架,用于推薦以更好地反映現實世界情況并縮小線下-線上差距。我們的全面實驗,包括在大規模工業環境中的部署,證明了GraphPro與各種領先推薦器的無縫插拔擴展性,凸顯了GraphPro在有效性、魯棒性和效率方面的優越性。我們的GraphPro實現細節和源代碼可在//github.com/HKUDS/GraphPro 倉庫中獲得。

付費5元查看完整內容

相關內容

眾所周知,神經網絡在直接使用輸出標簽分布生成不確定性度量時存在過度自信的問題。現有方法主要通過重新訓練整個模型,賦予其不確定性量化能力,使學習到的模型在精度和不確定性預測方面同時達到預期的性能。然而,從頭開始訓練模型的計算成本很高,在許多情況下可能是不可行的。本文考慮一個更實際的事后不確定性學習設置,給出一個訓練良好的基礎模型,并專注于訓練第二階段的不確定性量化任務。本文提出一種新的貝葉斯元模型,以增強預訓練模型的不確定性量化能力,有效且計算效率高。所提出的方法不需要額外的訓練數據,足夠靈活,可以量化不同的不確定性,并容易適應不同的應用設置,包括域外數據檢測、錯誤分類檢測和可信遷移學習。在多個代表性的圖像分類基準上,證明了所提出的元模型方法的靈活性和在這些應用上的優越經驗性能。

//www.zhuanzhi.ai/paper/ce666840fd9361b6f02ab0f425f731c6

付費5元查看完整內容

深度強化學習(DRL)智能體通常對其訓練環境中看不到的視覺變化敏感。為了解決這個問題,我們利用RL的順序特性來學習穩健的表示,這種表示只編碼來自基于無監督多視圖設置的觀察的任務相關信息。具體地說,我們為時間數據引入了一個新的多視圖信息瓶頸(MIB)目標的對比版本。我們用這個輔助目標從像素訓練RL智能體來學習魯棒的表示,它可以壓縮與任務無關的信息,并可以預測與任務相關的動態。這種方法使我們能夠訓練出高性能的策略,這些策略能夠抵御視覺干擾,并能夠很好地推廣到看不見的環境中。我們證明,當背景被自然視頻取代時,我們的方法可以在DeepMind控制套件中不同的視覺控制任務集上實現SOTA性能。此外,我們還展示了在Procgen基準測試中,我們的方法優于已建立的基線,可以泛化到看不見的環境。我們的代碼是開源的,可以在//github上找到。com/BU-DEPEND-Lab/DRIBO。

付費5元查看完整內容

基于對比學習(CL)的自監督學習模型以成對的方式學習視覺表征。雖然目前流行的CL模型已經取得了很大的進展,但在本文中,我們發現了一個一直被忽視的現象:當用全圖像訓練CL模型時,在全圖像中測試的性能比在前景區域測試的性能要好;當使用前景區域訓練CL模型時,在完整圖像中測試的性能比在前景區域測試的性能差。這一觀察結果表明,圖像中的背景可能會干擾模型學習的語義信息,其影響尚未完全消除。為了解決這個問題,我們建立了一個結構因果模型(SCM),將背景建模為一個混淆劑。我們提出了一種基于后門調整的正則化方法,即基于元語義正則化的介入性對比學習(ICLMSR),對所提出的供應鏈管理進行因果干預。ICL-MSR可以整合到任何現有的CL方法中,以減輕表征學習的背景干擾。從理論上證明了ICL-MSR具有更小的誤差界。經驗上,我們在多個基準數據集上的實驗表明,ICL-MSR能夠提高不同最先進的CL方法的性能。

付費5元查看完整內容

我們提出了提示分布學習,以有效地適應一個預訓練的視覺語言模型,以解決下游的識別任務。我們的方法不僅從一些樣本中學習低偏差提示,而且還捕獲不同提示的分布,以處理不同的視覺表示。這樣,我們提供了高質量的任務相關內容,便于識別。這種快速分布學習是通過一種學習提示的輸出嵌入而不是輸入嵌入的有效方法實現的。因此,我們可以使用高斯分布來有效地建模,并導出有效訓練的替代損失。在12個數據集上的大量實驗表明,我們的方法始終和顯著地優于現有的方法。例如,與人工制作的提示相比,每個類別有一個樣本,它的平均結果相對提高了9.1%。

//www.zhuanzhi.ai/paper/0c6359fedd7bfc3067c0c0ddaf8a29f4

付費5元查看完整內容

與傳統的監督學習不同,在許多情況下,只有部分反饋是可用的。我們可能只觀察所選擇的行動的結果,而不是與其他選擇相關的反事實的結果。這些設置包括各種各樣的應用,包括定價、在線營銷和精準醫療。一個關鍵的挑戰是,觀測數據受到系統中部署的歷史策略的影響,從而產生偏倚的數據分布。我們將這一任務視為一個領域適應性問題,并提出了一種自訓練算法,該算法通過偽標記將觀察數據中有限的看不見的行動的分類值的結果來模擬隨機試驗,我們稱之為反事實自訓練(CST)。CST迭代地輸入偽標簽并重新訓練模型。此外,我們還發現輸入一致性損失可以進一步提高CST性能,這在最近的偽標記理論分析中得到了證明。我們證明了所提出的算法在合成和真實數據集的有效性。

//arxiv.org/abs/2112.04461

付費5元查看完整內容

本文提出了一種基于無監督學習的視頻目標分割方法。與之前的工作不同,我們的公式允許在完全卷積的情況下直接學習密集特征表示。我們依靠統一的網格采樣來提取一組錨點,并訓練我們的模型來在視頻間和視頻內消除它們之間的歧義。然而,訓練這樣一個模型的樸素方案會得到一個退化解。我們提出了一種簡單的正則化方案來防止這種情況,該方案適應了分割任務對相似變換的等方差特性。我們的訓練目標實現高效,并表現出快速的訓練趨同。在已建立的VOS基準上,我們的方法超過了以前工作的分割精度,盡管使用的訓練數據和計算能力明顯更少。

//www.zhuanzhi.ai/paper/0ef8bdd09f3e46584b83f6236ca799fb

付費5元查看完整內容

我們研究了無監督的視頻表示學習,該學習旨在僅從未標記的視頻中學習運動和外觀特征,可以將其重用于下游任務,例如動作識別。然而,由于以下原因,這項任務極具挑戰性:1)視頻中的高度時空信息;2)缺少用于訓練的標記數據。與靜態圖像的表示學習不同,難以構造合適的自我監督任務來很好地對運動和外觀特征進行建模。最近,已經進行了幾種嘗試以通過視頻回放速度預測來學習視頻表示。但是,為視頻獲取精確的速度標簽并非易事。更關鍵的是,學習的模型可能傾向于集中于運動模式,因此可能無法很好地學習外觀特征。在本文中,我們觀察到相對回放速度與運動模式更加一致,從而為表示學習提供了更加有效和穩定的監督。因此,我們提出了一種感知播放速度并利用兩個視頻片段之間的相對速度作為標簽的新方法。這樣,我們就能很好地感知速度并學習更好的運動功能。此外,為了確保學習外觀特征,我們進一步提出了以外觀為中心的任務,其中我們強制執行模型以感知兩個視頻剪輯之間的外觀差異。我們表明,優化兩個任務可以共同持續改善兩個下游任務(即動作識別和視頻檢索)的性能。值得注意的是,對于UCF101數據集上的動作識別,在不使用標記數據進行預訓練的情況下,我們達到了93.7%的準確性,這優于ImageNet監督的預訓練模型。

//arxiv.org/abs/2011.07949

付費5元查看完整內容

Code://github.com/Shen-Lab/GraphCL Paper:

對于當前的圖神經網絡(GNNs)來說,圖結構數據的可泛化、可遷移和魯棒表示學習仍然是一個挑戰。與為圖像數據而開發的卷積神經網絡(CNNs)不同,自監督學習和預訓練很少用于GNNs。在這篇文章中,我們提出了一個圖對比學習(GraphCL)框架來學習圖數據的無監督表示。我們首先設計了四種類型的圖擴充來包含不同的先驗。然后,我們在四種不同的環境下系統地研究了圖擴充的各種組合對多個數據集的影響:半監督、無監督、遷移學習和對抗性攻擊。結果表明,與最先進的方法相比,即使不調優擴展范圍,也不使用復雜的GNN架構,我們的GraphCL框架也可以生成類似或更好的可泛化性、可遷移性和健壯性的圖表示。我們還研究了參數化圖增強的范圍和模式的影響,并在初步實驗中觀察了性能的進一步提高。

付費5元查看完整內容

最近,終身學習在構建不斷積累和轉移知識以幫助未來學習的機器學習系統方面引起了關注。無監督主題建模廣泛用于從文檔集合中發現主題。然而,由于數據稀疏性,例如,在一個小的(短)文檔集合中,會產生不連貫的主題和次優的文檔表示,主題建模的應用具有挑戰性。為了解決這個問題,我們提出了一個神經主題建模的終身學習框架,它可以連續處理文檔集流,積累主題,并通過從多個來源的知識轉移來指導未來的主題建模任務,以更好地處理稀疏的數據。在終身學習過程中,我們特別共同研究:(1)終生共享生成同源性(潛在話題)以轉移先驗知識,(2)通過新穎的選擇性數據增強、聯合訓練和話題正則化方法最小化保留過去學習的災難性遺忘。在給定一個文檔集合流的情況下,我們應用所提出的終身神經主題建模(LNTM)框架,將三個稀疏文檔集合建模為未來任務,并通過perplexity、Topic coherence和information retrieval task量化,證明了性能的提高。

付費5元查看完整內容
北京阿比特科技有限公司