亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

連續圖學習通常在各種現實應用中發揮作用,其中包含不同任務的圖數據依次出現。盡管之前的工作取得了成功,但仍然面臨著巨大的挑戰。一方面,現有的方法處理零曲率的歐氏空間,很大程度上忽略了曲率隨即將到來的圖序列而變化的事實。另一方面,文獻中的持續學習者依賴于豐富的標簽,但在實踐中對圖進行標注尤其困難,特別是對于不斷涌現的動態圖。為了解決上述的挑戰,我們提出探索一個具有挑戰性但實際的問題,自適應黎曼空間中的自監督連續圖學習。在本文中,我們提出了一種新的自監督黎曼圖持續學習者(RieGrace)。在RieGrace中,我們首先設計了一個自適應黎曼GCN (AdaRGCN),一個與神經曲率適配器相結合的統一GCN,使黎曼空間由學習到的自適應于每個圖的曲率來塑造。然后,我們提出了一種無標簽洛倫茲蒸餾方法,該方法為圖序列創建師生AdaRGCN。學生依次從自身進行內餾,從老師進行間餾,從而鞏固知識,避免災難性的遺忘。特別地,我們提出了黎曼空間中對比蒸餾的廣義洛倫茲投影。在基準數據集上的大量實驗證明了RieGrace算法的優越性。

付費5元查看完整內容

相關內容

目前的一種主流自監督學習方法追求可以很好地遷移到下游任務的通用表示,通常通過對給定的前置任務(如實例判別)進行優化。現有的前置任務不可避免地在學習到的表示中引入了偏見,這反過來導致在各種下游任務上的遷移性能存在偏見。為了解決這一問題,我們提出了最大熵編碼(Maximum Entropy Coding, MEC),這是一個更原則性的目標,它明確優化了表示的結構,從而使學習到的表示更少偏差,從而更好地推廣到不可見的下游任務。受信息論中最大熵原理的啟發,假設一個可泛化的表示應該是在所有似是而非的表示中允許最大熵的表示。為了使目標端到端可訓練,我們提出利用有耗數據編碼中的最小編碼長度作為熵的計算可處理代理,并進一步推導出允許快速計算的可擴展的目標重新表述。廣泛的實驗表明,MEC比之前基于特定前置任務的方法學習到更通用的表示。它在各種下游任務上始終保持最先進的性能,不僅包括ImageNet線性探測,還包括半監督分類、目標檢測、實例分割和目標跟蹤。有趣的是,我們表明,現有的批處理和特征自監督目標可以被視為等同于MEC的低階近似。代碼和預訓練的模型可在//github.com/xinliu20/MEC獲得。

付費5元查看完整內容

近年來,基于異構信息網絡(HINs)的自監督預訓練方法與傳統的半監督異構圖神經網絡(HGNNs)相比顯示出了良好的競爭力。不幸的是,它們的性能嚴重依賴于精心定制各種策略,以生成高質量的正例和反例,這明顯限制了它們的靈活性和泛化能力。在這項工作中,我們提出了一種新的自監督異構圖預訓練方法SHGP,它不需要生成任何正例或負例。它由兩個共享相同注意力聚合方案的模塊組成。在每次迭代中,Att-LPA模塊通過結構聚類產生偽標簽,這些偽標簽作為自我監督信號,指導Att-HGNN模塊學習對象嵌入和注意系數。這兩個模塊可以有效地相互利用和增強,促進模型學習判別嵌入。在四個真實數據集上的大量實驗證明了SHGP對最先進的無監督基線甚至半監督基線的優越有效性。我們在//github.com/kepsail/SHGP發布源代碼。

付費5元查看完整內容

本文主要聚焦于小模型(即輕量型模型)的自監督學習問題,作者通過實證發現:對比自監督學習方法在大模型訓練方面表現出了很大進展,然這些方法在小模型上的表現并不好。

為解決上述問題,本文提出了一種新的學習框架:自監督蒸餾(SElf-SupErvised Distillation, SEED),它通過自監督方式(SSL)將老師模型的知識表達能力遷移給學生模型。不同于直接在無監督數據上的直接學習,我們訓練學生模型去模擬老師模型在一組示例上的相似度得分分布。

所提SEED的簡潔性與靈活性不言而喻,包含這樣三點:(1) 無需任何聚類/元計算步驟生成偽標簽/隱類;(2) 老師模型可以通過優秀的自監督學習(比如MoCo-V2、SimCLR、SWAV等)方法進行預訓練;(3)老師模型的知識表達能力可以蒸餾到任意小模型中(比如更淺、更細,甚至可以是完全不同的架構)。

實驗表明:SEED可以提升小模型在下游任務上的性能表現。相比自監督基準MoCo-V2方案,在ImageNet數據集上,SEED可以將EfficientNet-B0的精度從42.2%提升到67.6%,將MobileNetV3-Large的精度從36.3%提升到68.2%,見下圖對比。

//arxiv.org/pdf/2101.04731.pdf

付費5元查看完整內容

自監督學習已被廣泛應用于從未標記圖像中獲取可轉移的表示。特別是,最近的對比學習方法在下游圖像分類任務中表現出了令人印象深刻的性能。這些對比方法主要集中在語義保留變換下的圖像級上生成不變的全局表示,容易忽略局部表示的空間一致性,因此在目標檢測和實例分割等本地化任務的預處理中存在一定的局限性。此外,在現有的對比方法中使用的積極裁剪視圖可以最小化單個圖像中語義不同區域之間的表示距離。

在本文中,我們提出了一種用于多目標和特定位置任務的空間一致表示學習算法(SCRL)。特別地,我們設計了一個新的自監督目標,試圖根據幾何平移和縮放操作產生隨機裁剪局部區域的連貫空間表示。在使用基準數據集的各種下游定位任務上,提出的SCRL顯示了相對于圖像級監督前訓練和最先進的自監督學習方法的顯著性能改進。代碼將會被發布。

//www.zhuanzhi.ai/paper/86fc25415eef2e6e1ed9019494ce1fcf

付費5元查看完整內容

該工作針對基于半監督的醫學圖像算法,提出了一種利用雙任務一致性約束的新方法,將同一個分割問題表示成兩個不同的任務,并鼓勵兩個任務在預定義的表示空間內保持一致,進而充分利用未標注的數據提升深度神經網絡的性能,同時大大降低訓練網絡模型所需要的標注成本。圖片

基于深度學習的方法因為在圖像處理上優越表現而受到廣泛的關注,近年來在圖像識別、人工智能領域不斷取得了性能突破。但是由于深度神經網絡需要依賴大量良好標注的數據,在小數據上很難達到比較好的效果。在醫學圖像領域,數據標注通常需要大量的時間,也需要醫學領域的專業知識,但醫生通常很忙,沒有充足的時間來標注大量的數據,因此從少量標注數據和大量未標注數據來學習以獲得高性能模型變得尤為重要。

基于這樣的問題,本文提出了一種基于雙任務一致性的半監督學習算法,在現有全監督醫學圖像分割算法基礎上,該算法可以充分利用沒有標注的數據進行進一步學習,進而大大提高未標注數據的利用率和促進網絡分割性能。實驗表明,通過引入雙任務一致性,網絡能更穩定的從少量標注數據和大量未標注數據中學習,并顯著提高分割結果。同時與最新的半監督分割算法相比,此方法需要的訓練成本更低,所取得的效果也更好,從而降低了深度神經網絡對標注數據的依賴。
付費5元查看完整內容

圖神經網絡(GNN)已經成為圖表示學習的事實標準,它通過遞歸地聚集圖鄰域的信息來獲得有效的節點表示。盡管 GNN 可以從頭開始訓練,但近來一些研究表明:對 GNN 進行預訓練以學習可用于下游任務的可遷移知識能夠提升 SOTA 性能。但是,傳統的 GNN 預訓練方法遵循以下兩個步驟:

在大量未標注數據上進行預訓練; 在下游標注數據上進行模型微調。 由于這兩個步驟的優化目標不同,因此二者存在很大的差距。

在本文中,我們分析了預訓練和微調之間的差異,并為了緩解這種分歧,我們提出了一種用于GNNs的自監督預訓練策略L2P-GNN。方法的關鍵是L2P-GNN試圖以可轉移的先驗知識的形式學習如何在預訓練過程中進行微調。為了將局部信息和全局信息都編碼到先驗信息中,我們在節點級和圖級設計了一種雙重自適應機制。最后,我們對不同GNN模型的預訓練進行了系統的實證研究,使用了一個蛋白質數據集和一個文獻引用數據集進行了預訓練。實驗結果表明,L2P-GNN能夠學習有效且可轉移的先驗知識,為后續任務提供好的表示信息。我們在//github.com/rootlu/L2P-GNN公開了模型代碼,同時開源了一個大規模圖數據集,可用于GNN預訓練或圖分類等。

總體來說,本文的貢獻如下:

  • 首次探索學習預訓練 GNNs,緩解了預訓練與微調目標之間的差異,并為預訓練 GNN 提供了新的研究思路。
  • 針對節點與圖級表示,該研究提出完全自監督的 GNN 預訓練策略。
  • 針對預訓練 GNN,該研究建立了一個新型大規模書目圖數據,并且在兩個不同領域的數據集上進行了大量實驗。實驗表明,該研究提出的方法顯著優于 SOTA 方法。

付費5元查看完整內容

利用弱監督或有噪聲的監督來構建有效的機器學習模型一直是一個重要的研究問題。由于訓練深度學習模型對大規模數據集的需求越來越大,其重要性最近進一步增加。弱或嘈雜的監督可能來自多種來源,包括非專業的注釋者或基于啟發式或用戶交互信號的自動標記。有大量的前期工作集中在利用嘈雜的標簽。最值得注意的是,最近的研究顯示,使用元學習實例重加權方法取得了令人印象深刻的成果,在這種方法中,元學習框架用于為嘈雜標簽分配實例權重。在本文中,我們將此方法擴展為元學習框架內的標簽校正問題。我們將標簽校正過程視為一個元過程,并提出了一個新的基于元學習的框架,稱為MLC(元標簽校正),用于有噪聲標簽的學習。具體來說,采用標簽校正網絡作為元模型,對有噪聲的標簽進行校正,同時對主模型進行訓練,以充分利用校正后的標簽。兩個模型通過求解一個雙層優化問題來聯合訓練。在圖像識別和文本分類任務中,我們使用不同的標簽噪聲水平和類型進行了廣泛的實驗。我們比較重加權和修正的方法表明,修正框架解決了一些限制重加權。我們還表明,提出的MLC方法在圖像和語言任務上都優于以前的方法。

//www.microsoft.com/en-us/research/uploads/prod/2020/12/aaai2021_mlc_zheng.pdf

付費5元查看完整內容
北京阿比特科技有限公司