本文通過新的概率建模方法,對對比學習的最新發展進行了有益的改進。我們推導了一種特殊形式的對比損失,稱為聯合對比學習(JCL)。JCL隱含地涉及到同時學習無限數量的查詢鍵對,這在搜索不變特征時帶來了更嚴格的約束。我們推導了這個公式的上界,它允許以端到端訓練的方式進行解析解。雖然JCL在許多計算機視覺應用程序中實際上是有效的,但我們也從理論上揭示了控制JCL行為的某些機制。我們證明,提出的公式具有一種內在的力量,強烈支持在每個實例特定類內的相似性,因此在搜索不同實例之間的區別特征時仍然具有優勢。我們在多個基準上評估這些建議,證明了對現有算法的相當大的改進。代碼可以通過以下網址公開獲得
?強化學習具有在復雜環境下自動獲取行為的潛力,但為了成功地部署它,必須解決許多實際的挑戰。首先,在實際設置中,當代理嘗試某個任務并失敗時,環境必須以某種方式“重置”,以便代理能夠再次嘗試該任務。雖然在模擬中很容易,但在現實世界中可能需要相當多的人力,特別是在試驗數量非常大的情況下。第二,現實世界的學習通常涉及復雜的、時間上延伸的行為,這種行為通常很難通過隨機探索獲得。雖然這兩個問題乍一看似乎是不相關的,但在本研究中,我們將展示一個單一的方法如何允許代理在最小的監督下獲得技能,同時消除重置的需要。我們這樣做是通過利用這樣的洞察力:為學習任務將代理“重置”為一組廣泛的初始狀態的需要,提供了一種學習多種“重置技能”的自然設置。我們提出了一個平衡重置目標和學習技能的通用和博弈公式,并證明了這種方法提高了無重置任務的性能,另外,我們獲得的技能可以用來顯著加速下游學習。
【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。近期,所有paper list 放出,小編發現**對比學習(Contrastive Learning)**相關的投稿paper很多,這塊研究方向這幾年受到了學術界的廣泛關注,并且在CV、NLP等領域也應用頗多。
為此,這期小編為大家奉上NeurIPS 2020必讀的七篇對比學習相關論文——對抗自監督對比學習、局部對比學習、難樣本對比學習、多標簽對比預測編碼、自步對比學習、有監督對比學習
NeurIPS 2020 Accepted Papers://neurips.cc/Conferences/2020/AcceptedPapersInitial
1. Adversarial Self-Supervised Contrastive Learning
作者: Minseon Kim, Jihoon Tack, Sung Ju Hwang
摘要: 現有的對抗性學習方法大多使用類別標簽來生成導致錯誤預測的對抗性樣本,然后使用這些樣本來增強模型的訓練,以提高魯棒性。雖然最近的一些工作提出了利用未標記數據的半監督對抗性學習方法,但它們仍然需要類別標簽。然而,我們真的需要類別標簽來進行反向的深度神經網絡的健壯訓練嗎?本文提出了一種新的針對未標記數據的對抗性攻擊,使得該模型混淆了擾動數據樣本的實例級身份。此外,我們還提出了一種自監督對比學習(Contrastive Learning)框架來對抗性地訓練未標記數據的魯棒神經網絡,其目的是最大化數據樣本的隨機擴充與其實例對抗性擾動之間的相似度。我們在多個基準數據集上驗證了我們的方法-魯棒對比學習(RoCL),在這些數據集上,它獲得了與最新的有監督對抗性學習方法相當的魯棒準確率,并且顯著地提高了對黑盒和不可見類型攻擊的魯棒性。此外,與單獨使用自監督學習相比,RoCL進一步結合有監督對抗性損失進行聯合微調,獲得了更高的魯棒精度。值得注意的是,RoCL在穩健的遷移學習方面也顯示出令人印象深刻的結果。
網址:
2. Contrastive learning of global and local features for medical image segmentation with limited annotations
作者: Krishna Chaitanya, Ertunc Erdil, Neerav Karani, Ender Konukoglu
摘要: 有監督深度學習成功的一個關鍵要求是一個大的標記數據集——這是醫學圖像分析中難以滿足的條件。自監督學習(SSL)可以在這方面提供幫助,因為它提供了一種用未標記的數據預訓練神經網絡的策略,然后用有限的樣本標注對下游任務進行微調。對比學習是SSL的一種特殊變體,是一種學習圖像級表征的強大技術。在這項工作中,我們提出了一種策略,通過利用領域內一些特點,在標注有限的半監督場景下來擴展volumetric 醫療圖像分割的對比學習框架。具體地,我們提出了:(1)新穎的對比策略,它利用volumetric 醫學圖像之間的結構相似性(領域特定線索);(2)對比損失的局部信息來學習對每個像素分割有用的局部區域的獨特表示(問題特定線索)。我們在三個磁共振成像(MRI)數據集上進行了廣泛的評估。在有限的標注環境下,與其他的自監督和半監督學習技術相比,本文提出的方法有了很大的改進。當與簡單的數據增強技術相結合時,該方法僅使用兩個標記的MRI體積用于訓練,達到基準性能的8%以內,相當于用于訓練基準的訓練數據ACDC的4%。
網址:
3. LoCo: Local Contrastive Representation Learning
作者: Yuwen Xiong, Mengye Ren, Raquel Urtasun
摘要: 深度神經網絡通常執行端到端反向傳播來學習權重,該過程在跨層的權重更新步驟中創建同步約束(synchronization constraints),并且這種約束在生物學上是不可信的。無監督對比表示學習的最新進展指出一個問題,即學習算法是否也可以是局部的,即下層的更新不直接依賴于上層的計算。雖然Greedy InfoMax分別學習每個塊的局部目標,但我們發現,在最新的無監督對比學習算法中,可能是由于貪婪的目標以及梯度隔離,會一直損害readout的準確性。在這項工作中,我們發現,通過重疊局部塊堆疊在一起,我們有效地增加了解碼器的深度,并允許較高的塊隱式地向較低的塊發送反饋。這種簡單的設計首次縮小了局部學習算法和端到端對比學習算法之間的性能差距。除了標準的ImageNet實驗,我們還展示了復雜下游任務的結果,例如直接使用readout功能進行對象檢測和實例分割。
網址:
4. Hard Negative Mixing for Contrastive Learning
作者: Yannis Kalantidis, Mert Bulent Sariyildiz, Noe Pion, Philippe Weinzaepfel, Diane Larlus
摘要: 對比學習已成為計算機視覺中自監督學習方法的重要組成部分。通過學習將同一圖像的兩個增強版本相互靠近地圖像嵌入,并將不同圖像的嵌入分開,可以訓練高度可遷移的視覺表示。最近的研究表明,大量的數據增強和大量的負樣本集對于學習這樣的表征都是至關重要的。同時,無論是在圖像層面還是在特征層面,數據混合策略都通過合成新的示例來改進監督和半監督學習,迫使網絡學習更健壯的特征。在這篇文章中,我們認為對比學習的一個重要方面,即hard negatives的影響,到目前為止被忽視了。為了獲得更有意義的負樣本,目前最流行的對比自監督學習方法要么大幅增加batch sizes大小,要么保留非常大的內存庫;然而,增加內存需求會導致性能回報遞減。因此,我們從更深入地研究一個表現最好的框架開始,并展示出證據,為了促進更好、更快的學習,需要更難的難樣本(harder negatives)。基于這些觀察結果,并受到數據混合策略成功的激勵,我們提出了特征級別的難例混合策略,該策略可以用最小的計算開銷在運行中進行計算。我們在線性分類、目標檢測和實例分割方面對我們的方法進行了詳盡的改進,并表明使用我們的難例混合過程提高了通過最先進的自監督學習方法學習的視覺表示的質量。
代碼:
網址:
5. Multi-label Contrastive Predictive Coding
作者: Jiaming Song, Stefano Ermon
摘要: 變量互信息(mutual information, MI)估計器廣泛應用于對比預測編碼(CPC)等無監督表示學習方法中。MI的下界可以從多類分類問題中得到,其中critic試圖區分從潛在聯合分布中提取的正樣本和從合適的建議分布中提取的(m?1)個負樣本。使用這種方法,MI估計值超過log m,因此有效下界可能會嚴重低估,除非m非常大。為了克服這一局限性,我們引入了一種新的基于多標簽分類問題的估計器,其中critic需要同時聯合識別多個正樣本。我們證明了在使用相同數量的負樣本的情況下,多標簽CPC能夠超過log m界,同時仍然是互信息的有效下界。我們證明了所提出的方法能夠帶來更好的互信息估計,在無監督表示學習中獲得經驗上的改進,并且在13個任務中超過了最先進的10個知識提取方法。
網址:
6. Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID
作者: Yixiao Ge, Feng Zhu, Dapeng Chen, Rui Zhao, Hongsheng Li
摘要: 域自適應目標Re-ID旨在將學習到的知識從已標記的源域轉移到未標記的目標域,以解決開放類(open-class)的重識別問題。雖然現有的基于偽標簽的方法已經取得了很大的成功,但是由于域的鴻溝和聚類性能的不理想,它們并沒有充分利用所有有價值的信息。為了解決這些問題,我們提出了一種新的具有混合記憶的自適應對比學習框架。混合存儲器動態地生成用于學習特征表示的源域類級、目標域簇級和未聚類實例級監督信號。與傳統的對比學習策略不同,該框架聯合區分了源域類、目標域簇和未聚類實例。最重要的是,所提出的自適應方法逐漸產生更可靠的簇來提煉混合記憶和學習目標,這被證明是我們方法的關鍵。我們的方法在目標 Re-ID的多域適配任務上的性能優于現有技術,甚至在源域上不需要任何額外的標注就能提高性能。在Market1501和MSMT17數據上,我們的無監督目標Re-ID的通用版本分別比最先進的算法高出16.7%和7.9%。
代碼:
網址:
7. Supervised Contrastive Learning
作者: Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, Dilip Krishnan
摘要: 交叉熵是圖像分類模型監督訓練中應用最廣泛的損失函數。在本文中,我們提出了一種新的訓練方法,該方法在不同的體系結構和數據增強的監督學習任務中始終優于交叉熵。我們修正了批量對比損失,它最近被證明在自監督環境下學習強大的表示是非常有效的。因此,我們能夠比交叉熵更有效地利用標簽信息。屬于同一類的點簇在嵌入空間中被拉在一起,同時推開來自不同類的樣本簇。除此之外,我們還利用了大的batch sizes和標準化嵌入等關鍵因素,這些因素已被證明有利于自監督學習。在ResNet-50和ResNet-200上,我們的性能都比交叉熵高出1%以上,在使用 AutoAugment數據增強的方法中創造了78.8%的新技術水平。在校準和準確度方面,這一損失也顯示出在標準基準上對自然損壞的穩健性有明顯的好處。與交叉熵相比,我們的監督對比損失對諸如優化器或數據增強等超參數設置更穩定。
網址:
我們考慮這樣一個問題:你如何為對比學習抽取好的負樣本例子?我們認為,與度量學習一樣,學習對比表示法受益于硬負樣本(即,點很難與錨點區分)。使用硬負樣本的關鍵挑戰是對比方法必須保持無監督,使得采用現有的使用標簽信息的負樣本抽樣策略不可行。作為回應,我們開發了一種新的無監督的方法來選擇硬負樣本,在那里用戶可以控制硬負樣本的數量。這種抽樣的極限情況會導致對每個類進行緊密聚類的表示,并將不同的類推到盡可能遠的地方。該方法提高了跨模態的下游性能,只需要少量的額外代碼來實現,并且沒有引入計算開銷。
我們解決了監督學習的特征化和尋找最優表示的問題。傳統上,這個問題通過使用信息瓶頸來解決,即壓縮輸入,同時保留關于目標的信息,這種方式與解碼器無關。然而,在機器學習中,我們的目標不是壓縮而是泛化,這與我們感興趣的預測族或譯碼器(例如線性分類器)密切相關。我們提出了可解碼信息瓶頸(DIB),它從預期預測族的角度考慮信息的保留和壓縮。因此,DIB產生了預期測試性能方面的最優表示,并且可以在保證的情況下進行估計。實驗表明,該框架可以在下游分類器上施加一個小的泛化間隙,并預測神經網絡的泛化能力。
//www.zhuanzhi.ai/paper/89c6cd33631078ee766b8b8dc409a503
確定輸入是否在分布外(OOD)是在開放世界中安全部署機器學習模型的一個重要基石。然而,以往依賴softmax置信評分的方法對OOD數據存在過自信的后驗分布。我們提出了一個使用能量分數的OOD檢測的統一框架。我們表明,能量分數比使用softmax分數的傳統方法更好地區分分布內和分布外的樣本。與softmax信心分數不同,能量分數理論上與輸入的概率密度一致,不太容易受到過度自信問題的影響。在這個框架內,能量可以被靈活地用作任何預訓練的神經分類器的評分函數,也可以作為可訓練的代價函數來明確地塑造能量表面,用于OOD檢測。在CIFAR-10預訓練的WideResNet中,使用能量分數比softmax信心分數降低平均FPR (TPR 95%) 18.03%。在以能量為基礎的訓練中,我們的方法在一般的基準上比最先進的方法表現得更好。
在本文中,我們提出了一種端到端的圖學習框架,即迭代深度圖學習(IDGL),用于共同迭代地學習圖結構和圖嵌入。IDGL的關鍵原理是學習基于更好的節點嵌入的更好的圖結構,反之亦然(即基于更好的圖結構的更好的節點嵌入)。我們的迭代方法動態停止時,學習圖接近足夠優化的圖預測任務。此外,我們將圖學習問題轉換為一個相似度量學習問題,并利用自適應圖正則化來控制學習圖的質量。最后,結合基于錨點的近似技術,我們進一步提出了一個可擴展的IDGL版本,即IDGL- anch,在不影響性能的前提下,顯著降低了IDGL的時間和空間復雜度。我們在9個基準上進行的廣泛實驗表明,我們提出的IDGL模型始終能夠優于或匹配最先進的基線。此外,IDGL還能更魯棒地處理對抗圖,并能同時處理傳導學習和歸納學習。
圖神經網絡(GNNs)已被證明是有效的模型,用于對圖結構數據的不同預測任務。最近關于它們表達能力的工作集中在同構任務和可數特征空間。我們對這個理論框架進行了擴展,使其包含連續的特性——在真實世界的輸入域和gnn的隱藏層中定期出現——并演示了在此上下文中對多個聚合函數的需求。為此,我們提出了一種新的聚合器結構——主鄰域聚合(PNA),它將多個聚合器與度標器相結合,從而推廣了總和聚合器。最后,我們通過一個新的基準來比較不同模型捕獲和利用圖結構的能力,該基準包含了來自經典圖理論的多個任務,以及來自現實領域的現有基準,所有這些都證明了我們模型的強大。通過這項工作,我們希望引導一些GNN研究轉向新的聚合方法,我們認為這對于尋找強大和健壯的模型至關重要。
//www.zhuanzhi.ai/paper/bee47b0e291d163fae01c
對比學習(contrastive learning)是對于給定的正例樣本和負例樣本,通過讓編碼器學習如何去區分它們,從而捕捉到樣本中最具判別性的特征。因為這種隸屬于自監督學習的方式,模型框架清晰易懂,效果異常優越,受到了很多頂會論文的青睞。今天將分享兩篇KDD2020會議上的論文:一篇將對比學習應用于圖預訓練任務上;另一篇深度解析了負采樣技術在圖表示學習中的作用,能為對比學習的進一步發展帶來啟發。
GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training
論文地址://arxiv.org/abs/2006.09963
本文提出了一種無監督的圖表示學習預訓練框架GCC,能夠捕捉到廣泛存在于不同圖之間的拓撲性質,并且無需輸入額外的屬性或是標簽。GCC將預訓練任務設定為在同一張圖內或不同圖之間區分子圖級別的實例,進一步利用對比學習使模型能夠學到固有的、可遷移的結構表示。最后通過一系列的實驗,驗證了pre-training & fine-tuning模式在圖表示學習中的巨大潛力。
Understanding Negative Sampling in Graph Representation Learning
論文地址:
本文分別從目標函數和風險兩個角度深刻剖析了負采樣技術在圖表示學習中起到的作用,并通過理論證明:負采樣的分布應該和正樣本分布呈正相關但是亞線性的關系。基于該理論,本文進一步提出了新的負采樣策略,即MCNS,并利用改進版的Metropolis-Hastings算法對該過程進行了加速。
題目: Debiased Contrastive Learning
摘要:
自監督表示學習的一項突出技術是對比語義相似和不相似的樣本對。如果無法訪問標簽,通常會將不同的(負)點視為隨機采樣的數據點,隱式地接受這些點實際上可能具有相同的標簽。不足為奇的是,我們觀察到在具有標簽的綜合環境中,從真正不同的標簽中抽取負面樣本可以提高性能。受此觀察結果的啟發,開發了一種反偏差對比目標,即使不知道真實的標簽,也可以校正相同標簽的數據點的采樣。從經驗上講,擬議的目標在視覺,語言和強化學習基準方面始終優于最新的代表性學習。從理論上講,我們為下游分類任務建立概括邊界。
題目: Laplacian Regularized Few-Shot Learning
簡介:
我們為小樣本學習提出了一個拉普拉斯正則化推斷。給定從基類中學習到的任何特征嵌入,我們將包含兩個項的二次二進制賦值函數最小化:(1)將查詢樣本分配給最近的類原型的一元項,以及(2)鼓勵附近查詢樣本成對使用的成對拉普拉斯項具有一致的標簽。我們的推論不會重新訓練基本模型,并且可以將其視為查詢集的圖形聚類,但要受到支持集的監督約束。我們導出了函數松弛的計算有效邊界優化器,該函數在保證收斂的同時為每個查詢樣本計算獨立(并行)更新。在基礎類上進行簡單的交叉熵訓練,并且沒有復雜的元學習策略后,我們對五個基準進行了全面的實驗。我們的LaplacianShot在不同模型,設置和數據集上具有顯著優勢,始終優于最新方法。此外,我們的歸納推理非常快,其計算時間接近于歸納推理,可用于大規模的一次性任務。