亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】NeurIPS,全稱神經信息處理系統大會(Conference and Workshop on Neural Information Processing Systems),作為關于機器學習和計算神經科學的國際會議,每年固定在12月舉行,由NIPS基金會主辦。NeurIPS是機器學習領域的頂級會議 ,是神經計算方面最好的會議之一 。在中國計算機學會的國際學術會議排名中,NeurIPS為人工智能領域的A類會議。NeurIPS 2021于12月6日-12月14日在加拿大蒙特利爾采用線上線下結合的方式舉辦。

來自OpenAI的研究人員Lilian Weng和Jong Wook Kim對自監督學習做了最新的報告,非常值得關注。

Lilian Weng現為OpenAI應用人工智能研究負責人,主要從事機器學習、深度學習和網絡科學研究 。她本科畢業于香港大學,碩士就讀于北京大學信息系統與計算機科學系,之后前往印度安納大學布魯頓分校攻讀博士。

Lilian Weng經常在個人博客分享學習和工作筆記,感興趣的可以戳這里: //lilianweng.github.io/lil-log/。

Jong Wook Kim,OpenAI研究技術人員,參與Jukebox和CLIP這樣的項目。研究興趣包括大規模多模態深度學習和音樂理解。

自監督學習:自預測與對比學習

自監督學習是一種很好的方法,可以從大量的未標記數據中提取訓練信號,并學習良好的表示,以方便下游的任務,在這些任務中收集特定于任務的標簽非常昂貴。本教程將著重介紹自監督學習的兩種主要方法:自預測和對比學習。自預測是指自監督的訓練任務,在這種訓練任務中,模型學會從剩余數據中預測一部分可用數據。對比學習是通過從數據集構造相似和不同的對,來學習一個相似數據樣本保持相近而不同數據樣本相距較遠的表示空間。本教程將涵蓋這兩個主題和跨各種應用程序的方法,包括視覺、語言、視頻、多模態和強化學習。

● 導論 Introduction: motivation, basic concepts, examples.

● 早期工作 Early work: look into connection with old methods.

● 方法 Methods

○ Self-prediction 

○ Contrastive Learning

● 前置任務 Pretext tasks: a wide range of literature review.

● 技術 Techniques: improve training efficiency.

● 未來方向 Future directions

付費5元查看完整內容

相關內容

自監督學習(self-supervised learning)可以被看作是機器學習的一種“理想狀態”,模型直接從無標簽數據中自行學習,無需標注數據。

【導讀】NeurIPS,全稱神經信息處理系統大會(Conference and Workshop on Neural Information Processing Systems),作為關于機器學習和計算神經科學的國際會議,每年固定在12月舉行,由NIPS基金會主辦。NeurIPS是機器學習領域的頂級會議 ,是神經計算方面最好的會議之一 。在中國計算機學會的國際學術會議排名中,NeurIPS為人工智能領域的A類會議。NeurIPS 2021于12月6日-12月14日在加拿大蒙特利爾采用線上線下結合的方式舉辦。

來自普林斯頓大學的研究人員Miles Cranmer和Shirley Ho對物理學知識嵌入的深度學習的報告,非常值得關注。

機器學習與物理學

物理研究和深度學習有著一種共生關系,而且這種關系在過去幾年變得越來越強。在本教程中,我們將展示這個故事的兩個方面。深度學習如何從物理和其他科學的概念中受益?物理研究的不同分支領域如何利用深度學習?深度學習在物理學中還有哪些尚未探索的應用可以從機器學習中獲益?我們將討論這個交集的過去和現在,然后為這一聯系的未來可能的方向理論化。在本次演講的第二部分,我們將概述一些利用物理學思想的現有深度學習技術,并指出該領域一些有趣的新方向。

//nips.cc/Conferences/2021/Schedule?type=Tutorial

付費5元查看完整內容

【導讀】NeurIPS,全稱神經信息處理系統大會(Conference and Workshop on Neural Information Processing Systems),作為關于機器學習和計算神經科學的國際會議,每年固定在12月舉行,由NIPS基金會主辦。NeurIPS是機器學習領域的頂級會議 ,是神經計算方面最好的會議之一 。在中國計算機學會的國際學術會議排名中,NeurIPS為人工智能領域的A類會議。NeurIPS 2021將于12月6日-12月14日在加拿大蒙特利爾采用線上線下結合的方式舉辦。

來自新加坡國立大學Wee Sun Lee教授做《機器學習中的消息傳遞-從圖模型到GNN》報告,NeurIPS | 2021教程,95頁ppt,值的關注!

Wee Sun Lee

新加坡國立大學計算機科學系教授。1992年在昆士蘭大學獲得學士學位,1996年在澳大利亞國立大學獲得博士學位。他曾是澳大利亞國防學院的研究員,新加坡-麻省理工聯盟的成員,以及麻省理工學院的訪問科學家。主要研究方向為機器學習、不確定性規劃、近似推理等。

//www.comp.nus.edu.sg/~leews/

機器學習中的消息傳遞

消息傳遞算法是在圖上操作的分布式算法,其中每個節點只使用本地存在于節點和事件邊緣的信息,并且只將信息發送給其鄰近節點。它們通常在機器學習中非常有效,而且相對容易并行化。例子包括概率圖形模型的近似推理算法,馬爾科夫決策過程的值迭代算法,圖神經網絡和注意力網絡。

本教程介紹了概率圖模型常用的近似推理算法和馬爾科夫決策過程的值迭代算法,重點是了解算法優化的目標。然后我們考慮更靈活但更難以解釋的信息傳遞算法,包括圖神經網絡和注意力網絡。我們討論了這些更靈活的網絡如何模擬更易于解釋的算法,通過算法對齊提供了對這些網絡的歸納偏差的一些理解,并允許將這種理解用于網絡設計。

付費5元查看完整內容

本教程將是關于無監督學習和強化學習的交叉。隨著自然語言處理中基于語言模型的預訓練和計算機視覺中的對比學習的出現,無監督學習(UL)在過去幾年中真正得到了發展。在這些領域中,無監督預訓練的一些主要優勢是在下游有監督學習任務中出現的數據效率。在如何將這些技術應用于強化學習和機器人方面,社區中有很多人感興趣。考慮到問題的連續決策性質,RL和機器人技術比被動地從互聯網上的圖像和文本中學習面臨更大的挑戰,它可能不會那么簡單。本教程將涵蓋如何在強化學習中應用和使用無監督學習的基本模塊,希望人們可以帶回最新的最先進的技術和實踐的知識,以及在這個具有挑戰性和有趣的交叉領域的廣泛的未來可能性和研究方向。

//icml.cc/Conferences/2021/Schedule

付費5元查看完整內容

雖然在許多領域產生并提供了大量的未標記數據,但獲取數據標簽的成本仍然很高。另一方面,用深度神經網絡解決問題已經變得非常流行,但目前的方法通常依賴大量的標記訓練數據來實現高性能。為了克服注釋的負擔,文獻中提出了利用來自同一領域的可用未標記數據的解決方案,稱為半監督學習;利用相似但又不同領域的已有標記的數據或訓練過的模型,稱為領域自適應。本教程的重點將是后者。領域自適應在社會上也越來越重要,因為視覺系統部署在任務關鍵應用中,其預測具有現實影響,但現實世界的測試數據統計可以顯著不同于實驗室收集的訓練數據。我們的目標是概述視覺領域適應方法,這一領域在計算機視覺領域的受歡迎程度在過去幾年中顯著增加,這可以從過去幾年在頂級計算機視覺和機器學習會議上發表的大量的相關論文中得到證明。

//europe.naverlabs.com/eccv-2020-domain-adaptation-tutorial/

付費5元查看完整內容

來自MILA,Aaron Courville的《自監督表示學習綜述》, Introduction II - Overview of self-supervised representation learning?

付費5元查看完整內容

雖然在許多領域產生并提供了大量的未標記數據,但獲取數據標簽的成本仍然很高。另一方面,用深度神經網絡解決問題已經變得非常流行,但目前的方法通常依賴大量的標記訓練數據來實現高性能。為了克服注釋的負擔,文獻中提出了利用來自同一領域的可用未標記數據的解決方案,稱為半監督學習;利用相似但又不同領域的已有標記的數據或訓練過的模型,稱為領域自適應。本教程的重點將是后者。領域自適應在社會上也越來越重要,因為視覺系統部署在任務關鍵應用中,其預測具有現實影響,但現實世界的測試數據統計可以顯著不同于實驗室收集的訓練數據。我們的目標是概述視覺領域適應方法,這一領域在計算機視覺領域的受歡迎程度在過去幾年中顯著增加,這可以從過去幾年在頂級計算機視覺和機器學習會議上發表的大量的相關論文中得到證明。

//europe.naverlabs.com/eccv-2020-domain-adaptation-tutorial/

付費5元查看完整內容

【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。近期,所有paper list 放出,小編發現**對比學習(Contrastive Learning)**相關的投稿paper很多,這塊研究方向這幾年受到了學術界的廣泛關注,并且在CV、NLP等領域也應用頗多。

為此,這期小編為大家奉上NeurIPS 2020必讀的七篇對比學習相關論文——對抗自監督對比學習、局部對比學習、難樣本對比學習、多標簽對比預測編碼、自步對比學習、有監督對比學習

NeurIPS 2020 Accepted Papers://neurips.cc/Conferences/2020/AcceptedPapersInitial

1. Adversarial Self-Supervised Contrastive Learning

作者: Minseon Kim, Jihoon Tack, Sung Ju Hwang

摘要: 現有的對抗性學習方法大多使用類別標簽來生成導致錯誤預測的對抗性樣本,然后使用這些樣本來增強模型的訓練,以提高魯棒性。雖然最近的一些工作提出了利用未標記數據的半監督對抗性學習方法,但它們仍然需要類別標簽。然而,我們真的需要類別標簽來進行反向的深度神經網絡的健壯訓練嗎?本文提出了一種新的針對未標記數據的對抗性攻擊,使得該模型混淆了擾動數據樣本的實例級身份。此外,我們還提出了一種自監督對比學習(Contrastive Learning)框架來對抗性地訓練未標記數據的魯棒神經網絡,其目的是最大化數據樣本的隨機擴充與其實例對抗性擾動之間的相似度。我們在多個基準數據集上驗證了我們的方法-魯棒對比學習(RoCL),在這些數據集上,它獲得了與最新的有監督對抗性學習方法相當的魯棒準確率,并且顯著地提高了對黑盒和不可見類型攻擊的魯棒性。此外,與單獨使用自監督學習相比,RoCL進一步結合有監督對抗性損失進行聯合微調,獲得了更高的魯棒精度。值得注意的是,RoCL在穩健的遷移學習方面也顯示出令人印象深刻的結果。

網址:

2. Contrastive learning of global and local features for medical image segmentation with limited annotations

作者: Krishna Chaitanya, Ertunc Erdil, Neerav Karani, Ender Konukoglu

摘要: 有監督深度學習成功的一個關鍵要求是一個大的標記數據集——這是醫學圖像分析中難以滿足的條件。自監督學習(SSL)可以在這方面提供幫助,因為它提供了一種用未標記的數據預訓練神經網絡的策略,然后用有限的樣本標注對下游任務進行微調。對比學習是SSL的一種特殊變體,是一種學習圖像級表征的強大技術。在這項工作中,我們提出了一種策略,通過利用領域內一些特點,在標注有限的半監督場景下來擴展volumetric 醫療圖像分割的對比學習框架。具體地,我們提出了:(1)新穎的對比策略,它利用volumetric 醫學圖像之間的結構相似性(領域特定線索);(2)對比損失的局部信息來學習對每個像素分割有用的局部區域的獨特表示(問題特定線索)。我們在三個磁共振成像(MRI)數據集上進行了廣泛的評估。在有限的標注環境下,與其他的自監督和半監督學習技術相比,本文提出的方法有了很大的改進。當與簡單的數據增強技術相結合時,該方法僅使用兩個標記的MRI體積用于訓練,達到基準性能的8%以內,相當于用于訓練基準的訓練數據ACDC的4%。

網址:

3. LoCo: Local Contrastive Representation Learning

作者: Yuwen Xiong, Mengye Ren, Raquel Urtasun

摘要: 深度神經網絡通常執行端到端反向傳播來學習權重,該過程在跨層的權重更新步驟中創建同步約束(synchronization constraints),并且這種約束在生物學上是不可信的。無監督對比表示學習的最新進展指出一個問題,即學習算法是否也可以是局部的,即下層的更新不直接依賴于上層的計算。雖然Greedy InfoMax分別學習每個塊的局部目標,但我們發現,在最新的無監督對比學習算法中,可能是由于貪婪的目標以及梯度隔離,會一直損害readout的準確性。在這項工作中,我們發現,通過重疊局部塊堆疊在一起,我們有效地增加了解碼器的深度,并允許較高的塊隱式地向較低的塊發送反饋。這種簡單的設計首次縮小了局部學習算法和端到端對比學習算法之間的性能差距。除了標準的ImageNet實驗,我們還展示了復雜下游任務的結果,例如直接使用readout功能進行對象檢測和實例分割。

網址:

4. Hard Negative Mixing for Contrastive Learning

作者: Yannis Kalantidis, Mert Bulent Sariyildiz, Noe Pion, Philippe Weinzaepfel, Diane Larlus

摘要: 對比學習已成為計算機視覺中自監督學習方法的重要組成部分。通過學習將同一圖像的兩個增強版本相互靠近地圖像嵌入,并將不同圖像的嵌入分開,可以訓練高度可遷移的視覺表示。最近的研究表明,大量的數據增強和大量的負樣本集對于學習這樣的表征都是至關重要的。同時,無論是在圖像層面還是在特征層面,數據混合策略都通過合成新的示例來改進監督和半監督學習,迫使網絡學習更健壯的特征。在這篇文章中,我們認為對比學習的一個重要方面,即hard negatives的影響,到目前為止被忽視了。為了獲得更有意義的負樣本,目前最流行的對比自監督學習方法要么大幅增加batch sizes大小,要么保留非常大的內存庫;然而,增加內存需求會導致性能回報遞減。因此,我們從更深入地研究一個表現最好的框架開始,并展示出證據,為了促進更好、更快的學習,需要更難的難樣本(harder negatives)。基于這些觀察結果,并受到數據混合策略成功的激勵,我們提出了特征級別的難例混合策略,該策略可以用最小的計算開銷在運行中進行計算。我們在線性分類、目標檢測和實例分割方面對我們的方法進行了詳盡的改進,并表明使用我們的難例混合過程提高了通過最先進的自監督學習方法學習的視覺表示的質量。

代碼:

網址:

5. Multi-label Contrastive Predictive Coding

作者: Jiaming Song, Stefano Ermon

摘要: 變量互信息(mutual information, MI)估計器廣泛應用于對比預測編碼(CPC)等無監督表示學習方法中。MI的下界可以從多類分類問題中得到,其中critic試圖區分從潛在聯合分布中提取的正樣本和從合適的建議分布中提取的(m?1)個負樣本。使用這種方法,MI估計值超過log m,因此有效下界可能會嚴重低估,除非m非常大。為了克服這一局限性,我們引入了一種新的基于多標簽分類問題的估計器,其中critic需要同時聯合識別多個正樣本。我們證明了在使用相同數量的負樣本的情況下,多標簽CPC能夠超過log m界,同時仍然是互信息的有效下界。我們證明了所提出的方法能夠帶來更好的互信息估計,在無監督表示學習中獲得經驗上的改進,并且在13個任務中超過了最先進的10個知識提取方法。

網址:

6. Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID

作者: Yixiao Ge, Feng Zhu, Dapeng Chen, Rui Zhao, Hongsheng Li

摘要: 域自適應目標Re-ID旨在將學習到的知識從已標記的源域轉移到未標記的目標域,以解決開放類(open-class)的重識別問題。雖然現有的基于偽標簽的方法已經取得了很大的成功,但是由于域的鴻溝和聚類性能的不理想,它們并沒有充分利用所有有價值的信息。為了解決這些問題,我們提出了一種新的具有混合記憶的自適應對比學習框架。混合存儲器動態地生成用于學習特征表示的源域類級、目標域簇級和未聚類實例級監督信號。與傳統的對比學習策略不同,該框架聯合區分了源域類、目標域簇和未聚類實例。最重要的是,所提出的自適應方法逐漸產生更可靠的簇來提煉混合記憶和學習目標,這被證明是我們方法的關鍵。我們的方法在目標 Re-ID的多域適配任務上的性能優于現有技術,甚至在源域上不需要任何額外的標注就能提高性能。在Market1501和MSMT17數據上,我們的無監督目標Re-ID的通用版本分別比最先進的算法高出16.7%和7.9%。

代碼:

網址:

7. Supervised Contrastive Learning

作者: Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, Dilip Krishnan

摘要: 交叉熵是圖像分類模型監督訓練中應用最廣泛的損失函數。在本文中,我們提出了一種新的訓練方法,該方法在不同的體系結構和數據增強的監督學習任務中始終優于交叉熵。我們修正了批量對比損失,它最近被證明在自監督環境下學習強大的表示是非常有效的。因此,我們能夠比交叉熵更有效地利用標簽信息。屬于同一類的點簇在嵌入空間中被拉在一起,同時推開來自不同類的樣本簇。除此之外,我們還利用了大的batch sizes和標準化嵌入等關鍵因素,這些因素已被證明有利于自監督學習。在ResNet-50和ResNet-200上,我們的性能都比交叉熵高出1%以上,在使用 AutoAugment數據增強的方法中創造了78.8%的新技術水平。在校準和準確度方面,這一損失也顯示出在標準基準上對自然損壞的穩健性有明顯的好處。與交叉熵相比,我們的監督對比損失對諸如優化器或數據增強等超參數設置更穩定。

網址:

付費5元查看完整內容

我們常常希望將表征性知識從一個神經網絡轉移到另一個神經網絡。例如,將一個大的網絡提煉成一個較小的網絡,將知識從一種感覺模態傳遞到另一種感覺模態,或者將一組模型集成到一個單獨的估計器中。知識蒸餾是解決這些問題的標準方法,它最小化了教師和學生網絡的概率輸出之間的KL分歧。我們證明這一目標忽視了教師網絡的重要結構知識。這激發了另一個目標,通過這個目標,我們訓練學生從老師對數據的描述中獲取更多的信息。我們把這個目標稱為對比學習。實驗表明,我們得到的新目標在各種知識轉移任務(包括單模型壓縮、集成蒸餾和跨模態轉移)上的性能優于知識蒸餾和其他前沿蒸餾器。我們的方法在許多轉移任務中設置了一個新的水平,有時甚至超過教師網絡與知識蒸餾相結合。

付費5元查看完整內容
北京阿比特科技有限公司