亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】Yann Lecun在紐約大學開設的2020春季《深度學習》課程,干貨滿滿。最新的一期是來自Facebook AI的研究科學家Ishan Misra講述了計算機視覺中的自監督學習最新進展,108頁ppt,很不錯報告。

在過去的十年中,許多不同的計算機視覺問題的主要成功方法之一是通過對ImageNet分類進行監督學習來學習視覺表示。并且,使用這些學習的表示,或學習的模型權值作為其他計算機視覺任務的初始化,在這些任務中可能沒有大量的標記數據。

但是,為ImageNet大小的數據集獲取注釋是非常耗時和昂貴的。例如:ImageNet標記1400萬張圖片需要大約22年的人類時間。

因此,社區開始尋找替代的標記過程,如社交媒體圖像的hashtags、GPS定位或自我監督方法,其中標簽是數據樣本本身的屬性。

什么是自監督學習?

定義自我監督學習的兩種方式:

  • 基礎監督學習的定義,即網絡遵循監督學習,標簽以半自動化的方式獲得,不需要人工輸入。

  • 預測問題,其中一部分數據是隱藏的,其余部分是可見的。因此,其目的要么是預測隱藏數據,要么是預測隱藏數據的某些性質。

自監督學習與監督學習和非監督學習的區別:

  • 監督學習任務有預先定義的(通常是人為提供的)標簽,

  • 無監督學習只有數據樣本,沒有任何監督、標記或正確的輸出。

  • 自監督學習從給定數據樣本的共現形式或數據樣本本身的共現部分派生出其標簽。

自然語言處理中的自監督學習

Word2Vec

  • 給定一個輸入句子,該任務涉及從該句子中預測一個缺失的單詞,為了構建文本前的任務,該任務特意省略了該單詞。

  • 因此,這組標簽變成了詞匯表中所有可能的單詞,而正確的標簽是句子中省略的單詞。

  • 因此,可以使用常規的基于梯度的方法對網絡進行訓練,以學習單詞級表示。

為什么自監督學習

自監督學習通過觀察數據的不同部分如何交互來實現數據的學習表示。從而減少了對大量帶注釋數據的需求。此外,可以利用可能與單個數據樣本相關聯的多個模式。

計算機視覺中的自我監督學習

通常,使用自監督學習的計算機視覺管道涉及執行兩個任務,一個前置任務和一個下游任務。

  • 下游任務可以是任何類似分類或檢測任務的任務,但是沒有足夠的帶注釋的數據樣本。

  • Pre-text task是為學習視覺表象而解決的自監督學習任務,其目的是利用所學習的表象,或下游任務在過程中獲得的模型權值。

發展Pre-text任務

  • 針對計算機視覺問題的文本前任務可以使用圖像、視頻或視頻和聲音來開發。

  • 在每個pre-text任務中,都有部分可見和部分隱藏的數據,而任務則是預測隱藏的數據或隱藏數據的某些屬性。

下載鏈接: 鏈接: //pan.baidu.com/s/1gNK4DzqtAMXyrD1fBFGa-w 提取碼: ek7i

付費5元查看完整內容

相關內容

自監督學習(self-supervised learning)可以被看作是機器學習的一種“理想狀態”,模型直接從無標簽數據中自行學習,無需標注數據。

無監督學習是機器學習的三個主要分支之一(以及監督學習和強化學習)。它也可以說是最不發達的分支。它的目標是通過發現和利用其隱藏結構來找到對輸入數據的簡約描述。據推測,與監督學習相比,這更讓人聯想到大腦的學習方式。此外,假設通過無監督學習發現的表示形式可以緩解深度監督和強化學習中的許多已知問題。但是,由于缺乏明確的ground-truth目標來優化,無監督學習的發展進展緩慢。在本次演講中,DeepMind研究科學家Irina Higgins和DeepMind研究工程師Mihaela Rosca概述了無監督表示學習的歷史作用以及開發和評估此類算法的困難。然后,他們將采取多學科的方法來思考什么可以做一個好的表示方法,以及為什么要這樣做,然后再對無監督的表示學習的當前最新方法進行廣泛的概述。

付費5元查看完整內容

從圖像中進行自監督學習的目標是通過不需要對大量訓練圖像進行語義注釋的前置任務來構造語義上有意義的圖像表示。許多前置任務導致與圖像變換協變的表示。相反,我們認為語義表示在這種轉換下應該是不變的。具體來說,我們開發了前置不變表示學習(PIRL,發音為“pearl”),該學習基于前置任務的不變表示。我們將PIRL與一個常用的前置任務一起使用,該任務涉及解決拼圖游戲。我們發現,PIRL極大地提高了學習圖像表示的語義質量。我們的方法設置了一個新的藝術的自監督學習從圖像上幾個流行的基準自我監督學習。盡管是無監督的,但PIRL在學習圖像表示和目標檢測方面的表現優于有監督的前訓練。總之,我們的結果證明了具有良好不變性的圖像表示的自監督學習的潛力。

付費5元查看完整內容

【導讀】如何利用未標記數據進行機器學習是當下研究的熱點。最近自監督學習、對比學習等提出用于解決該問題。最近來自Google大腦團隊的Luong博士介紹了無標記數據學習的進展,半監督學習以及他們最近重要的兩個工作:無監督數據增強和自訓練學習,是非常好的前沿材料。

深度學習盡管取得了很大成功,但通常在小標簽訓練集中表現不佳。利用未標記數據改善深度學習一直是一個重要的研究方向,其中半監督學習是最有前途的方法之一。在本次演講中,Luong博士將介紹無監督數據增強(UDA),這是我們最近的半監督學習技術,適用于語言和視覺任務。使用UDA,我們僅使用一個或兩個數量級標記較少的數據即可獲得最先進的性能。

在本次演講中,Luong博士首先解釋了基本的監督機器學習。在機器學習中,計算機視覺的基本功能是利用圖像分類來識別和標記圖像數據。監督學習需要輸入和標簽才能與輸入相關聯。通過這樣做,您可以教AI識別圖像是什么,無論是對象,人類,動物等。Luong博士繼續進一步解釋神經網絡是什么,以及它們如何用于深度學習。這些網絡旨在模仿人類大腦的功能,并允許AI自己學習和解決問題。

付費5元查看完整內容

【導讀】在最新AAAI2020的邀請嘉賓報告上,Facebook人工智能總監、圖靈獎得主Yann Lecun給了自監督學習的報告《Self-Supervised Learning 》,44頁ppt,介紹了深度學習面臨的挑戰,自監督學習的光明前景,基于能量學習的因變量模型,介紹最新自監督學習的進展與問題,是非常值得看的報告。

自監督學習 Self-Supervised Learning

計算機感知、語音識別和自然語言處理的最新進展幾乎都是建立在有監督的深度學習的基礎上的,在這種學習中,機器預測需要人類提供的標注。如今,DL系統已經成為搜索引擎和社交網絡內容過濾和檢索、醫學圖像分析、駕駛輔助以及許多科學領域的核心。但是,最好的機器學習方法仍然需要比人類和動物學習多得多的數據或與環境的交互。我們如何讓機器像動物和人類一樣,通過獨立于任務的觀察來學習關于世界如何運作的大量背景知識?一種有前途的方法是自監督學習(SSL),即機器從輸入的其他部分預測輸入的一部分。SSL已經在離散領域帶來了巨大的進步,例如語言理解。問題是如何在音頻、圖像和視頻等高維連續域中使用SSL。

付費5元查看完整內容

報告主題: Energy-Based Self-Supervised Learning

報告摘要:

在監督或多任務學習中,將不會獲得像人類一樣可以泛化的智能。監督學習是有效的,但需要許多帶標簽的樣本,通過舉例而不是編程來訓練機器,當輸出錯誤時,調整機器的參數。在整個領域中可能需要在基于能量的學習方法上做更多的工作,能量函數在AI領域已經存在數十年了,無需創建大量帶有標簽的數據集,也不用花費數千個小時訓練模型,而只是獲取一些豐富的原始數據,讓機器變得足夠大,由此可以訓練機器預測,預測與現實之間的兼容性就是所謂的能級。能量越少越好,更兼容、更準確,因此神經網絡需要努力達到理想的低能量狀態。

嘉賓介紹:

Yann Lecun是一位法裔美國計算機科學家,主要研究領域為機器學習、計算機視覺、移動機器人和計算神經科學。他是紐約大學Courant數學科學研究所的銀牌教授,也是Facebook的副總裁兼首席人工智能科學家。他以研究卷積神經網絡(CNN)的光學字符識別和計算機視覺而聞名,是卷積網絡的創始人之一。他也是DjVu圖像壓縮技術的主要創建者之一(與Leon Bottou和Patrick Haffner一起)。他與Leon Bottou共同開發了Lush編程語言。他是2018年ACM A.M.的聯合獲獎者因為他在深度學習方面的工作獲得了圖靈獎。

付費5元查看完整內容
北京阿比特科技有限公司