亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

我們研究了一組新的用于恢復損壞數據表示的逆問題。我們假設可以訪問預訓練過的表示學習網絡R(x),該網絡對干凈的圖像進行操作,比如CLIP。問題是恢復圖像R(x)的表示,如果我們只給一個損壞的版本A(x),已知的正向算子A。我們提出了一種監督逆方法,使用對比目標,以獲得高損壞圖像的優秀表示。在我們的魯棒表示上使用線性探針,在對各種類型的畸變圖像(包括模糊、加性噪聲和隨機像素掩蔽)進行分類時,我們實現了比端到端監督基線更高的精度。我們在ImageNet的一個子集上進行評估,并觀察到我們的方法對不同程度的失真具有魯棒性。我們的方法優于端到端基線,即使在廣泛的前向運算符中只有一小部分標記數據。

//www.zhuanzhi.ai/paper/32e282f3015909f2c6243

付費5元查看完整內容

相關內容

在搭建網絡模型時,需要隨機初始化參數,然后開始訓練網絡,不斷調整直到網絡的損失越來越小。在訓練的過程中,一開始初始化的參數會不斷變化。當參數訓練到比較好的時候就可以將訓練模型的參數保存下來,以便訓練好的模型可以在下次執行類似任務時獲得較好的結果。

學習用于分布外預測的因果語義表示

Learning Causal Semantic Representation for Out-of-Distribution Prediction 論文摘要:標準的有監督學習方法特別是深度學習方法對分布外樣例的預測表現欠佳,主要由于其學到的表示難免會混淆語義因素和多樣因素,因為兩者在特定環境下具有特定的相關性,但只有語義因素是輸出變量的因。為此,我們通過對變量間因果關系的分析,將這兩個因素分開建模,進而提出了一個因果語義生成模型,并建立了相應的分布外預測方法用于解決常見且有挑戰性的單訓練域的情況。此方法源自因果不變性原理,并基于變分貝葉斯框架實現,其中引入了一個新穎的設計既實現了高效訓練又便于預測。理論上,我們證明了一定條件下,此模型可通過擬合訓練數據來識別語義因素,且這種識別保證了分布外泛化誤差的有界性和成功的領域自適應。實驗結果表明所提方法比主流基線方法具有更好的分布外預測表現。

付費5元查看完整內容

去柵格化的矢量圖識別

Recognizing Vector Graphics without Rasterization

論文摘要:本文工作關注在一種與以往大多數工作不同的圖像格式:矢量圖。和在圖像識別中常用的位圖不同,由于矢量圖基于解析幾何的表示方式,可以被無損失的縮放到任意分辨率。同時,矢量圖還提供了額外的結構化信息,描述了底層元素是如何構成高層的形狀和結構。現有的識別方法并沒有充分利用這一格式的優點。本文通過目標檢測這一基本的視覺任務來探索這個圖像格式。我們提出了一種無需 CNN 的高效網絡結構,在識別過程中無需將矢量圖渲染為像素圖(即柵格化),直接把矢量圖的文本作為模型輸入,稱為 YOLaT (You Only Look at Text)。YOLaT 將矢量圖的結構和空間信息建模為一個多重圖,并提出一個雙流圖神經網絡基于多重圖來進行目標檢測。實驗證明 YOLaT 通過直接對矢量圖進行處理分析,能夠在計算效率和性能上顯著超過現有的目標檢測方法。

//www.zhuanzhi.ai/paper/8b75d17e2875ed0792f5422150dc1067

付費5元查看完整內容

主動推理是一種關于感知和行動的統一理論,其基礎是大腦通過最小化自由能來維持世界的內部模型。從行為角度來看,主動推理代理可以被視為自我證明的存在,通過行動來實現他們的樂觀預測,即首選結果或目標。相反,強化學習需要人為設計的獎勵來實現任何期望的結果。盡管主動推理可以為控制提供一個更自然的自監督目標,但它的適用性受到限制,因為該方法在復雜環境下可擴展性不足。在這項工作中,我們提出了一個主動推理的對比目標,這大大減少了學習agent生成模型和規劃未來行動的計算負擔。在基于圖像的任務中,我們的方法比基于可能性的主動推理表現得明顯更好,同時計算成本更低,更容易訓練。我們將其與強化學習代理進行了比較,這些代理可以獲得人類設計的獎勵功能,表明我們的方法與它們的表現非常匹配。最后,我們還表明對比方法在環境干擾的情況下有顯著的更好的表現。

//arxiv.org/abs/2110.10083

付費5元查看完整內容

深度學習的核心目標是學習神經網絡各層特征的緊湊表示,這對無監督表示學習和結構網絡剪枝都很有用。雖然在結構修剪方面的工作越來越多,但目前最先進的方法有兩個關鍵限制:(1)訓練期間不穩定,(2)需要額外的微調步驟,這是資源密集型的。這些限制的核心是缺乏一種系統的方法,在單個階段的訓練中聯合修剪和細化權重,不需要在收斂上進行任何微調,以實現最先進的性能。本文提出了一種新的單級結構剪枝方法——判別掩蔽(DAM)。DAM背后的關鍵思路是,在訓練過程中,有選擇地選擇一些神經元進行精煉,而逐漸掩蓋其他神經元。我們表明,我們提出的DAM方法在各種應用中具有非常好的性能,包括降維、推薦系統、圖表示學習和圖像分類的結構化剪枝。我們還從理論上證明了DAM的學習目標與掩蔽層L0范數的最小化直接相關。

付費5元查看完整內容

我們提出了一種新的方法來解開一組給定的觀察結果背后的變異的生成因素。我們想法是建立在可以顯式地建模為子流形乘積的數據空間的(未知的)低維流形。這種解糾纏的定義提出了一種新的弱監督算法,用于恢復數據背后的未知解釋因素。在訓練時,我們的算法只需要成對的非i.i.d.數據樣本,它們的元素共享至少一個,可能是多維的,產生變異的因素。我們不需要知道這些變換的性質,也不需要對每個子空間的性質做任何限制性的假設。我們的方法易于實現,并可以成功地應用于不同類型的數據(從圖像到三維表面)進行任意轉換。除了標準的合成基準外,我們還展示了我們在挑戰現實應用方面的方法,在現實應用中,我們可以與目前的技術水平想匹配。

//www.zhuanzhi.ai/paper/9e9f6d368f90ce8173994ac06faab1eb

付費5元查看完整內容

最近,自監督學習方法在計算機視覺領域獲得了越來越多的關注。在自然語言處理(NLP)中,自監督學習和transformer已經是選擇的方法。最近的文獻表明,transformers或某種協同監督(例如在教師網絡方面)進行預訓練時效果很好。這些監督的預訓練的視覺變換器在下游任務獲得了了非常好的結果,而只需要較小的模型改變。

在本研究中,我們探討了自監督學習在圖像/視覺變換器的預訓練,然后將其用于下游分類任務的優點。我們提出了自監督視覺變形器(SiT),并討論了幾種自監督訓練機制來獲得前置模型。SiT的架構靈活性允許我們將其用作自動編碼器,并無縫地處理多個自監督任務。我們表明,預訓練的SiT可以被微調用于小規模數據集的下游分類任務,這些數據集由幾千張而不是幾百萬張圖像組成。

在通用協議的標準數據集上對所提出的方法進行了評估。實驗結果證明了該方法的有效性和自監督學習的可行性。我們大大超過了現有的自監督學習方法。我們還觀察到,SiT對少樣本學習很好,也表明它通過簡單地在從SiT學習到的特征之上訓練線性分類器來學習有用的表示。預訓練、調優和評估代碼將在以下鏈接中提供: //github.com/Sara-Ahmed/SiT。

引言

最近的趨勢表明,自監督預訓練可以顯著提高下游任務[4]、[5]的表現性能。在語音識別[6]和計算機視覺應用[7]、[8]、[9]、[10]中也觀察到類似的趨勢。如BERT[4]、[5]所示,自監督預訓練,特別是結合transformers [11],是自然語言處理(NLP)的選擇模型。自監督學習的成功是以大量數據集和大容量模型為代價的,例如,基于NLP的變換器是根據數千億單詞組成的帶有數十億參數[5]的模型進行訓練的。最近在圖像分類中取得成功的transformers[1]引起了計算機視覺界的極大興趣。然而,視覺transformer的預訓練主要是針對非常大規模的有監督學習數據集進行研究,例如,由數億個標記樣本[1]組成的數據集。最近,在沒有外部數據[2]的情況下,視覺轉換器在imagenet上表現良好,但是,它們需要CNNs對等體的蒸餾方法和指導。簡而言之,利用大規模監督數據集進行預訓練是計算機視覺中的一種規范,用來訓練深度神經網絡以獲得更好的性能。然而,人工標注訓練數據是相當昂貴的,盡管在眾包創新方面取得了進展。為了解決這一限制,自監督學習方法[7],[9],[10],[12],[13],[14]已被用到從未標記數據構建具有語義意義的圖像表示。

自監督方法大致可以分為生成式和判別性方法。生成式方法[15],[16],[17]學習建模數據的分布。然而,數據建模通常在計算上是昂貴的,并且在所有場景中可能不是表示學習所必需的。另一方面,通常在對比學習框架[8]、[18]、[19]、[20]或使用文本前任務[21]、[22]、[23]中實現的判別方法,證明了在適當的計算需求下獲得更好的泛化表示的能力。

對比學習的主要重點是學習對同一圖像的不同增廣視圖不變的圖像嵌入,同時對不同的圖像進行區分。盡管對比學習方法取得了令人印象深刻的結果,但他們往往忽視了對語境表征的學習,對于這一學習,替代的前置任務,如基于重構的方法,可能更適合。近年來,文獻中提出了一系列新穎的前置任務,包括修復斑塊[24]、著色[21]、[25]、[26]、相對斑塊位置[21]0、拼圖解決[27]、[28]、交叉信道預測[29]、噪聲預測[30]、圖像旋轉預測[22]、斑點偽影預測[23]等。

在這項工作中,我們介紹了一個簡單的自監督學習框架,利用對比學習和前置方法的優勢。本研究的主要貢獻和發現總結如下:

  • 我們提出了一種新的視覺表示的自監督學習方法——自監督視覺Transformer(SiT)。

  • 我們賦予SiT體系結構一個解碼器,并證明,由于Transformer的內在特性,它基本上可以通過使用一個線性層來實現。這種基于Transformer的自動編碼器避免了通常在基于CNN的編碼器-解碼器架構中出現的對整個解碼器塊的需要。

  • 利用自編碼Transformer支持多任務學習的自然能力,我們開發了一個強大的自監督框架,共同優化重建(圖像修復)、旋轉分類和收縮損失。

  • 我們在不同的評估協議(包括線性評估、領域轉移和微調)下,在標準基準上展示了擬議框架的有效性。

  • 在不同的數據集中,我們比并發的最先進的結果表現更好,在很大的間隔達到+13.53%的改進。

付費5元查看完整內容

Code://github.com/Shen-Lab/GraphCL Paper:

對于當前的圖神經網絡(GNNs)來說,圖結構數據的可泛化、可遷移和魯棒表示學習仍然是一個挑戰。與為圖像數據而開發的卷積神經網絡(CNNs)不同,自監督學習和預訓練很少用于GNNs。在這篇文章中,我們提出了一個圖對比學習(GraphCL)框架來學習圖數據的無監督表示。我們首先設計了四種類型的圖擴充來包含不同的先驗。然后,我們在四種不同的環境下系統地研究了圖擴充的各種組合對多個數據集的影響:半監督、無監督、遷移學習和對抗性攻擊。結果表明,與最先進的方法相比,即使不調優擴展范圍,也不使用復雜的GNN架構,我們的GraphCL框架也可以生成類似或更好的可泛化性、可遷移性和健壯性的圖表示。我們還研究了參數化圖增強的范圍和模式的影響,并在初步實驗中觀察了性能的進一步提高。

付費5元查看完整內容

我們解決了監督學習的特征化和尋找最優表示的問題。傳統上,這個問題通過使用信息瓶頸來解決,即壓縮輸入,同時保留關于目標的信息,這種方式與解碼器無關。然而,在機器學習中,我們的目標不是壓縮而是泛化,這與我們感興趣的預測族或譯碼器(例如線性分類器)密切相關。我們提出了可解碼信息瓶頸(DIB),它從預期預測族的角度考慮信息的保留和壓縮。因此,DIB產生了預期測試性能方面的最優表示,并且可以在保證的情況下進行估計。實驗表明,該框架可以在下游分類器上施加一個小的泛化間隙,并預測神經網絡的泛化能力。

//www.zhuanzhi.ai/paper/89c6cd33631078ee766b8b8dc409a503

付費5元查看完整內容

少樣本分類的目的是在只有少量樣本的情況下識別不可見的類。我們考慮了多域少樣本圖像分類的問題,其中不可見的類和例子來自不同的數據源。人們對這個問題越來越感興趣,并激發了元數據集等基準的開發。在這種多領域設置的一個關鍵挑戰是有效地整合來自不同訓練領域集的特征表示。在這里,我們提出了一個通用表示Transformer(URT)層,該元學會通過動態地重新加權和組合最合適的特定于領域的表示來利用通用特性進行少樣本分類。在實驗中,我們表明,URT在元數據集上設置了一個新的最先進的結果。具體來說,與競爭方法相比,它在數據源數量最多的情況下實現了最佳性能。我們分析了URT的各種變體,并給出了一個可視化的注意力分數熱圖,以闡明該模型是如何執行跨領域泛化的。

//www.zhuanzhi.ai/paper/40930a0aff223a2d2baab3d1d92d7674

付費5元查看完整內容
北京阿比特科技有限公司