亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

題目: IMAGEBERT: CROSS-MODAL PRE-TRAINING WITH LARGE-SCALE WEAK-SUPERVISED IMAGE-TEXT DATA

摘要: 本文介紹了一種新的用于圖像-文本聯合嵌入的視覺語言預訓練模型圖像BERT。我們的模型是一個基于Transformer的模型,它以不同的模態作為輸入,對它們之間的關系進行建模。該模型同時進行了四項任務的預訓練:掩蔽語言建模(MLM)、掩蔽對象分類(MOC)、掩蔽區域特征回歸(MRFR)和圖像文本匹配(ITM)。為了進一步提高預訓練的質量,我們從Web上收集了一個大規模的弱監督圖像-文本(LAIT)數據集。我們首先在這個數據集上對模型進行預訓練,然后對概念字幕和SBU字幕進行第二階段的預訓練。實驗結果表明,多階段預訓練策略優于單階段預訓練策略。我們還在圖像檢索和文本檢索任務上對預先訓練好的ImageBERT模型進行了調優和評估,并在MSCOCO和Flickr30k數據集上獲得了最好的效果。

付費5元查看完整內容

相關內容

弱監督學習:監督學習的一種。大致分3類,第一類是不完全監督(incomplete supervision),即,只有訓練集的一個(通常很小的)子集是有標簽的,其他數據則沒有標簽。這種情況發生在各類任務中。例如,在圖像分類任務中,真值標簽由人類標注者給出的。從互聯網上獲取巨量圖片很容易,然而考慮到標記的人工成本,只有一個小子集的圖像能夠被標注。第二類是不確切監督(inexact supervision),即,圖像只有粗粒度的標簽。第三種是不準確的監督(inaccurate supervision),模型給出的標簽不總是真值。出現這種情況的常見原因有,圖片標注者不小心或比較疲倦,或者某些圖片就是難以分類。

交叉熵是圖像分類模型監督訓練中應用最廣泛的損失函數。在這篇論文中,我們提出了一種新的訓練方法,在不同架構和數據擴充的監督學習任務中,它的表現始終優于交叉熵。我們修改了批量對比損失,這是最近被證明在自監督學習強大表示是非常有效的。我們能夠比交叉熵更有效地利用標簽信息。在嵌入空間中,將同一類的點聚在一起,同時將不同類的樣本聚在一起。除此之外,我們還利用了關鍵的成分,如大批量和標準化嵌入,這些已經被證明有利于自監督學習。在ResNet-50和ResNet-200上,我們的交叉熵性能都超過了1%,在使用自動增廣數據增強的方法中,我們設置了78.8%的最新水平。這一損失也清楚地表明,在校準和準確性方面,對標準基準的自然損壞具有魯棒性。與交叉熵相比,我們的監督對比損失更穩定的超參數設置,如優化或數據擴充。

付費5元查看完整內容

最近的研究表明,預訓練文本表示能夠顯著提高許多自然語言處理任務的性能。訓練的中心目標是學習對后續任務有用的文本表示形式。然而,現有的方法是通過最小化代理目標(如語言建模的負日志可能性)來優化的。在這項工作中,我們介紹了一個學習算法,它直接優化模型學習文本表示的能力,以有效地學習下游任務。我們證明了多任務預訓練和模型不可知的元學習之間有著內在的聯系。BERT中采用的標準多任務學習目標是元訓練深度為零的學習算法的一個特例。我們在兩種情況下研究了這個問題:無監督的預訓練和有監督的預訓練,不同的預訓練對象驗證了我們的方法的通用性。實驗結果表明,我們的算法對各種下游任務進行了改進,獲得了更好的初始化。

付費5元查看完整內容

題目: CURL: Contrastive Unsupervised Representations for Reinforcement Learning

摘要:

我們提出了CURL:用于強化學習的對比無監督表示法。CURL使用對比學習從原始像素中提取高級特征,并在提取的特征之上執行off-policy控制。在DeepMind控制套件和Atari游戲中,在100K交互步驟基準測試中,CURL在復雜任務上的表現優于先前基于模型和非模型的基于像素的方法,分別提高了2.8倍和1.6倍的性能。在DeepMind控制套件中,CURL是第一個基于圖像的算法,它的效率和性能幾乎與使用基于狀態的特性的方法不相上下。

付費5元查看完整內容

題目: Learning Representations For Images With Hierarchical Labels

摘要:

圖像分類已經得到了廣泛的研究,但是除了傳統的圖像標簽對之外,在使用非常規的外部指導來訓練這些模型方面的工作還很有限。在本文中,我們提出了一組利用類標簽引起的語義層次信息的方法。在論文的第一部分,我們將標簽層次知識注入到任意的分類器中,并通過實驗證明,將這些外部語義信息與圖像的視覺語義相結合,可以提高整體性能。在這個方向上更進一步,我們使用自然語言中流行的基于保留順序的嵌入模型來更明確地建模標簽-標簽和標簽-圖像的交互,并將它們裁剪到計算機視覺領域來執行圖像分類。盡管在本質上與之相反,在新提出的、真實世界的ETH昆蟲學收集圖像數據集上,注入層次信息的CNN分類器和基于嵌入的模型都優于不可知層次的模型。

付費5元查看完整內容

題目

跨語言表示學習,Unsupervised Cross-lingual Representation Learning at Scale

關鍵詞

自然語言處理,表示學習,跨語言,人工智能

簡介

本文表明,針對多種跨語言轉換任務,大規模地對多語言語言模型進行預訓練可以顯著提高性能。 我們使用超過2 TB的經過過濾的CommonCrawl數據在一百種語言上訓練了基于Transformer的屏蔽語言模型。 我們的模型稱為XLM-R,在各種跨語言基準測試中,其性能明顯優于多語言BERT(mBERT),包括XNLI的平均精度為+ 13.8%,MLQA的平均F1得分為+ 12.3%,NER的平均F1得分為+ 2.1%。 XLM-R在低資源語言上表現特別出色,與以前的XLM模型相比,斯瓦希里語的XNLI準確性提高了11.8%,烏爾都語的準確性提高了9.2%。 我們還對獲得這些收益所需的關鍵因素進行了詳細的實證評估,包括(1)積極轉移和能力稀釋以及(2)大規模資源資源的高低性能之間的權衡。 最后,我們首次展示了在不犧牲每種語言性能的情況下進行多語言建模的可能性。 XLM-R在GLUE和XNLI基準測試中具有強大的單語言模型,因此非常具有競爭力。 我們將公開提供XLM-R代碼,數據和模型。

作者

Alexis Conneau, Kartikay Khandelwal等。

付費5元查看完整內容

題目: Data Augmentation using Pre-trained Transformer Models

簡介:

基于語言模型的預訓練模型,如BERT,在不同的NLP任務中提供了顯著的收益。在本文中,我們研究了不同類型的基于自回歸模型(GPT-2)、自編碼器模型(BERT)和seq2seq模型(BART)等用于條件數據增強的預訓練變壓器模型。我們表明,將類標簽前置到文本序列提供了一種簡單而有效的方法來設置預訓練模型的條件,以便進行數據擴充。在三個分類基準上,預先訓練的Seq2Seq模型優于其他模型。此外,我們還探討了不同的基于預訓練模型的數據擴充在數據多樣性方面是如何不同的,以及這些方法如何很好地保存類標簽信息。

付費5元查看完整內容

Bidirectional Encoder Representations from Transformers (BERT) represents the latest incarnation of pretrained language models which have recently advanced a wide range of natural language processing tasks. In this paper, we showcase how BERT can be usefully applied in text summarization and propose a general framework for both extractive and abstractive models. We introduce a novel document-level encoder based on BERT which is able to express the semantics of a document and obtain representations for its sentences. Our extractive model is built on top of this encoder by stacking several inter-sentence Transformer layers. For abstractive summarization, we propose a new fine-tuning schedule which adopts different optimizers for the encoder and the decoder as a means of alleviating the mismatch between the two (the former is pretrained while the latter is not). We also demonstrate that a two-staged fine-tuning approach can further boost the quality of the generated summaries. Experiments on three datasets show that our model achieves state-of-the-art results across the board in both extractive and abstractive settings. Our code is available at //github.com/nlpyang/PreSumm

北京阿比特科技有限公司