亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

零次學習是指讓機器分類沒見過的對象類別,開集識別要求讓機器把沒見過的對象類別標成“不認識”,兩個任務都依賴想象能力。《反事實的零次和開集識別》提出了一種基于反事實的算法框架,通過解耦樣本特征(比如對象的姿勢)和類別特征(比如是否有羽毛),再基于樣本特征進行反事實生成。在常用數據集上,該算法的準確率超出現有頂尖方法 2.2% 到 4.3%。論文作者岳中琪指出,AI 認知智能的進化剛剛開始,業界的探索仍處在早期階段,今后他們將不斷提升和優化相關算法。

//www.zhuanzhi.ai/paper/70853146dd56cd4468837754a1478949

付費5元查看完整內容

相關內容

零次學習是AI識別方法之一。簡單來說就是識別從未見過的數據類別,即訓練的分類器不僅僅能夠識別出訓練集中已有的數據類別,還可以對于來自未見過的類別的數據進行區分。這是一個很有用的功能,使得計算機能夠具有知識遷移的能力,并無需任何訓練數據,很符合現實生活中海量類別的存在形式。

細粒度視覺分析(FGVA)是計算機視覺和模式識別中一個長期存在的基本問題,它支撐著一系列真實世界的應用,如生物多樣性自動監測、氣候變化評估、智能零售、智能交通、在節約資源、促進經濟增長、提高社會運行效率等方面已取得了積極的社會經濟效果。FGVA任務的目標是分析從屬類別的視覺對象,例如鳥類的種類、汽車的模型、產品的庫存單位或體操的動作。由于其非常細粒度的特性,類間小而類內大變化使其成為一個具有挑戰性的問題。借助深度學習的蓬勃發展,近年來使用深度學習技術的FGVA取得了顯著進展。

本教程旨在促進研究基于細粒度可視化分析方法的研究人員之間的討論,并將尖端細粒度可視化技術部署到實際應用程序中。具體來說,我們將促進討論各種基于深度學習的細粒度視覺分析主題的最新進展、正在進行的發展和新應用,例如細粒度圖像檢索、細粒度圖像識別、長尾視覺識別、細粒度視頻理解等。

付費5元查看完整內容

當測試數據和訓練數據的分布相似時,基于深度神經網絡的方法已經取得了驚人的性能,但如果沒有相似的分布,則性能可能表現很差。因此,消除訓練和測試數據之間分布變化的影響對于構建具有良好性能的深度模型至關重要。傳統的方法要么假設訓練數據已知的異質性(例如域標簽),要么假設不同域的容量近似相等。在本文中,我們考慮一個更具有挑戰性的情況,即上述兩種假設都不成立。為了解決這一問題,我們提出通過學習訓練樣本的權重來消除特征之間的依賴關系,這有助于深度模型擺脫虛假的相關性,從而更加關注區分性特征和標簽之間的真實聯系。大量的實驗清楚地證明了我們的方法在多個分布泛化基準上的有效性,與最先進的同行相比。通過大量的分布泛化基準實驗,包括PACS、VLCS、mist - m和NICO,我們證明了該方法的有效性,并與最新的同類方法進行了比較。

//www.zhuanzhi.ai/paper/dd9a8778840b02be8c81aebac3c94263

付費5元查看完整內容

預訓練已被證實能夠大大提升下游任務的性能。傳統方法中經常利用大規模的帶圖像標注分類數據集(如 ImageNet)進行模型監督預訓練,近年來自監督學習方法的出現,讓預訓練任務不再需要昂貴的人工標簽。然而,絕大多數方法都是針對圖像分類進行設計和優化的。但圖像級別的預測和區域級別 / 像素級別存在預測差異,因此這些預訓練模型在下游的密集預測任務上的性能可能不是最佳的。

基于此,來自阿德萊德大學、同濟大學、字節跳動的研究者設計了一種簡單且有效的密集自監督學習方法,不需要昂貴的密集人工標簽,就能在下游密集預測任務上實現出色的性能。目前該論文已被 CVPR 2021 接收。

//www.zhuanzhi.ai/paper/4b31c2807b7c37ca49ca8f7c43b4b7d4

該研究提出的新方法 DenseCL(Dense Contrastive Learning)通過考慮局部特征之間的對應關系,直接在輸入圖像的兩個視圖之間的像素(或區域)特征上優化成對的對比(不相似)損失來實現密集自監督學習。

兩種用于表征學習的對比學習范式的概念描述圖。

現有的自監督框架將同一張圖像的不同數據增強作為一對正樣本,利用剩余圖像的數據增強作為其負樣本,構建正負樣本對實現全局對比學習,這往往會忽略局部特征的聯系性與差異性。該研究提出的方法在此基礎上,將同一張圖像中最為相似的兩個像素(區域)特征作為一對正樣本,而將余下所有的像素(區域)特征作為其負樣本實現密集對比學習。

具體而言,該方法去掉了已有的自監督學習框架中的全局池化層,并將其全局映射層替換為密集映射層實現。在匹配策略的選擇上,研究者發現最大相似匹配和隨機相似匹配對最后的精度影響非常小。與基準方法 MoCo-v2[1] 相比,DenseCL 引入了可忽略的計算開銷(僅慢了不到 1%),但在遷移至下游密集任務(如目標檢測、語義分割)時,表現出了十分優異的性能。

付費5元查看完整內容

Mobile Network設計的最新研究成果表明,通道注意力(例如,SE注意力)對于提升模型性能具有顯著效果,但它們通常會忽略位置信息,而位置信息對于生成空間選擇性attention maps是非常重要。

因此在本文中,作者通過將位置信息嵌入到通道注意力中提出了一種新穎的移動網絡注意力機制,將其稱為“Coordinate Attention”。

與通過2維全局池化將特征張量轉換為單個特征向量的通道注意力不同,coordinate注意力將通道注意力分解為兩個1維特征編碼過程,分別沿2個空間方向聚合特征。這樣,可以沿一個空間方向捕獲遠程依賴關系,同時可以沿另一空間方向保留精確的位置信息。然后將生成的特征圖分別編碼為一對方向感知和位置敏感的attention map,可以將其互補地應用于輸入特征圖,以增強關注對象的表示。

本文所提的Coordinate注意力很簡單,可以靈活地插入到經典的移動網絡中,例如MobileNetV2,MobileNeXt和EfficientNet,而且幾乎沒有計算開銷。大量實驗表明,Coordinate注意力不僅有益于ImageNet分類,而且更有趣的是,它在下游任務(如目標檢測和語義分割)中表現也很好。

付費5元查看完整內容

本文首次在全卷積目標檢測器上去除了NMS(非極大值抑制)后處理,做到了端到端訓練。我們分析了主流一階段目標檢測方法,并發現傳統的一對多標簽分配策略是這些方法依賴NMS的關鍵,并由此提出了預測感知的一對一標簽分配策略。此外,為了提升一對一標簽分配的性能,我們提出了增強特征表征能力的模塊,和加速模型收斂的輔助損失函數。我們的方法在無NMS的情況下達到了與主流一階段目標檢測方法相當的性能。在密集場景上,我們的方法的召回率超過了依賴NMS的目標檢測方法的理論上限。

付費5元查看完整內容

本文提出一種新的卷積操作----動態區域注意卷積(DRConv: Dynamic Region-Aware Convolution),該卷積可以根據特征相似度為不同平面區域分配定制的卷積核。這種卷積方式相較于傳統卷積極大地增強了對圖像語義信息多樣性的建模能力。標準卷積層可以增加卷積核的數量以提取更多的視覺元素,但會導致較高的計算成本。DRConv使用可學習的分配器將逐漸增加的卷積核轉移到平面維度,這不僅提高了卷積的表示能力,而且還保持了計算成本和平移不變性。 圖片 DRConv是一種用于處理語義信息分布復雜多變的有效而優雅的方法,它可以以其即插即用特性替代任何現有網絡中的標準卷積,且對于輕量級網絡的性能有顯著提升。本文在各種模型(MobileNet系列,ShuffleNetV2等)和任務(分類,面部識別,檢測和分割)上對DRConv進行了評估,在ImageNet分類中,基于DRConv的ShuffleNetV2-0.5×在46M計算量的水平下可實現67.1%的性能,相對基準提升6.3%。

//www.zhuanzhi.ai/paper/5ab3f5fa3690be4e5e52724c176bc252

付費5元查看完整內容

該工作將度量學中一個重要的屬性“動態范圍”引入到深度度量學習,從而得到一個新的任務叫做“動態度量學習”。我們發現,以往的深度度量其實只蘊含一個刻度,例如僅僅區分人臉、行人是相似還是不相似。這樣的量具無論多精確,在實際使用中都是靈活不足、用途有限的。實際上,我們日常的量具通常具有動態范圍,例如尺子總是有多個刻度(例如1mm、1cm乃至10cm)來測量不同尺度的物體。我們認為,深度度量學習領域已經到了需要引入動態范圍的時候了。因為,視覺概念本身就有著不同的大小,“動物”、“植物”都對應大尺度,而“麋鹿”卻對應相對較小的尺度。在小尺度下,兩只麋鹿可能看上去很不一樣,但是在另一個大尺度下,同樣兩只麋鹿卻應該被認為非常相似。

付費5元查看完整內容

CausalVAE是一個解耦表征學習方法,其旨在發現物理世界中各種概念之間的因果關系并生成其低維表征。該工作首次采用因果關系對表征建模,并可以通過表征的結構因果模型生成反事實圖片。 該工作可應用在圖像理解上,并幫助計算機更好的發現圖片中穩定的因果表示,其可應用在下游分類,識別任務當中。另外由于該工作重建了物理世界的因果模型,可以用來對觀察數據構建模擬器,通過該模擬器可以做滿足因果的數據增強以及圖像去噪。比如在自動駕駛中,可以通過該模型的因果干預直接去除影子而不影響別的因素,從而提升自動駕駛的安全性。 在理論層面上,該文章建立了一套識別性理論,證明了CausalVAE建立了首個可以識別的,具有可解釋性的因果解耦低維表征。

//www.zhuanzhi.ai/paper/9b63efa3a0b56cd27d64b6c7bb327471

付費5元查看完整內容

我們提出了自監督幾何感知(SGP),這是第一個學習特征描述符進行對應匹配的通用框架,不需要任何真實的幾何模型標簽(例如,相機姿態,剛性轉換)。我們的第一個貢獻是將幾何感知形式化為一個優化問題,在給定大量視覺測量數據(如圖像、點云)的基礎上,聯合優化特征描述符和幾何模型。在這個優化公式下,我們展示了視覺領域的兩個重要的研究流,即魯棒模型擬合和深度特征學習,對應著優化未知變量的一個塊,同時固定另一個塊。這種分析自然引出了我們的第二個貢獻——SGP算法,它執行交替最小化來解決聯合優化。SGP迭代地執行兩個元算法:一個教師對已知的學習特征進行魯棒模型擬合以生成幾何偽標簽,一個學生在偽標簽的嘈雜監督下進行深度特征學習。作為第三個貢獻,我們將SGP應用于大規模真實數據集上的兩個感知問題,即MegaDepth上的相對相機姿態估計和3DMatch上的點云配準。我們證明,SGP達到了最先進的性能,與使用真實標簽訓練的受監督的模型相當。

付費5元查看完整內容
北京阿比特科技有限公司