亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

小樣本識別的目標是在每類只有少量有標簽樣本可供使用的限制下識別新的類別。受到人類學習過程的啟發,現有的一些方法引入了額外語義模態來增強從訓練樣本(稱為支持樣本)學習更好的表征。然而,這些方法忽視了為測試樣本(稱為查詢樣本)設計特殊的處理機制。在失去了潛在的效果提升的同時,這些方法可能導致模態混合表征和同類別的純視覺表征之間存在偏移,最終導致識別的錯誤率上升。

在本文中,我們提出一種屬性指導的注意力模塊(AGAM),來使用人工屬性標注學習更有區分性的特征。這種即插即用的模塊能夠利用視覺內容和對應的屬性標注一起關注支持樣本中重要的通道和區域。同時,對于屬性標注不可得的查詢樣本,這種特征選擇過程同樣能夠只利用視覺內容便可執行。因此,兩種樣本的表征經過了相似的細粒度優化。另外,我們提出一種注意力對齊機制,來從屬性的指導蒸餾知識到純視覺的特征選擇過程,使其能夠在不利用屬性標注的限制下學會關注更具語義的特征。大量的實驗和分析表明,我們提出的模塊可以顯著改進現有的基于度量的方法來達到最先進的性能。

付費5元查看完整內容

相關內容

從語義描述中識別視覺類別是一種很有前途的方法,它可以擴展視覺分類器的能力,使其超越訓練數據中所表示的概念(即看到的類別)。這個問題是由(廣義的)零樣本學習方法(GZSL)解決的,它利用語義描述將它們連接到所看到的類別(例如,標簽嵌入,屬性)。傳統的GZSL主要是為了目標識別而設計的。在本文中,我們關注于零樣本場景識別,這是一個更具挑戰性的設置,有數百個類別,它們的差異可能是微妙的,通常在特定的物體或區域。傳統的GZSL表示不夠豐富,無法捕獲這些局部差別。針對這些限制,我們提出了一個具有兩個新組件的特征生成框架:1)多源語義信息(即屬性、單詞嵌入和描述),2)可以增強場景識別的區域描述。為了生成綜合的視覺特征,我們提出了兩步生成方法,其中局部描述采樣和使用作為條件來生成視覺特征。生成的特征被聚合并與真實的特征一起用來訓練一個聯合分類器。為了對該方法進行評價,我們引入了一種新的具有多語義標注的零樣本場景識別數據集。在該數據集和SUN屬性數據集上的實驗結果表明了該方法的有效性。

//vipl.ict.ac.cn/homepage/jsq/publication/2020-Song-ACMMM.html

付費5元查看完整內容

圖神經網絡(GNN)已經在許多具有挑戰性的應用中展示了優越的性能,包括小樣本學習任務。盡管GNN具有強大的從少量樣本中學習和歸納的能力,但隨著模型的深入,GNN通常會出現嚴重的過擬合和過平滑問題,這限制了模型的可擴展性。在這項工作中,我們提出了一個新的注意力GNN來解決這些挑戰,通過合并三重注意機制,即節點自我注意,鄰居注意和層記憶注意力。我們通過理論分析和實例說明了所提出的注意模塊可以改善小樣本學習的GNN的原因。廣泛的實驗表明,在mini-ImageNet 和Tiered-ImageNet數據集上,通過誘導和直推設置,提出的注意力GNN在小樣本學習方面優于基于最先進的GNN方法。

付費5元查看完整內容

針對小樣本學習在識別新類別時會出現災難性遺忘的問題,提出一種小樣本學習中克服災難性遺忘的方法。結合卷積神經網絡識別模型提取圖片特征,引用注意力機制設計分類權重生成器,使新類權重的生成基于基類權重。通過基于皮爾森相似度的識別模型計算新類特征與基類圖片分類權重之間的相似度,判斷新類圖像的類別。在三種數據集進行實驗,結果表明:該方法使小樣本圖像分類的精度得到了一定程度的提升,同時不會犧牲基類的識別準確度,克服了災難性遺忘。

付費5元查看完整內容

本文由香港科技大學和騰訊優圖實驗室聯合提出。目標檢測網絡已經被廣泛應用到安保,自動駕駛,醫學圖像等各個領域。然而傳統的目標檢測網絡需要使用大量高質量的訓練樣本對模型進行訓練。這些訓練樣本需要大量的人力物力進行標注,往往無法快速獲得,所以無法將目標檢測模型快速部署到新樣本的檢測中,而小樣本目標檢測方法可以很好地解決這一問題。我們提出了一種基于深度孿生網絡的小樣本目標檢測模型,通過基于注意力機制的候選框網絡,多關系檢測器以及三元組對比訓練方法對網絡進行改進,使得網絡能夠不對新物體重新訓練即可應用于新類別檢測。此外,我們提供了一個1000類的小樣本物體檢測數據集,希望可以方便該領域的研究。

我們的工作主要有以下貢獻:

首先,我們使用注意力機制對物體檢測候選框進行篩選。我們將待檢測新物體的特征作為濾波器在輸入圖片上進行卷積,以此找出潛在的候選框區域。

然后,我們使用多關系檢測器對這些候選框進行分類以及位置調整。多關系檢測器對候選框和新物體進行像素級、區域級和全圖級的多級關系匹配,以此找出匹配程度最高的區域作為檢測輸出。

最后,我們構建(目標樣本,正樣本,負樣本)訓練樣本三元組對模型進行訓練,使得網絡能夠同時學習到相同物體間的相似性和不同物體間的差異性,從而大大提升網絡在新樣本上的檢測性能。我們的方法在多個數據集上均取得了最好的結果,且無需在新物體上進行任何訓練。其基本框架圖如下:

付費5元查看完整內容

題目: Cross-Modality Attention with Semantic Graph Embedding for Multi-Label Classification

簡介:

多標簽圖像和視頻分類是計算機視覺中最基本也是最具挑戰性的任務。主要的挑戰在于捕獲標簽之間的空間或時間依賴關系,以及發現每個類的區別特征的位置。為了克服這些挑戰,我們提出將語義圖嵌入的跨模態注意用于多標簽分類。基于所構造的標簽圖,我們提出了一種基于鄰接的相似圖嵌入方法來學習語義標簽嵌入,該方法顯式地利用了標簽之間的關系。在學習標簽嵌入的指導下,生成了新的跨模態注意圖。在兩個多標簽圖像分類數據集(MS-COCO和NUS-WIDE)上的實驗表明,我們的方法優于其他現有的方法。此外,我們在一個大的多標簽視頻分類數據集上驗證了我們的方法,評估結果證明了我們的方法的泛化能力。

付費5元查看完整內容

論文題目

Model Cards for Model Reporting

論文摘要

在給定一些具有足夠訓練樣本的基本類別上,少鏡頭學習的目的是從很少的樣本中學習新的類別。這項任務的主要挑戰是新的類別容易受到顏色、紋理、物體形狀或背景背景(即特異性)的支配,這對于給定的少數訓練樣本是不同的,但對于相應的類別則不常見。幸運的是,我們發現基于范疇可以幫助學習新概念,從而避免新概念被特定性所支配。此外,結合不同類別之間的語義關聯,可以有效地規范這種信息傳遞。在這項工作中,我們以結構化知識圖的形式來表示語義關聯,并將此圖集成到深度神經網絡中,利用一種新的知識圖轉移網絡(KGTN)來促進少量鏡頭的學習。具體地說,通過使用對應類別的分類器權重初始化每個節點,學習傳播機制以自適應地通過圖來探索節點間的相互作用,并將基本類別的分類器信息傳遞給新類別的分類器信息。在ImageNet數據集上進行的大量實驗表明,與當前領先的競爭對手相比,性能有了顯著提高。此外,我們還構建了一個涵蓋更大尺度類別(即6000個類別)的ImageNet-6K數據集,在該數據集上的實驗進一步證明了我們提出的模型的有效性。

論文作者 陳日泉,陳天水,許曉璐,吳鶴峰,李冠斌,梁林,中山大學達克馬特人工智能研究所。

付費5元查看完整內容
北京阿比特科技有限公司