本文是收錄于CVPR2020的目標檢測的新工作,從關鍵點檢測的角度出發進行創新,提出了向心偏移和十字星可形變卷積等創新點,在COCO數據集上以48.0%的AP勝過所有現有的Anchor-free檢測器,值得學習。
論文地址://arxiv.org/pdf/2003.09119.pdf
代碼地址:
基于關鍵點的檢測器已經取得了不錯的性能。但是,錯誤的關鍵點匹配仍然廣泛存在,并且極大地影響了檢測器的性能。在本文中,提出了CentripetalNet,它使用向心偏移(centripetal shift)來配對來自同一實例的角corner關鍵點。
具體來說,CentripetalNet預測角點的位置和向心偏移,并匹配與其偏移結果對齊的角。因為聯合了位置信息,本文的方法比傳統的嵌入方法更準確地匹配角點。Corner pooling 將邊界框內的信息提取到邊界上。為了使這些信息在角落更清晰,本文設計了一個十字星形(cross-star)可變形卷積網絡來進行特征自適應。此外,通過在CentripetalNet上引入一個mask預測模塊,可以在在Anchor-free目標檢測器上實現實例分割任務。
在MS-COCO test-dev數據集上,CentripetalNet不僅以48.0%的AP勝過所有現有的Anchor-free檢測器,而且以40.2%的Mask AP達到了與最新實例分割方法相當的性能。
CornerNet的主要結構主要由以下3部分組成:
沙漏結構Hourglass:特征提取的Backbone,能夠為后續的網絡預測提供很好的角點特征圖。
角點池化Corner Pooling:作為一個特征的池化方式,角點池化可以將物體的信息整合到左上角點或者右下角點。
預測輸出:傳統的物體檢測會預測邊框的類別與位置偏移,而CornerNet則與之完全不同,其預測了角點出現的位置Heatmaps、角點的配對Embeddings及角點位置的偏移Offsets。
主題: Weakly-Supervised Salient Object Detection via Scribble Annotations
摘要: 與費力的逐像素密集標記相比,這種方法更容易通過涂抹來標記數據,僅花費1-2秒即可標記一張圖像。然而,尚未有人探索使用可劃線標簽來學習顯著物體檢測。在本文中,我們提出了一種弱監督的顯著物體檢測模型,以從此類注釋中學習顯著性。為此,我們首先使用亂碼對現有的大型顯著物體檢測數據集進行重新標記,即S-DUTS數據集。由于對象的結構和詳細信息不能通過亂寫識別,因此直接訓練帶有亂寫的標簽將導致邊界位置局限性的顯著性圖。為了緩解這個問題,我們提出了一個輔助的邊緣檢測任務來明確地定位對象邊緣,并提出了門控結構感知損失以將約束置于要恢復的結構范圍上。此外,我們設計了一種涂鴉增強方案來迭代地整合我們的涂鴉注釋,然后將其作為監督來學習高質量的顯著性圖。我們提出了一種新的度量標準,稱為顯著性結構測量,用于測量預測顯著性圖的結構對齊方式,這與人類的感知更加一致。在六個基準數據集上進行的大量實驗表明,我們的方法不僅優于現有的弱監督/無監督方法,而且與幾種完全監督的最新模型相提并論。