亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】作為計算機視覺領域三大會議之一,European Conference on Computer Vision(歐洲計算機視覺大會,ECCV)備受全球領域眾多專業人士關注。幾天前,ECCV 2020官方發布接收論文,本次大會共有5025篇投稿,1361篇被接收,接受率27%。ECCV 2020 已經于8月23日-28日Online方式進行。論文列表已經放出,小編發現少樣本學習方向火熱,錄用了好多篇相關paper,為此專知小編整理了七篇 ECCV 2020 少樣本學習(Few-Shot Learning,FSL) 相關論文供大家參考——跨域少樣本學習、膠囊注意力原型網絡、負間隔損失、任務自適應特征學習、自監督

ECCV 2020 接受論文列表和下載地址: //eccv2020.eu/accepted-papers/

ECCV2020ReID、ECCV2020OD、ICML2020GNN_Part1、KDD2020GNN_Part1、CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、

1、A Broader Study of Cross-Domain Few-Shot Learning

作者:Yunhui Guo, Noel C. Codella, Leonid Karlinsky, James V. Codella, John R. Smith, Kate Saenko, Tajana Rosing, Rogerio Feris

摘要:最近在少樣本學習方面的進展很大程度上依賴于元學習的標注數據:與新類別相同的域中采樣其基類。然而,在許多應用中,為元學習收集數據是不可行或不可能的。這導致了跨域的少樣本學習問題,其中在基域和新類別域之間存在很大的Gap。雖然對跨域少樣本場景的研究已經存在,但這些工作僅限于視覺相似度很高的自然圖像。目前還沒有在真實世界場景中看到的不同成像方法(如航空成像和醫學成像)之間進行少樣本學習的研究。在本文中,我們提出了更廣泛的跨域少樣本學習(BSCD-FSL)基準研究,該基準由來自各種圖像獲取方法的圖像數據組成。這些圖像數據包括自然圖像,如作物病害圖像,還有那些與自然圖像有很大不同的圖像,如衛星圖像、皮膚病圖像和放射學圖像。我們在所提出的基準上進行了大量的實驗,以評估最新的元學習方法、遷移學習方法和較新的跨域少樣本學習方法。結果表明,最新的元學習方法的表現優于早期的元學習方法,并且所有的元學習方法的表現都比簡單的精調在平均準確率上要差12.8%。在某些情況下,元學習甚至不如具有隨機權重的網絡。在這個更具挑戰性的基準測試中,以前使用專門用于跨域、少樣本學習的方法的性能提升消失得無影無蹤。最后,所有方法的準確性往往與數據集與自然圖像的相似性相關,我們驗證了基準的價值,從而能夠更好地代表真實場景數據的多樣性,并指導未來的研究。

代碼:

網址:

2、Attentive Prototype Few-shot Learning with Capsule Network-based Embedding

作者:Fangyu Wu, Jeremy S.Smith, Wenjin Lu, Chaoyi Pang, Bailing Zhang

摘要:用很少的訓練樣本識別新的類別的少樣本學習,是機器學習研究中一個極具挑戰性的領域。傳統的深度學習方法需要大量的訓練數據來調整數量龐大的參數,這往往是不切實際的,而且容易過擬合。在這項工作中,我們進一步研究了被稱為原型網絡的少樣本學習方法,以獲得更好的性能。我們的貢獻包括:(1)一種新的嵌入結構,通過應用膠囊網絡(capsule network)來編碼特征之間的相對空間關系;(2)設計了一種新的三元組損失來增強語義特征的嵌入性,即相似樣本之間距離較近,而不同樣本之間的距離較遠;以及(3)一種有效的非參數分類器,稱為注意力原型,取代了目前少樣本學習中的簡單原型。我們提出的注意力原型聚合了支持類中的所有實例,這些實例根據它們的重要性(由給定查詢的重構誤差定義)進行加權。重構誤差允許估計對應于分類置信度分數的分類后驗概率。在三個基準數據集上的大量實驗表明,該方法對于少樣本分類任務是有效的。

網址:

3、Negative Margin Matters: Understanding Margin in Few-shot Classification

作者:Bin Liu1, Yue Cao, Yutong Lin, Qi Li, Zheng Zhang, Mingsheng Long, Han Hu

摘要:本文介紹了一種基于度量學習的負邊距損失(negative margin loss)的少樣本學習方法。負邊距損失的表現明顯優于常規的Softmax損失,并且在三個標準的少樣本分類基準上實現了最先進的精確度。這些結果與度量學習領域的通常做法(差值為零或正)相反。為了理解為什么負邊距損失在少樣本分類中表現良好,我們從經驗和理論上分析了訓練類和新類中不同邊緣的學習特征的可區分性。我們發現,雖然負邊距降低了訓練類的特征可區分性,但也可以避免將同一新類的樣本錯誤映射到多個峰或簇,從而有利于對新類的區分。

代碼:

網址:

4、Prototype Rectification for Few-Shot Learning

作者:Jinlu Liu, Liang Song, Yongqiang Qin

摘要:少樣本學習要求識別具有稀缺標簽數據的新類。原型網絡(prototypical network)在現有的研究中是有用的,然而,對稀缺數據進行窄尺寸分布(narrow-size distribution)的訓練往往會得到有偏差的原型。在本文中,我們找出了這一過程的兩個關鍵影響因素:類內偏差和跨類偏差。然后,我們提出了一種簡單而有效的方法,用于轉導設置(transductive setting)下的原型校正。該方法利用標簽傳播(label propagation)來減小類內偏差,利用特征遷移來減小跨類偏差。我們還進行了理論分析,推導出其合理性以及性能的下界。在三個少樣本基準上的有效性顯示,我們的方法在miniImageNet(1-shot 70.31%, 5-shot 81.89%)和tieredImageNet(1-shot 78.74%,5-shot 86.92%)上都獲得了最先進的性能。

網址:

5、SEN: A Novel Feature Normalization Dissimilarity Measure for Prototypical Few-Shot Learning Networks

作者:Van Nhan Nguyen, Sigurd L?kse, Kristoffer Wickstr?m, Michael Kampffmeyer, Davide Roverso, Robert Jenssen

摘要:在這篇文章中,我們給原型網絡(PNS)配備了一種新的相異度度量,以實現少樣本學習的區分特征歸一化。嵌入到超球面上不需要直接歸一化,易于優化。我們理論分析表明,所提出的歐幾里德距離平方根和范數距離(SEN)的相異度測度迫使嵌入點被吸引到其正確的原型上,而排斥所有其他原型,保持所有點的范數相同。所得到的SEN PN在沒有附加參數的情況下以相當大的幅度優于常規PN,并且計算開銷可以忽略不計。

網址:

6、TAFSSL: Task-Adaptive Feature Sub-Space Learning for few-shot classification

作者:Moshe Lichtenstein, Prasanna Sattigeri, Rogerio Feris, Raja Giryes, Leonid Karlinsky

摘要:近來,少樣本學習(FSL),即從非常少的(通常是1到5個)的例子中學習一個新的類別(在訓練時候不存在),得到了很多關注和顯著的性能進步。雖然已經為FSL提出了許多技術,但有幾個因素已經成為影響FSL性能的最重要因素,即使是最簡單的技術也可以授予SOTA。它們是:骨干架構(越大越好),預訓練類型(元訓練與多類別),基類的數量和多樣性(越多越好),以及使用輔助自監督任務(增加多樣性的代理)。在本文中,我們提出了TAFSSL,這是一種簡單的技術,可以在伴隨著一些額外的未標記數據的少樣本任務中提高少樣本性能。TAFSSL的直覺是基于減少預訓練期間未見過的由新類別組成的少樣本任務所固有的特征和采樣噪聲。具體地說,在具有挑戰性的miniImageNet和tieredImageNet基準測試中,TAFSSL可以將當前最先進的轉導和半監督FSL設置提高5%以上,同時將在FSL中使用未標記數據的性能提高到10%以上。

網址:

7、When Does Self-supervision Improve Few-shot Learning?

作者:Jong-Chyi Su, Subhransu Maji, Bharath Hariharan

摘要:我們研究了自監督學習(SSL)在少樣本學習環境中的作用。雖然最近的研究已經顯示了SSL在大型未標記數據集上的好處,但它在小型數據集上的實用性相對來說還沒有被探索過。我們發現,SSL將少樣本元學習的相對錯誤率降低了4%-27%,即使當數據集很小并且只使用數據集中的圖像時也是如此。當訓練集越小或任務越具挑戰性時,改進效果越大。雖然SSL的好處可能會隨著訓練集的增加而增加,但我們觀察到,當用于元學習的圖像的分布與SSL不同時,SSL會損害性能。我們通過改變域轉移的程度和分析幾個元學習在多個領域上的表現來進行系統的研究。基于這一分析,我們提出了一種技術,該技術可以從給定數據集的大型通用未標記圖像池中自動選擇用于SSL的圖像,從而提供進一步的改進。

網址:

付費5元查看完整內容

相關內容

【導讀】ICML(International Conference on Machine Learning),即國際機器學習大會, 是機器學習領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。因疫情的影響, 今年第37屆ICML大會已于2020年7月13日至18日在線上舉行。據官方統計,ICML 2020共提交4990篇論文,接收論文1088篇,接收率為21.8%。與往年相比,接收率逐年走低。小編發現基于元學習(Meta Learning)相關的paper也不少,元學習及其在不同場景的應用等等都是今年比較火的topic,受到了很多人的關注。

為此,這期小編繼續為大家奉上ICML 2020必讀的六篇元學習(Meta Learning)相關論文——少樣本關系抽取、元遷移學習、MAML 強化學習、Batch Normalization、特征可解釋

ICML 2020 Accepted Paper: //proceedings.icml.cc/book/2020

ICML2020CL、ICML2020CI、ICML2020GNN_Part2、ICML2020GNN_Part1

1、Few-shot Relation Extraction via Bayesian Meta-learning on Relation Graphs

作者:Meng Qu, Tianyu Gao, Louis-Pascal A. C. Xhonneux, Jian Tang

摘要:本文研究的少樣本關系抽取,其目的是通過對句子中的一對實體進行訓練,并在每個關系中添加少量的標注示例來預測其關系。為了更有效地推廣到新的關系,本文研究了不同關系之間的關系,并提出利用全局關系圖。我們提出了一種新的貝葉斯元學習方法來有效地學習關系原型向量(prototype vectors)的后驗分布,其中原型向量的初始先驗是通過全局關系圖上的圖神經網絡來參數化得到的。此外,為了有效地優化原型向量的后驗分布,我們提出使用與MAML算法相關但能夠處理原型向量不確定性的隨機梯度Langevin 動力學。整個框架可以以端到端的方式進行高效的優化。在兩個基準數據集上的實驗證明了我們提出的方法在少樣本和零樣本設置下相對于具有競爭性的基準模型的有效性。

網址:

2、Learning Attentive Meta-Transfer

作者:Jaesik Y oon, Gautam Singh, Sungjin Ahn

摘要:當任務隨時間變化時,元遷移學習(meta-transfer learning)試圖通過元學習和遷移學習來提高學習新任務的效率。雖然標準的注意力(attention)在各種環境中都是有效的,但由于正在學習的任務是動態的,上下文的數量可以大大減少,因此但我們質疑它在改善元遷移學習方面的有效性。在本文中,利用最近提出的元遷移學習模型--Sequential Neural Processes(SNP),我們首先從經驗上證明,在神經過程( Neural Processes)的推斷函數中觀察到了類似的欠擬合問題。然而,我們進一步證明,與元學習環境不同,標準注意機制在元遷移環境中并不有效。為了解決這一問題,我們提出了一種新的注意機制--遞歸記憶重建(Recurrent Memory Reconstructionm, RMR),并證明了提供一個不斷更新和重建且具有交互作用的虛構情境對于實現有效的元遷移學習注意力至關重要。此外,將RMR引入到SNP中,我們提出了注意序列神經過程RMR(ASNP-RMR),并在各種任務中證明了ASNP-RMR的性能明顯優于基線模型。

網址:

3、Meta-learning with Stochastic Linear Bandits

作者:Leonardo Cella, Alessandro Lazaric, Massimiliano Pontil

摘要:我們研究了隨機線性bandits任務背景下的元學習過程。我們的目標是選擇一種學習算法,該算法在從任務分布中抽樣的一類bandits任務中平均表現良好。受最近關于學習到學習線性回歸的工作的啟發,我們考慮了一類bandits算法,它實現了著名的OFUL算法的正則化版本,其中正則化是到偏差向量的歐幾里得距離的平方。我們首先從遺憾最小化(regret minimization)的角度研究了有偏差的OFUL算法的好處。然后,我們提出了兩種策略來估計學習到學習環境中的偏差。理論和實驗都表明,當任務數量增加,任務分配方差較小時,與孤立的學習任務相比,我們的策略具有明顯的優勢。

網址:

4、On the Global Optimality of Model-Agnostic Meta-Learning: Reinforcement Learning and Supervised Learning

作者:Lingxiao Wang, Qi Cai, Zhuoyan Yang, Zhaoran Wang

摘要:模型無關的元學習(MAML)將元學習描述為一個雙層優化問題,內層基于共享先驗求解每個子任務,外層通過優化所有子任務的綜合性能來搜索最優共享先驗。該方法盡管在經驗上取得了成功,但由于元目標(外層目標)的非凸性,對于MAML的理論上的了解仍然很少,特別是在其全局最優性方面。為了彌合這一理論與實際之間的差距,我們刻畫了MAML在強化學習和監督學習中所獲得的駐點( stationary points)的最優性差距,其中內層和外層問題都是通過一階優化方法來解決的。特別地,我們的刻畫將這些駐點的最優性間隙與(I)內部目標的函數幾何和(Ii)函數逼近器(包括線性模型和神經網絡)的表示能力聯系起來。據我們所知,我們的分析首次建立了具有非凸元目標(meta-objectives)的MAML的全局最優性。

網址:

5、TASKNORM: Rethinking Batch Normalization for Meta-Learning

作者:John Bronskill, Jonathan Gordon, James Requeima, Sebastian Nowozin, Richard E. Turner

摘要:當前用于圖像分類的元學習方法依賴于日益深入的網絡來實現最先進的性能,使得批歸一化成為元學習通道的重要組成部分。然而,元學習設置的分層性質帶來了幾個挑戰,這些挑戰可能會使傳統的批歸一化無效,因此需要在此設置中重新考慮歸一化。我們評估了一系列用于元學習場景的批歸一化方法,并開發了一種新的方法,我們稱之為TASKNORM。在14個數據集上的實驗表明,無論是基于梯度的元學習方法還是無梯度的元學習方法,批歸一化的選擇都對分類精度和訓練時間都有很大的影響。重要的是,TASKNORM被發現可以持續提高性能。最后,我們提供了一組歸一化的最佳實踐,這些最佳實踐使得可以公平比較元學習算法。

網址:

6、Unraveling Meta-Learning: Understanding Feature Representations for Few-Shot Tasks

作者:Micah Goldblum, Steven Reich, Liam Fowl, Renkun Ni, Valeriia Cherepanova, Tom Goldstein

摘要:元學習算法產生的特征提取器在少樣本分類方面達到了最先進的性能。雖然文獻中有豐富的元學習方法,但人們對產生的特征提取器為什么表現得如此出色卻知之甚少。我們對元學習的基本機制以及使用元學習訓練的模型和經典訓練的模型之間的區別有了更好的理解。在這樣做的過程中,我們引入并驗證了幾個關于為什么元學習模型表現更好的假設。此外,我們還開發了一種正則化算法,它提高了少樣本分類下標準訓練示例的性能。在許多情況下,我們的實驗表現優于元學習,同時運行速度要快一個數量級。

網址:

付費5元查看完整內容

【導讀】作為計算機視覺領域三大會議之一,European Conference on Computer Vision(歐洲計算機視覺大會,ECCV) 備受全球領域眾多專業人士關注。幾天前,ECCV 2020官方發布接收論文,本次大會共有5025篇投稿,1361篇被接收,接受率27%。受疫情影響,原定于2020年8月23日-28日在英國格拉斯哥舉行的ECCV 2020將會以Online方式進行。論文列表已經放出,小編發現行人重識別方向火熱,錄用了好多篇相關paper,近期一些Paper已經放出來了,為此專知小編整理了六篇ECCV 2020行人重識別(Person Re-identification,ReID) 相關論文供大家參考——無監督ReID、語義解析、跨域ReID、域自適應ReID

ECCV 2020 接受論文列表: //eccv2020.eu/accepted-papers/

ECCV2020OD、ICML2020GNN_Part1、KDD2020GNN_Part1、CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、

1、Appearance-Preserving 3D Convolution for Video-based Person Re-identification

作者:Xinqian Gu, Hong Chang, Bingpeng Ma, Hongkai Zhang, Xilin Chen

摘要:由于行人檢測結果的不完善和姿態的變化,在基于視頻的行人重識別(ReID)中時間表觀不對齊(temporal appearance misalignment)是不可避免的。在這種情況下,3D卷積可能會破壞行人視頻片段的表觀表示,從而對ReID造成損害。針對這一問題,我們提出了表觀保留三維卷積算法(Appearance-Preserving 3D Convolution, AP3D),它由表觀保持模塊(Appearance-Preserving Module, APM)和三維卷積核兩部分組成。通過APM在像素級別上對齊相鄰的特征圖,后續的3D卷積可以在保持表觀表示質量的前提下對時間信息進行建模。通過簡單地用AP3D替換原始的3D卷積內核,可以很容易地將AP3D與現有的3D ConvNet相結合。大量的實驗證明了AP3D對于基于視頻的ReID的有效性,并且在三個廣泛使用的數據集上的結果都超過了最新水平。

代碼:

網址:

2、Global Distance-distributions Separation for Unsupervised Person Re-identification

作者:Xin Jin, Cuiling Lan, Wenjun Zeng, Zhibo Chen

摘要:有監督行人重識別(ReID)在實際部署中由于領域差距和缺乏對目標域數據的標注,往往具有較差的可擴展性和可用性。領域自適應的無監督ReID是有吸引力的,但也是具有挑戰性的。現有的無監督ReID方法往往不能通過基于距離的匹配/排序來正確識別正樣本和負樣本。正樣本對(Pos-Distr)和負樣本對(Neg-Distr)的兩個距離分布通常有很大的重疊不能很好地分開。為了解決這個問題,我們在這兩個分布上引入了全局距離分布分離(Global Distance-distributions Separation, GDS)約束,以鼓勵從全局角度清晰地分離正樣本和負樣本。我們將兩個全局距離分布建模為高斯分布,并將這兩個分布分開,同時鼓勵它們在無監督訓練過程中保持銳化。具體地說,為了從全局角度對分布進行建模,并促進分布和GDS相關損失的及時更新,我們利用動量更新機制來構建和維護分布參數(均值和方差),并在訓練期間動態計算損失。我們還提出了基于分布的難例挖掘,以進一步促進兩種分布的分離。我們驗證了GDS約束在無監督ReID網絡中的有效性。在多個ReID基準數據集上的大量實驗表明,我們的方法在基線的基礎上有了顯著的提高,并達到了最先進的性能。

網址:

3、Identity-Guided Human Semantic Parsing for Person Re-Identification

作者:Kuan Zhu, Haiyun Guo, Zhiwei Liu, Ming Tang, Jinqiao Wang

摘要:現有的alignment-based方法必須使用預先訓練好的人類解析模型來實現像素級的比對,并且不能識別對個人ReID至關重要的個人物品(例如背包和網簽)。在這篇論文中,我們提出了身份指導的人類語義解析方法(ISP),在只有身份標簽的情況下,可以在像素級別定位人體部位和個人物品。我們在特征映射上設計了級聯聚類(cascaded clustering)來生成人體部位的偽標簽。具體地說,對于一個人的所有圖像的像素,我們首先將其分組為前景或背景,然后將前景像素分組為人體部分。聚類分配(cluster assignments)隨后被用作人體部件的偽標簽來監督部件估計,ISP迭代地學習特征映射并對其進行分組。最后,根據自學習的部位估計得到人體部位和個人物品的局部特征,僅利用可見部位的特征進行檢索。在三個廣泛使用的數據集上的大量實驗驗證了ISP方法相對于許多最新方法的優越性。

代碼:

網址:

4、Joint Disentangling and Adaptation for Cross-Domain Person Re-Identification

作者:Yang Zou, Xiaodong Yang, Zhiding Yu, B.V.K. Vijaya Kumar, Jan Kautz

摘要:盡管有監督行人再識別(re-id)已經取得了很大的進展,但由于存在巨大的領域差距,將re-id模型推廣到新的領域仍然具有挑戰性。最近,人們對使用無監督的域自適應來解決這一問題的興趣與日俱增。現有的方法通常在既包含id相關因素又包含id無關因素的表示空間上進行自適應,從而不可避免地削弱了id相關特征的適應效果。在本文中,我們試圖通過提煉要適應的表示空間來提高適應性。為此,我們提出了一個聯合學習框架,該框架將id-相關/無關的特征分離開來,并且強制適應以單獨地在與id相關的特征空間上工作。我們的模型包括一個將跨域圖像編碼到一個共享表觀空間和兩個獨立結構空間的分解(disentangling)模塊,以及一個在共享表觀空間上執行對抗對齊和自訓練的自適應模塊。這兩個模塊經過聯合設計,互相提升。大量的實驗表明,所提出的聯合學習框架在性能上明顯優于最新的方法。

網址:

5、Multiple Expert Brainstorming for Domain Adaptive Person Re-identification

作者:Yunpeng Zhai, Qixiang Ye, Shijian Lu, Mengxi Jia, Rongrong Ji, Yonghong Tian

摘要:通常表現最好的深層神經模型是多個基本網絡的集成,然而,關于領域自適應行人Re-ID的集成學習仍然沒有被探索。本文提出了一種多專家頭腦風暴網絡(MEB-Net)用于領域自適應行人識別,為研究無監督條件下的模型集成問題開辟了一個很有前途的方向。MEBNet采用相互學習的策略,在一個源域內將多個不同結構的網絡預訓練成具有特定特征和知識的專家模型,然后通過專家模型之間的頭腦風暴(相互學習)來實現自適應。MEB-Net通過引入專家權威的正則化方案,適應了專家在不同體系結構下學習的異構性,增強了改進后的Re-ID模型的識別能力。在大規模數據集(Market-1501和DukeMTMC-Reid)上的廣泛實驗證明了MEB-NET優于最先進的模型性能。

代碼:

.

網址:

6、Rethinking the Distribution Gap of Person Re-identification with Camera-based Batch Normalization

作者:Zijie Zhuang, Longhui Wei, Lingxi Xie, Tianyu Zhang, Hengheng Zhang, Haozhe Wu, Haizhou Ai, and Qi Tian

摘要:行人重識別(ReID)的根本困難在于學習單個攝像機之間的對應關系。它強烈要求相機間的注釋,但不能保證經過訓練的模型能夠很好地傳輸到以前未出現過的相機上。這些問題極大地限制了ReID的應用。本文對傳統ReID方法的工作機制進行了重新思考,并提出了新的解決方案。通過一種有效的基于攝像機的批歸一化(CBN)算子,強制所有攝像機的圖像數據落在同一個子空間上,從而大大縮小了任意攝像機對之間的分布差距。這種調整帶來了兩個好處。首先,訓練后的模型具有更好的跨場景的泛化能力,以及跨多個訓練集的傳輸能力。其次,我們可以依靠相機間注釋,這些注釋之前由于缺乏跨相機信息而被低估,以實現具有競爭力的ReID性能。在廣泛的ReID任務上的實驗證明了該方法的有效性。

代碼: 網址:

付費5元查看完整內容

【導讀】IJCAI(國際人工智能聯合會議,International Joint Conferences on Artificial Intelligence)作為人工智能領域最頂級的國際學術會議之一,IJCAI 的舉辦自然備受矚目。第29屆國際人工智能聯合會議和第17屆環太平洋國際人工智能會議原定于2020年7月11日在日本橫濱召開,但由于疫情影響,將延期半年,至 2021年1月召開。近期,IJCAI 2020 論文集已經放出來。在 4717 份有效投稿中,最終僅有 592 篇被接收,接收率為 12.6%,這也是 IJCAI 史上最低的接收率。我們發現在今年的IJCAI 2020會議上圖神經網絡相關的論文非常多,所以今天小編專門整理最新6篇圖神經網絡(GNN)應用在計算機視覺上的相關論文——直推式關系傳播網絡、3D姿態估計、跨模態Hash、時空圖序列學習、關系推理網絡、圖交互推理

IJCAI 2020 Accepted Paper: //www.ijcai.org/Proceedings/2020/

ICML2020GNN_Part1、KDD2020GNN_Part1、CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、

1、Transductive Relation-Propagation Network for Few-shot Learning

作者:Yuqing Ma, Shihao Bai, Shan An, Wei Liu, Aishan Liu, Xiantong Zhen, Xianglong Liu

摘要:少樣本學習(Few-shot learning)是一個有趣且極具挑戰性的問題,其目的是從較少的標注樣本中學習新的概念,具有許多實用的優點。要完成這一任務,應該集中精力揭示支撐-查詢(support-query)對之間的準確關系。我們提出了一個直推式關系(transductive relation)-傳播圖神經網絡(TRPN),以在支撐-查詢對之間顯式建模和傳播這種關系。我們的TRPN將每個支撐-查詢對之間的關系視為一個圖節點,稱為關系節點,并利用支撐樣本之間的已知關系(包括類內共性和類間唯一性)來指導關系在圖中的傳播,生成支撐-查詢對的判別關系嵌入。在此基礎上引入偽關系節點來傳播查詢特征,并設計了一種快速有效的傳導學習策略來充分利用不同查詢之間的關系信息。據我們所知,這是首次在少樣本學習中明確考慮支撐-查詢對之間的關系,為解決少樣本學習問題提供了一條新的途徑。在幾個基準數據集上進行的廣泛實驗表明,我們的方法可以明顯優于各種最先進的小樣本學習方法。

網址:

2、Semi-Dynamic Hypergraph Neural Network for 3D Pose Estimation

作者:Shengyuan Liu, Pei Lv, Yuzhen Zhang, Jie Fu, Junjin Cheng, Wanqing Li, Bing Zhou, Mingliang Xu

摘要:本文提出了一種新穎的半動態超圖神經網絡(SD-HNN),可以從單個圖像估計3D人體姿態。SD-HNN采用超圖來表示人體,以有效利用相鄰關節和非相鄰關節之間的運動學約束。具體而言,SD-HNN中的姿態超圖具有兩個組成部分。一種是根據常規樹體結構構造的靜態超圖。另一個是半動態超圖,表示不同關節之間的動態運動約束。將這兩個超圖組合在一起,以端到端的方式進行訓練。與基于固定樹結構的傳統圖卷積網絡(GCN)不同,SD-HNN可以處理人體姿態估計中的歧義。實驗結果表明,所提方法在Human3.6M和MPI-INF-3DHP數據集上均達到了最先進的性能。

網址:

3、Set and Rebase: Determining the Semantic Graph Connectivity for Unsupervised Cross-Modal Hashing

作者:Weiwei Wang, Yuming Shen, Haofeng Zhang, Yazhou Yao, Li Liu

摘要:無監督的跨模態哈希的無標簽性質阻礙了模型利用精確的語義數據相似性。現有研究通常在原始特征空間中通過啟發式幾何先驗來模擬語義。但是,由于原始特征不能完全代表基礎的多視圖數據關系,因此這會給模型帶來嚴重偏差。為了解決上述問題,在本文中,我們提出了一種新的無監督哈希方法,稱為基于語義的跨模態哈希(SRCH)。我們定義了一種新穎的“Set-and Rebase”過程來初始化和更新訓練數據的跨模態相似度圖。特別是,我們根據模態內特征的幾何基礎設置圖形,然后根據哈希結果交替對其rebase以更新其中的邊。我們開發了一種交替優化,以對圖進行基礎化,并使用封閉形式(closed-form )解決方案訓練哈希自動編碼器從而有效地訓練了整個框架。我們在基準數據集上的實驗結果證明了我們的模型相對于最新算法的優越性。

網址:

4、Hierarchical Attention Based Spatial-Temporal Graph-to-Sequence Learning for Grounded Video Description

作者:Kai Shen, Lingfei Wu, Fangli Xu, Siliang Tang, Jun Xiao, Yueting Zhuang

摘要:Grounded Video Description(GVD)的任務是生成句子,這些對象可以通過視頻幀中的邊界框進行grounded。現有的工作在建模候選區域之間的關系以及參與文本生成時常常無法利用結構信息。為了解決這些問題,我們將GVD任務轉換為時空圖到序列學習問題,其中將視頻幀建模為時空序列圖,以便更好地捕獲隱式結構關系。特別是,我們采用兩種方式來構建一個序列圖,該序列圖捕獲每個幀中不同對象之間的空間時間相關性,并進一步提出一種新穎的圖拓撲細化技術以發現最佳的基礎圖結構。此外,我們還提出了分層注意力機制,以不同分辨率級別(resolution levels)參與序列圖,以更好地生成句子。與最先進的方法相比,我們廣泛的實驗證明了我們提出的方法的有效性。

網址:

5、Action-Guided Attention Mining and Relation Reasoning Network for Human-Object Interaction Detection

作者:Xue Lin, Qi Zou, Xixia Xu

摘要:人與物體之間的交互(HOI)檢測對于理解以人為中心的場景非常重要,并且由于細粒度動作與多個同時發生的交互之間的細微差異,因此具有挑戰性。大多數方法通過考慮多流信息甚至引入額外的知識來解決這些問題,這些問題遭受著巨大的組合空間和非交互式對控制問題。在本文中,我們提出了一種行動導向的注意力挖掘和關系推理(Action-Guided attention mining and Relation Reasoning ,AGRR)網絡來解決該問題。對人-對象對的關系推理是通過利用對之間的上下文兼容一致性來過濾掉非交互式組合而進行的。為了更好地區分細粒度動作之間的細微差別,我們提出了一種基于類激活圖(class activation map )的動作感知注意力,以挖掘最相關的特征來識別HOI。在V-COCO和HICO-DET數據集上進行的大量實驗表明,與最新方法相比該模型十分有效。

網址:

6、A Graph-based Interactive Reasoning for Human-Object Interaction Detection

作者:Dongming Yang, Yuexian Zou

摘要:人與物體交互(HOI)檢測致力于通過推斷三元組(人類,動詞,物體)來學習人類與周圍物體的交互方式。然而,最近的HOI檢測方法主要依賴于附加注釋(例如,人的姿勢),并且忽略了卷積之外的強大的交互推理。在本文中,我們提出了一種新穎的基于圖的交互式推理模型,稱為交互式圖(in-Graph)來推斷HOI,其有效地利用了視覺目標之間的交互語義。所提出的模型包括如下三方面:1)將相關目標從卷積空間映射到基于圖的語義空間的項目函數(project function); 2)在所有節點之間傳播語義的消息傳遞過程; 3)將推理節點轉換回卷積空間的更新函數。此外,我們構建了一個新的框架來組裝用于檢測HOI的In-Graph模型,即In-GraphNet。除了分別使用實例特征來推斷HOI之外,該框架還通過集成兩級in-Graphs(即場景范圍和實例范圍in-Graphs)來動態解析視覺目標之間的成對交互語義。我們的框架是端到端可訓練的,并且沒有像人體姿態這樣的昂貴注釋。大量實驗表明,我們提出的框架在V-COCO和HICO-DET基準上均優于現有的HOI檢測方法,并且相對提高了基準線約9.4%和15%,從而驗證了其檢測HOI的有效性。

網址:

付費5元查看完整內容

【導讀】ICML(International Conference on Machine Learning),即國際機器學習大會, 是機器學習領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。因疫情的影響, 今年第37屆ICML大會已于2020年7月13日至18日在線上舉行。據官方統計,ICML 2020共提交4990篇論文,接收論文1088篇,接收率為21.8%。與往年相比,接收率逐年走低。ICML官網公布了接受論文列表,小編發現基于Graph相關的paper依然很多,為此,上個月專知小編為大家整理了圖神經網絡相關的論文,這期小編繼續為大家奉上ICML 2020必讀的五篇圖神經網絡(GNN)相關論文-Part 2——貝葉斯GNN、連續GNN、Faster圖嵌入、深度GCN、圖Pooling、

ICML 2020 Accepted Paper: //proceedings.icml.cc/book/2020

ICML2020GNN_Part1、KDD2020GNN_Part1、CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、

1. Bayesian Graph Neural Networks with Adaptive Connection Sampling

作者:Arman Hasanzadeh, Ehsan Hajiramezanali, Shahin Boluki, Mingyuan Zhou, Nick Duffifield, Krishna Narayanan, Xiaoning Qian

摘要:我們提出了一個用于圖神經網絡(GNNs)自適應連接采樣(connection sampling)的統一框架,該框架概括了現有的用于訓練GNN的隨機正則化方法。該框架不僅緩解了深層GNNs的過平滑和過擬合趨勢,而且使得GNNs在圖分析任務中的不確定性學習成為可能。與現有的隨機正則化方法那樣使用固定的采樣率或手動調整它們作為模型超參數不同,我們的自適應連接采樣可以與GNN模型參數以全局和局部的方式聯合訓練。具有自適應連接采樣的GNN訓練在數學上等價于訓練貝葉斯GNN的有效近似。在基準數據集上的消融實驗結果驗證了自適應學習采樣率是在半監督節點分類任務中提高GNNs性能的關鍵,使其不容易過平滑和過擬合,具有更穩健的預測能力。

網址:

2.Continuous Graph Neural Networks

作者:Louis-Pascal A. C. Xhonneux, Meng Qu, Jian Tang

摘要:本文建立在圖神經網絡與傳統動力系統之間的聯系之上。我們提出了連續圖神經網絡(Continuous Graph Neural Networks, CGNN),由于CGNN可以看作是一種特定的離散化方案,它進一步推廣了現有的具有離散動力學的圖神經網絡。其核心思想是如何刻畫節點表示的連續動力學,即節點表示的導數。受現有的基于圖擴散的方法(如社會網絡上的PageRank模型和流行病模型)的啟發,我們將導數定義為當前節點表示、鄰居表示和節點初始值的組合。我們提出并分析了圖上的兩種可能的動力學--包括節點表示的每一維(也稱為特征通道)獨立改變或者彼此交互-這兩者都有理論上的合理性。所提出的連續圖神經網絡對過于過平滑具有較強的魯棒性,因此可以建立更深層次的網絡,從而能夠捕獲節點之間的長期依賴關系。在節點分類任務上的實驗結果證明了我們提出的方法在與基線模型競爭上的有效性。

網址:

3.Faster Graph Embeddings via Coarsening

作者:Matthew Fahrbach, Gramoz Goranci, Richard Peng, Sushant Sachdeva, Chi Wang

摘要:圖嵌入是一種普遍適用于機器學習任務的工具,如圖結構數據上的節點分類和連接預測。然而,即使我們只對相關頂點的一小部分感興趣,計算大規模圖嵌入的效率也是很低的。為了解決這個問題,我們提出了一種基于Schur補(Schur complements)的有效圖粗化方法,用于計算相關頂點的嵌入。我們證明了這些嵌入被不相關頂點上通過高斯消去法得到的Schur補圖精確地保存。由于計算Schur補的代價很高,我們給出了一個近似線性的時間算法,該算法在每次迭代中在相關頂點上生成一個粗化圖,該粗化圖在期望上與Schur補相匹配。我們在圖上進行的預測任務實驗表明,計算嵌入到粗化圖上,而不是整個圖上,在不犧牲精度的情況下,可以節省大量的時間。

網址:

4. Simple and Deep Graph Convolutional Networks

作者:Ming Chen, Zhewei Wei, Zengfeng Huang, Bolin Ding, Yaliang Li

摘要:圖卷積網絡(GCNS)是一種強大的圖結構數據深度學習方法。最近,GCNS及其變體在真實數據集上的各個應用領域都顯示出了優異的性能。盡管取得了成功,但由于過平滑的問題,目前的大多數GCN模型都很淺。本文研究了深圖卷積網絡的設計與分析問題。我們提出了GCNII模型,它是對普通GCN模型的擴展,使用了兩個簡單而有效的技術:初始殘差和恒等映射(Identity mapping)。我們提供了理論和實驗證據,證明這兩種技術有效地緩解了過平滑問題。我們的實驗表明,深度GCNII模型在各種半監督和全監督任務上的性能優于最先進的方法。

網址:

5. Spectral Clustering with Graph Neural Networks for Graph Pooling

作者:Filippo Maria Bianchi, Daniele Grattarola, Cesare Alippi

摘要:譜聚類(SC)是發現圖上強連接社區的一種流行的聚類技術。SC可以在圖神經網絡(GNN)中使用,以實現聚合屬于同一集群節點的池化操作。然而,Laplacian特征分解的代價很高,而且由于聚類結果是特定于圖的,因此基于SC的池化方法必須對每個新樣本執行新的優化。在本文中,我們提出了一種圖聚類方法來解決SC的這些局限性。我們建立了歸一化minCUT問題的連續松弛(continuous relaxation )公式,并訓練GNN來計算最小化這一目標的聚類分配。我們的基于GNN的實現是可微的,不需要計算譜分解,并且學習了一個聚合函數,可以在樣本外的圖上快速評估。從提出的聚類方法出發,我們設計了一個圖池化算子,它克服了現有圖池化技術的一些重要局限性,并在多個監督和非監督任務中取得了最好的性能。

網址:

付費5元查看完整內容

【導讀】作為計算機視覺領域三大會議之一,European Conference on Computer Vision(歐洲計算機視覺大會,ECCV) 備受全球領域眾多專業人士關注。幾天前,ECCV 2020官方發布接收論文,本次大會共有5025篇投稿,1361篇被接收,接受率27%。受疫情影響,原定于2020年8月23日-28日在英國格拉斯哥舉行的ECCV 2020將會以Online方式進行。近期一些Paper已經放出來了,為此專知小編整理了六篇ECCV 2020目標檢測(Object Detection,2D or 3D) 相關論文供大家參考——任意方向目標檢測、動態R-CNN、3D目標檢測、實時3D檢測、多類目標檢測

ECCV 2020 接受論文列表: //eccv2020.eu/accepted-papers/

CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、

  1. Arbitrary-Oriented Object Detection with Circular Smooth Label

作者:Xue Yang, Junchi Yan

摘要:近年來,面向任意方向的目標檢測(Arbitrary-oriented object detection)由于其在航空圖像、場景文字、人臉等領域的重要作用,在視覺領域引起了越來越多的關注。本文指出,由于角度周期性或角度的順序問題,現有的基于回歸的旋轉檢測器存在邊界不連續的問題。通過仔細的研究,我們發現根本原因是理想的預測超出了定義的范圍。我們設計了一種新的旋轉檢測基線,通過將角度預測從回歸問題轉化為精度損失很小的分類任務來解決邊界問題,從而與以往使用粗粒度進行旋轉檢測的工作不同,我們設計了一個高精度的角度分類。我們還提出了一種環形平滑標簽(CSL)技術來處理角度的周期性,并提高了對相鄰角度的容錯性。在此基礎上,我們進一步介紹了CSL中的四種窗函數,并探討了不同窗半徑大小對檢測性能的影響。在DOTA、HRSC2016這兩個大規模航空圖像公共數據集以及場景文字數據集ICDAR2015和MLT上的大量實驗和可視化分析表明了該方法的有效性。

網址:

代碼鏈接:

  1. Dynamic R-CNN: Towards High Quality Object Detection via Dynamic Training

作者:Hongkai Zhang, Hong Chang, Bingpeng Ma, Naiyan Wang, Xilin Chen

摘要:雖然two-stage目標檢測器近年來不斷提升了最先進的性能,但訓練過程本身還有很多提升的空間。在這項工作中,我們首先指出了固定網絡設置和動態訓練過程之間的不一致問題,這對性能有很大的影響。例如,固定標簽分配策略和回歸損失函數不能適應候選區域(Proposal)的分布變化,不利于訓練高質量的檢測器。因此,我們提出了動態R-CNN算法,在訓練過程中根據候選的統計信息自動調整標簽分配標準(IOU閾值)和回歸損失函數的形狀(SmoothL1損失的參數)。這種動態設計更好地利用了訓練樣本,并推動檢測器擬合更多的高質量樣本。具體地說,我們的方法在MS Coco數據集上比ResNet-50-FPN基線在AP上提升了1.9%在AP_{90}上提升了5.5%,并且沒有額外的開銷。

網址:

代碼鏈接:

  1. Finding Your (3D) Center: 3D Object Detection Using a Learned Loss

作者:David Griffiths, Jan Boehm, Tobias Ritschel

摘要:對于2D圖像,海量語義標注很容易實現,但對于3D場景,實現起來要困難得多。像ShapeNet這樣的3D存儲庫中的目標是有標簽的,但遺憾的是,這些目標只是孤立的,并沒有上下文。3D場景可以通過 city-level 的距離掃描儀獲取,但很少帶有語義標簽。為了解決這一差異,我們引入了一種新的優化程序,它允許使用原始3D掃描進行3D檢測訓練,同時在只使用5%的目標標簽的情況下仍然可以獲得相當的性能。我們的優化使用兩個網絡。場景網絡將整個3D場景映射到一組3D目標中心。由于我們假設場景不是由中心標記的,所以沒有經典的損失(如:chamfer)可以用來訓練它。取而代之的是,我們使用另一個網絡來模擬損失。該損失網絡在一個小的帶標簽的子集上進行訓練,并且在存在干擾的情況下將非居中的3D目標映射到其自身的中心。該函數非常類似監督損失具有的梯度,因此可以作為損失來替代。我們的評估文檔分別在較低級別的監督下達到具有競爭力的準確性,在可比的監督下具有高質量。

網址:

代碼鏈接:

  1. H3DNet: 3D Object Detection Using Hybrid Geometric Primitives

作者:Zaiwei Zhang, Bo Sun, Haitao Yang, Qixing Huang

摘要:我們引入了H3DNet,它以一個三維點云作為輸入,輸出一組面向目標的邊界框(BB)集合及其語義標簽。H3DNet的關鍵思想是預測一組混合的幾何圖元(geometric primitives),即BB中心、BB面中心和BB邊中心。通過定義目標與幾何圖元之間的距離函數,我們展示了如何將預測的幾何圖元轉換為目標候選。此距離函數可實現對目標候選的連續優化,其局部最小值可提供高保真目標候選。然后,H3DNet利用匹配和優化模塊將目標候選分類為檢測到的目標,并微調檢測到的目標的幾何參數。與使用單一類型的幾何圖元相比,混合幾何圖元集不僅為目標檢測提供了更準確的信號,而且它還在所得到的3D布局上提供了過完整的約束集。因此,H3DNet可以容忍預測的幾何圖元中的異常值。我們的模型在兩個具有真實3D掃描的大型數據集ScanNet和SUN RGB-D上實現了最新的3D檢測結果。

網址:

代碼鏈接:

  1. RTM3D: Real-time Monocular 3D Detection from Object Keypoints for Autonomous Driving

作者:Peixuan Li, Huaici Zhao, Pengfei Liu, Feidao Cao

摘要:在這項工作中,我們提出了一種高效、準確的單目3D檢測框架。大多數成功的3D檢測器都將3D bounding box 到2D bounding box的投影約束作為一個重要組成部分。2D 框的四個邊僅提供四個約束,并且隨著2D檢測器的小誤差,檢測性能會急劇惡化。與這些方法不同的是,我們的方法預測圖像空間中3D bounding box 的九個透視關鍵點,然后利用3D和2D透視的幾何關系來恢復3D空間中的維度、位置和方向。這種方法即使在關鍵點的估計非常嘈雜的情況下,也可以穩定地預測目標的屬性,這使我們能夠以較小的架構獲得較快的檢測速度。我們的方法的訓練僅使用目標的3D屬性,而無需外部網絡或監督數據。我們的方法是第一個單目圖像3D檢測的實時系統,同時在KITTI基準上實現了最先進的性能。

網址:

代碼鏈接:

  1. SSN: Shape Signature Networks for Multi-class Object Detection from Point Clouds

作者:Xinge Zhu, Yuexin Ma, Tai Wang, Yan Xu, Jianping Shi, Dahua Lin

摘要:多類別3D目標檢測的目標是對點云中的多類別目標進行定位和分類。由于點云的非結構化、稀疏性和噪聲等特性,一些有利于多類別區分的特征沒有得到充分利用,例如形狀信息。本文提出了一種新的3D形狀特征來探索點云中的形狀信息。通過引入對稱、凸包(convex hull)和切比雪夫擬合等操作,我們所提出的形狀特征不僅緊湊有效,而且對噪聲具有較強的魯棒性,可以作為一個軟約束來提高特征的多類別區分能力。基于提出的形狀特征,我們開發了用于3D目標檢測的形狀特征網絡(SSN),該網絡由金字塔特征編碼部分,形狀感知分組頭(shape-aware grouping heads)和顯式形狀編碼目標組成。實驗表明,該方法在兩個大規模數據集上的性能明顯優于現有方法。此外,我們的形狀特征可以作為一個即插即用的組件,消融實驗表明它的有效性和良好的可擴展性。

網址: 代碼鏈接:

付費5元查看完整內容

【導讀】作為世界數據挖掘領域的最高級別的學術會議,ACM SIGKDD(國際數據挖掘與知識發現大會,簡稱 KDD)每年都會吸引全球領域眾多專業人士參與。今年的 KDD大會計劃將于 2020 年 8 月 23 日 ~27 日在美國美國加利福尼亞州圣地亞哥舉行。上周,KDD 2020官方發布接收論文,共有1279篇論文提交到Research Track,共216篇被接收,接收率16.8%。近期KDD官網公布了接受論文列表,為此,上個月專知小編為大家整理了圖神經網絡相關的論文,這期小編繼續為大家奉上KDD 2020必讀的五篇圖神經網絡(GNN)相關論文-Part 2——多層次GCN、無監督預訓練GCN、圖Hash、GCN主題模型、采樣

KDD 2020 Accepted Paper: //www.kdd.org/kdd2020/accepted-papers

KDD2020GNN_Part1、CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、EMNLP2019GNN、ICCV2019GNN_Part2、ICCV2019GNN_Part1、NIPS2019GNN、IJCAI2019GNN_Part1、IJCAI2019GNN_Part2、KDD2019GNN、

1. Multi-level Graph Convolutional Networks for Cross-platform Anchor Link Prediction

作者:Hongxu Chen, Hongzhi Yin, Xiangguo Sun, Tong Chen, Bogdan Gabrys, Katarzyna Musial

摘要:跨平臺的賬號匹配在社交網絡分析中發揮著重要作用,并且有利于廣泛的應用。然而,現有的方法要么嚴重依賴于高質量的用戶生成內容(包括用戶興趣模型),要么只關注網絡拓撲結構,存在數據不足的問題,這使得研究這個方向變得很困難。為了解決這一問題,我們提出了一種新的框架,該框架統一考慮了局部網絡結構和超圖結構上的多級圖卷積。該方法克服了現有工作中數據不足的問題,并且不一定依賴于用戶的人口統計信息。此外,為了使所提出的方法能夠處理大規模社交網絡,我們提出了一種兩階段的空間協調機制,在基于網絡分區的并行訓練和跨不同社交網絡的帳戶匹配中對齊嵌入空間。我們在兩個大規模的真實社交網絡上進行了廣泛的實驗。實驗結果表明,該方法的性能比現有的模型有較大幅度的提高。

網址:

2. GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training

作者:Jiezhong Qiu, Qibin Chen, Yuxiao Dong, Jing Zhang, Hongxia Yang, Ming Ding, Kuansan Wang, Jie Tang

摘要:圖表示學習已經成為解決現實問題的一種強有力的技術。包括節點分類、相似性搜索、圖分類和鏈接預測在內的各種下游圖學習任務都受益于它的最新發展。然而,關于圖表示學習的現有技術集中于領域特定的問題,并為每個圖訓練專用模型,這通常不可轉移到領域之外的數據。受自然語言處理和計算機視覺在預訓練方面的最新進展的啟發,我們設計了圖對比編碼(Graph Contrastive Coding,GCC)一個無監督的圖表示學習框架來捕捉跨多個網絡的通用網絡拓撲屬性。我們將GCC的預訓練任務設計為網絡內部和網絡之間的子圖級別的實例判斷,并利用對比學習來增強模型學習內在的和可遷移的結構表征能力。我們在三個圖學習任務和十個圖數據集上進行了廣泛的實驗。結果表明,GCC在一組不同的數據集上進行預訓練,可以獲得與從頭開始的特定任務訓練的方法相媲美或更好的性能。這表明,預訓練和微調范式對圖表示學習具有巨大的潛力。

網址:

代碼鏈接:

3. GHashing: Semantic Graph Hashing for Approximate Similarity Search in Graph Databases

作者:Zongyue Qin, Yunsheng Bai, Yizhou Sun

摘要:圖相似搜索的目的是根據給定的鄰近度,即圖編輯距離(GED),在圖形數據庫中找到與查詢最相似的圖。這是一個被廣泛研究但仍具有挑戰性的問題。大多數研究都是基于剪枝驗證框架,該框架首先對非看好的圖進行剪枝,然后在較小的候選集上進行驗證。現有的方法能夠管理具有數千或數萬個圖的數據庫,但由于其精確的剪枝策略,無法擴展到更大的數據庫。受到最近基于深度學習的語義哈希(semantic hashing)在圖像和文檔檢索中的成功應用的啟發,我們提出了一種新的基于圖神經網絡(GNN)的語義哈希,即GHash,用于近似剪枝。我們首先用真實的GED結果訓練GNN,以便它學習生成嵌入和哈希碼,以保持圖之間的GED。然后建立哈希索引以實現恒定時間內的圖查找。在回答一個查詢時,我們使用哈希碼和連續嵌入作為兩級剪枝來檢索最有希望的候選對象,并將這些候選對象發送到精確的求解器進行最終驗證。由于我們的圖哈希技術利用了近似剪枝策略,與現有方法相比,我們的方法在保持高召回率的同時,實現了顯著更快的查詢時間。實驗表明,該方法的平均速度是目前唯一適用于百萬級數據庫的基線算法的20倍,這表明GHash算法成功地為解決大規模圖形數據庫的圖搜索問題提供了新的方向。

網址:

4. Graph Structural-topic Neural Network

作者:Qingqing Long, Yilun Jin, Guojie Song, Yi Li, Wei Lin

摘要:圖卷積網絡(GCNS)通過有效地收集節點的局部特征,取得了巨大的成功。然而,GCNS通常更多地關注節點特征,而較少關注鄰域內的圖結構,特別是高階結構模式。然而,這種局部結構模式被顯示為許多領域中的節點屬性。此外,由于網絡很復雜,每個節點的鄰域由各種節點和結構模式的混合組成,不只是單個模式,所有這些模式上的分布都很重要。相應地,在本文中,我們提出了圖結構主題神經網絡,簡稱GraphSTONE,這是一種利用圖的主題模型的GCN模型,使得結構主題廣泛地從概率的角度捕捉指示性的圖結構,而不僅僅是幾個結構。具體地說,我們使用 anonymous walks和Graph Anchor LDA(一種LDA的變體,首先選擇重要的結構模式)在圖上建立主題模型,以降低復雜性并高效地生成結構主題。此外,我們設計了多視圖GCNS來統一節點特征和結構主題特征,并利用結構主題來指導聚合。我們通過定量和定性實驗對我們的模型進行了評估,我們的模型表現出良好的性能、高效率和清晰的可解釋性。

網址:

代碼鏈接:

5. Minimal Variance Sampling with Provable Guarantees for Fast Training of Graph Neural Networks

作者:Weilin Cong, Rana Forsati, Mahmut Kandemir, Mehrdad Mahdavi

摘要:抽樣方法(如節點抽樣、分層抽樣或子圖抽樣)已成為加速大規模圖神經網絡(GNNs)訓練不可缺少的策略。然而,現有的抽樣方法大多基于圖的結構信息,忽略了最優化的動態性,導致隨機梯度估計的方差較大。高方差問題在非常大的圖中可能非常明顯,它會導致收斂速度慢和泛化能力差。本文從理論上分析了抽樣方法的方差,指出由于經驗風險的復合結構,任何抽樣方法的方差都可以分解為前向階段的嵌入近似方差和后向階段的隨機梯度方差,這兩種方差都必須減小,才能獲得較快的收斂速度。我們提出了一種解耦的方差減小策略,利用(近似)梯度信息自適應地對方差最小的節點進行采樣,并顯式地減小了嵌入近似引入的方差。理論和實驗表明,與現有方法相比,該方法即使在小批量情況下也具有更快的收斂速度和更好的泛化能力。

網址:

付費5元查看完整內容

【導讀】ICML(International Conference on Machine Learning),即國際機器學習大會, 是機器學習領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。因疫情的影響, 今年第37屆ICML大會將于2020年7月13日至18日在線上舉行。據官方統計,ICML 2020共提交4990篇論文,接收論文1088篇,接收率為21.8%。與往年相比,接收率逐年走低。在會議開始前夕,專知小編為大家整理了ICML 2020圖神經網絡(GNN)的六篇相關論文供參考——核GNN、特征變換、Haar 圖池化、無監督圖表示、譜聚類、自監督GCN。

ICML 2020 Accepted Papers //icml.cc/Conferences/2020/AcceptedPapersInitial

ACL2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN

1. Convolutional Kernel Networks for Graph-Structured Data

作者:Dexiong Chen, Laurent Jacob, Julien Mairal

摘要:我們引入了一系列多層圖核,并在圖卷積神經網絡和核方法之間建立了新的聯系。我們的方法通過將圖表示為核特征映射序列將卷積核網絡推廣到圖結構數據,其中每個節點攜帶關于局部圖子結構的信息。一方面,核的觀點提供了一種無監督的、有表現力的、易于正規化的數據表示,這在樣本有限的情況下很有用。另一方面,我們的模型也可以在大規模數據上進行端到端的訓練,從而產生了新型的圖卷積神經網絡。我們的方法在幾個圖分類基準上取得了與之相當的性能,同時提供了簡單的模型解釋。

網址:

代碼鏈接:

2. GNN-FILM: Graph Neural Networks with Feature-Wise Linear Modulation 作者:Marc Brockschmidt

摘要:本文提出了一種新的基于特征線性調制(feature-wise linear modulation,FiLM)的圖神經網絡(GNN)。許多標準GNN變體僅通過每條邊的源的表示來計算“信息”,從而沿著圖的邊傳播信息。在GNN-FILE中,邊的目標節點的表示被附加地用于計算可以應用于所有傳入信息的變換,從而允許對傳遞的信息進行基于特征的調制。基于基線方法的重新實現,本文給出了在文獻中提到的三個任務上的不同GNN體系結構的實驗結果。所有方法的超參數都是通過廣泛的搜索找到的,產生了一些令人驚訝的結果:基線模型之間的差異比文獻報道的要小。盡管如此,GNN-FILE在分子圖的回歸任務上的表現優于基線方法,在其他任務上的表現也具有競爭性。

網址:

3. Haar Graph Pooling

作者:Yu Guang Wang, Ming Li, Zheng Ma, Guido Montufar, Xiaosheng Zhuang, Yanan Fan

摘要:深度圖神經網絡(GNNs)是用于圖分類和基于圖的回歸任務的有效模型。在這些任務中,圖池化是GNN適應不同大小和結構的輸入圖的關鍵因素。本文提出了一種新的基于壓縮Haar變換的圖池化操作-HaarPooling。HaarPooling實現了一系列池化操作;它是通過跟隨輸入圖的一系列聚類序列來計算的。HaarPooling層將給定的輸入圖變換為節點數較小、特征維數相同的輸出圖;壓縮Haar變換在Haar小波域中過濾出細節信息。通過這種方式,所有HaarPooling層一起將任何給定輸入圖的特征合成為大小一致的特征向量。這種變換提供了數據的稀疏表征,并保留了輸入圖的結構信息。使用標準圖卷積層和HaarPooling層實現的GNN在各種圖分類和回歸問題上實現了最先進的性能。

網址:

4. Interferometric Graph Transform: a Deep Unsupervised Graph Representation 作者:Edouard Oyallon

摘要:我們提出了Interferometric Graph Transform(IGT),這是一類用于構建圖表示的新型深度無監督圖卷積神經網絡。我們的第一個貢獻是提出了一種從歐幾里德傅立葉變換的推廣得到的通用復數譜圖結構。基于一個新穎的貪婪凹目標,我們的學習表示既包括可區分的特征,也包括不變的特征。通過實驗可以得到,我們的學習過程利用了譜域的拓撲,這通常是譜方法的一個缺陷,特別是我們的方法可以恢復視覺任務的解析算子。我們在各種具有挑戰性的任務上測試了我們的算法,例如圖像分類(MNIST,CIFAR-10)、社區檢測(Authorship,Facebook graph)和3D骨架視頻中的動作識別(SBU,NTU),在譜圖非監督環境下展示了一種新的技術水平。

網址:

5. Spectral Clustering with Graph Neural Networks for Graph Pooling

作者:Filippo Maria Bianchi, Daniele Grattarola, Cesare Alippi

摘要:譜聚類(SC)是發現圖上強連通社區的一種流行的聚類技術。SC可以在圖神經網絡(GNN)中使用,以實現聚合屬于同一簇的節點的池化操作。然而,Laplacian的特征分解代價很高,而且由于聚類結果是特定于圖的,因此基于SC的池化方法必須對每個新樣本執行新的優化。在本文中,我們提出了一種圖聚類方法來解決SC的這些局限性。我們建立了歸一化minCUT問題的連續松弛公式,并訓練GNN來計算最小化這一目標的簇分配。我們的基于GNN的實現是可微的,不需要計算譜分解,并且學習了一個聚類函數,可以在樣本外的圖上快速評估。從提出的聚類方法出發,我們設計了一個圖池化算子,它克服了現有圖池化技術的一些重要局限性,并在多個監督和非監督任務中取得了最好的性能。

網址:

6. When Does Self-Supervision Help Graph Convolutional Networks?

作者:Yuning You, Tianlong Chen, Zhangyang Wang, Yang Shen

摘要:自監督作為一種新興的技術已被用于訓練卷積神經網絡(CNNs),以提高圖像表示學習的可傳遞性、泛化能力和魯棒性。然而,自監督對操作圖形數據的圖卷積網絡(GCNS)的介紹卻很少被探索。在這項研究中,我們首次將自監督納入GCNS的系統探索和評估。我們首先闡述了將自監督納入GCNS的三種機制,分析了預訓練&精調和自訓練的局限性,并進而將重點放在多任務學習上。此外,我們還提出了三種新的GCNS自監督學習任務,并進行了理論分析和數值比較。最后,我們進一步將多任務自監督融入到圖對抗性訓練中。研究結果表明,通過合理設計任務形式和合并機制,自監督有利于GCNS獲得更強的泛化能力和魯棒性。

網址:

代碼鏈接:

付費5元查看完整內容

【導讀】作為計算機視覺領域的三大國際頂會之一,IEEE國際計算機視覺與模式識別會議 CVPR 每年都會吸引全球領域眾多專業人士參與。由于受COVID-19疫情影響,原定于6月16日至20日在華盛頓州西雅圖舉行的CVPR 2020將全部改為線上舉行。今年的CVPR有6656篇有效投稿,最終有1470篇論文被接收,接收率為22%左右。之前小編為大家整理過CVPR 2020 GNN 相關論文,這周小編繼續為大家整理了五篇CVPR 2020 圖神經網絡(GNN)相關論文,供大家參考——行為識別、少樣本學習、仿射跳躍連接、多層GCN、3D視頻目標檢測。

CVPR2020SGNN、CVPR2020GNN_Part2、CVPR2020GNN_Part1、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、EMNLP2019GNN、ICCV2019GNN_Part2、ICCV2019GNN_Part1、NIPS2019GNN、IJCAI2019GNN_Part1、IJCAI2019GNN_Part2、KDD2019GNN、ACL2019GNN、CVPR2019GNN

1. Disentangling and Unifying Graph Convolutions for Skeleton-Based Action Recognition

作者:Ziyu Liu, Hongwen Zhang, Zhenghao Chen, Zhiyong Wang, Wanli Ouyang

摘要:基于骨架的動作識別算法廣泛使用時空圖對人體動作動態進行建模。為了從這些圖中捕獲魯棒的運動模式,長范圍和多尺度的上下文聚合與時空依賴建模是一個強大的特征提取器的關鍵方面。然而,現有的方法在實現(1)多尺度算子下的無偏差長范圍聯合關系建模和(2)用于捕捉復雜時空依賴的通暢的跨時空信息流方面存在局限性。在這項工作中,我們提出了(1)一種簡單的分解(disentangle)多尺度圖卷積的方法和(2)一種統一的時空圖卷積算子G3D。所提出的多尺度聚合方法理清了不同鄰域中節點對于有效的遠程建模的重要性。所提出的G3D模塊利用密集的跨時空邊作為跳過連接(skip connections),用于在時空圖中直接傳播信息。通過耦合上述提議,我們開發了一個名為MS-G3D的強大的特征提取器,在此基礎上,我們的模型在三個大規模數據集NTU RGB+D60,NTU RGB+D120和Kinetics Skeleton 400上的性能優于以前的最先進方法。

網址: //arxiv.org/pdf/2003.14111.pdf

代碼鏈接: github.com/kenziyuliu/ms-g3d

2. DPGN: Distribution Propagation Graph Network for Few-shot Learning

作者:Ling Yang, Liangliang Li, Zilun Zhang, Xinyu Zhou, Erjin Zhou, Yu Liu

摘要:大多數基于圖網絡的元學習方法都是為實例的instance-level關系進行建模。我們進一步擴展了此思想,以1-vs-N的方式將一個實例與所有其他實例的分布級關系明確建模。我們提出了一種新的少樣本學習方法--分布傳播圖網絡(DPGN)。它既表達了每個少樣本學習任務中的分布層次關系,又表達了實例層次關系。為了將所有實例的分布層關系和實例層關系結合起來,我們構造了一個由點圖和分布圖組成的對偶全圖網絡,其中每個節點代表一個實例。DPGN采用雙圖結構,在更新時間內將標簽信息從帶標簽的實例傳播到未帶標簽的實例。在少樣本學習的大量基準實驗中,DPGN在監督設置下以5%~12%和在半監督設置下以7%~13%的優勢大大超過了最新的結果。

網址:

代碼鏈接:

3. Geometrically Principled Connections in Graph Neural Networks

作者:Shunwang Gong, Mehdi Bahri, Michael M. Bronstein, Stefanos Zafeiriou

摘要:圖卷積操作為以前認為遙不可及的各種圖形和網格處理任務帶來了深度學習的優勢。隨著他們的持續成功,人們希望設計更強大的體系結構,這通常是將現有的深度學習技術應用于非歐幾里得數據。在這篇文章中,我們認為幾何應該仍然是幾何深度學習這一新興領域創新的主要驅動力。我們將圖神經網絡與廣泛成功的計算機圖形和數據近似模型(徑向基函數(RBF))相關聯。我們推測,與RBF一樣,圖卷積層將從向功能強大的卷積核中添加簡單函數中受益。我們引入了仿射跳躍連接 (affine skip connections),這是一種通過將全連接層與任意圖卷積算子相結合而形成的一種新的構建塊。通過實驗證明了我們的技術的有效性,并表明性能的提高是參數數量增加的結果。采用仿射跳躍連接的算子在形狀重建、密集形狀對應和圖形分類等每一項任務上的表現都明顯優于它們的基本性能。我們希望我們簡單有效的方法將成為堅實的基準,并有助于簡化圖神經網絡未來的研究。

網址:

4. L^2-GCN: Layer-Wise and Learned Efficient Training of Graph Convolutional Networks

作者:Yuning You, Tianlong Chen, Zhangyang Wang, Yang Shen

摘要:圖卷積網絡(GCN)在許多應用中越來越受歡迎,但在大型圖形數據集上的訓練仍然是出了名的困難。它們需要遞歸地計算鄰居的節點表示。當前的GCN訓練算法要么存在隨層數呈指數增長的高計算成本,要么存在加載整個圖和節點嵌入的高內存使用率問題。本文提出了一種新的高效的GCN分層訓練框架(L-GCN),該框架將訓練過程中的特征聚合和特征變換分離開來,從而大大降低了時間和存儲復雜度。我們在圖同構框架下給出了L-GCN的理論分析,在溫和的條件下,與代價更高的傳統訓練算法相比L-GCN可以產生同樣強大的GCN。我們進一步提出了L2-GCN,它為每一層學習一個控制器,該控制器可以自動調整L-GCN中每一層的訓練周期。實驗表明,L-GCN比現有技術快至少一個數量級,內存使用量的一致性不依賴于數據集的大小,同時保持了還不錯的預測性能。通過學習控制器,L2-GCN可以將訓練時間進一步減少一半。

網址:

代碼鏈接:

補充材料:

5. LiDAR-based Online 3D Video Object Detection with Graph-based Message Passing and Spatiotemporal Transformer Attention

作者:Junbo Yin, Jianbing Shen, Chenye Guan, Dingfu Zhou, Ruigang Yang

摘要:現有的基于LiDAR的3D目標檢測算法通常側重于單幀檢測,而忽略了連續點云幀中的時空信息。本文提出了一種基于點云序列的端到端在線3D視頻對象檢測器。該模型包括空間特征編碼部分和時空特征聚合部分。在前一個組件中,我們提出了一種新的柱狀消息傳遞網絡(Pillar Message Passing Network,PMPNet)來對每個離散點云幀進行編碼。它通過迭代信息傳遞的方式自適應地從相鄰節點收集柱節點的信息,有效地擴大了柱節點特征的感受野。在后一組件中,我們提出了一種注意力時空轉換GRU(AST-GRU)來聚合時空信息,通過注意力記憶門控機制增強了傳統的ConvGRU。AST-GRU包含一個空間Transformer Attention(STA)模塊和一個時間Transformer Attention(TTA)模塊,分別用于強調前景對象和對齊動態對象。實驗結果表明,所提出的3D視頻目標檢測器在大規模的nuScenes基準測試中達到了最先進的性能。

網址:

代碼鏈接:

付費5元查看完整內容

【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020已于2020年4月20日至4月24日在中國臺灣臺北舉行。會議論文集已經公開,大家可以自己查看感興趣的論文,專知小編繼續整理WWW 2020 系列論文,這期小編為大家奉上的是WWW 2020六篇遷移學習(Transfer Learning)相關論文,供大家參考!——主動域遷移、多任務域遷移、類別注意力遷移網絡、多模態域遷移、跨域推薦、跨域欺詐檢測。

WWW 2020 會議論文集: //dl.acm.org/doi/proceedings/10.1145/3366423

WWW2020KG+GNN、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、EMNLP2019GNN、ICCV2019GNN_Part2、ICCV2019GNN_Part1、NIPS2019GNN、IJCAI2019GNN_Part1、IJCAI2019GNN_Part2、KDD2019GNN、ACL2019GNN、CVPR2019GNN、ICML2019GNN

CCF-A類頂會WWW2020最佳論文出爐!OSU最佳論文,北郵斬獲最佳學生論文!

1. Active Domain Transfer on Network Embedding

作者:Lichen Jin, Yizhou Zhang, Guojie Song, Yilun Jin

摘要:最近的工作表明,端到端、監督(半監督)的網絡嵌入模型可以生成令人滿意的向量來表示網絡拓撲,甚至可以通過歸納學習(inductive learning)適用于未知(unseen)的圖。然而,歸納學習的訓練網絡和測試網絡之間的域不匹配,以及缺乏標記數據,會影響這種方法的結果。相應地能夠解決上述問題的遷移學習和主動學習(active learning)技術已經在常規獨立同分布數據上得到了很好的研究,而它們在網絡上的關注相對較少。因此,本文提出了一種網絡上的主動遷移學習方法,稱為主動遷移網絡嵌入(Active-Transfer Network Embedding,ATNE)。在ATNE中,我們從遷移和主動學習兩個角度綜合考慮各個節點對網絡的影響,從而在訓練過程中結合這兩個方面設計新穎有效的影響分值以方便節點的選擇。我們證明了ATNE是有效的,并且與實際使用的模型是解耦的。進一步的實驗表明,ATNE的性能優于最新的主動節點選擇方法,并且在不同的情況下表現出了通用性。

網址:

2. Anchored Model Transfer and Soft Instance Transfer for Cross-Task Cross-Domain Learning: A Study Through Aspect-Level Sentiment Classification

作者:Yaowei Zheng, Richong Zhang, Suyuchen Wang, Samuel Mensah, Yongyi Mao

摘要:監督學習在很大程度上依賴于容易獲得的標記數據來推斷有效的分類函數。然而,在有監督學習下提出的方法面臨領域內標注數據稀缺的問題,且通用性不夠強,不能適用于其他任務。通過允許跨域和跨任務共享知識,遷移學習已被證明是解決這些問題的一個有價值的選擇。通過允許跨域和跨任務共享知識,遷移學習已被證明是解決上述問題的一個有價值的選擇。本文提出了Anchored Model遷移(AMT)和Soft Instance遷移(SIT)兩種遷移學習方法,這兩種學習方法都是基于多任務學習,兼顧了模型遷移和實例遷移,可以結合到一個通用的框架中。我們證明了AMT和SIT對于aspect-level的情感分類的有效性,在基準數據集上我們的模型表現出比基線模型更有競爭力的表現。有趣的是,AMT + SIT的集成可在同一任務上實現最先進的性能。

網址:

  1. Domain Adaptation with Category Attention Network for Deep Sentiment Analysis

作者:Dongbo Xi, Fuzhen Zhuang, Ganbin Zhou, Xiaohu Cheng, Fen Lin, Qing He

摘要:跨域情感分類等領域自適應任務旨在利用源域中已有的已標記數據和目標域中未標記或很少的標記數據,通過減少數據分布之間的偏移來提高目標域的性能。現有的跨領域情感分類方法需要區中心點(pivots)(即領域共享的情感詞)和非中心點(即領域特定的情感詞),才能獲得良好的自適應性能。本文首先設計了一個類別注意網絡(CAN),然后提出了一種將CAN和卷積神經網絡(CNN)相結合的CAN-CNN模型。該模型一方面將中心點和非中心點作為統一的類別屬性詞進行自動捕獲,提高領域自適應性能;另一方面,對遷移后的類別屬性詞進行可解釋性學習的嘗試。具體地說,該模型的優化目標有三個不同的組成部分:1)監督分類損失;2)類別特征權重的分布損失;3)領域不變性損失。最后,在三個輿情分析數據集上對所提出的模型進行了評估,結果表明CAN-CNN的性能優于其他各種基線方法。

網址:

4. Domain Adaptive Multi-Modality Neural Attention Network for Financial Forecasting

作者:Dawei Zhou, Lecheng Zheng, Yada Zhu, Jianbo Li, Jingrui He

摘要:金融時間序列分析在優化投資決策、對沖市場風險方面起著核心作用。這是一項具有挑戰性的任務,因為問題總是伴隨著雙層(即數據級和任務級)的異構性。例如,在股價預測中,一個成功的具有有限風險的投資組合通常由來自不同領域(如公用事業、信息技術、醫療保健等)的大量股票組成,每個領域的股票預測可以視為一個任務;在一個投資組合中,每個股票的特征是從多個模態(例如金融、天氣和新聞)收集的時間數據,這對應于數據層的異構性。此外,金融業遵循高度監管的過程,這就要求預測模型是可解釋的,輸出結果必須滿足合規性。因此,一個自然的研究問題就是如何建立一個模型,既能在解決此類多通道多任務學習問題時取得滿意的性能,又能為最終用戶提供全面的解釋。為了回答這個問題,本文提出了一個通用的時間序列預測框架Dandelion,它利用多模態的一致性,并使用深度神經網絡來探索多個任務的相關性。此外,為了保證框架的可解釋性,我們集成了一種新的三位一體的注意機制,允許最終用戶在三個維度(即任務、通道和時間)上調查變量重要性。廣泛的實證結果表明,Dandelion在過去15年中對來自4個不同領域的396只股票的金融市場預測取得了優異的表現。具體地說,兩個有趣的案例研究顯示了Dandelion在其盈利表現和輸出結果對最終用戶的可解釋性方面的成效。

網址:

5. Exploiting Aesthetic Preference in Deep Cross Networks for Cross-domain Recommendation

作者:Jian Liu, Pengpeng Zhao, Fuzhen Zhuang, Yanchi Liu, Victor S. Sheng, Jiajie Xu, Xiaofang Zhou, Hui Xiong

摘要:產品的視覺美學在購買外觀優先的產品(如服裝)的決策過程中起著重要的作用。用戶的審美偏好作為一種個性特征和基本要求,是與領域無關的,可以作為領域間知識遷移的橋梁。然而,現有的工作很少考慮產品圖像中的審美信息進行跨域推薦。為此,本文提出了一種新的深度審美跨域網絡(ACDN),通過跨網絡共享表征個人審美偏好的參數來實現領域間的知識傳遞。具體地說,我們首先利用審美網絡來提取審美特征。然后,我們將這些特征集成到一個跨域網絡中,以傳遞用戶與領域無關的審美偏好。此外,還引入了網絡交叉連接,以實現跨域的雙重知識轉移。最后,在真實數據集上的實驗結果表明,我們提出的模型ACDN在推薦準確率方面優于基準方法。

網址:

6. Modeling Users’ Behavior Sequences with Hierarchical Explainable Network for Cross-domain Fraud Detection

作者:Yongchun Zhu, Dongbo Xi, Bowen Song, Fuzhen Zhuang, Shuai Chen, Xi Gu, Qing He

摘要:隨著電子商務行業的爆炸式增長,檢測現實應用中的網絡交易欺詐對電子商務平臺的發展變得越來越重要。用戶的連續行為歷史為區分欺詐支付和正常支付提供了有用的信息。最近,已經提出了一些方法來解決這一基于序列的欺詐檢測問題。然而,這些方法通常存在兩個問題:預測結果難以解釋和對行為內部信息的利用不足。針對上述兩個問題,本文提出了一種分層可解釋網絡(HEN)對用戶行為序列進行建模,不僅提高了欺詐檢測的性能,而且使推理過程具有可解釋性。同時,隨著電子商務業務擴展到新的領域,例如,新的國家或新的市場,在欺詐檢測系統中建模用戶行為的一個主要問題是數據收集的限制(例如,可用的數據/標簽非常少)。因此,在本文中,我們進一步提出了一個跨域欺詐檢測問題的遷移框架,該框架的目的是從現有領域(源域)遷移足夠成熟數據的知識,以提高在新領域(目標域)的性能。我們提出的方法是一個通用的遷移框架,它不僅可以應用于HEN,而且可以應用于嵌入&MLP范式中的各種現有模型。利用世界領先的跨境電商平臺的數據,我們在不同國家進行了廣泛的檢測盜卡交易詐騙的實驗,以展示HEN的優越性能。此外,基于90個遷移任務的實驗,證明了我們的遷移框架不僅可以用于HEN的跨域詐騙檢測任務,而且對現有的各種模型都具有通用性和可擴展性。此外,HEN和遷移框架形成了三個級別的注意力,極大地提高了檢測結果的可解釋性。

網址:

付費5元查看完整內容
北京阿比特科技有限公司