亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】一年一度的全球學術大會EMNLP是計算機語言學和自然語言處理領域最受關注的國際學術會議之一,由國際語言學會(ACL)旗下SIGDAT組織。據悉,EMNLP 2020共收到有效投稿3114篇,錄用602篇長文和150篇短文。近期,所有Paper list 放出,也包括(Findings of EMNLP),因果推理及其應用相關的接受Paper很多,在其他領域比如CV、數據挖掘、推薦等也廣受關注。

為此,這期小編為大家奉上EMNLP 2020必讀的六篇反事實推理(Counterfactual Reasoning)相關論文——常識推理、反事實生成器、開放式對話生成、VQA、文本分類

EMNLP 2020 Accepted Papers : //2020.emnlp.org/papers/main

ICLR2020CI、ICML2020CI

1. Back to the Future: Unsupervised Backprop-based Decoding for Counterfactual and Abductive Commonsense Reasoning

作者:Lianhui Qin, Vered Shwartz, Peter West, Chandra Bhagavatula, Jena D. Hwang, Ronan Le Bras, Antoine Bosselut, Yejin Choi

摘要:推理和反事實推理是人類日常認知的核心能力,需要對時間t可能發生的事情進行推理,同時要根據過去和未來的多個背景進行推理。然而,使用生成語言模型(LMS)同時合并過去和未來的上下文可能是具有挑戰性的,因為它們要么被訓練成僅以過去的上下文為條件,要么被訓練成執行范圍狹窄的文本填充。

在本文中,我們提出了一種新的無監督解碼算法DeLorean,它可以在只使用現成的、從左到右的(off-the-shelf, left-to-right)語言模型,并且無監督的情況下,靈活地合并過去和未來的上下文。我們算法的關鍵點是通過反向傳播與未來相結合,在此過程中,我們只更新輸出的內部表示,同時固定模型參數。通過在前向和后向傳播之間交替,DeLorean可以解碼既反映左上下文又反映右上下文的輸出表示。我們證明了我們的方法是通用的,適用于兩個非單調(nonmonotonic)推理任務:推理文本生成和反事實故事修改,在這兩個任務中,DeLorean基于自動和人工評估,優于一系列無監督和一些監督方法。

代碼:

網址:

2. Counterfactual Generator: A Weakly-Supervised Method for Named Entity Recognition

作者:Xiangji Zeng, Yunliang Li, Yuchen Zhai, Yin Zhang

摘要:神經模型的進展已經證明,如果我們有足夠的標簽數據,命名實體識別(named entity recognition)不再是一個問題。然而,收集足夠的數據并對其進行注釋是需要大量勞動、耗時和昂貴的。在本文中,我們將句子分解為實體和上下文兩個部分,并從因果關系的角度重新思考它們與模型性能的關系。在此基礎上,我們提出了反事實生成器,它通過對已有觀測實例的干預來增強原始數據集,從而生成反事實實例。在三個數據集上的實驗表明,我們的方法在有限的觀測樣本下提高了模型的泛化能力。此外,我們還使用一個結構因果模型來研究輸入特征和輸出標簽之間的偽相關性,從而提供了理論基礎。在非增廣和增廣兩種情況下,我們考察了實體或上下文對模型性能的因果影響。有趣的是,我們發現非偽相關性更多地位于實體表示中,而不是上下文表示中。因此,我們的方法消除了上下文表示和輸出標簽之間的部分虛假相關性。

代碼: .

網址:

3. Counterfactual Off-Policy Training for Neural Dialogue Generation

作者:Qingfu Zhu, Wei-Nan Zhang, Ting Liu, William Yang Wang

摘要:由于潛在反應( potential responses)的巨大規模,開放式對話生成(Open-domain dialogue generation)存在數據不足的問題。在本文中,我們提出通過反事實推理來探索潛在的反應。給出一個觀察到的反應,反事實推理模型會自動推斷出可以采取的替代策略的結果。事后合成的反事實反應比從頭合成的反應質量更高。對抗性學習框架下的反事實反應訓練有助于探索潛在反應空間的高回報領域。在DailyDialog數據集上的實證研究表明,該方法的性能明顯優于HRED模型和傳統的對抗性學習方法。

網址:

  1. Learning to Contrast the Counterfactual Samples for Robust Visual Question Answering

作者:Zujie Liang, Weitao Jiang, Haifeng Hu, Jiaying Zhu

摘要:在視覺問答(VQA)任務中,大多數先進的模型往往會在訓練集中學習虛假的相關性,并且在非分布(out-of-distribution)測試數據中表現不佳。為了緩解這一問題,已經提出了一些生成反事實樣本的方法。然而,大多數以前的方法生成的反事實樣本只是簡單地添加到訓練數據中進行擴充,沒有得到充分的利用。因此,我們引入了一種新的自監督對比學習(contrastive learning)機制來學習原始樣本、真實樣本和反事實樣本之間的關系。通過從輔助訓練目標中學習到更好的跨模態聯合嵌入,VQA模型的推理能力和穩健性都得到了顯著的提高。我們通過在VQA-CP數據集(VQA-CP數據集是評估VQA模型穩健性的診斷基準)上超過當前最先進的模型來評估我們方法的有效性。

網址:

5. Less is More:Attention Supervision with Counterfactuals for Text Classification

作者:Seungtaek Choi, Haeju Park, Jinyoung Yeo, Seung-won Hwang

摘要:我們的目標是利用人類和機器的智能來進行注意力監督。具體地說,我們證明了人工標注的代價可以保持在合理的低水平,而標注的質量可以通過機器的自監督來提高。具體地說,為了達到這一目標,我們探索了反事實推理相對于通常用于注意監督的聯想推理的優勢。實驗結果表明,在情感分析和新聞分類等文本分類任務中,這種機器增強的人類注意力監督方法比現有的標注代價更高的方法更有效。

網址:

付費5元查看完整內容

相關內容

【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。NeurIPS 2020已經開完了,小編發現三維點云(3 D Point Cloud)相關的接受paper不少,近幾年點云分析在CV上出現了一系列工作,在NeurIPS上越來越多,也顯示出點云分析這個傳統任務近幾年非常火。

為此,這期小編為大家奉上NeurIPS 2020必讀的五篇三維點云(3 D Point Cloud)相關論文——時空點云表示、組上下文編碼、點云邊緣檢測、GCN局部全局點云表示、自監督少樣本點云學習

NeurIPS 2020 Accepted Papers : //proceedings.neurips.cc/paper/2020

NIPS2020OD、NIPS2020VRL、NIPS2020DA、NIPS2020CI、ICLR2020CI、ICML2020CI

1. CaSPR: Learning Canonical Spatiotemporal Point Cloud Representations

作者:Davis Rempe, Tolga Birdal, Yongheng Zhao, Zan Gojcic, Srinath Sridhar, Leonidas J. Guibas

摘要:我們提出了CaSPR,這是一種學習以目標為中心的動態移動或演化的典型時空點云表示方法。我們處理的目標是隨著時間進行信息聚合,并在過去的任何時空鄰域中查詢目標狀態。與以前的工作不同,CaSPR支持時空連續性的學習表示,對可變和不規則的時空采樣點云具有魯棒性,并且能夠泛化到對不可知的目標實例進行表示。我們的方法將問題分為兩個子任務。首先,我們通過將輸入點云序列映射到時空規范化的目標空間來顯式編碼時間信息。然后,我們利用這種規范化來學習使用神經常微分方程的時空潛在表示,以及使用標準連續化流(continuous normalizing flows)動態生成形狀的生成模型。我們證明了我們的方法在幾種應用中的有效性,包括形狀重建,相機姿態估計,連續時空序列重建以及從不規則或間歇采樣的觀測值進行對應估計。

代碼:

網址:

2. Group Contextual Encoding for 3D Point Clouds

作者:Xu Liu, Chengtao Li, Jian Wang, Jingbo Wang, Boxin Shi, Xiaodong He

摘要:全局上下文對于3D點云場景理解任務至關重要。在這項工作中,我們將最初為2D任務設計的上下文編碼層擴展到3D點云方案。編碼層在3D點云的特征空間中學習一組字典(code words)以表征全局語義上下文,然后基于這些字典,該方法學習全局上下文描述符以相應地對特征圖進行加權。此外,與2D場景相比,數據稀疏性成為3D點云場景中的主要問題,并且隨著字典數量的增加,上下文編碼的性能迅速飽和。為了減輕這個問題,我們進一步提出了一種組上下文(group contextual)編碼方法,該方法將通道劃分為組,然后對組劃分的特征向量執行編碼。此方法有助于學習3D點云的分組子空間中的全局上下文。我們在三個被廣泛研究的3D點云任務上評估了我們方法的有效性和可推廣性。實驗結果表明,當指標為[email protected]時所提出的方法在SUN-RGBD基準上mAP為3,性能明顯優于VoteNet;而在ScanNet上,指標為mAP@0.5時其mAP為6.57 。與PointNet ++的基線相比,該方法的準確率為86%,優于基線的1.5%。

代碼:

網址:

3. PIE-NET: Parametric Inference of Point Cloud Edges

作者:Xiaogang Wang, Yuelang Xu, Kai Xu, Andrea Tagliasacchi, Bin Zhou, Ali Mahdavi-Amiri, Hao Zhang

摘要:我們引入了一種端到端的可學習技術,能夠可靠地識別3D點云數據中的特征邊緣。我們將這些邊緣表示為參數曲線(即線,圓和B樣條曲線)的集合。因此,我們的深度神經網絡(稱為PIE-NET)經過訓練可進行邊的參數推斷。該網絡依賴于候選區域(region proposal)的體系結構,其中第一個模塊先統計proposal邊緣和拐角點的完整集合,第二個模塊對每個proposal進行排名以決定是否應考慮。我們通過消融研究在ABC數據集(最大的CAD模型的公共可用數據集)上訓練和評估我們的方法,并將我們的結果與傳統(非學習)處理通道以及最近基于深度學習的邊緣檢測器(ECNet)所產生的結果進行比較。我們的結果在數量和質量上都大大超過了現有技術,并且很好地推廣到了新穎的形狀類別上。

網址:

4. Rotation-Invariant Local-to-Global Representation Learning for 3D Point Cloud

作者:SEOHYUN KIM, JaeYoo Park, Bohyung Han

摘要:我們提出了一種用于3D點云數據的局部到全局表示學習算法,該算法適合于處理各種幾何變換,尤其是旋轉,而無需針對變換進行顯式的數據增強。我們的模型利用了基于圖卷積神經網絡的多級抽象,它構建了一個描述符層次結構,以自下而上的方式對輸入對象的旋轉不變形狀信息進行編碼。每個級別的描述符都是通過3D點的隨機采樣從圖神經網絡中獲得的,這對于使學習的表示形式對輸入數據的變化具有魯棒性是非常有效。我們提出的算法在旋轉增強型3D對象識別和分割基準測試中展現了最新技術,并通過綜合的ablative實驗進一步分析了其特性。

代碼:

網址:

5. Self-Supervised Few-Shot Learning on Point Clouds

作者:Charu Sharma, Manohar Kaul

摘要:大規模點云的實用性不斷提高,加上它們在機器人技術,形狀合成和自動駕駛等廣泛應用中的實用性,引起了業界和學術界的越來越多的關注。最近,在標記的點云上運行的深度神經網絡已在有監督學習任務(如分類和分割)上顯示出令人鼓舞的結果。然而,有監督學習導致對點云進行標注是一項非常繁瑣的任務。為了解決這個問題,我們提出了兩種新穎的自監督預訓練任務,它們使用cover-tree對點云的分層分區進行編碼,其中,點云子集位于cover-tree的每個層次的半徑不同的球中。此外,我們的自監督學習網絡僅限于在少樣本學習(FSL)設置中用于訓練下游網絡的支持集合上進行預訓練(包含稀缺的訓練示例)。最后,將經過全面訓練的自監督網絡的點嵌入輸入到下游任務的網絡。我們針對下游分類和細分任務對我們的方法進行了全面的經驗評估,結果表明,使用我們的自監督學習方法進行預訓練的監督方法顯著提高了最新方法的準確性。此外,我們的方法在下游分類任務中也優于以前的無監督方法。

網址:

付費5元查看完整內容

【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。NeurIPS 2020已經開完會,小編發現元學習(Meta Learning)相關的接受paper不少,元學習在CV、NLP等各個領域的應用也比較火熱,值得研究者們細心學習。

為此,這期小編為大家奉上NeurIPS 2020必讀的五篇元學習(Meta Learning)相關論文——少樣本視覺推理、持續元學習、異構元學習、元強化學習、元變換網絡學習

NeurIPS 2020 Accepted Papers : //proceedings.neurips.cc/paper/2020

NIPS2020VRL、NIPS2020DA、NIPS2020CI、ICLR2020CI、ICML2020CI

1. Few-shot Visual Reasoning with Meta-analogical Contrastive Learning

作者:Youngsung Kim, Jinwoo Shin, Eunho Yang, Sung Ju Hwang

摘要:盡管人類可以通過僅觀察幾個樣本來解決需要邏輯推理的視覺難題,但它需要對大量樣本進行訓練,以使用最新的深度推理模型來在同一任務上獲得相似的性能。在這項工作中,我們提出通過類比推理來解決這樣的少樣本抽象視覺推理問題,并且這是人類具有的識別兩組數據之間結構或關系相似性的獨特能力。具體來說,我們構造了兩個不同問題實例的類比和非模擬訓練對。后者是通過對原始問題(以前的問題)進行擾動或改組來創建的。然后,我們通過強制類比元素盡可能相似,同時最小化非類比元素之間的相似性,來提取成對的兩個域中元素之間的結構關系。這種類比性的對比學習可以有效地學習給定抽象推理任務的關系表示。我們在RAVEN數據集上驗證了我們的方法,該方法的性能優于最新方法,并且在缺乏訓練數據時獲得了更大的收益。我們進一步對具有不同屬性的相同任務對我們的對比學習模型進行元學習,并表明它可以推廣到具有未知屬性的相同視覺推理問題。

網址:

2. La-MAML: Look-ahead Meta Learning for Continual Learning

作者:Gunshi Gupta, Karmesh Yadav, Liam Paull

摘要:持續學習(continual learning)問題涉及訓練模型,然而這些模型的能力有限,無法在一組順序到達的未知數量的任務上表現良好。雖然元學習在減少新舊任務之間的干擾方面顯示出巨大的潛力,但當前的訓練過程往往很慢或離線,并且對許多超參數敏感。在這項工作中,我們提出了Look-ahead MAML(La-MAML),這是一種基于快速優化的元學習算法,用于在線持續學習,并有帶少量的情節記憶。在元學習更新中對每個參數的學習率進行調制,使我們能夠與以前有關超梯度和元下降的工作建立聯系。與傳統的基于先驗的方法相比,該方法提供了一種更靈活,更有效的方法來減輕災難性遺忘問題。La-MAML的性能優于其他基replay,基于先驗和基于元學習的方法,并且可在現實世界中的視覺分類基準上持續學習。

網址:

3. Meta-learning from Tasks with Heterogeneous Attribute Spaces

作者:Tomoharu Iwata, Atsutoshi Kumagai

摘要:我們提出了一種異構元學習方法,該方法在具有各種屬性空間的任務上訓練模型,從而可以解決在給定標記實例的情況下屬性空間與訓練任務不同的未知任務(unseen tasks)。盡管已經提出了許多元學習方法,但是它們假定所有訓練任務和目標任務共享相同的屬性空間,并且當任務之間的屬性大小不同時,它們將不適用。我們的模型使用推理網絡從幾個標記實例中推斷每個屬性和每個響應的潛在表示。然后,使用預測網絡推斷的表示來預測未標記實例的響應。即使屬性和響應的大小在各個任務之間都不同,屬性和響應表示也使我們能夠基于屬性和響應的特定于任務的屬性進行預測。在我們使用合成數據集和OpenML中的59個數據集進行的實驗中,我們證明了在使用具有異構屬性空間的任務訓練后,我們提出的方法可以預測新任務中給定標記實例的響應。

網址:

4. Model-based Adversarial Meta-Reinforcement Learning

作者:Zichuan Lin, Garrett Thomas, Guangwen Yang, Tengyu Ma

摘要:元強化學習(meta-RL)旨在從多個訓練任務中有效地學習適應不可知測試任務的能力。盡管取得了成功,但已知現有的meta-RL算法對任務分配的變化很敏感。當測試任務分配與訓練任務分配不同時,性能可能會大大降低。為了解決這個問題,本文提出了基于模型的對抗性元強化學習(AdMRL),旨在最大程度地降低最差情況的次優差距(最優回報與算法在自適應后獲得的回報之間的差異),并使用基于模型的方法來處理一系列任務中的所有任務。我們提出了一個極小極大目標,并通過在學習固定任務的動力學模型與尋找當前模型的對抗任務(在該任務中,模型誘導的策略最大程度次優)之間交替進行優化。假設任務已參數化,我們通過隱函數定理推導了次最優性相對于任務參數的梯度公式,并展示了如何通過共軛梯度法和新穎的方法有效地實現梯度估計器--REINFORCE估算器。我們在幾個連續的控制基準上評估了我們的方法,并證明了它在所有任務的最壞情況下的性能,對分發任務的概括能力以及在訓練和測試時間樣本效率方面相對于現有技術的有效性。

網址:

5. Node Classification on Graphs with Few-Shot Novel Labels via Meta Transformed Network Embedding

作者:Lin Lan, Pinghui Wang, Xuefeng Du, Kaikai Song, Jing Tao, Xiaohong Guan

摘要:我們研究了具有少量新穎標簽的圖節點分類問題,它具有兩個獨特的特性:(1)圖中出現了新穎標簽;(2)新穎標簽僅具有幾個用于訓練分類器的代表性節點。對這個問題的研究具有指導意義,并且與許多應用相對應,例如對在線社交網絡中只有幾個用戶的新組建的推薦。為了解決這個問題,我們提出了一種新穎的元變換網絡嵌入框架(MetaTNE),該框架由三個模塊組成:(1)一個結構模塊根據圖結構為每個節點提供潛在的表示。(2)元學習模塊以元學習的方式捕獲圖結構和節點標簽之間的關系作為先驗知識。此外,我們引入了一種嵌入轉換函數,以彌補元學習直接使用的不足。從本質上講,可以將元學習的先驗知識用于促進少樣本新穎標簽的學習。(3)優化模塊采用簡單而有效的調度策略來訓練上述兩個模塊,并在圖結構學習和元學習之間取得平衡。在四個真實數據集上進行的實驗表明,MetaTNE相對于最新方法具有巨大的改進。

網址:

付費5元查看完整內容

【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。NeurIPS 2020正在開會,小編發現視頻表示學習(Video Representation Learning)相關的接受paper不少,視頻理解在NeurIPS上越來越多,也顯示出視頻理解這個任務的火熱程度。

為此,這期小編為大家奉上NeurIPS 2020必讀的六篇視頻表示學習(Video Representation Learning)相關論文——上下文目標嵌入、自監督視頻表示學習、多模態自監督、解糾纏視頻表示、自監督協同訓練、跨模態音視頻聚類

NeurIPS 2020 Accepted Papers : //proceedings.neurips.cc/paper/2020

NIPS2020DA、NIPS2020CI、ICLR2020CI、ICML2020CI

1. COBE: Contextualized Object Embeddings from Narrated Instructional Video

作者:Gedas Bertasius, Lorenzo Torresani

摘要:現實世界中的許多目標的視覺外觀都會發生巨大變化。例如,番茄可以是紅色或綠色,切成薄片或切碎的,新鮮或油炸的,液體或固體的。訓練單個檢測器以準確識別所有這些不同狀態的西紅柿是一項挑戰。另一方面,上下文提示(例如,刀,切菜板,濾網或平底鍋的存在)通常強烈指示目標在場景中的出現方式。識別此類上下文線索不僅有助于提高目標檢測的準確性或確定目標的狀態,而且有助于理解其功能特性并推斷正在進行或即將發生的人與目標之間的交互。然而,在現實世界中,有監督的識別目標狀態及其上下文的方法受到數據的長尾(long-tailed),開放式分布的影響,這將需要大量標注來捕獲所有目標的不同形式的表觀。我們提出了一個新的框架,用于從自動轉錄的教學視頻中學習上下文的目標嵌入(COBE),而不是依賴此任務的手動標記數據。我們通過訓練視覺檢測器來預測目標的上下文詞嵌入及其關聯的敘述,從而利用語言的語義和組成結構。這使得能夠學習根據語義語言度量與概念相關的目標表示。我們的實驗表明,我們的檢測器學會了預測各種各樣的上下文目標信息,并且在少樣本和零樣本學習的設置中非常有效。

網址:

2. Cycle-Contrast for Self-Supervised Video Representation Learning

作者:Quan Kong, Wenpeng Wei, Ziwei Deng, Tomoaki Yoshinaga, Tomokazu Murakami

摘要:我們提出了循環對比學習(Cycle-Contrastive Learning,CCL),這是一種用于學習視頻表示的新穎的自監督方法。遵循視頻及其幀之間存在和包含關系的性質,CCL設計為分別考慮幀和視頻在各自域中的對比表示來查找幀和視頻之間的對應關系。它與最近的方法不同,后者僅學習跨幀的對應關系。在我們的方法中,幀和視頻表示是從基于R3D架構的單個網絡中學習的,具有共享的非線性變換,可以在幀丟失之前嵌入幀和視頻特征。我們證明了CCL學習的視頻表示可以很好地轉移到視頻理解的下游任務,在UCF101,HMDB51和MMAct上最近鄰檢索和動作識別任務中取得了很好的效果。

網址:

3. Labelling unlabelled videos from scratch with multi-modal self-supervision

作者:Yuki Asano, Mandela Patrick, Christian Rupprecht, Andrea Vedaldi

摘要:深度學習當前成功很大一部分在于數據的有效性--更確切地說,是標記數據。然而,使用人工注釋標記數據集的成本仍然很高,尤其是對于視頻而言。雖然在圖像領域中,最近的方法已允許在無監督的情況下為未標記的數據集生成有意義的(偽)標簽,但視頻領域缺少這種發展,因為學習特征表示是當前關注的領域。在這項工作中,我們(a)展示了視頻數據集的無監督標記并非來自免費的特征編碼器,并且(b)提出了一種新穎的聚類方法,該方法可以利用音頻和視覺模態之間的自然對應關系,對視頻數據集進行偽標記而無需任何人工注釋。廣泛的分析表明,生成的聚類與真實的人類標簽具有高度的語義重疊。我們還將展示有關普通視頻數據集動力學,動力學聲音,VGG聲音和AVE2的無監督標記的第一個基準測試結果。

代碼:

網址:

4. Learning Disentangled Representations of Video with Missing Data

作者:Armand Comas, Chi Zhang, Zlatan Feric, Octavia Camps, Rose Yu

摘要:在學習視頻序列表示時,數據丟失問題是一個嚴峻的挑戰。我們提出了一個解糾纏估算視頻自編碼器(Disentangled Imputed Video autoEncoder,DIVE),這是一種深度生成模型,可以在缺少數據的情況下估算和預測未來的視頻幀。具體來說,DIVE引入了缺失潛在變量,將隱藏的視頻表示分解為每個目標的靜態和動態外觀,姿勢和缺失因子。DIVE會估算缺少數據的每個目標的軌跡。在具有各種缺失場景的移動MNIST數據集上,DIVE的性能大大優于現有基準水平。我們還對現實世界中的MOTSChallenge行人數據集進行了比較,證明了我們的方法在更現實的環境中的實用價值。

代碼:

網址:

5. Self-supervised Co-training for Video Representation Learning

作者:Tengda Han, Weidi Xie, Andrew Zisserman

摘要:本文的目標是視覺自監督視頻表示學習。我們做出了以下貢獻:(i)我們研究了在基于實例的信息噪聲對比估計(InfoNCE)訓練中添加語義類肯定句的好處,表明這種形式的監督式對比學習可以明顯改善性能;(ii)我們提出了一種新穎的自監督協同訓練方案,以通過使用一個視圖獲取同一數據源的正視圖樣本,以此來利用同一數據源的不同視圖,RGB流和光流的互補信息來改善流行的infoNCE損失;(iii)我們在兩個不同的下游任務(動作識別和視頻檢索)上全面評估所學表示的質量。在這兩種情況下,所提出的方法都展示了最新的技術或與其他自監督方法相當的性能,同時訓練的效率明顯更高,即需要更少的訓練數據即可達到類似的性能。

網址:

6. Self-Supervised Learning by Cross-Modal Audio-Video Clustering

作者:Humam Alwassel, Dhruv Mahajan, Bruno Korbar, Lorenzo Torresani, Bernard Ghanem, Du Tran

摘要:視覺和音頻模態高度相關,但是它們包含不同的信息。它們之間的強相關性使得可以高精度地預測彼此的語義。與在模態內學習相比,它們的固有差異使跨模態預測成為視頻和音頻表示形式的自監督學習的潛在更有意義的任務。基于這種直覺,我們提出了跨模態深度聚類(Cross-Modal Deep Clustering,XDC),這是一種新穎的自監督方法,它利用一種模態(例如音頻)中的無監督聚類作為另一種模態(例如視頻)的監督信號。這種跨模態監督有助于XDC利用語義相關性和兩種模態之間的差異。我們的實驗表明,XDC優于單模態聚類和其他多模態變體。XDC在多種視頻和音頻基準測試的自監督方法中實現了最先進的準確性。最重要的是,我們針對大規模無標簽數據進行預訓練的視頻模型明顯優于針對ImageNet和Kinetics在HMDB51和UCF101上進行動作識別的預訓練的相同模型。據我們所知,XDC是第一個自監督學習方法,其性能優于大規模有監督的針對相同體系結構上的動作識別的預訓練模型。

網址:

付費5元查看完整內容

【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。近期,NeurIPS 2020快開會了,小編發現域自適應(Domain Adaptation)相關的接受paper很多,這塊研究方向近幾年一直很火,并且各個CV和NLP的域自適應任務也非常多。

為此,這期小編為大家奉上NeurIPS 2020必讀的六篇域自適應(Domain Adaptation)相關論文——One-shot 無監督域自適應、圖模型、啟發式域自適應、自監督、多源域自適應

NeurIPS 2020 Accepted Papers : //proceedings.neurips.cc/paper/2020

NIPS2020CI、ICLR2020CI、ICML2020CI

1. Adversarial Style Mining for One-Shot Unsupervised Domain Adaptation

作者:Yawei Luo, Ping Liu, Tao Guan, Junqing Yu, Yi Yang

摘要:我們針對One-Shot無監督域自適應的問題。與傳統的無監督域適應不同,它假定學習適應時只能使用一個未標記的目標樣本。這種設置是現實的,但更具挑戰性,在這種情況下,傳統的自適應方法由于缺少未標記的目標數據而容易失敗。為此,我們提出了一種新穎的對抗式風格挖掘方法,該方法將風格遷移模塊和特定于任務模塊組合成對抗的方式。具體來說,風格遷移模塊會根據當前的學習狀態,迭代搜索One-Shot目標樣本周圍的較難的風格化圖像,從而使任務模型探索在不可知的目標領域中難以解決的潛在風格,從而增強了數據稀缺情況下的適應性能。對抗學習框架使風格遷移模塊和特定于任務模塊在競爭中彼此受益。在跨域分類和分割基準方面的大量實驗證明,ASM在具有挑戰性的One-Shot設置下達到了最新的自適應性能。

網址:

2. Domain Adaptation as a Problem of Inference on Graphical Models

作者:Kun Zhang, Mingming Gong, Petar Stojanov, Biwei Huang, QINGSONG LIU, Clark Glymour

摘要:本文涉及數據驅動的無監督域自適應,在這種情況下,事先不知道跨域的聯合分布如何變化,即數據分布的哪些因素或模塊保持不變或跨域變化。為了研究具有多個源域的域自適應方法,我們提出使用圖模型作為一種緊湊(compact)的方式來編碼聯合分布的變化屬性,該屬性可以從數據中學習,然后將域自適應視為一個關于圖模型的貝葉斯推斷問題。這種圖模型區分了分布的恒定和變化模塊,并指定了跨域變化的特性,這是變化模塊的先驗知識,目的是得出目標域中目標變量Y的后驗。這提供了域自適應的端到端框架,可以將關于聯合分布如何變化的其他知識(如果可用)直接合并以改善圖表示。我們討論如何將基于因果關系的域適應置于此保護之下。和真實數據的實驗結果證明了所提出的域適應框架的功效。

代碼:

網址:

3. Heuristic Domain Adaptation

作者:shuhao cui, Xuan Jin, Shuhui Wang, Yuan He, Qingming Huang

摘要:在視覺域自適應(DA)中,將特定于域的特征與不依賴于域的表示形式分開是一個病態(ill-posed)問題。現有方法采用不同的先驗方法或直接最小化域差異來解決此問題,這在處理實際情況時缺乏靈活性。另一個研究方向是將特定域的信息表示為逐步遷移的過程,這在準確刪除特定域的屬性方面往往不是最佳選擇。在本文中,我們從啟發式搜索的角度解決了域不變和域特定信息的建模問題。我們將現有的特征標識為啟發式表示形式,從而導致更大的域差異。在啟發式表示的指導下,我們制定了一個具有良好理論依據的啟發式域自適應(HDA)原則框架。為了執行HDA,在學習過程中,將域不變和域特定表示之間的余弦相似性評分和獨立性度量放入初始和最終狀態的約束中。類似于啟發式搜索的最終條件,我們進一步推導出一個約束,以強制約束啟發式網絡輸出的最終范圍較小。因此,我們提出了啟發式域自適應網絡(HDAN),該網絡明確學習了具有上述約束的域不變和域特定表示。大量實驗表明,HDAN在無監督DA,多源DA和半監督DA方面已超過了最新技術。

代碼:

網址:

4. Transferable Calibration with Lower Bias and Variance in Domain Adaptation

作者:Ximei Wang, Mingsheng Long, Jianmin Wang, Michael Jordan

摘要:域自適應(DA)可以將學習器從標記的源域轉移到未標記的目標域。盡管已經取得了顯著的進步,但大多數現有的DA方法都專注于提高推理的目標精度。如何估計DA模型的預測不確定性對于安全重要型場景中的決策至關重要,但其仍然是研究的邊界。在本文中,我們研究了DA校準(Calibration)中的開放性問題,該問題是由于域轉移和缺少目標標簽共存所造成的,這一問題極具挑戰性。我們首先揭示了DA模型以經過良好校準的概率為代價來學習更高的精度的困境。基于這一發現,我們提出了可遷移校準(TransCal),以在統一的無超參數優化框架中以較低的偏差和方差實現更準確的校準。作為常規的post-hoc 校準方法,TransCal可以輕松地應用于重新校準現有的DA方法。從理論上和經驗上都證明了其有效性。

網址:

5. Universal Domain Adaptation through Self-Supervision

作者:Kuniaki Saito, Donghyun Kim, Stan Sclaroff, Kate Saenko

摘要:傳統上,無監督域自適應方法假定所有源類別都存在于目標域中。實際上,對于兩個域之間的類別重疊知之甚少。雖然某些方法使用部分或開放類別來解決目標設置,但它們假定特定設置是先驗的。我們提出了一種更通用的域自適應框架,該框架可以處理任意類別轉換,稱為通過熵優化(DANCE)的域自適應鄰域聚類。DANCE結合了兩種新穎的思想:首先,由于我們不能完全依靠源類別來學習針對目標的判別性特征,因此我們提出了一種新穎的鄰域聚類技術,以一種自監督的方式來學習目標域的結構。其次,我們使用基于熵的特征對齊和拒絕來將目標特征與源對齊,或基于它們的熵將它們拒絕為未知類別。我們通過廣泛的實驗表明,在開放集,開放部分和部分域適應設置中,DANCE的性能均優于基線。

代碼:

網址:

6. Your Classifier can Secretly Suffice Multi-Source Domain Adaptation

作者:Naveen Venkat, Jogendra Nath Kundu, Durgesh Singh, Ambareesh Revanur, R. Venkatesh Babu

摘要:多源域適應(MSDA)解決在域轉移(domain-shift)下將任務知識從多個標記的源域轉移到未標記的目標域。現有方法旨在使用輔助分布對齊目標來最小化該域偏移。在這項工作中,我們提出了與MSDA不同的觀點,我們觀察到了深度模型以在標簽監督下隱式對齊域。因此,我們旨在利用隱式對齊方式而無需其他訓練目標來進行適應。為此,我們使用偽標記的目標樣本并在偽標記上執行分類器協議,此過程稱為自監督隱式比對(SImpA1)。我們發現,即使在源域之間的類別轉換下,SImpAl仍然可以輕松工作。此外,我們提出了分類器一致性作為確定訓練收斂的線索,從而產生了一種簡單的訓練算法。我們在五個基準上對我們的方法進行了全面的評估,并對方法的每個組成部分進行了詳細的分析。

網址:

付費5元查看完整內容

【導讀】一年一度的全球學術大會EMNLP是計算機語言學和自然語言處理領域最受關注的國際學術會議之一,由國際語言學會(ACL)旗下SIGDAT組織。據悉,EMNLP 2020共收到有效投稿3114篇,錄用602篇長文和150篇短文。近期,所有Paper list 放出,也包括(Findings of EMNLP),知識圖譜補全特別是時序知識圖譜補全(KGC)相關的接受paper很多,希望大家多多關注。

為此,這期小編為大家奉上EMNLP 2020必讀的五篇知識圖譜補全(Knowledge Graph Completion (KGC))相關論文——知識圖譜補全數據集、少樣本知識圖譜補全、時序知識圖譜補全

EMNLP 2020 Accepted Papers : //2020.emnlp.org/papers/main

EMNLP2020CI、EMNLP2020KG、ICLR2020CI、ICML2020CI

1. CODEX: A Comprehensive Knowledge Graph Completion Benchmark

作者:Tara Safavi, Danai Koutra

摘要:我們提出了CODEX,這是一組從Wikidata和Wikipedia提取的知識圖譜補全(knowledge graph completion)數據集,它們在難度和范圍上改進了現有知識圖譜補全基準。就范圍而言,CODEX包括三個大小和結構各異的知識圖譜,實體和關系的多語言描述,以及成千上萬個合理但被證實為假的難負樣本(hard negative)三元組。為了表征CODEX,我們提供了詳盡的經驗分析和基準測試。首先,我們根據邏輯關系模式分析每個CODEX數據集。接下來,我們針對五個經過廣泛調整的KG嵌入模型在CODEX上報告基準鏈接預測和三元組分類結果。最后,我們通過顯示CODEX涵蓋了更多樣化和可解釋的內容,并且它是一個更困難的鏈接預測基準,將CODEX與流行的FB15K-237知識圖譜補全數據集區分開。

代碼:

網址:

2. Adaptive Attentional Network for Few-Shot Knowledge Graph Completion

作者:Jiawei Sheng, Shu Guo, Zhenyu Chen, Juwei Yue, Lihong Wang, Tingwen Liu, Hongbo Xu

摘要:少樣本知識圖譜(KG)的補全是當前研究的重點,其中每個任務旨在根據給定的少樣本參考實體對(reference entity pairs),來查詢關系中未知的事實。最近的嘗試通過學習實體和參考的靜態表示來解決這個問題,而忽略了它們的動態屬性,即,實體可能在任務關系中發揮不同的作用,并且參考可能對查詢做出不同的貢獻。這項工作提出了自適應注意力網絡,通過學習自適應實體和參考表示來實現少樣本KG補全。具體而言,實體由自適應鄰居編碼器建模以識別其面向任務的角色,而參考則由自適應查詢感知聚合器建模以區分其貢獻。通過注意力機制,實體和參考都可以捕獲其細粒度的語義,從而呈現更具表達力的表示形式。在少數情況下,這對于知識獲取將更具預測性。對兩個公共數據集的鏈接預測的評估表明,我們的方法以不同的少樣本數量獲得了最新的最新結果。

代碼:

網址:

3. DyERNIE: Dynamic Evolution of Riemannian Manifold Embeddings for Temporal Knowledge Graph Completion

作者:Zhen Han, Peng Chen, Yunpu Ma, Volker Tresp

摘要:最近,人們對學習時序知識圖譜(KG)表示的興趣日益濃厚,這些知識記錄了實體之間隨時間的動態關系。時序KG經常表現出多個同時的非歐幾里德結構,例如層次結構和循環結構。但是,現有的時序KG嵌入方法通常會在歐幾里得空間中學習實體表示及其動態演化,這可能無法很好地捕獲此類內在結構。為此,我們提出了DyERNIE,這是一種非歐幾里得的嵌入方法,它可以學習黎曼流形(Riemannian manifolds)乘積中的演化實體表示,其中的組合空間是根據基礎數據的截面曲率估算的。這使我們的方法能夠更好地反映時間KG上的各種幾何結構。此外,為了捕獲時間KG的演化動力學,我們讓實體表示根據每個時間戳處切線空間中定義的速度矢量進行演化。我們詳細分析了幾何空間對時序KG表示學習的貢獻,并評估了我們在時序知識圖補全任務上的模型。在三個真實世界的數據集上進行的大量實驗表明,性能得到了顯著改善,這表明可以通過黎曼流形上的嵌入演化來更正確地建模多關系圖數據的動力學。

網址:

4. Temporal Knowledge Base Completion: New Algorithms and Evaluation Protocols

作者:Prachi Jain, Sushant Rathi, Mausam, Soumen Chakrabarti

摘要:將關系事實(s,r,o)與有效時間段(或時間瞬間)相關聯的時序知識庫的研究仍處于早期階段。我們的工作將預測缺失的實體(鏈接預測)和缺失的時間間隔(時間預測)視為聯合的時序知識庫補全(TKBC)任務,并提出了TIMEPLEX,這是一種新穎的TKBC方法,其中實體,關系和時間都嵌入統一的兼容空間。TIMEPLEX利用某些事實/事件的經常性和關系對之間的時間交互作用,在兩個預測任務上都產生了最新的結果。

我們還發現,由于評估機制不完善,現有的TKBC模型嚴重高估了鏈接預測性能。作為回應,我們針對鏈接和時序預測任務提出了改進的TKBC評估協議,處理了黃金實例和系統預測中時間間隔的部分重疊引起的細微問題。

網址:

5. TeMP: Temporal Message Passing for Temporal Knowledge Graph Completion

作者:Jiapeng Wu, Meng Cao, Jackie Chi Kit Cheung, William L. Hamilton

摘要:在時序知識圖譜中(TKG)推斷缺失的事實是一項基本且具有挑戰性的任務。以前的工作通過擴展靜態知識圖的方法來利用時間相關表示來解決此問題。但是,這些方法沒有顯式地利用時間步驟中的多跳結構信息和時間事實來增強其預測。此外,現有工作未明確解決TKG中實體分布的時間稀疏性和可變性。我們提出了時間信息傳遞(TeMP)框架,通過結合圖神經網絡,時間動力學模型,數據缺失處理和基于頻率的門控技術來應對這些挑戰。在標準TKG任務上進行的實驗1表明,與以前的最新技術水平相比,我們的方法可帶來可觀的收益,在三個標準基準中,Hits @ 10的平均相對改進為10.7%。我們的分析還揭示了TKG數據集內和TKG數據集之間可變性的重要來源,并且我們引入了一些簡單而強大的基線,這些基線在某些情況下優于現有技術。

網址:

付費5元查看完整內容

【導讀】一年一度的全球學術大會EMNLP是計算機語言學和自然語言處理領域最受關注的國際學術會議之一,由國際語言學會(ACL)旗下SIGDAT組織。據悉,EMNLP 2020共收到有效投稿3114篇,錄用602篇長文和150篇短文。近期,所有Paper list 放出,也包括(Findings of EMNLP),知識圖譜表示及其應用相關的接受paper很多,在其他領域比如CV、數據挖掘、推薦等也廣受關注。

為此,這期小編為大家奉上EMNLP 2020必讀的六篇知識圖譜(Knowledge Graph)相關論文——知識圖譜表示、常識、任務型對話、多語種知識庫補全、開放式KG表示、社會常識推理

EMNLP 2020 Accepted Papers : //2020.emnlp.org/papers/main

ICLR2020CI、ICML2020CI

1. AutoETER: Automated Entity Type Representation for Knowledge Graph Embedding

作者:Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu, Jingyang Li

摘要:知識圖譜嵌入(KGE)可以表示連續向量空間中的實體和關系。一些利用附加類型信息的傳統KGE模型可以改善實體的表示,但這些模型完全依賴于顯式類型(explicit types),或者忽略了特定于各種關系的不同類型表示。此外,現有的方法中沒有一種方法能夠同時推斷對稱、反轉、合成的所有關系模式以及1-N、N-1和n-N關系的復雜屬性。為了探索任何KG的類型信息,我們提出了一種新的KGE框架自動實體類型表示(AutoETER),通過將每個關系看作是兩個實體類型之間的轉換(translation)操作來學習每個實體的潛在類型嵌入,并利用關系感知映射機制來學習每個實體的潛在類型嵌入。特別是,我們設計的自動類型表示學習機制是一個可插拔的模塊,可以很容易地與任何KGE模型集成。此外,我們的方法可以對所有的關系模式和復雜關系進行建模和推理。在四個數據集上的實驗表明,該模型在鏈接預測任務上的性能優于最新的基線,類型聚類的可視化清楚地解釋了類型嵌入的原因,驗證了該模型的有效性。

網址:

2. COSMIC: COmmonSense knowledge for eMotion Identification in Conversations

作者:Deepanway Ghosal, Navonil Majumder,

Alexander Gelbukh, Rada Mihalcea, Soujanya Poria

摘要:在本文中,我們利用常識知識解決了會話中語言級別的情感識別問題。我們提出了COSMIC,這是一個新的框架,它融合了不同的常識元素,如心理狀態、事件和因果關系,并在它們的基礎上學習參與對話的對話者之間的互動。目前最先進的方法在上下文傳播、情感轉移檢測和區分相關情感類別方面經常遇到困難。通過學習不同的常識表示,COSMIC解決了這些挑戰,并在四個不同的基準對話數據集上取得了新的情感識別最先進的結果。

代碼: .

網址:

3. Learning Knowledge Bases with Parameters for Task-Oriented Dialogue Systems

作者:Andrea Madotto, Samuel Cahyawijaya,

Genta Indra Winata, Yan Xu, Zihan Liu, Zhaojiang Lin, Pascale Fung

摘要:面向任務的對話系統要么通過單獨的對話狀態跟蹤(DST)和管理步驟實現模塊化,要么是端到端可訓練。在這兩種情況下,知識庫(KB)在滿足用戶請求方面起著至關重要的作用。模塊化系統依賴DST與知識庫交互,這在注釋和推理時間方面是昂貴的。端到端系統直接使用知識庫作為輸入,但當知識庫大于幾百個條目時,它們無法進行擴展。在本文中,我們提出了一種將任意大小的知識庫直接嵌入到模型參數中的方法。所得到的模型不需要任何DST或模板響應,也不需要知識庫作為輸入,并且它可以通過微調來動態更新其知識庫。我們在五個小、中、大的KB的面向任務的對話數據集中對我們的解決方案進行了評估。我們的實驗表明,端到端模型可以有效地將知識庫嵌入到它們的參數中,并在所有被評估的數據集上獲得具有競爭力的性能。

代碼:

網址:

4. Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer

作者:Xuelu Chen, Muhao Chen, Changjun Fan, Ankith Uppunda, Yizhou Sun, Carlo Zaniolo

摘要:預測知識圖(KG)中的缺失事實是知識庫構建和推理中的一項重要任務,也是近年來利用知識圖嵌入(KG embeddings)進行研究的一個重要課題。雖然現有的KG嵌入方法主要是在單個KG中學習和預測事實,但考慮到不同KG在數據質量和覆蓋范圍方面有各自的優勢和局限性,一個更合理的解決方案是從多個特定語言KG中的知識去嘗試融合。但這是相當具有挑戰性的,因為多個獨立維護的KG之間的知識遷移經常受到比對信息不足和描述事實不一致的障礙。在本文中,我們提出了一種新的框架KENS,用于嵌入學習和跨多個特定語言的KG進行集成知識遷移。KENS將所有KG嵌入到一個共享的嵌入空間中,在那里基于自學習捕獲實體之間的關聯。然后,KENS進行集成推理,合并來自多個特定語言KG嵌入的預測結果,并為此研究了多個集成技術。在五個實際語言特定的KG上的實驗表明,KENS通過有效地識別和利用互補知識,不斷改進KG補全的最新方法。

網址:

5. Out-of-Sample Representation Learning for Knowledge Graphs

作者:Marjan Albooyeh, Rishab Goel, Seyed Mehran Kazemi

摘要:許多重要問題都可以表示為知識圖中的推理。表示學習已經被證明對直推式推理(transductive reasoning)非常有效,在transductive 推理中,一個人需要對已經觀察到的實體做出新的預測,屬性圖(其中每個實體都有初始特征向量)和非屬性圖(其中唯一的初始信息來自與其他實體的已知關系)都是如此。對于樣本外推理( out-of-sample reasoning),人們需要對訓練時看不到的實體進行預測,許多以前的工作都考慮屬性圖。然而,對于非屬性圖的樣本外推理,并沒有得到充分的研究。在本文中,我們研究了非屬性知識圖的樣本外表示學習問題,為這一任務創建了基準數據集,開發了幾個模型和基線,并對所提出的模型和基線進行了實證分析和比較。

網址:

6. Social Commonsense Reasoning with Multi-Head Knowledge Attention

作者:Debjit Paul, Anette Frank

摘要:社會常識推理需要對文本的理解,對社會事件及其實際含義的了解以及常識推理能力。在這項工作中,我們提出了一種新的多頭知識注意模型,該模型對半結構化常識推理規則進行編碼,并學習將其合并到基于transformer的推理單元中。我們評估了該模型在兩個需要不同推理技能的任務上的性能:作為一項新任務的歸納自然語言推理(Abductive Natural Language Inference)和反事實不變性預測(Counterfactual Invariance Prediction)。我們表明,我們提出的模型在兩個推理任務上都比最先進模型(即Roberta)提高了性能。值得注意的是,據我們所知,我們是第一個證明學習執行反事實推理的模型有助于在溯因推理任務中預測最佳解釋的人。通過對知識的擾動,我們驗證了模型推理能力的健壯性,并對模型的知識融合能力進行了定性分析。

網址:

付費5元查看完整內容

【導讀】機器學習頂會 NeurIPS 2020, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年NeurIPS 2020 共收到論文投稿 9454 篇,接收 1900 篇(其中 oral 論文 105 篇、spotlight 論文 280 篇),論文接收率為 20.1%。近期,所有paper list 放出,小編發現**對比學習(Contrastive Learning)**相關的投稿paper很多,這塊研究方向這幾年受到了學術界的廣泛關注,并且在CV、NLP等領域也應用頗多。

為此,這期小編為大家奉上NeurIPS 2020必讀的七篇對比學習相關論文——對抗自監督對比學習、局部對比學習、難樣本對比學習、多標簽對比預測編碼、自步對比學習、有監督對比學習

NeurIPS 2020 Accepted Papers://neurips.cc/Conferences/2020/AcceptedPapersInitial

1. Adversarial Self-Supervised Contrastive Learning

作者: Minseon Kim, Jihoon Tack, Sung Ju Hwang

摘要: 現有的對抗性學習方法大多使用類別標簽來生成導致錯誤預測的對抗性樣本,然后使用這些樣本來增強模型的訓練,以提高魯棒性。雖然最近的一些工作提出了利用未標記數據的半監督對抗性學習方法,但它們仍然需要類別標簽。然而,我們真的需要類別標簽來進行反向的深度神經網絡的健壯訓練嗎?本文提出了一種新的針對未標記數據的對抗性攻擊,使得該模型混淆了擾動數據樣本的實例級身份。此外,我們還提出了一種自監督對比學習(Contrastive Learning)框架來對抗性地訓練未標記數據的魯棒神經網絡,其目的是最大化數據樣本的隨機擴充與其實例對抗性擾動之間的相似度。我們在多個基準數據集上驗證了我們的方法-魯棒對比學習(RoCL),在這些數據集上,它獲得了與最新的有監督對抗性學習方法相當的魯棒準確率,并且顯著地提高了對黑盒和不可見類型攻擊的魯棒性。此外,與單獨使用自監督學習相比,RoCL進一步結合有監督對抗性損失進行聯合微調,獲得了更高的魯棒精度。值得注意的是,RoCL在穩健的遷移學習方面也顯示出令人印象深刻的結果。

網址:

2. Contrastive learning of global and local features for medical image segmentation with limited annotations

作者: Krishna Chaitanya, Ertunc Erdil, Neerav Karani, Ender Konukoglu

摘要: 有監督深度學習成功的一個關鍵要求是一個大的標記數據集——這是醫學圖像分析中難以滿足的條件。自監督學習(SSL)可以在這方面提供幫助,因為它提供了一種用未標記的數據預訓練神經網絡的策略,然后用有限的樣本標注對下游任務進行微調。對比學習是SSL的一種特殊變體,是一種學習圖像級表征的強大技術。在這項工作中,我們提出了一種策略,通過利用領域內一些特點,在標注有限的半監督場景下來擴展volumetric 醫療圖像分割的對比學習框架。具體地,我們提出了:(1)新穎的對比策略,它利用volumetric 醫學圖像之間的結構相似性(領域特定線索);(2)對比損失的局部信息來學習對每個像素分割有用的局部區域的獨特表示(問題特定線索)。我們在三個磁共振成像(MRI)數據集上進行了廣泛的評估。在有限的標注環境下,與其他的自監督和半監督學習技術相比,本文提出的方法有了很大的改進。當與簡單的數據增強技術相結合時,該方法僅使用兩個標記的MRI體積用于訓練,達到基準性能的8%以內,相當于用于訓練基準的訓練數據ACDC的4%。

網址:

3. LoCo: Local Contrastive Representation Learning

作者: Yuwen Xiong, Mengye Ren, Raquel Urtasun

摘要: 深度神經網絡通常執行端到端反向傳播來學習權重,該過程在跨層的權重更新步驟中創建同步約束(synchronization constraints),并且這種約束在生物學上是不可信的。無監督對比表示學習的最新進展指出一個問題,即學習算法是否也可以是局部的,即下層的更新不直接依賴于上層的計算。雖然Greedy InfoMax分別學習每個塊的局部目標,但我們發現,在最新的無監督對比學習算法中,可能是由于貪婪的目標以及梯度隔離,會一直損害readout的準確性。在這項工作中,我們發現,通過重疊局部塊堆疊在一起,我們有效地增加了解碼器的深度,并允許較高的塊隱式地向較低的塊發送反饋。這種簡單的設計首次縮小了局部學習算法和端到端對比學習算法之間的性能差距。除了標準的ImageNet實驗,我們還展示了復雜下游任務的結果,例如直接使用readout功能進行對象檢測和實例分割。

網址:

4. Hard Negative Mixing for Contrastive Learning

作者: Yannis Kalantidis, Mert Bulent Sariyildiz, Noe Pion, Philippe Weinzaepfel, Diane Larlus

摘要: 對比學習已成為計算機視覺中自監督學習方法的重要組成部分。通過學習將同一圖像的兩個增強版本相互靠近地圖像嵌入,并將不同圖像的嵌入分開,可以訓練高度可遷移的視覺表示。最近的研究表明,大量的數據增強和大量的負樣本集對于學習這樣的表征都是至關重要的。同時,無論是在圖像層面還是在特征層面,數據混合策略都通過合成新的示例來改進監督和半監督學習,迫使網絡學習更健壯的特征。在這篇文章中,我們認為對比學習的一個重要方面,即hard negatives的影響,到目前為止被忽視了。為了獲得更有意義的負樣本,目前最流行的對比自監督學習方法要么大幅增加batch sizes大小,要么保留非常大的內存庫;然而,增加內存需求會導致性能回報遞減。因此,我們從更深入地研究一個表現最好的框架開始,并展示出證據,為了促進更好、更快的學習,需要更難的難樣本(harder negatives)。基于這些觀察結果,并受到數據混合策略成功的激勵,我們提出了特征級別的難例混合策略,該策略可以用最小的計算開銷在運行中進行計算。我們在線性分類、目標檢測和實例分割方面對我們的方法進行了詳盡的改進,并表明使用我們的難例混合過程提高了通過最先進的自監督學習方法學習的視覺表示的質量。

代碼:

網址:

5. Multi-label Contrastive Predictive Coding

作者: Jiaming Song, Stefano Ermon

摘要: 變量互信息(mutual information, MI)估計器廣泛應用于對比預測編碼(CPC)等無監督表示學習方法中。MI的下界可以從多類分類問題中得到,其中critic試圖區分從潛在聯合分布中提取的正樣本和從合適的建議分布中提取的(m?1)個負樣本。使用這種方法,MI估計值超過log m,因此有效下界可能會嚴重低估,除非m非常大。為了克服這一局限性,我們引入了一種新的基于多標簽分類問題的估計器,其中critic需要同時聯合識別多個正樣本。我們證明了在使用相同數量的負樣本的情況下,多標簽CPC能夠超過log m界,同時仍然是互信息的有效下界。我們證明了所提出的方法能夠帶來更好的互信息估計,在無監督表示學習中獲得經驗上的改進,并且在13個任務中超過了最先進的10個知識提取方法。

網址:

6. Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive Object Re-ID

作者: Yixiao Ge, Feng Zhu, Dapeng Chen, Rui Zhao, Hongsheng Li

摘要: 域自適應目標Re-ID旨在將學習到的知識從已標記的源域轉移到未標記的目標域,以解決開放類(open-class)的重識別問題。雖然現有的基于偽標簽的方法已經取得了很大的成功,但是由于域的鴻溝和聚類性能的不理想,它們并沒有充分利用所有有價值的信息。為了解決這些問題,我們提出了一種新的具有混合記憶的自適應對比學習框架。混合存儲器動態地生成用于學習特征表示的源域類級、目標域簇級和未聚類實例級監督信號。與傳統的對比學習策略不同,該框架聯合區分了源域類、目標域簇和未聚類實例。最重要的是,所提出的自適應方法逐漸產生更可靠的簇來提煉混合記憶和學習目標,這被證明是我們方法的關鍵。我們的方法在目標 Re-ID的多域適配任務上的性能優于現有技術,甚至在源域上不需要任何額外的標注就能提高性能。在Market1501和MSMT17數據上,我們的無監督目標Re-ID的通用版本分別比最先進的算法高出16.7%和7.9%。

代碼:

網址:

7. Supervised Contrastive Learning

作者: Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, Dilip Krishnan

摘要: 交叉熵是圖像分類模型監督訓練中應用最廣泛的損失函數。在本文中,我們提出了一種新的訓練方法,該方法在不同的體系結構和數據增強的監督學習任務中始終優于交叉熵。我們修正了批量對比損失,它最近被證明在自監督環境下學習強大的表示是非常有效的。因此,我們能夠比交叉熵更有效地利用標簽信息。屬于同一類的點簇在嵌入空間中被拉在一起,同時推開來自不同類的樣本簇。除此之外,我們還利用了大的batch sizes和標準化嵌入等關鍵因素,這些因素已被證明有利于自監督學習。在ResNet-50和ResNet-200上,我們的性能都比交叉熵高出1%以上,在使用 AutoAugment數據增強的方法中創造了78.8%的新技術水平。在校準和準確度方面,這一損失也顯示出在標準基準上對自然損壞的穩健性有明顯的好處。與交叉熵相比,我們的監督對比損失對諸如優化器或數據增強等超參數設置更穩定。

網址:

付費5元查看完整內容

【導讀】人工智能頂會 ICLR 2021 即國際表征學習大會, 是人工智能領域全球最具影響力的學術會議之一,因此在該會議上發表論文的研究者也會備受關注。據官方統計,今年共有3013篇論文提交。ICLR 采用公開評審,可以提前看到這些論文。小編發現基于因果推理(Causal Inference)相關的投稿paper很多,因果推理,以及反事實等相關理論方法在CV、NLP都開始有相關的應用了,這個前沿的方法受到了很多人的關注。

為此,這期小編繼續為大家奉上ICLR 2021必讀的七篇因果推理(Causal Inference)投稿相關論文——領域自適應、時間序列數據、連續終身因果效應、反事實生產式網絡、解糾纏生成式因果表示

ICLR 2021 Submitted Paper: //openreview.net/group?id=ICLR.cc/2021/Conference

ICML2020CI

1、Accounting for unobserved confounding in domain generalization

摘要:從觀察到的環境到在新的相關環境進行推斷或推廣的能力是可靠機器學習的核心,然而大多數方法在數據過多時都會失敗。在某些情況下,由于對所支配數據的因果結構的誤解,特別是未觀察到的干擾因子的影響,這些干擾因子使觀察到的分布發生變化,并扭曲了相關性。在這篇文章中,我們提出定義關于更廣泛類別的分布移位(distribution shifts)的泛化(定義為由潛在因果模型中的干預引起的),包括觀察到的、未觀察到的和目標變量分布的變化。我們提出了一種新的魯棒學習原則,它可以與任何基于梯度的學習算法配對。這一學習原則具有明確的泛化保證,并將魯棒性與因果模型中的某些不變性聯系起來,表明了為什么在某些情況下,測試性能落后于訓練性能。我們展示了我們的方法在來自不同模態的醫療數據(包括圖像和語音數據)上的性能。

網址:

2、Amortized causal discovery learning to infer causal graphs from time series data

摘要:標準的因果發現方法無論何時遇到來自新的基本因果圖的樣本,都必須適合一個新的模型。然而,這些樣本經常共享相關信息(例如,描述因果關系影響的動態信息),這些信息在遵循這種方法時會丟失。我們提出了一個新的框架-攤銷因果發現(Amortized Causal Discovery),它利用這種共享的動力來學習從時間序列數據中推斷因果關系。這使我們能夠訓練一個單一的攤銷模型,該模型推斷具有不同基本因果圖的樣本之間的因果關系,從而利用共享的信息。我們通過實驗證明了這種以變分模型實現的方法在因果發現性能方面有了顯著的改進,并展示了如何將其擴展以在 hidden confounding情況下很好地執行。

網址:

3、Continual lifelong causal effect inference with real world evidence

摘要:當前觀測數據非常容易獲取,這極大地促進了因果關系推理的發展。盡管在克服因果效應估計方面的挑戰方面取得了重大進展,在缺少反事實數據(counterfactual outcomes)和選擇偏差的情況下,但是現有方法只關注特定于源的和穩定的觀測數據。本文研究了從增量觀測數據中推斷因果關系的一個新的研究問題,并相應地提出了三個新的評價標準,包括可擴展性、適應性和可達性。我們提出了一種連續因果效應表示學習(Continual Causal Effect Representation Learning )方法,用于估計非平穩數據分布中增量可用的觀測數據的因果效應。我們的方法不是訪問所有可見的觀測數據,而是僅存儲從先前數據學習的有限的特征表示子集。該方法將選擇性均衡表示學習、特征表示提煉和特征變換相結合,在不影響對原始數據估計能力的前提下,實現了對新數據的連續因果估計。大量實驗證明了連續因果推理的重要性和方法的有效性。

網址:

4、Counterfactual generative networks

摘要:神經網絡很容易找到學習捷徑--它們經常對簡單的關系進行建模,而忽略了可能更好地概括更復雜的關系。以往的圖像分類工作表明,深度分類器不是學習與物體形狀的聯系,而是傾向于利用與低層紋理或背景的虛假相關性來解決分類任務。在這項工作中,我們朝著更健壯和可解釋的分類器邁進,這些分類器顯式地揭示了任務的因果結構。基于目前在深度生成建模方面的進展,我們提出將圖像生成過程分解為獨立的因果機制,我們在沒有直接監督的情況下對這些機制進行訓練。通過利用適當的歸納偏差,這些機制將對象形狀、對象紋理和背景分開;因此,它們允許生成反事實圖像。我們演示了我們的模型在MNIST和ImageNet上生成此類圖像的能力。此外,我們還表明,盡管反事實圖像是人工合成的,但它們可以在原始分類任務的性能略有下降的情況下,提高分布外的穩健性。最后,我們的生成式模型可以在單個GPU上高效地訓練,利用常見的預訓練模型作為歸納偏差(inductive biases)。

網址:

5、Disentangled generative causal representation learning

摘要:這篇文章提出了一種解纏的生成式因果表示(Disentangled Generative Causal Representation,DEPE)學習方法。與現有的強制獨立于潛在變量的解纏方法不同,我們考慮的是潛在因素可以因果關聯的一般情況。我們表明,以前的方法與獨立的先驗不能解開因果相關的因素。受這一發現的啟發,我們提出了一種新的解纏學習方法DELE,該方法實現了因果可控生成和因果表示學習。這一新公式的關鍵是使用結構因果模型(SCM)作為雙向生成模型的先驗。然后,使用適當的GAN損失與生成器和編碼器聯合訓練先驗。我們給出了所提公式的理論證明,保證了在適當條件下的解纏因果表示學習。我們在合成和真實數據上進行了廣泛的實驗,以證明DEAR在因果可控生成方面的有效性,以及學習的表示在樣本效率和分布穩健性方面對下游任務的好處。

網址:

6、Explaining the efficacy of counterfactually augmented data

摘要:為了減少機器學習模型對訓練數據中虛假模式的依賴,研究人員最近提出通過human-in-the-loop進程來生成與事實相反的增強數據。正如在NLP中所應用的那樣,給定一些文檔及其(初始)標簽,人類的任務是修改文本以使(給定的)反事實標簽適用。重要的是,這些說明禁止進行翻轉適用標簽時不必要的編輯。在擴充(原始和修訂)數據上訓練的模型已被證明較少依賴語義無關的單詞,并能更好地概括域外。雖然這項工作借鑒了因果思維,將編輯塑造為干預措施,并依靠人類的理解來評估結果,但潛在的因果模型并不清楚,也不清楚在域外評估中觀察到的改進背后的原則。在這篇文章中,我們探索了一個模擬玩具(toy analog),使用線性高斯模型。我們的分析揭示了因果模型、測量噪聲、域外泛化和對虛假信號的依賴之間的有趣關系。有趣的是,我們的分析表明,通過向因果特征添加噪聲而損壞的數據將降低域外性能,而向非因果特征添加噪聲可能會使模型在域外更加健壯。這一分析產生了有趣的見解,有助于解釋反事實增強數據的有效性。最后,我們提出了一個支持這一假說的大規模實證研究。

網址:

7、Selecting treatment effects models for domain adaptation using causal knowledge

摘要:從觀察數據中選擇因果推斷模型來估計個體化治療效果(ITE)是一個挑戰,因為從來沒有觀察到反事實的結果。該問題在無監督域自適應(UDA)設置中進一步受到挑戰,在該設置中,我們只能訪問源域中的已標記樣本,但是我們希望選擇在僅有未標記樣本可用的目標域上實現良好性能的模型。現有的用于UDA模型選擇的技術是針對預測設置設計的。這些方法檢查源域和目標域中輸入協變量之間的判別密度比,并且不考慮模型在目標域中的預測。正因為如此,在源域上具有相同性能的兩個模型通過現有方法將獲得相同的風險分數,但在現實中,它們在測試域上具有顯著不同的性能。我們利用因果結構跨域的不變性來引入一種新的模型選擇度量,該度量專門針對UDA設置下的ITE模型而設計。特別是,我們建議選擇對干預效果的預測滿足目標領域中已知因果結構的模型。在實驗上,我們的方法在幾個合成和真實的醫療數據集上選擇對協變量變化更穩健的ITE模型,包括估計來自不同地理位置的新冠肺炎患者的通風效果。

網址:

付費5元查看完整內容
北京阿比特科技有限公司