亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

無監督域自適應是一種將深度神經網絡泛化到新目標域的有效范式。然而,要達到完全監督的性能,仍有巨大的潛力有待挖掘。在本文中,我們提出了一種新的主動學習策略來輔助目標領域中的知識遷移,稱為主動領域自適應。我們從一個觀察開始,當訓練(源)和測試(目標)數據來自不同的分布時,基于能量的模型表現出自由能量偏差。受這一內在機制的啟發,我們從經驗上揭示了一個簡單而有效的基于能量的采樣策略,它比現有的需要特定架構或計算距離的方法更能幫助我們選擇最有價值的目標樣本。我們的算法,基于能量的主動域自適應(EADA),在每一輪的選擇中查詢集域特征和實例不確定性的目標數據組。同時,通過正則化項將目標數據壓縮的自由能對準源域,可以隱式地減小域間隙。通過大量的實驗,我們證明了EADA在眾所周知的具有挑戰性的基準測試中取得了重大改進,超越了最先進的方法,使其成為開放世界中一個有用的選項。代碼可以在//github.com/BIT-DA/EADA上找到。

付費5元查看完整內容

相關內容

首篇跨域少樣本圖分類

我們通過引入三個新的跨域基準來研究具有非等效特征空間的跨域少樣本圖分類問題。我們還提出了一種基于注意力的圖編碼器,該編碼器使用三個一致的圖形視圖、一個上下文視圖和兩個拓撲視圖,學習任務特定信息的表示,以便快速適應,以及任務無關信息的表示,以便進行知識遷移。我們進行了詳盡的實驗來評估對比學習策略和元學習策略的表現。我們發現,當與基于度量的元學習框架相結合時,所提出的編碼器在所有基準測試中都獲得了最佳的元測試平均分類精度。源代碼和數據將在這里發布://github.com/kavehhassani/metagrl

在“少樣本學習”中,一個模型從幾個被標記的樣本中學習適應新的類別。常見的做法,如使用增強、正則化和預訓練可能有助于緩解數據匱乏,但不能解決這個問題。受人類學習(Lake, Salakhutdinov, and Tenenbaum 2015)的啟發,元學習(Hospedales, et al. 2020)利用類似任務的分布(Satorras, and Estrach 2018)來積累可遷移的經驗知識,這些經驗可以作為快速適應下游任務的強烈歸納偏差(Sung, et al. 2018)。在元學習中,快速學習發生在任務內,而關于任務結構變化的知識是在任務間逐步學習的(Huang and Zitnik 2020)。這種學習知識的例子是嵌入函數(Vinyals et al. 2016; Snell, Swersky, and Zemel 2017; Satorras and Estrach 2018; Sung et al. 2018),初始參數(Finn, Abbeel, and Levine 2017; Raghu et al. 2020)、優化策略(Li et al. 2017),或可以直接將訓練樣本映射到網絡權重的模型(Garnelo et al. 2018; Mishra et al. 2018)。

元學習的一個基本假設是,元訓練和元測試階段的任務是從相同的分布中采樣的,即任務是iid。然而,在許多現實世界的應用程序中,從相同的分布中收集任務是不可行的。相反,有來自相同模態但不同領域的數據集。在遷移學習中,源域和目標域之間的特征/標簽空間是不等效的,通常是不重疊的,這被稱為異構遷移學習(Day和Khoshgoftaar 2017)。據觀察,當源域和目標域之間有很大的轉移時,元學習算法被預訓練/微調方法所超越(Chen et al. 2019b)。

計算機視覺方面的一些工作通過歸一化層的元學習統計來解決跨領域的少樣本學習(Tseng et al. 2020; Du et al. 2021)。這些方法局限于仍然包含高度視覺相似性的自然圖像(Guo et al. 2020)。跨域學習對于尺寸變化順序不變的圖結構數據更為重要。與其他常見模態相比,圖形標注更具挑戰性,因為它們通常表示特定領域的概念,如生物學,在這些領域中,通過wet-lab實驗進行標注是資源密集型(Hu et al. 2020b),而使用領域知識進行程序性標注的成本較高(Sun et al. 2020)。此外,除了在邊際/條件概率分布上的偏移外,非等價和非重疊特征空間在圖數據集上是常見的。例如,可以訪問小分子數據集,其中每個數據集使用不同的特征集來表示分子(Day和Khoshgoftaar 2017)。

據我們所知,這是關于圖的跨域少樣本學習的第一項工作。為了解決這個問題,我們設計了一個以任務為條件的編碼器,它可以學習處理任務的不同表示。我們的貢獻如下:

  • 我們引入了跨域少樣本圖分類的三個基準,并進行了詳盡的實驗來評估監督、對比和元學習策略的性能。

  • 我們提出了一種圖編碼器,可以學習圖的三個一致視圖、一個上下文視圖和兩個拓撲視圖,學習任務特定信息的表示,以便快速適應,以及任務無關信息,以便進行知識遷移。

  • 我們表明,當與基于指標的元測試框架相結合時,所提出的編碼器在所有三個基準上都實現了最佳的平均元測試分類準確度。

方法

圖結構數據可以從兩個一致的視圖進行分析: 上下文視圖和拓撲視圖。上下文視圖基于初始節點或邊緣特征(為了簡單和不失一般性,我們只考慮節點特征),并攜帶特定于任務的信息。另一方面,拓撲視圖表示圖的拓撲屬性,這些拓撲屬性是任務無關的,因此可以作為錨點來對齊來自特征空間中不同領域的圖。我們利用這種對偶表示,并通過為每個視圖設計專用編碼器來明確地解開它們,這些視圖反過來施加了所需的歸納偏見,以學習特定于任務的域不變特征。在異構的少樣本環境中,拓撲特征有助于跨任務的知識遷移,而上下文特征有助于快速適應。我們還使用了一種注意力機制,該機制隱含地限制了任務,并學習從兩種視圖中聚合學習到的特征。我們采用元學習策略,通過共同學習編碼器參數和注意機制來模擬泛化過程。如圖1所示,我們的方法由以下組件組成:

增強機制,將一個采樣圖轉換為一個上下文視圖和兩個拓撲視圖。對初始節點特征和圖結構進行增強處理。

編碼器包括兩個專用的GNN,即圖形編碼器,和一個MLP,分別用于上下文和拓撲視圖,以及一個注意力機制來聚合學習的特征。

元學習機制,基于查詢集的錯誤信號,聯合學習專用編碼器和注意力模型的參數。

實驗結果

我們詳盡地進行了實證評估,以回答以下問題:(1)基準的元測試集分類精度的實證上限是多少?(2)跨元域是否存在知識遷移?如果沒有,是否會發生負遷移?(3)基于對比的預訓練效果如何?(4)基于度量的元學習方法與基于優化的元學習方法相比表現如何?(5)使用提出的編碼器有什么效果?

結果表明: (1)在這三個基準上,都存在可遷移的潛在知識。實驗結果證實通過觀察元學習和對比方法都優于單純分類器。(2) 對比方法與元學習方法相比具有更強的性能。例如,在20-shot生物信息學基準測試中,MVGRL的絕對準確度比最佳的元學習方法高出1.57%。(3) 將基于度量的元學習方法與我們提出的編碼器相結合,顯著提高了性能。例如,在單次測試的情況下,最佳元學習方法結合我們的編碼器,在分子、生物信息學和社交網絡基準上的絕對精度分別比常規元學習方法的最佳結果高出3.28%、4.29%和5.17%。(4)與我們的編碼器相結合,僅用20個例子訓練的RelationNet模型,與全監督模型在所有可用的分子數據、生物信息學和社會網絡基準上訓練的模型相比,準確率分別只有4.46%、6.96%和2.68%。注意,其中一些數據集有成千上萬個訓練樣本。(5) 當我們將知識從分子元訓練遷移到社會網絡元測試時,我們得到了最大的改進。這是因為社會網絡任務不包含任何初始節點特征,因此對它們進行分類完全依賴于任務不可知的幾何特征。這表明我們的編碼器能夠在一個領域學習表達幾何表示并泛化到另一個領域。

付費5元查看完整內容

信息檢索是搜索引擎、對話系統以及開放域問答等自然語言處理任務的重要組成部分。IR在生物醫學領域發揮著重要的作用,在生物醫學領域,科學知識的內容和來源可能會迅速發展。盡管神經檢索在標準的開放域問答任務中已經超越了傳統的IR方法,如TF-IDF和BM25,但在生物醫學領域仍存在不足。在本論文中,我們試圖利用神經檢索器(NR)改善生物醫學領域的信息檢索(IR),并采用三管齊下的方法來實現這一目標。首先,為了解決生物醫學領域數據相對匱乏的問題,我們提出了一種基于模板的問題生成方法,可用于訓練神經檢索模型。其次,我們開發了兩個與下游信息檢索任務緊密相關的新訓練前任務。第三,我們引入了“Poly-DPR”模型,它將每個上下文編碼成多個上下文向量。關于BioASQ挑戰的大量實驗和分析表明,我們提出的方法比現有的神經方法獲得了很大的收益,并在小語料庫環境中擊敗了BM25。我們證明了BM25和我們的方法可以相互補充,一個簡單的混合模型可以在大型語料庫設置中獲得進一步的收益。

//www.zhuanzhi.ai/paper/15fa11615c0f9c05569c72cc43df7589

付費5元查看完整內容

本文研究了弱監督域自適應(WSDA)問題,在該問題中,我們只能訪問帶噪聲標簽的源域,從源域中我們需要將有用的信息傳遞到無標簽的目標域。雖然對這個問題的研究不多,但大多數研究都只是利用源域到目標域的單向關系。在這篇論文中,我們提出了一個通用的范例叫做GearNet來開發兩個領域之間的雙邊關系。具體而言,我們將兩個域作為不同的輸入,交替訓練兩個模型,并使用非對稱Kullback-Leibler損耗在同一域選擇性地匹配兩個模型的預測。這種交互式學習模式能夠隱式地消除標簽噪聲,并利用源域和目標域之間的相關性。因此,我們的GearNet具有極大的潛力來提高各種現有WSDL方法的性能。綜合實驗結果表明,該系統能夠顯著提高現有算法的性能。

付費5元查看完整內容

圖神經網絡(GNN)已經在廣泛的應用領域取得了良好的效果。大多數對GNN的實證研究都直接將觀察到的圖作為輸入,假設觀察到的結構完美地描述了節點之間準確完整的關系。然而,現實世界中的圖不可避免地是嘈雜的或不完整的,這甚至會惡化圖表示的質量。本文從信息論的角度提出了一種新的變分信息瓶頸引導的圖結構學習框架VIB-GSL。VIB-GSL提出了圖結構學習的信息瓶頸(Information Bottleneck, IB)原則,為挖掘底層任務相關關系提供了一個更優雅和通用的框架。VIB-GSL學習了一種信息豐富的壓縮圖結構,為特定的下游任務提取可操作的信息。VIB-GSL對不規則圖數據進行變分逼近,形成易處理的IB目標函數,有利于訓練的穩定性。大量的實驗結果表明,VIB-GSL具有良好的有效性和魯棒性。

//www.zhuanzhi.ai/paper/8f506a32b4b05f9ea8a5d651eb1b27f1

付費5元查看完整內容

雖然預訓練語言模型(例如BERT)在不同的自然語言處理任務上取得了令人印象深刻的結果,但它們有大量的參數,并承受著巨大的計算和內存成本,這使得它們難以在現實世界中部署。因此,為了降低預訓練模型的計算和存儲成本,需要對模型進行壓縮。在這項工作中,我們的目標是壓縮BERT,并解決以下兩個具有挑戰性的實際問題: (1)壓縮算法應該能夠輸出多個不同大小和延遲的壓縮模型,以支持不同內存和延遲限制的設備;(2)算法應與下游任務無關,這樣壓縮模型一般適用于不同的下游任務。我們利用神經結構搜索(NAS)中的技術,提出了一種有效的BERT壓縮方法NAS-BERT。NAS-BERT在精心設計的搜索空間上訓練一個大型超級網絡,該搜索空間包含各種架構,并輸出具有自適應大小和延遲的多個壓縮模型。此外,NAS-BERT的訓練是在標準的自監督的訓練前任務(如掩體語言模型)上進行的,不依賴于特定的下游任務。因此,壓縮的模型可以跨任務使用。NAS-BERT的技術挑戰在于,在訓練前的任務上訓練一個大型超級網絡是極其昂貴的。我們采用了塊搜索、搜索空間剪枝和性能逼近等技術來提高搜索效率和準確性。對GLUE和SQuAD基準數據集的大量實驗表明,NAS-BERT可以找到比以前的方法更精確的輕量級模型,并可以直接應用于不同的下游任務,這些任務具有適應的模型規模,以滿足不同的內存或延遲需求。

//www.zhuanzhi.ai/paper/6f115ce6f43323f92838b15e0030f2a4

付費5元查看完整內容

在半監督領域自適應問題的目標域數據中對每個類別賦予少量有標簽樣本可引導其余的無標簽目標域樣本的特征聚集在它們周圍。但是,如此經過訓練后的模型無法為目標域生成具有高度區分性的特征表示,因為訓練過程主要由來自源域的有標簽樣本主導。這就可能導致有標簽和無標簽的目標域樣本之間的特征缺乏連結以及目標域和源域樣本之間的特征進行錯位對齊。在本文中,作者們提出了一種新的被稱為跨域自適應聚類的算法來解決這個問題。為了同時實現不同領域間和同一領域內的自適應,我們首先引入了一個對抗性自適應聚類損失函數來對無標簽目標域樣本的特征進行分組聚類,并在源域和目標域之間以聚類簇的形式進行跨域特征對齊。另外,我們進一步將“Pseudo labeling”技術應用于目標域中無標簽樣本,并對具有較高的置信度的樣本賦予“偽標簽”。該技術擴充了目標域中每個類別的“有標簽樣本”的數量使得每個類別可以產生了更加魯棒、強大的聚類簇中心,從而促進對抗學習過程。我們在包括DomainNet、Office-Home和Office在內的基準數據集上進行的大量實驗,結果表明我們所提出的方法能夠在半監督域自適應中實現最優性能。

論文鏈接://www.zhuanzhi.ai/paper/bca546caa350082ff63382cc18636077

代碼鏈接:

付費5元查看完整內容

盡管主動學習在圖像識別方面取得了長足的進步,但仍然缺乏一種專門適用于目標檢測的示例級的主動學習方法。在本文中,我們提出了多示例主動目標檢測(MI-AOD),通過觀察示例級的不確定性來選擇信息量最大的圖像用于檢測器的訓練。MI-AOD定義了示例不確定性學習模塊,該模塊利用在已標注集上訓練的兩個對抗性示例分類器的差異來預測未標注集的示例不確定性。MI-AOD將未標注的圖像視為示例包,并將圖像中的特征錨視為示例,并通過以多示例學習(MIL)方式對示例重加權的方法來估計圖像的不確定性。反復進行示例不確定性的學習和重加權有助于抑制噪聲高的示例,來縮小示例不確定性和圖像級不確定性之間的差距。實驗證明,MI-AOD為示例級的主動學習設置了堅實的基線。在常用的目標檢測數據集上,MI-AOD和最新方法相比具有明顯的優勢,尤其是在已標注集很小的情況下。

代碼地址為//github.com/yuantn/MI-AOD

付費5元查看完整內容

Adaptive Methods for Real-World Domain Generalization

不變方法在解決領域泛化問題方面已經取得了顯著的成功,該問題的目標是對不同于訓練中使用的數據分布進行推斷。在我們的工作中,我們研究是否有可能利用未知測試樣本本身的領域信息。我們提出一個域自適應方法包括兩個步驟: a)我們首先學習區別的域嵌入從無監督訓練的例子,和 b)使用該域嵌入作為補充信息來構建一個domainadaptive模型,這需要輸入以及其域考慮而做出的預測。對于看不見的域,我們的方法簡單地使用少數未標記的測試示例來構建域嵌入。這使得對任何看不見的域進行自適應分類成為可能。我們的方法在各種領域泛化基準上實現了最先進的性能。此外,我們還引入了第一個真實世界的大規模域泛化基準Geo-YFCC,該基準包含超過40個訓練域、7個驗證域和15個測試域的1.1萬個樣本,比之前的工作大了幾個數量級。我們表明,現有的方法要么不能擴展到這個數據集,要么不如基于所有訓練領域的數據聯合的訓練模型的簡單基線。相比之下,我們的方法獲得了顯著的1%的改進。

//www.zhuanzhi.ai/paper/6e7661967d0879ebfd0236873a75386b

付費5元查看完整內容

基于深度學習的半監督學習(SSL)算法在醫學圖像分割方面取得了很有前途的結果,并可以通過利用未標記的數據減輕醫生昂貴的標注。然而,現有文獻中的大多數SSL算法都傾向于通過干擾網絡和/或數據來規約模型訓練。考慮到多/雙任務學習涉及到具有固有的預測擾動的各個級別的信息,我們在這項工作中提出了一個問題:我們能夠顯式地構建任務級別的正則化,而不是隱式地構建用于SSL的網絡和/或數據級別的擾動和轉換嗎?為了回答這個問題,我們首次提出了一個新的雙任務一致性半監督框架。具體地說,我們使用一個雙任務深度網絡來聯合預測一個像素級分割圖和一個幾何感知的目標集表示。通過可微任務轉換層將水平集表示轉換為近似分割映射。同時,我們在水平集導出的分割圖和直接預測的分割圖之間引入了一種雙任務一致性正則化,用于標記和未標記數據。在兩個公共數據集上的大量實驗表明,我們的方法可以通過合并未標記數據極大地提高性能。同時,我們的框架優于最先進的半監督醫學圖像分割方法。代碼可以在//github.com/Luoxd1996/DTC找到。

付費5元查看完整內容

盡管健壯的深度學習中的現有工作都集中在基于像素級別的小型規范擾動,但這可能無法解決在多個實際設置中遇到的擾動。在許多此類情況下,盡管可能無法獲得測試數據,但可能知道有關擾動類型(例如未知的旋轉度)的廣泛規范。我們考慮一種在看不見的測試域中預期具有魯棒性的設置。但偏離了訓練領域。雖然可能無法確切知道此偏差,但根據屬性先驗地指定了其廣泛的特征。我們提出了一種對抗訓練方法,該方法學習如何生成新樣本,從而最大程度地將分類器暴露于屬性空間,而無需訪問來自測試域的數據。我們的對抗訓練解決了最小-最大優化問題,通過優化內部最大化產生的對抗性擾動的損失,使內部最大化產生對抗性擾動,而外部最小化找到模型參數。我們證明了我們的方法在三種類型的自然擾動上的適用性-與對象相關的移動,幾何變換和常見的圖像破壞。我們的方法使深度神經網絡能夠抵抗各種自然擾動。我們通過展示在MNIST,CIFAR-10和CLEVR數據集的新變體上進行對抗訓練而獲得的深度神經網絡的魯棒性收益,從而證明了所提出方法的有效性。

//www.zhuanzhi.ai/paper/636acb141a5e0aea86f5cb8e864aca56

付費5元查看完整內容
北京阿比特科技有限公司