人工智能(AI)系統可以被定義為像人類一樣理性思考和行動的系統(Bellman, 1978; Kurzweil et al., 1990; Schalkoff, 1991; Rich and Knight, 1992; Winston, 1992; Haugeland, 1997; Russell and Norvig, 2005)。雖然這個詞在1956年著名的達特茅斯會議上被正式創造出來(McCarthy et al., 2006; Woo, 2014),追溯到亞里士多德和柏拉圖的哲學家都在考慮制定法則來管理大腦的理性部分。創造智能系統的想法激發了神話的靈感,比如塔洛斯的故事,神創造了一個巨大的青銅機器人,它攜帶著神秘的生命來源,守護著克里特島(Shashkevich, 2019)。從那時起,心理學家、行為學家、認知科學家、語言學家和計算機科學家一直支持各種理解智能和開發人工智能系統的方法。
對當前機器學習系統的一個關鍵批評是,它們往往是數據饑渴的(Marcus, 2018;福特,2018)。以GPT-3模型(Brown et al., 2020)為例,這是一個大規模的語言模型,使用來自文本數據源的300B令牌進行訓練,這些文本數據源包括Common Crawl corpus (Raffel et al., 2019)(過濾和清洗后的570 GB數據)、WebText (Radford et al., 2019)、兩個基于互聯網的圖書語料庫和Wikipedia頁面。這些數據集必須經過管理和處理,才能為訓練模型提供有意義的學習信號。雖然最近在自監督學習方面的進展已經減少了對大規模、干凈和標記良好的數據集的依賴,但我們仍然需要考慮訓練前的大規模模型的時間和成本。例如,GPT-3模型使用的計算相當于3.14e 23 flops2,在單個NVIDIA Tesla V100 GPU上訓練GPT-3需要355年。ML系統的樣本效率明顯落后于人工,使得它們的開發和部署成本很高。
終身學習范式是人工智能的一個分支,它專注于開發終身學習系統——這種系統在一生中不斷積累新知識,而不忘記先前的知識,并使用這些積累的知識來提高他們在不同任務中的表現。我們要強調的是,終身學習模式不僅適用于多任務設置,也適用于單任務設置。終身學習是一種普遍的設置,因為它對任務(或任務)的假設較少。考慮一個標準的單任務監督學習設置,學習者可以在開始訓練之前訪問整個數據集。在這種情況下,學習者可以對數據集執行多個epoch,對每個epoch的數據進行變換,以保持數據分布i.i.d(獨立和同分布)。然而,在這個設置中有許多隱含的假設—因為我們事先可以訪問數據集,所以我們知道數據集中存在多少唯一的類。我們也可以訪問類的分布,并可以以不同的方式衡量類。我們還可以對數據進行多采樣/少采樣。雖然這些假設使訓練的設置變得可行,但它們也使更一般的開放式學習設置偏離了設置。如果我們不假設訪問數據集(甚至是獨特類的數量),人工智能系統將不得不應對挑戰,如在看到新類時修改網絡架構,在訓練新數據點時不忘記舊數據點,以及在新數據不斷輸入時潛在地增加系統的容量。所有這些挑戰都是在終身學習的范式下研究的。
本入門書試圖對終身學習的不同方面提供一個詳細的總結。我們從第2章開始,它提供了終身學習系統的高級概述。在本章中,我們討論了終身學習的主要場景(2.4節),介紹了不同終身學習方法的高層次組織(2.5節),列舉了理想的終身學習系統(2.6節),討論了終身學習與其他學習模式的關系(2.7節),描述了用于評估終身學習系統的常用指標(2.8節)。這一章對終身學習的新讀者更有用,并希望在不關注具體方法或基準的情況下了解該領域。
其余章節集中在特定方面(學習算法或基準),對于尋找特定方法或基準的讀者更有用。第3章主要討論基于正則化的方法,這種方法不需要從以前的任務中訪問任何數據。第四章討論了基于記憶的方法,通常使用重放緩沖區或情景內存來保存不同任務的數據子集。第5章集中討論了不同的體系結構家族(及其實例),這些體系結構家族被提議用于訓練終身學習系統。在這些不同類別的學習算法之后,我們討論了終身學習常用的評估基準和指標(第6章),并在第7章結束了對未來挑戰和重要研究方向的討論。
其余章節集中在特定方面(學習算法或基準),對于尋找特定方法或基準的讀者更有用。第3章主要討論基于正則化的方法,這種方法不需要從以前的任務中訪問任何數據。第四章討論了基于記憶的方法,通常使用重放緩沖區或情景內存來保存不同任務的數據子集。第五章集中討論了不同的體系結構家族(及其實例),這些體系結構家族被提議用于訓練終身學習系統。在這些不同類別的學習算法之后,我們討論了終身學習常用的評估基準和指標(第6章),并在第7章結束了對未來挑戰和重要研究方向的討論。
聯邦學習(federal learning, FL)已經發展成為一個很有前途的框架,可以利用邊緣設備的資源,增強客戶的隱私,遵守規則,并降低開發成本。雖然許多方法和應用已經開發用于FL,但實際FL系統的幾個關鍵挑戰仍然沒有解決。本文作為ICASSP 2022年“聯邦學習的前沿:應用、挑戰和機遇”特別會議的一部分,對聯邦學習的發展進行了展望。將其展望分為算法基礎、個性化、硬件與安全約束、終身學習、非標準數據五個新興的FL方向。我們獨特的觀點得到了大規模聯邦系統對邊緣設備的實際觀察的支持。
//www.zhuanzhi.ai/paper/39a7d4ee8712a68df844567ae2010fbe
聯合學習[1,2]是一種流行的針對邊緣設備開發的分布式學習框架。它允許私有數據停留在本地,同時利用邊緣設備的大規模計算。它的主要思想是通過在每個所謂的聯邦或通信輪中交替執行以下內容來學習聯合模型: 1) 服務器將模型推送給客戶端,然后客戶端將執行多個本地更新,2) 服務器從客戶端子集聚合模型。實際FL系統的設計是非常重要的,因為FL經常涉及數以百萬計的設備、來自不同隊列的未知異構性、有限的設備容量、不斷變化的數據分布和部分標記的數據。受實際觀察的啟發,我們將在以下五個部分中列出一些關鍵的挑戰(如圖1所示)。
信息檢索的核心是從大規模資源中識別出相關信息,并以排序列表的形式返回,以響應用戶的信息需求。近年來,隨著深度學習的興起,這一領域得到了極大的發展,神經信息檢索(NeuIR)成為一個熱門話題,尤其是預訓練方法范式(PTMs)。預訓練模型具有復雜的預訓練目標和龐大的模型規模,可以從海量文本數據中學習通用語言表示,這有利于IR的排序任務。由于已經有大量的工作致力于PTMs在IR中的應用,我們認為現在是總結現狀,學習現有方法,并獲得一些對未來發展的見解的時候了。本文綜述了信息檢索系統中檢索分量、重排序分量和其他分量的PTMs應用情況。此外,我們還介紹了專門為IR設計的PTMs,并總結了可用的數據集和基準排行榜。此外,我們討論了一些開放的挑戰和展望了一些有前途的方向,希望為未來的研究激發更多關于這些主題的工作。
導論
信息檢索(IR)是許多實際應用中的一項基本任務,例如數字圖書館、Web搜索、問題回答系統等等。信息檢索的核心是從大量的信息收集中識別出與用戶信息需求相關的信息資源(如查詢或問題)。由于可能有各種相關資源,返回的結果通常是根據文檔與信息需求的相關性程度排列的文檔列表。這種排序特性使其不同于其他任務,研究人員已經投入了大量的精力來開發各種IR排序模型。
在過去的幾十年中,人們提出并研究了許多不同的排序模型,包括向量空間模型(Salton et al., 1975),概率模型(Robertson and Jones, 1976b),以及學習排序(LTR)模型(Li, 2011)。這些方法已經成功地應用于許多不同的IR應用中,例如谷歌這樣的網絡搜索引擎,今日頭條這樣的新聞推薦系統,Quora這樣的社區問答平臺等等。近年來,各種各樣的神經排序模型被提出,促使了一個名為NeuIR(即神經信息檢索)的熱門話題。與以往依賴手工構造特征和統計方法的非神經模型不同,神經排序模型可以自動從數據中學習低維連續向量(即潛在表示)作為排序特征,從而避免了復雜的特征工程。盡管神經模型在IR中取得了成功,但一個主要的性能瓶頸在于大規模、高質量和標記的數據集的可用性,因為深度神經模型通常有大量的參數需要學習。
近年來,預訓練方法(PTMs)帶來了一場風暴,并推動了自然語言處理(NLP)的范式轉變(Qiu et al., 2020)。其思想是首先通過自監督訓練目標在大規模語料庫中對模型進行預訓練,然后對預訓練模型進行微調,以實現最先進的性能。正如最近的工作所證明的那樣(Peters等人,2018b;Howard和Ruder, 2018),這些預先訓練的模型能夠捕獲相當數量的詞匯知識和事實知識,這對下游任務是有益的,可以避免從頭學習這些知識。此外,隨著計算能力的增加和Transformer架構的出現(Vaswani et al., 2017),我們可以進一步將預訓練模型的參數規模從百萬級提升到十億級(例如BERT (Devlin et al., 2018)和GPT-3 (Brown et al., 2020b)),甚至萬億級(例如,SwitchTransformers (Fedus et al ., 2021))。這兩個特性都是在IR中對模型進行排序所需要的特性。目前,預訓練的模型在具有自監督建模目標的大型文本語料庫上進行預訓練,能夠更好地理解查詢和文檔語義背后的意圖。另一方面,具有深度堆疊變換器的大規模預訓練模型具有足夠的建模能力來學習查詢和文檔之間的復雜關聯模式。由于這些潛在的好處,加上預期在IR中使用PTMs也可以取得類似的成功,我們已經見證了在IR中利用PTMs 的研究興趣的爆炸性增長(Croft et al., 2009; Manning et al., 2005)。注意,在這個綜述中,我們關注的是文本檢索中的PTMs,這是IR的核心。對基于內容的圖像檢索(Dubey, 2020)或多模態檢索中PTMs感興趣的讀者可以參考(Fei et al., 2021)。
到目前為止,已有大量的研究致力于PTMs在IR中的應用。在學術上,研究者對PTMs在IR中的應用進行了各種創新和創新。例如,早期的嘗試試圖將從預訓練模型中學習到的知識直接遷移到排序模型中,并取得了一些顯著的成果(Nogueira and Cho, 2019; Dai and Callan, 2019b)。更近期的工作提出通過改變模型架構來推廣現有的預訓練模型(MacAvaney et al., 2020; Khattab and Zaharia, 2020; Gao and Callan, 2021a)或考慮新的預訓練目標(Chang et al., 2019; Ma et al., 2021b; Ma et al., 2021c),較好地滿足IR的要求。與此同時,在行業中,谷歌2019年10月的博客文章和Bing 2019年11月的博客文章都表明,預訓練的排序模型(例如,基于BERT的模型)可以更好地理解查詢意圖,并在實際的搜索系統中提供更有用的結果。此外,看看今天的排行榜,我們可以看到,大多數排名靠前的方法都是基于PTMs構建的,只要看看這些提交的名稱。考慮到在IR中關于PTMs的研究越來越多,我們認為現在是時候調查現狀,學習現有方法,并為未來的發展獲得一些見解。
本次綜述的結構安排如下。我們將首先在第2節提供IR的系統概述。在此之后,我們在第3至5節中分別回顧了應用于檢索組件、重新排序組件和其他組件的PTMs的工作。第六部分,我們介紹了為IR量身定做的新型PTMs的設計工作。我們還在第7部分總結了可用的大型數據集和流行的基準排行榜。最后,我們在第8節對本文進行了總結,并提出了一些未來研究的方向。
聯邦學習旨在在不犧牲本地數據隱私的情況下,從多個分散的邊緣設備(例如移動設備)或服務器中學習機器學習模型。最近的自然語言處理技術依賴于深度學習和大型預訓練語言模型。然而,大型深度神經模型和語言模型都是用大量數據訓練的,這些數據通常位于服務器端。由于文本數據廣泛來自最終用戶,在這項工作中,我們研究了最近使用聯邦學習作為學習框架的 NLP 模型和技術。我們的綜述討論了聯邦自然語言處理的主要挑戰,包括算法挑戰、系統挑戰以及隱私問題。我們還對現有的聯邦 NLP 評估方法和工具進行了嚴格審查。最后,我們強調了當前的研究差距和未來的方向。
人工神經網絡在解決特定剛性任務的分類問題時,通過不同訓練階段的廣義學習行為獲取知識。由此產生的網絡類似于一個靜態的知識實體,努力擴展這種知識而不針對最初的任務,從而導致災難性的遺忘。
持續學習將這種范式轉變為可以在不同任務上持續積累知識的網絡,而不需要從頭開始再訓練。我們關注任務增量分類,即任務按順序到達,并由清晰的邊界劃分。我們的主要貢獻包括:
(1) 對持續學習技術的分類和廣泛的概述;
(2) 一個持續學習器穩定性-可塑性權衡的新框架;
(3) 對11種最先進的持續學習方法和4條基準進行綜合實驗比較。
考慮到微型Imagenet和大規模不平衡的非自然主義者以及一系列識別數據集,我們以經驗的方式在三個基準上仔細檢查方法的優缺點。我們研究了模型容量、權重衰減和衰減正則化的影響,以及任務呈現的順序,并從所需內存、計算時間和存儲空間等方面定性比較了各種方法。
//www.zhuanzhi.ai/paper/c90f25024b2c2364ce63299b4dc4677f
引言
近年來,據報道,機器學習模型在個人任務上表現出甚至超過人類水平的表現,如雅達利游戲[1]或物體識別[2]。雖然這些結果令人印象深刻,但它們是在靜態模型無法適應其行為的情況下獲得的。因此,這需要在每次有新數據可用時重新啟動訓練過程。在我們的動態世界中,這種做法對于數據流來說很快就變得難以處理,或者可能由于存儲限制或隱私問題而只能暫時可用。這就需要不斷適應和不斷學習的系統。人類的認知就是這樣一個系統的例證,它具有順序學習概念的傾向。通過觀察例子來重新審視舊的概念可能會發生,但對保存這些知識來說并不是必要的,而且盡管人類可能會逐漸忘記舊的信息,但完全丟失以前的知識很少被證明是[3]。相比之下,人工神經網絡則不能以這種方式學習:在學習新概念時,它們會遭遇對舊概念的災難性遺忘。為了規避這一問題,人工神經網絡的研究主要集中在靜態任務上,通常通過重組數據來確保i.i.d.條件,并通過在多個時期重新訪問訓練數據來大幅提高性能。
持續學習研究從無窮無盡的數據流中學習的問題,其目標是逐步擴展已獲得的知識,并將其用于未來[4]的學習。數據可以來自于變化的輸入域(例如,不同的成像條件),也可以與不同的任務相關聯(例如,細粒度的分類問題)。持續學習也被稱為終身學習[18]0,[18]1,[18]2,[18]3,[18]5,[18]4,順序學習[10],[11],[12]或增量學習[13],[14],[15],[16],[17],[18],[19]。主要的標準是學習過程的順序性質,只有一小部分輸入數據來自一個或幾個任務,一次可用。主要的挑戰是在不發生災難性遺忘的情況下進行學習:當添加新的任務或域時,之前學習的任務或域的性能不會隨著時間的推移而顯著下降。這是神經網絡中一個更普遍的問題[20]的直接結果,即穩定性-可塑性困境,可塑性指的是整合新知識的能力,以及在編碼時保持原有知識的穩定性。這是一個具有挑戰性的問題,不斷學習的進展使得現實世界的應用開始出現[21]、[22]、[23]。
為了集中注意力,我們用兩種方式限制了我們的研究范圍。首先,我們只考慮任務增量設置,其中數據按順序分批到達,一個批對應一個任務,例如要學習的一組新類別。換句話說,我們假設對于一個給定的任務,所有的數據都可以同時用于離線訓練。這使得對所有訓練數據進行多個時期的學習成為可能,反復洗刷以確保i.i.d.的條件。重要的是,無法訪問以前或將來任務的數據。在此設置中優化新任務將導致災難性的遺忘,舊任務的性能將顯著下降,除非采取特殊措施。這些措施在不同情況下的有效性,正是本文所要探討的。此外,任務增量學習將范圍限制為一個多頭配置,每個任務都有一個獨占的輸出層或頭。這與所有任務共享一個頭的更有挑戰性的類增量設置相反。這在學習中引入了額外的干擾,增加了可供選擇的輸出節點的數量。相反,我們假設已知一個給定的樣本屬于哪個任務。
其次,我們只關注分類問題,因為分類可以說是人工神經網絡最既定的任務之一,使用相對簡單、標準和易于理解的網絡體系結構具有良好的性能。第2節對設置進行了更詳細的描述,第7節討論了處理更一般設置的開放問題。
摘要
多任務學習(Multi-Task Learning, MTL)是機器學習中的一種學習范式,其目的是利用多個相關任務中包含的有用信息來幫助提高所有任務的泛化性能。
本文從算法建模、應用和理論分析三個方面對MTL進行了綜述。在算法建模方面,給出了MTL的定義,并將不同的MTL算法分為特征學習、低秩、任務聚類、任務關系學習和分解五類,并討論了每種方法的特點。
為了進一步提高學習任務的性能,MTL可以與半監督學習、主動學習、無監督學習、強化學習、多視圖學習和圖形模型等學習范式相結合。當任務數量較大或數據維數較高時,我們回顧了在線、并行和分布式的MTL模型,以及維數降維和特征哈希,揭示了它們在計算和存儲方面的優勢。
許多現實世界的應用程序使用MTL來提高它們的性能,我們在本文中回顧了代表性的工作。最后,我們對MTL進行了理論分析,并討論了MTL的未來發展方向。
引言
人類可以同時學習多個任務,在這個學習過程中,人類可以使用在一個任務中學習到的知識來幫助學習另一個任務。例如,根據我們學習打網球和壁球的經驗,我們發現打網球的技巧可以幫助學習打壁球,反之亦然。多任務學習(Multi-Task learning, MTL)[1]是機器學習的一種學習范式,受人類這種學習能力的啟發,它的目標是共同學習多個相關的任務,使一個任務中包含的知識能夠被其他任務利用,從而提高手頭所有任務的泛化性能。
在其早期階段,MTL的一個重要動機是緩解數據稀疏問題,即每個任務都有有限數量的標記數據。在數據稀疏性問題中,每個任務中標記數據的數量不足以訓練出一個準確的學習器,而MTL則以數據增強的方式將所有任務中的標記數據進行聚合,從而為每個任務獲得更準確的學習器。從這個角度來看,MTL可以幫助重用已有的知識,降低學習任務的手工標注成本。當“大數據”時代在計算機視覺和自然語言處理(NLP)等領域到來時,人們發現,深度MTL模型比單任務模型具有更好的性能。MTL有效的一個原因是與單任務學習相比,它利用了更多來自不同學習任務的數據。有了更多的數據,MTL可以為多個任務學習到更健壯、更通用的表示形式和更強大的模型,從而更好地實現任務間的知識共享,提高每個任務的性能,降低每個任務的過擬合風險。
MTL與機器學習中的其他學習范式有關,包括遷移學習[2]、多標簽學習[3]和多輸出回歸。MTL的設置與遷移學習相似,但存在顯著差異。在MTL中,不同任務之間沒有區別,目標是提高所有任務的性能。而遷移學習是借助源任務來提高目標任務的性能,因此目標任務比源任務起著更重要的作用。總之,MTL對所有的任務一視同仁,但在遷移學習中目標任務最受關注。從知識流的角度來看,遷移學習中的知識轉移流是從源任務到目標任務,而在多任務學習中,任何一對任務之間都存在知識共享流,如圖1(a)所示。持續學習[4]是一個一個地學習任務,任務是有順序的,而MTL是將多個任務一起學習。在多標簽學習和多輸出回歸中,每個數據點都與多個標簽相關聯,這些標簽可以是分類的或數字的。如果我們把所有可能的標簽都當作一個任務,那么多標簽學習和多輸出回歸在某種意義上可以看作是多任務學習的一種特殊情況,不同的任務在訓練和測試階段總是共享相同的數據。一方面,這種多標簽學習和多輸出回歸的特點導致了與MTL不同的研究問題。例如,排名損失使得與數據點相關的標簽的分數(例如分類概率)大于沒有標簽的分數,可以用于多標簽學習,但它不適合MTL,因為不同的任務擁有不同的數據。另一方面,這種在多標簽學習和多輸出回歸中的特性在MTL問題中是無效的。例如,在2.7節中討論的一個MTL問題中,每個任務都是根據19個生物醫學特征預測患者帕金森病的癥狀評分,不同的患者/任務不應該共享生物醫學數據。總之,多標簽學習和多輸出回歸與圖1(b)所示的多任務學習是不同的,因此我們不會對多標簽學習和多輸出回歸的文獻進行綜述。此外,多視圖學習是機器學習的另一種學習范式,每個數據點與多個視圖相關聯,每個視圖由一組特征組成。雖然不同的視圖有不同的特征集,但是所有的視圖是一起學習同一個任務的,因此多視圖學習屬于具有多組特征的單任務學習,這與圖1(c)所示的MTL是不同的。
在過去的幾十年里,MTL在人工智能和機器學習領域引起了廣泛的關注。許多MTL模型已經被設計出來,并在其他領域得到了廣泛的應用。此外,對MTL的理論問題也進行了大量的分析。本文從算法建模、應用和理論分析三個方面對MTL進行了綜述。在算法建模方面,首先給出了MTL的定義,然后將不同的MTL算法分為5類: 特征學習方法,又可分為特征轉換與特征選擇方法、低秩方法、任務聚類方法、任務關系學習方法和分解方法。然后,我們討論了MTL與其他學習范式的結合,包括半監督學習、主動學習、無監督學習、強化學習、多視圖學習和圖形模型。為了處理大量的任務,我們回顧了在線、并行和分布式的MTL模型。對于高維空間中的數據,引入特征選擇、降維和特征哈希作為處理這些數據的重要工具。MTL作為一種很有前途的學習范式,在計算機視覺、生物信息學、健康信息學、語音、自然語言處理、web等領域有著廣泛的應用。從理論分析的角度,對MTL的相關工作進行回顧。最后,討論了MTL的未來發展方向。
終身機器學習(LL)是一種先進的機器學習(ML)范式,它不斷學習,積累過去學到的知識,并使用/適應它來幫助未來的學習和問題解決。在這個過程中,學習者變得越來越有知識,學習能力也越來越強。這種持續不斷的學習能力是人類智力的特征之一。然而,目前占主導地位的ML范式是孤立學習的:給定一個訓練數據集,它只在數據集上運行ML算法來生成模型。它不試圖保留所學的知識,并在以后的學習中使用。雖然這種主要基于數據驅動優化的孤立ML范式已經非常成功,但它需要大量的訓練示例,并且只適用于封閉環境中定義明確的狹窄任務。相比之下,我們人類學習有效地與幾個例子,在動態和開放的世界self-supervised方式或環境因為我們的學習也非常知識:知識學習在過去幫助我們學習新事物沒有數據或努力和適應新的/看不見的情況下。這種自我至上(或自我意識)的學習也使我們能夠在工作中,在與他人的互動中,在沒有外部監督的情況下,與現實世界的環境進行學習。LL的目標是實現所有這些能力。諸如聊天機器人、無人駕駛汽車或任何與人類/物理環境交互的人工智能系統都需要這些功能,因為它們需要應對動態和開放的環境,這讓它們別無選擇,只能不斷學習新東西,以便更好地工作。如果沒有LL能力,AI系統就不能被認為是真正智能的,也就是說,LL是智能或AGI(人工一般智能)所必需的。(見我的終身學習研究頁面)。
當前的深度學習研究以基準評價為主。如果一種方法在專門的測試集上有良好的經驗表現,那么它就被認為是有利的。這種心態無縫地反映在持續學習的重現領域,在這里研究的是持續到達的基準數據集。核心挑戰是如何保護之前獲得的表示,以免由于迭代參數更新而出現災難性地遺忘的情況。然而,各個方法的比較是與現實應用程序隔離的,通常通過監視累積的測試集性能來判斷。封閉世界的假設仍然占主導地位。假設在部署過程中,一個模型保證會遇到來自與用于訓練的相同分布的數據。這帶來了一個巨大的挑戰,因為眾所周知,神經網絡會對未知的實例提供過于自信的錯誤預測,并在數據損壞的情況下崩潰。在這個工作我們認為值得注意的教訓來自開放數據集識別,識別的統計偏差以外的數據觀測數據集,和相鄰的主動學習領域,數據增量查詢等預期的性能收益最大化,這些常常在深度學習的時代被忽略。基于這些遺忘的教訓,我們提出了一個統一的觀點,以搭建持續學習,主動學習和開放集識別在深度神經網絡的橋梁。我們的結果表明,這不僅有利于每個個體范式,而且突出了在一個共同框架中的自然協同作用。我們從經驗上證明了在減輕災難性遺忘、主動學習中查詢數據、選擇任務順序等方面的改進,同時在以前提出的方法失敗的地方展示了強大的開放世界應用。
//www.zhuanzhi.ai/paper/e5bee7a1e93a93ef97e1c
概述:
隨著實用機器學習系統的不斷成熟,社區發現了對持續學習[1]、[2]的興趣。與廣泛練習的孤立學習不同,在孤立學習中,系統的算法訓練階段被限制在一個基于先前收集的i.i.d數據集的單一階段,持續學習需要利用隨著時間的推移而到來的數據的學習過程。盡管這種范式已經在許多機器學習系統中找到了各種應用,回顧一下最近關于終身機器學習[3]的書,深度學習的出現似乎已經將當前研究的焦點轉向了一種稱為“災難性推理”或“災難性遺忘”的現象[4],[5],正如最近的評論[6],[7],[8],[9]和對深度持續學習[8],[10],[11]的實證調查所表明的那樣。后者是機器學習模型的一個特殊效應,機器學習模型貪婪地根據給定的數據群更新參數,比如神經網絡迭代地更新其權值,使用隨機梯度估計。當包括導致數據分布發生任何變化的不斷到達的數據時,學習到的表示集被單向引導,以接近系統當前公開的數據實例上的任何任務的解決方案。自然的結果是取代以前學到的表征,導致突然忘記以前獲得的信息。
盡管目前的研究主要集中在通過專門機制的設計來緩解持續深度學習中的這種遺忘,但我們認為,一種非常不同形式的災難性遺忘的風險正在增長,即忘記從過去的文獻中吸取教訓的危險。盡管在連續的訓練中保留神經網絡表示的努力值得稱贊,但除了只捕獲災難性遺忘[12]的度量之外,我們還高度關注了實際的需求和權衡,例如包括內存占用、計算成本、數據存儲成本、任務序列長度和訓練迭代次數等。如果在部署[14]、[15]、[16]期間遇到看不見的未知數據或小故障,那么大多數當前系統會立即崩潰,這幾乎可以被視為誤導。封閉世界的假設似乎無所不在,即認為模型始終只會遇到與訓練過程中遇到的數據分布相同的數據,這在真實的開放世界中是非常不現實的,因為在開放世界中,數據可以根據不同的程度變化,而這些變化是不現實的,無法捕獲到訓練集中,或者用戶能夠幾乎任意地向系統輸入預測信息。盡管當神經網絡遇到不可見的、未知的數據實例時,不可避免地會產生完全沒有意義的預測,這是眾所周知的事實,已經被暴露了幾十年了,但是當前的努力是為了通過不斷學習來規避這一挑戰。選擇例外嘗試解決識別不可見的和未知的示例、拒絕荒謬的預測或將它們放在一邊供以后使用的任務,通常總結在開放集識別的傘下。然而,大多數現有的深度連續學習系統仍然是黑盒,不幸的是,對于未知數據的錯誤預測、數據集的異常值或常見的圖像損壞[16],這些系統并沒有表現出理想的魯棒性。
除了目前的基準測試實踐仍然局限于封閉的世界之外,另一個不幸的趨勢是對創建的持續學習數據集的本質缺乏理解。持續生成模型(如[17]的作者的工作,[18],[19],[20],[21],[22]),以及類增量持續學習的大部分工作(如[12]中給出的工作,[23],[24],[25],[26],[27],[28])一般調查sequentialized版本的經過時間考驗的視覺分類基準如MNIST [29], CIFAR[30]或ImageNet[31],單獨的類只是分成分離集和序列所示。為了在基準中保持可比性,關于任務排序的影響或任務之間重疊的影響的問題通常會被忽略。值得注意的是,從鄰近領域的主動機器學習(半監督學習的一種特殊形式)中吸取的經驗教訓,似乎并沒有整合到現代的連續學習實踐中。在主動學習中,目標是學會在讓系統自己查詢接下來要包含哪些數據的挑戰下,逐步地找到與任務解決方案最接近的方法。因此,它可以被視為緩解災難性遺忘的對抗劑。當前的持續學習忙于維護在每個步驟中獲得的信息,而不是無休止地積累所有的數據,而主動學習則關注于識別合適的數據以納入增量訓練系統的補充問題。盡管在主動學習方面的早期開創性工作已經迅速識別出了通過使用啟發式[32]、[33]、[34]所面臨的強大應用的挑戰和陷阱,但后者在深度學習[35]、[36]、[37]、[38]的時代再次占據主導地位,這些挑戰將再次面臨。
在這項工作中,我們第一次努力建立一個原則性和鞏固的深度持續學習、主動學習和在開放的世界中學習的觀點。我們首先單獨回顧每一個主題,然后繼續找出在現代深度學習中似乎較少受到關注的以前學到的教訓。我們將繼續爭論,這些看似獨立的主題不僅從另一個角度受益,而且應該結合起來看待。在這個意義上,我們建議將當前的持續學習實踐擴展到一個更廣泛的視角,將持續學習作為一個總括性術語,自然地包含并建立在先前的主動學習和開放集識別工作之上。本文的主要目的并不是引入新的技術或提倡一種特定的方法作為通用的解決方案,而是對最近提出的神經網絡[39]和[40]中基于變分貝葉斯推理的方法進行了改進和擴展,以說明一種走向全面框架的可能選擇。重要的是,它作為論證的基礎,努力闡明生成建模作為深度學習系統關鍵組成部分的必要性。我們強調了在這篇論文中發展的觀點的重要性,通過實證證明,概述了未來研究的含義和有前景的方向。
所有著名的機器學習算法包括監督學習和半監督學習,只有在一個共同的假設下才能很好地有效: 訓練和測試數據遵循相同的分布。當分布發生變化時,大多數統計模型必須從新收集的數據中重新構建,對于某些應用程序,這些數據可能是昂貴的或不可能獲得的。因此,有必要開發一種方法,通過利用相關領域的可用數據并在類似領域進一步使用它來減少獲取新標記樣本的需要和工作量。這催生了一種新的機器學習框架,稱為“遷移學習”(transfer learning):這是一種學習環境,其靈感來自于人類在不同任務間推斷知識以提高學習效率的能力。盡管有大量不同的遷移學習場景,本綜述的主要目的是提供一個特定的、可以說是最流行的遷移學習子領域——領域自適應——最新理論結果的概述。在這個子領域中,假設在訓練和測試數據之間的數據分布是變化的,而學習任務是不變的。我們提供了一個關于領域適應問題的現有結果的最新描述,它涵蓋了基于不同統計學習框架的學習范圍。
概述
遷移學習背后的思想是由人類的學習能力所激發的,這種學習能力是在很少或沒有監督的情況下根據先前獲得的知識進行的。毫不奇怪,這個概念并沒有在機器學習領域中被發明出來,因為“學習的轉移”這個概念在第一臺計算機出現之前就已經被使用了,并且在20世紀早期的心理學領域的論文中也有出現。從統計的角度來看,這種學習場景不同于監督學習,因為前者不假設訓練和測試數據必須來自相同的概率分布。有人認為,這種假設在實踐中往往過于嚴格,因為在許多現實世界的應用中,假設是在不同的環境中學習和部署的,并顯示出一個重要的轉變。在遷移移學習中經常使用的一個典型例子是考慮一個垃圾郵件過濾任務,其中垃圾郵件過濾器是使用給定用戶的公司郵箱的任意分類算法來學習的。在這種情況下,由算法分析的絕大多數電子郵件很可能是專業性質的,其中很少涉及被考慮的人的私人生活。再進一步設想這樣一種情況:同一用戶在個人計算機上安裝了郵箱軟件,并導入其公司郵箱的設置,希望它也能在其上正常工作。然而,這是不可能的,因為許多個人電子郵件可能看起來像垃圾郵件的算法學習純粹的專業通信,由于他們的內容和附件文件的差異,以及電子郵件地址的不一致性。另一個說明性的例子是海洋學研究中的物種分類,在這種分類中,人們依靠對某一海域的視頻覆蓋來識別海洋棲息地的物種。例如,在地中海和印度洋,可以在錄像中找到的魚類很可能屬于同一科,盡管由于不同的氣候和進化背景,它們的實際外觀可能非常不同。在這種情況下,如果沒有專家的專門調整,在地中海視頻覆蓋上訓練的學習算法很可能無法提供印度洋物種的正確分類。
在這種應用中,我們可能希望找到一種學習范式,這種學習范式能夠保持對不斷變化的環境的魯棒性,并通過類比和利用最初學習領域的知識來適應手邊的新問題。為了解決這個問題,對新的算法的探索,能夠在一個訓練樣本上學習,然后在一個測試樣本上有一個良好的表現,來自一個不同但相關的概率分布,從而產生了一個新的學習范式,稱為遷移學習。
表1: 本綜述中關于領域適應的學習范圍的貢獻總結。(任務)是指所考慮的學習問題;(框架)指定分析中使用的統計學習框架;(散度)是用來比較源分布和目標分布的度量;(Link)表示源誤差與散度項之間的依賴關系;(Non-estim)表示在界限中存在一個不可估計的項。
在本篇綜述中,我們對領域自適應問題的現有理論進行了概述,這種學習設置擴展了傳統的學習范式,使模型可以在來自不同但相關的概率分布的樣本上學習和部署。所引用的理論結果通常采取一種學習邊界的形式,其目標是將一個模型在訓練(也稱為源)域上的錯誤與測試(也稱為目標)域上的錯誤聯系起來。為此,我們注意到所提供的結果是非常直觀的,因為它們明確地引入了上述兩個錯誤之間的關系與它們的數據生成概率分布和相應的標記函數的相似性的依賴關系。因此,這種源域和目標域之間的雙向關聯,通過比較兩個域的邊緣分布和樣本的可能標記來描述這兩個域的無監督鄰近性,通過尋找一個相對于它們具有低誤差的良好模型。在這一主題的大多數已發表的結果中,以這樣或那樣的方式保留了這種普遍的權衡,因此可以被視為現代領域適應理論的基石。