預訓練模型通過自監督學習方法在大規模文本語料庫上學習上下文化的詞表示,該方法經過微調后取得了良好的性能。然而,這些模型的健壯性差,且缺乏可解釋性。帶有知識注入的預訓練模型(knowledge enhanced pre- training model, KEPTMs)具有深刻的理解和邏輯推理能力,并在一定程度上引入了可解釋性。在這個綜述中,我們提供了自然語言處理的KEPTMs的全面概述。首先介紹了預訓練模型和知識表示學習的研究進展。然后我們從三個不同的角度對現有KEPTMs進行了系統的分類。最后,對KEPTMs的未來研究方向進行了展望。
//www.zhuanzhi.ai/paper/2e6a280b91bab87be5075bc650650678
引言
數據和知識是人工智能的核心。深度學習[1],[2],[3]借助神經網絡的分布式表示和層次結構泛化,可以充分利用大規模數據。基于深度學習的預訓練模型[4]、[5]、[6]、[7]、[8]、[9]、[10]、[11]、[12]、[13]、[14]、[15]、[16]、[17]、[18]有了質的飛躍,促進了下游自然語言處理(NLP)的廣泛應用。雖然它們可以從大規模的無監督語料庫中獲取詞匯、句法和淺層語義信息,但它們是統計模型,受重尾數據分布的限制,導致無法深入理解和因果推理和反事實推理。此外,盡管深度學習在學習數據背后的關鍵因素方面很強大,但由于糾纏表示,預先訓練的模型失去了可解釋性。知識為模型提供了全面而豐富的實體特征和關系,克服了數據分布的影響,增強了模型的魯棒性。此外,知識為模型引入了顯式語義的可解釋性。因此,利用不同的知識來實現預先訓練的具有深度理解和邏輯推理的模型是必不可少的。為了更好地集成知識和文本特征,將符號知識投影到一個密集的、低維的語義空間中,并通過分布式向量通過學習[19]的知識表示來表示。在此背景下,研究人員探索了通過注入知識來概括知識驅動和語義理解所需場景的方法來改進預先訓練的模型。
這項綜述的貢獻可以總結如下:
全面綜述。本文對自然語言處理的預訓練模型和知識表示學習進行了綜述。 新分類法。我們提出了一種面向自然語言處理的KEPTMs分類法,根據注入知識的類型將現有KEPTMs分為三組,并根據知識與語料庫的耦合關系和知識注入方法進一步劃分不同組對應的模型。 未來的發展方向。討論分析了現有KEPTMs的局限性,并提出了未來可能的研究方向。
近年來,預訓練模型的逐步發展引起了研究者的廣泛關注。然而,盡管他們在創作上付出了巨大的努力,但卻無法理解文本的深層語義和邏輯推理。此外,從模型中學習到的知識存在于參數中,是無法解釋的。通過注入KGs的實體特征和事實知識,可以極大地緩解魯棒性差和可解釋性不足的問題。本文介紹的預訓練模型大多側重于語言知識和世界知識的利用,這些知識屬于2.2.1節中定義的事實知識或概念知識。這類知識為預訓練模型提供了豐富的實體和關系信息,極大地提高了預訓練模型的深度理解和推理能力。
為了比較和分析現有的KEPTMs,我們首先根據注入知識的類型將其分為三類: 實體增強的預訓練模型、三元組增強的預訓練模型和其他知識增強的預訓練模型。對于實體增強的預訓練模型,所有這些模型都將知識和語言信息存儲在預訓練模型的參數中,屬于基于耦合的KEPTMs。根據實體注入的方法,進一步將其分為實體特征融合模型和知識圖譜監督預訓練模型。對于三聯體增強的訓練前模型,我們根據三聯體與語料是否耦合,將其分為基于耦合和基于解耦的KEPTMs。基于耦合的KEPTMs在訓練前將單詞嵌入和知識嵌入糾纏在一起,無法保持符號知識的可解釋性。根據三聯體輸注方法,將基于耦合的KEPTMs分為三組: 嵌入聯合KEPTMs、數據結構統一KEPTMs和聯合訓練KEPTMs。而基于解耦的KEPTMs則分別保留了知識和語言的嵌入,從而引入了符號知識的可解釋性。我們將其劃分為基于檢索的KEPTMs,因為它通過檢索相關信息來利用知識。其他知識增強模型也可分為基于耦合和基于解耦的KEPTMs。我們進一步將其分為聯合訓練和基于檢索的KEPTMs。
摘要
預訓練語言模型(Pretrained Language Models, PLM)通過在大規模文本語料庫上學習信息語境化表示,建立了一種新的范式。這種新的范式已經徹底改變了整個自然語言處理領域,并為各種NLP任務設置了新的最先進的性能。然而,盡管PLM可以從訓練語料庫中存儲一定的知識/事實,但它們的知識意識還遠遠不能令人滿意。為了解決這個問題,將知識集成到PLM中已經成為一個非常活躍的研究領域,并且已經開發了各種各樣的方法。在本文中,我們對這一新興和快速發展的領域-知識增強的預訓練語言模型(KE-PLMs)提供了一個全面的文獻綜述。我們引入三種分類法來對現有工作進行分類。此外,我們還調研了各種NLU和NLG應用,在這些應用上,KE-PLM表現出了優于普通PLM的性能。最后,討論了KE-PLMs面臨的挑戰和未來的研究方向。
引言
近年來,大規模預訓練語言模型(大規模預訓練語言模型,簡稱PLM)給自然語言處理領域帶來了革命性的變化。預先訓練的模型如BERT [16], RoBERTa [50], GPT2/3[68][7]和T5[69]獲得了巨大的成功,極大地提升了各種NLP應用的最先進性能[67]。前訓練在NLP中的廣泛成功也啟發了自我監督前訓練在其他領域的應用,如圖表示學習[30][31]和推薦系統[81][98]。對大量文本數據的訓練也使這些plm能夠記住訓練語料庫中包含的某些事實和知識。最近的研究表明,這些經過訓練的語言模型可以擁有相當數量的詞匯知識[48][92]和事實知識[63][71][95]。然而,進一步的研究發現,PLM在知識意識方面也存在以下局限性:
對于NLU來說,最近的研究發現PLM傾向于依賴于表面信號/統計線索[62][55][58],并且很容易被否定的信息(例如,“Birds can [MASK]”vs .“Birds cannot [MASK]”)和錯誤啟動的探針[35]所愚弄。此外,已有研究發現,PLM在推理任務中往往會失敗[84]。
對于NLG,盡管PLM能夠生成語法正確的句子,但生成的文本可能不符合邏輯或不合理。例如,在[46]中提到,給定一組概念{dog, frisbee, catch, throw}, GPT2生成“a dog throw a frisbee at a football player”和T5生成“dog catch a frisbee and throw it to a dog”,這兩者都不符合人類的常識。
這些觀察結果促使人們設計更有知識意識的預訓練模型。最近,越來越多的研究致力于明確地將知識納入PLMs[100][108][61][90][96][49][33]。他們利用百科知識、常識知識和語言知識等多種來源,采用不同的注入策略。這種知識集成機制成功地增強了現有PLM的知識意識,提高了包括但不限于實體輸入[100]、問題回答[101][45]、故事生成[22]和知識圖完成[102]在內的各種任務的性能。
本文旨在對這一新興領域的知識增強預訓練語言模型(KE-PLMs)進行全面綜述。現有的KE-PLMs工作已經開發了一套不同的技術,用于在不同的知識來源上進行知識集成。為了深入了解這些模型并促進未來的研究,我們構建了三種分類法來對現有的KE-PLMs進行分類。圖1說明了我們提出的關于知識增強預訓練語言模型(KE-PLMs)的分類法。在現有的KE-PLMs中,已經探索了不同類型的知識來源(如語言學、常識、百科全書、特定應用),以增強PLMs在不同方面的能力。第一種分類法幫助我們理解在構建KE-PLMs時考慮了哪些知識來源。在第二種分類法中,我們認識到一個知識源可以被不同程度地利用,并基于知識粒度對已有的工作進行分類: 基于文本塊、基于實體、基于關系三元和基于子圖。最后,我們介紹了第三種分類法,它根據方法的應用領域對它們進行分組。這種分類法展示了現有的KE-PLMs在知識集成的幫助下旨在改進的一系列應用。通過認識到哪些應用領域已經被KE-PLMs很好地解決了,我們相信這將為未來將KE-PLMs應用于未解決領域的研究機會提供支持。
機器學習(ML)最近的快速進展提出了一些科學問題,挑戰了該領域長期存在的教條。最重要的謎題之一是過度參數化模型的良好經驗泛化。過度參數化的模型對于訓練數據集的大小來說過于復雜,這導致它們完美地擬合(即插值)訓練數據,而訓練數據通常是有噪聲的。這種對噪聲數據的插值傳統上與有害的過擬合有關,但最近觀察到,從簡單的線性模型到深度神經網絡的各種插值模型在新測試數據上都能很好地泛化。事實上,最近發現的雙下降現象表明,在測試性能上,高度過度參數化的模型往往比最好的欠參數化模型更好。理解這種過度參數化的學習需要新的理論和基礎的實證研究,即使是最簡單的線性模型。這種理解的基礎已經在最近對過度參數化線性回歸和相關統計學習任務的分析中奠定,這導致了雙下降的精確分析特征。本文簡要概述了這一新興的過度參數化ML理論(以下簡稱為TOPML),并從統計信號處理的角度解釋了這些最新發現。我們強調將TOPML研究領域定義為現代ML理論的一個子領域的獨特方面,并概述了仍然存在的有趣的未決問題。
//www.zhuanzhi.ai/paper/182ad6c4b994aa517d10319504e9bb3a
引言
深度學習技術已經徹底改變了許多工程和科學問題的解決方式,使數據驅動方法成為實踐成功的主要選擇。當前的深度學習方法是經典機器學習(ML)設置的極限開發版本,以前這些設置受到有限的計算資源和訓練數據可用性不足的限制。目前已建立的實踐是從一組訓練示例中學習高度復雜的深度神經網絡(DNN),這些示例雖然本身很大,但相對于DNN中的參數數量來說相當小。雖然這種過度參數化的DNN在ML實踐中是最先進的,但這種實際成功的根本原因仍不清楚。特別神秘的是兩個經驗觀察結果: 1) 模型中添加更多參數的明顯益處(在泛化方面),2) 這些模型即使完美地擬合了噪聲訓練數據,也能很好地泛化。這些觀察結果在現代ML的不同結構中都得到了體現——當它們首次被用于復雜的、最先進的DNN時(Neyshabur et al., 2014; Zhang et al., 2017)),它們已經在更簡單的模型家族中出土,包括寬神經網絡、核方法,甚至線性模型(Belkin et al., 2018b; Spigler et al., 2019; Geiger et al., 2020; Belkin et al., 2019a)。
在本文中,我們綜述了最近發展起來的過度參數化機器學習理論(簡稱TOPML),該理論建立了與訓練數據插值(即完美擬合)相關的現象相關的基本數學原理。我們很快將提供一個過度參數化ML的正式定義,但在這里描述一些模型必須滿足的顯著屬性,以合格為過度參數化。首先,這樣的模型必須是高度復雜的,因為它的獨立可調參數的數量要遠遠高于訓練數據集中的示例數量。其次,這樣的模型絕不能以任何方式被明確地規范化。DNN是過度參數化模型的常見實例,這些模型通常沒有明確的正則化訓練(參見,例如,Neyshabur et al., 2014; Zhang et al., 2017)。這種過度參數化和缺乏顯式正則化的組合產生了一個可插值訓練示例的學習模型,因此在任何訓練數據集上都實現了零訓練誤差。訓練數據通常被認為是來自底層數據類(即噪聲數據模型)的噪聲實現。因此,插值模型完美地擬合了基礎數據和訓練示例中的噪聲。傳統的統計學習總是將噪聲的完美擬合與較差的泛化性能聯系在一起(例如,Friedman et al., 2001, p. 194);因此,值得注意的是,這些插值解決方案通常能很好地泛化到訓練數據集以外的新測試數據。
在本文中,我們回顧了TOPML研究的新興領域,主要關注在過去幾年發展的基本原理。與最近的其他綜述相比(Bartlett et al., 2021; Belkin, 2021),我們從更基本的信號處理角度來闡明這些原則。形式上,我們將TOPML研究領域定義為ML理論的子領域,其中1. 明確考慮訓練數據的精確或近似插值 2. 相對于訓練數據集的大小,學習模型的復雜性較高。
本文組織如下。在第2節中,我們介紹了過度參數化學習中插值解的基礎知識,作為一個機器學習領域,它超出了經典偏方差權衡的范圍。在第3節中,我們概述了最近關于過度參數化回歸的結果。在這里,我們從信號處理的角度直觀地解釋了過度參數化學習的基本原理。在第4節中,我們回顧了關于過度參數化分類的最新發現。在第5節中,我們概述了最近關于過度參數化子空間學習的工作。在第6節中,我們考察了最近關于回歸和分類以外的過度參數化學習問題的研究。在第7節中,我們討論了過度參數化ML理論中的主要開放問題。
【導讀】預訓練模型是當下的研究熱點之一。本文對綜述了近年來與T-PTLMs相關的研究工作,涵蓋了基本概念、分類體系。
引言
基于Transformer的預訓練語言模型(T-PTLMs)在幾乎所有的自然語言處理任務中都取得了巨大的成功。這些模型的發展始于GPT和BERT。這些模型建立在Transformer、自監督學習和遷移學習的基礎上。基于轉換的PTLMs通過自監督學習從大量文本數據中學習通用語言表示,并將這些知識轉移到下游任務中。這些模型為下游任務提供了良好的背景知識,避免了對下游模型從頭開始的訓練。在這篇全面的綜述論文中,我們首先對自監督學習做一個簡要的概述。接下來,我們解釋了各種核心概念,如預訓練、預訓練方法、預訓練任務、嵌入和下游適應方法。接下來,我們介紹了 T-PTLMs的一個新分類,然后簡要概述了各種基準測試,包括內在和外在的。我們總結了與 T-PTLMs一起工作的各種有用的庫。最后,提出了進一步完善這些模型的研究方向。我們堅信,這篇全面的綜述論文將為了解 T-PTLMs的核心概念以及了解 T-PTLMs的最新動態提供很好的參考。
摘要
如GPT-1 [1], BERT [2], XLNet [3], RoBERTa [4], ELECTRA [5], T5 [6], ALBERT [7],BART[8]和PEGAUSUS [9]在NLP中取得了巨大的成功,因為它們能夠從大量未標記的文本數據中學習通用語言表征,然后將這些知識轉移到下游任務中。在早期,NLP系統大多是基于規則的,后來被機器學習模型所取代。機器學習模型需要特征工程,這需要領域專業知識,也是一個耗時的過程。gpu和Word2Vec[10]和Glove[11]等更好的計算機硬件的發展,增加了深度學習模型(如CNN[12]和RNN[13]、[14])用于構建NLP系統的使用。這些深度學習模型的主要缺點是需要從頭開始訓練模型,除了單詞嵌入。從頭開始訓練模型需要大量已標記的實例,生成這些實例的代價是昂貴的。然而,我們希望模型僅使用少數標記實例就能表現良好。遷移學習[15]允許在源任務中學習的知識重用,從而在目標任務中很好地執行。在這里,目標任務應該與源任務類似。基于遷移學習的思想,計算機視覺研究人員使用ImageNet[20],[21]等大規模標記數據集訓練了大型CNN模型[16]-[19]。這些模型學習在所有任務中都通用的圖像表示。預訓練的大型CNN模型通過包含少量特定任務層來適應下游任務,然后在目標數據集[22]上進行微調。由于預先訓練好的CNN模型為下游模型提供了良好的背景知識,他們在許多CV任務[18],[23]中獲得了巨大的成功。
像CNN和RNN這樣的深度學習模型在建模長期上下文和學習帶有局部偏差[24]的單詞表示方面存在困難。此外,由于RNN按順序處理輸入,即逐字處理,并行計算機硬件的利用率受到限制。為了克服現有深度學習模型的這些缺陷,Vaswani等人[25]提出了一種完全基于自注意的深度學習模型,稱為Transformer。與RNN相比,自注意允許更多的并行化,并且可以很容易地建模長期上下文,因為每個令牌都關注輸入序列[25]中的所有令牌。Transformer包含編碼器和解碼器層的堆棧。在編碼器和解碼器層的幫助下,Transformer可以學習復雜的語言信息。在NLP域中生成大量標記數據是一個非常昂貴和耗時的過程。但是,很容易獲得大量未標記的文本數據。NLP研究社區對基于CNN的計算機視覺預訓練模型的成功印象深刻,已經開發了結合Transformer和自監督學習的能力的T-PTLMs。自監督學習允許Transformer基于一個或多個預訓練任務提供的偽監督進行學習。
GPT和BERT分別是第一個基于transformer 解碼器和編碼器層開發的T-PTLMs。在GPT和BERT的基礎上,提出了XLNet、RoBERTa、ELECTRA、ALBERT、T5、BART和PEGAUSUS等模型。這里XLNet, RoBERTa, ELECTRA和ALBERT是對BERT模型的改進,而T5, BART和PEGAUSUS是基于編碼器-解碼器的模型。Kaplan等人[26]表明,T-PTLMs的表現可以通過增加模型的大小來提高。這一觀察觸發了大規模T-PTLMs的發展,如GPT-3 (175B)[27]、PANGU- (200B)[28]、GShard (600B)[29]和switch - transformer (1.6T)[30]等包含數十億個參數的T-PTLMs。繼T-PTLMs在通用英語領域的成功之后,T-PTLMs也被開發用于其他領域,如金融[31],法律[32],[33],新聞[34],編程[35]-[39],對話[40],網絡[41],學術[42]-[44]和生物醫學[45]-[48]。TPTLMs還支持遷移學習,因為這些模型可以通過對目標數據集進行微調或即時調整來適應下游任務。本文綜述了近年來與T-PTLMs相關的研究工作。我們將綜述總結為
我們將簡要介紹SSL,它是開發T-PTLMs的支柱(第2節)。
我們解釋了與T-PTLMs相關的各種核心概念,如預訓練、預訓練方法、預訓練任務、嵌入和下游適應方法(第3節)。
我們提出了一個新的分類方法來分類各種T-PTLMs。這種分類法基于四個視角,即預訓練語料庫、體系結構、SSL類型和擴展(第4節)。
我們提出了一種新的分類法來對各種下游適應方法進行分類,并對每一種方法進行詳細解釋(第5節)。
我們簡要概述了評估T-PTLMs進展的各種基準,包括內在的和外在的(第6節)。
我們簡要概述了各種庫,從Huggingface transformer到Transformer-interpret,這些庫對tptlm的工作很有用(第7節)。
我們簡要討論了一些未來的研究方向,這些方向將推動研究團體進一步改進模型(第8節)。
在人類中,注意力是所有感知和認知操作的核心屬性。考慮到我們處理競爭性信息來源的能力有限,注意力機制選擇、調整和關注與行為最相關的信息。
幾十年來,哲學、心理學、神經科學和計算機科學都在研究注意力的概念和功能。在過去的六年中,這一特性在深度神經網絡中得到了廣泛的研究。目前,深度學習的研究進展主要體現在幾個應用領域的神經注意力模型上。
本研究對神經注意力模型的發展進行了全面的概述和分析。我們系統地回顧了該領域的數百個架構,識別并討論了那些注意力顯示出重大影響的架構。我們亦制訂了一套自動化方法體系,并將其公諸于眾,以促進這方面的研究工作。通過批判性地分析650部文獻,我們描述了注意力在卷積、循環網絡和生成模型中的主要用途,識別了使用和應用的共同子組。
此外,我們還描述了注意力在不同應用領域的影響及其對神經網絡可解釋性的影響。最后,我們列出了進一步研究的可能趨勢和機會,希望這篇綜述能夠對該領域的主要注意力模型提供一個簡明的概述,并指導研究者開發未來的方法,以推動進一步的改進。
深度學習方法在許多人工智能任務中實現了不斷提高的性能。深度模型的一個主要限制是它們不具有可解釋性。這種限制可以通過開發事后技術來解釋預測來規避,從而產生可解釋的領域。近年來,深度模型在圖像和文本上的可解釋性研究取得了顯著進展。在圖數據領域,圖神經網絡(GNNs)及其可解釋性正經歷著快速的發展。然而,對GNN解釋方法并沒有統一的處理方法,也沒有一個標準的評價基準和試驗平臺。在這個綜述中,我們提供了一個統一的分類的視角,目前的GNN解釋方法。我們對這一問題的統一和分類處理,闡明了現有方法的共性和差異,并為進一步的方法論發展奠定了基礎。為了方便評估,我們為GNN的可解釋性生成了一組基準圖數據集。我們總結了當前的數據集和評價GNN可解釋性的指標。總之,這項工作為GNN的解釋提供了一個統一的方法處理和一個標準化的評價測試平臺。
引言
深度神經網絡的發展徹底改變了機器學習和人工智能領域。深度神經網絡在計算機視覺[1]、[2]、自然語言處理[3]、[4]、圖數據分析[5]、[6]等領域取得了良好的研究成果。這些事實促使我們開發深度學習方法,用于在跨學科領域的實際應用,如金融、生物學和農業[7]、[8]、[9]。然而,由于大多數深度模型是在沒有可解釋性的情況下開發的,所以它們被視為黑盒。如果沒有對預測背后的底層機制進行推理,深度模型就無法得到完全信任,這就阻止了它們在與公平性、隱私性和安全性有關的關鍵應用中使用。為了安全可靠地部署深度模型,有必要提供準確的預測和人類可理解的解釋,特別是為跨學科領域的用戶。這些事實要求發展解釋技術來解釋深度神經網絡。
深度模型的解釋技術通常研究深度模型預測背后的潛在關系機制。一些方法被提出來解釋圖像和文本數據的深度模型。這些方法可以提供與輸入相關的解釋,例如研究輸入特征的重要分數,或對深度模型的一般行為有較高的理解。例如,通過研究梯度或權重[10],[11],[18],我們可以分析輸入特征和預測之間的靈敏度。現有的方法[12],[13],[19]映射隱藏特征圖到輸入空間和突出重要的輸入特征。此外,通過遮擋不同的輸入特征,我們可以觀察和監測預測的變化,以識別重要的特征[14],[15]。與此同時,一些[10]、[16]研究側重于提供獨立于輸入的解釋,例如研究能夠最大化某類預測得分的輸入模式。進一步探究隱藏神經元的含義,理解[17]、[22]的整個預測過程。近年來對[23]、[24]、[25]、[26]等方法進行了較為系統的評價和分類。然而,這些研究只關注圖像和文本域的解釋方法,忽略了深度圖模型的可解釋性。
近年來,圖神經網絡(Graph Neural network, GNN)越來越受歡迎,因為許多真實世界的數據都以圖形的形式表示,如社交網絡、化學分子和金融數據。其中,節點分類[27]、[28]、[29]、圖分類[6]、[30]、鏈路預測[31]、[32]、[33]等與圖相關的任務得到了廣泛的研究。此外,許多高級的GNN操作被提出來提高性能,包括圖卷積[5],[34],[35],圖注意力[36],[37],圖池化[38],[39],[40]。然而,與圖像和文本領域相比,圖模型的可解釋性研究較少,這是理解深度圖神經網絡的關鍵。近年來,人們提出了幾種解釋GNN預測的方法,如XGNN[41]、GNNExplainer [42]、PGExplainer[43]等。這些方法是從不同的角度發展起來的,提供了不同層次的解釋。此外,它仍然缺乏標準的數據集和度量來評估解釋結果。因此,需要對GNN解釋技術的方法和評價進行系統的綜述。
為此,本研究提供了對不同GNN解釋技術的系統研究。我們的目的是提供對不同方法的直觀理解和高層次的洞察,讓研究者選擇合適的探索方向。這項工作的貢獻總結如下:
本綜述提供了對深度圖模型的現有解釋技術的系統和全面的回顧。據我們所知,這是第一次也是唯一一次關于這一主題的綜述工作。
我們對現有的GNN解釋技術提出了一個新的分類方法。我們總結了每個類別的關鍵思想,并提供了深刻的分析。
我們詳細介紹了每種GNN解釋方法,包括其方法論、優缺點以及與其他方法的區別。
我們總結了常用的GNN解釋任務的數據集和評估指標。我們討論了它們的局限性,并推薦了幾個令人信服的度量標準。
通過將句子轉換為圖表,我們從文本領域構建了三個人類可理解的數據集。這些數據集不久將向公眾開放,并可直接用于GNN解釋任務。
GNN解釋性分類法
近年來,人們提出了幾種解釋深圖模型預測的方法。這些方法關注于圖模型的不同方面,并提供不同的視圖來理解這些模型。他們通常會回答幾個問題;其中一些是,哪個輸入邊更重要?哪個輸入節點更重要?哪個節點特性更重要?什么樣的圖形模式將最大化某個類的預測?為了更好地理解這些方法,我們為GNN提供了不同解釋技術的分類。我們分類法的結構如圖1所示。根據提供的解釋類型,不同的技術分為兩大類:實例級方法和模型級方法。
首先,實例級方法為每個輸入圖提供依賴于輸入的解釋。給出一個輸入圖,這些方法通過識別用于預測的重要輸入特征來解釋深度模型。根據獲得的重要度分數,我們將方法分為4個不同的分支:基于梯度/特征的方法[53]1,[50],基于微擾的方法[42],[53]0,[53]3,[52],[53],分解方法[53]2,[50],[54],[55],以及代理方法[56],[57],[58]。具體來說,基于梯度/特征的方法使用梯度或特征值來表示不同輸入特征的重要性。此外,基于擾動的方法監測預測的變化與不同的輸入擾動,以研究輸入的重要性得分。分解方法首先將預測得分(如預測概率)分解到最后一隱藏層的神經元中。然后逐層反向傳播這些分數,直到輸入空間,并使用這些分解后的分數作為重要分數。與此同時,對于給定的輸入示例,基于代理的方法首先從給定示例的鄰居中采樣數據集。接下來,這些方法擬合一個簡單的和可解釋的模型,如決策樹,以采樣數據集。然后使用代理模型的解釋來解釋最初的預測。第二,模型級方法不考慮任何特定的輸入實例來解釋圖神經網絡。獨立于輸入的解釋是高層次的,解釋一般行為。與instance level方法相比,這個方向的研究仍然較少。現有的模型級方法只有基于圖生成的XGNN[41]。它生成圖形模式來最大化某個類的預測概率,并使用這些圖形模式來解釋該類。
總之,這兩類方法從不同的角度解釋了深度圖模型。實例級方法提供了特定于示例的解釋,而模型級方法提供了高層次的見解和對深度圖模型如何工作的一般理解。要驗證和信任深度圖模型,需要人工監督檢查解釋。對于實例級方法,需要更多的人工監督,因為專家需要探索不同輸入圖的解釋。對于模型級方法,由于解釋是高層次的,因此涉及的人力監督較少。此外,實例級方法的解釋基于真實的輸入實例,因此它們很容易理解。然而,對模型級方法的解釋可能不是人類能夠理解的,因為獲得的圖形模式甚至可能不存在于現實世界中。總之,這兩種方法可以結合起來更好地理解深度圖模型,因此有必要對兩者進行研究。
自監督學習由于能夠避免標注大規模數據集的成本而受到歡迎。它能夠采用自定義的偽標簽作為監督,并將學習到的表示用于幾個下游任務。具體來說,對比學習最近已成為計算機視覺、自然語言處理(NLP)等領域的自主監督學習方法的主要組成部分。它的目的是將同一個樣本的增廣版本嵌入到一起,同時試圖將不同樣本中的嵌入推開。這篇論文提供了一個廣泛的自我監督的方法綜述,遵循對比的方法。本研究解釋了在對比學習設置中常用的借口任務,以及到目前為止提出的不同架構。接下來,我們將對圖像分類、目標檢測和動作識別等多個下游任務的不同方法進行性能比較。最后,我們總結了目前方法的局限性和需要進一步的技術和未來方向取得實質性進展。
概述:
隨著深度學習技術的發展,它已成為目前大多數智能系統的核心組件之一。深度神經網絡(DNNs)能夠從現有的大量數據中學習豐富的模式,這使得它在大多數計算機視覺(CV)任務(如圖像分類、目標檢測、圖像分割、動作識別)以及自然語言處理(NLP)任務(如句子分類、語言模型、機器翻譯等)中成為一種引人注目的方法。然而,由于手工標注數百萬個數據樣本的工作量很大,從標記數據中學習特征的監督方法已經幾乎達到了飽和。這是因為大多數現代計算機視覺系統(受監督的)都試圖通過查找大型數據集中數據點及其各自注釋之間的模式來學習某種形式的圖像表示。像GRAD-CAM[1]這樣的工作提出了一種技術,可以為模型所做的決策提供可視化的解釋,從而使決策更加透明和可解釋。
傳統的監督學習方法很大程度上依賴于可用的帶注釋的訓練數據的數量。盡管有大量的可用數據,但缺乏注解促使研究人員尋找替代方法來利用它們。這就是自監督方法在推動深度學習的進程中發揮重要作用的地方,它不需要昂貴的標注,也不需要學習數據本身提供監督的特征表示。
監督學習不僅依賴昂貴的注釋,而且還會遇到泛化錯誤、虛假的相關性和對抗攻擊[2]等問題。最近,自監督學習方法集成了生成和對比方法,這些方法能夠利用未標記的數據來學習潛在的表示。一種流行的方法是提出各種各樣的代理任務,利用偽標簽來幫助學習特征。諸如圖像inpainting、灰度圖像著色、拼圖游戲、超分辨率、視頻幀預測、視聽對應等任務已被證明是學習良好表示的有效方法。
生成式模型在2014年引入生成對抗網絡(GANs)[3]后得到普及。這項工作后來成為許多成功架構的基礎,如CycleGAN[4]、StyleGAN[5]、PixelRNN[6]、Text2Image[7]、DiscoGAN [8]等。這些方法激發了更多的研究人員轉向使用無標簽數據在自監督的設置下訓練深度學習模型。盡管取得了成功,研究人員開始意識到基于GAN的方法的一些并發癥。它們很難訓練,主要有兩個原因: (a)不收斂——模型參數發散很多,很少收斂; (b)鑒別器太過成功,導致生成網絡無法產生類似真實的假信號,導致學習無法繼續。此外,生成器和判別器之間需要適當的同步,以防止判別器收斂和生成器發散。
隨著web技術的發展,多模態或多視圖數據已經成為大數據的主要流,每個模態/視圖編碼數據對象的單個屬性。不同的模態往往是相輔相成的。這就引起了人們對融合多模態特征空間來綜合表征數據對象的研究。大多數現有的先進技術集中于如何融合來自多模態空間的能量或信息,以提供比單一模態的同行更優越的性能。最近,深度神經網絡展示了一種強大的架構,可以很好地捕捉高維多媒體數據的非線性分布,對多模態數據自然也是如此。大量的實證研究證明了深多模態方法的優勢,從本質上深化了多模態深特征空間的融合。在這篇文章中,我們提供了從淺到深空間的多模態數據分析領域的現有狀態的實質性概述。在整個調查過程中,我們進一步指出,該領域的關鍵要素是多模式空間的協作、對抗性競爭和融合。最后,我們就這一領域未來的一些方向分享我們的觀點。