自2012年卷積神經網絡(CNNs)在ImageNet任務中取得最佳性能以來,深度學習已成為解決計算機視覺、自然語言處理、語音識別和生物信息學任務的首選方法。然而,盡管表現令人印象深刻,神經網絡往往會做出過于置信的預測。為了構建更安全的機器學習系統,有必要對模型預測中的不確定性進行健壯的、可解釋的和可處理的估計。這對于錯誤成本高的應用至關重要,例如自動駕駛汽車控制、高風險的自動熟練程度評估以及醫療、金融和法律領域。本文的第一部分詳細討論了基于集成和單模型的不確定性估計方法,并提出了一種新的不確定性估計模型——先驗網絡。先前的網絡能夠使用單一的確定性神經網絡來模擬模型集成,它允許在與基于集成的方法相同的概率框架內確定不確定性的來源,但具有單一模型方法計算簡單和易于訓練。因此,先驗網絡結合了集成方法和單模型方法的優點來估計不確定性。在這篇論文中,先前的網絡是在一個范圍分類數據集上進行評估的,在檢測分布外輸入的任務上,它們的表現優于基線方法,如蒙特卡羅Dropout。本文的第二部分將深度學習和不確定性估計方法應用于非母語口語能力的自動評估。具體來說,基于深度學習的評分者和口語反應相關性評估系統是使用劍橋英語語言評估提供的BULATS和LinguaSkill考試數據構建的。本文前半部分討論和評估的不確定性估計基線方法,隨后應用于這些模型,并在拒絕由人工考官評分的預測和發現錯誤分類的任務上進行評估。
摘要:隨著深度學習技術的快速發展,許多研究者嘗試利用深度學習來解決文本分類問題,特別是在卷積神經網絡和循環神經網絡方面,出現了許多新穎且有效的分類方法。對基于深度神經網絡的文本分類問題進行分析,介紹卷積神經網絡、循環神經網絡、注意力機制等方法在文本分類中的應用和發展,分析多種典型分類方法的特點和性能,從準確率和運行時間方面對基礎網絡結構進行比較,表明深度神經網絡較傳統機器學習方法在用于文本分類時更具優勢,其中卷積神經網絡具有優秀的分類性能和泛化能力。在此基礎上,指出當前深度文本分類模型存在的不足,并對未來的研究方向進行展望。
//www.ecice06.com/article/2021/1000-3428/2121.htm
文本分類技術經歷了從專家系統到機器學習再到深度學習的發展過程。在20世紀80年代以前,基于規則系統的文本分類方法需要領域專家定義一系列分類規則,通過規則匹配判斷文本類別。基于規則的分類方法容易理解,但該方法依賴專家知識,系統構建成本高且可移植性差。20世紀90年代,機器學習技術逐漸走向成熟,出現了許多經典的文本分類算法,如決策樹[1]、樸素貝葉斯[2]、支持向量機[3]、最大熵[4]、最近鄰[5]等,這些方法部分克服了上述缺點,一定程度上實現了分類器的自動生成,被廣泛應用于各個領域。然而,機器學習方法在構建分類器之前通常需要繁雜的人工特征工程,這限制了其進一步發展。
2012年之后,深度學習算法引起了研究者的廣泛關注。深度學習為機器學習建模提供了一種直接端到端的解決方案,可避免復雜的特征工程。GolVe[6]和word2vec[7]等詞向量模型的提出,使深度學習算法成功地應用到文本處理領域,隨后出現了各種基于深度神經網絡(Deep Neural Network,DNN)的文本分類方法。這些方法主要采用卷積神經網絡(Convolutional Neural Network,CNN)、循環神經網絡(Recurrent Neural Network,RNN)和注意力機制等深度學習技術,并且取得了比傳統方法更為出色的性能。近年來,圖卷積網絡(Graph Convolutional Network,GCN)、區域嵌入和元學習等一些新的深度學習方法也被應用于文本分類領域。
本文對基于深度神經網絡的文本分類技術進行介紹和分析,闡述卷積神經網絡、循環神經網絡和注意力機制等方法在文本分類中的應用和發展情況,總結各類方法的特點及區別,并對不同方法的性能表現和適用場景進行比較,討論在應用深度學習方法處理文本分類任務時應當注意的問題。在此基礎上,指出針對該技術未來的研究方向。
一個綜合的人工智能系統應該不止能“感知”環境,還要能“推斷”關系及其不確定性。深度學習在各類感知的任務中表現很不錯,如圖像識別,語音識別。然而概率圖模型更適用于inference的工作。這篇survey提供了貝葉斯深度學習(Bayesian Deep Learning, BDL)的基本介紹以及其在推薦系統,話題模型,控制等領域的應用。
基于深度學習的人工智能模型往往精于 “感知” 的任務,然而光有感知是不夠的,“推理” 是更高階人工智能的重要組成部分。比方說醫生診斷,除了需要通過圖像和音頻等感知病人的癥狀,還應該能夠推斷癥狀與表征的關系,推斷各種病癥的概率,也就是說,需要有“thinking”的這種能力。具體而言就是識別條件依賴關系、因果推斷、邏輯推理、處理不確定性等。
概率圖模型(PGM)能夠很好處理概率性推理問題,然而PGM的弊端在于難以應付大規模高維數據,比如圖像,文本等。因此,這篇文章嘗試將二者結合,融合到DBL的框架之中。
比如說在電影推薦系統中,深度學習適于處理高維數據,比如影評(文本)或者海報(圖像);而概率圖模型適于對條件依賴關系建模,比如觀眾和電影之間的網絡關系。
從uncertainty的角度考慮,BDL適合于去處理這樣的復雜任務。復雜任務的參數不確定性一般有如下幾種:(1)神經網絡的參數不確定性;(2)與任務相關的參數不確定性;(3)perception部分和task-specific部分信息傳遞的不確定性。通過將未知參數用概率分布而不是點估計的方式表示,能夠很方便地將這三種uncertainty統一起來處理(這就是BDL框架想要做的事情)。
另外BDL還有 “隱式的”正則化作用,在數據缺少的時候能夠避免過擬合。通常BDL由兩部分組成:perception模塊和task-specific模塊。前者可以通過權值衰減或者dropout正則化(這些方法擁有貝葉斯解釋),后者由于可以加入先驗,在數據缺少時也能較好地進行建模。
當然,BDL在實際應用中也存在著挑戰,比如時間復雜性的問題,以及兩個模塊間信息傳遞的有效性。
在優化和決策過程中,不確定性量化(UQ)在減少不確定性方面起著至關重要的作用。它可以應用于解決科學和工程中的各種實際應用。貝葉斯逼近和集成學習技術是目前文獻中使用最廣泛的兩種UQ方法。在這方面,研究者們提出了不同的UQ方法,并在計算機視覺(如自動駕駛汽車和目標檢測)、圖像處理(如圖像恢復)、醫學圖像分析(如醫學圖像分類和分割)、自然語言處理(如文本分類、社交媒體文本和再犯風險評分)、生物信息學得到廣泛應用。本研究綜述了UQ方法在深度學習中的最新進展。此外,我們還研究了這些方法在強化學習(RL)中的應用。然后,我們概述了UQ方法的幾個重要應用。最后,我們簡要地強調了UQ方法面臨的基本研究挑戰,并討論了該領域的未來研究方向。
摘要:
在日常情景中,我們處理很多領域的不確定性,從投資機會和醫療診斷到體育比賽和天氣預報,目的是根據收集的觀察和不確定的領域知識進行決策。現在,我們可以依靠使用機器和深度學習技術開發的模型來量化不確定性來完成統計推斷[1]。在人工智能(AI)系統使用[2]之前,對其效能進行評估是非常重要的。這種模型的預測具有不確定性,除了存在不確定性的歸納假設外,還容易出現噪聲和錯誤的模型推斷。因此,在任何基于人工智能的系統中,以一種值得信賴的方式表示不確定性是非常可取的。通過有效地處理不確定性,這樣的自動化系統應該能夠準確地執行。不確定性因素在人工智能中扮演著重要的角色
不確定性的來源是當測試和訓練數據不匹配,由于類重疊或由于數據[6]中存在噪聲而產生的不確定性。估計知識的不確定性要比數據的不確定性困難得多,數據的不確定性自然是通過極大似然訓練來度量的。預測中的不確定性來源對于解決不確定性估計問題[7]至關重要。不確定性有兩個主要來源,在概念上稱為aleatoric和epistemic不確定性8。
數據中的不可約不確定性導致預測中的不確定性是一種可選不確定性(也稱為數據不確定性)。這種類型的不確定性不是模型的屬性,而是數據分布的固有屬性;因此它是不可約的。不確定性的另一種類型是認知不確定性(也稱為知識不確定性),它是由于知識和數據的不足而產生的。人們可以定義模型來回答基于模型預測中的不同人類問題。在數據豐富的情況下,有大量的數據收集,但它可能是信息差的[10]。在這種情況下,可以使用基于人工智能的方法定義有效的模型,表征數據特征。通常這些數據是不完整的,有噪聲的,不一致的和多模態的[1]。
不確定性量化(UQ)是當今許多關鍵決策的基礎。沒有UQ的預測通常是不可靠和不準確的。為了理解深度學習(DL)[11],[12]過程生命周期,我們需要理解UQ在DL中的作用。DL模型首先收集可用于決策過程的最全面和潛在相關的數據集。DL場景的設計是為了滿足某些性能目標,以便在使用標記數據訓練模型之后選擇最合適的DL架構。迭代訓練過程優化不同的學習參數,這些參數將被“調整”,直到網絡提供令人滿意的性能水平。
在涉及的步驟中,有幾個不確定因素需要加以量化。很明顯的不確定性這些步驟如下:(i)選擇和訓練數據的集合,(ii)訓練數據的完整性和準確性,(3)理解DL(或傳統機器學習)模型與性能范圍及其局限性,和(iv)不確定性對應基于操作數據的性能模型[13]。數據驅動的方法,如與UQ相關的DL提出了至少四組重疊的挑戰:(1)缺乏理論,(2)缺乏臨時模型,(3)對不完美數據的敏感性,以及(4)計算費用。為了緩解這些挑戰,有時會采用模型變異性研究和敏感性分析等特殊解決方案。不確定性估計和量化在數字學習和傳統機器學習中得到了廣泛的研究。在下面,我們提供一些最近的研究的簡要總結,這些研究檢驗了處理不確定性的各種方法的有效性。
圖2給出了三種不同不確定度模型[9](MC dropout, Boostrap模型和GMM模型)的示意圖比較。此外,不確定性感知模型(BNN)與OoD分類器的兩種圖形表示如圖3所示。
在大數據時代,ML和DL,智能使用不同的原始數據有巨大的潛力,造福于廣泛的領域。然而,UQ在不同的ML和DL方法可以顯著提高其結果的可靠性。Ning等人總結并分類了不確定性下數據驅動優化范式的主要貢獻。可以看出,本文只回顧了數據驅動的優化。在另一項研究中,Kabir等人[16]回顧了基于神經網絡的UQ。作者關注概率預測和預測區間(pi),因為它們是UQ文獻中最廣泛使用的技術之一。
我們注意到,從2010年到2020年(6月底),在各個領域(如計算機視覺、圖像處理、醫學圖像分析、信號處理、自然語言處理等)發表了超過2500篇關于AI中UQ的論文。與以往UQ領域的文獻綜述不同,本研究回顧了最近發表的使用不同方法定量AI (ML和DL)不確定性的文章。另外,我們很想知道UQ如何影響真實案例,解決AI中的不確定性有助于獲得可靠的結果。與此同時,在現有的研究方法中尋找重要的談話是一種很好的方式,為未來的研究指明方向。在這方面,本文將為ML和DL中UQ的未來研究人員提供更多的建議。我們調查了UQ領域應用于ML和DL方法的最新研究。因此,我們總結了ML和DL中UQ的一些現有研究。值得一提的是,本研究的主要目的并不是比較提出的不同UQ方法的性能,因為這些方法是針對不同的數據和特定的任務引入的。由于這個原因,我們認為比較所有方法的性能超出了本研究的范圍。因此,本研究主要關注DL、ML和強化學習(RL)等重要領域。因此,本研究的主要貢獻如下:
【導讀】牛津大學的博士生Oana-Maria Camburu撰寫了畢業論文《解釋神經網絡 (Explaining Deep Neural Networks)》,系統性介紹了深度神經網絡可解釋性方面的工作,值得關注。
作者介紹:
Oana-Maria Camburu,來自羅馬尼亞,目前是牛津大學的博士生,主修機器學習、人工智能等方向。
Explaining Deep Neural Networks
深度神經網絡在計算機視覺、自然語言處理和語音識別等不同領域取得了革命性的成功,因此越來越受歡迎。然而,這些模型的決策過程通常是無法向用戶解釋的。在各種領域,如醫療保健、金融或法律,了解人工智能系統所做決策背后的原因至關重要。因此,最近研究了幾個解釋神經模型的方向。
在這篇論文中,我研究了解釋深層神經網絡的兩個主要方向。第一個方向由基于特征的事后解釋方法組成,也就是說,這些方法旨在解釋一個已經訓練過的固定模型(事后解釋),并提供輸入特征方面的解釋,例如文本標記和圖像的超級像素(基于特征的)。第二個方向由生成自然語言解釋的自解釋神經模型組成,也就是說,模型有一個內置模塊,為模型的預測生成解釋。在這些方面的貢獻如下:
首先,我揭示了僅使用輸入特征來解釋即使是微不足道的模型也存在一定的困難。我表明,盡管有明顯的隱含假設,即解釋方法應該尋找一種特定的基于真實值特征的解釋,但對于預測通常有不止一種這樣的解釋。我還展示了兩類流行的解釋方法,它們針對的是不同類型的事實基礎解釋,但沒有明確地提及它。此外,我還指出,有時這兩種解釋都不足以提供一個實例上決策過程的完整視圖。
其次,我還介紹了一個框架,用于自動驗證基于特征的事后解釋方法對模型的決策過程的準確性。這個框架依賴于一種特定類型的模型的使用,這種模型有望提供對其決策過程的洞察。我分析了這種方法的潛在局限性,并介紹了減輕這些局限性的方法。引入的驗證框架是通用的,可以在不同的任務和域上實例化,以提供現成的完整性測試,這些測試可用于測試基于特性的后特殊解釋方法。我在一個情緒分析任務上實例化了這個框架,并提供了完備性測試s1,在此基礎上我展示了三種流行的解釋方法的性能。
第三,為了探索為預測生成自然語言解釋的自解釋神經模型的發展方向,我在有影響力的斯坦福自然語言推斷(SNLI)數據集之上收集了一個巨大的數據集,數據集約為570K人類編寫的自然語言解釋。我把這個解釋擴充數據集稱為e-SNLI。我做了一系列的實驗來研究神經模型在測試時產生正確的自然語言解釋的能力,以及在訓練時提供自然語言解釋的好處。
第四,我指出,目前那些為自己的預測生成自然語言解釋的自解釋模型,可能會產生不一致的解釋,比如“圖像中有一只狗。”以及“同一幅圖片中沒有狗”。不一致的解釋要么表明解釋沒有忠實地描述模型的決策過程,要么表明模型學習了一個有缺陷的決策過程。我將介紹一個簡單而有效的對抗性框架,用于在生成不一致的自然語言解釋時檢查模型的完整性。此外,作為框架的一部分,我解決了使用精確目標序列的對抗性攻擊的問題,這是一個以前在序列到序列攻擊中沒有解決的場景,它對于自然語言處理中的其他任務很有用。我將這個框架應用到e-SNLI上的一個最新的神經模型上,并表明這個模型會產生大量的不一致性。
這項工作為獲得更穩健的神經模型以及對預測的可靠解釋鋪平了道路。
當前的深度學習研究以基準評價為主。如果一種方法在專門的測試集上有良好的經驗表現,那么它就被認為是有利的。這種心態無縫地反映在持續學習的重現領域,在這里研究的是持續到達的基準數據集。核心挑戰是如何保護之前獲得的表示,以免由于迭代參數更新而出現災難性地遺忘的情況。然而,各個方法的比較是與現實應用程序隔離的,通常通過監視累積的測試集性能來判斷。封閉世界的假設仍然占主導地位。假設在部署過程中,一個模型保證會遇到來自與用于訓練的相同分布的數據。這帶來了一個巨大的挑戰,因為眾所周知,神經網絡會對未知的實例提供過于自信的錯誤預測,并在數據損壞的情況下崩潰。在這個工作我們認為值得注意的教訓來自開放數據集識別,識別的統計偏差以外的數據觀測數據集,和相鄰的主動學習領域,數據增量查詢等預期的性能收益最大化,這些常常在深度學習的時代被忽略。基于這些遺忘的教訓,我們提出了一個統一的觀點,以搭建持續學習,主動學習和開放集識別在深度神經網絡的橋梁。我們的結果表明,這不僅有利于每個個體范式,而且突出了在一個共同框架中的自然協同作用。我們從經驗上證明了在減輕災難性遺忘、主動學習中查詢數據、選擇任務順序等方面的改進,同時在以前提出的方法失敗的地方展示了強大的開放世界應用。
//www.zhuanzhi.ai/paper/e5bee7a1e93a93ef97e1c
概述:
隨著實用機器學習系統的不斷成熟,社區發現了對持續學習[1]、[2]的興趣。與廣泛練習的孤立學習不同,在孤立學習中,系統的算法訓練階段被限制在一個基于先前收集的i.i.d數據集的單一階段,持續學習需要利用隨著時間的推移而到來的數據的學習過程。盡管這種范式已經在許多機器學習系統中找到了各種應用,回顧一下最近關于終身機器學習[3]的書,深度學習的出現似乎已經將當前研究的焦點轉向了一種稱為“災難性推理”或“災難性遺忘”的現象[4],[5],正如最近的評論[6],[7],[8],[9]和對深度持續學習[8],[10],[11]的實證調查所表明的那樣。后者是機器學習模型的一個特殊效應,機器學習模型貪婪地根據給定的數據群更新參數,比如神經網絡迭代地更新其權值,使用隨機梯度估計。當包括導致數據分布發生任何變化的不斷到達的數據時,學習到的表示集被單向引導,以接近系統當前公開的數據實例上的任何任務的解決方案。自然的結果是取代以前學到的表征,導致突然忘記以前獲得的信息。
盡管目前的研究主要集中在通過專門機制的設計來緩解持續深度學習中的這種遺忘,但我們認為,一種非常不同形式的災難性遺忘的風險正在增長,即忘記從過去的文獻中吸取教訓的危險。盡管在連續的訓練中保留神經網絡表示的努力值得稱贊,但除了只捕獲災難性遺忘[12]的度量之外,我們還高度關注了實際的需求和權衡,例如包括內存占用、計算成本、數據存儲成本、任務序列長度和訓練迭代次數等。如果在部署[14]、[15]、[16]期間遇到看不見的未知數據或小故障,那么大多數當前系統會立即崩潰,這幾乎可以被視為誤導。封閉世界的假設似乎無所不在,即認為模型始終只會遇到與訓練過程中遇到的數據分布相同的數據,這在真實的開放世界中是非常不現實的,因為在開放世界中,數據可以根據不同的程度變化,而這些變化是不現實的,無法捕獲到訓練集中,或者用戶能夠幾乎任意地向系統輸入預測信息。盡管當神經網絡遇到不可見的、未知的數據實例時,不可避免地會產生完全沒有意義的預測,這是眾所周知的事實,已經被暴露了幾十年了,但是當前的努力是為了通過不斷學習來規避這一挑戰。選擇例外嘗試解決識別不可見的和未知的示例、拒絕荒謬的預測或將它們放在一邊供以后使用的任務,通常總結在開放集識別的傘下。然而,大多數現有的深度連續學習系統仍然是黑盒,不幸的是,對于未知數據的錯誤預測、數據集的異常值或常見的圖像損壞[16],這些系統并沒有表現出理想的魯棒性。
除了目前的基準測試實踐仍然局限于封閉的世界之外,另一個不幸的趨勢是對創建的持續學習數據集的本質缺乏理解。持續生成模型(如[17]的作者的工作,[18],[19],[20],[21],[22]),以及類增量持續學習的大部分工作(如[12]中給出的工作,[23],[24],[25],[26],[27],[28])一般調查sequentialized版本的經過時間考驗的視覺分類基準如MNIST [29], CIFAR[30]或ImageNet[31],單獨的類只是分成分離集和序列所示。為了在基準中保持可比性,關于任務排序的影響或任務之間重疊的影響的問題通常會被忽略。值得注意的是,從鄰近領域的主動機器學習(半監督學習的一種特殊形式)中吸取的經驗教訓,似乎并沒有整合到現代的連續學習實踐中。在主動學習中,目標是學會在讓系統自己查詢接下來要包含哪些數據的挑戰下,逐步地找到與任務解決方案最接近的方法。因此,它可以被視為緩解災難性遺忘的對抗劑。當前的持續學習忙于維護在每個步驟中獲得的信息,而不是無休止地積累所有的數據,而主動學習則關注于識別合適的數據以納入增量訓練系統的補充問題。盡管在主動學習方面的早期開創性工作已經迅速識別出了通過使用啟發式[32]、[33]、[34]所面臨的強大應用的挑戰和陷阱,但后者在深度學習[35]、[36]、[37]、[38]的時代再次占據主導地位,這些挑戰將再次面臨。
在這項工作中,我們第一次努力建立一個原則性和鞏固的深度持續學習、主動學習和在開放的世界中學習的觀點。我們首先單獨回顧每一個主題,然后繼續找出在現代深度學習中似乎較少受到關注的以前學到的教訓。我們將繼續爭論,這些看似獨立的主題不僅從另一個角度受益,而且應該結合起來看待。在這個意義上,我們建議將當前的持續學習實踐擴展到一個更廣泛的視角,將持續學習作為一個總括性術語,自然地包含并建立在先前的主動學習和開放集識別工作之上。本文的主要目的并不是引入新的技術或提倡一種特定的方法作為通用的解決方案,而是對最近提出的神經網絡[39]和[40]中基于變分貝葉斯推理的方法進行了改進和擴展,以說明一種走向全面框架的可能選擇。重要的是,它作為論證的基礎,努力闡明生成建模作為深度學習系統關鍵組成部分的必要性。我們強調了在這篇論文中發展的觀點的重要性,通過實證證明,概述了未來研究的含義和有前景的方向。