亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

雖然深度學習技術在雷達圖像處理任務中獲得了部分應用, 但缺乏對黑盒模型的可解釋性分 析和全面的性能評估, 限制了該技術在雷達圖像領域中的應用性能、可信度和廣泛性. 本文從可解釋 性入手, 提出了雷達圖像深度學習黑盒模型分析思路, 在開源 MSTAR 雷達圖像數據集上進行實驗驗 證. 從深度學習模型的遷移機制和認知機理兩個方面進行分析, 得到了關于遷移學習、歸因方法應用 和模型魯棒性評估方面的相關結論, 填補了現有研究的空白.

近些年來, 深度學習技術正逐步從光學圖像領域應用到雷達圖像領域, 在雷達目標識別、場景分 類和目標檢測等雷達圖像處理任務中取得了部分研究成果 [1, 2] . 目前深度學習模型在以上任務中表現 出了優良性能, 但仍存在一些尚待研究的問題. 一是需要根據雷達與光學圖像的顯著差異性, 進一步解釋深度學習模型在雷達圖像領域中的遷移 機制, 指導雷達圖像深度學習模型的優化設計. 由于雷達與光學成像機理不同, 所得到的圖像為目標 散射點分布. 如圖 1 所示, 在 MSTAR 數據集 [3] 中表現為呈離散分布、強度不同的散射點, 與所對應 的光學圖像之間存在明顯差異. 將在光學圖像領域中取得成功應用的深度學習模型遷移到雷達圖像領 域時, 應當充分考慮這種差異性. 文獻 [2] 梳理了小樣本條件下基于遷移學習的雷達圖像目標識別方 法, 部分研究針對兩者的差異性設計了相應方法提高目標識別率, 但缺乏對其遷移機制影響的深入分 析, 可解釋性研究有望為深度學習模型在雷達圖像領域中的設計與優化提供全新的視角和知識. 二是由于雷達圖像目標之間、目標與背景之間具有較強相似性, 需要對深度學習模型認知機理的 分析評估, 保證其在實際任務中的應用性能和可信度. 如圖 1 所示, 這種相似性給人的認知和理解帶來了極大的困難, 需要分析模型是否正確表征了目標信息. 目前對于模型的分析評估大多依賴于識別 率, 對實際任務而言, 識別率是對問題的不充分描述, 這可能會使得模型出現錯誤, 例如模型利用背景 信息的相關性提高識別率. 文獻 [4] 提到華盛頓大學 (University of Washington) 的一項實驗, 旨在創建 哈士奇與狼的識別器, 但模型實際上是根據背景是否存在積雪來進行識別的, 學習到的是背景干擾與 識別結果的強相關性, 而不是目標特征與識別結果之間的因果性. 文獻 [5] 同樣指出, 在測試集上的高 識別率并不能保證模型學習到正確的特征表征. 僅靠識別率等性能指標不能保證模型在實際任務中正 常工作, 也不能滿足在某些關鍵任務 (如醫療、交通和軍事等) 中人們的認知和決策需要. 因此, 只有 對深度學習模型認知機理的分析說明和識別結果的可信解釋, 才能提高人們對于其黑盒模型的信任, 保證人們依靠其作出相應決策.

針對以上兩個問題, 本文將使用可解釋性方法 [6, 7] 作為分析工具從兩方面展開研究. 一是通過可 解釋性方法對比分析雷達和光學圖像對深度學習模型的影響, 獲取其黑盒模型內部知識, 解釋深度學 習模型遷移機制, 從而進一步理解應用深度學習技術. 二是通過主觀分析和客觀指標評估可解釋性方 法和深度學習模型, 從而在準確性和魯棒性方面得到可信結論, 以此對其黑盒模型的認知機理作出分 析評估, 為實際決策提供幫助. 目前可解釋性方法可分為事后解釋 (post-hoc) 方法和事前設計 (ante-hoc) 方法. 事后解釋方法 針對已經訓練好、不具備可解釋性的黑盒模型進行研究, 通過可視化展示模型內部結構、基于歸因 方法 (attribution algorithms) 分析模型識別重點、使用特定輸入研究模型、比較不同模型結構性能 等方式, 挖掘模型內部知識和解釋模型認知機理. Zeiler 等 [8] 提出反卷積 (deconvnet) 的分析方法. Simonyan 等 [9] 提出兩種基于梯度的分析方法. Szegedy 等 [10] 通過單元分析方法探索神經元的語義 信息, 并發現了對抗樣本. Frankle 等 [11] 提出樂透假設 (lottery ticket hypothesis) 發現訓練成功的大 型網絡中包含一個相同性能的稀疏子網絡. 事前設計方法構建具有明確語義或物理信息的模型, 可將在數學物理上具有明確意義的方法與深 度學習模型相結合, 提高模型的可解釋性. 如通過知識蒸餾結合神經網絡和結構化的邏輯規則 [12] ; 利 用注意力機制同時生成圖像和文本解釋 [13] ; 貝葉斯 (Bayes) 深度學習將深度學習模型的感知能力和 貝葉斯模型的因果邏輯推理能力相結合 [14] ; Gu 等 [15] 基于最優傳輸理論得到了半透明的生成對抗網絡. 事前設計方法也可設計本身在語義、物理等層面上具有可解釋性的模型. Sabour 等 [16] 提出膠囊 網絡 (capsule network) 模型, 膠囊單元不同維度表征了手寫數字的語義信息; Zhang 等 [17] 設計了一 種帶有可解釋性的卷積核. 當前, 有關雷達圖像領域的深度學習可解釋性方面研究較少. 郭煒煒 [18] 討論了關于合成孔徑雷 達 (synthetic aperture radar, SAR) 圖像目標識別的可解釋問題, 從模型理解、模型診斷和模型改進等 方面進行了初步探討, 但暫無對雷達圖像深度學習黑盒模型可解釋性的具體實驗研究. 本文結合目前深度學習可解釋性方面的研究進展, 以雷達目標識別任務為例, 在 MSTAR 的 SAR 圖像數據集上進行事后解釋方法的實驗分析, 實驗結果有效揭示了深度學習模型在雷達圖像領域中的 遷移機制和認知機理, 并且詳細地提供了相應的分析思路和結論, 填補了當前對雷達圖像深度學習黑 盒模型可解釋性的研究空白. 主要貢獻如下: (1) 基于事后分析方法提出了雷達圖像深度學習黑盒模型分析思路, 為可解釋性方法在雷達圖像 領域中的應用奠定基礎; (2) 通過實驗比較分析了雷達和光學圖像對于模型內部的影響, 得到了關于深度學習在雷達圖像 領域中遷移機制的分析結論; (3) 通過歸因方法分析了深度學習黑盒模型的認知機理, 從可解釋性角度提出了 SAR 目標識別模 型魯棒性評估的新方法.

本文后續結構組織如下: 第 2 節介紹相關工作, 第 3 節面向雷達圖像領域提出深度學習黑盒模型 分析思路, 第 4 節依據所提思路進行實驗驗證, 第 5 節對全文總結并提出下一步研究方向.

付費5元查看完整內容

相關內容

 機器學習的一個分支,它基于試圖使用包含復雜結構或由多重非線性變換構成的多個處理層對數據進行高層抽象的一系列算法。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

?作者 | ****戴恩炎,趙天翔,王蘇杭 單位 | ****賓夕法尼亞州立大學

對于可信圖神經網絡(Trustworthy Graph Neural Networks)在隱私(privacy),魯棒性(robustness),公平(fairness)和可解釋性(explainability) 的研究工作,我們進行了系統的梳理和討論。對于可信賴所要求的各個方面,我們將現有概念和方法歸類并提煉出各類的通用框架。同時我們也給出了代表性工作和前沿方法的具體細節。對于未來的工作方向,我們也進行了探討。

論文標題:

A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy, Robustness, Fairness, and Explainability

論文鏈接:

在現實應用當中,大量的數據列如交通網絡,社交網絡,知識圖譜乃至蛋白質結構,都是以圖的形式存在的。圖神經網絡(GNNs)將深度學習拓展到圖結構數據的處理和建模。典型的圖神經網絡會匯聚鄰居節點(neighbor node)的信息來增強目標節點(target node)來獲取更強的特征。這種被稱作 message-passing 的機制使得圖神經網絡在處理圖結構數據上取得了巨大成功并被廣泛應用到日常生活。例如,Pinterest 就應用了 GNNs 在他們的圖片推薦系統當中。一些將 GNNs 應用到信用評估等金融領域的工作也已開展。但是正如深度學習那樣,GNNs 在于可信賴性方面仍然存在很多問題:

在 GNNs 的應用中,隱私魯棒性并不能得到保證。黑客可以對基于 GNNs 的服務進行隱私攻擊或者對抗攻擊。如通過 GNNs 獲得的 node embedding,攻擊者可以推斷用戶的私人信息。他們也可以采取各種方式如添加虛假聯結去欺騙圖神經網絡模型。比如應用在金融風險評估的 GNNs 就可能被攻擊,對個人,企業和社會帶來重大損失。

圖神經網絡本身也有在公平性可解釋性的缺陷。現有研究已經證明圖神經網絡的結構會進一步加強隱藏在數據中的偏見,從而導致做出對年齡、性別、種族等帶有歧視的決策。另一方面,由于模型深度導致的高度非線性, GNNs 模型給出預測難以被理解,這大大限制了 GNNs 在實際場景中的應用。

以上的這些問題都阻礙了 GNNs 在高風險場景如金融和醫療領域進一步的發展。因此可信賴圖神經網絡的構建已經成為了熱門方向。在我們的綜述中 [6],我們對已有的可信賴圖神經網絡在隱私,魯棒性,公平性和可解釋性方面進行了總結歸納,并展望了進一步的工作方向。接下來在這篇博客中,我們將簡要的介紹綜述的框架及所包含的具體方向。

▲ Figure 1. 關于隱私章節的綜述結構.

隱私(Privacy)

模型訓練集中的隱私信息可能會在發布的模型或者提供的服務泄露。然而現有的綜述論文多以討論在圖像和文本這類數據的隱私問題,其中討論的方法難以拓展到圖數據結構和采用 message-passing 架構的圖神經網絡。因此我們對隱私攻擊(privacy attacks)以及圖神經網絡的隱私保護(privacy-preserving GNNs)進行了概述總結。囊括的概念和方法都列在圖 1 之中。首先,我們對隱私攻擊方法總結出了統一的框架。 然后,我們詳細介紹了四種隱私攻擊:Membership Inference Attack, Reconstruction Attack,Property Inference Attack 和 Model Extraction Attack。至于圖神經網絡的隱私保護,我們在綜述中按照采用的方法將其歸類為差分隱私(differential privacy),聯邦學習(federated learning)和對抗隱私保護(adversarial privacy preserving)。 部分在文章討論過得方法也列舉在圖 1 之中。對于更多的技術細節以及相關方法請見于綜述論文第三章。這一章節還包含了不同領域的數據集以及圖神經網絡隱私保護的實際應用。同時我們發現對于一些類型的隱私攻擊如 Property Inference Attack 及 Model Extraction Attack 現在都缺乏行之有效的防御辦法。因此對于不同的隱私攻擊的防御會是一個未來的研究方向。其他的未來研究方向也在文章中進行了討論。更多細節請見原文。

▲ Figure 2. 關于魯棒性章節的綜述組織結構.

魯棒性(Robustness)

魯棒性是可信賴模型的另一個重要方面。由于 message-passing 機制和圖結構,GNNs 可能會被節點特征和圖結構上的對抗性擾動影響。例如,詐騙犯可以通過創造和一些特定高信用用戶的交易來逃過基于 GNNs 的詐騙檢測。所以研發魯棒的圖神經網絡對于一些安全風險較高的領域如醫療和金融是十分有必要的。 現在已有一些綜述文章討論在圖學習上的魯棒性。因此,我們專注于討論在這個領域內新興的研究方向如大規模攻擊(scalable attack),圖后門攻擊(graph backdoor attack)和最近的提出的防御方法。擾動采樣(perturbation sampling)和減少候選擾動(perturbation candidate reduction)便是對已有方法進行改進,從而實現對大規模網絡攻擊。另外,節點插入攻擊(node injection attack)作為添加擾動的時間復雜度與圖規模線性相關的方法也具備對大規模網絡攻擊的潛力。至于圖后門攻擊,已有方法較少,我們對其進行了細致的介紹。 對于圖對抗攻擊的防御方法,如圖 2 所示,我們將其歸類為:對抗訓練(adversarial training),可驗證魯棒性(certifiable robustness),圖去噪(graph denoising)及其他方法。在這些方向中,基于自監督(self-supervision)的方法未在以往綜述中被討論過。因此我們討論了如 SimP-GNN [1] 的一些基于自監督的防御方法。對于其他的方向,我們則討論了些最新的進展,比如可以同時處理標簽稀少和對抗攻擊的 RS-GNN [2]。關于圖神經網絡魯棒性的未來研究方向也包含在綜述當中,詳情請見綜述第四章。

▲ Figure 2. 關于公平性章節的綜述組織結構.

公平(Fairness)

我們最近的研究 [3] 表明 GNNs 中的 message-passing 機制相較于多層感知機(MLP)會加劇數據中的偏見。這也證明了針對圖神經網絡實現公平性是十分有必要的。最近有很多研究保證 GNNs 滿足不同公平性標準的工作涌現。因此我們對與這些工作進行了系統的回顧和歸納,整體的結構可參見圖 3。 首先我們介紹了兩類可能存在于圖結構數據的偏見:一類是廣泛存在各類數據如表格,文本和圖數據的偏見;另一類則是圖結構數據所特有的偏見。對于算法公平性的研究,其中一個最重要的問題就是如何定義和量化算法公平與否。所以我們還列舉出被 GNNs 公平性文獻廣泛采用的定義。這些公平性的定義多數適用于各種數據結構。只有 Dyadic fairness 是為鏈接預測任務設計,僅適用于圖結構數據。 對于實現 GNNs 公平性的算法,我們將其分類為對抗去偏(adversarial debiasing),公平性約束(fairness constraints)以及其他方法。部分我們討論的代表性方法在圖三當中也有列舉。在對抗去偏和公平性約束的已有方法的介紹中,我們首先分別歸納了其目標函數的統一形式。關于具體方法的各自確切目標函數也一一進行了介紹。由于需要用戶的隱私信息用于訓練和驗證公平圖神經網絡,可以用圖神經網絡公平性研究的數據集較難獲得。因此我們還列舉了各應用領域可用的數據集來幫助未來的研究。

▲ Figure 4. 關于可解釋章節的綜述結構.

可解釋性(Explainability)

由于復雜圖結構的離散型和高度的非線性,再加上 message-passing 機制在 GNNs 中的應用,圖神經網絡普遍缺乏可解釋性。而開發可解釋圖神經網絡(explainable GNNs)是十分關鍵的。因為提供的解釋可以讓參與者更信任圖神經網絡模型所做的預測。并且提供的解釋可以用來了解模型所學到的知識,據此我們可以評估現有模型是否帶有偏見或者已經被對抗攻擊影響。 因此已經有一些工作開展了可解釋 GNNs 的研究,我們在這里則對其進行了總結性回顧。對于可解釋 GNNs 的討論框架可見于圖 4。其中我們首先對可解釋性的應該考慮的各個方面進行了探討。之后我們對已有的解釋 GNNs 的方法分為 實例級事后(instance-level post-hoc),模型級事后(model-level post-hoc)以及自解釋方法(self-explainable)。 值得強調的是,其中的 self-explainable GNNs 是一個未被討論的新方向。因此我們詳述了 self-explainable GNNs 如 SE-GNN [4] 和 ProtGNN [5] 的技術細節。對于其他種類的方法,我們根據其采用的方法進一步分為多個子類。由于在現實世界的圖中很難獲得可以作為檢驗標準的解釋,因此數據集及其評估指標也是可解釋性研究的一大挑戰。雖然已有人造數據集以及部分現實數據集被應用,但是創造可解釋性的基準數據集仍會一個重要的研究方向。更多內容詳見我們的綜述原文。

? 團隊簡介

該綜述論文主要由賓夕法尼亞州立大學(PSU)王蘇杭助理教授團隊協作完成。其他主要貢獻作者包括戴恩炎和趙天翔。

戴恩炎是來自 PSU 的第三年 PhD 學生,他目前的主要科研方向為 Trustworthy Graph Neural Networks。趙天翔也是來自 PSU 的第三年 PhD 學生,他主要從事 Weakly-Supervised Graph Learning 方向的研究。王蘇杭教授對于數據挖掘和機器學習有著廣泛的興趣,最近的研究主要集中于圖神經網絡的各個方向如 Trustworthiness, self-supervision, weak-supervision 和 heterophilic graph learning, deep generative models 和 causal recommender systems。

參考文獻

[1] Jin, Wei, Tyler Derr, Yiqi Wang, Yao Ma, Zitao Liu, and Jiliang Tang. "Node similarity preserving graph convolutional networks." In Proceedings of the 14th ACM International Conference on Web Search and Data Mining, pp. 148-156. 2021.

[2] Dai, Enyan, Wei Jin, Hui Liu, and Suhang Wang. "Towards Robust Graph Neural Networks for Noisy Graphs with Sparse Labels." Proceedings of the 15th ACM International Conference on Web Search and Data Mining. 2022. [3] Dai, Enyan, and Suhang Wang. "Say no to the discrimination: Learning fair graph neural networks with limited sensitive attribute information." Proceedings of the 14th ACM International Conference on Web Search and Data Mining. 2021. [4] Dai, Enyan, and Suhang Wang. "Towards Self-Explainable Graph Neural Network." Proceedings of the 30th ACM International Conference on Information & Knowledge Management. 2021. [5] Zhang, Zaixi, Qi Liu, Hao Wang, Chengqiang Lu, and Cheekong Lee. "ProtGNN: Towards Self-Explaining Graph Neural Networks." arXiv preprint arXiv:2112.00911 (2021). [6] Dai, Enyan, Tianxiang Zhao, Huaisheng Zhu, Junjie Xu, Zhimeng Guo, Hui Liu, Jiliang Tang, and Suhang Wang. "A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy, Robustness, Fairness, and Explainability." arXiv preprint arXiv:2204.08570 (2022).

付費5元查看完整內容

摘要

遷移學習是指從源領域提取可遷移知識并將其重用到目標領域的行為,已成為人工智能領域的研究熱點。概率圖模型(PGMs)作為一種建模復雜系統的強大工具,具有處理不確定性的能力和良好的可解釋性。考慮到上述兩個研究領域的成功,將PGMs應用于遷移學習似乎是很自然的。然而,盡管在文獻中已經有一些優秀的遷移學習特異性PGMs,但PGMs在這一問題上的潛力仍然被嚴重低估。本文旨在通過以下幾個方面促進遷移學習的知識遷移模型的發展:1)考察遷移學習的知識遷移模型的試點研究,即分析和總結現有的專門設計的知識遷移機制;2)討論現有PGM成功應用于實際遷移問題的例子;3)利用PGM探討遷移學習的幾個潛在研究方向。

引言

遷移學習是從源領域中提取可遷移的知識,并在目標領域中重用該知識的行為,這是一種自然的人類現象,即使對于非常小的兒童(Brown & Kane, 1988)。形式定義如下(Pan & Yang, 2010):“給定源域DS = {XS, PS(X)}和目標域DT = {XT, PT (X)},遷移學習的目的是借助DS改進DT中的學習任務,其中X為特征空間,P(X)為數據分布。”當XS = XT時,為同質遷移學習;當XS= XT時,為異質遷移學習。需要注意的是,遷移學習可以被看作是前面提到的問題,也可以看作是解決這個問題的方法。一個經典的激勵例子是產品評論的跨領域(如電影和計算機領域) 情感預測: 1) 在電影領域有大量的標簽產品評論,因此可以訓練一個分類器,并應用于該領域的預測; 2)新計算機的評論標簽不足以訓練分類器進行進一步的情感預測; 3) 一個簡單的想法是直接來自電影領域的分類器應用到新電腦領域考慮兩個域之間的相似之處(例如,人們傾向于使用類似的詞語來表達他們的喜歡或不喜歡在不同的產品), 但它并不總是工作很可能導致負遷移(Weiss, Khoshgoftaar, & Wang, 2016). 因為它們在不同的上下文中存在差異(例如,在電影領域中,“觸摸我的心”是褒義詞,而在計算機領域中,“觸摸板”是中義詞)。如何結合源域和目標域提取可遷移知識是遷移學習的藝術。在文獻中,有幾個與遷移學習密切相關的概念誤導了讀者,如樣本選擇偏差、協變量轉移、類別不平衡、領域適應和多任務學習。(Pan & Yang, 2010)的研究試圖根據源域和目標域的設置來區分和組織它們,例如目標域中是否有標記數據。本文并沒有明確區分它們,但我們認為它們都是遷移學習。對這些概念及其區別的進一步討論可以在(Pan & Yang, 2010;Weiss et al., 2016)。識別、建模和利用兩個領域之間可遷移的知識的能力不僅提高了具體現實問題的性能,而且在促進機器人在沒有任何人類干預的情況下的自學習(像人類)方面邁出了重要的一步。想象一下這樣的場景:一個智能機器人面臨一個自己沒有知識的新問題,它向其他類似領域的機器人尋求幫助,并向他們學習,問題就解決了。因此,我們認為遷移學習不僅在統計機器學習領域,而且在機器人甚至一般人工智能領域都有很好的前景。

概率圖模型(PGM) (Wainwright, Jordan等,2008;Koller & Friedman, 2009)是統計機器學習的一個重要分支,它是一個豐富的框架,用于通過概率分布或隨機過程來建模(表達)來自領域的有限或無限個(可觀察或潛在)變量之間的復雜交互作用。它的名字來自于它的結構——一個以隨機變量為節點,以概率相關性為邊的圖,如圖1所示。根據節點/變量之間的邊緣類型(即有向或無向),概率圖模型分為有向和無向兩類。例如,隱馬爾可夫模型(Rabiner, 1989)是一種有向圖模型; 條件隨機場(Lafferty, McCallum, & Pereira, 2001)是無向圖模型的一個例子。將概率圖模型應用于目標任務包括以下兩個步驟: 1)模型設計和 2)模型推理。給定一個任務,第一步是分析問題的本質,然后設計一些變量及其關系來捕捉這種本質。換句話說,這一步是設計PGM的圖結構,該結構應共同考慮觀測數據和目標任務的附加知識。請注意,這個步驟沒有確切的過程,因為它嚴重依賴于處理同一問題的不同人員的視圖/理解。例如,在Latent Dirichlet Allocation模型(Blei, Ng, & Jordan, 2003)中,文檔由滿足Dirichlet或多項分布的隨機變量建模,變量之間通過Dirichlet-多項關系連接;在Gamma-Poisson模型(Ogura, Amano, & Kondo, 2013)中,文檔由滿足Gamma或Poisson分布的隨機變量建模,變量之間通過Gamma-Poisson關系連接。在不考慮具體任務的情況下,討論優點和缺點通常是困難和毫無意義的。PGM的輸出是給定觀測數據的圖模型定義的感興趣的邊際或關節后驗分布。另外,從第一步開始的PGM實際上是一組模型,因為所設計的概率分布通常帶有未知的參數,不同的參數設置會導致不同的模型。有了觀測數據(圖模型中的一些變量/節點的值是已知的),第二步是推斷潛在變量的后驗分布,并估計模型參數。對于一些稀疏圖,有一個精確的算法來學習PGM: 結點樹算法(Paskin & Lawrence, 2003; Wainwright et al., 2008)。但該算法不適用于任務復雜的復雜圖模型。因此,一些近似算法被發展來解決這個問題:期望最大化(Dempster, Laird, & Rubin, 1977),拉普拉斯近似,期望傳播(Minka, 2001),蒙特卡洛馬爾可夫鏈(Neal, 1993),變分推理(Blei, Kucukelbir, & McAuliffe, 2017)。此外,設計的變量之間的概率相關性也可能不是固定的,而是從數據中學習的(所謂結構學習)。一個例子是貝葉斯網絡,其中的網絡結構(即變量之間的依賴關系)可以從數據中學習。由于其強大的建模能力和堅實的理論基礎,概率圖模型受到了分子生物學(Friedman, 2004)、文本挖掘(Blei et al., 2003)、自然語言處理(Sultan, Boyd-Graber, & Sumner, 2016) 和 計算機視覺(Gupta, Phung, & Venkatesh, 2012) 等多個領域研究者的關注。

與機器學習中的其他模型(如支持向量機)相比,概率圖模型具有以下優點,這些優點可能有利于遷移學習: 1) 處理不確定性。不確定性幾乎出現在任何現實世界的問題中,當然也出現在他們的觀察(數據)中。例如,人們在編寫關于特定主題的文檔時可能會使用不同的詞匯,所以我們在構建模型以揭示隱藏的主題時需要考慮這種不確定性。PGMs能夠借助概率分布或隨機過程很好地處理(模型)這種不確定性; 2) 處理缺失數據。丟失數據的一個典型例子是來自推薦系統,用戶只對有限數量的項目進行評級,因此對其他項目的評級也會丟失。PGM可以通過潛在變量設計很好地處理這一問題(Mohan, Pearl, & Tian, 2013); 3) 可解釋性。PGM由定義的概率分布(或隨機過程)組成,因此人類專家可以評估其語義和屬性,甚至將他們的知識納入模型。通過PGM的結構,人們可以很容易地理解問題和領域; 4) 泛化能力。定向PGMs(也稱為生成模型)具有很好的泛化能力,可以比較鑒別模型,特別是在數據數量有限的情況下(Ng & Jordan, 2002)。盡管在文獻中已經發表了一些關于遷移學習的優秀研究,如: 綜合研究(Pan & Yang, 2010;Weiss et al., 2016),應用,如強化學習(Taylor & Stone, 2009),協同過濾(Li, 2011),視覺分類(Shao, Zhu, & Li, 2015),人臉和物體識別(Patel, Gopalan, Li, & Chellappa, 2015),語音和語言處理(Wang & Zheng, 2015),活動識別(Cook, Feuz, & Krishnan, 2013),和方法論,如計算智能(Lu, Behbood, Hao, Zuo, Xue, & Zhang, 2015),在使用PGMs進行遷移學習方面沒有一個具體的工作。本文綜述了該領域的主要研究成果,總結了已有的遷移研究的基本方法,為今后在該領域的進一步研究奠定了基礎。本文對遷移學習領域的研究人員進行了綜述,并對遷移學習方法的應用進行了推廣。本文還綜述了已有的遷移學習理論在遷移學習中的成功應用,并促進了遷移學習理論的發展。本文假設讀者已經具備遷移學習的基本知識。

本文的其余部分結構如下。第2節討論了現有的最先進的方法使用的概率圖模型遷移學習。第3節介紹了現實世界中使用概率圖模型解決的遷移學習問題。最后,第四部分對本文進行了總結,并提出了進一步研究可能面臨的挑戰。

付費5元查看完整內容

摘要

分布外泛化(OOD)對人類來說是一種很自然的能力,但對機器來說是一個挑戰。這是因為大多數學習算法強烈地依賴于源/目標數據的i.i.d.假設,而在實踐中,由于域轉移,這經常違背IID。領域泛化(DG)的目標是僅使用源數據進行模型學習,實現OOD泛化。自2011年首次引入DG以來,DG研究取得了很大進展。特別是,對這一主題的深入研究已經導致了廣泛的方法論,例如,那些基于領域對齊、元學習、數據增強或集成學習的方法,這只是舉幾個例子;并涵蓋了各種視覺應用,如物體識別、分割、動作識別和人的再識別。本文首次對近十年來計算機視覺DG的研究進展進行了綜述。具體來說,我們首先通過正式定義DG,并將其與領域適應和遷移學習等其他研究領域聯系起來,來覆蓋背景。其次,我們對現有的方法進行了全面的回顧,并根據它們的方法和動機進行了分類。最后,我們總結了本次綜述,并對未來的研究方向進行了展望和討論。

//www.zhuanzhi.ai/paper/c8472ef62b32f2b955bd2b239009bfc1

引言

如果一個圖像分類器在照片圖像上訓練,它會在草圖圖像上工作嗎?如果用城市圖像訓練的汽車檢測器在農村環境中測試會怎樣?是否有可能部署在雨天或雪天條件下使用晴天圖像訓練的語義分割模型?使用一名患者的心電圖數據訓練的健康狀態分類器能否用于診斷另一名患者的健康狀態?所有這些問題的答案取決于機器學習模型如何處理一個常見問題,即域轉移問題。該問題是指一組訓練(源)數據與一組測試(目標)數據[1],[2],[3],[4]之間的分布偏移。

大多數統計學習算法強烈依賴于過于簡化的假設,即源數據和目標數據是獨立的、同分布的(i.i.d),而忽略了實踐中常見的分布外(OOD)場景。這意味著它們在設計時并沒有考慮到域遷移問題。因此,只使用源數據訓練的學習代理在OOD目標域中通常會遭受顯著的性能下降。領域轉移問題嚴重阻礙了機器學習模型的大規模部署。人們可能會好奇,最近在深度神經網絡[5],[6],即所謂的深度學習[7]方面的進展是否能夠緩解這個問題。[2]和[8]的研究表明,即使在數據生成過程中只有很小的變化,深度學習模型在OOD數據集上的性能也會顯著下降。這突出表明,到目前為止,深度學習取得的成功很大程度上是由監督學習驅動的,這些監督學習使用的是像ImageNet[9]這樣的大規模注釋數據集,同樣也依賴于i.i.d.假設。

關于如何處理域轉移的問題在文獻中已經進行了廣泛的研究。繞過OOD數據問題的一個簡單解決方案是從目標領域收集一些數據,以適應源領域訓練的模型。事實上,這一域適應(DA)問題最近受到了廣泛關注,包括[10]、[11]、[12]、[13]、[14]、[15]、[16]。然而,DA依賴于一個強大的假設,即目標數據可以用于模型調整,但在實踐中并不總是成立。在許多應用中,很難獲得目標數據,甚至在部署模型之前無法知道目標數據。例如,在生物醫學應用中,不同患者的數據之間發生域轉移,提前收集每個新患者的數據是不切實際的;在交通場景語義分割中,采集所有不同場景和所有可能天氣條件下的數據是不可行的。

為了克服域漂移問題以及目標數據缺乏的問題,引入了域泛化問題[19]。具體來說,DG的目標是使用來自單個或多個相關但不同的源域的數據來學習模型,以使模型能夠很好地泛化到任何OOD目標域。近年來,DG因其在實際應用中的重要性而日益受到學術界的重視。

自2011年Blanchard等人[19]首次引入以來,已經開發了許多方法來解決OOD泛化問題。這包括基于對源域分布的方法,用于域不變表示學習[27],[28],在訓練期間通過元學習[29],[30],或使用圖像合成[31],[32]來增強數據,僅舉幾個例子。從應用的角度來看,現有的DG方法已經應用于手寫體數字識別[31]、[32]、物體識別[33]、[34]、語義分割[18]、[35]、人再識別[20]、[31]、人臉識別[36]、動作識別[27]、[37]等等。盡管作出了這些努力,但普遍承認DG仍然是一個公開的挑戰。事實上,在無法訪問目標領域數據的情況下,訓練一個可以在任何不可見的目標領域有效工作的一般化模型,可以說是機器學習中最困難的問題之一。

在這篇綜述論文中,我們旨在提供一個及時和全面的文獻綜述。綜述了近十年來所介紹的主要方法和應用,重點介紹了計算機視覺領域。并對未來的發展方向進行了討論。本文的其余部分組織如下。在§2中,我們介紹了背景知識,給出了問題的定義,并將DG與領域適應和遷移學習等幾個相關研究領域進行了比較。討論了對DG算法進行基準測試的常用數據集。在§3中,我們回顧了過去十年提出的現有DG方法,并提出了一個分類。在§4中,我們總結了這篇論文,并對未來工作的潛在研究方向進行了見解和討論。作為這一主題的第一份綜述論文,我們希望這一及時的綜述能夠為研究界提供清晰的思路和進一步發展的動力。

付費5元查看完整內容

深度學習模型在預測失敗信號方面表現不佳: 它們往往非常有把握地做出預測,這在現實世界的應用中是有問題的,比如醫療保健、自動駕駛汽車和自然語言系統,這些應用存在相當大的安全隱患,或者在訓練數據和模型預測所依據的數據之間存在差異。現在迫切需要了解模型何時不應該進行預測,以及改進模型對數據中自然變化的健壯性。本教程將對深度學習中的不確定性和健壯性進行概述。也就是說,我們檢查校準和非分布泛化作為關鍵任務。然后,我們將深入探討有希望的途徑。這包括平均多個神經網絡預測的方法,如貝葉斯神經網絡,集成,和高斯過程;在總體參數或預測時間效率方面處于尺度前沿的方法;以及鼓勵關鍵的誘導偏差的方法,如數據增強。我們將這些想法建立在經驗理解和理論的基礎上,并通過基準和提示和技巧提供實際的建議。最后,我們強調該領域的開放挑戰。

//nips.cc/Conferences/2020/Schedule?showEvent=16649

付費5元查看完整內容

通過人工神經網絡等獲得的預測具有很高的準確性,但人類經常將這些模型視為黑盒子。對于人類來說,關于決策制定的洞察大多是不透明的。在醫療保健或金融等高度敏感領域,對決策的理解至關重要。黑盒子背后的決策要求它對人類來說更加透明、可問責和可理解。這篇綜述論文提供了基本的定義,概述了可解釋監督機器學習(SML)的不同原理和方法。我們進行了最先進的綜述,回顧過去和最近可解釋的SML方法,并根據介紹的定義對它們進行分類。最后,我們通過一個解釋性的案例研究來說明原則,并討論未來的重要方向。

//www.zhuanzhi.ai/paper/d34a1111c1ab9ea312570ae8e011903c

目前人工智能(AI)模型的準確性是顯著的,但準確性并不是最重要的唯一方面。對于高風險的領域,對模型和輸出的詳細理解也很重要。底層的機器學習和深度學習算法構建的復雜模型對人類來說是不透明的。Holzinger等人(2019b)指出,醫學領域是人工智能面臨的最大挑戰之一。對于像醫療這樣的領域,深刻理解人工智能的應用是至關重要的,對可解釋人工智能(XAI)的需求是顯而易見的。

可解釋性在許多領域很重要,但不是在所有領域。我們已經提到了可解釋性很重要的領域,例如衛生保健。在其他領域,比如飛機碰撞避免,算法多年來一直在沒有人工交互的情況下運行,也沒有給出解釋。當存在某種程度的不完整時,需要可解釋性。可以肯定的是,不完整性不能與不確定性混淆。不確定性指的是可以通過數學模型形式化和處理的東西。另一方面,不完全性意味著關于問題的某些東西不能充分編碼到模型中(Doshi-Velez和Kim(2017))。例如,刑事風險評估工具應該是公正的,它也應該符合人類的公平和道德觀念。但倫理學是一個很寬泛的領域,它是主觀的,很難正式化。相比之下,飛機避免碰撞是一個很容易理解的問題,也可以被精確地描述。如果一個系統能夠很好地避免碰撞,就不用再擔心它了。不需要解釋。

本文詳細介紹了可解釋SML的定義,并為該領域中各種方法的分類奠定了基礎。我們區分了各種問題定義,將可解釋監督學習領域分為可解釋模型、代理模型擬合和解釋生成。可解釋模型的定義關注于自然實現的或通過使用設計原則強制實現的整個模型理解。代理模型擬合方法近似基于黑盒的局部或全局可解釋模型。解釋生成過程直接產生一種解釋,區分局部解釋和全局解釋。

綜上所述,本文的貢獻如下:

  • 對五種不同的解釋方法進行形式化,并對整個解釋鏈的相應文獻(分類和回歸)進行回顧。
  • 可解釋性的原因,審查重要領域和可解釋性的評估
  • 這一章僅僅強調了圍繞數據和可解釋性主題的各個方面,比如數據質量和本體
  • 支持理解不同解釋方法的連續用例
  • 回顧重要的未來方向和討論

付費5元查看完整內容

隨著自動駕駛和機器人技術等實際應用的發展,人們越來越關注對3D點云的理解。雖然深度學習在基于圖像的任務上取得了顯著的成功,但深度神經網絡在處理大量、非結構化和噪聲的三維點時仍面臨著許多獨特的挑戰。為了展示深度學習在理解三維點云方面的最新進展,本文從幾個不同的方向(分類、分割、檢測、跟蹤、流量估計、配準、增強和補全),以及常用的數據集、指標和最新性能,總結了該領域最近顯著的研究貢獻。

//www.zhuanzhi.ai/paper/e4ae936bed62e851d27089c9ddbe985e

付費5元查看完整內容

近年來,機器學習發展迅速,尤其是深度學習在圖像、聲音、自然語言處理等領域取得卓越成效.機器學習算法的表示能力大幅度提高,但是伴隨著模型復雜度的增加,機器學習算法的可解釋性越差,至今,機器學習的可解釋性依舊是個難題.通過算法訓練出的模型被看作成黑盒子,嚴重阻礙了機器學習在某些特定領域的使用,譬如醫學、金融等領域.目前針對機器學習的可解釋性綜述性的工作極少,因此,將現有的可解釋方法進行歸類描述和分析比較,一方面對可解釋性的定義、度量進行闡述,另一方面針對可解釋對象的不同,從模型的解釋、預測結果的解釋和模仿者模型的解釋3個方面,總結和分析各種機器學習可解釋技術,并討論了機器學習可解釋方法面臨的挑戰和機遇以及未來的可能發展方向。

付費5元查看完整內容
北京阿比特科技有限公司