可解釋的機器學習模型和算法是越來越受到研究、應用和管理人員關注的重要課題。許多先進的深度神經網絡(DNNs)經常被認為是黑盒。研究人員希望能夠解釋DNN已經學到的東西,以便識別偏差和失敗模型,并改進模型。在本教程中,我們將全面介紹分析深度神經網絡的方法,并深入了解這些XAI方法如何幫助我們理解時間序列數據。
能夠解釋機器學習模型的預測在醫療診斷或自主系統等關鍵應用中是很重要的。深度非線性ML模型的興起,在預測方面取得了巨大的進展。然而,我們不希望如此高的準確性以犧牲可解釋性為代價。結果,可解釋AI (XAI)領域出現了,并產生了一系列能夠解釋復雜和多樣化的ML模型的方法。
在本教程中,我們結構化地概述了在深度神經網絡(DNNs)的背景下為XAI提出的基本方法。特別地,我們提出了這些方法的動機,它們的優點/缺點和它們的理論基礎。我們還展示了如何擴展和應用它們,使它們在現實場景中發揮最大的作用。
本教程針對的是核心和應用的ML研究人員。核心機器學習研究人員可能會有興趣了解不同解釋方法之間的聯系,以及廣泛的開放問題集,特別是如何將XAI擴展到新的ML算法。應用ML研究人員可能會發現,理解標準驗證程序背后的強大假設是很有趣的,以及為什么可解釋性對進一步驗證他們的模型是有用的。他們可能還會發現新的工具來分析他們的數據并從中提取見解。參與者將受益于技術背景(計算機科學或工程)和基本的ML訓練。
目錄內容:
Part 1: Introduction to XAI (WS) 可解釋人工智能
Part 2: Methods for Explaining DNNs (GM) 可解釋深度神經網絡方法
Part 3: Implementation, Theory, Evaluation, Extensions (GM) 實現,理論、評價
Part 4: Applications (WS) 應用
【導讀】牛津大學的博士生Oana-Maria Camburu撰寫了畢業論文《解釋神經網絡 (Explaining Deep Neural Networks)》,系統性介紹了深度神經網絡可解釋性方面的工作,值得關注。
作者介紹:
Oana-Maria Camburu,來自羅馬尼亞,目前是牛津大學的博士生,主修機器學習、人工智能等方向。
Explaining Deep Neural Networks
深度神經網絡在計算機視覺、自然語言處理和語音識別等不同領域取得了革命性的成功,因此越來越受歡迎。然而,這些模型的決策過程通常是無法向用戶解釋的。在各種領域,如醫療保健、金融或法律,了解人工智能系統所做決策背后的原因至關重要。因此,最近研究了幾個解釋神經模型的方向。
在這篇論文中,我研究了解釋深層神經網絡的兩個主要方向。第一個方向由基于特征的事后解釋方法組成,也就是說,這些方法旨在解釋一個已經訓練過的固定模型(事后解釋),并提供輸入特征方面的解釋,例如文本標記和圖像的超級像素(基于特征的)。第二個方向由生成自然語言解釋的自解釋神經模型組成,也就是說,模型有一個內置模塊,為模型的預測生成解釋。在這些方面的貢獻如下:
首先,我揭示了僅使用輸入特征來解釋即使是微不足道的模型也存在一定的困難。我表明,盡管有明顯的隱含假設,即解釋方法應該尋找一種特定的基于真實值特征的解釋,但對于預測通常有不止一種這樣的解釋。我還展示了兩類流行的解釋方法,它們針對的是不同類型的事實基礎解釋,但沒有明確地提及它。此外,我還指出,有時這兩種解釋都不足以提供一個實例上決策過程的完整視圖。
其次,我還介紹了一個框架,用于自動驗證基于特征的事后解釋方法對模型的決策過程的準確性。這個框架依賴于一種特定類型的模型的使用,這種模型有望提供對其決策過程的洞察。我分析了這種方法的潛在局限性,并介紹了減輕這些局限性的方法。引入的驗證框架是通用的,可以在不同的任務和域上實例化,以提供現成的完整性測試,這些測試可用于測試基于特性的后特殊解釋方法。我在一個情緒分析任務上實例化了這個框架,并提供了完備性測試s1,在此基礎上我展示了三種流行的解釋方法的性能。
第三,為了探索為預測生成自然語言解釋的自解釋神經模型的發展方向,我在有影響力的斯坦福自然語言推斷(SNLI)數據集之上收集了一個巨大的數據集,數據集約為570K人類編寫的自然語言解釋。我把這個解釋擴充數據集稱為e-SNLI。我做了一系列的實驗來研究神經模型在測試時產生正確的自然語言解釋的能力,以及在訓練時提供自然語言解釋的好處。
第四,我指出,目前那些為自己的預測生成自然語言解釋的自解釋模型,可能會產生不一致的解釋,比如“圖像中有一只狗。”以及“同一幅圖片中沒有狗”。不一致的解釋要么表明解釋沒有忠實地描述模型的決策過程,要么表明模型學習了一個有缺陷的決策過程。我將介紹一個簡單而有效的對抗性框架,用于在生成不一致的自然語言解釋時檢查模型的完整性。此外,作為框架的一部分,我解決了使用精確目標序列的對抗性攻擊的問題,這是一個以前在序列到序列攻擊中沒有解決的場景,它對于自然語言處理中的其他任務很有用。我將這個框架應用到e-SNLI上的一個最新的神經模型上,并表明這個模型會產生大量的不一致性。
這項工作為獲得更穩健的神經模型以及對預測的可靠解釋鋪平了道路。
異常檢測已經得到了廣泛的研究和應用。建立一個有效的異常檢測系統需要研究者和開發者從嘈雜的數據中學習復雜的結構,識別動態異常模式,用有限的標簽檢測異常。與經典方法相比,近年來深度學習技術的進步極大地提高了異常檢測的性能,并將異常檢測擴展到廣泛的應用領域。本教程將幫助讀者全面理解各種應用領域中基于深度學習的異常檢測技術。首先,我們概述了異常檢測問題,介紹了在深度模型時代之前采用的方法,并列出了它們所面臨的挑戰。然后我們調查了最先進的深度學習模型,范圍從構建塊神經網絡結構,如MLP, CNN,和LSTM,到更復雜的結構,如自動編碼器,生成模型(VAE, GAN,基于流的模型),到深度單類檢測模型,等等。此外,我們舉例說明了遷移學習和強化學習等技術如何在異常檢測問題中改善標簽稀疏性問題,以及在實際中如何收集和充分利用用戶標簽。其次,我們討論來自LinkedIn內外的真實世界用例。本教程最后討論了未來的趨勢。
在一個常見的機器學習問題中,使用對訓練數據集估計的模型,根據觀察到的特征預測未來的結果值。當測試數據和訓練數據來自相同的分布時,許多學習算法被提出并證明是成功的。然而,對于給定的訓練數據分布,性能最好的模型通常會利用特征之間微妙的統計關系,這使得它們在應用于分布與訓練數據不同的測試數據時,可能更容易出現預測錯誤。對于學術研究和實際應用來說,如何開發能夠穩定和穩健地轉換數據的學習模型是至關重要的。
因果推理是指根據效果發生的條件得出因果關系的結論的過程,是一種強大的統計建模工具,用于解釋和穩定學習。本教程側重于因果推理和穩定學習,旨在從觀察數據中探索因果知識,提高機器學習算法的可解釋性和穩定性。首先,我們將介紹因果推論,并介紹一些最近的數據驅動方法,以估計因果效應從觀測數據,特別是在高維設置。為了彌補因果推理和機器學習之間的差距,我們首先給出了穩定性和魯棒性學習算法的定義,然后將介紹一些最近的穩定學習算法來提高預測的穩定性和可解釋性。最后,我們將討論穩定學習的應用和未來的發展方向,并提供穩定學習的基準。
深度神經網絡(DNN)在各個領域的大量機器學習任務中取得了前所未有的成功。然而,在將DNN模型應用于諸如自動駕駛汽車和惡意軟件檢測等安全關鍵任務時,存在的一些反面例子給我們帶來了很大的猶豫。這些對抗例子都是故意制作的實例,無論是出現在火車上還是測試階段,都可以欺騙DNN模型,使其犯下嚴重錯誤。因此,人們致力于設計更健壯的模型來抵御對抗的例子,但它們通常會被新的更強大的攻擊擊垮。這種對抗性的攻擊和防御之間的軍備競賽近年來受到越來越多的關注。**在本教程中,我們將全面概述對抗性攻擊的前沿和進展,以及它們的對策。特別地,我們詳細介紹了不同場景下的不同類型的攻擊,包括閃避和中毒攻擊,白盒和黑盒攻擊。**我們還將討論防御策略如何發展以對抗這些攻擊,以及新的攻擊如何出現以打破這些防御。此外,我們將討論在其他數據域中的敵對攻擊和防御,特別是在圖結構數據中。然后介紹了Pytorch對抗式學習圖書館DeepRobust,旨在為該研究領域的發展搭建一個全面、易用的平臺。最后,我們通過討論對抗性攻擊和防御的開放問題和挑戰來總結本教程。通過我們的教程,我們的觀眾可以掌握對抗性攻擊和防御之間的主要思想和關鍵方法。
目錄內容: Part 1. Introduction about adversarial examples and robustness. Part 2. Algorithms for generating adversarial examples. Part 3. Defending algorithms and adaptive attacks. Part 4. Adversarial learning in Graph domain. Part 5. DeepRobust-- A Pytorch Repository for Adversarial learning.
本教程探索了兩個研究領域,即永無休止的學習(NEL)和問題回答(QA)。NEL系統[2]是一種非常高級的計算機系統,它可以隨著時間的推移而在解決任務方面變得更好。不同的NEL方法被提出并應用于不同的任務和領域,其結果還不能推廣到每個領域,但鼓勵我們不斷解決如何構建能夠利用NEL原則的計算機系統的問題。將NEL原則應用于ML模型并不總是那么簡單。在本教程中,我們希望展示(通過實際示例和支持的理論、算法和模型)如何以NEL的方式對問題建模,并幫助KDD社區熟悉這些方法。
我們日常生活中出現了許多問答系統(如IBM Watson、亞馬遜Alexa、蘋果Siri、MS Cortana、谷歌Home等),以及最近發布的專注于開放領域問答的新的、更大的數據集,這些都促使人們對問答和能夠執行問答的系統越來越感興趣。但是,盡管過去幾年取得了進步,開放領域的問題回答模型還不能取得與人類性能相媲美的結果。因此,開放域QA往往是用NEL方法建模的一個很好的候選對象。本教程旨在使與會者能夠:
本教程對基于模型的強化學習(MBRL)領域進行了廣泛的概述,特別強調了深度方法。MBRL方法利用環境模型來進行決策——而不是將環境視為一個黑箱——并且提供了超越無模型RL的獨特機會和挑戰。我們將討論學習過渡和獎勵模式的方法,如何有效地使用這些模式來做出更好的決策,以及規劃和學習之間的關系。我們還強調了在典型的RL設置之外利用世界模型的方式,以及在設計未來的MBRL系統時,從人類認知中可以得到什么啟示。
//sites.google.com/view/mbrl-tutorial
近年來,強化學習領域取得了令人印象深刻的成果,但主要集中在無模型方法上。然而,社區認識到純無模型方法的局限性,從高樣本復雜性、需要對不安全的結果進行抽樣,到穩定性和再現性問題。相比之下,盡管基于模型的方法在機器人、工程、認知和神經科學等領域具有很大的影響力,但在機器學習社區中,這些方法的開發還不夠充分(但發展迅速)。它們提供了一系列獨特的優勢和挑戰,以及互補的數學工具。本教程的目的是使基于模型的方法更被機器學習社區所認可和接受。鑒于最近基于模型的規劃的成功應用,如AlphaGo,我們認為對這一主題的全面理解是非常及時的需求。在教程結束時,觀眾應該獲得:
專注于識別和解決應用中出現的凸優化問題。凸集、函數和優化問題。凸分析基礎。最小二乘、線性和二次規劃、半定規劃、極大極小、極值體積等問題。最優性條件,對偶理論,備選定理,及應用。內點法。應用于信號處理,統計和機器學習,控制和機械工程,數字和模擬電路設計,和金融。
【導讀】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美國紐約舉辦。AAAI2020關于可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述了解釋黑盒機器學習模型的術語概念以及相關方法,涵蓋基礎、工業應用、實際挑戰和經驗教訓,是構建可解釋模型的重要指南.
可解釋AI:基礎、工業應用、實際挑戰和經驗教訓
?
地址: //xaitutorial2020.github.io/
Tutorial 目標 本教程的目的是為以下問題提供答案:
什么是可解釋的AI (XAI)
我們為什么要關心?
哪里是關鍵?
它是如何工作的?
我們學到了什么?
下一個是什么?
概述
人工智能的未來在于讓人們能夠與機器合作解決復雜的問題。與任何有效的協作一樣,這需要良好的溝通、信任、清晰和理解。XAI(可解釋的人工智能)旨在通過結合象征性人工智能和傳統機器學習來解決這些挑戰。多年來,所有不同的AI社區都在研究這個主題,它們有不同的定義、評估指標、動機和結果。
本教程簡要介紹了XAI迄今為止的工作,并調查了AI社區在機器學習和符號化AI相關方法方面所取得的成果。我們將激發XAI在現實世界和大規模應用中的需求,同時展示最先進的技術和最佳實踐。在本教程的第一部分,我們將介紹AI中解釋的不同方面。然后,我們將本教程的重點放在兩個特定的方法上: (i) XAI使用機器學習和 (ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們將詳細介紹其方法、目前的技術狀態以及下一步的限制和研究挑戰。本教程的最后一部分概述了XAI的實際應用。
Freddy Lecue博士是加拿大蒙特利爾泰勒斯人工智能技術研究中心的首席人工智能科學家。他也是法國索菲亞安提波利斯溫姆斯的INRIA研究所的研究員。在加入泰雷茲新成立的人工智能研發實驗室之前,他曾于2016年至2018年在埃森哲愛爾蘭實驗室擔任人工智能研發主管。在加入埃森哲之前,他是一名研究科學家,2011年至2016年在IBM research擔任大規模推理系統的首席研究員,2008年至2011年在曼徹斯特大學(University of Manchester)擔任研究員,2005年至2008年在Orange Labs擔任研究工程師。
目錄與內容
第一部分: 介紹和動機
人工智能解釋的入門介紹。這將包括從理論和應用的角度描述和激發對可解釋的人工智能技術的需求。在這一部分中,我們還總結了先決條件,并介紹了本教程其余部分所采用的不同角度。
第二部分: 人工智能的解釋(不僅僅是機器學習!)
人工智能各個領域(優化、知識表示和推理、機器學習、搜索和約束優化、規劃、自然語言處理、機器人和視覺)的解釋概述,使每個人對解釋的各種定義保持一致。還將討論可解釋性的評估。本教程將涵蓋大多數定義,但只深入以下領域: (i) 可解釋的機器學習,(ii) 可解釋的AI與知識圖和機器學習。
第三部分: 可解釋的機器學習(從機器學習的角度)
在本節中,我們將處理可解釋的機器學習管道的廣泛問題。我們描述了機器學習社區中解釋的概念,接著我們描述了一些流行的技術,主要是事后解釋能力、設計解釋能力、基于實例的解釋、基于原型的解釋和解釋的評估。本節的核心是分析不同類別的黑盒問題,從黑盒模型解釋到黑盒結果解釋。
第四部分: 可解釋的機器學習(從知識圖譜的角度)
在本教程的這一節中,我們將討論將基于圖形的知識庫與機器學習方法相結合的解釋力。
第五部分: XAI工具的應用、經驗教訓和研究挑戰
我們將回顧一些XAI開源和商業工具在實際應用中的例子。我們關注一些用例:i)解釋自動列車的障礙檢測;ii)具有內置解釋功能的可解釋航班延誤預測系統;(三)基于知識圖譜的語義推理,對企業項目的風險層進行預測和解釋的大范圍合同管理系統;iv)識別、解釋和預測500多個城市大型組織員工異常費用報銷的費用系統;v)搜索推薦系統說明;vi)解釋銷售預測;(七)貸款決策說明;viii)解釋欺詐檢測。