幫助人類理解AI/ML模型及其預測的工具和方法集的高級指南。
這本書提供了使“機器學習”系統更可解釋的最新概念和可用的技術的全面介紹。本文提出的方法幾乎可以應用于所有當前的“機器學習”模型: 線性和邏輯回歸、深度學習神經網絡、自然語言處理和圖像識別等。
機器學習(Machine Learning)的進展正在增加使用人工代理來執行以前由人類處理的關鍵任務(醫療、法律和金融等)。雖然指導這些代理設計的原則是可以理解的,但目前大多數深度學習模型對人類的理解是“不透明的”。《Python可解釋人工智能》通過從理論和實踐的角度,填補了目前關于這一新興主題的文獻空白,使讀者能夠快速使用可解釋人工智能的工具和代碼。
本書以可解釋AI (XAI)是什么以及為什么在該領域需要它為例開始,詳細介紹了根據特定背景和需要使用XAI的不同方法。然后介紹利用Python的具體示例對可解釋模型的實際操作,展示如何解釋內在的可解釋模型以及如何產生“人類可理解的”解釋。XAI的模型不可知方法可以在不依賴于“不透明”的ML模型內部的情況下產生解釋。使用計算機視覺的例子,作者然后著眼于可解釋的模型的深度學習和未來的展望方法。從實踐的角度,作者演示了如何在科學中有效地使用ML和XAI。最后一章解釋了對抗性機器學習以及如何使用對抗性例子來做XAI。
機器學習的巨大成功導致了AI應用的新浪潮(例如,交通、安全、醫療、金融、國防),這些應用提供了巨大的好處,但無法向人類用戶解釋它們的決定和行動。DARPA的可解釋人工智能(XAI)項目致力于創建人工智能系統,其學習的模型和決策可以被最終用戶理解并適當信任。實現這一目標需要學習更多可解釋的模型、設計有效的解釋界面和理解有效解釋的心理要求的方法。XAI開發團隊正在通過創建ML技術和開發原理、策略和人機交互技術來解決前兩個挑戰,以生成有效的解釋。XAI的另一個團隊正在通過總結、擴展和應用心理解釋理論來解決第三個挑戰,以幫助XAI評估人員定義一個合適的評估框架,開發團隊將使用這個框架來測試他們的系統。XAI團隊于2018年5月完成了第一個為期4年的項目。在一系列正在進行的評估中,開發人員團隊正在評估他們的XAM系統的解釋在多大程度上改善了用戶理解、用戶信任和用戶任務性能。
我們給出了一個關于調查透明度和可解釋性的前沿教程,因為它們與NLP有關。研究團體和業界都在開發新的技術,以使黑箱型NLP模型更加透明和可解釋。來自社會科學、人機交互(HCI)和NLP研究人員的跨學科團隊的報告,我們的教程有兩個組成部分:對可解釋的人工智能(XAI)的介紹和對NLP中可解釋性研究的最新回顧; 研究結果來自一個大型跨國技術和咨詢公司在現實世界中從事NLP項目的個人的定性訪談研究。第一部分將介紹NLP中與可解釋性相關的核心概念。然后,我們將討論NLP任務的可解釋性,并對AI、NLP和HCI會議上的最新文獻進行系統的文獻綜述。第二部分報告了我們的定性訪談研究,該研究確定了包括NLP在內的現實世界開發項目中出現的實際挑戰和擔憂。
自然語言處理中可解釋AI的現狀調研
近年來,最領先的模型在性能上取得了重要的進步,但這是以模型變得越來越難以解釋為代價的。本調研提出了可解釋AI (XAI)的當前狀態的概述,在自然語言處理(NLP)領域內考慮。我們討論解釋的主要分類,以及解釋可以達到和可視化的各種方式。我們詳細介紹了目前可用來為NLP模型預測生成解釋的操作和可解釋性技術,以作為社區中模型開發人員的資源。最后,我們指出了在這個重要的研究領域目前的挑戰和未來可能工作方向。
能夠解釋機器學習模型的預測在醫療診斷或自主系統等關鍵應用中是很重要的。深度非線性ML模型的興起,在預測方面取得了巨大的進展。然而,我們不希望如此高的準確性以犧牲可解釋性為代價。結果,可解釋AI (XAI)領域出現了,并產生了一系列能夠解釋復雜和多樣化的ML模型的方法。
在本教程中,我們結構化地概述了在深度神經網絡(DNNs)的背景下為XAI提出的基本方法。特別地,我們提出了這些方法的動機,它們的優點/缺點和它們的理論基礎。我們還展示了如何擴展和應用它們,使它們在現實場景中發揮最大的作用。
本教程針對的是核心和應用的ML研究人員。核心機器學習研究人員可能會有興趣了解不同解釋方法之間的聯系,以及廣泛的開放問題集,特別是如何將XAI擴展到新的ML算法。應用ML研究人員可能會發現,理解標準驗證程序背后的強大假設是很有趣的,以及為什么可解釋性對進一步驗證他們的模型是有用的。他們可能還會發現新的工具來分析他們的數據并從中提取見解。參與者將受益于技術背景(計算機科學或工程)和基本的ML訓練。
目錄內容:
Part 1: Introduction to XAI (WS) 可解釋人工智能
Part 2: Methods for Explaining DNNs (GM) 可解釋深度神經網絡方法
Part 3: Implementation, Theory, Evaluation, Extensions (GM) 實現,理論、評價
Part 4: Applications (WS) 應用
通過機器學習的實際操作指南深入挖掘數據
機器學習: 為開發人員和技術專業人員提供實踐指導和全編碼的工作示例,用于開發人員和技術專業人員使用的最常見的機器學習技術。這本書包含了每一個ML變體的詳細分析,解釋了它是如何工作的,以及如何在特定的行業中使用它,允許讀者在閱讀過程中將所介紹的技術融入到他們自己的工作中。機器學習的一個核心內容是對數據準備的強烈關注,對各種類型的學習算法的全面探索說明了適當的工具如何能夠幫助任何開發人員從現有數據中提取信息和見解。這本書包括一個完整的補充教師的材料,以方便在課堂上使用,使這一資源有用的學生和作為一個專業的參考。
機器學習的核心是一種基于數學和算法的技術,它是歷史數據挖掘和現代大數據科學的基礎。對大數據的科學分析需要機器學習的工作知識,它根據從訓練數據中獲得的已知屬性形成預測。機器學習是一個容易理解的,全面的指導,為非數學家,提供明確的指導,讓讀者:
通過學習構建一個可以從數據中學習的系統,讀者可以在各個行業中增加他們的效用。機器學習是深度數據分析和可視化的核心,隨著企業發現隱藏在現有數據中的金礦,這一領域的需求越來越大。對于涉及數據科學的技術專業人員,機器學習:為開發人員和技術專業人員提供深入挖掘所需的技能和技術。
題目: Knowledge Graph Embeddings and Explainable AI
摘要: 知識圖譜嵌入是一種廣泛采用的知識表示方法,它將實體和關系嵌入到向量空間中。在這一章中,我們通過解釋知識圖譜嵌入是什么,如何生成它們以及如何對它們進行評估,向讀者介紹知識圖譜嵌入的概念。我們總結了這一領域的最新研究成果,對向量空間中表示知識的方法進行了介紹。在知識表示方面,我們考慮了可解釋性問題,并討論了通過知識圖譜嵌入來解釋預測的模型和方法。
簡介: 機器學習可解釋性的新方法以驚人的速度發布。與所有這些保持最新將是瘋狂的,根本不可能。這就是為什么您不會在本書中找到最新穎,最有光澤的方法,而是找到機器學習可解釋性的基本概念的原因。這些基礎知識將為您做好使機器學??習模型易于理解的準備。
可解釋的是使用可解釋的模型,例如線性模型或決策樹。另一個選擇是與模型無關的解釋工具,該工具可以應用于任何監督的機器學習模型。與模型不可知的章節涵蓋了諸如部分依賴圖和置換特征重要性之類的方法。與模型無關的方法通過更改機器學習的輸入來起作用建模并測量輸出中的變化。
本書將教您如何使(監督的)機器學習模型可解釋。這些章節包含一些數學公式,但是即使沒有數學知識,您也應該能夠理解這些方法背后的思想。本書不適用于嘗試從頭開始學習機器學習的人。如果您不熟悉機器學習,則有大量書籍和其他資源可用于學習基礎知識。我推薦Hastie,Tibshirani和Friedman(2009)撰寫的《統計學習的要素》一書和Andrewra Ng在Coursera3上開設的“機器學習”在線課程,著手進行機器學習。這本書和課程都是免費的!在本書的最后,對可解釋機器學習的未來前景持樂觀態度。
目錄:
【導讀】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美國紐約舉辦。AAAI2020關于可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述了解釋黑盒機器學習模型的術語概念以及相關方法,涵蓋基礎、工業應用、實際挑戰和經驗教訓,是構建可解釋模型的重要指南.
可解釋AI:基礎、工業應用、實際挑戰和經驗教訓
?
地址: //xaitutorial2020.github.io/
Tutorial 目標 本教程的目的是為以下問題提供答案:
什么是可解釋的AI (XAI)
我們為什么要關心?
哪里是關鍵?
它是如何工作的?
我們學到了什么?
下一個是什么?
概述
人工智能的未來在于讓人們能夠與機器合作解決復雜的問題。與任何有效的協作一樣,這需要良好的溝通、信任、清晰和理解。XAI(可解釋的人工智能)旨在通過結合象征性人工智能和傳統機器學習來解決這些挑戰。多年來,所有不同的AI社區都在研究這個主題,它們有不同的定義、評估指標、動機和結果。
本教程簡要介紹了XAI迄今為止的工作,并調查了AI社區在機器學習和符號化AI相關方法方面所取得的成果。我們將激發XAI在現實世界和大規模應用中的需求,同時展示最先進的技術和最佳實踐。在本教程的第一部分,我們將介紹AI中解釋的不同方面。然后,我們將本教程的重點放在兩個特定的方法上: (i) XAI使用機器學習和 (ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們將詳細介紹其方法、目前的技術狀態以及下一步的限制和研究挑戰。本教程的最后一部分概述了XAI的實際應用。
Freddy Lecue博士是加拿大蒙特利爾泰勒斯人工智能技術研究中心的首席人工智能科學家。他也是法國索菲亞安提波利斯溫姆斯的INRIA研究所的研究員。在加入泰雷茲新成立的人工智能研發實驗室之前,他曾于2016年至2018年在埃森哲愛爾蘭實驗室擔任人工智能研發主管。在加入埃森哲之前,他是一名研究科學家,2011年至2016年在IBM research擔任大規模推理系統的首席研究員,2008年至2011年在曼徹斯特大學(University of Manchester)擔任研究員,2005年至2008年在Orange Labs擔任研究工程師。
目錄與內容
第一部分: 介紹和動機
人工智能解釋的入門介紹。這將包括從理論和應用的角度描述和激發對可解釋的人工智能技術的需求。在這一部分中,我們還總結了先決條件,并介紹了本教程其余部分所采用的不同角度。
第二部分: 人工智能的解釋(不僅僅是機器學習!)
人工智能各個領域(優化、知識表示和推理、機器學習、搜索和約束優化、規劃、自然語言處理、機器人和視覺)的解釋概述,使每個人對解釋的各種定義保持一致。還將討論可解釋性的評估。本教程將涵蓋大多數定義,但只深入以下領域: (i) 可解釋的機器學習,(ii) 可解釋的AI與知識圖和機器學習。
第三部分: 可解釋的機器學習(從機器學習的角度)
在本節中,我們將處理可解釋的機器學習管道的廣泛問題。我們描述了機器學習社區中解釋的概念,接著我們描述了一些流行的技術,主要是事后解釋能力、設計解釋能力、基于實例的解釋、基于原型的解釋和解釋的評估。本節的核心是分析不同類別的黑盒問題,從黑盒模型解釋到黑盒結果解釋。
第四部分: 可解釋的機器學習(從知識圖譜的角度)
在本教程的這一節中,我們將討論將基于圖形的知識庫與機器學習方法相結合的解釋力。
第五部分: XAI工具的應用、經驗教訓和研究挑戰
我們將回顧一些XAI開源和商業工具在實際應用中的例子。我們關注一些用例:i)解釋自動列車的障礙檢測;ii)具有內置解釋功能的可解釋航班延誤預測系統;(三)基于知識圖譜的語義推理,對企業項目的風險層進行預測和解釋的大范圍合同管理系統;iv)識別、解釋和預測500多個城市大型組織員工異常費用報銷的費用系統;v)搜索推薦系統說明;vi)解釋銷售預測;(七)貸款決策說明;viii)解釋欺詐檢測。