【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Freddy Lecue, Pasquale Minervini, Fosca Giannotti and Riccardo Guidotti博士共同做了關于可解釋人工智能的進展報告,非常值得關注!
人工智能的未來在于使人類能夠與機器合作解決復雜的問題。就像任何有效的合作一樣,這需要良好的溝通、信任、清晰和理解。可解釋人工智能(XAI)旨在通過結合符號人工智能和傳統機器學習的優點來應對此類挑戰。多年來,各種不同的AI社區都在研究這一主題,他們有著不同的定義、評估指標、動機和結果。
本教程是XAI迄今為止工作的一個概述,并綜述了AI社區所完成的工作,重點是機器學習和符號AI相關方法。我們將闡述XAI在現實世界和大規模應用中的需求,同時提供最先進的技術和最佳的XAI編碼實踐。在教程的第一部分,我們將介紹AI的不同方面的解釋。然后,我們將本教程重點介紹兩種具體方法:(i) XAI使用機器學習,(ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們都進入了具體的方法,目前的技術水平和下一步的研究挑戰。本教程的最后一部分概述了XAI的實際應用以及最佳XAI編碼實踐。
目錄內容:
第一部分: 介紹,動機和評估- 20分鐘 人工智能解釋的廣泛介紹。這將包括從理論和應用的角度描述和激發對可解釋人工智能技術的需求。在本部分中,我們還將總結前提條件,并介紹本教程其余部分所采用的不同角度。
第二部分: 人工智能解釋(不只是機器學習!)- 40分鐘 概述AI各個領域的解釋(優化、知識表示與推理、機器學習、搜索與約束優化、規劃、自然語言處理、機器人技術和視覺),使大家對解釋的各種定義保持一致。對可解釋性的評估也將包括在內。本教程將涵蓋大多數定義,但只會深入以下領域: (i) 可解釋的機器學習,(ii) 可解釋的AI與知識圖譜和機器學習。
第三部分: 知識圖譜在可解釋機器學習中的作用- 40分鐘 在本教程的這一節中,我們將介紹將基于圖的知識庫與機器學習方法相結合的解釋力。
第四部分: XAI工具,編碼和工程實踐- 40分鐘 通過演示如何集成XAI,以及如何根據技術和業務挑戰實例化、調整和定制XAI,我們將了解XAI的編碼和工程實踐。本節將介紹開發代碼,這些代碼將與谷歌Colab共享,便于與AAAI用戶進行互動。本節需要使用谷歌帳號(用于訪問谷歌Colab)。
第五部分:應用、經驗教訓和研究挑戰- 40分鐘 我們將回顧一些在實際示例中應用的XAI開源和商業工具。我們將描述如何基于技術和業務挑戰實例化XAI。我們特別關注一些用例: (1) 解釋目標檢測,(2) 解釋自動駕駛列車的障礙檢測,(3)解釋飛行性能,(4) 解釋具有內置解釋功能的航班延誤預測系統,(5) 一個大規模的合同管理系統,通過知識圖譜上的語義推理預測和解釋企業項目的風險等級; (6) 一個費用系統,識別、解釋和預測500多個城市的大型組織員工的異常費用索賠; (7) 一個信貸決策解釋系統,(8) 醫療條件解釋系統,以及其他8個行業用例。
【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Huan Zhang等學者共同做了關于神經網絡驗證研究進展報告,非常值得關注!
神經網絡已經成為現代人工智能的重要組成部分。然而,它們通常是黑盒,可能會出乎意料地行為,并產生令人驚訝的錯誤結果,例如對抗的例子。在本教程中,我們將介紹神經網絡驗證問題,其目的是保證神經網絡的特性,如魯棒性、安全性和正確性。我們的教程涵蓋了驗證問題的理論基礎和最先進算法的介紹。此外,我們還將為用戶友好的神經網絡驗證工具箱提供實踐編碼教程,允許從業者輕松地將正式的驗證技術應用到他們的定制應用中。我們的教程包括在谷歌Colab中編碼演示。我們將演示通用的auto_LiRPA庫和獲獎的α,β-CROWN驗證器的使用。
目錄內容: Part I: Introduction to Neural Network Verifier Part II: Neural Network Verification Algorithms Part III: Hands-on Tutorial on Using State-of-the-art Verification Tools
地址:
【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Shirin Sohrabi等學者共同做了關于AI規劃理論與實踐的進展報告,非常值得關注!
人工智能規劃是人工智能的一個長期存在的子領域,處理順序決策,是強化學習的姊妹領域。規劃技術在對話系統、網絡安全、交通物流、IT等各個領域都有成熟的工業應用。雖然基于模型的規劃工具可以解決實際規模的問題,但在實踐中應用人工智能規劃研究面臨著幾個挑戰,阻礙了它的廣泛應用。然而,使用無模型方法的替代方法往往被證明對實際尺寸的問題是不可行的。本教程的目的是為觀眾提供必要的理論背景知識,以及實踐經驗,以允許使用規劃工具解決日常挑戰。在本教程中,我們將概述規劃領域,包括該領域的最新進展。然后,我們將深入研究三個挑戰:(1)建模——如何表示、提取和學習知識;(2)理論和工具——計算問題的形式化定義以及如何解決這些問題;(3)實踐-在端到端應用程序中使用人工智能規劃。我們將有一個實踐環節來舉例說明如何使用規劃工具來解決示例應用。我們的目標是為AAAI的與會者提供在他們的應用中使用人工智能規劃工具的必要手段
人工智能的未來在于使人類能夠與機器合作解決復雜問題。像任何有效的合作一樣,這需要良好的溝通、信任、清晰和理解。XAI(可解釋人工智能)旨在通過結合符號人工智能和傳統機器學習的最佳效果來應對這些挑戰。這一主題已經被各種不同的AI社區研究了多年,它們有著不同的定義、評估指標、動機和結果。
本教程簡要介紹了XAI迄今為止的工作,并以機器學習和符號AI相關方法為重點,調查了人工智能社區所完成的工作。我們將在現實世界和大規模應用中激發XAI的需求,同時提供最先進的技術和最佳的XAI編碼實踐。在本教程的第一部分,我們將介紹AI的不同解釋方面。然后,我們將重點介紹兩種具體的方法:(i) XAI使用機器學習和(ii) XAI使用基于圖的知識表示和機器學習的結合。對于這兩種情況,我們都將深入研究方法的細節、技術現狀和下一步的研究挑戰。本教程的最后一部分概述了XAI的實際應用程序以及最佳的XAI編碼實踐。
【導讀】開放數據科學會議ODSC21在 3 月 30日-4 月 1日,大會涵蓋了眾多最近研究報告,來自Freddy Lecue博士做了關于可解釋人工智能的進展報告,非常值得關注!
人工智能的未來在于使人類能夠與機器合作解決復雜的問題。就像任何有效的合作一樣,這需要良好的溝通、信任、清晰和理解。可解釋人工智能(XAI)旨在通過結合符號人工智能和傳統機器學習的優點來應對此類挑戰。多年來,各種不同的AI社區都在研究這一主題,他們有著不同的定義、評估指標、動機和結果。
XAI是指一套用于解釋機器學習之外的任何類型的人工智能系統的工具。盡管這些工具旨在解決更廣泛意義上的解釋問題,但它們并不是為所有用戶、任務、上下文和應用設計的。本演講將通過回顧XAI的方法、動機、最佳實踐、工業應用和局限性來描述其迄今為止的進展。
本教程是XAI迄今為止工作的一個概述,并綜述了AI社區所完成的工作,重點是機器學習和符號AI相關方法。我們將闡述XAI在現實世界和大規模應用中的需求,同時提供最先進的技術和最佳的XAI編碼實踐。在教程的第一部分,我們將介紹AI的不同方面的解釋。然后,我們將本教程重點介紹兩種具體方法:(i) XAI使用機器學習,(ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們都進入了具體的方法,目前的技術水平和下一步的研究挑戰。本教程的最后一部分概述了XAI的實際應用以及最佳XAI編碼實踐。
地址:
【導讀】國際人工智能會議AAAI 2021論文將在全程線上舉辦,時間在 2 月 2 日-2 月 9 日,本屆大會也將是第 35 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Freddy Lecue, Pasquale Minervini, Fosca Giannotti and Riccardo Guidotti博士共同做了關于可解釋人工智能的進展報告,非常值得關注!
人工智能的未來在于使人類能夠與機器合作解決復雜的問題。就像任何有效的合作一樣,這需要良好的溝通、信任、清晰和理解。可解釋人工智能(XAI)旨在通過結合符號人工智能和傳統機器學習的優點來應對此類挑戰。多年來,各種不同的AI社區都在研究這一主題,他們有著不同的定義、評估指標、動機和結果。
本教程是XAI迄今為止工作的一個概述,并綜述了AI社區所完成的工作,重點是機器學習和符號AI相關方法。我們將闡述XAI在現實世界和大規模應用中的需求,同時提供最先進的技術和最佳的XAI編碼實踐。在教程的第一部分,我們將介紹AI的不同方面的解釋。然后,我們將本教程重點介紹兩種具體方法:(i) XAI使用機器學習,(ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們都進入了具體的方法,目前的技術水平和下一步的研究挑戰。本教程的最后一部分概述了XAI的實際應用以及最佳XAI編碼實踐。
【導讀】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美國紐約舉辦。AAAI2020關于可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述了解釋黑盒機器學習模型的術語概念以及相關方法,涵蓋基礎、工業應用、實際挑戰和經驗教訓,是構建可解釋模型的重要指南.
可解釋AI:基礎、工業應用、實際挑戰和經驗教訓
?
地址: //xaitutorial2020.github.io/
Tutorial 目標 本教程的目的是為以下問題提供答案:
什么是可解釋的AI (XAI)
我們為什么要關心?
哪里是關鍵?
它是如何工作的?
我們學到了什么?
下一個是什么?
概述
人工智能的未來在于讓人們能夠與機器合作解決復雜的問題。與任何有效的協作一樣,這需要良好的溝通、信任、清晰和理解。XAI(可解釋的人工智能)旨在通過結合象征性人工智能和傳統機器學習來解決這些挑戰。多年來,所有不同的AI社區都在研究這個主題,它們有不同的定義、評估指標、動機和結果。
本教程簡要介紹了XAI迄今為止的工作,并調查了AI社區在機器學習和符號化AI相關方法方面所取得的成果。我們將激發XAI在現實世界和大規模應用中的需求,同時展示最先進的技術和最佳實踐。在本教程的第一部分,我們將介紹AI中解釋的不同方面。然后,我們將本教程的重點放在兩個特定的方法上: (i) XAI使用機器學習和 (ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們將詳細介紹其方法、目前的技術狀態以及下一步的限制和研究挑戰。本教程的最后一部分概述了XAI的實際應用。
Freddy Lecue博士是加拿大蒙特利爾泰勒斯人工智能技術研究中心的首席人工智能科學家。他也是法國索菲亞安提波利斯溫姆斯的INRIA研究所的研究員。在加入泰雷茲新成立的人工智能研發實驗室之前,他曾于2016年至2018年在埃森哲愛爾蘭實驗室擔任人工智能研發主管。在加入埃森哲之前,他是一名研究科學家,2011年至2016年在IBM research擔任大規模推理系統的首席研究員,2008年至2011年在曼徹斯特大學(University of Manchester)擔任研究員,2005年至2008年在Orange Labs擔任研究工程師。
目錄與內容
第一部分: 介紹和動機
人工智能解釋的入門介紹。這將包括從理論和應用的角度描述和激發對可解釋的人工智能技術的需求。在這一部分中,我們還總結了先決條件,并介紹了本教程其余部分所采用的不同角度。
第二部分: 人工智能的解釋(不僅僅是機器學習!)
人工智能各個領域(優化、知識表示和推理、機器學習、搜索和約束優化、規劃、自然語言處理、機器人和視覺)的解釋概述,使每個人對解釋的各種定義保持一致。還將討論可解釋性的評估。本教程將涵蓋大多數定義,但只深入以下領域: (i) 可解釋的機器學習,(ii) 可解釋的AI與知識圖和機器學習。
第三部分: 可解釋的機器學習(從機器學習的角度)
在本節中,我們將處理可解釋的機器學習管道的廣泛問題。我們描述了機器學習社區中解釋的概念,接著我們描述了一些流行的技術,主要是事后解釋能力、設計解釋能力、基于實例的解釋、基于原型的解釋和解釋的評估。本節的核心是分析不同類別的黑盒問題,從黑盒模型解釋到黑盒結果解釋。
第四部分: 可解釋的機器學習(從知識圖譜的角度)
在本教程的這一節中,我們將討論將基于圖形的知識庫與機器學習方法相結合的解釋力。
第五部分: XAI工具的應用、經驗教訓和研究挑戰
我們將回顧一些XAI開源和商業工具在實際應用中的例子。我們關注一些用例:i)解釋自動列車的障礙檢測;ii)具有內置解釋功能的可解釋航班延誤預測系統;(三)基于知識圖譜的語義推理,對企業項目的風險層進行預測和解釋的大范圍合同管理系統;iv)識別、解釋和預測500多個城市大型組織員工異常費用報銷的費用系統;v)搜索推薦系統說明;vi)解釋銷售預測;(七)貸款決策說明;viii)解釋欺詐檢測。
【導讀】人工智能領域的國際頂級會議 AAAI 2019 即將于 1 月 27 日至 2 月 1 日在美國夏威夷舉行。AAAI2019第一天的關于可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述了解釋黑盒機器學習模型的術語概念以及相關方法,是構建可解釋模型的重要指南.
AI系統--我如何信任它們?
在現實生活中,每一個決策,無論是由機器還是低級員工又或是首席執行官做出的,為了達到提高整體的業務水平的目的,都要通過定期的審查,來解釋他們的決定。這就產生了人工智能的新興分支,稱為“可解釋的人工智能”(XAI)。
什么是可解釋的AI(XAI)?
XAI是人工智能的一個新興分支,用于解釋人工智能所做出的每一個決策背后的邏輯。下圖是對一個完整AI決策流程的簡單描述。
AAAI 2019 tutorial: 可解釋AI –從理論到動機,應用和局限性
一、本教程希望為以下問題提供答案:
什么是可解釋的AI (XAI)?
什么是可解釋的AI(簡稱XAI),即人工智能社區的各種流程 (Machine Learning, Logics, Constraint Programming, Diagnostics)的解釋是什么?解釋的度量標準是什么?
我們為什么要在意?
為什么可解釋的人工智能很重要?甚至在某些應用中至關重要?解釋人工智能系統的動機是什么?
它在哪里至關重要?
在現實世界中,哪些應用程序需要解釋如何大規模部署AI系統?
它是如何工作的?
在計算機視覺和自然語言處理中,最前沿的解釋技術是什么?對于哪種數據格式、用例、應用程序、行業,哪些方法效果好,哪些方法效果不好?
我們學到了什么?
部署現有可解釋AI系統的經驗教訓和局限性是什么?在向人類解釋的過程中學到了什么?
接下來的發展是什么?
可解釋AI未來的發展方向是什么?
二、概述
人工智能的未來在于使人們能夠與機器協作解決復雜的問題。與任何有效的協作一樣,這需要良好的溝通,信任,清晰和理解。 可解釋AI(XAI,eXplainable AI)旨在通過將符號人工智能與傳統機器學習的最佳結合來應對這些挑戰。多年來,人工智能的各個不同社區都在研究這一主題,它們有著不同的定義、評估指標、動機和結果。本教程簡要介紹了可解釋AI到目前為止的工作,并調研了人工智能社區在機器學習和符號人工智能相關方法方面所完成的工作。
在本教程的第一部分中,我們將介紹AI解釋的不同方面。然后我們將本教程的重點放在兩個具體的方法上:(i)使用機器學習的可解釋AI和(ii)使用基于圖(graph)的知識表示和機器學習結合的可解釋AI。對于這兩者,我們深入探討了該方法的具體細節,現有技術以及后續步驟的研究挑戰。本教程的最后一部分概述了可解釋AI的實際應用。
三、大綱
【介紹】
人工智能解釋的廣泛介紹。這將包括從理論和應用的角度描述和激發對可解釋AI技術的需求。在這一部分中,我們還總結了先決條件,并介紹了本教程其余部分所采用的不同視角。
【可解釋AI】
人工智能的各個領域(優化,知識表示和推理,機器學習,搜索和約束優化,規劃,自然語言處理,機器人和視覺)的解釋概述,使每個人對解釋的不同定義保持一致。本教程將涵蓋大多數定義,但只會深入以下領域:(i)可解釋的機器學習,(ii)具有知識圖和ML的可解釋AI。
【可解釋機器學習】
在本節中,我們將解決可解釋的機器學習pipeline的廣泛問題。我們描述了機器學習社區中可解釋性的概念,并通過描述一些流行的可解釋性模型來繼續。本節的核心是對不同類別的黑箱問題進行分析,從黑箱模型講解到黑箱結果講解,最后是黑箱檢查。
【用知識圖譜和ML解釋AI】
在本教程的這一部分中,我們將從兩個不同的角度闡述基于圖的知識庫的解釋力:
用語義網和邏輯解釋AI
我們展示了支持語義web的模式豐富的、基于圖的知識表示范式是如何實現有效解釋的。本節還將重點介紹從大型異構知識庫中表示和推斷有效解釋的邏輯和推理方法。
基于知識圖譜的機器學習
在本節中,我們將重點討論知識圖嵌入模型,即將知識圖中的概念編碼為連續低維向量的神經架構。這些模型已經被證明對許多機器學習任務有效,特別是知識庫的完成。我們解釋了這些模型的基本原理和架構,并從它們的不可預測性以及如何增強第三方模型的可解釋性的角度對它們進行了考察。
【應用】
我們展示了應用解釋技術的真實示例。我們關注一些使用案例:i)具有內置解釋功能的可解釋的航班延誤預測系統; ii)基于知識圖的語義推理,預測和解釋企業項目風險層次的大范圍合同管理系統;iii) 500多個城市的大型組織員工異常報銷的識別、解釋和預測的費用體系。
Tutorial的講者
PPT下載鏈接://pan.baidu.com/s/1dyjGJyhqS3-E77DysIkgHQ 提取碼:aq79