作為人工智能的一個領域,機器推理(MR)主要使用符號手段來形式化和模擬抽象推理。早期MR的研究已經開始對可解釋的人工智能(XAI)進行調查,這可以說是當今人工智能界最關心的問題之一。從那時起,關于可解釋的MR以及人工智能其他領域可解釋的MR方法的工作一直在繼續。它在現代的MR branch中尤其有效,比如論證,約束和邏輯編程,規劃。在此,我們旨在對MR可解釋性技術和研究進行有選擇性的概述,希望從這一長期研究中獲得的見解能夠很好地補充目前的XAI景觀。這份文件報告了我們在MR解釋能力方面的工作進展。
As a field of AI, Machine Reasoning (MR) uses largely symbolic means to formalize and emulate abstract reasoning. Studies in early MR have notably started inquiries into Explainable AI (XAI) -- arguably one of the biggest concerns today for the AI community. Work on explainable MR as well as on MR approaches to explainability in other areas of AI has continued ever since. It is especially potent in modern MR branches, such as argumentation, constraint and logic programming, planning. We hereby aim to provide a selective overview of MR explainability techniques and studies in hopes that insights from this long track of research will complement well the current XAI landscape. This document reports our work in-progress on MR explainability.
近年來,機器學習發展迅速,尤其是深度學習在圖像、聲音、自然語言處理等領域取得卓越成效.機器學習算法的表示能力大幅度提高,但是伴隨著模型復雜度的增加,機器學習算法的可解釋性越差,至今,機器學習的可解釋性依舊是個難題.通過算法訓練出的模型被看作成黑盒子,嚴重阻礙了機器學習在某些特定領域的使用,譬如醫學、金融等領域.目前針對機器學習的可解釋性綜述性的工作極少,因此,將現有的可解釋方法進行歸類描述和分析比較,一方面對可解釋性的定義、度量進行闡述,另一方面針對可解釋對象的不同,從模型的解釋、預測結果的解釋和模仿者模型的解釋3個方面,總結和分析各種機器學習可解釋技術,并討論了機器學習可解釋方法面臨的挑戰和機遇以及未來的可能發展方向。
近年來,深度神經網絡在許多研究領域取得了成功。大多數神經網絡設計背后的基本思想是從數據中學習相似模式,用于預測和推理,這缺乏認知推理能力。然而,具體的推理能力對于許多理論和實踐問題是至關重要的。另一方面,傳統的符號推理方法在邏輯推理方面做得很好,但它們大多是基于規則的硬推理,由于不同的任務可能需要不同的規則,使得它們的泛化能力局限于不同的任務。推理和泛化能力對于預測任務都很重要,比如推薦系統,推理為精確預測提供了用戶歷史和目標項目之間的緊密聯系,泛化幫助模型在噪聲輸入中繪制出一個穩健的用戶畫像。
在本文中,我們提出了邏輯集成神經網絡(LINN)來集成深度學習和邏輯推理的能力。LINN是一個根據輸入邏輯表達式構建計算圖的動態神經結構。它學習基本的邏輯操作,如AND, OR,而不是神經模塊,并通過網絡進行命題邏輯推理進行推理。理論任務實驗表明,LINN在求解邏輯方程和變量方面都取得了顯著的效果。此外,我們通過將實際的推薦任務構造成一個邏輯推理問題來測試我們的方法。實驗表明,LINN在Top-K推薦方面的性能顯著優于現有推薦模型,驗證了LINN在實際應用中的潛力。
機器學習方法以有限的資源快速地從大量的數據中提取價值。它們是在廣泛的工業應用中建立起來的工具,包括搜索引擎、DNA測序、股票市場分析和機器人移動,它們的使用正在迅速蔓延。了解這些方法的人可以選擇有回報的工作。這個動手實踐書冊為計算機科學學生打開這些機會。它是專為具有有限的線性代數和微積分背景的大四本科生和碩士生設計的。它在圖模型的框架內開發了從基本推理到高級技術的所有內容。學生們學到的不僅僅是一系列的技巧,他們還會發展分析和解決問題的技巧,這些技巧使他們能夠適應真實的世界。許多例子和練習,以計算機為基礎和理論,包括在每一章。為學生和教師的資源,包括一個MATLAB工具箱,可在網上獲得。
題目: TransOMCS: From Linguistic Graphs to Commonsense Knowledge
摘要: 常識知識的獲取是人工智能的關鍵問題。傳統的獲取常識的方法通常需要費力且昂貴的人工標記,而大規模的人工標記是不可行的。本文探討了一種從語言圖形中挖掘常識性知識的實用方法,目的是將通過語言模式獲得的廉價知識轉化為昂貴的常識性知識。其結果是將大規模的選擇性知識資源ASER轉換為與ConceptNet具有相同表示的Transomc,但要大兩個數量級。實驗結果證明了語言知識對常識的轉化能力,以及該方法在數量、新穎性和質量方面的有效性。
題目: Foundations of Explainable Knowledge-Enabled Systems
摘要:
自從人工智能時代以來,可解釋性就一直是重要的目標。 目前為止,已經有幾種產生解釋的方法被提出。 但是,這些方法中有許多都與當時的人工智能系統的能力緊密相關。 隨著有時在關鍵環境中啟用AI的系統的普及,有必要讓最終用戶和決策者對它們進行解釋。 我們將介紹可解釋的人工智能系統的歷史概況,重點是知識支持的系統,涵蓋專家系統,認知助手,語義應用和機器學習領域。 此外,借鑒過去的方法的優勢,并找出使解釋以用戶和上下文為中心所需要的空白,我們提出了新的解釋定義和可解釋的知識支持系統。
【導讀】人工智能領域的國際頂級會議 AAAI 2019 即將于 1 月 27 日至 2 月 1 日在美國夏威夷舉行。AAAI2019第一天的關于可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述了解釋黑盒機器學習模型的術語概念以及相關方法,是構建可解釋模型的重要指南.
AI系統--我如何信任它們?
在現實生活中,每一個決策,無論是由機器還是低級員工又或是首席執行官做出的,為了達到提高整體的業務水平的目的,都要通過定期的審查,來解釋他們的決定。這就產生了人工智能的新興分支,稱為“可解釋的人工智能”(XAI)。
什么是可解釋的AI(XAI)?
XAI是人工智能的一個新興分支,用于解釋人工智能所做出的每一個決策背后的邏輯。下圖是對一個完整AI決策流程的簡單描述。
AAAI 2019 tutorial: 可解釋AI –從理論到動機,應用和局限性
一、本教程希望為以下問題提供答案:
什么是可解釋的AI (XAI)?
什么是可解釋的AI(簡稱XAI),即人工智能社區的各種流程 (Machine Learning, Logics, Constraint Programming, Diagnostics)的解釋是什么?解釋的度量標準是什么?
我們為什么要在意?
為什么可解釋的人工智能很重要?甚至在某些應用中至關重要?解釋人工智能系統的動機是什么?
它在哪里至關重要?
在現實世界中,哪些應用程序需要解釋如何大規模部署AI系統?
它是如何工作的?
在計算機視覺和自然語言處理中,最前沿的解釋技術是什么?對于哪種數據格式、用例、應用程序、行業,哪些方法效果好,哪些方法效果不好?
我們學到了什么?
部署現有可解釋AI系統的經驗教訓和局限性是什么?在向人類解釋的過程中學到了什么?
接下來的發展是什么?
可解釋AI未來的發展方向是什么?
二、概述
人工智能的未來在于使人們能夠與機器協作解決復雜的問題。與任何有效的協作一樣,這需要良好的溝通,信任,清晰和理解。 可解釋AI(XAI,eXplainable AI)旨在通過將符號人工智能與傳統機器學習的最佳結合來應對這些挑戰。多年來,人工智能的各個不同社區都在研究這一主題,它們有著不同的定義、評估指標、動機和結果。本教程簡要介紹了可解釋AI到目前為止的工作,并調研了人工智能社區在機器學習和符號人工智能相關方法方面所完成的工作。
在本教程的第一部分中,我們將介紹AI解釋的不同方面。然后我們將本教程的重點放在兩個具體的方法上:(i)使用機器學習的可解釋AI和(ii)使用基于圖(graph)的知識表示和機器學習結合的可解釋AI。對于這兩者,我們深入探討了該方法的具體細節,現有技術以及后續步驟的研究挑戰。本教程的最后一部分概述了可解釋AI的實際應用。
三、大綱
【介紹】
人工智能解釋的廣泛介紹。這將包括從理論和應用的角度描述和激發對可解釋AI技術的需求。在這一部分中,我們還總結了先決條件,并介紹了本教程其余部分所采用的不同視角。
【可解釋AI】
人工智能的各個領域(優化,知識表示和推理,機器學習,搜索和約束優化,規劃,自然語言處理,機器人和視覺)的解釋概述,使每個人對解釋的不同定義保持一致。本教程將涵蓋大多數定義,但只會深入以下領域:(i)可解釋的機器學習,(ii)具有知識圖和ML的可解釋AI。
【可解釋機器學習】
在本節中,我們將解決可解釋的機器學習pipeline的廣泛問題。我們描述了機器學習社區中可解釋性的概念,并通過描述一些流行的可解釋性模型來繼續。本節的核心是對不同類別的黑箱問題進行分析,從黑箱模型講解到黑箱結果講解,最后是黑箱檢查。
【用知識圖譜和ML解釋AI】
在本教程的這一部分中,我們將從兩個不同的角度闡述基于圖的知識庫的解釋力:
用語義網和邏輯解釋AI
我們展示了支持語義web的模式豐富的、基于圖的知識表示范式是如何實現有效解釋的。本節還將重點介紹從大型異構知識庫中表示和推斷有效解釋的邏輯和推理方法。
基于知識圖譜的機器學習
在本節中,我們將重點討論知識圖嵌入模型,即將知識圖中的概念編碼為連續低維向量的神經架構。這些模型已經被證明對許多機器學習任務有效,特別是知識庫的完成。我們解釋了這些模型的基本原理和架構,并從它們的不可預測性以及如何增強第三方模型的可解釋性的角度對它們進行了考察。
【應用】
我們展示了應用解釋技術的真實示例。我們關注一些使用案例:i)具有內置解釋功能的可解釋的航班延誤預測系統; ii)基于知識圖的語義推理,預測和解釋企業項目風險層次的大范圍合同管理系統;iii) 500多個城市的大型組織員工異常報銷的識別、解釋和預測的費用體系。
Tutorial的講者
PPT下載鏈接://pan.baidu.com/s/1dyjGJyhqS3-E77DysIkgHQ 提取碼:aq79
報告主題: Epistemic reasoning in AI
簡介:
在多智能體系統中,智能體應該能夠解釋它們的決策。事實上,在失敗的情況下,智能體需要以一種可以理解的方式為它們的決定辯護,特別是要遵守最近的法律(如歐洲的GDPR)。此外,它們需要做出有意義的決定來與它他智能體合作,比如人類。為了實現這一目標,智能體應該模擬人的心理狀態。例如,如果機器人認為人類需要某個物體而不知道它的位置,那么它可以將該物體的位置告知人類。在本教程中,我們將介紹關于知識/信念的推理的最新進展。它由教學工具Hintikka來展示,該工具通過連環畫的方式描繪人的心理狀態,并以游戲等多種簡單的多智能體系統為特色。我們將討論幾個正式的工具建模如下:
邀請嘉賓:
Tristan Charrier教授是INRIA/IRISA(法國雷恩)的研究員,目前是臨時助理教授。主要興趣是應用于人工智能的邏輯/形式方法、符號模型、認知規劃、指定認知情境的語言、認知推理的論證。
Fran?ois Schwarzentruber是法國雷恩大學的副教授。他目前的研究興趣主要集中在邏輯理論和人工智能、代理和多代理系統以及計算機科學中的應用。他是AAMAS和IJCAI等專題的PC版成員。曾任Synthese、Studia Logica、Theoretical Computer Science等期刊的審稿人。2011年以來,主要研究動態認知邏輯。
Incorporating knowledge graph into recommender systems has attracted increasing attention in recent years. By exploring the interlinks within a knowledge graph, the connectivity between users and items can be discovered as paths, which provide rich and complementary information to user-item interactions. Such connectivity not only reveals the semantics of entities and relations, but also helps to comprehend a user's interest. However, existing efforts have not fully explored this connectivity to infer user preferences, especially in terms of modeling the sequential dependencies within and holistic semantics of a path. In this paper, we contribute a new model named Knowledge-aware Path Recurrent Network (KPRN) to exploit knowledge graph for recommendation. KPRN can generate path representations by composing the semantics of both entities and relations. By leveraging the sequential dependencies within a path, we allow effective reasoning on paths to infer the underlying rationale of a user-item interaction. Furthermore, we design a new weighted pooling operation to discriminate the strengths of different paths in connecting a user with an item, endowing our model with a certain level of explainability. We conduct extensive experiments on two datasets about movie and music, demonstrating significant improvements over state-of-the-art solutions Collaborative Knowledge Base Embedding and Neural Factorization Machine.