簡介: 神經網絡是許多表現最佳的AI系統的基礎,包括智能手機上的語音識別器或Google最新的自動翻譯器,這些應用程序的巨大成功激發了人們對將神經網絡應用于金融,經濟,運營,市場營銷,醫學等許多其他領域的興趣。在金融領域,研究人員已經在風險管理,資產定價和投資管理方面開發了一些有前途的應用程序。NN的成功很大程度上取決于其驚人的逼近特性,出色的預測性能以及可擴展性,然而,主要的問題是模型的可解釋性:NN被視為黑匣子,幾乎無法洞悉如何進行預測,本教程將對NN的可解釋性作出響應的回答。
嘉賓介紹: Kay Giesecke,是斯坦福大學管理科學與工程教授,也是工程學院的Paul Pigott系學者。他是高級金融技術實驗室的主任,也是數學和計算金融計劃的主任。他在風險數據分析聯盟的理事會和科學顧問委員會任職。Kay是一位金融工程師。他開發了隨機財務模型,設計了用于分析財務數據的統計方法,研究了模擬和其他數值算法來解決相關的計算問題,并進行了實證分析。
主題: Explainable Reinforcement Learning: A Survey
摘要: 可解釋的人工智能(XAI),即更透明和可解釋的AI模型的開發在過去幾年中獲得了越來越多的關注。這是由于這樣一個事實,即AI模型隨著其發展為功能強大且無處不在的工具而表現出一個有害的特征:性能與透明度之間的權衡。這說明了一個事實,即模型的內部工作越復雜,就越難以實現其預測或決策。但是,特別是考慮到系統像機器學習(ML)這樣的方法(強化學習(RL))在系統自動學習的情況下,顯然有必要了解其決策的根本原因。由于據我們所知,目前尚無人提供可解釋性強化學習(XRL)方法的概述的工作,因此本調查試圖解決這一差距。我們對問題進行了簡短的總結,重要術語的定義以及提議當前XRL方法的分類和評估。我們發現a)大多數XRL方法通過模仿和簡化一個復雜的模型而不是設計本質上簡單的模型來起作用,并且b)XRL(和XAI)方法通常忽略了方程的人為方面,而不考慮相關領域的研究像心理學或哲學。因此,需要跨學科的努力來使所生成的解釋適應(非專家)人類用戶,以便有效地在XRL和XAI領域中取得進步。
統計學習是一套以復雜數據建模和數據理解為目的的工具集,是近期才發展起來的統計學的一個新領域。本書出自統計學習領域聲名顯赫的幾位專家,結合R語言介紹了分析大數據必不可少的工具,提供一些重要的建模和預測技術,并借助豐富的實驗來解釋如何用R語言實現統計學習方法。論題包括線性回歸、分類、重抽樣方法、壓縮方法、基于樹的方法、支持向量機、聚類等,作者借助彩圖和實際案例直觀解釋這些方法。為了讀者更好地理解書中內容,每章后還配有豐富的概念性和應用性練習題。
書中內容與《The Elements of Statistical Learning》的大部分內容相同,但是本書起點低,弱化了數學推導的細節,更注重方法的應用,所以更適合作為入門教材。當然,這本《統計學習導論》不僅是優秀的“統計學習”或“機器學習”課程的教材,也是數據挖掘、數據分析等相關從業者不可或缺的參考書。
Gareth James 斯坦福大學統計學博士畢業,師從Trevor Hastie。現為南加州大學馬歇爾商學院統計學教授,美國統計學會會士,數理統計協會終身會員,新西蘭統計協會會員。《Statistica Sinica》、《Applications and Case Studies》、《Theory and Methods》等期刊的副主編。
Daniela Witten 斯坦福大學統計學博士畢業,師從Robert Tibshirani。現為華盛頓大學生物統計學副教授,美國統計學會和國際數理統計協會會士,《Journal of Computational and Graphical Statistics》和《Biometrika》等期刊副主編。
Trevor Hastie 美國統計學家和計算機科學家,斯坦福大學統計學教授,英國皇家統計學會、國際數理統計協會和美國統計學會會士。Hastie參與開發了 R 中的大部分統計建模軟件和環境,發明了主曲線和主曲面。
Robert Tibshirani 斯坦福大學統計學教授,國際數理統計協會、美國統計學會和加拿大皇家學會會士,1996年COPSS總統獎得主,提出lasso方法。Hastie和Tibshirani都是統計學習領域的泰山北斗,兩人合著《The Elements of Statistical Learning》,還合作講授斯坦福大學的公開課《統計學習》。
【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。這周會議已經召開。來自美國Linkedin、AWS等幾位學者共同給了關于在工業界中可解釋人工智能的報告,講述了XAI概念、方法以及面臨的挑戰和經驗教訓。
人工智能在我們的日常生活中扮演著越來越重要的角色。此外,隨著基于人工智能的解決方案在招聘、貸款、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響將是深遠的。人工智能模型在這些領域所起的主導作用已經導致人們越來越關注這些模型中的潛在偏見,以及對模型透明性和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療和自動化交通)以及具有重大經濟意義的關鍵工業應用(如預測維護、自然資源勘探和氣候變化建模)中建立信任和采用人工智能系統的先決條件。
因此,人工智能的研究人員和實踐者將他們的注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括 (i) 定義模型可解釋性,(ii) 為理解模型行為制定可解釋性任務,并為這些任務開發解決方案,最后 (iii)設計評估模型在可解釋性任務中的性能的措施。
在本教程中,我們將概述AI中的模型解譯性和可解釋性、關鍵規則/法律以及作為AI/ML系統的一部分提供可解釋性的技術/工具。然后,我們將關注可解釋性技術在工業中的應用,在此我們提出了有效使用可解釋性技術的實踐挑戰/指導方針,以及在幾個網絡規模的機器學習和數據挖掘應用中部署可解釋模型的經驗教訓。我們將介紹不同公司的案例研究,涉及的應用領域包括搜索和推薦系統、銷售、貸款和欺詐檢測。最后,根據我們在工業界的經驗,我們將確定數據挖掘/機器學習社區的開放問題和研究方向。
主題: Directions for Explainable Knowledge-Enabled Systems
摘要: 數十年來,人們對可解釋人工智能領域的興趣不斷增長,并且近年來這種興趣正在加速增長。隨著人工智能模型變得更加復雜,并且通常更加不透明,并且隨著復雜的機器學習技術的結合,可解釋性變得越來越重要。最近,研究人員一直在研究和解決以用戶為中心的可解釋性,尋找解釋以考慮可信度,可理解性,顯性出處和上下文意識。在本章中,我們將利用對人工智能及其密切相關領域的解釋性文獻的調查,并利用過去的努力來生成一組解釋類型,我們認為這些類型反映了當今人工智能應用對解釋的擴展需求。我們定義每種類型,并提供一個示例問題,以激發對這種解釋方式的需求。我們認為,這組解釋類型將有助于未來的系統設計人員生成需求并確定其優先級,并進一步幫助生成更符合用戶和情況需求的解釋。
講座題目
工業中可解釋的人工智能:Fake News Research: Theories, Detection Strategies, and Open Problems
講座簡介
人工智能在決定我們的日常經驗方面越來越發揮著不可或缺的作用。此外,隨著基于人工智能的解決方案在招聘、借貸、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響是深遠的。人工智能模型在這些領域發揮的主導作用導致人們越來越關注這些模型中可能存在的偏見,以及對模型透明度和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療保健和自動化運輸)和具有重大經濟意義的關鍵工業應用(如預測性維護、自然資源勘探和氣候變化模型。 因此,人工智能研究者和實踐者把注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括(i)定義模型可解釋性,(ii)制定可解釋性任務以理解模型行為并為這些任務制定解決方案,最后(iii)設計評估模型在可解釋性任務中的性能的措施。 在本教程中,我們將概述人工智能中模型的可解釋性和可解釋性、關鍵法規/法律以及作為人工智能/建模語言系統一部分提供可解釋性的技術/工具。然后,我們將重點關注可解釋性技術在工業中的應用,其中我們提出了有效使用可解釋性技術的實際挑戰/指導方針,以及為多個web規模的機器學習和數據挖掘應用部署可解釋模型的經驗教訓。我們將介紹跨不同公司的案例研究,涉及招聘、銷售、貸款和欺詐檢測等應用領域。最后,根據我們在行業中的經驗,我們將確定數據挖掘/機器學習社區的開放性問題和研究方向。
講座嘉賓
Krishna Gade是Fiddler Labs的創始人兼首席執行官,Fiddler Labs是一家企業初創企業,它構建了一個可解釋的人工智能引擎,以解決人工智能中有關偏見、公平性和透明度的問題。克里希納是一位企業家和工程領袖,在創建可擴展平臺和令人愉悅的消費品方面有著豐富的技術經驗,他曾在Facebook、Pinterest、Twitter和微軟擔任高級工程領導職務。他曾多次應邀在著名的從業人員論壇上發表演講,包括在2019年的Strata Data Conference上就解決人工智能中的偏見、公平性和透明度問題發表演講.
題目: Towards Explainable Deep Neural Networks (xDNN)
簡介: 在本文中,我們提出了一種解決方案,該解決方案直接解決了傳統深度學習方法的瓶頸,并提供了一種清晰可解釋的內部架構,該架構可以勝過現有方法,只需要很少的計算資源(不需要GPU)并且訓練時間短(以秒為單位)。提出的方法xDNN原型,原型是實際的訓練數據樣本(圖像),是經驗數據分布的局部峰值(稱為典型性)以及數據密度。這種生成模型以封閉形式識別,但可以自動且完全從訓練數據中得出,而無需用戶或問題特定的閾值,參數或干預。xDNN提供了一種新的深度學習架構,該架構將推理和學習結合在一起。它是非迭代且非參數的,這從時間和計算資源上解釋了其效率。從用戶的角度來看,用戶顯然可以理解所提出的方法。我們在一些著名的基準數據集(例如iRoads和Caltech-256)上對其進行了測試。 xDNN在準確性,訓練時間方面優于其他方法,包括深度學習,并提供了一個清晰可解釋的分類器。
報告主題: Thales Embedded Explainable AI: Towards the Adoption of AI in Critical Systems
嘉賓介紹: Freddy Lecue博士是加拿大蒙特利爾泰勒斯人工智能技術研究中心的首席人工智能科學家。他也是法國索菲亞安提波利斯溫姆斯的INRIA研究所的研究員。在加入泰雷茲新成立的人工智能研發實驗室之前,他曾于2016年至2018年在埃森哲愛爾蘭實驗室擔任人工智能研發主管。在加入埃森哲之前,他是一名研究科學家,2011年至2016年在IBM research擔任大規模推理系統的首席研究員,2008年至2011年在曼徹斯特大學(University of Manchester)擔任研究員,2005年至2008年在Orange Labs擔任研究工程師。
題目: GNNExplainer: Generating Explanations for Graph Neural Networks
簡介: 圖神經網絡(GNN)通過沿輸入圖的邊緣遞歸傳遞神經消息,將節點特征信息與圖結構結合在一起。但是同時包含圖結構和特征信息會導致模型復雜,并且解釋GNN所做的預測仍未解決。在這里,我們提出GNNExplainer,這是第一種通用的,與模型無關的方法,可為任何基于GNN的模型的預測提供可解釋性。給定一個實例,GNNExplainer會確定緊湊的子圖結構和節點特征的一小部分,這些特征對GNN的預測至關重要。此外,GNNExplainer可以為整個實例類生成一致而簡潔的解釋。我們將GNNExplainer公式化為優化任務,該優化任務可最大化GNN的預測與可能的子圖結構的分布之間的相互信息。在合成圖和真實世界圖上進行的實驗表明,我們的方法可以識別重要的圖結構以及節點特征,并且比基準性能高出17.1%。 GNNExplainer提供了各種好處,從可視化語義相關結構的能力到可解釋性,再到洞悉有缺陷的GNN的錯誤。
作者簡介: 領域的大牛Jure Leskovec,是斯坦福大學計算機學院的副教授,也是圖表示學習方法 node2vec 和 GraphSAGE 作者之一。研究重點是對大型社會和信息網絡進行挖掘和建模,它們的演化,信息的傳播以及對它們的影響。 調查的問題是由大規模數據,網絡和在線媒體引起的。 Jure Leskovec主頁
代碼鏈接: