這本書將技術和醫療領域相結合,涵蓋了計算機視覺(CV)和機器學習(ML)的進步,這些進步促進了診斷以及治療和預防性醫療保健的自動化。它特別關注可解釋的人工智能(XAI),揭開了ML的黑盒子,并彌合了技術人員和醫療界之間的語義鴻溝。《醫療中的可解釋人工智能:為生物醫學開箱機器學習》旨在成為計算機科學、電子與通信、信息技術、儀器控制和電氣工程等領域的從基礎到中級再到專家級別的實踐者、研究者和學生的首選參考書。
這本書將以以下方式惠及讀者:
探索計算機視覺和深度學習的最新技術,以開發用于醫療保健診斷的自主或半自主算法。研究計算機科學家和醫生之間如何通過XAI建立橋梁。關注數據分析如何提供理由來應對醫療保健的挑戰,并使決策過程更加透明。啟動關于醫療保健中人工智能與人的關系的討論。統一關于醫療保健隱私保護的學習。
本書對深度學習模型可解釋性的最新研究工具進行了全面的策劃、闡述和說明性討論,重點是神經網絡架構。此外,還包括計算機視覺、光學和機器學習相關主題的應用導向型文章中的若干案例研究。
這本書可以作為深度學習中涵蓋最新主題的可解釋性的專題論文,也可以作為研究生的教科書。負責研究、開發和應用的科學家從它的系統闡述中受益。
本書的動機是深度學習架構的黑箱性質與其編碼的知識模型的人類可解釋性之間的巨大差距。人工智能模型的準確性和可理解性對于人工智能和人類智能的共存和協作變得越來越重要。在某些危及生命的應用中,可解釋性對于根本原因分析和人類決策至關重要。本書側重于對深度學習模型可解釋性的最新研究工具進行全面的策劃、闡述和說明性討論,重點是神經網絡架構。其中很大一部分工作補充了現有的深度學習和神經網絡教科書,并以過去十年的工作為基礎,其中重點是網絡中編碼的知識的可視化和可解釋性。這些工作來自計算機視覺、模式識別和深度學習領域的領先會議和期刊。此外,還包括來自不同領域的面向應用文章的幾個案例研究,包括計算機視覺、光學和自然語言處理。在目前與深度學習、機器學習和神經網絡相關的研究生課程中,缺乏處理可解釋性主題的教學材料。這主要是因為機器學習社區之前的重點是精度,而可解釋性的問題是一個新興的話題。然而,隨著書籍[81]、[428]、課堂講稿[532]、新課程以及觀點[520]的出版,它作為越來越相關的主題正在獲得吸引力。然而,這些工作中對通用機器學習的關注意味著,深度學習中的可解釋性問題目前仍然沒有得到足夠的深度解決,深度學習現在在各種機器學習應用中廣泛使用。因此,這本教科書將是致力于這一主題的先驅教科書之一。這可能會導致設立關于這一主題的專門研究生課程,因為人們認為需要這類課程,但缺乏關于這一主題的有組織的材料是一個突出的障礙。
在第一章中,我們介紹了本書的背景和動機,幫助讀者設定對本書的期望并理解材料的范圍。我們還通過總結深度學習的演變提供了一個簡短的歷史。在此過程中,我們也闡明了這種演變如何導致知識抽象化的增加,從而形成了眾所周知的黑箱模型,它編碼了知識但并未解釋知識。我們自然地將這個討論引向可解釋性的問題,確定了其必要性以及所面臨的挑戰。我們也澄清了本書的重點是解決現有深度學習架構中的可解釋性,而將新的天然可解釋的深度學習架構的設計主題委托給最后一章的一個小節(并可能在未來的本書第二卷中)。
在第二章中,我們介紹了深度學習的各種現代主題,包括傳統的神經網絡架構、學習機制以及深度學習的挑戰。本章的目標是介紹背景概念并為后續章節的技術闡述做準備。特別地,我們將會覆蓋卷積神經網絡、自編碼器、對抗神經網絡、圖神經網絡和神經模糊網絡,因為在接下來的章節中將詳細探討這些范式的可解釋性機制。同樣,具體的學習機制將會被解釋,以便在后續章節中識別可解釋性的損失或機會。出于全面性的考慮,我們還將包含一節關于其他類型的深度學習方法,即使在其他章節中并未詳述它們的可解釋性。
在第三章中,我們開始全面處理可解釋性。具體來說,我們在深度學習方法的一般特性的背景下討論可解釋性的概念。我們從討論神經元和特征級別的抽象知識編碼開始,然后討論抽象編碼的可解釋性和可視化。從理解概念、優點和缺點的角度出發,我們討論了諸如激活圖、顯著性、注意力模型等常規技術。然后,我們分析了在優化或學習過程中知識如何傳播,作為深入了解如何解釋使用深度學習模型學習的知識的挑戰和機會。神經網絡通過連續的非線性激活提取特征,這使得知識表示變得困難,同時對噪聲和不完整數據區域敏感。我們使用一個案例研究討論了知識與性能的關系。最后,我們討論了深度編碼與淺層編碼的解釋,這兩者的性能存在競爭。因此,本章涵蓋了一系列普遍適用于任何深度學習架構的可解釋性主題。
第四章專門介紹針對特定單一架構的可解釋性方法。本章選擇的架構有卷積神經網絡、自編碼器網絡、對抗網絡和圖學習技術。我們包括了與這些架構相關的相對較新的主題,例如卷積神經網絡的新概念“卷積追蹤”,自編碼器網絡潛在空間中抽象特征的可解釋性,對抗網絡中判別模型的可解釋性,以及圖神經網絡的圖嵌入解釋性。我們為每種架構給出了至少一個案例研究,包括來自各種應用領域的案例。我們也簡要地參考了注意力網絡,這種網絡在設計中固有地包含了某種可解釋性。
第五章專門討論模糊深度學習。這種方法與以神經網絡為中心的深度學習略有不同,因為模糊邏輯和基于規則的推理是這類網絡設計的核心。對解釋的需求導致了對基于規則的系統的再度關注。這也是一個被獨立研究的主題,很少在深度學習和可解釋性的特定背景下研究。我們通過闡述模糊深度學習的主題和相關的.
信息論研究了信息流動、表示和傳輸的數學規律,就像物理學研究物理宇宙行為的規律一樣。信息論的基礎是在通信背景下建立的,它描述了通信的基本限制,并提供了代碼(有時稱為算法)來實現它們。 該領域最重要的成就是數字通信的發明,它構成了我們日常生活中的數字產品,如智能手機、筆記本電腦和物聯網設備的基礎。近年來,信息論在過去幾十年發生革命性變革的一個熱門領域——數據科學中,也發揮了重要作用。
本書旨在展示信息論在不斷擴大的數據科學應用領域中的現代作用。本書的第一部分和第二部分涵蓋了信息論的核心概念:關于若干關鍵概念的基本概念;以及關于通信基本限制的著名源和信道編碼定理。最后一部分關注數據科學中出現的應用,包括社交網絡、排名和機器學習。 本書作為信息論和通信領域的高年級本科生和研究生的教材,同時也應該成為這些領域專業人士和工程師的寶貴參考資料。
這本書的寫作是由數據科學研究活動的激增以及信息理論在該領域中的作用所激發的。這構成了本書的動機,使其具有三個關鍵特點。
第一個特點是在數據科學應用場景下展示信息理論的原則和工具,例如社交網絡、DNA測序、搜索引擎和人工智能(AI)。信息理論是一個基礎性的領域,對科學和工程的廣泛領域產生了重要影響。它由克勞德·香農于1948年創立,研究信息流動、表示和傳輸的數學規律。該領域最重要的成就是數字通信的發明,它是我們日常生活中的數字產品如智能手機、筆記本電腦和物聯網(IoT)設備的基礎。盡管該領域起源于通信,但它已經擴展到原始領域之外,為各種各樣的背景做出貢獻,包括網絡、計算生物學、量子科學、經濟學、金融,甚至博彩。因此,過去幾十年里出版了幾本關于信息理論的書籍,涵蓋了廣泛的主題(Gallager,1968;Cover,1999;MacKay,2003;Yeung,2008;Csiszár和K?rner,2011;El Gamal和Kim,2011;Gray,2011;Gleick,2011;Pierce,2012;Wilde,2013)。然而,本書關注的是一個領域:數據科學。在豐富的內容中,我們強調與數據科學應用相關的信息論概念和工具。這些應用包括:社交網絡中的社區檢測、生物網絡中的DNA測序、搜索引擎中的排名、有監督學習、無監督學習和社交AI。
第二,本書采用講座式的格式編寫。關于這個主題的大多數書籍都涉及許多數學概念和理論,以及各種領域的各種應用。概念和相關理論以字典式的組織方式呈現,主題按順序列出。盡管這種字典式的組織方式便于查找特定材料,但它通常缺乏一個有凝聚力的敘述,無法吸引和激勵讀者。本書旨在吸引和激勵那些對數據科學及其與其他學科的相互聯系感興趣的人。我們的目標是創造一個引人入勝的敘述,強調該領域基礎知識的重要性。為實現這一目標,我們采用了講座式的格式,每個章節都作為一次約80分鐘的講座的筆記。通過主題和概念在各章節之間建立了一致的聯系。為確保從一個章節到另一個章節的順利過渡,我們包括了兩段內容:(i)“回顧”段落,總結了已經涉及的內容,并激發了當前章節的內容;(ii)“展望”段落,通過將其與之前的材料聯系起來,引入即將出現的內容。
本書的最后一個特點是通過兩種軟件語言包含許多編程練習:(i)Python;和(ii)TensorFlow。盡管C++和MATLAB在傳統領域得到了廣泛應用,但Python已成為數據科學的關鍵軟件。考慮到本書涉及的數據科學應用的廣度,我們選擇Python作為主要平臺。為了實現機器學習和深度學習算法,我們使用TensorFlow,這是最受歡迎的深度學習框架之一。TensorFlow為深度學習中的許多重要過程提供了許多內置功能,并與Keras(一種強調快速用戶實驗的高級庫)集成。通過Keras,我們可以輕松地從想法轉變為實現,步驟最少。
這本書的目的是考慮到醫院在使用人工智能支持的檢測程序準確診斷各種疾病方面的最新進展。本文研究了最近在醫學成像處理領域工作的著名研究人員和臨床醫生支持的疾病檢測技術。在本書中,將介紹各種人工智能方法的集成,如軟計算、機器學習、深度學習和其他相關工作。結合利用AI的真實臨床圖像。本書還包括關于機器學習、卷積神經網絡、分割和深度學習輔助的二分類和多分類的幾章。 //iopscience.iop.org/book/edit/978-0-7503-4012-0
關鍵特性:
實現機器學習輔助的疾病檢測 * 實現基于CNN(卷積神經網絡)的醫學圖像分割和評估 * 實現基于深度學習的醫療數據評估 * 混合機器學習和深度學習特征,以提高檢測精度
隨著人工智能在醫學、法律和國防等高風險領域的使用越來越多,組織花費大量時間和金錢使ML模型可信。許多關于這個主題的書都深入探討了理論和概念。本指南提供了一個實用的起點,以幫助開發團隊生成安全、更健壯、更少偏差和更易于解釋的模型。
作者Yada Pruksachatkun、Matthew McAteer和Subhabrata Majumdar將學術文獻中管理數據集和構建模型的最佳實踐轉化為構建行業級可信機器學習系統的藍圖。有了這本書,工程師和數據科學家將獲得急需的基礎,以便將可信的ML應用程序發布到一個嘈雜、混亂且通常充滿敵意的世界。
//www.oreilly.com/library/view/practicing-trustworthy-machine/9781098120269/ 你將學習: * 向利益相關者解釋機器學習模型及其輸出的方法 * 如何識別和修復ML管道中的公平性問題和隱私泄露 * 如何開發健壯且安全的機器學習系統以抵御惡意攻擊 * 重要的系統性考慮,如如何管理信任債務以及哪些ML障礙需要人工干預
近年來,機器學習(ML)、人工智能(AI)和其他數據驅動技術取得了重大進展,在生物醫學信息學、健康信息學、醫學AI、醫療物品AI (AIoMT)、醫療AI和智能家庭護理等許多領域都取得了令人振奮的進展,將醫療和健康數據分析帶入了一個新時代。這是一個神奇的時代,所有這些現代機器學習和數據分析技術的幾乎所有應用領域都平等地存在著機遇和挑戰。我們很幸運,因為我們現在已經使用不同的先進機器學習技術在醫療診斷和醫療健康服務方面取得了許多最先進的成果。例如,目前許多淺層和深度學習框架和AI技術已經成功地應用于醫療診斷和醫療健康服務。然而,在試圖解決復雜問題時,仍有許多挑戰需要克服,以獲得令人滿意的解決方案。例如,從可靠性、倫理、可解釋性等角度來看,數據驅動AI和黑盒深度神經網絡越來越受到關注。
我們已經看到機器學習、人工智能和其他數據分析(如數據建模、數據挖掘)技術在醫療診斷和醫療保健服務領域的應用越來越多,例如神經生理信號和神經成像處理、癌癥和疾病診斷、醫療健康(如電子健康記錄)和福祉數據分析、流行病診斷和預測,這只是其中的一部分。許多新的方法和算法被開發出來,旨在解決與我們日常生活密切相關或重大影響的現有問題或新興問題。現在是時候推動傳播應用AI和ML技術解決醫療診斷和保健服務領域問題的最新結果和發現了。本書旨在展示數據驅動和基于數據的ML和AI技術的最新進展,重點介紹了方法和算法的實現,包括信號處理和系統識別,數據挖掘,圖像處理和模式識別,以及深度神經網絡及其應用。
在過去十年中,自動駕駛在研發方面取得了重大的里程碑。人們有興趣在道路上部署自行操作車輛,這預示著交通系統將更加安全和生態友好。隨著計算能力強大的人工智能(AI)技術的興起,自動駕駛車輛可以高精度地感知環境,做出安全的實時決策,在沒有人為干預的情況下運行更加可靠。
然而,在目前的技術水平下,自動駕駛汽車中的智能決策通常不為人類所理解,這種缺陷阻礙了這項技術被社會接受。因此,除了做出安全的實時決策外,自動駕駛汽車的AI系統還需要解釋這些決策是如何構建的,以便在多個政府管轄區內符合監管要求。
該研究為開發自動駕駛車輛的可解釋人工智能(XAI)方法提供了全面的信息。首先,全面概述了目前最先進的自動駕駛汽車行業在可解釋方面存在的差距。然后,展示該領域中可解釋和可解釋受眾的分類。第三,提出了一個端到端自動駕駛系統體系結構的框架,并論證了XAI在調試和調控此類系統中的作用。最后,作為未來的研究方向,提供自主駕駛XAI方法的實地指南,提高操作安全性和透明度,公開獲得監管機構、制造商和所有密切參與者的批準。
這新版本的教科書/參考提供了從工程的角度對概率圖模型(PGMs)的介紹。它提供了關于馬爾科夫決策過程、圖模型和深度學習的新材料,以及更多的練習。
這本書涵蓋了PGM的每個主要類的基礎知識,包括表示、推理和學習原理,并回顧了每種類型的模型的實際應用。這些應用來自廣泛的學科,突出了貝葉斯分類器、隱藏馬爾可夫模型、貝葉斯網絡、動態和時間貝葉斯網絡、馬爾可夫隨機場、影響圖和馬爾可夫決策過程的許多使用。
概率圖模型(PGMs)及其在不確定性下進行智能推理的應用出現于20世紀80年代的統計和人工智能推理領域。人工智能的不確定性(UAI)會議成為這一蓬勃發展的研究領域的首要論壇。20歲的時候,我在圣何塞的UAI-92大學第一次見到了恩里克·蘇卡——我們都是研究生——在那里,他展示了他關于高層次視覺推理的關系和時間模型的研究成果。在過去的25年里,Enrique對我們的領域做出了令人印象深刻的研究貢獻,從客觀概率的基礎工作,到開發時態和事件貝葉斯網絡等高級形式的PGMS,再到PGMS的學習,例如,他的最新研究成果是用于多維分類的貝葉斯鏈分類器。
概率圖模型作為一種強大而成熟的不確定性推理技術已被廣泛接受。與早期專家系統中采用的一些特殊方法不同,PGM基于圖和概率論的強大數學基礎。它們可用于廣泛的推理任務,包括預測、監測、診斷、風險評估和決策。在開源軟件和商業軟件中有許多有效的推理和學習算法。此外,它們的力量和功效已通過其成功應用于大量現實世界的問題領域而得到證明。Enrique Sucar是PGM作為實用和有用技術建立的主要貢獻者,他的工作跨越了廣泛的應用領域。這些領域包括醫學、康復和護理、機器人和視覺、教育、可靠性分析以及從石油生產到發電廠的工業應用。
通過人工神經網絡等獲得的預測具有很高的準確性,但人類經常將這些模型視為黑盒子。對于人類來說,關于決策制定的洞察大多是不透明的。在醫療保健或金融等高度敏感領域,對決策的理解至關重要。黑盒子背后的決策要求它對人類來說更加透明、可問責和可理解。這篇綜述論文提供了基本的定義,概述了可解釋監督機器學習(SML)的不同原理和方法。我們進行了最先進的綜述,回顧過去和最近可解釋的SML方法,并根據介紹的定義對它們進行分類。最后,我們通過一個解釋性的案例研究來說明原則,并討論未來的重要方向。
//www.zhuanzhi.ai/paper/d34a1111c1ab9ea312570ae8e011903c
目前人工智能(AI)模型的準確性是顯著的,但準確性并不是最重要的唯一方面。對于高風險的領域,對模型和輸出的詳細理解也很重要。底層的機器學習和深度學習算法構建的復雜模型對人類來說是不透明的。Holzinger等人(2019b)指出,醫學領域是人工智能面臨的最大挑戰之一。對于像醫療這樣的領域,深刻理解人工智能的應用是至關重要的,對可解釋人工智能(XAI)的需求是顯而易見的。
可解釋性在許多領域很重要,但不是在所有領域。我們已經提到了可解釋性很重要的領域,例如衛生保健。在其他領域,比如飛機碰撞避免,算法多年來一直在沒有人工交互的情況下運行,也沒有給出解釋。當存在某種程度的不完整時,需要可解釋性。可以肯定的是,不完整性不能與不確定性混淆。不確定性指的是可以通過數學模型形式化和處理的東西。另一方面,不完全性意味著關于問題的某些東西不能充分編碼到模型中(Doshi-Velez和Kim(2017))。例如,刑事風險評估工具應該是公正的,它也應該符合人類的公平和道德觀念。但倫理學是一個很寬泛的領域,它是主觀的,很難正式化。相比之下,飛機避免碰撞是一個很容易理解的問題,也可以被精確地描述。如果一個系統能夠很好地避免碰撞,就不用再擔心它了。不需要解釋。
本文詳細介紹了可解釋SML的定義,并為該領域中各種方法的分類奠定了基礎。我們區分了各種問題定義,將可解釋監督學習領域分為可解釋模型、代理模型擬合和解釋生成。可解釋模型的定義關注于自然實現的或通過使用設計原則強制實現的整個模型理解。代理模型擬合方法近似基于黑盒的局部或全局可解釋模型。解釋生成過程直接產生一種解釋,區分局部解釋和全局解釋。
綜上所述,本文的貢獻如下: