亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

教育評估、信貸、就業、醫療保健和刑事司法等高風險應用的決策越來越受到數據驅動,并由機器學習模型支持。機器學習模型也使關鍵的信息物理系統,如自動駕駛汽車和機器人手術成為可能。在過去的幾年里,機器學習領域取得了驚人的進展。然而,即使這些技術越來越多地融入我們的生活,記者、活動家和學者仍發現了一些侵蝕這些系統可信度的特征。例如,據報道,一個支持法官審前拘留決定的機器學習模型對黑人被告存在偏見。同樣,據報道,一個支持在一家大型科技公司進行簡歷篩選的模型也對女性有偏見。研究表明,用于胸部x光片疾病計算機輔助診斷的機器學習模型更重視圖像中的標記,而不是患者的解剖細節。自動駕駛汽車的死亡事故發生在不同尋常的條件下,根本的機器學習算法沒有經過訓練。簡而言之,雖然每天都有機器學習算法在某些任務上取得超人成績的新故事,但這些驚人的結果只是在一般情況下。我們在所有情況下信任這些算法所需要的可靠性、安全性和透明度仍然是難以捉摸的。因此,越來越多的人希望在這些系統中擁有更多的公平性、健壯性、可解釋性和透明度。

//www.trustworthymachinelearning.com/

機器學習的當前狀態是什么,我們如何讓它更值得信任? 天然成分、衛生制劑和防篡改包裝的類似物是什么?機器學習的透明容器、工廠參觀和食品標簽是什么?機器學習在造福社會方面的作用是什么?

這本書的目的是回答這些問題,并提出一個可靠的機器學習的統一觀點。有幾本從不同角度介紹機器學習的優秀書籍。也開始出現一些關于值得信賴的機器學習的個別主題的優秀文本,如公平性和可解釋性然而,據我所知,沒有一個獨立的資源可以定義值得信賴的機器學習,并帶領讀者了解它所涉及的所有不同方面。如果我是一個在高風險領域工作的高級技術專家,不回避一些應用數學,我就會寫一本我想讀的書。其目標是傳授一種將安全性、開放性和包容性視為頭等大事的機器學習系統整合起來的思維方式。我們將開發一個概念性的基礎,會給你信心和起點,深入研究的話題。

第1部分的剩余部分討論了本書的局限性,并討論了幾個對理解可靠機器學習概念很重要的初步主題: 在實踐中開發機器學習系統的角色和生命周期,以及在不確定性方面量化安全概念。

第2部分是關于數據的討論,數據是進行機器學習的前提。除了提供不同數據模式和來源的簡短概述外,該部分還涉及與可信機器學習相關的三個主題: 偏見、同意和隱私。第3部分涉及到值得信賴的機器學習的第一個屬性: 基本性能。它描述了最優檢測理論和不同的有監督機器學習公式。它教授幾種不同的學習算法,如判別分析、na?ve貝葉斯、k-最近鄰、決策樹和森林、邏輯回歸、支持向量機和神經網絡。最后總結了因果發現和因果推理的方法。第四部分是值得信賴的機器學習的第二個屬性:可靠性。這個屬性通過三個特定的主題來討論: 分布偏移、公平性和對抗魯棒性。這些主題的描述不僅定義了問題,而且還提供了檢測和緩解問題的解決方案。

第5部分是關于第三個屬性:人類與機器學習系統在兩個方向上的交互——理解系統并給它指令。第一部分從模型的可解釋性和可解釋性開始。它轉向了測試和記錄機器學習算法各個方面的方法,然后可以通過公平性、問責制和透明度表(FAccTsheets)進行透明報告。本部分的最后一個主題是機器引出人們和社會的政策和價值觀來管理它的行為。第六部分討論了第四個屬性: 人們和社會的價值可能是什么。它首先討論了機器學習在虛假信息中的惡意使用,以及機器學習在創建過濾氣泡時不必要的含義。接下來,它描述了在機器學習和人工智能中編碼期望值和應用的不同專業指南。最后,本文討論了如何將具有不同生活經驗的機器學習系統創造者納入其中,從而擴大機器學習的價值、目標和應用,在某些情況下,通過技術追求社會公益。

付費5元查看完整內容

相關內容

這本書的目的是講述當今世界各地研究人員使用的統計學的故事。這是一個不同的故事,在大多數介紹性的統計書籍,重點教如何使用一套工具,以實現非常具體的目標。這本書的重點在于理解統計思維的基本思想——一種關于我們如何描述世界、如何使用數據做出決定和預測的系統思維方式,所有這些都存在于現實世界的內在不確定性的背景下。它還帶來了當前的方法,這些方法只有在過去幾十年中計算能力的驚人增長才變得可行。在20世紀50年代需要數年時間才能完成的分析,現在在一臺標準的筆記本電腦上只需幾秒鐘就能完成,這種能力釋放了利用計算機模擬以新的、強大的方式提出問題的能力。

這本書也是在2010年以來席卷了許多科學領域的再現危機之后寫成的。這場危機的一個重要根源在于,研究人員一直在使用(和濫用)統計假設檢驗(我將在本書的最后一章詳細說明),這直接與統計教育有關。因此,本書的目標是突出當前統計方法可能存在的問題,并提出替代方案。

//statsthinking21.github.io/statsthinking21-core-site/

付費5元查看完整內容

在過去的十年里,人們對人工智能和機器學習的興趣有了相當大的增長。從最廣泛的意義上說,這些領域旨在“學習一些有用的東西”,了解生物體所處的環境。如何處理收集到的信息導致了算法的發展——如何處理高維數據和處理不確定性。在機器學習和相關領域的早期研究階段,類似的技術在相對孤立的研究社區中被發現。雖然不是所有的技術都有概率論的自然描述,但許多都有,它是圖模型的框架(圖和概率論的結合),使從統計物理、統計、機器學習和信息理論的想法的理解和轉移。在這種程度上,現在有理由期待機器學習研究人員熟悉統計建模技術的基礎知識。這本書集中在信息處理和機器學習的概率方面。當然,沒有人說這種方法是正確的,也沒有人說這是唯一有用的方法。事實上,有人可能會反駁說,這是沒有必要的,因為“生物有機體不使用概率論”。無論情況是否如此,不可否認的是,圖模型和概率框架幫助機器學習領域出現了新算法和模型的爆炸式增長。我們還應該清楚,貝葉斯觀點并不是描述機器學習和信息處理的唯一方法。貝葉斯和概率技術在需要考慮不確定性的領域中發揮了自己的作用。

//www0.cs.ucl.ac.uk/staff/d.barber/brml/

本書結構

本書第一部分的目的之一是鼓勵計算機科學專業的學生進入這一領域。許多現代學生面臨的一個特別困難是有限的正規微積分和線性代數訓練,這意味著連續和高維分布的細節可能會讓他們離開。在以概率作為推理系統的一種形式開始時,我們希望向讀者展示他們可能更熟悉的邏輯推理和動態規劃的想法如何在概率環境中有自然的相似之處。特別是,計算機科學的學生熟悉的概念,算法為核心。然而,在機器學習中更常見的做法是將模型視為核心,而如何實現則是次要的。從這個角度來看,理解如何將一個數學模型轉換成一段計算機代碼是核心。

第二部分介紹了理解連續分布所需的統計背景,以及如何從概率框架來看待學習。第三部分討論機器學習的主題。當然,當一些讀者看到他們最喜歡的統計話題被列在機器學習下面時,他們會感到驚訝。統計學和機器學習之間的一個不同觀點是,我們最終希望構建什么樣的系統(能夠完成“人類/生物信息處理任務的機器),而不是某些技術。因此,我認為這本書的這一部分對機器學習者來說是有用的。第四部分討論了明確考慮時間的動態模型。特別是卡爾曼濾波器被視為圖模型的一種形式,這有助于強調模型是什么,而不是像工程文獻中更傳統的那樣把它作為一個“過濾器”。第五部分簡要介紹了近似推理技術,包括隨機(蒙特卡羅)和確定性(變分)技術。

付費5元查看完整內容

機器學習是關于基于數據的學習、推理和行動。這是通過構建計算機程序來完成的,這些程序可以處理數據,提取有用的信息,對未知屬性做出預測,并建議采取的行動或做出的決定。將數據分析變成機器學習的原因是,這個過程是自動化的,計算機程序是從數據中學習的。這意味著使用通用計算機程序,這些程序根據觀察到的所謂訓練數據自動調整程序的設置,以適應特定的應用程序環境。因此可以說,機器學習是一種通過實例編程的方式。機器學習的美妙之處在于,數據所代表的內容是非常隨意的,我們可以設計出適用于不同領域的廣泛實際應用的通用方法。我們通過下面的一系列例子來說明這一點。上述“通用計算機程序”是指數據的數學模型。也就是說,當我們開發和描述不同的機器學習方法時,我們使用的是數學語言。數學模型描述了與觀測數據對應的相關數量或變量與感興趣的屬性(如預測、動作等)之間的關系。因此,模型是數據的緊湊表示,以精確的數學形式捕捉我們正在研究的現象的關鍵屬性。使用哪個模型通常由機器學習工程師在查看可用數據時產生的見解和從業者對問題的總體理解來指導。在實踐中實現該方法時,將該數學模型轉換為可在計算機上執行的代碼。然而,要理解計算機程序的實際作用,了解其基礎數學也很重要。

這本書的目的是介紹監督機器學習,而不需要在該領域的任何經驗。我們既關注基礎的數學,也關注實踐方面。本書是教科書,不是參考書,也不是編程手冊。因此,它只包含一個仔細(但全面)的監督機器學習方法的選擇,而沒有編程代碼。現在有許多精彩和證據確鑿的代碼包可用,我們深信,在很好地理解數學和內部運行的方法。在這本書中,我們從統計學的角度來討論方法的統計特性。因此,它需要一些統計和概率論的知識,以及微積分和線性代數。我們希望,從頭到尾閱讀這本書將給讀者一個良好的起點,作為一個機器學習工程師工作和/或繼續在該學科的進一步研究。下圖說明了章節之間的主要依賴關系。特別是在第二、三、四章中討論了最基本的主題,我們建議讀者先閱讀這些章節,然后再閱讀后面包含更高級的主題的章節(第5-9章)。第10章超越了機器學習的監督設置,第11章關注于設計一個成功的機器學習解決方案的一些更實際的方面,比前幾章的技術性更少。最后,第十二章(由David Sumpter撰寫)討論了現代機器學習的某些倫理方面。

付費5元查看完整內容

在生產中使用端到端示例構建和部署機器學習和深度學習模型。

本書以機器學習模型部署過程及其相關挑戰為重點。接下來,它涵蓋了使用不同的web框架(如Flask和Streamlit)構建和部署機器學習模型的過程。關于Docker的那一章將介紹如何打包和包含機器學習模型。本書還說明了如何使用Kubernetes建立和訓練大規模的機器學習和深度學習模型。

對于那些希望通過采用預構建模型并將其部署到生產環境中來提高機器學習水平的人來說,這本書是一個很好的起點。它還為那些想要超越Jupyter ,在云環境下進行大規模訓練的人提供了指導。書中提供的所有代碼都以Python腳本的形式提供給您,您可以嘗試這些示例并以有趣的方式擴展它們。

你將學會 :

使用Kubernetes大規模構建、訓練和部署機器學習模型

將任何類型的機器學習模型容器化,并使用Docker在任何平臺上運行

使用Flask和Streamlit框架部署機器學習和深度學習模型

付費5元查看完整內容

機器學習已經成為近年來最流行的話題之一。我們今天看到的機器學習的應用只是冰山一角。機器學習革命才剛剛開始。它正在成為所有現代電子設備不可分割的一部分。在自動化領域的應用,如汽車、安全和監視、增強現實、智能家居、零售自動化和醫療保健,還不多。機器人技術也正在崛起,主宰自動化世界。機器學習在機器人領域的未來應用仍未被普通讀者發現。因此,我們正在努力編寫這本關于機器學習在機器人技術上的未來應用的編輯書籍,其中幾個應用已經包含在單獨的章節中。這本書的內容是技術性的。它試圖覆蓋機器學習的所有可能的應用領域。這本書將提供未來的愿景在未探索的領域的應用機器人使用機器學習。本書中提出的觀點得到了原始研究結果的支持。本章在這里提供了所有必要的理論和數學計算的深入研究。對于外行人和開發人員來說,它將是完美的,因為它將結合高級材料和介紹性材料,形成一個論點,說明機器學習在未來可以實現什么。它將詳細介紹未來的應用領域及其方法。因此,本書將極大地有利于學術界、研究人員和行業項目管理者開發他們的新項目,從而造福人類。

//link.springer.com/book/10.1007/978-981-16-0598-7#about

付費5元查看完整內容

機器學習和人工神經網絡無處不在,它們對我們日常生活的影響比我們可能意識到的還要深遠。這堂課是專門針對機器學習在不同科學領域的使用的介紹。在科學研究中,我們看到機器學習的應用越來越多,反映了工業技術的發展。這樣一來,機器學習就成為了精確科學的通用新工具,與微積分、傳統統計學和數值模擬等方法并行其道。這就提出了一個問題,在圖2所示的科學工作流程中,這些新方法是最好的。

此外,一旦確定了一項特定的任務,將機器學習應用到科學領域就會面臨非常具體的挑戰: (i) 科學數據通常具有非常特定的結構,例如晶體圖像中近乎完美的周期性; (ii) 通常情況下,我們對應該反映在機器學習分析中的數據相關性有特定的知識; (iii) 我們想要了解為什么一個特定的算法會起作用,尋求對自然機制和法則的基本見解; (iv) 在科學領域,我們習慣于算法和定律提供確定性答案,而機器學習本質上是概率性的——不存在絕對的確定性。盡管如此,定量精度在許多科學領域是至關重要的,因此是機器學習方法的一個關鍵基準。

這堂課是為科學領域的科學家和學生介紹基本機器學習算法。我們將涵蓋:

  • 最基本的機器學習算法,
  • 該領域的術語,簡要解釋,
  • 監督和無監督學習的原理,以及為什么它是如此成功,
  • 各種人工神經網絡的架構和它們適合的問題,
  • 我們如何發現機器學習算法使用什么來解決問題

機器學習領域充滿了行話,對于不了解機器學習的人來說,這些行話掩蓋了機器學習方法的核心。作為一個不斷變化的領域,新的術語正在以快速的速度被引入。我們的目標是通過精確的數學公式和簡潔的公式來切入俚語,為那些了解微積分和線性代數的人揭開機器學習概念的神秘面紗。

如上所述,數據是本節課所討論的大多數機器學習方法的核心。由于原始數據在很多情況下非常復雜和高維,首先更好地理解數據并降低它們的維數往往是至關重要的。下一節,第2節將討論在轉向神經網絡的重型機器之前可以使用的簡單算法。

我們最關注的機器學習算法,一般可以分為兩類算法,即判別算法和生成算法,如圖3所示。判別任務的例子包括分類問題,如上述數字分類或分類為固體,液體和氣相給出一些實驗觀測。同樣,回歸,也就是估計變量之間的關系,也是一個判別問題。更具體地說,我們在給定一些輸入數據x的情況下,嘗試近似某個變量y (label)的條件概率分布P(y|x)。由于這些任務中的大部分數據都是以輸入數據和目標數據的形式提供的,這些算法通常采用監督學習。判別算法最直接地適用于科學,我們將在第3和第4節中討論它們。

人工智能的前景可能引發科學領域的不合理預期。畢竟,科學知識的產生是最復雜的智力過程之一。計算機算法肯定還遠沒有達到那樣復雜的水平,而且在不久的將來也不會獨立地制定新的自然法則。盡管如此,研究人員研究了機器學習如何幫助科學工作流程的各個部分(圖2)。雖然制定牛頓經典力學定律所需的抽象類型似乎難以置信地復雜,但神經網絡非常擅長隱式知識表示。然而,要準確地理解它們是如何完成某些任務的,并不是一件容易的事情。我們將在第6節討論這個可解釋的問題。

第三類算法被稱為強化學習(reinforcement learning),它不完全符合近似統計模型的框架. 機器學習的成功很大程度上與科學家使用適當算法的經驗有關。因此,我們強烈建議認真解決伴隨練習,并充分利用練習課程。

付費5元查看完整內容

機器學習在許多部署的決策系統中發揮著作用,其方式通常是人類利益相關者難以理解或不可能理解的。以一種人類可以理解的方式解釋機器學習模型的輸入和輸出之間的關系,對于開發可信的基于機器學習的系統是至關重要的。一個新興的研究機構試圖定義機器學習的目標和解釋方法。在本文中,我們試圖對反事實解釋的研究進行回顧和分類,這是一種特殊類型的解釋,它提供了在模型輸入以特定方式改變時可能發生的事情之間的聯系。機器學習中反事實可解釋性的現代方法與許多國家的既定法律原則相聯系,這使它們吸引了金融和醫療等高影響力領域的實地系統。因此,我們設計了一個具有反事實解釋算法理想性質的準則,并對目前提出的所有反事實解釋算法進行了綜合評價。我們的標題便于比較和理解不同方法的優缺點,并介紹了該領域的主要研究主題。我們也指出了在反事實解釋空間的差距和討論了有前途的研究方向。

機器學習作為一種在許多領域實現大規模自動化的有效工具,正日益被人們所接受。算法能夠從數據中學習,以發現模式并支持決策,而不是手工設計的規則。這些決定可以并確實直接或間接地影響人類;備受關注的案例包括信貸貸款[99]、人才資源[97]、假釋[102]和醫療[46]的申請。在機器學習社區中,新生的公平、責任、透明度和倫理(命運)已經成為一個多學科的研究人員和行業從業人員的團體,他們感興趣的是開發技術來檢測機器學習模型中的偏見,開發算法來抵消這種偏見,為機器決策生成人類可理解的解釋,讓組織為不公平的決策負責,等等。

對于機器決策,人類可以理解的解釋在幾個方面都有優勢。例如,關注一個申請貸款的申請人的用例,好處包括:

  • 對于生活受到該決定影響的申請人來說,解釋是有益的。例如,它幫助申請人理解他們的哪些因素是做出決定的關鍵因素。

  • 此外,如果申請人覺得受到了不公平待遇,例如,如果一個人的種族在決定結果時至關重要,它還可以幫助申請人對決定提出質疑。這對于組織檢查其算法中的偏見也很有用。

  • 在某些情況下,解釋為申請人提供了反饋,他們可以根據這些反饋采取行動,在未來的時間內獲得預期的結果。

  • 解釋可以幫助機器學習模型開發人員識別、檢測和修復錯誤和其他性能問題。

  • 解釋有助于遵守與機器生產決策相關的法律,如GDPR[10]。

機器學習中的可解釋性大體上是指使用固有的可解釋的透明模型或為不透明模型生成事后解釋。前者的例子包括線性/邏輯回歸、決策樹、規則集等。后者的例子包括隨機森林、支持向量機(SVMs)和神經網絡。

事后解釋方法既可以是模型特定的,也可以是模型不可知的。特征重要性解釋和模型簡化是兩種廣泛的特定于模型的方法。與模型無關的方法可以分為視覺解釋、局部解釋、特性重要性和模型簡化。

特征重要性(Feature importance)是指對模型的整體精度或某個特定決策最有影響的特征,例如SHAP[80]、QII[27]。模型簡化找到了一個可解釋的模型,該模型緊致地模仿了不透明模型。依存圖是一種常用的直觀解釋,如部分依存圖[51]、累積局部效應圖[14]、個體條件期望圖[53]。他們將模型預測的變化繪制成一個特征,或者多個特征被改變。局部解釋不同于其他解釋方法,因為它們只解釋一個預測。局部解釋可以進一步分為近似解釋和基于實例的解釋。近似方法在模型預測需要解釋的數據點附近抽取新的數據點(以下稱為explainee數據點),然后擬合線性模型(如LIME[92])或從中提取規則集(如錨[93])。基于實例的方法尋求在被解釋數據點附近找到數據點。它們要么以與被解釋數據點具有相同預測的數據點的形式提供解釋,要么以預測與被解釋數據點不同的數據點的形式提供解釋。請注意,后一種數據點仍然接近于被解釋的數據點,被稱為“反事實解釋”。

回想一下申請貸款的申請人的用例。對于貸款請求被拒絕的個人,反事實的解釋為他們提供反饋,幫助他們改變自己的特征,以過渡到決策邊界的理想一面,即獲得貸款。這樣的反饋被稱為可執行的。與其他幾種解釋技術不同,反事實解釋不能明確回答決策中的“為什么”部分;相反,他們提供建議以達到預期的結果。反事實解釋也適用于黑箱模型(只有模型的預測功能是可訪問的),因此不限制模型的復雜性,也不要求模型披露。它們也不一定能近似底層模型,從而產生準確的反饋。由于反事實解釋具有直覺性,因此也符合法律框架的規定(見附錄C)。

在這項工作中,我們收集、審查和分類了最近的39篇論文,提出了算法,以產生機器學習模型的反事實解釋。這些方法大多集中在表格或基于圖像的數據集上。我們在附錄b中描述了我們為這項調查收集論文的方法。我們描述了這個領域最近的研究主題,并將收集的論文按照有效的反事實解釋的固定需求進行分類(見表1)。

付費5元查看完整內容

深入機器學習模型的超參數調整,關注什么是超參數以及它們是如何工作的。這本書討論了不同的超參數調優技術,從基礎到高級方法。

這是一個關于超參數優化的分步指南,從什么是超參數以及它們如何影響機器學習模型的不同方面開始。然后介紹一些基本的超參數優化算法。此外,作者利用分布式優化方法解決了時間和內存約束的問題。接下來您將討論超參數搜索的貝葉斯優化,它從以前的歷史中吸取了教訓。

這本書討論了不同的框架,如Hyperopt和Optuna,它實現了基于順序模型的全局優化(SMBO)算法。在這些討論中,您將關注不同的方面,比如搜索空間的創建和這些庫的分布式優化。

機器學習中的超參數優化有助于理解這些算法是如何工作的,以及如何在現實數據科學問題中使用它們。最后一章總結了超參數優化在自動機器學習中的作用,并以一個創建自己的自動腳本的教程結束。

超參數優化是一項冗長乏味的任務,所以請坐下來,讓這些算法來完成您的工作。你將學到什么

  • 了解超參數中的更改如何影響模型的性能。
  • 對數據科學問題應用不同的超參數調優算法
  • 使用貝葉斯優化方法來創建高效的機器學習和深度學習模型
  • 使用計算機集群分發超參數優化
  • 利用超參數優化方法實現機器自動學習

這本書是給誰的

  • 從事機器學習的專業人員和學生。

在構建機器學習模型時選擇正確的超參數是數據科學從業者面臨的最大問題之一。這本書是超參數優化(HPO)的指南。它從超參數的最基本定義開始,并帶您使用高級HPO技術構建您自己的AutoML腳本。這本書是打算為學生和數據科學專業人員。這本書由五章組成。

  • 第1章幫助您理解超參數是如何影響模型構建的整個過程的。它告訴我們HPO的重要性。
  • 第2章介紹了基本且易于實現的HPO方法。
  • 第3章介紹了解決時間和內存限制的各種技術。
  • 第4章和第5章討論了貝葉斯優化、相關庫和AutoML。

這本書的目的是讓讀者以一種直觀和實用的方式來理解HPO的概念,每個部分都提供了代碼實現。我希望你能喜歡。

付費5元查看完整內容

《通向人工智能之路》向讀者介紹了機器學習的關鍵概念,討論了機器使用數據產生的預測的潛在應用和局限性,并為學者、律師和政策制定者之間關于如何明智地使用和管理它的辯論提供了信息。技術人員還將從過去120年與問責制、可解釋性和有偏見的數據的法律斗爭中汲取有用的經驗教訓。

//link.springer.com/book/10.1007/978-3-030-43582-0#about

付費5元查看完整內容

通過人工神經網絡等獲得的預測具有很高的準確性,但人類經常將這些模型視為黑盒子。對于人類來說,關于決策制定的洞察大多是不透明的。在醫療保健或金融等高度敏感領域,對決策的理解至關重要。黑盒子背后的決策要求它對人類來說更加透明、可問責和可理解。這篇綜述論文提供了基本的定義,概述了可解釋監督機器學習(SML)的不同原理和方法。我們進行了最先進的綜述,回顧過去和最近可解釋的SML方法,并根據介紹的定義對它們進行分類。最后,我們通過一個解釋性的案例研究來說明原則,并討論未來的重要方向。

//www.zhuanzhi.ai/paper/d34a1111c1ab9ea312570ae8e011903c

目前人工智能(AI)模型的準確性是顯著的,但準確性并不是最重要的唯一方面。對于高風險的領域,對模型和輸出的詳細理解也很重要。底層的機器學習和深度學習算法構建的復雜模型對人類來說是不透明的。Holzinger等人(2019b)指出,醫學領域是人工智能面臨的最大挑戰之一。對于像醫療這樣的領域,深刻理解人工智能的應用是至關重要的,對可解釋人工智能(XAI)的需求是顯而易見的。

可解釋性在許多領域很重要,但不是在所有領域。我們已經提到了可解釋性很重要的領域,例如衛生保健。在其他領域,比如飛機碰撞避免,算法多年來一直在沒有人工交互的情況下運行,也沒有給出解釋。當存在某種程度的不完整時,需要可解釋性。可以肯定的是,不完整性不能與不確定性混淆。不確定性指的是可以通過數學模型形式化和處理的東西。另一方面,不完全性意味著關于問題的某些東西不能充分編碼到模型中(Doshi-Velez和Kim(2017))。例如,刑事風險評估工具應該是公正的,它也應該符合人類的公平和道德觀念。但倫理學是一個很寬泛的領域,它是主觀的,很難正式化。相比之下,飛機避免碰撞是一個很容易理解的問題,也可以被精確地描述。如果一個系統能夠很好地避免碰撞,就不用再擔心它了。不需要解釋。

本文詳細介紹了可解釋SML的定義,并為該領域中各種方法的分類奠定了基礎。我們區分了各種問題定義,將可解釋監督學習領域分為可解釋模型、代理模型擬合和解釋生成。可解釋模型的定義關注于自然實現的或通過使用設計原則強制實現的整個模型理解。代理模型擬合方法近似基于黑盒的局部或全局可解釋模型。解釋生成過程直接產生一種解釋,區分局部解釋和全局解釋。

綜上所述,本文的貢獻如下:

  • 對五種不同的解釋方法進行形式化,并對整個解釋鏈的相應文獻(分類和回歸)進行回顧。
  • 可解釋性的原因,審查重要領域和可解釋性的評估
  • 這一章僅僅強調了圍繞數據和可解釋性主題的各個方面,比如數據質量和本體
  • 支持理解不同解釋方法的連續用例
  • 回顧重要的未來方向和討論

付費5元查看完整內容
北京阿比特科技有限公司