亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

簡介: 機器學習可解釋性的新方法以驚人的速度發布。與所有這些保持最新將是瘋狂的,根本不可能。這就是為什么您不會在本書中找到最新穎,最有光澤的方法,而是找到機器學習可解釋性的基本概念的原因。這些基礎知識將為您做好使機器學??習模型易于理解的準備。

可解釋的是使用可解釋的模型,例如線性模型或決策樹。另一個選擇是與模型無關的解釋工具,該工具可以應用于任何監督的機器學習模型。與模型不可知的章節涵蓋了諸如部分依賴圖和置換特征重要性之類的方法。與模型無關的方法通過更改機器學習的輸入來起作用建模并測量輸出中的變化。

本書將教您如何使(監督的)機器學習模型可解釋。這些章節包含一些數學公式,但是即使沒有數學知識,您也應該能夠理解這些方法背后的思想。本書不適用于嘗試從頭開始學習機器學習的人。如果您不熟悉機器學習,則有大量書籍和其他資源可用于學習基礎知識。我推薦Hastie,Tibshirani和Friedman(2009)撰寫的《統計學習的要素》一書和Andrewra Ng在Coursera3上開設的“機器學習”在線課程,著手進行機器學習。這本書和課程都是免費的!在本書的最后,對可解釋機器學習的未來前景持樂觀態度。

目錄:

  • 前言
  • 第一章 引言
  • 第二章 解釋性
  • 第三章 數據集
  • 第四章 解釋模型
  • 第五章 模型不可知論方法
  • 第六章 基于實例的解釋
  • 第七章 神經網絡解釋
  • 第八章 水晶球
  • 第九章 貢獻
  • 第十章 引用本書

付費5元查看完整內容

相關內容

可解釋性是指一個人能夠持續預測模型結果的程度。機器學習模型的可解釋性越高,人們就越容易理解為什么做出某些決定或預測。

【導讀】可解釋性是當下機器學習研究特點之一。最近,來自復旦大學的研究生朱明超,將業界《Interpretable Machine Learning》(可解釋機器學習)翻譯成了中文。

可解釋機器學習:打開黑盒之謎(238頁書籍下載)

這本書最初是由德國慕尼黑大學博士Christoph Molnar耗時兩年完成的,長達250頁,是僅有的一本系統介紹可解釋性機器學習的書籍。

這本書最初是由Christoph Molnar耗時兩年完成的《Interpretable Machine Learning》,長達250頁,在公開至今該書得到密切關注,這是在可解釋性領域可以找到的僅有的一本書。

這本書由復旦大學朱明超完成它的翻譯和校正工作,目前已經開源放到GitHub網頁上,《可解釋的機器學習》。作者Christoph Molnar 在其后也發到了推特上。

“可解釋”是這本書的核心論題。作者Molnar認為,可解釋性在機器學習甚至日常生活中都是相當重要的一個問題。建議機器學習從業者、數據科學家、統計學家和任何對使機器學習模型可解釋的人閱讀本書。

Molnar表示,雖然數據集與黑盒機器學習解決了很多問題,但這不是最好的使用姿勢,現在模型本身代替了數據成為了信息的來源,但可解釋性可以提取模型捕捉到的額外信息。當我們的日常生活中全都是機器和算法時,也需要可解釋性來增加社會的接受度。畢竟要是連科學家都研究不透“黑盒”,怎樣讓普通人完全信任模型做出的決策呢?

這本書的重點是機器學習的可解釋性。你將學習簡單的、可解釋的模型,如線性回歸、決策樹和決策規則等。后面幾章重點介紹了解釋黑盒模型的模型無關的一般方法,如特征重要性和累積局部效應,以及用 Shapley 值和 LIME 解釋單個實例預測。

對各種解釋方法進行了深入的解釋和批判性的討論。它們是如何工作的?優點和缺點是什么?如何解釋它們的輸出?本書將使你能夠選擇并正確應用最適合你的機器學習項目的解釋方法。你閱讀本書后,內化知識還使你能夠更好地理解和評估arxiv.org上發表的有關可解釋性的新論文。

這本書中用許多平實的語言,結合各類現實生活中的例子介紹了相關的概念,還配了參考鏈接可以進一步學習了解。

《可解釋的機器學習》該書總共包含 7 章內容。章節目錄如下:

  • 第一章:前言
  • 第二章:可解釋性
  • 第三章:數據集
  • 第四章:可解釋的模型
  • 第五章:模型無關方法
  • 第六章:基于樣本的解釋
  • 第七章:水晶球

傳送門 GitHub://github.com/MingchaoZhu/InterpretableMLBook

付費5元查看完整內容

題目: Interpreting Interpretability: Understanding Data Scientists’Use of Interpretability Tools for Machine Learning

摘要: 機器學習(ML)模型現在經常應用于從刑事司法到醫療保健的各個領域。隨著這種新發現的普遍性,ML已經超越了學術界,發展成為一門工程學科。為此,設計了解釋工具來幫助數據科學家和機器學習實踐者更好地理解ML模型的工作方式。然而,很少有人評估這些工具在多大程度上實現了這一目標。我們研究數據技術人員使用兩種現有的解釋性工具,GAMs的解釋性ml實現和SHAP Python包。我們對數據科學家進行了背景調查(N=11)和調查(N=197),以觀察他們如何使用可解釋性工具來發現在構建和計算ML模型時出現的常見問題。我們的結果表明,數據科學家過度信任和濫用解釋工具。此外,我們的參與者很少能夠準確地描述這些工具的可視化輸出。我們為數據科學家強調可解釋工具的心智模型的定性主題。我們總結了對研究人員和工具設計者的啟示,并將我們的發現置于社會科學文獻的背景中。

付費5元查看完整內容

 機器學習(ML)模型現在經常應用于從刑事司法到醫療保健的各個領域。隨著這種新發現的普遍性,ML已經超越了學術界,發展成為一門工程學科。為此,解釋工具設計來幫助數據科學家和機器學習實踐者更好地理解ML模型的工作方式。然而,很少有人評估這些工具在多大程度上實現了這一目標。我們研究數據科學家對兩種現有的可解釋性工具的使用,即GAMs的解釋性ml實現和SHAP Python包。我們對數據科學家進行了背景調查(N=11)和調查(N=197),以觀察他們如何使用可解釋性工具來發現在構建和評估ML模型時出現的常見問題。我們的結果表明,數據科學家過度信任和濫用解釋工具。此外,很少有參與者能夠準確地描述這些工具的可視化輸出。我們為數據科學家的可解釋工具心智模型強調定性主題。我們總結了對研究人員和工具設計者的啟示,并將我們的發現置于社會科學文獻的背景中。

付費5元查看完整內容

主題: Predictive Models: Explore, Explain, and Debug,Human-Centered Interpretable Machine Learning

簡介: 在這本書中,我們提出了一系列可用于模型驗證、模型探索和模型決策解釋的方法。由于這類方法的發展是一個非常活躍的研究領域,而且新方法幾乎是在連續的基礎上出現的,因此我們并不打算窮盡所有的方法。相反,我們提出了思維定勢、關鍵問題和一些可用于模型探索的方法示例。

作者介紹: Przemyslaw Biecek,華沙理工大學的副教授和華沙大學的助理教授。他的研究方向是大型復雜數據的預測建模、數據可視化和模型可解釋性。//pbiecek.github.io/index.html

Tomasz Burzykowski,博士,哈塞爾特大學理學院教授。

付費5元查看完整內容

機器學習模型經常被批評是技術黑箱:只要輸入數據就能得到正確答案,但卻無法對其進行解釋。Christoph Molnar在其新書中呼吁大家當前是時候停止將機器學習模型視為黑盒子,在學會運用模型的同時更應去學會分析模型如何做出決策,并給出了將黑盒變得具有可解釋性的討論。

付費5元查看完整內容
北京阿比特科技有限公司