亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本書是由德國慕尼黑大學博士Christoph Molnar完成的第二版,長達330頁,是僅有的一本系統介紹可解釋性機器學習的書籍。

機器學習雖然對改進產品性能和推進研究有很大的潛力,但無法對它們的預測做出解釋,這是當前面臨的一大障礙。本書是一本關于使機器學習模型及其決策具有可解釋性的書。本書探索了可解釋性的概念,介紹了簡單的、可解釋的模型,例如決策樹、決策規則和線性回歸,重點介紹了解釋黑盒模型的、與模型無關的方法,如特征重要性和累積局部效應,以及用Shapley值和LIME解釋單個實例預測。本書對所有的解釋方法進行了深入說明和批判性討論,例如它們如何在黑盒下工作、它們的優缺點是什么、如何解釋它們的輸出。本書將解答如何選擇并正確應用解釋方法。本書的重點是介紹表格式數據的機器學習模型,較少涉及計算機視覺和自然語言處理任務。

本書適合機器學習從業者、數據科學家、統計學家和所有對使機器學習模型具有可解釋性感興趣的人閱讀。

付費5元查看完整內容

相關內容

可解釋性是指一個人能夠持續預測模型結果的程度。機器學習模型的可解釋性越高,人們就越容易理解為什么做出某些決定或預測。

可解釋性是當下機器學習研究特點之一。來自復旦大學的研究生朱明超,將業界《Interpretable Machine Learning》(可解釋機器學習)翻譯成了中文。

可解釋機器學習:打開黑盒之謎(238頁書籍下載)

這本書最初是由德國慕尼黑大學博士Christoph Molnar耗時兩年完成的,長達250頁,是僅有的一本系統介紹可解釋性機器學習的書籍。

機器學習雖然對改進產品性能和推進研究有很大的潛力,但無法對它們的預測做出解釋,這是當前面臨的一大障礙。本書是一本關于使機器學習模型及其決策具有可解釋性的書。本書探索了可解釋性的概念,介紹了簡單的、可解釋的模型,例如決策樹、決策規則和線性回歸,重點介紹了解釋黑盒模型的、與模型無關的方法,如特征重要性和累積局部效應,以及用Shapley值和LIME解釋單個實例預測。本書對所有的解釋方法進行了深入說明和批判性討論,例如它們如何在黑盒下工作、它們的優缺點是什么、如何解釋它們的輸出。本書將解答如何選擇并正確應用解釋方法。本書的重點是介紹表格式數據的機器學習模型,較少涉及計算機視覺和自然語言處理任務。

本書適合機器學習從業者、數據科學家、統計學家和所有對使機器學習模型具有可解釋性感興趣的人閱讀。

這本書由復旦大學朱明超完成它的翻譯和校正工作,目前已經開源放到GitHub網頁上,《可解釋的機器學習》。作者Christoph Molnar 在其后也發到了推特上。

“可解釋”是這本書的核心論題。作者Molnar認為,可解釋性在機器學習甚至日常生活中都是相當重要的一個問題。建議機器學習從業者、數據科學家、統計學家和任何對使機器學習模型可解釋的人閱讀本書。

Molnar表示,雖然數據集與黑盒機器學習解決了很多問題,但這不是最好的使用姿勢,現在模型本身代替了數據成為了信息的來源,但可解釋性可以提取模型捕捉到的額外信息。當我們的日常生活中全都是機器和算法時,也需要可解釋性來增加社會的接受度。畢竟要是連科學家都研究不透“黑盒”,怎樣讓普通人完全信任模型做出的決策呢?

這本書的重點是機器學習的可解釋性。你將學習簡單的、可解釋的模型,如線性回歸、決策樹和決策規則等。后面幾章重點介紹了解釋黑盒模型的模型無關的一般方法,如特征重要性和累積局部效應,以及用 Shapley 值和 LIME 解釋單個實例預測。

對各種解釋方法進行了深入的解釋和批判性的討論。它們是如何工作的?優點和缺點是什么?如何解釋它們的輸出?本書將使你能夠選擇并正確應用最適合你的機器學習項目的解釋方法。你閱讀本書后,內化知識還使你能夠更好地理解和評估arxiv.org上發表的有關可解釋性的新論文。

這本書中用許多平實的語言,結合各類現實生活中的例子介紹了相關的概念,還配了參考鏈接可以進一步學習了解。

《可解釋的機器學習》該書總共包含 7 章內容。章節目錄如下:

第一章:前言 第二章:可解釋性 第三章:數據集 第四章:可解釋的模型 第五章:模型無關方法 第六章:基于樣本的解釋 第七章:水晶球 傳送門 GitHub://github.com/MingchaoZhu/InterpretableMLBook

付費5元查看完整內容

深度學習:全面指南提供了深度學習(DL)和機器學習(ML)的概念的全面覆蓋。DL和ML是最受歡迎的領域,需要深刻的理解。這本書使讀者能夠基于ML和DL構建創新和有用的應用。從神經網絡的基礎開始,并繼續通過各種類型的CNN, RNNs, LSTM的架構,以及更多,直到書的結尾,每一個主題都給予了最大的照顧和專業和全面的塑造。

//www.routledge.com/Deep-Learning-A-Comprehensive-Guide/Vasudevan-Pulari-Vasudevan/p/book/9781032028828

關鍵特征: 包括從ML概念到DL概念的平穩過渡

對于所有基于代碼的示例,都提供了逐行解釋

包括許多實際的例子和面試問題

即使是非計算機科學背景的人也可以從這本書中受益,學習理論、例子、案例研究和代碼片段

每一章都以目標開始,并以一組測試讀者理解力的測試問題結束

包括對提供額外指導的相關YouTube視頻的引用

人工智能是每個人的領域。這本書面向所有人,不論他們的專業領域是什么。畢業生和研究人員在深度學習將發現這本書有用。

付費5元查看完整內容

【導讀】機器學習模型經常被批評是技術黑箱:只要輸入數據就能得到正確答案,但卻無法對其進行解釋。Christoph Molnar在其新書中呼吁大家當前是時候停止將機器學習模型視為黑盒子,在學會運用模型的同時更應去學會分析模型如何做出決策,并給出了將黑盒變得具有可解釋性的討論。

機器學習領域在過去十年中發生了顯著的變化。從一個純粹的學術和研究領域方向開始,我們已經看到了機器學習在各個領域都有著廣泛的應用,如零售,技術,醫療保健,科學等等。在21世紀,數據科學和機器學習的重要目標已經轉變為解決現實問題,自動完成復雜任務,讓我們的生活變得更加輕松,而不僅僅是在實驗室做實驗發表論文。機器學習,統計學或深度學習模型工具已基本成型。像Capsule Networks這樣的新模型在不斷地被提出,但這些新模型被工業采用卻需要幾年時間。因此,在工業界中,數據科學或機器學習的主要焦點更多在于應用,而不是理論。最重要的是能夠解決復雜的現實問題。 ?

機器學習模型本質上就是一種算法,該算法試圖從數據中學習潛在模式和關系,而不是通過代碼構建一成不變的規則。所以,解釋一個模型是如何在商業中起作用總會遇到一系列挑戰。在某些領域,特別是在金融領域,比如保險、銀行等,數據科學家們通常最終不得不使用更傳統更簡單的機器學習模型(線性模型或決策樹)。原因是模型的可解釋性對于企業解釋模型的每一個決策至關重要。然而,這常常導致在性能上有所犧牲。復雜模型像如集成學習和神經網絡通常表現出更好更精準的性能(因為真實的關系在本質上很少可以通過線性劃分的),然而,我們最終無法對模型決策做出合適的解釋。

付費5元查看完整內容

通過人工神經網絡等獲得的預測具有很高的準確性,但人類經常將這些模型視為黑盒子。對于人類來說,關于決策制定的洞察大多是不透明的。在醫療保健或金融等高度敏感領域,對決策的理解至關重要。黑盒子背后的決策要求它對人類來說更加透明、可問責和可理解。這篇綜述論文提供了基本的定義,概述了可解釋監督機器學習(SML)的不同原理和方法。我們進行了最先進的綜述,回顧過去和最近可解釋的SML方法,并根據介紹的定義對它們進行分類。最后,我們通過一個解釋性的案例研究來說明原則,并討論未來的重要方向。

//www.zhuanzhi.ai/paper/d34a1111c1ab9ea312570ae8e011903c

目前人工智能(AI)模型的準確性是顯著的,但準確性并不是最重要的唯一方面。對于高風險的領域,對模型和輸出的詳細理解也很重要。底層的機器學習和深度學習算法構建的復雜模型對人類來說是不透明的。Holzinger等人(2019b)指出,醫學領域是人工智能面臨的最大挑戰之一。對于像醫療這樣的領域,深刻理解人工智能的應用是至關重要的,對可解釋人工智能(XAI)的需求是顯而易見的。

可解釋性在許多領域很重要,但不是在所有領域。我們已經提到了可解釋性很重要的領域,例如衛生保健。在其他領域,比如飛機碰撞避免,算法多年來一直在沒有人工交互的情況下運行,也沒有給出解釋。當存在某種程度的不完整時,需要可解釋性。可以肯定的是,不完整性不能與不確定性混淆。不確定性指的是可以通過數學模型形式化和處理的東西。另一方面,不完全性意味著關于問題的某些東西不能充分編碼到模型中(Doshi-Velez和Kim(2017))。例如,刑事風險評估工具應該是公正的,它也應該符合人類的公平和道德觀念。但倫理學是一個很寬泛的領域,它是主觀的,很難正式化。相比之下,飛機避免碰撞是一個很容易理解的問題,也可以被精確地描述。如果一個系統能夠很好地避免碰撞,就不用再擔心它了。不需要解釋。

本文詳細介紹了可解釋SML的定義,并為該領域中各種方法的分類奠定了基礎。我們區分了各種問題定義,將可解釋監督學習領域分為可解釋模型、代理模型擬合和解釋生成。可解釋模型的定義關注于自然實現的或通過使用設計原則強制實現的整個模型理解。代理模型擬合方法近似基于黑盒的局部或全局可解釋模型。解釋生成過程直接產生一種解釋,區分局部解釋和全局解釋。

綜上所述,本文的貢獻如下:

  • 對五種不同的解釋方法進行形式化,并對整個解釋鏈的相應文獻(分類和回歸)進行回顧。
  • 可解釋性的原因,審查重要領域和可解釋性的評估
  • 這一章僅僅強調了圍繞數據和可解釋性主題的各個方面,比如數據質量和本體
  • 支持理解不同解釋方法的連續用例
  • 回顧重要的未來方向和討論

付費5元查看完整內容

【導讀】可解釋性是當下機器學習研究特點之一。最近,來自復旦大學的研究生朱明超,將業界《Interpretable Machine Learning》(可解釋機器學習)翻譯成了中文。

可解釋機器學習:打開黑盒之謎(238頁書籍下載)

這本書最初是由德國慕尼黑大學博士Christoph Molnar耗時兩年完成的,長達250頁,是僅有的一本系統介紹可解釋性機器學習的書籍。

這本書最初是由Christoph Molnar耗時兩年完成的《Interpretable Machine Learning》,長達250頁,在公開至今該書得到密切關注,這是在可解釋性領域可以找到的僅有的一本書。

這本書由復旦大學朱明超完成它的翻譯和校正工作,目前已經開源放到GitHub網頁上,《可解釋的機器學習》。作者Christoph Molnar 在其后也發到了推特上。

“可解釋”是這本書的核心論題。作者Molnar認為,可解釋性在機器學習甚至日常生活中都是相當重要的一個問題。建議機器學習從業者、數據科學家、統計學家和任何對使機器學習模型可解釋的人閱讀本書。

Molnar表示,雖然數據集與黑盒機器學習解決了很多問題,但這不是最好的使用姿勢,現在模型本身代替了數據成為了信息的來源,但可解釋性可以提取模型捕捉到的額外信息。當我們的日常生活中全都是機器和算法時,也需要可解釋性來增加社會的接受度。畢竟要是連科學家都研究不透“黑盒”,怎樣讓普通人完全信任模型做出的決策呢?

這本書的重點是機器學習的可解釋性。你將學習簡單的、可解釋的模型,如線性回歸、決策樹和決策規則等。后面幾章重點介紹了解釋黑盒模型的模型無關的一般方法,如特征重要性和累積局部效應,以及用 Shapley 值和 LIME 解釋單個實例預測。

對各種解釋方法進行了深入的解釋和批判性的討論。它們是如何工作的?優點和缺點是什么?如何解釋它們的輸出?本書將使你能夠選擇并正確應用最適合你的機器學習項目的解釋方法。你閱讀本書后,內化知識還使你能夠更好地理解和評估arxiv.org上發表的有關可解釋性的新論文。

這本書中用許多平實的語言,結合各類現實生活中的例子介紹了相關的概念,還配了參考鏈接可以進一步學習了解。

《可解釋的機器學習》該書總共包含 7 章內容。章節目錄如下:

  • 第一章:前言
  • 第二章:可解釋性
  • 第三章:數據集
  • 第四章:可解釋的模型
  • 第五章:模型無關方法
  • 第六章:基于樣本的解釋
  • 第七章:水晶球

傳送門 GitHub://github.com/MingchaoZhu/InterpretableMLBook

付費5元查看完整內容

簡介: 機器學習可解釋性的新方法以驚人的速度發布。與所有這些保持最新將是瘋狂的,根本不可能。這就是為什么您不會在本書中找到最新穎,最有光澤的方法,而是找到機器學習可解釋性的基本概念的原因。這些基礎知識將為您做好使機器學??習模型易于理解的準備。

可解釋的是使用可解釋的模型,例如線性模型或決策樹。另一個選擇是與模型無關的解釋工具,該工具可以應用于任何監督的機器學習模型。與模型不可知的章節涵蓋了諸如部分依賴圖和置換特征重要性之類的方法。與模型無關的方法通過更改機器學習的輸入來起作用建模并測量輸出中的變化。

本書將教您如何使(監督的)機器學習模型可解釋。這些章節包含一些數學公式,但是即使沒有數學知識,您也應該能夠理解這些方法背后的思想。本書不適用于嘗試從頭開始學習機器學習的人。如果您不熟悉機器學習,則有大量書籍和其他資源可用于學習基礎知識。我推薦Hastie,Tibshirani和Friedman(2009)撰寫的《統計學習的要素》一書和Andrewra Ng在Coursera3上開設的“機器學習”在線課程,著手進行機器學習。這本書和課程都是免費的!在本書的最后,對可解釋機器學習的未來前景持樂觀態度。

目錄:

  • 前言
  • 第一章 引言
  • 第二章 解釋性
  • 第三章 數據集
  • 第四章 解釋模型
  • 第五章 模型不可知論方法
  • 第六章 基于實例的解釋
  • 第七章 神經網絡解釋
  • 第八章 水晶球
  • 第九章 貢獻
  • 第十章 引用本書

付費5元查看完整內容
北京阿比特科技有限公司