亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著機器學習模型越來越多地用于在醫療保健和刑事司法等高風險環境中幫助決策者,確保決策者(最終用戶)正確理解并因此信任這些模型的功能是很重要的。本報告旨在讓學生熟悉可解釋和可解釋ML這一新興領域的最新進展。在本報告中,我們將回顧該領域的重要論文,理解模型可解釋和可解釋的概念,詳細討論不同類別的可解釋模型(如基于原型的方法、稀疏線性模型、基于規則的技術、廣義可加性模型),事后解釋(黑箱解釋包括反事實解釋和顯著性圖),并探索可解釋性與因果關系、調試和公平性之間的聯系。該課程還將強調各種應用,可以極大地受益于模型的可解釋性,包括刑事司法和醫療保健。

//himalakkaraju.github.io/

付費5元查看完整內容

相關內容

【導讀】哈佛大學公共衛生學院(HSPH)Miguel Hernan與Jamie Robins 教授共同編著了關于因果邏輯推斷方面的書作《Causal Inference: What If》,總共分3個部分,22章,311多頁,對因果推理的概念和方法做了系統性闡述,是各個領域包括經濟學、健康醫療、心理學、計算機等從業人士的重要參鑒材料。

地址: //www.hsph.harvard.edu/miguel-hernan/causal-inference-book/

在本書中,我們強調需要足夠認真對待因果問題,才能明確表述它,我們還區別了數據和因果推斷假設的不同作用。一旦建立了這些基礎,因果推斷就必然變得不那么隨意,這有助于防止混淆。然后,本書描述了各種數據分析方法,這些方法可用于在收集一組人口中每個個體的數據時,在一組特定的假設下估算感興趣的因果關系。本書的一個關鍵信息是,因果推斷不能簡化為用于數據分析技巧的集合。

本書分為三個難度越來越大的部分:第一部分講述沒有模型的因果推斷(即,因果關系的非參數辨識),第二部分是關于模型的因果推論(即,通過參數化模型對因果關系的估計),第三部分從復雜的縱貫數據中得出因果關系的推斷(即,估算時變處理的因果關系)。全書還專門設置了很多要點(Fine Points)和技術點(Technical points),解釋了正文中提到的某些主題。要點針對所有讀者,而技術點則是為接受過統計學方面中等程度訓練的讀者設計的。本書對之前分散在多個學科期刊中的因果推斷概念和方法進行了緊湊的介紹。我們希望對因果推斷感興趣的任何學科的讀者都能有所裨益,例如流行病、統計學、心理學、經濟學、社會學、政治學、計算機科學。

第 1-10 章重點講述一些基本概念,通過大量的簡單實例和圖形的方式,深入淺出地介紹了因果推斷中的核心概念和方法。第 11-18 章講述了各種各樣用于進行因果推斷的模型,包括工具變量法 (IV)、傾向得分匹配分析 (PSM)、調節效應、結構方程等。第 19-25 章介紹了較為復雜的情形,如面板數據、 動態處理效應、反饋效應等。

目錄內容: 第一部分 無模型的因果推斷 1 A definition of causal effect 3 2 Randomized experiments 13 3 Observational studies 25 4 Effect modification 41 5 Interaction 55 6 Graphical representation of causal effects 69 7 Confounding 83 8 Selection bias 99 9 Measurement bias 113 10 Random variability 123

第二部分 有模型的因果推斷
 11 Why model? 139 12 IP weighting and marginal structural models 149 13 Standardization and the parametric g-formula 161 14 G-estimation of structural nested models 171 15 Outcome regression and propensity scores 183 16 Instrumental variable estimation 193 17 Causal survival analysis 209 18 Variable selection for causal inference 223

第三部分 復雜縱向數據因果推斷 19 Time-varying treatments 235
 20 Treatment-confounder feedback 247 21 G-methods for time-varying treatments 257 22 Target trial emulation 277

付費5元查看完整內容

強化學習(RL)[17]和因果推理[10]都是機器學習不可缺少的組成部分,在人工智能中都發揮著至關重要的作用。最初促使我整合這兩者的是機器學習在醫療保健和醫學領域的最新發展。回顧過去,人類自出生以來就不可避免地伴隨著疾病,并為追求健康而不懈地與疾病作斗爭。近幾十年來,機器學習的蓬勃發展促進了醫療保健領域的革命性發展:一些人工智能系統在癌癥分類[1]、癌癥檢測[8]、糖尿病視網膜病變檢測[3]、致盲性視網膜疾病診斷[7]等方面已經接近甚至超過了人類專家。得益于計算能力和能力的持續激增,人工智能(AI)無疑將幫助重塑醫學的未來。想象一下這樣的場景:在未來,每個人都有一個個性化的人工智能醫生在自己的桌子上,記錄著他們從出生開始的所有病歷數據。根據個人的醫療數據,可以提前預測和預防個人的死亡,或至少及時治愈,這在很大程度上可以延長人的預期壽命。

然而,目前成功應用于上述醫療問題的方法僅僅是基于關聯而不是因果關系。在統計學中,人們普遍認為關聯在邏輯上并不意味著因果關系[10,12]。關聯與因果之間的關系由萊辛巴赫·[14]將其形式化為著名的共同原因原理:如果兩個隨機變量{X}和{Y}在統計學上是相互依存的,那么下面的一個因果解釋必須成立:a) {X}導致{Y};b) {Y}導致{X};c)存在一個隨機變量{Z},它是引起{X}和{Y}的共同原因。因此,與關聯相比,因果關系更進一步,探索變量之間更本質的關系。因果推理的中心任務是揭示不同變量之間的因果關系。理解一個系統的因果結構將使我們具備以下能力:(1)預測如果某些變量被干預會發生什么;(2)評估影響干預及其結果[9]的混雜因素的影響;(3)使我們能夠預測以前從未觀察到的情況的結果。如果我們將醫學中的治療視為干預,將治療效果視為結果(例如,理解藥物對患者健康的影響,評估未觀察到的混雜因素對治療和患者總體福祉的影響,評估患者疾病的不同治療的存活率,等等),這些能力正是醫療保健所需要的,但大多數現有的方法尚未具備。這就是為什么因果關系在開發真正智能的醫療保健算法中扮演著關鍵角色。

在因果推理中實施干預概念的一個自然想法是利用RL中的動作概念[17,2]。更具體地說,agent可以根據其當前狀態,通過采取不同的行動(干預)來觀察環境狀態的變化,并獲得即時的回報(結果)。然而,agent的目標是最大化預期累積報酬,這表明RL本身不具備進行因果推理的能力。因此,因果推理通過推斷狀態之間或狀態與動作之間的因果關系,如減少狀態或動作空間,處理混淆,進而幫助RL更高效、更有效地學習價值函數或策略。可見因果關系與強化學習是互補的,可以從因果關系的角度加以整合,從而促進兩者的發展。

為此,我們建議將因果推理整合到RL中,使RL能夠在復雜的現實醫學問題中推斷數據之間的因果效應。利用這兩方面的優勢,我們可以根據未觀察到的對患者健康的混雜因素的存在來評估治療的真正實際效果,并在與患者互動的過程中進一步找到最佳的治療策略。以敗血癥為例,敗血癥是一種危及生命的疾病,當身體對感染的反應導致自身組織和器官受損時就會出現,它是重癥監護病房死亡的主要原因,每年給醫院造成數十億[13]的損失。在解決敗血癥治療策略方面,RL通常將所測量的生理參數,包括人口統計、實驗室值、生命體征和攝入/輸出事件[6,13]視為指導患者進一步治療和劑量的狀態。然而,在這一過程中可能不可避免地會有一些未被觀察到的混雜因素對治療策略產生重大影響,這在目前的RL框架內很難處理。幸運的是,我們可以利用因果推理來解決這個問題,評估潛在的隱性混雜因素對治療和患者健康的影響,從而相應地調整治療策略。

事實上,回顧科學史,人類總是以一種類似因果強化學習(causal reinforcement learning,因果RL)的方式前進。更具體地說,人類從與大自然的互動中總結出規則或經驗,然后利用這些經驗來提高自己在下一次探索中的適應能力。因果關系RL所做的就是模擬人類行為,從與環境溝通的agent那里學習因果關系,然后根據所學到的因果關系優化其策略。

我強調這個類比的原因是為了強調因果性RL的重要性,毫無疑問,它將成為人工通用智能(AGI)不可缺少的一部分,不僅在醫療保健和醫藥領域,而且在所有其他的RL場景中都有巨大的潛在應用。與RL相比,因果RL繼承了因果推理的兩個明顯優勢:數據效率和最小的變化。眾所周知,RL算法非常需要數據。相反,因果性RL不是由數據驅動的,因為因果圖是最穩定的結構,它由“必須擁有”關系組成,而不是由聯想圖中的“nice-to-have”關系組成。換句話說,只要存在因果關系,他們就不會受到數據的影響,不管影響有多大。從因果推理的角度來看,一旦我們知道了因果結構,我們就可以不需要或只需要很少的實驗就可以回答大量的干涉性和反事實性問題,這將大大減少我們對數據的依賴。例如,如果事先提供了一些關于行為的因果知識,或者可以從最初的實驗中學到一些知識,那么行為空間就會按指數方式縮小。另一個吸引人的特性是最小變化,我指的是當環境或領域發生變化時,只有最小的(條件)分布集會發生變化。從因果的觀點來看,假設條件的不變性是有意義的,如果條件代表因果機制[4,15,10]。直觀上,因果機制可以被看作是物理世界的屬性,就像牛頓的運動定律,它不取決于我們給它喂食什么。如果輸入發生了變化,其因果機制仍保持不變[5,11]。然而,反因果方向的條件將受到輸入[6]的影響。因此,當環境發生變化時,因果關系的RL將發生最小的變化。事實上,最小更改的一個直接好處是數據效率,因為代理可以將它們從一個環境學到的不變的因果知識轉移到另一個環境,而不需要從頭學習。

參考鏈接:

//causallu.com/2018/12/31/introduction-to-causalrl/

付費5元查看完整內容

隨著機器學習模型越來越多地用于在醫療保健和刑事司法等高風險環境中幫助決策者,確保決策者(最終用戶)正確理解并因此信任這些模型的功能是很重要的。本課程旨在讓學生熟悉可解釋和可解釋ML這一新興領域的最新進展。在本報告中,我們將回顧該領域的重要論文,理解模型可解釋和可解釋的概念,詳細討論不同類別的可解釋模型(如基于原型的方法、稀疏線性模型、基于規則的技術、廣義可加性模型),事后解釋(黑箱解釋包括反事實解釋和顯著性圖),并探索可解釋性與因果關系、調試和公平性之間的聯系。該課程還將強調各種應用,可以極大地受益于模型的可解釋性,包括刑事司法和醫療保健。

//himalakkaraju.github.io/

付費5元查看完整內容

EMNLP(Conference on Empirical Methods in Natural Language Processing)是計算語言學和自然語言處理領域的頂級國際會議,由ACL旗下SIGDAT組織,每年舉辦一次,Google Scholar計算語言學刊物指標中排名第二,是CCF-B類推薦會議。今年EMNLP 2020將于2020年11月16日至20日以在線會議的形式舉辦。本篇為大家帶來EMNLP2020在線Tutorial《Interpreting Predictions of NLP Models》教程,系統性講解了自然語言處理模型可解釋性預測,不可錯過!

雖然神經NLP模型具有高度的表示學習能力和良好性能,但它們也會以違反直覺的方式系統性失敗,并且在決策過程中不透明。本教程將提供可解釋技術的背景知識,即可解釋NLP模型預測的方法。我們將首先將具體實例的解釋置于理解模型的其他方法的上下文中(例如,探測,數據集分析)。接下來,我們將全面研究具體例子的解釋,包括顯著性映射、輸入擾動(例如LIME、輸入減少)、對抗性攻擊和影響函數。除了這些描述之外,我們還將介紹為各種NLP任務創建和可視化解釋的源代碼。最后,我們將討論該領域的開放問題,如評價、擴展和改進解釋方法。

//github.com/Eric-Wallace/interpretability-tutorial-emnlp2020/

付費5元查看完整內容

深度學習方法對各種醫學診斷任務都非常有效,甚至在其中一些任務上擊敗了人類專家。然而,算法的黑箱特性限制了臨床應用。最近的可解釋性研究旨在揭示對模型決策影響最大的特征。這一領域的大多數文獻綜述都集中在分類學、倫理學和解釋的需要上。本文綜述了可解釋的深度學習在不同醫學成像任務中的應用。本文從一個為臨床最終用戶設計系統的深度學習研究者的實際立場出發,討論了各種方法、臨床部署的挑戰和需要進一步研究的領域。

付費5元查看完整內容

隨著機器學習模型越來越多地用于在醫療保健和刑事司法等高風險環境中幫助決策者,確保決策者(最終用戶)正確理解并信任這些模型的功能非常重要。我們將回顧了解模型的可解釋性和explainability的概念,詳細討論不同類型的可說明的模型(例如,基于原型方法,稀疏線性模型、基于規則的技術,廣義可加模型),事后解釋(黑箱解釋,包括反事實解釋和顯著性映射),并探索可解釋性與因果性、調試和公平性之間的聯系。可解釋機器學習這些應用可以極大地受益于模型的可解釋性,包括刑事司法和醫療保健。

付費5元查看完整內容

人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。

付費5元查看完整內容

【簡介】近些年來,可解釋的人工智能受到了越來越多的關注。隨著人工智能模型變得越來越復雜和不透明,可解釋性變得越來越重要。最近,研究人員一直在以用戶為中心研究和處理可解釋性,尋找可信任、可理解、明確的來源和上下文感知的可解釋性。在這篇論文中,我們通過調研人工智能和相關領域中有關可解釋性的文獻,并利用過去的相關研究生成了一系列的可解釋類型。我們定義每種類型,并提供一個示例問題,來闡述對這種解釋方式的需求。我們相信,這一系列的解釋類型將有助于未來的系統設計人員獲得可靠的需求和確定各種需求的優先級,并進一步幫助生成能夠更好地符合用戶和情景需求的解釋。

介紹

人工智能(AI)領域已經從單純的基于符號和邏輯的專家系統發展到使用統計和邏輯推理技術的混合系統。可解釋性人工智能的進展與人工智能方法的發展緊密相關,例如我們在早期的論文“可解釋的知識支持系統的基礎”中所涉及的類別,涵蓋了專家系統、語義web方法、認知助手和機器學習方法。我們注意到這些方法主要處理可解釋性的特定方面。例如,由專家系統產生的解釋主要用于提供推理所需的痕跡、來源和理由。這些由認知助理提供的模型能夠調整它們的形式以適應用戶的需求,并且在機器學習和專家系統領域,解釋為模型的功能提供了一種“直覺”。

付費5元查看完整內容
北京阿比特科技有限公司