題目
【醫學圖像處理中的因果性】52頁ppt,Causality Matters in Medical Imaging
關鍵字
計算機視覺,圖像處理,人工智能醫學,機器學習
簡介
Given an image X, train a model to predict some annotation Y,即P(Y|X)。本教程主要介紹了機器學習在醫學圖像處理中的模型預測。
作者
Ben Glocker,倫敦帝國學院計算機系,成像機器學習讀者
【導讀】因果性是人工智能中重要的研究課題,尤其是在醫療等一些高風險領域。來自帝國理工學院的Ben Glocker講述了醫療影像中「因果性」至關重要,涵蓋52頁ppt。作者指出,對于基于機器學習的圖像分析的成功至關重要的是,研究人員要能意識到并解釋他們的數據背后的因果關系。
Ben Glocker, 圖像機器學習的讀者,共同領導生物醫學圖像分析小組。我還是HeartFlow的醫學圖像分析顧問,并領導著倫敦的HeartFlow- imperial研究團隊。我是微軟研究院(Microsoft Research)的訪問研究員,并擔任凱龍醫療科技有限公司(Kheiron Medical Technologies)的科學顧問。
研究方向是醫學圖像分析與人工智能的交叉,目的是建立計算工具,提高基于圖像的疾病檢測與診斷。
//www.imperial.ac.uk/people/b.glocker
我們使用因果推理來闡明醫學成像的關鍵挑戰:1) 數據稀缺,即高質量注釋的有限可用性 2) 數據不匹配,即訓練有素的算法可能無法在臨床實踐中推廣。我們認為,圖像、注釋和數據收集過程之間的因果關系不僅會對預測模型的性能產生深遠的影響,甚至可能決定首先應該考慮哪種學習策略。例如,半監督可能不適合于圖像分割——這可能是我們在醫學圖像分析中因果關系考慮的一個令人驚訝的見解。我們的結論是,對于基于機器學習的圖像分析的成功至關重要的是,研究人員要能意識到并解釋他們的數據背后的因果關系。
題目
可信任深度學習,44頁ppt,PDE Based Trustworthy Deep Learning
關鍵字
可信任深度學習,深度學習可解釋性,人工智能,深度學習安全
簡介
人工智能的安全性和可信任性一直是人們關注的熱點問題,尤其是深度學習的黑箱子技術,使得人工智能更加難以理解,所以了解深度學習的可信任性對人工智能的進一步普及至關重要。
作者
Stan Osher,Department of Mathematics, UCLA
論文題目:
Machine Learning Techniques for Biomedical Image Segmentation: An Overview of Technical Aspects and Introduction to State-of-Art Applications
論文摘要: 近年來,在開發更精確、更有效的醫學圖像和自然圖像分割的機器學習算法方面取得了重大進展。在這篇綜述文章中,我們強調了機器學習算法在醫學圖像領域實現高效準確分割的重要作用。我們特別關注與機器學習方法在生物醫學圖像分割中的應用相關的幾個關鍵研究。我們回顧了經典的機器學習算法,如馬爾可夫隨機場、k-均值聚類、隨機森林等,雖然這些經典的學習模型往往比深度學習技術更不精確,但它們往往更具樣本效率,結構也更不復雜。我們還回顧了不同的深度學習結構,如人工神經網絡(ANNs)、卷積神經網絡(CNNs)和遞歸神經網絡(RNNs),并給出了這些學習模型在過去三年中取得的分割結果。我們強調了每種機器學習范式的成功和局限性。此外,我們還討論了與不同機器學習模型訓練相關的幾個挑戰,并提出了一些啟發式方法來解決這些挑戰。
題目: Learning Causality and Learning with Causality: A Road to Intelligence
摘要: 吸煙會引起癌癥嗎?通過分析兩個變量的觀測值,我們能否找到它們之間的因果關系?在我們的日常生活和科學中,人們經常試圖回答此類因果問題,目的是正確理解和操縱系統。在過去的幾十年中,為了回答這些問題,在機器學習,統計和哲學等領域取得了有趣的進步。此外,我們還經常關注如何在復雜的環境中進行機器學習。例如,我們如何在非平穩環境中做出最佳預測?有趣的是,最近發現因果信息可以促進理解和解決各種機器學習問題,包括遷移學習和半監督學習。這篇演講回顧了因果關系研究中的基本概念,并側重于如何從觀察數據中學習因果關系,以及因果關系為何以及如何幫助機器學習和其他任務。最后,我將討論為什么因果表達很重要以便實現通用人工智能。
報告人: 張坤 博士 美國卡內基梅隆大學,也是德國馬克斯·普朗克智能系統研究所的高級研究科學家。他的研究興趣在于機器學習和人工智能,尤其是因果發現,基于因果關系的學習和通用人工智能。他從因果關系的角度開發了用于自動發現因果關系的方法,從因果關系角度研究學習問題,尤其是轉移學習,概念學習和深度學習,并研究了因果關系和各種機器學習任務的哲學基礎。他曾擔任大型機器學習或人工智能會議的區域主席或高級程序委員會成員,包括NeurIPS,UAI,ICML,AISTATS,AAAI和IJCAI。他組織了各種學術活動,以促進因果關系的跨學科研究。
報告主題:Learning Causality and Learning with Causality: A Road to Intelligence
報告摘要:
吸煙會引起癌癥嗎?通過分析兩個變量的觀測值,我們能否找到它們之間的因果關系?在我們的日常生活和科學中,人們經常試圖回答此類因果問題,目的是正確理解和操縱系統。在過去的幾十年中,為了回答這些問題,在機器學習,統計和哲學等領域取得了有趣的進步。此外,我們還經常關注如何在復雜的環境中進行機器學習。例如,我們如何在非平穩環境中做出最佳預測?有趣的是,最近發現因果信息可以促進理解和解決各種機器學習問題,包括遷移學習和半監督學習。這篇演講回顧了因果關系研究中的基本概念,并側重于如何從觀察數據中學習因果關系,以及因果關系為何以及如何幫助機器學習和其他任務。最后,我將討論為什么因果表達很重要以便實現通用人工智能。
邀請嘉賓:美國卡耐基梅隆大學張坤博士
嘉賓簡介
張坤博士是卡內基梅隆大學哲學系的助理教授和機器學習系的副教授,也是德國馬克斯·普朗克智能系統研究所的高級研究科學家。他的研究興趣在于機器學習和人工智能,尤其是因果發現,基于因果關系的學習和通用人工智能。他從因果關系的角度開發了用于自動發現因果關系的方法,從因果關系角度研究學習問題,尤其是轉移學習,概念學習和深度學習,并研究了因果關系和各種機器學習任務的哲學基礎。他曾擔任大型機器學習或人工智能會議的區域主席或高級程序委員會成員,包括NeurIPS,UAI,ICML,AISTATS,AAAI和IJCAI。他組織了各種學術活動,以促進因果關系的跨學科研究。
Model-agnostic meta-learners aim to acquire meta-learned parameters from similar tasks to adapt to novel tasks from the same distribution with few gradient updates. With the flexibility in the choice of models, those frameworks demonstrate appealing performance on a variety of domains such as few-shot image classification and reinforcement learning. However, one important limitation of such frameworks is that they seek a common initialization shared across the entire task distribution, substantially limiting the diversity of the task distributions that they are able to learn from. In this paper, we augment MAML with the capability to identify the mode of tasks sampled from a multimodal task distribution and adapt quickly through gradient updates. Specifically, we propose a multimodal MAML (MMAML) framework, which is able to modulate its meta-learned prior parameters according to the identified mode, allowing more efficient fast adaptation. We evaluate the proposed model on a diverse set of few-shot learning tasks, including regression, image classification, and reinforcement learning. The results not only demonstrate the effectiveness of our model in modulating the meta-learned prior in response to the characteristics of tasks but also show that training on a multimodal distribution can produce an improvement over unimodal training.
主題: Medical decision analysis with probabilistic graphical models
摘要: 概率圖模型(PGMs)如貝葉斯網絡、影響圖、馬爾可夫決策過程等,在醫學領域的應用已有幾十年的歷史。本教程回顧了主要模型,提出了解決實際工作健康問題的新型模型和算法,包括時間推理和成本效益分析,并討論了這些方法相對于衛生經濟學中常用方法的優勢,為PGMs開發了許多軟件工具。
邀請嘉賓: Francisco Javier Díez Vegas,博士,西班牙馬德里聯合國教科文組織人工智能部智能決策智能系統研究中心(CISIAD)主任,聯合國開發計劃署署長。
We are correcting some important errors and working on a new version now. Will release the updated version in the future.
The era of big data provides researchers with convenient access to copious data. However, people often have little knowledge about it. The increasing prevalence of big data is challenging the traditional methods of learning causality because they are developed for the cases with limited amount of data and solid prior causal knowledge. This survey aims to close the gap between big data and learning causality with a comprehensive and structured review of traditional and frontier methods and a discussion about some open problems of learning causality. We begin with preliminaries of learning causality. Then we categorize and revisit methods of learning causality for the typical problems and data types. After that, we discuss the connections between learning causality and machine learning. At the end, some open problems are presented to show the great potential of learning causality with data.