【導讀】 可信任是AI應用落地的關鍵,在醫療、軍事等領域尤為必需。最近,在一場深度學習與醫療應用的研討會上,UCLA Stanley Osher講述了可信任深度學習 (Trustworthy deep learning) 的報告,探討了穩健、準確、高校、隱私的深度學習建模,從理論上如何設計保障,共有44頁ppt,值得學習。
基于深度學習的AI在語音、圖像、知識圖譜等多個領域大放異彩。但是深度學習在醫療、金融、軍事等“關鍵性”領域還處于探索期。醫生不能僅根據模型的分類置信度進行診斷,金融機構不能僅憑借模型的輸出輕易判斷違約風險,軍方不能僅依賴自動的圖像識別執行打擊任務,安全公司也不能僅通過模型檢測結果完全自動化威脅響應。能夠在關鍵決策領域落地應用的AI,應該是可信任的AI。可信任,一方面AI系統的性能要足夠高,即能夠彌補人類在數據處理上的低效性;此外,需要AI本身的魯棒性,能夠適應或優化后適應不同的使用環境;AI自身的安全性也是搭載系統是否值得信任的關鍵;最后,AI系統需要以足夠透明、可解釋的方式輸出其判斷和決策。不可信任的AI,不能夠勝任任何政治、經濟、安全攸關的關鍵性場景,這將大大降低其可用性和適用性。
//www.math.ucla.edu/~sjo/,Stanley Osher
全能應用數學之王,流體力學和圖像處理一代宗師,2014年韓國首爾國際數學家大會頒發了第三屆高斯獎,授予了美國數學家斯坦利·奧舍(Stanley Osher,1942-)
Stanley Osher于1966年在紐約大學獲得博士學位,曾在伯克利和紐約石溪任教,現為UCLA教授,美國三院院士。奧舍指導了超過50名博士生,包括著名應用數學家舒其望,他也是擔任美國名校系主任(布朗大學)的第一位大陸留學生。
Osher在不同的時代均引領了不同領域應用數學的發展。在數值PDE方向,奧舍提出了ENO格式、WENO格式、Osher格式、Engquist-Osher格式等,以及Hamilton-Jacobi版本的方法,被廣泛應用于計算流體力學。在圖像處理方向,奧舍開創性地提出了基于PDE的圖像處理方法,包括基于總變差的圖像處理方法和水平集方法,在圖像處理、計算機視覺、反問題、微分幾何、晶體生長沉積和蝕刻等有著成功應用。在優化領域,奧舍提出了Bregman迭代法和增廣拉格朗日迭代法等,被用于壓縮感知、矩陣補全、魯棒主成分分析等。
報告摘要: 在本工作中,我們討論了值得信賴的深度學習:
地址:
【導讀】機器學習暑期學校(MLSS)系列開始于2002年,致力于傳播統計機器學習和推理的現代方法。今年因新冠疫情在線舉行,從6月28號到7月10號講述了眾多機器學習主題。本文推薦來自米蘭大學Nicoló Cesa-Bianchi教授講述《統計學習理論》,非常干貨,包括:
【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。這周會議已經召開。來自美國Linkedin、AWS等幾位學者共同給了關于在工業界中可解釋人工智能的報告,講述了XAI概念、方法以及面臨的挑戰和經驗教訓。
人工智能在我們的日常生活中扮演著越來越重要的角色。此外,隨著基于人工智能的解決方案在招聘、貸款、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響將是深遠的。人工智能模型在這些領域所起的主導作用已經導致人們越來越關注這些模型中的潛在偏見,以及對模型透明性和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療和自動化交通)以及具有重大經濟意義的關鍵工業應用(如預測維護、自然資源勘探和氣候變化建模)中建立信任和采用人工智能系統的先決條件。
因此,人工智能的研究人員和實踐者將他們的注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括 (i) 定義模型可解釋性,(ii) 為理解模型行為制定可解釋性任務,并為這些任務開發解決方案,最后 (iii)設計評估模型在可解釋性任務中的性能的措施。
在本教程中,我們將概述AI中的模型解譯性和可解釋性、關鍵規則/法律以及作為AI/ML系統的一部分提供可解釋性的技術/工具。然后,我們將關注可解釋性技術在工業中的應用,在此我們提出了有效使用可解釋性技術的實踐挑戰/指導方針,以及在幾個網絡規模的機器學習和數據挖掘應用中部署可解釋模型的經驗教訓。我們將介紹不同公司的案例研究,涉及的應用領域包括搜索和推薦系統、銷售、貸款和欺詐檢測。最后,根據我們在工業界的經驗,我們將確定數據挖掘/機器學習社區的開放問題和研究方向。
題目
可信任深度學習,44頁ppt,PDE Based Trustworthy Deep Learning
關鍵字
可信任深度學習,深度學習可解釋性,人工智能,深度學習安全
簡介
人工智能的安全性和可信任性一直是人們關注的熱點問題,尤其是深度學習的黑箱子技術,使得人工智能更加難以理解,所以了解深度學習的可信任性對人工智能的進一步普及至關重要。
作者
Stan Osher,Department of Mathematics, UCLA
報告主題: 數據高效性機器學習
報告摘要: 深度學習的最新進展已成功實現了醫學圖像分析(包括病變分割和分類)方面的最新技術。 但是,深度神經網絡(DNN)需要大量帶有高質量注釋的訓練數據,而這些注釋在醫學圖像領域是不可用或昂貴的。 此外,黑匣子深度學習算法缺乏可解釋性,并限制了它們在醫學診斷中的應用。在本演講中,將介紹我們的一系列研究,其中包括:1)一種數據有效方法,該方法將領域知識作為強大的先驗知識整合到了病變分割任務的深度學習框架中。 2)為有效訓練生成代表數據樣本的增強策略,其中基于DNN的當前狀態以主動方式擴展和更新訓練數據集
邀請嘉賓: 英國皇家工程院院士、歐洲科學院院士、英國帝國理工大學教授、香港浸會大學副校長。帝國理工學院Data Mining Research Group及 Discovery Sciences Group的領導者,倫敦E-Science研究中心首席科學家,英國InforSense有限公司董事會主席兼首席執行官,上海生物信息技術研究中心客座教授兼首席科學家。郭教授在云計算、數據挖掘、生物信息學方面的研究處于全球領先位置。1985年本科畢業于清華大學計算機系,1986年碩士畢業于清華大學計算機系,1993年博士畢業于帝國理工大學計算機系,留校工作5 年后就取得了帝國理工計算機系教授的職位。郭毅可教授是清華大學計算機系IV-VENTURE客座教授,上海市首批千人計劃入選者,也是中國計算機學會大數據專家委員會首批委員。
報告名稱: Modern Artificial Intelligence
報告簡介: 紐約大學丹東分校的電氣和計算機工程系舉辦了一個研討會系列,探討了人工智能(AI)世界上最重要的新研究,其中有為新興技術做出了重要貢獻的研究人員。
報告部分大綱:
邀請嘉賓:
Leon Bottou是一名研究科學家,對機器學習和人工智能有著廣泛的興趣。近年來,在大規模學習和隨機梯度算法方面的工作受到了廣泛的關注。他也以DjVu文件壓縮系統而聞名,于2015年3月加入Facebook人工智能研究。
Francis Bach是Inria的研究員,自2011年以來一直領導著隸屬于巴黎高等師范學院計算機科學系的機器學習團隊。他畢業于加州理工學院,2005年在加州大學伯克利分校獲得計算機科學博士學位,師從邁克爾·喬丹教授。他在巴黎礦業大學數學形態學組學習了兩年,然后在2007年至2010年期間加入了Inria/Ecole Normale Superieure計算機視覺項目組。Francis Bach主要對機器學習感興趣,特別是在稀疏方法、基于核的學習、大規模優化、計算機視覺和信號處理方面。
Raia Hadsel是DeepMind機器人研究的負責人,ICLR,WiML和CoRL的執行董事會成員。她的早期研究是使用暹羅網絡來學習神經嵌入,這種方法現在通常用于表示學習。在完成了具有針對移動機器人的自我監督式深度學習視覺系統的博士學位后,她繼續在卡內基梅隆大學的機器人研究所和SRI International進行科學研究,并于2014年初加入倫敦的DeepMind研究人工智能。Hadsell博士目前的研究重點在于對AI代理和機器人進行持續學習的挑戰,她提出了神經方法,例如策略提純,漸進式網絡和彈性權重合并,以解決災難性遺忘問題。