題目
使用深度學習改進天氣預報的進展和挑戰,60頁ppt,Progress and challenges for the use of deep learning to improve weather forecasts,Peter Dueben
關鍵字
深度學習,預測,天氣預報,人工智能
簡介
天氣預報中機器學習的未來前景
作者
Peter Dueben ,歐洲中距離天氣預報中心(ECMWF)皇家學會大學研究員
人工智能令人印象深刻的成功使得它在社會中無處不在,這引起了行業和決策者的興趣,盡管公眾很少承認人工智能系統的基本理論基礎。Benjamin Guedj將舉例說明理論家的貢獻如何成為人工智能的關鍵材料,并評論未來令人興奮的挑戰。
主題: Deep Learning for Community Detection: Progress, Challenges and Opportunities
摘要: 由于社區代表著相似的觀點,相似的功能,相似的目的等,因此社區檢測對于科學查詢和數據分析而言都是重要且極為有用的工具。 但是,隨著深度學習技術顯示出以令人印象深刻的性能處理高維圖形數據的能力日益增強,諸如頻譜聚類和統計推斷之類的經典社區檢測方法正在逐漸被淘汰。 因此,及時對通過深度學習進行社區檢測的進展進行調查。 該領域分為該領域的三個廣泛的研究流-深度神經網絡,深度圖嵌入和圖神經網絡,總結了每個流中各種框架,模型和算法的貢獻以及當前尚未解決的挑戰和 未來的研究機會尚待探索。
數據科學和人工智能是令人著迷的計算領域。微軟在這些新技術上下了很大的賭注,但我們也知道,數據科學家都是訓練有素的專業人士,并不是每個軟件開發人員都能創建和維護復雜的數據模型,執行線性代數或購買昂貴的GPU設備來運行這些模型。這正是我們創造認知服務的原因。這套服務提供了預訓練模型,您可以使用開箱即用的模型來執行視覺、語音、知識、搜索和語言方面的操作。在本次會議上,微軟的云開發者倡導者Laurent Bugnion將向您展示如何使用認知服務增強應用程序的高級功能,如何使用自己的數據細化訓練過的模型,以及如何將認知服務與其他Azure服務集成以實現任務自動化。
主題: Machine learning for protein engineering
摘要: 機器學習指導的蛋白質工程是一種新的范例,可以優化復雜的蛋白質功能。 機器學習方法使用數據來預測蛋白質功能,而無需詳細的基礎物理或生物學途徑模型。
為了適應不同領域的時間序列數據集的多樣性,已經開發了大量的深度學習體系結構。本文調查了單步和多水平時間序列預測中常用的編碼器和解碼器設計——描述了時間信息是如何被每個模型納入預測的。接下來,我們將重點介紹混合深度學習模型的最新發展,該模型將經過充分研究的統計模型與神經網絡組件相結合,以改進這兩類中的純方法。最后,我們概述了一些方法,其中,深度學習也可以促進決策支持與時間序列數據。
題目
利用機器學習來“短時預報”高分辨率的降水:Using Machine Learning to “Nowcast” Precipitation in High Resolution
技術簡介
天氣會以普通的方式和嚴重的方式影響人們的日常生活,而預報的準確性會極大地影響他們的應對方式。天氣預報可以告知人們是否應該采取不同的工作方式,是否應該重新安排周末計劃的野餐時間,或者由于風暴來襲而需要撤離房屋。但是,要進行準確的天氣預報,對于局部性暴風雨或每小時時間變化的事件(例如雷暴)尤其具有挑戰性。 在“ 從雷達圖像中進行臨近預報的降水的機器學習 ”中,我們介紹了用于降水預報的機器學習模型的開發的新研究,該模型通過做出適用于近期的高度本地化的“無物理量”預測來應對這一挑戰。機器學習的顯著優勢是,在已經訓練好的模型下,推理在計算上很便宜,從而允許幾乎即時且以輸入數據的原始高分辨率進行預測。這種降水臨近預報,重點是0-6小時的預報, 即使在開發的這些早期階段,也可以生成分辨率為1公里,總延遲僅為5-10分鐘的預測,包括數據收集延遲,優于傳統模型。
ML方法的優點之一是預測是實時的,這意味著我們的預測基于新數據,而HRRR(高分辨率快速刷新)受1-3小時的計算延遲的影響。這可以為短期預測提供更好的計算機視覺方法預測。相反,HRRR中使用的數值模型可以做出更好的長期預測,部分原因是它使用完整的3D物理模型-很難從2D圖像中觀察到云的形成,因此ML方法學習對流過程更加困難。將這兩個系統(用于快速預測的ML模型和用于長期預測的HRRR)相結合,可能會整體上產生更好的結果,這是我們未來工作的重點。我們也在考慮將ML直接應用于3D觀測
出處
Google AI
【導讀】圖數據處理是一個長期存在的研究課題,近年來又被深度學習領域廣泛關注。相關研究在數量和廣度上飛速增長,但這也導致了知識系統化的缺失和對早期文獻關注的缺失。《A Gentle Introduction to Deep Learning for Graphs》是圖深度學習領域的教程導論,它傾向于對主流概念和架構的一致和漸進的介紹,而不是對最新文獻的闡述。
教程在介紹概念和想法時采用了自上而下的方法并保留了清晰的歷史觀點,為此,導論在第2節中提供了圖表示學習的泛化形式,將圖表示學習泛化為一種基于局部和迭代的結構化信息處理過程。同時,介紹了架構路線圖,整個導論也是圍繞該路線圖進行開展的。導論聚焦于面向局部和迭代的信息處理過程,因為這些過程與神經網絡的體系更為一致。因此,導論會淡化那些基于圖譜理論的全局方法(假設有一個固定的鄰接矩陣)。
后續,導論介紹了可以用于組裝構建新奇和有效圖神經網絡模型的基本構建單元。導論還對圖深度學習中有意思的研究挑戰和應用進行了闡述,同時介紹了相關的方法。導論的內容大致如下:
摘要
簡介
高階概覽
數學符號
動機
路線圖
局部關系和信息的迭代處理
三種上下文傳播機制
構建塊/單元
鄰接聚合
池化
面向圖嵌入的節點聚合
總結
任務
無監督學習
有監督學習
生成式學習
總結
其他方法和任務的總結
核
圖譜方法
隨機游走
圖上的對抗訓練和攻擊
圖序列生成模型
開放挑戰和研究方法
時間進化圖
偏置方差權衡
邊信息的明智用法
超圖學習
應用
化學和藥物設計
社交網絡
自然語言處理
安全
時空預測
推薦系統
總結
講座題目
大時間序列預測的理論與實踐:Forecasting Big Time Series: Theory and Practice
講座簡介
時間序列預測是業務流程自動化和優化的一個關鍵組成部分:在零售業,根據對不同地區未來需求的預測來決定要訂購哪些產品以及在哪里存儲這些產品;在云計算中,服務和基礎設施組件的估計未來使用量指導容量規劃;倉庫和工廠的勞動力調度需要對未來的工作量進行預測。近年來,預測技術和應用的范式發生了變化,從基于計算機輔助的模型和假設到數據驅動和全自動化。這種轉變可以歸因于大量、豐富和多樣的時間序列數據源的可用性,并導致一系列需要解決的挑戰,例如:我們如何建立統計模型,以便有效地學習從大量和多樣的數據源進行預測?在觀測有限的情況下,我們如何利用“相似”時間序列的統計能力來改進預測?對于構建能夠處理大量數據的預測系統有什么意義? 本教程的目標是提供解決大規模預測問題的最重要方法和工具的簡明直觀概述。我們回顧了三個相關領域的研究現狀:(1)時間序列的經典建模,(2)包括張量分析和深度學習的現代預測方法。此外,我們還討論了建立大規模預測系統的實際方面,包括數據集成、特征生成、回溯測試框架、誤差跟蹤和分析等。
講座嘉賓
Christos Faloutsos 現任職務于卡內基梅隆大學 (Carnegie Mellon University)電子和計算機工程教授,研究領域:圖和流的數據挖掘,分形、自相似與冪律,視頻、生物和醫學數據庫的索引和數據挖掘,數據庫性能評估(數據放置、工作負載特征)。
主題: Mathematics of Deep Learning
摘要: 本教程將介紹一些深神經網絡的理論結果,其目的是為屬性提供數學證明,如逼近能力、收斂性、全局最優性、不變性、學習表征的穩定性、泛化誤差等。討論了該理論在神經網絡訓練中的應用。本教程將從90年代早期的神經網絡理論(包括著名的Hornik等人的研究成果)開始。還有Cybenko)。接下來,我們將討論過去五年中為深度學習而建立的最新理論成果。文中還將討論該理論所遵循的實際考慮。
邀請嘉賓: Raja Giryes,是特拉維夫大學電氣工程學院的助理教授。他獲得了海拉以色列理工學院計算機科學系理學學士(2007)、理學碩士(M.Elad教授和Y.C.Eldar教授監督,2009)和博士(M.Elad教授監督,2014)學位。Raja是Technion(2013年11月至2014年7月)計算機科學系和杜克大學G.Sapiro教授實驗室(2014年7月和2015年8月)的博士后。他的研究興趣在于信號和圖像處理與機器學習的交叉點,特別是在深度學習、反問題、稀疏表示和信號和圖像建模方面。Raja獲得了EURASIP最佳博士獎、ERC StG獎、Maof優秀青年教師獎(2016-2019)、VATAT優秀博士后獎學金(2014-2015)、英特爾研究與卓越獎(2005、2013),德克薩斯儀器公司(2008)頒發的信號處理卓越獎(ESPA),是Azrieli研究員計劃(2010-2013)的一部分。
下載鏈接: 鏈接://pan.baidu.com/s/1tHvvi7codVe4kdb1quZB1w 提取碼:99fm
主題: Deep Learning Compiler
簡介:
Apache TVM是一個用于Cpu、Gpu和專用加速器的開源深度學習編譯器堆棧。它的目標是縮小以生產力為中心的深度學習框架和以性能或效率為中心的硬件后端之間的差距。在此次演講中主要圍繞AWS AI的深度學習編譯器的項目展開,講述了如何通過TVM使用預量化模型,完全從零開始添加新的操作或者是降低到現有繼電器操作符的序列。
邀請嘉賓:
Yida Wang是亞馬遜AWS AI團隊的一名應用科學家。在加入Amazon之前,曾在Intel實驗室的并行計算實驗室擔任研究科學家。Yida Wang在普林斯頓大學獲得了計算機科學和神經科學博士學位。研究興趣是高性能計算和大數據分析。目前的工作是優化深度學習模型對不同硬件架構的推理,例如Cpu, Gpu, TPUs。