【導讀】深度學習與計算系統結合是現在業界發展的趨勢。Logical Clocks的CEO Jim Dowling講述了分布式深度學習最新技術發展,以及其Hosworks開源平臺。
人工智能的需求在過去十年中顯著增長,很大程度是深度學習的進步。這種增長是由深度(機器)學習技術的進步和利用硬件加速的能力推動的。然而,為了提高預測的質量和使機器學習解決方案在更復雜的應用中可行,需要大量的訓練數據。盡管小型機器學習模型可以用適量的數據進行訓練,但用于訓練較大模型(如神經網絡)的輸入隨著參數的數量呈指數增長。由于對處理訓練數據的需求已經超過了計算機器計算能力的增長,因此需要將機器學習工作量分散到多臺機器上,并將集中式系統轉變為分布式系統。這些分布式系統提出了新的挑戰,首先是訓練過程的有效并行化和一致模型的創建。
分布式深度學習有很多好處——使用更多的GPU更快地訓練模型,在許多GPU上并行超參數調優,并行消融研究以幫助理解深度神經網絡的行為和性能。隨著Spark 3.0的出現,GPU開始轉向執行器,使用PySpark的分布式深度學習現在成為可能。然而,PySpark給迭代模型開發帶來了挑戰——從開發機器(筆記本電腦)開始,然后重新編寫它們以運行在基于集群的環境中。
本講座概述了分布式深度學習的技術,并提供了可用系統的概述,從而對該領域當前的最新技術進行了廣泛的概述。
Jim Dowling是 Logical Clocks公司的首席執行官,也是KTH皇家理工學院的副教授。他是開源的Hopsworks平臺的首席架構師,這是一個橫向可擴展的機器學習數據平臺。
多模態信息抽取,Multi-modal Information Extraction from Text, Semi-structured, and Tabular Data on the Web
Organizers: Xin Luna Dong, Hannaneh Hajishirzi, Colin Lockard and Prashant Shiralkar
萬維網以多種形式包含大量的文本信息:非結構化文本、基于模板的半結構化網頁(以鍵-值對和列表的形式呈現數據)和表格。從這些資源中提取信息并將其轉換為結構化形式的方法一直是自然語言處理(NLP)、數據挖掘和數據庫社區研究的目標。雖然這些研究人員已經很大程度上根據數據的模態將web數據的提取分離到不同的問題中,但他們也面臨著類似的問題,比如使用有限的標記數據進行學習,定義(或避免定義)本體,利用先驗知識,以及針對web規模的縮放解決方案。在本教程中,我們將從整體的角度來看待信息抽取,探索挑戰中的共性,以及為解決這些不同形式的文本而開發的解決方案。
地址:
【導讀】這一份最新216頁的ppt概述《深度學習自然語言處理》,包括神經網絡基礎,詞向量表示,序列句子表示,分類標注、生成句子,預訓練。
題目:
Communication-Efficient Distributed Deep Learning: A Comprehensive Survey
簡介:
隨著深度模型和數據集規模的增加,通過利用多個計算設備(例如GPU / TPU)來減少總體訓練時間,分布式深度學習變得非常普遍。但是,計算設備之間的數據通信可能是限制系統可伸縮性的潛在瓶頸。近年來,如何解決分布式深度學習中的交流問題成為研究的熱點。在本文中,我們對系統級和算法級優化中的通信有效的分布式訓練算法進行了全面的概述。在系統級,我們對系統的設計和實現進行神秘化處理以降低通信成本。在算法級別,我們將不同的算法與理論收斂范圍和通信復雜性進行比較。具體來說,我們首先提出數據并行分布式訓練算法的分類法,它包含四個主要方面:通信同步,系統架構,壓縮技術以及通信和計算的并行性。然后,我們討論解決四個維度問題的研究,以比較通信成本。我們進一步比較了不同算法的收斂速度,這使我們能夠知道算法在迭代方面可以收斂到解決方案的速度。根據系統級通信成本分析和理論收斂速度的比較,我們為讀者提供了在特定的分布式環境下哪種算法更有效的方法,并推斷出可能的方向以進行進一步的優化。
在過去的幾年中,自然語言處理領域發生了許多巨大的變化。在這篇介紹性的演講中,我們將簡要討論自然語言處理中最大的挑戰是什么,然后深入探討NLP中最重要的深度學習里程碑。我們將包括詞嵌入,語言建模和機器翻譯的遞歸神經網絡,以及最近興起的基于Transformer的模型。
Ji?i Materna:他是一個機器學習專家。在完成博士學位后,他在Seznam擔任研究主管。現在作為一個自由職業者提供機器學習解決方案和咨詢。他是機器學習學院的創始人和講師,也是布拉格國際機器學習會議的組織者。
題目: A Survey on Distributed Machine Learning
簡介: 在過去十年中,對人工智能的需求已顯著增長,并且這種增長得益于機器學習技術的進步以及利用硬件加速的能力,但是,為了提高預測質量并在復雜的應用程序中提供可行的機器學習解決方案,需要大量的訓練數據。盡管小型機器學習模型可以使用一定數量的數據進行訓練,但用于訓練較大模型(例如神經網絡)的輸入與參數數量成指數增長。由于處理訓練數據的需求已經超過了計算機器的計算能力的增長,因此急需在多個機器之間分配機器學習工作量,并將集中式的精力分配到分配的系統上。這些分布式系統提出了新的挑戰,最重要的是訓練過程的科學并行化和相關模型的創建。本文通過概述傳統的(集中的)機器學習方法,探討了分布式機器學習的挑戰和機遇,從而對當前的最新技術進行了廣泛的概述,并對現有的技術進行研究。