來自深度學習數學夏季學校2020的第一節課:深度學習即統計學習,介紹了深度學習與統計學習一系列的關系知識點。
來自深度學習數學夏季學校2020的第二節課:深度神經網絡,介紹了深度學習歷史、神經網絡等知識點。
印尼機器學習暑期學校(MLSS- indo)是MLSS系列(MLSS .cc)的一部分,該系列于2002年在德國圖賓根的馬普智能系統研究所啟動。這是一個為期7天的活動,參與者有機會學習更多的基礎知識和當前的藝術在機器學習和深度學習,包括相關應用的數據科學,計算機視覺,和自然語言處理。
//mlss.telkomuniversity.ac.id/
內容目錄:
機器學習暑期學校(MLSS)系列開始于2002年,致力于傳播統計機器學習和推理的現代方法。今年因新冠疫情在線舉行,從6月28號到7月10號講述了眾多機器學習主題。本文推薦來自深度學習大佬Yoshua Bengio教授講述《深度學習教程》,104頁ppt系統性講述了深度學習基礎知識和最新進展,非常干貨。
Yoshua Bengio
Yoshua Bengio,蒙特利爾大學教授。Bengio 教授憑《Learning Deep Architectures for AI》、《A neural probabilistic language model》兩篇經典之作在內的 300 多篇論文,對深度學習的發展起到了巨大的推動作用,他與 Geoff Hinton、Yann LeCun 兩位一起造就了 2006 年始的深度學習復興,并稱深度學習三巨頭。Yoshua Bengio 教授于 2017 年獲得加拿大總督功勛獎。
Bengio 教授研究人工智能的動力就是發掘它的潛能,而不是對它的恐懼。他的研究成果不僅是如今 AI 熱浪的基石,也是加拿大在人工智能時代占據一席領導者位置的重要原因。「要讓電腦能像人類那樣思考,或者起碼能像人類那樣理解世界,我們現在離那一步還太遠」,Bengio 教授說,「但是人工智能現在的發展已經足以對經濟和人類的福祉產生巨大的影響。」
深度學習 AI
深度學習指的是用計算機模擬神經元網絡,以此逐漸“學會”各種任務的過程,比如識別圖像、理解語音甚或是自己做決策。這項技術的基礎是所謂的“人工神經網絡”,它是現代人工智能的核心元素。人工神經網絡和真實的大腦神經元工作方式并不完全一致,事實上它的理論基礎只是普通的數學原理。但是經過訓練后的人工神經網絡卻可以完成很多任務,比如識別照片中的人物和物體,或是在幾種主要語言之間互相翻譯等等。
機器學習暑期學校(MLSS)系列開始于2002年,致力于傳播統計機器學習和推理的現代方法。今年因新冠疫情在線舉行,從6月28號到7月10號講述了眾多機器學習主題。本文推薦來自牛津大學Yee Whye Teh教授講述《元學習》,165頁ppt系統性講述了元學習基礎知識和最新進展,非常干貨。
地址: //mlss.tuebingen.mpg.de/2020/schedule.html
作者介紹
Yee Whye Teh是牛津大學統計學系的統計機器學習教授,也是DeepMind研究人工智能的科學家。他在多倫多大學(Geoffrey E. Hinton教授)獲得博士學位,并在加州大學伯克利分校(Michael I. Jordan教授)和新加坡國立大學(Lee Kuan Yew博士后研究員)從事博士后工作。在進入牛津大學和DeepMind之前,他是一名講師,后來在倫敦大學學院(UCL)蓋茨比計算神經科學單元(Gatsby computing Neuroscience Unit)擔任讀者。他計劃聯合主席(Michael Titterington教授)人工智能國際會議和統計(AISTATS) 2010年,項目主持國際會議(Precup試圖教授)在2017年機器學習(ICML),和am /貝葉斯分析的副主編,IEEE模式分析與機器智能,機器學習日報,統計科學,英國皇家統計學會期刊B輯和機器學習研究期刊。他曾多次擔任NIPS、ICML和AISTATS的區域主席。他的研究興趣橫跨機器學習和計算統計學,包括概率方法、貝葉斯非參數學和深度學習。他開發了新穎的模型以及高效的推理和學習算法。
【導讀】DeepMind開設了一系列深度學習課程。本次課講述了深度學習計算機視覺。
繼上一講之后,DeepMind研究科學家Viorica Patraucean介紹了圖像分類之外的經典計算機視覺任務(目標檢測、語義分割、光流估計),并描述了每種任務的最新模型以及標準基準。她討論了視頻處理任務的類似模型,如動作識別、跟蹤和相關挑戰。她特別提到了最近提高視頻處理效率的工作,包括使用強化學習的元素。接下來,她介紹了單模態和多模態(vision+audio, visio+language)自監督學習的各種設置,在這些設置中,大規模學習是有益的。最后,Viorica討論了視覺中的開放問題,以及計算機視覺研究在構建智能代理這一更廣泛目標中的作用。
【導讀】DeepMind開設了一系列深度學習課程。本次課講述了深度學習自然語言處理。
這個報告由DeepMind研究科學家菲利克斯·希爾(Felix Hill)主持,分為三個部分。首先,他討論了用ANN建模語言的動機:語言是高度上下文相關的,典型的非組合性的,依賴于協調許多競爭的信息來源。本節還涵蓋了Elman的發現結構在時間和簡單遞歸網絡,上下文和transformers的重要性。在第二部分,他探索了從Word2Vec到BERT的語言的無監督和表征學習。最后,Felix討論了情景語言理解,基礎和具體化語言學習。。
深度學習自然語言處理
在過去幾年里,注意力和記憶已經成為深度學習的兩個重要的新組成部分。本講座由DeepMind研究科學家Alex Graves講授現在廣泛使用的注意力機制,包括任何深度網絡中的內隱注意力,以及離散和可區分的變體的顯性注意力。然后討論了具有外部記憶的網絡,并解釋了注意力是如何為他們提供選擇性回憶的。它簡要地回顧了Transformer,一種特別成功的注意力網絡類型,最后看可變計算時間,這可以被視為一種形式的“注意力集中”。
地址:
Alex Graves在愛丁堡大學(University of Edinburgh)完成了理論物理學的理學學士學位,在劍橋大學(University of Cambridge)完成了數學的第三部分,在IDSIA與尤爾根·施米德胡貝爾(Jurgen Schmidhuber)一起完成了人工智能博士學位,之后在慕尼黑工業大學(technology University of Munich)和杰夫·辛頓(Geoff Hinton)一起完成了博士后學位。他現在是DeepMind的一名研究科學家。他的貢獻包括用于序列標簽的連接主義時態分類算法,隨機梯度變分推理,神經圖靈機/可微分神經計算機架構,以及用于強化學習的A2C算法。
關于講座系列:
深度學習講座系列是DeepMind與UCL人工智能中心之間的合作。在過去的十年中,深度學習已發展成為領先的人工智能范例,使我們能夠以前所未有的準確性和規模從原始數據中學習復雜的功能。深度學習已應用于對象識別,語音識別,語音合成,預測,科學計算,控制等問題。由此產生的應用程序觸及我們在醫療保健和醫學研究,人機交互,通信,運輸,保護,制造以及人類努力的許多其他領域中的所有生活。認識到這一巨大影響,深度學習的先驅獲得了2019年圖靈獎,這是計算機領域的最高榮譽。
在本系列講座中,來自領先的AI研究實驗室DeepMind的研究科學家針對深度學習中的一系列令人興奮的主題進行了12次講座,內容涵蓋了通過圍繞記憶,注意力和生成建模的先進思想來訓練神經網絡的基礎知識,以及重要的 負責任的創新主題。
深度學習注意力與記憶機制
人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。
【導讀】來自Jordi Pons一份循環神經網絡RNNs簡明教程,37頁ppt
【導讀】這一份最新216頁的ppt概述《深度學習自然語言處理》,包括神經網絡基礎,詞向量表示,序列句子表示,分類標注、生成句子,預訓練。