【主要講師】
Karl Tuyls 教授是一名利物浦大學人工智能研究員和計算機科學教授,DeepMind(巴黎)的科學家。興趣主要集中在理解智能并利用這些知識在多智能體環境中構建人工智能。其研究圍繞著開發用于評估和訓練智能體的博弈論技術,以及開發動態博弈論作為在合作和競爭多智能體環境中學習的基礎。與此相關的是,還研究多機器人系統。
【教程slides】
EPFL的Lenka Zdeborová教授在UAI2021上的keynote報告《貝葉斯最優學習》
蒙特卡羅樹搜索是一種游戲樹搜索算法,其最著名的應用是AlphaGo。我將給出一個關于這個算法的教程,其中將包含Python中一個重要的實用組件。對Python和Numpy非常基本的了解對于希望獨立完成實用組件的學生來說是很有用的。
來自Google研究科學家Mathieu Blondel的《梯度下降》教程,
來自DeepMind研究人員Feryal Behbahani, Matt Hoffman 和 Bobak Shahriari講解的強化學習教程。
本教程對基于模型的強化學習(MBRL)領域進行了廣泛的概述,特別強調了深度方法。MBRL方法利用環境模型來進行決策——而不是將環境視為一個黑箱——并且提供了超越無模型RL的獨特機會和挑戰。我們將討論學習過渡和獎勵模式的方法,如何有效地使用這些模式來做出更好的決策,以及規劃和學習之間的關系。我們還強調了在典型的RL設置之外利用世界模型的方式,以及在設計未來的MBRL系統時,從人類認知中可以得到什么啟示。
//sites.google.com/view/mbrl-tutorial
近年來,強化學習領域取得了令人印象深刻的成果,但主要集中在無模型方法上。然而,社區認識到純無模型方法的局限性,從高樣本復雜性、需要對不安全的結果進行抽樣,到穩定性和再現性問題。相比之下,盡管基于模型的方法在機器人、工程、認知和神經科學等領域具有很大的影響力,但在機器學習社區中,這些方法的開發還不夠充分(但發展迅速)。它們提供了一系列獨特的優勢和挑戰,以及互補的數學工具。本教程的目的是使基于模型的方法更被機器學習社區所認可和接受。鑒于最近基于模型的規劃的成功應用,如AlphaGo,我們認為對這一主題的全面理解是非常及時的需求。在教程結束時,觀眾應該獲得:
【導讀】DeepMind開設了一系列深度學習課程。本次課講述了深度學習自然語言處理。
這個報告由DeepMind研究科學家菲利克斯·希爾(Felix Hill)主持,分為三個部分。首先,他討論了用ANN建模語言的動機:語言是高度上下文相關的,典型的非組合性的,依賴于協調許多競爭的信息來源。本節還涵蓋了Elman的發現結構在時間和簡單遞歸網絡,上下文和transformers的重要性。在第二部分,他探索了從Word2Vec到BERT的語言的無監督和表征學習。最后,Felix討論了情景語言理解,基礎和具體化語言學習。。
深度學習自然語言處理
在過去幾年里,注意力和記憶已經成為深度學習的兩個重要的新組成部分。本講座由DeepMind研究科學家Alex Graves講授現在廣泛使用的注意力機制,包括任何深度網絡中的內隱注意力,以及離散和可區分的變體的顯性注意力。然后討論了具有外部記憶的網絡,并解釋了注意力是如何為他們提供選擇性回憶的。它簡要地回顧了Transformer,一種特別成功的注意力網絡類型,最后看可變計算時間,這可以被視為一種形式的“注意力集中”。
地址:
Alex Graves在愛丁堡大學(University of Edinburgh)完成了理論物理學的理學學士學位,在劍橋大學(University of Cambridge)完成了數學的第三部分,在IDSIA與尤爾根·施米德胡貝爾(Jurgen Schmidhuber)一起完成了人工智能博士學位,之后在慕尼黑工業大學(technology University of Munich)和杰夫·辛頓(Geoff Hinton)一起完成了博士后學位。他現在是DeepMind的一名研究科學家。他的貢獻包括用于序列標簽的連接主義時態分類算法,隨機梯度變分推理,神經圖靈機/可微分神經計算機架構,以及用于強化學習的A2C算法。
關于講座系列:
深度學習講座系列是DeepMind與UCL人工智能中心之間的合作。在過去的十年中,深度學習已發展成為領先的人工智能范例,使我們能夠以前所未有的準確性和規模從原始數據中學習復雜的功能。深度學習已應用于對象識別,語音識別,語音合成,預測,科學計算,控制等問題。由此產生的應用程序觸及我們在醫療保健和醫學研究,人機交互,通信,運輸,保護,制造以及人類努力的許多其他領域中的所有生活。認識到這一巨大影響,深度學習的先驅獲得了2019年圖靈獎,這是計算機領域的最高榮譽。
在本系列講座中,來自領先的AI研究實驗室DeepMind的研究科學家針對深度學習中的一系列令人興奮的主題進行了12次講座,內容涵蓋了通過圍繞記憶,注意力和生成建模的先進思想來訓練神經網絡的基礎知識,以及重要的 負責任的創新主題。
深度學習注意力與記憶機制
借助現代的高容量模型,大數據已經推動了機器學習的許多領域的革命,但標準方法——從標簽中進行監督學習,或從獎勵功能中進行強化學習——已經成為瓶頸。即使數據非常豐富,獲得明確指定模型必須做什么的標簽或獎勵也常常是棘手的。收集簡單的類別標簽進行分類對于數百萬計的示例來說是不可能的,結構化輸出(場景解釋、交互、演示)要糟糕得多,尤其是當數據分布是非平穩的時候。
自監督學習是一個很有前途的替代方法,其中開發的代理任務允許模型和代理在沒有明確監督的情況下學習,這有助于對感興趣的任務的下游性能。自監督學習的主要好處之一是提高數據效率:用較少的標記數據或較少的環境步驟(在強化學習/機器人技術中)實現可比較或更好的性能。
自監督學習(self-supervised learning, SSL)領域正在迅速發展,這些方法的性能逐漸接近完全監督方法。