強化學習(RL)通過與復雜環境的交互,推動機器學習從基礎數據擬合到學習和規劃的新時代。RL具有深度學習功能,在自動駕駛、推薦系統、無線通信、機器人、游戲等領域取得了巨大的成功。RL的成功很大程度上是基于RL算法的基礎發展,直到最近才被徹底理解,特別是它們的有限時間收斂速度和樣本復雜性。本教程將全面概述基礎RL算法的理論理解的最新進展,利用隨機近似/優化理論和利用RL問題的馬爾可夫結構。本教程還將介紹一些高級的RL算法及其最近的發展。
現代深度學習已經在多個學科中帶來了許多發現:計算機視覺、語音識別、自然語言處理技術以及純粹通過自我游戲學習游戲的能力。這在很大程度上是由獲取大量數據的能力以及與問題域匹配的適當的歸納偏差所驅動的。在本教程中,我們將探討這一新興技術與信息論的相互作用。特別地,我們將討論兩個主題。
(1) 深度學習在信息論中的應用:信息論學界在編碼設計和解碼算法方面率先取得了幾項突破,徹底改變了現代數字通信。在這一主題中,我們將研究是否有可能利用現代深度學習技術來加速這種編碼方案的發現。我們將介紹這一領域的各種發展,展示Viterbi和BCJR算法可以從觀測數據中“學習”,以及如何為高密度編碼學習比消息傳遞更好的算法。此外,經過充分研究的信道編碼設置,我們基本上可以獲得無限數量的訓練數據,并且在一些設置中已經知道了接近最優的編碼策略,可以提供一個視角,通過它可以改進和增強目前的深度學習技術。除了代碼設計,深度學習作為一種通用函數逼近器在信息論中有更廣泛的應用潛力。我們將談到這個大致的概念。事實上,最近的一些研究已經將深度學習用于(條件)獨立檢驗、互信息估計、壓縮感知以及多假設檢驗中的誤發現率控制。
(2)在第二個主題中,我們將對信息論原理在理解和設計深度學習系統中的應用進行調研。這些工作大致可分為三類:(a)代表性(b)可學習性。(A)事實上,深度學習的一個基本結果是緊密逼近任何連續函數的能力。有幾個現代的表示定理的概括理解的數量和深度這樣的網絡需要近似各種函數類,以及一些不變的性質。我們將調研這些結果。(B)有一些新興的工作,包括張量方法,在一些數學假設下為神經網絡和混合專家提供了各種可學習性保證。
要實現人工智能的夢想,就需要學會做出正確決策的自主系統。強化學習是這樣做的一個強大范式,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程將提供強化學習領域的充實介紹,學生將學習強化學習的核心挑戰和方法,包括推廣和探索。通過講課、書面作業和編碼作業的結合,學生將學習RL的關鍵思想和技術。作業將包括強化學習的基礎知識以及深度強化學習——一個結合了深度學習技術和強化學習的極具前景的新領域。
學生能夠學習到:
內容目錄:
1 Introduction to Reinforcement Learning
2 Tabular MDP planning
3 Tabular RL policy evaluation
4 Q-learning
5 RL with function approximation
6 Policy search
7 Fast Learning
8 Batch Reinforcement Learning
摘要: 組合優化問題廣泛存在于國防、交通、工業、生活等各個領域, 幾十年來, 傳統運籌優化方法是解決組合優化問題的主要手段, 但隨著實際應用中問題規模的不斷擴大、求解實時性的要求越來越高, 傳統運籌優化算法面臨著很大的計算壓力, 很難實現組合優化問題的在線求解. 近年來隨著深度學習技術的迅猛發展, 深度強化學習在圍棋、機器人等領域的矚目成果顯示了其強大的學習能力與序貫決策能力. 鑒于此, 近年來涌現出了多個利用深度強化學習方法解決組合優化問題的新方法, 具有求解速度快、模型泛化能力強的優勢, 為組合優化問題的求解提供了一種全新的思路. 因此本文總結回顧近些年利用深度強化學習方法解決組合優化問題的相關理論方法與應用研究, 對其基本原理、相關方法、應用研究進行總結和綜述, 并指出未來該方向亟待解決的若干問題.
在過去的十年中,人們對不確定性下的連續決策產生了極大的興趣,這是一類涉及到智能體與未知環境交互以實現某些目標的廣泛問題。強化學習方法解決了這些問題,最近人工智能在游戲、機器人等領域取得了突破。受這些實證證明的啟發,許多學習理論界的研究人員將他們的注意力轉向了強化學習,試圖更好地理解這些問題并發展新的算法原則。他們的努力為強化學習帶來了一個更現代的統計基礎,強調通過全局收斂、樣本復雜性和遺憾分析的非漸近特征。
本教程將概述這一新興理論,重點是最具挑戰性的在線探索設置。本教程分為三個部分:
第一部分將介紹必要的背景知識和定義。我們在這里重點討論了表式馬爾可夫決策過程的最基本設置,并考慮了難度不斷增加的問題:從規劃,到基于探索性分布的優化,再到在線探索。我們將提出兩種算法:用于優化問題的自然策略梯度(NPG)和用于探索的ucb -值迭代(UCB-VI),以及它們的保證。
第二部分是復習/實踐習部分。我們準備了一個問題集,涵蓋了NPG和UCB-VI的詳細分析,突出了在強化學習中廣泛有用的關鍵引理,以及與相關領域的技術聯系。這次會議將集體舉行。許多該領域的專家將會在問題集上提供幫助或回答其他問題。
第三部分將著重于表格設置之外的在線探索,在表格設置中需要函數近似來進行泛化。在這里,我們將提供一個RL模型和復雜性度量的合集,使易于處理的學習,以及一些統計障礙和算法。最后,我們將討論一些尚未解決的問題和未來的方向。
所有COLT參與者都可以訪問本教程。不需要RL的背景知識,但我們希望教程參與者能夠熟練使用學習理論研究中使用的標準數學工具,如集中不等式和一些線性代數。
貝葉斯概率模型為不確定性下的相干推理和預測提供了一個原則框架。近似推理解決了貝葉斯計算的關鍵挑戰,即計算棘手的后驗分布和相關數量,如貝葉斯預測分布。近十年來,貝葉斯建模技術在計算機視覺、自然語言處理、強化學習等領域的機器學習任務中得到了廣泛應用。
本教程對近似推理的最新進展進行了一個連貫的總結。我們將以介紹近似推理的概念和變分推理的基礎知識開始本教程。然后我們將描述現代近似推理的基本方面,包括可擴展推理、蒙特卡洛技術、平攤推理、近似后驗設計和優化目標。這些最新進展之間的聯系也將被討論。最后,我們將在下游不確定性估計和決策任務中的應用實例提供先進的近似推理技術,并對未來的研究方向進行討論。
摘要
本文綜述了遷移學習在強化學習問題設置中的應用。RL已經成為序列決策問題的關鍵的解決方案。隨著RL在各個領域的快速發展。包括機器人技術和游戲,遷移學習是通過利用和遷移外部專業知識來促進學習過程來幫助RL的一項重要技術。在這篇綜述中,我們回顧了在RL領域中遷移學習的中心問題,提供了一個最先進技術的系統分類。我們分析他們的目標,方法,應用,以及在RL框架下這些遷移學習技術將是可接近的。本文從RL的角度探討了遷移學習與其他相關話題的關系,并探討了RL遷移學習的潛在挑戰和未來發展方向。
關鍵詞:遷移學習,強化學習,綜述,機器學習
介紹
強化學習(RL)被認為是解決連續決策任務的一種有效方法,在這種方法中,學習主體通過與環境相互作用,通過[1]來提高其性能。源于控制論并在計算機科學領域蓬勃發展的RL已被廣泛應用于學術界和工業界,以解決以前難以解決的任務。此外,隨著深度學習的快速發展,應用深度學習服務于學習任務的集成框架在近年來得到了廣泛的研究和發展。DL和RL的組合結構稱為深度強化學習[2](Deep Reinforcement Learning, DRL)。
DRL在機器人控制[3]、[4]、玩[5]游戲等領域取得了巨大的成功。在醫療保健系統[6]、電網[7]、智能交通系統[8]、[9]等領域也具有廣闊的應用前景。
在這些快速發展的同時,DRL也面臨著挑戰。在許多強化學習應用中,環境模型通常是未知的,只有收集到足夠的交互經驗,agent才能利用其對環境的知識來改進其性能。由于環境反饋的部分可觀察性、稀疏性或延遲性以及高維觀察和/或行動空間等問題,學習主體在沒有利用任何先驗知識的情況下尋找好的策略是非常耗時的。因此,遷移學習作為一種利用外部專業知識來加速學習過程的技術,在強化學習中成為一個重要的課題。
在監督學習(SL)領域[10]中,TL得到了廣泛的研究。與SL場景相比,由于MDP環境中涉及的組件更多,RL中的TL(尤其是DRL中的TL)通常更復雜。MDP的組件(知識來自何處)可能與知識轉移到何處不同。此外,專家知識也可以采取不同的形式,以不同的方式轉移,特別是在深度神經網絡的幫助下。隨著DRL的快速發展,以前總結用于RL的TL方法的努力沒有包括DRL的最新發展。注意到所有這些不同的角度和可能性,我們全面總結了在深度強化學習(TL in DRL)領域遷移學習的最新進展。我們將把它們分成不同的子主題,回顧每個主題的理論和應用,并找出它們之間的聯系。
本綜述的其余部分組織如下:在第2節中,我們介紹了強化學習的背景,關鍵的DRL算法,并帶來了這篇綜述中使用的重要術語。我們還簡要介紹了與TL不同但又緊密相關的相關研究領域(第2.3節)。
在第3節中,我們采用多種視角來評價TL方法,提供了對這些方法進行分類的不同方法(第3.1節),討論了遷移源和目標之間的潛在差異(第3.2節),并總結了評價TL有效性的常用指標(第3.3節)。
第4節詳細說明了DRL領域中最新的TL方法。特別是,所討論的內容主要是按照遷移知識的形式組織的,如成型的獎勵(4.1節)、先前的演示(4.2節)、專家策略(4.3節),或者按照轉移發生的方式組織的,如任務間映射(4.4節)、學習可轉移表示(4.5節和4.6節)等。我們在第5節討論了TL在DRL中的應用,并在第6節提供了一些值得研究的未來展望。
來自DeepMind研究人員Feryal Behbahani, Matt Hoffman 和 Bobak Shahriari講解的強化學習教程。
本教程對基于模型的強化學習(MBRL)領域進行了廣泛的概述,特別強調了深度方法。MBRL方法利用環境模型來進行決策——而不是將環境視為一個黑箱——并且提供了超越無模型RL的獨特機會和挑戰。我們將討論學習過渡和獎勵模式的方法,如何有效地使用這些模式來做出更好的決策,以及規劃和學習之間的關系。我們還強調了在典型的RL設置之外利用世界模型的方式,以及在設計未來的MBRL系統時,從人類認知中可以得到什么啟示。
//sites.google.com/view/mbrl-tutorial
近年來,強化學習領域取得了令人印象深刻的成果,但主要集中在無模型方法上。然而,社區認識到純無模型方法的局限性,從高樣本復雜性、需要對不安全的結果進行抽樣,到穩定性和再現性問題。相比之下,盡管基于模型的方法在機器人、工程、認知和神經科學等領域具有很大的影響力,但在機器學習社區中,這些方法的開發還不夠充分(但發展迅速)。它們提供了一系列獨特的優勢和挑戰,以及互補的數學工具。本教程的目的是使基于模型的方法更被機器學習社區所認可和接受。鑒于最近基于模型的規劃的成功應用,如AlphaGo,我們認為對這一主題的全面理解是非常及時的需求。在教程結束時,觀眾應該獲得:
Deep Reinforcement Learning via Policy Optimization