深度強化學習(Deep Reinforcement Learning, Deep RL)結合了深度學習和強化學習,人工智能體通過學習來解決順序決策問題。在過去的十年中,深度RL在一系列問題上取得了顯著的成果,從單人和多人游戲(如圍棋、Atari游戲和DotA 2)到機器人。
《深度強化學習基礎》是對深度學習的介紹,獨特地結合了理論和實現。它從直覺開始,然后仔細地解釋了深度RL算法的理論,討論了其伴生軟件庫SLM Lab中的實現,最后介紹了使深度RL工作的實際細節。 本指南對于熟悉基本機器學習概念并對Python有實際理解的計算機科學學生和軟件工程師都是理想的。
理解深度RL問題的每個關鍵方面 * 探索基于策略和價值的算法,包括REINFORCE、SARSA、DQN、Double DQN和優先體驗重放(PER) * 深入研究組合算法,包括actor - critical和近端策略優化(PPO) * 理解如何同步和異步并行算法 * 在SLM Lab中運行算法,學習深入RL工作的實際實現細節 * 探索調優超參數的算法基準測試結果 * 理解深度RL環境是如何設計的
這本手稿涵蓋了強化學習的所有重要的基本方面。第二章采用馬爾可夫決策過程對主體與環境之間的相互作用進行建模。第三章介紹了基于給定環境模型解決MDP問題的核心技術——動態規劃。一般來說,解決MDP問題涉及到政策評估和政策改進的迭代。在第四章中,我們討論了無模型方法:蒙特卡洛,TD學習,SARSA和q學習。第五章對強化學習中的值函數逼近進行了一般討論。作為一個重要的例子,深度Q-learning將在第6章中詳細介紹。第7章介紹了策略梯度方法,重點介紹了策略梯度定理、REINFORCE算法、Advantage Actor-Critic算法等基本概念。
強化學習是人工智能中一個強大的工具,其中虛擬或物理代理學習優化他們的決策,以實現長期目標。在某些情況下,這種機器學習方法可以節省程序員的時間,超越現有的控制器,達到超人的性能,并不斷適應不斷變化的條件。這本書認為,這些成功表明強化學習可以成功地應用于許多不同的情況,包括機器人控制、股票交易、供應鏈優化和工廠控制。
然而,強化學習傳統上僅限于虛擬環境或模擬環境中的應用,在這些環境中已經提供了設置。此外,實驗可以完成幾乎無限次的嘗試無風險。在許多現實生活任務中,使用強化學習并不像(1)數據沒有正確的形式;(2)數據稀缺,(3)自動化在現實世界中有局限性。
因此,這本書是寫來幫助學者,領域專家,和數據愛好者一樣理解的基本原則,應用強化學習到現實世界的問題。這是通過將重點放在使用實際示例和將標準數據建模為所需的正確形式,然后應用基本智能體的過程來實現的。為了進一步幫助讀者獲得對這些方法的深入和接地氣的理解,本書展示了完整的手工計算示例,以及如何用代碼以更自動化的方式實現這一點。
對于對強化學習作為解決方案感興趣但不精通的決策者,本書在介紹和案例研究部分包括簡單的、非技術的例子。這些提供了強化學習的背景,以及在實踐中應用它的挑戰和風險。具體來說,這些部分闡述了強化學習和其他機器學習方法的區別,以及知名公司如何成功地使用這種方法解決他們的問題。
//www.morganclaypool.com/doi/abs/10.2200/S01170ED1V01Y202202AIM052
強化學習(RL)將成為未來10年人工智能領域最大的突破之一,使算法能夠從環境中學習以實現任意目標。這一令人興奮的發展避免了傳統機器學習(ML)算法中的限制。這本實用的書向數據科學和人工智能專業人士展示了如何通過強化學習,讓機器自己學習。
Winder研究的作者Phil Winder涵蓋了從基本的模塊到最先進的實踐。您將探索RL的當前狀態,關注工業應用,學習許多算法,并從部署RL解決方案到生產的專門章節中受益。這不是一本教譜; 不回避數學,并希望熟悉ML。
目錄內容: Preface
強化學習是現在人工智能領域里面最活躍的研究領域之一,它是一種用于學習的計算方法,其中會有一個代理在與復雜的不確定環境交互時試圖最大化其所收到的獎勵。現在,如果你是一個強化學習的初學者,由 Richard Sutton 和 Andrew Barto 合著的《Reinforcement Learning : An Introduction》可能就是你的最佳選擇。這本書提供了關于強化學習的簡單明了的關鍵思想和算法的解釋。他們討論了該領域的知識基礎的歷史延伸到了最新的發展的應用。
本書全文共分三部分,17章內容
第一部分:列表(Tabular)解決法,第一章描述了強化學習問題具體案例的解決方案,第二章描述了貫穿全書的一般問題制定——有限馬爾科夫決策過程,其主要思想包括貝爾曼方程(Bellman equation)和價值函數,第三、四、五章介紹了解決有限馬爾科夫決策問題的三類基本方法:動態編程,蒙特卡洛方法、時序差分學習。三者各有其優缺點,第六、七章介紹了上述三類方法如何結合在一起進而達到最佳效果。第六章中介紹了可使用適合度軌跡(eligibility traces)把蒙特卡洛方法和時序差分學習的優勢整合起來。第七章中表明時序差分學習可與模型學習和規劃方法(比如動態編程)結合起來,獲得一個解決列表強化學習問題的完整而統一的方案。
第二部分:近似求解法,從某種程度上講只需要將強化學習方法和已有的泛化方法結合起來。泛化方法通常稱為函數逼近,從理論上看,在這些領域中研究過的任何方法都可以用作強化學習算法中的函數逼近器,雖然實際上有些方法比起其它更加適用于強化學習。在強化學習中使用函數逼近涉及一些在傳統的監督學習中不常出現的新問題,比如非穩定性(nonstationarity)、引導(bootstrapping)和目標延遲(delayed targets)。這部分的五章中先后介紹這些以及其它問題。首先集中討論在線(on-policy)訓練,而在第九章中的預測案例其策略是給定的,只有其價值函數是近似的,在第十章中的控制案例中最優策略的一個近似已經找到。第十一章討論函數逼近的離線(off-policy)學習的困難。第十二章將介紹和分析適合度軌跡(eligibility traces)的算法機制,它能在多個案例中顯著優化多步強化學習方法的計算特性。這一部分的最后一章將探索一種不同的控制、策略梯度的方法,它能直接逼近最優策略且完全不需要設定近似值函數(雖然如果使用了一個逼近價值函數,效率會高得多)。
第三部分:深層次研究,這部分把眼光放到第一、二部分中介紹標準的強化學習思想之外,簡單地概述它們和心理學以及神經科學的關系,討論一個強化學習應用的采樣過程,和一些未來的強化學習研究的活躍前沿。
人類從反饋中學習得最好——我們被鼓勵采取導致積極結果的行動,而被具有消極后果的決定所阻礙。這種強化過程可以應用到計算機程序中,使它們能夠解決經典編程所不能解決的更復雜的問題。深度強化學習實戰教你基本概念和術語的深度強化學習,以及實踐技能和技術,你將需要把它落實到你自己的項目。
對這項技術
深度強化學習是一種機器學習的形式,人工智能智能體從自己的原始感官輸入中學習最優行為。系統感知環境,解釋其過去決策的結果,并使用這些信息優化其行為以獲得最大的長期回報。眾所周知,深度強化學習對AlphaGo的成功做出了貢獻,但這并不是它所能做的全部!更令人興奮的應用程序等待被發現。讓我們開始吧。
關于這本書
深度強化學習實戰中教你如何編程的代理人,學習和改善的直接反饋,從他們的環境。您將使用流行的PyTorch深度學習框架構建網絡,以探索從深度Q-Networks到策略梯度方法再到進化算法的強化學習算法。在你進行的過程中,你會將你所知道的應用到實際操作項目中,比如控制模擬機器人、自動化股票市場交易,甚至構建一個可以下圍棋的機器人。
里面有什么
題目:Applied Reinforcement Learning with Python With OpenAI Gym, Tensorflow, and Keras
深入研究強化學習算法,并通過Python將它們應用到不同的用例中。這本書涵蓋了重要的主題,如策略梯度和Q學習,并利用框架,如Tensorflow, Keras,和OpenAI Gym。
Python中的應用增強學習向您介紹了強化學習(RL)算法背后的理論和用于實現它們的代碼。您將在指導下了解OpenAI Gym的特性,從使用標準庫到創建自己的環境,然后了解如何構建強化學習問題,以便研究、開發和部署基于rl的解決方案。
你將學習:
這本書是給誰看的: 數據科學家、機器學習工程師和軟件工程師熟悉機器學習和深度學習的概念。
地址:
//www.springerprofessional.de/en/applied-reinforcement-learning-with-python/17098944
目錄:
第1章 強化學習導論
在過去的一年里,深度學習技術的不斷擴散和發展給各個行業帶來了革命性的變化。毫無疑問,這個領域最令人興奮的部分之一是強化學習(RL)。這本身往往是許多通用人工智能應用程序的基礎,例如學習玩視頻游戲或下棋的軟件。強化學習的好處是,假設可以將問題建模為包含操作、環境和代理的框架,那么代理就可以熟悉大量的任務。假設,解決問題的范圍可以從簡單的游戲,更復雜的3d游戲,自動駕駛汽車教學如何挑選和減少乘客在各種不同的地方以及教一個機械手臂如何把握對象和地點在廚房柜臺上。
第二章 強化學習算法
讀者應該知道,我們將利用各種深度學習和強化學習的方法在這本書。然而,由于我們的重點將轉移到討論實現和這些算法如何在生產環境中工作,我們必須花一些時間來更詳細地介紹算法本身。因此,本章的重點將是引導讀者通過幾個強化學習算法的例子,通常應用和展示他們在使用Open AI gym 不同的問題。
第三章 強化學習算法:Q學習及其變體
隨著策略梯度和Actor-Critic模型的初步討論的結束,我們現在可以討論讀者可能會發現有用的替代深度學習算法。具體來說,我們將討論Q學習、深度Q學習以及深度確定性策略梯度。一旦我們了解了這些,我們就可以開始處理更抽象的問題,更具體的領域,這將教會用戶如何處理不同任務的強化學習。
第四章 通過強化學習做市場
除了在許多書中發現的強化學習中的一些標準問題之外,最好看看那些答案既不客觀也不完全解決的領域。在金融領域,尤其是強化學習領域,最好的例子之一就是做市。我們將討論學科本身,提出一些不基于機器學習的基線方法,然后測試幾種基于強化學習的方法。
第五章 自定義OpenAI強化學習環境
在我們的最后一章,我們將專注于Open AI Gym,但更重要的是嘗試理解我們如何創建我們自己的自定義環境,這樣我們可以處理更多的典型用例。本章的大部分內容將集中在我對開放人工智能的編程實踐的建議,以及我如何編寫這個軟件的建議。最后,在我們完成創建環境之后,我們將繼續集中精力解決問題。對于這個例子,我們將集中精力嘗試創建和解決一個新的視頻游戲。