主題: On the information bottleneck theory of deep learning
摘要: 深度神經網絡的實際成功并沒有得到令人滿意地解釋其行為的理論進展。在這項工作中,我們研究了深度學習的信息瓶頸理論,它提出了三個具體的主張:第一,深度網絡經歷了兩個不同的階段,分別是初始擬合階段和隨后的壓縮階段;第二,壓縮階段與深網絡良好的泛化性能有著因果關系;第三,壓縮階段是由隨機梯度下降的類擴散行為引起的。在這里,我們證明這些聲明在一般情況下都不成立,而是反映了在確定性網絡中計算有限互信息度量的假設。當使用簡單的binning進行計算時,我們通過分析結果和模擬的結合證明,在先前工作中觀察到的信息平面軌跡主要是所采用的神經非線性的函數:當神經激活進入飽和時,雙邊飽和非線性如產生壓縮相但線性激活函數和單邊飽和非線性(如廣泛使用的ReLU)實際上沒有。此外,我們發現壓縮和泛化之間沒有明顯的因果關系:不壓縮的網絡仍然能夠泛化,反之亦然。接下來,我們表明,壓縮階段,當它存在時,不產生從隨機性在訓練中,通過證明我們可以復制IB發現使用全批梯度下降,而不是隨機梯度下降。最后,我們證明當輸入域由任務相關信息和任務無關信息的子集組成時,隱藏表示確實壓縮了任務無關信息,盡管輸入的總體信息可能隨著訓練時間單調增加,并且這種壓縮與擬合過程同時發生而不是在隨后的壓縮期間。
題目:
Con?dence-Aware Learning for Deep Neural Networks
簡介:
盡管深度神經網絡可以執行多種任務,但過分一致的預測問題限制了它們在許多安全關鍵型應用中的實際應用。已經提出了許多新的工作來減輕這個問題,但是大多數工作需要在訓練和/或推理階段增加計算成本,或者需要定制的體系結構來分別輸出置信估計。在本文中,我們提出了一種使用新的損失函數訓練深度神經網絡的方法,稱為正確排名損失,該方法將類別概率顯式規范化,以便根據依據的有序等級更好地進行置信估計。所提出的方法易于實現,并且無需進行任何修改即可應用于現有體系結構。而且,它的訓練計算成本幾乎與傳統的深度分類器相同,并且通過一次推斷就可以輸出可靠的預測。在分類基準數據集上的大量實驗結果表明,所提出的方法有助于網絡產生排列良好的置信度估計。我們還證明,它對于與置信估計,分布外檢測和主動學習密切相關的任務十分有效。
摘要
一個綜合的人工智能系統不僅需要用不同的感官(如視覺和聽覺)感知環境,還需要推斷世界的條件(甚至因果)關系和相應的不確定性。在過去的十年里,我們看到了許多感知任務的重大進展,比如視覺對象識別和使用深度學習模型的語音識別。然而,對于更高層次的推理,具有貝葉斯特性的概率圖模型仍然更加強大和靈活。近年來,貝葉斯深度學習作為一種將深度學習與貝葉斯模型緊密結合的統一的概率框架出現了。在這個總體框架中,利用深度學習對文本或圖像的感知可以提高更高層次推理的性能,推理過程的反饋也可以增強文本或圖像的感知。本文對貝葉斯深度學習進行了全面的介紹,并對其在推薦系統、主題模型、控制等方面的最新應用進行了綜述。此外,我們還討論了貝葉斯深度學習與其他相關課題如神經網絡的貝葉斯處理之間的關系和區別。
介紹
在過去的十年中,深度學習在許多流行的感知任務中取得了顯著的成功,包括視覺對象識別、文本理解和語音識別。這些任務對應于人工智能(AI)系統的看、讀、聽能力,它們無疑是人工智能有效感知環境所必不可少的。然而,要建立一個實用的、全面的人工智能系統,僅僅有感知能力是遠遠不夠的。首先,它應該具備思維能力。
一個典型的例子是醫學診斷,它遠遠超出了簡單的感知:除了看到可見的癥狀(或CT上的醫學圖像)和聽到患者的描述,醫生還必須尋找所有癥狀之間的關系,最好推斷出它們的病因。只有在那之后,醫生才能給病人提供醫療建議。在這個例子中,雖然視覺和聽覺的能力讓醫生能夠從病人那里獲得信息,但醫生的思維能力才是關鍵。具體來說,這里的思維能力包括識別條件依賴、因果推理、邏輯演繹、處理不確定性等,顯然超出了傳統深度學習方法的能力。幸運的是,另一種機器學習范式,概率圖形模型(PGM),在概率或因果推理和處理不確定性方面表現出色。問題在于,PGM在感知任務上不如深度學習模型好,而感知任務通常涉及大規模和高維信號(如圖像和視頻)。為了解決這個問題,將深度學習和PGM統一到一個有原則的概率框架中是一個自然的選擇,在本文中我們稱之為貝葉斯深度學習(BDL)。 在上面的例子中,感知任務包括感知病人的癥狀(例如,通過看到醫學圖像),而推理任務包括處理條件依賴性、因果推理、邏輯推理和不確定性。通過貝葉斯深度學習中有原則的整合,將感知任務和推理任務視為一個整體,可以相互借鑒。具體來說,能夠看到醫學圖像有助于醫生的診斷和推斷。另一方面,診斷和推斷反過來有助于理解醫學圖像。假設醫生可能不確定醫學圖像中的黑點是什么,但如果她能夠推斷出癥狀和疾病的病因,就可以幫助她更好地判斷黑點是不是腫瘤。 再以推薦系統為例。一個高精度的推薦系統需要(1)深入了解條目內容(如文檔和電影中的內容),(2)仔細分析用戶檔案/偏好,(3)正確評價用戶之間的相似度。深度學習的能力有效地處理密集的高維數據,如電影內容擅長第一子任務,而PGM專攻建模條件用戶之間的依賴關系,項目和評分(參見圖7為例,u, v,和R是用戶潛在的向量,項目潛在的向量,和評級,分別)擅長其他兩個。因此,將兩者統一在一個統一的概率原則框架中,可以使我們在兩個世界中都得到最好的結果。這種集成還帶來了額外的好處,可以優雅地處理推薦過程中的不確定性。更重要的是,我們還可以推導出具體模型的貝葉斯處理方法,從而得到更具有魯棒性的預測。
作為第三個例子,考慮根據從攝像機接收到的實時視頻流來控制一個復雜的動態系統。該問題可以轉化為迭代執行兩項任務:對原始圖像的感知和基于動態模型的控制。處理原始圖像的感知任務可以通過深度學習來處理,而控制任務通常需要更復雜的模型,如隱馬爾科夫模型和卡爾曼濾波器。由控制模型選擇的動作可以依次影響接收的視頻流,從而完成反饋回路。為了在感知任務和控制任務之間實現有效的迭代過程,我們需要信息在它們之間來回流動。感知組件將是控制組件估計其狀態的基礎,而帶有動態模型的控制組件將能夠預測未來的軌跡(圖像)。因此,貝葉斯深度學習是解決這一問題的合適選擇。值得注意的是,與推薦系統的例子類似,來自原始圖像的噪聲和控制過程中的不確定性都可以在這樣的概率框架下自然地處理。 以上例子說明了BDL作為一種統一深度學習和PGM的原則方式的主要優勢:感知任務與推理任務之間的信息交換、對高維數據的條件依賴以及對不確定性的有效建模。關于不確定性,值得注意的是,當BDL應用于復雜任務時,需要考慮三種參數不確定性:
通過使用分布代替點估計來表示未知參數,BDL提供了一個很有前途的框架,以統一的方式處理這三種不確定性。值得注意的是,第三種不確定性只能在BDL這樣的統一框架下處理;分別訓練感知部分和任務特定部分相當于假設它們之間交換信息時沒有不確定性。注意,神經網絡通常是過參數化的,因此在有效處理如此大的參數空間中的不確定性時提出了額外的挑戰。另一方面,圖形模型往往更簡潔,參數空間更小,提供了更好的可解釋性。
除了上述優點之外,BDL內建的隱式正則化還帶來了另一個好處。通過在隱藏單元、定義神經網絡的參數或指定條件依賴性的模型參數上施加先驗,BDL可以在一定程度上避免過擬合,尤其是在數據不足的情況下。通常,BDL模型由兩個組件組成,一個是感知組件,它是某種類型神經網絡的貝葉斯公式,另一個是任務特定組件,使用PGM描述不同隱藏或觀察變量之間的關系。正則化對它們都很重要。神經網絡通常過度參數化,因此需要適當地正則化。正則化技術如權值衰減和丟失被證明是有效地改善神經網絡的性能,他們都有貝葉斯解釋。在任務特定組件方面,專家知識或先驗信息作為一種正規化,可以在數據缺乏時通過施加先驗來指導模型。 在將BDL應用于實際任務時,也存在一些挑戰。(1)首先,設計一個具有合理時間復雜度的高效的神經網絡貝葉斯公式并非易事。這一行是由[42,72,80]開創的,但是由于缺乏可伸縮性,它沒有被廣泛采用。幸運的是,這個方向的一些最新進展似乎為貝葉斯神經網絡的實際應用提供了一些啟示。(2)第二個挑戰是如何確保感知組件和任務特定組件之間有效的信息交換。理想情況下,一階和二階信息(例如,平均值和方差)應該能夠在兩個組件之間來回流動。一種自然的方法是將感知組件表示為PGM,并將其與特定任務的PGM無縫連接,如[24,118,121]中所做的那樣。 本綜述提供了對BDL的全面概述,以及各種應用程序的具體模型。綜述的其余部分組織如下:在第2節中,我們將回顧一些基本的深度學習模型。第3節介紹PGM的主要概念和技術。這兩部分作為BDL的基礎,下一節第4節將演示統一BDL框架的基本原理,并詳細說明實現其感知組件和特定于任務的組件的各種選擇。第5節回顧了應用于不同領域的BDL模型,如推薦系統、主題模型和控制,分別展示了BDL在監督學習、非監督學習和一般表示學習中的工作方式。第6部分討論了未來的研究問題,并對全文進行了總結。
結論和未來工作
BDL致力于將PGM和NN的優點有機地整合在一個原則概率框架中。在這項綜述中,我們確定了這種趨勢,并回顧了最近的工作。BDL模型由感知組件和任務特定組件組成;因此,我們分別描述了過去幾年開發的兩個組件的不同實例,并詳細討論了不同的變體。為了學習BDL中的參數,人們提出了從塊坐標下降、貝葉斯條件密度濾波、隨機梯度恒溫器到隨機梯度變分貝葉斯等多種類型的算法。 BDL從PGM的成功和最近在深度學習方面有前景的進展中獲得了靈感和人氣。由于許多現實世界的任務既涉及高維信號(如圖像和視頻)的有效感知,又涉及隨機變量的概率推理,因此BDL成為利用神經網絡的感知能力和PGM的(條件和因果)推理能力的自然選擇。在過去的幾年中,BDL在推薦系統、主題模型、隨機最優控制、計算機視覺、自然語言處理、醫療保健等各個領域都有成功的應用。在未來,我們不僅可以對現有的應用進行更深入的研究,還可以對更復雜的任務進行探索。此外,最近在高效BNN (BDL的感知組件)方面的進展也為進一步提高BDL的可擴展性奠定了基礎。
我們研究了時間差分(TD)學習中泛化與干涉之間的關系。干涉被定義為兩個不同梯度的內積,表示它們的對齊。這個量從對神經網絡、參數共享和動態學習的各種觀察中產生。我們發現,TD很容易導致低干擾、欠泛化參數,而在監督學習中,這種效應似乎是相反的。我們假設,原因可以追溯到相互作用之間的動態干擾和bootstrapping。這是由幾個觀察:支持經驗之間的負面關系泛化間隙和干涉TD,引導對干擾的負面影響和當地的一致性目標,和信息的傳播速度之間的對比在TD(0)和TD(λ)和回歸蒙特卡羅政策評估等任務。我們希望這些新的發現能夠指導未來更好的引導方法的發現。
題目: The Break-Even Point on Optimization Trajectories of Deep Neural Networks
摘要:
深度神經網絡的早期訓練對其最終性能至關重要。在這項工作中,我們研究了在訓練初期使用的隨機梯度下降(SGD)超參數如何影響優化軌跡的其余部分。我們認為在這條軌跡上存在“盈虧平衡點”,超過這個平衡點,損失曲面的曲率和梯度中的噪聲將被SGD隱式地正則化。特別是在多個分類任務中,我們證明了在訓練的初始階段使用較大的學習率可以減少梯度的方差,改善梯度的協方差條件。從優化的角度來看,這些效果是有益的,并且在盈虧平衡點之后變得明顯。補充之前的工作,我們還表明,使用低的學習率,即使對于具有批處理歸一化層的神經網絡,也會導致損失曲面的不良適應。簡而言之,我們的工作表明,在訓練的早期階段,損失表面的關鍵屬性受到SGD的強烈影響。我們認為,研究確定的效應對泛化的影響是一個有前途的未來研究方向。
題目: A Survey on Deep Geometry Learning: From a Representation Perspective
摘 要:
目前,研究人員已經在利用深度學習處理二維圖像方面取得了很大的成功。近年來,三維計算機視覺和幾何深度學習越來越受到人們的重視。針對不同的應用,提出了許多先進的三維造型技術。與二維圖像可以由像素的規則網格統一表示不同,三維圖形具有多種表示,如深度和多視圖圖像、基于體素的表示、基于點的表示、基于網格的表示、隱式的表面表示等。然而,不同應用程序的性能在很大程度上取決于所使用的表示,并且沒有一種惟一的表示可以適用于所有應用程序。因此,在本次調查中,我們從表象的角度回顧了三維幾何深度學習的最新發展,總結了不同表象在不同應用中的優缺點。我們也提出現有的數據集在這些表示和進一步討論未來的研究方向。
【導讀】圖數據處理是一個長期存在的研究課題,近年來又被深度學習領域廣泛關注。相關研究在數量和廣度上飛速增長,但這也導致了知識系統化的缺失和對早期文獻關注的缺失。《A Gentle Introduction to Deep Learning for Graphs》是圖深度學習領域的教程導論,它傾向于對主流概念和架構的一致和漸進的介紹,而不是對最新文獻的闡述。
教程在介紹概念和想法時采用了自上而下的方法并保留了清晰的歷史觀點,為此,導論在第2節中提供了圖表示學習的泛化形式,將圖表示學習泛化為一種基于局部和迭代的結構化信息處理過程。同時,介紹了架構路線圖,整個導論也是圍繞該路線圖進行開展的。導論聚焦于面向局部和迭代的信息處理過程,因為這些過程與神經網絡的體系更為一致。因此,導論會淡化那些基于圖譜理論的全局方法(假設有一個固定的鄰接矩陣)。
后續,導論介紹了可以用于組裝構建新奇和有效圖神經網絡模型的基本構建單元。導論還對圖深度學習中有意思的研究挑戰和應用進行了闡述,同時介紹了相關的方法。導論的內容大致如下:
摘要
簡介
高階概覽
數學符號
動機
路線圖
局部關系和信息的迭代處理
三種上下文傳播機制
構建塊/單元
鄰接聚合
池化
面向圖嵌入的節點聚合
總結
任務
無監督學習
有監督學習
生成式學習
總結
其他方法和任務的總結
核
圖譜方法
隨機游走
圖上的對抗訓練和攻擊
圖序列生成模型
開放挑戰和研究方法
時間進化圖
偏置方差權衡
邊信息的明智用法
超圖學習
應用
化學和藥物設計
社交網絡
自然語言處理
安全
時空預測
推薦系統
總結
題目: Optimization for deep learning: theory and algorithms
摘要:
什么時候以及為什么能夠成功地訓練神經網絡?本文概述了神經網絡的優化算法和訓練理論。首先,我們討論了梯度爆炸、消失問題,然后討論了實際的解決方案,包括初始化和歸一化方法。其次,我們回顧了用于訓練神經網絡的一般優化方法,如SGD、自適應梯度方法和分布式方法以及這些算法的理論結果。第三,我們回顧了現有的關于神經網絡訓練的全局問題的研究,包括局部極值的結果、模式連接、無限寬度分析。
作者:
Ruoyu Sun是伊利諾伊大學厄本那香檳分校 (UIUC)電子與計算機工程系的助理教授,研究優化和機器學習,尤其是深度學習。最近,一直在研究深度學習中的最優化,例如神經網絡,GANs和Adam。
摘要
什么時候以及為什么能夠成功地訓練神經網絡?本文概述了神經網絡的優化算法和訓練理論。首先,我們討論了梯度爆炸/消失問題和更一般的不期望譜問題,然后討論了實際的解決方案,包括仔細的初始化和歸一化方法。其次,我們回顧了用于訓練神經網絡的一般優化方法,如SGD、自適應梯度方法和分布式方法,以及這些算法的現有理論結果。第三,我們回顧了現有的關于神經網絡訓練的全局問題的研究,包括局部極值的結果、模式連接、彩票假設和無限寬度分析。
本文的一個主要主題是了解成功訓練神經網絡的實際組成部分,以及可能導致訓練失敗的因素。假設你在1980年試圖用神經網絡解決一個圖像分類問題。如果你想從頭開始訓練一個神經網絡,很可能你最初的幾次嘗試都沒有得到合理的結果。什么本質的變化使算法能有效進行?在高層次上,你需要三樣東西(除了強大的硬件): 合適的神經網絡、合適的訓練算法和合適的訓練技巧。
合適的神經網絡。這包括神經結構和激活功能。對于神經結構,您可能想要用一個至少有5層和足夠神經元的卷積網絡來替換一個完全連接的網絡。為了獲得更好的性能,您可能希望將深度增加到20甚至100,并添加跳躍skip連接。對于激活函數,一個好的起點是ReLU激活,但是使用tanh或swish激活也是合理的。
訓練算法。一個大的選擇是使用隨機版本的梯度下降(SGD)并堅持它。良好調整的步長足夠好,而動量和自適應步長可以提供額外的好處。
訓練技巧。適當的初始化對于算法的訓練是非常重要的。要訓練一個超過10層的網絡,通常需要兩個額外的技巧:添加規范化層和添加跳過連接。
哪些設計選擇是必要的?目前我們已經了解了一些設計選擇,包括初始化策略、規范化方法、跳過連接、參數化(大寬度)和SGD,如圖1所示。我們將優化優勢大致分為三部分: 控制Lipschitz常數、更快的收斂速度和更好的landscape。還有許多其他的設計選擇是很難理解的,尤其是神經架構。無論如何,似乎不可能理解這個復雜系統的每個部分,目前的理解已經可以提供一些有用的見解。
圖1: 成功訓練具有理論理解的神經網絡的幾個主要設計選擇。它們對算法收斂的三個方面有影響:使收斂成為可能、更快的收斂和更好的全局解。這三個方面有一定的聯系,只是一個粗略的分類。請注意,還有其他一些重要的設計選擇,特別是神經體系結構,它們在理論上還沒有被理解,因此在該圖中被省略了。還有其他好處,比如泛化,也被忽略了。
為了使綜述調查簡單,我們將重點研究前饋神經網絡的監督學習問題。我們將不討論更復雜的公式,如GANs(生成對抗網絡)和深度強化學習,也不討論更復雜的體系結構,如RNN(遞歸神經網絡)、attention和Capsule。在更廣泛的背景下,監督學習理論至少包含表示、優化和泛化(參見1.1節),我們不詳細討論表示和泛化。一個主要的目標是理解神經網絡結構(由許多變量連接的參數化)如何影響優化算法的設計和分析,這可能會超越監督學習。
這篇文章是為那些對神經網絡優化的理論理解感興趣的研究人員寫的。關于優化方法和基礎理論的先驗知識將非常有幫助(參見,[24,200,29]的準備)。現有的關于深度學習優化的調查主要針對一般的機器學習受眾,如Goodfellow等[76]的第8章。這些綜述通常不深入討論優化的理論方面。相反,在這篇文章中,我們更多地強調理論結果,同時努力使它對非理論讀者具有可訪問性。如果可能的話,我們將提供一些簡單的例子來說明這種直覺,我們將不解釋定理的細節。
1.1 大景觀:分解理論
分解是發展理論的一個有用且流行的元方法。首先簡要回顧了優化在機器學習中的作用,然后討論了如何分解深度學習的優化理論。
表示、優化和泛化。監督學習的目標是根據觀察到的樣本找到一個近似底層函數的函數。第一步是找到一個豐富的函數家族(如神經網絡),可以代表理想的函數。第二步是通過最小化某個損失函數來識別函數的參數。第三步是使用第二步中找到的函數對不可見的測試數據進行預測,產生的錯誤稱為測試錯誤。測試誤差可以分解為表示誤差、優化誤差和泛化誤差,分別對應這三個步驟引起的誤差。
在機器學習中,表示、優化和泛化這三個學科經常被分開研究。例如,在研究一類函數的表示能力時,我們往往不關心優化問題能否很好地解決。在研究泛化誤差時,我們通常假設已經找到了全局最優值(概化調查見[95])。類似地,在研究優化屬性時,我們通常不明確地考慮泛化誤差(但有時我們假定表示誤差為零)。
優化問題的分解。深度學習的優化問題比較復雜,需要進一步分解。優化的發展可以分為三個步驟。第一步是使算法開始運行,并收斂到一個合理的解,如一個固定點。第二步是使算法盡快收斂。第三步是確保算法收斂到一個低目標值的解(如全局極小值)。要獲得良好的測試精度,還有一個額外的步驟,但是這超出了優化的范圍。簡而言之,我們將優化問題分為三個部分: 收斂性、收斂速度和全局質量。
大部分工作的回顧分為三個部分: 第四部分,第五部分和第六部分。大致說來,每個部分主要是由優化理論的三個部分之一。然而,這種劃分并不精確,因為這三個部分之間的邊界是模糊的。例如,第4節中討論的一些技術也可以提高收斂速度,第6節中的一些結果解決了收斂問題和全局問題。劃分的另一個原因是它們代表了神經網絡優化的三個相當獨立的子領域,并且在一定程度上是獨立發展的。
1.2 文章結構
這篇文章的結構如下。在第二節中,我們提出了一個典型的監督學習神經網絡優化問題。在第三節中,我們提出了反向傳播(BP),并分析了將經典收斂分析應用于神經網絡梯度下降的困難。在第四節中,我們將討論訓練神經網絡的神經網絡特定技巧,以及一些基本理論。這些是神經網絡相關的方法,打開了神經網絡的黑盒子。特別地,我們討論了一個主要的挑戰,稱為梯度爆炸/消失和一個更普遍的挑戰,控制頻譜,并回顧了主要的解決方案,如仔細的初始化和歸一化方法。在第五節中,我們討論了將神經網絡視為一般非凸優化問題的泛型算法設計。特別地,我們回顧了SGD的各種學習速率調度、自適應梯度方法、大規模分布式訓練、二階方法以及現有的收斂和迭代復雜度結果。在第六節中,我們回顧了神經網絡的全局優化研究,包括全局景觀、模式連接、彩票假設和無限寬度分析(如神經正切核)。
?
更多請下載論文查看
便捷下載,請關注專知公眾號(點擊上方藍色專知關注)
后臺回復“
簡介: 深度學習通常被認為具有解決問題的近乎形而上的能力。 然而,深度學習背后的技術通常被視為神秘的黑匣子。 在本教程中,我們試圖為深入了解深度學習提供堅實的基礎。 我們的主要重點是反向傳播和自動微分,但我們還將討論各種相關主題,包括梯度下降和出現的各種參數。 此外,我們指出了深度學習與其他非深度技術之間的許多聯系,這些聯系主要是隱馬爾可夫模型(HMM)和支持向量機(SVM)。 但是首先,我們討論人工神經網絡,這是深度學習的基本組成部分。
大綱介紹:
報告主題: Scalable Deep Learning: from theory to practice
簡介:
人工智能的一個基本任務是學習。深度神經網絡已被證明可以完美地應對所有的學習范式,即監督學習、非監督學習和強化學習。然而,傳統的深度學習方法利用云計算設施不能很好地擴展到計算資源少的自主代理。即使在云計算中,它們也受到計算和內存的限制,不能用于為假定網絡中有數十億神經元的代理建立適當的大型物理世界模型。這些問題在過去幾年通過可擴展和高效的深度學習的新興主題得到了解決。本教程涵蓋了這些主題,重點是理論進步、實際應用和實踐經驗,分為兩部分。
第一部分 -可擴展的深度學習:從修剪到演化。
本教程的第一部分側重于理論。首先修正目前有多少代理使用深度神經網絡。然后介紹了神經網絡的基本概念,并從功能和拓撲的角度將人工神經網絡與生物神經網絡進行了比較。我們接著介紹了90年代早期的第一篇關于高效神經網絡的論文,這些論文使用稀疏執行或基于不同顯著性標準的全連通網絡的權值剪枝。然后,我們回顧了近年來一些從全連通網絡出發,利用剪枝再訓練循環壓縮深度神經網絡,使其在推理階段更有效的工作。然后我們討論另一種方法,即增強拓撲的神經進化及其后續,使用進化計算來增長有效的深度神經網絡。
第二部分:可擴展的深度學習:深度強化學習
到目前為止,一切都是在監督和非監督學習的背景下討論的。在此基礎上,我們引入了深度強化學習,為可擴展的深度強化學習奠定了基礎。我們描述了在深度強化學習領域的一些最新進展,這些進展可以用來提高強化學習主體在面對動態變化的環境時的性能,就像在能量系統中經常出現的情況一樣。
邀請嘉賓:
Decebal Constantin Mocanu是埃因霍芬理工大學(TU/e)數學與計算機科學系數據挖掘組人工智能與機器學習助理教授(2017年9月至今),TU/e青年工程院院士。他的研究興趣是利用網絡科學、進化計算、優化和神經科學的原理,構想可擴展的深度人工神經網絡模型及其相應的學習算法。
Elena Mocanu是特溫特大學(University of Twente)數據科學小組的機器學習助理教授,也是艾恩德霍芬理工大學(Eindhoven University of Technology)的研究員。2013年10月,埃琳娜在德國理工大學開始了她在機器學習和智能電網方面的博士研究。2015年1月,她在丹麥技術大學進行了短暫的研究訪問,2016年1月至4月,她是美國奧斯汀德克薩斯大學的訪問研究員。2017年,埃琳娜在德國理工大學獲得了機器學習和智能電網的哲學博士學位。
Damien Ernst目前在列日大學(University of Liege)擔任全職教授。在列日大學獲得碩士學位,博士后研究期間,由FNRS資助,在CMU、美國麻省理工學院和蘇黎世聯邦理工學院度過。他現在正在做能源和人工智能領域的研究。