人工智能的一項基本任務是學習。深度神經網絡已經被證明可以完美地應對所有的學習模式,比如監督學習、非監督學習和強化學習。然而,傳統的深度學習方法利用云計算設施,不能很好地擴展到計算資源低的自主代理。即使在云計算中,它們也會受到計算和內存的限制,無法用于為假定網絡中有數十億神經元的代理恰當地建立大型物理世界的模型。在過去幾年里,可擴展深度學習這一新興課題解決了這些問題,該課題在訓練前和訓練過程中利用了神經網絡中的靜態和自適應稀疏連通性。本教程分兩部分涵蓋了這些研究方向,重點關注理論進步、實際應用和實踐經驗。
本教程的第一部分側重于理論。我們首先簡要討論了復雜網絡和系統背景下的基礎科學范式,并修正了目前有多少代理使用深度神經網絡。然后介紹神經網絡的基本概念,并從函數和拓撲的角度對人工神經網絡和生物神經網絡進行了比較。我們繼續介紹90年代早期關于高效神經網絡的第一批論文,這些論文利用稀疏性強制懲罰或基于各種顯著性準則對全連接網絡進行權值修剪。然后,我們回顧了一些最近的工作,從全連通網絡開始,利用剪枝-再訓練循環壓縮深度神經網絡,使其在推理階段更有效。然后我們討論另一種方法,即神經進化的擴充拓撲(NEAT)及其后續,使用進化計算以增長有效的深度神經網絡。
進一步,我們引入了深度強化學習,并為可擴展的深度強化學習鋪平了道路。我們描述了在深度強化學習領域的一些最近的進展。
許多ML任務與信號處理有共同的實際目標和理論基礎(例如,光譜和核方法、微分方程系統、順序采樣技術和控制理論)。信號處理方法是ML許多子領域中不可分割的一部分,例如,強化學習,哈密頓蒙特卡洛,高斯過程(GP)模型,貝葉斯優化,神經ODEs /SDEs。
本教程旨在涵蓋與離散時間和連續時間信號處理方法相聯系的機器學習方面。重點介紹了隨機微分方程(SDEs)、狀態空間模型和高斯過程模型的遞推估計(貝葉斯濾波和平滑)。目標是介紹基本原則之間的直接聯系信號處理和機器學習, (2) 提供一個直觀的實踐理解隨機微分方程都是關于什么, (3) 展示了這些方法在加速學習的真正好處,提高推理,模型建立,演示和實際應用例子。這將展示ML如何利用現有理論來改進和加速研究,并為從事這些方法交叉工作的ICML社區成員提供統一的概述。
摘要:
圖神經網絡(GNNs)最近變得越來越受歡迎,因為它們能夠學習復雜的關系系統,這些關系產生于從生物學和粒子物理學到社會網絡和推薦系統的廣泛問題。盡管在圖上進行深度學習的不同模型太多了,但迄今為止,很少有人提出方法來處理呈現某種動態性質的圖(例如,隨著時間的推移而進化的特征或連通性)。在本文中,作者提出了時序圖網絡(TGNs),一個通用的,有效的框架,用于深度學習動態圖表示為時間事件序列。在內存模塊和基于圖的操作符中,TGNs能夠顯著優于以前的方法,同時計算效率也更高。作者進一步表明,以前的幾個學習動態圖的模型可以轉換為TGN框架的具體實例。他們對TGN框架的不同組件進行了詳細的消融研究,并設計了最佳配置,在動態圖的幾個轉導和歸納預測任務上實現了最先進的性能。
討論的問題:
結論
地址: //ai.science/e/tgn-temporal-graph-networks-for-deep-learning-on-dynamic-graphs--eqAnR859q8wk2jfcGnbx
雖然機器學習已被廣泛應用于各個領域,但有一個領域顯然未被觸及,那就是為機器學習本身提供動力的工具的設計。在這項工作中,我們要問以下問題:機器學習中使用的算法的設計是否可能實現自動化?我們介紹了自動學習通用迭代優化算法的第一個框架。其關鍵思想是將優化算法的設計視為一個強化學習/最優控制問題,并將一個特定的更新公式(因此一個特定的優化算法)視為一個特定的策略。尋找最優策略對應于尋找最優優化算法。我們使用神經網絡參數化更新公式,并使用強化學習訓練它以避免復合誤差問題。這激發了后續各種關于元學習的工作。
地址:
哥倫比亞大學Elias Bareinboim副教授ICML 2020教程《因果強化學習》!
因果推理提供了一套工具和原則,允許人們結合數據和環境的結構不變性來推理反事實性質的問題。如果現實不是這樣,會發生什么呢? 即使想象中的現實沒有數據可用。強化學習關心的是在交互和不確定的環境中有效地找到一個優化特定功能的策略(例如,獎勵,后悔)。這兩個學科是獨立發展的,它們之間幾乎沒有相互作用。然而,在現實中,它們對同一個構建塊的不同方面進行操作,這使得他們緊密相連。
在本教程中,我們將基于這一觀察結果引入統一的處理方法,并將這兩個學科置于相同的概念和理論框架下。我們表明,當這一聯系完全建立時,就會出現許多自然的和普遍的學習問題,而這不能單獨從任何一個學科中看到。特別地,我們將討論廣義策略學習(在線、非策略和做微積分學習的組合)、何時何地干預、反事實決策(自由意志、自主、人與人工智能協作)、策略通用性和因果模仿學習等等。這種新的理解導致了對什么是反事實學習的更廣泛的觀點,并暗示了因果關系和強化學習并行研究的巨大潛力。我們稱這種新的研究為“因果強化學習”(簡稱CRL)。
地址:
專注于識別和解決應用中出現的凸優化問題。凸集、函數和優化問題。凸分析基礎。最小二乘、線性和二次規劃、半定規劃、極大極小、極值體積等問題。最優性條件,對偶理論,備選定理,及應用。內點法。應用于信號處理,統計和機器學習,控制和機械工程,數字和模擬電路設計,和金融。
人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。
報告主題: Scalable Deep Learning: from theory to practice
簡介:
人工智能的一個基本任務是學習。深度神經網絡已被證明可以完美地應對所有的學習范式,即監督學習、非監督學習和強化學習。然而,傳統的深度學習方法利用云計算設施不能很好地擴展到計算資源少的自主代理。即使在云計算中,它們也受到計算和內存的限制,不能用于為假定網絡中有數十億神經元的代理建立適當的大型物理世界模型。這些問題在過去幾年通過可擴展和高效的深度學習的新興主題得到了解決。本教程涵蓋了這些主題,重點是理論進步、實際應用和實踐經驗,分為兩部分。
第一部分 -可擴展的深度學習:從修剪到演化。
本教程的第一部分側重于理論。首先修正目前有多少代理使用深度神經網絡。然后介紹了神經網絡的基本概念,并從功能和拓撲的角度將人工神經網絡與生物神經網絡進行了比較。我們接著介紹了90年代早期的第一篇關于高效神經網絡的論文,這些論文使用稀疏執行或基于不同顯著性標準的全連通網絡的權值剪枝。然后,我們回顧了近年來一些從全連通網絡出發,利用剪枝再訓練循環壓縮深度神經網絡,使其在推理階段更有效的工作。然后我們討論另一種方法,即增強拓撲的神經進化及其后續,使用進化計算來增長有效的深度神經網絡。
第二部分:可擴展的深度學習:深度強化學習
到目前為止,一切都是在監督和非監督學習的背景下討論的。在此基礎上,我們引入了深度強化學習,為可擴展的深度強化學習奠定了基礎。我們描述了在深度強化學習領域的一些最新進展,這些進展可以用來提高強化學習主體在面對動態變化的環境時的性能,就像在能量系統中經常出現的情況一樣。
邀請嘉賓:
Decebal Constantin Mocanu是埃因霍芬理工大學(TU/e)數學與計算機科學系數據挖掘組人工智能與機器學習助理教授(2017年9月至今),TU/e青年工程院院士。他的研究興趣是利用網絡科學、進化計算、優化和神經科學的原理,構想可擴展的深度人工神經網絡模型及其相應的學習算法。
Elena Mocanu是特溫特大學(University of Twente)數據科學小組的機器學習助理教授,也是艾恩德霍芬理工大學(Eindhoven University of Technology)的研究員。2013年10月,埃琳娜在德國理工大學開始了她在機器學習和智能電網方面的博士研究。2015年1月,她在丹麥技術大學進行了短暫的研究訪問,2016年1月至4月,她是美國奧斯汀德克薩斯大學的訪問研究員。2017年,埃琳娜在德國理工大學獲得了機器學習和智能電網的哲學博士學位。
Damien Ernst目前在列日大學(University of Liege)擔任全職教授。在列日大學獲得碩士學位,博士后研究期間,由FNRS資助,在CMU、美國麻省理工學院和蘇黎世聯邦理工學院度過。他現在正在做能源和人工智能領域的研究。