經典的隨機優化結果通常假設數據的各種屬性的已知值(例如Lipschitz常數、到最優點的距離、平滑性或強凸性常數)。不幸的是,在實踐中,這些值是未知的,因此必須經過長時間的反復試驗才能找到最佳參數。
為了解決這一問題,近年來許多無參數算法已經被開發用于在線優化和在線學習。無參數算法對數據的性質不作任何假設,但收斂速度與最優優化算法一樣快。
這是一項令人興奮的工作,現在已經足夠成熟,可以教授給普通觀眾了。實際上,這些算法還沒有得到機器學習社區的適當介紹,只有少數人完全理解它們。本教程旨在彌補這一差距,介紹使用和設計無參數算法的實踐和理論。我們將介紹該領域的最新進展,包括優化、深度學習和使用內核學習的應用。
盡管它在機器學習中有重要的應用,非凸非凹目標的最小-最大優化仍然是難以實現的。不僅沒有已知的一階方法收斂甚至近似局部最小最大點,而且識別它們的計算復雜度也不為人所知。本文給出了非凸非凹目標和線性約束的約束最小-最優優化問題的計算復雜度,以及一階方法的局限性。
麻省理工(MIT)Tamara Broderick副教授。Tamara之前是Michael Jordan的學生,主要研究Bayesian Nonparametric模型
//people.csail.mit.edu/tbroderick/index.html
變分貝葉斯:可擴展貝葉斯推理的基礎
貝葉斯方法為現代數據分析提供了許多可取的特性,包括 (1)不確定性的一致性量化,(2)能夠捕捉復雜現象的模塊化建模框架,(3) 整合來自專家的先驗信息的能力,以及(4)可解釋性。然而,在實踐中,貝葉斯推斷需要對高維積分進行近似,而一些傳統的算法為此目的可能會很慢——尤其是在當前感興趣的數據規模上。本教程將介紹快速、近似貝葉斯推理的現代工具。“變分貝葉斯”(VB)提供了一個越來越流行的框架,它將貝葉斯推理作為一個優化問題提出。我們將研究在實踐中使用VB的主要優點和缺點,重點關注廣泛使用的“平均場變分貝葉斯”(MFVB)子類型。我們將注重能夠讓任何人使用VB,從數據分析師到理論家,都應該知道的屬性。除了VB,我們還將簡要介紹可擴展貝葉斯推理的最新數據匯總技術,這些技術在質量上有有限數據理論保證。我們將通過實際的數據分析實例來激發我們的探索,并指出該領域的一些開放問題。
許多ML任務與信號處理有共同的實際目標和理論基礎(例如,光譜和核方法、微分方程系統、順序采樣技術和控制理論)。信號處理方法是ML許多子領域中不可分割的一部分,例如,強化學習,哈密頓蒙特卡洛,高斯過程(GP)模型,貝葉斯優化,神經ODEs /SDEs。
本教程旨在涵蓋與離散時間和連續時間信號處理方法相聯系的機器學習方面。重點介紹了隨機微分方程(SDEs)、狀態空間模型和高斯過程模型的遞推估計(貝葉斯濾波和平滑)。目標是介紹基本原則之間的直接聯系信號處理和機器學習, (2) 提供一個直觀的實踐理解隨機微分方程都是關于什么, (3) 展示了這些方法在加速學習的真正好處,提高推理,模型建立,演示和實際應用例子。這將展示ML如何利用現有理論來改進和加速研究,并為從事這些方法交叉工作的ICML社區成員提供統一的概述。
本教程對基于模型的強化學習(MBRL)領域進行了廣泛的概述,特別強調了深度方法。MBRL方法利用環境模型來進行決策——而不是將環境視為一個黑箱——并且提供了超越無模型RL的獨特機會和挑戰。我們將討論學習過渡和獎勵模式的方法,如何有效地使用這些模式來做出更好的決策,以及規劃和學習之間的關系。我們還強調了在典型的RL設置之外利用世界模型的方式,以及在設計未來的MBRL系統時,從人類認知中可以得到什么啟示。
//sites.google.com/view/mbrl-tutorial
近年來,強化學習領域取得了令人印象深刻的成果,但主要集中在無模型方法上。然而,社區認識到純無模型方法的局限性,從高樣本復雜性、需要對不安全的結果進行抽樣,到穩定性和再現性問題。相比之下,盡管基于模型的方法在機器人、工程、認知和神經科學等領域具有很大的影響力,但在機器學習社區中,這些方法的開發還不夠充分(但發展迅速)。它們提供了一系列獨特的優勢和挑戰,以及互補的數學工具。本教程的目的是使基于模型的方法更被機器學習社區所認可和接受。鑒于最近基于模型的規劃的成功應用,如AlphaGo,我們認為對這一主題的全面理解是非常及時的需求。在教程結束時,觀眾應該獲得:
【導讀】機器學習和系統芯片互相促進發展,近年來機器學習算法深刻改變了計算硬件資源的發展。最近谷歌發布了強化學習用于芯片布局的論文。在加州理工的《數據驅動算法設計》課程上,GOOGLE兩位研究人員Azalia Mirhoseini & Anna Goldie做了《機器學習在系統和芯片設計》的報告,講述了機器學習芯片設計技術,值得關注。Jeff Dean在Twitter做了推薦。
在過去的十年中,系統和硬件已經改變了機器學習。現在是機器學習改變系統和硬件的時候了。在芯片設計過程中,芯片布局(chip placement)可以說是其中最復雜和耗時的步驟了。芯片設計周期的縮短有助于硬件設備適應機器學習領域的快速發展,那么,機器學習能否助力芯片設計呢?最近,谷歌提出了一種基于強化學習的芯片布局方法。本報告內容包括:
概述
計算機芯片通常分為數十個模塊,每個模塊都是一個單獨的模組,例如內存的子系統、計算單元以及控制邏輯的系統。這些模塊可以通過網表以及宏(內存組件)和標準單元(邏輯門,例如 NAND、NOR 和 XOR)等電路組件圖來描述,而所有這些組件均通過網格連接。
確定芯片如何布局(通常稱為芯片的布局規劃過程)是芯片設計過程中最復雜、最耗時的階段之一,它涉及到將網表放置在芯片的畫布(2D 網格)上,盡可能使得功率、性能和面積(PPA)降至最低,同時還要注意密度和布線擁塞方面的限制。
盡管對此方向進行了數十年的研究,但是行業內專家仍然需要迭代數周的時間才能完成一個滿足多方面設計標準的解決方案。簡單來說,其復雜性來自于幾個主要層面:網表圖的大小(數百萬至數十億個節點)、網表圖放置的網格粒度,以及計算真實目標所產生的過高成本,如果使用行業標準的電子設計自動化工具這個計算過程可能要花費數小時(有時甚至超過一天)。
谷歌研究者將芯片布局看作一個強化學習問題,然后訓練智能體將芯片網表(netlist)的節點放置在芯片畫布(canvas)上。為了使強化學習策略泛化至新的芯片 block,研究者將表征學習置于預測芯片布局質量的監督任務中。通過設計能夠在大量網表及其布局上準確預測獎勵的神經架構,該研究生成輸入網表的豐富特征嵌入。然后利用該架構作為策略和價值網絡的編碼器,實現遷移學習。
該研究旨在最小化芯片設計的 PPA(功耗、性能和面積)。研究者稱,該方法能夠在 6 小時內完成芯片布局設計,布局質量超過或匹配人類設計,而現有的基線方法需要人類專家參與,且往往需要數周時間才能完成。此外,谷歌還表示,該方法可以為谷歌加速器芯片(TPU)生成更優化的芯片放置方案,還適用于任意類型的芯片(ASIC)。 Chip Placement with Deep Reinforcement Learning
博客鏈接://ai.googleblog.com/2020/04/chip-design-with-deep-reinforcement.html
作者:Azalia Mirhoseini、Anna Goldie、Jeff Dean 等 論文鏈接:
摘要:在芯片設計過程中,芯片布局(chip placement)可以說是其中最復雜和耗時的步驟了。芯片設計周期的縮短有助于硬件設備適應機器學習領域的快速發展,那么,機器學習能否助力芯片設計呢?最近,谷歌提出了一種基于強化學習的芯片布局方法。
研究者將芯片布局看作一個強化學習問題,然后訓練智能體將芯片網表(netlist)的節點放置在芯片畫布(canvas)上。為了使強化學習策略泛化至新的芯片 block,研究者將表征學習置于預測芯片布局質量的監督任務中。通過設計能夠在大量網表及其布局上準確預測獎勵的神經架構,該研究生成輸入網表的豐富特征嵌入。然后利用該架構作為策略和價值網絡的編碼器,實現遷移學習。
該研究旨在最小化芯片設計的 PPA(功耗、性能和面積)。研究者稱,該方法能夠在 6 小時內完成芯片布局設計,布局質量超過或匹配人類設計,而現有的基線方法需要人類專家參與,且往往需要數周時間才能完成。
人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。
高斯過程(GPs)為核機器的學習提供了一種有原則的、實用的、概率的方法。在過去的十年中,GPs在機器學習社區中得到了越來越多的關注,這本書提供了GPs在機器學習中理論和實踐方面長期需要的系統和統一的處理。該書是全面和獨立的,針對研究人員和學生在機器學習和應用統計學。
這本書處理監督學習問題的回歸和分類,并包括詳細的算法。提出了各種協方差(核)函數,并討論了它們的性質。從貝葉斯和經典的角度討論了模型選擇。討論了許多與其他著名技術的聯系,包括支持向量機、神經網絡、正則化網絡、相關向量機等。討論了包括學習曲線和PAC-Bayesian框架在內的理論問題,并討論了幾種用于大數據集學習的近似方法。這本書包含說明性的例子和練習,和代碼和數據集在網上是可得到的。附錄提供了數學背景和高斯馬爾可夫過程的討論。
本備忘單是機器學習手冊的濃縮版,包含了許多關于機器學習的經典方程和圖表,旨在幫助您快速回憶起機器學習中的知識和思想。
這個備忘單有兩個顯著的優點:
清晰的符號。數學公式使用了許多令人困惑的符號。例如,X可以是一個集合,一個隨機變量,或者一個矩陣。這是非常混亂的,使讀者很難理解數學公式的意義。本備忘單試圖規范符號的使用,所有符號都有明確的預先定義,請參見小節。
更少的思維跳躍。在許多機器學習的書籍中,作者省略了數學證明過程中的一些中間步驟,這可能會節省一些空間,但是會給讀者理解這個公式帶來困難,讀者會在中間迷失。
【導讀】這本書對自動化機器學習(AutoML)的一般化方法進行了全面的闡述,并且收集了以這些方法為基礎的系統的描述和一系列關于自動化機器學習系統領域的挑戰。最近,機器學習在商業領域取得的成就和該領域的快速增長對機器學習產生了大量的需求,尤其是可以很容易地使用,并且不需要專家知識的機器學習方法。然而,當前許多表現優異的機器學習方法的大多都依賴人類專家去手動選擇適當的機器學習架構以及模型的超參數(深度學習架構或者更加傳統的機器學習方法)。為了克服這個問題,AutoML基于優化原理和機器學習本身去逐步實現機器學習的自動化。這本書可以為為研究人員和高年級學生提供一個進入這個快速發展的領域的切入點,同時也為打算在工作中使用AutoML的從業者提供參考。
第一部分 自動機器學習方法
每個機器學習系統都有超參數,而自動化機器學習最基本的任務就是自動設置這些超參數來優化性能。尤其是最近的深度神經網絡嚴重依賴對于神經網絡的結構、正則化和優化等超參數的選擇。自動優化超參數(HPO)有幾個重要的用例:?
第二部分 自動化機器學習系統
越來越多的非領域專家開始學習使用機器學習工具,他們需要非獨立的解決方案。機器學習社區通過開源代碼為這些用戶提供了大量復雜的學習算法和特征選擇方法,比如WEKA和mlr。這些開源包需要使用者做出兩種選擇:選擇一種學習算法,并通過設置超參數對其進行定制。然而想要一次性做出正確的選擇是非常具有挑戰性的,這使得許多用戶不得不通過算法的聲譽或直覺來進行選擇,并將超參數設置為默認值。當然,采用這種方法所獲得的性能要比最佳方法進行超參數設置差得多。
第三部分 自動化機器學習面臨的挑戰
直到十年之前,機器學習還是一門鮮為人知的學科。對于機器學習領域的科學家們來說,這是一個“賣方市場”:他們研究產出了大量的算法,并不斷地尋找新的有趣的數據集。大的互聯網公司積累了大量的數據,如谷歌,Facebook,微軟和亞馬遜已經上線了基于機器學習的應用,數據科學競賽也吸引了新一代的年輕科學家。如今,隨著開放性數據的增加,政府和企業不斷發掘機器學習的新的應用領域。然而,不幸的是機器學習并不是全自動的:依舊很難確定哪個算法一定適用于哪種問題和如何選擇超參數。完全自動化是一個無界的問題,因為總是有一些從未遇到過的新設置。AutoML面臨的挑戰包括但不限于: