盡管深度學習在圖像分類、語音識別和游戲等有監督和強化學習問題上取得了顯著的成功,但這些模型在很大程度上是專門用于訓練它們的單一任務的。本課程將涵蓋需要解決多個任務的環境,并研究如何利用多個任務產生的結構來更有效地學習。
這包括:
以目標為條件的強化學習技術,它利用所提供的目標空間的結構來快速地學習多個任務; 元學習方法旨在學習可以快速學習新任務的高效學習算法; 課程和終身學習,其中問題需要學習一系列任務,并利用它們的共享結構來實現知識轉移。
這是一門研究生水平的課程。在課程結束時,學生將能夠理解和實施最先進的多任務學習和元學習算法,并準備對這些主題進行研究。
課程鏈接:
斯坦福大學的CS 330課程Deep Multi-Task and Meta Learning(深度多任務學習與元學習)正在進行中,官方網站中部分Notes已放出。
雖然深度學習在有監督學習和強化學習問題(如圖像分類、語音識別、游戲等)中獲得了卓越的成果,這些模型在很大程度上都是針對單向任務來進行訓練的。斯坦福大學的CS 330課程Deep Multi-Task and Meta Learning將會覆蓋需要解決多項任務的場景,學習如何有效和高效地利用多任務模型。
要實現人工智能的夢想,就需要學會做出正確決策的自主系統。強化學習是這樣做的一個強大范式,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程將提供強化學習領域的充實介紹,學生將學習強化學習的核心挑戰和方法,包括推廣和探索。通過講課、書面作業和編碼作業的結合,學生將學習RL的關鍵思想和技術。作業將包括強化學習的基礎知識以及深度強化學習——一個結合了深度學習技術和強化學習的極具前景的新領域。
地址: //web.stanford.edu/class/cs234/
學生能夠學習到:
內容目錄:
元強化學習算法可以利用以前的經驗來學習如何學習,從而使機器人更快地獲得新技能。然而,目前關于元強化學習的研究大多集中在非常狹窄的任務分布上。例如,一個常用的元強化學習基準將模擬機器人的不同跑步速度作為不同的任務。當策略在如此狹窄的任務分布上進行元訓練時,它們不可能推廣到更快地獲得全新的任務。因此,如果這些方法的目標是能夠更快地獲得全新的行為,我們就必須在任務分布上評估它們,任務分布必須足夠廣泛,以使新行為普遍化。
【導讀】本文為大家帶來了一份斯坦福大學的最新課程CS330——深度多任務和元學習,主講人是斯坦福大學Chelsea Finn,她是斯坦福大學計算機科學與電氣工程系的助理教授,元學習大牛。
她的博士論文——基于梯度的元學習(Learning to Learn with Gradients)很值得一讀,該論文系統性地闡述了Meta Learning以及她提出的MAML的方法和相關改進。作者從Meta Learning問題出發,然后提出了MAML理論,再進行一系列基于該理論的應用嘗試。
盡管深度學習在圖像分類、語音識別和游戲等有監督和強化學習問題上取得了顯著的成功,但這些模型在很大程度上是專門用于訓練它們的單一任務的。本課程將涵蓋需要解決多個任務的環境,并研究如何利用多個任務產生的結構來更有效地學習。
介紹
盡管深度學習在圖像分類、語音識別和游戲等有監督和強化學習問題上取得了顯著的成功,但這些模型在很大程度上是專門用于訓練它們的單一任務的。本課程將涵蓋需要解決多個任務的環境,并研究如何利用多個任務產生的結構來更有效地學習。
**這包括: ** 以目標為條件的強化學習技術,它利用所提供的目標空間的結構來快速地學習多個任務; 元學習方法旨在學習可以快速學習新任務的高效學習算法; 課程和終身學習,其中問題需要學習一系列任務,并利用它們的共享結構來實現知識轉移。
這是一門研究生水平的課程。在課程結束時,學生將能夠理解和實施最先進的多任務學習和元學習算法,并準備對這些主題進行研究。
課程鏈接: //cs330.stanford.edu/
課程安排
課程安排
01: 課程介紹,問題定義,應用(Course introduction, problem definitions, applications) 02:有監督的多任務學習,黑盒元學習(Supervised multi-task learning, black-box meta-learning) 03:TensorFlow教程(TensorFlow tutorial) 04:基于優化的元學習(Optimization-based meta-learning) 05:通過度量學習進行少量學習(Few-shot learning via metric learning) 06:貝葉斯元學習(Bayesian meta-learning) 07:強化學習入門,多任務RL,目標條件RL(Renforcement learning primer, multi-task RL, goal-conditioned RL) 08:Meta-RL,學習探索(Meta-RL, learning to explore) 09:用于多任務學習的基于模型的RL,基于元模型的RL(Model-based RL for multi-task learning, meta model-based RL) 10:終身學習:問題陳述,前后遷移(Lifelong learning: problem statement, forward & backward transfer) 11:前沿: 記憶,無監督元學習,開放性問題(Frontiers: Memorization, unsupervised meta-learning, open problems)
教機器理解人類語言文檔是人工智能領域最難以捉摸和長期存在的挑戰之一。本文探討了閱讀理解的問題:如何構建計算機系統來閱讀一篇文章并回答理解問題。一方面,我們認為閱讀理解是評估計算機系統理解人類語言能力的一項重要任務。另一方面,如果我們能夠構建高性能的閱讀理解系統,它們將成為問答和對話系統等應用的關鍵技術。
本文主要研究了基于深度神經網絡的閱讀理解模型。與傳統的稀疏的、手工設計的基于特征的模型相比,這些端到端神經模型被證明在學習豐富的語言現象方面更有效,并在很大程度上提高了所有現代閱讀理解基準的性能。
本文由兩部分組成。第一部分,我們的目標是涵蓋神經閱讀理解的本質,并介紹我們在構建有效的神經閱讀壓縮模型方面所做的努力,更重要的是了解神經閱讀理解模型實際學習了什么,以及解決當前任務需要多大的語言理解深度。我們還總結了該領域的最新進展,并討論了該領域未來的發展方向和有待解決的問題。
在本文的第二部分,我們探討了如何基于最近神經閱讀理解的成功構建實際應用。特別是,我們開創了兩個新的研究方向:1)如何將信息檢索技術與神經閱讀理解相結合,解決大規模開放領域的問題回答;和2)如何從現有的單輪、基于斯潘語言的閱讀理解模型中構建會話問答系統。我們在DRQA和COQA項目中實現了這些想法,并證明了這些方法的有效性。我們相信它們對未來的語言技術有著巨大的前景。
本文為大家帶來了一份斯坦福大學的最新課程CS234——強化學習,主講人是斯坦福大學Emma Brunskill,她是斯坦福大學計算機科學助理教授,任職斯坦福大學人類影響力實驗室、斯坦福人工智能實驗室以及統計機器學習小組,主要研究強化學習。要實現人工智能的夢想和影響,需要能夠學會做出正確決策的自主系統。強化學習是這樣做的一個強有力的范例,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程通過講課、書面作業和編碼作業的結合,學生將精通強化學習的關鍵思想和技術。
1.課程介紹(Description)
要實現人工智能的夢想和影響,需要能夠學會做出正確決策的自主系統。強化學習是這樣做的一個強有力的范例,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程將為強化學習領域提供扎實的介紹,學生將學習包括通用化和探索在內的核心挑戰和方法。通過講課、書面作業和編碼作業的結合,學生將精通強化學習的關鍵思想和技術。作業將包括強化學習和深度強化學習的基礎,這是一個極有前途的新領域,將深度學習技術與強化學習相結合。此外,學生將通過期末專題來增進對強化學習領域的理解。
課程地址:
//web.stanford.edu/class/cs234/schedule.html
2.預備知識(Prerequisites)
1)熟練Python
所有的課程都將使用Python(使用numpy和Tensorflow,也可以使用Keras)。這里有一個針對那些不太熟悉Python的人的教程。如果你有很多使用不同語言(如C/ c++ / Matlab/ Javascript)的編程經驗,可能會很好。
2)大學微積分,線性代數(如 MATH 51, CME 100)
你應該能夠熟練地進行(多變量)求導,理解矩陣/向量符號和運算。
3)基本概率及統計(例如CS 109 或同等課程)
你應該了解基本的概率,高斯分布,均值,標準差等。
4)機器學習基礎
我們將闡述成本函數,求導數,用梯度下降法進行優化。CS 221或CS 229均可涵蓋此背景。使用一些凸優化知識,一些優化技巧將更加直觀。
3.主講:Emma Brunskill
Emma Brunskill是斯坦福大學計算機科學助理教授,任職斯坦福大學人類影響力實驗室、斯坦福人工智能實驗室以及統計機器學習小組。
主要研究強化學習系統,以幫助人們更好地生活。并處理一些關鍵技術。最近的研究重點包括:1)有效強化學習的基礎。一個關鍵的挑戰是要了解代理商如何平衡勘探與開發之間的局限性。2)如果要進行順序決策,該怎么辦。利用巨大數量的數據來改善在醫療保健,教育,維護和許多其他應用程序中做出的決策,這是一個巨大的機會。這樣做需要假設/反事實推理,以便在做出不同決定時對潛在結果進行推理。3)人在回路系統。人工智能具有極大地擴大人類智能和效率的潛力。我們正在開發一個系統,用其他眾包商(CHI 2016)生產的(機器)固化材料對眾包商進行訓練,并確定何時擴展系統規格以包括新內容(AAAI 2017)或傳感器。我們也有興趣研究確保機器學習系統在人類用戶的意圖方面表現良好(Arxiv 2017),也被稱為安全和公平的機器學習。
個人主頁:
4.課程安排
01: 強化學習導論(Introduction to Reinforcement Learning)
02: 表格MDP規劃(Tabular MDP planning)
03: 表格RL政策評估(Tabular RL policy evaluation)
04: Q-learning
05: 帶函數逼近的強化學習(RL with function approximation)
06: 帶函數逼近的強化學習(RL with function approximation)
07: 帶函數逼近的強化學習(RL with function approximation)
08: 從馬爾可夫決策過程到強化學習(Policy search)
09: 從馬爾可夫決策過程到強化學習(Policy search)
10: 課堂中期(In-class Midterm)
11: 模仿學習/探索(Imitation learning/Exploration)
12: 探索/開發(Exploration/Exploitation)
13: 探索/開發(Exploration/Exploitation)
14: 批處理強化學習(Batch Reinforcement Learning)
15: 嘉賓講座:Craig Boutilier(Guest Lecture: Craig Boutilier)
16: 課堂測驗(In-class Quiz)
17: 蒙特卡洛樹搜索算法(Monte Carlo Tree Search)
18: 墻報展示(Poster presentations)
【導讀】本文為大家帶來了一份斯坦福大學的最新課程CS224n——自然語言處理與深度學習,主講人是斯坦福大學Chris Manning,他是斯坦福大學機器學習教授,語言學和計算機科學教授,斯坦福人工智能實驗室(SAIL)主任,以人為本的人工智能研究所副所長。
近年來,深度學習方法在許多不同的NLP任務中獲得了非常高的性能,使用不需要傳統的、特定于任務的特征工程的單個端到端神經模型。在本課程中,學生將深入了解NLP深度學習的前沿研究。通過講座、作業和期末專題,學生將學習設計、實施和理解自己的神經網絡模型所需的必要技能。本課程使用Pytorch 進行教學。
1. 課程介紹(Description)
自然語言處理(NLP)是信息時代最重要的技術之一,也是人工智能的重要組成部分。NLP的應用無處不在,因為人們幾乎用語言交流一切:網絡搜索、廣告、電子郵件、客戶服務、語言翻譯、虛擬代理、醫療報告等。近年來,深度學習方法在許多不同的NLP任務中獲得了非常高的性能,使用不需要傳統的、特定于任務的特征工程的單個端到端神經模型。在本課程中,學生將深入了解NLP深度學習的前沿研究。通過講座、作業和期末專題,學生將學習設計、實施和理解自己的神經網絡模型所需的必要技能。作為去年的試點,CS224n將在今年使用Pytorch進行教學。
課程鏈接://web.stanford.edu/class/cs224n/
2. 之前的課程(Previous offerings)
本課程于2017年由早期的CS224n(自然語言處理)和CS224d(自然語言處理與深度學習)課程合并而成。下面你可以找到存檔的網站和學生項目報告。
CS224n Websites: Winter 2019 / Winter 2018 / Winter 2017 / Autumn 2015 / Autumn 2014 / Autumn 2013 / Autumn 2012 / Autumn 2011 / Winter 2011 / Spring 2010 / Spring 2009 / Spring 2008 / Spring 2007 / Spring 2006 / Spring 2005 / Spring 2004 / Spring 2003 / Spring 2002 / Spring 2000
CS224n Lecture Videos: Winter 2019 / Winter 2017 CS224n Reports: Winter 2019 / Winter 2018 / Winter 2017 / Autumn 2015 and earlier
CS224d Reports: Spring 2016 / Spring 2015
3. 預備知識(Prerequisites)
1)精通Python
所有的課堂作業都將使用Python(使用NumPy和PyTorch)。如果您需要提醒自己使用Python,或者您對NumPy不是很熟悉,則可以參加第1周的Python復習(在時間表中列出)。如果你有豐富的編程經驗,但使用不同的語言(如C/ c++ /Matlab/Java/Javascript),你可能會很好。
2)大學微積分,線性代數(如MATH 51, CME 100)
你應該能夠熟練地進行(多變量)求導,理解矩陣/向量符號和運算。
3)基本概率及統計(例如CS 109 或同等課程)
你應該了解基本的概率,高斯分布,均值,標準差等。
4)機器學習的基礎(例如CS 221或CS 229)
我們將闡述成本函數,求導數,用梯度下降法進行優化。如果你已經有了基本的機器學習和/或深度學習的知識,課程將會更容易;但是,沒有它也可以使用CS224n。在網頁、書籍和視頻形式中,有很多關于ML的介紹。哈爾·道姆(Hal Daume)正在開設的機器學習課程是一種很好的入門方式。閱讀那本書的前5章將是很好的背景知識。知道前7章會更好!
4. 參考書籍(Reference Texts)
所有這些都可以在網上免費閱讀:
Dan Jurafsky and James H. Martin. Speech and Language Processing (3rd ed. draft)
Jacob Eisenstein. Natural Language Processing
Yoav Goldberg. A Primer on Neural Network Models for Natural Language Processing
Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning
Delip Rao and Brian McMahan. Natural Language Processing with PyTorch. (requires Stanford login)
如果你沒有神經網絡方面的背景知識,但無論如何還是想要學習這門課程,你可能會發現這些書中的一本對你提供更多的背景知識很有幫助:
Michael A. Nielsen. Neural Networks and Deep Learning
Eugene Charniak. Introduction to Deep Learning
5. 主講:Christopher Manning
克里斯托弗·曼寧(Christopher Manning)是斯坦福大學(Stanford University)計算機科學和語言學系機器學習教授,斯坦福大學人工智能實驗室(SAIL)主任。他的研究目標是能夠智能處理、理解和生成人類語言材料的計算機。曼寧是將深度學習應用于自然語言處理領域的領軍人物,在樹遞歸神經網絡、詞向量手套模型、情感分析、神經網絡依賴分析、神經機器翻譯、問答和深度語言理解等領域都有著名的研究成果。他還專注于解析、自然語言推理和多語言處理的計算語言方法,包括斯坦福依賴關系和通用依賴關系的主要開發者。曼寧與人合著了《自然語言處理的統計方法》(Manning and Schütze 1999)和《信息檢索》(Manning,Raghavan and Schütze,2008)兩本領先的教科書,還合著了關于能性和復雜謂詞的語言學專著。他是ACM Fellow,AAAI Fellow,ACL Fellow,也是前ACL主席(2015)。他的研究曾獲得ACL、Coling、EMNLP和CHI最佳論文獎。1994年,他在澳大利亞國立大學獲得學士學位,在斯坦福大學獲得博士學位。在回到斯坦福大學之前,他曾在卡內基梅隆大學和悉尼大學擔任教職。他是斯坦福NLP小組的創始人,負責斯坦福大學CoreNLP軟件的開發。
個人主頁:
6. 課程安排
01: 介紹和詞向量(Introduction and Word Vectors)
Gensim字矢量示例(Gensim word vectors example)
02:單詞向量2和單詞意義(Word Vectors 2 and Word Senses)
03:Python復習課(Python review session)
04:詞窗口分類、神經網絡和矩陣演算(Word Window Classification, Neural Networks, and Matrix Calculus)
05:反向傳播和計算圖(Backpropagation and Computation Graphs)
06:語言結構:依存分析(Linguistic Structure: Dependency Parsing)
07:一個句子的概率?遞歸神經網絡和語言模型(The probability of a sentence? Recurrent Neural Networks and Language Models)
08:消失的梯度和花哨的RNNs (Vanishing Gradients and Fancy RNNs)
09:機器翻譯,Seq2Seq and Attention (Machine Translation, Seq2Seq and Attention)
10:最終項目的實用技巧(Practical Tips for Final Projects)
11:問答和默認的最終項目(Question Answering and the Default Final Project)
12:NLP的ConvNets(ConvNets for NLP)
13:部分單詞(子單詞模型)和轉換器結構的信息(部分單詞(子單詞模型)和轉換器結構的信息)
14:上下文單詞表示(Contextual Word Representations)
15:使用的建模上下文:上下文表示和預訓練(Modeling contexts of use: Contextual Representations and Pretraining)
16:自然語言生成(Natural Language Generation)
17:語言參考和共指解析(Reference in Language and Coreference Resolution)
18:AI中的公平和包容(Fairness and Inclusion in AI)
19:選區解析和樹遞歸神經網絡(Constituency Parsing and Tree Recursive Neural Networks)
20:NLP以及深度學習的未來(NLP+深度學習的未來)
PPT下載鏈接: 提取碼:re2l
簡介: 強大的機器學習技術在數據豐富的領域成為可能。然而,數據稀缺的領域對這類方法具有挑戰性,因為高容量函數逼近器非常依賴大型數據集進行泛化。這可能對從監督醫學圖像處理到增強學習等領域構成重大挑戰,在這些領域中,真實世界的數據收集(例如機器人)構成了重大的后勤挑戰。元學習或小樣本學習為這一問題提供了一個潛在的解決方案:通過學習跨許多以前任務的數據學習,小樣本元學習算法可以發現任務之間的結構,從而使新任務的快速學習成為可能。
本教程的目的是提供一個統一的元學習視角:向讀者講授現代方法,描述圍繞這些技術的概念和理論原則,介紹這些方法以前在哪里被應用,并討論該領域內的基本開放問題和挑戰。我們希望本教程對其他領域的機器學習研究人員有用,同時也為元學習研究人員提供了一個新的視角。總而言之,我們的目標是讓觀眾能夠將元學習應用到他們自己的應用中,并開發新的元學習算法和理論分析,以應對當前的挑戰和現有工作的局限性。
視頻地址:
Part1 //www.facebook.com/icml.imls/videos/4006/
Part2
主講人介紹:
Chelsea Finn是Google Brain的研究科學家,也是加州大學伯克利分校的博士后。在2019年9月,她將加入斯坦福大學的計算機科學系擔任助理教授。 Finn的研究興趣在于使機器人和其他代理能夠通過學習和交互來發展廣泛的智能行為的能力。為此,芬恩開發了深度學習算法,用于同時學習機器人操縱技能中的視覺感知和控制,用于非線性獎勵函數的可伸縮獲取的逆強化方法以及可以在兩個視覺系統中實現快速,少拍適應的元學習算法感知和深度強化學習。 Finn在麻省理工學院獲得EECS的學士學位,并在加州大學伯克利分校獲得CS的博士學位。她的研究得到了NSF研究生獎學金,Facebook獎學金C.V.的認可。她獲得了Ramamoorthy杰出研究獎和《麻省理工學院技術評論35分35獎》,她的工作已被《紐約時報》,《連線》和彭博社等多家媒體報道。
Sergey Levine于2009年獲得斯坦福大學計算機科學學士學位和碩士學位,并獲得博士學位。 2014年獲得斯坦福大學計算機科學博士學位。他于2016年秋天加入加州大學伯克利分校電氣工程與計算機科學系。他的工作重點是決策和控制的機器學習,重點是深度學習和強化學習。他的工作應用包括自動駕駛機器人和車輛,以及計算機視覺和圖形。 他的研究包括開發將感知和控制相結合的深度神經網絡策略的端到端訓練算法,用于逆向強化學習的可擴展算法,深度強化學習算法等。 在許多受歡迎的媒體中,包括紐約時報,BBC,麻省理工學院技術評論和彭博社,他的作品都得到了報道。
本文為大家帶來了一份斯坦福大學的最新課程CS236——深度生成模型,目前更新到第一課,感興趣的同學可以多多關注,跟隨學習。
生成式模型被廣泛應用到人工智能和機器學習的諸多領域當中。最近,通過結合隨機梯度下降的優化方法,使用深度神經網絡參數化這些模型所取得的進展,已經使得對于包括圖像,文本和語音在內的復雜,高維度數據建模成為可能。在本次課程中,我們將要學習深度生成式模型的概率基礎和學習算法,包括自動編碼器(AE)的各種變體,生成式對抗網絡,自回歸模型和標準化流模型(normalizing flow models)。本課程還將討論從深度生成式模型中獲益的應用領域,例如計算機視覺,語音,自然語言處理,圖挖掘和強化學習。