斯坦福大學 CS224N 深度學習自然語言處理 2022 冬季課程即將開課!
自然語言處理(NLP)或者計算語言學是信息時代最重要的技術之一。從網絡搜索、廣告、電子郵件到客戶服務、語言翻譯、虛擬代理、醫療報告等,NLP 的應用幾乎無處不在。近年來,深度學習(或神經網絡)在許多 NLP 任務上達到了非常高的性能,使用單個端到端神經模型就能完成許多任務,不再需要特定于任務的特征工程。
而提及入門自然語言處理,想必大家都非常熟悉斯坦福大學的公開課 CS224N,它與計算機視覺方面的課程 CS231n 堪稱絕配。CS224N 是一門關于自然語言處理的專項課程,非常系統地介紹自然語言處理任務等相關知識。
斯坦福 NLP Group 的 CS224N 深度學習自然語言處理 2022 冬季課程將于當地時間 1 月 4 日開課,授課講師為斯坦福大學教授 Christopher Manning 以及他的三年級博士生 Anna Goldie。
課程鏈接://web.stanford.edu/class/cs224n/
該課程全面介紹了 NLP 深度學習的前沿研究。通過講座、作業和結課項目,學生將學到設計、實現和理解各自的神經網絡模型等必要技能。本年度的 CS224n 課程依然使用 PyTorch 授課。
預備知識
熟練使用 Python:所有課程都需要用到 Python(具體來說,使用 NumPy 和 PyTorch)。如果需要重溫一下 Python 的內容或者熟悉 NumPy,學生可以學習第一周的 Python 復習部分。
大學微積分和線性代數:該課程的學生應該掌握(多變量)導數、矩陣 / 向量符號和運算的知識。
概率論與統計的基本知識:該課程的學生應該了解概率、高斯分布、均值、標準差等知識。
機器學習的基礎知識:模型構建過程涉及設計代價函數(cost function)、求導數并通過梯度下降進行優化。如果你已經掌握了機器學習或深度學習的基礎知識,這門課程的學習將變得容易很多。
課程安排
2022 年 CS224N 冬季課程將于 1 月 4 日正式開課,并于 3 月 14 日結束。課程 PPT 將于每節課之前提供,課堂筆記則通常在課程結束后幾天上傳。
在 1 月份的課程安排中,學生將學習到詞向量、Gensim 詞向量示例、 詞窗口分類、Python 知識回顧、反向傳播和神經網絡、依存句法分析、PyTorch 知識回顧、梯度消失、Fancy 循環神經網絡和 Seq2Seq 等。
1 月部分授課內容。
在 2 月份的課程安排中,學生將學習到Transformer 和預訓練、問答系統、自然語言生成 和大型語言模型、卷積神經網絡(ConvNet)、基于樹形結構的 RNN、深度學習中選區解析和語言結構扮演的角色、語言模型中的知識集成等。
在 3 月份的課程安排中,學生將學習到 NLP 和深度學習的未來發展等。
講師介紹
Christopher Manning 于 1989 年在澳大利亞國立大學取得三個學士學位(數學、計算機和語言學),并于 1994 年獲得斯坦福大學語言學博士學位。他曾先后在卡內基梅隆大學、悉尼大學等任教,1999 年回到母校斯坦福,就職于計算機科學和語言學系,是斯坦福自然語言處理組(Stanford NLP Group)的創始成員及負責人。
Manning 的研究目標是以智能的方式實現人類語言的處理、理解及生成,研究領域包括樹形 RNN 、情感分析、基于神經網絡的依存句法分析、神經機器翻譯和深度語言理解等,是 NLP 領域的深度學習開拓者。他是國際計算機學會 (ACM)、國際人工智協會(AAAI)和國際計算語言學會(ACL)等國際權威學術組織的 Fellow,曾獲 ACL、EMNLP、COLING、CHI 等國際頂會最佳論文獎,并著有《統計自然語言處理基礎》、《信息檢索導論》等自然語言處理著名教材。
圖片
斯坦福大學 CS224N 深度學習自然語言處理 2021 冬季課程即將開課!
自然語言處理(NLP)或者計算語言學是信息時代最重要的技術之一。從網絡搜索、廣告、電子郵件到客戶服務、語言翻譯、虛擬代理、醫療報告等,NLP 的應用幾乎無處不在。近年來,深度學習(或神經網絡)在許多 NLP 任務上達到了非常高的性能,使用單個端到端神經模型就能完成許多任務,不再需要特定于任務的特征工程。
而提及入門自然語言處理,想必大家都非常熟悉斯坦福大學的公開課 CS224N,它與計算機視覺方面的課程 CS231n 堪稱絕配。CS224N 是一門關于自然語言處理的專項課程,非常系統地介紹自然語言處理任務等相關知識。
機器之心介紹過 CS224N 2019 冬季課程,重點講解了 Transformer 和預訓練表征。今日,斯坦福 NLP Group 宣布 CS224N 深度學習自然語言處理 2021 冬季課程將于當地時間 1 月 12 日開課,授課講師為斯坦福大學教授 Christopher Manning 以及他的三年級博士生 John Hewitt。
課程鏈接://web.stanford.edu/class/cs224n/
該課程全面介紹了 NLP 深度學習的前沿研究。通過講座、作業和結課項目,學生將學到設計、實現和理解各自的神經網絡模型等必要技能。本年度的 CS224n 課程依然使用 PyTorch 授課。
不過遺憾的是,CS224N 2021 冬季課程視頻只對注冊學生開放,課程 PPT 和作業會在網上實時更新。
斯坦福經典自然語言處理課程CS224N《自然語言處理未來與深度學習》,包括:大型語言模型如GPT3,組合表示與泛化、NLP模型評估、擴展到其他模態、與深度學習交叉研究。
注意力(Attention)機制[2]由Bengio團隊與2014年提出并在近年廣泛的應用在深度學習中的各個領域,例如在計算機視覺方向用于捕捉圖像上的感受野,或者NLP中用于定位關鍵token或者特征。谷歌團隊近期提出的用于生成詞向量的BERT[3]算法在NLP的11項任務中取得了效果的大幅提升,堪稱2018年深度學習領域最振奮人心的消息。而BERT算法的最重要的部分便是本文中提出的Transformer的概念。
正如論文的題目所說的,Transformer中拋棄了傳統的CNN和RNN,整個網絡結構完全是由Attention機制組成。更準確地講,Transformer由且僅由self-Attenion和Feed Forward Neural Network組成。一個基于Transformer的可訓練的神經網絡可以通過堆疊Transformer的形式進行搭建,作者的實驗是通過搭建編碼器和解碼器各6層,總共12層的Encoder-Decoder,并在機器翻譯中取得了BLEU值得新高。
最新課程CS224n——自然語言處理與深度學習,主講人是斯坦福大學Chris Manning,他是斯坦福大學機器學習教授,語言學和計算機科學教授,斯坦福人工智能實驗室(SAIL)主任,以人為本的人工智能研究所副所長。
近年來,深度學習方法在許多不同的NLP任務中獲得了非常高的性能,使用不需要傳統的、特定于任務的特征工程的單個端到端神經模型。在本課程中,學生將深入了解NLP深度學習的前沿研究。通過講座、作業和期末專題,學生將學習設計、實施和理解自己的神經網絡模型所需的必要技能。本課程使用Pytorch 進行教學。
本文為大家帶來了一份斯坦福大學的最新課程CS234——強化學習,主講人是斯坦福大學Emma Brunskill,她是斯坦福大學計算機科學助理教授,任職斯坦福大學人類影響力實驗室、斯坦福人工智能實驗室以及統計機器學習小組,主要研究強化學習。要實現人工智能的夢想和影響,需要能夠學會做出正確決策的自主系統。強化學習是這樣做的一個強有力的范例,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程通過講課、書面作業和編碼作業的結合,學生將精通強化學習的關鍵思想和技術。
1.課程介紹(Description)
要實現人工智能的夢想和影響,需要能夠學會做出正確決策的自主系統。強化學習是這樣做的一個強有力的范例,它與大量的任務相關,包括機器人、游戲、消費者建模和醫療保健。本課程將為強化學習領域提供扎實的介紹,學生將學習包括通用化和探索在內的核心挑戰和方法。通過講課、書面作業和編碼作業的結合,學生將精通強化學習的關鍵思想和技術。作業將包括強化學習和深度強化學習的基礎,這是一個極有前途的新領域,將深度學習技術與強化學習相結合。此外,學生將通過期末專題來增進對強化學習領域的理解。
課程地址:
//web.stanford.edu/class/cs234/schedule.html
2.預備知識(Prerequisites)
1)熟練Python
所有的課程都將使用Python(使用numpy和Tensorflow,也可以使用Keras)。這里有一個針對那些不太熟悉Python的人的教程。如果你有很多使用不同語言(如C/ c++ / Matlab/ Javascript)的編程經驗,可能會很好。
2)大學微積分,線性代數(如 MATH 51, CME 100)
你應該能夠熟練地進行(多變量)求導,理解矩陣/向量符號和運算。
3)基本概率及統計(例如CS 109 或同等課程)
你應該了解基本的概率,高斯分布,均值,標準差等。
4)機器學習基礎
我們將闡述成本函數,求導數,用梯度下降法進行優化。CS 221或CS 229均可涵蓋此背景。使用一些凸優化知識,一些優化技巧將更加直觀。
3.主講:Emma Brunskill
Emma Brunskill是斯坦福大學計算機科學助理教授,任職斯坦福大學人類影響力實驗室、斯坦福人工智能實驗室以及統計機器學習小組。
主要研究強化學習系統,以幫助人們更好地生活。并處理一些關鍵技術。最近的研究重點包括:1)有效強化學習的基礎。一個關鍵的挑戰是要了解代理商如何平衡勘探與開發之間的局限性。2)如果要進行順序決策,該怎么辦。利用巨大數量的數據來改善在醫療保健,教育,維護和許多其他應用程序中做出的決策,這是一個巨大的機會。這樣做需要假設/反事實推理,以便在做出不同決定時對潛在結果進行推理。3)人在回路系統。人工智能具有極大地擴大人類智能和效率的潛力。我們正在開發一個系統,用其他眾包商(CHI 2016)生產的(機器)固化材料對眾包商進行訓練,并確定何時擴展系統規格以包括新內容(AAAI 2017)或傳感器。我們也有興趣研究確保機器學習系統在人類用戶的意圖方面表現良好(Arxiv 2017),也被稱為安全和公平的機器學習。
個人主頁:
4.課程安排
01: 強化學習導論(Introduction to Reinforcement Learning)
02: 表格MDP規劃(Tabular MDP planning)
03: 表格RL政策評估(Tabular RL policy evaluation)
04: Q-learning
05: 帶函數逼近的強化學習(RL with function approximation)
06: 帶函數逼近的強化學習(RL with function approximation)
07: 帶函數逼近的強化學習(RL with function approximation)
08: 從馬爾可夫決策過程到強化學習(Policy search)
09: 從馬爾可夫決策過程到強化學習(Policy search)
10: 課堂中期(In-class Midterm)
11: 模仿學習/探索(Imitation learning/Exploration)
12: 探索/開發(Exploration/Exploitation)
13: 探索/開發(Exploration/Exploitation)
14: 批處理強化學習(Batch Reinforcement Learning)
15: 嘉賓講座:Craig Boutilier(Guest Lecture: Craig Boutilier)
16: 課堂測驗(In-class Quiz)
17: 蒙特卡洛樹搜索算法(Monte Carlo Tree Search)
18: 墻報展示(Poster presentations)
【導讀】本文為大家帶來了一份斯坦福大學的最新課程CS224n——自然語言處理與深度學習,主講人是斯坦福大學Chris Manning,他是斯坦福大學機器學習教授,語言學和計算機科學教授,斯坦福人工智能實驗室(SAIL)主任,以人為本的人工智能研究所副所長。
近年來,深度學習方法在許多不同的NLP任務中獲得了非常高的性能,使用不需要傳統的、特定于任務的特征工程的單個端到端神經模型。在本課程中,學生將深入了解NLP深度學習的前沿研究。通過講座、作業和期末專題,學生將學習設計、實施和理解自己的神經網絡模型所需的必要技能。本課程使用Pytorch 進行教學。
1. 課程介紹(Description)
自然語言處理(NLP)是信息時代最重要的技術之一,也是人工智能的重要組成部分。NLP的應用無處不在,因為人們幾乎用語言交流一切:網絡搜索、廣告、電子郵件、客戶服務、語言翻譯、虛擬代理、醫療報告等。近年來,深度學習方法在許多不同的NLP任務中獲得了非常高的性能,使用不需要傳統的、特定于任務的特征工程的單個端到端神經模型。在本課程中,學生將深入了解NLP深度學習的前沿研究。通過講座、作業和期末專題,學生將學習設計、實施和理解自己的神經網絡模型所需的必要技能。作為去年的試點,CS224n將在今年使用Pytorch進行教學。
課程鏈接://web.stanford.edu/class/cs224n/
2. 之前的課程(Previous offerings)
本課程于2017年由早期的CS224n(自然語言處理)和CS224d(自然語言處理與深度學習)課程合并而成。下面你可以找到存檔的網站和學生項目報告。
CS224n Websites: Winter 2019 / Winter 2018 / Winter 2017 / Autumn 2015 / Autumn 2014 / Autumn 2013 / Autumn 2012 / Autumn 2011 / Winter 2011 / Spring 2010 / Spring 2009 / Spring 2008 / Spring 2007 / Spring 2006 / Spring 2005 / Spring 2004 / Spring 2003 / Spring 2002 / Spring 2000
CS224n Lecture Videos: Winter 2019 / Winter 2017 CS224n Reports: Winter 2019 / Winter 2018 / Winter 2017 / Autumn 2015 and earlier
CS224d Reports: Spring 2016 / Spring 2015
3. 預備知識(Prerequisites)
1)精通Python
所有的課堂作業都將使用Python(使用NumPy和PyTorch)。如果您需要提醒自己使用Python,或者您對NumPy不是很熟悉,則可以參加第1周的Python復習(在時間表中列出)。如果你有豐富的編程經驗,但使用不同的語言(如C/ c++ /Matlab/Java/Javascript),你可能會很好。
2)大學微積分,線性代數(如MATH 51, CME 100)
你應該能夠熟練地進行(多變量)求導,理解矩陣/向量符號和運算。
3)基本概率及統計(例如CS 109 或同等課程)
你應該了解基本的概率,高斯分布,均值,標準差等。
4)機器學習的基礎(例如CS 221或CS 229)
我們將闡述成本函數,求導數,用梯度下降法進行優化。如果你已經有了基本的機器學習和/或深度學習的知識,課程將會更容易;但是,沒有它也可以使用CS224n。在網頁、書籍和視頻形式中,有很多關于ML的介紹。哈爾·道姆(Hal Daume)正在開設的機器學習課程是一種很好的入門方式。閱讀那本書的前5章將是很好的背景知識。知道前7章會更好!
4. 參考書籍(Reference Texts)
所有這些都可以在網上免費閱讀:
Dan Jurafsky and James H. Martin. Speech and Language Processing (3rd ed. draft)
Jacob Eisenstein. Natural Language Processing
Yoav Goldberg. A Primer on Neural Network Models for Natural Language Processing
Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning
Delip Rao and Brian McMahan. Natural Language Processing with PyTorch. (requires Stanford login)
如果你沒有神經網絡方面的背景知識,但無論如何還是想要學習這門課程,你可能會發現這些書中的一本對你提供更多的背景知識很有幫助:
Michael A. Nielsen. Neural Networks and Deep Learning
Eugene Charniak. Introduction to Deep Learning
5. 主講:Christopher Manning
克里斯托弗·曼寧(Christopher Manning)是斯坦福大學(Stanford University)計算機科學和語言學系機器學習教授,斯坦福大學人工智能實驗室(SAIL)主任。他的研究目標是能夠智能處理、理解和生成人類語言材料的計算機。曼寧是將深度學習應用于自然語言處理領域的領軍人物,在樹遞歸神經網絡、詞向量手套模型、情感分析、神經網絡依賴分析、神經機器翻譯、問答和深度語言理解等領域都有著名的研究成果。他還專注于解析、自然語言推理和多語言處理的計算語言方法,包括斯坦福依賴關系和通用依賴關系的主要開發者。曼寧與人合著了《自然語言處理的統計方法》(Manning and Schütze 1999)和《信息檢索》(Manning,Raghavan and Schütze,2008)兩本領先的教科書,還合著了關于能性和復雜謂詞的語言學專著。他是ACM Fellow,AAAI Fellow,ACL Fellow,也是前ACL主席(2015)。他的研究曾獲得ACL、Coling、EMNLP和CHI最佳論文獎。1994年,他在澳大利亞國立大學獲得學士學位,在斯坦福大學獲得博士學位。在回到斯坦福大學之前,他曾在卡內基梅隆大學和悉尼大學擔任教職。他是斯坦福NLP小組的創始人,負責斯坦福大學CoreNLP軟件的開發。
個人主頁:
6. 課程安排
01: 介紹和詞向量(Introduction and Word Vectors)
Gensim字矢量示例(Gensim word vectors example)
02:單詞向量2和單詞意義(Word Vectors 2 and Word Senses)
03:Python復習課(Python review session)
04:詞窗口分類、神經網絡和矩陣演算(Word Window Classification, Neural Networks, and Matrix Calculus)
05:反向傳播和計算圖(Backpropagation and Computation Graphs)
06:語言結構:依存分析(Linguistic Structure: Dependency Parsing)
07:一個句子的概率?遞歸神經網絡和語言模型(The probability of a sentence? Recurrent Neural Networks and Language Models)
08:消失的梯度和花哨的RNNs (Vanishing Gradients and Fancy RNNs)
09:機器翻譯,Seq2Seq and Attention (Machine Translation, Seq2Seq and Attention)
10:最終項目的實用技巧(Practical Tips for Final Projects)
11:問答和默認的最終項目(Question Answering and the Default Final Project)
12:NLP的ConvNets(ConvNets for NLP)
13:部分單詞(子單詞模型)和轉換器結構的信息(部分單詞(子單詞模型)和轉換器結構的信息)
14:上下文單詞表示(Contextual Word Representations)
15:使用的建模上下文:上下文表示和預訓練(Modeling contexts of use: Contextual Representations and Pretraining)
16:自然語言生成(Natural Language Generation)
17:語言參考和共指解析(Reference in Language and Coreference Resolution)
18:AI中的公平和包容(Fairness and Inclusion in AI)
19:選區解析和樹遞歸神經網絡(Constituency Parsing and Tree Recursive Neural Networks)
20:NLP以及深度學習的未來(NLP+深度學習的未來)
PPT下載鏈接: 提取碼:re2l