機器學習(ML)是一組技術,允許計算機從數據和經驗中學習,而不是要求人類手工指定所需的行為。ML在AI的學術領域和工業領域都越來越重要。本課程提供了一些最常用的ML算法的廣泛介紹。它還將介紹一些關鍵的算法原理,這些原理將作為更高級課程的基礎,如CSC412/2506(概率學習和推理)和CSC413/2516(神經網絡和深度學習)。
我們從最近鄰,典型非參數模型開始。然后我們轉向參數模型:線性回歸、邏輯回歸、softmax回歸和神經網絡。然后我們轉向無監督學習,特別關注概率模型,以及主成分分析和k均值。最后,我們介紹了強化學習的基礎知識。
//www.cs.toronto.edu/~rgrosse/courses/csc311_f20/
這是一門關于機器學習的入門課程。機器學習是一組技術,它允許機器從數據和經驗中學習,而不是要求人類手工指定所需的行為。在過去的20年里,機器學習技術在人工智能的學術領域和科技行業中都變得越來越重要。本課程提供了一些最常用的ML算法的廣泛介紹。
課程的前半部分側重于監督學習。我們從最近鄰、決策樹和集合開始。然后介紹了參數化模型,包括線性回歸、logistic回歸和softmax回歸以及神經網絡。然后我們轉向無監督學習,特別關注概率模型,以及主成分分析和k均值。最后,我們介紹了強化學習的基礎知識。
課程內容:
//www.cs.toronto.edu/~huang/courses/csc2515_2020f/
推薦閱讀材料: Hastie, Tibshirani, and Friedman: “The Elements of Statistical Learning” Christopher Bishop: “Pattern Recognition and Machine Learning”, 2006. Kevin Murphy: “Machine Learning: a Probabilistic Perspective”, 2012. David Mackay: “Information Theory, Inference, and Learning Algorithms”, 2003. Shai Shalev-Shwartz & Shai Ben-David: “Understanding Machine Learning: From Theory to Algorithms”, 2014.
學習路線圖:
因此,在許多高級學術機構中,深度學習的專業知識正從深奧的要求迅速轉變為強制性的先決條件,并在工業就業市場上成為一大優勢。
在本課程中,我們將學習深度神經網絡的基礎知識,以及它們在各種人工智能任務中的應用。在本課程結束時,預計學生將對這門學科非常熟悉,并能夠將深度學習應用于各種任務。他們也將被定位去理解關于這個主題的許多當前的文獻,并通過進一步的學習來擴展他們的知識。
這本教科書提供了一個簡明的,易理解的和引人入勝的深度學習的第一個介紹,提供了大量連接主義模型。本文以簡單直觀的方式探索最流行的算法和架構,并逐步解釋數學推導。內容涵蓋卷積網絡、LSTMs、Word2vec、RBMs、DBNs、神經圖靈機、內存網絡和自動編碼器。整本書提供了大量的工作Python代碼示例,代碼也在附帶的網站上單獨提供。
主題和特點:
桑德羅·斯坎西博士是薩格勒布大學邏輯學助理教授,也是克羅地亞薩格勒布大學代數學院的數據科學講師。
地址:
內容介紹:
計算機科學正在發展,以利用新的硬件,如GPU、TPUs、CPU和大型的集群。許多子領域,如機器學習和優化,已經調整了它們的算法來處理這樣的集群。
主題包括分布式和并行算法:優化、數值線性代數、機器學習、圖形分析、流形算法,以及其他在集群中難以擴展的問題。該類將重點分析程序,并使用Apache Spark和TensorFlow實現一些程序。
本課程將分為兩部分:首先,介紹并行算法的基礎知識和在單多核機器上的運行時分析。其次,我們將介紹在集群機器上運行的分布式算法。
【導讀】2020新年伊始,多倫多大學Amir-massoud Farahmand和Emad A. M. Andrews博士開設了機器學習導論課程,介紹了機器學習的主要概念和思想,并概述了許多常用的機器學習算法。它還可以作為更高級的ML課程的基礎。
課程地址:
//amfarahmand.github.io/csc311/
機器學習(ML)是一組技術,它允許計算機從數據和經驗中學習,而不需要人工指定所需的行為。ML在人工智能作為一個學術領域和工業領域都變得越來越重要。本課程介紹了機器學習的主要概念和思想,并概述了許多常用的機器學習算法。它還可以作為更高級的ML課程的基礎。
本課程結束時,學生將學習(大致分類)
機器學習問題:監督(回歸和分類),非監督(聚類,降維),強化學習
模型:線性和非線性(基擴展和神經網絡)
損失函數:平方損失、交叉熵、鉸鏈、指數等。
Regularizers: l1和l2
概率觀點:最大似然估計,最大后驗,貝葉斯推理
偏差和方差的權衡
集成方法:Bagging 和 Boosting
ML中的優化技術: 梯度下降法和隨機梯度下降法
課程目錄:
參考資料:
(ESL) Trevor Hastie, Robert Tibshirani, and Jerome Friedman, The Elements of Statistical Learning, 2009.
(PRML) Christopher M. Bishop, Pattern Recognition and Machine Learning, 2006.
(RL) Richard S. Sutton and Andrew G. Barto Reinforcement Learning: An Introduction, 2018.
(DL) Ian Goodfellow, Yoshua Bengio and Aaron Courville (2016), Deep Learning
(MLPP) Kevin P. Murphy, Machine Learning: A Probabilistic Perspective, 2013.
(ISL) Gareth James, Daniela Witten, Trevor Hastie, and Robert Tibshirani, Introduction to Statistical Learning, 2017.
() Shai Shalev-Shwartz and Shai Ben-David Understanding Machine Learning: From Theory to Algorithms, 2014.
(ITIL) David MacKay, Information Theory, Inference, and Learning Algorithms, 2003.
作者介紹: Nils J. Nilsson,斯坦福大學計算機科學系工程學教授,于1958年從斯坦福大學獲得電氣工程博士學位。他在SRI International人工智能中心工作了23年,研究方向是通過統計和神經網絡方法進行模式識別,發明A*啟發式搜索算法和STRIPS自動計劃系統,并指導集成移動機器人SHAKEY的工作。他出版了五本關于人工智能的教科書和其他書籍。
章節介紹:
本課程涵蓋了機器學習和統計建模方面的廣泛主題。 雖然將涵蓋數學方法和理論方面,但主要目標是為學生提供解決實際中發現的數據科學問題所需的工具和原理。 本課程還可以作為基礎,以提供更多專業課程和進一步的獨立學習。 本課程是數據科學中心數據科學碩士學位課程核心課程的一部分。 此類旨在作為DS-GA-1001數據科學概論的延續,其中涵蓋了一些重要的基礎數據科學主題,而這些主題可能未在此DS-GA類中明確涵蓋。
主題: Introduction to Machine Learning
課程簡介: 機器學習是指通過經驗自動提高性能的計算機程序(例如,學習識別人臉、推薦音樂和電影以及驅動自主機器人的程序)。本課程從不同的角度介紹機器學習的理論和實用算法。主題包括貝葉斯網絡、決策樹學習、支持向量機、統計學習方法、無監督學習和強化學習。本課程涵蓋理論概念,例如歸納偏差、PAC學習框架、貝葉斯學習方法、基于邊際的學習和Occam的剃刀。編程作業包括各種學習算法的實際操作實驗。這門課程的目的是讓一個研究生在方法論,技術,數學和算法方面有一個徹底的基礎,目前需要的人誰做的機器學習的研究。
邀請嘉賓: Hal Daumé III,紐約市微軟研究院的研究員,是機器學習小組的一員;他也是馬里蘭大學的副教授。他主要從事自然語言處理和機器學習。
Matt Gormley,卡內基梅隆大學計算機科學學院機器學習部(ML)助教。
Roni Rosenfeld,卡內基梅隆大學計算機學院機器學習系教授兼主任,個人主頁://www.cs.cmu.edu/~roni/。等