一個關于機器學習中常用損失函數的小教程或介紹,包括交叉損失、L1損失、L2損失和hinge損失。實用的細節包括PyTorch。
機器學習(ML)已經成為我們日常生活中的一個常見元素,也是許多科學和工程領域的標準工具。為了優化ML的使用,理解其基本原理是必要的。
這本書接近ML作為科學原理的計算實現。這一原則包括不斷調整給定數據生成現象的模型,將其預測所產生的某種形式的損失最小化。
本書訓練讀者在數據、模型和損失方面分解各種ML應用程序和方法,從而幫助他們從大量現成的ML方法中選擇。
本書的ML的三部分方法提供了廣泛的概念和技術的統一覆蓋。作為一個恰當的例子,正則化技術、隱私保護技術以及可解釋性技術等同于模型、數據和ML方法丟失的特定設計選擇。
//link.springer.com/book/10.1007/978-981-16-8193-6#toc
This paper serves as a survey of recent advances in large margin training and its theoretical foundations, mostly for (nonlinear) deep neural networks (DNNs) that are probably the most prominent machine learning models for large-scale data in the community over the past decade. We generalize the formulation of classification margins from classical research to latest DNNs, summarize theoretical connections between the margin, network generalization, and robustness, and introduce recent efforts in enlarging the margins for DNNs comprehensively. Since the viewpoint of different methods is discrepant, we categorize them into groups for ease of comparison and discussion in the paper. Hopefully, our discussions and overview inspire new research work in the community that aim to improve the performance of DNNs, and we also point to directions where the large margin principle can be verified to provide theoretical evidence why certain regularizations for DNNs function well in practice. We managed to shorten the paper such that the crucial spirit of large margin learning and related methods are better emphasized.
本書是關于在R中快速進入建立機器學習模型,這個理論被保持在最低限度,并且有關于分類,聚類,特征工程和關聯規則的每一個主要算法的例子。
目錄
第一章 為什么機器學習至關重要。 本章描繪了人工智能和機器學習的發展全貌——從過去到現在,再到未來。
第二章 監督學習(一)。 本章通過例題介紹了線性回歸、損失函數、過擬合和梯度下降。
第三章 監督學習(二)。 本章介紹了兩種分類方法:邏輯回歸和SVM。
第四章 監督學習(三)。 本章介紹了非參數方法:k近鄰估計、決策樹、隨機森林。以及交叉驗證、超參數調整和集成模型的相關知識。
第五章 無監督學習。 本章介紹了聚類:K-means、層次聚類;降維:主成分分析(PCA)、奇異值分解(SVD)。
第六章 神經網絡與深度學習。 本章介紹了深度學習的工作原理、應用領域和實現方法,并回顧了神經網絡是如何從人類大腦中汲取靈感的。此外,本章還涉及卷積神經網絡(CNN)、遞歸神經網絡(DNN)以及神經網絡應用案例等內容。
第七章 強化學習。 本章介紹了強化學習的Exploration和Exploitation(探索-利用),包括馬爾可夫決策過程、Q-learning、策略學習和深度強化學習。
附錄: 最佳機器學習資源。 一份用于學習機器學習的資源清單。
前言
Machine Learning for Humans是國外機器學習愛好者之間流傳甚廣的一本電子書,它最先是Medium上的連載文章,后因文章質量出眾、閱讀價值高,作者在建議下把文章整理成電子書,供讀者免費閱讀。本書的作者Vishal Maini是耶魯大學的文學學士,目前已入職DeepMind;另一名作者Samer Sabri同樣畢業于耶魯大學,目前正在加州大學圣迭戈分校的計算機學院攻讀碩士學位。
哪些人應該讀一讀?
希望快速跟上機器學習發展潮流的開發者;
希望掌握機器學習入門知識并參與技術開發的普通讀者;
所有對機器學習感興趣的讀者。
本書向所有人免費開放閱讀。書中雖然會涉及概率論、統計學、程序設計、線性代數和微積分等基礎知識,但沒有數學基礎的讀者也能從中獲得啟發。
本書旨在幫助讀者在2—3個小時內迅速掌握機器學習高級概念,如果您想得到更多關于線上課程、重要書籍、相關項目等方面的內容,請參考附錄中的建議。
COMS 4771是一個研究生水平的機器學習入門。本課程涵蓋監督機器學習的基本統計原理,以及一些常見的算法范例。
//www.cs.columbia.edu/~djhsu/coms4771-f20/#description
主題:
機器學習(ML)是一組技術,允許計算機從數據和經驗中學習,而不是要求人類手工指定所需的行為。ML在AI的學術領域和工業領域都越來越重要。本課程提供了一些最常用的ML算法的廣泛介紹。它還將介紹一些關鍵的算法原理,這些原理將作為更高級課程的基礎,如CSC412/2506(概率學習和推理)和CSC413/2516(神經網絡和深度學習)。
我們從最近鄰,典型非參數模型開始。然后我們轉向參數模型:線性回歸、邏輯回歸、softmax回歸和神經網絡。然后我們轉向無監督學習,特別關注概率模型,以及主成分分析和k均值。最后,我們介紹了強化學習的基礎知識。
//www.cs.toronto.edu/~rgrosse/courses/csc311_f20/
內容介紹:
計算機科學正在發展,以利用新的硬件,如GPU、TPUs、CPU和大型的集群。許多子領域,如機器學習和優化,已經調整了它們的算法來處理這樣的集群。
主題包括分布式和并行算法:優化、數值線性代數、機器學習、圖形分析、流形算法,以及其他在集群中難以擴展的問題。該類將重點分析程序,并使用Apache Spark和TensorFlow實現一些程序。
本課程將分為兩部分:首先,介紹并行算法的基礎知識和在單多核機器上的運行時分析。其次,我們將介紹在集群機器上運行的分布式算法。
題目
《A Concise Introduction to Machine Learning》by A.C. Faul (CRC 2019)
關鍵字
機器學習簡介
簡介
本書對當下機器學習的發展以及技術進行了簡介,循序漸進,深入淺出,適合新手入門。
目錄
書籍介紹: 機器學習是一門人工智能的科學,該領域的主要研究對象是人工智能,特別是如何在經驗學習中改善具體算法的性能。機器學習是人工智能及模式識別領域的共同研究熱點,其理論和方法已被廣泛應用于解決工程應用和科學領域的復雜問題。本書從機器學習的基礎入手,分別講述了分類、排序、降維、回歸等機器學習任務,是入門機器學習的一本好書。
作者: Mehryar Mohri,是紐約大學庫蘭特數學科學研究所的計算機科學教授,也是Google Research的研究顧問。
大綱介紹:
作者主頁://cs.nyu.edu/~mohri/