亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

藍光輝教授的專著系統地介紹了機器學習算法基礎概念和近期進展,尤其是基于優化方法的算法。 機器學習算法領域近期出現了大量研發進展,但目前社區尚缺乏對機器學習算法基礎概念和近期進展的系統性介紹,尤其是基于隨機優化方法、隨機算法、非凸優化、分布式與在線學習,以及無投影方法的機器學習算法。

佐治亞理工終身教授藍光輝出版的一本關于機器學習算法的專著《First-order and Stochastic Optimization Methods for Machine Learning》。

這本專著具備以下特點:

  • 覆蓋從基礎構造塊到精心設計的復雜算法等詳實內容;
  • 用教程的形式介紹了機器學習算法領域的近期進展;
  • 面向機器學習、人工智能和數學規劃社區的廣大研究人員;
  • 每一章節后都附有練習。

系統梳理優化算法的進展

在該書序言部分,藍光輝教授介紹了寫作此書的初衷:

優化在數據科學中一直發揮重要作用。很多統計和機器學習模型的分析與解決方法都依賴于優化。但是,近期社區對計算數據分析優化的興趣往往伴隨著一些難題。高維度、大型數據規模、內在不確定性、無法避免的非凸問題,以及實時和分布式設置的要求,給現有的優化方法帶來了大量困難。 在過去十年中,為解決以上挑戰,優化算法在設計和分析方面出現了巨大進步。然而,這些進步分散在多個不同學科的大量文獻中,缺乏系統性的梳理。而這使得年輕研究人員更難進入優化算法領域,更難構建必要的基礎知識、了解目前的前沿成果,以及推動該領域的發展。 這本書嘗試用更有條理的方式介紹領域進展,主要聚焦于已得到廣泛應用或具備大規模機器學習和數據分析應用潛力的優化算法,包括一階方法、隨機優化方法、隨機和分布式方法、非凸隨機優化方法、無投影方法,以及算子滑動和分散式方法。 本書的寫作目標是介紹基礎算法機制,它們能在不同環境設置下提供最優性能保障。不過在探討算法之前,本書首先簡要介紹了多個常見的機器學習模型和一些重要的優化理論,希望借此為初學者提供良好的理論基礎。

此外,藍教授表示這本書的目標讀者是對優化算法及其在機器學習和人工智能中的應用感興趣的研究生和高年級本科生,也可以作為更高階研究人員的參考書目。這本書的最初版本已經作為佐治亞理工學院高年級本科生和博士課程的教材。

核心內容

這本書共包括八個章節,涵蓋機器學習模型、凸優化、非凸優化、無投影方法等內容,是對優化算法近期進展的一次系統性梳理。

書籍鏈接://www.springer.com/gp/book/9783030395674

作者簡介

本書作者藍光輝教授,博士畢業于佐治亞理工學院,目前任教于佐治亞理工 H. Milton Stewart 工業和系統工程學院。此外,他還擔任《Computational Optimization and Applications》、優化算法頂級期刊《Mathematical Programming》和《SIAM Journal on Optimization》等雜志的副主編,是國際機器學習和深度學習算法方向的頂級專家。

藍光輝教授專注于計算機科學領域的基礎研究,他的研究方向包括:隨機優化和非線性規劃的理論、算法和應用,包括隨機梯度下降和加速隨機梯度下降,以及用于解決隨機凸和非凸優化問題。

付費5元查看完整內容

相關內容

“機器學習是近20多年興起的一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法復雜度理論等多門學科。機器學習理論主要是設計和分析一些讓 可以自動“ ”的算法。機器學習算法是一類從數據中自動分析獲得規律,并利用規律對未知數據進行預測的算法。因為學習算法中涉及了大量的統計學理論,機器學習與統計推斷學聯系尤為密切,也被稱為統計學習理論。算法設計方面,機器學習理論關注可以實現的,行之有效的學習算法。很多 問題屬于 ,所以部分的機器學習研究是開發容易處理的近似算法。” ——中文維基百科

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

在過去的二十年里,機器學習已經成為信息技術的支柱之一,并因此成為我們生活中相當核心(盡管通常是隱藏的)的一部分。隨著可用數據量的不斷增加,我們有充分的理由相信,智能數據分析將變得更加普遍,成為技術進步的必要因素。本章的目的是為讀者提供一個廣泛的應用的概述,這些應用的核心是一個機器學習問題,并給這一大堆問題帶來一定程度的秩序。在那之后,我們將討論一些來自統計和概率論的基本工具,因為它們構成了許多機器學習問題必須被表述成易于解決的語言。最后,我們將概述一套相當基本但有效的算法來解決一個重要的問題,即分類。更復雜的工具,更普遍的問題的討論和詳細的分析將在本書后面的部分。

付費5元查看完整內容

人工智能技術已經成為當前技術變革的主要推動力之一,從計算機科學到工程學等許多科學技術領域都在竭盡全力想用自動化的方法創造更大的價值。要想做到這一點,工程師當然必須要對當前最具潛力的機器學習方法有一個大致了解。倫敦國王學院信息學習教授 Osvaldo Simeone 公開發布了長達 237 頁的最新專著,為工程師提供了全面細致的機器學習入門介紹。

本專著的目標是介紹機器學習領域內的關鍵概念、算法和理論框架,涵蓋了監督學習與無監督學習、統計學習理論、概率圖模型和近似推斷等方向。本專著的目標讀者是具有概率學和線性代數背景的電氣工程師。本書基于第一原理(first principle)寫作,并按照有清晰定義的分類方式對其中的主要思想進行了組織,其中的類別包含鑒別式模型和生成式模型、頻率論者和貝葉斯方法、準確推斷和近似推斷、有向模型和無向模型、凸優化和非凸優化。本書中的數學框架使用了信息論的描述方式,以便工具具有統一性。書中提供了簡單且可重復的數值示例,以便讀者了解相關的關鍵動機和結論。本專著的目的并不是要為每個特定類別中已有的大量解決方案提供詳盡的細節描述(這些描述讀者可參閱教科書和論文了解),而是為了給工程師提供一個切入點,以便他們能借此進一步深入機器學習相關文獻。

第一章 概述

當我在教授機器學習課程時,有著工程學背景的同事和學生經常問及:如何更好地入門機器學習。我通常會以書籍推薦的形式回應——一般但稍微過時的介紹,請讀這本書;對于基于概率模型方法的詳細調查,請查看這些索引;如果想要了解統計學習,我覺得這篇文章很有用;如此等等。結果證明這些回答無法使我與提問者滿意。書籍很多很厚,使得繁忙的工程學教授和學生望而卻步。因此我首次撰寫了這篇專論,一篇基礎且體量適當的入門書,其中通過簡單的術語面向工程師統一介紹了機器學習主要思想和原理,同時涵蓋了其最新發展和文獻指導,以供進一步研究。

第二章,線性回歸入門介紹

第二章我們回顧了三個核心的學習框架,即頻率論者(frequentist)、貝葉斯和 MDL。頻率論者為數據假定了真實、未知分布的存在,并致力于學習一個預測器(predictor),從而更好地泛化來自這一分布的不可見數據。這可通過學習一個插入最優預測器表達式的概率模型或者直接解決預測變量上的 ERM 問題而完成。貝葉斯方法輸出一個預測分布,可通過解決計算不可見標簽上后驗分布的推斷問題而整合先驗信息與數據。最后,MDL 方法旨在篩選一個模型,允許使用最少的比特描述數據,因此去除在未觀察實例上泛化的任務。本章也廣泛討論了過擬合的關鍵問題,展示了學習算法的性能可就偏差和評估錯誤獲得理解。運行實例是用于高斯模型的線形回歸中的一個。下一章將會介紹更多學習構建和學習常見概率模型的工具。

第三章,概率學習模型

本章中,我們回顧了概率模型的一個重要類別——指數族,它被廣泛用作學習算法的組件以完成監督、無監督學習任務。這一類別成員的關鍵屬性是由同一家族中的梯度 LL 和共軛先驗的可用性采用的簡單形式。下一章我們將講述指數族在解決分類問題方面的不同應用模型。

第四章,分類

本章扼要概述了分類的關鍵問題。按照第二章提出的分類系統,我們依據用來連接解釋性變量與標簽的模型類型劃分了學習算法。尤其地,我們描述了線性與非線性的確定性判別模型,涵蓋了用于多層神經網絡的感知機算法、SVM、反向傳播;聚焦于 GLM 的概率判別模型;包括 QDA 和 LDA 在內的概率生成模型。我們同樣介紹了混合模型與提升方法(Boosting)。盡管本章聚焦在算法方面,下一章將討論一個理論框架,研究監督學習的性能。

第五章,統計學習理論

本章描述了經典的 PAC 框架,并用它分析監督學習的泛化性能。我們知道 VC 維理論定義了模型的能力,這就意味著 VC 維在給定模型準確度和置信度上度量了其學習所需要的樣本數量。在下一章中,我們將從監督學習進一步討論無監督學習問題。

第六章,無監督學習

在本章節中,我們回顧了無監督學習的基礎知識。優秀的無監督學習方法一般都通過隱變量或潛在變量幫助解釋數據的結構。我們首先通過期望最大化算法(EM)回顧了機器學習及各種變體。隨后介紹了機器學習生成模型 GAN,該方法使用從數據中學到的散度度量以代替 KL 散度。隨后接著回顧了通過 InfoMax 原則訓練的判別模型和自編碼器。在下一章節中,我們通過討論概率圖模型的強大框架而擴展了對概率模型的理解。

第七章,概率圖模型

概率圖模型將關于數據結構的先驗信息編碼為因果關系的形式,即通過有向圖和貝葉斯網絡(BN),或通過無向圖和馬爾可夫隨機場(MRF)編碼為相互之間的依賴性關系。這種結構可以表示為條件獨立性屬性。概率圖模型所編碼的結構屬性能有效地控制模型的性能,因此能以可能的偏差為代價減少過模型擬合。概率圖模型也推動執行貝葉斯推斷,至少在樹型結構的圖中是這樣的。下一章將討論貝葉斯推斷和關聯學習比較重要的問題,當然具體的方法對計算力的需求就太大了。

第八章,近似推斷與學習

本章通過關注 MC 和 VI 方法概覽了近似推斷技術。并且重點關注了選擇不同類型的近似準則及其所產生的影響,例如介紹 M- 和 I- 映射。同樣我們還討論了在學習問題上使用近似推斷的方法。此外,我們還討論了本章目前最優的技術進展。

第九章,結語

這一章節主要是簡單介紹機器學習,尤其是強調那些統一框架下的概念。除了前文縱覽機器學習的各種方法,我們在這年還提供了那些只是提到或簡要描述的重要概念及其擴展方向,因此下面將提供前文沒有介紹的重要概念列表。

隱私:在許多應用中,用于訓練機器學習算法的數據集包含了很多敏感的私人信息,例如推薦系統中的個人偏好和醫療信息等等。因此確保學習的模型并不會揭露任何訓練數據集中的個人記錄信息就顯得十分重要了。這一約束能使用差分隱私(differential privacy)概念形式化表達。保證個人數據點隱私的典型方法包括在執行 SGD 訓練模型時對梯度添加隨機噪聲,該方法依賴于使用不同的訓練數據子集混合所學習到的專家系統 [1]。

魯棒性:已經有研究者表明不同的機器學習模型包含神經網絡對數據集中很小的變化十分敏感,它們會對次要的、正確選擇的和解釋變量中的變動給出錯誤的響應。為了確保模型關于對抗樣本具有魯棒性,修正訓練過程是具有重要實踐意義的研究領域 [37]。

計算平臺和編程框架:為了擴展機器學習應用,利用分布式計算架構和相應的標準編程框架 [9] 是十分有必要的。

遷移學習:針對特定任務并使用給定數據集進行訓練的機器學習模型,目前如果需要應用到不同的任務還需要重新初始化和訓練。遷移學習研究領域即希望將預訓練模型從一個任務獲得的專業知識遷移到另一個任務中。神經網絡的典型解決方案規定了通用隱藏層的存在,即對不同任務訓練的神經網絡有一些隱藏層是相同的。

域適應(Domain adaptation):在許多學習問題中,可用數據和測試數據的分布并不相同。例如在語音識別中,模型學習時所使用的用戶數據和訓練后其他用戶使用該模型所提供的語音數據是不同的。廣義 PAC 理論分析了這種情況,其將測試分布作為測試和訓練的分布差異函數而獲得了泛化誤差邊界。

有效通信學習(Communication-efficient learning):在分布式計算平臺上,數據通常被分配在處理器中,處理器中的通信造成了延遲與能耗。一個重要的研究問題是找到學習性能與通信成本之間的最佳折衷。

強化學習:強化學習是機器學習方法最近大獲成功的根本核心,獲得了玩視頻游戲或與人類選手對決的必要技能。在強化學習中,一方想要學習世界中已觀察到的狀態 x 和動作 t 之間的最優映射,比如說 p(t|x, θ)。不同于監督學習,強化學習中最優動作不可知,機器會由于采取的動作而獲得一個獎勵/懲罰信號。其中一個流行的方法是深度強化學習,它通過神經網絡建模映射 p(t|x, θ)。通過使用強化方法評估梯度并借助 SGD,這被訓練從而最大化平均獎勵。

付費5元查看完整內容

優化和機器學習的相互作用是現代計算科學最重要的發展之一。優化的公式和方法在設計從大量數據中提取基本知識的算法方面被證明是至關重要的。然而,機器學習并不僅僅是優化技術的消費者,而是一個快速發展的領域,它本身也在產生新的優化思想。這本書以一種對兩個領域的研究人員都可訪問的方式捕獲了優化和機器學習之間交互的藝術的狀態。

優化方法因其廣泛的適用性和吸引人的理論特性而在機器學習中占有重要地位。當今機器學習模型的復雜性、規模和多樣性日益增加,需要對現有假設進行重新評估。這本書開始了重新評估的過程。它描述了在諸如一階方法,隨機近似,凸松弛,內點方法,和近端方法等已建立的框架。它還專門關注一些新的主題,如正則化優化、魯棒優化、梯度和次梯度方法、分裂技術和二階方法。其中許多技術的靈感來自其他領域,包括運籌學、理論計算機科學和優化子領域。這本書將豐富機器學習社區和這些其他領域以及更廣泛的優化社區之間正在進行的交叉發展。

付費5元查看完整內容

強化學習技術是人工智能從感知智能向決策智能發展的關鍵技術之一;是基于控制論、心理學、生理學、認知科學、電腦科學等多學科交叉的新興機器學習技術。

本書是學習和研究強化學習技術的重要參考書籍,作者是日本人工智能領域知名學者、東京大學杉山將教授。

全書將統計學習和強化學習結合,從模型無關策略迭代、模型無關策略搜索、模型相關強化學習三個技術路線角度,對強化學習函數估計中的基函數設計、樣本重用以及策略搜索、模型估計等做了深入淺出的介紹。本書適合于從事人工智能和機器學習研究和應用的專家學者、技術人員、研究生閱讀。

本書特色:

從現代機器學習的角度介紹了統計強化學習的基本概念和實用算法,為該領域提供了最新介紹。

涵蓋了各種類型的強化學習方法,包括基于模型和無模型的方法、策略迭代和策略搜索方法。

涵蓋了最近在數據挖掘和機器學習領域引入的方法,以便在強化學習和數據挖掘/機器學習研究人員之間提供系統橋梁。

呈現了最新的結果,包括強化學習的維數降低和風險敏感強化學習;介紹了許多示例來幫助讀者理解強化學習技術的直觀性和實用性。

付費5元查看完整內容

數據挖掘和機器學習的基本算法構成了數據科學的基礎,利用自動化方法分析各種數據的模式和模型,應用范圍從科學發現到商業分析。本教材面向本科和研究生課程,全面深入地介紹了數據挖掘、機器學習和統計學,為學生、研究人員和實踐者提供了堅實的指導。這本書奠定了數據分析、模式挖掘、聚類、分類和回歸的基礎,集中在算法和潛在的代數、幾何和概率概念上。新的第二版是一個完整的部分致力于回歸方法,包括神經網絡和深度學習。

  • 涵蓋核心方法和前沿研究,包括深度學習

  • 提供了一種基于開源實現的算法方法

  • 包含了經過類測試的例子和練習,允許課程設計的靈活性和現成的參考

數據挖掘和機器學習使人能夠從數據中獲得基本的見解和知識。它們允許發現深刻的、有趣的和新穎的模式,以及從大規模數據中描述的、可理解的和可預測的模型。在這個領域有幾本好書,但其中很多不是太高級就是太高級。這本書是一個介紹性的文本,奠定了機器學習和數據挖掘的基本概念和算法的基礎。重要的概念在第一次遇到時就會被解釋,并附有詳細的步驟和推導。本書的主要目標是通過對數據和方法的幾何、(線性)代數和概率解釋的相互作用,建立公式背后的直覺。這第二版在回歸上增加了一個完整的新部分,包括線性和邏輯回歸,神經網絡,和深度學習。其他章節的內容也進行了更新,已知的勘誤表也得到了修正。本書的主要部分包括數據分析基礎、頻繁模式挖掘、聚類、分類和回歸。這些課程涵蓋了核心方法以及尖端主題,如深度學習、核方法、高維數據分析和圖分析。

深度學習,核方法,高維數據分析,圖分析。這本書包括許多例子來說明概念和算法。它也有結束語練習,在課堂上使用過。書中所有的算法都是由作者實現的。為了幫助實際理解,我們建議讀者自己實現這些算法(例如,使用Python或R)。如幻燈片、數據集和視頻等補充資源可以在該書的同伴站點在線獲得:

//dataminingbook.info

目錄內容: Front Matter Contents Preface

PART I. DATA ANALYSIS FOUNDATIONS

1 Data Mining and Analysis 2 Numeric Attributes 3 Categorical Attributes 4 Graph Data 5 Kernel Methods 6 High-dimensional Data 7 Dimensionality Reduction

PART II. FREQUENT PATTERN MINING

8 Itemset Mining 9 Summarizing Itemsets 10 Sequence Mining 11 Graph Pattern Mining 12 Pattern and Rule Assessment

PART III. CLUSTERING

13 Representative-based Clustering 14 Hierarchical Clustering 15 Density-based Clustering 16 Spectral and Graph Clustering 17 Clustering Validation PART IV. CLASSIFICATION

18 Probabilistic Classification 19 Decision Tree Classifier 20 Linear Discriminant Analysis 21 Support Vector Machines 22 Classification Assessment

PART V. REGRESSION

23 Linear Regression 24 Logistic Regression 25 Neural Networks 26 Deep Learning 27 Regression Evaluation

Index

圖片

付費5元查看完整內容

自然語言理解是人工智能的一個重要分支,主要研究如何利用電腦來理解和生成自然語言。本書重點介紹了自然語言理解所涉及的各個方面,包括語法分析、語義分析、概念分析、語料庫語言學、詞匯語義驅動、中間語言、WordNet、詞匯樹鄰接文法、鏈接文法、基于語段的機器翻譯方法、內識別與文本過濾、機器翻譯的評測等,既有對基礎知識的介紹,又有對新研究進展的綜述,同時還結合了作者(JamesPustejovsky,生成詞庫理論的創始人)多年的研究成果。本書內容全面、詳略得當,結合實例講解,使讀者更易理解。

編輯推薦

《面向機器學習的自然語言標注》內容全面、詳略得當,結合實例講解,使讀者更易理解。自然語言理解是人工智能的一個重要分支,主要研究如何利用計算機來理解和生成自然語言。

名人推薦

“語言標注是自然語言處理的一個關鍵部分,但是現有的計算語言學課程卻少有涉及。本書是難得的一本從實踐角度討論自然語言標注,并且以服務于機器學習算法為目的來考察標注規格與設計的專著。它必將成為本科生和研究生計算語言學課程的一個標準。” ——Nancy Ide瓦薩學院計算機科學系教授

作者簡介 James Pustejovsky教授是美國布蘭代斯(Brandeis University)大學計算機科學系和Volen國家綜合系統中心教授。先后在美國麻省理工學院和馬薩諸塞大學獲得學士學位和博士學位。 Pustejovsky教授主要從事自然語言的理論和計算研究。研究領域包括:計算語言學、詞匯語義學、知識表征、話語語義學、時間推理和抽取等。已經出版多部專著。

付費5元查看完整內容

機器學習中部分非凸和隨機優化算法研究

機器學習是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算 法復雜度理論等多門學科。算法理論與應用是機器學習中最為重要的核心之一。其中一階優化算法因其簡單有效性,而被廣泛研究與應用。另一方面由于近年來 數據規模的不斷增大,數據集的規模使得二階或更高階的算法應用受阻。這使得 一階算法進一步成為機器學習的研究重點。隨著機器學習中問題模型的不斷擴張, 例如深度學習,非凸問題和模型也激發了學者們廣泛的研究興趣。這使得研究非 凸算法顯得更加急迫。而且由于數據集的龐大性,確定算法難以逃出鞍點,因此 隨機算法受到了史無前例的關注。本文主要結果可以歸納如下:

一、研究了三種 ADMM 算法。第一個 ADMM 的工作是關于一般的 ADMM 收 斂性分析統一框架。在此框架下,很多現有的 ADMM 收斂性分析可以歸納進該 框架。除了現有的 ADMM 算法,根據統一框架還能夠設計出新的 ADMM 算法。第二個和第三個 ADMM 都是針對結構非凸優化問題提出的:一個是針對泛 ?q 正 則化約束優化問題,而另一個是針對 ?1?2 正則化約束優化。給出了后面兩種非凸 ADMM 算法的收斂性分析,所得到的結果可以指導用戶選擇合適的超參數。

二、研究了兩種一階優化領域常用的非精確算法。第一種是非精確的加速算 法。相較于之前的研究,該算法的假設更為真實。而且還囊括了一大類隨機噪聲 的情況,使得算法更為實用。而機器學習中的一階催化劑算法由于是該加速算法 帶上了隨機噪聲,因此可以看做本算法的特例。在第二部分給出了非精確非凸算 法的收斂性框架理論。可以被廣泛應用到各種一階非凸算法。

三、證明了在有界和無界延遲以及隨機和確定性塊選擇下異步并行梯度下降法 的收斂結果。這些結果不需要迄今為止絕大多數其他工作中出現的獨立性假設。這是由于本文使用了 Lyapunov 函數技術,可直接處理延遲,而不是像之前的工作 一樣僅僅將它們建模為噪聲。

四、分析了馬爾可夫鏈隨機梯度下降法,其中樣本采用了某個馬爾可夫鏈的軌跡。主要貢獻之一是給出了馬爾可夫鏈隨機梯度下降法的在凸情況下的非遍歷收 斂分析。結果然后擴展到不精確的格式。這種分析使得能夠建立不可逆有限狀態 馬爾可夫鏈和非凸最小化問題的收斂性。這樣的結果適用于不知道具體的概率分 布,但可以通過馬爾可夫鏈進行采樣的情形。

付費5元查看完整內容

管理統計和數據科學的原理包括:數據可視化;描述性措施;概率;概率分布;數學期望;置信區間;和假設檢驗。方差分析;簡單線性回歸;多元線性回歸也包括在內。另外,本書還提供了列聯表、卡方檢驗、非參數方法和時間序列方法。

教材:

  • 包括通常在入門統計學課程中涵蓋的學術材料,但與數據科學扭曲,較少強調理論
  • 依靠Minitab來展示如何用計算機執行任務
  • 展示并促進來自開放門戶的數據的使用
  • 重點是發展對程序如何工作的直覺
  • 讓讀者了解大數據的潛力和目前使用它的失敗之處
付費5元查看完整內容

關于大數據技術的信息很多,但將這些技術拼接到端到端企業數據平臺是一項艱巨的任務,沒有得到廣泛的討論。通過這本實用的書,您將學習如何在本地和云中構建大數據基礎設施,并成功地構建一個現代數據平臺。

本書非常適合企業架構師、IT經理、應用程序架構師和數據工程師,它向您展示了如何克服Hadoop項目期間出現的許多挑戰。在深入了解以下內容之前,您將在一個徹底的技術入門中探索Hadoop和大數據領域中可用的大量工具:

  • 基礎設施: 查看現代數據平臺中的所有組件層,從服務器到數據中心,為企業中的數據建立堅實的基礎

-平臺: 了解部署、操作、安全性、高可用性和災難恢復的各個方面,以及將平臺與企業IT的其他部分集成在一起所需了解的所有內容

  • 將Hadoop帶到云端: 學習在云中運行大數據平臺的重要架構方面,同時保持企業安全性和高可用性
付費5元查看完整內容

高斯過程(GPs)為核機器的學習提供了一種有原則的、實用的、概率的方法。在過去的十年中,GPs在機器學習社區中得到了越來越多的關注,這本書提供了GPs在機器學習中理論和實踐方面長期需要的系統和統一的處理。該書是全面和獨立的,針對研究人員和學生在機器學習和應用統計學。

這本書處理監督學習問題的回歸和分類,并包括詳細的算法。提出了各種協方差(核)函數,并討論了它們的性質。從貝葉斯和經典的角度討論了模型選擇。討論了許多與其他著名技術的聯系,包括支持向量機、神經網絡、正則化網絡、相關向量機等。討論了包括學習曲線和PAC-Bayesian框架在內的理論問題,并討論了幾種用于大數據集學習的近似方法。這本書包含說明性的例子和練習,和代碼和數據集在網上是可得到的。附錄提供了數學背景和高斯馬爾可夫過程的討論。

付費5元查看完整內容
北京阿比特科技有限公司