亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本書分兩部分,共14章。第1部分(1 - 6章)集中在深度學習的基礎: 編碼框架,基本架構類型,不同組件的術語,以及構建和訓練神經網絡的技術。這些是您可以構建更大更復雜系統的基本工具。然后,在第2部分(7-14章),我們開始添加新的設計選擇或策略。每一章都有助于將深度學習的效用擴展到新類型的任務或問題上,拓寬了我們的范圍,為我們提供了新的工具來調整不同的設計權衡(例如,速度與準確性)。

//www.manning.com/books/inside-deep-learning

**第一部分,“基本方法”,有六個章節:**第一章討論了PyTorch及其工作原理,展示了如何使用這個框架。第二章介紹了最基本的神經網絡類型——全連接網絡——以及如何在PyTorch中編寫訓練任意網絡的代碼。這包括演示一個完全連接的網絡如何與線性模型相關。第三章介紹了卷積以及卷積神經網絡如何在基于圖像的深度學習中占據主導地位。第四章介紹遞歸神經網絡,它們如何編碼順序信息,以及它們如何用于文本分類問題。

第五章介紹了新的訓練技術,可以應用到任何神經網絡,以獲得更高的精度在更短的時間,并解釋了他們如何實現這一目標。

第六章介紹了當今常用的現代設計模式,將您設計神經網絡的知識帶入現代。**第2部分,“構建高級網絡”,有8個章節:**第7章介紹了自動編碼作為一種訓練神經網絡的技術,無需標記數據,允許無監督學習。第8章介紹了圖像分割和目標檢測這兩種技術,你可以使用它們在圖像中找到多個項目。第9章發展了生成對抗網絡,這是一種無監督的方法,可以產生合成數據,是許多現代圖像篡改和深度偽造技術的基礎。第10章教你如何實現注意力機制,這是網絡先驗中最重要的最新進展之一。注意力機制允許深度網絡選擇性地忽略輸入中不相關或不重要的部分。第11章使用注意力構建了開創性的Seq2Seq模型,并展示了如何使用部署在生產系統中的相同方法構建一個英法翻譯器。第12章介紹了一種新的策略,通過重新思考網絡是如何設計的,來避免重復網絡(由于它們的缺點)。這包括轉換器體系結構,它是當前最好的自然語言處理工具的基礎。第13章介紹了遷移學習,一種使用在一個數據集上訓練的網絡來提高在另一個數據集上的性能的方法。這允許使用較少標記的數據,使其成為現實工作中最有用的技巧之一。在書的最后,第14章回顧了現代神經網絡的一些最基本的組成部分,并向您介紹了三種最近發表的技術,大多數實踐者仍然沒有意識到這些技術可以構建更好的模型。

付費5元查看完整內容

相關內容

 機器學習的一個分支,它基于試圖使用包含復雜結構或由多重非線性變換構成的多個處理層對數據進行高層抽象的一系列算法。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

海量數據集的算法和數據結構旨在幫助您構建可擴展的應用程序,并理解海量數據系統下的算法構建塊。本書涵蓋了構建大規模應用程序的不同算法方面,包括通過使用概率數據結構節省空間,處理流數據,處理磁盤上的數據,以及理解數據庫系統中的性能權衡。

//www.manning.com/books/algorithms-and-data-structures-for-massive-datasets#:~:text=Algorithms%20and%20Data%20Structures%20for%20Massive%20Datasets%20reveals%20a%20toolbox,truly%20massive%20amounts%20of%20data.

本書共分三個部分,共11章。第1部分是關于概率的簡潔數據結構,第2部分是關于流數據結構和算法,第3部分是關于外部內存數據結構和算法。以下是每一章的簡要總結:

第一章解釋了為什么大量數據對現代系統提出了這樣一個挑戰,以及這些挑戰如何塑造算法和數據結構的設計。

第1部分:概率式簡潔數據結構

第二章回顧了哈希并解釋了哈希表是如何發展以滿足大型數據集和復雜分布式系統的需求的(例如,一致哈希)。哈希方法將在接下來的章節中大量使用,因此本章將作為第1部分其他章節的鋪墊。

第三章介紹了近似隸屬度問題和兩個有助于解決它的數據結構:Bloom 過濾器和quotient 過濾器。本章展示了用例和假陽性率分析,以及使用每種數據結構的優缺點。

第四章描述了頻率估計的問題,并介紹了countmin草圖,這是一種數據結構,以非常有效的空間方式解決頻率估計。討論了NLP、傳感器數據和其他領域的用例,以及計數min草圖在范圍查詢等問題中的應用。

第五章深入了解了基數估計和HyperLog- Log算法,以及它們的應用程序。本章使用一個小型實驗來展示從簡單的概率計數到完整的HyperLogLog數據結構在準確性上的演變。

第2部分:流數據結構和算法

第6章溫和地介紹了數據流作為一種算法概念,以及流數據(應用)作為現實世界的表現形式。通過使用流數據架構中的幾個實際用例,我們展示了前幾章中的數據結構如何適合流數據上下文。

第7章解釋了如何從數據流或流中的滑動窗口中保存一個具有代表性的樣本。我們解釋了當一個人可能對一個有偏差的樣本感興趣時,并給出代碼示例,展示一個樣本是如何對最近看到的數據元組產生偏差的。

第8章是關于從連續數據流中計算數值數據的近似分位數。我們描述了兩種草圖數據結構或摘要:q-文摘和t-文摘。我們解釋了它們背后的算法,并在一個真實的數據集中展示它們彼此之間的對比。

第3部分:外部內存數據結構和算法

第9章介紹了外部內存模型和一些示例,這些示例演示了在處理遠程存儲上的數據時,I/O成本如何支配CPU成本。這一章是一個視角轉換的算法設計者習慣于思考優化算法的CPU成本。

第10章展示了支持主流數據庫的數據結構,如b -樹和lsm -樹,并涵蓋了數據庫引擎設計中不同的讀/寫權衡。從較高的層次上理解這些數據結構是如何工作的,可以幫助您區分不同風格的數據庫,并為您的應用程序選擇合適的數據庫。

第11章介紹了在外部內存中進行排序,并展示了使用外部內存優化版本的合并排序和快速排序在磁盤上對文件進行排序的最佳算法。第11章使用排序作為一個例子來演示當將批處理問題移動到外部內存時,哪些類型的優化是可能的。

付費5元查看完整內容

-

這本書提供了深度學習的數學工程的一個完整和簡明的概述。除了概述深度學習的基礎之外,本課程還包括卷積神經網絡、循環神經網絡、transformers、生成對抗網絡、強化學習和多種技巧。重點是深度學習模型、算法和方法的基本數學描述。該報告主要是對計算機代碼、神經科學關系、歷史觀點和理論研究的不可知論。這種方法的好處是,具備數學能力的讀者可以快速掌握現代深度學習算法、模型和技術的精髓,而無需查看計算機代碼、神經科學或歷史進程。

//deeplearningmath.org/

深度學習是很容易通過數學語言來描述的,在一個許多專業人士都能接觸到的水平。來自工程、信號處理、統計學、物理學、純數學、計量經濟學、運算學、定量管理、應用機器學習或應用深度學習等領域的讀者將迅速深入了解該領域的關鍵數學工程組件。

本書有10章和3個附錄。第1-4章概述了機器學習的關鍵概念,概述了深度學習所需的優化概念,并重點介紹了基本模型和概念。第5-8章討論了深度學習的核心模型和架構,包括全連接網絡、卷積網絡、循環網絡,并概述了模型調整和應用的各個方面。第9-10章涉及特定領域,即生成對抗網絡和深度強化學習。附錄A-C提供了數學支持。以下是內容的詳細概述。

第一章-引言: 在這一章中,我們概述了深度學習,演示了關鍵的應用程序,調研了相關的高性能計算生態系統,討論了高維的數據,并為本書的其余部分定下基調。這一章討論了包括數據科學、機器學習和統計學習在內的關鍵術語,并將這些術語放在書的上下文中。主要的流行數據集,如ImageNet和MNIST數字也被概述,并描述了深度學習的出現。

第二章-機器學習原理: 深度學習可以被視為機器學習的一個分支學科,因此本章提供了機器學習的關鍵概念和范例的概述。向讀者介紹了監督學習、無監督學習和基于迭代的學習優化的一般概念。介紹了訓練集、測試集等的概念,以及交叉驗證和模型選擇的原則。本章探討的一個關鍵對象是線性模型,它也可以通過迭代優化進行訓練。這使得我們可以看到基本的梯度下降算法的實際應用,這個算法后來被改進并在本書的續篇中大量使用。

第三章-簡單的神經網絡: 在這一章中,我們關注二元分類的邏輯回歸和相關的用于多類問題的Softmax回歸模型。這就是深度學習的原理,如交叉熵損失、決策邊界和簡單的反向傳播案例的介紹。本章還介紹了一個簡單的非線性自動編碼器體系結構。模型調整方面也被討論,包括特征工程和超參數選擇。

第四章-優化算法: 深度學習模型的訓練涉及對學習參數的優化。因此,需要對優化算法有扎實的理解,以及對深度學習模型(如ADAM算法)的專業優化技術的理解。在這一章中,我們將重點關注這些技術以及正在慢慢進入實踐的更高級的二級方法。我們還研究了各種形式的自動微分的細節,并在邏輯回歸的背景下進行了比較,其中一階和二階方法都可以使用。

第五章-前饋深度網絡:這一章是本書的核心,在這里定義了一般的前饋深度神經網絡在探索了深度神經網絡的表達能力之后,我們通過理解梯度評估的反向傳播算法來深入訓練的細節,并探索其他實用方面,如權值初始化、dropout和批處理歸一化。

第六章-卷積神經網絡: 深度學習的成功很大程度上歸功于卷積神經網絡在應用于圖像和類似數據格式時的力量。在本章中,我們將探討卷積的概念,然后在深度學習模型的背景下了解它。介紹了通道和濾波器設計的概念,然后探討了已經產生重大影響并至今仍在使用的先進體系結構的常見狀態。我們還探討了一些與圖像相關的關鍵任務,如對象定位。

第七章-序列模型: 序列模型對于數據非常重要,比如自然語言處理中的文本應用。在本章中,我們將了解深度學習領域的關鍵思想。我們探討循環神經網絡及其推廣。這些包括長期短期記憶模型,門控循環單元,端到端語言翻譯的自動編碼器,以及帶有變壓器的注意模型。

第八章-行業技巧: 在學習了前饋網絡、卷積網絡和各種形式的循環網絡之后,我們現在來探索在應用中調整和集成這些模型的常用方法。關鍵問題包括超參數選擇和優化它們的技術。其他問題涉及通過遷移學習從一個數據集到另一個數據集的模型適應,以及增加數據集的方法。我們還討論了圖像transformer的應用和實現的各個方面,包括對深度學習軟件框架的描述。

第九章-生成式對抗網絡: 在本章中,我們調研和探索生成式對抗網絡(GANs),它是能夠合成看起來真實的假數據的模型。GAN的基本構造是基于一個博弈論的設置,其中生成器模型和鑒別器模型被聯合訓練以得到一個訓練過的系統。我們討論了幾種GAN架構,以及在適應損耗函數時出現的有趣的數學方面。

第十章-深度強化學習: 在最后一章中,我們將探討深度強化學習的原理,這是一種動態系統的自適應控制方法。當考慮人工智能系統時,這經常被引入到agent的背景下,但是我們采用了一個更經典的方法,并在控制理論和馬爾可夫決策過程的背景下提出它。我們首先為MDPs和Q-learning奠定基礎,然后探索通過深度神經網絡逼近Q函數的各種進展。

付費5元查看完整內容

自然語言處理實戰教你如何創建實用的NLP應用,而不陷入復雜的語言理論和深度學習的數學。在這本引人入勝的書中,您將探索構建大量強大的NLP應用所需的核心工具和技術,包括聊天機器人、語言檢測器和文本分類器。

真實世界的自然語言處理不是典型的自然語言處理教科書。我們專注于構建真實世界的NLP應用。這里真實世界的意義有兩個方面:首先,我們關注構建真實世界的NLP應用需要什么。作為讀者,您不僅將學習如何訓練NLP模型,還將學習如何設計、開發、部署和監控它們。在此過程中,您還將學習現代NLP模型的基本構建模塊,以及對構建NLP應用有用的NLP領域的最新開發。其次,與大多數介紹性書籍不同,我們采用自上而下的教學方法。我們不采用自下而上的方法,一頁頁地展示神經網絡理論和數學公式,而是專注于快速構建“正常工作”的NLP應用程序。然后我們深入研究組成NLP應用的各個概念和模型。您還將學習如何使用這些基本構建塊構建端到端定制NLP應用,以滿足您的需求。

這本書由三個部分組成,共11章。第1部分介紹了NLP的基礎知識,其中我們學習了如何使用AllenNLP 快速構建一個NLP應用,以完成情感分析和序列標記等基本任務。

第1章首先介紹了NLP的“什么”和“為什么”——什么是NLP,什么不是NLP,如何使用NLP技術,以及NLP如何與人工智能的其他領域相關聯。

第2章演示了如何構建第一個NLP應用程序,一個情感分析器,并介紹了現代NLP模型的基礎知識——單詞嵌入和遞歸神經網絡(RNN)。

第3章介紹了自然語言處理應用的兩個重要組成部分,單詞和句子的嵌入,并演示了如何使用和訓練它們。

第4章討論了最簡單但最重要的NLP任務之一,句子分類,以及如何在這個任務中使用RNN。

第5章介紹了序列標注任務,如詞性標注和命名實體提取。它還涉及到一個相關的技術,語言建模。

第2部分介紹高級NLP主題,包括序列到序列模型、Transformer以及如何利用遷移學習和預先訓練過的語言模型來構建強大的NLP應用。

第6章介紹了序列到序列的模型,它將一個序列轉換為另一個序列。我們在一個小時內構建了一個簡單的機器翻譯系統和一個聊天機器人。

第7章討論了另一種流行的神經網絡結構,卷積神經網絡(CNN)。

第8章深入介紹了Transformer,它是當今最重要NLP模型之一。我們將演示如何使用Transformer構建改進的機器翻譯系統和拼寫檢查器。

第9章在前一章的基礎上,討論了遷移學習,這是現代NLP中的一種流行的技術,使用預先訓練過的語言模型,如BERT。

第3部分將討論與開發NLP應用程序相關的主題,這些應用程序對真實數據具有健壯性,并部署和服務它們。

第10章詳細介紹了開發NLP應用程序時的最佳實踐,包括批處理和填充、正則化和超參數優化。

第11章總結了如何部署和服務NLP模型。它還涵蓋了如何解釋和解釋ML模型。

付費5元查看完整內容

隨著新代碼、新項目和新章節的推出,第二版為讀者提供了一個堅實的機器學習基礎,并為讀者提供了一個完整的學習概念。由NASA噴氣推進實驗室副首席技術官和首席數據科學家Chris Mattmann編寫,所有的例子都伴隨著可下載的Jupyter筆記本,以親身體驗用Python編寫TensorFlow。新的和修訂的內容擴大了核心機器學習算法的覆蓋面,以及神經網絡的進步,如VGG-Face人臉識別分類器和深度語音分類器。

//www.manning.com/books/machine-learning-with-tensorflow-second-edition

使用TensorFlow的機器學習,第二版是使用Python和TensorFlow構建機器學習模型的完全指南。您將把核心ML概念應用于現實世界的挑戰,如情感分析、文本分類和圖像識別。實例演示了用于深度語音處理、面部識別和CIFAR-10自動編碼的神經網絡技術。

付費5元查看完整內容

通過調整預訓練的機器學習模型來解決特殊問題,在時間內建立自定義NLP模型。

在自然語言處理遷移學習中,您將學習:

  • 用新的領域數據對預訓練的模型進行微調
  • 選擇正確的模型來減少資源的使用
  • 用于神經網絡結構的遷移學習
  • 生成文本與生成預先訓練的Transformers
  • BERT跨語言遷移學習
  • 探索自然語言處理學術文獻的基礎

//www.manning.com/books/transfer-learning-for-natural-language-processing

從頭開始訓練深度學習NLP模型是昂貴的、耗時的,并且需要大量的數據。在自然語言處理的遷移學習中,DARPA研究員Paul Azunre揭示了前沿的遷移學習技術,可以將可定制的預訓練模型應用到您自己的NLP架構中。您將學習如何使用遷移學習為語言理解提供最先進的結果,即使使用有限的標簽數據。最重要的是,您將節省訓練時間和計算成本。

關于本書:

自然語言處理遷移學習教你通過構建現有的預訓練模型快速創建強大的NLP解決方案。這是一本非常有用的書,書中提供了一些非常清晰的概念解釋,你需要這些概念來學習轉學,同時也提供了一些實際的例子,這樣你就可以馬上練習你的新技能。隨著您的學習,您將應用最先進的遷移學習方法來創建垃圾郵件分類器、事實檢查器和更多的現實世界的應用程序。

付費5元查看完整內容

掌握使用PyTorch實現深度學習解決方案的實踐方面,使用實踐方法理解理論和實踐。Facebook的人工智能研究小組開發了一個名為PyTorch的平臺,該平臺擁有良好的理論基礎和實用技能,為你在現實世界中應用深度學習做好了準備。

首先,您將了解PyTorch的深度學習是如何以及為什么成為一種具有開創性的框架,它帶有一組工具和技術來解決現實世界中的問題。接下來,這本書將為你打下線性代數、向量微積分、概率和最優化的數學基礎。在建立了這個基礎之后,您將繼續討論PyTorch的關鍵組件和功能,包括層、損失函數和優化算法。

您還將了解基于圖形處理單元(GPU)的計算,這對訓練深度學習模型是必不可少的。介紹了深度學習的前饋網絡、卷積神經網絡、循環神經網絡、長短時記憶網絡、自動編碼器網絡和生成對抗網絡等關鍵網絡結構。在許多訓練和優化深度學習模型的技巧的支持下,這個版本的Python深度學習解釋了使用PyTorch將這些模型帶到生產中的最佳實踐。

你會: 回顧機器學習的基本原理,如過擬合、欠擬合和正則化。 了解深度學習的基本原理,如前饋網絡,卷積神經網絡,遞歸神經網絡,自動微分和隨機梯度下降。 使用PyTorch深入應用線性代數 探索PyTorch的基本原理及其構建塊 使用調優和優化模型

付費5元查看完整內容

圖像分類、目標檢測與跟蹤、姿態估計、人臉識別和情感估計在解決計算機視覺問題中都起著重要的作用。

本書將重點介紹這些和其他深度學習架構和技術,以幫助您創建使用Keras和TensorFlow庫的解決方案。您還將回顧多種神經網絡架構,包括LeNet、AlexNet、VGG、Inception、R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN、YOLO和SqueezeNet,并通過最佳實踐、技巧、捷徑和陷阱了解它們如何與Python代碼一起工作。所有代碼片段都將被分解并進行詳細討論,以便您可以在各自的環境中實現相同的原則。

使用深度學習的計算機視覺提供了一個全面而簡潔的指南,將DL和CV結合在一起,實現自動化操作,減少人工干預,提高能力,并降低成本。

你會:

  • 掌握深度學習的代碼和概念,將指導原則應用到您自己的項目中
  • 對各種體系結構進行分類和評估,以更好地理解您在各種用例中的選擇
  • 深入基本深度學習功能,找出它們是如何工作的。

不久前,計算機視覺還只是科幻小說的專屬內容,但現在,即使不是在整個社會,也正迅速成為各行各業的普遍現象。人類視覺是人類感官中最珍貴的一種,在模仿人類視覺這一領域取得的進展令人驚嘆。直到1957年,拉塞爾·基爾希才掃描出了世界上第一張照片——他兒子的黑白照片。到20世紀80年代末,西羅維奇和柯比的工作幫助人臉識別成為一種可行的生物識別技術。盡管存在隱私問題和法律挑戰,但Facebook在2010年將人臉識別技術納入其社交媒體平臺時,使這項技術無處不在。

這本書試圖解釋計算機視覺問題的深度學習和神經網絡的概念。我們正在詳細研究卷積神經網絡,以及它們的各個組成部分和屬性。我們正在探索各種神經網絡架構,如LeNet, AlexNet, VGG, R-CNN, Fast R-CNN, Faster R-CNN, SSD, YOLO, ResNet, Inception, DeepFace,和FaceNet的細節。我們還在開發實用的解決方案,以解決二值圖像分類、多類圖像分類、目標檢測、人臉識別和視頻分析的用例。我們將使用Python和Keras作為解決方案。所有的代碼和數據集被檢入GitHub repo快速訪問。在最后一章中,我們將學習深度學習項目中的所有步驟——從定義業務問題到部署。我們還在處理在制定解決方案時面臨的重大錯誤和問題。在這本書中,我們提供了訓練更好的算法的技巧和技巧,減少訓練時間,監測結果,并改進解決方案。我們也分享代表性的研究論文和數據集,你應該使用它們來獲得進一步的知識。

這本書把這個主題分成三部分。在第1章到第4章,本書描述了神經網絡的本質和揭秘他們如何學習。并指出了不同的架構及其歷史意義。實踐者在擁有所有所需資源的情況下,可以體驗到LeNet優雅的簡單性、AlexNet提高的效率以及流行的VGG Net。在第5至7章,從業人員運用簡單而強大的計算機視覺應用,如訓練算法來檢測物體和識別人臉。在進行視頻分析時,我們遇到了漸變消失和爆炸的困擾問題,以及如何在ResNet架構中使用跳過連接來克服它。最后,在第8章中,我們回顧了完整的模型開發過程,從正確定義的業務問題開始,系統地推進,直到模型在生產環境中部署和維護。

付費5元查看完整內容

近年來,自然語言處理的研究方法取得了一些突破。這些突破來源于兩個新的建模框架以及在計算和詞匯資源的可用性的改進。在這個研討會小冊子中,我們將回顧這些框架,以一種可以被視為現代自然語言處理開端的方法論開始:詞嵌入。我們將進一步討論將嵌入式集成到端到端可訓練方法中,即卷積神經網絡和遞歸神經網絡。這本小冊子的第二章將討論基于注意力的模型的影響,因為它們是最近大多數最先進的架構的基礎。因此,我們也將在本章中花很大一部分時間討論遷移學習方法在現代自然語言處理中的應用。最后一章將會是一個關于自然語言生成的說明性用例,用于評估最先進的模型的訓練前資源和基準任務/數據集。

//compstat-lmu.github.io/seminar_nlp_ss20/

在過去的幾十年里,人工智能技術的重要性和應用不斷得到關注。在當今時代,它已經與構成人類塑造環境的大部分環境密不可分。因此,商業、研究和開發、信息服務、工程、社會服務和醫學等無數部門已經不可逆轉地受到人工智能能力的影響。人工智能有三個主要領域組成了這項技術:語音識別、計算機視覺和自然語言處理(見Yeung (2020))。在這本書中,我們將仔細研究自然語言處理(NLP)的現代方法。

這本小冊子詳細介紹了用于自然語言處理的現代方法,如深度學習和遷移學習。此外,本研究亦會研究可用于訓練自然語言處理任務的資源,并會展示一個將自然語言處理應用于自然語言生成的用例。

為了分析和理解人類語言,自然語言處理程序需要從單詞和句子中提取信息。由于神經網絡和其他機器學習算法需要數字輸入來進行訓練,因此應用了使用密集向量表示單詞的詞嵌入。這些通常是通過有多個隱藏層的神經網絡學習的,深度神經網絡。為了解決容易的任務,可以應用簡單的結構神經網絡。為了克服這些簡單結構的局限性,采用了遞歸和卷積神經網絡。因此,遞歸神經網絡用于學習不需要預先定義最佳固定維數的序列的模型,卷積神經網絡用于句子分類。第二章簡要介紹了NLP中的深度學習。第三章將介紹現代自然語言處理的基礎和應用。在第四章和第五章中,將解釋和討論遞歸神經網絡和卷積神經網絡及其在自然語言處理中的應用。

遷移學習是每個任務或領域的學習模型的替代選擇。在這里,可以使用相關任務或領域的現有標記數據來訓練模型,并將其應用到感興趣的任務或領域。這種方法的優點是不需要在目標域中進行長時間的訓練,并且可以節省訓練模型的時間,同時仍然可以(在很大程度上)獲得更好的性能。遷移學習中使用的一個概念是注意力,它使解碼器能夠注意到整個輸入序列,或自注意,它允許一個Transformer 模型處理所有輸入單詞,并建模一個句子中所有單詞之間的關系,這使得快速建模一個句子中的長期依賴性成為可能。遷移學習的概念將在小冊子的第6章簡要介紹。第七章將通過ELMo、ULMFiT和GPT模型來描述遷移學習和LSTMs。第八章將詳細闡述注意力和自注意力的概念。第九章將遷移學習與自注意力相結合,介紹了BERT模型、GTP2模型和XLNet模型。

為NLP建模,需要資源。為了找到任務的最佳模型,可以使用基準測試。為了在基準實驗中比較不同的模型,需要諸如精確匹配、Fscore、困惑度或雙語評估替補學習或準確性等指標。小冊子的第十章簡要介紹了自然語言處理的資源及其使用方法。第11章將解釋不同的指標,深入了解基準數據集SQuAD、CoQa、GLUE和SuperGLUE、AQuA-Rat、SNLI和LAMBADA,以及可以找到資源的預訓練模型和數據庫,如“帶代碼的論文”和“大壞的NLP數據庫”。

在小冊子的最后一章中,介紹了生成性NLP處理自然語言生成,從而在人類語言中生成可理解的文本。因此,不同的算法將被描述,聊天機器人和圖像字幕將被展示,以說明應用的可能性。

本文對自然語言處理中各種方法的介紹是接下來討論的基礎。小冊子的各個章節將介紹現代的NLP方法,并提供了一個更詳細的討論,以及各種示例的潛力和限制。

付費5元查看完整內容
北京阿比特科技有限公司