自然語言處理中的預訓練模型
論文:【復旦大學】最新《預訓練語言模型》2020綜述論文大全,50+PTMs分類體系,25頁pdf205篇參考文獻
目前預訓練模型在自然語言處理領域取得了廣泛的成功。本報告的內容主要涵蓋以下4部分內容:1)預訓練模型的原理介紹,包括模型結構、學習準則、發展歷程等;2)預訓練模型的遷移方法:包括如何通過任務轉換、多步遷移、改進精調等方法來進一步提高預訓練模型在下游任務上的性能;3)預訓練模型的改進模型:包括知識嵌入模型、多模態模型、多語言模型、語言特定模型、領域特定模型和模型壓縮等;4)對預訓練模型及其未來發展趨勢進行展望。
//cea.ceaj.org/CN/abstract/abstract39198.shtml
近年來,深度學習技術被廣泛應用于各個領域,基于深度學習的預處理模型將自然語言處理帶入一個新時代。預訓練模型的目標是如何使預訓練好的模型處于良好的初始狀態,在下游任務中達到更好的性能表現。對預訓練技術及其發展歷史進行介紹,并按照模型特點劃分為基于概率統計的傳統模型和基于深度學習的新式模型進行綜述;簡要分析傳統預訓練模型的特點及局限性,重點介紹基于深度學習的預訓練模型,并針對它們在下游任務的表現進行對比評估;梳理出具有啟發意義的新式預訓練模型,簡述這些模型的改進機制以及在下游任務中取得的性能提升;總結目前預訓練的模型所面臨的問題,并對后續發展趨勢進行展望。
注意力是一種在廣泛的神經結構中使用的越來越流行的機制。由于這一領域的快速發展,仍然缺乏對注意力的系統概述。在本文中,我們定義了用于自然語言處理的注意力體系結構的統一模型,重點介紹了用于文本數據的向量表示的體系結構。我們討論了以往工作的不同方面,注意力機制的可能用途,并描述了該領域的主要研究工作和公開挑戰。
//web.eecs.umich.edu/~justincj/slides/eecs498/FA2020/598_FA2020_lecture13.pdf
自然語言處理中的預訓練模型
論文:【復旦大學】最新《預訓練語言模型》2020綜述論文大全,50+PTMs分類體系,25頁pdf205篇參考文獻
目前預訓練模型在自然語言處理領域取得了廣泛的成功。本報告的內容主要涵蓋以下4部分內容:1)預訓練模型的原理介紹,包括模型結構、學習準則、發展歷程等;2)預訓練模型的遷移方法:包括如何通過任務轉換、多步遷移、改進精調等方法來進一步提高預訓練模型在下游任務上的性能;3)預訓練模型的改進模型:包括知識嵌入模型、多模態模型、多語言模型、語言特定模型、領域特定模型和模型壓縮等;4)對預訓練模型及其未來發展趨勢進行展望。
自然語言處理中的自注意力模型
目前自注意力模型(比如Transformer)在自然語言處理領域取得了廣泛的成功。本報告主要介紹自注意力模型方面的一些工作,主要涵蓋兩部分內容:1)Transformer及其改進模型:通過分析Transformer的基本原理和優缺點,提出一些改進模型Star-Transformer、Multi-Scale Transformer、BP-Transformer等。2)Transformer模型的應用:將Transformer模型應用在文本分類、實體名識別等自然語言任務上,并通過針對性的改進來進一步提高性能。最后,對Transformer模型及其未來發展趨勢進行展望。
【導讀】這一份最新216頁的ppt概述《深度學習自然語言處理》,包括神經網絡基礎,詞向量表示,序列句子表示,分類標注、生成句子,預訓練。
題目
自然語言處理中的遷移學習,41 頁PPT
關鍵字
自然語言處理,遷移學習
簡介
本教程,將系統地介紹在自然語言處理中,遷移學習的應用。
內容
題目: 自然語言處理中的表示學習進展:從Transfomer到BERT
報告人: 邱錫鵬 博士 復旦大學
摘要: 目前全連接自注意力模型(比如Transformer)在自然語言處理領域取得了廣泛的成功。本報告主要介紹我們在自注意力模型方面的一些工作,主要涵蓋兩部分內容:1)Transformer及其改進模型:通過分析Transformer的基本原理和優缺點,提出一些改進模型Star-Transformer、Multi-Scale Transformer等。2)預訓練的Transformer模型的遷移方法:雖然預訓練的Transformer模型(比如BERT、GPT等)在很多自然語言任務上都取得了非常好的性能,我們通過任務轉換、繼續預訓練、多任務學習等方法來進一步提高其遷移能力。最后,對Transformer模型及其未來發展趨勢進行展望。