機器學習和深度學習模型在廣泛的NLP問題上取得了巨大的成功。然而,這些模型中的大多數都是黑框的,缺乏決策過程背后的透明度。此外,傳統的方法高度依賴注釋數據,而忽略了來自領域專家的重要知識。
本講座將涵蓋三個主動的基于知識的機器推理管道。在第一部分中,我將討論一階邏輯,從介紹它的標準推理算法到最近在NLP中的擴展,包括神經證明和正則化具有邏輯約束的神經模型。
在第二部分,我將介紹神經符號模型,它配備了邏輯形式,可以執行/與環境交互。應用將包括具有離散執行器的語義解析器和以端到端方式學習的邏輯形式指導的神經模塊模型。在第三部分,我將介紹基于證據的模型,通過單輪或多輪檢索使用外部證據。
原型驅動的文本生成使用非參數模型,該模型首先從句子庫中選擇“原型”,然后修改原型生成輸出文本。這些方法雖然有效,但測試時效率低下,因為需要對整個訓練語料庫進行存儲和索引。此外,現有的方法通常需要啟發式來確定在訓練時引用哪個原型。在本文中,我們提出了一種新的生成模型,它可以自動學習稀疏原型支持集,同時也可以獲得較強的語言建模性能。通過(1)在原型選擇分布上施加稀疏誘導先驗,(2)利用平攤變分推理學習原型檢索函數來實現。在實驗中,我們的模型優于以前的原型驅動的語言模型,同時實現了高達1000倍的內存減少,以及測試時1000倍的加速。更有趣的是,當我們改變原型選擇的稀疏性時,我們展示了學習的原型能夠在不同的粒度捕獲語義和語法,并且可以通過指定生成的原型來控制某些句子屬性。
EMNLP(Conference on Empirical Methods in Natural Language Processing)是計算語言學和自然語言處理領域的頂級國際會議,由ACL旗下SIGDAT組織,每年舉辦一次,Google Scholar計算語言學刊物指標中排名第二,是CCF-B類推薦會議。今年EMNLP 2020將于2020年11月16日至20日以在線會議的形式舉辦。本篇為大家帶來EMNLP2020在線Tutorial《Interpreting Predictions of NLP Models》教程,系統性講解了自然語言處理模型可解釋性預測,不可錯過!
雖然神經NLP模型具有高度的表示學習能力和良好性能,但它們也會以違反直覺的方式系統性失敗,并且在決策過程中不透明。本教程將提供可解釋技術的背景知識,即可解釋NLP模型預測的方法。我們將首先將具體實例的解釋置于理解模型的其他方法的上下文中(例如,探測,數據集分析)。接下來,我們將全面研究具體例子的解釋,包括顯著性映射、輸入擾動(例如LIME、輸入減少)、對抗性攻擊和影響函數。除了這些描述之外,我們還將介紹為各種NLP任務創建和可視化解釋的源代碼。最后,我們將討論該領域的開放問題,如評價、擴展和改進解釋方法。
//github.com/Eric-Wallace/interpretability-tutorial-emnlp2020/
自然語言處理中的預訓練模型
論文:【復旦大學】最新《預訓練語言模型》2020綜述論文大全,50+PTMs分類體系,25頁pdf205篇參考文獻
目前預訓練模型在自然語言處理領域取得了廣泛的成功。本報告的內容主要涵蓋以下4部分內容:1)預訓練模型的原理介紹,包括模型結構、學習準則、發展歷程等;2)預訓練模型的遷移方法:包括如何通過任務轉換、多步遷移、改進精調等方法來進一步提高預訓練模型在下游任務上的性能;3)預訓練模型的改進模型:包括知識嵌入模型、多模態模型、多語言模型、語言特定模型、領域特定模型和模型壓縮等;4)對預訓練模型及其未來發展趨勢進行展望。
當前自然語言處理的發展為低資源語言和領域提供了挑戰和機遇。眾所周知,深度神經網絡需要大量的訓練數據,而這些數據在資源貧乏的情況下可能無法得到。然而,也有越來越多的工作來提高低資源環境下的性能。基于對神經模型的基本改變和目前流行的預訓練和微調范式,我們概述了低資源自然語言處理的有前途的方法。在討論了低資源場景的定義和數據可用性的不同維度之后,我們接著研究了在訓練數據稀少時支持學習的方法。這包括創建附加標簽數據的機制,如數據增強和遠程監督,以及轉移學習設置,以減少對目標監督的需要。調查結束時,簡要地看了一下在非NLP機器學習社區中建議的方法,這些方法在資源少的情況下可能對NLP有益。
哈工大訊飛聯合實驗室(HFL)資深級研究員、研究主管崔一鳴受邀在NLPCC 2020會議做題為《Revisiting Pre-trained Models for Natural Language Processing》的講習班報告(Tutorial),介紹了預訓練語言模型的發展歷程以及近期的研究熱點。本期推送文末提供了報告的下載方式。
NLPCC 2020 Tutorials:
//tcci.ccf.org.cn/conference/2020/tutorials.php
預訓練語言模型(PLM)已經成為最近自然語言處理研究的基本元素。在本教程中,我們將回顧文本表示的技術進展,即從一個熱點嵌入到最近的PLMs。我們將介紹幾種流行的PLMs(如BERT、XLNet、RoBERTa、ALBERT、ELECTRA等)及其技術細節和應用。另一方面,我們也將介紹中國plm的各種努力。在演講的最后,我們將分析目前PLMs的不足之處,并展望未來的研究方向。
自然語言處理中的預訓練模型
論文:【復旦大學】最新《預訓練語言模型》2020綜述論文大全,50+PTMs分類體系,25頁pdf205篇參考文獻
目前預訓練模型在自然語言處理領域取得了廣泛的成功。本報告的內容主要涵蓋以下4部分內容:1)預訓練模型的原理介紹,包括模型結構、學習準則、發展歷程等;2)預訓練模型的遷移方法:包括如何通過任務轉換、多步遷移、改進精調等方法來進一步提高預訓練模型在下游任務上的性能;3)預訓練模型的改進模型:包括知識嵌入模型、多模態模型、多語言模型、語言特定模型、領域特定模型和模型壓縮等;4)對預訓練模型及其未來發展趨勢進行展望。
自然語言處理(NLP)幫助智能機器更好地理解人類語言,實現基于語言的人機交流。計算能力的最新發展和大量語言數據的出現,增加了使用數據驅動方法自動進行語義分析的需求。由于深度學習方法在計算機視覺、自動語音識別,特別是NLP等領域的應用取得了顯著的進步,數據驅動策略的應用已經非常普遍。本調查對得益于深度學習的NLP的不同方面和應用進行了分類和討論。它涵蓋了核心的NLP任務和應用,并描述了深度學習方法和模型如何推進這些領域。我們進一步分析和比較不同的方法和最先進的模型。