論文題目: Neural Reading Comprehension And Beyond
論文摘要: 教機器理解人類語言文件是人工智能中最難以捉摸和長期存在的挑戰之一。本文研究的是閱讀理解問題:如何建立計算機系統來閱讀一篇文章并回答理解問題。一方面,我們認為閱讀理解是評估計算機系統對人類語言理解程度的重要任務。另一方面,如果我們能建立一個高性能的閱讀理解系統,它們將是問答和對話等應用的關鍵技術系統。在這篇論文中,我們關注的是神經閱讀理解:一類建立在深層神經網絡之上的閱讀理解模型。與傳統的稀疏的、手工設計的基于特征的模型相比,這些端到端的神經模型在學習豐富的語言現象和提高現代閱讀理解基準上的性能方面有了很大的提高。在第一部分中,我們將討論神經的本質閱讀理解和目前我們努力建立有效的神經閱讀理解模型,更重要的是,了解神經閱讀理解模型實際上學到了什么,需要解決語言理解的深度是什么當前任務。我們還總結了這一領域的最新進展,并討論了未來的發展方向和有待解決的問題。在本論文的第二部分,我們將探討如何在最近神經閱讀理解的成功基礎上建立實際的應用。特別是我們開創了兩個新的研究方向:1)如何將信息檢索技術與神經閱讀理解相結合,解決大規模的開放領域問題回答;2)如何從現有的單輪、基于廣域的閱讀理解模型構建會話式問題回答系統。我們在DRQA和coqa項目中實現了這些想法,并證明了這些方法的有效性。我們相信他們對未來的語言技術有很大的希望。
下載鏈接: //stacks.stanford.edu/file/druid:gd576xb1833/thesis-augmented.pdf
【簡介】自然語言處理(NLP)能夠幫助智能型機器更好地理解人類的語言,實現基于語言的人機交流。目前隨著計算能力的發展和大量語言數據的出現,推動了使用數據驅動方法自動進行語義分析的需求。由于深度學習方法在計算機視覺、自動語音識別,特別是NLP等領域取得了顯著的進步,數據驅動策略的應用已經非常的普遍。本綜述對NLP領域中所應用的深度學習進行了分類和討論。它涵蓋了NLP的核心任務和應用領域,并對深度學習方法如何推進這些領域的發展進行了細致的描述。最后我們進一步分析和比較了不同的方法和目前最先進的模型。
原文連接://arxiv.org/abs/2003.01200
介紹
自然語言處理(NLP)是計算機科學的一個分支,能夠為自然語言和計算機之間提高溝通的橋梁。它幫助機器理解、處理和分析人類語言。NLP通過深入地理解數據的上下文,使得數據變得更有意義,這反過來又促進了文本分析和數據挖掘。NLP通過人類的通信結構和通信模式來實現這一點。這篇綜述涵蓋了深度學習在NLP領域中所扮演的新角色以及各種應用。我們的研究主要集中在架構上,很少討論具體的應用程序。另一方面,本文描述了將深度學習應用于NLP問題中時所面臨的挑戰、機遇以及效果評估方式。
章節目錄
section 2: 在理論層面介紹了NLP和人工智能,并將深度學習視為解決現實問題的一種方法。
section 3:討論理解NLP所必需的基本概念,包括各種表示法、模型框架和機器學習中的示例性問題。
section 4:總結了應用在NLP領域中的基準數據集。
section 5:重點介紹一些已經被證明在NLP任務中有顯著效果的深度學習方法。
section 6:進行總結,同時解決了一些開放的問題和有希望改善的領域。
題目: Neural Machine Reading Comprehension:Methods and Trends
摘要: 近年來,隨著深度學習的出現,要求機器根據給定的語境回答問題的機器閱讀理解(MRC)越來越受到廣泛的關注。雖然基于深度學習的MRC研究方興未艾,但目前還缺乏一篇全面的綜述文章來總結本文提出的方法和近期的發展趨勢。因此,我們對這一有希望的領域的最新研究工作進行了全面的綜述。具體來說,我們比較了不同維度的MRC任務,并介紹了其總體架構。我們進一步提供了流行模型中使用的最新方法的分類。最后,我們討論了一些新的趨勢,并通過描述該領域的一些開放性問題得出結論。
論文題目: Introduction to Neural Network based Approaches for Question Answering over Knowledge Graphs
論文摘要: 問答作為一種直觀的查詢結構化數據源的方法已經出現,并在過去幾年中取得了重大進展。在這篇文章中,我們概述了這些最新的進展,重點是基于神經網絡的知識圖問答系統。我們向讀者介紹任務中的挑戰、當前的方法范例,討論顯著的進展,并概述該領域的新趨勢。通過本文,我們的目標是為新進入該領域的人員提供一個合適的切入點,并簡化他們在創建自己的QA系統的同時做出明智決策的過程。
Reading comprehension (RC) has been studied in a variety of datasets with the boosted performance brought by deep neural networks. However, the generalization capability of these models across different domains remains unclear. To alleviate this issue, we are going to investigate unsupervised domain adaptation on RC, wherein a model is trained on labeled source domain and to be applied to the target domain with only unlabeled samples. We first show that even with the powerful BERT contextual representation, the performance is still unsatisfactory when the model trained on one dataset is directly applied to another target dataset. To solve this, we provide a novel conditional adversarial self-training method (CASe). Specifically, our approach leverages a BERT model fine-tuned on the source dataset along with the confidence filtering to generate reliable pseudo-labeled samples in the target domain for self-training. On the other hand, it further reduces domain distribution discrepancy through conditional adversarial learning across domains. Extensive experiments show our approach achieves comparable accuracy to supervised models on multiple large-scale benchmark datasets.
教機器理解人類語言文檔是人工智能中最難以捉摸和長期存在的挑戰之一。本文探討了閱讀理解的問題:如何構建計算機系統來閱讀文章和回答理解問題。一方面,我們認為閱讀理解是評價計算機系統對人類語言理解程度的一項重要任務。另一方面,如果我們能夠構建高性能的閱讀理解系統,那么它將成為問答和對話系統等應用的關鍵技術。本文以神經閱讀理解為研究對象:一種基于深度神經網絡的閱讀理解模型。與傳統的稀疏的、手工設計的基于特征的模型相比,這些端到端神經模型在學習豐富的語言現象方面更加有效,并且在所有現代閱讀理解基準上的表現都有很大的提高。本文由兩部分組成。第一部分是對神經閱讀理解的本質進行概括,介紹我們在構建有效的神經閱讀理解模型方面所做的努力,更重要的是了解神經閱讀理解模型實際學到了什么,以及解決當前任務需要什么樣的語言理解深度。我們還總結了該領域的最新進展,討論了該領域的未來發展方向和有待解決的問題。在本文的第二部分,我們探討了如何在最近神經閱讀理解成功的基礎上建立實際應用。特別是,我們開創了兩個新的研究方向:1)如何將信息檢索技術與神經閱讀理解相結合,解決大規模開放領域的問題;(2)如何從當前的單圈、跨步閱讀理解模式中構建會話問答系統。我們在DrQA和CoQA項目中實現了這些想法,并證明了這些方法的有效性。我們相信他們對推動未來的語言技術有很大幫助。
Commonsense knowledge plays an important role when we read. The performance of BERT on SQuAD dataset shows that the accuracy of BERT can be better than human users. However, it does not mean that computers can surpass the human being in reading comprehension. CommonsenseQA is a large-scale dataset which is designed based on commonsense knowledge. BERT only achieved an accuracy of 55.9% on it. The result shows that computers cannot apply commonsense knowledge like human beings to answer questions. Comprehension Ability Test (CAT) divided the reading comprehension ability at four levels. We can achieve human like comprehension ability level by level. BERT has performed well at level 1 which does not require common knowledge. In this research, we propose a system which aims to allow computers to read articles and answer related questions with commonsense knowledge like a human being for CAT level 2. This system consists of three parts. Firstly, we built a commonsense knowledge graph; and then automatically constructed the commonsense knowledge question dataset according to it. Finally, BERT is combined with the commonsense knowledge to achieve the reading comprehension ability at CAT level 2. Experiments show that it can pass the CAT as long as the required common knowledge is included in the knowledge base.
This paper focuses on how to take advantage of external relational knowledge to improve machine reading comprehension (MRC) with multi-task learning. Most of the traditional methods in MRC assume that the knowledge used to get the correct answer generally exists in the given documents. However, in real-world task, part of knowledge may not be mentioned and machines should be equipped with the ability to leverage external knowledge. In this paper, we integrate relational knowledge into MRC model for commonsense reasoning. Specifically, based on a pre-trained language model (LM). We design two auxiliary relation-aware tasks to predict if there exists any commonsense relation and what is the relation type between two words, in order to better model the interactions between document and candidate answer option. We conduct experiments on two multi-choice benchmark datasets: the SemEval-2018 Task 11 and the Cloze Story Test. The experimental results demonstrate the effectiveness of the proposed method, which achieves superior performance compared with the comparable baselines on both datasets.