亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

題目

不解析,生成!用于面向任務的語義分析的序列到序列體系結構,Don't Parse, Generate! A Sequence to Sequence Architecture for Task-Oriented Semantic Parsing

類型

自然語言語義解析

關鍵字

自然語言理解與生成,語義解析,智能搜索查詢,智能語音助手,機器學習

簡介

諸如Amazon Alexa,Apple Siri和GoogleAssistant之類的虛擬助手通常依靠語義解析組件來了解要執行哪些操作以使其用戶說出一句話。傳統上,基于規則或統計空位填充系統曾被用來解析“簡單”查詢;也就是說,包含單個動作的查詢可以分解為一組不重疊的實體。最近,提出了移位減少解析器來處理更復雜的話語。這些方法雖然功能強大,但對可以解析的查詢類型施加了特定的限制。在這項工作中,我們提出了一種基于順序序列模型和指針生成器網絡的統一體系結構,以處理簡單查詢和復雜查詢。與其他作品不同,我們的方法不對語義剖析施加任何限制。此外,實驗表明,它在三個公開可用的數據集(ATIS,SNIPS,Facebook TOP)上均達到了最先進的性能,與以前的系統相比,不精確匹配的準確性相對提高了3.3%至7.7%。最后,我們在兩個內部數據集上展示了我們的方法的有效性。

作者

Subendhu Rongali?,馬薩諸塞大學阿默斯特分校

Luca Soldaini,亞馬遜Alexa搜索

Wael Hamza,亞馬遜Alexa

Emilio Monti,亞馬遜Alexa AI

付費5元查看完整內容

相關內容

自然語言處理(NLP)是語言學,計算機科學,信息工程和人工智能的一個子領域,與計算機和人類(自然)語言之間的相互作用有關,尤其是如何對計算機進行編程以處理和分析大量自然語言數據 。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

題目: Natural Language Processing and Query Expansion

簡介:

大量知識資源的可用性刺激了開發和增強信息檢索技術的大量工作。用戶的信息需求以自然語言表達,成功的檢索很大程度上取決于預期目的的有效溝通。自然語言查詢包含多種語言功能,這些語言功能代表了預期的搜索目標。導致語義歧義和對查詢的誤解以及其他因素(例如,對搜索環境缺乏了解)的語言特征會影響用戶準確表示其信息需求的能力,這是由概念意圖差距造成的。后者直接影響返回的搜索結果的相關性,而這可能不會使用戶滿意,因此是影響信息檢索系統有效性的主要問題。我們討論的核心是通過手動或自動捕獲有意義的術語,短語甚至潛在的表示形式來識別表征查詢意圖及其豐富特征的重要組成部分,以手動或自動捕獲它們的預期含義。具體而言,我們討論了實現豐富化的技術,尤其是那些利用從文檔語料庫中的術語相關性的統計處理或從諸如本體之類的外部知識源中收集的信息的技術。我們提出了基于通用語言的查詢擴展框架的結構,并提出了基于模塊的分解,涵蓋了來自查詢處理,信息檢索,計算語言學和本體工程的主題問題。對于每個模塊,我們都會根據所使用的技術回顧分類和分析的文獻中的最新解決方案。

付費5元查看完整內容

由于任務型對話系統在人機交互和自然語言處理中的重要意義和價值,越來越受到學術界和工業界的重視。在這篇論文中,我們以一個具體問題的方式綜述了最近的進展和挑戰。我們討論三個關鍵主題面向任務對話框系統: (1)提高數據效率促進對話系統建模在資源匱乏的設置,(2)建模多輪動態對話框策略學習獲得更好的完成任務的性能,和(3)將領域本體知識集成到模型在管道和端到端模型所示的對話框。本文還綜述了近年來對話評價的研究進展和一些被廣泛使用的語料庫。我們相信這項綜述可以為未來面向任務的對話系統的研究提供一些啟示。

付費5元查看完整內容

題目: Towards Hierarchical Importance Attribution:explaining compositional semantics for Neural Sequence Models

摘要:

深度神經網絡在處理復雜的自然語言語義方面取得了令人印象深刻的成績,但大多數情況下被當作黑匣子。為了解釋該模型如何處理單詞和短語的組合語義,我們研究了層次解釋問題。我們強調的關鍵挑戰是計算非附加和上下文無關的單個單詞和短語的重要性。我們展示了之前在層次解釋上的一些努力,例如上下文分解,在數學上不能滿足期望的屬性,導致不同模型的解釋質量不一致。在本文中,我們提出了一種形式化的方法來量化每個詞或短語的重要性,從而產生層次解釋。我們根據我們的公式修改了上下文分解算法,并提出了一個具有競爭性能的與模型無關的解釋算法。對LSTM模型和對多個數據集的微調BERT Transformer模型進行人工評估和自動度量評估表明,我們的算法在層次解釋方面明顯優于先前的工作。我們展示了我們的算法有助于解釋語義的組合性,提取分類規則,提高模型的人類可信度。

付費5元查看完整內容

題目

Ranking architectures using meta-learning

簡介

神經架構搜索(Neural architecture search)最近吸引了大量的研究工作,因為它有望實現神經網絡手動設計的自動化。然而,它需要大量的計算資源,為了緩解這一問題,最近提出了一種性能預測網絡,它可以通過預測候選體系結構的性能來實現高效的體系結構搜索,而不依賴于實際的模型訓練。性能預測器是任務感知的,不僅作為候選體系結構的輸入,而且作為任務元特性的輸入,它被設計為從多個任務中共同學習。在這項工作中,我們引入了一個成對排序損失,用于訓練一個網絡,該網絡能夠根據其任務元特征,為一個新的不可見任務條件排列候選架構。我們給出了實驗結果,表明該排序網絡比先前提出的性能預測器在架構搜索方面更有效。

作者

Alina Dubatovka,Efi Kokiopoulou,Luciano Sbaiz,Andrea Gesmundo,Gábor Bartók,Jesse Berent來自于Google AI團隊

付費5元查看完整內容

題目: Generative Teaching Networks: Accelerating Neural Architecture Search by Learning to Generate Synthetic Training Data

摘要:

這篇論文探討了一個有趣的問題,即我們是否可以創建自動生成訓練數據、學習環境和課程的學習算法,以幫助人工智能智能體快速學習。我們證明了這種算法可以通過生成式教學網絡(GTNs)來實現,生成式教學網絡是一種理論上適用于有監督、無監督和強化學習的通用方法,盡管我們的實驗只關注有監督的情況。GTNS是生成數據和訓練環境的深度神經網絡,學習者(例如,一個新初始化的神經網絡)在對目標任務進行測試之前需要進行幾個SGD步驟的訓練。然后,我們通過元梯度來區分整個學習過程,更新GTN參數,以提高目標任務的性能。GTNS的有益特性是,理論上它們可以生成任何類型的數據或培訓環境,從而使它們的潛在影響很大。本文介紹了GTNS,討論了它們的潛力,并展示了它們可以極大地加速學習。我們還演示了一個實際的和令人興奮的應用:加速評估候選架構的神經架構搜索(NAS),這是由這種評估的速度限制,使大量的加速在NAS。GTN-NAS改進了NAS的狀態,在控制搜索建議機制時可以找到性能更好的架構。GTN-NAS還可以與現有的最先進的方法相競爭,這些方法在使用比典型NAS方法少幾個數量級的計算量的情況下獲得最佳性能。展望未來,GTNs可能代表著朝著算法的宏偉目標邁出的第一步,算法可以生成自己的訓練數據,并在此過程中打開各種有趣的新研究問題和方向。

作者簡介:

Felipe Petroski Such是一位專注于深度神經進化、強化學習和高性能計算的科學家。在加入Uber AI實驗室之前,他獲得了RIT的BS/MS學位,在那里他開發了圖形應用和ICR的深度學習架構,以及使用fpga的硬件加速。

Aditya RawalAditya Rawal是Uber AI實驗室的研究科學家。他的興趣在于兩個研究領域的融合——神經進化和深度學習。在此之前,Aditya在奧斯汀的德克薩斯大學獲得了計算機科學的碩士/博士學位,在他的博士期間,他開發了神經進化算法來進化序列預測問題的遞推架構,并構建了合作、競爭和交流的多主體系統。

Joel Lehman之前是哥本哈根IT大學的助理教授,研究神經網絡、進化算法和強化學習。

付費5元查看完整內容

End-to-end networks trained for task-oriented dialog, such as for recommending restaurants to a user, suffer from out-of-vocabulary (OOV) problem -- the entities in the Knowledge Base (KB) may not be seen by the network at training time, making it hard to use them in dialog. We propose a novel Hierarchical Pointer Generator Memory Network (HyP-MN), in which the next word may be generated from the decode vocabulary or copied from a hierarchical memory maintaining KB results and previous utterances. This hierarchical memory layout along with a novel KB dropout helps to alleviate the OOV problem. Evaluating over the dialog bAbI tasks, we find that HyP-MN outperforms state-of-the-art results, with considerable improvements (10% on OOV test set). HyP-MN also achieves competitive performances on various real-world datasets such as CamRest676 and In-car assistant dataset.

北京阿比特科技有限公司