計算語言學國際會議 COLING 2020(The 28th International Conference on Computational Linguistics)是計算語言學和自然語言處理領域的重要國際會議,由ICCL(International Committee on Computational Linguistics)主辦,每兩年舉辦一次,是CCF-B類推薦會議。本屆COLING 2020將于2020年12月8日至13日以在線會議的形式舉辦。COLING 2020共計收到2180篇論文投稿,其中包括2021篇主會投稿、48篇Demo投稿、111篇工業論文投稿,最終有1900余篇論文進入審稿流程。官方Twitter公布了最佳論文。
EMNLP 2020(2020 Conference on Empirical Methods in Natural Language Processing)將于2020年11月16日至20日以在線會議的形式舉辦。EMNLP是計算語言學和自然語言處理領域頂級國際會議之一,CCF B類會議,由ACL SIGDAT(語言學數據特殊興趣小組)主辦,每年舉辦一次。
EMNLP 2020共收到有效投稿3114篇,錄用754篇,錄用率為24.82%。
EMNLP 2020(2020 Conference on Empirical Methods in Natural Language Processing)將于2020年11月16日至20日以在線會議的形式舉辦。EMNLP是計算語言學和自然語言處理領域頂級國際會議之一,CCF B類會議,由ACL SIGDAT(語言學數據特殊興趣小組)主辦,每年舉辦一次。
EMNLP 2020共收到有效投稿3114篇,錄用754篇,錄用率為24.82%。此外,因為高質量的論文越來越多超出了EMNLP會議本身所能容納的范圍,今年EMNLP新增了Findings of EMNLP這一子刊,它將接納那些未被主會錄用但是被程序委員會評價為值得出版的文章,此次Findings of EMNLP共接收了520篇文章。EMNLP 2020接收的論文覆蓋了對話交互系統、信息抽取、信息檢索和文檔分析、詞法語義、語言學理論、認知建模和心理語言學、用于NLP的機器學習、機器翻譯與多語言、問答、句子級語義學、情感分析和論點挖掘、文本挖掘和NLP應用、文本推理等自然語言處理領域眾多研究方向。
哈爾濱工業大學社會計算與信息檢索研究中心有九篇長文被錄用,其中四篇被主會錄用,五篇被Findings of EMNLP子刊錄用。下面是論文列表及介紹:
01
題目:Combining Self-Training and Self-Supervised Learning for Unsupervised Disfluency Detection 作者:王少磊,王重元,車萬翔,劉挺 錄用類別:主會 簡介:目前大部分在文本順滑(Disfluency Detection)任務上的工作都嚴重依賴人工標注數據。有一些工作嘗試用自監督方法(self-supervised)來緩解這個問題,但是他們的方法仍然依賴于有標注數據。在本工作中,我們首次嘗試用無監督的方法來解決文本順滑問題。我們通過結合自學習(self-training)和自監督兩種方法,在不采用任何有標注訓練數據的情況下,取得了跟目前最好的有監督方法接近的效果。
02
題目:Recall and Learn: Fine-tuning Deep Pretrained Language Models with Less Forgetting 作者:陳三元,侯宇泰,崔一鳴,車萬翔,劉挺,余翔湛 錄用類別:主會 簡介:深層預訓練模型在“預訓練+精調”模式中取得了巨大成功。但這種遷移學習方法通常會碰到“災難性遺忘”問題并且會導致次優結果。為了在精調過程中減少“災難性遺忘”問題,我們提出了一種“recall and learn”的方法來同時學習預訓練任務和下游任務。具體地,我們提出了一種模擬預訓練機制,在不使用數據的情況下回憶預訓練任務所帶來的知識;同時提出了一種目標轉移機制來逐步學習下游任務。實驗結果表明我們的方法可以在GLUE任務上獲得state-of-the-art效果。同時,BERT-base在應用了我們的方法后能夠超過直接精調BERT-large的效果。我們已經將RecAdam優化器進行開源://github.com/Sanyuan-Chen/RecAdam。
03
題目:Pro?le Consistency Identi?cation for Open-domain Dialogue Agents 作者:宋皓宇,王琰,張偉男,趙正宇,劉挺,劉曉江 錄用類別:主會 簡介:保持一致的角色屬性是對話系統自然地與人類進行交流的關鍵因素之一。現有的關于提高屬性一致性的研究主要探索了如何將屬性信息融合到對話回復中,但是很少有人研究如何理解、識別對話系統的回復與其屬性之間的一致性關系。在這項工作中,為了研究如何識別開放域對話的屬性一致性,我們構建了一個大規模的人工標注數據集KvPI,該數據集包含了超過11萬組的單輪對話及其鍵值對屬性信息。對話回復和鍵值對屬性信息之間的一致性關系是通過人工進行標注的。在此基礎上,我們提出了一個鍵值對結構信息增強的BERT模型來識別回復的屬性一致性。該模型的準確率相較于強基線模型獲得了顯著的提高。更進一步,我們在兩個下游任務上驗證了屬性一致性識別模型的效果。實驗結果表明,屬性一致性識別模型有助于提高開放域對話回復的一致性。
04
題目:Counterfactual Off-Policy Training for Neural Dialogue Generation 作者:朱慶福,張偉男,劉挺,William Wang 錄用類別:主會 簡介:開放域對話系統由于潛在回復數量過大而存在著訓練數據不足的問題。我們在本文中提出了一種利用反事實推理來探索潛在回復的方法。給定現實中觀測到的回復,反事實推理模型會自動推理:如果執行一個現實中未發生的替代策略會得到什么結果?這種后驗推理得到的反事實回復相比隨機合成的回復質量更高。在對抗訓練框架下,使用反事實回復來訓練模型將有助于探索潛在回復空間中獎勵信號更高的區域。在DailyDialog數據集上的實驗結果表明,我們的方法顯著優于HRED模型和傳統的對抗訓練方法。
05
題目:A Compare Aggregate Transformer for Understanding Document-grounded Dialogue 作者:馬龍軒,張偉男,孫潤鑫,劉挺 錄用類別:Findings of EMNLP 子刊 簡介:基于文檔的對話是指針對給定文檔進行多輪對話。先前的工作主要關注如何利用對話歷史篩選合適的文檔信息,利用篩選出的信息生成對話回復。但對話歷史不一定與當前對話完全相關。如果不區分歷史對話和當前對話之間的相關性,將導致在生成回復時引入無關噪音。因此本文提出了一種"對比聚合"的Transformer結構,將對話歷史進行降噪處理,并聚合文檔信息以生成回復。在公開數據集CMU_DoG上的實驗表明,我們提出的模型優于最新的基線模型。代碼和數據將在Github中發布。
06
題目:Towards Fine-Grained Transfer: An Adaptive Graph-Interactive Framework for Joint Multiple Intent Detection and Slot Filling 作者:覃立波、徐嘯、車萬翔、劉挺 錄用類別:Findings of EMNLP 子刊 簡介:在現實世界中,用戶在同一個話語中通常有多個意圖。遺憾的是,大多數口語理解(SLU)模型要么主要集中于單一意圖場景,要么簡單地將所有意圖信息整合到一個統一的向量去指導槽位填充,忽略了細粒度的多意圖信息整合。在本文中,我們提出了一個自適應圖交互框架(AGIF),用于聯合多意圖檢測和槽位填充。AGIF通過引入意圖-槽位的圖交互層,來建模槽位和多意圖之間的相關性。這種交互層能夠自適應地應用于每個單詞,可以自動為每個槽位分別捕獲相關的意圖信息,從而為單詞級別的槽位填充進行細粒度的意圖信息指導。實驗結果表明,我們的方法不僅在兩套多意圖數據集上獲得了SOTA結果,而且還在兩個單意圖的數據集上實現了更好的性能。
07
題目:Enhancing Content Planning for Table-to-Text Generation with Data Understanding and Verification 作者:龔恒,閉瑋,馮驍騁,秦兵,劉曉江,劉挺 錄用類別:Findings of EMNLP 子刊 簡介:基于神經網絡的表格到文本生成模型可以選擇和排序重要數據,并通過surface realization階段來流暢地用文字表達它們。分析已有工作的結果,當前模型的性能瓶頸在于內容規劃階段(從表格數據中選擇和排序重要內容)。在surface realization階段,如果將輸入的標準的內容規劃結果替換為模型預測的內容規劃時,性能將急劇下降。在本文中,我們提出以下方法來增強基于神經網絡的內容規劃模塊:(1)通過上下文數值表示來理解數據,將對數據進行比較的概念引入內容規劃階段;(2)通過策略梯度驗證所選數據序列的重要性和順序。 我們在ROTOWIRE和MLB兩個數據集上評估了我們的模型。結果表明,在內容規劃指標方面,我們的模型優于現有系統。
08
題目:CodeBERT: A Pre-Trained Model for Programming and Natural Languages 作者:馮掌印,郭達雅,唐都鈺,段楠,馮驍騁,公明,壽林鈞,秦兵,劉挺,姜大昕,周明 錄用類別:Findings of EMNLP 子刊 簡介:本文我們提出了一個叫做CodeBERT的雙模態預訓練模型,也是目前已知第一個適用于NL-PL(自然語言-編程語言)的預訓練模型。CodeBERT通過學習一般性的表示來支持下游NL-PL相關的應用,比如自然語言代碼檢索,代碼文檔生成等。和目前大多數預訓練模型類似,CodeBERT使用Transformer作為基本的網絡結構。為了利用NL-PL對的雙模數據和大量單模代碼數據,我們采用了混合目標函數來訓練CodeBERT,包括標準的掩碼語言模型(MLM)和替換詞檢測(RTD)。實驗結果表明,CodeBERT在下游的自然語言代碼檢索和代碼文檔生成任務上都取得了SOTA效果。為了進一步研究CodeBERT學到了哪些類型的知識,我們構造了第一個NL-PL的probing數據集,然后固定預訓練好的參數來對模型進行檢測。實驗結果顯示,CodeBERT比其它預訓練模型在NL-PL的probing上表現更好。目前CodeBERT已開源:
09
題目:Revisiting Pre-Trained Models for Chinese Natural Language Processing 作者:崔一鳴,車萬翔,劉挺,秦兵,王士進,胡國平 錄用類別:Findings of EMNLP 子刊 簡介:BERT及其相關變種預訓練語言模型在眾多自然語言處理任務中獲得顯著性能提升。在本文中,我們探究了這些模型在中文場景下的效果變現,并將相關模型進行開源。同時,我們也提出了一個簡單有效的預訓練語言模型MacBERT,并提出了MLM as correction (Mac) 預訓練任務。我們在多個中文自然語言處理任務中評測了這些模型的效果,并且實驗結果表明MacBERT在多個任務中達到了state-of-the-art效果。
IJCAI 2020 接收論文頗為嚴苛!在 4717 份有效投稿中,最終僅有 592 篇被接收,接收率為 12.6%,這也是 IJCAI 史上最低的接收率。
IJCAI: International Joint Conference on Artificial Intelligence,是人工智能領域國際頂級學術會議之一,也是中國計算機學會(CCF)推薦的人工智能領域A類會議。
近日,國際計算語言學協會年會(ACL,The Association for Computational Linguistics)在官網公布了ACL 2020的最佳論文名單,共有1篇最佳論文,2篇最佳論文提名,1篇最佳主題論文,1篇最佳主題論文提名,1篇最佳demo論文,2篇最佳demo論文提名。
//acl2020.org/blog/ACL-2020-bes-tpapers/
ACL 2020是第58屆ACL年會,原定于7月5日至10日在美國華盛頓西雅圖舉行。受疫情影響,今年的自然語言處理領域頂級會議ACL改為線上舉行,于當地時間7月5日上正式線上開幕。涵蓋了 Paper Q&A Session、Tutorials、Workshops等一系列活動。
最佳論文獎
ACL 2020 最佳論文獎項由來自微軟研究院、華盛頓大學、加州大學歐文分校的研究人員摘得,該研究提出了一種與任務無關的 NLP 模型測試方法。
簡介:這篇論文受軟件工程行為測試原理的啟發,主要引入了CheckList,這是一種與任務無關的方法,用于測試NLP模型。CheckList包括一般語言功能和測試類型的矩陣,有助于全面測試構思,以及一個軟件工具,用于快速生成大量和多樣化的測試用例。作者通過測試三個任務來說明CheckList的效用,識別商業和最先進的模型中的關鍵故障。在用戶研究中,負責商業情緒分析模型的團隊在廣泛測試的模型中發現了新的和可操作的Bug。在另一個用戶研究中,使用CheckList的NLP從業者創建了兩倍的測試,并且發現的錯誤數幾乎是沒使用它的用戶的三倍。
最佳主題論文獎
此次會議的最佳主題論文獎由來自美國華盛頓大學和德國薩爾大學的研究者摘得。
簡介:大型神經語言模型在許多 NLP 任務上獲得成功。這篇論文肯定了大型神經語言模型在許多NLP任務上的成功。同時也指出,這些成功有時會被夸大,認為這些模型可以被描述為一種「理解」或「意義」。在這篇文章中,作者認為,一個只接受形式訓練的系統本身是無法學習意義的。作者指出,對形式和意義之間的區別有明確理解,將有助于引導該領域朝著更好的自然語言理解科學方向發展。
最佳 Demo 論文
簡介:這項研究提出了首個綜合開源的多媒體知識提取系統,該系統可基于不同的內容源和語言提取大量非結構化異構多媒體數據,并遵循豐富細粒度本體,創建出連貫且結構化的知識庫、索引實體、關系和事件。
該研究提出的系統 GAIA 可實現復雜圖 query 的無縫搜索,并檢索出文本、圖像和視頻等多媒體證據。GAIA 在近期的 NIST TAC SM-KBP2019 評估中實現了頂級性能。
時間檢驗獎
ACL 2020 的時間檢驗獎(Test of Time Awards)頒給了 4 篇論文,其中 2 篇發表于 1995 年,經受住了 25 年的時間檢驗,另外兩篇發表于 2010 年。
論文 1:Centering: A Framework for Modeling the Local Coherence of Discourse
這篇論文于 1995 年發表在 CL 上,被引用次數高達 2700 多次。
該論文是計算對話(computational discourse)領域最重要的論文之一,融合了理論語言學、心理語言學和形式語義學,展示了「語言學」在「計算語言學」中的力量。
論文 2:Unsupervised Word Sense Disambiguation Rivaling Supervised Methods
這篇論文于 1995 年發表在 ACL 上,被引用次數也在 2700 次以上。
該論文開創性地將語言學假設和無監督學習融合起來,展示了統計數據驅動的技術在 NLP 領域中的強大作用。這篇論文探討的問題——監督學習和無監督學習的性能差距、標注數據的成本,放到現在依舊不過時。
論文 3:Distributional Memory: A General Framework for Corpus-Based Semantics
本文于 2010 年發表在 CL 上,被引用次數近 700 次。
該論文開創性地提倡詞匯語義學的通用學得表征,提出自監督預訓練方法(類似于 word2vec、BERT 中所使用的),促進了計算語義學、認知建模和語言學理論之間的聯系。
論文 4:Word representations: A simple and general method for semi-supervised learning
這篇論文于 2010 年發表在 ACL 上,被引用次數超過 2200 次。
該論文是將向量表示用于 NLP 任務的里程碑式著作。它在提出詞嵌入方面早了大約五年,并首次在多項 NLP 任務上對比了 distributional 和 distributed(分布式)詞表示,論文倡導的思想至今在 NLP 領域占據中心地位。
參考資料:
機器之心
自然語言處理頂會ACL2020接受論文列表,共有571篇長論文和208篇短論文被錄用。
The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020) 將于2020年7月5日至10日在美國華盛頓州西雅圖舉行,不過今年因新冠將在線舉辦。ACL年會是計算語言學和自然語言處理領域最重要的頂級國際會議,CCF A類會議,由計算語言學協會主辦,每年舉辦一次。其接收的論文覆蓋了對話交互系統、語義分析、摘要生成、信息抽取、問答系統、文本挖掘、機器翻譯、語篇語用學、情感分析和意見挖掘、社會計算等自然語言處理領域眾多研究方向。該會議的論文基本代表自然語言處理領域最新研究進展和最高研究水平,受到學術界和產業界的高度關注。
【導讀】自然語言處理領域頂級會議ACL 2020,由于全球新冠肺炎疫情暴發,將改為在線舉辦。昨天ACL組委會發布了接受論文通知,你的論文中了嗎?眾多作者也紛紛發布自己中的論文。值得注意的是,由于全球新冠肺炎疫情暴發,將改為在線舉辦。
今年ACL投稿論文達到3000+篇,ACL 2020的審稿周期從19年的12月9日一直到20年的4月3日接近4個月時間,評審細致,競爭激烈!
The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020) 將于2020年7月5日至10日在美國華盛頓州西雅圖舉行。ACL年會是計算語言學和自然語言處理領域最重要的頂級國際會議,CCF A類會議,由計算語言學協會主辦,每年舉辦一次。其接收的論文覆蓋了對話交互系統、語義分析、摘要生成、信息抽取、問答系統、文本挖掘、機器翻譯、語篇語用學、情感分析和意見挖掘、社會計算等自然語言處理領域眾多研究方向。該會議的論文基本代表自然語言處理領域最新研究進展和最高研究水平,受到學術界和產業界的高度關注。
值得一提的是,為了應對新冠肺炎的影響,大會主席Dan Jurafsky發信確認,ACL2020將在線舉辦。
ACL 2020 論文搶鮮看!
哈工大SCIR八篇長文被ACL 2020錄用(授權轉載來自哈工大社會計算與信息檢索研究中心公眾號,哈工大SCIR) //mp.weixin.qq.com/s/sFUO02l-RfF7OsAMAoi_lQ
題目:Conversational Graph Grounded Policy Learning for Open-Domain Conversation Generation
作者:徐俊,王海峰,牛正雨,吳華,車萬翔,劉挺
摘要:我們提出用圖的形式捕捉對話轉移規律作為先驗信息,用于輔助開放域多輪對話策略學習。基于圖,我們設計策略學習模型指導更加連貫和可控的多輪對話生成。首先,我們從對話語料庫中構造一個對話圖(CG),其中頂點表示“what to say”和“how to say”,邊表示對話當前句與其回復句之間的自然轉換。然后,我們提出了一個基于CG的策略學習框架,該框架通過圖形遍歷進行對話流規劃,學習在每輪對話時從CG中識別出哪個頂點和如何從該頂點來指導回復生成。我們可以有效地利用CG來促進對話策略學習,具體而言:(1)可以基于它設計更有效的長期獎勵;(2)它提供高質量的候選操作;(3)它讓我們對策略有更多的控制。我們在兩個基準語料庫上進行了實驗,結果證明了本文所提框架的有效性。
題目:Document Modeling with Graph Attention Networks for Multi-grained Machine Reading Comprehension
作者:鄭博,文灝洋,梁耀波,段楠,車萬翔,Daxin Jiang,周明,劉挺
摘要:自然問答(Natural Question)是一個新的具有挑戰性的機器閱讀理解數據集,該數據集對文檔提供兩個粒度的答案,分別是長答案(通常為一個段落)以及短答案(長答案內部一個或多個實體)。盡管現有的閱讀理解方法在該數據集上是有效的,但是它們將兩個粒度的答案視為兩個獨立的任務進行訓練,并且忽略了答案之間的依賴關系。為了解決這個問題,我們提出了一種新的多粒度機器閱讀理解框架,按照文檔的層次結構以四個粒度進行建模,分別是文檔級、段落級、句子級以及詞級別。我們利用圖注意力網絡(Graph Attention Networks)獲取不同級別的表示并使得它們可以被同時學習。長短答案可以分別從段落級以及詞級別表示中提取,通過這種方式,我們可以建模兩種粒度答案之間的關系,使它們互相提供信息。我們聯合訓練這兩個子任務,實驗結果表明,我們的方法是有效的,在長短答案評價標準上都優于之前的系統。
題目:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog
作者:覃立波,徐嘯,車萬翔,張岳,劉挺
摘要:最近,端到端的任務型對話系統的研究已經取得了巨大的成功。但是,大多數神經網絡模型都依賴于大量的訓練數據,這些數據往往局限于一些特定的領域,例如導航和查詢天氣等領域。這使得現有模型很難泛化到標注數據以外的新領域下。并且,如何有效利用源領域的標注數據來提升較少標注數據的新領域,或者是沒有標注數據的新領域的性能,這樣的工作很少。因此,我們首次在端到端任務型對話系統中提出一個shared-private 框架去顯式學習領域特有的和領域共享的知識。此外,我們提出了一種新穎的動態融合網絡(DF-Net)來動態探索目標領域與每個領域之間的相關性。在兩個公開的數據集上的實驗結果表明我們的模型不僅達到SOTA性能,并且,在few-shot的場景下,我們模型的性能要比之前的最佳模型平均高13.9% F1 score,這進一步驗證了我們模型的可遷移性。
題目:Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network
作者:侯宇泰,車萬翔,賴勇魁,周之涵,劉一佳,劉晗,劉挺
摘要:在本文中,我們研究了少樣本槽位提取問題(Few-shot Slot-Tagging)。與其他廣泛研究的少樣本問題相比,少樣本槽位提取面臨著“建模標簽間依賴關系”的獨特挑戰。但是,由于不同領域間存在標簽集的差異,我們很難將先前學習的標簽依賴應用于新的領域。為了解決這個問題,我們在CRF中引入了折疊的依賴關系遷移機制(Collapsed Dependency Transfer),通過建模抽象的標簽依賴關系來實現這種遷移。在小樣本和元學習的情景下,CRF的發射概率可以用利用度量學習得到:計算為單詞與每個標簽類別的相似度。為了計算這種相似性,我們在近期的圖像小樣本分類模型TapNet基礎上,利用標簽名稱語義來表示標簽,提出了一種標簽增強的任務自適應投影網絡(L-TapNet)。實驗結果表明,我們的模型在1-shot實驗中以14.14 F1的分數明顯優于最強現有相關系統。
題目:Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation
作者:宋皓宇,王琰,張偉男,劉曉江,劉挺
摘要:在對話過程中保持一致的角色屬性信息對人類來說是很容易的,但對機器來說,這仍然是一項有待探索的任務。近幾年,基于角色屬性的對話生成任務被提出來,旨在通過在對話生成模型中加入顯式的角色文本來解決屬性一致性問題。雖然現有的基于角色的對話生成模型在生成類似人類的回復上取得了成功,但是它們的單階段解碼框架很難避免生成不一致的角色詞。在這項工作中,我們提出了一個三階段的對話生成框架。該框架使用生成-刪除-重寫機制從生成的原型回復中刪除不一致的詞語,然后進一步將其改寫為屬性信息一致的回復。我們通過人工評價和自動指標進行了評估。在PersonaChat數據集上的實驗表明,我們的方法獲得了非常好的性能。
題目:How Does Selective Mechanism Improve Self-Attention Networks? 作者:耿昕偉,王龍躍,王星,秦兵,劉挺,涂兆鵬 簡介:近年來,在自注意力網絡引入選擇機制使得模型關注其中重要的輸入元素已經取得很好的效果。但是,對于選擇機制取得這樣結果的原因尚不清楚。本文提出一個通用的基于選擇機制的自注意力網絡。傳統的自注意力網絡在順序編碼以及結構信息建模能力存在一些不足,而本文針對其提出相應的假設,并在實驗中驗證假設的正確性。實驗分析發現,將選擇機制引入自注意力網絡的好處在于:(1) 其更多關注周圍詞的信息,從而對周圍詞序的變化比較敏感,使得其更好對順序進行編碼;(2)其對于樹結構重要成分關注度更高,從而其擁有更強的捕捉結構信息的能力。
題目:Slot-consistent NLG for Task-oriented Dialogue System with Iterative Recti?cation Network 作者:李楊名,姚開盛,覃立波,車萬翔,李小龍,劉挺 摘要:基于神經網絡的方法在 NLG 任務上已經取得了不錯的效果。然而,數據驅動類型的模型無法保證魯棒性,例如忽略了一個輸入槽位或生成了多余的槽位。前人的工作將這個問題稱為幻視現象。在這個工作中,我們研究如何通過保證槽位一致性提高 NLG 模型的可靠性。所謂槽位一致性是指模型生成的模板應該和輸入表示語義一致,即具有相同的槽位集合。針對這個問題,我們提出迭代改寫器,它能保證 NLG 模型生成正確而且流利的句子。它包含兩個模塊:(1)基于檢索的自舉抽樣,用于抽樣偽錯數據;(2)策略梯度學習,用于融入離散獎勵,例如不一致懲罰度。我們在 4 個數據集上驗證了模型的有效性,結果顯示我們大大降低了所有基線模型的槽位錯誤率 (ERR) 并達到了目前最好的效果,并且BLEU 的提升和人工校驗的結果也顯示了我們模型提高了生成句子的順暢度。
題目:Towards Conversational Recommendation over Multi-Type Dialogs
作者:柳澤明,王海峰,牛正雨,吳華,車萬翔,劉挺
摘要:真實人機對話,涉及多類型對話(閑聊、任務型對話、問答等),如何自然地融合多類型對話是一個重要的挑戰,為應對這個挑戰,我們提出一個新的任務——多類型對話中的對話式推薦,期望Bot能夠主動且自然地將對話從非推薦對話(比如『問答』)引導到推薦對話,然后基于收集到的用戶興趣及用戶實時反饋通過多次交互完成最終的推薦目標。為便于研究這個任務,我們標注了一個包含多種對話類型、多領域和多種對話邏輯(考慮用戶實時反饋)的human-to-human對話式推薦數據集MultiRec(1萬個對話和16.4萬個utterance)。MultiRec包含多對推薦尋求者(user)和推薦者(bot)的多個序列對話,在每個對話中,推薦者使用豐富的交互行為主動引導一個多類型對話不斷接近推薦目標。這個數據集允許我們系統地調查整個問題的不同部分,例如,如何自然地引導對話,如何與用戶交互以便于推薦。最后,我們使用一個具有多對話目標驅動策略機制的對話生成框架在MultiRec上建立基線結果,表明了該數據集的可用性,并為將來的研究設定了基線。
更多ACL論文列表:
1.自然語言處理模型里的偏見 Predictive Biases in Natural Language Processing Models: A Conceptual Framework and Overview
無監督域聚類Unsupervised Domain Clusters in Pretrained Language Models
邏輯自然語言生成,LogicNLG: Logical Natural Language Generation from Open-Domain Tables
無監督跨語言表示學習,Unsupervised Cross-lingual Representation Learning at Scale
更多ACL2020論文傳送門: