亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

近日,國際計算語言學協會年會(ACL,The Association for Computational Linguistics)在官網公布了ACL 2020的最佳論文名單,共有1篇最佳論文,2篇最佳論文提名,1篇最佳主題論文,1篇最佳主題論文提名,1篇最佳demo論文,2篇最佳demo論文提名。

//acl2020.org/blog/ACL-2020-bes-tpapers/

ACL 2020是第58屆ACL年會,原定于7月5日至10日在美國華盛頓西雅圖舉行。受疫情影響,今年的自然語言處理領域頂級會議ACL改為線上舉行,于當地時間7月5日上正式線上開幕。涵蓋了 Paper Q&A Session、Tutorials、Workshops等一系列活動。

最佳論文獎

ACL 2020 最佳論文獎項由來自微軟研究院、華盛頓大學、加州大學歐文分校的研究人員摘得,該研究提出了一種與任務無關的 NLP 模型測試方法。

  • 論文鏈接:

簡介:這篇論文受軟件工程行為測試原理的啟發,主要引入了CheckList,這是一種與任務無關的方法,用于測試NLP模型。CheckList包括一般語言功能和測試類型的矩陣,有助于全面測試構思,以及一個軟件工具,用于快速生成大量和多樣化的測試用例。作者通過測試三個任務來說明CheckList的效用,識別商業和最先進的模型中的關鍵故障。在用戶研究中,負責商業情緒分析模型的團隊在廣泛測試的模型中發現了新的和可操作的Bug。在另一個用戶研究中,使用CheckList的NLP從業者創建了兩倍的測試,并且發現的錯誤數幾乎是沒使用它的用戶的三倍。

最佳主題論文獎

此次會議的最佳主題論文獎由來自美國華盛頓大學和德國薩爾大學的研究者摘得。

  • 論文鏈接:

簡介:大型神經語言模型在許多 NLP 任務上獲得成功。這篇論文肯定了大型神經語言模型在許多NLP任務上的成功。同時也指出,這些成功有時會被夸大,認為這些模型可以被描述為一種「理解」或「意義」。在這篇文章中,作者認為,一個只接受形式訓練的系統本身是無法學習意義的。作者指出,對形式和意義之間的區別有明確理解,將有助于引導該領域朝著更好的自然語言理解科學方向發展。

最佳 Demo 論文

  • 論文鏈接:

簡介:這項研究提出了首個綜合開源的多媒體知識提取系統,該系統可基于不同的內容源和語言提取大量非結構化異構多媒體數據,并遵循豐富細粒度本體,創建出連貫且結構化的知識庫、索引實體、關系和事件。

該研究提出的系統 GAIA 可實現復雜圖 query 的無縫搜索,并檢索出文本、圖像和視頻等多媒體證據。GAIA 在近期的 NIST TAC SM-KBP2019 評估中實現了頂級性能。

  • GitHub 地址:
  • 論文講解視頻:

時間檢驗獎

ACL 2020 的時間檢驗獎(Test of Time Awards)頒給了 4 篇論文,其中 2 篇發表于 1995 年,經受住了 25 年的時間檢驗,另外兩篇發表于 2010 年。

論文 1:Centering: A Framework for Modeling the Local Coherence of Discourse

  • 論文鏈接:
  • 論文作者:Barbara J. Grosz(哈佛大學)、Aravind K. Joshi(賓大)、Scott Weinstein(賓大)

這篇論文于 1995 年發表在 CL 上,被引用次數高達 2700 多次。

該論文是計算對話(computational discourse)領域最重要的論文之一,融合了理論語言學、心理語言學和形式語義學,展示了「語言學」在「計算語言學」中的力量。

論文 2:Unsupervised Word Sense Disambiguation Rivaling Supervised Methods

  • 論文鏈接:
  • 論文作者:David Yarowsky(賓大計算機與信息科學系)

這篇論文于 1995 年發表在 ACL 上,被引用次數也在 2700 次以上。

該論文開創性地將語言學假設和無監督學習融合起來,展示了統計數據驅動的技術在 NLP 領域中的強大作用。這篇論文探討的問題——監督學習和無監督學習的性能差距、標注數據的成本,放到現在依舊不過時。

論文 3:Distributional Memory: A General Framework for Corpus-Based Semantics

  • 論文鏈接:
  • 論文作者:Marco Baroni(特倫托大學)、Alessandro Lenci(比薩大學)

本文于 2010 年發表在 CL 上,被引用次數近 700 次。

該論文開創性地提倡詞匯語義學的通用學得表征,提出自監督預訓練方法(類似于 word2vec、BERT 中所使用的),促進了計算語義學、認知建模和語言學理論之間的聯系。

論文 4:Word representations: A simple and general method for semi-supervised learning

  • 論文鏈接:
  • 論文作者:Joseph Turian(蒙特利爾大學)、Lev Ratinov(伊利諾伊大學厄巴納 - 香檳分校)、Yoshua Bengio(蒙特利爾大學)

這篇論文于 2010 年發表在 ACL 上,被引用次數超過 2200 次。

該論文是將向量表示用于 NLP 任務的里程碑式著作。它在提出詞嵌入方面早了大約五年,并首次在多項 NLP 任務上對比了 distributional 和 distributed(分布式)詞表示,論文倡導的思想至今在 NLP 領域占據中心地位。

參考資料:

機器之心

付費5元查看完整內容

相關內容

自然語言處理(NLP)是語言學,計算機科學,信息工程和人工智能的一個子領域,與計算機和人類(自然)語言之間的相互作用有關,尤其是如何對計算機進行編程以處理和分析大量自然語言數據 。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

IJCAI 2020 接收論文頗為嚴苛!在 4717 份有效投稿中,最終僅有 592 篇被接收,接收率為 12.6%,這也是 IJCAI 史上最低的接收率。

IJCAI: International Joint Conference on Artificial Intelligence,是人工智能領域國際頂級學術會議之一,也是中國計算機學會(CCF)推薦的人工智能領域A類會議。

//www.ijcai.org/Proceedings/2020/

付費5元查看完整內容

自然語言處理頂會ACL2020接受論文列表,共有571篇長論文和208篇短論文被錄用。

The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020) 將于2020年7月5日至10日在美國華盛頓州西雅圖舉行,不過今年因新冠將在線舉辦。ACL年會是計算語言學和自然語言處理領域最重要的頂級國際會議,CCF A類會議,由計算語言學協會主辦,每年舉辦一次。其接收的論文覆蓋了對話交互系統、語義分析、摘要生成、信息抽取、問答系統、文本挖掘、機器翻譯、語篇語用學、情感分析和意見挖掘、社會計算等自然語言處理領域眾多研究方向。該會議的論文基本代表自然語言處理領域最新研究進展和最高研究水平,受到學術界和產業界的高度關注。

付費5元查看完整內容

【導讀】CCF A類會議,國際萬維網大會WWW 2020(International World Wide Web Conference)于2020年4月20日至24日在中國臺灣舉行。碰到疫情,WWW采用在線舉行。剛剛最佳論文一系列獎項出爐了!來自俄亥俄州立大學的開放意圖抽取《 Open Intent Extraction from Natural Language Interactions》獲得最佳論文,北京郵電大學的移動App占位《Mobile App Squatting 》獲得最佳學生論文!

「最佳論文獎」(Best Paper Award)

自然語言交互的開放意圖提取 Open Intent Extraction from Natural Language Interactions

作者: Nikhita Vedula , Nedim Lipka , Pranav Maneriker , Srinivasan Parthasarathy Authors Info & Affiliations

摘要:準確地從用戶的書面或口頭語言中發現他們的意圖在自然語言理解和自動對話響應中扮演著重要的角色。大多數現有的研究將其建模為每個話語都有一個意圖標簽的分類任務,將用戶的話語從一組已知的類別中分組為一個單一的意圖類型。在此基礎上,我們定義并研究了公開意圖發現的新問題。它涉及到從文本話語中發現一個或多個通用的意圖類型,這些類型可能在訓練中沒有遇到。我們提出了一種新領域無關的方法OPINE,它將問題表述為開放世界環境下的一個序列標記任務。它在雙向LSTM上使用CRF來以一致的格式提取意圖,受意圖標簽標簽之間的約束。我們用了一個多頭自注意力機制來有效地學習遠處單詞之間的依賴關系。我們進一步使用對抗性訓練來提高性能,并在不同的領域強有力地適應我們的模型。最后,我們策劃并計劃發布一個開放的意圖注釋數據集,包含25K個跨越不同領域的真實話語。大量的實驗表明,我們的方法優于最先進的基線5-15%的F1得分點。我們還演示了OPINE在識別多個不同的域意圖方面的有效性,每個域的訓練示例有限(也可以為零)。

//dl.acm.org/doi/10.1145/3366423.3380268

「最佳學生論文獎」(Best Student Paper Award)

移動App占位 Mobile App Squatting

Authors: Yangyu Hu , Haoyu Wang , Ren He , Li Li , Gareth Tyson , Ignacio Castro , Yao Guo , Lei Wu , Guoai Xu

域名占用是攻擊者模仿流行域名注冊的一種對抗策略,已經被觀察了幾十年。然而,越來越多的證據表明,這種攻擊方式已經蔓延到其他領域。在這篇文章中,我們探討了占用攻擊在移動應用生態系統中的存在。在“App Squatting”中,攻擊者發布的帶有標識符(如App名稱或包名)的應用,與流行應用或知名互聯網品牌的應用混淆不清。本文首次對app占用進行了深入的測量研究,揭示了app占位的流行及其意義。我們首先確定了app squatters常用的11種變形方式,并提出了一種名為“AppCrazy”的app標識符自動生成工具。我們將AppCrazy應用到谷歌Play中最受歡迎的500個應用中,生成了224,322個變形關鍵字,然后我們將這些變形關鍵字用于測試流行市場上的app非法占位者。通過這個,我們確認了問題的規模,確定了10553個占用應用程序(平均每個合法應用程序超過20個占位程序)。我們的調查顯示,超過51%的非法占用應用程序是惡意的,其中一些非常受歡迎(高達1000萬次下載)。同時,我們也發現移動應用市場在識別和消除非法占用應用方面并不成功。我們的發現表明了識別和防止濫用app的緊迫性。為此,我們已經公開發布了所有識別出的占位應用程序,以及我們的工具AppCrazy。

付費5元查看完整內容

本文試圖對神經文本生成模型的基本性質有更深入的理解。對機器生成文本中由于建模選擇而出現的構件的研究是一個新興的研究領域。在此之前,這些人工制品在生成文本中出現的范圍和程度還沒有得到很好的研究。為了更好地理解生成文本模型及其構件,我們提出了一項新的任務,即區分給定模型的幾個變體中哪個生成了一段文本,我們進行了一系列診斷測試,以觀察建模選擇(例如,抽樣方法、top-k概率、模型架構等)是否在它們生成的文本中留下可檢測的構件。我們的關鍵發現得到了一組嚴格實驗的支持,即存在這樣的構件,并且可以通過單獨觀察生成的文本推斷出不同的建模選擇。這表明,神經文本生成器對各種建模選擇的敏感度可能比之前認為的要高。

付費5元查看完整內容

【導讀】自然語言處理頂會ACL2020本周公布了接受論文,在這里專知小編整理20篇ACL2020論文,來自世界各地頂級學術單位,涉及BERT、表示學習、對話、偏見等,看下2020NLP在研究什么

The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020) 將于2020年7月5日至10日在美國華盛頓州西雅圖舉行。ACL年會是計算語言學和自然語言處理領域最重要的頂級國際會議,CCF A類會議,由計算語言學協會主辦,每年舉辦一次。其接收的論文覆蓋了對話交互系統、語義分析、摘要生成、信息抽取、問答系統、文本挖掘、機器翻譯、語篇語用學、情感分析和意見挖掘、社會計算等自然語言處理領域眾多研究方向。該會議的論文基本代表自然語言處理領域最新研究進展和最高研究水平,受到學術界和產業界的高度關注。

  1. BPE-Dropout:簡單有效的子詞正則化,Simple and Effective Subword Regularization,俄羅斯Yandex //arxiv.org/abs/1910.13267

  1. 預訓練語言模型中的跨語言結構,Emerging Cross-lingual Structure in Pretrained Language Models,Facebook

  1. 大規模無監督跨語言表示學習,Unsupervised Cross-lingual Representation Learning at Scale,Facebook AI

  1. 學習魯棒度量的文本生成,BLEURT: Learning Robust Metrics for Text Generation,Google

  1. 基于領域自適應的減少神經機器翻譯中的性別偏見,Reducing Gender Bias in Neural Machine Translation as a Domain Adaptation Problem,劍橋大學

  1. 在語言模型中注入數值推理技巧,Injecting Numerical Reasoning Skills into Language Models,Allen AI

  2. 多輪對話數據集,MuTual: A Dataset for Multi-Turn Dialogue Reasoning,浙大,微軟

  1. TAPAS:通過預訓練進行的弱監督表解析,TAPAS: Weakly Supervised Table Parsing via Pre-training,谷歌

  1. 提高神經語言模型句法能力,An analysis of the utility of explicit negative examples to improve the syntactic abilities of neural language models,谷歌

  1. 多級學習排序的層次實體標注,Hierarchical Entity Typing via Multi-level Learning to Rank,霍普金斯大學

  1. 數據操作:通過學習增加和調整權重,實現有效的實例學習,生成神經對話,Data Manipulation: Towards Effective Instance Learning for Neural Dialogue Generation via Learning to Augment and Reweight,中科院計算所

  1. 法律判決,Distinguish Confusing Law Articles for Legal Judgment Prediction,西安交大

  2. MobileBERT:用于資源受限設備的任務無關“瘦版”BERT,MobileBERT: a Compact Task-Agnostic BERT for Resource-Limited Devices,谷歌

  3. 信息論探索語言結構,Information-Theoretic Probing for Linguistic Structure,劍橋

  1. 多方對話學習層次結構,Transformers to Learn Hierarchical Contexts in Multiparty Dialogue for Span-based Question Answering,EMORY

  1. 對話學習器,Conversation Learner – A Machine Teaching Tool for Building Dialog Managers for Task-Oriented Dialog Systems,微軟

  1. 反對網絡仇恨言論的反敘述:數據和策略,Generating Counter Narratives against Online Hate Speech: Data and Strategies

  1. 多語言序列標記的結構層次知識提取,Structure-Level Knowledge Distillation For Multilingual Sequence Labeling,上科大,阿里巴巴達摩院

  1. 基于角色感知獎勵分解的多代理面向任務的對話策略學習,Multi-Agent Task-Oriented Dialog Policy Learning with Role-Aware Reward Decomposition,清華大學

  1. FastBERT:一種具有自適應推理時間的自適應BERT?,FastBERT: a Self-distilling BERT with Adaptive Inference Time,北京大學,騰訊

付費5元查看完整內容
北京阿比特科技有限公司