主題: Effective Modeling of Encoder-Decoder Architecture for Joint Entity and Relation Extraction
摘要:
關系元組由兩個實體和它們之間的關系組成,通常在非結構化文本中可以找到這樣的元組。文本中可能有多個關系元組,它們可能共享一個或兩個實體。從一個句子中提取這樣的關系元組是一項困難的任務,而在元組之間共享實體或重疊實體使其更具挑戰性。之前的大多數工作都采用了流水線方法,首先識別實體,然后查找它們之間的關系,從而忽略了句子中關系元組之間的交互。在本文中,我們提出了兩種使用編解碼器架構來聯合提取實體和關系的方法。在第一種方法中,我們提出了一種關系元組的表示方案,該方案使解碼器能夠像機器翻譯模型一樣一次生成一個單詞,并且仍然能夠找到一個句子中所有具有不同長度的完整實體名稱和重疊實體的元組。接下來,我們提出了一種基于指針網絡的解碼方法,在該方法中,每一步都生成一個完整的元組。在公開的《紐約時報》語料庫上的實驗表明,我們提出的方法優于以前的工作,并取得了顯著的更高的F1分數。
作者簡介:
Hwee Tou Ng是新加坡國立大學(NUS)計算機科學系講座教授,也是新加坡國立大學綜合科學與工程研究生院的高級教員。他獲得了美國德克薩斯大學奧斯汀分校的計算機科學博士學位。他的研究重點是自然語言處理和信息檢索。他也是計算語言學協會(ACL)的會員。
知識圖譜補全的目的是預測知識圖譜中實體之間的缺失關系。雖然已經提出了許多不同的方法,但缺乏一個統一的框架產生SOTA的結果。在這里,我們開發了PathCon,這是一種知識圖譜補全方法,它利用四個新穎的見解來超越現有的方法。PathCon通過以下方法預測一對實體之間的關系: (1)通過捕獲實體附近的關系類型,并通過基于邊緣的消息傳遞模式建模,來考慮每個實體的關系上下文; (2)考慮獲取兩個實體之間所有路徑的關系路徑; (3)通過可學習的注意力機制,自適應地整合關系上下文和關系路徑。重要的是,與傳統的基于節點的表示不同,PathCon僅使用關系類型表示上下文和路徑,這使得它適用于歸納設置。在知識圖譜基準上的實驗結果以及我們新提出的數據集表明,PathCon在很大程度上優于最先進的知識圖譜補全方法。最后,PathCon能夠通過識別對給定的預測關系很重要的上下文和路徑關系來提供可解釋的說明。
題目: TENER: Adapting Transformer Encoder for Named Entity Recognition
摘要:
雙向長短時記憶網絡(BiLSTM)在解決命名實體識別(NER)任務的模型編碼中得到了廣泛的應用。近年來,轉換器以其并行性和優越的性能被廣泛應用于各種自然語言處理(NLP)任務中。然而,在NER中變壓器的性能不如在其它NLP任務中。在本文中,我們提出了一種采用自適應變壓器編碼器對字符級特征和字級特征進行建模的NER結構TENER。通過結合方向感知、相對距離感知和非尺度感知,證明了該編碼器與其它NLP任務一樣有效。
作者:
邱錫鵬,復旦大學計算機科學技術學院副教授,博士生導師。于復旦大學獲得理學學士和博士學位。主要從事自然語言處理、深度學習等方向的研究,在ACL、EMNLP、AAAI、IJCAI等計算機學會A/B類期刊、會議上發表50余篇學術論文,引用 1900余次。開源中文自然語言處理工具FudanNLP作者,FastNLP項目負責人。2015年入選首屆中國科協人才托舉工程,2017年ACL杰出論文獎,2018年獲中國中文信息學會“錢偉長中文信息處理科學技術獎—漢王青年創新獎”。
論文名字
Effective Modeling of Encoder-Decoder Architecture for Joint Entity and Relation Extraction
論文摘要
貝葉斯神經網絡(BNNs)通過對網絡權值進行貝葉斯推理,將不確定性估計引入到深層網絡中。然而,這樣的模型帶來了推理的挑戰,而且具有權重不確定性的bnn很少能獲得優于標準模型的性能。本文通過對深度神經網絡結構進行貝葉斯推理,提出了一種新的貝葉斯深度學習方法。借鑒神經結構搜索的思想,將網絡結構定義為計算節點間再鄧頓運算的選通權值,并應用隨機變量推理技術來學習網絡的結構分布。從經驗上看,該方法大大超過了先進的深層神經網絡,完成了一系列的分類和分割任務。更重要的是,我們的ap方法還保留了貝葉斯原理的優點,比包括MC-dropout和variationalBNNs算法(如噪聲EK-FAC)在內的強基線產生了改進的不確定性估計。
論文作者
鄧志杰,羅玉岑,朱軍軍,張博博,來自于清華大學THBI實驗室,BNRist中心理工學院 ,計算機科學與技術系,人工智能研究所,Intell國家重點實驗室。
主題: An Overview of the International Planning Competition
摘要: 本教程介紹了自然語言的深度貝葉斯和序列學習的進展,其應用廣泛,從語音識別到文檔摘要、文本分類、文本分割、信息提取、圖片標題生成、句子生成、對話控制、情感分類,推薦系統,問答和機器翻譯。傳統上,“深度學習”被認為是一種基于實值確定性模型進行推理或優化的學習過程。從大量詞匯中提取的單詞、句子、實體、動作和文檔中的“語義結構”在數學邏輯或計算機程序中可能沒有得到很好的表達或正確的優化。自然語言離散或連續潛變量模型中的“分布函數”在模型推理中可能無法正確分解或估計。本教程介紹了統計模型和神經網絡的基本原理,重點介紹了一系列先進的貝葉斯模型和深層模型,包括分層Dirichlet過程、Chinese restaurant 過程、分層Pitman-Yor過程、Indian buffet過程、遞歸神經網絡、長時短期記憶,序列到序列模型,變分自動編碼,生成對抗網絡,注意機制,記憶增強神經網絡,隨機神經網絡,預測狀態神經網絡,策略梯度和強化學習。我們將介紹這些模型是如何連接的,以及它們為什么在自然語言中的符號和復雜模式的各種應用中起作用。為了解決復雜模型的優化問題,提出了變分推理和抽樣方法。詞和句子的嵌入、聚類和共聚類與語言和語義約束相結合。本文提出了一系列的個案研究,以解決深度貝葉斯學習與理解中的不同問題。最后,我們將指出未來研究的一些方向和展望。
邀請嘉賓: Jen-Tzung Chien在臺灣新竹國立清華大學取得電機工程博士學位。現任職于臺灣新竹國立交通大學電子及電腦工程學系及電腦科學系講座教授。2010年,他擔任IBM沃森研究中心的客座教授。他的研究興趣包括機器學習、深度學習、自然語言處理和計算機視覺。在2011年獲得了IEEE自動語音識別和理解研討會的最佳論文獎,并在2018年獲得了AAPM Farrington Daniels獎。2015年,劍橋大學出版社出版《貝葉斯語音與語言處理》;2018年,學術出版社出版《源分離與機器學習》。他目前是IEEE信號處理技術委員會機器學習的當選成員。