//www.zhuanzhi.ai/paper/19590a2a40a84addde18b8a37112c3fc
關于概念及其屬性的常識知識(CSK)對于人工智能應用程序(如健壯的聊天機器人)是有用的。以前的作品,如ConceptNet、TupleKB和其他一些人編譯了大量的CSK集合,但它們在表達上受到限制,只包含了S的簡單概念和P和o的單一字符串的主語-謂語-賓語(SPO)三元組。此外,這些項目要么優先考慮精度,要么優先考慮回憶,但很難協調這些互補的目標。本文提出了一種自動構建大規模CSK斷言知識庫的方法——Ascent,該方法具有更高的表達能力,同時具有比以往的研究更好的查全率和查全率。Ascent通過捕獲帶有子組和方面的復合概念,以及使用語義方面精煉斷言,從而超越了三元組。后者對于表示斷言和進一步限定符的時間和空間有效性很重要。Ascent使用語言模型將開放信息提取相結合。內部評估顯示了提升Ascent KB知識庫的卓越大小和質量。
城市流量預測從許多方面使得智慧城市的建設受益,例如交通管理和風險評估。但是關鍵先決條件是對城市的細粒度動態有足夠的掌握。因此,與之前的工作僅限于粗粒度數據不同,這篇論文中將城市流量預測的范圍擴展到細粒度,這帶來了一些具體挑戰:1)在細粒度數據中觀察到的網格間的轉移動態使預測變得更加復雜,需要在全局范圍內捕獲網格單元之間的空間依賴性;2)單獨學習外部因素(例如天氣)對大量網格單元的影響是非常具有挑戰性的。為了解決這兩個挑戰,本文中提出了時空關系網(STRN)來預測細粒度的城市流量。首先,骨干網用于學習每個網格單元的高級表示,第二,文中還提出了一個全局關系模塊(GloNet),與現有方法相比,該模塊可以更有效地捕獲全局空間依賴性。第三,模型中設計了一個元學習器,它將外部因素和土地功能(例如POI密度)作為輸入以產生元知識并提高模型性能。論文提出的模型在兩個現實世界的數據集進行了充足的實驗。結果表明,與最新方法相比,STRN減少了7.1%到11.5%的誤差,而使用了更少的參數。
Using Prior Knowledge to Guide BERT's Attention in Semantic Textual Matching Tasks
Authors: Tingyu Xia, Yue Wang, Yuan Tian, Yi Chang
我們研究了將先驗知識整合到基于深度Transformer的模型中的問題,即:,以增強其在語義文本匹配任務中的性能。通過探索和分析BERT在解決這個任務時已經知道的東西,我們可以更好地理解BERT最需要什么特定任務的知識,在哪里最需要什么知識。這一分析進一步促使我們采取一種不同于大多數現有工作的方法。我們沒有使用先驗知識來創建一個新的訓練任務來微調BERT,而是直接將知識注入BERT特的多頭注意機制。這將我們引向一種簡單而有效的方法,它歷經快速訓練階段,因為它節省了模型在主要任務以外的額外數據或任務上的訓練。大量的實驗表明,本文提出的知識增強的BERT模型能夠持續地提高語義文本匹配性能,并且在訓練數據稀缺的情況下性能效益最為顯著。
人們對開發個性化的任務導向對話系統(TDSs)越來越感興趣。以前關于個性化TDSs的工作通常假設大多數甚至所有用戶都可以使用完整的用戶檔案。這是不現實的,因為(1)不是每個人都愿意暴露他們的個人資料,出于隱私的考慮;(2)豐富的用戶簡介可能涉及大量的屬性(例如,性別、年齡、品味……)。在本文中,我們在不假設用戶檔案是完整的情況下研究個性化的TDSs。我們提出了一種合作記憶網絡(CoMemNN),該網絡具有一種新穎的機制,可以隨著對話進程逐步豐富用戶特征,同時在豐富的用戶特征基礎上改進響應選擇。CoMemNN由兩個核心模塊組成:用戶檔案文件豐富(UPE)和對話響應選擇(DRS)。前者通過利用來自鄰居用戶和當前對話的協作信息來豐富不完整的用戶檔案文件。后者使用豐富的檔案文件來更新當前用戶查詢,以便編碼更有用的信息,并根據這些信息選擇對用戶請求的個性化響應。我們在個性化的bAbI對話基準數據集上進行了大量的實驗。我們發現,CoMemNN能夠有效地豐富用戶檔案文件,與最先進的方法相比,響應選擇的準確性提高了3.06%。通過隨機丟棄用戶檔案文件中的屬性值,我們還測試了CoMemNN對用戶檔案文件不完整的魯棒性。即使在丟棄50%的屬性值時,CoMemNN也能夠在不丟棄用戶檔案文件的情況下匹配最佳性能基線的性能,顯示了CoMemNN的魯棒性。
//www.zhuanzhi.ai/paper/faae0f0909170af3a86309c373b23210
序列推薦(SR)是根據用戶當前訪問的物品向其準確推薦物品列表。當新用戶不斷地進入現實世界時,一個關鍵的任務是要有歸納SR,它可以在不需要再訓練的情況下產生用戶和物品的嵌入。鑒于用戶-項目交互可能非常稀疏,另一個關鍵任務是擁有可遷移的SR,它可以將從一個具有豐富數據的領域派生的知識遷移到另一個領域。在這項工作中,我們的目標是呈現整體SR,同時適應傳統、歸納和可遷移的設置。我們提出了一種新的基于深度學習的模型——關系時間注意力圖神經網絡(RetaGNN),用于整體SR。首先,為了具有歸納和可遷移的能力,我們在從用戶-物品對中提取的局部子圖上訓練一個關注關系的GNN,其中可學習權矩陣是關于用戶、物品和屬性之間的各種關系,而不是節點或邊。第二,長期和短期用戶偏好的時間模式被提出的序列自注意機制編碼。第三,為了更好地訓練RetaGNN,設計了一個關系感知的正則化項。在MovieLens、Instagram和Book-Crossing數據集上進行的實驗表明,RetaGNN可以在常規、歸納和可遷移的設置下優于最先進的方法。推導出的注意力權重也為模型帶來了可解釋性。
生成式常識推理是文本生成的一個關鍵瓶頸,它旨在使機器能夠根據一組概念生成具有推理能力的句子。即使是最先進的預訓練語言生成模型也難以完成這一任務,而且常常產生不合邏輯和異常的句子。其中一個原因是,他們很少考慮將知識圖譜整合進來,因為知識圖譜可以在常識概念之間提供豐富的關系信息。為了提高常識性推理生成文本的能力,我們提出了一種新的知識圖譜增強的預訓練語言生成模型KG-BART,該模型通過知識圖譜包含了復雜的概念關系,并生成了更符合邏輯和自然的句子作為輸出。此外,KG-BART可以利用圖上的注意力來聚集豐富的概念語義,從而增強對看不見的概念集的模型泛化。在基準commonen數據集上進行的實驗驗證了本文方法的有效性,并與幾個強的預訓練語言生成模型進行了比較,特別是在BLEU - 3,4方面,KG-BART的性能比BART高出5.80、4.60。此外,我們還表明,通過我們的模型生成的上下文可以作為背景場景,從而有利于下游的常識性QA任務。
//www.zhuanzhi.ai/paper/5478cc149a0d6a523665d68c6d3c170a
在本文中,我們關注的是語義圖像合成任務,目的是將語義標記映射遷移到逼真的圖像。現有的方法在保留語義信息方面缺乏有效的語義約束,忽略了空間維度和通道維度上的結構相關性,導致結果模糊且容易產生假象。為了解決這些限制,我們提出了一種新的對偶注意力GAN (DAGAN),它可以合成具有輸入布局細節的真實照片和語義一致的圖像,而不增加額外的訓練開銷或修改現有方法的網絡結構。我們還提出了兩個新的模塊,即位置-方向的空間注意力模塊和尺度-方向的通道注意模塊,分別用于捕獲空間和通道維度上的語義結構注意力。具體來說,SAM通過空間注意力圖選擇性地將每個位置的像素關聯起來,從而使得具有相同語義標簽的像素無論在空間上的距離如何都相互關聯起來。同時,CAM通過通道注意力圖選擇性地強調每個通道上的標度特征,從而在所有的通道圖中集成相關的特征,而不管它們的標度如何。最后對SAM和CAM的結果進行求和,進一步改進特征表示。在四個具有挑戰性的數據集上進行的廣泛實驗表明,DAGAN取得了比最先進的方法顯著更好的結果,同時使用更少的模型參數。源代碼和經過訓練的模型可以在這個https URL中獲得。
視覺對話是一項具有挑戰性的任務,它需要從視覺(圖像)和文本(對話歷史)上下文中提取隱含信息。經典的方法更多地關注當前問題、視覺知識和文本知識的整合,忽略了跨模態信息之間的異構語義鴻溝。同時,連接操作已成為跨模式信息融合的事實標準,其信息檢索能力有限。本文提出了一種新的知識橋接圖網絡模型,利用圖在細粒度上橋接視覺知識和文本知識之間的跨模式語義關系,并通過自適應的信息選擇模式檢索所需的知識。此外,視覺對話的推理線索可以清晰地從模態內實體和模態間橋梁中提取出來。VisDial v1.0和VisDial- q數據集上的實驗結果表明,我們的模型優于現有的模型,取得了最新的結果。
//www.zhuanzhi.ai/paper/6a3e359d8827752a98f2e5daa7079d2a
題目
Improving Multi-hop Question Answering over Knowledge Graphs using Knowledge Base Embeddings,使用知識庫嵌入改進知識圖上的多跳問答
摘要
知識圖(KG)是由實體作為節點,實體之間的關系作為類型化邊組成的多關系圖。 KG問答(KGQA)任務的目的是回答對KG提出的自然語言查詢。 多跳KGQA要求在KG的多個邊緣進行推理,以得出正確的答案。 KG通常缺少許多鏈接,這給KGQA尤其是多跳KGQA帶來了額外的挑戰。 最近對多跳KGQA的研究已嘗試使用相關的外部文本來處理KG稀疏性,但這種方式并非一帆風順。 在另一項研究中,提出了KG嵌入方法,以通過執行丟失的鏈接預測來減少KG稀疏性。 此類KG嵌入方法盡管非常相關,但迄今為止尚未針對多跳KGQA進行探索。 我們在本文中填補了這一空白,并提出了EmbedKGQA。 EmbedKGQA在執行稀疏KG上的多跳KGQA方面特別有效(但是當知識圖譜不稀疏時,也應該能夠超過基線)。 EmbedKGQA還放寬了從預先指定的鄰域中選擇答案的要求,這是先前的多跳KGQA方法實施的次優約束。 通過在多個基準數據集上進行的廣泛實驗,我們證明了EmbedKGQA在其他最新基準上的有效性。
了解在線用戶可能關注的內容是內容推薦和搜索服務的關鍵。這些服務將受益于實體、概念、事件、主題和類別的高度結構化和web級本體。雖然現有的知識庫和分類法包含了大量的實體和類別,但我們認為它們未能以online population的語言風格發現適當粒度的概念、事件和主題。這些概念之間也不存在邏輯結構的本體。在本文中,我們提出GIANT,一種構建一個以用戶為中心的、網絡規模的、結構化的本體論的機制,該本體論包含了大量的自然語言短語,這些短語在不同的粒度上符合用戶的需要,這些短語是從大量的網絡文檔和搜索點擊圖中挖掘出來的。此外,還構造了各種類型的邊來維護本體中的層次結構。我們介紹了在GIANT中使用的基于圖神經網絡的技術,并與各種基線進行了比較,對提出的方法進行了評估。騰訊開發出了注意力本體,并將其應用到騰訊的各種應用中,涉及用戶超過10億。在騰訊QQ瀏覽器上進行的在線A/B測試表明,注意力本體可以顯著提高新聞推薦的點擊率。