亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

常識知識圖譜(CKG)如Atomic和ASER等大大有別于傳統知識圖譜KG,包含由松散結構化文本組成的大規模節點,。CKG能夠在自然語言處理高度多樣化的查詢,但這也導致自動CKG構建的獨特挑戰。除了識別KG中沒有的節點之間的關系外,構建方法還將探索文本中缺失的節點,其中可能會出現不同的現實世界的事物或實體。為了處理現實世界中涉及常識的無數實體,我們引入CKG構造方法概念化,即將文本中提到的實體視為特定概念的實例,反之亦然。我們通過概念化來建立合成三元組,并進一步將其表示為三元分類,由一個從預訓練語言模型中轉移知識并通過負抽樣進行微調的判別性模型來處理。實驗結果表明,該方法能夠有效地識別可能三元組,并將新節點和新邊的KG值同時擴大三倍,具有較高的多樣性和新穎性。

付費5元查看完整內容

相關內容

常識(中文)有兩個意思,一是英語“Common Sense”的翻譯,指與生俱來、無須特別學習而得的思維能力、判斷力,或是眾人接受、無須解釋或論證的意見觀念,也即“尋常見識”;另一意思是指普通社會上一個智力正常的人應有的知識,也即“平常知識”。以中英翻譯而言,作“平常知識”解的中文詞“常識”,其英文對應說法卻不是“common sense”,而應是包含或涉及“knowledge”的某個英文詞語。 「平常知識」,即「 生活常識 」; 人們在日常生活中總結出來的科學知識,涵蓋健康、營養、飲食、居家、生活小竅門等等各方面。

題目: TransOMCS: From Linguistic Graphs to Commonsense Knowledge

摘要: 常識知識的獲取是人工智能的關鍵問題。傳統的獲取常識的方法通常需要費力且昂貴的人工標記,而大規模的人工標記是不可行的。本文探討了一種從語言圖形中挖掘常識性知識的實用方法,目的是將通過語言模式獲得的廉價知識轉化為昂貴的常識性知識。其結果是將大規模的選擇性知識資源ASER轉換為與ConceptNet具有相同表示的Transomc,但要大兩個數量級。實驗結果證明了語言知識對常識的轉化能力,以及該方法在數量、新穎性和質量方面的有效性。

付費5元查看完整內容

隨著谷歌知識圖譜、DBpedia、微軟 Concept Graph、YAGO 等眾多知識圖譜的不斷出現, 根據 RDF 來構建的知識表達體系越來越為人們所熟知. 利用 RDF 三元組表達形式成為人們對現實世界中 知識的基本描述方式, 由于其結構簡單、邏輯清晰, 所以易于理解和實現, 但也因為如此, 當其面對現 實中無比繁雜的知識和很多常識時, 往往也無法做到對知識的認識面面俱到, 知識圖譜的構建過程注 定會使其中包含的知識不具有完整性, 即知識庫無法包含全部的已知知識. 此時知識庫補全技術在應 對此種情形時就顯得尤為重要, 任何現有的知識圖譜都需要通過補全來不斷完善知識本身, 甚至可以 推理出新的知識. 本文從知識圖譜構建過程出發, 將知識圖譜補全問題分為概念補全和實例補全兩個 層次: (1) 概念補全層次主要針對實體類型補全問題, 按照基于描述邏輯的邏輯推理機制、基于傳統機 器學習的類型推理機制和基于表示學習的類型推理機制等 3 個發展階段展開描述; (2) 實例補全層次 又可以分為 RDF 三元組補全和新實例發現兩個方面, 本文主要針對 RDF 三元組補全問題沿著統計 關系學習、基于隨機游走的概率學習和知識表示學習等發展階段來闡述實體補全或關系補全的方法. 通過對以上大規模知識圖譜補全技術研究歷程、發展現狀和最新進展的回顧與探討, 最后提出了未來 該技術需要應對的挑戰和相關方向的發展前景.

付費5元查看完整內容

 大量真實世界的圖或網絡本質上是異構的,涉及節點類型和關系類型的多樣性。異構圖嵌入是將異構圖的豐富結構和語義信息嵌入到低維節點表示中。現有的模型通常定義多個metapaths在異構圖捕捉復合關系和指導鄰居選擇。但是,這些模型要么忽略節點內容特性,要么沿著元路徑丟棄中間節點,要么只考慮一個元路徑。為了解決這三個局限性,我們提出了一種新的集合圖神經網絡模型來提高最終性能。具體來說,MAGNN使用了三個主要組件,即,節點內容轉換封裝輸入節點屬性,元內聚合合并中間語義節點,元間聚合合并來自多個元的消息。在三個真實世界的異構圖數據集上進行了大量的節點分類、節點聚類和鏈路預測實驗,結果表明MAGNN的預測結果比最先進的基線更準確。

付費5元查看完整內容

簡介: 今年AAAI 2020接收了1591篇論文,其中有140篇是與圖相關的。接下來將會介紹幾篇與圖和知識圖譜相關的幾篇論文。以下為內容大綱:

  • KG-Augmented Language Models In Diherent Flavours

Hayashi等人在知識圖上建立了自然語言生成(NLG)任務的潛在關系語言模型(LRLM)。就是說,模型在每個時間步上要么從詞匯表中提取一個單詞,要么求助于已知關系。 最終的任務是在給定主題實體的情況下生成連貫且正確的文本。 LRLM利用基礎圖上的KG嵌入來獲取實體和關系表示,以及用于嵌入表面形式的Fasttext。 最后,要參數化流程,需要一個序列模型。作者嘗試使用LSTM和Transformer-XL來評估與使用Wikidata批注的Freebase和WikiText鏈接的WikiFacts上的LRLM。

Liu等人提出了K-BERT,它希望每個句子(如果可能)都用來自某些KG的命名實體和相關(謂詞,賓語)對進行注釋。 然后,將豐富的句子樹線性化為一個新的位置相似嵌入,并用可見性矩陣進行遮罩,該矩陣控制輸入的哪些部分在訓練過程中可以看到并得到關注。

Bouraoui等人進一步評估了BERT的關系知識,即在給定一對實體(例如,巴黎,法國)的情況下,它是否可以預測正確的關系。 作者指出,BERT在事實和常識性任務中通常是好的,而不是糟糕的非詞性任務,并且在形態任務中相當出色。

  • Entity Matching in Heterogeneous KGs

不同的KG具有自己的模型來建模其實體,以前,基于本體的對齊工具僅依靠此類映射來標識相似實體。 今天,我們有GNN只需少量培訓即可自動學習此類映射!

Sun等人提出了AliNet,這是一種基于端到端GNN的體系結構,能夠對多跳鄰域進行聚合以實現實體對齊。 由于架構異質性,由于相似的實體KG的鄰域不是同構的,因此任務變得更加復雜。 為了彌補這一點,作者建議關注節點的n跳環境以及具有特定損失函數的TransE樣式關系模式。

Xu等人研究了多語言KG(在這種情況下為DBpedia)中的對齊問題,其中基于GNN的方法可能陷入“多對一”的情況,并為給定的目標實體生成多個候選源實體。 作者研究了如何使他們的預測中的GNN編碼輸出更加確定。

  • Knowledge Graph Completion and Link Prediction

AAAI’20標記并概述了兩個增長趨勢:神經符號計算與臨時性的KG越來越受到關注。

  • KG-based Conversational AI andQuestion Answering

AAAI’20主持了“對話狀態跟蹤研討會”(DSTC8)。 該活動聚集了對話AI方面的專家,包括來自Google Assistant,Amazon Alexa和DeepPavlov的人員。在研討會上,多個專家都提出了對話AI的相關研究方法。

付費5元查看完整內容

現實世界的大數據以自然語言文本的形式,在很大程度上是非結構化的、相互關聯的、動態的。將如此龐大的非結構化數據轉換為結構化知識是非常必要的。許多研究人員依賴于勞動密集型的標記和管理來從這些數據中提取知識,這可能是不可擴展的,特別是考慮到許多文本語料庫是高度動態的和特定于域的。我們認為,大量的文本數據本身可能揭示了大量隱藏的模式、結構和知識。基于領域無關和領域相關的知識庫,我們探索海量數據本身將非結構化數據轉化為結構化知識的能力。通過將大量的文本文檔組織成多維文本數據集,可以有效地提取和使用結構化的知識。在這次演講中,我們介紹了一組最近開發的用于這種探索的方法,包括挖掘質量短語、實體識別和鍵入、多面分類構造以及多維文本立方體的構造和探索。結果表明,數據驅動方法是將海量文本數據轉化為結構化知識的一個有前途的方向。

付費5元查看完整內容

《醫療知識圖譜的構建和應用》 倪淵平安醫療科技醫療文本處理部負責人 數據與知識是人工智能的兩大引擎。知識圖譜因為表達能力強,擴展性好,并能兼顧人類認知與機器自動處理,引起學術界、工業界以及政府部門的高度關注。大數據與機器學習等技術的快速發展使大規模人類知識體系的自動構建成為現實。知識圖譜也可以嵌入數據驅動的機器學習流程,有力提升學習效果。兩大引擎的交互作用為人工智能的應用落地和大數據的價值落地提供了切實可行的手段與方法。

倪淵,博士。平安醫療科技醫療文本處理部負責人。 2003年畢業于復旦大學計算機科學與技術專業,2007年畢業于新加坡國立大學計算機系。之后加入IBM中國研究院,從事自然語言處理,知識圖譜等相關領域的研究。在IBM期間,倪淵參與過著名人工智能項目沃森機器人的開發。2018年,倪淵加入平安醫療科技研究院,帶領醫療文本處理團隊。 倪淵博士在著名國際會議,比如SIGMOD, WWW, ISWC等上,發表過20多篇論文,并且獲得20多項國際專利。

付費5元查看完整內容
北京阿比特科技有限公司