【導讀】小樣本學習是學術界和工業界近年來關注的焦點。2020年以來,AAAI、WSDM、ICLR、CVPR會議論文公布,專知小編整理了最新8篇關于知識圖譜的論文,來自Google、PSU、人大、微軟、騰訊、阿里巴巴等,包含元遷移學習、圖神經網絡、小樣本文本分類等,請大家查看!
1、Graph Few-shot Learning via Knowledge Transfer(通過知識遷移的圖小樣本學習),AAAI2020
摘要:對于具有挑戰性的半監督節點分類問題,已有廣泛的研究。圖神經網絡(GNNs)作為一個前沿領域,近年來引起了人們極大的興趣。然而,大多數gnn具有較淺的層,接收域有限,并且可能無法獲得令人滿意的性能,特別是在標記節點數量很少的情況下。為了解決這一問題,我們創新性地提出了一種基于輔助圖的先驗知識的圖小樣本學習(GFL)算法,以提高目標圖的分類精度。具體來說,輔助圖與目標之間共享一個可轉移的度量空間,該空間以節點嵌入和特定于圖的原型嵌入函數為特征,便于結構知識的傳遞。對四個真實世界圖形數據集的大量實驗和消融研究證明了我們提出的模型的有效性
論文地址:
2、AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning(自適應聚合GCN的小樣本學習)
摘要:現有的小樣本學習(FSL)方法假設源類中存在足夠的訓練樣本,可以將知識轉移到訓練樣本較少的目標類中。然而,這種假設通常是無效的,特別是在細粒度識別方面。在這項工作中,我們定義了一個新的FSL設置,稱為few-shot fewshot learning (FSFSL),在這種情況下,源類和目標類都只有有限的訓練樣本。為了克服源類數據稀缺的問題,一個自然的選擇是從web中抓取具有類名作為搜索關鍵字的圖像。然而,爬行圖像不可避免地會受到大量噪聲(不相關的圖像)的破壞,從而影響性能。針對這一問題,我們提出了一種基于GCN的圖形卷積網絡標簽去噪(LDN)方法來去除不相關的圖像。在此基礎上,我們提出了一種基于gcn的清潔web圖像和原始訓練圖像的FSL方法。針對LDN和FSL任務,提出了一種新的自適應聚合GCN (AdarGCN)模型。利用AdarGCN,可以自動確定每個圖節點所攜帶的信息在圖結構中傳播了多少以及傳播了多遠,從而減輕了噪聲和邊緣訓練樣本的影響。大量的實驗表明,我們的AdarGCN在新的FSFSL和傳統的FSL設置下的優越性能。
論文地址:
3、Few-shot Natural Language Generation for Task-Oriented Dialog(面向任務對話的小樣本自然語言生成)
摘要:自然語言生成(NLG)模塊是面向任務的對話系統的重要組成部分,它將語義形式的對話行為轉化為自然語言的響應。傳統的基于模板或統計模型的成功通常依賴于大量注釋的數據,這對于新領域來說是不可行的。因此,在實際應用中,如何利用有限的標記數據很好地推廣NLG系統至關重要。為此,我們提出了第一個NLG基準測試FewShotWoz來模擬面向任務的對話系統中的小樣本學習設置。進一步,我們提出了SC-GPT模型。通過對大量的NLG標注語料庫進行預訓練,獲得可控的生成能力,并通過少量的領域特定標簽進行微調,以適應新的領域。在FewShotWoz和大型的多領域woz數據集上進行的實驗表明,所提出的SC-GPT顯著優于現有的方法(通過各種自動指標和人工評估進行測量)。
論文地址:
4、Meta-Transfer Learning for Zero-Shot Super-Resolution(元遷移學習的零樣本超分)CVPR2020
摘要:卷積神經網絡(CNNs)通過使用大規模的外部樣本,在單幅圖像的超分辨率(SISR)方面有了顯著的改善。盡管它們基于外部數據集的性能非常出色,但它們無法利用特定圖像中的內部信息。另一個問題是,它們只適用于它們所監督的數據的特定條件。例如,低分辨率(LR)圖像應該是從高分辨率(HR)圖像向下采樣的“雙三次”無噪聲圖像。為了解決這兩個問題,零樣本超分辨率(ZSSR)被提出用于靈活的內部學習。然而,他們需要成千上萬的梯度更新,即推理時間長。在這篇論文中,我們提出了一種利用零樣本超分辨的元轉移學習方法。準確地說,它是基于找到一個適合內部學習的通用初始參數。因此,我們可以利用外部和內部信息,其中一個梯度更新可以產生相當可觀的結果。(見圖1)。通過我們的方法,網絡可以快速適應給定的圖像條件。在這方面,我們的方法可以應用于一個快速適應過程中的一個大光譜的圖像條件。
論文地址:
5、Few-shot Text Classification with Distributional Signatures(小樣本文本分類)ICLR2020
摘要:在本文中,我們探討了元學習在小樣本文本分類中的應用。元學習在計算機視覺方面表現出了很強的性能,在計算機視覺中,低級模式可以在學習任務之間轉移。然而,直接將這種方法應用于文本是具有挑戰性的——對于一個任務來說信息豐富的詞匯特性對于另一個任務來說可能是無關緊要的。因此,我們的模型不僅從單詞中學習,還利用它們的分布特征,這些分布特征編碼相關的單詞出現模式。我們的模型在元學習框架內進行訓練,將這些特征映射到注意力分數,然后用注意力分數來衡量單詞的詞匯表示。我們證明,我們的模型在6個基準數據集(1-shot分類平均20.0%)上,在詞匯知識學習的原型網絡(Snell et al., 2017)上,在小樣本文本分類和關系分類上都顯著優于原型網絡。
論文地址:
摘要:我們提出了一種從大規模無標記視頻數據中學習視頻表示的新方法。理想情況下,這種表現形式應該是通用的、可轉移的,可以直接用于新的任務,比如動作識別和零或少樣本學習。我們將無監督表示法學習描述為一個多模態、多任務學習問題,其中表示法通過精餾在不同的模式之間共享。在此基礎上,我們引入了損失函數演化的概念,利用進化搜索算法自動尋找包含多個(自監督)任務和模式的損失函數的最優組合。在此基礎上,我們提出了一種基于Zipf法則的無監督表示法評價指標,該指標使用對一個大的未標記數據集的分布匹配作為先驗約束。這種不受監督的約束,不受任何標記的引導,與受弱監督的、特定于任務的約束產生類似的結果。提出的無監督表示學習方法在單RGB網絡中取得了良好的學習效果,并優于已有的學習方法。值得注意的是,它也比幾種基于標簽的方法(如ImageNet)更有效,除了大型的、完全標記的視頻數據集。
論文地址:
摘要:本文研究了小樣本語音事件檢測技術。少樣本學習能夠用非常有限的標記數據檢測新事件。與計算機視覺等其他研究領域相比,語音識別的樣本學習研究較少。我們提出了小樣本AED問題,并探索了不同的方法來利用傳統的監督方法,以及各種元學習方法,這些方法通常用于解決小樣本分類問題。與有監督的基線相比,元學習模型具有更好的性能,從而顯示了它對新音頻事件的泛化效果。我們的分析包括初始化和領域差異的影響,進一步驗證了元學習方法在小樣本AED中的優勢。
論文地址:
摘要:小樣本分類旨在識別每個類別中只有少數標記圖像的新類別。現有的基于度量的小樣本分類算法通過使用學習度量函數將查詢圖像的特征嵌入與少數標記圖像(支持示例)的特征嵌入進行比較來預測類別。雖然已經證明了這些方法有很好的性能,但是由于域之間的特征分布存在很大的差異,這些方法往往不能推廣到不可見的域。在這項工作中,我們解決了基于度量的方法在領域轉移下的少樣本分類問題。我們的核心思想是在訓練階段利用仿射變換增強圖像的特征,模擬不同領域下的各種特征分布。為了捕獲不同領域中特性分布的變化,我們進一步應用了一種學習-學習方法來搜索Feature-Wise轉換層的超參數。我們使用5個小樣本分類數據集:mini-ImageNet、CUB、Cars、Places和Plantae,在域概化設置下進行了大量的實驗和消融研究。實驗結果表明,所提出的特征變換層適用于各種基于度量的模型,并對域轉移下的小樣本分類性能提供了一致的改進。。
論文地址:
小樣本學習(FSL)近年來引起了越來越多的關注,但仍然具有挑戰性,因為學習從少數例子中歸納的固有困難。本文提出了一種自適應間隔原則,以提高基于度量的元學習方法在小樣本學習問題中的泛化能力。具體地說,我們首先開發了一個與類相關的加性邊緣損失算法,該算法考慮了每對類之間的語義相似性,從而將特征嵌入空間中的樣本從相似的類中分離出來。此外,我們在抽樣訓練任務中加入所有類別之間的語義上下文,并開發了與任務相關的附加間隔損失,以更好地區分不同類別的樣本。我們的自適應間隔方法可以很容易地推廣到更現實的廣義FSL設置。大量的實驗表明,在標準FSL和通用FSL設置下,所提出的方法可以提高現有基于度量的元學習方法的性能。
【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020已于2020年4月20日至4月24日在中國臺灣臺北舉行。會議論文集已經公開,大家可以自己查看感興趣的論文,專知小編繼續整理WWW 2020 系列論文,這期小編為大家奉上的是WWW 2020六篇遷移學習(Transfer Learning)相關論文,供大家參考!——主動域遷移、多任務域遷移、類別注意力遷移網絡、多模態域遷移、跨域推薦、跨域欺詐檢測。
WWW 2020 會議論文集: //dl.acm.org/doi/proceedings/10.1145/3366423
WWW2020KG+GNN、WWW2020GNN_Part1、AAAI2020GNN、ACMMM2019GNN、CIKM2019GNN、ICLR2020GNN、EMNLP2019GNN、ICCV2019GNN_Part2、ICCV2019GNN_Part1、NIPS2019GNN、IJCAI2019GNN_Part1、IJCAI2019GNN_Part2、KDD2019GNN、ACL2019GNN、CVPR2019GNN、ICML2019GNN
CCF-A類頂會WWW2020最佳論文出爐!OSU最佳論文,北郵斬獲最佳學生論文!
1. Active Domain Transfer on Network Embedding
作者:Lichen Jin, Yizhou Zhang, Guojie Song, Yilun Jin
摘要:最近的工作表明,端到端、監督(半監督)的網絡嵌入模型可以生成令人滿意的向量來表示網絡拓撲,甚至可以通過歸納學習(inductive learning)適用于未知(unseen)的圖。然而,歸納學習的訓練網絡和測試網絡之間的域不匹配,以及缺乏標記數據,會影響這種方法的結果。相應地能夠解決上述問題的遷移學習和主動學習(active learning)技術已經在常規獨立同分布數據上得到了很好的研究,而它們在網絡上的關注相對較少。因此,本文提出了一種網絡上的主動遷移學習方法,稱為主動遷移網絡嵌入(Active-Transfer Network Embedding,ATNE)。在ATNE中,我們從遷移和主動學習兩個角度綜合考慮各個節點對網絡的影響,從而在訓練過程中結合這兩個方面設計新穎有效的影響分值以方便節點的選擇。我們證明了ATNE是有效的,并且與實際使用的模型是解耦的。進一步的實驗表明,ATNE的性能優于最新的主動節點選擇方法,并且在不同的情況下表現出了通用性。
網址:
2. Anchored Model Transfer and Soft Instance Transfer for Cross-Task Cross-Domain Learning: A Study Through Aspect-Level Sentiment Classification
作者:Yaowei Zheng, Richong Zhang, Suyuchen Wang, Samuel Mensah, Yongyi Mao
摘要:監督學習在很大程度上依賴于容易獲得的標記數據來推斷有效的分類函數。然而,在有監督學習下提出的方法面臨領域內標注數據稀缺的問題,且通用性不夠強,不能適用于其他任務。通過允許跨域和跨任務共享知識,遷移學習已被證明是解決這些問題的一個有價值的選擇。通過允許跨域和跨任務共享知識,遷移學習已被證明是解決上述問題的一個有價值的選擇。本文提出了Anchored Model遷移(AMT)和Soft Instance遷移(SIT)兩種遷移學習方法,這兩種學習方法都是基于多任務學習,兼顧了模型遷移和實例遷移,可以結合到一個通用的框架中。我們證明了AMT和SIT對于aspect-level的情感分類的有效性,在基準數據集上我們的模型表現出比基線模型更有競爭力的表現。有趣的是,AMT + SIT的集成可在同一任務上實現最先進的性能。
網址:
作者:Dongbo Xi, Fuzhen Zhuang, Ganbin Zhou, Xiaohu Cheng, Fen Lin, Qing He
摘要:跨域情感分類等領域自適應任務旨在利用源域中已有的已標記數據和目標域中未標記或很少的標記數據,通過減少數據分布之間的偏移來提高目標域的性能。現有的跨領域情感分類方法需要區中心點(pivots)(即領域共享的情感詞)和非中心點(即領域特定的情感詞),才能獲得良好的自適應性能。本文首先設計了一個類別注意網絡(CAN),然后提出了一種將CAN和卷積神經網絡(CNN)相結合的CAN-CNN模型。該模型一方面將中心點和非中心點作為統一的類別屬性詞進行自動捕獲,提高領域自適應性能;另一方面,對遷移后的類別屬性詞進行可解釋性學習的嘗試。具體地說,該模型的優化目標有三個不同的組成部分:1)監督分類損失;2)類別特征權重的分布損失;3)領域不變性損失。最后,在三個輿情分析數據集上對所提出的模型進行了評估,結果表明CAN-CNN的性能優于其他各種基線方法。
網址:
4. Domain Adaptive Multi-Modality Neural Attention Network for Financial Forecasting
作者:Dawei Zhou, Lecheng Zheng, Yada Zhu, Jianbo Li, Jingrui He
摘要:金融時間序列分析在優化投資決策、對沖市場風險方面起著核心作用。這是一項具有挑戰性的任務,因為問題總是伴隨著雙層(即數據級和任務級)的異構性。例如,在股價預測中,一個成功的具有有限風險的投資組合通常由來自不同領域(如公用事業、信息技術、醫療保健等)的大量股票組成,每個領域的股票預測可以視為一個任務;在一個投資組合中,每個股票的特征是從多個模態(例如金融、天氣和新聞)收集的時間數據,這對應于數據層的異構性。此外,金融業遵循高度監管的過程,這就要求預測模型是可解釋的,輸出結果必須滿足合規性。因此,一個自然的研究問題就是如何建立一個模型,既能在解決此類多通道多任務學習問題時取得滿意的性能,又能為最終用戶提供全面的解釋。為了回答這個問題,本文提出了一個通用的時間序列預測框架Dandelion,它利用多模態的一致性,并使用深度神經網絡來探索多個任務的相關性。此外,為了保證框架的可解釋性,我們集成了一種新的三位一體的注意機制,允許最終用戶在三個維度(即任務、通道和時間)上調查變量重要性。廣泛的實證結果表明,Dandelion在過去15年中對來自4個不同領域的396只股票的金融市場預測取得了優異的表現。具體地說,兩個有趣的案例研究顯示了Dandelion在其盈利表現和輸出結果對最終用戶的可解釋性方面的成效。
網址:
5. Exploiting Aesthetic Preference in Deep Cross Networks for Cross-domain Recommendation
作者:Jian Liu, Pengpeng Zhao, Fuzhen Zhuang, Yanchi Liu, Victor S. Sheng, Jiajie Xu, Xiaofang Zhou, Hui Xiong
摘要:產品的視覺美學在購買外觀優先的產品(如服裝)的決策過程中起著重要的作用。用戶的審美偏好作為一種個性特征和基本要求,是與領域無關的,可以作為領域間知識遷移的橋梁。然而,現有的工作很少考慮產品圖像中的審美信息進行跨域推薦。為此,本文提出了一種新的深度審美跨域網絡(ACDN),通過跨網絡共享表征個人審美偏好的參數來實現領域間的知識傳遞。具體地說,我們首先利用審美網絡來提取審美特征。然后,我們將這些特征集成到一個跨域網絡中,以傳遞用戶與領域無關的審美偏好。此外,還引入了網絡交叉連接,以實現跨域的雙重知識轉移。最后,在真實數據集上的實驗結果表明,我們提出的模型ACDN在推薦準確率方面優于基準方法。
網址:
6. Modeling Users’ Behavior Sequences with Hierarchical Explainable Network for Cross-domain Fraud Detection
作者:Yongchun Zhu, Dongbo Xi, Bowen Song, Fuzhen Zhuang, Shuai Chen, Xi Gu, Qing He
摘要:隨著電子商務行業的爆炸式增長,檢測現實應用中的網絡交易欺詐對電子商務平臺的發展變得越來越重要。用戶的連續行為歷史為區分欺詐支付和正常支付提供了有用的信息。最近,已經提出了一些方法來解決這一基于序列的欺詐檢測問題。然而,這些方法通常存在兩個問題:預測結果難以解釋和對行為內部信息的利用不足。針對上述兩個問題,本文提出了一種分層可解釋網絡(HEN)對用戶行為序列進行建模,不僅提高了欺詐檢測的性能,而且使推理過程具有可解釋性。同時,隨著電子商務業務擴展到新的領域,例如,新的國家或新的市場,在欺詐檢測系統中建模用戶行為的一個主要問題是數據收集的限制(例如,可用的數據/標簽非常少)。因此,在本文中,我們進一步提出了一個跨域欺詐檢測問題的遷移框架,該框架的目的是從現有領域(源域)遷移足夠成熟數據的知識,以提高在新領域(目標域)的性能。我們提出的方法是一個通用的遷移框架,它不僅可以應用于HEN,而且可以應用于嵌入&MLP范式中的各種現有模型。利用世界領先的跨境電商平臺的數據,我們在不同國家進行了廣泛的檢測盜卡交易詐騙的實驗,以展示HEN的優越性能。此外,基于90個遷移任務的實驗,證明了我們的遷移框架不僅可以用于HEN的跨域詐騙檢測任務,而且對現有的各種模型都具有通用性和可擴展性。此外,HEN和遷移框架形成了三個級別的注意力,極大地提高了檢測結果的可解釋性。
網址:
【導讀】現有的機器學習方法在很多場景下需要依賴大量的訓練樣本。但機器學習方法是否可以模仿人類,基于先驗知識等,只基于少量的樣本就可以進行學習。本文介紹34頁小樣本學習綜述《Generalizing from a Few Examples: A Survey on Few-Shot Learning》,包含166篇參考文獻,來自第四范式和香港科技大學習的研究學者。
小樣本學習綜述 Few-shot Learning: A Survey
【摘要】機器學習在數據密集型應用中非常成功,但當數據集很小時,它常常受到阻礙。為了解決這一問題,近年來提出了小樣本學習(FSL)。利用先驗知識,FSL可以快速地泛化到只包含少量有監督信息的樣本的新任務中。在這篇論文中,我們進行了一個徹底的調研,以充分了解FSL。從FSL的正式定義出發,我們將FSL與幾個相關的機器學習問題區分開來。然后指出了FSL的核心問題是經驗風險最小化是不可靠的。基于先驗知識如何處理這一核心問題,我們從三個角度對FSL方法進行了分類: (i) 數據,它使用先驗知識來增加監督經驗;(二) 利用先驗知識縮小假設空間大小的模型;(iii)算法,利用先驗知識在給定的假設空間中改變對最佳假設的搜索。有了這種分類法,我們就可以回顧和討論每個類別的優缺點。在FSL問題的設置、技術、應用和理論方面也提出了有前景的方向,為未來的研究提供了見解。
我們給出了FSL的形式化定義。它可以自然地鏈接到以往文獻中提出的經典機器學習定義。這個定義不僅足夠概括,包括所有現有的FSL -shot Learning: A Survey problems,而且足夠具體,明確了什么是FSL的目標,以及我們如何解決它。這一定義有助于確定未來FSL領域的研究目標。
指出了基于誤差分解的FSL在機器學習中的核心問題。我們發現,正是不可靠的經驗風險最小化使得FSL難以學習。這可以通過滿足或降低學習的樣本復雜度來緩解。理解核心問題有助于根據解決核心問題的方式將不同的工作分類為數據、模型和算法。更重要的是,這為更有組織和系統地改進FSL方法提供了見解。
我們對從FSL誕生到最近發表的文獻進行了廣泛的回顧,并將它們進行了統一的分類。對不同類別的優缺點進行了深入的討論。我們還對每個類別下的見解進行了總結。這對于初學者和有經驗的研究人員都是一個很好的指導方針。
我們在問題設置、技術、應用和理論方面展望了FSL未來的四個發展方向。這些見解都是基于當前FSL發展的不足之處,并有可能在未來進行探索。我們希望這部分能夠提供一些見解,為解決FSL問題做出貢獻,為真正的AI而努力。
與已有的關于小樣本概念學習和經驗學習的FSL相關調相比,我們給出了什么是FSL,為什么FSL很難,以及FSL如何將小樣本監督信息與先驗知識結合起來使學習成為可能的正式定義。我們進行了廣泛的文獻審查的基礎上提出的分類法與詳細討論的利弊,總結和見解。我們還討論了FSL與半監督學習、不平衡學習、遷移學習和元學習等相關話題之間的聯系和區別
元學習已被提出作為一個框架來解決具有挑戰性的小樣本學習設置。關鍵的思想是利用大量相似的小樣本任務,以學習如何使基學習者適應只有少數標記的樣本可用的新任務。由于深度神經網絡(DNNs)傾向于只使用少數樣本進行過度擬合,元學習通常使用淺層神經網絡(SNNs),因此限制了其有效性。本文提出了一種新的學習方法——元轉移學習(MTL)。具體來說,“meta”是指訓練多個任務,“transfer”是通過學習每個任務的DNN權值的縮放和變換函數來實現的。此外,我們還介紹了作為一種有效的MTL學習課程的困難任務元批處理方案。我們使用(5類,1次)和(5類,5次)識別任務,在兩個具有挑戰性的小樣本學習基準上進行實驗:miniImageNet和Fewshot-CIFAR100。通過與相關文獻的大量比較,驗證了本文提出的HT元批處理方案訓練的元轉移學習方法具有良好的學習效果。消融研究還表明,這兩種成分有助于快速收斂和高精度。
地址:
代碼:
【導讀】知識圖譜一直是學術界和工業界關注的熱點。隨著AAAI2020的到來,專知小編整理了最新10篇關于知識圖譜的論文,來自清華大學、中科大、北航、中山大學、UCL、Facebook、騰訊、阿里巴巴等,包含義原知識圖譜、知識遷移、知識圖譜層次表示、常識知識圖譜補全。
1、Towards Building a Multilingual Sememe Knowledge Base: Predicting Sememes for BabelNet Synsets(建立多語言義原知識庫:預測BabelNet Synsets的義原)
AAAI2020 oral ,清華大學
作者:Fanchao Qi, Liang Chang, Maosong Sun, Sicong Ouyang, Zhiyuan Liu
摘要:義原是人類語言中最小的語義單位。義原知識庫(KBs)包含了由義原標注的詞,已成功地應用于許多自然語言處理任務中。然而,現有的義原KBs僅建立在少數幾種語言上,這阻礙了它們的廣泛應用。為了解決這個問題,我們提出基于BabelNet(一種多語言百科詞典)為多種語言構建統一的義原知識庫。我們首先構建一個作為多語言義原知識庫種子的數據集。它為超過15000個synset (BabelNet的條目)手工注釋義位。然后,我們提出了一種新的自動預測synsets義位的任務,目的是將種子數據集擴展成一個可用的知識庫。我們還提出了兩個簡單有效的模型,利用了不同的synsets信息。最后,我們進行了定量和定性分析,以探索任務中的重要因素和困難。所有的源代碼和數據,這項工作可以獲得 //github.com/thunlp/BabelNet-Sememe-Prediction
論文地址:
2、Knowledge Graph Transfer Network for Few-Shot Recognition(知識圖譜遷移網絡小樣本識別)
AAAI2020 oral ,中山大學,暗物質
作者:Riquan Chen, Tianshui Chen, Xiaolu Hui, Hefeng Wu, Guanbin Li, Liang Lin
摘要:小樣本學習的目標是在給定一些基類有充足訓練樣本的情況下,從非常少的樣本中學習新的類別。這個任務的主要挑戰是新類很容易由顏色、質地、形狀的物體或背景上下文(即特異性),這特別是對于訓練樣本少且不常見的相應的類別非常突出(見圖1)。幸運的是,我們發現遷移信息的相關類別可以幫助學習新概念,從而避免新概念主導的特異性。此外,結合不同類別之間的語義關聯可以有效地規范這種信息傳遞。在本文中,我們將語義關聯以結構化的知識圖譜的形式表示出來,并將此圖集成到深度神經網絡中,通過一種新的知識圖譜傳輸網絡(KGTN)來促進小樣本學習。具體地,通過使用對應類別的分類器權值初始化每個節點,學習一種傳播機制,通過圖來自適應地傳播節點消息,探索節點間的交互,將基類的分類器信息傳遞給新類別的分類器信息。在ImageNet數據集上的大量實驗表明,與當前領先的對比方法相比,性能有了顯著的改進。此外,我們還構建了一個覆蓋更大范圍類別的ImageNet-6K數據集。在這個數據集上的實驗進一步證明了我們提出的模型的有效性。
論文地址:
3、Reasoning on Knowledge Graphs with Debate Dynamics(基于辯論動力學的知識圖譜推理)
AAAI2020 ,Siemens Corporate Technology
作者:Marcel Hildebrandt, Jorge Andres Quintero Serna, Yunpu Ma, Martin Ringsquandl, Mitchell Joblin, Volker Tresp
摘要: 我們提出了一種基于辯論動力學的知識圖譜自動推理方法。其主要思想是將三元組分類任務框定為兩個抽取論點(知識圖譜中的路徑)的強化學習代理之間的辯論游戲,目標分別是促進事實為真(正題)或事實為假(反題)。基于這些論據,一個叫做“法官”的二元分類器決定事實是對還是錯。這兩個代理可以被看作是稀疏的、對抗性的特征生成器,它們為正題或反題提供了可解釋的證據。與其他黑盒方法相比,這些參數允許用戶了解法官的決定。由于這項工作的重點是創建一個可解釋的方法,以保持一個有競爭力的預測精度,我們基準的三重分類和鏈接預測任務我們的方法。因此,我們發現我們的方法優于基準數據集FB15k-237、WN18RR和Hetionet上的幾個基線。我們也進行了一個調查,發現提取的參數對用戶是有益的。
論文地址:
4、Differentiable Reasoning on Large Knowledge Bases and Natural Language(大規模知識庫與自然語言上的可微分推理)
AAAI2020 ,UCL Centre for Artificial Intelligence, University College London,Facebook AI Research
作者:Pasquale Minervini, Matko Bo?njak, Tim Rockt?schel, Sebastian Riedel, Edward Grefenstette
摘要:用自然語言和知識庫(KBs)表達的知識進行推理是人工智能面臨的主要挑戰,在機器閱讀、對話和問題回答等方面都有應用。聯合學習文本表示和轉換的一些神經體系結構非常缺乏數據效率,很難分析它們的推理過程。這些問題由端到端的可微推理系統(如神經定理證明程序(NTPs))來解決,盡管它們只能用于小型符號KBs。在本文中,我們首先提出貪心NTPs (GNTPs),這是NTPs的擴展,解決了它們的復雜性和可伸縮性限制,從而使它們適用于真實世界的數據集。該結果是通過動態構建NTPs的計算圖來實現的,并且只包含推理過程中最有希望的證明路徑,從而獲得更有效的模型。然后,我們提出了一種新的方法,通過在一個共享的嵌入空間中嵌入邏輯事實和自然語言句子來聯合推理KBs和篇章提及。我們發現,GNTPs的性能與NTPs相當,但成本僅為NTPs的一小部分,同時在大型數據集上獲得了具有競爭力的鏈接預測結果,為預測提供了解釋,并引入了可解釋的模型。源代碼,數據集,和補充材料可在網上
論文地址:
5、Improving Knowledge-aware Dialogue Generation via Knowledge Base Question Answering(通過知識庫問題回答來改進知識感知對話的生成)
AAAI2020 ,華南理工,騰訊
作者:Jian Wang, Junhao Liu, Wei Bi, Xiaojiang Liu, Kejing He, Ruifeng Xu, Min Yang
摘要:神經網絡模型常常面臨將常識引入開放域對話系統的挑戰。本文提出了一種新的知識感知對話生成模型(TransDG),該模型將基于知識庫問答(KBQA)任務的問題表示和知識匹配能力進行轉換,以促進話語理解和對話生成的事實知識選擇。此外,我們提出了一種響應引導注意和多步驟解碼策略,以指導我們的模型將重點放在用于響應生成的相關特征上。在兩個基準數據集上的實驗表明,該模型在生成信息豐富、流暢的對話方面具有較強的優越性。我們的代碼在 .
論文地址:
6、Learning Hierarchy-Aware Knowledge Graph Embeddings for Link Prediction(用于鏈接預測的學習層次感知知識圖嵌入)
AAAI2020 ,中科大
作者:Zhanqiu Zhang, Jianyu Cai, Yongdong Zhang, Jie Wang
摘要:知識圖譜嵌入的目的是將實體和關系表示為低維向量(或矩陣、張量等),已經被證明是一種預測知識圖譜中缺失鏈接的強大技術。現有的知識圖譜嵌入模型主要側重于對稱/反對稱、反轉、復合等關系模式的建模。然而,許多現有的方法無法對語義層次結構建模,而這在實際應用程序中是很常見的。為了解決這一問題,我們提出了一種新的知識圖譜嵌入模型——層次感知知識圖譜嵌入(HAKE),它將實體映射到極坐標系統中。HAKE的靈感來自于這樣一個事實,即在極坐標系統中的同心圓可以自然地反映層次結構。具體來說,徑向坐標的目標是在層次結構的不同層次上對實體進行建模,半徑較小的實體被期望在更高的層次上;角坐標的目的是區分層次結構中同一層次上的實體,這些實體的半徑大致相同,但角度不同。實驗表明,HAKE可以有效地對知識圖譜中的語義層次進行建模,并在鏈接預測任務的基準數據集上顯著優于現有的最先進的方法。
.
論文地址:
7、Knowledge Graph Alignment Network with Gated Multi-hop Neighborhood Aggregation(用具有門控多跳鄰居聚合的知識圖譜對齊網絡)
AAAI2020 ,南京大學,阿里巴巴
作者:Zequn Sun, Chengming Wang, Wei Hu, Muhao Chen, Jian Dai, Wei Zhang, Yuzhong Qu
摘要:圖神經網絡由于具有識別同構子圖的能力,已經成為一種強大的基于嵌入的實體對齊范式。然而,在實知識圖(KGs)中,對應實體通常具有非同構的鄰域結構,這很容易導致gnn產生不同的表示。為了解決這一問題,我們提出了一種新的KG對齊網絡,即AliNet,旨在以端到端方式緩解鄰域結構的非同構性。由于模式異構性,對等實體的直接鄰居通常是不相似的,AliNet引入了遠程鄰居來擴展它們的鄰居結構之間的重疊。它采用了一種注意機制,以突出有益的遙遠的鄰居和減少噪音。然后,利用門控機制控制直接和遠處鄰居信息的聚合。我們進一步提出了一個關系損失來細化實體表示。我們進行了深入的實驗,詳細的燒蝕研究和分析的五個實體對齊數據集,證明了AliNet的有效性。
.
論文地址:
8、Rule-Guided Compositional Representation Learning on Knowledge Graphs(規則指導的知識圖譜組合式表示學習)
AAAI2020 ,北航
作者:Guanglin Niu, Yongfei Zhang, Bo Li, Peng Cui, Si Liu, Jingyang Li, Xiaowei Zhang
摘要:知識圖譜的表示學習是將知識圖中的實體和關系嵌入到低維連續向量空間中。早期的KG嵌入方法只關注三元組編碼的結構化信息,由于KGs的結構稀疏性,導致其性能有限。最近的一些嘗試考慮路徑信息來擴展KGs的結構,但在獲取路徑表示的過程中缺乏可解釋性。本文提出了一種新的基于規則和路徑的聯合嵌入(RPJE)方案,該方案充分利用了邏輯規則的可解釋性和準確性、KG嵌入的泛化性以及路徑的補充語義結構。具體來說,首先從KG中挖掘出不同長度(規則體中的關系數)的Horn子句形式的邏輯規則,并對其進行編碼,用于表示學習。然后,利用長度2的規則來精確地組合路徑,而使用長度1的規則來明確地創建關系之間的語義關聯和約束關系嵌入。優化時還考慮了規則的置信度,保證了規則在表示學習中的可用性。大量的實驗結果表明,RPJE在KG完成任務上的表現優于其他最先進的基線,這也證明了利用邏輯規則和路徑來提高表示學習的準確性和可解釋性的優越性。
.
論文地址:
9、InteractE: Improving Convolution-based Knowledge Graph Embeddings by Increasing Feature Interactions(規InteractE:通過增加特征交互來改進基于卷積的知識圖譜嵌入)
AAAI2020 ,Indian Institute of Science, Columbia University
作者:Shikhar Vashishth, Soumya Sanyal, Vikram Nitin, Nilesh Agrawal, Partha Talukdar
摘要:現有的知識圖譜大多存在不完備性,可以通過基于已知事實推斷缺失的鏈接來緩解不完備性。一種流行的方法是生成實體和關系的低維嵌入,并使用它們進行推論。ConvE是最近提出的一種方法,它將卷積濾波器應用于實體和關系嵌入的二維重塑,以捕獲其組件之間豐富的交互。然而,ConvE能夠捕獲的交互的數量是有限的。在這篇論文中,我們分析了增加這些相互作用的數量如何影響鏈路預測性能,并利用我們的觀測結果提出了相互作用。InteractE基于三個關鍵思想:特征置換、新穎的特征重塑和循環卷積。通過大量的實驗,我們發現InteractE在FB15k-237上的性能優于最先進的卷積鏈路預測基線。此外,InteractE在FB15k-237、WN18RR和YAGO3-10數據集上的MRR評分分別比ConvE高9%、7.5%和23%。結果驗證了我們的中心假設——增加特征交互有助于鏈接預測性能。我們提供InteractE的源代碼,以鼓勵可重復的研究。 InteractE.
.
論文地址:
10、Commonsense Knowledge Base Completion with Structural and Semantic Context(具有結構和語義上下文的常識知識庫的完成)
AAAI2020 ,Allen Institute for Artificial Intelligence 華盛頓大學
作者:Chaitanya Malaviya, Chandra Bhagavatula, Antoine Bosselut, Yejin Choi
摘要:與經過大量研究的傳統知識庫(如Freebase)相比,對常識知識圖譜(如原子圖和概念圖)的自動知識庫補全帶來了獨特的挑戰。常識知識圖譜使用自由格式的文本來表示節點,這使得節點的數量比傳統KBs多了幾個數量級(ATOMIC比Freebase多18倍(FB15K-237))。重要的是,這意味著圖數據結構將顯著稀疏化——這是現有KB補全方法面臨的主要挑戰,因為這些方法在相對較小的節點集上采用密集連接的圖數據。在本文中,我們提出了新的知識庫完成模型,該模型可以通過利用節點的結構和語義上下文來解決這些挑戰。具體來說,我們研究了兩個關鍵的思想: (1) 從局部圖結構學習,使用圖卷積網絡和自動圖加密,(2) 從預先訓練的語言模型學習到知識圖譜,以增強知識的上下文表示。我們描述了將來自這兩個來源的信息合并到一個聯合模型中的方法,并提供了原子知識庫完成和使用ConceptNet上的排名指標進行評估的第一個經驗結果。我們的結果證明了語言模型表示在提高鏈接預測性能方面的有效性,以及在訓練子圖以提高計算效率時從局部圖結構(對ConceptNet的MRR +1.5分)學習的優勢。對模型預測的進一步分析揭示了語言模型能夠很好地捕捉到的常識類型。
.
論文地址:
?【導讀】NeurIPS 是全球最受矚目的AI、機器學習頂級學術會議之一,每年全球的人工智能愛好者和科學家都會在這里聚集,發布最新研究。NIPS 2019大會已經在12月8日-14日在加拿大溫哥華舉行。這次專知小編發現零樣本學習(Zero-Shot Learning, ZSL)在今年的NeurIPS出現了好多篇,也突出其近期的火熱程度, 為此,專知小編整理了NIPS 2019零樣本學習(Zero-Shot Learning)相關的論文供大家學習收藏—零樣本知識遷移、Transductive ZSL、多注意力定位、ZSL語義分割、對偶對抗語義一致網絡。
作者:Paul Micaelli and Amos Storkey
摘要:在現代深度學習應用中,將知識從一個大的teacher network遷移到一個小的student network中是一個很受歡迎的任務。然而,由于數據集的規模越來越大,隱私法規也越來越嚴格,越來越多的人無法訪問用于訓練teacher network的數據。我們提出一種新方法,訓練student network在不使用任何數據或元數據的情況下,與teacher network的預測相匹配。我們通過訓練一個對抗生成器來搜索student與teacher匹配不佳的圖片,然后使用它們來訓練student,從而達到這個目的。我們得到的student在SVHN這樣的簡單數據集上與teacher非常接近,而在CIFAR10上,盡管沒有使用數據,我們在few-shot distillation (100 images per class)的技術水平上進行了改進。最后,我們還提出了一種度量標準,來量化teacher與student在決策邊界附近的信念匹配程度,并觀察到我們的zero-shot student與teacher之間的匹配程度顯著高于用真實數據提取的student與teacher之間的匹配程度。我們的代碼鏈接如下:
//github.com/polo5/ZeroShotKnowledgeTransfer。
網址:
2. Transductive Zero-Shot Learning with Visual Structure Constraint
作者:Ziyu Wan, Dongdong Chen, Yan Li, Xingguang Yan, Junge Zhang, Yizhou Yu and Jing Liao
摘要:為了識別未知類的目標,現有的零樣本學習(Zero-Shot Learning, ZSL)方法大多是先根據源可見類的數據,在公共語義空間和視覺空間之間學習一個相容的投影函數,然后直接應用于目標未知類。然而,在實際場景中,源域和目標域之間的數據分布可能不匹配,從而導致眾所周知的domain shift問題。基于觀察到的測試實例的視覺特征可以被分割成不同的簇,我們針對轉導ZSL的類中心提出了一種新的視覺結構約束,以提高投影函數的通用性(即緩解上述域移位問題)。具體來說,采用了三種不同的策略 (symmetric Chamfer-distance, Bipartite matching distance, 和Wasserstein distance) 來對齊測試實例的投影不可見的語義中心和可視集群中心。我們還提出了一種新的訓練策略,以處理測試數據集中存在大量不相關圖像的實際情況,這在以前的方法中是沒有考慮到的。在許多廣泛使用的數據集上進行的實驗表明,我們所提出的視覺結構約束能夠持續地帶來可觀的性能增益,并取得最先進的結果。我們源代碼在:
網址:
作者:Yizhe Zhu, Jianwen Xie, Zhiqiang Tang, Xi Peng and Ahmed Elgammal
摘要:零樣本學習(Zero-shot learning)通過引入類的語義表示,將傳統的目標分類擴展到不可見的類識別。現有的方法主要側重于學習視覺語義嵌入的映射函數,而忽視了學習discriminative視覺特征的效果。本文研究了discriminative region localization的意義。提出了一種基于語義引導的多注意力定位模型,該模型能自動發現目標中最discriminative的部分,實現零樣本學習,不需要人工標注。我們的模型從整個目標和被檢測部分共同學習協作的全局和局部特征,根據語義描述對對象進行分類。此外,在嵌入softmax loss和class-center triplet loss的聯合監督下,鼓勵模型學習具有高類間離散性和類內緊湊性的特征。通過對三種廣泛使用的零樣本學習基準的綜合實驗,我們證明了multi-attention localization的有效性,我們提出的方法在很大程度上改進了最先進的結果。
網址:
作者:Hyeonwoo Yu and Beomhee Lee
摘要:為了克服不可見類訓練數據的不足,傳統的零樣本學習方法主要在可見數據點上訓練模型,并利用可見類和不可見類的語義描述。在探索類與類之間關系的基礎上,我們提出了一個深度生成模型,為模型提供了可見類與不可見類的經驗。該方法基于類特定多模態先驗的變分自編碼器,學習可見類和不可見類的條件分布。為了避免使用不可見類的示例,我們將不存在的數據視為缺失的示例。也就是說,我們的網絡目標是通過迭代地遵循生成和學習策略來尋找最優的不可見數據點和模型參數。由于我們得到了可見類和不可見類的條件生成模型,因此無需任何現成的分類器就可以直接進行分類和生成。在實驗結果中,我們證明了所提出的生成和學習策略使模型取得了優于僅在可見類上訓練的結果,也優于幾種最先進的方法。
網址:
作者:Maxime Bucher, Tuan-Hung VU, Matthieu Cord and Patrick Pérez
摘要:語義分割模型在擴展到大量對象類別的能力上受到限制。在本文中,我們介紹了零樣本語義分割的新任務:用零訓練實例學習從未見過的對象類別的像素級分類器。為此,我們提出了一個新的架構,ZS3Net,結合了一個深度的視覺分割模型和一種從語義詞嵌入生成視覺表示的方法。通過這種方式,ZS3Net解決了在測試時可見和不可見的類別都面臨的像素分類任務(所謂的“generalized” zero-shot 分類)。通過依賴于不可見類的像素的自動偽標記的自訓練步驟,可以進一步提高性能。在兩個標準的細分數據集,Pascal-VOC和Pascal-Context,我們提出了zero-shot基準和設置競爭的baseline。對于Pascal-Context數據集中的復雜場景,我們通過使用圖形-上下文編碼來擴展我們的方法,以充分利用來自類分割圖的空間上下文先驗。
網址:
作者:Jian Ni, Shanghang Zhang and Haiyong Xie
摘要:廣義零樣本學習(Generalized zero-shot learning,GZSL)是一類具有挑戰性的視覺和知識遷移問題,在測試過程中,既有看得見的類,也有看不見的類。現有的GZSL方法要么在嵌入階段遭遇語義丟失,拋棄有區別的信息,要么不能保證視覺語義交互。為了解決這些局限性,我們提出了一個Dual Adversarial Semantics-Consistent Network (簡稱DASCN),它在一個統一的GZSL框架中學習原始的和對偶的生成的對抗網絡(GANs)。在DASCN中,原始的GAN學習綜合類間的區別和語義——從可見/不可見類的語義表示和對偶GAN重構的語義表示中保留視覺特征。對偶GAN通過語義一致的對抗性學習,使合成的視覺特征能夠很好地表示先驗語義知識。據我們所知,這是針對GZSL采用新穎的Dual-GAN機制的第一個工作。大量的實驗表明,我們的方法比最先進的方法取得了顯著的改進。
網址:
論文題目
FEW SHOT LINK PREDICTION VIA META LEARNING
論文摘要
我們考慮了樣本鏈接預測的任務,其目標是僅使用一個小樣本的已知邊來預測多個圖中的未命中邊。但是,目前的鏈路預測方法通常不適合處理這項任務,因為它們無法在多圖環境中有效地在圖之間傳遞知識,也無法有效地從非常稀疏的數據中學習。為了應對這一挑戰,我們引入了一個新的基于梯度的元學習框架meta Graph,它利用高階梯度和一個學習的Graph sig nature函數來有條件地生成一個Graph神經網絡初始化,我們證明,元圖形不僅可以快速適應,而且可以更好地最終收斂,并且僅使用一小部分真實邊緣樣本就可以有效地學習。
論文作者
Avishek Joey Bose*來自麥吉爾大學。