亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

基于知識庫的問題生成(KBQG)任務旨在將邏輯形式轉換為自然語言問題。由于大規模問題標注的成本昂貴,迫切需要開發低資源場景下的KBQG方法。然而,現有方法嚴重依賴于標注數據進行微調,不適合少樣本問題生成。大型語言模型(LLM)的出現在小樣本任務中表現出了令人印象深刻的泛化能力。受思維鏈(CoT)提示的啟發,該文將KBQG任務表述為一個推理問題,將一個完整問題的生成分解為一系列子問題的生成。所提出的提示方法KQG-CoT首先考慮邏輯形式的特征,從未標記的數據池中選擇支持邏輯形式。然后,構建一個特定于任務的提示,以指導LLM基于所選邏輯形式生成復雜的問題。為了進一步確保提示質量,我們通過對邏輯形式的復雜性進行排序,將KQG-CoT擴展為KQG-CoT+。在三個公開的KBQG數據集上進行了廣泛的實驗。結果表明,我們的提示方法在評估數據集上始終優于其他提示基線。值得注意的是,我們的KQG-CoT+方法可以在BLEU-4、METEOR和ROUGE-L上分別超過PathQuestions數據集現有的少樣本SoTA結果18.25、10.72和10.18個絕對點。

付費5元查看完整內容

相關內容

在許多實際情況中(例如,學術網絡、社交平臺),不同類型的實體不僅與文本關聯,而且還通過各種關系相互連接,這可以被抽象為文本屬性異構圖(TAHGs)。當前的語言模型(LMs)預訓練任務主要集中在分開學習每個實體的文本信息,并忽視了捕捉TAHGs中實體之間的拓撲關系的重要方面。在這篇論文中,我們提出了一個新的針對LMs的預訓練框架,明確地考慮TAHGs中的拓撲和異構信息。首先,我們定義了一個上下文圖為特定順序內的目標節點的鄰域,并提議一個拓撲意識的預訓練任務,通過聯合優化LM和一個輔助的異構圖神經網絡來預測參與上下文圖的節點。其次,基于觀察到一些節點文本豐富,而其他節點文本很少的現象,我們設計了一種文本增強策略,通過其鄰居的文本來豐富沒有文本的節點,以處理不平衡問題。我們在三個來自不同領域的數據集上進行鏈接預測和節點分類任務。實驗結果證明了我們的方法相對于現有方法的優越性和每種設計的合理性。我們的代碼可在以下鏈接找到://github.com/Hope-Rita/THLM。

付費5元查看完整內容

少樣本圖像生成(FSIG)通過使用少量(例如,10個)參考樣本來學習生成目標領域中多樣且高保真的圖像。現有的FSIG方法選擇、保留并將源生成器(在相關領域上預訓練)的先驗知識轉移到目標生成器中進行學習。在本文中,我們研究了FSIG中一個鮮為人知的問題,稱為不兼容知識遷移,它會大大降低合成樣本的真實感。實證觀察表明,這個問題源于源生成器中最不重要的過濾器。為此,我們提出了知識截斷來緩解FSIG中的這個問題,它是一種與知識保護互補的操作,并通過一種輕量級的剪枝方法實現。大量實驗表明,知識截斷簡單且有效,始終實現最先進的性能,包括源和目標領域距離較遠的具有挑戰性的設置。項目頁面:yunqing-me.github.io/RICK。

付費5元查看完整內容

現代語義分割增量學習方法通常基于密集標注來學習新的類別。盡管取得了很好的結果,但逐像素標記是昂貴和耗時的。弱增量語義分割學習(WILSS)是一項新穎而吸引人的任務,旨在從廉價且廣泛可用的圖像級標簽中學習分割出新的類別。盡管效果相當,但圖像級標簽無法提供定位每個分割的細節,這限制了WILSS的性能。這啟發我們思考如何改進和有效利用給定圖像級標簽的新類的監督,同時避免忘記舊類。本文提出一種新的數據高效的WILSS框架FMWISS。本文提出基于預訓練的協同分割,以提取互補的基礎模型的知識,以生成密集的偽標簽。用師生架構進一步優化了有噪聲的偽掩碼,其中插件式教師用提出的密集對比損失進行了優化。提出了基于內存的復制粘貼增強,以改善舊類的災難性遺忘問題。在Pascal VOC和COCO數據集上的實驗結果表明,FMWISS在15-5 VOC的數據集上取得了70.7%和73.3%的性能提升,分別比當前最好的方法提升了3.4%和6.1%。 //antoyang.github.io/vid2seq.html

付費5元查看完整內容

深度度量學習(Deep Metric Learning, DML)提出學習度量空間,將語義相似性編碼為嵌入空間距離。這些空間應該可以轉移到訓練期間看到的類別之外。通常,DML方法使用任務網絡來解決在二元類分配上定義的對比排序任務。然而,這種方法忽略了實際類之間的高級語義關系。這導致學習后的嵌入空間編碼不完整的語義上下文,并歪曲類之間的語義關系,影響了學習后的度量空間的泛化性。為了解決這一問題**,我們提出了一種視覺相似度學習的語言指導目標**。利用專家類名和偽類名的語言嵌入,我們根據有意義的語言語義對視覺表示空間進行上下文化和重新對齊,以獲得更好的語義一致性。大量的實驗和消融為我們提出的方法提供了強大的動力,并顯示語言指導為DML提供了顯著的、模型無關的改進,在所有基準上實現了具有競爭力的和最先進的結果。代碼可在//github.com/ExplainableML/LanguageGuidance_for_DML獲得。

付費5元查看完整內容

在預訓練和微調范式下,預訓練語言模型(PLMs)在各種自然語言處理(NLP)任務中取得了巨大的成功。由于具有大量的參數,PLM需要大量的計算和資源。因此,模型剪枝被引入到大規模PLM的壓縮中。然而,以往的方法大多只考慮下游任務的特定知識,而忽略了修剪過程中基本的任務不可知知識,這可能會導致災難性遺忘問題,導致泛化能力較差。為了在我們的剪枝模型中保持任務不可知論和任務特定的知識,我們提出了對比剪枝(CAP)在預訓練和微調范式下。它被設計成一個通用框架,兼容結構化和非結構化剪枝。CAP統一于對比學習,使得經過修剪的模型能夠從預訓練的任務不可知知識模型和精細調整的任務特定知識模型中學習。此外,為了更好地保留剪枝模型的性能,快照(即每次剪枝迭代時的中間模型)也可以作為剪枝的有效監督。我們大量的實驗表明,采用CAP能夠持續地產生顯著的改進,特別是在非常高的稀疏性場景中。在只保留3%模型參數(即97%稀疏度)的情況下,CAP在QQP和MNLI任務中分別成功地實現了原BERT算法的99.2%和96.3%的性能。此外,我們的探索性實驗表明,經過CAP修剪的模型具有較好的泛化能力。

//www.zhuanzhi.ai/paper/d2442bf43a31aaa81587f38a17e6c85d

付費5元查看完整內容

在不斷增長的分析服務領域上運行的生產系統通常需要為具有有限數據的新任務生成熱啟動解決方案模型。解決這一暖啟動挑戰的一個潛在方法是采用元學習來生成一個基礎模型,該模型可以通過最小的微調來解決看不見的任務。然而,這需要同步現有任務的以前解決方案模型的訓練過程。如果這些模型在不同實體擁有的私有數據上分別進行預訓練,并且不能同步地重新訓練,那么就不可能做到這一點。為了適應這種情況,我們開發了一種新的個性化學習框架,通過融合相關任務的獨立預訓練模型,為未見任務綜合定制模型。我們建立了該框架的性能保證,并在合成和真實數據集上證明了其有效性。

//proceedings.mlr.press/v139/lam21a.html

付費5元查看完整內容

可學習知識引導的事件因果關系識別數據增強方法

事件因果關系識別(Event Causality Identification, ECI)旨在識別文本中事件之間的因果關系,可以為許多自然語言處理任務提供重要線索,如邏輯推理、問答系統等。ECI任務通常被建模為一個分類問題,即識別一個句子中兩個事件之間是否存在因果關系。

目前大多數ECI方法采用監督學習的范式。雖然這些方法取得了很好的性能,但通常需要大規模的標注訓練數據。然而,現有的事件因果關系識別數據集相對較少。小規模的標注數據集阻礙了高性能事件因果關系識別模型的訓練,無法提供充足的訓練數據支撐模型準確理解文本中的事件關系語義。

本文探索了一個知識融合的數據增強方法,利用大量抽取的因果相關事件生成新訓練數據,解決ECI任務訓練數據缺失問題。該方法包含兩個框架,知識增強的事件因果關系數據自動標注框架和知識引導的事件因果關系數據生成框架。其中,知識引導的事件因果關系數據生成框架(Learnable Data Augmentation framework, LearnDA),利用對偶學習機制,將事件因果關系識別器和數據生成器對偶約束,從識別過程中學習如何生成任務相關的新數據,從生成過程中學習如何更準確地理解因果語義,生成高質量表達事件因果語義的新訓練數據。

付費5元查看完整內容

時序知識圖譜推理是信息檢索和語義搜索的關鍵任務。當TKG頻繁更新時,這是特別具有挑戰性的。該模型必須適應TKG的變化,以便進行有效的訓練和推理,同時保持其對歷史知識的表現。最近的工作通過增加一個時間感知編碼函數來實現TKG補全(TKGC)。然而,使用這些方法在每個時間步驟中直接微調模型并不能解決以下問題:1)災難性遺忘;2)模型不能識別事實的變化(例如,政治派別的變化和婚姻的結束);3)缺乏訓練效率。為了解決這些挑戰,我們提出了時間感知增量嵌入(TIE)框架,該框架結合了TKG表示學習、經驗回放和時間正則化。我們引入一組度量標準來描述模型的不妥協性,并提出一個約束,將刪除的事實與負面標簽相關聯。在Wikidata12k和YAGO11k數據集上的實驗結果表明,本文提出的TIE框架減少了大約10倍的訓練時間,并在提出的指標上有所改進。對于任何傳統的度量方法,它都不會造成性能上的重大損失。廣泛的消融研究揭示了不同評估指標之間的性能權衡,這對于真實世界的TKG應用的決策是至關重要的。

付費5元查看完整內容

在大規模無標簽文本上預訓練語言模型,然后在下游任務微調的學習模式已經在自然語言處理(NLP)領域取得了廣泛的應用。盡管當前的預訓練語言模型在大部分NLP任務上取得了顯著的進展,然而,研究人員發現當預訓練任務的目標更接近于下游任務的目標時,模型在下游任務上能取得更大幅度的性能提升,例如針對文本摘要設計的Gap Sentence Prediciton預訓練任務[1]、面向機器閱讀理解設計的Span Selection預訓練任務[2]、以及為情感分析設計的Label-aware MLM預訓練任務[3],都取得了相較于原始預訓練語言模型更好的性能。近年來,在信息檢索(IR)中,預訓練語言模型在文檔排序任務上取得了一定的效果,然而,如何設計更符合信息檢索需求的預訓練目標,是一個值得探索的新領域。

在這項工作中,我們提出了一個新穎的針對信息檢索的預訓練任務,叫做“代表詞預測”任務(Representative Words Prediction)。這個任務是受到了IR中經典統計語言模型——查詢似然模型的啟發,在查詢似然模型的基本假設中,查詢被認為是由“理想”文檔“生成”出來的具有代表性的文本,因此通過貝葉斯定理推導,查詢的相關性強度可由其代表性或者說是其似然值表征。鑒于此,我們就構建了這樣一個新的代表詞預測任務(簡稱為ROP任務),具體來說,對于一個給定的文檔,我們根據文檔語言模型(狄利克雷平滑的多項式語言模型)采樣出該文檔的代表性詞集,然后預訓練語言模型使其能夠有效地區分出其中哪些詞項更具有代表性。為了同時建模查詢和文檔內容理解以及二者關系的預測,我們結合ROP與MLM一起在無標簽的文檔語料上進行預訓練,我們把通過這種預訓練方式得到的語言模型命名為PROP。

//www.zhuanzhi.ai/paper/57435651043bb840be881c8e7a71c70d

付費5元查看完整內容

盡管生成式預訓練語言模型在一系列文本生成任務上取得了成功,但在生成過程中需要對基本常識進行推理的情況下,它們仍然會受到影響。現有的將常識知識整合到生成的預訓練語言模型中的方法,只是簡單地通過對單個知識三元組的后訓練來遷移關系知識,而忽略了知識圖譜中豐富的連接。我們認為,利用知識圖譜的結構和語義信息有助于常識感知文本的生成。在本文中,我們提出用多跳推理流(GRF)進行生成,使預訓練的模型能夠在從外部常識知識圖譜中提取的多關系路徑上進行動態多跳推理。我們的經驗表明,我們的模型在三個文本生成任務上優于現有的基線,這些任務需要推理而非常識知識。通過模型推導出的推理路徑,證明了動態多跳推理模塊的有效性,為生成過程提供了理論依據。

//arxiv.org/abs/2009.11692

付費5元查看完整內容
北京阿比特科技有限公司