亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在最大化源與目標之間的互信息方面的最新進展已經證明了它在文本生成方面的有效性。然而,以往的工作對MI(即MI)的后向網絡建模關注較少。這對于變分信息最大化下界的緊密性至關重要。在本文中,我們提出了一個對抗互信息(AMI):一個文本生成框架,它是一個新的鞍點(min-max)優化,旨在識別源與目標之間的聯合交互。在這個框架中,通過比較真實和合成的數據分布,前向網絡和后向網絡能夠迭代地提升或降級彼此生成的實例。我們還開發了一個潛在噪聲采樣策略,利用高級語義空間的隨機變化來增強生成過程中的長期依賴性。基于不同文本生成任務的大量實驗表明,所提出的AMI框架能夠顯著優于多個強基線,我們還表明,AMI有可能為變分信息最大化問題帶來更緊密的互信息上限。

//www.zhuanzhi.ai/paper/ccd8403755c153d155bec032656f8c49

付費5元查看完整內容

相關內容

隨著網絡和信息技術的不斷發展,全球數據量呈現爆炸式增長。這些海量、復雜的數據已經對社會經濟、政治、文化以及生活等方面產生了深遠的影響。然而,數據在采集或者傳送過程中(例如:成像、掃描、傳輸等)難免會受到噪聲的污染,這對數據的后續處理(例如:特征學習)是很不利的。目前存在的方法僅能夠處理單一的有規則的噪聲(例如:高斯、拉普拉斯噪聲)。顯然,這離實際的需求相差甚遠。

為了解決這個問題,我們從學習者和攻擊者的角度出發,提出一種對抗的非負矩陣分解方法。這是目前為止第一個有關對抗的非負矩陣分解的工作。與專注于常規輸入或某些特定類型噪聲的傳統模型不同,我們的方法借助對抗訓練的優勢來處理各種不同類型的噪聲。我們使用交替方向迭代法解決所提出的全新模型,并證明了算法的收斂性。為了在理論上保證模型的合理性,我們在不同條件下提供了模型的魯棒性分析。我們在具有各種噪聲條件(例如不規則的遮擋)的數據集上設計了一系列實驗。所有的實驗結果證明了我們的算法在性能上始終優于其他相關方法。

付費5元查看完整內容

UniLMv2:統一預訓練偽掩碼語言模型

UniLMv2: Pseudo-Masked Language Models for Unified Language Model Pre-Training

論文鏈接://www.zhuanzhi.ai/paper/a6628400809ab320e597b1d4d1fca177

基于大規模語料的預訓練語言模型在各種自然語言處理任務帶來了巨大的提升。受UniLMv1 ([NeurIPS-19]Unified Language Model Pre-training for Natural Language Understanding and Generation)的啟發,本篇論文提出“偽掩碼語言模型”(PMLM),可以同時對兩種不同的語言建模目標進行高效訓練,從而使其更好地適用于語言理解(如文本分類、自動問答)和語言生成(如文本摘要、問題生成)任務。

我們將語言模型預訓練目標分為三類。第一類依賴于自編碼語言建模(Autoencoding, AE)。例如在 BERT 中使用的掩碼語言建模(MLM)隨機的在文本序列中遮蓋一部分單詞,在 Transformer 的雙向編碼結果之上,對每個被遮蓋的單詞進行分別還原。第二類方法基于自回歸建模(Autoregressive, AR)。不同于 AE,目標單詞被依次預測,且依賴于先前的結果。第三類是我們提出的半自回歸語言建模(Partially Autoregressive, PAR),對短語級別進行依賴建模,從而避免了 AR可能帶來的過度局部依賴問題。

偽掩碼語言模型(PMLM)

在新提出的偽掩碼語言模型(PMLM)中,我們對 AE 以及 PAR 這兩個語言建模目標進行了融合。在共享模型參數的基礎上,盡可能對上下文的編碼結果進行了復用,以達到高效訓練的目的。通過構造合理的自注意力模型掩碼與位置編碼,PMLM 可以在一次計算中同時對兩種語言建模任務進行訓練,且無需進行上下文編碼的冗余計算。

在自動問答、復述判別、情感分類、文本摘要、問題生成等一系列任務上的測評,說明了這一方法的有效性。

付費5元查看完整內容

最近,終身學習在構建不斷積累和轉移知識以幫助未來學習的機器學習系統方面引起了關注。無監督主題建模廣泛用于從文檔集合中發現主題。然而,由于數據稀疏性,例如,在一個小的(短)文檔集合中,會產生不連貫的主題和次優的文檔表示,主題建模的應用具有挑戰性。為了解決這個問題,我們提出了一個神經主題建模的終身學習框架,它可以連續處理文檔集流,積累主題,并通過從多個來源的知識轉移來指導未來的主題建模任務,以更好地處理稀疏的數據。在終身學習過程中,我們特別共同研究:(1)終生共享生成同源性(潛在話題)以轉移先驗知識,(2)通過新穎的選擇性數據增強、聯合訓練和話題正則化方法最小化保留過去學習的災難性遺忘。在給定一個文檔集合流的情況下,我們應用所提出的終身神經主題建模(LNTM)框架,將三個稀疏文檔集合建模為未來任務,并通過perplexity、Topic coherence和information retrieval task量化,證明了性能的提高。

付費5元查看完整內容

人工神經網絡(ANNS)在解決各種認知模式下的感知任務方面顯示出很大的經驗成功。雖然它們只是受到生物大腦的松散啟發,但最近的研究報告稱,從任務優化的神經網絡中提取的表征與大腦中的神經種群之間存在相當多的相似性。神經網絡后來成為一個流行的模型類,用來推斷復雜認知功能下的計算原理,反過來,它們也成為一個自然的實驗平臺,用來應用最初開發的方法來探測神經群體中的信息。在這項工作中,我們利用平均場理論流形分析,從計算神經科學的最新技術,從大規模語境嵌入模型分析語言表示的高維幾何。我們從不同的模型族(BERT, RoBERTa, GPT-2等)中探索表征,并找到跨層深度的語言流形出現的證據(例如詞性流形和組合范疇語法標簽)。我們進一步觀察到,不同的編碼方案用于獲取表示,導致這些語言流形出現在網絡的早期或后期層的差異。此外,我們發現這些流形中線性可分性的出現是由流形半徑、維數和流形間相關性的聯合減少所驅動的。

//arxiv.org/abs/2006.01095

付費5元查看完整內容

自回歸文本生成模型通常側重于局部的流暢性,在長文本生成過程中可能導致語義不一致。此外,自動生成具有相似語義的單詞是具有挑戰性的,而且手工編寫的語言規則很難應用。我們考慮了一個文本規劃方案,并提出了一個基于模型的模仿學習方法來緩解上述問題。具體來說,我們提出了一種新的引導網絡來關注更長的生成過程,它可以幫助下一個單詞的預測,并為生成器的優化提供中間獎勵。大量的實驗表明,該方法具有較好的性能。

付費5元查看完整內容

知識圖譜補全(KGC)任務的目的是自動推斷知識圖譜(KG)中缺失的事實信息。在本文中,我們采用了一個新的視角,旨在利用豐富的用戶-項目交互數據(簡稱用戶交互數據)來改進KGC任務。我們的工作靈感來自于許多KG實體對應于應用程序系統中的在線項目的觀察。然而,這兩種數據源具有非常不同的內在特性,使用簡單的融合策略可能會影響原始的性能。

為了解決這一挑戰,我們提出了一種利用KGC任務的用戶交互數據的新穎的對抗性學習方法。我們的生成器是與用戶交互數據隔離的,用于提高鑒別器的性能。鑒別器將從用戶交互數據中學習到的有用信息作為輸入,逐步增強評價能力,以識別生成器生成的虛假樣本。為了發現用戶的隱式實體偏好,我們設計了一種基于圖神經網絡的協同學習算法,該算法將與鑒別器共同優化。這種方法可以有效地緩解KGC任務的數據異構性和語義復雜性問題。在三個真實數據集上的大量實驗證明了我們的方法在KGC任務上的有效性。

付費5元查看完整內容
北京阿比特科技有限公司