摘要
基于神經網絡的生成式模型的最新進展重新燃起了計算機系統能夠與人類無縫對話并能夠理解自然語言的希望。神經結構被用于生成文本摘錄,在滿足不同用戶需求的多種上下文和任務中取得了不同程度的成功。值得注意的是,在大規模數據集上訓練的高容量深度學習模型顯示出無與倫比的能力,即使在缺乏明確的監督信號的情況下,也能在數據中學習模式,這為生成現實和連貫的文本提供了大量新的可能性。雖然自然語言生成領域正在迅速發展,但仍有許多開放的挑戰需要解決。在這篇綜述中,我們正式地定義和分類自然語言生成的問題。我們回顧了這些通用公式的實例化的特定應用程序任務,在這些任務中生成自然語言是非常重要的。接下來,我們涵蓋了用于生成不同文本的方法和神經存檔的全面的總結。然而,這些生成式模型產生的文本質量并沒有一個標準的評價方法,這是該領域發展的一個嚴重瓶頸。為此,我們還回顧了當前評估自然語言生成系統的方法。我們希望這篇綜述將提供一個公式,方法,和神經自然語言生成的評估信息概述。
介紹
最近在深層生成式模型和表征學習方面的成功導致了自然語言生成(NLG)方面的重大進展,其動機是越來越需要理解和派生語言的意義。文本生成的研究領域是自然語言處理的基礎,其目標是生成真實可信的文本內容,與人類書寫的文本沒有區別 (Turing, 1950)。從廣義上講,在給定語境下,預測連續詞在句法和語義上的正確順序需要兩個步驟:首先從給定語料庫中估計句子的分布情況,然后從已學習得到的語料中抽取新穎和真實的句子。理想情況下,生成的句子保留了真實世界句子的語義和句法屬性,并且不同于用于估計模型的訓練示例(Zhang et al., 2017b)。語言生成是一項內在復雜的任務,需要大量的語法、語義、形態、音韻、語用等多層次的語言學和領域知識。此外,文本生成是為了實現一個交流目標(Reiter, 2019),例如在決策過程中提供支持、總結內容、在語言之間進行翻譯、與人交談、使特定文本更容易理解,以及娛樂用戶或鼓勵他們改變行為。因此,生成的文本應該根據內容和使用的術語的適當性,以及出于公平和透明度的原因(Mayfield et al., 2019),針對特定受眾量身定制(Paris, 2015)。長期以來,自然語言生成模型都是基于規則的,或者依賴于在稀疏的高維特征上訓練淺層模型。隨著最近神經網絡的復蘇,基于密集向量表示訓練的文本生成神經網絡模型已經建立了無與倫比的先前表現,重新點燃了機器能夠理解語言并與人類無縫對話的希望。事實上,生成有意義和連貫的文本是許多自然語言處理任務的關鍵。然而,由于文本數據的離散性,設計能夠生成連貫文本并建立長期依賴關系模型的神經網絡一直是自然語言生成的挑戰。除此之外,神經網絡模型理解語言和基礎文本概念的能力,除了從數據中提取淺層的模式,仍然是有限的。最后,自然語言生成模型的評價是一個同樣活躍和具有挑戰性的研究領域,對推動該領域的發展具有重要意義。
盡管生成式預訓練語言模型在一系列文本生成任務上取得了成功,但在生成過程中需要對基本常識進行推理的情況下,它們仍然會受到影響。現有的將常識知識整合到生成的預訓練語言模型中的方法,只是簡單地通過對單個知識三元組的后訓練來遷移關系知識,而忽略了知識圖譜中豐富的連接。我們認為,利用知識圖譜的結構和語義信息有助于常識感知文本的生成。在本文中,我們提出用多跳推理流(GRF)進行生成,使預訓練的模型能夠在從外部常識知識圖譜中提取的多關系路徑上進行動態多跳推理。我們的經驗表明,我們的模型在三個文本生成任務上優于現有的基線,這些任務需要推理而非常識知識。通過模型推導出的推理路徑,證明了動態多跳推理模塊的有效性,為生成過程提供了理論依據。
當前的深度學習研究以基準評價為主。如果一種方法在專門的測試集上有良好的經驗表現,那么它就被認為是有利的。這種心態無縫地反映在連續學習的重現領域,在這里研究的是持續到達的基準數據集。核心挑戰是如何保護之前獲得的表示,以免由于迭代參數更新而出現災難性地遺忘的情況。然而,各個方法的比較是與現實應用程序隔離的,通常通過監視累積的測試集性能來判斷。封閉世界的假設仍然占主導地位。假設在部署過程中,一個模型保證會遇到來自與用于訓練的相同分布的數據。這帶來了一個巨大的挑戰,因為眾所周知,神經網絡會對未知的實例提供過于自信的錯誤預測,并在數據損壞的情況下崩潰。在這個工作我們認為值得注意的教訓來自開放數據集識別,識別的統計偏差以外的數據觀測數據集,和相鄰的主動學習領域,數據增量查詢等預期的性能收益最大化,這些常常在深度學習的時代被忽略。基于這些遺忘的教訓,我們提出了一個統一的觀點,以搭建持續學習,主動學習和開放集識別在深度神經網絡的橋梁。我們的結果表明,這不僅有利于每個個體范式,而且突出了在一個共同框架中的自然協同作用。我們從經驗上證明了在減輕災難性遺忘、主動學習中查詢數據、選擇任務順序等方面的改進,同時在以前提出的方法失敗的地方展示了強大的開放世界應用。****
管理統計和數據科學的原理包括:數據可視化;描述性措施;概率;概率分布;數學期望;置信區間;和假設檢驗。方差分析;簡單線性回歸;多元線性回歸也包括在內。另外,本書還提供了列聯表、卡方檢驗、非參數方法和時間序列方法。
教材:
當前關于機器學習方面的資料非常豐富:Andrew NG在Coursera上的機器學習教程、Bishop的《機器學習與模式識別》 和周志華老師的《機器學習》都是非常好的基礎教材;Goodfellow等人的《深度學習》是學習深度學習技術的首選資料;MIT、斯坦福等名校的公開課也非常有價值;一些主要會議的Tutorial、keynote也都可以在網上搜索到。然而,在對學生們進行培訓的過程中, 我深感這些資料專業性很強,但入門不易。一方面可能是由于語言障礙,另一個主要原因在于機器學習覆蓋 面廣,研究方向眾多,各種新方法層出不窮,初學者往往在各種復雜的名詞,無窮無盡的 算法面前產生畏難情緒,導致半途而廢。
本書的主體內容是基于該研討班形成的總結性資料。基于作者的研究背景,這本書很難說 是機器學習領域的專業著作,而是一本學習筆記,是從一個機器學習 技術使用者角度對機器學習知識的一次總結,并加入我們在本領域研究中的一些經驗和發現。與其說是一本教材,不如說是一本科普讀物, 用輕松活潑的語言和深入淺出的描述為初學者打開機器學習這扇充滿魔力的大門。打開大門以后,我們會發現這是個多么讓人激動人心的 領域,每天都有新的知識、新的思路、新的方法產生,每天都有令人振奮的成果。我們希望這本書 可以讓更多學生、工程師和相關領域的研究者對機器學習產生興趣,在這片異彩紛呈的海域上找到 屬于自己的那顆貝殼。
強烈推薦給所有初學機器學習的人,里面有: 書籍的pdf 課堂視頻 課堂slides 各種延伸閱讀 MIT等世界名校的slides 學生的學習筆記等
《Recurrent Hierarchical Topic-Guided RNN for Language Generation》,也被今年ICML錄用。該論文屬于自然語言處理領域。語言模型是各種自然語言處理任務的關鍵組成部分,其主要目的是捕獲單詞序列的分布,但它們通常忽略了文檔中句子的順序和文檔上下文。在語言建模中,如何尋找更好的方法,既能捕捉單詞之間的順序,又能捕捉全局語義信息是比較有挑戰的問題。不同于語言模型,主題模型是用來在一系列文檔中發現抽象主題的一種統計模型。主題模型可以提取具有全局語義的隱表示,但是它們通常將每個文檔視為一袋單詞(BoW),忽略了單詞之間的順序。
因此針對上述討論的語言模型的問題,以及主題模型和語言模型各自的優勢,本次研究提出使用深層時序主題模型來指導語言模型進行建模(rGBN-RNN)。如圖1(a)所示,所提模型由兩個關鍵部分組成:(1)一個層次遞歸主題模型(rGBN);(2)一個基于多層RNN的語言模型(RNN)。主題模型用于捕獲跨文檔的全局語義和文檔中句子間的長期依賴關系,而語言模型用于學習句子中單詞之間的局部語法關系。

圖1 rGBN-RNN模型的總體結構,由解碼器(rGB和語言模型)和編碼器(變分時序推理)兩部分構成,紅色箭頭表示主題權向量的推理,黑色箭頭表示數據生成。
如圖1(b)所示,所提模型將層次時序的主題權重向量作為額外輸入集成到語言模型中。因此不同于傳統的基于RNN的語言模型,所提出的模型不僅捕獲句子內的單詞依賴關系,而且捕獲句子之間的相關性,同時利用主題模型考慮了文本的全局語義信息。為了進行推理,本次工作提出了隨機梯度馬爾科夫鏈蒙特卡洛和遞歸變分自編碼的混合算法。圖1(c)展示了rGBN-RNN的整個框架,包含了生成模型(編碼器)和推理模型(解碼器)。如圖2所示,我們利用新聞數據訓練三層rGBN-RNN,并將學習到的層次主題以及這些主題指導生成的句子進行了可視化。一方面,rGBN-RNN能夠捕捉到不同層次主題之間可解釋的層次關系,以及同一層次主題之間的時間關系(如圖中彩色實線框所示)。另一方面,如圖中虛線框所示,依據一個或者多個主題生成的句子大部分與相應主題高度相關。這種相關不一定在關鍵字的相似,更多是語義內容的接近,表明層次時序的主題能夠成功地引導語言模型。這些觀察結果表明,rGBN-RNN能夠成功地捕獲自然語言生成所需要的語法和全局語義信息。此外,模型還能生成語法正確、語義連貫的句子和段落。
圖1(三層rGBN-RNN基于APNEWS(新聞)數據集推斷出的主題,以及在主題指導下生成的句子。由上至下,第3層、第2層、第1層主題分別用橙色、黃色和藍色實線框表示,生成的句子用虛線框表示,虛線框中標注了生成句子所用的主題索引號。圖的底部是由不同層次的主題組合生成的句子。
摘要:大數據是多源異構的。在信息技術飛速發展的今天,多模態數據已成為近來數據資源的主要形式。研究多模態學習方法,賦予計算機理解多源異構海量數據的能力具有重要價值。本文歸納了多模態的定義與多模態學習的基本任務,介紹了多模態學習的認知機理與發展過程。在此基礎上,重點綜述了多模態統計學習方法與深度學習方法。此外,本文系統歸納了近兩年較為新穎的基于對抗學習的跨模態匹配與生成技術。本文總結了多模態學習的主要形式,并對未來可能的研究方向進行思考與展望。
摘要
推薦系統是一種軟件應用程序,它可以幫助用戶在信息過載的情況下找到感興趣的主題。當前的研究通常假設一個一次性的交互范式,其中用戶偏好是根據過去歷史觀察到的行為來估計的,并且按照等級排序的推薦列表是用戶交互的主要的且是單向的形式。對話推薦系統(CRS)采用了一種不同的方法,支持更豐富的交互。例如,這些交互可以幫助改進偏好激發過程,或者允許用戶詢問關于推薦的問題并給出反饋。對CRS的興趣在過去幾年里顯著增加。這種發展主要是由于自然語言處理領域的重大進展,新的語音控制家庭助手的出現,以及聊天機器人技術的增加使用。在本文中,我們詳細介紹了現有的對話推薦方法。我們將這些方法按不同的維度進行分類,例如,根據支持的用戶意圖或用戶在后臺使用的知識。此外,我們還討論了技術方法,回顧了CRS的評估方法,并最終確定了一些在未來值得更多研究的差距。
介紹
推薦系統是人工智能在實踐中最明顯的成功案例之一。通常,這些系統的主要任務是為用戶指出感興趣的潛在主題,例如電子商務網站。因此,它們不僅可以在信息超載的情況下幫助用戶,還可以對服務提供商的業務做出重大貢獻。 在這些實際應用中,推薦是一個一次性的交互過程。通常,底層系統會隨著時間的推移監視其用戶的行為,然后在預定義的導航情況下(例如,當用戶登錄到服務時)提供一組定制的建議。盡管這種方法在各個領域都很常見,也很有用,但是它可能有一些潛在的限制。例如,在許多應用程序場景中,用戶首選項無法從其過去的交互中可靠地估計出來。對于高介入的產品(例如,當推薦一款智能手機時),我們甚至可能完全沒有過去的觀察結果。此外,在一組建議中包含哪些內容可能與上下文高度相關,而且可能很難自動確定用戶的當前情況或需求。最后,另一個假設通常是,當用戶登錄網站時,他們已經知道自己的偏好。然而,這未必是真的。例如,用戶可能只在決策過程中確定他們的首選項,例如,當他們意識到選項的空間時。在某些情況下,他們也可能只在與推薦者的交互過程中了解這塊內容和可用的選項。 對話推薦系統(CRS)是可以幫助解決這些的挑戰中的許多這樣的問題。一般來說,這種系統的總體思想是支持與用戶進行面向任務的多回合對話。例如,在這樣的對話中,系統可以引出用戶當前的詳細偏好,為主題推薦提供解釋,或者處理用戶對所提建議的反饋。 鑒于這類系統的巨大潛力,對CRS的研究已經有了一定的傳統。早在20世紀70年代末,Rich就設想了一個電腦化的圖書管理員,通過用自然語言互動地向用戶提問有關他們的個性和偏好的問題,向他們提出閱讀建議。除了基于自然語言處理(NLP)的接口外,近年來還提出了多種基于表單的用戶接口。CRS中較早的基于這些接口的交互方法之一稱為critiquing,它在1982年就被提出作為數據庫領域的查詢重新制定的一種方法。在critiquing方法中,用戶很快會在對話中看到一個建議,然后可以對這些建議應用預先定義的評論。 基于表單的方法通常很有吸引力,因為用戶可以使用的操作是預先定義的、明確的。然而,這樣的對話也可能出現非自然的,用戶可能在表達他們的偏好的方式上感到約束。另一方面,基于NLP的方法在很長一段時間內受到了現有的限制,例如在處理語音命令的上下文中。然而,近年來,語言技術取得了重大進展。因此,我們現在習慣于向智能手機和數字家庭助手發出語音命令,這些設備的識別精度已經達到了令人印象深刻的水平。與語音助手領域的這些發展相對應,我們注意到聊天機器人技術在最近幾年的快速發展。聊天機器人,無論是簡單的還是復雜的,通常也能處理自然語言,現在廣泛應用于各種應用領域,例如,處理客戶服務請求。 這些技術的進步導致在過去幾年中對CRS的興趣增加。然而,與以前的許多方法相比,我們注意到今天的技術建議更多地是基于機器學習技術,而不是遵循預先定義的對話路徑,用于確定要向用戶詢問的下一個問題。然而,通常在語音助手和聊天機器人的功能與支持真正的對話推薦場景(如系統是語音控制的)所需的功能之間仍然存在差距。 本文從不同的角度對對話推薦系統的文獻進行了綜述。具體地說,我們將討論(i)CRS的交互模式(第3節),(ii)CRS基于的知識和數據(第4節), 和(iii)CRS中典型的計算任務(第5節)。然后,我們討論CRS的評估方法(第6節),最后展望未來的發展方向。
對話系統的特征描述
關于什么是CRS,文獻中沒有一個公認的定義。在這項工作中,我們使用以下定義。 CRS是一個軟件系統,它支持用戶通過多回合的對話來實現推薦相關的目標。
CRS的概念架構:在過去的二十年中,人們提出了各種CRS模型的技術途徑。這些解決方案的技術體系結構的細節取決于系統的功能,例如,是否支持語音輸入。盡管如此,仍然可以確定此類體系結構的許多典型概念組件,如圖1所示。
CRS交互模式
最近對CRS的興趣是由NLP的發展和技術進步(如寬帶移動互聯網接入和智能手機和家庭助手等新設備)推動的。然而,我們對文獻的回顧表明,用戶和CRS之間的交互既不局限于自然語言輸入和輸出,也不局限于特定的設備。
知識和背景數據
根據所選擇的技術方法,CRS必須結合各種類型的知識和背景數據才能發揮作用。顯然,像任何推薦人一樣,必須有關于推薦項目的知識。同樣,推薦的生成要么基于明確的知識,例如推薦規則或約束,要么基于在一些背景數據上訓練的機器學習模型。然而,對話系統通常依賴于其他類型的知識,例如對話中的可能狀態,或者用于訓練機器學習模型的數據,如記錄和轉錄的自然語言推薦對話。
計算任務
在討論了推薦對話中可能的用戶意圖之后,我們現在將回顧CRS的常見的計算任務和技術方法。我們區分(i)主要任務,即那些與推薦過程更直接相關的,例如,計算推薦或確定下一個要問的問題,以及(ii)額外的支持任務。
介紹對話系統的評價
一般情況下,推薦系統可以通過不同的方法從不同的維度進行評價。首先,當系統在其使用上下文中進行評估時,即,當它被部署時,我們通常最感興趣的是通過A/B測試來衡量系統是否達到了設計目標的具體關鍵性能指標(KPI),例如,增加的銷售數字或用戶參與度。其次,用戶研究(實驗室實驗)通常調查與系統感知質量相關的問題。常見的質量維度是建議的適宜性、流程的可感知透明性或易用性。最后,計算性實驗不需要用戶參與評估,而是基于客觀指標來評估質量,例如,通過測量建議的多樣性或計算運行時間來預測測試集中的輔助評級的準確性。同樣的質量維度和研究方法也適用于CRS。然而,在比較面向算法的研究和對話系統的研究時,我們發現評估的主要焦點往往是不同的。由于CRS是高度交互的系統,因此與人機交互有關的問題更常用于這些系統的研究。此外,在測量方法方面,CRS評估不僅關注任務的完成,即,如果建議是合適的或最終被接受的,但也涉及到與談話本身的效率或質量有關的問題。
總結和未來工作
總的來說,我們的研究表明,CRS領域在過去幾年中出現了一定程度的復興,其中最新的方法依賴于機器學習技術,尤其是深度學習和基于自然語言的交互。考慮到語音控制系統(如智能音箱)最近的興起,以及聊天機器人系統的日益普及,我們預計在未來幾年將看到對CRS的更多研究。雖然在某些方面取得了重大進展,但仍有許多領域需要進行更多的研究。在接下來的文章中,我們將概述一些有待解決的問題以及該領域未來可能的發展方向。 第一個問題涉及模式的選擇。盡管近年來,“自然語言”越來越流行,但究竟哪種情況下“自然語言”才是最好的選擇,目前還不完全清楚。需要進行更多的研究來了解哪種模式適合當前給定的任務和情況,或者是否應該向用戶提供替代模式。一個有趣的研究方向還在于解釋用戶的非言語交際行為。此外,完全基于語音的CRS也有一定的局限性,例如,在一個交互周期中提供完整的推薦集合。在這種情況下,用戶可能希望對一組推薦進行總結,因為在大多數情況下,當CRS向用戶推薦過多(例如多于兩三個)選項時,這可能沒有意義。