在本文中,我們開發了使用機器學習來解決組合優化問題的方法,重點是車輛路徑問題。本文由兩部分組成。在第一部分(第3章和第4章)中,我們開發了使用機器學習模型來解決不同變體的車輛路徑問題的實用方法。由于這些模型表示組合空間上的概率分布,在第二部分(第5章和第6章)中,我們將重點從這些模型中采樣并優化它們的參數。具體來說,在第3章中,我們使用強化學習來訓練注意力模型,該模型代表一種構造啟發式,以解決不同變體的路由問題。在第4章中,我們將介紹深度策略動態規劃,它使用另一個學習到的模型來指導受限動態規劃算法,以提高路由問題的性能和處理復雜約束(如時間窗口)的能力。鑒于組合問題的確定性,第一部分中模型中的重復樣本是沒有信息量的,因此第二部分側重于從這些模型中進行無替換的采樣。在第5章中,提出了Gumbel-top-k采樣,作為一種從組合域的結構化模型中無替換地提取樣本的有效方法,并說明了路由問題以外的一般適用性。在第6章中,我們推導了基于這些無替換樣本的統計梯度估計器,該估計器可用于改進第3章中基于梯度的模型訓練過程。
近期機器學習(ML)的成功,也被稱為“人工智能(AI)的第三次浪潮”,建立在來自優化和統計領域的計算方法之上,以及大規模訓練數據和計算能力的可用性,以及部分模仿人類認知功能(如卷積網絡)。然而,在實際應用中,當前的機器學習技術可能非常低效,容易受到不完美數據的影響,例如,當數據嘈雜、無標簽、不平衡或包含冗余、偏差、協變量漂移等時。另一方面,人類學習在規劃和選擇不同學習階段的訓練內容方面更具策略性和適應性。與在所有階段重復在相同數據的隨機小批量上進行訓練的機器學習技術相比,人類學習在應對這些實際挑戰時表現出更高的效率和魯棒性。因此,如何為機器學習制定一個戰略性的“課程”,成為縮小人類智能與機器智能差距的重要挑戰。
課程學習最早被引入作為一種基于人類學習策略的數據選擇方法,應用于不同的學習階段,例如,先選擇較簡單的樣本,然后逐漸添加更多更難的樣本。然而,人類用于設計課程的訓練材料的屬性不僅限于難度,還可以包括多樣性、一致性、代表性、激勵性、對未來訓練的影響或效用等。在機器學習中,開發能夠有效且準確度量這些屬性及其對最終/后期學習目標貢獻的評分函數具有挑戰性。此外,給定評分函數,課程策略如何規劃多個訓練階段并調整適應每個階段的選擇標準仍然是一個懸而未決的挑戰。
課程學習的另一個主要挑戰是缺乏原則性和理論驅動的公式來實現模型參數和課程的聯合優化。沒有這樣的公式,很難將選擇標準和評分函數與課程學習的潛在目標聯系起來,例如,訓練進度、泛化性能等。因此,很難解釋何時以及為什么課程可以改善機器學習。此外,在開發課程學習算法時,需要為不同的機器學習應用特別設計不同學習階段的選擇標準的計劃和調度,例如,半監督學習、集成學習等。為了實現實際有效的算法,研究是否以及如何將針對特定應用開發的現有技術與課程結合起來也很重要。
本論文旨在解決上述關鍵挑戰。它包括四個部分。在第一部分,我們引入了幾種新穎的課程學習公式。例如,我們可以將人類學習策略轉化為離散-連續優化,并在訓練過程中聯合優化模型和課程,如第2章和第5章所示。我們還可以從一個新穎的課程學習目標推導出權重或分數的解析形式,如第3章和第4章所示。此外,我們在第6章討論了未來研究的幾種潛在公式。
在第二部分,我們深入研究在課程學習中起重要作用的評分函數設計。例如,選定數據的多樣性在減少冗余和鼓勵早期探索方面起著至關重要的作用。除多樣性外,我們在第8章主要關注一類新的評分函數,它基于樣本在整個歷史過程中的訓練動態,而不是在特定步驟中的瞬時反饋。與廣泛應用的瞬時評分相比,它們顯著降低了評分評估所需的額外計算量,并且由于其可區分的動態模式,它們在分配最具信息量的訓練樣本方面更加準確
在第三部分,我們基于開發的公式和評分函數構建實用的課程學習算法。這些算法涵蓋了幾個重要的機器學習問題,包括監督學習、半監督學習、噪聲標簽學習、集成學習等。在針對每個問題的算法中,我們研究并比較不同的規劃或調度策略,以確定選擇標準如何在學習階段之間變化。我們通過詳細的實證分析和比較證明了所提出的調度策略的有效性。此外,為了在每個問題上實現最先進的性能,我們研究課程與每個問題的現有技術之間的相互作用,然后在算法設計中結合它們的優勢。
在第四部分,針對每個應用問題的基準數據集,我們評估我們的方法,并與各種強大的基線進行廣泛的實驗比較。在所有應用中,我們所設計的課程始終提高了訓練效率和最終測試準確性。值得注意的是,課程在具有不完美數據的更具挑戰性的應用中表現出更顯著的優勢,如半監督學習和噪聲標簽學習。
在第18章中,我們總結了本論文的主要貢獻。除了為課程學習提出的公式、評分函數和算法外,我們還強調了我們在一系列工作中彌合人類啟發式、理論公式和實證算法之間差距以及結合它們優勢的努力。此外,我們列出了未來工作中可以探索的幾個潛在研究方向,這些方向可以顯著擴展課程學習的當前方案和應用領域,并提高我們對機器學習訓練動態的深入理解以及其與人類教育和認知的聯系。
總之,本論文旨在通過提出新穎的課程學習公式、設計評分函數并構建實用的課程學習算法來解決課程學習領域的關鍵挑戰。我們關注了多種機器學習問題,并在各種應用場景中驗證了我們方法的有效性。通過這些努力,我們希望能在縮小人類智能與機器智能差距方面取得一定的進展,并為未來研究提供新的方向
在許多任務中,神經網絡和深度學習的預測能力目前都很出色。因此,這項技術被應用于各種各樣的應用中,在我們的日常生活中發揮著重要作用。因此,這項技術的潛在改進已經成為一個更加重要的話題。**在本文中,我們致力于改進深度學習模型的兩個重要方面;表示預測的不確定性以及對大量計算和資源的內在需求的能力。我們通過介紹和陳述本文要回答的兩個主要研究問題來開始這項工作。我們進一步為本文將使用的主要技術提供必要的背景知識。本文描述了神經網絡和貝葉斯神經網絡,即其參數(又稱權重和偏差)是隨機的,并由概率分布控制的神經網絡,而不是固定的,以及(變分)貝葉斯推理,一種根據觀測數據更新參數概率分布的方法。**通過剪枝(pruning)和量化(quantization)簡要介紹了神經網絡壓縮和量化(quantization),前者通過顯式設置為零來刪除不相關的參數和網絡的部分內容,后者以硬件友好的格式(如定點)表示網絡的權重和中間表示的數值。
**本文的第一部分描述了提高神經網絡不確定性估計能力的三個貢獻。前兩者圍繞著在我們觀察數據時,通過更好地逼近其參數的概率分布來提高變分貝葉斯神經網絡的不確定性質量。**本文提出一種簡單的方法,通過矩陣變量高斯分布在神經網絡權重之間引入線性依賴;它們是隨機矩陣上的分布,可以很容易地對每層中的輸入和輸出神經元之間的相關性進行建模,這種能力會導致性能的提高,正如我們實驗表明的那樣。提出了乘歸一化流,這是一個通用框架,引入了網絡參數之間的非線性依賴關系。這是通過結合輔助隨機變量和參數化雙射來實現的,以一種允許每層權重之間靈活的相關性,同時仍然是計算可處理的。實驗表明,與之前工作的簡單高斯變分近似相比,不確定性質量得到了提高。這部分的最后一個貢獻對應于功能神經過程,一個采用不同視角的模型;它不是假設概率分布并對神經網絡權值進行(變分)推理,而是采用隨機過程的建模框架,從而假設概率分布并對神經網絡的函數空間進行推理。這有一個額外的好處,即更容易的推理和更直觀的建模任務,因為它允許我們推理數據集中點之間的關系,通過引入一個“參考”點集,而不是不可解釋的神經網絡參數來實現。實驗表明,這種模型提供了更好的不確定性質量,同時保持了可比的預測性能。
**第二部分介紹了三種新的壓縮技術,它們可以讓我們學習更小、更快的神經網絡,從而減少所需的計算量和資源。**第一個貢獻對應于貝葉斯壓縮,這是一種變分貝葉斯推理過程,通過對網絡參數進行精心選擇的概率分布,可以通過聯合修剪和量化來揭示高性能和計算高效的架構。雖然這種方法可能導致高度壓縮的架構,但它缺乏對特定任務或問題進行修剪或量化的細粒度自適應。因此,其他兩項貢獻旨在分別處理剪枝和量化。第二個貢獻對應于一種新的L0范數優化方法,L0范數是神經網絡稀疏性的黃金標準。本文提出一種通用技術,通過適當數量的噪聲,可以對不可微L0范數進行基于梯度的優化。實驗表明,這種方法可以產生準確和高度稀疏的模型,同時它可以通過條件計算和適當的軟件進行稀疏訓練,這也可以促進更快的訓練。最后,為了最后的貢獻,我們采用類似的思想并引入松弛量化;基于梯度的優化過程,允許學習神經網絡,其中參數和激活位于(自適應)量化網格上。經驗表明,這允許在大規模任務中訓練準確的神經網絡,同時每權重和激活只需4位。最后,對研究問題進行了回答,同時討論了所提出方法的缺陷和缺點,并指出了有希望的研究方向。
利用有限的數據進行學習是深度學習的最大問題之一。目前,解決這個問題的流行方法是在大量數據上訓練模型,無論是否標記,然后在同一模態的感興趣的較小數據集上重新訓練模型。直觀地說,這種技術允許模型首先學習某種數據(如圖像)的一般表示。然后,學習這種特定模態的特定任務應該需要更少的數據。雖然這種被稱為“遷移學習”的方法在計算機視覺或自然語言處理等領域非常有效,但它不能解決深度學習的常見問題,如模型可解釋性或對數據的總體需求。本文探索了在數據約束設置中學習表達模型問題的不同答案。我們不再依賴大數據集來學習神經網絡的參數,而是用反映數據結構的已知函數來代替其中的一些參數。這些函數通常都是從內核方法的豐富文獻中提取出來的。實際上,許多核函數都可以解釋,并且/或允許使用少量數據進行學習。所提出方法屬于"歸納偏差"的范疇,可以定義為對手頭數據的假設,限制了學習過程中模型探索的空間。在本文的前兩章中,我們在序列(如自然語言中的句子或蛋白質序列)和圖(如分子)的上下文中證明了該方法的有效性。本文還強調了工作與深度學習最新進展之間的關系。本文的最后一章重點研究凸機器學習模型。這里,我們不是提出新的模型,而是想知道學習一個“好的”模型真正需要數據集中的哪些樣本比例。更準確地說,研究了安全樣本篩選的問題,即在擬合機器學習模型之前,執行簡單測試以丟棄數據集中沒有信息的樣本,而不影響最優模型。此類技術可用于壓縮數據集或挖掘稀有樣本。
**訓練基于深度神經網絡的自動語音識別(ASR)模型通常需要數千小時的轉錄數據,將其限制在少數語言中。此外,目前最先進的聲學模型基于Transformer架構,該架構隨著序列長度的二次增長,阻礙了其對長序列的使用。本文旨在減少(a)數據和(b)開發最先進的ASR系統的計算需求,只有幾百小時或更少的轉錄數據。本文的第一部分著重于減少訓練這些模型所需的轉錄數據量。本文提出一種使用dropout進行不確定性感知半監督學習的方法。該方法為未標記數據的訓練產生了更好的假設。研究了兩種流行的自監督預訓練方法的域外和跨語言泛化:掩碼聲學建模和wav2vec 2.0。兩種預訓練方法都可以泛化到未見過的域,并明顯優于僅用監督數據訓練的模型。//infoscience.epfl.ch/record/297304?ln=en在第二部分中,專注于減少Transformer模型的計算需求,(a)通過設計高效的注意力計算形式,(b)通過減少注意力計算的輸入上下文長度。**本文首次提出"線性"注意力,使用注意力的核公式將自回歸transformer表示為遞歸神經網絡,并將序列長度的計算復雜度從二次降低到線性。提出"聚類"注意力,通過對輸入序列進行聚類并使用質心進行計算來近似自注意力。在給定的計算預算下,聚類注意力優于普通注意力。對于ASR,我們發現線性注意力導致詞錯誤率下降,而聚類在處理較短序列時引入了開銷。為解決這一限制,本文開發了一種方法,用均值池化對輸入進行隨機下采樣,以實現高效的wav2vec 2.0訓練。這使得在推理過程中可以在不同的壓縮因子下使用相同的模型。對wav2vec 2.0預訓練的隨機壓縮,能夠為轉錄數據有限的語言建立計算高效的ASR模型。
深度神經網絡與強化學習(RL)的結合在解決其他棘手的學習任務方面顯示出巨大的前景。**然而,深度強化學習的實際演示仍然很少。將深度強化學習用于給定任務的挑戰可以分為兩類,大致上是“從經驗中學習什么?”和“從什么經驗中學習?”在本文中,我描述了解決第二類問題的工作。**具體來說,采樣包含與學習任務相關信息的動作、狀態和軌跡的問題。我從算法設計和任務復雜性的三個層次來研究這個挑戰,從算法組件到打破常見RL慣例的混合組合算法。在第一章中,我描述了穩定高效的動作采樣工作,以優化連續值動作的Q函數。通過將基于樣本的優化器與神經網絡近似相結合,可以獲得訓練、計算效率和精確推理的穩定性。在第二章中,我描述了在獎勵感知探索方面的工作,即發現常見采樣方法不足的理想行為。教師"探索"智能體發現狀態和軌跡,使學生"利用"智能體從這些經驗中學習到的數量最大化,并能使學生智能體解決其他不可能的困難任務。在第三章中,我描述了將強化學習與啟發式搜索相結合的工作,用于遷移模型已知的任務領域,但狀態空間的組合數學對于傳統搜索來說是難以解決的。通過將深度Q學習與最佳優先樹搜索算法相結合,可以用比普通搜索算法或僅使用強化學習更少的樣本來找到程序合成問題的解決方案。最后,總結了這項工作的主要收獲,并討論了強化學習中高效采樣的擴展和未來方向。
//dataspace.princeton.edu/handle/88435/dsp01x346d733f
盡管數據規模在增長,但我們希望將學習算法的許多應用都受到數據數量和質量的限制。生成模型提出了一個框架,可以自然地將先驗信念與現實世界的數據結合起來。生成式方法的核心是概率推理的挑戰,或估計給定觀測的潛變量。這一挑戰催生了涵蓋多種統計技術的豐富研究領域。最近,深度學習方法被用來解決推理查詢,被恰當地命名為深度推理。在我的論文中,我將探索深度推理的擴展,以應對現實世界的稀疏性和效率的挑戰。我將介紹實際應用的案例研究,其中深度推理在以前的工作上取得了相當大的改進。
本文主要圍繞三個部分展開。我們介紹了生成模型和深度推理的背景,重點是現代變分方法。第一部分將提出新的泛化推理算法,以對不同的稀疏性概念(如多模態數據、缺失數據或計算約束)具有魯棒性。其次,我們研究了元平攤推理,或“推斷如何推斷”。一種雙平攤推理算法將能夠廉價地解決一個新的生成模型的推理查詢。我們將展示一種新的算法來重新利用掩碼語言建模來實現這一點。
第三,我們提出了深度推理在教育中的兩個現實應用:(a)在項目反應理論和相關心理測量模型下估計學生的能力,(b)為學生學習解決編程問題推理教育反饋。總之,這些貢獻展示了深度推理在教育中的豐富性和實用性,以及在現實世界中更廣泛的應用。
在本文中,我們的目標是改進深度強化學習中的泛化。對任何類型的學習來說,泛化都是一項基本挑戰,它決定了如何將已獲得的知識轉移到新的、以前從未見過的情況中。本文專注于強化學習,這是一個描述人工智能體如何學習與環境交互以實現目標的框架。近年來,利用神經網絡表示智能體取得了顯著的成功,并極大地擴展了其可能的應用范圍。本文的目標是通過允許這些智能體更快地學習,學習更好的解決方案,并對以前未見過的情況做出魯棒的反應,從而提高它們的性能。在這個探索中,我們探索了一系列不同的方法和途徑。我們專注于將額外的結構,也稱為歸納偏差,納入主體。專注于特定的,但廣泛適用的問題領域,我們可以開發專門的架構,從而大大提高性能。在第3章中,我們關注的是部分可觀察環境,在這種環境中,智能體每時每刻都不能完全訪問所有與任務相關的信息。在第4章中,我們將注意力轉向多任務和遷移學習,并設計了一種新的訓練方法,允許訓練分層結構的智能體。我們的方法優化了單個解決方案的可重用性,大大提高了傳輸設置中的性能。
//ora.ox.ac.uk/objects/uuid:9fdfadb0-e527-4421-9a22-8466c9fed9c8 在本文的第二部分中,我們將注意力轉向正則化,這是另一種形式的歸納偏差,作為提高深度智能體泛化的方法。在第五章中,我們首先探討了強化學習(RL)中的隨機正則化。雖然這些技術已被證明在監督學習中非常有效,但我們強調并克服了將它們直接應用到在線RL算法中的困難,這是RL中最強大和應用最廣泛的學習類型之一。在第6章中,我們通過探索訓練數據中的瞬態非平穩性如何干擾神經網絡的隨機梯度訓練,并使其偏向較差的解,在更基本的水平上研究了深度rl中的泛化。許多先進的RL算法將這些類型的非平穩性引入到訓練中,甚至在平穩環境中,通過使用持續改進的數據收集策略。我們提出了一個新的框架,以減少經過訓練的策略所經歷的非平穩性,從而允許改進的泛化。
潛在博弈中的學習和基于共識的分布式優化是這項工作的重點。對潛在博弈的分析是由博弈論設計激發的,它將多智能體系統中的優化問題轉化為模型化的潛在博弈中函數最大化問題。在不同的工程應用中,處理網絡系統越來越受歡迎,這支持了人們對基于分布式共識的優化的興趣。
本書研究了使系統中的多智能體收斂到某種最優狀態的算法。這些算法可以根據系統的信息結構進行分類。所考慮的程序的一個共同特點是,它們不要求智能體有記憶來遵循規定的規則。提出了一個適用于具有離散狀態和基于預言機信息的無記憶系統的一般學習動力學。提供了一些保證該算法的有效行為的設置。考慮了這種高效的一般學習程序的一個特殊類型,稱為Logit動力學。此外,異步和同步Logit動力學被擴展到具有連續行動的博弈情況。也討論了這種連續狀態動力學的收斂保證。此外,還開發了基于通信和收益的算法。它們被證明可以在連續行動潛力博弈建模的系統中學習局部最優。用來研究后一程序收斂特性的隨機近似技術也被應用于網絡系統中基于分布式共識的優化。在這種情況下,所提出的推和算法的隨機性允許系統擺脫次優臨界點,并收斂到目標函數的局部最小值,而目標函數不被假定為凸的。
近年來,自然語言處理的研究方法取得了一些突破。這些突破來源于兩個新的建模框架以及在計算和詞匯資源的可用性的改進。在這個研討會小冊子中,我們將回顧這些框架,以一種可以被視為現代自然語言處理開端的方法論開始:詞嵌入。我們將進一步討論將嵌入式集成到端到端可訓練方法中,即卷積神經網絡和遞歸神經網絡。這本小冊子的第二章將討論基于注意力的模型的影響,因為它們是最近大多數最先進的架構的基礎。因此,我們也將在本章中花很大一部分時間討論遷移學習方法在現代自然語言處理中的應用。最后一章將會是一個關于自然語言生成的說明性用例,用于評估最先進的模型的訓練前資源和基準任務/數據集。
//compstat-lmu.github.io/seminar_nlp_ss20/
在過去的幾十年里,人工智能技術的重要性和應用不斷得到關注。在當今時代,它已經與構成人類塑造環境的大部分環境密不可分。因此,商業、研究和開發、信息服務、工程、社會服務和醫學等無數部門已經不可逆轉地受到人工智能能力的影響。人工智能有三個主要領域組成了這項技術:語音識別、計算機視覺和自然語言處理(見Yeung (2020))。在這本書中,我們將仔細研究自然語言處理(NLP)的現代方法。
這本小冊子詳細介紹了用于自然語言處理的現代方法,如深度學習和遷移學習。此外,本研究亦會研究可用于訓練自然語言處理任務的資源,并會展示一個將自然語言處理應用于自然語言生成的用例。
為了分析和理解人類語言,自然語言處理程序需要從單詞和句子中提取信息。由于神經網絡和其他機器學習算法需要數字輸入來進行訓練,因此應用了使用密集向量表示單詞的詞嵌入。這些通常是通過有多個隱藏層的神經網絡學習的,深度神經網絡。為了解決容易的任務,可以應用簡單的結構神經網絡。為了克服這些簡單結構的局限性,采用了遞歸和卷積神經網絡。因此,遞歸神經網絡用于學習不需要預先定義最佳固定維數的序列的模型,卷積神經網絡用于句子分類。第二章簡要介紹了NLP中的深度學習。第三章將介紹現代自然語言處理的基礎和應用。在第四章和第五章中,將解釋和討論遞歸神經網絡和卷積神經網絡及其在自然語言處理中的應用。
遷移學習是每個任務或領域的學習模型的替代選擇。在這里,可以使用相關任務或領域的現有標記數據來訓練模型,并將其應用到感興趣的任務或領域。這種方法的優點是不需要在目標域中進行長時間的訓練,并且可以節省訓練模型的時間,同時仍然可以(在很大程度上)獲得更好的性能。遷移學習中使用的一個概念是注意力,它使解碼器能夠注意到整個輸入序列,或自注意,它允許一個Transformer 模型處理所有輸入單詞,并建模一個句子中所有單詞之間的關系,這使得快速建模一個句子中的長期依賴性成為可能。遷移學習的概念將在小冊子的第6章簡要介紹。第七章將通過ELMo、ULMFiT和GPT模型來描述遷移學習和LSTMs。第八章將詳細闡述注意力和自注意力的概念。第九章將遷移學習與自注意力相結合,介紹了BERT模型、GTP2模型和XLNet模型。
為NLP建模,需要資源。為了找到任務的最佳模型,可以使用基準測試。為了在基準實驗中比較不同的模型,需要諸如精確匹配、Fscore、困惑度或雙語評估替補學習或準確性等指標。小冊子的第十章簡要介紹了自然語言處理的資源及其使用方法。第11章將解釋不同的指標,深入了解基準數據集SQuAD、CoQa、GLUE和SuperGLUE、AQuA-Rat、SNLI和LAMBADA,以及可以找到資源的預訓練模型和數據庫,如“帶代碼的論文”和“大壞的NLP數據庫”。
在小冊子的最后一章中,介紹了生成性NLP處理自然語言生成,從而在人類語言中生成可理解的文本。因此,不同的算法將被描述,聊天機器人和圖像字幕將被展示,以說明應用的可能性。
本文對自然語言處理中各種方法的介紹是接下來討論的基礎。小冊子的各個章節將介紹現代的NLP方法,并提供了一個更詳細的討論,以及各種示例的潛力和限制。
Graph Embedding for Combinatorial Optimization: A Survey
作者:Yun Peng、Byron Choi、Jianliang Xu
論文鏈接://arxiv.org/pdf/2008.12646.pdf
摘要:在這篇論文中,香港浸會大學的研究者對近來用于解決組合優化(combinatorial optimization, CO)的圖嵌入方法進行了綜述。大多數圖嵌入方法分為兩個階段:圖預處理和 ML 模型學習。所以,本文也從圖預處理任務和 ML 模型兩個角度來分類圖嵌入工作。此外,本文還總結了近來用于探索圖嵌入的圖組合優化方法。
IsoNN 架構。
使用層級粗化圖(coarsened graph)的圖嵌入。
使用圖嵌入的 CO 方法匯總。