**
**我的論文聚焦于生成模型及其在離散數據中的應用。我們提出了新穎的算法,這些算法融合了最先進的生成模型的洞察和離散數據類型的領域特定知識。我們的算法旨在提高與訓練數據的屬性相似性、改善數據有效性,并提升生成輸出的整體質量。
**論文的第一部分探討了如何使用上下文無關文法將幾何圖像轉換為離散表示。我們討論了在大規模搜索空間中識別合適表示的有效且可擴展的技術。**論文的第二部分研究了變分自編碼器(VAE)在恢復嵌入在低維流形中的高維數據時的表現,評估了它們恢復流形和數據密度的能力。我們將對VAE的探索擴展到離散數據領域,特別是在分子數據生成中的應用。我們發現,一種增強VAE對連續數據流形恢復的算法,同樣顯著提高了離散數據生成的效果。我們利用ChEMBL數據集和兩個包含蛋白質靶標的活性分子小數據集研究了其優點和局限性。
**最后,針對生成穩定的三維分子這一挑戰,論文將一個非可微的化學預言模型——GFN2-xTB,納入去噪過程,以改善幾何結構和穩定性。通過在QM9和GEOM等數據集上的驗證,證明這種方法能夠顯著提高生成分子的穩定性。**生成模型通過學習訓練數據的分布來生成新的數據點。它們在許多領域有廣泛的應用,例如計算機視覺 [Goodfellow et al., 2014, Oord et al., 2016, 2017, Vahdat and Kautz, 2020]、自然語言處理 [Devlin et al., 2018, Radford et al., 2019]。一些生成模型的例子包括生成對抗網絡(GAN)[Goodfellow et al., 2014]、變分自編碼器(VAE)[Kingma and Welling, 2013]、擴散模型 [Ho et al., 2020, Song et al., 2020a, Song and Ermon, 2019, Song et al., 2020b]、自回歸模型和歸一化流 [Rezende and Mohamed, 2015] 等。生成模型將某些變量從一個分布(通常是高斯分布)轉換到一個目標分布,而目標分布是訓練數據集所屬的分布。
Goodfellow 等人(2016)指出,許多現實世界的數據(如圖像和文本)都存在于嵌入在高維空間中的低維流形上。因此,恢復數據所在的低維流形是學習數據分布的重要步驟。生成建模還與表示學習 [Bengio et al., 2013] 相關,其中通過學習輸出數據分布的過程中推斷出一個低維潛在表示,像 VAE 就是一個例子。生成模型有許多著名的應用,如圖像和語言。尤其是條件生成,作為一種有用的功能,已被廣泛應用于商業領域。例如,圖像修復模型 [Yu et al., 2018, Lugmayr et al., 2022] 能夠填補圖像中丟失或損壞的像素,語言條件的圖像生成模型(如 Stable Diffusion [Rombach et al., 2022] 和 Dall-E [Ramesh et al., 2021])能夠根據簡單的指令生成超現實的圖像,而語言翻譯功能已經無處不在于我們的數字生活中。
**生成模型還對程序生成和藥物發現等應用帶來了變革。在代碼生成的基礎模型中,如 Code Llama [Roziere et al., 2023] 和 AlpahCode [Li et al., 2022],現在已經能夠解決競爭級別的編程問題,盡管結果并不總是可靠。在藥物發現領域,機器學習的應用也取得了巨大進展。AlphaFold [Jumper et al., 2021] 可以預測蛋白質的 3D 結構,基于氨基酸序列,并且在結構預測的關鍵評估(CASP)競賽中排名第一,顯著超過了第二名的競爭者。DiffDock [Corso et al., 2022] 將擴散模型應用于蛋白質對接的姿態生成問題,超越了所有以前的方法,包括先前基于搜索的最先進方法。大量生成模型的應用為我們的現代世界帶來了真正的技術變革。****盡管我們在過去幾年取得了許多進展,但仍然面臨許多挑戰。例如,幻覺(hallucination)是生成模型中一個常見的問題,它表現為大型語言模型中的錯誤回答,在藥物發現中則表現為生成的分子在自然界中不存在。如今,生成模型通常具有極大的規模,參數量達到數萬億,因此它們依賴大量優質數據。本文將探索生成建模的機制,特別是 VAE 的相關機制。本文的另一個重點是改善離散數據的生成,尤其是在分子生成和程序合成方面的直接應用。此外,我們還探討能否利用連續數據生成方面的進展和理解來改善離散數據的生成。****生成模型的應用通常涉及生成符合特定目標的全新數據——無論是要與訓練數據在屬性上相似,還是要實現某些條件或無條件的目標。在本文中,我們將深入探討幫助生成模型實現這些目標的方法。本文的兩個核心主題是:i)研究當前生成模型的不足之處,它們如何影響生成質量,以及如何減輕這些影響;ii)如何通過利用領域知識,在計算約束下改善數據生成質量。**以下是本文未來章節的簡要總結:
第二章(基于 Zhou 等人 [2021] 的論文),我們研究了一個程序合成問題,該問題涉及離散數據生成的挑戰。給定一個幾何圖像作為輸入,項目的目標是生成上下文無關文法(CFG)程序,這些程序可用于重建原始圖像。在這項工作中,我們將一個非可微的渲染器視為解碼器,并學習一個可解釋的編碼器,該編碼器利用 CFG 文法生成幾何圖像的低維程序表示。
第三章(基于 Koehler 等人 [2021] 的論文)研究了 VAE 在流形和密度恢復中的行為——對于非線性合成數據,我們發現 VAE 并不保證能夠恢復高維訓練數據所處的底層流形。我們進一步研究了多階段 VAE 的效果,并展示了它可以改善合成數據上的流形恢復。
第四章(基于 Zhou 和 Poczos [2023] 的論文),我們將多階段 VAE(已證明能改善合成數據的流形恢復)應用于分子生成任務。我們展示了在兩個任務中的生成分子屬性的改善:一個基于 ChEMBL 數據集 Mendez et al. [2019] 的通用生成任務,以及一個針對蛋白質靶標的生成任務,在兩個小型分子數據集上進行了微調。
第五章,我們將一個非可微的化學預言器納入去噪過程,該預言器提供分子中每個原子的凈力信息,并利用這些信息指導反向擴散采樣過程,以實現生成樣本的更好穩定性。
** ****
**
表示學習已經發展成一種多功能工具,能夠在提供足夠數據的情況下解決各種問題。本論文聚焦于兩個主要方向:(1) 利用深度學習的力量應用于基礎物理學;(2) 使用物理啟發的工具來改進并為那些大規模、難以捉摸的黑箱算法提供一些啟示。我們探索了一系列應用,這些應用改進了核物理和粒子物理研究的不同方面,涵蓋從在線數據選擇到離線數據分析的各個階段。我們還探討了深度學習如何通過機制可解釋性的視角開啟全新的研究方向,以(重新)推導基礎理論以及重新詮釋物理測量的全新方法。最后,我們研究了物理工具如何有助于更好地理解深度學習的動態,并為擴展機器學習前沿的算法和訓練范式提供堅實的基礎。
機器人仿真、規劃、估計和控制都建立在數值優化的基礎上。與此同時,現代凸優化已經發展成為一種強大的技術,能夠在多項式時間內提供全局最優解。隨著可微優化和定制求解器的進展,這些求解器能夠生成平滑的導數,凸建模變得更加快速、可靠,并且完全可微。本論文展示了凸建模在多個領域中的有效性,如火星大氣進入引導、納米衛星空間望遠鏡指向、碰撞檢測、點云的接觸動力學、在線模型學習,以及最終一種無需導數的軌跡優化方法,該方法利用并行化仿真。在所有這些領域中,可微凸優化的可靠性和速度使得實時算法變得嚴格、高效,并且易于理解和修改。
本論文介紹了基于可微凸建模的機器人仿真、規劃和控制的新方法。通過在優化優先的框架中制定這些領域的算法,我們通常能夠簡化算法的復雜性,并將計算復雜度卸載到高度專業化和高效的求解器上。本論文重點擴展了許多現代凸建模的進展,其中求解器能夠在保持完全可微的同時,為凸優化問題提供全局最優解。由于這些求解器既快速又穩健,并且是可微的,它們可以像傳統的數值線性代數程序(如用來求解線性系統的程序)一樣使用。利用凸建模作為新算法開發的構建塊,可以實現簡單、高效且靈活的算法。
在1939年至1948年期間,Leonid Kantorovic、George Dantzig和John Von Neumann提出了線性規劃和對偶性相關的約束優化基本概念[39]。大約在同一時期,Karush-Kuhn-Tucker(KKT)條件被確立,明確了解決約束優化問題時“最優解”的含義[24]。當時,實踐者集中于在新引入的計算機上實現數值優化算法,而理論家則將注意力轉向約束優化領域的有用分類法。1983年,蘇聯科學家Nemirovski和Yudin首次正式提出,解決凸優化問題與解決一般非線性優化問題之間存在實質性的復雜度差異[22]。1980年代,穩健的內點方法開始出現,能夠在多項式時間內解決一般的凸優化問題[116]。隨著數值線性代數、算法發展和更快計算機的進步,到2000年代,凸優化已經成熟并準備好在日常應用中使用。諸如CVX [63]、CVXPY [40]和Convex.jl [179]等建模工具使得凸優化變得易于使用,它們通過將用自然數學語法描述的問題轉化為商業和開源求解器可以解決的形式,使凸優化變得更加易于應用。 在2010年代后期,[7]和[5]的研究使得能夠對針對通用問題參數的凸優化問題進行求導。如今,凸優化求解器被視為經過充分理解和可靠的可微函數,可廣泛應用于各類任務中。 第四章對一個經典的大氣進入引導框架(可追溯到阿波羅計劃)進行了更新,結合了凸優化,達到了最先進的性能。在4.2中,以一種在文獻中不常見但更適合數值優化的形式,討論了進入飛行器在任意大氣中的動力學。在此基礎上,詳細描述了基于凸優化的創新型“凸預測-修正進入引導”(CPEG)算法,該算法在4.4節中用于大氣引導。CPEG的性能在一組現實的初始條件下進行了驗證,并在4.5節中驗證了收斂性。 第五章在第四章的基礎上進行擴展,介紹了CPEG的更新變種,能夠在進入過程中直接考慮大氣不確定性。CPEG中的引導框架通過引入一個能夠進行大氣估計的估算器來增強,并對控制器-估算器堆棧進行了調整,以實現對飛行器的魯棒實時控制。該算法在現實的火星大氣條件下進行測試,消融研究驗證了大氣適應的重要性。
第六章利用基于凸優化的運動規劃器,通過加權支桿的驅動實現納米衛星空間望遠鏡的精確控制。傳統上,航天器指向控制是通過反作用輪來完成的,這些轉子通過旋轉來轉移角動量。由于這些輪子存在缺陷,振動會傳遞到望遠鏡,導致圖像質量下降。本章介紹了一種基于慢速旋轉長支桿的新型驅動策略,這一策略顯著不同于常見的快速旋轉反作用輪。在已知納米衛星軌道和地球磁場的情況下,凸優化運動規劃器能夠直接推理未來的擾動,從而僅通過支桿實現精確的姿態控制。該技術在一個精確的空間望遠鏡上得到演示,在日全食期間需要進行長時間曝光,而支桿不會超過其驅動極限。 第七章提出了一種新的碰撞檢測方法,能夠提供統一框架和光滑的可微性。傳統上,兩個凸形狀之間的碰撞檢測是通過求解兩形狀之間的最近點來完成的。這個問題對于許多常見的凸體是定義明確且容易解決的,但對于接觸的形狀,這個方法是不可微的,因此需要采用不同的算法。我們的方法利用了一個不同的框架:通過凸優化求解兩形狀之間的最小均勻縮放,從而導致它們的交集。這個問題很小,確保定義良好且沒有退化情況。結果凸優化問題的解是平滑且可微的,無論物體的配置如何,且該方法可用于指定代表性運動規劃中的碰撞避免約束。 第八章通過利用第七章相同的框架擴展了連續碰撞檢測。離散碰撞檢測檢查兩個靜態凸形狀是否發生碰撞,而連續碰撞檢測必須考慮形狀在運動時的問題。傳統上,離散碰撞檢測向連續碰撞檢測的過渡需要對算法進行大幅修改,并增加一些限制條件。相反,第七章的框架通過引入時間參數進行了擴展,利用另一個定義良好的凸優化問題來解決連續碰撞信息問題。該方法同樣是完全可微的,并且在碰撞-free運動規劃示例中得到了驗證,證明了離散碰撞檢測不足以避免接觸。 第九章詳細介紹了一種在線學習廣義線性模型的簡單而高效的框架,涉及到連接器插入問題。在這個應用中,插入公連接器到母插座中由于材料的變形、配合的緊密性以及未知的摩擦性質而成為一個難以模擬的挑戰。為了避免學習一個完整的動態仿真器,本研究僅學習控制信號、估計狀態和腕部安裝的力矩傳感器之間的關系。這個關系通過廣義線性模型表示,從而使得模型學習問題變得凸且定義明確。為了解決這個問題,提出了線性模型學習(LML)算法,通過僅使用矩陣-向量操作來遞歸地在線學習全局最優的估計模型。在沒有任何矩陣求逆的情況下,該算法在GPU上非常有效,能夠快速高效地學習大規模線性模型。 第十章探討了剛性點云上準動態仿真的性能,并擴展了常見的公式,以包括真實接觸的必要扭矩摩擦。當與剛性點云發生接觸時,單點接觸無法提供真實的扭矩摩擦,這種摩擦源自于現實中存在的接觸面補丁。為了解決這一問題,對基于優化的仿真框架進行了修改,自然地引入了與法向力成比例的扭矩摩擦項。結果的仿真步驟通過凸優化計算,因此完全可微。所得到的仿真器用于抓取具有真實接觸動力學的高保真點云。 第十一章介紹了一種軌跡束方法,用于使用黑箱仿真器、成本和約束條件進行高精度軌跡優化。現有的基于模型的軌跡優化方法能夠訪問問題中所有成本、動力學和約束函數的導數。在許多情況下,這是一個合理的假設,但對于許多具有挑戰性的機器人任務(如涉及非光滑接觸交互的任務),這些導數可能無法獲得、計算昂貴或不可靠。為了解決這個問題,軌跡束方法通過對當前迭代點進行插值來近似這些函數。這種插值的近似方法無需導數,并且其線性化不同于標準的一階泰勒級數。使用這種近似方法,提出了一個凸優化問題,最小化這些插值函數以計算步進方向,直到收斂。 通過將可微凸優化作為一種穩健的技術,本論文為機器人多個領域提供了簡單且高效的算法,并保證了可預測和安全的性能。通過將這些問題重構為優化優先的方式,得到的算法通常比傳統方法更簡單、更高效,同時具有模塊化和可配置性。
自由能是自然科學中最基本的量之一,它揭示了物理和化學過程的方向、程度和速率。在本論文中,我們研究了不同類別的自由能差與蛋白質動態和功能之間的聯系,特別關注其在藥物發現中的應用。我們的計算研究基于分子動力學模擬,該方法已成為理解蛋白質功能和設計新型治療藥物的關鍵推動力。其準確性通常依賴于描述物理系統的數學函數的精確性以及構象采樣的廣度。然而,在這些要素與模擬的計算成本之間通常需要進行權衡,我們的結果在這種背景下進行展示。
在本論文的第二章和第三章中,我們探討了如何利用煉金自由能差的計算來在合成之前篩選藥物候選物。我們通過成功應用于六組具有挑戰性的蛋白質-配體系統,證明了RE-EDS多態方法的廣泛適用性。我們展示了該方法能夠通過單次模擬估計多種煉金自由能差,相比于傳統的成對方法顯著降低了計算成本。 在第四章和第五章中,我們表征了蛋白質側鏈的構象自由能景觀,并將其與它們所承載的生物學功能聯系起來。我們提出,后者可以通過模擬與實驗的結合來揭示,即通過將模擬的結構集合與核磁共振和晶體學獲得的實驗數據進行比較。我們討論了模擬與實驗之間的共生關系。
通過代碼數據學習來解決軟件任務的編程工具在提升開發人員生產力方面展現了早期的潛力。然而,這些工具在魯棒性方面以及它們對軟件安全性和可靠性的最終影響上仍然存在顯著差距——這些問題甚至對經驗豐富的開發人員來說仍是挑戰。本論文旨在從安全性和可靠性的角度推動代碼機器學習領域的發展。我們提出了訓練機器學習模型的新技術,以使其具備強大的推理能力,能夠處理與安全性和可靠性相關的問題。 我們首先介紹了利用監督學習信號來增強程序分析的方法。作為這一方法的實例,我們提出使用模仿學習框架,從符號執行中學習一個有效且快速的模糊測試器。首先,符號執行專家為大量程序生成高質量輸入數據集。然后,利用該數據集訓練一個神經網絡模糊測試器,使其模仿專家的行為。訓練好的模糊測試器隨后被部署以測試新程序。
此外,我們研究了分布漂移問題,這是阻礙深度學習模型在現實場景中有效檢測漏洞的關鍵問題。分布漂移發生在訓練和評估所用的數據集與實際遇到的漏洞分布不一致時。為了解決這個問題,我們提出了一種兩階段的訓練方法。首先,模型在大量的合成漏洞上進行訓練,然后進一步在一個更接近實際漏洞分布的數據集上進行訓練。 最后,我們從兩個互補的角度探討了代碼生成中的安全性問題。我們不僅尋求改進生成安全代碼的能力,還研究了從對抗角度降低安全級別的可能性。為實現這些目標,我們提出了一個統一的微調框架,采用專門的優化目標,既優化安全性又保持模型生成功能性正確代碼的能力。
物理啟發的生成模型(如擴散模型)構成了一類強大的生成模型家族。該模型家族的優勢在于相對穩定的訓練過程和強大的容量。然而,仍有許多可能的改進空間。在本論文中,我們首先將深入探討擴散模型在訓練和采樣方面的改進技術。擴散模型的訓練目標在數據分布為多模態時呈現出較高的方差。為了解決這一問題,我們提出了一種訓練目標,它推廣了傳統的去噪得分匹配方法,顯著減少了訓練目標的方差。除此之外,我們還引入了一種將可學習的離散潛變量整合到連續擴散模型中的訓練框架。這些潛變量簡化了擴散模型復雜的噪聲到數據映射的學習過程。
另一方面,擴散模型的采樣過程通常涉及求解微分方程。為加速采樣過程,我們提出了一種新穎的采樣算法,結合了之前常見的ODE和SDE采樣器的優點,大幅提升了預訓練擴散模型的性能。此外,我們的研究探索了在有限樣本中引入互斥力以促進生成過程中的多樣性。 在物理啟發的生成模型領域,許多物理過程都可以用于開發生成模型。我們將介紹一類基于靜電理論的新生成模型家族,稱為泊松流生成模型(PFGM)。PFGM在采樣穩健性上表現出色,并與領先的擴散模型相媲美。其擴展版本PFGM++將擴散模型和PFGM置于同一框架下,并引入了新的、更優的模型。我們還將提出一種系統化的方法,將物理過程轉化為生成模型。
生成模型在近年來顯著改變了人們工作的、創作的和學習的方式。其突出應用包括ChatGPT [1]、文本到圖像模型 [2]-[4]、文本到3D模型 [5]、[6] 和文本到視頻模型 [7]、[8]。這些能力可以極大地激發創造力,并提高眾多領域的工作效率,包括教育、游戲產業、社交媒體和專業編輯軟件。生成模型的訓練基于這樣一個假設,即訓練數據是從未知的數據分布中采樣的 [9]。現代生成模型通常使用深度神經網絡來基于有限的訓練數據逼近復雜的數據分布,并通過從這些建模的分布中采樣來生成新的數據點。
在生成建模中使用的各種數據類型中,高維數據由于維度詛咒而面臨著顯著的挑戰。隨著維度的增加,數據空間的體積呈指數級擴展。這一現象使得在高維空間中用有限的訓練數據有效捕獲和建模數據分布變得困難。此外,感興趣的數據分布通常高度復雜且呈多模態,進一步增加了生成建模的難度。近年來,擴散模型 [10]–[12] 以及更廣泛的物理啟發生成模型 [13],在處理高維數據的生成任務中,展現了強大的框架并取得了令人印象深刻的結果。在擴散模型之前,主要的方法包括:(i)利用對抗訓練目標的生成對抗網絡(GANs [14]);(ii)使用最大似然目標訓練的模型,如PixelCNN [15] 和正規化流模型 [16]、[17];(iii)變分自編碼器(VAEs)[18]、[19] 以及(iv)基于能量的模型 [20]、[21]。然而,每種方法都有其自身的缺點:(i)可能導致訓練不穩定和生成樣本的多樣性低;(ii)需要特定的架構設計,可能限制模型的容量;(iii)需要多個神經網絡的仔細協調;(iv)訓練和采樣速度較慢。利用自然的物理過程作為編碼器將數據轉化為噪聲,擴散模型通過逆轉這些物理過程來執行生成任務。這種方法使它們繞過了早期生成模型的許多限制。
1.1 通過逆轉物理過程進行生成建模
基于熱力學的原理 [10],擴散模型涉及兩個對立的過程:一個前向過程將數據分布逐漸轉化為一個更簡單的先驗分布,另一個反向過程通過逐步去噪從該噪聲先驗分布中生成樣本。擴散模型中的前向過程是一個簡單的布朗運動,通過逐步增加高斯噪聲來降解數據。為了逆轉這一過程,只需學習一個時間依賴的向量場,即得分函數,并迭代求解一個微分方程 [22]。與GANs和VAEs不同,擴散模型的訓練不需要多個神經網絡之間的同步,從而使訓練過程更加穩定。此外,它們在架構設計上不受限,采用類似于神經網絡串聯的迭代過程,從而增強了整體容量。這種穩定性和增強的容量使擴散模型能夠有效擴展到大規模數據集。
盡管擴散模型具有諸多優勢,但它們仍面臨一些挑戰,包括在處理多模態數據時高方差的訓練過程,以及緩慢的迭代采樣過程。此外,獨立同分布(i.i.d.)的采樣過程往往會導致重復的樣本。這些問題強調了在復雜數據集上穩定和改進擴散模型訓練方法的必要性,并且需要新技術來加速采樣過程并提高小批量樣本的多樣性。此外,擴散模型只是眾多物理啟發生成模型之一。除布朗運動外,仍有許多物理過程尚未開發,可以用來構建生成模型。這引出了一個重要問題:我們能否發現其他物理啟發的生成模型,它們展示出更好的性能?在接下來的部分中,我們將簡要總結擴散模型的改進訓練和采樣技術,并討論我們開發其他物理啟發生成模型的研究,這些將在后續章節中詳細闡述。
1.1.1 擴散模型的改進訓練技術
擴散模型的訓練利用了一種擾動-去噪方法來估計向量場。其過程是先通過高斯噪聲擾動干凈的數據,然后網絡從這些擾動樣本中重構原始數據 [12]。然而,對于復雜的多模態數據,許多干凈的數據點可能被擾動為相似的噪聲樣本,導致訓練目標不明確并引發不穩定性。
在文獻 [23] 中,我們通過多個干凈數據點的加權求和來估計真實目標,精確地指示從擾動樣本到真實向量場的方向。該新穎的訓練目標推廣了傳統的單點估計方法,顯著減少了訓練目標中的方差。因此,在各種擴散模型變體中,樣本質量得到了提高,訓練過程更加穩定,訓練速度也得到了加快。
擴散模型面臨的另一個挑戰是,需要學習一個從單峰高斯分布到多峰數據分布的非線性且高度復雜的映射。這種復雜性增加了訓練的難度,并導致生成常微分方程(ODE)[24] 軌跡呈現強烈的曲率。為解決這一問題,我們在擴散模型中引入了離散潛變量。這些離散潛變量有助于捕獲數據分布中的不同模式,而擴散模型的任務則轉變為基于給定的離散潛變量捕獲每個模式內的連續變化。離散與連續變化的分離建模顯著簡化了模型復雜的噪聲到數據映射的學習過程。這一方法有效降低了擴散模型生成ODE的曲率,尤其是在較大的擴散時間下,整體訓練損失得到了減少。
1.1.2 擴散模型的改進采樣技術
在擴散模型的采樣過程中,求解微分方程通常涉及速度和質量之間的權衡。確定性采樣器(基于ODE的)[25]–[27] 速度快,但性能達到平臺期,而隨機采樣器(基于SDE的)[27]、[28] 樣本質量更好,但速度較慢。我們的分析將這種差異歸因于采樣誤差:ODE采樣器的離散化誤差較小,而SDE中的隨機性會收縮采樣過程中的累積誤差 [29]。
基于這些見解,在文獻 [29] 中,我們提出了一種名為Restart的新采樣算法,該算法結合了ODE和SDE的優點。該方法在附加的前向步驟中加入大量噪聲,并嚴格遵循逆ODE過程。前向噪聲的引入增強了隨機性的收縮效應,而逆ODE過程的遵循則加快了采樣速度。這種將隨機性和確定性采樣過程分離的方法極為有效,Restart在標準基準(CIFAR-10和ImageNet-64)上超過了SDE和ODE采樣器的速度和質量,并在大規模文本到圖像的Stable Diffusion模型中展示了文本-圖像對齊、視覺質量和多樣性的卓越平衡。
傳統上,擴散模型從模型分布中生成獨立同分布的樣本。然而,在實際操作中,模型通常需要多次采樣以獲得一組多樣化的小批量樣本,這會帶來與采樣時間無關的成本。我們提出超越獨立樣本假設,以提高樣本的多樣性和效率。我們的方法引入了一種擴展的基于擴散的生成采樣方法,稱為粒子引導。在這種方法中,聯合粒子的時間演化勢通過在樣本(粒子)之間加入互斥力來強制多樣性。根據實驗結果,我們的框架在文本到圖像生成和分子構象生成等應用中提高了樣本的多樣性并減輕了記憶效應。
1.1.3 基于其他物理過程的生成模型
以擴散模型為顯著例子,物理啟發的生成模型包含一個前向過程,該過程將復雜的數據分布簡化為逐步的先驗分布,隨后通過一個反向過程(即采樣過程)逐步將這些先驗分布還原為原始數據分布。因此,為了定義新的物理啟發生成模型,必須確定一個合適的前向過程。該過程應自然地隨著時間簡化數據分布,并且是可逆的,同時其相關的向量場應該易于被神經網絡學習。 借助靜電學原理,我們為物理啟發的生成模型開辟了一條新路徑,并介紹了泊松流生成模型(Poisson Flow Generative Models, PFGM)[30] 及其擴展版本PFGM++ [31]。PFGM將數據解釋為增廣空間中的電荷。如圖1.1所示,當我們從數據支撐遠離足夠遠時,電荷分布坍縮為一個點電荷,電場在各個方向上呈現輻射狀。因此,可以證明這些電荷發出的電場線定義了數據分布和大半球上均勻分布之間的雙射。實驗結果表明,這一新模型家族在樣本質量、采樣速度和穩健性方面超越了擴散模型。此外,我們還探索了物理過程和生成模型之間的對偶性,旨在概念化和設計更多新的物理啟發生成模型 [13]。
本論文分為三個主題部分。下面簡要概述每個部分的內容。 第一部分 重點開發新技術,旨在穩定擴散模型的訓練,并在處理復雜的多模態數據集時,優化生成軌跡。
第三章 我們通過引入參考批次來解決擴散模型目標中的高方差問題,并使用參考批次計算加權條件得分,作為更穩定的訓練目標。我們展示了這一過程在具有挑戰性的中間階段中,通過減少訓練目標協方差(的跡)確實起到了幫助作用。本章基于文獻 [23]。
第四章 我們通過一個編碼器推斷可學習的離散潛變量,并對擴散模型和編碼器進行端到端訓練。離散潛變量通過降低擴散模型生成ODE的曲率,顯著簡化了其復雜的噪聲到數據映射的學習過程,并通過ODE采樣器提高了在各種數據集上的樣本質量。本章基于文獻 [32]。
第二部分 討論了加速擴散模型采樣過程的技術,以及通過施加樣本之間的互斥力來促進多樣性。所有討論的技術都不需要重新訓練,且可以直接應用于任何預訓練的擴散模型。
第五章 我們提出了一種名為Restart的新采樣算法,結合了先前ODE和SDE采樣器的優勢。Restart算法在附加的前向步驟中加入大量噪聲,并嚴格遵循逆ODE過程。實驗結果表明,Restart采樣器在速度和精度上均超過了先前的SDE和ODE采樣器。本章基于文獻 [29]。
第六章 我們提出了粒子引導,一種擴展的基于擴散的生成采樣方法,其中通過一個聯合粒子的時間演化勢來強制樣本多樣性。在條件圖像生成中,我們測試了該框架,并證明其在不影響質量的情況下增加了多樣性;在分子構象生成中,我們改進了相較于先前方法的中位誤差。本章基于文獻 [33]。
第三部分 探討了一類新型的生成模型,這些模型基于靜電理論,并與擴散模型在擴展視角下進行了統一。本部分還展望了通過物理過程構建生成模型的方法論。
第七章 我們介紹了一種新型生成模型——泊松流生成模型(PFGM),基于靜電理論。我們將數據點解釋為增廣空間中 z=0 超平面上的電荷,生成一個高維電場(泊松方程解的梯度)。我們證明了,如果這些電荷沿電場線向上流動,它們在 z=0 平面的初始分布會轉化為半徑為 r 的半球上的分布,并且在 r → ∞ 時變得均勻。我們展示了PFGM在圖像生成速度上提供了比先前最先進擴散模型更好的性能。本章基于文獻 [30]。
第八章 我們擴展了PFGM中使用的靜電理論,將擴散模型與PFGM統一起來。更有趣的是,在兩者之間的插值揭示了一個性能最優的新平衡點,達到了圖像生成的新標桿性能。我們為為什么PFGM和擴散模型都是次優解提供了理論解釋。本章基于文獻 [31]。
第九章 我們提出了一個統一的框架和算法,將物理過程轉化為平滑的密度流生成模型。此外,我們基于底層物理偏微分方程(PDE)的色散關系,提出了一種分類標準。這種理論方法可應用于各種物理PDE,從而發現新的生成模型家族。本章基于文獻 [13]。
第十章 我們總結了論文內容并討論了當前的局限性。
在過去的十年里,經典機器學習與現代機器學習之間的差距不斷擴大。現代學習的預測性能不可比擬地更好,但更容易對經典學習進行分析,并保證其安全性、效率、公平性等特性。在本論文中,我探討了通過審慎和戰略性地結合經典技術,是否有可能將這些期望的特性恢復到現代機器學習中。我將經典與現代學習的結合歸納為兩種高級策略:(1)封裝,即通過經典分析技術從現代的、不透明的模型中提取可靠的性能保證,或(2)替換,即從經典的基礎構建現代模型的某些組件,以提高整體的效率、可處理性和/或表達能力。這些努力在機器學習的多個領域帶來了新的進展。本論文的最重要貢獻涉及元分析,這是一種結構化的問答形式,作為循證醫學的基礎。經典元分析技術基于隨機對照試驗,其因果效度受到信任;相比之下,現代回歸模型是在大型觀察性數據庫上訓練的,其因果效度不被信任。我展示了如何在不犧牲效度的情況下將不可信的數據納入元分析中。這涉及對完全共形預測的基本改進,這些改進具有普遍的意義。在一個更聚焦的醫療保健應用中,我推廣了經典的、手工設計的心率變異性統計,使其能夠通過監督學習進行微調,成為深度神經網絡的一部分,從而生成更準確的、生理學知情的模型。我還提出了一些可以在未來機器學習模型和算法中使用的基礎計算原語。第一個是一種算法,可以在O(log T)的并行時間內(近似)運行T步非線性RNN。該算法的關鍵創新在于通過一種證明一致的局部、可并行修正方案,用深度上的非線性替代時間上的非線性。通過這種方式,經典線性動態系統(也稱為狀態空間模型)可以堆疊起來形成快速的非線性序列模型。另一個新的計算原語是在所有正交多項式序列集合上進行基于梯度的優化。這種優化形式與信號處理和優化中的許多不同問題都有聯系。最后,我提出了基于學習理論和優化中廣泛使用的幾何邊界概念的公平性標準,以規避計算的不可處理性。
分布變遷仍然是成功和可靠部署機器學習(ML)系統的重大障礙。解決這些脆弱性的長期方案只能通過理解基準測試根本無法捕捉所有可能發生的變化而實現;同樣重要的是,通過仔細實驗AI系統,理解它們在實際分布變遷下的失敗。本論文描述了我在構建可信賴和可靠的機器學習基礎方面的工作。調查的工作大致分為三個主要類別:(i)設計正式的、實用的真實世界分布變遷結構表征;(ii)利用這種結構開發證明正確且高效的學習算法,能夠穩健處理這種變遷;以及(iii)實驗現代ML系統,理解現實世界重尾和分布變遷的實際影響,包括平均情況和最壞情況。
第一部分描述了可擴展地認證深度神經網絡對對抗攻擊的穩健性的工作。所提出的方法可用于認證對測試樣本、訓練數據或更一般地對任何影響模型最終預測的輸入的攻擊的穩健性。在第二部分中,我們關注變遷的潛變量模型,借鑒因果關系和其他結構化編碼的概念。我們展示了這些模型如何通過環境/干預復雜性這一新視角,進行使用多種分布進行穩健深度學習的方法的正式分析。環境/干預復雜性是領域泛化和因果表示學習的核心統計測量,通過訓練分布數量和多樣性來量化誤差和/或結構化可識別性條件。最后,在第三部分中,我們廣泛探索了更好地理解和利用自然數據中的變化的方法,并展示了所得見解如何促進設計在現實世界中更加穩健和可靠的新方法。
預測算法通過其在未見測試數據上的表現來評估和重視。在經典的機器學習(ML)中,通常假設這些數據是相互獨立地從與訓練算法所用數據集相同的分布中抽取的(這被稱為IID假設)。然而,在現實世界中,這種情況幾乎從未滿足。IID假設作為一種有價值的抽象,用于研究如何高效且可靠地從數據中學習。然而,統計學家早已明白這一假設是一種過度簡化,現實世界的數據底層分布不斷發生變遷:例如,時間上的變遷、異質子群體間的變遷、因過去行為而引發的變遷等。由于現實與理想化的IID數據假設之間的這種差異,在分布內提供強泛化保證的算法(如經驗風險最小化[Vapnik, 1999])在現實世界中會出乎意料地失敗,通常伴隨著高置信度且無事先警告。特別是,盡管現代深度神經網絡在許多任務上實現了超人表現,但越來越多的證據表明,其令人難以置信的泛化能力主要限于測試數據與訓練數據非常相似的情況下。這些模型似乎依賴于數據的統計信息表示——出于尚未完全理解的原因——遠遠超越了對訓練數據的簡單記憶,但這些表示通常不能使其泛化到新領域或新任務。即使是對于看似微不足道的人類變化,這種情況也依然存在(Beery et al., 2018; Geirhos et al., 2018)。因此,現代最先進的生成和判別深度網絡在部署中是脆弱的,并且在出人意料的輕微分布變遷下容易出錯(Su et al., 2019; Recht et al., 2019)。
在考慮如何解決這一弱點時,人們可能會想象使得上述深度學習取得實際成功的方法最終也能解決這個問題。過去十年ML研究驚人速度的主要推動力是“基準測試方法”:通過對代表性基準數據集的一系列任務進行一致的、逐步的改進來推進。盡管這一策略的成功是不可否認的,但顯然它不足以實現真正穩健和可靠的ML未來。人工智能(AI)正在迅速部署到無數新的領域——并且只會變得更加普遍——但它尚不能被廣泛依賴,而意外失敗的潛在成本仍在增加。同時,在現實世界中引發這種失敗的變遷例子比比皆是:例如,自動駕駛汽車遇到的簡單景觀和/或天氣變化,或者用戶調整其行為以增加他們首選結果的可能性(Hardt et al., 2016)。更糟糕的是,AI越來越多地被用于安全關鍵環境,這在面對有意的對手時呈現出嚴重的安全漏洞(Sharif et al., 2016)。這種脆弱性仍然是進一步可信賴部署ML系統的重大障礙。
解決這些脆弱性的長期方案只能通過理解基準測試根本無法捕捉所有可能發生的變化而實現。但是,顯然對所有分布變遷的穩健性是不可行的。相反,我們必須首先設計精確、現實的真實世界分布變遷的數學定義:通過正式指定我們希望穩健應對的變遷的“威脅模型”,我們將能夠朝著正式的穩健性保證可靠地前進。同時,ML理論和實踐(特別是在深度學習中)之間經常存在不匹配,因此單單數學定義變遷是不夠的。我們還需要仔細實驗AI系統,以理解它們在實際中的失敗模式——只有通過這樣的實驗,我們才能理解和調和現實世界數據與我們的數學理解之間的差異。反過來,這將推動新型、更可靠且可解釋的ML方法的發展,對性能產生實際的下游益處。
本論文描述了通過結合這兩種核心方法,為可信賴和可靠的機器學習奠定基礎的進展。更具體地說,所調查的工作大致分為三大類:(i)設計正式的、實用的真實世界分布變遷結構表征,包括良性和對抗性的;(ii)利用這種結構開發證明正確且高效的學習算法,能夠穩健處理這些變遷;以及(iii)實驗現代ML系統,以理解分布變遷的實際影響,包括平均情況和最壞情況,以便未來的分析能夠更好地捕捉我們期望AI在未來遇到的困難類型。
本論文的第一部分描述了大規模認證深度神經網絡對抗攻擊穩健性的工作。第2章展示了如何將任何在高斯噪聲下分類良好的分類器轉變為對?2范數下的對抗擾動具有認證穩健性的新分類器。我們證明了使用高斯噪聲平滑在?2范數下的緊密穩健性保證,獲得了一個在ImageNet上在?2范數小于0.5 (=127/255) 的對抗擾動下具有49%認證top-1準確率的分類器。在第3章中,我們展示了如何使用所提出的方法來認證對更一般的攻擊的穩健性,例如對訓練數據的對抗性修改,或更一般地說,任何影響模型最終預測的輸入。
第二部分側重于變遷的潛變量模型,靈感來自因果關系和其他提出的真實世界變化的結構化編碼。我們展示了這些模型的重要性及其如何使使用多種分布進行穩健深度學習的方法的形式化分析成為可能。特別是,我們通過環境/干預復雜性這一新視角研究這些算法的行為——這是領域泛化和因果表示學習的核心統計測量,通過觀察的環境數量來量化誤差和/或潛在特征的可識別性。第4章在一個相當自然和一般的模型下,首次分析了為這些任務提出的各種目標下的分類。我們還在非線性領域中展示了這些方法的首個結果:除非測試數據與訓練分布足夠相似,否則這些方法可能會災難性地失敗。隨后在第5章中,我們提供了改進的分析以及更強的下界。第6章考慮了在線領域泛化的設置,首次正式量化了領域“插值”和“外推”之間的計算復雜性差距。
論文的最后一部分廣泛探索了更好地理解和利用自然數據中的變化的方法。首先,在第7章中,我們展示了預訓練特征足以生成比以前認為的更穩健的預測器。第8章描述了這一發現如何使得使用未標記的測試數據以證明神經網絡適時適應變遷,或給出(幾乎)有證明的非空的測試誤差界成為可能。接下來,第9章開發了一種穩健優化方法用于策略分類,使得雙重穩健預測能夠優雅地處理策略響應和用戶成本函數中的不可避免的不確定性。最后,第10章展示了離群值對神經網絡優化的顯著影響——這一結果為理解自然數據的重尾如何影響網絡行為提供了新的見解,并提出了神經網絡優化中各種現象起源的更一致的圖景。
隨著機器學習算法在高風險應用中不斷開發和部署,確保其可靠性已變得至關重要。本論文介紹了在機器學習中提高可靠性的算法進展,重點強調兩個關鍵維度:魯棒性和可解釋性。 本論文的第一部分側重于魯棒性,即保證算法在各種數據不確定性下仍能提供穩定和可預測的性能。我們研究了在不同數據不確定性來源下的學習魯棒性,包括基本的統計誤差以及數據噪聲和損壞。我們的研究揭示了這些不同來源如何相互作用并對數據驅動決策產生影響。我們引入了針對特定不確定性來源量身定制的新穎的分布魯棒優化方法。我們的研究結果表明,對一種來源的保護可能會增加對另一種來源的脆弱性。為了解決這個問題,我們開發了分布模糊集,能夠同時提供對所有來源的整體魯棒性。在每種情況下,我們證明了我們的新方法實現了“高效”的魯棒性,在平均性能與樣本外保證之間實現了最佳平衡。我們的新算法被應用于各種場景,包括訓練魯棒神經網絡,在這些場景中顯著優于現有基準。 本論文的第二部分探討了可解釋性,這是高風險環境下決策支持工具的一個關鍵屬性,要求算法能夠為其決策提供可理解的解釋。我們的工作在這一部分的動機來自于數據驅動的個性化患者治療——一種越來越受歡迎的機器學習應用。在這個強化學習問題中,可解釋性至關重要:醫生不能依賴于一個黑箱算法來開具治療方案。我們在理論上引入了學習連續狀態空間動態系統最簡潔離散表示的問題。在患者治療的背景下,這相當于基于患者治療過程中不斷變化的特征來確定治療組。令人驚訝的是,我們在理論上證明,僅從觀察到的歷史樣本路徑數據中就有可能學習到動態系統的最簡潔表示。隨后,我們開發了一種算法,MRL,能夠學習這種簡潔的表示,從而增強可解釋性和可操作性。
機器學習(ML)通過其近期前所未有的進步正在改變社會。自回歸模型的普及正在重塑社會的各個層面,從專業領域到學術追求,甚至休閑活動。智能AI系統的一個核心方面是它們處理和理解長時間的時間信息流,如文本、音頻或視頻數據的能力。在這篇論文中,我們深入探討了學習數據中長期依賴性的問題,從兩個主要角度來解決它:模型架構和學習算法。與其致力于在當代基準分數上獲得邊際改進,這些分數通常更依賴于工程優化,本論文的重點是深入理解潛在的時間機制,探索替代學習算法,并為未來在計算效率方面的改進提供基礎。
在第一章中,我們提出了一種新方法,將眾所周知的ML模型之一,循環神經網絡(RNN)的多個實例互聯。我們提出的實證證據表明,模型架構的修改在系統組件內引發不同的時間行為。這一發現可以被利用來區分長期依賴性和短期依賴性,為使用專門為每個設計的架構鋪平了道路。
第二章聚焦于在線學習算法,這種方法顯著偏離了用于訓練時間ML模型的傳統方法。這些算法在觀察到每個輸入后立即更新其參數,與更常用的方法形成對比,后者必須觀察整個輸入序列才能更新模型參數。我們研究了實時循環學習(RTRL)在眾所周知的RNN模型中的表現,并提出了一種數學上合理的近似方法。這種新方法提供了更好的近似,盡管它只與某些架構兼容。
在最后一章中,我們同時從這兩個方面應對學習長期依賴性的挑戰。我們提出了一種分層架構,能夠通過將其分解為更小的自包含子序列來處理擴展序列。與這種架構一起,我們提出了一種學習算法,使得在抽象空間中的學習成為可能,從而繞過了專注于短期序列細節的需求。這種架構和算法的結合導致了計算效率的顯著提高。重要的是,我們的方法不僅增強了當前模型的能力,而且還為未來模型架構和學習算法的共同設計開辟了令人興奮的途徑。