亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本論文聚焦于兩個選定的學習問題:1)圖模型上的統計推斷;2)神經網絡上的梯度下降,共同的目標是定義和分析表征基本限制的度量。

在論文的第一部分,我們考慮了圖上的自旋同步問題,該問題包括基于圖邊緣上它們的交互的噪聲觀察來重構圖頂點上的n個獨立自旋的向量。特別是,我們考慮了帶擦除(BEC)邊信息的同步模型,在這些模型中,一小部分節點的自旋被揭示,并研究了這樣的邊信息如何影響遠距離位點上的自旋的相關性。我們表明,在樹上,當邊緣觀察給出的遠距離位點上的自旋幾乎是獨立的時,那么給出邊緣觀察和邊信息的自旋仍然幾乎是獨立的。我們推測這對任何圖都適用。另一方面,(Kanade等人,2014)推測,在正規樹和Galton-Watson樹上,只要揭示了任何小部分節點標簽,無窮深度處的邊界就無法檢測到根位,即使在重構范圍內也是如此。我們解釋了這如何用于計算具有兩個對稱社區的稀疏隨機塊模型(SBM)的極限熵。最后,我們表明,后一推測不適用于每一棵樹。

在論文的第二部分,我們考慮了用全連接神經網絡上的梯度下降(GD)學習布爾目標函數的問題。我們引入了一個概念,即神經網絡在初始化時與目標函數之間的“初始對齊”(INAL),并證明如果網絡和目標在初始時沒有顯著的INAL,那么在具有i.i.d. 高斯初始化的全連接網絡上的帶噪聲梯度下降無法在多項式時間內學習目標。我們表明,對于用相關性損失訓練的有限深度網絡,結果可以擴展到布爾輸入之外。此外,我們證明,在相似的設置中,泛化誤差可以用目標函數的噪聲穩定性來下界,支持了(Zhang等人,2021)提出的一個推測。

然后,我們展示,在分布轉換設置中,當數據扣留對應于凍結單一特征時,泛化誤差在幾個相關架構上都承認布爾影響的緊密特征。這一點在線性模型上得到了證明,并在其他模型,如MLP和Transformers上得到了實驗支持。特別是,這提出了這樣一個假設,對于這些架構和學習邏輯函數,GD傾向于對低度表示有一個隱性偏好。

最后,我們考慮了一種‘課程學習’(CL)策略,用于學習二進制字符串上的k奇偶校驗。我們表明,一個明智的訓練樣本選擇,涉及兩個或更多的產品分布,允許在d^O(1)時間內用GD訓練的全連接神經網絡學習k奇偶校驗。我們進一步表明,對于另一類函數,即‘漢明混合’,涉及有界數量的產品分布的CL策略不是有益的。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

在這篇論文中,我們研究了深度強化學習中的對稱性和結構。我們將論文分為兩部分。在第一部分,我們探討如何在強化學習中利用對稱性的知識。在第二部分,我們提出了一些方法,用于學習智能體的環境和狀態的結構。我們提出了MDP 同態網絡,這是一種在 MDP 的聯合狀態-動作空間下對稱性下是等變的神經網絡。由于等變性,我們發現與非等變的基線相比,數據效率得到了提高。我們提出了多智能體MDP 同態網絡,一類網絡,允許使用僅局部信息的分布式執行,但能夠在合作多智能體系統的聯合狀態-動作空間的全局對稱性之間分享經驗。我們顯示全局等變性比對稱協調問題的非等變分布式網絡的數據效率更高。我們提出了 PRAE。PRAE 利用動作等變性進行強化學習中的表示學習。動作下的等變性表明輸入空間中的轉換被潛在空間中的等效轉換所鏡像,而映射和轉換函數也應該交換。我們證明,在某些假設下,學到的映射是一個 MDP 同態,并且通過實驗證明該方法是數據高效的,易于訓練,能很好地推廣到具有相同環境動力學的新目標狀態和實例。我們提出了 C-SWMs,它使用對比編碼和圖神經網絡轉換函數,從像素中找到狀態的面向對象的表示。我們顯示與使用解碼器、非結構化轉換或非結構化表示相比,在多步預測和泛化到未見環境配置方面有所改善。

對稱性和結構無處不在。當我們行走時,右腿的運動鏡像了左腿的運動。當分子旋轉時,它們的分子性質不變。當我們導航到一個目的地時,我們會考慮不同路段的連通性。當我們交談時,我們可以將單詞串聯起來,形成完全新的句子。在日常生活中,我們使用關于任務的對稱性和結構的信息來指導我們的決策制定。

在人工智能中,對稱性和結構也無處不在。考慮一下在運動過程中鏡像左右腿運動的機器人,自動化芯片設計,追蹤野生動物運動的無人機群,玩 Atari Pong 的機器人,其中屏幕的上下部分是彼此的反射,分子設計,計算機玩家在圍棋游戲中考慮旋轉的棋盤狀態,以及自動駕駛車輛從荷蘭的右側道路切換到英國的左側道路。這些都是 AI 中展示了某種對稱性或結構的任務的例子。利用固有對稱性和結構的知識是構建可擴展系統的重要一步。

強化學習是人工智能的一個基礎研究領域,它鼓勵智能體從正反饋信號中學習,我們稱這為獎勵。通過試錯,智能體可以學會將情境、動作和反饋關聯起來,從而改善其決策。例如,我們可以給一個機器人正向獎勵以鼓勵它快速行走,而給它負向獎勵以防止它跌倒。同樣,我們可以給計算機玩家正向獎勵以鼓勵它贏得比賽,負向獎勵以防止輸掉比賽,或者給一個提出特別高效的芯片設計的智能體正向獎勵。使用強化學習領域的概念,我們可以將上述示例正式化,以提出導致智能體做出良好決策的方法。在深度強化學習中,智能體使用神經網絡來決定采取哪個動作,而神經網絡會根據收到的獎勵信號適應任務。然而,即使是那些遠遠不及人類能力的智能任務,對于人工決策者來說也可能會遇到問題。考慮任何一個在現實世界中運作的基于視覺的控制系統。智能體接收到攝像頭輸入作為觀測,然后必須學習采取最佳動作。可能的觀測數量是極其龐大的,而智能體不太可能遇到兩個完全相同的狀態。因此,我們希望智能體能夠重用先前狀態的經驗,以便在具有相似特征的未見狀態中做出良好的決策。例如,在決定如何移動左腿時,智能體應該模仿它學到的移動右腿的動作。

上述示例只是強化學習問題中對稱性和結構出現的幾個案例。這可以通過考慮在一個狀態中采取一個動作是否等同于在另一個狀態中采取另一個動作來形式化。在這篇論文中,我們將研究當我們知道對稱性和結構時如何在強化學習中使用它,以及如果不知道時如何提取它。智能體不應該學習已知的東西。知識是由系統設計者作為先驗知識提供的,還是通過智能體自身的泛化獲得的,應取決于問題的上下文。通過適當地重復使用知識,我們可以減少智能體需要與世界互動的次數,這是擴展到真實世界設置的重要部分。在這篇論文中,我們將特別關注強化學習中的對稱性和結構。

付費5元查看完整內容

在現代的統計和機器學習模型中,通常會施加結構約束以提高模型的可解釋性和降低模型復雜性。在這篇論文中,我們展示了一些可擴展的優化方法,用于處理在結構約束下的大規模機器學習問題,特別關注的是非參數統計的形狀約束和高維統計的稀疏性。在第一章中,我們考慮了梯度正則化的凸回歸問題,該問題的目標是在目標變量和協變量之間擬合一個凸函數。我們提出了新穎的大規模算法,這些算法基于近端梯度下降和活動集方法,并為我們提出的算法推導出了新穎的線性收斂保證。從實證結果來看,我們的框架可以在幾分鐘內大致解決?? = 105 和?? = 10的實例。在第二章中,我們開發了一個新的計算框架,用于計算對數凹密度的最大似然估計,這個框架基于平滑技術和逐漸提高精度的適當積分離散化。我們證明了我們的方法的收斂性,并顯示出比早期的凸方法明顯的運行時間改善。在第三章中,我們關注的是高斯圖形模型,該模型旨在從獨立同分布的多元高斯樣本中估計稀疏的精確矩陣。我們通過?0?2-penalized偽似然提出了一種新的估計器。然后,我們設計了一種專門的非線性Branch-and-Bound(BnB)框架,該框架解決了提出的估計器的混合整數編程(MIP)公式。我們的估計器在計算上可以擴展到?? ~ 10,000,并且相比于競爭的?1方法提供了更快的運行時間,同時帶來了優越的統計性能。

在第四章中,我們進一步研究如何改進用于具有?0?2懲罰和一般凸平滑損失的稀疏學習問題的BnB框架。我們在BnB框架內提出了一種新穎的篩選程序,以保證將松弛變量固定為0或1。我們的實驗表明,這種篩選程序可以顯著減少BnB求解器的運行時間。

付費5元查看完整內容

強化學習和最優控制是解決動態系統決策問題的兩種方法,分別從數據驅動和模型驅動的角度出發。現代應用這些方法的場景往往涉及高維狀態和動作空間,因此開發高效的高維算法至關重要。本篇論文旨在從兩個角度來應對這一挑戰。在第一部分中,我們分析了強化學習在一般再生核希爾伯特空間(RKHS)中的樣本復雜性。我們關注一類馬爾可夫決策過程,其中獎勵函數位于RKHS的單位球內,而轉移概率位于任意集合中。我們引入了一個稱為分布不匹配下的擾動復雜性的量,用于描述在給定尺度下RKHS中的擾動所導致的可接受狀態-動作分布空間的復雜性。我們證明了這個量不僅為所有可能算法的誤差提供了下界,還為解決強化學習問題的兩種特定算法提供了上界。因此,擾動復雜性隨著給定尺度的衰減,衡量了強化學習問題的難度。我們進一步提供了一些具體例子,并討論了這些例子中擾動復雜性是否迅速衰減。在第二部分中,我們介紹了一種高效學習高維閉環最優控制的算法。該方法是從最近提出的基于監督學習的方法進行改進的,該方法利用強大的開環最優控制求解器生成訓練數據,并使用神經網絡作為高效的高維函數逼近器來擬合閉環最優控制。這種方法成功地處理了某些高維最優控制問題,但在更具挑戰性的問題上表現仍然不佳。其中一個關鍵原因是由受控動力學引起的所謂分布不匹配現象。在本篇論文中,我們對這一現象進行了研究,并提出了初始值問題增強采樣方法來緩解這個問題。我們進一步證明了所提出的采樣策略在經過測試的控制問題上顯著提高了性能,包括經典的線性二次調節器、四旋翼飛行器的最優著陸問題以及7自由度機械臂的最優達到問題。強化學習和最優控制是兩個不同的領域,它們都專注于動態系統的最優決策。強化學習是數據驅動的,旨在在未知環境中學習最優策略,以最大化累積獎勵。最優控制是模型驅動的,旨在基于動態系統的數學模型找到給定系統的最優控制策略。在強化學習中,智能體與環境進行交互,通過獎勵形式的反饋來改進策略。它不需要對系統進行顯式建模,直接從數據中進行學習。強化學習算法已成功應用于各種領域,如視頻游戲[60]、圍棋[80]、機器人技術[45]等。另一方面,最優控制使用模型來預測動態系統在不同控制策略下的行為,并通過優化預定義的成本函數來找到最優策略。這種方法可以對系統進行精確控制,并考慮系統的約束條件。它在機器人技術[52]、航空航天[55]等領域有廣泛的應用。現代強化學習和最優控制的應用往往涉及高維狀態空間和動作空間,這使得問題的解決變得非常困難。自從Bellman以來,人們就意識到解決高維閉環最優控制問題是一項艱巨的任務[7]。廣泛使用的術語“維度詛咒”最初是為了強調這些困難[7]。因此,從業者通常不得不采用不受控制的近似方法,比如假設值函數或策略函數具有特定的低維結構,以滿足實際需求[72]。然而,機器學習的出現帶來了新的希望,因為深度神經網絡能夠高效地逼近高維函數。這使得結合深度神經網絡的強化學習和最優控制算法能夠解決許多高維問題,包括圍棋[80]和50維隨機控制問題[35]。在這篇論文中,我們將討論高維強化學習和最優控制的兩個重要主題。在第一部分中,我們將分析在一般再生核希爾伯特空間(RKHS)中強化學習的樣本復雜性。RKHS是在核方法研究中引入的數學概念,與神經網絡密切相關,這在之前的神經切線核和Barron空間的研究中得到了證實。因此,理解在RKHS中強化學習的樣本復雜性是理解高維強化學習問題的關鍵一步。我們考慮一類馬爾可夫決策過程M,其中獎勵函數位于RKHS的單位球內,轉移概率位于給定的任意集合中。為了描述對RKHS中尺度為?的擾動所產生的可接受狀態-動作分布空間的復雜性,我們定義了一個稱為分布不匹配下的擾動復雜性?M(?)的量。我們展示了?M(?)既給出了所有可能算法的誤差下界,也給出了兩種具體算法——擬合獎勵算法和擬合Q迭代算法——對于強化學習問題的上界。因此,?M(?)隨著?的衰減衡量了在M上強化學習問題的難度。我們進一步證明了擾動復雜性與常用于研究RKHS中強化學習樣本復雜性的集中系數和特征值衰減有關。作為副產品,我們還表明當獎勵函數位于高維RKHS中時,即使轉移概率是已知的且動作空間是有限的,強化學習問題仍然可能受到維度詛咒的影響。這一部分主要基于我的先前工作[53]。

在第二部分中,我們提出了一種用于高維系統閉環最優控制學習的高效算法。該方法基于一種監督學習方法,利用開環最優控制求解器生成訓練數據,并使用神經網絡作為高維函數逼近器來擬合閉環最優控制。雖然這種方法成功地處理了某些高維最優控制問題,但在更具挑戰性的問題上表現較差,主要是由于受控動態引起的分布不匹配現象。該現象指的是訓練數據的狀態分布與由神經網絡控制器生成的狀態分布之間的差異通常會隨著時間的推移而增加,導致訓練數據不能很好地代表使用訓練后的神經網絡控制器時遇到的狀態。 為了解決這個問題,我們提出了初始值問題增強采樣方法。在這種方法中,我們通過解初始值問題迭代地重新評估神經網絡控制器到達的狀態,并通過解以這些狀態為起點的開環控制問題來重新計算新的訓練數據。我們從理論上證明了這種采樣策略在經典的線性二次調節器上的改進效果與總時間持續時間成比例。我們進一步通過數值實驗證明了所提出的采樣策略在經過測試的控制問題上顯著提高了性能,包括四旋翼飛行器的最優著陸問題和7自由度機械臂的最優達到問題。這一部分主要基于我的先前工作[92]。

付費5元查看完整內容

在這篇論文中,我們研究了穩定性的兩個不同方面:神經網絡動態模型的穩定性和強化學習算法的穩定性。在第一章中,我們提出了一種新的學習方法,可以構造出穩定的Lyapunov動態模型,即使在隨機初始化時也是穩定的。我們通過對阻尼多連桿擺進行實驗,展示了這種方法的有效性,并展示了如何用它來生成高保真的視頻紋理。在第二章和第三章中,我們關注強化學習(RL)的穩定性。在第二章中,我們展示了正則化,一種常見的解決不穩定性的方法,在RL環境中的反直覺行為。它不僅有時無效,而且可能導致不穩定性。我們在線性和神經網絡環境中都證明了這種現象。此外,標準的重要性采樣方法也容易受到這種影響。 在第三章中,我們提出了一種通過重新采樣來穩定離策略強化學習的機制。這種方法被稱為投影離策略TD(POP-TD),它將TD更新重新采樣為來自“安全”分布的凸子集,而不是(如在其他重新采樣方法中)重新采樣為在策略分布。我們展示了這種方法如何在一個設計為最大化此類轉換的離線RL任務中緩解分布轉換問題。總的來說,這篇論文提出了動態模型穩定性和強化學習訓練穩定性的新方法,對該領域的現有假設提出了質疑,并指出了模型和強化學習穩定性的有前景的研究方向。

付費5元查看完整內容

本文的目的是表明,研究機器學習系統中潛在的組成和函數結構使我們能夠更好地理解它們。本文探索了機器學習許多子領域的范疇理論表述,包括優化、概率、無監督學習和有監督學習。本文首先研究了當用一般的范疇理論結構取代梯度時,各種優化算法的行為。證明了這些算法的關鍵性質在非常寬松的假設下是成立的,并通過數值實驗證明了這一結果。本文還探索了動態系統的范疇論視角,使我們能夠從簡單操作的組成中構建強大的優化器。其次,從范疇理論的角度研究了概率建模與梯度優化之間的關系;本文從這個角度來研究最大似然估計如何在從統計模型到監督學習算法的轉換中保持某些關鍵結構。

//ora.ox.ac.uk/objects/uuid:ec72e338-d95e-4bd6-9412-7ac76b7ddc15

接下來,我們從函數的角度來研究無監督學習。我們基于非監督學習算法的函式表示的范疇論性質,開發了非監督學習算法的分類法,并證明了這些分類法是算法行為的預測。用這個視角推導出了一系列用于聚類和流形學習的新無監督學習算法,并證明了這些新算法在真實世界數據上可以優于常用的替代算法。還用這些工具證明了關于流行的無監督學習算法的行為和局限性的新結果,包括細化界限和在噪聲面前的穩定性。最后,轉向監督學習,并證明數據科學和機器學習中許多最常見的問題都可以表示為Kan擴展。本文用這個角度推導出新的分類和監督聚類算法。同時在真實數據上對這些算法的性能進行了測試。

付費5元查看完整內容

深度學習為我們提供了越來越復雜的神經網絡,可以通過梯度上升來調整,以最大化某些目標。貝葉斯統計為我們提供了一種原則性和統一的方法來指定統計模型和執行推斷。將這兩種方法配對的一種有效方法產生了深度生成模型(DGM),其中概率模型中統計參數之間的映射本身使用神經網絡進行參數化。在本文中,我們研究了這種方法可以用于解決機器學習中的各種問題的方法,以及由此產生的模型的屬性。在這篇論文中,有三個反復出現的主題,魯棒性,結構和層次,貫穿始終。

首先研究如何構建一個深度生成模型,以在一種稱為半無監督學習的新學習機制中進行學習。這是半監督學習的一個極端情況,對于某些類別的數據,沒有給定的標記示例。在學習將數據劃分為不同的成分,不同的基礎真值類時,模型必須能夠在未標記的類上進行聚類,并在給出了一些標記示例的類上進行半監督學習。本文展示了如何在一系列標準數據集上實現這一點。

從處理一個離散潛變量聚類分配開始,研究具有離散潛變量層次結構的模型。我們提出了一種新的方法來參數化這種類型的模型中的潛在變量,放松的責任向量量化,可以訓練非常深的潛在變量層的層次結構。該方法在一系列標準數據集上,對端到端的分層離散DGM進行訓練,在最大化數據證據(訓練和測試集)的下界方面取得了最先進的結果。在這樣做的過程中,這些模型有助于縮小具有離散潛在的分層DGM和具有連續潛在的分層DGM之間的差距,并提供極其穩定的訓練。

然后我們切換到另一個問題,如何構建一個模型,以有效地從高維數據中學習統計獨立的潛在表示。本文提出一種分層方法,使用雙射函數flow來產生一個中間表示,然后由高度約束的線性獨立成分分析(ICA)模型起作用。與其他方法相比,這導致了在各種玩具和真實數據集上的優越性能。

然后,研究迄今為止未考慮的問題,即如何使DGM對對抗性攻擊具有魯棒性。對這些模型的潛空間進行正則化可以可靠地誘導魯棒性,并通過將這種正則化應用于分層的DGM來獲得更魯棒的模型。最后,從理論角度研究了DGM算法的魯棒性問題。我們定義r-魯棒性,DGM魯棒性的新標準,然后得出該標準上的間隔,在該間隔內的模型可以說是魯棒的。與潛空間被正則化的各種DGM的最佳模型的新理論相結合,這種間隔的形式有助于了解這種正則化如何提高魯棒性。

**本文提出的工作表明,深度學習和貝葉斯統計的結合是多么有效,并提供了對他們的組合所產生的模型本質的見解。**這為這兩個方向開辟了新的研究——為建立在所提出工作之上的新模型,也為研究深度生成模型的理論工作開辟了新途徑。

//ora.ox.ac.uk/objects/uuid:fa76ad20-30bb-48a3-8ae4-56da578a1767

付費5元查看完整內容

圖聚類是無監督學習中的一個基本問題,在計算機科學和分析現實世界數據中有著廣泛的應用。在許多實際應用中,我們發現聚類具有重要的高層結構。這在圖聚類算法的設計和分析中經常被忽視,因為這些算法對圖的結構做了強烈的簡化假設。本文討論了聚類結構是否可以有效學習的自然問題,并描述了四個用于學習圖和超圖中聚類結構的新算法結果。論文的第一部分對經典的譜聚類算法進行了研究,并對其性能進行了更嚴格的分析。這一結果解釋了為什么它在更弱、更自然的條件下工作,并有助于縮小譜聚類算法的理論保證與其優秀的經驗性能之間的差距。

論文的第二部分在前一部分的理論保證的基礎上,表明當底層圖的簇具有一定的結構時,少于k個特征向量的譜聚類能夠比使用k個特征向量的經典譜聚類產生更好的輸出,其中k是聚類的個數。本文首次討論和分析了少于k個特征向量的譜聚類的性能,并表明一般的聚類結構可以用譜方法學習。第三部分考慮使用局部算法高效地學習簇結構,其運行時間僅依賴于目標簇的大小,且與底層輸入圖無關。經典的局部聚類算法的目標是找到一個與圖其他部分稀疏連接的簇,本文的這一部分提出了一種局部聚類算法,它可以找到一對彼此緊密連接的簇。這一結果表明,即使在現實世界中普遍存在的大圖中,某些聚類結構也可以在局部環境中有效地學習。

論文的最后研究了超圖中密集連接聚類的學習問題。該算法基于一種新的熱擴散過程,擴展了最近在超圖譜理論方面的一系列工作。它允許在建模對象的高階關系的數據集中學習簇的結構,可以應用于有效分析在實踐中發生的許多復雜數據集。在不同領域的合成數據集和真實數據集上進行了廣泛的評估,包括圖像分類和分割、遷移網絡、合著網絡和自然語言處理。實驗結果表明,新提出的算法是實用、有效的,可以立即應用于實際數據的聚類結構學習。

付費5元查看完整內容

在本論文中,我將分子生物學中的幾個問題抽象為網絡優化算法。

在本文的第一章中,我考慮了我們的第一類網絡問題——已知動態網絡中的子網優化。在這些情況下,我引入了條件網絡和時間條件網絡的概念,其中網絡可以隨時間動態變化(即頂點或邊)。在第一組問題中,我們的目標是找到一個代價最小的全局子網絡,它滿足所有條件下的局部連通性需求。在第二組問題中,我考慮優化從時間點$t_1$的源節點$a$開始,到時間點$t_2$的目標節點$b$結束的單一遍歷請求,同時保持隨時間變化的一致性。最后,我利用這些框架來研究Th17細胞中的信號轉導,目的是找到與IL23受體信號傳遞有關的新的下游蛋白。

在本文的第二章中,我考慮了CRISPR/Cas9模型中的譜系追蹤問題——給定一組通過CRISPR/Cas9譜系追蹤生成的終端節點或細胞,哪棵樹最能代表真實生成過程。特別地,我將介紹兩種用于此分析的方法——貪婪方法和精確整數線性規劃方法。然后我通過模擬和體外生成的地面真值樹來測試這些方法。最后,我退一步考慮我們的框架的理論保障。也就是說,我探索了模型中字符數量/剪切位點與最小細胞分裂次數、細胞數量和剪切率等變量之間的關系。特別是,在給定關于實驗設置的完美知識的情況下,我推導出精確重建所需的字符數量的上限。

在本論文的第三章和最后一章,我考慮使用網絡流抽象來估計細胞內的代謝活動。鑒于代謝和免疫功能之間的關系,我們的目標成為發現Th17細胞內的組織特異性代謝程序。為了實現這一目標,我利用通量平衡分析方法來估計從不同組織的小鼠中收集的Th17細胞內的網絡代謝通量,由此我發現了一個新的腸道特異性代謝目標,負責調節效應因子樣功能和穩態。

付費5元查看完整內容

多模態數據融合是將不同的數據源集成到一個適用于復雜推理的共享表示的過程。因此,人們可以對潛在現象做出比單獨使用每個數據源更精確的推論。在論文中,我們采用貝葉斯觀點的多模態數據融合,它將推理定義為對潛在變量的后驗推理。在貝葉斯設置中,我們提出了一種新的數據集成方法,我們稱之為輕量級數據融合(LDF)。LDF解決了數據源子集的正向模型未知或特征不佳的情況。LDF利用剩余的數據源學習適合后驗推斷的逆模型,該模型結合了這兩種類型的數據。此外,我們開發了分層Dirichlet過程(mmHDPs)的多模態擴展,其中,與LDF的設置相比,我們缺乏跨模態的觀察級對應,數據來自隱式潛在變量模型。最后,我們為Dirichlet過程和HDP混合模型開發了一種新穎的表示,可以在推理過程中實現并行化,并擴展到更復雜的模型,包括mmHDPs。

我們解決數據融合的問題,即從多個數據源學習。我們考慮了幾個具體的挑戰:例如,某些數據源可能缺乏特征良好的正向模型,或者底層模型的復雜性可能未知。我們采用貝葉斯視角,將數據融合問題視為對潛在變量結構的后驗推斷,并允許進行各種分析,包括不確定性量化、優雅地處理缺失數據和模型檢查。然而,貝葉斯推斷也提出了自己的挑戰。后驗推斷的常見方法不適應缺乏前向模型或難以適應大數據集的觀察模式。

本論文的一個重要重點是開發能夠實現高效和并行的后驗推理的表示。我們特別關注多模態數據融合中的兩個明顯挑戰。首先,當一個或多個觀察模態缺乏特征良好的前向模型,并且我們也缺乏明確標記的訓練數據,從而允許直接學習前向模型時,我們考慮學習。在這里,我們使用了來自不同模態的數據,它具有一個特征良好的正態模型,與未校準的數據一起出現。我們提出了一種方法,該方法使用具有良好校準數據的聯合觀測來學習一種模態的逆模型。其次,我們試圖從多種測量模態中學習,其中跨模態的觀察之間的直接對應是不可用的。我們利用不同模態的數據組之間的對應關系來揭示共同表示。在這里,我們開發了層次Dirichlet過程(HDP)混合模型的擴展,將不同的模態表示為子文檔。本文解決了這兩個問題,并開發了一種新的Dirichlet過程(DP)和HDP混合模型的表示,從而產生了一個并行推理過程。

在第三章中,我們提出了輕量級數據融合(LDF)。LDF是一種基于多源數據的貝葉斯推理新方法,其中一些源缺乏已知的正演模型。雖然與論文中的其他章節略有不同,但LDF確實解決了多模態數據融合中的一個常見挑戰。LDF的一個核心組成部分是它將未校準的數據源簡化為一組描述后驗分布的信息統計數據。我們為一般的模型結構制定了LDF,并表明我們的構造導致了有效的推理和一個易于處理的學習過程,具有吸引人的信息理論屬性。LDF使用具有已知可能性的數據類型來幫助學習如何對具有未知可能性的數據類型設置條件。

在第四章中,我們開發了一種新的DP和HDP混合模型的表示,這對設計高效的推理程序有重要的意義。在本章中,我們假設數據的正向模型是已知的,與第3章不同;我們將使用在第5章中開發的方法。特別地,我們引入了DP和HDP混合模型的聚合表示,它們既有被實例化的顯式原子,也有被聚合成未實例化組件的隱式原子。未實例化組件是延遲實例化Gibbs采樣器的核心,它允許并行執行許多采樣操作。

我們在第5章中介紹了DP和HDP混合模型的擴展,它可以容納多個數據源,并允許學習聯合依賴。在第4章中,我們假設數據的正向模型是已知的。本章使用底層的泊松過程表示定義了多模態DP和HDPs,并將它們用作混合模型的基礎。所得到的模型可以被視為所有模態的聯合措施,也可以被視為適用于單個模態的邊際隨機措施。我們提供了這些模型的幾種特征,指定了折疊推理過程,并使用第4章中的延遲實例化開發了一個并行推理過程。

付費5元查看完整內容

在本論文中,我們研究了兩類涉及大規模稀疏圖的問題,即圖數據的壓縮問題和網絡中的負載均衡問題。我們利用局部弱收斂的框架,或所謂的目標方法來實現這一點。這個框架提供了一個觀點,使人們能夠理解稀疏圖的平穩隨機過程的概念。

利用局部弱收斂框架,我們引入了有根圖上概率分布的熵概念。這是Bordenave和Caputo將熵概念推廣到頂點和邊帶有標記的圖上。這樣的標記可以表示關于真實數據的信息。這種熵的概念可以看作是稀疏圖數據世界中香農熵率的自然對應。我們通過介紹一種用于稀疏標記圖的通用壓縮方案來說明這一點。此外,我們研究了圖數據的分布式壓縮。特別地,我們介紹了一個關于稀疏標記圖的Slepian-Wolf定理的版本。

除了研究壓縮問題外,我們還研究了網絡中的負載均衡問題。我們通過將問題建模為超圖來實現這一點,其中每個超邊表示承載一個單元負載的任務,而每個頂點表示一個服務器。配置是分配此負載的一種方式。我們研究平衡分配,粗略地說,就是沒有需求希望改變其分配的分配。將局部弱收斂理論推廣到超圖,研究了均衡分配的某些漸近行為,如典型服務器上的漸近經驗負荷分布,以及最大負荷的漸近性。

本文所研究的問題可以作為實例來說明局部弱收斂理論和上述熵概念的廣泛適用性。事實上,這個框架為稀疏標記圖提供了平穩隨機過程的觀點。時間序列理論在控制理論、通信、信息論和信號處理等領域有著廣泛的應用。可以預料,平穩隨機過程的組合結構理論,特別是圖形,將最終有類似廣泛的影響。

//www2.eecs.berkeley.edu/Pubs/TechRpts/2020/EECS-2020-166.html

付費5元查看完整內容
北京阿比特科技有限公司