亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

生成流網絡(GFlowNets)在主動學習環境中采樣多樣化的候選集合的一種方法,其訓練目標是使它們按照給定的獎勵函數的比例近似抽樣。在本文中,我們展示了GFlowNets的一些額外的理論性質。它們可以用來估計聯合概率分布和相應的邊際分布,其中一些變量是未指定的,特別有趣的是,可以表示在集合和圖等復合對象上的分布。GFlowNets將通常由計算昂貴的MCMC方法所做的工作攤銷在一個單一但經過訓練的生成過程中。它們也可以用來估計配分函數和自由能,給定子集(子圖)的超集(超圖)的條件概率,以及給定集(圖)的所有超集(超圖)的邊際分布。我們引入變量,使熵和互信息的估計,從帕累托邊界取樣,連接到獎勵最大化策略,并擴展到隨機環境,連續行動和模塊能量函數。

//www.zhuanzhi.ai/paper/e6adb2c4a1bfad46e20524d5b2d10ef7

付費5元查看完整內容

相關內容

這篇論文是關于從一系列動作中學習產生一個物體(比如分子圖)的隨機策略的問題,這樣產生一個物體的概率與該物體的給定的正回報成正比。盡管標準收益最大化傾向于收斂于單個收益最大化序列,但在某些情況下,我們希望抽樣不同的高收益解決方案集。例如,在黑箱函數優化中,當可能的輪數很少時,每個批次都有大量的查詢,這些查詢的批次應該是不同的,例如,在新分子的設計中。人們也可以把這看作是一個將能量函數近似轉化為生成分布的問題。雖然MCMC方法可以實現這一點,但它們的成本很高,而且通常只執行局部勘探。相反,生成式策略在訓練過程中攤銷了搜索成本,并讓位于快速生成。利用來自時態差分學習的見解,我們提出了GFlowNet,基于將生成過程視為流動網絡的觀點,使其有可能處理不同軌跡可能產生相同最終狀態的棘手情況,例如,有許多方法順序添加原子來生成一些分子圖。我們將軌跡集轉換為一個流,并將流一致性方程轉換為一個學習目標,類似于將Bellman方程轉換為時間差分方法。我們證明了所提出的目標的任何全局最小值都能產生一個從期望分布中采樣的策略,并在一個有許多模式的獎勵函數的簡單域和一個分子合成任務上證明了GFlowNet改進的性能和多樣性。

//www.zhuanzhi.ai/paper/5c1b11900fd1921ccfb9edcf7aea84d4

付費5元查看完整內容

Generative Flow Networks (GFlowNets) have been introduced as a method to sample a diverse set of candidates in an active learning context, with a training objective that makes them approximately sample in proportion to a given reward function. In this paper, we show a number of additional theoretical properties of GFlowNets. They can be used to estimate joint probability distributions and the corresponding marginal distributions where some variables are unspecified and, of particular interest, can represent distributions over composite objects like sets and graphs. GFlowNets amortize the work typically done by computationally expensive MCMC methods in a single but trained generative pass. They could also be used to estimate partition functions and free energies, conditional probabilities of supersets (supergraphs) given a subset (subgraph), as well as marginal distributions over all supersets (supergraphs) of a given set (graph). We introduce variations enabling the estimation of entropy and mutual information, sampling from a Pareto frontier, connections to reward-maximizing policies, and extensions to stochastic environments, continuous actions and modular energy functions.

鏈接預測是圖的一項非常基礎的任務。在傳統路徑學習方法的啟發下,本文提出了一種通用的、靈活的基于路徑的鏈接預測表示學習框架。具體來說,我們將節點對的表示定義為所有路徑表示的廣義和,每個路徑表示都是路徑中各邊表示的廣義乘積。受求解最短路徑問題的Bellman-Ford算法的啟發,我們證明了所提出的路徑公式可以被廣義Bellman-Ford算法有效地求解。為了進一步提高路徑表示的能力,我們提出了神經BellmanFord網絡(NBFNet),這是一個通用的圖神經網絡框架,用于解決廣義Bellman-Ford算法中使用學習算子的路徑表示。NBFNet將廣義Bellman-Ford算法參數化,采用3個神經單元,分別對應邊界條件、乘法算子和求和算子。NBFNet是非常通用的,涵蓋了許多傳統的基于路徑的方法,并且可以應用于同構圖和多關系圖(例如,知識圖)在轉換和歸納設置。在同構圖和知識圖譜上的實驗表明,所提出的NBFNet在轉導和歸納設置方面都大大優于現有方法,取得了最新的研究結果。

//www.zhuanzhi.ai/paper/15b186a8fcbae87c07eef96f6692c300

付費5元查看完整內容

最近的對比表示學習方法依賴于估計潛在上下文的多個視圖之間的互信息(MI)。例如,我們可以通過應用數據增強獲得給定圖像的多個視圖,或者我們可以將序列分割成包含序列中某個步驟的過去和未來的視圖。MI的對比下界很容易優化,在估計大量MI時具有很強的低估偏差。我們提出將整個MI估計問題分解為一組較小的估計問題,方法是將其中一個視圖分解為越來越知情的子視圖,并在分解的視圖之間運用MI的鏈式法則。這個表達式包含無條件和有條件的MI項的和,每一項測量MI總量的適度塊,便于通過對比邊界進行近似。為了使和最大化,我們在條件MI上建立了一個可以有效逼近的對比下界。我們將我們的一般方法稱為互信息分解估計(DEMI)。我們證明了DEMI可以在一個綜合設置中捕獲比標準的非分解的對比邊界更多的MI,并且在視覺域中學習更好的表示和對話生成。

//www.zhuanzhi.ai/paper/8843e06299bf34535700e85e6c684c37

付費5元查看完整內容

本書介紹了數據科學的數學和算法基礎,包括機器學習、高維幾何和大型網絡分析。主題包括高維數據的反直覺性質,重要的線性代數技術,如奇異值分解,隨機行走理論和馬爾可夫鏈,機器學習的基礎和重要算法,聚類算法和分析,大型網絡的概率模型,表示學習包括主題建模和非負矩陣分解、小波和壓縮感知。發展了重要的概率技術,包括大數定律、尾部不等式、隨機投影分析、機器學習中的泛化保證,以及用于分析大型隨機圖中的相變的矩方法。此外,還討論了重要的結構和復雜性度量,如矩陣規范和VC維。這本書是適合的本科生和研究生課程的設計和分析的算法的數據。

付費5元查看完整內容

Yoshua Bengio 說“因果關系對于機器學習的下一步進展非常重要“。” 深度學習包含了對靜態數據集的學習,這使得人工智能非常擅長與相關性和關聯相關的任務。然而,神經網絡不能解釋因果關系,也不能解釋為什么這些聯系和關聯存在。他們也不擅長涉及想象力、推理和計劃的任務。這反過來又限制了人工智能推廣其學習并將其技能轉移到其他相關環境的能力。 在本演講中,Yoshua Bengio將介紹因果表示學習。

高層語義變量空間中的稀疏因子圖 語義變量是因果的:代理,意圖,可控對象 局部因果干預引起的分布變化(語義空間) 高層次語義變量/思想與單詞/句子之間的簡單映射 跨實例共享“通用規則”(作為參數),需要變量和間接 含義(例如,由編碼器接地)是穩定和健壯的wrt變化在分發 信用分配只適用于短的因果鏈

//www.youtube.com/watch?v=rKZJ0TJWvTk&list=PLoazKTcS0Rzb6bb9L508cyJ1z-U9iWkA0

付費5元查看完整內容

時間序列數據的GANs通常使用滑動窗口或自我注意力來捕獲底層的時間依賴關系。雖然這些技術沒有明確的理論依據,但它們成功地大幅減小了判別器的尺寸,加快了訓練過程,提高了生成質量。本文給出了時間序列數據等由貝葉斯網絡捕獲的具有條件獨立結構的高維分布的廣義統計分析的理論基礎和實踐框架。我們證明了幾個概率發散滿足關于貝葉斯網絡圖鄰域的次可加性性質,給出了兩個貝葉斯網絡之間距離的一個上界,這個上界是圖上每個鄰域上它們的邊緣距離之和。這就引出了我們提出的次加性GAN框架,該框架在Bayes-net的鄰近區域使用一組簡單的判別器,而不是在整個網絡上使用一個巨大的鑒別器,從而提供了顯著的統計和計算優勢。我們證明了包括Jensen-Shannon, Total Variation, 和Wasserstein在內的幾個概率距離具有次加性或廣義次加性。此外,我們還證明了積分概率矩陣(IPMs)在某些溫和條件下也具有次可加性。此外,我們證明了幾乎所有的f-發散都滿足局部次加性,當分布相對接近時,局部次加性保持不變。我們在合成數據集和真實數據集上的實驗驗證了所提出的理論和次加性GANs的優點。

付費5元查看完整內容
北京阿比特科技有限公司