【導讀】紐約大學的Andrew Gordon Wilson和Pavel Izmailov在論文中從概率角度的泛化性對貝葉斯深度學習進行了探討。貝葉斯方法的關鍵區別在于它是基于邊緣化,而不是基于最優化的,這為它帶來了許多優勢。
貝葉斯方法的關鍵區別是邊緣化,而不是使用單一的權重設置。貝葉斯邊緣化可以特別提高現代深度神經網絡的準確性和校準,這是典型的不由數據完全確定,可以代表許多令人信服的但不同的解決方案。我們證明了深度集成為近似貝葉斯邊緣化提供了一種有效的機制,并提出了一種相關的方法,通過在沒有顯著開銷的情況下,在吸引域邊緣化來進一步改進預測分布。我們還研究了神經網絡權值的模糊分布所隱含的先驗函數,從概率的角度解釋了這些模型的泛化性質。從這個角度出發,我們解釋了那些對于神經網絡泛化來說神秘而獨特的結果,比如用隨機標簽來擬合圖像的能力,并證明了這些結果可以用高斯過程來重現。最后,我們提供了校正預測分布的貝葉斯觀點。
本課程從數據科學的角度介紹概率論與統計的基本概念。目的是熟悉在數據分析中廣泛使用的概率模型和統計方法。
隨著web技術的發展,多模態或多視圖數據已經成為大數據的主要流,每個模態/視圖編碼數據對象的單個屬性。不同的模態往往是相輔相成的。這就引起了人們對融合多模態特征空間來綜合表征數據對象的研究。大多數現有的先進技術集中于如何融合來自多模態空間的能量或信息,以提供比單一模態的同行更優越的性能。最近,深度神經網絡展示了一種強大的架構,可以很好地捕捉高維多媒體數據的非線性分布,對多模態數據自然也是如此。大量的實證研究證明了深多模態方法的優勢,從本質上深化了多模態深特征空間的融合。在這篇文章中,我們提供了從淺到深空間的多模態數據分析領域的現有狀態的實質性概述。在整個調查過程中,我們進一步指出,該領域的關鍵要素是多模式空間的協作、對抗性競爭和融合。最后,我們就這一領域未來的一些方向分享我們的觀點。
近年來,神經網絡已成為分析復雜和抽象數據模型的有力工具。然而,它們的引入本質上增加了我們的不確定性,即分析的哪些特征是與模型相關的,哪些是由神經網絡造成的。這意味著,神經網絡的預測存在偏差,無法與數據的創建和觀察的真實本質區分開來。為了嘗試解決這些問題,我們討論了貝葉斯神經網絡:可以描述由網絡引起的不確定性的神經網絡。特別地,我們提出了貝葉斯統計框架,它允許我們根據觀察某些數據的根深蒂固的隨機性和我們缺乏關于如何創建和觀察數據的知識的不確定性來對不確定性進行分類。在介紹這些技術時,我們展示了如何從原理上獲得神經網絡預測中的誤差,并提供了描述這些誤差的兩種常用方法。我們還將描述這兩種方法在實際應用時如何存在重大缺陷,并強調在使用神經網絡時需要其他統計技術來真正進行推理。
決策理論是現代人工智能和經濟學的基礎。本課程主要從統計學的角度,也從哲學的角度,為決策理論打下堅實的基礎。本課程有兩個目的:
課程可分為兩部分。
第一部分,我們介紹了主觀概率和效用的概念,以及如何用它們來表示和解決決策問題。然后討論未知參數的估計和假設檢驗。最后,我們討論了順序抽樣、順序實驗,以及更一般的順序決策。
第二部分是不確定性下的決策研究,特別是強化學習和專家咨詢學習。首先,我們研究幾個有代表性的統計模型。然后,我們給出了使用這些模型做出最優決策的算法的概述。最后,我們來看看學習如何根據專家的建議來行動的問題,這個領域最近在在線廣告、游戲樹搜索和優化方面有很多應用。
題目: A simple baseline for bayesian uncertainty in deep learning
摘要:
本文提出了一種簡單、可擴展、通用的面向深度學習的不確定性表示和標定方法SWA-Gaussian (SWAG)。隨機加權平均(SWA)是一種計算隨機梯度下降(SGD)的第一次迭代的改進學習速率調度方法,最近被證明可以提高深度學習的泛化能力。在SWAG中,我們以SWA解作為第一個矩來擬合高斯分布,并從SGD迭代中得到一個低秩加對角協方差,形成了一個近似的后驗分布;然后我們從這個高斯分布中取樣,進行貝葉斯模型平均。根據SGD迭代的平穩分布結果,我們發現SWAG近似真實后驗的形狀。此外,我們證明了SWAG在各種計算機視覺任務上表現良好,包括樣本外檢測、校準和遷移學習,與許多流行的替代方案相比,包括MC dropout、KFAC拉普拉斯和溫度標度。
作者:
Wesley Maddox是紐約大學數據科學專業的博士生,研究方向是統計機器學習、貝葉斯深度學習、高斯過程和生成模型。正在研究在機器學習模型(如神經網絡)中加入和利用不確定性的方法。
Pavel Izmailov是紐約大學計算機科學的博士生,研究方向主要包括深度學習中的損失面分析、優化和正則化,對深度半監督學習、貝葉斯深度學習、生成模型、高斯過程等課題也很感興趣。