機器學習是一種從數據中提取預測模型,從而能夠將預測泛化到未觀察數據的技術。根據已知數據集選擇良好模型的過程需要進行優化。具體地說,優化過程在約束集中生成一個變量來最小化目標。這個過程包含了包括神經網絡訓練在內的許多機器學習管道,這將是我們在本文中進行理論分析的主要試驗場。在各種優化算法中,梯度方法因其高維可擴展性和反向傳播的自然局限性而成為深度學習中的主導算法。然而,盡管基于梯度的算法很受歡迎,但我們從理論的角度對機器學習環境中的這種算法的理解似乎還遠遠不夠。一方面,在現有的理論框架內,大多數上下界是封閉的,理論問題似乎得到了解決。另一方面,理論分析很難產生比實踐者發現的經驗更快的算法。本文回顧了梯度法的理論分析,指出了理論與實踐的差異。然后,我們解釋了為什么會發生不匹配,并通過發展由經驗觀察驅動的理論分析,提出了一些初始解決方案。
//dspace.mit.edu/handle/1721.1/143318
本論文考慮了線性代數中的四個獨立主題:決定性的點過程、譜圖理論中的極值問題、力導向的布局和特征值算法。對于行列式點過程(DPPs),我們分別考慮了對稱的和有符號的DPPs類,并在這兩種情況下將學習DPP的參數問題與相關的矩陣恢復問題聯系起來。接下來,我們考慮譜圖理論中關于圖的擴散的兩個猜想,并解決這兩個猜想。對于圖的力導向布局,我們將Tutte跳躍嵌入的邊界布局與橢圓PDE理論中的跟蹤定理聯系起來,我們對流行的Kamada-Kawai目標進行了嚴格的理論分析,證明了近似的硬度和關于最佳布局的結構結果,并為低直徑圖提供了多項式時間隨機近似方案。最后,我們考慮了計算對稱矩陣極值特征值的Lanczos方法,并為該算法提出了新的誤差估計。
我們探索機器學習(ML)和因果推理之間的關系。通過相互借鑒,我們專注于改進每一個方面。機器學習已經成功地應用于許多問題,但由于缺乏強有力的理論保證,導致了許多意想不到的失敗。當應用于不同的分布時,在訓練分布上表現良好的模型往往會崩潰;微小的擾動可以“欺騙”訓練好的模型,并極大地改變它的預測;訓練算法中的任意選擇會導致截然不同的模型;等等。另一方面,雖然因果推理方法的發展已經取得了巨大的進步,有很強的理論保證,但現有的方法通常不能應用于實踐,因為它們假設有大量的數據。研究ML和因果推理的交集,我們直接解決了ML中缺乏魯棒性的問題,并提高了因果推理技術的統計效率。
本論文工作背后的動機是改進用于指導決策的預測模型和因果模型的構建方法。自始至終,我們主要關注醫療健康上下文中的決策制定。在ML的因果關系方面,我們使用ML工具和分析技術來開發統計上有效的因果模型,可以指導臨床醫生在兩種治療方法之間選擇。在ML的因果關系方面,我們研究如何使用產生觀測數據的因果機制知識來有效地正則化預測模型,而不引入偏差。在臨床環境中,我們展示了如何使用因果知識來建立穩健和準確的模型來預測傳染性感染的傳播。在非臨床環境中,我們研究了如何使用因果知識來訓練在圖像分類中對分布轉移具有魯棒性的模型。
深度學習(Deep learning, DL)已經成為現代人工智能中最成功和被廣泛采用的方法之一。與這些成功相伴而來的是越來越復雜和昂貴的架構設計,其基礎是一個核心概念:層。本文對層次的這一基本作用提出了挑戰,并深入介紹了一種新的、無層次的深度學習范式,將輸出計算為動態系統的不動點:深度均衡(DEQ)模型。
首先,我們介紹深度均衡模型的一般公式。我們討論了這些模型如何表達“無限級”的神經網絡,向前和向后解耦傳遞,但與傳統層的成本和設計復雜性-即使在一些最具競爭力的設置(例如,語言建模,語義分割等)。
其次,我們進一步討論了這種均衡方式帶來的挑戰和機遇。我們表明,DEQ公式揭示了深度學習的許多新特性,這些特性長期以來被傳統的層-堆疊方案所掩蓋。利用它們,我們可以訓練和部署這些新的輕量級均衡算法,大大補充了深度學習的現有發展,并使我們能夠在最先進的水平上改善多個現有結果(例如,光流估計)。
DEQ方法已經在理論和實證兩方面引領了社區內隱深度學習的新研究領域(例如,NeurIPS 2020教程)。因此,我們通過討論未來的工作如何進一步利用這一平衡視角來構建更可擴展、高效和準確的下一代DL算法,包括科學計算,這通常是復雜的、高維動力系統的解決方案。
在構建機器學習管道時,一些常見的假設是:(1)訓練數據足夠 "干凈",表現良好,因此很少或沒有離群值,或者數據的分布沒有長尾,(2)測試數據遵循與訓練數據相同的分布,以及(3)數據產生于或接近于一個已知的模型類,如線性模型或神經網絡。
然而,隨著計算機、互聯網和各種基于傳感器的技術更容易獲得,科學和工程的各個分支中出現的現代數據集不再是精心策劃的,往往是以分散的、分布式的方式收集。因此,它們受到異質性、對抗性操作和異常值等復雜因素的困擾。隨著我們進入這個臟的數據時代,上述的機器學習管道的假設越來越站不住腳。
對于機器學習的廣泛采用,我們認為任何模型都必須具備以下三個基本要素:
穩健性。該模型即使在有噪音和損壞的數據下也能被訓練。
可信賴。在訓練結束后,當在現實世界中部署時,該模型在分布的良性變化下不應該崩潰。
有彈性。建模程序應該在模型錯誤指定的情況下工作,也就是說,即使建模假設崩潰,模型也應該找到可能的最佳解決方案。
在這篇論文中,我們的目標是修改最先進的ML技術并設計新的算法,使其即使在沒有上述假設的情況下也能工作,并且是穩健、可信和有彈性的。我們的貢獻如下。
在第二章中,我們提供了一類新的統計最優估計器,這些估計器對各種環境是穩健的,如任意污染和重尾數據等。
在第三章中,我們用一類新的計算效率高的穩健風險最小化估計器來補充我們的統計最優估計器。這些結果為一般的統計模型,如線性回歸、邏輯回歸等,提供了一些最早的可計算的、可證明的穩健估計器。
在第四章中,我們研究了在基礎分布中的一些樣本可能被任意破壞的情況下學習Ising模型的問題。
最后,在第五章,我們討論了我們的結果對現代機器學習的影響。
深度神經網絡在計算機視覺、機器學習和人工智能等許多領域都取得了顯著的經驗成功。隨著經驗上的成功,深度學習在理論上已被證明在表達能力方面具有吸引力。即具有一個隱層的神經網絡可以近似任意連續函數,而具有更深層次的神經網絡可以近似具有較少參數的特定類函數。表達理論指出,在一定規模的神經網絡中,存在近似目標函數的最優參數向量。然而,在神經網絡優化過程中,表達理論并不能保證能夠有效地找到這樣的最優向量。優化是深度學習的關鍵步驟之一,因為對數據的學習是通過優化來實現的,即對深度神經網絡的參數進行優化,使網絡與數據保持一致的過程。這個過程通常需要非凸優化,這對于一般的高維問題來說是不可擴展的。事實上,一般來說,神經網絡的優化是不可擴展的,除非對其架構做額外的假設。
本文通過研究可擴展性中的一些基本瓶頸,如次最優局部極小值和鞍點,研究了各種深度神經網絡體系結構的非凸優化問題。特別地,對于深度神經網絡,我們給出了局部極小值和臨界點的各種保證,以及梯度下降找到的點。證明了在深度神經網絡非凸優化中,對實際度進行適度的過參數化可以保證梯度下降找到全局最小值。此外,即使沒有過度參數化,我們表明,無論是理論還是經驗,增加參數的數量,改善臨界點和局部極小值的值向全局最小值。我們還證明了殘差神經網絡局部極小值的理論保證。此外,本文提出了一個統一的理論來分析這些特定架構之外的各種深度神經網絡的臨界點和局部極小值。這些結果表明,盡管在理論的最壞情況和最壞的架構中存在可伸縮性問題,但我們可以避免這個問題,并在實踐中對各種有用架構的大型問題進行良好的可擴展性。
機器學習是一種變革性的計算工具,它正在革新許多技術和科學應用。然而,最近在人工智能和機器學習方面的成功,以及隨之而來的模型的廣泛部署,已經改變了經典的機器學習管道。首先,可用數據的絕對規模——在數量和維度上——已經爆炸。此外,現代機器學習架構具有指數級的設計選擇和超參數,但它們都是使用通用的隨機梯度方法進行優化的。這突出了自適應梯度方法的需要,該方法在沒有事先知道實例的情況下充分執行。接著并期望它們即使在不分布的輸入中也能提供良好的預測——這強調了對可靠模型的需要。最后,隨著我們收集越來越多的用戶數據,我們希望在向公眾發布這些模型時,基于這些數據訓練的模型不會損害訓練集中存在的個人的隱私。在這篇論文中,我們證明了解決這些新出現的問題需要優化方面的基本進步。更具體地說,我們首先提出了理解自適應梯度算法的最優性的新的理論結果,并展示了在基于梯度的采樣器的背景下自適應方法的實際用例。然后,我們提出了可擴展的最小最大優化方法,以有效地解決魯棒目標。最后,我們開發了私有優化方法,在更嚴格的隱私要求下最優地學習,以及自適應方法,在簡單的實例上增加“適當數量的噪聲”并顯著降低隱私的代價。
強化學習(RL)智能體需要探索他們的環境,以便通過試錯學習最優策略。然而,當獎勵信號稀疏,或當安全是一個關鍵問題和某些錯誤是不可接受的時候,探索是具有挑戰性的。在本論文中,我們通過修改智能體解決的潛在優化問題,激勵它們以更安全或更有效的方式探索,來解決深度強化學習設置中的這些挑戰。
在這篇論文的第一部分,我們提出了內在動機的方法,在獎勵稀少或缺乏的問題上取得進展。我們的第一種方法使用內在獎勵來激勵智能體訪問在學習動力學模型下被認為是令人驚訝的狀態,并且我們證明了這種技術比單純探索更好。我們的第二種方法使用基于變分推理的目標,賦予個體不同的多種技能,而不使用特定任務的獎勵。我們證明了這種方法,我們稱為變分選擇發現,可以用來學習運動行為的模擬機器人環境。
在論文的第二部分,我們重點研究了安全勘探中存在的問題。在廣泛的安全強化學習研究的基礎上,我們提出將約束的RL標準化為安全探索的主要形式; 然后,我們繼續開發約束RL的算法和基準。我們的材料展示按時間順序講述了一個故事:我們首先介紹約束策略優化(Constrained Policy Optimization, CPO),這是約束深度RL的第一個算法,在每次迭代時都保證接近約束的滿足。接下來,我們開發了安全健身基準,它讓我們找到CPO的極限,并激勵我們向不同的方向前進。最后,我們發展了PID拉格朗日方法,其中我們發現對拉格朗日原-對偶梯度基線方法進行小的修改,可以顯著改善求解Safety Gym中約束RL任務的穩定性和魯棒性。
//www2.eecs.berkeley.edu/Pubs/TechRpts/2021/EECS-2021-34.html