反事實的解釋提供了從機器學習模型中獲得預期結果的方法。然而,這樣的解釋對于基礎模型中的某些真實世界的變化(例如,重新訓練模型,改變超參數,等等)并不是魯棒的,在幾個應用中質疑它們的可靠性,例如,信貸。在這項工作中,我們提出了一種新的策略——我們稱之為RobX——來為基于樹的集成生成魯棒的反事實,例如XGBoost。基于樹的集成在魯棒的反事實生成中帶來了額外的挑戰,例如,它們具有非光滑和不可微的目標函數,并且在非常相似的數據上進行再訓練時,它們可以在參數空間中發生很大的變化。我們首先引入了一種新的度量——我們稱之為反事實穩定性——它試圖量化反事實對再訓練下的模型變化的穩健性,并帶來理想的理論屬性。我們提出的策略RobX適用于任何反事實生成方法(基礎方法),并通過使用我們的度量反事實穩定性迭代改進基礎方法生成的反事實來搜索魯棒的反事實。我們在基準數據集上比較了RobX與流行的反事實生成方法(基于樹的集成)的性能。結果表明,我們的策略生成的反事實比現有的最先進的方法更魯棒(在實際模型更改后,其有效性接近100%),而且也更現實(就局部異常因素而言)。
最近的工作強調了因果關系在設計公平決策算法中的作用。然而,目前還不清楚現有的公平的因果概念是如何相互聯系的,或者使用這些定義作為設計原則的后果是什么。在這里,我們首先將算法公平的流行因果定義集合并分類為兩個大類:(1)那些約束決策對反事實差異的影響的因果定義;(2)限制受法律保護的特征(如種族和性別)對決策的影響。然后,我們分析和經驗地表明,在測度理論意義上,兩種定義家族幾乎總是導致強帕累托支配的決策政策,這意味著有一個替代的、無約束的政策,每個利益相關者的偏好來自一個大的、自然的階層。例如,在大學錄取決定的情況下,約束于滿足因果公平定義的政策將不受每一個對學術準備和多樣性具有中立或積極偏好的利益相關者的青睞。事實上,在因果公平的顯著定義下,我們證明了由此產生的政策要求以相同的概率錄取所有學生,無論其學歷或群體成員。我們的結果突出了因果公平的常見數學概念的形式限制和潛在的不利后果。
人們可以利用以前的經驗,并從少量的演示中學習新的任務。與旨在通過更好的算法設計實現快速適應的離線元強化學習相比,我們研究了架構誘導偏差對少樣本學習能力的影響。我們提出了一種基于提示的決策Transformer (Prompt- DT),它利用了Transformer體系結構和提示框架的順序建模能力,實現離線RL中的少樣本適應。我們設計了軌跡提示,其中包含了幾個樣本的演示片段,并編碼了特定任務的信息來指導策略的生成。我們在5個MuJoCo控制基準測試中的實驗表明,Prompt-DT是一個強大的少樣本學習器,無需對看不見的目標任務進行任何額外的微調。Prompt-D比它的變體和強元離線RL基線有很大的優勢,它的軌跡提示只包含幾個時間步。Prompt-D對于提示長度的更改也很穩健,并且可以泛化到分布外(OOD)環境。項目頁面://mxu34.github.io/PromptDT/。
大型基于Transformer的模型在各種自然語言處理和計算機視覺任務中表現出優越的性能。然而,這些模型包含大量的參數,這限制了它們在真實應用中的部署。為了減少模型的大小,研究人員根據權重的重要性評分對這些模型進行修剪。然而,這些分數通常是在訓練過程中的小批量估計,由于小批量抽樣和復雜的訓練動態,這帶來了很大的可變性/不確定性。由于這種不確定性,常用的修剪方法會對一些關鍵權重進行修剪,使得訓練不穩定,不利于泛化。為了解決這一問題,我們提出了PLATON算法,該算法通過重要性估計的置信上限(upper confidence bound, UCB)來捕捉重要性得分的不確定性。特別是對于重要性得分低但不確定性高的權重,PLATON傾向于保留它們并探索它們的容量。我們在自然語言理解、問題回答和圖像分類等多個基于transformer的模型上進行了大量實驗,以驗證PLATON的有效性。結果表明,在不同的稀疏度水平下,PLATON算法均有顯著的改進。 //arxiv.org/abs/2206.12562
我們研究離線元強化學習,這是一種實用的強化學習范式,從離線數據中學習以適應新的任務。離線數據的分布由行為策略和任務共同決定。現有的離線元強化學習算法無法區分這些因素,導致任務表示對行為策略的變化不穩定。為了解決這個問題,我們提出了一個任務表示的對比學習框架,該框架對訓練和測試中的行為策略分布不匹配具有魯棒性。我們設計了一個雙層編碼器結構,使用互信息最大化來形式化任務表示學習,導出了一個對比學習目標,并引入了幾種方法來近似負對的真實分布。在各種離線元強化學習基準上的實驗表明,我們的方法比以前的方法更有優勢,特別是在泛化到非分布行為策略上。代碼可以在//github.com/PKU-AI-Edge/CORRO上找到。
本文提出了一種具有全局最優保證和復雜度分析的策略梯度法,用于模型失配情況下的魯棒強化學習。魯棒強化學習是學習一種魯棒的策略來模擬模擬環境和真實環境之間的不匹配。我們首先建立了魯棒策略梯度,它適用于任何可微參數策略類。我們證明了所提出的穩健策略梯度方法在直接策略參數化下漸近收斂于全局最優。我們進一步開發了一種平滑魯棒的策略梯度方法,并表明要實現-全局最優,復雜度為O(e?3)。然后我們將我們的方法擴展到一般的無模型環境,并設計了具有可微參數策略類和價值函數的魯棒行為-評論方法。我們進一步刻畫了它在表格設置下的漸近收斂性和樣本復雜性。最后,我們提供了仿真結果,以證明我們的方法的魯棒性。
約束強化學習(CRL)最近引起了人們的極大興趣,因為滿足安全約束對現實世界的問題至關重要。然而,現有的CRL方法對折現累積成本的約束通常缺乏嚴格的定義和安全性保證。另一方面,在安全控制研究中,安全被定義為持續滿足一定的狀態約束。這種持久安全只在狀態空間的一個子集上是可能的,這個子集被稱為可行集,對于給定的環境存在一個最優最大可行集。近年來的研究利用基于能量的方法,如控制屏障函數(CBF)、安全指數(SI)等,將安全控制與CRL相結合,利用可行集的先驗保守估計,影響了學習策略的性能。針對這一問題,本文提出了一種可達性CRL (RCRL)方法,利用可達性分析來刻畫最大可行集。我們用建立的自一致性條件刻畫可行集,然后學習一個安全值函數作為CRL的約束。我們還利用多時間尺度隨機逼近理論證明了所提算法收斂于局部最優,其中最大可行集是可以保證的。不同基準上的經驗結果,如safecontrol-gym和Safety-Gym驗證了學習的可行集,在最優標準中的性能,以及RCRL的約束滿足,與最先進的CRL基線進行了比較。
//www.zhuanzhi.ai/paper/7cf75b83c7c786a3f426e412204927f8
貝葉斯范式有潛力解決深度神經網絡的核心問題,如校準差和數據效率低。唉,將貝葉斯推理擴展到大權重空間通常需要限制性的近似。在這項工作中,我們證明,為了獲得準確的預測后驗,對模型權重的一個小子集進行推理是足夠的。其他權重保留為點估計值。這個子網絡推理框架使我們能夠在這些子集上使用表達性的,否則難以處理的后驗近似。特別地,我們將子網絡線性化拉普拉斯作為一種簡單的、可擴展的貝葉斯深度學習方法來實現:我們首先獲得所有權重的MAP估計,然后使用線性化拉普拉斯近似來推斷子網絡上的全協方差高斯后程。我們提出了一種子網絡選擇策略,旨在最大限度地保持模型的預測不確定性。
在統一魯棒半監督變分自編碼器(URSVAE)中,通過同時處理噪聲標簽和異常值,提出了一種新的噪聲魯棒半監督深度生成模型。輸入數據的不確定性通常是將不確定性優先于概率密度分布的參數,以確保變分編碼器對異常值的魯棒性。隨后,我們將噪聲轉換模型自然地集成到我們的模型中,以減輕噪聲標簽的有害影響。此外,為了進一步增強魯棒性,采用魯棒散度測度,推導并優化了新的變分下界來推斷網絡參數。通過證明對所提證據下界的影響函數是有界的,證明了所提模型在存在復合噪聲的情況下在分類方面的巨大潛力。通過對圖像分類任務的評價和與現有方法的比較,實驗結果表明了該框架的優越性。
圖神經網絡(GNN)中缺乏各向異性核極大地限制了其表達能力,導致了一些眾所周知的問題,如過度平滑。為了克服這個限制,我們提出了第一個全局一致的各向異性核GNN,允許根據拓撲導出的方向流定義圖卷積。首先,通過在圖中定義矢量場,我們提出了一種方法應用方向導數和平滑投影節點特定的信息到場。然后,我們提出用拉普拉斯特征向量作為這種向量場。在Weisfeiler-Lehman 1-WL檢驗方面,我們證明了該方法可以在n維網格上泛化CNN,并證明比標準的GNN更有分辨力。我們在不同的標準基準上評估了我們的方法,發現在CIFAR10圖數據集上相對誤差減少了8%,在分子鋅數據集上相對誤差減少了11%到32%,在MolPCBA數據集上相對精度提高了1.6%。這項工作的重要成果是,它使圖網能夠以一種無監督的方式嵌入方向,從而能夠更好地表示不同物理或生物問題中的各向異性特征。
通過人工神經網絡等獲得的預測具有很高的準確性,但人類經常將這些模型視為黑盒子。對于人類來說,關于決策制定的洞察大多是不透明的。在醫療保健或金融等高度敏感領域,對決策的理解至關重要。黑盒子背后的決策要求它對人類來說更加透明、可問責和可理解。這篇綜述論文提供了基本的定義,概述了可解釋監督機器學習(SML)的不同原理和方法。我們進行了最先進的綜述,回顧過去和最近可解釋的SML方法,并根據介紹的定義對它們進行分類。最后,我們通過一個解釋性的案例研究來說明原則,并討論未來的重要方向。
//www.zhuanzhi.ai/paper/d34a1111c1ab9ea312570ae8e011903c
目前人工智能(AI)模型的準確性是顯著的,但準確性并不是最重要的唯一方面。對于高風險的領域,對模型和輸出的詳細理解也很重要。底層的機器學習和深度學習算法構建的復雜模型對人類來說是不透明的。Holzinger等人(2019b)指出,醫學領域是人工智能面臨的最大挑戰之一。對于像醫療這樣的領域,深刻理解人工智能的應用是至關重要的,對可解釋人工智能(XAI)的需求是顯而易見的。
可解釋性在許多領域很重要,但不是在所有領域。我們已經提到了可解釋性很重要的領域,例如衛生保健。在其他領域,比如飛機碰撞避免,算法多年來一直在沒有人工交互的情況下運行,也沒有給出解釋。當存在某種程度的不完整時,需要可解釋性。可以肯定的是,不完整性不能與不確定性混淆。不確定性指的是可以通過數學模型形式化和處理的東西。另一方面,不完全性意味著關于問題的某些東西不能充分編碼到模型中(Doshi-Velez和Kim(2017))。例如,刑事風險評估工具應該是公正的,它也應該符合人類的公平和道德觀念。但倫理學是一個很寬泛的領域,它是主觀的,很難正式化。相比之下,飛機避免碰撞是一個很容易理解的問題,也可以被精確地描述。如果一個系統能夠很好地避免碰撞,就不用再擔心它了。不需要解釋。
本文詳細介紹了可解釋SML的定義,并為該領域中各種方法的分類奠定了基礎。我們區分了各種問題定義,將可解釋監督學習領域分為可解釋模型、代理模型擬合和解釋生成。可解釋模型的定義關注于自然實現的或通過使用設計原則強制實現的整個模型理解。代理模型擬合方法近似基于黑盒的局部或全局可解釋模型。解釋生成過程直接產生一種解釋,區分局部解釋和全局解釋。
綜上所述,本文的貢獻如下: