亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

深度學習模型的預測容易受到數據擾動、對抗性攻擊和分布外輸入的影響。為了構建可信的人工智能系統,準確量化預測的不確定性至關重要。雖然目前的工作側重于提高不確定性量化的準確性和效率,但有必要確定不確定性的來源,并采取行動減輕其對預測的影響。因此,本文提出開發可解釋和可操作的貝葉斯深度學習方法,不僅可以進行準確的不確定性量化,還可以解釋不確定性,識別其來源,并提出策略來減輕不確定性的影響。提出了一種基于梯度的不確定性歸因方法,以識別導致預測不確定性的輸入中問題最嚴重的區域。與現有方法相比,UABackprop具有具有競爭力的精度、寬松的假設和高效的性能。提出了一種不確定性緩解策略,利用歸因結果作為注意力,進一步提高模型性能。通過定性和定量的實驗驗證了所提方法的有效性。

付費5元查看完整內容

相關內容

CVPR 2023大會將于 6 月 18 日至 22 日在溫哥華會議中心舉行。CVPR是IEEE Conference on Computer Vision and Pattern Recognition的縮寫,即IEEE國際計算機視覺與模式識別會議。該會議是由IEEE舉辦的計算機視覺和模式識別領域的頂級會議,會議的主要內容是計算機視覺與模式識別技術。 CVPR 2023 共收到 9155 份提交,比去年增加了 12%,創下新紀錄,今年接收了 2360 篇論文,接收率為 25.78%。作為對比,去年有 8100 多篇有效投稿,大會接收了 2067 篇,接收率為 25%。

許多目前自動化的順序決策問題,例如制造業或推薦系統中的問題,都是在幾乎沒有不確定性或零災難風險的環境中運行的。隨著公司和研究人員試圖在較少約束的環境中部署自主系統,賦予序列決策算法對不確定性和風險進行推理的能力變得越來越重要。在本文中,我們將討論序列決策的規劃和強化學習(RL)方法。在規劃設置中,假設提供了一個環境模型,并在該模型中優化策略。強化學習依賴于廣泛的隨機探索,因此通常需要一個模擬器來進行訓練。在現實世界的許多領域,不可能構建一個完全準確的模型或模擬器。因此,由于對環境的不完全了解,任何策略的執行都不可避免地具有不確定性。此外,在隨機領域中,由于環境固有的隨機性,任何給定運行的結果也是不確定的。這兩種不確定性的來源通常分別被歸類為認知的不確定性和偶然的不確定性。本文的首要目標是幫助開發算法,以減輕序列決策問題中的兩種不確定性來源

本文為這一目標做出了一些貢獻,重點是基于模型的算法。本文從考慮馬爾可夫決策過程(MDP)完全已知的最簡單情況開始,提出了一種優化風險規避目標的方法,同時將優化期望值作為次要目標。對于本文的其余部分,我們不再假設MDP是完全指定的。考慮MDP上不確定性的幾種不同表示,包括a)候選MDP的不確定性集合,b) MDP的先驗分布,以及c)與MDP交互的固定數據集。在設置a)中,提出了一種新的方法來近似最小化最大遺憾目標,并在所有候選MDP中找到一個低次優的單一策略。在b)中,我們建議在貝葉斯自適應MDP中優化風險規避,以在單一框架下避免認知和偶然不確定性帶來的風險。在c)中,離線強化學習設置,本文提出兩種算法來克服由于只能訪問固定數據集而產生的不確定性。第一種方法提出了一種可擴展的算法來解決離線強化學習的魯棒MDP公式,第二種方法基于風險敏感優化。在最后一章中,我們考慮一種從演示中學習的交互式表述。在這個問題上,有必要對當前政策執行的不確定性進行推理,有選擇地選擇何時要求進行示威。實驗證明,所提出的算法可以在許多不同的領域中產生風險敏感或魯棒的行為。

付費5元查看完整內容

眾所周知,神經網絡在直接使用輸出標簽分布生成不確定性度量時存在過度自信的問題。現有方法主要通過重新訓練整個模型,賦予其不確定性量化能力,使學習到的模型在精度和不確定性預測方面同時達到預期的性能。然而,從頭開始訓練模型的計算成本很高,在許多情況下可能是不可行的。本文考慮一個更實際的事后不確定性學習設置,給出一個訓練良好的基礎模型,并專注于訓練第二階段的不確定性量化任務。本文提出一種新的貝葉斯元模型,以增強預訓練模型的不確定性量化能力,有效且計算效率高。所提出的方法不需要額外的訓練數據,足夠靈活,可以量化不同的不確定性,并容易適應不同的應用設置,包括域外數據檢測、錯誤分類檢測和可信遷移學習。在多個代表性的圖像分類基準上,證明了所提出的元模型方法的靈活性和在這些應用上的優越經驗性能。

//www.zhuanzhi.ai/paper/ce666840fd9361b6f02ab0f425f731c6

付費5元查看完整內容

因果發現和因果推理通常被視為獨立和連續的任務:首先推斷因果圖,然后使用它來估計干預的因果效果。然而,這種兩階段的方法是不經濟的,特別是就主動收集的介入數據而言,因為感興趣的因果查詢可能不需要完全指定的因果模型。從貝葉斯的角度來看,這也是不自然的,因為一個因果查詢(例如,因果圖或某些因果效果)可以被視為一個潛在的數量服從后驗推理——其他沒有直接興趣的未觀察到的數量(例如,完整的因果模型)應該在這個過程中被邊緣化,并導致我們的認知不確定性。在這項工作中,我們提出了主動貝葉斯因果推理(ABCI),一個集成因果發現和推理的全貝葉斯主動學習框架,它聯合推導因果模型和興趣查詢的后驗。在我們的ABCI方法中,我們關注一類因果充分的非線性加性噪聲模型,我們使用高斯過程建模。我們依次設計關于目標因果查詢信息量最大的實驗,收集相應的介入數據,并更新我們選擇下一個實驗的信念。通過模擬,我們證明了我們的方法比一些只關注學習完整因果圖的基線更有效。這允許我們從更少的樣本中準確地學習下游因果查詢,同時為感興趣的數量提供良好校準的不確定性估計。

//www.zhuanzhi.ai/paper/5a0f7d37a0053ae4b0c45f1e2d38f0f4

付費5元查看完整內容

本文提出了計算概率神經網絡局部魯棒性的方法,特別是由貝葉斯推理得到的魯棒性。從理論上講,將貝葉斯推理應用到神經網絡參數的學習中,有望解決頻繁主義學習范式下出現的許多實際困擾問題。特別是,貝葉斯學習允許有原則的架構比較和選擇,先驗知識的編碼,以及預測不確定性的校準。最近的研究表明,貝葉斯學習可以導致更多的對抗魯棒預測。雖然從理論上講是這樣的,并且在具體實例中已經證明了這一點,但提高魯棒性的軼事證據并不能為那些希望在安全關鍵環境中部署貝葉斯深度學習的人提供足夠的保證。雖然有方法可以保證確定性神經網絡的魯棒性,但貝葉斯神經網絡權重的概率性質使這些方法不可操作。本文研究了貝葉斯神經網絡的魯棒性概念,允許同時考慮模型的隨機性和模型決策的魯棒性保證。本文提供了一種方法,可以為給定的貝葉斯神經網絡計算這些數量,這些方法要么對估計的精度有先驗的統計保證,要么有可靠的概率上下界。最后,我們將魯棒性作為神經網絡參數貝葉斯推斷的主要要求,并演示了如何修改似然,以推斷出具有良好魯棒性的后驗分布。對似然的修正使我們的方法對貝葉斯神經網絡的近似推理技術是透明的。

我們使用貝葉斯神經網絡來評估我們提出的方法的實用性,這些神經網絡訓練了幾個真實的數據集,包括空中碰撞避免和交通標志識別。此外,我們評估了使用五種不同近似推理方法近似推斷的貝葉斯后驗分布的魯棒性。我們發現,我們的方法為貝葉斯神經網絡提供了第一個可證明的魯棒性保證,從而使它們能夠部署在安全關鍵場景中。此外,我們提出的神經網絡參數的魯棒貝葉斯推理方法使我們能夠推斷出后驗分布,這大大提高了可證明的魯棒性,即使是在全色圖像上。概述經典計算機科學關注的是如何創建解決給定問題的程序。相應地,經典程序驗證是確保(通常通過形式證明)給定程序在每個實例[6]中正確解決給定問題的任務。近年來,計算機科學家們已經將他們想要解決的問題的類別擴大到那些過于復雜或定義欠佳而無法用經典編程范式處理的任務。在程序不能再由人類設計的地方,它們可以通過示例[57]學習。隨著學習到的解決方案變得比手工編碼的解決方案好得多,它們所應用的領域也變得更加復雜。學習具有最大潛在影響的領域也具有最大的危害風險,這并不奇怪[1,10]。針對這類任務(包括醫療診斷和自動駕駛汽車)的學習解決方案,在部署和獲得公眾信任之前,必須保證其安全性。不幸的是,為這些任務編寫經典程序的障礙也阻礙了它們的正式驗證[79]。此外,檢驗習得解的基本穩定性的初步嘗試揭示了它們顯著的脆弱性[136]。這種脆弱性表現為過度自信、不正確的預測,幾乎對學習算法的每個輸入都可能產生這種預測。

因此,如果我們想要利用機器學習算法的光明未來,我們必須確保它們在部署之前是安全的在這篇論文中,我們將關注到目前為止最流行和最強大的學習算法:深度神經網絡神經網絡是功能強大的函數逼近器,它有望在廣泛的任務中對先進性能的進步做出持續和重要的貢獻。神經網絡已經在諸如醫療診斷和病理以及控制和規劃等安全關鍵領域取得了顯著的強大性能。然而,在這些領域采用神經網絡的主要障礙是它們的預測缺乏可解釋性和可靠性[1]。我們將使用兩個主要漏洞來激發貝葉斯神經網絡(BNNs)的魯棒性研究,BNNs是由貝葉斯規則推斷的參數分布的神經網絡。第一個潛在的漏洞是確定性神經網絡(DNNs)缺乏校準的不確定性,即知道自己不知道什么[81]。當確定性神經網絡用于對統計上偏離訓練數據的數據點進行推斷時,這是一個特別的挑戰。在這種情況下,DNN經常會做出高度自信、不正確的預測,如果依賴這些預測,可能會導致糟糕的行為[104]。第二個弱點是對抗性的例子[136]。一個對抗性的例子是一個輸入,它被精心設計成與自然發生的輸入無法區分,但這會導致神經網絡在輸出中做出錯誤的分類或不安全的更改。在醫學診斷中,這可能是由于病理幻燈片色調的輕微變化而預測患者患有癌癥,或者在自主導航中,這可能是基于照明條件的輕微變化而預測轉向角度的較大變化[105]。對抗攻擊已被證明不僅在圖像分類[58]中存在安全隱患,在音頻識別[163]、惡意軟件識別[126]和自然語言處理[41]中也存在安全隱患。這些對安全性和安全性關鍵型應用程序構成了巨大的安全風險。當然,證明對抗實例的安全性是在安全關鍵環境下部署任何神經網絡的先決條件。

在過去幾年里,證明神經網絡預測的安全性一直是一個重要而活躍的研究領域,并且在有效證明對抗例子不存在方面取得了巨大進展[79,22,152]。雖然這滿足了我們的一個愿望(缺乏對抗性的例子),但確定性神經網絡在校準不確定性方面仍然提供很少的東西。特別是,給定一個確定性神經網絡和一個我們想要分類的輸入,通常的情況是,如果一個對抗的例子存在,那么它被錯誤地分類,置信度非常高[58]。這意味著,基于輸出,無法推斷輸入是否可能不正確或損壞。此外,有關于確定性神經網絡的研究表明,對于許多任務來說,對抗實例的存在是不可避免的[47,46],進一步說,魯棒確定性學習是不可能的[59]。雖然合理的局部驗證(證明不存在對抗性例子)對于向用戶保證在特定情況下的正確性能是必要的,但貝葉斯學習范式提供了一種系統的方法,可以在更一般的水平上減輕這些不可能結果的擔憂。通過引入校準的不確定性,貝葉斯神經網絡在理論和經驗上都被證明對對抗性例子具有更強的魯棒性,并且可以潛在地削弱或擊敗確定性網絡的不可能結果[53,23,7]。因此,在需要安全性和魯棒性證明的安全關鍵場景中,貝葉斯神經網絡似乎是一種自然和可行的部署方案。

盡管貝葉斯神經網絡有許多吸引人的特性,但無法用確定性神經網絡開發的技術直接分析貝葉斯神經網絡[168]。貝葉斯網絡與確定性網絡的主要區別在于前者的參數值具有后驗分布。為了驗證這種模型的魯棒性,必須找到一種方法來執行確定性神經網絡可用的正確性分析,同時以合理的方式考慮到范圍或可能的參數值。這樣做是在安全關鍵場景中安全部署貝葉斯神經網絡的必要前提。在這篇論文中,我們開發了一些工具,允許我們在貝葉斯環境下利用確定性神經網絡的魯棒性量化方面的進展。特別地,我們研究了貝葉斯神經網絡魯棒性的兩個概念,這允許從業者在給定貝葉斯神經網絡部署之前量化其最壞情況的行為。貝葉斯神經網絡魯棒性的第一個概念是概率魯棒性(在第4章中定義)。這允許從業者理解模型固有的隨機性及其對抗魯棒性之間的相互作用,也可以被視為不確定性的最壞情況度量。魯棒性的第二個概念是貝葉斯決策魯棒性。貝葉斯神經網絡除了在其權重上有一個分布之外,還與確定性神經網絡不同,因為我們必須對其預測分布和錯誤決策的風險或損失進行推理,以便做出預測。決策魯棒性考慮了考慮中的貝葉斯模型的決策過程,并允許我們證明即使在對手存在的情況下,也會發布正確的決策。這些定義允許我們量化貝葉斯神經網絡的概率正確性。

付費5元查看完整內容

從不同的數據視圖中學習,探索它們之間潛在的互補信息,可以使表示具有更強的表達能力。然而,高維特征往往包含噪音,而且,數據的質量通常因不同的樣本(甚至不同的視角)而不同,即,一個視圖可能對一個樣本提供信息,但對另一個樣本卻不是這樣。因此,在無監督的情況下,整合多視角有噪聲的數據是非常具有挑戰性的。傳統的多視角方法要么簡單地將每個視角同等重要,要么將不同視圖的權重調優為固定值,不足以捕獲多視角數據中的動態噪聲。在這項工作中,我們設計了一種新的無監督的多視角學習方法,稱為動態不確定性感知網絡(DUA-Nets)。在生成角度估計數據不確定性的指導下,集成了來自多個視圖的固有信息,以獲得無噪聲表示。在不確定性的幫助下,DUA-Nets根據數據質量對單個樣本的每個視圖進行權衡,以充分利用高質量的樣本(或視圖),同時減輕噪聲樣本(或視圖)的影響。我們的模型在大量的實驗中取得了優異的性能,并顯示了對噪聲數據的魯棒性。

//arxiv.org/abs/2201.05776

付費5元查看完整內容

貝葉斯范式有潛力解決深度神經網絡的核心問題,如校準差和數據效率低。唉,將貝葉斯推理擴展到大權重空間通常需要限制性的近似。在這項工作中,我們證明,為了獲得準確的預測后驗,對模型權重的一個小子集進行推理是足夠的。其他權重保留為點估計值。這個子網絡推理框架使我們能夠在這些子集上使用表達性的,否則難以處理的后驗近似。特別地,我們將子網絡線性化拉普拉斯作為一種簡單的、可擴展的貝葉斯深度學習方法來實現:我們首先獲得所有權重的MAP估計,然后使用線性化拉普拉斯近似來推斷子網絡上的全協方差高斯后程。我們提出了一種子網絡選擇策略,旨在最大限度地保持模型的預測不確定性。

付費5元查看完整內容

深度神經網絡對分類任務的預測準確度有顯著的貢獻。然而,他們傾向于在現實世界中做出過度自信的預測,其中存在領域轉移和分布外(OOD)的例子。由于計算機視覺提供了對不確定性質量的視覺驗證,目前對不確定性估計的研究主要集中在計算機視覺上。然而,在自然語言過程領域卻鮮有研究。與貝葉斯方法通過權重不確定性間接推斷不確定性不同,當前基于證據不確定性的方法通過主觀意見明確地建模類別概率的不確定性。他們進一步考慮了不同根源的數據的固有不確定性,即vacuity(即由于缺乏證據而產生的不確定性)和不協調(即由于相互沖突的證據而產生的不確定性)。本文首次將證據不確定性運用于文本分類任務中的OOD檢測。我們提出了一種既采用輔助離群樣本,又采用偽離流形樣本的廉價框架來訓練具有特定類別先驗知識的模型,該模型對OOD樣本具有較高的空度。大量的經驗實驗表明,我們基于證據不確定性的模型在OOD實例檢測方面優于其他同類模型。我們的方法可以很容易地部署到傳統的循環神經網絡和微調預訓練的transformers。

//www.zhuanzhi.ai/paper/f1ead8805294e050cc18d08d3f221296

付費5元查看完整內容

由于神經網絡的日益普及,對神經網絡預測的信心變得越來越重要。然而,基本的神經網絡不會給出確定性估計,也不會受到信心過度或不足的影響。許多研究人員一直致力于理解和量化神經網絡預測中的不確定性。因此,不同類型和來源的不確定性已被識別,并提出了各種方法來測量和量化神經網絡中的不確定性。本工作對神經網絡中的不確定性估計進行了全面的概述,綜述了該領域的最新進展,突出了當前的挑戰,并確定了潛在的研究機會。它旨在給任何對神經網絡中的不確定性估計感興趣的人一個廣泛的概述和介紹,而不預設在這一領域有先驗知識。對不確定性的主要來源進行了全面的介紹,并將它們分為可約模型不確定性和不可約數據不確定性。本文介紹了基于確定性神經網絡、貝葉斯神經網絡、神經網絡集成和測試時間數據增強等方法對這些不確定性的建模,并討論了這些領域的不同分支和最新進展。對于實際應用,我們討論不確定性的不同措施,校準神經網絡的方法,并給出現有基線和實現的概述。來自不同領域廣泛挑戰的不同例子,提供了實際應用中有關不確定性的需求和挑戰的概念。此外,討論了當前用于任務和安全關鍵的現實世界應用的方法的實際限制,并展望了未來的步驟,以更廣泛地使用這些方法。

//www.zhuanzhi.ai/paper/9a9009dae03438c7a71e0bc1b54de0fa

付費5元查看完整內容

近年來,神經網絡已成為分析復雜和抽象數據模型的有力工具。然而,它們的引入本質上增加了我們的不確定性,即分析的哪些特征是與模型相關的,哪些是由神經網絡造成的。這意味著,神經網絡的預測存在偏差,無法與數據的創建和觀察的真實本質區分開來。為了嘗試解決這些問題,我們討論了貝葉斯神經網絡:可以描述由網絡引起的不確定性的神經網絡。特別地,我們提出了貝葉斯統計框架,它允許我們根據觀察某些數據的根深蒂固的隨機性和我們缺乏關于如何創建和觀察數據的知識的不確定性來對不確定性進行分類。在介紹這些技術時,我們展示了如何從原理上獲得神經網絡預測中的誤差,并提供了描述這些誤差的兩種常用方法。我們還將描述這兩種方法在實際應用時如何存在重大缺陷,并強調在使用神經網絡時需要其他統計技術來真正進行推理。

付費5元查看完整內容
北京阿比特科技有限公司