亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

深度學習模型在從計算機視覺、自然語言處理到圖形挖掘等各種任務中都取得了卓越的預測性能。許多不同領域的企業和組織正在構建基于深度學習的大規模應用程序。然而,人們越來越關注這些模型的公平性、安全性和可信性,這主要是由于其決策過程的不透明性質。最近,人們對可解釋深度學習越來越感興趣,它旨在通過解釋模型的行為、預測或兩者都解釋來減少模型的不透明度,從而在人類和復雜深度學習模型之間建立信任。近年來,針對模型的低可解釋性和不透明性問題,提出了一系列的解釋方法。在本教程中,我們將從數據的角度介紹最近的解釋方法,針對分別處理圖像數據、文本數據和圖形數據的模型。我們將比較它們的優勢和局限性,并提供實際應用。

//sites.google.com/gwmail.gwu.edu/tutorial-proposal-cikm-2022/home?authuser=0

深度學習模型在各種各樣的任務中取得了卓越的預測性能,如計算機視覺(CV)、自然語言處理(NLP)、圖挖掘和強化學習[11,14,20,22,38,41]。許多跨不同領域的企業和組織正在構建基于深度學習模型的大規模應用程序,但人們越來越關注這些模型的公平性、安全性和可信性[12],這主要是由于它們的決策過程的不透明性質。例如,面部識別的深度學習模型在面對皮膚較黑的女性圖像[3]時表現非常糟糕,自動駕駛系統在檢測與行人互動的人群分組時識別精度低得令人無法接受,為STEM工作招聘新員工的NLP系統有很強的偏見,認為男性比女性更合格[16]。由于缺乏令人信服的可解釋性模型,深度學習在高風險預測應用(如醫療保健、刑事司法和金融服務)中廣泛采用還不可能。

盡管其他類型的模型(如線性回歸或基于樹的方法)也存在潛在風險,但通過檢查模型使用的節點的權重或拆分并選擇那些產生最佳性能的節點,可以很容易地理解它們的決策[13,18]。不像其他經典的機器學習模型,檢查模型使用的節點的權重或分割,并選擇一個具有最佳性能的[13]是不可能的,因為它們的過度參數化,實際上可以超過數百萬個參數,以及分層非線性的性質。最近,人們提出了一系列方法來解釋深度學習模型的行為或預測。這些方法可以根據:** (a)這些方法是否假定可以訪問模型的內部結構(模型相關),或者是否可以應用于任何黑盒模型(模型無關)。(b)模型是解釋單個實例(局部解釋)還是解釋模型的整體行為(全局解釋)。(c)可解釋性是通過梯度(基于梯度的)還是通過非梯度的分析(非基于梯度的)實現的。與此同時,現實應用中的數據可能具有不同的格式,如圖像、文本和圖表,顯示出不同的特征。因此,它激發了從數據角度對解釋方法的研究**。

在本教程中,將介紹深度學習解釋的基本定義和術語。我們的教程分為四個部分:(i)圖像分類的解釋; 對文本的解釋;(iii)圖的解釋,(IV)解釋深度強化學習。我們還將詳細介紹目前流行的可解釋模型,并強調它們的優點和局限性。本教程的學習成果如下:(1)了解主流可解釋模型的理論動機、分類和理論表述。(2)比較目前流行的可解釋模型的優點和局限性,并提出推廣這些方法的可能機會。(3)通過編碼、訓練和可視化指導原則,介紹在解釋圖像、NLP、圖表和深度強化學習的預測DNN方面的實際應用。 講者:

付費5元查看完整內容

相關內容

 機器學習的一個分支,它基于試圖使用包含復雜結構或由多重非線性變換構成的多個處理層對數據進行高層抽象的一系列算法。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

教育評估、信貸、就業、醫療保健和刑事司法等高風險應用的決策越來越受到數據驅動,并由機器學習模型支持。機器學習模型也使關鍵的信息物理系統,如自動駕駛汽車和機器人手術成為可能。在過去的幾年里,機器學習領域取得了驚人的進展。然而,即使這些技術越來越多地融入我們的生活,記者、活動家和學者仍發現了一些侵蝕這些系統可信度的特征。例如,據報道,一個支持法官審前拘留決定的機器學習模型對黑人被告存在偏見。同樣,據報道,一個支持在一家大型科技公司進行簡歷篩選的模型也對女性有偏見。研究表明,用于胸部x光片疾病計算機輔助診斷的機器學習模型更重視圖像中的標記,而不是患者的解剖細節。自動駕駛汽車的死亡事故發生在不同尋常的條件下,根本的機器學習算法沒有經過訓練。簡而言之,雖然每天都有機器學習算法在某些任務上取得超人成績的新故事,但這些驚人的結果只是在一般情況下。我們在所有情況下信任這些算法所需要的可靠性、安全性和透明度仍然是難以捉摸的。因此,越來越多的人希望在這些系統中擁有更多的公平性、健壯性、可解釋性和透明度。


付費5元查看完整內容

基于深度學習的圖像理解方法的巨大進展為自主系統提供了新的高級感知功能。然而,現實世界的視覺應用通常需要模型,可以從大量未標記和未策劃的數據中學習,只有少量標記樣本,通常選擇和注釋成本很高。相比之下,典型的監督方法需要大量精心選擇的標記數據,而在實際應用中很少滿足這一條件。自監督學習(SSL)作為一種有前途的研究方向出現,通過使用從數據本身提取的各種監督信號訓練模型,而不需要任何人工生成的標簽,來緩解這一差距。SSL在過去兩年中取得了許多令人興奮的進展,許多新的SSL方法設法達到甚至超過完全監督技術的性能。雖然最流行的SSL方法圍繞著ImageNet等網絡圖像數據集,但也對自動駕駛(AD)的新多樣的自監督形式進行了研究。AD代表了SSL方法的一個獨特沙箱,因為它帶來了社區中最大的公共數據集合,并提供了一些最具挑戰性的計算機視覺任務:目標檢測、深度估計、基于圖像的里程測量和定位等。在這里,規范的SSL通道(即自監督預訓練模型并在下游任務上對其進行調優)被重新訪問和擴展,以學習地面真相注釋難以計算的任務(例如,密集深度),從而為計算機視覺和機器人技術帶來全新的SSL方法。在本教程中,我們將通過AD的基本感知任務的鏡頭,深入介紹自我監督學習的各種范式(舊的和新的)。具體來說,本教程將涵蓋以下主題:(1)從自動駕駛數據中進行自我監督表示學習,(2)深度估計的自監督學習,(3)三維檢測和跟蹤的自監督學習,(4)里程數測量和定位的自監督學習。

目錄內容:

付費5元查看完整內容

機器學習正在成為現代世界運行中不可或缺的一部分。隨著數字技術的進步,數據的收集量呈指數級增長,機器學習的力量也在不斷發展。機器學習模型從這些現在可用的巨大數據庫中學習和改進。模型變得越來越強大,在許多情況下,它們執行任務的效率和效率比人類同行更高。隨著越來越多的組織和企業采用機器學習技術,可解釋性變得越來越重要。

模型被用于自動化任務和發現數據中的新趨勢和模式。這些算法直接從數據中學習,而不是由人類開發人員創建。這意味著系統將在沒有直接人類互動的情況下進化和發展。因此,理解模型為什么會做出決策在最初可能是不清楚的,特別是對于沒有數據科學經驗的涉眾來說。對于深度學習等更復雜的機器學習技術來說,這可能尤其困難。深度學習模型的多層神經結構使得決策的透明度變得更加復雜。

與組織中的任何決策工具一樣,一定程度的問責制是必要的。機器學習模型已經被用于自動化資源密集型的管理工作和做出復雜的業務決策。在決策將受到審查的領域,解釋機器學習模型做出決策的原因的能力至關重要。例如,機器學習在金融領域的應用方式多種多樣。算法可以用來自動化和簡化貸款決策,甚至可以根據市場波動自動化股票訓練。在這兩個例子中,可解釋性都是整個過程的組成部分。

本指南探討了機器學習中的可解釋性主題,包括它是什么,為什么它是重要的,以及實現模型可解釋性的不同技術。

付費5元查看完整內容

【導讀】ACM SIGKDD(國際數據挖掘與知識發現大會,簡稱 KDD)是世界數據挖掘領域的最高級別的學術會議,由 ACM 的數據挖掘及知識發現專委會(SIGKDD)主辦,被中國計算機協會推薦為 A 類會議。自 1995 年以來,KDD 已經連續舉辦了26屆,今年將于2021年8月14日至18日舉辦,今年的會議主辦地在新加坡。

來自 Adelaide大學的研究人員在KDD2021上將給出關于可解釋深度異常檢測的教程,非常值得關注!

異常檢測可以為許多安全關鍵或具有商業意義的現實世界應用提供重要的洞察,如極端氣候事件檢測、機械故障檢測、恐怖主義檢測、欺詐檢測、惡意URL檢測,僅舉幾例。由于這個意義,它已經被廣泛研究了幾十年,有許多淺顯的方法被提出。然而,這些方法面臨著各種數據復雜性的挑戰,如高維性、數據相關性、數據異構性等。近年來,深度學習在解決這些復雜性方面取得了巨大的成功,在廣泛的應用中,但由于異常的一些獨特特征,例如稀罕性、異質性、無界性、以及收集大規模異常數據的高昂成本。因此,針對異常檢測的深度學習技術進行了大量的研究。這些研究表明,在解決淺層異常檢測方法在不同應用環境中失敗的一些主要挑戰方面取得了巨大成功。

在本教程中,我們旨在全面回顧基于深度學習的異常檢測和解釋的進展。首先介紹了12類最先進的深度異常檢測方法的關鍵直覺、目標函數、基本假設和優缺點。異常解釋通常與異常檢測一樣重要,這對于深度檢測模型——“黑箱”模型尤其如此,因此我們也介紹了一些用于為深度檢測模型提供異常解釋的原則方法。與許多其他數據挖掘任務相比,深度異常檢測的探索要少得多。我們旨在通過本教程積極推動其在算法、理論和評估方面的發展。

//sites.google.com/site/gspangsite/kdd21_tutorial

付費5元查看完整內容

機器學習正在醫療健康等各種關鍵應用得到實施。為了能夠信任機器學習模型,并在它出現故障時修復它,能夠解釋它的決策是很重要的。例如,如果一個模型在特定的子群體(性別、種族等)上的表現很差,找出原因并解決它是很重要的。在本文中,我們研究了現有可解釋性方法的不足,并介紹了新的ML可解釋性算法,旨在解決一些不足。數據是訓練機器學習模型的材料。如果不返回最初訓練ML模型的數據,就不可能解釋ML模型的行為。一個基本的挑戰是如何量化每個數據源對模型性能的貢獻。例如,在醫療健康和消費市場,有人提出個人應因其產生的數據而得到補償,但對個人數據的公平估值尚不清楚。在本文中,我們討論了數據公平價值評估的原則框架; 也就是說,給定一個學習算法和一個性能度量來量化結果模型的性能,我們試圖找到單個數據的貢獻。本論文分為3個部分,機器學習的可解釋性和公平性,數據估值,以及用于醫療健康的機器學習——所有這些都被一個共同的目標聯系在一起,即使機器學習的使用對人類的福祉更負責。

//searchworks.stanford.edu/view/13874839

付費5元查看完整內容

人工智能(AI)在決定我們日常體驗方面扮演著越來越重要的角色。人工智能的應用越來越多地不再局限于搜索和推薦系統,如網絡搜索、電影和產品推薦,但人工智能也被用于對個人、企業和社會至關重要的決策和流程。在招聘、借貸、刑事司法、醫療保健和教育等領域,基于web的人工智能解決方案對個人和專業的影響是深遠的。

在人工智能系統的開發和部署中,有許多因素發揮著作用,它們可能會表現出不同的、有時是有害的行為。例如,訓練數據往往來自社會和現實世界,因此它可能反映了社會對少數民族和弱勢群體的偏見和歧視。例如,少數族裔與多數族裔在類似行為上面臨更高的逮捕率,所以在沒有補償的情況下構建一個人工智能系統可能只會加劇這種偏見。

上述問題凸顯出需要監管、最佳實踐和實用工具,以幫助數據科學家和ML開發人員構建安全、隱私保護、透明、可解釋、公平和負責的人工智能系統,以避免可能對個人、企業和社會有害的意外后果和合規挑戰。

在這些原則中,模型的透明度和可解釋性是在需要可靠性和安全性的高風險領域(如醫療保健和自動化運輸)建立信任和采用人工智能系統的先決條件,以及具有重大經濟影響的關鍵工業應用(如預測性維護、自然資源勘探和氣候變化建模)。除了可解釋性,越來越多的利益相關者質疑他們的人工智能系統的公平性,因為有很多例子可以說明不考慮公平性的后果,從人臉識別對白人男性的效果明顯優于有色女性,到歧視特定群體的自動招聘系統。通過整合工具來確保模型的透明度和公平性,可以讓數據科學家、工程師和模型用戶更容易調試模型,并實現確保AI系統的公平性、可靠性和安全性等重要目標。

最后,人工智能產品通常由ML模型驅動,這些模型根據敏感用戶數據進行訓練。給定足夠的復雜性——無論是從參數的數量[例如。或者用戶級個性化——,該模型可以對用戶的私人信息進行編碼。此外,通常需要在ML生命周期的不同階段確保用戶隱私,并保護不同類型的不良行為者和威脅場景,需要隱私保護AI方法。

在本教程中,我們將概述負責任的人工智能,強調人工智能中模型的可解釋性、公平性和隱私性,關鍵的法規/法律,以及提供關于基于web的人工智能/ML系統的理解的技術/工具。然后,我們將關注可解釋性、公平評估/不公平緩解和隱私技術在行業中的應用,其中我們提出了有效使用這些技術的實際挑戰/指導方針,以及從部署幾個web規模的機器學習和數據挖掘應用模型中獲得的經驗教訓。我們將介紹不同公司的案例研究,包括搜索和推薦系統、招聘、銷售、借貸和欺詐檢測等應用領域。我們將強調,與負責任的人工智能相關的主題是社會技術的,也就是說,它們是社會和技術交叉的主題。潛在的挑戰不能由技術人員單獨解決;我們需要與所有關鍵的利益相關者一起工作——比如技術的客戶、受技術影響的人,以及具有道德和相關學科背景的人——并在設計這些系統時考慮他們的輸入。最后,基于我們在行業中的經驗,我們將為數據挖掘/機器學習社區確定開放的問題和研究方向。

//sites.google.com/view/ResponsibleAITutorial

付費5元查看完整內容

圖神經網絡通過聚合和結合鄰居信息來學習節點特征,在許多圖的任務中取得了良好的性能。然而,GNN大多被視為黑盒,缺乏人類可理解的解釋。因此,如果不能解釋GNN模型,就不能完全信任它們并在某些應用程序域中使用它們。在這項工作中,我們提出了一種新的方法,稱為XGNN,在模型級別上解釋GNN。我們的方法可以為GNNs的工作方式提供高層次的見解和一般性的理解。特別地,我們提出通過訓練一個圖生成器來解釋GNN,使生成的圖模式最大化模型的某種預測。我們將圖形生成表述為一個強化學習任務,其中對于每一步,圖形生成器預測如何向當前圖形中添加一條邊。基于訓練后的GNN信息,采用策略梯度方法對圖生成器進行訓練。此外,我們還加入了一些圖規則,以促使生成的圖是有效的。在合成和真實數據集上的實驗結果表明,我們提出的方法有助于理解和驗證訓練過的GNN。此外,我們的實驗結果表明,所生成的圖可以為如何改進訓練的神經網絡提供指導。

概述

圖神經網絡(GNNs)在不同的圖任務(如節點分類[11,37]、圖分類[39,47]和鏈接預測[46])上顯示了其有效性并取得了最新的性能。此外,對不同的圖運算進行了大量的研究,如圖卷積[13,16,19]、圖池化[20,44]、圖注意力[10,36,37]。由于圖數據廣泛存在于不同的真實世界應用程序中,如社交網絡、化學和生物學,GNN變得越來越重要和有用。盡管它們的性能很好,GNNs也有和其他深度學習模型一樣的缺點;也就是說,它們通常被視為黑盒子,缺乏人類理解的解釋。如果不理解和驗證內部工作機制,就不能完全信任GNNs,這就阻礙了它們在涉及公平、隱私和安全的關鍵應用程序中的使用[7,40]。例如,我們可以訓練一個GNN模型來預測藥物的效果,我們將每種藥物視為一個分子圖。如果不探索其工作機理,我們就不知道分子圖中是什么化學基團導致了這些預測。那么我們就無法驗證GNN模型的規則是否與真實世界的化學規則一致,因此我們不能完全信任GNN模型。這就增加了開發GNN解釋技術的需要。

最近,人們提出了幾種解釋技術來解釋圖像和文本數據的深度學習模型。根據所提供的解釋的類型,現有的技術可以歸類為實例級[5,9,29,31,32,43,45,48]或模型級[8,24,25]方法。實例級解釋通過模型確定輸入中的重要特征或該輸入的決策過程來解釋對給定輸入示例的預測。這類常用技術包括基于梯度的方法[31,32,43]、中間特征圖可視化[29,48]和基于遮擋的方法[5,9,45]。與提供依賴于輸入的解釋不同,模型級別的解釋旨在通過研究哪些輸入模式可以導致某種預測來解釋模型的一般行為,而不考慮任何特定的輸入示例。輸入優化[8,24 - 26]是最常用的模型級解釋方法。這兩類解釋方法旨在從不同的角度解釋深層模型。由于解釋的最終目的是驗證和理解深度模型,我們需要手動檢查解釋結果,并得出深度模型是否按我們預期的方式工作的結論。對于示例級方法,我們可能需要探究大量示例的解釋,然后才能相信模型。然而,這需要時間和專家的廣泛努力。對于模型級方法,其解釋更加普遍和高級,因此需要較少的人力監督。然而,與實例級的解釋相比,模型級方法的解釋不那么精確。總的來說,模型級和實例級方法對于解釋和理解深度模型都很重要。

在圖數據上解釋深度學習模型變得越來越重要,但仍缺乏探索。就我們所知,目前還沒有在模型級解釋GNN的研究。現有研究[4,40]僅對圖模型提供了實例層次的解釋。作為對現有工作的徹底背離,我們提出了一種新的解釋技術,稱為XGNN,用于在模型級別上解釋深層圖模型。我們提出研究什么樣的圖模式可以最大化某個預測。具體地說,我們提出訓練一個圖生成器,以便生成的圖模式可以用來解釋深度圖模型。我們把它表示為一個強化學習問題,在每一步,圖生成器預測如何添加一條邊到給定的圖和形成一個新的圖。然后根據已訓練圖模型的反饋,使用策略梯度[35]對生成器進行訓練。我們還加入了一些圖規則,以鼓勵生成的圖是有效的。注意,XGNN框架中的圖生成部分可以推廣到任何合適的圖生成方法,這些方法由手邊的數據集和要解釋的GNN決定。最后,我們在真實數據集和合成數據集上訓練了GNN模型,取得了良好的性能。然后我們使用我們提出的XGNN來解釋這些訓練過的模型。實驗結果表明,我們提出的XGNN可以找到所需的圖模式,并解釋了這些模型。通過生成的圖形模式,我們可以驗證、理解甚至改進經過訓練的GNN模型。

付費5元查看完整內容

隨著機器學習模型越來越多地用于在醫療保健和刑事司法等高風險環境中幫助決策者,確保決策者(最終用戶)正確理解并信任這些模型的功能非常重要。我們將回顧了解模型的可解釋性和explainability的概念,詳細討論不同類型的可說明的模型(例如,基于原型方法,稀疏線性模型、基于規則的技術,廣義可加模型),事后解釋(黑箱解釋,包括反事實解釋和顯著性映射),并探索可解釋性與因果性、調試和公平性之間的聯系。可解釋機器學習這些應用可以極大地受益于模型的可解釋性,包括刑事司法和醫療保健。

付費5元查看完整內容
北京阿比特科技有限公司