亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能在現代社會中扮演著越來越重要的角色,因為曾經由人類做出的決策現在被委托給了自動化系統。這些系統目前負責決定銀行貸款、罪犯監禁和雇傭新員工,不難想象,很快它們將成為社會大多數決策基礎設施的基礎。盡管這項任務的風險很高,但人們仍然缺乏對這類系統的一些基本屬性的正式理解,包括公平性、問責制和透明度等問題。在本教程中,我們將介紹因果公平分析的框架,目的是填補這一空白,即理解、建模,并可能解決決策設置中的公平問題。我們的方法的主要見解將是將觀察到的數據中存在的差異的量化與最初產生差異的潛在的、往往未被觀察到的因果機制聯系起來。我們將研究分解變化的問題,這將導致構建公平的實證措施,將這種變化歸因于產生它們的因果機制。這種將差異歸因于特定因果機制的做法,將使我們能夠提出一個正式而實用的框架,以評估不同處理和影響的法律理論,同時考慮到業務的必要性。最后,通過新開發的框架,我們將得出與以往文獻的重要聯系,在因果推理領域內外。這一努力將在“公平地圖”中達到高潮,這是第一個根據其因果屬性(包括可接受性、可分解性和權力)對公平的多個衡量標準進行銜接和系統分類的工具。我們希望這一套新的原則、措施和工具可以幫助指導AI研究人員和工程師分析和/或開發與社會目標、期望和愿望一致的決策系統。

付費5元查看完整內容

相關內容

根據觀察數據估算反事實結果與許多應用(例如,個性化醫療)相關。然而,最先進的方法建立在簡單的長短期記憶(LSTM)網絡上,因此對復雜的、長期依賴關系的推斷產生了挑戰。在本文中,我們開發了一種新的因果Transformer ,用于隨著時間的推移估計反事實結果。我們的模型是專門設計的,以捕獲復雜的,長期的依賴性,時變混雜。為此,我們將三個Transformer子網絡與時變協變量、以前的處理和以前的結果的單獨輸入組合成一個中間交叉關注的聯合網絡。我們進一步為因果Transformer 開發了一個定制的端到端培訓程序。具體來說,我們提出了一種新的反事實領域混淆損失來解決混淆偏差:其目的是學習對抗性平衡表示,以便它們可以預測下一個結果,但不能預測當前的治療分配。我們基于合成的和真實的數據集評估我們的因果Transformer,在這些數據集中,它實現了優于當前基線的性能。據我們所知,這是第一個提出基于transformer的架構來從縱向數據估計反事實結果的工作。

付費5元查看完整內容

可解釋性是構建可信人工智能系統的必要元素。來自普渡大學等幾位學者在SIGMOD2022《可解釋的人工智能》教程,130+PPT闡述XAI的基礎、應用、機會,非常值得關注!

算法決策系統被成功地應用于各種領域的不同任務。雖然算法決策的潛在好處很多,但信任這些系統的重要性直到最近才引起關注。人們越來越擔心這些系統復雜、不透明、不直觀,因此難以信任。最近,人們對可解釋人工智能(XAI)的興趣重新升溫。XAI旨在通過解釋模型的行為、預測或兩者兼有來減少模型的不透明性,從而使人類能夠仔細檢查并信任模型。近年來,針對模型的可解釋性和透明性問題,出現了一系列的技術進步和解釋方法。在本教程中,我們將介紹這些新穎的解釋方法,描述它們的優勢和局限性,將現有工作與數據庫(DB)社區聯系起來,并列舉在XAI環境下進行數據管理研究的機會。

引言

人工智能(AI)系統越來越多地用于關鍵領域的決策,如醫療保健、刑事司法和金融。然而,這些系統的不透明性和復雜性構成了新的威脅。越來越多的人擔心,這些系統的不透明可能會造成培訓數據[37]中反映的系統性偏見和歧視,從而損害分布在不同社會階層的利益攸關方。這些對透明度的呼吁重新激起了人們對可解釋人工智能(XAI -參見[50]最近的一項調查)的興趣,它旨在為算法決策系統的結果或過程提供人類可以理解的解釋。

XAI方法的發展受到技術、社會和倫理目標的推動[9,14,36,38,44]: (1)通過建立對決策結果的信任,提高社會對基于機器學習(ML)的決策算法的接受程度;(2)為用戶提供可操作的見解,以在未來改變算法的結果;(3)促進識別偏見和歧視等危害來源;(4)通過識別導致不利和意外行為的訓練數據中的錯誤或偏差,提供調試ML算法和模型的能力。政府法規要求企業使用自動化決策系統向最終用戶解釋其決策,進一步加劇了這一問題的緊迫性[1,16]。最近,人們提出了幾種方法來解釋ML模型的行為或預測。這些方法可以大致分為以下幾類:(a)可解釋性是通過設計(內在)還是通過事后系統分析(外在)實現的,(b)方法是否假設訪問系統內部(模型相關)或可以應用于任何黑箱算法系統(模型無關),以及(c)方法生成的解釋是否迎合對單個實例的預測(局部),解釋模型的整體行為(全局)或介于這兩個極端之間。

在本教程中,我們將詳細介紹當代XAI技術,并強調它們的優點和局限性。與現有的XAI教程相比,我們將在數據庫社區的背景下討論XAI的范圍,并概述一組利用XAI進展的數據管理研究的挑戰和機會,并為XAI研究的挑戰做出貢獻。本教程的學習結果如下。

  • (1) 了解XAI技術的概況。
  • (2) XAI技術與數據管理社區現有技術之間的聯系。
  • (3) 暴露之前XAI提案的關鍵漏洞,以及數據管理技術如何在許多情況下提供幫助。
  • (4) 接觸到一些新的機會,利用基于數據來源和因果推理的技術來解釋模型行為和調試AI管道。

涵蓋范圍

根據現有XAI技術[50]生成的結果,可以根據多個維度來解釋模型及其預測。目前有各種各樣的技術可以解決這些可解釋性的不同維度。例如,一些方法提供了代表用于訓練模型的數據的特征的全面總結,一些返回數據點以使模型可解釋,一些用固有的可解釋模型來近似模型,等等。本教程分為五個主題,涵蓋了這些不同維度的代表性技術。每個專題的內容總結如下。

2.1基于特征的解釋

解釋黑盒模型的一種常見方法是將模型輸出的責任歸因于它的輸入。這種方法類似于提供輸入特征的重要性。例如,在線性回歸的情況下,學習線性方程中的特征的系數可以作為特征重要性的指標。為訓練數據中的所有特征分配一個實數的最終目標可以通過多種方式實現。此外,該數字還可以表示該特征影響的程度和方向。我們將在本教程中介紹以下特征屬性方法。

2.2 基于規則的解釋

基于特征屬性的方法為每個特征值分配一個實值重要性分數。相反,基于規則的解釋生成一組規則作為對模型行為的解釋。輸出規則集滿足一個共同屬性,即只要遵守這些規則,模型就會提供一個特定的結果。理想情況下,這些規則應該簡明扼要,并適用于大量數據點。較長的規則(超過5個從句)是不可理解的,而非常具體的規則是不可概括的。錨[54]是一種試圖生成簡短且廣泛適用的規則的方法。它使用一種基于多武裝匪徒的算法來搜索這些規則。Lakkaraju等人使用可解釋的決策集來獲得一組if-then規則,這些規則可以用來解釋黑盒模型[43]。它們的目標函數旨在平衡和優化這些決策集的準確性和可解釋性。

2.3 基于訓練數據的解釋

與特征歸因方法相比,基于訓練數據的方法將ML算法的輸出歸為訓練數據集[10]的特定實例。基于數據的解釋的核心思想是,訓練數據影響模型,從而間接影響模型預測的結果。為了理解模型的預測,基于數據的解釋可以將模型參數和預測追溯到用于訓練模型的訓練數據。這些方法不是根據數據的特征(例如,年齡,性別等),而是根據特定的數據點(例如,列舉20個數據點負責特定的模型輸出)來解釋模型的行為。基于數據的解釋有助于調試ML模型,理解和解釋模型行為和模型預測。在本教程中,我們將介紹以下基于訓練數據的方法。

2.4 對非結構化數據的解釋

深度學習已經非常成功,特別是在圖像分類和涉及圖像和文本的語言翻譯等任務中。盡管現有的XAI方法主要關注結構化數據,但在解釋ML模型預測優于非結構化數據方面已經取得了重大進展。例如,對圖像分類模型的解釋可以在各種名稱下找到,如敏感性地圖、顯著性地圖、像素屬性地圖、基于梯度的屬性方法、特征相關性、特征屬性和特征貢獻[50]。這些解釋通常會根據輸入像素對分類結果的重要性突出并排序。然而,單個像素可能對分類器的結果沒有很大的直接影響,但可以通過貢獻神經網絡從原始像素學習到的抽象特征和概念,間接影響其結果。已有研究表明,這些方法的計算成本很高,而且極易引起誤解、脆弱和不可靠[2,22,52]。類似地,可以將LIME[53]應用于文本數據,以識別解釋文本分類模型結果的特定單詞。計算機視覺中另一種流行的解釋類型是反事實解釋,這種解釋是通過改變圖像的最小區域產生的,從而導致分類結果的改變[72]。在本教程中,我們將關注結構化數據,因為它與DB社區更相關。

[1] 2016. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation). (2016). [2] Julius Adebayo, Justin Gilmer, Michael Muelly, Ian J. Goodfellow, Moritz Hardt, and Been Kim. 2018. Sanity Checks for Saliency Maps. In Advances in NeuralInformation Processing Systems 31: Annual Conference on Neural Information Processing Systems 2018, NeurIPS 2018, December 3-8, 2018, Montréal, Canada, Samy Bengio, Hanna M. Wallach, Hugo Larochelle, Kristen Grauman, Nicolò Cesa-Bianchi, and Roman Garnett (Eds.). 9525–9536. [3] Rakesh Agrawal, Tomasz Imieliński, and Arun Swami. 1993. Mining association rules between sets of items in large databases. In Proceedings of the 1993 ACM SIGMOD international conference on Management of data. 207–216. [4] Rakesh Agrawal, Ramakrishnan Srikant, et al. 1994. Fast algorithms for mining association rules. PVLDB.

付費5元查看完整內容

【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Shirin Sohrabi等學者共同做了關于AI規劃理論與實踐的進展報告,非常值得關注!

人工智能規劃是人工智能的一個長期存在的子領域,處理順序決策,是強化學習的姊妹領域。規劃技術在對話系統、網絡安全、交通物流、IT等各個領域都有成熟的工業應用。雖然基于模型的規劃工具可以解決實際規模的問題,但在實踐中應用人工智能規劃研究面臨著幾個挑戰,阻礙了它的廣泛應用。然而,使用無模型方法的替代方法往往被證明對實際尺寸的問題是不可行的。本教程的目的是為觀眾提供必要的理論背景知識,以及實踐經驗,以允許使用規劃工具解決日常挑戰。在本教程中,我們將概述規劃領域,包括該領域的最新進展。然后,我們將深入研究三個挑戰:(1)建模——如何表示、提取和學習知識;(2)理論和工具——計算問題的形式化定義以及如何解決這些問題;(3)實踐-在端到端應用程序中使用人工智能規劃。我們將有一個實踐環節來舉例說明如何使用規劃工具來解決示例應用。我們的目標是為AAAI的與會者提供在他們的應用中使用人工智能規劃工具的必要手段

付費5元查看完整內容

來自華為的研究人員在KDD2021上將給出關于反事實解釋與XAI的教程,非常值得關注!

深度學習在許多領域都顯示出了強大的性能,但其黑箱特性阻礙了其進一步的應用。作為回應,可解釋人工智能應運而生,旨在解釋深度學習模型的預測和行為。在眾多的解釋方法中,反事實解釋被認為是最好的解釋方法之一,因為它與人類的認知過程相似:通過構建對比情境來進行解釋,人類可以認知地展示差異來解釋其背后的機制。

在本教程中,我們將介紹反事實解釋的認知概念和特點,反事實解釋的計算形式,主流方法,以及在不同解釋設置下的各種適應。此外,我們將展示幾個流行研究領域的反事實解釋的典型用例。最后,根據實踐,我們概述了反事實解釋的潛在應用,如數據增強或對話系統。我們希望本教程能幫助參與者對反事實解釋有一個大致的了解。

//sites.google.com/view/kdd-2021-counterfactual

反事實思維是人類理解世界的基本方式之一,因此,用反事實來解釋機器學習和深度學習模型成為近年來的流行[4]。一個反事實的解釋描述了一種因果情況,其形式為:“如果X沒有發生,Y就不會發生”[20]。Judea pearl 將反事實定義為對“如果發生了什么”問題[15]的概率回答。反事實陳述是尋找特征值的最小變化,以便它可以將預測變成期望的輸出。對于黑箱人工智能模型,反事實解釋通常是通過從數據集中檢索數據樣本或通過擾動原始輸入的特征生成樣本,使這些數據樣本的模型輸出與原始輸出相矛盾來獲得。由于計算和應用以及反事實解釋都與數據挖掘或數據處理密切相關,我們認為反事實解釋符合數據挖掘社區的興趣,因此值得在本教程中介紹。

付費5元查看完整內容

本教程將是關于無監督學習和強化學習的交叉。隨著自然語言處理中基于語言模型的預訓練和計算機視覺中的對比學習的出現,無監督學習(UL)在過去幾年中真正得到了發展。在這些領域中,無監督預訓練的一些主要優勢是在下游有監督學習任務中出現的數據效率。在如何將這些技術應用于強化學習和機器人方面,社區中有很多人感興趣。考慮到問題的連續決策性質,RL和機器人技術比被動地從互聯網上的圖像和文本中學習面臨更大的挑戰,它可能不會那么簡單。本教程將涵蓋如何在強化學習中應用和使用無監督學習的基本模塊,希望人們可以帶回最新的最先進的技術和實踐的知識,以及在這個具有挑戰性和有趣的交叉領域的廣泛的未來可能性和研究方向。

//icml.cc/Conferences/2021/Schedule

付費5元查看完整內容

人類具有不斷從經驗中學習的非凡能力。我們不僅可以把以前學到的知識和技能運用到新的情況下,我們也可以把這些作為以后學習的基礎。人工智能(AI)的宏偉目標之一是構建一個人工的“持續學習”代理,通過自主增量開發越來越復雜的知識和技能,從自身經驗構建對世界的復雜理解(Parisi, 2019年)。然而,盡管有早期的推測和很少的先前工作(Ring, 1998; Thrun, 1998; Carlson, 2010),很少有研究和努力致力于解決這一愿景。當前人工智能系統深受新數據或新環境的影響,這些新數據或新環境與他們所接受的訓練稍有不同(Goodfellow, 2013)。此外,學習過程通常被限制在限定和孤立的任務內的固定數據集,這可能很難導致出現更復雜和自主的智能行為。從本質上講,持續學習和適應能力,雖然經常被認為是每一個智能代理的基本支柱,但大多被排除在主要的人工智能研究重點之外。

在本教程中,我們提出根據機器學習研究和人工智能深度架構(Lomonaco, 2019)的最新進展總結這些想法的應用。從一個動機和一個簡短的歷史開始,我們將最近的持續學習進展與之前在相關主題上的研究努力聯系起來,并總結了主要方法、基準和關鍵結果方面的最新進展。在教程的第二部分,我們計劃涵蓋更多關于低監督信號的持續學習的探索性研究,以及與其他范式的關系,如無監督,半監督和強化學習。我們還將強調神經科學的最新發現對原始持續學習算法設計的影響,以及它們在現實應用中的部署。最后,我們將強調持續學習的概念,作為可持續機器學習的關鍵技術推動者及其社會影響,并概述有趣的研究問題和未來值得解決的方向。

//sites.google.com/view/cltutorial-icml2021

付費5元查看完整內容

人工智能(AI)在決定我們日常體驗方面扮演著越來越重要的角色。人工智能的應用越來越多地不再局限于搜索和推薦系統,如網絡搜索、電影和產品推薦,但人工智能也被用于對個人、企業和社會至關重要的決策和流程。在招聘、借貸、刑事司法、醫療保健和教育等領域,基于web的人工智能解決方案對個人和專業的影響是深遠的。

在人工智能系統的開發和部署中,有許多因素發揮著作用,它們可能會表現出不同的、有時是有害的行為。例如,訓練數據往往來自社會和現實世界,因此它可能反映了社會對少數民族和弱勢群體的偏見和歧視。例如,少數族裔與多數族裔在類似行為上面臨更高的逮捕率,所以在沒有補償的情況下構建一個人工智能系統可能只會加劇這種偏見。

上述問題凸顯出需要監管、最佳實踐和實用工具,以幫助數據科學家和ML開發人員構建安全、隱私保護、透明、可解釋、公平和負責的人工智能系統,以避免可能對個人、企業和社會有害的意外后果和合規挑戰。

在這些原則中,模型的透明度和可解釋性是在需要可靠性和安全性的高風險領域(如醫療保健和自動化運輸)建立信任和采用人工智能系統的先決條件,以及具有重大經濟影響的關鍵工業應用(如預測性維護、自然資源勘探和氣候變化建模)。除了可解釋性,越來越多的利益相關者質疑他們的人工智能系統的公平性,因為有很多例子可以說明不考慮公平性的后果,從人臉識別對白人男性的效果明顯優于有色女性,到歧視特定群體的自動招聘系統。通過整合工具來確保模型的透明度和公平性,可以讓數據科學家、工程師和模型用戶更容易調試模型,并實現確保AI系統的公平性、可靠性和安全性等重要目標。

最后,人工智能產品通常由ML模型驅動,這些模型根據敏感用戶數據進行訓練。給定足夠的復雜性——無論是從參數的數量[例如。或者用戶級個性化——,該模型可以對用戶的私人信息進行編碼。此外,通常需要在ML生命周期的不同階段確保用戶隱私,并保護不同類型的不良行為者和威脅場景,需要隱私保護AI方法。

在本教程中,我們將概述負責任的人工智能,強調人工智能中模型的可解釋性、公平性和隱私性,關鍵的法規/法律,以及提供關于基于web的人工智能/ML系統的理解的技術/工具。然后,我們將關注可解釋性、公平評估/不公平緩解和隱私技術在行業中的應用,其中我們提出了有效使用這些技術的實際挑戰/指導方針,以及從部署幾個web規模的機器學習和數據挖掘應用模型中獲得的經驗教訓。我們將介紹不同公司的案例研究,包括搜索和推薦系統、招聘、銷售、借貸和欺詐檢測等應用領域。我們將強調,與負責任的人工智能相關的主題是社會技術的,也就是說,它們是社會和技術交叉的主題。潛在的挑戰不能由技術人員單獨解決;我們需要與所有關鍵的利益相關者一起工作——比如技術的客戶、受技術影響的人,以及具有道德和相關學科背景的人——并在設計這些系統時考慮他們的輸入。最后,基于我們在行業中的經驗,我們將為數據挖掘/機器學習社區確定開放的問題和研究方向。

//sites.google.com/view/ResponsibleAITutorial

付費5元查看完整內容

不確定性的概念在機器學習中是非常重要的,并且構成了現代機器學習方法論的一個關鍵元素。近年來,由于機器學習與實際應用的相關性越來越大,它的重要性也越來越大,其中許多應用都伴隨著安全要求。在這方面,機器學習學者們發現了新的問題和挑戰,需要新的方法發展。事實上,長期以來,不確定性幾乎被視為標準概率和概率預測的同義詞,而最近的研究已經超越了傳統的方法,也利用了更一般的形式主義和不確定性計算。例如,不確定性的不同來源和類型之間的區別,例如任意不確定性和認知不確定性,在許多機器學習應用中被證明是有用的。講習班將特別注意這方面的最新發展。

綜述論文:

不確定性的概念在機器學習中是非常重要的,并且構成了機器學習方法的一個關鍵元素。按照統計傳統,不確定性長期以來幾乎被視為標準概率和概率預測的同義詞。然而,由于機器學習與實際應用和安全要求等相關問題的相關性穩步上升,機器學習學者最近發現了新的問題和挑戰,而這些問題可能需要新的方法發展。特別地,這包括區分(至少)兩種不同類型的不確定性的重要性,通常被稱為任意的和認知的。在這篇論文中,我們提供了機器學習中的不確定性主題的介紹,以及到目前為止在處理一般不確定性方面的嘗試的概述,并特別將這種區別形式化。

//www.zhuanzhi.ai/paper/8329095368761f81a7849fe5457949ed

付費5元查看完整內容
北京阿比特科技有限公司