亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

創新和競爭正推動分析師和數據科學家轉向越來越復雜的預測建模和機器學習算法。這種復雜性使這些模型準確,但也使它們的預測難以理解。當準確性超過可解釋性時,人類的信任就會受到影響,影響業務采用、監管監督和模型文檔。

銀行、保險和醫療保健尤其需要可解釋的預測模型。在這本電子書中,Patrick Hall和Navdeep Gill來自H2O。Ai全面介紹了機器學習可解釋性的思想,并研究了一套機器學習技術、算法和模型,以幫助數據科學家在保持可解釋性的同時提高預測模型的準確性。 * 了解如何在實踐中應用機器學習和預測建模 * 理解機器學習的可解釋性、公平性、問責性和透明度的社會和商業動機 * 探索線性模型和更精確的機器學習模型之間的差異 * 了解可解釋性的定義,并了解主導可解釋性研究的團體 * 研究用于分類和描述可解釋機器學習方法的分類法 * 學習數據可視化的幾種實用技術,訓練可解釋的機器學習模型,并為復雜模型預測生成解釋 * 探索測試模型可解釋性的自動化方法

付費5元查看完整內容

相關內容

 書籍在狹義上的理解是帶有文字和圖像的紙張的集合。廣義的書則是一切傳播信息的媒體。

本書對深度學習模型可解釋性的最新研究工具進行了全面的策劃、闡述和說明性討論,重點是神經網絡架構。此外,還包括計算機視覺、光學和機器學習相關主題的應用導向型文章中的若干案例研究。

這本書可以作為深度學習中涵蓋最新主題的可解釋性的專題論文,也可以作為研究生的教科書。負責研究、開發和應用的科學家從它的系統闡述中受益。

本書的動機是深度學習架構的黑箱性質與其編碼的知識模型的人類可解釋性之間的巨大差距。人工智能模型的準確性和可理解性對于人工智能和人類智能的共存和協作變得越來越重要。在某些危及生命的應用中,可解釋性對于根本原因分析和人類決策至關重要。本書側重于對深度學習模型可解釋性的最新研究工具進行全面的策劃、闡述和說明性討論,重點是神經網絡架構。其中很大一部分工作補充了現有的深度學習和神經網絡教科書,并以過去十年的工作為基礎,其中重點是網絡中編碼的知識的可視化和可解釋性。這些工作來自計算機視覺、模式識別和深度學習領域的領先會議和期刊。此外,還包括來自不同領域的面向應用文章的幾個案例研究,包括計算機視覺、光學和自然語言處理。在目前與深度學習、機器學習和神經網絡相關的研究生課程中,缺乏處理可解釋性主題的教學材料。這主要是因為機器學習社區之前的重點是精度,而可解釋性的問題是一個新興的話題。然而,隨著書籍[81]、[428]、課堂講稿[532]、新課程以及觀點[520]的出版,它作為越來越相關的主題正在獲得吸引力。然而,這些工作中對通用機器學習的關注意味著,深度學習中的可解釋性問題目前仍然沒有得到足夠的深度解決,深度學習現在在各種機器學習應用中廣泛使用。因此,這本教科書將是致力于這一主題的先驅教科書之一。這可能會導致設立關于這一主題的專門研究生課程,因為人們認為需要這類課程,但缺乏關于這一主題的有組織的材料是一個突出的障礙。

在第一章中,我們介紹了本書的背景和動機,幫助讀者設定對本書的期望并理解材料的范圍。我們還通過總結深度學習的演變提供了一個簡短的歷史。在此過程中,我們也闡明了這種演變如何導致知識抽象化的增加,從而形成了眾所周知的黑箱模型,它編碼了知識但并未解釋知識。我們自然地將這個討論引向可解釋性的問題,確定了其必要性以及所面臨的挑戰。我們也澄清了本書的重點是解決現有深度學習架構中的可解釋性,而將新的天然可解釋的深度學習架構的設計主題委托給最后一章的一個小節(并可能在未來的本書第二卷中)。

在第二章中,我們介紹了深度學習的各種現代主題,包括傳統的神經網絡架構、學習機制以及深度學習的挑戰。本章的目標是介紹背景概念并為后續章節的技術闡述做準備。特別地,我們將會覆蓋卷積神經網絡、自編碼器、對抗神經網絡、圖神經網絡和神經模糊網絡,因為在接下來的章節中將詳細探討這些范式的可解釋性機制。同樣,具體的學習機制將會被解釋,以便在后續章節中識別可解釋性的損失或機會。出于全面性的考慮,我們還將包含一節關于其他類型的深度學習方法,即使在其他章節中并未詳述它們的可解釋性。

在第三章中,我們開始全面處理可解釋性。具體來說,我們在深度學習方法的一般特性的背景下討論可解釋性的概念。我們從討論神經元和特征級別的抽象知識編碼開始,然后討論抽象編碼的可解釋性和可視化。從理解概念、優點和缺點的角度出發,我們討論了諸如激活圖、顯著性、注意力模型等常規技術。然后,我們分析了在優化或學習過程中知識如何傳播,作為深入了解如何解釋使用深度學習模型學習的知識的挑戰和機會。神經網絡通過連續的非線性激活提取特征,這使得知識表示變得困難,同時對噪聲和不完整數據區域敏感。我們使用一個案例研究討論了知識與性能的關系。最后,我們討論了深度編碼與淺層編碼的解釋,這兩者的性能存在競爭。因此,本章涵蓋了一系列普遍適用于任何深度學習架構的可解釋性主題。

第四章專門介紹針對特定單一架構的可解釋性方法。本章選擇的架構有卷積神經網絡、自編碼器網絡、對抗網絡和圖學習技術。我們包括了與這些架構相關的相對較新的主題,例如卷積神經網絡的新概念“卷積追蹤”,自編碼器網絡潛在空間中抽象特征的可解釋性,對抗網絡中判別模型的可解釋性,以及圖神經網絡的圖嵌入解釋性。我們為每種架構給出了至少一個案例研究,包括來自各種應用領域的案例。我們也簡要地參考了注意力網絡,這種網絡在設計中固有地包含了某種可解釋性。

第五章專門討論模糊深度學習。這種方法與以神經網絡為中心的深度學習略有不同,因為模糊邏輯和基于規則的推理是這類網絡設計的核心。對解釋的需求導致了對基于規則的系統的再度關注。這也是一個被獨立研究的主題,很少在深度學習和可解釋性的特定背景下研究。我們通過闡述模糊深度學習的主題和相關的.

付費5元查看完整內容

過去的十年見證了人工智能和機器學習(AI/ML)技術的廣泛采用

然而,由于缺乏對其廣泛實施的監督,導致了有害的結果,而這些結果本可以通過適當的監督避免。在我們認識到AI/ML的真正好處之前,從業者必須了解如何減輕其風險。本書描述了負責任的人工智能,這是一種基于風險管理、網絡安全、數據隱私和應用社會科學的最佳實踐,用于改進AI/ML技術、業務流程和文化能力的整體方法。這是一項雄心勃勃的事業,需要各種各樣的人才、經驗和視角。需要招募數據科學家和非技術監督人員,并授權他們審計和評估高影響力的AI/ML系統。作者Patrick Hall為新一代審計師和評估人員創建了本指南,他們希望讓AI系統更好地為組織、消費者和廣大公眾服務。

  • 學習如何創建一個成功的、有影響力的負責任的人工智能實踐
  • 獲取采用人工智能技術的現有標準、法律和評估指南
  • 看看公司現有的角色是如何演變為包含負責任的人工智能的
  • 研究實施負責任人工智能的商業最佳實踐和建議
  • 在系統開發的所有階段學習負責任的人工智能的技術方法

如今,機器學習(ML)是人工智能(AI)中最具商業可行性的子學科。ML系統被用于在就業、保釋、假釋、貸款和世界各地的許多其他應用中做出高風險決策。在企業環境中,ML系統用于組織的所有部分——從面向消費者的產品到員工評估、后臺辦公自動化等等。事實上,過去十年帶來了ML技術的廣泛采用。但它也證明了ML會給運營商和消費者帶來風險。不幸的是,就像幾乎所有其他技術一樣,ML可能會失敗——無論是由于無意的誤用還是故意的濫用。截至目前,人工智能事件數據庫伙伴關系擁有超過1000份關于算法歧視、數據隱私侵犯、訓練數據安全漏洞和其他有害故障的公開報告。在組織和公眾能夠意識到這項令人興奮的技術的真正好處之前,必須減輕這些風險。直到今天,這仍然需要人們的行動——不僅僅是技術人員。解決復雜的ML技術帶來的各種風險需要不同的人才、經驗和觀點。這種整合了技術實踐、業務流程和文化能力的整體風險緩解方法,正被稱為負責任的人工智能。

讀完本書,讀者將了解負責任人工智能的文化能力、業務流程和技術實踐。本書分為三個部分,呼應負責任人工智能的每個主要方面。本書的每一部分都進一步分成幾章,討論特定的主題和案例。雖然本書仍在規劃和編寫中,但《面向高風險應用的機器學習》將以介紹這個主題開始,然后進入第1部分。下面是本書的初步提綱。

第1部分:人類的觸覺——負責任的機器學習的文化能力

第一部分針對的是組織文化在更廣泛的負責任人工智能實踐中的重要性。第一部分第一章的計劃涉及呼吁停止快速前進和破壞事物,重點是眾所周知的AI系統故障以及相關的詞匯和案例。第2章將分析消費者保護法、風險管理模型,以及其他指導方針、教訓和案例,這些對人工智能組織和系統中培養問責制很重要。第3章將探討團隊、組織結構和人工智能評估器的概念。第4章將討論人類與AI系統進行有意義交互的重要性,第5章將詳細介紹傳統組織約束之外的重要工作方式,如抗議、數據新聞和白帽黑客。

第2部分:為成功做準備——負責任的機器學習的組織過程關注點

第二部分將介紹負責任的人工智能過程。它將從第6章開始,探索組織策略和過程如何影響人工智能系統的公平性,以及令人吃驚的公平性缺失。第7章將概述人工智能系統的常見隱私和安全政策。第8章將考慮管理在美國部署人工智能的現有和未來法律和法規。第9章將強調AI系統的模型風險管理的重要性,但也指出了一些缺點。最后,第10章的藍圖是討論在未來負責任的人工智能采用的背景下,企業如何聽取過去對社會和環境責任的呼吁。

第三部分: 增強人類信任和理解的技術方法

第三部分的議程涵蓋了負責任人工智能的新興技術生態系統。第11章將介紹實驗設計的重要科學,以及當代數據科學家如何在很大程度上忽視了它。第12章將總結提高人工智能透明度的兩種主要技術:可解釋的機器學習模型和事后可解釋的人工智能(XAI)。第13章計劃深入探討機器學習模型的偏差測試和補救的世界,并應該解決傳統的和緊急的方法。第14章將介紹ML算法和AI系統的安全性,第15章將結束第3部分,廣泛討論AI系統的安全性和性能測試,有時也稱為模型調試。

付費5元查看完整內容

機器學習正在成為現代世界運行中不可或缺的一部分。隨著數字技術的進步,數據的收集量呈指數級增長,機器學習的力量也在不斷發展。機器學習模型從這些現在可用的巨大數據庫中學習和改進。模型變得越來越強大,在許多情況下,它們執行任務的效率和效率比人類同行更高。隨著越來越多的組織和企業采用機器學習技術,可解釋性變得越來越重要。

模型被用于自動化任務和發現數據中的新趨勢和模式。這些算法直接從數據中學習,而不是由人類開發人員創建。這意味著系統將在沒有直接人類互動的情況下進化和發展。因此,理解模型為什么會做出決策在最初可能是不清楚的,特別是對于沒有數據科學經驗的涉眾來說。對于深度學習等更復雜的機器學習技術來說,這可能尤其困難。深度學習模型的多層神經結構使得決策的透明度變得更加復雜。

與組織中的任何決策工具一樣,一定程度的問責制是必要的。機器學習模型已經被用于自動化資源密集型的管理工作和做出復雜的業務決策。在決策將受到審查的領域,解釋機器學習模型做出決策的原因的能力至關重要。例如,機器學習在金融領域的應用方式多種多樣。算法可以用來自動化和簡化貸款決策,甚至可以根據市場波動自動化股票訓練。在這兩個例子中,可解釋性都是整個過程的組成部分。

本指南探討了機器學習中的可解釋性主題,包括它是什么,為什么它是重要的,以及實現模型可解釋性的不同技術。

付費5元查看完整內容

2021年,CHI將首次來到日本,在東京西南方的橫濱市舉行。ACM (Association for Computing Machinery)CHI(計算系統人類因素會議)是人機交互領域最重要的國際會議。CHI(讀作“kai”)是世界各地研究者和實踐者齊聚一堂,探討交互技術最新進展的地方。CHI被普遍推崇為人機交互領域最具聲望的殿堂,每年吸引數千名國際參會者。

人工智能(AI)技術越來越多地用于在醫療保健、金融和就業等關鍵領域做出決策和執行自主任務。為了改進、競爭、建立適當的信任和更好地與人工智能系統交互,需要了解人工智能,這激發了學術界和公眾對可解釋人工智能(XAI)的極大興趣。一方面,快速增長的XAI技術集合允許在AI系統中合并不同的解釋風格。另一方面,通過人工智能解釋來提供令人滿意的用戶體驗需要以用戶為中心的方法和跨學科研究來連接用戶需求和技術支持。簡而言之,XAI是一個對HCI研究有著日益增長的需求和令人興奮的機會的領域。

本教程面向有志于開發和設計人工智能系統解釋功能的研究人員和實踐者,以及那些希望了解XAI文獻中的趨勢和核心主題的人。該課程將介紹一些可用的工具包,這些工具包有助于輕松地創建ML模型的解釋,包括AIX 360[1],這是一個全面的工具包,提供有關該主題的技術和教育資源,如XAI概念介紹、python代碼庫和教程。

我們也將借鑒我們自己的設計和研究XAI系統的經驗[3-8],以及從工業設計從業者[2]學習,討論機會和挑戰,把最先進的XAI技術融入AI系統,創造好的XAI用戶體驗,包括我們通過研究開發的“問題驅動的XAI設計流程”[9]。

//hcixaitutorial.github.io/

  • 什么是可解釋AI (XAI)?
  • XAI解決了哪些問題? XAI在不同研究領域(如機器學習、人機交互)的工作重點是什么?
  • 為什么XAI很重要?
  • XAI的動機是什么?XAI是負責任的人工智能的基礎?
  • 如何解釋人工智能?
  • XAI最先進的技術是什么?
  • 如何設計XAI用戶體驗?
  • XAI用戶體驗的設計方法和指導方針是什么?設計上的挑戰是什么?探索了哪些解決方案?
  • XAI從哪里開始呢?
  • 在哪里可以找到實現XAI技術和設計XAI UX的相關資源?

參考文獻:

[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.

[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020

[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019

[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020

[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021

[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021

[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021

[9] Liao, Q. V., Pribi?, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper

付費5元查看完整內容

我們給出了一個關于調查透明度和可解釋性的前沿教程,因為它們與NLP有關。研究團體和業界都在開發新的技術,以使黑箱型NLP模型更加透明和可解釋。來自社會科學、人機交互(HCI)和NLP研究人員的跨學科團隊的報告,我們的教程有兩個組成部分:對可解釋的人工智能(XAI)的介紹和對NLP中可解釋性研究的最新回顧; 研究結果來自一個大型跨國技術和咨詢公司在現實世界中從事NLP項目的個人的定性訪談研究。第一部分將介紹NLP中與可解釋性相關的核心概念。然后,我們將討論NLP任務的可解釋性,并對AI、NLP和HCI會議上的最新文獻進行系統的文獻綜述。第二部分報告了我們的定性訪談研究,該研究確定了包括NLP在內的現實世界開發項目中出現的實際挑戰和擔憂。

自然語言處理中可解釋AI的現狀調研

近年來,最領先的模型在性能上取得了重要的進步,但這是以模型變得越來越難以解釋為代價的。本調研提出了可解釋AI (XAI)的當前狀態的概述,在自然語言處理(NLP)領域內考慮。我們討論解釋的主要分類,以及解釋可以達到和可視化的各種方式。我們詳細介紹了目前可用來為NLP模型預測生成解釋的操作和可解釋性技術,以作為社區中模型開發人員的資源。最后,我們指出了在這個重要的研究領域目前的挑戰和未來可能工作方向。

//www.zhuanzhi.ai/paper/377e285abccf56a823a3fd0ad7a3f958

付費5元查看完整內容

人工智能(AI)為改善私人和公共生活提供了很多機會,以自動化的方式在大型數據中發現模式和結構是數據科學的核心組件,目前驅動著計算生物學、法律和金融等不同領域的應用發展。然而,這種高度積極的影響也伴隨著重大的挑戰:我們如何理解這些系統所建議的決策,以便我們能夠信任它們?在這個報告中,我們特別關注數據驅動的方法——特別是機器學習(ML)和模式識別模型——以便調查和提取結果和文獻觀察。通過注意到ML模型越來越多地部署在廣泛的業務中,可以特別理解本報告的目的。然而,隨著方法的日益普及和復雜性,業務涉眾對模型的缺陷、特定數據的偏差等越來越關注。類似地,數據科學從業者通常不知道來自學術文獻的方法,或者可能很難理解不同方法之間的差異,所以最終使用行業標準,比如SHAP。在這里,我們進行了一項調查,以幫助行業從業者(以及更廣泛的數據科學家)更好地理解可解釋機器學習領域,并應用正確的工具。我們后面的章節將圍繞一位公認的數據科學家展開敘述,并討論她如何通過提出正確的問題來解釋模型。

//arxiv.org/abs/2009.11698

付費5元查看完整內容

講座題目

工業中可解釋的人工智能:Fake News Research: Theories, Detection Strategies, and Open Problems

講座簡介

人工智能在決定我們的日常經驗方面越來越發揮著不可或缺的作用。此外,隨著基于人工智能的解決方案在招聘、借貸、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響是深遠的。人工智能模型在這些領域發揮的主導作用導致人們越來越關注這些模型中可能存在的偏見,以及對模型透明度和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療保健和自動化運輸)和具有重大經濟意義的關鍵工業應用(如預測性維護、自然資源勘探和氣候變化模型。 因此,人工智能研究者和實踐者把注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括(i)定義模型可解釋性,(ii)制定可解釋性任務以理解模型行為并為這些任務制定解決方案,最后(iii)設計評估模型在可解釋性任務中的性能的措施。 在本教程中,我們將概述人工智能中模型的可解釋性和可解釋性、關鍵法規/法律以及作為人工智能/建模語言系統一部分提供可解釋性的技術/工具。然后,我們將重點關注可解釋性技術在工業中的應用,其中我們提出了有效使用可解釋性技術的實際挑戰/指導方針,以及為多個web規模的機器學習和數據挖掘應用部署可解釋模型的經驗教訓。我們將介紹跨不同公司的案例研究,涉及招聘、銷售、貸款和欺詐檢測等應用領域。最后,根據我們在行業中的經驗,我們將確定數據挖掘/機器學習社區的開放性問題和研究方向。

講座嘉賓

Krishna Gade是Fiddler Labs的創始人兼首席執行官,Fiddler Labs是一家企業初創企業,它構建了一個可解釋的人工智能引擎,以解決人工智能中有關偏見、公平性和透明度的問題。克里希納是一位企業家和工程領袖,在創建可擴展平臺和令人愉悅的消費品方面有著豐富的技術經驗,他曾在Facebook、Pinterest、Twitter和微軟擔任高級工程領導職務。他曾多次應邀在著名的從業人員論壇上發表演講,包括在2019年的Strata Data Conference上就解決人工智能中的偏見、公平性和透明度問題發表演講.

付費5元查看完整內容
北京阿比特科技有限公司