亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

教育評估、信貸、就業、醫療保健和刑事司法等高風險應用的決策越來越受到數據驅動,并由機器學習模型支持。機器學習模型也使關鍵的信息物理系統,如自動駕駛汽車和機器人手術成為可能。在過去的幾年里,機器學習領域取得了驚人的進展。然而,即使這些技術越來越多地融入我們的生活,記者、活動家和學者仍發現了一些侵蝕這些系統可信度的特征。例如,據報道,一個支持法官審前拘留決定的機器學習模型對黑人被告存在偏見。同樣,據報道,一個支持在一家大型科技公司進行簡歷篩選的模型也對女性有偏見。研究表明,用于胸部x光片疾病計算機輔助診斷的機器學習模型更重視圖像中的標記,而不是患者的解剖細節。自動駕駛汽車的死亡事故發生在不同尋常的條件下,根本的機器學習算法沒有經過訓練。簡而言之,雖然每天都有機器學習算法在某些任務上取得超人成績的新故事,但這些驚人的結果只是在一般情況下。我們在所有情況下信任這些算法所需要的可靠性、安全性和透明度仍然是難以捉摸的。因此,越來越多的人希望在這些系統中擁有更多的公平性、健壯性、可解釋性和透明度。


付費5元查看完整內容

相關內容

醫學與機器學習(ML)可以應用的其他領域不同。我們已經看到了其他領域的進步是由大量數據驅動的,是醫學的復雜性,而不是數據量,使挑戰變得如此艱難。但與此同時,對于那些真正有興趣探索ML邊界的人來說,這使醫學成為最令人興奮的領域,因為我們要形式化和解決現實世界的問題。這些解決方案具有重要的社會意義,它們可能會影響我們所有人。

ML當然已經在許多領域取得了令人印象深刻的成果。突出的例子包括計算機視覺和圖像識別,玩游戲或教機器人。由ML授權的AI非常擅長掌握這些東西,因為它們是很容易表述的問題,解決方案很好定義,也很容易驗證。“容易表述的問題”有明確的挑戰要解決,有明確的規則要遵守;“定義良好的解決方案”屬于一類容易識別的答案;而“可驗證的解決方案”是我們作為人類可以理解的,可以判斷模型是否成功。不幸的是,在醫學上,這些問題并沒有很好地提出,解決方案往往沒有很好的定義,也不容易驗證。 本教程將介紹大規模構建臨床決策支持系統、預測疾病軌跡、估計個性化治療效果、個性化主動監測和篩查以及跨臨床環境轉移知識的新方法。它還將討論如何使ML可解釋、可解釋和值得信任,以便臨床醫生、患者和政策制定者可以使用它獲得可操作的情報。最后,將討論如何集成所有這些技術來構建醫療保健學習機器,將僅捕獲數據的電子健康記錄轉化為個性化決策支持、合作、有效的健康管理和發現的引擎。

付費5元查看完整內容

機器學習正在成為現代世界運行中不可或缺的一部分。隨著數字技術的進步,數據的收集量呈指數級增長,機器學習的力量也在不斷發展。機器學習模型從這些現在可用的巨大數據庫中學習和改進。模型變得越來越強大,在許多情況下,它們執行任務的效率和效率比人類同行更高。隨著越來越多的組織和企業采用機器學習技術,可解釋性變得越來越重要。

模型被用于自動化任務和發現數據中的新趨勢和模式。這些算法直接從數據中學習,而不是由人類開發人員創建。這意味著系統將在沒有直接人類互動的情況下進化和發展。因此,理解模型為什么會做出決策在最初可能是不清楚的,特別是對于沒有數據科學經驗的涉眾來說。對于深度學習等更復雜的機器學習技術來說,這可能尤其困難。深度學習模型的多層神經結構使得決策的透明度變得更加復雜。

與組織中的任何決策工具一樣,一定程度的問責制是必要的。機器學習模型已經被用于自動化資源密集型的管理工作和做出復雜的業務決策。在決策將受到審查的領域,解釋機器學習模型做出決策的原因的能力至關重要。例如,機器學習在金融領域的應用方式多種多樣。算法可以用來自動化和簡化貸款決策,甚至可以根據市場波動自動化股票訓練。在這兩個例子中,可解釋性都是整個過程的組成部分。

本指南探討了機器學習中的可解釋性主題,包括它是什么,為什么它是重要的,以及實現模型可解釋性的不同技術。

付費5元查看完整內容

人工智能在現代社會中扮演著越來越重要的角色,因為曾經由人類做出的決策現在被委托給了自動化系統。這些系統目前負責決定銀行貸款、罪犯監禁和雇傭新員工,不難想象,很快它們將成為社會大多數決策基礎設施的基礎。盡管這項任務的風險很高,但人們仍然缺乏對這類系統的一些基本屬性的正式理解,包括公平性、問責制和透明度等問題。在本教程中,我們將介紹因果公平分析的框架,目的是填補這一空白,即理解、建模,并可能解決決策設置中的公平問題。我們的方法的主要見解將是將觀察到的數據中存在的差異的量化與最初產生差異的潛在的、往往未被觀察到的因果機制聯系起來。我們將研究分解變化的問題,這將導致構建公平的實證措施,將這種變化歸因于產生它們的因果機制。這種將差異歸因于特定因果機制的做法,將使我們能夠提出一個正式而實用的框架,以評估不同處理和影響的法律理論,同時考慮到業務的必要性。最后,通過新開發的框架,我們將得出與以往文獻的重要聯系,在因果推理領域內外。這一努力將在“公平地圖”中達到高潮,這是第一個根據其因果屬性(包括可接受性、可分解性和權力)對公平的多個衡量標準進行銜接和系統分類的工具。我們希望這一套新的原則、措施和工具可以幫助指導AI研究人員和工程師分析和/或開發與社會目標、期望和愿望一致的決策系統。

付費5元查看完整內容

教育評估、信貸、就業、醫療保健和刑事司法等高風險應用的決策越來越受到數據驅動,并由機器學習模型支持。機器學習模型也使關鍵的信息物理系統,如自動駕駛汽車和機器人手術成為可能。在過去的幾年里,機器學習領域取得了驚人的進展。然而,即使這些技術越來越多地融入我們的生活,記者、活動家和學者仍發現了一些侵蝕這些系統可信度的特征。例如,據報道,一個支持法官審前拘留決定的機器學習模型對黑人被告存在偏見。同樣,據報道,一個支持在一家大型科技公司進行簡歷篩選的模型也對女性有偏見。研究表明,用于胸部x光片疾病計算機輔助診斷的機器學習模型更重視圖像中的標記,而不是患者的解剖細節。自動駕駛汽車的死亡事故發生在不同尋常的條件下,根本的機器學習算法沒有經過訓練。簡而言之,雖然每天都有機器學習算法在某些任務上取得超人成績的新故事,但這些驚人的結果只是在一般情況下。我們在所有情況下信任這些算法所需要的可靠性、安全性和透明度仍然是難以捉摸的。因此,越來越多的人希望在這些系統中擁有更多的公平性、健壯性、可解釋性和透明度。

//www.trustworthymachinelearning.com/

機器學習的當前狀態是什么,我們如何讓它更值得信任? 天然成分、衛生制劑和防篡改包裝的類似物是什么?機器學習的透明容器、工廠參觀和食品標簽是什么?機器學習在造福社會方面的作用是什么?

這本書的目的是回答這些問題,并提出一個可靠的機器學習的統一觀點。有幾本從不同角度介紹機器學習的優秀書籍。也開始出現一些關于值得信賴的機器學習的個別主題的優秀文本,如公平性和可解釋性然而,據我所知,沒有一個獨立的資源可以定義值得信賴的機器學習,并帶領讀者了解它所涉及的所有不同方面。如果我是一個在高風險領域工作的高級技術專家,不回避一些應用數學,我就會寫一本我想讀的書。其目標是傳授一種將安全性、開放性和包容性視為頭等大事的機器學習系統整合起來的思維方式。我們將開發一個概念性的基礎,會給你信心和起點,深入研究的話題。

第1部分的剩余部分討論了本書的局限性,并討論了幾個對理解可靠機器學習概念很重要的初步主題: 在實踐中開發機器學習系統的角色和生命周期,以及在不確定性方面量化安全概念。

第2部分是關于數據的討論,數據是進行機器學習的前提。除了提供不同數據模式和來源的簡短概述外,該部分還涉及與可信機器學習相關的三個主題: 偏見、同意和隱私。第3部分涉及到值得信賴的機器學習的第一個屬性: 基本性能。它描述了最優檢測理論和不同的有監督機器學習公式。它教授幾種不同的學習算法,如判別分析、na?ve貝葉斯、k-最近鄰、決策樹和森林、邏輯回歸、支持向量機和神經網絡。最后總結了因果發現和因果推理的方法。第四部分是值得信賴的機器學習的第二個屬性:可靠性。這個屬性通過三個特定的主題來討論: 分布偏移、公平性和對抗魯棒性。這些主題的描述不僅定義了問題,而且還提供了檢測和緩解問題的解決方案。

第5部分是關于第三個屬性:人類與機器學習系統在兩個方向上的交互——理解系統并給它指令。第一部分從模型的可解釋性和可解釋性開始。它轉向了測試和記錄機器學習算法各個方面的方法,然后可以通過公平性、問責制和透明度表(FAccTsheets)進行透明報告。本部分的最后一個主題是機器引出人們和社會的政策和價值觀來管理它的行為。第六部分討論了第四個屬性: 人們和社會的價值可能是什么。它首先討論了機器學習在虛假信息中的惡意使用,以及機器學習在創建過濾氣泡時不必要的含義。接下來,它描述了在機器學習和人工智能中編碼期望值和應用的不同專業指南。最后,本文討論了如何將具有不同生活經驗的機器學習系統創造者納入其中,從而擴大機器學習的價值、目標和應用,在某些情況下,通過技術追求社會公益。

付費5元查看完整內容

ML模型無處不在——從交通(自動駕駛汽車)到金融(信用卡或抵押貸款申請)和職業(公司招聘)。然而,ML并非沒有風險。一些重要的風險涉及模型理解和問責:機器學習創建的模型很大程度上是我們難以窺視和理解的黑盒子;他們容易受到不可預見的錯誤、對抗性操縱以及在隱私和公平方面違反倫理規范的影響。

本課程將提供最先進的ML方法的介紹,旨在使人工智能更值得信賴。本課程關注四個概念: 解釋、公平、隱私和健壯性。我們首先討論如何解釋ML模型輸出和內部工作。然后,我們研究了偏差和不公平是如何在ML模型中產生的,并學習了緩解這個問題的策略。接下來,我們將研究模型在不應該泄漏敏感信息的情況下泄漏敏感信息的上下文中的差異隱私和成員關系推斷。最后,我們將討論對抗性攻擊和提供抗對抗性操作的健壯性的方法。

學生將了解一套方法和工具,以部署透明、倫理和魯棒的機器學習解決方案。學生將完成實驗,家庭作業,并討論每周閱讀。

//web.stanford.edu/class/cs329t/syllabus.html

付費5元查看完整內容

隨著廣泛的應用,人工智能(AI)催生了一系列與人工智能相關的研究活動。其中一個領域就是可解釋的人工智能。它是值得信賴的人工智能系統的重要組成部分。本文概述了可解釋的人工智能方法,描述了事后人工智能系統(為先前構建的常規人工智能系統提供解釋)和事后人工智能系統(從一開始就配置為提供解釋)。解釋的形式多種多樣:基于特征的解釋、基于說明性訓練樣本的解釋、基于嵌入式表示的解釋、基于熱度圖的解釋。也有結合了神經網絡模型和圖模型的概率解釋。可解釋人工智能與許多人工智能研究前沿領域密切相關,如神經符號人工智能和機器教學

付費5元查看完整內容

人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。

付費5元查看完整內容

人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。

付費5元查看完整內容
北京阿比特科技有限公司