亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

題目: Review of Mathematical frameworks for Fairness in Machine Learning

摘要:

從數學的角度回顧了過去幾年文獻中提出的主要公平定義和公平學習方法。根據基于獨立的方法,考慮如何構建公平的算法,以及與可能不公平的情況相比,算法性能下降的后果。這相當于公平的價格由標準統計均等或機會均等給出。給出了最優公平分類器和最優公平預測器(在線性回歸高斯模型下)在機會均等意義下的新結果。

付費5元查看完整內容

相關內容

“機器學習是近20多年興起的一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法復雜度理論等多門學科。機器學習理論主要是設計和分析一些讓 可以自動“ ”的算法。機器學習算法是一類從數據中自動分析獲得規律,并利用規律對未知數據進行預測的算法。因為學習算法中涉及了大量的統計學理論,機器學習與統計推斷學聯系尤為密切,也被稱為統計學習理論。算法設計方面,機器學習理論關注可以實現的,行之有效的學習算法。很多 問題屬于 ,所以部分的機器學習研究是開發容易處理的近似算法。” ——中文維基百科

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

題目: Algorithmic Decision Making with Conditional Fairness

摘要:

當前,公平問題已成為決策系統中備受關注的問題。人們提出了各種公平概念來衡量算法的不公平程度。在實踐中,經常存在一組我們稱為公平變量的變量,即用戶的選擇等決策前協變量。公平變量的影響與評價決策支持算法的公平性無關。因此,我們定義條件公平作為一個更健全的衡量公平的條件,對公平變量。鑒于對公平變量的不同先驗知識,我們證明了傳統的公平符號,如人口均等和均等概率,是我們的條件公平符號的特殊情況。此外,我們提出了一種可推導的條件公平性調節器(DCFR),該調節器可集成到任何決策模型中,以跟蹤算法決策精度與公平性之間的權衡。具體地說,我們在DCFR中提出了一個基于條件獨立性損失的對抗性表示來衡量不公平的程度。通過對三個真實數據集的廣泛實驗,我們證明了我們的條件公平性表示法和DCFR的優點。

付費5元查看完整內容

主題: Explainable Reinforcement Learning: A Survey

摘要: 可解釋的人工智能(XAI),即更透明和可解釋的AI模型的開發在過去幾年中獲得了越來越多的關注。這是由于這樣一個事實,即AI模型隨著其發展為功能強大且無處不在的工具而表現出一個有害的特征:性能與透明度之間的權衡。這說明了一個事實,即模型的內部工作越復雜,就越難以實現其預測或決策。但是,特別是考慮到系統像機器學習(ML)這樣的方法(強化學習(RL))在系統自動學習的情況下,顯然有必要了解其決策的根本原因。由于據我們所知,目前尚無人提供可解釋性強化學習(XRL)方法的概述的工作,因此本調查試圖解決這一差距。我們對問題進行了簡短的總結,重要術語的定義以及提議當前XRL方法的分類和評估。我們發現a)大多數XRL方法通過模仿和簡化一個復雜的模型而不是設計本質上簡單的模型來起作用,并且b)XRL(和XAI)方法通常忽略了方程的人為方面,而不考慮相關領域的研究像心理學或哲學。因此,需要跨學科的努力來使所生成的解釋適應(非專家)人類用戶,以便有效地在XRL和XAI領域中取得進步。

付費5元查看完整內容

題目: Boosting algorithms in energy research: A systematic review

摘要:

機器學習算法由于其靈活性、自動化和處理大數據的能力,在(可再生)能源研究中得到了廣泛的應用。在最著名的機器學習算法中,有一種是增強型算法,這種算法被稱為“從愚人委員會中獲取智慧”,從而將學習能力差的人轉化為學習能力強的人。增強算法具有較高的靈活性和可解釋性。后者是統計界最近發展的結果。在這項工作中,我們提供了關于助推算法的性質的理解,以便更好地利用它們在能源研究中的優勢。在這方面,(a)我們在提高算法總結最新進展,(b)我們審查有關應用在能源研究與關注可再生能源(尤其是那些專注于風能和太陽能)組成總數的很大一部分,和(c)我們描述提高算法是如何實現的以及他們如何使用它們的屬性有關。我們的研究表明,到目前為止,能源領域(可再生能源在其中發揮著關鍵作用)的巨大進步在解釋和解釋方面以及在預測性能方面都是可能的。

付費5元查看完整內容

主題: A Review on Deep Learning Techniques for Video Prediction

摘要: 預測,預期和推理未來結果的能力是智能決策系統的關鍵組成部分。鑒于深度學習在計算機視覺中的成功,基于深度學習的視頻預測已成為有前途的研究方向。視頻預測被定義為一種自我監督的學習任務,它代表了一個表示學習的合適框架,因為它展示了提取自然視頻中潛在模式的有意義的表示的潛在能力。視頻序列預測的深度學習方法。我們首先定義視頻預測的基礎知識,以及強制性的背景概念和最常用的數據集。接下來,我們會仔細分析根據擬議的分類法組織的現有視頻預測模型,突出顯示它們的貢獻及其在該領域的意義。數據集和方法的摘要均附有實驗結果,有助于在定量基礎上評估現有技術。通過得出一些一般性結論,確定開放研究挑戰并指出未來的研究方向來對本文進行總結。

付費5元查看完整內容

機器學習應用在高風險領域(如刑事判決、醫學測試、在線廣告等)的流行,至關重要的是要確保這些決策支持系統不會傳播歷史數據中可能存在的現有偏見或歧視。一般來說,在算法公平文獻中有兩個關于公平的中心概念。第一個是個體公平,它要求公平的算法以相似的方式對待相似的個體。然而,在實踐中,通常很難找到或設計一個社會可接受的距離度量來捕獲個體之間關于特定任務的相似性。相反,在這篇博客文章中,我們關注的是公平的第二個概念,群體公平,更具體地說是統計上的平等,這本質上要求預測器的結果在不同的子群體中是平等的。

付費5元查看完整內容

題目

基于學習的序列決策算法的公平性綜述論文,Fairness in Learning-Based Sequential Decision Algorithms: A Survey

關鍵字

序列決策,機器學習,預測,公平性

簡介

決策過程中的算法公平性已經被廣泛研究,在不穩定的環境下,對分類等任務進行一次性決策。然而,在實踐中,大多數決策過程都是順序的,過去的決策可能會對未來的數據產生影響。特別是當決策影響到生成用于未來決策的數據的個人或用戶時。在這項調查中,我們回顧了現有文獻的數據驅動順序決策的公平性。我們將關注兩類順序決策:(1)過去的決策對潛在用戶群沒有影響,對未來數據也沒有影響;(2)過去的決策對潛在用戶群有影響,因此對未來數據也有影響,進而影響未來的決策。在每種情況下,都要研究各種公平干預措施對底層人口的影響。

作者

Xueru Zhang and Mingyan Liu

付費5元查看完整內容

講座題目

公平意識機器學習:現實挑戰與經驗教訓:Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned

講座簡介

來自不同學科的研究人員和從業人員強調了使用機器學習模型和數據驅動系統所帶來的倫理和法律挑戰,以及由于算法決策系統的偏見,這些系統可能歧視某些群體。本教程概述了過去幾年觀察到的算法偏差/歧視問題,以及在機器學習系統中為實現公平性而吸取的經驗教訓、關鍵法規和法律,以及技術的發展。在為不同的消費者和企業應用開發基于機器學習的模型和系統時,我們將鼓勵采用“按設計公平”的方法(而不是將算法偏差/公平考慮視為事后考慮)。然后,我們將通過展示來自不同技術公司的非專利案例研究,重點關注公平感知機器學習技術在實踐中的應用。最后,根據我們在Facebook、Google、LinkedIn和Microsoft等公司致力于機器學習公平性的經驗,我們將為數據挖掘/機器學習社區提出開放的問題和研究方向。

講座嘉賓

莎拉?伯德(Sarah Bird)領導著人工智能研究與Facebook產品交叉點的戰略項目。她目前的工作集中在人工智能倫理和發展規模負責任人工智能。她還一直致力于開放人工智能系統,是ONNX的共同創造者之一,ONNX是一個用于深度學習模型的開放標準,也是Pythorc1.0項目的領導者。在加入Facebook之前,她曾是微軟紐約研究中心的人工智能系統研究員和微軟數據集團的技術顧問。她是微軟決策服務(Decision Service)背后的研究人員之一,該服務是第一個公開發布的通用強化學習型云系統。她還與人共同創立了微軟人工智能倫理命運研究小組。她擁有加州大學伯克利分校(UC Berkeley)計算機科學博士學位,由戴夫·帕特森(Dave Patterson)、克里斯特·阿薩諾維奇(Krste Asanovic)和伯頓·史密斯(Burton Smith)擔任顧問。Sarah共同組織了多個相關主題的研討會(人工智能、NIPS 2018中的道德、社會和治理問題研討會;NIPS 2018中的機器學習系統研討會;NIPS 2017中的機器學習系統研討會;SOSP 2017中的人工智能系統研討會;NIPS 2016中的機器學習系統研討會),并在2018年伯克利隱私法論壇(Berkeley Privacy Law Forum)上發表了受邀的主題演講(“人工智能與機器學習:Facebook視角”)。

付費5元查看完整內容

論文題目:

Machine Learning Techniques for Biomedical Image Segmentation: An Overview of Technical Aspects and Introduction to State-of-Art Applications

論文摘要: 近年來,在開發更精確、更有效的醫學圖像和自然圖像分割的機器學習算法方面取得了重大進展。在這篇綜述文章中,我們強調了機器學習算法在醫學圖像領域實現高效準確分割的重要作用。我們特別關注與機器學習方法在生物醫學圖像分割中的應用相關的幾個關鍵研究。我們回顧了經典的機器學習算法,如馬爾可夫隨機場、k-均值聚類、隨機森林等,雖然這些經典的學習模型往往比深度學習技術更不精確,但它們往往更具樣本效率,結構也更不復雜。我們還回顧了不同的深度學習結構,如人工神經網絡(ANNs)、卷積神經網絡(CNNs)和遞歸神經網絡(RNNs),并給出了這些學習模型在過去三年中取得的分割結果。我們強調了每種機器學習范式的成功和局限性。此外,我們還討論了與不同機器學習模型訓練相關的幾個挑戰,并提出了一些啟發式方法來解決這些挑戰。

付費5元查看完整內容

近幾年來,隨著機器學習的普及,機器學習系統的公平性問題引起了實際的道德、社會等問題。圖書《公平性與機器學習—局限與機遇》以公平性為核心問題來看待機器學習,提供了對當前機器學習實踐以及為實現公平而提出的技術修復方案的批判性思考。

社會、道德和機器學習自身等角度,介紹了目前機器學習中的公平性問題,如由于數據導致的偏置(bias)等問題。

圖書《Fairness and Machine Learning - Limitations and Opportunities》(《公平性與機器學習—局限與機遇》)以公平性為核心問題來看待機器學習,強調機器學習在道德方面的挑戰。作者希望該書盡可能地被廣泛閱讀,但在寫作時依然堅持著技術的嚴謹性。該書并沒有提供包羅萬象的對公平性完整的正式定義,也沒有提出一個快速解決社會對自動決策擔憂的修復方案。

解決機器學習公平性問題需要認真理解機器學習工具的局限性。該書提供了對當前機器學習實踐以及為實現公平而提出的技術修復方案的批判性思考。雖然這些問題都沒有簡單的答案,作者希望這本書能夠幫助讀者更深層次地理解如何構建負責任的機器學習系統。

付費5元查看完整內容

主題: Safe and Fair Machine Learning

簡介:

在這個演講將討論一些我們的未來的工作在一個新的框架設計的機器學習算法,內容包括:1)使得算法的用戶更容易定義他們認為是不受歡迎的行為(例如,他們認為是不公平的,不安全,或者成本);2)提供了一個高信任度保證它不會產生一個解決方案,展示了用戶定義的不受歡迎的行為。

作者簡介:

Philip Thomas是馬薩諸塞大學安姆斯特分校信息與計算機科學學院助理教授,自主學習實驗室聯合主任。之前是卡內基·梅隆大學(CMU)的博士后,2015年,在馬薩諸塞州立大學阿默斯特分校(UMass Amherst)獲得了計算機科學博士學位。主要研究如何確保人工智能(AI)系統的安全性,重點是確保機器學習(ML)算法的安全性和公平性以及創建安全和實用的強化學習(RL)算法。

付費5元查看完整內容
北京阿比特科技有限公司