亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

題目: Algorithmic Decision Making with Conditional Fairness

摘要:

當前,公平問題已成為決策系統中備受關注的問題。人們提出了各種公平概念來衡量算法的不公平程度。在實踐中,經常存在一組我們稱為公平變量的變量,即用戶的選擇等決策前協變量。公平變量的影響與評價決策支持算法的公平性無關。因此,我們定義條件公平作為一個更健全的衡量公平的條件,對公平變量。鑒于對公平變量的不同先驗知識,我們證明了傳統的公平符號,如人口均等和均等概率,是我們的條件公平符號的特殊情況。此外,我們提出了一種可推導的條件公平性調節器(DCFR),該調節器可集成到任何決策模型中,以跟蹤算法決策精度與公平性之間的權衡。具體地說,我們在DCFR中提出了一個基于條件獨立性損失的對抗性表示來衡量不公平的程度。通過對三個真實數據集的廣泛實驗,我們證明了我們的條件公平性表示法和DCFR的優點。

付費5元查看完整內容

相關內容

“機器學習是近20多年興起的一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法復雜度理論等多門學科。機器學習理論主要是設計和分析一些讓 可以自動“ ”的算法。機器學習算法是一類從數據中自動分析獲得規律,并利用規律對未知數據進行預測的算法。因為學習算法中涉及了大量的統計學理論,機器學習與統計推斷學聯系尤為密切,也被稱為統計學習理論。算法設計方面,機器學習理論關注可以實現的,行之有效的學習算法。很多 問題屬于 ,所以部分的機器學習研究是開發容易處理的近似算法。” ——中文維基百科

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

題目: Fairness-Aware Explainable Recommendation over Knowledge Graphs

簡介: 最近,人們對公平性的考慮日益受到關注,尤其是在智能決策系統中。可解釋的推薦系統可能會受到解釋偏差和性能差異的困擾。在本文中,我們根據用戶的活動水平分析了不同的用戶組,發現不同組之間的推薦績效存在偏差。結果顯示由于不活躍用戶的培訓數據不足,不活躍用戶可能更容易收到不滿意的推薦,并且由于協作過濾的性質,他們的推薦可能會受到更活躍用戶的培訓記錄的影響,因而受到系統的不公平對待。我們提出了一種啟發式重新排序的公平約束方法,以在對知識圖的可解釋性推薦的背景下減輕這種不公平問題。我們使用基于最新知識圖的可解釋推薦算法對幾個數據集進行了實驗,結果表明,我們的算法不僅能夠提供高質量的可解釋的推薦,而且在幾個方面都減少了推薦的不公平性。

付費5元查看完整內容

題目: Review of Mathematical frameworks for Fairness in Machine Learning

摘要:

從數學的角度回顧了過去幾年文獻中提出的主要公平定義和公平學習方法。根據基于獨立的方法,考慮如何構建公平的算法,以及與可能不公平的情況相比,算法性能下降的后果。這相當于公平的價格由標準統計均等或機會均等給出。給出了最優公平分類器和最優公平預測器(在線性回歸高斯模型下)在機會均等意義下的新結果。

付費5元查看完整內容

圖表示學習近年來得到了廣泛的研究。盡管它在為各種網絡生成連續嵌入方面具有潛力,但針對大量節點推斷高質量表示的有效性和效率仍然具有挑戰性。采樣是實現性能目標的關鍵。現有技術通常集中于正節點對的抽樣,而對負節點對的抽樣策略卻沒有進行充分的探索。為了彌補這一差距,我們從目標和風險兩個角度系統地分析了負抽樣的作用,從理論上論證了負抽樣與正抽樣在確定優化目標和由此產生的方差方面同樣重要。據我們所知,我們是第一個推導出負抽樣分布應該與正抽樣分布呈正相關但亞線性相關的理論并進行量化的工作。在該理論的指導下,我們提出了MCNS,用自對比近似逼近正分布,用Metropolis-Hastings加速負抽樣。我們在5個數據集上評估了我們的方法,這些數據集涵蓋了廣泛的下游圖數據學習任務,包括鏈接預測、節點分類和個性化推薦,總共有19個實驗設置。這些較為全面的實驗結果證明了其魯棒性和優越性。

付費5元查看完整內容

題目: Decision-theoretic foundations for statistical causality

摘要:

我們為企業決策理論的統計因果關系(DT)建立了一個數學和解釋基礎,這是一種直接表達和解決因果問題的方法。DT將因果推理重新定義為“輔助決策”,目的是了解何時以及如何利用外部數據(通常是觀察性的)來幫助解決決策問題,利用數據與我的問題之間假定的關系。

因果問題的任何表述中所包含的關系都需要更深層次的證明,這必然取決于上下文。在這里,我們澄清了支持DT方法應用所需要考慮的事項。互換性考慮被用來構建所需的關系,而意圖治療和干預治療之間的區別形成了“可忽略性”啟用條件的基礎。我們還展示了DT的觀點是如何統一和闡明統計因果關系的其他流行形式的,包括潛在的響應和有向無環圖。

付費5元查看完整內容

題目: Unsupervised Multi-Class Domain Adaptation: Theory, Algorithms, and Practice

摘要:

本文研究了無監督多類域自適應理論,這是最近一些算法的基礎,這些算法的學習目標僅僅是由經驗驅動的。多類得分不一致(MCSD)分歧是通過聚合多類分類中的絕對裕度違規來表示的;所提出的MCSD能夠充分表征任何一對多類得分假設之間的關系。通過使用MCSD作為域距離的度量,我們為多類UDA開發了一個新的域適配邊界以及它的依賴于數據的(可能是近似正確的)邊界,這自然地提出了對抗性的學習目標來對齊源域和目標域的條件特征分布。因此,一個多類領域對抗學習網絡(McDalNets)的算法框架被開發出來,它通過學習目標的不同實例與最近流行的一些方法相一致或相似,從而(部分地)強調了它們的實際有效性。在多類UDA理論的基礎上,提出了一種新的域對稱網絡(SymmNets)算法。Symmnet提供了簡單的擴展,這些擴展在封閉集、部分集或開放集UDA的問題設置下都可以很好地工作。我們進行了仔細的實證研究,把不同的算法的McDalNets和我們的新推出的SymmNets相比較。實驗結果驗證了理論分析的正確性和有效性。

付費5元查看完整內容

題目: Weakly-Supervised Disentanglement Without Compromises

摘要:

智能體應該能夠通過觀察其環境中的變化來學習有用的表示。首先,從理論上證明,只知道有多少因素發生了變化,而不知道哪些因素發生了變化,就足以學習解纏表示。其次,我們提供了實用的算法,可以從成對的圖像中學習分離的表示,而不需要對組、單個因素或已更改的因素的數量進行注釋。第三,我們進行了大規模的實證研究,并表明這樣的觀測對足以可靠地學習幾個基準數據集上的解纏表示。最后,我們評估我們的表示學習,并發現它們在不同的任務集合上同時是有用的,包括協變量轉移下的泛化、公平性和抽象推理。總的來說,結果表明,在現實場景中,弱監督能夠幫助學習有用的解纏表示。

付費5元查看完整內容

題目

基于學習的序列決策算法的公平性綜述論文,Fairness in Learning-Based Sequential Decision Algorithms: A Survey

關鍵字

序列決策,機器學習,預測,公平性

簡介

決策過程中的算法公平性已經被廣泛研究,在不穩定的環境下,對分類等任務進行一次性決策。然而,在實踐中,大多數決策過程都是順序的,過去的決策可能會對未來的數據產生影響。特別是當決策影響到生成用于未來決策的數據的個人或用戶時。在這項調查中,我們回顧了現有文獻的數據驅動順序決策的公平性。我們將關注兩類順序決策:(1)過去的決策對潛在用戶群沒有影響,對未來數據也沒有影響;(2)過去的決策對潛在用戶群有影響,因此對未來數據也有影響,進而影響未來的決策。在每種情況下,都要研究各種公平干預措施對底層人口的影響。

作者

Xueru Zhang and Mingyan Liu

付費5元查看完整內容

【導讀】越來越明顯的是,廣泛采用的機器學習模型可能導致歧視性結果,并可能加劇訓練數據之間的差異。隨著越來越多的機器學習用于現實世界中的決策任務,必須解決機器學習中的偏見和公平問題。我們的動機是,在各種新興方法中,表示學習為評估和潛在地減輕不公平現象提供了獨特的工具集。本教程介紹了現有的研究,并提出了在表示學習和公平的交集中存在的開放性問題。我們將研究學習公平任務不可知表示的可能性(不可能性),公平性和泛化性能之間的聯系,以及利用來自表示形式學習的工具來實現算法上的個人和群體公平性的機會。本教程旨在為廣大的機器學習實踐者提供幫助,并且必要的背景知識是預測性機器學習的工作知識。

作者介紹

Sanmi Koyejo,伊利諾伊大學香檳分校計算機科學系助理教授。

研究綜述: 我們的研究興趣是開發自適應魯棒機器學習的原理和實踐。最近的一些亮點包括:1)可伸縮的、分布式的和容錯的機器學習;2)度量引出;通過人機交互選擇更有效的機器學習指標。我們的應用研究主要集中在認知神經成像和生物醫學成像方面。最近的一些重點包括①生物圖像的生成模型,②時變腦電圖的估計和分析。

//sanmi.cs.illinois.edu/

付費5元查看完整內容

近幾年來,隨著機器學習的普及,機器學習系統的公平性問題引起了實際的道德、社會等問題。圖書《公平性與機器學習—局限與機遇》以公平性為核心問題來看待機器學習,提供了對當前機器學習實踐以及為實現公平而提出的技術修復方案的批判性思考。

社會、道德和機器學習自身等角度,介紹了目前機器學習中的公平性問題,如由于數據導致的偏置(bias)等問題。

圖書《Fairness and Machine Learning - Limitations and Opportunities》(《公平性與機器學習—局限與機遇》)以公平性為核心問題來看待機器學習,強調機器學習在道德方面的挑戰。作者希望該書盡可能地被廣泛閱讀,但在寫作時依然堅持著技術的嚴謹性。該書并沒有提供包羅萬象的對公平性完整的正式定義,也沒有提出一個快速解決社會對自動決策擔憂的修復方案。

解決機器學習公平性問題需要認真理解機器學習工具的局限性。該書提供了對當前機器學習實踐以及為實現公平而提出的技術修復方案的批判性思考。雖然這些問題都沒有簡單的答案,作者希望這本書能夠幫助讀者更深層次地理解如何構建負責任的機器學習系統。

付費5元查看完整內容
北京阿比特科技有限公司