亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

機器學習算法廣泛應用于具有社會高風險的決策環境中,如兒童福利、刑事司法、醫療保健、招聘和消費者貸款。近期的歷史已經揭示出許多這些算法證明不可靠或不公平的例子。本論文提出了一種遵循原則的方法,用于在社會高風險環境中使用機器學習,該方法由三大支柱引導:有效性、公平性和監管。我們借鑒了包括統計學、機器學習和社會科學在內的各個領域的方法,開發出處理數據挑戰和復雜偏見的新方法,這些偏見嵌入在社會技術系統中。我們通過開發考慮到選擇偏差、混淆和bandit反饋的算法風險評估方法,解決了挑戰算法決策支持系統有效性的數據問題。我們對整個系統中使用算法進行決策的偏見進行了因果審計。在整個過程中,我們提出了使用雙重穩健技術進行偏差修正的新方法。我們使用來自阿利根尼縣人力服務部、澳大利亞聯邦銀行和斯坦福公開警察項目的數據,展示了在兒童福利、消費者信貸和刑事司法環境中的實證結果。 機器學習越來越多地被用于做出高風險決策,例如兒童福利、刑事司法、消費者貸款、教育和醫療保健(Saxena等人,2020;Vaithianathan等人,2017;Raghavan等人,2020a;Chouldechova,2017;Cattell等人,2021)。這些決策影響未來的健康和經濟機會,總的來說,它們塑造了我們的社會結構。通常,這類任務可用的數據豐富,但往往噪音大,存在偏見或不完整。如果不能妥善處理這些數據問題,可能會對弱勢和歷史上邊緣化的群體造成不成比例的傷害(Barocas和Selbst,2016b;Obermeyer等人,2019a;Coston等人,2020b, 2021a)。在這篇論文中,我們開發了統計方法和一個審議框架,用來識別并解決挑戰機器學習在重要環境中負責任使用的數據問題。當機器學習被用于高風險決策時,一個常見的方法是應用標準的監督學習范式。在這種方法下,人們識別出一個感興趣的結果(通常是實際感興趣的結果的代理),然后使用其他變量作為預測因子,構建一個對這個結果的預測模型。當數據集并不代表機器學習工具將要部署的目標人群,且預測結果與決策任務相關的結果可能大相徑庭時,這種標準方法通常并不適合,這在現實世界的應用中是常見的(Mullainathan和Obermeyer,2021;Coston等人,2020b;Fogliato等人,2021;Wang等人,2022)。此外,計算在保留的集合上的測試指標的標準性能評估方法,往往不能對目標人口的性能提供有效的評估(Kallus和Zhou,2018b;Coston等人,2021b)。

這篇論文的一個核心原則是,我們必須確保我們打算測量的內容(例如,我們希望機器學習工具預測的內容,或者我們希望評估衡量的內容)與方法實際測量的內容保持一致。這種屬性被稱為有效性(Coston等人,2023)。未處理的數據問題,如選擇偏見或缺失數據,可能導致不一致,使機器學習工具無效。我們討論了在兒童福利、刑事司法和消費者貸款環境中這些問題的例子,并提出了解決方法。我們展示了有效性和我們的第二個原則,公平性,之間的關系,公平性要求機器學習工具不無理由地使某些人口群體比其他群體獲得優勢。我們表明,通常是弱勢或歷史上處于劣勢的人群最有可能在可用數據中被忽視或被誤解。我們提出了可靠評估算法中人口偏見的方法,以及在算法工具部署的更廣泛環境中審查有效性和公平性的方法。在實踐中有效地分析有效性和公平性需要治理工具,提供保護和結構化流程,以謹慎設計和評估機器學習工具。我們開發了一個框架,指導圍繞威脅預測算法的有效性和合法性的常見問題進行審議。本文提出的方法構成了對于重大決策的標準機器學習范式的一種替代方法。我們的原則性方法明確了目標人口和目標結果,調整了數據樣本和目標人口之間的任何差異,做出了合理的假設以確定目標結果和評估指標。我們開發了高效的方法,使用來自因果推斷的影響函數技術來估計這些量,這是一種適用于決策可以改變下游結果的決策環境的學科。我們為我們的方法提供了理論分析,說明如何適當地量化不確定性。本論文提出的方法套件組成了一套用于模型構建、評估和公平性評估的負責任使用的工具包。

我們在§ 0.1中描述了問題設定和符號。接下來的三個部分考慮在缺失數據的性質不同假設下如何獲得有效的預測、評估和公平性評估。§ 1描述了當我們已經測量了所有共同影響決策和感興趣結果的混淆因素時的方法。在許多決策支持環境中,混淆因素可能難以在運行時測量并輸入到預測模型中,但在離線數據集中可能仍然可用于訓練和評估。§ 2為這種“運行時混淆”設置提供了方法。§ 3通過拉舍蒙效應的視角深入研究公平和公正的問題,拉舍蒙效應是一種實證現象,即多種模型在總體上達到可比較的好的表現,但在個別預測上卻明顯不同。§ 4描述了一個框架,用于在算法設計中審查有效性,并最終決定是否在高風險環境中部署一個工具。擴大我們的范圍到算法被訓練和使用的更廣泛的背景中,§ 5提出了一個對刑事司法系統中人類決策的種族偏見進行回顧性統計審計的方法。我們在本節提出的方法也展示了如何在對社會有重大影響的領域使用機器學習來評估這些系統以及在其中行使權力的行動者。我們將本論文中提出的工作與我們的三個指導原則:有效性、公平性和治理,聯系起來。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

異常檢測(AD)算法在需要量化風險的領域中被廣泛用于基于數據的決策支持,例如在公共健康保險中識別欺詐的醫療提供者、消費者貸款以及檢測人類腦電圖(EEG)記錄中的異常模式。然而,由于數據模態的多樣性(例如時間序列或結構數據)、數據規模、學習和評估的真實標簽不可用,以及為特定領域問題產生人類可解釋結果的難度,因此在決策支持中的AD具有挑戰性。本文提出了應對這些挑戰并構建具有以下期望屬性的智能檢測系統:無監督、可解釋、可擴展和公平。在整個過程中,我們提出了新穎的AD算法,通過解決特定領域的關鍵挑戰,如包括領域或專家知識、減少可能對少數群體產生不利影響的偏見,以及處理涉及一組行為者的異常行為,從而實現更好的決策支持。我們在公共醫療欺詐和健康監測方面展示了應用。

在這篇論文中,我研究了高風險領域(如公共健康和福祉、臨床決策支持、金融)基于數據的決策支持中的挑戰和機會。特別是,這篇論文重點研究了無監督和可解釋的異常檢測(AD)技術的開發,以增強人類的決策能力。無監督的AD技術識別罕見的事件和偏離描述正常行為的基礎數據分布的觀察。AD在需要量化風險的領域中有應用,例如在公共健康保險中識別欺詐的醫療提供者(Shekhar, Leder-Luis, and Akoglu, 2023)和檢測人類腦電圖(EEG)記錄中的異常模式(Lee, Shekhar, Faloutsos, Hutson, and Iasemidis, 2021)。然而,由于數據模態的多樣性(如時間序列或結構數據)和數據規模、學習和評估的真實標簽不可用,以及為特定領域問題產生人類可解釋結果的難度,因此在決策支持中的AD具有挑戰性。因此,論文的目標是建立具有以下有助于決策支持的期望屬性的智能檢測系統:1. 無監督檢測免除了人類專家費時的標記需求。2. 可解釋的工具對用戶友好,并幫助人類專家進行調查、驗證和決策。3. 公平的檢測避免了對邊緣化群體的不公正影響,因為AD的偏見可能導致因其作為統計上的少數群體而對社會少數群體(如種族、性別等)進行不公正的標記,而少數群體的身份并不代表風險。為了實現這一總體目標,論文工作分解為主要在異常檢測、可解釋的機器學習和決策支持的實際數據挖掘應用中作出貢獻的算法。

(A) 算法

第2章基于(Shekhar和Akoglu, 2018)提出了一個新穎的異常檢測方法,該方法利用特權信息來提高無監督學習方法的準確性。假設我們的目標是根據手術前可用的信息x估計手術三周后的風險性。經典的檢測器使用x學習標記風險病人的規則。但是,對于之前接受過手術的患者,存在關于手術期間的程序和并發癥的信息,或手術后的一兩周等。這種特定案例的知識的可用性相當普遍,而傳統的檢測器忽略了這些。由于這種領域知識只用于學習,而新的數據點(手術前的患者)不可用,所以它被稱為特權信息(PI)。我們分析了如何增加領域知識可以幫助異常檢測,不僅在測試時PI不可用(如傳統設置)時,而且當測試時策略性和自愿地避免使用PI時。我們展示了如何將PI整合到基于集成的檢測器中,并提出了SPI,它在特權空間構建知識框架/片段(特別是密度估計),并通過只使用測試示例可用的部分信息的“模仿”函數將它們轉移到異常評分空間。 第3章基于(Shekhar, Shah, 和 Akoglu, 2021)提出了一個框架,用于在確保數據集中的不同子組的公平性的同時檢測數據集中的異常。異常檢測器被設計成準確地發現數據中稀有、統計上的少數樣本,希望異常性反映風險性。對于一個由種族/民族/性別/年齡等定義的少數群體,樣本大小根據定義是小的,這與AD算法相矛盾。然而,當少數群體的身份(例如亞洲人)不反映正類的成員身份(例如欺詐)時,AD產生不公正的結果,過多地將來自少數群體的實例標記為異常。我們討論了AD中的偏見來源及其對少數群體的影響,以及哪些公平的概念適用于AD,這些概念可以減輕傳統AD中的偏見。公平AD的一個關鍵挑戰是缺乏評估的真實標簽。我們解決了公平AD的挑戰,并設計了FairOD,針對AD的公平標準,包括統計平等、治療平等和機會均等。

第4章基于(Lee, Shekhar, Faloutsos, Hutson, 和 Iasemidis, 2021)提出了一個新穎的、通用的框架GEN2OUT,用于發現和排名通用異常,以協助領域專家進行決策,例如,引起臨床醫生對癲癇患者的多變量EEG記錄中的奇異腦活動的注意。我們描述了在多變量時間序列數據中可能出現的通用(點和組)異常,例如在癲癇發作期間的EEG記錄,因為癲癇發作是一系列的時空活動爆發。本章設計了一個算法來分配和比較孤立尖峰和尖峰組的分數,允許檢測領域專家可能感興趣的可疑事件。

(B)應用

第5章基于(Shekhar, Leder-Luis和Akoglu, 2023)開發了檢測醫療過度開單或欺詐的新工具。美國聯邦政府每年在醫療保健上花費超過一萬億美元,這些主要由私人第三方提供并由政府報銷。在這一系統中,主要的關注點是供應商的過度開單、浪費和欺詐,因為他們面臨著為了獲得更高的支付而錯誤報告自己的索賠的激勵。我們開發了一個基于集成的無監督多視圖檢測器,使用大量的Medicare索賠數據,包括不同的模態 - 包括患者的醫療史、提供商的編碼模式和提供商的開銷 - 來檢測與欺詐一致的異常行為。我們結合了來自多個無監督異常檢測算法的證據,這些算法使用不同類型的全局和局部分析 - 估計醫院對患者支出的影響,識別醫院使用與常規不同的少數ICD代碼,以及比較醫院在DRGs上的分布與其同行 - 使用這些我們創建了一個最終的可疑性排名。第6章基于(Shekhar, Eswaran, Hooi, Elmer, Faloutsos和Akoglu, 2023),提出了一個可以幫助預測健康結果的框架。在醫療領域,描述ICU中患者的狀態可以幫助預測患者的健康結果,并允許醫院重新分配他們的資源給需要的患者,從而在相同的時間內總體上實現更好的健康結果。關鍵的因素是這種預測的準確性,因為錯誤地預測不利的健康結果(例如,撤回維持生命的治療)可能會妨礙ICU中的公平決策,并可能使醫院面臨非常昂貴的訴訟。我們與臨床醫生合作,更好地理解問題設置,并設計一個對專家做決策有用的解決方案。為此,本章引入了BENEFITTER,它通過成本/效益框架統一了早期和準確性 - 由于觀察更多的數據可以實現更好的預測準確性,這是相互競爭的目標 - 并共同優化預測的準確性和早期性。盡管事件檢測任務由于基礎應用數據的性質而受到監督,但重點是有效性和可解釋性。最終,我們不提議一個自主的算法,而是為專家提供比現在可能的更準確和更及時的信息,協助他們進行決策。

付費5元查看完整內容

由于越來越多的高維數據的可用性,最近在機器學習(ML)方面的發展已經重新定義了許多領域的決策制定。然而,由于缺乏高質量數據所導致的ML在決策制定中的不可靠性的斗爭尚未結束,并且在幾乎每一個應用中都是一個重要的障礙。這引起了一些問題,如 (i) 為什么ML方法在新環境中無法復制決策行為? (ii) 為什么ML為現有的專家決策提供不合理的解釋? (iii) 在嘈雜和高維的環境下,我們應該如何做出決策?許多這些問題可以歸因于缺乏一個有效且樣本高效的機器學習方法的基礎模型。本論文介紹了我們的研究努力,致力于在逆向強化學習和強化學習的領域開發模型正則化的ML來解決上述問題,應用于客戶/公司行為分析和投資組合優化。具體來說,通過應用來自合適模型的正則化,我們提出了針對兩個不同目標的方法:(i) 更好地理解和復制人類專家和企業的現有決策;(ii) 在可能沒有足夠的大量高質量數據的情況下,進行更好的順序決策,同時克服這一需求。

機器學習(ML)在許多領域重新定義了決策制定。尖端的ML方法被開發和應用于 (i) 理解現有的決策行為(在逆向強化學習或模仿學習領域)和 (ii) 進行更好的決策制定(在強化學習領域)。例如:? 在醫療領域,ML用于解釋醫生的診斷,甚至提供治療建議 [Komura 和 Ishikawa, 2019, Kononenko, 2001, Sajda, 2006]。 ? 在自主控制中,以ML為驅動的機器人和汽車可以從人類行為中學習 [Codevilla 等人, 2018, Hussein 等人, 2017],并處理各種任務 [Kober 等人, 2013, Shalev-Shwartz 等人, 2016]。 ? 在自然語言處理中,由ML方法訓練的聊天機器人可以與人交談,并回答人們的各種問題 [Cha, Gao 等人, 2022]。 ? 在金融領域,ML被用于理解金融市場和開發更好的交易策略 [Dixon 等人, 2020, Hambly 等人, 2021]。

ML成功的一個關鍵因素是大量的高質量決策數據 [Deng 等人, 2009, Fu 等人, 2020, Yu 等人, 2019b]。有了這些數據,ML模型可以擁有數百萬的參數,處理異質任務,并提供通用的靈活解決方案。然而,ML如何處理沒有足夠高質量數據的問題呢?在這類問題中,收集到的數據可能因為太少的種類而無法學到通用的結果 [Abbring, 2010, Fu 等人, 2017];由于數據收集成本高,數據量可能有限 [Berry 等人, 1996, Newman, 2002, Rust, 1987];數據可能天生就帶有噪音 [Goyal 和 Santa-Clara, 2003]。所有這些問題都迫切需要新的方法來減少ML對數據的高需求。

為了應對高質量數據的缺乏,我們的策略是利用經濟學和金融學中的決策模型。在本論文中,我們重點研究的兩個典型決策模型是動態離散選擇模型 [Aguirregabiria 和 Mira, 2010] 和連續時間金融模型 [Merton, 1969]。這些模型在解釋現有的決策制定和提供決策策略方面都有著悠久的成功歷史。我們的目標是使用這些模型來規范ML方法,使其能夠應對高質量決策數據的缺乏。

? 從方法論上講,我們從經濟和金融模型中導出規范化,并將此類規范化應用于ML方法。我們提出了新的逆向強化學習方法和強化學習方法。

? 從理論上講,我們通過漸進和有限樣本分析來分析所提議的模型規范化方法的性能和優勢。

? 從實證上講,通過使用合成和真實世界的實驗,展示了性能的改進,應用于客戶行為分析、公司行為分析和投資組合優化。

付費5元查看完整內容

隨著機器學習模型在各種應用中的部署越來越頻繁,我們越來越需要更好地理解、交互和調節它們的行為。解釋性機器學習是一個致力于這一需求的研究領域,其主要焦點最初在滿足有利于揭示有關模型預測的可能有用信息的算法屬性的方法論發展。然而,批評也強調了需要更為嚴謹地評估這些方法在不同用戶的具體任務中的應用。在這篇論文中,我們對該領域的方法論和應用方面做出了我們個人的貢獻。在方法論上,我們提出了一種有效的算法,通過影響力大的訓練數據點提供關于模型行為的重要信息。然后,我們提出了一種理論框架,以理解模型在性能和公平性指標上的權衡。接下來,從應用驅動的角度,我們討論了一個評估框架,測試現有的圖像顯著性方法是否適用于實際的假相關檢測任務。最后,受到學術同行評審中實際問題的啟發,我們展示了我們對新的和現有的方法在幫助人類用戶進行文檔匹配任務方面的效用的發現。

在計算機視覺和自然語言處理等實踐領域表現出色的復雜機器學習模型,越來越多地被用來協助人類進行高風險的決策,如醫療、金融、法律和社會應用。這種加速的采用使得人類用戶越來越需要更好地理解、調節和與這些模型交互。解釋性機器學習是一個致力于這一需求的廣泛研究領域。許多文獻中的工作側重于方法論的發展:開發新的滿足各種技術目標的方法,可以有效地從一個黑盒機器學習模型中引出重要和有用的信息。然而,這些方法使用的各種技術目標與引出的信息的實際“重要性”或“有用性”沒有明確的聯系,這本質上依賴于用戶使用信息進行某些下游任務。因此,基于具體應用對開發的方法進行評估,對于完全閉環開發具有實用價值的新方法至關重要。在這篇論文中,我們提出了對這個領域的方法論和應用重點方面的個人貢獻。

付費5元查看完整內容

如果我們做A, Y會怎樣?許多有意義的社會和工程問題可以這樣表述:如果病人接受一種新的療法,他們的健康會發生什么變化?如果政策制定者制定一項新稅,會對一個國家的經濟產生什么影響?如果使用新的擁塞控制協議,數據中心的延遲會發生什么變化?我們將探討如何使用觀測數據(由于數字化和無處不在的傳感器,觀測數據越來越多)和/或非常有限的實驗數據來回答這些反事實的問題。兩個關鍵挑戰是:(i)存在潛在混雜因素的反事實預測;(ii)用高維、噪聲和稀疏的現代數據集進行估計。我們介紹的關鍵框架是將因果推理與張量補全聯系起來。特別地,我們通過一個3階張量來表示感興趣的各種潛在結果(即反事實)。給出的主要理論結果是:(i)確定在什么張量的缺失模式、潛在混雜和結構下可能恢復未觀察到的潛在結果的形式化識別結果。(ii)引入新的估計量來恢復這些未觀察到的潛在結果,并證明它們是有限樣本一致和漸近正態的。最后,我們討論了矩陣/張量補全與時間序列分析之間的聯系;我們相信這可以作為反事實預測的基礎。//dspace.mit.edu/handle/1721.1/144576

付費5元查看完整內容

機器學習(ML)正在經歷一場范式的轉變——機器學習模型越來越多地被作為一種服務來提供,以自動化各種下游決策,而不是由機器學習專家對特定任務進行端到端的訓練和部署。例如,大型科技公司提供的圖片或文本分類API,被廣泛的第三方應用開發者使用,以及通過網站向數百萬用戶提供各種預測(如天氣、COVID、流量等),以幫助他們進行規劃。盡管這種新的范式通過使ML更廣泛地可訪問而使其民主化,但它引起了對可信性(用戶無法看到他們是如何被訓練的以及他們的失敗模式)和性能(預測模型不再為特定的下游任務量身定做)的擔憂。本文通過以下方法來解決這些問題:

貢獻1。提出了一種新的方法,通過精確的不確定性量化,向下游決策者傳遞信心,后者將對(高風險)決策進行預測。精確的不確定性量化可以通過預測相關結果的真實概率(例如給定癥狀的病人患病的真實概率)來實現。雖然在大多數情況下,準確地輸出這些概率是不可能的,但對于大型決策任務,學習與真實概率難以區分的概率卻是驚人的可能。不可區分性保證了決策者的可靠性,因為在他們的決策任務中,他們不應該能夠區分預測概率和真實概率之間的區別。作為一個應用程序,我開發了一些預測模型,如醫療診斷、航班延誤預測和貧困預測等領域。我展示了通過使用我的方法,決策者可以自信地做出導致良好結果的決策。

貢獻2。發展一種新的信息理論,以嚴格推理和優化ML預測在廣泛的決策任務中的“有用性”。香農信息理論在機器學習中有著廣泛的應用,但在處理復雜的學習和決策任務時存在一些局限性。例如,考慮從對手攔截的安全加密消息數據集。根據信息論,這些加密信息與對手的計劃具有高度的互信息,而任何計算有界的決策者都不能利用這些信息。為了解決這些局限性,我提出了一個新的框架,稱為“效用信息理論”,它概括了香農熵、信息和散度,以解釋知識或建模能力有限的決策者將如何使用信息。作為一個應用,我將新的信息應用于貝葉斯優化問題,并顯示了比使用香農信息的當前方法在樣本效率方面的數量級改進。

付費5元查看完整內容

在構建機器學習管道時,一些常見的假設是:(1)訓練數據足夠 "干凈",表現良好,因此很少或沒有離群值,或者數據的分布沒有長尾,(2)測試數據遵循與訓練數據相同的分布,以及(3)數據產生于或接近于一個已知的模型類,如線性模型或神經網絡。

然而,隨著計算機、互聯網和各種基于傳感器的技術更容易獲得,科學和工程的各個分支中出現的現代數據集不再是精心策劃的,往往是以分散的、分布式的方式收集。因此,它們受到異質性、對抗性操作和異常值等復雜因素的困擾。隨著我們進入這個臟的數據時代,上述的機器學習管道的假設越來越站不住腳。

對于機器學習的廣泛采用,我們認為任何模型都必須具備以下三個基本要素:

  • 穩健性。該模型即使在有噪音和損壞的數據下也能被訓練。

  • 可信賴。在訓練結束后,當在現實世界中部署時,該模型在分布的良性變化下不應該崩潰。

  • 有彈性。建模程序應該在模型錯誤指定的情況下工作,也就是說,即使建模假設崩潰,模型也應該找到可能的最佳解決方案。

在這篇論文中,我們的目標是修改最先進的ML技術并設計新的算法,使其即使在沒有上述假設的情況下也能工作,并且是穩健、可信和有彈性的。我們的貢獻如下。

在第二章中,我們提供了一類新的統計最優估計器,這些估計器對各種環境是穩健的,如任意污染和重尾數據等。

在第三章中,我們用一類新的計算效率高的穩健風險最小化估計器來補充我們的統計最優估計器。這些結果為一般的統計模型,如線性回歸、邏輯回歸等,提供了一些最早的可計算的、可證明的穩健估計器。

在第四章中,我們研究了在基礎分布中的一些樣本可能被任意破壞的情況下學習Ising模型的問題。

最后,在第五章,我們討論了我們的結果對現代機器學習的影響。

付費5元查看完整內容

從教育到招聘,社會中的重要決策越來越依賴于數據驅動的算法。然而,算法決策的長期影響在很大程度上沒有得到充分理解,在理論和實踐中,確保公平利益存在嚴重挑戰。在本文中,我從兩個角度考察了機器學習算法的社會動力學:(I)算法決策的長期公平性,以及(ii)匹配市場的長期穩定性。

在計算機科學中,算法公平這個主題受到了廣泛的關注,但最近才認識到算法可以通過各種動態機制對種群產生不同的影響。我們通過提出機器學習算法和感興趣群體的動態交互的兩種不同模型來促進這一不斷發展的理解。首先,我們引入了延遲影響的概念——決策結果被觀察后,決策算法對人口的福利影響,其動機是,例如,在應用新的貸款批準算法后,平均信用分數的變化。我們證明了研究界提出的公平機器學習的幾個統計標準,如果應用于決策約束,可能會對弱勢群體的福利造成損害。t,我們考慮一個動態的環境,在這個環境中,個人投資于一個基于算法決策規則的預期回報的積極結果。我們表明,不良的長期結果是由于群體間的異質性和缺乏可實現性而產生的,并研究了干預措施的有效性,如按群體“脫鉤”決策規則和提供補貼。

除了長期公平的問題,利用機器學習為社會造福面臨的另一個挑戰是社會選擇。在市場中,個人學習目標(通常是構想出來的)可能與實現有效市場結果的長期社會目標相沖突。受在線市場和平臺中重復匹配問題的激勵,我們研究了雙邊匹配市場,參與者重復匹配,并通過匹配獲得關于其偏好的不完全信息。由于競爭,一個參與者試圖了解自己的偏好可能會影響其他參與者的效用。我們為市場平臺設計了一種機器學習算法,使市場作為一個整體能夠足夠有效地學習他們的偏好,從而快速獲得稱為穩定的市場公平概念。此外,我們研究了上述問題的分散化版本,并設計了參與者的學習算法,以在給定過去數據的情況下戰略性地避免競爭,從而消除了對中央平臺的需要。我們還研究了具有獨立行動誘惑的策略參與者是否仍應遵循算法的建議,結果顯示了算法的激勵兼容性方面的幾個積極結果。

//www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-41.pdf

付費5元查看完整內容

隨著越來越多的優化和人工智能(AI)方法用于輔助高風險的現實生活決策,公平已經成為這些工具的設計者和用戶考慮的一個基本因素。本文研究的是制定、實現和引出公平的新途徑。第一章通過優化模型研究公平與效率的平衡。我們提出新的社會福利函數(SWFs)作為羅爾斯法則公平性和功利主義兩大著名標準的綜合衡量。然后,我們設計了一個程序,用混合整數/線性規劃模型順序地最大化這些SWFs,以找到社會最優解。該方法具有廣泛的資源分配應用的實際潛力,并在醫療保健提供和災害準備避難所分配的實際規模應用中得到了證明。第二章考慮了一個由公平機器學習驅動的優化任務。在開發公平的ML算法時,了解公平的計算代價與標準的不公平設置相比是很有用的。對于利用優化模型進行訓練的公平ML方法,專門的優化算法可能比通用求解器提供更好的計算性能。在本章中,我將探討支持向量機(SVM)的這個問題,并設計塊坐標下降型算法來訓練包含線性公平性約束的SVM。數值實驗表明,在訓練公平支持向量機方面,新的專門算法比現成的求解器更有效。

第三章探討了優化作為人工智能系統中基于福利的公平正式化的一般范式。與公平人工智能中常用的統計偏差指標相反,優化社會福利目標支持基于分配正義考慮的更廣泛的公平視角。我們提出了社會福利優化和人工智能,特別是機器學習之間的處理中和處理后的集成方案。我們以按揭貸款處理為動機,進行個案研究,以評估整合方案的有效性。接下來的兩章探討了以人為中心的觀點,以引出人們的公平偏好,即了解在不同的決策環境下人們認為什么是公平。第四章從揭示的偏好出發,研究了基于在線學習(OL)的一般偏好學習框架:學習者在變化的環境中通過相互作用學習代理的私人效用函數。通過設計一個新的凸損失函數,我們設計了一個靈活的OL框架,可以統一處理文獻中常見的損失函數,并支持各種在線凸優化算法。該框架在后悔性能和求解時間方面優于文獻中的其他OL算法。最后,第五章研究了資源順序配置過程中人們動態倫理判斷的建模和引出問題。我們利用馬爾可夫決策過程(MDP)模型來表示順序分配任務,其中國家獎勵捕獲了人們的道德偏好,從而人們的道德判斷通過政策獎勵反映出來。我們設計了一個偏好推理模型,它依賴于基于主動偏好的獎勵學習來推斷未知的獎勵函數。將該學習框架應用于Amazon Mechanical Turk的人-被試實驗,以理解人們在分配稀缺醫療資源的假設情景下的道德推理。

//www.cmu.edu/tepper/programs/phd/program/assets/dissertations/2022-operations-research-chen-violet-dissertation.pdf

付費5元查看完整內容

機器學習正在醫療健康等各種關鍵應用得到實施。為了能夠信任機器學習模型,并在它出現故障時修復它,能夠解釋它的決策是很重要的。例如,如果一個模型在特定的子群體(性別、種族等)上的表現很差,找出原因并解決它是很重要的。在本文中,我們研究了現有可解釋性方法的不足,并介紹了新的ML可解釋性算法,旨在解決一些不足。數據是訓練機器學習模型的材料。如果不返回最初訓練ML模型的數據,就不可能解釋ML模型的行為。一個基本的挑戰是如何量化每個數據源對模型性能的貢獻。例如,在醫療健康和消費市場,有人提出個人應因其產生的數據而得到補償,但對個人數據的公平估值尚不清楚。在本文中,我們討論了數據公平價值評估的原則框架; 也就是說,給定一個學習算法和一個性能度量來量化結果模型的性能,我們試圖找到單個數據的貢獻。本論文分為3個部分,機器學習的可解釋性和公平性,數據估值,以及用于醫療健康的機器學習——所有這些都被一個共同的目標聯系在一起,即使機器學習的使用對人類的福祉更負責。

//searchworks.stanford.edu/view/13874839

付費5元查看完整內容
北京阿比特科技有限公司