從教育到招聘,社會中的重要決策越來越依賴于數據驅動的算法。然而,算法決策的長期影響在很大程度上沒有得到充分理解,在理論和實踐中,確保公平利益存在嚴重挑戰。在本文中,我從兩個角度考察了機器學習算法的社會動力學:(I)算法決策的長期公平性,以及(ii)匹配市場的長期穩定性。
在計算機科學中,算法公平這個主題受到了廣泛的關注,但最近才認識到算法可以通過各種動態機制對種群產生不同的影響。我們通過提出機器學習算法和感興趣群體的動態交互的兩種不同模型來促進這一不斷發展的理解。首先,我們引入了延遲影響的概念——決策結果被觀察后,決策算法對人口的福利影響,其動機是,例如,在應用新的貸款批準算法后,平均信用分數的變化。我們證明了研究界提出的公平機器學習的幾個統計標準,如果應用于決策約束,可能會對弱勢群體的福利造成損害。t,我們考慮一個動態的環境,在這個環境中,個人投資于一個基于算法決策規則的預期回報的積極結果。我們表明,不良的長期結果是由于群體間的異質性和缺乏可實現性而產生的,并研究了干預措施的有效性,如按群體“脫鉤”決策規則和提供補貼。
除了長期公平的問題,利用機器學習為社會造福面臨的另一個挑戰是社會選擇。在市場中,個人學習目標(通常是構想出來的)可能與實現有效市場結果的長期社會目標相沖突。受在線市場和平臺中重復匹配問題的激勵,我們研究了雙邊匹配市場,參與者重復匹配,并通過匹配獲得關于其偏好的不完全信息。由于競爭,一個參與者試圖了解自己的偏好可能會影響其他參與者的效用。我們為市場平臺設計了一種機器學習算法,使市場作為一個整體能夠足夠有效地學習他們的偏好,從而快速獲得稱為穩定的市場公平概念。此外,我們研究了上述問題的分散化版本,并設計了參與者的學習算法,以在給定過去數據的情況下戰略性地避免競爭,從而消除了對中央平臺的需要。我們還研究了具有獨立行動誘惑的策略參與者是否仍應遵循算法的建議,結果顯示了算法的激勵兼容性方面的幾個積極結果。
//www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-41.pdf
機器學習(ML)系統的規模正在迅速增長,正在獲得新的能力,并越來越多地部署在高風險的環境中。為了滿足對安全ML系統日益增長的需求,我首先討論如何使系統可靠地執行。之后,我將討論如何使系統的行為符合人類的價值觀。最后,我討論了如何使ML系統更安全的開放問題。
//www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-133.html
在這篇論文中,我們的目標是幫助塑造將促使強大的人工智能系統的過程,并將過程引導到更安全的方向。我們通過讓深度學習系統更安全來做到這一點,因為深度學習的工作可能會轉化為未來的系統。我們總結我們的發現并討論一般的教訓。
在第2章中,我們首先展示了上游功能可以提高安全性。特別是,自監督學習和預訓練可以改善許多安全指標。我們還表明,在大規模設置的尺度異常檢測方法可能存在挑戰。然后,我們展示了大規模的NLP模型在許多安全指標上有很高的性能。接下來,我們展示了盡管視覺模型在很多方面都有能力,但它們仍然可以很容易地通過反向策劃的例子被打破。在下一節中,我們將展示,即使在穩健性中,我們也可以在不改進一般功能的情況下改進安全度量。最后,PixMix表明,一個方法可以在多個安全指標方面接近帕累托最優。在第三章中,我們展示了模型可以模仿人類對規范性陳述的反應,而不僅僅是描述性陳述。這讓我們能夠將帶有道德知識的模型應用于基于文本的互動游戲中。這些模型過濾了其他主體模型,并阻止主體模型采取道德上不受歡迎的行為。這一切都是在沒有提高一般游戲能力的情況下完成的。
在第4章中,我們整合并完善了在以前的論文中探索的各個方向,為提高安全性提供了一個路線圖。本節介紹了“系統安全”,它明確承認社會技術考慮對于提高安全性是必要的。它還將對齊與其他不同的研究目標(如魯棒性和監控)分離開來。通過提供許多可供研究的問題,希望更多的研究人員能夠致力于提高安全性。最后,我們列舉了許多使機器學習系統更安全的新方向。這些都是讓未來強大的人工智能系統更安全的中間步驟。隨著模型的能力越來越強,我們希望研究界能夠更直接地研究先進人工智能系統的尾部風險,包括可能永久削弱人類長期潛力的風險。
隨著越來越多的優化和人工智能(AI)方法用于輔助高風險的現實生活決策,公平已經成為這些工具的設計者和用戶考慮的一個基本因素。本文研究的是制定、實現和引出公平的新途徑。第一章通過優化模型研究公平與效率的平衡。我們提出新的社會福利函數(SWFs)作為羅爾斯法則公平性和功利主義兩大著名標準的綜合衡量。然后,我們設計了一個程序,用混合整數/線性規劃模型順序地最大化這些SWFs,以找到社會最優解。該方法具有廣泛的資源分配應用的實際潛力,并在醫療保健提供和災害準備避難所分配的實際規模應用中得到了證明。第二章考慮了一個由公平機器學習驅動的優化任務。在開發公平的ML算法時,了解公平的計算代價與標準的不公平設置相比是很有用的。對于利用優化模型進行訓練的公平ML方法,專門的優化算法可能比通用求解器提供更好的計算性能。在本章中,我將探討支持向量機(SVM)的這個問題,并設計塊坐標下降型算法來訓練包含線性公平性約束的SVM。數值實驗表明,在訓練公平支持向量機方面,新的專門算法比現成的求解器更有效。
第三章探討了優化作為人工智能系統中基于福利的公平正式化的一般范式。與公平人工智能中常用的統計偏差指標相反,優化社會福利目標支持基于分配正義考慮的更廣泛的公平視角。我們提出了社會福利優化和人工智能,特別是機器學習之間的處理中和處理后的集成方案。我們以按揭貸款處理為動機,進行個案研究,以評估整合方案的有效性。接下來的兩章探討了以人為中心的觀點,以引出人們的公平偏好,即了解在不同的決策環境下人們認為什么是公平。第四章從揭示的偏好出發,研究了基于在線學習(OL)的一般偏好學習框架:學習者在變化的環境中通過相互作用學習代理的私人效用函數。通過設計一個新的凸損失函數,我們設計了一個靈活的OL框架,可以統一處理文獻中常見的損失函數,并支持各種在線凸優化算法。該框架在后悔性能和求解時間方面優于文獻中的其他OL算法。最后,第五章研究了資源順序配置過程中人們動態倫理判斷的建模和引出問題。我們利用馬爾可夫決策過程(MDP)模型來表示順序分配任務,其中國家獎勵捕獲了人們的道德偏好,從而人們的道德判斷通過政策獎勵反映出來。我們設計了一個偏好推理模型,它依賴于基于主動偏好的獎勵學習來推斷未知的獎勵函數。將該學習框架應用于Amazon Mechanical Turk的人-被試實驗,以理解人們在分配稀缺醫療資源的假設情景下的道德推理。
近年來,現代網絡應用的技術和服務取得了重大進展,包括智能電網管理、無線通信、網絡安全以及多智能體自主系統。考慮到網絡實體的異構性質,新興的網絡應用程序需要博弈論模型和基于學習的方法,以創建分布式網絡智能,以響應動態或對抗環境中的不確定性和中斷。
本文闡述了網絡、博弈和學習的融合,為理解網絡上的多智能體決策奠定了理論基礎。我們在隨機近似理論的框架內提供了博弈論學習算法的選擇性概述,以及在現代網絡系統的一些代表性環境中的相關應用,例如下一代無線通信網絡、智能電網和分布式機器學習。除了現有的關于網絡上的博弈論學習的研究工作外,我們還強調了與人工智能的最新發展相關的博弈學習的幾個新角度和研究工作。一些新的角度是從我們自己的研究興趣中推斷出來的。本文的總體目標是讓讀者清楚地了解在網絡系統背景下采用博弈論學習方法的優勢和挑戰,并進一步確定理論和應用研究方面富有成果的未來研究方向。
網絡上的多智能體決策最近吸引了來自系統和控制界的呈指數增長的關注。該領域在工程、社會科學、經濟學、城市科學和人工智能等各個領域獲得了越來越大的發展勢頭,因為它是研究大型復雜系統的普遍框架,并被廣泛應用于解決這些領域中出現的許多問題。例如社交網絡分析 [1]、智能電網管理 [2, 3]、交通控制 [4]、無線和通信網絡 [5-7]、網絡安全 [8,9] 以及多智能體自主系統[10]。
由于現代網絡應用中先進技術和服務的激增,解決多智能體網絡中的決策問題需要能夠捕捉新興網絡系統的以下特征和自主控制設計的新模型和方法:
博弈論為解決這些挑戰提供了一套自然的工具和框架,并將網絡連接到決策制定。它需要開發數學模型,以定性和定量地描述具有不同信息和理性的自利行為體之間的相互作用是如何達到一個全局目標或導致在系統水平上出現行為的。此外,通過底層網絡,博弈論模型捕獲了拓撲結構對分布式決策過程的影響,在分布式決策過程中,智能體根據其目標和可獲得的局部信息(如對其鄰居的觀察)獨立規劃其行動。
除了網絡上的博弈論模型之外,在為網絡系統設計分散管理機制時,學習理論也是必不可少的,以便為網絡配備分布式智能。通過博弈論模型和相關學習方案的結合,這種網絡智能允許異構智能體相互進行戰略性交互,并學會對不確定性、異常和中斷做出響應,從而在網絡或最優系統上產生所需的集體行為模式級性能。這種網絡智能的關鍵特征是,即使每個智能體自己的決策過程受到其他決策的影響,智能體也會以在線和分散的方式達到均衡狀態,即我們稍后將闡明的納什均衡.為了給網絡配備分布式智能,聯網智能體應該通過在他們可能不知道的大型網絡上通過有限的局部觀察來適應動態環境。在計算上,分散式學習可以有效地擴展到大型和復雜的網絡,并且不需要關于整個網絡的全局信息,這與集中式控制法則相比更實用。
本文闡述了網絡、博弈和學習的融合,為理解網絡上的多智能體決策奠定了理論基礎。
圖 1:網絡、博弈和學習的融合。博弈論建模和學習理論的結合為各種網絡系統帶來了彈性和敏捷的網絡控制。
我們的目標是對博弈論學習方法及其在網絡問題中的應用提供系統的處理,以滿足上述三個要求。如圖 1 所示,新興的網絡應用需要新的方法,并且由于分散的性質,博弈論模型以及相關的學習方法為解決來自各個領域的網絡問題提供了一種優雅的方法。具體來說,我們的目標有三個:
我們的目標是讓讀者清楚地了解在網絡系統的背景下采用新穎的博弈論學習方法的優勢和挑戰。除了突出顯示的內容外,我們還為讀者提供了進一步閱讀的參考。在本文中,完全信息博弈是本課題的基礎,我們將簡要介紹靜態博弈和動態博弈。關于這個主題的更全面的處理以及其他博弈模型,例如不完全信息博弈,可以在 [11-13] 中找到。由于大多數網絡拓撲可以通過博弈的效用函數結構來表征 [1, 14],因此我們沒有闡明網絡拓撲對博弈本身的影響。相反,我們關注它對博弈學習過程的影響,其中玩家的信息反饋取決于網絡結構,我們展示了具有代表性的網絡應用程序來展示這種影響。我們推薦讀者參考 [1,14] 以進一步閱讀各種網絡上的博弈。
我們的討論結構如下。在第 2 節中,我們介紹了非合作博弈和相關的解決方案概念,包括納什均衡及其變體,它們記錄了自利參與者的戰略互動。然后,在第 3 節,我們轉向本文的主要焦點:在收斂到納什均衡的博弈學習動態。在隨機逼近框架內,提供了各種動力學的統一描述,并且可以通過常微分方程(ODE)方法研究分析性質。在第 4 節中,我們討論了這些學習算法在網絡中的應用,從而導致了網絡系統的分布式和基于學習的控制。最后,第 5 節總結了本文。
摘 要
人工智能體在我們的世界中的流行提高了確保它們能夠處理環境的顯著屬性的需求,以便計劃或學習如何解決特定任務。
第一個重要方面是現實世界的問題不限于一個智能體,并且通常涉及在同一環境中行動的多個智能體。此類設置已被證明難以解決,其中一些示例包括交通系統、電網或倉庫管理。此外,盡管許多問題域固有地涉及多個目標,但這些多智能體系統實現中的大多數旨在優化智能體相對于單個目標的行為。通過對決策問題采取多目標視角,可以管理復雜的權衡;例如,供應鏈管理涉及一個復雜的協調過程,用于優化供應鏈所有組件之間的信息和物質流。
在這項工作中,我們關注這些突出的方面,并討論當涉及多個智能體時,如何將人工智能體的決策和學習過程形式化,并且在該過程中需要考慮多個目標。為了分析這些問題,我們采用了基于效用的觀點,主張在相互競爭的目標之間做出妥協,應該基于這些妥協對用戶的效用,換句話說,它應該取決于結果的可取性。
我們對多目標多智能體決策 (MOMADM) 領域的分析表明,迄今為止該領域已經相當分散。因此,對于如何識別和處理這些設置還沒有統一的看法。作為第一個貢獻,我們開發了一種新的分類法來對 MOMADM 設置進行分類。這使我們能夠提供該領域的結構化視圖,清楚地描述當前多目標多智能體決策方法的最新技術,并確定未來研究的有希望的方向。
在多目標多智能體系統的學習過程中,智能體接收一個值列表,每個分量代表不同目標的性能。在自利智能體人的情況下(即,每個人都可能對目標有不同的偏好),在相互沖突的利益之間尋找權衡變得非常簡單。作為第二個貢獻,我們繼續分析和研究不同多目標優化標準下的博弈論均衡,并提供有關在這些場景中獲得此類解決方案的存在和條件的理論結果。我們還表明,在某些多目標多智能體設置中,納什均衡可能不存在。
當決策過程中的每個參與者都有不同的效用時,智能體了解其他人的行為就變得至關重要。作為最后的貢獻,我們首次研究了對手建模對多目標多智能體交互的影響。我們提供了新穎的學習算法,以及將對手行為建模和學習與對手學習意識相結合的擴展(即,在預測一個人對對手學習步驟的影響的同時進行學習)。實證結果表明,對手的學習意識和建模可以極大地改變學習動態。當存在納什均衡時,對手建模可以為實現它的智能體帶來顯著的好處。當沒有納什均衡時,對手學習意識和建模允許智能體仍然收斂到有意義的解決方案。
提 綱
1 引言
1.1 多智能體與多目標 1.2 激勵示例 1.3 研究目標和貢獻 1.3.1 貢獻 1.4 論文結構
2 多目標多智能體系統
2.1 強化學習 2.1.1 基于價值的方法 2.1.2 策略梯度和演員評論家 2.2 多智能體決策理論 2.2.1 標準形式博弈與均衡 2.3 單智能體多目標決策 2.3.1 工具函數 2.3.2 多目標優化標準 2.3.3 應用案例場景 2.4 多智能體多目標決策 2.4.1 多目標隨機博弈 2.4.2 特殊案例模型 2.4.3 多目標標準博弈 2.4.4 MONFG優化標準 2.5 總結
3 構建多目標多智能體決策域
3.1 執行階段 3.1.1 團隊獎勵 3.1.2 個體獎勵 3.2 解決方案概念 3.2.1 策略 3.2.2 覆蓋集合 3.2.3 均衡 3.2.4 ε近似納什均衡 3.2.5 聯盟形式與穩定概念 3.2.6 社會福利與機制設計 3.2.7 其他解決方案的概念 3.3 總結
4 多目標多智能體場景均衡
4.1 MONFG計算均衡 4.1.1 定義 4.1.2 理論分析 4.1.3 用于SER分析的附加博弈 4.2 實驗 4.2.1 Game 1 - The (Im)balancing Act Game 4.2.2 Game 2 - The (Im)balancing Act Game without action M 4.2.3 Game 3 - A 3-action MONFG with pure NE 4.3 總結
5 多目標多智能體場景中的對手建模
5.1 背景 5.1.1 對手建模 5.2 MONFG中的對手建模 5.2.1 對手學習意識和建模使用高斯過程 5.2.2 MONFG評價器 5.2.3 MONFG策略梯度方法 5.3 實驗設置與結果 5.3.1 完整信息設置 - MO-LOLA vs. MO-LOLA 5.3.2 無信息設置 5.4 總結
6 結論
6.1 討論 6.2 未來研究方向
6.2.1 優化標準和解決方案概念 6.2.2 ESR計劃、強化學習與SER博弈論 6.2.3 對手建模和建模對手效用 6.2.4 互動研究方法 6.2.5 深度多目標多智能體決策 6.2.6 更廣泛的適用性
【作者簡介】
Solon Barocas:微軟研究紐約實驗室首席研究員,康奈爾大學信息科學系兼職助理教授,哈佛大學伯克曼·克萊因互聯網與社會中心教員助理。目前的研究探索了人工智能中的倫理和政策問題,特別是機器學習中的公平性,將問責制引入自動化決策的方法,以及推理的隱私影響。與人共同創辦了機器學習中的公平、問責和透明度研討會(FAT/ML),建立了ACM的公平、問責和透明度會議(FAccT)。
Moritz Hardt:加州大學伯克利分校電氣工程和計算機科學系的助理教授。研究算法和機器學習,重點關注可靠性、有效性和社會影響。在獲得普林斯頓大學計算機科學博士學位后,他曾在 IBM Research Almaden、Google Research 和 Google Brain 任職。
Arvind Narayanan:普林斯頓大學計算機科學副教授。研究與有關人員的大型數據集相關的風險:匿名、隱私和偏見。領導普林斯頓網絡透明度和問責制項目,以揭示公司如何收集和使用我們的個人信息。博士研究表明了去識別化的基本局限性。共同創建了一個大規模開放在線課程以及一本關于比特幣和加密貨幣技術的教科書。Narayanan 是總統科學家和工程師早期職業獎的獲得者。
【書稿簡介】
這本書給出了一個關于機器學習的觀點,它將公平視為一個核心問題,而不是事后的想法。我們將以突出道德挑戰的方式回顧機器學習的實踐。然后,我們將討論緩解這些問題的方法。 我們的目標是讓本書盡可能地廣泛普及,同時保持技術嚴謹性并解決算法決策中出現的困難道德問題。
這本書不會對公平有一個包羅萬象的正式定義,也不會對社會對自動化決策的擔憂進行快速的技術解決。解決公平問題需要仔細了解機器學習工具的范圍和局限性。本書對當前的機器學習實踐進行了批判性分析,并提出了實現公平的技術修復。它沒有提供任何簡單的答案。盡管如此,我們希望您會發現這本書在深入了解如何負責任地練習機器學習方面既有趣又有用。
為什么現在?
機器學習在從視頻監控到自動簡歷篩選等社會技術系統方面取得了快速進展。與此同時,公眾對數字技術對社會的影響也越來越關注。
這兩種趨勢導致社會技術系統作為研究領域的公平、問責、透明度迅速出現。雖然令人興奮,但這導致了術語的激增、重新發現和同時發現、學科觀點之間的沖突以及其他類型的混淆。
本書旨在通過將長期存在的知識體系(例如因果推理)與社區最近的工作相結合,并加入我們自己的一些觀察,從而推動對話向前發展。
這本書是怎么來的?
在 2017 年秋季學期,三位作者分別教授了機器學習中的公平和道德課程:康奈爾大學的巴羅卡斯、伯克利的哈特和普林斯頓大學的納拉亞南。我們每個人都從不同的角度來探討這個話題。我們還介紹了兩個教程:NIPS 2017 上的 Barocas 和 Hardt,以及 FAT* 2018 上的 Narayanan。這本書源于我們為這三個課程創建的筆記,是我們之間持續對話的結果。
這本書用戶是誰? 我們編寫這本書的目的是為了對多位讀者有用。您可能是機器學習的學生或實踐者,在日常工作中面臨道德問題。您也可能是一名倫理學者,希望將您的專業知識應用于新興技術的研究。或者你可能是一個關心自動化系統將如何塑造社會的公民,并且想要比你從新聞報道中獲得的更深入的了解。
我們假設您熟悉介紹性計算機科學和算法。了解如何編碼并不是閱讀本書所必需的,但可以讓你充分利用它。我們還將假設您熟悉基本統計數據和概率。在整本書中,我們將包括指向這些主題的介紹性材料的指針。
另一方面,您不需要任何機器學習知識來閱讀本書:我們包含了一個介紹基本機器學習概念的附錄。我們還提供了關于公平背后的哲學和法律概念的基本討論。
這本書里有什么? 本書有意縮小范圍:您可以在此處查看大綱。這本書的大部分內容都是關于公平的,但我們包括一章這涉及到一些相關的概念:隱私、可解釋性、可解釋性、透明度和問責制。我們忽略了關于機器學習和人工智能的大量倫理問題,包括自動化導致的勞動力流失、對抗性機器學習和人工智能安全。
同樣,我們討論了狹義的公平決策中的公平干預。我們承認干預可能采取許多其他形式:制定更好的政策、改革機構或顛覆社會的基本結構。
機器學習倫理的狹隘框架可能會吸引技術人員和企業作為一種專注于技術干預同時回避有關權力和問責制的更深層次問題的方式。我們告誡不要這種誘惑。例如,減少人臉識別系統準確性方面的種族差異雖然很有價值,但并不能替代關于此類系統是否應該部署在公共場所以及我們應該實施什么樣的監督的辯論。
【書稿提綱】 1 介紹
2 分類
引入正式的非歧視標準,建立它們之間的關系,并說明它們的局限性。
3 法律背景和規范性問題
我們調查了法律、社會學和哲學中關于歧視的文獻。然后,我們將討論在將這些公平理念轉化為統計決策設定時所面臨的挑戰。
4 因果關系
我們深入研究了因果推理的豐富技術庫,以及它如何幫助闡明和解決分類范式的缺點,同時提出新的概念和規范問題。
5 在實踐中測試歧視
我們將歧視測試系統化,并討論將它們應用于傳統決策系統和算法系統的實際復雜性。
6 更廣泛的歧視觀
我們回顧了社會中的結構性、組織性和人際歧視,機器學習如何與它們相互作用,并討論了一系列廣泛的潛在干預措施。
7 數據集
數據集是機器學習研究和開發的支柱。我們批判性地檢查他們的角色、與數據相關的危害,并調查數據實踐中的改進。
8 算法干預
我們調查并系統化了一組新興的算法干預,旨在促進公平,同時強調這種范式的局限性。
@book{barocas-hardt-narayanan,
title = {Fairness and Machine Learning}, author = {Solon Barocas and Moritz Hardt and Arvind Narayanan}, publisher = {fairmlbook.org}, note = {\url{//www.fairmlbook.org}}, year = {2019} }
隨著機器學習模型越來越多地用于做出涉及人類的重大決策,重要的是,這些模型不能因為種族和性別等受保護的屬性而歧視。然而,模型持有人并不是受到歧視性模型傷害的首當其沖的人,因此模型持有人修復歧視性模型的自然動機很少。因此,如果其他實體也能發現或減輕這些模型中的不公平行為,將對社會有益。只需要對模型進行查詢訪問的黑盒方法非常適合這個目的,因為它們可以在不知道模型的全部細節的情況下執行。
在這篇論文中,我考慮了三種不同形式的不公平,并提出了解決它們的黑盒方法。第一個是代理使用,模型的某些組件是受保護屬性的代理。其次是個體公平性的缺乏,這使模型不應該做出任意決定的直覺觀念形式化。最后,模型的訓練集可能不具有代表性,這可能導致模型對不同的保護組表現出不同程度的準確性。對于這些行為中的每一個,我提出使用一個或多個方法來幫助檢測模型中的此類行為或確保缺乏此類行為。這些方法只需要對模型的黑箱訪問,即使模型持有者不合作,它們也能有效地使用。我對這些方法的理論和實驗分析證明了它們在這種情況下的有效性,表明它們是有用的技術工具,可以支持對歧視的有效回應。
在過去的十年里,神經網絡在視覺、語音、語言理解、醫學、機器人和游戲等領域取得了驚人的成果。人們原本以為,這種成功需要克服理論上存在的重大障礙。畢竟,深度學習優化是非凸的、高度非線性的、高維的,那么我們為什么能夠訓練這些網絡呢?在許多情況下,它們擁有的參數遠遠多于記憶數據所需的參數,那么為什么它們能夠很好地推廣呢?盡管這些主題已經占據了機器學習研究領域的大部分注意力,但當涉及到更簡單的模型時,神經網絡領域的原則是先數據訓練再說。顯然,這招奏效了。
//www.cs.toronto.edu/~rgrosse/courses/csc2541_2021/
結果,神經網絡的實際成功已經超過了我們理解它們如何工作的能力。這門課是關于開發概念工具來理解當神經網絡訓練時會發生什么。其中一些思想早在幾十年前就已經形成了(可能已經被社區的大部分人遺忘了),而另一些思想今天才剛剛開始被理解。我將試圖傳達我們最好的現代理解,盡管它可能不完整。
這門課從優化中汲取靈感,它不是一門優化課。一方面,優化的研究通常是指令性的,從優化問題的信息和明確定義的目標(如在特定規范下快速收斂)開始,并找出保證實現該目標的計劃。對于現代神經網絡來說,分析通常是描述性的: 采用在使用的程序,并找出它們(似乎)有效的原因。希望這種理解能讓我們改進算法。
與優化研究的另一個區別是,目標不是簡單地擬合一個有限的訓練集,而是一般化。盡管神經網絡有巨大的能力,但為什么它能泛化與訓練的動態密切相關。因此,如果我們從優化中引入一個想法,我們不僅需要考慮它是否會更快地最小化成本函數,還需要考慮它是否以一種有利于泛化的方式實現。
這類應用不會為您提供在ImageNet上實現最先進性能的方法。它也不是那種為了證明定理而去證明定理的理論課。相反,我們的目的是為您提供概念性工具,以便您在任何特定情況下推斷出影響訓練的因素。
除了讓你的網絡更好地訓練之外,學習神經網絡訓練動力學的另一個重要原因是,許多現代架構本身就足夠強大,可以進行優化。這可能是因為我們在體系結構中明確地構建了優化,就像在MAML或深度均衡模型中那樣。或者,我們可能只是在大量數據上訓練一個靈活的架構,然后發現它具有驚人的推理能力,就像GPT3一樣。不管怎樣,如果網絡架構本身在優化某些東西,那么外部訓練過程就會與本課程中討論的問題糾纏在一起,不管我們喜歡與否。為了有希望理解它提出的解決方案,我們需要理解問題。因此,本課程將以雙層優化結束,利用課程中涵蓋的所有內容。
目錄內容:
我們將通過分析一個簡單的模型開始這門課,梯度下降動力學可以被精確地確定:線性回歸。盡管線性回歸很簡單,但它提供了對神經網絡訓練驚人的洞察力。我們將使用線性回歸來理解兩種神經網絡訓練現象: 為什么對輸入進行歸一化是一個好策略,以及增加維度可以減少過擬合。
線性化是我們理解非線性系統最重要的工具之一。我們將涵蓋神經網絡的一階泰勒近似(梯度,方向導數)和二階近似(Hessian)。我們將看到如何用雅可比向量乘積有效地計算它們。我們將使用Hessian診斷緩慢收斂和解釋網絡預測。
度量給出了流形上距離的一個局部概念。在許多情況下,兩個神經網絡之間的距離可以更有效地定義為它們所代表的函數之間的距離,而不是權重向量之間的距離。這就引出了一個重要的優化工具,叫做自然梯度。
我們從幾個角度來激勵神經網絡的二階優化:最小化二階泰勒近似、預處理、不變性和近端優化。我們將看到如何使用共軛梯度或克羅內克因子近似來近似二階更新。
我們看看已經成為神經網絡訓練的主要內容的三個算法特征。我們試圖理解它們對動力學的影響,并找出構建深度學習系統的一些陷阱。
這篇論文提供了在新興經濟應用的數據科學的最新進展的全面的最先進的綜述。在深度學習模型、混合深度學習模型、混合機器學習和集成模型四個單獨的類別上對新的數據科學方法進行了分析。應用領域包括廣泛而多樣的經濟學研究,從股票市場、市場營銷和電子商務到企業銀行和加密貨幣。Prisma方法是一種系統的文獻綜述方法,以確保調查的質量。研究結果表明,這種趨勢是隨著混合模型的發展而發展的,它的表現優于其他學習算法。進一步預計,這一趨勢將向復雜的混合深度學習模型的進化靠攏。
題目
基于學習的序列決策算法的公平性綜述論文,Fairness in Learning-Based Sequential Decision Algorithms: A Survey
關鍵字
序列決策,機器學習,預測,公平性
簡介
決策過程中的算法公平性已經被廣泛研究,在不穩定的環境下,對分類等任務進行一次性決策。然而,在實踐中,大多數決策過程都是順序的,過去的決策可能會對未來的數據產生影響。特別是當決策影響到生成用于未來決策的數據的個人或用戶時。在這項調查中,我們回顧了現有文獻的數據驅動順序決策的公平性。我們將關注兩類順序決策:(1)過去的決策對潛在用戶群沒有影響,對未來數據也沒有影響;(2)過去的決策對潛在用戶群有影響,因此對未來數據也有影響,進而影響未來的決策。在每種情況下,都要研究各種公平干預措施對底層人口的影響。
作者
Xueru Zhang and Mingyan Liu
【導讀】越來越明顯的是,廣泛采用的機器學習模型可能導致歧視性結果,并可能加劇訓練數據之間的差異。隨著越來越多的機器學習用于現實世界中的決策任務,必須解決機器學習中的偏見和公平問題。我們的動機是,在各種新興方法中,表示學習為評估和潛在地減輕不公平現象提供了獨特的工具集。本教程介紹了現有的研究,并提出了在表示學習和公平的交集中存在的開放性問題。我們將研究學習公平任務不可知表示的可能性(不可能性),公平性和泛化性能之間的聯系,以及利用來自表示形式學習的工具來實現算法上的個人和群體公平性的機會。本教程旨在為廣大的機器學習實踐者提供幫助,并且必要的背景知識是預測性機器學習的工作知識。
作者介紹
Sanmi Koyejo,伊利諾伊大學香檳分校計算機科學系助理教授。
研究綜述: 我們的研究興趣是開發自適應魯棒機器學習的原理和實踐。最近的一些亮點包括:1)可伸縮的、分布式的和容錯的機器學習;2)度量引出;通過人機交互選擇更有效的機器學習指標。我們的應用研究主要集中在認知神經成像和生物醫學成像方面。最近的一些重點包括①生物圖像的生成模型,②時變腦電圖的估計和分析。