盡管在特定案例中為決策辯護的論據一直是人工智能和法律的核心,但隨著黑盒機器學習方法的流行,它最近已成為一個緊迫的問題。在本文中,我們回顧了人工智能和法律領域對法律論證的理解,并指出了機器學習方法可以為法律論證做出貢獻的最合適的方式。我們確定了一些必須探索的關鍵問題,以便為合法的 ML 系統提供可接受的解釋。這提供了我們當前研究項目的背景和方向。
生物有機體在其一生中通過與環境的相互作用來學習。為了使人工系統能夠成功地在現實世界中行動和適應,它也同樣能夠在持續的基礎上學習。這一挑戰被稱為終身學習,在很大程度上仍未解決。在這篇文章中,我們確定了人工系統實現終身學習所需要的一組關鍵能力。我們描述了一些生物機制,包括神經元和非神經元,這有助于解釋生物體如何解決這些挑戰,并介紹了生物啟發模型和生物似是而非的機制的例子,它們已應用于人工系統,以尋求終身學習機器的發展。我們討論了進一步了解和推進終身學習技術的機會,旨在彌合自然智能和人工智能之間的差距。
由Marc Peter Deisenroth,A Aldo Faisal和Cheng Soon Ong撰寫的《機器學習數學基礎》“Mathematics for Machine Learning” 最新版417頁pdf版本已經放出,作者表示撰寫這本書旨在激勵人們學習數學概念。這本書并不打算涵蓋前沿的機器學習技術,因為已經有很多書這樣做了。相反,作者的目標是通過該書提供閱讀其他書籍所需的數學基礎。這本書分為兩部分:數學基礎知識和使用數學基礎知識進行機器學習算法示例。值得初學者收藏和學習!
前言(Foreword)
隨著機器學習變得越來越普遍,它的軟件包也越來越容易使用。一些低級的技術細節被抽象出來,并對實踐者隱藏起來,這是很自然的,也是可取的。然而,這帶來了一些風險,即實踐者不知道設計決策,因此不知道機器學習算法的局限性。
有興趣了解機器學習算法背后機制的實踐者需要具備如下的先驗知識:
在大學里,關于機器學習的入門課程往往會在課程的早期部分涉及到以上這些先驗知識。由于歷史原因,機器學習的課程傾向于在計算機科學系進行授課。在計算機科學系,學生通常在前兩個知識領域受到的訓練比較多,但在數學和統計學方面的訓練較少。目前的一些機器學習教科書試圖加入一到兩章的內容來介紹數學背景知識,但是這些介紹要么在書的開頭,要么作為附錄。本書將機器學習中的數學基礎知識放在首位,并且信息相對集中。
【為什么要寫一本關于機器學習的書?】
機器學習建立在數學語言的基礎上,用來表達直觀上顯而易見但卻難以形式化的概念。一旦正確地形式化,我們就可以使用數學工具來得出我們設計選擇的結果。這使我們能夠深入了解我們正在解決的任務以及智能的本質。全球數學系學生普遍抱怨的一個問題是,數學所涵蓋的主題似乎與實際問題沒有太多關聯。我們認為機器學習是人們學習數學的一個明顯而直接的動機。
作者希望這本書可以成為一本指導機器學習大量數學基礎的指南。作者通過直接指出數學概念在基本機器學習問題中的有用性來激發對數學概念的需求。為了使書簡短,許多細節和更先進的概念都被省略了。書中介紹了一些基本概念,以及這些概念如何適用于機器學習的大背景,讀者可以找到大量的資源進行進一步研究。對于有數學背景的讀者,這本書提供了一個簡短但精確的機器學習入門介紹。書中只提供四個代表性的經典的機器學習算法示例。作者關注的是模型本身背后的數學概念,目的是闡明它們的抽象美。作者希望所有的讀者都能對機器學習的基本問題有更深入的了解,并將機器學習的實際問題與數學模型的基本選擇聯系起來。
【誰是目標受眾】
隨著機器學習在社會中的廣泛應用,作者相信每個人都應該對它的基本原理有一些了解。這本書是用學術數學的風格來寫的,這使讀者能夠精確地了解機器學習背后的概念。作者鼓勵不熟悉這種簡潔的風格的讀者堅持閱讀下去,并牢記每個主題的目標。作者在整篇文章中都有標記和評論,希望這些評論能對讀者提供一些有用的指導。此外,本書假定讀者具備高中數學和物理中常用的數學知識。例如,導數和積分,以及二維或三維的幾何向量。因此,本書的目標受眾包括普通大學生、夜校生和機器學習在線課程的學習者等等。
目錄
Part I: 數據基礎
Part II: 機器學習問題
簡介(Introduction)
本書分為兩部分,第一部分是數學基礎的講解,第二部分是將第一部分的數學概念應用于基本的機器學習問題中,從而形成“機器學習四大支柱”,如下圖所示:
這本書的第一部分描述了關于機器學習系統的三個主要組成部分的數學概念和數學基礎:數據、模型和學習。在本書中,作者假設數據已經被適當地轉換成適合于閱讀的數字表示形式,并被轉換成計算機程序。在這本書中,作者認為數據是向量。模型是現實世界的簡化版本,它捕獲與任務相關的現實世界的各個方面。模型的用戶需要理解模型沒有捕捉到什么,從而理解模型的局限性。概括起來就是,作者使用領域知識將數據表示為向量。并選擇一個合適的模型,要么使用概率方法,要么使用優化方法。采用數值優化的方法,對過去的數據進行學習,目的是它在看不見的數據上表現良好。
本書第二部分介紹了上圖所示的機器學習四大支柱,如下表所示。表中的每一行區分了相關變量是連續的還是非連續的類別的問題。作者解釋了如何將本書第一部分介紹的數學概念應用于機器學習算法的設計中。在第8章中,作者以數學的方式重述了機器學習的三個組成部分(數據、模型和學習)。此外,作者還提供了一些建立實驗設置的指南,以防止對機器學習系統過于樂觀的評估。
此外,作者在第一部分提供了一些練習,這些練習大部分可以用筆和紙來完成。在第二部分中,作者提供了一些編程教程(jupyter記事本)來探索在本書中討論的機器學習算法的一些特性。
2021年,CHI將首次來到日本,在東京西南方的橫濱市舉行。ACM (Association for Computing Machinery)CHI(計算系統人類因素會議)是人機交互領域最重要的國際會議。CHI(讀作“kai”)是世界各地研究者和實踐者齊聚一堂,探討交互技術最新進展的地方。CHI被普遍推崇為人機交互領域最具聲望的殿堂,每年吸引數千名國際參會者。
人工智能(AI)技術越來越多地用于在醫療保健、金融和就業等關鍵領域做出決策和執行自主任務。為了改進、競爭、建立適當的信任和更好地與人工智能系統交互,需要了解人工智能,這激發了學術界和公眾對可解釋人工智能(XAI)的極大興趣。一方面,快速增長的XAI技術集合允許在AI系統中合并不同的解釋風格。另一方面,通過人工智能解釋來提供令人滿意的用戶體驗需要以用戶為中心的方法和跨學科研究來連接用戶需求和技術支持。簡而言之,XAI是一個對HCI研究有著日益增長的需求和令人興奮的機會的領域。
本教程面向有志于開發和設計人工智能系統解釋功能的研究人員和實踐者,以及那些希望了解XAI文獻中的趨勢和核心主題的人。該課程將介紹一些可用的工具包,這些工具包有助于輕松地創建ML模型的解釋,包括AIX 360[1],這是一個全面的工具包,提供有關該主題的技術和教育資源,如XAI概念介紹、python代碼庫和教程。
我們也將借鑒我們自己的設計和研究XAI系統的經驗[3-8],以及從工業設計從業者[2]學習,討論機會和挑戰,把最先進的XAI技術融入AI系統,創造好的XAI用戶體驗,包括我們通過研究開發的“問題驅動的XAI設計流程”[9]。
參考文獻:
[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.
[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020
[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019
[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020
[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021
[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021
[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021
[9] Liao, Q. V., Pribi?, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper
雖然機器學習的專業知識并不意味著你可以創建自己的圖靈測試證明機器人(就像電影《機械總動員》中那樣),但它是人工智能的一種形式,是快速大規模識別機會和解決問題的最令人興奮的技術手段之一。任何掌握了機器學習原理的人都將掌握我們科技未來的很大一部分,并在職業領域開辟令人難以置信的新方向,包括欺詐檢測、優化搜索結果、服務實時廣告、信用評分、建立精確而復雜的定價模型等等。
與大多數機器學習書籍不同的是,完全更新的第二版《傻瓜機器學習》并不假設你有多年使用編程語言(如Python)的經驗,但讓你入門,涵蓋了入門的材料,將幫助你建立和運行你需要執行實際任務的構建模型。它揭示了推動機器學習的潛在的——迷人的——數學原理,同時也表明,你不需要是一個數學天才,就可以構建有趣的新工具,并將它們應用到你的工作和學習中。
題目: A Hierarchy of Limitations in Machine Learning
簡介:
“所有模型都是錯誤的,但有些模型是有用的,”喬治·E·普·博克斯(George E. P. Box)(1979)說。 機器學習專注于概率模型在社會系統中進行預測的有用性,但是直到現在才掌握了這些模型錯誤的方式以及這些缺點的后果。 本文嘗試對機器學習模型在應用于社會時的特定概念,過程和統計局限性進行全面,結構化的概述。 機器學習建模者本身可以使用所描述的層次結構來識別可能的故障點,并思考如何解決這些故障點,并且機器學習模型的使用者在面對有關是否,在何處以及如何應用機器學習的決策時可以知道要問什么。 局限性從量化本身固有的承諾到顯示未建模的依存關系如何導致交叉驗證作為評估模型性能的方式過于樂觀的局限性。
目錄:
越來越復雜和自主的系統需要機器倫理來最大限度地發揮新技術帶來的效益和社會風險。決定采用哪種倫理理論以及如何有效地實施倫理理論是一個具有挑戰性的問題。這項調查提供了三方面的貢獻。首先,介紹了一種從倫理、實現和技術角度分析機器倫理的分類方法。其次,對相關作品進行了詳盡的選擇和描述。第三,將新分類方法應用于入選作品,確定了該領域的主要研究模式和經驗,并提出了今后的研究方向。
講座題目
公平意識機器學習:現實挑戰與經驗教訓:Fairness-Aware Machine Learning: Practical Challenges and Lessons Learned
講座簡介
來自不同學科的研究人員和從業人員強調了使用機器學習模型和數據驅動系統所帶來的倫理和法律挑戰,以及由于算法決策系統的偏見,這些系統可能歧視某些群體。本教程概述了過去幾年觀察到的算法偏差/歧視問題,以及在機器學習系統中為實現公平性而吸取的經驗教訓、關鍵法規和法律,以及技術的發展。在為不同的消費者和企業應用開發基于機器學習的模型和系統時,我們將鼓勵采用“按設計公平”的方法(而不是將算法偏差/公平考慮視為事后考慮)。然后,我們將通過展示來自不同技術公司的非專利案例研究,重點關注公平感知機器學習技術在實踐中的應用。最后,根據我們在Facebook、Google、LinkedIn和Microsoft等公司致力于機器學習公平性的經驗,我們將為數據挖掘/機器學習社區提出開放的問題和研究方向。
講座嘉賓
莎拉?伯德(Sarah Bird)領導著人工智能研究與Facebook產品交叉點的戰略項目。她目前的工作集中在人工智能倫理和發展規模負責任人工智能。她還一直致力于開放人工智能系統,是ONNX的共同創造者之一,ONNX是一個用于深度學習模型的開放標準,也是Pythorc1.0項目的領導者。在加入Facebook之前,她曾是微軟紐約研究中心的人工智能系統研究員和微軟數據集團的技術顧問。她是微軟決策服務(Decision Service)背后的研究人員之一,該服務是第一個公開發布的通用強化學習型云系統。她還與人共同創立了微軟人工智能倫理命運研究小組。她擁有加州大學伯克利分校(UC Berkeley)計算機科學博士學位,由戴夫·帕特森(Dave Patterson)、克里斯特·阿薩諾維奇(Krste Asanovic)和伯頓·史密斯(Burton Smith)擔任顧問。Sarah共同組織了多個相關主題的研討會(人工智能、NIPS 2018中的道德、社會和治理問題研討會;NIPS 2018中的機器學習系統研討會;NIPS 2017中的機器學習系統研討會;SOSP 2017中的人工智能系統研討會;NIPS 2016中的機器學習系統研討會),并在2018年伯克利隱私法論壇(Berkeley Privacy Law Forum)上發表了受邀的主題演講(“人工智能與機器學習:Facebook視角”)。
論文摘要: 數據就是知識,知識就是力量。在這個信息過載的時代,數據分析改變了人們如何有效解決許多行業問題的觀點。數據分析可以取得非常積極成果的潛在領域之一是醫療保健領域。醫療保健分析不僅可以使患者受益,而且可以使醫療保健行業的所有利益相關者和關鍵參與者受益。它具有預防疾病爆發,識別和檢測疾病,降低手術成本的潛力,因為醫院管理者可以幫助政府制定醫療保健政策,從而改善整體生活質量。機器學習是計算機科學的一個領域,我們可以開發從提供的數據中有效進行自我學習的算法。其主要目的是讓計算機在無需人工干預的情況下自學。數據分析和機器學習齊頭并進。在本文中,我們回顧了有關醫療保健領域采用的一些關鍵機器學習技術的文獻。這項系統旨在確定機器學習在醫療保健中的應用和挑戰。
諸如深度卷積神經網絡和遞歸神經網絡之類的復雜機器學習模型最近在諸如對象/場景識別,圖像字幕,視覺問題解答等廣泛的計算機視覺應用中取得了長足進步。但它們通常被視為黑匣子。隨著模型越來越深入地尋求更好的識別精度,變得越來越難以理解模型給出的預測及其原因。
本教程的目的是讓計算機視覺社區廣泛參與計算機視覺模型的可解釋性和可解釋性的主題。我們將回顧最近的進展,我們取得了可視化,解釋和解釋方法,以分析數據和模型在計算機視覺。本教程的主要主題是通過闡明機器學習可解釋性的動機、典型方法、未來趨勢和由此產生的可解釋性的潛在工業應用,就機器學習可解釋性這一新興主題建立共識。
主題: Safe and Fair Machine Learning
簡介:
在這個演講將討論一些我們的未來的工作在一個新的框架設計的機器學習算法,內容包括:1)使得算法的用戶更容易定義他們認為是不受歡迎的行為(例如,他們認為是不公平的,不安全,或者成本);2)提供了一個高信任度保證它不會產生一個解決方案,展示了用戶定義的不受歡迎的行為。
作者簡介:
Philip Thomas是馬薩諸塞大學安姆斯特分校信息與計算機科學學院助理教授,自主學習實驗室聯合主任。之前是卡內基·梅隆大學(CMU)的博士后,2015年,在馬薩諸塞州立大學阿默斯特分校(UMass Amherst)獲得了計算機科學博士學位。主要研究如何確保人工智能(AI)系統的安全性,重點是確保機器學習(ML)算法的安全性和公平性以及創建安全和實用的強化學習(RL)算法。