近年來,生成式人工智能領域經歷了前所未有的增長,其背后主要驅動力是大規模基礎模型的發展。然而,這一進展也帶來了一個關鍵瓶頸:基礎模型的開發正變得日益昂貴且排他,原因在于其高度依賴經過精心策劃的大規模數據集。大型科技公司投入巨額資源來收集和清洗用于預訓練和適應的大規模數據集。這種以數據為中心的壁壘不僅加劇了資源密集型企業研究與學術界之間的差距,也進一步加重了基礎模型“黑箱化”的問題。 即便是大型企業,這種數據策劃方式也最終會消耗掉大部分高質量數據,難以實現可擴展性。與此同時,大量包含噪聲、弱信號和偏差的不完美數據資源依然觸手可及且成本低廉,然而在傳統范式下,基于這些數據訓練的模型往往在性能上遜于基于精心策劃數據訓練的模型。
隨著人工智能日益塑造我們的世界并持續擴張,我們正面臨一個根本性挑戰:我們如何將這些充滿缺陷的不完美數據,從限制轉化為推動AI民主化發展的機遇?這種以數據為中心的民主化進程,不僅能提升AI開發的可及性,也將催生更加穩健、適應性更強的基礎模型,使其更能反映現實數據的復雜性與多樣性。
我的論文正是圍繞這一挑戰展開,提出了“感知不完美的人工智能”(Imperfection-Aware AI)這一范式轉變,使AI系統能夠有效利用廉價且不完美的數據資源。將基礎模型訓練置于多樣且真實世界的不完美數據中,天然地使其暴露于人類生成內容的復雜性與細節,從而提升模型應對真實世界變異的能力。通過將傳統視為缺陷的“不完美數據訓練”轉化為優勢,我們可以推動構建更穩健、更具倫理性且具有普適適應能力的AI系統,為全球研究者和開發者提供可及的AI技術。
為實現這一愿景,我的研究重點圍繞以數據為中心的方法展開,旨在理解基礎模型在不完美數據訓練下的“物理機制”,緩解由數據缺陷帶來的潛在不良影響,并充分利用各種不完美數據和標簽以實現更穩健的學習能力:
探索預訓練數據不完美性的影響:我研究了不同類型的數據缺陷(如損壞、偏差、多樣性)如何在預訓練過程中影響基礎模型的“物理行為”。我的研究是最早揭示預訓練過程中引入一定程度數據不完美性有助于模型泛化能力的工作之一。這一發現從根本上改變了我們對不完美數據的看法——它不再是需要被消除的障礙,而是一種可用于提升模型穩健性并推動AI民主化的寶貴資源。
理解與緩解災難性繼承(Catastrophic Inheritance):盡管利用不完美數據有助于AI的民主化,我們仍需深入理解其局限性。我提出了“災難性繼承”這一全新研究方向,用以探索預訓練數據中的缺陷如何傳遞并影響下游任務。我開發了開源評估工具,并設計了微調方法以緩解其負面影響,確保模型在使用不完美數據訓練的前提下,依然具備可靠性與泛化能力。
利用不完美數據與標簽進行遷移學習:為真正實現AI開發的可及性,我提出了一系列穩健學習方法,能夠有效利用現有的不完美數據與標簽,促進模型在下游任務上的高效適應。值得一提的是,我的工作首次提出了一個通用框架,能夠統一處理14種以上的弱監督與噪聲監督形式,為實際場景中僅有混合不完美數據的情況下,實現可擴展的遷移學習提供了可能。
本論文旨在為理解基礎模型時代下的數據不完美性提供重要見解,將不完美數據學習技術落地應用,并激勵相關領域的后續研究。
在醫療、教育、交通運輸和網絡安全等高風險領域中,智能體需要做出一系列影響現實世界結果的決策。強化學習(Reinforcement Learning, RL)為通過經驗訓練此類智能體提供了一個自然且強大的框架。然而,盡管近年來取得了顯著進展,RL 的部署與應用仍面臨若干關鍵障礙。
首先,一個具備能力的 RL 智能體可能會以違背人類預期的方式行事。在協作或安全關鍵場景中,難以理解的行為可能會讓用戶感到困惑,甚至帶來新的風險。例如,一輛自動駕駛汽車若突然急轉以避免事故,即使它整體上比人類駕駛員更安全,也可能仍被認為不安全。這種感知風險會阻礙其被廣泛采用。因此,開發表現出直觀行為的智能體往往是實現人機協作與信任的前提。
其次,在安全關鍵和受監管的領域,解釋與審計 AI 決策的能力正日益成為正式要求。然而,大多數 RL 智能體依賴深度神經網絡做出決策,而這類模型對人類而言難以理解。因此,可解釋性決策成為一個亟待解決的重要問題。
第三,設計者通常難以完全明確地指定智能體的全部期望行為。因此,往往采用固定且簡化的獎勵函數來作為代理目標。如果該代理目標存在錯誤或不足,智能體可能會表現出與人類真實期望不一致的行為。因此,如何確保智能體與人類意圖、目標和價值觀保持一致,成為一項重要挑戰。
這些挑戰都具有一個共同主題:它們源于 RL 智能體在人類環境中與人類互動或代表人類做出決策。因此,AI 未來的一個關鍵問題是如何開發能夠與人良好協作的智能體。本論文提出了一種以人為中心的 RL 方法,旨在構建和探索具備可解釋性、直觀性和一致性的 AI 智能體。我們在智能體設計與評估上提出了若干技術進展,解決了由人類參與引出的關鍵研究問題。
為實現直觀行為,我們設計了第一個通過導航圖靈測試(navigation Turing test)的 RL 智能體,并研究了人們為何將其行為視為“類人”的原因。為實現可解釋性,我們提出并實現了針對 RL 的兩種新維度的可解釋性算法:在多智能體決策中保持透明性,以及減少對人工標注的依賴。圍繞行為一致性,我們提出了一種新的對齊問題表述(基于決策的對齊),并引入了一種能夠學習與人類偏好一致的決策策略的算法。同時,我們貢獻了用于訓練和評估智能體在模糊、不完全指定任務下行為一致性的基準與數據集。 最后,本論文討論了未來研究如何在此基礎上進一步推進,以實現能夠支持人類繁榮發展的 AI 智能體。
如何構建通用機器人系統? 觀察視覺和語言等領域,其共同主題是通過大規模、精心策劃的數據集進行端到端學習。然而,在機器人技術中,僅靠規模可能不足以應對機器人任務的多模態性、缺乏易于獲取的數據以及在物理硬件上部署的安全性和可靠性挑戰。與此同時,當今一些最成功的機器人系統本質上是模塊化的,能夠利用每個模塊的獨立泛化能力來表現優異。受這些特性的啟發,本論文旨在通過將這些組件整合為一個整體來解決構建通用機器人代理的任務:將模塊化與大規模學習相結合,以實現通用機器人控制。我們首先獨立探討這兩個方面。第一個問題是:如何在學習系統中構建模塊化和層次結構? 我們的關鍵見解是,與其讓代理端到端地學習層次結構和低級控制,不如通過規劃顯式地強制模塊化,從而實現更高效、能力更強的機器人學習。接下來,我們探討規模在構建通用機器人系統中的作用。為了有效擴展,神經網絡需要大量多樣化數據、適應數據的表達性架構以及生成數據的監督來源。為此,我們利用一種強大的監督來源:經典規劃算法,這些算法可以廣泛泛化,但運行成本高,并且需要訪問完美的特權信息才能在實踐中表現良好。我們使用這些規劃算法在模擬中監督大規模策略學習,以生成通用代理。最后,我們考慮如何將模塊化與大規模策略學習統一起來,以構建能夠執行零樣本長期操作的自主現實世界機器人系統。我們提出通過緊密集成模塊化高層和中層規劃、學習的局部控制、程序化場景生成以及用于模擬到現實遷移的大規模策略學習的關鍵要素來實現這一目標。我們證明,這種方法可以產生強大的結果:一個單一的通用代理可以僅通過文本指令解決現實世界中具有挑戰性的長期操作任務。//arxiv.org/abs/2503.06814
機器學習和人工智能領域在過去十年中取得了顯著進展。得益于計算和算法的進步,以及大數據集的可獲取性,它已經從純粹的學術研究發展到以工業為主導的領域。隨著企業開始在其專有數據集上訓練模型,數據質量的重要性作為一個關鍵因素浮現出來,與傳統的模型架構改進并行。因此,數據驅動的人工智能(Data-Centric AI,簡稱DCAI)開發方法應運而生,側重于通過系統的數據管理(數據收集、標注和策劃)來提升模型性能,而非單純改善模型本身。
本論文旨在通過全面的文獻綜述,探討數據驅動的人工智能(DCAI)這一新興范式,涵蓋DCAI所涉及的廣泛主題。此外,論文展示了三個關鍵子主題的三篇發表論文:第一篇論文提出了一種新的主動學習方法,適用于高度不平衡的數據集,幫助解決工業應用中常見的類別不平衡問題。第二篇論文介紹了MC層歸一化(MC Layer Normalization),這是一種替代常規層歸一化的方法,通過在特征子采樣過程中引入隨機性,能夠在神經網絡中進行不確定性估計。最后,第三篇論文提出了一個名為Softmatcher的視覺提示框架,用于交互式圖像分割。該框架將基礎模型與高效的概率特征匹配過程結合,使得通過視覺提示實現快速、無訓練的圖像分割成為可能。 這三種方法成功集成到多個IBM產品中,為研究在工業環境中的適用性和影響力提供了有力的證據。本論文展示了數據驅動方法的潛力,表明通過持續關注數據質量,可以在較低成本和更短時間內開發出顯著改進的機器學習模型。
盡管神經模型的廣泛應用,訓練后的神經模型依然是一個具有挑戰性的可解釋性課題,神經網絡研究人員采用的許多知識和技能,可能被認為是深奧且晦澀的,旨在理解模型學到了什么,以及模型的內部工作如何改變其學習結果。理解這些模型學到了什么是至關重要的領域,因為越來越多的生產系統依賴神經模型來提供越來越多的高影響力應用。本研究提出了一種可解釋性方法論,基于一種神經模型設計理念,重新定義了這些模型分析單元的范疇,從單個神經元擴展到一組互聯的功能組件,我們稱之為“神經路徑”。這些功能組件是架構、數據和訓練方案的結果,具有跨越結構邊界的能力。這使得通過增強透明度,能夠實現基于功能的、以人為中心的模型理解,從而促進模型與研究人員之間的對話。在本論文的研究過程中,我們在文獻中做出了四個方面的貢獻:首先,我們提供了一種神經模型可解釋性的方法,針對子任務級別進行了嚴格驗證,驗證通過了一系列合成數據集;第二,我們通過提供一個框架,將學習到的功能組件與因果結構對齊,從而擴展了這一方法。這使得神經模型學習的功能與理論因果結構進行比較成為可能,進而快速驗證我們對神經模型如何處理任務的理解;第三,我們擴展了該方法,能夠比較和對齊不同架構或訓練程序下的模型功能組件;最后,我們展示了神經路徑方法在多個教育技術領域的應用能力。包括通過修辭結構分析提供自動化作文反饋、通過傳遞性檢測進行小組形成以及自動化作文評分。最后一個貢獻可以進一步細分為三個方面,按領域和重點分開。首先,神經路徑被用來支撐神經話語解析器,使其能夠更容易地推廣到學生寫作;接下來,我們展示了神經路徑可以作為一種錯誤分析方法,探索在不同領域訓練的模型在檢測傳遞性上的表現差異;最后,我們展示了通過對AI寫作檢測器的微調,追蹤問題路徑變化的能力。由于神經路徑方法的廣泛適用性,我們樂觀地認為該方法能夠對神經模型的設計和開發產生廣泛影響,我們的目標是提供一項具有擴展潛力的基礎性工作,能夠遠遠超出本論文的范圍。
在過去幾十年里,機器學習配合經驗風險最小化已經展現了在學習和利用數據統計模式方面的巨大能力,甚至超越了人類。盡管取得了成功,但經驗風險最小化避免了對因果性的建模——理解和處理變化的方式,這對人類智能來說是基本的。當模型部署到訓練環境之外時,處處都是分布變化。例如,自動駕駛系統經常需要處理在訓練期間未曾遇到的新天氣條件;一個人工智能輔助的藥物發現系統需要預測分子對于新型病毒如2019冠狀病毒的生化特性。這使得分布外泛化問題對于傳統機器學習來說充滿挑戰。 在這篇論文中,我們探討如何在現代機器學習中的廣泛任務中納入和實現因果性。特別是,我們利用獨立因果機制原則所暗示的不變性,即,產生效果的因果機制不會相互通報或影響。因此,目標變量給定其原因的條件分布在分布變化下是不變的。有了因果不變原則,我們首先將其實例化到圖上——一種在許多真實世界工業和科學應用中無處不在的通用數據結構,如金融網絡和分子。然后,我們進一步展示學習因果性如何有利于現代機器學習的許多理想特性,如(i)分布外泛化能力;(ii)可解釋性;以及(iii)對抗性攻擊的魯棒性。 另一方面,實現機器學習中的因果性,對于傳統機器學習中的優化提出了一個難題,因為它經常與經驗風險最小化的目標相矛盾。因此,我們描述了這些矛盾如何影響特征學習和優化,并提出了新的表示學習和優化范式,適當處理優化難題。通過適當的目標和有效的因果不變學習實現方案,這篇論文搭建了邁向現代機器學習新基礎的第一步。
許多日常任務要求我們與他人互動。互動或合作使我們能夠結合各自的優勢,從而實現個人無法單獨完成的更多目標。
同樣,當我們嘗試自動化這些任務時,僅依靠一個機器人可能是不可能的或代價過高的。然而,協調多個機器人是困難的:從多機器人系統的大規模狀態空間的計算挑戰,到如何將一個操作員的輸入映射到多個機器人上,互動的多個層面可能在人與人之間的互動中較為微妙,但在與機器人協作時,必須明確加以解決。 本論文的目標是解決這些問題中的一些最重要的挑戰。 我們首先探討與單一機器人系統和多機器人系統的直接遙操作相關的一些挑戰。通過操作性優化和零空間投影方案,我們提高了多臂系統避免奇異性并更快速跟隨操作員輸入的能力。我們提出了一種快速的局部優化方案,以及利用牛頓法的二階優化,并比較了兩者的性能,展示了該方法在真實的ABB YuMi雙臂機器人上的表現。接下來,我們將系統擴展到移動機器人。雖然移動機器人在許多方面優于固定基礎系統,但它們也引入了額外的復雜性。我們研究了非完整約束滑模轉向機器人(非全向輪驅動機器人)的驅動動力學,以及操作臂姿態和載荷如何影響轉向能力。此外,我們引入了避免機器人間碰撞、翻車避免和能夠在高度受限的環境中移動的術語。我們將綜合方法部署到多個配備UR5e操作臂的Clearpath Husky平臺,并展示它如何改善開環性能,超越傳統的控制方案。 最后,我們更詳細地探討了用戶如何與多機器人系統互動。 我們比較了基于平板的增強現實(AR)解決方案與HoloLens混合現實(MR)頭戴設備。通過向研究參與者呈現不同的觸摸互動以及支持手部追蹤的手勢,我們比較了他們在多個任務中的表現,目標是引導一組小型差速驅動機器人。我們比較了不同任務中的客觀和主觀表現,發現特別是空間互動在三維用戶界面中受益明顯。
總之,我們探索并研究了人類與機器人之間的相互作用,旨在實現多機器人系統中有效且直觀的互動。 我們提高了機器人跟隨用戶輸入的能力,提出了一種方法論用于復雜的非完整約束多機器人系統的軌跡優化,并研究了基于手勢的與移動機器人直觀交互的方式。我們將這些方法部署到實際的機器人中,期望將其應用于未來的建筑工地或倉庫,以改善未來工作場所的效率。
//www.research-collection.ethz.ch/handle/20.500.11850/707468
機器學習(Machine Learning, ML)越來越多地用于驅動復雜應用,如大規模網頁搜索、內容推薦、自動駕駛汽車以及基于語言的數字助理。近年來,這些系統變得主要依賴數據驅動,通常以端到端學習復雜函數的深度學習模型為基礎,這些模型通過大量可用數據進行訓練。然而,純粹的數據驅動特性也使得所學習的解決方案不透明、樣本效率低下且脆弱。
為了提高可靠性,生產級解決方案通常采用混合形式的ML系統,這些系統利用深度學習模型的優勢,同時通過系統中的其他組件來處理諸如規劃、驗證、決策邏輯和政策合規等輔助功能。然而,由于這些方法通常是在完全訓練后的黑箱深度學習模型上后期應用的,它們在提高系統可靠性和透明性方面的能力有限。 在本論文中,我們研究了如何通過使用具有結構化中間表示(Structured Intermediate Representations, StructIRs)的機器學習模型來構建更可靠且透明的機器學習系統。與神經網絡激活等非結構化表示相比,StructIRs 是通過優化明確的目標直接獲得的,并且具有結構約束(例如歸一化嵌入或可編譯代碼),同時仍然具有足夠的表達能力來支持下游任務。因此,它們通過增加模塊化并使建模假設顯式化,可以使得所產生的ML系統更加可靠且透明。
我們探討了StructIRs在三種不同機器學習系統中的作用。在我們的第一個工作中,我們使用由神經網絡參數化的簡單概率分布來構建一個有效的ML驅動的數據中心存儲策略。在第二項工作中,我們展示了將文本生成嵌入到結構良好的向量表示空間中,可以通過簡單、可解釋的向量運算有效地轉換文本的高層屬性,如時態和情感。最后,在第三項工作中,我們進行了人類受試者研究,表明基于Bandit的推薦系統背后的平穩性假設在實踐中并不成立,強調了驗證ML系統背后假設和結構的重要性。
大型基礎模型在實現人工智能領域的最新突破中發揮了核心作用。通過同時將數據集和模型規模擴展到前所未有的水平,這些基礎模型在蛋白質結構預測、圖像/視頻生成、代碼生成、聊天機器人等許多領域表現出色。然而,它們的計算和內存成本也急劇增長,使得這些基礎模型在實際應用中的部署變得困難,尤其是在資源受限的邊緣設備上。此外,巨大的訓練成本也顯著阻礙了新基礎模型的發展,并引發了對巨大能源消耗和二氧化碳排放的擔憂。為了解決這些問題,構建有效的模型加速技術對于縮小計算供需之間的差距至關重要。 本論文將涵蓋模型加速的三個重要方面。首先,我們將討論高效表示學習,包括用于高分辨率視覺的EfficientViT(一種新的視覺Transformer架構)和用于條件圖像生成的條件感知神經網絡(一個新的控制模塊)。其次,我們將介紹硬件感知的加速技術,以創建針對不同硬件平臺和效率限制的專用神經網絡。第三,我們將介紹TinyTL,這是一種內存高效的遷移學習技術,用于實現設備上的模型定制。通過我們的設計,我們可以顯著提高深度神經網絡在硬件上的效率,而不損失準確性,使它們更易于訪問并降低其服務成本。例如,我們的模型在A100 GPU上實現了48.9倍的吞吐量提升,同時在零樣本實例分割性能上略微優于最新的模型。在條件圖像生成方面,我們的方法實現了52倍的計算成本降低,而性能沒有下降。
大型基礎模型在許多人工智能領域(包括自然語言處理[1], [2]、計算機視覺[3]–[5]、科學領域的AI應用[6]等)引發了革命性的變化。通過擴大模型規模并在網絡規模的數據集上訓練,這些基礎模型展示了驚人的少樣本/零樣本學習能力,能夠解決復雜的任務。這些卓越的表現引發了在實際應用中使用這些基礎模型的熱潮,將人工智能引入了我們的工作和日常生活。 然而,由于模型規模和計算成本的增加,這些基礎模型的訓練和推理成本非常高昂。例如,GPT-3[7]模型擁有1750億個參數,僅存儲它就已經超出了目前最強大的GPU(如NVIDIA H100 GPU)的容量。這對在云平臺上提供這些模型服務或在邊緣設備上部署它們提出了巨大挑戰。此外,高昂的訓練成本還導致了巨大的能源消耗和二氧化碳排放,引發了對這些AI基礎模型的可持續性問題的擔憂。 在本論文中,我們旨在研究模型加速技術,以提高深度神經網絡的效率,從而應對這一挑戰。我們的方法從三個方面加速深度神經網絡。首先,我們將討論高效的表示學習,旨在構建高效的構建模塊/神經網絡架構,從原始數據中提取有用信息。其次,我們將討論硬件感知的加速方法,旨在為不同的硬件平臺和效率約束定制專用的神經網絡,以獲得精度和硬件效率之間的最佳平衡。第三,我們將討論高效的模型定制,允許內存高效的設備端學習,以提供定制化的AI服務而不犧牲隱私。我們總結了本論文的主要內容如下:
第2章 描述了高效表示學習的技術。內容基于[8]和[9]。首先,Transformer架構是當前大型基礎模型的核心組件。然而,Transformer架構在處理長序列時表現不佳,因為其計算成本隨著輸入序列長度的增加而呈二次增長。我們提出了EfficientViT,這是一種用于高分辨率視覺的新型視覺Transformer架構。它通過僅使用硬件高效的操作,達到了全局感受野和強大的容量。EfficientViT在不同的硬件平臺上提供了顯著的性能提升。其次,添加控制是將圖像/視頻生成模型轉化為人類生產工具的關鍵步驟。我們提出了條件感知神經網絡(CAN),這是一種為圖像生成模型添加控制的新方法。與以往的條件控制方法并行,CAN通過動態操控神經網絡的權重來控制圖像生成過程。CAN在擴散Transformer模型中持續帶來顯著改進。
第3章 介紹了硬件感知的AutoML技術,以有效地為不同的硬件平臺和效率約束定制專用的深度神經網絡。內容基于[10]和[11]。不同的硬件平臺具有不同的屬性(例如并行度、緩存大小、帶寬等)。針對不同的目標硬件平臺和不同的效率約束,我們需要定制化的神經網絡以實現性能與效率之間的最佳平衡。然而,手動為每個案例定制神經網絡是不可擴展的。因此,我們提出了硬件感知的AutoML技術來應對這一挑戰。我們的方法在不同的硬件平臺上提供了顯著的加速,包括手機、CPU、GPU、FPGA等。此外,我們的方法在多個低功耗計算機視覺挑戰賽中獲得了第一名。
第4章 介紹了TinyTL[12],一種用于內存高效的設備端學習技術。TinyTL凍結了權重,只學習內存高效的偏置模塊,因此不需要存儲中間激活。為了保持適應能力,我們引入了一種新的內存高效偏置模塊,即輕量殘差模塊,通過學習小的殘差特征圖來優化特征提取器,僅增加了3.8%的內存開銷。廣泛的實驗表明,TinyTL在與微調整個網絡相比僅有微小的準確性損失的情況下,顯著節省了內存。
隨著神經網絡在諸如刑事司法、醫療等高風險領域的應用日益增多,了解這些模型做出決策的原因變得越來越重要。例如,開發工具來分析模型是否在其未來的決策中延續了它們在訓練數據中發現的有害的人口不平等至關重要。然而,神經網絡通常需要大量訓練數據集,具有“黑箱”決策特性,并且重新訓練成本高昂,這增加了這個問題的難度。本文考慮三個問題。問題一)輸入的各個元素與模型決策之間的關系是什么?問題二)單個訓練點與模型決策之間的關系是什么。最后問題三)在多大程度上存在(有效的)近似方法,能夠讓實踐者預測模型性能在不同訓練數據或不同訓練協議下的變化。
第一部分針對掩蔽顯著性方法回答問題一。這些方法隱含地假設圖像中的灰色像素是“無信息的”。我們通過實驗發現,這一假設可能并非總是正確的,并定義了“健全性”,它衡量了顯著性圖的一種理想屬性。第二部分在影響函數的背景下討論問題二和問題三,這些函數旨在近似移除一個訓練點對模型決策的影響。我們使用諧波分析來檢查一種特定的影響方法,即數據模型,并發現數據模型的系數與目標函數的傅里葉系數之間存在關系。最后,第三部分在測試數據的背景下討論問題三。首先,我們評估是否需要保留外部測試數據來近似元學習的外部循環,或者回收訓練數據是否構成了一個足夠的近似。我們發現保留的測試數據很重要,因為它學習到的表示是低秩的。然后,受到PGDL競賽的啟發,我們調查了盡管眾所周知的限制,生成對抗網絡(GAN)生成的數據是否可以用來近似泛化性能,當沒有測試或驗證集可用時,并發現它們可以做到這一點。
從人本主義的角度建立人工智能系統的迫切性日益增加,因為從個性化推薦系統到語言和圖像生成模型的大規模機器學習系統每天都在與人互動。在這篇論文中,我們提出了一條從人本主義的角度建立這些系統的指導方針。我們的指南包含三個步驟:(i)識別學習任務中所關注的人的角色和他們的核心特性;(ii)以一種有用且可靠的方式對這些特性進行建模;和(iii)以原則性的方式將這些模型納入學習算法的設計中。我們將這一指南應用于兩個應用:個性化推薦系統和決策支持系統。對于推薦系統,我們按照指南(i)關注用戶不斷變化的偏好,(ii)將它們模型化為動態系統,和(iii)開發具有可證明保證的高效在線學習算法,與具有不同偏好動態的用戶互動。對于決策支持系統,我們(i)選擇決策者的風險偏好作為關注的核心特性,(ii)將它們模型化到系統的目標函數中,和(iii)為在多樣風險偏好下學習模型提供具有統計保證的一般程序。我們最后討論了以人為中心的機器學習的未來,以及這一領域中跨學科研究的角色。