受到人工智能(AI)在高成本和安全關鍵應用中的潛力,以及最近人工智能在我們日常生活中日益普及的影響,可信賴的人工智能作為一個廣泛的研究領域日益受到重視,涵蓋了可解釋性、魯棒性、可驗證安全、公平性、隱私、問責等主題。這在簡單、透明的模型與復雜、黑箱模型之間造成了一種緊張關系,前者具有固有的信任相關好處,而后者在許多任務上的表現則無與倫比。為了彌補這一差距,我們提出并研究了一種對數值數據的不確定解釋,并將其應用于基于樹的模型,形成了一種新型模糊決策樹,稱為核密度決策樹(KDDTs),它具有更好的性能、增強的可信特性和更廣泛的實用性,使得這些樹可以應用于更廣泛的領域。我們將本論文的貢獻分為三大支柱。
第一支柱是魯棒性和驗證。不確定解釋通過考慮數據中的不確定性,并更一般地作為對模型表示的函數的一種正則化,可以改善模型在各種魯棒性概念方面的表現。我們展示了它在應對噪聲特征和噪聲標簽方面的魯棒性,這在現實世界數據中很常見。接下來,我們展示了如何通過隨機平滑理論有效地實現可驗證的對抗魯棒性。最后,我們討論了相關主題的驗證,并提出了第一個模糊決策樹的驗證算法。
第二支柱是可解釋性。雖然決策樹普遍被認為是可解釋的,但基于樹的模型的良好性能通常僅限于表格數據,并且需要特征工程,這增加了設計工作量,同時集成方法則大大降低了相較于單棵樹模型的可解釋性。通過利用KDDTs的高效擬合和可微性,我們提出了一種學習參數化特征變換的系統。通過選擇可解釋的特征類并應用稀疏正則化,我們可以獲得具有競爭性能的緊湊單樹模型。我們展示了其在表格數據、時間序列和簡單圖像數據上的應用。
第三支柱是務實的進展。半監督學習(SSL)是由標簽成本的高昂而驅動的,從混合的標記和未標記數據中學習。樹的半監督學習通常僅限于黑箱包裝方法,而這并不適合樹。我們提出了一種基于我們對數據的不確定解釋的新穎內在SSL方法。聯邦學習(FL)是由數據共享限制驅動的,通過通信模型從分布式數據中學習。我們引入了一種基于函數空間正則化的新FL算法,它借用了我們不確定解釋形式中的概念和方法。與先前的FL方法不同,它支持非參數模型,并在溫和的假設下具有收斂保證。最后,我們展示了我們的FL算法還提供了一種簡單的集成合并實用工具。
遷移學習對于提高深度學習模型在序列決策任務中的數據效率和適用性至關重要。然而,確定哪些知識可以遷移以及如何有效利用它仍然是一個尚未解決的難題。近年來在表示學習方面的突破,尤其是在語言和視覺領域,展示了從大規模數據集遷移知識的強大能力。同時,仿真平臺和環境設計的進步也為收集多樣化、逼真的訓練數據開辟了新的可能性。在此背景下,本論文包含的四項研究工作探討了序列決策任務中不同方面的遷移技術。 首先,我們對先前在序列決策中整合自然語言數據和表示的研究進行了全面綜述。我們的綜述揭示了尚未解決的挑戰,并規劃了有前景的研究方向,主張更廣泛地利用大型語言模型,并開發語義復雜性更高的環境。其次,我們提出并研究了一種用于多模態多任務設置的模塊化架構設計,以實現組合泛化。受控實驗表明,該設計在觀察、動作和指令空間的未見組合上實現了零樣本遷移,并有效整合了新的觀測模態。第三,我們提出了一種方法,通過遷移源任務中與價值相關的狀態特征知識,來引導無監督技能發現,以生成更有用的行為。在連續控制領域的實驗表明,我們的方法在狀態空間的相關維度上實現了更優的覆蓋,并提升了下游任務的表現。最后,我們對非平穩環境中元梯度的分析表明,將優化器作為上下文特征的函數進行學習,可以實現更快的適應速度和更高的整體表現。 總的來說,本論文為在序列決策任務中實現有效知識遷移提供了新穎的見解和策略。研究工作展示了整合語言、針對性歸納偏差、適度監督以及元學習自適應帶來的優勢。
開發能夠處理復雜任務的人工智能系統的需求推動了深度學習的快速發展,尤其是自 2016 年以來,神經網絡模型已成為主流方法。這些模型的應用范圍廣泛,從推薦系統到語音識別,徹底變革了多個領域。然而,仍然存在一些挑戰,特別是在融合大量特定領域知識和減少大語言模型固有的生成幻覺方面。本論文探索了將檢索增強生成(RAG)集成到多模態問答(QA)系統中的方法,以應對這些挑戰。通過利用外部知識源,RAG 提高了模型的準確性并增強了對特定領域信息的訪問能力。研究按以下順序展開:首先,為了高效利用外部知識回答知識密集型的視覺問題,我們提出了 RA-VQA(檢索增強視覺問答)框架,該框架專為知識驅動的視覺問答(KB-VQA)設計。我們展示了檢索器和生成器模型聯合訓練在最大化性能方面的效果。其次,FVQA(基于事實的視覺問答)2.0 引入了半自動標注的對抗樣本,以解決數據分布不均衡問題并增強系統的魯棒性,展示了在處理復雜場景方面的顯著改進。第三,開發了 FLMR(細粒度后交互多模態檢索器)及其擴展版本 PreFLMR(預訓練 FLMR),突顯了后交互模型在實現卓越多模態檢索性能方面的重要性。我們證明了所提出的模型能夠捕捉查詢與上下文之間的細粒度交互,在廣泛的多模態檢索任務中實現了高效和準確的檢索。隨后,研究重點轉向 TableQA 中的檢索方法,引入了 ITR(內表檢索器)用于封閉域場景,并提出了 LI-RAGE(帶顯式信號的后交互檢索增強生成)用于開放域 TableQA 任務。兩種框架在現有方法上表現出顯著的性能提升。我們展示了在 TableQA 中整合檢索方法顯著推動了研究邊界,提供了最先進的問答性能。通過細致的實驗和創新,本論文不僅在多模態檢索增強系統的理論理解上取得了進展,還提供了實用的框架和數據集,以應對不同領域問答中的關鍵挑戰。在邁向有效 AI 系統的過程中,這些貢獻為信息檢索和多模態問答的未來發展奠定了堅實基礎。創造能夠處理復雜任務的人工智能(AI)一直是人工智能研究領域的目標。自 2016 年以來,深度學習已成為人工智能中的一種重要方法,其中通過構建和訓練神經網絡模型,使其逐漸成為開發人工智能的主流方法 [139]。近年來,這些神經網絡模型也在各種實際場景中得到了廣泛應用,包括推薦系統、對話代理、語音識別、情感分析和人機交互。人工智能模型因其在自動分析、邏輯推理和內容生成等復雜任務中的潛力而備受重視。2021 年,GPT-3(Generative Pre-trained Transformer 3)[23] 的發布以及一系列開源大型語言模型,證實了在數據驅動方法下擴展模型參數和訓練數據的有效性,正式開啟了以大模型為核心的研究浪潮。大型語言模型的出現標志著人工智能領域的新里程碑,并引起了人們對數據驅動方法的關注。這些在海量數據上訓練的模型在各種語言任務中表現出色,從簡單的語言理解到復雜的文本生成,展現出前所未有的能力。多模態是指整合來自不同來源的異構數據,通常包括語言、視覺和音頻信息,廣義上還延伸到圖數據和表格(結構化)數據。自 2021 年以來,多模態任務的研究日益突出,特別是自然語言處理和計算機視覺領域的逐步融合。因此,學術界和工業界正在投入更多資源研究多模態大型模型。以 GPT-4 [232] 為代表的一系列多模態大型模型(如 LLaVA [198] 和 MiniGPT-4 [388])的出現,意味著大型模型正逐漸獲得強大的視覺-語言理解和推理能力,有望應用于處理更復雜的多模態任務。例如,強大的視覺-語言理解能力在醫療保健 [220, 329, 371]、教育 [18, 154] 和推薦系統 [203, 351] 等應用中至關重要,在這些領域中,對視覺和文本信息的準確解釋和整合可以顯著提升性能和結果。然而,各種研究 [219, 44] 表明,盡管大型模型可以基于自身知識處理各種復雜任務,但其能夠存儲和熟練應用的知識是有限的,特別是在復雜和特定領域的知識方面。當前的大型模型存在生成幻覺 [118, 196] 的問題,在回答問題時經常生成錯誤或模棱兩可的內容,并且在需要專業知識或世界知識的場景中表現不佳。本章開頭引用的蘇格拉底名言:“真正的智慧在于知道自己一無所知”,完美地適用于我們對優秀 AI 系統的期望。只有當 AI 系統認識到自身的局限性,并且在缺乏相關信息時能夠利用外部資源獲取知識時,它才真正具備“真正的智慧”。在此背景下,在深度學習系統早期提出的檢索增強生成(Retrieval-Augmented Generation,RAG)再次受到關注。RAG 是一種將信息檢索系統整合到大型模型生成過程中的流程。它利用檢索系統從知識庫中提取必要的知識,并將這些信息提供給模型,從而使其能夠基于外部檢索的數據進行推理或回答問題。RAG 可以通過以下方式為大型模型的生成帶來顯著優勢: * 通過明確呈現模型所需的知識,減少大型模型的幻覺,提供更準確的答案(例如,股票代碼和產品信息)。 * 使模型能夠訪問更廣泛的行業特定和世界知識。為模型配備特定領域的知識庫,使其能夠處理專業任務。 * 增強模型的時效性。雖然模型的訓練和參數更新通常需要較長時間(甚至數月或數年),但信息更新的速度要快得多。模型從持續更新的數據庫中提取最新信息進行問答,可以顯著提高其相關性。 然而,在本文研究的初始階段(2021 年 10 月),多模態大型模型和多模態 RAG 系統的研究仍存在一些不足。知識密集型任務的多模態系統通常存在以下問題: * 模型結構復雜,參數規模龐大,但在需要知識的多模態任務上表現不佳。 * 所使用的多模態信息檢索系統性能較弱,召回率(評估檢索性能的指標)較低。 * 信息檢索組件與檢索增強生成模型之間的整合不佳,即使檢索性能良好,回答性能也不理想。 在下一節中,我們將提出本研究旨在解決的關鍵研究問題,以克服現有多模態 RAG 系統的局限性。
隨著深度學習逐漸滲透到計算機視覺和自然語言處理等領域,并越來越多地與對人類有影響的大型關鍵系統相集成,解決人工智能的安全性問題已成為該領域的核心挑戰之一。在這些重要系統中,目標不僅僅是構建最準確的AI模型,而是要構建那些同時具備高準確性和可證明安全性的AI模型。本論文探討了人工智能安全性的兩個重要方面:魯棒性和公平性。魯棒性要求模型在輸入分布與訓練期間遇到的分布不同時也能良好表現。公平性是一種安全屬性,要求模型預測在不同個體和群體間保持公平。
在論文的第一部分,我們聚焦于魯棒性。我們首先提出了一種新穎的認證方法,可以保證模型對輸入變換具有魯棒性。在第二章中,我們將此方法擴展到訓練模型,使其能夠證明魯棒性。這些貢獻基于諸如通過優化和采樣進行認證的創新技術,以及通過在凸松弛中尋找對抗樣本來進行訓練的方法。 論文的第二部分則探討了公平性,我們開發了新的方法,用于學習滿足個體或群體公平性要求的公平表示。我們還將個體公平性與魯棒性聯系起來,使得我們能夠利用論文第一部分中的技術來同時解決公平性問題。 本論文中提出的方法具有廣泛的應用前景,例如魯棒性方法可以應用于更復雜的輸入變換,而群體公平性表示學習也可以用于將輸入編碼為更隱私的表示。我們相信,本論文提出的方法能夠豐富我們在AI安全性方面的工具庫,并在未來應用于更多的系統中。 深度學習在過去十年中取得了顯著成功。基于深度學習的模型現已廣泛應用于各個領域,如推薦系統【16】、計算機視覺【17, 18, 19】和涵蓋自然語言的一般任務【20】。然而,隨著深度學習模型能力的提升,人們也對其安全性產生了極大的關注。因為這些模型并非孤立使用,而是作為更大系統的一部分,而其預測結果可能會對人類產生下游影響。例如,計算機視覺模型可以用在自動駕駛車輛中,幫助其檢測街道標志,其預測結果直接影響乘客和其他交通參與者的安全。一個預測學生GPA的模型可以用于大學錄取過程中,這意味著其預測質量可能會影響一個人的教育路徑。這強調了研究人工智能安全性的重要性,特別是這些系統在最壞情況下的表現,以確保其在盡可能多的情況下能夠正確運作。
在本論文中,我們專注于安全人工智能的兩個方面:魯棒性與公平性。當機器學習模型在輸入發生變化時仍能正確運行,則稱其具有魯棒性。輸入的變化可以是由對抗者造成的(例如,有人故意向圖像中添加噪聲),也可以是在推理過程中自然發生的(例如,攝像頭拍攝的圖像發生位移)。解決這一問題對于開發能夠在環境變化時依然有效的機器學習系統至關重要。公平性是人工智能安全的另一重要話題,隨著機器學習模型通常基于偏差數據進行訓練,模型本身也可能會開始表現出類似的偏差行為。盡管公平性有多種定義,本論文關注個體公平性(要求相似個體獲得相似結果)和群體公平性(要求不同群體間的平均預測相似)。隨著機器學習越來越多地被用于重要的社會決策中,充分解決公平性問題變得越來越重要。
本論文的主要目標是推進能夠保證機器學習模型魯棒性和公平性的方法。為此,我們結合使用了形式方法(例如,抽象解釋和凸松弛)和統計方法(例如,有限樣本邊界)。具體而言,在第三章中,我們引入了一種基于優化和采樣相結合的方法,以認證機器學習模型對幾何變換的魯棒性。接下來在第四章中,我們不僅對模型進行認證,還提出通過潛在對抗樣本進行訓練的創新概念,使模型在訓練時即具備可證明的魯棒性。第五章首次探討了輸入數據的預處理問題,從而使數據消費者能夠證明個體公平性。最后,第六章提出了一種新的預處理方法,使得轉換后的輸入數據無法用于推斷敏感屬性,從而保證在其之上的任何下游分類器的群體公平性。 在表1.1中,我們總結了本論文的貢獻,每一行對應一個章節:章節中涉及的安全屬性,以及用于安全性檢查的關鍵方法。接下來,我們將對本論文的貢獻進行分章節概述。
近年來,機器學習取得了顯著的突破。隨著機器學習逐漸滲透到日常生活的各個方面,個人和組織越來越多地與這些系統互動,表現出各種社交和對抗性行為。這些行為可能對機器學習系統的行為和性能產生顯著影響。具體來說,在這些互動過程中,數據可能由策略性個體生成,由自利的數據收集者收集,甚至可能被對抗性攻擊者污染,并用于創建滿足多重目標的預測器、模型和政策。因此,機器學習系統的輸出可能會退化,例如深度神經網絡對抗性樣本的脆弱性(Shafahi 等, 2018; Szegedy 等, 2013),以及在面對策略性個體時經典算法性能的下降(Ahmadi 等, 2021)。解決這些挑戰對于機器學習在社會環境中的成功至關重要。 本論文分為兩部分:社交數據源下的學習和對抗性數據源下的學習。對于社交數據源,我們考慮了以下問題:(1) 在有限和無限假設類中與策略性個體的學習,其中我們對在線和PAC策略環境中的可學習性進行了理解,(2) 在單輪聯邦學習、多輪聯邦學習和協作主動學習中,自利數據收集者的激勵與背叛,(3) 游戲中的學習,在其中一名玩家運行學習算法而不是做出最佳回應,(4) 在決策制定和在線學習中的多目標學習。對于對抗性數據源,我們研究了以下問題:(1) 在干凈標簽攻擊下的魯棒學習,攻擊者向訓練集中注入一組正確標記的點,以誤導學習者在特定測試點上出錯,(2) 在變換不變性下的學習以及對流行的數據增強方法的分析。
近年來,機器學習取得了顯著的突破。隨著機器學習逐漸滲透到日常生活的各個方面,個人和組織與這些系統的互動日益頻繁,表現出各種社交和對抗性行為,這些行為可能會顯著影響機器學習系統的性能。 策略性個體 在許多領域,機器學習被應用于為各種資源的申請者提供決策依據。然而,當個體有動機從特定的預測結果中獲益時,他們可能會通過修改自身特征來獲取有利的預測結果。這種行為可能損害預測性能,使得學習過程容易受到金融政策制定中的經典原則——古德哈特定律(Goodhart's law)的影響,該定律指出:“一旦某個指標成為公眾的目標,它就不再是一個好的指標。” 這種學習系統與其所應用對象之間的天然張力廣泛存在于貸款審批、大學招生、職位招聘和保險等場景中。在這些情況下,學習系統的目標是進行準確的預測,而個體則無論其真實標簽如何,都有動力被歸類為正面。例如,在大學招生中,申請者可能會重考SAT或選擇更容易的課程以提高GPA,從而誤導分類器。
自利的數據收集者 在許多現實世界的應用中,數據集分布在不同的孤島中,如醫院、學校和銀行,因而需要它們之間的合作。近年來,協作學習(如聯邦學習)被廣泛采用,以促進大量數據收集者之間的合作。然而,決定協作學習成功與影響的關鍵在于能否招募和留住大量的數據收集者。在協作學習協議與數據收集者之間存在一種內在的張力。學習協議旨在找到對所有數據收集者都有利的模型,而每個數據收集者的目標則是找到一個對其本地數據有利且數據貢獻最小的模型。因此,如果學習協議要求數據收集者提供超出其自身目標所需的數據量,他們將不會按協議要求進行貢獻。
多目標用戶 雖然機器學習問題通常涉及優化單一標量獎勵,但在許多領域,同時優化多個(可能互相沖突的)目標是可取的或必要的。例如,自動駕駛汽車用戶希望同時追求安全、速度和舒適性,但速度可能對安全(如延長車輛突然停下的時間)或舒適性(如在快速轉彎時引起不適)產生負面影響。因此,當一個學習系統優化單一標量損失時,它可能忽視這些多重目標,從而為用戶生成不令人滿意的模型或策略。此外,在學習過程中可能存在多個利益相關者,每個利益相關者都有不同的目標。僅關注一個目標可能導致其他目標的性能顯著下降。
對抗性攻擊者 對抗性攻擊在暴露機器學習系統的脆弱性方面發揮了重要作用。許多流行的模型在現實世界場景中缺乏魯棒性。例如,在圖像任務中,向訓練圖像添加不可察覺的噪聲(Szegedy等,2013)或通過添加額外的圖像來污染訓練集(Shafahi等,2018)可以嚴重損害深度神經網絡的性能。 由于這些社交和對抗性數據因素,機器學習系統的輸出可能會退化。應對這些挑戰對于機器學習的成功至關重要。
本論文從理論角度出發,針對由這些社交和對抗性數據因素引發的可信性挑戰作出貢獻。這些數據因素在現有理論中尚未得到充分建模。因此,本論文側重于建模機器學習交互中固有的社交和對抗性方面,分析其對預測器的影響,并開發增強性能的方法和見解。 本論文的核心主題是為社交和對抗性數據源下的可信機器學習建立理論基礎。
我們目前正經歷著一場人工智能(AI)革命。生成式AI和特別是大型語言模型(LLMs)的顯著改進正在推動這場革命。然而,這些大規模AI系統雖然強大,但更難理解。一旦訓練完畢,它們的內部工作機制仍然是一個既迷人又可能令人恐懼的謎團。問題在于,作為這些系統的創造者,我們如何理解和控制它們,以及是什么驅動它們的行為。 在本論文中,我將嘗試通過機械解釋性(MI)的工具來理解深度神經網絡的某些特性。這些工具讓人聯想到神經科學家的工具:1)分析腦細胞的連接性(連接組學) 2)測量和分析神經元活動 3)測量在進行中的計算中的主動干預的效果。盡管對大型深度學習模型的嚴格理解尚不可及,但在本論文中,我將提供通過迭代解釋性實現這一目標的可能路徑的證據:一個設計、訓練和分析AI系統的迭代過程,其中通過MI獲得的洞察力導致更強大和更可解釋的模型。 首先,我提供了證據,證明在單獨研究時,可以理解Transformer(用于LLMs的人工神經網絡架構)令人著迷的上下文學習特性。作為第一步,我們分析了在少量回歸數據上訓練的小型Transformer模型的權重。通過使用MI的工具,我們可以逆向工程這些訓練好的Transformer,這些Transformer配備了線性自注意力層,并展示了它們在前向動態中基于梯度下降和上下文數據隱含地學習內部模型。 其次,我將解決這一簡單設置中的一個重要缺陷,并通過訓練自回歸Transformer更接近LLMs。在這里,我們訓練模型來預測由線性動態獲得的元素序列中的下一個元素。同樣,借助神經科學家的工具,我們可以逆向工程這些自回歸模型,并確定模型內部 i)構建優化問題 和 ii)通過基于梯度下降的算法解決這些問題。隱藏在模型權重中的這個算法允許我們在訓練后將模型重新用作上下文學習者。基于這些洞察,我們然后閉合了解釋性循環,并提出了一種新的自注意力層,該層可以在設計時在單個層內解決已識別的優化問題。在提供更好解釋性的同時,我們在簡單實驗和語言建模中展示了性能的改進。 第三,我將展示在元學習和持續學習背景下的另一個迭代解釋性的例子,我們在其中改進了著名的與模型無關的元學習(MAML)的性能和解釋性。MAML的目標是學習一種網絡初始化,使網絡能夠快速適應新任務。基于通過機械解釋性獲得的先前洞察,我們提出了稀疏MAML,這是一種MAML變體,此外還決定主動停止學習某些權重:它學會了在哪里學習。盡管在常見的少樣本分類和持續學習基準中表現出性能改進,稀疏MAML提供了一個成功解釋性循環的另一個例子,因為所學習的解決方案在設計上允許更好的解釋性。
在過去的十年中,深度學習展現出了顯著的能力,表現出對大規模數據的強烈依賴。在這一時期,我們見證了大型語言模型、擴散模型和分割模型的規模化法則生效,通過利用大規模真實世界數據集實現了接近人類水平的性能。然而,當涉及到具身AI時,由于機器人的脆弱性和有限的速度,生成真實世界數據變得具有挑戰性和成本高昂。與此相反,合成數據和模擬環境提供了一種高效且經濟的方法來訓練機器人代理和生成精確的監督。因此,合成數據作為可擴展和高質量訓練具身AI代理的數據的有希望的解決方案而出現。鑒于使代理能夠泛化到真實世界場景的最終目標,圍繞合成數據的主要挑戰在于通過縮小模擬與現實差距(Sim2Real差距)來準確捕捉真實世界分布。解決這一挑戰涉及兩個關鍵方面:生成合成數據和有效地利用它。在這篇論文中,我展示了對這兩個方面的貢獻的兩項工作。
第一項工作著眼于合成數據的生成。我介紹了兩種旨在生成與真實世界分布一致的合成數據的方法。首先,我提出了iGibson,一個模擬環境,用于在大規模真實場景中開發機器人的交互式解決方案。iGibson構建了3D掃描真實世界家庭的交互式復制場景,使對象、布局和可交互性的分布與真實世界一致。為了進一步促進更健壯的具身代理的訓練,iGibson提供了針對材料(視覺外觀和動態特性)和對象形狀的領域隨機化程序,同時尊重對象放置的分布并保持可交互性。其次,我提出了GINA-3D,一個使用來自攝像機和LiDAR傳感器的真實世界駕駛數據的生成模型,創建多樣化車輛和行人的逼真的3D隱式神經資產。與iGibson不同,后者涉及在建立模擬環境時顯著的人力努力,GINA-3D利用了直接學習生成與真實世界觀察匹配的合成資產的生成模型。我展示了證據,表明GINA-3D在生成的視覺和幾何質量方面實現了最先進的性能和多樣性。
第二項工作專注于有效地利用合成數據。通過設計健壯的學習算法和模型,我們可以創建更好地泛化到真實世界場景的模型。首先,我介紹了Taskonomy,它利用合成數據構建了任務空間的計算分類法和地圖。通過利用任務關系,我展示了證據,表明我們可以使用比完全監督方法少至少一個數量級的數據,且模型可以很好地泛化到真實世界數據集。然后,我介紹了情境融合,它訓練代理融合一大組對應于多樣化視覺感知能力的視覺表征。這種方法在新環境中的性能顯著提高,超過了真實世界預訓練的基線和其他融合方法。最后,我介紹了ACID,用于變形物體操縱的動作條件隱式視覺動態。通過利用大規模合成數據和獨特的幾何和動力學監督,我可以將模擬訓練的ACID模型直接應用于真實世界物體,并在將它們操縱成目標配置方面取得成功。
總結來說,這篇論文研究了合成數據和模擬環境如何為具身AI提供有希望的解決方案。所展示工作的核心在于合成數據的精心生成和有效利用。通過模擬環境、生成模型、任務遷移學習、視覺運動策略訓練和視覺動力學建模等策略,我們可以縮小模擬訓練與真實世界應用之間的差距,為更有能力和多功能的具身AI代理鋪平道路。
在過去的十年中,機器學習在許多具有挑戰性的基準上取得了驚人的成功。然而,我們的機器學習模型是否準備好離開這個實驗室環境,并安全地部署在高風險的現實世界應用程序中?本文通過開發和應用新的框架,使現代機器學習系統更魯棒,從而采取措施使這一愿景成為現實。特別是,我們在這類系統的兩種主要脆弱性模式:對抗性示例和后門數據中毒攻擊方面取得了進展。具體來說,在本文的第一部分中,構建了一種對抗樣本的防御方法,這是第一個在自適應對手面前提供非平凡的對抗魯棒性的方法。在第二部分中,開發了一個后門數據投毒攻擊框架,并展示了在自然假設下,我們的理論結果如何激勵算法標記和刪除經驗上成功的潛在投毒示例。最后,簡要探索了初步證據,表明該框架也可以應用于其他數據模態,如表格數據,以及其他機器學習模型,如決策樹的集成。近年來,機器學習,特別是深度學習,在具有挑戰性的人工智能基準上取得了巨大的進步,從計算機視覺[KSH12]到玩游戲[SHS+18],從自然語言處理[BMR+20]到機器人[ABC+20],再到自動駕駛汽車,都取得了令人印象深刻的結果。這些成功給我們帶來了希望,在未來,普適的ML系統將乏味的體力和腦力任務自動化,甚至增強和改善我們的健康、智能和社會。然而,這些令人印象深刻的研究成果和演示是否準備在一個混亂、異構、有時是對抗的世界中轉化為同樣令人印象深刻和有影響力的應用?雖然我們最先進的機器學習模型普遍在各個領域和模態中取得了偉大的結果,但它們在訓練數據中同樣普遍地易受變化的影響——無論是良性的還是對抗的。這篇論文是關于開發原則性的方法來防御特定類型的這種脆弱性。在以下部分中,我們給出了論文的路線圖和我們的主要貢獻。
近年來,機器學習在人工智能中扮演著越來越重要的角色。此外,在網上購物、虛擬個人助理、推薦系統等領域,它正迅速成為我們日常生活的一部分。數據與機器學習算法的結合推動了這些人工智能方法的廣泛應用。然而,對所處理的數據存在敏感性和隱私方面的擔憂。這在醫療保健和金融等領域尤為突出。保護隱私的機器學習通過對敏感數據的私有計算來緩解這些隱私挑戰。然而,這個過程并非微不足道或沒有權衡。
在這篇論文中,我們專注于設計有效和高效的協議,以促進端到端隱私保護機器學習,特別是神經網絡訓練和推理。我們主要關注多方計算和非加密原語,如用于私有計算的聯邦學習。我們首先設計了一個高效的雙方安全訓練和預測框架QUOTIENT。QUOTIENT受益于標準神經網絡訓練的整體適應,使其成為加密友好的訓練過程,同時還提供了用于安全計算的定制混合MPC協議。接下來,我們引入聯邦學習來支持對未標記數據進行高度分散的訓練。我們激發了“豎井”的想法,以確保優越的隱私和跨子群體的隔離。為了完成技術貢獻,我們提出了一個MPC友好的秘密安全承諾方案,以啟用認證預測。更具體地說,這有助于在推理時對訓練過的模型強制執行非功能約束,如公平性、可解釋性和安全性,使過程更公平。我們設計、實現并對所有這些框架進行基準測試,以展示計算、通信和準確性方面的性能提升。我們以一個用戶研究來結束論文,該研究聚焦于增強可用性、效率、協助設計和幫助確保在保護隱私的計算框架中的公平性。這項研究采用半結構化訪談的形式,對隱私保護計算生態系統中的各種利益相關者進行訪談。
對于我們的協議,我們在速度上提高了一個數量級以上的技術水平,同時在準確性和通信方面取得了顯著的進步。用戶研究為純技術貢獻提供了豐富的社會技術視角。本文將理論、實踐和評估相結合,作為一個多角度的框架,激勵有效、高效和公平的隱私保護機器學習的設計、開發和進一步研究。
強化學習(RL)為數據驅動決策提供了一個通用框架。然而,正是這種通用性使得這種方法適用于廣泛的問題,也導致了眾所周知的效率低下。在這篇論文中,我們考慮了有趣的決策類所共有的不同屬性,這些屬性可以用來設計計算效率和數據效率都很高的學習算法。具體來說,這項工作研究了決策問題的各個方面的低秩結構和經典確定性規劃的效果稀疏性,以及基于端到端模型的方法所依賴的性能。我們首先展示了后繼表示中的低秩結構如何使高效在線學習算法的設計成為可能。類似地,我們展示了如何在Bellman算子中找到相同的結構,我們使用Bellman算子來制定最小二乘時間差分學習算法的有效變體。我們進一步探索狀態特征中的低秩結構,以學習完全允許在低維空間中進行高效規劃的有效轉換模型。然后,我們進一步了解基于模型的端到端方法,以便更好地理解它們的屬性。我們通過約束優化和隱式微分的視角來研究這類方法。通過隱式視角,我們得到了這些方法的屬性,這些屬性使我們能夠確定它們執行良好的條件。在本文的最后,探索了如何利用經典規劃問題的效果的稀疏性來定義一般的領域無關啟發式方法,通過使用基于潛在的獎勵塑造和提升函數近似,可以用來大大加快領域相關啟發式方法的學習。
//dspace.mit.edu/handle/1721.1/144562
可解釋人工智能(xAI)是近年來出現的一個有趣的問題。許多研究人員正試圖從不同的角度和有趣的結果來處理這個問題。然而,我們在理解這些類型的模型方面仍處于起步階段。在未來的幾年里,深度學習模型的開放性將被討論。在經典的人工智能方法中,我們經常遇到深度學習方法。這些深度學習方法可以根據數據集大小、數據集質量、用于特征提取的方法、用于深度學習模型的超參數集、激活函數和優化算法得出高效的結果。然而,目前的深度學習模型還存在一些重要的不足。這些基于人工神經網絡的模型是黑盒模型,它概括傳輸給它的數據并從數據中學習。因此,輸入和輸出之間的關系是不可觀察的。這是人工神經網絡和深度學習模型的一個重要開放點。由于這些原因,有必要認真研究黑盒模型的可解釋性和可解釋性。