亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在現代機器學習中,海量數據通常來源于多樣且分布式的源頭,這使得分布式訓練成為一種核心范式,尤其適用于諸如聯邦學習(Federated Learning, FL)等大規模應用場景。然而,在分布式訓練中存在兩大關鍵挑戰:提升通信效率以及保護訓練過程中使用的敏感數據的隱私。本論文針對這兩個挑戰,深入探討了通信效率、差分隱私與優化算法之間的相互關系,這些要素對于實現可擴展、高效且具備隱私保護能力的分布式學習至關重要。 我們首先針對分布式優化中的通信效率問題,提出了 Rand-Proj-Spatial 方法——一種基于稀疏化的、通信高效的分布式向量均值估計器。該方法利用子采樣隨機哈達瑪變換(Subsampled Randomized Hadamard Transform, SRHT)進行隨機投影,從而在客戶端間挖掘相關性,相較于傳統稀疏化方法,在估計精度與通信成本之間實現了更優平衡。 隨后,我們聚焦于預測任務中的差分隱私問題,提出了 DaRRM 框架,一種統一的私有多數集成(private majority ensembling)方法。DaRRM 通過優化一個數據依賴型的噪聲函數,在滿足固定隱私預算的前提下提升算法實用性,在私有圖像分類任務中表現出強勁的實驗性能。 最后,我們考察了差分隱私與優化之間的耦合關系,分析了現有 差分隱私打亂梯度(DP-ShuffleG) 方法在解決私有經驗風險最小化(ERM)問題時的局限性,并提出了一種混合算法 Interleaved-ShuffleG。該方法引入公開數據以降低經驗過度風險,并通過新穎的理論分析與跨多個數據集和基準的優越實證結果加以支持。 綜上所述,本論文在通信效率與隱私保護優化算法的理解與設計方面取得了重要進展,為構建可擴展、安全的分布式學習系統提供了理論基礎與實踐路徑。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

機器學習(ML)模型正越來越多地在關鍵場景中做出或輔助決策,這些場景包括金融市場、電子商務以及物理世界。然而,從機器學習預測轉向機器學習決策時會面臨額外的挑戰:往往需要推理世界中其他個體的激勵,戰略性地利用信息,并推斷因果關系,而這一切通常發生在僅有部分反饋的情況下。此外,這些問題在現實決策情境中往往會相互疊加,從而要求學習者能夠同時加以處理。 本論文旨在為存在信息不對稱和結果不確定性的戰略環境下的學習與決策奠定數學基礎。通過將算法博弈論、信息經濟學、在線算法、因果推斷等工具和方法與傳統機器學習方法相結合,本研究提出了新的框架與算法,用于理解和優化動態多智能體環境中的算法決策過程。

本論文的第一部分研究了在不同形式的額外信息可用時的激勵下學習問題。主要貢獻包括:第一個關于具有附加信息的 Stackelberg 博弈學習框架及其可證明保證、博弈中的元學習方法,以及利用信息設計提供算法救濟(algorithmic recourse)的框架。論文的第二部分探討了在存在結果不確定性時,帶有激勵約束的學習所面臨的額外挑戰。我們提出了兩種流行因果推斷方法(工具變量回歸和合成控制)的策略感知(strategy-aware)版本,以及在更現實的反饋結構下的新型戰略分類算法。 近年來,機器學習(ML)系統在諸多領域取得了廣泛關注的成功,包括語言建模 [84]、計算機視覺 [297] 和藥物發現 [206]。這些突破得益于在大規模標注數據集上的訓練,使得 ML 模型能夠準確預測感興趣的量,例如文本序列中的下一個 token、圖像內容或蛋白質結構。 然而,盡管準確預測是一項重要能力,在許多實際應用中,最終目標是做出優質的下游決策。因此,基于機器學習的決策被視為一個自然的前沿方向。 從 ML 預測轉向 ML 決策時,會出現額外的挑戰:當 ML 模型的決策會影響他人時(例如在算法招聘與貸款 [270, 64] 中),這些個體會有動機采取戰略性行為。不同個體還可能擁有不同的信息來源,從而在決策時影響其行動。在這些領域中運行的算法智能體必須能夠可靠地處理多源信息,同時還需推理自身與他人之間的信息不對稱。更復雜的是,許多現實世界的決策任務缺乏標準監督學習所假設的清晰、結構化反饋。模型往往并非為每個決策接收到明確的標簽,而只能觀察到噪聲大且間接的獎勵信號,從而使得評價決策質量與有效學習更加困難。 上述每一類挑戰都已有大量研究,但往往是孤立展開的。算法博弈論研究如何設計能夠考慮自利型智能體戰略行為的系統 [284]。近年來,這一方向與機器學習相交,探索學習算法在戰略環境中的表現。異質與不對稱信息的挑戰則通過經濟學中的信息設計 [63]展開,旨在理解如何披露信息以影響博弈與市場中的行為。最后,多臂賭博機(bandits)[327, 233]文獻則聚焦于在不確定性下進行決策的學習算法設計。 這些領域提供了寶貴的見解,也構成了本論文的研究基礎。然而,要在真實世界中利用 ML 進行決策,往往需要一種綜合性方法,將這些視角加以結合。因此,本論文旨在通過融合算法博弈論、信息設計、因果推斷和多臂賭博機等方法與傳統 ML 技術,建立嚴謹的數學基礎,用于應對戰略性與不確定性環境下的數據驅動決策。 第二章涵蓋了本論文的背景知識。第 2.1 節介紹了算法博弈論中的基本概念,包括同時博弈與 Stackelberg 博弈。這些博弈模型為研究在目標與信息不一致環境中個體的競爭與合作互動提供了結構化方式。第 2.2 節介紹了在線學習的基礎,即數據按序到達而非一次性給出,正如許多重復決策場景中那樣。由于數據分布可能隨時間變化,在線學習智能體必須能夠在(部分)反饋下動態更新策略。最后,第 2.3 節討論了合成控制方法,它在因果推斷和面板數據的反事實推理中扮演關鍵角色,而面板數據在許多決策情境中自然出現。 本論文的第二部分提出了在帶激勵的學習中,如何利用不同類型的信息來改進決策的新算法。第 3 章和第 4 章研究了 Stackelberg 博弈中的附加信息問題。在第 3 章中,我們證明了與無附加信息的情形不同,在最壞情況下無悔學習(no-regret learning)不可能實現。受此啟發,我們提出了在兩個自然放松條件下的學習算法。第 4 章進一步研究了在僅有賭博機反饋(bandit feedback)而非完全反饋的條件下,如何在 Stackelberg 博弈中學習。這一環境需要新的算法技巧,我們展示了如何將問題歸約為領導者效用“對偶空間”中的上下文賭博機問題,并進一步將該方法應用于組合式二價拍賣中的競價學習,以及公共與私有狀態下的在線 Bayesian 說服(persuasion)問題。 第 5 章研究了博弈中的另一類額外信息:來自相似歷史博弈的序列。在此,我們首次為多類經典博弈(包括雙人零和博弈、一般和博弈及 Stackelberg 博弈)建立了元學習(meta-learning)保證。具體而言,我們得到的收斂速率依賴于所遇博弈序列間的自然相似性度量,同時在博弈序列完全任意時,能夠回收已知的單博弈保證。 第二部分的最后兩章研究了在激勵下學習時的私有信息作用。第 6 章展示了如何戰略性地披露信息,以向受到算法決策影響的個體提供一種“算法救濟”(algorithmic recourse)。第 7 章則研究了在對被說服的戰略型智能體存在不確定性的情況下的學習與說服問題。 本論文的第三部分聚焦于在激勵與不確定性下學習的新算法。第 8 章研究了當智能體對算法決策做出戰略性回應時,ML 模型所能觀察到的反饋類型。先前工作假設智能體的標簽在決策后可見,但這一假設在招聘與貸款等高風險領域往往不現實。我們提出了在弱反饋(稱為“apple tasting”或單側反饋)條件下的學習與決策算法。 第 9-11 章探討了激勵下的因果推斷。第 9 章通過觀察到部署的模型可被視為一種工具變量(instrument),其影響個體的可觀測特征但不直接作用于結果,從而建立了戰略響應與工具變量回歸之間的新聯系。這一視角使得在存在戰略行為時仍可用工具變量回歸估計因果關系。第 10 章研究了在戰略行為存在時合成控制的表現。我們證明合成控制在此環境下無法準確估計因果關系,但若明確建模戰略行為,則可修改以在下游決策任務中獲得良好表現。第 11 章回到合成控制環境,并提出了在智能體存在戰略行為且治療服從性(treatment compliance)無法保證時的因果參數估計算法。這需要同時推理激勵、不確定性與信息不對稱,并借助第 6、7 章討論的說服文獻中的工具與技巧。 最后,本論文在結論部分強調了未來值得探索的方向。

付費5元查看完整內容

語言模型(Language Models, LMs)在自然語言處理(NLP)任務中展現出了卓越的能力,然而要將其潛力充分釋放到具體應用中,仍面臨諸多挑戰。隨著模型規模與復雜度的不斷增長,如何高效且穩健地對其進行適配變得愈發困難。目前主流的方法通常是在帶標簽數據上進行微調(fine-tuning),但該范式往往難以有效利用大量可獲取的無標簽數據,容易在任務特定的小規模數據集上產生過擬合,并且伴隨著高昂的計算開銷。這些限制在現實世界中尤為突出——語言任務與領域的邊界常常是開放且動態變化的。 本論文圍繞如何將語言模型更有效地適配于下游任務,提出了一系列創新方法,旨在從后訓練(post-training)的視角解決模型適配過程中的關鍵難題。首先,我們研究了在標簽資源有限的情況下最大化無標簽數據利用的策略,目標是從無標簽數據中提取與任務相關的知識,以提升模型在特定任務上的表現,并實現更魯棒的任務對齊。相關研究促成了新型的持續預訓練(continued pre-training)技術,其性能優于現有的半監督學習方法。 接著,我們提出了一種新的參數高效微調方法,該方法顯著降低了微調語言模型所需的內存與時間成本,從而在保持競爭性性能的同時,使得微調過程更加高效與可行。此外,我們還改進了有監督微調策略,以增強模型的指令跟隨能力,尤其適用于學習資源受限的情境。這一改進使語言模型在各類 NLP 任務中表現更為出色,特別是在開放式生成任務中,進一步提升了其實用性與靈活性。 為了更好地理解與評估模型在特定下游任務上的適應能力,我們還構建了新的評測基準與評估方法。其中包括用于測試復雜認知能力(如多跳空間推理)的測評工具,提供了更全面、細致的評估維度。 通過在多種 NLP 任務上的廣泛實證評估,我們的研究表明:所提出的方法顯著提升了語言模型在多任務環境中的魯棒性、效率與泛化能力。本文提出的方法代表了邁向更強大、更高效語言模型的重要一步,也為實現通用人工智能(Artificial General Intelligence, AGI)帶來了切實進展。

付費5元查看完整內容

近年來,深度學習(Deep Learning, DL)模型及其技術的迅猛發展,推動了其在多種任務與模態中的性能取得顯著進步。盡管模型整體能力持續增強,但我們對其內部推理過程的理解仍然有限,尤其是在面對系統性的不一致或錯誤——即邏輯或推理模式上的缺陷時。這類不一致性可能表現為輸出之間的自相矛盾、無法在相似任務間進行泛化,或在特定語境中得出錯誤結論。由于其可能源于模型內部過程的高度不透明、訓練數據中的偏差與不平衡,或任務本身的復雜性,檢測與衡量這類推理偏差本身就是一項挑戰。 在缺乏有效方法來檢測、量化與緩解這類錯誤的前提下,深度學習模型存在被部署時出現偏差、易被攻擊,或缺乏邏輯可靠性的重大風險。 本論文旨在針對上述問題,提出一系列適用于知識圖譜、自然語言與圖像任務中的推理型深度學習模型的創新方法。首先,本文提出了兩種技術,用于檢測和量化自然語言與圖像處理模型中因內部過程不透明所導致的預測不一致性。我們在設計的對抗性實驗設置中對多類模型進行系統評估,這些設置明確暴露模型的內部推理過程,從而使我們得以量化模型中的顯著推理偏差。 為緩解訓練數據中的偏見導致的不一致性,本文還提出了一種數據高效的采樣方法,以提升模型的公平性與性能;同時,提出一種合成數據集生成方法,用于在低資源場景下更嚴格地評估與提升模型的推理能力。 最后,論文還提出了兩種新穎技術,用于優化模型在自然語言與知識圖譜等復雜推理任務中的表現。這些方法不僅直接增強了模型的性能,還提升了推理過程的可解釋性與行為的忠實性。 總的來說,本論文通過系統地量化并緩解推理不一致性,構建了一個通用框架,以提升深度學習模型在各類任務與模態下的魯棒性、公平性與可解釋性

付費5元查看完整內容

深度學習因其卓越的高維特征表示學習能力而變得越來越受歡迎。許多算法和模型已經被開發出來,以增強深度學習在各種現實任務中的應用,包括圖像分類、自然語言處理和自動駕駛。然而,深度學習模型容易受到后門威脅的影響,攻擊者通過操控訓練過程或數據,導致模型在含有特定觸發器的惡意樣本上做出錯誤預測,同時在正常樣本上保持正常性能。隨著深度學習的發展,包括不斷演化的訓練方案以及對大規模訓練數據的需求,后門領域的新威脅不斷出現。另一方面,后門也可以被用來保護深度學習模型,例如通過水印技術。在本論文中,我們從三個新穎的角度深入探討了后門技術。

在論文的第一部分,我們展示了新興的深度學習訓練方案可能引入新的后門風險。具體而言,預訓練的自然語言處理(NLP)模型可以輕松地適應多種下游語言任務,顯著加速語言模型的開發。然而,預訓練模型成為這些下游模型的單點故障。我們提出了一種新的任務無關的后門攻擊方法,針對預訓練的NLP模型,在這種攻擊中,攻擊者無需事先了解下游任務即可將后門植入預訓練模型中。任何從這個惡意模型轉移的下游模型將繼承后門,即使在經過廣泛的遷移學習后,這揭示了預訓練基礎模型在面對后門攻擊時的嚴重脆弱性。 在論文的第二部分,我們開發了適應新威脅場景的創新后門攻擊方法。深度學習模型的快速擴展需要大規模的訓練數據,其中大部分是未標注的,并外包給第三方進行注釋。為了確保數據安全,大多數數據集對訓練樣本是只讀的,防止添加輸入觸發器。因此,攻擊者只能通過上傳惡意注釋來實現數據中毒。在這種實際場景中,所有現有的數據中毒方法都無法在輸入中添加觸發器。因此,我們提出了新的后門攻擊方法,這些方法僅通過中毒標簽而不修改任何輸入樣本來實現。

在論文的第三部分,我們利用后門技術主動保護我們的深度學習模型,特別是在知識產權保護方面。考慮到深度學習任務的復雜性,生成一個訓練良好的深度學習模型需要大量的計算資源、訓練數據和專業知識。因此,保護這些資產并防止版權侵權至關重要。受到后門攻擊的啟發,后門攻擊可以通過精心設計的樣本誘發目標模型特定的行為,已經提出了幾種水印方法來保護深度學習模型的知識產權。模型所有者可以訓練他們的模型,以便對某些精心制作的樣本產生獨特的輸出,并利用這些樣本進行所有權驗證。盡管為監督學習的深度學習模型設計了各種提取技術,但在將它們應用于深度強化學習模型時會遇到挑戰,因為模型特性和場景的不同。因此,我們提出了一種新的水印方案,以保護深度強化學習模型免受未經授權的分發。與傳統深度學習模型中使用空間水印不同,我們設計了時間水印,這種水印在盡量減少對受保護深度強化學習模型潛在影響和損害的同時,能夠實現高保真度的所有權驗證。 總之,本論文探討了深度學習技術發展過程中后門威脅的演變,并研究了如何利用后門技術在知識產權保護中發揮積極作用。

付費5元查看完整內容

人工智能技術的最新進展促使了模型規模的前所未有增長,特別是大型語言模型(LLMs)的出現。

雖然這些模型在多個領域展示了出色的能力,但它們的指數級擴展也帶來了顯著的推理時間開銷,例如內存需求增加、延遲增加和計算成本上升,從而使高效的部署和服務變得具有挑戰性。本文通過全棧方法應對這些挑戰,旨在提升人工智能推理棧四個關鍵組件的效率:模型優化、推理方法、模型架構和應用。在模型優化方面,我們引入了量化技術來優化推理時的計算和內存需求。

I-BERT通過采用僅整數量化來優化計算,這實現了最高3.5倍的延遲加速,并使Transformer架構能夠在僅支持整數運算的硬件上部署。SqueezeLLM采用極低位寬的權重量化,有效降低了內存需求,同時在LLM推理過程中不犧牲精度。在推理方法的優化方面,我們提出了Big Little Decoder框架,

這是一種通過小模型和大模型之間的協作加速自回歸LLM推理的推測解碼框架,能夠實現最高2倍的加速。關于模型架構,我們提出了一種高效的語音識別設計,采用了Temporal U-Net結構,

通過縮短輸入序列長度來提高推理效率。最后,在應用層面,我們引入了LLMCompiler,

這是一個高效編排LLM應用中多個函數調用的框架,通過將復雜的用戶輸入分解為更小、更易處理的任務,降低了執行延遲和成本,并提高了系統的魯棒性。這些貢獻共同提供了一種全棧策略,用于優化人工智能模型推理,從低層次的系統到高層次的應用,推動了最先進AI解決方案的高效部署和服務。

人工智能技術在自然語言處理、計算機視覺和語音識別等多個領域取得了前所未有的進展。

然而,當前普遍采用的擴展模型規模的策略帶來了顯著的推理時間開銷,導致在高效部署和服務最先進模型時面臨挑戰。例如,如圖1.1所示,自2017年引入具有6500萬個參數的Transformer架構[266]以來,模型規模呈指數級增長——每兩年增長410倍——開啟了大型語言模型(LLMs)時代,代表性模型如擁有1750億參數的GPT-3和其他數十億參數級的模型。這一增長遠遠超過了GPU內存的擴展,后者僅每兩年翻倍。因此,模型規模的擴展不僅導致了巨大的內存需求,通常超過單個GPU的容量,還引發了延遲、能效和運行這些大型模型的計算成本等方面的挑戰。為了解決這一問題并減少人工智能解決方案的運行時開銷,全棧優化在人工智能推理棧中的應用至關重要。 如圖1.2所示,本文將涵蓋提高推理棧中四個關鍵組件的效率,這些組件分別處于不同的層次:模型優化、推理方法、模型架構和應用。它們涵蓋了從面向硬件的底層到面向用戶的上層,全面解決從低層系統到高層應用的效率問題。模型優化。

模型優化是通過減少模型規模并更有效地利用底層硬件資源(如計算和內存)來高效部署模型的一種關鍵方法。常見的技術包括量化,它通過使用低位精度(如8位)而非標準的32位或16位浮點數(即FP32或FP16)來壓縮模型的權重和激活值,以及剪枝,它去除模型中不重要的權重。這些方法通常在模型架構設計和訓練完成后應用,使得模型能夠在顯著降低計算和內存需求的同時保持相似的準確性,從而使模型更適用于資源受限的環境。本論文介紹了旨在提高Transformer推理過程中計算和內存效率的量化技術。

在第二章中,我們提出了I-BERT,這是一種通過利用僅整數量化來提高計算效率的方法。通過使用整數算術進行整個推理過程,I-BERT不僅實現了最高3.5倍的延遲加速,還使得Transformer模型能夠在僅支持整數計算的硬件上部署。第三章介紹了SqueezeLLM,這是一種通過極低位寬權重量化優化LLM推理中內存效率的量化技術。由于內存操作通常在LLM的自回歸生成任務中成為主要瓶頸,SqueezeLLM提供了一種精確的量化策略,通過降低位寬(例如3位或4位)來保持底層權重分布,從而顯著降低內存需求,而不犧牲模型的準確性。

推理方法

為了高效服務大規模模型,理解它們的推理動態至關重要,以最小化冗余操作并最大化資源利用率。在第四章中,我們介紹了Big Little Decoder(BiLD),一種旨在解決LLM自回歸推理中內存操作低效的推測解碼框架。自回歸生成通常是內存受限的,因為每生成一個標記都需要執行一個昂貴的內存操作來加載一個大的權重矩陣。因此,減少運行時內存流量是提高推理效率的關鍵。BiLD通過小模型和大模型之間的協作來解決這一挑戰——小模型快速生成多個標記,而大模型間歇性地檢查和完善小模型的預測。這種方法使得大模型能夠執行非自回歸操作,在單次迭代中處理多個標記,從而實現2倍的推理加速,同時不影響生成結果的質量。

模型架構

增強效率的后訓練方法,如模型優化和更好的推理方法,由于其在模型設計和訓練完成后可以靈活應用,已經變得越來越流行;然而,進一步的效率提升通常需要開發針對特定領域的新型模型架構。這個過程中的一個關鍵因素是歸納偏置的使用,它在指導模型設計中起著至關重要的作用。歸納偏置[185]指的是學習算法所做的假設,這些假設使得算法能夠從有限的訓練數據中推廣到領域的通用模型。例如,卷積神經網絡(CNN)使用局部性作為計算機視覺中圖像任務的歸納偏置,展示了領域特定的歸納偏置如何指導更好的架構設計。Transformer模型在提供大量數據時展示了出色的性能,盡管其歸納偏置較少。然而,對于較小的模型或數據相對匱乏的領域,這種方法可能效果不佳。在這些場景中,設計具有強歸納偏置的領域特定架構可以導致更高效、更有效的模型性能,特別是在數據或計算資源有限時。為此,在第五章中,我們提出了一種用于語音識別的更緊湊的架構。通過專注于連續語音信號在時間軸上的冗余,我們提出了一種Temporal U-Net結構,通過有效縮短輸入序列長度顯著提高了效率。該設計在固定資源預算內提升了語音識別模型的準確性,增強了性能和效率。

人工智能應用

LLM推理能力的最新進展使其潛力超越了內容生成,能夠解決更復雜的問題。推動這種問題解決能力擴展的關鍵因素之一是其功能(或工具)調用能力,使LLM能夠調用外部功能并集成其輸出以輔助任務完成。LLM的這種集成功能調用的能力促使了LLM應用開發方式的范式轉變,推動了代理式應用的興起。在這些應用中,LLM通過執行動作和通過外部功能收集信息,主動與環境互動,從而使它們能夠自主完成用戶任務。因此,為了提高這些基于LLM的應用的效率,單純優化單一模型的效率——無論是通過模型優化、改進推理方法還是更高效的模型架構——是不夠的。 同樣重要的是要增強LLM與外部功能之間動態交互的效率,從而構建更高效、可擴展和響應迅速的代理式應用。在第六章中,我們介紹了LLMCompiler,它通過將用戶輸入分解為可執行任務及其相互依賴關系來高效地編排多個功能調用。LLMCompiler通過并行運行獨立任務顯著減少了執行延遲和成本,同時通過將復雜任務分解為更小、更易管理的任務,增強了任務的魯棒性。該方法邁出了構建更高效、可擴展的代理式應用的步伐,這些應用能夠處理日益復雜的工作流。

付費5元查看完整內容

在過去十年的繁榮發展之后,視頻理解的研究已到達一個關鍵的節點,單純依賴海量數據和復雜的架構已不再是適用于所有情況的萬能解決方案。數據不平衡的普遍存在阻礙了深度神經網絡(DNNs)有效學習潛在的因果機制,導致在遇到分布變化時(如長尾不平衡和擾動不平衡)性能顯著下降。這一現象促使研究者開始探索替代方法,以捕捉視頻數據中的因果模式。為了應對這些挑戰并提高DNNs的魯棒性,因果建模作為一種原則被提出,旨在發現觀察到的相關性背后的真實因果模式。

本文主要研究視頻語義理解領域,探索因果建模在推進兩個基礎任務中的潛力:視頻關系檢測(Video Relation Detection, VidVRD)和視頻問答(Video Question Answering, VideoQA)。

總結來說,本論文的主要貢獻如下:

  • 我們提出了一種干預性視頻關系檢測方法,稱為IVRD,旨在解決VidVRD中關系的長尾不平衡問題。盡管尾部關系具有信息性,但由于其在數據集中稀少,難以預測。我們特別提出了一套分層的關系原型,這迫使關系推理模塊關注實體之間動態交互的視覺內容,而非依賴于對象與關系標簽之間的偽相關性。通過引入因果推理,IVRD為改善長尾不平衡情況下的視頻理解提供了一個有前景的方向,使模型能夠更好地泛化到現實世界場景中,特別是在稀有或不常見的關系在場景理解中扮演關鍵角色時。
  • 我們引入了一種視頻問答中的不變性定位方法,稱為IGV,這是一種與模型無關的學習框架,旨在解決由答案-環境之間的偽相關性帶來的負面影響。IGV通過定位問題關鍵的(因果)場景,發現因果推理模式。具體而言,IGV利用了因果場景與答案之間的關系在環境變化時仍保持不變這一事實,并且去除因果場景應導致問題回答失敗。通過定位這些關鍵場景,IGV使VideoQA模型能夠專注于準確推理所需的視覺內容,同時避免環境負面的影響,從而顯著提升了模型的推理能力。
  • 我們提出了視頻問答中的等變性定位方法EIGV,進一步增強了魯棒性和視覺可解釋性。基于IGV,EIGV還引入了等變性,促使回答過程對因果場景和問題中的語義變化更為敏感。相較之下,不變性定位要求回答過程對環境場景的變化不敏感。這兩種正則化機制協同工作,區分因果場景與環境場景,并通過呈現視覺-語言對齊提供更多的透明性。通過結合不變性和等變性定位的優勢,EIGV創建了一個更加魯棒且可解釋的VideoQA框架。
  • 我們發現了視頻問答中的時空推理,解決了長視頻和多對象樣本(即復雜視頻問答)上的低準確性問題。現有的VideoQA實踐(包括預訓練模型如SeVila [162])大多是在短視頻片段(約15秒)和少數實體(約2個)上進行訓練的,因此在復雜視頻(超過80秒且包含5個以上對象)上表現較差。原因在于長視頻不可避免地引入大量冗余和偽相關性,因為許多與問題無關的環境對象存在。為應對這一挑戰,我們首先強調建模問題關鍵的時間片段和空間對象的重要性,接著提出了時空推理(Spatio-Temporal Rationalization, STR)方法,通過可微選擇模塊自適應地收集問題關鍵的時間片段和對象,并通過跨模態交互進行推理。結合更合理的候選答案解碼策略,STR有效識別出與問題無關的幀和對象作為因果模式,尤其在復雜場景下顯著改善了預測性能。

本文的一個局限性在于對所識別因果場景的評估。在整個研究過程中,我們依賴于問題回答(QA)總體性能作為所發現因果場景質量的間接指標,基于這樣一個推理:更準確地定位因果場景可能會提供更豐富的問題-關系視覺線索,從而提升QA性能。然而,值得注意的是,基于因果場景的直接量化指標將提供更具說服力的見解。遺憾的是,由于缺乏人類級別的定位標注,當前工作中未能實現這種度量。因此,未來的研究將著力建立一個專門針對因果場景的評估基準,涉及對回答過程所依賴的視覺元素進行人類標注。這一舉措將有助于更全面和嚴格地評估因果場景的發現。

總之,本文的貢獻拓展了因果建模在視頻語義理解中的前沿應用,賦能AI系統掌握因果模式,并在應對視頻理解挑戰任務中提升性能。

付費5元查看完整內容

優化算法是機器學習和統計推斷的基石。隨著大規模數據集的出現,計算挑戰日益增加,迫使人們追求更高效的算法。現代優化技術通常針對特定的機器學習問題進行定制,這些方法利用問題的獨特結構特征,使其比當前應用于這些問題的方法效率更高。另一個關鍵方面是理解所得到估計量的估計精度。在某些情況下,盡管在訓練集上實現精確優化可能不切實際,但某些簡單而有效的啟發式方法在適當的統計框架內可以表現出令人贊嘆的估計精度。 在本文中,我們從優化和統計的角度研究了幾種大規模算法。第2章和第3章研究了兩種針對結構約束的連續優化算法。第2章集中討論了具有圓柱形約束的無界約束的一種廣義Frank-Wolfe方法。第3章則研究了具有少量極點的多面體約束的類似坐標下降(CD)方法。這兩種方法由于對問題結構的敏感性而表現出最先進的性能。 第4章研究了一種帶有解釋器-響應對之間可能存在不匹配的線性回歸變體。我們研究了一種簡單且高效的啟發式方法,并在統計環境中對其估計誤差進行了嚴格分析。 第5章和第6章研究了兩種決策樹算法。第5章研究了最優決策樹的計算,并引入了一種新的分支定界方法,用于具有一般連續特征的最優決策樹。第6章則轉向在足夠雜質減少條件下對CART算法的分析。我們為滿足該條件的信號函數證明了嚴格的誤差界,并討論了一些滿足該條件的函數類。 第7章研究了一種具有形狀約束的密度估計問題。我們提出了一種立方-牛頓法框架用于計算,并研究了有限混合的逼近性質。

付費5元查看完整內容

盡管深度學習有著廣泛的應用,但在實際應用中仍面臨穩健性挑戰,尤其是在訓練和測試分布不一致的情況下。訓練和測試分布之間的差異原因包括人類行為的逐漸變化或服務使用環境的人口統計學差異。雖然獲取預期分布變化的標注數據可能非常困難,但未標注樣本相對便宜且數量充足。

我的研究利用目標領域的未標注數據,識別目標領域和源領域之間的結構關系,然后利用這些關系來適應和評估模型。本論文討論的工作涉及理論和實證上理解深度模型的行為,并利用這些見解開發穩健的方法。特別是,本論文調查了我在以下三個問題上的工作:

Q1:如何在分布變化的情況下適應模型?如果沒有對分布變化性質的假設,這項任務是不可能完成的。我的研究重點是制定在實際環境中出現的分布變化場景的假設,并通過利用未標注數據來改進和適應深度模型。論文的第一部分和第二部分詳細探討了這一研究。

Q2:在沒有標注數據的情況下,如何評估模型的性能?深度學習模型會無聲地失敗,即它們無法標記不確定的決策。為了構建可靠的機器學習系統,獲得準確性的證明與增強系統的穩健性同樣重要。第三部分討論了我在這方面的研究,并提出了利用未標注數據預測模型準確性的技術。

Q3:如何利用基礎模型來解決分布變化帶來的挑戰?基礎模型(如視覺語言模型)在廣泛的任務中表現出色。然而,這些模型也由于虛假關聯、圖像與文本對齊差等原因缺乏穩健性。此外,隨著互聯網數據的演變,這些模型也會變得過時,提出了保持它們更新的新的挑戰。第四部分討論了我對基礎模型行為的理解以及在分布變化下提高其穩健性的技術。

總體而言,本論文通過開發利用未標注數據在分布變化下適應和評估模型的技術,拓展了穩健機器學習的前沿。這里展示的工作是朝著在分布變化面前開發穩健機器學習全面工具包邁出的一步。

付費5元查看完整內容

與機器學習系統不同,人類可以從少數示例中學習新概念,并有效適應變化的環境。機器學習系統通常需要大量數據來學習類似的概念或適應變化。這是因為它們缺乏領域特定的先驗知識(也稱為歸納偏差)。為了應對這些缺點,元學習旨在通過數據驅動的方式獲得領域特定的歸納偏差,通常是從一組相關數據集中獲得。文獻中的大多數現有元學習方法依賴于豐富的領域或問題特定的數據集。然而,在實踐中,我們通常只能獲取有限數量的此類數據集。因此,在本論文中,我們探討了如何僅從少量數據集中成功進行元學習。為了解決這個問題,我們開發了一個理論框架來理解元學習中的泛化。在此基礎上,我們提出了一類可擴展的算法,這些算法通過原理性的元級正則化來進行元學習先驗,防止數據集的過擬合。然后,我們研究了確保元學習先驗提供可靠不確定性估計的方法,使其適用于交互學習。為此,我們提出了一種在函數空間中的正則化方案,并證明所得到的元學習方法在貝葉斯優化中顯著提高了效率。隨后,我們將該方法擴展到安全約束設置中。此外,我們引入了一種基于模型的元強化學習方法,用于有效地適應控制策略的變化動態。最后,我們提出了一種新的元學習框架,該框架直接逼近數據生成的隨機過程。由于它完全在函數空間中進行元學習,因此不會受到神經網絡高維參數空間中先驗問題的影響。在整個論文中,我們通過醫療保健、分子生物學和自動化機器學習(AutoML)以及機器人控制等實際應用,實驗證明了我們提出的方法的實際有效性。

付費5元查看完整內容

當前流行的機器學習范式涉及對每一個新任務使用靜態數據集訓練一個獨立模型。與之相反,人類會隨時間積累知識,終身學習范式旨在通過使系統能夠持續地從一系列任務中學習,并保留過去的知識以實現未來學習的高效性,來模擬這一過程。這種范式還提供了諸如避免定期模型訓練、潛在地減少計算和能源需求、以及促進環保的綠色人工智能等優勢。在現代機器學習中,盡管深度神經網絡功能強大,但面臨如災難性遺忘(在新任務學習中丟失先前任務的知識)和負面干擾(先前學到的知識阻礙新任務學習)等挑戰。這些問題源于穩定性-可塑性困境,這需要在保留過去知識(穩定性)與獲取新知識(可塑性)之間找到正確的平衡。高效的終身學習系統必須解決這一困境,以及其他考慮,如支持在線數據流、利用小型且固定的內存緩沖容量(如果有的話)和從未標記的數據流中學習。

在本文中,我們從生物學習過程和深度學習的最新進展中獲得靈感,以實現高效的終身學習系統。我們提出將歸納偏置注入數據驅動機器學習的三個主要組成部分:模型(架構與初始化)、訓練(目標與優化)和數據。本論文分為三個部分,每個部分對應以上一個組件。在第一部分中,我們探索了預訓練初始化的角色,揭示了它們與隨機初始化相比在減輕遺忘方面的隱性優勢。接下來,我們設計了一個參數高效的專家架構,該架構動態擴展學習容量以解決穩定性-可塑性困境。在第二部分中,我們展示了針對平坦極小值的顯式優化如何改善網絡穩定性,并引入了一個元學習目標以平衡穩定性與可塑性。第三部分深入探討了終身半監督學習,通過復習偽標記數據來解決穩定性-可塑性困境。我們以從終身學習的角度檢驗預訓練結束,展示通過將上述策略應用于模型的(持續)預訓練,如何增強其性能。

在過去的十年中,訓練硬件的進步和大數據集的可用性使得深度神經網絡在機器學習領域取得了顯著進展。這些網絡在許多自然語言處理和計算機視覺任務中達到或超過了人類水平的表現,例如機器翻譯(Lepikhin et al., 2021)、問答(Du et al., 2022; Chowdhery et al., 2023)、開放式對話生成(Ouyang et al., 2022)、對象檢測和圖像生成(Lu et al., 2023),這些評估是基于獨立同分布(i.i.d)的保留數據進行的。然而,當這些網絡應用于數據分布隨時間變化的現實情況時,它們的表現往往會變差(Lazaridou et al., 2021)。它們失敗的主要原因是當前的機器學習方法專注于孤立學習(Chen and Liu, 2018),即使用靜態數據集為每個新任務或一組相關任務訓練一個單獨的網絡。一種保持這些網絡更新的方法是每當新信息變得可用時就從頭開始重新訓練它們。然而,先前訓練所用的數據可能因隱私或存儲限制而只是暫時可用(Farquhar and Gal, 2018)。此外,重新訓練方法可能在計算上昂貴,數據效率低,且耗時長,尤其是對于大型網絡。例如,GPT-3(Brown et al., 2020),一個具有175B參數的自回歸語言模型,訓練了499B個標記,使用的計算量相當于3.14e23次浮點操作,如果在單個NVIDIA Tesla V100 GPU上訓練,將需要355年和460萬美元的成本。另一種方法是連續地隨著新信息的到來更新網絡。然而,深度神經網絡和一般的參數模型容易發生災難性遺忘(McCloskey and Cohen, 1989; Ratcliff, 1990; French, 1999)現象。在這種現象中,網絡在新信息被整合進系統時會忘記或覆蓋之前學到的知識。此外,這些網絡可能會經歷負面干擾(Pan and Yang, 2009; Weiss et al., 2016)現象,即先前學到的知識可能會妨礙新事物的有效學習,從而增加了數據需求。這兩種現象都源于穩定性-可塑性困境(Mermillod et al., 2013)。穩定性與保留過去的知識有關,可塑性與學習新知識有關。需要一種平衡,因為過多的穩定性會阻礙新知識的獲取,而過多的可塑性會導致忘記以前的知識。這一困境使得當前網絡難以更新其知識,并有效地適應新任務的增量學習。

與此相反,我們人類的學習方式則大不相同。我們通過在一生中獲取和更新知識來學習,保留以前學到的知識,并利用它來促進新概念和技能的有效學習。受到這種人類學習過程的啟發,終身學習(Thrun and Mitchell, 1995; Thrun, 1995; Chen and Liu, 2018)或增量學習(Solomonoff et al., 1989; Syed et al., 1999; Ruping, 2001)或永不停止的學習(Mitchell et al., 2018)或連續學習(Parisi et al., 2019)范式旨在開發能夠從持續的數據流中學習的系統,理想情況下保留過去的知識,用新信息更新它,并利用它進行后續學習。此外,研究人員也認識到終身學習能力對于實現人工通用智能的進展至關重要(Silver, 2011; Chen and Liu, 2018; Yogatama et al., 2019)。除了與生物學習相似之外,終身學習范式還有潛力通過消除過度模型重新訓練來減少能源浪費,并實現環保和可持續的綠色人工智能(Hazelwood et al., 2018; Strubell et al., 2019; Schwartz et al., 2020)。終身學習范式還與其他知識轉移相關的范式有關,如轉移學習(Pan and Yang, 2009)和多任務學習(Caruana, 1997)。與這兩個范式不同的是,終身學習范式更為通用;它假設對任務的順序訪問,旨在改善對先前任務的表現(理想情況下是積極的后向轉移或消極的遺忘)和新任務的表現(積極的前向轉移)。當前的轉移學習范式主要關注從以前的任務到新任務的單向知識轉移,即使這可能損害先前學到的任務的表現。另一方面,多任務學習假設同時訪問所有任務的數據,并通過使任務之間的知識共享來改善所有任務的表現。此外,即使在單任務學習設置中,神經網絡也顯示出經歷災難性遺忘的情況(Toneva et al., 2019),這突出了終身學習范式不僅限于多任務場景。即使是任務的概念在終身學習范式中也非常開放。例如,考慮一個終身COVID-19命名實體識別(NER)標記器。任務有三種不同的表現形式 - (i)分類任務,如實體塊、實體檢測、實體鏈接、共指解析和關系提取,(ii)針對2020、2021、2022、2023年COVID-19研究文章的不同領域的NER,(iii)針對COVID-19變種如COVID-Alpha、COVID-Beta、COVID-Omicron的演化類別的NER。這些表現形式對應于終身學習的三個突出場景:任務、領域和類別增量學習(Van de Ven and Tolias, 2019)。除了解決災難性遺忘之外,終身學習系統還有幾個其他目標(Biesialska et al., 2020)。人類能夠迅速從持續的對話中學習新信息,而不需要明確的主題邊界(Chen and Liu, 2018)。我們有選擇地保留過去的經驗在我們有限的記憶容量中以防止遺忘,并在需要時稀疏地回放它們(Ratcliff, 1990; McGaugh, 2000)。此外,我們經常從環境中以無監督的方式學習,而不是依賴于明確的監督(Aljundi, 2019)。相比之下,當前的終身學習系統(Biesialska et al., 2020)需要明確的任務邊界,它們依賴于大內存容量,因此數據效率低,且在計算上昂貴,因為它們需要對標記數據進行多次傳遞。為了更有效地模仿人類學習,有必要開發在更現實的假設下運行且在數據、記憶和計算上更高效的終身學習系統(Farquhar and Gal, 2018)。 在本論文中,我們的目標是設計高效的終身學習系統,這些系統可以減輕之前學到的知識的災難性遺忘,并通過在現實假設下運行來促進未來的學習。受到生物學習過程和深度學習的最新進展的啟發,我們提議將適當的歸納偏見注入數據驅動機器學習的三個主要組成部分:模型、訓練和數據。通過這樣做,我們還希望提高終身學習系統在數據、內存和計算需求方面的效率。

付費5元查看完整內容
北京阿比特科技有限公司