亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

近年來,機器學習領域廣泛采用大型基礎模型(foundation models)。盡管這些模型具有很強的表達能力,但在針對有限的領域特定數據集進行訓練時,仍容易出現過擬合。因此,在數據稀缺的場景下,借助更大但間接相關的數據集進行訓練以提取有用的表征,以及更一般意義上的“元學習”(meta-learning),已成為高效使用此類模型的關鍵。本論文從理論角度研究了元學習背后的基本假設,聚焦于兩個設置:

元監督學習(Meta-Supervised Learning)。已有研究分析了在多個回歸任務上學習固定表征的統計復雜度。然而,在實際應用中,包括 MAML 等主流梯度方法在內的大多數方法都會為每個任務微調(fine-tune)表征。因此,我們開展了首個關于基于微調的表征學習的理論研究。首先,我們對一類通用表征上的代表性訓練過程推導了樣本復雜度上界。其次,我們建立了“可微調表征”與“固定表征”之間的樣本復雜度差異,從而揭示了在哪些情形下微調更為優越。

元強化學習(Meta-Reinforcement Learning, Meta-RL)。在元強化學習中,任務之間存在多種共享結構的可能性,例如分層強化學習(HRL)中的“選項”(options)結構。但已有的 HRL 后悔值(regret)界分析往往假設分層結構已知。為彌補這一空白,我們構造了一種在滿足適當“覆蓋條件”下可被理論保證恢復的分層結構。進一步地,我們證明,在較弱假設下,該恢復的結構可以顯著提升下游任務的學習表現,使其后悔值優于最小最大策略(minimax)指數級別。這些覆蓋條件涵蓋了時間、狀態/動作的抽象等概念,表明我們的分析能夠捕捉 HRL 在實踐中的關鍵要素。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

現代強化學習(Reinforcement Learning, RL)系統揭示了有關人類通用問題求解的一些深層規律。在那些能夠低成本模擬新數據的領域,這些系統能夠學習到遠超人類能力的序列決策策略。現實社會中存在許多問題,其解決同樣依賴這種能力,但這些問題往往處于無法低成本生成新數據的領域。在這種情境下,我們可以基于已有數據構建模擬器,但這些模擬器始終只能近似正確,并且在被查詢到其訓練分布之外時可能會出現嚴重錯誤。因此,我們訓練智能體所處的環境與希望其最終部署的真實世界環境之間必然會存在失配(misalignment)。應對這種失配正是零樣本強化學習(Zero-Shot Reinforcement Learning, Zero-Shot RL)的核心關注點——在這一問題設定中,智能體必須在完全沒有實踐機會的前提下,能夠泛化到一個新任務或新領域。 盡管在理想化場景下實現零樣本強化學習的方法已經取得了令人矚目的進展,但若要在真實世界中復現這些成果,仍需新的研究。本文認為,要實現這一目標,至少需要應對三類約束:其一是數據質量約束:真實世界的數據集往往規模有限且同質化嚴重;其二是可觀測性約束:在真實世界中,狀態、動態和獎勵通常只能被部分觀測到;其三是數據可用性約束:事先獲得數據的假設并不總是成立。 本文提出了一系列能夠在這些約束下執行零樣本強化學習的方法。通過一系列實證研究,我們揭示了現有方法的不足,并論證了所提出技術在彌補這些缺陷方面的合理性。我們相信,這些設計使我們更接近于能夠部署到現實世界、解決實際問題的強化學習方法。

付費5元查看完整內容

本論文提出了四種新方法,以提高機器學習模型在小樣本且高維度表格數據集上的泛化能力。表格數據(其中每一行代表一條記錄,每一列代表一個特征)在醫學、科學研究和金融等關鍵領域中廣泛存在。然而,由于數據采集的困難,這些領域往往面臨數據稀缺的問題,難以獲得大樣本量。同時,新型數據采集技術使得高維數據的獲取變得可能,從而導致特征數量遠遠超過樣本數量的數據集。數據稀缺和高維性對機器學習模型帶來了顯著挑戰,主要原因在于由于維數災難和樣本不足,模型更容易發生過擬合,無法充分刻畫數據的潛在分布。現有方法在這類場景下通常難以實現有效泛化,導致性能不盡如人意。因此,在小樣本且高維數據集上訓練模型需要專門設計的技術,以克服這些限制,并從有限數據中更高效地提取有用信息。 我們提出了兩種全新的以模型為中心的方法,以應對小樣本和高維數據下神經網絡的過擬合問題。我們的關鍵創新在于通過共享輔助網絡來約束模型參數,這些輔助網絡捕捉表格數據中潛在的關系,從而在一定程度上決定預測模型的參數,減少其自由度。首先,我們提出了 WPFS,這是一種參數高效的架構,通過權重預測網絡對模型參數實施硬參數共享。其次,我們提出了 GCondNet,該方法利用圖神經網絡(GNNs)實現對底層預測模型的軟參數共享。在應用于生物醫學表格數據集時,這兩種方法主要通過降低過擬合風險,實現了預測性能的提升。 盡管單獨依賴模型中心的方法較為常見,但結合數據中心方法往往能帶來額外的性能提升,尤其是在數據稀缺的任務中。為此,我們還提出了兩種新穎的數據增強方法,用于生成合成數據,以增加訓練集的規模和多樣性,從而捕捉到數據分布中更多的變異性。我們的關鍵創新在于將預訓練的表格分類器轉化為數據生成器,并以兩種新方式利用其預訓練信息。第一種方法 TabEBM 構建了專門的類別特定能量基模型(EBM),以近似類別條件分布,從而生成額外的訓練數據。第二種方法 TabMDA 則引入了上下文內子集劃分(ICS)技術,這種技術使得在預訓練的上下文分類器所學習的流形空間內進行標簽不變轉換,進而有效擴充了訓練數據集。兩種方法均具有通用性、快速性、無需額外訓練,并且可以應用于任何下游預測模型。它們均能顯著提升分類性能,尤其在小數據集上效果尤為明顯。 總體而言,本論文在機器學習領域開辟了新的方向,旨在減輕過擬合問題,并在表格數據的生成與增強方面取得突破。我們的技術在醫學、金融和科學研究等普遍面臨數據稀缺和高維性難題的領域具有直接應用價值。通過證明即便在有限數據條件下也能實現更高效的學習,這項工作為未來克服數據限制、推廣機器學習應用鋪平了道路。

付費5元查看完整內容

深度神經網絡在過去十年中雖已在各類機器學習任務中展現出卓越性能,但其在資源受限且動態變化的現實環境中的部署仍面臨挑戰。大規模模型雖精度優異,但其計算需求往往難以滿足邊緣設備與實時應用的要求;輕量級模型雖效率占優,卻在動態域偏移場景下普遍存在魯棒性與泛化能力不足的問題。這一矛盾在移動醫療等隱私敏感、效率優先且可靠性要求嚴苛的應用中尤為突出。本論文提出TempT(時序一致性測試時自適應)方法——一種無需標注數據的測試時自適應(TTA)新范式,通過利用時序連貫性作為自監督信號,對連續輸入的模型預測施加平滑性約束。該方法通過抑制高頻波動,不僅提升了預測穩定性,更顯著增強了模型在未知環境中的性能與魯棒性。該技術在以表情識別、視頻目標檢測為代表的視頻學習任務中效果尤為顯著,因其能有效保持幀間一致性。進一步地,我們創新性地將拓撲數據分析(TDA)中的持續同調理論引入模型行為量化領域,通過分析網絡中間激活的拓撲特征,開發出選擇性自適應策略,使模型能自主判斷何時調整有利、何時維持不變。此外,基于時序一致性的新型正則化技術被提出,可同步提升模型泛化能力與域偏移魯棒性。在AffWild2、SHIFT和CIFAR100P等真實數據集上的實驗表明:TempT不僅性能超越現有TTA方法,更使輕量模型達到媲美大型架構的精度水平(如SHIFT數據集上mAP提升4.7%)。本研究彌合了域適應與自監督學習間的鴻溝,為受限環境下的深度學習提供了兼顧魯棒性、隱私保護與可擴展性的解決方案。

付費5元查看完整內容

遷移學習對于提高深度學習模型在序列決策任務中的數據效率和適用性至關重要。然而,確定哪些知識可以遷移以及如何有效利用它仍然是一個尚未解決的難題。近年來在表示學習方面的突破,尤其是在語言和視覺領域,展示了從大規模數據集遷移知識的強大能力。同時,仿真平臺和環境設計的進步也為收集多樣化、逼真的訓練數據開辟了新的可能性。在此背景下,本論文包含的四項研究工作探討了序列決策任務中不同方面的遷移技術。 首先,我們對先前在序列決策中整合自然語言數據和表示的研究進行了全面綜述。我們的綜述揭示了尚未解決的挑戰,并規劃了有前景的研究方向,主張更廣泛地利用大型語言模型,并開發語義復雜性更高的環境。其次,我們提出并研究了一種用于多模態多任務設置的模塊化架構設計,以實現組合泛化。受控實驗表明,該設計在觀察、動作和指令空間的未見組合上實現了零樣本遷移,并有效整合了新的觀測模態。第三,我們提出了一種方法,通過遷移源任務中與價值相關的狀態特征知識,來引導無監督技能發現,以生成更有用的行為。在連續控制領域的實驗表明,我們的方法在狀態空間的相關維度上實現了更優的覆蓋,并提升了下游任務的表現。最后,我們對非平穩環境中元梯度的分析表明,將優化器作為上下文特征的函數進行學習,可以實現更快的適應速度和更高的整體表現。 總的來說,本論文為在序列決策任務中實現有效知識遷移提供了新穎的見解和策略。研究工作展示了整合語言、針對性歸納偏差、適度監督以及元學習自適應帶來的優勢。

付費5元查看完整內容

盡管許多多模態機器學習方法相較于單一感知的單模態方法在準確性上取得了優越的表現,但它們隱含地假設視覺模態總是清晰的。然而,這一假設在實際應用中容易被證偽,因為在日常環境中,視覺條件不佳的情況十分常見。我們發現,當視覺條件具有挑戰性時,現有的機器學習方法往往無法有效地利用其他模態的信息。因此,它們過度依賴視覺模態,因為在訓練數據中,視覺模態通常是可靠且信息豐富的。結果,當視覺條件變差并開始包含誤導性信息時,這些方法無法適應。此外,傳統的多模態模型從未學會在視覺挑戰場景中找到跨模態的對應關系。本論文旨在研究在視覺挑戰條件下的多模態學習。我們將在各個章節中分別探討每種變化,并提出我們的解決方案,以實現更有效的多模態表示學習。最后,在論文的最后一章,我們將提供一個簡要的結論。我們希望我們的研究能激發更多關于視覺挑戰條件下多模態學習的研究。

//hdl.handle.net/11245.1/bf8162ca-b205-40d2-b214-5c2a1ed17a19

付費5元查看完整內容

無監督多重圖學習 (UMGL) 旨在通過各種邊類型學習節點表示,而無需手動標注。然而,現有研究忽略了一個關鍵因素:圖結構的可靠性。現實世界的數據通常表現出復雜的特性,并且包含大量與任務無關的噪聲,嚴重影響了 UMGL 的性能。此外,現有方法主要依賴于對比學習來最大化不同圖之間的互信息,這使得它們僅限于處理多重圖的冗余場景,未能捕捉到視圖特有的任務相關信息。在本文中,我們專注于一個更具現實性和挑戰性的任務:無監督地從多個圖中學習一個融合圖,該圖能夠保留足夠的任務相關信息,同時去除任務無關的噪聲。具體而言,我們提出的信息感知無監督多重圖融合框架 (InfoMGF) 使用圖結構優化來消除無關噪聲,同時最大化視圖共享和視圖特有的任務相關信息,從而應對非冗余多重圖的前沿問題。理論分析進一步保證了 InfoMGF 的有效性。在不同下游任務上與多種基線方法的綜合實驗表明了其優越的性能和魯棒性。令人驚訝的是,我們的無監督方法甚至超過了復雜的監督方法。源碼和數據集可在 //github.com/zxlearningdeep/InfoMGF 獲取。

付費5元查看完整內容

科學應用(如個性化(精準)醫學)需要因果機制的統計保證,然而在許多情況下,僅有復雜的觀察數據可用。這些數據通常具有復雜的底層交互。機器學習的最新進展使得建模這些系統成為可能,但其固有的偏見和黑箱特性給推斷帶來了挑戰。半參數方法能夠利用這些強大的非參數回歸過程,為數據生成過程中的有趣參數成分提供有效的統計分析。

本論文由三章組成。第一章總結了半參數和因果推斷的文獻,特別關注雙重穩健方法和條件獨立性測試。在第二章中,我們探討了平均部分效應的雙重穩健估計——線性模型中線性系數的推廣和因果效應的局部度量。這個框架涉及兩個插件擾動函數估計,并相互權衡其誤差。第一個擾動函數是條件期望函數,其估計要求可微分。我們建議將不必可微分的任意插件機器學習回歸與高斯核卷積,并證明在一系列核帶寬下,我們可以在對回歸均方誤差沒有漸近成本的情況下實現半參數效率界限。第二個擾動函數是預測變量的對數密度導數,稱為得分函數。這個得分函數不依賴于給定預測變量的響應的條件分布。得分估計僅在單變量情況下研究得較多。我們建議使用位置尺度模型將多變量得分估計問題減少到條件均值和方差估計加上單變量得分估計。這使得可以使用任意機器學習回歸。模擬結果證實了我們方法的理想特性,并在R包drape(雙重穩健平均部分效應)中提供了代碼,代碼可在//github.com/harveyklyne/drape獲得。

在第三章中,我們考慮在給定第三個連續變量Z的情況下測試兩個離散隨機變量X和Y的條件獨立性。條件獨立性測試構成了基于約束的因果結構學習的基礎,但已證明任何對所有原假設分布控制尺寸的測試在對抗任何備擇假設時都沒有檢驗力。因此,必須限制原假設空間,便于以機器學習方法的性能來做。以前的工作還對X和Y做了強結構假設。一個不做這些假設的雙重穩健方法是使用任意機器學習方法計算廣義協方差測量,將條件相關性的測試簡化為測試一個漸近高斯向量的均值是否為零。這個向量通常是高維的,天真的測試缺乏檢驗力。我們建議貪婪地合并底層離散變量的標簽,以最大化觀察到的條件相關性,從而以自適應方式揭示額外結構。我們的測試使用一種新穎的雙重引導校準。我們展示了一種以計算有效方式執行此過程的算法。模擬結果證實,在具有低維結構的高維設置中,我們能夠提高檢驗力,同時保持期望的尺寸控制。代碼在R包catci(CATegorical Conditional Independence)中提供,代碼可在

付費5元查看完整內容

自從神經網絡在人工智能領域成為主導技術以來,一個研究子領域已經出現,試圖理解它們的內部工作機制。在這個子領域中的一種標準方法是主要理解神經網絡如何表征人類可理解的特征。另一種較少探索的可能性是將它們理解為多步驟的計算機程序。這似乎需要一種模塊化的前提:網絡的不同部分需要足夠獨立地運作,以便能夠單獨理解,并實現不同的可解釋子程序。

為了在神經網絡內部找到模塊化結構,我們最初使用圖形聚類工具。如果一個網絡可以被劃分為具有強內部連接但外部連接弱的神經元群組,那么這個網絡在這個意義上是可聚類的。我們發現,訓練過的神經網絡通常比隨機初始化的網絡更具聚類性,而且常常相對于具有與訓練網絡相同權重分布的隨機網絡具有聚類性。我們研究促進聚類性的因素,并且還開發了針對這一目的的新方法。

為了使模塊化對理解神經網絡有價值,它需要具有某種功能相關性。我們關注的功能相關性類型是功能的局部專業化。一個神經網絡在其計算圖的部分可以被抽象地表示為執行某些與整體任務相關的可理解子任務的程度上局部專業化。我們提出了兩個局部專業化的代理:重要性,反映了神經元集合對網絡性能的價值;以及一致性,反映了它們的神經元與輸入特征的關聯一致性。然后,我們使用通常用來解釋單個神經元的技術來操作這些代理,將它們應用于由圖聚類算法產生的神經元組。我們的結果顯示,聚類成功地找到了重要且一致的神經元組,盡管并非所有發現的神經元組都是這樣。我們最后通過一個案例研究來總結,使用更標準的可解釋性工具,這些工具旨在理解激活空間中方向所代表的特征,將它們應用于對CoinRun游戲的獎勵函數訓練的神經網絡的分析。

盡管我們的網絡實現了低測試損失,但應用可解釋性工具顯示,網絡沒有充分代表相關特征,并且在分布外嚴重誤預測獎勵。即便如此,這些工具并沒有清晰地揭示網絡實際上正在執行的計算。這不僅說明了需要更好的可解釋性工具來理解泛化行為的必要性,而且也激發了這種需求:如果我們將這些網絡視為通過強化學習訓練的政策的“動機系統”的模型,那么結論是這樣的網絡可能在更豐富的環境中追求錯誤的目標,表明需要可解釋性技術來闡明泛化行為。

付費5元查看完整內容

人類自然地整合各種感覺來理解我們的周圍環境,使我們能夠補償部分缺失的感官輸入。相反,機器學習模型擅長利用大量數據集,但在有效處理缺失數據方面面臨挑戰。雖然利用多種數據類型提供了更全面的視角,但也增加了遇到缺失值的可能性,從而強調了在機器學習技術中適當管理缺失數據的重要性。 在這篇論文中,我們主張開發模擬人類合并多種感覺輸入到統一表示法的機器學習模型,展示在面對缺失輸入源時的韌性。為多種數據類型生成標簽是費時且通常成本高昂的,導致完全注釋的多模態數據集稀缺。另一方面,多模態數據自然地具有一種弱監督形式。我們知道這些樣本描述了同一事件,并假設某些基本生成因子在群組成員之間是共享的,提供了一種弱引導。 我們的論文重點研究由弱監督特征的數據學習,深入探討群組成員之間的相互關系。 我們首先探索能夠處理多模態輸入并有效處理缺失數據的機器學習模型的新技術。

我們的重點是使用變分自編碼器(VAE)從弱監督數據中學習。我們引入了一種概率聚合函數的泛化公式,旨在克服以前方法的局限性,我們展示了這種泛化公式與性能提升的關聯。 在更高的層次上,我們研究了關于群體結構的隱含假設對模型學習行為和效果的影響。 我們發現,對于生成連貫和高質量的樣本,假設一個共享的潛在空間過于嚴格。為了克服這一局限性,我們在多模態VAEs中引入了模態特定的潛在子空間,反映了更為靈活的建模方法。 雖然我們觀察到,在建模假設上的更大靈活性,或與實際數據生成過程一致的假設,都會導致性能的提高,但我們仍然依賴于關于一組多模態或弱監督樣本的關系的先驗知識。隨著群體成員的增長,他們之間的基本關系可能變得更為復雜,增加了過于嚴格假設的風險。 因此,在最后一節中,我們將重點轉向在學習弱監督數據時最小化所需的假設,并同時在學習過程中推導出群體結構。在這種情境下,我們引入了一個可微分的隨機分區模型的新公式,該模型遵循兩階段過程。在第一步,我們使用新提出的超幾何分布的可微分公式估計元素的數量。在第二步,我們將適當數量的元素分配給每個子集。我們可以證明,我們的可微分隨機分區模型可以在弱監督設置中學習共享和獨立的生成因子。 我們希望這篇論文及其貢獻能夠增強多模態機器學習的未來應用,并減少一般情況下從弱監督數據中學習所需的假設。

//www.research-collection.ethz.ch/handle/20.500.11850/634822

付費5元查看完整內容

盡管深度學習取得了理論成就和令人鼓舞的實踐結果,但在推理、因果推理、可解釋性和可解釋性等許多領域仍然存在局限性。從應用程序的角度來看,最有效的限制之一與這些系統的魯棒性有關。事實上,目前的深度學習解決方案都沒有告知它們是否能夠在推理過程中對一個例子進行可靠的分類。現代神經網絡通常過于自信,即使它們是錯誤的。因此,構建魯棒的深度學習應用是當前計算機視覺、自然語言處理和許多其他領域的前沿研究課題。構建更可靠的深度學習解決方案最有效的方法之一是提高它們在所謂分布外檢測任務中的性能,所謂分布外檢測任務本質上是由“知道你不知道”或“知道未知”組成的。換句話說,當提交神經網絡未訓練的類實例時,具有分布外檢測能力的系統可能會拒絕執行無意義的分類。本文通過提出新的損失函數和檢測分數來解決目標性分布不均檢測任務。不確定性估計也是構建更魯棒的深度學習系統的關鍵輔助任務。因此,我們也處理這個與魯棒性相關的任務,它評估由深度神經網絡呈現的概率有多真實。為了證明我們的方法的有效性,除了大量的實驗,其中包括最新的結果,我們使用基于最大熵原理的論點來建立所提出的方法的理論基礎。與大多數當前的方法不同,我們的損失和得分是無縫的和有原則的解決方案,除了快速和有效的推斷,還能產生準確的預測。此外,我們的方法可以并入到當前和未來的項目中,只需替換用于訓練深度神經網絡的損失,并計算一個快速的檢測評分。

付費5元查看完整內容
北京阿比特科技有限公司