亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

創建規模日益龐大的數據集在深度學習的實際成功中起到了重要作用。然而,在許多現實場景中,高質量數據可能非常稀缺,導致深度學習的直接應用難以達到預期效果。大量先前研究試圖解決這一問題,以提高深度學習的數據效率。這類方法通常依賴于以下一種或多種高級策略:通過調整模型架構或訓練方式更有效地利用現有數據;主動控制數據生成過程,以優先獲取更有價值的數據;或利用其他間接相關任務的數據。在理想情況下,這些方法可以顯著提升深度學習在小數據環境下的表現。但即便如此,深度學習中的數據效率問題仍遠未解決,許多挑戰依然存在。 本論文提出并研究了四種不同的數據高效深度學習方法,通過質疑當前主流方法中的一些默認假設,推動了該領域的最新進展。 首先,我們提出了一種名為**非參數 Transformer(Non-Parametric Transformers, NPTs)的數據高效深度學習架構,它將整個數據集作為模型輸入。這一做法突破了傳統深度學習“單樣本輸入”的常規,使得 NPT 能夠通過直接推理樣本之間的交互關系來進行預測。NPT 在小規模結構化數據集(tabular datasets)上表現出色,而這是深度學習方法此前常常表現不佳的領域。 其次,我們將數據效率的關注點拓展至模型評估領域。盡管主動學習(active learning)方法可以減少訓練過程中所需的標簽數量,但評估階段的標注成本卻常被忽視,缺乏合理解釋。為此,我們提出了兩種不同的方法,通過僅主動標注具有信息量的樣本子集,構建出對模型性能的特化估計,從而實現標簽高效的模型評估。 第三,我們研究了上下文學習(In-Context Learning, ICL)**在大語言模型中學習標簽關系的能力。盡管已有大量文獻圍繞 ICL 是否真正利用標簽信息展開討論,我們的系統研究為這一問題提供了新的視角,揭示了 ICL 在標簽學習方面的潛力與局限性。

付費5元查看完整內容

相關內容

 機器學習的一個分支,它基于試圖使用包含復雜結構或由多重非線性變換構成的多個處理層對數據進行高層抽象的一系列算法。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

自2012年AlexNet贏得ImageNet挑戰賽以來,深度神經網絡(DNN)在能力方面實現了數量級的飛躍。這一成功的主要推動力之一是大規模、高質量的精心構建的數據集的可用性。這類數據集(如ImageNet、MSCOCO等)通常通過人工方式在各類別之間進行均衡,以便模型能更好地學習所有類別。然而,這種構建過程代價高昂,往往需要舍棄寶貴的已標注樣本,以平衡類別分布。現實世界中的數據(如來自互聯網)分布與這些精心構建的數據集顯著不同,往往集中于常見類別,導致類別嚴重不平衡。

因此,專為理想數據設計的算法在處理這類“長尾不平衡”與分布偏移的現實數據時性能明顯下降。要拓展深度模型在現實中的應用,就必須擺脫依賴大量人工數據篩選的瓶頸,發展出能夠從真實世界的有限與不完美數據中學習的魯棒算法。

為達此目標,本論文提出了一系列實用的深度學習算法,使模型能夠從現實中的有限與不完美數據中學習。論文分為四個部分,分別對應四類典型的學習場景:


一、從長尾數據中學習生成模型

首先,我們評估了生成對抗網絡(GAN)在長尾數據集上的表現,發現現有GAN變體普遍存在模式崩潰(mode collapse)或類別生成遺漏的問題。為緩解這一現象,我們提出Class Balancing GAN with a Classifier in the Loop,通過引入分類器評估生成圖像的模式分布,并反饋引導GAN均衡地生成各類樣本。 進一步,我們發現GAN中的BatchNorm參數的譜范數爆炸與模式崩潰高度相關。于是提出Group Spectral Regularizer(gSR),一種低成本的正則化方法,有效抑制譜崩潰,并顯著提升SNGAN和BigGAN等主流條件GAN在長尾數據上的性能。但在大規模數據集上,gSR可能引入類別混淆。 為解決此問題,我們在最新工作NoisyTwins中設計了一種顯式建模的潛空間結構:為每個類別設定獨立的高斯分布,通過對比學習方法(BarlowTwins)同時增強類別一致性與類內多樣性,從而將高分辨率的StyleGAN成功擴展到ImageNet-LT和iNaturalist2019等千類長尾數據集上,并取得了SOTA表現。


二、長尾數據中的歸納式正則化

雖然基于圖像生成可提升對尾類的分類性能,但訓練額外的生成模型成本較高。為此,我們探索了更輕量的手段,如對尾類加大損失權重(loss re-weighting)。但該策略易導致模型陷入鞍點(saddle point)而非收斂到最優點,從而影響泛化能力。 我們引入Sharpness-Aware Minimization(SAM)以誘導模型逃離鞍點,促使尾類也能如頭類一樣有效泛化。此外,訓練視覺Transformer(ViTs)在長尾分類任務中仍具挑戰,因其缺乏如局部感知等歸納偏置,訓練數據需求高。我們提出DeiT-LT,結合來自CNN的OOD蒸餾與低秩特征蒸餾,將CNN的魯棒性引入可擴展的ViT模型中。


三、面向非可加性指標的半監督學習

上述方法均在監督學習框架下,避免丟棄已標注數據。而現實中,大量未標注數據的有效利用是關鍵。為此,我們構建了一種針對非可加性指標(如worst-case recall、H-mean recall)進行反饋學習的半監督學習框架。 我們提出Cost-Sensitive Self-Training(CSST),將傳統的自訓練方法(如FixMatch)推廣至長尾數據下,并具備理論保證與良好實證表現。在主流的“自監督預訓練 + 微調”范式中,我們還提出了SelMix,一種高效的微調方法,可用來優化非可加指標。SelMix放寬了“未標注數據分布與標注數據一致”的假設,增強模型對分布偏移的魯棒性。


四、高效的領域自適應學習

長尾學習方法主要提升的是受限數據下的“內分布”泛化能力,但實際應用中,模型還需能在跨領域的場景下泛化。為此,我們提出子模集選擇的對抗性領域自適應方法,通過精挑細選少量目標域樣本用于標注,最大化模型性能提升。 進一步,為提高適應效率,我們引入Smooth Domain Adversarial Training(SDAT),該方法使模型收斂到更具泛化能力的“平滑最小值”,從而實現跨任務、跨領域的高效模型遷移。


總結:本論文系統探索了在真實世界中如何從有限與不完美數據中訓練深度神經網絡模型,涵蓋生成學習、判別學習、半監督學習與跨域遷移四大子方向,為深度模型的大規模實際部署提供了堅實算法基礎與方法論支撐。

付費5元查看完整內容

稀疏計算(如圖問題和稀疏矩陣算法中的計算)對于解決生物學、編譯器設計和機器學習等領域的復雜問題至關重要。然而,在現代異構計算環境中,高效處理大規模、不規則的稀疏數據結構提出了重大挑戰,必須在可擴展性和效率之間仔細權衡。現有的并行算法和計算模型通常未能充分利用稀疏數據中的固有結構,導致效率低下和可擴展性有限。這對于NP難問題尤其成問題,因為最壞情況下的解決方案速度較慢,而對于稀疏矩陣內核來說,它們是稀疏神經網絡和科學計算中的瓶頸。 本論文介紹了利用稀疏數據結構特性的新算法、框架和模型。我們的貢獻包括: 1. 固定參數可解算法:用于子圖同構和k-團列舉,利用平面性和缺乏密集子圖的特性減少計算深度或工作量,從而提高并行環境中的可擴展性和效率。 1. 參數化模板圖框架:高效處理執行圖中的重復結構,優化并行程序分析中的數據移動。 1. 空間計算機模型與競爭模型:針對空間數據流架構的挑戰,通過考慮空間局部性和競爭成本來優化稀疏通信模式。 1. 局部性優化的圖布局:最小化通信成本,使現代加速器和分布式系統上的稀疏矩陣操作具有可擴展性。 1. 模型引導的實驗評估:在最先進的數據流架構上對基本通信集體操作進行評估,強調了我們建模的影響。

這些貢獻共同推動了稀疏計算的最新技術發展,為高性能計算的未來進步奠定了基礎,可能對數據分析、科學計算和機器學習產生深遠影響。

付費5元查看完整內容

當前的深度學習模型被訓練以適應訓練集的分布。盡管得益于前沿架構設計的顯著進展,這些模型仍無法對分布外(OOD)樣本進行推理——即那些與訓練集范圍不一致的實例。與人類不同,人類能夠自然地識別未知的事物,而當前的深度學習模型卻缺乏這一能力。由于很難將開放世界中的所有物體包含在訓練集中,設計一種開放集識別算法來檢測和拒絕OOD樣本變得至關重要。本論文聚焦于研究開放集識別及其在計算機視覺中的應用。首先,我們介紹了一個用于自動駕駛應用的開放集3D語義分割系統。我們的目標是檢測那些不常見的、未包含在訓練集中的異常物體,因為這些離群點對自動駕駛系統的安全至關重要。隨后,我們從信息瓶頸的角度分析開放集問題,并提出了一種原型相似度學習算法,以學習更多類別特定和實例特定的信息,從而提高開放集識別性能。最后,我們深入分析了一個新設定——統一開放集識別,在這一設定中,既要檢測OOD樣本,也要檢測那些被錯誤分類的訓練集內樣本,因為模型對這些樣本的預測是錯誤的。總的來說,我們的工作為開放集識別社區提供了新的理論分析視角、新的訓練與評估設定,以及新的應用方向。

付費5元查看完整內容

基于車載3D LiDAR的幾何與語義場景理解深度學習研究

3D LiDAR點云數據在計算機視覺、機器人學和自動駕駛中的場景感知中起著至關重要的作用。涉及3D點云的幾何與語義場景理解是推動自動駕駛技術發展的關鍵。然而,仍然存在許多挑戰,特別是在提高這些系統的整體準確性(如分割精度、深度估計精度等)和效率方面。

為了解決與LiDAR任務相關的準確性問題,我們提出了DurLAR,這是首個高保真128通道3D LiDAR數據集,具有全景環境(近紅外)和反射率圖像。利用DurLAR,超越了先前基準的數據集分辨率,我們著手解決單目深度估計任務。利用這種高分辨率但稀疏的真實場景深度信息,我們提出了一種新型的聯合監督/自監督損失函數,大大提高了深度估計的精度。

為了在確保精度的同時提高3D分割的效率,我們提出了一種新穎的管道,采用更小的架構,所需的真實標簽注釋更少,同時在分割精度上超越了現有方法。這一創新通過一種新型的稀疏深度可分卷積(SDSC)模塊得以實現,該模塊顯著減少了網絡的參數量,同時保持了任務的整體性能。此外,我們還引入了一種新的時空冗余幀下采樣(ST-RFD)方法,該方法利用傳感器運動知識提取多樣化的訓練數據幀樣本,從而提高計算效率。

此外,近年來在3D LiDAR分割方面的進展重點關注點云的空間定位和分布,以提高分割精度。然而,坐標和點強度的依賴性導致了性能的亞優表現和較差的等距不變性。為了提高分割精度,我們引入了基于距離感知的點距離分布特征(RAPiD)及其相關的RAPiD-Seg架構。這些特征展示了剛性變換不變性,并能適應點密度變化,專注于鄰近結構的局部幾何。利用LiDAR的各向同性輻射和語義分類,它們增強了局部表示和計算效率。 通過廣泛的實驗和定性分析,我們驗證了方法的有效性。我們的方法在語義分割的mIoU和深度估計的RMSE上超越了現有的最先進技術(SoTA)。所有貢獻已被同行評審的會議接受,進一步證明了我們在自動駕駛中3D LiDAR應用的準確性和效率方面的進展。

付費5元查看完整內容

近年來,機器學習取得了顯著的突破。隨著機器學習逐漸滲透到日常生活的各個方面,個人和組織越來越多地與這些系統互動,表現出各種社交和對抗性行為。這些行為可能對機器學習系統的行為和性能產生顯著影響。具體來說,在這些互動過程中,數據可能由策略性個體生成,由自利的數據收集者收集,甚至可能被對抗性攻擊者污染,并用于創建滿足多重目標的預測器、模型和政策。因此,機器學習系統的輸出可能會退化,例如深度神經網絡對抗性樣本的脆弱性(Shafahi 等, 2018; Szegedy 等, 2013),以及在面對策略性個體時經典算法性能的下降(Ahmadi 等, 2021)。解決這些挑戰對于機器學習在社會環境中的成功至關重要。 本論文分為兩部分:社交數據源下的學習和對抗性數據源下的學習。對于社交數據源,我們考慮了以下問題:(1) 在有限和無限假設類中與策略性個體的學習,其中我們對在線和PAC策略環境中的可學習性進行了理解,(2) 在單輪聯邦學習、多輪聯邦學習和協作主動學習中,自利數據收集者的激勵與背叛,(3) 游戲中的學習,在其中一名玩家運行學習算法而不是做出最佳回應,(4) 在決策制定和在線學習中的多目標學習。對于對抗性數據源,我們研究了以下問題:(1) 在干凈標簽攻擊下的魯棒學習,攻擊者向訓練集中注入一組正確標記的點,以誤導學習者在特定測試點上出錯,(2) 在變換不變性下的學習以及對流行的數據增強方法的分析。

近年來,機器學習取得了顯著的突破。隨著機器學習逐漸滲透到日常生活的各個方面,個人和組織與這些系統的互動日益頻繁,表現出各種社交和對抗性行為,這些行為可能會顯著影響機器學習系統的性能。 策略性個體 在許多領域,機器學習被應用于為各種資源的申請者提供決策依據。然而,當個體有動機從特定的預測結果中獲益時,他們可能會通過修改自身特征來獲取有利的預測結果。這種行為可能損害預測性能,使得學習過程容易受到金融政策制定中的經典原則——古德哈特定律(Goodhart's law)的影響,該定律指出:“一旦某個指標成為公眾的目標,它就不再是一個好的指標。” 這種學習系統與其所應用對象之間的天然張力廣泛存在于貸款審批、大學招生、職位招聘和保險等場景中。在這些情況下,學習系統的目標是進行準確的預測,而個體則無論其真實標簽如何,都有動力被歸類為正面。例如,在大學招生中,申請者可能會重考SAT或選擇更容易的課程以提高GPA,從而誤導分類器。

自利的數據收集者 在許多現實世界的應用中,數據集分布在不同的孤島中,如醫院、學校和銀行,因而需要它們之間的合作。近年來,協作學習(如聯邦學習)被廣泛采用,以促進大量數據收集者之間的合作。然而,決定協作學習成功與影響的關鍵在于能否招募和留住大量的數據收集者。在協作學習協議與數據收集者之間存在一種內在的張力。學習協議旨在找到對所有數據收集者都有利的模型,而每個數據收集者的目標則是找到一個對其本地數據有利且數據貢獻最小的模型。因此,如果學習協議要求數據收集者提供超出其自身目標所需的數據量,他們將不會按協議要求進行貢獻。

多目標用戶 雖然機器學習問題通常涉及優化單一標量獎勵,但在許多領域,同時優化多個(可能互相沖突的)目標是可取的或必要的。例如,自動駕駛汽車用戶希望同時追求安全、速度和舒適性,但速度可能對安全(如延長車輛突然停下的時間)或舒適性(如在快速轉彎時引起不適)產生負面影響。因此,當一個學習系統優化單一標量損失時,它可能忽視這些多重目標,從而為用戶生成不令人滿意的模型或策略。此外,在學習過程中可能存在多個利益相關者,每個利益相關者都有不同的目標。僅關注一個目標可能導致其他目標的性能顯著下降。

對抗性攻擊者 對抗性攻擊在暴露機器學習系統的脆弱性方面發揮了重要作用。許多流行的模型在現實世界場景中缺乏魯棒性。例如,在圖像任務中,向訓練圖像添加不可察覺的噪聲(Szegedy等,2013)或通過添加額外的圖像來污染訓練集(Shafahi等,2018)可以嚴重損害深度神經網絡的性能。 由于這些社交和對抗性數據因素,機器學習系統的輸出可能會退化。應對這些挑戰對于機器學習的成功至關重要。

本論文從理論角度出發,針對由這些社交和對抗性數據因素引發的可信性挑戰作出貢獻。這些數據因素在現有理論中尚未得到充分建模。因此,本論文側重于建模機器學習交互中固有的社交和對抗性方面,分析其對預測器的影響,并開發增強性能的方法和見解。 本論文的核心主題是為社交和對抗性數據源下的可信機器學習建立理論基礎。

付費5元查看完整內容

人類通常可以通過少量的示例快速高效地解決復雜的新學習任務。相比之下,現代人工智能系統往往需要成千上萬甚至數百萬次觀察才能解決最基本的任務。元學習旨在通過利用類似學習任務的過去經驗,將適當的歸納偏差嵌入學習系統,從而解決這一問題。歷史上,針對優化器、參數初始化等元學習組件的方法已顯著提高了性能。本論文旨在通過對通常被忽視的損失函數組件進行研究,探討元學習以提升性能的概念。損失函數是學習系統的重要組成部分,它代表了主要學習目標,系統優化該目標的能力決定并量化了學習的成功。 在本論文中,我們開發了用于深度神經網絡的元學習損失函數的方法。首先,我們引入了一種稱為進化模型無關損失函數(EvoMAL)的符號模型無關損失函數元學習方法。該方法整合了損失函數學習的最新進展,使得在普通硬件上開發可解釋的損失函數成為可能。通過實證和理論分析,我們發現了學習損失函數中的模式,這激發了稀疏標簽平滑正則化(SparseLSR)的開發,這是一種顯著更快且內存效率更高的標簽平滑正則化方法。其次,我們挑戰了損失函數必須是靜態函數的傳統觀念,開發了自適應損失函數學習(AdaLFL)方法,這是一種用于元學習自適應損失函數的方法。最后,我們開發了神經過程偏置元學習(NPBML),這是一種任務自適應的小樣本學習方法,能夠同時元學習參數初始化、優化器和損失函數。

人類具備從極少量的觀察中學習新任務的非凡能力。我們通常可以通過利用過去相關任務的經驗,并結合關于目標領域的一小部分信息,快速適應新領域(Lake et al., 2015)。利用從過去經驗中學到的共享任務規律,使人類能夠在廣泛的多樣任務上表現出色,展示出一種相對普遍的智能形式。與此形成對比的是,現代人工智能和機器學習系統通常高度專業化,往往需要成千上萬次的觀察才能在單一任務上達到有競爭力的表現。這種樣本效率低下的情況,是由于目前將從頭開始的端到端學習視為學習的黃金標準(Collobert et al., 2011;Yi et al., 2014);其實際動機是能夠在不需要嵌入大量人類知識和專業知識的情況下進行學習。 然而,正如Finn(2018)指出的那樣,每次都要求系統從零開始學習每個任務,就像要求(人類)嬰兒在沒有掌握與語言、感知或推理相關的基本概念之前就學會編程一樣,這顯然是不合理的。為了縮小我們智能系統與人類之間的差距,顯然需要重新考慮從零開始的學習方式,轉而采用一種更具樣本效率的學習方法。傳統學習方法的另一個局限性是,它們通常需要預先假設一組歸納偏差,例如可搜索模型的類別,即表示偏差,或用于找到模型參數集合的學習規則,即程序偏差(Gordon & Desjardins, 1995)。然而,這種方法必然會導致次優性能,因為所選擇的歸納偏差集合很少,甚至從未是任何特定學習問題的最佳選擇。 因此,越來越多的研究開始探討一種稱為元學習的學習范式(Hospedales et al., 2022;Peng, 2020;Vanschoren, 2018;Vilalta & Drissi, 2002)。通常非正式地稱為學習如何學習的范式。元學習旨在提供一種與傳統AI方法相反的替代范式,即智能系統通過多次學習經歷(通常但不限于覆蓋一系列相關任務)利用過去的經驗。元學習利用過去的經驗來提高模型(通常是深度神經網絡(LeCun et al., 2015;Goodfellow et al., 2016))未來的學習性能,通過自動選擇適合于給定問題或相關問題族的歸納偏差集合(或其子集)(Hospedales et al., 2022)。 許多元學習方法已經被提出用于優化各種深度學習(DL)組件(Goodfellow et al., 2016)。例如,早期研究探索了使用元學習生成神經網絡學習規則(Schmidhuber, 1987, 1992;Bengio et al., 1994),而更多的當代研究則擴展到了學習激活函數(Ramachandran et al., 2017)、共享參數初始化(Finn et al., 2017)和神經網絡架構(Stanley et al., 2019)以及從頭開始的整個學習算法(Real et al., 2020;Co-Reyes et al., 2021)等(Snell et al., 2017;Houthooft et al., 2018;Liu et al., 2020a;Alet et al., 2018;Franceschi et al., 2018)。

付費5元查看完整內容

在過去幾十年里,人們一直致力于解決多智能體系統的分布式控制問題。總體任務包括共識、編隊、成群和覆蓋控制,在多機器人協調、制造和智能交通系統中有著廣泛的應用。然而,分布式控制策略通常是針對所有智能體的,有時可能是多余的,而且代價高昂,因為通過適當設計的局部控制策略,可以引導部分智能體完成預期任務,從而使整個群體完成預定任務。因此,在本論文中,轉而考慮一般的領導者-追隨者框架,其含義是:選擇一組具有外部輸入的智能體作為領導者,以驅動追隨者群體,使整個系統能在一定的瞬時范圍內達成共識或形成目標。追隨者根據一些標準協議進行控制,完全依賴于它們與領導者之間的動態耦合,不需要任何額外的控制工作,也不需要了解規定的團隊界限。

除了傳統的多智能體系統穩定和確保跟蹤的考慮因素外,如今越來越多的應用需要完成更復雜的任務,而這些任務無法輕易定義為經典的控制目標。相反,需要更高級別的規范定義來處理此類高級任務。因此,本論文考慮采用基于形式化方法的方法來指定更復雜、更高級的任務規范。基于連續時間信號的信號時態邏輯(STL)具有同時制定時間和空間約束的額外特性,因此為處理多智能體系統的定量瞬態約束提供了可能性。

本論文采用基于瞬態的方法解決了領導者-跟隨者多智能體系統的底層控制和高層規劃問題。首先,在底層控制部分,考慮了領導者-追隨者多智能體系統在分布式方式下使用規定性能策略進行共識或編隊控制的經典問題。處理了一階和二階情況。在樹狀圖的假設下,當性能函數的衰減率在一個足夠的范圍內時,提出了一階情況下的分布式控制法則。然后,研究了兩類可能有額外追隨者的樹狀圖。對于二階情況,提出了一種基于反步進方法的分布式控制法,用于領導者群體,以引導整個系統在規定的性能邊界內實現目標編隊。在第二部分中,進一步討論了基于樹圖的擴展結果的帶循環的一般圖的結果。帶循環的一般圖的擴展具有更多的實際應用,并為無向圖提供了完整的理論。在底層控制部分,最后討論了領導者-追隨者網絡的拓撲條件,這樣就可以應用之前設計的領導者-追隨者多智能體系統的規定性能策略,在瞬態約束條件下實現目標形成。具體來說,推導了領導者-追隨者圖拓撲的必要條件和充分條件,以便在滿足規定的性能瞬態約束的同時實現理想的編隊。

在高層規劃部分,考慮了領導者-追隨者多智能體系統在 STL 規范的某些片段下的合作控制。首先為領導者-跟隨者多智能體系統提出了一種基于漏斗的控制策略,通過在漏斗上規定某些限制閉環軌跡的瞬態行為來強制滿足基本的 STL 公式。然后利用混合控制策略來滿足順序 STL 公式。隨后,將考慮一個大規模的領導者-追隨者網絡,該網絡由多個具有耦合動態的領導者-追隨者子系統組成。只有領導者知道相關的 STL 規范,并以分布式方式驅動跟隨者,從而在全局上滿足 STL 規范。在局部可行性假設下,為每個 "領導者-跟隨者 "子系統提出了一種基于漏斗的控制方法,以實現局部 STL 規范,這進一步意味著全局滿足所有 STL 規范。為了強制滿足 STL 公式,對漏斗參數進行了適當設計,以規定某些瞬態行為,從而約束閉環軌跡。

付費5元查看完整內容

利用有限的數據進行學習是深度學習的最大問題之一。目前,解決這個問題的流行方法是在大量數據上訓練模型,無論是否標記,然后在同一模態的感興趣的較小數據集上重新訓練模型。直觀地說,這種技術允許模型首先學習某種數據(如圖像)的一般表示。然后,學習這種特定模態的特定任務應該需要更少的數據。雖然這種被稱為“遷移學習”的方法在計算機視覺或自然語言處理等領域非常有效,但它不能解決深度學習的常見問題,如模型可解釋性或對數據的總體需求。本文探索了在數據約束設置中學習表達模型問題的不同答案。我們不再依賴大數據集來學習神經網絡的參數,而是用反映數據結構的已知函數來代替其中的一些參數。這些函數通常都是從內核方法的豐富文獻中提取出來的。實際上,許多核函數都可以解釋,并且/或允許使用少量數據進行學習。所提出方法屬于"歸納偏差"的范疇,可以定義為對手頭數據的假設,限制了學習過程中模型探索的空間。在本文的前兩章中,我們在序列(如自然語言中的句子或蛋白質序列)和圖(如分子)的上下文中證明了該方法的有效性。本文還強調了工作與深度學習最新進展之間的關系。本文的最后一章重點研究凸機器學習模型。這里,我們不是提出新的模型,而是想知道學習一個“好的”模型真正需要數據集中的哪些樣本比例。更準確地說,研究了安全樣本篩選的問題,即在擬合機器學習模型之前,執行簡單測試以丟棄數據集中沒有信息的樣本,而不影響最優模型。此類技術可用于壓縮數據集或挖掘稀有樣本。

付費5元查看完整內容

深度學習方法在解決計算機視覺任務方面取得了巨大的成功,在人工智能系統中被廣泛應用于圖像處理、分析和理解。然而,深度神經網絡(DNNs)已被證明易受輸入數據的對抗性擾動的影響。因此,深度神經網絡的安全問題浮出了水面。綜合研究深度視覺算法的對抗魯棒性是十分必要的。本文主要研究深度分類模型和深度圖像去噪的魯棒性對于圖像去噪,我們系統地研究了深度圖像去噪器的魯棒性。具體而言,我們提出了一種新的攻擊方法,基于觀測的零均值攻擊(ObsAtk),考慮了自然噪聲的零均值假設,對有噪聲的輸入圖像產生對抗性擾動。我們開發了一種有效的、理論基礎的基于PGD的優化技術來實現ObsAtk。針對ObsAtk,我們提出了混合對抗訓練(HAT)來增強深度圖像去噪器的魯棒性。大量的實驗證明了HAT的有效性。此外,我們探討了降噪器的對抗性魯棒性和對真實世界中不可見的噪聲類型的適應性之間的聯系。我們發現,只有合成噪聲數據經過HAT訓練的深度降噪器可以很好地推廣到不可見的噪聲類型。噪聲去除能力甚至可以與訓練與真實世界的噪聲降噪器相媲美。對于圖像分類,我們探索了除了傳統卷積神經網絡(CNNs)之外的新的魯棒架構。首先,研究了神經常微分方程的魯棒性。我們通過經驗證明,與基于CNN的分類器相比,基于節點的分類器對輸入擾動表現出更好的魯棒性。為了進一步增強基于節點的模型的魯棒性,我們將時不變屬性引入到節點中,并施加一個穩態約束來規范受擾動數據上的ODE流。我們證明了合成模型,稱為時不變穩定神經ODE (TisODE),比vanilla 節點更魯棒。 其次,從通道激活的角度研究了vanilla CNN的魯棒性,并提出了一種特征選擇機制來增強vanilla CNN的魯棒性。特別是,我們比較了正常訓練的分類器在處理自然數據和對抗數據時的通道激活。我們觀察到,對抗性數據通過過度激活負相關(NR)通道而缺乏激活正相關(PR)通道,誤導了深度分類器。我們還比較了正常訓練模型和對抗訓練模型的通道激活,觀察到對抗訓練通過促進未激活的PR通道和抑制過度激活的NR通道來增強模型的魯棒性。因此,我們假設,根據通道與真實類別的相關性,放大通道的激活可以提高魯棒性。為了驗證這一假設,我們開發了一種新的通道操作技術,即基于通道重要性的特征選擇(CIFS),該技術可以根據通道的相關性生成非負乘數來擴展通道的激活。大量的實驗結果驗證了該假設和改進后的CNN具有良好的魯棒性。綜上所述,本文系統研究了深度視覺算法的魯棒性,包括魯棒性評價(ObsAtk)、魯棒性改進(HAT、TisODE和CIFS)以及對抗魯棒性與新領域泛化能力之間的關系。

付費5元查看完整內容

開放環境下的度量學習研究

利用對象之間的相似性關系,度量學習為樣本學到有效的特征表示,使得 在該表示空間中,樣本之間的距離度量能夠精確反映樣本之間的相似與不相 似關系。有效的距離度量與表示空間極大地輔助了后續的多樣化任務。在度 量學習的研究中,傳統的方法依賴于靜態的、封閉的環境,需要無干擾、不變 化的特征,大量的訓練樣本,且只能處理單一的對象語義。而實際應用場景 比較復雜,是開放的,并存在“輸入噪聲多”、“訓練樣本少”、“特征變化 快”、“語義表示廣”等特點。本文從模型在開放環境下輸入、輸出層面上面 臨的挑戰作為切入點,提出針對或利用度量學習特性的具體算法,從理論和應 用等多個角度使得度量學習的研究能夠契合開放的環境。

本文的主要內容有:

  1. 從理論上分析了度量學習的泛化能力,并提出策略以降低其樣本復雜度。傳統機器學習方法要求大量有標記的訓練樣本,而實際場景中,對于某些 類別,考慮到樣本搜集和標注的代價,只能獲取極少量的有標記的樣本。本文從目標函數性質以及度量重用兩個角度進行泛化能力的理論分析,相 對于以往的分析結果,提出如何能獲得更快的泛化收斂率,即如何利用更 少的樣本得到同樣的泛化誤差。同時,本文通過大量實驗進行驗證,說明 滿足理論假設時,各因素對樣本復雜度的影響與理論中給出的趨勢一致。

  2. 提出一種應用度量語義變換在小樣本情況下應對特征變化的學習方法。除了僅有少量的訓練樣本,當在開放環境下處理新的任務時,模型也會 面臨特征空間變化的挑戰。本文利用特征之間的關聯性,提出構建特征的 “元表示”空間,利用在該空間中學習的度量,將已有特征空間的分類器 轉換到新的特征空間上,以“重用”已有的訓練好的異構分類器。提出的 ReForm 方法也降低了學習算法的樣本和計算需求。值得一提的是,在ReForm 方法重用分類器的過程中,沒有歷史訓練數據的傳輸,而僅僅需 要已有的模型,這也保護了不同階段、不同任務之間數據的隱私性。

  3. 提出能夠靈活挖掘并自適應利用開放環境中復雜語義的多度量學習框架。圖片、文本等對象在不同場景下往往存在豐富的語義。以往的度量學習 方法只針對對象的單一語義進行建模,而忽略了語義的多樣性。本文提出 “語義度量”這一概念以及統一的框架 U?2 ?,學習多個局部度量,不但能 統一已有的方法、靈活挖掘出對象本身的不同語義,也能夠提升后續眾多 實際問題的性能。針對度量數目的選擇,本文也提出自適應的多度量學習 框架 L???,利用全局度量的輔助,動態地為不同的語義分配度量的數目。L??? 一方面防止模型過擬合、提升分類能力,一方面也降低了存儲開銷。

  4. 提出一種利用分布擾動以適應輸入特征和對象關系噪聲的度量學習方法。開放動態的環境容易受到噪聲的影響。一方面,輸入的樣本特征容易附帶 噪聲,導致樣本特征的描述不夠精確;另一方面,對象之間的關聯關系也 會不準確,使后續相似性的學習更加困難。針對這一難點,本文首先對樣 本之間的距離做概率化分析,指出上述兩種噪聲都來源于樣本特征的擾 動。并提出一種基于“期望距離”的度量學習方法 Drift。該方法在學習 過程中動態地引入噪聲,有效地增廣數據,使模型有更好的泛化能力。利 用 Drift 學到的距離度量更加魯棒,能夠更真實地反映對象之間的關系。

付費5元查看完整內容
北京阿比特科技有限公司