深度神經網絡(DNNs)處于技術革命的前沿,展現出在各種任務中與人類專家相匹配甚至超越的能力。從圖像識別到復雜的決策過程,DNNs正在重塑各個行業和科學研究。盡管它們廣泛應用,但這些算法的內部機制仍然 largely 不透明,常被比作“黑箱”。盡管我們可以通過實驗方法提升其性能,但深入全面地理解其內部過程依然是一個巨大的挑戰。 對于統計力學領域而言,處理計算機科學問題并非新挑戰。本論文正處于這一交叉點,采用跨學科的方法,利用基于物理學的方法深入理解DNNs。 本論文的核心通過三種不同但相互關聯的研究方法展開。第一種方法是基于數據平均的,我們用它來建立DNNs泛化性能的漸近界限。這個結果不僅大大改善了統計學習理論中的經典界限,還展示了物理學視角如何超越傳統的分析限制。值得注意的是,我們的結果只依賴于最后一層的大小,而不是網絡參數的總數,突顯了在深度網絡中,信息是如何通過不同層進行不同方式處理的。 第二種方法則采取數據依賴的視角,聚焦于DNNs在已知的無限寬度極限之外的特定熱力學極限下的行為。這一研究路線涉及對網絡前向動態的詳細分析,使我們能夠對這些算法在現實環境中——即大多數實際DNNs運行的領域——的內部運作提供更加精確的統計描述。此項進展使我們能夠得到:(i)在有限寬度單隱層網絡中與回歸任務相關的泛化誤差的封閉公式;(ii)深度架構的分配函數的近似表達式;(iii)熱力學極限下的深度神經網絡與學生t過程之間的聯系。 最后,論文采用了任務明確的方法,進行(初步)研究,探討DNNs如何與簡單且受控數據集的結構進行交互與適應。該分析旨在判斷DNNs是否真能與數據集的結構產生共鳴,形成其特征的內部表示,而不僅僅是記住它。這一部分的研究對于理解DNNs何時被迫學習數據結構,而不是僅僅記住它,可能具有重要意義。 總之,本論文希望成為探索現代技術最令人著迷和影響深遠領域之一的旅程。借助統計物理與機器學習之間的富有成效的對話,本文希望為揭示深度神經網絡的內在行為做出貢獻。這一研究方向,作為本論文的一小部分,具有潛力不僅能影響深度神經網絡領域,還能夠影響這些系統應用的無數領域,希望為更具可解釋性和透明度的人工智能鋪平道路。
隨著深度神經網絡(DNN)的日益復雜化,其計算需求常常超出了邊緣設備的承載能力,而邊緣設備通常資源有限。本論文探討了在資源受限的邊緣環境中高效且穩健地部署大型DNN的策略,其中“邊緣”指的是位于數據源與云端之間的設備。在邊緣部署DNN具有增強隱私性、效率和可靠性的優勢,但也因邊緣設備的資源受限而面臨挑戰。論文分為兩部分。第一部分解決了在多個資源受限的邊緣設備上優化分區和部署DNN的挑戰。AutoDiCE框架自動化了模型分區、代碼生成和設備間的通信優化,同時通過設計空間探索(DSE)技術確定了最佳分布策略,以最小化能耗和內存使用,并最大化系統推理吞吐量。第二部分著重于增強系統對設備故障或連接問題的魯棒性。RobustDiCE通過優先處理關鍵神經元并在設備間部分復制它們,確保分布式推理的準確性,即使在故障情況下也能保持功能。此外,EASTER是一種針對大語言模型的類似分區方法,平衡了資源利用和魯棒性。總體而言,本論文提出了在邊緣高效且容錯的DNN部署創新解決方案,優化了資源利用并確保了可靠運行。所提出的方法推動了分布式邊緣AI在資源受限環境中的應用。
自然語言處理(NLP)領域的最新進展顯著提升了語言模型的能力,吸引了學術界和工業界研究者的高度關注。這些模型在大量文本數據集上進行訓練,在各種語言任務中表現出色,如翻譯、摘要、問答和對話生成。支撐這些發展的核心是數據,作為NLP的命脈,尤其在當前的大型語言模型需要龐大的數據集才能有效學習和生成精確輸出的背景下,數據的作用更加至關重要。本論文聚焦于面向數據的優化方法,旨在提升語言模型在各種NLP應用中的性能。它提出了創新的方法,改進模型對數據的攝取和處理方式,從而在實際應用中取得了顯著的進展。 本研究通過深入探討NLP中數據驅動的各個方面,涵蓋數據的數量和質量。通過自上而下的方法,本研究跨越了數據生命周期的各個環節,涉及數據的利用、增強和構建。在數據利用方面,研究首先在有限數據下調整模型,然后利用無標簽數據的潛力,通過持續學習提升模型性能。轉向數據增強部分,研究通過提升合成生成數據的質量,以鞏固模型的知識,為持續學習提供支持。接著,設計了一種方法控制指令數據的復雜性,并研究其對大型語言模型性能的影響。在數據構建方面,研究首先開發了一個因果完備的大規模預訓練語料庫,專門針對文檔基礎的對話任務。除此之外,本研究還利用大型語言模型的能力,創建了多種工具的指令數據集,從而賦予模型工具使用的能力。 總之,本論文對數據驅動的NLP研究做出了貢獻,系統地涵蓋了數據處理的完整周期。本論文提出的創新方法旨在顯著提升語言模型的能力,并改善其在各種實際場景中的應用效果。
當前的深度學習模型被訓練以適應訓練集的分布。盡管得益于前沿架構設計的顯著進展,這些模型仍無法對分布外(OOD)樣本進行推理——即那些與訓練集范圍不一致的實例。與人類不同,人類能夠自然地識別未知的事物,而當前的深度學習模型卻缺乏這一能力。由于很難將開放世界中的所有物體包含在訓練集中,設計一種開放集識別算法來檢測和拒絕OOD樣本變得至關重要。本論文聚焦于研究開放集識別及其在計算機視覺中的應用。首先,我們介紹了一個用于自動駕駛應用的開放集3D語義分割系統。我們的目標是檢測那些不常見的、未包含在訓練集中的異常物體,因為這些離群點對自動駕駛系統的安全至關重要。隨后,我們從信息瓶頸的角度分析開放集問題,并提出了一種原型相似度學習算法,以學習更多類別特定和實例特定的信息,從而提高開放集識別性能。最后,我們深入分析了一個新設定——統一開放集識別,在這一設定中,既要檢測OOD樣本,也要檢測那些被錯誤分類的訓練集內樣本,因為模型對這些樣本的預測是錯誤的。總的來說,我們的工作為開放集識別社區提供了新的理論分析視角、新的訓練與評估設定,以及新的應用方向。
機器學習,特別是神經網絡,現如今廣泛應用于許多領域,如貸款評估、搜索結果和招聘推薦。這些系統通常提供自動化決策,影響著大多數人的生活。近年來,自然語言處理(NLP)應用特別受到關注,尤其是非常高效的通用模型的出現,特別是聊天系統,這些系統現在被廣泛使用,甚至普通公眾也能直接使用它們。
不幸的是,這些系統并非沒有缺陷。僅在招聘系統中,就有性別歧視的案例,比如簡歷中“國際象棋俱樂部成員”受到青睞,而“女性國際象棋俱樂部成員”則被忽視,或者某些系統認為計算機科學學位是醫院打字員的必要資格。雖然前者可能通過分析模型的性別偏差并加以修正來緩解,但后者過于具體,可能只能通過解釋模型的預測來揭示。 可解釋性 是一個研究領域,致力于用人類可以理解的術語解釋模型和數據集。其目標通常是防止不良行為,正如上述例子所示。不幸的是,這個領域經常面臨提供錯誤解釋的問題,即解釋并未反映模型的真實情況。例如,解釋表明哪些輸入詞語很重要,可能并不比隨便指出隨機詞語更有價值。當解釋真實反映模型時,這種解釋被稱為“忠實解釋”。 不幸的是,衡量一個解釋是否忠實(忠實度指標)非常具有挑戰性,因為我們無法得到真實的標準答案。一個重要的原因是,模型通常太復雜,人類難以理解,因此無法判斷解釋是否忠實于模型。更糟糕的是,設計不當的忠實度指標可能會給出錯誤的信心,而錯誤的解釋則可能會給出對模型行為的虛假信心。因此,本論文的核心研究問題是:“如何為復雜的通用神經網絡自然語言處理模型提供并確保忠實的解釋?” 在可解釋性領域,目前有兩種主要的范式來回答這個問題:內在范式和后驗范式。 內在范式認為“只有在架構上設計為可以解釋的模型才能被解釋”,而后驗范式認為“可以且應該在模型訓練完成后生成解釋,以避免任何性能影響”。 通過分析現有文獻并提出新的忠實度指標,本論文認為這兩種范式都未能取得有效的進展。后驗解釋的忠實度經常受到批評,而內在模型要么實際上并非內在的,要么由于過于受限,無法成為高性能的通用模型。 因此,本論文假設該領域應通過結合兩種現有范式的優點,發展出新的范式來回答核心研究問題。具體來說,本論文設計了無需架構約束的可解釋模型,這樣這些模型仍然是通用且高性能的。特別地,本文提出了兩種潛在的范式,即“忠實度可度量模型”(FMMs)和“自解釋”。FMMs直接回答核心研究問題,而自解釋目前尚未完全解答該問題,但可能在未來解決。 忠實度可度量模型(FMMs) 是本論文提出的新范式,它將內在范式的“設計可解釋的模型”重新表述為“設計能夠便捷且可靠地測量忠實度的模型”。如本論文所示,這比內在范式提出的目標要容易得多,因為它不要求架構約束。該范式的具體展示應用于重要性度量——即指出每個輸入特征在做出預測時的重要性。對于這類解釋,FMMs只需對訓練過程進行小幅修改,即在訓練時隨機屏蔽輸入標記。 這種訓練過程使得我們可以使用忠實度擦除指標:“如果一個特征確實重要,那么如果去掉該特征,模型的預測應該會發生顯著變化。” 這個指標不能應用于任何模型,因為去除特征(例如詞語或標記)會導致分布外問題。然而,這種FMM支持去除特征,因此使得該指標得以應用。由于現在忠實度測量變得既便宜又可靠,因此可以優化解釋,以達到最大的忠實度。因此,FMMs變得間接地內在可解釋,但無需架構約束,并且還回答了如何衡量忠實度,從而回答了核心研究問題。 自解釋 是另一種新興范式,這些解釋直接作為模型的輸出生成。這類解釋因聊天系統的興起而變得流行,這些系統通常會以自然語言的形式闡明它們發出的解釋。然而,由于自解釋的自由形式,評估其忠實度極為困難。此外,由于這些模型也存在幻覺問題,因此有充分的理由對此保持懷疑。盡管如此,這些解釋仍然非常普遍,并且常常被當作真理接受,包括研究人員在內。為了評估這一新范式的可行性,本文還提出并評估了自解釋的忠實度指標。研究結果表明,類似于后驗解釋,它們是模型和任務相關的。 本文還研究了后驗和內在解釋的忠實度,發現結論與模型和任務的依賴性相同。然而,當使用忠實度可度量模型時,即便使用相同的后驗解釋方法,且在相同的數據集和基礎模型上,也得出了不同的結論。 這得出一個總體結論:忠實度默認是依賴于模型和任務的。然而,即便是對模型進行簡單修改,如隨機屏蔽訓練數據集(如在忠實度可度量模型中所做的),也能極大地改變局面,從而得到一致忠實的解釋。我們提供了一些建議,說明如何也可以通過自解釋來實現這一點。此外,利用忠實度可度量模型,本文證明了有可能確定新的可解釋性范式,克服過去的局限,并回答如何為復雜的通用神經網絡自然語言處理模型提供并確保忠實的解釋這一核心研究問題。
基于車載3D LiDAR的幾何與語義場景理解深度學習研究
3D LiDAR點云數據在計算機視覺、機器人學和自動駕駛中的場景感知中起著至關重要的作用。涉及3D點云的幾何與語義場景理解是推動自動駕駛技術發展的關鍵。然而,仍然存在許多挑戰,特別是在提高這些系統的整體準確性(如分割精度、深度估計精度等)和效率方面。
為了解決與LiDAR任務相關的準確性問題,我們提出了DurLAR,這是首個高保真128通道3D LiDAR數據集,具有全景環境(近紅外)和反射率圖像。利用DurLAR,超越了先前基準的數據集分辨率,我們著手解決單目深度估計任務。利用這種高分辨率但稀疏的真實場景深度信息,我們提出了一種新型的聯合監督/自監督損失函數,大大提高了深度估計的精度。
為了在確保精度的同時提高3D分割的效率,我們提出了一種新穎的管道,采用更小的架構,所需的真實標簽注釋更少,同時在分割精度上超越了現有方法。這一創新通過一種新型的稀疏深度可分卷積(SDSC)模塊得以實現,該模塊顯著減少了網絡的參數量,同時保持了任務的整體性能。此外,我們還引入了一種新的時空冗余幀下采樣(ST-RFD)方法,該方法利用傳感器運動知識提取多樣化的訓練數據幀樣本,從而提高計算效率。
此外,近年來在3D LiDAR分割方面的進展重點關注點云的空間定位和分布,以提高分割精度。然而,坐標和點強度的依賴性導致了性能的亞優表現和較差的等距不變性。為了提高分割精度,我們引入了基于距離感知的點距離分布特征(RAPiD)及其相關的RAPiD-Seg架構。這些特征展示了剛性變換不變性,并能適應點密度變化,專注于鄰近結構的局部幾何。利用LiDAR的各向同性輻射和語義分類,它們增強了局部表示和計算效率。 通過廣泛的實驗和定性分析,我們驗證了方法的有效性。我們的方法在語義分割的mIoU和深度估計的RMSE上超越了現有的最先進技術(SoTA)。所有貢獻已被同行評審的會議接受,進一步證明了我們在自動駕駛中3D LiDAR應用的準確性和效率方面的進展。
知識圖譜(KGs)正在重塑關于世界信息的表示、組織和利用的范式。知識圖譜提供了豐富的語義信息,并已成為人工智能(AI)的驅動力之一。KG的研究主要有兩個重要方向:一是構建和提高知識圖譜的質量,二是深入探討知識圖譜的廣泛應用。近年來,圖神經網絡(GNNs)也取得了顯著進展。GNN是一類適用于圖領域的深度學習技術,在許多任務中表現出令人鼓舞的性能。盡管已有研究嘗試將GNN應用于KG相關任務,但模型功能設計、可擴展性問題、因傳導性而只能預測訓練中觀察到的實體的局限性,以及基準質量等方面仍存在諸多挑戰。在本論文中,我們針對利用GNN進行知識圖譜的深度學習,考察了歸納性知識圖譜補全和知識增強推薦任務,提出了新的基于GNN的方法以應對這些挑戰。我們的廣泛實證評估顯示,所提出的方法在多種基準任務上優于最先進的方法,并能夠在實際應用中實現高效的訓練和測試。 我們還進一步探討了KG補全問題,通過重新審視傳導性設定下的基準測試。特別地,我們提出了一種新的方法來生成基準,以幫助實證評估模型捕捉推理模式的能力。我們的研究結果突顯了理論結果與實際推理能力之間的差距。
近年來,機器學習取得了顯著的突破。隨著機器學習逐漸滲透到日常生活的各個方面,個人和組織越來越多地與這些系統互動,表現出各種社交和對抗性行為。這些行為可能對機器學習系統的行為和性能產生顯著影響。具體來說,在這些互動過程中,數據可能由策略性個體生成,由自利的數據收集者收集,甚至可能被對抗性攻擊者污染,并用于創建滿足多重目標的預測器、模型和政策。因此,機器學習系統的輸出可能會退化,例如深度神經網絡對抗性樣本的脆弱性(Shafahi 等, 2018; Szegedy 等, 2013),以及在面對策略性個體時經典算法性能的下降(Ahmadi 等, 2021)。解決這些挑戰對于機器學習在社會環境中的成功至關重要。 本論文分為兩部分:社交數據源下的學習和對抗性數據源下的學習。對于社交數據源,我們考慮了以下問題:(1) 在有限和無限假設類中與策略性個體的學習,其中我們對在線和PAC策略環境中的可學習性進行了理解,(2) 在單輪聯邦學習、多輪聯邦學習和協作主動學習中,自利數據收集者的激勵與背叛,(3) 游戲中的學習,在其中一名玩家運行學習算法而不是做出最佳回應,(4) 在決策制定和在線學習中的多目標學習。對于對抗性數據源,我們研究了以下問題:(1) 在干凈標簽攻擊下的魯棒學習,攻擊者向訓練集中注入一組正確標記的點,以誤導學習者在特定測試點上出錯,(2) 在變換不變性下的學習以及對流行的數據增強方法的分析。
近年來,機器學習取得了顯著的突破。隨著機器學習逐漸滲透到日常生活的各個方面,個人和組織與這些系統的互動日益頻繁,表現出各種社交和對抗性行為,這些行為可能會顯著影響機器學習系統的性能。 策略性個體 在許多領域,機器學習被應用于為各種資源的申請者提供決策依據。然而,當個體有動機從特定的預測結果中獲益時,他們可能會通過修改自身特征來獲取有利的預測結果。這種行為可能損害預測性能,使得學習過程容易受到金融政策制定中的經典原則——古德哈特定律(Goodhart's law)的影響,該定律指出:“一旦某個指標成為公眾的目標,它就不再是一個好的指標。” 這種學習系統與其所應用對象之間的天然張力廣泛存在于貸款審批、大學招生、職位招聘和保險等場景中。在這些情況下,學習系統的目標是進行準確的預測,而個體則無論其真實標簽如何,都有動力被歸類為正面。例如,在大學招生中,申請者可能會重考SAT或選擇更容易的課程以提高GPA,從而誤導分類器。
自利的數據收集者 在許多現實世界的應用中,數據集分布在不同的孤島中,如醫院、學校和銀行,因而需要它們之間的合作。近年來,協作學習(如聯邦學習)被廣泛采用,以促進大量數據收集者之間的合作。然而,決定協作學習成功與影響的關鍵在于能否招募和留住大量的數據收集者。在協作學習協議與數據收集者之間存在一種內在的張力。學習協議旨在找到對所有數據收集者都有利的模型,而每個數據收集者的目標則是找到一個對其本地數據有利且數據貢獻最小的模型。因此,如果學習協議要求數據收集者提供超出其自身目標所需的數據量,他們將不會按協議要求進行貢獻。
多目標用戶 雖然機器學習問題通常涉及優化單一標量獎勵,但在許多領域,同時優化多個(可能互相沖突的)目標是可取的或必要的。例如,自動駕駛汽車用戶希望同時追求安全、速度和舒適性,但速度可能對安全(如延長車輛突然停下的時間)或舒適性(如在快速轉彎時引起不適)產生負面影響。因此,當一個學習系統優化單一標量損失時,它可能忽視這些多重目標,從而為用戶生成不令人滿意的模型或策略。此外,在學習過程中可能存在多個利益相關者,每個利益相關者都有不同的目標。僅關注一個目標可能導致其他目標的性能顯著下降。
對抗性攻擊者 對抗性攻擊在暴露機器學習系統的脆弱性方面發揮了重要作用。許多流行的模型在現實世界場景中缺乏魯棒性。例如,在圖像任務中,向訓練圖像添加不可察覺的噪聲(Szegedy等,2013)或通過添加額外的圖像來污染訓練集(Shafahi等,2018)可以嚴重損害深度神經網絡的性能。 由于這些社交和對抗性數據因素,機器學習系統的輸出可能會退化。應對這些挑戰對于機器學習的成功至關重要。
本論文從理論角度出發,針對由這些社交和對抗性數據因素引發的可信性挑戰作出貢獻。這些數據因素在現有理論中尚未得到充分建模。因此,本論文側重于建模機器學習交互中固有的社交和對抗性方面,分析其對預測器的影響,并開發增強性能的方法和見解。 本論文的核心主題是為社交和對抗性數據源下的可信機器學習建立理論基礎。
我們目前正經歷著一場人工智能(AI)革命。生成式AI和特別是大型語言模型(LLMs)的顯著改進正在推動這場革命。然而,這些大規模AI系統雖然強大,但更難理解。一旦訓練完畢,它們的內部工作機制仍然是一個既迷人又可能令人恐懼的謎團。問題在于,作為這些系統的創造者,我們如何理解和控制它們,以及是什么驅動它們的行為。 在本論文中,我將嘗試通過機械解釋性(MI)的工具來理解深度神經網絡的某些特性。這些工具讓人聯想到神經科學家的工具:1)分析腦細胞的連接性(連接組學) 2)測量和分析神經元活動 3)測量在進行中的計算中的主動干預的效果。盡管對大型深度學習模型的嚴格理解尚不可及,但在本論文中,我將提供通過迭代解釋性實現這一目標的可能路徑的證據:一個設計、訓練和分析AI系統的迭代過程,其中通過MI獲得的洞察力導致更強大和更可解釋的模型。 首先,我提供了證據,證明在單獨研究時,可以理解Transformer(用于LLMs的人工神經網絡架構)令人著迷的上下文學習特性。作為第一步,我們分析了在少量回歸數據上訓練的小型Transformer模型的權重。通過使用MI的工具,我們可以逆向工程這些訓練好的Transformer,這些Transformer配備了線性自注意力層,并展示了它們在前向動態中基于梯度下降和上下文數據隱含地學習內部模型。 其次,我將解決這一簡單設置中的一個重要缺陷,并通過訓練自回歸Transformer更接近LLMs。在這里,我們訓練模型來預測由線性動態獲得的元素序列中的下一個元素。同樣,借助神經科學家的工具,我們可以逆向工程這些自回歸模型,并確定模型內部 i)構建優化問題 和 ii)通過基于梯度下降的算法解決這些問題。隱藏在模型權重中的這個算法允許我們在訓練后將模型重新用作上下文學習者。基于這些洞察,我們然后閉合了解釋性循環,并提出了一種新的自注意力層,該層可以在設計時在單個層內解決已識別的優化問題。在提供更好解釋性的同時,我們在簡單實驗和語言建模中展示了性能的改進。 第三,我將展示在元學習和持續學習背景下的另一個迭代解釋性的例子,我們在其中改進了著名的與模型無關的元學習(MAML)的性能和解釋性。MAML的目標是學習一種網絡初始化,使網絡能夠快速適應新任務。基于通過機械解釋性獲得的先前洞察,我們提出了稀疏MAML,這是一種MAML變體,此外還決定主動停止學習某些權重:它學會了在哪里學習。盡管在常見的少樣本分類和持續學習基準中表現出性能改進,稀疏MAML提供了一個成功解釋性循環的另一個例子,因為所學習的解決方案在設計上允許更好的解釋性。
"強化學習(RL)是一個強大的決策制定和通過交互適應性學習的框架。盡管其核心是試錯學習,但它已成為人工智能(AI)研究的關鍵工具。在過去的十年中,RL算法已能夠掌握國際象棋和圍棋等戰略游戲,并控制各種機器人和工業平臺,從運動和操縱到電廠,甚至核聚變反應堆。通過將深度神經網絡(NN)作為函數逼近器納入其中,“深度RL”達到了處理高維狀態和動作空間的能力,并且原則上在任務間有更好的泛化性,使RL解決方案變得多樣化且有前景。然而,使用深度神經網絡帶來了某些警告。RL算法經常面臨由于過擬合和對超參數敏感導致的脆弱性問題,這些問題加劇了典型的RL挑戰,如低樣本效率、處理稀疏獎勵的困難、長期任務的延遲信用分配、對獎勵函數設計的敏感性。在這篇論文中,我們提出了一系列針對RL所面臨的一些問題的新穎貢獻,其最終目標是提高其在連續控制任務中的效率、穩健性和泛化性。具體來說,我們將介紹更穩健的軌跡優化方法,結合NN函數逼近用于策略學習、模型學習和獎勵學習。特別是,這項工作的大部分集中在零階優化用于模型預測控制,我們證明這比基于梯度的軌跡優化器更高效、穩健和可重現。在整篇論文中,我們將展示如何使用零階優化來有效解決稀疏獎勵任務,如何在模仿學習的背景下使用它,以及如何結合模型學習用于不確定性傳播。最后,我們將介紹一種從零開始學習獎勵函數的方法,以純自監督的方式。通過在模擬環境中的廣泛實驗,我們的方法在學習效率和性能上展示了顯著的提升,減少了與環境交互所需的次數,同時仍然實現了接近最優的解決方案。這項工作旨在提供一種解決深度RL挑戰部分問題的可行方法,不依賴于預定義的專家知識,解決學習過程的效率和穩健性問題。”
“雖然我們對于究竟是什么引發了人類的思維和批判性推理尚且遙遠不明,但有證據表明人類行為是通過強化學習引導的。強化學習(RL)的歷史可以追溯到20世紀,當時B.F. Skinner和I. Pavlov對動物進行了一系列關于條件反射的實驗 [1, 2],以理解學習背后的機制。心理學家E. Thorndike已經將動物的反應由其后果所強化的觀點,正式表述為“效果定律” [3]: 在特定情境中產生滿意效果的反應變得更有可能再次發生,在該情境中產生不適效果的反應變得不太可能再次發生。 —— Edward Thorndike Thorndike的效果定律假設動物不是通過推理,而是通過與物理環境的試錯互動來學習,直到獲得成功的結果。這種決策策略以回顧性方式將獎勵與行動聯系起來,與前瞻性觀點相對立,后者認為動物形成環境的場域圖作為學習的指導機制,也稱為“認知地圖” [4, 5]。”
“關于人腦的大量實驗證據表明,行為選擇存在多種機制 [6],決策過程既是反思性的(前瞻性)也是反射性的(回顧性),正如我們所預期的那樣。強化學習理論也以類似的方式發展,現在包括兩個主要分支:無模型(反射性)和基于模型(反思性)RL [7]。無模型RL學習在狀態和行動之間的反應性映射,以增加代理的獎勵,而無需了解環境的基本物理原理。相反,基于模型的RL則學習對世界的內部表征,用于學習每個行動的后果。與基于模型的RL類似,另一種計算性的前瞻性推理方法可以在模型預測控制(MPC)中找到,它在機器人學和許多工業過程中有效使用 [8, 9]。在MPC中,使用已知模型來迭代地優化給定的獎勵,同時考慮規劃范圍內的約束和來自環境的反饋。鑒于其提前規劃的組成部分,MPC也可以被看作是一種反思性決策制定的形式。 在這篇論文的過程中,我們將看到如何將基于模型和無模型的RL與MPC風格的迭代規劃相結合,以創建比單獨組件更強大的控制策略。例如,無模型RL算法能夠從大量數據中快速學習,但對訓練超參數敏感,泛化能力不佳,并且缺乏規劃組件,這可能導致在復雜環境中做出次優決策。另一方面,基于模型的RL方法有可能更靈活,但經常受到與模型估計相關的偏差的困擾,當以自回歸方式使用時,這些偏差可能迅速累積。將基于模型的RL與MPC整合起來可以提供兩全其美的解決方案,因為MPC提供了一個規劃框架,可以納入學習到的世界模型,并在規劃范圍內優化代理的行動。這可以導致更高效的決策制定策略,能夠從經驗中學習,適應不斷變化的環境,并隨著時間的推移優化它們的行為,同時具有反應性以及規避風險的特性。”
深度學習方法在解決計算機視覺任務方面取得了巨大的成功,在人工智能系統中被廣泛應用于圖像處理、分析和理解。然而,深度神經網絡(DNNs)已被證明易受輸入數據的對抗性擾動的影響。因此,深度神經網絡的安全問題浮出了水面。綜合研究深度視覺算法的對抗魯棒性是十分必要的。本文主要研究深度分類模型和深度圖像去噪的魯棒性。 對于圖像去噪,我們系統地研究了深度圖像去噪器的魯棒性。具體而言,我們提出了一種新的攻擊方法,基于觀測的零均值攻擊(ObsAtk),考慮了自然噪聲的零均值假設,對有噪聲的輸入圖像產生對抗性擾動。我們開發了一種有效的、理論基礎的基于PGD的優化技術來實現ObsAtk。針對ObsAtk,我們提出了混合對抗訓練(HAT)來增強深度圖像去噪器的魯棒性。大量的實驗證明了HAT的有效性。此外,我們探討了降噪器的對抗性魯棒性和對真實世界中不可見的噪聲類型的適應性之間的聯系。我們發現,只有合成噪聲數據經過HAT訓練的深度降噪器可以很好地推廣到不可見的噪聲類型。噪聲去除能力甚至可以與訓練與真實世界的噪聲降噪器相媲美。對于圖像分類,我們探索了除了傳統卷積神經網絡(CNNs)之外的新的魯棒架構。首先,研究了神經常微分方程的魯棒性。我們通過經驗證明,與基于CNN的分類器相比,基于節點的分類器對輸入擾動表現出更好的魯棒性。為了進一步增強基于節點的模型的魯棒性,我們將時不變屬性引入到節點中,并施加一個穩態約束來規范受擾動數據上的ODE流。我們證明了合成模型,稱為時不變穩定神經ODE (TisODE),比vanilla 節點更魯棒。 其次,從通道激活的角度研究了vanilla CNN的魯棒性,并提出了一種特征選擇機制來增強vanilla CNN的魯棒性。特別是,我們比較了正常訓練的分類器在處理自然數據和對抗數據時的通道激活。我們觀察到,對抗性數據通過過度激活負相關(NR)通道而缺乏激活正相關(PR)通道,誤導了深度分類器。我們還比較了正常訓練模型和對抗訓練模型的通道激活,觀察到對抗訓練通過促進未激活的PR通道和抑制過度激活的NR通道來增強模型的魯棒性。因此,我們假設,根據通道與真實類別的相關性,放大通道的激活可以提高魯棒性。為了驗證這一假設,我們開發了一種新的通道操作技術,即基于通道重要性的特征選擇(CIFS),該技術可以根據通道的相關性生成非負乘數來擴展通道的激活。大量的實驗結果驗證了該假設和改進后的CNN具有良好的魯棒性。綜上所述,本文系統研究了深度視覺算法的魯棒性,包括魯棒性評價(ObsAtk)、魯棒性改進(HAT、TisODE和CIFS)以及對抗魯棒性與新領域泛化能力之間的關系。