亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著神經網絡語言模型的廣泛應用,深入理解其內部運行機制的需求日益迫切。本論文旨在揭示大型語言模型(LLMs)內部潛在計算規律,為未來強大AI系統的監測、控制和對齊奠定理論基礎。基于開源語言模型,我們重點探索了四個關鍵領域:神經元層面的概念編碼、模型初始化間學習特征的普適性、時空表征的存在性,以及基礎動力系統建模。第二章改進了最優稀疏分類方法在神經網絡探測中的應用,通過這種稀疏探測技術,我們在全尺寸LLMs中同時發現了單語義神經元(專一編碼單一概念)和多語義神經元(疊加表征多個概念),驗證了簡化模型的預測。第三章通過計算大數據集上神經元激活的成對相關性,系統識別并分類了不同模型初始化間的普適性神經元。研究發現1-5%的神經元具有普適性特征,這些神經元往往具有明確的可解釋性,我們將其劃分為不同的神經元家族。為探究時空表征特性,第四章通過精心構建的現實世界實體數據集分析LLMs激活模式。研究發現模型能夠學習多尺度的線性時空表征,這些表征對提示變化具有魯棒性,且在不同實體類型間保持統一。我們識別出專門編碼空間坐標的"空間神經元"和時間坐標的"時間神經元"。第五章采用最優稀疏回歸技術改進了非線性動力系統稀疏識別(SINDy)框架,在典型微分系統中實現了樣本效率和支持恢復率的提升。基于此改進,我們進一步研究了LLMs在上下文學習中表征動力系統的能力,發現了跟蹤底層系統狀態的內部表征。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

機器學習(ML)系統正日益部署在高風險領域中,在這些場景下,可靠性至關重要。隨著這些系統從研究原型走向真實世界的決策角色,它們識別并響應不確定性的能力變得尤為關鍵。本論文探討了不確定性估計如何提升機器學習的安全性與可信度,重點關注選擇性預測這一范式——在模型置信度較低時主動放棄預測。

我們首先展示,模型的訓練軌跡中蘊含著可用于不確定性估計的豐富信號,而無需修改模型架構或損失函數。通過集成訓練過程中的中間檢查點預測結果,我們提出了一種輕量級、事后(post-hoc)棄答機制,能夠識別不可靠預測。該方法可適用于分類、回歸和時間序列任務,可直接疊加在已有模型之上,避免了深度集成(deep ensembles)帶來的高額訓練成本,同時保留了其大部分效果。在多個選擇性預測基準任務上,該方法達到了當前最優性能,為那些重新訓練成本高昂或受限的場景提供了實用方案。 這種被動、事后的方法還天然滿足數據隱私這一可信 AI 的關鍵要求。由于僅需觀察訓練軌跡,我們的方法可與差分隱私(DP)等形式化隱私保障完全兼容。這一獨特優勢使我們能夠研究一個重要的權衡問題:隱私約束會如何影響模型估計自身不確定性的能力?我們發現,許多常規方法在 DP 噪聲下性能退化,產生不可靠的置信度評分;相比之下,我們基于軌跡的方法保持穩健。為公平評估這一權衡,我們提出了一個新框架,可隔離隱私對不確定性質量的影響,從而更有意義地比較隱私敏感場景下的選擇性預測方法。 這些結果引出了對選擇性預測性能理論極限的探討。我們提出了有限樣本下的選擇性分類差距分解(selective classification gap decomposition)——即模型精度–覆蓋率曲線偏離理想(oracle)曲線的分解,并識別出五類關鍵誤差來源:貝葉斯噪聲、近似誤差、排序誤差、統計波動和殘差項。該分解揭示了可以縮小差距的杠桿(如校準、模型容量、額外監督),并解釋了為什么單純的事后校準無法消除排序缺陷,從而激發了基于更可靠不確定性信號的預測重排序方法。

這一分析為診斷并修復模型的良性誤差來源提供了藍圖。然而,它假設模型的不確定性信號雖有缺陷,但仍然真實反映了其內部狀態。這促使我們進一步研究當不確定性信號被惡意篡改以誤導下游決策時會發生什么。我們展示了,排序和校準機制本身可能被對手操控,在特定區域或特定用戶群體中人為增加不確定性,從而在保持高預測性能的同時實現隱蔽的拒絕服務。這類攻擊直接利用了我們識別的誤差來源,且難以通過標準評估檢測。為此,我們提出防御方案,將校準審計與可驗證推理相結合,以驗證棄答是否源于真實的不確定性,從而保障其完整性。這一發現突顯了一個更廣泛的觀點:可信 ML 不僅依賴于高質量的不確定性估計,還必須防范其被操縱。 綜上所述,本論文系統研究了不確定性的估計、評估與防護路徑,推動構建更可靠的機器學習系統。最終,所得到的系統不僅能做出準確預測,還能在必要時果斷地說:“我不知道”。

付費5元查看完整內容

物理系統的計算建模是科學計算的核心任務。機器學習方法可以擴展傳統的偏微分方程建模方法,并有潛力簡化建模過程,提高仿真準確性和性能。在本論文中,我們探討了使用神經網絡從數據中學習系統行為的方法。我們評估了作為仿真器使用時的性能-準確性權衡,并利用從中獲得的洞察,探討了將其應用于氣候模型中的子網格參數化學習的具體應用。對于這一任務,我們提出了兩種新穎的技術,通過調整架構以結合有利的歸納偏置,并通過增加訓練數據來鼓勵穩定性,從而提高所學參數化的準確性和穩定性。

付費5元查看完整內容

大型語言模型(LLMs)的快速發展正在重塑機器學習領域,實現了前所未有的生成能力。然而,將LLMs與傳統軟件系統集成時也帶來了根本性的挑戰,特別是在效率、正確性,以及需要構建結構化編程抽象以協調其概率性特征與傳統確定性軟件工程系統和實踐之間的矛盾。本文將這一趨勢視為一種新興范式,旨在推動我們稱之為語言模型編程(Language Model Programming, LMP)的研究進展,通過引入新的程序抽象和算法,實現更高效、更可靠、更可控的LLM編程方式。 為此,本文提出了三個核心貢獻:首先,引入了一種新的編程語言和運行時系統——語言模型查詢語言(LMQL),用于高效地構造提示詞并約束與LLM的程序交互;其次,提出了提示草圖(Prompt Sketching),這是一種以模板為中心的解碼方法,支持結構化、多階段的LLM交互,同時確保更準確、更有引導性的生成過程;最后,介紹了一種高效的、基于語法的推測性文本生成算法——Domino,該算法旨在滿足高吞吐量推理需求,同時延續了LMQL和更廣義LMP范式下對生成的可靠性和控制性要求。 這些工具和算法顯著提升了與LLM進行編程的效率、可靠性與可控性,為構建更先進、更個性化、更自主、且更高效的軟件系統奠定了基礎——以LLM為核心。為實現這一目標,本文不僅借鑒了傳統編程語言領域的研究成果,也融合了LLM的最新進展,以及編譯器構建、語法解析器、聲明式與命令式編程、自然語言處理中的解碼算法等相關技術。

綜上所述,這些工具從機器學習與編程語言兩個維度顯著提升了LLM的可靠性,為語言模型編程這一新興研究領域做出了重要貢獻。

付費5元查看完整內容

本論文旨在研究構建更高效且更強大模型的方法,重點聚焦于兩個方面:架構改進與優化方法。我們探討了一系列具有理論依據的架構修改,這些修改要么降低了計算成本,要么引入了有助于更高效模型利用的新特性。此外,我們還研究了現有的優化方法,以加深我們對神經網絡優化的理論理解,并使其更貼近實際應用,從而為未來構建更優的優化器提供更有依據的決策基礎。

在論文的第一部分,我們提出了三種對Transformer模型的增強,以應對處理長序列、提升數據效率和優化推理成本等關鍵挑戰。首先,我們提出了Landmark Attention機制,以提升處理長序列的效率,在我們的實驗中,該方法將推理成本顯著降低了一個大常數因子(達50倍)。通過在注意力機制中引入層級結構,Landmark Attention 能夠在推理階段處理任意長度的輸入,而不受訓練時序列長度的限制。接著,我們提出了DenseFormer架構,它允許后續層訪問前面所有層的輸出。得益于增強的信息流,DenseFormer 在保持與更深Transformer模型相同困惑度(perplexity)的同時,在內存效率和推理速度方面均優于基線模型。我們的實驗還揭示了信息流中意料之外的連貫模式,顯示出遠層激活被結構化重用的現象。最后,我們提出了CoTFormer以提升推理效率,其靈感來自大型語言模型中逐步推理的涌現能力。CoTFormer 通過對一個淺層模型的重復應用,實現了與更深模型相當的準確率。該方法雖然引入了額外計算開銷,但支持按token粒度靈活調整推理成本。我們的結果表明,在訓練自適應CoTFormer時,能在不損失精度的前提下,顯著減少計算成本,因其能自動將計算資源分配給最需要的token。

在論文的第二部分,我們聚焦于提升對神經網絡優化的理解,動因之一即源于在設計自適應CoTFormer優化方法時遇到的挑戰。我們構建了一個理論框架,用于研究參數擾動(parameter perturbation)以及屏蔽參數更新(masking parameter updates)對收斂性的影響。此外,我們通過理論分析與實證實驗,加深了對“大步長對于獲得更優模型至關重要”這一現象的理解。特別是,我們構造了一個受控實驗環境,使得小步長與大步長之間的差異可以被嚴格地觀測和驗證。

關鍵詞:語言模型、效率、優化、神經網絡、Transformers

付費5元查看完整內容

將歸納邏輯程序設計(符號主義)與深度學習(聯結主義)相結合,已引起研究者廣泛關注,成為提升推理能力的一項新興研究方向。然而,目前的融合仍不完善,尤其體現在模型泛化能力差、學習效率低等問題上。在本論文中,我們旨在提升現有方法的泛化能力,以及學習能力與整體性能表現。此外,我們還計劃就大語言模型在歸納邏輯程序設計任務中的推理能力進行全面評估。

首先,為了提升現有基于邏輯的深度強化學習(DRL)算法的泛化能力,我們提出了一個新穎的框架,稱為 GALOIS。該框架能夠綜合層次結構和明確的因果邏輯,自動合成白盒程序。它采用程序草圖(program sketch)機制,并引入了一種新的基于草圖的編程語言,用于引導程序合成過程。基于此,GALOIS 實現了一種草圖驅動的程序合成方法,可生成具備可解釋性和良好泛化能力的白盒因果推理程序。在多個復雜決策任務上的全面評估表明,GALOIS 在學習能力、泛化能力、可解釋性以及跨任務知識遷移方面均優于主流強化學習方法及此前的最先進程序引導方法。

接下來,我們觀察到當前最先進的神經歸納邏輯程序設計(ILP)模型在訓練時需要大量的訓練迭代和樣本。此外,在處理需要復雜邏輯推理的任務時,這些模型在性能與泛化能力方面仍存在明顯不足。為此,我們提出了一個新的框架:失敗反思引導正則器(Failure Reflection Guided Regularizer, FRGR)。FRGR 能夠在模型訓練過程中動態識別并總結反復出現的錯誤模式;隨后,對未來訓練過程中再次犯下類似錯誤的行為給予懲罰。此機制促使模型避免重復性錯誤,從而加速模型收斂,并獲得更優且性能更強的解決方案。在多個關系推理與決策任務上的實驗結果表明,FRGR 在提升神經 ILP 模型的性能、泛化能力與學習效率方面具有顯著成效。

最后,盡管神經 ILP 求解器的性能已有提升,但近年來,研究者對大語言模型(LLMs)推理能力的興趣迅速上升。然而,已有工作中使用的文本與數值推理基準多數較為淺顯和簡單,僅憑在這些基準上的正向結果,尚不足以斷言 LLM 擁有強大的推理能力。近期研究表明,在基于強化學習的基準中,LLM 在需要常識性規劃的序列決策問題上表現較差。為此,我們在本研究中,基于 ILP 基準對多種最先進的大語言模型進行了深入推理能力評估。ILP 被廣泛認為是評估邏輯程序歸納/合成系統的代表性且具有挑戰性的基準,因為它要求模型能夠學習嚴謹的因果邏輯以實現在 IID(獨立同分布)與 OOD(分布外)測試樣本上的穩健推理。評估結果表明,與規模遠小于 LLM 的神經程序歸納系統相比,當前最先進的 LLM 在推理能力上表現明顯較弱——無論是采用自然語言提示還是真值矩陣提示,其性能與泛化能力均遠遜色于神經 ILP 系統。

付費5元查看完整內容

本論文研究了多模態基礎模型在開發和訓練中的關鍵挑戰,重點關注當前監督微調(SFT)方法的局限性,并探索強化學習(RL)在實現魯棒泛化方面的潛力。研究工作分為兩個主要部分:第一部分:理解監督微調下多模態基礎模型的局限性盡管多模態大語言模型(MLLMs)在基準任務上表現出色,但在需要更深層次理解或適應新情境的看似簡單任務中,它們常常表現出令人驚訝的弱點。本論文首先研究了 MLLMs 中的災難性遺忘現象,即在新任務上進行微調可能導致模型在先前學習任務上的性能顯著下降。我們引入了多模態評估框架(EMT),這是一種新穎的評估方法,旨在系統性地評估這種遺忘現象。研究結果表明,即使是利用強大預訓練視覺編碼器的 MLLMs,在經過 SFT 后,在基本圖像分類任務上的性能也會顯著下降。此外,我們深入探討了 MLLMs 在視覺方面的具體缺陷。我們提出了多模態視覺模式基準(MMVP),這是一組精心設計的視覺問答任務,旨在探測這些模型的視覺基礎能力。結果顯示,當前最先進的 MLLMs 存在系統性缺陷,突顯了底層視覺編碼器(如 CLIP)的弱點與整體模型性能之間的強相關性。這些發現表明,當前的 SFT 方法雖然在任務特定適應方面有效,但可能不足以賦予 MLLMs 強大的視覺理解能力和保留先前習得知識的能力。第二部分:利用強化學習實現魯棒泛化認識到 SFT 的局限性后,本論文進一步探索了強化學習(RL)在實現更魯棒和可泛化的多模態智能方面的潛力。我們提出了一種新穎的框架,用于通過 RL 微調大型視覺-語言模型(VLMs),使其能夠在需要視覺理解和語言推理的任務上進行端到端訓練。該框架的一個關鍵組成部分是引入了思維鏈(CoT)提示,利用 VLMs 固有的推理能力來促進更高效的探索和學習。我們對 RL 和 SFT 進行了對比分析,重點關注對未見規則變化和新視覺情境的泛化能力。結果表明,與 SFT 相比,RL 微調始終能帶來更優越的泛化性能。通過 RL 訓練的模型在規則修改的任務上表現更好,能夠更有效地適應視覺輸入的變化,甚至展現出增強的底層視覺識別能力。此外,我們研究了推理時計算的作用,證明在 RL 訓練期間增加驗證迭代次數可以進一步提高泛化能力。這突顯了 SFT 雖然為指令遵循提供了必要的基礎,但 RL 對于在復雜、動態環境中實現魯棒、適應性強的性能至關重要。總結本論文提供了有力的證據,表明當前基于 SFT 的多模態基礎模型訓練存在局限性,并展示了 RL 在克服這些局限性方面的巨大潛力,為開發更具泛化能力和智能的 AI 系統鋪平了道路。

付費5元查看完整內容

三維生成建模具有創建有價值三維資產的潛力,這些資產在娛樂、工業設計和現實世界制造等多個領域中有著廣泛的應用。本論文介紹了多個創新的三維生成框架,強調不僅創建不同表現形式的獨特三維形狀,還引入了不同的控制生成過程的機制,同時展示了大規模學習三維生成模型的可能性。首先,我們提出了一個直接生成三維網格的新框架,將生成任務分解為兩個不同的子任務:拓撲形成和形狀變形。在拓撲形成階段,我們學習了一個拓撲感知的神經模板。在形狀變形階段,這個模板被變形以產生最終的網格,確保保持初始拓撲。這種方法使我們能夠靈活生成具有不同拓撲的形狀。同時,我們在潛在空間中開發了一個解耦表示,用于拓撲形成和形狀變形。這種表示使新的解耦控制成為可能,支持各種形狀生成應用,如重混三維對象的拓撲,這在以前的重建工作中是無法實現的。其次,我們提出了一個創新的生成框架,用于創建高解析度的隱式函數。該方法的主要貢獻在于將三維形狀緊湊地編碼為小波表示。這是通過一對粗糙和細節系數體積來實現的,這些系數體積通過截斷距離函數(TSDF)和多尺度雙正交小波隱式地表示三維形狀。我們然后建立了一對神經網絡:一個基于擴散模型的生成器,用于生成以粗糙系數體積形式存在的多樣形狀,以及一個細節預測器,用于生成兼容的細節系數體積。總體而言,我們的方法能夠生成具有更細節的高品質形狀,超越現有的生成框架。第三,我們擴展了基于小波的生成框架以進行形狀反映任務。目標是將三維形狀編碼為潛在表示,這可以用來準確重建原始形狀。這是通過聯合訓練一個基于擴散的生成器和一個額外的編碼器來產生這個潛在表示來完成的。我們然后引入了一個優化過程,這有助于通過優化更合適的潛在表示來提高以前未見三維對象的重建質量。使用派生的表示,我們展示了多種具有語義意義的應用,包括形狀插值。此外,我們提出了一種區域感知操作過程,能夠操作三維形狀的不同部分。最后,我們深入研究了大規模三維生成,提出了一個在一個包含1000萬個公開可用形狀的龐大數據集上訓練的新三維生成模型。我們首先提出了一個小波樹表示,這是一種改進的小波表示,用于編碼高解析度SDF形狀,損失最小。這有助于高效的存儲和流媒體,這對大規模訓練至關重要。隨后,我們提出了一種子帶系數打包方案,使基于擴散的生成成為可能,并提出了一種子帶自適應訓練策略,以確保在大規模數據集上有效訓練。我們的生成框架高度靈活,能夠根據各種輸入模態進行條件生成,如圖像、點云和體素。這種靈活性允許進行各種下游應用,包括無條件生成、補全和條件生成。總的來說,本論文介紹并強調了三維生成研究中的不同重要方面,包括表示的緊湊性、可控性和可擴展性,為三維建模研究中的不同潛在方向開啟了新可能性。//repository.lib.cuhk.edu.hk/en/islandora/object/cuhk%3A3550245/metadata

付費5元查看完整內容

通過代碼數據學習來解決軟件任務的編程工具在提升開發人員生產力方面展現了早期的潛力。然而,這些工具在魯棒性方面以及它們對軟件安全性和可靠性的最終影響上仍然存在顯著差距——這些問題甚至對經驗豐富的開發人員來說仍是挑戰。本論文旨在從安全性和可靠性的角度推動代碼機器學習領域的發展。我們提出了訓練機器學習模型的新技術,以使其具備強大的推理能力,能夠處理與安全性和可靠性相關的問題。 我們首先介紹了利用監督學習信號來增強程序分析的方法。作為這一方法的實例,我們提出使用模仿學習框架,從符號執行中學習一個有效且快速的模糊測試器。首先,符號執行專家為大量程序生成高質量輸入數據集。然后,利用該數據集訓練一個神經網絡模糊測試器,使其模仿專家的行為。訓練好的模糊測試器隨后被部署以測試新程序。

此外,我們研究了分布漂移問題,這是阻礙深度學習模型在現實場景中有效檢測漏洞的關鍵問題。分布漂移發生在訓練和評估所用的數據集與實際遇到的漏洞分布不一致時。為了解決這個問題,我們提出了一種兩階段的訓練方法。首先,模型在大量的合成漏洞上進行訓練,然后進一步在一個更接近實際漏洞分布的數據集上進行訓練。 最后,我們從兩個互補的角度探討了代碼生成中的安全性問題。我們不僅尋求改進生成安全代碼的能力,還研究了從對抗角度降低安全級別的可能性。為實現這些目標,我們提出了一個統一的微調框架,采用專門的優化目標,既優化安全性又保持模型生成功能性正確代碼的能力。

付費5元查看完整內容

在過去的十年里,經典機器學習與現代機器學習之間的差距不斷擴大。現代學習的預測性能不可比擬地更好,但更容易對經典學習進行分析,并保證其安全性、效率、公平性等特性。在本論文中,我探討了通過審慎和戰略性地結合經典技術,是否有可能將這些期望的特性恢復到現代機器學習中。我將經典與現代學習的結合歸納為兩種高級策略:(1)封裝,即通過經典分析技術從現代的、不透明的模型中提取可靠的性能保證,或(2)替換,即從經典的基礎構建現代模型的某些組件,以提高整體的效率、可處理性和/或表達能力。這些努力在機器學習的多個領域帶來了新的進展。本論文的最重要貢獻涉及元分析,這是一種結構化的問答形式,作為循證醫學的基礎。經典元分析技術基于隨機對照試驗,其因果效度受到信任;相比之下,現代回歸模型是在大型觀察性數據庫上訓練的,其因果效度不被信任。我展示了如何在不犧牲效度的情況下將不可信的數據納入元分析中。這涉及對完全共形預測的基本改進,這些改進具有普遍的意義。在一個更聚焦的醫療保健應用中,我推廣了經典的、手工設計的心率變異性統計,使其能夠通過監督學習進行微調,成為深度神經網絡的一部分,從而生成更準確的、生理學知情的模型。我還提出了一些可以在未來機器學習模型和算法中使用的基礎計算原語。第一個是一種算法,可以在O(log T)的并行時間內(近似)運行T步非線性RNN。該算法的關鍵創新在于通過一種證明一致的局部、可并行修正方案,用深度上的非線性替代時間上的非線性。通過這種方式,經典線性動態系統(也稱為狀態空間模型)可以堆疊起來形成快速的非線性序列模型。另一個新的計算原語是在所有正交多項式序列集合上進行基于梯度的優化。這種優化形式與信號處理和優化中的許多不同問題都有聯系。最后,我提出了基于學習理論和優化中廣泛使用的幾何邊界概念的公平性標準,以規避計算的不可處理性。

付費5元查看完整內容
北京阿比特科技有限公司