亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

構建能夠推理、適應并與環境互動的智能自主系統一直是人工智能的長期目標。

本文探討了通過深度學習革命,代理系統(agentic systems)的演變,從強化學習到現代大規模語言模型(LLMs),重點關注構建可靠自主智能體所需的關鍵組件。 首先,我們解決了深度強化學習(RL)中的普適性(generalization)這一根本挑戰,提出了一種系統框架,用于評估和改進學習策略在不同環境之間的遷移能力。以此為基礎,我們提出了事后任務重標定(Hindsight Task Relabeling, HTR),這是一種創新方法,使得元強化學習算法能夠在稀疏獎勵設置中學習適應策略,而不需要在訓練過程中依賴密集的獎勵信號。 最后,我們討論了利用大規模語言模型(LLMs)構建可靠智能體的最新挑戰。盡管LLMs展示了前所未有的推理能力,但它們作為自主智能體的有效性受到其架構中的基本限制的制約——尤其是它們的無狀態特性和固定的上下文窗口。為此,我們提出了MemGPT,一個受操作系統啟發的框架,使得LLMs能夠管理自己的記憶和狀態,引入了虛擬上下文管理和自我導向的記憶操作等概念。MemGPT證明了,通過將LLMs視為一種新的計算基本單元——類似于CPU在傳統操作系統中的角色——我們能夠構建更可靠、更強大的自主智能體。 綜上所述,這些系統追溯了代理AI系統的發展,并提供了創建更可靠、更強大自主智能體的關鍵構建塊。通過解決普適性、適應性和記憶管理等核心挑戰,本文為工程化下一代能夠有效推理并與世界互動的AI系統奠定了基礎。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

深度神經網絡在人工智能的各個領域取得了顯著的成功。

它們成功的關鍵因素之一是能夠從數據中學習有效的特征表示,這使得它們與傳統機器學習方法有所區別。本論文探討了特征學習在神經網絡訓練過程中如何出現,并展示了它在基礎模型適應下游應用中的關鍵作用。 首先,我們從理論上闡述了特征學習在神經網絡中的出現。我們證明了神經網絡在訓練的早期階段可以高效地學習與類別相關的模式,且只需使用最小的參數,從而避免了影響傳統方法的維度災難。我們的分析表明,這種能力源于網絡利用輸入數據固有結構的能力。我們開發了一個統一的分析框架,適用于通過梯度下降訓練的兩層網絡,表征了特征學習如何超越核方法發生。我們將研究擴展到 Transformer 架構,分析了單層 Transformer 中的傅里葉特征,并揭示了模型規模與上下文學習行為之間的關系。我們的發現表明,較大的模型覆蓋更多的隱藏特征,而較小的模型則強調重要特征,導致不同的上下文學習行為。 在這些理論洞察的基礎上,我們開發了基礎模型的實際應用。我們引入了核范數正則化方法,以提高領域泛化能力,并在多個任務中展示了持續的性能提升。我們通過一種新的正則化方法解決了對比學習中的普適性與標簽效率之間的權衡問題。此外,我們提出了循環 Transformer,用于在上下文學習中實現多步梯度下降,并開發了 GemFilter 算法,利用早期層的注意力特征加速大語言模型的推理。 本論文推進了我們對神經網絡中特征學習的理解,并提供了改進基礎模型性能的實用方法,為開發更高效和有效的機器學習系統奠定了基礎。 //pages.cs.wisc.edu/~zhmeishi/Thesis_Zhenmei_Shi.pdf

付費5元查看完整內容

本論文研究了深度學習的顯著成功。它提出了一種觀點:與其開發黑箱式的泛化界限,更有成效的理解現代深度學習成功的方法,是通過神經網絡在特定領域中靈活性與結構之間的精巧互動。在這些領域中,我們可以通過以下兩個方面來理解現代深度學習: (1) 適應數據中的結構,(2) 利用其結構(如架構、預訓練初始化等)進行適應。我們通過理論和實證相結合的方式建立這一觀點。

我們首先審視傳統的學習理論工具:泛化界限。具體而言,我們研究了算法穩定性作為解釋梯度下降在過參數化神經網絡中表現的可能框架。我們提供了實證證據,表明均勻穩定性并未以足夠強度出現,因此無法解釋神經網絡的泛化表現。

接著,與其關注如何馴服深度學習的靈活性,我們將深度學習的靈活性重新定義為在結構足夠時能夠進行有效適應的強大能力。論文的剩余部分,我們仔細研究了三個關鍵場景——在圖像數據上的卷積神經網絡、在基本算法任務上的簡單 Transformer,以及在自然語言數據上的預訓練語言模型——這些場景展示了神經網絡在數據中適應結構和利用其結構快速靈活地進行適應的卓越能力。通過這三種場景,回溯了過去六年訓練方法和范式的演變。

與我們最初所討論的黑箱式泛化方法所呈現的悲觀圖景不同,我們通過這些場景提倡一種更加機械化且細致入微的理解方式,探討神經網絡在特定領域中靈活性與結構之間的互動關系。

付費5元查看完整內容

神經機器翻譯(NMT)通過深度學習推動了機器翻譯的進步,但其對大型平行數據集的依賴限制了其在低資源語言上的表現。本論文通過優化模型設計、數據處理和注意力機制,解決了這一問題,旨在提升NMT系統在數據稀缺條件下的性能,而無需依賴額外的數據。首先,我們優化了Transformer的超參數——如前饋網絡維度、注意力頭數量和dropout率——在低資源語言對中取得了顯著的改進。接著,我們考察了字節對編碼(BPE)作為預處理步驟,證明其在處理語言學相似的語言中的稀有詞方面有效,但在處理某些詞匯表外(OOV)詞匯時存在局限性。為了提高模型的泛化能力,我們引入了聯合Dropout(JD)這一數據驅動的方法,靈感來源于基于短語的機器翻譯,該方法通過將等價的短語對替換為聯合變量來增強模型對輸入變動的魯棒性。此外,我們提出了熵與距離正則化注意力(EaDRA),通過精細調整注意力機制,使其能夠聚焦于關鍵輸入元素,從而模擬高資源模型中發現的注意力模式。這些方法共同推動了低資源NMT的實用性進展,解決了與數據稀缺、OOV詞匯和注意力機制相關的挑戰。本研究有助于彌合高資源與低資源機器翻譯之間的差距,并支持更具可訪問性的語言技術的開發。//hdl.handle.net/11245.1/11eef33b-50f9-4b8c-a64c-d563fbd24b07

付費5元查看完整內容

近期生成模型的進展已經改變了視覺內容的創作,并在計算機視覺和圖形學的多個應用中展現出巨大的潛力。然而,生成模型在日常任務中的應用受到生成過程可控性、數據需求和計算要求等挑戰的限制。本論文的重點是解決二維和三維生成模型中的這些現實世界的約束。首先,我們專注于通過遷移學習提高類條件生成對抗網絡(GAN)的數據效率。我們引入了一種新的類特定遷移學習方法,稱為cGANTransfer,旨在根據舊類與新類的相關性明確傳播知識。通過廣泛的評估,我們證明了所提出方法在條件GAN遷移中的優越性,超越了之前的方法。其次,我們研究了使用小數據集訓練類條件GAN的情況。特別地,我們發現了GAN中的條件崩潰——由小數據上的條件GAN訓練引起的模式崩潰。我們提出了一種基于過渡條件的訓練策略,有效防止了觀察到的模式崩潰,并同時利用無條件學習。所提出的方法不僅實現了穩定的訓練,還生成了高質量的圖像,這得益于在訓練早期階段利用了類之間共享的信息。第三,我們解決了NeRF-GAN的計算效率問題,這是一類基于神經輻射場(NeRF)和GAN集成的三維生成模型,訓練于單視圖圖像數據集。具體而言,我們重新審視了姿態條件的二維GAN,以便在推理時高效地生成三維感知的內容,通過從預訓練的NeRF-GAN中提取三維知識。我們提出了一種簡單有效的方法,利用預訓練NeRF-GAN的良好解耦潛在空間,在姿態條件的卷積網絡中進行高效推理,直接生成與基礎三維表示相對應的三維一致性圖像。最后,我們解決了在三維場景中進行物體生成的新任務,無需任何三維監督或用戶的三維放置指導。我們介紹了InseRF,一種用于在三維場景的NeRF重建中生成對象插入的新方法。基于用戶提供的文本描述和僅在參考視點中的二維邊界框,InseRF能夠在三維場景中進行可控且三維一致的物體插入,而無需顯式的三維信息作為輸入

付費5元查看完整內容

大型生成模型帶來了驚人的成果,并徹底改變了人工智能。在本論文中,我將討論我在推進這些模型基礎上的研究,重點解決從現有數據中學習的瓶頸以及超越現有知識發現的挑戰。首先,我將描述我們為消除Transformer架構的上下文大小限制所做的努力。我們的建模和訓練方法,包括BlockwiseTransformer和RingAttention,允許在保持可擴展性的同時實現近乎無限的上下文大小。接下來,我將討論大上下文在世界模型學習和決策中的應用。這包括Large World Model,這是世界上首個人工智能,能夠在百萬個標記的上下文中同時對文本、圖像和小時級視頻進行建模。然后,我將介紹我的研究,旨在讓AI能夠發現數據并自主學習。我將討論我們在無需人為指定領域知識的情況下學習游戲技能的工作,為超越模仿現有數據的學習鋪平道路。最后,我將展望我們應構建的下一代大型生成模型,重點關注高效擴展、推理以及在一般領域中的發現能力的進展。

付費5元查看完整內容

生成建模的最新進展正在改變視覺內容的創作,并在計算機視覺和圖形學的多個應用中顯示出巨大的前景。然而,生成模型在日常任務中的應用受到生成過程可控性、數據需求和計算要求等挑戰的制約。本論文重點解決二維和三維生成模型在真實世界約束下所面臨的這些問題。

首先,我們致力于通過遷移學習提高類別條件生成對抗網絡(GAN)的數據效率。我們引入了一種新的類別特定遷移學習方法,稱為cGANTransfer,基于類別之間的相關性,明確傳播舊類別的知識到新類別。通過廣泛的評估,我們證明了該方法在條件GAN遷移學習中的優越性,優于之前的方法。

其次,我們研究了使用小數據集訓練類別條件GANs的問題。我們特別指出了在小數據集上訓練條件GAN時出現的條件崩潰——即模式崩潰。為了解決這一問題,我們提出了一種基于過渡條件的訓練策略,該策略通過額外利用無條件學習,有效地防止了觀察到的模式崩潰。這種方法不僅實現了穩定的訓練,還通過在訓練的早期階段利用類別間共享信息,生成了高質量的圖像。

第三,我們解決了NeRF-GANs的計算效率問題。NeRF-GANs是一類基于神經輻射場(NeRFs)和GANs集成的3D感知生成模型,訓練于單視圖圖像數據集上。具體而言,我們重新審視了姿態條件的二維GANs,以在推理階段實現高效的3D感知生成。通過從預訓練的NeRF-GANs中提取3D知識,我們提出了一種簡單而有效的方法,用于高效推理3D感知GANs。該方法基于在姿態條件卷積網絡中重用預訓練的NeRF-GAN的良好解耦的潛在空間,以直接生成與底層3D表示一致的3D圖像。

最后,我們解決了在3D場景中進行物體生成的新任務,而無需任何3D監督或用戶提供的3D放置指導。我們引入了InseRF,這是一種在NeRF重建的3D場景中進行生成物體插入的新方法。基于用戶提供的文本描述和參考視圖中的二維邊界框,InseRF能夠在無需明確的3D信息作為輸入的情況下,實現對3D場景中物體的可控且3D一致的插入。

付費5元查看完整內容

生成建模已經成為人工智能的一個熱門應用。然而,當生成模型被錯誤指定,或當生成模型估計器被修改以遵守差分隱私等隱私概念時,模型性能可能會受到負面影響。在本論文中,我們通過展示四項不同的研究,探討了模型錯誤指定和差分隱私下的生成建模。

我們首先介紹了生成建模的相關工作。隨后,我們深入探討了在模型錯誤指定和差分隱私挑戰下研究生成建模的必要性。

作為初步貢獻,我們考慮了用于密度估計的生成建模。處理模型錯誤指定的一種方法是放寬模型假設。我們展示了這一方法在非參數模型中也具有幫助作用。具體而言,我們研究了一種最近提出的非參數準貝葉斯密度估計器,并發現其強模型假設是有限數據集下表現不佳的原因。我們提出了一種自回歸擴展,放寬模型假設,以允許先驗特征依賴關系。

接下來,我們考慮了用于缺失值填補的生成建模。在將當前深度生成填補方法分類為Rubin [1976]引入的不可忽略缺失模型類之后,我們擴展了變分自編碼器的公式,使其根據深度生成建模文獻中尚未研究過的不可忽略缺失模型類進行分解。這些模型顯式地對缺失機制進行建模,以防止在缺失值非隨機情況下的模型錯誤指定。

然后,本論文集中于提高差分隱私下的合成數據生成。為此,我們提出了對差分隱私合成數據樣本進行差分隱私重要性采樣的方法。我們觀察到,生成模型越好,重要性采樣的幫助越大。接著,我們通過考慮差分隱私擴散模型,進一步提高數據生成質量。我們識別了顯著提高DP圖像生成器性能的訓練策略。 我們在論文的最后進行了討論,包括對所展示工作的貢獻和局限性,并提出了未來工作的潛在方向。

付費5元查看完整內容

隨著大型語言模型在近年來能力的大幅提升,提高我們對其輸出的控制能力變得越發重要。在本論文中,我討論了我開發的幾種控制方案,范圍從純推理時控制到基于微調的對齊方法。我首先將討論適用于非結構化自然語言生成的高度通用方法,包括一種稱為FUDGE的推理時控制方案以及一種基于強化學習的微調方法,稱為RLCD。接下來,我將討論更專門的方法,這些方法可以用于更結構化領域的控制,如分子設計、程序合成和語義解析。最后,我將展示如何將這些想法與通過提示進行的結構化規劃結合使用,以將我們的控制擴展到更長的輸出——在自動故事生成應用中范圍達到數千詞。

近期大型語言模型(LLMs)的發展顯著推進了在廣泛自然語言任務上的最新技術水平。然而,雖然這類模型能夠生成流暢的文本,但在推理時要充分控制它們的行為可能很困難。例如,開箱即用的預訓練語言模型頻繁地生成帶有偏見或有害的文本,這可能是因為在它們的預訓練數據中大量存在這類文本。

因此,控制生成——在推理時控制模型的行為,以產生符合期望的軟性或硬性約束的輸出——是確保在現實世界設置中道德使用這些強大技術的必要條件。實際上,去除問題偏見只是控制生成廣泛應用領域中的一個例子。控制生成的應用范圍從維持期望的風格或正式程度,到保持對參考文檔或現實世界事實的忠實,甚至非語言任務(使用模型處理非語言領域),如設計具有理想藥物屬性的分子。

因此,近年來已經投入了大量努力來開發控制語言模型輸出的方法。這些努力包括僅在推理時操作的各種方法,以及依賴于修改底層模型分布的方法,無論是通過微調還是通過強化學習。

盡管如此,控制LLMs的任務非常復雜,隨著時間的推移只會變得更加困難:語言模型在能力上持續改進的同時變得越來越不可解釋,我們對最強大的模型的訪問權限更加有限,這些模型越來越多地隱藏在私有APIs后面,而我們要求的控制目標變得越來越困難。為了詳細說明后一點:僅僅兩三年前,我們可能滿足于簡單地控制輸出段落的一般主題,這些段落僅幾十個令牌長,但今天一個主要挑戰是在可能跨越數千甚至數萬個令牌的輸出段落上控制事實準確性,既要考慮提供的上下文也要考慮現實世界的知識。 在本論文中,我將討論我開發的幾種方法,這些方法在許多不同的設置中解決了控制生成的問題。 自然語言的控制首先,在第二章,我將討論用于非結構化自然語言的一般控制方法,包括純推理時控制以及基于強化學習的微調。

對于純推理時控制,我提出了一種用于控制文本生成的靈活且模塊化的方法——生成未來判別器(FUDGE)。給定一個現有的基礎語言模型(LM)用于從感興趣的分布中生成文本,FUDGE允許在僅需要訪問基礎LM的輸出邏輯的情況下,基于期望的屬性a(例如,正式程度)進行條件化。FUDGE學習一個在部分序列上操作的屬性預測器,并使用此預測器的輸出來調整基礎LM的原始概率。我們展示了FUDGE模型對應于基礎LM給定屬性a的條件分布的貝葉斯分解。此外,FUDGE可以輕松地組合多個期望屬性的預測器。我們在三個任務上評估了FUDGE——詩句完成、語言生成中的主題控制以及機器翻譯中的正式性變化——并在所有三個任務中觀察到提升。 與純推理時控制相比,微調(包括基于RL的方法)需要并利用對基礎語言模型更大的訪問權限。雖然在前期需要額外的培訓或微調模型的成本,但它們可以通過從微調模型中進行普通采樣來減少推理時的成本(與可能需要更昂貴的解碼程序來啟用控制的推理時控制方法相比)。

基于RL的微調方法最近變得越來越受歡迎。在本論文中,我將提出一種RL方法,名為對比蒸餾的強化學習(RLCD),它不使用人類反饋就可以使語言模型遵循用自然語言表達的原則(例如,更無害)。RLCD從兩個對比的模型輸出中創建偏好對,一個使用正面提示來鼓勵遵循給定原則,另一個使用負面提示來鼓勵違反它們。使用兩個不同的提示會導致模型輸出在平均上更加分化,從而在沒有人類注釋的情況下產生更清晰的偏好標簽。然后我們使用偏好對來訓練一個偏好模型,進而用強化學習改善一個基礎未對齊的語言模型。經驗上,RLCD在三個不同的對齊任務——無害性、有幫助性和故事大綱生成——上優于RLAIF和上下文蒸餾基線,并在用于模擬偏好數據的7B和30B模型規模上均有表現。 針對結構化領域的控制接下來,在第三章,我將討論我為將控制擴展到結構化領域而進行的幾項工作。這一部分的大部分內容將聚焦于我開發的一種方法——隨機迭代目標增強,我們將其應用于分子設計和程序合成等多個領域。 例如,在分子設計任務的背景下:分子設計中的生成模型傾向于是參數豐富、對數據需求高的神經模型,因為它們必須生成復雜的結構化對象作為輸出。由于缺乏足夠的訓練數據,估計這樣的模型可能具有挑戰性。通過隨機迭代目標增強,我們提出了一種用于迭代創建額外分子目標的自訓練方法。我們首先將生成模型與一個簡單的屬性預測器一起進行預訓練。然后將屬性預測器用作似然模型,用于從生成模型中篩選候選結構。額外的目標通過隨機EM迭代的過程中迭代產生,并用于最大化候選結構被接受的對數似然。由于生成模型在預訓練后已經相當合理,因此一個簡單的拒絕(重加權)采樣器就足以抽取后驗樣本。我們展示了在無條件和條件分子設計上相比于強基線的顯著提升。特別是,我們的方法在條件分子設計中的絕對增益超過了先前最先進技術10%。最后,我們展示了我們的方法在其他領域(如程序合成)也是有用的。

在本節的最后,我還將簡要討論我在這一領域與他人合作的一些其他項目,涉及其他結構化領域(如語義解析和填字游戲)的控制生成方法。

長篇故事生成最后,在第四章,我將應用諸如FUDGE之類的可控生成思想于生成更長長度的高質量語言模型輸出——在故事生成領域達到數千詞——的任務。

首先,在我關于遞歸重新提示和修訂(Re3)的工作中,我們考慮了自動生成超過兩千詞的更長故事的問題。與之前關于更短故事的工作相比,長距離情節連貫性和相關性在這里是更為核心的挑戰。我們提出了遞歸重新提示和修訂框架來解決這些挑戰,通過(a)提示一個通用語言模型構建一個結構化的總體計劃,以及(b)通過重復地將來自計劃和當前故事狀態的上下文信息注入語言模型提示來生成故事段落。然后我們通過(c)對不同續篇進行重新排序以保持情節連貫性和前提相關性,最后(d)編輯最佳續篇以保證事實一致性進行修訂。與直接從相同基礎模型生成的類似長度故事相比,人類評估員判斷Re3的故事在擁有連貫的總體情節方面(絕對增加14%)和與給定初始前提相關方面(增加20%)顯著更多。

然后,我們通過提出詳細大綱控制(DOC)框架來進一步改進我們在Re3中的先前工作,該框架用于在自動生成數千詞長的故事時改善長距離情節連貫性。DOC由兩個互補的組件組成:一個詳細的大綱制作者和一個詳細的控制器。詳細的大綱制作者創建一個更詳細、分層結構化的大綱,將創造性負擔從主要起草過程轉移到規劃階段。詳細的控制器確保在生成過程中仍然尊重更詳細的大綱,通過控制故事段落與大綱細節保持一致。在自動生成故事的人類評估中,DOC在情節連貫性(22.5%的絕對增益)、大綱相關性(28.2%)和有趣性(20.7%)上顯著優于Re3。人類還判斷DOC在交互式生成設置中的可控性要高得多。

最后,我將討論幾項最近和正在進行的工作,這些工作進一步探索了長篇故事生成的不同方面,如個性化、節奏和事實一致性,以及使用更新的LLMs來提高計算效率的一些改進。

付費5元查看完整內容

盡管在深度學習方面已經取得了巨大的實踐進展,但我們對是什么使深度學習工作得很好以及為什么這樣做缺乏清晰的理論理解。在本文中,我們采用“自然科學”的方法來構建深度學習的理論。我們首先確定在跨越各種不同背景的實際深度網絡中出現的各種經驗屬性。然后,我們討論了這些實證發現可以如何用來通知理論。具體而言,我們證明:(1)與監督學習相比,經過自監督學習訓練的先進深度網絡盡管過度參數化,但在特定條件下仍能實現有限的泛化差距。(2)具有相似性能和架構的模型通常會收斂到相似的內部表示,即使它們的訓練方法有很大的不同(例如:監督學習和自監督學習)(3)插值分類器服從一種分布泛化形式——它們從訓練分布中收斂到一種條件采樣器類型。(4)深度網絡的數據擴展特性對訓練數據集的結構和噪聲水平的變化具有魯棒性。

//dash.harvard.edu/handle/1/37372168

我們的發現強調,盡管缺乏最壞情況的保證,深度網絡隱含地以可預測的、結構化的方式運行,從而為未來的理論分析奠定了基礎。

付費5元查看完整內容

近年來,我們已經看到了預訓練神經網絡來學習可遷移到視覺和NLP中看不見的下游任務的表征的巨大好處。然而,這種學習范式在諸如設計優化或控制等決策方面的研究還不多。在這篇論文中,我們概述了兩個問題設置,可以受益于在決策制定的背景下的預訓練。首先,我們描述了一個用于自動化設計優化的設置,特別是電路設計優化,在該設置中,特定領域的先驗數據可以有效地提高基于模型的優化方法的樣本效率。本文對如何提高基于模型的進化算法和貝葉斯優化方法的樣本效率提出了新的思路,并進行了實證和理論分析。在第二個問題設置中,我們將討論如何從大型任務無關數據集中利用無監督的預訓練來提取行為表征,并進行少量的模仿學習。我們發現,當新任務的例子演示稀缺時,預訓練agent提取技能是使他們準備進行少樣本模仿的一個實用方向。

//www2.eecs.berkeley.edu/Pubs/TechRpts/2022/EECS-2022-35.html

付費5元查看完整內容
北京阿比特科技有限公司