亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

如今,語言的人工神經網絡模型主要以提供強大的AI技術支撐而被人們所熟知和贊賞。這篇論文采取了不同的視角。通過一系列關于語言理解和產出的研究,它探討了人工神經網絡——除了在無數AI應用中發揮作用外——是否能作為準確的計算模擬人類語言使用的工具,從而成為語言科學的新核心方法論。 人類使用諸如言語、手勢和身體動作等行為來在彼此之間傳遞信息。他們使用語言行為來傳達知識、計劃、情感、價值觀等,更廣泛地說,是為了在世界中實現目標,即改變他們所處環境的狀態。例如,人類使用語言來更新其他人的信念、協調他們的活動,并共同完成任務。對我來說,能夠描述人類如何學習和運用這種能力是科學探究最令人興奮的目標。

指導我的研究的終極動機——其中很大一部分,截至今天,已在這篇論文中描述——是逆向工程人類通過語言行為交換信息的能力。我相信,實現這一目標將與創建一個能像人類一樣使用語言并作為語言使用的計算理論模型的創造相一致。這一研究領域的見解和朝這一理想模型的進步——一個可控但完全自主的、在情境中基礎的語言代理——將為更忠實地再現人類語言行為的語言技術的發展提供信息和刺激。 走向這個目標的道路漫長,而博士生的生活太短暫,無法走完。但我可以滿懷喜悅地說,現在我有了一張地圖和大致的路線。回顧過去和展望未來,這對我來說是我博士學習最令人興奮和寶貴的成果。不管怎樣,成為并作為一名科學家是一種服務形式,而我所服務的社群,無論是廣泛定義的還是更狹隘的界定,完全對我的內在斗爭、緊張和學習成果漠不關心——這也是合理的。地圖可能不完美,路線當然是暫時的,我所邁出的步伐有時搖搖晃晃,但它們是我對“社群”的貢獻,我將在這篇論文中自豪地概述它們。我希望能回顧這些頁面時,看到一個更精細的路線,更多的步數,以及相同的成就感。

付費5元查看完整內容

相關內容

博士論文是由攻讀博士學位的研究生所撰寫的學術論文。它要求作者在博士生導師的指導下,選擇自己能夠把握和駕馭的潛在的研究方向,開辟新的研究領域。由此可見,這就對作者提出了較高要求,它要求作者必須在本學科的專業領域具備大量的理論知識,并對所學專業的理論知識有相當深入的理解和思考,同時還要具有相當水平的獨立科學研究能力,能夠為在學科領域提出獨創性的見解和有價值的科研成果。因而,較之學士論文、碩士論文,博士論文具有更高的學術價值,對學科的發展具有重要的推動作用。

機器學習(ML)通過其近期前所未有的進步正在改變社會。自回歸模型的普及正在重塑社會的各個層面,從專業領域到學術追求,甚至休閑活動。智能AI系統的一個核心方面是它們處理和理解長時間的時間信息流,如文本、音頻或視頻數據的能力。在這篇論文中,我們深入探討了學習數據中長期依賴性的問題,從兩個主要角度來解決它:模型架構和學習算法。與其致力于在當代基準分數上獲得邊際改進,這些分數通常更依賴于工程優化,本論文的重點是深入理解潛在的時間機制,探索替代學習算法,并為未來在計算效率方面的改進提供基礎。

在第一章中,我們提出了一種新方法,將眾所周知的ML模型之一,循環神經網絡(RNN)的多個實例互聯。我們提出的實證證據表明,模型架構的修改在系統組件內引發不同的時間行為。這一發現可以被利用來區分長期依賴性和短期依賴性,為使用專門為每個設計的架構鋪平了道路。

第二章聚焦于在線學習算法,這種方法顯著偏離了用于訓練時間ML模型的傳統方法。這些算法在觀察到每個輸入后立即更新其參數,與更常用的方法形成對比,后者必須觀察整個輸入序列才能更新模型參數。我們研究了實時循環學習(RTRL)在眾所周知的RNN模型中的表現,并提出了一種數學上合理的近似方法。這種新方法提供了更好的近似,盡管它只與某些架構兼容。

在最后一章中,我們同時從這兩個方面應對學習長期依賴性的挑戰。我們提出了一種分層架構,能夠通過將其分解為更小的自包含子序列來處理擴展序列。與這種架構一起,我們提出了一種學習算法,使得在抽象空間中的學習成為可能,從而繞過了專注于短期序列細節的需求。這種架構和算法的結合導致了計算效率的顯著提高。重要的是,我們的方法不僅增強了當前模型的能力,而且還為未來模型架構和學習算法的共同設計開辟了令人興奮的途徑。

付費5元查看完整內容

語言使用在個體、社區和人群之間存在差異,產生了具有不同詞匯、句法、語義和語用的變體。盡管在幾種語言的標準基準測試上自然語言處理系統迅速改進,但這些模型往往無法代表這種多樣性。在這篇論文中,我旨在開發方法使NLP系統理解和生成自然語言,同時顯式地模擬與多樣化語言使用相關的額外語言變量。我將基于神經網絡的NLP模型中常規訓練和推理問題重新構思為多目標優化的實例,這篇論文分為兩部分。在第一部分中,(a)我提出了一種訓練魯棒文本分類模型的方法,減少對數據中虛假相關性的依賴——應用于檢測語言變體以及其他存在變化模式作為混淆因素的任務;(b)我提出了一個提示框架,用于將文本分類器針對不同領域、社會和個人變化因素的語用任務進行上下文化。在第二部分,我專注于豐富文本生成中的多樣性。我介紹了(c)一種機器翻譯訓練算法,該算法將令牌表示學習與模型學習分開,從而提高了生成文本的詞匯多樣性。我們展示了它便于適應生成目標語言的密切相關方言。最后,我介紹了(d)用于控制預訓練語言模型中風格變化的解碼算法。我將受控解碼框架為受約束的優化,并開發基于梯度的方法來非自回歸地生成文本,該方法初始化并迭代更新整個輸出序列。我們使用不同類型的控制在機器翻譯、風格轉換和開放式生成上驗證了這些方法。總體而言,這篇論文旨在推動NLP研究方向超越標準化語言,向社會使用進軍,在相關的訓練和推理目標指導下,提出研究問題和方法論。

沒有兩個特定語言的說話者展示出完全相同的語言模式。日益增長的用戶生成的網絡數據使這種變異性浮出水面。這種原始文本的豐富性,加上近期在大規模自監著學習方法(Devlin et al., 2019; Radford et al., 2019a; Brown et al., 2020a; Chowdhery et al., 2022)方面的進步,已經在許多NLP任務上取得了顯著的性能提升。然而,盡管訓練數據的多樣性,NLP模型往往是單一的,只編碼頻繁出現的模式,并對所有其他變體進行平均化處理(Hovy和Prabhumoye,2021)。結果,它們是靜態且脆弱的——一致地未能支持傳統“標準”之外的語言使用。例如,毒性檢測系統將非裔美國英語(AAE)的推文評分為比其他更具攻擊性(Davidson et al., 2019; Sap et al., 2019),情感分類系統將女性作者的評論評為更積極(Kiritchenko和Mohammad,2018),文本生成模型對女性和方言說話者的錯誤率更高(Tatman,2017; Ziems et al., 2023),在與人類進行對話時具有不一致的個性(Cercas Curry et al., 2020),并產生文化不適當和不禮貌的輸出(Vanmassenhove et al., 2019; Hovy et al., 2020)。

以前的NLP工作與語言變異性相關,主要集中在開發學習方法上,基本上忽略了變體之間的差異,將它們視為噪聲。此類工作的例子包括改進詞性標注器(Gimpel et al., 2011)、依存句法分析器(Liu et al., 2018)、情感分析器(Yang和Eisenstein,2017)、命名實體識別器(Augenstein et al., 2017)或翻譯系統(Michel和Neubig,2018),其中輸入文本來自社交媒體等包含不同變體的來源。然而,在幾種情況下,差異是有意的,其他語言用戶可以推斷出它們的預期意義;忽視這些信號可能會損害模型的實用性。隨著NLP系統在面向用戶的產品中的日益普及,因此迫切需要關注語言變異性。例如,構建能夠適應用戶語言偏好的對話代理,而不是為每個人生成標準化語言的回應,能夠生成具有多樣化風格和流利程度的輸出的翻譯系統;構建不忽視變化來源而是將其納入考慮以進行預測的分類模型。

為了實現這一目標,這篇論文專注于重新思考語言理解和生成的標準訓練和推理方法的機器學習解決方案。統一的主題是將文本中不同粒度的語言和額外語言多樣性整合到ML模型中:從詞匯(Kumar和Tsvetkov,2019;Bhat et al.,2019;Kumar et al.,2021a),到句法和風格(Jegadeesan et al.,2021;Kumar et al.,2021b,2022b;Han et al.,2023a),再到語義和語用(Kumar et al.,2023b)。1 我認為,與優化模型參數和輸出以達到單一目標(例如最大化任務準確性或生成輸入句子的忠實翻譯)的傳統算法不同,表征NLP中的變異本質上是多目標的。例如,最大化任務準確性和跨說話者變體的公平性;生成忠實翻譯并控制特定風格,以及控制語言結構的簡單性(或復雜性)。此外,為了促進在廣泛實際環境中的使用,這篇論文旨在開發高效解決方案;從計算復雜性,到參數數量,到標記資源的數量。

付費5元查看完整內容

在這篇論文中,我們研究了深度強化學習中的對稱性和結構。我們將論文分為兩部分。在第一部分,我們探討如何在強化學習中利用對稱性的知識。在第二部分,我們提出了一些方法,用于學習智能體的環境和狀態的結構。我們提出了MDP 同態網絡,這是一種在 MDP 的聯合狀態-動作空間下對稱性下是等變的神經網絡。由于等變性,我們發現與非等變的基線相比,數據效率得到了提高。我們提出了多智能體MDP 同態網絡,一類網絡,允許使用僅局部信息的分布式執行,但能夠在合作多智能體系統的聯合狀態-動作空間的全局對稱性之間分享經驗。我們顯示全局等變性比對稱協調問題的非等變分布式網絡的數據效率更高。我們提出了 PRAE。PRAE 利用動作等變性進行強化學習中的表示學習。動作下的等變性表明輸入空間中的轉換被潛在空間中的等效轉換所鏡像,而映射和轉換函數也應該交換。我們證明,在某些假設下,學到的映射是一個 MDP 同態,并且通過實驗證明該方法是數據高效的,易于訓練,能很好地推廣到具有相同環境動力學的新目標狀態和實例。我們提出了 C-SWMs,它使用對比編碼和圖神經網絡轉換函數,從像素中找到狀態的面向對象的表示。我們顯示與使用解碼器、非結構化轉換或非結構化表示相比,在多步預測和泛化到未見環境配置方面有所改善。

對稱性和結構無處不在。當我們行走時,右腿的運動鏡像了左腿的運動。當分子旋轉時,它們的分子性質不變。當我們導航到一個目的地時,我們會考慮不同路段的連通性。當我們交談時,我們可以將單詞串聯起來,形成完全新的句子。在日常生活中,我們使用關于任務的對稱性和結構的信息來指導我們的決策制定。

在人工智能中,對稱性和結構也無處不在。考慮一下在運動過程中鏡像左右腿運動的機器人,自動化芯片設計,追蹤野生動物運動的無人機群,玩 Atari Pong 的機器人,其中屏幕的上下部分是彼此的反射,分子設計,計算機玩家在圍棋游戲中考慮旋轉的棋盤狀態,以及自動駕駛車輛從荷蘭的右側道路切換到英國的左側道路。這些都是 AI 中展示了某種對稱性或結構的任務的例子。利用固有對稱性和結構的知識是構建可擴展系統的重要一步。

強化學習是人工智能的一個基礎研究領域,它鼓勵智能體從正反饋信號中學習,我們稱這為獎勵。通過試錯,智能體可以學會將情境、動作和反饋關聯起來,從而改善其決策。例如,我們可以給一個機器人正向獎勵以鼓勵它快速行走,而給它負向獎勵以防止它跌倒。同樣,我們可以給計算機玩家正向獎勵以鼓勵它贏得比賽,負向獎勵以防止輸掉比賽,或者給一個提出特別高效的芯片設計的智能體正向獎勵。使用強化學習領域的概念,我們可以將上述示例正式化,以提出導致智能體做出良好決策的方法。在深度強化學習中,智能體使用神經網絡來決定采取哪個動作,而神經網絡會根據收到的獎勵信號適應任務。然而,即使是那些遠遠不及人類能力的智能任務,對于人工決策者來說也可能會遇到問題。考慮任何一個在現實世界中運作的基于視覺的控制系統。智能體接收到攝像頭輸入作為觀測,然后必須學習采取最佳動作。可能的觀測數量是極其龐大的,而智能體不太可能遇到兩個完全相同的狀態。因此,我們希望智能體能夠重用先前狀態的經驗,以便在具有相似特征的未見狀態中做出良好的決策。例如,在決定如何移動左腿時,智能體應該模仿它學到的移動右腿的動作。

上述示例只是強化學習問題中對稱性和結構出現的幾個案例。這可以通過考慮在一個狀態中采取一個動作是否等同于在另一個狀態中采取另一個動作來形式化。在這篇論文中,我們將研究當我們知道對稱性和結構時如何在強化學習中使用它,以及如果不知道時如何提取它。智能體不應該學習已知的東西。知識是由系統設計者作為先驗知識提供的,還是通過智能體自身的泛化獲得的,應取決于問題的上下文。通過適當地重復使用知識,我們可以減少智能體需要與世界互動的次數,這是擴展到真實世界設置的重要部分。在這篇論文中,我們將特別關注強化學習中的對稱性和結構。

付費5元查看完整內容

這篇論文開發了用于口語處理應用的遷移學習范式。特別地,我們處理了在自動語音識別(ASR)背景下的領域適應問題,以及在自動語音翻譯(AST)中的跨語言學習問題。論文的第一部分開發了一種針對端到端ASR模型的無監督領域適應算法。近年來,由于有了大量的標注語料庫和新穎的神經網絡架構,ASR的性能得到了顯著的提升。但是,當訓練數據的分布與模型在部署時遇到的分布(目標領域)不匹配時,ASR的性能會大幅下降。一個簡單的解決方法是在目標領域收集標記的數據并重新訓練源領域的ASR模型。但是,收集標記的樣本往往很昂貴,而未標記的數據則更容易獲得。因此,有必要開發無監督領域適應方法。為此,我們開發了一個簡單但有效的適應算法,稱為Dropout不確定性驅動的自我訓練(DUST)。DUST重新利用了經典的自我訓練(ST)算法,使其適應領域適應問題。

論文的第二部分開發了一個Transformer神經網絡編碼器,該編碼器將多種語言的語音嵌入到一個共享的、語義對齊的聯合語音-文本嵌入空間中。為了學習這種多模態語義嵌入空間,我們提出了一個教師/學生學習框架,在這個框架中,我們使用來自預先訓練過的多語言語義文本編碼器(教師)的語義監督來微調一個預先訓練過的多語言語音編碼器(學生)。我們展示了,通過使用我們的語音編碼器學習到的語義表示構建多語言的語音到文本翻譯技術,我們可以從在訓練期間看到的高資源口語語言實現顯著的零樣本跨語言任務轉移,轉移到在訓練期間未看到的低資源口語語言。

這項工作提出了幾種方法來解決語音處理應用中的遷移學習問題。遷移學習是指將從解決源領域中的一個任務中獲得的知識轉移到一個目標領域中的不同但相關的目標任務的問題。多種學習框架可以被視為遷移學習的一個實例。例如,從大量未標記數據中學習以便用有標記的樣本進行少樣本學習是順序遷移學習的一個實例,在這種學習中,我們首先使用自監督學習在未標記的數據上預訓練一個模型,然后在少量的手工注釋的有標簽數據上進行微調。上述順序遷移學習的著名例子包括自然語言處理中的BERT (Devlin等人, 2019)和語音處理中的Wav2vec2.0 (Baevski等人, 2020)(Zoph等人, 2020)。

在實際應用中部署語音處理模型時,經常可以觀察到對高效遷移學習的需求。通常,訓練數據(源領域)與模型在部署期間遇到的數據分布(目標領域)之間存在不匹配。一個簡單的解決辦法是在目標領域收集標記的樣本以重新訓練ASR模型。但是,收集手工注釋的數據既耗時又昂貴。相比之下,收集未標記的數據相對便宜。因此,存在對無監督領域適應方法的需求。這篇論文的第一部分(第3-4章)關注端到端自動語音識別模型的無監督領域適應問題。我們關注一個古老的算法——自我訓練(ST),該算法近年來在機器翻譯(He等人,2019)、語音識別(Q. Xu等人,2020;Jacob Kahn, A. Lee和Hannun,2020)、語音翻譯(Pino等人,2020a)和視覺對象檢測中都有所回歸。我們對ST進行了改進,使其更適合領域適應問題(第3章)。第4章展示了我們修改過的ST算法在高效構建低資源語言的ASR模型方面的有趣應用。

我們的工作的第二部分(第5-6章)關注跨語言遷移學習。第5章提出了一種新的多語言語音編碼器,稱為語義對齊的多模態跨語言語音表示(SAMU-XLS-R)。與其他多語言語音表示學習框架(Conneau, Baevski等人,2020; Babu等人,2021; Bapna, Cherry等人,2022a)不同,SAMU-XLS-R是一個聯合語音-文本嵌入學習框架,它在其學習到的語音表示中編碼了語義信息,而其他框架通常編碼的是不太可轉移的低級語言知識。由于語義知識不受語言限制,因此在學習到的語義表示的基礎上構建多語言語音處理模型應該可以提高模型的跨語言可移植性。我們在第6章中展示,使用SAMU-XLS-R語音編碼器構建的多語言語音翻譯模型,與其他非語義語音編碼器相比,能夠更好地將任務特定的知識從高資源語言遷移到低資源語言。因此,我們在幾個公開的基準測試中顯著提高了多語言語音到文本的翻譯性能。

付費5元查看完整內容

隨著大型語言模型(LLM)發展的日益普及,吸引了大量關注,各種應用領域的模型不斷涌現。然而,將大型語言模型與語義技術相結合以進行推理和推斷仍然是一項具有挑戰性的任務。本文分析了當前在基礎LLM方面的進展,如ChatGPT,如何與專用預訓練模型,如REBEL,進行比較,以實現實體和關系的聯合提取。為了評估這種方法,我們使用與可持續性相關的文本作為案例,進行了多個實驗。我們創建了從原始文本自動生成知識圖譜的流程,并發現使用先進的LLM模型可以提高從非結構化文本創建這些圖譜的過程的準確性。此外,我們還探討了使用基礎LLM模型進行自動本體創建的潛力,從而生成更相關且準確的知識圖譜。本節描述了本研究中使用的方法,包括數據收集過程以及用于分析收集到的數據的實體-關系提取算法。

**A. 數據收集過程 **為了對實體-關系提取的兩種方法進行實驗性比較,我們從網絡上收集了有關可持續性主題的新聞數據。為此,我們使用了News API [21]系統。News API是一個HTTP REST API,用于從網絡上搜索和檢索實時文章。它提供了通過指定以下選項在網絡上發布的文章中進行搜索的功能:關鍵詞或短語、發布日期、來源域名和語言。通過使用News API,我們收集了2023-02-15至2023-03-19關于可持續性主題的94篇新聞文章。收集到的文本包含各種字數,從50個到超過4200個不等。由于輸入到語言模型中的令牌數量受到限制,因此需要進行額外的預處理步驟來處理包含大量單詞的文本。

**B. 關系提取方法 **關系提取是自然語言處理(NLP)中的一項基本任務,旨在識別句子或文檔中實體之間的語義關系。這項任務具有挑戰性,因為它需要理解實體出現的上下文以及它們之間存在的關系類型。在本小節中,我們將介紹如何利用REBEL和ChatGPT進行關系提取任務。1) REBEL:我們首先嘗試使用REBEL從非結構化新聞文章中提取關系。為了讓REBEL能夠使用提供的文本,需要使用相應的分詞器功能對其進行分詞。分詞是將原始文本分割成稱為令牌的較小單位的過程。令牌可以是單詞、字符或子詞。模型對令牌的限制為512個令牌,這意味著在將較長的收集到的文章發送到模型進行三元組提取之前,需要對其進行預處理。為了解決這個限制,我們將原始文本進行分詞,并將令牌劃分為256個令牌的批次。這些批次分別由REBEL模型處理,然后合并結果以提取較長文本的關系。還向提取的關系添加元數據,引用生成關系的令牌批次。采用這種方法,由于令牌批次可能在句子的中間開始或結束,某些關系可能無法準確提取。然而,這種情況發生的次數微乎其微。因此,我們將其處理留給未來的工作。實體-關系提取過程完成后,提取的信息存儲在三元組結構中。為了進一步規范提取的實體,我們執行實體鏈接[22]。實體鏈接是指將原始文本中提到的實體與知識庫中相應實體進行識別和關聯的過程。實體鏈接過程不屬于REBEL模型的一部分,它是用于優化提取關系的額外后處理步驟。在本研究中,我們使用DBpedia作為知識庫,并認為如果兩個實體具有相同的DBpedia URL,則它們是相同的。這方法不適用于DBpedia上不存在的實體。

  1. ChatGPT:本文采用的第二種方法使用了OpenAI的ChatGPT [12]。我們使用ChatGPT創建了兩個實驗。第一個實驗提示ChatGPT從收集到的新聞文章中提取關系。在提取關系之后,我們遵循與REBEL模型相同的步驟,以創建一個全面的知識庫。第二個實驗側重于創建一個直接生成整個知識庫并編寫描述文本中識別到的概念的本體的提示。這種方法的目標是減少為了獲得最終知識圖譜而需要執行的手動步驟的數量。對于這兩個實驗,我們將參數“溫度”的值設為0,以獲得更具確定性的輸出,因為OpenAI模型本質上是非確定性的。

付費5元查看完整內容

幾十年來,研究人員一直在追求一個雄心勃勃的目標:設計出能夠像人類一樣有效地解決問題的計算機模型。人工神經網絡——一種通用的、可優化的模型,最初是受到大腦中的生物神經元的啟發——似乎提供了一個有希望的答案。然而,當前模型的一個重大限制是,它們往往只可靠地精通它們明確訓練過的任務和數據集。如果正在訓練多個任務或數據集,則需要適當地混合和平衡樣本,以便在連續批次的訓練中不會導致前批次學習到的知識的遺忘,這是持續學習的障礙。此外,需要通過成對的輸入目標樣本使訓練網絡的關聯明確,以實現其在期望任務上的最佳性能;當網絡在沒有明確目標的情況下以無監督方式進行訓練時,為了減少數據收集的成本,網絡學到的知識遷移到期望任務的效果明顯差于具有明確關聯的有監督訓練。

所有這些問題都與基本的泛化問題有關,泛化是指盡管面向新類但仍能表現良好的能力。在第二章中,我們討論了在有監督、無監督和持續學習環境下,可以預期產生良好泛化的條件,包括小模型大小和訓練和測試數據之間的相似性。第三章提出了一種預測模型何時不能泛化到測試樣本的方法,推導出泛化邊界,利用模型大小和與訓練數據的相似度來量化預測的可靠性。第四章介紹了一種聚類方法,該方法學習了如何在語義概念之間近似地分離數據,使用的是非監督目標不使用手動標簽。第五章包含了一種不需要專門訓練數據就可以執行目標定位任務的方法,即通過重新利用顯著性映射。第6章包含了一個持續學習的方法,在這個方法中,模型被迫重新考慮之前的知識與新知識并行,第7章使用了一個動態架構來抑制新學習片段對舊知識的干擾。如果沒有這些泛化問題的解決方案,神經網絡就無法從自然順序的、沒有注釋的現實世界數據中實時有效地學習,這限制了它們的部署選項。因此,泛化是一個具有巨大實際意義的問題,從理論上和從生物學啟發學習的角度來看都很有趣。

//ora.ox.ac.uk/objects/uuid:2d7f8f92-d730-40a5-a47c-0acd0998f0d0

付費5元查看完整內容

強化學習(RL)為數據驅動決策提供了一個通用框架。然而,正是這種通用性使得這種方法適用于廣泛的問題,也導致了眾所周知的效率低下。在這篇論文中,我們考慮了有趣的決策類所共有的不同屬性,這些屬性可以用來設計計算效率和數據效率都很高的學習算法。具體來說,這項工作研究了決策問題的各個方面的低秩結構和經典確定性規劃的效果稀疏性,以及基于端到端模型的方法所依賴的性能。我們首先展示了后繼表示中的低秩結構如何使高效在線學習算法的設計成為可能。類似地,我們展示了如何在Bellman算子中找到相同的結構,我們使用Bellman算子來制定最小二乘時間差分學習算法的有效變體。我們進一步探索狀態特征中的低秩結構,以學習完全允許在低維空間中進行高效規劃的有效轉換模型。然后,我們進一步了解基于模型的端到端方法,以便更好地理解它們的屬性。我們通過約束優化和隱式微分的視角來研究這類方法。通過隱式視角,我們得到了這些方法的屬性,這些屬性使我們能夠確定它們執行良好的條件。在本文的最后,探索了如何利用經典規劃問題的效果的稀疏性來定義一般的領域無關啟發式方法,通過使用基于潛在的獎勵塑造和提升函數近似,可以用來大大加快領域相關啟發式方法的學習。

//dspace.mit.edu/handle/1721.1/144562

付費5元查看完整內容

我們探索機器學習(ML)和因果推理之間的關系。通過相互借鑒,我們專注于改進每一個方面。機器學習已經成功地應用于許多問題,但由于缺乏強有力的理論保證,導致了許多意想不到的失敗。當應用于不同的分布時,在訓練分布上表現良好的模型往往會崩潰;微小的擾動可以“欺騙”訓練好的模型,并極大地改變它的預測;訓練算法中的任意選擇會導致截然不同的模型;等等。另一方面,雖然因果推理方法的發展已經取得了巨大的進步,有很強的理論保證,但現有的方法通常不能應用于實踐,因為它們假設有大量的數據。研究ML和因果推理的交集,我們直接解決了ML中缺乏魯棒性的問題,并提高了因果推理技術的統計效率。

本論文工作背后的動機是改進用于指導決策的預測模型和因果模型的構建方法。自始至終,我們主要關注醫療健康上下文中的決策制定。在ML的因果關系方面,我們使用ML工具和分析技術來開發統計上有效的因果模型,可以指導臨床醫生在兩種治療方法之間選擇。在ML的因果關系方面,我們研究如何使用產生觀測數據的因果機制知識來有效地正則化預測模型,而不引入偏差。在臨床環境中,我們展示了如何使用因果知識來建立穩健和準確的模型來預測傳染性感染的傳播。在非臨床環境中,我們研究了如何使用因果知識來訓練在圖像分類中對分布轉移具有魯棒性的模型。

付費5元查看完整內容

最近,伯克利大學Roshan Rao 157頁博士論文介紹了在通用基準上訓練和評估蛋白質語言模型的方法。隨后,研究了模型縮放、數據預處理和訓練超參數對transformer在無監督的情況下學習蛋白質接觸能力的影響,然后提出了一種在MSA上操作而不是在單個序列上操作的新方法,并證明了該方法在多個下游任務上實現了最優的性能。最后,討論了所有這些方法在蛋白質設計中的應用。

作者介紹:

Meta AI的一名研究科學家,研究蛋白質序列的神經進化模型。之前,我在加州大學伯克利分校攻讀博士學位,在那里我得到了John Canny和Pieter Abbeel的指導! //rmrao.github.io/作者發表的文章

訓練,評估和理解蛋白質序列的進化模型Training, Evaluating, and Understanding Evolutionary Models for Protein Sequences

新的蛋白質序列通過突變產生。這些突變可能是有害的,有益的,或中性的;突變對生物體進化適應性的影響反映在生物體存活的時間是否足夠長,使其蛋白質能夠被采樣并儲存在序列數據庫中。長期以來,生物信息學一直尋求利用這種進化信號,通常以多重序列比對(MSAs)的形式,來推斷新蛋白質的結構和功能。隨著神經網絡和自監督預訓練的出現,一種不同的方法出現了,使用語言建模目標對大規模神經網絡進行預訓練,從輸入的蛋白質序列自動生成信息特征

本文介紹了在一個通用基準上訓練和評估蛋白質語言模型的方法。隨后,研究了增加模型擴展、數據集預處理和超參數訓練對transformers 在沒有監督的情況下學習蛋白質接觸能力的影響。一種新的方法操作在MSAs而不是單一序列,然后提出,并顯示在幾個下游任務達到最先進的性能。最后,討論了這些方法在蛋白質設計中的應用。

本論文試圖回答關于蛋白質序列語言建模的三個關鍵問題:

  1. NLP中非監督學習的標準方法是否能學習生物學相關的特征?
  2. 我們如何定制用于訓練蛋白質的無監督模型的數據、模型和任務?
  3. 蛋白質序列的大規模無監督模型能用于蛋白質設計嗎?

付費5元查看完整內容

機器學習是一種變革性的計算工具,它正在革新許多技術和科學應用。然而,最近在人工智能和機器學習方面的成功,以及隨之而來的模型的廣泛部署,已經改變了經典的機器學習管道。首先,可用數據的絕對規模——在數量和維度上——已經爆炸。此外,現代機器學習架構具有指數級的設計選擇和超參數,但它們都是使用通用的隨機梯度方法進行優化的。這突出了自適應梯度方法的需要,該方法在沒有事先知道實例的情況下充分執行。接著并期望它們即使在不分布的輸入中也能提供良好的預測——這強調了對可靠模型的需要。最后,隨著我們收集越來越多的用戶數據,我們希望在向公眾發布這些模型時,基于這些數據訓練的模型不會損害訓練集中存在的個人的隱私。在這篇論文中,我們證明了解決這些新出現的問題需要優化方面的基本進步。更具體地說,我們首先提出了理解自適應梯度算法的最優性的新的理論結果,并展示了在基于梯度的采樣器的背景下自適應方法的實際用例。然后,我們提出了可擴展的最小最大優化方法,以有效地解決魯棒目標。最后,我們開發了私有優化方法,在更嚴格的隱私要求下最優地學習,以及自適應方法,在簡單的實例上增加“適當數量的噪聲”并顯著降低隱私的代價。

//searchworks.stanford.edu/view/14053711

付費5元查看完整內容
北京阿比特科技有限公司