在 Hugging Face,我們正在為深度強化學習的研究人員和愛好者的生態系統做出貢獻。最近,我們集成了Deep RL框架,比如Stable-Baselines3。
今天,我們很高興地宣布,我們將Decision Transformer(一種離線強化學習方法)集成到??Transformer庫和擁抱面部中心中。我們有一些令人興奮的計劃來提高Deep RL領域的可訪問性,我們期待著在未來的幾周和幾個月與您分享。
什么是離線強化學習? 引入 決策 Transformers 使用??Transformer中的Decision Transformer 結論 接下來是什么? 參考文獻
Inductive program synthesis, or inferring programs from examples of desired behavior, offers a general paradigm for building interpretable, robust, and generalizable machine learning systems. Effective program synthesis depends on two key ingredients: a strong library of functions from which to build programs, and an efficient search strategy for finding programs that solve a given task. We introduce LAPS (Language for Abstraction and Program Search), a technique for using natural language annotations to guide joint learning of libraries and neurally-guided search models for synthesis. When integrated into a state-of-the-art library learning system (DreamCoder), LAPS produces higher-quality libraries and improves search efficiency and generalization on three domains -- string editing, image composition, and abstract reasoning about scenes -- even when no natural language hints are available at test time.
We study a class of enriched unfitted finite element or generalized finite element methods (GFEM) to solve a larger class of interface problems, that is, 1D elliptic interface problems with discontinuous solutions, including those having implicit or Robin-type interface jump conditions. The major challenge of GFEM development is to construct enrichment functions that capture the imposed discontinuity of the solution while keeping the condition number from fast growth. The linear stable generalized finite element method (SGFEM) was recently developed using one enrichment function. We generalized it to an arbitrary degree using two simple discontinuous one-sided enrichment functions. Optimal order convergence in the $L^2$ and broken $H^1$-norms are established. So is the optimal order convergence at all nodes. To prove the efficiency of the SGFEM, the enriched linear, quadratic, and cubic elements are applied to a multi-layer wall model for drug-eluting stents in which zero-flux jump conditions and implicit concentration interface conditions are both present.
We propose TubeR: a simple solution for spatio-temporal video action detection. Different from existing methods that depend on either an off-line actor detector or hand-designed actor-positional hypotheses like proposals or anchors, we propose to directly detect an action tubelet in a video by simultaneously performing action localization and recognition from a single representation. TubeR learns a set of tubelet-queries and utilizes a tubelet-attention module to model the dynamic spatio-temporal nature of a video clip, which effectively reinforces the model capacity compared to using actor-positional hypotheses in the spatio-temporal space. For videos containing transitional states or scene changes, we propose a context aware classification head to utilize short-term and long-term context to strengthen action classification, and an action switch regression head for detecting the precise temporal action extent. TubeR directly produces action tubelets with variable lengths and even maintains good results for long video clips. TubeR outperforms the previous state-of-the-art on commonly used action detection datasets AVA, UCF101-24 and JHMDB51-21.
//www.oreilly.com/library/view/natural-language-processing/9781098103231/
自2017年推出以來,Transformer已迅速成為在各種自然語言處理任務上實現最先進結果的主導架構。如果你是一名數據科學家或程序員,這本實用的書向你展示了如何使用基于python的深度學習庫hugs Face transformer來訓練和擴展這些大型模型。
Transformers 已經被用來編寫真實的新聞故事,改進谷歌搜索查詢,甚至創造出講笑話的聊天機器人。在本指南中,作者Lewis Tunstall、Leandro von Werra和Thomas Wolf(擁抱Transformers 的創始人之一)使用親身實踐的方法來教你Transformers如何工作,以及如何將它們集成到應用程序中。你會很快學到他們能幫你解決的各種任務。
為核心NLP任務構建、調試和優化Transformers模型,如文本分類、命名實體識別和回答問題
學習如何使用Transformers進行跨語言遷移學習
在真實世界中標簽數據稀缺的場景中應用Transformers
利用蒸餾、剪枝和量化等技術,使Transformers模型有效地用于部署
從零開始訓練Transformers ,學習如何擴展到多個GPU和分布式環境
本書的目標是讓您能夠構建自己的語言應用程序。為了達到這個目的,它關注于實際的用例,并且只在必要的時候深入研究理論。這本書的風格是動手操作,我們強烈建議您親自運行代碼示例來進行試驗。本書涵蓋了NLP中transformers的所有主要應用,每一章(除了少數例外)專門針對一個任務,結合一個實際的用例和數據集。每一章還介紹了一些額外的概念。以下是我們將涉及的任務和主題的一個高級概述:
第一章,你好Transformers,介紹了Transformers,并把它們放到了背景中。它還介紹了“Hugging Face”生態系統。
第二章文本分類,重點介紹了情感分析(一個常見的文本分類問題),并介紹了Trainer API。
第三章,Transformer剖析,更深入地介紹了Transformer架構,為接下來的章節做準備。
第四章,多語言命名實體識別,重點關注在多語言文本中識別實體的任務(一個令牌分類問題)。
第五章,文本生成,探討了Transformers模型生成文本的能力,并介紹了解碼策略和度量。
第六章,摘要,深入研究了文本摘要的復雜序列到序列任務,并探討了該任務使用的度量。
第七章“問答”,重點介紹了基于綜述的問答系統的構建,并介紹了利用Haystack進行檢索的方法。
第八章《Transformers在生產中高效運行》,重點介紹了模型性能。我們將著眼于意圖檢測的任務(序列分類問題的一種類型),并探索知識蒸餾、量化和剪枝等技術。
第九章,處理很少或沒有標簽,著眼于在沒有大量標簽數據的情況下提高模型性能的方法。我們將構建一個GitHub問題標簽和探索技術,如零樣本分類和數據增強。
第十章,從頭開始訓練Transformer,向您展示了如何從頭開始構建和訓練一個自動完成Python源代碼的模型。我們將研究數據集流和大規模培訓,并構建我們自己的標記器。
第十一章,未來方向,探討了Transformers面臨的挑戰和一些令人興奮的新方向的研究,在這一領域將進入。
這個網絡研討會介紹了數據科學的基礎知識,并簡要回顧了一些統計的基本概念。它還概述了如何擁有一個成功的數據科學項目。
主題: Neural Topological SLAM for Visual Navigation
摘要: 本文研究了圖像目標導航的問題,該問題涉及在以前看不見的新型環境中導航到目標圖像指示的位置。 為了解決這個問題,我們設計了空間的拓撲表示,以有效利用語義并提供近似的幾何推理。 表示的核心是具有關聯語義特征的節點,這些節點使用粗略的幾何信息相互連接。我們描述了基于監督學習的算法,該算法可以在噪聲激勵下構建,維護和使用此類表示。 在視覺和物理逼真的模擬中的實驗研究表明,我們的方法建立了有效的表示形式,可以捕獲結構規律性并有效解決長視距導航問題。 與研究該任務的現有方法相比,我們觀察到相對改進了50%以上。
主題: 11-785 Introduction to Deep Learning
簡介: 以深度神經網絡為代表的“深度學習”系統正日益接管所有人工智能任務,從語言理解、語音和圖像識別,到機器翻譯、規劃,甚至是游戲和自動駕駛。因此,在許多先進的學術環境中,深度學習的專業知識正迅速從一個深奧的理想轉變為一個強制性的先決條件,并在工業就業市場上占有很大優勢。在本課程中,我們將學習深層神經網絡的基礎知識,以及它們在各種人工智能任務中的應用。課程結束時,學生將對本課程有相當的了解,并能將深度學習應用到各種任務中。他們還將通過進一步的研究來了解關于這一主題的許多現有文獻并擴展他們的知識。
主講人簡介: Bhiksha Raj,卡內基梅隆大學計算機學院教授,IEEE研究員。個人主頁://mlsp.cs.cmu.edu/people/bhiksha/index.php
課程名稱: Deep Learning and Bayesian Methods
課程介紹: 在Deep|Bayes暑期學校,我們將討論如何將Bayes方法與Deep Learning相結合,并在機器學習應用程序中帶來更好的結果。 最近的研究證明,貝葉斯方法的使用可以通過各種方式帶來好處。 學校參與者將學習對理解當前機器學習研究至關重要的方法和技術。 他們還將具有使用概率模型來構建神經生成和判別模型的動手經驗,學習神經網絡的現代隨機優化方法和正則化技術,并掌握推理神經網絡及其權重不確定性的方法,預測。
部分邀請嘉賓: Maurizio Filippone,AXA計算統計主席,EURECOM副教授
Novi Quadrianto,薩塞克斯大學助理教授
課程大綱:
課程題目: Emerging Challenges in Deep Learning
課程大綱:
主講人: Chris Manning,托馬斯·西貝爾(Thomas M. Siebel)機器學習教授,語言學和計算機科學教授,斯坦福人工智能實驗室(SAIL)主任,以人為中心的人工智能研究所副主任。
Jennifer Listgarten,是加州大學伯克利分校 EECS系 和計算生物學中心的教授, 伯克利AI研究(BAIR)實驗室指導委員會成員 ,以及 Chan Zuckerberg研究人員。
Zachary Lipton,在UCSD 人工智能小組進行了出色的4年博士學位研究之后,加入了卡內基梅隆大學(CMU),擔任Tepper商學院的助理教授,并在機器學習系(MLD)和亨氏公共政策學院擔任副教授等。