亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Jana Doppa等學者共同做了關于貝葉斯優化的進展報告,非常值得關注!

許多工程和科學應用,包括自動機器學習(例如,神經結構搜索和超參數調優),都需要做出設計選擇,以優化一個或多個昂貴的評估目標。一些例子包括調整編譯器的旋鈕,以優化一組軟件程序的性能和效率; 設計新材料以優化強度、彈性和耐久性;并設計硬件優化性能,功率和面積。貝葉斯優化(BO)是一種有效的框架,用于解決函數求值昂貴的黑盒優化問題。BO的核心思想是利用真實的實驗數據建立一個廉價的替代統計模型(如高斯過程);并利用它來智能地選擇實驗序列或使用采集函數的功能評估,例如期望改進(EI)和上置信度界限(UCB)。對于連續輸入空間,在單保真度設置(即,實驗昂貴且函數評估準確)的單目標優化中,有大量關于BO的工作。然而,BO近年來的工作已經集中在更具挑戰性的問題設置,包括多目標優化;利用多保真度函數評估進行優化(不同的資源成本和評估的準確性);用黑盒約束優化應用到安全;組合空間的優化(例如,序列、樹和圖);混合空間(離散和連續輸入變量的混合)的優化。本教程的目標是通過關注挑戰、原則、算法思想和它們的連接,以及重要的現實世界應用,從基礎到這些最新進展,呈現BO的全面調研。

付費5元查看完整內容

相關內容

【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Shirin Sohrabi等學者共同做了關于AI規劃理論與實踐的進展報告,非常值得關注!

人工智能規劃是人工智能的一個長期存在的子領域,處理順序決策,是強化學習的姊妹領域。規劃技術在對話系統、網絡安全、交通物流、IT等各個領域都有成熟的工業應用。雖然基于模型的規劃工具可以解決實際規模的問題,但在實踐中應用人工智能規劃研究面臨著幾個挑戰,阻礙了它的廣泛應用。然而,使用無模型方法的替代方法往往被證明對實際尺寸的問題是不可行的。本教程的目的是為觀眾提供必要的理論背景知識,以及實踐經驗,以允許使用規劃工具解決日常挑戰。在本教程中,我們將概述規劃領域,包括該領域的最新進展。然后,我們將深入研究三個挑戰:(1)建模——如何表示、提取和學習知識;(2)理論和工具——計算問題的形式化定義以及如何解決這些問題;(3)實踐-在端到端應用程序中使用人工智能規劃。我們將有一個實踐環節來舉例說明如何使用規劃工具來解決示例應用。我們的目標是為AAAI的與會者提供在他們的應用中使用人工智能規劃工具的必要手段

付費5元查看完整內容

時間序列數據集,如電子健康記錄(EHR)和注冊表,代表了跨越患者整個生命周期的有價值(但不完美)的信息源。從時間數據學習是一個成熟的領域,已經在以前的一些教程中介紹過,醫療領域提出了獨特的問題和挑戰,需要新的方法和思維方式。也許時間序列最常見的應用是預測。雖然我們將討論疾病預測的最先進的方法,但我們也將關注時間序列中的其他重要問題,如事件時間或生存分析、個性化監測和治療效果隨時間的變化。這些主題將在醫療健康上下文中介紹,但它們對醫學以外的其他領域具有廣泛的適用性。此外,我們將探討幾個必要的特征,使人工智能和機器學習模型在臨床環境中盡可能有用。我們將討論自動機器學習,并解決理解和解釋機器學習模型以及不確定性估計的挑戰,這兩者在高風險場景(如醫療保健)中都是至關重要的。我們的目標是獲得最少的必要的先決知識。然而,我們將假定具有標準機器學習方法的基本知識(如MLPs、rnn)。雖然我們的教程將包括一些機器學習技術的詳細解釋,但重點將放在問題領域,他們獨特的挑戰,以及克服這些問題的思維方式。

付費5元查看完整內容

【導讀】國際人工智能會議AAAI 2022論文將在全程線上舉辦,時間在 2 月 22 日-3 月 1 日,本屆大會也將是第 36 屆 AAAI 大會。大會涵蓋了眾多最近研究Tutorial報告,來自Freddy Lecue, Pasquale Minervini, Fosca Giannotti and Riccardo Guidotti博士共同做了關于可解釋人工智能的進展報告,非常值得關注!

人工智能的未來在于使人類能夠與機器合作解決復雜的問題。就像任何有效的合作一樣,這需要良好的溝通、信任、清晰和理解。可解釋人工智能(XAI)旨在通過結合符號人工智能和傳統機器學習的優點來應對此類挑戰。多年來,各種不同的AI社區都在研究這一主題,他們有著不同的定義、評估指標、動機和結果。

本教程是XAI迄今為止工作的一個概述,并綜述了AI社區所完成的工作,重點是機器學習和符號AI相關方法。我們將闡述XAI在現實世界和大規模應用中的需求,同時提供最先進的技術和最佳的XAI編碼實踐。在教程的第一部分,我們將介紹AI的不同方面的解釋。然后,我們將本教程重點介紹兩種具體方法:(i) XAI使用機器學習,(ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們都進入了具體的方法,目前的技術水平和下一步的研究挑戰。本教程的最后一部分概述了XAI的實際應用以及最佳XAI編碼實踐。

目錄內容:

第一部分: 介紹,動機和評估- 20分鐘 人工智能解釋的廣泛介紹。這將包括從理論和應用的角度描述和激發對可解釋人工智能技術的需求。在本部分中,我們還將總結前提條件,并介紹本教程其余部分所采用的不同角度。

第二部分: 人工智能解釋(不只是機器學習!)- 40分鐘 概述AI各個領域的解釋(優化、知識表示與推理、機器學習、搜索與約束優化、規劃、自然語言處理、機器人技術和視覺),使大家對解釋的各種定義保持一致。對可解釋性的評估也將包括在內。本教程將涵蓋大多數定義,但只會深入以下領域: (i) 可解釋的機器學習,(ii) 可解釋的AI與知識圖譜和機器學習。

第三部分: 知識圖譜在可解釋機器學習中的作用- 40分鐘 在本教程的這一節中,我們將介紹將基于圖的知識庫與機器學習方法相結合的解釋力。

第四部分: XAI工具,編碼和工程實踐- 40分鐘 通過演示如何集成XAI,以及如何根據技術和業務挑戰實例化、調整和定制XAI,我們將了解XAI的編碼和工程實踐。本節將介紹開發代碼,這些代碼將與谷歌Colab共享,便于與AAAI用戶進行互動。本節需要使用谷歌帳號(用于訪問谷歌Colab)。

第五部分:應用、經驗教訓和研究挑戰- 40分鐘 我們將回顧一些在實際示例中應用的XAI開源和商業工具。我們將描述如何基于技術和業務挑戰實例化XAI。我們特別關注一些用例: (1) 解釋目標檢測,(2) 解釋自動駕駛列車的障礙檢測,(3)解釋飛行性能,(4) 解釋具有內置解釋功能的航班延誤預測系統,(5) 一個大規模的合同管理系統,通過知識圖譜上的語義推理預測和解釋企業項目的風險等級; (6) 一個費用系統,識別、解釋和預測500多個城市的大型組織員工的異常費用索賠; (7) 一個信貸決策解釋系統,(8) 醫療條件解釋系統,以及其他8個行業用例。

付費5元查看完整內容

反事實估計器允許使用現有日志數據來估計一些新的目標推薦策略將如何執行(如果使用它而不是記錄數據的策略)。我們說那些估計器“off-policy”工作,因為記錄數據的策略與目標策略不同。通過這種方式,反事實估計器支持類似于無偏離線A/B測試的Off-policy Evaluation (OPE),以及通過Off-policy learning (OPL)學習新的推薦策略。本教程的目標是總結OPE/OPL的基礎、實現和最新進展。具體來說,我們將介紹OPE/OPL的基本原理,并提供傳統方法的理論和經驗比較。然后,我們將討論正在出現的實際挑戰,如如何考慮組合行動、分配轉移、曝光的公平性和雙邊市場結構。然后我們將展示Open Bandit Pipeline,一個用于OPE/OPL的開源包,以及如何將它用于研究和實際目的。我們將通過展示真實世界的案例研究和未來的方向來結束本教程。

交互式決策系統如廣告/推薦/搜索平臺產生的日志數據對評估和重新設計系統有價值。例如,新聞推薦系統的日志記錄了哪些新聞文章出現過,以及用戶是否閱讀過它,這給了系統設計師重新設計其推薦的機會,使其更相關。然而,利用日志盜版者數據比傳統的監督機器學習要困難得多,因為結果只觀察到系統選擇的動作,而不是系統可能采取的所有其他動作。日志也有偏差,因為它們過度反映了系統偏愛的操作。這個問題的一個潛在解決方案是A/B測試,在在線環境中比較競爭系統的性能。然而,A/B測試系統通常很困難,因為部署新策略既費時又費錢,還會帶來失敗的風險。這激發了OPE/OPL的問題,該問題旨在評估新策略的性能或僅使用過去策略收集的日志數據對其進行訓練。

由于它們的實際意義,對OPE/OPL的理論和方法研究越來越多。然而,將這些方法應用到實際應用中并不總是簡單的,因為在實踐中可能會出現許多挑戰,例如組合/連續操作、分布轉移和公開需求的公平性。本教程旨在彌合OPE/OPL理論和實踐之間的差距。具體來說,我們將介紹OPE/OPL的基本原理,并從理論和經驗的角度對傳統方法進行比較。然后,我們將介紹該領域最近的進展,以應對正在出現的實際挑戰。然后我們將展示一個開源包Open Bandit Pipeline1[15],以及它如何幫助我們實現用于研究和實際目的的OPE/OPL。我們還將介紹真實世界的案例研究和未來的方向。

Tutorial Outline 目錄內容

Off-Policy Evaluation (Thorstem Joachims; 30min) Setup and Foundations Bias-Variance Control (Yuta Saito; 35min) Advanced Off-Policy Estimators Recent Advances (Yuta Saito; 35min) Off-Policy Evaluation for Practical Settings Off-Policy Learning (Thorsten Joachims; 40min) Learning Approaches and Methods Implementations (Yuta Saito; 30min) Open Bandit Pipeline Summary and QA (Both presenters; 10min)

付費5元查看完整內容

深入機器學習模型的超參數調優,關注什么是超參數以及它們是如何工作的。這本書討論了超參數調優的不同技術,從基礎到高級方法。

這是一個循序漸進的超參數優化指南,從什么是超參數以及它們如何影響機器學習模型的不同方面開始。然后通過一些基本的(蠻力的)超參數優化算法。進一步,作者提出了時間和內存約束的問題,使用分布式優化方法。接下來,您將討論超參數搜索的貝葉斯優化,它從以前的歷史中學習。

這本書討論了不同的框架,如Hyperopt和Optuna,它們實現了基于順序模型的全局優化(SMBO)算法。在這些討論中,您將關注不同的方面,比如搜索空間的創建和這些庫的分布式優化。

機器學習中的超參數優化創建了對這些算法如何工作的理解,以及如何在現實生活中的數據科學問題中使用它們。最后一章總結了超參數優化在自動機器學習中的作用,并以創建自己的AutoML腳本的教程結束。

超參數優化是一項繁瑣的任務,所以請坐下來,讓這些算法來完成您的工作。

//link.springer.com/book/10.1007/978-1-4842-6579-6#about

你會:

了解超參數的變化如何影響模型的性能。

將不同的超參數調優算法應用于數據科學問題

使用貝葉斯優化方法創建高效的機器學習和深度學習模型

使用一組機器來分配超參數優化

利用超參數優化方法實現自動機器學習

付費5元查看完整內容

大多數大型在線推薦系統,如新聞推送排名、人員推薦、工作推薦等,通常都有多個實用工具或指標需要同時優化。經過訓練以優化單一效用的機器學習模型通過參數組合在一起,生成最終的排名函數。這些組合參數驅動業務指標。找到正確的參數選擇通常是通過在線A/B實驗,這是非常復雜和耗時的,特別是考慮到這些參數對指標的非線性影響。

在本教程中,我們將討論如何應用貝葉斯優化技術為這樣復雜的在線系統獲取參數,以平衡競爭性指標。首先,我們將深入介紹貝葉斯優化,包括一些基礎知識以及該領域的最新進展。其次,我們將討論如何將一個真實世界的推薦系統問題制定為一個可以通過貝葉斯優化解決的黑盒優化問題。我們將專注于一些關鍵問題,如新聞推送排名、人員推薦、工作推薦等。第三,我們將討論解決方案的架構,以及我們如何能夠為大規模系統部署它。最后,我們將討論該領域的擴展和一些未來的發展方向。

//sites.google.com/view/ijcai2020-linkedin-bayesopt/home

付費5元查看完整內容
北京阿比特科技有限公司