亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

氣候變化是當今社會面臨的最大挑戰之一,需要全社會迅速采取行動。在本教程中,我們將介紹氣候變化,解決它意味著什么,以及機器學習如何發揮作用。從能源到農業到災害響應,我們將描述機器學習可以幫助的高影響問題,例如,通過提供決策相關信息、優化復雜系統和加速科學實驗。這些問題包含了方法創新和實際實施的激動人心的機會。我們還將介紹機器學習研究人員和從業者參與的途徑,以及負責任的開發和部署此類工作的關鍵考慮因素。雖然本教程將主要討論機器學習幫助應對氣候變化的機會,但值得注意的是,機器學習是一種通用技術,可以用于幫助和阻礙氣候行動的應用。此外,機器學習有自己的計算和硬件足跡。因此,我們將簡要介紹一個框架,以理解和情境化機器學習的整體氣候影響,并描述機器學習研究和實踐的相關考慮。通過本教程的課程,我們希望參與者能夠更深入地了解氣候變化和機器學習是如何相互交織的,以及他們如何能夠通過使用他們的技能來幫助解決氣候危機。

付費5元查看完整內容

相關內容

國際機器學習大會(International Conference on Machine Learning,簡稱ICML ) 是由國際機器學習學會(IMLS)主辦的機器學習國際頂級會議,也是CCF-A類學術會議。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,錄用率為21.94%。

為了對圖結構數據建模,圖學習,特別是利用圖神經網絡的深度圖學習,最近引起了學術界和工業界的廣泛關注。目前流行的圖學習方法通常依賴于從“大”數據中學習,需要大量標注數據進行模型訓練。然而,通常圖與“小”標記數據關聯,作為數據注釋,在圖上標記總是耗時和消耗資源。因此,在有限甚至沒有標記數據的低資源環境下,研究人力監督下的圖學習是非常必要的。在本教程中,我們將專注于圖最小監督學習的最先進的技術,特別是一系列弱監督學習、少樣本學習和自監督學習方法的圖結構數據及其現實應用。本教程的目標是: (1) 對圖最小監督學習中的問題進行正式的分類,并討論不同學習場景下的挑戰; (2) 全面回顧了圖最小監督學習的現有和最新進展; (3) 闡明有待解決的問題和未來的研究方向。本教程介紹了最小監督學習中的主要主題,并為圖學習的新前沿提供了指南。我們相信本教程對研究人員和實踐者是有益的,允許他們在圖學習上合作。

//sites.google.com/asu.edu/kdd2022-tutorial-gmsl

本教程主要關注圖結構數據的最小監督學習(即弱監督學習、少樣本學習和自監督學習)的問題和技術。我們希望觀眾有機器學習、圖挖掘和圖神經網絡的一般背景知識。目標受眾是對該主題不熟悉或感興趣的學生、研究人員和從業人員。本教程將以研究生水平的講座形式進行。具備深度學習、圖挖掘和機器學習的基礎知識優先考慮,但不是必需的。我們將通過網站和社交媒體發布我們的教程信息。

近年來,我們從網絡世界的眾多平臺和物理世界的各種傳感器中生成和收集數據的能力迅速增長。圖作為一種公共語言,用于建模大量的結構化和關系系統,如社會網絡、知識圖譜和學術圖,其中實體被表示為節點,而它們的關系被表示為邊。最近,圖學習算法,尤其是基于圖神經網絡(GNNs)的算法[27,30]由于其在解決現實問題方面的重大影響而受到了廣泛的研究關注。為了利用數據之間的固有結構,圖學習在方法論上取得了重大進展,在不同領域的應用中產生了有前途的結果,從網絡安全[38]到自然語言處理[9]。

一般來說,現有的圖學習算法都專注于在訓練過程中能夠訪問到大量的人類注釋示例的設置。這種假設往往是不可行的,因為收集這些輔助知識是費力的,需要密集的領域知識,特別是考慮到圖結構數據的異構性[10,31]。因此,在有限或沒有標記訓練數據的不同低資源設置下研究圖學習是具有挑戰性的,但也是勢在必行的。其中,圖最小監督學習領域的三個基本問題引起了越來越多的研究關注: (1)圖弱監督學習(graph weaksupervised learning),即利用不完整、間接或不準確的監督信號來學習針對特定下游任務的有效GNN;(2)圖少樣本學習(Graph few -shot Learning),它的目標是在只有少數標簽實例可用的情況下處理不可見的任務(從新的標簽空間);(3)圖自監督學習(Graph Self-supervised Learning),旨在訓練任務無關的GNN或增強GNN在特定的下游任務上的能力,而不需要任何語義注釋。為了解決上述每個基本問題,最近研究人員將不同的機器學習技術應用于圖域,如數據增強[37]、元學習學習[29]和對比學習[21]。因此,我們組織本教程來回顧和討論圖最小監督學習的最新進展,并討論如何利用它們來解決現實世界的問題。

在本教程中,我們的目標是提供一個全面的審查這個新興的和重要的研究主題: 圖最小監督學習。我們將首先介紹圖學習的理論基礎,特別關注圖神經網絡。然后我們討論了圖最小監督學習的三個基本問題以及近年來的關鍵文獻。結合不同粒度級別上的主要圖挖掘任務(例如,節點分類、鏈接預測和圖分類),我們在每個類別中介紹了用于節點級、邊緣級和圖級任務的技術。最后,我們將介紹圖最小監督學習在不同領域的應用,并討論該研究領域的未來發展方向。在圖學習社區中,我們認為圖最小監督學習是一個具有重要社會影響的前沿研究課題,將吸引學術界和業界的研究人員和從業者。

**目錄 **

  • 介紹和概述。首先,我們將簡要介紹深度圖學習及其在低資源環境下面臨的挑戰,然后我們將涉及圖神經網絡[30]、元學習[13]、對比學習[2]等相關主題的一些基礎知識,并介紹圖最小監督學習的概述。

  • 圖弱監督學習。我們將介紹帶有弱監督的圖學習方法和應用。重點抓好監督不到位、間接監督和不準確監督三種薄弱監督。本部分將回顧圖自訓練[8,18]、圖主動學習[5,6,14]和圖遷移學習[7,11,31]等一系列學習技術。

  • 我們將介紹圖少樣本學習的方法和應用。具體來說,我們將介紹兩類方法:基于元梯度的方法[22,28,35,36]和基于度量學習的方法[10-12,16,31,34],以展示如何處理從未見過的節點、邊和圖。此外,我們還將討論圖零樣本學習[19,20,24]。

  • 圖自監督學習。我們將介紹圖自監督學習的方法和應用。具體來說,我們將涵蓋三種主要的范式,包括圖生成建模[3,4,17,23]、圖屬性預測[15,26]和圖對比學習[1,25,32,33]。

  • 結論和討論。我們將總結所涵蓋的主題并討論它們之間的聯系。并討論了本課題未來的研究方向。

講者:

付費5元查看完整內容

危機管理是北約的一項核心任務。今天,聯盟面臨著危機和緊急情況,必須在相當大的風險和時間壓力下采取行動。北約正在發展能力,以便在個案和協商一致的基礎上為有效的危機管理和災害預防作出貢獻。這將使聯盟能夠積極參與危機管理和災害管理,包括通過non-Article 第5條的危機應對行動。因此,聯盟提倡對軍事人員和文職人員進行聯合培訓,以促進建立信任。這些行動要求需要轉化為技術系統能力;這意味著實施技術解決方案,用于培訓和災害決策支持。

MSG-147項目和CMDR CoE的目標是開發一個參考架構并實施一個技術平臺,以便能夠快速有效地測試危機/災害和氣候變化應對計劃。開發工作包括研究、理論和概念開發、標準化和改善互操作性。該平臺將為危機管理和公民保護建立各種工具和模擬,這些工具和模擬是北約所特有的,并能實現非軍事行動

在這種情況下,建立模擬單元,使災害相關事件的數據在HLA環境中交換,并同時將這些信息(報告/單位條件)傳輸給軍事(北約和國家)和民用C2系統,是MSG-147小組技術性能的一個突出成果

本文件描述了德國對支持NMSG-147項目的貢獻所面臨的挑戰、開展的工作和取得的成果。德國的貢獻包括概念和技術兩方面的成就。CD&E(概念開發和實驗)方法被用來調查和驗證所產生的概念要求和技術解決方案。

為了能夠提供一個已實施的解決方案,開發了災難FOM模塊(與NETN FOM v2兼容并可集成),并成功進行了測試。對這一概念進行技術調查的一個特殊創新是應用CD&E方法和程序來評估M&S領域的新技術解決方案及其實施。

關鍵詞:自然災害、建模、仿真、聯邦對象模型、CBRN、野火、洪水、危機管理、培訓和教育、災害分析

提綱

  • 第一章 簡介
  • 第二章 問題描述
  • 第三章 M&S CDMP&CCI 決策支持系統
  • 第四章 技術架構
  • 第五章 危機管理和災害響應集成開發環境
  • 第六章 災難FOM開發
  • 第七章 項目結果

付費5元查看完整內容

深度神經網絡在計算機視覺、自然語言處理和機器人技術等領域取得了卓越的成就。然而,這些模型在理解我們周圍世界的能力,以及概括和適應新任務或環境的能力方面仍然是蒼白的。這個問題的一個可能的解決方案是理解因果關系的模型,因為這樣的模型可以推斷因果變量之間的聯系和干預對它們的影響。然而,現有的因果算法通常不能擴展,也不能適用于高度非線性的設置,它們也假設因果變量是有意義的和給定的。最近,為了解決上述挑戰,人們對因果關系和深度學習的交集產生了越來越多的興趣和研究活動,它們使用深度學習來受益于因果算法,反之亦然。本教程旨在為兩種受眾介紹因果關系和深度學習的基本概念,提供近期工作的概述,以及目前在這兩個領域研究的協同作用、挑戰和機會。

因果關系的深度學習

建模功能的關系 學習圖上的分布 表征是學習特征的豐富組成 潛在的因果變量

深度學習的因果關系

為什么DL有因果關系 DL中因果學習的基準 DL中因果學習的目標和架構 利用因果關系的概念來幫助DL

講者:


Nan Rosemary Ke是Deepmind的一名研究科學家,她的研究興趣是建立模型,通過理解因果關系來概括變化的任務和環境。在加入Deepmind之前,她是Mila的博士生,由Yoshua Bengio和Chris Pal擔任導師。她還獲得了Facebook獎學金,并在2020年被評為機器學習領域的一顆后起之星。Rosemary的研究興趣結合了深度學習和因果關系的見解;她一直致力于建立能夠充分理解因果關系的模型,以推斷因果變量之間的聯系以及干預對它們的影響。她的研究成果已在各大會議(NeurIPS, ICML, ICLR)上發表。

Stefan Bauer是斯德哥爾摩KTH的助理教授和CIFAR Azrieli全球學者。通過使用和開發因果關系、深度學習和真實機器人系統的工具,他的研究聚焦于人工智能的長期目標,即設計能夠跨環境和任務推斷經驗的機器。他在蘇黎世聯邦理工學院獲得計算機科學博士學位,并因杰出博士論文被授予蘇黎世聯邦理工學院獎章。在此之前,他畢業于蘇黎世聯邦理工學院(ETH Zurich),獲得數學學士學位和理學碩士學位,以及倫敦大學(LSE)的經濟學和金融學學士學位。在學習期間,他獲得了瑞士和德國國家功績基金會的獎學金。2019年,他獲得了機器學習國際會議(ICML)的最佳論文獎,2020年,他是云端機器人挑戰real-robot-challenge.com的主要組織者。

參考文獻:

Michael Ahn et al. "Do as i can, not as i say: Grounding language in robotic affordances." arXiv preprint arXiv:2204.01691 (2022).

Kartik Ahuja, Jason Hartford, and Yoshua Bengio. "Properties from mechanisms: an equivariance perspective on identifiable representation learning." NeurIPS (2021).

Martin Arjovsky et al. "Invariant risk minimization." arXiv preprint arXiv:1907.02893 (2019).

Ossama Ahmed, Frederik Tr?uble, Anirudh Goyal, Alexander Neitz, Yoshua Bengio, Bernhard Sch?lkopf, Manuel Wüthrich, and Stefan Bauer. Causalworld: A robotic manipulation benchmark for causal structure and transfer learning, ICLR, 2021.

Sara Beery, Grant Van Horn, and Pietro Perona. "Recognition in terra incognita." ECCV. 2018.

Matthew Botvinick et al. Reinforcement learning, fast and slow. Trends in cognitive sciences 2019.

Robert Geirhos, et al. "Shortcut learning in deep neural networks." Nature Machine Intelligence (2020).

付費5元查看完整內容

人工智能在現代社會中扮演著越來越重要的角色,因為曾經由人類做出的決策現在被委托給了自動化系統。這些系統目前負責決定銀行貸款、罪犯監禁和雇傭新員工,不難想象,很快它們將成為社會大多數決策基礎設施的基礎。盡管這項任務的風險很高,但人們仍然缺乏對這類系統的一些基本屬性的正式理解,包括公平性、問責制和透明度等問題。在本教程中,我們將介紹因果公平分析的框架,目的是填補這一空白,即理解、建模,并可能解決決策設置中的公平問題。我們的方法的主要見解將是將觀察到的數據中存在的差異的量化與最初產生差異的潛在的、往往未被觀察到的因果機制聯系起來。我們將研究分解變化的問題,這將導致構建公平的實證措施,將這種變化歸因于產生它們的因果機制。這種將差異歸因于特定因果機制的做法,將使我們能夠提出一個正式而實用的框架,以評估不同處理和影響的法律理論,同時考慮到業務的必要性。最后,通過新開發的框架,我們將得出與以往文獻的重要聯系,在因果推理領域內外。這一努力將在“公平地圖”中達到高潮,這是第一個根據其因果屬性(包括可接受性、可分解性和權力)對公平的多個衡量標準進行銜接和系統分類的工具。我們希望這一套新的原則、措施和工具可以幫助指導AI研究人員和工程師分析和/或開發與社會目標、期望和愿望一致的決策系統。

付費5元查看完整內容

這篇文章是關于實踐中的強化學習領域的溫和討論,關于機會和挑戰,涉及廣泛的主題,有觀點,沒有技術細節。本文基于歷史和最近的研究論文、調查、教程、談話、博客、書籍、(小組)討論和研討會/會議。不同的讀者群體,如研究人員、工程師、學生、經理、投資者、官員和想要更多地了解該領域的人,可能會發現這篇文章很有趣。在本文中,我們首先簡要介紹了強化學習(RL),以及它與深度學習、機器學習和人工智能的關系。然后,我們討論了RL的機會,特別是產品和服務、游戲、博弈、推薦系統、機器人、交通、金融和經濟、醫療保健、教育、組合優化、計算機系統和科學與工程。然后我們討論挑戰,特別是1)基礎 ,2)表示,3)獎勵,4)勘探、5)模型,模擬、規劃、和基準, 6)離線策略/離線學習,7)學會學習又名元學習,8)explainability和可解釋性,9)限制,10)軟件開發和部署,11)業務視角,還有更多的挑戰。我們以討論結束,試圖回答:“為什么RL還沒有在實踐中被廣泛采用?”和“在線學習什么時候有用?”

付費5元查看完整內容

本教程將是關于無監督學習和強化學習的交叉。隨著自然語言處理中基于語言模型的預訓練和計算機視覺中的對比學習的出現,無監督學習(UL)在過去幾年中真正得到了發展。在這些領域中,無監督預訓練的一些主要優勢是在下游有監督學習任務中出現的數據效率。在如何將這些技術應用于強化學習和機器人方面,社區中有很多人感興趣。考慮到問題的連續決策性質,RL和機器人技術比被動地從互聯網上的圖像和文本中學習面臨更大的挑戰,它可能不會那么簡單。本教程將涵蓋如何在強化學習中應用和使用無監督學習的基本模塊,希望人們可以帶回最新的最先進的技術和實踐的知識,以及在這個具有挑戰性和有趣的交叉領域的廣泛的未來可能性和研究方向。

//icml.cc/Conferences/2021/Schedule

付費5元查看完整內容

人類具有不斷從經驗中學習的非凡能力。我們不僅可以把以前學到的知識和技能運用到新的情況下,我們也可以把這些作為以后學習的基礎。人工智能(AI)的宏偉目標之一是構建一個人工的“持續學習”代理,通過自主增量開發越來越復雜的知識和技能,從自身經驗構建對世界的復雜理解(Parisi, 2019年)。然而,盡管有早期的推測和很少的先前工作(Ring, 1998; Thrun, 1998; Carlson, 2010),很少有研究和努力致力于解決這一愿景。當前人工智能系統深受新數據或新環境的影響,這些新數據或新環境與他們所接受的訓練稍有不同(Goodfellow, 2013)。此外,學習過程通常被限制在限定和孤立的任務內的固定數據集,這可能很難導致出現更復雜和自主的智能行為。從本質上講,持續學習和適應能力,雖然經常被認為是每一個智能代理的基本支柱,但大多被排除在主要的人工智能研究重點之外。

在本教程中,我們提出根據機器學習研究和人工智能深度架構(Lomonaco, 2019)的最新進展總結這些想法的應用。從一個動機和一個簡短的歷史開始,我們將最近的持續學習進展與之前在相關主題上的研究努力聯系起來,并總結了主要方法、基準和關鍵結果方面的最新進展。在教程的第二部分,我們計劃涵蓋更多關于低監督信號的持續學習的探索性研究,以及與其他范式的關系,如無監督,半監督和強化學習。我們還將強調神經科學的最新發現對原始持續學習算法設計的影響,以及它們在現實應用中的部署。最后,我們將強調持續學習的概念,作為可持續機器學習的關鍵技術推動者及其社會影響,并概述有趣的研究問題和未來值得解決的方向。

//sites.google.com/view/cltutorial-icml2021

付費5元查看完整內容

近年來,機器學習取得了顯著進展,提供了一些新功能,比如創建復雜的、可計算的文本和圖像表示。這些功能催生了新產品,如基于圖像內容的圖像搜索、多種語言之間的自動翻譯,甚至是真實圖像和聲音的合成。同時,機器學習已經在企業中被廣泛采用,用于經典的用例(例如,預測客戶流失、貸款違約和制造設備故障)。

在機器學習取得成功的地方,它是非常成功的。

在許多情況下,這種成功可以歸因于對大量訓練數據的監督學習(結合大量計算)。總的來說,有監督的學習系統擅長于一項任務:預測。當目標是預測一個結果,并且我們有很多這個結果的例子,以及與它相關的特征時,我們可能會轉向監督學習。

隨著機器學習的普及,它在業務流程中的影響范圍已經從狹窄的預測擴展到決策制定。機器學習系統的結果經常被用來設定信用限額,預測制造設備故障,以及管理我們的各種新聞推送。當個人和企業試圖從這些復雜和非線性系統提供的信息中學習時,更多(和更好)的可解釋性方法已經被開發出來,這是非常重要的。

然而,僅僅基于預測的推理有一些基本的限制。例如,如果銀行提高客戶的信用額度會發生什么?這些問題不能用建立在先前觀察到的數據上的相關模型來回答,因為它們涉及到客戶選擇的可能變化,作為對信用限額變化的反應。在很多情況下,我們的決策過程的結果是一種干預——一種改變世界的行動。正如我們將在本報告中展示的,純粹相關的預測系統不具備在這種干預下進行推理的能力,因此容易產生偏差。對于干預下的數據決策,我們需要因果關系。

即使對于純粹的預測系統(這是監督學習的強項),應用一些因果思維也會帶來好處。根據因果關系的定義,它們是不變的,這意味著它們在不同的情況和環境中都是正確的。對于機器學習系統來說,這是一個非常理想的特性,在機器學習系統中,我們經常根據我們在訓練中沒有看到的數據進行預測;我們需要這些系統具有適應性和健壯性。

因果推理和機器學習的交集是一個迅速擴展的研究領域。它已經產生了可供主流采用的功能——這些功能可以幫助我們構建更健壯、可靠和公平的機器學習系統。

本書介紹了因果推理,因為它涉及很多數據科學和機器學習工作。我們引入因果圖,著重于消除理解的概念障礙。然后我們利用這個理解來探索關于不變預測的最新想法,它給高維問題帶來了因果圖的一些好處。通過附帶的原型,我們展示了即使是經典的機器學習問題,如圖像分類,也可以從因果推理工具中受益。

付費5元查看完整內容

【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。這周會議已經召開。來自美國Linkedin、AWS等幾位學者共同給了關于在工業界中可解釋人工智能的報告,講述了XAI概念、方法以及面臨的挑戰和經驗教訓。

人工智能在我們的日常生活中扮演著越來越重要的角色。此外,隨著基于人工智能的解決方案在招聘、貸款、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響將是深遠的。人工智能模型在這些領域所起的主導作用已經導致人們越來越關注這些模型中的潛在偏見,以及對模型透明性和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療和自動化交通)以及具有重大經濟意義的關鍵工業應用(如預測維護、自然資源勘探和氣候變化建模)中建立信任和采用人工智能系統的先決條件。

因此,人工智能的研究人員和實踐者將他們的注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括 (i) 定義模型可解釋性,(ii) 為理解模型行為制定可解釋性任務,并為這些任務開發解決方案,最后 (iii)設計評估模型在可解釋性任務中的性能的措施。

在本教程中,我們將概述AI中的模型解譯性和可解釋性、關鍵規則/法律以及作為AI/ML系統的一部分提供可解釋性的技術/工具。然后,我們將關注可解釋性技術在工業中的應用,在此我們提出了有效使用可解釋性技術的實踐挑戰/指導方針,以及在幾個網絡規模的機器學習和數據挖掘應用中部署可解釋模型的經驗教訓。我們將介紹不同公司的案例研究,涉及的應用領域包括搜索和推薦系統、銷售、貸款和欺詐檢測。最后,根據我們在工業界的經驗,我們將確定數據挖掘/機器學習社區的開放問題和研究方向。

//sites.google.com/view/www20-explainable-ai-tutorial

付費5元查看完整內容
北京阿比特科技有限公司