亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著時間的推移,從汽車、制藥到電子商務和銀行,大型網絡數據已經在大多數行業中無處不在。盡管最近做出了一些努力,但以有效和可擴展的方式在不斷變化的數據上使用時間圖神經網絡仍然是一項挑戰。本次演講展示了euroanova的研究軌跡之一。我們提供了直接適用于實際用例的相關持續學習方法的概述。由于可解釋性已成為值得信賴的AI的核心要素,我們引入了最先進的方法,用于解釋節點、鏈接或圖級預測。

付費5元查看完整內容

相關內容

從Netflix到我們的手機,人工智能/機器學習已經成為許多家用科技產品不可或缺的一部分。在這次演講中,我將從我帶領其中一些公司的人工智能團隊的經驗中,展示人工智能如何積極影響Netflix和Curai(在線遠程醫療服務公司)等不同的產品。

付費5元查看完整內容

深度學習在推薦系統中如何發揮作用是一個重要的問題。最近來自Netflix的文章詳細闡述了這一點指出:在建模用戶物品交互方面,深度學習相比傳統基線方法并無太大優勢,而對于異質特征的表示融入深度學習則具有很好建模性能。具體深入閱讀這篇論文

深度學習深刻地影響了機器學習的許多領域。然而,在推薦系統領域,它的影響需要一段時間才能感受到。在本文中,我們概述了在Netflix的推薦系統中使用深度學習所遇到的一些挑戰和經驗教訓。我們首先概述了Netflix服務上的各種推薦任務。我們發現不同的模型架構擅長于不同的任務。盡管許多深度學習模型可以被理解為現有(簡單)推薦算法的擴展,但我們最初并沒有發現在性能上有顯著的改善。只有當我們在輸入數據中添加了大量異構類型的特征時,深度學習模型才開始在我們的設置中嶄露頭角。我們還觀察到,深度學習方法可能會加劇離線-在線度量(錯誤)對齊的問題。在解決了這些挑戰之后,深度學習最終使我們的推薦在線下和線上都得到了很大的改進。在實踐方面,將深度學習工具箱集成到我們的系統中,可以更快更容易地實現和試驗各種推薦任務的深度學習和非深度學習方法。我們總結了一些可以推廣到Netflix之外的其他應用的經驗,以此來總結這篇文章。

//ojs.aaai.org/index.php/aimagazine/article/view/18140

在2010年代初,深度學習在機器學習領域開始嶄露頭角,這得益于在計算機視覺、語音識別和自然語言處理(NLP)等不同領域的各種任務上取得的令人印象深刻的結果。當時,在推薦系統研究界有一種說法:深度學習的浪潮是否也會席卷推薦系統,從而帶來巨大的改進?和其他許多人一樣,我們netflix對這個問題以及深度學習改善推薦的潛力很感興趣。雖然深度學習對于推薦系統的作用已經很明顯了,但是要想了解深度學習在哪些方面比現有的推薦方法更有優勢,卻是一項艱巨的任務。這可以從這種方法在研究界獲得關注花了多少年的時間得到證明。但這是一條有益的道路,隨后有關這一主題的大量工作證明了這一點。我們自己對Netflix深度學習的研究也走了類似的道路: 最初的興奮面對著需要精調方法的嚴酷現實。這使得我們對深度學習和其他推薦模型之間的關系有了更清晰的認識。當我們將這些方法的經驗教訓與不同深度學習方法所擅長的問題及其局限性相結合時,這些障礙就消失了。在此過程中,它還提供了如何讓深度學習在現實世界的推薦設置中工作的實踐經驗。

在本文中,我們首先概述了Netflix服務上的各種個性化任務,并重點介紹了Netflix服務上的電影和電視節目的個性化排名這一關鍵任務。然后,我們將討論在Netflix等推薦設置中可用的數據的幾個特定屬性,以及它們在創建推薦算法時帶來的實際挑戰。通過推薦的視角觀察深度學習,我們可以研究Netflix不同推薦任務的各種模型。由此,我們將分享對幾個重要類型的模型的見解。首先,我們討論使用會員觀看視頻集的物品袋模型。雖然功能強大,但這些模型忽略了時間信息,因此我們隨后將討論解決這一缺陷的序列序模型。我們發現這兩種方法對于不同的任務都很有價值。經過深度學習方法最初的掙扎,我們的實驗表明,當我們為深度學習算法提供額外的異質特征和信息源時,它在推薦問題上開始特別有效。相比之下,其他模型在僅使用用戶-項目交互數據的經典推薦設置中仍然具有競爭力(這是文獻中經常出現的情況,參見Ferrari Dacrema、Cremonesi和Jannach(2019)),當這些方法被適當調整時。然而,這種深度學習模型的靈活性允許我們找到這樣的場景:我們可以構建在歷史數據上評估的離線指標中獲得巨大改進的模型。

在發現離線指標的改進后,我們隨后發現,這些收益(即使非常大)并不總是能夠轉化為與真實成員進行的A/B測試中的在線性能。為了解決這個問題,我們需要新的離線指標來更好地替代在線指標。除此之外,我們還將介紹在支持數億用戶的推薦系統中使用深度學習所需的其他實踐方面。現有的深度學習工具箱提供了一個靈活的框架,使得在實踐中開發和修改推薦系統的模型體系結構非常容易。

最后,在我們集中討論在Netflix推薦系統中使用深度學習的關鍵經驗的同時,我們也會概述一些可以推廣到其他應用的經驗。

NetFlix推薦系統

我們在Netflix的推薦系統的主要任務是幫助我們的會員發現他們會觀看和享受的內容,以最大化他們的長期滿意度。這是一個具有挑戰性的問題,原因有很多,包括每個人都是獨一無二的,在不同的環境下有不同的興趣,當他們不確定他們想看什么時,最需要一個推薦系統。做好這一點意味著每個成員都能獲得獨特的體驗,從而最大限度地利用Netflix。作為一個月訂閱服務,會員的滿意度與一個人保留我們服務的可能性緊密相連,這直接影響我們的收入。因此,一個推薦系統的價值可以通過會員留存率的增加來衡量。經過多年的個性化和推薦技術的發展,我們能夠不斷地在保留度上創造有意義的改進(Gomez-Uribe和Hunt 2015)。

建模方法

在本節中,我們將概述在試驗各種深度學習模型以獲得推薦時的學習情況,從簡單的基線到更復雜的方法。我們將這些模型分為以下兩組: 項目袋方法和序列序模型。還討論了兩種類型的模型所共有的屬性。在此之后,我們描述了我們的關鍵見解,即深度學習推薦算法擅長于結合許多異質特征。相比之下,我們發現,當只使用用戶-物品交互時,經過良好調整的簡單模型具有很好的性能(正如文獻中經常出現的情況,參見Ferrari Dacrema, Cremonesi和Jannach(2019))。

結論

深度學習模型的成功并在Netflix推薦系統中被廣泛采用,為機器學習研究和工程提供了寶貴的學習經驗。特別是,用一種新的方法(深度學習)來解決現有的問題(例如,傳統的推薦系統)有時只會帶來有限的好處。事實上,當只使用用戶項交互數據時,經過良好調優的傳統方法是非常強的基線。深度學習可以有效地解決傳統方法難以解決的新問題,比如為時域找到好的表示,或者擴展輸入的范圍和模態,比如圖像、文本和視頻。在推薦問題的傳統框架之外應用這些技術,將會帶來相當大的改進。

另一方面,強大的深度學習模型的使用也會放大推薦系統的弱點,例如,短期代理目標的過度擬合可能與長期目標(如用戶滿意度)不一致。找到更好地編碼這些長期目標的方法,以及測量長期用戶滿意度的受控實驗,是關鍵。

使用深度學習的另一個積極的副作用是其卓越的機器學習軟件堆棧。它能夠更快地進行模型訓練、實現、部署和調試,并更好地支持現有的基礎設施。許多最初在機器學習的其他領域開發的深度學習模型,如NLP,已經成功地適應于推薦系統領域。雖然這種交叉交流可能會繼續下去,但我們也希望開發出新的方法,這些新方法甚至更具體地適用于可用數據的屬性和各種推薦任務。

付費5元查看完整內容

圖結構數據是許多應用領域的組成部分,包括化學信息學、計算生物學、神經成像和社會網絡分析。在過去的二十年中,人們提出了許多圖的核函數,即圖之間的核函數,來解決圖之間的相似性評估問題,從而使分類和回歸設置中進行預測成為可能。這篇手稿提供了對現有圖內核、它們的應用、軟件和數據資源的回顧,并對最先進的圖內核進行了實證比較。

//arxiv.org/abs/2011.03854

摘要:

在機器學習中常用的數據結構中,圖可以說是最通用的一種。圖允許將復雜對象建模為實體(節點)和這些實體(邊)之間關系的集合,每個實體都可以通過元數據(如分類或矢量節點和邊特征)進行注釋。許多普遍存在的數據類型可以被理解為圖形的特殊情況,包括非結構化矢量數據以及結構化數據類型,例如時間序列、圖像、體積數據、點云或實體包等。最重要的是,許多應用程序受益于基于圖形表示提供的額外靈活性。

本文共分為兩部分: 第一部分是對常見圖核的理論描述。在第2章簡要介紹了圖理論和內核之后,我們在第3章對相關的圖內核進行了詳細的描述、類型和分析。我們將詳細介紹不同內核之間的關系,并簡要介紹它們對某些類型數據的適用性。第4章的第二部分著重于對圖核的大規模經驗評估,以及對基準數據集的理想屬性和需求的描述。在第5章中,我們概述了圖核的未來趨勢和面臨的挑戰,以此來結束我們的綜述。

付費5元查看完整內容

【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。這周會議已經召開。來自美國Linkedin、AWS等幾位學者共同給了關于在工業界中可解釋人工智能的報告,講述了XAI概念、方法以及面臨的挑戰和經驗教訓。

人工智能在我們的日常生活中扮演著越來越重要的角色。此外,隨著基于人工智能的解決方案在招聘、貸款、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響將是深遠的。人工智能模型在這些領域所起的主導作用已經導致人們越來越關注這些模型中的潛在偏見,以及對模型透明性和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療和自動化交通)以及具有重大經濟意義的關鍵工業應用(如預測維護、自然資源勘探和氣候變化建模)中建立信任和采用人工智能系統的先決條件。

因此,人工智能的研究人員和實踐者將他們的注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括 (i) 定義模型可解釋性,(ii) 為理解模型行為制定可解釋性任務,并為這些任務開發解決方案,最后 (iii)設計評估模型在可解釋性任務中的性能的措施。

在本教程中,我們將概述AI中的模型解譯性和可解釋性、關鍵規則/法律以及作為AI/ML系統的一部分提供可解釋性的技術/工具。然后,我們將關注可解釋性技術在工業中的應用,在此我們提出了有效使用可解釋性技術的實踐挑戰/指導方針,以及在幾個網絡規模的機器學習和數據挖掘應用中部署可解釋模型的經驗教訓。我們將介紹不同公司的案例研究,涉及的應用領域包括搜索和推薦系統、銷售、貸款和欺詐檢測。最后,根據我們在工業界的經驗,我們將確定數據挖掘/機器學習社區的開放問題和研究方向。

//sites.google.com/view/www20-explainable-ai-tutorial

付費5元查看完整內容

【導讀】2020 年 2 月 7 日-2 月 12 日,AAAI 2020 于美國紐約舉辦。AAAI2020關于可解釋人工智能的Tutorial引起了人們極大的關注,這場Tutorial詳細闡述了解釋黑盒機器學習模型的術語概念以及相關方法,涵蓋基礎、工業應用、實際挑戰和經驗教訓,是構建可解釋模型的重要指南.

可解釋AI:基礎、工業應用、實際挑戰和經驗教訓

?

地址//xaitutorial2020.github.io/

Tutorial 目標 本教程的目的是為以下問題提供答案:

  • 什么是可解釋的AI (XAI)

    • 什么是可解釋的AI(簡稱XAI) ?,人工智能社區(機器學習、邏輯學、約束編程、診斷)的各種流有什么解釋?解釋的度量標準是什么?
  • 我們為什么要關心?

    • 為什么可解釋的AI很重要?甚至在某些應用中至關重要?闡述人工智能系統的動機是什么?
  • 哪里是關鍵?

    • 在大規模部署人工智能系統時,真正需要解釋的實際應用是什么?
  • 它是如何工作的?

    • 在計算機視覺和自然語言處理中,最先進的解釋技術是什么?對于哪種數據格式、用例、應用程序、行業,什么有效,什么沒有效?
  • 我們學到了什么?

    • 部署現有XAI系統的經驗教訓和局限性是什么?在向人類解釋的過程中?
  • 下一個是什么?

    • 未來的發展方向是什么?

概述

人工智能的未來在于讓人們能夠與機器合作解決復雜的問題。與任何有效的協作一樣,這需要良好的溝通、信任、清晰和理解。XAI(可解釋的人工智能)旨在通過結合象征性人工智能和傳統機器學習來解決這些挑戰。多年來,所有不同的AI社區都在研究這個主題,它們有不同的定義、評估指標、動機和結果。

本教程簡要介紹了XAI迄今為止的工作,并調查了AI社區在機器學習和符號化AI相關方法方面所取得的成果。我們將激發XAI在現實世界和大規模應用中的需求,同時展示最先進的技術和最佳實踐。在本教程的第一部分,我們將介紹AI中解釋的不同方面。然后,我們將本教程的重點放在兩個特定的方法上: (i) XAI使用機器學習和 (ii) XAI使用基于圖的知識表示和機器學習的組合。對于這兩種方法,我們將詳細介紹其方法、目前的技術狀態以及下一步的限制和研究挑戰。本教程的最后一部分概述了XAI的實際應用。

Freddy Lecue博士是加拿大蒙特利爾泰勒斯人工智能技術研究中心的首席人工智能科學家。他也是法國索菲亞安提波利斯溫姆斯的INRIA研究所的研究員。在加入泰雷茲新成立的人工智能研發實驗室之前,他曾于2016年至2018年在埃森哲愛爾蘭實驗室擔任人工智能研發主管。在加入埃森哲之前,他是一名研究科學家,2011年至2016年在IBM research擔任大規模推理系統的首席研究員,2008年至2011年在曼徹斯特大學(University of Manchester)擔任研究員,2005年至2008年在Orange Labs擔任研究工程師。

目錄與內容

第一部分: 介紹和動機

人工智能解釋的入門介紹。這將包括從理論和應用的角度描述和激發對可解釋的人工智能技術的需求。在這一部分中,我們還總結了先決條件,并介紹了本教程其余部分所采用的不同角度。

第二部分: 人工智能的解釋(不僅僅是機器學習!)

人工智能各個領域(優化、知識表示和推理、機器學習、搜索和約束優化、規劃、自然語言處理、機器人和視覺)的解釋概述,使每個人對解釋的各種定義保持一致。還將討論可解釋性的評估。本教程將涵蓋大多數定義,但只深入以下領域: (i) 可解釋的機器學習,(ii) 可解釋的AI與知識圖和機器學習。

第三部分: 可解釋的機器學習(從機器學習的角度)

在本節中,我們將處理可解釋的機器學習管道的廣泛問題。我們描述了機器學習社區中解釋的概念,接著我們描述了一些流行的技術,主要是事后解釋能力、設計解釋能力、基于實例的解釋、基于原型的解釋和解釋的評估。本節的核心是分析不同類別的黑盒問題,從黑盒模型解釋到黑盒結果解釋。

第四部分: 可解釋的機器學習(從知識圖譜的角度)

在本教程的這一節中,我們將討論將基于圖形的知識庫與機器學習方法相結合的解釋力。

第五部分: XAI工具的應用、經驗教訓和研究挑戰

我們將回顧一些XAI開源和商業工具在實際應用中的例子。我們關注一些用例:i)解釋自動列車的障礙檢測;ii)具有內置解釋功能的可解釋航班延誤預測系統;(三)基于知識圖譜的語義推理,對企業項目的風險層進行預測和解釋的大范圍合同管理系統;iv)識別、解釋和預測500多個城市大型組織員工異常費用報銷的費用系統;v)搜索推薦系統說明;vi)解釋銷售預測;(七)貸款決策說明;viii)解釋欺詐檢測。

付費5元查看完整內容
北京阿比特科技有限公司