數據驅動的推薦系統在各種Web應用程序中表現出了巨大的成功,這歸功于機器學習模型從大量的歷史用戶行為中識別模式(即相關性)的非凡能力。然而,這些模型仍然存在一些問題,如由于虛假相關性而產生的偏差和不公平。考慮數據背后的因果機制可以避免非因果關系帶來的偽相關的影響。在這種情況下,采用因果推薦建模是一個令人興奮和有前途的方向。因此,因果推薦越來越受到我們推薦界的關注。然而,由于缺乏對這一課題的系統概述,導致研究者和實踐者難以理解和跟上這一方向。
在本教程中,我們將介紹因果關系的關鍵概念,并對因果推薦方面的現有工作進行系統回顧。我們將介紹來自兩種不同因果框架的現有方法——潛在結果框架和結構性因果模型。我們將舉例并討論如何在這兩個框架下利用不同的因果工具來建模和解決推薦中的問題。將對這兩種工作進行比較,以便理解它們之間的區別和聯系。此外,我們確定了一些開放的挑戰和潛在的未來發展方向。我們希望本教程可以激發更多關于這個主題的想法,并促進因果關系感知推薦系統的發展。
目錄內容:
Part 0: 引用 introduction (15 Min). Part1: 潛在結果 potential outcome framework for recommendation (60~70 Min). Q&A (5 Min). Break (10 Min). Part2: 結構因果模型 structural causal model for recommendation (60~70 Min). Part3: comparison between the two frameworks (5 Min). Part4: open problems, future directions, and conclusions (20 Min). Q&A (5 Min).
推薦系統能夠為每個用戶提供個性化的建議,已經成為緩解我們日常生活中信息過載問題不可或缺的工具,尤其是在許多面向用戶的在線服務中。它不僅方便了用戶尋找信息,也讓內容提供者有了更多的盈利潛力。近年來,在深度神經網絡(DNNs)的成功推動下,推薦技術在DNNs范式下取得了良好的性能。然而,現有的基于DNN的方法在實踐中存在一些缺陷。更具體地說,它們將每個交互視為一個單獨的數據實例,并忽略實例之間的關系。同時,他們將推薦過程視為一個靜態過程,采用固定的貪婪策略進行推薦。此外,大多數現有的基于DNN的推薦系統都是基于手工制作的特征、超參數和深度神經網絡架構。此外,大多數現有的深度推薦系統都容易受到對抗性攻擊。
在本教程中,我們旨在全面綜述在深度推薦系統中解決上述問題的先進技術的最新進展,包括圖神經網絡(GNNs)、深度強化學習(DRL)和自動機器學習(AutoML)。同時,我們將為推薦系統引入對抗性攻擊。通過這種方式,我們希望來自三個領域的研究人員對空間有一個深入的理解和準確的洞察,激發更多的想法和討論,并在推薦中推廣技術。
//lovvge.github.io/Forecasting-Tutorial-IJCAI-2021/
目錄:
Introduction 導論 Fundamentals of Deep Recommender Systems 深度推薦系統基礎 Reinforcement Learning for Recommender Systems 強化學習推薦系統 Graph Neural Networks for Recommendations 圖神經網絡推薦 Automated Machine Learning (AutoML) for Recommendations 自動機器學習推薦 Adversarial Attacks for Recommender Systems 推薦系統對抗攻擊 Deep Recommendations: Future Directions (Trustworthy RecSys) 深度推薦未來
推薦系統在我們的日常生活中發揮著越來越重要的作用,特別是在許多以用戶為導向的在線服務中,推薦系統在緩解信息過載問題方面發揮著重要作用。推薦系統的目標是通過利用用戶和物品的交互來提高匹配的準確性,識別出一組最符合用戶顯性或隱性偏好的對象(即物品)。
隨著深度神經網絡(DNNs)在過去幾十年的快速發展,推薦技術已經取得了良好的性能。然而,現有的基于DNN的方法在實踐中存在一些缺陷。更具體地說,他們認為推薦過程是一個靜態的過程,并按照一個固定的貪心策略進行推薦; 現有的大多數基于DNN的推薦系統都是基于手工制作的超參數和深度神經網絡架構;它們將每個交互視為單獨的數據實例,而忽略了實例之間的關系。
在本教程中,我們將全面介紹深度推薦系統中解決上述問題的先進技術的最新進展,包括深度強化學習(DRL)、自動機器學習(AutoML)和圖神經網絡(GNN)。
通過這種方式,我們希望這三個領域的研究人員能夠對空間有更深刻的理解和準確的洞察,激發更多的想法和討論,促進推薦技術的發展。
能夠解釋機器學習模型的預測在醫療診斷或自主系統等關鍵應用中是很重要的。深度非線性ML模型的興起,在預測方面取得了巨大的進展。然而,我們不希望如此高的準確性以犧牲可解釋性為代價。結果,可解釋AI (XAI)領域出現了,并產生了一系列能夠解釋復雜和多樣化的ML模型的方法。
在本教程中,我們結構化地概述了在深度神經網絡(DNNs)的背景下為XAI提出的基本方法。特別地,我們提出了這些方法的動機,它們的優點/缺點和它們的理論基礎。我們還展示了如何擴展和應用它們,使它們在現實場景中發揮最大的作用。
本教程針對的是核心和應用的ML研究人員。核心機器學習研究人員可能會有興趣了解不同解釋方法之間的聯系,以及廣泛的開放問題集,特別是如何將XAI擴展到新的ML算法。應用ML研究人員可能會發現,理解標準驗證程序背后的強大假設是很有趣的,以及為什么可解釋性對進一步驗證他們的模型是有用的。他們可能還會發現新的工具來分析他們的數據并從中提取見解。參與者將受益于技術背景(計算機科學或工程)和基本的ML訓練。
目錄內容:
Part 1: Introduction to XAI (WS) 可解釋人工智能
Part 2: Methods for Explaining DNNs (GM) 可解釋深度神經網絡方法
Part 3: Implementation, Theory, Evaluation, Extensions (GM) 實現,理論、評價
Part 4: Applications (WS) 應用