亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

推薦系統(RS)在信息搜索方面已經取得了巨大的成功。近年來,為了更好地擬合用戶行為數據,人們進行了大量的推薦模型研究。然而,用戶行為數據是觀察性的,而不是實驗性的。這使得各種偏差廣泛存在于數據中,包括但不限于選擇偏差、位置偏差、暴露偏差。盲目擬合數據而不考慮固有偏差會導致許多嚴重的問題,例如,離線評估和在線指標之間的差異,損害用戶對推薦服務的滿意度和信任等。為了將大量的研究模型轉化為實際的改進,迫切需要探索偏差的影響,并在必要時制定去偏策略。因此,推薦系統中的偏倚問題及其解決方法引起了學術界和業界的高度關注。

在本教程中,我們旨在系統地回顧關于這個主題的現有工作。我們將介紹推薦系統中的七種偏見,以及它們的定義和特點;調研現有的去偏解決方案及其優缺點;并確定一些開放的挑戰和未來的方向。我們希望本教程能激發更多關于這個主題的想法,并促進去偏推薦系統的開發。

//recsys.acm.org/recsys21/tutorials/#content-tab-1-5-tab

付費5元查看完整內容

相關內容

推薦系統,是指根據用戶的習慣、偏好或興趣,從不斷到來的大規模信息中識別滿足用戶興趣的信息的過程。推薦推薦任務中的信息往往稱為物品(Item)。根據具體應用背景的不同,這些物品可以是新聞、電影、音樂、廣告、商品等各種對象。推薦系統利用電子商務網站向客戶提供商品信息和建議,幫助用戶決定應該購買什么產品,模擬銷售人員幫助客戶完成購買過程。個性化推薦是根據用戶的興趣特點和購買行為,向用戶推薦用戶感興趣的信息和商品。隨著電子商務規模的不斷擴大,商品個數和種類快速增長,顧客需要花費大量的時間才能找到自己想買的商品。這種瀏覽大量無關的信息和產品過程無疑會使淹沒在信息過載問題中的消費者不斷流失。為了解決這些問題,個性化推薦系統應運而生。個性化推薦系統是建立在海量數據挖掘基礎上的一種高級商務智能平臺,以幫助電子商務網站為其顧客購物提供完全個性化的決策支持和信息服務。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

在當今日益互聯的世界,圖挖掘在許多現實世界的應用領域發揮著關鍵作用,包括社交網絡分析、建議、營銷和金融安全。人們作出了巨大的努力來發展廣泛的計算模型。然而,最近的研究表明,許多被廣泛應用的圖挖掘模型可能會受到潛在的歧視。圖挖掘的公平性旨在制定策略以減少挖掘過程中引入或放大的偏差。在圖挖掘中加強公平性的獨特挑戰包括: (1)圖數據的非iid性質的理論挑戰,這可能會使許多現有研究背后的公平機器學習的基本假設無效,(2) 算法挑戰平衡模型準確性和公平性的困境。本教程旨在(1)全面回顧圖挖掘方面最先進的技術,(2)確定有待解決的挑戰和未來的趨勢。特別是,我們首先回顧了背景、問題定義、獨特的挑戰和相關問題;然后,我們將重點深入概述(1)在圖挖掘背景下實施群體公平、個人公平和其他公平概念的最新技術,以及(2)圖上算法公平的未來研究方向。我們相信,本教程對數據挖掘、人工智能、社會科學等領域的研究人員和實踐者具有吸引力,并對現實世界的眾多應用領域有益。

//jiank2.web.illinois.edu/tutorial/cikm21/fair_graph_mining.html

付費5元查看完整內容

最佳長論文獎

對YouTube上錯誤信息過濾泡沫的審計:泡沫破裂和最近的行為變化

錯誤信息過濾氣泡在自適應系統中的負面影響已經為研究人員所知有一段時間了。幾項研究調查了用戶僅僅從提供的商品中選擇“錯誤選項”進入錯誤信息過濾泡沫的速度,其中最顯著的是YouTube上的研究。然而,到目前為止,還沒有研究調查“泡沫破裂”需要什么,也就是說,恢復泡沫外殼。我們提出了一項研究,在這項研究中,預編程的代理(扮演YouTube用戶)通過觀看虛假信息推廣內容(針對各種主題)深入到虛假信息過濾氣泡中。然后,通過觀察虛假信息揭穿內容,代理試圖打破泡沫,達到更平衡的推薦組合。我們記錄了特工們遇到的搜索結果和建議,并分析了它們是否存在錯誤信息。我們的關鍵發現是,過濾氣泡的破裂是可能的,盡管不同的主題表現不同。此外,我們觀察到過濾氣泡在某些情況下并沒有真正出現。我們還與之前的研究進行了直接比較。遺憾的是,盡管YouTube最近做出了承諾,但我們并未發現錯誤信息的出現有多大改善。

//dl.acm.org/doi/10.1145/3460231.3474241

最佳學生論文

從用戶互動中老虎機學習的方法通常需要一個特定上下文-動作組合將產生的獎勵模型——例如,點擊推薦的概率。這種常見的機器學習任務非常重要,因為上下文和動作的數據生成過程往往受到推薦系統本身的扭曲。事實上,當在數據收集時間部署的推薦策略不是均勻隨機地選擇其行動時,就會導致選擇偏差,從而阻礙有效的獎勵模型。這反過來又使離線策略學習——行業中的典型設置——變得特別具有挑戰性。在這項工作中,我們提出并驗證了一般的悲觀獎勵模型方法的離線策略學習的推薦。貝葉斯不確定性估計允許我們對自己的獎勵模型表示懷疑,而這反過來又可以用來生成保守的決策規則。我們展示了它是如何緩解眾所周知的決策現象,即所謂的優化者的詛咒,并將其與現有的悲觀策略學習工作進行比較。當脊回歸器對獎勵進行建模時,利用后驗均值和方差的可用封閉形式表達式,我們展示了如何有效地將悲觀主義應用到離線策略推薦用例中。在廣泛的環境中進行的經驗觀察表明,在決策過程中保持保守可以顯著地提高推薦性能。我們方法的優點在現實環境中表現得最為明顯,即有限的日志隨機性、有限的訓練樣本和更大的行動空間。

最佳Demo

我們提出了Grapevine,一個用戶控制的推薦,使本科生和研究生找到一個合適的研究建議。該系統通過使用最先進的知識提取、基于grape的推薦和智能用戶界面,結合了探索性搜索、用戶建模和推薦系統等領域的思想。在本文中,我們演示了系統的關鍵組件以及它們如何作為一個整體工作。

付費5元查看完整內容

反事實估計器允許使用現有日志數據來估計一些新的目標推薦策略將如何執行(如果使用它而不是記錄數據的策略)。我們說那些估計器“off-policy”工作,因為記錄數據的策略與目標策略不同。通過這種方式,反事實估計器支持類似于無偏離線A/B測試的Off-policy Evaluation (OPE),以及通過Off-policy learning (OPL)學習新的推薦策略。本教程的目標是總結OPE/OPL的基礎、實現和最新進展。具體來說,我們將介紹OPE/OPL的基本原理,并提供傳統方法的理論和經驗比較。然后,我們將討論正在出現的實際挑戰,如如何考慮組合行動、分配轉移、曝光的公平性和雙邊市場結構。然后我們將展示Open Bandit Pipeline,一個用于OPE/OPL的開源包,以及如何將它用于研究和實際目的。我們將通過展示真實世界的案例研究和未來的方向來結束本教程。

交互式決策系統如廣告/推薦/搜索平臺產生的日志數據對評估和重新設計系統有價值。例如,新聞推薦系統的日志記錄了哪些新聞文章出現過,以及用戶是否閱讀過它,這給了系統設計師重新設計其推薦的機會,使其更相關。然而,利用日志盜版者數據比傳統的監督機器學習要困難得多,因為結果只觀察到系統選擇的動作,而不是系統可能采取的所有其他動作。日志也有偏差,因為它們過度反映了系統偏愛的操作。這個問題的一個潛在解決方案是A/B測試,在在線環境中比較競爭系統的性能。然而,A/B測試系統通常很困難,因為部署新策略既費時又費錢,還會帶來失敗的風險。這激發了OPE/OPL的問題,該問題旨在評估新策略的性能或僅使用過去策略收集的日志數據對其進行訓練。

由于它們的實際意義,對OPE/OPL的理論和方法研究越來越多。然而,將這些方法應用到實際應用中并不總是簡單的,因為在實踐中可能會出現許多挑戰,例如組合/連續操作、分布轉移和公開需求的公平性。本教程旨在彌合OPE/OPL理論和實踐之間的差距。具體來說,我們將介紹OPE/OPL的基本原理,并從理論和經驗的角度對傳統方法進行比較。然后,我們將介紹該領域最近的進展,以應對正在出現的實際挑戰。然后我們將展示一個開源包Open Bandit Pipeline1[15],以及它如何幫助我們實現用于研究和實際目的的OPE/OPL。我們還將介紹真實世界的案例研究和未來的方向。

Tutorial Outline 目錄內容

Off-Policy Evaluation (Thorstem Joachims; 30min) Setup and Foundations Bias-Variance Control (Yuta Saito; 35min) Advanced Off-Policy Estimators Recent Advances (Yuta Saito; 35min) Off-Policy Evaluation for Practical Settings Off-Policy Learning (Thorsten Joachims; 40min) Learning Approaches and Methods Implementations (Yuta Saito; 30min) Open Bandit Pipeline Summary and QA (Both presenters; 10min)

付費5元查看完整內容

現代推薦系統(RS)使用各種機器學習(ML)模型為用戶提供個性化推薦。盡管ML模型在推薦方面取得了巨大的成功,但對于競爭對手來說,它們往往不夠強大,后者可能會采取措施將推薦轉化為惡意結果。在2000年至2015年期間,人工設計的假檔案(又稱先令攻擊)的注入是研究的重點,過去幾年的特點是對抗機器學習(AML)技術的崛起,即基于機器學習的方法來攻擊和防御RS。

在本教程中,我們將概述RS中的AML應用,特別是,我們將介紹RS中的AML使用的雙重分類:一種基于對抗性攻擊和防御研究的分類,針對模型參數、內容數據或用戶元素交互; 二是利用生成對抗網絡(GAN)提出新的推薦模型。

//www.ecir2021.eu/tutorials/

目錄內容:

引言 對抗機器學習 生成式對抗網絡 對抗學習推薦系統

付費5元查看完整內容

2021年第14屆國際網絡搜索與數據挖掘會議WSDM將在2021年3月8日到12日于線上舉行。今年此次會議共收到了603份有效投稿,最終錄取篇數為112篇,錄取率為18.6%。在WSDM上,有關于《偏見感知推薦系統的進展》教程值得關注!

排名和推薦系統在當今的網絡平臺上扮演著關鍵角色,肯定會影響到大量用戶的信息搜索行為。然而,這些系統是根據經常傳遞不平衡和不平等的數據進行訓練的,這些模式可能在系統提供給最終用戶的結果中被捕捉和強調,從而產生偏見,提供不公平的結果。鑒于偏見信息尋求成為一個威脅,

(1) 研究跨學科概念和問題空間,

(2) 制定和設計一個bias-aware算法管道,和

(3)和減輕落地的偏見的影響,同時保留底層系統的有效性,正在迅速成為熱門的研究熱點。

本教程是圍繞這個主題組織的,向WSDM社區介紹了在評估和緩解推薦系統中的數據和算法偏差方面的最新進展。我們將首先介紹概念基礎,通過調研當前的技術狀態和描述真實世界的例子,從幾個角度(例如,倫理和系統的目標)偏見如何影響推薦算法。

本教程將繼續系統地介紹算法解決方案,以便在推薦設計過程中發現、評估和減少偏見。然后,一個實用的部分將向與會者提供處理前、處理中和處理后消除偏見算法的具體實現,利用開源工具和公共數據集。在本部分中,教程參與者將參與偏倚對策的設計,并闡明對利益相關者的影響。最后,我們將分析這個充滿活力和迅速發展的研究領域中出現的開放問題和未來的方向,從而結束本教程。

//biasinrecsys.github.io/wsdm2021/

付費5元查看完整內容

大多數大型在線推薦系統,如新聞推送排名、人員推薦、工作推薦等,通常都有多個實用工具或指標需要同時優化。經過訓練以優化單一效用的機器學習模型通過參數組合在一起,生成最終的排名函數。這些組合參數驅動業務指標。找到正確的參數選擇通常是通過在線A/B實驗,這是非常復雜和耗時的,特別是考慮到這些參數對指標的非線性影響。

在本教程中,我們將討論如何應用貝葉斯優化技術為這樣復雜的在線系統獲取參數,以平衡競爭性指標。首先,我們將深入介紹貝葉斯優化,包括一些基礎知識以及該領域的最新進展。其次,我們將討論如何將一個真實世界的推薦系統問題制定為一個可以通過貝葉斯優化解決的黑盒優化問題。我們將專注于一些關鍵問題,如新聞推送排名、人員推薦、工作推薦等。第三,我們將討論解決方案的架構,以及我們如何能夠為大規模系統部署它。最后,我們將討論該領域的擴展和一些未來的發展方向。

//sites.google.com/view/ijcai2020-linkedin-bayesopt/home

付費5元查看完整內容

第14屆推薦系統頂級會議ACM RecSys在9月22日到26日在線舉行。來自意大利Polytechnic University of Turin做了關于對抗推薦系統的教程《Adversarial Learning for Recommendation: Applications for Security and Generative Tasks – Concept to Code》,186頁ppt,干貨內容,值得關注。

//recsys.acm.org/recsys20/tutorials/#content-tab-1-3-tab

對抗式機器學習(AML)是從識別計算機視覺任務中的漏洞(如圖像分類)開始,研究現代機器學習(ML)推薦系統中的安全問題的研究領域。

在本教程中,我們將全面概述AML技術在雙重分類中的應用:(i)用于攻擊/防御目的的AML,以及(ii)用于構建基于GAN的推薦模型的AML。此外,我們將把RS中的AML表示與兩個實際操作會話(分別針對前面的分類)集成在一起,以顯示AML應用程序的有效性,并在許多推薦任務中推進新的想法和進展。

本教程分為四個部分。首先,我們總結了目前最先進的推薦模型,包括深度學習模型,并定義了AML的基本原理。在此基礎上,我們提出了針對RSs的攻擊/防御策略的對抗性推薦框架和基于GAN實踐環節。最后,我們總結了這兩種應用的開放挑戰和可能的未來工作。

付費5元查看完整內容

【導讀】國際萬維網大會(The Web Conference,簡稱WWW會議)是由國際萬維網會議委員會發起主辦的國際頂級學術會議,創辦于1994年,每年舉辦一屆,是CCF-A類會議。WWW 2020將于2020年4月20日至4月24日在中國臺灣臺北舉行。本屆會議共收到了1129篇長文投稿,錄用217篇長文,錄用率為19.2%。這周會議已經召開。來自美國Linkedin、AWS等幾位學者共同給了關于在工業界中可解釋人工智能的報告,講述了XAI概念、方法以及面臨的挑戰和經驗教訓。

人工智能在我們的日常生活中扮演著越來越重要的角色。此外,隨著基于人工智能的解決方案在招聘、貸款、刑事司法、醫療和教育等領域的普及,人工智能對個人和職業的影響將是深遠的。人工智能模型在這些領域所起的主導作用已經導致人們越來越關注這些模型中的潛在偏見,以及對模型透明性和可解釋性的需求。此外,模型可解釋性是在需要可靠性和安全性的高風險領域(如醫療和自動化交通)以及具有重大經濟意義的關鍵工業應用(如預測維護、自然資源勘探和氣候變化建模)中建立信任和采用人工智能系統的先決條件。

因此,人工智能的研究人員和實踐者將他們的注意力集中在可解釋的人工智能上,以幫助他們更好地信任和理解大規模的模型。研究界面臨的挑戰包括 (i) 定義模型可解釋性,(ii) 為理解模型行為制定可解釋性任務,并為這些任務開發解決方案,最后 (iii)設計評估模型在可解釋性任務中的性能的措施。

在本教程中,我們將概述AI中的模型解譯性和可解釋性、關鍵規則/法律以及作為AI/ML系統的一部分提供可解釋性的技術/工具。然后,我們將關注可解釋性技術在工業中的應用,在此我們提出了有效使用可解釋性技術的實踐挑戰/指導方針,以及在幾個網絡規模的機器學習和數據挖掘應用中部署可解釋模型的經驗教訓。我們將介紹不同公司的案例研究,涉及的應用領域包括搜索和推薦系統、銷售、貸款和欺詐檢測。最后,根據我們在工業界的經驗,我們將確定數據挖掘/機器學習社區的開放問題和研究方向。

//sites.google.com/view/www20-explainable-ai-tutorial

付費5元查看完整內容
北京阿比特科技有限公司