亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【作者介紹】
 Pin-Yu Chen (陳品諭):IBM Research AI,MIT-IBM Watson AI Lab研究員, RPI-IBM AIRC項目首席科學家。研究重點是對抗性機器學習和神經網絡的魯棒性,即可信賴機器學習。

【教程介紹】

對抗性機器學習 (AdvML) 是機器學習 (ML) 和人工智能 (AI) 中發展最快的研究領域之一。它研究最先進的機器學習模型(如神經網絡)的對抗魯棒性,從識別當前機器學習系統局限性的攻擊、增強模型對各種對抗性威脅的性能的防御到量化魯棒性水平的驗證工具用于不同的應用。

與專注于對抗性攻擊、防御或驗證方法的傳統對抗性機器學習 (AdvML) 教程不同,本教程旨在提供一個全新的概述,說明如何以完全不同的方式使用相同的技術來造福于主流機器學習任務并促進該研究領域的可持續發展。

除了 AdvML 的最新進展之外,本教程旨在提供有關“AdvML 的下一步是什么”的新方面,即永遠的對抗性機器學習。“永遠”一詞有雙重含義——新穎的創新和可持續性。

首先,本教程將介紹新興的和新穎的應用程序,這些應用程序利用 AdvML 的經驗來使主流 ML 任務受益,這與評估和提高對抗性魯棒性的最初目標不同。這些示例包括 (i) 生成對比解釋和反事實示例;(ii) 數據高效遷移學習的模型重新編程;(iii) 用于人工智能治理和所有權監管的模型水印和指紋識別;(iv) 隱藏數據以增強隱私。其次,隨著與對抗性魯棒性相關的提交數量呈爆炸式增長,本教程旨在從研究規范和倫理、當前趨勢、開放挑戰和未來等方面討論這一年輕研究領域在持續和有機增長方面的可持續性方向。目標受眾將是熟悉 AdvML 的 ML/AI 研究人員,以及有興趣進入該領域的研究人員。演講者還將分享他對工業實踐的看法。

【教程提綱】

  • 當前趨勢:介紹對抗機器學習(攻擊、防御、驗證)的最新進展
  • 受 AdvML 啟發的創新
    • 生成對比解釋和反事實示例(Dhurandhar et al. 2018; Luss et al.2021)
    • 用于數據高效遷移學習的模型重新編程(Tsai、Chen 和 Ho 2020;Yang、Tsai 和 Chen 2021; Vinod、Chen 和 Das 2020)
    • 用于 AI 治理和所有權監管的模型水印和指紋識別(Aramoon、Chen 和 Qu 2021;Wang 等人 2021)
    • 數據隱藏以增強隱私和數據安全性(Shan et al. 2020; Sablayrolles et al. 2020)
    • 用于改進模型泛化的數據增強 (Hsu et al. 2021)
    • 詞嵌入中的語義偏移檢測(Gruppi、Adali 和 Chen 2021)
    • 魯棒文本驗證碼 (Shao et al. 2021)
    • 分子優化 (Hoffman et al. 2022)
  • AdvML研究的可持續性
付費5元查看完整內容

相關內容

最近的研究表明,許多NLP系統對輸入的微小擾動非常敏感和脆弱,并且不能很好地在不同的數據集上進行泛化。這種魯棒性的缺乏阻礙了NLP系統在真實應用中的使用。本教程旨在讓人們意識到有關NLP魯棒性的實際問題。它的目標是對構建可靠的NLP系統感興趣的NLP研究人員和實踐者。特別地,我們將回顧最近關于分析NLP系統在面對對抗輸入和分布轉移數據時的弱點的研究。我們將為觀眾提供一個全面的視角

如何使用對抗性的例子來檢查NLP模型的弱點并促進調試; 如何增強現有NLP模型的魯棒性和對抗輸入的防御; 對魯棒性的考慮如何影響我們日常生活中使用的真實世界的NLP應用。 我們將通過概述這一領域未來的研究方向來結束本教程。

//robustnlp-tutorial.github.io

付費5元查看完整內容

在當今日益互聯的世界,圖挖掘在許多現實世界的應用領域發揮著關鍵作用,包括社交網絡分析、建議、營銷和金融安全。人們作出了巨大的努力來發展廣泛的計算模型。然而,最近的研究表明,許多被廣泛應用的圖挖掘模型可能會受到潛在的歧視。圖挖掘的公平性旨在制定策略以減少挖掘過程中引入或放大的偏差。在圖挖掘中加強公平性的獨特挑戰包括: (1)圖數據的非iid性質的理論挑戰,這可能會使許多現有研究背后的公平機器學習的基本假設無效,(2) 算法挑戰平衡模型準確性和公平性的困境。本教程旨在(1)全面回顧圖挖掘方面最先進的技術,(2)確定有待解決的挑戰和未來的趨勢。特別是,我們首先回顧了背景、問題定義、獨特的挑戰和相關問題;然后,我們將重點深入概述(1)在圖挖掘背景下實施群體公平、個人公平和其他公平概念的最新技術,以及(2)圖上算法公平的未來研究方向。我們相信,本教程對數據挖掘、人工智能、社會科學等領域的研究人員和實踐者具有吸引力,并對現實世界的眾多應用領域有益。

//jiank2.web.illinois.edu/tutorial/cikm21/fair_graph_mining.html

付費5元查看完整內容

ACM Multimedia 2021于10月20日至24日在中國成都舉辦,20日主要日程為Workshop和Tutorial。

多媒體分析研究近年來取得了長足進展,相關技術在單項測試中的準確率達到甚至超過了人類水平,正逐步實現從“不能用”到“可以用”的技術跨越。然而,在醫療診斷、無人駕駛等強安全相關的應用領域,由于魯棒性差、違背常識倫理、無法測試調試等問題,距離“很好用”仍有一段距離。10月20日下午北京交通大學組織了"可信賴多媒體分析"的Tutorial,探討多媒體分析從"可以用"到"很好用"的技術解決方案。Tutorial共分為四個部分:

  • 可信賴多媒體分析:知識蒸餾中的兩種虛假相關性
  • 準確性兼容的公平性計算
  • 良性對抗攻擊:對抗隱私保護
  • 可信賴用戶建模:解釋性、魯棒性、公平性、隱私和安全性

報告內容

Trustworthy Multimedia Analysis: the Two Types of Spurious Correlations in Distilling Human Knowledge

可信賴多媒體分析:知識蒸餾中的兩種虛假相關性

報告人:桑基韜

//faculty.bjtu.edu.cn/9129/

從引入人類知識中獲得的兩種虛假關聯開始,我們沿著任務相關和語義兩個維度劃分(視覺)特征空間。可信多媒體分析理論上依賴于與任務相關的語義特征,由訓練、可解釋和測試三個模塊組成。這三個模塊基本上構成了一個閉環,分別處理提取任務相關特征、提取任務相關語義特征,糾正虛假相關目標。

Accuracy-compatible Fairness Computing in Multimedia

準確性兼容的公平性計算

報告人:張翼

多年來,多媒體計算研究主要在關注算法的準確性,期待算法能夠擁有人類水平的多媒體理解能力。近年來,隨著以深度學習為代表的技術突破,算法已經表現出超越人類的準確率,比如在圖像識別和閱讀理解等任務中。然而,隨著算法在真實世界的大規模部署,也暴露出了算法存在歧視和偏見的潛在問題,越來越多的研究者開始關注算法的公平性問題。本報告以消除圖像識別中的算法不公平為例,基于算法偏見的來源提出兩個方法消除圖像識別中的算法偏見,并且兼容了算法準確性。具體的,我們從訓練和測試的角度出發,分別消除數據和模型中對任務不相關特征的依賴,而不改變對任務相關特征的依賴。因此在保證模型準確性的同時,實現了算法公平。

Benign Adversarial Attack: Adversarial Privacy-preserving

良性對抗攻擊:對抗隱私保護

報告人:張家明

關于對抗樣本的研究近些年成為了學界中的熱點,圍繞著對抗樣本的對抗攻擊(Adversarial attack)和對抗防御(Adversarial defense)也層出不窮。然而,目前學界的主流理解還是將其視為人工智能算法的一個漏洞,并試圖解決它。本報告從另一個角度出發,不再將對抗樣本當作一個漏洞,而是剖析了它的三個特點:可以被作為算法的特征(Utilizable as feature)、只會對算法產生影響(Exclusive to algorithm)、算法對其十分敏感(Inevitable for vulnerability)。本報告根據對抗樣本的以上三個特點,介紹并討論了三種良性的應用場景:對抗數據增強(Adversarial data augmentation)、對抗圖靈測試(Adversarial Turing Test)、隱私保護(Privacy-preserving)。

Trustworthy User Modeling

可信賴用戶建模

報告人:黃曉雯

用戶在社會媒體中的角色既是內容的生產者,又是社會媒體服務的終極目標。個性化服務需要了解用戶的喜好和興趣,就需要從用戶的網絡平臺行為數據中分析和理解用戶,進行用戶建模,推測用戶的未知屬性或興趣。用戶建模具有極高的應用價值,如:多媒體檢索、推薦系統、精準營銷和各式各樣的個性化服務等。本報告以推薦系統這一下游應用為例,介紹可信賴用戶建模。多年來,推薦系統主要關注系統效益(Effectiveness)、效率(Efficiency)、全面性(Sufficiency)和多樣性(Diversity)等方面。隨著可信賴人工智能的發展,可信賴用戶建模強調關注解釋性(Explainability)、魯棒性(Robustness)、公平性(Fairness)、隱私和安全性(Privacy and Security)。本報告介紹了上述四個方面的相關定義、研究進展、評估方式和未來工作。

本次tutorial slides下載地址:

付費5元查看完整內容

隨著機器學習黑盒越來越多地部署在醫療保健和刑事司法等領域,人們越來越重視構建工具和技術,以事后方式解釋這些黑盒。這些解釋正被領域專家用來診斷系統性錯誤和黑盒的潛在偏見。然而,最近的研究揭示了流行的事后解釋技術的弱點。在本教程中,我將簡要概述事后解釋方法,特別強調特征歸因方法,如LIME和SHAP。然后,我將討論最近的研究,這些研究表明,這些方法是脆弱的,不穩定的,并容易受到各種對抗性攻擊。最后,我將提出兩種解決方案,以解決這些方法的一些漏洞:(I)一個基于對抗性訓練的通用框架,旨在使事后解釋更穩定,更魯棒,以應對底層數據的變化,(ii) 貝葉斯框架,捕獲與事后解釋相關的不確定性,從而允許我們生成滿足用戶指定的置信水平的可靠解釋。總的來說,本教程將提供可解釋機器學習這一新興領域的最新技術的概述。

//www.chilconference.org/tutorial_T04.html

付費5元查看完整內容

隨著異構醫療數據和先進的機器學習和數據挖掘技術(特別是深度學習方法)的爆炸式發展,我們現在有機會在醫療保健領域有所作為。在本教程中,我們將介紹最先進的深度學習方法及其實際應用,特別關注于探索不同類型醫療數據的獨特特征。上半部分將用于介紹挖掘結構化醫療數據方面的最新進展,包括計算表型、疾病早期檢測/風險預測和治療建議。在下半部分,我們將專注于針對非結構化醫療數據的挑戰,并介紹自動化ICD編碼的高級深度學習方法、可理解的醫學語言翻譯、臨床試驗挖掘和醫學報告生成。本教程適用于對將深度學習方法應用到醫療保健領域感興趣的學生、工程師和研究人員,前提知識很少。本教程將以開放式問題和問答環節結束。

//sites.psu.edu/kdd2021tutorial/

付費5元查看完整內容

2021年,CHI將首次來到日本,在東京西南方的橫濱市舉行。ACM (Association for Computing Machinery)CHI(計算系統人類因素會議)是人機交互領域最重要的國際會議。CHI(讀作“kai”)是世界各地研究者和實踐者齊聚一堂,探討交互技術最新進展的地方。CHI被普遍推崇為人機交互領域最具聲望的殿堂,每年吸引數千名國際參會者。

人工智能(AI)技術越來越多地用于在醫療保健、金融和就業等關鍵領域做出決策和執行自主任務。為了改進、競爭、建立適當的信任和更好地與人工智能系統交互,需要了解人工智能,這激發了學術界和公眾對可解釋人工智能(XAI)的極大興趣。一方面,快速增長的XAI技術集合允許在AI系統中合并不同的解釋風格。另一方面,通過人工智能解釋來提供令人滿意的用戶體驗需要以用戶為中心的方法和跨學科研究來連接用戶需求和技術支持。簡而言之,XAI是一個對HCI研究有著日益增長的需求和令人興奮的機會的領域。

本教程面向有志于開發和設計人工智能系統解釋功能的研究人員和實踐者,以及那些希望了解XAI文獻中的趨勢和核心主題的人。該課程將介紹一些可用的工具包,這些工具包有助于輕松地創建ML模型的解釋,包括AIX 360[1],這是一個全面的工具包,提供有關該主題的技術和教育資源,如XAI概念介紹、python代碼庫和教程。

我們也將借鑒我們自己的設計和研究XAI系統的經驗[3-8],以及從工業設計從業者[2]學習,討論機會和挑戰,把最先進的XAI技術融入AI系統,創造好的XAI用戶體驗,包括我們通過研究開發的“問題驅動的XAI設計流程”[9]。

//hcixaitutorial.github.io/

  • 什么是可解釋AI (XAI)?
  • XAI解決了哪些問題? XAI在不同研究領域(如機器學習、人機交互)的工作重點是什么?
  • 為什么XAI很重要?
  • XAI的動機是什么?XAI是負責任的人工智能的基礎?
  • 如何解釋人工智能?
  • XAI最先進的技術是什么?
  • 如何設計XAI用戶體驗?
  • XAI用戶體驗的設計方法和指導方針是什么?設計上的挑戰是什么?探索了哪些解決方案?
  • XAI從哪里開始呢?
  • 在哪里可以找到實現XAI技術和設計XAI UX的相關資源?

參考文獻:

[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.

[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020

[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019

[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020

[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021

[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021

[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021

[9] Liao, Q. V., Pribi?, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper

付費5元查看完整內容

第14屆推薦系統頂級會議ACM RecSys在9月22日到26日在線舉行。來自意大利Polytechnic University of Turin做了關于對抗推薦系統的教程《Adversarial Learning for Recommendation: Applications for Security and Generative Tasks – Concept to Code》,186頁ppt,干貨內容,值得關注。

//recsys.acm.org/recsys20/tutorials/#content-tab-1-3-tab

對抗式機器學習(AML)是從識別計算機視覺任務中的漏洞(如圖像分類)開始,研究現代機器學習(ML)推薦系統中的安全問題的研究領域。

在本教程中,我們將全面概述AML技術在雙重分類中的應用:(i)用于攻擊/防御目的的AML,以及(ii)用于構建基于GAN的推薦模型的AML。此外,我們將把RS中的AML表示與兩個實際操作會話(分別針對前面的分類)集成在一起,以顯示AML應用程序的有效性,并在許多推薦任務中推進新的想法和進展。

本教程分為四個部分。首先,我們總結了目前最先進的推薦模型,包括深度學習模型,并定義了AML的基本原理。在此基礎上,我們提出了針對RSs的攻擊/防御策略的對抗性推薦框架和基于GAN實踐環節。最后,我們總結了這兩種應用的開放挑戰和可能的未來工作。

付費5元查看完整內容

深度神經網絡(DNN)在各個領域的大量機器學習任務中取得了前所未有的成功。然而,在將DNN模型應用于諸如自動駕駛汽車和惡意軟件檢測等安全關鍵任務時,存在的一些反面例子給我們帶來了很大的猶豫。這些對抗例子都是故意制作的實例,無論是出現在火車上還是測試階段,都可以欺騙DNN模型,使其犯下嚴重錯誤。因此,人們致力于設計更健壯的模型來抵御對抗的例子,但它們通常會被新的更強大的攻擊擊垮。這種對抗性的攻擊和防御之間的軍備競賽近年來受到越來越多的關注。**在本教程中,我們將全面概述對抗性攻擊的前沿和進展,以及它們的對策。特別地,我們詳細介紹了不同場景下的不同類型的攻擊,包括閃避和中毒攻擊,白盒和黑盒攻擊。**我們還將討論防御策略如何發展以對抗這些攻擊,以及新的攻擊如何出現以打破這些防御。此外,我們將討論在其他數據域中的敵對攻擊和防御,特別是在圖結構數據中。然后介紹了Pytorch對抗式學習圖書館DeepRobust,旨在為該研究領域的發展搭建一個全面、易用的平臺。最后,我們通過討論對抗性攻擊和防御的開放問題和挑戰來總結本教程。通過我們的教程,我們的觀眾可以掌握對抗性攻擊和防御之間的主要思想和關鍵方法。

目錄內容: Part 1. Introduction about adversarial examples and robustness. Part 2. Algorithms for generating adversarial examples. Part 3. Defending algorithms and adaptive attacks. Part 4. Adversarial learning in Graph domain. Part 5. DeepRobust-- A Pytorch Repository for Adversarial learning.

付費5元查看完整內容

元學習是近幾年來AI最熱的研究方向之一,它可以學習如何去學習,因此可以被應用于小樣本學習等場景。Uber AI(優步人工智能)的高級研究經理Jeff Clune在NeurIPS 2019上做了關于元學習的教程。

深度學習很好地解決了傳統AI中特征工程的問題,用深度網絡自動提取特征取代了大量繁瑣的人工特征設計,使得我們可以基于標注數據有監督地訓練出高性能的AI模型。然而,由于許多深度學習模型的訓練需要依賴在目標任務上的大量人工標注,這些模型并不能很好地適應小樣本、多任務等場景。

元學習(Meta-Learning)方法學習如何去學習(Learning to Learn)。例如,通過Learning to Learn,一些元學習模型可以基于少量的樣本和較少的學習步驟學習可用的模型,并且,這些元學習模型具有泛化性,可在不同的任務上進行元學習。

在NeurIPS 2019上,Uber AI(優步人工智能)的高級研究經理Jeff Clune做了關于元學習的92頁教程《How Meta-Learning Could Help Us Accomplish Our Grandest AI Ambitions, and Early, Exotic Steps in that Direction》,總結了目前元學習的一些發展情況。

教程內容大致如下:

  • 人工是否是強大AI最快的方法?
  • AI生成算法
    • 元學習
    • 三個支柱
      • 元學習架構
      • 元學習算法
      • 生成環境
  • 外來元學習算法
    • 生成式教學網絡
    • 可微赫布可塑性
    • 可微神經模塊赫布可塑性
    • ANMML
    • POET
付費5元查看完整內容
北京阿比特科技有限公司