亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著基于機器學習(ML)系統在醫學、軍事、汽車、基因組以及多媒體和社交網絡等多種應用中的廣泛應用,對抗式學習(AL)攻擊(adversarial learning attacks)有很大的潛在危害。此篇AL的綜述,針對統計分類器的攻擊的防御。在介紹了相關術語以及攻擊者和維護者的目標和可能的知識范圍后,我們回顧了最近在test-time evasion (TTE)、數據中毒(DP)和反向工程(RE)攻擊方面的工作,特別是針對這些攻擊的防御。在此過程中,我們將魯棒分類與異常檢測(AD)、無監督和基于統計假設的防御和無攻擊(no attack)假設的防御區分開來;我們識別了特定方法所需的超參數、其計算復雜性以及評估其性能的指標和質量。然后,我們深入挖掘,提供新的見解,挑戰傳統智慧,并針對尚未解決的問題,包括:1)穩健的分類與AD作為防御策略;2)認為攻擊的成功程度隨攻擊強度的增加而增加,這忽略了對AD的敏感性;3)test-time evasion (TTE)攻擊的小擾動:謬誤或需求?4)一般假設的有效性,即攻擊者知道要攻擊的示例的真實程度;5)黑、灰或白盒攻擊作為防御評估標準;6)基于查詢的RE對廣告防御的敏感性。 然后,我們給出了幾種針對TTE、RE和DP攻擊圖像的防御的基準比較。論文最后討論了持續的研究方向,包括檢測攻擊的最大挑戰,其目的不是改變分類決策,而是簡單地嵌入“假新聞”或其他虛假內容,而不被發現。

付費5元查看完整內容

相關內容

 機器學習的一個分支,它基于試圖使用包含復雜結構或由多重非線性變換構成的多個處理層對數據進行高層抽象的一系列算法。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

基于協同過濾(CF)的潛在因素模型(LFM),如矩陣分解(MF)和深度CF方法,由于其良好的性能和推薦精度,在現代推薦系統(RS)中得到了廣泛的應用。盡管近年來取得了巨大的成功,但事實表明,這些方法易受對抗性例子的影響,即,這是一種微妙但非隨機的擾動,旨在迫使推薦模型產生錯誤的輸出。這種行為的主要原因是,用于LFM訓練的用戶交互數據可能會受到惡意活動或用戶誤操作的污染,從而導致不可預測的自然噪聲和危害推薦結果。另一方面,研究表明,這些最初設想用于攻擊機器學習應用程序的系統可以成功地用于增強它們對攻擊的魯棒性,以及訓練更精確的推薦引擎。在這方面,本調查的目標有兩方面:(i)介紹關于AML-RS的最新進展,以保障AML-RS的安全性。(ii)展示了AML在生成對抗網絡(GANs)中的另一個成功應用,生成對抗網絡(GANs)使用了AML學習的核心概念(即用于生成應用程序。在這項綜述中,我們提供了一個詳盡的文獻回顧60篇文章發表在主要的RS和ML雜志和會議。這篇綜述為RS社區提供了參考,研究RS和推薦模型的安全性,利用生成模型來提高它們的質量。

付費5元查看完整內容

隨著高計算設備的發展,深度神經網絡(DNNs)近年來在人工智能(AI)領域得到了廣泛的應用。然而,之前的研究表明,DNN在經過策略性修改的樣本(稱為對抗性樣本)面前是脆弱的。這些樣本是由一些不易察覺的擾動產生的,但可以欺騙DNN做出錯誤的預測。受圖像DNNs中生成對抗性示例的流行啟發,近年來出現了針對文本應用的攻擊DNNs的研究工作。然而,現有的圖像擾動方法不能直接應用于文本,因為文本數據是離散的。在這篇文章中,我們回顧了針對這一差異的研究工作,并產生了關于DNN的電子對抗實例。我們對這些作品進行了全面的收集、選擇、總結、討論和分析,涵蓋了所有相關的信息,使文章自成一體。最后,在文獻回顧的基礎上,我們提出了進一步的討論和建議。

付費5元查看完整內容

【導讀】對抗攻擊防御研究用于提升深度學習的魯棒性,是當下的關注焦點。最近,中山大學等學者發布了最新關于圖對抗學習綜述論文,19頁pdf83篇文獻,對在圖形分析任務中對現有的攻防工作進行了梳理和統一,同時給出了適當的定義和分類。此外,我們強調了相關評價指標的重要性,并對其進行了全面的調查和總結。

圖數據的深度學習模型在節點分類、鏈路預測、圖數據聚類等各種圖數據分析任務中都取得了顯著的效果。然而,它們暴露了對于設計良好輸入的不確定性和不可靠性, 對抗樣本。因此,在不同的圖數據分析任務中,出現了各種攻擊和防御的研究,從而導致了圖數據對抗學習中的競爭。例如,攻擊者有投毒和逃避攻擊,防御組相應地有基于預處理和對抗的方法。

盡管工作蓬勃發展,但仍然缺乏統一的問題定義和全面的調研綜述。為了彌補這一不足,我們對已有的關于圖對抗學習任務的研究進行了系統的總結。具體來說,我們在圖形分析任務中對現有的攻防工作進行了梳理和統一,同時給出了適當的定義和分類。此外,我們強調了相關評價指標的重要性,并對其進行了全面的調查和總結。希望我們的工作可以為相關研究者提供參考,為他們的研究提供幫助。更多關于我們工作的細節,

請訪問

//github.com/gitgiter/Graph-Adversarial-Learning

在過去的幾十年里,深度學習已經成為人工智能領域的皇冠上的寶石,在語音和語言處理[72,18]、人臉識別[45]和目標檢測[33]等各種應用中都表現出了令人印象深刻的表現。然而,最近頻繁使用的深度學習模型被證明是不穩定和不可靠的,因為它們容易受到干擾。例如,一張圖片上幾個像素的細微變化,對于人眼來說是難以察覺的,但是對于深度學習模型[44]的輸出卻有很大的影響。此時,定義良好并通過反向傳播學習的深度學習模型具有固有的盲點和非直觀特征,應該以明顯的[59]方式推廣到數據分布中。

圖作為一種強大的表示方法,在現實的[25]中有著重要的作用和廣泛的應用。當然,深度學習對圖形的研究也是一個熱門話題,并在不同的領域帶來了許多令人耳目一新的實現,如社交網絡[46]、電子商務網絡[64]和推薦系統[14,71]。不幸的是,作為機器學習關鍵領域的圖分析領域也暴露了深度學習模型在受到精心設計的攻擊時的脆弱性[81,83]。例如,考慮到節點分類的任務,攻擊者通常控制多個假節點,目的是欺騙目標分類器,通過在這些節點與其他良性節點之間添加或刪除邊緣,從而導致誤分類。通常,這些惡意節點被稱為“攻擊者節點”,而其他受害節點被稱為“受影響節點”。如圖1所示,在一個干凈的圖上執行了小的擾動(增加了兩個鏈接,改變了幾個節點的特征),這導致了圖學習模型的錯誤分類。

隨著對圖數據模型安全性的日益關注,圖數據對抗學習的研究也隨之興起。,一個研究圖數據模型安全性和脆弱性的領域。一方面,從攻擊圖數據學習模型的角度出發,[81]首先研究了圖數據的對抗性攻擊,在節點特征和圖結構受干擾較小的情況下,目標分類器容易對指定的節點進行欺騙和誤分類。另一方面,[65]提出了一種改進的圖卷積網絡(GCNs)模型,該模型具有對抗防御框架,以提高魯棒性。此外,[55]研究了現有的圖數據攻防對抗策略的工作,并討論了它們的貢獻和局限性。然而,這些研究主要集中在對抗性攻擊方面,而對防御方面的研究較少。

挑戰 盡管關于圖表對抗學習的研究大量涌現,但仍然存在一些需要解決的問題。i) 統一與具體的形式化。目前的研究都是將圖對抗學習的問題定義和假設用自己的數學形式化來考慮,大多沒有詳細的解釋,這使得比較和跟進更加困難。ii) 相關評價指標。而對于不同的任務,對應性能的評價指標也有很大的不同,甚至有不同的標準化。此外,圖對抗學習場景的特殊度量還沒有被探索,例如,對攻擊影響的評估。

對于公式和定義不一致的問題,我們考察了現有的攻防工作,給出了統一的定義,并從不同的角度進行了劃分。雖然已經有了一些努力[81,37,19]來概括定義,但大多數公式仍然對自己的模型進行定制。到目前為止,只有一篇文章[55]從綜述的角度概述了這些概念,這不足以全面總結現有的工作。在前人研究的基礎上,我們總結了不同類型的圖,并按層次介紹了三個主要任務,分別在3.1節和4.1節給出了攻擊和防御的統一公式。

自然地,不同的模型伴隨著許多量化的方法,其中提供了一些新的度量。為了幫助研究人員更好地量化他們的模型,也為了系統地總結度量標準,我們在第5節中對度量標準進行了更詳細的討論。特別地,我們首先介紹了防御和攻擊的一些常見度量,然后介紹了它們各自工作中提供的三個類別的度量:有效性、效率和不可感知性。例如,攻擊成功率(ASR)[9]和平均防御率(ADR)[10]分別被用來衡量攻擊和防御的有效性。

綜上所述,我們的貢獻如下:

  • 我們深入研究了這一領域的相關工作,并對當前防御和攻擊任務中不統一的概念給出了統一的問題公式和明確的定義。
  • 我們總結了現有工作的核心貢獻,并根據防御和攻擊任務中合理的標準,從不同的角度對其進行了系統的分類。
  • 我們強調了相關指標的重要性,并對其進行了全面的調查和總結。
  • 針對這一新興的研究領域,我們指出了現有研究的局限性,并提出了一些有待解決的問題
付費5元查看完整內容

【簡介】深度神經網絡(DNNs)在各項任務上都取得了不俗的表現。然而,最近的研究表明通過對輸入進行很小的擾動就可以輕易的騙過DNNs,這被稱作對抗式攻擊。作為DNNs在圖上的擴展,圖神經網絡(GNNs)也繼承了這一缺陷。對手通過修改圖中的一些邊等操作來改變圖的結構可以誤導GNNs作出錯誤的預測。這一漏洞已經引起了人們對在安全領域關鍵應用中采用GNNs的極大關注,并在近年來引起了越來越多的人的研究興趣。因此,對目前的圖對抗式攻擊和反制措施進行一個全面的梳理和回顧是相當有必要的。在這篇綜述中,我們對目前的攻擊和防御進行了分類,以及回顧了相關表現優異的模型。最后,我們開發了一個具有代表性算法的知識庫,該知識庫可以使我們進行相關的研究來加深我們對基于圖的攻擊和防御的理解。

付費5元查看完整內容

簡介

近年來,由于機器學習(ML)/深度學習(DL)技術使用多維醫學圖像,在從一維心臟信號的心臟驟停的預測到計算機輔助診斷(CADx)的各種醫療保健應用中的卓越性能,見證了機器學習(ML)/深度學習(DL)技術的廣泛采用。盡管ML / DL的性能令人印象深刻,但對于ML / DL在醫療機構中的健壯性仍然存有疑慮(由于涉及眾多安全性和隱私問題,傳統上認為ML / DL的挑戰性很大),尤其是鑒于最近的研究結果表明ML / DL容易受到對抗性攻擊。在本文中,我們概述了醫療保健中各個應用領域,這些領域從安全性和隱私性的角度利用了這些技術,并提出了相關的挑戰。此外,我們提出了潛在的方法來確保醫療保健應用程序的安全和隱私保護機器學習。最后,我們提供了有關當前研究挑戰的見解以及未來研究的有希望的方向。

內容大綱

付費5元查看完整內容

簡介:

近年來,由于機器學習(ML)/深度學習(DL)技術使用多維醫學圖像,在從一維心臟信號的心臟驟停的預測到計算機輔助診斷(CADx)的各種醫療保健應用中的卓越性能,見證了機器學習(ML)/深度學習(DL)技術的廣泛采用。盡管ML / DL的性能令人印象深刻,但對于ML / DL在醫療機構中的健壯性仍然存有疑慮(由于涉及眾多安全性和隱私問題,傳統上認為ML / DL的挑戰性很大),尤其是鑒于最近的研究結果表明ML / DL容易受到對抗性攻擊。在本文中,我們概述了醫療保健中各個應用領域,這些領域從安全性和隱私性的角度利用了這些技術,并提出了相關的挑戰。此外,我們提出了潛在的方法來確保醫療保健應用程序的安全和隱私保護機器學習。最后,我們提供了有關當前研究挑戰的見解以及未來研究的有希望的方向。

內容大綱:

付費5元查看完整內容

論文題目: Adversarial Attacks and Defenses in Images, Graphs and Text: A Review

簡介: 深度神經網絡(DNN)在不同領域的大量機器學習任務中取得了前所未有的成功。然而,對抗性例子的存在引起了人們對將深度學習應用于對安全性有嚴苛要求的應用程序的關注。因此,人們對研究不同數據類型(如圖像數據、圖數據和文本數據)上的DNN模型的攻擊和防御機制越來越感興趣。近期,來自密歇根州立大學的老師和同學們,對網絡攻擊的主要威脅及其成功應對措施進行系統全面的綜述。特別的,他們在這篇綜述中,針對性的回顧了三種流行數據類型(即、圖像數據、圖數據和文本數據)。

付費5元查看完整內容

異常檢測是一個在各個研究領域和應用領域內得到廣泛研究的重要問題。本研究的目的有兩個方面:首先,我們對基于深度學習的異常檢測的研究方法進行了系統全面的綜述。此外,我們還回顧了這些方法對不同應用領域異常的應用,并評估了它們的有效性。我們根據所采用的基本假設和方法,將最先進的研究技術分為不同的類別。在每一類中,我們概述了基本的異常檢測技術,以及它的變體,并給出了關鍵的假設,以區分正常行為和異常行為。對于我們介紹的每一類技術,我們還介紹了它們的優點和局限性,并討論了這些技術在實際應用領域中的計算復雜性。最后,我們概述了研究中的未決問題和采用這些技術時所面臨的挑戰。

付費5元查看完整內容
北京阿比特科技有限公司