亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【簡介】深度神經網絡(DNNs)在各項任務上都取得了不俗的表現。然而,最近的研究表明通過對輸入進行很小的擾動就可以輕易的騙過DNNs,這被稱作對抗式攻擊。作為DNNs在圖上的擴展,圖神經網絡(GNNs)也繼承了這一缺陷。對手通過修改圖中的一些邊等操作來改變圖的結構可以誤導GNNs作出錯誤的預測。這一漏洞已經引起了人們對在安全領域關鍵應用中采用GNNs的極大關注,并在近年來引起了越來越多的人的研究興趣。因此,對目前的圖對抗式攻擊和反制措施進行一個全面的梳理和回顧是相當有必要的。在這篇綜述中,我們對目前的攻擊和防御進行了分類,以及回顧了相關表現優異的模型。最后,我們開發了一個具有代表性算法的知識庫,該知識庫可以使我們進行相關的研究來加深我們對基于圖的攻擊和防御的理解。

付費5元查看完整內容

相關內容

對抗機器學習(Adverserial Machine Learning)作為機器學習研究中的安全細分方向,在一定程度上保證模型的安全性

多模態表示學習旨在縮小不同模態之間的異質性差距,在利用普遍存在的多模態數據方面起著不可或缺的作用。基于深度學習的多模態表示學習由于具有強大的多層次抽象表示能力,近年來受到了廣泛的關注。在本文中,我們提供了一個全面的深度多模態表示學習的綜述論文。為了便于討論如何縮小異質性差距,根據不同模態集成的底層結構,我們將深度多模態表示學習方法分為三種框架:聯合表示、協調表示和編解碼。此外,我們回顧了該領域的一些典型模型,從傳統模型到新開發的技術。本文強調在新開發的技術的關鍵問題,如encoder-decoder模型,生成對抗的網絡,和注意力機制學習的角度來看,多通道表示,我們所知,從來沒有審核之前,即使他們已經成為當代研究的主要焦點。對于每個框架或模型,我們將討論其基本結構、學習目標、應用場景、關鍵問題、優缺點,以使新研究者和有經驗的研究者都能從中受益。最后,提出了今后工作的一些重要方向。

付費5元查看完整內容

基于協同過濾(CF)的潛在因素模型(LFM),如矩陣分解(MF)和深度CF方法,由于其良好的性能和推薦精度,在現代推薦系統(RS)中得到了廣泛的應用。盡管近年來取得了巨大的成功,但事實表明,這些方法易受對抗性例子的影響,即,這是一種微妙但非隨機的擾動,旨在迫使推薦模型產生錯誤的輸出。這種行為的主要原因是,用于LFM訓練的用戶交互數據可能會受到惡意活動或用戶誤操作的污染,從而導致不可預測的自然噪聲和危害推薦結果。另一方面,研究表明,這些最初設想用于攻擊機器學習應用程序的系統可以成功地用于增強它們對攻擊的魯棒性,以及訓練更精確的推薦引擎。在這方面,本調查的目標有兩方面:(i)介紹關于AML-RS的最新進展,以保障AML-RS的安全性。(ii)展示了AML在生成對抗網絡(GANs)中的另一個成功應用,生成對抗網絡(GANs)使用了AML學習的核心概念(即用于生成應用程序。在這項綜述中,我們提供了一個詳盡的文獻回顧60篇文章發表在主要的RS和ML雜志和會議。這篇綜述為RS社區提供了參考,研究RS和推薦模型的安全性,利用生成模型來提高它們的質量。

付費5元查看完整內容

【簡介】在智能交通系統中交通預測扮演著重要的角色。精準的交通預測有助于優化通行路線,指導車輛調度,緩解交通擁堵。由于道路網絡中不同區域之間復雜且動態的時空依賴關系,這一問題具有很大挑戰性。最近幾年,有大量的研究工作推進了這一領域的發展,提高了交通系統預測交通的能力。這篇論文對于近些年的交通預測發展提供了一個全面的綜述。具體來說,我們對目前的交通預測方法進行了總結,并且對它們進行了分類。然后,我們列舉了應用交通預測的常見領域,以及這些應用任務的最新進展。同時,我們也收集和整理了幾個相關的公共數據集,并分別在兩個數據集上通過對相關的交通預測方法的表現進行了評估。最后,我們對這一領域未來的發展方向進行了探討。

付費5元查看完整內容

隨著高計算設備的發展,深度神經網絡(DNNs)近年來在人工智能(AI)領域得到了廣泛的應用。然而,之前的研究表明,DNN在經過策略性修改的樣本(稱為對抗性樣本)面前是脆弱的。這些樣本是由一些不易察覺的擾動產生的,但可以欺騙DNN做出錯誤的預測。受圖像DNNs中生成對抗性示例的流行啟發,近年來出現了針對文本應用的攻擊DNNs的研究工作。然而,現有的圖像擾動方法不能直接應用于文本,因為文本數據是離散的。在這篇文章中,我們回顧了針對這一差異的研究工作,并產生了關于DNN的電子對抗實例。我們對這些作品進行了全面的收集、選擇、總結、討論和分析,涵蓋了所有相關的信息,使文章自成一體。最后,在文獻回顧的基礎上,我們提出了進一步的討論和建議。

付費5元查看完整內容

【導讀】對抗攻擊防御研究用于提升深度學習的魯棒性,是當下的關注焦點。最近,中山大學等學者發布了最新關于圖對抗學習綜述論文,19頁pdf83篇文獻,對在圖形分析任務中對現有的攻防工作進行了梳理和統一,同時給出了適當的定義和分類。此外,我們強調了相關評價指標的重要性,并對其進行了全面的調查和總結。

圖數據的深度學習模型在節點分類、鏈路預測、圖數據聚類等各種圖數據分析任務中都取得了顯著的效果。然而,它們暴露了對于設計良好輸入的不確定性和不可靠性, 對抗樣本。因此,在不同的圖數據分析任務中,出現了各種攻擊和防御的研究,從而導致了圖數據對抗學習中的競爭。例如,攻擊者有投毒和逃避攻擊,防御組相應地有基于預處理和對抗的方法。

盡管工作蓬勃發展,但仍然缺乏統一的問題定義和全面的調研綜述。為了彌補這一不足,我們對已有的關于圖對抗學習任務的研究進行了系統的總結。具體來說,我們在圖形分析任務中對現有的攻防工作進行了梳理和統一,同時給出了適當的定義和分類。此外,我們強調了相關評價指標的重要性,并對其進行了全面的調查和總結。希望我們的工作可以為相關研究者提供參考,為他們的研究提供幫助。更多關于我們工作的細節,

請訪問

//github.com/gitgiter/Graph-Adversarial-Learning

在過去的幾十年里,深度學習已經成為人工智能領域的皇冠上的寶石,在語音和語言處理[72,18]、人臉識別[45]和目標檢測[33]等各種應用中都表現出了令人印象深刻的表現。然而,最近頻繁使用的深度學習模型被證明是不穩定和不可靠的,因為它們容易受到干擾。例如,一張圖片上幾個像素的細微變化,對于人眼來說是難以察覺的,但是對于深度學習模型[44]的輸出卻有很大的影響。此時,定義良好并通過反向傳播學習的深度學習模型具有固有的盲點和非直觀特征,應該以明顯的[59]方式推廣到數據分布中。

圖作為一種強大的表示方法,在現實的[25]中有著重要的作用和廣泛的應用。當然,深度學習對圖形的研究也是一個熱門話題,并在不同的領域帶來了許多令人耳目一新的實現,如社交網絡[46]、電子商務網絡[64]和推薦系統[14,71]。不幸的是,作為機器學習關鍵領域的圖分析領域也暴露了深度學習模型在受到精心設計的攻擊時的脆弱性[81,83]。例如,考慮到節點分類的任務,攻擊者通常控制多個假節點,目的是欺騙目標分類器,通過在這些節點與其他良性節點之間添加或刪除邊緣,從而導致誤分類。通常,這些惡意節點被稱為“攻擊者節點”,而其他受害節點被稱為“受影響節點”。如圖1所示,在一個干凈的圖上執行了小的擾動(增加了兩個鏈接,改變了幾個節點的特征),這導致了圖學習模型的錯誤分類。

隨著對圖數據模型安全性的日益關注,圖數據對抗學習的研究也隨之興起。,一個研究圖數據模型安全性和脆弱性的領域。一方面,從攻擊圖數據學習模型的角度出發,[81]首先研究了圖數據的對抗性攻擊,在節點特征和圖結構受干擾較小的情況下,目標分類器容易對指定的節點進行欺騙和誤分類。另一方面,[65]提出了一種改進的圖卷積網絡(GCNs)模型,該模型具有對抗防御框架,以提高魯棒性。此外,[55]研究了現有的圖數據攻防對抗策略的工作,并討論了它們的貢獻和局限性。然而,這些研究主要集中在對抗性攻擊方面,而對防御方面的研究較少。

挑戰 盡管關于圖表對抗學習的研究大量涌現,但仍然存在一些需要解決的問題。i) 統一與具體的形式化。目前的研究都是將圖對抗學習的問題定義和假設用自己的數學形式化來考慮,大多沒有詳細的解釋,這使得比較和跟進更加困難。ii) 相關評價指標。而對于不同的任務,對應性能的評價指標也有很大的不同,甚至有不同的標準化。此外,圖對抗學習場景的特殊度量還沒有被探索,例如,對攻擊影響的評估。

對于公式和定義不一致的問題,我們考察了現有的攻防工作,給出了統一的定義,并從不同的角度進行了劃分。雖然已經有了一些努力[81,37,19]來概括定義,但大多數公式仍然對自己的模型進行定制。到目前為止,只有一篇文章[55]從綜述的角度概述了這些概念,這不足以全面總結現有的工作。在前人研究的基礎上,我們總結了不同類型的圖,并按層次介紹了三個主要任務,分別在3.1節和4.1節給出了攻擊和防御的統一公式。

自然地,不同的模型伴隨著許多量化的方法,其中提供了一些新的度量。為了幫助研究人員更好地量化他們的模型,也為了系統地總結度量標準,我們在第5節中對度量標準進行了更詳細的討論。特別地,我們首先介紹了防御和攻擊的一些常見度量,然后介紹了它們各自工作中提供的三個類別的度量:有效性、效率和不可感知性。例如,攻擊成功率(ASR)[9]和平均防御率(ADR)[10]分別被用來衡量攻擊和防御的有效性。

綜上所述,我們的貢獻如下:

  • 我們深入研究了這一領域的相關工作,并對當前防御和攻擊任務中不統一的概念給出了統一的問題公式和明確的定義。
  • 我們總結了現有工作的核心貢獻,并根據防御和攻擊任務中合理的標準,從不同的角度對其進行了系統的分類。
  • 我們強調了相關指標的重要性,并對其進行了全面的調查和總結。
  • 針對這一新興的研究領域,我們指出了現有研究的局限性,并提出了一些有待解決的問題
付費5元查看完整內容

論文題目: Adversarial Attacks and Defenses in Images, Graphs and Text: A Review

簡介: 深度神經網絡(DNN)在不同領域的大量機器學習任務中取得了前所未有的成功。然而,對抗性例子的存在引起了人們對將深度學習應用于對安全性有嚴苛要求的應用程序的關注。因此,人們對研究不同數據類型(如圖像數據、圖數據和文本數據)上的DNN模型的攻擊和防御機制越來越感興趣。近期,來自密歇根州立大學的老師和同學們,對網絡攻擊的主要威脅及其成功應對措施進行系統全面的綜述。特別的,他們在這篇綜述中,針對性的回顧了三種流行數據類型(即、圖像數據、圖數據和文本數據)。

付費5元查看完整內容
北京阿比特科技有限公司