亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】對抗攻擊防御研究用于提升深度學習的魯棒性,是當下的關注焦點。最近,中山大學等學者發布了最新關于圖對抗學習綜述論文,19頁pdf83篇文獻,對在圖形分析任務中對現有的攻防工作進行了梳理和統一,同時給出了適當的定義和分類。此外,我們強調了相關評價指標的重要性,并對其進行了全面的調查和總結。

圖數據的深度學習模型在節點分類、鏈路預測、圖數據聚類等各種圖數據分析任務中都取得了顯著的效果。然而,它們暴露了對于設計良好輸入的不確定性和不可靠性, 對抗樣本。因此,在不同的圖數據分析任務中,出現了各種攻擊和防御的研究,從而導致了圖數據對抗學習中的競爭。例如,攻擊者有投毒和逃避攻擊,防御組相應地有基于預處理和對抗的方法。

盡管工作蓬勃發展,但仍然缺乏統一的問題定義和全面的調研綜述。為了彌補這一不足,我們對已有的關于圖對抗學習任務的研究進行了系統的總結。具體來說,我們在圖形分析任務中對現有的攻防工作進行了梳理和統一,同時給出了適當的定義和分類。此外,我們強調了相關評價指標的重要性,并對其進行了全面的調查和總結。希望我們的工作可以為相關研究者提供參考,為他們的研究提供幫助。更多關于我們工作的細節,

請訪問

//github.com/gitgiter/Graph-Adversarial-Learning

在過去的幾十年里,深度學習已經成為人工智能領域的皇冠上的寶石,在語音和語言處理[72,18]、人臉識別[45]和目標檢測[33]等各種應用中都表現出了令人印象深刻的表現。然而,最近頻繁使用的深度學習模型被證明是不穩定和不可靠的,因為它們容易受到干擾。例如,一張圖片上幾個像素的細微變化,對于人眼來說是難以察覺的,但是對于深度學習模型[44]的輸出卻有很大的影響。此時,定義良好并通過反向傳播學習的深度學習模型具有固有的盲點和非直觀特征,應該以明顯的[59]方式推廣到數據分布中。

圖作為一種強大的表示方法,在現實的[25]中有著重要的作用和廣泛的應用。當然,深度學習對圖形的研究也是一個熱門話題,并在不同的領域帶來了許多令人耳目一新的實現,如社交網絡[46]、電子商務網絡[64]和推薦系統[14,71]。不幸的是,作為機器學習關鍵領域的圖分析領域也暴露了深度學習模型在受到精心設計的攻擊時的脆弱性[81,83]。例如,考慮到節點分類的任務,攻擊者通常控制多個假節點,目的是欺騙目標分類器,通過在這些節點與其他良性節點之間添加或刪除邊緣,從而導致誤分類。通常,這些惡意節點被稱為“攻擊者節點”,而其他受害節點被稱為“受影響節點”。如圖1所示,在一個干凈的圖上執行了小的擾動(增加了兩個鏈接,改變了幾個節點的特征),這導致了圖學習模型的錯誤分類。

隨著對圖數據模型安全性的日益關注,圖數據對抗學習的研究也隨之興起。,一個研究圖數據模型安全性和脆弱性的領域。一方面,從攻擊圖數據學習模型的角度出發,[81]首先研究了圖數據的對抗性攻擊,在節點特征和圖結構受干擾較小的情況下,目標分類器容易對指定的節點進行欺騙和誤分類。另一方面,[65]提出了一種改進的圖卷積網絡(GCNs)模型,該模型具有對抗防御框架,以提高魯棒性。此外,[55]研究了現有的圖數據攻防對抗策略的工作,并討論了它們的貢獻和局限性。然而,這些研究主要集中在對抗性攻擊方面,而對防御方面的研究較少。

挑戰 盡管關于圖表對抗學習的研究大量涌現,但仍然存在一些需要解決的問題。i) 統一與具體的形式化。目前的研究都是將圖對抗學習的問題定義和假設用自己的數學形式化來考慮,大多沒有詳細的解釋,這使得比較和跟進更加困難。ii) 相關評價指標。而對于不同的任務,對應性能的評價指標也有很大的不同,甚至有不同的標準化。此外,圖對抗學習場景的特殊度量還沒有被探索,例如,對攻擊影響的評估。

對于公式和定義不一致的問題,我們考察了現有的攻防工作,給出了統一的定義,并從不同的角度進行了劃分。雖然已經有了一些努力[81,37,19]來概括定義,但大多數公式仍然對自己的模型進行定制。到目前為止,只有一篇文章[55]從綜述的角度概述了這些概念,這不足以全面總結現有的工作。在前人研究的基礎上,我們總結了不同類型的圖,并按層次介紹了三個主要任務,分別在3.1節和4.1節給出了攻擊和防御的統一公式。

自然地,不同的模型伴隨著許多量化的方法,其中提供了一些新的度量。為了幫助研究人員更好地量化他們的模型,也為了系統地總結度量標準,我們在第5節中對度量標準進行了更詳細的討論。特別地,我們首先介紹了防御和攻擊的一些常見度量,然后介紹了它們各自工作中提供的三個類別的度量:有效性、效率和不可感知性。例如,攻擊成功率(ASR)[9]和平均防御率(ADR)[10]分別被用來衡量攻擊和防御的有效性。

綜上所述,我們的貢獻如下:

  • 我們深入研究了這一領域的相關工作,并對當前防御和攻擊任務中不統一的概念給出了統一的問題公式和明確的定義。
  • 我們總結了現有工作的核心貢獻,并根據防御和攻擊任務中合理的標準,從不同的角度對其進行了系統的分類。
  • 我們強調了相關指標的重要性,并對其進行了全面的調查和總結。
  • 針對這一新興的研究領域,我們指出了現有研究的局限性,并提出了一些有待解決的問題
付費5元查看完整內容

相關內容

 中山大學(Sun Yat-sen University),于1924年由孫中山先生親手創立,是一所綜合性重點大學,是國家“211計劃”和“珠峰計劃”重點建設的名牌大學。今日的中山大學,由1952年院系調整后分設的中山大學和中山醫科大學合并組建而成。共有四個校區,分別座落在珠江之畔、南海之濱。校區內樹木蔥蘢,綠草如茵,景色秀麗,各具風格,是陶冶情操、讀書治學的勝境。

隨著web技術的發展,多模態或多視圖數據已經成為大數據的主要流,每個模態/視圖編碼數據對象的單個屬性。不同的模態往往是相輔相成的。這就引起了人們對融合多模態特征空間來綜合表征數據對象的研究。大多數現有的先進技術集中于如何融合來自多模態空間的能量或信息,以提供比單一模態的同行更優越的性能。最近,深度神經網絡展示了一種強大的架構,可以很好地捕捉高維多媒體數據的非線性分布,對多模態數據自然也是如此。大量的實證研究證明了深多模態方法的優勢,從本質上深化了多模態深特征空間的融合。在這篇文章中,我們提供了從淺到深空間的多模態數據分析領域的現有狀態的實質性概述。在整個調查過程中,我們進一步指出,該領域的關鍵要素是多模式空間的協作、對抗性競爭和融合。最后,我們就這一領域未來的一些方向分享我們的觀點。

付費5元查看完整內容

當對大量的標記數據集合(如ImageNet)進行訓練時,深度神經網絡展示了它們在特殊監督學習任務(如圖像分類)上的卓越表現。然而,創建這樣的大型數據集需要大量的資源、時間和精力。這些資源在很多實際案例中可能無法獲得,限制了許多深度學習方法的采用和應用。為了尋找數據效率更高的深度學習方法,以克服對大型標注數據集的需求,近年來,我們對半監督學習應用于深度神經網絡的研究興趣日益濃厚,通過開發新的方法和采用現有的半監督學習框架進行深度學習設置。在本文中,我們從介紹半監督學習開始,對深度半監督學習進行了全面的概述。然后總結了在深度學習中占主導地位的半監督方法。

付費5元查看完整內容

【導讀】現有的機器學習方法在很多場景下需要依賴大量的訓練樣本。但機器學習方法是否可以模仿人類,基于先驗知識等,只基于少量的樣本就可以進行學習。本文介紹34頁小樣本學習綜述《Generalizing from a Few Examples: A Survey on Few-Shot Learning》,包含166篇參考文獻,來自第四范式和香港科技大學習的研究學者。

小樣本學習綜述 Few-shot Learning: A Survey

【摘要】機器學習在數據密集型應用中非常成功,但當數據集很小時,它常常受到阻礙。為了解決這一問題,近年來提出了小樣本學習(FSL)。利用先驗知識,FSL可以快速地泛化到只包含少量有監督信息的樣本的新任務中。在這篇論文中,我們進行了一個徹底的調研,以充分了解FSL。從FSL的正式定義出發,我們將FSL與幾個相關的機器學習問題區分開來。然后指出了FSL的核心問題是經驗風險最小化是不可靠的。基于先驗知識如何處理這一核心問題,我們從三個角度對FSL方法進行了分類: (i) 數據,它使用先驗知識來增加監督經驗;(二) 利用先驗知識縮小假設空間大小的模型;(iii)算法,利用先驗知識在給定的假設空間中改變對最佳假設的搜索。有了這種分類法,我們就可以回顧和討論每個類別的優缺點。在FSL問題的設置、技術、應用和理論方面也提出了有前景的方向,為未來的研究提供了見解。

  • 我們給出了FSL的形式化定義。它可以自然地鏈接到以往文獻中提出的經典機器學習定義。這個定義不僅足夠概括,包括所有現有的FSL -shot Learning: A Survey problems,而且足夠具體,明確了什么是FSL的目標,以及我們如何解決它。這一定義有助于確定未來FSL領域的研究目標。

  • 指出了基于誤差分解的FSL在機器學習中的核心問題。我們發現,正是不可靠的經驗風險最小化使得FSL難以學習。這可以通過滿足或降低學習的樣本復雜度來緩解。理解核心問題有助于根據解決核心問題的方式將不同的工作分類為數據、模型和算法。更重要的是,這為更有組織和系統地改進FSL方法提供了見解。

  • 我們對從FSL誕生到最近發表的文獻進行了廣泛的回顧,并將它們進行了統一的分類。對不同類別的優缺點進行了深入的討論。我們還對每個類別下的見解進行了總結。這對于初學者和有經驗的研究人員都是一個很好的指導方針。

  • 我們在問題設置、技術、應用和理論方面展望了FSL未來的四個發展方向。這些見解都是基于當前FSL發展的不足之處,并有可能在未來進行探索。我們希望這部分能夠提供一些見解,為解決FSL問題做出貢獻,為真正的AI而努力。

  • 與已有的關于小樣本概念學習和經驗學習的FSL相關調相比,我們給出了什么是FSL,為什么FSL很難,以及FSL如何將小樣本監督信息與先驗知識結合起來使學習成為可能的正式定義。我們進行了廣泛的文獻審查的基礎上提出的分類法與詳細討論的利弊,總結和見解。我們還討論了FSL與半監督學習、不平衡學習、遷移學習和元學習等相關話題之間的聯系和區別

付費5元查看完整內容

準確地估計一幅圖像中物體的數量是一項具有挑戰性而又有意義的工作,并已在城市規劃和公共安全等諸多領域得到了應用。在各種對象計數任務中,人群計數因其對社會保障和發展的特殊意義而顯得尤為突出。幸運的是,人群計數技術的發展可以推廣到其他相關領域,如車輛計數和環境調查,如果不考慮他們的特點。因此,許多研究者致力于人群計數,涌現出許多優秀成果。在這些工作中,它們對人群計數的發展一定是有幫助的。然而,我們應該考慮的問題是,為什么它們對這項任務是有效的。由于時間和精力的限制,我們無法分析所有的算法。在本文中,我們調查了220+工作,對人群計數模型進行了全面、系統的研究,主要是基于CNN的密度圖估計方法。最后,根據評價指標,我們在人群統計數據集中選取了表現最好的前三名,并對其優缺點進行了分析。通過我們的分析,我們希望對人群計數的未來發展做出合理的推斷和預測,同時也可以為其他領域的對象計數問題提供可行的解決方案。我們提供了NWPU數據集驗證集中一些主流算法的密度圖和預測結果,以供比較和測試。同時,還提供了密度圖生成和評價工具。所有的代碼和評估結果在//github.com/guangshuai/survey-forcrowd -counting上公開。

概述

在過去的幾十年里,越來越多的研究社區將物體計數問題作為主要的研究方向,因此,許多作品被發表來計算圖像或視頻中物體的數量,這些作品跨越了各種各樣的領域,如人群計數,細胞顯微,樹葉,環境調查。在所有這些領域中,人群計數是至關重要的,在一些人群場景中,如人群分析和視頻監控中,人群計數對于構建更高層次的認知能力至關重要。隨著世界人口的不斷增長和隨之而來的城市化,在許多場合,如游行、音樂會和體育場,人群迅速聚集。在這些場景中,人群計數對于社會安全和控制管理起著不可或缺的作用。

考慮到上述人群計數的特殊重要性,越來越多的研究人員嘗試設計各種復雜的項目來解決人群計數的問題。特別是在過去的五年中,隨著深度學習的出現,基于卷積神經網絡(CNNs)的模型在各種計算機視覺任務中占據了壓倒性的主導地位,包括人群計數。雖然不同的任務有其獨特的屬性,但也存在共同的特征,如結構特征和分布模式。幸運的是,人群計數技術可以通過特定的工具擴展到其他領域。因此,本文希望通過對人群計數任務的深度挖掘,特別是基于CNN的密度估計和人群計數模型,為其他任務提供合理的解決方案。我們的調查旨在涉及各個部分,從一些有趣的尚未探索的研究方向的算法分類。除了對現有的基于CNN的人群計數和密度估計模型、代表數據集和評價指標進行分類審查外,還研究了一些在很大程度上影響設計模型性能的因素和屬性,如干擾因素和陰性樣本。我們在NWPU數據集的驗證集[wang2020nwpu]中提供了一些主流算法的密度圖和預測結果進行對比和測試。同時,還提供了密度圖生成和評價工具。所有的代碼和評估結果在 -counting上公開。

本文貢獻:

  • 全面、系統地從各個方面進行綜述。我們根據網絡結構、監督形式、學習范式等幾個分類對基于cnn的模型進行了分類。分類可以通過對基于cnn的方法的關鍵技術的深入了解來激勵研究。

  • 基于屬性的性能分析。在分析SOTA方法性能的基礎上,分析了SOTA方法性能良好的原因和使用的技術。此外,我們還討論了促使研究人員設計更有效算法的各種挑戰因素。

  • 開放的問題和未來的方向。通過對模型設計、數據集收集和一些具有領域自適應或遷移學習的其他領域的推廣等重要問題的研究,探索了未來一些有前景的研究方向。

付費5元查看完整內容

【簡介】深度神經網絡(DNNs)在各項任務上都取得了不俗的表現。然而,最近的研究表明通過對輸入進行很小的擾動就可以輕易的騙過DNNs,這被稱作對抗式攻擊。作為DNNs在圖上的擴展,圖神經網絡(GNNs)也繼承了這一缺陷。對手通過修改圖中的一些邊等操作來改變圖的結構可以誤導GNNs作出錯誤的預測。這一漏洞已經引起了人們對在安全領域關鍵應用中采用GNNs的極大關注,并在近年來引起了越來越多的人的研究興趣。因此,對目前的圖對抗式攻擊和反制措施進行一個全面的梳理和回顧是相當有必要的。在這篇綜述中,我們對目前的攻擊和防御進行了分類,以及回顧了相關表現優異的模型。最后,我們開發了一個具有代表性算法的知識庫,該知識庫可以使我們進行相關的研究來加深我們對基于圖的攻擊和防御的理解。

付費5元查看完整內容

在過去的幾年里,深度學習取得了巨大的成功,無論是從政策支持還是科研和工業應用,都是一片欣欣向榮。然而,近期的許多研究發現,深度學習擁有許多固有的弱點,這些弱點甚至可以危害深度學習系統的擁有者和使用者的安全和隱私。深度學習的廣泛使用進一步放大了這一切所造成的后果。為了揭示深度學習的一些安全弱點,協助建立健全深度學習系統,來自中科院信息工程所和中國科學院大學網絡安全學院的研究人員,全面的調查了針對深度學習的攻擊方式,并對這些手段進行了多角度的研究。

付費5元查看完整內容

隨著基于機器學習(ML)系統在醫學、軍事、汽車、基因組以及多媒體和社交網絡等多種應用中的廣泛應用,對抗式學習(AL)攻擊(adversarial learning attacks)有很大的潛在危害。此篇AL的綜述,針對統計分類器的攻擊的防御。在介紹了相關術語以及攻擊者和維護者的目標和可能的知識范圍后,我們回顧了最近在test-time evasion (TTE)、數據中毒(DP)和反向工程(RE)攻擊方面的工作,特別是針對這些攻擊的防御。在此過程中,我們將魯棒分類與異常檢測(AD)、無監督和基于統計假設的防御和無攻擊(no attack)假設的防御區分開來;我們識別了特定方法所需的超參數、其計算復雜性以及評估其性能的指標和質量。然后,我們深入挖掘,提供新的見解,挑戰傳統智慧,并針對尚未解決的問題,包括:1)穩健的分類與AD作為防御策略;2)認為攻擊的成功程度隨攻擊強度的增加而增加,這忽略了對AD的敏感性;3)test-time evasion (TTE)攻擊的小擾動:謬誤或需求?4)一般假設的有效性,即攻擊者知道要攻擊的示例的真實程度;5)黑、灰或白盒攻擊作為防御評估標準;6)基于查詢的RE對廣告防御的敏感性。 然后,我們給出了幾種針對TTE、RE和DP攻擊圖像的防御的基準比較。論文最后討論了持續的研究方向,包括檢測攻擊的最大挑戰,其目的不是改變分類決策,而是簡單地嵌入“假新聞”或其他虛假內容,而不被發現。

付費5元查看完整內容
北京阿比特科技有限公司