亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

近年來,機器學習技術逐漸成為主流網絡入侵檢測方案。然而機器學習模型固有的安全脆弱性,使其難以抵抗對抗攻擊,即通過在輸入中施加細微擾動而使模型得出錯誤結果。對抗機器學習已經在圖像識別領域進行了廣泛的研究,在具有高對抗性的入侵檢測領域中,對抗機器學習將使網絡安全面臨更嚴峻的安全威脅。為應對此類威脅,從攻擊、防御2個角度,系統分析并整理了將對抗機器學習技術應用于入侵檢測場景的最新工作成果。首先,揭示了在入侵檢測領域應用對抗機器學習技術所具有的獨特約束和挑戰;其次,根據對抗攻擊階段提出了一個多維分類法,并以此為依據對比和整理了現有研究成果;最后,在總結應用現狀的基礎上,討論未來的發展方向。

//www.infocomm-journal.com/txxb/CN/10.11959/j.issn.1000-436x.2021193

付費5元查看完整內容

相關內容

基于近5年網安國際會議(ACM CCS、USENIX Security、NDSS、IEEE S&P)中發表的物聯網安全文獻,以及其他部分高水平研究工作,從威脅、檢測、防御的視角對物聯網安全研究工作進行了系統的整理和分析。首先,介紹了物聯網系統的基本架構。然后,將當前研究中提出的主要威脅分為8種類型,并分析了威脅的成因和危害。之后,介紹了針對這些威脅所提出的6種威脅檢測和5種防御方案,并對比了它們的技術原理和優缺點。最后,提出了當前研究依然面臨的主要挑戰,并指出了未來研究發展的方向。

付費5元查看完整內容

摘要: 機器學習以強大的自適應性、自學習能力, 成為網絡空間防御的研究熱點和重要方向. 然而, 機器學習模型在網絡空間環境下存在受到對抗攻擊的潛在風險, 可能成為防御體系中最為薄弱的環節, 從而危害整個系統的安全. 為此, 科學分析安全問題場景, 從運行機理上探索算法可行性、安全性, 對運用機器學習模型構建網絡空間防御系統大有裨益. 本文全面綜述對抗機器學習這一跨學科研究領域在網絡空間防御中取得的成果及以后的發展方向. 首先介紹了網絡空間防御、對抗機器學習等背景知識. 其次, 針對機器學習在網絡空間防御中可能遭受的攻擊, 引入機器學習敵手模型概念, 目的是科學評估其在特定威脅場景下的安全屬性. 而后, 針對網絡空間防御的機器學習算法, 分別論述了在測試階段發動規避攻擊、在訓練階段發動投毒攻擊、在機器學習全階段發動隱私竊取的方法, 進而研究如何在網絡空間對抗環境下, 強化機器學習模型的防御方法. 最后, 展望了網絡空間防御中對抗機器學習研究的未來方向和有關挑戰.

//www.aas.net.cn/cn/article/doi/10.16383/j.aas.c210089

付費5元查看完整內容

摘要: 以深度學習為主要代表的人工智能技術正在悄然改變人們的生產生活方式,但深度學習模型的部署也帶來了一定的安全隱患.研究針對深度學習模型的攻防分析基礎理論與關鍵技術,對深刻理解模型內在脆弱性、全面保障智能系統安全性、廣泛部署人工智能應用具有重要意義. 擬從對抗的角度出發,探討針對深度學習模型的攻擊與防御技術進展和未來挑戰. 首先介紹了深度學習生命周期不同階段所面臨的安全威脅.然后從對抗性攻擊生成機理分析、對抗性攻擊生成、對抗攻擊的防御策略設計、對抗性攻擊與防御框架構建4個方面對現有工作進行系統的總結和歸納. 還討論了現有研究的局限性并提出了針對深度學習模型攻防的基本框架.最后討論了針對深度學習模型的對抗性攻擊與防御未來的研究方向和面臨的技術挑戰.

//crad.ict.ac.cn/CN/10.7544/issn1000-1239.2021.20200920

付費5元查看完整內容

深度學習模型被證明存在脆弱性并容易遭到對抗樣本的攻擊,但目前對于對抗樣本的研究主要集中在計算機視覺領域而忽略了自然語言處理模型的安全問題.針對自然語言處理領域同樣面臨對抗樣本的風險,在闡明對抗樣本相關概念的基礎上,文中首先對基于深度學習的自然語言處理模型的復雜結構、難以探知的訓練過程和樸素的基本原理等脆弱性成因進行分析,進一步闡述了文本對抗樣本的特點、分類和評價指標,并對該領域對抗技術涉及到的典型任務和數據集進行了闡述;然后按照擾動級別對主流的字、詞、句和多級擾動組合的文本對抗樣本生成技術進行了梳理,并對相關防御方法進行了歸納總結;最后對目前自然語言處理對抗樣本領域攻防雙方存在的痛點問題進行了進一步的討論和展望.

//www.jsjkx.com/CN/10.11896/jsjkx.200500078

付費5元查看完整內容

深度學習作為人工智能技術的重要組成部分,被廣泛應用于計算機視覺和自然語言處理等領域。盡管深度學習在圖像分類和目標檢測等任務中取得了較好性能,但是對抗攻擊的存在對深度學習模型的安全應用構成了潛在威脅,進而影響了模型的安全性。在簡述對抗樣本的概念及其產生原因的基礎上,分析對抗攻擊的主要攻擊方式及目標,研究具有代表性的經典對抗樣本生成方法。描述對抗樣本的檢測與防御方法,并闡述對抗樣本在不同領域的應用實例。通過對對抗樣本攻擊與防御方法的分析與總結,展望對抗攻擊與防御領域未來的研究方向。

//www.ecice06.com/CN/10.19678/j.issn.1000-3428.0059156

付費5元查看完整內容

深度學習是當前機器學習和人工智能興起的核心。隨著深度學習在自動駕駛、門禁安檢、人臉支付等嚴苛的安全領域中廣泛應用,深度學習模型的安全問題逐漸成為新的研究熱點。深度模型的攻擊根據攻擊階段可分為中毒攻擊和對抗攻擊,其區別在于前者的攻擊發生在訓練階段,后者的攻擊發生在測試階段。本文首次綜述了深度學習中的中毒攻擊方法,回顧深度學習中的中毒攻擊,分析了此類攻擊存在的可能性,并研究了現有的針對這些攻擊的防御措施。最后,對未來中毒攻擊的研究發展方向進行了探討。

//jcs.iie.ac.cn/xxaqxb/ch/reader/view_abstract.aspx?file_no=20200403&flag=1

付費5元查看完整內容

摘要: 深度學習作為人工智能技術的重要組成部分,被廣泛應用在計算機視覺、自然語言處理等領域。盡管深 度學習在圖像分類和目標檢測等方向上取得了較好性能,但研究表明,對抗攻擊的存在對深度學習模型的安全應 用造成了潛在威脅,進而影響模型的安全性。本文在簡述對抗樣本的概念及其產生原因的基礎上,分析對抗攻擊 的主要思路,研究具有代表性的經典對抗樣本生成方法。描述對抗樣本的檢測方法與防御方法,并從應用角度闡 述對抗樣本在不同領域的應用實例。通過對對抗樣本攻擊與防御方法的分析與總結,預測未來對抗攻擊與防御的 研究方向。

//www.ecice06.com/CN/10.19678/j.issn.1000-3428.0059156

付費5元查看完整內容

深度學習算法已經在圖像分類方面取得了最先進的性能,甚至被用于安全關鍵應用,如生物識別系統和自動駕駛汽車。最近的研究表明,這些算法甚至可以超越人類的能力,很容易受到對抗性例子的攻擊。在計算機視覺中,與之相對的例子是惡意優化算法為欺騙分類器而產生的含有細微擾動的圖像。為了緩解這些漏洞,文獻中不斷提出了許多對策。然而,設計一種有效的防御機制已被證明是一項困難的任務,因為許多方法已經證明對自適應攻擊者無效。因此,這篇自包含的論文旨在為所有的讀者提供一篇關于圖像分類中對抗性機器學習的最新研究進展的綜述。本文介紹了新的對抗性攻擊和防御的分類方法,并討論了對抗性實例的存在性。此外,與現有的調查相比,它還提供了相關的指導,研究人員在設計和評估防御時應該考慮到這些指導。最后,在文獻綜述的基礎上,對未來的研究方向進行了展望。

//www.zhuanzhi.ai/paper/396e587564dc2922d222cd3ac7b84288

付費5元查看完整內容
北京阿比特科技有限公司