亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

大型語言模型(LLMs)由于其在語言理解和生成方面的卓越能力,正在成為現代通信網絡不可或缺的一部分。在這些網絡的背景下,由于經常需要使用第三方數據和計算資源,后門攻擊的風險變得非常重要。這樣的策略可能會使網絡中的模型暴露于惡意操縱的訓練數據和處理中,為攻擊者提供了一個機會,將一個隱藏的后門嵌入到模型中,這被稱為后門攻擊。LLMs中的后門攻擊是指在LLMs中嵌入一個隱藏的后門,使模型在良性樣本上正常執行,但在被毒害的樣本上表現下降。在通信網絡中,可靠性和安全性至關重要,這一問題尤為令人擔憂。盡管關于后門攻擊有大量的研究,但在通信網絡中使用的LLMs的背景下,仍缺乏深入的探索,而且目前還沒有關于這種攻擊的系統性綜述。在這次調查中,我們系統地提出了一個LLMs在通信網絡中使用的后門攻擊的分類法,將其分為四個主要類別:輸入觸發、提示觸發、指令觸發和演示觸發攻擊。此外,我們對網絡領域內的基準數據集進行了全面分析。最后,我們確定了潛在的問題和尚未解決的挑戰,為未來增強通信網絡中LLMs的安全性和完整性的研究方向提供了有價值的見解。

//www.zhuanzhi.ai/paper/5a5536928883a6ab3c18866ceeeac87f

付費5元查看完整內容

相關內容

近年來,機器學習技術逐漸成為主流網絡入侵檢測方案。然而機器學習模型固有的安全脆弱性,使其難以抵抗對抗攻擊,即通過在輸入中施加細微擾動而使模型得出錯誤結果。對抗機器學習已經在圖像識別領域進行了廣泛的研究,在具有高對抗性的入侵檢測領域中,對抗機器學習將使網絡安全面臨更嚴峻的安全威脅。為應對此類威脅,從攻擊、防御2個角度,系統分析并整理了將對抗機器學習技術應用于入侵檢測場景的最新工作成果。首先,揭示了在入侵檢測領域應用對抗機器學習技術所具有的獨特約束和挑戰;其次,根據對抗攻擊階段提出了一個多維分類法,并以此為依據對比和整理了現有研究成果;最后,在總結應用現狀的基礎上,討論未來的發展方向。

//www.infocomm-journal.com/txxb/CN/10.11959/j.issn.1000-436x.2021193

付費5元查看完整內容

隨著深度學習系統對數據和計算資源的快速需求,越來越多的算法利用協同機器學習技術,例如聯邦學習,在多個參與者之間訓練一個共享的深度模型。它可以有效地利用每個參與者的資源,獲得一個更強大的學習系統。然而,這些系統中的完整性和隱私威脅極大地阻礙了協同學習的應用。在不同的協同學習系統中,為了保持模型的完整性和減少訓練數據在訓練階段的隱私泄露,已經提出了大量的工作。與現有的主要針對某一特定協同學習系統的調研查相比,本調研旨在對協同學習中的安全和隱私研究進行系統、全面的綜述。我們的調研首先提供了協同學習的系統概述,然后簡要介紹了完整性和隱私威脅。然后,我們將以一種有組織的方式詳細介紹現有的完整性和隱私攻擊以及它們的防御。我們還列出了這一領域的一些開放問題,并將GitHub上的相關論文開源: //github.com/csl-cqu/awesome-secure-collebrativelearning-papers。

深度學習在計算機視覺、自然語言處理、生物信息學和桌面游戲程序等多個領域都取得了巨大的成功。DL系統采用深度神經網絡(DNNs),通過對龐大的訓練數據集[1]-[4]的經驗自動改進。為了有效地訓練DL模型,學習系統主要依賴于兩個組件:大量高質量的訓練樣本和高性能的GPU。但是由于各種原因,訓練數據集和GPU可能分布在不同的地方。考慮以下兩個例子[5]-[7]:醫學圖像分類。一家醫院想要學習一種肺癌探測器模型,以幫助醫生從他們的計算機斷層掃描(CT)圖像中識別肺癌患者。由于醫院接收的肺癌患者數量有限,學習一個高度準確的模型對醫院來說是困難的。為了保證診斷的準確性,醫院聯合其他醫院共同協同學習共享模型。考慮到患者的隱私,所有醫院都需要局部保留CT圖像。

最近,協同學習作為一種很有前途的解決方案在[8]-[14]這樣的應用場景中很受歡迎。具體來說,協同學習允許兩個或更多參與者協作訓練一個共享的全局DL模型,同時保持他們的訓練數據集在本地。每個參與者在自己的訓練數據上訓練共享模型,并與其他參與者交換和更新模型參數。協同學習可以提高共享模型的訓練速度和性能,同時保護參與者的訓練數據集的隱私。因此,對于訓練數據敏感的場景(如醫療記錄、個人身份信息等),它是一種很有前途的技術。已經提出了幾種用于協同學習的學習架構:有或沒有中央服務器,有不同的模型聚合方式,等等[15]-[22]。協同學習的一個重要分支是[23]聯邦學習,它使手機能夠協同學習一個共享的預測模型,同時將所有的訓練數據保存在設備上,將機器學習的能力與將數據存儲在云端的需求分離開來。

雖然每個參與者在本地存儲訓練數據集,并且每次迭代時只共享全局模型的更新,但對手也可以在訓練過程中進行破壞模型完整性和數據隱私的攻擊,即[24]-[27]。最嚴重的威脅之一是模型完整性,當一些參與者不值得信任[28],[29]時,很容易損害模型完整性。例如,惡意參與者用一些精心設計的惡意觸發器毒害他們的訓練數據集。然后,在每次迭代中,利用觸發器生成惡意更新,并通過共享惡意更新,逐步將后門等觸發器注入到全局模型中,以獲取額外利潤或增加自身優勢[30],[31]。敵人也可以偽裝成參與者加入協同學習過程,并通過向其鄰居或參數服務器[25]、[32]、[33]發送惡意更新來破壞學習過程。Blanchard et al.[28]和Guo et al.[29]表明,只有一個惡意參與者能夠控制整個協同學習過程。

除了模型完整性威脅,另一個關鍵的挑戰是保護每個參與者的數據隱私。研究表明,盡管參與者不與他人共享原始訓練樣本,但共享更新是由樣本生成的,并間接泄露了訓練數據集的信息。例如,Melis et al.[34]發現,在訓練過程中,可以從共享梯度中捕獲成員和意外特征泄漏。更嚴重的是,Zhu等人[26]提出了一種優化方法,可以從相應的更新中重構出訓練樣本。針對上述完整性和隱私威脅,提出了多種方法來防御[24]、[26]、[28]、[35]-[48]、[48]、[49]、[49]-[66]。例如,為了實現byzantine彈性協同學習,Blanchard et al.[28]在每次迭代中使用統計工具檢查參與者的更新,并在聚合更新時放棄潛在的惡意更新。在隱私保護方面,Gao等[67]提出了搜索保護隱私的變換函數,并使用保護隱私的變換函數對訓練樣本進行預處理,以抵御重構攻擊,同時保持訓練后DL模型的準確性。一些防御[68]-[72]也提出了健壯的和隱私保護的防御方法來防御完整性和隱私威脅。

在這篇論文中,我們關注在協同學習的訓練過程中的完整性和隱私攻擊和防御,并提出了一個最新的解決方案的全面綜述。具體來說,我們從不同的角度系統地介紹了不同類型的協同學習系統(第二節)。然后,我們在第三節中總結總結了協同學習中的隱私和完整性威脅。一方面,我們在第四節和第五節分別展示了現有的攻擊和相應的防御。另一方面,我們在第五節中分別展示了最先進的完整性隱私攻擊和相應的防御。我們總結了混合防御方法來實現魯棒和隱私保護的協同學習和對抗訓練算法來提高模型推理的魯棒性。我們在第IX節闡述了協同學習中一些開放的問題和未來的解決方案,然后在第X節中總結了這篇文章。我們還在GitHub上開源了論文的攻防方法列表:

付費5元查看完整內容

圖神經網絡(GNN)在多個領域的復雜任務中已經得到成功的應用,但研究表明其易受到對抗攻擊而導致性能嚴重下降,這種脆弱性影響了包含節點分類、鏈路預測和社團探測在內的所有應用。圖對抗攻擊已經可以高效地實施,這帶來了嚴重的安全隱患和隱私問題,圖對抗防御致力于提高GNN的魯棒性和泛化能力以抵御對抗攻擊。綜述了圖對抗防御算法研究進展,首先,介紹了圖對抗防御的背景和相關概念,并對圖對抗防御研究發展脈絡進行梳理和分析。然后,根據防御算法的不同防御策略將算法分為四類,包括攻擊檢測、對抗訓練、可認證魯棒性以及免疫防御,對每類防御算法原理進行分析總結。在此基礎上,分析了每種防御算法的原理和實現,并從防御策略、目標任務、優缺點和實驗數據等方面對典型算法進行全面的比較。最后,通過對現有圖對抗防御算法全面、系統的分析,對防御算法當前存在的問題及未來發展方向進行了總結和探討,為圖對抗防御進一步的發展提供幫助。

//fcst.ceaj.org/CN/abstract/abstract2978.shtml

付費5元查看完整內容

圖神經網絡(GNNs)被廣泛用于學習一種強大的圖結構數據表示。最近的研究表明,將知識從自監督任務遷移到下游任務可以進一步改善圖的表示。然而,自監督任務與下游任務在優化目標和訓練數據上存在內在的差距。傳統的預訓練方法可能對知識遷移不夠有效,因為它們不能適應下游任務。為了解決這一問題,我們提出了一種新的遷移學習范式,該范式可以有效地將自監督任務作為輔助任務來幫助目標任務。在微調階段,我們的方法將不同的輔助任務與目標任務進行自適應的選擇和組合。我們設計了一個自適應輔助損失加權模型,通過量化輔助任務與目標任務之間的一致性來學習輔助任務的權重。此外,我們通過元學習來學習權重模型。我們的方法可以運用于各種遷移學習方法,它不僅在多任務學習中有很好的表現,而且在預訓練和微調中也有很好的表現。在多個下游任務上的綜合實驗表明,所提出的方法能夠有效地將輔助任務與目標任務相結合,與現有的方法相比,顯著提高了性能。

//www.zhuanzhi.ai/paper/852db932624d6feeb7bbd32e67772b27

付費5元查看完整內容

為了追求精度,深度學習模型框架的結構越來越復雜,網絡越來越深。參數量的增加意味著訓練模型需要更多的數據。然而人工標注數據的成本是高昂的,且受客觀原因所限,實際應用時可能難以獲得特定領域的數據,數據不足問題非常常見。數據增強通過人為地生成新的數據增加數據量來緩解這一問題。數據增強方法在計算機視覺領域大放異彩,讓人們開始關注類似方法能否應用在序列數據上。除了翻轉、裁剪等在時間域進行增強的方法外,也描述了在頻率域實現數據增強的方法;除了人們基于經驗或知識而設計的方法以外,對一系列基于GAN的通過機器學習模型自動生成數據的方法也進行了詳細的論述。介紹了應用在自然語言文本、音頻信號和時間序列等多種序列數據上的數據增強方法,亦有涉及它們在醫療診斷、情緒判斷等問題上的表現。盡管數據類型不同,但總結了應用在這些類型上的數據增強方法背后的相似的設計思路。以這一思路為線索,梳理應用在各類序列數據類型上的多種數據增強方法,并進行了一定的討論和展望。

//fcst.ceaj.org/CN/abstract/abstract2790.shtml

付費5元查看完整內容

深度學習作為人工智能技術的重要組成部分,被廣泛應用于計算機視覺和自然語言處理等領域。盡管深度學習在圖像分類和目標檢測等任務中取得了較好性能,但是對抗攻擊的存在對深度學習模型的安全應用構成了潛在威脅,進而影響了模型的安全性。在簡述對抗樣本的概念及其產生原因的基礎上,分析對抗攻擊的主要攻擊方式及目標,研究具有代表性的經典對抗樣本生成方法。描述對抗樣本的檢測與防御方法,并闡述對抗樣本在不同領域的應用實例。通過對對抗樣本攻擊與防御方法的分析與總結,展望對抗攻擊與防御領域未來的研究方向。

//www.ecice06.com/CN/10.19678/j.issn.1000-3428.0059156

付費5元查看完整內容

盡管生成式對抗網絡(GAN)的歷史并不長,但它已被廣泛地研究和用于各種任務,包括其最初的目的,即合成樣品的生成。然而,將GAN用于具有不同神經網絡結構的不同數據類型,由于其在訓練方面的局限性,使得模型很容易出現混亂。這種臭名昭著的GAN訓練是眾所周知的,并已在許多研究中提出。因此,為了使GAN的訓練更加穩定,近年來提出了許多正則化方法。本文綜述了近年來引入的正則化方法,其中大部分是近三年來發表的。具體地說,我們關注的是那些可以被普遍使用的方法,而不管神經網絡體系結構如何。根據其運算原理將其分為若干組,并分析了各方法之間的差異。此外,為了提供使用這些方法的實際知識,我們調研了在最先進的GANs中經常使用的流行方法。此外,我們還討論了現有方法的局限性,并提出了未來的研究方向。

付費5元查看完整內容
北京阿比特科技有限公司