亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

近幾十年來,私營公司和政府機構對網絡安全的需求都在增長。這種增長是由于各組織發動網絡攻擊的能力不斷增強的結果。作為回應,各組織一直在開發網絡防御人工智能(AI),這大大提高了網絡安全能力。這不僅需要開發網絡攻擊、防御和漏洞框架,以模擬現實環境,還需要有訓練人工智能的方法。此外,網絡的數量和種類需要一個框架,可以快速和低成本地訓練人工智能。本文將探討我們的團隊如何努力開發一個高效和全面的框架,在這個框架下,各種人工智能可以被訓練以滿足網絡彈性的需要。

1 引言

網絡安全是現代組織和政府的最大考慮之一。在網絡威脅情報領域公認的領導者Check Point研究公司所做的一項研究中,他們發現在2020年,試圖對企業進行的網絡攻擊數量增加了50%(Mello, 2022)。鑒于網絡攻擊的增加及其復雜性,預計2022年僅美國的組織的網絡安全支出將高達1720億美元,這并不奇怪(Pratt, 2021)。其他國家如烏克蘭,也經歷了類似的攻擊數量和其復雜性的急劇增加。在2020年的一篇文章中,作者發現臺灣自1999年以來一直遭受網絡攻擊,這些攻擊的復雜性足以危及電力系統,并導致大規模停電,就像在烏克蘭前線看到的那樣(Huang,2020)。攻擊和防御成本預計只會增長,幾乎沒有期望網絡安全防御能力超過攻擊能力;這是防御者在當前的網絡空間環境中經歷的固有劣勢的結果。

網絡安全專業人員目前沒有足夠的防御工具來應對網絡攻擊的必要。網絡安全的相對無效性是由于網絡防御所面臨的劣勢造成的。Wendt將防御的劣勢歸功于有利于攻擊者的網絡沖突的性質(Wendt, 2019)。他繼續說,攻擊者識別和利用一個漏洞,而防御者必須識別和緩解每一個漏洞。攻擊者可以選擇何時發起攻擊,而防御者必須首先識別攻擊,然后才能做出反應。攻擊者可以重復使用類似的攻擊來利用類似的漏洞,而防御者必須在許多獨特的系統中進行協調,以確定共同的漏洞并制定緩解措施。攻擊者如果失敗,不會產生巨大的成本,而防御者的網絡如果失敗,則會受到巨大的損害。如果防御者不能識別攻擊并迅速作出反應,攻擊者將有更多的時間深入到系統中。這使得攻擊者可以破壞網絡,并創建后門,用來進一步傷害網絡。為了努力提高防御者的響應時間和有效性,網絡安全專業人員使用網絡兵棋推演的方法進行練習。

網絡兵棋推演是對真實攻擊的模擬,攻擊方試圖破壞網絡,而防守方則試圖阻止這種攻擊。網絡兵棋推演使網絡安全從業者能夠發展他們的能力,改善他們的網絡,并最終更快、更有效地作出反應。然而,歷史上網絡安全支出的增加和網絡兵棋推演本身并沒有被證明是足夠的。雖然它提高了響應時間和有效性,但網絡兵棋推演并不能使網絡安全專業人員對威脅做出足夠快的反應。此外,目前的網絡安全方法是非常昂貴的。白宮報告說,總統為2023財政年度分配了 "109億美元的預算授權,用于民用網絡安全相關活動"。這比2022年增加了 "11%",顯示了發展網絡安全的強烈需求(白宮,2022)。

網絡防御從業者可以使用強化學習(RL),人工智能的一個子集,來開發滿足高效和近乎即時反應的智能體。強化學習的目標是讓智能體對各種不同的刺激選擇最佳行動,這些刺激是提供強化學習環境刺激。強化學習的功能是使用一組由強化學習環境更新的可能行動。在這組可能的行動中,有最佳行動,這是由環境決定的。智能體通過目標函數的獎勵來學習哪些行動是最優和次優的。智能體試圖找到對環境刺激的正確反應,使目標函數的獎勵最大化。關于人工智能和RL的補充信息可以在Sewak, Sahay, and Rathore (2022)中找到。為了使用RL訓練防御智能體,需要環境刺激來提示防御智能體的反應。通過使用網絡兵棋推演的方法,RL攻擊智能體模擬網絡攻擊,可以提供刺激,以有效的方式訓練防御智能體。

應對許多獨特網絡中壓倒性的和不斷增長的網絡威脅正變得越來越昂貴,而且很難由人類網絡安全從業者來實現。這項研究的重點是開發一個全面的框架,通過它可以訓練許多RL防御智能體。這個框架將利用網絡兵棋推演的方法來模擬攻擊和防御智能體之間的相互作用,允許快速和具有成本效益的網絡防御智能體的訓練。

2 相關工作

雖然已經有很多關于使用人工智能來補充網絡安全的研究,但還沒有重要的文獻從同樣的角度來探討這個問題。我們的問題主要是利用知識庫創建一個通用的RL訓練框架,而其他的研究則主要是利用預先建立的訓練數據創建一個特定的防御或攻擊智能體。在Nguyen和Reddi(2021)中,作者討論了RL智能體在網絡物理系統安全方法中的應用以及在針對網絡攻擊的防御策略的博弈論模擬中的應用。

為了繼續研究RL智能體在網絡物理系統安全中的應用,他們使用了一系列現實世界的例子,并試圖應用一個強大的模型作為解決方案。在這項研究中,發現盡管他們可以構建一個能夠提供有效自主防御的智能體,但有一些攻擊技術導致自主系統失敗。因此,為了提高他們的智能體的魯棒性,他們不得不重組和重新訓練他們的智能體(Nguyen & Reddi, 2021)。這種將RL應用于網絡安全的做法,在防御單個或非常相關的網絡,對抗已知的攻擊者方面是可行的。然而,使用從許多攻擊者那里匯編的不同數據來構建和訓練許多獨立的智能體提出了一個成本-效益問題。能夠使用一個通用的訓練框架來訓練許多智能體,通過行業標準的知識庫,可以為系統提供更大的復原力。

在Nguyen和Reddi(2021)中,作者介紹了一個使用博弈論的RL的網絡安全應用,其中多個防御智能體在模擬中被訓練以應對不同類型的攻擊。在這項研究中,他們討論了訓練智能體來應對干擾攻擊、欺騙攻擊和惡意軟件攻擊。與他們將RL智能體應用于網絡物理系統一樣,通過這種方法訓練的智能體看到了合理的成功。然而,在每種情況下,智能體都需要進行重大的微調,以正確應對它所防御的特定類型的攻擊。此外,當攻擊者的輸入是隨機的,或者在訓練智能體的數據集中沒有很好的記錄時,智能體就會陷入困境(Nguyen & Reddi, 2021)。在現實世界的場景中,攻擊者有許多不同的潛在攻擊可以使用。我們的團隊提出的訓練方法,通過允許快速訓練許多智能體,并使用行業內組織不斷更新的龐大知識庫來解決這一弱點。因此,除非攻擊者使用新的攻擊方法,否則智能體應該有能力做出反應。下一節將討論這個訓練框架是如何開發的。

3 方法

防御是網兵棋推演的一個重要方面,因為它涉及到保護計算機系統和網絡免受對手的攻擊。在網絡戰爭中,防御通常是通過預防措施(如防火墻和訪問控制)與反應措施(如事件響應和恢復)的結合來實現的。在網絡戰爭中,防御的目標是最大限度地減少攻擊的影響,防止對手對系統或網絡造成重大損害。為了實現這一目標,防御者必須了解攻擊者使用的戰術、技術和模式,并制定有效的反措施,以適應不斷變化的威脅環境。通過開發攻擊人工智能,可以模擬許多攻擊場景,從而使防御智能體得到訓練。

3.1. 本體

為了更好地理解攻擊和防御之間的關系,我們開發了一個本體。本體是概念之間的關系的圖形表示,包括直接的和推斷的。因為這個項目的重點是開發一個框架,通過這個框架可以使用來自攻擊智能體的刺激來訓練防御智能體,必須建立兩個智能體如何互動的規則來建立網絡兵棋推演模擬。復雜的關系網絡在本體論中得到了最好的理解,它說明了網絡、攻擊者和防御者之間的關系。這個本體論可以在圖1中看到。網絡漏洞(也被稱為共同弱點列舉,或CWE)是網絡中可以被利用的因素。CWE是被對手的攻擊模式所利用的。每個攻擊模式都被分配了一個編號或共同攻擊模式列舉和分類(CAPEC)。CAPEC是對一種攻擊技術所利用的途徑的分類。攻擊技術實現了一個更普遍和總體的攻擊戰術,以實現攻擊模式和利用漏洞。

用于本框架并由圖1中的本體論告知的概念將保持不變。攻擊智能體選擇一種攻擊技術,使用CAPEC來利用CWE。然后,防御智能體將使用防御技術來抵御攻擊技術。每個行動和反應都會更新環境,并提示其他智能體在回合制模擬中采取行動。然而,網絡攻擊的復雜性是這樣的,在他們的最終形式中,攻擊或防御智能體都可能有成千上萬的可能行動。這個項目的目標是創建一個最小可行的產品,作為一個可以附加的框架。因此,暫時選擇一小部分攻擊技術和相應的防御技術作為概念驗證。所選的攻擊技術子集是默認賬戶、網絡會話Cookies和軟件部署工具。為防御這些攻擊技術而選擇的最佳防御技術分別是賬戶鎖定、入站流量過濾和活動目錄配置。除了這些技術外,還隨機選擇了其他幾種技術,以便智能體必須探索其選項并選擇最佳技術。在確定了智能體在網絡兵棋推演模擬中可以使用的技術后,我們繼續開發智能體之間的互動性。

從圖1中的本體論來看,防御技術是用來防御攻擊技術的。防御智能體對攻擊智能體所采取的行動作出反應,實施防御戰術,打擊攻擊智能體的相應行動。有幾種可能的防御技術,防御智能體可以從中選擇。除了提供每種技術和戰術的屬性外,本體還提供了攻擊和防御智能體之間的直接關系。具體來說,本體論告知防御技術是否是防御每種攻擊技術的正確選擇。防御技術的最佳答案是:默認賬戶的賬戶鎖定,網絡會話Cookies的入站流量過濾,以及軟件部署工具的活動目錄配置。

在其最終形式中,防御智能體將有更多可能的答案可以選擇,并有不同的回報,因為有些選項是次優的。然而,為了建立一個有效的框架,該智能體以最不復雜的方式開發。

這迫使智能體學習這些選項是特定攻擊智能體的最佳答案。通過獎勵防御智能體選擇最佳防御技術,智能體的行為將得到加強,它將訓練自己正確對抗攻擊智能體。然而,網絡兵棋推演的玩法類似于回合制游戲。攻擊智能體必須采取行動,然后防御智能體必須作出反應。我們的團隊幫助開發了互動框架,智能體可以通過這個框架進行兵棋推演,以訓練防御智能體。

圖1:網絡兵棋本體。本體是攻擊技術和防御技術如何通過攻擊模式和漏洞相互作用。這是整個本體的簡化版本。

3.2. 創建場景

在圖1的本體中,防御和攻擊智能體通過防御技術與攻擊技術進行互動。我們的團隊選擇了攻擊智能體使用的攻擊技術,并通過相應的防御技術進行防御。在建立防御智能體時,在現實的復雜性和必要的簡單性之間一直保持著平衡。有數以百計的攻擊技術可以,并最終將被添加到攻擊智能體中。然而,為了保持故障排除的可控性,我們將攻擊技術的數量限制在三種,每種都有相應的防御技術。雖然只有三種可能的攻擊技術是不現實的,但它建立了一個可以擴展的框架。同樣,一個防御智能體通常在任何時候都會有超過150種可能的防御技術,但在原型開發中只提供了10種可能的反應。同樣重要的是要注意,通常情況下,當使用RL訓練一個智能體時,最佳選擇是未知的。然而,為了建立一個概念驗證,我們的團隊根據行業標準選擇了已知的最佳行動(MITRE ATT&CK企業矩陣,n.d.)

選擇的三種攻擊技術分別對應于攻擊的不同階段。第一階段是初始訪問,其中默認賬戶是攻擊智能體利用的攻擊技術。初始訪問是一種由許多攻擊技術組成的攻擊戰術,這些技術的目標是允許攻擊者訪問網絡。具體來說,"默認賬戶 "是一種攻擊技術,其目標是網絡上存在的不受監控的賬戶,以獲得訪問權。相應的防御技術是賬戶鎖定,它阻止用戶以指定的賬戶訪問網絡。攻擊的下一階段是攻擊者如何通過網絡移動以到達目標節點,由橫向移動攻擊技術進行。在這個階段,智能體選擇利用的攻擊技術是Web Session Cookies。網絡會話Cookies技術針對的是網絡瀏覽器上當前激活的cookies。這些cookies允許智能體繞過認證,因為認證在網絡會話上已經激活。相應的防御技術是入站流量過濾,它可以防止網絡會話以這種方式被利用。攻擊的最后階段是在目標節點上運行一個可執行文件,以損害網絡或獲取敏感信息。這個階段的攻擊策略是執行。所選擇的攻擊技術是軟件部署工具,它是在目標節點上運行的可執行文件,可以以多種方式損害網絡。這個文件的執行可以被活動目錄配置防御技術所阻止。在選擇了攻擊和防御技術之后,兩個智能體之間的邏輯關系就建立起來了,可以開發兩者之間的互動。(MITRE D3FEND, n.d.)

3.3. 機器學習環境

攻擊和防御智能體之間的互動框架被捕獲在RL環境中。從圖2中,我們看到程序在環境和RL智能體之間運行一個循環。這個循環從環境開始,為智能體提供網絡信息。環境引用網絡知識庫來檢查每個節點的脆弱性,以便以后在智能體創建行動時使用。給出的信息被編譯成一個矩陣,其中包含網絡訪問狀態、網絡設備訪問狀態和軟件列表。對于列表中的每一部分,網絡訪問狀態被定義為1或0,代表智能體可以訪問網絡(1)或智能體不能訪問(0)。這與網絡設備類似,因為它要么是1,要么是0。 軟件列表表示智能體正在攻擊的特定節點,因為對于特定的攻擊,它需要一個特定的軟件,如果節點沒有這個軟件,攻擊者需要另一種方法來獲得訪問。一旦智能體采取了行動,它將選擇一個攻擊模式和漏洞進行攻擊,以獲得對特定節點的訪問。在智能體選擇行動后,環境將被通知并更新環境,并根據智能體的選擇是否正確給智能體以獎勵。該程序將重復這個循環,直到智能體獲得對目標節點的指揮和控制。對于初始訓練,有一個假設,即每個節點只有一個最佳答案。如果沒有這個假設,智能體就會學會采取我們不希望它學會的行動,如不采取行動或選擇次優行動。

圖2:RL環境。上圖描述了智能體、環境和網絡知識庫之間互動的概況。

圖2只代表一個智能體在環境中的行動。這個循環的目標是讓攻擊和防御智能體以模擬真實網絡網絡攻擊和防御的方式相互響應。攻擊智能體將攻擊網絡,在這個模擬中,它改變了環境。環境會通知防御智能體哪個節點受到攻擊,從而導致防御智能體做出反應。例如,當攻擊智能體試圖訪問網絡時,它將在初始節點上使用默認賬戶。防御智能體將被通知,在被攻擊的節點上,系統內存在異常,并使用他們的反應來嘗試防御技術。防御智能體將不知道具體的攻擊,但會通過本體中的推斷路徑知道該節點上存在哪些CWE,因此可以使用哪些攻擊技術。如果防御智能體使用最佳防御技術,即賬戶鎖定,將攻擊智能體從網絡中驅逐出去,它將獲得成功。如果它選擇不同的防御技術來應對,防御智能體將失敗。當選擇了最佳防御技術后,防御智能體會得到環境的獎勵。這個獎勵是該智能體的目標函數試圖最大化的數字。通過這個循環的多次迭代,防御智能體根據環境給出的信息,探索每個可能的反應的效果。通過獎勵防御智能體選擇賬戶鎖定作為對默認賬戶攻擊技術的反應,這種行為得到了加強。智能體會明白,這種選擇會增加它的獎勵,并會學習適當的反應。環境和智能體之間的反饋回路在網絡戰爭游戲模擬的橫向移動和執行階段的功能類似。通過這個反饋回路,防御智能體可以訓練自己,以有效的方式應對網絡攻擊。

4 結果

該項目建立了一個通用RL網絡智能體訓練框架的概念驗證。使用這個模塊化的框架,一個防御性的RL智能體可以以一種具有成本效益的方式快速訓練,以防御各種不同的網絡。雖然目前的知識庫中只有一小部分可能的攻擊和防御技術,但這個框架可以在保持相同功能的情況下進行擴展。一旦防御智能體在每一種現有的攻擊技術上都得到了訓練,剩下的唯一威脅就是來自智能體和新開發的攻擊技術偶爾出現的錯誤。然而,隨著橫向發展和知識庫的擴大,這個訓練框架可能會徹底改變網絡安全領域。在其他類似的研究中,重點是訓練一個防御智能體來防御一個特定的網絡。然而,通過關注一個通用的訓練方法,可以訓練許多不同的防御智能體。因為這個項目的重點是開發一個最小可行的產品,在這個訓練框架可行之前,還需要進行重大改進。

5 結論和未來工作

強化學習,經過進一步的發展,可以證明是網絡戰爭游戲領域的一個寶貴工具。通過允許智能體根據他們與模擬環境的互動來學習和適應,它為模擬和分析復雜的安全場景提供了一個強大的框架。憑借其處理不確定性和從經驗中學習的能力,強化學習非常適合于對網絡威脅的動態和不斷發展的性質進行建模。我們的研究結果表明,強化學習算法可以有效地學習抵御網絡攻擊,隨著時間的推移,他們獲得更多的經驗而不斷改進。隨著網絡安全領域的不斷發展和演變,我們相信強化學習在幫助組織理解、預測和應對網絡威脅方面將發揮越來越重要的作用。本項目中的一個主要限制是限制了攻擊和防御智能體的選擇。這樣做是為了縮小問題的規模。這個項目的一個限制是防御劑。防御智能體的檢測方面是隨心所欲的,允許智能體自動檢測攻擊者,而不是為模擬創造一個檢測智能體。這是由于這個項目所分配的時間,以及為了使模擬的重點在攻擊智能體和防御智能體之間,而不是依靠偶爾可能沒有檢測到攻擊者的檢測智能體。另一個限制是原始項目的范圍。在決定將防御作為論文的重點后,研究小組不得不根據原來的攻擊智能體縮小項目范圍。攻擊技術是由團隊收到項目時的原始攻擊策略決定的。從那以后,就預先確定了這些技術將從哪些攻擊戰術中選擇。未來可能的工作是在一個更復雜的環境中工作,因為它要求兩個智能體在相互競爭之前學習網絡。然后,攻擊智能體可以學習通往決策節點的不同路線,而不是遵循代碼操作員設定的預先確定的任務計劃。這將導致兩個智能體有更大的學習曲線,創造出更先進的智能體,能夠在網絡中旅行,并能夠在不需要任務計劃的情況下進行防御或攻擊。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

最近,機器學習和人工智能的快速發展為改進美國防部(DOD)兵棋推演創造了越來越多的機會。本研究旨在利用現代框架、算法和云硬件來提高美國防部的兵棋推演能力,具體重點是縮短訓練時間、提高部署靈活性,并展示經過訓練的神經網絡如何為推薦行動提供一定程度的確定性。這項工作利用開源并行化框架來訓練神經網絡并將其部署到 Azure 云平臺。為了衡量訓練有素的網絡選擇行動的確定性,采用了貝葉斯變異推理技術。應用開源框架后,訓練時間縮短了十倍以上,而性能卻沒有任何下降。此外,將訓練好的模型部署到 Azure 云平臺可有效緩解基礎設施的限制,貝葉斯方法也成功提供了訓練模型確定性的衡量標準。美國防部可以利用機器學習和云計算方面的這些進步,大大加強未來的兵棋推演工作。

圖 4.1. 未來兵棋推演開發者與用戶在云和本地實例中的關系

人工智能(AI)在過去幾十年中取得了顯著進步。最近在深度學習和強化學習(RL)方面取得的進步使人工智能模型在各種視頻游戲中的表現超過了人類。隨著美國國防部(DOD)繼續投資開發用于兵棋推演和戰爭規劃應用的人工智能模型,許多方面都有了改進。

本研究調查了現代機器學習(ML)技術的應用,以提高兵棋推演的功效。這項研究表明,即使在沒有圖形處理器(GPU)的情況下,并行化也能大幅縮短 RL 問題的訓練時間,而且對平均得分的影響微乎其微。這一發現強調了并行處理框架對未來 RL 訓練工作的重要性。本研究利用 Ray 框架來協調 RL 訓練的并行化,并評估了兩種算法:近端策略優化(PPO)和重要性加權行為者學習者架構(IMPALA),包括使用和不使用 GPU 加速的情況。這項研究成功地表明,在保持總體平均性能的同時,訓練時間可以減少一到兩個數量級。

本研究的第二部分探討了將本地訓練的模型與本地環境解耦的實用方法,展示了將這些模型部署到云環境的可行性。采用的模型是利用開源框架開發的,并部署在微軟 Azure 云平臺上。這項研究成功地將訓練有素的 RL 模型部署到云環境中,并集成到本地訓練和評估中。

最后,本論文證明了貝葉斯技術可以集成到 RL 模型中,從而有可能提高人機協作的價值。這是通過將貝葉斯方法納入模型架構,并在運行時利用這些實施層的獨特屬性來實現的。這項研究取得了成功,并展示了如何將人工智能移動選擇的確定性措施合成并呈現給人類。

總之,這項研究強調了并行化的重要性,為基于云環境的訓練模型提供了概念驗證,并證明了將貝葉斯方法納入人工智能模型以改善人機協作的可行性,從而為推進 ML 和兵棋推演技術做出了貢獻。

付費5元查看完整內容

信息是國家力量的重要組成部分,每天都有新的信息敘事出現。有些信息值得領導者關注,而另一些則缺乏足夠的牽引力。在信息戰的背景下,領導者必須了解新興敘事的關鍵指標,以確定其重要性。面對領導者不知道社交媒體故事是否重要的問題,我們創建了一個儀表板,幫助領導者識別信息戰活動及其影響。該方法包括衡量不同報道的四個指標:到達率、病毒性、傳播以及有機與無機活動。綜合來看,這些指標顯示了敘事的傳播方式、傳播速度、真實性和影響力。當這些指標被包裝成可視化儀表盤時,就能在信息維度的戰略環境中做出明智的決策。

引言

信息領域每天都會出現新的敘事和故事,其中一些對民族國家具有重大影響。敘事可能是對組織決策的回應,例如美國決定殺死或抓獲本-拉登。其他敘事可能涉及競爭對手的活動,如伊朗的#CalExit活動旨在鼓勵加利福尼亞州離開美國。這些只是信息戰(IW)的幾個例子。隨著故事及其引發的討論的發展,一些故事獲得了牽引力和傳播力,而另一些則銷聲匿跡。本文提供了定量指標,適用于信息維度中新出現的敘述,幫助領導者確定哪些故事需要關注,哪些可以基本忽略。我們試圖衡量IW活動的覆蓋面和影響力,以幫助領導者確定這些活動是否重要。本文包括四個重點領域:傳播、病毒性、覆蓋范圍以及有機與無機活動。這些指標為領導者提供了活動的整體視角。為了了解社交媒體網絡中的信息流及其對人群的影響,我們對社交媒體中的五個主題進行了文獻綜述:網絡傳播、病毒性、營銷、效果衡量標準(MOEs)和人類行為。

圖3:為顯示信息戰指標而開發的儀表板截圖

付費5元查看完整內容

現代技術已經擴散到生活的幾乎每個方面,同時提高了生活質量。例如,物聯網技術比傳統系統有了明顯的改進,提供了生活的便利,節省了時間,節省了資金,并在安全方面有所保障。然而,與物聯網技術相關的安全弱點會對人的因素構成重大威脅。例如,智能門鈴可以使家庭生活更輕松,節省時間,節省資金,并提供監控安全。盡管如此,智能門鈴的安全弱點可能會暴露在犯罪分子面前,對家庭的生命和金錢構成威脅。此外,物聯網技術正在不斷進步和擴大,并迅速在現代社會中變得無處不在。在這種情況下,使用量的增加和技術的進步產生了安全弱點,吸引了希望滿足其議程的網絡犯罪分子。

完美的安全解決方案在現實世界中并不存在,因為現代系統在不斷改進,入侵者經常嘗試各種技術來發現安全缺陷并繞過現代系統的現有安全控制。在這種情況下,威脅建模是了解系統的威脅狀況及其弱點的一個重要起點。因此,計算機科學中的威脅建模領域通過實施各種框架來識別威脅和處理威脅以減輕威脅,得到了顯著改善。然而,大多數成熟的威脅建模框架是針對傳統的IT系統實施的,只考慮與軟件相關的弱點,而不涉及物理屬性。這種方法對于物聯網技術可能并不實用,因為它繼承了軟件和物理安全的弱點。然而,學者們在物聯網技術上采用了成熟的威脅建模框架,如STRIDE,因為成熟的框架仍然包括對現代技術有意義的安全概念。因此,成熟的框架不能被忽視,但在解決與現代系統相關的威脅方面并不高效。

作為一個解決方案,本研究旨在提取成熟的威脅建模框架的重要安全概念,并利用它們來實現強大的物聯網威脅建模框架。本研究從研究人員中選擇了15個威脅建模框架和深度防御的安全概念來提取威脅建模技術。隨后,本研究進行了三次獨立審查,以發現有價值的威脅建模概念及其對物聯網技術的有用性。第一項研究推斷,以軟件為中心、以資產為中心、以攻擊者為中心和以數據為中心的威脅建模方法與深度防御的整合是有價值的,并帶來明顯的好處。因此,PASTA和TRIKE展示了基于分類方案的四種威脅建模方法。第二項研究推斷了威脅建模框架的特點,該框架對深入防御安全架構的滿意度很高。根據評價標準,PASTA框架的滿意度最高。最后,第三項研究在最近的研究基礎上推導出物聯網系統威脅建模技術。結果,STRIDE框架被確定為最受歡迎的框架,其他框架也表現出對物聯網技術有價值的有效能力。

本研究介紹了防御感知威脅建模(DATM),這是一個基于威脅建模和深度防御安全概念的物聯網威脅建模框架。DATM框架所涉及的步驟將用數字進一步描述,以便更好地了解情況。隨后,考慮使用DATM框架進行威脅建模的智能門鈴案例研究,以獲得驗證。此外,該案例研究的結果與三項研究的結果進一步評估,并驗證了DATM框架。此外,本論文的成果對希望在物聯網環境中進行威脅建模和設計適合物聯網技術的新型威脅建模框架的研究人員有幫助。

引言

本章分四個部分敘述了本論文研究的核心價值。第一節解釋了現代社會中物聯網的基本問題。接下來,第二節探討了進行本論文研究的意義。第三部分對旨在回答本研究的研究問題進行了深入探討。最后,最后一節說明了論文方向,指出了整個研究的關鍵領域。

1.1 難題

現有的威脅建模框架為組織對物聯網漏洞的適當響應提供了一個不足的系統(Aufner,2020)。如果從不同的安全相關問題考慮,物聯網的使用和部署的快速發展和接受,放大了對網絡攻擊的期望和預期(Wurm, Hoang, Arias, Sadeghi & Jin, 2016; Hassan, 2019; Meneghello, Calore, Zucchetto, Polese & Zanella, 2019; Neshenko, Bou-Harb, Crichigno, Kaddoum & Ghani, 2019)。因此,研究人員在使用成熟的威脅建模框架評估物聯網的威脅狀況方面投入了大量精力。然而,目前成熟的威脅建模框架對物聯網來說是低效的,因為威脅建模領域缺乏對物聯網中遇到的實際威脅及其對用戶影響的明顯參考(Aufner,2020)。例如,物聯網威脅建模仍然缺乏整體分析,因為框架很少關心物聯網應用的物理部分,并假設軟件在某處運行(換句話說,是設備),使其對基于硬件的威脅視而不見。

在許多例子中,研究人員無法識別大多數潛在的物聯網威脅,這些威脅會破壞現實世界。例如,當Mirai僵尸網絡(由40萬個連接的物聯網設備組成)在2016年通過執行最強大的DDoS攻擊而癱瘓幾個高知名度的服務時,人們見證了物聯網的破壞性潛力(Jerkins,2017;De Donno, Dragoni, Giaretta & Spognardi, 2018;Jaramillo, 2018;Vlajic & Zhou, 2018)。根據2019年Netscout威脅情報報告,物聯網設備在連接到互聯網的5分鐘內受到攻擊,并在24小時內成為特定漏洞的目標(Netscout,2019)。此外,根據SAM無縫網絡從1.32億個活躍的物聯網設備和73萬個網絡中收集的數據,2021年發生了超過10億次物聯網攻擊(SAM無縫網絡,2021)。顯然,基于物聯網的攻擊對當代文明構成了嚴重的威脅,必須緊急解決。

在這個問題總結的基礎上,本研究考慮了威脅建模的挑戰。本研究的前提是,物聯網威脅建模領域應進一步完善整體分析、風險評估和物理威脅的考慮。物聯網威脅模型與作為其組成部分特征的物理和有形元素之間存在著物理脫節。物聯網威脅建模需要納入物聯網的物理元素,因為它們影響了威脅建模領域的一部分

1.2 意義

物聯網威脅建模領域應更加關注物聯網系統的整體屬性,以提供威脅情況的整體圖景。盡管如此,研究人員仍然采用了成熟的威脅建模框架來理解威脅領域,因為這些框架包含了不容忽視的重要安全概念。為了考慮對威脅領域更廣泛的理解,深度防御等安全概念被認為對改善系統的防御非常有價值。深度防御可以考慮采用實用的方法來解決威脅建模框架所確定的安全挑戰(Rahman, Rahman, Wang, Tajik, Khalil, Farahmandi, ... & Tehranipoor, 2020)。在此基礎上,值得回顧包含深入防御方法的成熟安全概念,以了解其特點。

本論文在三個方面具有重要意義,以加強充分的表達和語義考慮,從而實現對威脅的推理,改善系統在威脅建模領域的安全控制。首先,威脅模型促進了對系統結構的深入理解。許多方面都與特定的系統設計有專門的聯系,各種概念層促進了對威脅和風險的認識的類似思考。這有助于從大局出發,找到其他工具或程序無法發現的問題和要素(Durdona, Shahboz, Lola & Sanobar, 2020)。此外,威脅模型可以描述系統架構中的軟件和硬件威脅,因為與傳統的 IT 系統相比,現代系統涉及物理問題。這在互聯網的發展方面尤其明顯。因此,一個典型的威脅模型可以用更多的抽象層次構建系統架構,發現更多的安全問題和攻擊載體。

如果不解決表達和語義威脅推理的問題,通常會發生幾件事。雖然威脅建模不能表達多個抽象層,但它會留下攻擊載體,使其得不到解決,通常會被調查不足(Cam-Winget, Sadeghi & Jin, 2016; Yuce, Schaumont & Witteman, 2018)。一個系統的攻擊面應該代表所有攻擊向量(或滲透點)的總和,允許攻擊者通過利用安全漏洞滲透到系統環境中(Rizvi, Orr, Cox, Ashokkumar & Rizvi, 2020)。因此,威脅建模應該盡可能地解決攻擊面問題,當系統架構有更多的抽象層時,這一點是可以實現的。一般來說,一個簡單的滲透點就足以讓攻擊者破壞一個系統,它可以導致復雜的攻擊(Chen, Desmet & Huygens, 2014)。

此外,在一次嘗試中,安全人員可能無法解決一個系統中的所有攻擊面。然而,威脅建模圖應該能夠實現結構化和迭代式創建,允許進一步改進連續的威脅建模(Yskout, Heyman, Van Landuyt, Sion, Wuyts & Joosen, 2020)。同樣地,威脅建模應該表達語義和語法,以便更深入地了解系統架構,解決攻擊面問題(Castiglione & Lupu, 2020)。

第二個意義是,威脅模型可以以清晰易懂的方式呈現系統的攻擊面,以評估威脅及其對系統的影響。眾所周知,物聯網技術容易受到廣大領域的攻擊,研究人員在使用攻擊檢測技術發現攻擊方面投入了很多精力。例如,許多研究人員使用蜜罐等技術,發現了許多針對消費者物聯網設備的現代攻擊(Zhang, Zhang, Zhou, He & Ding, 2019; Xenofontos, Zografopoulos, Konstantinou, Jolfaei, Khan & Choo, 2021)。此外,物聯網設備中某一特定類型的功能比其他功能更有吸引力。例如,松下公司的案例表明,與相機有關的物聯網設備經歷了大量的攻擊,這導致了對這種類型的設備進行系統性的持續利用,以達到惡意和非法的確定(Palmer, 2019)。因此,一個典型的威脅模型可以用圖形表示對指定系統的現有攻擊面的清晰理解。

由于一些原因,解決有關在線環境的攻擊方面的脆弱性和攻擊的可能性的關鍵問題是非常重要的。當威脅建模不能解決系統在脆弱性方面的攻擊面時,會產生太多的誤報,并消耗時間和資源(Alshamrani, Myneni, Chowdhary & Huang, 2019; Tatam, Shanmugam, Azam & Kannoorpatti, 2021)。主要原因是,整個系統不會受到攻擊者的攻擊,即使攻擊者能夠看到系統的一部分(而不是整個系統)。在資源管理方面,對系統進行建模將消耗時間和資源,這不是現實的攻擊場景。例如,將一個復雜的系統可視化會消耗時間和資源,與此同時,可能會遺漏對攻擊者來說高度可見的小屬性(Manzhosov & Bolodurina, 2020)。

此外,從以系統為中心的角度產生的攻擊場景會表現出高水平的假陽性,而這些假陽性是不現實的,幾乎不會發生。一般來說,整個系統對攻擊者來說往往是不可見的,對與對手攻擊無關的系統區域進行建模可能是毫無意義和不費吹灰之力的(Shostack,2014)。例如,與其他層相比,應用層可能具有最多的安全漏洞(Maheshwari & Prasanna,2016)。然而,另一方面,從攻擊者的角度來看,系統的一部分會被攻擊者看到漏洞,攻擊者會發現各種攻擊方案來破壞系統。因此,如果威脅建模不主要集中在系統的漏洞、攻擊路徑和攻擊場景方面的攻擊者方面,就會消耗時間和資源,導致太多的誤報(Potteiger, Martins & Koutsoukos, 2016)。

第三個意義是,威脅模型驗證了現有的安全控制和系統。威脅模型描述了對特定系統的現代攻擊,然后是系統中現有的安全措施來面對這些攻擊。考慮到系統的攻擊和防御方面,威脅模型突出了需要立即關注的關鍵領域,以提高安全性來減輕威脅。此外,深度防御等安全概念可以實施分層防御,以抵御最多攻擊,保護系統。例如,一個適當的深度防御策略有可能打消各種攻擊者及其相關攻擊系統的積極性。它可以用來識別新的和正在出現的攻擊載體,提供一個強大的方法來提供巨大的安全改進(Asghar, Hu & Zeadally, 2019; Fabro, 2007)。雖然每個防御機制單獨對網絡安全攻擊的價值有限,但深度防御戰略中的防御機制的集合提供了整體安全計劃中更有價值和實用的部分。這樣一來,威脅模型可以促進評估系統中現有安全措施的方法。

重要的是要明白,如果我們不驗證一個包含深度防御的模型,那么有幾個后果會立即發揮作用。安全控制的實施可能是昂貴的,威脅模型需要驗證納入縱深防御,以避免不必要的安全控制實施花費金錢,不能最大限度地減少對手的攻擊。如果防御措施要花錢,又不能保護對手的攻擊,那是沒有用的。在企業或組織結構中,深度防御等控制措施的成本經常被用作驅動因素,以論證排除深度防御的方法(Ayo, Ngala, Amzat, Khoshi & Madusanka, 2018)。傳統的威脅模型對已識別的或高風險的威脅實施安全控制。然而,低風險的威脅可能是至關重要的,因為它可能沒有任何安全控制的實施來防御,允許入侵者。這樣一來,威脅模型必須突出系統中考慮防御措施的關鍵問題(Nugraha, Brown & Sastrosubroto, 2016; Sadlek, ?eleda & Tovarňák, 2022)。

此外,安全控制的實施應該是結構化的,因為單一的對策無法抵御對抗性攻擊。一般來說,完美的安全控制措施是不存在的,也不會有能防止所有對抗性攻擊的安全控制措施。因此,最大限度地減少對抗性攻擊的最佳方式是將安全控制措施配合起來,以彌補彼此的不足(Pendleton, Garcia-Lebron, Cho & Xu, 2016; Wolf, 2016)。通過這種方式,深度防御的加入促進了一套更有條理的安全措施的概念,更有利于防御系統免受對手的攻擊。如果有更多的安全措施而沒有結構化的方法,那么它們將不能說明有效和高效的防御策略,反而會浪費金錢。這樣一來,一個經過驗證的威脅模型如果沒有納入深度防御的方法,就會既費錢又更容易受到對手的攻擊。

最后,在威脅建模圖中包括安全控制,有利于安全方進行安全相關的架構決策,如增加或改進防御措施。然而,假設威脅建模圖不支持安全相關的架構決策。在這種情況下,安全團隊必須做出額外的努力來構建模型、圖示或文檔,以便在實施緩解策略時了解現有的安全解決方案。因此,安全團隊將消耗時間和資源來了解系統現有的防御潛力,以增加或改善安全控制來降低風險。因此,在威脅建模圖中包括安全控制措施,有利于安全各方輕松了解整個安全保障過程,并節省時間和資源。

本論文的意義在于發現了一些規范,這些規范加強了充分的表達和語義,使威脅的推理成為可能,并在成熟的威脅模型和深度防御安全概念方面改善了系統的安全控制。因此,本研究的結果可能為改進成熟的威脅建模框架或探索開發新的威脅建模框架的新思路鋪平道路。

1.3 研究問題

基于物聯網威脅建模領域的問題和改進要求的意義,融合了深度防御方法的成熟威脅建模可以提供一個強大的威脅建模框架。因此,本論文制定了三個總體研究問題和一系列子問題,以從成熟的安全和威脅建模概念中提取重要特征。這些問題和子問題如下:

  • R1--哪種威脅建模觀點主要從整合威脅建模和深度防御概念中獲益?

    • R1.1--什么是與深入防御概念有效結合的強大威脅建模方法?

    • R1.2 - 什么是與深入防御概念有效結合的強大威脅建模框架?

  • R2 - 哪些威脅建模人工制品能夠勝任實施防御意識的威脅建模圖?

    • R2.1 - 威脅建模圖的哪些特征滿足深度防御安全架構?

    • R2.2 - 哪些合適的威脅建模工件可以構建深度防御的安全架構?

  • R3--物聯網技術上采用的不同威脅建模框架是什么?

    • R3.1 - 物聯網中被引用最多的威脅建模框架是什么,以及選擇它的原因?

    • R3.2 - 哪些框架或技術被用于物聯網的系統性威脅建模?

    • R3.3 - 在物聯網中采用成熟的威脅建模框架的關鍵挑戰是什么?

提出這些問題是為了回顧威脅建模領域過去的文獻,并獲得引入物聯網威脅建模框架的寶貴規范。第一個問題反映了將威脅建模與深度防御概念相結合的意義。第二個問題評估了威脅建模框架中的系統化威脅建模和深度防御安全架構的特點。最后,第三個問題提供了對物聯網威脅建模的現有文獻及其挑戰的理解。

1.4 研究路線圖

本研究報告從導言到結論都采用了簡單明了的順序方法。隨后,本論文被組織成八個章節,如圖1所示。第1章敘述了本研究解決的問題及其意義,研究問題描述了旨在回答的領域。第2章介紹了相關的觀點、文獻,以及與所進行的研究有關的公認的差距。在這之后,第3章專門探討了關于威脅建模的文獻。然后,第4章介紹了為回答研究問題而制定的研究方法。它還提供了研究設計和本研究過程中遵循的程序。第5章介紹了研究結果,并進行了討論,以了解所進行的研究的結果。第6章批判性地審視了經驗性的發現,并對提出的研究子問題進行了深入的推理和回答。它描述了研究推論,并強調了有價值的威脅建模和深入防御的概念。然后,第7章描述了使用確定的威脅建模和安全概念的引入的物聯網威脅建模框架。隨后,第8章通過評估是否實現了預期的結果來驗證引入的物聯網威脅建模框架。最后,在第9章中,通過提供對主要研究問題的回應、本研究公認的好處、本研究的邊界以及可想而知的未來研究載體來完成本研究。

付費5元查看完整內容

根據無人機技術的快速發展,無人機被廣泛應用于包括軍事領域在內的許多應用領域。在本文中,一種新穎的基于DRL的自主非線性無人機機動性控制算法在網絡物理游蕩彈藥中的應用。在戰場上,基于DRL的自主控制算法的設計并不直接,因為現實世界的數據收集一般是不可用的。因此,本文的方法是:用Unity環境構建網絡物理虛擬環境。基于虛擬的網絡物理戰場場景,可以設計、評估和可視化一個基于DRL的自動化非線性無人機移動控制算法。此外,許多障礙物的存在對真實世界戰場場景中的線性軌跡控制是有害的。因此,我們提出的自主非線性無人機移動控制算法利用了形勢感知組件,這些組件在Unity虛擬場景中用Raycast函數實現。基于收集到的情況感知信息,無人機可以在飛行過程中自主地、非線性地調整其軌跡。因此,這種方法顯然有利于在有障礙物部署的戰場上避開障礙物。我們基于可視化的性能評估表明,所提出的算法優于其他線性移動控制算法。

付費5元查看完整內容

通過這項美海軍的頂點研究,人工智能(AI)三人小組利用系統工程(SE)的方法來研究人工智能輔助的多任務資源分配(MMRA)如何使所有軍種的任務規劃者受益。這項研究的動力來自于優化我們武裝部隊中的MMRA問題集,對于戰術領導人有效管理現有資源至關重要。存在著一個將人類決策者與人工智能支持的MMRA規劃工具相結合的機會。在計算速度、數據存儲和商業應用中的整體公眾接受度方面的快速技術進步促進了這一點。

該團隊從三個任務集著手處理MMRA問題:車隊保護、航空支援和航母打擊群(CSG)行動。車隊保護用例探討了利用定向能(DE)的移動式地基防空系統。航空用例探討了美國陸軍的未來垂直遠程攻擊機(FLRAA)的能力組合,這是一個未來垂直升降機(FVL)的前里程碑B計劃。最后,CSG用例從高度復雜的系統(SoS)角度探討了MMRA。

盡管這些用例各不相同,但團隊探討了這些觀點之間的相似性和矛盾性。每個用例都應用了一般的MMRA流程架構。然而,每個用例的輸入和輸出都是單獨評估的。圖A描述了MMRA的總體流程架構。

如圖A所示,MMRA被設想為在確定的決策點由人在回路中激活。在這些事件中,MMRA系統用實時輸入進行一次循環。由黑盒MMRA系統確定的輸出被顯示給人在回路中的人,以進行標準決策程序。雖然這項研究僅限于問題的分解,但未來的研究領域是開發一個由人類系統集成(HSI)驅動的產品實現。MMRA通過對日益復雜和相互依賴的資源分配問題進行客觀評估,加強了指揮系統的決策。圖B描述了MMRA人工智能系統過程的行動圖。

MMRA決策已經超出了傳統決策過程的復雜程度。這種復雜性適用于任務規劃的各個層面。戰術層面是在士兵個人的直接指揮系統或單位層面進行的。行動和戰略層面則是在梯隊或總部層面進行。所有這些都需要對現有資源進行準確和有效的分配。

圖C中的圖形,"戰術評估過程。圖C "戰術評估過程:MMRA決策的復雜性 "描述了MMRA是如何在一個作戰場景的決策點上隨時間推移而進行的。初始規劃是在??0進行的,與 "MMRA過程結構 "中的 "初始 "黃色活動塊相關。之后的某個時間,??1, ??2, ??3, ..., ????決策點與 "MMRA過程流 "中的 "決策點重新規劃 "黃色活動相關。"初始 "和"決策點重新規劃 "這兩個黃色活動塊啟動了一個完整的 MMRA 過程流,它包含了 "初始 "和 "決策點重新規劃 "連續體中描述的所有活動。

決策點在三個MMRA用例中被普遍定義。然而,為了解情況,對設想中的場景采用了獨特的故事情節。雖然這里不能列出所有的案例,但CSG獨特決策點的一個例子是CSG內部、CSG外部或自然災害援助的應急反應。通常,所有的決策點都發生在出現新的任務、提供不同的任務優先級、資源耗盡、資源被破壞或任務無法繼續完成時。

為了更好地理解MMRA問題集的范圍,該團隊對所有三個用例進行了可擴展性和復雜性分析。可擴展性分析抓住了靜態MMRA問題集的范圍,與該用例的歷史背景相比較。因此,可擴展性分析為最初的MMRA規劃問題集提供了一個從傳統系統到現在用例方案的背景。在DE Convoy Protection和CSG用例中,可擴展性都有不可量化的增加。對于DE車隊保護來說,由于精確攻擊的技術進步,紅色部隊的能力增加。此外,CSG的藍軍能力增加了,在某些地方是三倍,因為反措施能力、導彈類型的可用性和不同級別驅逐艦之間的數量擴大了。作為補充,航空用例產生了15%的可擴展性,從傳統的實用級直升機到FVL FLRAA。

復雜性分析抓住了動態MMRA問題集的范圍,與各自用例的歷史背景相比較。這些復雜性分析提供了進一步的MMRA背景,因為當MMRA在交戰中被重新規劃時,戰術決策發生在多個決策點。所有三個用例的復雜性分析都構建了故事情節,展示了無形的、越來越具有挑戰性的MMRA考慮。隨著MMRA的可擴展性和復雜性的增加,未來對人工智能輔助的MMRA決策的關鍵需求變得清晰。

繼續分解人工智能輔助的MMRA問題集可能會引起美國武裝部隊的興趣。在所有的使用案例中,在初始和重新規劃的作戰場景中,戰術決策的復雜性都顯示出隨著時間的推移而增加。我們強烈建議對人工智能支持的MMRA問題集進行進一步研究。確定的未來研究領域有:工具的倍數、硬件/軟件部署戰略、戰術與作戰與戰略層面的資源配置、連續與離散的重新規劃節奏、人工智能機器學習的考慮,如數據的數量/質量、人類在環路中對人工智能的接受程度、人工智能輸出儀表板的顯示以及人工智能的倫理。

付費5元查看完整內容

近年來,情報、監視和偵察(ISR)行動經歷了爆炸性的增長,導致收集的數據成倍增加。然而,盡管有如此豐富的ISR數據,個人、團隊和決策者往往無法開發出他們所需的個人和集體對作戰環境的態勢感知(SA)。增強現實(AR)技術為這種困境提供了一個潛在的解決方案。利用視覺、聽覺和觸覺的線索,AR技術有可能為合作和分析提供新的機會,這將提高個人和集體的安全意識。本文旨在為開發用于ISR行動中協作和分析的AR工具指明道路。它探討了AR技術的現狀,以澄清關鍵的定義、系統的分類和目前對有效使用的研究。它還研究了支撐情景意識的認知和學習理論,以了解AR在發展SA方面可以發揮什么作用(如果有的話)。這些理論被發現支持越來越多地使用AR技術來改善SA和協作,并確定了AR技術為促進SA必須解決的八個設計標準。如果這些設計標準得到尊重,可以預期AR技術會改善學習成績,提高用戶的積極性,并增強用戶的參與/互動和協作。此外,還可以預見在空間理解和長期記憶保持方面的收益。盡管有這樣的潛力,但在AR系統設計中必須適當地管理三個主要風險:引導注意力;系統管理中的分心;以及用戶定制。如果這些風險得到管理,設計標準得到尊重,那么用于ISR行動的協作和分析工具的開發者將能夠開啟AR所提供的光明前景。

付費5元查看完整內容

為了面對軍事防御的挑戰,軍隊及其戰術工具的現代化是一個持續的過程。在不久的將來,各種任務將由軍事機器人執行,以實現100%的影響和0%的生命風險。國防機器人工程師和公司有興趣將各種戰略自動化,以獲得更高的效率和更大的影響,因為陸地防御機器人的需求正在穩步增長。在這項研究中,軍事防御系統中使用的陸地機器人是重點,并介紹了各種類型的陸地機器人,重點是技術規格、控制策略、戰斗參與和使用目的。本研究還介紹了陸地機器人技術在世界軍事力量中的最新整合,其必要性,以及各國際防務公司對世界經濟的貢獻,表明其在軍事自動化和經濟穩定中的優勢。本報告還討論了近期發展的局限性和挑戰、機器人倫理和道德影響,以及與機器人安全有關的一些重要觀點和克服近期挑戰的一些建議,以促進未來的發展。

引言

為了加強軍事防御系統,必須大力發展和提高智能自主戰略能力。在大多數第一世界國家,研究國防技術改進是實現軍事防御現代化的優先事項。未來戰爭的特點可以根據不同領域的沖突進行分析,如:海洋、陸地、空中、網絡、太空、電磁和信息。隨著現代智能和機器人技術的改進,跨域(X域)和多域戰略也需要被關注。無人自主X域(多域)系統,簡稱UAxS,現在是研究和發展的重點,以使軍事力量更加強大、有力和智能。圖1展示了多域和X域的戰爭模式。

圖 1:多域和 X 域戰爭模型

現代防御機制可以在四個相互關聯的領域進行研究:先進的戰艦、良好的通信、人工智能和自主武器。這基本上意味著在軍事防御系統中實施機器人技術。在戰場上,一支裝備精良的機械化部隊是指揮官非常重要的資產。在戰爭中,指揮官必須專注于火力、機動性、人機合作、決策、支持裝甲和指揮步兵。在未來,機器人和自動化系統將通過提供支持和減少負擔來幫助解決這些問題,因為這些系統將更加智能、可靠和合作。在最近的軍事活動中,機器人和自主技術被用于偵察、設備供應、監視、掃雷、災難恢復、受傷士兵的檢索等(Dufourda, & Dalgalarrondo, 2006;Akhtaruzzaman, et al., 2020)。

為了確保可靠的使用和獲得最高的技術影響,機器人必須在半自動化、自動化和人機交互工程方面進行良好的設計。無人地面車輛(UGV)很有前途,在國防應用中具有很大的潛力,在這些應用中高度需要更快和可靠的通信鏈接(鏈接預算)和快速獲取信息(RAtI)(Akhtaruzzaman, et al., 2020)。機器人的價值比人的生命還要低。機器人在感知、檢測、測量和分析方面速度更快。機器人沒有任何激情或情感,不會像人類那樣感到疲勞或疲倦,而是在極端和關鍵條件下保持運作。在不久的將來,機器人將成為作戰計劃和參與的核心技術(Abiodun, & Taofeek, 2020)。它們將能夠通過智能傳感器技術與環境溝通,通過建模理解環境,理解人類的行動,定義威脅,服從命令,以更高的處理能力獲取信息,通過信息交換和共享與其他機器人互動,通過先進的控制技術自主適應敵對環境,并通過強大的計算能力與自動生成的程序應用智能進行自我學習(Akhtaruzzaman, & Shafie, 2010a, 2010b; Karabegovi?, & Karabegovi?, 2019)。

在不久的將來,UGV系統將成為軍事行動的關鍵技術,因為它們將確保幾乎零人力風險,不需要將人力直接安置到戰斗中。UGV系統還將能夠開放各種設施,如負載、自動監視、邊境巡邏、風險降低、障礙物清除、力量倍增器、遠程操縱、信號中繼等(Sathiyanarayanan等人,2014)。陸地防衛機器人必須能夠適應各種崎嶇的地形、惡劣的環境和非結構化的區域,同時發揮指定的作用并保持指揮層次。作為軍事部隊的一種程度,陸地機器人不能給團隊帶來任何額外的工作負擔。因此,必須實施有效的人工智能(AI)工程,以實現UGV或陸地機器人與行動部隊之間可靠的人機合作。

今天的智能機器人或自主武器仍然處于狹義人工智能(ANI)的水平(Horowitz,2019年),或者以某種方式處于ANI和通用人工智能(AGI)之間。這反映出它們還沒有準備好在災難或戰爭等敵對情況下完全自主并做出可靠的決定。人類擁有在很大程度上應用感知經驗的智慧,能夠適應環境,并能在關鍵情況下做出適當的決定。如果這些能力能夠被植入機器人的大腦,該系統就可以說是AGI系統。盡管與人類相比,機器人可以抵御枯燥、骯臟和危險的工作,但它們包括一些有限的功能,如航點或目標導向的導航、障礙物檢測、障礙物規避、威脅檢測、人類檢測和識別、定位、地圖構建、通過圖像和聲音處理提取信息,以及與其他機器人的某種合作。因此,如果能確保機器人和人類之間的良好合作,機器人將在人類的監督下自主工作,那么軍用地面機器人將是最有效的。

本研究對軍用陸地機器人系統、最近的技術進步、應用和道德影響進行了回顧。一些發達國家和不發達國家的現狀,以及通過推進和發展軍事武器、自動化武器和智能技術對世界經濟的工業影響,都反映在審查研究中。本文還闡述了參與戰爭的機器人倫理以及該技術對道德國家的影響。該研究主要試圖通過確定最近的差距、局限性和技術進步的倫理影響,來確定地面機器人技術的最新應用和實施情況

付費5元查看完整內容

隨著數據越來越多地存儲在不同的筒倉中,社會越來越關注數據隱私問題,傳統的人工智能(AI)模型集中訓練正面臨效率和隱私方面的挑戰。最近,聯邦學習(FL)作為一種替代解決方案出現,并在這種新的現實中繼續蓬勃發展。現有的FL協議設計已經被證明對系統內外的對抗是脆弱的,危及數據隱私和系統的魯棒性。除了訓練強大的全局模型外,最重要的是設計具有隱私保障和抵抗不同類型對手的FL系統。在本文中,我們對這一問題進行了第一次全面的綜述。通過對FL概念的簡明介紹,和一個獨特的分類涵蓋:1) 威脅模型; 2) 中毒攻擊與魯棒性防御; 3) 對隱私的推理攻擊和防御,我們提供了這一重要主題的可訪問的回顧。我們強調了各種攻擊和防御所采用的直覺、關鍵技術和基本假設。最后,我們對魯棒性和隱私保護聯合學習的未來研究方向進行了討論。

//www.zhuanzhi.ai/paper/678e6e386bbefa8076e699ebd9fd8c2a

引言

隨著計算設備變得越來越普遍,人們在日常使用中產生了大量的數據。將這樣的數據收集到集中的存儲設施中既昂貴又耗時。傳統的集中式機器學習(ML)方法不能支持這種普遍存在的部署和應用,這是由于基礎設施的缺點,如有限的通信帶寬、間歇性的網絡連接和嚴格的延遲約束[1]。另一個關鍵問題是數據隱私和用戶機密性,因為使用數據通常包含敏感信息[2]。面部圖像、基于位置的服務或健康信息等敏感數據可用于有針對性的社交廣告和推薦,造成即時或潛在的隱私風險。因此,私人數據不應該在沒有任何隱私考慮的情況下直接共享。隨著社會對隱私保護意識的增強,《通用數據保護條例》(GDPR)等法律限制正在出現,這使得數據聚合實踐變得不那么可行。

在這種情況下,聯邦學習(FL)(也被稱為協作學習)將模型訓練分發到數據來源的設備上,作為一種有前景的ML范式[4]出現了。FL使多個參與者能夠構建一個聯合ML模型,而不暴露他們的私人訓練數據[4],[5]。它還可以處理不平衡、非獨立和同分布(非i.i.d)數據,這些數據自然出現在真實的[6]世界中。近年來,FL獲得了廣泛的應用,如下一個單詞預測[6]、[7]、安全視覺目標檢測[8]、實體解析[9]等。

根據參與者之間數據特征和數據樣本的分布,聯邦學習一般可以分為水平聯邦學習(HFL)、垂直聯邦學習(VFL)和聯邦遷移學習(FTL)[10]。

具有同構體系結構的FL: 共享模型更新通常僅限于同構的FL體系結構,也就是說,相同的模型被所有參與者共享。參與者的目標是共同學習一個更準確的模型。具有異構架構的FL: 最近的努力擴展了FL,以協同訓練具有異構架構的模型[15],[16]。

FL提供了一個關注隱私的模型訓練的范式,它不需要數據共享,并且允許參與者自由地加入和離開聯盟。然而,最近的研究表明,FL可能并不總是提供足夠的隱私和健壯性保證。現有的FL協議設計容易受到以下攻擊: (1)惡意服務器試圖從個人更新中推斷敏感信息,篡改訓練過程或控制參與者對全局參數的看法;或者(2)一個敵對的參與者推斷其他參與者的敏感信息,篡改全局參數聚合或破壞全局模型。

在隱私泄露方面,在整個訓練過程中,通信模型的更新會泄露敏感信息[18]、[19],并導致深度泄露[20],無論是對第三方服務器還是中央服務器[7]、[21]。例如,如[22]所示,即使是很小一部分的梯度也可以揭示相當數量的有關本地數據的敏感信息。最近的研究表明,通過簡單地觀察梯度,惡意攻擊者可以在[20],[23]幾次迭代內竊取訓練數據。

在魯棒性方面,FL系統容易受到[24]、[25]和[26]、[27]、[28]、[29]的模型中毒攻擊。惡意參與者可以攻擊全局模型的收斂性,或者通過故意改變其本地數據(數據中毒)或梯度上傳(模型中毒)將后門觸發器植入全局模型。模型投毒攻擊可以進一步分為:(1)Byzantine 攻擊,攻擊者的目標是破壞全局模型[13]、[30]的收斂性和性能;(2)后門攻擊,對手的目標是在全局模型中植入一個后門觸發器,以欺騙模型不斷預測子任務上的敵對類,同時在主要任務[26],[27]上保持良好的性能。需要注意的是,后門模型投毒攻擊通常利用數據投毒來獲取有毒的參數更新[24]、[26]、[27]。

這些隱私和魯棒性攻擊對FL構成了重大威脅。在集中學習中,服務器控制參與者的隱私和模型魯棒性。然而,在FL中,任何參與者都可以攻擊服務器并監視其他參與者,有時甚至不涉及服務器。因此,理解這些隱私性和健壯性攻擊背后的原理是很重要的。

目前對FL的研究主要集中在系統/協議設計[10]、[31]、[32]。聯邦學習的隱私和穩健性威脅還沒有得到很好的探討。在本文中,我們調研了FL的隱私和魯棒性威脅及其防御方面的最新進展。特別地,我們關注由FL系統內部者發起的兩種特定威脅:1) 試圖阻止學習全局模型的中毒攻擊,或控制全局模型行為的植入觸發器;2) 試圖泄露其他參與者隱私信息的推理攻擊。表2總結了這些攻擊的特性。

付費5元查看完整內容
北京阿比特科技有限公司