亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

指揮、控制、通信和情報(C3I)系統越來越多地被用于民用和軍用中的關鍵領域,以實現信息優勢、高效率作戰和更好的態勢感知。與面對大量網絡攻擊的傳統系統不同,C3I戰術行動的敏感性質使其網絡安全成為一個關鍵問題。例如,在軍事戰場上篡改或截獲機密信息不僅會破壞C3I的運作,而且還會造成不可逆轉的后果,如人員的傷亡和任務的失敗。因此,C3I系統已經成為網絡對抗的一個焦點。此外,技術的進步和C3I系統的現代化大大增加了C3I系統遭受網絡攻擊的潛在風險。因此,網絡中的敵對方使用高度復雜的攻擊載體來利用C3I系統的安全漏洞。盡管網絡安全對 C3I 系統的重要性日益增加,但現有文獻缺乏對 C3I 系統安全知識體系進行系統化的全面回顧。因此,在本文中,我們收集、分析和整合了關于C3I系統網絡安全的最新進展。特別是,本文已經確定了C3I系統的安全漏洞、攻擊載體和對策/防御措施。此外,我們的調查使我們能夠:(i)提出安全漏洞、攻擊載體和反措施的分類法;(ii)將攻擊載體與安全漏洞和對策相互關聯;(iii)提出未來的研究方向,以推進C3I系統網絡安全的最新進展。

【關鍵詞】:指揮;控制;通信;情報;計算機;監視;偵察;C3I;C4I;C4ISR;網絡安全;網絡攻擊;漏洞;對策

1 介紹

指揮、控制、通信和情報(C3I)系統是數據收集傳感器、智能計算機和異構通信網絡的整合,該系統在指揮官的監督下被授權收集、存儲、分析和傳遞戰術領域的信息。由于新的智能(如人工智能(AI)技術)和認知的敏捷性,C3I系統使組織能夠在行動中獲得并保持信息優勢、作戰效能、增加態勢感知、實時決策支持、快速溝通以及加強異構C3I單位之間的協作。此外,C3I指揮系統確保嚴格遵守組織的命令鏈,從而防止C3I單位在戰術行動中違反知情行動方針。因此,C3I系統越來越多地被用于民用和軍用中的敏感領域,如搜救任務、醫療、交通、消防、戰場、機場以及許多其他應用,在這些領域中,及時的數據傳輸和計劃執行是首要關注的目標。例如,英國政府利用C3I系統對COVID-19造成的醫療緊急情況做出了有效反應。

為了說明C3I系統在戰術行動中的意義,圖1顯示了C3I系統在軍事和民用領域的兩個應用場景--(a)戰場和(b)救援任務。在戰場場景中,C3I指揮系統和C3I控制系統分別通過不同的傳感器設備(如四旋翼飛機和近距離傳感器)收集戰術數據(例如,敵方士兵的位置和活動)。控制系統在C3I情報單位的幫助下處理原始數據,并向指揮系統提供分類信息。因此,C3I指揮系統通過協調多個軍事部隊,如士兵、直升機和裝甲坦克,執行所需的行動計劃,以實現任務目標。C3I通信系統,如衛星鏈路和其他技術(如4G/5G和射頻鏈路),使移動C3I單位(如直升機和四旋翼飛機)能夠在戰術行動中有效協作。使用類似的方法,但目標不同,在圖示的救援任務場景中,C3I指揮系統指揮救生員和救援船去拯救溺水者。在這兩種情況下,C3I系統通過在戰術行動中收集和處理敏感數據來產生所需的情報,從而實現信息優勢、作戰效能和態勢感知。

圖1. C3I系統在(a)軍事行動和(b)救援任務中的應用演示。

如圖所示,C3I系統被用于敏感領域,如軍事任務和搜救場景。所謂敏感領域,我們指的是行動出錯的后果是相當有害的領域。例如,在軍事行動中,向飛機提供錯誤的目標位置以進行炮擊,會導致嚴重的意外損失,包括人命傷亡和基礎設施的破壞。C3I應用領域的敏感性質使其網絡安全成為一個關鍵問題。例如,考慮到圖1(a)所示的軍事行動,如果近距離傳感器因為對手的攻擊而被破壞,C3I系統就會收集虛假的數據并相應地產生錯誤的指令,從而導致任務失敗。歷史事件也表明,C3I系統的網絡安全漏洞會導致重大的軍事失利。例如,恩尼格瑪機器(C3I通信系統的一部分)被破壞是二戰中德軍損失敗的主要原因之一。同樣,同樣,由維基解密于 2010 年發布的 C3I 基礎設施中托管的阿富汗戰爭文件泄露事件是軍事歷史上最大的數據泄露事件之一。這次未經授權的披露包含大約91,000份有關阿富汗戰爭的美國機密軍事記錄。華盛頓郵報》在2019年報道了另一起網絡安全違規事件,當時美國正式對伊朗的C3I軍事裝置發動了網絡攻擊。這些網絡攻擊損害了控制導彈和火箭發射器的C3I系統。在 C3I 民用領域應用方面,對洛杉磯醫院和舊金山公共交通的勒索軟件攻擊不僅擾亂了他們的 C3I 運營,還導致未經授權的敏感信息泄露。因此,大量針對C3I系統的網絡攻擊已經成為C3I系統網絡安全的一個嚴重問題。

鑒于戰術行動的復雜性在不斷增加(如國防部C3I現代化戰略),當代C3I系統已經開始利用現代技術的先進功能,如區塊鏈和云計算),以滿足戰術環境中快速響應、可靠性和業務保障等嚴格的操作要求。在當代C3I系統中融入最先進的技術,增加了復雜的網絡攻擊的潛在風險,如高級持續性威脅(APTs)。網絡威脅的可能存在于任何C3I系統組件中,如數據庫、網絡服務器和通信網絡。當對手利用系統的漏洞,造成未經授權的信息泄露、篡改和敏感信息不可用等不良后果,以及金錢和名譽損失時,對C3I系統的網絡攻擊就被認為是成功的。此外,使用最先進的技術來執行網絡攻擊,加劇了對C3I系統的不利影響。

網絡攻擊的影響越來越大,強調了設計、開發和采用適當的安全措施來保護C3I系統的必要性。因此,安全專家、系統設計者和開發者采用防御性策略,也就是廣義上的對策,以確保C3I系統免受網絡攻擊。例如,美國、英國等國家和北大西洋公約組織(NATO)等組織提出了北約架構框架(NAF)、英國國防部體系架構框架(MoDAF)、美國國防部體系架構框架(DoDAF)等架構框架,以加強C3I相關戰術系統的網絡安全。此外,還有為C3I領域開發最先進的技術服務,適應大數據、物聯網、5G通信等新興技術,以及建立網絡防御系統等措施。在目前有關C3I系統網絡安全的背景下也值得注意。除了應對措施外,明確經常被網絡敵對方利用的常見漏洞也很重要。同樣重要的是確定對手利用這些漏洞的攻擊載體。這種對漏洞和攻擊載體的探索有助于研究人員和安全專家為保護C3I系統的安全而開發所需的安全保障/對策。

圖2. 為調查C3I系統的網絡安全而確定的主題

雖然研究人員已經提出了一些對策,并明確了C3I系統的漏洞和攻擊載體,但據我們所知,目前還沒有一項調查/審查研究,旨在調查現有文獻,以系統化C3I系統的網絡安全知識體系。為了填補這一空白,我們的研究系統地收集、分析和整合了關于C3I系統網絡安全的最新進展。在調差有關這一主題的文獻時,我們只考慮了2000年以后發表的經同行評議的研究,以提供關于C3I系統網絡安全的最現代和有效的見解。根據我們對所調查的研究中提取的數據的分析,我們將本文分為三個主題(即安全漏洞、攻擊載體和對策),如圖2所示。為了對C3I系統進行深入的網絡安全分析,我們將每個主題分為兩個子主題。例如,我們描述了文獻中確定的每個安全漏洞,和如何利用安全漏洞的細節及其有害的后果。同樣地,我們報告了攻擊載體的執行情況以及它們對C3I系統的不利影響。通過對這些主題的分析和報告,我們確定了它們之間的關系以及從業人員和研究人員的未來研究領域。

我們的貢獻:綜上所述,我們的調查有以下貢獻。

  • 本文對文獻中發現的C3I系統的安全漏洞進行了全面分析。細致地描述每一個安全漏洞如何被利用的細節和對C3I系統的利用后果。對已確定的安全漏洞根據C3I系統組件以創新的方法進行分類。
  • 本文對適用于C3I系統的攻擊載體進行了高水平的調查。每個攻擊載體都被仔細研究,重點是其執行方法和對C3I系統的不利影響。我們根據C3I系統的組成部分(即指揮、控制、通信和情報)對攻擊載體進行了分類。
  • 本文對文獻中報道的保護C3I系統網絡空間的對策進行了總體分析。描述了每種對策的方法和好處。根據C3I系統的開發和運行階段進行對已確定的對策進行了分類。此外,對每個類別進行了批判性的調查,提出了其好處和局限性。
  • 本文對C3I系統的安全漏洞、攻擊載體和對策行了綜合分析。不僅詳盡的分析了攻擊載體與安全漏洞以及對策之間的獨特關系,而且還確定了未來的研究方向,以推進C3I系統網絡安全的最新進展。

值得一提的是,我們在這次調研中分析了C3I系統及其衍生系統的網絡安全問題。這些衍生系統包括指揮、控制、通信、計算機和情報(C4I)系統;指揮、控制、通信、計算機、網絡和情報(C5I)系統;指揮、控制、通信、計算機、情報、監視和偵察(C4ISR);以及許多其他組合(例如,C5ISR和C6ISR)。然而,為了方便讀者,我們在本文中使用C3I系統這一術語來指代C3I及其所有其他的衍生系統。

2 對C3I系統的回顧

本節提供了C3I系統的概述,以幫助理解后續章節中報告的結果。特別地是,我們描述了C3I系統的組成部分和它們在戰術行動中的功能。一個C3I系統主要由四個部分組成:指揮系統、控制系統、通信網絡和情報單位。這些C3I組件相互配合運行,以執行關鍵的民事和軍事行動。在戰術行動開始時,C3I指揮和控制系統都分別通過不同的數據源(如傳感器、現場指揮員和在戰術環境中運作的C3I系統)收集戰術信息,如圖3所示。

控制系統:C3I控制系統對收到的戰術信息進行處理,以生成實現C3I任務目標所需的行動計劃。為此,C3I控制系統采用了數據計算機(如單板計算機)、數據控制器(如PLC和SCADA)以及存儲設備(如固態驅動器)。從戰術領域收集的原始數據主要通過以下三個步驟進行處理。第一步:通過從收到的信息中提取其相關特征來估計戰術情況。第2步:將估計的情況與期望的任務結果進行比較,以產生可能的行動計劃。第3步:根據戰略資源的可用性和要求(如業務質量、成本和功率),從可能的選項中選擇一個最佳行動計劃。最后,C3I控制系統與相應的C3I指揮系統共享最佳行動計劃,以便進行驗證和實施。值得注意的是,C3I情報單元為控制系統的活動提供了便利,這一點將在本節后面介紹。

指揮系統:戰術數據源通過C3I網絡接口、生態接口和安卓應用等C3I指揮系統向C3I指揮員提供態勢感知(如戰術單位的地理位置和移動)。C3I指揮員首先分析C3I控制系統的共享態勢感知和最佳行動計劃,為實現既定目標準備一個針對對手的有效策略。然后,他們通過指揮界面向在戰術環境中運行的現場指揮官和自主系統發出指令,實施最終確定的行動計劃。C3I指揮界面確保了戰術行動中嚴格的命令鏈,這可以防止網絡敵對方未經授權使用機密信息。

圖3. 每個C3I系統的組成部分在戰術行動中的作用

通信系統:C3I 通信系統支持在戰術環境中收集、處理和傳播數據期間 C3I 組件和戰術數據源之間的所有內部和內部通信。為此,C3I 通信系統連接廣泛分布的、移動的和異構的 C3I 資產(例如,傳感器、自主 C3I 系統和地面當局)以進行數據傳輸和整體通信。為了整合異構 C3I 資產,C3I 通信網絡由多功能和多樣化的數據傳輸鏈路組成,包括地面視距(例如 Link-16 和甚高頻)、地面超視距(例如聯合戰術無線電系統和合作參與能力數據分發系統)和衛星(例如窄帶和寬帶)通信設施。此外,MANET、RF 鏈路、4G/5G 和 SATCOM 等其他數據傳輸協議和技術也用于 C3I 網絡。對于異構資產之間的數據轉換,C3I 通信系統采用有效的數據交換模型(例如,JC3IEDM 和 MIEM)來增強 C3I 作戰期間異構戰術資產之間的互操作性和聯盟。

情報單位:C3I情報部門協助C3I系統進行數據處理和有效決策。不同的人工智能工具,如機器學習(ML)和深度學習(DL)模型,被用來在C3I行動中引入智能。例如,報告中提到的基于ML的降維算法,被用來從C3I數據源收到的原始信息中提取相關特征,以估計一個新出現的戰術形勢。同樣,報告中提到的基于人工智能的優化方法被用來選擇一個最佳的行動計劃。C3I情報能力不僅提高了對局勢的認識和作戰效率,而且還為C3I指揮官提供了有效決策的認知敏捷性。

3 安全漏洞

本節報告了與C3I系統的安全漏洞這一主題有關的調查結果。一般來說,安全漏洞是指系統中的任何弱點、故障或問題,攻擊者可以利用這些漏洞來傷害系統或其用戶。基于這個定義,我們確定了13個安全漏洞,分別表示為V1、V2、V3、...。V13. 我們根據相關的C3I系統組件(即指揮、控制、通信和情報)對確定的漏洞進行了分類。由于一些漏洞(如V1和V8)與多個C3I組件有關,我們在每個組件下解釋了這些漏洞的變體。此外,對于每個漏洞,我們都提供了常見漏洞和暴露(CVE)數據庫的例子,考慮到它們與C3I系統的相關性和適用性。圖4和圖5分別說明了安全漏洞和攻擊載體的總體分類,以及漏洞及其提取的研究。

圖4. 與C3I系統的指揮、控制、通信和情報部分相關的安全漏洞和攻擊載體

3.1 C3I指揮系統的漏洞

記錄和監控不足(V1):C3I指揮系統應該配備持續的監測方法,如入侵檢測,以實現實時的未經授權的訪問識別和預防。然而,系統架構,如面向服務的架構(SOA)并不包括內置的入侵檢測和持續監控機制,因為基于SOA的系統通常用于企業應用。因此,基于SOA的C3I系統既不能實時識別入侵者,也不能長期識別受損的系統。此外,考慮到諸如OpenPegasus通用信息模型(CIM)服務器等機制可用于監測C3I系統的硬件性能和健康狀況,它可以包含這個安全漏洞,因為OpenPegasus 2.7 CIM沒有記錄失敗的登錄嘗試(CVE-2008-4315)。通過利用這個漏洞,對手可以執行許多攻擊,未經授權地訪問C3I系統,而不被發現或通知有關當局。

不安全的會話管理(V2):許多基于網絡的C3I指揮系統使用會話來存儲用戶信息,包括服務器端存儲的會話ID,能夠唯一地識別每個用戶和他們的授權操作。如果在設計用戶認證機制時沒有采取安全措施,如加密性強的會話ID和安全的會話終止策略,就會使攻擊者從服務器中檢索到會話數據,并在未經授權的情況下進入C3I指揮系統,破壞或影響C3I系統中遵循的嚴格的命令鏈。例如,當C3I系統采用Infinispan等NoSQL數據庫軟件時,由于Infinispan-9.4.14缺乏適當的會話固定保護(CVE-2019-10158),C3I系統會受到這個漏洞的影響。

缺少功能級訪問控制(V3):與任何其他系統類似,C3I指揮系統也有多個具有不同訪問權限的用戶。例如,系統管理員比普通用戶(如數據操作員)有更高的權限,他們通過專門的管理界面來利用這些權限。當系統的設計不正確,不能提供功能級別的訪問控制(即對每個功能進行嚴格的用戶授權)時,具有低訪問權限的用戶可以提升他們的權限,執行未經批準的操作。例如,當C3I系統利用服務管理軟件(如IBM Jazz)時,用戶可以通過利用這一漏洞(CVE-2019-4194)訪問和刪除C3I系統中的受限數據和資源。

基于角色的不安全訪問控制(V4):正如V3所解釋的,C3I指揮系統需要管理具有多種角色和訪問權限的用戶。基于角色的訪問控制(RBAC)是一種廣泛使用的訪問控制方法,每個用戶都有一個定義的用戶角色,并有一組允許的行動。雖然RBAC系統可以促進對C3I指揮系統功能和數據的基于角色的訪問控制,但配置錯誤的RBAC系統(例如,用戶角色和其相關功能之間的映射不準確)會使關鍵任務數據被攻擊者操縱和刪除。例如,由Oracle Solaries 11.1操作系統驅動的C3I系統受此漏洞影響,允許本地用戶進行限制其用戶角色的操作(CVE-2013-5875)。

開放式重定向(V5):在基于網絡的C3I指揮系統中,用戶依靠統一資源定位器(URL)在內部和外部C3I系統之間導航。因此,確保這些網絡鏈接經過驗證并只指向安全的C3I系統和域是至關重要的。例如,當C3I系統用戶利用基于網絡的Cisco Webex會議進行在線會議時,遠程攻擊者可以發送惡意的URL,并通過將其重定向到不安全的網頁來竊取C3I系統的用戶憑證,因為該軟件沒有嚴格驗證用戶給出的URL(CVE-2021-1310)。在這種情況下,攻擊者可以竊取C3I管理員的憑證,并使用收到的憑證來冒充管理員并執行對C3I系統的攻擊。

不安全的直接對象引用(IODR)(V6):與V5類似,IODR漏洞也與基于網絡的C3I指揮系統的不安全訪問控制有關。在網絡開發中,使用對象的名稱或鍵來動態填充網頁是很常見的。因此,如果C3I指揮系統不驗證用戶訪問駐留在C3I系統中的數據的請求,那么對手就可以通過注入受限的內部對象引用來操縱合法的請求,從而在水平和垂直方向上提升他們的權限。例如,當C3I系統使用LogonBox Nervepoint Access Manager進行用戶認證和身份管理時,攻擊者可以利用IODR漏洞,未經授權地檢索C3I系統的用戶詳細信息(CVE-2019-6716)。

不安全的配置存儲(V7):一個典型的C3I指揮系統由多個服務器組成,這些服務器被配置為各種功能,如網絡服務、電子郵件服務器和文件傳輸服務。一個服務器的配置存儲管理著所有已實施的安全方法、方法和技術的設置細節。服務器的錯誤配置和向未經授權的第三方披露訪問細節會導致不安全的配置存儲。攻擊者如果獲得了對指揮系統配置存儲的訪問權,就可以禁用已實施的安全機制,使C3I系統容易受到許多網絡攻擊。例如,當C3I系統配備了應用管理軟件,如ManageEngine應用管理器時,惡意的認證用戶可以利用這一漏洞來提升他們的權限。因此,這些對手可以完全控制整個C3I系統(CVE-2019-19475)。

使用COTS組件(V8):許多C3I系統利用商業現成(COTS)組件來減少開發成本和時間。然而,由于測試和審查程序不充分,這些軟件組件中可能包含一些安全漏洞。即使是經過測試的軟件組件,有些也沒有對已知的漏洞進行修補。需要注意的是,當C3I系統采用這些與開源代碼庫相關的第三方軟件時,攻擊者可以通過對C3I系統發起攻擊來利用漏洞。例如,當C3I認證系統采用有漏洞的第三方JSON網絡令牌庫(CVE-2021-41106)時,C3I指揮系統面臨著未經授權訪問關鍵任務數據的威脅。

3.2 C3I控制系統的漏洞

使用COTS組件(V8):與第3.1節--V8類似,C3I控制系統可能會因為使用受損的第三方軟件進行安全關鍵數據處理、存儲、監控和可視化等任務而變得容易受到網絡攻擊。因此,當C3I控制系統配備了來自惡意供應商的軟件,而沒有進行充分的安全測試以加快開發過程時,這些系統可能包含后門和預先安裝的惡意軟件。例如,當C3I系統配備了用于存儲關鍵任務數據的IBM InfoSphere服務器時,攻擊者可以通過利用這些服務器固有的不安全的第三方域訪問漏洞(CVE-2021-29875)竊取這些數據。

圖5. 已確認的C3I系統安全漏洞及其來源/參考文獻

不安全的數據存儲(V9):C3I控制系統存儲不同類型的數據,包括關鍵的安全信息,以通過提高態勢感知和戰術決策支持來加快C3I的運作。因此,在C3I系統中,靜態數據的安全是至關重要的。由于許多原因,如硬件和軟件故障、用戶的疏忽和對手的攻擊,C3I系統中可能發生數據丟失。例如,當C3I系統數據存儲在Couchbase服務器中時,攻擊者可以訪問這些數據,因為這些Couchbase服務器以純文本方式存儲安全關鍵數據(CVE-2021-42763)。

3.3 C3I通信系統的漏洞(機翻開始)

記錄和監控不足(V1):與第3.1節-V1類似,C3I通信系統也應該配備持續的日志和監控機制,以檢測來自被攻擊的C3I節點的惡意流量。例如,當C3I通信系統利用配備JUNOS操作系統的網絡設備時,由于該系統缺乏適當的資源分配和監控方法,攻擊者可以向這些設備發送惡意流量,使其無法用于合法的C3I數據通信(CVE-2021-31368)。

不安全的會話管理(V2):C3I通信系統促進了廣泛的C3I節點之間的高效和安全的數據通信。例如,來自無人機的戰場數據必須傳輸到C3I控制單元進行進一步處理,來自指揮系統的命令必須與軍事部隊進行溝通,以采取必要的行動。開放系統互連(OSI)模型中的會話層負責創建、同步和終止設備間的通信通道。因此,會話層中需要SSL/TLS證書等安全方法,以實現合法的C3I節點之間的安全通信。然而,這些安全措施的謬誤實施使得對手能夠使C3I通信網絡無法用于關鍵數據通信,導致任務失敗(CVE-2021-40117)。

不安全的配置存儲(V7):與第3.1節--V7類似,C3I系統必須采用安全配置管理系統,如思科火力管理中心(FMC)來實施和維護C3I通信系統的安全機制。然而,由于FMC系統以純文本形式存儲用戶數據,經過驗證的本地攻擊者可以檢索這些細節,并通過冒充系統管理員來禁用C3I通信網絡實施的安全防御措施(CVE-2021-1126)。

使用COTS組件(V8):與第3.1節--V8類似,C3I通信系統也會因為使用被破壞的COTS設備(如路由器和交換機)和網絡管理工具(如Wireshark和SolarWinds)而變得脆弱。例如,由于網絡監控和管理軟件SolarWinds的漏洞,九個美國聯邦機構已經被攻破,攻擊者已經獲得了這些系統的數據和電子郵件(CVE-2021-35212)[174]。同樣地,任何使用SolarWinds第三方軟件的C3I系統都擁有未經授權訪問C3I關鍵任務數據的威脅。

不安全的OpenSSL軟件(V10):OpenSSL是一個加密軟件,用于C3I網絡系統,支持C3I網絡系統和用戶之間的安全通信。它通過 "心跳 "信息確保在通信鏈路的另一端有一個活躍的接收器。由于OpenSSL軟件沒有實現嚴格的 "心跳 "消息驗證機制,攻擊者可以利用這些消息來訪問服務器的隨機存取存儲器(RAM)。因此,攻擊者可以利用這個漏洞,從C3I系統服務器RAM中未經授權地檢索C3I關鍵任務信息和其他安全相關數據,如證書(CVE-2014-0160)。

使用公共通信網絡(V11):一些C3I系統使用公共網絡,如互聯網進行數據通信,以盡量減少成本。由于公共網絡默認缺乏嚴格的安全措施(如安全的虛擬專用網絡(VPN)),傳輸的數據容易受到與未經授權的訪問和數據操縱有關的對抗性攻擊。例如,當C3I組件通過沒有安全VPN通道的公共網絡進行通信時,攻擊者可以查看和篡改傳輸的數據,導致C3I運行受到影響。然而,即使使用VPN通道也不能保證通過公共通信通道傳輸的數據的保密性和完整性,因為一些VPN軟件在設計上沒有足夠的安全機制(例如,不安全的輸入驗證 - CVE-2021-1519)。

未加密的無線通信鏈接(V12):C3I系統依賴于無線通信網絡,主要是由于動員單位使用有線技術的成本和不現實。與有線通信技術相比,無線鏈路容易受到更多的攻擊,因為收發器對無線信號的傳播范圍和方向控制有限。與V3一樣,當C3I的無線網絡在設計上沒有采取必要的安全措施,如物理層加密,對手可以實施大量的攻擊,使C3I系統之間的通信鏈路失效,降低C3I行動的整體態勢感知。例如,當C3I通信系統利用具有內部數據加密過程錯誤的無線設備(如Broadcom WiFi客戶端設備--CVE-2019-15126)時,C3I關鍵任務數據可以被攻擊者解密,導致數據保密性被破壞。

無線通信鏈接斷裂(V13):如V12所述,C3I系統高度依賴于無線通信技術,以確保地理上分布廣泛的C3I資產之間的連接。然而,由于C3I資產在惡劣條件下的過度移動,無線通信鏈接經常受到影響。例如,當一個合法節點由于無線鏈路斷裂而斷開連接時,攻擊者可以通過加入被斷開連接的合法節點來滲透到C3I系統中(CVE-2020-24586)。因此,攻擊者可以在合法節點由于缺乏通信和降低態勢感知而變得脆弱的情況下進入C3I系統。

3.4 C3I情報單位的漏洞

記錄和監控不足(V1):雖然第3.1節從C3I指揮系統缺乏入侵檢測和持續監測機制的角度解釋了漏洞V1,但在這里,我們主要關注與C3I系統中基于AI/ML的監測和記錄方法的應用和安全性有關的兩個方面。首先,我們強調C3I系統采用的基于AI/ML的方法在入侵檢測方法方面的不足。例如,機器學習分類器,如K-近鄰(K-NN)、支持向量機(SVM)和人工神經網絡(ANN)已經被廣泛用于利用安全事件日志的異常檢測。因此,C3I智能單元可以納入這些機制來檢測入侵者,并隨后實施預防方法來阻止攻擊者進入C3I系統。如果不納入這些智能入侵檢測方法,將允許入侵者通過破壞系統的完整性來訪問和執行對C3I系統的惡意攻擊。其次,我們強調在C3I情報單位持續監測AI/ML模型的性能(如準確性)的必要性。AI/ML模型受到數據和模型漂移的影響,導致不準確的推斷。例如,當C3I系統采用為其他領域訓練的AI/ML模型進行入侵檢測時,由于數據漂移,這些模型的準確性會大大降低。因此,C3I系統中采用的人工智能/ML模型必須被持續監測、測試和驗證,以確保這些模型提供準確的結果。

使用COTS組件(V7):與第3.1節--V7類似,當C3I情報單位采用不安全的第三方人工智能/ML模型和框架,從原始數據(如傳感器數據)中生成知識(如態勢感知)時,這些單位可能變得容易受到網絡攻擊。例如,戰術C3I系統可以采用TensorFlow深度學習(DL)框架與卷積神經網絡(CNN),從衛星圖像中識別敵方領土。然而,當TensorFlow框架與NumPy包一起使用時,擁有拒絕服務(DoS)的威脅,NumPy包在AI/ML模型開發中通常被利用(CVE-2017-12852)。因此,當這些不安全的AI/ML包被用于C3I情報單位時,攻擊者可以利用這一漏洞使情報單位不可用或不響應,影響C3I的運作并導致任務失敗。

4 攻擊載體

本節報告與主題2(針對C3I系統的攻擊載體)有關的發現。攻擊載體是指攻擊者利用C3I系統中的漏洞所使用的方法。我們通過現有文獻確定了19個針對C3I系統網絡安全的攻擊向量(圖6)。我們用A1、A2、A3、......、A19表示這19個攻擊向量,以方便在本文中引用。類似于C3I系統的漏洞(第3節),我們根據攻擊向量對C3I系統組件的適用性對其進行分類,如圖4所示。由于篡改攻擊(A6)和惡意軟件(A7)可以在任何C3I系統組件上執行,我們同時報告了每個C3I組件的攻擊向量。在下文中,我們將描述攻擊向量及其對相應C3I系統組件的執行(子主題1)和影響(子主題2)細節。

4.1 C3I指揮系統的攻擊載體

蠻力攻擊(A1):蠻力攻擊是用來獲得對C3I指揮界面的未經授權的訪問。黑客使用不同的入侵機制,如試錯法和會話ID的利用,以獲得C3I指揮官的秘密信息(如加密密鑰和登錄憑證)。因此,入侵者不僅可以獲得實時的態勢感知,還可以通過被入侵的C3I指揮界面進行惡意活動(例如,生成欺詐性指令)。

內部攻擊(A2):內部人員指的是擁有合法訪問C3I指揮系統的惡意C3I系統操作員。當內部人員在使用C3I指揮界面時故意或錯誤地忽略了安全協議,就會執行內部攻擊。這種行為會導致敏感信息的泄露和戰術行動的終止。由于內部人員的合法訪問權限,在C3I指揮系統中檢測或防止內部攻擊是很麻煩的。

跨站腳本(A3):跨站腳本(XSS)是一種攻擊媒介,用于攻擊基于網絡的C3I命令界面,即在C3I命令界面的輸出中注入惡意腳本。當C3I指揮官訪問一個被破壞的界面時,一個已安裝的惡意腳本被激活,這使得入侵者能夠從C3I指揮系統中竊取敏感信息(例如,用戶活動)。會話劫持和用戶冒充是XSS的結果。

SQL注入(A4):結構化查詢語言(SQL)是一種代碼,用于通過基于網絡的C3I命令界面從C3I存儲設施獲取敏感信息。當入侵者注入一個惡意的SQL查詢來訪問C3I數據庫時,就會發生SQL注入。因此,入侵者會滲出、破壞或操縱存儲在C3I數據庫中的敏感信息。例如,羅馬尼亞黑客在2010年對美國軍隊網站實施了一次SQL注入攻擊。正如DARKReading5所報道的那樣,黑客成功地進入了包含軍隊人員敏感信息的75個數據庫。

跨站請求偽造(A5):網絡對手通過C3I指揮界面創建欺詐性的HTTP鏈接來進行惡意活動。如果一個經過認證的C3I指揮官點擊了欺騙性的鏈接,相應的惡意行為就會被執行。由于易受攻擊的網絡界面無法區分合法請求和授權用戶發送的偽造請求,因此這種指揮界面很難檢測到偽造的請求。跨站請求偽造使攻擊者能夠通過C3I指揮界面在戰術領域執行惡意命令。

圖6. 確定的C3I系統攻擊載體及其來源/參考資料

篡改攻擊(A6):篡改攻擊,在報告中,當入侵者進行惡意活動,操縱通過C3I命令接口傳達的戰術信息時,就會執行篡改攻擊。例如,網絡參數篡改攻擊通過使用POST請求來篡改用戶的證書、操作命令和通過C3I網絡接口傳達的信息。因此,C3I指揮官無法實施所需的行動計劃,這可能導致C3I任務的失敗。

惡意軟件(A7):惡意軟件是用來滲透到C3I系統的惡意活動,如未經授權的訪問、數據修改和滲出。惡意軟件通常通過惡意電子郵件、偷渡下載和C3I指揮系統的外部可移動設備傳播。因此,惡意軟件限制了授權用戶訪問C3I接口,為黑客提供了對C3I接口的遠程訪問,并竊取了有關指揮行動的敏感信息。

拒付攻擊(A8):當入侵者修改C3I指令操作中執行的活動記錄時,就會發生拒認攻擊。通過使用不同的惡意策略(例如,日志注入攻擊),攻擊者會改變C3I指揮官所采取的行動的存儲信息,或者破壞他們自己在C3I行動中的惡意活動的日志。因此,損壞的日志文件使人對指揮行動的有效性產生懷疑,并在C3I的命令鏈中造成混亂。

4.2 C3I控制系統的攻擊載體

篡改攻擊(A6):第4.1節所述的篡改攻擊,也被用來修改和編造C3I控制單元的數據計算和存儲系統中的戰術信息。入侵者進行惡意活動,如破壞數據庫配置和在程序可執行中注入惡意代碼,以操縱C3I控制系統的敏感信息。因此,C3I控制系統會錯誤地估計戰術情況,并為指揮系統生成偽造的行動計劃。

惡意軟件(A7):與C3I指揮系統(第4.1節)類似,惡意軟件也對C3I控制系統有害。使用第三方軟件、不安全的通信連接和脆弱的操作系統[48]是在數據計算機和存儲設備中注入惡意軟件的常見方式。因此,惡意軟件會造成數據操縱、滲出和控制系統活動的中斷,從而扭曲了實現C3I戰術目標所需的行動計劃生成過程。例如,Stuxnet惡意軟件破壞了伊朗核電站使用的計算機輔助控制系統(如SCADA)以及其他30,000個IP地址的運作。

檢查時間到使用時間(A9):C3I控制系統在制定實現任務目標的行動計劃之前,要檢查戰略資源(如作戰設備和人力資源)的可用性。當入侵者在可用資源的檢查和使用時間之間進行惡意活動(如惡意代碼注入和資源消耗)以使檢查操作的結果無效時,就會執行檢查時間到使用時間的攻擊[117]。因此,C3I控制系統用不可用/被破壞的資源準備一個行動方案,在C3I操作中執行非預期的行動。

4.3 C3I通信系統的攻擊載體

欺騙攻擊(A10):網絡攻擊者冒充合法的C3I節點與C3I網絡連接,以執行惡意活動(例如,竊取戰術信息和插入惡意軟件)。不同的攻擊載體,如IP欺騙、ARP欺騙、DNS欺騙和MAC欺騙,被用來通過不同的通信層竊取合法C3I節點的身份。例如,開源軟件,如Kismet和Ethereal,被用來獲取或改變一個C3I系統的有效MAC地址。另一種形式的欺騙攻擊是GPS欺騙,攻擊者通過使用商業化的現成產品產生偽造的GPS信號,向戰術環境中的C3I節點提供偽造的位置、導航和時間信息。

竊聽(A11):竊聽,也被稱為中間人攻擊,是一種被動的攻擊載體,攻擊者通過這種方式秘密地監聽兩個C3I節點之間的通信。開源網絡監控和數據包嗅探工具,如Wireshark和Tcpdump,被用來竊聽C3I的通信鏈接。竊聽攻擊的結果是未經授權披露戰術信息。例如,在第二次世界大戰期間,英國人通過被破壞的英格瑪機器竊聽了德國的軍事通信,這是德國軍隊失敗的主要原因之一。

淹沒式攻擊(A12):當攻擊者向目標C3I節點發送大量的流量,以破壞其在戰術環境中對其他C3I節點的服務時,就會實施泛濫攻擊。大流量,如SYN泛濫和PING泛濫,會消耗目標C3I節點附近的服務器的可用帶寬。因此,來自其他C3I節點的合法數據包無法從受影響的服務器上傳輸。因此,目標C3I節點會從C3I通信網絡中斷開連接。

干擾攻擊(A13):干擾攻擊使C3I系統對C3I通信網絡中的其他C3I節點不可用。黑客采用不同的干擾策略,如持續干擾和欺騙性干擾,使C3I通信系統中與目標C3I節點相關的數據傳輸鏈接失效。因此,受影響的C3I系統的服務,與被禁用的通道相連,對其他C3I戰術節點來說是不可用的。 黑洞攻擊(A14):在戰術性城域網中,為數據傳輸尋找最短路徑的路由發現過程是必要的和不可避免的。黑客在路由發現過程中,通過發送虛假的路由回復信息,即惡意節點擁有所需的最短路徑,來利用這一城域網特征。因此,源C3I節點通過惡意節點建立了一條通往目的地C3I節點的數據傳輸路線,這導致了通信中斷和敏感信息的泄露。

趕路攻擊(A15):當攻擊者節點在戰術性城域網的路由發現過程中收到一個路由請求(RREQ)時,就會執行急速攻擊。攻擊者節點在任何其他C3I節點在網絡中轉發相同的RREQ數據包之前,立即將RREQ數據包發送到所有C3I節點。這樣一來,所有其他的C3I節點都認為來自合法的C3I節點的RREQ是重復的,所以他們拒絕合法的RREQ。因此,攻擊者節點總是包括在數據傳輸路線中,這可能會導致戰術性城域網中的拒絕服務和竊聽(A11)。

蟲洞攻擊(A16):當至少有兩個攻擊者節點在戰術性城域網的戰略位置上定位時,就會發生蟲洞攻擊。在路由發現過程中,攻擊者節點在彼此之間進行RREQ數據包的加密。當目的地節點收到通過隧道傳輸的RREQ數據包時,目的地節點發現惡意路線是網絡中最短的路線,并丟棄從其他合法C3I節點收到的所有其他RREQ數據包。這樣一來,攻擊者節點就成了C3I戰術性城域網中數據傳輸路線的一部分。蟲洞攻擊可能導致C3I領域的數據篡改(A6)、中間人攻擊(A11)和數據外泄。

重放攻擊(A17):中報告的重放攻擊,分三個步驟進行。第一步:通過使用網絡監控工具監控C3I通信鏈路。第2步:截獲敏感信息,如登錄憑證和C3I行動計劃細節。第3步:重放截獲的數據包,欺騙接收的C3I節點。因此,合法的C3I節點認為攻擊者節點是真實的C3I節點,這導致了C3I系統中敏感信息的未經授權的泄露。

路由攻擊(A18):路由攻擊是在C3I通信網絡的路由協議上執行的,以破壞戰術環境中的C3I服務[45, 61, 85, 125, 136, 178]。網絡對手使用不同的惡意戰術,如路由表溢出[175]和路由表中毒[160],對C3I通信系統實施路由攻擊。結果,C3I系統無法與其他合法的C3I節點進行連接,這使得他們的服務在C3I網絡中無法使用。

缺乏同步性攻擊(A19):廣泛分布的C3I系統之間的時間同步是通過使用不同的協議(如參考廣播同步、定時同步協議和泛濫的時間同步)來確保執行協作的C3I操作。然而,這些時間同步協議的設計并不安全。因此,黑客會破壞這些協議,在分布式C3I環境中分享偽造的時間信息,這就造成C3I節點之間缺乏時間同步。因此,不同步的C3I節點對時間關鍵的C3I行動的操作協調產生了不利的干擾。

蠻力攻擊(A1):網絡認證機制,如Kerberos和WPA/WPA2,被用來保護戰術環境中的C3I通信系統。這些認證機制需要用戶憑證(即用戶名和密碼),以允許授權用戶訪問網絡資源。網絡對手使用最先進的暴力攻擊工具(如Reaver6和Fern-Wifi-Cracker7)來猜測授權用戶的證書,以便與C3I網絡連接。因此,對手可以竊聽和攔截通過C3I通信鏈路傳輸的敏感信息。

篡改攻擊(A6):入侵者修改和編造通過C3I通信鏈路傳輸的敏感信息。為此,攻擊者首先通過使用不同的攻擊機制(如黑洞攻擊(A14)和欺騙攻擊(A10))滲透到C3I網絡,然后,他們或者修改傳輸中的數據包,或者將自己的惡意數據注入到傳輸的敏感數據中。結果,被篡改的信息扭曲了態勢感知、C3I作戰活動和決策過程。

惡意軟件(A7):不安全的通信鏈路有利于惡意軟件在C3I戰術環境中從一個系統傳播到另一個系統。通過這種方式,黑客創建了一個由受損的C3I系統組成的網絡,稱為僵尸網絡,以在C3I網絡中進行惡意活動。例如,僵尸網絡通過對目標C3I系統進行淹沒式攻擊(A12)來執行分布式拒絕服務攻擊,破壞其C3I通信服務。因此,受影響的C3I系統無法與C3I網絡中的其他合法系統進行通信,從而破壞了C3I的戰術運作。

4.4 C3I情報單元的攻擊載體

篡改攻擊(A6):除了其他C3I組件外,篡改攻擊也會在C3I情報單元上執行。例如,數據中毒攻擊是一種對抗性攻擊,它將惡意樣本添加到ML/DL模型的訓練數據集中,在數據處理過程中操縱C3I情報作業。結果,受感染的ML/DL模型會誤解C3I的戰術情況,并相應地編制一個偽造的行動計劃,最終損害C3I指揮系統的決策過程。

惡意軟件(A7):為了檢測C3I系統中的惡意軟件,安全專家用預期的惡意軟件樣本訓練ML/DL模型(例如MalConv)。然而,先進的對手會對惡意軟件進行修改,如改變頭域和指令序列,以逃避C3I系統中惡意軟件檢測的ML/DL模型。這些逃避性的惡意軟件變體被稱為對抗性的惡意軟件二進制,它們成功地滲透到C3I系統中進行惡意活動,如第4.1節所述,而不被ML/DL模型檢測到。

5 對策

本節報告了與主題3有關的調查結果,即為確保C3I系統安全而提出的對策。反措施是指用于保護C3I系統的保障措施或防御措施。我們從審查過的論文中提取了40項對策。與安全漏洞和攻擊矢量不同,反措施并不直接與C3I系統的組成部分相聯系。因此,我們將提取的反措施分為兩大類:開發和運行。開發類的對策是在C3I系統的開發過程中利用技術(如安全需求分析和安全設計模式/戰術)來幫助構建安全的C3I系統。與此相反,操作類的對策旨在確保C3I系統在運行中的安全。在圖7中,C1、C2等是指本文中使用的對策的標識符,用來指代各自的對策。

圖7. 確定的對策及其各自的類別

5.1 發展

如第2節所述,C3I系統收集、處理、存儲和傳輸關鍵數據,以支持敵對環境下的戰術行動。因此,在開發C3I系統時,必須將C3I系統的安全性視為一個重要的質量屬性。換句話說,安全問題不能作為事后的考慮,而是需要在開發過程的一開始就加以考慮。如圖7所示,我們將開發類的對策分為以下三類。此外,我們還報告了每個類別的好處和限制。

5.1.1 安全需求分析

在設計/實施一個C3I系統之前,重要的是要分析、指定和理解C3I系統的安全要求,并考慮到其運行環境。這樣的分析和理解有助于C3I系統的設計者納入相應的安全措施,以解決指定的安全要求。因此,研究人員報告了開發安全C3I系統的安全要求(C1至C6)。

OZTURK等人(C1)建議使用數字證書、數字簽名、防火墻和智能卡來保證戰術信息安全。此外,安全設計模式也被建議用于開發安全的C3I系統。同樣,Li等人(C2)建議使用擴頻、專線、即時/定向射頻通信和跳頻方法來避免截獲不同C3I組件和戰術數據源(如傳感器)之間的通信信號。該研究還建議使用偽裝技術和設備(例如,反雷達和反紅外線裝置),特別是在指揮系統中,以防止敵人的偵察。此外,Bingman(C3)提出了幾項指導方針,重點是在有爭議的C3I網絡空間環境中保護關鍵信息。所提出的準則解決了包括但不限于信息優先級、風險評估、安全基礎設施和商業網絡等挑戰。C4)中的作者描述了C3I系統中數據安全的安全工程和信息安全原則(例如,ISO/IEC 17799和AS/NZS 4360)。對于加拿大的C3I網絡操作,Bernier等人報告了各種建議(C5),以解決網絡環境的動態性質和不明確的邊界的挑戰。例如,作者建議在C3I行動中,將計算機網絡攻擊、防御和開發行動相互結合起來,以獲得其網絡空間的整體情況。關于北約聯合任務網絡的挑戰,Lopes等人(C6)研究了使用三種技術(即軟件定義的網絡、網絡安全功能和網絡功能虛擬化)來實現安全策略評估的自動化,并在C3I系統的不同組件之間實現安全信息交換功能。

5.1.2 安全的架構支持

在這一節中,我們將描述C7到C15的對策,這些對策主要是在架構/設計層面上保障C3I系統的安全。所回顧的研究在設計C3I系統時使用了不同類型的架構風格。這些風格包括面向服務的架構、基于云的架構、基于區塊鏈的架構,以及為C3I系統明確設計的安全架構。

面向服務的C3I架構:C3I系統由異質組件(如決策支持系統、性能監測工具和信號處理控制器)組成,這些組件在地理上是分散的,并通過不同的通信機制(如4G/5G和Wi-Fi)連接。因此,面向服務的架構(SOA)通常被認為很適合設計戰術C3I系統。除了增強安全性外,SOA還有助于C3I系統在這些異構的系統組件之間實現互操作性、可擴展性和平臺獨立性。盡管有這些優點,研究人員已經發現了阻礙SOA成功納入C3I系統設計的安全限制,并提出了各種措施來克服這些挑戰。Gkioulos和Wolthusen以及Rigolin和Wolthusen提出了安全策略建模的方法(C7),用于設計基于SOA的安全戰術系統。作者利用帶有描述性邏輯的網絡本體語言來設計和實現這些安全策略。隨后,Gkioulos等人提出并驗證了一個框架(C8),用于設計基于SOA的安全C3I系統。他們聲稱,除了安全之外,所提出的框架還提供了動態變化的網絡條件下的配置靈活性,增強了性能并改善了信息流。

基于云的C3I架構:采用云計算技術提供了許多好處,如方便訪問、降低成本、部署靈活、低維護和C3I系統的及時性。然而,云計算也引入了安全問題,如數據保密性的破壞和安全配置的錯誤。因此,將云技術納入C3I系統需要更加關注C3I系統的安全設計。Jahoon等人提出了一個安全架構(C9),由三層(即虛擬化、物理和操作)組成,具有不同的功能,以確保整個系統的安全。所提出的架構是建立在他們的研究結果之上的,例如需要服務器虛擬化安全(如管理程序和公共服務器安全)來設計基于云的安全C3I系統。此外,Abdullah等人還指出,用戶責任管理、準確的系統配置和不間斷的服務維護是必須納入基于云的C3I系統中的一些安全必要條件。

基于區塊鏈的C3I架構:區塊鏈技術為C3I系統提供了許多優勢,包括任務關鍵數據的安全存儲、傳輸和處理。因此,研究人員利用區塊鏈技術來設計和實現安全的C3I系統。Akter等人提出了一種基于區塊鏈的分布式智能合約方法,用于安全C3I數據傳輸(C10)。通過模擬研究,作者驗證了基于區塊鏈的方法與實時排隊和基于排隊理論的傳統方法相比,在安全信息傳輸方面是有效的。在一項類似的研究中,Akter等人實施了一個區塊鏈輔助的加密點對點(P2P)網絡,用于C3I節點之間的安全數據通信。在這種方法中,研究人員使用中央云服務器來存儲合法的節點ID及其公鑰,以方便本地邊緣服務器識別入侵者。從可信機構(C11)之間的數據共享角度來看,Razali等人提出了一種基于智能合約的方法,支持合法用戶之間的智能數據管理(即生成、編輯、查看和存儲)和傳播。該方法對分布式和去中心化數據庫的使用為來自不同來源(如傳感器、人類和網絡)的數據提供了更高的保密性和可用性。

C3I系統的其他安全架構:在這里,我們詳細介紹了為保護C3I系統安全而提出的新的架構的對策。例如,考慮到對安全通信的架構支持(C12),Jin-long等人提出了一個基于網關-代理方法的多聯邦架構,促進聯邦間和聯邦內的安全數據傳輸。他們通過一個雙代理機制擴展了他們的方法,以避免通信開銷問題。同樣,Alghamdi等人提出了一個以網絡為中心的架構,用于安全C3I系統的互操作通信機制。為了進一步提高C3I通信網絡的安全性,該架構配備了多個防火墻和入侵者檢測系統。對于C3I系統的敏感數據安全(C13),Guturu提出了一個基于AND-OR復制算法的分布式數據庫管理架構。作者聲稱,與2相和3相提交方法相比,所提出的架構通過高故障耐力和對攻擊的復原力提高了C3I系統的數據存儲安全性。在另一種方法中,Seungjin Baek和Young-Gab Kim提出了一個專注于C3I系統中大數據安全的四層安全架構。這四層(即應用、大數據平臺、數據和基礎設施)為C3I系統的數據生成、數據處理和數據使用過程提供了安全性。我們還確定了幾項對策,重點是保障C3I系統整體架構的安全。從保護下一代C3I系統(C14)的角度來看,Perkinson介紹了下一代C3I系統網絡安全的整體方法,包括四個主要階段:檢測、關聯、可視化和響應。作者根據一項試點研究的經驗教訓,討論了未來C3I系統設計中必須考慮的關鍵發現(例如,自動化在決策過程中的重要性)。在另一項研究中,Theron和Kott設想未來的C3I系統應配備自主網絡防御(ACyD)方法,以對抗自主智能惡意軟件(AIM)攻擊。他們認為自主智能網絡防御代理(AICAs)是未來C3I系統應配備的一種可能的安全機制,以抵御AIM攻擊。為了開發下一代C3I系統的通用網絡理論,Ormrod和Turnbull調查了現有的多國網絡理論(如美國、英國、澳大利亞和加拿大),并提出了一個嵌套領域模型。作者表示,所提出的模型為未來的C3I網絡行動提供了一個靈活和完善的概念框架。

關于開發安全架構的支持性技術(C15),Alghamdi等人建議,威脅建模技術可以應用于確定與C3I系統相關的安全要求、脆弱性和威脅。他們強調了通過采用自上而下的威脅建模方法在C3I系統架構層面嵌入安全的必要性。此外,Alghamdi等人還展示了一種系統化的方法來捕捉威脅,并在考慮C3I系統整體架構的情況下制定安全防御措施。研究人員利用保證案例法和索賠論據證據工具,分別對安全架構進行建模和可視化。同樣,Biagini和Corona利用建模和模擬即服務(MSaaS)范式來認識和展示可以納入反無人駕駛系統的工具,考慮到未來C3I系統的安全。

5.1.3 攻擊影響分析

攻擊影響分析是指對C3I系統上的攻擊載體的不利影響的研究。攻擊影響分析有助于預測攻擊矢量可能產生的后果,也可以突出C3I系統設計中的安全漏洞。下面的對策,C16到C21,介紹了C3I系統中攻擊影響分析的不同方法。

Fang等人評估了C3I系統的兩類網絡影響(即系統結構受損效應和結構效率降低效應)。作者提出了數學建模和仿真研究(C16),通過不同的統計參數,如連接率和信息效率來評估攻擊影響。同樣,金鋒等人(C17)利用信息流參數,如情報、指揮和控制以及協作信息流參數,計算了C3I系統的結構效應(即受損效應和回退效應)。Bernier等人專注于指標驅動的網絡影響分析,提出了一個指標框架(C18)來評估C3I系統中網絡行動的影響。研究人員主要考慮了三個指標(即部隊有效性、指揮控制有效性和性能的衡量標準)以及美國國防部框架和目標-問題-指標范式來評估C3I系統的網絡影響。

由于仿真研究為分析攻擊對C3I系統的影響提供了成本、時間和功率的有效途徑,研究人員已經進行了仿真研究,以調查網絡對C3I系統的影響。例如,Mursia等人(C19)在EXata/Cyber模擬器中創建的C3I城域網環境中執行了三種攻擊矢量(即竊聽(A11)、洪水攻擊(A12)和干擾攻擊(A13))。研究人員從網絡參數方面分析了網絡影響:吞吐量、延時和抖動。同樣地,Morton等人進行了一項模擬研究(C20),以執行軍事網絡行動。作者報告了網絡攻擊的幾個不利影響,如未經授權的使用、攔截和C3I系統的退化。另一種模擬方法,稱為網絡模擬地形(C21),是基于本體網絡表示法,用于模擬計算機網絡(如C3I網絡)的網絡資產和系統。作者在模擬計算機網絡操作中調查了心臟出血漏洞(V11)的影響。

5.2 行動對策

作戰對策是指為保護戰術行動中的C3I系統而提出的安全機制。現有的文獻報道了用于保護C3I操作安全的入侵檢測機制、密碼技術和訪問控制方法。在下文中,我們將描述所提出的對策,以及它們的好處和限制。

5.2.1 入侵檢測

入侵檢測機制的目的是檢測對C3I系統的網絡攻擊。當涉及到網絡安全時,時間是一個關鍵因素。越早發現攻擊,攻擊就越早被控制/緩解。根據研究,及時發現攻擊可以使攻擊的成功率降低97%。然而,通信網絡的噪音和有限的資源損害了入侵檢測機制的有效性,這導致了在時間關鍵的C3I行動中產生假警報和通信開銷。戰術領域,如災害管理和救援行動,由于其敏感的性質,不能忍受C3I行動中的這種異常情況。因此,研究人員提出了以下有效的入侵檢測方法,即C22至C26,以確保迅速檢測C3I戰術系統中的入侵。

Shaneman等人提出了一種具有成本效益的機制,稱為內在光纖監測(C22),用于檢測C3I網絡中用于數據傳輸的光纜的入侵。研究人員通過實驗證明,內在光纖監測器在檢測C3I系統中的惡意活動(如篡改攻擊(A6))時,既不會干擾C3I網絡資源(如帶寬),也不會產生錯誤警報。為了早期檢測入侵行為,Manes等人提出了一個攻擊管理框架(C23),該框架將網絡漏洞模型(即漏洞分析)與攻擊模型(即攻擊樹)相結合,以檢測C3I網絡中多階段攻擊載體的早期跡象。所提出的架構也有利于C3I網絡中入侵者活動的可視化,這有助于安全專家實時準備針對網絡對手的行動方案。

為了發現戰術性城域網中入侵者的惡意活動,[145]中提出了一個基于多實例多標簽學習協議的輕量級C3I監控系統(C24),與看門狗計劃和數字簽名等現有解決方案相比,該系統在C3I網絡中造成的計算和通信開銷較少。關于基于SOA的C3I系統的安全性,Jorma和Jan[86]開發了一個由四種設計模式(即鏈接列表、沙盒、事件總線和監視器)支撐的入侵者檢測系統架構(C25)。所提出的架構使用主動和被動監測技術,如檢測和報警規則,用于檢測基于SOA的C3I系統中的入侵者。Kwon等人[100]提出的另一個機制,提出了一個基于Wiener濾波器、MIRtoolbox和ML模型(即支持向量機)的基于人工智能的C3I設備識別器(C26)。所提出的機制被用于數字取證,以檢測C3I數據庫存儲數據中的惡意活動(例如,數據刪除和修改)。

5.2.2 密碼學

密碼學是一個對敏感信息進行編碼和解碼的過程。考慮到C3I戰術行動的關鍵性(第1節),密碼學已經被用于C3I系統,以防止敏感信息的未經授權的泄露。為此,加密功能和它們各自的加密密鑰被用來加密和解密C3I系統之間存儲和傳輸的戰術信息。C27到C34的加密機制主要集中在戰術環境中的加密密鑰管理,以確保C3I系統中實時數據傳輸和存儲的安全。

密碼鑰匙管理是指戰術C3I系統中密碼鑰匙的生成、交換、存儲、刪除和替換過程。一般來說,加密密鑰管理方案在計算和網絡資源使用方面都很昂貴,這導致了C3I戰術操作中的通信開銷和延遲。因此,現有文獻提出了在C3I系統中管理加密密鑰的有效方法。例如,Kang等人(C27)使用對稱密鑰算法,根據C3I系統中安全風險的嚴重程度生成不同長度的加密密鑰。所提出的機制在戰術領域同時提供了C3I系統的安全性和最佳QoS。Chudzikiewicz等人專注于能源效率,引入了一種安全的密鑰管理機制(C28),其中中心節點使用量子隨機數發生器生成加密密鑰,并通過C3I節點之間的安全會話管理在C3I網絡中分發。研究中提出的另一個密鑰管理流程(C29)使用HenLogRandom Key Generator來生成安全密鑰,在C3I系統中使用的衛星圖像的加密過程中提供了高度的混亂和擴散。此外,Furtak等人提出了一種基于對稱密鑰密碼學的時間和內存高效的密鑰管理方法(C30),以確保C3I網絡的網絡接入層的安全。作者還提出了一種非對稱加密方法(C31),該方法更具有時間效率,用于C3I系統的密鑰管理和安全數據傳輸。為了保證加密密鑰分配過程的安全,Matt等人提出了一種C3I節點之間的非交互式基于身份的密鑰共享方案(C32)。所提出的機制在C3I系統中生成和共享加密密鑰時消耗的計算能力和網絡資源(如帶寬)較少。

除了上述的密鑰管理解決方案外,最先進的技術還報道了在戰術環境中保護敏感數據的數據加密技術。例如,Romero-Mariona等人推出了一個名為CEALICIAN(C33)的加密設備,該設備使用NSA-Suite B加密算法,以高數據率實時加密或解密敏感信息。CEALICIAN著重于更少的功耗和外形尺寸,以解決C3I系統的尺寸、重量和功率要求。此外,Abdullah等人(C34)對C3I系統的三種數據加密方法(即高級加密標準,Ron Rivest、Adi Shamir和Leonard Adleman,以及量子加密)進行了定性評估。根據他們的研究結果和C3I系統的關鍵性,得出的結論是,與其他被考察的加密方法相比,高級加密標準更適合于C3I系統。

5.2.3 訪問控制

訪問控制是指允許授權用戶(如現場指揮官和決策者)訪問C3I系統的安全機制。正如第2節所述,C3I系統遵循嚴格的命令鏈。有多個具有不同訪問權限的用戶來執行C3I操作。因此,訪問控制機制 對C3I系統來說是必要的。由于戰術任務的成功、生命和財產在很大程度上取決于訪問控制機制。[117],C3I系統應該采用可靠、靈活和高效的訪問控制方法來防止 在戰術領域的未經授權的訪問。因此,研究人員專注于開發有效的訪問控制機制。C35至C40,用于戰術C3I系統。

Zachary提出了一種基于單向累加器的去中心化方法(C35),用于認證分布式C3I網絡中的合法節點。所提出的機制在動態C3I網絡中安全地管理所有C3I節點的節點成員名單,同時利用較少的計算和網絡資源(如功率和帶寬)。同樣,為了防止C3I系統中的未授權訪問,還提出了一種具有成本效益和功率效率的技術,稱為數字超聲波傳感器網絡技術(C36)。數字超聲波技術優于現有的替代技術,如紅外線、藍牙和超寬頻等。為了確保C3I系統中橫向和縱向命令鏈的訪問控制,Jarmakiewicz等人提出了基于XACML和WEB服務的多級安全和多個獨立級安全機制(C37)。提出的機制在授權合法用戶操作C3I系統方面具有時間效率。同樣,Maule提出了一個多級安全框架,稱為多層本體安全模型(C38),通過使用不同的授權級別來保護軍事信息系統數據。論文中報告的另一個多層模型(C39)被用來在C3I系統中實現認證、授權和問責。多層方法提供了一個路線圖,用于管理基于操作要求的綜合服務(如SOA架構)中的訪問。為了在C3I指揮層次中進行有效的訪問控制,Maschino比較了集中式和分散式C3I系統中基于角色的訪問控制(RBAC)機制的不同組合(即集中式和分散式)(C40)。因此,作者推薦了一種混合RBAC機制,以確保C3I系統中基于角色的認證。

6 討論

在本節中,我們分析了第3、4和5節中報告的研究結果。基于我們的分析,我們在攻擊載體、漏洞和對策之間建立了一種獨特的關系。此外,我們提出了未來的研究方向,以指導研究人員和從業人員推進C3I系統的網絡安全文獻。

6.1 將C3I攻擊載體映射到漏洞上

雖然第3節和第4節分別描述了各個安全漏洞和攻擊載體,但它們沒有顯示任何關聯或關系(即一個特定的攻擊載體如何利用C3I系統的漏洞)。因此,為了支持從業人員和開發人員建立安全的C3I系統,我們闡述了C3I系統的安全漏洞和攻擊向量之間的映射關系。我們的映射是基于從通用攻擊模式列舉和分類(CAPEC)和通用弱點列舉(CWE)數據庫中提取的數據。CAPEC提供了一個用于利用已知漏洞的攻擊向量的字典。另一方面,CWE規定了已知的硬件和軟件漏洞的清單。

如圖8所示,我們首先將確定的C3I攻擊向量與CAPEC攻擊進行映射,并提取其相關的CWE號碼。然后,我們將相應的CWEs與從調查研究中提取的C3I安全漏洞進行映射。例如,首先,我們根據調查研究和CAPEC數據庫中提供的信息,分別將蠻力攻擊(A1)映射到CAPEC-112:蠻力攻擊。其次,CWE-521:薄弱的密碼要求被確定為上述CAPEC攻擊的對應CWE。第三,我們將這個CWE與不安全的配置存儲(V7)聯系起來,因為使用弱密碼是導致不安全的配置存儲的根本原因之一。由于我們確定的所有攻擊向量和漏洞在CAPEC和CWE中并不存在,我們參考了外部資源(例如白皮書和博客),通過確定已確定的漏洞和攻擊向量之間的其他可能聯系,使這種映射更加全面。例如,我們將洪水攻擊(A12)與記錄和監控不足(V1)漏洞進行了映射,因為缺乏網絡流量監控,攻擊者可以用大量的惡意數據淹沒C3I節點,阻礙合法C3I節點之間的通信。

圖8. 繪制C3I攻擊媒介和漏洞的方法。CAPEC(通用攻擊模式列舉和分類和CWE(常見弱點列舉)

如圖9所示,一個漏洞可以被多個攻擊利用(例如,漏洞V1可以被攻擊向量A1、A2、A8和A12利用),一個攻擊向量可以利用多個漏洞(例如,攻擊向量A1可以利用漏洞V1、V2、V6和V7)。因此,它反映了在設計安全防御措施之前,有必要采用調查機制,如威脅建模,以確定漏洞和攻擊載體之間所有可能的關聯。例如,為了防止C3I系統中蠻力攻擊(A1)的執行,開發人員不僅要考慮實施密碼學上強大的用戶憑證存儲,而且還要納入足夠的入侵檢測和預防機制。如圖9所示,使用COTS組件是可以被所有確定的攻擊載體利用的。這是因為在C3I系統中使用脆弱的COTS組件會使系統暴露在幾個攻擊向量之下,因為這些第三方組件可能包含有意的(如后門)或無意的(如測試不足)安全缺陷。因此,它強調在將這些組件集成到C3I系統之前進行嚴格的安全和質量測試。此外,我們建議,在C3I系統開發過程的設計階段,必須將這種測試和質量檢查作為一個強制性程序納入其中。惡意軟件可以通過不同的滲透方式(如通過網絡和從互聯網下載),直接和間接地利用漏洞,這種方式有很多。因此,在這個映射中,我們認為惡意軟件可以利用所有報告的C3I漏洞。例如,惡意軟件可以利用V7:不安全的數據存儲,訪問C3I系統的安全關鍵數據。另一方面,惡意軟件可以利用V1: 記錄和監控不足的漏洞,窺探C3I的運作。因此,我們強調在C3I系統中采用惡意軟件檢測方法(如AI/ML和模式挖掘)的要求。

圖9. 已確定的C3I攻擊載體和漏洞之間的映射關系

6.2 將C3I攻擊媒介映射到對策上

正如上一小節所討論的,現有文獻沒有報告攻擊載體、漏洞和對策之間的明確關系。因此,與攻擊-漏洞映射類似,我們將攻擊向量映射到反措施,以證明哪些反措施可以保護C3I系統免受哪些攻擊向量的影響。這種關系積累了針對某個攻擊向量的可能對策,這有利于研究人員和從業人員確定針對某個攻擊向量的解決方案。由于攻擊向量和反措施可以通過多種方式聯系在一起,我們專注于在它們之間建立一種明顯的關系。為此,我們開發了一個兩步法來收集已報告和未報告的獨特的攻擊-反措施關系。在第一步中,我們直接從現有文獻中確定了攻擊載體和反措施之間的關系。例如,論文中報道的可變加密密鑰長度(C27)提供了對蠻力攻擊(A1)的保護。同樣,基于人工智能的C3I設備識別器(C26)可以檢測C3I數據庫中的敏感數據操作(A6)。在第二步,我們徹底分析了攻擊載體和反措施,以確定它們之間的關系。例如,CEALICIAN(C33)對通過C3I通信鏈路傳輸的敏感信息進行加密和解密,這阻礙了竊聽攻擊(A11)。同樣,非交互式密鑰共享方案(C32)減輕了數據傳輸過程中的篡改攻擊(A6)的機會。因此,我們將C33和C32分別映射到A11和A6。通過這種方式,我們通過兩步法在攻擊載體和對策之間建立了明顯的關系。圖10顯示了攻擊向量與相應對策的映射關系。

圖10. C3I攻擊向量和對策之間的映射。C1至C21適用于開發階段,C22至C40適用于C3I系統的運行階段。

我們觀察到,有關C3I系統開發階段的對策(即C1到C21)為保護C3I系統免受大多數(如果不是全部)攻擊媒介的影響提供了整體建議。例如,設計安全的C3I通信系統(C12),如果嚴格執行,可以防止幾個攻擊向量,如A6、A7、A10、A11、A12、A13、A14、A15、A16、A17和A18。同樣,基于區塊鏈的設計模式(即C10和C11)不僅可以防止針對C3I通信鏈路的攻擊載體(即A10和A11),還可以防止C3I系統中的拒付攻擊(A8)。因此,如圖10所示,與開發類別相關的對策(即C1至C21)提供了針對大多數攻擊載體的解決方案。然而,采用C3I系統的組織由于其有限的專業知識、財政和技術資源,無法一下子廣泛地實施安全措施。因此,我們強調,在開發C3I系統時,需要優先考慮安全措施。為此,我們主張研究人員和從業人員應該首先分析C3I系統的操作和環境條件,然后在開發C3I系統的過程中實施相應的臨時性對策。

關于行動對策(C22至C40),我們觀察到在C3I系統中提供入侵檢測、密碼學和訪問控制能力的安全工具之間缺乏互操作性。例如,檢測對策基于AI的C3I設備識別器(C26)只檢測到篡改攻擊A6的執行,但是,為了防止A6,需要實施預防性對策非交互式密鑰共享機制(C32)。相反,在沒有檢測性對策(如C22至C26)的情況下,預防性對策(如C27至C40)需要更多時間來阻礙攻擊載體的執行。因此,我們斷言,研究人員應制定新的防御機制,不僅要能整合安全工具,而且要有足夠的靈活性,以適應新的安全工具,在時間緊迫的C3I系統中有效地檢測和預防攻擊載體。

6.3 未來的研究領域

基于第3、4、5節的研究結果,我們提出了以下未來的研究方向,以推進C3I系統網絡安全的最新進展。

6.3.1 C3I系統的安全SOA適應性

正如第2節中所討論的,C3I系統是多個異構系統的整合。因此,在設計大規模的C3I系統時,傳統的單體結構并不是一個可行的選擇。在采用適合的架構模式的必要性的驅使下,研究人員已經考慮用SOA來設計C3I系統(例如,可部署的聯合C3I系統)。然而,基于SOA的系統存在各種安全漏洞和攻擊載體,在采用C3I系統這樣的安全關鍵戰術系統時,帶來了許多安全挑戰。例如,SOA在設計上缺乏持續監控和入侵檢測機制。因此,基于SOA的C3I系統容易受到許多攻擊載體的影響(例如,暴力攻擊(A1),內部攻擊(A2)和抵賴攻擊(A8))。因此,考慮到當代為解決SOA適應C3I系統的安全挑戰所做的努力(第5.1.2節),很明顯,SOA安全適應C3I系統是一個即將到來的研究領域。因此,我們斷言,必須嚴格考慮基于SOA的C3I系統的網絡安全問題,并將新的安全措施植入這些系統的設計和實施中。此外,我們還注意到,對基于SOA的C3I領域的研究需要全面的評估工作,包括對真實世界的實施進行實驗,因為現有的一些研究只限于概念性的解決方案。

6.3.2 輕量級安全措施

C3I系統通常在資源受限的環境中運行。因此,C3I系統是按照一定的帶寬、能量和內存規格來設計的。這意味著C3I系統的每個組件都需要在有限的資源下運行。這對于C3I系統中的安全措施(如入侵檢測、加密機制和訪問控制)也是如此。如果安全措施為了保證C3I系統的安全而消耗了更多的計算能力、機載存儲或網絡資源,這將導致影響C3I系統的戰略運作。盡管研究人員已經提出了單獨考慮功率、內存、計算資源[88]和網絡資源效率的資源效率解決方案,但我們觀察到缺乏類似于CEALICIAN(C33)的整體和最佳安全措施,該措施不僅提供了功率效率,而且在加密和解密敏感信息時還考慮了C3I系統的大小和重量要求。因此,我們斷言,研究人員應該專注于開發輕量級的安全措施,考慮輕量級網絡安全的大多數(如果不是全部)參數。

6.3.3 基于云的安全C3I架構

盡管云計算通常是一種廣泛使用的技術,但將其納入C3I領域是相當新的。正如第5.1.2節所討論的,云計算為提高戰術領域C3I系統的效率和可操作性提供了許多好處(例如,降低成本、方便訪問和部署靈活性)。考慮到這些優勢,美國已經為其國防和公共部門開發了基于云的C3I系統,韓國也正在將其國防基礎設施轉向基于云的系統。然而,云計算與C3I系統的整合擁有許多安全挑戰(如數據的保密性、完整性和服務器的可視化),正如中所報道的。例如,在公共云的情況下,數據的保密性可能會被破壞,因為多個用戶共享同一個基礎設施。同樣,PaaS和IaaS等云服務模式允許用戶安裝自己的軟件;這種特權會破壞敏感數據的完整性。我們在調查的文章中只發現了一個設計基于云的安全C3I系統的嘗試。由于C3I系統的網絡安全和效率不能被認為是正交的,因此,我們斷言,研究人員需要專注于解決開發基于云的C3I系統中的安全挑戰,以同時提高C3I系統的效率和網絡安全。

6.3.4 區塊鏈用于保障C3I基礎設施的安全

區塊鏈技術提供了嚴格的認證,在整個C3I戰術領域安全地分配存儲設施和計算資源,這避免了C3I系統出現單點故障的機會。然而,我們發現,與物聯網和經濟系統等其他領域相比,將區塊鏈技術納入C3I系統的研究興趣明顯不足。審查的研究中提出的方法僅限于戰術C3I系統中的安全數據傳輸和數據共享。因此,很明顯,區塊鏈技術在C3I領域是相對較新的。考慮到區塊鏈在戰術領域的重要性,我們斷言,研究人員應探索新的方向,將區塊鏈技術納入C3I系統的網絡安全。

6.3.5 AI/ML用于C3I系統的網絡安全

將人工智能/ML用于網絡安全的探索越來越多。例如,與基于簽名的入侵檢測相比,基于ML的入侵檢測被廣泛研究。同樣,AI/ML方法被用于檢測數據滲透和自動化網絡事件的響應過程。然而,我們發現很少有證據(只有3篇論文)支持使用AI/ML來加強C3I系統的網絡安全。例如,Kwon等人利用監督學習將C3I移動設備劃分為可信和不可信的類別。同樣,在調查的論文中,我們發現作者使用多實例多標簽學習模型來檢測C3I系統的入侵企圖。此外,Kott等人提出了一個基于智能代理技術(即自主智能網絡防御代理)的初始參考架構,以確保C3I系統的安全。由于我們只發現了三篇利用AI/ML來保護C3I系統的論文,我們認為在利用AI/ML來保護C3I安全方面還有進一步探索的空間。在這方面,我們認為研究人員應該探索使用人工智能/ML來進行深度數據包檢查、異常檢測、APT檢測,以及檢測C3I系統的數據滲透企圖。

6.3.6 需要嚴格和全面的評估

我們調查了所調查的文章中應用的評估方法,發現36.67%的研究沒有評估他們提出的安全機制(圖11)。此外,25%的研究僅通過假設場景進行了評估。因此,很明顯,超過61%的研究沒有在他們的研究中遵循系統和嚴格的評估過程。在所調查的論文中,有5%、16.67%和15%的研究是通過原型設計、模擬和實驗室實驗進行評估的。圖12展示了這些評估方法中使用的硬件和軟件工具。值得注意的是,只有一項研究在真實世界環境中進行了評估。因此,由于缺乏嚴格的評估,它引起了人們對現有文獻的可靠性的重大關注。此外,C3I領域的高度技術性和關鍵性也加劇了這種擔憂。正如第2節所討論的,C3I系統由多個異質子系統組成,其中一些被部署在惡劣的環境中。因此,一些實際問題,如敵對條件造成的節點物理破壞、軟件組件受損、硬件組件隨著時間的推移而退化,以及自然災害(如洪水、火災、風暴),都對C3I系統的性能、安全和保障產生了重大影響。因此,我們主張保護C3I系統的對策應通過系統的評估方法在現實世界中進行評估,以加強所得出的研究結果的可信度。

圖11. 評價方法

圖12. 用于C3I系統的軟件和硬件工具的安全評估

7 結論

由于使用C3I系統的戰術領域(如軍事和救援任務)的嚴重重要性,C3I系統的網絡安全已經成為一個嚴重的問題。因此,我們收集、研究和綜合了關于C3I系統網絡安全的文獻。基于我們的研究,我們對13個安全漏洞、19個攻擊載體和40個被認為對C3I系統的網絡安全很重要的對策進行了嚴格的分析和分類。此外,我們對研究結果進行了分析,其中包括 (i) 攻擊載體和安全漏洞的相互關系;(ii) 攻擊載體和對策的相互關系;以及(iii) 確定未來的研究方向,以推進C3I系統的安全領域。

這項調查為研究人員和從業人員提供了若干好處。特別是對研究人員來說,我們的調查為進一步探索和加強C3I系統的網絡安全提出了幾個未來研究方向。例如,C3I系統的SOA適應性在保證C3I系統的網絡空間安全方面引入了許多挑戰(例如,缺乏持續監控)。同樣,將云計算納入C3I系統也帶來了許多關于敏感數據保密性和完整性的安全問題。對于從業人員來說,將攻擊載體與反措施進行映射,使C3I系統的操作人員能夠確定針對攻擊載體的準確反措施。同樣,在設計C3I系統時,需要對反措施進行優先排序,這有助于系統工程師在開發C3I系統時實施最佳反措施。我們希望本調查報告的結果能夠為研究人員和從業人員提供新的維度和靈感,以推動他們在C3I系統安全方面的研究和開發工作。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

摘要

在過去的幾十年里,美國海軍庫存中只保留了少許類型的海上水雷,且戰術理論研究停滯不前,而主要優先考慮反雷能力。本論文通過一個現代的視角來審視水雷戰(MIW),使用建模和仿真(M&S)來捕捉圍繞水雷戰環境的更廣泛的因素,除了水雷的性能特點和使用參數外,還包括根據最新的任務成功標準來衡量敵方的反應概率。本論文探討了三種通用的非保密實驗方案,得出了對水雷成功影響最大的因素的廣泛結論,并為未來探索具體水雷用例的演習奠定了基礎,以便為下一代水雷及其使用提供信息。分析表明,在影響敵方行為結果方面,空中投送策略通常優于水面、潛艇或無人水下航行器(UUV)投送。請注意,UUV的投放與較低的水雷總量有關,其影響可以通過UUV的移動速度和單個水雷的探測和交戰概率來減輕。

執行摘要

有許多歷史實例證明了海上水雷的價值和通過水雷戰(MIW)取得的勝利。美國海軍在反水雷(MCM)領域的大量投資說明了海軍水雷的致命功效。然而,目前用于進攻性水雷能力的支出與這些防御性工作的投資相比相形見絀。進攻性水雷理論、熟練程度和使用已經停滯、倒退,甚至被忽視,直到沖突迫在眉睫或已經開始。最近,人們對利用水雷的成本效益和力量倍增的特點又有了新的興趣。美國海軍正在重新調整其任務重點,以包括這些潛在的好處,特別是當它涉及到無人水下航行器(UUV)能力的進步、探測傳感器技術,以及未來水雷的自主性、半自主性和可編程性的實際可行性。

該項目尋求更好地了解在不同的水雷作戰框架內可以利用的關鍵性能驅動因素,以最大限度地提高雷場的有效性。在傳統的進攻性水雷有效性措施(MOE)的基礎上,增加了愛德華茲(2019年)定義的四個以任務為中心的MOE,即轉向、阻斷、固定和破壞,定義了一種新的進攻性水雷思維,稱為進攻性拒止水雷(ODM)。ODM可以與現代戰爭的殺傷鏈相結合,對不需要的海上交通提供戰略威懾,在這樣做的同時也被動地釋放了海軍的關鍵資源,否則將支持戰略目標。這個項目的重點是使用概率行為模擬對ODM進行定義、建模和分析,以比較這些更新的MOE下的雷場有效性。

海軍水面作戰中心達爾格倫分部在過去十年中一直在開發通過建模進行協調模擬(OSM)框架。目前,利用OSM框架的JAVA GUI軟件的迭代被稱為MAST,是建模和仿真工具包的簡稱,是專門為這種類型的海軍系統的作戰研究和任務工程分析而創建。該團隊開發了三個實驗場景,定義為探索非保密級別的ODM考慮之間的關系。這些場景分別被指定為空中、艦艇和UUV投送,其中藍色為友軍,紅色為敵軍。為了便于比較和大致了解與這些替代場景有關的作戰考慮因素,每種場景一般都以投送平臺的速度、水雷部署能力、利用的投放點數量和部署水雷的相對能力為特征。空中投送實驗是一種高速、中等能力的飛行器,在單一地點部署能力較弱的水雷。艦艇投送實驗是一個中等速度、高能力的飛行器,在多個地點部署普通水雷。而UUV投送實驗則是一個慢速、低容量的飛行器,能夠使用高能力的水雷,如表1所示。

表1. 基準實驗方案假設

如圖1所示,所有的模擬考察都利用了在50 x 50海里的雷場區域內隨機分配的雷場投放點,目的是影響兩艘紅色船只從部署區以東的設定起始位置向西的預期航點過渡。紅色船只的邏輯實現了概率行為決策,以模擬敵人對其探測到的水雷的反應,或者改變其路線,固定在原地,或者繼續其路徑,并以 "逃離"信息傳達危險。

為了評估行動的重要性,我們開發了五個MOE。主要的MOE,稱為 "紅色影響",是指雷區影響紅方船只駛向預定航點的能力。如果紅色船只都沒有決定轉向或固定,那么紅色影響在該次航行中為零。如果兩艘紅方船只都被抑制,紅色影響為2;如果只有一艘船只受到影響,紅色影響為1。Agent的終止被指定為次要的MOE,用來捕捉傳統思維的MOE,最后部署的水雷被指定為次要的MOE,以更好地通知各實驗的決策點。MOE表見表2。

圖1. ODM移動場景(MAST)

表2. ODM MOEs

輸入變量的定義是為了檢查對藍軍行動、藍軍系統設計特征和紅軍行為邏輯的變化的影響。在空中實驗中定義了21個變量,在艦艇和UUV實驗中定義了25個變量。一個近乎正交的拉丁超立方實驗設計(DOE)在所有三種情況下運行。為空氣實驗確定的21個變量產生了128個獨特的偏移運行,為船舶和UUV確定的25個變量各產生了256個偏移。然后,在與NPS SEED中心的合作下,利用Hamming超級計算機復制了這些DOEs,為空氣產生了3780次偏移,為船只和UUV產生了5000次偏移,以供分析。研究小組發現,與紅色船只的概率決策邏輯有關的變量通常比那些具有物理價值的變量(如速度、范圍或水雷數量)更具影響力。在所有三種情況下,紅色影響的主要MOE也是如此。

為了降低紅色行為在模型中的相對重要性,進行了細化分析,特別關注對作戰效能影響最大的藍色配置特征。初級MOE(紅色影響)、傳統MOE(Agent終止)和次級MOE(部署時間)的結果顯示在圖2。盡管三個實驗似乎都顯示出類似的主要MOE結果,但結果差異在模型中是有統計學意義的。空中投送在 "紅色沖擊 "方面是最有效的,而且部署的速度比船只或UUV投送都快得多。這一點特別重要,因為在只關注紅色制劑死亡的傳統思維模式下,空中投送的單點播種將被歸類為最不有效。同樣,緩慢但有能力的UUV水雷投送,在使用毒劑死亡的情況下,也只是略微有效,但在使用ODM紅色影響MOE的情況下,其評級僅次于空中。

圖 2. ODM場景的結果

該模型為ODM的運行分析提供了一個起點。雖然模擬中的系統故意是通用的,以避免分類,但該模型的設計允許快速引入特定的系統數據。未來的工作可以更全面地實現任務目標(Edwards 2019)的MOE,或增加紅軍決策邏輯的復雜性。然而,即使在這個較高的水平和早期成熟階段,在這個項目中應用ODM概念的意義可以應用于集中開發和采購努力,并更好地告知未來戰斗空間的使用戰略。

I. 簡介

A. 背景情況

有許多歷史實例表明了海上水雷的價值和通過水雷戰(MIW)取得的勝利。美國海軍對其反水雷(MCM)社區的大量投資說明了海軍水雷的致命功效。然而,對防御性努力的投資使目前對未來進攻性水雷能力或國家研究委員會所說的進攻性拒止水雷(ODM)(2000)的支出相形見絀。從歷史上看,進攻性水雷的理論、熟練程度和使用已經停滯、倒退,甚至被忽視,直到沖突迫在眉睫或已經開始。

最近,人們對利用水雷的成本效益和力量倍增的特點重新產生了興趣。美國海軍正在重新調整其任務重點,以包括這些潛在的好處,特別是涉及到無人水下航行器(UUV)能力的進步、探測傳感器技術,以及未來水雷的自主性、半自主性和可編程性的實際可行性。ODM是為海軍作戰司令部(CNO)項目 "超配 "挑戰做出貢獻的自然選擇,即通過 "提供同步的致命和非致命效果"(2020年),"支持將使我們的持續海上主導地位的作戰......環境"。實現CNO建立未來部隊的海軍作戰架構的目標所必需的信條是由他在2020年10月的A Novel Force備忘錄中定義的 "一個綜合的任何傳感器/任何射手的殺傷鏈 "來建立。ODM能夠通過積極參與這些殺傷鏈來加強這一目標,對不受歡迎的海上交通提供戰略威懾,并在這樣做的同時也被動地釋放了原本支持這些戰略目標的關鍵海軍資源。

B. 項目目標

一般來說,進攻性水雷和具體的ODM是可以提供不對稱戰略優勢的領域,但對其研究不足,因此也沒有得到充分的利用。這就提供了一個機會。目前的ODM理論和戰術需要通過現代有效性措施(MOE)進行分析,以量化保護性(藍水)和進攻性(敵對海岸線12英里內)的潛在水雷環境,并確定任何不足之處(Edwards 2019)。在以前的研究中,"重點是孤立地檢查雷場的部署和特點,這項研究......檢查了能夠部署和支持雷場的替代無人和有人系統,作為聯合進攻行動的一個組成部分......[通過]考慮多個候選操作區域和替代交付平臺"(Beery 2020)。給予該小組探索的具體任務是。

1.定義一個候選的進攻性水雷戰行動概念(CONOPS)。

2.界定一個可供審查的作戰活動和相關系統的系統結構,以確定其對雷場部署有效性的影響

3.開發和分析作戰模擬,以便:a. 確定關鍵的性能驅動因素;b. 為作戰框架的比較提供依據(Beery 2020)。

C. 過程

為了實現這些廣泛的項目目標,團隊開發了一個項目瀑布方法,以定義主要的門和里程碑,如圖1所示,首先是文獻回顧,以熟悉MIW、其附屬元素和相關主題。目前的MIW分析員、操作員和專家被確認,他們幫助確定審查的范圍,并闡明了一些圍繞它的歷史。該小組與顧問合作,以確定MIW領域的適用資源和其他專家。項目發起人和顧問團的投入被用來為小組規劃提供信息和貢獻專業知識,以確保小組的產出為海軍提供價值。最初的文獻審查發現了涵蓋MIW CONOPS的材料和分析MIW操作的技術報告,但它未能產生一個普遍可用的ODM實用指南。為了填補現有文獻的空白,項目工作的重點是開發一個操作模擬,可以用來確定關鍵的性能驅動因素,并最終就如何最大限度地提高雷場部署的有效性提出建議。

圖1.BCM論文項目方法論

為了開發將要使用的作戰模擬模型,該小組采用了自上而下的系統工程(SE)方法,如圖2所示的修改后的軟件工程Vee。通過將通用的高層軍工項目分解為其系統需求的組成部分,團隊設計了一個仿真模型,產生了與這些需求相對應的數據,如修改后的Vee方法的左側所示。模型的輸出數據被收集和分析,驗證其與系統設計要求的適當映射,并驗證建議以滿足操作框架的比較。

此外,團隊每季度向社區利益相關者和感興趣的NPS教師介紹情況,以征求所有相關方的額外意見,并提供一個合作論壇的機會。最終的結果和建議在本報告中正式公布,并在畢業前的進度審查中提出。

圖2:BCM修改后的Vee方法。改編自Buede(2009)。

D. 團隊組織

團隊成員被分配了責任,以確保公平分工,充分考慮技術能力和行政后勤。盡管所有的團隊成員在每個階段都是積極的貢獻者,并幫助確保SE原則在每個步驟中得到遵循,但指定的牽頭人在其主題領域的執行方面保留了打破僵局的投票權。

  • 首席程序員和軟件開發人員。負責模型設計架構、模擬開發,以及與軟件(SW)開發人員和團隊外部的SW項目主題專家(SME)的聯絡。

  • 海上環境專家和UUV社區聯絡員。負責識別環境變量和考慮因素,并將其納入模型,通過無人潛航器社區的聯系和無人潛航器測試的個人經驗進行驗證。

  • 艦隊聯絡和安全經理。負責與美國海軍運營商和社區經理互動,以確保在整個模型開發、數據生產和分析報告中充分納入適當分類級別的CONOPS和技術規范。

  • 首席編輯和數據分析師。負責所有團隊交付成果的最終審查、格式化和提交。對報告的格式和內容的決定擁有最終決定權。

付費5元查看完整內容

前沿作戰基地(FOB)防御是一項人力密集型任務,需要占用作戰任務的寶貴資源。雖然能力越來越強的無人駕駛飛行器(UAV)具備執行許多任務的能力,但目前的理論并沒有充分考慮將其納入。特別是,如果操作人員與飛行器的比例為一比一時,并沒有考慮提高無人機的自主性。本論文描述了使用先進機器人系統工程實驗室(ARSENL)蜂群系統開發和測試自主FOB防御能力。開發工作利用了基于任務的蜂群可組合性結構(MASC),以任務為中心、自上而下的方式開發復雜的蜂群行為。這種方法使我們能夠開發出一種基于理論的基地防御戰術,在這種戰術中,固定翼和四旋翼無人機的任意組合能夠自主分配并執行所有必要的FOB防御角色:周邊監視、關鍵區域搜索、接觸調查和威脅響應。該戰術在軟件模擬環境中進行了廣泛的測試,并在現場飛行演習中進行了演示。實驗結果將使用本研究過程中制定的有效性措施和性能措施進行討論。

第1章:導言

1.1 背景和動機

2019年,美國海軍陸戰隊司令大衛-H-伯杰將軍發布了他的規劃指南,作為塑造未來四年的部隊的一種方式。他在其中指出:"我們今天做得很好,我們明天將需要做得更好,以保持我們的作戰優勢"[1]。這句話摘自海軍陸戰隊司令大衛-H-伯杰將軍的《2019年司令員規劃指南》(CPG),呼吁采取集中行動,以應對海軍陸戰隊在未來戰爭中預計將面臨的不斷變化的挑戰。在為海軍陸戰隊確定未來四年的優先事項和方向的CPG中的其他指導,呼吁建立一個 "適合偵察、監視和提供致命和非致命效果的強大的無人駕駛系統系列"[1]。伯杰將軍進一步呼吁利用新技術來支持遠征前沿基地作戰(EABO)。EABO將需要靈活的系統,既能進行有效的進攻行動,又能進行獨立和可持續的防御行動。簡而言之,實現EABO將需要最大限度地利用每個系統和海軍陸戰隊。

從本質上講,伯杰將軍正在呼吁改變無人駕駛飛行器的使用方式。通過使用大型的合作自主無人飛行器系統,或稱蜂群,將有助于實現這一目標。無人飛行器蜂群提供了在人力需求和后勤負擔增加最少的情況下成倍提高戰場能力的機會。正如伯杰將軍所提到的 "下一個戰場",海軍陸戰隊將必須利用各種技術,最大限度地利用自主性和每個作戰人員在戰場上的影響。

目前的無人系統使用理論是以很少或沒有自主性的系統為中心。另外,目前的系統依賴于單個飛行器的遠程駕駛;也就是說,每輛飛行器有一個操作員。部隊中缺乏自主系統,這在監視和直接行動的作戰能力方面造成了差距。此外,側重于一對一操作員-飛行器管理的無人系統理論要求操作員的數量與車輛的數量成線性比例。這對于 "下一個戰場 "來說是不夠的。相反,海軍陸戰隊將需要能夠讓操作員擺脫束縛或提高他們同時控制多個飛行器的能力系統[2]。

考慮到這些目標,美國海軍研究生院(NPS)的先進機器人系統工程實驗室(ARSENL)已經開發并演示了一個用于控制大型、自主、多飛行器的系統,該系統利用了分布式計算的優勢,并將駕駛的認知要求降到最低。ARSENL在現場實驗中證明了其系統的功效,在該實驗中,50個自主無人駕駛飛行器(UAV)被成功發射,同時由一個操作員控制,并安全回收[3]。

1.2 研究目標

這項研究的主要目標是證明使用無人機蜂群來支持前沿作戰基地(FOB)的防御。特別是,這需要自主生成、分配和執行有效的、符合理論的基地防御所需的子任務。這部分研究的重點是開發基于狀態的監視、調查和威脅響應任務的描述;實施支持多飛行器任務分配的決策機制;以及任務執行期間的多飛行器控制。

輔助研究目標包括展示基于任務的蜂群可組合性結構(MASC)過程,以自上而下、以任務為中心的方式開發復雜的蜂群行為,探索自主蜂群控制和決策的分布式方法,以及實施一般的蜂群算法,并證明了對廣泛的潛在蜂群戰術有用。總的來說,這些目標是主要目標的一部分,是實現主要目標的手段。

1.3 方法論

基地防御戰術的制定始于對現有基地防御理論的審查。這一審查是確定該行為所要完成的基本任務和子任務的基礎。然后,我們審查了目前海軍陸戰隊使用無人機的理論,以確定這些系統在基地防御任務中的使用情況。

在確定了任務要求的特征后,我們為基地防御的整體任務制定了一個高層次的狀態圖。子任務級別的狀態圖等同于MASC層次結構中的角色。

ARSENL代碼庫中現有的算法和游戲以及在研究過程中開發的新算法和游戲被用來在ARSENL系統中實現子任務級的狀態圖。最后,根據高層次的狀態圖將這些游戲組合起來,完成基地防御戰術的實施。

在游戲和戰術開發之后,設計了基于理論的有效性措施(MOE)和性能措施(MOPs)。通過在循環軟件(SITL)模擬環境中的廣泛實驗,這些措施被用來評估基地防御戰術。在加利福尼亞州羅伯茨營進行的實戰飛行實驗中,也展示了該戰術和游戲。

1.4 結果

最終,本研究成功地實現了其主要目標,并展示了一種包含周邊監視、關鍵區域搜索、接觸調查和威脅響應的基地防御戰術。此外,開發工作在很大程度上依賴于MASC層次結構,以此來制定任務要求,并將這些要求分解成可在ARSENL蜂群系統上實施的可管理任務。這一戰術在實戰飛行和模擬環境中進行了測試,并使用以任務為中心的MOP和MOE進行了評估。最后的結果是令人滿意的,在本研究過程中開發的戰術被評估為有效的概念證明。

1.5 論文組織

本論文共分六章。第1章提供了這項研究的動機,描述了這個概念驗證所要彌補的能力差距,并提供了ARSENL的簡短背景和所追求的研究目標。

第2章討論了海軍陸戰隊和聯合出版物中描述的當前海軍陸戰隊后方作戰的理論。還概述了目前海軍陸戰隊內無人機的使用情況,并描述了目前各種系統所能達到的自主性水平。

第3章概述了以前自主系統基于行為的架構工作,ARSENL多車輛無人駕駛航空系統(UAS)和MASC層次結構。

第4章對基地防御戰術的整體設計以及高層戰術所依賴的游戲進行了基于狀態的描述。本章還詳細介紹了用于創建、測試和評估這一概念驗證的方法。在此過程中,重點是對每一戰術和戰術所針對的MOP和MOE進行評估。

第5章詳細介紹了所進行的實戰飛行和模擬實驗,并討論了與相關MOPs和MOEs有關的測試結果。

最后,第6章介紹了這個概念驗證的結論。本章還提供了與基地防御戰術本身以及更廣泛的自主蜂群能力和控制有關的未來工作建議。

付費5元查看完整內容

私營部門不斷收集和整理關鍵數據及其來源,以通過利用數據密集型的人工智能機器學習(AI/ML)技術來確保支持和發展新的業務。大部分行業數據都是有價值的共享資源,而海軍到目前為止還沒有實現這種做法。本頂點研究通過研究、訪談和個人專業知識,探討了海軍在創造數據可用性和質量方面的挑戰性任務。研究側重于過程、技術和管理,采用了詳細需求評估、利益相關者分析、功能設計。其研究結果是一個集中式人工智能庫(CAIL)的概念框架,旨在匹配行業對數據作為關鍵商品的堅定關注。美國海軍需要持久和動態的數字化準備,因此這個擁有70多年美國海軍數據專業知識的頂點團隊建議 OVERMATCH 考慮這些發現并生成一個確保海軍數據可用性和質量的系統。

執行摘要

美國海軍部(DON)對研究和開發人工智能和機器學習(AI/ML)系統的興趣源于這些創新能力對海軍任務和對作戰人員的直接支持所帶來的深遠和改變游戲規則的影響。人工智能/機器學習系統可以被用來改善任務規劃,減少人員配置,改善戰術決策,簡化系統維護和支持,提高安全性,在某些情況下,還可以將作戰人員從危險中移除。戰士日常活動的許多方面將發生變化,從常規和勞動密集型工作的自動化到支持復雜和時間緊迫的戰斗空間決策。

只有當美國國防部首先釋放數據的力量,才能實現AI/ML系統的這些進步。目前,在獲取或"釋放"DON的數據以開發未來的AI/ML系統方面存在許多障礙。整個海軍的數據主要停留在"筒倉"或難以訪問的數據庫中,每個"筒倉"都在其領域內受到保護。在DON的數據領域內,定位、請求、獲取和策劃數據的過程并不正式。米勒(2021)說:"數據的所有者是美國人民。海軍只是管理人和監護人"。這句話包含了將數據從孤島中 "解放"出來的需要,以使海軍真正成為一個以數據為中心的企業,并實現海軍的數字化準備。

這個頂點項目開始了一項研究,以了解美國防部內AI/ML開發人員的數據需求,并制定一個概念性的解決方案來解決數據需求。其他目標是:

  • 研究AI/ML方法如何在DON任務中應用。

  • 了解數據需求是否在DON任務中普遍是標準的,或者數據需求是否在DON任務中有所不同。

  • 制定一套 DON AI/ML利益相關者的要求。

  • 為一個支持DON AI/ML數據需求的系統制定一個概念性設計。

  • 研究實施概念性解決方案系統的潛在成本和進度效益。

時區團隊(Team Time Zone)應用系統工程分析方法研究DON AI/ML開發人員的數據需求,并開發和評估一個概念性的系統解決方案,以解決這一數據挑戰,并最終支持DON未來的數字準備,以解決復雜的任務。該團隊通過采訪三個不同的海軍任務領域的主題專家(SME)來進行利益相關者的需求分析:系統維護、物理安全和戰備。這三個任務被認為是 "數據提供者"的代表。此外,該團隊還采訪了數據研究人員和AI/ML科學家,以了解他們的數據需求。訪談為團隊提供了基于獨特和不同領域和經驗的關注、挫折、經驗教訓和挑戰的洞察力。從數據提供者的角度來看,反復出現的主題包括所有權的劃分、信息保障的需要、數據未被收集或存儲的情況以及對可訪問性的擔憂。從數據用戶的角度來看,明顯的軼事包括尋找數據的耗時,承諾的數據并不總是能夠實現,以及即使在獲得數據后,理解數據的背景也是至關重要的。該小組根據利益相關者的訪談和信息收集工作,為DON AI/ML制定了一套數據要求。DON AI/ML的數據需求是:

  • 數據必須能夠被外部組織訪問。

  • 數據必須被翻譯成與其領域應用兼容的標準格式。

  • 數據必須有確定的所有者。

  • 數據必須伴隨著描述性的元數據。

  • 數據必須有標準化的管理。

  • 數據必須以其 "最低標準"的形式被訪問。

  • 數據必須具有保護和適當共享的安全性。

  • 數據必須具有混淆性,以保護個人身份信息(PII)。

  • 數據必須伴有背景信息。

為了解決DON數據研究人員和AI/ML科學家確定的數據需求,Team Time Zone開發了一個中央AI庫(CAIL)系統的概念設計,作為解決方案。CAIL系統的目的是簡化 DON內部的數據訪問和管理,以支持AI/ML系統的開發。CAIL系統旨在減少訪問數據的時間(和相關費用),騰出更多時間用于AI/ML系統的實際開發、培訓和評估。該團隊提出,為了滿足未來計劃的訪問和整合要求,CAIL需要成為一個 "數據云"。圖1是CAIL的OV-1;它描述了為AI/ML開發簡化DON數據訪問和管理的擬議過程。

圖1. CAIL OV-1

該團隊根據六個主要類別制定了CAIL系統要求:數據準備、數據偏差、數據整理、數據分類、數據治理和數據安全。每一個類別都是針對利益相關者分析過程中發現的需求。CAIL系統將主要與外部聯合數據、數據庫、文件和權威數據生產商/供應商的內容對接。它將像 "谷歌 "一樣為DON用戶尋找數據。數據將是結構化的,并將伴隨著元數據(關于數據的描述性信息),使數據可以被搜索。一個管理數據的社區將提供規則來管理對數據的安全訪問和授權。

在利益相關者的分析中,很明顯,在訪問數據之前需要進行一些重要的活動。AI/ML開發人員解釋了了解數據收集方式、數據來源以及其他有關數據的特定領域的背景方面的重要性。Team Time Zone將這些過程指定為 "預CAIL活動",并將其作為整個CAIL過程的一部分。

Team Time Zone進行了成本分析,以估計為DON實施CAIL系統的成本。該團隊使用了兩種方法來估計成本:傳統的成本估計和基于模型的系統工程(MBSE)方法。該小組估計CAIL系統的成本(基于傳統的成本估算)為3380萬美元,持續時間為5年,每年的重復維持成本為400萬美元。團隊估算的CAIL系統成本(基于MBSE方法),在運行了一萬次蒙特卡洛模擬后,平均為3290萬美元,持續時間為5年。運營和維護模型的平均成本為每年440萬美元。表1顯示了CAIL開發和維護成本的摘要。

表1. CAIL系統成本匯總

為了使DON的AI/ML項目蓬勃發展,并在未來幾十年內實現AI/ML的進步,DON必須確保數據的管理,并使AI/ML的發展能夠被訪問。Team Time Zone提出的CAIL系統解決方案將為AI/ML項目提供一個單一來源的綜合數據環境,以訪問存儲在整個DON各種數據庫中的數據庫目錄。Team Time Zone建議海軍實施CAIL系統,通過確保AI/ML開發者訪問持久和動態的數字數據來支持數字準備。CAIL系統支持DON項目和開發人員的協調方法,以安全訪問數據。該小組建議超配項目(Project Overmatch)考慮這些發現并實施CAIL系統和流程,以確保海軍的數據可用性和質量。該小組開發了一個CAIL標志(見圖2),表明CAIL系統是海軍的一個重要基礎。

圖2:CAIL標志。改編自美國海軍標志。

I. 簡介

A. 背景情況

技術的進步給軍事領域帶來了新的威脅類型和現有威脅的改進版本。對抗性威脅的進步要求海軍改進現有的能力并開發新的能力,以提高防御能力并應對這些威脅。能力的增強需要提高速度、隱身性、機動性、反措施、擴大范圍、更早發現和更大的殺傷力。這些增強的能力使我們能夠在不確定的、復雜的和時間緊迫的條件下做出關鍵決定。現代戰術作戰人員面臨著越來越復雜的決策空間。他們需要獲得對動態戰斗空間的態勢感知,并確定有效的行動方案(COA)以滿足任務需求。圖1強調了造成這種戰術復雜決策空間的因素。決策的復雜性來自于威脅環境,來自于知識的不確定性,來自于戰爭和信息系統本身,來自于作戰人員與自動化系統和信息系統的互動和使用所產生的挑戰,以及任務決策的重要性或后果的嚴重性。

圖1:戰士的復雜決策空間。資料來源:Johnson (2021).

美國國防部(DOD)和海軍部(DON)正在研究使用人工智能(AI)來解決復雜的戰術決策空間,通過改善態勢感知和提供自動決策輔助來支持戰術作戰人員。利用人工智能方法的先進算法可以通過減少信息過載、改善態勢感知、提高決策速度和加強一般的戰術決策來減輕作戰人員的認知負荷。預測分析(PA)可以支持對系統可靠性和故障概率的預測,這為物流提供了廣泛的改進(Zhao和Mata 2020)。諸如PA等技術可以通過開發 "what-if "和 "if-then "情景來加強戰術決策,通過預測決策選擇的長期影響來改善戰士的COA決策(Johnson 2020)。人工智能方法可以通過檢測異常情況和從大量的安全攝像機數據中識別可能的威脅來改善海軍基地的物理安全。

米切爾(2019)將人工智能定義為一個包括許多不同方法的領域,以創造具有智能的機器。圖2顯示,人工智能存在于一套廣泛的自動化方法中,使機器能夠根據命令和規則執行任務。人工智能是使系統能夠執行模仿人類智能的功能的一套方法。機器學習(ML)方法是人工智能方法的一個子集。ML方法允許系統從被訓練的大型數據集上學習。ML系統從訓練的數據集中學習。然后,這些 "訓練有素 "的ML系統在操作上被用來識別模式,并在新的操作數據下產生預測的結果(Johnson 2021)。

圖2:什么是人工智能?資料來源:Johnson (2021)。

人工智能算法是編碼的計算機程序,用于對數據進行分類、分析和得出預測。監控、交通預測和虛擬個人助理是實施ML算法的應用實例。

開發人工智能系統,特別是ML系統,是一項具有挑戰性的工作。ML算法的初始訓練是一個數據密集型的演變。人工智能/ML系統對數據要求很高,其準確性在很大程度上取決于數據訓練集的質量和數量(Godbole 2020)。作為一個參考點,訓練DeepMind的AlphaGo Zero系統學習下圍棋花了大約40天,包括2900萬場比賽(Feldman, Dant, and Massey 2019)。想象一下人工智能/ML武器系統算法所涉及的額外復雜性,它需要考慮戰爭背景(戰爭游戲、冷戰、和平時期)、朋友或敵人、道德和合法性等概念(Feldman, Dant, and Massey 2019)。

隨著美國防部開始開發人工智能和ML方法,出現了獨特的數據挑戰。開發人員需要大量的驗證數據來訓練他們的算法;這些數據需要準確、安全和完整,以確保算法不會被破壞或有偏見。這些數據集必須代表適當的操作環境。對于海軍的應用,訓練數據必須代表眾多的任務,包括海上、空中、太空、水下、沿岸、網絡和陸基領域的任務。盡管許多海軍司令部和實驗室正在研究和開發基于人工智能/ML系統的未來能力,但沒有協調的程序來獲取他們所需的海軍數據。在許多情況下,數據是存在的,但要確定國防部的數據來源并獲得數據是一項耗時和昂貴的工作。

這個頂點項目采用了系統工程分析方法來研究DON AI/ML開發者的數據需求,并確定和評估一個概念性的系統解決方案來解決這個數據挑戰,并最終支持未來DON的數字準備來解決復雜的任務。

B. 問題陳述

DON對研究和開發AI/ML系統的興趣為各種應用帶來了數據挑戰。盡管DON的許多指揮部和實驗室正在研究和開發基于AI/ML系統的未來能力,但沒有一個協調的程序來訪問他們所需的DON數據。AI/ML系統需要大量的驗證數據來支持他們的發展和訓練算法。在許多情況下,數據是存在的,但要確定美國防部的數據來源并獲得數據是一項耗時和昂貴的工作。這個頂點研究了這個問題,并進行了需求分析,以確定DON AI/ML開發人員的數據需求,并開發和評估了解決DON數字準備這方面的解決方案概念。

C. 項目目標

這個頂點項目的主要目標是分析 DON AI/ML 開發的數據需求,并開發一個概念性的解決方案來解決數據需求。其他目標是

  • 研究AI/ML方法如何在DON任務中應用。

  • 了解數據需求在DON任務中是否有普遍的標準,或者數據需求在DON任務中是否有差異。

  • 制定一套 DON AI/ML利益相關者的要求。

  • 為一個支持DON AI/ML數據需求的系統制定一個概念性設計。

  • 研究實施概念解決方案系統的潛在成本和進度效益。

D. 項目團隊和組織

時區團隊由五個具有不同學術和專業經驗的NPS系統工程學生組成。該團隊由以下人員組成。

  • Robert French于2016年畢業于Old Dominion大學,獲得了計算機工程和電子工程的學士學位。他目前是位于弗吉尼亞州弗吉尼亞海灘的海軍水面作戰中心Dahlgren分部-Dam Neck附件的特殊傳感器技術部門的R.F.工程師。羅伯特也是美國艦隊司令部海上作戰中心N6(信息系統)的高級入伍領導(USNR)。他曾在現役中擔任電子技術員超過14年,并成為現役預備役軍人達9年之久。

  • Wallace Fukumae前擁有夏威夷大學的電子工程學位。他目前居住在夏威夷,為海軍太平洋信息戰中心工作,擔任印度-太平洋部門主管。他的經驗包括指揮和控制(C2)系統的開發和交付以及操作。

  • Kheng Hun目前居住在日本,擁有華盛頓大學的電子工程學位。他目前在海軍信息戰中心(NIWC)太平洋分部工作,擔任位于日本橫須賀的夏威夷西太平洋(HWP)分部的項目工程師。他的專業背景包括設計和安裝各種C4I系統,如電子安全系統(ESS)和網絡系統以及MILCON項目的C4I系統規劃。

  • Obed Matuga擁有馬里蘭州巴爾的摩市摩根州立大學的工業工程學位,在華盛頓特區的海軍海洋系統司令部工作。與宙斯盾和艦船自衛系統一起工作,目前居住在馬里蘭州。

  • Caitlyn O’Shaughnessy于2015年畢業于馬薩諸塞大學達特茅斯分校,獲得計算機科學學士學位。她目前是羅德島紐波特的海軍海底作戰中心的CANES(S.S.)項目的首席工程師。

圖3描述了時區團隊(Team Time Zone)的組織結構和每個團隊成員的主要職責。圖中還顯示了NPS的項目顧問,Bonnie Johnson博士(系統工程系)和美國海軍上尉Scot Miller(退役)(信息科學系)。

圖3:團隊時區組織圖

E. 項目方法

時區團隊采用了系統工程的方法來進行這個項目。圖4說明了該團隊的過程。團隊從需求分析開始,以了解問題并為DON AI/ML開發者定義數據要求。在這個階段,團隊確定了三個DON任務領域作為AI/ML應用的代表性領域。接下來,團隊在功能分析和系統綜合的基礎上,制定了一個名為中央人工智能庫(CAIL)系統的解決方案戰略的概念設計。該小組對CAIL系統進行了建模,并利用DON的三個任務領域來分析實施CAIL系統的效用和潛在的成本/進度效益。該團隊的分析過程涉及幾種分析方法,包括定性調查、定量調查、建模和模擬、數據結構和格式分析、需求分析和操作概念評估。

圖4:頂點項目的方法

首先,該團隊通過進行需求分析和為海軍AI/ML開發人員制定一套數據要求來確定需求的定義。該團隊確定了利益相關者,并與來自不同海軍任務領域的AI/ML開發者會面,以了解他們的數據需求。該小組進行了文獻回顧,以收集背景信息并了解當前的人工智能/ML方法。團隊對來自利益相關者會議和文獻審查的信息進行了匯編,以了解與支持海軍AI/ML應用有關的要求和限制、數據所有者、數據源、數據系統、數據元素和數據屬性。

該小組研究并確定了利益相關者和三個海軍任務主線的獨特數據要求:系統維護、實體安全和戰斗群準備。該小組確定并采訪了任務領域的主題專家(SMEs),以了解獲得AI/ML實施數據的過程,并關注需要從DON系統和組織中收集和存儲哪些數據。圖5說明了海軍的三個任務主線,以及數據、架構、基礎設施和互操作性能力在支持這些作戰人員任務領域方面的直接潛在重要性。

圖5:美國防部任務領域

接下來,團隊根據需求分析結果,制定了一個概念設計方案,以解決海軍對人工智能/ML發展的數據需求。該團隊綜合了CAIL系統,并生成了CAIL操作概念(CONOPS)和CAIL功能模型。基于國防部建筑框架(DODAF)和系統建模語言(SysML),該團隊開發了概念模型,詳細說明了CAIL的系統特征、功能和操作概念。

頂點項目的最后階段是團隊對CAIL解決方案方法的評估和分析。該團隊使用Innoslate(一種基于模型的系統工程工具)開發了一個模型,以表示CAIL系統在三個海軍任務主線中的使用情況。該小組評估了CAIL系統的能力,以簡化和改善收集、格式化、策劃、驗證和確保安全訪問海軍任務數據集的過程,以支持在三個海上任務線領域工作的AI/ML開發人員。對該模型進行了評估,以估計海軍實施CAIL系統的潛在成本和調度效益。CAIL系統模型被用來驗證和確認需求。

F. 頂點報告概述

第一章提供了項目的介紹和動機,描述了問題陳述、項目目標,以及團隊的組織和完成項目的方法。

第二章總結了團隊的文獻回顧,為需求分析提供了基礎,強調了訓練AI和ML算法所需的數據。文獻回顧包括對數據科學、統計學習、深度學習、分類學以及支持AI和ML系統的企業信息技術解決方案的信息探索。

第三章包含了團隊的需求分析結果。

第四章包含了對團隊的概念性解決方案--CAIL系統的描述。

第五章介紹了團隊對CAIL系統的分析和評估結果,該系統是解決海軍在支持AI/ML發展方面的數據挑戰的解決方案。

最后,第六章討論了擁有CAIL系統的影響和結論以及對后續研究和工作的建議。

付費5元查看完整內容

摘要

我們總結了2021年10月19-21日舉行的“網絡防御深度機器學習研究專家研討會”的結果。我們通過論文向北約科學和技術組織報告了此次論壇上分析的深度學習當前和新興網絡安全應用。研討會的目的是介紹新的觀點,揭示政府在相關領域的研究,說明深度學習如何應用于網絡安全,并介紹在網絡空間軍事行動中應用深度學習的實施需求。總的來說,其結果提高了對問題和機會的認識,確立了各應用領域的共同需求,并確定了一條前進之路

1.0 引言

自20世紀后半葉現代計算機出現以來,人類對所有軟件進行了編程,并成為計算和算法進步的主要推動者。然而,截至21世紀初,深度學習的實際進展已經改變了軟件的格局。深度學習使計算機能夠通過訓練描述輸入和輸出之間關系的模型來"編程"自己的軟件。算法上的突破正在加速每個行業的進步,并取得了巨大的成功。最受歡迎的應用包括那些能夠識別物體[1]和翻譯語音[2]的應用,其精確度接近人類的實時水平。專家們雄心勃勃地表示,深度學習最終將能夠 "做一切事情",甚至可能復制人類智慧[3]。

與此同時,對軟件的日益依賴加強了保護計算機系統和網絡的重要性,使其提供的服務不受損害或破壞。在21世紀的前幾十年里,數據泄露的速度和影響進一步說明了網絡入侵是如何重塑全球安全形勢的。因此,對一個越來越有彈性的網絡空間需求,特別是當它與軍事系統相交時,正促使許多深度學習的新應用。這些應用可能會加強軍事戰略定位,并建立一個有彈性的網絡安全態勢,與不斷變化的威脅保持同步。然而,實現這一結果需要跨學科的應用研究和實驗,以便真正了解限制和實際效用。

因此,我們總結了2021年10月19-21日舉行的“網絡防御深度機器學習研究研討會”的成果。這個北約科學和技術組織(STO)論壇的重點是鞏固網絡防御的深度學習應用領域的知識。與會者包括來自澳大利亞、比利時、芬蘭、法國、德國、意大利、挪威、波蘭、土耳其、英國和美國的研究科學家和工程師。組織代表包括來自大學、民間研究組織、國防機構和軍事研究實驗室的強大觀點組合。

該論壇的目的是促進北約國家和盟國之間的合作,以確定和追求網絡領域最有前途的深度學習用例和方法,包括計算技術、架構和數據集或模型。為了實現這一愿景,它有助于提高對兩個主題之間共生關系的認識。深度學習通過將持續監測的繁瑣環節自動化,使網絡安全中的硬問題受益。另一方面,網絡安全也將受益于深度學習的實際應用和強大的實施設計。此外,隨著深度學習應用的擴散,以及與物理世界(即自主系統)越來越多的互動,傳統上描述和隔離網絡空間的邊界將被侵蝕。因此,要實現網絡安全,就必須采取超越傳統上用于網絡安全的新方法。

美國陸軍研究實驗室的Frederica Free-Nelson博士在研討會開幕詞中指出,深度學習和網絡安全領域都有許多未解決的問題,與其依靠幾個主要貢獻者來解決,不如分享過程、方法和成功案例,以避免浪費資源或阻礙進展。現實世界中,用戶驅動的問題與基礎研究和應用實驗適當匹配,可以實現信息主導和決策優勢。因此,本次研討會的預期愿景是,部分地捕捉那些讓領導層了解到需要為持續的挑戰投入資源的發現,并將科學家、從業者和最終用戶以一種有利于復制成功和持續進步的方式聯系起來。

本文的結構是按照研討會的目標進行的。第2節介紹了術語和觀點,這些術語和觀點限定了問題空間并形成了潛在的解決方案。第3節說明了深度學習是如何應用于網絡安全的,并提出了進一步獲得收益的機會。第4節介紹了北約STO內部的相關工作,并在多個應用領域之間進行了比較。第5節最后強調了關鍵的發現和對軍事環境的考慮。最終,我們旨在提高對深度學習在軍事背景下為網絡安全提供的有價值的認識,并確定了已經成熟的探索機會

2.0 從網絡安全和深度學習的交叉點看問題

根據美國軍事學說的定義[4],網絡空間是以使用電子、電磁頻譜和軟件來存儲、修改和通過網絡系統和相關物理基礎設施交換數據為特征的領域。這包括微電子、計算、通信、網絡和軟件技術,包括人工智能、機器學習和深度學習。網絡空間技術的應用是所有經濟部門、關鍵基礎設施和軍事行動的基礎。將繼續發展網絡空間的技術趨勢包括無處不在的連接和網絡邊緣的傳感,增加系統的可編程性和復雜性,自主性和加速決策循環的應用,越來越不可信和不透明的供應鏈,以及新的計算架構(即量子和神經形態計算)。非技術性的趨勢包括互聯網用戶數量的增長,為消費行業分析而積極利用用戶元數據,以及國際外交或國防考慮。鑒于技術變革的積極速度和非技術趨勢的不確定性,網絡空間將繼續以可能難以準確預測的方式發展。

在軍事方面保證網絡空間包括兩個不同的任務:網絡安全和網絡防御。網絡安全的目的是通過保證關鍵系統的屬性,如保密性、完整性和可用性,來限制脆弱性。隨著網絡物理系統,如關鍵基礎設施、智能制造、武器系統,以及最終的生物-神經接口的激增,網絡安全越來越多地包含了非傳統的屬性,包括安全性、及時性和復原力。此外,這些系統的物理性質提供了新的儀器和遙測技術,以確保其網絡態勢[5]。另一方面,網絡防御描述了為應對網絡空間中的敵對行為而采取的行動。雖然這些角色在一些組織中可能會重疊,但由于軍事單位如何組織和執行任務的基本功能,所以存在著區別。網絡安全是那些設計、開發和操作特定系統的人的責任。然而,網絡防御是一些重點活動的責任,這些活動專門負責監測和協調整個組織對敵對威脅的反應(即安全操作中心)。

網絡空間是戰略軍事格局的基礎,北約國家必須減輕對其軍事系統、平臺和任務的網絡威脅。深度學習是一種新興的軟件技術,其應用能夠加強這種彈性態勢。為此,北約科技組織的信息系統技術小組成立了一個關于 "網絡防御的深度機器學習 "的研究任務組(RTG)。Fraunhofer FKIE(德國)的Raphael Ernst先生在研討會開幕詞中澄清,RTG的章程不是開發新的深度學習技術,而是鞏固北約范圍內深度學習在網絡防御中的應用知識,確定民用解決方案和軍事需求之間的差距,并與其他北約國家合作,使用數據處理,共享數據,并尋求將最有希望的技術和應用轉移到軍事領域。由網絡安全和機器學習專家組成的RTG審查了技術標準、學術研究和商業技術產品的全面選擇,以評估當前的技術狀態。該研究對當前技術狀況的結果在第3節中進行了總結。

然而,人工智能領域的不斷進步和網絡物理系統的擴散將改變網絡格局,并為新類別的網絡攻擊讓路。網絡物理系統采用軟件來控制與其物理環境交織在一起的機制,在混合時間尺度上運行,并以隨環境變化的方式進行互動。例如,自動駕駛汽車將深度學習應用于車載攝像頭,以查看并決定如何在道路上行駛。研究表明,物理世界對這些軟件系統的攻擊可能造成傷害[6]。無人駕駛汽車進一步依賴持久的連接,與其他設備、網絡和車輛共享遙測信息。雖然是作為一種反饋機制,但這和類似的網絡物理系統設計暴露了攻擊面[7]。

最終,保證網絡物理系統的運行變得越來越困難,有彈性的網絡態勢需要超越傳統網絡安全方法的手段。因此,描述各種深度學習應用中的公開挑戰對于理解網絡風險至關重要。RTG發起了這次研討會,在一群對各種軍事和民用應用有深刻見解的不同專家之間推進這一議程。鑒于不同領域的參與,對術語的討論將提供有用的背景。

人工智能(AI)通常描述任何使計算機能夠模仿人類智能的技術。人工智能的早期成功源于基于規則的系統和捕捉人類專家知識的系統。盡管存在著對人工智能能力進行分類的標準,但我們選擇了機器學習和深度學習之間的簡單區別來構建我們的討論。研討會采用 "深度機器學習 "這一術語,表明對深度學習的重視,并不排斥傳統的機器學習,但也承認,持續的進步將鞏固深度學習作為人工智能領域最突出技術的地位。

機器學習是人工智能技術中最重要的子集,它提供了通過發現數據中的模式來提高計算性能的能力,而不需要遵循明確的編程指令。經過幾十年的緩慢進展,機器學習最近在包括消費者分析和社交媒體在內的各種應用中獲得了廣泛的采用。機器學習算法利用統計學在大量的數據中尋找模式,這些數據包括數字、文字、圖像或其他數字信息[8]。機器學習的應用采用了一個可以概括為四個階段的管道。首先,數據采集涉及識別和收集數據元素。第二,特征工程涉及預處理或提取有關該數據的統計數據。第三,初始數據或導出的統計數據被用來訓練一個能夠識別模式和關系的模型。最后,用輸入數據評估或部署模型,這些數據可能反映也可能不反映初始階段的訓練數據群。盡管這些階段的特征是線性的,但它們往往是迭代實施的,并且在它們之間有大量的反饋和調整。最終,數據的依賴性和質量決定了每個應用的有效性。

深度學習是指機器學習技術的一個特定子集,它允許模型通過將多層神經網絡暴露在大量的數據中來訓練自己。區別在于特別是上述管道的第二和第三階段。神經網絡是人類大腦中的神經元和突觸的簡化數字模型,由處理數據的簡單計算節點層組成。雖然早期的神經網絡僅限于幾層神經元,但一種被稱為反向傳播的突破性技術在理論上實現了這些層的擴展,從而為由更多層組成的 "深度"神經網絡鋪平了道路[9]。在最初發現的幾十年后,計算能力的提高使得深度神經網絡對圖像進行分類的能力得到了非常成功的展示,隨后將其確立為最先進的技術[10]。新興圖形和張量處理單元硬件帶來的計算能力提高,進一步加速了對越來越大的數據集的利用,使廣泛的模式識別和分類問題受益。

機器學習和深度學習都可以以多種方式應用。有監督的學習應用,通常被認為是最普遍的,利用被標記的訓練數據來告訴計算機它應該尋找什么模式。另一方面,無監督學習應用則利用了沒有標簽的訓練數據。強化學習是一個新興的前沿領域,算法通過試驗和錯誤,基于一些規定的獎勵函數,學習如何實現一個明確的目標。另外,"未來學習"技術包含了在不同操作環境下實現應用的新興方法。例如,遷移學習,將從解決應用中的一個問題中獲得的知識用于不同但相關的問題。聯邦學習,盡管仍然是一個活躍的研究領域,已經被證明可以通過將訓練功能分布在一些節點上來減少數據的依賴性。在RTG即將發布的技術報告中,詳細介紹了對這些和其他相關方法的徹底研究。

在討論深度機器學習系統的安全影響時,挪威國防研究機構的Espen Hammer Kjellstadli先生闡述了數據驅動的網絡安全的考慮,這些考慮超越了傳統的基于規則的方法。深度機器學習引入了圍繞特定模型的訓練和測試的新漏洞。在一個管道的初始階段獲得的訓練數據可以被操縱,從而影響模型的正確性。由于導致模型構建的特征之間的不平衡,該模型也可能在后期階段被利用。對這些漏洞的研究,以及如何防御或將其武器化,被稱為對抗性機器學習。一個全面的概述可以在美國國家標準研究所(NIST)[11]和MITRE[12]的工作中找到。這兩份參考資料都是對任何機器學習架構進行初步設計或安全評估的絕佳資源。

針對對抗性機器學習攻擊,已經提出了許多防御措施。例如,訓練階段的攻擊,即攻擊者推斷出模型可能學習的知識類型,可以通過加密、消毒、刻意選擇或對訓練語料庫引入其他人為限制來緩解訓練數據。訓練語料庫可以進一步泛化,要么通過增加其數量,要么通過探索其數據的替代表示法。這種方法已被證明在管道的每個階段都能提供性能提升和安全優勢。最后,合成對抗性數據已被證明可以補充傳統的訓練數據,并增強所產生的模型彈性。最終,數據質量在一個特定模型的性能中起著至關重要的作用,用于訓練模型的數據越多,該模型通常就越有效。

影響深度機器學習的另一個安全考慮涉及到對特定模型結果的可解釋或可解釋性描述。與傳統的算法系統不同,信任不能來自對決策標準的透明理解。這些系統的復雜性,擴展到數以百萬計的特征權重,有效地將深度機器學習應用轉化為黑盒。這是一個重要的考慮因素,因為人類必須越來越多地理解、驗證這些系統的判斷并采取行動。

3.0 網絡安全中的深度機器學習應用

深度機器學習在網絡安全方面有很多應用。在不同的演講中,美國海軍研究實驗室的Joseph Mathews先生和美國陸軍研究實驗室的Tracy Braun博士,通過報告RTG最近的研究結果,闡明了當前的技術狀況。該研究通過采用NIST[13]的指導來描述其研究結果,該指導幫助組織實施其資產的信息安全持續監控計劃,了解網絡威脅和漏洞,以及部署的安全控制的有效性。監控被定義為持續的檢查、監督和關鍵觀察,以確定與預期或所需性能的變化。這里的"持續"和"不斷"意味著組織風險的評估頻率足以支持風險管理活動和充分保護組織信息。

具體來說,[13]定義了11個安全自動化領域,解決了建立和保持持續的網絡安全感知所需的一系列安全控制。每個領域包括一組必須收集、分析和報告的工具、技術和數據。順便說一下,這些領域形成了一個有用的結構,通過它來描述深度學習當前和擬議的網絡安全應用。考慮到相似性和便于闡述,我們借用了這11個領域,并將其分成8個不同的類別。該研究的完整結果將在即將發布的技術報告中進行詳細報告。

3.1 惡意軟件檢測

惡意軟件是指在所有者不知情或不同意的情況下,故意設計成滲入、修改、破壞或損害計算機系統的任何惡意軟件。惡意軟件承擔了許多形式的數字內容,包括可執行代碼、腳本和嵌入交互式文件內的活動對象。惡意軟件檢測機制在事先了解惡意內容的情況下,對信息系統進行定期或接近實時的掃描。反病毒簽名和類似的識別技術(即啟發式方法)是詳盡的法醫分析產物,有必要結合靜態和動態方法。

在試圖改善惡意軟件檢測方面,深度機器學習已被廣泛探索。傳統的方法依賴于從該領域的專家知識中獲得的人工設計的特征。這些解決方案提供了一個抽象的軟件視圖,可以用來歸納其特征。特征工程和特征提取是工作流程中關鍵的、耗時的過程。跟隨其他領域的進展,惡意軟件檢測能力正越來越多地利用深度學習架構。

研究表明,該應用可能克服惡意軟件檢測中的傳統挑戰。行業趨勢表明,越來越多的公司提供基于人工智能的網絡安全解決方案,為惡意軟件檢測實施某種形式的深度學習。學術工作中的擬議應用進一步證明了用新的、獨特的程序數據表示法實現的更大功效[14]。然而,這些應用通常繼續遭受強大的訓練數據的不可用性,模型的過度擬合,缺乏解釋能力,以及隨著惡意軟件技術的發展而減少的持久性。

3.2 事件管理

事件管理包括監測信息系統中的可觀察到的事件,以及信息系統之間的事件。傳統的入侵檢測系統[15],在網絡或終端上實施,采用了基于簽名和基于異常的模型,這些模型存在缺陷。基于異常的模型已經被證明能夠產生高的假陽性率,而基于簽名的模型已經被證明能夠產生高的假陰性率。兩者都可以從深度機器學習的進展中獲益,因為它不依賴于特定攻擊模式的先驗知識。同樣,電子郵件過濾的進展也采用了自然語言處理(NLP)的深度學習應用來識別表明是垃圾郵件的信息模式。例如,谷歌已經使用TensorFlow大大增強了Gmail的垃圾郵件檢測能力[16]。

事件管理工具同樣有助于檢測和應對網絡攻擊。這些工具依賴于日志和審計記錄,這些記錄捕捉了信息系統的行為和狀態,通常與系統交易、安全控制或性能有關。幫助生成、傳輸、存儲、分析和處理日志數據的工具,對于許多網絡安全操作來說已經變得越來越重要。

目前這些領域的產品(即擴展檢測和響應的平臺或技術棧;安全信息和事件管理;以及安全協調、自動化和響應)收集的數據自然適合用深度學習來開發。許多商業工具已經為深度學習插件提供了一些本地支持。然而,大多數實現這種支持的嘗試都繞過了原生系統,而選擇了外部預處理和后處理管道,或者通過與第三方框架的整合。這表明深度學習能力將與他們平臺的原生能力同步發展。

值得注意的是,這些應用可能會受到專有數據格式的限制,無法公開或增加獲得數據的背景,以及對報告的輸出缺乏信任。專家們進一步表示擔心,現有的工具可能不會以最佳的保真度(例如,聚合元數據)收集數據,以解決實際問題。我們猜測,一旦安全運營中心團隊普遍部署的工具整合了深度學習框架或算法,事件管理中的深度學習應用研究將變得越來越受歡迎。同時,這些功能齊全的平臺在架構上與其他工具集成和共存時,可能會在復雜性和維護方面帶來新的挑戰。

3.3 信息管理

信息管理是指管理信息的位置和傳輸,這對保護組織數據的保密性、完整性和可用性至關重要。數字信息被有意或無意地儲存在無數的系統和設備中。因此,數據丟失、被盜和泄漏對一個組織的信息安全態勢構成了相當大的風險。數據丟失預防(DLP)工具具有清點、分類和跟蹤數據創建、使用、存儲、傳輸和處置的能力。

目前的DLP系統實現了一種混合的數據分類技術,包括標記數據、精確匹配、部分匹配、正則表達式和機器學習。目前DLP工具領域的許多研究都是圍繞著分析數據及其分類進行的。深度學習擅長解釋復雜的數據(如文本、圖像、視頻),因此可以提供對其中編碼信息的機器可讀訪問。

對強大的、與組織相關的訓練數據的訪問對于取得積極的結果尤為重要,然而零信任的信息安全原則通常會阻止對可能構成某些訓練語料庫基礎的敏感文件不受約束的訪問。對靜態數據和傳輸中的數據進行端對端加密的擴散,進一步給強大的數據獲取帶來了挑戰。業務流程建模和越來越多的多模態數據的頒布也帶來了新的挑戰和機遇[17]。

3.4 漏洞和補丁管理

漏洞是一種軟件缺陷,它引入了潛在的安全風險。補丁是一種消除或減少該漏洞的軟件修復。隨著漏洞和補丁的數量不斷增加,漏洞和補丁管理工具允許組織以協調的方式識別、報告和補救漏洞。例如,漏洞掃描器通常被用來識別端點、網絡、操作系統和應用程序的漏洞。補丁管理工具也同樣掃描系統的漏洞,并促進必要的補丁和其他更新的應用。

這一領域的許多商業產品都聲稱要實施機器學習,主要是為了確定補救措施的優先次序。值得注意的是,由DARPA贊助的2016年網絡大挑戰競賽展示了自動化網絡安全系統的潛力,該系統可以實時發現、評估和修補漏洞[18]。競爭團隊所使用的方法包括用深度學習增強的模糊工具。未來的愿景是采用類似的工具,可以掃描軟件的漏洞,并協助自主修補它們。正在進行的使能能力的開發持續進行,而且非常有希望,但缺乏成熟度。

3.5 軟件保證

軟件保證是一套有計劃的活動,以確保軟件按預期功能運行,沒有缺陷。常見的軟件保證技術包括安全編碼、源代碼分析和應用模糊工具。最終,軟件保證有助于實現可信性,即不存在可利用的漏洞;以及可預測性,即軟件有信心按預期執行。軟件分析的三種主要類型的工具和技術已經被確認。靜態分析工具在不執行的情況下檢查系統/軟件,包括檢查源代碼、字節碼和/或二進制文件。動態分析工具通過執行系統/軟件,給它特定的輸入,并檢查輸出來檢查系統/軟件。混合工具整合了靜態和動態方法;例如,測試覆蓋率分析器使用動態分析來運行測試,然后使用靜態分析來確定軟件的哪些部分沒有被測試。

在上面列出的工具和技術中,深度機器學習已經被應用于源代碼分析和模糊測試。此外,最近的實際應用可以在操作系統開發當中找到,維護者使用機器學習來區分修復錯誤的補丁和沒有修復的補丁[19]。除了這些增加軟件保證的傳統方法之外,商業領域的新興能力越來越多地試圖通過低/無代碼平臺使人工智能生成代碼。這是否能減少bug的數量,從而減少安全漏洞,還不確定。這可能是一個值得追求的方向,在未來的研究中。

3.6 資產和許可證管理

資產管理指的是維護組織內的軟件和硬件系統的庫存。這可以通過系統配置、網絡管理和許可證管理工具的組合,或者通過一個特殊用途的工具來完成。軟件資產和許可信息可以由軟件資產管理工具集中管理,以跟蹤許可的遵守情況,監測使用狀態,并管理軟件資產的生命周期。資產管理目前被人類用于計算硬件、軟件和設備的庫存和配置管理。

資產管理工具可以產生和記錄大量的數據,使人們能夠深入了解網絡安全和商業運作。最近在軍事系統的網絡防御方面的工作認為,分布式自主代理可以感知和適應性地防御他們的環境[20]。這些應用的共同主題是能夠減少人類的監督,適應性地管理技術消耗,優化資源利用,映射資產和數字工作流程之間的依賴關系,以及預測或應對有機商業風險。智能化、無處不在的設備趨勢將推動對資產管理創新方法的需求,在這種情況下,不僅是人類操作員,而且各種設備本身都能夠適應其環境,以不斷優化自己。

未來的應用,一般被稱為 "工業4.0"[21],設想通過邊緣計算和下一代無線技術(即5G),在每個設備上進行基于機器學習的資產管理。這種設備與設備之間的通信將促進和優化智能工廠的流程,這樣設備就可以通過動態感知其環境來調整其配置。在這種情況下,要擴大資產管理的深度學習應用,就必須采取全面的、跨學科的方法,與互補技術的進步保持一致,這些技術包括移動設備、物聯網平臺、位置檢測技術(如射頻識別、近場通信)、3D打印、智能傳感器、數據分析、增強現實、可穿戴計算,以及聯網的機器人和機器。

3.7 網絡管理

網絡管理工具包括主機發現、庫存、變更控制、性能監控和其他網絡設備管理能力。最近,機器學習被提議作為一種機制,用于動態配置和協調這些工具,以實現移動目標防御,挫敗對手的操縱。文獻中探討了這些應用,但許多用例僅限于簡單的場景,如帶寬節流和性能管理。在軍事背景下為戰略和戰術資產調整網絡管理技術也仍然是一個相當大的挑戰。

存在許多新興的應用,包括涉及用戶行為分析[22]和車輛網絡[23]的應用。在前者,可疑的用戶行為模式可能需要改變網絡配置。在后者,聚類算法可以有效地將網絡流量定性為可疑或良性。許多深度機器學習應用,特別是那些用于事件檢測和惡意軟件檢測的應用,已經被網絡管理工具收集或暴露的數據所支持。因此,之前的研究主要圍繞著網絡監測和事件分類。然而,最近的工作證明了基于深度學習的路由在分組交換網絡中的流量控制的有效性。同樣,提議將深度學習應用于網絡管理的目的是在沒有人類監督的情況下自動或優化網絡管理任務。

最終,移動目標防御(MTD)是一個可以從深度學習中大大受益的領域。傳統的網絡防御由于環境的靜態性而無法考慮到攻擊者的固有優勢,而MTD則會不斷改變該環境的配置,反過來降低網絡攻擊的成功率。深度學習已經被證明可以準確地對應用進行分類,其流量是由軟件定義的網絡控制器自然獲取的。為戰略和戰術資產調整網絡管理技術將是一個相當大的挑戰,因為軍事網絡由相當大的規模和多樣性組成。

3.8 配置管理

配置管理工具允許管理員設置、監控、證明和恢復配置設置。隨著網絡和設備的復雜性增加,管理信息系統之間的配置也變得越來越困難。自動化的解決方案提高了效率,改善了可靠性,同時普遍降低了規模成本。系統配置掃描工具提供了審計和評估目標系統的自動化能力,以確定其是否符合定義的安全基線配置。盡管深度學習在這一領域的實際應用很少,但在上一節討論的移動目標防御方面仍有很大的潛力。

4.0 相關軍事應用和開放性挑戰

深度學習的應用一般都有一個特點,那就是源于大量的數據,必須在此基礎上得出洞察力,或者希望有更大的自動化。這一觀點得到了許多探索一系列軍事信息系統技術應用的互補性RTG的響應。本文將詳細介紹這些互補性小組的研究結果。

4.1 半自主無人駕駛地面車輛的互操作性

挪威國防研究機構的Kim Mathiassen博士在《半自主無人駕駛地面車輛的互操作性》中指出了在追求軍事信息系統技術的互操作性方面所面臨的挑戰。互操作性是一個經常被認為是理所當然的重要話題,它被簡單地解釋為具有不同出處的不同技術能夠輕松地進行信息交流和同步。實現這一目標的標準制定和采用帶來了許多障礙。

北約國家正在為各種作戰任務(如情報、監視、偵察;化學、生物、放射性、核、高能炸藥探測等)投資于無人駕駛地面車輛(UGV)技術。為了在聯盟環境中運作,國家之間必須共享這些平臺的信息,甚至可能是控制。之前的實驗已經證明了實現這一目標的一些實際挑戰,包括獲取不同的視頻和遙測饋電格式,以及不同的網絡和無線電通信系統造成的干擾[24]。

目前的互操作性標準涉及如何從操作員控制單元傳輸控制數據,機器人應如何將數據傳回給操作員,以及如何在車輛之間共享數據。在構建這些標準的過程中遇到的挑戰包括時間同步、校準、測量精度、隱含假設以及數據(如地圖)和元數據的格式和表示。類似的或競爭的標準和開發工具包之間的特征重疊,進一步需要對具體要求和能力進行解讀。

隨著接口和標準的成熟,軍事指揮官設想以自主或半自主的方式采用UGV技術,這將越來越需要它們感知周圍環境。這種應用將阻止對機器人的直接控制,而采用傳輸中間航點進行導航等方法。因此,深度學習被廣泛認為是許多UGV項目的基本組成部分。現有的標準除了傳統的遙測和傳感器信息外,還需要適應網絡安全的考慮。網絡態勢可以是內省證明和共享的,也可以是外部觀察或查詢的。具有這種保真度的網絡物理資產的態勢感知可以為任務和控制決策提供信息,特別是當平臺在有爭議的環境中運行并預期對手會通過物理或電子攻擊載體進行操縱時。

4.2 確保無人駕駛和自主車輛的任務保障

挪威國防研究機構的Federico Mancini博士在《為保證任務而保護無人駕駛和自主飛行器》一文中,解釋了將自主平臺執行的多領域任務的一系列網絡安全挑戰。要了解無人系統帶來的風險,首先必須全面了解對其安全態勢起作用的所有因素,包括外部威脅。

自主平臺有許多形狀和大小,在陸地、海洋、空中和空間運行。這些固有的網絡物理系統依靠傳感器輸入來收集與他們手頭任務相關的數據,或感知他們的周圍環境,以做出如何導航的決定。軍事應用的移動、網絡連接的性質進一步為網絡保證帶來了獨特的挑戰。例如,在傳統的民用應用中,自動駕駛汽車被設計為遵守明確規定的交通法規和道路基礎設施。另一方面,自主的地面、海洋和空中平臺可能在沒有規定的規范和有爭議的條件下在開放環境中運行。

為了研究這個問題,研究人員提出了一個理論框架,解決平臺行為如何隨任務背景變化的問題。該框架主要以威脅為基礎,包括三個不同的層次。任務層定義了任務成功所需的功能和結果。車輛層定義了那些被分配到任務中并需要保護的平臺。最后,組件層定義了每個平臺內允許使用這些資產的子系統(即,執行器)。在每一層,該框架采用了一套定義與其他層關系的目錄。例如,通用的任務安全目標,如安全性、可靠性和保密性,可以映射到在實現這些屬性方面發揮作用的平臺組件。一些通用的例子包括自主導航、收集和處理傳感器信息、在其有效載荷能力之間進行通信和合作,以及安全地存儲敏感數據的能力。每項任務都將取決于平臺上的某些組件,而每個組件都容易受到某些威脅的影響。

防御這些威脅的一個主要考慮是平臺的自主響應能力。由于環境所帶來的操作限制,為無人系統實施安全能力是很棘手的。傳統的信息系統是在持續的連接和普遍有利的帶寬條件下運行的,而戰術環境必須能夠在斷開的、間歇的、潛在的或隱蔽的連接條件下運行。這些環境的網絡防御解決方案,包括那些實施深度學習的解決方案,必須在這些條件下適應和推理。這包括那些解決傳統網絡威脅的機制,以及那些解決旨在破壞其功能的網絡物理性質的物理攻擊。對問題的識別可能會引發各種反應,這些反應說明了任務成功的不同方面(例如,返回基地、關閉、自毀、刪除存儲內容)。深度學習在感知物理環境方面的成功很可能會推動其中一些算法決策。

4.3 用于混合軍事行動的人工智能、機器學習和大數據

美國海軍研究實驗室的Prithviraj Dasgupta博士在《人工智能、機器學習和大數據在混合軍事行動中的應用》一文中,談到了人工智能技術日益主導的軍事場景所帶來的挑戰,以及對抗性人工智能和博弈論在應對混合戰爭的挑戰中可以發揮的作用。為了使這一觀點與研討會的背景保持一致,隨后討論了對抗性人工智能在惡意軟件檢測方面的應用。

生成式對抗網絡(GANs)是一種基于深度學習的生成式模型,是一種創建與訓練數據共享特征的合成數據方法。雖然GANs在愚弄人工智能系統方面的應用已經被廣泛探索,但它們主要集中在圖像和文本數據上。在最近的網絡安全應用中,GANs已被證明可以有效地改造已知的惡意軟件,使其看起來是良性的,但仍然是惡意的,從而騙過傳統的檢測方法,包括機器學習分類器。然而,在實踐中這樣做會產生成本,因為對手必須發現在訓練樣本中插入多少和哪里的噪音。

現有技術因其對二進制程序數據中發現的特征空間的改變而受到限制,這可能會阻止所產生的GAN衍生程序被執行。因此,目前的工作重點是在字節級修改數據[25]。特別是三種策略,框住了一系列的報告實驗[26]。首先,填充攻擊增加了一些空白的 "填充"字節,然后用從訓練的惡意軟件的主體中提取的字節替換每個添加的字節。第二,DOS頭攻擊修改惡意軟件可執行程序頭的部分,因為大多數機器學習分類器將檢查限制在該部分。第三,遺傳攻擊根據遺傳算法選擇性地替換惡意軟件中的字節。

評估這些方法的結果包括量化規避率,或修改后的惡意軟件能夠騙過分類器的程度;執行修改所需的時間;以及產生修改后的惡意軟件所需的修改數量。實驗結果證實頭攻擊是最有效的,因為它的規避率高,所需時間和改動的衡量標準低。研究人員進一步指出,隨著操作系統變得越來越復雜,制作惡意軟件變體所需的修改數量也越來越多。研究人員繼續就如何使用GAN技術來制作能夠欺騙基于人工智能的探測器的惡意軟件樣本進行實驗。最終,博弈論方法可用于描述攻擊者-防御者互動之間的權衡,這些互動涉及制作對抗性樣本。

4.4 信息戰行動中的數據隱藏

波蘭軍事技術大學的Zbigniew Piotrowski博士在《信息戰行動中的數據隱藏》一文中詳細介紹了在現有通信渠道中實現隱藏數據層的技術,以及它們帶來的機遇、威脅和挑戰。隱藏數據層是隱藏信息的通信渠道,是對現有加密和隱寫方法的補充。傳統上被認為是一種挑戰和威脅,最近探索隱蔽信道方法的進展的工作表明,不同的研究分支如何能夠為彼此提供好處[27]。

目前,學術研究主要涉及創新的通信設備,例如,去除隱藏傳輸的隱寫過濾器、隱寫路由器、基于數字水印的多媒體數據隱藏的眾多方法、無線電通信中的新隱寫方法(無線電隱寫)以及計算機網絡(網絡隱寫)。軟件定義的網絡(SDN)在主要SDN接口被惡意軟件感染的情況下可以進一步支持隱藏的通信。同時,有許多關于分析和檢測隱藏數據的方法的描述,也有關于識別利用隱藏傳輸進行的攻擊的方法[28]。

這個領域的潛在主題包括檢測和防止有線和無線連接中的數據隱藏傳輸的方法;檢測和防止互聯網和文件中的多媒體內容水印;識別隱藏通信的行為標準;在軍事通信中使用隱藏傳輸和數字水印;北約隱寫應用和設備標準化,內置數據傳輸技術隱身類;數字對象和數據流的隱寫分析程序;感知測試的標準化和透明度(例如。語音、音頻、視頻)、穩健性和透明度的隱寫分析;以及在量子技術背景下保護數據的替代方法。

最近在實際應用中取得的成功包括在專用的戰術無線電通信手機中隱藏數據,這些手機可以通過信道內編碼的人員識別號碼獨立地驗證說話方(或語音經紀人)。許多類似的創造性應用正在被提出,而深度學習的應用自然適合利用那些涉及數字多媒體內容和信號。其他的例子包括與現有網絡和配置管理能力有共同特點的渠道選擇和協調。

4.5 機器學習系統的穩健性和責任性

美國海軍太平洋信息戰中心的Douglas Lange博士總結了研討會上討論的所有應用所面臨的挑戰。盡管許多研究探討了機器學習系統如何被創造性的輸入所操縱,但很少有努力解決如何使它們更加穩健。這樣的系統可能需要對訓練、測試、驗證和生產進行根本性的改變。

穩健性通常以障礙物為特征,如攻擊或敵人,并且可以包括許多不同的目標(即性能、安全性)。了解這些目標在系統和任務背景下的必要性和實用性,對于創建一個保證穩健性的方法至關重要。應用于機器學習系統,這可以表示為一個系統在新的數據中產生可預測的輸出和可比較的性能的能力,就像它被訓練出來的那樣。

不確定性同時存在于操作數據和訓練數據中,盡管前者在機器學習系統的設計和開發過程中被更多地認識和考慮。然而,從業人員必須期望他們的系統能夠處理訓練人群范圍內外的輸入。在軍事背景下,作戰應用的訓練數據的供應往往比商業應用的數據更有限,在商業應用中,不知情或不愿意的用戶行為可以被獲取(即廣告定位),這使得問題更加復雜。戰爭情況往往是不可觀察的和新穎的,用和平時期或軍事演習數據訓練的模型并不總是能反映沖突的動態性質。因此,那些能夠最快適應的系統最有可能獲得成功。

機器學習應用的目的是學習適合訓練人群的適當的模型參數集。這就需要開發一個成本函數,以衡量改變模型和噪聲對該模型的影響所帶來的誤差有多大。由此產生的不確定性通常可以被描述為認識上的或無知的。認識性的,或系統性的不確定性,定義了總不確定性的可減少部分。統計不確定性,定義了總不確定性中不可減少的部分。此外,輸入可能表現出噪聲和腐敗,或表現出與訓練數據的有意義的變化。前者反映了物理穩健性,而后者反映了語義穩健性。最終,機器學習系統在試圖描述穩健性之前必須正確表達分類器的作用。

最后,偏見是所有深度機器學習應用的一個重要考慮因素。在一個經過充分研究的應用中,研究人員通過演示斑馬投射到馬身上的圖像,使用周期一致的對抗網絡進行了圖像到圖像的轉換[29]。對這一演示的檢查表明,緊鄰動物的像素也從馬匹常見的草場轉化為斑馬常見的大草原。因此,訓練中描繪的環境證實了偏見,因為這些環境并不是馬和斑馬可能出現的唯一環境。

許多深度機器學習應用都表現出難以簡單地識別那些不屬于其訓練群體的輸入。僅僅實現這一點就能切實提高質量和穩健性。然而,通常情況下,模型被愚弄,而他們聲稱對他們的發現有很高的信心。ML應用傾向于在他們經常看到的事情上表現得更好,而在他們沒有看到的事情上表現得更差。例如,自動駕駛汽車是用數百萬小時的真實和模擬條件下的駕駛錄像來訓練的。從真實世界收集的數據經常被用來改進模擬。這種方法在軍事上是缺乏的,因為對手可能采用和平時期沒有觀察到的戰術。

5.0 結論

在研討會的開幕詞中,NATO STO的信息系統技術小組主席Nikolai Stoianov博士指出,北約研究網絡的力量來自其合作的商業模式。北約國家和合作伙伴選擇使用他們的國家資源來定義、開展和促進合作研究和信息交流。通過將士兵和研究人員聚集在一個共同的論壇,參與者從彼此的專業知識中受益,提高整體效率,并增強聯盟的集體力量。通過揭露國家努力、工業觀點和居民專長之間的共同點并找到平衡點,可以獲得進一步的優勢。這些主題在本文報告的結果中明顯可見。通過跨越網絡安全、計算機科學、人工智能、自主權和軍事行動的討論,研討會的參與者分享了深度機器學習的當前和趨勢性應用,準備加強軍事網絡的網絡安全態勢。在互補的RTG中發現的相似之處反映了許多類似的挑戰和機會。

深度機器學習可以通過加強數據驅動的決策和最大限度地減少人類專家的作用來改善幾乎所有的數字技術和應用,形成網絡態勢。應用實例包括自動化軟件開發(包括惡意軟件);自動化協議和架構設計,包括那些來自高級規范的設計;管理網絡運營的人機合作,包括虛擬化、容器化和云服務;網絡功能的自主協調,如頻譜管理、QoS管理和網絡切片;以及網絡物理系統和系統間的自主。這些應用需要一個全面和跨學科的方法,以適應數字技術的發展。

對網絡環境的理解還包括對聯盟或友好網絡的情況了解,以及對敵方威脅的描述。在IST-129 RTG8的補充工作中,研究結果顯示,深度機器學習可以加強對敵對行動的預測以及對攻擊和防御場景的分析。這種理解可能會導致分布式自主代理的實現,這些代理可以感知、響應并適應其環境和突發威脅[20]。最終,深度機器學習可以更有效地利用資源,更好地利用人類專家的時間。

深度機器學習在安全關鍵應用中的采用仍然是一個受到嚴格審查的問題[30]。算法已經被證明有錯誤功能的傾向,例如用無害的標志物進行誤導的情況。它們已經顯示出對數據中毒和數據稀少攻擊的脆弱性,導致了尷尬和損害。這自然促使軍方探索如何利用該技術,同時保持其功能的可預測性和可靠性。最終,存在著對設計、建造、部署和維持可信賴、安全和可靠的網絡物理系統的戰略的關鍵需求[31]。

在過去的十年中,深度機器學習的加速是由幾十年來計算能力的進步所推動的。高性能的硬件使得構建具有更多層次的連接和神經元的網絡成為可能,從而使人們有能力對復雜現象進行建模。然而,這一趨勢最近顯示出回報率遞減[32]。盡管硬件性價比曲線不斷進步,但在計算需求變得不可行之前,只能對模型性能進行邊際改善。新的硬件加速架構已被提出,以部分克服這一挑戰[33]。另一方面,它已經讓位于自主性的"低風險"應用,其中行動空間可以被明確定義,并產生最小的失敗影響。這種方法使模型部署適合于尺寸、重量和功率受限的平臺。

在研討會與會者的討論中,一個共同的主題是數據對任何應用的成功都至關重要。網絡空間的數據采集,反其道而行之,是一個具有挑戰性的命題。雖然一個組織的網絡空間往往充滿了豐富的數據,但以一種適合快速利用的形式和方式來暴露這些數據往往會帶來許多實際的挑戰。數據的來源、所有權、分類、管理、敏感性、法規、架構、模型、運輸、聯盟和其他考慮因素往往阻礙了能力的應用。軍事行動和聯盟網絡的額外敏感性和多分類性質使問題進一步復雜化。現有的挑戰表明,替代方法,如轉移和聯合學習方法,是值得追求的,并可能在沒有數據轉移或語義互操作性問題的情況下實現模型共享。另外,GANs和類似的新興工具越來越有能力產生大規模的合成數據。

我們認為在所有這些方面都有一條前進的道路。深度機器學習的成功應用需要全面的、跨學科的方法,與硬件和其他數字技術的進步同步,包括改進數據采集、數據生成和數據共享的技術。深度機器學習系統本身的安全性,在所有層面都必須得到維護。這包括數據集、分類器、模型和學習到的反應,必須保護它們不被操縱。可靠性和可解釋性是對建立可信賴的系統特別重要的考慮領域。最后,將深度機器學習推向戰術邊緣的愿望將需要在自主性、硬件尺寸、重量和功率方面進行改進。

在本文中,我們介紹了有助于約束網絡安全問題空間和塑造潛在的深度機器學習解決方案的術語和觀點。我們說明了深度機器學習是如何應用于網絡安全的,并提出了進一步發展的機會。我們展示了北約STO內部的相關工作,并在多個應用領域中進行了比較。最后,我們強調了在軍事和聯盟行動環境中成功應用的一些關鍵考慮和發現。

付費5元查看完整內容

人工智能正在改變戰爭。英國防部如何準備應對未來的變化?

對于人工智能的軍事用途所帶來的接受挑戰,傳統的反應是堅持要求人類保持 "有意義的人類控制",作為一種產生信心和信任的方式。考慮到人工智能和相關基礎技術的普遍性和快速發展,這不再是一個適當的回應。人工智能將在整個軍事行動范圍內廣泛的指揮和控制(C2)活動中發揮重要的、日益增長的作用。雖然在公眾心目中,人工智能的威脅沒有 "殺手機器人 "那么直接,但在軍事決策中使用人工智能會帶來關鍵的挑戰,同時也有巨大的優勢。加強人類對技術本身的監督并不能防止無意的(更不用說有意的)濫用。

本文以各級(作戰操作員、指揮官、政治領導人和公眾)的信任對有效采用人工智能進行軍事決策至關重要這一前提為基礎,探討了關鍵的相關問題。對人工智能的信任究竟意味著什么?如何建立和維持它以支持軍事決策?人類操作員和人工智能體之間的共生關系對未來的指揮需要作出哪些改變?

當人類對人工智能的行為持有某些期望,而不考慮人工智能體的意圖或道德時,可以說存在對人工智能的信任。然而,與此同時,信任不僅僅是技術性能和可靠性的一個功能--它不能僅僅通過解決數據完整性和可解釋性問題來保證,盡管它們很重要。軍事人工智能中的信任建設還必須解決軍事組織和指揮結構、文化和領導力方面的必要變化。實現總體上適當的信任水平需要一個整體的方法。除了信任人工智能的使用目的之外,軍事指揮官和操作人員還需要充分信任--并且在如何信任--支撐任何特定人工智能模型的輸入、過程和輸出方面得到充分的培訓和具有豐富經驗。然而,最困難的,也可以說是最關鍵的層面是組織生態系統層面的信任。如果不改變軍事決策的體制因素,未來人工智能在C2中的使用將仍然是次優的,被限制在一個模擬框架內。有效引進任何新技術,更不用說像人工智能這樣的變革性技術,需要從根本上重新思考人類活動的組織方式。

優先考慮人和制度層面并不意味著對技術進行更多的控制;相反,它需要在不斷發展的人機認知系統中重新思考人的作用和貢獻。未來的指揮官將需要能夠在一個真正的 "整體部隊"中領導不同的團隊,整合來自軍事、政府和民事領域的貢獻。他們必須對他們的人工隊友有足夠的了解,以便能夠與他們合作并挑戰他們。這更類似于海鷗的雜音,而不是個別 "翠鳥"領導人的天才。為了發展新的指揮和領導概念,英國防部必須重新思考其方法,不僅是培訓和職業管理,還有決策結構和程序,包括未來總部的規模、位置和組成。

人工智能已經在改變戰爭,挑戰人類長期的習慣。通過在訓練和演習中接受更多的實驗,以及探索C2的替代模式,國防部可以更好地準備迎接未來不可避免的變化。

前言

人工智能正在改變人類的思維和決策方式。未來,它將越來越多地影響人類如何確定各種認知過程的優先次序,調整他們的學習、行為和訓練,并更廣泛地改造他們的機構。這些變化在整個軍隊中仍不完全明顯。盡管有新的技術和戰爭迅速發展的特點,今天的武裝部隊在組織結構上與后拿破侖時代歐洲的職業軍隊并沒有很大的區別。太多的人仍然參與到軍事任務中,而這些任務技術可以做得更好更快,并且對于重新思考人類對人機團隊的認知貢獻也沒有給予足夠的重視,而這正是解決未來指揮和控制(C2)問題所需要的。

本文以QinetiQ公司早先的一份報告為基礎,該報告將信任視為軍事能力的基本組成部分和2020年代軍事適應性的基本要求。本文探討了在軍事決策中越來越多地使用人工智能的最新趨勢和想法。本文并不直接關注這一趨勢的倫理(或法律)問題,盡管這些問題很重要。相反,本文強調了信任作為人工智能時代軍事指揮的一個因素的重要性和意義。

人工智能對軍事決策和C2的潛在深遠影響很少引起專家團體以外的關注。大多數公眾關注的是技術的優勢和風險,而不是人類認知和制度構建的潛力和限制。20多年前,著名的社會生物學家E-O-威爾遜抓住了人類當前的挑戰。威爾遜說,真正的問題是,"我們有舊石器時代的情感;中世紀的制度;和神一樣的技術。"在過去的幾十年里,技術的發展速度遠遠超過了人類適應它的能力。強調人工智能的技術屬性,而忽略其日益增長使用中的人類和制度層面,只會使挑戰更加復雜。

在許多領域,人工智能的軍事經驗仍然有限,需要做更多的工作來了解人工智能在人類決策中作用日益增長的影響。本文旨在引發一場更廣泛的辯論,討論英國國防企業內部所需的文化和組織變革,包括指揮部和指揮官的作用,以確保人工智能在未來軍事決策中的最佳使用。

本文的見解來自與人工智能、人類認知、軍事決策和信任理論有關的更廣泛的文獻。這項研究在2021年9月至2022年2月期間進行,大大受益于與來自國防、學術界和工業界的廣泛專家和用戶的訪談。

前兩章提供了本文的理論背景。第一章探討了人工智能和信任的概念,第二章則分析了人類機構的作用以及人工智能對人類做出選擇和決定的認知能力的影響。第三章結合信任、人工智能和人類機構的概念,提出了一個在人工智能支持的軍事決策中發展信任的五維框架。第四章擴大了對C2的分析范圍,特別關注人工智能對傳統上支撐武裝部隊行使權力和指導的人和體制結構的影響。最后一章提出了對未來指揮、領導和 "全軍 "團隊的進一步研究領域。

1. 人工智能和信任

對于人工智能或與人工智能有關的信任,并沒有標準的定義。這兩個概念都有不同的解釋,有時也會有激烈的爭論。本章沒有試圖綜合所有關于這兩個術語的文獻,而是建立了一個基準定義,為隨后討論關于人工智能應用于軍事C2的信任作用提供框架。

1.1 人工智能的性質和類型

人工智能的概念起源于1950年著名的圖靈測試,該測試發生在這個詞被創造出來的幾年前。通過關注它做什么而不是它是什么,更容易將人工智能概念化。人工智能 "試圖讓計算機做人類思想能做的各種事情"。在最基本的方面,它可以被理解為追求特定任務的虛擬信息處理能力。正如 "智能"(或 "思想")有許多層面和不同的用途,人工智能也是如此。因此,人工智能從廣泛的學科中汲取不同的想法和技術,不僅包括數學和計算機工程,還包括哲學、經濟學、神經科學、心理學和語言學。

廣義上講,有三種不同層次的人工智能:人工狹義智能,通常被稱為 "狹義人工智能";人工通用智能,有時被稱為人類水平的人工智能;或者更強大的人工超級智能,超過人類的智能水平。在這一點上,有些人認為會出現一個奇點,在這個奇點中,人工智能要么變得有自我意識,要么達到持續改進的能力,使它的發展超出人類控制。后兩種水平被認為仍有一段距離,盡管距離有多遠還存在爭議。不過,就目前而言,狹義人工智能更先進應用的出現,如先進的機器人技術,加上計算能力的爆炸,才是目前關于人工智能的軍事用途辯論的主要動力。本文重點討論狹義人工智能的應用。

圖 1:AI 類型的簡化分類

在狹義的人工智能中,還有更多的類別,盡管這些技術并不完全是離散的,而且經常被結合使用。最常見的區別是符號人工智能和亞符號或非符號人工智能,前者通常被描述為基于邏輯,后者基于自適應或學習。符號人工智能依賴于順序指令和自上而下的控制,使其特別適合于確定的問題和基于規則的過程。非符號人工智能,其中神經網絡是一種常見的方法,涉及并行、自下而上的處理和近似推理;這與動態條件和數據不完整的情況最相關。符號人工智能提供了精確性和可解釋性,而涉及神經網絡的非符號人工智能則不那么脆弱(網絡中缺少一個節點并不會導致整個網絡無法運行),并且能夠在沒有明確規則或一致證據的情況下識別模式。

有三種常見的機器學習類型,根據有助于智能體學習過程的反饋類型進行區分:監督學習;無監督學習;以及強化學習。在監督學習中,系統被訓練來產生假設或采取具體行動,以追求基于特定輸入的目標值或輸出(被稱為標簽)(例如,圖像識別)。無監督學習沒有設定規格或標簽,也沒有明確的反饋;相反,系統通過尋找數據中的模式進行學習(例如,DNA序列聚類)。強化學習依賴于一個反饋回路,通過試錯或獎懲機制穩定地強化系統的學習行為(例如,先進的機器人技術或無人駕駛汽車)。與監督學習不同,強化學習中使用的輸入數據不是預先定義的,這允許更廣泛的探索,但與無監督學習不同,它有一個預期的應用或總體目標(與總體獎勵最大化相關)。

所有三種類型的機器學習,無論監督或自律的程度如何,都提出了重要的信任和值得信賴的問題。所需的信任程度和性質因使用人工智能的目的不同而不同。

1.2 概念:信任(Trust)

信任描述了兩個或多個智能體之間的互動。信任的傳統定義是假設信任者對受托人的能力和善意(或動機)存在合理的信念。對許多人來說,道德誠信(或意圖)的問題是信任與其他概念(如信心)的區別。另一些人認為,信任的范圍和所指比信心更廣,后者被視為與具體事件相關的獨立判斷。大多數信任的定義趨于統一的是一種脆弱的感覺。沒有背叛的可能性,沒有風險的存在,就不可能有信任。

正是因為經典的信任概念中隱含著假定的道德因素,一些人質疑使用該術語來描述人類與人工智能體的關系。他們認為,在目前狹義人工智能的水平上,我們不能將意向性或道德機構歸于人工智能系統,因此使用 "信任 "一詞是不恰當的。另一些人采取了不那么純粹的觀點,并以反映日常使用的方式應用該術語,意味著對系統的可靠性有信心。

信任作為一個術語在計算機科學中被廣泛使用。更重要的是,信任仍然是公眾和用戶接受人工智能的一個基本方面。今天,關于人工智能的國家政策、法規和專家建議經常強調 "值得信賴的人工智能 "的必要性。例如,DARPA的空戰進化計劃正在探索方法,以模擬和客觀地衡量飛行員在斗狗時對人工智能的信任。認識到這些尚未解決的定義問題,作者選擇了略微調整 "信任 "一詞,使之與通常的做法一致。

作者調整后的信任概念需要對人工智能的表現有一定的預期,而不需要假設人工智能方面的特定動機。因此,對人工智能體行為的積極預期可能是信任存在的充分條件,而不考慮意圖。

在目前大多數關于人工智能的討論中,重點往往是人作為信任者,系統作為受托人,盡管任何認知智能體,包括自主機器人和智能機器,原則上也可以履行信任者的角色。這樣理解的話,信任就成了 "系統成員之間互動的促進者,無論這些成員是人類智能體、人工智能體還是兩者的組合(混合系統)"。事實上,在人工智能更成熟的應用案例中,受托人最有可能同時包括人工智能支持的系統(人工智能體)和該系統的提供者(人類智能體)。在目前的人工智能水平上,信任似乎是一種單向的關系,涉及人類 "信任 "人工智能的程度,而不是真正的雙向信任,即人工智能對人類表現的看法。

各種因素決定了(人類)對技術的信任,包括但不限于信任者的能力水平和信任傾向,以及整體環境或背景(包括更廣泛的文化和機構動態)。除了這些針對人類和環境的考慮,決定一個人或組織對人工智能的信任程度的是技術的性能、過程(它如何產生特定的輸出),以及重要的是目的。所有這三者都決定了人工智能系統的設計和部署。

除了技術的穩健性和安全性,隱私、公平、透明度和問責制是一些最常被提出的影響公眾對人工智能信任的問題。然而,主要是由于設計適當的算法、理解復雜軟件系統的內部結構以及為基于算法的決策賦予責任等方面的困難,所以在值得信賴的人工智能的關鍵屬性列表中總是會加入進一步的考慮:這被交替稱為人類機構、監督或有意義的控制。在某些情況下,保持人類對技術使用的監督可能是唯一的保護措施,以防止無意中出現有偏見的、不可捉摸的和/或監管不力的人工智能系統的風險。

1.3 概念:控制(Control)

控制通常被看作是信任的反面。當對智能體執行任務的能力有信任時,就不需要監督。然而,即使在人工智能更適合做決定的情況下,人類也會經常傾向于干預。信任不足可能和過度信任一樣有風險或適得其反。事實上,正如絕對的控制是罕見的,絕對的信任也是如此。在開發和使用人工智能的過程中,有必要在適當的信任水平和適當的控制水平之間取得謹慎的平衡。這是 "校準的信任 "或可適應/適應性自主性等概念的核心。信任是根據人工智能的能力來校準的,對人工智能能做什么或不能做什么的期望將影響信任的水平。同樣,在可適應的自主性的情況下,用戶定制自主性水平的能力可以支持更大的信任水平。這在國家安全決策中尤為關鍵,因為信任或不信任人工智能的影響可能是最大的。

對技術在人類事務中的作用的擔憂并不新鮮。許多人認為關于人工智能的辯論與之前關于技術的爭論沒有什么不同。根據這一論點,人工智能構成了一種進化,而不是對過去活動的徹底背離,即使人類有時可能在背離以前的自動化水平的情況下被從決策圈中移除。雖然信任仍然是一個挑戰,特別是在機構和社會層面,但穩步應用最初仍然有限的人工智能來支持軍事活動,隨著時間的推移,可以培養出熟悉和越來越多的信心。

其他人,通常是政府以外的人,質疑這種漸進式的方法。他們認為人工智能的崛起是一種范式的轉變,與以前的任何技術都有質的不同。以前的技術都沒有將人工智能的雙重用途特性、傳播的便利性和實質性的破壞潛力結合起來。在過去,最具破壞性的技術都在政府的控制之下,或者在軍事領域之外幾乎沒有應用。此外,雖然以前政府主導了大部分新技術的開發,但這種趨勢幾乎完全逆轉;現在大部分投資和創新來自于工業。鑒于軍事和民用界限的模糊,以及我們的對手和競爭者對人工智能的投資,認為我們可以控制人工智能發展和使用的速度和程度是不明智的。在反思算法技術的進步時,一些人甚至進一步聲稱技術和人類之間的角色發生了逆轉,人們正在成為 "人類的人工制品"和"(技術系統的)智能體"。

如果我們接受對人工智能系統在未來如何操作(和運行)進行完全控制的限制,關鍵問題是我們如何在算法超過目前的性能水平后長期確保適當的交互和人類判斷。反應時間是軍事競賽中的一個關鍵優勢;加快OODA(觀察--方向--決定--行動)循環的各個方面,通常會給那些先到者帶來領先優勢。而這樣做只要一方開始使用人工智能來加快他們的決策和反應時間,另一方就會受到壓力。

2. 人工智能和人類機構

2020年12月,美國空軍首次使用人工智能副駕駛飛行了一架軍用飛機。這種被稱為ARTUμ的算法完全控制了傳感器的使用和戰術導航,而其人類隊友則駕駛著U2間諜飛機。這是首次出現人工智能控制軍事系統的情況。用美國空軍前首席采購官員威爾-羅珀的話說,ARTUμ "是任務指揮官,是人機團隊的最終決定者"。

甚至在ARTUμ演示之前,美國國防部已經開始了其全域聯合指揮控制(JADC2)計劃的工作。JADC2旨在打造連接五個軍種的傳感器,承諾對作戰環境進行快速分析,以便在幾小時或幾分鐘內做出決策。在未來的JADC2中,人工智能將允許快速處理數據,為目標識別提供信息,并推薦最佳的交戰武器(無論是動能還是非動能)。美國空軍的先進作戰管理系統、美國陸軍的 "聚合項目"(被稱為 "學習運動")和美國海軍的 "超配項目 "都在嘗試使用人工智能與自主性相結合的方式來支持JADC2。

其他國家,包括英國通過英國陸軍的 "Theia計劃"等項目,以及北約也已經開始嘗試使用人工智能來支持C2和決策。然而,這種試驗的規模和范圍仍然有限。與數據挖掘和語言翻譯等領域不同,人工智能在軍事決策中的應用仍處于起步階段。

美國國防部高級研究計劃局目前開展的工作提供了對未來的一瞥。作為其 "AI Next "項目的一部分,該機構的第三波人工智能投資尋求 "將計算機從工具轉變為解決問題的伙伴",并 "使人工智能系統能夠解釋其行動,并獲得常識性知識并進行推理"。

2.1 人工智能的民事與軍事用途

人工智能已經塑造或推動了我們的許多日常決策。在某些情況下,它已經改變了整個行業。在高度交易性的活動中尤其如此,如保險或零售部門。人類已經將關鍵活動的責任交給了人工智能,讓算法在沒有人類干預的情況下做出決定。今天,人工智能塑造了谷歌和Facebook等網絡平臺提供的內容,也決定了哪些內容被刪除或屏蔽。保留了人類因素的人工智能決策支持系統也在激增,被用于從醫療診斷到改善制造工藝的各個方面。

很少有地方像金融業那樣,人工智能從根本上改變了人與機器的關系。人工智能現在負責絕大多數的高頻交易。在幾毫秒內做出的數千項微觀決定有能力改變整個財富,有時會帶來毀滅性的后果,2010年的 "閃電風暴 "證明了這一點。人類的決定對于金融市場的效率不再是必要的,事實上,甚至可能會起到反作用。無形的算法似乎已經超越了無形的手。

至于社會的其他部分,人工智能的潛在軍事用途涵蓋了廣泛的應用范圍。這些可以有效地分為企業、任務支持和業務人工智能應用。人工智能的軍事應用,特別是與任務支持和作戰用途有關的應用,在一些基本方面與日常的民用活動不同。在平民生活中,人工智能有機會利用大量容易獲得的數據,不斷針對現實生活中的例子進行訓練和學習。對于軍隊來說,與對手的接觸是零星的,來自真實行動的教訓或 "數據 "在數量和頻率上都相對較低。除了軍事對抗的偶發性質,國家安全決策通常依賴于一套復雜得多的條件,涉及多個參數和利益相關者(更不用說對手的意圖),而今天的算法沒有能力再現這些條件。最后,也是最重要的一點,在國防和國家安全問題上,面臨風險的不僅僅是財富,還有生命。數學邏輯不足以為決策提供依據;在使用武力時,道德和倫理考慮比任何其他人類活動都要突出。當人類生命的完整性受到質疑時,我們為技術設定的標準將永遠高于我們為容易出錯的人類設定的標準。

除了美國、英國和北約等國的現行政策外,人們普遍認為人類將在決策中保留一個關鍵角色。美國國防部的人工智能戰略指示以 "以人為本的方式 "使用人工智能,有可能 "將人類的注意力轉移到更高層次的推理和判斷"。納入人工智能的武器系統設計應 "允許指揮官和操作人員對武力的使用進行適當的人類判斷",并確保 "清晰的人機交互"。提到人類總是 "在循環中 "和 "完全負責選項的開發、解決方案的選擇和執行"--這是以前對我們日益自動化的未來的評估中的常見說法--已經被一種更細微的觀點所取代。

所謂的有監督的自主系統是指人類坐在 "循環 "上。雖然人類在理論上保持監督,但一些批評者認為,在實踐中,他們可能無法真正控制自動決策,因為他們可能不熟悉為他們提供決策信息的環境和人工智能程序。在這些情況下,人類的干預能力,除了停止機器之外,被降到最低,沒有達到"有意義的人類控制 "的想法。只有在完全自主系統的情況下,人類的干預才會被完全消除。然而,最終,試圖定義自主性水平的做法可能會產生誤導,因為它們假定人類和機器之間的認知活動是簡單分離的。2012年美國國防科學委員會的一份報告描述了如何:

  • 沒有完全自主的系統,就像沒有完全自主的士兵、水手、空軍或海軍陸戰隊一樣。也許對指揮官來說最重要的信息是,所有的系統在某種程度上都由人類監督,而最好的能力來自于人類和機器的協調和合作。

兩個領域的發展揭示了各國政府在國防和國家安全的關鍵決策中信任先進的自動化方面已經走了多遠。一個是導彈防御,另一個是網絡防御。兩者的有效性都取決于反應速度,這通常超過了最有經驗的人類操作員的能力。

大多數防御性武器系統,從短程點防御到反彈道導彈系統,都采用先進的自動化操作,使其能夠在沒有人類干預的情況下探測和摧毀來襲導彈。算法實際上是在發號施令。在這種系統中,人類被稱為 "循環",在事先經過嚴格的人類測試后,在有限的設計空間內運作,因此其控制范圍受到限制。雖然錯誤永遠不可能被完全消除,但在大多數情況下,不做出反應或反應遲緩的風險可能超過偶爾發生事故的風險。雖然事故促使人們對這些自主系統的操作進行審查,并可能導致引入一些進一步的人為檢查,但這種干預也帶來了進一步的復雜性。對越來越快的導彈,特別是高超音速導彈的防御將繼續推動人工智能在導彈防御中的應用。

網絡戰是人工智能相對于人類具有明顯優勢的另一個領域,而這往往需要人類保持置身事外。人類操作員缺乏算法快速檢測和應對網絡事件以及不斷調整系統防御的能力。所謂的認知電子戰(EW)系統應用人工智能技術來自動檢測對EW系統的威脅,而不是依賴人類操作員。

2.2 人類和人工的局限性

將決策過程中高度耗時、勞動密集型和需要低層次人類推理的部分自動化,有巨大的好處。軍事評估過程是軍事決策過程的一個關鍵部分,一直是參謀學院教授的標準作戰計劃過程。這種方法的一部分涉及收集和處理信息,為一個或多個行動方案提供信息。由于信息時代的決策需要更大的速度和敏捷性,達成決策的過程將需要加速。人工智能已經證明了它在基于明確定義的規則、輸入和假設快速執行理性過程中的效用。只要人類負責設定假設并定義產生替代方案和概率評估的輸入,人工智能就能增強整個決策過程。

可以理解的是,政府內部和外部都不愿意讓人工智能發揮超出決策支持和適當決策的作用。"指揮和控制"的概念在軍隊的心理和結構中根深蒂固,許多人無法接受一個在某種程度上不涉及人類控制軍事行動或指揮任務的未來。人被要求帶著他們對問題的創造性見解,像現代的亞歷山大一樣解開這個死結。沒有什么比對 "翠鳥時刻 "的信念更能體現這種對直覺型指揮官形象的依戀。這種技能,即指揮官藝術的精髓,只限于那些在最苛刻的情況下能夠憑直覺做出決定的少數人。人工智能提供并非基于人類邏輯或經驗的獨特見解的能力,對這種思維提出了深刻的挑戰,并可能在未來改變指揮官的形象。

許多人將人工智能稱為決策支持而不是決策工具,其推論是人類最終仍然是所有決策的仲裁者。這樣的區別造成了一種令人放心的錯覺,即人工智能只是協助實現一種效果。人類根據一套算法挖掘、篩選和解釋的數據做出的致命行動決定,是否比由智能機器完全執行的決定需要更多的人類機構?對 "行動 "的癡迷--更不用說致命行動--作為更廣泛的 "殺傷鏈 "的最后元素,掩蓋了人工智能在整個行動范圍內的一系列C2活動中日益增長的影響。

許多專家對人類是否有能力控制由人工智能促成或驅動的決策持懷疑態度。這種懷疑往往圍繞著所謂的黑盒問題:高級人工智能,如深度學習,在本質上是無法被人類理解的。這不僅僅是由于它的工作速度,也是由于算法網絡相互作用的方式,以及它們所操作的數據的規模和復雜性。我們不能簡單地詢問系統以了解其思維過程。我們可能知道一個模型的輸入和輸出,但卻無法理解這中間發生的事情。一個相關的、更微妙的論點是,算法對人類的認知攝入施加了 "權力"。人工智能可以決定人類處理哪些信息,而不向他們透露哪些信息被遺漏或拒絕。它還挑戰了這樣一個概念,即如果人類的行動受到數據呈現的內容和方式的制約,他們可以行使 "有意義的 "控制。這與人工智能的好處之一正好相反,即它能夠減少人類的認知負荷,使人類能夠集中精力思考和作出最高價值的活動。

對黑盒挑戰的典型解決方案是開發可解釋的人工智能(XAI)。盡管能夠自我解釋的人工智能可能有助于理解,但它并不必然會導致信任。XAI并不等同于可解釋的AI;解釋不是一個決定,而是一個關于決定的敘事。因此,即使是一個令人信服的解釋也不一定是真的。對于許多潛在的用例,我們還遠遠沒有能力開發出足夠的可解釋(Explainability)的人工智能,更不用說可因果解釋(Interpretability)的了。對更先進的人工智能系統進行嚴格的測試可能會證明它們的部署是足夠的,即使是在沒有人類能力遵循其推理過程的情況下。不過,從根本上說,我們對測試的傳統方法需要重新思考。沒有充分的測試和評估,對不可解釋/可解釋的人工智能的信任將是 "盲目的信任"。對于美國前國防部副部長鮑勃-沃克的問題,我們仍然缺乏一個令人滿意的答案:你如何對學習系統進行測試和評估?

當存在不確定性或缺乏知識時,人類會應用啟發式方法來近似解決復雜問題。啟發式方法是驅動直覺思維的因素;它依賴于經驗法則,通常是通過經驗和實驗來了解。因此,它可能存在偏見和盲點,但它也可以作為一種非常強大和有效的快速認知形式。機器缺乏類似人類的直覺,但它們確實依靠啟發式方法來解決問題。與人類推理的關鍵區別在于,機器不需要記憶或 "個人 "經驗就能進行 "直覺 "或推理。它們利用巨大的數據庫和卓越的概率能力為決策提供信息。強大的模擬與先進的計算能力相結合,提供了一個測試和 "訓練 "算法的機會,其重復程度是人類無法想象的。在宣布任務準備就緒之前,ARTUμ在短短一個多月內經歷了超過一百萬次的訓練模擬。

即使在XAI領域取得了重大進展,仍然會有謹慎的理由,特別是在需要復雜決策的情況下。人工智能通常不善于看到 "全局",也不善于根據相關的內容做出決定。像人類一樣,它也會把相關性或偶然事件誤認為因果關系。人類和機器在處理復雜問題時都會遇到 "正常的意外"。創造力是人類通常具有的特質,但一些先進的人工智能可以產生人類無法企及的驚人結果。簡而言之,許多通常被認為是人類特有的屬性,如創造力和直覺,也可以說適用于人工智能系統--盡管方式不同,速度超過人類能力。

目前機器所缺乏的是人類思維的靈活性和關聯感("框架 "的能力)。人類可以橫向思考,通過實用主義得出合理的結果(這一過程被稱為歸納推理),并反思自己的思維過程(這一能力被稱為元認知)。這些心理過程可以產生驚人的適應和創新的壯舉。

人工智能的出現意味著未來的軍事決策將幾乎肯定需要更強大的人機共生關系,就像在已經接受該技術的商業組織中看到的那樣。目前的討論大多是假設人類繼續控制,或尋求將人類的屬性應用于未來的機器。一些人提倡一種新的 "決策演習"概念,將 "人的指揮和機器的控制"結合起來。但更有可能的是,指揮和控制的責任將越來越多地由人類和人工智能系統分擔,其方式可能是目前難以設想的。人類與人工智能的合作提供了利用各自優勢和減少不足的最佳方式,特別是在戰爭方面(目前戰爭的性質仍然沒有改變)有四個連續性:政治層面;人類層面;不確定性的存在;以及戰爭是一場意志的較量。

3. 信任的維度

信任是動態的;它隨時間而變化。它的最初形成是至關重要的,但它的持續發展也是如此。信任是隨著熟悉程度的提高而自然產生的,因此,假設經驗是積極的,即使是在對技術不完全了解的情況下,技術的使用也會擴大信任的范圍。反過來也是如此,不好的經驗會促進不信任。移動電話技術復雜性對大多數用戶來說是未知的,但人們的積極經驗給了他們使用的信心。這種信心導致了與手機使用所形成的決定相適應的信任感。然而,手機一般不會決定生死大事,盡管它們會將盲目聽從指示的不謹慎的司機置于危險之中。在軍事背景下,賭注更大,用戶和策略制定者非常清楚他們的決定的潛在后果--信任門檻很高。

軍隊作為應急組織,不需要定期交付其主要產出,這影響了可以獲得最直接相關經驗的速度。與金融服務業不同的是,在金融服務業中,交易為人工智能決策提供了頻繁的驗證,而國防部門的時間線往往更長,結果在一個單一的因果鏈中也沒有明確的聯系。做出決定和觀察其影響之間的時間間隔更長,并受制于多種干預變量。雖然模擬演習創造了獲得經驗的機會,但它們只是現實的近似值。

3.1 信任點(Trust Points)

建立和維持信任涉及五個主要的 "Trust Points"--在這些點上,擁有適當水平的信任問題是至關重要的。這些點是:

  • 部署信任:使用人工智能的目的
  • 數據信任:正在使用的數據輸入
  • 過程信任:數據如何被處理
  • 輸出信任:由人工智能產生的輸出
  • 組織系統的信任:優化使用人工智能的整體生態系統

總的來說,這些Trust Points定義了一個整體的信任水平,并且是乘法的:如果對其中一個的信任是 "零",那么整體就是 "零"。只要整體信任是正向的,每個人的信任水平都可以變化--在不同的時間。

部署信任

對在特定情況下使用人工智能的決定的信任是至關重要的。對于人工智能的軍事使用(以及許多民用應用),這在三個層面上運作:社會;組織;和個人。第一個層面考慮的是整個社會是否愿意允許人工智能的使用,這將決定策略制定者如何看待它的使用。組織本身也必須愿意認可這一點。最后,個人必須愿意在這個角色中與人工智能合作。所有這三個層次都需要接受使用人工智能的必要性或其可取性的必然性。可取性可能反映了人工智能在以超過人類操作員的速度或數量(或兩者)處理數據方面的優勢,或在承擔枯燥或危險的工作方面的優勢。而軍方可能會認為,人工智能既實用又要避免將優勢讓給對手,但社會似乎更傾向于將致命的使用視為一個倫理問題,在這個問題上,人類生命的神圣性要求道德行為者決定奪取人的生命。

社會對人工智能使用的接受程度在很大程度上取決于其經驗、有效的溝通和教育,這將有助于為人工智能的使用選擇提供依據。在許多情況下,社會的某些部分可能會比軍方更多地接觸、熟悉和信任人工智能,但致命自主權可能仍然存在問題。雖然沒有致命自主權那么直接的威脅,但在決策中使用人工智能會帶來自己的挑戰,其中最重要的是在一個算法越來越強大、人機協作越來越緊密的世界里,"有意義的人類控制 "究竟意味著什么。

在組織層面,存在關于如何部署作戰和任務支持人工智能的重要問題:是以集中的方式在更高的戰略層面運作,還是以更分散的方式在戰術層面運作。在后一種情況下,人工智能將進一步滲透到組織中,變得更加分散,并用于反應時間可能限制人類干預或驗證人工智能的范圍。組織需要明確決定是否使用人工智能的原則,以及管理其使用的方法(見下文 "過程信任")。關于使用人工智能的決定必須考慮如果系統失敗會發生什么。美國國家航空航天局(NASA)由于擔心系統故障的后果而沒有充分利用其早期火星車的自主能力,對火星車進行微觀管理,并通過大型人類工程師團隊減輕風險。外部組織,如商業技術供應商,的想法也很重要。例如,谷歌的員工迫使該公司在2018年退出一份軍事合同,因為他們擔心軍方對面部識別技術的使用。

個人對人工智能的熟悉程度也將是重要的。目前,從事軍事人工智能工作的人是其使用的倡導者,但隨著接觸人工智能的人群的增加,這種情況將發生變化。與前幾代人相比,接觸技術較多的年輕軍人可能更容易接受人工智能在軍事決策中的應用,但在基礎等級的聯邦結構中,人才幾乎完全來自內部,對其使用的阻力可能來自那些有權力的人;這可能造成機構接受問題。然而,在 "代際特征 "方面,存在著過度簡化的危險。雖然年輕人是在較新的技術中長大的,而且可能更信任它,但技術是可以學習的。代際假設不能成為不使用現代技術的借口。

部署信任是復雜的,因為大多數西方國家的大規模防務活動都是以聯盟行動為前提的,而不是每個盟友或伙伴都對什么是可接受的人工智能的軍事用途有共同的看法。國防部和政府需要更好地傳達他們在使用人工智能方面的方法、用途和保障措施,包括向盟友傳達,而不向對手透露太多信息,因為他們可以制定戰略來抵消(或更糟)人工智能功能的優勢。北約將通過其公共宣傳活動、與成員國在政治層面的聯系以及在不同技術發展階段的軍隊中建立規范,在這方面發揮關鍵作用。

數據信任

這涉及到對人工智能做出判斷的數據的信任程度,這些數據為人類決策提供了依據。雖然測試硬件和軟件相對容易,但測試數據,甚至是準備讓人工智能接受訓練的數據,則更加困難。數據對于人工智能的有效學習至關重要。一些數據將被控制,駐留在現有的國防系統內,或從可靠的外部來源進行驗證,盡管國防部在數據的分類(不一致或不準確)、存儲、訪問和共享方面存在困難,特別是在較高的分類級別。不受控制的數據,如開放源碼數據,是在沒有人類知識或理解的情況下通過聚合產生的,這更具挑戰性。此外,狡猾的對手會試圖注入虛假數據,以破壞決策過程,或用不相關或不準確的數據淹沒決策過程。

武裝部隊需要定義、構建、清理和分析數據的能力,以及開發和維護底層基礎設施(如連接、安全和存儲容量)的能力。這是一個多學科的團隊工作,需要能夠在數據科學生命周期的所有階段工作的 "全棧 "數據科學家。現代戰場將需要更加多樣化的技能,包括心理學家、律師和通信專家。鑒于商業世界對這些技能的需求,吸引和保留這些專家的數量將是困難的。這將需要更靈活的人力資源做法和/或對整個部隊更復雜的理解和使用,包括允許非軍事人員在軍事總部擔任有影響力的職位。

過程信任

過程信任指的是人工智能系統如何運作,包括數據如何處理(匯總、分析和解釋)。目前英國國防部的(狹義的)人工智能決策支持系統吸引了高信任度,因為算法相對簡單且可預測。它們也僅限于參與開發的一小群用戶,或者認識那些開發了人工智能系統的用戶,并且了解該技術。該技術受益于一種源自人們對人類的信任的過渡性信任。雖然不是人工智能,但法國陸軍引進的包裝降落傘的機器導致了降落傘團的信心喪失。堅持要求機器的主管用機器隨機選擇的降落傘打包跳傘,有助于恢復用戶的信心。讓開發人員更接近指揮系統的用戶會有所幫助。法國的采購程序允許某些單位直接與人工智能供應商接觸,以建立對開發商的了解和關系。開發商成為一個關鍵的信任點,如果不是軍隊,他們必須了解和熟悉軍隊的情況。這可能需要加大投資,讓商業伙伴了解軍隊的工作方式,并確保軍事人員了解其文職同事。

要求高水平的可解釋性和透明度并不是一個永久的解決方案,目前限制了英國防部對更強大的、非符號形式的人工智能的訪問。隨著機器學習使技術超越其最初編程的參數,將需要不同的方式來確保對可能看起來是黑盒的信任。隨著這種人工智能系統的使用激增,因了解設計者而產生的過渡性信任將減少,在這個過程中克服最初的信任不足或過度信任將更加困難。應避免過度依賴過程信任,并加強其他信任點,以開發適應能力越來越強的人工智能。

過程信任必須超越技術本身。它需要信任那些為技術提供能量、與技術一起工作并接受技術產出的人類過程。因此,必須同樣重視那些共同構成整體過程的其他活動。這包括培訓和人員的過程,以及如何組建團隊。

輸出信任

對人工智能產出的信任對決策者根據他們收到的信息采取行動至關重要。即使是人類提供的情報,如果原始信息指向不同的方向,指揮官要求新的情報來支持他們的先入之見(一種 "基于決策的證據制作")也不是沒有。而隨著數據的激增,不同的解釋將成為可能,合法的或符合先入為主的解釋。因此,出現了這樣的問題,即人工智能或事實上的人類分析能夠現實地提供什么答案,以及如何驗證輸出。在友軍的部署和對手的物理位置方面,人工智能有可能提供更快的態勢感知。然而,盡管可以從現有的數據中得出更好的推論,但對手的實際意圖是無法可靠地確定的。可預測性通常被視為信任的關鍵因素,但在不穩定的環境中,能夠適應不穩定環境的人工智能輸出會被解釋為不可預測。為了克服這個問題,Bonnie M Muir認為,人類操作員必須具備估計技術可預測性的能力。這種可預測性也會影響整個部署和過程信任點,但在輸出信任方面最為敏感,以反映軍事行動等流動性和不可預測的環境。在這些情況下,數據還必須反映軍事決策者所面臨的大多數情況的離散性和特定對手的獨特文化方式,這加劇了建立大量訓練數據的難度。即使在情況類似于過去的事件時,由于缺乏可比的歷史數據來說明廣泛的變量,使得概率推理變得困難。

用Patricia L McDermott和Ronna N ten Brink的話說,輸出的校準是至關重要的。這可以通過更多地使用企業人工智能和模擬來實現,它擴大了信任的邊界,可以幫助開發輸出信任。如果經驗是積極的,與技術互動并看到它的輸出將產生信任。在作戰環境中,當描述可以知道和檢查的東西時,驗證將是最容易的(例如,關于自己部隊的數據和潛在的對手部隊的布局)。要接近了解對手的意圖是比較困難的,因此需要更高水平的輸出信任。這將包括提高描述的準確性和對從大數據處理中得出的推論進行更多的測試。分享演習和行動的正面敘事,對于實現過渡性信任和緩解從相對不頻繁的行動中積累成功證據的緩慢速度至關重要。

組織系統的信任

生態系統的信任涉及調整更廣泛的組織系統以最大化人工智能的價值所需的信任。C2系統作為一個整體必須被配置為利用人工智能輔助決策的好處,并有適當的檢查和平衡,以在可接受的風險水平內運作。當人工智能的弱點或失敗是在主管的專業知識之外的領域,需要在組織的不同部分進行校準時,這一點尤其重要。如果不在生態系統和組織層面上進行變革,組織將只是將其人類系統數字化。

需要生態系統的信任,以確保結構--包括軍事總部的組織、指揮官的角色以及集中式與更分散或分布式的決策權的平衡--準備好利用人工智能的機會。如果沒有準備好,采用人工智能的漸進式方法往往會鼓勵對結構和整體生態系統的變化采取被動或消極的方法。相比之下,實現人工智能變革力量的專門戰略將迫使人們盡早重新思考支持這種戰略所需的組織。這需要重新思考傳統的軍事結構,但對于走多遠并沒有共識。一些人設想總部變得更扁平,并將非軍事人員納入高級職位,在決策過程中擁有權力。對另一些人來說,生態系統的變化更為深刻;它要求完全取消目前被視為工業時代遺留的工作人員組織系統。這樣做,他們打算消除扼殺理解的信息邊界,并挑戰決策金字塔尖上的獨當一面指揮官的想法。這種轉變需要整個組織生態系統的信任。對于像軍隊這樣的保守組織來說,這將是困難的,在指揮部的激進替代方案被接受之前,需要得到保證。實驗、戰爭游戲和模擬環境提供了低風險的選擇,以測試為特定類型的任務(例如,戰爭、和平行動和能力建設)配置的不同總部結構。

3.2 多少信任是足夠的?

信任是根本,但為技術設定一個不可能高的標準也有風險。幾千年來,指揮官和決策者們一直信任易變的人類。當人工智能開始觀察到輸入數據分布的變化時,技術可以通過自我監測的方式提供幫助,提醒人類 "操作員",或以以前未曾見過的方式進行操作,這樣錯誤輸出的風險會更大。風險容忍度,無論是關于人類還是機器演員,最終都是信任的表達。國防組織需要對自己是否是快速采用者或快速或緩慢的追隨者持誠實態度:商業世界的人工智能發展速度使大多數武裝部隊極不可能成為人工智能決策的 "第一用戶"。漸進派和未來派都是人工智能的支持者,他們之間的差異主要是風險問題,以及針對不同信任點的可實現的信任水平。

通過熟悉產生信任是至關重要的,這可能涉及到將軍事人員嵌入到使用復雜人工智能的商業組織中,或將平民帶入國防。這種變化需要在足夠高的級別上進行,以促進生態系統的信任。模擬、實驗和演習是重要的工具,而且必須足夠廣泛,以便不局限于一小群狂熱者。英國電信公司用人工智能決策支持工具取代英國的電話網絡的項目,當服務時間最長、知識最豐富的工程師與人工智能和數據專家合作時,效果最好,他們可能會對人工智能產生懷疑。將企業人工智能引入改革業務流程,如財務和人力資源,是將熟悉程度擴大到目前直接參與人工智能開發和使用的少數干部之外的另一種方式。

一旦熟悉的東西,信任是人類的天性,但信任的習慣會帶來自身的風險。眾所周知,人類不善于設定正確的目標,當遇到 "專家意見"(無論是人為的還是其他的)時,他們更容易同意而不是懷疑。必須避免 "信任和忘記 "的動態。一個考慮因素是為人工智能系統制定一個 "持續可信性 "的概念,類似于航空平臺的持續適航性,以確保它們仍然適合使用。因此,建立對人工智能的信任(并避免過度信任)的努力必須解決所有的信任點,并包括整個人類-機器團隊,其中人類操作員是其數字對應方的有效合作者和建設性批評者。

4. 對指揮部和指揮員的影響

人工智能對決策的知情、制定和實施方式的影響將是深遠的。通過以超越目前人類進程的速度處理大量的數據,人工智能可以提高對作戰環境的理解,并減少決策者的認知負擔。這不僅僅是今天工作方式的演變。僅僅加快當前C2系統的速度是不切實際的。一輛設計為以70英里/小時速度行駛的汽車是為以該速度運行而配置的。將發動機調整到每小時100英里的速度也許是可能的,但會給車輛系統和駕駛員帶來無法承受的壓力。由人工智能驅動的決策所代表的不連續性需要一種新的方法。正如多國能力發展運動(MCDC)所述。

無論我們未來的C2模型、系統和行為是什么樣子,它們都不能是線性的、確定的和靜態的。它們必須是靈活的、自主的、自適應的和自我調節的,并且至少與它們形成和運行的環境一樣具有偶然性和突發性。

軍隊必須為明天的C2進行重組,并以不同的方式培養他們的指揮官和工作人員。如果沒有這些變化,"生態系統信任"可能被證明是不可能實現的。

4.1 指揮和控制

C2包含兩個不同的元素:指揮,通常與創造力、靈活性和領導力相關;以及控制,與規則、可預測性和標準化相關。人工智能將首先影響控制功能,目前,指揮仍主要是人類的活動。人工智能的數據處理能力將消除控制的大量負擔,例如,為指揮官提供對其部隊的更好理解(如部署、狀態、設備和供應水平),目前這需要消耗大量的注意力和時間。它還將改變向指揮官提供信息的方式。目前,這些數據大部分是在 "拉取"的基礎上提供的--根據總部的報告程序要求或零星地收集。然而,人工智能可以持續監測局勢,并通過強調相關變化的活文件將信息推送給指揮官--類似于24小時的新聞編輯部。然而,通過進一步進入控制領域,人工智能將不可避免地影響指揮權的行使,并形成指揮決策;這對上述指揮和控制之間過于整齊的區分提出了挑戰。在未來的C2系統中,可以想象人工智能可以限制指揮權的行使,就像防抱死制動系統、牽引力控制和電子穩定性允許人類駕駛員指揮車輛,直到失去控制,此時系統會接管,直到情況穩定下來。

人工智能給人類指揮帶來了一個悖論。它同時使更多的知識被集中掌握,使總部能夠看到并與 "前線 "發生的事情互動,并將知識擴散到整個指揮系統,使較低級別的編隊能夠獲得以前只有高級指揮官才有的信息。將更多的權力下放給地方指揮官可以提高反應能力,這在事件發展不可預測、需要快速反應的情況下非常重要。西方武裝部隊傾向于采用(或多或少)任務指揮的概念,即指揮官的意圖描述了預期的效果,并允許下級指揮官根據他們面臨的情況自由執行。軍隊的學習和發展系統以及演習嵌入了這種方法--指揮官將需要相信人工智能能夠在其操作中實施這一意圖。鑒于數據和獎勵功能的戰略復雜性和模糊性,人工智能在戰術和作戰層面的使用可能比在戰略層面的指揮更有效,盡管這些層面并不離散,在現實中也不容易被分割開來。人工智能和更大的網絡連接將提供一個結構、流程和技術網絡,連接多個小型、分散的前方總部和分布式(和加固的)后方功能,即使在更透明的戰斗空間,也更難發現和反擊。如果敵人以C2系統為目標,這將增強復原力。

在每個層面上處理更大數據量的能力必須被仔細引導。人們應該能夠獲得與他們的地位和相對能力有關的信息,以影響他們在環境中發展。W-羅斯-阿什比將此描述為 "必要的多樣性 "問題:一個可行的(生態)系統是一個能夠處理其環境變化的系統。行為者應該在適合其任務的抽象水平上運作。一個旅部不能處理也不需要關于單個士兵的詳細信息;它需要對其下屬單位的身體和道德狀況有一個良好的總體了解。在更多的戰術層面上,NCO指揮官應該對他們團隊中的個人狀態保持警惕。戰略和作戰指揮官可能需要放松控制,讓戰術指揮官在更接近戰斗的地方利用新出現的機會。雖然任務指揮已經允許這樣做,但隨著高級別的指揮官獲得關于戰術層面發生的信息的空前機會,"控制"的誘惑會更大。

人工智能也需要使用抽象、近似和校準的杠桿,以避免將總部淹沒在數據洪流中。這需要在使用這些抽象和近似時的 "過程信任"。總部也可能需要使用不同的人工智能系統,其能力更適合或不適合不同時間范圍內的不同場景。決策也可能包括確定在特定情況下信任哪種人工智能模型(部署和過程信任)的因素。

人機聯合系統的自動化將提高人類的表現,在某些情況下,改變任務本身的性質。無論在什么層面上部署,人工智能不僅會影響人類執行任務的方式,也會影響人類執行的任務。目前的方法通常從研究哪些人類過程可以自動化開始,即人類工作的數字化。有可能從使用人工智能的假設開始,只有在人類是必要(出于法律、政策或道德原因)或可取(更適合這項任務)時才將人類放入系統中--決定什么不應該,而不是什么可以被數字化。這種方法挑戰了目前關于總部的規模、組織、人員配置和運作的概念。

4.2 對未來總體結構的影響

聯合概念說明(JCN)2/17指出,C2有可能在不同的戰爭層次(戰略、作戰和戰術)上發生變化,并對作戰環境的變化特征做出反應,因為作戰環境不再僅僅是物理環境。戰爭與和平的模糊性--強調了在 "行動 "和 "作戰 "之間的連續過程中有效的必要性--以及英國向能夠持續參與的部隊結構的轉變,將需要超越戰斗所需的方法。然而,可能沒有單一的總部原型;因此,為戰斗而配置的總部將與處理上游參與和能力建設的總部不同。雖然現在確定人工智能對軍事總部的影響還為時過早,但商業組織已經發現,與傳統的垂直層次結構相比,具有更多橫向信息共享的扁平結構更適合利用人工智能的優勢,因為在垂直層次結構中,每一層都要保證和授權數據才會被發布。因此,軍事總部--無論其具體形式如何--很可能會比現在更小、更扁平,能夠更快地沿著水平線工作。

探索替代的總部概念可以通過更多地使用實驗和模擬來實現。這應該對經典的J1-9參謀部提出挑戰,或許可以用新的分組來反映人工智能取代人類密集型數據處理和共享任務的能力。在J3/5區域尤其如此,這是計劃和行動之間的界限;由更快的決策帶來的更快節奏的沖突使這種界限變得過時。組織總部的替代方法可能包括那些注重結果的方法。JCN 2/17中描述的英國常設聯合部隊總部(SJFHQ)的結構是圍繞著四個職能來組織的:理解;設計;操作;和啟用。SJFHQ后來又恢復了傳統的J1-9人員分支。然而,"聯合保護者2021 "演習是一項復雜的亞門檻行動,其中使用了人工智能決策支持工具,揭示了J1-9架構的弱點。總部開始演習時是為高強度戰爭而配置的,但隨后調整為更適合與其他機構合作的配置。SJFHQ內部正在開展工作,應用2021年聯合保護者的經驗教訓,并確定這對總部結構意味著什么。然而,不太可能有一個完美的總部模式適用于所有行動類型。需要進一步的實驗,不限于SJFHQ。很能說明問題的是,自JCN 2/17發布以來的四年多時間里,在實施其中的一些建議方面幾乎沒有取得進展。即使英國國防部采用技術的速度相對緩慢,但這也超過了國防部探索改變結構的能力,超越了小規模的愛好者群體。"生態系統信任"是至關重要的,需要有機會在模擬或真實的環境中對各種任務類型的替代方法進行測試,并讓更多的人參與進來,這對有效采用新技術、結構和過程至關重要。

現有的程序需要改變以連接和優化新的結構。這可能需要改變構成武裝部隊規劃過程基礎的軍事評估。雖然它是一個復雜的、符合邏輯的規劃工具,但它是相當線性的、確定性的,并且嚴重依賴于指揮官,特別是在 "指揮官領導 "的英國方法中。在其他國家,參謀部在推動解決方案方面發揮了更大的作用,這可能更適合于人工智能的方法。人工智能為更多的迭代和協作過程提供了機會,它能更好地響應軍事和民防資源中心的要求,轉向更敏捷的模式。新的方法應該給指揮官帶來更少的壓力,要求提供信息(指揮官的關鍵信息要求)。人工智能還可以構建、分析和比較作戰行動方案,允許在做出大規模投入部隊的選擇之前對情景進行建模、測試和完善。

英國常設聯合總部(PJHQ)的情報評估過程自動化的思想實驗發現了取代大量工作人員的機會,加快了總部的戰斗節奏,并允許使用自動總結和自然語言處理來橫向共享信息。在一次作戰部署中測試了這一點,英國第20裝甲步兵旅戰斗隊將部分計劃過程縮短了10倍。然而,當人類仍在環路中時,決策環路的速度可能是有限的。在某些時候,人類決策者將無法跟上,成為決策監控者。如果仍然需要人類來做人工智能自己不能做的決定,這將是一個問題,而這可能是最困難的決定。

盡管有明顯的優勢,但總部不太可能在技術允許的范圍內減少。目前的總部通過規模和保證程序的冗余來補償人類的脆弱性,這對于減輕人工智能團隊成員的脆弱性可能仍然是正確的。此外,隨著戰斗節奏演變成連續的24小時規劃周期,節奏的加快可能會推動某些領域的需求上升。這些壓力可能并不局限于總部本身;它可能會推動前線單位的活動增加,他們必須處理數據并對所發出的指令作出反應。人類行為者仍然需要時間來休息,即使技術不需要。此外,與商業組織不同,軍隊需要冗余,以應對競爭對手蓄意破壞或擾亂他們的決策機構,并需要確保固定基礎設施的安全,以建立他們的網絡。簡而言之,對彈性和流動性的需求影響了軍事C2系統的穩健性和效率。因此,軍隊將需要保留不完全依賴人工智能進行有效操作的結構,并確保在人工智能失敗或故意削弱對人工智能信任的情況下,有恢復性程序可用。

4.3 培養指揮官

傳統上,指揮官是垂直決策結構的頂點,是所有信息的匯集點。雖然不是所有的軍事文化都強調個人的天才,正如 "翠鳥時刻"的概念所體現的那樣,但指揮官獲得信息的特權被總部的低層人員所拒絕。人工智能使信息民主化的潛力將改變這種情況;指揮可能會成為一種更加合議和反復的活動,不僅涉及那些穿制服的人,而且包括情報機構和具有數據科學多方面專業知識的承包商在內的更加折衷的組合--一種 "全部隊"的貢獻。面對一個復雜和適應性強的戰斗空間,另一種鳥也許為未來的指揮提供了一個更好的比喻:椋鳥。它們集體的、高度適應性的雜音為英國的發展、概念和理論中心的C2概念提供了一個更好的形象,即 "為設計和執行聯合行動而配置的動態和適應性的社會技術系統"。

指揮官必須繼續能夠處理動態環境;"沒有計劃能在與敵人的接觸中幸存下來 "這句話仍然是正確的。鑒于技術能夠提高速度(減少反應時間)和復雜性(通過更透明的戰斗空間),處理復雜、快速演變的問題將尤為重要。軍事組織正在試驗人工智能將如何改變C2,包括北約卓越指揮與控制中心、美國JADC2和英國軍隊的數字準備實驗。早期的跡象表明,指揮官將不得不更多地關注問題的框架,并確保在更小、更扁平的結構中的更多不同團隊之間的理解和目標的統一。這表明需要一個不同類型的指揮官和不同類型的工作人員;他們能夠整合由不同學科的成員組成的不同團隊的工作,而且往往是來自軍隊以外的成員。

確保指揮官能夠正確地設定問題的框架是至關重要的。人工智能非常善于在框架內操作,但目前至少在 "閱讀字里行間 "或從定義不明確的數據集中推斷方面很差--這種脆弱性仍然依賴于有人類來設定框架。在確定了問題的框架后,指揮官必須能夠判斷產出在該框架內是否合理。這需要能夠看到大局的人,武裝部隊需要通過在總部的參謀經驗來培養未來的指揮官,使他們熟悉環境和流程,從而能夠在越來越高的級別上進行指揮。模擬可以促進對總部的接觸,同樣可以確保較小的總部仍然保留人們獲得經驗的作用,通過這些經驗可以獲得必要的指揮技能。

雖然指揮官需要知道如何與技術互動,但他們必須繼續關注人工智能所要服務的作戰要求,并對其持適當的懷疑態度,以便他們成為這一過程中的知情者,而不是算法輸出的被動接受者。指揮官需要類似于工業界的 "π型領導人",在軍事專業的同時具有數字和數據意識。他們不需要成為技術專家,但應該有足夠的知識來了解其局限性,能夠與團隊中的專家合作,并有足夠的滿意度來允許對數據、流程和產出的信任。

集體而言,總部團隊需要這些技能,各個團隊成員能夠相互交流和理解。這超出了情報分析員的范圍,包括來自武裝部隊內部和外部的廣泛的行動、技術和數據專家。它還包括對風險更復雜的理解和溝通能力。戰爭從根本上說是一個風險管理的問題,這需要以經驗的方式來理解和溝通風險。因此,了解概率和信心水平是一項關鍵的指揮技能,但諸如沖突中的一次性決定也需要長期的判斷。

軍事教育需要通過在職業生涯中更早地引入數據和技術意識來應對。此外,軍隊對不同能力的評價方式也需要改變。據傳聞,英國陸軍的職業管理流程往往將那些在計算能力上取得好成績的人引向采購等領域,而不是作戰,被選入參謀學院的專業人員往往在計算能力上處于較低的四分之一。這不僅僅是軍隊面臨的挑戰:有望成功競爭的國家需要國家教育系統認識到數據和技術素養技能的價值,并從小培養他們。作者并不主張將教育變成就業前培訓;雖然需要STEM技能(數量比現在多),但人文和社會科學仍然很重要,培養出的畢業生適應性強,能夠解決復雜的問題,并以影響力進行溝通。國家的成功取決于學術和其他形式的多樣性,培養人們在數字世界中茁壯成長,不僅需要技術能力,還需要(人文)特質,如創造力和情商。指揮官和工作人員在未來將需要這兩套技能,也許比今天更需要。

除了分析之外,直覺是信息處理中的一個補充部分。在指揮官需要行使的雙軌制決策方法中,它是人類認知的一個重要部分。有效的決策結合了直覺和分析的優勢。當數據和直覺一致時,決策者可以放心地采取行動。如果它們不一致,則需要在行動前進一步探索。1983年,俄羅斯中校Stanislav Petrov避免了潛在的核戰爭。他的導彈探測系統報告說美國發射了五枚洲際彈道導彈,但他沒有立即報告,而是決定等待,因為這個信息感覺不對。他的(下意識的)雙模式決策使他做出了正確的決定。人工智能更強的數據處理和分析能力可以增強決策過程中的分析要素,但它需要指揮官認識到直覺的價值和局限性。專業軍事教育需要反映出對數據和直覺這兩個組成部分的平衡方法。

4.4 管理整個部隊

未來的指揮官所指揮的團隊必然比今天更加多樣化,領導跨學科團隊為復雜問題帶來新的見解。人類有效構思和發展直覺的能力通過接觸不同的看世界的方式得到加強。這不僅僅是改善受保護特征方面的多樣性,盡管這很重要,還包括確保整個部隊團隊中教育、經驗和觀點的廣泛性。整個部隊的不同元素是這種多樣性的一部分。

越來越多的跨軍事領域的綜合活動要求整個部隊的各軍事部門有效合作。對于正規軍事人員,在 "聯合"方面已經取得了進展,但還需要做更多的工作。在軍事生涯的早期引入聯合訓練是實現這一目標的一種方式;這可能需要重新思考軍事人員何時接受專業軍事教育,目前在英國是在30歲左右。相比之下,澳大利亞國防軍為參加澳大利亞國防軍學院的人員提供了基本的聯合軍事課程,海軍、陸軍和空軍專家也接受了單一軍種培訓。這為未來的指揮官在軍事生涯早期的成長提供了一個跨學科的 "聯合 "模式。正規軍的進展需要擴展到后備軍的整合,因為未來可能會有更多的技術專家駐扎在這里。

事實證明,整合整個部隊的非軍事因素更為困難。Serco研究所的一份報告指出,"盡管在過去十年中,整個部隊的運作取得了進展,但在實現軍事和工業之間的無縫合作方面的努力卻停滯不前。雖然武裝部隊在將非軍事人員帶入其總部方面做得更好,但在場和被納入之間有很大區別。如2021年聯合保護者等演習,經常邀請國際合作伙伴和民間主題專家來幫助規劃過程,但他們往往在軍事規劃人員完成工作后才被邀請對計劃發表意見。許多總部的規劃周期缺乏靈活性,這意味著當規劃被提出來供審查時,可能已經來不及進行修改了。

這不僅僅是對軍隊的觀察;文職專家往往不熟悉軍事進程,等待被邀請做出貢獻,這削弱了他們的影響力。軍事人員沒有本能地理解他們的非軍事同事所能做出的全部貢獻,因此沒有將他們納入其中。人工智能將迫使人們從一開始就需要在規劃過程中建立整個部隊的多樣性,從而使計劃成為真正的合作。

有了人工智能的能力,技術將越來越多地成為整個部隊的一個成員。國際象棋大師加里-卡斯帕羅夫(Gary Kasparov)曾指出,好的技術和好的人類棋手的結合,往往比卓越的技術或更好的人類棋手單獨工作更成功。在某些情況下,人和機器可能在共享任務中緊密結合,以至于他們變得相互依賴,在這種情況下,任務交接的想法就變得不協調了。這在支持網絡感知的工作設計中已經很明顯了,在這種情況下,人類分析員與軟件智能體相結合,以近乎實時的方式理解、預測和回應正在發生的事件。

從這些人機一體的團隊中獲得最大利益,不僅僅是有效的任務分配。它涉及到找到支持和提高每個成員(人或機器)績效的方法,從而使集體產出大于單個部分的總和。正確的行為和創造包容性文化的能力對于從這樣的團隊中獲得最大收益至關重要。指揮官不應專注于試圖管理 "突發事件"--一個試圖描述簡單的事情如何在互動中導致復雜和不可預測的結果概念--或團隊成員的活動,而是需要在塑造團隊和培養團隊內部的關系方面投入更多。

雖然人工智能目前作為一種工具,但隨著技術的發展,它應該被視為團隊的真正成員,擁有影響人類隊友的權利和對他們的責任。然而,無論其最終地位如何,人工智能都可能改變團隊的動態和對人類團隊成員的期望。將人工智能引入一個團隊會改變團隊的動態,而它與人類團隊成員的不同會使團隊的形成更加困難。通過布魯斯-塔克曼(Bruce W Tuckman)的經典階段,即形成、沖刺、規范和執行,需要妥協和適應。人工智能目前不太能做到這一點,需要人類參與者有更大的靈活性,這使得建立人機團隊更加困難,也更難恢復已經失去的信任。

高級人工智能,如果可以說有動機或偏見的話,很可能是以邏輯和任務為導向的(用實力部署清單術語來說,就是綠色和紅色)。一個平衡的團隊將越來越需要能夠維持團隊關系的人類,無論是內部還是跨團隊。因此,人機團隊將是不同的,盡管他們可能與包括神經多樣性同事在內的純人類團隊有一些相似之處,因為對他們來說,感同身受或理解情感線索是困難的。與神經多樣性團隊一樣,人機團隊將受益于團隊成員的多樣性給整體帶來的價值,但也需要進行調整,以最大限度地提高團隊績效的機會。人工智能作為團隊成員的概念究竟會如何發展,目前還不清楚,但有人呼吁組織在更平等的基礎上考慮先進技術的需求。加強企業人工智能在業務支持活動中的使用,將為探索人機團隊如何最有效地合作提供機會,并有可能實現預期運行成本的降低,使人類在價值鏈上從事更有意義的工作。

4.5 職業管理

需要的新的領導風格、新的技能和對技術、數據和風險的進一步理解也需要新的職業管理方法。軍隊的職業管理系統(過于)頻繁地調動人員,但要形成具有必要信任度的有效團隊需要時間。軍隊可能會放慢關鍵人員的流動,甚至可能放慢團隊的流動,從而使總部高級團隊作為一個集體實體而不是個人來管理。然而,目前的人力資源實踐使軍隊或工業界不太可能愿意無限期地保留人們的職位以期待未來的需求。用拉斐爾-帕斯卡爾和西蒙-鮑耶的話說,這就產生了 "混合團隊",即那些成員不固定的團隊,對他們來說,迅速建立團隊信任的能力至關重要。即使是常設總部也會受此影響,特別是當他們成為 "整體部隊 "時。對于'臨時團隊',例如為特定任務而設立的臨時總部,這個問題就更加突出。需要有機制來加速信任的發展,經驗表明,這可以通過早期的行為實踐來實現,包括展示 "技術能力、信息公開、支持互惠和決策中被認為的誠信"。

放慢總部高級職位人員的流動速度將有所幫助,但這還不夠。在無法保證預先建立的團隊在需要時隨時準備好執行任務的情況下,需要有一種方法來減少組建新的部隊團隊的時間。模擬提供了一種方法,通過壓縮任務演練的時間來準備新組建的團隊,并為整個部隊的不同組成部分提供共同工作的經驗。軍隊在這方面做得很好;軍隊的社會化進程創造了強大的紐帶,包括派人到合作伙伴那里進行培訓、演習和任務。對于整個部隊的其他部分來說,這種對跨文化理解的投資是缺乏的。建立對對方的了解,從而建立信任,對文職部門來說同樣重要。軍隊可以做得更多,為其工作人員提供與商業部門合作的經驗,包括與技術專家、數據專家和編碼人員合作,而文職人員也需要更好地了解軍隊、其語言、流程和價值觀。武裝部隊可以通過提供交流任命和模塊化和/或縮短其課程來協助這一進程,使文職人員有可能參加。冠狀病毒大流行引入了新的工作方式,并加速了軍事訓練和教育的變化,這可以為信任提供基礎,在此基礎上可以出現新的團隊和總部類型。

簡而言之,人工智能輔助決策不僅僅是一個技術問題;它需要改變指揮結構、流程和人員技能,才能發揮其潛力,成為武裝部隊在所有任務中運作的一場革命。然而,至關重要的是,在適應不斷變化的戰爭特征時,武裝部隊不能忽視戰爭的持久性:指揮官必須保持領導者和戰士的身份,能夠激勵普通人在最困難的情況下做出非凡的事情,而不僅僅是善于管理戰斗的人。在軍事方面,人工智能是一種工具,可以最大限度地提高武裝部隊在激烈競爭環境中的獲勝機會。

5 結論

人工智能正迅速成為我們國家安全結構的一個核心部分。軍方和情報機構正在嘗試用算法來理解大量的數據,縮短處理時間,并加速和改善他們的決策。對人工智能越來越多的使用和熟悉可以促進對它的信任,但正如專家們的辯論所表明的那樣,要建立和維持對像人工智能這樣的變革性技術的信任,存在著嚴重挑戰。

本文重點討論了人工智能的作戰和任務支持應用,并探討了不斷發展的人與人工智能關系對未來軍事決策和指揮的重要性和影響。當軍事指揮官的角色從控制者轉變為團隊伙伴時,當我們不能再將輔助功能只賦予人工智能體時,那么我們就需要從根本上重新思考人類的角色和我們的機構結構。簡而言之,我們需要重新評估人機決策中信任的條件和意義。沒有這種信任,人工智能的有效采用將繼續比技術的發展更慢,而且重要的是,落后于我們一些對手采用人工智能的速度。

一個稍加修改的信任概念--一個不需要將意向性或道德性歸于人工智能體的概念--可以而且確實適用于AI。只要我們委托機器做可能對人類產生嚴重甚至致命后果的事情,我們就會讓自己變得脆弱。只要存在人工智能的表現達不到我們預期的風險,對它的任何使用基本上都是一種信任的行為。

除了最罕見的情況,對人工智能的信任永遠不會是完全的;在某些情況下,用戶可能有意識地同意較低的信任水平。這種信任需要考慮五個不同的元素,作者稱之為 "信任點"。我們不應該依賴任何一個單一的點來產生整體的信任。事實上,往往得到最多關注的領域--關于數據質量或人工智能輸出的可解釋性問題--從長遠來看,必然會提供不令人滿意的答案,并有可能對技術產生錯位的放心感。

最常被忽視的是在組織生態系統層面上對信任的需求。這需要重新思考武裝部隊的組織及其C2結構。如果說機器的作用越來越大曾經是官僚軍隊結構興起的關鍵驅動力,以集中管理手段,那么人工智能正在以根本的方式挑戰常備軍的這一特點。如果人工智能的使用不僅僅是模擬工作方式的數字化,國防部必須改變其在 "行動(operate)"和 "作戰(warfight)"方面的決策結構。它還需要與整體部隊的各個方面進行更密切的接觸和參與,包括其未被充分利用的后備部隊以及工業和更廣泛的政府。

領導力作為軍事職業的一個持久要素也需要重新考慮。人們傾向于將領導力視為軍事指揮的一種抽象或不可改變的品質。在人工智能時代,指揮任務或領導團隊既需要新的技能(如 "表達數字(speak digital)"的能力),也需要更多樣化的特質(例如,在數據和直覺發生沖突時,橫向思考的能力,構建問題的框架,并應用批判性的判斷)。與以往相比,人工智能更需要那些能夠理解復雜性、構建問題并根據情況提出正確問題的指揮官。這些 "故意的業余愛好者 "摒棄了早期狹隘的專業化,選擇了范圍和實驗思維;他們可以建立專家團隊,吸取專家的意見,使集體人才既廣泛又深入。這些全軍團隊將包括人類和機器,所有這些人都將根據他們在塑造和決策方面的專長作出貢獻。

在尋求回答信任如何影響軍事決策中不斷發展的人與人工智能關系時,本文提出了幾個需要進一步研究的關鍵問題:

  • 我們如何建立必要的信任,在戰術、作戰和戰略層面上重新配置指揮部的組織,其規模、結構、位置和組成
  • 我們如何調整軍事教育,使指揮官為人工智能時代做更好的準備
  • 我們如何優化和改造所有領域的集體訓練,以改善涉及與人工智能體更多協作的指揮
  • 我們如何運作 "全軍 "的概念,以更好地利用我們社會、工業和研究機構中的大量人才
  • 我們如何定義人工智能和人類在人機團隊中的需求和目標

如果我們不從根本上改變如何獲取、培訓和培養領導崗位的人員,以及如何改革他們所處的機構和團隊,我們就有可能在人機關系的信任平衡上出錯,并將無法利用人工智能的全部變革潛力。

作者

克里斯蒂娜-巴利斯是QinetiQ公司的培訓和任務演練的全球活動總監。她在大西洋兩岸有20年的經驗,包括咨詢、工業和公共政策環境,特別關注國防、全球安全和跨大西洋關系。她曾是華盛頓特區戰略與國際研究中心歐洲項目的研究員,Serco公司負責戰略和企業發展的副總裁,以及巴黎Avascent公司的負責人和歐洲業務主管。她擁有華盛頓特區約翰霍普金斯大學高級國際研究學院和意大利博洛尼亞大學的國際關系碩士和博士學位,以及英國和德國的商業學位。

保羅-奧尼爾是RUSI的軍事科學部主任。他在戰略和人力資源方面有超過30年的經驗,他的研究興趣包括國家安全戰略和國防與安全的組織方面,特別是組織設計、人力資源、專業軍事教育和決策。他是CBE,英國特許人事與發展協會的會員,溫徹斯特大學的客座教授,英國后備部隊外部審查小組的成員。

付費5元查看完整內容

本文對常用于軍事目的的十種算法進行簡短綜述,然后分析它們對數據流和GaAs的潛在適用性,GaAs是芯片上超級計算機的特定架構和技術。每當一種算法或設備被用于軍事場合時,自然會假設與速度、可靠性、規模、能量、尺寸和精確度有關的嚴格要求。上述兩種范式在滿足這些要求中的大部分方面是有希望的。

1 引言

這是對優化和學習的十種具體算法的一個小型綜述,結合對它們在未來芯片上的超級計算機中的數據流實現的適用性的分析,如[1]所述,以及它們對GaAs技術的適用性,這也是未來芯片上的超級計算機的一個選擇。顯然,這些算法的計算量需要在一個小的物理空間內有大量的計算能力。

在第2節中,每個算法都用適當的數學和邏輯概念進行了說明,并使用[2]中的準則進行介紹,即以下幾點:

1.要解決的問題是什么。

2.在引入所提出的算法之前,現有的最佳算法是什么。

3.為什么新提出的算法會更好?

4.在哪些條件下,它的優勢有多大?

上述每個問題都盡可能簡明扼要地介紹,以便有效地深入了解其本質。

在第3節中,每一種算法都從適合數據流技術的角度進行了描述,數據流技術對高速、高精度、低功耗和低尺寸的航空航天和國防應用很有前途。

在第4節中,從適合GaAs技術的角度描述了每種算法,GaAs技術對航空航天和國防領域典型的高輻射環境下的超高速處理比較有用。

第5節介紹了與本綜述所關注的各種情況下的性價比有關的結論。

2 算法

人工智能(AI)算法已經進入國防領域,它們的廣泛使用正在改變戰爭和一般國防的經典理論。算法被用于檢測、規劃、現場作戰和輔助支持,這些都是國防部門的主要任務。算法和智能傳感器被用來在邊境口岸、海關檢查站和其他旅行口岸檢測潛在的危險人物和物體。作為這些算法的輸出,所獲得的洞察力被用來部署積極的警務工作,并對危機情況提供更全面的了解。在計劃中,可用的數據和算法被用來更好地預測資源需求和任務及培訓演習的相關費用。在實地行動中,這些可以提供實時信息和快速評估,以改善任務結果,保護人員、資產和信息。一些系統和武器配備了各種輔助決策系統,而無人駕駛車輛和機器人則以較高的精度和較少的資源執行涉及安全風險的任務。

在本文中,我們介紹了十種算法,這些算法被用于核心、戰術和支持作戰的軍事應用中。基礎問題的實例,即算法的輸入,通常規模很大。因此,有大量的數據需要快速處理,最好是實時的、準確的和可靠的,同時保證信息的保密性和控制,即使在惡劣的條件下操作。

在DARPA贊助的項目中,最常發現的算法與我們下面介紹的問題和算法有關。算法和問題的選擇似乎略微偏向于計算機視覺,因為它似乎是發展自動駕駛汽車的基本技術,取代了駕駛員的眼睛,從而使汽車能夠在危險的地點檢測到感興趣的物體。

A 大規模隨機規劃問題

軍隊中每天都有大量的優化問題,這些問題具有一定的不確定性,通常呈現在各種場景中。應用范圍從每月或每天的空運或海運貨物的調度[4],到網絡勞動力規劃[5]或醫療設施部署規劃[6]。這些都需要快速、準確和可靠的大規模隨機規劃問題的求解器。

Benders分解法是一種數學規劃技術,用于解決具有特定塊結構的超大型線性規劃問題[7]。

假設一個問題分兩個或多個階段發生,后面階段的決策取決于前面階段的結果。第一次嘗試對第一階段的問題進行決策時,事先不知道關于后面階段決策的最優性。第一階段的決策是主問題,而后續階段被視為獨立的子問題,其信息被傳遞回主問題。如果檢測到任何違反子問題約束的情況,該約束將被添加到主問題中,然后被解決。主問題代表了一個初始的凸集,它被從子問題中收集到的信息進一步約束,因此隨著信息的增加,可行空間會縮小。如果矩陣A和B代表約束條件,Y代的可行集,我們要解決的問題被表示為最小化問題,如下所示:

在圖1中,我們說明了Bender分解算法。一旦得到初始主問題和子問題,在得出初始MP和子問題后,算法從主問題開始,然后在它們之間交替進行,直到找到一個最優解。較小的問題基本上是多項式時間可計算的問題,而它們的獨立性允許有效利用并行性。

一般來說,線性規劃是一個NP完全的問題,而Benders分解是一種能緩慢收斂到所需解決方案的方法。

B 圖像配準

機械臂和自主裝甲車的絕對精度是可能的,這要歸功于計算機視覺應用于從多個攝像機收集的高分辨率輸入,這些輸入最終需要轉化為相同的坐標系,以便為后續算法創建一致的數據。這是用所謂的圖像配準算法完成的。

圖像配準包括對源圖像進行空間轉換,以便與目標圖像對齊,如圖2所示。對齊是通過一個特定的映射來進行的,這個映射被稱為 "同構",定義如下。

有大量的算法可以準確地進行圖像配準。當圖像被暴露在噪聲中,導致一個場景在圖像中顯得雜亂無章時,現有的最佳解決方案具有多項式時間復雜性(見[8])。

最近,高分辨率圖像的實時配準(詳見[9]),正在由高速硬件來解決,這些硬件利用并行性和自適應采樣技術來滿足高速便攜式多媒體設備的要求(見[10])。

C 視頻拼接

圖像和視頻拼接是通過拼接幾個有多處重疊的圖像/視頻來獲得全面的圖像/視頻視野,從而消除圖像或視頻中的視野限制。視頻拼接本質上是對多圖像拼接的概括,具有一系列新的限制和挑戰。

首先,圖像需要使用之前解釋過的圖像配準將其轉換為相同的坐標系。然后,根據使用情況,選擇一個適當的算法來尋找拼接縫隙。

較早開發的算法通常根據一個估計的單一變換對多個重疊的圖像進行全局變形和對齊。最近開發的算法將該問題轉化為更高級的優化問題,考慮到攝像機的移動,這需要穩定視頻。因此,視頻拼接可以被設定為優化一個由穩定項和拼接項組成的目標函數,在此基礎上進行迭代優化算法。顯然,即使是拼接低分辨率的視頻也需要大量的計算(見[11])。把這個問題帶到國防應用的現實場景中,需要對位置不固定的攝像機獲得的高分辨率視頻進行拼接。

D 模式識別算法

模式識別涉及自動識別數據中的規律性,并將數據分為不同類別。

分類是指識別一個(或多個)觀測值屬于一組類別(子群體)中的哪一個的問題。這方面的例子是將視頻流中的識別對象標記為敵人,或者根據觀察到的設備特征(類型、某些特征的存在等)來分配網絡診斷中的一個設備。對于分類問題,我們將考慮邏輯回歸、kNN、感知機和SVM。

聚類是一種分類和預測分類標簽的方法,對于這個類別,我們將介紹kmeans算法。

最后,我們還將考慮集成學習,其本質是將多種學習算法結合在一起的有監督的元算法。

  • 1)邏輯回歸

邏輯模型在統計學中被用來評估某個事件或現有的一組事件的概率,如通過/失敗、贏/輸、生/死或敵/友。它也可以擴展到對幾類事件進行建模,如確定圖像中的人是否有火箭筒,圖像中是否包含特定物體等。在圖像中檢測到的每個物體都被賦予0到1的概率,其總和為1。

  • 2)online kNN

kNN是一種監督學習算法,它將標記好的訓練好的樣本存儲為一對(X1, Y1), (X2, Y2), ...... ,(Xn, Yn),在Rd×{1, 2}中取值。訓練階段只包括存儲這些樣本。為了進行預測,kNN算法找到查詢點的k個最近的鄰居,并根據最近的k個最相似的點計算出類標簽。

  • 3)感知機

感知機是一種學習閾值函數的算法:一個將其輸入x(實值向量)映射到輸出值f(x)(單一二進制值)的函數。單層感知機的自然擴展是多層感知機,它基本上包含了許多組織成層的感知機,從而獲得在合理時間內解決更復雜問題的能力。

  • 4)用于實時目標檢測的神經網絡

一個可靠的、高度準確的實時目標檢測算法在防御中是最重要的。在給定的視頻中實時檢測某類語義物體的實例(如人類、動物、道路或車輛)。輸入是以連續視頻流的形式給出的,而輸出則是分配給每個檢測到的目標的注釋描述符,該描述符在其出現的幀中以適當的方框為界。

YOLO算法被認為是最先進的算法。YOLO的處理管道包括一個單一的神經網絡,它首先預測圖像中的界線框,之后問題被簡化為對空間分離的界線框的回歸。

YOLO首先將圖像分割成單元,通常是19x19的網格。然后每個單元負責預測K個邊界盒。YOLO根據單元格包含某個類別的概率,為盒子和類別確定一個置信度分數。詳細來說,一個類別的置信度分數是界線框置信度分數和類別概率的乘積。然后對所有單元格重復這一過程。然后,需要用所謂的非最大抑制法過濾掉不必要的界線框,通過這種方法,選擇一個具有最高類別概率的界線框。這樣做直到我們剩下所有不同的目標類別的界線框。

預測結果與地面實況之間的誤差之和被用來計算損失。損失函數包括:分類損失、定位損失(預測的邊界框和地面實況之間的誤差)和置信度損失(框的客觀性)。

這種方法在軍事上的應用有兩個額外的限制:(1)在準確性和速度之間不做權衡;(2)出于安全考慮,不使用在安全范圍外預訓練的網絡

這些限制和問題的性質要求在數據流上有巨大的連續處理能力,以使這種算法能夠成功使用。

  • 5)支持向量機(SVM)

為了檢測網絡中的入侵行為(IDS),需要對其流量進行特殊的簽名分析。正常的網絡流量往往表現出與攻擊相似的特征,而黑客經常應用混淆的方式進行網絡入侵。

機器學習為準確識別IDS提供了廣泛的有效工具,其限制條件是訓練數據集不應與惡意數據有關。支持向量機(SVM)是這項任務的一個有希望的候選者[14]。

這種算法的目的是在N維空間中找到一個超平面,在保持最大余量的同時將數據點分開,也就是各個類的點之間的最大距離。

盡管SVM的空間和時間復雜度是多項式的(分別是對輸入大小的二次和三次),但網絡中的數據量要求有特殊的結構,以使這種算法能有效地用于上述目的。

  • 6)k-means

k-means聚類是一種矢量量化的方法,其目的是將n個觀測值劃分為k個聚類,每個觀測值都屬于平均值最近的聚類,作為聚類的原型。這導致數據空間被劃分為Voronoi單元。

  • 7) 集成模型--Boosting

集成模型使用多個不同的建模算法或不同的訓練數據集來預測一個結果。然后,集成模型將每個使用過的模型的預測結果匯總,得出其對未見過的數據的最終預測結果。特別是,Boosting是一種集成模型,已被廣泛用于軍事應用中(見[15])。

在實踐中,AdaBoost算法是通過級聯上述SVM弱分類器的數量來實現的。

3 數據流

數據流范式[16], [17], [18]已經被引入,與傳統的控制流范式[19]形成對比。在控制流中,編寫程序的目的是為了對通過硬件的數據流進行微觀控制。在數據流中,編寫程序的目的是為了配置硬件,因此,在理想情況下,電壓差可以通過硬件移動數據。

與控制流范式相比,數據流范式可以實現10倍、100倍、甚至1000倍的速度提升。同時,功率的降低可以達到10倍左右。精度可以在整個算法中變化,這就節省了芯片面積。設備的尺寸也得到了減少,系數高達10倍。

從這種模式中受益最多的算法是那些以耗時的循環和每個特定循環迭代中的大量數據可用性為特征的算法。在本文綜述的算法中,最適合數據流實現的算法是:邏輯回歸、K-means和集成模型。

這些算法的數據流實現的例子,以及其他類似的算法,可以在appgallery.maxeler.com 或[16]中找到。關于更多信息,感興趣的讀者可以參考文獻[19]、[17]、[18]。

4 GaAS

GaAs技術也可用于處理器的設計和算法的實現。它提供了明顯更高的處理器速度和精度或輻射硬度,這使得它適合在航空航天和國防環境中使用。另一方面,可以放置在單個芯片上的晶體管數量較少,而柵極延遲在很大程度上取決于柵極扇出。

這些特點決定了處理器設計和算法實現的具體要求。一方面,沒有多少邏輯可以放置在單個芯片上,另一方面,片外和片內延遲的比例相對較高。這就要求利用高度流水線架構,其中流水線元件的復雜性相對較小。

在DARPA的贊助下,實現各種類型的處理器工作在[20]和[21]中描述。重要的概念在[22]和[23]中被描述。這些概念也與本文描述的算法的實現有關

基于上述事實,可以預期最有效的實現是那些可以使用許多小元素,以流水線方式連接的算法,如圖像/視頻配準和拼接。其他例子包括感知器、SVM、kmeans和集成建模。這些說法通過本文共同作者任教的大學中的一些學生項目得到了驗證。

5 結論

所綜述的算法是根據在選定的軍事應用中的使用頻率選擇的。我們從基于數據流范式和GaAs技術的實施角度來研究這些算法。

研究發現,有些算法比其他算法更適合于數據流。也就是說,最適合的算法是那些以循環對整個運行時間的高貢獻為特征的算法,以及那些在每個循環迭代中具有高水平數據重用性的算法。

就利用GaAs技術帶來的潛在好處而言,那些可以在大量小模塊上實現的、以流水線或系統方式連接的算法有望獲得最佳性能提升。此外,對片外和片內延遲的大比率不太敏感的算法更適合這種技術,因為這種技術可以提供高速度,但不允許使用大芯片。

最后,這項調查開辟了與三角中的協同作用有關的新研究途徑:算法-架構-技術。為了從眾多的選擇中適當地選擇一種特定的算法,有必要進行本文所介紹分析。

付費5元查看完整內容

摘要

最近,我們見證了對抗性機器學習技術的快速發展,它破壞了底層機器學習模型的安全性,并導致了有利于對抗者的故障。最常見的對抗性機器學習攻擊包括故意修改機器學習模型的輸入,其方式是人類無法察覺的,但足以導致模型失敗。對抗性例子最初是為圖像設計的,也可以應用于自然語言處理(NLP)和文本分類。這項工作提出了一個研究和實施對抗性例子--以及防御機制--來對抗基于BERT的NLP分類器。用于測試擬議方法的數據集包括北約文件,現在已經解密,這些文件最初擁有不同的保密級別,由文件中嵌入的標簽指定。BERT模型被用來根據這些文件的初始敏感性對其進行自動分類。雖然攻擊者的目的是改變分類級別,但防御方致力于阻止這些企圖。實驗表明,對抗性文本實例可以誤導模型,導致拒絕服務,當文件被識別為具有比實際更高的敏感性時,或者導致數據泄漏,當文件被解釋為具有比實際更低的敏感性時。通過采取適當的防御措施,有可能抵制特定類型的對抗性攻擊,但代價是降低模型的整體準確性。

引言

機器學習系統的廣泛使用和成功使其成為攻擊者越來越頻繁的目標,他們的目標是濫用這些系統為自己謀利。這種現象導致了對抗性機器學習的發展[1],這是一個結合了機器學習和網絡安全的領域,涉及到對智能系統可能的攻擊以及對策的研究。因此,盡管機器學習在一般情況下能快速提供結果,而且準確性很高,但它并非沒有風險,如果在沒有充分的安全分析的情況下實施,后果可能是災難性的。例如,特斯拉Model S 75自動駕駛系統可以通過隱藏高速公路標志或添加人類駕駛忽略的標記來進行操縱,從而導致,例如,轉向錯誤的車道[2]。

圖1描述了機器學習系統的各個組成部分可能受到的攻擊類型,按有意和無意的故障分組。機器學習的最大威脅之一是數據的完整性,表現為數據中毒。作為訓練集一部分的數據,如果被破壞,會改變模型的學習能力,從而影響其性能。訓練樣本通常不涵蓋所有可能的角落案例。一些沒有被考慮的樣本可能被模型錯誤分類,導致不正確的預測。提供其預訓練模型的第三方服務通常只想提供查詢訪問,而不提供額外的信息。任何針對模型保密性的安全漏洞都會泄露敏感信息,可能會揭示和暴露出模型結構。一般來說,機器學習服務提供者希望對用作訓練集的數據相關信息進行保密。成員推理攻擊的目的是通過泄露訓練集的一部分來損害數據隱私。

圖1 針對機器學習系統的安全威脅實例
付費5元查看完整內容

摘要

人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。

引言

縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。

人工智能的進展

幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
 雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。

付費5元查看完整內容
北京阿比特科技有限公司