亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

由于實彈演習可用性有限、成本高、風險大,空中和地面火力與機動的協調為模擬訓練提供了理想的目標。目前的模擬系統為操作員提供任務導向型訓練,但沒有機會練習與其他機構的溝通和協調。本文采用分布式仿真工程和執行程序來指導仿真環境的創建,通過在一個逼真的聯合武器場景中演示地面觀察員、近距離空中支援、建設性水面火力和通信工具仿真的互操作性,來彌補這一訓練能力上的差距。使用分布式交互仿真(DIS)標準和 ASTi Voisus 通信軟件開發了一個仿真環境,其中包括波希米亞交互仿真公司的 VBS4、洛克希德-馬丁公司的 PREPAR3D 和 Battlespace Simulations 公司的 MACE。雖然有一個研究虛擬專用網絡(VPN),但 VPN 客戶端之間無法支持 DIS 廣播通信。模擬環境在本地網絡上運行,遠距離用戶使用遠程桌面連接。雖然 VBS4 存在性能問題,PREPAR3D 也不是近距離空中支援的理想選擇,但 MACE 和 ASTi Voisus 表現良好,模擬環境取得了成功。對于物理分布式訓練,建議采用高級架構 (HLA) 或多架構聯盟。

本文采用七步分布式仿真工程與執行流程(DSEEP)來指導仿真環境的規劃、開發和執行(IEEE 計算機協會,2010a)。本論文分為以下幾章。第二章--背景。本章討論了火力支援協調訓練所涉及的當前作戰和訓練組織、系統和角色。本章概述了海軍陸戰隊當前的記錄訓練系統計劃以及為實現互操作性所做的努力。最后,本章在概述 DSEEP 之前討論了分布式模擬互操作性標準框架。第三章-方法。本章旨在記錄 DSEEP 第 1-3 步的仿真環境規劃。第 1 步--確定仿真環境目標,包括論文的初步規劃、資源和期望。第 2 步-進行概念分析,涉及情景設計和所需模擬環境的更細化。第 3 步-設計仿真環境涉及仿真系統和集成仿真環境的詳細規劃。第四章--實施。本章包括 DSEEP 第 4-5 步中仿真環境的開發、集成和測試。第 4 步--開發仿真環境包括在每個仿真系統中實施場景,并確認網絡和基礎設施支持仿真環境要求。步驟 5-集成和測試仿真環境包括對每個仿真系統進行系統集成和測試,以確認所需的功能。隨著問題的發現以及解決方案的開發和實施,本章涉及對模擬環境的多次更改。第五章--結果。本章記錄了在 DSEEP 第 6-7 步指導下對模擬環境的執行和分析。步驟 6-執行模擬包括在模擬環境中全面演示培訓場景的執行。第 7 步--分析數據和評估結果包括研究小組對成員應用的適用性、模擬環境的互操作性以及模擬環境在實現既定培訓目標方面的整體有效性進行評估。第六章-結論。本章總結了研究結果,并提出了將該模擬環境應用于培訓的建議和未來研究工作的建議。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

在現代戰斗中引入機器人與自主系統(RAS)似乎是不可避免的,其優勢顯而易見,如降低風險和擴展人員。本研究選擇了異構無人飛行器(UAVs)的持久偵察作為研究范圍,這也是比較突出的應用之一。盡管在開發先進硬件和算法方面做出了不懈努力,但在現實世界中仍缺乏實際應用。根本原因似乎是最先進的算法不足以應對軍事環境中的高動態性和不確定性。

目前,軍方使用基于意圖的指揮與控制(C2)來應對這些挑戰,因為它們與作戰有著內在的聯系。因此,將 C2 的通信原理轉換為適用于 RAS 的數學方法似乎大有可為,而基于意圖的協調就是這種轉換的結果。為了能夠應對高動態性和不確定性,提出了三項要求。首先,需要有靈活性,以便就地修改解決方案。其次,需要對不可靠的通信具有魯棒性;第三,需要可擴展性,以確保在更大的感興趣區(AOI)和更大的無人機團隊中也能保持性能。

單智能體偵察問題(SARP)和多智能體偵察問題(MARP)是訪問頻率和覆蓋水平方法的緊湊組合,用于持久偵察。根據多機器人系統(MRS)團隊合作和組織方面取得的進展,提出了一種協調方法。這種協調方法將 MARP 的 AOI 劃分為更小的不相交子集,這樣每個無人機就可以獨立解決不同的 SARP。這項研究的主要貢獻在于,這種協調方法基于意圖發揮作用,實現了所需的靈活性、魯棒性和可擴展性。為此,它構建了一個監督員層次結構,在重疊子集上執行分布式合作。該分布式問題使用新穎的復雜并發約束(CCB)來解決,CCB 是并發前向約束(ConcFB)的調整版本,適用于具有復雜局部問題的分布式約束優化問題(DCOP)。此外,在分支與價格的定價步驟基礎上,通過將列生成應用于重新制定的 MARP 版本,生成了一個下限來對所獲得的解決方案進行基準測試。

基于意圖的協調在面對 AOI 的擾動時表現出了靈活性。特別是當變化比較分散時,無需立即修改整個解決方案。此外,如果由于通信失敗而先發制人地終止合作,則可觀察到針對由此產生的次優子集的魯棒性。特別是對于層次結構中的較高層次,次優解決方案可以由較低層次的解決方案進行部分修正。最后,對于越來越大的問題實例,該方法的計算時間呈亞線性增長。因此,基于意圖的協調提供了一種令人興奮的方法,即使在更具挑戰性的環境中也能保持 RAS 的性能。

圖 1.1: 將多智能體偵察問題(MARP)的 “感興趣區域”(AOI)分割成更小的、互不關聯的單智能體偵察問題(SARP)的示例

從根本上說,假定持久偵察可以通過求解多智能體偵察問題(MARP)來實現最優化,但考慮到軍事環境的挑戰,這并非易事。盡管如此,為了獲得良好的解決方案,本論文嘗試將基于意圖的 C2 原則轉換為一種數學方法,命名為基于意圖的協調。這種協調方法旨在將 MARP 分割成更小的單智能體偵察問題(SARP),并分別求解。圖 1.1 顯示了無人機在不相交的 AOI 子集中聯合優化路徑和單獨優化路徑之間的差異。

圖 1.2:求解方法的總體描述。不是求解 MARP 達到最優,而是將 AOI 劃分為更小的子集,以便單獨求解更小的 SARP。使用基準方法對結果進行比較。

圖 1.2 顯示了總體結構。在給出 AOI 的情況下,基于意圖的協調為多個 SARP 創建子集。合并后的結果應類似于 MARP 的最優解,這可以使用特定的基準方法進行評估。因此,本論文的主要貢獻可以列舉如下:

  • 強調在現實作戰環境中使用傳統求解方法執行各類偵察任務的基本問題(第 2 章)。

  • 將 SARP 和 MARP 表述為緊湊模型,結合頻率和覆蓋水平方法用于持續偵察(第 3 章)。

  • 為了生成嚴格的下限,使用列生成法對 MARP 進行了松弛的重構求解,其中包括頻繁求解初等最短路徑問題(ESPP)。由于 MARP 的結構,必須包括循環距離,以及其他一些針對具體問題的調整,以改進前向標注[3](第 4 章)。

  • 通過描述基于意圖協調的分布式分層框架,解釋基于意圖的 C2 的轉換(第 5-2 節)。

  • 實施模糊 C-Means(FCM)[4],并增加后處理插值方法,對相關扇區特征進行權衡聚類,以降低問題的復雜性并適應傳感器的異質性(第 5-3 節)。

  • 制定一個任務分配問題,在智能體之間細分聚類,作為自上而下的啟發式來創建子集。任務分配包括任務效用度量和新穎的二次任務依賴性約束,以適應有限的能力(第 5-4 節)。該方案被擴展為適用于分布式分層框架的合作方案(第 5-5-2 節)。

  • 為了解決分布式合作公式,對并發前向邊界(ConcFB)[5] 算法進行了調整,以適應復雜的局部問題,從而形成復雜并發邊界(CCB)(第 5-5-5 節)。

  • 全面分析,包括參數和組件性能,以及針對軍事環境的具體定量評估。(第 6 章)。

付費5元查看完整內容

隨著戰場上機器人的出現,海軍陸戰隊必須在海軍陸戰隊空地特遣部隊(MAGTF)行動中將現有的無人資產與有人系統進行戰術整合。與此同時,海軍陸戰隊還必須放眼未來,找出未來無人系統可能彌補的能力差距。要做到這兩點,需要進行廣泛的實地測試,而這往往是不可行的,而且總是成本高昂。這項工作建議使用虛擬環境 (VE)、虛擬現實 (VR) 和基于智能體的建模來對作戰行動中的有人-無人協同作戰 (MUM-T) 進行基于場景的評估。

為了實現這些目標,該項目研究了各種相關的戰術場景,在這些場景中,海軍陸戰隊員和機器人協同行動,以實現特定的任務目標。利用確定性作戰模擬對這些戰術場景進行進一步評估,從而在每個特定場景的問題空間內創建和評估行為的有效方法。由于特定的 MUM-T 戰術、技術和程序(TTPs)會隨著傳感器、通信和車輛能力的不斷提高而不斷演變,因此支持完整的戰斗模擬被認為是 VE 設計探索的必要組成部分。通過建立 MOVES 實時虛擬建構(LVC)實驗室來支持這種多樣性,以便使用各種模擬工具。此外,還考慮了兩種協調有人-無人機團隊(MUM-T)行為的一般方法,每種方法都從預期行為的高層次描述開始。目標任務的完成表明人機聯合團隊達到了預期的世界狀態。

這項研究調查了大量作戰模型和可視化工具,為海軍陸戰隊決策者創造了最佳和最廣泛的環境,以了解 MUM-T 戰斗空間的復雜性和作戰價值。更廣泛地說,共享 VE 有可能在部隊發展過程中用于規劃將人機團隊整合到海軍作戰部隊中。由于國防部普遍不熟悉此類行動,但又熱切期待其發展,因此很明顯,使用實時、虛擬、建設性(LVC)模擬來對這些能力進行兵棋推演對所有進展都至關重要。歸根結底,這種人機協同開發是擴大海軍/海軍陸戰隊能力和避免海軍/海軍陸戰隊弱點的關鍵途徑。

圖 1. SPIDERS3D 是一種協作式分布持久虛擬環境 (VE),它利用 X3D 圖形模型和基于 DIS 的網絡流功能,從不同的 LVC 信號源傳輸數據。

付費5元查看完整內容

本文介紹了一種新的 L-V-C 模擬框架,用于開發空戰戰術、技術和程序(TTP),從而推進了實戰(L)、虛擬(V)和建構(C)模擬方法。在該框架中,戰術、技術和程序(TTP)是在獨立的 C、V 和 L 模擬階段反復開發的。這樣既能利用每類模擬的優勢,又能避免純 LVC 模擬的挑戰。C 階段在不考慮人機交互(HMI)的情況下,根據飛機的存活概率(Ps)和擊落概率(Pk)提供最佳 TTP。在 V 階段,通過評估 Pk 和 Ps 的適用性,以及有關飛行員態勢感知、心理工作量和 TTP 堅持性的人機交互措施,對最佳 TTP 進行修改。在 L 階段,使用真實飛機來評估所開發的 TTP 是否能在真實環境中實現可接受的 Pk、Ps 和 HMI 測量。該框架的迭代性質使 V 階段或 L 階段能夠揭示 TTP 的缺陷,并將不完善的 TTP 返回 C 階段或 V 階段進行修訂。本文是兩部分研究的第一部分。第二部分展示了該框架在作戰使用的 C- 和 Vs 模擬器以及真實的 F/A-18C 飛機和飛行員中的應用。

關鍵詞:空戰、人為因素、人機交互、實時-虛擬-建構、心理工作量、性能、模擬、態勢感知、測試與評估

本文是兩部分研究的第一部分。在第 1 部分中,介紹了用于 TTP T&E 的實時-建設性-虛擬(L-V-C)模擬評估框架。在第 2部分中,使用實際使用的 C 和 V 模擬器以及真實的 F/A18C 飛機和合格的戰斗機飛行員演示了該 L-V-C 框架的使用。與 LVC 模擬不同,L-V-C 框架并不試圖混合不同的模擬類別,因此避免了 LVC 模擬所面臨的挑戰。建議的框架由獨立的 C、V 和 L 階段組成,在這些階段中,TTP 在給定的空戰場景中反復發展。在 C 階段,不考慮 TTP 的定性規則,但使用 C 仿真來確定 TTP 定量規則的 MP 最佳值。在 V 階段,采用這些最優定量規則,并改進定性規則的口頭描述,直到使用 Pk 和 Ps 衡量的 HMP 輸出足夠,且 NP、SA 和 MWL 分數可接受為止。這樣,在模擬環境中就得到了由定量規則的 MP 最佳值和定性規則的 HMP 最佳描述組成的 HMP 最佳規則。最后,使用這些 HMP 最佳規則對 TTP 進行 L 階段的 L 模擬評估。如果 HMP 最佳規則在現實生活中的使用能產生適當的 HMP 輸出,且 NP、SA 和 MWL 分數可以接受,則 HMP 最佳規則可用于實際操作。換句話說,根據 Pk 和 Ps 得出的運行 HMP 最佳規則可確保實現飛行的主要目標,同時在實際環境中 NP、SA 和 MWL 仍可接受。這樣,即使最終使用任務的要求和復雜程度超過了 TTP T&E 期間的要求和復雜程度,也能在人類能力和限制方面保持理想的安全系數。

L-V-C 模擬框架的一大優勢在于其迭代性。也就是說,如果需要修改定性規則,可以在 L 階段或 V 階段之后重復 V 階段。或者,如果需要修改定量規則,TTP 可以從 V- 或 L 階段返回 C 階段。在 L 階段和 V 階段,HMP 輸出,特別是 SA、NP 和 MWL 分數,為檢測 TTP 可能存在的缺陷和確定如何改進 TTP 提供了強有力的工具。此外,如果需要,TTP T&E 需要反復進行 C 仿真,V 階段和 L 階段的這些分數還可用于生成修改后的優化標準和 C 階段應用的約束條件。最終的 TTP 在 MWL、NP、SA 和最終的 HMP 輸出之間實現了很好的平衡,這反映了飛行的主要目標。

圖 2 顯示了由 C、V 和 L 三個階段組成的 L-V-C 模擬框架。在使用該框架之前,必須根據 TTP T&E 的總體目標,定義初始 TTP 及其使用場景。情景描述了所涉及的友機和敵機及其主要目標。TTP 是一種描述友機如何在特定場景中以最佳方式實現其目標的方法。TTP 通常以相對于敵方飛機的時間表的形式向飛行員簡要介紹。場景中使用的飛機和系統均以 C- 和 V- 模擬建模。這些模型必然是對現實的不完全抽象。不過,這并不會對 L-V-C 框架構成重大挑戰,因為 TTP T&E 的 L 階段是使用真實飛機和系統進行的。初始 TTP 的定量規則值和定性規則描述均基于現有的最佳假設和實踐。L-V-C 模擬框架用于確定部分或全部規則的作戰 HMP 最佳值或描述。它可用于確定整個飛行、一個要素或單個飛行員的運行 HMP 最佳規則。

付費5元查看完整內容

在不久的將來,網絡化無人自主系統將越來越多地用于支持地面部隊的行動。協同控制方法可以找到接近最優的位置建議,通過優化傳感和通信等系統參數來提高任務效率。然而,隨著時間的推移,這些建議可能會產生可預測的路徑,從而為部隊的作戰意圖提供領先的指示。本文利用時間序列預測方法和深度神經網絡,對無人移動網絡控制系統進行了對抗性評估。在第一種情況下,模型預測的團隊地面運動路徑遵循最初計劃但未執行的路徑。在第二種情況下,模型的最大路徑誤差率僅為 75 米。在這兩種情況下,該方法都能正確識別隊伍行進的方向和距離,甚至能識別隊伍改變方向的點,從而使自動紅隊分析能夠辨別地面部隊的意圖。這些結果表明,在規劃和執行支持遠征地面部隊的無人移動網絡控制系統時,自動紅隊分析是一個具有潛在價值的組成部分。它能對無人智能體的路徑提供近乎實時的反饋,以確定航線調整是否能降低作戰意圖的可預測性。

付費5元查看完整內容

美軍在戰術層面的組織、能力和授權方面存在差距,無法在信息環境(OIE)中開展行動。本論文通過分析和應用從空地一體化中汲取的經驗教訓,確定了潛在的解決方案:空地一體化是戰爭的一個層面,曾是可與現代信息、網絡和太空相媲美的新概念。空地一體化從第一次世界大戰中的戰略偵察發展到現代攻擊直升機、手動發射的殺手級無人機和戰術聯合終端攻擊控制員(JTACs)。如今,聯合終端攻擊控制員為地面指揮官提供了一名處于戰術邊緣的空地一體化專家,該專家裝備有致命和非致命能力,其權限因地點和行動類型而異。JTAC 的資格得到了整個聯合部隊和北約的認可,并最大限度地減少了地面單元所需的飛行員數量。本論文認為,建立一個與 JTAC 相當的信息、網絡和空間管制員可使聯合部隊更有效地開展戰術 OIE。這種多域終端效應控制員(MDTEC)將獲得聯合認證、資格和指定,就信息環境向地面指揮官提供建議,使用戰術信息工具,并利用聯合信息、網絡和空間資產創造效應。

本文認為,仿照聯合終端攻擊控制員(JTAC)建立 "多域終端效果控制員(MDTEC)"模型,將使戰術部隊能夠更有效地實施 OIE。MDTEC 將作為戰場戰術邊緣的 OIE 使用專家,為地面指揮官提供建議,規劃信息效果,操作信息能力,并向作戰和國家級 OIE 部隊請求效果。模擬 JTAC 計劃的認證、資格和指定方面,將創建整個聯合部隊和北大西洋公約組織 (NATO) 標準化的 MDTEC,使 MDTEC 和 OIE 部隊之間具有一定程度的信任和互操作性。

MDTEC 的能力和權限也可參照 JTAC 的模式。為 MDTEC 配備自主信息能力將使地面部隊能夠識別信息目標,傳遞準確的位置信息,并實施有限的 OIE 效果。MDTEC 應能隨時操作這些設備,而無需上級指揮部的批準。將任何進一步 OIE 行動的授權保留在較高級別,可為協調和目標審查留出更多時間,而將授權推向較低級別則可加快行動節奏。不過,MDTEC 將接受培訓并配備裝備,以識別敵方目標,并在獲得適當級別指揮官批準后開展 OIE 行動。

付費5元查看完整內容

本專著既展示了反介入區域拒止(A2AD)問題,也是一個獨特的歷史性解決方案實例。作為分析的一部分,本文提出了一個假設,即美國陸軍地面部隊可能會在沒有空域保護和支持的對抗性環境中作戰,而自第二次世界大戰以來,空域一直是地面機動的主要要求。因此,這本專著探討了陸軍在需要在沒有空中優勢的情況下作戰時可能面臨的問題,以及重新獲得空中優勢的條件。本專著的核心論點是,美國陸軍多域作戰(MDO)中大規模作戰行動(LSCO)的成功,在未來可能會有通過最大限度地利用其他域手段,嘗試通過地面機動消滅敵方防空系統的要求。本研究分析并比較了兩個歷史案例:贖罪日戰爭和二戰時期德國的莫爾坦攻勢。這些案例研究提供了作戰指揮官如何在沒有空中優勢的情況下嘗試使用地面部隊的背景。它們是現代戰爭中面對無法通過空中支援地面機動時成功和失敗的范例。在這兩種情況下,縱深機動、火力和空中優勢的標準提供了一種手段,用于分析和解釋戰區指揮官如何在缺乏現代戰爭所必需的空中支援的條件下成功或失敗地尋求聯合兵種機動。

作為一個負責執行大規模作戰行動(LSCO)的軍事組織,美國陸軍的競爭對手是不斷發展以與美國軍事實力相匹敵的同行對手。這些對手開發的技術能力可以阻止多領域行動的融合。為了在未來的沖突中與這些對手競爭、滲透和瓦解,美國陸軍要不斷發展,適應戰場上的挑戰。俄羅斯是一個嚴重的同級威脅,可以挑戰美軍在大規模作戰行動中的主導地位。自 "沙漠風暴 "行動以來,俄羅斯一直密切關注著美國的戰爭方式。正如馬克-A-米利將軍所說,俄羅斯領導人知道,"我們擅長的戰爭方式強調聯合和聯合作戰;技術優勢;全球力量投送;戰略、作戰和戰術機動"。"因此,善于觀察的俄羅斯學會了利用作戰環境,開發能夠造成作戰對峙和阻止常規部隊有效使用的武器。

目前,俄羅斯對歐洲國家的侵略行為--她試圖恢復蘇聯時期的突出地位--增加了歐洲未來發生武裝沖突的可能性。由于俄羅斯研究了美軍的部署和作戰方式,美軍將不得不尋找適應性的方法來實現戰場上的領域融合。修正主義的俄羅斯實現了能力的現代化和發展,以對抗美軍執行空地一體化運動、機動和火力的能力。俄羅斯先進的遠程防空系統將使美國喪失空中優勢。其便攜式系統和先進的無人空中和地面系統的擴散對美軍編隊和關鍵節點構成重大威脅。美軍陸軍可能在沒有空域保護和支持的情況下在有爭議的環境中作戰,這是本文及其分析的一個關鍵假設。

根據聯合出版物(JP)3-01《反擊空中和導彈威脅》,"反擊空中和導彈威脅 "的最佳方法是 "在發射前利用進攻行動摧毀或瓦解空中和導彈威脅"。然而,面對像俄羅斯這樣的同行威脅,執行這樣的任務并非易事。俄羅斯目前擁有一套綜合防空系統(IADS),由遠程、中程和短程地對空導彈組成的分層結構,可在不同高度擊落作戰飛機。S-400 "凱旋 "地對空導彈系統(SAMS)是俄羅斯高度復雜的防空保護傘的基石。

俄羅斯 S-400 是一種高度機動的系統,能夠在四百公里范圍內攔截敵機。該系統不僅覆蓋了加里寧格勒州的波羅的海國家,還覆蓋了波蘭的廣大地區。這意味著在蘇瓦維缺口和波羅的海沿岸國家附近行動的俄羅斯地面部隊將受到機動靈活的 IADS 的保護。膽敢侵入俄羅斯領空的敵軍戰機將在俄羅斯西部邊境遭遇由 S-400 炮兵連和營組成的致命空中雷區。到 2020 年底,俄羅斯將增加 56 個 S-400 營,這只會提高俄羅斯 IADS 的殺傷力和能力。

俄羅斯最近舉行的 "東方 2018 "軍事演習展示了由 S-400、中程 "布克"、短程 "托爾 "和 "潘齊爾-S1 "系統組成的分層防空系統如何遏制大規模空襲。演習展示了訓練有素的機組人員如何最大限度地發揮 S-400 的能力,對試圖侵入俄羅斯領空的北約飛機造成重大損失。S-400 的射程使其能夠瞄準空中加油機和機載預警與控制飛機等敵方輔助飛機。此外,該系統靈活的瞄準能力可防范不同的威脅和攻擊,其反隱身能力可探測并擊落 F-35 等具有隱身能力的戰斗機。

據專家稱,擊敗俄羅斯先進防空系統的方法包括電子戰、空對地反輻射導彈、戰斧巡航導彈和隱形技術等壓制戰術。然而,這些方法的問題在于成本、可靠性和目標定位。俄羅斯龐大的 SAMS 機群使得壓制任務十分艱巨,而且無法保證成功。壓制俄羅斯的 IADS 需要大量使用反 SAMS 導彈和飛機,而且極有可能造成重大損失。此外,由于 S-400 的發射和機動速度快,因此很難定位和瞄準。同時,針對 S-400 地面雷達系統的隱形技術尚未得到驗證。盡管 B-2 轟炸機、F-22 和 F-35 等飛機的雷達信號很低,但它們也并非無法抵擋不斷發展的雷達技術和攻擊機。F-22 和 F-35 戰斗機的斜角外形和設計使這些飛機很容易受到發展中雷達系統的攻擊。

以色列人慘痛地發現,面對層層疊疊、精密復雜的地面防空系統困難重重。中央情報局關于 1973 年阿以戰爭的解密文件顯示了蘇聯 SAMS 對以色列空軍(IAF)的巨大威力。特別是埃及的 SAMS 網絡,在干擾以色列打擊任務和保護埃及地面部隊方面取得了巨大成功。埃及人在保護罩內行動,直到以色列設計出一種獨特的方法來擊潰他們的防空保護傘。

贖罪日戰爭中埃及的情況代表了與俄羅斯沖突中可能出現的結果。與埃及人一樣,俄羅斯軍隊也將在其防空保護傘下行動,在這種情況下,針對俄羅斯 IADS 的標準壓制戰術可能無法奏效,從而迫使作戰指揮官尋找其他替代方案。1973 年以色列解決這一問題的方法雖然不典型,但也是可以做到這一點的范例。以色列指揮官依靠地面部隊,將縱深滲透、地面炮火和空中優勢結合起來,擊潰了埃及的防空系統。

本文認為,多域作戰(MDO)中 LSCO 的成功可能取決于地面機動部隊能否消滅敵方的防空系統。由地面機動部隊實施并支持地面機動部隊的縱深機動、火力和空中優勢是本文研究作戰指揮官如何利用地面部隊刺破防空泡沫并重建制空權的評估標準。按照我們今天的理解,地面聯合作戰由空地一體化機動組成,因此 IADS 的先進性可能會抵消成功的地面聯合作戰所需的空中支援。在當今的作戰環境中,許多對手在陸基雷達和電子攔截能力方面也擁有類似的先進技術,以防止成功的 LSCO。解決這一問題的一個可能辦法是,戰區指揮官利用地面機動部隊深入敵方領土,解除敵方的空中防御,重新奪回空中優勢,并重建空地會合。

贖罪日戰爭和二戰中的莫爾坦攻勢是對比案例研究,為作戰指揮官如何在沒有相應空中優勢的情況下嘗試使用地面部隊提供了背景資料。這些對比鮮明的案例是現代戰爭中面對無法通過空中支援地面機動時成功與失敗的范例。在這兩個案例中,縱深機動、火力和空中優勢的標準為分析和解釋戰區指揮官如何成功或失敗地用地面機動部隊摧毀防空系統提供了一種手段。兩個案例都說明了縱深機動、火力和空中優勢對防空系統復雜性的重要作用。此外,案例比較還展示了在有爭議和不允許空中行動的環境下,運用縱深機動和火力重新獲得空地一體機動優勢所面臨的差異和挑戰。

美國陸軍將縱深機動描述為軍事行動在時間、空間和目的上的延伸,以便在高度競爭的環境中獲得對敵優勢。縱深機動部隊采用移動和火力相結合的方式,獲取優勢地位,以擊敗敵方部隊。因此,縱深機動在作戰中發揮著至關重要的作用。同樣,火力通過間接火力武器系統對目標產生致命和非致命影響,幫助機動單元奪取、保持和利用主動權。這樣,火力就能完成瞄準、投送和整合各種形式的炮火打擊對方部隊的關鍵任務。同樣,空中優勢通過 "一支部隊對空中的控制,使其在特定時間和地點開展行動時不受空中和導彈威脅的干擾",從而實現地面作戰行動。

在贖罪日戰爭中,埃及整合了反坦克武器和蘇聯先進的防空系統,使以色列國防軍(IDF)無法應用其裝甲機動和近距離空中支援的概念。以色列國防軍指揮官利用地面機動部隊恢復空地會合,擊敗埃及防空部隊,從而解決了這一作戰難題。以色列作戰指揮官使用了縱深機動和火力,通過摧毀埃及的地面防空系統來實現空中優勢。

在莫爾坦反擊戰中,德軍的表現與以色列人在贖罪日戰爭中的表現形成了鮮明的對比。D-Day 之后,德軍第七陸軍在法國小鎮莫爾坦附近發動了一次名為 "盧蒂奇行動 "的反擊,目的是在沒有適當的空中掩護和火力的情況下切斷美軍從諾曼底橋頭堡的滲透和突圍。德軍無法整合空地機動,降低了陸軍的戰績,阻礙了作戰的成功。由于盟軍在諾曼底上空擁有壓倒性的空中優勢,德軍無法對美軍防御發起成功的縱深機動,其火力也缺乏有效性。德軍地面機動部隊在進攻過程中沒有空中組成部分,也沒有能力攔截英國的空軍基地,因未能取得聯合武器優勢而遭受了災難性的失敗。

本研究參考了包括美國軍事條令和第一手資料在內的原始資料,這些資料為本項目分析歷史案例研究提供了一個視角。在贖罪日戰爭案例研究中,以色列和埃及方面參戰人員的自傳提供了大部分原始資料。這里值得關注的是 Saad El Shazly 將軍的《跨越蘇伊士運河》和 Avraham Adan 將軍的《蘇伊士運河畔:一位以色列將軍對贖罪日戰爭的親身經歷》。這兩本書提供了戰爭發生時的第一手資料。其他主要資料來源有美軍條令出版物和野戰手冊,如《野戰手冊》(FM)3-0《作戰》和《陸軍條令參考出版物》(ADRP)3-09《火力》。在二手資料方面,學術書籍和研究專著也提供了有關該主題的詳細信息。

薩阿德-沙茲利(Saad El Shazly)將軍的自傳體作品《跨越蘇伊士運河》代表了埃及對 1973 年以色列戰爭的看法。沙茲利的作品展示了埃及軍方如何將軍事手段與政治目的相結合。作為戰爭的戰略家和主要策劃者,沙茲利對埃及戰爭計劃的不同階段提出了寶貴的見解,并詳細介紹了埃及軍方如何建立綜合防空系統以遏制以色列的空中優勢。他從資源有限的埃及軍方角度描述了這場沖突,并詳細介紹了為克服這些挑戰所采取的措施。盡管沙茲利的軍事回憶錄并非對沖突的公正描述,但其價值在于對埃及作戰計劃的坦誠評估。

另一方面,阿夫拉罕-阿丹的戰爭回憶錄《蘇伊士運河畔》代表了以色列人對 1973 年戰爭的看法和描述。阿丹將軍講述了他作為師長的經歷,是對阿以最新戰爭史學的重要貢獻。本研究感興趣的是阿丹對關鍵事件的描述,尤其是在德韋爾蘇伊士攻勢中,以色列地面部隊采用了獨特的縱深機動、火力和空中支援組合,擊敗了埃及先進的防空系統,重新奪回了西奈天空的制空權。

亞伯拉罕-拉賓諾維奇(Abraham Rabinovich)的《贖罪日戰爭》等二手資料對贖罪日戰爭案例研究至關重要,因為它們通過證實關鍵事實和事件,補充了一手資料。拉比諾維奇的著作從以色列、埃及和敘利亞的角度對戰爭進行了平衡的敘述。書中的 "實地 "細節為本文的分析提供了依據。拉比諾維奇對戰爭的研究依賴于對退伍軍人的 130 多次采訪,以及他在沖突期間作為記者的工作。

對于莫爾坦攻勢的案例研究,現有原始歷史手稿的深度和廣度都很有限。不過,《第二次世界大戰中的美國陸軍,歐洲戰區》(The U.S. Army in World War II, The Europe Theater of Operations: 突圍與追擊》提供了大量信息。艾克-斯凱爾頓聯合武器研究圖書館(Ike Skelton Combined Arms Research Library)的檔案也對這次行動進行了詳細描述。德懷特-艾森豪威爾(Dwight D. Eisenhower)的《最高指揮官就盟軍遠征軍 1944 年 6 月 6 日至 1945 年 5 月 8 日在歐洲的行動向參謀長聯席會議提交的報告》和美國第 30 步兵師的《行動后報告》尤其值得關注。在二手資料方面,《拯救突圍: 25F 26 在二手資料方面,《拯救突圍:1944 年 8 月 7 日至 12 日第 30 師在莫爾坦的英勇戰斗》和《莫爾坦的勝利》是本研究中使用的其他學術著作。

馬克-里爾登(Mark Reardon)的《莫爾坦的勝利》(Victory at Mortain)一書為莫爾坦攻勢案例研究分析提供了參考,因為該書記錄了德國在 D-Day 入侵后試圖決定性地影響西歐戰爭進程的嘗試。通過研究多個裝甲師攻擊防守法國小鎮莫爾坦的一個美軍師的原因,Reardon 對戰術層面的戰斗、作戰演習和高級戰地指揮官的決策之間的關系提供了至關重要的見解。與此同時,阿爾溫-費瑟斯頓(Alwyn Featherston)的著作《拯救突圍》(Saving the Breakout)試圖將莫爾坦戰役從被遺忘的歷史中重新喚醒。在研究中,費瑟斯頓指出了缺乏空中支援和無法攔截英國空軍基地是如何阻礙德國地面機動部隊取得對美軍的聯合優勢的。

本研究的以下部分包括兩個案例研究--贖罪日戰爭和德國莫爾坦攻勢--以及一個結論,以證明 LSCO 的成功可能取決于地面機動部隊摧毀對方部隊的防空系統。第二節和第三節對這兩個歷史案例進行了比較和對比,以說明反介入區域拒止(A2AD)問題和獨特的解決方案。第二節通過強調以色列指揮官利用地面部隊的縱深機動和地面火力支援重新奪回制空權并擊敗埃及 SAMS 保護傘的獨特性,探討了以色列在面對埃及多層次、復雜的防空系統時取得成功的獨特性。

相反,第三節說明了面對在防空系統下作戰的敵軍的困難。它將德國的莫爾坦攻勢視為當今作戰指揮官在面對俄羅斯這樣的同級威脅時可能面臨的結果。該部分強調了德軍在沒有足夠空中支援的情況下,面對在其防空系統下作戰的盟軍所面臨的挑戰。最后,結論部分對兩個案例研究進行了總結,并強化了本項目的中心論點。

付費5元查看完整內容

通過與被稱為計算機生成兵力(CGF)的虛擬對手進行訓練,受訓戰斗機飛行員可以積累空戰行動所需的經驗,而其成本僅為使用真實飛機訓練的一小部分。但實際上,計算機生成兵力的種類并不豐富。這主要是由于缺乏 CGF 的行為模型。在本論文中,我們研究了空戰訓練模擬中 CGF 的行為模型在多大程度上可以通過使用機器學習自動生成。空戰領域非常復雜,在該領域內運行的機器學習方法必須適合該領域帶來的挑戰。我們的研究表明,動態腳本算法極大地促進了空戰行為模型的自動生成,同時又具有足夠的靈活性,可以根據挑戰的需要進行調整。然而,確保新生成行為模型的有效性仍是未來研究的一個關注點。

生成空戰行為模型

人工智能(ai)領域可以為行為建模過程提供一種替代方法,并通過糾正上一節中提到的兩種后果來提高模擬訓練的效果。這種替代方法是通過機器學習生成行為模型。機器學習程序在各種任務中的表現都優于人類,例如信用卡欺詐檢測、云計算資源分配,以及玩撲克和圍棋等游戲。對于此類任務,機器學習程序能夠通過以下三種特性的結合產生創造性的解決方案:(1)計算速度;(2)精確的約束滿足能力;(3)巧妙的學習算法。利用這三個特性并將其應用于行為模型的開發,我們就能獲得以下能力:(1) 以更快的速度開發行為模型;(2) 開發出比目前更多變化的行為模型。因此,使用機器學習程序開發行為模型有可能消除當前行為建模過程對訓練效果造成的兩種影響。

不過,在將機器學習應用于空戰模擬之前,我們必須先考慮空戰領域。空戰領域十分復雜,在這一領域內運行的機器學習方法必須適合該領域帶來的挑戰。五項挑戰:(a) 形成團隊合作,(b) 對 cgf 行為進行計算評估,(c) 有效重用已獲得的知識,(d) 驗證生成的行為模型,以及 (e) 生成可訪問的行為模型。這五大挑戰并非空戰領域所獨有。但是,這些挑戰需要適合該領域的解決方案。

研究問題

研究問題 1:能在多大程度上生成能產生團隊協調的空戰行為模型?

動態腳本使用獎勵函數來評估使用生成的行為模型的空戰 cgf 所顯示的行為。獎勵函數產生的獎勵用于調整新生成的行為模型,以尋找最佳模型。如前所述(見挑戰 b),空戰行為評估存在兩個問題。在文獻中,這兩個問題分別被稱為獎勵稀疏和獎勵不穩定(見第 4 章)。不過,文獻中提出的空戰行為獎勵函數并不總是考慮到這兩個問題。然而,這樣做可能會產生更理想的行為模型。這就引出了第二個研究問題。

研究問題 2:能在多大程度上改進空戰 cgf 的獎勵功能?

動態腳本將 cgf 在整個學習過程中積累的知識以權重值的形式存儲在規則庫中的規則上。每條規則的權重值表示該規則相對于規則庫中其他規則的重要性。就重復使用而言,在一個空戰場景中構建的知識也有可能在另一個空戰場景中得到有效應用。我們將知識重用置于遷移學習的背景下,即讓一個 cgf 在一個場景中學習,然后將其知識遷移到一個新的、未見過的場景中。這就引出了第三個研究問題。

研究問題 3:使用動態腳本構建的知識在多大程度上可以在不同場景下的 cgf 之間成功轉移?

我們的目標是將生成的行為模型用于模擬訓練。驗證模型是實現有效使用模型的重要一步。行為建模過程中的第 4 步說明了驗證的重要性。然而,由于行為模型驗證沒有放之四海而皆準的解決方案,我們首先必須確定驗證的正確方法。這就引出了第四個研究問題。

研究問題 4:我們應該如何驗證機器生成的空戰行為模型以用于模擬訓練?研究問題 4 的答案就是驗證程序。通過該程序,我們可以確定我們在研究中生成的行為模型的有效性。所選擇的研究方法引出了第五個研究問題。

研究問題 5:通過動態腳本生成的空戰行為模型在多大程度上可用于模擬訓練?

回答了這五個研究問題,我們就能回答問題陳述。

在第 1 章中,我們介紹了問題陳述和五個研究問題。此外,還介紹了解決研究問題的研究方法。

在第 2 章中,我們提供了有關四個主題的文獻背景信息(另見第 1.1 節): (1) 行為建模過程的詳細步驟;(2) 在模擬訓練中使用機器學習的潛在好處和缺點;(3) 過去使用機器學習生成空戰行為模型的方法;(4) 動態腳本及其在空戰模擬中的適用性。

在第 3 章中,我們介紹了團隊協調的三種方法:(1) 默契;(2) 中心;(3) 體面。我們通過實驗研究團隊協調方法的益處,然后回答研究問題 1。

在第 4 章中,我們將深入研究動態腳本編寫過程的一個特定部分,即獎勵功能。我們將展示三種不同獎勵函數的使用如何影響我們的 cgfs 的行為,然后回答研究問題 2。

在第 5 章中,我們研究了 cgf 在某種空戰場景中積累的知識在多大程度上可以成功轉移到不同空戰場景中的 cgf 上,然后回答了研究問題 3。

在第 6 章中,我們設計了一個驗證程序,通過該程序可以驗證為空戰 cgf 生成的行為模型。此外,我們還介紹了 atacc,然后回答了研究問題 4。

在第 7 章中,我們將驗證程序應用于戰斗機 4 艦模擬器中新生成的行為模型,然后回答研究問題 5。

在第 8 章中,我們將對五個研究問題的答案進行總結,從而結束本論文。最后,基于這些答案,我們提出了問題陳述的答案。之后,我們將對未來的工作提出兩點建議。

付費5元查看完整內容

遙控飛機執行的軍事任務類型不斷擴展到包括空對空作戰在內的各個方面。雖然未來的視距內空對空作戰將由人工智能駕駛,但遙控飛機很可能將首先投入實戰。本研究旨在量化延遲對高速和低速交戰中一對一視距內空對空作戰成功率的影響。研究采用了重復測量實驗設計,以檢驗與指揮和控制延遲相關的各種假設。有空對空作戰經驗的參與者在使用虛擬現實模擬器進行的一對一模擬作戰中受到各種延遲輸入的影響,并對每次交戰的作戰成功率進行評分。這項研究是與美國空軍研究實驗室和美國空軍作戰中心合作進行的

因變量 "戰斗得分 "是通過模擬后分析得出的,并對每次交戰進行評分。自變量包括輸入控制延遲(時間)和交戰起始速度(高速和低速)。輸入延遲包括飛行員輸入和模擬器響應之間的六種不同延遲(0.0、0.25、0.50、0.75、1.0 和 1.25 秒)。每種延遲在高速和低速交戰中重復進行。采用雙向重復測量方差分析來確定不同處理方法對戰斗成功率的影響是否存在顯著的統計學差異,并確定延遲與戰斗速度之間是否存在交互作用。

結果表明,在不同的潛伏期水平和交戰速度下,戰斗成功率之間存在顯著的統計學差異。潛伏期和交戰速度之間存在明顯的交互效應,表明結果取決于這兩個變量。隨著潛伏期的增加,戰斗成功率出現了顯著下降,從無潛伏期時的 0.539 降至高速戰斗中 1.250 秒潛伏期時的 0.133。在低速戰斗中,戰斗成功率從無延遲時的 0.659 降至 1.250 秒延遲時的 0.189。最大的遞增下降發生在高速潛伏期 1.00 至 1.25 秒之間,低速潛伏期 0.75 至 1.00 之間。高速交戰期間戰斗成功率的總體下降幅度小于低速交戰期間。

這項研究的結果量化了視距內空對空作戰中戰斗成功率的下降,并得出結論:當遇到延遲時,希望采用高速(雙圈)交戰,以盡量減少延遲的不利影響。這項研究為飛機和通信設計人員提供了信息,使他們認識到延遲會降低預期作戰成功率。這種模擬配置可用于未來的研究,從而找到減少延遲影響的方法和戰術

付費5元查看完整內容

本論文利用強化學習(RL)來解決空戰機動模擬中的動態對抗博弈問題。空戰機動模擬是運籌學領域常見的一種順序決策問題,傳統上依賴于智能體編程方法,需要將大量領域知識手動編碼到模擬環境中。這些方法適用于確定現有戰術在不同模擬場景中的有效性。然而,為了最大限度地發揮新技術(如自動駕駛飛機)的優勢,需要發現新的戰術。作為解決連續決策問題的成熟技術,RL 有可能發現這些新戰術。

本論文探討了四種 RL 方法--表式、深度、離散到深度和多目標--作為在空戰機動模擬中發現新行為的機制。它實現并測試了每種方法的幾種方法,并從學習時間、基準和比較性能以及實現復雜性等方面對這些方法進行了比較。除了評估現有方法對空戰機動這一特定任務的實用性外,本論文還提出并研究了兩種新型方法,即離散到深度監督策略學習(D2D-SPL)和離散到深度監督 Q 值學習(D2D-SQL),這兩種方法可以更廣泛地應用。D2D-SPL 和 D2D-SQL 以更接近表格方法的成本提供了深度 RL 的通用性。

貢獻

本文有助于以下研究領域:

  • 設計獎勵信號以推動空戰機動領域的學習,以及確定最有效信號的相應評估。
  • 第 6 章中介紹的結合 RL 和監督學習的新方法,可加速深度 RL 并超越基準算法。考慮到 RL 的訓練是一項非常昂貴和資源密集型的操作,這些縮短學習時間的新方法是本論文最重要的貢獻。
  • 優于單目標智能體的多目標 RL 智能體,在第 7 章中介紹。這是一個非常重要的貢獻,因為它證明了多目標 RL 這一相對較新的發明可以在不增加學習時間的情況下超越單目標 RL 的性能。
  • 用于訓練和測試單目標和多目標 RL 智能體的開源框架。

付費5元查看完整內容

作為分布式海上作戰(DMO)的一個關鍵原則,盡管有人和無人、水面和空中、作戰人員和傳感器在物理時空上都有分布,但它們需要整合成為一支有凝聚力的網絡化兵力。本研究項目旨在了解如何為 DMO 實現有凝聚力的作戰人員-傳感器集成,并模擬和概述集成實施所需的系統能力和行為類型。作為一個多年期項目,本報告所述的第一項工作重點是建立一個適用于 DMO 建模、模擬和分析的計算環境,尤其側重于有人和無人飛機的情報、監視和偵察 (ISR) 任務。

在半個世紀的建模和仿真研究與實踐(例如,見 Forrester, 1961; Law & Kelton, 1991),特別是四分之一世紀的組織建模和仿真工作(例如,見 Carley & Prietula, 1994)的基礎上,獲得了代表當前技術水平的計算建模和仿真技術(即 VDT [虛擬設計團隊];見 Levitt 等人, 1999)。這種技術利用了人們熟知的組織微觀理論和通過基于代理的互動而產生的行為(例如,見 Jin & Levitt, 1996)。

通過這種技術開發的基于代理的組織模型在大約三十年的時間里也經過了數十次驗證,能夠忠實地反映對應的真實世界組織的結構、行為和績效(例如,參見 Levitt, 2004)。此外,幾年來,已將同樣的計算建模和仿真技術應用到軍事領域(例如,見 Nissen, 2007),以研究聯合特遣部隊、分布式作戰、計算機網絡行動和其他任務,這些任務反映了日益普遍的聯合和聯盟努力。

本報告中描述的研究項目旨在利用計算建模來了解如何為 DMO 實現有凝聚力的戰斗傳感器集成,并建模和概述集成實施所需的系統能力和行為類型。作為一個多年期項目,本報告所述的第一項工作重點是建立一個適用于 DMO 建模、模擬和分析的計算環境。在這第一項工作中,將對當今的海上行動進行建模、模擬和分析,重點是有人駕駛和無人駕駛飛機的情報、監視和偵察(ISR)任務。這為與執行 ISR 任務的一個或多個 DMO 組織進行比較確立了基線。這也為與其他任務(如打擊、防空、水面戰)進行比較建立了基線。第二階段接著對一個或多個備用 DMO 組織進行建模、模擬和分析。

在本技術報告的其余部分,首先概述了 POWer 計算實驗環境,并列舉了一個實例,以幫助界定 DMO 組織和現象的計算建模。依次總結了研究方法。最后,總結了沿著這些方向繼續開展研究的議程。這些成果將極大地提高理解和能力,使能夠為 DMO 實現戰斗員與傳感器的集成,并為集成實施所需的系統能力和行為建模和概述。

付費5元查看完整內容
北京阿比特科技有限公司