亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

“聯合規劃過程”是一份描述巴西武裝部隊使用準則的文件。軍隊也可以將這些準則用于教育目的,在和平時期培訓參謀人員。巴西國防部打算模擬軍事力量的運用,以加快決策周期,增加行動成功的機會。更好地規劃行動,更好地評估風險。作戰方案(COA)兵棋推演模擬了每個友軍的作戰方案與可能的敵軍作戰方案。然而,理論過程缺乏描述如何進行作戰方案推演的信息。因此,理論上的知識僅限于系統化的分析。COA兵棋推演一直是主觀的,并且依賴于隱性知識。這項工作的目的是提出一種實施COA兵棋推演的方法,以及構建COA兵棋推演的概念模型,以便能夠進一步使用計算機系統來支持其進行。兵棋推演的概念啟發了這個游戲的設計。兵棋推演被定義為合成環境中沖突的建模或模擬,涉及敵對勢力,玩家根據規則、程序和信息做出決策。將COA兵棋推演改進為一個教育性兵棋推演工具,可以模擬軍事計劃,支持玩家建立有效的戰略,支持教官分析玩家的決定和裁判交戰,并建立一個技術框架來收集決策數據,以便將來應用于知識管理和人工智能。

研究方法

設計科學(DS)的認識論范式是這項研究的基礎。DS專注于建立知識的過程,并產生與全球實踐和研究社區相關的結果(Johannesson & Perjons, 2014)。DS包括對設計一個新的人工或改進現有人工制品以解決一個問題或一類問題的項目的研究(Dresch等人,2015)。

設計科學研究(DSR)是我們用來計劃、執行和監督研究的策略。DS建議當目標是開發一個人工制品時,采用DSR來操作研究。基于問題的描述,DSR指導研究設計和評估工件,對一個給定的系統進行改變,并改造情況以實現改進(Dresch等人,2015)。DRS的步驟包括確定問題、定義需求和設計、開發、演示和評估人工制品。

數據收集為人工制品的設計提供了要求。由于單一方法不足以回答研究問題,我們采用了混合方法。文件(Johannesson & Perjons, 2014)是我們的第一個數據來源。我們搜索了其他國家和軍事組織的軍事理論中包含的明確知識。我們在這項工作中研究和引用的所有文件都是不保密的。我們使用的其他方法是觀察和訪談(Johannesson & Perjons, 2014)。我們還搜索了巴西軍官的隱性知識,以了解他們如何進行COA兵棋推演,特別是在教育活動中。

接下來,我們收集并分析了數據,以設計人工制品。我們應用基礎理論(Pandit, 1996)作為定性數據分析的方法。我們設計了一個進行COA兵棋推演的方法和一個概念模型,它描述了COA兵棋推演的結構。數據分析使我們能夠確定關于COA兵棋推演的概念、類別和主張(Pandit, 1996)。建議的人工制品提出了關于跨類別命題的假說。經過幾個周期的數據收集和分析,我們達到了每個工件的目標。在每個周期中,藝術品中提出的假設都由軍事計劃和戰爭游戲的專家進行評估。

以下各小節描述了我們在這項工作中所進行的活動,其中包括審查軍事文件,直接觀察總參謀部軍事學校的兩次訓練演習中的COA戰爭演習,以及采訪參加這些演習的軍官。

圖5:作戰方案兵棋推演概念框架

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

在這項研究中,提出了一種智能兵棋推演方法,以評估軍事行動方案在作戰成功和資產生存能力方面的有效性。擬議的應用是基于經典的軍事決策和規劃(MDMP)工作流程開發的,以便于在現實世界應用中實施。本研究的貢獻有三個方面:a)開發一個智能兵棋推演方法,以加速MDMP中的行動方案(COA)分析步驟,從而為軍事行動創造更多的候選COA;b)產生針對對面部隊的有效戰術,以提高作戰成功率;以及c)為未來的系統開發一個高效的、基于可視化兵棋推演的MDMP框架,這些系統需要一個小型操作團隊來監督一個自動智能體網絡。為了評估系統的能力,執行了幾個交戰場景示例,并給出了結果。此外,研究了自動智能體的兵力組成問題,并提出了具有超參數調整結構的兵力組成算法。

引言

隨著無人系統在復雜任務中的作用越來越突出,包括情報、監視和偵察行動,最近的應用傾向于轉向異構的無人系統組合之間的合作,以執行這些行動并獲得高任務成功率[1]。為了完成復雜的任務,異質智能體之間的合作帶來了對多域作戰能力的需求,其中人工智能(AI)輔助的兵棋推演策略發揮了重要作用[2]。特定的目標,如使用人工智能來發現戰術,這可能會通過現有的軍事能力提高作戰效益,或可能為新的軍事能力提出有效的使用概念。人工智能決策最近集中在開放型游戲,即所有玩家都能看到所有的游戲狀態,或封閉游戲,即存在有限的兵棋靈活性。然而,在戰術和戰略層面上對決策策略進行建模需要有新的算法,這些算法可以在規則變化、不確定性、個人偏見和隨機性的動態環境中運行[3]。

戰術模擬是MDMP的一個重要組成部分,MDMP是軍隊制定作戰計劃、預測敵方部隊的反擊行動和評估擬議作戰計劃有效性的理論方法,因為它提供了一個安全和替代性的與武裝沖突有關的一些情況和決策動態的再現。雖然 "兵棋推演"一詞沒有統一的定義,但普遍接受的定義可以追溯到19世紀初。它被認為是通過任何手段,使用特定的規則、數據、方法和程序來模擬軍事行動[4]。因此,在進行MDMP的定義和重要性之前,必須對兵棋推演做出明確的說明。MDMP始于從上級總部收到的任務。然后,通過利用其他來源的情報進行任務分析。在下一步,處理指揮官的意圖、行動要求和可用資源,以制定行動方案(COA),包括任務組織計劃。在制定行動方案后,通過兵棋推演進行行動方案分析,重點是行動、反應、反擊和裁決過程,以重新確定行動方案和潛在決策點。

圖1 軍事決策過程總結。

在MDMP中,COA分析通常被稱為兵棋推演,它將COA的發展與COA的比較和批準聯系起來[5]。在比較步驟中,每一個COA都根據規定的標準進行評估,如簡單性、機動性、熱能、民用控制和規模性,這些標準在一個決策矩陣中被賦予了評估的權重。此外,從比較步驟中選出的COA應具有最小的風險、最大的安全性和靈活性。然后,根據COA的比較結果完成COA的審批過程,在最后一步,指令生成并與相關單元共享[6]。從總體上看,圖1給出了MDMP的整體流程。

在這項研究中,提出了開發情報、監視和偵察(ISR)和壓制敵人防空(SEAD)作戰計劃,這些計劃由上層人工智能和輔助的、分布式的決策策略支持,以評估生成的COA的成功概率、資產的生存能力和作戰效率。這個過程是在經典的MDMP方案的基礎上發展起來的,以便于在現實世界的應用中實施,它能夠在行動前或行動中提供快速評估和客觀比較COA。這個過程從接收來自MDMP第二步的任務分析結果開始。在COA開發步驟中,最初的任務分配過程是利用CBBA算法進行的,該算法能夠解決具有分布式的通信結構、異質集合和在線重新規劃要求的分配問題。在創建了幾個行動計劃(即COA)后,它們被輸入兵棋推演過程以評估其有效性。之后,這些行動方案在成功概率、生存能力和成本方面被相互比較,最有效的方案被送去審批步驟。圖2給出了重點框架的總體概況。

圖2 COA生成框架。

本研究的貢獻有三個方面:a)開發一種智能兵棋推演方法,以加速MDMP中的行動方案分析步驟,從而為軍事行動創造更多的候選COA;b)產生針對對面部隊的有效戰術,以提高作戰成功率;c)為未來的系統開發一種有效的、可視化的和強大的基于兵棋推演的MDMP框架,這些系統需要一個小型的操作團隊來監督自動智能體網絡。本研究的其余部分結構如下:在第2節,將對文獻中的相關研究進行調查。第3節描述了問題陳述,第4節給出了針對該問題的解決方案所需的背景。在第5節中,將給出在創建這項工作時遵循的方法,第6節展示了模擬研究的結果。最后,第7節是文章結尾。

相關工作

兵棋推演模擬被用作不同領域的決策工具,從商業到軍事[8],從沖突場景到監視或危機演習,從軍事角度看搜索和救援任務[9] 。在Filho等人[10]中,使用兵棋推演的方法優化了無人機在超視距戰斗中的位置。考慮到兵棋推演中敵人的不確定性,研究了友軍蜂群團隊戰術編隊的有效性。Chen等人[11]提出了一個基于決策樹的城市暴雨情況下的緊急救援兵棋推演模型。在該模型中,雖然敵人的任務僅限于道路積水,但友軍團隊由試圖防止這種積水的應急車輛組成。Su等人提出了基于地理信息系統(GIS)的兵棋推演援助平臺,以防止臺灣地區的蓄水[12]。基于兵棋推演的策略的另一種使用方法是危機演習,Song等人指出,兵棋推演是一種有效的危機演習方式,成本低,方式方便[13]。

一個有效的兵棋推演策略取決于對下屬指揮官完成任務所需資產的準確和最佳分配/配置[7]。許多方法已經被開發出來,使智能體能夠根據已知行動的任務列表在他們之間分配任務。這些方法的主要思想是不僅要提高任務的有效性,而且要降低行動成本和風險。集中式任務分配,需要在智能體和中央服務器之間建立通信聯系,為整個團隊生成一個分配計劃。由于集中式系統能夠減少地面處理要求的負擔,它們能夠有效地使代理人更小、更便宜地建造。此外,據調查,在集中式任務分配系統中使用啟發式方法,如遺傳算法[14-16]和粒子群優化方法[17-19],在計算時間方面有更好的表現[20]。另一方面,由于集中式任務分配的結構,智能體和行動基地之間應保持持久的通信,以提供合作,這需要發送/接收操作更新。這種對通信系統的要求直接影響到智能體組的能力和穩健性。

與集中式應用相反,可以通過利用分布式方法來提高兵力組合的性能和穩健性,在這種方法中,需要智能體之間的通信來獲得對特定任務集的共識。這種類型的通信拓撲結構在智能體損失、通信損失和任務列表的實時更新(即添加和刪除任務)的情況下增加了兵力組合的穩健性[21]。在這種情況下,文獻中已經研究了消除對中央基地的需要的分布式規劃方法。這些方法中的大多數都假設有完美的通信,并有一定的帶寬,以確保智能體在規劃前有相同的態勢感知。然而,這在現實世界的場景中很容易被違反,包括搜索和救援任務,在這些場景中,智能體的通信范圍有限或通信渠道的帶寬有限[22]。在態勢感知不一致的情況下,分散的任務分配算法可以通過利用基于共識的算法,如基于共識的捆綁算法(CBBA)來增強,以便收斂在一個一致的解決方案上[23-25]。不僅有可以集成到分布式框架中的共識算法,文獻中也有基于部分可觀察馬爾可夫決策過程(POMDP)的方法[26]。盡管共識算法保證了信息的收斂,即達成共識,但這可能需要大量的時間,并且經常需要傳輸大量的數據,這可能導致在低帶寬環境下的高延遲,并增加了為無人系統找到最佳任務分配解決方案的處理時間[27]。也有一些關于中間層次結構的報告,即混合結構,介于集中式和分布式結構之間,用于從兩種方法的優點中獲益[28]。

盡管有許多嘗試試圖解決無人駕駛異構飛行器的任務分配問題,而且前面提到的所有研究都考察了底層自動化(以規劃和控制算法的形式)分配異構無人駕駛飛行器(UxVs)網絡的能力,但在產生COA的MDMP中整合增強/高級人工智能生成的指導和輔助決策支持是至關重要的[29]。一些初步的嘗試,如國防高級研究計劃局(DARPA)的 "拒止環境中的協作行動"(CODE)計劃和 "分布式戰斗空間管理"(DBM)的廣泛機構公告(BAA),被提出來改善人類與自動化的協作和決策,通過執行一系列自動化和自主行動來協助戰斗管理者和飛行員[30]。然而,這種具有不同任務分配方法的框架可能是脆弱的,無法對突發事件做出反應。這樣的系統可以通過人類操作者帶來他們基于知識的推理和經驗來緩解[31]。

因此,很明顯,任務規劃者和平臺內的操作者框架都應該被仔細構建。模擬和分析這種框架的最重要的平臺之一是兵棋推演,它被用來執行關于未來部隊資產、軍事能力的決策,并為許多行動做準備。兵棋推演能夠以許多不同的方式執行,從研討會的兵棋推演,到手工棋盤游戲,再到復雜的計算機輔助兵棋推演[32],其中由計算機判斷交戰的后果[33]。

關于該主題的初步研究以來,智能兵棋推演對于促進軍事決策是否有價值一直受到質疑[34]。這些系統在決策過程中的作用也在四個主要學科下進行了討論,即傳感、態勢感知、計劃生成和學習[35, 36]。在這些討論之后,隨著人工智能學科的進步和技術的發展,據報道,將人工智能應用于軍隊的MDMP具有很大的潛力,可以支持指揮中心對競爭激烈和更加復雜的戰場進行規劃,因此Schwartz等人在輔助性人工智能架構中用遺傳算法(GA)來解決這個問題[37]。Boron等人將基于人工智能的兵棋推演整合到決策過程中,他們在不同的戰斗場景中使用強化學習(RL)來評估其算法的性能[38]。Xin等人考慮了以往研究中通常被忽略的不確定性,因此他們提出了一個名為混合智能多分支兵棋推演的解決方案,通過融合基于RL的人工智能方法和人類智能來考慮不確定性[39]。最近,Tarraf等人提出了一個兵棋推演框架,其中規則和交戰統計用于商業桌面兵棋推演,以實現遠程操作和完全自主的戰斗智能體和具有AI/ML支持的態勢感知的智能體[40]。Goecks等人討論了過去和現在關于游戲和模擬器以及人工智能算法如何被調整以模擬軍事任務的某些方面的努力,以及它們如何影響未來的戰場。此外,他們研究了虛擬現實(VR)和視覺增強(VA)系統的進展如何為游戲平臺的人機界面及其軍事提供新的前沿[41]。

基于共識的捆綁算法(CBBA)

在MDMP的步驟2中確定了問題、任務要求、假設和評估標準后,重要的是將藍隊的軍事單位分配給合適的紅隊任務。這是通過利用基于共識的捆綁算法(CBBA)[27]來完成的,該算法支持分布式的、異構的任務和動態環境。在本節中,將給出和描述CBBA算法的細節。

CBBA是一個去中心化的基于市場的協議,它為異質智能體網絡上的多智能體多任務分配問題提供了可證明的良好近似解決方案,并通過使用去中心化的通信方法來解決協調異質自主車輛的任務分配問題[27]。這種類型的通信拓撲結構消除了對中央基地的需求,并且在智能體損失、通信損失和任務列表的實時更新(即添加和刪除任務)的情況下,它增加了任務組的穩健性。CBBA是由兩個階段交替進行的迭代組成的:第一階段是捆綁構建階段,其中每個車輛貪婪地生成一個有序的工作捆綁,第二階段是共識階段,其中相鄰的智能體之間通過本地通信找到并解決沖突的任務。圖3展示了CBBA的內部循環。

方法

A 仿真環境

為了創建可支持、可擴展和易修改的模塊化架構,我們決定將智能任務規劃器分成四個子組。引擎模塊包括主要的引擎腳本,它包含了關鍵的方法,如任務分配、尋路、戰略、交戰和其他一些重要的方法,以便在模擬過程中前進。引擎腳本中的任務分配方法使用基于共識的捆綁算法(CBBA),該算法也在引擎模塊中。環境模塊包括腳本中的世界對象,它給出了仿真環境的邊界,也是這個環境的網格表示,并附有任務、地形、敵人存在的費用。模型包含關于模擬過程中使用的代理和任務的必要信息。為了創建異質智能體,UAV、UGV、USV和近距離防空(CAD)智能體對象被單獨創建,團隊對象被創建用于設置敵方團隊并跟蹤團隊所做的動作。視圖模塊負責以視覺角度表示結果。圖4給出了智能任務規劃器的模塊結構概要。

B 生成殺傷力熱圖

在模擬環境中,殺傷力熱圖在空中、地面和海上層生成,以模擬特定區域內敵對力量的火力。這些熱圖是基于內核密度估計(KDE)算法生成的,該算法用于估計地圖上某一點相對于對面部隊位置的危險等級(即對面部隊的有效等級)。在這項研究中,假定軍事單位根據范圍的致命性分布被建模為夸特函數或埃帕尼科夫函數,如公式5所示。

其中d是軍事單位與地圖上指定點(即相關六邊形的中心)之間的距離。對于在d=0時的殺傷力計算,分布的最大值被縮放為1。 圖5中給出了空中、地面和海上層的熱圖生成結果示例。這里給出了a)地面層、b)海軍層和c)空中層的紅隊單位的殺傷力熱圖。在地面層,UAV、UGV、USV和CAD單位都是對藍軍的有效威脅,在給定的自由區域。在海軍層,USV是主要威脅,但UAV、UGV和CAD也是有效的。在空中層,乍一看,似乎對藍隊沒有威脅,因為紅隊的UAV、UGV和USV對藍隊的空軍沒有效果。然而,如果CAD資產存在于該地區,它將是對藍隊的關鍵威脅,結果將是致命的。

圖 5 紅隊在 a) 地面、b) 海軍和 c) 空中層的殺傷力熱圖。

圖 6 示例案例:地面層紅隊的殺傷力熱圖

圖6給出了模擬環境的另一個例子。為了便于可視化,沒有在環境中插入CAD單元。這里給出了地面層的無人機、UGV和USV的殺傷力熱圖。在這種情況下,與地面層的USV相比,UAV和UGV的殺傷力相對較高,因為USV的射程和效率有限。這可以通過利用表1中給出的軍事單位的效率表來直接模擬。該表提供了每種類型的資產對不同層的破壞效率的信息。

表1每種資產的損害效果表。

C 戰斗模型

戰斗模型對戰斗實體、它們的行為、活動和相互關系進行抽象和簡化,以回答與國防有關的研究問題。沒有一個通用的模型可以回答所有的問題,即使可以構建這樣的模型,它也會變得比現實更復雜,因為它不僅包括真實的系統,還包括想象中的系統。戰斗模型可以是隨機的,也可以是決定性的。直觀地說,一個隨機的模型假設關于某種情況的不確定或概率性的輸入,并對結果作出不確定的預測。一個確定性的模型準確地指出將會發生什么,就像沒有不確定性一樣。更正式地說,一個隨機模型需要用概率理論的術語來描述,而一個確定性的模型則不需要。

其中F, HP, L, PH, PD , PT, PW, PL分別是總火力、火力健康度、致命性、命中概率、探測概率、瞄準系統可靠性、武器可靠性和層效率。在這里,建立軍事單位的損傷矩陣也很重要,它決定了它們在交戰中對敵軍的有效性。在模擬環境中,損害矩陣被假定為表1中的內容。通過使用這些定義,每個資產的生存能力被建模為公式7和8中給出的。

其中Fk、Mk是相關團隊在時間k的火力和機動性。Fok是敵對部隊在時間k的火力。

D 評估指標和作戰評估

有效的評估包括定量(基于觀察)和定性(基于意見)指標。人的判斷是評估的組成部分。任何評估的一個關鍵方面是它對人類判斷的依賴程度,以及對直接觀察和數學嚴謹性的依賴程度。嚴密性解決了不可避免的偏見,而人的判斷將嚴密性和過程集中在往往是成功關鍵的無形因素上。口頭定義是直截了當的陳述,但為了以智能方式訓練整個系統,將這些句子表示為數學指標是關鍵。從口頭到數學指標定義的過渡是一個開放式的程序,它可以通過手動選擇的方式來捕捉最佳決策[42]。

為了評估紅隊和藍隊的機動性和火力能力,制定了幾個戰斗力評估指標,如公式9和10所給出。

作戰兵力組成

兵力的組成與CBBA的評分功能密切相關,具體如下。

這個函數給出了一個智能體在時間tj到達任務時從任務j中得到的分數。分數由兩部分組成,第一部分是任務的名義獎勵,Rj(aj),它是aj的函數,即分配給任務j的智能體指數,第二部分是折扣函數,它是任務j的到達時間的函數,tj。λ是一個折扣系數,用于解釋目標值隨時間的減少。這個系數包含在目標函數中,以更好地代表現實世界中的問題,即訪問目標的價值與訪問的時間成比例地減少[43]。

由于折扣系數改變了任務到達時間的影響,它需要根據世界的大小進行調整。因此,我們提出了以下結構,從圖7中可以看出,以克服選擇最佳折扣系數和兵力配置的問題。

圖7 基于λ搜索算法的兵力編碼器結構

付費5元查看完整內容

關于兵棋推演定義的激烈爭論一直持續到今天。 彼得-佩拉(Peter P. Perla)是專業兵棋推演的巨頭之一,也是開創性的《兵棋推演的藝術》的作者,他將兵棋推演描述為由四個主要元素組成:一個合成環境,包含一個抽象的沖突,使用人類決策,以及展示這些人類決策的后果。 2016年,佩拉進一步將兵棋推演定義為 "在一個合成環境中對沖突或競爭的動態表現,人們在其中做出決定并對這些決定的后果做出反應"。 誠然,兵棋推演存在各種定義,但就本編輯卷而言,佩拉的定義是其基礎試金石。

以游戲的形式抽象人類沖突是很古老的,其根源可以追溯到古代的游戲,如圍棋或威海,一種在19×19英寸棋盤上進行的抽象戰略游戲,或印度次大陸的現代國際象棋的前身Chaturanga。然而,從武器職業的角度來看,喬治-利奧波德-馮-賴斯維茨在19世紀初開發的Kriegsspiel以及他的兒子喬治-海因里希-魯道夫-約翰-馮-賴斯維茨的繼續開發,才是開創性的起源點。萊斯維茨的Kriegsspiel是專業兵棋推演的一個里程碑式的時刻,因為它脫離了象棋等傳統系統,并在普魯士軍隊中被廣泛引入和采用。隨著時間的推移,作為娛樂、教育和分析的工具,兵棋推演的使用一直很豐富。威爾斯(H. G. Wells)和弗萊徹-普拉特(Fletcher Pratt)都是著名的小說家,他們設計了自己的兵棋推演來探索戰爭及其在20世紀的輪廓。第二次世界大戰的特點是主要使用兵棋推演,從英國皇家海軍西部近海戰術部隊(WATU)對抗德國潛艇攻擊的兵棋推演,到中途島戰役前臭名昭著的日本兵棋推演。從那時起,兵棋激增,并發展成為強大的商業游戲產業和一個充滿活力的專注于分析和教育的專業兵棋推演領域。

但這引出了一個問題。一個人如何成為一個兵棋推演者,無論是作為玩家、贊助商、分析家還是設計師?

當大多數職業兵棋手被問及他們是如何進入設計或使用兵棋研究沖突的領域時,大多數人(如果不是全部的話)都會羞澀地提供某種形式的 "我偶然進入的"。本文作者認為自己也是偶然闖入兵棋推演領域的一員。不幸的是,由偶然事件產生的戰棋手的普遍性并不罕見,而是由于沒有正式的系統來培養他們。缺乏一個既定的兵棋推演人才管道--無論是作為參與者、贊助者、分析者還是設計者--有可能使兵棋推演領域越來越小,越來越孤立。在軍隊中,軍官的兵棋推演經驗主要局限于駐地專業軍事教育(PME)和作為分析周期的一部分直接參與兵棋推演的選定任務。對于士兵來說,兵棋是一種罕見的商品,主要限制在個人使用商業兵棋和戰術決策游戲(TDG)進行基于單位的訓練。 目前的兵棋推演事業充其量是零散的、不連貫的。

對于有抱負的設計師來說,只有少數幾個機構為國防專業人員提供兵棋設計課程。在軍隊中,這包括位于俄亥俄州萊特-帕特森空軍基地的空軍技術學院(AFIT);位于堪薩斯州萊文沃思的美國陸軍指揮和總參謀部學院(CGSC);位于弗吉尼亞州匡提科的海軍陸戰隊大學(MCU);位于華盛頓特區萊斯利堡的國防大學(NDU)。麥克奈爾堡的國防大學(NDU);羅德島紐波特的美國海軍戰爭學院(NWC);以及加利福尼亞蒙特雷的海軍研究生院(NPS)。在民用方面,少數大學在專注于安全研究的課程中提供兵棋推演課程,如喬治敦大學、麻省理工學院、約翰霍普金斯大學、麥吉爾大學和倫敦國王學院。然而,這些課程大多是針對有抱負的設計師的入門課程。在學生接受了對兵棋推演的初步引導后,繼續學習和發展的途徑很少。這一點在Caitlyn Leong的文章《如何培養一個戰棋手》中得到了最好的反映,她強調了年輕設計師面臨的各種挑戰。她敏銳地寫道:"除了偶爾的個人導師之外,學生經營的兵棋推演組織和專業兵棋推演社區之間的聯系并不頻繁,甚至不存在。"

教育和培養兵棋推演專家的磨難是一個經常出現的話題,也是社區持續不斷的抱怨。2018年,作者寫道,美國防事業需要在整個隊伍中培養兵棋推演,利用無數的兵棋推演和工具。這包括使用像Steam這樣的數字平臺和設計定制的教育兵棋推演,以促進對兵棋推演這一工具的熟悉和欣賞。Rand公司的Elizabeth Bartels為兵棋推演教育提供了一個雙軌解決方案,為那些尋求成為專家或設計師的人,或那些尋求學習如何利用兵棋推演的人,如贊助商、項目經理和分析師,定制兵棋推演體驗。相反,Jeff Appleget、Jeff Kline和Robert Burks認為,美國國防部(DOD)應該致力于發展和振興其軍警隊伍中的兵棋推演專業知識。鑒于外部組織在兵棋推演中的主導地位,如聯邦資助的研發中心(FFRDCs)和國防承包商,他們認為這種依賴外包了 "國家國防戰略、軍官職業發展和部門采購過程的智力基礎"。同樣,2019年連接兵棋推演會議,一個兵棋推演的年度專業會議,有一個專注于下一代兵棋推演者的研討會,包括平民和軍警人員。不出所料,關于什么是最好的發展步驟的討論引起了激烈的爭論。由于解決方案的難以捉摸,如何培養下一代戰爭玩家的問題仍然是連接會議的一個長期辯論話題。

培養兵棋推演專家的問題不是一個無意義的學術探索,而是一個具有潛在可怕后果的緊迫任務。兵棋推演界正在迅速接近一個拐點,該領域的巨頭們正在穩步退休,而隨后的一代正在努力填補這個空白。同時,即使在美國防部,兵棋推演仍然受到誤解、偏見以及對兵棋推演的效用和局限性缺乏理解的阻礙。在 "正確看待兵棋推演"一文中,杰出的戰爭專家和前CNA兵棋推演總監Ed McGrady說:"人們普遍誤解了兵棋推演的含義,不愿意接受兵棋推演的力量和限制。這導致了對兵棋推演的誤用和濫用,從源于無知的錯誤描述到對兵棋推演的惡意誤用。

因此,本卷作者強調的問題和建議對于兵棋推演領域的持續發展是及時的。作者們探討了一系列廣泛的問題,廣泛地定義在三個主要的主題中:培養兵棋推演者,將兵棋推演應用于教育,以及教育外部利益相關者了解兵棋推演的價值。Natalia Wojtowicz、Kyleanne Hunter、Timothy Smith和Paul Kearney少校討論了培養戰爭玩家和兵棋推演素養的各個方面。同時,Scott Jenkinson中校、Jo Brick大隊長、Ian Brown少校和Benjamin Herbold上尉探討了如何將兵棋推演應用于PME。最后,Jeff Appleget、Robert Burke、Brandon Valeriano、Ben Jensen和Brooke Taylor探討了如何更好地通知和吸引外部利益相關者參與兵棋推演,從國會到社會科學家。

這本書還是以美國防部為中心,以英美為中心,以男性為主,這說明在更廣泛的兵棋推演領域里,多樣性很差。雖然該領域的人口結構正在發生變化,但變化的幅度和速度都很慢,仍有大量的工作要做。因此,除了對兵棋推演文獻進行補充外,這本書還試圖推動對兵棋推演領域的未來進行更廣泛的討論。

付費5元查看完整內容

長期以來,兵棋推演一直被吹捧為想象和準備未來競爭和沖突輪廓的關鍵途徑,但兵棋推演界在如何最好地納入技術方面存在分歧。兵棋推演界的技術懷疑論者指稱,許多兵棋推演的技術不靈活,使用起來有難度,而且往往不能實現兵棋推演所陳述的體驗或分析的最終目標。另一方面,技術愛好者指出,兵棋推演中缺乏科學的嚴謹性和復雜性,是技術被納入的原因。在這兩個根深蒂固的立場之間--懷疑論者和熱衷者--技術在兵棋推演中的作用正在被裁定,這對兵棋推演界和國家安全具有廣泛的基礎影響。

雖然許多人試圖通過研究游戲組件(如場景)或兵棋推演應用(如行動過程分析)來確定兵棋推演和技術工具的理想融合,但本文采取了一個略微不同的方法。相反,它采用了用戶體驗研究方法,通過關注專業的戰爭游戲玩家和他們的經驗來確定前進的道路。本文通過對專業戰爭游戲社區的十幾次用戶訪談、八個焦點小組和一項技術調查(該調查在《戰火》--專業兵棋推演玩家中最受歡迎的國家安全媒體--中引起了500多名自認為是兵棋推演專業人士的回應),概述了技術最適合加強兵棋推演的領域。它評估了四個已確定的兵棋推演痛點--判斷、可用性、游戲的沉浸感和分析,并就技術如何能夠最好地緩解這些挑戰提供了建議。

付費5元查看完整內容

軍隊為訓練、規劃和研究目的進行兵棋推演。人工智能(AI)可以通過降低成本、加快決策過程和提供新的見解來改善軍事兵棋推演。以前的研究人員根據強化學習(RL)在其他人類競技游戲中的成功應用,探討了將強化學習(RL)用于兵棋推演。雖然以前的研究已經證明RL智能體可以產生戰斗行為,但這些實驗僅限于小規模的兵棋推演。本論文研究了擴展分層強化學習(HRL)的可行性和可接受性,以支持將人工智能融入大型軍事兵棋推演。此外,本論文還通過探索智能體導致兵棋推演失敗的方式,研究了用智能體取代敵對勢力時可能出現的復雜情況。在越來越復雜的兵棋推演中,對訓練封建多智能體層次結構(FMH)和標準RL智能體所需的資源以及它們的有效性進行了比較。雖然FMH未能證明大型兵棋推演所需的性能,但它為未來的HRL研究提供了啟示。最后,美國防部提出了核查、驗證和認證程序,作為一種方法來確保未來應用于兵棋推演的任何人工智能應用都是合適的。

引言

兵棋推演是成功軍隊的寶貴訓練、規劃和研究工具。自然,美國(U.S.)國防部(DOD)計劃將人工智能(AI)納入兵棋推演。將人工智能融入兵棋推演的一種方式是用智能體取代人類玩家;能夠展示戰斗行為的算法。本論文研究了用智能體取代人類兵棋推演操作員的可行性、可接受性和適宜性。為此,本章解釋了為什么兵棋推演對成功的軍隊至關重要。

A. 軍方為什么要進行兵棋推演

軍隊進行兵棋推演是為了回答關于戰爭的關鍵問題,這些問題必須在實際沖突發生之前被理解。兵棋推演是利用對立的力量模擬實際的戰斗,并由人類的決策來決定[1]。雖然有廣泛的不同類型的兵棋推演,但它們都有一個共同的目標:"獲得有效和有用的知識" [2]。這種劃分很重要,因為兵棋推演的不同目的會導致玩家和游戲控制者的行為不同。圖1顯示了兵棋推演從訓練到分析到實驗的廣泛范圍。

1.訓練用的兵棋推演

最直接的兵棋推演類型是用于訓練的兵棋推演。大型參謀部使用建設性的模擬(數字兵棋推演)來鍛煉他們的參謀過程,并驗證他們的軍事準備。小型參謀部使用虛擬模擬器來訓練他們的戰斗演習和船員演習。軍隊進行這些兵棋推演是為了了解戰爭和鍛煉決策能力[3]。所有隊員的行動和決策一般都要符合已知的條令和戰術、技術和程序(TTP)。對于大型的參謀部演習,對手可能會突破TTP的界限來挑戰參謀部(例如,表現得更有侵略性,但仍然依賴相同的TTP)。

2.用于分析的兵棋推演

兵棋推演可用于分析,即 "確定在部隊對抗中會發生什么"[3]。這些是大多數軍事人員所熟悉的兵棋推演類型:作為行動方案(COA)分析的一部分而進行的兵棋推演。這些類型的兵棋推演允許對戰爭計劃、部隊結構或理論進行評估。在這些戰役中,雙方都要采用已知的理論和TTP,但 "在這些戰役中,創新精神可以自由發揮"[4]。

3.實驗性的兵棋推演

在譜的另一端是實驗性兵棋推演。在這些戰役中,雙方都可以使用新的力量、武器和/或戰術來探索潛在的未來戰爭[5]。歸根結底,組織進行實驗性兵棋推演是為了產生 "關于戰爭問題性質的知識"[2]。美國軍方在演習中整合了這些類型的兵棋推演,如美國陸軍未來司令部的聚合項目和聯合作戰人員評估。

4.兵棋推演的好處

盡管兵棋推演既不是預測性的,也不是對現實的完全復制,但它們確實提供了一些沒有實戰就無法獲得的東西:對戰爭中決策的洞察力。當為訓練而進行戰爭演習時,組織正在學習良好的決策是什么樣子的(包括過程和最終結果)。當為分析而進行戰爭演習時,計劃者正在評估他們在計劃期間做出的決定,以及在執行期間需要做出的潛在決定。

這些好處足以讓美國防部副部長羅伯特-沃克在2015年發布了一份備忘錄,呼吁在整個美國防部重新努力開展兵棋推演[6]。沃克副部長認為,兵棋推演有利于創新、風險管理和專業軍事教育。沃克認為,最終,兵棋推演將推動美國防部的規劃、計劃、預算和執行過程,這是告知國防部資源分配的方法。美國和它的西方盟友并不是唯一相信兵棋推演好處的軍隊。中國正在為兵棋推演投入大量資源,包括將人工智能融入兵棋推演[7]。

B.兵棋推演中的人工智能

人工智能提供了一個機會,通過降低成本、加快決策過程和提供新的見解來改善軍事兵棋推演。為兵棋推演中的許多角色雇用人類操作員是昂貴的。組織必須給自己的人員分配任務(使他們脫離正常的職能)或支付外部支持。這種成本可以通過將人工智能整合到兵棋推演中而消除。兵棋推演分析的速度只能和人類操作者一樣快。用智能體代替操作員可以加快兵棋推演的速度,并允許多個兵棋推演同時發生,從而實現更廣泛的分析。最后,智能體因其在游戲中的創造性而受到關注[8]。創造性的智能體可以通過探索人類戰爭者可能沒有考慮的可能性,使戰爭計劃、部隊編隊或戰術得到更好的分析。

美國國內的國家安全組織認識到將人工智能融入兵棋推演的潛力。人工智能國家安全委員會在其最終報告中主張立即將人工智能能力整合到兵棋推演中,以確保美國及其盟友保持與同行的競爭力[9]。美國陸軍未來的模擬訓練系統--合成訓練環境(STE)設想整合人工智能來監測和調整訓練場景的難度[10]。美國陸軍研究實驗室有許多項目在調查人工智能與軍事指揮和控制系統的整合。具體來說,他們正在探索使用人工智能的一個子領域,即強化學習(RL)來進行連續規劃,以開發 "藍色部隊的新計劃"[11]。連續規劃將需要一個能夠評估其計劃的智能體,可能通過兵棋推演。

基于其他RL智能體在人類競技游戲中的成功,如《星際爭霸II》[12]、《古人防御》(DotA)[13]和圍棋[14],多名研究人員正在研究用于戰爭游戲的RL智能體。像《星際爭霸II》和DotA這樣的實時戰略(RTS)游戲最能代表兵棋推演。與兵棋推演類似,RTS游戲需要在有限的信息環境中進行長期的目標規劃和短期的戰術決策。以前的研究表明,RL智能體可以在兵棋推演中復制理想的戰斗行為[5], [11]。根據Kania和McCaslin的說法,谷歌的AlphaGo成功擊敗了世界上最好的圍棋大師,證明了人工智能可以應用于兵棋推演[7]。

C. 問題陳述

雖然以前的研究已經證明RL智能體可以產生戰斗行為,但實驗僅限于小型交戰。研究人員只要求RL智能體控制三到五個下屬單位。強化學習智能體將需要成功擴展,以滿足涉及幾百個單位的大型兵棋推演的規模要求。

問題是,隨著兵棋推演中單位數量和類型的增加,信息量和可能的動作數量變得難以解決。Newton等人提出可擴展性是一組目標:速度、收斂和性能,同時保持在一組約束條件下:隨著項目規模的增加,成本、計算能力和時間[15] 。分層組織是擴展的一種方法。本論文將研究分層強化學習(HRL)的可擴展性。換句話說,任何可行的、可接受的人工智能集成到戰爭游戲中,隨著戰爭游戲中單位數量的增加,必須仍然顯示出理想的戰斗行為。

除了將人工智能整合到軍事兵棋推演中的可行性和可接受性之外,這種整合還需要是合適的。開發和執行一個失敗的兵棋推演是有可能的,因為從中得出的知識是無效的或沒有用的。Weuve等人[16]解釋了可能導致兵棋推演失敗的不同途徑,他們稱之為兵棋推演病癥。以取代人類操作者為目的的智能體的設計和實施,需要防止兵棋推演的病態,從而確保有效的結果。

這導致了以下的研究問題。HRL是否允許智能體在不損失性能的情況下增加合作單位的數量和有效性?什么框架可以確保智能體的設計和應用正確,以滿足兵棋推演的目的?

D. 研究范圍

本論文延續了[17]和[18]對Atlatl戰斗環境中RL的調查。Atlatl是一個離散的、基于六邊形的兵棋推演,模擬陸地作戰行動。最初的研究使用一個簡單的多層感知器[17]成功地在RL智能體中產生了戰斗行為。隨后的研究使用卷積神經網絡(CNN)架構在復雜的地形和動態的對手中研究RL智能體[18]。

雖然有廣泛的HRL方法,但本研究的重點是封建多智能體層次結構(FMH)。在FMH中,一個單一的R智能體(即經理),將任務分配給一系列被稱為工人的下級RL智能體[19]。本論文比較了在Atlatl中越來越大的場景中采用基于規則的智能體、單一RL智能體和FMH所需的資源和有效性。

兵棋推演是由玩家和裁判員組成的[1]。友軍單位的玩家被稱為藍軍,他們的對手被稱為紅軍,任何一個玩家之外的平民或軍事單位被稱為綠軍。雖然有可能通過使用所有玩家和裁判員的智能體來實現兵棋推演的完全自動化,但本論文只評估了對單個玩家的替換。

本論文還研究了用智能體替換對方部隊(OPFOR)即紅色部隊時可能出現的復雜情況。討論了具體的兵棋推演病癥,并提出了緩解這些病癥的方法。美國防部的驗證、核實和認證(VV&A)框架被應用于通過RL對OPFOR的建模。

E. 研究結果

本論文發現,當FMH智能體以分布式方式進行訓練時,FMH智能體未能比單一RL智能體表現得更好。當經理和工人在同一環境中訓練時,FMH智能體的學習能力有所提高。然而,工人的不一致行動使經理無法制定最佳策略。此外,FMH的訓練要求超過了單個RL智能體的要求,這抑制了FMH擴展到大型軍事兵棋推演的能力。最后,本論文發現,將人工智能整合到軍事兵棋推演中的方法適合于像美國防部的VV&A框架那樣的過程。否則,基于模型的去太原的病癥會使兵棋推演的目標失效,并對美軍產生負面影響。

F. 論文對研究的貢獻

本論文通過進一步研究在建設性模擬中采用完全自主的智能體,對美國政府有直接好處。完全自主的兵棋推演智能體,能夠在多個層次上運作,需要支持兵棋推演的全部范圍。這很容易延伸到軍事規劃期間的決策支持工具,協助規劃者快速評估不同的COA。此外,探索在兵棋推演中使用智能體的適宜性將促進兵棋推演界采用人工智能。

付費5元查看完整內容

摘要

本文是挪威國防大學學院更廣泛的研究和開發項目的一部分,該項目旨在探索各種兵棋推演和軍事演習的效用和潛力。這篇文章旨在激發對兵棋的使用和問題進行討論,并激發產生新的和更好的建議。因此,本文包含意見和學術思考。本文討論了兵棋推演、其多種不同類型、它們的實際用途,以及在使用兵棋以產生有用結果時出現的一些危險或陷阱。本文的目的是促進辯論,而不是給出任何明確的結論。

簡介

"兵棋推演"這個詞對不同的人意味著許多不同的含義。在某些情況下,存在著截然不同的解釋,從與軍事決策過程(MDMP;見CALL,2015)中的特定階段有關的極其狹窄的定義,到記者和大部分公眾傾向于將戰爭之外的所有軍事努力,包括現場訓練和計算機模擬,視為兵棋推演。這個詞有許多不同的使用方式,并帶有許多情感成見,這取決于相關人員的經歷。問題的一部分在于"'兵棋推演'沒有單一的、普遍接受的定義"(英國國防部,2020)。

即使是那些在專業基礎上參與兵棋推演的人,也很難接受現有的眾多定義,這些定義在定性技術和對更多分析性產出的定量要求之間可能有所不同。對于是否應該包括計算機模擬,或者 "兵棋推演"是否僅指人工技術,也存在分歧。有些人甚至不認可寫成 "war gaming"或"wargaming"。

與許多軍官一樣,我不關心學術定義的細枝末節,而更關心與我所承擔的任務有關的特定技術的有效性。我認為,任何 "兵棋推演"的定義都只能與兵棋推演所支持的具體任務和目的相關,而不是任何全面的概括。我還認為,試圖給"兵棋推演"下一個萬能的定義,不僅是徒勞的,而且實際上對更廣泛地采用這種技術來解決國防需求是有害的。因此,針對本文目的,我將以最廣泛的定義來使用 "兵棋推演",包括所有涉及人類決策者的教育、培訓和分析目的,但不包括實際戰斗。

兵棋推演

兵棋推演是一種決策技術,它提供了結構化的、但在智力上是自由的、可以避免失敗的環境,以幫助探索什么是有效的(勝利/成功),什么是無效的(損失/失敗),通常成本比較低。兵棋推演是一個對抗性挑戰和創造性的過程,以結構化的形式提供,通常有裁判或裁決。兵棋推演是由玩家決策驅動的動態事件。除了敵對的行動者,它們還應該包括所有抵制計劃的 "反對 "因素。兵棋推演的核心是:

  • 玩家。

  • 他們做出的決策。

  • 他們創造的敘事。

  • 他們的共同經歷;以及

  • 他們所獲得的教訓"。(英國國防部, 2020)

兵棋推演涵蓋了廣泛的方法和技術,旨在優化其與目標相關的產出,從那些旨在利用想象力、創造力和原創思維的方法和技術,到那些旨在支持軍事決策過程的方法和技術,以及那些旨在產生定量數據以支持采購和部隊開發的方法和技術。

作者的經驗

由于這是一篇以實踐為導向的文章,關注的是兵棋推演在現實生活中的實際應用,以支持特定的任務和目的,因此也許值得花一些時間來闡述我自己作為一個兵棋玩家的實踐以及我過去在軍隊中舉辦訓練活動的經驗。我是1979年在桑德赫斯特皇家軍事學院開始接觸兵棋推演的,當時是在帕迪-格里菲斯(已故)的指導下,他是一位軍事歷史學家、兵棋家和多產的軍事歷史和戰術作者。在接下來的幾年里,我參與并幫助組織了許多大規模的兵棋推演活動,這些活動都是利用桑赫斯特的設施,由帕迪-格里菲斯和其他人負責。

兵棋推演的目的

有幾個不同的,往往是重疊的,你可能希望進行兵棋推演的原因。根據30年的經驗,我提供了一個主要原因的簡短清單,如下:

  • 了解系統能力。

  • 有效地了解態勢。

  • 教育。

  • 訓練。

  • 當前部隊戰略或戰術。

  • 未來部隊發展(包括作為采購過程的一部分)。

  • 軍事決策過程的一部分。

  • 了解團隊。

  • 預測可能的未來。

  • 了解系統能力。

2015年,我應邀在中國長沙的國防科技大學講授仿真和建模。作為一系列講座的一部分,我被邀請向軍校學生演示一個簡單的 "自由兵棋(free-kriegsspiel)"(一種很少或沒有書面規則的兵棋,裁決是基于一個高級裁判的經驗,而不是復雜的規則和程序)。這是在大學體育館進行的,由模擬學生充當裁判員(之前接受過技術培訓),同時進行25場10人的同一游戲。

我觀察到,中國學生傾向于尋找 "答案",而不是探索學習或自己思考,所以當一個學生質疑為什么有人會進行兵棋推演時,我選擇指導他們玩游戲,然后告訴我他們認為游戲的目的是什么。

在比賽中,關于戰術的討論非常少(以至于一個玩家在得知有炮火支援時,建議連續轟炸敵人的陣地,直到敵人死亡)。大部分的問題和討論都與武器的能力和效果有關。有人向我提問,如 "某個武器系統的有效射程是多少?",我回答說,作為解放軍的軍官,他們應該知道這些信息。這導致了許多討論、信息共享和對軍事手冊的研究。會議結束時,學生們一致認為,與死記硬背相比,這是一種非常高效和有效的信息教學方式。大多數人還同意,這顯然是進行這樣一個兵棋推演的主要原因。我并不反對。

高效的態勢理解

與上述見解相聯系的是,約翰-康普頓博士3在2018年的 "連接美國 "專業兵棋推演會議上討論說,兵棋推演是向參與者介紹軍事態勢的一種極其高效和有效的方式。這是因為信息的呈現方式與它所處的環境直接相關,而且,由于它通常是通過發現學習的過程獲得的,所以它往往更容易在解決問題時發揮作用(Alfieri等人,2011)。這與我在英國常設聯合部隊總部工作時,在俄羅斯吞并克里米亞后,就波羅的海局勢進行的兵棋推演的經驗相吻合。

最終,我為總部的辦公人員就波羅的海局勢進行了四小時的矩陣游戲。游戲結束后,大家一致認為,游戲使參與者迅速掌握了不同的要素和關于當前局勢的重要背景。一位玩家說:"我現在知道了我所知道的,并理解了我不知道的,以及我需要研究的東西。一位J2的工作人員對此提出質疑,他指出這些信息已經以電子郵件簡報的形式提供,并指著一疊至少300毫米高的紙質打印件。大多數工作人員的回答是 "太長了--沒看"。

教育

兵棋推演在教育中特別有效,正如上面提到的發現學習的背景。"我聽了就忘,我看了就記,我做了就懂"(Seok,2011)。然而,與所有基于游戲的學習一樣,也有一些注意事項,那就是需要仔細管理,所選擇的游戲類型應該是有重點的,并且與預期的學習結果相關(以及在現有的時間內可以實現)。也有很好的證據表明,試圖讓不熟悉或不習慣這種方法的教師強制使用基于游戲的學習,可能弊大于利(Whitney等人,2014)。

將游戲用于教育目的需要考慮的其他因素是,游戲不一定要玩到最后(避免得出 "我輸了,所以游戲不好 "或 "我贏了,所以游戲好 "的結論--這兩種結論對教育理解都是有害的),以及游戲不一定要完美地表現現實--游戲的簡易性和學生的參與性更為重要。事實上,如果游戲是不完美的,教員邀請學生就如何改進游戲提出建議,可以產生比游戲本身更多的洞察力和智能對話。因此,在一節基于游戲的學習之后,進行適當的匯報是非常重要的,以確保游戲與要達到的學習結果相聯系。

培訓

兵棋推演可以在培訓中發揮作用,因為兵棋推演往往比其他培訓方法更容易獲得,更容易接觸,而且成本更低(允許有更多的機會進行練習--刻意練習比天賦更重要;見Ericsson等人,1993)。就像上面的評論一樣,游戲是在一個特定的環境中進行的,這有助于信息的保留,并有助于理解游戲中描述的情況。

然而,與教育游戲不同的是,特別重要的是,游戲機制和裁決要根據對現實世界表現的期望進行驗證,以防止對游戲的價值失去信心或從體驗游戲中獲得錯誤的教訓。

當前部隊戰略或戰術

2019年,駐扎在蘇格蘭愛丁堡的3號步兵營(一個輕型步兵營)的指揮官要求我協助開展一些戰斗小組級別的兵棋推演。該部隊將從輕步兵重新定位,成為一個機械化營,配備輕型裝甲的偵察車、支援車和運兵車。其目的是為了獲得一些洞察力和理解,以適應裝備這些車輛所需的戰術和程序的變化。

很快就可以看出,作為在阿富汗使用的 "緊急行動需求 "而購買的車輛,完全不適合機械化營所期望的更廣泛的作用。當把它放在一個特定的兵棋推演場景中,試圖在不同的地形中使用不同的車輛,并對付另一種更常規的敵軍時,很明顯,如果按照最初的設想使用這些車輛,會有很大的缺點。用于偵察的車輛雖然裝甲較輕,但缺乏對乘員的保護,特別容易受到炮彈碎片和敵人裝備的大炮的偵察。運兵車雖然在阿富汗的地形上對簡易爆炸裝置有很好的防護作用,但完全不適合在另一種地形上越野行駛。

事實上,所有這些因素都被暴露出來,在場景的操作背景下,在所有相關的利益相關者在場的情況下一起工作,這使得什么可能有效,什么不可能有效變得很明顯。這導致了對如何改變戰術以減少這些風險,或對部隊可以承擔的任務和角色進行限制的清晰理解。

未來部隊的發展

當考慮將未來部隊的發展作為兵棋推演的目的之一時,這分為兩個主要領域:兵棋推演作為分析過程的一部分,以確定未來采購的數量和性能;以及兵棋推演,以確定這些新能力在特定場景下的最佳應用。前者最有可能由研究機構進行,后者則由軍事單位和編隊進行。

應該注意的是,在用于分析目的的兵棋推演中,游戲規則、數據和程序必須盡可能準確,以確保游戲產生的數據同樣準確;游戲的簡易性和玩家的參與是次要的(與教育戰爭游戲相反)。

軍事決策過程的一部分

可以說,兵棋推演是軍事決策過程中最關鍵的部分之一,因為它將指揮官的計劃從概念變成了細節,并使部隊的戰斗力同步于行動。這通常是軍事人員最熟悉的戰爭演習類型,也是由于對如何正確執行戰爭演習的誤解,以及缺乏分配給這一職能的時間和專業知識而通常做得不好的類型(CALL, 2020)。

戰術演練應該被用來評估作戰方案(COA)完成任務的潛力,以應對不同對手COA的預見性反擊,以及識別和糾正不足之處。然而,真正的價值在于它能夠允許指揮官和參謀部將行動的開展可視化,并深入了解對手的能力和行動,以及作戰環境的狀況(AJP-5,2019)。

基本要素是在作戰的背景下了解計劃,以及敵人可能采取的作戰方針。

了解團隊

托馬斯-謝林是美國經濟學家,馬里蘭大學學院公園公共政策學院的外交政策、國家安全、核戰略和軍備控制教授。他因 "通過博弈論分析提高了我們對沖突和合作的理解 "而被授予2005年諾貝爾經濟科學紀念獎。他還根據自己在戰略層面上的博弈經驗,在美國和俄羅斯之間建立了核熱線(Miller, 2021, pp.176-191)。

在蘭德公司的論文《27年后的危機兵棋推演》(Levine et al., 1991)中,Schelling寫道:"最大的好處是他們(參與者)與一些他們將來可能有機會合作或依賴的人變得親密無間,或者至少是隨意地熟悉起來。" 這被明確為兵棋推演的一個重要副產品,以及我所說的場景理解和系統能力。

預測可能的未來

"兵棋推演不是預測性的。兵棋推演說明了可能的結果,所以有可能從兵棋推演的一次運行中發現錯誤的教訓。兵棋推演可以說明某些事情是合理的,但不能明確地預測它是可能的。(英國國防部, 2020) "

許多作者,包括支持使用兵棋推演的作者和批評兵棋推演方法的作者,都對兵棋推演的預測能力提出了可怕的警告。人們總是對兵棋推演的失敗提出批評,從未能預測1899-1902年布爾戰爭的心理或經濟方面的決定性因素(Caffrey,2019),到商業兵棋推演 "遙遠的平原"(關于阿富汗戰爭)的設計者無法預測2021年8月阿富汗軍隊出現災難性崩潰的可能性(BGG,2021)。

如果兵棋推演在過去的122年里都不能預測未來,盡管有些作者聲稱它們可以(Dupuy, 1985),那么它們在這個領域有什么用處呢?

答案在于它們能夠在關鍵的利益相關者在場的情況下,暴露出一個計劃的多面性,同時面對克勞塞維茨式的摩擦(Watts,2004)和敵人行動所能帶來的所有對抗性因素。這種方法,如果執行得當,有一種獨特的能力,可以暴露任何未來計劃的弱點,排除那些根本行不通的行動和意圖,并完善可能結果的未來錐(Voros, 2017),突出預測的、合理的和可能的未來,并允許更好地理解與之相關的風險。

兵棋推演可能無法預測實際的未來,但它們善于排除那些根本行不通的未來計劃,并允許更好地理解在執行一項行動時可能發生的一系列結果。

兵棋推演的誤用

在簡要討論了你可能希望進行兵棋推演的一些原因之后,重要的是要介紹一下為專業目的進行兵棋推演所涉及的陷阱和危險。

然而,在開始之前,有必要參考一下關于這個特定主題的開創性工作:"兵棋推演的病癥"(Weuve, et al, 2004)一文。我所做的任何評論只是反映了對我所進行的兵棋推演影響最大的問題,由于我在職業生涯的后半段是一名 "教育者",這影響了我的思維,也意味著在兵棋推演的某些領域(訓練和分析),我的經驗比較有限。

幻想游戲

以色列軍方堅定地認為,任何具有虛構背景的訓練活動,包含專門為該活動創建的數據,不僅是一種浪費,而且浪費了對真實世界的理解和洞察的機會 - 他們是絕對正確的。你永遠不應該使用假的場景。

除非你必須這樣做。

在某些情況下,對運行有關真實潛在敵人的游戲存在政治敏感性。大多數情況下,這些都是誤導,實際上對活動的價值有害。在真實的潛在情況下進行游戲的行為不僅本身非常有價值,而且如果消息傳到反對派那里,那就更好了,因為這將產生威懾作用。更不用說,如果一般公眾認為我們是在 "瞎編",他們會認為我們不認真對待這種情況,是瘋了。畢竟,20世紀20年代的 "紅色戰爭計劃 "是美國針對英國和加拿大的一套真實的計劃方案,是由一個剛剛在歐洲作為英國的盟友之一打了一場大仗的國家設計的(Major, 1998, pp.12-15)。

如果你被迫擁有一個虛構的場景,基本上有三種選擇:從頭開始生成場景,增加一個額外的國家,以及改變名稱。

從頭開始構建場景是最糟糕的選擇。所需的工作是巨大的,根據游戲的層級,你可能需要創建整個大陸、國家和其他社會政治集團。你可能需要繪制地圖,以及關于友軍和敵軍作戰命令的深層背景數據,這可能是非常耗時的。

添加一個額外的國家是一個稍好的選擇,因為地緣政治環境是真實的世界,但在危機地區插入了一兩個虛構的國家。這減少了準備工作的負擔,通常允許使用真實的地形(重新劃定一些邊界),并有一個可否認的外衣。

改變名稱是最好的選擇。它允許所有相關人員使用現實世界的情況,并將變化降到最低,而我們決定費盡心思改變名稱的事實表明,我們不希望冒犯他人,同時顯然允許在真實的地緣政治情況下進行訓練。然而,不要搞錯了--"僅僅改變名稱 "本身就可能是一項巨大的努力。我曾參與過一次軍團級的演習,我們要使用西德的地理環境,我們只是把它重新命名為 "紅土"。準備工作已經到了高級階段,當參加演習的德國師級人員震驚地發現,只有國名改變了,但城鎮、地區或河流的名稱都沒有改變。例如,將下薩克森州作為 "敵人的領土",這在政治上被認為是不可接受的,而且,由于計算機模擬無法在現有的時間內進行修改,因此不得不完全重寫設定,使用英國的地理環境,因為這是當時唯一存在的替代模擬地形。

人們經常表示擔心,如果使用真實世界的數據,場景將不得不成為機密;增加的費用和努力是一個數量級的。有幾件事情需要考慮:

  • 用真實的數據進行訓練是更好、更現實的。它將吸引在現實生活中處理情況的個人更高水平的參與,并提供一個機會在事件中檢查數據的有效性和背后的假設。在大多數情況下,在高分類的情況下,實際需要的數據非常少,但額外的成本可能非常高。

  • 根本不需要使用分類數據。完全可以使用通常用于 "訓練 "或公共領域的數據,以較低的分類來設計事件,將其設置在現實世界中。與從完全 "編造 "的數據中得出的那種教訓相比,認為這可能會產生 "錯誤的教訓 "的論點顯然是可笑的。

在過去,這不是一個問題,因為人們普遍認為戰爭與和平之間有一條分界線。這意味著,與手頭的軍事任務相比,對地緣政治局勢、當地政治或宗教的詳細了解被置于次要地位。然而,在當前的不對稱威脅環境中,這種復雜性變得極為重要,因此,為了解決這個問題,場景模擬變得越來越復雜了。

問了錯誤的問題

當一位高級軍官說他希望通過一個特定的兵棋推演來 "證明我們需要更多的[某種]導彈 "時,我實際上也在場。他沒有按照兵棋推演的原意使用兵棋,而是為了研究一個問題,以收集有助于為辯論提供信息的見解,他已經決定了答案,只是想通過兵棋推演來證實他的偏見。

這種行為比你想象的要多,不一定像上面的例子那樣明目張膽地發生,但在減少兵棋推演的范圍時,表面上是出于預算或編程的原因,所以被審查的場景被迫處理如此少的替代方案,結果是預先注定的。

英國皇家海軍進行了一次兵棋推演,研究格陵蘭島、冰島和英國之間的差距,這是大西洋北部的一個區域,在這三個陸地之間形成了一個海軍扼制點。其目的是確定是否可以有效地發現俄羅斯北方艦隊的潛艇運動進入北大西洋。一些憤世嫉俗的分析家認為,這場戰爭的目的是為了 "證明 "皇家海軍沒有足夠的潛艇來發揮效力。他們感到驚訝的是,這個假設在游戲開始時就被假定了,而實際的問題是調查如果這種情況被證明是真的,最具有成本效益的替代方案。

最后,顯然需要更多的潛艇才能有效地對付更現代化的俄羅斯潛艇,但除了試圖采購更昂貴的潛艇外,還有一些具有成本效益的替代方案:衛星監視、與盟國加強合作以及海上空中巡邏。當然,海軍兵棋準備建議為皇家空軍海上航空隊提供額外的資金,這一事實在分析上,特別是在政治上都是令人信服的,并且保證了結果被廣泛分享和采取行動。一個提出正確問題的例子。

重要的不是兵棋推演確定了某一系統或戰略存在嚴重的不足,而是玩家做了什么來克服這一不足,以及這是否能夠成功。

太大的問題

兵棋推演,至少以我在英國的經驗來看,一般是例外,而不是常態。因此,當安排了適當數量的高級領導人參加的兵棋推演時,它們往往會受到 "膨脹 "的影響,目的和目標變得越來越雄心勃勃,以證明有這么多的高級決策者參加。在這種情況下,活動中不可避免地增加了其他內容,在活動中插入了審查其他場景和問題的機會,以充分利用參與的人才。

這必然會扭曲活動,將重點從最初的問題上移開,并有可能稀釋結論,從而使它們在更廣泛的戰后報告中丟失,這些報告中充滿了對大多數人來說不感興趣或不相關的信息。

額外的元素也將有助于固定活動方案,分散對原意的注意力,減少那些高級人員花時間 "深入研究 "的靈活性,以進一步研究與他們的同行產生的任何特殊見解。相反,他們往往被從一個點引導到另一個點,缺乏參與或時間來產生有用的投入。

當一場兵棋推演成為 "大事件",有許多高級決策者參加時,它也可能吸引媒體的注意,因此游戲的結果將受到明顯的關注。這意味著要避免被認為是失敗或缺點的尷尬,而且游戲不可避免地被傾斜,以產生一個 "成功的結果"(就外部第三方而言),而不考慮最初的目的。

在這種情況下,游戲不再是一個兵棋,而是通過計劃獲得成功的行動,只有微不足道的 "學習 "才能證明事后的活動。

更多的計算機和更多的數據

如果我們考慮在最廣泛的意義上使用兵棋推演,我們需要理解許多人為了產生一個 "更準確 "的結果而希望涉及計算機模擬,也許還有人工智能(AI)。這是錯誤地認為 "更多的數據 "和 "更多的計算能力 "可以在某種程度上,本身就可以提高準確性。

使用模擬和人工智能協助軍事指揮官決策的機會是令人興奮的:使用計算機模擬未來的沖突局勢,然后 "通過人工智能運行它們",以制定最佳行動方案、部隊組合和實現成功的時間。請注意,在這種情況下,人工智能的軍事概念包括在一個基于云的分布式架構中查看多個同時進行的行動方案,以并行地完成許多這些過程(庫克,2020年)。它可能不是嚴格意義上的人工智能,但任何先進的技術計算架構都傾向于被概括為這個標題--軍事指揮官實際上只對產出的實際效用感興趣,而不是對術語的學術定義。

然而,這種方法有一些問題,主要是在兩個方面:基礎模型的準確性;以及優化的危險,導致可預測性和脆弱性。

人工智能系統采用規則來優化其行為,以尋求優勢。這種方法的優勢在于它的有效性。這種方法的缺點也是它有效。我們必須非常小心,確保我們為人工智能定義參數,以產生我們想要的行為(例如,最佳攻擊路線可能在國家邊界之外,所以我們需要確保我們在執行計劃時不會入侵鄰國)。人工智能可以產生不同的行動方案,只要他們的規則適合任務,在封閉的模擬環境中。這必須由人類嚴格控制,以確保不僅規則適合情況,而且人工智能不會通過利用系統中的錯誤來作弊(Benson,2020)。

雖然許多這些系統或多或少都是聚集在一起的,所以必須對性能進行近似,但它們是用來訓練的,這意味著它們足夠準確,有軍事用途;對于Box(1979)來說,"所有的模型都是錯的,有些是有用的"。

危險的是,如果我們可以做這種分析,我們的敵人也可以,讓他們預測我們的行動方案。在尋求具有決定性優勢的武器系統時,這樣的系統變得昂貴,減少了用于替代方案的資源,并且需要很長時間才能投入使用。敵人在得知這樣一個系統后,可以花時間來打敗這個系統。而當他們這樣做的時候,就沒有什么可以反對他們了。韋恩-休斯教授警告說:"海上戰爭中的殺戮往往是用海軍的第二好的武器完成的。如果在未來的某個沖突中,雙方都反擊了對方的首要武器,那么海軍將不得不問:我們的下一個最佳武器是什么?" (Rielage, 2017)。如果人工智能生成的可預測性已經導致了一個單一的武器系統或最佳方法,而它被打敗了,可能就沒有什么替代品了。

優化的系統也是脆弱的,特別是在面對突發事件時。這一點在COVID-19大流行病早期的衛生紙交付的供應鏈失敗中得到了明確的證明(Wieczner, 2020)。特別是軍事行動,需要對突發事件有強大的抵抗力。

然而,許多這樣的實驗未能解決的是關于情報和局勢數據準確性的一些隱性和顯性假設。正如在科索沃的空襲行動中所證明的那樣,塞族人能夠用相對粗糙的技術騙過美國的情報分析員(施密特,1999年),而且在堅實的地面、泥濘的斜坡和耕地上的相對 "前進"(即前進速度)很少被量化,所以假設是危險的。

然而,所有的軍事規劃都是在不完善的信息基礎上進行的。假設人類對人工智能的建議有所節制,那么當人類和人工智能合作以利于決策時,有可能導致更好的結果(an den Bosch & Bronkhorst, 2018),或至少排除更愚蠢的選擇。

因此,人工智能,在一些注意事項和人類的支持下,可以使其發揮作用 - 但代價是什么?人工智能的歷史是一個炒作和預期失敗的故事,被Floridi(2020)稱為 "人工智能的冬天"。其他技術(現有的統計方法、人工兵棋推演、競爭性假設的分析)已被證明是同樣有效的,而成本和精力卻只有一小部分(Makridakis等人,2018),而且不容易出現人工智能衍生結果有時會產生的嚴重錯誤(Yampolskiy,2016;Osoba和Welser,2017)。

英國防部傾向于希望在最昂貴和效率最低的領域使用人工智能--而不是后勤支持和光學識別這些低垂的果實(國防采購機構認為在正常競爭下會自動交付)。相反,他們追求的是最昂貴和最令人興奮的獎品:常規部隊的行動過程評估(Kerbusch等人,2018)。

兵棋推演應該是小型的定期活動,其范圍靈活,產出集中,能夠從最廣泛的角度考慮問題。只有從這樣的活動中才能產生洞察力。

正如偉大的F.W.蘭徹斯特所說。"提供有用見解的簡單模型比那些與現實世界如此接近的模型更受歡迎,因為他們想要解開的謎團在模型中重復出現,而且仍然是謎團"(Fletcher, 1995)。

對兵棋推演缺乏了解

然而,到目前為止,對兵棋推演最大的誤用僅僅是因為許多人(包括許多高級決策者)根本不了解兵棋推演這一技術,或者認為他們自己對兵棋推演的狹義解釋是正確的,而所有其他的解釋都或多或少地存在缺陷。

這并不局限于國防領域的普通民眾。職業兵棋手們自己也對兵棋的定義爭論不休,在那些認為分析性兵棋的定量科學是唯一有效的方法的人和那些喜歡 "更廣泛的兵棋"的定性藝術而不是 "狹隘的"(和 "狹隘的")替代品的人之間存在著明確的分裂。

造成這種情況的原因是,幾乎在所有情況下,兵棋推演都是由自學成才的少數人進行的,由他們個人的職業發展提供信息,缺乏正規專業教育所能提供的更廣闊的視野。這并不是說兵棋推演課程不存在,但總的來說,這些課程是其環境的產物,因此其產出偏向于其贊助商的要求。舉個例子,MORS7兵棋證書(正如你所期望的那樣)在很大程度上偏向于分析的一端。

為了有效,兵棋推演需要來自指揮系統的正式支持。它需要一個冠軍(一個高級領導人,承擔起確保每個參與者都致力于該技術的最終成功的重任),需要有人負責確保兵棋推演在每個級別都得到理解并定期進行,從計劃分區攻擊的初級士兵到軍隊的最高級別,如英國國務卿的網絡評估和挑戰辦公室(SONAC;見Elefteriu,2020)。

需要在軍事學校和學院開設正式的教育課程,教授全方位的兵棋推演,而且兵棋推演應該被強制規定為任何課程或單位和編隊的年度培訓周期的一部分。只有這樣,才能培養出新一代有適當資格和經驗的人,以取代 "有天賦的業余愛好者",他們在大多數軍隊中構成了大部分的兵棋推演專家。

不過,無論怎樣強調都不為過的是,不能把應該進行兵棋推演的授權與應該玩某種游戲或游戲類型的授權混為一談。

正如弗朗茨-哈爾德將軍(Generaloberst Franz Halder)在談到20世紀30年代和40年代的德國軍隊兵棋推演時所說:

"軍事文獻包括關于兵棋推演的非官方手冊。為了避免哪怕是最輕微的軍團化跡象,并在戰爭游戲的應用和發展中保持充分的自由,官方沒有發布任何形式的正式指令。(霍夫曼, 1952)"

結語

在這篇文章中,我試圖確定兵棋推演的多種多樣的用途,強調游戲類型之間的差異,所有這些游戲都是為了一個特定的目的。沒有哪種游戲適合所有人--用于教育、培訓和分析的游戲之間的差異是非常重要的,而且經常被忽略。

我還從我的經驗出發,介紹了一些在運行兵棋推演時可能出現的錯誤和危險(并指出了關于這個問題的開創性工作)。為了避免其中最重要的危險,并確保它作為一種使軍隊更加有效的技術而獲得成功和發展,兵棋推演需要得到指揮系統的支持,并且必須成為軍事學校和學院課程的一個重要組成部分。

付費5元查看完整內容

簡介

"贏得戰斗的將軍在戰斗開始前做了許多計算。戰敗的將軍事先幾乎沒做什么計算"。來自:孫子《孫子兵法》(【夫未戰而廟算勝者,得算多也;未戰而廟算不勝者,得算少也。多算勝,少算不勝,而況于無算乎?吾以此觀之】)

兵棋推演

"兵棋推演是一個有規律的過程,它的規則和步驟試圖將行動的流程可視化,考慮到部隊的力量和部署、威脅、能力和可能的COA、作戰區平民的影響和要求以及局勢的其他方面。" 來自:戰地手冊(FM)6-0 《指揮官和參謀部組織與行動》,2014年5月5日。

本手冊的目的不是要重復關于COA分析的條令。本手冊側重于三個項目。第一,如何改進和發展可視化的認知技能,這是COA分析(兵棋推演)的一個關鍵組成部分;第二,利用現成的兵棋推演改進COA分析的行動、反應和反行動裁決的方法和行為;第三,關于培訓工作人員的想法

為什么要關注COA分析?在所有的作戰訓練中心(CTCs)和其他訓練活動中,它被認為是軍事決策過程(MDMP)中工作人員最困難的一個步驟。此外,將現成的兵棋推演納入參謀部培訓有助于更好地理解如何運用規則和判斷,在行動、反應和反擊過程中真實地裁定結果。

COA分析(兵棋推演)是MDMP的第四步,可以說是最關鍵的一步,因為它將指揮官的計劃從概念變為細節,并使部隊的戰斗力與行動同步。最近對多個單位執行決定性行動訓練環境輪換和任務指揮訓練計劃(MCTP)的作戰人員演習(WFXs)的觀察表明,從營到師的參謀部都沒有有效地進行兵棋推演。參謀部在將事件在時間和空間上可視化方面受到挑戰。另外,在MDMP方面,缺乏對參謀人員的堅實培訓計劃。這導致了向下屬單位發布不完整的計劃,整個陸軍作戰職能部門缺乏共同的理解,以及行動中所有機動和支援要素的同步性差。

以下是來自機動部隊CTC、MCTP WFXs和培訓的觀察:

  • 參謀人員在到達CTC后沒有接受過MDMP的培訓。通常情況下,參謀人員在輪換前只進行過一到兩次MDMP的培訓。相反,離開指揮和總參謀部學院(CGSC)的少校在畢業前已經進行了8至14次MDMP的反復訓練。這個重復次數可以成為部隊在部署前的一個現實目標。

  • 批判性思維只能在客觀分析中獲得--在這種情況下是基于理論的分析(兵棋推演)--并將這種分析應用于戰術問題。在參謀部演習、指揮所演習、計劃演習等方面進行更多的重復訓練和套路是有幫助的。然而,參謀們認為他們沒有時間進行重復訓練。因此,反恐委員會的輪訓成為他們唯一的學習環境。單位沒有足夠的重復訓練來建立一個有經驗的參謀團隊。

  • 邏輯、推理和視覺化是工作人員進行COA分析所需的關鍵認知技能。在時間和空間上對戰斗進行可視化是至關重要的。一般來說,友軍和敵軍有相同的物理限制。通過理解這一概念,參謀部可以從邏輯上推斷出完成任務需要哪些部隊,以及指揮官必須做出的決定。

  • 只有有限的參謀部成員了解COA分析的過程(XO、S-2、S-3和火力支援官)。不幸的是,許多工作人員不了解他們在COA分析中的作用,這又與MDMP培訓有關。

  • COA遠遠不夠完整,因此,很難分析。大多數進入分析步驟的工作人員都不了解敵方和友方的COA。一般來說,往往只有S-2和S-3參與這些產品的創建。它們不是工作人員同步的產品。

  • 參謀長、負責戰略計劃的副參謀長(G-5)和XO并沒有分配足夠的時間來進行COA分析。根據理論,三分之一的規劃時間應專門用于COA分析(與任務分析的時間分配相同)。

  • 參謀部在進行COA分析之前要努力 "收集工具"。最有價值的工具是指揮官決策產品、決策支持矩陣和決策支持模板。

  • 參謀部缺乏執行兵棋推演的理論基礎。只有XO或S-3可能知道COA分析(戰爭演習)的理論基礎,因為他們是軍事教育4級。參謀部沒有一個規劃標準操作程序(SOP)來解決每個作戰功能(WfF)/工作人員代表的規劃要求。指揮官不經常參與規劃時間表,以確保他們的工作人員執行兵棋推演。旅級工作人員也在當前行動、未來行動和計劃單元之間糾結。因此,規劃的范圍變得模糊不清,參謀們四處奔波,把兵棋推演留給了一個骨干團隊。參謀部的軍士們沒有參與到兵棋推演中,但他們是寶貴的資產,應該接受培訓并融入到這個過程中。在分析COA時,參謀軍士在尋找現場分歧方面有很多貢獻。

問題在于培訓和教育單位的工作人員,使他們成為高性能的團隊。實戰中的共識是,從CGSC畢業的戰地級軍官了解MDMP的學術步驟,包括COA分析(兵棋推演)。然而,建立任何團隊的困境是整合個人成員,使他們了解他們在團隊中的位置和方式,以及他們如何為共同目標做出貢獻。例如,M240機槍手個人了解如何用他的M240裝彈、清理、照顧和攻擊目標。然而,他不知道這種武器是如何在小隊中被使用以支持整體任務和目的的。機槍手必須了解他的班長是如何思考和行動的,火力小組是如何行動的,以及SOP和戰斗演習是什么,這樣他就知道什么時候應該解除或轉移火力等。只有在學習了SOP和戰斗演習后,并在多次實戰問題中進行練習,先不使用實彈,然后使用實彈,他才會成為團隊中不可或缺的一員。

這對參謀部來說也是一樣的。像任何單位一樣,參謀部必須對其成員進行單獨和集體的培訓和教育,"......幫助指揮官了解情況,作出決定,并將這些決定同步納入一個全面發展的計劃或命令......在COA開發和COA比較期間,參謀部提供建議,支持指揮官選擇COA "。

除了培訓之外,還有重復或練習的成分,這有助于將工作人員磨練成一個高績效的團隊。觀察表明,由于時間的關系,COA分析往往是匆忙的,或者根本沒有做。就像 "實踐出真知 "這句格言一樣,一個經常演練MDMP并不斷優化他們計劃和發出命令條件的工作人員,將更有可能滿足大規模作戰行動的高操作節奏。COA分析類似于任何集體技能,如果不進行持續的訓練和演練,是容易消亡的。因此,本手冊的目的是提供關于如何發展個人和工作人員的想法,以便他們能夠在MDMP期間更好地進行COA分析。

本手冊包括提供額外信息的補充資源,以協助教育和培訓工作人員。

付費5元查看完整內容

目的

1.《兵棋推演手冊》的目的是為兵棋推演提供背景和指導。它的設計主要是為了介紹這個主題;它不是一本詳細的手冊或從業人員的技術指南。

內涵

2.最近的作戰挑戰促使人們重新關注兵棋推演在國防決策和創新中可以發揮的作用。世界各國都在進行兵棋推演,并對自己的兵棋推演能力進行投資。《兵棋推演手冊》旨在解釋兵棋推演對各級國防部門的重要性。

范圍

3.《兵棋推演手冊》描述了如何利用兵棋推演來探討國家戰略、戰略、作戰和戰術層面以及所有領域和環境中的問題。它討論了如何將兵棋推演應用于教育和培訓、規劃和行政決策。

受眾

4.《兵棋推演手冊》面向所有國防人員,特別是將兵棋推演作為其職責一部分的人員、兵棋推演發起人以及負責設計和執行兵棋推演的人員。次要受眾是其他政府部門、相關非政府組織和私營部門的成員,國防人員可能會與他們合作。

結構

5.《兵棋推演手冊》由四章和兩個附件組成。

  • 第1章--介紹兵棋推演,簡要介紹了兵棋推演的歷史,并解釋了其效用和關鍵術語及定義。

  • 第2章--兵棋推演的基本原理,介紹了有效兵棋推演的準則以及關鍵人員的作用和責任。

  • 第3章--兵棋推演的類型、變體和背景討論了兵棋推演的不同變體以及如何分類。

  • 第4章--兵棋推演過程描述了提供兵棋推演所需的步驟,從設計到執行再到總結經驗。

  • 附件A包含了最近的案例研究,說明兵棋推演是如何被應用于國防問題的。

  • 附件B提供了建議的進一步閱讀和與兵棋推演有關的機構的鏈接。

付費5元查看完整內容

  • 本研究由美國陸軍研究實驗室贊助,根據合作協議號W911NF-21-2-0227完成。

?在日益復雜的軍事行動環境中,下一代兵棋推演平臺可以減少風險,降低作戰成本,并改善整體結果。基于具有多模態交互和可視化能力軟件平臺的新型人工智能(AI)兵棋推演方法,對于提供滿足當前和新興戰爭現實所需的決策靈活性和適應性至關重要。我們強調了未來作戰人-機器交互的三個發展領域:由人工智能引導的決策指導,高計算力下的決策過程,以及決策空間的真實呈現。這些領域的進展將使有效的人機協作決策得以發展,以滿足當今戰斗空間日益增長的規模和復雜性。

關鍵詞:決策、交互、兵棋推演、人工智能、增強/混合現實、可視化

1 引言

在傳統的兵棋推演中,指揮官利用一個共同的基于地圖的作戰地形,并在軍事決策過程(MDMP,方框1)中模擬各種因素的組合如何產生行動方案(COA)、可能的反擊行動、資源使用估計和預測結果(美國陸軍,1997年,2014年,2015年)。在幾天或幾周的時間里,MDMP過程導致了一套精煉的COAs,它對作戰環境做出了一定的假設,包括地形、天氣以及戰區資產的可用性和能力(即塑造支持主要作戰行動的活動)。

方框1. 軍事決策過程(MDMP)
MDMP是美國陸軍解決問題的理論方法,從接到任務開始,到生成作戰命令結束。MDMP被用作一種工具,幫助指揮人員審查眾多的友軍和敵軍的作戰行動。MDMP的7個步驟在規劃新任務、擴展行動和執行訓練演習所需的決策過程中灌輸徹底、清晰、合理的判斷、邏輯和專業知識(美陸軍,1997年,2015年)。
指揮官在接到任務后啟動了MDMP。在MDMP的第1步中,所有的工作人員和關鍵的任務參與者都被告知任務和待定的規劃要求,包括進行MDMP的可用時間量。確定進行任務分析所需的工具,并收集與任務和作戰區有關的文件。步驟2,執行任務分析,建立對任務的全面理解,包括關鍵的事實和假設,形成擬議的任務說明和任務分析簡報,為制定COA做準備。
MDMP的第3至第6步著重于制定COA以進行分析和比較。這些步驟包括:第3步,制定COA;第4步,COA分析(兵棋推演);第5步,COA比較;第6步,COA批準。COA是對一個已確定的問題的潛在解決方案。每個COA都要使用篩選標準來檢查其有效性,如在既定的時間框架、空間和資源限制內完成任務。COA的選擇過程通常涉及到兵棋推演,它試圖在考慮到友軍力量和敵人能力的情況下,將行動的順序流程可視化,同時考慮到行動區域內平民的影響和要求(美陸軍,2014)。戰術模擬(兵棋推演)方法的好處是突出了作戰行動的優勢和劣勢。這往往是一個反復的過程,對作戰行動方案進行評估,然后根據需要進行修改,直到出現一個或多個具有最高成功概率的作戰行動方案來完成任務目標。
在一個具體的行動方案得到指揮部的批準后,MDMP的最后一步是制作行動指令,這是一份給下屬和鄰近單位的指令,旨在協調所有參與任務的組織的活動。這一步驟涉及到所有受命令傳播影響的組織之間的積極合作,并建立起對局勢的共同理解。

盡管MDMP幫助指揮官了解作戰環境和考慮作戰方法,但這個過程有很多局限性,如時間密集、假設僵化、跨場景訓練的機會有限,以及將人工智能(AI)指導納入決策過程的機會很少。傳統上,一項任務的成功與指揮部執行MDMP的能力直接相關。然而,鑒于當今多域作戰(MDO)的復雜性增加(Feickert,2021年),有大量的任務指揮系統和流程,與行動相關的所有活動的整合和同步變得越來越困難,甚至到了人為無法完成的地步。由于MDMP的缺陷而導致的規劃專業知識的缺乏,可能會導致不同步和不協調的行動,從而最終導致士兵的生命損失。

MDMP中沒有具體描述戰斗空間的可視化能力,但它顯然在決策過程中發揮著重要作用。最近,集成了先進可視化能力的新系統和新技術已經被開發出來,它們可以提高態勢感知,從而增強決策過程。美陸軍的例子包括Nett Warrior(Gilmore,2015),它使下馬戰士能夠直觀地看到附近的友軍和敵軍,同時根據當地的地形協同規劃戰術任務。盡管這項技術將無線電和數字地圖擴展到了下馬戰士,但它缺乏一個底層的人工智能引擎來提供決策幫助。戰斗空間可視化和交互平臺(BVI,前身為增強現實沙盤,ARES)是陸軍技術的另一個例子,它能夠為任務規劃提供分布式協作,具有從任意視角和廣泛選擇設備的共同作戰畫面的二維和三維可視化能力(Su等人,2021)。BVI架構的制定是為了拉入外部計算服務,如分析管道、模型和人工智能引擎。美陸軍研究實驗室正在努力將這些類型的服務納入BVI,包括用于加強決策支持的人工智能。

目前,MDMP并沒有將人工智能指導納入整體任務規劃方法中。美陸軍的自動規劃框架(APF)(Bailey,2017)開始通過將自主技術插入MDMP工作流程來解決人工智能輔助決策問題。指揮人員可以通過APF的數字規劃呈現、規劃創建和規劃監控工具,在任務規劃和COA開發期間獲得背景援助。任務執行和估計能力通過監測任務的規劃和實際進展,為改進決策跟蹤和支持活動提供自動協助。盡管APF為MDMP引入了基本的自動化水平,但它缺乏Nett Warrior和BVI所提供的先進的可視化和用戶互動能力。

提供地面部隊自動化和用戶可視化能力的是美陸軍最知名的兵棋推演平臺--半自動化部隊(OneSAF),為計算機生成的地面部隊提供建模和模擬能力(PEO_STRI, 2022)。OneSAF提供了半自動和全自動的軍事實體(即士兵、坦克、直升機和綜合單位)的建模,在類似真實世界的戰斗空間中以不同的保真度來支持特定的應用和場景。OneSAF主要用于訓練,并與目前的任務指揮系統具有互操作性。它可以使用多分辨率的地形和詳細的實體相關數據庫來模擬廣泛的作戰環境。然而,OneSAF對地形和實體系統的高保真建模的優勢使得它的設置和運行成本很高。它受到老化系統的限制,而且眾所周知,士兵需要大量的培訓來學習如何操作模擬,使用起來很困難(Ballanco,2019)。OneSAF的復雜功能并不適合開發人工智能能力,以實現快速和敏捷的戰士-機器決策。

除了MDMP和上面提到的陸軍平臺外,最近將人工智能納入決策過程的工作包括一些方法(Goecks等人,2021a),在模擬人類決策過程方面取得了一些成功。一般來說,人工智能在決策變量有限的問題上取得了一些成功,如資源分配(Surdu等人,1999)、飛行模擬器(Drubin,2020)和更簡單的場景。正在進行的挑戰包括需要提高人工智能的能力,以解決有多個行為者、不完整和可能沖突的信息、不斷變化的單位行動和環境屬性的復雜決策,以及需要將這些決策的后果在許多空間和時間尺度和領域內可視化。

以下各節描述了對MDMP的潛在改進。"未來軍事決策過程所需的進步"一節概述了支持MDO決策的三個研究領域,并以圖表形式描述了這些研究領域與軍事理論決策方法之間的關系。"未來軍事決策過程所需的進步 "一節中的小節對每個研究領域進行了更深入的討論。"展望推進人-人工智能團隊決策的交互技術 "一節概述了未來的作戰人員-機器接口(WMI)的發展方向,重點是與決策有關的人-人工智能團隊的跨學科研究。

2 未來軍事決策過程所需的進步

軍事決策過程在支持MDO復雜決策方面的局限性,突出了在三個研究領域的改進需要。首先,有必要將人工智能產生的指導和輔助決策支持納入MDMP。這既包括進一步開發和整合人工智能到戰斗空間決策規劃,也包括進一步改善人工智能決策過程的可解釋性和透明度(Chen等人,2018)。第二,有必要在戰略層面以及戰術邊緣,盡可能地將決策分析與高性能計算(HPC)的力量結合起來。這將能夠利用HPC系統的力量來支持建模、分析和計算時間,同時整合和同步來自所有戰區領域的信息。最后,有必要利用先進的可視化技術,如混合現實技術,對決策空間進行更準確和互動表述。不是簡單地在一個固定的時間尺度上顯示地形的二維渲染,而是需要可視化不同領域的決策是如何相互作用的,并利用混合現實技術來提高理解的吞吐量,并產生平面顯示不可能的洞察力。

除了MDMP之外,其他更廣泛適用的支持戰斗性問題解決的軍事理論包括:DOTMLPF[例如,學說、組織、訓練、物資、領導、人員和設施;(美陸軍,2018年)],這是一個確定差距并為當前和未來作戰要求提出設計解決方案的框架;以及METT-TC[例如,任務、敵人、地形和天氣、部隊、可用時間和民事考慮;(美陸軍,2019年)],這是一個結構化框架,用于捕捉任務相關因素的狀態,以便在軍事行動期間進行共享評估。這些理論定義了MDO戰場的信息背景,構成了應用于上述三個研究領域的軍事決策的核心基礎。如圖1所示,在為人類和人工智能指揮開發復雜軍事決策空間的新表述時,研究進展和MDO相關理論相互借鑒、相互啟發、相互加強(美陸軍,2010)。

圖1. 新型作戰人員-機器交互(WMIs)和人工智能輔助決策所需的三個研究發展領域,以支持和加強基本的MDO理論[右下圖來源:Lebsack(2021)]。

2.1 人工智能導向的決策指導

需要新的人工智能支持的WMI,以利用人工智能決策方面正在取得的進展,并為復雜的適應性決策的人工智能學習作出貢獻。在簡化的戰斗空間中測試人工智能決策輔助工具是開發過程中重要的第一步,也是將人工智能納入更成熟的戰斗空間平臺(即BVI、OneSAF)的前奏。開發用于決策輔助實驗的人工智能測試平臺可以在MDO中產生能力越來越強的潛在COA建議。圖2顯示了陸軍開發的兩個人工智能測試平臺的例子。

圖2. 兩個ARL人工智能測試平臺的例子。左邊:ARL Battlespace(Hare等人,2021)( //github.com/USArmyResearchLab/ARL_Battlespace )。右邊:ARL的Simple Yeho測試平臺。圖片由C. Hung制作。

人工智能測試平臺能夠開發出匯集所有領域信息的AI,并計算出人類和AI智能體的風險和預期回報。圖2的左側顯示了ARL戰斗空間測試平臺(Hare等人,2021年),它是從頭開始開發復雜決策的新型人工智能的理想場所。它對戰斗空間的抽象強調了軍隊相關場景下的核心推理原則,在這種情況下,用蜜罐進行網絡欺騙。較小的網格空間使人工智能的學習和發展能夠集中在不確定性下的復雜推理,有多個友好和敵對的agent。圖2的右側顯示了ARL的Simple Yeho測試平臺,它提供了將人工智能開發與更多真實世界場景中的默契推理結合起來的能力,有多個基于地形的海拔高度、視線范圍、障礙物、樹葉(隱蔽)、道路和城市區域。紅色陰影和黑色線條表示任務的起點和終點、左右邊界以及人工智能建議的路線。這種額外的真實性使其能夠與MDO理論相結合,包括DOTMLPF和METT-TC,并使人工智能與自然的、機會主義的士兵行為共同發展。這兩個人工智能測試平臺都可以擴展為傳統和沉浸式混合現實WMI開發平臺。

使用漸進式和可擴展的人工智能測試平臺,可以調查現有人工智能的幾個基本限制,特別是對于具有不確定性的復雜和適應性決策,以及人類和AI智能體的協作和對抗。對多智能體的協作和對抗性決策進行建模可能特別復雜,因為其遞歸性質,其他智能體是模型的一部分(Goldman,1973;Grüning和Krueger,2021),需要對決策特征、個性化的價值、風險規避、記憶和注意力進行動態和不斷發展的估計。這些具有高度不確定性、復雜性和動態性的情況是人類擅長的領域,適當設計的交互界面和人工智能測試平臺的人機協作可以提供加速和更有效的決策。對于有效的團隊合作,新穎的WMI應該幫助作戰人員篩選復雜的信息,并幫助人工智能發現決策的隱含規則。下面,我們提供了關于人機協作如何有效的案例。

多域兵棋推演中需要的復雜決策是開發有效人工智能決策輔助工具的直接挑戰。最近人工智能在圍棋、國際象棋、Minecraft和大富翁等游戲中的成功(Silver等人,2017;Goecks等人,2021b;Haliem等人,2021)是基于對世界現有狀態有完整了解的游戲(即 "開放 "游戲),而兵棋推演平臺通常包括關于作戰環境的不完整(如星際爭霸)、不確定或欺騙性信息(Vinyals等人,2019)。不確定性也可能來自變化的物理學或其他環境規則,正如在《憤怒的小鳥》中所探索的那樣(Gamage等人,2021)。由于世界狀態、不同行動者的狀態以及所采取的行動不確定性,知識的缺乏使得人工智能agent難以計算未來行動的風險回報情況(Cassenti和Kaplan,2021)。不確定性也限制了人工智能估計其他行為者的風險回報概況的能力,而這是計算有效的博弈論策略所需要的。人工智能被可能的最優和近似最優選擇的廣度所淹沒(Lavine,2019),即由于信息有限而選擇錯誤的選項,這種情況并不罕見,因為人類在制定有效探索隱藏信息的策略時,采用啟發式方法進行有效的選擇和預測(Gardner,2019)。為了幫助發展人工智能的隱性知識和探索能力,新型的WMI需要有效地解釋和展示決策景觀,以使作戰人員能夠快速和自然地瀏覽可能的選擇,同時使人工智能能夠在不施加認知負擔的情況下從人類的決策中機會主義地學習(Lance等人,2020)。這種機會主義學習可以包括:例如,凝視跟蹤,以捕捉吸引人類興趣和意圖的視覺區域和未標記的目標。它們還可以包括建立在自然的士兵選擇行為基礎上的行動者批評方法,以改善人工智能對人類專家在不確定、不完全信息和欺騙的情況下如何優先考慮某些選擇的學習,這取決于任務相關的背景。

開發人工智能的WMI的另一個基本挑戰是如何有效地整合和顯示MDO中所有五個領域的信息,特別是空間和網絡,因為這些領域的信息具有不同的時空尺度(Gil等人,2018)。對于網絡,決策的規模和速度可能比人類處理和理解的能力更快,需要人類的輸入來指導半自動化的決策,以及實施進攻和防御性欺騙策略的人工智能。WMI需要能夠以這樣的方式顯示決策圖景,即可以解釋一小部分最優和接近最優的決策策略(例如,圖3中的決策樹)。這應該包括對關鍵agent在不確定情況下的未來狀態和風險回報情況的估計(Hare等人,2020),以使有效的博弈論決策能夠被共同開發和相互理解。

圖3. 在頂部,是BVI網絡戰術規劃器應用程序中友軍與敵軍戰爭場景的三維視圖。三維視圖提供了一個比二維視圖更真實的決策視角,例如,顯示友軍(藍色)和敵軍(紅色)機載預警系統(AEWs)和周圍地形的海拔。這使得快速審查可能的視線和相對于周圍地形的感應。下面是人工智能的導航決策樹,為人工智能計算的幾個關鍵選擇的風險/回報概況以及它們如何映射到地形上提供透明度。這種抽象的決策空間還可以整合非空間決策,例如網絡欺騙。虛線表示與友方AEW的通信聯系和對敵方AEW的可能干擾。圖片由C. Hung制作。

這些挑戰為有效的WMIs設計提供了參考。也就是說,我們需要有能力從不同的來源(包括從其他國家的決策輔助工具)提取信息,以及一個能夠承載整合這些信息的計算能力的架構,同時還要處理基礎的人工智能計算(用于學習和部署)。我們還需要共同開發一個界面和算法設計,以適時地利用人類和人工智能agent的優勢并減少其局限性。

2.2 高計算能力下的決策過程

在復雜的決策過程中,需要大量的計算能力來處理和記錄所有組件、實體和狀態空間。從積累的動態狀態空間的數據集中建立過去、現在和預測模型,需要利用HPC資源來產生分析性的見解,并在決策背景下創建有用的表述。

實施HPC分析工作流程的一種方法是使用持久性服務框架(PSF)。PSF是一個最近可用的分布式虛擬化解決方案,它可以通過一個基于網絡的前端實現對HPC服務的非傳統訪問,而不像傳統的HPC環境,計算節點在特定的時間段內以批處理模式分配給用戶。此外,PSF提供對數據、數據庫、容器化工具集和其他托管平臺的分布式連續訪問(Su等人,2021)。

在一個PSF方法的例子中,一個模擬引擎連接到PSF,用于記錄人類和人工智能做出的所有決定。這允許分析在任務規劃和COA開發過程中發生的決策行為,以及識別決策模式和戰略,以開發競爭性和現實的兵棋推演場景。一個戰斗空間可視化平臺可以托管在PSF上,并使用消息傳遞協議來更新所有連接的設備接口。來自模擬引擎的狀態信息可用于生成戰斗空間和參與作戰單位的圖形表示。

使用PSF方法并利用HPC資源,可以實施人工智能輔助決策機制,利用大數據攝取和分析,同時可供地理分布的用戶用于協作決策工作和 "永遠在線 "的個性化培訓和紅色團隊。連接到PSF托管服務器的各種混合現實顯示模式可以支持一系列作戰場景,從戰略層面的指揮和控制到作戰邊緣的更多移動戰術使用。

2.3 決策空間的真實呈現

用圖形表示各級行動的軍事決策戰略需要新的可視化方法,這些方法可以應用于以規則變化、認知狀態、不確定性以及個人偏見和啟發式方法為特征的動態環境(Dennison等人,2020;Hung等人,2020;Raglin等人,2020)。戰斗空間的視覺表現應該在技術上盡可能準確和逼真,但又保持在人類可以理解和解釋的認知水平(Kase等人,2020;Larkin等人,2020;Hung等人,2021)。融合了混合現實技術的先進可視化方法有可能更好地表現多領域戰爭的變化特征及其不斷變化的威脅和動態環境。隨著最近混合現實可視化設備的技術進步,成本降低,硬件的可靠性和實用性顯著提高,混合二維和三維可視化方法現在已經成為可能。

由多個二維顯示器組成的混合現實方法增強了更先進的三維可視化能力,可以為指揮人員提供理解復雜的兵棋推演狀態空間所需的洞察力(Su等人,2021)。當需要一個共享的戰斗空間表示時,可以通過在不同的可視化模式上實現多個協調的視圖來實現協作的戰略規劃模式,以根據分布式指揮人員的輸入進行互動更新。

BVI(Garneau等人,2018)平臺表示地理空間地形信息和地圖圖像,允許指揮人員建立和修改戰術任務規劃和COA。作為一個數據服務器,BVI將地形和作戰數據分發給支持多種可視化模式的客戶端應用程序,包括頭戴式顯示器設備、基于網絡的界面、移動安卓平板設備和混合現實設備(例如,HoloLens 2、Oculus Quest)。

例如,圖3(頂部)顯示了位于加利福尼亞州圣貝納迪諾縣歐文堡國家訓練中心的高分辨率地形上的友軍與敵軍的兵棋推演場景(Wikipedia, 2021)。與MDMP期間經常使用的傳統2D地圖顯示相比,戰斗空間的3D視圖可以從多個觀察角度提供更豐富的用戶體驗。三維視圖,在BVI的網絡戰術計劃器(WTP)中,將地形和人工特征的空間信息以及由MIL-STD 2525C符號描繪的單位位置可視化(美國防部,2014)。可以想象,地理空間視角,如BVI提供的視角,支持決策者對動態戰斗空間環境的理解。與可導航的人工智能增強的決策空間(圖3,底部)搭配,組合的視角可以使人們更好地理解視覺空間依賴性、影響和因果關系、估計的風險和價值、不確定性以及復雜決策的欺騙性。將這種以地理空間和決策為中心的視角與人工智能相結合,可以提供必要的廣度,以協調物理行動與網絡和其他非空間領域的行動,跨越多個時間尺度,并具有快速適應變化的任務目標的靈活性。

3 人-人工智能團隊決策的交互技術展望

人工智能和人-人工智能團隊的快速發展需要WMI同步發展。隨著新型人工智能對有價值的COA產生更好的預測,并能更好地處理復雜的決策,它們也必須利用人類的專業知識,學習如何處理具有高度不確定性、欺騙、隱性知識和博弈論的決策。相反,人工智能的推理必須既抽象又能與兵棋推演環境相聯系,以實現透明和信任,同時又不造成過度的認知負擔。基于三維混合現實的WMI可以利用和增強人類固有的三維認知和預測能力(Welchman等人,2005;Kamitani和Tong,2006;Kim等人,2014;Boyce等人,2019;Krokos等人,2019),如果設計得當,其交互將感覺自然,同時擴大顯示多個領域的信息的能力,同時使AI能夠適時地從用戶的決策中學習。

我們強調了三個關鍵的發展領域,即人工智能引導的決策指導,支持這種指導的計算基礎設施,以及決策透明度的混合現實表現的發展。這些領域的進步需要跨越許多不同學科的專業知識。新的人工智能發展需要融合神經科學、心理學和數學的思想,以克服復雜決策中長期存在的問題的瓶頸。這包括跨時間尺度的學習和變化環境下的災難性遺忘,以及更具體的兵棋推演問題,如具有不確定性、欺騙和博弈論的多Agent決策。計算基礎設施也需要發展,因為計算能力和數據框架對于在戰術邊緣產生人-人工智能團隊的共同操作圖來說都是必不可少的。為了有效地開發,應該通過一個共同的框架來抽象出專有的限制和軟件的依賴性,并為使用和故障排除提供清晰的文檔,以使學術界、政府和工業界更好地專注于解決人與人工智能的合作問題。這個通用框架應該包括有效的信息傳遞,同時提供靈活性和適應性,以滿足人工智能開發和人類用戶在訓練和實際使用環境中的需求。最后,交互技術的開發本身需要跨學科的協同專業技術。一個基礎性的問題是如何壓縮信息使之被用戶有效地理解,以及如何最好地利用用戶的互動來進行機會主義學習。人類的大腦并不處理所有的感官信息,而是對世界進行預測和假設,以便在信息不完整的環境下節約計算。一個有效的WMI應該同時預測潛在的決策結果以及個人用戶的期望和假設。此外,人工智能決策輔助工具必須估計用戶的默契,使其能夠提供最相關的信息和最有希望的選擇,這些信息來自整個作戰領域。

結論

信息作戰和指揮與控制(C2)是美國陸軍可以向盟友和伙伴提供的兩種能力。在未來的作戰環境中,不僅要為動能作戰做準備,而且要為混合作戰和以信息為重點的戰爭做準備。這需要在復雜和默契推理的人工智能能力方面取得進展,在能夠提供持續訓練、分布式混合決策和大數據分析系統方面取得進展,以及在人與人工智能協作決策和機會主義學習方面取得進展,以實現人工智能的持續進步和人與人工智能的共同適應。這些進展中的每一項都需要跨學科的計劃性努力,以克服復雜的技術挑戰,創造新的決策原則、理論和理論方法,包括持續開發綜合測試平臺和技術,以實現政府、學術界和工業界的合作和協同發展。

付費5元查看完整內容

【標 題】

Wargaming in Professional Military Education: Challenges and Solutions

職業軍事教育中的兵棋推演:挑戰與解決方案

【作 者】

美國海軍陸戰隊埃里克·沃爾特斯(Eric M. Walters)上校(退役)

【摘 要】

鑒于強調在專業軍事教育中使用兵棋推演,學校、作戰部隊和支持機構的教官——尤其是那些本身沒有經驗的兵棋推演者——如何去做呢?本文解釋了在經驗豐富專家的幫助下,為選定、修改或內部設計的嚴格兵棋式推演制定理想的學習成果的必要性。總結了最近的相關學術成果,它提供了促進協作對話的基本術語和概念,并就這種動態和沉浸式教學方法的常見但可避免的陷阱提供了建議。

【正 文】

對于那些認為兵棋推演不僅僅是一種娛樂消遣的人來說,商業兵棋推演曾經是——而且可以說仍然是——一種小眾愛好。在 20 世紀和 21 世紀初的歷史中,只有相對較小比例的軍人和學者經常進行所謂的嚴格式兵棋推演。過去,這一想法受到制度性的抵制,在職業軍事教育(PME)中使用一些人認為是兒童游戲的東西;雖然最近這種恥辱感有所減輕,但對于外行來說,兵棋推演的學習障礙仍然很高。兵棋推演可能很難學習,甚至更難戰勝有能力的對手。然而,我們已經到了 2021 年,軍事兵棋推演似乎正在 PME 學校、作戰部隊甚至支持機構中復活。海軍陸戰隊司令大衛 H. 伯杰將軍在他的指揮官規劃指南中,強調了在 PME 中練習軍事決策的必要性,這是教育兵棋推演的主要目的。但一個事實仍然存在。對于那些有興趣使用和設計兵棋推演來教授軍事判斷力的人來說,這種教學方法似乎很難有效實施。學術界的成功案例涉及作戰部隊中已經是兵棋推演者的教授、教官和海軍陸戰隊領導人。不是兵棋推演者但教軍事決策的人如何弄清楚要使用什么兵棋推演?如何使用它?各種可用游戲的優點和局限性是什么?整合兵棋推演和課程有哪些挑戰,如何克服這些挑戰?本文旨在幫助那些不熟悉兵棋推演的人定位,并就在教授決策中的軍事判斷時使用它們的經過驗證的最佳實踐提供建議。

提 綱

1 教育者如何使用游戲來教學生?
1.1 了解戰術、作戰和戰略中力量、空間和時間之間的關系
?1.2 在兵棋推演中模擬現實“決策環境”以解決決策困境
?1.3 在兵棋推演環境中體驗摩擦、不確定性、流動性、無序和復雜性的交互動力學
1.4 鍛煉創造性和批判性思維:準備、參與和分析兵棋推演活動

2 哪種類型的兵棋推演最適合學習目標?
?2.1 角色扮演游戲 (RPG)
? ?2.2 研討會矩陣游戲
2.3 系統游戲
?2.4 紙牌游戲

3 哪種情況最適合使用——歷史情景還是假設情景?

4 兵棋推演教學——挑戰與解決方案
?4.1 克服設計偏見
?4.2 時間和復雜性的挑戰
?4.3 對教師要求的考慮
?4.4 兵棋推演支持單位教育和凝聚力

付費5元查看完整內容
北京阿比特科技有限公司