在本文中,我們討論了如何將人工智能(AI)用于政治-軍事建模、仿真和兵棋推演,針對與擁有大規模殺傷性武器和其他高端能力(包括太空、網絡空間和遠程精確武器)國家之間的沖突。人工智能應該幫助兵棋推演的參與者和仿真中的智能體,理解對手在不確定性和錯誤印象中行動的可能視角、感知和計算。人工智能應該認識到升級導致無贏家的災難的風險,也應該認識到產生有意義的贏家和輸家的結果可能性。我們將討論使用幾種類型的AI功能對建模、仿真和兵棋的設計和開發的影響。 我們在使用或沒有使用AI的情況下,根據理論和使用仿真、歷史和早期兵棋推演的探索工作,討論了基于兵棋推演的決策輔助。
在本文中,我們認為(1)建模、仿真和兵棋推演(MSG)是相關的調查方法,應該一起使用;(2)人工智能(AI)可以為每個方法做出貢獻;(3)兵棋推演中的AI應該由建模和仿真(M&S)提供信息,而M&S的AI應該由兵棋推演提供信息。我們概述了一種方法,為簡潔起見,重點是涉及擁有大規模毀滅性武器(WMD)和其他高端武器的國家的政治-軍事MSG。第2節提供了我們對MSG和分析如何相互聯系的看法。第3節通過討論20世紀80年代的系統來說明這一點是可行的。第4節指出今天的挑戰和機遇。第5節簡述了結構的各個方面。第6節強調了在開發人工智能模型和決策輔助工具方面的一些挑戰。第7節得出了結論。在本文中,我們用 "模型"來涵蓋從簡單的數學公式或邏輯表到復雜的計算模型的范圍;我們用"兵棋"來包括從小型的研討會練習(例如Day-After練習)到大型的多天、多團隊的兵棋推演。
MSG可以用于廣泛的功能,如表1所示。每種功能都可以由每個MSG元素來解決,盡管相對簡單的人類活動,如研討會兵棋和Day-After練習已被證明對后兩個主題具有獨特的價值。
通常形式的M&S和兵棋推演有不同的優勢和劣勢,如表2前三欄中的定型。M&S被認為是定量的、嚴格的和 "權威的",但由于未能反映人的因素而受到嚴重的限制。M&S的批評者走得更遠,認為M&S的 "嚴格 "轉化為產生的結果可能是精確的,但卻是錯誤的。在他們看來,兵棋推演糾正了M&S的缺點。M&S的倡導者則有不同的看法。
我們確實認識到并長期批評了正常建模的缺點。我們也從兵棋推演中受益匪淺,部分是通過與赫爾曼-卡恩(P.B.)、蘭德公司和安德魯-馬歇爾的長期合作,但兵棋推演的質量從浪費時間甚至起反作用到成為豐富的洞察力來源。雖然這種見解在沒有后續研究的情況下是不可信的,但來自建模的見解也是如此。
我們本文的一個論點是,這種刻板印象不一定是正確的,我們的愿望(不加掩飾的崇高)應該是表的最后一欄--"擁有一切",將建模、仿真和推演整合在一起。圖1顯示了一個相應的愿景。
這種理想化的活動隨著時間的推移,從研究、兵棋推演、軍事和外交經驗、人類歷史、人類學等方面開始(第1項),匯集關于某個領域(例如印度-太平洋地區的國際安全問題)的知識。這就是對棋盤、行動者、潛在戰略和規則書的定性。
兩項工作的進行是不同步的。如圖1的上半部分,兵棋推演在進行中,為某種目的而結構化。無論圖中的其他部分是否成功執行,這都可能獨立發生。同時,M&S以游戲結構化模擬的形式進行。隨著時間的推移,從M&S和兵棋推演中獲得的經驗被吸收,使用人工智能從M&S實驗中挖掘數據(第4項),以便為后續周期完善理論和數據(第5項)。在任何時候,根據問題定制的MSG都會解決現實世界的問題(第7項)。如同在淺灰色的氣泡中,人類團隊的決策輔助工具(項目6a)和智能體的啟發式規則(項目6b)被生成和更新。有些是直接構建的,但其他的是從分析實驗和兵棋推演中提煉出來的知識。有些智能體直接加入了人工智能,有些是間接的,有些則根本沒有。圖1鼓勵MSG活動之間的協調,盡管這種協調有時可能是非正式的,可能只是偶爾發生。
圖1的意圖可以在一個單一的組織中完成(例如,敏感的政府內工作)和/或在智囊團、實驗室、私營企業、學術界和政府中更開放的持續努力計劃中完成,就像圖2中的DARPA研究稱為社會行為建模實驗室(SBML)。在任何一種情況下,這種方法都會鼓勵多樣性、辯論和競爭。它也會鼓勵使用社區模塊來組成專門的MSG組件。這與專注于一個或幾個得天獨厚的單一模型形成鮮明對比。直截了當地說,這個愿景是革命性的。
圖1的愿景的一個靈感是20世紀80年代的蘭德公司戰略評估系統(RSAS)(附錄1指出了文件)。為了回應美國防部關于更好地利用兵棋推演進行戰略分析的要求,由卡爾-鮑爾領導的蘭德公司團隊提出了自動化兵棋推演,它將利用那個時代的人工智能、專家系統,但它將允許可互換的人工智能模型和人類團隊。這導致了一個多年的項目,我們中的一個人(P.K.D.)在1981年加入蘭德公司后領導這個項目。
該項目從深入設計開始,保留了可互換團隊和人工智能智能體的開創性想法,但也包括一個靈活的全球軍事模型;與人工智能有關的新概念,如替代的紅方和藍方智能體,每個都有彼此的模型;代表其他各方的綠方智能體,有簡單的參數化規則子模型;紅方和藍方智能體在做決定前做 "前瞻 "的能力;以及 "分析性戰爭計劃"--代表軍事指揮官的自適應插槽式腳本人工智能模型。該設計還預計:多情景分析,納入 "軟因素",如定性的戰斗力,以及人工智能模型的解釋能力。圖3勾勒出高級RSAS架構。整個80年代都在實施。蘭德公司將RSAS用于國防部的研究,例如,歐洲的常規平衡和常規軍備控制的建議,并將其出口到各政府機構和戰爭學院。聯合參謀部收到了RSAS,但事實證明連續性是不切實際的,因為一旦有適當才能的官員學會使用它,他們就會被提升到其他任務。
盡管RSAS在技術上取得了成功,但它在某些方面還是領先于時代。一方面,其創新的全球作戰模型被廣泛接受并用于分析和聯合兵棋推演。它成為聯合綜合作戰模型(JICM),在過去的30年中不斷發展,現在仍在使用。另一方面,RSAS的人工智能部分除了用于演示外,很少在蘭德公司之外使用。大多數指導RSAS工作的政府辦公室對政治層面的問題沒有興趣,如危機決策、戰爭路徑或升級。少數人有興趣,這導致了蘭德公司的研究,但在大多數情況下,他們的需求可以通過相對簡單的兵棋推演來解決,包括事后演習(Roger Molander,Peter Wilson)。此外,完整的RSAS是昂貴、復雜和苛刻的。更為普遍的是,隨著蘇聯的解體,美國防部對兵棋推演的興趣驟然下降。
幸運的是,事實證明有可能實現 "去粗取精":用人工智能智能體進行類似RSAS的模擬,可以通過非常簡單的模型和游戲獲得一些重要的見解,正如最近未發表的用對手的替代形象進行核戰爭的工作中所說明的。
RSAS在某種程度上納入了表2最后一欄的大部分想法,所以它顯示了可行性。也就是說,它可以作為某種存在的證明。然而,那是在冷戰時期,采用1980年代的技術。今天能做什么?
今天的國際安全挑戰遠遠超出了冷戰時期的范圍。它們呼喚著新的兵棋推演和新的M&S。新的挑戰包括以下內容。
現在的世界有多個決策中心,他們的行動是相互依賴的。從概念上講,這將我們置于n人博弈論的世界中。不幸的是,盡管諸如公地悲劇和食客困境等現象可以用n人博弈論的語言來描述,而且平均場理論有時也可以作為一種近似的方法來使用,但似乎n人博弈的復雜的解決方案概念還沒有被證明是非常有用的。由于種種原因,這種解決方案并沒有被廣泛采用。商學院的戰略課程很少使用這些技術,國防部的智囊團也很少將這些技術納入他們的M&S中。可能是現實世界的多極化太過復雜,難以建模,盡管在戰略穩定方面已經做出了一些努力。就像物理學中的三體問題一樣,n方系統的行為甚至可能是混亂的。我們還注意到,隨機混合策略在n人博弈中通常發揮的作用很小。同樣,在計算其他玩家的行動時,可能有很多內在的復雜性,以至于隨機化產生的一層額外的不確定性對我們理解未來的危機動態沒有什么貢獻。
與1980年代相比,有更多的國家擁有大規模殺傷性武器(即印度、巴基斯坦、朝鮮),甚至更多的國家擁有大規模破壞性武器。網絡作為一種戰略武器的加入,使問題進一步復雜化。在這里,人工智能可能有助于理解事件。作為一個例子,假設一支核力量受到攻擊,使其用于電子控制的電力系統癱瘓(由于分散和防御,這可能并不容易)。一支導彈部隊只能在短時間內依靠備用電力系統執行任務。大國肯定意識到自己和對手的這種脆弱性。在商業電力領域,人工智能對于在電力中斷后向需求節點快速重新分配電力資源變得非常重要,例如2021年發生在德克薩斯州的全州范圍內的冰凍溫度。
武器裝備的變化擴大了高端危機和沖突的維度,如遠程精確打擊和新形式的網絡戰、信息戰和太空戰。這意味著卡恩很久以前提出的44級升級階梯現在必須被更復雜的東西所取代,正如后面6.3節中所討論的。
一個推論被低估了,那就是現在的世界比以前更加成熟,可以進行有限的高端戰爭--盡管更熱衷于威懾理論的人有相反的斷言--其中可能存在有意義的贏家和輸家。在考慮俄羅斯入侵波羅的海國家、朝鮮入侵韓國等可能性時,這一點變得很明顯。出現的一些問題包括俄羅斯對 "升級-降級 "戰略(北約冷戰戰略的俄羅斯版本)的依賴,以及網絡戰爭和攻擊空間系統的前景。因此,觀察到更多國家部署跨洋范圍的精確打擊武器也是麻煩的。即使是曠日持久的“有限”戰略戰爭現在也可能發生,盡管如第6.3節所討論的那樣,升級很容易發生。
今天的美國安全伙伴有著不同的重要利益和看法。北約在整個冷戰期間表現出的非凡的團結,在現代危機或沖突中可能無法重現。在亞太地區,朝鮮和韓國、中國、日本、臺灣、印度和巴基斯坦之間的矛盾關系是危機中困難的預兆。所有這些國家都有通過使用太空、網絡空間或區域范圍內的精確武器進行升級的選擇。
這里的總體問題是,聯盟仍然非常重要,但今天的聯盟可能與冷戰時期緊繃的街區不同。我們可能正在進入一個類似于20世紀初的多極化階段。第一次世界大戰爆發的一個因素是,柏林認為倫敦不會與法國一起發動戰爭,在歐洲阻擊德國。這導致人們相信,戰爭將類似于1871年的普法戰爭--有限、短暫,而且沒有特別的破壞性。甚至法國在1914年8月之前也不確定英國是否會加入戰爭。這種對自己的盟友會做什么的計算,對穩定至關重要。這里的不確定性確實是一個具有巨大意義的戰略問題。
在考慮現代分析性兵棋推演的前景時,新的技術機會比比皆是。下面的章節列出了一些。
基于智能體的建模(ABM)已經取得了很大的進展,對生成性建模尤其重要,它提供了對現象如何展開的因果關系的理解。這種生成性建模是現代科學的革命性發展。與早期專家系統的智能體不同,今天的智能體在本質上通常是追求目標或提高地位的,這可能使它們更具有適應性。
當然,更普遍的人工智能研究比ABM要廣泛得多。它提供了無限的可能性,正如現代文本中所描述的那樣。我們在本文中沒有多加討論,但是在考慮M&S的未來,以及兵棋推演的決策輔助工具時,最好能有長篇大論的章節來論述有時被確認的每一種人工智能類型,即反應式機器、有限記憶的機器、有限自動機、有自己的思維理論的機器,以及有自我意識的機器。這在這里是不可能的,這一限制也許會被后來的作者所彌補。
聯網現在是現代生活的一個核心特征,人與人之間、組織與組織之間都有全球聯系。數據是無處不在的。這方面的一個方面是分布式兵棋推演和練習。另一個方面是在線游戲,甚至到了大規模并行娛樂游戲的程度,對這些游戲的研究可能產生國家安全方面的見解。這類游戲并不"嚴肅",但在其中觀察到的行為可能暗示了在更多的學術研究中無法認識到的可能性和傾向性。
現在,建立獨立有用的模型(即模塊)并根據手頭問題的需要組成更復雜的結構是有意義的。這種組合與國防部歷史上對標準化的大型綜合單體模型的偏愛形成鮮明對比。在不確定因素和分歧普遍存在的情況下,這種標準化的吸引力要小得多,比如在更高層次的M&S或兵棋推演中。模塊化設計允許帶著對被建模的東西的不同概念。這可以打開思路,這對預見性是很有用的,就像避免驚訝或準備適應一樣。也有可能將替代模型與數據進行常規比較,部分用于圖2中建議的常規更新。另外,模塊化開發有利于為一個特定的問題插入專業性,這是2000年中期國防部研討會上建模人員和分析人員社區推薦的方法。
今天,AI一詞通常被用來指機器學習(ML),這只是AI的一個版本。ML已經有了很大的進步,ML模型通常可以準確地擬合過去的數據,并找到其他未被認識到的關系。一篇評論描述了進展,但也指出了局限性--提出了有理論依據的ML版本,在面向未來的工作中會更加有效,并強調了所謂的對抗性人工智能,包括擊敗對手的深度學習算法的戰術。
規劃的概念和技術取得了根本性的進展,在深度不確定性下的決策(DMDU)的標題下討論。這從 "優化 "最佳估計假設的努力,轉向預期在廣泛的可能未來,也就是在許多不確定的假設中表現良好的戰略。在過去,解決不確定性問題往往是癱瘓的,而今天則不需要這樣。這些見解和方法在國防規劃和社會政策分析中有著悠久的歷史,應該被納入人工智能和決策輔助工具中。
設計"永遠在線"的系統,并不斷提高智能。從技術上講,大多數國防部的MSG都是人工智能界所謂的"轉型"。該模型或游戲有一個起點;它運行后會報告贏家和輸家。可以進行多次運行,并將結果匯總,以捕捉復雜動態中固有的差異。較新的人工智能模型的設計是不同的,它所模擬的系統是 "永遠在線的"。這被稱為反應式編程,與轉化式編程不同。這些系統永遠不會停止,并且不只是將輸入數據轉化為輸出數據。例子包括電梯系統和計算機操作系統。國防方面的例子包括網絡預警系統,導彈預警系統,或作戰中心。這些都不會"關閉"。防御系統正變得更加反應靈敏,所以必須用模型來表示它們。這一點在1980年代RSAS的更高級別的紅方和藍方智能體的設計中已經預見到了,它們會在事件發生后'醒來',并對局勢和選項進行新的評估,而不是繼續按照腳本行事。
在轉換型模型中,環境中的事件可能會觸發程序按順序采取某種行動。反應式模型則不同。程序在環境中同時做出改變。他們一起改變,或幾乎一起改變。國防工作的一個有趣的例子涉及自主武器。人類和機器決策之間的界限已經模糊了,因為在一個反應式系統中人和機器之間的互動可能是連續和交織的。反應式系統是美國、中國和俄羅斯國防投資的一個主旨。無人機群和網絡預警系統將如何在M&S和兵棋推演中得到體現?除非表述恰當,否則相關人工智能模型在模擬中的價值可能會適得其反。
然而,這僅僅是個開始。隨著機器擁有更好的記憶和利用它們所學到的東西,以及它們納入世界理論,包括對手的思想理論,人工智能將如何變化?一個令人擔憂的問題是,正如Yuna Wong及其同事所討論的那樣,對人工智能的更多使用將增加快速升級的前景。這方面的風險對于專注于最大化某些相對量化措施,而不是更多的絕對結果及其定性評價的人工智能來說尤其高。以冷戰時期的經驗為例,執著于誰會在全球核戰爭中以較高的核武器交換后比率 "贏得"的分析是危險的。幸運的是,決策者們明白,結果將是災難性的,沒有真正的勝利者。即使是1983年電影《兵棋》中的計算機約書亞也明智地得出結論:"核戰爭。一個奇怪的游戲。唯一的勝利之舉就是不玩。來一盤漂亮的國際象棋如何?無論約書亞體現的是什么人工智能,它都不只是關于如何通過數字贏得一場娛樂游戲的ML。
為現代分析性兵棋推演開發一個完整的架構超出了本文的范圍,但建議一些方向是可能的。圖4勾勒了一個頂層架構,表3則更詳細地提出了各種特征。圖4認識到,在考慮許多可能的危機和沖突時,需要深入關注至少三個主要的行為者,以解決當前時代的危機和沖突。一個例子可能是朝鮮、韓國、美國和中國。圖4還要求對軍事模擬采取模塊化方法。
如表3所示,1980年代RSAS的一些特征可能會延續到現代化的版本。然而,許多其他特征應該有很大不同。我們認為表3是討論的開端,而不是終點。
由于在我們的討論中,為大規模的場景生成、探索性分析和不確定性下的決策做準備是很突出的,因此需要強調兩個重要問題:
只有當模擬在結構上是有效的(即只有當模型本身是有效的),不同參數值的探索性分析才是有用的。
從探索性分析中得出的結論可能會有問題,當所研究的案例(情景)的可能性不一樣,它們的概率是相關的,但沒有很好的基礎來分配概率分布。
1、模型驗證
正如其他地方所討論的,模型的有效性和數據的有效性應該分別對描述、解釋、后預測、探索和預測進行定性。另外,必須根據特定的問題和背景來判斷它們。參數化方法有很長的路要走,但模型的不確定性常常被忽視,需要更多的關注,正如最近的一篇文章中所討論的那樣。攜帶目標和價值非常不同的對手模型只是這樣做的一個例子。
關于在不知道案件的相對概率的情況下如何使用探索性分析這個令人困擾的問題,我們建議探索性分析至少在表4中說明的目的上很可能有價值,這些目的都不需要概率。對于每一個例子,探索的目的是找到可能性(如脆弱性或機會),促使采取措施來防止它們,預測它們,或準備相關的適應措施。如果存在一個關鍵的漏洞,就應該修復它,無論它被利用的概率 "看起來 "是低還是高(如果它的概率被知道是很小的,那將是另外一回事)。
本節討論了在思考建模和兵棋推演的人工智能和決策輔助工具時出現的一些問題。首先討論了決策輔助功能。接下來討論了在設想使用人工智能的ML版本來利用大規模場景生成時的一個挑戰。最后一節討論了開發 "認知人工智能 "和相關決策輔助工具所涉及的基本挑戰之一。
如果我們根據我們所看到的對玩家的重要性,而不是對人工智能提供者的興奮點來詢問決策輔助工具的主要功能,那么一些關鍵的功能就會如表5所示。
從科幻小說中,我們可能期望現代游戲的決策輔助工具是高度計算機化的,并由人工智能以相對個性化的形式提供信息,就像艾薩克-阿西莫夫的機器人或電影《2001》中不那么邪惡的計算機哈爾9000。然而,作者迄今為止的經驗是,在游戲中 "幫助 "人類的努力往往被證明是適得其反的,阻礙了本質上人類的自由討論。事實上,這些努力有時會因為分散注意力而使玩家生氣。考慮到這一點,我們分別討論了實用的短期決策輔助工具和更具推測性的長期目標。
表6提供了我們對第一欄所示的簡單決策輔助工具的價值的主觀估計,從低到高。這些都不涉及人工智能。相反,最有價值的輔助工具是具有簡潔的檢查表、信息表或圖表的簡單視圖。評估區分了不同類型的游戲或演習,也區分了玩家之前是否接受過決策輔助工具訓練的游戲。這些評價是在蘭德公司與韓國國防分析研究所合作進行的一些兵棋推演實驗后制定的。
關于簡單決策輔助工具的另一個數據點是蘭德公司同事開發的(但尚未出版)的 "奇怪的游戲"。這是一個關于核使用的高效兵棋推演,玩家代表一個戰區指揮官,通過選擇適當的卡片來進行游戲。該游戲建立了決策輔助工具,包括目標類別和評估選擇何種目標的簡單線性算術。
作為近期決策輔助工具的最后一個例子,最近的一個原型研究采用了一種低技術的方法來進行人類演習,考慮如何在危機和沖突中影響對手。該方法涉及一種定性的方法,即不確定性敏感認知模型(UCM),如圖5所概述。這些機制都是定性的,通過真實或虛擬的白板和互動軟件進行展示和討論。它們包括因素樹、表示有限理性的Red替代模型、影響圖以及戰略明顯優缺點的表格比較。沒有一個涉及人工智能。很明顯,人工智能甚至不會有幫助。也許這是一個重要的洞察力,也許這反映了想象力的不足。現在讓我們來看看長期的情況。
從長遠來看,可能會有更多的東西,我們應該從科幻小說、電子娛樂游戲、甚至主要電視網絡對新出現的選舉結果的實時討論中尋找靈感。僅僅舉例說明在不遠的將來可能出現的功能,在每一個功能中,人工智能系統都會對查詢作出反應。
一個團隊口頭命令對 "成功之路 "進行探索性分析,包括是否有某一盟友的堅定合作。
一個小組詢問,鑒于最近發生的事件,對手的哪些替代模型仍然是可信的。人工智能報告反映了依賴于主觀可能性函數的貝葉斯式分析,這些函數已被更新以反映最近的歷史。
一個考慮有限升級的團隊詢問了潛在的反應。人工智能幫助器顯示了在以前的兵棋推演中觀察到的反應,玩家被認為很好地代表了實際的決策人。它還確定了在模擬中反應不好的條件(在下一節中討論),從而強調了條件的哪些方面需要特別注意以避免災難。
這些猜測是最低限度的,只是為了激發人們對人工智能如何在決策輔助方面發揮作用的更多創造性思維。這個領域是開放的,從某些類型的人工智能的名稱中可以看出,從反應型機器到具有有限記憶、內置心智理論和自我意識的機器,這個領域是開放的,甚至更加明顯。一些主要人物,如珀爾和麥肯錫,自信地預計后者將包括意識本身。然而,那是未來的事了。佩爾將目前的機器人描述為 "像鼻涕蟲一樣有意識"。也就是說,蜂群武器很快就會像鳥群、魚群和昆蟲一樣有 "意識"。
讓我們接下來談談涉及人工智能與M&S的一些棘手問題。它們涉及到哪些人工智能決策輔助工具是可行的。
如前所述,機器學習類人工智能(AI/ML)有可能通過挖掘大規模場景生成的結果來尋找洞察力。然而,成功取決于(1)模擬的質量和(2)用于搜索結果的方法。
大量場景生成的成果可能是有用的,也可能是反作用的,這取決于基礎模型是否足夠豐富,結構上是否符合探索的目的。在研究可能的高端危機時,如果基礎模型假設了完美的理性、認知、聯盟關系,并專注于例如核武器的交換后比率作為結果的衡量標準,那么一百萬種情景的數據庫有什么用呢?對于軍事技術目的,如部隊規劃,可能有價值,但對于威懾或預測實際沖突中的問題,甚至是嚴肅的精英兵棋推演,可能沒有價值。
模型建立者所面臨的挑戰的某些方面是眾所周知的,如認識到對決策者(性格、人格、健康)的替代概念的需要,認識到錯誤認知的可能性,以及允許卡尼曼和特沃斯基的前景理論和其他心理現象所描述的那種非理性決策。應對這些挑戰,至少可以說是困難重重,但至少挑戰是被認可的。
相比之下,軍事模擬和社會行為模擬的一個骯臟的小秘密是,工作場所的模型通常不會產生黑天鵝事件、不連續現象或各種突發現象,而這些現象是研究復雜適應性系統的核心要素,在現實世界和一些大型游戲中都會出現,比如20世紀50年代的 "精英 "高級冷戰兵棋推演。原因有很多,但通常是由于模型是 "腳本化的",而不是基于智能體的,或者--即使它們確實有智能體--沒有給智能體足夠的多樣性、自由度和激勵來產生現實的適應性行為,以及不允許有長尾分布的隨機性。在這些問題上做得更好,對社會行為模擬來說是一個巨大的挑戰,特別是對那些打算與現實兵棋推演相聯系的模擬來說。一些成分包含在復雜的兵棋推演中,因此人們可以觀察到,例如,聯盟的解體和新集團的建立,在團隊看來,這更符合他們的國家利益。今天的模擬通常不允許這樣做。從推測上看,我們認為至少有兩條路可以做得更好。如果可以預見感興趣的突發現象(比如上面的聯盟問題),那么就可以建立適當的對象,模擬可能會識別出何時引導它們出現或消失。但是,最重要的突發現象(包括一些在兵棋推演中出現的現象)可能無法被預期。盡管我們并不聲稱知道什么是必要的,但我們從過去的復雜性研究的經驗中觀察到,突發現象的產生往往是因為復雜的自下而上的互動、多樣性和隨機事件。然而,傳統的高層政治軍事模擬并不具備這些特征。它們的價值在很大程度上是由于它們代表了更高層次的實體和過程,大致與系統動力學的模型相類似。我們的結論是,在前進的過程中,重要的是開發多分辨率的模型系列和將它們相互聯系的方法。例如,一個更高分辨率的基于智能體的模型可能有適應性的智能體,用于所有卷入危機或沖突的國家。仿真實驗可能會發現(就像人類游戲一樣)上面提到的那種突發行為,例如聯盟的偶爾解散、側翼切換和新的便利聯盟的出現。這將是''洞察力'',然后可以導致在更高層次的模型中添加新的智能體,根據模擬中的情況激活或停用的智能體。然而,這將需要類似于最近一本關于社會行為建模的書中所討論的 "自我感知的模擬",特別是伊爾馬茲的那一章,他設想的計算可以監測自己的狀態,并在必要時改變自己的結構,還有一章是作者之間關于出現的辯論。
如果模擬足夠豐富,那么有意義的大規模場景生成是可能的。但然后呢?對模擬數據進行探索性分析的一個核心挑戰是了解如何評估不同情況的相對重要性。一種方法是分配主觀的概率分布,但哪里能找到能夠可靠地估計概率的專家,而不在前面加上諸如 "嗯,如果明天像過去一樣 "的評論。現實上,專家并不是預測或概率的好來源,Tetlock及其同事已經深入討論過了。
一種變通的方法是報告結果的頻率(以百分比計算),例如,好或壞。這可以通過全因子設計或使用蒙特卡洛抽樣來完成。不幸的是,存在著滑向討論"可能性"而不是百分比的趨勢,即使案例的可能性不一樣。另外,在MSG的背景下,這種類型的展示掩蓋了這樣一個現實,即行為者不斷尋找他們將獲得重大優勢的情景空間的模糊 "角落"。因此,在模擬中不經常觀察到的情況可能正是發展中的情況。
我們建議的方法是避開明確的概率分配,而是 "尋找問題"或 "尋找成功"。也就是說,當探索性分析產生的大量數據時,人們可能會尋求找到結果非常好、非常壞或其他的條件。這在關于穩健決策(RDM)和DMDU的文獻中被稱為情景發現。
更進一步,我們敦促人工智能以 "聚合片段"的形式得到提示,其動機來自理論、簡單模型和主題領域的專業知識。一個例子可能是 "沖突開始時的準備狀態"。對于戰略預警時間、戰術預警時間、領導層特征、先前的軍事準備狀態和動員率的巨大不同組合,其數值可能是相同的。也就是說,這個變量是許多微觀初始狀態的集合。另一個例子(假設有合適的智能體)可能是危機發生時的心理狀態,其值包括偏執狂、冷靜和理性以及自信的攻擊性。
鑒于足夠豐富的模擬和理論為人工智能在探索性分析中提供了提示,我們懷疑人工智能可以在識別 "完美風暴 "的情況等活動中完成大量工作--不是為了預測它們,而是為了注意要避免的條件,就像在簡單的兵棋推演中以低技術方式完成的那樣。
另一個ML應用可以從關于對手行動的大規模情報收集中為兵棋推演和M&S創建算法,例如那些潛艇或地面移動導彈。曾經需要幾個月或幾年的時間來收集和分析的東西,現在可能在很短的時間內就能得到,產生可用于兵棋推演或M&S的操作程序的算法。作為一個類比,考慮獲得關于駕駛安全的洞察力。今天最深刻的洞察力來自保險公司(Progressive, GEICO),它基于可下載的軟件,跟蹤個人操作者:他們的速度,左轉的數量,加速模式,等等。這些數據可以與信用評分和其他數據整合。其結果可以是個性化的保險費率。這樣的數據分析已經是今天的現實。應該有類似的軍事和MSG影響。當然,有一些必然是分類的,對于本文的政治軍事重點來說,其意義不如MSG的其他應用。
上面的討論集中在ML式的人工智能上,但所需要的豐富的模擬必須有智能體以更像人類的方式進行推理,這種東西可以被描述為認知型人工智能。在這一點上,決策邏輯使用的因素和推理與人類喜歡相信的東西相似,是他們實際行為的基礎。
1980年代RSAS的紅方和藍方智能體是早期的例子。他們利用廣泛接受的升級階梯結構來描述核危機和沖突中的情況、選擇和決策選擇。
今天,我們需要新一代的更高層次的決策模型,但不存在升級階梯的替代品。也許也不會找到替代品。當從兩方博弈到甚至三方博弈時,復雜性大大增加。一個替代的概念必然會更加復雜--更像是一個n維網格而不是一個階梯--因為升級可能不僅涉及核武器及其目標的數量,還涉及與網絡戰爭、太空戰爭和精確射擊的戰略使用有關的數量、強度和目標。
圖6簡單說明了這一概念,結合了幾個維度,以便人為地顯示只有三個維度的結果。它顯示了一個說明性的情景,開始是一場溫和的常規戰爭(第1項),但隨后依次過渡到嚴重的網絡攻擊(第2項),更廣泛地使用精確制導導彈(PGMs)(第3項),有限的核使用(如箭頭所示的核升級)(第4項),甚至更具破壞性的使用PGMs(如針對大壩和發電廠)。 例如,針對水壩和電網)(第5項),也許大規模殺傷性武器的水平略有提高(也許只是為了以牙還牙),以及全面核戰爭(第6項)。然而,今天,對于某種特定的攻擊會出現在某一軸線上,以及行為者是否會有相同的評估,并沒有共同的理解。不僅"客觀"的答案充其量是短暫的,認知很可能取決于路徑,取決于國家,并受到隨機影響。規劃的一個核心問題是核武近鄰國家之間的長期非核戰爭是否可信。由于常規戰爭和核戰爭的指揮和控制系統的糾纏,這些問題變得更加麻煩。似乎預測模型,無論是否基于人工智能,都不在考慮之列,盡管產生值得擔心的合理情況的模型應該在考慮之列。
對于那些尋求建立認知型人工智能模型以代表危機中的國家決策者的人來說,可能還會列出更多的挑戰,但我們希望我們的例子能吸引眼球。
本文的主要建議是推薦一個研究議程,將建模、模擬、游戲和分析視為相關的和相互交織的。在這樣一個綜合的觀點中,兵棋推演的人工智能將通過使用模型的分析來了解,這些模型包括包含了部分由兵棋推演提供的人工智能智能體。例如,這將導致具有類似于兵棋推演決策助手的人工智能智能體,以及更復雜的算法。它將導致基于兵棋推演的決策輔助工具,它將類似于將有理論依據的ML應用于由探索性分析產生的 "數據",這些探索性分析來自于利用決策智能體形式的AI的M&S。
關于人工智能本身,我們對今天的ML中常見的一些做法提出警告。我們注意到缺乏關于未來危機和沖突的可靠的信息性經驗數據。此外,我們強調,在決策輔助工具和模型中使用的智能體中,都需要解釋。這表明我們更傾向于由認知模型構成的人工智能,即使ML被用來填充和調整該結構。
最后,我們敦促對兵棋推演(包括小規模的活動,如事后演習)和模型所提出的問題要非常謹慎。模型、模擬、游戲和分析仍然是不完美的,有時甚至是明顯不完美的,但我們有可能很好地利用它們來解決許多問題,也就是說,提高決策的質量。預測可能性有很大的潛力;可靠的預測則沒有。
軍隊為訓練、規劃和研究目的進行兵棋推演。人工智能(AI)可以通過降低成本、加快決策過程和提供新的見解來改善軍事兵棋推演。以前的研究人員根據強化學習(RL)在其他人類競技游戲中的成功應用,探討了將強化學習(RL)用于兵棋推演。雖然以前的研究已經證明RL智能體可以產生戰斗行為,但這些實驗僅限于小規模的兵棋推演。本論文研究了擴展分層強化學習(HRL)的可行性和可接受性,以支持將人工智能融入大型軍事兵棋推演。此外,本論文還通過探索智能體導致兵棋推演失敗的方式,研究了用智能體取代敵對勢力時可能出現的復雜情況。在越來越復雜的兵棋推演中,對訓練封建多智能體層次結構(FMH)和標準RL智能體所需的資源以及它們的有效性進行了比較。雖然FMH未能證明大型兵棋推演所需的性能,但它為未來的HRL研究提供了啟示。最后,美國防部提出了核查、驗證和認證程序,作為一種方法來確保未來應用于兵棋推演的任何人工智能應用都是合適的。
兵棋推演是成功軍隊的寶貴訓練、規劃和研究工具。自然,美國(U.S.)國防部(DOD)計劃將人工智能(AI)納入兵棋推演。將人工智能融入兵棋推演的一種方式是用智能體取代人類玩家;能夠展示戰斗行為的算法。本論文研究了用智能體取代人類兵棋推演操作員的可行性、可接受性和適宜性。為此,本章解釋了為什么兵棋推演對成功的軍隊至關重要。
軍隊進行兵棋推演是為了回答關于戰爭的關鍵問題,這些問題必須在實際沖突發生之前被理解。兵棋推演是利用對立的力量模擬實際的戰斗,并由人類的決策來決定[1]。雖然有廣泛的不同類型的兵棋推演,但它們都有一個共同的目標:"獲得有效和有用的知識" [2]。這種劃分很重要,因為兵棋推演的不同目的會導致玩家和游戲控制者的行為不同。圖1顯示了兵棋推演從訓練到分析到實驗的廣泛范圍。
1.訓練用的兵棋推演
最直接的兵棋推演類型是用于訓練的兵棋推演。大型參謀部使用建設性的模擬(數字兵棋推演)來鍛煉他們的參謀過程,并驗證他們的軍事準備。小型參謀部使用虛擬模擬器來訓練他們的戰斗演習和船員演習。軍隊進行這些兵棋推演是為了了解戰爭和鍛煉決策能力[3]。所有隊員的行動和決策一般都要符合已知的條令和戰術、技術和程序(TTP)。對于大型的參謀部演習,對手可能會突破TTP的界限來挑戰參謀部(例如,表現得更有侵略性,但仍然依賴相同的TTP)。
2.用于分析的兵棋推演
兵棋推演可用于分析,即 "確定在部隊對抗中會發生什么"[3]。這些是大多數軍事人員所熟悉的兵棋推演類型:作為行動方案(COA)分析的一部分而進行的兵棋推演。這些類型的兵棋推演允許對戰爭計劃、部隊結構或理論進行評估。在這些戰役中,雙方都要采用已知的理論和TTP,但 "在這些戰役中,創新精神可以自由發揮"[4]。
3.實驗性的兵棋推演
在譜的另一端是實驗性兵棋推演。在這些戰役中,雙方都可以使用新的力量、武器和/或戰術來探索潛在的未來戰爭[5]。歸根結底,組織進行實驗性兵棋推演是為了產生 "關于戰爭問題性質的知識"[2]。美國軍方在演習中整合了這些類型的兵棋推演,如美國陸軍未來司令部的聚合項目和聯合作戰人員評估。
4.兵棋推演的好處
盡管兵棋推演既不是預測性的,也不是對現實的完全復制,但它們確實提供了一些沒有實戰就無法獲得的東西:對戰爭中決策的洞察力。當為訓練而進行戰爭演習時,組織正在學習良好的決策是什么樣子的(包括過程和最終結果)。當為分析而進行戰爭演習時,計劃者正在評估他們在計劃期間做出的決定,以及在執行期間需要做出的潛在決定。
這些好處足以讓美國防部副部長羅伯特-沃克在2015年發布了一份備忘錄,呼吁在整個美國防部重新努力開展兵棋推演[6]。沃克副部長認為,兵棋推演有利于創新、風險管理和專業軍事教育。沃克認為,最終,兵棋推演將推動美國防部的規劃、計劃、預算和執行過程,這是告知國防部資源分配的方法。美國和它的西方盟友并不是唯一相信兵棋推演好處的軍隊。中國正在為兵棋推演投入大量資源,包括將人工智能融入兵棋推演[7]。
人工智能提供了一個機會,通過降低成本、加快決策過程和提供新的見解來改善軍事兵棋推演。為兵棋推演中的許多角色雇用人類操作員是昂貴的。組織必須給自己的人員分配任務(使他們脫離正常的職能)或支付外部支持。這種成本可以通過將人工智能整合到兵棋推演中而消除。兵棋推演分析的速度只能和人類操作者一樣快。用智能體代替操作員可以加快兵棋推演的速度,并允許多個兵棋推演同時發生,從而實現更廣泛的分析。最后,智能體因其在游戲中的創造性而受到關注[8]。創造性的智能體可以通過探索人類戰爭者可能沒有考慮的可能性,使戰爭計劃、部隊編隊或戰術得到更好的分析。
美國國內的國家安全組織認識到將人工智能融入兵棋推演的潛力。人工智能國家安全委員會在其最終報告中主張立即將人工智能能力整合到兵棋推演中,以確保美國及其盟友保持與同行的競爭力[9]。美國陸軍未來的模擬訓練系統--合成訓練環境(STE)設想整合人工智能來監測和調整訓練場景的難度[10]。美國陸軍研究實驗室有許多項目在調查人工智能與軍事指揮和控制系統的整合。具體來說,他們正在探索使用人工智能的一個子領域,即強化學習(RL)來進行連續規劃,以開發 "藍色部隊的新計劃"[11]。連續規劃將需要一個能夠評估其計劃的智能體,可能通過兵棋推演。
基于其他RL智能體在人類競技游戲中的成功,如《星際爭霸II》[12]、《古人防御》(DotA)[13]和圍棋[14],多名研究人員正在研究用于戰爭游戲的RL智能體。像《星際爭霸II》和DotA這樣的實時戰略(RTS)游戲最能代表兵棋推演。與兵棋推演類似,RTS游戲需要在有限的信息環境中進行長期的目標規劃和短期的戰術決策。以前的研究表明,RL智能體可以在兵棋推演中復制理想的戰斗行為[5], [11]。根據Kania和McCaslin的說法,谷歌的AlphaGo成功擊敗了世界上最好的圍棋大師,證明了人工智能可以應用于兵棋推演[7]。
雖然以前的研究已經證明RL智能體可以產生戰斗行為,但實驗僅限于小型交戰。研究人員只要求RL智能體控制三到五個下屬單位。強化學習智能體將需要成功擴展,以滿足涉及幾百個單位的大型兵棋推演的規模要求。
問題是,隨著兵棋推演中單位數量和類型的增加,信息量和可能的動作數量變得難以解決。Newton等人提出可擴展性是一組目標:速度、收斂和性能,同時保持在一組約束條件下:隨著項目規模的增加,成本、計算能力和時間[15] 。分層組織是擴展的一種方法。本論文將研究分層強化學習(HRL)的可擴展性。換句話說,任何可行的、可接受的人工智能集成到戰爭游戲中,隨著戰爭游戲中單位數量的增加,必須仍然顯示出理想的戰斗行為。
除了將人工智能整合到軍事兵棋推演中的可行性和可接受性之外,這種整合還需要是合適的。開發和執行一個失敗的兵棋推演是有可能的,因為從中得出的知識是無效的或沒有用的。Weuve等人[16]解釋了可能導致兵棋推演失敗的不同途徑,他們稱之為兵棋推演病癥。以取代人類操作者為目的的智能體的設計和實施,需要防止兵棋推演的病態,從而確保有效的結果。
這導致了以下的研究問題。HRL是否允許智能體在不損失性能的情況下增加合作單位的數量和有效性?什么框架可以確保智能體的設計和應用正確,以滿足兵棋推演的目的?
本論文延續了[17]和[18]對Atlatl戰斗環境中RL的調查。Atlatl是一個離散的、基于六邊形的兵棋推演,模擬陸地作戰行動。最初的研究使用一個簡單的多層感知器[17]成功地在RL智能體中產生了戰斗行為。隨后的研究使用卷積神經網絡(CNN)架構在復雜的地形和動態的對手中研究RL智能體[18]。
雖然有廣泛的HRL方法,但本研究的重點是封建多智能體層次結構(FMH)。在FMH中,一個單一的R智能體(即經理),將任務分配給一系列被稱為工人的下級RL智能體[19]。本論文比較了在Atlatl中越來越大的場景中采用基于規則的智能體、單一RL智能體和FMH所需的資源和有效性。
兵棋推演是由玩家和裁判員組成的[1]。友軍單位的玩家被稱為藍軍,他們的對手被稱為紅軍,任何一個玩家之外的平民或軍事單位被稱為綠軍。雖然有可能通過使用所有玩家和裁判員的智能體來實現兵棋推演的完全自動化,但本論文只評估了對單個玩家的替換。
本論文還研究了用智能體替換對方部隊(OPFOR)即紅色部隊時可能出現的復雜情況。討論了具體的兵棋推演病癥,并提出了緩解這些病癥的方法。美國防部的驗證、核實和認證(VV&A)框架被應用于通過RL對OPFOR的建模。
本論文發現,當FMH智能體以分布式方式進行訓練時,FMH智能體未能比單一RL智能體表現得更好。當經理和工人在同一環境中訓練時,FMH智能體的學習能力有所提高。然而,工人的不一致行動使經理無法制定最佳策略。此外,FMH的訓練要求超過了單個RL智能體的要求,這抑制了FMH擴展到大型軍事兵棋推演的能力。最后,本論文發現,將人工智能整合到軍事兵棋推演中的方法適合于像美國防部的VV&A框架那樣的過程。否則,基于模型的去太原的病癥會使兵棋推演的目標失效,并對美軍產生負面影響。
本論文通過進一步研究在建設性模擬中采用完全自主的智能體,對美國政府有直接好處。完全自主的兵棋推演智能體,能夠在多個層次上運作,需要支持兵棋推演的全部范圍。這很容易延伸到軍事規劃期間的決策支持工具,協助規劃者快速評估不同的COA。此外,探索在兵棋推演中使用智能體的適宜性將促進兵棋推演界采用人工智能。
本文是挪威國防大學學院更廣泛的研究和開發項目的一部分,該項目旨在探索各種兵棋推演和軍事演習的效用和潛力。這篇文章旨在激發對兵棋的使用和問題進行討論,并激發產生新的和更好的建議。因此,本文包含意見和學術思考。本文討論了兵棋推演、其多種不同類型、它們的實際用途,以及在使用兵棋以產生有用結果時出現的一些危險或陷阱。本文的目的是促進辯論,而不是給出任何明確的結論。
"兵棋推演"這個詞對不同的人意味著許多不同的含義。在某些情況下,存在著截然不同的解釋,從與軍事決策過程(MDMP;見CALL,2015)中的特定階段有關的極其狹窄的定義,到記者和大部分公眾傾向于將戰爭之外的所有軍事努力,包括現場訓練和計算機模擬,視為兵棋推演。這個詞有許多不同的使用方式,并帶有許多情感成見,這取決于相關人員的經歷。問題的一部分在于"'兵棋推演'沒有單一的、普遍接受的定義"(英國國防部,2020)。
即使是那些在專業基礎上參與兵棋推演的人,也很難接受現有的眾多定義,這些定義在定性技術和對更多分析性產出的定量要求之間可能有所不同。對于是否應該包括計算機模擬,或者 "兵棋推演"是否僅指人工技術,也存在分歧。有些人甚至不認可寫成 "war gaming"或"wargaming"。
與許多軍官一樣,我不關心學術定義的細枝末節,而更關心與我所承擔的任務有關的特定技術的有效性。我認為,任何 "兵棋推演"的定義都只能與兵棋推演所支持的具體任務和目的相關,而不是任何全面的概括。我還認為,試圖給"兵棋推演"下一個萬能的定義,不僅是徒勞的,而且實際上對更廣泛地采用這種技術來解決國防需求是有害的。因此,針對本文目的,我將以最廣泛的定義來使用 "兵棋推演",包括所有涉及人類決策者的教育、培訓和分析目的,但不包括實際戰斗。
兵棋推演是一種決策技術,它提供了結構化的、但在智力上是自由的、可以避免失敗的環境,以幫助探索什么是有效的(勝利/成功),什么是無效的(損失/失敗),通常成本比較低。兵棋推演是一個對抗性挑戰和創造性的過程,以結構化的形式提供,通常有裁判或裁決。兵棋推演是由玩家決策驅動的動態事件。除了敵對的行動者,它們還應該包括所有抵制計劃的 "反對 "因素。兵棋推演的核心是:
玩家。
他們做出的決策。
他們創造的敘事。
他們的共同經歷;以及
他們所獲得的教訓"。(英國國防部, 2020)
兵棋推演涵蓋了廣泛的方法和技術,旨在優化其與目標相關的產出,從那些旨在利用想象力、創造力和原創思維的方法和技術,到那些旨在支持軍事決策過程的方法和技術,以及那些旨在產生定量數據以支持采購和部隊開發的方法和技術。
由于這是一篇以實踐為導向的文章,關注的是兵棋推演在現實生活中的實際應用,以支持特定的任務和目的,因此也許值得花一些時間來闡述我自己作為一個兵棋玩家的實踐以及我過去在軍隊中舉辦訓練活動的經驗。我是1979年在桑德赫斯特皇家軍事學院開始接觸兵棋推演的,當時是在帕迪-格里菲斯(已故)的指導下,他是一位軍事歷史學家、兵棋家和多產的軍事歷史和戰術作者。在接下來的幾年里,我參與并幫助組織了許多大規模的兵棋推演活動,這些活動都是利用桑赫斯特的設施,由帕迪-格里菲斯和其他人負責。
有幾個不同的,往往是重疊的,你可能希望進行兵棋推演的原因。根據30年的經驗,我提供了一個主要原因的簡短清單,如下:
了解系統能力。
有效地了解態勢。
教育。
訓練。
當前部隊戰略或戰術。
未來部隊發展(包括作為采購過程的一部分)。
軍事決策過程的一部分。
了解團隊。
預測可能的未來。
了解系統能力。
2015年,我應邀在中國長沙的國防科技大學講授仿真和建模。作為一系列講座的一部分,我被邀請向軍校學生演示一個簡單的 "自由兵棋(free-kriegsspiel)"(一種很少或沒有書面規則的兵棋,裁決是基于一個高級裁判的經驗,而不是復雜的規則和程序)。這是在大學體育館進行的,由模擬學生充當裁判員(之前接受過技術培訓),同時進行25場10人的同一游戲。
我觀察到,中國學生傾向于尋找 "答案",而不是探索學習或自己思考,所以當一個學生質疑為什么有人會進行兵棋推演時,我選擇指導他們玩游戲,然后告訴我他們認為游戲的目的是什么。
在比賽中,關于戰術的討論非常少(以至于一個玩家在得知有炮火支援時,建議連續轟炸敵人的陣地,直到敵人死亡)。大部分的問題和討論都與武器的能力和效果有關。有人向我提問,如 "某個武器系統的有效射程是多少?",我回答說,作為解放軍的軍官,他們應該知道這些信息。這導致了許多討論、信息共享和對軍事手冊的研究。會議結束時,學生們一致認為,與死記硬背相比,這是一種非常高效和有效的信息教學方式。大多數人還同意,這顯然是進行這樣一個兵棋推演的主要原因。我并不反對。
與上述見解相聯系的是,約翰-康普頓博士3在2018年的 "連接美國 "專業兵棋推演會議上討論說,兵棋推演是向參與者介紹軍事態勢的一種極其高效和有效的方式。這是因為信息的呈現方式與它所處的環境直接相關,而且,由于它通常是通過發現學習的過程獲得的,所以它往往更容易在解決問題時發揮作用(Alfieri等人,2011)。這與我在英國常設聯合部隊總部工作時,在俄羅斯吞并克里米亞后,就波羅的海局勢進行的兵棋推演的經驗相吻合。
最終,我為總部的辦公人員就波羅的海局勢進行了四小時的矩陣游戲。游戲結束后,大家一致認為,游戲使參與者迅速掌握了不同的要素和關于當前局勢的重要背景。一位玩家說:"我現在知道了我所知道的,并理解了我不知道的,以及我需要研究的東西。一位J2的工作人員對此提出質疑,他指出這些信息已經以電子郵件簡報的形式提供,并指著一疊至少300毫米高的紙質打印件。大多數工作人員的回答是 "太長了--沒看"。
兵棋推演在教育中特別有效,正如上面提到的發現學習的背景。"我聽了就忘,我看了就記,我做了就懂"(Seok,2011)。然而,與所有基于游戲的學習一樣,也有一些注意事項,那就是需要仔細管理,所選擇的游戲類型應該是有重點的,并且與預期的學習結果相關(以及在現有的時間內可以實現)。也有很好的證據表明,試圖讓不熟悉或不習慣這種方法的教師強制使用基于游戲的學習,可能弊大于利(Whitney等人,2014)。
將游戲用于教育目的需要考慮的其他因素是,游戲不一定要玩到最后(避免得出 "我輸了,所以游戲不好 "或 "我贏了,所以游戲好 "的結論--這兩種結論對教育理解都是有害的),以及游戲不一定要完美地表現現實--游戲的簡易性和學生的參與性更為重要。事實上,如果游戲是不完美的,教員邀請學生就如何改進游戲提出建議,可以產生比游戲本身更多的洞察力和智能對話。因此,在一節基于游戲的學習之后,進行適當的匯報是非常重要的,以確保游戲與要達到的學習結果相聯系。
兵棋推演可以在培訓中發揮作用,因為兵棋推演往往比其他培訓方法更容易獲得,更容易接觸,而且成本更低(允許有更多的機會進行練習--刻意練習比天賦更重要;見Ericsson等人,1993)。就像上面的評論一樣,游戲是在一個特定的環境中進行的,這有助于信息的保留,并有助于理解游戲中描述的情況。
然而,與教育游戲不同的是,特別重要的是,游戲機制和裁決要根據對現實世界表現的期望進行驗證,以防止對游戲的價值失去信心或從體驗游戲中獲得錯誤的教訓。
2019年,駐扎在蘇格蘭愛丁堡的3號步兵營(一個輕型步兵營)的指揮官要求我協助開展一些戰斗小組級別的兵棋推演。該部隊將從輕步兵重新定位,成為一個機械化營,配備輕型裝甲的偵察車、支援車和運兵車。其目的是為了獲得一些洞察力和理解,以適應裝備這些車輛所需的戰術和程序的變化。
很快就可以看出,作為在阿富汗使用的 "緊急行動需求 "而購買的車輛,完全不適合機械化營所期望的更廣泛的作用。當把它放在一個特定的兵棋推演場景中,試圖在不同的地形中使用不同的車輛,并對付另一種更常規的敵軍時,很明顯,如果按照最初的設想使用這些車輛,會有很大的缺點。用于偵察的車輛雖然裝甲較輕,但缺乏對乘員的保護,特別容易受到炮彈碎片和敵人裝備的大炮的偵察。運兵車雖然在阿富汗的地形上對簡易爆炸裝置有很好的防護作用,但完全不適合在另一種地形上越野行駛。
事實上,所有這些因素都被暴露出來,在場景的操作背景下,在所有相關的利益相關者在場的情況下一起工作,這使得什么可能有效,什么不可能有效變得很明顯。這導致了對如何改變戰術以減少這些風險,或對部隊可以承擔的任務和角色進行限制的清晰理解。
當考慮將未來部隊的發展作為兵棋推演的目的之一時,這分為兩個主要領域:兵棋推演作為分析過程的一部分,以確定未來采購的數量和性能;以及兵棋推演,以確定這些新能力在特定場景下的最佳應用。前者最有可能由研究機構進行,后者則由軍事單位和編隊進行。
應該注意的是,在用于分析目的的兵棋推演中,游戲規則、數據和程序必須盡可能準確,以確保游戲產生的數據同樣準確;游戲的簡易性和玩家的參與是次要的(與教育戰爭游戲相反)。
可以說,兵棋推演是軍事決策過程中最關鍵的部分之一,因為它將指揮官的計劃從概念變成了細節,并使部隊的戰斗力同步于行動。這通常是軍事人員最熟悉的戰爭演習類型,也是由于對如何正確執行戰爭演習的誤解,以及缺乏分配給這一職能的時間和專業知識而通常做得不好的類型(CALL, 2020)。
戰術演練應該被用來評估作戰方案(COA)完成任務的潛力,以應對不同對手COA的預見性反擊,以及識別和糾正不足之處。然而,真正的價值在于它能夠允許指揮官和參謀部將行動的開展可視化,并深入了解對手的能力和行動,以及作戰環境的狀況(AJP-5,2019)。
基本要素是在作戰的背景下了解計劃,以及敵人可能采取的作戰方針。
托馬斯-謝林是美國經濟學家,馬里蘭大學學院公園公共政策學院的外交政策、國家安全、核戰略和軍備控制教授。他因 "通過博弈論分析提高了我們對沖突和合作的理解 "而被授予2005年諾貝爾經濟科學紀念獎。他還根據自己在戰略層面上的博弈經驗,在美國和俄羅斯之間建立了核熱線(Miller, 2021, pp.176-191)。
在蘭德公司的論文《27年后的危機兵棋推演》(Levine et al., 1991)中,Schelling寫道:"最大的好處是他們(參與者)與一些他們將來可能有機會合作或依賴的人變得親密無間,或者至少是隨意地熟悉起來。" 這被明確為兵棋推演的一個重要副產品,以及我所說的場景理解和系統能力。
"兵棋推演不是預測性的。兵棋推演說明了可能的結果,所以有可能從兵棋推演的一次運行中發現錯誤的教訓。兵棋推演可以說明某些事情是合理的,但不能明確地預測它是可能的。(英國國防部, 2020) "
許多作者,包括支持使用兵棋推演的作者和批評兵棋推演方法的作者,都對兵棋推演的預測能力提出了可怕的警告。人們總是對兵棋推演的失敗提出批評,從未能預測1899-1902年布爾戰爭的心理或經濟方面的決定性因素(Caffrey,2019),到商業兵棋推演 "遙遠的平原"(關于阿富汗戰爭)的設計者無法預測2021年8月阿富汗軍隊出現災難性崩潰的可能性(BGG,2021)。
如果兵棋推演在過去的122年里都不能預測未來,盡管有些作者聲稱它們可以(Dupuy, 1985),那么它們在這個領域有什么用處呢?
答案在于它們能夠在關鍵的利益相關者在場的情況下,暴露出一個計劃的多面性,同時面對克勞塞維茨式的摩擦(Watts,2004)和敵人行動所能帶來的所有對抗性因素。這種方法,如果執行得當,有一種獨特的能力,可以暴露任何未來計劃的弱點,排除那些根本行不通的行動和意圖,并完善可能結果的未來錐(Voros, 2017),突出預測的、合理的和可能的未來,并允許更好地理解與之相關的風險。
兵棋推演可能無法預測實際的未來,但它們善于排除那些根本行不通的未來計劃,并允許更好地理解在執行一項行動時可能發生的一系列結果。
在簡要討論了你可能希望進行兵棋推演的一些原因之后,重要的是要介紹一下為專業目的進行兵棋推演所涉及的陷阱和危險。
然而,在開始之前,有必要參考一下關于這個特定主題的開創性工作:"兵棋推演的病癥"(Weuve, et al, 2004)一文。我所做的任何評論只是反映了對我所進行的兵棋推演影響最大的問題,由于我在職業生涯的后半段是一名 "教育者",這影響了我的思維,也意味著在兵棋推演的某些領域(訓練和分析),我的經驗比較有限。
以色列軍方堅定地認為,任何具有虛構背景的訓練活動,包含專門為該活動創建的數據,不僅是一種浪費,而且浪費了對真實世界的理解和洞察的機會 - 他們是絕對正確的。你永遠不應該使用假的場景。
除非你必須這樣做。
在某些情況下,對運行有關真實潛在敵人的游戲存在政治敏感性。大多數情況下,這些都是誤導,實際上對活動的價值有害。在真實的潛在情況下進行游戲的行為不僅本身非常有價值,而且如果消息傳到反對派那里,那就更好了,因為這將產生威懾作用。更不用說,如果一般公眾認為我們是在 "瞎編",他們會認為我們不認真對待這種情況,是瘋了。畢竟,20世紀20年代的 "紅色戰爭計劃 "是美國針對英國和加拿大的一套真實的計劃方案,是由一個剛剛在歐洲作為英國的盟友之一打了一場大仗的國家設計的(Major, 1998, pp.12-15)。
如果你被迫擁有一個虛構的場景,基本上有三種選擇:從頭開始生成場景,增加一個額外的國家,以及改變名稱。
從頭開始構建場景是最糟糕的選擇。所需的工作是巨大的,根據游戲的層級,你可能需要創建整個大陸、國家和其他社會政治集團。你可能需要繪制地圖,以及關于友軍和敵軍作戰命令的深層背景數據,這可能是非常耗時的。
添加一個額外的國家是一個稍好的選擇,因為地緣政治環境是真實的世界,但在危機地區插入了一兩個虛構的國家。這減少了準備工作的負擔,通常允許使用真實的地形(重新劃定一些邊界),并有一個可否認的外衣。
改變名稱是最好的選擇。它允許所有相關人員使用現實世界的情況,并將變化降到最低,而我們決定費盡心思改變名稱的事實表明,我們不希望冒犯他人,同時顯然允許在真實的地緣政治情況下進行訓練。然而,不要搞錯了--"僅僅改變名稱 "本身就可能是一項巨大的努力。我曾參與過一次軍團級的演習,我們要使用西德的地理環境,我們只是把它重新命名為 "紅土"。準備工作已經到了高級階段,當參加演習的德國師級人員震驚地發現,只有國名改變了,但城鎮、地區或河流的名稱都沒有改變。例如,將下薩克森州作為 "敵人的領土",這在政治上被認為是不可接受的,而且,由于計算機模擬無法在現有的時間內進行修改,因此不得不完全重寫設定,使用英國的地理環境,因為這是當時唯一存在的替代模擬地形。
人們經常表示擔心,如果使用真實世界的數據,場景將不得不成為機密;增加的費用和努力是一個數量級的。有幾件事情需要考慮:
用真實的數據進行訓練是更好、更現實的。它將吸引在現實生活中處理情況的個人更高水平的參與,并提供一個機會在事件中檢查數據的有效性和背后的假設。在大多數情況下,在高分類的情況下,實際需要的數據非常少,但額外的成本可能非常高。
根本不需要使用分類數據。完全可以使用通常用于 "訓練 "或公共領域的數據,以較低的分類來設計事件,將其設置在現實世界中。與從完全 "編造 "的數據中得出的那種教訓相比,認為這可能會產生 "錯誤的教訓 "的論點顯然是可笑的。
在過去,這不是一個問題,因為人們普遍認為戰爭與和平之間有一條分界線。這意味著,與手頭的軍事任務相比,對地緣政治局勢、當地政治或宗教的詳細了解被置于次要地位。然而,在當前的不對稱威脅環境中,這種復雜性變得極為重要,因此,為了解決這個問題,場景模擬變得越來越復雜了。
當一位高級軍官說他希望通過一個特定的兵棋推演來 "證明我們需要更多的[某種]導彈 "時,我實際上也在場。他沒有按照兵棋推演的原意使用兵棋,而是為了研究一個問題,以收集有助于為辯論提供信息的見解,他已經決定了答案,只是想通過兵棋推演來證實他的偏見。
這種行為比你想象的要多,不一定像上面的例子那樣明目張膽地發生,但在減少兵棋推演的范圍時,表面上是出于預算或編程的原因,所以被審查的場景被迫處理如此少的替代方案,結果是預先注定的。
英國皇家海軍進行了一次兵棋推演,研究格陵蘭島、冰島和英國之間的差距,這是大西洋北部的一個區域,在這三個陸地之間形成了一個海軍扼制點。其目的是確定是否可以有效地發現俄羅斯北方艦隊的潛艇運動進入北大西洋。一些憤世嫉俗的分析家認為,這場戰爭的目的是為了 "證明 "皇家海軍沒有足夠的潛艇來發揮效力。他們感到驚訝的是,這個假設在游戲開始時就被假定了,而實際的問題是調查如果這種情況被證明是真的,最具有成本效益的替代方案。
最后,顯然需要更多的潛艇才能有效地對付更現代化的俄羅斯潛艇,但除了試圖采購更昂貴的潛艇外,還有一些具有成本效益的替代方案:衛星監視、與盟國加強合作以及海上空中巡邏。當然,海軍兵棋準備建議為皇家空軍海上航空隊提供額外的資金,這一事實在分析上,特別是在政治上都是令人信服的,并且保證了結果被廣泛分享和采取行動。一個提出正確問題的例子。
重要的不是兵棋推演確定了某一系統或戰略存在嚴重的不足,而是玩家做了什么來克服這一不足,以及這是否能夠成功。
兵棋推演,至少以我在英國的經驗來看,一般是例外,而不是常態。因此,當安排了適當數量的高級領導人參加的兵棋推演時,它們往往會受到 "膨脹 "的影響,目的和目標變得越來越雄心勃勃,以證明有這么多的高級決策者參加。在這種情況下,活動中不可避免地增加了其他內容,在活動中插入了審查其他場景和問題的機會,以充分利用參與的人才。
這必然會扭曲活動,將重點從最初的問題上移開,并有可能稀釋結論,從而使它們在更廣泛的戰后報告中丟失,這些報告中充滿了對大多數人來說不感興趣或不相關的信息。
額外的元素也將有助于固定活動方案,分散對原意的注意力,減少那些高級人員花時間 "深入研究 "的靈活性,以進一步研究與他們的同行產生的任何特殊見解。相反,他們往往被從一個點引導到另一個點,缺乏參與或時間來產生有用的投入。
當一場兵棋推演成為 "大事件",有許多高級決策者參加時,它也可能吸引媒體的注意,因此游戲的結果將受到明顯的關注。這意味著要避免被認為是失敗或缺點的尷尬,而且游戲不可避免地被傾斜,以產生一個 "成功的結果"(就外部第三方而言),而不考慮最初的目的。
在這種情況下,游戲不再是一個兵棋,而是通過計劃獲得成功的行動,只有微不足道的 "學習 "才能證明事后的活動。
如果我們考慮在最廣泛的意義上使用兵棋推演,我們需要理解許多人為了產生一個 "更準確 "的結果而希望涉及計算機模擬,也許還有人工智能(AI)。這是錯誤地認為 "更多的數據 "和 "更多的計算能力 "可以在某種程度上,本身就可以提高準確性。
使用模擬和人工智能協助軍事指揮官決策的機會是令人興奮的:使用計算機模擬未來的沖突局勢,然后 "通過人工智能運行它們",以制定最佳行動方案、部隊組合和實現成功的時間。請注意,在這種情況下,人工智能的軍事概念包括在一個基于云的分布式架構中查看多個同時進行的行動方案,以并行地完成許多這些過程(庫克,2020年)。它可能不是嚴格意義上的人工智能,但任何先進的技術計算架構都傾向于被概括為這個標題--軍事指揮官實際上只對產出的實際效用感興趣,而不是對術語的學術定義。
然而,這種方法有一些問題,主要是在兩個方面:基礎模型的準確性;以及優化的危險,導致可預測性和脆弱性。
人工智能系統采用規則來優化其行為,以尋求優勢。這種方法的優勢在于它的有效性。這種方法的缺點也是它有效。我們必須非常小心,確保我們為人工智能定義參數,以產生我們想要的行為(例如,最佳攻擊路線可能在國家邊界之外,所以我們需要確保我們在執行計劃時不會入侵鄰國)。人工智能可以產生不同的行動方案,只要他們的規則適合任務,在封閉的模擬環境中。這必須由人類嚴格控制,以確保不僅規則適合情況,而且人工智能不會通過利用系統中的錯誤來作弊(Benson,2020)。
雖然許多這些系統或多或少都是聚集在一起的,所以必須對性能進行近似,但它們是用來訓練的,這意味著它們足夠準確,有軍事用途;對于Box(1979)來說,"所有的模型都是錯的,有些是有用的"。
危險的是,如果我們可以做這種分析,我們的敵人也可以,讓他們預測我們的行動方案。在尋求具有決定性優勢的武器系統時,這樣的系統變得昂貴,減少了用于替代方案的資源,并且需要很長時間才能投入使用。敵人在得知這樣一個系統后,可以花時間來打敗這個系統。而當他們這樣做的時候,就沒有什么可以反對他們了。韋恩-休斯教授警告說:"海上戰爭中的殺戮往往是用海軍的第二好的武器完成的。如果在未來的某個沖突中,雙方都反擊了對方的首要武器,那么海軍將不得不問:我們的下一個最佳武器是什么?" (Rielage, 2017)。如果人工智能生成的可預測性已經導致了一個單一的武器系統或最佳方法,而它被打敗了,可能就沒有什么替代品了。
優化的系統也是脆弱的,特別是在面對突發事件時。這一點在COVID-19大流行病早期的衛生紙交付的供應鏈失敗中得到了明確的證明(Wieczner, 2020)。特別是軍事行動,需要對突發事件有強大的抵抗力。
然而,許多這樣的實驗未能解決的是關于情報和局勢數據準確性的一些隱性和顯性假設。正如在科索沃的空襲行動中所證明的那樣,塞族人能夠用相對粗糙的技術騙過美國的情報分析員(施密特,1999年),而且在堅實的地面、泥濘的斜坡和耕地上的相對 "前進"(即前進速度)很少被量化,所以假設是危險的。
然而,所有的軍事規劃都是在不完善的信息基礎上進行的。假設人類對人工智能的建議有所節制,那么當人類和人工智能合作以利于決策時,有可能導致更好的結果(an den Bosch & Bronkhorst, 2018),或至少排除更愚蠢的選擇。
因此,人工智能,在一些注意事項和人類的支持下,可以使其發揮作用 - 但代價是什么?人工智能的歷史是一個炒作和預期失敗的故事,被Floridi(2020)稱為 "人工智能的冬天"。其他技術(現有的統計方法、人工兵棋推演、競爭性假設的分析)已被證明是同樣有效的,而成本和精力卻只有一小部分(Makridakis等人,2018),而且不容易出現人工智能衍生結果有時會產生的嚴重錯誤(Yampolskiy,2016;Osoba和Welser,2017)。
英國防部傾向于希望在最昂貴和效率最低的領域使用人工智能--而不是后勤支持和光學識別這些低垂的果實(國防采購機構認為在正常競爭下會自動交付)。相反,他們追求的是最昂貴和最令人興奮的獎品:常規部隊的行動過程評估(Kerbusch等人,2018)。
兵棋推演應該是小型的定期活動,其范圍靈活,產出集中,能夠從最廣泛的角度考慮問題。只有從這樣的活動中才能產生洞察力。
正如偉大的F.W.蘭徹斯特所說。"提供有用見解的簡單模型比那些與現實世界如此接近的模型更受歡迎,因為他們想要解開的謎團在模型中重復出現,而且仍然是謎團"(Fletcher, 1995)。
然而,到目前為止,對兵棋推演最大的誤用僅僅是因為許多人(包括許多高級決策者)根本不了解兵棋推演這一技術,或者認為他們自己對兵棋推演的狹義解釋是正確的,而所有其他的解釋都或多或少地存在缺陷。
這并不局限于國防領域的普通民眾。職業兵棋手們自己也對兵棋的定義爭論不休,在那些認為分析性兵棋的定量科學是唯一有效的方法的人和那些喜歡 "更廣泛的兵棋"的定性藝術而不是 "狹隘的"(和 "狹隘的")替代品的人之間存在著明確的分裂。
造成這種情況的原因是,幾乎在所有情況下,兵棋推演都是由自學成才的少數人進行的,由他們個人的職業發展提供信息,缺乏正規專業教育所能提供的更廣闊的視野。這并不是說兵棋推演課程不存在,但總的來說,這些課程是其環境的產物,因此其產出偏向于其贊助商的要求。舉個例子,MORS7兵棋證書(正如你所期望的那樣)在很大程度上偏向于分析的一端。
為了有效,兵棋推演需要來自指揮系統的正式支持。它需要一個冠軍(一個高級領導人,承擔起確保每個參與者都致力于該技術的最終成功的重任),需要有人負責確保兵棋推演在每個級別都得到理解并定期進行,從計劃分區攻擊的初級士兵到軍隊的最高級別,如英國國務卿的網絡評估和挑戰辦公室(SONAC;見Elefteriu,2020)。
需要在軍事學校和學院開設正式的教育課程,教授全方位的兵棋推演,而且兵棋推演應該被強制規定為任何課程或單位和編隊的年度培訓周期的一部分。只有這樣,才能培養出新一代有適當資格和經驗的人,以取代 "有天賦的業余愛好者",他們在大多數軍隊中構成了大部分的兵棋推演專家。
不過,無論怎樣強調都不為過的是,不能把應該進行兵棋推演的授權與應該玩某種游戲或游戲類型的授權混為一談。
正如弗朗茨-哈爾德將軍(Generaloberst Franz Halder)在談到20世紀30年代和40年代的德國軍隊兵棋推演時所說:
"軍事文獻包括關于兵棋推演的非官方手冊。為了避免哪怕是最輕微的軍團化跡象,并在戰爭游戲的應用和發展中保持充分的自由,官方沒有發布任何形式的正式指令。(霍夫曼, 1952)"
在這篇文章中,我試圖確定兵棋推演的多種多樣的用途,強調游戲類型之間的差異,所有這些游戲都是為了一個特定的目的。沒有哪種游戲適合所有人--用于教育、培訓和分析的游戲之間的差異是非常重要的,而且經常被忽略。
我還從我的經驗出發,介紹了一些在運行兵棋推演時可能出現的錯誤和危險(并指出了關于這個問題的開創性工作)。為了避免其中最重要的危險,并確保它作為一種使軍隊更加有效的技術而獲得成功和發展,兵棋推演需要得到指揮系統的支持,并且必須成為軍事學校和學院課程的一個重要組成部分。
現代戰術戰爭需要迅速而有效的決策和行動,以便在經常是高度動態和復雜的戰區保持競爭優勢。需要考慮的因素的數量因不確定性、事件的快速發展和人為錯誤的風險而放大。自動化、人工智能和博弈論方法的潛在應用可以為作戰人員提供認知支持。這項研究以自動兵棋推演輔助決策的形式探索了這些應用。該團隊為這個未來的系統開發了一個概念設計,并將其稱為兵棋推演實時人工智能輔助決策(WRAID)能力。
頂點項目的目標是探索自動化、人工智能和博弈論的應用,作為支持未來WRAID能力的方法。該團隊為WRAID能力開發了需求、概念設計和操作概念。該小組確定并探索了可能對未來實施WRAID能力構成障礙的挑戰性領域。該小組調查了與使用人工智能來支持戰爭決策有關的倫理挑戰和影響。
本報告首先對與WRAID能力相關的主題進行文獻回顧。文獻回顧從人工智能的回顧開始,提供了一個關于人工智能如何工作以及它能夠完成什么類型任務的概述。文獻綜述探討了人機協作的方法,以支持未來指揮官和人類用戶與WRAID系統之間的互動。需要翻譯指揮官的意圖,并讓WRAID將有意義的輸出傳達給指揮官,這需要一個強大的界面。審查包括傳統的兵棋推演,以研究目前的模擬兵棋推演是如何進行的,以便深入了解,未來的WRAID能力如何能夠實時復制兵棋推演的各個方面,并認為以前的兵棋推演可以為人工智能和機器學習(ML)算法的發展提供訓練數據。ML算法的訓練需要大量的代表性數據。文獻回顧研究了人類的認知負荷,以深入了解人類大腦的認知技能和上限;并確定人類思維的極限,以顯示人工智能可能提供的支持。文獻綜述中涉及的最后一個主題是,傳統的計劃和決策,以了解目前在軍事上如何制定戰術行動方案。
該小組進行了需求分析和利益相關者分析,探索WRAID能力如何支持作戰人員。該小組在需求分析的基礎上為WRAID系統開發了一套需求。這些要求被歸類為:硬件/軟件,人機界面,和道德規范。第一階段的分析結果包括 (1)戰爭的復雜性需要發展一種未來的WRAID能力,這種能力利用自動化方法,包括人工智能、ML和博弈論,(2)WRAID能力需要大量的計算能力和復雜的軟件算法,(3)實現未來WRAID系統的挑戰將是技術和道德的。
未來WRAID系統的概念設計是基于需求分析的。概念設計被記錄在一套系統模型中,包括背景圖、系統視圖、功能工作流程圖和操作視圖。該團隊開發了一個作戰場景,以支持對WRAID能力如何在作戰中使用。
在開發WRAID的過程中,預計會有一些路障。開發WRAID系統的技術是存在的,然而,研究小組發現數據挑戰、人工智能訓練、程序限制和當前系統工程的局限性將是需要解決的障礙。數據挑戰指的是獲得足夠的數據集的能力,這些數據集代表了訓練ML算法所需的真實世界的戰術行動和兵棋推演分析。程序性挑戰包括國防部實施網絡安全、機密數據、數據庫訪問和信息分配協議的能力。系統工程方面的障礙是需要新的方法來設計安全和可靠的人工智能系統,如WRAID能力。將需要SE方法來處理不可預見的故障模式,并在系統生命周期的早期確定根本原因。
對像WRAID能力這樣的人工智能系統的倫理考慮是系統發展的一個重要因素。開發系統以取代倫理學,將使系統更有可能被部署。有幾個有道德問題的自主武器系統被拉出來作為WRAID能力的道德對話的基礎。通過一個示例場景,對道德狀況進行定性分析,以了解在部署WRAID能力時可能出現的道德問題。倫理學在未來的技術中發揮著巨大的作用;從一開始就考慮到倫理學,建立技術是很重要的。
未來的重點需要放在繼續對想象中的WRAID系統采取正規的系統工程方法。WRAID系統需要一個強大的數據集,需要收集和注釋;收集的定性兵棋推演數據越多,WRAID系統的可行性和準確性就越高。與軍事部門的合作對于最大化WRAID的利益至關重要,例如情報和偵察組織。WRAID的模擬將是完善系統要求和創建現實模型的關鍵。關于如何使用WRAID的培訓和文檔應該同時開發,所以利益相關者,特別是指揮官已經準備好,知道如何使用這個新工具。未來的研究領域包括認知工程、基于正式模型的系統工程和人機協作。
隨著目前技術進步的速度和外國的目標,人工智能將在未來的沖突和戰爭中發揮作用。自上而下的指令將需要設計和實施WRAID能力:提供大量的資源,解決操作和文化變化,重組系統工程,并確保網絡安全和收購變化。實現未來的WRAID能力并不是一個微不足道的任務。然而,它對確保現在和未來的戰斗空間優勢至關重要。
在未來部隊結構的發展和評估過程中,兵棋推演是深入了解其優勢和劣勢的一項關鍵活動。十多年來,挪威國防研究機構(FFI)在不同程度的計算機支持下,開發支持挪威軍隊進行能力規劃的兵棋。在此期間,這些已經從可被描述為計算機輔助的兵棋發展為更逼真的仿真支持的兵棋。此外,為了更密切地了解部隊結構的威懾效果(這在實際游戲中可能無法觀察到),我們的重點也轉向了更恰當地復制規劃過程--特別是監測對方部隊的規劃過程。例如,研究特定的結構元素在多大程度上阻止了對方部隊采取某些行動,這一點很重要。在這篇文章中,我們描述了我們開發的仿真支持的兵棋推演方法,其中包括一個準備階段;一個執行階段,含有一個聯合行動規劃過程;以及一個分析階段。此外,我們還討論了我們能夠從兵棋推演中提取什么類型的數據和結果,并提出了一套我們發現的關于如何成功進行仿真支持兵棋的最佳實踐。
關鍵詞:兵棋推演;建模與仿真;實驗;國防結構;能力分析;國防規劃
在發展和評估未來的部隊結構時,兵棋推演是深入了解和更好地理解部隊結構的優勢和劣勢的關鍵活動。今天,基于計算機的仿真系統使我們能夠創造出高度復制真實世界物理特性的合成環境。此外,人工智能(AI)和行為模型的進步給我們提供了更真實的計算機生成部隊(CGF),可以高度逼真地執行戰斗演習和低級戰術。兵棋可以從這些進展中受益。然而,在指揮系統的較高層次上,人工智能還不能與人類決策者相提并論,在兵棋中規劃和實施仿真行動需要人類官員的參與。
十多年來,挪威國防研究機構(FFI)一直支持挪威軍隊在不同程度的計算機支持下開發能力規劃的兵棋。在此期間,這些已經從可被描述為計算機輔助的兵棋發展為更逼真的仿真支持的兵棋。此外,為了更密切地了解部隊結構的威懾效果(這在實際游戲中可能無法觀察到),我們的重點也轉向了更恰當地復制規劃過程,特別是監測對方部隊的規劃過程。例如,研究特定的結構要素在多大程度上阻止了對方部隊采取某些行動--或者換句話說,正在推演的概念有怎樣的戰爭預防或維護和平效果,這一點很重要。
能力規劃過程和高調的兵棋總是會涉及或吸引利益者--例如高級軍官、政治家、官僚和國防工業領導人--的利益沖突。一般來說,參與的利益者有可能想把兵棋框定在一個有利于他們利益的背景下(Evensen等人,2019)。重要的是要意識到這個問題,而且關鍵是要避免兵棋成為利益者利益的戰場。本文所描述的方法和最佳實踐試圖通過使用基于計算機裁決的仿真,以及通過提高對元游戲的認識,或對兵棋所有階段的沖突,從準備到執行,再到分析和報告,來減少這個問題。
本文的組織結構如下。首先,我們簡要地描述了這項工作的背景。接下來,我們描述了我們開發的仿真支持的兵棋推演方法,其中包括準備階段;執行階段,包括聯合行動規劃過程;以及分析階段。之后,我們討論了我們能夠從兵棋推演中提取的數據和結果類型。最后,我們提出了一套我們發現的關于如何成功進行仿真支持的兵棋推演的最佳實踐。
雖然各種形式的兵棋推演已經在FFI進行了數十年,但當FFI的研究人員開始合作研究單個仿真支持的系統評估方案時,首次出現了實施仿真支持的部隊結構評估的想法(Martinussen等人,2008)。
2010年,FFI首次將使用半自動部隊(SAF)的互動式旅級仿真系統作為兵棋推演的基礎。在 "未來陸軍 "項目中,通過一系列計算機輔助的兵棋推演,對五種基本不同的陸軍結構的性能進行了評估(霍夫等人,2012;霍夫等人,2013)。其目的是根據這些結構的相對性能進行排名。此外,兵棋推演揭示了被評估結構中固有的一些優勢和劣勢。雖然我們使用的仿真工具相當簡單,但它對于跟蹤部隊的運動和計算決斗和間接火力攻擊的結果很有用。
在此之后,FFI支持挪威陸軍進行了幾次仿真支持的能力規劃系列兵棋推演。這些兵棋推演是雙面的(藍方/友方和紅方/敵方),封閉的(可用信息有限),在戰術和戰役層面進行。
玩家總數在10到100人之間,兵棋推演的時間從一天到兩周不等。圖1顯示的是2014年FFI的一次仿真支持的兵棋推演會議的照片。
圖1 2014年FFI的仿真支持的兵棋推演會議。
自2010年以來,我們的兵棋推演逐漸從計算機輔助的兵棋推演(使用非常簡單的仿真模型),向使用更詳細和更真實的仿真模型的兵棋推演演變。此外,為了更密切地了解部隊結構的威懾效果(這在實際游戲中可能無法觀察到),我們的重點也轉向了更恰當地復制規劃過程,特別是監測紅方部隊的規劃過程。圖2說明了我們兵棋推演的演變過程。
圖2 我們的兵棋推演的演變過程。
使用基于計算機的仿真來支持兵棋推演的價值首先在于有一個系統來自動跟蹤部隊,計算其傳感器的探測情況,并評估決斗情況和間接火力攻擊的結果。此外,基于計算機的仿真非常適用于通過在地面實況上添加過濾器來真實地表現不確定性和戰爭迷霧。
戰術仿真是開發、測試和分析新的部隊結構的一個重要工具。通過兵棋推演,可以深入了解一個部隊結構對特定場景的適合程度,并揭示該結構的優勢和劣勢。然而,擁有一個好的執行計劃對于成功地進行兵棋推演實驗和從活動中獲得有用的數據是至關重要的。在本節中,我們將介紹我們的仿真支持的兵棋推演方法,該方法是通過我們在過去10年中對兵棋推演實驗的規劃、執行和分析的經驗發展而來的。我們還將討論兵棋推演的背景,以及規劃和組織兵棋推演活動的過程,這可以被視為一種元游戲。
一般來說,有幾本關于兵棋推演的書和指南可以參考(Perla,1990;Appleget等人,2020;Burns,2015;英國國防部[UK MoD],2017)。本節描述的方法是專門為支持未來部隊結構發展的分析性兵棋推演而定制的。通常情況下,我們使用這種方法來評估和比較不同部隊結構備選方案的性能,這些方案可能在物資和裝備的構成、戰術組織或作戰概念方面有所不同。
我們的兵棋推演實驗方法包括三個主要階段:
1.準備階段
2.規劃和執行階段
3.分析階段
這些階段將在下文中詳細描述。圖3說明了它們之間的關系,其中規劃過程和兵棋推演的執行階段構成了實驗的核心。
圖3 兵棋推演實驗的方法說明。
小國在發展兵力結構以威懾擁有更多兵力要素的敵人時面臨著兩難境地。敵人可能會觀察到防御結構中的變化,并可能在運用軍事力量時從集合中選擇其他更合適的元素。例如,如果小國的部隊結構是專業化的,為了對付預期的敵人行動方案(COA),敵人可能會從庫中選擇完全不同的東西,敵人的COA可能會發生巨大變化。
對所有國家來說,發展部隊結構是一個緩慢而公開的過程。從現有的、龐大的部隊要素庫中選擇部隊并創造新的行動方案是一個快速和隱蔽的過程。對于一個小國來說,在這種情況下實現威懾似乎是一項不可能完成的任務,但我們已經在幾個案例中觀察到,對部隊結構的低成本改變是如何對敵人的COA選擇產生巨大影響的(Daltveit等人,2016;Daltveit等人,2017;Haande等人,2017)。1988年為圣戰者引入手持防空導彈后,蘇聯在阿富汗的戰術發生了變化(Grau, 1996),這就是我們在兵棋推演中看到的紅方(對手)小組規劃過程中產生影響的一個很好示例。據觀察,存在感和姿態也有威懾作用。此外,社會、景觀和氣候也影響了紅方的規劃過程。這一切都歸結于敵方在規劃和制定作戰行動期間的風險評估。
為了研究部隊結構變化的威懾作用,有必要讓分析人員在兵棋推演前觀察紅方的規劃過程,而不僅僅是在仿真戰斗中。阻止敵人進攻是任何部隊結構發展的意圖,而觀察威懾效果的唯一方法是在敵人的規劃期間。
在決策理論中,風險是一個必須考慮的因素,以便能夠做出理性的選擇。馮-諾伊曼-摩根斯坦(vNM)決策理論的基礎是行為者通過考慮給定概率和結果的彩票來評估選擇(von Neumann & Morgenstern, 1944)。風險因素也需要存在于規劃過程中。如果一方的規劃過程被參與兵棋推演的其他任何一方知道,那么一部分風險因素就會消失。這將使規劃過程減少到只是評估一個已知的敵人COA,而不是評估一系列可能的COA及其概率。因此,重要的是,場景定義不能限制敵人的規劃過程,所有的規劃過程都要受到監控--特別是敵人的規劃過程。
盡管兵棋推演在最終開始時有規則,但在選擇兵棋的類型和周圍環境的過程中,并沒有明確的規則。因此,策劃和組織一場兵棋推演活動的過程可以被看作是一種元游戲--一種可以在對抗分析的規則中進行分析的游戲(Curry & Young, 2018)。例如,聯合層面的兵棋推演將包括傳統上的資金競爭對手的參與者。來自空軍、海軍和陸軍的參與者,在涉及到應該如何制定場景、應該對未來技術做出什么樣的假設、應該如何評估戰斗效果等方面,可能有不同的利益。每個領域內的分支也是如此。因此,存在著一種危險,即元游戲對部隊結構分析結果的影響可能比實際兵棋推演的影響更大。元游戲并不局限于兵棋的執行。分析和事后的報告也會受到與準備期間相同類型的沖突影響。在圖4中,存在于核心方法論之外的元游戲層就說明了這一點。
圖4 圍繞兵棋推演實驗方法的元游戲圖解。
能力規劃過程總是會涉及或吸引利益沖突的利益者,國防規劃和兵棋推演包含許多利益者爭奪地盤的例子(Evensen等人,2019;Perla,1990)。這在兵棋推演的準備階段尤其明顯。應對這種情況的一個可能的方法是,適當地將擁有發明改變部隊結構的權力角色與擁有評估和接受改變的權力角色分開。當這些角色沒有被分開時,利益者會試圖影響什么是兵棋的目標,以及使用什么類型或風格的兵棋。在最壞的情況下,我們可能會有有限數量的利益者提出新的部隊結構,然后讓同樣的利益者通過基于場景的討論來驗證他們自己的想法是否良好。如果被評估的是利益者所珍視的想法,這就特別容易出問題。
聯合需求監督委員會(JROC)是一個很好的例子,該機構以健全的決策結構處理地盤戰(參謀長聯席會議主席[CJCS],2018)。美國軍方將思想的發明者與審查其有用性的權力進行分開,這完全符合孟德斯鳩的分權原則。在挪威進行國防規劃和兵棋推演的方式,在許多情況下,人們會發現行為者既產生了對未來部隊結構的想法,又通過參與基于場景的討論來評估相同的結構。基于場景的討論如果不包括專門的紅方小組,就不是兵棋推演。引入 "紅方小組 "成員,以及對方的自由和無阻礙的規劃,消除了一些濫用權力的可能性。沒有對提議的部隊結構進行適當兵棋推演的一個特殊結果是,建議采用次優化的部隊結構來打擊固定的假設敵方作戰行動。由于沒有對這種部隊結構進行適當的推演,結構改革的支持者成功地擊敗了他們喜歡的敵人COA,但卻沒有挑戰他們自己的想法。
準備階段包括在兵棋推演執行階段開始前需要做的一切。最重要的準備工作是:
建立對兵棋推演實驗目標的共同理解。
確定總體方案,包括外部條件、假設和限制。
選擇一個或多個仿真系統,并對仿真模型進行校準。
確定藍方(友軍)和紅方(敵軍)的作戰順序(OOB)。
規劃和執行階段包括兩個獨立的活動:(1)雙方的聯合行動規劃過程,以及(2)仿真支持的兵棋推演。
在這項活動中,由軍事主題專家(SME)和軍官組成的藍方和紅方小組,根據總體方案和受控的情報信息流,分別制定他們的初步行動計劃。根據偏好,這些計劃不是整體方案的一部分,雙方都可以自由制定自己的計劃。這也意味著,對立雙方制定的計劃對另一方來說仍然是未知的。
原則上,聯合行動規劃過程可以按照與現實中基本相同的方式進行,不做任何簡化。這是一項應該與仿真支持的兵棋推演一樣優先考慮的活動,在人員配置方面也是如此。
在規劃過程中,參與者必須討論不同的選擇,并根據所感知的對方部隊結構的優勢和劣勢來制定一個COA。觀察雙方的規劃過程并揭示決定COA的根本原因,可以提供有關部隊結構的寶貴信息,而這些信息在執行兵棋推演本身時可能無法觀察到威懾效果。
兵棋推演本身是作為仿真支持的兩方(藍方和紅方)兵棋推演進行的,其中行動是在一個具有SAF的建設性仿真系統中仿真的。在博弈論中,這種類型的兵棋推演可以被歸類為非合作性的、不對稱的、不完全信息的連續博弈。
兵棋的參與者是兩組對立的玩家和一個公斷人或裁決人的小組。重要的是要記住,一個兵棋的好壞取決于它的玩家。玩家是軍事主題專家和軍官。要想有一個平衡的兵棋,關鍵是不要忽視紅色單元。如果做得好,這種類型的兵棋,由適應性強且思維不受限制的對手主導,往往會變得高度動態、對抗性和競爭性。
對于分析性兵棋推演來說,現實的仿真對于加強結果的有效性和可信度非常重要。軍事行動,尤其是陸軍行動,本質上是復雜的,對這種行動的仿真,要有足夠的真實性,是非常具有挑戰性的(Evensen & Bentsen, 2016)。此外,仿真系統可能包含錯誤,人類操作員可能會犯一些在現實生活中不會犯的錯誤。因此,重要的是要有經驗豐富的裁判員來監控仿真,并在必要時對結果進行適當的人工調整。
在某種程度上,在仿真支持的兵棋中,元游戲也會發揮作用。曾經有這樣的例子,利益者將有能力的官員從兵棋推演中撤出,只是用不太熟練的人員取代他們,很可能是為了降低利益者不希望成功的兵棋可信度。其他的例子是公斷人與參觀兵棋的更高等級利益者的干預作斗爭。歷史上有很多類似的例子(Perla,1990),挪威也不例外(Evensen等人,2019)。這里所描述的清晰的方法,意在抵制以往兵棋推演實驗的一些缺陷。
除了從仿真支持的兵棋本身的執行中收集的觀察和數據外,分析還基于規劃過程中的觀察和數據。
在規劃過程中,密切監測和記錄討論情況是很重要的。由于國防軍的主要目的--至少在挪威是這樣--是為了防止戰爭,因此在規劃過程中的考慮可能是整個兵棋中最重要的結果。只有當敵人在兵棋開始前考慮到這些因素時,才能觀察到部隊結構和態勢的預防特性。在規劃階段,通常會考慮幾個備選的作戰行動和機動性。其中許多被放棄,有些被保留,原因各異,必須記錄下來。為什么紅方決定某個行動方案不可行,可能是由于某些結構要素或來自藍方的預期策略。如果紅方由于藍方的OOB要素而不得不放棄一個計劃,那么這些要素已經證明了對藍方的價值--即使這些要素在接下來的仿真行動中最終沒有對紅方部隊造成任何直接傷害。
在仿真支持的兵棋中可能會記錄大量的數據。很容易把各種結構元素的損失交換率等數據看得很重。在實際的兵棋推演中,也許更應該注意的是雙方指揮官的決定。如果其中一方出現了機會,這是為什么?該方是如何利用這樣的機會的?是否有什么方法可以讓他們考慮利用這個機會,但不知為何卻無法利用或執行?如果有,為什么?為了收集這樣的信息,指揮官們公開討論他們的選擇是很重要的。重要的不僅僅是告知積極選擇的原因;往往可能同樣重要的是為什么沒有做出其他選擇。
確定部隊結構的主要優勢和劣勢及其利用是分析階段的一個重要部分。考察雙方在規劃階段和推演階段的考慮,是做到這一點的最好方法。這不是一門精確的科學,因為這種數據具有定性的性質。通過觀察參與者的考慮和決策,比單純看哪些武器系統摧毀了哪些敵人的系統,可以更好地確定使用某種COA的關鍵因素,或者是允許敵人有更好選擇的缺失能力。分析階段的結果是對測試的部隊結構進行評估。
分析階段也可能會在商定的兵棋推演方法范圍之外發生爭吵。甚至在事件發生后的報告撰寫中也可能受到影響,當角色沒有被很好地分開,利益者被允許過度地影響這個過程時。
一般來說,我們努力從兵棋推演環節中獲取盡可能多的數據。根據用于支持兵棋推演的仿真系統,可以記錄各種輸出數據。例如,通常可以記錄各個單位移動了多遠,他們使用了多少彈藥和燃料,以及其他后勤數據。通常,殺傷力矩陣--基本上是顯示一方的哪些單位殺死了另一方的哪些單位的矩陣--也會被記錄。其他許多定量數據也可以被記錄下來。除此以外,還有定性的數據。如前所述,這包括對規劃過程的觀察,以及與參與規劃過程的參與者的討論。此外,它還包括對兵棋推演期間所做決策的觀察,以及在兵棋推演期間或之后與玩家的討論。
人們往往傾向于把大量的注意力放在定量數據上,如殺傷力矩陣,而對定性數據的關注可能較少。定量數據更容易分析,而且通常被認為比定性數據(如隊員的決策和考慮)更客觀。但重要的是要記住,定量數據取決于雙方玩家的決策,以及對模型的輸入數據。玩家認為各種單位應該如何運用,對殺傷力矩陣有相當大的影響。因此,盡管這些數據是定量的,但它們并不比定性數據更客觀。
諸如殺傷力矩陣這樣的數據也忽略了重要的信息。雖然人們可以看到哪些部隊殺死了哪些敵方部隊,但卻失去了原因;其他部隊雖然沒有直接摧毀敵方部隊,但卻可能在為其他部隊創造有效條件方面起到了關鍵作用。雖然某些部隊可能只消滅了很少的敵人,但他們在戰場上的存在可能對阻止敵人進行某些行動至關重要。例如,雖然近距離防空可能不直接負責消滅敵人的直升機,但它可能阻止了敵人像其他情況下那樣積極地使用直升機。因此,在分析一個兵棋時,對于只看殺傷力矩陣這樣的量化數據應該謹慎。必須考慮到整體情況。
理想情況下,在比較不同的部隊結構時,應該對每個部隊結構進行幾次推演,并允許敵人在每次戰役中改變其行為。自己的部隊應該找到在特定情況下使用其結構的 "最佳 "方式,而敵人應該找到反擊這一策略的 "最佳 "方式。只有這樣,人們才能真正比較不同部隊結構的兵棋推演結果,并得出哪種部隊結構最適合給定場景的結論。然后,當然,確實有廣泛的潛在場景需要考慮。因此,雖然這也許是應該進行兵力結構比較的方式,但在這方面,時間和資源通常對大量的兵棋推演是不夠的。
所有模型都有局限性。它們可能是為某一特定目的而設計的,并適合于此,但不太適合于其他事情。在考慮哪些問題可以通過兵棋推演來回答,哪些問題應該用其他工具來調查時,必須記住這一點。從兵棋推演中到底可以推導出什么,將取決于所使用的模型--但一般來說,應該把重點放在實驗所要回答的那些問題上。如果在實驗中出現了其他的結果,就應該對其有效性進行檢查,而且這些結果往往需要在專門為調查這些新出現的問題而設計的實驗中進行評估。
兵棋推演是比較兩個(或更多)部隊結構在特定情況下的表現的一個重要工具。然而,兵棋推演并不能對任何給定的部隊結構的有效性給出任何精確的衡量,但適合于確定主要的優勢和劣勢。與具體單位有關的參數的效果,如它們的火力和裝甲,應在單獨的研究中進一步考察。這些因素雖然很重要,但它們的層次太細,無法通過我們這里討論的兵棋類型來研究它們對結果的影響。彼得-佩拉強調,"兵棋只是研究和學習國防問題所需的工具之一"(佩拉,1990,第11頁)。其他工具應被用來補充兵棋和研究這些因素的重要性。
兵棋推演通常是實質性的活動,涉及大量的人,并需要大量的時間。因此,我們通常被限制在有限的數量上--通常對于我們所分析的每個部隊結構只有一個。重要的是要記住,一個單一的兵棋推演的結果只是:特定情況下的一個可能的結果。雙方玩家可以采取不同的做法,事件的發展也可能不同。細微的變化可能會影響到對整體結果至關重要事件的結果。
在本節中,我們將列出我們發現的進行仿真支持的分析性兵棋的最佳做法,以評估部隊結構。我們發現的一些最佳實踐與處理元游戲的需要有關,或者與兵棋的沖突有關。這些最佳實踐的用處可能僅限于其他尚未將發明權與測試部隊結構的權力分開的小國。其他的最佳實踐來自于提供仿真支持和取代基于場景的討論以發展防御結構的需要。
在準備階段,必須盡早明確兵棋推演實驗的目的,這將是實驗設計的基礎。
擁有一個帶有SAF的交互式仿真系統,對玩家來說易于操作,并且需要相對較少的操作人員,這就減少了進行仿真支持的兵棋推演所需的資源,從而也降低了門檻。
一個好的紅方小組是發現自己的部隊結構、計劃和程序中弱點的關鍵。紅色小組的成員也應該對預期對手的理論有很好的了解。我們觀察到,一個好的紅色小組能迅速地阻止我們自己的規劃人員對可能的敵人行動進行集體思考的傾向。
自己部隊結構的變化也必須允許對方部隊結構的變化。部隊結構的改變是一個緩慢的過程,肯定會被預期的對手觀察到。
盡可能地復制現實生活中的規劃過程。
觀察規劃過程,以便更全面地了解部隊結構的優勢和劣勢。為了記錄藍軍部隊結構的威懾效果,觀察對方部隊的規劃過程尤為重要。據觀察,自己的部隊結構中的幾個要素對對方部隊的行動有威懾作用,存在和姿態也是如此。此外,我們還觀察到,社會、地形和氣候也會影響對方部隊的規劃。
在部隊相互靠近的情況下開始一場兵棋推演,可能會使它變成一場簡單的消耗戰。發展良好的兵棋推演,在提供了空間和時間的情況下,就像武術比賽中的對手互相周旋,評估對方的弱點,并尋找攻擊的機會。評估避免遭遇的能力可能與評估戰斗的能力一樣重要。
建立對正在發生的事情的了解需要時間,是領導軍事行動的一個自然組成部分。只有當不確定性得到適當體現時,部隊結構中某些要素的真正價值才會顯現。例如,存在的力量的影響可能是巨大的。當戰術形勢不是所有人都能看到的,而且戰斗的結果被認為是非決定性的,以至于現實是隨機的,那么不確定性就得到了最好的體現
讓參與者為兵棋推演的目的做好準備。當使用指揮和參謀訓練器作為支持兵棋推演的仿真系統時,一些參與者傾向于按照程序行事,就好像這是一場演習。如果兵棋推演的目的是探索新的部隊結構要素、作戰行動或戰術、技術和程序(TTPs),則需要鼓勵參與者在執行任務時發揮創造性。
讓與兵棋推演無關的人員遠離它,特別是高級軍官,是很重要的。在人在回路(HITL)仿真中,人類玩家是整個仿真的一部分,來訪的高級軍官(或其他人)將對人類玩家的互動方式和他們如何進行規劃產生影響。限制來訪人員也減少了外部影響結果的機會(Hoppe, 2017)。
十多年來,FFI支持挪威陸軍為能力規劃開發仿真支持的兵棋。本文介紹了我們進行仿真支持的兵棋推演的方法,并提供了一套進行仿真支持的兵棋推演的最佳實踐。該方法和最佳實踐特別針對分析性兵棋以支持能力規劃。
該方法由準備階段、規劃和執行階段以及分析階段組成。在過去的10年中,該方法通過使用更詳細和更現實的仿真模型,以及在仿真行動前復制和監測規劃過程,以更深入地了解測試的部隊結構的威懾效果,而逐漸發展起來。
我們進行仿真支持的兵棋推演的最佳做法包括:為兵棋推演實驗確定一個明確的目標,使用一個便于玩家操作的仿真系統,擁有一個良好的紅方小組,不受太多限制,提供空間和時間,使戰爭不會立即開始,并提供一個不確定性和信息收集的現實表現。最后,為了更全面地了解一個部隊結構的優勢和劣勢,分析小組必須同時觀察規劃過程和兵棋推演本身。
將擁有發明部隊結構變化的權力角色和擁有測試、評估和接受這種變化的權力角色正式分開,將解決我們在國防規劃中看到的許多問題。我們已經發現,組織兵棋推演活動的過程可以被看作是一個元游戲。當用建模、仿真和分析來支持兵棋推演時,元游戲被看作是發生在各個層面的東西,其中一些我們可能沒有任何影響力。希望這篇文章能有助于提高對這些挑戰的認識,并能對我們能影響的那部分元游戲提供一些調整。
可解釋的人工智能(XAI)提供了克服這一問題的手段,它基于有關深度學習(DL)算法結果的額外補充信息。雖然完全透明對于復雜的DL算法來說仍然是不可行的,但解釋有助于用戶在關鍵情況下對AI信息產品進行判斷。應該指出的是,XAI是透明度、因果關系、可信度、信心、公平、信心和隱私等方面的總稱。因此,基本的方法論是多方面的。一種已經流行的方法是局部可解釋模型-預知解釋(LIME)方法,因為它可以很好地應用于各種應用中的不同模型。在本文中,LIME算法是在戰略運營的決策建議背景下進行研究的。在簡單介紹了其概念后,介紹了文獻中的應用。然后,一個戰略博弈的場景被認為是軍事戰爭的替代環境。一個基于DL的國際象棋人工智能被做成 "可解釋的",以評估信息對人類決定者的價值。得出了與戰略混合行動有關的結論,這反映了所提出的方法的局限性。
根據設想,未來戰略戰爭的決策將在很大程度上受到基于人工智能(AI)方法的信息產品的影響。特別是混合作戰,是在一個高維和變異的環境中進行的,在這種環境中,對潛在的威脅和機會的評估是人類操作者難以掌握的,戰略規劃必須納入異質的、多功能的和高容量的數據源。因此,基于人工智能方法的算法產生的分類、預測和建議在這種復雜的場景中變得越來越重要。在過去的幾年里,人工智能的方法已經獲得了巨大的發展,有大量的創新和令人尊敬的成果,可以從大型數據集中獲得更高層次的信息。然而,深度學習(DL)方法的一個主要缺點是其固有的黑箱屬性,即由于計算模型的復雜性,其結果是不透明的。例如,后者可能有數百個層和數百萬個參數,這些參數是在訓練階段通過算法發現和優化的。因此,即使結果是準確的,用戶也沒有機會理解它或掌握輸入數據的因果部分。這反過來又會影響到用戶對輔助設備的信任,在兩個方向上都是如此。這個問題在某些民事應用中起著次要的作用,例如語音識別,它經常被應用于與設備的互動,因為除了體面的失望之外沒有潛在的風險。對于其他非常具體的任務,如手寫字符識別,DL算法的性能超出了人類的平均水平,這意味著失敗的可能性很小,因此關于因果關系的問題可能成為附屬品。然而,在許多軍事應用中,當涉及到與人工智能的互動時,人類的信任是一個關鍵問題,因為錯誤的決定可能會產生嚴重的后果,而用戶始終要負責任。這實際上是兩方面的。一方面,操作者往往需要了解人工智能產品的背景,特別是如果這些產品與他或她自己的本能相悖。另一方面,不可理解的技術會對算法信息產品產生偏見,因為很難確定在哪些條件下它會失敗。因此,適當的信任程度可能很難計算。
可解釋的人工智能(XAI)是向黑盒人工智能模型的用戶提供 "透明度"、"可解釋性 "或 "可解釋性 "的方法的集合。這些術語幾乎沒有一個共同的定義,但許多出版物提到了:
XAI不能完全 "解釋 "DL模型,然而,它為工程師或操作員提供了更好地理解特定AI產品背后的因果關系的手段。而且很多時候,這可以幫助看到,從合理的因果關系鏈暗示算法決策或預測的意義上來說,該模型是否是合理的(或不是)。因此,XAI可以成為人工智能模型工程的一個重要工具,用于安全方面的驗證,甚至用于認證過程,以及為操作員提供額外的信息,以支持明智的決策。
雖然關于XAI的大多數文獻都集中在圖像識別的方法上,但這些結果很難轉化為基于特定挑戰性競爭形勢的戰術和戰略決策領域。在本文中,我們研究了人工智能模型在棋盤評估中的可解釋性。對更復雜的軍事戰略模擬的一些影響進行了討論。
本文的結構如下。在下一節中,簡要介紹了選定的XAI方法。然后,這些方法之一(LIME)被應用于棋盤評估問題,以證明在支持信息方面的解釋的質量。在最后一節,得出了結論,并討論了對更復雜的戰爭博弈和模擬的概括。
今天介紹的是美國蘭德公司、耶魯大學聯合發表于The Journal of Defense Modeling and Simulation: Applications, Methodology, Technology(國防建模與仿真學報:應用、方法、技術)期刊的論文“Artificial intelligence for wargaming and modeling”。
摘要:
在本文中,討論了如何將人工智能 (AI) 用于與擁有大規模殺傷性武器和其他涉及太空、網絡空間和遠程精確度的高端能力的國家發生沖突的政治軍事建模、模擬和兵棋推演武器。人工智能應該幫助兵棋推演的參與者和模擬中的代理人了解在不確定性和錯誤印象下作戰的對手的可能觀點、看法和計算。人工智能的內容應該認識到升級的風險,導致沒有贏家的災難,但也有可能產生有意義的贏家和輸家的結果。我們討論了對設計和發展的影響使用多種類型的 AI 功能的模型、模擬和兵棋推演。我們還討論了使用模擬、歷史和早期兵棋推演的理論和探索性工作為兵棋推演決策輔助工具,無論有無人工智能。
關鍵詞:
人工智能,兵棋推演,建模與仿真,認知建模,決策,深度不確定性下的決策,海量場景生成,探索性分析與建模