可解釋的人工智能(XAI)提供了克服這一問題的手段,它基于有關深度學習(DL)算法結果的額外補充信息。雖然完全透明對于復雜的DL算法來說仍然是不可行的,但解釋有助于用戶在關鍵情況下對AI信息產品進行判斷。應該指出的是,XAI是透明度、因果關系、可信度、信心、公平、信心和隱私等方面的總稱。因此,基本的方法論是多方面的。一種已經流行的方法是局部可解釋模型-預知解釋(LIME)方法,因為它可以很好地應用于各種應用中的不同模型。在本文中,LIME算法是在戰略運營的決策建議背景下進行研究的。在簡單介紹了其概念后,介紹了文獻中的應用。然后,一個戰略博弈的場景被認為是軍事戰爭的替代環境。一個基于DL的國際象棋人工智能被做成 "可解釋的",以評估信息對人類決定者的價值。得出了與戰略混合行動有關的結論,這反映了所提出的方法的局限性。
根據設想,未來戰略戰爭的決策將在很大程度上受到基于人工智能(AI)方法的信息產品的影響。特別是混合作戰,是在一個高維和變異的環境中進行的,在這種環境中,對潛在的威脅和機會的評估是人類操作者難以掌握的,戰略規劃必須納入異質的、多功能的和高容量的數據源。因此,基于人工智能方法的算法產生的分類、預測和建議在這種復雜的場景中變得越來越重要。在過去的幾年里,人工智能的方法已經獲得了巨大的發展,有大量的創新和令人尊敬的成果,可以從大型數據集中獲得更高層次的信息。然而,深度學習(DL)方法的一個主要缺點是其固有的黑箱屬性,即由于計算模型的復雜性,其結果是不透明的。例如,后者可能有數百個層和數百萬個參數,這些參數是在訓練階段通過算法發現和優化的。因此,即使結果是準確的,用戶也沒有機會理解它或掌握輸入數據的因果部分。這反過來又會影響到用戶對輔助設備的信任,在兩個方向上都是如此。這個問題在某些民事應用中起著次要的作用,例如語音識別,它經常被應用于與設備的互動,因為除了體面的失望之外沒有潛在的風險。對于其他非常具體的任務,如手寫字符識別,DL算法的性能超出了人類的平均水平,這意味著失敗的可能性很小,因此關于因果關系的問題可能成為附屬品。然而,在許多軍事應用中,當涉及到與人工智能的互動時,人類的信任是一個關鍵問題,因為錯誤的決定可能會產生嚴重的后果,而用戶始終要負責任。這實際上是兩方面的。一方面,操作者往往需要了解人工智能產品的背景,特別是如果這些產品與他或她自己的本能相悖。另一方面,不可理解的技術會對算法信息產品產生偏見,因為很難確定在哪些條件下它會失敗。因此,適當的信任程度可能很難計算。
可解釋的人工智能(XAI)是向黑盒人工智能模型的用戶提供 "透明度"、"可解釋性 "或 "可解釋性 "的方法的集合。這些術語幾乎沒有一個共同的定義,但許多出版物提到了:
XAI不能完全 "解釋 "DL模型,然而,它為工程師或操作員提供了更好地理解特定AI產品背后的因果關系的手段。而且很多時候,這可以幫助看到,從合理的因果關系鏈暗示算法決策或預測的意義上來說,該模型是否是合理的(或不是)。因此,XAI可以成為人工智能模型工程的一個重要工具,用于安全方面的驗證,甚至用于認證過程,以及為操作員提供額外的信息,以支持明智的決策。
雖然關于XAI的大多數文獻都集中在圖像識別的方法上,但這些結果很難轉化為基于特定挑戰性競爭形勢的戰術和戰略決策領域。在本文中,我們研究了人工智能模型在棋盤評估中的可解釋性。對更復雜的軍事戰略模擬的一些影響進行了討論。
本文的結構如下。在下一節中,簡要介紹了選定的XAI方法。然后,這些方法之一(LIME)被應用于棋盤評估問題,以證明在支持信息方面的解釋的質量。在最后一節,得出了結論,并討論了對更復雜的戰爭博弈和模擬的概括。
不確定性是混合沖突的一個核心概念。許多混合沖突是隱蔽的、可否認的,并在正常的國家間關系和武裝沖突之間的灰色地帶進行。此外,混合沖突的信號可能來自于在很長一段時間內收集的大量公開和秘密來源,并且具有不同程度的可靠性。這些因素加在一起,對混合沖突的決策構成了重大挑戰。處理高層次的不確定性要求在情報分析和評估方面有創新的解決方案。在這方面,一個有希望的方法是對不確定性的明確估計。在這項研究中,我們借鑒了統計學、情報分析和人工智能的知識,提出了一種新的方法,并為量化和系統地估計不確定性開發了一個統計模型。該模型考慮了情報分析中不確定性的幾個重要因素:來源可靠性、信息可信度、概率語言和及時性。我們使用標記的和模擬的數據測試了我們的方法,并討論了使用人工智能和數據科學實現這一過程自動化的機會和挑戰。通過這樣做,這項研究向智能分析工具邁出了一步,以減輕混合沖突決策中的不確定性挑戰。
不確定性是情報分析中的一個基本概念。幾乎所有的情報評估都應該用不確定性來表達。這是因為評估要么試圖從不完整的或往往是模糊的數據中做出推斷,要么試圖預測未來的事件(Mandel & Irwin, 2020)。混合沖突的幾個特點1增加了情報分析和評估的不確定性。許多混合沖突是隱蔽的、可否認的,并在正常的國家與國家之間的關系和武裝沖突之間的灰色地帶進行,導致新出現的威脅的信號很弱,而且往往不完整(Monaghan, Cullen & Wegge, 2019)。此外,混合沖突的信號可能來自于長期收集的大量公開和秘密來源,并具有不同的可靠性。這些問題因日益數字化而被放大,數字化導致了公開來源信息的爆炸性增長,而這些信息越來越容易被誤傳或假傳(Treverton, 2021)。
混合沖突的這些特點給情報分析人員帶來了一些挑戰:不確定性增加、模糊性、不可捉摸性、低于檢測閾值的活動、信息過載和數字來源的爆炸(Cullen,2018)。這些挑戰反過來又加劇了情報界對不確定性的系統和定量估計的呼吁。在混合沖突的情報分析中,需要創新方法來處理這些前所未有的不確定性和模糊性。這反過來將支持決策者制定應對復雜的混合威脅的政策。這些呼吁得到了實證研究的響應,實證研究顯示有可能減少分析偏差,改善合作,促進分析透明度,并為實現(半)自動化的情報分析過程鋪平道路(TR-SAS-114,2020)。
盡管各國情報組織之間存在定性標準,并且已經提出了改進不確定性估計的方法,但據我們所知,沒有任何情報組織采用系統的不確定性估計方法(Friedman & Zeckhauser, 2012)。換句話說,不確定性的估計或多或少地隱含在 "分析者的頭腦中"。此外,不確定性最常以定性方式(如 "極有可能")而非定量方式(如 "75%可能")來表達。盡管對不確定性的量化存在一些不情愿的態度--擔心涉及到對 "最佳估計 "的判斷的虛幻的具體感(有 "硬數字")--數值有可能緩解語言障礙,解決不確定性詞匯中的語義差異,并鼓勵分析者的責任感(Dhami & Mandel, 2020)。
這項研究試圖解決這些差距,并提出一種系統地、定量地估計和表達不確定性的方法。這項工作的新穎之處在于,它提出并測試了一種從情報報告本身提取不確定性信息的方法,而不是嚴重依賴分析員的判斷(例如,Lesot, Pichon & Delavallade, 2013;Schum & Morris, 2007)。因此,我們的方法也旨在對不確定性進行更客觀和可重復的估計。另一個主要貢獻是,我們考慮了這個過程自動化的步驟、機會和挑戰(使用數據科學和人工智能的技術)。畢竟,系統地手工估計不確定性將極大地增加分析者的工作量。通過這樣做,這項工作向更快、更系統、更客觀的不確定性判斷邁出了一步,減輕了混合沖突中決策支持的挑戰。
記錄一個系統或集成系統內所有信息變化的出處,這提供了關于正在做出的決定和促使這些決定的重要信息。從取證的角度來看,這可以用來重新創建決策環境。然而,出處也可以為其他兩個重要功能服務。收集的數據可以支持組件的整合,而生成的圖形數據結構可以通過解釋、總結和告警來支持操作員進行態勢感知。混合戰爭將必然匯集不同決策支持能力,因為決策者必須在多個戰爭領域運作。自主代理將可能在計劃和執行過程中發揮作用,有時能夠在沒有人類干預的情況下做出決定,但人類決策者必須意識到這一點。事實證明,證據圖可以轉化為修辭結構圖(RSG),使代理能夠用自然語言甚至多模態交流,向人類解釋他們的行動。證據還被證明可以加強對計劃執行監控,并可用于向人類或自主代理提供通知,當計劃中使用的信息發生變化時,可能需要重新考慮計劃。隨著我們朝著智能機器在復雜環境中支持人類決策者團隊的方向發展,跟蹤決策及其輸入的需要變得至關重要。
出處是關于實體、活動、代理以及這些概念之間關系的信息[1]。這些信息不僅僅解釋了發生了什么,它還回答了關于實體如何被操縱、何時發生以及誰參與了這個過程的問題。我們很可能熟悉關于追蹤藝術作品出處的新聞和虛構的故事。任何實體的創造、破壞或修改的出處都可以被追蹤。在本文中,我們將重點討論軍事系統內的信息。在指揮與控制(C2)內,信息出處對于記錄行動背后的決策過程是必要的,特別是當自主和人工智能(AI)代理深入參與時。參與某一過程的 "誰 "可能是人類或人工智能代理。
信息出處有幾個目的。在取證方面,出處追蹤提供了參與決策的人和代理,以及數據是如何演化為該決策的。美國公共政策委員會指出,數據出處是算法透明度和問責制的一個明確原則[2]。完整記錄的出處可以闡明數據的依賴性、責任流,并幫助解釋為什么采取某些行動。隨著人工智能和自主代理繼續自動化進程,它們在做出關鍵決策時已變得更加不可或缺[3]。
現代多領域沖突日益復雜,使得對其戰術和戰略的理解以及確定適當行動方案具有挑戰性。作為概念開發和實驗 (CD&E) 的一部分的建模和仿真提供了新的見解,以更快的速度和更低的成本比物理機動更易實現。其中,通過計算機游戲進行的人機協作提供了一種在各種抽象級別模擬防御場景的強大方法。然而,傳統的人機交互非常耗時,并且僅限于預先設計的場景,例如,在預先編程的條件計算機動作。如果游戲的某一方面可以由人工智能來處理,這將增加探索行動過程的多樣性,從而導致更強大和更全面的分析。如果AI同時扮演兩個角色,這將允許采用數據農場方法,從而創建和分析大量已玩游戲的數據庫。為此,我們采用了強化學習和搜索算法相結合的方法,這些算法在各種復雜的規劃問題中都表現出了超人的表現。這種人工智能系統通過在大量現實場景中通過自我優化來學習戰術和策略,從而避免對人類經驗和預測的依賴。在這篇文章中,我們介紹了將基于神經網絡的蒙特卡羅樹搜索算法應用于防空場景和虛擬戰爭游戲中的戰略規劃和訓練的好處和挑戰,這些系統目前或未來可能用于瑞士武裝部隊。
應對氣候變化對北約具有戰略意義。對可能的氣候措施和后果進行充分知情的決策支持分析將決定北約如何很好地應對這一挑戰。環境科學和軍事行動分析的結合將使各國和聯盟能夠做出明智的決定,有可能減少溫室氣體排放和成本,并提高行動效率。
挪威國防部已責成挪威國防研究機構(FFI)在軍事要求規定的范圍內研究挪威武裝部隊減少溫室氣體排放的潛力。
我們對挪威武裝部隊未來的排放量進行了建模,并對七項措施的減排量和成本進行了量化。總的來說,這些措施有可能使溫室氣體排放相對于未來排放的基線減少15-30%,平均估計為22%。此外,我們還確定了幾個同樣重要的措施,這些措施的減排量可能難以量化。
武裝部隊的軍事平臺有很長的服務壽命。現在投資于能源效率低下的解決方案將在未來許多年內產生排放和成本。因此,我們建議,排放預測在采購決策和長期國防規劃過程中得到更突出的作用。
挪威武裝部隊的活動對環境產生了一些負面影響。鑒于武裝部隊任務的性質,其中一些影響是不可避免的。對環境的影響進行了持續的調查,并每年進行報告。國防部門的溫室氣體排放在國際和國內得到了越來越多的關注,挪威國防部責成挪威國防研究機構(FFI)研究減少挪威武裝部隊溫室氣體排放的潛力。
本文的目的是在軍事要求規定的范圍內,對這種潛力進行建模。這項研究并不包含國防部門可能的環境措施的完整清單。我們已經優先考慮了目前知識缺乏的領域。我們還考慮了一個新提出的海上戰爭替代概念的排放效應。這不應該被理解為一種減排措施,它是一種提高能力和降低成本的措施。然而,我們希望證明這樣一個概念的排放后果,并將其作為一個例子,說明如何在國防部門利用技術來實現更多的氣候效率解決方案。
在本章中,我們將簡要地討論氣候變化和對挪威武裝部隊可能產生的后果。在接下來的章節中,我們將說明我們的分析方法和數據、結果和結論。
人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。
縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。
幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。
同步使用針對所有社會職能中的特定漏洞而定制的多種權力工具,以實現協同效應。混合作戰入侵者將尋求利用目標國家的弱點。每一個混合戰爭入侵者可能有獨特的能力,可用于打擊目標國家。戰爭的“奇襲”原則可能是混合攻擊成功的最大因素。
幾十年來,政治科學家和國家層面的軍方政策制定者一直在戰略層面使用博弈論,但對其在作戰層面的使用幾乎沒有評論。傳統上,三個主要挑戰阻礙了規劃人員和分析人員在作戰層面使用博弈論,即復雜的作戰環境、參與者的動態交互以及大多數陸軍參謀人員不具備使用復雜數學技能。
這本專著表明,這些挑戰是可以克服的,博弈論可以在規劃過程中提供新穎的見解。美陸軍參謀部規劃人員可以在作戰層面有效地使用基本博弈論和簡單的數學來了解作戰環境、了解行動者及其動機,并在軍事決策過程中比較行動方案。本專著展示了如何避免高級博弈論用于解決理論問題的繁瑣數學程序,而是專注于使用基本博弈論在規劃過程中提供價值。它通過回顧博弈論在戰略層面的應用、教授基本博弈論和涵蓋一些基本博弈概念來展示博弈論的實用性。然后,它考察了一場歷史性的行動,以展示博弈論的使用將如何達到另一個推薦行動方案和結果,也許會改變歷史進程。最后,它通過將博弈論應用于軍事決策過程、任務分析和行動制定過程的兩個步驟的練習,提供了使用博弈論的指南。
幾十年來,戰略規劃者和政策制定者在戰略層面有效地應用了博弈論,但軍事從業者往往不在作戰層面使用它。當約翰·馮·諾依曼和奧斯卡·摩根斯坦在 1940 年代初在蘭德公司工作期間發展博弈論時,他們尋求一種數學方法來為沖突領域,特別是經濟沖突提供解決方案。他們于 1944 年發表了開創性的著作《博弈論與經濟行為》
博弈論允許通過將場景建模為簡化的博弈來分析決策。博弈論試圖定義參與者、策略——或可供他們選擇的選項——以及博弈結果的預期回報。它試圖澄清由于參與者的選擇而導致的不確定性。它的主要用途是它認識到結果是通過多個參與者的互動共同決定的,而不僅僅是一個人自己決定的結果,它允許分析對手可能會做什么。由于這些原因,政策制定者和戰略家使用博弈論來理解戰略問題,例如核對手、貿易慣例、內戰解決和裁軍以及缺乏國際合作,從而制定政策建議以幫助解決這些問題
作戰層面的規劃者是否可以有效地應用博弈論仍然是一個懸而未決的問題。在作戰層面使用博弈論的批評者強調了動態交互的復雜性。他們指出,培訓軍官了解博弈論的基本概念并將操作層面問題的復雜性提煉成基本博弈需要大量時間。
本專著認為博弈論提供了一個有價值的框架,最適用于在軍事決策過程的任務分析和行動發展步驟過程中理解環境中的參與者。博弈論旨在提供對情況的理解。這需要了解參與者及其潛在計劃或戰略動機。博弈論提供了一種理性的方法來研究行動者如何制定他們的策略和他們的動機基礎。由此,指揮官和參謀人員可以獲得理解,然后疊加其他因素,包括行動方案和潛在結果。它提供了一種合理而直接的方法來簡化復雜的問題。因此,博弈論為作戰規劃者提供了另一種工具,可用于了解作戰環境。
本專著重點介紹博弈論在戰略層面的歷史應用、當前的規劃過程學說和相關框架,以回答作戰規劃者能否在作戰層面有效地使用博弈論。這本專著主要通過囚徒困境分析博弈論在戰略層面的應用,將其應用于冷戰、國際貿易和價格戰期間的降價。 1777 年的新澤西戰役為應用博弈論和理解喬治華盛頓將軍和查爾斯康沃利斯將軍之間的競爭環境提供了一個歷史例子。最后,它演示了如何以及在何處將博弈論工具實施到美國陸軍當前使用的規劃過程中。所使用的博弈論是一種基本的應用方法,而不是過于復雜和無用的高級學術博弈論。簡單的博弈可以使復雜的操作情況變得清晰。該研究回顧了陸軍規劃學說,以專注于了解作戰環境和問題。任務分析旨在了解環境中的參與者以及他們之間沖突的根源。這 3 項研究的重點是深入了解對抗性和中立的參與者、激勵措施、潛在的行動方案和回報。該專著追溯了博弈論的戰略應用和作戰應用之間的差異,以了解哪些要素是一致的,同時說明了差異。最后,它將討論如何克服實施中的潛在挑戰。
規劃人員可以在軍事決策過程中使用博弈論工具,特別是在任務分析期間,以不同的視角理解作戰環境和行動發展過程,以檢查未發現的假設。博弈論工具不是替代軍事決策過程中現有的步驟和工具,而是對其進行補充。戰地手冊 6-0 解釋說,指揮官和參謀人員使用任務分析來更好地了解作戰環境和部隊面臨的問題。接下來,規劃人員使用任務分析來制定假設以填補知識空白。最后,考慮到博弈論理解競爭的本質,任務分析也有助于理解友軍和敵軍如何互動。行動方案制定過程提供了一種客觀的方式來看待多個潛在計劃。在上面的歷史例子中,華盛頓將軍和康沃利斯將軍需要了解他們的潛在行動以及他們認為 30 名敵方指揮官可能會做什么。在某種程度上,歷史例子中的將軍們可以在他們的行動發展過程中使用博弈論來檢查他們的假設。開發從敘述性或定性評估開始,然后轉向帶有每個計劃的加權分數的可量化評估。博弈論允許另一種觀點來評估潛在的計劃。以下思想實驗提供了一個示例,說明工作人員如何在任務規劃期間使用一些博弈論工具。
演習如下:美國討論在一個靠近對手的友好國家增加軍事存在,這旨在阻止對手入侵友好國家。軍團工作人員了解國家決策者關于在一個地區增加軍事存在的辯論。此外,他們知道如果國家領導層追求升級,軍團是升級的一個因素。工作人員致力于了解作戰環境并了解國家層面的優先事項和激勵措施,以便他們可以就選項提出更高的建議并為預期的行動方案做好準備。其次,他們努力了解敵人的動機和行動計劃。敵人還面臨著增加其在該地區的軍事存在或維持現狀的前景。兩國都擁有核武器,都不想進行全面戰爭。最后,兩個大國都可以遷移的地區的人口不希望被外國勢力占領。國家決策者面臨的戰略決策具有操作層面的影響。
如上所述,任務分析提供了對情況和問題的理解。在任務分析過程中,工作人員開始對行動者的動機和動機有所了解。戰場情報準備是任務分析的關鍵步驟。參謀人員對友軍和敵軍如何在環境中相互作用做出假設。由此,工作人員開發了每個參與者在即將到來的操作中可以使用的潛在選項。此外,情報準備步驟確定了指揮官和參謀人員的知識差距。這些差距導致了獲取信息的情報需求的發展。正如文獻回顧中所述,人們根據他們擁有的信息做出決策,并預測競爭對手的行為。這些步驟不會取代或否定軍事決策過程的任何步驟,它們只是關于如何以及在何處實施博弈論工具的建議。
鑒于這種情況,參謀人員開始制定敵人的行動方案。當應用于博弈矩陣時,這些行動方案成為敵人的策略。敵人可以用他們的一個師或軍將該地區軍事化,也可以選擇不軍事化。是否軍事化的選擇為敵人創造了兩種不同的戰略。第二步著眼于每個策略的結果。如果雙方都軍事化,那么他們將面臨戰爭。如果雙方都沒有軍事化,那么他們就維持現狀。如果一個國家軍事化而另一個國家不軍事化,那么軍事化的國家就會在沒有爭議的環境中這樣做。表11顯示了這種情況的結果。
表11:定性結果
第三步要求參謀人員查看敵人的動機,然后對他們的選擇進行定性分析。敵人想在美國不決定將該地區軍事化的情況下將該地區軍事化。這為他們創造了一個無可爭議的環境。其次,他們既不看重自己也不看重美國將該地區軍事化,這是現狀。第三個可取的結果是美國軍事化,而敵人沒有,這意味著美國擁有無可爭議的軍事化。最后,如果美國也進行軍事化,敵人不想升級為戰爭,也不想將該地區軍事化。工作人員現在可以根據偏好對敵人的行動路線進行排序。作戰和情報人員可以利用收集資產并制定收集計劃,以確定有關敵人計劃的任何指標,例如在該地區集結部隊。信息收集計劃有助于回答信息需求并協助進行有效規劃。
工作人員現在進入行動開發過程。生成選項步驟概述了指揮官和參謀人員可用的選項。工作人員制定了可以切實擊敗敵人行動方案的選項,然后確定它們的優先級。工作人員還產生了兩個廣泛的選項。他們可以軍事化,也可以不軍事化。由于每個參與者的策略,工作人員現在可以對他們的行動方案進行排序。指揮官和參謀更愿意維持現狀。如果美國采取行動將該地區軍事化,它可能會擾亂地方、國家政府和民眾。因此,美國對該地區的軍事化和一個不軍事化的敵人是次要的選擇。這種選擇意味著美國擁有無可爭議的軍事化,但正如所述,當地政府感到不安。第三,排名是美國不軍事化,但敵人軍事化,給了他們無可爭議的優勢。最后,美國不希望發生戰爭,如果美國和敵人都進行軍事化,就會發生戰爭。
接下來,工作人員將博弈發展為矩陣或戰略形式。首先,他們進行定性分析,說明每次交戰的可能結果,見表 12。然后參謀人員從每個指揮官的角度對結果進行排序,以生成定量分析和回報,如表 13 所示。該表顯示了回報敵方第一,美國第二。使用倒序排列,最低數字的收益表示排后的選項,數字越大,表示首選的選項。每個戰斗人員都是近鄰,因此參謀人員認為交戰將有利于主動一方。
表12 :定性分析
表13:定量結果
這兩種的價值在于員工進行分析以掌握對潛在未來結果的理解。它提供了一個簡潔的可交付產品,參謀計劃人員可以在一張紙上將其交給指揮官或參謀長,以供將來參考或思考,因為指揮官和參謀人員開始在軍事決策過程的未來步驟中權衡選項。這種分析為員工提供了一個思考他們正在做什么以及他們的計劃可能產生什么結果。這是舍恩所說的實踐中反思的一個例子。正如他所說,它允許人們在執行任務時思考他們正在做什么,然后塑造他們所做的事情。
下一步要求參謀人員將可用選項縮小到只有指揮官可用的可信選項。參謀部尋找指揮官永遠不會使用任何主導策略。敵方指揮官沒有任何主導策略,并且兩種策略都可供他使用。但美國永遠不會在博弈中選擇軍事化,因為無論敵人選擇什么,不軍事化都會主導博弈。表 14 以粗體突出顯示哪個選項在美國占主導地位。例如,如果敵人決定軍事化,如果它決定軍事化,美國將獲得 1 的回報,否則將獲得 2 的回報。因此,在這種情況下,美國會選擇不進行軍事化。同樣,如果敵人不軍事化,那么如果它軍事化,美國將獲得三倍的回報,如果它不軍事化,美國將獲得四倍的回報,美國將再次選擇不進行軍事化。因此,工作人員將其排除在外。
表14:以粗體突出顯示的美國的收益
既然參謀人員了解美國沒有軍事化的動機,它就可以看看敵人可能會采取什么行動作為回應。敵人知道美國不想軍事化,并尋求使其結果最大化。因此,敵人選擇軍事化,因為這比不軍事化帶來更好的回報。這達到了納什均衡,即敵人軍事化并獲得四分之二的回報,而美國不軍事化并獲得三分之二的回報。表 15 顯示了圈出的所得納什均衡。
表15:軍事化為主
但現實生活中的情況并不總是一致的。一方通常首先采取行動,迫使另一方做出決定。在上述情況下,美國正在努力應對將該地區軍事化的決定。然后他們的決定迫使敵人做出決定。下一步著眼于在順序移動游戲中情況如何展開,以及納什均衡在決策分析中是否發生變化。順序博弈見表 16。該表首先顯示了敵人的收益,其次是美國的收益。
表16:順序多次博弈
參與者對每個結果的選擇和回報保持不變。唯一的區別是美國先行動,敵人必須做出反應。工作人員必須使用子博弈分析來分析這個博弈及其結果。敵人有第二步,因此分析從他們的預期步驟開始。這兩個參與者都知道,如果美國選擇軍事化,敵人將選擇不軍事化,因為兩個人的回報比一個人要好。如果美國選擇不軍事化,敵人會想要軍事化,因為四比三好。鑒于美國的選擇,上面的表 16 通過圈出每個敵人的首選選擇來表明這種行為。既然美國知道敵人會根據美國的選擇做出哪些選擇,他們就會在兩者之間做出選擇。美國選擇軍事化,知道敵人不會軍事化,從而為美國帶來三倍的回報。美國軍事化總比不軍事化并獲得兩個回報要好,因為知道敵人會選擇軍事化。因此,納什均衡變成了美國軍事化和敵人不軍事化,敵方兩分,美國三分,見表 17。
表17:納什均衡
序列博弈導致的納什均衡與同步博弈不同,為什么?每場比賽都會導致一方軍事化,而另一方不軍事化。在同步博弈中,敵人通過軍事化獲得了最有利的回報,美國知道這一點,因此選擇不軍事化。然而,在順序博弈中,美國先決勝負。如果他們不軍事化,他們將獲得最高的回報,而敵人也選擇不軍事化。兩國都不會軍事化,因為如果美國不軍事化,敵人就有動機進行軍事化。美國意識到這一點,因此認為他們的下一個最佳選擇是軍事化,因為它知道敵人不會軍事化,因為這會迫使兩個參與者之間發生戰爭。這個游戲提供了一個先發優勢的例子。如果敵人先選擇,他們也會有軍事化的動機
序列多次博弈反映了更現實的情況。但是運行這兩種類型的博弈為工作人員了解動機和潛在行動提供了分析價值。工作人員可以看到排序操作如何改變結果。如上所述,使用這種方法的價值在于分析。工作人員可以按照矩陣形式對每個結果進行簡要說明。然后他們可以看到他們的選擇之一不是一個可行的選擇。然后,他們查看了定量評估并確定可以使用平衡結果。所進行的定性分析重申了 Thomas Schelling 的觀點,即博弈論的數學并不總能解決沖突,不應過度依賴數學。而是對問題的思考增加了價值。
博弈論提供了一種分析工具來看待競爭情況。它使分析師能夠了解潛在的行動計劃、激勵措施以及回報或結果。此外,它可以突出信息差距和需要進一步理解的領域。在 20 世紀中葉,戰略層面的規劃者用它來更好地了解美國和蘇聯之間在使用核武器和原子戰方面的競爭。國防部以外的分析師使用它來了解競爭公司之間的貿易爭端和降價。
在作戰層面,博弈論允許對潛在計劃、激勵和結果進行相同類型的分析和理解。這本專著審視了博弈論的歷史并探索了基本的博弈論,確立了博弈論在分析沖突情況方面的有用性。文獻回顧揭示了博弈論的優勢和劣勢,這為如何最好地利用它以最大限度地發揮其潛力提供了信息。檢查諸如核局勢和國際貿易等戰略層面的決策為以前的努力如何有效地應用博弈論提供了背景。博弈論在特倫頓和普林斯頓的美國獨立戰爭中的應用與指揮官們所追求的不同,展示了使用博弈論如何提供獨特的見解,這對于像康沃利斯這樣經驗豐富的將軍來說并不明顯。最后,該專著展示了軍團級別的參謀人員如何使用博弈論來理解戰略級別的決策如何影響作戰級別的行動,比較了同步博弈和序列博弈的實用性。最后一部分提供了一個基本框架,工作人員可以通過將博弈論應用于任務分析和行動開發過程來解決操作問題。
博弈論的使用不僅限于軍事決策過程。博弈論非常適合國防部和美國陸軍目前使用的現有規劃流程。規劃人員可以在聯合作戰設計過程和陸軍設計方法中使用博弈論工具。具體來說,在聯合設計期間,博弈論工具最適合理解戰略指導和理解作戰環境。在軍隊設計期間,它最適合構建作戰環境和理解問題。博弈論是參謀人員或計劃團隊的工具包中的另一個有用工具。當通過軍事決策過程或設計過程應用時,博弈論分析與其他工具很好地結合在一起,可以更好地了解作戰環境。
人工智能 (AI) 在規劃和支持軍事行動方面發揮著越來越大的作用,并成為情報和分析敵人情報的關鍵工具。人工智能的另一個應用領域是自主武器系統和車輛的應用領域。預計人工智能的使用將對人機界面的軍事功能(機器學習、人機協作)產生更大的影響。人工智能有望克服大數據的“3V挑戰”(數量、多樣性和速度),也有望降低其他“2V”(準確性、價值)的風險,并使數據處理處于可控水平基于人工智能知識的決策。本文的目的是概述人工智能在軍事中的應用潛力,并強調需要確定和定義可衡量的指標,以評估有望改進的最先進技術和解決方案,評估的質量和性能側重于態勢感知和決策支持以及后勤和運營規劃以及建模和模擬 (M&S) 等關鍵領域。
今天介紹的是美國蘭德公司、耶魯大學聯合發表于The Journal of Defense Modeling and Simulation: Applications, Methodology, Technology(國防建模與仿真學報:應用、方法、技術)期刊的論文“Artificial intelligence for wargaming and modeling”。
摘要:
在本文中,討論了如何將人工智能 (AI) 用于與擁有大規模殺傷性武器和其他涉及太空、網絡空間和遠程精確度的高端能力的國家發生沖突的政治軍事建模、模擬和兵棋推演武器。人工智能應該幫助兵棋推演的參與者和模擬中的代理人了解在不確定性和錯誤印象下作戰的對手的可能觀點、看法和計算。人工智能的內容應該認識到升級的風險,導致沒有贏家的災難,但也有可能產生有意義的贏家和輸家的結果。我們討論了對設計和發展的影響使用多種類型的 AI 功能的模型、模擬和兵棋推演。我們還討論了使用模擬、歷史和早期兵棋推演的理論和探索性工作為兵棋推演決策輔助工具,無論有無人工智能。
關鍵詞:
人工智能,兵棋推演,建模與仿真,認知建模,決策,深度不確定性下的決策,海量場景生成,探索性分析與建模
美國國防部(DOD)報告稱,人工智能(AI)是一項革命性的技術,有望改變未來的戰場和美國面臨的威脅的速度。人工智能能力將使機器能夠執行通常需要人類智能的任務,如得出結論和做出預測此外,人工智能機器可以以人類操作員無法企及的速度操縱和改變戰術。由于AI具有廣泛用途的潛力,國防部將其指定為頂級現代化領域,并投入大量精力和資金開發和獲取AI工具和能力,以支持作戰人員。在2022財年,國防部為科學和技術項目申請了147億美元,以及8.74億美元用于直接支持其人工智能努力。根據國防部2018年的人工智能戰略,未能將人工智能能力納入武器系統可能會阻礙戰士保護我們的國家抵御近同行對手的能力其他國家正在這一領域進行大量投資,這可能會削弱美國的軍事技術和作戰優勢。
美國國防部(DOD)正在積極追求人工智能(AI)能力。人工智能指的是旨在復制一系列人類功能,并不斷在分配的任務上做得更好的計算機系統。GAO之前確定了三種AI類型,如下圖所示。
國防部認識到開發和使用人工智能不同于傳統軟件。傳統軟件的編程是根據靜態指令執行任務,而人工智能的編程則是學習如何改進給定的任務。這需要大量的數據集、計算能力和持續監控,以確保功能按預期執行。支持國防部作戰任務的大部分人工智能能力仍在開發中。這些能力主要集中在分析情報,增強武器系統平臺,如不需要人工操作的飛機和艦船,并在戰場上提供建議(如將部隊轉移到哪里)。
當獲取依賴于復雜軟件的新能力時,國防部一直面臨著挑戰,例如長時間的獲取過程和熟練工人的短缺。GAO發現,它繼續面臨這些挑戰,同時還面臨人工智能特有的其他挑戰,包括有可用的數據來訓練人工智能。例如,人工智能探測對手的潛艇需要收集各種潛艇的圖像,并標記它們,這樣人工智能就可以學會自己識別。國防部還面臨著將訓練有素的人工智能集成到非為其設計的現有武器系統中的困難,以及在其人員中建立對人工智能的信任。國防部發起了一系列努力,如為人工智能和人工智能特定培訓建立一個跨服務的數字平臺,以應對這些挑戰,并支持其對人工智能的追求,但現在評估有效性還為時過早