亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

訓練一名步兵軍官在軍事行動中選擇適當的排隊,傳統上需要投入大量的訓練資產。步兵訓練將受益于在普遍可用的平臺上進一步發展高容量的訓練。2018年,創建了一個基于計算機的模擬排隊編隊決策任務(PFDT),并利用認知與績效目標訓練干預模型(CAPTTIM)來確定哪些參與者達到了最佳決策以及何時發生。本研究在該工作的基礎上,在兩個流行的平臺上完善和測試PFDT。PFDT包括32個場景,每個場景隨機呈現四次,總共128次試驗。在這些場景中,有五個因素被操縱,一個中小企業確認了最佳、可接受和差的決策反應。基礎學院和海軍研究生院的27名學生在三種平臺中的一種完成了PFDT:平板電腦、虛擬現實(VR)或帶編隊的VR(為參與者提供在虛擬背景上描繪編隊的能力)。CAPTTIM表明,在達到最佳決策所需的試驗數量上不存在平臺效應。此外,參與者的經驗水平并不影響專家或新手在對方之前達到最佳決策。因此,PFDT是一個可行的軍事訓練模擬器,無論所使用的技術平臺或步兵訓練的數量如何。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

訓練一名步兵軍官在軍事行動中選擇合適的排陣型,傳統上需要大量的訓練資源。步兵訓練將受益于在普遍可用的平臺上進一步發展高容量的訓練。2018年,創建了一個基于計算機的模擬排級編隊決策任務(PFDT),并利用認知與績效目標訓練干預模型(CAPTTIM)來確定哪些參與者達到了最佳決策以及何時發生。本研究在該工作的基礎上,在兩個流行的平臺上完善和測試PFDT。PFDT包括32個場景,每個場景隨機呈現四次,總共128次試驗。在這些場景中,有五個因素被操縱,確認了最佳、可接受和差的決策反應。基礎學院和海軍研究生院的27名學生在三種平臺中的一種完成了PFDT:平板電腦、虛擬現實(VR)或帶編隊的VR(為參與者提供在虛擬背景上描繪編隊的能力)。CAPTTIM表明,在達到最佳決策所需的試驗數量上不存在平臺效應。此外,參與者的經驗水平并不影響專家或新手在對方之前達到最佳決策。因此,PFDT是一個可行的軍事訓練模擬器,無論所使用的技術平臺或步兵訓練的數量如何。

付費5元查看完整內容

訓練一名步兵軍官在軍事行動中選擇適當的排隊,傳統上需要投入大量的訓練資產。步兵訓練將受益于在普遍可用的平臺上進一步發展高容量的訓練。2018年,創建了一個基于計算機的模擬排編隊決策任務(PFDT),并利用認知與績效目標訓練干預模型(CAPTTIM)來確定哪些參與者達到了最佳決策以及何時發生。本研究在該工作的基礎上,在兩個流行的平臺上完善和測試PFDT。PFDT包括32個場景,每個場景隨機呈現四次,總共128次試驗。在這些場景中,有五個因素被操縱,一個中小企業確認了最佳、可接受和差的決策反應。基礎學院和海軍研究生院的27名學生在三種平臺中的一種完成了PFDT:平板電腦、虛擬現實(VR)或帶編隊的VR(為參與者提供在虛擬背景上描繪編隊的能力)。CAPTTIM表明,在達到最佳決策所需的試驗數量上不存在平臺效應。此外,參與者的經驗水平并不影響專家或新手在對方之前達到最佳決策。因此,PFDT是一個可行的軍事訓練模擬器,無論所使用的技術平臺或步兵訓練的數量如何。

付費5元查看完整內容

在過去的二十年里,美國防部經歷了對無人機系統(UAS)的需求和依賴,以執行廣泛的軍事應用,包括情報、監視和偵察以及打擊和攻擊任務等。隨著無人機系統技術的成熟和能力的擴大,特別是在增加自主性的情況下執行行動的能力方面,采購專業人員和行動決策者必須確定如何最好地將先進的能力納入現有和新興的任務領域。為此,美國防部已經發布了多個無人系統綜合路線圖(USIRs),目的是建立一個 "未來25年的技術愿景"。此外,每個軍種都發布了類似的路線圖,強調自主系統不斷發展的作用(美國陸軍,2010年)、(美國海軍陸戰隊,2015年)、(美國空軍AF/A2CU,2016年)、(USIR,2011年)。然而,這些路線圖并沒有提供實際應用,說明如何能夠或應該將自主性納入旨在完成未來國防部任務領域的無人機系統平臺。因此,本研究以上述出版物的概念為基礎,從自主性的角度來描述無人機系統的能力,因為它們可能在未來的美國空軍軍事任務中實施。

這項研究采用了德爾菲法來預測未來20年的無人機系統任務領域,特別是在增加無人機系統自主執行此類任務的能力方面。德爾菲技術已被應用于許多類似領域,但在預測技術發展如何影響軍事行動方面取得了明顯的成功(Linstone & Turoff, 2002)。德爾菲技術使用的主題專家(SME)來自美國空軍社區的專業人員,他們負責無人機系統技術的日常操作、采購和研究。該研究使用了兩輪問題,以深入了解無人機系統社區認為最重要和可能被納入軍事任務領域的未來能力,以及不同的無人機系統社區如何看待自主性為軍事任務帶來的挑戰和機遇。

付費5元查看完整內容

應對主動射擊者/敵對事件(ASHE)的機構需要認識到利用彼此的行動機會。這篇論文回答了一個研究問題。在事件發生前,執法和消防救援人員可以確定哪些共同的行動點,以改善反應協調和合作?研究包括ASHE案例分析、機構政策分析以及執法和消防救援主題專家的焦點小組。通過識別決策(RPDM)框架的視角進行研究,因為它特別涉及到在嚴重的時間限制下做出的決定。政策分析表明,各機構希望共享行動點能夠得到認可并采取行動。案例分析發現,共享行動點與政策中的共享行動點類似,都是在應對過程中出現的。焦點小組的參與者提供了對反應者期望的行動和政策中指示的行動的見解。隨后的減災行動鏈概念模型和確定的共享行動點可以被納入培訓計劃,以幫助確保關鍵的現場互動并改善事件結果。

付費5元查看完整內容

美海軍陸戰隊長期以來一直使用戰術決策游戲(TDG)來訓練和評估領導和決策能力。使用紙筆或干擦板的陳舊過程需要一個主題專家在場,以評估和評價每個海軍陸戰隊員的演習計劃,并對他們的演習計劃提供即時反饋。這個過程很耗時,而且不允許海軍陸戰隊員進行必要的演練和集訓,以建立他們在各種情況下的直覺決策并獲得經驗。無論任務如何,海軍陸戰隊要求領導者在戰斗中取得成功,要做好準備,即使是在第一次遇到這種情況時也要采取行動。

基于計算機的TDG被設計為允許海軍陸戰隊員在時間有限的環境下,在未知的地形和不同的敵人情況下,通過連續的重復練習來獲得排級演習的經驗。這個系統使海軍陸戰隊員能夠獲得他們需要的重復訓練,以建立他們的決策技能,并補充教官指導的訓練。使用重復測量設計,數據表明,使用基于計算機的TDG縮短了海軍陸戰隊員的決策周期,并顯示出通過快速重復選擇正確機動路徑的準確性有所提高。

研究問題

  • 研究問題1:通過計算機模擬訓練排級決策,能在多大程度上縮短從數據收集到決策的周期?

  • HA1: 有效的訓練將體現在參與者在規定的時間內為每個場景選擇可接受的決定(70%的分數),μ>0.70。

  • HA2:參與者在整個培訓迭代過程中,完成TDG的平均時間減少,?μtime < 0。

  • 研究問題2:基于計算機的戰術決策游戲(TDG)在多大程度上是一種可用的戰術決策培訓設備?

付費5元查看完整內容

美國防部(DOD)整體態勢感知和決策(HSA-DM)項目辦公室負責確定未來垂直升降機(FVL)的認知工作負荷驅動因素,并開發認知工作負荷管理能力。減少認知工作量的最常見技術之一是將以前由人類飛行員執行的任務自動化。海軍研究生院(NPS)的這項頂點研究通過調查任務難度和自動化的復雜程度如何影響人類在人類自動化團隊(HAT)環境中的行為,為HSA-DM的使命做出了貢獻。研究結果表明,更復雜的自動化水平并不一定像其他因素(如場景難度)那樣降低認知工作量。

研究人員進行了一項 "綠野仙蹤 "類型的研究,有20名參與者和一名同盟者。每個參與者都與同伙一組,被指派在一個名為C3Fire的軟件程序中撲滅一場森林火災。參與者包括陸軍、海軍和海軍陸戰隊的中級軍官(O3-O4)。參與者中沒有人熟悉C3Fire,但他們確實有自動化的經驗。本研究的獨立變量是自動化水平(內部;低、中、高)和排隊(之間;無提示、有提示)。同盟者遵循預先規定的自動化水平,在每次迭代后 "升級"。同盟者遵循指定的自動化水平,對應于Sheridan的自動化水平之一(Sheridan 1978)。因果變量包括傳送的信息數量、移交給同伙的任務數量以及被試報告的主觀認知工作量。被試和同伙在大約70分鐘內完成一個訓練場景和三個(現場)場景。

這項研究的結果表明,自動化水平對認知工作量沒有顯著影響。研究結果確實顯示,參與者通過使用可用的功能向自動化發送更多的任務。參與者通常使用更復雜的自動化水平,將任務捆綁在單一的信息中。在捆綁功能可用之后,參與者將更多的任務交給了自動化。然而,進一步增加捆綁的數量并沒有導致交給自動化的任務數量的顯著增加。雖然參與者將更多的任務交給了自動化代理,但認知工作量在每次迭代中都保持不變。

結果表明,下一代FVL平臺的開發者應該建立自動化功能,允許人類將任務捆綁到一個單一的傳輸中,以使人類能夠向自動化代理發送更多的任務。捆綁是有效的,允許參與者更快地發送更多的任務給自動化。但是,創建允許人類向自動化代理傳送更多任務的功能并不一定能減輕人類操作員的認知工作量。

付費5元查看完整內容

摘要

兵棋模擬是一種決策工具,可以為利益相關者分析的場景提供定量數據。它們被廣泛用于制定軍事方面的戰術和理論。最近,無人駕駛飛行器(UAVs)已經成為這些模擬中的一個相關元素,因為它們在當代沖突、監視任務以及搜索和救援任務中發揮了突出的作用。例如,容許戰術編隊中的飛機損失,有利于一個中隊在特定戰斗場景中勝利。考慮到無人機的分布可能是這種情況下的決定性因素,無人機在超視距(BVR)作戰中的位置優化在文獻中引起了關注。這項工作旨在考慮敵人的不確定性,如射擊距離和位置,使用六種元啟發法和高保真模擬器來優化無人機的戰術編隊。為紅軍蜂群選擇了一種空軍經常采用的戰術編隊,稱為line abreast,作為案例研究。優化的目的是獲得一個藍軍蜂群戰術編隊,以贏得對紅軍蜂群的BVR戰斗。采用了一個確認優化的穩健性程序,將紅軍蜂群的每個無人機的位置從其初始配置上改變到8公里,并使用兵棋方法。進行了戰術分析以確認優化中發現的編隊是否適用。

索引詞:優化方法,計算機模擬,無人駕駛飛行器(UAV),自主智能體,決策支持系統,計算智能。

I. 引言

兵棋是在戰術、作戰或戰略層面上模擬戰爭的分析性游戲,用于分析作戰概念,訓練和準備指揮官和下屬,探索情景,并評估規劃如何影響結果。這些模擬對于制定戰術、戰略和理論解決方案非常有用,為參與者提供了對決策過程和壓力管理的洞察力[1]。

最近,無人駕駛飛行器(UAVs)作為一種新的高科技力量出現了。利用它們來實現空中優勢可能會導致深刻的軍事變革[2]。因此,它們的有效性經常在兵棋中被測試和評估。

由于具有一些性能上的優勢,如增加敏捷性、增加過載耐久性和增加隱身能力,無人機已經逐漸發展起來,并在許多空中任務中取代了有人系統[3]。然而,由于戰斗的動態性質,在視覺范圍之外的空戰中用無人系統取代有人平臺是具有挑戰性的。在空戰中,無人機可以被遠程控制,但由于無人機飛行員對形勢的認識有限,它將在與有人平臺的對抗中處于劣勢。然而,這種限制可以通過自動戰斗機動[4]和戰術編隊的優化來克服。此外,使用無人機可以允許一些戰術編隊和戰略,而這些戰術編隊和戰略在有人駕駛的飛機上是不會被考慮的,例如允許中隊的飛機被擊落,如果它有助于團隊贏得戰斗。文獻中最早的一篇旨在優化超視距(BVR)作戰中的飛機戰術編隊的文章[5]表明,空戰戰術是用遺傳算法(GA)進行優化的候選方案。該實施方案采用分層概念,從小型常規作戰單位建立大型編隊戰術,并從兩架飛機的編隊開始,然后是四架飛機,最后是這些飛機的倍數。在模擬中沒有對導彈發射進行建模。當一架飛機將其對手置于武器交戰區(WEZ)的高殺傷概率(Pkill)區域內一段特定時間,簡化的交戰模擬器就宣布傷亡。事實證明,所提出的方法的應用是有效的,它消除了團隊中所有沒有優化編隊的飛機,并為整個優化編隊的飛機團隊提供了生存空間。

Keshi等人[6]使用了與[5]相同的分層概念,從由兩架飛機組成的元素中構建大型戰術編隊。模擬退火遺傳算法(SAGA)被用來優化編隊,使其能夠克服對局部最優解的收斂。對16架飛機的編隊進行了優化,提出的最優解表明SAGA比基本的GA更有效。最后,為了探索一個穩健的SAGA,對不同的馬爾科夫鏈進行了比較,事實證明自調整馬爾科夫電流更適合所提出的問題。

Junior等人[7]提出使用計算機模擬作為一種解決方案,以確定BVR空戰的最佳戰術,使擊落敵機的概率最大化。在低分辨率下使用通用參數對飛機和導彈進行建模,并改編了名為COMPASS的模擬優化算法,模擬了兩架飛機對一架飛機的BVR戰斗。低分辨率模型假定在水平面的二維空間內有一個均勻的直線運動。使用優化的戰術表明,擊落敵機的平均成功率從16.69%提高到76.85%。 Yang等人[8]提出了一種方法來優化飛機對一組目標的最佳攻擊位置和最佳路徑。該工作考慮到飛機能夠同時為每個目標發射導彈,并將飛機與目標有關的攻擊性和脆弱性因素作為評價攻擊位置的指標。一個高保真模擬被用來模擬每個導彈的飛機、雷達、導彈和WEZ的動態特性。這項工作并沒有解決在BVR戰斗場景中優化一組飛機對另一組飛機的編隊問題。

Li等人[9]提出了一種基于指揮員主觀認識的編隊優化方法,即在空戰中目標設備信息不確定的情況下選擇飛機編隊的問題。首先,計算戰斗機的戰斗力,這是通過指揮員的主觀認識評估目標戰斗力的基礎。戰斗機的戰斗力以能力的形式表現出來,包括攻擊、探測、生存能力、通信、電子戰、預警系統等。因此,通過采用前景理論和綜合模糊評估來優化空戰訓練。最后,一個應用實例證明了該方法在小規模空戰中的可行性。作者聲稱,利用戰斗力評估戰斗情況的能力為優化空戰訓練提供了一種新的方法。

?zpala等人[10]提出了一種在兩個對立小組中使用多個無人駕駛戰斗飛行器(UCAVs)進行空戰的決策方法。首先,確定兩隊中每個智能體的優勢地位。優勢狀態包括角度、距離和速度優勢的加權和。在一個團隊中的每個智能體與對方團隊中的每個智能體進行比較后,每個航空飛行器被分配到一個目標,以獲得其團隊的優勢而不是自己的優勢。為一對對立的團隊實施了一個零和博弈。對許多智能體參與時的混合納什均衡策略提出了一種還原方法。該解決方案基于博弈論方法;因此,該方法在一個數字案例上進行了測試,并證明了其有效性。

Huang等人[11]開發了新的方法來處理UCAV編隊對抗多目標的合作目標分配和路徑規劃(CTAPPP)問題。UCAV的編隊是基于合作決策和控制的。在完成目標偵察后,訓練指揮中心根據戰場環境和作戰任務向每架UCAV快速傳輸任務分配指令。UCAV機動到由其火控系統計算出的最佳位置,發射武器裝備。合作目標分配(CTAP)問題通過增強型粒子群優化(IPSO)、蟻群算法(ACA)和遺傳算法(GA)來解決,并在歸因、精度和搜索速度等方面進行了比較分析。在進化算法的基礎上發展了UCAV多目標編隊的合作路徑規劃(CPPP)問題,其中提供并重新定義了獨特的染色體編碼方法、交叉算子和突變算子,并考慮燃料成本、威脅成本、風險成本和剩余時間成本來規劃合作路徑。

Ma等人[12]開展的工作解決了在BVR作戰場景中優化兩組(R和B)無人機對手之間的優勢地位問題。一個無人機ri∈R對一個無人機bj∈B的優勢是通過ri和bj之間的距離、ri的導彈發射距離的下限和上限、ri的高度和bj的高度之差以及ri的最佳發射高度來估計的。決定性的變量是無人機在兩組中的空間分布和每架飛機在這些組中的目標分配。無人機在三維作戰空間BVR中的可能位置被簡化(離散化),通過立方體的中心位置來表示。每個無人機組都有一組立方體。優化問題被建模為一個零和博弈,并被解決以獲得納什均衡。

Ma等人[12]提出的工作沒有使用高保真模擬來分析無人機空間分布的選擇和分配給它們的目標對BVR作戰的影響。高保真模擬對飛機、雷達、導彈及其導彈的WEZ的動態特性進行建模。這些動態特性也影響到BVR作戰時每架飛機的行動觸發,因此也影響到最終的結果。例如,如果在兩組無人機之間第一次沖突后的時間窗口內考慮高保真BVR作戰模擬,新的沖突可能會發生,直到模擬結束。因此,每個在交戰中幸存的無人機將能夠選擇一個新的目標,這取決于可用目標的優勢值。在[12]中沒有考慮與無人機行為有關的不確定性。有關敵方無人機在戰術編隊中的確切位置及其導彈發射距離的信息是行為不確定性的例子。這兩個信息和上面描述的其他信息在BVR戰斗中是相關的:它們直接影響飛機之間的交戰結果。

在這項研究中,我們試圖解決文獻中發現的一些局限性,如低分辨率模擬、與敵人有關的不確定性的處理以及缺乏對優化解決方案的穩健性的確認,旨在提高兵棋結果的質量。我們的目標是驗證哪些藍色蜂群的戰術編隊可以在BVR戰斗中戰勝紅色蜂群。作為一個案例研究,RED蜂群使用了空軍經常采用的戰術編隊,稱為line abreast[13]。為了評估BLUE蜂群解決方案的穩健性,我們解決了新的問題,改變了RED蜂群每架飛機的位置,目的是估計新的RED蜂群編隊對BLUE蜂群的優化戰術編隊的效率的影響。

我們使用自主智能體和高保真計算機模擬來優化BVR戰斗中的無人機戰術編隊,考慮與敵人相關的不確定性,如戰術編隊中的位置誤差和導彈發射距離。統一行為框架(UBF)被采納為創建自主智能體的基礎。飛機和導彈在三維環境中用六個自由度(DoFs)建模。

該程序將在接下來的章節中進一步討論。

付費5元查看完整內容

  • 本研究由美國陸軍研究實驗室贊助,根據合作協議號W911NF-21-2-0227完成。

?在日益復雜的軍事行動環境中,下一代兵棋推演平臺可以減少風險,降低作戰成本,并改善整體結果。基于具有多模態交互和可視化能力軟件平臺的新型人工智能(AI)兵棋推演方法,對于提供滿足當前和新興戰爭現實所需的決策靈活性和適應性至關重要。我們強調了未來作戰人-機器交互的三個發展領域:由人工智能引導的決策指導,高計算力下的決策過程,以及決策空間的真實呈現。這些領域的進展將使有效的人機協作決策得以發展,以滿足當今戰斗空間日益增長的規模和復雜性。

關鍵詞:決策、交互、兵棋推演、人工智能、增強/混合現實、可視化

1 引言

在傳統的兵棋推演中,指揮官利用一個共同的基于地圖的作戰地形,并在軍事決策過程(MDMP,方框1)中模擬各種因素的組合如何產生行動方案(COA)、可能的反擊行動、資源使用估計和預測結果(美國陸軍,1997年,2014年,2015年)。在幾天或幾周的時間里,MDMP過程導致了一套精煉的COAs,它對作戰環境做出了一定的假設,包括地形、天氣以及戰區資產的可用性和能力(即塑造支持主要作戰行動的活動)。

方框1. 軍事決策過程(MDMP)
MDMP是美國陸軍解決問題的理論方法,從接到任務開始,到生成作戰命令結束。MDMP被用作一種工具,幫助指揮人員審查眾多的友軍和敵軍的作戰行動。MDMP的7個步驟在規劃新任務、擴展行動和執行訓練演習所需的決策過程中灌輸徹底、清晰、合理的判斷、邏輯和專業知識(美陸軍,1997年,2015年)。
指揮官在接到任務后啟動了MDMP。在MDMP的第1步中,所有的工作人員和關鍵的任務參與者都被告知任務和待定的規劃要求,包括進行MDMP的可用時間量。確定進行任務分析所需的工具,并收集與任務和作戰區有關的文件。步驟2,執行任務分析,建立對任務的全面理解,包括關鍵的事實和假設,形成擬議的任務說明和任務分析簡報,為制定COA做準備。
MDMP的第3至第6步著重于制定COA以進行分析和比較。這些步驟包括:第3步,制定COA;第4步,COA分析(兵棋推演);第5步,COA比較;第6步,COA批準。COA是對一個已確定的問題的潛在解決方案。每個COA都要使用篩選標準來檢查其有效性,如在既定的時間框架、空間和資源限制內完成任務。COA的選擇過程通常涉及到兵棋推演,它試圖在考慮到友軍力量和敵人能力的情況下,將行動的順序流程可視化,同時考慮到行動區域內平民的影響和要求(美陸軍,2014)。戰術模擬(兵棋推演)方法的好處是突出了作戰行動的優勢和劣勢。這往往是一個反復的過程,對作戰行動方案進行評估,然后根據需要進行修改,直到出現一個或多個具有最高成功概率的作戰行動方案來完成任務目標。
在一個具體的行動方案得到指揮部的批準后,MDMP的最后一步是制作行動指令,這是一份給下屬和鄰近單位的指令,旨在協調所有參與任務的組織的活動。這一步驟涉及到所有受命令傳播影響的組織之間的積極合作,并建立起對局勢的共同理解。

盡管MDMP幫助指揮官了解作戰環境和考慮作戰方法,但這個過程有很多局限性,如時間密集、假設僵化、跨場景訓練的機會有限,以及將人工智能(AI)指導納入決策過程的機會很少。傳統上,一項任務的成功與指揮部執行MDMP的能力直接相關。然而,鑒于當今多域作戰(MDO)的復雜性增加(Feickert,2021年),有大量的任務指揮系統和流程,與行動相關的所有活動的整合和同步變得越來越困難,甚至到了人為無法完成的地步。由于MDMP的缺陷而導致的規劃專業知識的缺乏,可能會導致不同步和不協調的行動,從而最終導致士兵的生命損失。

MDMP中沒有具體描述戰斗空間的可視化能力,但它顯然在決策過程中發揮著重要作用。最近,集成了先進可視化能力的新系統和新技術已經被開發出來,它們可以提高態勢感知,從而增強決策過程。美陸軍的例子包括Nett Warrior(Gilmore,2015),它使下馬戰士能夠直觀地看到附近的友軍和敵軍,同時根據當地的地形協同規劃戰術任務。盡管這項技術將無線電和數字地圖擴展到了下馬戰士,但它缺乏一個底層的人工智能引擎來提供決策幫助。戰斗空間可視化和交互平臺(BVI,前身為增強現實沙盤,ARES)是陸軍技術的另一個例子,它能夠為任務規劃提供分布式協作,具有從任意視角和廣泛選擇設備的共同作戰畫面的二維和三維可視化能力(Su等人,2021)。BVI架構的制定是為了拉入外部計算服務,如分析管道、模型和人工智能引擎。美陸軍研究實驗室正在努力將這些類型的服務納入BVI,包括用于加強決策支持的人工智能。

目前,MDMP并沒有將人工智能指導納入整體任務規劃方法中。美陸軍的自動規劃框架(APF)(Bailey,2017)開始通過將自主技術插入MDMP工作流程來解決人工智能輔助決策問題。指揮人員可以通過APF的數字規劃呈現、規劃創建和規劃監控工具,在任務規劃和COA開發期間獲得背景援助。任務執行和估計能力通過監測任務的規劃和實際進展,為改進決策跟蹤和支持活動提供自動協助。盡管APF為MDMP引入了基本的自動化水平,但它缺乏Nett Warrior和BVI所提供的先進的可視化和用戶互動能力。

提供地面部隊自動化和用戶可視化能力的是美陸軍最知名的兵棋推演平臺--半自動化部隊(OneSAF),為計算機生成的地面部隊提供建模和模擬能力(PEO_STRI, 2022)。OneSAF提供了半自動和全自動的軍事實體(即士兵、坦克、直升機和綜合單位)的建模,在類似真實世界的戰斗空間中以不同的保真度來支持特定的應用和場景。OneSAF主要用于訓練,并與目前的任務指揮系統具有互操作性。它可以使用多分辨率的地形和詳細的實體相關數據庫來模擬廣泛的作戰環境。然而,OneSAF對地形和實體系統的高保真建模的優勢使得它的設置和運行成本很高。它受到老化系統的限制,而且眾所周知,士兵需要大量的培訓來學習如何操作模擬,使用起來很困難(Ballanco,2019)。OneSAF的復雜功能并不適合開發人工智能能力,以實現快速和敏捷的戰士-機器決策。

除了MDMP和上面提到的陸軍平臺外,最近將人工智能納入決策過程的工作包括一些方法(Goecks等人,2021a),在模擬人類決策過程方面取得了一些成功。一般來說,人工智能在決策變量有限的問題上取得了一些成功,如資源分配(Surdu等人,1999)、飛行模擬器(Drubin,2020)和更簡單的場景。正在進行的挑戰包括需要提高人工智能的能力,以解決有多個行為者、不完整和可能沖突的信息、不斷變化的單位行動和環境屬性的復雜決策,以及需要將這些決策的后果在許多空間和時間尺度和領域內可視化。

以下各節描述了對MDMP的潛在改進。"未來軍事決策過程所需的進步"一節概述了支持MDO決策的三個研究領域,并以圖表形式描述了這些研究領域與軍事理論決策方法之間的關系。"未來軍事決策過程所需的進步 "一節中的小節對每個研究領域進行了更深入的討論。"展望推進人-人工智能團隊決策的交互技術 "一節概述了未來的作戰人員-機器接口(WMI)的發展方向,重點是與決策有關的人-人工智能團隊的跨學科研究。

2 未來軍事決策過程所需的進步

軍事決策過程在支持MDO復雜決策方面的局限性,突出了在三個研究領域的改進需要。首先,有必要將人工智能產生的指導和輔助決策支持納入MDMP。這既包括進一步開發和整合人工智能到戰斗空間決策規劃,也包括進一步改善人工智能決策過程的可解釋性和透明度(Chen等人,2018)。第二,有必要在戰略層面以及戰術邊緣,盡可能地將決策分析與高性能計算(HPC)的力量結合起來。這將能夠利用HPC系統的力量來支持建模、分析和計算時間,同時整合和同步來自所有戰區領域的信息。最后,有必要利用先進的可視化技術,如混合現實技術,對決策空間進行更準確和互動表述。不是簡單地在一個固定的時間尺度上顯示地形的二維渲染,而是需要可視化不同領域的決策是如何相互作用的,并利用混合現實技術來提高理解的吞吐量,并產生平面顯示不可能的洞察力。

除了MDMP之外,其他更廣泛適用的支持戰斗性問題解決的軍事理論包括:DOTMLPF[例如,學說、組織、訓練、物資、領導、人員和設施;(美陸軍,2018年)],這是一個確定差距并為當前和未來作戰要求提出設計解決方案的框架;以及METT-TC[例如,任務、敵人、地形和天氣、部隊、可用時間和民事考慮;(美陸軍,2019年)],這是一個結構化框架,用于捕捉任務相關因素的狀態,以便在軍事行動期間進行共享評估。這些理論定義了MDO戰場的信息背景,構成了應用于上述三個研究領域的軍事決策的核心基礎。如圖1所示,在為人類和人工智能指揮開發復雜軍事決策空間的新表述時,研究進展和MDO相關理論相互借鑒、相互啟發、相互加強(美陸軍,2010)。

圖1. 新型作戰人員-機器交互(WMIs)和人工智能輔助決策所需的三個研究發展領域,以支持和加強基本的MDO理論[右下圖來源:Lebsack(2021)]。

2.1 人工智能導向的決策指導

需要新的人工智能支持的WMI,以利用人工智能決策方面正在取得的進展,并為復雜的適應性決策的人工智能學習作出貢獻。在簡化的戰斗空間中測試人工智能決策輔助工具是開發過程中重要的第一步,也是將人工智能納入更成熟的戰斗空間平臺(即BVI、OneSAF)的前奏。開發用于決策輔助實驗的人工智能測試平臺可以在MDO中產生能力越來越強的潛在COA建議。圖2顯示了陸軍開發的兩個人工智能測試平臺的例子。

圖2. 兩個ARL人工智能測試平臺的例子。左邊:ARL Battlespace(Hare等人,2021)( //github.com/USArmyResearchLab/ARL_Battlespace )。右邊:ARL的Simple Yeho測試平臺。圖片由C. Hung制作。

人工智能測試平臺能夠開發出匯集所有領域信息的AI,并計算出人類和AI智能體的風險和預期回報。圖2的左側顯示了ARL戰斗空間測試平臺(Hare等人,2021年),它是從頭開始開發復雜決策的新型人工智能的理想場所。它對戰斗空間的抽象強調了軍隊相關場景下的核心推理原則,在這種情況下,用蜜罐進行網絡欺騙。較小的網格空間使人工智能的學習和發展能夠集中在不確定性下的復雜推理,有多個友好和敵對的agent。圖2的右側顯示了ARL的Simple Yeho測試平臺,它提供了將人工智能開發與更多真實世界場景中的默契推理結合起來的能力,有多個基于地形的海拔高度、視線范圍、障礙物、樹葉(隱蔽)、道路和城市區域。紅色陰影和黑色線條表示任務的起點和終點、左右邊界以及人工智能建議的路線。這種額外的真實性使其能夠與MDO理論相結合,包括DOTMLPF和METT-TC,并使人工智能與自然的、機會主義的士兵行為共同發展。這兩個人工智能測試平臺都可以擴展為傳統和沉浸式混合現實WMI開發平臺。

使用漸進式和可擴展的人工智能測試平臺,可以調查現有人工智能的幾個基本限制,特別是對于具有不確定性的復雜和適應性決策,以及人類和AI智能體的協作和對抗。對多智能體的協作和對抗性決策進行建模可能特別復雜,因為其遞歸性質,其他智能體是模型的一部分(Goldman,1973;Grüning和Krueger,2021),需要對決策特征、個性化的價值、風險規避、記憶和注意力進行動態和不斷發展的估計。這些具有高度不確定性、復雜性和動態性的情況是人類擅長的領域,適當設計的交互界面和人工智能測試平臺的人機協作可以提供加速和更有效的決策。對于有效的團隊合作,新穎的WMI應該幫助作戰人員篩選復雜的信息,并幫助人工智能發現決策的隱含規則。下面,我們提供了關于人機協作如何有效的案例。

多域兵棋推演中需要的復雜決策是開發有效人工智能決策輔助工具的直接挑戰。最近人工智能在圍棋、國際象棋、Minecraft和大富翁等游戲中的成功(Silver等人,2017;Goecks等人,2021b;Haliem等人,2021)是基于對世界現有狀態有完整了解的游戲(即 "開放 "游戲),而兵棋推演平臺通常包括關于作戰環境的不完整(如星際爭霸)、不確定或欺騙性信息(Vinyals等人,2019)。不確定性也可能來自變化的物理學或其他環境規則,正如在《憤怒的小鳥》中所探索的那樣(Gamage等人,2021)。由于世界狀態、不同行動者的狀態以及所采取的行動不確定性,知識的缺乏使得人工智能agent難以計算未來行動的風險回報情況(Cassenti和Kaplan,2021)。不確定性也限制了人工智能估計其他行為者的風險回報概況的能力,而這是計算有效的博弈論策略所需要的。人工智能被可能的最優和近似最優選擇的廣度所淹沒(Lavine,2019),即由于信息有限而選擇錯誤的選項,這種情況并不罕見,因為人類在制定有效探索隱藏信息的策略時,采用啟發式方法進行有效的選擇和預測(Gardner,2019)。為了幫助發展人工智能的隱性知識和探索能力,新型的WMI需要有效地解釋和展示決策景觀,以使作戰人員能夠快速和自然地瀏覽可能的選擇,同時使人工智能能夠在不施加認知負擔的情況下從人類的決策中機會主義地學習(Lance等人,2020)。這種機會主義學習可以包括:例如,凝視跟蹤,以捕捉吸引人類興趣和意圖的視覺區域和未標記的目標。它們還可以包括建立在自然的士兵選擇行為基礎上的行動者批評方法,以改善人工智能對人類專家在不確定、不完全信息和欺騙的情況下如何優先考慮某些選擇的學習,這取決于任務相關的背景。

開發人工智能的WMI的另一個基本挑戰是如何有效地整合和顯示MDO中所有五個領域的信息,特別是空間和網絡,因為這些領域的信息具有不同的時空尺度(Gil等人,2018)。對于網絡,決策的規模和速度可能比人類處理和理解的能力更快,需要人類的輸入來指導半自動化的決策,以及實施進攻和防御性欺騙策略的人工智能。WMI需要能夠以這樣的方式顯示決策圖景,即可以解釋一小部分最優和接近最優的決策策略(例如,圖3中的決策樹)。這應該包括對關鍵agent在不確定情況下的未來狀態和風險回報情況的估計(Hare等人,2020),以使有效的博弈論決策能夠被共同開發和相互理解。

圖3. 在頂部,是BVI網絡戰術規劃器應用程序中友軍與敵軍戰爭場景的三維視圖。三維視圖提供了一個比二維視圖更真實的決策視角,例如,顯示友軍(藍色)和敵軍(紅色)機載預警系統(AEWs)和周圍地形的海拔。這使得快速審查可能的視線和相對于周圍地形的感應。下面是人工智能的導航決策樹,為人工智能計算的幾個關鍵選擇的風險/回報概況以及它們如何映射到地形上提供透明度。這種抽象的決策空間還可以整合非空間決策,例如網絡欺騙。虛線表示與友方AEW的通信聯系和對敵方AEW的可能干擾。圖片由C. Hung制作。

這些挑戰為有效的WMIs設計提供了參考。也就是說,我們需要有能力從不同的來源(包括從其他國家的決策輔助工具)提取信息,以及一個能夠承載整合這些信息的計算能力的架構,同時還要處理基礎的人工智能計算(用于學習和部署)。我們還需要共同開發一個界面和算法設計,以適時地利用人類和人工智能agent的優勢并減少其局限性。

2.2 高計算能力下的決策過程

在復雜的決策過程中,需要大量的計算能力來處理和記錄所有組件、實體和狀態空間。從積累的動態狀態空間的數據集中建立過去、現在和預測模型,需要利用HPC資源來產生分析性的見解,并在決策背景下創建有用的表述。

實施HPC分析工作流程的一種方法是使用持久性服務框架(PSF)。PSF是一個最近可用的分布式虛擬化解決方案,它可以通過一個基于網絡的前端實現對HPC服務的非傳統訪問,而不像傳統的HPC環境,計算節點在特定的時間段內以批處理模式分配給用戶。此外,PSF提供對數據、數據庫、容器化工具集和其他托管平臺的分布式連續訪問(Su等人,2021)。

在一個PSF方法的例子中,一個模擬引擎連接到PSF,用于記錄人類和人工智能做出的所有決定。這允許分析在任務規劃和COA開發過程中發生的決策行為,以及識別決策模式和戰略,以開發競爭性和現實的兵棋推演場景。一個戰斗空間可視化平臺可以托管在PSF上,并使用消息傳遞協議來更新所有連接的設備接口。來自模擬引擎的狀態信息可用于生成戰斗空間和參與作戰單位的圖形表示。

使用PSF方法并利用HPC資源,可以實施人工智能輔助決策機制,利用大數據攝取和分析,同時可供地理分布的用戶用于協作決策工作和 "永遠在線 "的個性化培訓和紅色團隊。連接到PSF托管服務器的各種混合現實顯示模式可以支持一系列作戰場景,從戰略層面的指揮和控制到作戰邊緣的更多移動戰術使用。

2.3 決策空間的真實呈現

用圖形表示各級行動的軍事決策戰略需要新的可視化方法,這些方法可以應用于以規則變化、認知狀態、不確定性以及個人偏見和啟發式方法為特征的動態環境(Dennison等人,2020;Hung等人,2020;Raglin等人,2020)。戰斗空間的視覺表現應該在技術上盡可能準確和逼真,但又保持在人類可以理解和解釋的認知水平(Kase等人,2020;Larkin等人,2020;Hung等人,2021)。融合了混合現實技術的先進可視化方法有可能更好地表現多領域戰爭的變化特征及其不斷變化的威脅和動態環境。隨著最近混合現實可視化設備的技術進步,成本降低,硬件的可靠性和實用性顯著提高,混合二維和三維可視化方法現在已經成為可能。

由多個二維顯示器組成的混合現實方法增強了更先進的三維可視化能力,可以為指揮人員提供理解復雜的兵棋推演狀態空間所需的洞察力(Su等人,2021)。當需要一個共享的戰斗空間表示時,可以通過在不同的可視化模式上實現多個協調的視圖來實現協作的戰略規劃模式,以根據分布式指揮人員的輸入進行互動更新。

BVI(Garneau等人,2018)平臺表示地理空間地形信息和地圖圖像,允許指揮人員建立和修改戰術任務規劃和COA。作為一個數據服務器,BVI將地形和作戰數據分發給支持多種可視化模式的客戶端應用程序,包括頭戴式顯示器設備、基于網絡的界面、移動安卓平板設備和混合現實設備(例如,HoloLens 2、Oculus Quest)。

例如,圖3(頂部)顯示了位于加利福尼亞州圣貝納迪諾縣歐文堡國家訓練中心的高分辨率地形上的友軍與敵軍的兵棋推演場景(Wikipedia, 2021)。與MDMP期間經常使用的傳統2D地圖顯示相比,戰斗空間的3D視圖可以從多個觀察角度提供更豐富的用戶體驗。三維視圖,在BVI的網絡戰術計劃器(WTP)中,將地形和人工特征的空間信息以及由MIL-STD 2525C符號描繪的單位位置可視化(美國防部,2014)。可以想象,地理空間視角,如BVI提供的視角,支持決策者對動態戰斗空間環境的理解。與可導航的人工智能增強的決策空間(圖3,底部)搭配,組合的視角可以使人們更好地理解視覺空間依賴性、影響和因果關系、估計的風險和價值、不確定性以及復雜決策的欺騙性。將這種以地理空間和決策為中心的視角與人工智能相結合,可以提供必要的廣度,以協調物理行動與網絡和其他非空間領域的行動,跨越多個時間尺度,并具有快速適應變化的任務目標的靈活性。

3 人-人工智能團隊決策的交互技術展望

人工智能和人-人工智能團隊的快速發展需要WMI同步發展。隨著新型人工智能對有價值的COA產生更好的預測,并能更好地處理復雜的決策,它們也必須利用人類的專業知識,學習如何處理具有高度不確定性、欺騙、隱性知識和博弈論的決策。相反,人工智能的推理必須既抽象又能與兵棋推演環境相聯系,以實現透明和信任,同時又不造成過度的認知負擔。基于三維混合現實的WMI可以利用和增強人類固有的三維認知和預測能力(Welchman等人,2005;Kamitani和Tong,2006;Kim等人,2014;Boyce等人,2019;Krokos等人,2019),如果設計得當,其交互將感覺自然,同時擴大顯示多個領域的信息的能力,同時使AI能夠適時地從用戶的決策中學習。

我們強調了三個關鍵的發展領域,即人工智能引導的決策指導,支持這種指導的計算基礎設施,以及決策透明度的混合現實表現的發展。這些領域的進步需要跨越許多不同學科的專業知識。新的人工智能發展需要融合神經科學、心理學和數學的思想,以克服復雜決策中長期存在的問題的瓶頸。這包括跨時間尺度的學習和變化環境下的災難性遺忘,以及更具體的兵棋推演問題,如具有不確定性、欺騙和博弈論的多Agent決策。計算基礎設施也需要發展,因為計算能力和數據框架對于在戰術邊緣產生人-人工智能團隊的共同操作圖來說都是必不可少的。為了有效地開發,應該通過一個共同的框架來抽象出專有的限制和軟件的依賴性,并為使用和故障排除提供清晰的文檔,以使學術界、政府和工業界更好地專注于解決人與人工智能的合作問題。這個通用框架應該包括有效的信息傳遞,同時提供靈活性和適應性,以滿足人工智能開發和人類用戶在訓練和實際使用環境中的需求。最后,交互技術的開發本身需要跨學科的協同專業技術。一個基礎性的問題是如何壓縮信息使之被用戶有效地理解,以及如何最好地利用用戶的互動來進行機會主義學習。人類的大腦并不處理所有的感官信息,而是對世界進行預測和假設,以便在信息不完整的環境下節約計算。一個有效的WMI應該同時預測潛在的決策結果以及個人用戶的期望和假設。此外,人工智能決策輔助工具必須估計用戶的默契,使其能夠提供最相關的信息和最有希望的選擇,這些信息來自整個作戰領域。

結論

信息作戰和指揮與控制(C2)是美國陸軍可以向盟友和伙伴提供的兩種能力。在未來的作戰環境中,不僅要為動能作戰做準備,而且要為混合作戰和以信息為重點的戰爭做準備。這需要在復雜和默契推理的人工智能能力方面取得進展,在能夠提供持續訓練、分布式混合決策和大數據分析系統方面取得進展,以及在人與人工智能協作決策和機會主義學習方面取得進展,以實現人工智能的持續進步和人與人工智能的共同適應。這些進展中的每一項都需要跨學科的計劃性努力,以克服復雜的技術挑戰,創造新的決策原則、理論和理論方法,包括持續開發綜合測試平臺和技術,以實現政府、學術界和工業界的合作和協同發展。

付費5元查看完整內容

【引 言】

軍事領導人利用戰場情報和環境信息及時做出戰略和戰術決策,以推進他們的作戰目標,同時試圖否認對手的行動。基于計算機的兵棋推演模擬程序對戰場空間事件進行建模,以幫助決策制定,因此領導者可以從眾多選項中選擇一個更優化的選項,以有效地完成目標。

戰爭是一個充滿不確定性的領域,戰爭中的決策因素籠罩在各種不確定性的迷霧之中。因此,戰爭迷霧是軍事行動參與者所經歷的態勢感知的不確定性。其目標是定義霧的存在位置,并允許分析師在AFSIM等虛擬兵棋推演框架中操縱霧效果。

圖1. 信息環境:該圖展示了應用信息相關能力來實現影響力

這項研究探討了戰爭場景中不確定性的領域,以尋找霧源,這可能會阻礙決策過程,這些過程記錄在三篇提交的期刊文章中。

文章[1] “使用并行搜索算法導航敵方競爭區域(Navigating an Enemy Contested Area with a Parallel Search Algorithm)" 通過在地圖上找到敵方單位位置的配置來探索霧,這會導致并行搜索算法的最大加速。算法優于并行算法,這些結果表明敵方位置的霧可用于破壞搜索和任務分配過程。

文章[2] “AFSIM 中的戰爭霧效果建模(Modeling Fog of War Eects in AFSIM)”[2] 創建了霧識別和操作方法 (FIMM)將霧引入傳感器和通信,并開發霧分析工具 (FAT) 以將 FIMM 實施到用于驗證的高級仿真、集成和建模框架 (AFSIM)。傳感器和通信有助于指揮官感知戰場上的敵軍。霧會扭曲指揮官對形勢的感知,這會扭曲決策過程并導致任務失敗。

文章[3] “將霧分析工具應用于AFSIM 多域 CLASS 場景(Applying Fog Analysis Tool to AFSIM Multi-Domain CLASS scenarios)”利用 FAT 研究霧效應在多個作戰域中的影響,并使用趨勢來支持 FAT 在多域操作中有效且有用的想法FAT 在多個領域的有效性鞏固了這樣一種觀點,即識別和操縱傳感器和通信中的霧對于為軍事模擬分析人員提供選擇以改善兵棋推演中的決策是有效的。

【問題與動機】

軍事領導人必須考慮跨多個作戰領域的大量信息,以便及時做出決策并推進任務。模擬模型試圖真實地模擬戰爭場景以分析行動方案并選擇最佳路徑。在戰爭模擬中提供用于查看不確定性級別或霧的選項的方法可以進一步提高戰爭模擬的真實性。該方法需要對霧源的一般定義以及如何操縱源進行模擬分析。多域分析方法的實現驗證了該方法在查看對未來場景的影響方面的有效性。

問題源于需要為多域作戰的軍事領導人創建決策輔助工具。美國空軍正在研究一種直觀的傳感網格概念,該概念使用來自多個平臺的融合傳感器數據為決策者提供有關競爭環境的信息。傳感網格為戰略和戰術層面的領導者提供了獲得和保持對抗對手的決策優勢。網格假設傳感器收集信息并通過通信鏈路將其傳輸到集中處理實體。領導人希望盡可能準確地描述環境,因此霧源的識別以及霧如何影響決策過程允許軍事分析人員在處理信息并將數據發送給決策者時考慮霧。

決策代理與傳感網格概念相似,但代理提供決策能力,而不是為人類決策者提供決策輔助。在基于環境信息收集、處理和形成決策時,決策代理可以將霧合并到行動過程 (COA) 分析中。在 COA 中考慮霧可能會改變哪個選項被認為是最佳的。對多個域的霧的識別和操作允許一種更現實的方法來形成決策和決策輔助。

【研究路線圖】

以下路線圖提供了總體研究目標

1. 識別兵棋推演場景中影響指揮官決策過程的不確定性來源

2. 創建一種方法來識別和操縱兵棋推演中的不確定性,使用傳感器進行數據收集和數據傳輸通信

3. 為現有兵棋推演模擬開發工具,以實施該方法并驗證其影響

4. 分析多域場景,以驗證該工具在擾亂所有作戰域的決策過程中的有效性

該路線圖側重于霧效應的識別和處理。并行搜索文章側重于尋找兵棋推演場景中的不確定性來源。介紹FIMM和FAT的論文針對的是第二項和第三項。上一篇文章提供了支持第四項的結果。本文介紹的每篇文章都以期刊格式顯示。

【結 論】

當決策者沒有關于環境的完整信息時,兵棋推演中的戰爭迷霧就會出現。霧源于對敵人、敵人意圖和敵軍缺乏了解。霧也可能來自自然環境和友軍的行為。例如,一個在整個地圖上搜索目標的單元可能在多次搜索后變得筋疲力盡。搜索目標的多個單元可能會劃分搜索時間。霧識別和操縱方法(FIMM)提供了一種在與傳感器和通信鏈路相關的兵棋推演中操縱霧效應的新方法。霧分析工具 (FAT) 在高級模擬、集成和建模框架 (AFSIM) 中提供了 FIMM 的實現。將霧引入傳感器和通信鏈路會影響指揮官從信息收集平臺接收的信息,并將其傳播到效應生成平臺。霧的引入和操縱可能會導致指揮官失敗。較高水平的霧效應往往會導致較高的故障率。在分析各種多域場景時也會出現這種趨勢。

【未來工作】

與順序算法相比,搜索算法的測試套件將收集更多結果來分析地圖配置如何影響并行算法的加速。測試套件需要地圖生成器來隨機排列地圖上的圖塊,同時保持假設有序。

FAT 是 AFSIM 分析人員為模擬運行更改不同級別的霧的便捷工具。但是,FAT 的使用是高度手動的。該過程可以轉換為測試套件,其中該工具自動采用 AFSIM 場景并找到傳感器對象和通信對象,以不同的霧級別和運行次數模擬每個對象,并提供有關成功/失敗的統計報告率。該測試套件可以消除尋找使用 FAT 的標準化方法的需要,并且可以對每個場景進行唯一處理。

將 FAT 集成到 Warlock 應用程序將允許實時分析霧效果。分析師將能夠實時更改霧效果值并查看它如何影響場景的成功。具有實時分析的 FAT 可用于細粒度的戰術策略測試。

付費5元查看完整內容
北京阿比特科技有限公司