亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

海上作業航行安全是一個高度優先的問題。在新加坡高性能計算研究所 (IHPC)和新加坡理工學院(SP)最近的合作中,開發了一個基于人工智能的行為能力評估工具原型,以幫助教官評估值守人員進行導航的軟技能能力,并在SP的新加坡海事學院(SMA)培訓模擬器上進行了概念驗證演示。使用我們的工具可以通過提供詳細的特定行為分析來幫助教官進行評估,從而有助于消除人為偏見。

基于人工智能的行為能力評估工具

一個基于人工智能的行為能力評估工具原型被開發出來,它使用來自模擬器的視頻資料,自動生成對學生行為能力的評估,并以定量的方式進行客觀評估。生成的報告提供了培訓課程的摘要,其中有按時間索引的事件,教員可以用來向學生匯報,并允許教員輕松地放大特定事件,以進行更深入的審查和更有效的指導。

基于人工智能的行為能力評估工具原型(如圖1所示)是一個軟件,包括:

  • 一個行為學習和理解模塊,它從訓練模擬器的攝像機中獲取視頻,并使用計算機視覺和機器學習從學生執行導航任務的行動中檢測和識別關鍵的行為指標。對識別的行為指標進行行為學習,以自動捕捉與每個行為能力相關的行為,并將其編碼為行為腳本。

  • 能力評估模塊通過識別學生使用學習到的行為腳本表現出來的行為來進行績效分析,并生成一份學生績效報告,量化觀察到的關鍵行為指標和觀察到的行為的時間過程。根據國際海事組織和行業出版物[2][3]中頒布的行為能力評估和驗證(BCAV)指南中的一套行為指標,通過分析也為每個學生生成一個數字性能分數。

圖 1. 態勢感知能力評估工具原型示意圖

付費5元查看完整內容

相關內容

 是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。 人工智能是計算機科學的一個分支。

軍隊為訓練、規劃和研究目的進行兵棋推演。人工智能(AI)可以通過降低成本、加快決策過程和提供新的見解來改善軍事兵棋推演。以前的研究人員根據強化學習(RL)在其他人類競技游戲中的成功應用,探討了將強化學習(RL)用于兵棋推演。雖然以前的研究已經證明RL智能體可以產生戰斗行為,但這些實驗僅限于小規模的兵棋推演。本論文研究了擴展分層強化學習(HRL)的可行性和可接受性,以支持將人工智能融入大型軍事兵棋推演。此外,本論文還通過探索智能體導致兵棋推演失敗的方式,研究了用智能體取代敵對勢力時可能出現的復雜情況。在越來越復雜的兵棋推演中,對訓練封建多智能體層次結構(FMH)和標準RL智能體所需的資源以及它們的有效性進行了比較。雖然FMH未能證明大型兵棋推演所需的性能,但它為未來的HRL研究提供了啟示。最后,美國防部提出了核查、驗證和認證程序,作為一種方法來確保未來應用于兵棋推演的任何人工智能應用都是合適的。

引言

兵棋推演是成功軍隊的寶貴訓練、規劃和研究工具。自然,美國(U.S.)國防部(DOD)計劃將人工智能(AI)納入兵棋推演。將人工智能融入兵棋推演的一種方式是用智能體取代人類玩家;能夠展示戰斗行為的算法。本論文研究了用智能體取代人類兵棋推演操作員的可行性、可接受性和適宜性。為此,本章解釋了為什么兵棋推演對成功的軍隊至關重要。

A. 軍方為什么要進行兵棋推演

軍隊進行兵棋推演是為了回答關于戰爭的關鍵問題,這些問題必須在實際沖突發生之前被理解。兵棋推演是利用對立的力量模擬實際的戰斗,并由人類的決策來決定[1]。雖然有廣泛的不同類型的兵棋推演,但它們都有一個共同的目標:"獲得有效和有用的知識" [2]。這種劃分很重要,因為兵棋推演的不同目的會導致玩家和游戲控制者的行為不同。圖1顯示了兵棋推演從訓練到分析到實驗的廣泛范圍。

1.訓練用的兵棋推演

最直接的兵棋推演類型是用于訓練的兵棋推演。大型參謀部使用建設性的模擬(數字兵棋推演)來鍛煉他們的參謀過程,并驗證他們的軍事準備。小型參謀部使用虛擬模擬器來訓練他們的戰斗演習和船員演習。軍隊進行這些兵棋推演是為了了解戰爭和鍛煉決策能力[3]。所有隊員的行動和決策一般都要符合已知的條令和戰術、技術和程序(TTP)。對于大型的參謀部演習,對手可能會突破TTP的界限來挑戰參謀部(例如,表現得更有侵略性,但仍然依賴相同的TTP)。

2.用于分析的兵棋推演

兵棋推演可用于分析,即 "確定在部隊對抗中會發生什么"[3]。這些是大多數軍事人員所熟悉的兵棋推演類型:作為行動方案(COA)分析的一部分而進行的兵棋推演。這些類型的兵棋推演允許對戰爭計劃、部隊結構或理論進行評估。在這些戰役中,雙方都要采用已知的理論和TTP,但 "在這些戰役中,創新精神可以自由發揮"[4]。

3.實驗性的兵棋推演

在譜的另一端是實驗性兵棋推演。在這些戰役中,雙方都可以使用新的力量、武器和/或戰術來探索潛在的未來戰爭[5]。歸根結底,組織進行實驗性兵棋推演是為了產生 "關于戰爭問題性質的知識"[2]。美國軍方在演習中整合了這些類型的兵棋推演,如美國陸軍未來司令部的聚合項目和聯合作戰人員評估。

4.兵棋推演的好處

盡管兵棋推演既不是預測性的,也不是對現實的完全復制,但它們確實提供了一些沒有實戰就無法獲得的東西:對戰爭中決策的洞察力。當為訓練而進行戰爭演習時,組織正在學習良好的決策是什么樣子的(包括過程和最終結果)。當為分析而進行戰爭演習時,計劃者正在評估他們在計劃期間做出的決定,以及在執行期間需要做出的潛在決定。

這些好處足以讓美國防部副部長羅伯特-沃克在2015年發布了一份備忘錄,呼吁在整個美國防部重新努力開展兵棋推演[6]。沃克副部長認為,兵棋推演有利于創新、風險管理和專業軍事教育。沃克認為,最終,兵棋推演將推動美國防部的規劃、計劃、預算和執行過程,這是告知國防部資源分配的方法。美國和它的西方盟友并不是唯一相信兵棋推演好處的軍隊。中國正在為兵棋推演投入大量資源,包括將人工智能融入兵棋推演[7]。

B.兵棋推演中的人工智能

人工智能提供了一個機會,通過降低成本、加快決策過程和提供新的見解來改善軍事兵棋推演。為兵棋推演中的許多角色雇用人類操作員是昂貴的。組織必須給自己的人員分配任務(使他們脫離正常的職能)或支付外部支持。這種成本可以通過將人工智能整合到兵棋推演中而消除。兵棋推演分析的速度只能和人類操作者一樣快。用智能體代替操作員可以加快兵棋推演的速度,并允許多個兵棋推演同時發生,從而實現更廣泛的分析。最后,智能體因其在游戲中的創造性而受到關注[8]。創造性的智能體可以通過探索人類戰爭者可能沒有考慮的可能性,使戰爭計劃、部隊編隊或戰術得到更好的分析。

美國國內的國家安全組織認識到將人工智能融入兵棋推演的潛力。人工智能國家安全委員會在其最終報告中主張立即將人工智能能力整合到兵棋推演中,以確保美國及其盟友保持與同行的競爭力[9]。美國陸軍未來的模擬訓練系統--合成訓練環境(STE)設想整合人工智能來監測和調整訓練場景的難度[10]。美國陸軍研究實驗室有許多項目在調查人工智能與軍事指揮和控制系統的整合。具體來說,他們正在探索使用人工智能的一個子領域,即強化學習(RL)來進行連續規劃,以開發 "藍色部隊的新計劃"[11]。連續規劃將需要一個能夠評估其計劃的智能體,可能通過兵棋推演。

基于其他RL智能體在人類競技游戲中的成功,如《星際爭霸II》[12]、《古人防御》(DotA)[13]和圍棋[14],多名研究人員正在研究用于戰爭游戲的RL智能體。像《星際爭霸II》和DotA這樣的實時戰略(RTS)游戲最能代表兵棋推演。與兵棋推演類似,RTS游戲需要在有限的信息環境中進行長期的目標規劃和短期的戰術決策。以前的研究表明,RL智能體可以在兵棋推演中復制理想的戰斗行為[5], [11]。根據Kania和McCaslin的說法,谷歌的AlphaGo成功擊敗了世界上最好的圍棋大師,證明了人工智能可以應用于兵棋推演[7]。

C. 問題陳述

雖然以前的研究已經證明RL智能體可以產生戰斗行為,但實驗僅限于小型交戰。研究人員只要求RL智能體控制三到五個下屬單位。強化學習智能體將需要成功擴展,以滿足涉及幾百個單位的大型兵棋推演的規模要求。

問題是,隨著兵棋推演中單位數量和類型的增加,信息量和可能的動作數量變得難以解決。Newton等人提出可擴展性是一組目標:速度、收斂和性能,同時保持在一組約束條件下:隨著項目規模的增加,成本、計算能力和時間[15] 。分層組織是擴展的一種方法。本論文將研究分層強化學習(HRL)的可擴展性。換句話說,任何可行的、可接受的人工智能集成到戰爭游戲中,隨著戰爭游戲中單位數量的增加,必須仍然顯示出理想的戰斗行為。

除了將人工智能整合到軍事兵棋推演中的可行性和可接受性之外,這種整合還需要是合適的。開發和執行一個失敗的兵棋推演是有可能的,因為從中得出的知識是無效的或沒有用的。Weuve等人[16]解釋了可能導致兵棋推演失敗的不同途徑,他們稱之為兵棋推演病癥。以取代人類操作者為目的的智能體的設計和實施,需要防止兵棋推演的病態,從而確保有效的結果。

這導致了以下的研究問題。HRL是否允許智能體在不損失性能的情況下增加合作單位的數量和有效性?什么框架可以確保智能體的設計和應用正確,以滿足兵棋推演的目的?

D. 研究范圍

本論文延續了[17]和[18]對Atlatl戰斗環境中RL的調查。Atlatl是一個離散的、基于六邊形的兵棋推演,模擬陸地作戰行動。最初的研究使用一個簡單的多層感知器[17]成功地在RL智能體中產生了戰斗行為。隨后的研究使用卷積神經網絡(CNN)架構在復雜的地形和動態的對手中研究RL智能體[18]。

雖然有廣泛的HRL方法,但本研究的重點是封建多智能體層次結構(FMH)。在FMH中,一個單一的R智能體(即經理),將任務分配給一系列被稱為工人的下級RL智能體[19]。本論文比較了在Atlatl中越來越大的場景中采用基于規則的智能體、單一RL智能體和FMH所需的資源和有效性。

兵棋推演是由玩家和裁判員組成的[1]。友軍單位的玩家被稱為藍軍,他們的對手被稱為紅軍,任何一個玩家之外的平民或軍事單位被稱為綠軍。雖然有可能通過使用所有玩家和裁判員的智能體來實現兵棋推演的完全自動化,但本論文只評估了對單個玩家的替換。

本論文還研究了用智能體替換對方部隊(OPFOR)即紅色部隊時可能出現的復雜情況。討論了具體的兵棋推演病癥,并提出了緩解這些病癥的方法。美國防部的驗證、核實和認證(VV&A)框架被應用于通過RL對OPFOR的建模。

E. 研究結果

本論文發現,當FMH智能體以分布式方式進行訓練時,FMH智能體未能比單一RL智能體表現得更好。當經理和工人在同一環境中訓練時,FMH智能體的學習能力有所提高。然而,工人的不一致行動使經理無法制定最佳策略。此外,FMH的訓練要求超過了單個RL智能體的要求,這抑制了FMH擴展到大型軍事兵棋推演的能力。最后,本論文發現,將人工智能整合到軍事兵棋推演中的方法適合于像美國防部的VV&A框架那樣的過程。否則,基于模型的去太原的病癥會使兵棋推演的目標失效,并對美軍產生負面影響。

F. 論文對研究的貢獻

本論文通過進一步研究在建設性模擬中采用完全自主的智能體,對美國政府有直接好處。完全自主的兵棋推演智能體,能夠在多個層次上運作,需要支持兵棋推演的全部范圍。這很容易延伸到軍事規劃期間的決策支持工具,協助規劃者快速評估不同的COA。此外,探索在兵棋推演中使用智能體的適宜性將促進兵棋推演界采用人工智能。

付費5元查看完整內容

評估飛行員的心理和認知狀態作為衡量飛行性能的一種手段,一直是軍隊和學術界的主要目標,特別是在開發提高戰備狀態的強化訓練系統方面。態勢感知(SA)是評估飛行員在訓練中表現的一種方法。傳統上,客觀地測量SA是一個繁瑣的過程,必須由訓練有素的科學家和專家來設計,由于數據和收集過程的性質,對結果的分析只能在事后進行(Endsley, 2017)。測量的過程通常需要飛行員打亂他們的訓練來回答與飛行環境有關的問題。此外,以這種方式測量SA需要人員在整個訓練過程中直接參與對飛行員的監測和評估,這既昂貴又耗時。自動測量SA將加速實現飛行員的準備狀態,而不需要讓更多的人員參與到飛行員的訓練中。

在我們之前評估神經狀態(Wilson, Nair, Scielzo, and Larson, 2021)和飛行員的飛行正確性(Wilson, Scielzo, Nair, and Larson, 2020)的工作中,我們假設認知和凝視測量可以幫助開發自動SA測量。我們的結果顯示,認知負荷的主觀測量和教員指定的凝視模式分類一起為評估SA提供了有意義的信息(Scielzo, Wilson, and Larson, 2020)--盡管評估不是完全自動化的。本文的貢獻是一種結合生物識別數據和眼動數據的方法,在回歸和分類任務中評估SA。也就是說,我們使用機器學習,在一個沉浸式的模擬飛行場景中,對飛行員的SA進行自動分類。我們表明,在40名參與者中,各種級別的SA可以被分類,準確率高達70%以上。所有的人體實驗都得到了SMU機構審查委員會的批準。

付費5元查看完整內容

為了跟上美國防部(DOD)人工智能(Al)戰略的步伐,美國陸軍在2018年啟動了人工智能集成中心(Al2C)。他們的任務是--與美國各地的公司和大學的人工智能社區溝通,目的是通過人工智能的整合來改善和提高軍隊的能力。

這個頂點項目盡可能地分析了當前美陸軍部(DA)對人工智能的要求狀況,以及它們對人類系統集成(HSI)的包含。該小組審查了發布在獎勵管理系統(SAM)網站上的人工智能合同機會和適用的文件,包括績效工作聲明、工作聲明或目標聲明。第一步是確定這些合同機會中包含的要求是否符合人工智能的定義,即計算機系統有能力執行通常需要人類智慧的任務。如果需求符合人工智能的這一定義,那么分析工作就會繼續進行,并側重于納入HSI,以確保為人類(即操作員、士兵、用戶等)提供便利。研究小組還采訪了主題專家(SMEs),以深入了解軍隊開發和獲取人工智能需求的過程。

在2003年至2022年期間發布到SAM的機會中,只有16%(238個中的40個)在開發過程中足夠成熟,可以考慮進行評估。在這40個被認為足夠成熟的采購開發過程中,只有16個發布的信息包含了相關的文件,可以根據團隊既定的人工智能和HSI標準進行評估。從那里,只有6個帖子符合AL的定義,4個被寬泛地判斷為包括一些對HSI或人為因素的參考。該小組的綜合評估確定,陸軍的人工智能指導還處于起步階段,需要進一步發展和完善。評價還強調,盡管國防部和陸軍指導將HSI納入所有要求,但仍然缺乏對HSI的納入。

這個頂點項目建議,所提出的結果和結論應被用來進一步制定人工智能需求的采購指南,并特別注重納入HSI。我們還建議,未來的研究應納入機密需求以及由其他交易機構通過財團管理的需求。

付費5元查看完整內容

  • 本研究由美國陸軍研究實驗室贊助,根據合作協議號W911NF-21-2-0227完成。

?在日益復雜的軍事行動環境中,下一代兵棋推演平臺可以減少風險,降低作戰成本,并改善整體結果。基于具有多模態交互和可視化能力軟件平臺的新型人工智能(AI)兵棋推演方法,對于提供滿足當前和新興戰爭現實所需的決策靈活性和適應性至關重要。我們強調了未來作戰人-機器交互的三個發展領域:由人工智能引導的決策指導,高計算力下的決策過程,以及決策空間的真實呈現。這些領域的進展將使有效的人機協作決策得以發展,以滿足當今戰斗空間日益增長的規模和復雜性。

關鍵詞:決策、交互、兵棋推演、人工智能、增強/混合現實、可視化

1 引言

在傳統的兵棋推演中,指揮官利用一個共同的基于地圖的作戰地形,并在軍事決策過程(MDMP,方框1)中模擬各種因素的組合如何產生行動方案(COA)、可能的反擊行動、資源使用估計和預測結果(美國陸軍,1997年,2014年,2015年)。在幾天或幾周的時間里,MDMP過程導致了一套精煉的COAs,它對作戰環境做出了一定的假設,包括地形、天氣以及戰區資產的可用性和能力(即塑造支持主要作戰行動的活動)。

方框1. 軍事決策過程(MDMP)
MDMP是美國陸軍解決問題的理論方法,從接到任務開始,到生成作戰命令結束。MDMP被用作一種工具,幫助指揮人員審查眾多的友軍和敵軍的作戰行動。MDMP的7個步驟在規劃新任務、擴展行動和執行訓練演習所需的決策過程中灌輸徹底、清晰、合理的判斷、邏輯和專業知識(美陸軍,1997年,2015年)。
指揮官在接到任務后啟動了MDMP。在MDMP的第1步中,所有的工作人員和關鍵的任務參與者都被告知任務和待定的規劃要求,包括進行MDMP的可用時間量。確定進行任務分析所需的工具,并收集與任務和作戰區有關的文件。步驟2,執行任務分析,建立對任務的全面理解,包括關鍵的事實和假設,形成擬議的任務說明和任務分析簡報,為制定COA做準備。
MDMP的第3至第6步著重于制定COA以進行分析和比較。這些步驟包括:第3步,制定COA;第4步,COA分析(兵棋推演);第5步,COA比較;第6步,COA批準。COA是對一個已確定的問題的潛在解決方案。每個COA都要使用篩選標準來檢查其有效性,如在既定的時間框架、空間和資源限制內完成任務。COA的選擇過程通常涉及到兵棋推演,它試圖在考慮到友軍力量和敵人能力的情況下,將行動的順序流程可視化,同時考慮到行動區域內平民的影響和要求(美陸軍,2014)。戰術模擬(兵棋推演)方法的好處是突出了作戰行動的優勢和劣勢。這往往是一個反復的過程,對作戰行動方案進行評估,然后根據需要進行修改,直到出現一個或多個具有最高成功概率的作戰行動方案來完成任務目標。
在一個具體的行動方案得到指揮部的批準后,MDMP的最后一步是制作行動指令,這是一份給下屬和鄰近單位的指令,旨在協調所有參與任務的組織的活動。這一步驟涉及到所有受命令傳播影響的組織之間的積極合作,并建立起對局勢的共同理解。

盡管MDMP幫助指揮官了解作戰環境和考慮作戰方法,但這個過程有很多局限性,如時間密集、假設僵化、跨場景訓練的機會有限,以及將人工智能(AI)指導納入決策過程的機會很少。傳統上,一項任務的成功與指揮部執行MDMP的能力直接相關。然而,鑒于當今多域作戰(MDO)的復雜性增加(Feickert,2021年),有大量的任務指揮系統和流程,與行動相關的所有活動的整合和同步變得越來越困難,甚至到了人為無法完成的地步。由于MDMP的缺陷而導致的規劃專業知識的缺乏,可能會導致不同步和不協調的行動,從而最終導致士兵的生命損失。

MDMP中沒有具體描述戰斗空間的可視化能力,但它顯然在決策過程中發揮著重要作用。最近,集成了先進可視化能力的新系統和新技術已經被開發出來,它們可以提高態勢感知,從而增強決策過程。美陸軍的例子包括Nett Warrior(Gilmore,2015),它使下馬戰士能夠直觀地看到附近的友軍和敵軍,同時根據當地的地形協同規劃戰術任務。盡管這項技術將無線電和數字地圖擴展到了下馬戰士,但它缺乏一個底層的人工智能引擎來提供決策幫助。戰斗空間可視化和交互平臺(BVI,前身為增強現實沙盤,ARES)是陸軍技術的另一個例子,它能夠為任務規劃提供分布式協作,具有從任意視角和廣泛選擇設備的共同作戰畫面的二維和三維可視化能力(Su等人,2021)。BVI架構的制定是為了拉入外部計算服務,如分析管道、模型和人工智能引擎。美陸軍研究實驗室正在努力將這些類型的服務納入BVI,包括用于加強決策支持的人工智能。

目前,MDMP并沒有將人工智能指導納入整體任務規劃方法中。美陸軍的自動規劃框架(APF)(Bailey,2017)開始通過將自主技術插入MDMP工作流程來解決人工智能輔助決策問題。指揮人員可以通過APF的數字規劃呈現、規劃創建和規劃監控工具,在任務規劃和COA開發期間獲得背景援助。任務執行和估計能力通過監測任務的規劃和實際進展,為改進決策跟蹤和支持活動提供自動協助。盡管APF為MDMP引入了基本的自動化水平,但它缺乏Nett Warrior和BVI所提供的先進的可視化和用戶互動能力。

提供地面部隊自動化和用戶可視化能力的是美陸軍最知名的兵棋推演平臺--半自動化部隊(OneSAF),為計算機生成的地面部隊提供建模和模擬能力(PEO_STRI, 2022)。OneSAF提供了半自動和全自動的軍事實體(即士兵、坦克、直升機和綜合單位)的建模,在類似真實世界的戰斗空間中以不同的保真度來支持特定的應用和場景。OneSAF主要用于訓練,并與目前的任務指揮系統具有互操作性。它可以使用多分辨率的地形和詳細的實體相關數據庫來模擬廣泛的作戰環境。然而,OneSAF對地形和實體系統的高保真建模的優勢使得它的設置和運行成本很高。它受到老化系統的限制,而且眾所周知,士兵需要大量的培訓來學習如何操作模擬,使用起來很困難(Ballanco,2019)。OneSAF的復雜功能并不適合開發人工智能能力,以實現快速和敏捷的戰士-機器決策。

除了MDMP和上面提到的陸軍平臺外,最近將人工智能納入決策過程的工作包括一些方法(Goecks等人,2021a),在模擬人類決策過程方面取得了一些成功。一般來說,人工智能在決策變量有限的問題上取得了一些成功,如資源分配(Surdu等人,1999)、飛行模擬器(Drubin,2020)和更簡單的場景。正在進行的挑戰包括需要提高人工智能的能力,以解決有多個行為者、不完整和可能沖突的信息、不斷變化的單位行動和環境屬性的復雜決策,以及需要將這些決策的后果在許多空間和時間尺度和領域內可視化。

以下各節描述了對MDMP的潛在改進。"未來軍事決策過程所需的進步"一節概述了支持MDO決策的三個研究領域,并以圖表形式描述了這些研究領域與軍事理論決策方法之間的關系。"未來軍事決策過程所需的進步 "一節中的小節對每個研究領域進行了更深入的討論。"展望推進人-人工智能團隊決策的交互技術 "一節概述了未來的作戰人員-機器接口(WMI)的發展方向,重點是與決策有關的人-人工智能團隊的跨學科研究。

2 未來軍事決策過程所需的進步

軍事決策過程在支持MDO復雜決策方面的局限性,突出了在三個研究領域的改進需要。首先,有必要將人工智能產生的指導和輔助決策支持納入MDMP。這既包括進一步開發和整合人工智能到戰斗空間決策規劃,也包括進一步改善人工智能決策過程的可解釋性和透明度(Chen等人,2018)。第二,有必要在戰略層面以及戰術邊緣,盡可能地將決策分析與高性能計算(HPC)的力量結合起來。這將能夠利用HPC系統的力量來支持建模、分析和計算時間,同時整合和同步來自所有戰區領域的信息。最后,有必要利用先進的可視化技術,如混合現實技術,對決策空間進行更準確和互動表述。不是簡單地在一個固定的時間尺度上顯示地形的二維渲染,而是需要可視化不同領域的決策是如何相互作用的,并利用混合現實技術來提高理解的吞吐量,并產生平面顯示不可能的洞察力。

除了MDMP之外,其他更廣泛適用的支持戰斗性問題解決的軍事理論包括:DOTMLPF[例如,學說、組織、訓練、物資、領導、人員和設施;(美陸軍,2018年)],這是一個確定差距并為當前和未來作戰要求提出設計解決方案的框架;以及METT-TC[例如,任務、敵人、地形和天氣、部隊、可用時間和民事考慮;(美陸軍,2019年)],這是一個結構化框架,用于捕捉任務相關因素的狀態,以便在軍事行動期間進行共享評估。這些理論定義了MDO戰場的信息背景,構成了應用于上述三個研究領域的軍事決策的核心基礎。如圖1所示,在為人類和人工智能指揮開發復雜軍事決策空間的新表述時,研究進展和MDO相關理論相互借鑒、相互啟發、相互加強(美陸軍,2010)。

圖1. 新型作戰人員-機器交互(WMIs)和人工智能輔助決策所需的三個研究發展領域,以支持和加強基本的MDO理論[右下圖來源:Lebsack(2021)]。

2.1 人工智能導向的決策指導

需要新的人工智能支持的WMI,以利用人工智能決策方面正在取得的進展,并為復雜的適應性決策的人工智能學習作出貢獻。在簡化的戰斗空間中測試人工智能決策輔助工具是開發過程中重要的第一步,也是將人工智能納入更成熟的戰斗空間平臺(即BVI、OneSAF)的前奏。開發用于決策輔助實驗的人工智能測試平臺可以在MDO中產生能力越來越強的潛在COA建議。圖2顯示了陸軍開發的兩個人工智能測試平臺的例子。

圖2. 兩個ARL人工智能測試平臺的例子。左邊:ARL Battlespace(Hare等人,2021)( //github.com/USArmyResearchLab/ARL_Battlespace )。右邊:ARL的Simple Yeho測試平臺。圖片由C. Hung制作。

人工智能測試平臺能夠開發出匯集所有領域信息的AI,并計算出人類和AI智能體的風險和預期回報。圖2的左側顯示了ARL戰斗空間測試平臺(Hare等人,2021年),它是從頭開始開發復雜決策的新型人工智能的理想場所。它對戰斗空間的抽象強調了軍隊相關場景下的核心推理原則,在這種情況下,用蜜罐進行網絡欺騙。較小的網格空間使人工智能的學習和發展能夠集中在不確定性下的復雜推理,有多個友好和敵對的agent。圖2的右側顯示了ARL的Simple Yeho測試平臺,它提供了將人工智能開發與更多真實世界場景中的默契推理結合起來的能力,有多個基于地形的海拔高度、視線范圍、障礙物、樹葉(隱蔽)、道路和城市區域。紅色陰影和黑色線條表示任務的起點和終點、左右邊界以及人工智能建議的路線。這種額外的真實性使其能夠與MDO理論相結合,包括DOTMLPF和METT-TC,并使人工智能與自然的、機會主義的士兵行為共同發展。這兩個人工智能測試平臺都可以擴展為傳統和沉浸式混合現實WMI開發平臺。

使用漸進式和可擴展的人工智能測試平臺,可以調查現有人工智能的幾個基本限制,特別是對于具有不確定性的復雜和適應性決策,以及人類和AI智能體的協作和對抗。對多智能體的協作和對抗性決策進行建模可能特別復雜,因為其遞歸性質,其他智能體是模型的一部分(Goldman,1973;Grüning和Krueger,2021),需要對決策特征、個性化的價值、風險規避、記憶和注意力進行動態和不斷發展的估計。這些具有高度不確定性、復雜性和動態性的情況是人類擅長的領域,適當設計的交互界面和人工智能測試平臺的人機協作可以提供加速和更有效的決策。對于有效的團隊合作,新穎的WMI應該幫助作戰人員篩選復雜的信息,并幫助人工智能發現決策的隱含規則。下面,我們提供了關于人機協作如何有效的案例。

多域兵棋推演中需要的復雜決策是開發有效人工智能決策輔助工具的直接挑戰。最近人工智能在圍棋、國際象棋、Minecraft和大富翁等游戲中的成功(Silver等人,2017;Goecks等人,2021b;Haliem等人,2021)是基于對世界現有狀態有完整了解的游戲(即 "開放 "游戲),而兵棋推演平臺通常包括關于作戰環境的不完整(如星際爭霸)、不確定或欺騙性信息(Vinyals等人,2019)。不確定性也可能來自變化的物理學或其他環境規則,正如在《憤怒的小鳥》中所探索的那樣(Gamage等人,2021)。由于世界狀態、不同行動者的狀態以及所采取的行動不確定性,知識的缺乏使得人工智能agent難以計算未來行動的風險回報情況(Cassenti和Kaplan,2021)。不確定性也限制了人工智能估計其他行為者的風險回報概況的能力,而這是計算有效的博弈論策略所需要的。人工智能被可能的最優和近似最優選擇的廣度所淹沒(Lavine,2019),即由于信息有限而選擇錯誤的選項,這種情況并不罕見,因為人類在制定有效探索隱藏信息的策略時,采用啟發式方法進行有效的選擇和預測(Gardner,2019)。為了幫助發展人工智能的隱性知識和探索能力,新型的WMI需要有效地解釋和展示決策景觀,以使作戰人員能夠快速和自然地瀏覽可能的選擇,同時使人工智能能夠在不施加認知負擔的情況下從人類的決策中機會主義地學習(Lance等人,2020)。這種機會主義學習可以包括:例如,凝視跟蹤,以捕捉吸引人類興趣和意圖的視覺區域和未標記的目標。它們還可以包括建立在自然的士兵選擇行為基礎上的行動者批評方法,以改善人工智能對人類專家在不確定、不完全信息和欺騙的情況下如何優先考慮某些選擇的學習,這取決于任務相關的背景。

開發人工智能的WMI的另一個基本挑戰是如何有效地整合和顯示MDO中所有五個領域的信息,特別是空間和網絡,因為這些領域的信息具有不同的時空尺度(Gil等人,2018)。對于網絡,決策的規模和速度可能比人類處理和理解的能力更快,需要人類的輸入來指導半自動化的決策,以及實施進攻和防御性欺騙策略的人工智能。WMI需要能夠以這樣的方式顯示決策圖景,即可以解釋一小部分最優和接近最優的決策策略(例如,圖3中的決策樹)。這應該包括對關鍵agent在不確定情況下的未來狀態和風險回報情況的估計(Hare等人,2020),以使有效的博弈論決策能夠被共同開發和相互理解。

圖3. 在頂部,是BVI網絡戰術規劃器應用程序中友軍與敵軍戰爭場景的三維視圖。三維視圖提供了一個比二維視圖更真實的決策視角,例如,顯示友軍(藍色)和敵軍(紅色)機載預警系統(AEWs)和周圍地形的海拔。這使得快速審查可能的視線和相對于周圍地形的感應。下面是人工智能的導航決策樹,為人工智能計算的幾個關鍵選擇的風險/回報概況以及它們如何映射到地形上提供透明度。這種抽象的決策空間還可以整合非空間決策,例如網絡欺騙。虛線表示與友方AEW的通信聯系和對敵方AEW的可能干擾。圖片由C. Hung制作。

這些挑戰為有效的WMIs設計提供了參考。也就是說,我們需要有能力從不同的來源(包括從其他國家的決策輔助工具)提取信息,以及一個能夠承載整合這些信息的計算能力的架構,同時還要處理基礎的人工智能計算(用于學習和部署)。我們還需要共同開發一個界面和算法設計,以適時地利用人類和人工智能agent的優勢并減少其局限性。

2.2 高計算能力下的決策過程

在復雜的決策過程中,需要大量的計算能力來處理和記錄所有組件、實體和狀態空間。從積累的動態狀態空間的數據集中建立過去、現在和預測模型,需要利用HPC資源來產生分析性的見解,并在決策背景下創建有用的表述。

實施HPC分析工作流程的一種方法是使用持久性服務框架(PSF)。PSF是一個最近可用的分布式虛擬化解決方案,它可以通過一個基于網絡的前端實現對HPC服務的非傳統訪問,而不像傳統的HPC環境,計算節點在特定的時間段內以批處理模式分配給用戶。此外,PSF提供對數據、數據庫、容器化工具集和其他托管平臺的分布式連續訪問(Su等人,2021)。

在一個PSF方法的例子中,一個模擬引擎連接到PSF,用于記錄人類和人工智能做出的所有決定。這允許分析在任務規劃和COA開發過程中發生的決策行為,以及識別決策模式和戰略,以開發競爭性和現實的兵棋推演場景。一個戰斗空間可視化平臺可以托管在PSF上,并使用消息傳遞協議來更新所有連接的設備接口。來自模擬引擎的狀態信息可用于生成戰斗空間和參與作戰單位的圖形表示。

使用PSF方法并利用HPC資源,可以實施人工智能輔助決策機制,利用大數據攝取和分析,同時可供地理分布的用戶用于協作決策工作和 "永遠在線 "的個性化培訓和紅色團隊。連接到PSF托管服務器的各種混合現實顯示模式可以支持一系列作戰場景,從戰略層面的指揮和控制到作戰邊緣的更多移動戰術使用。

2.3 決策空間的真實呈現

用圖形表示各級行動的軍事決策戰略需要新的可視化方法,這些方法可以應用于以規則變化、認知狀態、不確定性以及個人偏見和啟發式方法為特征的動態環境(Dennison等人,2020;Hung等人,2020;Raglin等人,2020)。戰斗空間的視覺表現應該在技術上盡可能準確和逼真,但又保持在人類可以理解和解釋的認知水平(Kase等人,2020;Larkin等人,2020;Hung等人,2021)。融合了混合現實技術的先進可視化方法有可能更好地表現多領域戰爭的變化特征及其不斷變化的威脅和動態環境。隨著最近混合現實可視化設備的技術進步,成本降低,硬件的可靠性和實用性顯著提高,混合二維和三維可視化方法現在已經成為可能。

由多個二維顯示器組成的混合現實方法增強了更先進的三維可視化能力,可以為指揮人員提供理解復雜的兵棋推演狀態空間所需的洞察力(Su等人,2021)。當需要一個共享的戰斗空間表示時,可以通過在不同的可視化模式上實現多個協調的視圖來實現協作的戰略規劃模式,以根據分布式指揮人員的輸入進行互動更新。

BVI(Garneau等人,2018)平臺表示地理空間地形信息和地圖圖像,允許指揮人員建立和修改戰術任務規劃和COA。作為一個數據服務器,BVI將地形和作戰數據分發給支持多種可視化模式的客戶端應用程序,包括頭戴式顯示器設備、基于網絡的界面、移動安卓平板設備和混合現實設備(例如,HoloLens 2、Oculus Quest)。

例如,圖3(頂部)顯示了位于加利福尼亞州圣貝納迪諾縣歐文堡國家訓練中心的高分辨率地形上的友軍與敵軍的兵棋推演場景(Wikipedia, 2021)。與MDMP期間經常使用的傳統2D地圖顯示相比,戰斗空間的3D視圖可以從多個觀察角度提供更豐富的用戶體驗。三維視圖,在BVI的網絡戰術計劃器(WTP)中,將地形和人工特征的空間信息以及由MIL-STD 2525C符號描繪的單位位置可視化(美國防部,2014)。可以想象,地理空間視角,如BVI提供的視角,支持決策者對動態戰斗空間環境的理解。與可導航的人工智能增強的決策空間(圖3,底部)搭配,組合的視角可以使人們更好地理解視覺空間依賴性、影響和因果關系、估計的風險和價值、不確定性以及復雜決策的欺騙性。將這種以地理空間和決策為中心的視角與人工智能相結合,可以提供必要的廣度,以協調物理行動與網絡和其他非空間領域的行動,跨越多個時間尺度,并具有快速適應變化的任務目標的靈活性。

3 人-人工智能團隊決策的交互技術展望

人工智能和人-人工智能團隊的快速發展需要WMI同步發展。隨著新型人工智能對有價值的COA產生更好的預測,并能更好地處理復雜的決策,它們也必須利用人類的專業知識,學習如何處理具有高度不確定性、欺騙、隱性知識和博弈論的決策。相反,人工智能的推理必須既抽象又能與兵棋推演環境相聯系,以實現透明和信任,同時又不造成過度的認知負擔。基于三維混合現實的WMI可以利用和增強人類固有的三維認知和預測能力(Welchman等人,2005;Kamitani和Tong,2006;Kim等人,2014;Boyce等人,2019;Krokos等人,2019),如果設計得當,其交互將感覺自然,同時擴大顯示多個領域的信息的能力,同時使AI能夠適時地從用戶的決策中學習。

我們強調了三個關鍵的發展領域,即人工智能引導的決策指導,支持這種指導的計算基礎設施,以及決策透明度的混合現實表現的發展。這些領域的進步需要跨越許多不同學科的專業知識。新的人工智能發展需要融合神經科學、心理學和數學的思想,以克服復雜決策中長期存在的問題的瓶頸。這包括跨時間尺度的學習和變化環境下的災難性遺忘,以及更具體的兵棋推演問題,如具有不確定性、欺騙和博弈論的多Agent決策。計算基礎設施也需要發展,因為計算能力和數據框架對于在戰術邊緣產生人-人工智能團隊的共同操作圖來說都是必不可少的。為了有效地開發,應該通過一個共同的框架來抽象出專有的限制和軟件的依賴性,并為使用和故障排除提供清晰的文檔,以使學術界、政府和工業界更好地專注于解決人與人工智能的合作問題。這個通用框架應該包括有效的信息傳遞,同時提供靈活性和適應性,以滿足人工智能開發和人類用戶在訓練和實際使用環境中的需求。最后,交互技術的開發本身需要跨學科的協同專業技術。一個基礎性的問題是如何壓縮信息使之被用戶有效地理解,以及如何最好地利用用戶的互動來進行機會主義學習。人類的大腦并不處理所有的感官信息,而是對世界進行預測和假設,以便在信息不完整的環境下節約計算。一個有效的WMI應該同時預測潛在的決策結果以及個人用戶的期望和假設。此外,人工智能決策輔助工具必須估計用戶的默契,使其能夠提供最相關的信息和最有希望的選擇,這些信息來自整個作戰領域。

結論

信息作戰和指揮與控制(C2)是美國陸軍可以向盟友和伙伴提供的兩種能力。在未來的作戰環境中,不僅要為動能作戰做準備,而且要為混合作戰和以信息為重點的戰爭做準備。這需要在復雜和默契推理的人工智能能力方面取得進展,在能夠提供持續訓練、分布式混合決策和大數據分析系統方面取得進展,以及在人與人工智能協作決策和機會主義學習方面取得進展,以實現人工智能的持續進步和人與人工智能的共同適應。這些進展中的每一項都需要跨學科的計劃性努力,以克服復雜的技術挑戰,創造新的決策原則、理論和理論方法,包括持續開發綜合測試平臺和技術,以實現政府、學術界和工業界的合作和協同發展。

付費5元查看完整內容

本文介紹了一個使用人工神經網絡的人工智能模型,該模型提供了改善超視距(BVR)空戰飛行員態勢感知的參數。在這種作戰方式中,有必要根據來自傳感器(主要是雷達)的信息做出決策。此外,由于有關敵機系統的信息有時是未知的,而飛行員的決策通常是基于對手的。所提出的模型建議處理這些特征,為在建設性模擬環境中的實體進行行為生成,即模擬人操作系統。我們創建了兩架飛機之間的BVR空戰模擬,每架飛機只有一枚導彈,通過拉丁超立方采樣(LHS)來選擇輸入變量,幾乎均勻地覆蓋所有的范圍。這些飛機有類似的行為,它們的參數只在模擬開始時發生變化。仿真環境生成一萬個空戰場景,改變了三十六個輸入參數,用于案例研究中提出的分析。從這些數據中,我們可以創建監督機器學習模型,大大提高BVR空戰飛行員對進攻情況的態勢感知能力,在這種情況下,參考飛機使用導彈攻擊目標或防御陣地,而不是參考飛機試圖避免敵人導彈向其方向發射。進攻型和防御型模型的準確度分別為0.930和0.924,F1分數為0.717和0.678。因此,這項工作的貢獻是使用機器學習算法來產生有關戰術狀態的反應,以提高飛行員的態勢感知,從而改善飛行中的決策過程。

源代碼說明

  • 1-EDA.ipynb:探索性數據分析。
  • 2-Feature-Selection.ipynb:使用ANOVA-f統計和互信息統計的特征選擇技術。
  • 3-ANN-分類-攻擊.ipynb:使用人工神經網絡對攻擊數據進行分類模型的訓練和評估。
  • 4-ANN-分類-防御.ipynb:使用人工神經網絡對防御數據的分類模型進行訓練和評估。
付費5元查看完整內容

圖1:SocialXR測量失語癥治療中的社會認知表現(右),并將人類經驗模型模擬到制造業設計和應急響應中(左)

摘要:社會性量化的需要

在2020年新冠肺炎大流行之后,制定新方法和應對戰略以保持世界各地社區的社會凝聚力和心理復原力顯然成為一個優先事項。我們稱這種社會認知行為為“社會性”。社交是我們作為個人和更廣泛群體的一部分有效發揮作用的能力,盡管外部限制在關鍵環境中變得更有意義,如軍事干預,非軍事行動,如緊急反應,ICU衛生操作員,空乘和深空探索。諸如Social XR[1]等數字技術的獨特功能為滿足這些需求提供了機會,并部署可擴展和靈活的解決方案,以促進內部團隊的穩定性和更好的運營性能。

在軍事和非軍事環境中,設計和部署精神上和社會上可持續的行動的先決條件是選擇具有彈性的個人,并為他們提供一個合作框架,確保平衡的關系和高質量的人際溝通。社會凝聚力是計劃行動成功的一個重要因素,及時監測、檢測和預測其有效性的能力對于管理潛在的行為異常是有意義的。對目標團隊內部發生的群體動態的研究,以及任務控制,可以提供關鍵的和早期的線索,鼓勵建設性的交流,阻止關鍵的關系模式[3]。

本項目重點介紹一種技術支持的群體動態方法,能夠遠程和自主地捕捉人類互動的復雜性,并返回對預防和管理個人和群體行為異常有用的可操作的見解[4]。群體互動的復雜性需要一系列的人類主題專業知識(SME)來觀察、評估、測量、評估、預測、預防和應用必要的對策[5]。在現實世界中,讓這個龐大的從業人員團隊隨叫隨到或在現場對任務團隊進行持續監測是不切實際的。技術支持系統,如本文所述,將提高過程提供遠程操作軟件為基礎的工具,以幫助專家評估和自我效能,以維持社會凝聚力。一個自動化的、遠程操作的嵌入式系統將提供持續的測量和評估,以識別微妙和微妙的社會脆弱性指標。這將節省時間和資源,提供不引人注目的預防措施,以提高團隊業績,減少風險和增加任務成功的可能性。

該研究框架基于對隔離高危人群進行的初步研究。諸如AR頭戴式顯示器(HMD)等技術接口已被用于在人際群體互動中收集第一人稱視角,然后根據所得數據對量化的見解進行人類專業評估(圖1)。機器學習算法已被應用于人類觀察和感知計算,以驗證參與技術并計劃最佳對策[6]。由此產生的人機交互模型表明,有機會開發一個適合隨時隨地執行的非本地化和異步社會支持系統,由于系統自主性的增長,人類評估的時間預計會減少。

付費5元查看完整內容

摘要

作者領導了一項跨學科的基準測試工作:決策分析、運籌學、風險建模、管理科學、沖突和戰斗模擬以及物流和供應鏈模擬。實踐者們自愿描述他們的做法并向其他人學習。雖然不同的實踐者群體對局部實踐達成了共識,但群體之間的互動卻很少。

以前的出版物描述了從基準測試中突出最佳實踐。我們發現了兩個差距:一個是令人不安的高比例的不良實踐,另一個是缺乏執行層面的風險評估。高管們往往缺乏時間或技術背景來對提供給他們的分析結果進行風險評估。

本文為高管們提供了一種新的、簡單的風險評估方法。六個非技術性的問題解決了在基準測試中看到的大部分風險。該方法是基于一個建立在國際基準工作基礎上的檢查表。作者還對具體的風險進行了研究,包括因對分析的依賴程度增加而產生的法律風險。在這些風險中,有一些與人工智能有關的獨特問題。

識別風險的工作表明危險來自幾個方面,并產生了一個不需要深入的建模、仿真和分析(MS&A)知識的風險檢查表。本文介紹了該清單,以及支持該清單的一些更深入的MS&A原則。這對管理人員和從業人員都很有用。

該研究得到了一些專業協會、行業團體和非營利性教育協會的支持,包括國際服務/行業培訓、模擬和教育會議(I/ITSEC)、石油工程師協會、電氣和電子工程師協會和概率管理。

研究總結和以前發表的結果

我們之前已經發表了(Roemerman等人)研究的本質和我們的數據收集。回顧一下,在2014年和2015年,作者提出了一個跨領域的基準研究。作為在多個領域工作的從業者,我們注意到一些領域的 "正常 "仿真和建模實踐在其他領域是未知的。我們向幾個組織提出了一個多領域的研究。普遍來說,反饋是積極的,但沒有人愿意領導這項工作。

最終,我們決定自己進行,并開始招募幫助。我們得到了許多我們曾經接觸過的組織的幫助,還有一些組織也加入了我們的行列:

  • 電氣和電子工程師協會(IEEE)是第一個允許我們使用他們的一個網絡論壇來討論這項研究并尋求參與者。
  • 石油工程師協會(SPE)也給予我們同樣的網絡論壇權限。
  • 賓夕法尼亞大學沃頓商學院的兩位教授為我們的研究提供了建議和未發表文獻的訪問權,并得到了研究生的幫助。
  • INFORMS提供了他們在線論壇的訪問權。
  • I/ITSEC允許我們調查他們的部分成員。
  • 概率管理公司允許我們接觸他們的會員,然后任命我們中的一位為最佳實踐主席。
  • 洛克希德-馬丁公司和雪佛龍公司允許我們進入他們的建模和仿真社區進行采訪和調查。

總的來說,這些組織有大約200,000名會員(不包括這兩家公司,他們的雇員可能是我們所接觸的協會的會員)。其中,我們估計只有不到10%的會員是建模、仿真和分析(MS&A)的積極從業者。在這些會員中,我們估計大約有2100人看到了我們的調查和采訪邀請。

除了與這些大型團體合作外,我們最初以40多個個人為目標,因為他們的組織聲譽或他們個人的卓越聲譽而參與我們的數據收集。我們點名征集這些目標,事實證明他們是一個豐富的信息來源。最后,我們接觸了來自65個組織的126名個人,涉及許多領域(見圖1)。

圖1:參與者來自不同的領域
付費5元查看完整內容

摘要

本文旨在展示開源數據的潛力,結合大數據分析和數據可視化,以表明特定領域的彈性水平,其中包括北約彈性評估的基線要求(blr)。

本文中描述的概念驗證提取了特定領域的相關彈性指標,涵蓋了包括能源和交通在內的選定基線要求。概念驗證使用交互式儀表板,允許終端用戶從多個角度探索可用的公共數據,以及對這些數據進行高級分析和機器學習模型的結果。

關鍵詞:大數據分析,機器學習,彈性,能源,交通,媒體

引言

軍隊越來越意識到大數據分析在作戰和戰略決策中的重要性和作用。在正確的時間獲得相關信息一直是做出最佳決策的關鍵因素。今天,這種影響甚至更大,因為數據和信息可以大規模收集并提供給每個人。技術和人工智能方法成為利用數據的巨大推動者[1]。

廣泛可用的開源數據來自媒體、科學文章、相關(專家)門戶網站,涵蓋經濟、政治、社會、能源、交通運輸等帶來了創造更有洞察力的背景的可能性,并通過分析各種來源和整合結果為任何評估提供了有價值的新維度。

從軍事角度來看,我們從開源數據中確定了許多跨不同領域的重要指標,這些指標可以用于評估整個聯盟的戰備和恢復能力。來自不同領域的許多指標似乎相互影響,可以相互關聯。

在去年,北約CI機構數據科學團隊參與了一項創新性的概念驗證,包括轉型和作戰命令,如ACT、SHAPE和JFCBS;為了識別、提取、計算和呈現開源數據中最相關的指標,以支持整個聯盟的彈性評估。由于彈性評估是一項復雜的評估,它依賴于許多不同領域和事件的關系,因此該項目定義了較小的范圍,重點關注以下關鍵領域:

?關鍵基礎設施——醫院、發電廠、港口、液化天然氣接收站和軍事設施

?能源——專注于電力和天然氣

?交通——專注于空運、公路、海運和接近實時的交通指標

?媒體——態勢感知

其主要目標是通過使用來自公開數據集的大數據來確定相關指標。然后創建有用的策劃數據和機器學習(ML)模型,以識別相關關系,并提供對當前情況和破壞性事件影響的見解。為了提高結果的準確性,我們最初關注于一個特定的地理區域。

付費5元查看完整內容

摘要

在使用模擬的訓練過程中,所有信息都會被記錄下來,用于回放、可視化和詳細分析。經典的事后審查 (AAR) 工具提供了許多功能來放大特定時刻或對受訓者的選擇提供一般反饋。培訓師一般使用的素材是分數、視頻和截圖,需要自己手動豐富。

STRATEGIC研究項目提出了基于人工智能和建模與仿真的創新自動化分析工具。我們的工作側重于三個戰略支柱:

  • 使用圖模型對事件因果關系的敘述性重構。這有助于了解學員選擇的后果,并突出課程中的關鍵事件,從而促進匯報會議期間的溝通。
  • 自動生成豐富的作戰圖表,提供戰術形勢及其歷史的智能綜合:局部軍力比例、戰術路線、任務的主要影響、上下文單位的能力……
  • 用于探索替代解決方案的交互式圖片

早期的結果非常有希望,以至于法國陸軍訂購了許多智能圖表;不僅用于3A和培訓課程的監督,還用于情報評估。將來它還可以用作總部的決策支持和警報系統。

付費5元查看完整內容
北京阿比特科技有限公司