未來的系統開發包括指揮和控制(C2)技術,以支持空戰管理人員(ABM)和戰斗機飛行員,因為他們支持在一個更大的系統系統中使用自主無人機系統(UAS)的復雜任務。在復雜的、不斷發展的和動態的環境中,人類作戰員有效地觀察、定位、決定和行動的能力是必不可少的。然而,在ABM和飛行員之間的UAS監管變化過程中,作戰者的表現可能會下降,這大大增加了作戰者的認知工作量,超過了以往任務中通常看到的工作量。不幸的是,C2技術的發展往往把重點放在自動化和硬件上,使人類作戰員的參與度不足,不利于人與自動化的互動。目前,數字工程和基于模型的系統工程(MBSE)工具正在迅速被系統開發、整合和管理所采用,以支持整合這些系統所需的復雜開發工作。目前的研究在MBSE工具中整合了人的考慮,以分析開發過程中人與自動化的合作。該方法支持在建模的任務模擬中用一對專門的活動圖表示自動化輔助和人類作戰者,稱為任務行為者圖和OODA2活動圖,允許分析作戰過程中的錯誤和瓶頸。這種方法說明有可能減少作戰員的認知工作量,改善作戰員的決策,提高系統性能,同時減少系統重新設計的時間。
數字工程和數字設計是美國空軍(USAF)的一個新興重點領域,特別是用于現代復雜系統。高復雜度系統的一個例子是網絡合作自主彈藥群(NCAM),它優先考慮廣域搜索和多視角目標確認。首先,本研究討論了在基于模型的系統工程(MBSE)工具中建立行為模型的方法。然后,本研究介紹了NCAM在兩個環境中的并行建模工作:Cameo系統建模器中的MBSE模型,以及仿真、集成和建模高級框架(AFSIM)中的基于物理學的模型。每個數字模型在其環境中都為設計過程中的利益相關者提供了不同的好處,所以這些模型必須呈現出一致和平行的信息。因此,這項研究也提出了在模型之間翻譯設計信息的自動化方法。總的來說,這對協同工作的模型通過系統認知和數字場景模擬對自主過程的理解,與決策部門建立信任關系。
在始于1903年萊特兄弟首次飛行的重于空氣的飛行歷史中,美國軍隊促進了空對地攻擊能力的持續和快速發展。最初,飛行在軍事上的應用僅限于1909年美國陸軍信號部隊的偵察和監視;然而,第一次世界大戰和后來的第二次世界大戰的爆發創造了軍用飛機技術和理論的繁榮。到1946年,簡單的偵察雙翼飛機被可以超過音速的噴氣機所取代。美國看到了這種快速發展的技術的可行性,并在1947年創建了獨立的美國空軍(USAF)服務。空中力量的勢頭一直持續到現在,現代美國空軍的飛機可以隱藏他們的雷達信號,并精確地投擲制導彈藥,在地面上的同一個洞里投擲5枚炸彈!這就是美國空軍。
在美國空軍這個令人難以置信的組合中,一個合乎邏輯的下一個能力是合作和自主的彈藥,它利用相互通信來尋找、識別和打擊一個目標,同時評估對目標的損害。國防部研究與工程助理部長(USD(R&E))對這種能力有兩個關鍵定義。
"自動化。該系統的功能沒有或很少有人類操作者的參與。然而,系統的性能被限制在它被設計為做的具體行動上。通常,這些都是定義明確的任務,有預先確定的反應(即基于規則的簡單反應)。
自主性。系統有一套基于智能的能力,使其能夠對系統部署前沒有預先編程或預期的情況做出反應(即基于決策的反應)。自治系統具有一定程度的自治和自我指導行為(由人類代理決策)"。[4]
目前的制導彈藥非常嚴格地遵循自動化的定義。通過激光或全球定位手動指定目標,然后彈藥執行程序化的行動以擊中指定位置。在這種情況下,控制權被操作者緊緊抓住,對目標開火的決定需要多個人為步驟。這些人為步驟使操作者對自動化有一種信任感,因為扣動扳機時風險最小化;與操作者使用無制導彈藥相比,彈藥利用其自動化技術更準確地擊中目標。當討論下一步的自主化發展時,人們有一種理性的擔心,即人類通常控制的決定將由自主系統的機器大腦來代替。這種不信任導致人們對部署旨在自主摧毀目標的武器猶豫不決。
理解與系統自主決策相關的行為是建立對自主性信任的絕佳方式。有多種方法可以將行為理解傳達給人類評估者:首先是提供描述系統各個方面的正式文件,接下來是創建一個數字模型,用圖表表示系統結構和行為,另一個是運行涵蓋廣泛場景的模擬,最后演示可以證明物理系統在測試和評估中的能力。文檔方法一直是所有國防部采購的標準,可以追溯到手繪示意圖的設計時代。然而,最近,國防部對使用建模和仿真來記錄和管理系統表示了興趣。已經出現的一個概念是數字孿生,系統的每個方面都被虛擬建模,以實現快速的修改原型和精確的配置控制。[5]這種數字孿生的焦點也為它所代表的系統的物理結構和行為創造了清晰的、可瀏覽的數據,從而使系統得到合理的理解。
如Reed[6]所示,基于模型的系統工程(MBSE)已經迅速被美國空軍的數字工程工作所采用,用于程序和系統結構建模項目。然而,復雜系統的行為MBSE建模在美國空軍的相同項目中并不常見。對于自主系統,算法的復雜性和這些自主系統協作時出現的突發行為使得評估邏輯行為和性能影響變得困難。對系統行為進行建模的能力是MBSE過程所固有的,但MBSE模型通常缺乏提供詳細的基于物理學的模型的能力,無法對系統的運行情況進行性能評估。有一些專門建立的基于物理的仿真平臺,如高級仿真、集成和建模框架(AFSIM),就是為了這后一種目的而存在的,但它們往往與MBSE工具中的定義模型脫節[3]。一種將復雜系統的MBSE行為模型和同一復雜系統的基于物理學的仿真模型聯系起來的方法和工具是必要的。要確保這對模型之間的行為一致,需要有能力在建模平臺之間傳輸設計數據。
本研究的目的是建立一個復雜的合作彈藥系統的行為MBSE模型,并建立一個自動和可重復的方法,將數據從MBSE模型轉移到AFSIM場景中,以執行相同的合作彈藥行為的模擬。MBSE模型將足以驗證單個自主彈藥的邏輯行為,以及在合作概念中同一彈藥的數量。AFSIM模擬將反過來為建模者提供反饋,以便對彈藥模型進行潛在的修改,從而實現更高的性能。
合作彈藥模型的研究問題包括:
SysML在行為建模中的優勢和劣勢是什么?
哪些MBSE元素和/或屬性適合翻譯成AFSIM的原生語言用于情景模擬?
SysML數字模型在多大程度上可以代表AFSIM模擬中使用的合作彈藥的行為?
在SysML模型和AFSIM場景之間可以利用哪些自動和可重復的方法進行數據交換?
這項研究必須首先確定連接點和集成到AFSIM的所需變量,這將有助于定義合作彈藥的MBSE系統模型的邏輯接口。這些接口有助于定義合作彈藥的MBSE模型的邊界,并為整合到AFSIM的場景模型提供數據點。設計和測試的關鍵領域是:為AFSIM實體所需的變量和基本方程建模;提供從MBSE模型到AFSIM的彈藥和場景參數的自動導出可用性;以及確定MBSE模型中會影響模擬的可修改區域。基于對連接點的評估,研究將轉向創建一個MBSE模型,以保持連接點,同時建立與AFSIM模型平行的行為。MBSE模型中的行為將根據AFSIM模型的情況進行評估。
本研究僅限于虛擬彈藥的建模和模擬。此外,本研究定義的合作彈藥概念是名義上的;因此,彈藥模型將由名義上的數據填充。
第2章是對與彈藥建模、AFSIM集成、自主無人機系統行為建模和美國空軍先進彈藥的歷史應用有關的出版物的文獻回顧。第3章介紹了合作彈藥概念的設計方法和將數據自動傳輸到AFSIM場景模擬的方法。第4章討論了已完成的網絡化合作自主彈藥(NCAM)MBSE模型的行為分析、自動轉換結果和平行模型之間的比較。第5章總結了研究的重要發現,并推薦了未來的研究課題。
美國海軍陸戰隊正在探索使用人機協作來控制前線部署環境中的無人駕駛航空系統(UAS),其任務范圍廣泛,包括情報、監視和偵察(ISR)、電子戰(EW)、通信中繼和動能殺傷。美國海軍陸戰隊設想使用未來的垂直起降平臺(VTOL)來支持混合戰爭任務并實現軍事優勢。對于美國海軍陸戰隊的混合戰爭應用,以實現任務優勢和戰爭主導權,美國海軍陸戰隊需要了解VTOL機組和無人機系統之間錯綜復雜的人機互動和關系,以獲得戰斗空間態勢感知,并有效地計劃和執行針對常規和不對稱威脅的旋轉翼行動。這項研究的重點是美國海軍陸戰隊在海洋環境中的打擊協調和偵察(SCAR)任務,以促進遠征基地先進作戰(EABO)在沿岸地區。有多種復雜的功能必須加以考慮和評估,以支持人機協作互動,提高任務的有效性:任務規劃、移動和滲透、區域偵察、偵察戰斗交接和過渡。
這份頂點報告探討了SCAR任務期間三個系統之間的人機協作:UAS、VTOL和地面控制站(GCS)。該研究從VTOL項目的文獻回顧開始,研究了美國海軍陸戰隊SCAR任務戰術和用于促進EABO的理論概念。此外,它還包括對自主性和自動化、人工智能和機器學習的研究。通過使用合作設計模型來探索這三個系統的人機協作互動和過程,文獻回顧探討了如何使用基于三個因素的相互依賴性分析(IA)框架來確定人類執行者和機器團隊成員之間的相互依賴性:可觀察性、可預測性和可指導性。
通過基于模型的系統工程(MBSE)工具,將SCAR任務的高級功能分解為分層次的任務和子任務,系統分析被用來支持聯合設計方法。根據Johnson(2014)的說法,合作設計方法研究了相互依賴的概念,并使用IA框架作為設計工具。IA框架捕捉了主要執行者和支持團隊成員之間的互動,以發展支持每個主要任務和分層子任務的所需能力,從而產生HMT要求。這份頂點報告分析了兩種選擇。第一個方案認為UAS是主要執行者,VTOL和GCS是輔助團隊成員。第二種方案認為VTOL是主要執行者,UAS和GCS是輔助團隊成員。基于這兩種選擇,IA框架評估了17個主要任務、33個分層子任務和85個執行SCAR任務的所需能力。
此外,研究發現需要一個強大的數字任務規劃系統,如升級后的海軍陸戰隊規劃和行動后系統(MPAAS),通過存儲以前的任務和經驗教訓的數據來促進機器學習。美國海軍陸戰隊將面臨無人機系統的處理能力和信息存儲方面的挑戰。應盡一切努力增加UAS的處理能力。必須實施一個有效的主要、備用、應急和緊急(PACE)通信計劃,以確保UAS、VTOL和GCS之間所有通信平臺的冗余。美國海軍陸戰隊必須實施支持信任、提供快速反饋和簡單操作的接口。
最后,為了準確評估VTOL、UAS和GCS之間的HMT要求,頂點報告促成了一個探索性實驗的發展,該實驗將在海軍研究生院(NPS)建模虛擬環境和模擬(MOVES)實驗室使用,以促進未來的研究。制定了操作要求和測量方法,以確定HMT要求的有效性。
這項頂點研究為在SCAR任務中執行VTOL/UAS混合行動的人機互動復雜性提供了明確的證據。該頂點研究確定了使用系統分析和協同設計作為一種有效的方法,通過IA框架促進人機協作需求的發展。此外,該研究確定了對復雜的自主性和技術準備程度的需求,這可能是目前還沒有的。頂點建議美國海軍陸戰隊繼續研究人機協作,并利用SCAR任務探索性實驗來進一步完善和研究VTOL/UAS的高級系統要求,以支持具有前沿部署的UAS的混合行動,重點是實現4級自主權。
本項目的目的是深入了解影響飛行員認知負荷的因素,以幫助了解未來垂直升降機(FVL)的任務自動化要求。研究人員利用學術文獻來開發對影響飛行員認知負荷因素的理解。接下來,研究人員對陸軍旋轉翼飛機飛行員進行了半結構性訪談,以獲得認知負荷數據。之后,研究人員對所獲得的數據進行了定量和定性分析,開發了一個影響圖,對飛行員的認知負荷及其影響因素進行建模。最后,研究人員利用該模型和飛行員數據,為FVL任務自動化要求和未來研究需求提出建議。
美國陸軍正在開發新一代的飛機,作為FVL計劃的一部分。陸軍的意圖是通過開發新的平臺和作戰概念,在航空技術和能力方面實現一代人的飛躍,以便在競爭日益激烈和充滿挑戰的戰斗空間中取得成功。FVL計劃的核心是整合革命性和顛覆性的新技術,以推動陸軍航空的機械、方法和機組人員領域的變化。如果不增加自動化,由于FVL平臺上新技術、數據流和態勢感知工具的注入,飛行員達到認知過載的可能性增加。因此,FVL項目正在重新評估哪些任務應該被自動化,以避免飛行員的認知過載。
這個項目表明,影響圖是一個有效的工具,用來模擬影響飛行員認知負荷的因素和因素關系。研究人員希望本項目的影響圖和數據能夠為未來關于飛行員認知工作負荷和FVL任務自動化需求的研究提供參考。
本項目最重要的成果是簡單和復雜的醫療救援任務情景下的認知負荷數值的顯著差異,如表ES-1所示。數據表明,飛行員的負荷根據任務的操作條件有很大的不同,在復雜的任務中飛行員的認知負荷特別大。這清楚地表明,在復雜情況下需要自動化來協助飛行員。
表ES-1. 簡單和復雜MEDEVAC情況下的參與者認知負荷值。
對主要因素影響的高層次分析,如表ES-2所示,表明隨著任務需求的增加和情景變得更加復雜,任務需求成為認知負荷的最大影響因素。此外,當從一個不太可能出現認知過載的場景(即簡單場景)過渡到一個可能出現認知過載的場景(即復雜場景)時,環境因素占認知負荷的最大增幅。因此,應該發展自動化,以減少任務要求和環境條件對認知負荷的影響。
表ES-2. 簡單和復雜MEDEVAC情景的主要因素權重中位數。
與主要因素分析相比,表ES-3中顯示的影響性子因素的排序列表提供了對自動化有意義的任務的更集中的洞察力。為了幫助避免認知過載,飛行員在復雜情況下最需要自動化,因為那是他們認知負荷最大的地方。拋開目前不適合自動化的子因素(如飛行員經驗),數據表明,受光照因素、飛行內協調要求和任務復雜性影響的任務應該被自動化。這將導致在高峰需求情況下最大的潛在認知負荷減少。
表ES-3. 在復雜的MEDEVAC情況下對認知負荷影響最大的8個子因素。
最后,參與者在后續訪談中表示,他們期望自動化能減少他們的認知負荷。雖然預期減少的幅度不同,但參與者普遍認為,在最有可能出現認知過載的復雜情況下,自動化將有助于減少飛行員的認知負荷。
總的來說,本研究的數據顯示,沒有一個子因素是如此的主導和有影響力,以至于它的自動化就可以大大減少飛行員的認知負荷。相反,研究人員評估說,可能需要在許多子因素領域實現自動化,以有意義地減少飛行員的認知負荷。
雖然這種方法的定性產出提供了有用的見解,但主要的收獲是確定了未來研究應該更深入地探索的領域,以告知有限的任務自動化要求。基于通過訪談和數據分析得到的信息,研究小組對未來的研究有三個建議。
首先,研究人員建議完成一項任務分析,以確定哪些有限任務會影響本研究中確定的影響因素和子因素。這些結果可用于評估任務自動化對飛行員認知負荷的潛在影響,使用離散事件建模和模擬工具,如改進性能研究集成工具(IMPRINT)。
第二,研究人員建議測量飛行員認知過載的經驗閾值,并用于補充本項目中確定的飛行員認知負荷的自我評估。這將允許開發更準確的認知工作負荷模型,并對任務自動化帶來的認知工作負荷減少的幅度提供更多的洞察力。
最后,研究人員建議評估低能力飛行員(即飛行經驗最少的飛行員)的認知工作負荷能力。這方面的知識將有助于告知哪些任務應該自動化,以避免最有可能出現認知過載的用戶群的飛行員認知過載。
美國防部(DOD)整體態勢感知和決策(HSA-DM)項目辦公室負責確定未來垂直升降機(FVL)的認知工作負荷驅動因素,并開發認知工作負荷管理能力。減少認知工作量的最常見技術之一是將以前由人類飛行員執行的任務自動化。海軍研究生院(NPS)的這項頂點研究通過調查任務難度和自動化的復雜程度如何影響人類在人類自動化團隊(HAT)環境中的行為,為HSA-DM的使命做出了貢獻。研究結果表明,更復雜的自動化水平并不一定像其他因素(如場景難度)那樣降低認知工作量。
研究人員進行了一項 "綠野仙蹤 "類型的研究,有20名參與者和一名同盟者。每個參與者都與同伙一組,被指派在一個名為C3Fire的軟件程序中撲滅一場森林火災。參與者包括陸軍、海軍和海軍陸戰隊的中級軍官(O3-O4)。參與者中沒有人熟悉C3Fire,但他們確實有自動化的經驗。本研究的獨立變量是自動化水平(內部;低、中、高)和排隊(之間;無提示、有提示)。同盟者遵循預先規定的自動化水平,在每次迭代后 "升級"。同盟者遵循指定的自動化水平,對應于Sheridan的自動化水平之一(Sheridan 1978)。因果變量包括傳送的信息數量、移交給同伙的任務數量以及被試報告的主觀認知工作量。被試和同伙在大約70分鐘內完成一個訓練場景和三個(現場)場景。
這項研究的結果表明,自動化水平對認知工作量沒有顯著影響。研究結果確實顯示,參與者通過使用可用的功能向自動化發送更多的任務。參與者通常使用更復雜的自動化水平,將任務捆綁在單一的信息中。在捆綁功能可用之后,參與者將更多的任務交給了自動化。然而,進一步增加捆綁的數量并沒有導致交給自動化的任務數量的顯著增加。雖然參與者將更多的任務交給了自動化代理,但認知工作量在每次迭代中都保持不變。
結果表明,下一代FVL平臺的開發者應該建立自動化功能,允許人類將任務捆綁到一個單一的傳輸中,以使人類能夠向自動化代理發送更多的任務。捆綁是有效的,允許參與者更快地發送更多的任務給自動化。但是,創建允許人類向自動化代理傳送更多任務的功能并不一定能減輕人類操作員的認知工作量。
本報告描述了2020財年在美國陸軍作戰能力發展司令部陸軍研究實驗室的主任戰略倡議(DSI)項目《人工智能(AI)用于多域作戰(MDO)的指揮和控制(C2)》下進行的工作。多域作戰的速度和復雜性要求在高度活躍的環境中對近似對手進行高速決策和執行,這往往可能超出人類的認知能力。最近,新興的人工智能技術,如深度強化學習(DRL),在復雜的、相對非結構化的、部分信息的戰略游戲(如Dota 2和StarCraft II)中的表現超過了人類世界冠軍。這表明這種人工智能有可能對MDO的C2做出貢獻。然而,關于這種新的人工智能技術的行為和限制的許多問題仍未得到解答。作為DSI的一部分,我們正在研究DRL是否可以支持未來多域部隊的敏捷和適應性C2,這將使指揮官和工作人員能夠迅速有效地利用轉瞬即逝的優勢窗口。在第一年,我們開發了兩個新的C2測試平臺,并在這些測試平臺上進行了基于DRL的學習。本報告包括項目的概述,并展示了初步的研究成果,其中一個“人造指揮官”在模擬的旅級戰斗中執行了一個綜合規劃-執行過程。
同行對手多域作戰(MDO)的速度和復雜性可能會超過人類指揮員在傳統的、主要是人工指揮和控制(C2)過程中的認知能力。同時,人工智能(AI)技術的新成果,如深度強化學習(DRL),開始顯示出有可能支持多域作戰的指揮與控制。過去兩年的發現表明,基于DRL的算法可以在復雜的、相對非結構化的、部分信息的戰略游戲(如Dota 2和StarCraft II)中勝過人類世界冠軍。通過這些突破,強化學習(RL)已經證明了人工智能在復雜游戲中開發和實施多層策略后控制多個智能體的潛力。未來MDO作戰指揮的特點是在非結構化的任務領域內具有高度的復雜性,這與復雜的游戲模擬環境有一些相似之處。因此,將基于人工智能的方法擴展到軍事領域,可能為提高戰斗指揮能力提供了重要的可能性。
本報告中描述項目的長期意圖并不新鮮。在過去的幾十年里,有許多想法和相應的研究,旨在開發自動化或半自動化的工具,以支持規劃和執行軍事行動的決策。以下是過去在這一領域的一些工作,本報告的一些作者親自參與了這些工作。
美國國防部高級研究計劃局(DARPA)的聯合部隊空中部分指揮官(JFACC)項目在20世紀90年代末進行,為聯合空戰的敏捷管理開發了一些概念和原型。當時考慮的大多數方法涉及各種航空資產的路線和活動的持續實時優化和再優化(隨著情況的不斷變化)。同樣在20世紀90年代中后期,陸軍資助了行動方案開發和評估工具(CADET)項目,該項目探討了經典的分層規劃的潛在效用,該計劃適用于對抗性環境,可以將高水平的戰斗草圖轉化為詳細的同步矩陣--這是理論上的軍事決策過程(MDMP)的關鍵產品。在21世紀初,DARPA啟動了實時對抗性情報和決策(RAID)項目,該項目探索了一些預測敵方作戰規劃的技術,以及動態地提出友好的戰術行動。在所探索的技術方法中,博弈求解算法是最成功的。
2000年代末,DARPA的沖突建模、規劃和結果實驗(COMPOEX)計劃探討了多個領域的作用及其非常復雜的相互作用--除了傳統的動能戰斗,還有政治、經濟和社會影響。該計劃研究了相互關聯的模擬子模型的使用,主要是系統動力學模型,以協助高級軍事和文職領導人在復雜的作戰環境中規劃和執行大規模戰役。非傳統作戰領域如網絡領域的重要性已經得到認可,2010年,北約的一個研究小組研究了評估網絡攻擊任務影響的模擬方法,并強調了網絡、人類和傳統物理領域之間相互作用的強大非線性效應。
在前面提到的研究工作中所采取的所有方法,以及許多其他類似的方法,都有主要的和一些共同的弱點。它們往往需要對問題領域進行嚴格、精確的表述。一旦這樣的表述被構建出來,它們往往能產生有效的結果。然而,一旦有新的元素需要被納入到表述中(例如,一種新的軍事資產類型或一種新的戰術),就需要進行困難的、昂貴的、手工的和長期的努力來“重新連接”問題的表述和微調解決方案的機制。而現實世界呈現出無窮無盡的新元素,必須加以考慮。
在20世紀80年代的基于規則的系統中,隨著越來越多的規則(它們之間的相互作用往往是不可預測的)必須被添加以代表現實世界中錯綜復雜的領域,一個系統將變得不可維護。在基于優化的方法中,同樣地,重要變量和各種約束條件之間無窮無盡的關系必須不斷地手動添加(維護的噩夢),以代表現實世界中復雜的領域。在基于游戲的方法中,由于越來越多的領域的現實情況不得不被手動設計并添加到游戲的表述中,管理每個棋子的合法移動和移動效果的規則將逐漸變得無可救藥地復雜。
簡而言之,這種方法在建立和維護表征方面是高成本的。理想情況下,我們希望看到一個系統能夠直接從真實或模擬世界的經驗中 "學習"(即自我規劃)其問題的制定和解決算法,而不需要任何(或很少)人工規劃。機器學習,特別是RL,正是提供了這樣的希望。這是我們項目背后的一個主要動機。
美國陸軍目前還沒有一個基于人工智能的、部分自主的任務指揮工具,在戰術或作戰層面上以高作戰節奏(OPTEMPO)運作。通常情況下,生死攸關的決定是由少數人在時間限制下利用不完善的信息作出的。目前可供規劃者使用的工具(如高級野戰炮兵戰術數據系統[AFATDS]、藍色部隊追蹤器等)通常僅限于分析戰場地形的基本決策輔助工具和記錄決策的自動化工具。指揮官在向下級提供快速OPTEMPO指導時,會遇到信息過載。戰斗損傷評估(BDA)很慢,而且不能與單位運動/傳感器與射手的聯系同步,也不允許利用優勢窗口。行動方案(CoA)分析主要集中在對友軍計劃的評估上,很少強調對手的目標和能力的復雜性。
隨著空間、網絡電磁活動(CEMA)和機器人資產的加入,MDO成倍地增加了C2的復雜性,這可能會使OPTEMPO比過去更高。此外,人類指揮官使用目前可用的決策輔助工具來提供高度詳細的指令將是難以解決的。有可靠的報告稱,美國的同行和近鄰競爭對手,特別是中國,正在大力追求人工智能在軍事上的應用,包括指揮決策和軍事推演(即兵棋推演)。因此,在追求人工智能C2系統的過程中,存在著很大的失敗風險,只有不斷地朝著這個目標前進,不斷地努力實現一個能夠在MDO中執行C2的人工智能系統,才能克服這個風險。
到2035年,我們設想需要開發敏捷和適應性強的人工智能C2系統,用于復雜、高OPTEMPO、超活躍的MDO中的作戰規劃和決策支持。這些系統將不斷整合未來戰爭的幾個領域。設想中的系統將能夠分析敵人的活動;不斷地規劃、準備、執行和評估戰役,通過不斷地感知、識別和快速利用新出現的優勢窗口,使軍隊的能力得到快速反應。這些優勢窗口將在不同梯隊的MDO框架內的行動中出現,但識別和利用它們需要較少地依賴刻意的規劃周期,而更多地依賴持續、綜合的規劃能力。啟用人工智能的C2系統有可能在不同的梯隊、領域和多個同時運作的資產之間快速同步采取多種行動,以利用優勢窗口。部隊將主要由機器人資產(地面、空中)組成,人工智能C2系統將收集和處理來自智能傳感器和平臺的數據,評估作戰環境中的新趨勢,并建議采取減少認知負擔的行動,使人類指揮官能夠快速有效地采取行動。啟用人工智能的流程還將提供定量分析、預測分析和其他可供人類有效使用的突出數據。這最終將使美國陸軍有能力在武裝沖突期間,根據對敵人弱點的理解和詳細的友軍估計,重新分配、重組和使用能力,并將產生具體、詳細的指令來控制自主資產。
DEVCOM陸軍研究實驗室在機器人學、自主性、人工智能和機器學習方面有積極的研究計劃。本報告的作者領導了政府、學術界和工業界合作伙伴之間的大型合作機器人研究工作的研究和整合活動,在場景理解、人類與人工智能的合作、RL、多智能體強化學習和多智能體協作系統方面進行了開拓性的研究。此外,ARL還擁有廣泛的基礎設施來進行上述領域的研究。這包括用于機器人研究的地面和空中平臺;用于場景驅動研究的機器人研究合作園區(R2C2),能夠承載實時的、可擴展的、多領域的實驗;旨在支持人工智能和機器學習應用的新興要求的集裝箱式超級計算機;這只是其中的幾個例子。我們相信,這些專業知識和資源可以被用來建立一個成功的計劃,將人工智能納入C2應用。
ARL主任戰略倡議(DSI)計劃是一個跨學科基礎和應用研究的機制,成功的提案可以跨越科學和技術學科的界限。該計劃確定了代表戰略研究機會的主題領域,對陸軍任務具有非常高的潛在回報,以擴大現有的計劃或建立新的核心能力,并在這些領域建立內部的專業知識。
作為20財政年度授予的 "用于MDO C2的人工智能 "DSI項目的一部分,我們探索基于DRL的算法在多大程度上可用于估計紅方部隊的狀態,評估紅方和藍方的戰斗損失(損耗),預測紅方的戰略和即將展開的行動,并根據所有這些信息制定藍方計劃。這種方法有可能為藍方部隊產生新的計劃,利用潛在的機會窗口,其速度比專家規劃者快得多。最近,DRL在非結構化戰略游戲中的成功提供了重要的暗示性證據,表明人工智能方法可能能夠基本上 "從零開始 "發現適當的戰術概念,并以高于人類的速度選擇、應用和執行戰略。
在這個DSI中,我們探索使用DRL在戰斗行動前制定詳細的計劃,并在執行正在進行的行動中生成實時計劃和建議。我們計劃在兩個關鍵領域推動技術水平的發展:1)構思、設計和實施基于DRL的智能體,以生成與專家計劃員生成的計劃一樣好或更好的計劃;2)將人類納入指揮和學習回路,并評估這些人工智能-人類(人在回路中)的解決方案。在為這種人工智能支持的C2開發途徑的同時,需要回答幾個研究問題。在這個DSI中,我們試圖回答三個具體問題:
DRL C2智能體的訓練和數據要求是什么,以便準確和足夠快地學習?
我們如何才能使DRL智能體具有通用性,以便根據人類專家的判斷,特別是在以前未曾見過的細節被引入到一個情況中時,它們能夠合理地執行?
在人工智能支持的C2系統中,人類的干預有什么影響?
該項目第一年的重點是開發研究的基本構件,包括:1)通過調整和使用基于《星際爭霸II》和OpSim的環境來開發模擬能力和高級界面;2)開發執行C2功能的初始端到端人工智能;3)通過與高性能計算(HPC)環境整合來開發計算能力;4)初步確定數據量和訓練要求。本報告提供了這些任務中每個任務的細節。
作為該項目的一部分,我們開發了C2模擬和實驗能力,包括與基于DRL的人工智能算法和國防部高性能計算系統上的可擴展RL的接口的模擬戰斗空間(圖1)。我們使用兩種模擬環境來生成C2場景:星際爭霸II學習環境(SC2LE)29和OpSim。虎爪,一個由卓越機動中心(Fort Benning,Georgia)開發的場景,在模擬環境中生成了真實的戰斗環境。最后,我們使用RLlib31,一個為RL提供可擴展軟件基元的庫,在HPC系統上擴展學習。
圖1 C2基礎設施概述
虎爪行動(Tiger Claw)是一個預定義的戰斗場景,由紅軍和藍軍組成,由喬治亞州本寧堡的上尉職業課程的軍事主題專家(SME)開發。這個假想場景顯示特遣部隊(1-12 CAV)在區域內進攻,以奪取OBJ Lion,以便將師的決定性行動(DO)向東傳遞。特遣部隊的目標是穿越Thar Thar Wadi,摧毀紅色部隊,并奪取OBJ Lion(圖2)。特遣部隊包括使用M1A2艾布拉姆斯的戰斗裝甲,使用布拉德利的步兵戰車,野戰炮和迫擊炮,使用布拉德利的裝甲偵察騎兵,戰斗航空兵,防空兵和無人駕駛飛機。紅軍由裝備BMP-2M的機械化步兵、裝備T-90坦克的戰斗裝甲、野戰榴彈炮、裝備BMP-2M的裝甲偵察騎兵、戰斗航空兵、反裝甲兵和戰斗步兵組成。虎爪方案還包括由中小型軍事專家制定的藍軍和紅軍的可能計劃。這些計劃是根據作戰命令(OPORD)和相應的威脅戰術,使用理論上的力量部署產生的。虎爪方案已被納入OpSim和《星際爭霸II》,并作為一個基準基線,用于比較不同的神經網絡架構和獎勵驅動屬性。
圖2 TF 1-12 CAV在《虎爪》中的作戰區域(AO)。
星際爭霸II》是一個復雜的實時戰略游戲,玩家要在高水平的經濟決策和低水平的個人控制可能的數百個單位之間取得平衡,以壓倒和擊敗對手的部隊。星際爭霸II》對人工智能有許多困難的挑戰,使它成為MDO中C2的一個合適的模擬環境。例如,游戲有復雜的狀態和行動空間,可以持續數萬個時間步驟,實時選擇數千個行動,并由于游戲的部分可觀察性或 "戰爭迷霧 "而捕捉到不確定性。此外,該游戲具有可用于MDO模擬的異質資產、固有的C2架構、嵌入式軍事(動能)目標,以及與更強大的模擬(例如,One Semi-Automated Force [OneSAF])相比,實施/修改的學習曲線較淺。DeepMind的SC2LE框架將暴雪娛樂公司的《星際爭霸II》機器學習應用編程接口暴露為RL環境。這個工具提供了對《星際爭霸II》和相關地圖編輯器的訪問,以及RL智能體與《星際爭霸II》互動的接口,獲得觀察和發送行動。
作為DSI的一部分,一個SC2LE地圖是根據Tiger Claw OPORD和支持文件開發的(圖3)。通過重新繪制圖標以納入2525B軍事符號和與虎爪計劃相關的單位參數(武器、范圍、比例),游戲被軍事化。內部評分系統被重新使用,以計算RL的獎勵函數,其中包括任務目標的收斂(穿越瓦迪),藍色損耗的最小化,以及紅色損耗的最大化。
圖3 《星際爭霸II》中的虎爪地圖
虎爪劇情是在《星際爭霸II》中使用其編輯器重新創建的。這個編輯器包含在暴雪娛樂公司免費下載的《星際爭霸II》中,它有許多創建自定義內容的功能。掌握這些功能的一個很好的資源是專門用于編輯器的在線社區論壇。在下面的章節中,將詳細討論使用編輯器開發地圖、單位和獎勵的問題。
我們使用《星際爭霸II》編輯器為《虎爪》場景創建了一個新的近戰地圖。地圖的大小是編輯器中最大的(256乘256),使用《星際爭霸II》的坐標系統。荒地瓷磚組被用作地圖的默認表面,因為它在視覺上類似于《虎爪》中AO的沙漠地區(圖4)。
圖4 《星際爭霸II》編輯器中的初始虎爪地圖
在最初的設置之后,我們使用地形工具修改地圖,使其大致接近AO的情況。關鍵的地形特征是無法通行的瓦迪,其交叉點有限。
距離縮放是創建場景的一個重要因素。在最初的地圖中,我們使用已知的地標之間的距離,將《星際爭霸II》的距離,使用其內部坐標系統,轉換為公里數。這種轉換對于在單位修改期間調整武器射程非常重要(圖5)。
圖5 修改后的《星際爭霸II》編輯地圖
最初的實驗使用《星際爭霸II》來可視化模擬復制品。這些回放的游戲感成為一個明顯的干擾因素。為了補救這個問題,我們希望采用其他的可視化方法,特別是ARL開發的混合現實環境Aurora。新的可視化方法使用AO的地理地圖。因此,有必要修改《星際爭霸II》的地圖,以便與AO的經緯度相一致。在修改后的地圖中,距離比例是通過將《星際爭霸II》的坐標轉換為經緯度來確定的。
為了模擬 "虎爪 "場景,我們選擇了與軍事單位能力相近的《星際爭霸II》單位。我們復制了《星際爭霸II》中的單位,并在編輯器中修改了它們的屬性以支持該場景。
首先,我們修改了這些單位的外觀,并用適當的MIL-STD-2525符號代替(表1)。在《星際爭霸II》中,每個單位都與多個角色相關聯,這些角色控制著該單位在游戲中的外觀。我們能夠將演員與他們的默認效果圖解開,有效地使這些單位不可見。接下來,我們將所需的軍事符號的圖像導入編輯器。最后,我們使用了SCMapster.com上發布的 "rr Sprite Engine"(LGPL 2.1許可)庫,將這些單位與它們的軍事符號聯系起來。
表1 虎爪部隊與《星際爭霸II》部隊的映射關系
為該場景修改的其他屬性包括武器射程、武器傷害、單位速度和單位壽命(它能承受多少傷害)。武器射程是從公開資料中發現的,并根據地圖的尺寸進行縮放。單位速度在《虎爪行動指令》中確定,并固定在該值上。傷害和生命的屬性是估算出來的,其指導原則是保持平衡的沖突。每個《星際爭霸II》單位通常只有一種武器,這使得模擬一個連級單位可用的各種武器具有挑戰性。額外的努力來提高單位修改的準確性,需要戰爭游戲的主題專家。
修改后的部隊被放置在地圖上,以接近虎爪的場景(圖6)。在實驗過程中,藍色部隊將由一個使用PySC2(DeepMind的SC2LE的Python組件)開發的智能學習智能體控制。此外,藍軍部隊被修改為沒有天生的攻擊性。換句話說,他們不會參與進攻或防守,除非有智能體的特別命令。為了控制紅色部隊,我們使用了兩種不同的策略。第一種策略是為紅色部隊的行動加入一個腳本化的CoA,在每次模擬中都會執行。該部隊默認的攻擊性屬性控制它如何與藍方交戰。第二種策略是讓《星際爭霸II》的機器人AI控制紅方部隊執行全面攻擊,或在編輯器中稱為自殺。內置的《星際爭霸II》機器人有幾個難度級別(1-10),這決定了機器人的熟練程度,其中1級是一個相當初級的機器人,可以很容易地被擊敗,10級是一個非常復雜的機器人,使用玩家無法獲得的信息(即一個作弊的機器人)。最后,環境因素,如戰爭迷霧,在不同的實驗中被切換,以調查其影響。
圖6 使用MILSTD2525符號的星際爭霸II
獎勵功能是RL的一個重要組成部分,它通過對每種情況給予積極或消極的獎勵來控制智能體人對環境變化的反應。我們在SC2LE中加入了虎爪場景的獎勵功能,我們的實現超越了SC2LE內部的評分系統。原來的計分系統根據玩家的單位和結構的資源價值進行獎勵。我們的新計分系統只關注游戲的軍事方面,即獲得和占領新的領土,以及摧毀敵人。
我們的獎勵功能為藍軍越過瓦迪(河流)提供+10分,為撤退提供-10分。此外,我們還對摧毀紅軍部隊給予+10分,如果藍軍部隊被摧毀則給予-10分。
為了實現獎勵功能,首先需要使用SC2LE編輯器來定義地圖的各個區域和目標。區域是由用戶定義的區域,它被觸發器所利用(圖7)。
圖7 《星際爭霸II》中的區域和目標
觸發器是創建一套指令的模板,允許用戶將與特定事件相關的效果編入模擬中(圖8)。一般來說,一個觸發器由以下部分組成。
事件。啟動觸發器(例如,一個單位進入一個區域)。
變量。存儲信息。(例如,BlueForceScore,藍軍的得分)。
條件。對行動的限制,需要在行動發生時為真。(例如,單位是藍色部隊的成員)。
行動。事件的結果或成果(例如,單位獲得積分)。
圖8 《星際爭霸II》中虎爪場景的觸發實例
作為未來工作的一部分,我們計劃根據指揮官在虎爪警告令(WARNORD)中的意圖所定義的具體團隊目標來納入額外的獎勵。獎勵功能將試圖訓練智能體維持單位作為團隊,作為團隊一起參與預定目標,并創造對軍事主題專家來說合理的最佳行為。
OpSim是由科爾工程服務公司(CESI)開發的決策支持工具,提供計劃支持、任務執行監控、任務演練、嵌入式訓練以及任務執行監控和重新計劃。OpSim與SitaWare指揮、控制、通信、計算機和情報(C4I)集成,后者是由項目執行辦公室指揮控制通信-戰術(PEOC3T)投入使用的指揮所計算環境(CPCE)的重要組成部分,使各級指揮部門能夠共享態勢感知并協調作戰行動,從而使其成為直接與作戰任務指揮相連的嵌入式模擬。它從根本上被構造成一個基于可擴展的面向服務架構(SOA)的模擬,能夠比目前最先進的模擬環境如OneSAF和MAGTF戰術戰爭模擬器(MTWS)運行得更快。傳統的建設性模擬最多運行1-20次墻鐘時間,而OpSim可以運行30次虎爪的復制--如果實時連續運行,需要240小時。OpSim中模擬計劃的輸出包括根據彈藥支出、傷亡、設備損失、燃料使用等標準對藍軍計劃進行綜合排名。然而,OpSim工具并不是為人工智能應用而設計的,必須通過整合接口來運行基于DRL的算法。開發了一個OpenAI Gym接口,以暴露模擬狀態,并向外部智能體提供模擬控制,能夠為模擬中的選定實體提供改變的行動,以及在回應接口之前的模擬時間。
強化學習可以被形式化為一個馬爾科夫決策過程,由一組行動、一個過渡概率函數、一個獎勵信號和一個環境狀態組成。32 在RL中,目標是找到一個最佳行動,使預期的、累積的折現獎勵之和最大化。將深度神經網絡與RL結合起來,DRL將深度神經網絡架構與RL框架結合起來,以接近環境中各狀態的最佳行動。DRL的設計包括以下部分:狀態空間(環境狀態表示)、行動空間(行動集)、獎勵信號和一個深度神經網絡。
對于環境狀態的訪問,RL框架使用類似OpenAI Gym的接口與OpSim和StarCraft II模擬器,為RL提供環境的抽象(圖9)。OpenAI Gym是一個開源的軟件包,為RL的開發和測試提供了一個具有通用接口的環境集合。OpenAI Gym專注于RL環境的抽象化,從而保持智能體開發的靈活性。兩種模擬環境中使用的具體行動、狀態空間和獎勵信號將在后續章節中詳細討論。
圖9 使用OpenAI Gym與OpSim和StarCraft II模擬器的RL框架
DRL需要智能體與環境互動的許多情節來收集經驗,一個標準的方法是通過平行數據收集來擴展。在這個項目中,HPC被用來擴展DRL算法,以支持智能體群體從成千上萬的平行實例中學習,以解決C2的行動空間復雜性。ARL的FOB系統最初用于分布式訓練,然后被移植到國防部超級計算資源中心(DSRC)的最新SCOUT系統。FOB系統是一個由64個節點組成的實驗性異構集群,每個節點有一個英特爾8核至強CPU和64GB的內存。SCOUT是位于ARL DSRC的一個非保密的HPC-in-a-container系統,有22個訓練節點和128個推理節點。SCOUT的每個計算節點都配備了IBM Power9 40核處理器,推理節點有256GB內存,訓練節點有700GB內存。
同時,RLlib,一個由加州大學伯克利分校RISELab開發的可擴展RL框架的開源庫,被用于執行分布式學習。RLlib提供了一個與框架無關的機制,以便在OpSim和StarCraft II上有效地擴展DRL神經網絡架構的訓練。該框架部署在HPC系統上,以展示RLlib算法在系統的多個節點上的擴展性,并提供可定制的神經網絡模型和模擬環境的靈活性。
利用第2節所述的基礎設施,我們為《星際爭霸II》和OpSim環境開發了一個端到端的DRL框架,并進行了初步實驗。在這一節中,我們將描述網絡架構、實現和一些初步的實驗結果。
我們使用第2.2節中描述的戰術版《星際爭霸II》訓練了一個多輸入和多輸出的深度強化神經網絡。我們使用了異步優勢演員批判(A3C)算法,這是一種由多層卷積網組成的狀態輸入處理方法,長短期記憶(LSTM)遞歸層給網絡增加了記憶。
在《星際爭霸II》中,狀態空間由7個大小為64x64的迷你地圖特征層和13個大小為64x64的屏幕特征層地圖組成,總共有20個64x64的二維圖像(圖9的左側面板)。此外,它還包括13個非空間特征,包含玩家資源和建造隊列等信息。這些游戲特征是用輸入處理管道來處理的,如圖10所示。星際爭霸II》中的動作是函數形式的復合動作,需要參數和關于該動作要在屏幕上發生的位置的說明。例如,像 "攻擊 "這樣的動作被表示為一個函數,需要屏幕上的X-Y攻擊位置。行動空間由行動標識符(即運行哪個行動)和兩個空間行動(x和y)組成,這兩個空間行動被表示為兩個長度為64個實值項的向量,在0和1之間。 表2劃分了觀察空間、行動空間和《星際爭霸II》模擬的獎勵。
圖10提供了星際爭霸II任務中相互嵌入模型和A3C智能體的狀態輸入處理管道的概述。星際爭霸II提供了三個主要的狀態信息流:小地圖層、屏幕層和非空間特征(如資源、可用行動和建造隊列)。小地圖和屏幕特征由相同的兩層卷積神經網絡(CNN)處理(頂部兩行),以便分別提取地圖的全局和局部狀態的視覺特征表示。非空間特征通過一個具有非線性激活的全連接層進行處理。然后,這三個輸出被連接起來,形成智能體的完整狀態空間表示,以及基于狀態的相互嵌入模型的部分。
圖10 《星際爭霸II》的狀態輸入處理
表2 《星際爭霸II》模擬的觀察空間、行動空間和獎勵
A3C是優勢行動者-批評算法的分布式版本,其中創建了行動者的多個平行副本,以同時執行行動和收集經驗。讓多個行為體收集經驗可以提高探索效率,從而改善學習。我們使用的A3C智能體的結構類似于Mnih等人的Atari-net智能體,它是一個從Atari改編的A3C智能體,在SC2LE狀態和行動空間上運行。我們對這個智能體做了一點修改,增加了一個LSTM層,因為Mnih等人的研究表明,增加模型的內存可以提高性能。我們的A3C智能體的結構如圖11所示。
圖11 A3C智能體的結構。這里顯示的是一個完整的RL智能體及其與《星際爭霸II》的連接示意圖。作為典型的政策性智能體,這里的A3C智能體(綠色)從任務環境中獲取狀態和獎勵信息,并使用這些信息來計算下一個時間步驟的行動,以及計算梯度來增加獎勵最大化。
我們用20個并行的演員學習者來訓練A3C模型,使用了8000個模擬的《星際爭霸II》機器人的戰斗,操作由DeepMind開發的手工制作的規則。如果BLUEFOR穿過瓦迪或OPFOR排被摧毀,則提供+10的正強化,如果BLUEFOR被摧毀則提供-10的負強化。
我們在《星際爭霸II》的 "虎爪 "場景中對訓練好的A3C模型進行了100次的測試。這些模型與具有隨機行動的隨機基線以及人類玩家與《星際爭霸II》機器人進行的10場模擬戰斗進行了比較。圖12中提供了收集到的指標的匯總圖,包括總的情節獎勵和藍軍的傷亡人數。我們看到,與人類玩家相比,人工智能指揮官不僅取得了相當的表現,而且在任務中表現得稍好,同時還減少了藍軍的傷亡。
圖12 與人類和隨機智能體基線相比,訓練有素的人工智能指揮官(A3C智能體)的總獎勵和BLUEFOR傷亡情況。人工智能指揮官能夠實現與人類基線相當(略好)的獎勵,同時減少藍軍的傷亡。
為OpSim模擬環境開發了兩種類型的指揮官。第一種是基于專家設計的規則引擎,由喬治亞州本寧堡的軍事主題專家使用理論規則開發。第二種是DRL訓練的神經網絡,采用A2C算法訓練的多輸入多輸出的LSTM神經網絡。A2C與A3C類似,但沒有異步部分。OpSim的RL界面支持多智能體訓練,每個部隊可以是基于規則的,也可以是人工智能指揮官。
政策網絡首先在FOB的15個節點上進行訓練,75個平行工作者收集了482k次模擬戰斗,耗時36小時。此外,在SCOUT系統上應用和訓練了局部切面位置和無目標獎勵更新。有了更新的觀察和獎勵,39個平行工作者收集了175k次戰斗經驗,花了37小時。
觀察空間由17個特征向量組成,其中觀察空間是基于每個實體的設備傳感器的部分觀察。與S2CLE不同,OpSim目前不使用圖像輸入或屏幕圖像的空間特征。行動空間主要包括簡單的運動和交戰攻擊(表3)。
表3 OpSim模擬的觀察空間、行動空間和獎賞
訓練好的模型用100個推出的模擬結果進行評估,在檢查站使用凍結政策,BLUFOR的平均獎勵最高。在SCOUT上,4510號檢查站的BLUFOR政策平均獎勵達到了200,OPFOR政策平均獎勵達到了-322的滾動平均值。對100次滾動的分析表明,經過DRL訓練的BLUFOR智能體將損失從4左右降至0.5,而增加了OPFOR的損失(圖13)。這一結果是通過采用僅使用戰斗裝甲連和戰斗步兵連進行交戰的策略達到的。它學會了利用BLUFOR最致命的部隊與Abrams和Bradleys的策略,同時保護脆弱的資產不與OPFOR交戰(圖14)。
圖13 主題專家和人工智能指揮員之間的實體損失比較
圖14 一次推廣的開始和結束的快照
作為DSI的一部分,為C2的DRL開發了兩個新型測試平臺。基于StarCraft II和OpSim。使用這些最先進的測試平臺開發了端到端的DRL方法。該基礎設施被移植到國防部的HPC系統中,以擴大訓練的規模,進行平行數據收集。
初步實驗結果顯示,初步觀察到DRL在沒有預編碼知識的情況下實現了有效和合理的C2,基于DRL的 "人工指揮官 "可以在模擬的旅級戰斗中執行綜合規劃-執行過程。一些結果,特別是在《星際爭霸II》的環境中,表明人工智能采取的策略與有能力的人類玩家的策略相當。它還表明,計算資源并不是人工智能在C2中的障礙;我們看到使用HPC系統學習的速度足夠快,在37小時內就能收斂。總之,DSI的第一年提供了充分的證據,表明基于學習的人工智能有可能被用作未來軍事行動C2的關鍵技術。
現代戰術戰爭需要迅速而有效的決策和行動,以便在經常是高度動態和復雜的戰區保持競爭優勢。需要考慮的因素的數量因不確定性、事件的快速發展和人為錯誤的風險而放大。自動化、人工智能和博弈論方法的潛在應用可以為作戰人員提供認知支持。這項研究以自動兵棋推演輔助決策的形式探索了這些應用。該團隊為這個未來的系統開發了一個概念設計,并將其稱為兵棋推演實時人工智能輔助決策(WRAID)能力。
頂點項目的目標是探索自動化、人工智能和博弈論的應用,作為支持未來WRAID能力的方法。該團隊為WRAID能力開發了需求、概念設計和操作概念。該小組確定并探索了可能對未來實施WRAID能力構成障礙的挑戰性領域。該小組調查了與使用人工智能來支持戰爭決策有關的倫理挑戰和影響。
本報告首先對與WRAID能力相關的主題進行文獻回顧。文獻回顧從人工智能的回顧開始,提供了一個關于人工智能如何工作以及它能夠完成什么類型任務的概述。文獻綜述探討了人機協作的方法,以支持未來指揮官和人類用戶與WRAID系統之間的互動。需要翻譯指揮官的意圖,并讓WRAID將有意義的輸出傳達給指揮官,這需要一個強大的界面。審查包括傳統的兵棋推演,以研究目前的模擬兵棋推演是如何進行的,以便深入了解,未來的WRAID能力如何能夠實時復制兵棋推演的各個方面,并認為以前的兵棋推演可以為人工智能和機器學習(ML)算法的發展提供訓練數據。ML算法的訓練需要大量的代表性數據。文獻回顧研究了人類的認知負荷,以深入了解人類大腦的認知技能和上限;并確定人類思維的極限,以顯示人工智能可能提供的支持。文獻綜述中涉及的最后一個主題是,傳統的計劃和決策,以了解目前在軍事上如何制定戰術行動方案。
該小組進行了需求分析和利益相關者分析,探索WRAID能力如何支持作戰人員。該小組在需求分析的基礎上為WRAID系統開發了一套需求。這些要求被歸類為:硬件/軟件,人機界面,和道德規范。第一階段的分析結果包括 (1)戰爭的復雜性需要發展一種未來的WRAID能力,這種能力利用自動化方法,包括人工智能、ML和博弈論,(2)WRAID能力需要大量的計算能力和復雜的軟件算法,(3)實現未來WRAID系統的挑戰將是技術和道德的。
未來WRAID系統的概念設計是基于需求分析的。概念設計被記錄在一套系統模型中,包括背景圖、系統視圖、功能工作流程圖和操作視圖。該團隊開發了一個作戰場景,以支持對WRAID能力如何在作戰中使用。
在開發WRAID的過程中,預計會有一些路障。開發WRAID系統的技術是存在的,然而,研究小組發現數據挑戰、人工智能訓練、程序限制和當前系統工程的局限性將是需要解決的障礙。數據挑戰指的是獲得足夠的數據集的能力,這些數據集代表了訓練ML算法所需的真實世界的戰術行動和兵棋推演分析。程序性挑戰包括國防部實施網絡安全、機密數據、數據庫訪問和信息分配協議的能力。系統工程方面的障礙是需要新的方法來設計安全和可靠的人工智能系統,如WRAID能力。將需要SE方法來處理不可預見的故障模式,并在系統生命周期的早期確定根本原因。
對像WRAID能力這樣的人工智能系統的倫理考慮是系統發展的一個重要因素。開發系統以取代倫理學,將使系統更有可能被部署。有幾個有道德問題的自主武器系統被拉出來作為WRAID能力的道德對話的基礎。通過一個示例場景,對道德狀況進行定性分析,以了解在部署WRAID能力時可能出現的道德問題。倫理學在未來的技術中發揮著巨大的作用;從一開始就考慮到倫理學,建立技術是很重要的。
未來的重點需要放在繼續對想象中的WRAID系統采取正規的系統工程方法。WRAID系統需要一個強大的數據集,需要收集和注釋;收集的定性兵棋推演數據越多,WRAID系統的可行性和準確性就越高。與軍事部門的合作對于最大化WRAID的利益至關重要,例如情報和偵察組織。WRAID的模擬將是完善系統要求和創建現實模型的關鍵。關于如何使用WRAID的培訓和文檔應該同時開發,所以利益相關者,特別是指揮官已經準備好,知道如何使用這個新工具。未來的研究領域包括認知工程、基于正式模型的系統工程和人機協作。
隨著目前技術進步的速度和外國的目標,人工智能將在未來的沖突和戰爭中發揮作用。自上而下的指令將需要設計和實施WRAID能力:提供大量的資源,解決操作和文化變化,重組系統工程,并確保網絡安全和收購變化。實現未來的WRAID能力并不是一個微不足道的任務。然而,它對確保現在和未來的戰斗空間優勢至關重要。
私營部門不斷收集和整理關鍵數據及其來源,以通過利用數據密集型的人工智能機器學習(AI/ML)技術來確保支持和發展新的業務。大部分行業數據都是有價值的共享資源,而海軍到目前為止還沒有實現這種做法。本頂點研究通過研究、訪談和個人專業知識,探討了海軍在創造數據可用性和質量方面的挑戰性任務。研究側重于過程、技術和管理,采用了詳細需求評估、利益相關者分析、功能設計。其研究結果是一個集中式人工智能庫(CAIL)的概念框架,旨在匹配行業對數據作為關鍵商品的堅定關注。美國海軍需要持久和動態的數字化準備,因此這個擁有70多年美國海軍數據專業知識的頂點團隊建議 OVERMATCH 考慮這些發現并生成一個確保海軍數據可用性和質量的系統。
美國海軍部(DON)對研究和開發人工智能和機器學習(AI/ML)系統的興趣源于這些創新能力對海軍任務和對作戰人員的直接支持所帶來的深遠和改變游戲規則的影響。人工智能/機器學習系統可以被用來改善任務規劃,減少人員配置,改善戰術決策,簡化系統維護和支持,提高安全性,在某些情況下,還可以將作戰人員從危險中移除。戰士日常活動的許多方面將發生變化,從常規和勞動密集型工作的自動化到支持復雜和時間緊迫的戰斗空間決策。
只有當美國國防部首先釋放數據的力量,才能實現AI/ML系統的這些進步。目前,在獲取或"釋放"DON的數據以開發未來的AI/ML系統方面存在許多障礙。整個海軍的數據主要停留在"筒倉"或難以訪問的數據庫中,每個"筒倉"都在其領域內受到保護。在DON的數據領域內,定位、請求、獲取和策劃數據的過程并不正式。米勒(2021)說:"數據的所有者是美國人民。海軍只是管理人和監護人"。這句話包含了將數據從孤島中 "解放"出來的需要,以使海軍真正成為一個以數據為中心的企業,并實現海軍的數字化準備。
這個頂點項目開始了一項研究,以了解美國防部內AI/ML開發人員的數據需求,并制定一個概念性的解決方案來解決數據需求。其他目標是:
研究AI/ML方法如何在DON任務中應用。
了解數據需求是否在DON任務中普遍是標準的,或者數據需求是否在DON任務中有所不同。
制定一套 DON AI/ML利益相關者的要求。
為一個支持DON AI/ML數據需求的系統制定一個概念性設計。
研究實施概念性解決方案系統的潛在成本和進度效益。
時區團隊(Team Time Zone)應用系統工程分析方法研究DON AI/ML開發人員的數據需求,并開發和評估一個概念性的系統解決方案,以解決這一數據挑戰,并最終支持DON未來的數字準備,以解決復雜的任務。該團隊通過采訪三個不同的海軍任務領域的主題專家(SME)來進行利益相關者的需求分析:系統維護、物理安全和戰備。這三個任務被認為是 "數據提供者"的代表。此外,該團隊還采訪了數據研究人員和AI/ML科學家,以了解他們的數據需求。訪談為團隊提供了基于獨特和不同領域和經驗的關注、挫折、經驗教訓和挑戰的洞察力。從數據提供者的角度來看,反復出現的主題包括所有權的劃分、信息保障的需要、數據未被收集或存儲的情況以及對可訪問性的擔憂。從數據用戶的角度來看,明顯的軼事包括尋找數據的耗時,承諾的數據并不總是能夠實現,以及即使在獲得數據后,理解數據的背景也是至關重要的。該小組根據利益相關者的訪談和信息收集工作,為DON AI/ML制定了一套數據要求。DON AI/ML的數據需求是:
數據必須能夠被外部組織訪問。
數據必須被翻譯成與其領域應用兼容的標準格式。
數據必須有確定的所有者。
數據必須伴隨著描述性的元數據。
數據必須有標準化的管理。
數據必須以其 "最低標準"的形式被訪問。
數據必須具有保護和適當共享的安全性。
數據必須具有混淆性,以保護個人身份信息(PII)。
數據必須伴有背景信息。
為了解決DON數據研究人員和AI/ML科學家確定的數據需求,Team Time Zone開發了一個中央AI庫(CAIL)系統的概念設計,作為解決方案。CAIL系統的目的是簡化 DON內部的數據訪問和管理,以支持AI/ML系統的開發。CAIL系統旨在減少訪問數據的時間(和相關費用),騰出更多時間用于AI/ML系統的實際開發、培訓和評估。該團隊提出,為了滿足未來計劃的訪問和整合要求,CAIL需要成為一個 "數據云"。圖1是CAIL的OV-1;它描述了為AI/ML開發簡化DON數據訪問和管理的擬議過程。
圖1. CAIL OV-1
該團隊根據六個主要類別制定了CAIL系統要求:數據準備、數據偏差、數據整理、數據分類、數據治理和數據安全。每一個類別都是針對利益相關者分析過程中發現的需求。CAIL系統將主要與外部聯合數據、數據庫、文件和權威數據生產商/供應商的內容對接。它將像 "谷歌 "一樣為DON用戶尋找數據。數據將是結構化的,并將伴隨著元數據(關于數據的描述性信息),使數據可以被搜索。一個管理數據的社區將提供規則來管理對數據的安全訪問和授權。
在利益相關者的分析中,很明顯,在訪問數據之前需要進行一些重要的活動。AI/ML開發人員解釋了了解數據收集方式、數據來源以及其他有關數據的特定領域的背景方面的重要性。Team Time Zone將這些過程指定為 "預CAIL活動",并將其作為整個CAIL過程的一部分。
Team Time Zone進行了成本分析,以估計為DON實施CAIL系統的成本。該團隊使用了兩種方法來估計成本:傳統的成本估計和基于模型的系統工程(MBSE)方法。該小組估計CAIL系統的成本(基于傳統的成本估算)為3380萬美元,持續時間為5年,每年的重復維持成本為400萬美元。團隊估算的CAIL系統成本(基于MBSE方法),在運行了一萬次蒙特卡洛模擬后,平均為3290萬美元,持續時間為5年。運營和維護模型的平均成本為每年440萬美元。表1顯示了CAIL開發和維護成本的摘要。
表1. CAIL系統成本匯總
為了使DON的AI/ML項目蓬勃發展,并在未來幾十年內實現AI/ML的進步,DON必須確保數據的管理,并使AI/ML的發展能夠被訪問。Team Time Zone提出的CAIL系統解決方案將為AI/ML項目提供一個單一來源的綜合數據環境,以訪問存儲在整個DON各種數據庫中的數據庫目錄。Team Time Zone建議海軍實施CAIL系統,通過確保AI/ML開發者訪問持久和動態的數字數據來支持數字準備。CAIL系統支持DON項目和開發人員的協調方法,以安全訪問數據。該小組建議超配項目(Project Overmatch)考慮這些發現并實施CAIL系統和流程,以確保海軍的數據可用性和質量。該小組開發了一個CAIL標志(見圖2),表明CAIL系統是海軍的一個重要基礎。
圖2:CAIL標志。改編自美國海軍標志。
技術的進步給軍事領域帶來了新的威脅類型和現有威脅的改進版本。對抗性威脅的進步要求海軍改進現有的能力并開發新的能力,以提高防御能力并應對這些威脅。能力的增強需要提高速度、隱身性、機動性、反措施、擴大范圍、更早發現和更大的殺傷力。這些增強的能力使我們能夠在不確定的、復雜的和時間緊迫的條件下做出關鍵決定。現代戰術作戰人員面臨著越來越復雜的決策空間。他們需要獲得對動態戰斗空間的態勢感知,并確定有效的行動方案(COA)以滿足任務需求。圖1強調了造成這種戰術復雜決策空間的因素。決策的復雜性來自于威脅環境,來自于知識的不確定性,來自于戰爭和信息系統本身,來自于作戰人員與自動化系統和信息系統的互動和使用所產生的挑戰,以及任務決策的重要性或后果的嚴重性。
圖1:戰士的復雜決策空間。資料來源:Johnson (2021).
美國國防部(DOD)和海軍部(DON)正在研究使用人工智能(AI)來解決復雜的戰術決策空間,通過改善態勢感知和提供自動決策輔助來支持戰術作戰人員。利用人工智能方法的先進算法可以通過減少信息過載、改善態勢感知、提高決策速度和加強一般的戰術決策來減輕作戰人員的認知負荷。預測分析(PA)可以支持對系統可靠性和故障概率的預測,這為物流提供了廣泛的改進(Zhao和Mata 2020)。諸如PA等技術可以通過開發 "what-if "和 "if-then "情景來加強戰術決策,通過預測決策選擇的長期影響來改善戰士的COA決策(Johnson 2020)。人工智能方法可以通過檢測異常情況和從大量的安全攝像機數據中識別可能的威脅來改善海軍基地的物理安全。
米切爾(2019)將人工智能定義為一個包括許多不同方法的領域,以創造具有智能的機器。圖2顯示,人工智能存在于一套廣泛的自動化方法中,使機器能夠根據命令和規則執行任務。人工智能是使系統能夠執行模仿人類智能的功能的一套方法。機器學習(ML)方法是人工智能方法的一個子集。ML方法允許系統從被訓練的大型數據集上學習。ML系統從訓練的數據集中學習。然后,這些 "訓練有素 "的ML系統在操作上被用來識別模式,并在新的操作數據下產生預測的結果(Johnson 2021)。
圖2:什么是人工智能?資料來源:Johnson (2021)。
人工智能算法是編碼的計算機程序,用于對數據進行分類、分析和得出預測。監控、交通預測和虛擬個人助理是實施ML算法的應用實例。
開發人工智能系統,特別是ML系統,是一項具有挑戰性的工作。ML算法的初始訓練是一個數據密集型的演變。人工智能/ML系統對數據要求很高,其準確性在很大程度上取決于數據訓練集的質量和數量(Godbole 2020)。作為一個參考點,訓練DeepMind的AlphaGo Zero系統學習下圍棋花了大約40天,包括2900萬場比賽(Feldman, Dant, and Massey 2019)。想象一下人工智能/ML武器系統算法所涉及的額外復雜性,它需要考慮戰爭背景(戰爭游戲、冷戰、和平時期)、朋友或敵人、道德和合法性等概念(Feldman, Dant, and Massey 2019)。
隨著美國防部開始開發人工智能和ML方法,出現了獨特的數據挑戰。開發人員需要大量的驗證數據來訓練他們的算法;這些數據需要準確、安全和完整,以確保算法不會被破壞或有偏見。這些數據集必須代表適當的操作環境。對于海軍的應用,訓練數據必須代表眾多的任務,包括海上、空中、太空、水下、沿岸、網絡和陸基領域的任務。盡管許多海軍司令部和實驗室正在研究和開發基于人工智能/ML系統的未來能力,但沒有協調的程序來獲取他們所需的海軍數據。在許多情況下,數據是存在的,但要確定國防部的數據來源并獲得數據是一項耗時和昂貴的工作。
這個頂點項目采用了系統工程分析方法來研究DON AI/ML開發者的數據需求,并確定和評估一個概念性的系統解決方案來解決這個數據挑戰,并最終支持未來DON的數字準備來解決復雜的任務。
DON對研究和開發AI/ML系統的興趣為各種應用帶來了數據挑戰。盡管DON的許多指揮部和實驗室正在研究和開發基于AI/ML系統的未來能力,但沒有一個協調的程序來訪問他們所需的DON數據。AI/ML系統需要大量的驗證數據來支持他們的發展和訓練算法。在許多情況下,數據是存在的,但要確定美國防部的數據來源并獲得數據是一項耗時和昂貴的工作。這個頂點研究了這個問題,并進行了需求分析,以確定DON AI/ML開發人員的數據需求,并開發和評估了解決DON數字準備這方面的解決方案概念。
這個頂點項目的主要目標是分析 DON AI/ML 開發的數據需求,并開發一個概念性的解決方案來解決數據需求。其他目標是
研究AI/ML方法如何在DON任務中應用。
了解數據需求在DON任務中是否有普遍的標準,或者數據需求在DON任務中是否有差異。
制定一套 DON AI/ML利益相關者的要求。
為一個支持DON AI/ML數據需求的系統制定一個概念性設計。
研究實施概念解決方案系統的潛在成本和進度效益。
時區團隊由五個具有不同學術和專業經驗的NPS系統工程學生組成。該團隊由以下人員組成。
Robert French于2016年畢業于Old Dominion大學,獲得了計算機工程和電子工程的學士學位。他目前是位于弗吉尼亞州弗吉尼亞海灘的海軍水面作戰中心Dahlgren分部-Dam Neck附件的特殊傳感器技術部門的R.F.工程師。羅伯特也是美國艦隊司令部海上作戰中心N6(信息系統)的高級入伍領導(USNR)。他曾在現役中擔任電子技術員超過14年,并成為現役預備役軍人達9年之久。
Wallace Fukumae前擁有夏威夷大學的電子工程學位。他目前居住在夏威夷,為海軍太平洋信息戰中心工作,擔任印度-太平洋部門主管。他的經驗包括指揮和控制(C2)系統的開發和交付以及操作。
Kheng Hun目前居住在日本,擁有華盛頓大學的電子工程學位。他目前在海軍信息戰中心(NIWC)太平洋分部工作,擔任位于日本橫須賀的夏威夷西太平洋(HWP)分部的項目工程師。他的專業背景包括設計和安裝各種C4I系統,如電子安全系統(ESS)和網絡系統以及MILCON項目的C4I系統規劃。
Obed Matuga擁有馬里蘭州巴爾的摩市摩根州立大學的工業工程學位,在華盛頓特區的海軍海洋系統司令部工作。與宙斯盾和艦船自衛系統一起工作,目前居住在馬里蘭州。
Caitlyn O’Shaughnessy于2015年畢業于馬薩諸塞大學達特茅斯分校,獲得計算機科學學士學位。她目前是羅德島紐波特的海軍海底作戰中心的CANES(S.S.)項目的首席工程師。
圖3描述了時區團隊(Team Time Zone)的組織結構和每個團隊成員的主要職責。圖中還顯示了NPS的項目顧問,Bonnie Johnson博士(系統工程系)和美國海軍上尉Scot Miller(退役)(信息科學系)。
圖3:團隊時區組織圖
時區團隊采用了系統工程的方法來進行這個項目。圖4說明了該團隊的過程。團隊從需求分析開始,以了解問題并為DON AI/ML開發者定義數據要求。在這個階段,團隊確定了三個DON任務領域作為AI/ML應用的代表性領域。接下來,團隊在功能分析和系統綜合的基礎上,制定了一個名為中央人工智能庫(CAIL)系統的解決方案戰略的概念設計。該小組對CAIL系統進行了建模,并利用DON的三個任務領域來分析實施CAIL系統的效用和潛在的成本/進度效益。該團隊的分析過程涉及幾種分析方法,包括定性調查、定量調查、建模和模擬、數據結構和格式分析、需求分析和操作概念評估。
圖4:頂點項目的方法
首先,該團隊通過進行需求分析和為海軍AI/ML開發人員制定一套數據要求來確定需求的定義。該團隊確定了利益相關者,并與來自不同海軍任務領域的AI/ML開發者會面,以了解他們的數據需求。該小組進行了文獻回顧,以收集背景信息并了解當前的人工智能/ML方法。團隊對來自利益相關者會議和文獻審查的信息進行了匯編,以了解與支持海軍AI/ML應用有關的要求和限制、數據所有者、數據源、數據系統、數據元素和數據屬性。
該小組研究并確定了利益相關者和三個海軍任務主線的獨特數據要求:系統維護、實體安全和戰斗群準備。該小組確定并采訪了任務領域的主題專家(SMEs),以了解獲得AI/ML實施數據的過程,并關注需要從DON系統和組織中收集和存儲哪些數據。圖5說明了海軍的三個任務主線,以及數據、架構、基礎設施和互操作性能力在支持這些作戰人員任務領域方面的直接潛在重要性。
圖5:美國防部任務領域
接下來,團隊根據需求分析結果,制定了一個概念設計方案,以解決海軍對人工智能/ML發展的數據需求。該團隊綜合了CAIL系統,并生成了CAIL操作概念(CONOPS)和CAIL功能模型。基于國防部建筑框架(DODAF)和系統建模語言(SysML),該團隊開發了概念模型,詳細說明了CAIL的系統特征、功能和操作概念。
頂點項目的最后階段是團隊對CAIL解決方案方法的評估和分析。該團隊使用Innoslate(一種基于模型的系統工程工具)開發了一個模型,以表示CAIL系統在三個海軍任務主線中的使用情況。該小組評估了CAIL系統的能力,以簡化和改善收集、格式化、策劃、驗證和確保安全訪問海軍任務數據集的過程,以支持在三個海上任務線領域工作的AI/ML開發人員。對該模型進行了評估,以估計海軍實施CAIL系統的潛在成本和調度效益。CAIL系統模型被用來驗證和確認需求。
第一章提供了項目的介紹和動機,描述了問題陳述、項目目標,以及團隊的組織和完成項目的方法。
第二章總結了團隊的文獻回顧,為需求分析提供了基礎,強調了訓練AI和ML算法所需的數據。文獻回顧包括對數據科學、統計學習、深度學習、分類學以及支持AI和ML系統的企業信息技術解決方案的信息探索。
第三章包含了團隊的需求分析結果。
第四章包含了對團隊的概念性解決方案--CAIL系統的描述。
第五章介紹了團隊對CAIL系統的分析和評估結果,該系統是解決海軍在支持AI/ML發展方面的數據挑戰的解決方案。
最后,第六章討論了擁有CAIL系統的影響和結論以及對后續研究和工作的建議。
信任是團隊有效性的基礎,它影響著各種團隊過程,包括信息共享、決策和團隊的整體成功。在那些在惡劣的、不確定的、高壓力的環境中工作的高績效團隊中,如軍事、急救、醫療、搜救和救災,在關鍵時刻不適當的信任水平(無論是過高還是過低)會導致隊友之間的次優互動,從而導致不安全的行為(De Jong和Elfring 2010;Costa等人2018)。例如,太過信任,或 "過度信任",會使操作人員陷入自滿狀態,導致代價高昂的錯誤,并有可能失去人命和昂貴的設備;相反,信任太少,或 "信任不足",會使團隊成員感到需要不斷監督對方,造成不平衡和不適當的工作負荷(de Visser等人,2020)。信任是通過作為一個聯系緊密的團體訓練,以及隨著時間推移的共同經驗而建立的(Fulmer和Gelfand 2012;Costa和Anderson 2017)。
隨著自主技術的不斷發展,未來的團隊結構很可能包括自主成員,他們的功能不僅是提供支持的工具,而且是成熟的隊友(Phillips等人,2011)。雖然人類表現文獻中有豐富的方法來評估個體(或對)的信任,但在理解如何衡量大型團隊的信任方面還存在差距(Feitosa等人,2020),以及哪些措施可能最適合由多個人類和多個自主系統組成的團隊的復雜性。使信任度量更加復雜的是,團隊信任是一種動態狀態,在團隊的生命周期中不斷波動,并進一步受到社會、任務和環境背景的影響(Schaefer等人,2018a;Schaefer等人,2019a)。然而,信任在這些更大的、異質的團隊中發展和傳播的過程仍然不清楚。因此,為了使這些技術能夠充分支持團隊運作,關鍵是要了解在人類自主團隊的背景下,信任是如何發展、維持和衡量的。因為信任是復雜的,所以需要一種多模式的測量方法。因此,在本報告中,我們描述了一個概念性的工具包,它的開發是為了更準確、更有力地理解人類自主性團隊中的信任。
鑒于我們的未來社會將看到由多個人類和多個自主系統組成的異質團隊的興起,量化團隊不同成員之間的信任關系,以及了解信任對全球團隊動態的一系列影響非常重要。從這個方法來看,人與人之間的信任與人機合作關系,甚至機器與機器合作關系內部的信任是不一樣的。這些不同類型的互動有不同的優先因素和特點,以及這些互動如何影響整個團隊的信任傳播。考慮到所有這些因素,關鍵是要首先了解現有信任措施的能力和局限性,以便對其進行調整以滿足這些需求,或者在必要時,開發新的措施來支持團隊信任評估。為此,本報告探討了信任評估技術的現狀,包括那些新穎的、超出主觀評估范圍的技術。
第2節我們首先定義了人類自主性團隊,并概述了人類自主性團隊特有的團隊信任。
第3節確定并描述了不同類型的信任,這些信任在其發展過程中是不同的,特別是它們如何影響人類自主性團隊合作。
第4節分解了文獻中已被充分記錄的不同的信任度量方法,其中包括團隊信任的主觀、溝通、行為和生理指標,以及這些如何為在動態環境中運作的人類自主性團隊的有效信任校準提供多模式度量方法。在下文中,我們利用一個說明性的案例研究,詳細介紹了度量團隊信任的多步驟方法,并對模式和后續指標的選擇提出了建議,還指出了團隊信任度量中涉及的一些限制和注意事項。