亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本文認為,人工智能(AI)的能力不能有效或可靠地補充(更不用說取代)人類在理解和領悟戰略環境以做出預測和判斷,為戰略決策提供信息方面的作用。此外,人工智能技術在各級戰爭中的迅速擴散和日益依賴將產生戰略后果,反過來增加人類參與這些任務的重要性。因此,將人工智能技術的使用限制在戰術層面的自動化決策任務上,對于遏制或控制這種綜合在戰爭戰略層面的影響沒有什么作用。文章重新審視了約翰-博伊德的觀察-定位-決策-行動的決策循環(或 "OODA循環"),以推進對人工智能能力(特別是機器學習方法)的認識論批判,以增強指揮和控制決策過程。特別是,文章從博伊德"定位"作為一種模式中得到啟示,闡明了人類認知(感知、情感和啟發式方法)在以復雜性、新穎性和不確定性為特征的非線性世界中的防御規劃中的作用。它還涉及克勞塞維茨的 "軍事天才 "概念--及其在 "任務指揮 "中的作用--人類認知、系統和進化理論,以考慮OODA環自動化的戰略意義。

本文認為,人工智能(AI)啟用的能力不能有效、可靠或安全地補充--更不用說取代--人類理解和領會戰略環境,以做出預測和判斷,為指揮和控制(C2)決策--分配給指揮官的權力和方向提供信息(Margaret 2014,2014;Bostrom 2014;Cantwell Smith 2019)。此外,人工智能技術(尤其是機器學習(ML))的迅速普及和對其日益依賴(Terrence 2018;Domingos 2012,85-86;Russell和Norvig 2014),以增強人類在各級戰爭中的決策,預示著戰略后果,反過來增加人類在整個指揮鏈中參與這些任務的重要性。由于一些認知、地緣政治和組織因素的匯合,機器分析和綜合(即預測)數據,為人類提供決策(即判斷)的界限將變得越來越模糊,人類-機器決策的連續性。當機器和人類之間的交接變得不協調時,這種滑坡的說法將使強加邊界或遏制人工智能支持的戰術決策的戰略影響的努力本身就有問題,并且更有可能產生意想不到的戰略后果。

文章重新審視了約翰-博伊德的觀察-定位-決策-行動的隱喻決策循環(或 "OODA循環"),以推進對使用人工智能-ML能力來增強指揮和控制決策過程的客觀認識論批評(Boulanin 2020)。為此,文章從博伊德強調的 "方向"(或 "大O")中得到啟示,闡明了人類認知(感知、情感和啟發式方法)在國防規劃中的作用,以及在一個以復雜性、新穎性和不確定性為特征的非線性世界中理解更廣泛戰略環境的重要性。它還涉及克勞塞維茨的 "軍事天才 "概念(特別是其在 "任務指揮 "中的作用),(Howard和Paret;Grauer 2016;Beyerchen 1992-1993;Biddle 2004;King 2019),人類認知(Kahneman;Ariely,Kahneman et al. 1982;Baron 2008;Robert 2006),以及系統和進化理論(Jantsch 1980;Prigogine and Stengers 1984;Perrow 1999;Jervis 1997;Thomas 1999),來考慮OODA循環自動化的戰略意義。這篇文章與最近越來越多的文獻相呼應,這些文獻考慮了在軍事決策結構和過程中采用人工智能技術--以及自主武器、大數據、網絡空間和其他與 "第四次工業革命"(Barno和Bensahel)相關的新興技術的戰略影響(Raska 2021;Talmadge 2019;Goldfarb and Lindsay 2022)。

這篇文章有助于理解人工智能在軍事C2的人類決策中日益增長的作用的含義。雖然 "狹義 "人工智能系統的傳播和采用在非軍事領域取得了一些成功,以進行預測和支持--主要是基于線性的--決策(如商業部門、醫療保健和教育),但人工智能在軍事背景下的問題要多得多(Agrawal等人,2018;Furman和Seamans,2018)。具體來說,在非線性、復雜和不確定的環境中,軍事決策需要的不僅僅是大量的、廉價的數據集和歸納的機器邏輯。在指揮和控制決策中,指揮官的意圖、法律和交戰規則以及倫理和道德領導對于軍事力量應用的有效和安全決策至關重要。由于機器不能執行這些人類固有的特征,因此在未來人工智能支持的戰爭中,人類代理人的作用將變得更加關鍵(Payne 2021;Johnson 2021)。此外,隨著地緣戰略和技術決定性力量刺激軍隊擁抱人工智能系統,以尋求先發優勢并減少其在數字時代的感知脆弱性,指揮官的直覺、自由度和靈活性將被要求減輕和管理與實施軍事創新相關的意外后果、組織摩擦、戰略驚喜和預期破滅(Michael 2010;Stephen 2010)。

本文分為三個部分。第一部分解讀了博伊德的OODA循環概念及其對軍事理論的廣泛貢獻,特別是認知在指揮決策中的關鍵作用,以便在復雜的適應性組織系統動態非線性環境的大框架下理解和生存于先驗的戰略環境。第二節將博伊德環與非線性、混沌、復雜性和系統理論結合起來,并結合AIML技術的最新發展,考慮在人機指揮和控制決策連續體中整合人工智能工具的潛在影響。本節還考慮了在信息不完善的不可預測和不確定環境中部署人工智能-ML系統的潛在戰略影響。人工智能將緩解還是加劇戰爭的 "迷霧 "和 "摩擦"

第二部分探討了高強度和動態環境下的人機協作。與人類指揮官相比,人工智能將如何應對新的戰略形勢?它認為,在復雜和快速移動的戰斗環境中,使用人工智能-機器系統來執行即使是常規的操作也是有問題的,表現出主動性、靈活性、同理心和創造性的戰術領導人仍然是至關重要的。本節還將人工智能技術的技術特點與更廣泛的外部戰略環境結合起來。人工智能工具是否會補充、取代或取消人類 "天才"在任務指揮中的作用?最后一節考慮了AIML系統對戰術單位領導人和高級指揮官之間關系的影響。具體來說,它探討了提高態勢感知和情報、監視和偵察(ISR)的人工智能工具對21世紀 "戰略下士"概念的潛在影響,并將 "戰術將軍 "的幽靈并列起來

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

(圖:作家兼戰略家彼得辛格(左)于 2018 年 11 月 1 日在一個未命名的空軍設施與一名軍官和一名國防部文職人員討論新技術。人工智能和腦機接口等進步將改變陸軍作戰的方式。)

長期以來,決策一直是戰爭的核心。最近,戰爭的節奏、規模、不透明性、非線性和連通性的增加對當代決策過程提出了越來越多的挑戰。在未來,這種變化將同時增加及時和有效決策的重要性,同時進一步加劇許多指揮官的認知和決策挑戰。指揮官將尋找結構不良、高度復雜的問題的解決方案,這些問題延伸到空中、陸地、海上、信息、網絡和空間這六個領域。隨著新技術和新應用的實現,未來的事態對復雜性構成了潛在的增長,并將以指數級的速度增加。人類的學習,甚至是最老練的指揮官的直覺能力都無法跟上不斷變化的戰爭特征。要想把贏得戰斗的洞察力帶到未來,必須對人類的認知、決策過程進行改進,或對其進行增強。

決策能力和現有支持的割裂造成了分析性決策過程、指揮官的直覺和有效決策之間日益擴大的能力差距。當前和未來的環境表明,有必要開發更加靈活的決策支持工具,以阻止這種差距,并為指揮官重新獲得決策優勢。在一個不透明和復雜的環境中有效地預測未來幾場戰斗的能力將是成功的關鍵。同時,在一個能夠迅速使以前的計劃失效的動態環境中,理解并首先做出反應的能力對于奪取和保持主動權至關重要。

復雜性科學和混沌研究已經與類似的問題進行了斗爭,并為軍事指揮官的突發挑戰提供了相關的見解。計算機建模和人工智能(AI)方面的工作已經取得了巨大的進展。在許多游戲中,計算機已經超越了人類的決策能力。

從人工智能的主導地位中適應和發展,國際象棋中的人機團隊已經達到了決策的新巔峰,將提前數個回合評估未來動作的算法的卓越戰術與人類的戰略能力相結合。目前美國與人工智能和決策有關的國防努力似乎集中在大數據和數據分析上。然而,如果沒有一個改進的軍事決策框架,就不能利用預測性分析。否則,增加的數據和分析只會加劇理解日益復雜和動態的作戰環境的挑戰。

軍事決策過程(MDMP)雖然在分析上是合理的,但其結構并沒有跟上未來環境的步伐。沖突的速度將超過工作人員處理分析貢獻的能力。

用人工智能對MDMP進行修改和增強,將創造一個過程,以更快的速度產生對環境的理解,并以物理信息的框架為基礎。行動方案的制定將不會像現在這樣,從一個理想的最終狀態向后發展,在理論上運用方法和手段來創造一個想象的未來。由人工智能支持的MDMP將從當前狀態向前工作。它將通過友軍和敵軍決策樹的可能分支向前探索,走向各種環境和敵軍的行動路線,通過最小化風格的決策樹,將其作為適應性代理來實現。替代行動的未來將通過可行性的出現來建立,并通過優化作戰功能的貢獻來完成,固有的區別,然后由人機團隊的人類部分來判斷是否合適和可接受。重新設想的人-機MDMP將與未來的操作環境保持同步,通過以接近機器的速度操作來保持相關性,使人能夠在日益濃厚的戰爭迷霧中獲得卓越的視野。

指揮官雖然得到參謀部的支持,但最終還是利用自己的能力進行決策。當指揮官在進行問題解決以制定對其工作人員或下屬的指導時,他們基本上是在進行 "手段-目的分析,這是一個尋找手段或步驟的過程,以減少當前情況與預期目標之間的差異"。即使是直覺,即對一個事件或數據的突然有洞察力的解釋,也以類似的方法發揮作用。"盡管表面上突然閃現的洞察力似乎產生了問題的解決方案,但研究表明,人們在解決洞察力問題時使用的思維過程最好被描述為一種漸進的、手段-目的的分析。" 領導者認識到相似性,并將其與個人和所研究的歷史聯系起來,從而獲得洞察力。心理學家、經濟學家和諾貝爾獎獲得者丹尼爾-卡尼曼(Daniel Kahneman)用這樣的描述來解釋內部的、經常是半意識的過程:"產生印象、直覺和許多決定的心理工作在我們的頭腦中默默地進行"。數學物理學家、科學哲學家和諾貝爾獎獲得者羅杰-彭羅斯描述了一種無意識的思想發展和對這些思想的有意識判斷。

MDMP有一個類似的、不亞于人類的動態。參謀部通過行動方案(COA)的制定產生備選方案,并由指揮官決定。然而,在行動方案的制定過程中,正如在手段-目的推理中一樣,用于簡化計算的啟發式方法以及一些神經心理學上的缺陷,限制了選擇并注入主觀性。歸根結底,目前MDMP內部的COA開發過程仍然需要大量的頭腦風暴來解決。

與主觀開發選項形成對比的是基于衡量和計算的選項開發,而這一過程將由人工智能支持的程序執行。通過一些基于現有信息和過去沖突的數據的計算,可以對比出AI賦能的MDMP會提供的建議。

對2008年俄格戰爭期間的決策和計劃進行評估,在與歷史上的決策、行動和結果進行對比時,可以深入了解人工智能驅動的MDMP的好處。以下是人工智能驅動的MDMP背后的邏輯和過程

俗話說,如果情報是用來推動機動的,那么對戰場的情報準備的產出必須作為COA發展的起點,使友軍COA的創建能夠實現對對手的不對稱,并執行對對手行動最有利的行動。

從對敵方力量的評估中,可以根據具體的任務變量來確定所需的友軍力量。要做到這一點,需要一種衡量對手戰斗力的方法。有許多復雜程度不同的方法來確定一個代表戰斗力的數值。

人工智能程序可以使最繁瑣的系統變得可行,所以它不像參謀部那樣受到復雜性的限制,特別是在時間有限的時候。雖然這個例子使用了戰區分析模型(TAM),但TAM并不是重點。指揮官、參謀部或學說推薦的任何東西都可以使用。

在2008年俄格戰爭爆發前,俄羅斯部隊在北奧塞梯駐扎。這些部隊可以按地點轉化為戰斗力值。例如,在馬米森山口附近的俄羅斯部隊可以按其組成部件進行統計,如人員、T-72主戰坦克、2S3自行火炮和BM-21多管火箭炮系統。

圖 1. 俄羅斯軍隊戰斗力計算

圖1中顯示的戰斗力范圍可以告知所需的戰斗力,這些戰斗力來自于格魯吉亞部隊的位置,用藍色矩形標注,以便在各種可能的情況下擊敗這支俄羅斯部隊。圖1中描述的兩種情況是俄羅斯使用西面的馬米森山口或東面的羅基隧道(帶箭頭的紅線)。

與戰斗力計算一樣,從計算機建模中得出的計算結果可以用來預測基于部隊和手段的相應相關性的傷亡。在這里使用的算法中,戰斗力是根據地形和任務類型對每種能力或系統進行調整。一旦對戰斗力進行了調整,該模型描述了在部隊比例為1:1時的傷亡分布情況,有一條非線性曲線,在戰斗力比例大約為4.4:1時趨于平緩,顯示了一個粗略的收益遞減點。這種計算方法不能提供 "任務成功 "的百分比機會,但可以提供預期戰損和傷亡的迭代,顯示雙方的戰斗力如何隨著時間的推移而受到影響。必須對將導致失敗或撤退的戰斗力損失做出假設,但這是一個很好的例子,說明人類的洞察力可以被迫提供具體的情況。從這些計算中出現的洞察力的開端是,1:1的比例仍然是消耗性的,而2:1的比例有可能在兩次反復中增長到2.4:1然后是4.5:1。這就形成了一種機制,在時間上尋求有利的戰斗比例,可以決定性地改變平衡。這不是一個水晶球,而是現有的最佳估計,能夠由工作人員有條不紊地進行,或由程序以機器速度進行。由于戰爭是一種明顯的人類努力,因此可以將士氣或本例中未包括的其他因素納入到額外的修改因素中。這種對戰斗力隨時間推移的理解提供了一個關鍵的洞察力,并可以為部隊分配的決策提供參考。在這一點上,可以產生一個對應于特定地點的友軍的有利戰斗力要求。圖2強調了格魯吉亞部隊如果在俄羅斯入侵路線上的起伏地形中進行防守時的理想戰斗力。

隨著南奧塞梯局勢的升級,格魯吉亞總統米哈伊爾-薩卡什維利于2008年8月7日為軍隊確定了三個目標。他指示他們 "第一,阻止所有軍車從俄羅斯通過羅基隧道進入格魯吉亞;第二,鎮壓所有攻擊格魯吉亞維和人員和內政部崗位或格魯吉亞村莊的陣地;第三,在執行這些命令的同時保護平民的利益和安全"。正如格魯吉亞國家安全委員會秘書亞歷山大-洛馬亞后來所證實的,"我們行動的邏輯是解除茨欣瓦利郊區的射擊陣地,并試圖通過繞過茨欣瓦利,盡快向羅基隧道靠近"。這一指令和支撐格魯吉亞軍事反應的邏輯為本文中繼續發展人工智能的COA提供了一個有益的對比。

圖2. 兵力比的正反饋循環

前面分析的圖1中的俄羅斯部隊是后來試圖通過羅基隧道進入格魯吉亞的第一梯隊部隊。被描述為向格魯吉亞部隊和村莊開火的部隊在茨欣瓦利附近活動,由奧塞梯人組成,由俄羅斯和奧塞梯 "維和 "營協助,人數增加到830人,大約300名雇傭兵,以及更多的大炮。由于他們有相當多的步兵,不同的任務,以及從茨欣瓦利城市中心倉促防守的地形,通過以前使用的相同方法,他們的戰斗潛力被計算為60。

談到格魯吉亞部隊和繼續發展他們最有利的行動路線,格魯吉亞第二、第三、第四和第五步兵旅以及戈里的一個單獨的坦克營的戰斗力和位置,作為計算的起點。他們與俄軍的距離和旅行時間,或關鍵地形,都可以計算出來。將這些信息與之前概述的俄羅斯部隊和之前討論的兵力比例知識結合起來,就可以利用目標編程,從數學上優化從每個格魯吉亞地點到羅基隧道或茨欣瓦利的戰斗力,以滿足有利的兵力比例,同時最大限度地減少總的旅行距離,從而最大限度地減少時間和后勤要求。

圖3. 戰斗潛力優化Python計劃的結果和建議的第4旅的分步任務組織結果

圖3左上角的優化程序結果顯示,格魯吉亞的戰斗力分配足以達到2:1的兵力比,以對抗進攻的俄羅斯部隊。對于第4步兵旅,建議在各目標之間分配戰斗力,后續的優化程序是按作戰功能確定各目標的不同作戰系統的數量,如圖3右上方所示。其結果是以理論為基礎的理性選擇解決方案,并通過在后期MDMP的COA分析步驟中為裁決戰爭游戲而保留的計算類型形成。人工智能支持的MDMP所實現的是使用詳細的分析來告知行動方案的最初發展,防止未來對次優COA的路徑依賴。

這種輸出就像分析數據以創造信息。合并這些信息的組成部分可以創造出知識,指揮官或參謀部可以對其運用智慧。這種方法不是像直覺所注入的那樣擁有不可解釋的因素,而是可以解釋的,并且可以在指揮官的具體規劃指導下進行修改。在這種情況下,裝甲、步兵和炮兵在進攻和防守中的有效性,以及丘陵和城市地形,都被納入優化的考慮范圍,輸出結果將炮兵優先送到羅基隧道。這一建議,雖然源于算法,但遵守人類的軍事判斷,認識到在城市中使用火炮的相對困難,以及步兵的相對優勢。毫不奇怪,行動后的審查指出,格魯吉亞的炮兵在丘陵地帶對付前進中的俄羅斯縱隊是有效的。

同樣,在這種修改中,通常為COA分析的后期步驟保留的計算類型被應用于COA的最初發展。正如加里-卡斯帕羅夫所描述的與計算機合作的好處一樣,人類也可以將作戰藝術應用于已經納入科學的概念。

許多計算可以被整合到程序中,以減少認知負擔,讓工作人員進步到更高層次的人工分析,其中一個例子就是時間。對于建議的每條路線,可以進行計算,根據車輛數量和其他變量確定更準確的時間。

將上述初級人機開發的COA的輸出與格魯吉亞國家安全委員會對其一般行動方案的闡述相比較,突出了人工智能支持的MDMP可以提供的優勢。人工智能的建議將一支更強大的格魯吉亞部隊引向羅基隧道,同時向茨欣瓦利投入部隊。很可能更早和更多地將部隊投入到羅基隧道附近的防御中,會極大地擾亂已經被渠化的入侵俄羅斯部隊,并阻止他們將火箭系統移到茨欣瓦利的射程內,并通過隧道將彈道導彈炮組進一步嵌入格魯吉亞,這對俄羅斯人來說是決定性的。

到目前為止,修改后的方法已經建立了一種發展 "下一步行動 "的方法,其基礎是對友軍和敵軍戰斗力的理解,這種戰斗力如何受到任務類型和地形的影響,以及部隊在移動和機動接觸中的時間關系。地面部隊的這些例子必須自然延伸到所有領域的戰斗力和效果的應用。這種技術能夠同時分析各個領域,并為跨領域效果的整合提供一個機制。近距離空中支援的架次可以被整合到地面領域,以便在地面戰斗的關鍵地點和時間提供更好的戰斗力比率。此外,在進行空對空作戰計算時,可以將地面防空資產納入空對空計算的因素。圖4顯示了通過羅基隧道進攻的俄羅斯地面部隊和推薦的格魯吉亞地面部隊的戰斗力,另外還強調了如何將俄羅斯的蘇-25戰斗機或格魯吉亞的SA-11系統納入其中。這為在領域內和跨領域進行的作戰行動創建了一個多維框架,并提供了一種同步匯合的方法。當一個領域的條件發生變化時,對其他領域和行動的影響可以在開始大大超過工作人員計算的復雜程度上進行。

隨著核心COA的制定,每個作戰功能的最佳整合可以通過算法來確定。例如,有了通往目標的路線和距離,以及燃燒率和其他規劃因素,可以計算出支持概念的要素。

這個例子表明,有能力在多個領域整合所有作戰功能的規劃。有了充分的細節說明COA的完成和廣度,現在可以把解釋轉向深度。為了在作戰層面創建一個在時間和空間上都有深度的COA,它必須提前預測幾個交戰,以實現相對優勢的位置,并尋求實現轉化為成功的失敗機制。而之前的過程主要是將現有的軍事理論或學術研究進行算法連接的創造,它們很難實現超越即時決策的飛躍,并創造出作戰藝術。對于這一點,現有的人工智能提供了適用的例子。

國際象棋人工智能中使用的基本微分法對所有棋盤上的處置方式提前兩步進行打分,包括行動和反應,然后根據程序對分數進行比較,分數最差的那個選項被修剪掉。在排除了未來兩步棋中最差的選項后,剩下的最佳選項被選中。修剪和消除的過程可以防止出現這樣的情況:人們可以在最近的一步棋中拿下一個低價值的棋子,但在下一步棋中又會失去一個高價值的棋子。該算法基于每一步后續棋重復這一過程。在許多程序中,該算法會分析更多的未來棋步,以指數形式增加棋盤的處置,以評估和排列潛在的棋步。為了簡化計算機的計算,一個被稱為阿爾法-貝塔修剪的過程可以在明確它們不會是最佳選擇時刪除分支,并停止評估它們。根據已經證明的根據力量和手段的相關性來評估軍事編隊的能力,可以看到即使是簡單的國際象棋人工智能方法也可以成為發展作戰藝術的基礎。

圖4. 多域COFM框架

當使用決策樹和國際象棋人工智能的最小算法時,程序會對棋盤上的大多數或所有的替代性未來進行評估,并產生一個可比較的值。俄羅斯軍隊最初從西邊的馬米森山口進攻,而不是從東邊的羅基隧道進攻,就是一個選項的例子。這將產生一個不同的動作,格魯吉亞部隊需要對此作出反應。除了國際象棋人工智能中棋子的總價值外,還經常使用位置的修改器。對每一方的剩余棋子進行估值的方法在概念上類似于之前用于分析俄羅斯和格魯吉亞部隊的戰斗力的TAM計算方法。而不是單個棋子的價值,將考慮軍事編隊的戰斗力。這種機制設計起初似乎是以消耗為重點,保留友軍的戰斗力,消除對手的戰斗力,并根據價值來確定優先次序。從一開始看起來非常機械的東西中出現的顯著特征是在時間和空間上創造和連接有利的力量比例,實現不對稱性,以大量消耗對手并保存友軍的戰斗力。簡而言之,它創造了作戰藝術。

當以這種方式對格魯吉亞的多個行動方案進行比較時,就會出現與圖3中描述的不同的行動方案。由于通往羅基隧道的旅行時間的變化,以及對交戰的預測是如何沿著各自的決策樹展開的,因此確定了對通往羅基隧道的部隊的改變,如圖5所示。

當人工智能支持的COA開發過程繼續向前搜索時,在Troitskye的俄羅斯第503摩托步槍團(MRR)和在Khankala的第42摩托步槍師和第50自行火炮團被確定為需要考慮的俄羅斯作戰力量。以最小的方式,在最初決定在羅基隧道和茨欣瓦利之間分配部隊之前,沿著決策樹進一步考慮這一事件。一旦理解了時間上的力量以及二階和三階效應,就會發現一個非直覺性的決定,即與戈里的坦克營和第比利斯的第4旅一起向羅基隧道進攻,這是由于預測到俄羅斯第二梯隊部隊在未來的行動。

圖 5. 俄羅斯-格魯吉亞聯合決策樹和進化

如圖3所示,如果俄軍同時開始行動,格魯吉亞部隊的原始部署無法及時趕到羅基隧道進行防御。然而,當動用哥里的坦克營或第4步兵旅時,一支有利的部隊能夠在迪迪古普塔或爪哇附近進行防御,使俄軍在山丘上保持渠化,有足夠的戰斗力來預測俄軍的進攻會被擊敗。這種防御可以抵御俄軍第二梯隊的第503摩托化步兵師,但不能抵御緊隨其后的第42摩托化步兵師,圖5右上方描繪的是第503步兵師。正因為如此,格魯吉亞的防御部隊如果要完成他們的任務,就需要在503摩托化步兵師到來之前向隧道進行反擊,以在嚴重的渠化隧道處進行防御。有了這些從復雜中出現的聯系,格魯吉亞的領導層可以及時思考并產生贏得戰斗的洞察力。

建立可用COA的算法過程在很大程度上緩解了因時間不足而產生的差距,同時為MDMP引入了一定程度的學術嚴謹性,否則可能只是主觀評估,而這種評估中隱含著所有未知的危險。

在目前的作戰環境中,往往沒有時間來制定多個作戰行動方案,對所有制定的作戰行動方案進行戰爭演習,應用作戰行動方案評估標準,然后確定一個推薦的作戰行動方案。有了人工智能支持的MDMP,COA分析和比較就被烘托出來,并最大限度地利用現有的技術,所有這些都是在傳統的工作人員可以收集到的工具。

通過COA分析和COA比較步驟合并和修改COA開發步驟,以利用當前人工智能能力的速度、力量和洞察力,將提高預測多種替代性未來和選擇的能力,使指揮官不僅能夠在三維空間中思考,而且能夠在時間中思考。鑒于時間越來越稀少,了解時間,并擁有在多個領域與之合作并通過它的工具,可能是人工智能提供的最大優勢。

其他領域的人工智能工具已經展示了它們在提供快速、一致和準確計算的任務方面的能力。為了具有價值,人工智能不需要自主運作或復制有生命的人。人工智能只需要彌合當前規劃和決策工具的適用性與人類認知在復雜適應性系統中的有效性之間不斷擴大的差距。處理復雜性的適度改進,即使只是減少導致錯誤的認知負擔,也會確保比無助的指揮官有決策優勢。

在人工智能支持的MDMP的意義上更進一步,人工智能可以在第一次迭代后半自動地完成MDMP,幾乎連續地進行完整的MDMP過程,沒有疲勞感,納入每一個新發展。一個持續的人工智能運行的MDMP將提供關于部隊當前位置和行動的反饋。近乎實時的反饋將使我們能夠跟蹤下屬單位的當前行動、控制措施的遵守情況和進展。

其次,近乎連續的MDMP可以通過評估根據當前條件應該執行什么COA來預測分支,甚至預測隨著條件的變化,未來決定性交戰的設置。持續的人工智能支持的MDMP將與敵人而不是計劃作戰。一個人工智能支持的過程將有額外的好處,即為任何新出現的COA整合資源,同步和優化所有領域的效果,并使過渡到一個新的分支計劃更加可行。這種能力將在使部隊迅速適應在未來動蕩環境中的混亂邊緣茁壯成長方面取得不可思議的進展。

付費5元查看完整內容

人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。

引言

人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。

作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。

人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。

在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。

如何在海戰領域整合人工智能?

目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。

鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。

如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。

如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。

人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。

C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。

圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。

圖1. 海上人工智能系統的擬議架構

建議

首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。

第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。

第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。

付費5元查看完整內容

通過這項美海軍的頂點研究,人工智能(AI)三人小組利用系統工程(SE)的方法來研究人工智能輔助的多任務資源分配(MMRA)如何使所有軍種的任務規劃者受益。這項研究的動力來自于優化我們武裝部隊中的MMRA問題集,對于戰術領導人有效管理現有資源至關重要。存在著一個將人類決策者與人工智能支持的MMRA規劃工具相結合的機會。在計算速度、數據存儲和商業應用中的整體公眾接受度方面的快速技術進步促進了這一點。

該團隊從三個任務集著手處理MMRA問題:車隊保護、航空支援和航母打擊群(CSG)行動。車隊保護用例探討了利用定向能(DE)的移動式地基防空系統。航空用例探討了美國陸軍的未來垂直遠程攻擊機(FLRAA)的能力組合,這是一個未來垂直升降機(FVL)的前里程碑B計劃。最后,CSG用例從高度復雜的系統(SoS)角度探討了MMRA。

盡管這些用例各不相同,但團隊探討了這些觀點之間的相似性和矛盾性。每個用例都應用了一般的MMRA流程架構。然而,每個用例的輸入和輸出都是單獨評估的。圖A描述了MMRA的總體流程架構。

如圖A所示,MMRA被設想為在確定的決策點由人在回路中激活。在這些事件中,MMRA系統用實時輸入進行一次循環。由黑盒MMRA系統確定的輸出被顯示給人在回路中的人,以進行標準決策程序。雖然這項研究僅限于問題的分解,但未來的研究領域是開發一個由人類系統集成(HSI)驅動的產品實現。MMRA通過對日益復雜和相互依賴的資源分配問題進行客觀評估,加強了指揮系統的決策。圖B描述了MMRA人工智能系統過程的行動圖。

MMRA決策已經超出了傳統決策過程的復雜程度。這種復雜性適用于任務規劃的各個層面。戰術層面是在士兵個人的直接指揮系統或單位層面進行的。行動和戰略層面則是在梯隊或總部層面進行。所有這些都需要對現有資源進行準確和有效的分配。

圖C中的圖形,"戰術評估過程。圖C "戰術評估過程:MMRA決策的復雜性 "描述了MMRA是如何在一個作戰場景的決策點上隨時間推移而進行的。初始規劃是在??0進行的,與 "MMRA過程結構 "中的 "初始 "黃色活動塊相關。之后的某個時間,??1, ??2, ??3, ..., ????決策點與 "MMRA過程流 "中的 "決策點重新規劃 "黃色活動相關。"初始 "和"決策點重新規劃 "這兩個黃色活動塊啟動了一個完整的 MMRA 過程流,它包含了 "初始 "和 "決策點重新規劃 "連續體中描述的所有活動。

決策點在三個MMRA用例中被普遍定義。然而,為了解情況,對設想中的場景采用了獨特的故事情節。雖然這里不能列出所有的案例,但CSG獨特決策點的一個例子是CSG內部、CSG外部或自然災害援助的應急反應。通常,所有的決策點都發生在出現新的任務、提供不同的任務優先級、資源耗盡、資源被破壞或任務無法繼續完成時。

為了更好地理解MMRA問題集的范圍,該團隊對所有三個用例進行了可擴展性和復雜性分析。可擴展性分析抓住了靜態MMRA問題集的范圍,與該用例的歷史背景相比較。因此,可擴展性分析為最初的MMRA規劃問題集提供了一個從傳統系統到現在用例方案的背景。在DE Convoy Protection和CSG用例中,可擴展性都有不可量化的增加。對于DE車隊保護來說,由于精確攻擊的技術進步,紅色部隊的能力增加。此外,CSG的藍軍能力增加了,在某些地方是三倍,因為反措施能力、導彈類型的可用性和不同級別驅逐艦之間的數量擴大了。作為補充,航空用例產生了15%的可擴展性,從傳統的實用級直升機到FVL FLRAA。

復雜性分析抓住了動態MMRA問題集的范圍,與各自用例的歷史背景相比較。這些復雜性分析提供了進一步的MMRA背景,因為當MMRA在交戰中被重新規劃時,戰術決策發生在多個決策點。所有三個用例的復雜性分析都構建了故事情節,展示了無形的、越來越具有挑戰性的MMRA考慮。隨著MMRA的可擴展性和復雜性的增加,未來對人工智能輔助的MMRA決策的關鍵需求變得清晰。

繼續分解人工智能輔助的MMRA問題集可能會引起美國武裝部隊的興趣。在所有的使用案例中,在初始和重新規劃的作戰場景中,戰術決策的復雜性都顯示出隨著時間的推移而增加。我們強烈建議對人工智能支持的MMRA問題集進行進一步研究。確定的未來研究領域有:工具的倍數、硬件/軟件部署戰略、戰術與作戰與戰略層面的資源配置、連續與離散的重新規劃節奏、人工智能機器學習的考慮,如數據的數量/質量、人類在環路中對人工智能的接受程度、人工智能輸出儀表板的顯示以及人工智能的倫理。

付費5元查看完整內容

為了有效面對大國時代的同行競爭者,美國海軍將需要一個現代化的風險評估模型,以有效完成海上目標,支持聯合部隊在高端戰斗中實現作戰和戰略目標。將目前的風險評估過程中識別危險、確定頻率和影響的工作現代化,使之成為一個更廣泛的可接受的風險水平(ALR)結構,就像美國空軍那樣,將使指揮官能夠更好地傳達風險接受水平和艦隊使用的分布式海上行動(DMO)模式中的意圖。此外,戰術級指揮官在DMO概念下執行任務指揮時,將更好地理解戰術級風險接受的界限或限度。

當前風險評估的問題

在海軍作戰出版物(NWP)5-01中,海軍規劃過程(NPP)包含了廣泛的指導,幫助規劃者和工作人員通過詳細的風險矩陣來識別危險、衡量頻率以及這些風險的潛在影響。然而,它并沒有有效地說明指揮官應該如何處理這種風險,也沒有指導規劃者或指揮官應該接受多少風險來實現當前的目標而不影響后續行動。國家行動計劃也很難界定,一旦計劃進入執行階段,指揮官應如何向下屬指揮部傳達風險接受水平。

根據NWP5-01,風險分為兩個不同的類別:對任務的風險和對部隊的風險。在大多數情況下,對任務的風險主要集中在戰爭的操作層面,對部隊的風險主要集中在戰術層面。在海軍的風險評估模式中,謹慎的做法是由作戰參謀部和下級單位為指揮官確定對任務和部隊的風險,這樣指揮官就可以根據直覺、過去的經驗和個人判斷來采取風險緩解措施。此外,目前的風險評估模式希望所有的風險(至少是參謀部知道的那些)都能在作戰和戰術層面上被識別和緩解或管理,并在整個行動過程中持續更新。然而,這個過程可能很耗時,而且不能提供足夠的靈活性,因為風險會根據敵人對友軍的反應不斷變化。使得戰術層面的指揮官在完成目標的過程中能夠利用風險機會所需要的非常靈活。它還可能使參謀和作戰級別的指揮官,如聯合部隊海上部分指揮官(JFMCC),被大量的戰術細節所困擾,使決策周期更加復雜或停滯。

由于自第二次世界大戰(二戰)以來沒有面對過同行的競爭者,再加上海軍目前的風險評估模式缺乏靈活性,評估可能導致各指揮官在什么是和什么不是重大風險之間出現不連續。使這個問題更加復雜的是向DMO的艦隊雇傭概念的過渡。與DMO之前的戰術使用方法相比,艦隊分布在通過復雜的網絡連接的大片區域,這將需要轉變對風險的理解及其對部隊的影響。一個恒定的敵方作戰順序(EOB)將根據艦隊的組成和分布對部隊和任務構成不同的風險因素。例如,當航母受到很好的保護并與驅逐艦和巡洋艦接近時,按照歷史上的做法,評估和管理對航母的風險要容易得多。然而,在DMO內部,情況可能并不總是如此,因為可能有需要或有時間,像航母這樣的高價值資產將需要獨立運作或不時地與護衛隊大大分開。

這樣做的目的不是要削弱指揮官的判斷力或經驗,也不是要否定在戰術層面識別危險的必要性,而是要強調需要更好地量化和溝通整個部隊的風險,減少參謀部和指揮官在戰爭操作層面的風險估計和評估的工作量。同時也賦予戰術層面的指揮官權力,使其能夠在分布式海洋領域的機會出現時做出明智的風險決策。空軍的ALR模式如果能充分適應海上環境,就可以做到這一點。

付費5元查看完整內容

戰爭的特點正在發生根本性的變化,這些變化對空中力量的影響尤其深遠。多域整合為空中力量和越來越多的空間力量在未來幾年內的一系列轉變做好了準備,這些轉變不僅與技術有關,而且與空軍組織和進行規劃和行動的戰略和作戰概念有關。

迫在眉睫的、不可避免的多域作戰似乎是空中力量的一個明顯的邏輯演變,它可能會引發這樣的問題:為什么我們沒有更早地沿著這些思路思考和發展作戰概念?畢竟,對優化、作戰協同和武力經濟的尋求在空中力量中是持久的。可以說,多年來,空軍及其相關部門事實上已經嘗試以某種方式或形式在多域背景下運作。然而,在整個部隊甚至整個戰區范圍內,為多域作戰(MDO)提出的早期作戰概念(CONCOPS),在多域作戰空間產生作戰協同和效果的努力是前所未有的。

諸如聯合全域指揮與控制(JADC2)這樣的結構闡述了一個作戰云賦能的未來戰爭,其中任務指揮和戰斗空間管理被有效地隱含在整個戰斗部隊中,觀察-定向-決定-行動(OODA)環路被加速到邊緣計算的速度。傳感器和通信網絡決定了空軍承擔幾乎所有傳統任務的功能能力。數據和數據流將變得比空軍傳統上對機動自由的依賴更加重要,并且有效地成為其戰略推動者。空軍力量將越來越多地與網絡而非平臺、數據而非武器系統有關。

任務的成功和失敗一直是由指揮官和作戰人員可用的態勢感知水平決定的。在新興的作戰模式中,空軍以近乎實時的速度收集、處理和利用數據的能力有效地使數據成為最大的工具和最令人垂涎的武器。收集、處理、匯總、分析、融合和傳播大量的數據、信息和知識將需要像未來有爭議的戰場上的事件速度一樣快。目前正在進行的戰爭數字化將導致在未來幾年內將 "大數據"廣泛用于作戰過程。空間領域將在實現全球范圍內連續的、有保障的和安全的通信方面發揮顯著的作用,除了更傳統的遠程監視用途外,它還被用作這種通信的運輸層。

對信息主導地位的追求將以新的和不確定的方式在物理、電磁和虛擬世界中擴展競爭的連續性。隨著空軍對帶有嵌入式人工智能(AI)工具和應用的作戰云的使用,新的風險、脆弱性和故障點將被引入。本出版物收集了來自世界各地領先的思想家的文章和見解,對多域整合和空中力量的信息優勢框架和概念的一些最相關問題提供了深入的觀點。這里的觀點和討論反映了當前對各種戰略、指揮和作戰層面的思考,讀者會發現這些思考對他們更廣泛的理解很有幫助

這里介紹的專家展望本身既不樂觀也不悲觀,正如我們所期望的那樣,所確認的是各種新技術促成的 "飛躍"機會正在地平線上形成,但其有效利用帶來了復雜和破壞性的新挑戰。在強調其中一些關鍵的挑戰和更好地理解這些挑戰的必要性的同時,正如通常的情況一樣,沒有快速的解決辦法或現成的解決方案。然而,有令人信服的理由認為,今天所預見的眾多挑戰似乎在理論上和技術上是可以克服的,有些甚至在未來幾年內就可以克服。在未來存在的許多不確定因素中,可以肯定的是,空中力量將被徹底重新定義。

付費5元查看完整內容

摘要

《應用于致命性自主武器系統的任務指揮原則》,Curtis R. Michael少校,56頁。

這部專著研究了任務指揮的七項原則及其在致命性自主武器系統中的應用。像機器人和人工智能這樣的創新技術正在迅速重塑社會規范。只是在過去幾年里,美國軍方才認真考慮自主技術在戰場上的影響。隨著政治和軍事領導人處理這個新的戰爭時代,有關人類和機器在戰爭中的角色的新問題正在呈現。盡管圍繞自主系統的知識和經驗還很有限,但有一個既定的框架,即任務指揮原則,它經過了戰斗的檢驗,非常適合解決模糊性問題。任務指揮原則是使用致命自主武器的明智方法。這七項原則是幫助軍事指揮官應對復雜戰爭穩定的指導性方針。更重要的是,這些原則確保指揮官是最終的決策者,人民和信任是任務指揮的重點。信任在這個新的戰爭時代的重要性是不可低估的。信任確保了軍事行動的凝聚力和統一性。了解自主武器系統中的人機信任關系,對于釋放人機團隊的競爭優勢以及維護美國的國家安全利益至關重要。

簡介

“第一臺超智能機器是人類需要做出的最后一項發明,只要機器足夠溫順,告訴我們如何控制它。奇怪的是,這一點在科幻小說之外很少被提及。有時,認真對待科幻小說是值得的。”歐文-約翰-古德,《第一臺超智能機器》

今天,沖突的復雜特征也許比以往任何時候都更加明顯。混合戰爭、網絡攻擊和非國家行為者正在不斷地使戰斗空間變得更加不確定、動態和模糊。革命性的技術,如高超音速武器、人工智能(AI)和自主系統(AS)進一步增加了這種復雜性。商業和軍事工業對創新技術的空前依賴似乎是戰爭特征變化的催化劑,可能也是戰爭性質的催化劑。前美國國防部長吉姆-馬蒂斯在評論人工智能和戰爭這個話題時說:"我當然質疑我原來的前提,即基本性質不會改變。你現在必須質疑這一點。"隨著政治和軍事領導人小心翼翼或不顧一切地跳入這個幾乎沒有先例的戰爭新時代,關于人類和機器在戰爭中的作用的新問題在等待著他們。

2014年,前國防部副部長羅伯特-沃克和他的同事發表了一份報告,解釋了未來的戰爭會是什么樣子。他們認為,未來的戰爭將主要由無人駕駛和自主武器等機器人技術來進行。"這種走向機器人時代的主要驅動力是來自商業公司的創新,而不是由政府研究和開發項目資助的軍工綜合體。"雖然這些新技術使眾多民用行業受益,如醫療保健和金融,但軍隊以及恐怖組織越來越依賴它們。2019年9月對沙特阿拉伯能源基礎設施的襲擊就是一個例子,恐怖分子輕松地改裝了少量的無人機,破壞了該國一半的石油和天然氣生產。此外,在過去十年中,使用軍用無人機的主權國家有九十五個,增加了百分之五十八。

從商業角度來看,機器人技術和自主技術的市場已經大大增長。例如,在過去六年中,工業機器人的銷售量每年都在增加,導致全世界的機器人存量超過240萬臺。此外,2018年有1630萬臺服務機器人用于家庭用途,比前一年增加了59%。另一個說明自主技術增長趨勢的例子是自動駕駛汽車。自動駕駛汽車在商業上和軍事上都有很大的前景。用先進的傳感器套件改裝的車輛有可能消除對人類操作員的需求,或通過提高駕駛員的態勢感知來減少人為錯誤。

美國軍方利用人工智能通過致命和非致命的應用來加強國家安全。人工智能的一個非致命性應用是一個名為Maven項目的軟件套件。Maven是國防部的一個人工智能應用,它研究遙控飛機的圖像和視頻資料,目的是改善無人機的打擊。人工智能的致命應用,也被稱為致命自主武器系統(LAWS),不僅被美國軍隊使用,也被世界各地的軍隊使用。本專著將致命性自主武器系統定義為:一旦啟動,就可以在沒有人類操作員進一步干預的情況下選擇和攻擊目標

LAWS的例子包括以色列國防軍的HARPY導彈。HARPY是一種旨在有選擇地攻擊敵方防空設施的游蕩彈藥。同樣地,美國空軍最近出動了它的第一枚自主巡航導彈--遠程反艦導彈(LRASM)。LRASM的設計是獨特的,因為它可以根據敵方軍艦的圖像識別、紅外、雷達和其他傳感器的特征,自主地探測和攻擊敵方軍艦。

美國國防部(DoD)將人工智能定義為機器執行通常需要人類智能來執行任務的能力,無論是數字還是作為自主物理系統背后的智能軟件。從本質上講,人工智能是一個處理數據以識別模式、學習、建議作戰方案或指導行動的融合系統。與商業行業一樣,軍方認識到人工智能支持的硬件和軟件的好處。

隨著自主武器的發展和使用變得突出,與它們的道德使用和可信度有關的問題將浮出水面。朱莉婭-麥克唐納和杰奎琳-施耐德進行了一項調查,顯示了目前無人駕駛飛行器的信任障礙。他們的調查顯示,聯合終端攻擊控制人員(JTAC)和聯合火力觀察員(JFO)認為無人機 "比有人駕駛的飛機風險更大,更不值得信任"。此外,他們得出結論,在 "人類與敵人直接接觸的領域,部隊不愿意將決策權交給機器"。然而,他們有限的調查確實顯示,當JTAC和JFO對無人駕駛飛機有更多的經驗時,他們更可能傾向于無人駕駛飛機。這一發現表明,經驗可能有助于解決控制人員對無人駕駛飛機的一些信任問題。

前面的例子說明了國防部的采購和企業在開發致命性自主武器系統時遇到的許多挑戰之一。軍方開發的新武器系統要經過廣泛的測試和政策審查。在某些情況下,這一過程需要多年時間才能完成。然而,這一深思熟慮和務實的過程的總體目標是推出一種有能力和強大的武器,使軍事指揮官能夠在戰場上自信地使用。致命武器系統是獨特的,因為它們挑戰了這種傳統的武器采購和部署模式。使致命性自主武器系統的開發更加復雜的是國防部的3000.09號指令。該指令指出,指揮官和作戰人員必須對武力的使用進行適當的人為判斷。指令中沒有明確界定什么是 "適當的判斷水平"。此外,在當前的作戰環境中,對手正專注于爭奪、拒絕和降低通信系統,對適當控制的理解變得更加不明確。

人工智能技術的普遍性及其在整個民用和軍用部門的廣泛增長表明,戰爭的特征正在發生變化。美國的核心政治和軍事戰略文件,國家安全戰略(NSS)和國防戰略(NDS)承認這些技術的重要性,因為他們指示美國優先考慮并保持在新興技術方面的競爭優勢。在未來的沖突中,這些新興技術將很可能超過人類的理解能力。Robert Latiff寫道,時間將更加寶貴,戰斗的純粹速度將給決策帶來壓力。考慮到未來戰爭的這一背景,軍隊應該預期軍事主動權的鐘擺將逐漸從軍事指揮官手中擺開,轉到自主代理人身上。為了在人工智能主導的戰斗空間中做好準備并取得成功,指揮官將需要把任務指揮的一些原則擴展到致命性自主武器系統。

付費5元查看完整內容

人工智能(AI)正迅速融入軍事指揮與控制(C2)系統,成為許多國防部隊的戰略重點。人工智能的成功實施有希望預示著通過自動化實現C2靈活性的重大飛躍。然而,需要對人工智能在可預見的未來所能實現的目標設定現實的期望。本文認為,人工智能可能會導致脆弱性陷阱,即把C2功能委托給人工智能會增加C2的脆弱性,導致災難性的戰略失敗。這就要求在C2中建立一個新的人工智能框架以避免這種陷阱。我們將論證,"抗脆弱性 "和敏捷性應該構成人工智能C2系統的核心設計原則。這種雙重性被稱為敏捷、抗脆弱、人工智能驅動的指揮和控制(A3IC2)。一個A3IC2系統通過C2決策周期中的反饋過度補償,不斷提高其在面對沖擊和意外時的表現能力。一個A3IC2系統不僅能夠在復雜的作戰環境中生存,還能茁壯成長,從戰爭中不可避免的沖擊和波動中獲益。

I 引言

許多人認為,將人工智能(AI)納入軍事指揮和控制(C2)是建立軍事力量競爭優勢的一個關鍵因素[1],[2],[3]。人們對人工智能在戰場上能夠實現的目標抱有很高的期望,有些人宣稱它是下一場"軍事事務革命"[4]。人工智能有望在C2中實現復雜功能自動化,從而導致"戰場奇點"的概念,即決策周期自動化帶來的行動速度的增加導致人類的認知無法跟上機器做出決定的速度[3]。在這種對未來戰場的展望中,人被認為是C2系統中的一個薄弱環節[5]。

本文認為,人工智能的整合可能會對尋求機器速度決策的C2系統性能產生意想不到的后果;從戰略上講,一個已經達到 "戰場奇點"的系統在根本上是脆弱的。人工智能的快速發展及其對C2系統明顯的革命性/顛覆性影響在很大程度上是由對戰爭期間對對手的 "響應"程度的關注所引導的,而不是對這種技術可能對C2系統性能的整體影響。文獻中提出了兩個假設:第一,假設人工智能將通過優化系統的各個部分來進一步實現提高敏捷性的目標;第二,由于復雜的人工智能能夠在戰時做出決定,甚至在戰略層面做出決定,未來人工智能支持的C2系統將在盡可能少的人力投入下得到改善[6],[7]。這兩個假設都是錯誤的,因為人工智能帶來了獨特的特性,可能會增加C2系統的脆弱性。

傳統上,C2系統被認為受益于一種戰略,該戰略側重于在復雜的競爭環境中最大限度地提高敏捷性[8],[9],[10],[11]。David Alberts用 "敏捷C2"的概念體現了這一戰略,該概念指出,為了使C2系統有效,它必須能夠在復雜的環境中成功應對、利用和實現變化。C2的有效性是通過系統要素的相互作用來實現的,如適應性、響應性、靈活性、多功能性、創新性和復原力[8]。然而,對"敏捷C2"模式的接受使大多數軍事C2理論和文獻將人工智能技術作為提高C2決策單獨響應性的手段[1],[2],[7],[3],[5],而對C2系統需要響應性以滿足戰略利益這一單純的事實則關注較少。問題的核心就在這里,提高響應能力的人工智能是否能夠做到這一點,同時了解決策對跨多個領域的戰略和大戰略目標的影響。我們認為,盡管人工智能很先進,但由于人工智能系統容易受到具有戰略后果的黑天鵝事件的影響,在作戰環境中的預測從根本上來說是脆弱的[4]。人工智能的優化特性,加上人類責任的減少,可能成為阻礙C2敏捷性的 "脆弱 "方法。

為了否定上述可能導致人工智能C2系統脆弱性的一些問題,需要一個新的設計原則,以增強系統從波動中自我改善的能力,即所謂的 "抗脆弱性"[12],[13]。適當設計的人工智能可以通過在系統級存儲器中積累適當的遭遇和學習經驗來實現抗脆弱系統的發展,但它也可能鼓勵C2決策周期的過度優化。這可能會導致系統無法識別和解釋突發事件,但仍然快速推薦決策,導致負面風險的升級。因此,人工智能的整合支持了一種新模式的發展,擴展了敏捷C2的概念,并包含了抗脆弱性。這將被稱為 "敏捷、抗脆弱、人工智能驅動的指揮與控制"(A3IC2),它是敏捷C2、抗脆弱理論和人工智能用于C2的綜合體,建立在Boyd、Brehmer和Alberts[14],[8]所開發的模型之上。

為了探討A3IC2,本文的結構如下。第二節介紹了文獻回顧,將A3IC2概念與之前的其他概念區分開來。然后在第三節中介紹了人工智能導致脆弱性,接著在第四節中論證了抗脆弱性將使人工智能在C2系統中得到有效利用的原因。第五節討論了擬議的A3IC2功能模型,然后在第六節得出結論。

II 文獻回顧

A. 指揮與控制

就本文而言,軍事C2的定義是負責適當分配部隊以實現軍事目標的戰區級職能。軍事學說將其廣泛定義為 "對所分配的部隊行使權力和進行合法指揮的過程和手段"[1],[2],[15]。這有別于其他被描述為戰術層面的C2系統,如單個車輛或小單位的C2。

軍事C2與戰略決策是密不可分的。它包括一個等級組織,指揮官的意圖來自他們所保衛的國家戰略目標,為下屬的決策和行動提供方向[14]。C2的最高優先事項之一是保持對環境的態勢感知,并以軍事行動做出適當的響應(或不響應),以實現戰略目標。C2不僅要有效地進行作戰,而且還必須知道何時從非作戰行動(OOTW)過渡到作戰[16],反之亦然。因此,軍事C2的適當抽象(或模型)需要承認沖突的全部范圍;從作戰到非作戰行動[15]。它必須考慮到C2系統所處的 "作戰環境 "的動態復雜性;從戰術到戰略層面以及它在大戰略層面產生的影響。簡而言之,有效的C2不僅僅是能夠贏得戰斗,它還必須知道什么時候挑起戰斗是一種相稱的響應[2],[15],[16]。此外,它需要了解其行動對大戰略層面的影響;也就是整個政府的目標。

C2,作為一個系統,在一個非線性和復雜的環境中運作。它被歸類為 "社會技術"系統,是技術和 "社會 "或人類元素的混合體,它們相互作用,并與更廣泛的復雜環境相互作用[17]。一個C2系統表現出動態的、突發的行為,有許多意外的或不可預知的后果。這不僅是因為這些系統依靠人類來理解復雜的環境并制定解決問題的計劃,而且因為它也是一個技術系統,態勢感知依賴于數字系統和傳感器來傳遞信息,而這些信息可能無法準確地代表作戰環境[9],[17],[10],[4]。C2系統必須完成的任務或目標完全取決于未預料到的現實世界的事件,如戰爭、環境災難和其他雜項OTW。這發生在多個領域(物理的和非物理的),并且都是在分歧的作用下。從系統思維的角度來看,C2作戰環境是真正 "超復雜"的[18],[16]。

因此,軍事C2有一個非常困難的任務,即它必須在一個復雜的環境中做出具有重要意義的決策,并保證有幾乎不可能預測或逆轉的二階和三階戰略效應[19],[4]。長期以來,軍事戰略家們一直理解這一點,并在傳統上通過心理模型或啟發式方法來管理,以指導如何理解和應對戰爭的復雜性。這些心智模式現在被固化在戰略研究學科和現代軍事理論中[4]。C2是在戰爭中取得戰略成功的一個重要手段,它被定義為 "確定一種方法,使敵人的組織因無助或混亂而崩潰"[16]。與指導這一結果相關的心智模式(必然)是高度抽象的,反映了對復雜性的理解;戰略與其說是一門科學,不如說是一種藝術。Clausewitz和他的 "分歧"概念,描述了在這種復雜性中操作的困難,它習慣于破壞所有精心策劃的計劃,導致了 "戰爭中一切都很簡單,但最簡單的事情卻很困難 "的看法[20]。自Clausewitz以來,由于信息理論、人工智能、系統思維和控制論方面的重大進展,戰略的啟發式方法已經取得了進展。關于戰爭的心智模式繼續從技術中發展,但戰爭的核心性質卻沒有發展。它在政治中的基礎要求它是一種與人的因素密不可分的活動[4],[15]。將這些心智模式轉化為指導人工智能的具體指標,是一項非同尋常的、可能不可行的任務。這些心智模型的工作原理是對背景、指揮官的意圖以及一個決定可能產生的大戰略后果的整體理解。

科學、技術和信息理論對戰略和C2概念產生了重大影響[21]。John Boyd上校,作為控制論和戰略的學者,在這兩個學科的基礎上,創造了戰略研究領域中最有影響力的功能模型之一--觀察(Observe)-調整(Orient)-決定(Decide)-行動(Act)(OODA)環。OODA環路是一個詳細描述 "贏與輸 "理論的模型,大致描述了一個人如何管理競爭環境和生存[21]。對于一個有效和可生存的C2,Boyd認為,一個系統必須能夠比敵人更快地適應其環境。調整(Orient)的步驟代表了在觀察、分析和心理模型的基礎上做出 "正確的決定",但如果雙方對手的其他條件相同,誰能更快地循環到每個步驟,誰就能獲勝[21]。因此,推動沖突的速度超過對手反應速度的C2系統,將造成'致命的不穩定',從而取得勝利[4]。正是從OODA循環理論的發展中,系統思維C2文獻繼續研究什么是一個卓越的C2系統;這是一個結合了系統思維方法和戰略研究的多學科領域[14],[19],[21]。文獻中有一個廣泛的共識,即戰爭的復雜性要求C2系統必須是動態的或敏捷的,允許人們既取得勝利又避免系統失敗[8],[10],[11],[9],[21],[4]。

然而,盡管OODA環路作為一種輸贏理論是合理的,但它并不是在C2系統中實施敏捷性的充分模型,因為它忽略了特定的功能,如 "指揮概念、規劃、放行準則或系統延遲",導致模型過度強調速度為目的[14],[9],[19]。為了將OODA環作為C2的一個更好的模型,Brehmer開發了動態OODA環(DOODA環)。Brehmer認為,需要具體的細節,如整個決策過程中的延遲,以使該模型在C2背景下具有足夠的描述性[14]。因此,在圖1中看到的DOODA循環允許指揮官和工作人員實際了解C2過程的每個功能。它通過明確每個C2功能,說明了為了提高敏捷性和決策性需要實現什么[14]。出于這個原因,DOODA循環模型將被用作本文后面的A3IC2功能模型的基礎。

從上面的討論中,有一個概念是明確的:C2及其性能的測量與系統運行的戰略背景是不可分割的。C2系統內的動態變化不是在真空中發生的;C2系統的最終結果是控制的影響,或在指揮軍事力量的超復雜環境中做出有效決定的能力,以便生存和獲勝。如果一個高度復雜、高效、響應迅速的人工智能C2系統無法追蹤作戰環境的復雜性、產生的影響以及它們在大戰略層面的后果,那么C2系統將無法在高強度戰爭的動蕩下生存。

圖1. 動態OODA環[14]

B. C2系統定義

在文獻中,對C2系統類型的描述是有問題的,導致與敏捷性、適應性、穩健性和復原力的定義有很大的重疊,這取決于情況或背景[11],[22],[8]。然而,有兩個廣泛的基本生存方法被描述,所有C2系統類型至少有一個方面是相同的:

1)保持形式的力量(在不改變的情況下,在波動中生存的能力)。

2)改變形式以保持力量(通過改變在波動中能生存的能力)。

這兩種生存方法都可以根據情況而有效;因此,一個有用的C2功能模型必須包括這兩種方法。C2文獻大致了解這一點,并試圖在功能模型中結合各種定義來調和兩種方法[11]。"敏捷C2"的概念將彈性和穩健性納入其定義中,背離了人們對敏捷性的通常理解,即僅僅意味著改變形式的 "迅速"。Alberts將敏捷C2定義為 "成功影響、應對或利用環境變化的能力"[8]。這一定義有實現這一目的所需的六個方面[8],[23]:響應性、靈活性、適應性、多變性/穩健性、創新性和復原力/彈性。

所有這些要素的融合有望最大限度地減少與不利影響相關的事件的概率,并最大限度地增加提供機會的事件的概率。如果事件真的發生,這些要素也會努力使成本最小化或收益最大化[8]。需要強調的是,單一目標的優化并不等同于敏捷性;相反,它反映了響應能力高于靈活性和彈性的不平衡。當一個系統的優化依賴于單一目標時,它不一定是高效的,即使這個單一目標是預先確定的不同目標的加權和。然而,我們承認,優化是一個數學概念,可以被調整以實現任何目標。如果目的是平衡響應性、速度、靈活性和彈性,多目標優化是優化理論的一個分支,可以用數學方法處理這個問題,同時優化相互沖突的目標。

敏捷C2的目標是將不利影響最小化,將機會最大化,這與Nassim Taleb的 "凸"系統的想法相似;對波動的有益響應,也就是所謂的抗脆弱性[12]。敏捷性和抗脆弱性有很多相似之處。敏捷性和抗脆弱性都有一個共同的風險觀,即既要減少黑天鵝事件(災難性的、低概率的事件)的負面影響,又要避免在組織內低估其可能性的自滿情緒[8],[12]。其他的相似之處還體現在所列舉的組織如果要成為一個抗脆弱組織應該避免的特性,比如限制使用單目標優化、專業化、預測、標準化和微觀管理[24],[12],[8]。

與敏捷C2一樣,抗脆弱組織關注的是將行動自由(靈活性)最大化的策略和結構。它不鼓勵優化、缺乏多樣性、不容忍風險,關鍵是不切實際的簡化現實模型[8], [24]。然而,抗脆弱性和敏捷C2之間的關鍵區別是 "為了學習和過度補償的目的,有目的地在系統中實施誘導性的小壓力 "或 "非單調性" [25],[26],[12]。這是抗脆弱系統和敏捷或彈性系統之間的關鍵變量。抗脆弱系統積極尋求在其自身系統內注入波動性,以暴露脆弱性。這兩個概念之間的差異是互補的,它將被論證,當兩者結合起來時,可以為人工智能C2系統產生一個強大的功能模型。

C. 抗脆弱性與C2

抗脆弱性是一種系統特性或特征,它不僅能使系統對突如其來的沖擊和壓力具有魯棒性和彈性,而且還能從這些壓力中學習,在下次遇到這些壓力時改進自己[12],[27]。抗脆弱性是脆弱性的反面,因為穩健性和彈性的定義都不'意味著從沖擊中獲得力量'[16],[12]。Taleb指出,抗脆弱性系統'有一種機制,它通過利用而不是遭受隨機事件、不可預測的沖擊、壓力和波動來不斷自我再生'[12]。由此可見,"如果沒有反饋和記憶的機制,抗脆弱性是不可能的"[27]。因此,為了使一個系統走向抗脆弱的系統動力學,它必須能夠從對其系統的沖擊中學習(反饋),并從這種記憶中改善其運作(定向)。必須強調的是,這種反饋可以是內部的,并且是自我產生的,使用內部設計的性能和效果的衡量標準,同時使用內部模擬的外部環境進行情景的角色扮演。作為一個概念,抗脆弱性有以下五個維度[12],[28],[25]:

  1. 從沖擊和傷害中學習的能力:系統有能力從它收到的反饋中儲存其記憶和經驗。

2)利用過度補償進行系統改進:一旦收到反饋,系統就會自我改進,涵蓋未來管理類似沖擊的要求。

  1. 冗余:由于過度補償沖擊的結果,系統將開發多層次的冗余機制。

4)凸性和選擇性("杠鈴戰略"):該系統將以一種使潛在收益最大化但使潛在損失最小化的方式構建自己。換句話說,該系統將是穩健的,但準備運用收益函數。

5)小規模的實驗:承擔風險,以便在犧牲小故障的情況下獲得顯著的性能收益。對系統誘導小的壓力源,以確保非單調性。

將敏捷系統與抗脆弱系統區分開來的三個特征是:注重過度補償,有目的的誘發系統壓力,以及來自波動的記憶/反饋。抗脆弱的系統會改進自己,不僅能夠補償未來類似的壓力,而且能夠補償比所經歷的更嚴酷的沖擊[12]。因此,波動性是非常可取的,因為它允許系統收集信息,并通過從盡可能廣泛的輸入中學習來保護自己的未來。這就產生了對系統進行過度補償適應所需的數據,以管理沖擊。事實上,一個抗脆弱的系統將有目的地嘗試 "風險管理的實驗",以創造過度補償所需的波動性。Taleb明確指出,這包括來自黑天鵝的風險;那些具有高度不可能性和極端影響的事件[25],[28],[8]。黑天鵝對于抗脆弱系統來說具有很高的價值,因為它可以獲得加強系統的稀有信息,只要它們最初是可以生存的[12],因此,復原力和穩健性很重要。抗脆弱系統的設計是為了盡可能地抵御作為本體論現實的混沌,在復雜環境中無法消除或預測[28],[12]。

Alberts[8]討論了敏捷性的概念模型,"環境空間"代表系統的性能水平,取決于各種外部和內部變化。從敏捷C2的角度來看,一個抗脆弱的系統會探索環境空間,以便從盡可能多的生成環境中了解盡可能多的 "可接受的性能區域"。波動性和反饋允許這種探索。有效地使用反饋/記憶,并通過波動性實驗,以便過度補償,從而使敏捷C2系統通過探索越來越多地了解其 "自我模型",通過更多的 "實體可以識別和成功應對的各種情況 "來提高其敏捷性[8] 。此外,該系統對環境、可預期沖擊的背景以及形成環境壓力源的環境約束有了更好的理解。經驗教訓可以采取幾種形式,如經過驗證的作業環境模型、代表環境的人工智能數學函數,以及其他人類/機器產生的數據存儲。這些信息將隨著每次沖擊產生的新信息而更新,使C2系統能夠隨著時間的推移而提高效力。

現在,我們應該清楚,抗脆弱系統并不排除敏捷性作為系統內的一個有利特征;抗脆弱是一個額外的特征--而不是一個替代品[12],[29]。在Taleb對抗脆弱的定義中,Taleb將敏捷性與脆弱性、復原力和抗脆弱從同一范圍中分割出來。為了使A3IC2結構清晰,我們將繼續這樣做。在圖2中看到的是敏捷性和抗脆弱性的覆蓋范圍。兩者的定義分為 "從波動中生存的系統 "和 "系統為生存而進行改進的能力"。這很好地概括了上述系統動力學文獻中的定義[26]。例如,如果沒有系統恢復或適應的能力,就不可能有彈性,也不可能在受到沖擊后恢復到正常水平的性能。不變性也是脆弱的,因為所有系統的功能都來自于無常性;沒有變化,系統最終會失敗[30]。敏捷性是抗脆弱性的助推器,因為對反饋的有效過度補償需要一個敏捷的組織;反之亦然,敏捷的C2需要過度補償來主動創新,并從操作環境的變化中建立復原力。

圖2. 敏捷和抗脆弱范圍[8],[12]。

與彈性和穩健的系統相比,敏捷性與抗脆弱性相結合的好處是對沖擊的響應要好得多[22]。Taleb指出,脆弱性在數學上被定義為 "對有害壓力的加速敏感性:這種反應被繪制成一條凹形曲線,在數學上最終導致隨機事件帶來的傷害多于收益"。一個脆弱的系統將在極端的波動下崩潰,因為它沒有否定凹形響應的屬性。由此可見,抗脆弱性的動力學產生了 "凸型響應,導致更多的利益而不是傷害"[12]。因此,一個有彈性或堅固的系統處于脆弱和抗脆弱之間的中間位置。一個穩健的或有彈性的系統既不會從波動中得到什么,也不會失去什么。抗脆弱性有一些元素,使它不僅能在沖擊后恢復正常功能,而且能從壓力源中學習,以便進行過度補償。因此,要獲得一個抗脆弱和敏捷的C2系統,需要具備表1中所列的以下要素。

從表一中可以看出,這種組合能夠發揮兩種方法的優勢。最下面的三行是抗脆弱性要素,前三行是敏捷C2要素,而中間一行是兩者的必需要素。尋求創新的解決方案以消除脆弱性和提高敏捷性是兩者都需要的過度補償。記憶/反饋、可選擇性和對創新能力的補充,是將敏捷C2與A3IC2分開的新元素。一個C2系統如何實際發展這些元素,需要人工智能、混沌工程和具體組織戰略的交集;這是下一節的主題。

表1. A3ic2系統的要素[8],[12],[26],[22] 。

III. 人工智能和抗脆弱的C2系統工程

在C2系統中實施抗脆弱性需要利用和積累有關系統性能的反饋;最容易實現的是將數據收集作為在系統中保留記憶和學習的永久方法。這允許創建抗脆弱的反饋回路,使其能夠使用過度補償[26],[22]。Jones [31] 將抗脆弱機器描述為一種能夠適應意外環境的機器,因為它的腳本隨著時間的推移在決策、采取行動和觀察結果的過程中變得更加復雜。這種機器必須從它的環境中學習,并適應那些 "在設計時沒有預想過的 "變化[31]。換句話說,要做到真正的抗脆弱,系統所面臨的情景必須是新的,但也要熟悉到可以從以前的經驗中概括或抽象出來,創造出新的知識。機器通過與環境或感知數據的互動,從其經驗中更新其內部狀態的這一過程被稱為 "機器學習"(ML),是人工智能的一個分支。因此,這項技術是在系統內實現抗脆弱動態的基礎[31]。

文獻中對人工智能的定義還沒有達成共識,但為了本文的目的,人工智能被定義為 "為計算機提供認知技能和能力的算法,用于感知和決策"[32]。建立人工智能系統的方法各不相同。傳統的方法是通過 "專家系統 "或 "手工制作的知識",即通過人工編碼并咨詢專家來創建算法[33],[34]。然而,由于模型是手工更新的,這些系統對于不斷變化的環境來說通常是非常脆弱的。ML提供了一種更新系統知識的替代方法,可以從系統直接接收的數據中獲得,也可以通過與環境的互動獲得。先進的ML模型,如深度學習,依賴于大型數據集和專門的算法來學習結構化(表格)和非結構化(圖片、文件)數據中的特定模式;允許創建一個系統的復雜數學表示/模型。這種模型可用于對新數據進行預測,或在以前未見過的情況下采取行動。由于從環境本身的觀察中收集到的數據集的多維模式,人工智能模型在面對復雜的環境時可以表現得更加準確[33]。人工智能有望減少人類決策的許多限制,如注意力集中、有限的記憶、回憶和信息處理[35]。

ML方法試圖在功能上接近空間內的高維拓撲結構[4]。數據源系統通過傳感器提供拓撲結構,而ML算法試圖通過訓練學習這個拓撲結構,然后驗證其性能(即準確性)。當一個新的數據點被提交給受過訓練的人工智能時,它就會被放在這個相同的配置空間中,根據算法形成的近似值,它將對新的數據點進行預測。作為一個例子,圖3是一個ML分類算法的低維結果。它有四個標簽,代表對敵人當前行為的預測,每個標簽都是由人工智能設計師根據以前對數據的理解而指定的。當收到一個新的數據點并在這個狀態空間內進行評估時,該數據點可能被分配到最接近的群組。如果與數據點的歐幾里得距離最接近紅色集群,那么人工智能就會輸出一個 "可能的攻擊 "作為預測,可能會有一個從與紅點的距離與其他集群的距離相比得出的可能性。

圖3. 高度簡化的狀態空間與由ML聚類算法形成的拓撲結構

因此,人工智能是敏捷C2系統的一個有利工具,從根本上可以還原為形成這些適應性的復雜數學函數來模擬一個動態和變化環境的效用。有人認為,這些模型將為大多數C2任務提供比人類更高的精確度,并且盡管超復雜,也能提供快速和值得信賴的自動化[5],[1],[2]。通過精確和適應性的數學函數來取代OODA環路中的每個階段,可以實現卓越的感知和學習,并延伸到快速和卓越的決策[3],[36],[4],[7],[6]。下面將討論這樣做所帶來的風險。

A.脆弱性風險

人工智能伴隨著新形式的風險,需要加以管理。對C2系統影響最大的現象是戰爭的爆發。如果錯過了常規國家間沖突的爆發(一個非常罕見的事件),可能會導致災難性的突然襲擊。事實上,對手將積極尋求一種策略,對C2系統產生盡可能大的沖擊[16]。在這種情況下產生的問題是,通過人工智能算法實現C2決策自動化的好處是否值得承擔災難性失敗的風險?如果準備在人工智能預測有99%的信心,而1%的機會可能導致不可逆轉的戰略后果的情況下,自動做出提供致命武力(或不提供)的決定,那么C2的性能是否得到全面改善?對于C2來說,戰略決策失誤的后果可能是如此的極端,以至于會導致其自身的毀滅,這就需要一個抗脆弱的戰略,作為對抗黑天鵝事件的必要條件。

99%置信度的人工智能預測之所以會導致失敗,是因為在面對動態復雜系統時,人工智能會受到所謂的 "柏拉圖式折疊 "的困擾。柏拉圖式折疊描述了這樣一種情況:復雜環境的模型 "拓撲結構 "或 "狀態空間 "由于 "為了隱藏復雜性 "而省略細節,本質上是錯誤的,或者說是脆弱的[12],[29],[34],[4]。當復雜性被不明智地隱藏時,人工智能所操作的抽象水平比它應該操作的適當抽象水平更簡單。其結果是人工智能狀態空間中沒有體現的突發現象,或者無法區分需要不同決策的不同環境。這些變量可能是隱藏的強化反饋回路,可能導致黑天鵝現象,往往會產生災難性的影響[12],[13],[22],[37],[4]。這給C2操作環境中的自動決策帶來了風險。更糟糕的是,即使人工智能模型正在從環境中學習,如果它不能 "跟上 "拓撲結構的變化,隨著時間的推移發展出更多的隱藏變量,它也會變得很脆弱[29],[38]。忽視或低估這種不確定性影響的模型,作為他們試圖模仿的復雜環境的本體事實,將產生越來越多的脆弱程度,與模型失敗的后果一致[12],[28],[4]。

快速更新一個模型,以防止與人工智能對 "開放 "和復雜系統的理解有關的 "漂移"。Florio[38]認為,通過定期的訓練更新和足夠的獨特數據進行訓練,一個非常復雜的模型/函數可以隨著時間的推移保持對非線性系統的接近。這種方法通常被稱為 "ML管道 "或ML開發過程[33],是一種循環技術,其中一個ML模型正在運行并預測環境,而另一個正在被訓練。環境的變化只會導致新的數據供算法自我更新,改善C2系統的模型庫,以便在其活動適應環境時加以利用。模型的更新和替換速度將對模型準確反映復雜環境的保真度產生相應的影響[38]。

然而,模型快速更新并不能解決決策型人工智能的柏拉圖式折疊問題。一個ML模型可以快速更新一個持續不準確的模型,并且完全沒有意識到數據的退化[4]。人工智能可以迅速形成一個C2系統,對它所訓練的事件具有優化和卓越的決策,其代價是對尚未發生或被系統感知的事件具有脆弱性[4]。然而,如上所述,C2系統認為其最優先的正是這些尚未發生的罕見事件。

人工智能支持的C2的系統故障點是,由于作戰環境的拓撲結構和表征拓撲結構之間的不匹配,人工智能模型做出的快速決定有助于控制的崩潰,導致無助或混亂[4],[16]。作為一個例子,Wallace[4]討論了最近股票市場的 "閃電崩盤"(黑天鵝),認為它類似于C2系統中脆弱的人工智能應該產生的結果。這些崩潰的發生是由于自動化交易算法過于迅速而無法進行人工干預,其根本原因非常復雜,至今仍不為人知。對于C2來說,相當于兩個具有高度自主的人工智能決策的對立軍隊,導致了高強度戰爭的閃電式崩潰;所有這些都來自于以毫秒為單位的穩定性喪失[4]。

B.C2SIM和AI

針對人工智能遺漏罕見與災難性事件的風險,提議的解決方案是通過使用合成(人工構建)數據。合成數據是唯一現實的方法,使ML算法能夠從C2系統高度關注的現象數據中進行訓練,例如C2系統被設計為有效決策的未來常規高強度戰爭[39],[7],[5]。未來的戰爭沒有數據,而過去的戰爭是否有用也是可以爭論的。合成數據的生成過程分為三類[40]。

1)人工開發,通過手工建立的數據集進行策劃。

2)自動調整真實輸入,產生類似的輸入,幫助算法學習更廣泛的規則。

3)通過建模和模擬(M&S)以及仿真自動進行。

使用哪種程序完全取決于人工智能的目的和它試圖進行預測的環境稀缺性。如果人工智能要取代指揮官的決策能力,那么極有可能需要將人工創建的來自情報的數據與戰場模擬模型相結合,來訓練一個人工智能系統。這種方法將C2SIM和人工智能等概念整合在一起,可能使用強化學習算法[5],[41]。

然而,這種方法仍然存在風險。創建一個高度詳細的操作環境模型不僅很難驗證,而且很可能產生欺騙性的結果,因為人工智能將缺乏在不確定性下做出有效決策所需的保真度[37],[5],[41]。

然而,這種方法仍然存在風險。創建一個高度詳細的作戰環境模型不僅很難驗證,而且很可能產生欺騙性的結果,因為人工智能將缺乏在不確定性下做出有效決策所需的保真度[37],[5],[41]。Davis[37]將此描述為 "場景空間 "的減少,意味著人工智能被訓練的選項或靈活性變得狹窄。一個在C2系統中為指揮官制定行動方案的人工智能系統,如果針對特定場景進行了優化,那么作為一個反應式系統,它在高度特定的場景空間中只會有可靠的表現。對模型內變量之間的因果關系或非因果關系的假設,將不可避免地導致脆弱性[37]。

另一方面,一個高度抽象的模型,為一個"戰略層面"的推薦系統而忽略了作戰環境的大部分細節,有其自身的問題。合成數據的使用將與創造它的軍事文化密不可分。對敵人以及他們將如何進行下一場戰爭的假設,將被固化在人工智能所訓練的數據中[4]。如果敵人決定 "改變游戲規則",在戰略層面采取人工智能從未接受過的不對稱行動,任何新的敵人戰略或戰術都不會在發生之初就被準確預測[41]。相反,它們會被預測為完全不同的東西。在戰略層面上,比如戰區,與預測敵人行為相關的變量會有很長的統計 "尾巴",而在人工智能模型中卻沒有體現[4]。這可能會產生嚴重的戰略后果,導致系統不適合戰爭的 "深度不確定性 "或波動性[37],[41]。Zhang[41]指出,將人工智能'用于涉及戰略決策的應用,比如那些模擬甚至沒有物理學作為依托的應用,現實世界和模擬之間的對應關系可能非常小,以至于經過訓練的算法實際上是無用的'。由此可見,人工智能要想保持有用,就必須從對應于C2函數的數據中進行訓練,而C2函數是充分人為復雜的,而不是天生自然復雜的。顯然,為了使人工智能的使用不成為脆弱的風險,需要在對人工智能的信任、預測失敗的風險以及特定人工智能給C2功能帶來的響應能力的好處之間取得平衡。

圖4. 人工智能集成和增長的限制

與人工智能支持的C2系統相關的脆弱性風險,反映了上文圖4中顯示的增長限制的原型。決策性能通過復雜功能的自動化得到改善,從而提高了C2的響應能力。然而,人工智能整合到更復雜的功能(如決策),導致更多的風險被轉移到人工智能模型的準確性和與操作環境相比的差異。這可能會導致低概率但高后果的災難性事件的預測失敗。人工智能取代的需求和判斷來理解復雜環境的功能越多,系統就會變得越脆弱。黑天鵝事件在數學上是不可預測的,對系統也是有影響的。因此,C2系統暴露在重大沖擊下的風險越大,它就越有可能最終遭受災難性的失敗[12],[13],[42],[22]。

IV. 從AI的脆弱性到抗脆弱性

將人工智能整合到敏捷C2系統而不增加脆弱性的方法將需要仔細考慮上文表一中討論的抗脆弱性要素。具體來說,C2系統將需要確保對來自作戰環境的沖擊作出凸形響應。這可以通過兩種方法實現:

1)將人工智能的功能分配到C2系統中,使災難性故障的風險最小化,但使系統的收益最大化。

2)使用實驗來發現系統的脆弱性,產生創新和混沌;這使得過度補償和人工智能模型的不一致。

A. 功能分配

一個AI使能系統需要在其作為敏捷性工具與其存在的脆弱性風險(如果AI不能在復雜環境的極端波動下執行)之間取得平衡。人工智能并不適合所有的決策任務[43],[32],[36]。一個抗脆弱系統將需要特定的邊界,將在戰略/作戰層面上將具有黑天鵝高風險的C2決策功能與其他可以自動化的低風險復雜C2功能分開。明確說明人工智能在C2系統中負責哪些任務,對于避免脆弱性和整體上有利于系統至關重要。

由于C2系統是社會技術性的,那些為C2功能分配使用人工智能的人需要確保對人的替換不會對系統的性能產生風險。Abbass[32],討論了在這樣的系統中分配人工智能的幾種方法。一種 "靜態分配",即在C2系統中賦予人工智能的功能并不改變,可能不適合動態環境。具體的C2功能的需求將根據情況發生變化,特別是考慮到戰爭中對響應能力的需求,這可能需要快速變換功能分配[36]。例如,針對來襲的大規模超音速導彈防御場景將更傾向于速度而不是戰略環境。在這種情況下,什么都不做的后果是如此之大,以至于錯誤的風險可能值得AI完全控制。另一方面,批準超音速攻擊的決定將需要比速度更多的決策背景。因此,一種適應性的方法,或自動分配邏輯(AAL)是必要的[32]。

在戰略決策層面,關鍵事件邏輯最適合于評估脆弱性與自動化的好處。根據對響應能力的需求重要性,以及失敗的后果有多高或多低,C2功能將需要有人類或AI控制的適應性邏輯。圖5展示了一個與C2任務大類相關的潛在后果的例子,從感知到戰區級決策。

圖5. AI使能C2的脆弱性范圍

對于專注于感知型人工智能的系統來說,風險較低,因為來自人類決策者的數據適用于額外的背景[36]。感知型人工智能很可能需要多個專門的算法模塊來解析特定類別的數據,如視頻資料、圖片、文件和其他[33]。因此,這也是一個魯棒的算法系統,如果其中一個算法模塊不能感知關鍵信息,那么這個算法系統其他算法模塊也能捕捉到此信息。當然,風險仍然存在,這將需要通過理解決策中的 "風險轉移 "已經傳遞給人工智能系統的輸入和感知能力來進行評估[32]。

然而,如上所述,人工智能決策與戰爭期間高失敗風險相關聯。失敗的影響將取決于人工智能是支持戰術層面、戰役層面還是戰略層面;與戰略層面的單一失敗相比,戰術層面的單一失敗后果較小;不過,人們必須考慮到從戰術層面到戰略層面可能產生連帶效應。對于抗脆弱系統,Taleb[12]指出,人們應該避免依賴具有高度后果性輸出的系統,因為許多較小的、后果性較小的系統是不太脆弱的。當然,即使戰略層面的人工智能決策者的風險是通過人在環結構來管理的,由于建議依靠人工智能感知器,以及預測對人類決策者的額外影響,風險仍然存在。例如,如果C2系統使用受信任的非人類智能合作者(NIC)來推薦戰略層面的決策,可能會導致軍事指揮官在獲得99%的人工智能預測的情況下增加風險。這是因為NIC會表現得像一個預測者,有證據表明,這可能會增加決策者的風險承擔[12],[44],[45],[16]。

一旦確定了失敗的后果,就需要為每個場景分配適應性人工智能。這是一個 "指揮概念 "的C2功能;在為特定場景分配適應性人工智能功能時,需要考慮指揮官的意圖和國家的戰略目標。這些場景可以通過傳統的兵棋推演方法進行開發和測試,但也可以從創新和混沌生成的抗脆弱性過程中產生。適應性人工智能將需要持續測試脆弱性,以防止凹形響應;這是下一節的主題。

B. 創新和混沌的產生

為了將人工智能作為一種敏捷和抗脆弱的工具,反饋/記憶、小規模實驗和過度補償等元素需要在一個人工智能支持的C2系統結構中結合起來。這可以通過有目的地在系統中注入波動性來實現,并延伸到支持特定C2流程的人工智能功能。通過使用波動性,人工智能系統將發展出一個更廣泛/抽象的決策空間,增加其對更多種類沖擊的通用性。

對于合成數據的生成,可以將一致程度的波動和混沌應用于人工智能所訓練的數據。例如,可以在人工智能系統上測試極端情況,而不僅僅是預期的極端情況。C2組織內的 "混沌小組 "可以嘗試使用極端或極不可能的情況,來暴露人工智能模型的預測失敗。通過暴露失敗,人工智能開發團隊可以確定失敗發生的原因,探索人工智能采取什么行動會更好,然后嘗試重新訓練模型以增加其變異性,以處理未來類似的極端情況。因此,這個過程通過與外界復雜環境相比對自身的理解,加強了系統的能力[12]。這有可能也是由人工智能場景生成器實現的,主要目的是對開發導致人工智能C2系統失敗的場景進行獎勵。無論具體的方法是什么,目的是讓系統的壓力和失敗允許C2系統內的創新能力和發現發生,從而導致過度補償。

這些沖擊不僅僅是對人工智能本身的要求,也是對C2系統整體的要求。應該尋求一種分層的方法,作為一種穩健性的形式[12]。這樣做的一種方法可以在計算紅隊和混沌工程實踐中找到。計算紅隊[46]提供了人工智能所需的計算構件,以設計壓力源來挑戰自己和它所處的環境,并發展新的模型和戰術。類似地,混沌工程通過對計算機網絡或系統中的特定元素注入壓力或故意失敗的實驗來防止組織內部的脆弱性[30]。混沌工程的目的是確保C2 IT系統的所有功能的 "可用性",盡管環境中存在波動。對抗脆弱C2的用處是顯而易見的,因為其混沌工程實驗允許產生作戰環境效應,如網絡攻擊,作為極端波動的輸入。C2信息技術和通信網絡被視為一個單一的復雜系統,通過觀察其在真實世界的輸入或誘發故障后的行為,可以更好地理解它[30]。

將混沌工程、計算紅隊和人工智能結合起來,可以實現復雜的故障狀態生成,以實現抗脆弱性,但C2系統要有能力從自我造成的壓力中學習,以實現過度補償,需要組織文化上的巨大變化。在圖6中看到的是A3IC2系統的系統。在C2組織內建立這樣一個系統,需要改變組織的心智模式、組織規劃、C2結構,以及改變對人類操作人員的培訓方式,以支持抗脆弱的C2系統。A3IC2應該只關注C2操作的系統;作為一個抗脆弱系統成功進行C2的過程。對于一個C2組織來說,作為一個社會技術系統,它需要采取一種整體的方法,結構、系統、流程和文化都具有抗脆弱的特性,以便在壓力和沖擊下生存[25]。

圖6. 抗脆弱C2作為一個體系系統

V. 敏捷抗脆弱的指揮和控制(A3IC2)

通過將抗脆弱性概念與Boyd、Brehmer和Alberts[14]、[21]、[8]開發的功能C2模型相結合,可以開發出一個通過抗脆弱性動態提高C2系統有效性的新框架。這在下面的圖7中可以看到,說明了圖1中傳統C2運行周期與A3IC2結構之間的區別。

圖7描述了由Brehmer創建的相同的DOODA環路,并增加了對所實施的模型的積累的反饋。模型的建立作為系統的方法,在操作過程中從與復雜環境的互動中學習。從所做的決定、計劃、感覺活動和軍事行動的結果中得到的反饋的綜合,都為AI模型/功能提供了背景。開發的模型取決于具體的C2系統。對于一個空中機動/后勤C2單位來說,模型將反映諸如優先權、飛機選擇、選擇的路線和貨物驗證細節等決定。對于一個人工智能C2推薦系統的COA開發,反饋將代表變量,如敵人的位置,藍色的位置,單位的數量,以及許多其他。這些模型是在日常行動中通過與C2決策支持系統的互動和/或通過C2SIM建立的。

圖7. 抗脆弱的動態OODA循環

如上所述,"混沌生成 "功能是迫使系統從反饋中學到的東西進行過度補償的方法。它同時適用于社會技術系統中的人和機器。混沌生成是C2 "紅隊",它有目的地給系統施加壓力,以加強決策周期,提高敏捷性,減少脆弱性。對于人工智能支持的C2系統,混沌生成器包括基于先前經驗的合成數據生成過程,但對其進行修改以加強系統。因此,人工智能將在具有超出先前經驗的更多極端變量的任務中得到訓練和改進;導致過度補償。這些模型在性質上可能是極端的,并應盡可能多地覆蓋可能性空間。如果環境發生重大變化,或出現黑天鵝,可能性空間只會增加,允許系統改進并產生進一步的模型。C2系統的波動性越大,產生的模型就越多,以進行補償。

以前的討論假定,模型和數據需要提前建立,并預期未來結果。最近的趨勢是引入了形成、重新塑造和校準的模型。影子機器的概念[46]有一個專門的控制邏輯,隨著背景的展開學習模型。然而,這些概念假設來自實際環境的實時數據輸入,以持續測量偏差并進行相應的調整。這種方法仍然存在挑戰。關于自我的數據可能比關于敵人的數據多出幾個數量級。這種可供人工智能即時學習模型的數據不平衡,在人工智能界有其自身的挑戰。

VI. 結論

將人工智能整合到C2中,只有通過對其效果的整體理解來實施,才能提高系統的性能。如果一個由人工智能支持的C2功能有可能導致它所保衛的國家戰略目標無法實現,那么就需要認真考慮該人工智能的功效問題。當C2功能被分配給人工智能以避免脆弱性時,那么反饋和過度補償的使用有可能促進對系統波動的凸形響應。使用有目的的混沌生成將有助于C2系統能夠了解其自身的弱點,以便改進。使用A3IC2作為人工智能支持的C2戰略,可以確保人工智能仍然是建立一個抗脆弱系統的工具。最大限度地減少災難性失敗的可能性,同時最大限度地利用系統的好處,這將有助于在極端動蕩的戰爭中生存和制勝。

雖然本文的重點是人工智能所面臨的風險,但當新形勢展開時,人類指揮官仍將面臨類似的問題,特別是當軍事歷史的教訓可能阻礙他們對這些新形勢的思考能力時。如果敵人依靠人工智能產生接近光速的效果,未來的沖突場景將更具挑戰性。這就需要人類-人工智能的人機協作,利用各自的優勢,過度補償各自的弱點,以相關的速度產生效果。

付費5元查看完整內容

摘要

任務指揮是一種分散指揮和控制的概念,它試圖將戰爭的克勞塞維茨的混亂性質作為一種優勢,通過允許下屬軍官在其指揮官的意圖范圍內行使主動權,并利用他們對其部署區域的更好的態勢感知,使采用它的一方獲得決策優勢。任務指揮,作為一種分散的軍事行動方法,被大多數西方武裝部隊作為一種理論并采用。然而,信息技術已經發展到這樣的程度,今天的指揮官們擁有先進的指揮和控制系統,與不遠的過去相比,這些系統使他們對局勢的認識和通信能力有了極大的提高。因此,克勞塞維茨的 "戰爭迷霧 "和 "摩擦 "概念受到了質疑,相應地,任務指揮也受到了質疑。

本文探討了在現代信息時代的戰爭環境中,任務指揮是否仍然是一個相關的指揮和控制概念。在此背景下,我不僅考察了該方法在戰爭中的有用性,從過去到今天,而且還考慮到了該舉措對培養有能力和有效力的軍事領導人的重要性。

本文表明,現代指揮和控制系統的能力使集中指揮不僅成為可能,而且更加有效。然而,戰爭仍然是一種混亂的現象。這類系統的冗余和彈性至關重要,在出現故障時,下屬指揮官必須有能力單獨行動。

引言

任務指揮(Auftragstaktik)被許多學者和軍官認為是德國軍事藝術在現代戰爭中的最重要貢獻。至少在理論上,任務指揮受到北約大多數武裝力量的贊揚和提倡,他們強調地方指揮官在戰場上行使分散控制和主動權的重要性,以戰勝戰爭的不確定性并取得軍事行動的成功。

同時,大眾媒體和社會媒體的發展大大增加了軍事行動對社會的影響,至少在民主國家。今天,由于信息的快速無序流動和社交媒體的影響,即使是小的戰術行動也會對公眾輿論產生不成比例的影響。因此,政治和軍事領導人試圖對軍事行動進行嚴格的集中控制,以避免發展出不必要的情況。在這種情況下,任務指揮作為一個概念很難被接受和實施,因為它需要將權力和責任交給他人。

此外,目前的信息時代技術導致了現代C2系統的急劇進步,它為高級指揮官提供了前所未有的實時通信和態勢感知能力,聲稱要擊敗過去主導戰場的不確定性。由于這些系統的存在,越來越多的人傾向于由高層總部集中控制行動。因此,任務指揮部很少被充分應用,尤其是在戰術層面以上。雖然它作為一種方法存在于理論中,但作戰命令往往越來越詳細,而各級指揮部之間不斷的實時溝通,更減少了下級指揮官的主動性空間。

我將在本文中研究的問題是,在現代作戰環境中是否還有任務指揮的空間,或者換一種說法。信息時代和C2系統的發展是否已經使任務指揮部過時了?使其如此有效的條件是否已經不復存在,其程度如何?

圖1:C2的示意圖
付費5元查看完整內容

摘要

當代和新出現的安全威脅以及從最近的軍事行動中吸取的教訓已經證明,為了在傳統的物理領域(陸地、空中、海上、太空)實現作戰目標,確保在非物理領域的主導地位至關重要,即網絡空間、電磁環境(EME)和信息環境。因此,除了物理作戰領域之外,在非物理領域取得優勢的能力對于實現戰役的軍事和非軍事目標具有決定性意義。

作戰人員將面臨消除沖突,協作,同步和整合行動的挑戰,以實現并發揮協同效應以應對多種威脅,其中可能還包括來自每個作戰領域對手的武裝沖突閾值以下的行動,包括非物質的。

本文探討了作戰環境聯合情報準備 (JIPOE) 作為支持聯合作戰規劃、執行和評估的主要工具的作用和意義,從而有助于多域作戰 (MDO) 的同步和協調。在這方面,基于政治、軍事、經濟、信息、基礎設施-物理、時間(PMESII-PT)方法,不可能將對當代作戰環境(OE)的分析局限于物理領域及其與非物理領域的關系。相反,作者們相信,確定一種合適的方法來關注在非物理領域單獨或聯合進行的活動影響,它們在PMESII-PT所有領域的相互融合和實際操作領域的相關性,將大大有助于友軍識別和評估對手的重心(COG)、關鍵弱點、意圖和行動路線(COAs)的能力,包括各自的指標。JIPOE將為聯合部隊指揮官(JFC)提供OE的整體視圖,將與戰術層面密切合作、共享和開發,通過結合不同領域的能力,應該能夠壓倒對手的部隊。這種集中控制和分散執行的方法將有助于在作戰和戰術層面之間產生協同效應。

引言

未來的軍事行動將以物理和非物理層面的融合為特征,眾多不同的行為者將在其中運作。任何部隊都需要適應極其復雜的作戰環境和大量的作戰變量,需要適應性地使用一系列武器系統來產生致命和非致命的效果。因此,除了物理作戰領域(即陸地、空中、海上和太空),在非物理領域(網絡空間、EME、信息環境)取得優勢的能力將對實現戰役的軍事和非軍事目標具有決定性意義[1, p.280]。

OE是影響能力運用和影響指揮官決策的條件、環境和影響因素的綜合體[2, p.3]。了解OE的因素和條件不僅是所有計劃活動,特別是行動設計的關鍵前提,也是友軍保護和許多其他相關任務的關鍵前提[3, p.41]。

JIPOE代表了一種系統的方法,用于分析有關OE和對手的信息。它可以應用于全部的軍事行動。指揮官和參謀部在危機背景、根本原因和具體動態方面,對戰區形成共同的理解和整體的看法。它使指揮官能夠直觀地看到問題的程度,以及他們如何塑造和改變OE,使之成為他們的優勢,這將為他們的決策提供信息[2, p.3-5]。

JIPOE產品極大地促進了聯合(即作戰)層面的軍事行動的規劃和執行。現代軍隊,特別是北大西洋公約組織(NATO)內的軍隊,幾十年來在討論跨領域(陸、海、空)的協調行動時一直使用聯合這一術語。如今,由于全球安全環境的巨大變化以及俄羅斯和中國日益增長的野心,為了挑戰潛在的同行對手,需要采取多領域的方法。在傳統的戰爭門檻下,盟國及其合作伙伴已經受到了跨越物理和非物理領域的持續攻擊[4, p.2]。MDO一詞不同于聯合行動,因為它旨在關注跨越多個領域的行動,而不考慮服務的歸屬,不一定是由多個部門進行的行動[5,p.49]。

圖1:支持聯合行動的當前JIPOE流程的可視化。

圖2:提出支持MDO的JIPOE過程方案。

付費5元查看完整內容
北京阿比特科技有限公司