軍隊越來越多地將人工智能(AI)技術用于決策支持和作戰行動。人工智能不會取代人類,但人員與人工智能技術的互動會更加頻繁。
人機交互實踐有可能深刻改變戰爭中人的能動性(即做出選擇和采取行動的能力)的質量。具體來說,它們在人類和機器之間引入了分布式代理。
分布式代理的形式將在一定范圍內形成,為人類或機器代理保留更多空間。這種做法發生在多個地點,使用多個聯網系統。
要解釋分布式代理現象,就不能把人機互動的挑戰看作是可以直接解決的問題。相反,需要認識到分布式代理提出了基本的操作、倫理規范和法律挑戰。
人工智能技術在圍繞目標選擇的軍事決策過程中的應用似乎越來越廣泛。起初,人工智能在軍事領域的應用主要與武器系統有關,通常被稱為自主武器系統(AWS),可以在沒有進一步人工干預的情況下識別、跟蹤和攻擊目標(紅十字國際委員會 [ICRC] 2021)。世界各國軍隊已在使用武器系統,包括一些閑逛彈藥,這些系統采用人工智能技術來促進目標識別,通常依賴于計算機視覺技術(Boulanin 和 Verbruggen,2017 年;Bode 和 Watts,2023 年)。雖然通常是在人類批準的情況下操作,但閑逛彈藥似乎有可能在沒有人類干預的情況下動態使用武力。事實上,俄羅斯在烏克蘭戰爭中的各種報告都指出,烏克蘭軍隊使用的閑散彈藥在作戰的最后階段無需人類批準即可釋放武力(Hambling,2023 年,2024 年)。這些事態發展堅定地強調了人們長期以來日益增長的擔憂,即在使用基于人工智能的系統時,人類在使用武力決策中所起的作用正在逐漸減弱。
然而,武器系統只是人工智能在軍事領域眾多應用領域中的一個。人工智能技術通常被認為能提高對大量數據的有效和快速分析,使其成為一系列與不同風險程度相關的軍事決策任務的理想選擇,如后勤、征兵、情報和目標選擇(Grand-Clément,2023 年)。在軍事領域,這類系統通常被稱為基于人工智能的決策支持系統(DSS),“協助指揮鏈中不同層級的決策者解決半結構化和非結構化的決策任務”。
軍方正在逐步采用人工智能技術,原因有幾個,其中包括人員問題。人們常常認為,僅靠人的能力無法審查獲取戰場感知所需的大量數據。此外,許多國家的軍隊,如日本和英國,在招募和留住人才方面都很困難,因此越來越多地依賴人工智能來解決人才短缺問題。將人工智能技術融入軍事決策并不是簡單地取代軍事人員。不過,隨著這些技術的發展,它們有可能通過將各種人工智能技術用于描述性、預測性和規范性目的而改變許多軍事人員的工作方式。本政策簡報初步反思和評估了與人工智能技術的互動可能會如何改變人類在軍事領域的代理權行使,即決策和行動的能力。人機互動的實例塑造了人類與人工智能之間的分布式代理。這種分布式代理不能通過將人類和機器視為孤立的單獨實體來理解,因為它是在互動的情況下產生的。
本政策簡報分五個部分研究這一現象: 首先,它研究了人類控制與人類代理之間的關系,認為反思代理而不是控制,可以更全面地研究在軍事領域使用人工智能技術的意義。其次,它對軍方如何談論人機協作和人機系統整合進行了簡要的實證概述。第三,概述了將代理視為分布式代理的含義。第四,它考慮了這種發展可能帶來的作戰、倫理規范和法律后果。第五,它為參與軍事領域人工智能辯論的利益相關者提出了切實可行的前進方向。
關于術語的說明:本簡報承認人工智能是一個總括術語,用于描述 “創造出比程序所設定的功能更強的機器或事物 ”的總體努力。所選用的 “人工智能技術 ”一詞強調了人工智能與社會融合的復雜性、偶然性和可變性,從而也尋求與人工智能的問題炒作保持距離。人工智能技術依賴于各種技術,如計算機視覺、機器學習、語音識別和自然語言處理。在軍事領域,自主性的概念先于人工智能技術,但也與之相關。自主通常是指系統無需人工干預即可執行的功能,如情報分析、機動性或瞄準。本簡報的重點是人工智能技術,可以從技術復雜性不斷增加的角度來理解人工智能技術。此外,軍事領域的人機互動通常被認為既涉及機器人系統,也涉及基于軟件的系統。
深度學習是人工智能的一個子類別,在自動識別水下傳感器數據中的各種目標方面具有巨大潛力。這項工作的目標是支持未來使用深度學習的水下戰爭領域目標自動識別系統的發展,首先要展示什么是可能的,其次要讓研究人員深入了解如何通過建議和經驗教訓來構建這種定制系統。目標受眾是水下戰爭領域的研究人員,他們或是深度學習的新手,或是水下傳感器數據的新手。深度學習的基礎知識可以從許多在線課程中獲得。本參考文檔重點介紹如何應用這些工具識別目標,該領域不同于機器視覺和自然語言處理的常規應用。這些水下戰爭自動目標識別系統處理的不是標準圖像或文本,而是來自聲學傳感器的數據。這些小型定制神經網絡不是下載標準的現成網絡,利用充足的計算資源從大型訓練數據集中學習,而是設計用于從相對較小的訓練數據集中學習,而且往往受到硬件的計算限制。這項工作概述了定制神經網絡在各種水下戰爭自動目標識別任務中的應用,包括側視聲納中的類雷物體、寬帶聲納散射數據中的未爆彈藥、被動聲學數據中的水面艦艇以及主動聲納中的水下目標。此外,還分享了關于高效神經網絡設計和使用來自水下傳感器的小型訓練數據集的建議。
先進的自動目標識別系統可以快速自動分析傳入的傳感器數據,并對感興趣的目標進行探測、分類和定位,從而提高水下作戰能力。這有助于減少從獵雷到被動聲學監測、魚雷防御和反潛戰等各種應用中操作員的工作量。深度學習是在遠程和無人平臺上進行水下作戰自動目標識別應用的一種特別有前途的方法。越來越多的研究人員希望獲得相關建議,因此編寫了本文檔,以鼓勵和支持深度學習技術在未來自動目標識別系統開發中的應用,從而提高水下作戰領域的防御能力。
在當代威脅環境中,威脅可能在意想不到的時間從意想不到的角度出現。準確辨別戰術意圖的能力對于有效決策至關重要。傳統的威脅識別策略可能不再適用。本文將探討如何利用算法識別威脅的戰術意圖。為此,在模擬實驗中比較了人類和算法在識別敵對智能體戰術意圖方面的功效。在實驗中,70 名人類參與者和一個算法在一個海軍指揮和控制場景中扮演數據分析師的角色。在該場景中,敵方智能體控制一艘艦艇將攔截多艘友軍艦艇中的一艘。數據分析師的任務是及時識別敵方智能體可能攻擊的目標。我們對識別的正確性和及時性進行了研究。人類參與者的識別準確率為 77%,平均反應時間為 7 秒。算法的準確率達到了 87%,同時受限于人類的反應時間。當人類參與者識別正確時,算法有 89% 的時間表示同意。相反,當人的反應不正確時,算法有 91% 的時間不同意,這表明決策支持系統有機會在這種情況下影響人的決策。這項研究有助于加深我們對復雜作戰環境中的態勢感知和決策支持的理解。
本文介紹了在戰場數字孿生框架內使用貝葉斯優化(BO)、遺傳算法(GA)和強化學習(RL)等先進技術優化軍事行動的綜合方法。研究重點關注三個關鍵領域:防御作戰中的部隊部署、火力支援規劃和下屬單位的任務規劃。在部隊部署方面,BO 用于根據戰場指標優化營的部署,其中湯普森采樣獲取函數和周期核取得了優異的結果。在火力支援規劃中,采用了 GA 來最小化威脅水平和射擊時間,解決了資源有限條件下的資源受限項目調度問題(RCPSP)。最后,為任務規劃開發了一個 RL 模型,該模型結合了多智能體強化學習 (MARL)、圖注意網絡 (GAT) 和層次強化學習 (HRL)。通過模擬戰場場景,RL 模型展示了其生成戰術演習的有效性。這種方法使軍事決策者能夠在復雜環境中提高行動的適應性和效率。研究結果強調了這些優化技術在支持軍事指揮和控制系統實現戰術優勢方面的潛力。
戰場數字孿生是一個數字復制品,代表了真實戰場環境的組成部分和行為特征。它可以通過接收來自實際戰場的實時或接近實時的戰場、敵方和友軍單位信息,并將其動態反映到數字孿生中,從而對數字孿生模型進行評估和調整。換句話說,模型可以根據真實世界的數據不斷更新,以實現更具適應性的分析。這一概念與深綠的自適應執行相一致,后者也依賴于動態更新的信息。通過這種方式,可以向真實戰場系統提供改進的決策反饋,幫助用戶根據數字孿生模型做出更好的決策,而數字孿生模型是根據實際作戰數據更新的。
本節提出了 “基于戰場數字孿生的作戰行動選擇生成與分析 ”概念,通過各種技術方法,利用戰場數字孿生生成作戰行動選擇。然后對這些選項進行評估、效果比較,并推薦最合適的 COA 選項。基于戰場數字孿生的作戰行動選擇生成和分析的基本概念是,利用戰場數字孿生的預測模擬生成作戰行動選擇,同時考慮若干戰術因素(METT+TC:任務、敵人、地形和天氣、可用部隊和支持、可用時間和民用因素)。然后,可在數字孿生環境中對生成的作戰行動方案進行快速評估。圖 2 展示了這一流程的概念圖。生成和分析 COA 的四個關鍵輸入--威脅分析、相對戰斗力分析結果、戰場信息以及指揮官和參謀部的指導--假定來自其他分析軟件模塊和用戶輸入,從而完成智能決策支持系統。有關鏈接分析軟件模塊的更多信息,請參閱 Shim 等人(2023,2024)。
圖 2:基于戰場數字孿生系統的 COA 生成和分析概念。
可以按照圖 1 中概述的戰術規劃流程生成并詳細說明 COA 選項。然而,如前所述,規劃過程中的許多任務都需要人工干預,而人工智能技術的應用仍然有限。因此,我們將重點放在 COA 生成階段,在研究適用技術的同時,找出可以實現自動化和智能化的方面。本研究介紹了在 COA 生成過程中可實現自動化和智能化的三個概念:確定友軍部隊部署、規劃間接火力支援和規劃部隊戰術任務。友軍部隊部署是指部隊到達戰場后如何安排和使用,而部隊部署則是指如何將部隊轉移到指定的大致位置。我們將貝葉斯優化方法應用于友軍部署優化問題,作為 COA 方案生成的一部分。隨著人工智能技術的快速發展,許多研究都探索了基于最先進機器學習算法的全局優化方法。其中,使用高斯過程的貝葉斯優化法作為一種針對實驗成本較高的黑盒函數的全局優化方法受到了廣泛關注(Brochu,2010 年)。對于炮兵作戰,我們將火力支援調度問題歸結為一個項目調度問題,該問題力求在遵守資源限制的同時,最大限度地減少敵方總威脅和發射時間。將項目調度與資源管理相結合的任務被稱為資源約束項目調度問題(RCPSP)。最后,我們利用強化學習(RL)技術為下屬單位規劃戰術任務,以找到最優行動策略。強化學習已經證明,它是在動態和不確定環境中解決復雜決策問題的有效框架。特別是,我們利用多智能體強化學習(MARL)、分層強化學習(HRL)和圖注意網絡(GAT)的原理,為多個單位有效地學習任務及其相應參數,同時從每個智能體的角度考慮其重要性。
在使用所提出的方法生成一系列作戰行動(COA)選項后,將在戰場數字孿生系統中對這些選項進行模擬評估。然后對模擬結果進行評估,以推薦最合適的 COA 選項。在下一章中,將詳細解釋用于實現所建議的 COA 生成概念的技術方法,并提供全面的實驗評估結果,以突出所建議方法的有效性。
圖 8:強化學習的擬議架構。
隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。
然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。
高層也有同感:聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與 ”制定 “關于通過多邊進程設計、開發和使用人工智能軍事應用的規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。
通過跨地區、跨學科和多方利益相關者的投入,在軍事領域建立一個共享的、堅實的人工智能知識庫。
建立對技術和他人的信任
解讀人工智能系統在軍事領域的開發、測試、部署和使用中的人的因素
了解和解讀軍事領域負責任人工智能的數據實踐
了解人工智能系統的生命周期影響(包括生命周期的終結),在軍事領域推廣負責任的人工智能
了解與人工智能有關的破壞穩定問題的驅動因素、手段、方法和應對措施,包括人工智能系統促成、誘發和倍增的破壞穩定問題
人工智能(AI)有可能在社會、經濟和政策的各個方面帶來變革,包括國防和安全。英國希望成為在民用和商業應用領域推廣人工智能以及負責任地發展國防人工智能的領頭羊。這就要求對與人工智能軍事應用相關的新出現的風險和機遇,以及英國如何與其他國家開展最佳合作以減輕或利用這些風險和機遇,有一個清晰而細致的認識。
2024 年 3 月,英國國防部(MOD)國防人工智能與自主單元(DAU)和外交、聯邦與發展辦公室(FCDO)聯合委托蘭德歐洲公司(RAND Europe)開展一項簡短的范圍界定研究。該研究的目的是初步探討人工智能在軍事上的應用可能在戰略層面產生風險和機遇的方式,因為迄今為止的大部分研究都集中在戰術層面或非軍事主題(如人工智能安全)上。后續工作將更詳細地探討這些問題,為英國在這些問題上的國際參與戰略提供信息。
本技術報告旨在為理解人工智能軍事應用所帶來的戰略風險和機遇設定一個基線。一份獨立的總結報告則側重于為決策者提供高層次的研究結果。
人工智能最好被理解為一套雙重用途的通用技術,以硬件為基礎,但以軟件為核心。與傳統軍事技術不同的是,它們高度民主化,擴散速度極快。創新是由商業用途的私營部門驅動的,而不是由政府或國防部門驅動的。對軍事應用和影響的集體認識正在提高,但起點較低。辯論往往優先考慮某些引人注目的問題,如致命自主武器系統(LAWS)或人工智能(AGI),而忽略了其他議題。它只關注戰術,而忽視戰略;只關注風險,而忽視機遇;或只關注軍事人工智能的直接后果,而忽視從長遠來看可能影響最大的二階和三階效應。
為了解決這個問題,國防部和國防和外交、聯邦與發展辦公室(FCDO)委托進行這項研究,以制定一個概念框架,規劃軍事人工智能帶來的戰略風險和機遇。
圖 0.1 框架:人工智能軍事應用的戰略風險與機遇
本報告詳細探討了許多風險和機遇,其中最緊迫的包括
信息操縱,如人工智能深度偽造,這不僅會引發政治、經濟和社會問題,還會在危機時刻影響軍事決策。
賦予非國家行為者挑戰國家軍隊主導地位的不對稱能力,或者在最壞的情況下,賦予他們新的大規模毀滅性工具(如生物武器)。
人工智能對對手之間攻防平衡、戰爭升級動態以及核威懾穩定性的相互影響。這些問題在超級大國競爭加劇的情況下,在世界已經在應對其他不安全因素(如烏克蘭、以色列-伊朗\移民、氣候變化等)的情況下,尤其令人擔憂。
與未來出現的任何人工智能相關的潛在災難性安全和安保風險。
在英國國內,還需要應對對國內政治和經濟產生破壞性影響的重大問題。這些問題決定了國防的目的和手段。在國外,人工智能同樣會對以規則為基礎的國際秩序的健康產生深遠影響,這取決于各國、工業界和民間社會是否以及如何有效地共同管理其影響。人工智能專家非常擔心,人工智能會在多大程度上使世界許多地方的平衡傾向于壓制性和獨裁的治理模式,同時有可能顛覆民主政治、污染信息環境和破壞社會的戰斗意志。
其中許多潛在風險也可能成為戰略優勢的機遇。人工智能的利弊平衡取決于各國如何快速有效地調整武裝部隊等機構,以利用人工智能的優勢。同樣,這也取決于各國政府如何在國際上施加影響,使全球軍事人工智能行為朝著符合本國利益和價值觀的方向發展。這就意味著各國政府要愿意進行重大投資、組織改革和文化變革,以改變國防部門對新技術的態度。
為了應對這些挑戰,各國必須緊急制定一項全面的行動計劃,考慮到人工智能技術進步、圍繞人工智能或通過人工智能進行的地緣政治競爭以及國際體系中圍繞人工智能不斷演變的規范之間復雜的相互作用。這應利用一套影響不同受眾的機制工具包,運用外交、信息、軍事和經濟(DIME)杠桿,匯集一套積極主動的行動方案:
這也應借鑒其他領域的經驗教訓--如本報告所述--以及最近關于人工智能的高級別倡議的勢頭。突出的例子包括布萊切利峰會、軍事領域負責任的人工智能(REAIM)峰會和《軍事人工智能政治宣言》。
表0.2塑造全球國防人工智能發展的機制工具包
工具包類別 | 優先行動手冊 |
---|---|
促進英國國防采用人工智能并從中獲益的機制 | 加快整個國防領域對人工智能的投資和采用,同時提高抵御惡意或意外濫用人工智能的能力 |
限制采用人工智能的機制和對手的利益 | 采取競選方式,限制、減緩或增加對手(國家或非國家)部署軍事人工智能的成本 |
形成新的軍事人工智能管理安排的機制 | 在提高對軍事人工智能風險的認識、發現問題和分享學習成果方面發揮領導作用;與主要盟國(如美國)和競爭對手制定透明度和建立信任措施,以降低升級風險;促進采用包容性和參與性方法,就人工智能軍事領域負責任的行為規范達成新的全球共識,為今后達成更強有力的具有約束力的協議做好準備;促進減少核和生物相關的人工智能緊急風險的小型多邊機制的平行發展;研究如何將人工智能納入核查和合規機制,反之亦然;隨著時間的推移,將當前零散的人工智能治理倡議整合為一個更加具體的架構 |
未來趨勢
在國家安全企業中采用人工智能/ML 將如何影響危機決策?例如,古巴導彈危機會以怎樣的機器速度發生?
除了當前的政策辯論、國會證詞、新戰略以及確定、測試和評估標準的動力之外,還有一個基本問題,即計算機算法將如何影響核大國之間的危機互動。此外,在既涉及恐懼和情感又涉及理性決策的危機中,經過改進的人工智能/ML 模型是會將人們從邊緣拉回來,還是將他們推向邊緣?在核大國之間的危機中,人類和機器將如何互動?
為了回答這個問題,美智庫CSIS 未來實驗室在 2023 年初舉行了一系列危機模擬,分析人工智能/ML 將如何塑造威懾的未來。這些游戲以隨機對照試驗的形式設計,探討了人類對對手大國人工智能/ML 集成水平的不確定性,以及這一因素如何影響危機期間的戰略穩定性。
研究得出了兩大發現。首先,在所有模擬中,不同水平的人工智能/ML 能力對戰略沒有明顯影響,而且在應對危機時,人們普遍傾向于嘗試結合多種力量工具。雖然數據科學和使用人工智能/ML來增強國家力量幾乎肯定會成為不久將來的一個決定性特征,但似乎有一些戰略常量會在這種新技術出現后繼續存在。即使機器收集和處理更多信息并幫助制定國家安全決策,外交、經濟脅迫和影響力活動也將繼續存在。AI/ML 將增強戰略,但不會從根本上改變戰略。也就是說,迫切需要開始培訓國家安全專業人員,讓他們了解什么是人工智能/ML,什么不是人工智能/ML,以及人工智能/ML 如何在外交政策危機中為人類決策提供支持。
其次,隨著各國有選擇地瞄準對手的作戰網絡,各國在核武器陰影下的作戰方式也將發生變化。盡管對升級風險的感知不太可能受到人工智能/ML 能力平衡的影響,但用于選擇靈活應對方案的標準將發生變化。各國將需要在反制對手算法與確保不會蒙蔽對手和引發 “死手 ”風險之間取得平衡--“死手 ”是蘇聯為發射核武器而開發的快速自動化系統--螺旋式升級。這種在軍事目標選擇中取得適當平衡的需要將為情報收集工作帶來新的機遇,因為情報收集工作可以了解對手國家如何在戰術、作戰和戰略層面運用人工智能/移動式計算能力。這也會改變各國的軍備控制方式,新的重點是了解人工智能/ML 能力在哪些方面以及如何增強危機決策。
現代威懾文獻主要研究國家如何在戰爭之外通過威脅和承諾進行討價還價。這些信號改變了每一方計算戰爭成本和收益的方式,意味著每一方掌握的有關能力和決心平衡的信息越少,就越難鼓勵克制。在國家如何操縱風險以剝奪對手優勢的過程中,信號和溝通起著核心作用,包括通過軍事力量尋求既成事實的動機。即使是強調外交政策領導人如何處理危機外交的心理和文化先決條件的文獻,也同樣強調信息的核心作用。基于過去的信息(即信念如何影響預期)和有缺陷的權重(如偏見和前景理論),理性的計算會被打破。
在現代軍事規劃和作戰中,信息是通過作戰網絡來管理的。進行遠程精確打擊和跟蹤對手部隊動向的能力都依賴于數據的匯總和分析。這一邏輯是聯軍聯合全域指揮與控制(CJADC2)網絡的基礎,該網絡旨在通過更快的通信、處理和由人工智能/機器學習(AI/ML)提供信息的決策層連接傳感器和射手的分布式網絡推拉數據。網絡是新聯合作戰概念的核心,是新的制勝理論,它優先考慮在時間和空間上同步多域效應。因此,信息現在是軍事力量的關鍵組成部分,同時也是一個國家與對手討價還價的能力。在算法的輔助下,一個國家能夠處理的信息越多,就越有可能識別機會和風險窗口,并調整目的、方式和手段,以獲得相對優勢。
然而,大多數關于人工智能/機器學習和未來戰爭的新興文獻更多關注的是風險和倫理方面的考慮,而不是討價還價的優勢。首先,有多種觀點認為人工智能/機器學習將帶來新的風險,包括 “閃電戰”,并有可能在多個方面產生破壞穩定的影響。有觀點認為,隨著俄羅斯、中國和美國競相獲取改變游戲規則的技術,新的大國競爭時代將以 “殘酷的恐怖平衡 ”為標志。人工智能/機器學習改變軍事力量的程度,可能會影響各國對力量平衡的看法。隨著對實力和影響力的認識發生變化,可能會引發不經意的升級風險。在官僚機構內部,國防規劃人員可能會依賴脆性和黑箱化的 AI/ML 建議,從而造成新形式的戰略不穩定。在戰術層面,自主武器系統的速度可能會導致意外升級,同時也會破壞危機期間的信號承諾"。
這些說法有兩個問題。首先,關于人工智能/機器學習破壞穩定作用的論點,除了文獻綜述、替代方案和說明性兵棋推演之外,還有待進一步探討。換言之,有關風險和升級的假設尚未得到驗證。其次,關于新興技術和意外升級的說法往往忽略了信息增加在緩解緊張局勢方面的作用。如果在作戰網絡中應用算法有助于減少不確定性,那么它們就有可能支持威懾。你永遠無法撥開戰爭的迷霧,但你可以做出天氣預報,描述已知、未知和不可知的情況。CSIS 未來實驗室構建了 “兵棋推演實驗”,以分析人工智能/機器學習如何影響戰略穩定,而這一替代邏輯正是該實驗的基礎。
這些危機模擬的研究結果提出了一些建議,美國及其合作伙伴和盟友網絡在建立可互操作的作戰網絡時應考慮這些建議,因為在這些網絡中,人工智能/機器學習支持戰術、作戰和戰略層面的決策。
1.擁抱實驗和敏捷思維。
國家安全界需要停止對 “天網 ”以及其他與技術相關的威脅的擔憂,開始構建應用程序,幫助人們在危機期間瀏覽已經讓工作人員和決策者不堪重負的海量信息。有必要在全球信息主導演習(GIDE)[41] 等既定工作的基礎上,開展更多旨在校準如何最好地將人工智能/機器學習融入國家安全決策的實驗。這些演習將作戰司令部連接起來,測試它們在危機期間和向沖突過渡期間通過人工智能/機器學習(即人在回路中)在無縫戰斗網絡中開展工作的能力。每個全球戰略發展信息網都能幫助國防部思考如何支持與新出現的條令相一致的現代作戰,包括聯合作戰概念和聯合競爭概念"。
美國需要擴大 GIDE 系列,從機構間和聯盟的角度審視危機應對。這些實驗應描繪從國務院到財政部等不同行政機構如何進行危機管理,以便通過匯總和分析數據做出更好的決策。從簡單開始,清楚地了解每個機構如何處理靈活的威懾選項,以及國家安全委員會如何評估這些選項,這將有助于深入了解在何處以及如何以最佳方式加強戰略制定和危機應對。
2.參與戰役分析。
戰爭中永恒不變的是對信息的爭奪,以及指揮官如何在收集情報的同時利用偵察和安全行動來了解態勢、預測變化并尋求優勢。信息爭奪戰將沿著人工智能/機器學習應用管理的復雜作戰網絡進行,這就需要新的機動、安全和出其不意的概念。一個國家如何在削弱對手的同時保護自己的作戰網絡,很可能成為未來戰役的真正決定性行動,也是一種全新形式的 “先發制人”(schwerpunkt)。
國防部需要擴大現代戰役分析的范圍,探索如何與網絡作戰。這些研究應將歷史戰役見解與兵棋推演、建模和戰略分析相結合,著眼于平衡軍事優勢與升級動態。這些研究應評估現有流程,如聯合規劃和聯合目標定位方法,看它們在以相互競爭的戰斗網絡為特征的戰役中是否仍然可行。研究的最終結果很可能是既能加快節奏又能謹慎關注升級風險的新流程和新方法。
3.從開放天空到開放算法,就二十一世紀軍備控制展開更廣泛的對話。
最后,有必要開始思考人工智能時代的軍備控制是什么樣的。對于未來的威懾而言,管理武器庫存可能不如建立規范、制度和條約來管理針對敵對核國家現代作戰網絡決策和處理層的軍事行動。
在危機中,各層級的軟件都在尋求提高效率以加快決策速度,高級領導人有可能發現自己陷入了升級陷阱。對與預警和情報有關的關鍵系統的攻擊可能會加速這種升級。各國越早攜手繪制風險地圖并建立共同理解的防護網,核對手之間無意或意外升級的可能性就越低。這些努力應包括第 2 軌和第 3 軌桌面演習和對話,為對手國如何處理危機提供信息。
由于未來幾年人工智能/機器學習能力在國家安全領域的使用幾乎肯定會增加,因此需要就任何信息技術是否以及如何增強戰略和軍事決策展開更廣泛的辯論。這關系重大,不能盲目走向未來。
因此,國家安全界需要加快試驗如何將人工智能/機器學習融入現代作戰網絡,著眼于更好地理解危機決策、戰役和軍備控制。僅僅優化聯合目標定位以及軍隊感知、理解和獲得優勢的速度是不夠的。新世界需要重新思考自拿破侖以來幾乎沒有變化的軍事參謀組織,以及傳統的國家安全官僚設計和規劃流程。這將需要思考如何在信息泛濫、仍存在不確定性、迷霧和摩擦的情況下為人類決策提供最佳支持。
盡管本文的研究結果表明,人工智能/機器學習既有可能發揮穩定作用,也有可能發揮破壞穩定的作用,但世界上的核國家仍有可能無意中通過編碼走向世界末日。因此,必須對研究結果提出質疑,并承認研究的局限性。首先,觀察結果仍然有限,可能會受到年齡、性別和每個參與者的國家安全經驗類型的影響。今后的工作應擴大參與者的范圍。其次,研究結果需要更多的觀察,不僅要分析已知與未知人工智能/機器學習能力的平衡,還要分析風險認知和升級是否會在更多針對不同人工智能/機器學習水平的處理(如 “無人工智能/機器學習能力”、“更多人工智能/機器學習能力 ”等)基礎上發生變化。未來的研究應該向更廣泛的參與者開放實驗,并比較普通大眾與專家的看法有何不同。在理想情況下,這些游戲還應有更多的非美國玩家參與。
通過整合人工智能輔助指揮系統和無人技術,未來戰爭正在經歷變革,這將對作戰行動和軍事決策周期所需的速度產生重大影響。未來的決策支持系統將協助軍事決策者評估威脅,為部隊制定最佳行動方案,甚至通過自主系統的協作群行為執行行動。要實現這些系統,建模與仿真以及先進的深度強化學習(RL)技術的結合將發揮至關重要的作用。
本文介紹了德國陸軍概念與能力發展中心和空中客車公司開展的幾項研究的結果。這些研究評估了模擬和人工智能技術的調整和利用情況,利用 RL 優化模擬 "ReLeGSim "訓練了一個能夠在陸軍作戰中充當營級指揮員或在 ISR 任務中控制無人機群的AI智能體。AI智能體利用語言模型生成自然語言命令,在 ReLeGSim 中執行行動,加強了人類顧問與人工智能系統之間的交流,同時將目標和條令納入人工智能推理過程。通過軍事條令感知反饋功能,智能體在每個訓練周期內評估并改進其行為。
訓練完成后,AI智能體可應用于真實世界的場景,根據所學的AI智能體策略為營長制定行動方案,或直接在自主系統中執行,以控制無人機蜂群。這項研究為使智能體具備在未來行動中維護軍事條令和規則的能力奠定了基礎。
近年來,人工智能(AI)取得了長足的進步,而強化學習(RL)則是其中一個突出的范例。強化學習因其在 Dota2 和《星際爭霸》等復雜游戲場景中實現卓越性能,甚至超越人類能力的能力而備受關注。它已成為機器學習領域用于解決復雜任務的最先進的人工智能技術。
當前軍事研究的主要目標是將最初為游戲應用而設計的 RL 技術移植到軍事行動領域。其總體目標是為軍事行動開發基于人工智能的系統,使其在許多使用案例中都能表現出超人水平的性能,例如[16]:
戰場決策: 通過使用模擬環境,RL 可用于訓練智能體在復雜的軍事場景中做出決策[1]。人工智能做出的決策可用作向指揮官提出的建議,例如,有效的行動方案。
自主系統: RL 可用于訓練智能體在模擬環境中控制軍用車輛(如無人機、坦克)[2]。智能體可以學會在環境中導航車輛并執行各種任務(如偵察、目標捕獲)。經過訓練的智能體可以轉移到真實車輛上,而無需重新訓練人工智能。
規劃與優化: 例如,RL 可用于優化軍事模擬中的后勤規劃[3]。智能體可以學習將資源(如部隊、補給)分配到戰場的不同區域,以實現任務目標,同時將損失降到最低。
網絡安全: 在軍事模擬中,RL 可用于訓練智能體檢測和應對網絡攻擊 [4]。智能體可以學會識別和減輕對軍事網絡和系統的威脅。
培訓與評估: RL 可用于在模擬中培訓和評估軍事人員 [5]。智能體可以模擬不同的場景,并對受訓人員采取的行動提供反饋。
應用于 RL 的技術在不斷變化和改進。變壓器模型[6]等新架構和 SiLU [7]等新激活函數正在進一步改善用 RL 訓練的人工智能體的架構和整體性能。轉換器模型允許使用新的架構,如視覺轉換器(VisionTransformers)[8],也是所有最新大型語言模型的基礎,如 OpenAI [9] 的 GPT(生成預訓練轉換器)。
在這些發展的推動下,本文研究了如何使用新的語言模型架構來解決軍事行動所需的巨大行動空間問題,并提高智能體的整體性能。
在 RL 中,復雜的決策能力往往伴隨著巨大的行動空間,而緩解行動空間爆炸是一個活躍的研究領域。論文 "不斷增長的行動空間"[10] 強調,隨機探索對于大型空間來說不夠好,課程學習對于學習這些行動空間至關重要。最近的發展使用了以自然語言為特征的動作空間,并成功地利用了其復雜動作生成的靈活性[11]。
自然語言處理領域的最新進展激發了開發人員拓展使用自然語言的可能性。語言模型通常用于問題解答和對話。不過,這些模型也可以通過 RL 訓練與環境互動。在他們的論文 "學習用語言模擬世界"[12]中,介紹了構建智能體的概念,這些智能體可以理解并以多種方式使用不同的語言,包括傳達常識、描述世界狀態和提供反饋。其核心思想是,語言可以幫助智能體預測未來,包括將觀察到什么、世界將如何表現以及哪些行為將得到獎勵。作者介紹的 "Dynalang "是一種學習多模態世界模型的智能體,它能預測未來的文本和圖像表征,并根據模擬模型的推出做出決策。與傳統智能體不同,Dynalang 不僅使用語言進行行動預測,還使用語言預測未來的語言、視頻和獎勵,從而獲得豐富的語言理解能力。此外,Dynalang 還可以在沒有動作或獎勵的語言和視頻數據集上進行預訓練,它能有效地利用語言來提高從網格世界到逼真家庭掃描等各種環境中的任務性能。
RL 的另一個重要方面在于獎勵系統的適應性,即為智能體提供激勵措施以鼓勵所期望行為的概念。獎勵塑造是一種用于系統修改這些獎勵結構的技術。在實踐中,這涉及對獎勵進行微調,以引導智能體實現特定目標。舉例來說,在迷宮導航的背景下,人工智能體可以在探索之前未知區域時獲得遞增獎勵,從而刺激全面探索。另一種策略是元學習或多任務學習,它使人工智能系統能夠同時監督多個可能不同的目標。這種方法類似于同時掌握幾項任務,通過在這些任務之間共享所獲得的知識和技能來實現。然而,在人工智能中動態改變獎勵功能的過程伴隨著內在的挑戰。
如果目標的轉變過于突然,人工智能系統可能難以適應,需要進行資源密集型的再訓練。頻繁改變目標可能會給人工智能帶來困惑。總之,在人工智能中動態調節獎勵機制的做法體現了一種強有力的工具,盡管這種工具需要謹慎管理。首要目標是在人工智能的學習過程中實現適應性和穩定性之間的平衡,確保在適應不斷變化的目標和保持有效的學習動力之間達到和諧的平衡。
最近發表的論文“Designing Rewards for Fast Learning”[13] 探討了獎勵函數設計對 RL 智能體學習速度的影響。它強調了選擇基于狀態的獎勵的重要性,這種獎勵能最大化行動差距,使智能體更容易區分最優行動和次優行動。論文還引入了最小化一種稱為 "主觀折扣 "的度量的概念,以鼓勵智能體在減少前瞻性的情況下做出最優決策。為了解決獎勵設計問題,本文提出了一種線性編程算法。在表格環境中使用 Q-Learning 的實驗結果表明,生成的獎勵能加快學習速度。該研究確定了獎勵設計的三個關鍵原則:1)與獎勵目標相比,懲罰每一步有助于加快學習速度。2) 沿目標軌跡獎勵子目標時,獎勵應隨著目標的接近而逐漸增加。3) 只有經過精心設計,在每個狀態下都不為零的密集獎勵才是有益的。
ReLeGSim(強化學習通用人工智能訓練模擬,如圖 1 所示)是一個類似棋盤的模擬環境,用于強化學習,以開發棋手在游戲中的自我優化策略。任意棋手都要通過一系列棋步達到目標,并且可以相互影響。ReLeGSim 可用于模擬各種民用和軍用場景,如 ISR 任務或大營地面作戰場景。ReLeGSim 允許為類似國際象棋游戲的環境定義角色,賦予它們相應的屬性和可能的行動。為此,可以使用 Python 編程語言,通過適當的特定應用仿真模型(如傳感器)對仿真進行擴展。
在 ReLeGs1 研究范圍內,ReLeGSim 被配置為 2 個營的對抗模型,其中每個營的指揮官都必須指揮其指定的連隊和支援單元。它允許玩家(無論是人類還是智能體)在攻擊或防御的戰術場景中生成營的命令。該模擬由論文[1]介紹,使用了用于強化學習的 "Gymnasium "API[14]。
圖 1 ReLeGSim 用戶界面
在模擬游戲中,一名玩家扮演進攻方,旨在從防守方手中奪取一個特定的目標區域,而防守方則必須在整個過程中守住該區域。雙方玩家都可以使用由排和單個單元組成的各種具有獨特能力的連隊。要想取得成功,玩家必須了解對手的觀點,了解自己連隊的能力,并有效地控制地形。
圖 2 人工智能工具鏈 - ReLeGSim
人工智能工具鏈(圖 2)可根據矢量、高程和衛星信息等真實世界數據自動創建三維地形。然后,柵格化地圖將用于 ReLeGSim 中的人工智能訓練,并為不同區域分配特定的實地類型(如森林或道路)。帶有附加工具的模擬旨在提供一個平臺,通過強化學習訓練不同的人工智能模型,同時也支持人類與人工智能的博弈。因此,可以對訓練好的智能體的能力進行基準測試、評估和分析。該工具鏈還包括對訓練好的人工智能體進行自動測試,并根據客戶需求提供各種指標和復雜的分析。
ReLeGSim 的作者從 DeepMind 的 AlphaStar [15](復雜 RL 問題的領先模型)中汲取靈感,開發出一種創新架構(圖 3)。受軍事戰術的影響,該設計利用標量數據和可視化地圖進行場景觀察。標量數據包括部隊人數和彈藥,以擴展人工智能的視野。所有輸入參數都經過歸一化處理,以提高訓練效果。標量值采用多頭注意力網絡,而不是全連接層,提高了智能體的質量。為了了解地形,人工智能接收了包含大量地形信息和實體編碼的可視化地圖。為了將這些豐富的數據納入人工智能,我們開發了一個帶有卷積層的空間編碼器。
通過自動編碼器設置對架構進行評估,并將其減少到最低限度,將參數從 200 萬減少到 4.7 萬,并生成一個預訓練模型。可選的語言輸入可將目標或任務考慮在內。在分層設置中,給定任務可由上級智能體定義。來自視覺、任務和標量數據的編碼值被輸入到一個核心網絡(LSTM 組件)中,以處理長期規劃。
行動頭(action head)最初是基于 AlphaStar 實現的多離散行動空間。由于行動空間不斷擴大,行動頭被一個基于最新研究的語言模型所取代,該模型可預測自然語言中的行動指令。
圖 3 ReLeGSim 使用的人工智能架構
人工智能的復雜決策能力問題伴隨著 RL 中巨大的行動空間而產生,隨著 RL 應用變得越來越復雜和逼真,這也是一個巨大的挑戰。小而固定的行動空間在表現力、探索性和效率方面都有局限性。研究人員正在不斷開發新的技術和算法,以減輕不斷膨脹的行動空間所帶來的影響,如函數近似、離散化和分層 RL。這些方法使智能體能夠處理日益復雜的任務,并更有效地應對大型行動空間的挑戰。隨著 RL 的不斷進步,解決行動空間爆炸的問題仍將是一個重要的研究領域,以便在現實世界中成功應用 RL。
利用自然語言與人工智能建立交流的方法(如文獻[2]所示),以及利用自然語言制定條令的發展(如文獻[16]所強調),為在多方面作戰環境中實現多用途人工智能能力開創了先例。ReLeGSim 在人工智能與模擬中的智能體之間建立了一個自然語言接口,可對給定命令進行復雜的解析和執行。這些命令可以是不同層次的,可以控制各種智能體。
最初的試驗表明,大量未使用的詞匯不利于訓練,而且會導致訓練速度減慢。因此,我們使用了一個小而有效的詞匯表。該詞匯表只包含以下標記:
<colon>標記將輸出文本序列分割為多個動作,而<comma>標記則結束或填充結果。標記的縮減和優化都是手動完成的,并與模擬中執行的結果行為直接對應。為了標記動作,我們使用了單擊編碼,因為這允許我們對給定的動作進行隨機抽樣,并可通過多離散表示法輕松集成到任何給定的 RL 框架中。
ReLeGSim 人工智能模型深度整合了人類對任務優先級排序的干預,通過將任務信息納入觀察空間來實現目標的實時變化(圖 3)。為了訓練這種行為,我們采用了課程學習策略,引入了用自然語言表達的各種優先級,每種優先級都與指導遵守規則的獎勵相關聯。這種方法鼓勵智能體發展廣泛的技能組合,在不同的場景中表現出色,并高效地實現目標。
為了將訓練有素的智能體用于行動方案(COA)決策支持,我們開發了一個行動方案決策支持網絡應用程序。根據給定的戰斗情況和藍軍與紅軍的 ORBAT,決策支持網絡應用程序會生成大量 ReLeGSim 模擬運行,以獲得人工智能體在給定情況下如何行動的統計數據。此外,所有可能的決策因素(如可用的聯合火力打擊數量)都會發生變化,以便讓用戶設置特定的過濾設置,分析由此產生的數據。然后,對人工智能指揮的模擬運行結果進行統計分析,并通過基于網絡的儀表板中的熱圖等方式將其可視化。
圖 4 顯示了一個熱圖可視化示例。它顯示了在相同起始條件下多次模擬運行中所有藍色和紅色單元的移動情況。此外,在此示例中,紅方營指揮官被賦予了兩種不同的攻擊優先級:a) 盡快攻擊 vs. b) 攻擊時盡量減少自身損失。圖 4 說明了人工智能如何根據不同的目標調整自己的行為,例如優先考慮快速進攻還是盡量減少損失。
圖 4 根據給定的優先級(a)和(b)比較營行動
這只是在給定場景中探索不同可能性的一種方法,可幫助操作員生成并驗證行動方案。ReLeGSim 的工具箱中提供了從戰爭游戲、統計分析到紅軍行動方案預測的各種選項。該決策支持工具可自動進行場景測試、戰術優化和人工智能模型評估,促進多樣化探索和適應性決策。
在德國陸軍總部的 "戰術無人機系統的人工智能(KITU)"研究中,空中客車防務與航天公司與兩家德國初創公司量子系統公司(Quantum-Systems)和Sleenlab正在探索在軍事場景中使用人工智能(AI)控制戰術無人機系統(UAS)。這項研究的重點是演示和分析用于自主無人機群的人工智能組件,重點是與主地面作戰系統(MGCS)和北約東翼監視方案保持一致。重點領域是異源無人機群的協調、目標探測和動態任務執行。使用人工智能對各種自動化任務進行訓練,以了解從傳感器到射手鏈的工作量、有效性和效率。該研究還調查了數據處理位置、恢復能力以及群控制在中斷情況下的穩健性。
采用深度強化學習方法來開發能夠在人類監督下控制無人機群的人工智能。圖 5 顯示了從 RL 訓練、驗證到實際飛行測試的過程。為了訓練對無人機群的控制,對 ReLeGSim 仿真進行了調整,使其能夠提供具有不同飛行特性、電池供電和消耗以及光學傳感器等有效載荷的固定翼和多旋翼無人機的簡化模型。對所謂的無人機群控制器的行動空間進行了調整,以賦予無人機搜索和跟蹤任務,以及在地面降落的可能性,從而以較低的電池消耗從地面觀察目標。一旦訓練成功,行為就會轉移到真正的無人機系統上,在空中客車無人機中心進行飛行測試。首次飛行實驗表明,在 ReLeGSim 仿真環境中訓練的智能體在真實情況下表現良好,通過提高模型保真度和根據實際情況校準模型參數,減少了一些模擬與現實之間的差距。
所獲得的見解旨在為將人工智能學習行為集成到真實無人機系統中提供信息,并評估其與人工控制的相似性。總之,像KITU這樣的項目對歐洲國防計劃(包括無人機群、人工智能和云計算)至關重要,并可能為MGCS和未來戰斗航空系統(FCAS)開發計劃帶來益處。無人機群可實現兵力倍增并提高偵察能力,因此在戰術場景中非常有價值。
圖 5 - 將 ReLeGSim 人工智能體用于控制真實的無人機群
總之,本文論述了未來戰爭在人工智能輔助指揮系統和無人技術整合的推動下發生的變革。這些變化將對作戰行動產生重大影響,并要求加快軍事決策周期。要實現這些未來的決策支持系統,建模、模擬和先進的深度強化學習技術的整合至關重要。這些系統將協助軍事決策者評估威脅、制定最佳行動方案,甚至通過自主系統的協作蜂群行為來執行行動。
本文介紹的研究展示了如何調整和利用模擬與人工智能技術,利用 RL 優化模擬 "ReLeGSim "訓練能夠擔任營級指揮官或控制無人機群的人工智能體。這些智能體通過自然語言命令進行交流,增強了人與人工智能的互動,同時將目標和條令納入人工智能推理過程。軍事條令感知反饋功能的整合使智能體能夠在訓練周期內自我完善。
雖然 "ReLeGs "和 "KITU "兩項研究的目標都不是完全取代人類決策者,但它們為人工智能在軍事行動中的潛力提供了寶貴的見解。RL 代理的開發雖然具有挑戰性,但已展示出有希望的行為模式,包括智能地形利用和戰略決策。隨著研究的深入,預計還會出現更多的見解和行為模式。這項研究為使智能體具備維護軍事條令和規則的能力奠定了基礎,為人類決策者提供了更有力的支持,并為人工智能在各種軍事場景、訓練和決策支持系統中的應用開辟了道路。人工智能在戰爭中的未來將以協作和增強為標志,人工智能將成為與人類專業技術并駕齊驅的寶貴工具,確保 "人類做出決策,機器提供支持"。
許多國家和國際研究工作都強調,未來各梯隊作戰行動的執行速度必須大大提高。與過去不同的是,過去一個旅的指揮官可以有幾個小時的時間進行決策,而現在要想取得優勢地位,就必須明顯并逐步縮短可用于決策的時間。有幾個因素促成了這種不斷變化的局面。前進的道路上有幾個關鍵的方向,可以進一步推動研究和實際應用:
1.繼續培訓和評估:應完成對 RL 智能體的持續培訓,進一步完善其行為模式。這包括開發更復雜的戰術行為,如目標優先級排序、組建預備隊和反擊策略。此外,應更詳細地探索通過可解釋人工智能(XAI)來解釋 RL 智能體的行為,以增強人類的理解能力。
2.可擴展性和真實世界測試:雖然 ReLeGSim 等模擬環境提供了寶貴的訓練場地,但仍應努力擴大這些智能體的規模,以便在現實世界中進行測試和部署。這包括解決硬件和計算要求,以確保實際適用性。
3.人機一體化:人工智能作為決策支持的整合必須繼續強調人類的控制和干預。為人類指揮官與人工智能體之間的無縫協作開發接口和協議至關重要。
4.人工智能應用的多樣性: 研究重點應超越決策支持,探索人工智能在軍事領域的廣泛應用。這包括訓練自主無人系統、為訓練演習進行模擬,以及評估人工智能模型的性能和戰術。此外,其他仿真模型也應與 ReLeGSim RL 架構一起應用,在 PAXSEM 等高度詳細的戰斗模型中訓練 RL 智能體,這對于模擬密集空戰或防空等場景是必要的。
5.倫理和法律方面的考慮:隨著人工智能在軍事行動中的作用越來越大,必須解決倫理和法律方面的問題。研究應包括有關負責任地使用人工智能、問責制以及遵守國際法和國際公約的討論和解決方案。
6.測試與驗證:人工智能模型的嚴格測試和驗證,尤其是在復雜多變的作戰場景中的測試和驗證,仍應是一個優先事項。這包括評估人工智能在城市戰、非正規戰爭和維和行動等各種情況下的表現。
7.適應不斷發展的技術:鑒于人工智能發展的快節奏,研究應保持適應性和開放性,納入新興技術、架構和最佳實踐,以保持在人工智能輔助軍事決策支持領域的領先地位。大型語言模型(LLM),尤其是多模態 LLM 有可能徹底改變對態勢感知、推理和行動計劃的理解。這項技術具有極大的潛力,可以顯著改進智能體。
總之,前進的道路包括采取全面的戰略,推進人工智能并將其無縫整合到軍事行動中,同時始終遵守道德和法律標準。通過解決這些關鍵問題,本研究可為人工智能決策支持系統的發展及其在復雜軍事環境中的謹慎應用做出貢獻。
通過這項美海軍的頂點研究,人工智能(AI)三人小組利用系統工程(SE)的方法來研究人工智能輔助的多任務資源分配(MMRA)如何使所有軍種的任務規劃者受益。這項研究的動力來自于優化我們武裝部隊中的MMRA問題集,對于戰術領導人有效管理現有資源至關重要。存在著一個將人類決策者與人工智能支持的MMRA規劃工具相結合的機會。在計算速度、數據存儲和商業應用中的整體公眾接受度方面的快速技術進步促進了這一點。
該團隊從三個任務集著手處理MMRA問題:車隊保護、航空支援和航母打擊群(CSG)行動。車隊保護用例探討了利用定向能(DE)的移動式地基防空系統。航空用例探討了美國陸軍的未來垂直遠程攻擊機(FLRAA)的能力組合,這是一個未來垂直升降機(FVL)的前里程碑B計劃。最后,CSG用例從高度復雜的系統(SoS)角度探討了MMRA。
盡管這些用例各不相同,但團隊探討了這些觀點之間的相似性和矛盾性。每個用例都應用了一般的MMRA流程架構。然而,每個用例的輸入和輸出都是單獨評估的。圖A描述了MMRA的總體流程架構。
如圖A所示,MMRA被設想為在確定的決策點由人在回路中激活。在這些事件中,MMRA系統用實時輸入進行一次循環。由黑盒MMRA系統確定的輸出被顯示給人在回路中的人,以進行標準決策程序。雖然這項研究僅限于問題的分解,但未來的研究領域是開發一個由人類系統集成(HSI)驅動的產品實現。MMRA通過對日益復雜和相互依賴的資源分配問題進行客觀評估,加強了指揮系統的決策。圖B描述了MMRA人工智能系統過程的行動圖。
MMRA決策已經超出了傳統決策過程的復雜程度。這種復雜性適用于任務規劃的各個層面。戰術層面是在士兵個人的直接指揮系統或單位層面進行的。行動和戰略層面則是在梯隊或總部層面進行。所有這些都需要對現有資源進行準確和有效的分配。
圖C中的圖形,"戰術評估過程。圖C "戰術評估過程:MMRA決策的復雜性 "描述了MMRA是如何在一個作戰場景的決策點上隨時間推移而進行的。初始規劃是在??0進行的,與 "MMRA過程結構 "中的 "初始 "黃色活動塊相關。之后的某個時間,??1, ??2, ??3, ..., ????決策點與 "MMRA過程流 "中的 "決策點重新規劃 "黃色活動相關。"初始 "和"決策點重新規劃 "這兩個黃色活動塊啟動了一個完整的 MMRA 過程流,它包含了 "初始 "和 "決策點重新規劃 "連續體中描述的所有活動。
決策點在三個MMRA用例中被普遍定義。然而,為了解情況,對設想中的場景采用了獨特的故事情節。雖然這里不能列出所有的案例,但CSG獨特決策點的一個例子是CSG內部、CSG外部或自然災害援助的應急反應。通常,所有的決策點都發生在出現新的任務、提供不同的任務優先級、資源耗盡、資源被破壞或任務無法繼續完成時。
為了更好地理解MMRA問題集的范圍,該團隊對所有三個用例進行了可擴展性和復雜性分析。可擴展性分析抓住了靜態MMRA問題集的范圍,與該用例的歷史背景相比較。因此,可擴展性分析為最初的MMRA規劃問題集提供了一個從傳統系統到現在用例方案的背景。在DE Convoy Protection和CSG用例中,可擴展性都有不可量化的增加。對于DE車隊保護來說,由于精確攻擊的技術進步,紅色部隊的能力增加。此外,CSG的藍軍能力增加了,在某些地方是三倍,因為反措施能力、導彈類型的可用性和不同級別驅逐艦之間的數量擴大了。作為補充,航空用例產生了15%的可擴展性,從傳統的實用級直升機到FVL FLRAA。
復雜性分析抓住了動態MMRA問題集的范圍,與各自用例的歷史背景相比較。這些復雜性分析提供了進一步的MMRA背景,因為當MMRA在交戰中被重新規劃時,戰術決策發生在多個決策點。所有三個用例的復雜性分析都構建了故事情節,展示了無形的、越來越具有挑戰性的MMRA考慮。隨著MMRA的可擴展性和復雜性的增加,未來對人工智能輔助的MMRA決策的關鍵需求變得清晰。
繼續分解人工智能輔助的MMRA問題集可能會引起美國武裝部隊的興趣。在所有的使用案例中,在初始和重新規劃的作戰場景中,戰術決策的復雜性都顯示出隨著時間的推移而增加。我們強烈建議對人工智能支持的MMRA問題集進行進一步研究。確定的未來研究領域有:工具的倍數、硬件/軟件部署戰略、戰術與作戰與戰略層面的資源配置、連續與離散的重新規劃節奏、人工智能機器學習的考慮,如數據的數量/質量、人類在環路中對人工智能的接受程度、人工智能輸出儀表板的顯示以及人工智能的倫理。
美國的許多國防專家認為,將人工智能(AI)的潛力發揮到極致,可能是保持美國軍事優勢的決定性因素。然而,盡管這項技術對美國國防部(DoD)具有潛在的重要性,但人工智能的軍事研究和開發資金只占這項技術總投資的一小部分。而且,與傳統的國防承包商不同,國防部即使不是主要客戶,也是重要客戶,國防部在大多數這些高科技軟件公司的整體客戶群中所占比例相對較小。由于這些公司雇用了一些領先的人工智能人才,并建立了一些最有能力的技術框架,利用這些專家的才能可以使國防部利用人工智能為其自身轉型的努力受益。
為了評估軟件工程師和私營部門技術人員對國防部人工智能應用的看法,研究小組進行了一項調查,提出了美國軍方如何使用人工智能的各種場景,并要求受訪者描述他們以這些方式應用人工智能的認同度。這些場景改變了幾個因素,包括戰場的距離,作戰破壞性,以及人類對人工智能算法的監督程度。調查結果發現,大多數美國人工智能專家并不反對國防部的基本任務或人工智能在軍事領域中的應用。
1.哪些因素會影響軟件工程師對人工智能在美國軍方應用感到舒服和不舒服?
2.軟件工程師對社會機構——特別是國防部的信任程度與他們對國防部構建人工智能應用的可接受性的看法之間有關聯嗎?
3.軟件工程師是否將國防部認定為戰略競爭對手的國家視為對美國的重大威脅?
4.軟件工程師依靠什么類型的新聞媒體和其他信息來源來知曉他們與國防部有關的事件?
1.硅谷和美國防部之間似乎不存在不可逾越的鴻溝
2.對于涉及使用致命武力的人工智能應用來說,認同度存在著差異
3.科技工作者對領導的信任度很低,甚至對他們自己的領導也是如此
軟件工程師和其他技術人員對擔任領導職位的個人信任度較低。
科技工作者對科技公司首席執行官的信任幾乎與他們對民選官員或聯邦機構負責人的信任一樣少。
4.科技工作者最擔心的是對美國的網絡威脅
5.科技工作者支持使用軍事力量來抵御外來侵略
6.硅谷的科技工作者與軍方沒有什么個人聯系
不到2%的硅谷受訪者曾在美國軍隊服役。
幾乎20%在國防承包商工作的軟件工程師以前曾在美國軍隊服役。
1.應該探索各種機制,擴大國防部和硅谷之間在網絡作戰方面的合作,網絡作戰是人工智能的潛在應用,硅谷工程師將其視為重要的全球威脅。
2.應該探索擴大軍事作戰人員、國防部技術專家和硅谷科技人員之間的協同,以評估在組織之間建立更大信任的途徑。
3.應該探索國防部讓硅谷工程師參與國防部人工智能應用。
4.應該調查國防部和硅谷雇員共建共享的價值。
5.另一個潛在的富有成效的調查領域是評估各種類型的參與的好處,以幫助最具創新和經驗的美國人工智能專家了解國防部如何完成其任務,并發現他們的才能和專業知識如何有助于解決國防部和國家的問題。