亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

1 引言

機器人和自主系統(RAS)是一個不斷發展的軍事產業。雖然軍方對RAS的興趣已經存在了幾十年,但這種系統在實驗和地面行動中的使用和應用是相對較新的,而且在不斷增長。這也是荷蘭武裝部隊的情況。2018年,荷蘭皇家陸軍建立了一個實驗單元來探索RAS,即所謂的戰爭的第四次進化。與這個單元一起,荷蘭陸軍開始了實地實驗和正在進行的研究,涵蓋了關于RAS軍事用途的廣泛的基本主題。這篇文章是對這項研究的總結,進行了兩年時間。本文簡要討論了軍事應用、自主性的含義、倫理和法律方面的考慮,以及陸軍內部需要采取不同的方法來跟上技術革新的步伐。隨后,本文描述了荷蘭武裝部隊安排其概念開發與實驗(CD&E)計劃的方式,以及鑒于快速創新的需要和大型組織內官僚主義的現實,它所遇到的摩擦。最后,本文對實地實驗的第一批發現和結論進行了反思。

圖 1 操作員和 MIS。操作員使用(數字)集成在平臺上的遙控武器站。立陶宛國防部,2022 年。

2 RAS的軍事背景

機器人和自主系統(RAS)在軍事方面提供了大量的、重要的和意義深遠的機會。為了觀察這些系統在這種情況下的適用方式并評估其效用,需要解決一些定義和概念:

  • 自主性。人類授予一個系統執行特定任務的獨立程度。它是自我管理的條件或質量,以實現基于系統的情景意識(綜合感應、感知、分析)、計劃和決策的指定任務。自治指的是自動化的一個范圍,其中獨立決策可以為特定的任務、風險水平和人機合作的程度量身定做。自主程度可以從遠程控制(非自主)操作員協助、部分自動化、有條件的自動化、高度自動化或完全自動化。

  • 機器人。能夠通過人類直接控制、計算機控制或兩者兼而有之的方式執行一套動作的動力機器。它至少由一個平臺、軟件和一個電源組成。

  • 機器人和自主系統(RAS)。RAS是學術界、科技界(S&T)公認的術語,強調這些系統的物理(機器人)和認知(自主)方面。RAS是一個框架,用于描述同時具有機器人元素和自主元素的系統。值得注意的是,RAS的每個連續部分都涵蓋了一個廣泛的范圍。系統 "部分指的是廣泛的(軍事)應用領域中的各種物理系統。在計算機或網絡上運行的自動化軟件系統,包括 "機器人",即可以在沒有人類干預的情況下執行命令的軟件片斷,不符合RAS的要求,因為它們缺乏物理組件。機器人 "部分,指的是系統的物理布局,認為該系統是無人駕駛或無人居住的。所有其他物理方面(大小、形式、是否飛行、漂浮或滾動等)都是開放的。

  • 致命自主武器系統(LAWS)。一種無需人類干預的武器,在人類決定部署該武器后,選擇并攻擊符合某些預定標準的目標,因為一旦發動攻擊,人類無法阻止。

  • 生命周期。生命周期的概念包括系統的各個階段,從設計到制造、測試、運行中的使用和退役。每個階段的責任以及自動化系統的各個方面都有所不同。總而言之,在法律和道德范圍內,自動化(軍事和或雙重用途)組件的生命周期得到良好管理的總體責任在于訂購系統的國防組織。在這樣做的時候,其采購規格應包含這些內容。各個(子)系統的生產商要對其部件的運作負責。

圖2 一個系統的生命周期

  • 有意義的人類控制(MHC)。有意義的人類控制包括(至少)以下三個要素。(1) 人們對武器的使用作出知情的、有意識的決定;(2) 人們在對目標、武器和使用武器的背景的了解范圍內,得到充分的信息,以確保武力的使用符合國際法;(3) 有關的武器是在現實的操作環境中設計和測試的,有關人員接受了充分的培訓,以便以負責的方式使用武器。MHC是一個復雜的概念,在許多情況下,上述描述并不是結論性的。荷蘭的官方立場是,"所有武器,包括自主武器,都必須保持在有意義的人類控制之下"。

3 概念與應用領域

"殺手機器人 "的言論使公眾對軍事背景下的機器人和自主系統的看法變得狹隘,只認為是高度或完全自主的系統對武力的致命使用。實際上,RAS可以應用于許多軍事功能和任務,每種功能都有不同程度的自主性(見圖1)。機器人和自主系統的廣泛軍事適用性產生了許多巨大的機會。未來幾年的挑戰是如何充分利用這些機會,發揮軍事優勢的潛力,同時減輕所帶來的風險。

圖 3 RAS在軍事中的應用領域

4 評估RAS的軍事價值

為了衡量RAS對軍隊的附加值,有必要確定這些系統能夠(或不能)積極促進軍事組織能力的不同方式。這可以防止為創新而創新,并將RAS的發展定位在其產生切實的、可感知的結果的潛力上。為了確定RAS的軍事用途,我們提出以下標準(見圖2):

圖 4 RAS評估矩陣

1.在部署RAS的軍事任務中實現預期效果或目標的有效性。

2.使用資源的效率。理想情況下,系統的生命周期成本(初始投資、維護、升級等)以及運行成本(如燃料、備件和維修)都要考慮在內。

3.根據當前情況的要求進行調整的敏捷性,以及隨著時間的推移適應新情況的敏捷性。

4.應用RAS的合法性,無論是在正式意義上還是在戰區和國內的(軍事)操作人員和人民/社會所認為的合法性。

5 目前的RAS系統概述

HCSS使用的RAS數據集在很大程度上建立在SIPRI數據集的基礎上,該數據集包含了380多個RAS,被分為若干一般類別。我們的概覽目前包括299個不同的RAS解決方案。我們的概覽目前包括299個不同的RAS解決方案。大多數RAS被歸入信息和情報類別,而使用武力的RAS解決方案最少。恰恰是由于涉及國家安全問題的分類所帶來的限制,使用武力的實際RAS數量可能比可以斷言的更多。此外,在中國和俄羅斯等國家收集有關RAS的數據受到其已知的保密性和語言障礙的限制。

使用HCSS的軍事功能分類法,對當前的RAS進行了事實性的概述(見圖1)。本節將首先展示該分類法的第一層;然后是第二層,對RAS的潛在軍事應用進行更詳細的說明。為了提供一個清晰的關于RAS生產和使用的廣泛觀點,可視化將顯示每個國家生產/使用的項目的大致數量。

我們根據其軍事功能對299種RAS進行了分類,即在服務與支持、信息與情報、防御性使用武力和進攻性使用武力等領域,形成了第一層分類法。圖3描述了RAS的第二層,為HCSS的系統分類提供了更全面的觀點。

圖 5. HCSS RAS 分類法

在這些功能中實施RAS帶來了巨大的挑戰,但也預示著軍隊有了更有效、更高效和更敏捷的新機會。可以根據這些類別來評估RAS繼續(重新)進化國防領域的潛力。

速度。在人工智能的幫助下,RAS已經能夠超越人類的反應時間,縮短OODA(觀察、定向、決定、行動)的循環,從而促進快速決策和對威脅進行優先排序。

可靠性。將任務委托給機器需要極大程度的信任,到目前為止,RAS還不能證明在所有軍事應用領域都有足夠的可靠性。然而,隨著這些系統在執行具體任務時證明其可靠性和有效性,我們對這些系統的信心會增加。

精確性。人工智能系統已經發展了面部圖像識別和感官能力,超過了人類的表現水平,盡管無人駕駛系統比人類操作人員更精確的說法受到廣泛爭議。

量。由于射程和耐力的增加,RAS有能力加強對戰斗空間的覆蓋,并壓倒對手。這種潛力的最好例子是 "蜂群"。

射程。RAS大大增強了監視、情報、偵察和武器系統的可用存在點。

穩健性。在短期內,RAS將比人類更容易受到意外情況的影響,包括惡劣的天氣和任務的變化。這種脆弱性延伸到了虛擬領域:因為連接的損失、黑客攻擊和其他干擾會使一個系統失去能力。

安全性。RAS可以執行 "枯燥、危險和骯臟 "的任務,這樣人類就可以專注于更專業的任務,并遠離火線。

成本。盡管對最先進技術的獨家使用權將保留給最富有的參與者,但現在被認為是高度先進的系統的成本將在未來20年內下降,從而變得更廣泛地可獲得。

維護。鑒于系統的復雜性和所涉及的多個(外部)合作伙伴,更新和升級RAS的軟件和硬件可能被證明更加困難。

時間效率。RAS可以在不需要休息的情況下24小時高標準地執行枯燥和重復的監測任務,后勤規劃可以得到有效解決,并且可以迅速超越人類多任務處理的極限。

靈活性。盡管RAS目前在執行特定任務方面表現出色,而人類在可預見的未來仍將是最靈活的。隨著開發人員對當前系統的不斷創新,這種動態可能會發生變化。

適應性。RAS具有很強的適應性,在系統的生命周期中可以很容易地進行重新配置(擴展、延伸、升級等),以便跟上動態環境中出現的新要求。

外部合法性。因此,軍隊與RAS的接觸必須在它們(可能)提供的先進能力和它所服務的社會的價值觀和規范之間取得平衡。

內部合法性。對RAS的信任和組織正常化將隨著時間的推移得到加強。隨著對系統的理解、其可預測性和熟悉程度的提高,其在組織內的合法性將得到鞏固。

圖6 荷蘭陸軍機器人

6 自主性等級

RAS的 "自主性"部分是討論最多的,也是最受限制的。一個關鍵的概念是有意義的人類控制(MHC)。荷蘭的正式立場是,"所有武器,包括自主武器,都必須保持在有意義的人類控制之下"。同樣,沒有國際公認的定義。有意義的人類控制包括(至少)以下三個要素:

  • 人們對武器的使用作出知情、有意識的決定。
  • 人們在對目標、武器和使用武器的背景有充分了解的情況下,確保武力的使用符合國際法的規定。
  • 有關的武器是在現實的操作環境中設計和測試的,有關人員接受了充分的培訓,以便以負責任的方式使用該武器。

然而,MHC是一個復雜的概念,在許多情況下,上述描述并不是結論性的。同樣,經常使用的人在環中、人在環上和人在環外的區分也是不夠的。這些術語指的是一個未指定的人和一個未指定的決策循環之間的關系,而在現實中,一些不同的人可能與各種循環有關。循環中的人類指的是人類具有監測功能,能夠在需要時進行干預的情況。許多這樣的環路都是非操作性的,例如,在RAS的設計階段發揮。同時,這些術語也涵蓋了人類控制(或機器自由)的方面。自主性一詞中還包含的另外兩個概念是機器的復雜性和被自動化的決策類型。

為了我們的目的,我們提出了一個基于SAE國際標準J3016的分類法(見圖4),該標準確定了六個級別的駕駛自動化來對自動駕駛汽車進行分類。

圖7 自動化等級

0:遠程控制:由操作者全時執行動態核心任務的所有方面,即使有警告或干預系統的加強。

1: 操作員協助:由協助系統利用環境信息執行核心任務的某些功能方面,而操作員執行核心任務的所有其余方面,并期望操作員對干預請求作出適當的反應。

2:部分自動化:由協助系統使用環境信息執行核心任務的所有功能方面的特定模式,并期望操作者對干預請求作出適當的反應。

3:有條件的自動化:由一個或多個輔助系統對核心任務的所有功能方面進行特定模式的執行,使用關于環境的信息,并期望操作者將對干預的請求作出適當的反應或/和可以推翻自主行為。

4:高度自動化:由一個或多個輔助系統利用有關環境的信息,執行核心任務的所有功能方面的特定模式,即使操作者沒有對干預的請求作出適當的反應。

5:完全自動化:由一個自動化系統在所有環境條件下全時執行核心任務的所有方面,至少達到可由操作員管理的水平。

7 存在的困境

7.1 RAS軍事應用的社會考慮

在軍事背景下開發、整合和使用RAS的倫理和法律考慮比比皆是。雖然目前關于機器人和自主系統(RAS)的倫理辯論往往被圍繞著全面禁止 "殺手機器人 "的相對極端的敘述所主導,但目前關于RAS的討論卻忽略了對決定如何在軍事背景下引入RAS有關鍵影響的細微差別。醞釀中的人工智能軍備競賽以及廉價、技術先進的系統在國家和非國家行為者中的傳播,迫使各國采用RAS。軍隊如何在保持人類機構、人類尊嚴和責任不變的情況下做到這一點是非常重要的。

7.2 倫理考慮

保持人的能動性,特別是在自主武器系統(AWS)的背景下,是關于在軍事領域整合RAS的最有爭議的辯論問題之一。人的能動性是一個概念,包括 "自我控制、道德、記憶、情感識別、計劃、交流和思考"。它包括 "自我意識、自我意識和自我授權的特點",因此與道德機構有關,并影響到責任的歸屬。

人類控制也被稱為 "有意義的人類控制"(MHC),是人類機構的一個操作組成部分,它區分了人類和人工決策過程。維持MHC的一個基本方面是操作者對算法過程的參數的理解,作為計算結果的呈現,以及事后解釋機器通往結論的路徑的能力。從這一點出發,產生了RAS特別是AI的一個重要的倫理問題:缺乏算法的透明度。神經網絡等算法存在不透明性,因為它們像 "黑匣子 "一樣運作,因此算法得出結論的路徑往往無法追蹤。操作者對此類系統的理解減少,降低了他們預測和/或解釋系統推理過程的能力,削弱了操作者對結果的控制,因此,對其(錯誤)使用的責任。此外,算法驅動的系統的進化性質,無論是自學特性還是軟件更新,都有可能大大影響系統行動的可解釋性。獨立發展其對周圍環境的理解的自學人工智能、自動化偏見和對系統輸出的過度信任可能會限制人類對RAS系統運行的控制。由于系統的設計可以在觀察、定向、決定、行動(OODA)循環中的多種功能中納入不同程度的自主性(從遠程控制到完全自主),有意義的人類控制原則應在開發的最初階段被考慮。

基本的指導原則是以 "設計的倫理 "來工作,即在用例識別、系統設計、驗證、制造和測試過程中納入倫理考慮,而不是僅僅在系統生命周期的 "使用 "階段。這就需要在設計和測試階段的早期建立對系統性能和行為的理解,通過早期讓終端用戶參與進來,這意味著操作員、監督員和指揮官將能更好地追蹤、理解和預測系統的決策過程。應該為將開發過程外包給外部承包商建立最佳實踐指南。

7.3 法律考慮

RAS中缺乏有意義的人類控制,這推動了對管理自主武器的法律討論和辯論的考慮。國際上的立場仍然大相徑庭,從禁止這類武器的支持者和反對者到介于兩者之間的一些國家,強調需要進一步澄清和闡述現有制度。然而,很明顯,目前的規則、標準和做法是相關的,但很可能不足以涵蓋自主武器方面的發展。至少,RAS需要對現有法規進行完善。雖然基于共識的《特定常規武器公約》/《政府專家組》仍然是推動這一辯論的必要工具,但僅靠這一努力是否足夠令人懷疑。盡管有非政府組織和學術界的參與,但在這種形式下,國家締約方占主導地位,工業界只是以后備身份出現。在國際層面的定義、規范和標準的各種方法中,荷蘭需要決定其武裝部隊現代化的方向,并在不斷加強的公眾辯論中決定其國際姿態。

管理RAS的法律方法包括硬法律、軟法律和自愿措施。硬法涉及國家間談判和商定的具有約束力的條約。軟法涉及準法律文書,如具有政治約束力的行為守則(CoCs)或建立信任和安全的措施(CSBMs),有時涉及國家以外的多個利益相關方。最后,自愿性文書包括行為原則或規范以及最佳做法的交流,或傳統軍備控制界內部或外部的其他信息(見圖6)。

圖 6:監管 (L)AWS 的三種機制

8 概念開發與實驗是必需的環節

8.1 RAS軍事應用的操作考慮

對RAS的軍事適用性的業務操作考慮涉及現有程序和武裝部隊內部文化帶來的挑戰,特別是在與外部伙伴的合作以及概念開發和實驗(CD&E)方面。在合作方面,RAS的出現對軍事背景下多利益相關方合作的有效性提出了挑戰,特別是當它涉及與私營部門的合作結構時。除了與外部關系的變化,武裝部隊還必須努力解決CD&E過程的內部重組問題,這不僅會對指導組織功能的結構過程提出質疑,也會對更廣泛的理論思維提出質疑。RAS的獨特之處在于,它們最終會將人類帶入 "圈外",并因此極大地影響作戰性能、組織嵌入(例如,影響人員的數量、技能和培訓)以及作戰概念(理論和戰術)。

協作考慮

由于RAS的發展在很大程度上是由民用創新驅動的,RAS的整合創造了與傳統國防工業以外的設計者、開發者和制造商互動的需求。管理這種關系需要:a)綜合和跨學科的合作;b)明確的任務、投資和責任分工;c)實施共同的系統結構;d)平衡軍事要求和期望、技術可能性以及(可能沖突的)法律、倫理和安全參數。

此外,由于快速的創新周期,例如人工智能(AI),RAS必須在快節奏的程序中開發和獲得,使用時間較短,并在系統的整個生命周期中進行修改、更新、插入或交換。而常規系統的整合包括從開發者/生產者到將使用新系統的軍事組織的某種 "移交"。RAS的一個特點是對持續發展的集成軟件的依賴;當然,在自我學習算法是系統自主推理的一部分的情況下。因此,RAS的移交并不一定是生產者在生命周期的后期階段的最終參與。生產者必須確保系統得到充分和定期的更新,確保系統的自學性質得到控制,并繼續滿足需求和標準。

與這些快速的創新周期相比,關于倫理問題和法律不確定性的社會討論展開得很慢。這些對話需要與國防組織之外的一系列利益相關者和政策制定者進行互動。軍方應盡可能地讓外部開發者參與這一辯論,并應通過使用內部準則或行為守則對所有利益相關者進行有意義的監督。

RAS的整合涉及到對所有 "DOTMLPF "類別的調整。軍隊應重新考慮理論是否涵蓋了RAS部署的情況,部隊的培訓和組織是否足以確保RAS得到充分利用,是否有足夠的技術知識來處理臨時的技術問題,設施是否具備維修RAS的能力,等等。RAS可能給DOTMLPFelements(部分或全部)帶來的根本性變化,需要與國防組織內的利益相關者、國際軍事伙伴,以及可能與其他伙伴機構進行廣泛的互動。

8.3 概念開發與實驗(CD&E)考慮

在武裝部隊中引入RAS,不僅僅是為了適應和使用新的武器系統。為了站在快速變化的需求和新興技術的最前沿,并能夠就RAS如何增強軍隊做出正確的決定,實驗是關鍵。對于設備的開發者來說,軍事世界可能是相當新的,并且鑒于在與RAS合作時出現的新問題,必須組織與開發者、生產商、知識機構,當然還有作戰用戶本身的密集工作關系。這些工作關系和隨后的討論應該為幾乎準備好的產品建立,但也特別是為武裝部隊的最概念性的想法建立。這些討論可以在所謂的 "試驗臺 "中進行。

在武裝部隊內部,如何從目前和計劃中的部隊轉向未來部隊的文化需要改變態度。需要進行深入的對話和研究,不僅是關于確定性的話題,如更新舊設備,而且是關于不確定性的話題,如思考未來需要的能力,并就如何達到這一點制定戰略。國防規劃系統需要為此進行調整,可能還需要在國防投資或生命周期計劃中設立單獨的創新基金。首先,關于采購的嚴格規定需要進行一些調整,以允許從舊手段向新手段的創新過渡。一個可能的方法是在定義新的能力需求的早期階段成立一個工作組,所有相關的參與者,從法律團隊和采購支持到業務用戶和負責的參謀人員,都可以討論和規劃新能力的獲得。

訪談發現,相當多的創新來自于組織的低層,而不是對未來技術的大局思考的產物。創新部門應該提供靈活的程序和一定程度的操作自由,以允許 "草根 "創新。創新競賽是另一個很好的例子,說明組織可以相當迅速地、不通過復雜的程序達成某些創新解決方案。同樣重要的是,允許創新失敗,在這種情況下,沒有人必須為這種失敗而受到懲罰的想法。雖然不能指望軍事組織像工業界那樣接受失敗和承受風險,但如果要取得進展,必須向這種態度轉變。失敗和風險是真正創新的不可分割的組成部分。因此,工業界和軍方必須緊密合作,在RAS技術的生命周期內對創新進行評估。

圖8 第13輕裝旅RAS-CD&E單元

9 第 13 輕旅 RAS-CD&E單元

9.1 啟動

在許多陸軍中,啟動一個新項目或創建一個新單元的常見方式是通過周密的計劃、研究和大量的耐心。2018年,荷蘭皇家陸軍司令部偏離了這一軌道,指派一名軍官開始RAS考察,只下了一個非正式的命令:"剛剛開始,探索各種可能性"。在沒有正常的組織分解結構和工作描述的情況下,這名軍官將具有不同專長的人聚集在他周圍,并進行了簡短的文獻審查和市場調查,以考察設備的可能性和可用性。這個新成立的團隊得到了RAS實驗單元的名字。該單元負責RAS領域的概念開發和實驗,并與工業界和大學一起探索短期和中期的研究目標。

這種迅速的開始使得在短短兩年內建立一個大約20人的團隊,擁有各種機器人、無人機和其他設備。在此期間,在蘇格蘭和奧地利進行了重大演習,RAS團隊帶著機器人參加了演習。

9.2 執行

軍隊指揮部的明智決定是將RAS實驗單元設在一個作戰旅,即13輕騎兵旅內,而不是教育和訓練單元或卓越中心內。這樣一來,就有可能為最終用戶進行實驗,并與最終用戶一起進行實驗,從未來必須操作這些系統的人那里獲得直接反饋。終端用戶由一個常規步兵排代表,該排被旅長指定為執行實驗的專用排。這個所謂的RAS排被置于RAS實驗單元的戰術指揮之下。

在第一年半的時間里,RAS-單元抓住一切機會快速啟動,這導致了各種各樣的項目分散到各個方向,它們之間沒有明確的凝聚力或明顯的焦點。這種工作方式是經過深思熟慮的選擇,即在短時間內非常靈活地探索RAS的廣泛領域,并采摘低垂的果實,而不是被阻礙和束縛在一個僵化的路徑上。這種方法在短時間內取得了許多小的成功,其結果是在組織內創造了一種積極的運動和熱情,以接受這一計劃,并繼續為一個相對不確定的計劃分配資金和資源。它引起了上級指揮部的注意、信任和 "贊助者",產生了促進該計劃成為武裝部隊創新的主要先鋒之一的積極結果。

基于過去一年半的知識和經驗,廣泛而多樣的方法匯聚成2021年和2022年的三條行動路線。第一條線的目標是在2022年底與RAS排一起在軍事相關的環境中進行操作實驗,如任務。第二條是繼續進行已經開始的短周期實驗,第三條是(內部)開發人工智能,以實現從遠程控制到更多自主系統的步驟。這三條線都將集中在戰斗功能上。雖然從后勤或傳感開始爭議較少,但國家擁有使用武力的壟斷權,因此有責任在這一領域啟動控制良好和負責任的研究和開發。在其他研究領域有可能出現雙重用途的情況下,軍隊應以最低限度的能力采用和吸收這些研究結果,使其成為軍事證據。在戰斗功能方面,需要與工業界和大學的技術專長緊密合作并結合具體的軍事領域知識。

9.3 先決條件與挑戰

上述所選方法的成功程度取決于某些先決條件和滿足這些條件的方式。以下因素對RAS項目第一階段的迅速開展至關重要。

首先,被指派領導項目的人必須有一種反叛和創業的心態,特別是在像軍隊這樣的大型官僚組織。這是必要的,以便以非傳統的方式將組織從A地轉移到B地。如果以傳統的方式進行,你最終可能只是把事情做得更好一點。第二,項目負責人必須表現出毅力和勇氣,因為這將是一個艱難的內部旅程,團隊會遇到很多不情愿、不靈活和保守的情況。第三,管理層必須表現出對項目負責人的充分信任,并以誠實的意圖而不是以時間表來支持任務。這意味著一級和二級管理層必須接受混亂和 "不受控制 "的感覺。因此,重要的是在組織內部盡可能低的層次上賦予全部責任。例如,在計劃開始時,只有少數項目和活動是由上級指揮部設立和了解的。但隨著時間的推移,RAS單元不斷壯大,項目和活動的數量也隨之增加。當上級指揮部和上級領導對他們所不知道的項目數量感到 "驚訝 "時,當他們 "面對 "進展的規模時,就出現了轉折點。盡管所有項目似乎都符合方案和指揮官的意圖,但未知的情況讓上級指揮部感到不舒服。花了一些時間和多次 "咖啡機會議 "才阻止了收緊規則和增加控制措施。為了提高上級指揮部對形勢的認識,同意在RAS-單元內引入某種聯絡方式。

造成這種失控感的部分原因是,RAS計劃是一個復雜的、全面的和技術性的計劃。它有各種各樣的基礎項目,在技術領域、工程師或概念的成熟度、工業伙伴和方法上都有所不同。所有這些較小和較大的項目在時間上平行和/或串行運行,最終都有助于實現商定的目標。但這需要對所有這些項目有深入的了解,并以整體的觀點來看待這種相互聯系。只看到這個復雜的拼圖的一部分會給人一種混亂的印象。然而,正如高級指揮部所意識到的那樣,對方案細節有一個非常簡要的概述,但對目標和目的有一個清晰的看法和把握,這是第一步。下一步是接受這種簡短的細節,抑制試圖掌握所有細節的第一反應,這仍然是方案中的一個問題。為解決高層領導的這一擔憂,一個可能的解決方案是創建一個大型的圖像序列,其中所有的(子)項目都圍繞著主要目標進行可視化,并概述這些(子)項目之間的關系。有了這樣的圖示,就更容易說服和告知上級指揮部這些(子)項目的必要性,以及它們在大局中的作用。最后,對于參與項目的每一個人來說,接受(或更好地擁抱)失敗并保持耐心是很重要的。

圖 9.NLRA,RAS 排。 Themis RC 機器人在奧地利與荷蘭步兵一起進行 CD&E 演習

9.4 前進之路

隨著RAS發展的重點放在戰斗上,荷蘭國防部已經啟動了對無人駕駛地面車輛(UGV)和人工智能(AI)的長期投資計劃。在15年的期限內,軍隊將投資于各種戰斗型UGV的實驗,包括進一步開發相應的人工智能。隨著這項投資集中在連級,實驗將被執行,以開發更大規模單元(如營或旅)的新操作概念,同時還將建立一個模擬程序。這一發展的第一步從2022年開始,并將在2023年繼續。目標是創造一個模擬環境,在這個環境中,指揮官和他的工作人員可以嘗試新的作戰概念,除了現有的軍隊裝備外,還可以自由地納入各種RAS。除了概念的發展,這些模擬的結果將為新單元的形成和設置、這些單元內所需的RAS組合以及這些系統的具體資格提供指導。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)有可能影響所有領域和大規模的軍事行動。本章探討了人工智能系統如何影響準備和開展軍事行動的主要工具,以及如何受其影響。本章分析和討論了人工智能在戰略、條令、規劃、交戰規則和命令方面的多層次影響。采取了一個廣泛的分析角度,能夠根據新的政策和技術發展,以及對政治、軍事、法律和道德觀點的考慮,對這個問題進行總體審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。提供了洞察力和途徑,以推進對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

引言

人工智能(AI)的軍事應用有可能影響所有領域和大規模的軍事行動的準備和進行。人工智能系統可以越來越多地支持和取代人類完成軍事任務,因為它們變得更快、更準確,并能夠處理更多的信息和更高的復雜程度。這可能促進軍事行動速度的提高和更好的軍事決策,最終為擁有高性能人工智能的武裝部隊提供顯著優勢。人工智能的軍事用途甚至可能導致軍事事務的另一場革命,盡管這種發展將取決于其他因素而不僅僅是技術。

人工智能可以被用于各種軍事目的。在多維戰場上,人工智能技術可以被用作傳感器、規劃者和戰斗機,或兩者的結合。更具體地說,人工智能的軍事應用可以從支持情報、監視和偵察(ISR)的系統到自主導航和目標識別系統。這可能導致軍事人員和人工智能系統之間不同形式的互動,以及將軍事任務委托給人工智能系統的不同層次。例如,人工智能系統可以在決策過程中協助指揮官和士兵,無人駕駛的人工智能系統可以與有人駕駛的系統一起協作,人工智能系統可以在最少的人類監督下自主運行。 雖然目前只存在狹義和特定任務的人工智能,但正在大力發展人工通用智能(AGI)--具有類似于人類思維的廣泛領域推理能力的系統。 這與人工智能系統的自主性不斷增強的趨勢是一致的。

鑒于人工智能的特殊性和未來的應用,出現了一個問題,即人工智能的引入將如何影響軍事行動。本章通過評估人工智能如何影響準備和進行軍事行動的主要工具并受其影響來探討這一問題。具體而言,本章分析和討論了人工智能在戰略(第1分章)、條令(第2分章)、規劃(第3分章)、交戰規則(第4分章)和命令(第5分章)方面的多層次影響。以下各章將對每個工具進行一般性解釋,然后討論這些工具與人工智能的具體相互關系。

本章采取了一個廣泛的分析角度,包括了部隊整合和指揮與控制(C2)等軍事概念的各個方面,但并不限于此。 這使得在新政策和技術發展的基礎上,以及在考慮政治、軍事、法律和倫理角度的情況下,能夠對這個問題進行更全面的審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。本章最后發現了人工智能與準備和進行軍事行動的主要工具之間的動態相互關系,并將人類操作員和人工智能之間的互動定位為核心基本問題。

由于軍事人工智能是最近才出現的,因此對納入人工智能的未來軍事行動的任何分析只能是暫時性的,并基于這樣一個前提,即目前對具有高度自主性的人工智能,進行操作化的挑戰將被克服。然而,鑒于技術的快速發展,本章為推動進一步的思考、研究和政策制定提供了見解和途徑,以便在軍事行動中適當整合、管理和使用AI。

1. 戰略與人工智能

軍事行動為國家的政治和戰略目標服務。在戰爭的三個層面(戰略、戰役和戰術)中,軍事戰略是最高的。它可以被描述為 "戰爭的安排 "或 "戰爭的方向"。它為軍事行動提供依據,處于政治和軍事領域的交界處。 從本質上講,軍事戰略是一項計劃,它將最終目標與實現這一目標的手段聯系起來。更具體地說,軍事戰略可以被定義為 "使用武裝力量來實現軍事目標,進而實現戰爭的政治目的 "或 "在戰爭中達到預期結果的概念和實際考慮的表現,涉及對特定敵人的組織、運動和戰術、戰役和戰略使用或承諾的力量。國家安全和國防戰略可以為軍事戰略建立總體框架,而且經常可以在白皮書中找到。

各國還沒有公開通報他們如何使用或打算使用人工智能來制定軍事戰略。因此,在現階段,分析人工智能對軍事戰略的影響以及反之亦然,必須依靠國防白皮書和各國的人工智能戰略。一般來說,雖然在過去幾年中,大約有50個國家發布了關于人工智能在多個部門(特別是民用和工業部門)的使用、發展和融資的官方人工智能戰略,但這些文件一般不關注或幾乎不提及國防應用。然而,主要軍事強國最近通過了與軍事人工智能有關的國家戰略或類似文件,表明各國已經意識到軍事人工智能的戰略重要性,并指導他們努力開發、采購和將人工智能系統納入其武裝部隊。

美國國防部(DOD)在2018年發布了一項人工智能戰略,該戰略強調了優先發展的領域,確定了應如何與民間社會組織建立發展伙伴關系,并制定了一項關于人工智能機器倫理的政策生成計劃。美國人工智能國家安全委員會在2021年發布了一份報告,提出了與人工智能有關的國家防御戰略。 目標是到2025年達到人工智能準備,這意味著 "組織改革,設計創新的作戰概念,建立人工智能和數字準備的性能目標,并定義一個聯合作戰網絡架構",以及贏得"技術競爭"。

俄羅斯到目前為止還沒有公布關于軍事人工智能的政策,但正在積極資助私營和公共部門的研究。2018年,俄羅斯舉行了一次會議,提出了十項政策建議(AI: Problems and Solutions 2018),這些建議構成了其人工智能戰略的非官方基礎。

歐洲國家在人工智能戰略方面處于類似的階段。在英國2021年國防白皮書通過后,英國國防部(MOD)在2022年通過了《國防人工智能戰略》。 該戰略規定了國防部采用和利用人工智能的速度和規模,與工業界建立更強大的伙伴關系,并開展國際合作,以塑造全球人工智能的發展。 法國沒有采取這樣的戰略,但其《國防人工智能報告》強調了將人工智能納入其武裝部隊的戰略優勢,如分析和決策的速度,優化作戰流程和后勤,以及加強對士兵的保護,并將機器學習歸類為研究和開發(R&D)的主要領域。

雖然更多的國家發表了關于人工智能的分析和政策,但卻沒有對未來的軍事戰略提出見解,北約在2021年通過了其人工智能戰略。該戰略是整個聯盟的人工智能準備和運作的基礎,隨后是北約的自主實施計劃,包括在2022年創建數據和人工智能審查委員會。 歐盟至今沒有采取類似的戰略,只限于在2020年的《人工智能、機器人和相關技術的倫理問題框架》中鼓勵與軍事有關的人工智能領域的研究。

由于各國關于人工智能或與人工智能相關的國防戰略并沒有明確說明人工智能將如何影響軍事戰略,因此可以根據未來可能使用人工智能進行戰略決策的跡象來確定各自的期望。人工智能在戰爭戰略層面的應用實例是對核指揮、控制、通信和情報(C3I)架構的貢獻;導彈和防空系統的目標獲取、跟蹤、制導系統和識別;網絡能力;以及核和非核導彈運載系統。

對于軍事戰略來說,最重要的是,人工智能的應用可以幫助決策者監測戰場并制定方案。事實上,可以開發人工智能來預測其他國家的行為和反應,或生成正在進行的沖突的進展模擬,包括兵棋推演模型。人工智能還可以用來評估威脅,提供風險分析,并提出行動方案,最終指導決策者采取最佳對策。 此外,人工智能可以支持武裝部隊的方式和手段與既定的政治和戰略目標相一致,這是軍事戰略的一個主要功能。這種發展的一個后果是軍事進程的速度和質量都會提高。雖然這將為那些擁有高性能人工智能的國家提供巨大的優勢,但這也可能迫使武裝部隊越來越多地將軍事行動的協調工作交給人工智能系統。

將人工智能用于軍事戰略也可能導致挑戰,包括預測性人工智能需要無偏見和大量的數據。可靠的人工智能系統將需要用龐大的數據集進行訓練。 此外,專家們警告說,人工智能可能會加劇威脅,改變其性質和特點,并引入新的安全威脅。 一項關于將人工智能納入核C2系統的桌面演習表明,這種系統 "容易受到惡意操縱,從而嚴重降低戰略穩定性"。這種脆弱性主要來自于第三方使用技術欺騙、破壞或損害C2系統所帶來的風險,這表明系統安全對AI用于軍事戰略的重要性。

另一個重要的挑戰是,人工智能可能會加快戰爭的速度,以至于人類將不再能夠跟隨上述速度的發展,最終導致人類失去控制。 這種現象被稱為 "戰場奇點 "或 "超戰爭",可能導致戰略錯誤和事故,包括非自愿的沖突升級。即使這種風險能夠得到緩解,對人工智能的更多依賴也會減少軍事戰略中人的因素,特別是心理學和人的判斷。觀察家們認為,這可能會導致 "人工智能如何解決人類提出的問題,以及人類如果擁有人工智能的速度、精度和腦力會如何解決這個問題 "之間的差距。 然而,專家們也提出,戰略的制定需要對價值的理解,成本的平衡,以及對戰爭所處的復雜社會系統的理解,從而大大限制了人工智能在軍事戰略上的應用。還有一種可能是,當敵人擁有人工智能系統提供的高水平的理性預測能力時,決定性的因素將不是人工智能系統的能力,而是人類的判斷,特別是關于關鍵和困難的選擇。然而,這假定了某種程度的有意義的人類參與。

總之,主要的軍事大國正在投資開發、獲取和操作其武裝部隊的人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

總之,主要的軍事大國正在投資開發、獲取和使用人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

2. 條令與人工智能

軍事條令進一步指導軍事行動的準備和執行。軍事條令可以被定義為 "從制度化的角度來看,執行軍事任務和職能普遍接受的方法"。因此,它代表了'在戰爭和軍事行動中什么是有效的制度化信念'。條令一般包含三個關鍵要素,即理論(什么是有效的,什么會導致勝利)、權威(條令必須被認真對待)和文化(組織及其成員是誰)。 因此,條令回答了 "軍隊認為自己是什么('我們是誰'),它的任務是什么('我們做什么'),如何執行任務('我們怎么做'),以及歷史上如何執行任務('我們過去怎么做')"等問題。 《美國陸軍條令入門》將條令描述為由基本原則、戰術、技術、程序以及術語和符號組成。

鑒于條令的目的和功能,人工智能在發展軍事條令方面的作用可能有限。它可能會繼續由人類創建和修訂。人工智能的具體作用可能僅限于監測武裝部隊的進程與他們的條令是否一致,以確定過去的工作,并支持對條令的質量和影響進行評估。為了有效地告知負責定義條令的軍事人員,這可能需要透明和可解釋的人工智能方法,否則軍事人員將無法理解并做出適當的決定。

然而,條令在設定人工智能的使用和人類互動的基本原則、價值和參數方面具有重要作用。值得注意的是,軍事條令是界定武裝部隊如何感知、理解和重視人工智能的適當手段。由于人工智能的高度自主性,武裝部隊可能需要明確人工智能是否被視為一種技術工具,或者說是一種代理手段。在這個意義上,條令可以定義武裝部隊是否將人工智能視為簡單的數學、技術系統,或者說是具有認知能力的工具。條令可以定義人類在組織中的價值、地位和作用,以及使用人工智能的過程。由于軍事行動和戰爭是人類為達到目而發起的行動,條令可以明確這意味著什么。在這種情況下,條令也可以定義人類與人工智能系統互動的價值和原則,包括人工智能需要為人類服務而不是相反。

同樣,條令也是定義人工智能系統的開發、獲取和使用的道德標準工具。由于軍事條令是根據國際法起草的,并且通常呼吁武裝部隊成員尊重國際法,因此條令也可以定義人工智能系統和運營商遵守國際法的方式。條令是對人工智能和人機協作施加限制的重要工具,適用于各軍種和武裝部隊的所有成員。這可能意味著對人工智能系統進行有意義的人類控制的一般要求,或禁止將某些功能授權給人工智能系統。

更具體地說,條令可以為人工智能融入組織流程設定原則和參數。例如,從事數據整合、優先排序的人工智能系統可能需要修訂軍事條令和武裝部隊使用和收集信息的準則。雖然僅限于觀測的任務系統需要有限的條令調整,但有更多 "積極 "任務的系統可能需要更具體的指導方針,如保障措施、自主程度、與操作者的溝通以及與人類部隊的互動。此外,有人認為,戰術應用主要是基于規則的決策,而戰役和戰略決策往往是基于價值的。每個級別的首選決策過程類型以及這種過程是否應該標準化,可以在條令層面上確定。

迄今為止,各國還沒有公布專門針對人工智能系統的軍事條令。英國國防部關于無人駕駛飛機系統的聯合條令是目前唯一公開的涉及軍事系統自主性的軍事條令。 然而,未來關于人工智能或與人工智能相關的軍事條令可能會根據人工智能的道德使用政策來制定。 事實上,這種政策定義了相關的價值觀、原則和使用軍事人工智能的形式,并為其提供指導,其目的與軍事條令類似。一些國家和組織最近通過了這種關于軍事人工智能道德使用的政策,包括北約。

美國國防部為人工智能的發展和使用采用了五項道德原則。系統需要負責任、公平、可追蹤、可靠和可治理。這些原則規定,美國防部人員負責人工智能系統的 "開發、部署和使用",因此必須表現出良好的(人類)判斷能力。此外,美國防部明確確定,必須努力將人工智能運作的數據偏見降到最低。 此外,美國國防部2012年3000.09指令確定了美國對致命性自主武器系統(LAWS)的立場。它定義了致命性自主武器系統,確定了三類智能武器系統(自主、半自主和人類監督的自主系統),并為其行動設定了一般界限,以及有關人類操作員的作用和法律審查的標準。

同樣,歐盟議會也通過了一份題為《人工智能:國際法的解釋和應用問題》(人工智能的民事和軍事使用準則),其中特別討論了人工智能的軍事應用。 該報告包含了關于歐盟成員國開發和使用軍事人工智能應用的強制性準則以及一般性結論。首先,報告解釋說,人工智能不能取代人類決策或人類責任。 第二,為了合法,致命性自主武器系統必須受到有意義的人類控制,要求人類必須能夠干預或阻止所有人工智能系統的行動,以遵守國際人道主義法(IHL)。第三,人工智能技術及其使用必須始終遵守國際人道主義法、國際刑事法院羅馬規約、歐盟條約、歐盟委員會關于人工智能的白皮書,以及包括透明度、預防、區分、非歧視、問責制和可預測性等原則。

2021年4月,法國道德委員會公布了一份關于將致命性自主武器和半自動武器納入武裝部隊的意見。盡管其內容尚未得到國防部長的批準,但它代表了未來潛在的軍事條令。該文件重申了人類對自主武器的致命行動保持一定程度控制的重要性,并聲稱法國不會開發也不會使用完全自主的武器。同樣,澳大利亞發表了一份題為《國防中的道德人工智能方法》的報告,其中討論了與軍事人工智能應用有關的道德和法律考慮,但并不代表官方立場。

總之,除了評估和修訂之外,人工智能不太可能對創建軍事條令有實質性的作用,因為條令的作用是定義和規范軍事組織問題以及與信仰、價值觀和身份密切相關軍事行動的各個方面。然而,正是由于這種功能,條令在確定武裝部隊與人工智能的基本關系方面具有重要作用。特別是,條令適合于籠統地規定人工智能將(不)用于哪些任務,人工智能將(不)如何使用,以及組織及其成員如何看待和重視人工智能。最重要的是,鑒于人工智能的特點,條令可以確定人類如何并應該與人工智能互動,以及何種組織文化應該指導這種關系。因此,條令可以為進一步的軍事指令和程序設定規范性框架。各國的道德準則可以作為軍事條令的基礎并被納入其中。

3.規劃和人工智能

根據各自的軍事條令制定的作戰和行動計劃,是根據現有手段實現軍事目標的概念和指示。規劃反映了指揮官的意圖,通常包括不同的行動方案(COA)。存在各種軍事計劃和決策模式,但北約的綜合作戰計劃指令(COPD)對西方各種模式進行了很好的概述和綜合。 例如,加拿大武裝部隊遵循六個步驟,即啟動、定位、概念開發、決策計劃制定和計劃審查。一般來說,規劃包括 "規劃和安排完成特定COA所需的詳細任務;將任務分配給不同的部隊;分配合適的地點和路線;刺激友軍和敵軍的戰斗損失(減員);以及重新預測敵方的行動或反應。

雖然規劃需要考慮到人工智能系統在軍事行動中的使用,但人工智能最有可能被用于規劃本身。用于軍事規劃或與之相關的人工智能應用是ISR系統、規劃工具、地圖生成機器人,以及威脅評估和威脅預測工具。 與規劃有關的進一步人工智能應用可能包括大數據驅動的建模和兵棋推演。例如,美國陸軍為其軍事決策過程(MDMP)開發了一個程序,該程序采用 "高層次的COA"(即目標、行動和順序的草案),并根據這個總體草案構建一個詳細的COA,然后測試其可行性。這表明,人工智能可以發揮各種功能,從COA提議到解構和測試。

人工智能應用可能會對計劃產生強烈影響。規劃軍事行動是一個緩慢而繁重的過程,它依賴于對 "結果、損耗、物資消耗和敵人反應 "的估計。它涉及到對特定情況的理解、時空分析和后勤問題。然而,有限時間和勞動力限制了可以探索的選項數量。此外,預測可以說是"作戰指揮官最棘手的任務之一"。只要能提供足夠數量和質量的數據,人工智能在預測的質量和速度上都可能會有出色的表現。數據分析能夠進一步處理比人類計算更多的信息,最終減少"戰爭迷霧"。由于人工智能程序可以將行動分解為具體的任務,然后相應地分配資源,預測敵人的行動,并估計風險,因此人工智能的使用將提高決策的總體速度和準確性。增加可考慮的COA數量將進一步使規劃過程得到質量上的改善。

然而,使用人工智能進行規劃也有潛在的弊端。由人工智能驅動的更快規劃所帶來的戰爭速度提高,可以說會減少決策者的(再)行動時間,這可能會損害決策的質量。還有人質疑,人工智能驅動的規劃是否會"導致過度關注指揮分析方面,通過書本和數字削弱了軍事指揮決策的直覺、適應性和藝術性"。指揮官和其他軍事人員也可能變得過渡依賴技術,使他們變得脆弱。剩下的一個挑戰是產生足夠的相關數據,讓人工智能規劃系統正常工作并產生有意義的結果。

人工智能系統將執行規劃任務以及協助軍事人員,但它們可能不會根據這些計劃做出適當決策。事實上,有人認為,人工智能系統難以完成與指揮有關的任務,如設定目標、優先事項、規則和約束。因此,人類的判斷對于這些任務仍然是必要的。人工智能寧愿執行控制任務,并最終彌補軍事人員的認知偏差。然而,隨著新版本的C2(部分)納入人工智能,觀察家們質疑是否清楚誰將擁有跨領域的決策權,人類在這種架構中會和應該發揮什么作用,以及技術是否準備好進行大規模開發。

當強大的人工智能系統被用于軍事規劃時,規劃和決策之間的區別可能會變得模糊不清。與人類因軍事行動的高速發展而無法正確跟蹤事件進程的風險類似,將規劃任務更多地委托給人工智能可能意味著指揮官和規劃者不再能夠理解或追溯系統如何得出結論。同樣,指揮官可能會因審查眾多擬議計劃或COA的任務而被壓垮。人工智能生成的方案也可能意味著更高的復雜程度。因此,人工智能可以被用來消化信息,只向指揮官提供最相關的內容。然而,這可能會導致對人工智能的進一步過度依賴。因此,強大的人工智能系統,或系統簇(SOS),將需要一定程度的可預測性和透明度。

總之,與人工智能的其他軍事應用相比,至少在中短期內,人工智能可能會對規劃產生最重大的影響。由于規劃是極度時間和資源密集型的,人工智能系統可以導致速度、精度和質量的提高。這可能會對軍事行動和戰爭產生重大影響,因為有人認為,軍事競賽的贏家是那些在觀察、定位、決策和行動(OODA環)中工作最快的人。一個進一步的影響是,規劃的自動化導致了軍事決策的(進一步)合理化,包括人員傷亡的合理化。另一個后果是對人力的需求減少。然而,規劃方面的人力需求減少并不意味著基于軍事規劃決策的人力判斷需求減少,特別是在價值觀和直覺仍然是規劃的核心內容情況下。

4. 交戰規則與人工智能

交戰規則(ROE)用于描述軍事力量部署的情況和限制。交戰規則可采取多種形式,包括執行命令、部署命令、作戰計劃和長期指令。無論其形式如何,它們都對 "使用武力、部隊的位置和態勢以及使用某些特定能力 "等進行授權或限制。交戰規則有共同的要素,如其功能和在作戰計劃中的地位,以及其他基本組成部分。交戰規則通常是 "軍事和政治政策要求的組合,必須受到現有的國際和國內法律參數約束"。因此,其要素和組成部分反映了軍事行動、法律和政治要素。通用的交戰規則和模板文件,如北約的MC362/1和Sanremo交戰規則手冊,可以作為交戰規則起草者的基礎或靈感,而這些起草者通常是軍事法律顧問。雖然交戰規則一般不會分發給所有低級軍官,但士兵們經常會收到含有簡化的、基本版本的交戰規則記憶卡。

交戰規則是與軍事力量部署和武力使用有關的更大監管框架的一部分。因此,它們與其他類型的軍事指令相互作用,特別是目標選擇和戰術指令。目標定位指令提供了關于目標定位的具體指示,包括對目標的限制和盡量減少附帶損害。戰術指令是 "針對整個部隊或特定類型的單位或武器系統的命令,規定在整個行動中執行特定類型的任務或在行動中限制使用特定的武器系統。雖然交戰規則不是必不可少的,但它們可以為部隊及其成員提供更具體和細微的指示。

交戰規則是確定如何使用人工智能以及在哪些條件下可以在特定情況下應用的適當工具。交戰規則——或相關的行為規則——可以為人工智能的各種軍事應用設定參數,從而將特定的政治、軍事、法律和道德考慮以及來自更高組織或規范梯隊的限制,如條令或國際法律義務,轉化為具體指令。因此,ROE可以代表一個行動框架,被編入AI系統。例如,ROE可以確定一個地理區域或某個潛在任務的清單,系統被授權采取行動。在這些限制之外,他們將不會對處理過的信息采取行動。時間或其他限制,如預先設定的允許(不)與特定目標交戰,也可以由ROE定義。同樣,ROE可以預見一個系統需要標記的意外事件或問題。在這種情況下,有些人提出,人工智能可能會根據環境或其編程的任務來選擇應用哪種ROE。

ROE也可以定義人類和人工智能系統在特定任務中的互動。特別是,ROE可以確定指揮官或操作員在部署期間需要如何監測和控制該系統。由于對人類控制的需求可能會根據歸屬于人工智能系統的具體任務以及各自的背景和行動而有所不同,人工智能的ROE可以定義某些類型的行動或階段的自主性水平。ROE可以進一步處理或參考其他來源,如手冊和指令,關于如何實施各種形式的人類控制,如直接、共享或監督控制。重要的是,ROE可以限制指揮官或操作人員的權力,這可能迫使他們在指揮系統中參考上級。這可能是軍事行動中關于人機協作的ROE的一個重要作用,特別是在面對未曾預料到的情況或問題時,系統或其使用沒有事先得到授權。

當人工智能被用于傷害人和物或與之有關時,如在定位目標的情況下,ROE尤其相關。特別是當考慮到人工智能不能將道德或背景評估納入其決策過程時,在做出使用致命武力的決策時,人類的控制和判斷應該是有意義的。如上所述,大多數公開的政策在原則上確立了這種監督,但很少明確其確切含義。交戰規則和指令可以填補這一空白。為此,可以為人工智能系統的操作者制定與目標定位有關的行為準則,或為此類系統制定ROE模式。

事實上,雖然到今天為止還沒有能夠在沒有人類授權的情況下攻擊人類目標的自主武器,但在目標定位方面,更加自主的系統將是一個大的趨勢。與目標定位有關的現有軍事應用是目標識別軟件,如可以檢測衣服下爆炸物的Super aEgis II,以及用于目標交戰的系統。美國人工智能制導的遠程反艦導彈(LRASM)被宣傳為能夠自主地選擇和攻擊目標,甚至在GPS和通信受阻的環境中,如深水和潛在的外太空。另一個值得注意的事態發展是,據報道,2020年3月在利比亞部署了一架土耳其Kargu-2無人機,據稱該無人機在沒有人類操作員授權的情況下跟蹤和攻擊人類目標。它的使用可能代表了一個重要的先例,即在人類控制非常有限的情況下使用人工智能系統進行目標定位。

由于需要對ROE進行管理,人工智能可以協助主管當局協調、實施并最終確定ROE。軍事、政治、法律和道德目標和參數需要由軍事人員提供--至少在初始階段。正如北約的MC362/1號文件和《圣雷莫ROE手冊》所說明的那樣,ROE的后續管理是一個系統的、反復的過程,包括將具體的權力賦予不同級別的指揮部,以及監測ROE的實施和遵守情況。隨著時間的推移,人工智能系統可能會學會緩解ROE內部和之間的摩擦,以及為其適應性提升效率。例如,盡管國際法的實質內容可能本質上需要基于價值的判斷,而這種判斷不應委托給人工智能系統,但界定哪些規則需要在哪些情況下適用并不是一個過于復雜的理性過程。為了避免改變現有法律框架的實質內容,這種功能要求任何用于管理ROE的AI應用不能侵犯歸屬的權力。

總之,ROE可以成為一個有用的工具,以具體和實用的方式指導軍事AI的使用。因此,它可以補充和執行上級的政策、法規和準則,從而使軍事、政治、法律和道德目標和原則轉化為具體行動。ROE的指導對于人機協作,以及定義和具體化與人工智能系統有關的人類控制和判斷,在目標定位方面尤其重要。人工智能的應用可以進一步提高ROE管理的質量和效率。雖然這可能有助于協助軍事人員,類似于人工智能應用于軍事規劃,但軍事人員需要對ROE的實質進行有效監督,即誰或什么系統在什么情況下可以使用武力。然而,如果人工智能能夠實現更廣泛的、更細微的、更快速的交替性ROE,確保這種監督可能會變得具有挑戰性。

5. 作戰命令與人工智能

規劃和實施軍事行動的最具體的工具是命令。例如,北約和美國陸軍將命令定義為 "以書面、口頭或信號的方式傳達上級對下級的指示"。雖然有不同類型的命令,但它們一般都很簡短和具體。命令可以是口頭的,也可以是圖形的,還可以是疊加的。它們必須遵守法律以及上級的軍事文件和文書。另一個經常使用的術語是指令,它被定義為 "指揮官下達的命令,即指揮官為實現某一特定行動而表達的意愿。

從軍事參謀人員到人工智能系統的指令將采取系統初始開發的形式,有關任務目標和限制的參數編程,以及操作人員在操作期間的輸入。人類和人工智能系統之間的這些互動形式可能會履行傳統上歸屬于命令的功能。雖然人工智能系統的開發和操作,特別是機器學習,有其特殊的挑戰,但測試表明,機器并不存在不服從命令的內在風險。由于在操作過程中人的輸入等于人對系統的控制,如果一個系統能夠根據適當的學習自主地調整其行為,這一點就特別重要,現在正在開發防止系統在沒有人類輸入下采取行動的保障措施。例如,美國國防部3000.09指令規定,致命性武器系統的編程方式必須防止其在未經人類事先批準的情況下選擇和攻擊目標,特別是在失去通信的情況下。

人工智能和操作人員之間具體的互動形式仍在繼續開發。美國陸軍實驗室設計了一種軟件,使機器人能夠理解口頭指示,執行任務,并進行匯報。會說話的人工智能現在也被開發出來,以實現操作員和系統之間的口頭對話。這種互動使系統能夠要求其操作者進行澄清,并在任務完成后提供更新,以便士兵在工作中獲得最新的信息。諸如此類的應用可能使軍事人員更容易與人工智能合作,并減少操作員對人工智能控制的學習曲線。然而,人工智能應用也可以支持指揮官下達命令和指令的任務。人工智能尤其可以用來提高通信系統的穩健性和容錯性,這顯然可以使命令的傳輸更加安全。

雖然人工智能系統可能不會被委托正式發布命令,但是類似的動態可能會出現。對于人工智能系統之間的互動,命令是沒有必要的,因為系統只是作為數字應用網絡的一部分交換信息。關于對軍事人員的命令,武裝部隊似乎不可能接受人工智能系統向其成員發出指令。然而,由于人工智能系統可能會以越來越高的速度和復雜性提出行動建議,作為人類決策的輸入,軍事人員可能不會質疑這些建議,沒有時間批判性地評估它們,或者根本無法理解系統如何得出結論。如果他們還是以這些建議為基礎采取行動,這種對系統輸入的過度依賴可能意味著系統事實上向人類發布命令。還有可能的是,通過信息技術接收指令的較低層次的操作員和士兵可能無法知道某個命令是由人類還是人工智能系統創造的。為了排除這種結果,軍事條令和指令需要建立與命令有關程序的透明度。

總之,在軍事行動中,正式的命令很可能與控制人工智能無關。然而,命令和指令的傳統概念可以幫助分析、分類和發展人工智能系統和人類操作員之間的未來互動。在這種情況下,卡爾-馮-克勞塞維茨提出的管理方法和任務型戰術(Auftragstaktik)之間的傳統區別表明,人類對人工智能系統的投入,即人工智能系統的開發、編程和操作控制,可以根據對執行任務細節的程度來進行分類。鑒于人工智能的特質,我們有理由認為,當人工智能系統被賦予高水平的自主權,類似于任務型戰術時,將對武裝部隊最有價值。同時,人類在行動中的投入將是非常精確的,起到管理作用。然而,最重要的是,這又回到了上文討論的可以授予 AI 系統多少自主權的根本問題。

結論

人工智能有可能影響所有領域和大規模的軍事行動。轉變的程度主要取決于未來的技術發展。然而,這也取決于武裝部隊將賦予人工智能的作用和功能。從這兩個因素中可以看出,人工智能與準備和開展軍事行動的主要工具之間存在著動態的相互關系。一方面,人工智能的引入將影響到這些工具以及軍事行動的準備和實施。另一方面,這些工具在監管和使用人工智能方面發揮著重要作用。這種相互關系是動態的,因為它很可能隨著技術的發展、部隊對人工智能系統的經驗、組織文化和社會價值觀的變化而變化。

上述內容討論了人工智能與準備和執行軍事行動的主要工具之間的相互關系,而其中核心潛在的問題是人類操作員與人工智能系統之間的相互作用。在戰略方面,國家的官方文件證明,獲得和運用人工智能具有戰略意義。人工智能將可能支持軍事戰略,特別是預測和規劃。戰略中的人為因素可能仍然至關重要,因為戰略依賴于本能和價值觀,但軍事人員有可能過度依賴人工智能。對于軍事條令,人工智能的作用可能僅限于評估和協助修訂條令。條令在決定武裝部隊的目的、價值觀和組織文化方面的功能表明,它將在確定武裝部隊如何看待人工智能系統并與之互動方面發揮重要作用。

人工智能將極大地幫助軍事規劃,特別是基于人工智能高速和精確地處理復雜和大量數據的能力。因此,即使人工智能系統不會被委托做出決策,軍事規劃人員和指揮官也有可能過度依賴他們的分析和建議,尤其是在時間壓力下。因此,人工智能支持決策和人工智能作出適當決策之間的界限可能會變得模糊不清。關于ROE,盡管人工智能可以支持ROE的管理,但后者主要是一個適當的工具,以具體的方式為具體的任務劃定人工智能的使用。這尤其適用于人機合作和人對人工智能應用的控制。在軍事命令方面,人工智能系統可能會大大協助指揮和控制,但不會被委托發布命令。然而,在實踐中,可能很難區分由算法發布的命令和由指揮官發布的命令。這可能會導致人工智能支持和人工智能決策之間的混淆,類似于規劃的情況。

因此,如果人類操作員和人工智能系統之間的交互,是人工智能與準備和執行軍事行動的主要工具之間動態相互關系的核心潛在問題,那么無論是技術發展還是工具適應性都需要特別注意適當的人類與人工智能的交互。可以預計,技術進步將主要塑造未來的人機協作模式。軍隊結構、標準和流程可能會跟隨技術發展而相應調整。然而,關鍵是要積極主動地界定基本原則、價值觀和標準,而不是簡單地適應技術發展,成為路徑依賴或面臨意想不到后果。

畢竟,關注適當的人與人工智能互動不僅是道德和法律的必要條件,也是通過引入人工智能有效提高軍事行動的必要條件。因此,對人工智能和軍事行動的進一步思考和研究,以及對人工智能和戰略、條令、規劃、ROE和命令的進一步思考和研究,應該側重于人機互動,因為這仍然是人工智能戰爭最緊迫的挑戰。這可能有助于在人工智能影響工具和這些工具管理軍事人工智能之間找到并確定一個適當的平衡。

付費5元查看完整內容

戰爭的特點正在發生變化,但它仍然是一項以人為中心的緊張工作。武裝部隊繼續調整他們的作戰方法,使用新興的和破壞性技術,擁抱數字時代。在這些技術中,快速發展的RAS有可能為未來的戰斗空間帶來最重要的范式轉變之一。在這種情況下,RAS代表著從一些曾經被認為是完全 "人類 "活動的作戰活動中消除對人類和人類智能的依賴,從根本上重塑了未來戰爭的特征。隨著RAS技術變得更加先進、可用和負擔得起,潛在對手的能力也將繼續擴大,變得更加智能和靈活。這縮小了裝備精良的軍隊和有動機的個人或團體之間的能力差距,在未來的沖突中代表了新的和重大的威脅。

隨著技術先進性的不斷發展,澳大利亞的戰略環境也在不斷變化,進一步影響了未來由RAS帶來的機會和威脅。正如《2020年國防戰略更新》(DSU)所強調的,澳大利亞現在處于一個高度動態的戰略環境中。印度洋-太平洋地區的軍事化進程加快,灰色地帶的活動更加普遍,潛在對手越來越多地利用破壞性和新興技術,這些都促使區域競爭加劇。這促進了對RAS所提供的靈活性、可擴展性和決策優勢機會的關注,以加強聯合部隊。這一重點在澳陸軍的 "加速戰爭 "計劃中得到了延續,強調了RAS和新興技術在實現持續適應性和未來準備的陸軍中的重要性,并在未來的行動中提供了潛在的補償。2020年底發布的ADF RAS概念進一步強調了這一點,該戰略既借鑒了RAS概念,也嵌套了它。

通過澳大利亞皇家海軍的RAS/AI戰略8、澳大利亞皇家空軍的杰里科破壞性創新(JDI)、澳大利亞國防軍RAS概念和國防科技集團(DSTG)STaR Shots計劃所展示的社區。因此,未來陸軍內部由RAS支持的技術變革必須以聯合作戰理念為基礎,以充分應對未來的挑戰。為實現這一技術變革,陸軍提出了修訂后的陸軍RAS戰略,旨在通過RAS為未來的陸軍創造并保持競爭優勢。

未來陸軍的RAS能力實例包括由自主智能體、集群和跨網絡物理的人-機團隊。RAS將通過高速信息分析和分配來提高態勢感知、生存能力和殺傷力。這將創造情報,推薦行動方案以推動優勢。

建立和保持這樣的競爭優勢是一項復雜的工作,需要整個軍隊和更廣泛的國防部門的協調努力。 澳大利亞不再為國防規劃假設10年的戰略預警時間,陸軍必須迅速工作,以應對這些挑戰,實施未來的RAS能力。這包括快速技術發展和插入的內在困難,越來越多的科學、技術、工程和數學(STEM)勞動力的主權,資源限制,以及政策和法律的導航。陸軍RAS戰略V2.0是一個確定和考慮這些挑戰的機會,以指導陸軍的凝聚力,為聯合部隊的未來陸軍利用機器人、人工智能和自主性的真正潛力。

付費5元查看完整內容

本文描述了一個反蜂群場景的作戰概念(ConOps),其中防御方使用蜂群無人機來防御攻擊的蜂群無人機。作戰概念是對一個系統的元素和其環境中的實體如何互動以實現其既定目標的高級概念描述。它已被證明是設計復雜技術系統的一個有用和綜合的要素。本文提出的反蜂群場景將為以下問題提供答案:如何部署兩個無人機群,如何將場景引入仿真系統,以及如何監測和監督其進展。通過使用反蜂群模擬器并與芬蘭國防軍的軍事專家進行討論和訪談,起草了反蜂群場景初步版本的作戰概念。

高度自主和智能的機器人群在軍事領域越來越受歡迎,因為群集系統可以比單一設備更有效和高效地執行許多種任務。蜂群機器人技術是一種旨在開發多機器人系統的技術方法,它以許多具有成本效益的機器人為基礎。在這里,我們介紹了反蜂群場景的作戰概念(ConOps)的開發,在這個場景中,防御方使用無人機群來防御一個目標,以抵御攻擊性無人機群。作戰概念是對一個系統的元素和其環境中的實體如何互動以實現其既定目標的高層次概念描述。它已被證明是設計復雜技術系統的一個有用的綜合要素。反蜂群場景的ConOps將提供以下問題的答案:如何部署兩個蜂群,如何將方案引入模擬系統,以及如何監測和監督其進展。

ConOps開發中的一項關鍵任務是為正在開發的系統定義主要的性能要求。我們進行了專家訪談,在此基礎上,我們起草了機器人車輛群和反群行動的主要要求,并與早期項目中確定的要求進行了比較。在本文中,我們還將概述對機器人群的高級控制概念,包括形勢評估、協調任務進展、報警處理以及提醒其他執法單位和載人車輛注意等任務。

本文的其余部分結構如下。首先,我們回顧了一些關于反蜂群的相關文獻。第二,我們在概念層面上定義了ConOps的含義,給出了一些機器人群的ConOps的例子,并介紹了一個早期的軍事領域的自主機器人群的ConOps。第三,我們介紹了我們的訪談結果,以及為反蜂群場景開發ConOps的目標和進展。

付費5元查看完整內容

許多軍事人工智能的研究和開發資金是針對短期內可以實現的戰術級系統的改進。在這里,人工智能(AI)的潛在好處往往受到感官輸入質量和機器解釋能力的限制。然而,為了充分理解人工智能在戰爭中的影響,有必要設想它在未來戰場上的應用,傳感器和輸入被優化為機器解釋。我們還必須嘗試理解人工智能在質量上和數量上與我們的有什么不同。本文介紹了綜合作戰規劃過程中自動化和機器自主決策的潛力。它認為,人工智能最重要的潛力可能是在戰役和戰略層面,而不是戰術層面。然后探討了更多機器參與高級軍事決策的影響,強調了其潛力和一些風險。人工智能在這些情況下的應用發展應該被描述為一場我們輸不起的軍備競賽,但我們必須以最大的謹慎來進行。

1 引言

目前,人工智能(AI)的民用發展大大超過了其在軍事方面的應用。盡管知道網絡將是一個重要的未來領域,但國防部門還沒有習慣于數字-物理混合世界,因此,國防部門與新的社會技術的顛覆性變化相對隔絕。在軍事上運用人工智能的努力往往集中在戰術應用上。然而,人工智能在這些領域的好處受到輸入傳感器的限制,它們被用來復制人類的行為,并在需要與物理環境互動的角色中使用。在作戰和戰略層面上,軍事總部的特點是信息的流入和流出。如今,這些產品無一例外都是完全數字化的。考慮到作戰計劃的過程,可以看出,即使在目前的技術水平下,其中有很大一部分可以可行地實現自動化。這種自動化的大部分并不構成可能被理解的最純粹意義上的人工智能,即 "擁有足夠的通用智能來全面替代人類的機器智力"。然而,軟件可以在特定任務中勝過人類的事實,再加上高級軍事決策過程被細分為此類特定任務的事實,使其成為比較人類和機器決策的優點、限制和能力的有用工具。這樣做,人類的能力似乎有可能被輕易取代。因此,追求軍事決策自動化的動機肯定是存在的。本文討論了部分自動化軍事決策的潛力和實用性,并想象了為這些目的無限制地發展人工智能可能帶來的一些風險和影響。

付費5元查看完整內容

自動化使系統能夠執行通常需要人類投入的任務。英國政府認為自動化對保持軍事優勢至關重要。本論文討論了當前和未來全球自動化的應用,以及它對軍事組織和沖突的影響。同時還研究了技術、法律和道德方面的挑戰。

關鍵要點

  • 在軍事行動中部署自動化技術可以提高有效性并減少人員的風險。
  • 在英國和國際上,自動化正被用于情報收集、數據分析和武器系統。
  • 英國政府正在開發自動化系統;技術挑戰包括數據管理、網絡安全以及系統測試和評估。
  • 軍事自動化的法律和道德影響受到高度爭議,特別是在武器系統和目標選擇方面。

背景

許多軍事系統都有自動化的特點,包括執行物理任務的機器人系統,以及完全基于軟件的系統,用于數據分析等任務。自動化可以提高某些現有軍事任務的效率和效力,并可以減輕人員的 "枯燥、骯臟和危險 "的活動。 許多專家認為,自動化和自主性是與系統的人類監督水平有關的,盡管對一些系統的定位存在爭議,而且對系統是否應被描述為 "自動化 "或 "自主 "可能存在分歧。英國防部在其 "自主性譜系框架 "中概述了5個廣泛的自主性水平,從 "人類操作 "到 "高度自主"。一個系統可能在不同的情況下有不同的操作模式,需要不同程度的人力投入,而且只有某些功能是自動化的。方框1概述了本公告中使用的定義。

方框1:該領域的術語并不一致,關鍵術語有時可以互換使用。

  • 自動化系統。自動系統是指在人類設定的參數范圍內,被指示自動執行一組特定的任務或一系列的任務。這可能包括基本或重復的任務。

  • 自主系統。國防科學與技術實驗室(Dstl)將自主系統定義為能夠表現出自主性的系統。自主性沒有公認的定義,但Dstl將其定義為 "系統利用人工智能通過自己的決定來決定自己的行動路線的特點"。自主系統可以對沒有預先編程的情況作出反應。

  • 無人駕駛車輛。朝著更高水平的自主性發展,使得 "無人駕駛 "的車輛得以開發,車上沒有飛行員或司機。有些是通過遠程控制進行操作,有些則包括不同程度的自主性。最成熟的無人駕駛軍事系統是無人駕駛航空器,或稱 "無人機",其用途十分廣泛。

  • 人工智能。人工智能沒有普遍認同的定義,但它通常是指一套廣泛的計算技術,可以執行通常需要人類智慧的任務(POSTnote 637)。人工智能是實現更高水平的自主性的一項技術。

  • 機器學習:(ML,POSTnote 633)是人工智能的一個分支,是具有自主能力的技術的最新進展的基礎。

英國政府已經認識到自主系統和人工智能(AI,方框1)的軍事優勢以及它們在未來國防中可能發揮的不可或缺的作用。在其2021年綜合審查和2020年綜合作戰概念中,它表示致力于擁抱新的和新興的技術,包括自主系統和人工智能。2022年6月,英國防部發布了《國防人工智能戰略》,提出了采用和利用人工智能的計劃:自動化將是一個關鍵應用。在全球范圍內,英國、美國、中國和以色列擁有一些最先進的自主和基于AI的軍事能力。方框2中給出了英國和全球活動的概述。

方框2:英國和全球活動

  • 英國 英國政府已表明其投資、開發和部署用于陸、海、空和網絡領域軍事應用的自主和人工智能系統的雄心。最近的投資項目包括NELSON項目,該項目旨在將數據科學整合到海軍行動中;以及未來戰斗航空系統,該系統將為皇家空軍提供一個有人員、無人員和自主系統的組合。在2021年綜合審查發表后,政府成立了國防人工智能中心(DAIC),以協調英國的人工智能國防技術的發展。這包括促進與學術界和工業界的合作,并在紐卡斯爾大學和埃克塞特大學以及艾倫-圖靈研究所建立研究中心。

  • 全球背景 對自主軍事技術的投資有一個全球性的趨勢:25個北約國家已經在其軍隊中使用一些人工智能和自主系統。有限的公開信息給評估軍隊的自主能力帶來了困難,但已知擁有先進系統的國家包括。

    • 美國。美國國防部2021年預算撥款17億美元用于自主研發,以及20億美元用于人工智能計劃。
    • 以色列。國有的以色列航空航天工業公司生產先進的自主系統,包括無人駕駛的空中和陸地車輛以及防空系統。
    • 中國。據估計,中國在國防人工智能方面的支出與美國類似。 分析師認為,這包括對情報分析和自主車輛的人工智能的投資。

俄羅斯和韓國也在大力投資于這些技術。在俄羅斯,機器人技術是最近成立的高級研究基金會的一個重點,該基金會2021年的預算為6300萬美元。

應用

自主系統可以被設計成具有多種能力,并可用于一系列的應用。本節概述了正在使用或開發的軍事應用系統,包括情報、監視和偵察、數據分析和武器系統。

情報、監視和偵察

自動化正越來越多地被應用于情報、監視和偵察(ISR),通常使用無人駕駛的車輛(方框1)。無人駕駛的陸上、空中和海上車輛配備了傳感器,可以獲得數據,如音頻、視頻、熱圖像和雷達信號,并將其反饋給人類操作員。一些系統可以自主導航,或自主識別和跟蹤潛在的攻擊目標。英國有幾架ISR無人機在服役,還有一些正在試用中。這些無人機的范圍從非常小的 "迷你 "無人機(其重量與智能手機相似)到可以飛行數千英里的大型固定翼系統。英國正在試用的一個系統是一個被稱為 "幽靈 "無人機的迷你直升機,它可以自主飛行,并使用圖像分析算法來識別和跟蹤目標。無人駕駛的水下航行器被用于包括地雷和潛艇探測的應用,使用船上的聲納進行自主導航。這些車輛還可能配備了一種技術,使其能夠解除地雷。

數據分析

許多軍事系統收集了大量的數據,這些數據需要分析以支持操作和決策。人工智能可用于分析非常大的數據集,并分辨出人類分析員可能無法觀察到的模式。這可能會越來越多地應用于實地,為戰術決策提供信息,例如,提供有關周圍環境的信息,識別目標,或預測敵人的行動。英國軍隊在2021年愛沙尼亞的 "春季風暴 "演習中部署了人工智能以提高態勢感知。美國的Maven項目旨在利用人工智能改善圖像和視頻片段的分析,英國也有一個類似的項目,利用人工智能支持衛星圖像分析。

武器系統

以自動化為特征的武器系統已被開發用于防御和進攻。這些系統包括從自動響應外部輸入的系統到更復雜的基于人工智能的系統。

  • 防御系統。自動防空系統可以識別和應對來襲的空中威脅,其反應時間比人類操作員更快。這種系統已經使用了20多年;一份報告估計有89個國家在使用這種系統。目前使用的系統可以從海上或陸地發射彈藥,用于應對來襲的導彈或飛機。英國使用Phalanx CIWS防空系統。雖然沒有在全球范圍內廣泛采用,但以色列將固定的無機組人員火炮系統用于邊境防御,并在韓國進行了試驗。這些系統能夠自動瞄準并向接近的人或車輛開火。

  • 導向導彈。正在使用的進攻性導彈能夠在飛行中改變其路徑,以達到目標,而不需要人類的輸入。英國的雙模式 "硫磺石"(DMB)導彈于2009年首次在阿富汗作戰中使用,它可以預先設定搜索特定區域,利用傳感器數據識別、跟蹤和打擊車輛。

  • 用于武器投送的無人平臺。為武器投送而設計的無人空中、海上和陸地運載工具可以以高度的自主性運行。這些系統可以自主地搜索、識別和跟蹤目標。大多數發展都是在空中領域。英國唯一能夠自主飛行的武裝無人機是MQ-9 "收割者",但有幾個正在開發中。英國防部還在開發 "蜂群 "無人機(方框3)。雖然存在技術能力,但無人駕駛的進攻性武器并不用于在沒有人類授權的情況下做出射擊決定;報告的例外情況很少,而且有爭議。 自主系統在識別目標和作出射擊決定方面的作用,是廣泛的倫理辯論的主題(見下文)。

方框3:無人機蜂群

無人機蜂群是指部署多個能夠相互溝通和協調的無人機和人員,以實現一個目標。在軍事環境中,蜂群可能被用來監視一個地區,傳遞信息,或攻擊目標。2020年,英國皇家空軍試驗了一個由一名操作員控制的20架無人機群,作為Dstl的 "許多無人機做輕活 "項目的一部分。蜂群技術還沒有廣泛部署。據報道,以色列國防軍于2021年首次在戰斗中使用無人機蜂群。

影響

自動化技術和人工智能的擴散將對英國軍隊產生各種影響,包括與成本和軍事人員的角色和技能要求有關的影響。對全球和平與穩定也可能有影響。

財務影響

一些專家表示,從長遠來看,軍事自動化系統和人工智能可能會通過提高效率和減少對人員的需求來降低成本。然而,估計成本影響是具有挑戰性的。開發成本可能很高,而且回報也不確定。提高自動化和人工智能方面的專業知識可能需要從提供高薪的行業中招聘。軍隊可能不得不提高工資以進行競爭,英國防部將此稱為 "人工智能工資溢價"。

軍事人員的作用和技能

自動化可能會減少從事危險或重復性任務的軍事人員數量。然而,一些軍事任務或流程,如高層戰略制定,不太適合自動化。在許多領域,自主系統預計將發揮對人類的支持功能,或在 "人機團隊 "中與人類合作。專家們強調,工作人員必須能夠信任與他們合作的系統。一些角色的性質也可能會受到自動化的影響,所需的技能也是如此。例如,對具有相關技術知識的自主系統開發者和操作者的需求可能會增加。英國防部已經強調需要提高整個軍隊對人工智能的理解,并承諾開發一個 "人工智能技能框架",以確定未來國防的技能要求。一些利益相關者對自動化對軍事人員福祉的影響表示擔憂,因為它可能會限制他們的個人自主權或破壞他們的身份和文化感。

人員對自動化的態度:

關于軍事人員對自動化的態度的研究是有限的。2019年對197名英國防部人員的研究發現,34%的人對武裝部隊使用可以使用ML做出自己的決定的機器人有普遍積極的看法,37%的人有普遍消極的態度。有報道稱,人們對某些自主武器系統缺乏信任,包括在2020年對澳大利亞軍事人員的調查中。在這項研究中,30%的受訪者說他們不愿意與 "潛在的致命機器人 "一起部署,這些機器人在沒有人類直接監督的情況下決定如何在預定的區域使用武力。安全和目標識別的準確性被認為是兩個最大的風險。有證據表明,信任程度取決于文化和熟悉程度。

升級和擴散

一些專家提出了這樣的擔憂:在武器系統中越來越多地使用自主權,有可能使沖突升級,因為它使人類離開了戰場,減少了使用武力的猶豫性。蘭德公司最近的一份戰爭游戲報告(上演了一個涉及美國、中國、日本、韓國和朝鮮的沖突場景)發現,廣泛的人工智能和自主系統可能導致無意中的沖突升級和危機不穩定。這部分是由于人工智能支持的決策速度提高了。升級也可能是由自動系統的非預期行為造成的。

還有人擔心,由于自動化和基于人工智能的技術變得更便宜和更豐富,非國家行為者更容易獲得這種技術。這些團體也可能獲得廉價的商業無人機,并使用開放源碼的人工智能對其進行改造,以創建 "自制 "武器系統。關于非國家行為者使用自主系統的報告是有限的和有爭議的。然而,非國家團體確實使用了武裝無人機,而且人們擔心人工智能會使這種系統更加有效。

技術挑戰

正在進行的包括機器人和人工智能在內的技術研究,主要是由商業驅動的,預計將增加自動化系統的應用范圍和采用程度。該領域的一些關鍵技術挑戰概述如下。一個更普遍的挑戰是,相對于數字技術的快速發展,軍事技術的發展速度緩慢,有可能在部署前或部署后不久組件就會過時。

數據傳輸

無人駕駛的車輛和機器人經常需要向人員傳輸數據或從人員那里接收數據。這可以讓人類監督和指導它們的運作或接收它們收集的數據。在某些情況下,系統也可能需要相互通信,如在無人機群中(方框3)。軍方通常使用無線電波在陸地上傳輸數據,其帶寬(頻率的可用性)可能有限。在傳輸大量數據,如高分辨率圖像時,這可能是個問題。5G技術(POSTbrief 32)可能會促進野外更有效的無線通信。系統之間的無線電通信可以被檢測到,提醒對手注意秘密行動。對手也可能試圖阻止或破壞系統的通信數據傳輸。目前正在研究如何最大限度地減少所需的數據傳輸和優化數據傳輸的方法。更多的 "板載 "或 "邊緣 "處理(POSTnote 631)可以減少傳輸數據的需要。然而,減少通信需要系統在沒有監控的情況下表現得像預期的那樣。

數據處理

具有更高水平的自主性的更復雜的系統通常在運行時在船上進行更多的數據處理和分析。這要求系統有足夠的計算能力。一般來說,一個系統能做多少嵌入式數據處理是有限制的,因為硬件會占用空間并需要額外的電力來運行。這可能會限制需要電池供電運行的系統的敏捷性和范圍。然而,人工智能的進步也可能使系統更有效地運行,減少計算要求。由于未來軟件、算法和計算機芯片技術的進步,計算機的處理能力也有望提高。

訓練數據

創建和整理與軍事應用相關的大型數據集,對生產可靠的人工智能自主系統非常重要。機器學習(ML,方框1)依賴于大型數據集來訓練其基礎算法,這些數據可以從現實世界中收集,或者在某些情況下,使用模擬生成。一般來說,用于訓練ML系統的數據越有代表性、越準確、越完整,它就越有可能按要求發揮作用。準備訓練數據(分類并確保其格式一致)通常需要手動完成,并且是資源密集型的。

數據隱私:

一些人工智能系統可能會在民用數據上進行訓練。人們普遍認為,如果使用與個人有關的數據,他們的隱私必須得到保護。這可以通過對個人數據進行匿名化處理或只分享經過訓練的人工智能系統來實現。

網絡安全

由計算機軟件支撐的系統數量的增加增加了網絡攻擊的機會。網絡攻擊者可能試圖控制一個系統,破壞其運作,或收集機密信息。基于人工智能的系統也可以通過篡改用于開發這些系統的數據而遭到破壞。英國防部在2016年成立了網絡安全行動中心,專注于網絡防御。在英國,2021年成立的國防人工智能中心,有助于促進行業伙伴或其他合作者對高度機密數據的訪問。

測試和評估

重要的是,軍事系統要可靠、安全地運行,并符合法律和法規的規定。人工智能和自動化給傳統軟件系統帶來了不同的測試和保證挑戰。 進一步的挑戰來自于ML的形式,它可能不可能完全理解輸出是如何產生的(POSTnote 633)。人工智能軟件可能還需要持續監測和維護。利益相關者已經強調缺乏適合的測試工具和流程,并正在開發新的工具和指南。英國政府的國防人工智能戰略致力于建立創新的測試、保證、認證和監管方法。

倫理、政策和立法

目前的準則和立法

目前還沒有專門針對將自動化或人工智能用于軍事應用的立法。雖然它們在戰爭中的使用受現有的國際人道主義法的約束,但這與新技術的關系是有爭議的。在國家和國際層面上有許多關于人工智能更普遍使用的準則,這些準則可以適用于自動化系統。然而,2021年數據倫理與創新中心(CDEI)的人工智能晴雨表研究發現,工業界很難將一般的法規適應于特定的環境。2022年,英國防部與CDEI合作發布了在國防中使用人工智能的道德原則。

責任感

一些利益相關者強調,如果自主系統的行為不合法或不符合預期,那么它的責任是不明確的。這可能導致系統及其決定與設計或操作它的人類之間出現 "責任差距",使法律和道德責任變得復雜。英國防部的原則說,在人工智能系統的整個設計和實施過程中,應該有明確的責任。國防人工智能戰略為供應商設定了類似的期望。

圍繞自主武器系統的辯論

這一領域的大部分法律和道德辯論都集中在武器系統上。然而,某些非武裝系統(例如,基于軟件的決策支持工具)可能在識別目標方面發揮關鍵作用,因此提出了許多與那些同時部署武器的系統相同的道德問題。

國際上對 "致命性自主武器系統"(LAWS)的使用存在著具體的爭論。這個術語沒有普遍認同的定義,它被用來指代具有不同自主能力的廣泛的武器。關于使用致命性自主武器系統的報告存在很大爭議,例如,由于系統使用模式的不確定性。 聯合國《特定常規武器公約》(CCW)自2014年以來一直在討論致命性自主武器系統的可能立法。它在2019年發布了指導原則,但這些原則沒有約束力,也沒有達成進一步的共識。雖然大多數參加《特定常規武器公約》的國家支持對致命性自主武器進行新的監管,但包括英國、美國和俄羅斯在內的其他國家認為,現有的國際人道主義法已經足夠。根據運動組織 "阻止殺手機器人"(SKR)的說法,83個國家支持關于自主武器系統的具有法律約束力的文書,12個國家不支持。

許多利益相關者認為,必須保持人類對武器和瞄準系統的某種形式的控制,才能在法律和道德上被接受。某些組織,如SKR,呼吁禁止不能由 "有意義的人類控制 "的自主武器系統,并禁止所有以人類為目標的系統。他們還呼吁制定法規,確保在實踐中保持足夠的人為控制。在其2022年國防人工智能戰略中,英國政府表示,識別、選擇和攻擊目標的武器必須有 "適當的人類參與"。作為回應,一些呼吁監管的非政府組織表示,需要更加明確如何評估或理解 "適當的人類參與"。包括英國政府在內的利益相關者建議的維持人類控制的潛在措施包括限制部署的時間和地理范圍。被認為會破壞人類控制的因素包括人類做出決定的有限時間和 "自動化偏見",即個人可能會過度依賴自動化系統,而不太可能考慮其他信息。

公眾對該技術的態度

大多數關于軍事自動化的公眾意見調查都集中在自主武器系統上。SKR委托對28個國家的19,000人進行了民意調查。62%的受訪者反對使用致命性武器系統;這一數字在英國是56%。關于公眾對人工智能、數據和更廣泛的自動化的態度的研究發現,公眾關注的主要問題包括數據安全、隱私和失業。然而,公眾的觀點會因系統的功能和使用環境的不同而有很大差異。

付費5元查看完整內容

無人機系統(UAS)在美國軍事行動中越來越突出。作為其現代化戰略的一部分,美國防部(DOD)目前正在開發先進的無人機,以及可選的載人飛機。在過去幾十年中,軍隊使用無人機執行各種任務,包括:

  • 情報、監視和偵察;
  • 近距離空中支援;
  • 物資補給;
  • 通信中繼。

分析人士和美國防部認為,無人機可以在許多任務中取代載人飛機,包括

  • 空中加油;
  • 空戰;
  • 戰略轟炸;
  • 作戰管理和指揮控制(BMC2);
  • 壓制和摧毀敵人的防空系統;
  • 電子戰(EW)。

此外,美國防部正在開發一些實驗概念,如飛機系統體系、群集和致命自主武器,以探索使用未來幾代無人機的新方法。在評估潛在新的和未來無人機項目、任務和概念的撥款和授權時,國會可能會考慮以下問題:

  • 能夠作為致命自主武器的無人機的擴散及其對全球軍備控制的影響;
  • 與載人飛機相比,未來無人機的成本;
  • 無人機對人員和技能的影響;
  • 作戰和作業概念;
  • 無人機技術的普及。

付費5元查看完整內容

摘要

在未來部隊結構的發展和評估過程中,兵棋推演是深入了解其優勢和劣勢的一項關鍵活動。十多年來,挪威國防研究機構(FFI)在不同程度的計算機支持下,開發支持挪威軍隊進行能力規劃的兵棋。在此期間,這些已經從可被描述為計算機輔助的兵棋發展為更逼真的仿真支持的兵棋。此外,為了更密切地了解部隊結構的威懾效果(這在實際游戲中可能無法觀察到),我們的重點也轉向了更恰當地復制規劃過程--特別是監測對方部隊的規劃過程。例如,研究特定的結構元素在多大程度上阻止了對方部隊采取某些行動,這一點很重要。在這篇文章中,我們描述了我們開發的仿真支持的兵棋推演方法,其中包括一個準備階段;一個執行階段,含有一個聯合行動規劃過程;以及一個分析階段。此外,我們還討論了我們能夠從兵棋推演中提取什么類型的數據和結果,并提出了一套我們發現的關于如何成功進行仿真支持兵棋的最佳實踐。

關鍵詞:兵棋推演;建模與仿真;實驗;國防結構;能力分析;國防規劃

1 引言

在發展和評估未來的部隊結構時,兵棋推演是深入了解和更好地理解部隊結構的優勢和劣勢的關鍵活動。今天,基于計算機的仿真系統使我們能夠創造出高度復制真實世界物理特性的合成環境。此外,人工智能(AI)和行為模型的進步給我們提供了更真實的計算機生成部隊(CGF),可以高度逼真地執行戰斗演習和低級戰術。兵棋可以從這些進展中受益。然而,在指揮系統的較高層次上,人工智能還不能與人類決策者相提并論,在兵棋中規劃和實施仿真行動需要人類官員的參與。

十多年來,挪威國防研究機構(FFI)一直支持挪威軍隊在不同程度的計算機支持下開發能力規劃的兵棋。在此期間,這些已經從可被描述為計算機輔助的兵棋發展為更逼真的仿真支持的兵棋。此外,為了更密切地了解部隊結構的威懾效果(這在實際游戲中可能無法觀察到),我們的重點也轉向了更恰當地復制規劃過程,特別是監測對方部隊的規劃過程。例如,研究特定的結構要素在多大程度上阻止了對方部隊采取某些行動--或者換句話說,正在推演的概念有怎樣的戰爭預防或維護和平效果,這一點很重要。

能力規劃過程和高調的兵棋總是會涉及或吸引利益者--例如高級軍官、政治家、官僚和國防工業領導人--的利益沖突。一般來說,參與的利益者有可能想把兵棋框定在一個有利于他們利益的背景下(Evensen等人,2019)。重要的是要意識到這個問題,而且關鍵是要避免兵棋成為利益者利益的戰場。本文所描述的方法和最佳實踐試圖通過使用基于計算機裁決的仿真,以及通過提高對元游戲的認識,或對兵棋所有階段的沖突,從準備到執行,再到分析和報告,來減少這個問題。

本文的組織結構如下。首先,我們簡要地描述了這項工作的背景。接下來,我們描述了我們開發的仿真支持的兵棋推演方法,其中包括準備階段;執行階段,包括聯合行動規劃過程;以及分析階段。之后,我們討論了我們能夠從兵棋推演中提取的數據和結果類型。最后,我們提出了一套我們發現的關于如何成功進行仿真支持的兵棋推演的最佳實踐。

2 背景

雖然各種形式的兵棋推演已經在FFI進行了數十年,但當FFI的研究人員開始合作研究單個仿真支持的系統評估方案時,首次出現了實施仿真支持的部隊結構評估的想法(Martinussen等人,2008)。

2010年,FFI首次將使用半自動部隊(SAF)的互動式旅級仿真系統作為兵棋推演的基礎。在 "未來陸軍 "項目中,通過一系列計算機輔助的兵棋推演,對五種基本不同的陸軍結構的性能進行了評估(霍夫等人,2012;霍夫等人,2013)。其目的是根據這些結構的相對性能進行排名。此外,兵棋推演揭示了被評估結構中固有的一些優勢和劣勢。雖然我們使用的仿真工具相當簡單,但它對于跟蹤部隊的運動和計算決斗和間接火力攻擊的結果很有用。

在此之后,FFI支持挪威陸軍進行了幾次仿真支持的能力規劃系列兵棋推演。這些兵棋推演是雙面的(藍方/友方和紅方/敵方),封閉的(可用信息有限),在戰術和戰役層面進行。

玩家總數在10到100人之間,兵棋推演的時間從一天到兩周不等。圖1顯示的是2014年FFI的一次仿真支持的兵棋推演會議的照片。

圖1 2014年FFI的仿真支持的兵棋推演會議。

自2010年以來,我們的兵棋推演逐漸從計算機輔助的兵棋推演(使用非常簡單的仿真模型),向使用更詳細和更真實的仿真模型的兵棋推演演變。此外,為了更密切地了解部隊結構的威懾效果(這在實際游戲中可能無法觀察到),我們的重點也轉向了更恰當地復制規劃過程,特別是監測紅方部隊的規劃過程。圖2說明了我們兵棋推演的演變過程。

圖2 我們的兵棋推演的演變過程。

使用基于計算機的仿真來支持兵棋推演的價值首先在于有一個系統來自動跟蹤部隊,計算其傳感器的探測情況,并評估決斗情況和間接火力攻擊的結果。此外,基于計算機的仿真非常適用于通過在地面實況上添加過濾器來真實地表現不確定性和戰爭迷霧。

3 仿真支持的兵棋推演方法

戰術仿真是開發、測試和分析新的部隊結構的一個重要工具。通過兵棋推演,可以深入了解一個部隊結構對特定場景的適合程度,并揭示該結構的優勢和劣勢。然而,擁有一個好的執行計劃對于成功地進行兵棋推演實驗和從活動中獲得有用的數據是至關重要的。在本節中,我們將介紹我們的仿真支持的兵棋推演方法,該方法是通過我們在過去10年中對兵棋推演實驗的規劃、執行和分析的經驗發展而來的。我們還將討論兵棋推演的背景,以及規劃和組織兵棋推演活動的過程,這可以被視為一種元游戲。

一般來說,有幾本關于兵棋推演的書和指南可以參考(Perla,1990;Appleget等人,2020;Burns,2015;英國國防部[UK MoD],2017)。本節描述的方法是專門為支持未來部隊結構發展的分析性兵棋推演而定制的。通常情況下,我們使用這種方法來評估和比較不同部隊結構備選方案的性能,這些方案可能在物資和裝備的構成、戰術組織或作戰概念方面有所不同。

我們的兵棋推演實驗方法包括三個主要階段:

1.準備階段

2.規劃和執行階段

3.分析階段

這些階段將在下文中詳細描述。圖3說明了它們之間的關系,其中規劃過程和兵棋推演的執行階段構成了實驗的核心。

圖3 兵棋推演實驗的方法說明。

3.1 兵棋的背景

小國在發展兵力結構以威懾擁有更多兵力要素的敵人時面臨著兩難境地。敵人可能會觀察到防御結構中的變化,并可能在運用軍事力量時從集合中選擇其他更合適的元素。例如,如果小國的部隊結構是專業化的,為了對付預期的敵人行動方案(COA),敵人可能會從庫中選擇完全不同的東西,敵人的COA可能會發生巨大變化。

對所有國家來說,發展部隊結構是一個緩慢而公開的過程。從現有的、龐大的部隊要素庫中選擇部隊并創造新的行動方案是一個快速和隱蔽的過程。對于一個小國來說,在這種情況下實現威懾似乎是一項不可能完成的任務,但我們已經在幾個案例中觀察到,對部隊結構的低成本改變是如何對敵人的COA選擇產生巨大影響的(Daltveit等人,2016;Daltveit等人,2017;Haande等人,2017)。1988年為圣戰者引入手持防空導彈后,蘇聯在阿富汗的戰術發生了變化(Grau, 1996),這就是我們在兵棋推演中看到的紅方(對手)小組規劃過程中產生影響的一個很好示例。據觀察,存在感和姿態也有威懾作用。此外,社會、景觀和氣候也影響了紅方的規劃過程。這一切都歸結于敵方在規劃和制定作戰行動期間的風險評估。

為了研究部隊結構變化的威懾作用,有必要讓分析人員在兵棋推演前觀察紅方的規劃過程,而不僅僅是在仿真戰斗中。阻止敵人進攻是任何部隊結構發展的意圖,而觀察威懾效果的唯一方法是在敵人的規劃期間。

在決策理論中,風險是一個必須考慮的因素,以便能夠做出理性的選擇。馮-諾伊曼-摩根斯坦(vNM)決策理論的基礎是行為者通過考慮給定概率和結果的彩票來評估選擇(von Neumann & Morgenstern, 1944)。風險因素也需要存在于規劃過程中。如果一方的規劃過程被參與兵棋推演的其他任何一方知道,那么一部分風險因素就會消失。這將使規劃過程減少到只是評估一個已知的敵人COA,而不是評估一系列可能的COA及其概率。因此,重要的是,場景定義不能限制敵人的規劃過程,所有的規劃過程都要受到監控--特別是敵人的規劃過程。

3.1.1 元游戲

盡管兵棋推演在最終開始時有規則,但在選擇兵棋的類型和周圍環境的過程中,并沒有明確的規則。因此,策劃和組織一場兵棋推演活動的過程可以被看作是一種元游戲--一種可以在對抗分析的規則中進行分析的游戲(Curry & Young, 2018)。例如,聯合層面的兵棋推演將包括傳統上的資金競爭對手的參與者。來自空軍、海軍和陸軍的參與者,在涉及到應該如何制定場景、應該對未來技術做出什么樣的假設、應該如何評估戰斗效果等方面,可能有不同的利益。每個領域內的分支也是如此。因此,存在著一種危險,即元游戲對部隊結構分析結果的影響可能比實際兵棋推演的影響更大。元游戲并不局限于兵棋的執行。分析和事后的報告也會受到與準備期間相同類型的沖突影響。在圖4中,存在于核心方法論之外的元游戲層就說明了這一點。

圖4 圍繞兵棋推演實驗方法的元游戲圖解。

能力規劃過程總是會涉及或吸引利益沖突的利益者,國防規劃和兵棋推演包含許多利益者爭奪地盤的例子(Evensen等人,2019;Perla,1990)。這在兵棋推演的準備階段尤其明顯。應對這種情況的一個可能的方法是,適當地將擁有發明改變部隊結構的權力角色與擁有評估和接受改變的權力角色分開。當這些角色沒有被分開時,利益者會試圖影響什么是兵棋的目標,以及使用什么類型或風格的兵棋。在最壞的情況下,我們可能會有有限數量的利益者提出新的部隊結構,然后讓同樣的利益者通過基于場景的討論來驗證他們自己的想法是否良好。如果被評估的是利益者所珍視的想法,這就特別容易出問題。

聯合需求監督委員會(JROC)是一個很好的例子,該機構以健全的決策結構處理地盤戰(參謀長聯席會議主席[CJCS],2018)。美國軍方將思想的發明者與審查其有用性的權力進行分開,這完全符合孟德斯鳩的分權原則。在挪威進行國防規劃和兵棋推演的方式,在許多情況下,人們會發現行為者既產生了對未來部隊結構的想法,又通過參與基于場景的討論來評估相同的結構。基于場景的討論如果不包括專門的紅方小組,就不是兵棋推演。引入 "紅方小組 "成員,以及對方的自由和無阻礙的規劃,消除了一些濫用權力的可能性。沒有對提議的部隊結構進行適當兵棋推演的一個特殊結果是,建議采用次優化的部隊結構來打擊固定的假設敵方作戰行動。由于沒有對這種部隊結構進行適當的推演,結構改革的支持者成功地擊敗了他們喜歡的敵人COA,但卻沒有挑戰他們自己的想法。

3.2 準備階段

準備階段包括在兵棋推演執行階段開始前需要做的一切。最重要的準備工作是:

  • 建立對兵棋推演實驗目標的共同理解。

  • 確定總體方案,包括外部條件、假設和限制。

  • 選擇一個或多個仿真系統,并對仿真模型進行校準。

  • 確定藍方(友軍)和紅方(敵軍)的作戰順序(OOB)。

3.3 規劃和執行階段

規劃和執行階段包括兩個獨立的活動:(1)雙方的聯合行動規劃過程,以及(2)仿真支持的兵棋推演。

3.3.1 聯合行動規劃過程

在這項活動中,由軍事主題專家(SME)和軍官組成的藍方和紅方小組,根據總體方案和受控的情報信息流,分別制定他們的初步行動計劃。根據偏好,這些計劃不是整體方案的一部分,雙方都可以自由制定自己的計劃。這也意味著,對立雙方制定的計劃對另一方來說仍然是未知的。

原則上,聯合行動規劃過程可以按照與現實中基本相同的方式進行,不做任何簡化。這是一項應該與仿真支持的兵棋推演一樣優先考慮的活動,在人員配置方面也是如此。

在規劃過程中,參與者必須討論不同的選擇,并根據所感知的對方部隊結構的優勢和劣勢來制定一個COA。觀察雙方的規劃過程并揭示決定COA的根本原因,可以提供有關部隊結構的寶貴信息,而這些信息在執行兵棋推演本身時可能無法觀察到威懾效果。

3.3.2 仿真支持的兵棋

兵棋推演本身是作為仿真支持的兩方(藍方和紅方)兵棋推演進行的,其中行動是在一個具有SAF的建設性仿真系統中仿真的。在博弈論中,這種類型的兵棋推演可以被歸類為非合作性的、不對稱的、不完全信息的連續博弈。

兵棋的參與者是兩組對立的玩家和一個公斷人或裁決人的小組。重要的是要記住,一個兵棋的好壞取決于它的玩家。玩家是軍事主題專家和軍官。要想有一個平衡的兵棋,關鍵是不要忽視紅色單元。如果做得好,這種類型的兵棋,由適應性強且思維不受限制的對手主導,往往會變得高度動態、對抗性和競爭性。

對于分析性兵棋推演來說,現實的仿真對于加強結果的有效性和可信度非常重要。軍事行動,尤其是陸軍行動,本質上是復雜的,對這種行動的仿真,要有足夠的真實性,是非常具有挑戰性的(Evensen & Bentsen, 2016)。此外,仿真系統可能包含錯誤,人類操作員可能會犯一些在現實生活中不會犯的錯誤。因此,重要的是要有經驗豐富的裁判員來監控仿真,并在必要時對結果進行適當的人工調整。

在某種程度上,在仿真支持的兵棋中,元游戲也會發揮作用。曾經有這樣的例子,利益者將有能力的官員從兵棋推演中撤出,只是用不太熟練的人員取代他們,很可能是為了降低利益者不希望成功的兵棋可信度。其他的例子是公斷人與參觀兵棋的更高等級利益者的干預作斗爭。歷史上有很多類似的例子(Perla,1990),挪威也不例外(Evensen等人,2019)。這里所描述的清晰的方法,意在抵制以往兵棋推演實驗的一些缺陷。

3.4 分析階段

除了從仿真支持的兵棋本身的執行中收集的觀察和數據外,分析還基于規劃過程中的觀察和數據。

在規劃過程中,密切監測和記錄討論情況是很重要的。由于國防軍的主要目的--至少在挪威是這樣--是為了防止戰爭,因此在規劃過程中的考慮可能是整個兵棋中最重要的結果。只有當敵人在兵棋開始前考慮到這些因素時,才能觀察到部隊結構和態勢的預防特性。在規劃階段,通常會考慮幾個備選的作戰行動和機動性。其中許多被放棄,有些被保留,原因各異,必須記錄下來。為什么紅方決定某個行動方案不可行,可能是由于某些結構要素或來自藍方的預期策略。如果紅方由于藍方的OOB要素而不得不放棄一個計劃,那么這些要素已經證明了對藍方的價值--即使這些要素在接下來的仿真行動中最終沒有對紅方部隊造成任何直接傷害。

在仿真支持的兵棋中可能會記錄大量的數據。很容易把各種結構元素的損失交換率等數據看得很重。在實際的兵棋推演中,也許更應該注意的是雙方指揮官的決定。如果其中一方出現了機會,這是為什么?該方是如何利用這樣的機會的?是否有什么方法可以讓他們考慮利用這個機會,但不知為何卻無法利用或執行?如果有,為什么?為了收集這樣的信息,指揮官們公開討論他們的選擇是很重要的。重要的不僅僅是告知積極選擇的原因;往往可能同樣重要的是為什么沒有做出其他選擇。

確定部隊結構的主要優勢和劣勢及其利用是分析階段的一個重要部分。考察雙方在規劃階段和推演階段的考慮,是做到這一點的最好方法。這不是一門精確的科學,因為這種數據具有定性的性質。通過觀察參與者的考慮和決策,比單純看哪些武器系統摧毀了哪些敵人的系統,可以更好地確定使用某種COA的關鍵因素,或者是允許敵人有更好選擇的缺失能力。分析階段的結果是對測試的部隊結構進行評估。

分析階段也可能會在商定的兵棋推演方法范圍之外發生爭吵。甚至在事件發生后的報告撰寫中也可能受到影響,當角色沒有被很好地分開,利益者被允許過度地影響這個過程時。

4 兵棋的輸出數據和結果

一般來說,我們努力從兵棋推演環節中獲取盡可能多的數據。根據用于支持兵棋推演的仿真系統,可以記錄各種輸出數據。例如,通常可以記錄各個單位移動了多遠,他們使用了多少彈藥和燃料,以及其他后勤數據。通常,殺傷力矩陣--基本上是顯示一方的哪些單位殺死了另一方的哪些單位的矩陣--也會被記錄。其他許多定量數據也可以被記錄下來。除此以外,還有定性的數據。如前所述,這包括對規劃過程的觀察,以及與參與規劃過程的參與者的討論。此外,它還包括對兵棋推演期間所做決策的觀察,以及在兵棋推演期間或之后與玩家的討論。

人們往往傾向于把大量的注意力放在定量數據上,如殺傷力矩陣,而對定性數據的關注可能較少。定量數據更容易分析,而且通常被認為比定性數據(如隊員的決策和考慮)更客觀。但重要的是要記住,定量數據取決于雙方玩家的決策,以及對模型的輸入數據。玩家認為各種單位應該如何運用,對殺傷力矩陣有相當大的影響。因此,盡管這些數據是定量的,但它們并不比定性數據更客觀。

諸如殺傷力矩陣這樣的數據也忽略了重要的信息。雖然人們可以看到哪些部隊殺死了哪些敵方部隊,但卻失去了原因;其他部隊雖然沒有直接摧毀敵方部隊,但卻可能在為其他部隊創造有效條件方面起到了關鍵作用。雖然某些部隊可能只消滅了很少的敵人,但他們在戰場上的存在可能對阻止敵人進行某些行動至關重要。例如,雖然近距離防空可能不直接負責消滅敵人的直升機,但它可能阻止了敵人像其他情況下那樣積極地使用直升機。因此,在分析一個兵棋時,對于只看殺傷力矩陣這樣的量化數據應該謹慎。必須考慮到整體情況。

理想情況下,在比較不同的部隊結構時,應該對每個部隊結構進行幾次推演,并允許敵人在每次戰役中改變其行為。自己的部隊應該找到在特定情況下使用其結構的 "最佳 "方式,而敵人應該找到反擊這一策略的 "最佳 "方式。只有這樣,人們才能真正比較不同部隊結構的兵棋推演結果,并得出哪種部隊結構最適合給定場景的結論。然后,當然,確實有廣泛的潛在場景需要考慮。因此,雖然這也許是應該進行兵力結構比較的方式,但在這方面,時間和資源通常對大量的兵棋推演是不夠的。

所有模型都有局限性。它們可能是為某一特定目的而設計的,并適合于此,但不太適合于其他事情。在考慮哪些問題可以通過兵棋推演來回答,哪些問題應該用其他工具來調查時,必須記住這一點。從兵棋推演中到底可以推導出什么,將取決于所使用的模型--但一般來說,應該把重點放在實驗所要回答的那些問題上。如果在實驗中出現了其他的結果,就應該對其有效性進行檢查,而且這些結果往往需要在專門為調查這些新出現的問題而設計的實驗中進行評估。

兵棋推演是比較兩個(或更多)部隊結構在特定情況下的表現的一個重要工具。然而,兵棋推演并不能對任何給定的部隊結構的有效性給出任何精確的衡量,但適合于確定主要的優勢和劣勢。與具體單位有關的參數的效果,如它們的火力和裝甲,應在單獨的研究中進一步考察。這些因素雖然很重要,但它們的層次太細,無法通過我們這里討論的兵棋類型來研究它們對結果的影響。彼得-佩拉強調,"兵棋只是研究和學習國防問題所需的工具之一"(佩拉,1990,第11頁)。其他工具應被用來補充兵棋和研究這些因素的重要性。

兵棋推演通常是實質性的活動,涉及大量的人,并需要大量的時間。因此,我們通常被限制在有限的數量上--通常對于我們所分析的每個部隊結構只有一個。重要的是要記住,一個單一的兵棋推演的結果只是:特定情況下的一個可能的結果。雙方玩家可以采取不同的做法,事件的發展也可能不同。細微的變化可能會影響到對整體結果至關重要事件的結果。

5 仿真支持兵棋的最佳實踐

在本節中,我們將列出我們發現的進行仿真支持的分析性兵棋的最佳做法,以評估部隊結構。我們發現的一些最佳實踐與處理元游戲的需要有關,或者與兵棋的沖突有關。這些最佳實踐的用處可能僅限于其他尚未將發明權與測試部隊結構的權力分開的小國。其他的最佳實踐來自于提供仿真支持和取代基于場景的討論以發展防御結構的需要。

5.1 確定明確的目標

在準備階段,必須盡早明確兵棋推演實驗的目的,這將是實驗設計的基礎。

5.2 使用為兵棋推演定制的仿真系統

擁有一個帶有SAF的交互式仿真系統,對玩家來說易于操作,并且需要相對較少的操作人員,這就減少了進行仿真支持的兵棋推演所需的資源,從而也降低了門檻。

5.3 組建一個好的紅方小組

一個好的紅方小組是發現自己的部隊結構、計劃和程序中弱點的關鍵。紅色小組的成員也應該對預期對手的理論有很好的了解。我們觀察到,一個好的紅色小組能迅速地阻止我們自己的規劃人員對可能的敵人行動進行集體思考的傾向。

5.4 允許對方部隊適應

自己部隊結構的變化也必須允許對方部隊結構的變化。部隊結構的改變是一個緩慢的過程,肯定會被預期的對手觀察到。

5.5 復制規劃過程

盡可能地復制現實生活中的規劃過程。

5.6 觀察規劃過程

觀察規劃過程,以便更全面地了解部隊結構的優勢和劣勢。為了記錄藍軍部隊結構的威懾效果,觀察對方部隊的規劃過程尤為重要。據觀察,自己的部隊結構中的幾個要素對對方部隊的行動有威懾作用,存在和姿態也是如此。此外,我們還觀察到,社會、地形和氣候也會影響對方部隊的規劃。

5.7 提供空間和時間

在部隊相互靠近的情況下開始一場兵棋推演,可能會使它變成一場簡單的消耗戰。發展良好的兵棋推演,在提供了空間和時間的情況下,就像武術比賽中的對手互相周旋,評估對方的弱點,并尋找攻擊的機會。評估避免遭遇的能力可能與評估戰斗的能力一樣重要。

5.8 允許不確定性

建立對正在發生的事情的了解需要時間,是領導軍事行動的一個自然組成部分。只有當不確定性得到適當體現時,部隊結構中某些要素的真正價值才會顯現。例如,存在的力量的影響可能是巨大的。當戰術形勢不是所有人都能看到的,而且戰斗的結果被認為是非決定性的,以至于現實是隨機的,那么不確定性就得到了最好的體現

5.9 演習 VS. 實驗

讓參與者為兵棋推演的目的做好準備。當使用指揮和參謀訓練器作為支持兵棋推演的仿真系統時,一些參與者傾向于按照程序行事,就好像這是一場演習。如果兵棋推演的目的是探索新的部隊結構要素、作戰行動或戰術、技術和程序(TTPs),則需要鼓勵參與者在執行任務時發揮創造性。

5.10 讓不參與兵棋推演的高級官員遠離戰場

讓與兵棋推演無關的人員遠離它,特別是高級軍官,是很重要的。在人在回路(HITL)仿真中,人類玩家是整個仿真的一部分,來訪的高級軍官(或其他人)將對人類玩家的互動方式和他們如何進行規劃產生影響。限制來訪人員也減少了外部影響結果的機會(Hoppe, 2017)。

6 摘要和結論

十多年來,FFI支持挪威陸軍為能力規劃開發仿真支持的兵棋。本文介紹了我們進行仿真支持的兵棋推演的方法,并提供了一套進行仿真支持的兵棋推演的最佳實踐。該方法和最佳實踐特別針對分析性兵棋以支持能力規劃。

該方法由準備階段、規劃和執行階段以及分析階段組成。在過去的10年中,該方法通過使用更詳細和更現實的仿真模型,以及在仿真行動前復制和監測規劃過程,以更深入地了解測試的部隊結構的威懾效果,而逐漸發展起來。

我們進行仿真支持的兵棋推演的最佳做法包括:為兵棋推演實驗確定一個明確的目標,使用一個便于玩家操作的仿真系統,擁有一個良好的紅方小組,不受太多限制,提供空間和時間,使戰爭不會立即開始,并提供一個不確定性和信息收集的現實表現。最后,為了更全面地了解一個部隊結構的優勢和劣勢,分析小組必須同時觀察規劃過程和兵棋推演本身。

將擁有發明部隊結構變化的權力角色和擁有測試、評估和接受這種變化的權力角色正式分開,將解決我們在國防規劃中看到的許多問題。我們已經發現,組織兵棋推演活動的過程可以被看作是一個元游戲。當用建模、仿真和分析來支持兵棋推演時,元游戲被看作是發生在各個層面的東西,其中一些我們可能沒有任何影響力。希望這篇文章能有助于提高對這些挑戰的認識,并能對我們能影響的那部分元游戲提供一些調整。

付費5元查看完整內容

1 引言

近年來,"蜂群 "和 "構建蜂群"是無機組系統界最普遍的流行語之一,不僅包括航空器,還包括陸地、海洋、水面以及水下的無人系統。然而,什么是蜂群,或者它需要擁有哪些基本能力,還沒有正式定義。北約的無機組飛行器社區最近開始為上述術語制定定義,以最終正式確定各自的術語供官方使用,但由于不同社區對什么是蜂群有不同的解釋和觀點,很快就陷入了困境。因此,以空中為中心的定義可能不太適合于其他領域。

本文旨在概述挑戰,并在討論未來 "蜂群 "的定義及其在無人飛行器背景下的相關術語提供思考素材。

2 定義的目的

每個術語的定義都需要滿足一個目的;否則,它就沒有意義,也不需要被定義。例如,遙控飛機(RPA)被定義為 "由經過培訓和認證的飛行員控制的無人駕駛飛機[......],其標準與有人駕駛飛機的飛行員相同。"因此,使用RPA一詞表明操作飛機需有一定程度的飛行員資格要求。以同樣的方式,需要同意該定義是為哪些條件和目的服務的,即在哪些情況下需要它。

定義 "蜂群 "所面臨的挑戰是,適用的用途差別很大,一種用途的定義參數可能與另一種用途不相關。為了概述這一挑戰,下面介紹了一些例子。

作業用途。使用蜂群來實現軍事效果是基于需要解決的軍事問題。只有當蜂群功能與其他解決方案相比能帶來軍事利益時才會被采用。所期望的效果在本質上將符合能力要求的定義,因此,需在采購者的法律框架內。實戰化蜂群技術并按照適用的國家和聯盟立法、交戰規則以及戰術、技術和程序進行操作,可能需要一個定義,該定義提供了關于軍事能力、遠程操作模式、指揮和控制手段以及人類互動程度的說明。

開發者用途。需要充分了解潛在的蜂群功能,以便從開發者的角度確定軍事使用的好處。開發蜂群技術和實現蜂群行為的正確執行可能需要復雜的自主性和人工智能應用水平,使人類能夠將蜂群作為一個整體進行操作,但不需要(甚至不允許)控制任何單獨的蜂群實體。因此,這種用途的定義可能集中在自主性水平、其在硬件和軟件中的技術實現以及蜂群功能在其系統中的適應性。

反蜂群用途。在觀察和防御蜂群時,自主性水平或指揮和控制手段并不那么重要。從這個角度來看,實體的數量、它們的觀察行為以及它們假定的蜂群能力是最相關的問題,因此也是決定性的因素,不管蜂群實體是人工控制還是自主操作。識別一個較大的實體群是否有資格成為蜂群的挑戰隨著展示的蜂群行為的復雜性而增加。

在其他情況下,"蜂群 "一詞的定義可能需要偏離或替代,以達到其目的。為了解決這個難題,有兩個選擇。首先,為每一種用途制定多個定義,其次,找到一個可以服務于所有(或至少是大多數)用途的共同標準。由于多種定義有可能在不同的用戶群體之間造成混淆和誤解,因此第二種選擇更受歡迎。每個用戶群體以后可以將其具體要求作為子類別術語附加到一般定義中,類似于RPA,它是 "非螺旋槳飛機 "這一總體定義下的一個子類別。

3 共同標準

這就給我們帶來了一個挑戰,即為總體的蜂群定義確定一個共同標準。通過觀察蜂群,特別是其行為,可以發現共同點,不管它是由空中、陸地還是海上的無人系統組成,也不管蜂群的行為是實際執行的還是只是被感知的。因此,一個總體的定義應該從蜂群的外部外觀和視覺感知開始,而不是關注其內部運作。后者可以用子類術語來涵蓋和區分。

4 蜂群行為

在開源研究中,有許多關于蜂群行為的定義,但它們主要描述的是同一個概念,通常將蜂群智能作為一個前提條件。例如:

  • "蜂群是大量個體組織成協調運動的現象。僅僅利用環境中他們所掌握的信息,他們就能聚集在一起,集體移動或向一個共同的方向遷移"。

  • "蜂群智能是對分散的、自組織的系統的研究,這些系統能夠以協調的方式快速移動"。

  • "在蜂群機器人學中,多個機器人通過形成類似于在自然系統中觀察到的有利結構和行為來集體解決問題,如蜜蜂群、鳥群或魚群"。

  • "蜂群智能源于動物的自然蜂群行為,可以定義為相同大小的動物表現出的集體行為,聚集在一起解決對其生存至關重要的問題。蜂群智能可以被定義為簡單代理群體的新興集體智能"。

上述所有定義的共同點是形成蜂群的個體的 "協調運動"。集體智能也被提到是實現這種行為的關鍵因素;然而,觀察者將無法確定蜂群的協調運動是基于集體智能還是通過其他控制手段。因此,在總體定義中,集體智能是一個需要考慮的次要屬性,需要由后續術語來涵蓋。值得注意的是,未來的技術,包括人工智能和機器學習應用,可能使觀察者能夠確定一大群實體是否擁有可能造成更大威脅的額外蜂群功能。因此,"集體智能"或類似的可識別的蜂群功能可能被納入定義中。

【值得注意的是,"多個蜂群元素 "原則上意味著,任何數量大于1的單位,如果從事蜂群行為以提高整體單位的集體能力,都可以被視為一個蜂群。由于沒有專門的系統,識別蜂群行為幾乎是不可能的,因此,除非另有證明,否則最好將看似一起行動的多個實體視為一個蜂群。更高的數量會放大蜂群行為的好處。另外,各個實體不需要完全相同,只需要兼容,作為蜂群的一部分解決軍事問題。】

5 單個蜂群元素的數量

根據上述定義推斷,蜂群的另一個關鍵要素是參與的實體數量,但沒有明確規定最低數量。是否有一個閾值需要跨越,以脫離傳統的分組方案,如中隊、航班,從而有資格成為蜂群?同樣,我們有幾個選擇:

1.將任何由兩個或更多元素組成的編隊都歸為蜂群。

2.將蜂群定義為超過特定數量的單個元素的群體,其數量高于上述傳統分組。

3.避免任何具體化,將這一細節再次留給后續的分類學層次。

為了避免限制性太強,并允許有子類別,建議采用最后一種方案。術語"多個蜂群實體"很好地表達了建議的 "非特定性",并將在文章后面為此而使用。

6 空間分布

上述可觀察到的特征,即 "協調運動 "和 "多個蜂群元素",并不意味著各個蜂群實體之間有最小或最大的距離。已經有了采用廣泛分布的無機組的飛行器來轉播無線電通信或向偏遠地區提供互聯網連接的概念。單個航空器之間的距離可能是數百公里,以提供大面積的覆蓋。即使在較小的規模上,蜂群實體也可以在僅幾百米的距離內以協調的方式運作,以觀察一個地區或攻擊具有多個影響點的較大目標。如果不能對群體(或蜂群)進行整體調查,那么這些實體是否遵循預先確定的和不協調的模式或執行協調行動,對觀察者來說可能仍然是隱蔽的。因此,蜂群的空間分布不是一個總體定義的限定因素,而且會不必要地限制其應用,盡管這些特征可能在反蜂群活動中發揮作用,并在隨后的術語中加以定義。

7 人與人之間的互動

在談論蜂群技術時,人們廣泛討論了不同的自主性水平和相應的人類互動水平。例如,自主性水平越高,在實際任務中對人類投入的要求就越低。顯示出一套完整的蜂群行為的蜂群很可能處于自主性等級的高端,將人類互動的必要性降到最低。也可以假設這種人類互動適用于整個蜂群,以控制總體的蜂群功能,而不是單個的蜂群實體。然而,在觀察由單個空中、陸地、地面或地下飛行器組成的蜂群時,很難確定其自主性和人類互動水平,因此對于總體 "蜂群 "的定義而言,這不是一個相關因素。為了不限制定義的適用性,這些特征應該用一個子術語來描述,如 "智能蜂群"、"自主蜂群 "或類似的措辭,因為它們肯定在研究和開發、蜂群就業方面具有適用性,而且可能用于法律目的。

8 蜂群的能力

人們通常認為,組成一個蜂群可以增強或產生單個系統無法實現的能力。蜂群可以被認為是一個系統簇,它可以執行預先設計的功能并提供一個或多個(軍事)效果。這些效果要么直接受益于蜂群行為,要么間接受益于單個系統能力的組成,作為一個組合的蜂群功能。這種好處需要從能力要求、作業和防御的角度清楚地理解,并且可以與其他軍事用途的定義聯系起來。一般來說,蜂群行為是任何蜂群能力的基礎。然而,蜂群能力可能因使用的系統類型而有很大的不同,而且與蜂群行為相比,不能觀察到,只能在執行前假設。因此,能力聲明被認為不適合作為總體定義,還應該由下屬術語涵蓋。

9 定義提議

一個定義取決于蜂群的預期用途。由于蜂群應用提供了各種用途,本文建議從一個總體定義開始,并在下屬術語中涵蓋各個使用屬性。

以下是一個總體定義建議,涵蓋并支持所有軍事領域及其各自的無機組人員系統,隨后對定義的每個術語進行了解釋。

形成。這應表明蜂群元素之間的空間相關性,同時有意不進一步描述其具體組織。這就為各個蜂群元素之間的各種距離和空間安排留出了分類的空間。

多個。蜂群可能由少數甚至數百個元素組成,但至少要超過一個。不具體的術語 "多個 "允許該定義適用于所有類型的蜂群,無論其參與元素如何。定義一個具體的數字對于任何下屬的術語來說也將是困難的。可以對小型蜂群中的 "可計算的數量 "和大型或大規模蜂群中的 "不可計算的數量 "進行區分,這可能有助于區分人類或技術系統被接近的實體所淹沒時的威脅。

實體。它包括所有類別的無人系統,包括空中、陸地、地面和地下系統。如果計算機程序或衛星系統的協調行動是北約未來的選擇,這個術語也可以適用于網絡和空間領域。可以考慮使用從屬的術語,例如,無人駕駛飛機系統群(UASSw)或無人駕駛地面車輛群(USVSw)。

顯示協調的行為。蜂群的內部運作和技術機制可能有所不同,對于某些用途,定義甚至可能不需要審查這些內部特征。本文所確定的共同點是蜂群的行為,包括可以觀察到的協調動作和行動。故意不說明這些協調行動是如何實現的。實現蜂群功能的技術手段可以用隨后的術語來表達,如 "自主蜂群 "或 "智能蜂群"。

朝著一個目標前進。這是為軍事背景服務的,因為可以假設蜂群總是指向一個目標,以實現其特定的任務目標,從簡單的現場調查、情報、監視和偵察,到打擊或自殺任務。這可能與軍事背景以外的情況無關,可以不提。

【蜂群是由多個實體組成的,它們朝著一個目標表現出協調一致的行為。】

10 結論

為 "蜂群 "找到一個一致的定義是一個困難的挑戰,因為在所有的軍事領域和民事應用中都有很多用途。要在北約內部實現對蜂群定義的廣泛接受,唯一的解決辦法是確定所有蜂群特征的共同點,將定義減少到最低限度,并將專門用途的具體細節留給下級術語。

作者

安德烈-海德爾,中校是一名炮兵軍官,在指揮與控制和作戰計劃方面有超過15年的經驗。他是JAPCC的無人駕駛飛機系統主題專家,已有十多年的經驗,并代表JAPCC參加北約聯合能力小組的無人駕駛飛機系統和北約反無人駕駛飛機系統工作組。他撰寫了關于無人機系統和C-UAS的操作和法律問題的多項研究、書籍和文章。

安德烈亞斯-施密特,中校于1993年加入德國空軍。在軍官學校學習后,他在慕尼黑的德國武裝部隊大學學習計算機科學。自1998年以來,他在地基防空方面建立了廣泛的背景,特別是愛國者武器系統。他開始擔任戰術控制官,隨后在不同的 "愛國者 "部隊中擔任偵察官、炮臺執行官和炮臺指揮官。此外,他曾兩次不連續地被派往德克薩斯州的布萊斯堡。在這之間,他曾在前空軍師擔任A3C的任務。目前,他是JAPCC的綜合防空和導彈防御/彈道導彈防御中小企業。

付費5元查看完整內容

引言

俄羅斯總統弗拉基米爾·普京宣布 2021 年為俄羅斯科技年,11 月被命名為人工智能 (AI) 月,這表明俄羅斯領導層對這一總括性術語的濃厚興趣。俄羅斯國防部門尤其被這些人工智能技術相關機遇所吸引。近年來,人工智能、機器人技術以及將自動化和自主性進一步整合到武器系統和軍事決策中,都被強調為俄羅斯武裝部隊現代化的優先事項。

2017 年,普京有句名言:“人工智能是未來,不僅是俄羅斯,也是全人類……誰成為這一領域的領導者,誰就成為世界的統治者”。引用這句話,分析人士經常將俄羅斯的發展歸因于、測試和使用武器化的 AI 來與當前領先的 AI 開發商:美國和中國在所謂的全球 AI 競賽或全球技術競賽中競爭的必要性。雖然認為競爭和追趕的需求是俄羅斯動機的一部分,但它對軍事人工智能的興趣不應僅僅歸因于對相對實力的追求。要了解俄羅斯圍繞人工智能、自治和自動化的辯論的深度和復雜性,需要審查有關其對俄羅斯軍隊的戰略影響、自治的好處和風險,以及更廣泛地說技術現代化和技術現代化的重要性的討論。俄羅斯在世界上的地位的創新。

本報告旨在概述面向國際受眾的不同概念和動機,這些概念和動機一直并正在指導俄羅斯政治和軍事領導人實現其追求武器化人工智能的雄心。首先,它概述了俄羅斯軍隊追求人工智能、自主和自動化背后的各種外部和內部因素。其次,它介紹了俄羅斯在這一領域的一些計劃、對其能力的了解以及加強這些計劃所面臨的挑戰。第三,它深入探討了俄羅斯關于自主,特別是自主武器系統的辯論,以及關于開發所謂的“殺手機器人”或自主戰斗機器人的倫理討論,這是一個經常使用的術語在俄語文學中。

該分析基于對開源材料的調查,包括媒體報道、新聞稿、官方聲明和演講、同行評議的文章和智囊團報告,以及俄羅斯軍事期刊上的出版物。作者希望將其作為正在進行的博士研究項目的第一步,以及對新興的關于俄羅斯如何看待武器化 AI 的英語文獻做出貢獻。

概念注釋

本報告分析了自主、自動化和人工智能的概念——這三個術語在俄羅斯和國外經常相互混淆。值得從探索這些概念開始。自動化是一種基于特定動作或規則序列將任務委派給機器的方式,從而使流程更具可預測性。自動化系統是“根據預編程腳本執行具有定義的進入/退出條件的任務”。自主性是一個更復雜的過程,廣義上的意思是“對機器進行編程以執行通常由人員執行的某些任務或功能人類”,但沒有詳細的規則,因此更難以預測。人工智能可以定義為“數字計算機或計算機控制的機器人執行通常與智能相關的任務的能力。” 人工智能及其子集,例如機器學習,以及其在計算機視覺、面部和聲音識別等方面的應用,可用于實現武器系統更高水平的自動化和自主性。自主武器系統通常被定義為“一旦啟動,無需人工操作員進一步干預即可選擇和攻擊目標的機器人武器系統。” 聯合國安理會 2021 年 3 月發布的一份報告表明,土耳其制造的 Kargu-2在利比亞內戰期間,游蕩彈藥系統被編程為以自主模式選擇和攻擊目標。這被世界各地的媒體描述為首次使用致命的“殺手機器人”。但是,尚不清楚該系統在攻擊時是否真正自主運行。

【在人工智能進步的幫助下,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類】

圖1. 武器系統的自主性

同時,這些領域之間的能力并不總是相同的。在俄羅斯的案例中,自動化和無人機器人系統的開發比集成更現代的基于機器學習的系統更先進。俄羅斯軍事文獻中經常提到的“自動化”(автоматизация)過程——其他術語包括“機器人化”(роботизация)、“智能化”(интеллектуализация)或“數字化”(дигитализация)并不是一個新現象。 俄羅斯在自動化和遠程控制武器系統方面的能力相對優于其在人工智能總稱下整合機器學習和廣泛技術的其他子元素的能力。許多軍事決策者和分析人士的立場是,借助人工智能的進步,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類。

付費5元查看完整內容
北京阿比特科技有限公司