亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

目的

本洞察報告的目的是介紹與實現敏捷指揮與控制(Agile C2)技術的最近和預計發展有關的關鍵主題及其影響。特別是,本文試圖勾勒出這些技術對澳大利亞國防軍(ADF)未來作戰人員的影響--這些人將得到支持。這將為EDTAS的參與者提供基本的常識,并有助于在研討會期間引起辯論。為了實現這一目標,本文件將描述C2技術的背景和現狀。它將描述新出現的技術和它們打算如何支持C2,以及這些技術帶來的風險和挑戰。

范圍

本文并不打算做定論,因為敏捷C2跨越了許多學術和技術學科,并且在理論上已經融入了過去和現在的澳國防部隊成員的文化。本文所提出的是一系列意見,旨在促進討論和澳國防科技部潛在的敏捷C2研究目標。學術界、工業界和國防部的思想領袖和主題專家(SMEs)在一次范圍界定研討會上被確定,然后被邀請參加一次探索性的結構化訪談。受訪者名單附在本文之后。所提出的一些意見不一定與目前的理論、概念或甚至政策一致。所得出的結論是作者的結論,并注意到利益相關者的可用性和開放源碼研究的限制。

敏捷指揮與控制是什么?

C2是一項活動,包括計劃的構思、計劃的執行和對特定群體或組織的監測。它包括哲學和功能兩個方面--功能方面是指必須有效地指導團體實現特定的目標,而哲學方面是指必須適當地組織和裝備團體以實現這一目標。

C2從根本上說是一種人類效力--即使其中沒有多少人。組織的目的決定了所采用的C2模式。該模式需要包括廣泛的技術、結構、哲學、倫理和法律方面的考慮,并應旨在使該組織能夠最有效地運作以實現其目標。

敏捷性的最基本定義是快速移動、行動、思考或理解的能力。 具備這種素質的個人或組織能夠根據不斷變化的環境迅速修改其行為。敏捷性的基礎是適應性的目標。在一個變化速度有時令人眼花繚亂的世界里,吸收和理解新信息,然后根據這些信息做出決定的能力,對于從信息技術到戰場等領域的成功至關重要。

敏捷性是21世紀任何組織的一個關鍵屬性。它是一種狀態,在這種狀態下,人們變得更有能力 "處理存在的復雜性和不確定性的綜合影響"。 更簡單地說,如果你是敏捷的,你就能成功和迅速地應對環境的變化。

重要的是,敏捷性不僅僅是一次成功,而是'它是在改變或變化的環境中保持成功'。敏捷C2不是一種最終狀態。相反,它是一個組織根據逆境和情況,迅速調整其C2信息、互動和決策權的能力。如下圖所示,C2系統可以在三個軸上進行調整。

一個高度分布式的C2系統(有時被稱為邊緣組織)并不總是適合所有情況。然而,一個敏捷的C2結構具有多功能性,可以根據需要進行調整。

我們處理敏捷性的方式將影響結果。俄亥俄州立大學的戴維-伍茲教授認為,需要通過對適應性系統的理解來確定方法,而適應性系統本身就是生物,必須考慮人類行為的特點。他認為,建立能力的標準方法對敏捷C2不起作用。

該方法本身需要靈活,并以跨越多個學科的人員為中心。 ADF的指揮和控制概念是基于 "分層指揮"和"敏捷控制"。在這個意義上,敏捷性使部隊內部的控制關系能夠主動適應環境,以利用行動中出現的機會。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

見解/關鍵判斷:

  • 海上作戰概念(MarOpC)是一個基于效果的概念,它滿足了ISDR 21和IOpC的要求。
  • 海上作戰概念是一種作戰方法,具有適應性;隨著作業環境的變化,有必要進行調整。
  • 全球競爭、氣候變化、技術擴散、人口結構變化和可負擔性將可能成為未來安全環境的決定性特征。
  • 海事部隊的效用最好被理解為使用中的應急。

愿景

"一個以人為本的組織,擁抱創新和技術,作為一個團隊工作,成為一個有效的全球海軍,處于國家努力的核心:保護英國,防止沖突,并隨時隨地準備與敵人戰斗。

目的

海軍作戰計劃是一個以受眾為中心的概念,它描述了海上力量對ISDR21和IOpC所提出的要求的回應。與皇家海軍戰略一起,它描述了海上力量的明智之舉,從一個基于平臺的、特定角色的、綜合的艦隊,到一個分布式的、作為一個系統運作的蛋白體部隊。利用皇家海軍的部隊水平產出,這個概念描述了海上部隊將如何提供國家作戰優勢和綜合行動,以及為實現這一目標所需的變化。

海軍作戰計劃提供了一個清晰的愿景,即海上對國家權力的軍事工具的貢獻,并定義了皇家海軍將如何發展。為能力管理戰略提供信息,《海洋綱要》為長期的資金和能力戰略提供了基礎,在未來的國防審查中為皇家海軍的主張提供信息。海軍作戰計劃應與皇家海軍戰略一起閱讀。

今天的政策對皇家海軍提出了要求,這些要求可以通過現在采用MarOpC,并在2025年預期的綜合/防御審查之前得到最好的滿足。但是,變化的發生需要時間,而組織變革、文化重啟和能力轉型的調整預計將在2030年以后發生。雖然成熟可能會在2030年代到來,但我們必須現在就采用MarOpC的操作方法,認識到定期審查的重要性。

現實性

應對當前和未來的挑戰是一項艱巨的任務。作為一種作戰方法,MarOpC必須具有雄心和適應性;隨著作戰作環境的變化,必須進行調整。同樣,雖然對變革的規模和速度毫不諱言,但MarOpC是有基礎的。困難、緊張和矛盾被強調。滿足國際合作組織提出的要求將帶來艱難的選擇,需要明確的目標和統一的努力。

實現MarOpC的風險

MarOpC描述了一個系統的方法,隨著地理分布的增加,越來越廣泛地使用無機組人員的系統,以及迫使早期選擇的明智的支點哲學 ,都產生了資源需求。明智的支點理念描述了如何評估相互競爭的價值主張;這既是一種行為,也是一個過程,不能把選擇看作是決定性的,特別是當情況發生變化時。MarOpC不是要預測未來,而是要"......不要偏離目標太遠,以至于一旦[未來]的特征被揭示出來,就無法調整"。

定義未來安全環境的特征

競爭性

全球競爭——國家之間對資源、準入和影響的競爭——將繼續升級和多樣化。國防和海上部隊所需的影響范圍和廣度將繼續增加。非國家安全挑戰(例如 VEO 和有組織犯罪)將對海上力量提出要求,并需要在廣泛的利益相關者之間交換信息。

氣候變化

氣候變化的影響將對全球安全產生重大影響,政府間氣候變化專門委員會報告說:"......氣候系統的變化[將]變得更大,這與全球變暖的加劇直接相關。它們包括極端高溫、海洋熱浪和強降水的頻率和強度增加,一些地區的農業和生態干旱,強烈熱帶氣旋的比例,以及北極海冰、雪蓋和永久凍土的減少。這些變化的影響將加劇資源競爭,對生物安全產生不利影響,并將催生不可預見的健康挑戰。這些因素將促成一個不太穩定的世界。除了氣候變化對安全的影響外,海事部隊必須發展以滿足英國未來的碳凈值。這是一個巨大的挑戰,它將影響海事部隊所有未來系統和能力的設計和屬性。

技術擴散

技術擴散是一種威脅,也是一種機遇;在這兩種情況下,它都是海事部隊的一個決定性主題。高科技武器、傳感器和作戰協調技術的加速普及,使得對英國和/或綜合部隊的攻擊對于更多的威脅者來說更加可行。全面的技術優勢不能再被假設,再加上作戰優勢的喪失,將對戰略穩定構成明顯的風險。同樣,機會也是存在的,當我們的對手變得更加依賴技術時,我們可以獲得更多的攻擊載體,以及大規模擴散技術的成本分攤和規模經濟的潛力。

負擔能力

從根本上說,負擔能力是一個挑戰。傳統的大規模模式和整個部隊的平等能力標準已不再適合或負擔得起。相反,海上力量必須是有針對性的,專注于實現作戰優勢,以明確的目的,對抗最可能的對手。這種優先次序的確定將帶來困難的選擇;海上力量必須適應能力的不均衡分布,動態的和有限的機會,以及在設計、思考和執行中對不對稱性和非一致性的需要。

人口結構的變化

全球人口繼續增長,預計到2050年將達到97億人,到本世紀末將達到110億人。這一增長預計將主要發生在非洲和亞洲,并將伴隨著持續的城市化。這種人口增長的不均衡分布將產生安全挑戰;對資源的競爭(因氣候變化而加劇)、全球北方工作年齡人口的減少以及全球南方青年人口的增長都可能增加公共財政的壓力。財富和機會的不均衡分配將促使跨國移民的增加。不斷變化的人口結構有可能擾亂現有的社會模式,挑戰資源和財富分配,所有這些都可能表現為安全挑戰。

對聯合部隊的貢獻

海上力量的持久屬性繼續適用于海上部隊對綜合部隊的貢獻。這些屬性使海上力量能夠跨越競爭和沖突的范圍,提供戰略選擇、行動靈活性和戰術上的不可預測性。

海事部隊的效用最好被理解為使用中的應急。海事部隊是為全球參與、危機應對和戰爭而配置的。這一點--再加上在海洋領域提供的準入和持久性--使海上力量能夠不斷地與我們的對手競爭作戰優勢。這種優勢將被直接或間接地利用到所有的領域,而多領域整合則提供了協同效應的框架和動力。

綜合部隊的全球準入--特別是在危機應對和戰爭中--是沒有保證的。海上力量的設計是為了競爭、爭取和獲得進入作戰地區和整個沿海側翼的機會。這不僅僅是一場進入戰區的戰斗;它是通過持久性交戰實現的效果,它使我們能夠及早部署部隊,抵消了爭取進入的需要。

MarOpC

以下三個主題定義了MarOpC,并提供了判斷未來選擇的標準。

主題1--成為一支分布式的高素質部隊

海事部隊在設計上將變得更加分布式和保護性。

分布有兩個不同的目的。首先,一個更加常規化的部隊能夠提高持久性,并產生更大和更持久的效果。這確保了海上力量在沖突門檻以下,以及在不需要海上特遣部隊全部能力的情況下,能夠經常性地提供效果。其次,分布增強了殺傷力和生存能力。與系統方法相配合,海上力量將更經常地利用合作性的傳感器-決定器-效應器系統,以增加可將對手威脅置于危險之中或作為目標的范圍(和正面)。分布是為了使效果最大化,擴大殺傷力和提高生存能力。分布增強了海上力量的范圍、范圍和效果。

一支強大的海上力量從根本上說是平衡的,并且具有天生的適應性。更進一步說,海戰部隊是從高度具體的平臺優化轉向具有相互依存和可互換系統組件的部隊。它是一支由多個可擴展和靈活的系統組成的部隊,其組織和定位是為了效果而不是活動。海事部隊在設計上的 "保護性 "使其能夠利用技術、環境或形勢的破壞。它增加了海上力量的選擇和效用。

主題2--執行明智的支點

海事部隊的 "明智的支點"將使皇家海軍能夠通過識別那些正在達到其價值回報終點的活動、功能和能力(舊的),那些處于價值回報中期的活動(生命周期中期-現在),以及實現新的價值回報的新投資(新的),來駕馭向分布式保護部隊過渡的混亂。這種方法旨在圍繞這三個焦點來調整海上力量,通過不同的投資盡可能地釋放被困的價值,同時取消對過時能力的投資,以增加對現在和新的投資的自由。執行 "明智的支點 "就是要做出選擇,平衡今天和明天,盡早承擔量化的風險,并避免沉沒成本謬論的暴政。在實踐中,海事部隊的 "明智的支點 "將不是一個時刻,而是一種決策哲學,選擇的條件是三個重點(舊、現在、新)的相對權重。這種選擇被簡化為日落/日出;在實踐中,它是一套更加復雜和細微的決策。

主題3--采用系統簇方法

采用系統簇方法有兩個功能。首先,它打破了平臺和效果之間的聯系。在一個系統模型中,功能系統的組成部分被整合成一個相互依賴的系統,產生的效果大于各部分的總和。對于海上部隊來說--無論是單獨的還是作為綜合部隊的一部分--這種方法:通過增加傳感器和效應器來提高殺傷力;通過消除單一的脆弱點來提高可用性和復原力;通過增加可用的選擇來提高可用性、復原力和持久性,使海上部隊能夠更好地保持平衡。其次,通過打破平臺和能力之間的聯系--也就是傳統的模式,系統方法增加了能力和技術插入的范圍,提高了敏捷性,并最終促進了作戰優勢。實現這一目標是一個行為上的挑戰。如果半心半意或草草了事,那么以后就需要大量的額外努力,以使系統和能力適應系統方法。

交付IOpC

保護-參與-制約-戰斗的IOpC框架有助于按目的組織活動和效果。它并不意味著通過該框架的線性進展,也不意味著每一個都是獨立的組成部分。對于海上部隊來說。

  • 繼續關注完整的能力,能夠通過保護、參與、制約和作戰來覆蓋所有的效果,而且往往是同時進行。這就是使用中的應急措施。
  • 保持平衡,充分致力于 "保護-參與",而不放棄 "制約-作戰"的選擇。這將與作戰設計和部隊組合一樣重要。

保護。一支有彈性的部隊能夠在水上和水下發揮優勢,提供跨政府的綜合反應,保護祖國和海外領土、我們的人民、我們的經濟和我們的生活方式。

參與。一支能夠在全球范圍內,在海上和岸上部署和維持任務小組、任務單位和人員的部隊,并與各機構和合作伙伴相結合。這種持續參與的組合提供了戰略靈活性和政治選擇,以投射英國的全球影響力。

制約。一支能夠通過常規和非對稱方法影響競爭對手決策的部隊,作為融合方法的一部分,通過綜合行動來實現。這將要求部隊能夠破壞對手的假設,并獲得局部升級的優勢。

作戰。一支利用技術和創新的作戰方法進行戰斗并取得勝利的強大力量。

海事部隊的組織是為了實現四個部隊級別的產出。這些產出單獨或共同使用,提供了實現IOpC的方法和手段。

  • 北大西洋的本土和作戰優勢(OANA)。一支綜合的海上力量,是北約的核心;保護我們的國土和我們的盟友。
  • 持久參與。一支經過優化的高實用性部隊,以提供持久的全球存在。
  • 航母打擊。海事部隊和北約的作戰能力的核心,圍繞伊麗莎白女王級航空母艦建立。
  • 瀕海攻擊。一支持續參與并具有技術能力的突擊隊,能夠進行打擊和特種作戰。
付費5元查看完整內容

人工智能(AI)系統很可能會改變軍事行動。本文探討了人工智能系統如何影響準備和進行軍事行動的主要工具,并受其影響。因此,本文在戰略、理論、計劃、交戰規則和命令的背景下分析和討論了人工智能,以確定機會、挑戰和開放性問題的位置,并提出總體意見。本文采取了一個廣泛的分析角度,能夠根據新的政策和技術發展以及對政治、軍事、法律和道德觀點的考慮,對這一問題進行總體審查。因此,本文提供了一些見解和途徑,以推動對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

付費5元查看完整內容

2022年9月6日,美國海軍部首席信息官(DON CIO)簽署了《信息優勢的拱頂石設計概念》。本文件為美海軍和海軍陸戰隊提供了指導,以迅速響應陸地及海上的數字現代化要求。本文編譯了該文件的部分內容。

前言

2020年2月,美海軍部長簽署了《信息優勢愿景》(ISV),確定信息優勢為核心戰略優先事項,并宣布“信息就是戰斗力”。《信息優勢愿景》確立了現代化、創新和防御三個工作方向,最終目標是不受地點的限制實現信息的安全轉移。

《信息優勢拱頂石設計概念》為首席信息官、技術主管、首席架構師、總工程師等技術決策者提供了指南,思考如何采用現代設計理念來實現信息優勢。文件基于1-2-3-4模型中提供了一個高級框架:

  • 一個總目標:安全地將信息移動到任何地方;

  • 兩個結果:客戶體驗和作戰彈性;

  • 三個階段性目標:優化海軍部的云信息環境;采用企業服務;實現零信任;

  • 四大屬性:以客戶為中心、最佳價值成本、動態、激發信心。

想要成功實現信息現代化、創新和防御的發展目標,并獲得任何對手無法匹敵的數字優勢,取決于美海軍設計、開發和部署最佳技術解決方案的能力。美海軍必須改變現有思考方式以實現信息優勢。

設計概念:海軍部信息環境的數字支撐

為了滿足任務的需求,海軍部必須徹底改變。一支由專業人士組成的規模龐大而分散的隊伍正在推動這種改變,他們的工作反過來又受到來自海軍部的一系列戰略、愿景、概念和權威指導,以及工業界和學術界的新想法和最佳實踐的影響。這些專業人士需要清晰、有說服力、簡明扼要的指導,以推動海軍部的快速轉型。

本文件提供了戰略性技術指導,在整個海軍部信息環境(IE)中實現《信息優勢愿景》中所描述的信息優勢。文件包括一個總目標、兩個結果、三個階段性目標和四個屬性,以及對關鍵技術模式的討論。

本文件不是以特定產品和服務命名的解決方案架構,而是主要為技術戰略家、工程師和架構師等提供的指南,以協助他們針對如何采用、購買或創建產品和服務進行決策。本文件也不是參考架構,這一功能由NAVWAR 5.0維護的海軍目標企業架構(TEA)實現。具體技術標準和規范由相應的技術主管部門頒布。

未來海軍部信息環境概述

下圖描繪了海軍部信息環境的未來狀態。圖的左側以海軍部《信息優勢愿景》為基礎,從本文件提出的總目標為起點。《信息優勢愿景》描述了三個戰略目標:現代化、創新和防御,以及兩個戰略資產:數據和勞動力。

圖中“賦能數字化勞動力”部分(Empower the Digital Workforce)表達了一種以客戶為中心的觀點,了解通過不同方式與海軍部信息環境交互的不同類型的用戶。“利用數據推動信息優勢”部分(Leverage Data to Drive Information Advantage)描述了海軍部根據《國防部數據戰略》制定的實施計劃和支持工作,將海軍信息資產和任務納入一致的體系結構中。“創新和部署新能力”部分(Innovate and Deploy New Capabilities)展示了一種集中的投資組合管理方法,與數據相聯,組織應用程序和新興技術來支持作戰和商用業務。數據和創新兩大因素為勞動提供支撐,并建立在“基礎設施現代化”(Modernize our Infrastructure)的基礎上,全部包含在位于圖正中的基于零信任網絡架構的“保護我們的信息”(Defend our Information)中。

圖的右側提供了一個作戰環境。其中包括海軍戰術柵格,利用模塊化開放系統方法(MOSA)連接整個作戰域的武器系統、傳感器和平臺,最終回到云能力集,為部隊的開發的生產提供常用功能。云能力集通過核心或邊緣云連接在一起,兩者的鏈接受到拒絕、降級、間歇和有限帶寬(DDIL)連通性的影響。

海軍部信息環境遵循DoDD 8000.01指令。信息環境的管理包括信息網絡基礎設施、企業信息技術服務和解決方案、國家安全系統、工業控制系統以及有線、無線、移動通信和平臺的嵌入式計算。在技術業務管理(TBM)框架方面,信息環境的能力包括數據中心、網絡、計算、存儲、應用程序和數據平臺、終端用戶服務、服務交付和運營、安全和合規以及信息技術管理。

付費5元查看完整內容

前言

美國陸軍未來與概念中心 未來戰爭部主任 克里斯-羅杰斯上校

歷史上的戰爭包含了大量改變戰爭性質的工具和技術的例子。自最初研究多域作戰(MDO)以來,美國陸軍發現人工智能是一種新興技術,有可能改變戰爭的特點,也許也會改變戰爭的性質。使用人工智能(AI)解決方案來緩解軍事問題是過去兩年未來戰爭研究、檢查和學習的一個反復出現的主題。作為2019年未來研究計劃的一部分,我們與陸軍、聯合、多國、學術和科技組織合作,探索和了解人工智能對多軍種的影響,并為未來的研究和發展制定一個操作框架。

多域作戰的人工智能運作最終報告提供了采用人工智能的組織框架,以幫助陸軍和聯合部隊更好地定義所需的能力以及相關的數據和網絡架構,以實現多域能力部隊。描述聯合部隊如何采用人工智能解決方案,為了解人工智能在時間和空間上對多域作戰的影響提供了一個操作說明。本報告確定并解決了與人工智能相關的好處、機會和挑戰,為進一步分析提供了基礎。諸如人工智能等新興技術使陸軍不僅可以改進當前的戰術、技術和程序,而且可以創造新的運用和融合能力的方法。

該報告支持美國陸軍人工智能任務組,該組織負責制定陸軍的人工智能戰略和政策。本文通過描述部隊如何在整個MDO框架內采用人工智能解決方案和相關技術,啟動了陸軍的人工智能運用工作。這份報告使概念發展團體能夠修改陸軍功能概念和戰場發展計劃。它為能力發展團體提供了作戰視角和部隊在確定所需能力時必須考慮的技術影響。此外,該報告還為作戰概念文件或基于能力的評估提供了開發情景或小插曲的基礎。該文件為科學和技術界提供了行動背景,以便為人工智能研究、開發、建模和模擬提供信息和指導。最后,它支持制定一個在未來使用人工智能的全面愿景,以告知陸軍現代化的努力,這將創造有能力的MDO部隊,準備好與任何對手作戰并取得勝利。

執行摘要

人工智能(AI)是未來聯合部隊實現多域作戰(MDO)全部潛力的基礎。人工智能系統提供了跨越領域、電磁頻譜和信息環境戰勝對手的能力。在競爭中使用這些系統使聯合部隊能夠近乎實時地了解作戰環境,從而更好地運用能力來擊敗旨在破壞區域穩定的威脅行動,阻止暴力升級,并將被拒絕的空間變成有爭議的空間。在從競爭到武裝沖突的過渡中,人工智能的機動、火力以及情報、監視和偵察能力為聯合部隊提供了拒絕敵人奪取優勢地位的能力。改進的維持能力與攻擊敵人的反介入/空中拒止網絡的能力相結合,為美國部隊提供了奪取作戰、戰略和戰術優勢位置的能力。通過由人工智能支持的多領域聯合行動圖(MDCOP)增加了解,使美國部隊有能力協調多領域的效果以創造優勢窗口。

制定人工智能的作戰概念使陸軍能夠更好地理解這些技術對戰爭的性質和特征的潛在影響。描述陸軍如何在未來的作戰環境中使用人工智能,有助于說明其對戰爭的暴力、互動和基本的政治性質的影響,以及戰爭不斷演變的特點。本文提供了一些小插曲(附錄A),說明了人工智能的組織運用,為美國陸軍RAS總體概念、作戰和組織概念、基于編隊的作戰概念以及系統或單個系統的運用概念的潛在發展提供信息。

人工智能的運作影響到未來部隊將如何運作,如何針對對手開展行動,以及指揮官如何利用軍事藝術和科學,運用部隊能力來實現預期效果和目標。在2019年未來研究計劃(FSP19)期間,人工智能工作線(LoE)確定了與實施人工智能支持的多領域解決方案有關的以下問題:

  • 數據管理--AI/ML應用程序依賴于對策劃的數據的訪問,以便發揮作用。陸軍必須培養一種以數據為中心的文化,以標準化的格式和協議有效地生成、存儲和訪問數據。人才管理的努力必須側重于發展、培訓和保留一支精通數據的員工隊伍。這可以通過以下方式實現:

    • 在整個部門培養一種以數據為中心的文化

    • 投資于整個員工隊伍的數據科學培訓

    • 簡化數據訪問

    • 設計和實施協議,以確保數據的可發現、可訪問、可共享和可互操作性

  • 功能分解--狹義的人工智能本質上是有限的,構建算法的數據科學家需要精確的問題定義,準確確定聯合部隊的要求。

  • 可解釋人工智能--人工智能支持的系統需要有能力解釋決策/建議和所采取的行動背后的邏輯。這種解釋 "為什么"的能力是人類對人工智能智能體的信任基礎。

  • 邊緣計算/人工智能--未來的作戰環境與有爭議的電磁頻譜預期要求有能力向前處理極其龐大的數據集,以及能夠自主行動的人工智能平臺。

  • 利用商業部門--美國防部實驗室繼續在人工智能/ML發展方面取得重大進展,特別是與聯邦資助的研究和發展中心合作。商業部門繼續探索和擴大可能適用于軍事應用的工作。

作為FSP19的一部分,人工智能LoE開發了五個小插曲和一個概念草圖(見附錄A),以協助人工智能和機器學習的運作。這些小插曲說明了聯合部隊如何利用人工智能/ML來解決多領域行動所需的關鍵能力。MDCOP概念將依靠幾個有限內存的人工智能來建立和維護描繪整個戰場的藍、紅、綠活動。一個反應式機器人工智能將為特定的指揮官和總部定制MDCOP。合作傳感、維持、攻擊和瞄準的小插曲依靠反應式機器人工智能來優化傳感器覆蓋、維持吞吐量、攻擊順序和射手選擇。

未來部隊需要人工智能來充分實現多領域作戰的潛力。人工智能支持的系統使未來部隊能夠進行信息收集和分析,以便在時間有限和信息競爭的環境中增加對形勢的了解。這種能力使快速、知情和合理的決策成為可能。人工智能的決策支持代理將減輕作戰人員的認知工作量并提高整體效率。由人工智能支持的無人系統將探測、識別和穿透高風險區域,以提高開展行動和保護部隊、人口和資源的能力。人工智能使MDO在與近似對手的沖突規模下實現了作戰速度的要求。

付費5元查看完整內容

執行摘要

大數據、人工智能和機器學習代表了當今最前沿的一些技術,并可能成為未來幾十年甚至更久的主導技術。大多數專家都認為,人工智能的發展將比1879年電力發明以來的任何技術都更能改變我們的生活,這一點通常被稱為人工智能或簡稱AI。

可悲的是,在人工智能和無人系統(或用老話說的 "機器人")的編隊協作問題上,熱度遠遠高于光度,其中大部分是由大眾媒體推動的。普通大眾被不斷喂食關于 "壞"機器人的書籍和電影(例如《世界大戰》、《終結者》),甚至是關于 "好"機器人叛變的書籍和電影(例如《2001:太空漫游》和《機器之家》),普遍擔心今天的機器人--使用人工智能的無人駕駛機器--將以我們在2021年只能模糊感知的方式來主宰我們的生活。

當涉及到人工智能的軍事應用時,這些擔憂就會變得異常強烈。許多人表示擔心,美國軍方可能會失去對其無人系統的控制,特別是其武裝的無人系統。這些擔心已經表現在許多方面,最明顯的是谷歌停止了美國國防部的算法戰爭跨功能團隊的工作,也就是所謂的Maven項目。這尤其令人擔憂,因為Maven項目與武裝無人系統毫無關系。

在許多國家,關于人工智能的軍事用途的對話已經變得尖銳,并阻礙了人工智能在美國軍事武器系統中的有效插入。當人工智能、自主性、無人駕駛和武裝在同一個句子中使用時,這些擔憂被放大了。同時,美國的同行競爭者,中國和俄羅斯,認識到了人工智能在控制他們自己的社會以及其他社會方面的價值,并且正在投資數千億于人工智能,其中大部分是為了給他們的軍隊提供一個與美國軍隊不對稱的優勢。

此外,也許更重要的是,由于今天的戰爭速度往往超過了人腦做出正確決定的能力,美國軍隊需要大數據、人工智能和機器學習,以使其作戰人員在戰斗中獲得優勢,特別是在決策領域。美國軍隊--以及其他國家的軍隊--曾發生過決策者在正確的時間沒有得到正確的信息,來支持時間緊迫的作戰決策而導致悲劇發生的一些情況。

重要的是要注意到,做出這些次優決策的軍事人員在手頭的工具下做了他們能做的最好工作。發生的情況是,戰爭的速度往往超過了人腦做出正確決策的能力。事實上,正如美國陸軍研究實驗室首席科學家亞歷山大-科特博士在一次指揮和控制會議上所說:"人類的認知帶寬將成為戰場上最嚴重的制約因素。"

直到最近,將強化決策提高到新水平的技術根本不存在。今天,它確實存在,而且利用大數據、人工智能和機器學習能夠為作戰人員提供的東西,很可能導致海戰的下一個突破,特別是在決策領域。海軍太平洋信息戰系統中心與海軍研發界、工業界和學術界的合作伙伴一起,正在領導各種努力,以確保美國作戰人員有能力以更少的人和更少的錯誤做出更好的決策。

1 大國競爭時代的戰略視角

21世紀在世界秩序、地緣政治和戰爭方式方面迎來了巨大的變化。正如美國國家情報委員會的頂點出版物《全球趨勢:進步的悖論》所說:

  • 過去幾十年的進步是歷史性的,它將人們聯系起來,賦予個人、團體和國家權力,并在此過程中使10億人擺脫了貧困。但同樣的進步也催生了阿拉伯之春、2008年全球金融危機以及民粹主義、反建制政治的全球崛起等沖擊。這些沖擊揭示了這些成就是多么的脆弱,凸顯了全球格局的深刻變化,預示著一個黑暗而艱難的近期。

《全球趨勢:進步的悖論》指出,未來五年,國家內部和國家之間的緊張局勢將不斷加劇。全球增長將放緩,就像日益復雜的全球挑戰即將到來一樣。范圍越來越廣的國家、組織和有能力的個人將塑造地緣政治。無論好壞,新出現的全球格局正在結束冷戰后美國占主導地位的時代。以公眾期望的方式進行國際合作和治理將變得更加困難。Covid-19危機放大了這些困難,暴露了國際合作的極限。擁有否決權的人處處威脅要阻止合作,而信息回音室效應將強化無數相互競爭的現實,破壞對世界事件的共同理解。因此,未來幾年發生沖突的幾率將比近期任何時候都要高

這一評估在美國國家情報局局長的《世界范圍內的威脅評估》中得到了再次確認,其中部分內容指出。"隨著大國和地區侵略者利用復雜的全球趨勢,同時適應美國外交政策的新優先事項,各國之間的競爭將在未來幾年內增加。國家間沖突的風險,包括大國之間的沖突,比冷戰結束以來的任何時候都要高。"雖然現在評估Covid-19大流行病的全面影響還為時過早,但初步跡象表明,這場危機加劇了美國與其同行競爭對手之間的緊張關系。

2021年,美國仍然在世界各地參與活動。國家安全戰略涉及對美國安全和繁榮的廣泛威脅。這些威脅包括從中國和俄羅斯這樣的高端同行競爭對手,到朝鮮和伊朗,以及以伊黎伊斯蘭國為代表的恐怖主義的持續威脅。在里根國防論壇上的國家安全戰略預演中,當時的國家安全顧問麥克馬斯特將軍強調了這些威脅,并再次確認了前政府的 "4+1戰略",將俄羅斯、中國、伊朗和朝鮮這四個國家以及 "+1"--恐怖分子,尤其是ISIL--列為美國今天必須應對的緊迫威脅。

國際安全范式的這一巨大變化的程度怎么強調都不過分。引起這一新焦點的原因并不神秘,那就是與中國和俄羅斯的大國競爭。事實上,《國家安全戰略》提出了保護美國人民和維護他們的生活方式、促進繁榮、通過實力維護和平以及提升美國在世界上的影響力的戰略愿景。值得注意的是,這個新的、發達的戰略代表了與以前版本的巨大轉變,以前的版本側重于安全、繁榮和國際秩序這三大支柱,都是一些沒有什么具體內容的理想。這個新的國家安全戰略強化了美國對中國和俄羅斯的立場,拋棄了 "朋友 "和 "伙伴 "的字眼,取而代之的是 "修正主義國家 "和 "競爭對手"。

《國防戰略》進一步發展了《國家安全戰略》中提出的主題,更直接地處理了對美國安全和繁榮的威脅。這份文件指出,美國面臨的核心挑戰是被《國家安全戰略》歸類為修正主義大國的長期戰略競爭的重新出現。它指出,越來越明顯的是,中國和俄羅斯想要塑造一個符合其“獨裁”模式的世界--獲得對其他國家的經濟、外交和安全決定的否決權。《國防戰略》發表后不久,美國防部高級官員從詞典中刪除了 "4+1戰略 "一詞,現在以 "2+3戰略 "的方式談論,以承認俄羅斯和中國構成的生存威脅。美國防部領導人已經公開表示,"中國是第一,俄羅斯是第二"。此外,他們還說,俄羅斯仍然是我們最大的近期安全挑戰,而中國是我們最大的長期挑戰。

這份國防戰略繼續說:"與中國和俄羅斯的長期戰略競爭是國防部的主要優先事項,需要增加和持續的投資,因為它們今天對美國的安全和繁榮構成了巨大的威脅,而且這些威脅在未來可能會增加。"

國會研究服務處的一份文件《向國會提交的關于大國競爭和國防的報告》中描述了這種急劇變化的戰略格局。以下是這份報告對今天的戰略環境的描述:

  • 國際關系的后冷戰時代--始于20世紀90年代初,有時被稱為單極時刻(美國是單極大國)--在2006-2008年顯示出消退的初步跡象,到2014年已經讓位于與中國和俄羅斯重新開始的大國競爭以及這兩個國家和其他國家對二戰以來美國主導的國際秩序要素的挑戰,這是一種根本性的不同情況。

  • 在奧巴馬政府2015年6月的《國家軍事戰略》中,大國競爭的恢復與其他考慮因素一起被承認,并被置于特朗普政府2017年12月的《國家安全戰略》(NSS)和2018年1月的《國防戰略》(NDS)的中心位置。2017年12月的NSS和2018年1月的NDS正式調整了美國國家安全戰略和美國國防戰略的方向,明確將主要精力放在與中國和俄羅斯的大國競爭上。國防部(DOD)官員隨后將對抗中國的軍事能力確定為國防部的首要任務。

國會研究處隨后的一份報告《國防初探:地理、戰略和部隊設計》強調了將美國的戰略重點轉向這兩個歐亞大國的重要性,指出:

  • 防止歐亞大陸出現區域性霸權,有時也被稱為維護歐亞大陸的權力分工,或防止歐亞大陸的關鍵地區被一個大國所支配,或防止出現勢力范圍的世界,這可能是歐亞大陸出現一個或多個區域性霸權的后果。

以下是《紐約時報》的一篇社論如何看待美國面臨的長期挑戰問題。"冠狀病毒可能幾乎改變了一切,但它并沒有改變這一點。美國面臨的全球挑戰還在繼續,美國的對手在測試極限,看看他們能在最小的反擊下取得什么成果。"

雖然通常留給更高級別的文件,但美國海軍的《維持海上優勢的設計2.0》也強調了這種同行(而且明顯不再是 "近鄰")競爭的首要重要性,指出:"中國和俄羅斯正在部署其國家力量的所有要素以實現其全球“野心”......中國和俄羅斯試圖以對自己更有利的條件重新定義整個國際體系的規范"。

邁克爾-吉爾德伊上將在就任美國海軍作戰部長后的指示中,強調了這種對高端作戰的需求,以及與美國海軍陸戰隊整合的重要性,在他的FRAGO 01/2019中指出:"我們將確保作戰能力和致命部隊的整體性,使分布式海上作戰、遠征先進基地作戰和有爭議環境中的瀕海作戰效益最大化。"

雖然是聯合部隊集體為國家作戰,但海軍部隊在應對大國競爭方面的重要性在一份題為《海上安全和大國競爭》的報告中得到強調。《維護以美國為首的國際秩序》,其中部分內容指出:

  • 大國競爭(GPC)將大量的注意力引向了威懾或擊敗美國最強大的競爭對手所需的高端能力。然而,競爭不僅僅是高強度的沖突,這就需要對不太激烈的沖突形式與大國競爭之間的關系進行更深入的質疑。盡管分析家們越來越多地詢問全球契約對日常競爭意味著什么,但很少有人詢問全球契約與海軍的海上安全任務之間的關系。這種關注很重要,因為水面海軍的長期部署通常以海上安全行動為主--戰區安全交戰、航行自由行動、人道主義援助等等。

這并不是說海軍比美國其他軍種更重要,也不是說像一些海軍專家所建議的那樣,海軍應該在有限的國防預算中獲得更大的份額,而是說大國競爭的前線是,而且可能繼續是廣闊的歐亞大陸的沿海地區。南中國海的持續摩擦只是大國競爭中的一個爭論點,還有很多其他爭論點。

美國在2020年12月發布的新海洋戰略《海上優勢》毫不含糊地將海上事務置于這一大國競爭的最前沿,其中部分內容指出:

  • 自我們上次在2015年發布《21世紀海權合作戰略》以來,安全環境發生了巨大的變化。一些國家正在爭奪關鍵地區的權力平衡,并試圖破壞現有的世界秩序。我們的對手的重大技術發展和積極的軍事現代化正在侵蝕我們的軍事優勢。遠程精確導彈的擴散意味著美國不能再假定在沖突時可以不受限制地進入世界海洋。

  • 自21世紀初以來,我們的三個海務部門一直在警惕地注視著中國日益增長的海軍力量和俄羅斯聯邦日益增長的侵略行為。我們部署在全球的海軍部隊每天都與中國和俄羅斯的軍艦和飛機互動。我們親眼目睹了他們越來越復雜和越來越有侵略性的行為。中國代表著最緊迫的、長期的戰略威脅。

《國防戰略》高度關注技術,并指出,如果不利用先進的技術來支持我們的作戰人員,美國將無法實現它所尋求的安全和繁榮,并指出:

  • 安全環境也受到快速的技術進步和戰爭性質變化的影響。開發新技術的動力是無情的,以較低的準入門檻擴大到更多的行為者,并以加速的速度發展。新技術包括先進的計算、大數據分析、人工智能、自主性、機器人、定向能、高超音速和生物技術--正是這些技術確保我們能夠打贏未來的戰爭。

  • 新的商業技術將改變社會,并最終改變戰爭的性質。許多技術發展將來自于商業部門,這意味著國家競爭者和非國家行為者也將有機會獲得這些技術,這一事實有可能侵蝕我們國家已經習慣的傳統的超強對抗。保持技術優勢將需要改變行業文化、投資來源和保護整個國家安全創新基地。

《全球趨勢》中強調的發展。《全球趨勢:進步的悖論》以及《國家安全戰略》和《國防戰略》中強調的發展,在美國軍方的未來展望出版物《2035年聯合行動環境》(又稱JOE)中得到了呼應。《聯合作戰環境》的副標題是 "有爭議和無序世界中的聯合部隊",它著眼于20年后,研究未來將如何影響作戰和聯合部隊。《聯合作戰環境》強調,即使在伊拉克和阿富汗的沖突逐漸結束時,美國軍隊在本十年的剩余時間和以后將面臨越來越大的壓力。

《2035年聯合行動環境》有一節專門討論技術。報告的作者解釋了這樣處理技術問題的理由:

  • 聯合部隊將面臨一個主要由加速的技術變革定義的未來技術環境。在過去的20年里,美國對高技術戰爭的做法鼓勵了對手發展非對稱、非常規、不規則和混合的方法。敵人將繼續創新,應用不同的高低技術組合來挫敗美國的利益和軍事力量。

  • 到2035年,美國將面對一系列尋求在一些關鍵領域實現技術平等的競爭對手。累積的結果將是這樣一種情況,用前國防部副部長羅伯特-沃克的話說,"我們的部隊面臨著非常現實的可能性,即到達未來的一個戰區,發現自己面臨著一個先進的、破壞性的技術庫,這可能會使我們以前的技術優勢被推翻--我們的武裝部隊不再擁有無爭議的戰區準入或不受約束的行動自由。"

很明顯,美國情報界和美國軍方都認識到,世界秩序的變化速度與技術生態系統的快速變化如出一轍。此外,在美國政府的最高層,人們承認美國曾經享有的技術優勢已經被削弱,美國軍隊不能再以純粹的技術優勢來支配其對手了。事實上,一些寫軍事和技術的專家已經預示了這種認識。

軍事歷史學家馬克斯-布特(Max Boot)在他的暢銷書《全新的戰爭》(War Made New)中指出:"我的觀點是,技術設定了可能的參數;它創造了軍事革命的潛力。"他用歷史實例支持他的論點,說明技術驅動的 "軍事革命 "如何改變了戰爭并改變了歷史的進程。重要的是,布特指出了技術的重要性,它使那些迅速創新和運用新軍事技術的國家獲得了戰爭勝利的優勢。

美國軍隊已經接受了技術變革的浪潮,這構成了戰爭方式的真正革命。隨著全球技術變革的步伐加快,美國特別善于運用新技術來應對威脅。正如布魯斯-伯科維茨在《戰爭的新面貌》中指出的那樣:

  • 戰時經驗表明,正確的技術,明智地使用,使純粹的數量變得無關緊要。轉折點是1991年的海灣戰爭。戰爭結束時,美國及其聯盟伙伴僅損失了240人。伊拉克遭受了大約10,000人的戰死,盡管沒有人會真正確定。不同的是,美國人可以在晚上看到東西,在沒有特征的沙漠中開車而不迷路,并以90%的概率將一枚智能炸彈投入目標。

雖然所引用的兩本書都是十多年前的舊書,但它們關于技術的論述在美國軍隊接受新工具的方式上仍然是正確的。但正如《2035年聯合作戰環境》以及其他高級別政府、情報界和軍事出版物所指出的,雖然美軍一直善于采用新技術用于軍事用途,但這一過程一直處于壓力之下。有許多因素阻礙了新技術在美國軍隊中的應用,包括這些部隊在過去20年中所面臨的高操作節奏、預算壓力和持續的扣押幽靈,以及往往是笨重的軍事采購系統。盡管有這些壓力,各軍種已經找到了接受新技術的方法,這些技術有望使平衡重新向美國的優勢傾斜。

今天,美國軍隊采用的創新技術中增長最迅速的領域之一涉及無人駕駛系統。在過去的幾十年里,美軍使用的無人駕駛飛行器(UAVs)已經從寥寥無幾增加到1萬多架,而無人駕駛地面車輛(UGVs)的使用已經從零爆炸到12000多架。無人水面飛行器(USV)和無人水下飛行器(UUV)的使用也在增長,因為USV和UUV被證明在廣泛的軍事應用中越來越有用。軍事無人系統(UxS)的擴大使用已經在創造十年前不存在的戰略、作戰和戰術的可能性。

武裝無人系統的擴大使用不僅改變了現代戰爭的面貌,而且還改變了戰斗行動的決策過程。事實上,有人認為,無人機戰爭的興起正在改變我們對 "戰爭 "本身的概念和定義。這些系統在伊拉克和阿富汗的沖突中被廣泛使用,并且隨著美國的戰略重點轉向印度-亞洲-太平洋地區以及這一戰略所要求的高端戰爭,這些系統將繼續具有同樣的相關性,甚至更加重要。無人系統,尤其是它們的效用,不是作為獨立的實體,而是作為被稱為 "人-機-隊 "的作戰伙伴,是美國 "第三抵消戰略 "的一個基本原則。

2 對 "抵消"戰略的需求

美國防部已經啟動了 "第三次抵消戰略",以確保美國保持對潛在對手的軍事優勢。"抵消"戰略是一種軍事競爭的方法,它試圖以不對稱的方式彌補不利的地位。與其在潛在對手也可能擁有巨大實力的領域進行正面競爭,抵消戰略試圖通過引入新的作戰概念和技術,將競爭的軸心轉向美國具有顯著和可持續優勢的領域。

美國在冷戰期間成功地推行了兩種不同的抵消戰略。這些戰略使美國能夠 "抵消"蘇聯在常規部隊中的數量優勢,而不需要在前沿部署的部隊中進行巨大的投資,因為這需要以士兵對士兵、以坦克對坦克的方式提供超額補償。這些抵消戰略依賴于技術、作戰方法和組織結構的根本創新,以彌補蘇聯在時間、空間和部隊規模上的優勢。

這些抵消戰略中的第一個發生在20世紀50年代,當時艾森豪威爾總統試圖通過利用美國的核優勢來克服華沙條約組織的數量優勢,引入戰場核武器--從而將競爭的軸心從常規部隊數量轉移到美國擁有不對稱優勢的領域。這種方法提供了穩定性并為威懾提供了基礎。

第二種抵消戰略產生于20世紀70年代末和80年代初,因為人們認識到蘇聯已經實現了核均勢。第二個抵消戰略試圖通過追求一種新的聯合行動方式來創造一種持久的優勢,即利用常規精確武器、支持實時精確瞄準的實時遠程ISR(情報、監視、偵察)傳感器能力以及允許這些能力在整個戰斗空間同步執行的聯合戰斗網絡的綜合效應。

幸運的是,構成 "第二次抵消戰略 "的軍事技術從未在與蘇聯的正面交鋒中得到檢驗。然而,在 "沙漠風暴 "行動中,這些技術被部署在一支由蘇聯訓練和裝備的軍隊面前。如前所述,正如《戰爭的新面孔》所描述的那樣,伊拉克的失敗是徹底的,代表了現代戰爭中最一邊倒的運動之一。顯然,美國的潛在敵人注意到技術在這場勝利中發揮的關鍵作用。

在20世紀80年代初引入第二套抵消戰略時,美國是唯一擁有知識和能力來開發、部署和成功執行情報、監視和偵察能力、天基系統以及支持這種方法的精確武器的國家。今天,像俄羅斯和中國這樣的競爭對手(以及這些國家向其擴散先進能力的國家)正在追求和部署先進的武器和能力,這些武器和能力展示了許多與傳統上為美國優勢提供高科技基礎的技術力量,如精確制導彈藥。在俄羅斯在敘利亞的力量投射行動中,可以看到美國技術能力與潛在競爭對手之間的這種日益對稱性。

國際安全環境中出現的越來越多的均勢,使得美國必須開始考慮各種技術、系統概念、軍事組織和作戰概念的組合,這些技術、系統概念、軍事組織和作戰概念可能會改變競爭的性質,使美國比潛在對手更有優勢。這一系列的能力為第三個抵消戰略提供了基礎。如同以前的抵消戰略一樣,第三個抵消戰略尋求在預算有限的環境下,通過確定美國獨特的力量和能力所帶來的不對稱優勢,保持并擴大美國的技術和作戰競爭優勢。第三套抵消戰略確保美國的常規威懾態勢在未來仍像今天一樣強大,并為將這一優勢擴展到未來創造條件。

在解釋《第三次抵消戰略》的技術要素時,當時的國防部副部長羅伯特-沃克強調了無人系統、人工智能、機器學習和自動駕駛方面新興能力的重要性。他指出,這些技術為聯合部隊提供了巨大的優勢,使未來的部隊能夠開發和操作先進的聯合、協作的人機戰斗網絡,在太空、空中、海上、海底、地面和網絡領域同步作戰。人工智能將使聯合作戰網絡的自主性達到新的水平--決策權的有限授權,從而為人機協作和作戰團隊帶來全新的機會

無人系統、人工智能和機器學習等技術在第三個抵消戰略中,特別是在該戰略的長期研究和發展計劃(LRRDP)中的突出地位很難被夸大。

也就是說,該戰略有一個強有力的組成部分,強調在使用具有日益復雜的人工智能和機器學習能力的無人系統時,要讓人類處于循環之中。事實上,人機協作是現存的 "第三抵消戰略 "文件以及國防部高級官員的演講和訪談中所強調的一個必要條件。雖然深入研究 "第三抵消戰略 "技術主旨的全部細節超出了本文的范圍,但重要的是要注意,該戰略的主要技術路線集中在人機協作和戰斗團隊的概念上。這一概念的五個基本組成部分是:

  • 自主深度學習系統,它將利用機器學習,在人類反應時間太慢的領域 "以光速 "運作,例如網絡攻擊、電子戰攻擊或大型導彈突襲攻擊。

  • 人機協作,這將使機器能夠幫助人類更快地做出更好的決定。工部長列舉了F-35聯合攻擊戰斗機和海軍綜合火控反航(NIFC-CA)作為這些概念的例子。

  • 輔助人類作戰,這將專注于人和機器可以一起行動的方式,通過可穿戴電子設備、外骨骼和戰斗應用等工具,在各種可能的緊急情況下協助作戰人員。

  • 先進的人機作戰團隊,將側重于人類與無人系統合作作戰;其中一個例子是海軍的P-8 "海神 "與MQ-4C "海神 "的作戰。展望未來,團隊合作的下一個層次將研究蜂群戰術和合作自主。

  • 網絡支持的、網絡硬化的自主武器,將有彈性地在電子戰和網絡環境中運行。目前的一個例子包括戰術戰斧Block IX,其目標可以在飛行中更新。

知識淵博的外部觀察家參考了《第三次抵消戰略》,并強調了無人駕駛系統在實現美國戰略目標方面的重要性。前歐洲盟軍最高司令官詹姆斯-斯塔夫里迪斯(James Stavridis)上將在其發表在《外交政策》上的文章《新三體》中指出,無人系統是這個新三體的三大支柱之一,他指出:"新三體的第二個能力是無人駕駛車輛和傳感器。三合會的這一分支不僅包括空中攻擊無人機,還包括空中、地面和海洋表面的無人監視車......這種系統有一個明顯的優勢,即不需要所有最昂貴的部件:人。"

美國陸軍的一份報告描述了在2014年首次闡述的第三次抵消戰略,而且遠在美國開始稱中國和俄羅斯為同行競爭對手之前,該戰略必須在21世紀的第三個十年中變形和改變:

  • 蘇聯軍隊在數量上的優勢促成了前兩個抵消戰略。隨著美國軍事技術進步的應用已經擴散到近似的對手,它已經有效地重新平衡了戰場。為確保第三次抵消戰略的成功實施,國防部與美國政府必須就我們試圖抵消的東西以及如何平衡這些優先事項以對付處于巨大不同區域和能力的對手達成一致。

  • 第三抵消戰略的運用將恢復美國的力量投射能力,通過可靠的拒絕和懲罰威脅來加強常規威懾力,并作為長期競爭的一部分對潛在的對手施加代價。平衡或擊敗對手能力的能力需要資源,為確保有效運用該戰略,我們必須解決我們試圖抵消的問題。

鑒于第三個抵消戰略的強烈技術重點,在美國尋求在本十年及以后實施這一戰略時,這一戰略的表現將由聯合部隊放置在戰場上的軍事平臺、系統、傳感器和武器所代表。同樣明顯的是,美國各軍種--特別是美國海軍--已經表示希望將無人系統作為其部隊結構中一個日益重要的部分投入戰場。

3 大數據、人工智能和機器學習與軍事武器系統

在國會作證時,前國防部長邁克爾-埃斯珀回答了一個問題:"美國防部技術現代化的首要任務是什么?"他指出,"對我來說,是人工智能。我認為人工智能將可能改變戰爭的特征,我相信誰先掌握了它,誰就會在戰場上主宰很多很多年。這是一個根本性的游戲改變者。我們必須先到達那里。"

美國軍方有許多理由主動利用大數據、人工智能和機器學習來使其武器系統變得更好。也許最令人信服的理由是,我們的潛在對手--特別是我們的同行競爭對手--正在積極地這樣做。一個古老的觀點是軍事術語,"敵人有投票權"。在這種情況下,俄羅斯正在用盧布投票,中國正在用人民幣投票。

這些國家正在對這些技術進行巨大投資。雖然這兩個國家出于國內原因進行這些投資,但他們正在有意和有條不紊地將這些技術盡可能快地插入他們的軍事系統,以便創造一個與美國軍隊不對稱的優勢。鑒于俄羅斯和中國注重保密,這些舉動似乎有悖常理,但這兩個國家都沒有試圖對這些目標保密。

在一次被廣泛宣傳的講話中,俄羅斯總統弗拉基米爾-普京這樣說。"人工智能是未來,不僅是俄羅斯的,而且是全人類的。它帶來了巨大的機遇,但也有難以預測的威脅。誰成為這個領域的領導者,誰就會成為世界的統治者。"

很明顯,其他 "大國 "將人工智能的發展視為一場競賽,并將從中利用競爭性軍事應用。

從美國的角度來看,以及從一些美國盟國的角度來看,這場競賽在很大程度上是,盡管不完全是,軍事競爭的一個方面。美國和盟國對一個或多個潛在對手在人工智能發展中領先的可能性表示擔憂。第三套抵消戰略被設想為一種在人工智能等新技術的軍事競爭中保持領先的方法。

軍事大國競爭的歷史表明,人工智能競爭,本質上是一場軍備競賽,是一種自然發展。然而,比技術跨越更令人擔憂的是,美國的軍事對手--所有某種形式的專制政權--可能不會像以前那樣致力于維持 "人在回路中 "的方法,將人工智能納入軍事事務。這在目前俄羅斯的軍事人工智能發展中似乎尤其如此。

俄羅斯、中國和美國這三個主要軍事大國都認識到,大數據、人工智能和機器學習有可能應用于軍事能力。在政府參與人工智能研究、他們愿意在人工智能發展中承擔的風險、他們將在多大程度上讓位于人工智能系統的自主權以及他們尋求的直接應用方面,這三者的近期目標都有所不同。

鑒于潛在對手將大數據、人工智能和機器學習植入其軍事武器系統的程度,美國軍方非常有必要采取同樣的措施,以確保這些國家不會獲得不對稱的優勢。也就是說,美國軍方的重點必須是證明人工智能武器系統將 "首先不造成傷害"。因此,將人工智能插入軍事系統不是一個 "非此即彼 "的問題,而是一個 "多少?"的問題。換句話說,美國軍方必須專注于在正確的時間和地點應用適量的人工智能。

正如我們前面所指出的,美國防部已經接受了第三套抵消戰略,試圖為美國提供對同行和其他對手的不對稱優勢。雖然這一戰略有許多方面,但其中一個支柱涉及技術,而這一支柱在很大程度上取決于大數據、人工智能和機器學習來獲得這一優勢。作為這一技術重點的一個子集,人機合作被認為是利用人工智能的無人系統獲得軍事優勢的一種方式。

在軍事系統中找到這種恰到好處的自主權平衡所需的能力必須利用許多仍在出現的技術。軍方知道它想實現什么,但往往不知道它需要什么技術或甚至能力,以使系統在自主性和人際互動之間達到適當的平衡。這種探索的一個關鍵因素是,不要擔心機器本身擁有什么屬性--速度、耐力和其他屬性,而是要關注機器內部的東西。美國國防科學委員會的報告《自主性在國防部系統中的作用》是這樣說的:

  • 與其將自主性視為無人系統孤立的內在屬性,不如從人與系統協作的角度來考慮無人系統的設計和操作......操作人員面臨的一個關鍵挑戰是保持執行任務所需的人機協作,而這種協作經常因設計不當而受到阻礙......無人系統開發人員面臨的一個關鍵挑戰是從以硬件為導向、以車輛為中心的開發和獲取過程轉向強調軟件在創造自主性方面的首要地位。

關于將人工智能植入軍事系統的一些爭議源于術語的不精確。幫助澄清這種模糊性的方法之一是確保在使用自主性一詞時,它指的是人和機器之間的關系。在一段時間內執行某項功能,然后停止并等待人類的輸入,然后再繼續,這樣的機器通常被稱為半自主或有人類在環。可以完全依靠自己的力量完成某項功能的機器,但有一個人在監督,并能夠在機器出現故障或失靈時進行干預,通常被稱為人類監督下的自主或人類在環。能夠完全獨立完成某項功能而人類無法干預的機器通常被稱為完全自主或人類不參與的機器。

這表明,我們需要重新調整關于自主武器的一些辯論,以更準確地區分增加武器的自主性和自主武器。在這個意義上,自主性不是指機器的智能,而是指它與人類控制器的關系。對于相對較少的無人系統將用武器與敵人作戰,這種平衡是至關重要的。在發射武器之前,無人平臺需要向操作者--必須有一個操作者在其中--提供一個關于發射決定可能帶來的利弊的決策矩陣。

可以說,即使是一些在美國軍事人工智能領域工作的人,對于將人工智能插入美國軍事武器系統也會有一些矛盾。也許解決這個問題的最好方法是考慮二戰中最知名的照片之一。這張照片由美國信號部隊的約翰-摩爾中尉拍攝,描述了德懷特-艾森豪威爾將軍在1944年6月5日,即入侵諾曼底的前一天與第101空降師的士兵交談。在此之前,艾森豪威爾已經聽取了空軍元帥利-馬洛里的匯報,101師是入侵期間將遭受80%傷亡的兩支部隊之一。

那些研究無人系統對軍事行動的影響的人--特別是那些大力提倡無人系統的人--看了這張照片,可以設想艾森豪威爾將軍不是與美國空降兵對話,而是與他將派往戰場的機器人對話。那些害怕無人系統的人可能會想象美國空降兵就像照片中描述的那樣,但他們會設想一個機器人來指揮這些士兵,而不是艾森豪威爾將軍--顯然這是一個站不住腳的情況。但是,那些深思熟慮地考慮人工智能無人系統對軍事行動的影響的人,會設想艾森豪威爾將軍向一隊美國空降兵講話,與他們的機器人伙伴站在一起。顯然,需要做更多的工作來充分解決人機合作對今天的軍隊意味著什么。

但這種利用大數據、人工智能和機器學習的普遍愿望未能解決一個關鍵問題,即我們希望這些技術能夠幫助作戰人員執行哪些具體任務。問題的根源可能是美國軍方沒有能力將作戰人員的需求轉化為大數據、人工智能和機器學習所帶來的技術解決方案。除非或直到這樣做,否則這些技術不太可能被充分利用來支持美國的作戰人員。

4 公眾將接受什么?軍事武器系統自主化的黑暗面

作為上個世紀最具代表性的電影之一,斯坦利-庫布里克的《2001:太空漫游》將機器人(當時的無人駕駛車輛)的自主性問題作為其中心主題。看過這部電影的人很少能忘記這樣一個場景:宇航員大衛-鮑曼和弗蘭克-普爾考慮斷開HAL(啟發式編程的算法計算機)的認知電路,因為他似乎錯誤地報告了航天器的通信天線中存在故障。他們試圖隱瞞他們所說的話,但不知道HAL能讀懂他們的嘴唇。面對斷線的前景,HAL決定殺死宇航員,以保護并繼續其程序化的指令。

雖然今天很少有人擔心21世紀的HAL會背叛它的主人,但在使用日益自主的無人系統方面所涉及的問題是復雜的、具有挑戰性和有爭議的。庫布里克1968年的電影是有先見之明的。半個多世紀后,雖然我們接受了無人系統其他方面的改進,如推進力、有效載荷、隱身性、速度、耐力和其他屬性,但我們仍在處理多少自主權是足夠的,多少可能是太多的問題。這可以說是我們在未來十年內需要解決的有關軍事無人系統的最重要問題。

這些正在進行的辯論已經催生了一個山寨的書籍產業,試圖解決人工智能、自主性和無人系統的問題,特別是武裝的軍事無人系統。諸如《為戰爭而生》(Wired for War)、《遙控殺人》(Killing by Remote Control)等書。無人駕駛軍隊的倫理;無人駕駛。無人機、數據和完美戰爭的幻覺;反思無人機戰爭;無主之軍。自主武器與戰爭的未來》和《無人機下的國家》只是試圖以深思熟慮的方式解決這一復雜問題的書籍中的一個例子。

無人系統將變得更加自主,與它們感知環境和適應環境的能力成正比。這種能力使無人系統能夠實現更高的決策速度,并使友軍能夠在對手的OODA(觀察、定向、決定和行動)環路內行動。隨著環境或任務的變化,感知和適應的能力將使無人系統能夠找到實現其任務的最佳解決方案,而無需依賴人類操作員的持續監督、輸入和決策。然而,雖然我們需要無人系統在敵人的OODA環內運作,但我們是否準備好讓它們在沒有我們的決策下運作--在我們的OODA環內運作?

《經濟學人》雜志的一篇文章《道德與機器》以這種方式討論了自主權和人在回路中的問題:

  • 隨著機器變得越來越聰明,越來越普遍,自主機器最終必然會在不可預測的情況下做出生死攸關的決定,從而承擔--或者至少看起來承擔--道德機構。目前,武器系統有人類操作員 "在環",但隨著它們越來越復雜,將有可能轉為 "在環 "操作,由機器自主執行命令。

  • 隨著這種情況的發生,它們將面臨著倫理上的困境。一架無人機是否應該向已知目標藏身的房屋開火,而該房屋可能還藏有平民?無人駕駛汽車是否應該轉彎以避開行人,如果這意味著撞上其他車輛或危及車內人員?參與災難恢復的機器人是否應該告訴人們正在發生的真相,如果這有可能引起恐慌?

  • 這些問題導致了 "機器倫理"領域的出現,其目的是讓機器有能力做出適當的選擇--換句話說--分辨是非。工程師、倫理學家、律師和政策制定者之間需要更多的合作,如果讓他們自己來決定,他們都會制定出非常不同的規則。

在《紐約時報》的一篇題為 "智能無人機 "的專欄文章中,比爾-凱勒這樣描述無人系統的自主權問題:

  • 如果你覺得使用遙控戰士無人機令人不安,想象一下,殺死一個可疑敵人的決定不是由遠處控制室的操作員做出的,而是由機器本身做出的。想象一下,一個空中機器人研究下面的景觀,識別出敵對活動,計算出附帶損害的風險最小,然后,在沒有人類參與的情況下,扣動扳機。

  • 歡迎來到戰爭的未來。當美國人在爭論總統是否有權下令用無人機進行暗殺時,強大的動力--科學、軍事和商業--正在推動我們走向將同樣的致命權力讓給軟件的那一天。

最近,雖然看起來有些反常,但對自主機器和人工智能的擔憂也來自于在開發這些技術能力方面最為突出的行業。《紐約時報》的一篇文章,題為 "機器人霸主?也許不是",引用了電影《機器之家》的導演亞歷克斯-加蘭(Alex Garland)的話,他談到了人工智能,并引用了幾個科技行業領導人的話。

  • 理論物理學家斯蒂芬-霍金告訴我們,"全面人工智能的發展可能意味著人類的終結"。特斯拉的首席執行官埃隆-馬斯克告訴我們,人工智能 "可能比核彈更危險"。蘋果公司的聯合創始人史蒂夫-沃茲尼亞克告訴我們,"計算機將取代人類","未來是可怕的,對人非常不利。"

美國防部正在把人類對無人系統的控制問題作為第一要務來處理,并發布了政策指示,以確保人類確實保持在OODA循環中。時任美國防部副部長阿什頓-卡特(Ashton Carter)的一項指令發布了以下指導:

  • 自主和半自主武器系統需要人類的投入和持續的核查,以幫助防止意外的交戰。這些系統的設計應允許指揮官和作戰人員對武力的使用進行適當程度的人為判斷。授權使用或操作這些系統的人類,必須以適當的謹慎并按照戰爭法、適用的條約、武器系統安全規則和適用的交戰規則行事。自主系統的定義是,一旦啟動,就可以選擇和攻擊目標,而無需人類操作員進一步干預的武器系統。

這些指令和討論是--而且應該是--政策制定者、軍事領導人、工業界、學術界和科技界之間對話的一部分,因為明天的自主系統的設計和運作是經過深思熟慮的。正如當時的國防部副部長羅伯特-沃克在新美國安全中心國防論壇上發言時指出的那樣,"我們堅信,人類應該是唯一能夠決定何時使用致命武力的人。但當你受到攻擊時,特別是在機器的速度下,我們希望有一臺機器可以保護我們"。

發布政策聲明是一回事,但實際設計自主系統來執行預期的計劃又是另一回事。從政策的角度來看,這是一個關鍵點,因為盡管人們可以選擇把各種層次的決策權交給自主機器,但卻不能逃避對由此產生的行動的責任。在高度自主的系統中,系統對操作者來說變得不透明,這些操作者經常會問一些問題,如:。它在做什么?它為什么要這樣做?它接下來要做什么?如果被問到這些問題,很難看到操作者如何能履行對自主系統行動的責任。

由于這些原因,美國政府,特別是美國軍方要向美國公眾證明它不會失去對機器人的控制,其門檻是異常高的。許多人表示擔心,美國軍方可能會失去對其無人系統的控制,特別是其武裝的無人系統。這些擔心已經表現在許多方面,最明顯的是谷歌停止了國防部算法戰爭跨職能團隊的工作,也就是所謂的Maven項目。這尤其令人擔憂,因為Maven項目與武裝無人系統無關。

5 美國軍事自主系統規劃

在美國最高級別的政策和戰略文件中,無人系統被作為聯合部隊未來作戰方式的一個重要部分。最近的《四年期國防審查》(QDR)指出:"延續1990年代末開始的趨勢,美軍將增加對無人系統的使用和整合。" 在QDR的其他地方,無人駕駛系統被確定為。"保持我們投射力量的能力"。重要的是,《QDR》強調無人系統是國防部致力于創新和適應的一個關鍵部分。

美國國防部對無人系統的愿景是將這些系統納入聯合部隊。由于無人系統被所有軍種使用,國防部發布了一個路線圖,為軍隊使用無人系統提供一個總體愿景。在新的路線圖發布后不久,《海軍內部》雜志發表的一篇文章指出:"國防部新的30年無人系統計劃--四年來第一次更新路線圖--旨在為快速發展的無人系統技術領域制定一個三十年的指南。"最近的路線圖,即2017-2042財年無人系統綜合路線圖,特別指出需要加強無人系統的自主性,指出。

  • 美國防部保持著將無人系統繼續擴展到聯合部隊結構的愿景,并確定了將進一步擴大無人系統潛在整合的興趣和投資領域。本文件的目的是提供總體戰略指導,使各軍種的無人系統目標和努力與國防部的戰略愿景保持一致。該戰略指導將側重于減少重復工作,促成合作,確定挑戰,并概述了國防部和工業界可能合作的主要領域,以進一步擴大無人系統的潛力。由于國防部已經接受了在幾乎所有作戰環境中使用無人系統,這項戰略將使國防部能夠利用無人系統提供的技術進步和模式轉變。

2017-2042財年無人系統綜合路線圖接著列出了四個感興趣的基礎領域,將加速無人系統的整合。這些領域包括:

  • 互操作性。互操作性在歷史上一直是,并將繼續是無人系統集成和運行的主要推動力。載人和無人系統已經越來越多地將其能力協同起來,重點關注使用開放和通用架構的關鍵需求。一個強大的互操作性基礎提供了一個結構,將使未來的作戰取得進展。

  • 自主性。自主性和機器人技術的進步有可能徹底改變作戰概念,成為一個重要的力量倍增器。自主性將大大提高載人和無人系統的效率和效力,為國防部提供戰略優勢。

  • 網絡安全。無人系統操作通常依賴于網絡連接和有效的頻譜訪問。必須解決網絡漏洞,以防止破壞或操縱。

  • 人機協作。如果說互操作性奠定了基礎,那么人機協作則是最終目標。人類力量和機器之間的協作將實現革命性的合作,機器將被視為重要的隊友。

報告接著討論了機器人和無人系統的聯合概念(JCRAS),它為這些系統在未來戰爭場景中的應用提供了一個愿景,直到2035年。JCRAS與之前討論的2035年聯合行動環境直接保持一致,指出了機器人和自主系統(RAS)給聯合部隊帶來的八個關鍵屬性:

  • 學習能力。未來的RAS將通過與環境、人類的互動以及訪問網絡資源來學習。

  • 更強的態勢感知。未來的RAS將通過收集、處理和優先處理來自先進傳感器網絡的信息來增強意識,這將為作戰人員將數據轉換成知識。這將使復雜、擁擠的戰斗空間中的行動更加有效。

  • 實現更高的性能。與載人和可選擇的載人系統不同,RAS沒有人類生理上的限制(如疲勞)。這允許在單一平臺上延長射程和徘徊時間,進行持久監視,并對傳感器和有效載荷進行全新組合。

  • 提高效率和效益。能力更強的RAS將能夠在軍事行動范圍內執行更多的聯合任務,如戰區內空運、地雷行動、打擊大規模殺傷性武器、供應和維持,同時提高部隊的效率和效力。

  • 提供更大的靈活性。未來的RAS系統將可以通過交換模塊硬件和/或下載新的軟件來快速重新配置,從而賦予新的能力。未來的RAS多任務功能將使聯合部隊能夠快速適應,以滿足不同或不斷變化的任務要求。

  • 通過以機器速度運行來提高節奏。RAS以不斷增加的機器速度 "思考"。RAS可以融合來自網絡ISR傳感器的數據,機動到一個有利的位置,并比對手的人類和RAS更快采取行動。先進的數據分析、實時處理和替代性決策框架將使指揮官能夠比對手更快地做出決定和采取行動。

  • 提供產生大規模的潛力。目前聯合部隊的載人庫存是基于相對較少的高能力、復雜和昂貴的武器裝備,無法迅速再生。RAS提供了使用大量廉價系統以產生大規模的機會。

  • 啟用分布式和分散式行動。敵方的技術將以更高的精度和范圍瞄準美國部隊,使傳統部隊面臨更大的風險。使用RAS進行分布式和/或分散式作戰將提高未來作戰環境中的能力。

正如《質量發展報告》和《無人系統綜合路線圖》都指出的那樣,在美軍面臨具有強大防御能力的同行競爭者的那些地區,無人系統是特別重要的資產。聯合行動準入概念認為,"無人系統,可以在目標區域內徘徊以提供情報收集或火力",是一種關鍵能力,在對手擁有大量防御設施,可以限制美國和聯軍進入的地區,這種能力特別有價值。 此外,無人系統是在西太平洋等高威脅地區執行美國 "空海作戰概念"(現更名為 "全球公域準入和機動聯合概念",簡稱JAM-GC)的一個關鍵組成部分,在這些地區,對手的防御系統對有人駕駛飛機和水面平臺構成了不可接受的高風險。

海軍部已經為海軍和海軍陸戰隊的無人系統開發制定了雄心勃勃的目標。在一份備忘錄中,負責研究、開發和采購的海軍助理部長James Geurts閣下強調了無人駕駛系統的重要性,他在求職信中指出:

  • 美國海軍和海軍陸戰隊在戰略上有必要利用新興的和快速發展的無人駕駛和自主技術。為了加速無人系統的開發和投入使用,并確保綜合有效的努力,海軍部(DoN)已經為加速海軍部的無人系統制定了積極的目標,并確保海軍部在這些新興的能力方面保持領先地位。

這份詳細的備忘錄繼續指出:"無人駕駛和自主技術正在改變各國開展軍事行動的方式......無人駕駛和自主系統的使用將改變我們的戰斗方式。" 美國防部的無人系統愿景隨后引出了無人系統戰略和計劃,最后引出了一系列高級無人系統目標:

  • 通過載人、無人和自主能力的綜合團隊實現空中優勢。

  • 通過擴大我們的海底星座的全球范圍來實現海底優勢。

  • 通過載人和無人自主能力的綜合團隊,實現地面優勢。

  • 吸收我們未來的地面戰斗力。

  • 實行多領域的無人駕駛和自主系統。

  • 實現無人駕駛的大規模。

  • 通過整合無人駕駛和自主系統,實現持久的供應、支持和維持。

  • 實現全面的無人操作能力和先進的自主性和機器學習。

這八個高層次目標中的每一個都有一個段落來支持,該段落提供了關于總體目標所需的更多細節,以及海軍部打算采取的步驟來實現這些預期結果。備忘錄接著詳細介紹了近期的促進因素和塑造努力,然后在結論中指出。"增加無人駕駛和自主系統的作戰使用,有望為我們的海軍部隊釋放出一種革命性的能力。"

最近,海軍部公布了期待已久的《無人駕駛作戰框架》。該文件旨在協調整個部門的無人系統工作,列出了雄心勃勃的目標,旨在幫助使無人系統成為海軍平臺庫存中越來越重要的一部分。該框架有五個目標。

  • 在海軍和聯合行動的全部范圍內推進有人-無人的團隊效應。

  • 建立一個數字基礎設施,快速和大規模地整合和采用無人駕駛能力。

  • 激勵無人駕駛系統的快速增量開發和測試周期。

  • 分解共同的問題,一次解決,并跨平臺和領域擴展解決方案。

  • 為無人駕駛貢獻(平臺、系統、子系統)創造一個以能力為中心的方法。

盡管如此,這份38頁的報告確實為海軍部打算如何將無人駕駛系統引入艦隊和緬因州部隊提供了一個組織動力和指南。

6 為軍用無人駕駛系統設計合適的自主性程度

大多數人都熟悉兒童寓言故事《金發姑娘和三只熊》。當金發女郎品嘗三碗粥時,她發現一碗太熱,一碗太冷,還有一碗恰到好處。當美國防部和各軍種尋求實現自主性和人類互動的最佳平衡--平衡這兩種經常對立的力量并使其 "恰到好處"--在一開始就將這種能力設計到未來的無人系統中,而不是試圖在事后將其固定下來,這可能是唯一可持續的前進道路。如果我們不能做到這一點,幾乎不可避免的是,對我們的武裝無人系統將具有 "HAL"式的力量并超出我們的控制的擔憂將破壞這些重要作戰伙伴的承諾。

在用于軍事用途的無人系統中建立適當程度的自主性的一個關鍵是要記住一句老話:"你站在哪里取決于你坐在哪里。" 用戶和設計無人系統的人經常從不同的--通常是明顯不同的--觀點來對待他們試圖完成的任務。海軍研究咨詢委員會的一份報告指出,在設計具有適當程度的自主性的無人系統時,必須調和四個不同的觀點:

  • 用戶觀點。我可以給這個平臺一個任務,并相信它能在沒有持續關注的情況下完成它嗎?它能識別和處理意外事件或模糊的任務嗎?

  • 機器人學觀點。我能否建立一個實用的機器人,在正確的時間做正確的事情?我可以動態地控制、導航、執行和測量我的機器人嗎?它能管理和融合數據嗎?

  • 機器學習觀點。我的機器能解釋復雜的傳感器嗎?它能理解口頭語言,解釋手勢,或識別人或物嗎?

  • 認知的觀點。我的機器能不能復制人類智能的元素,如認知、推理和推理?

隨著美國軍方出于各種原因增加對無人系統的依賴,它最好在某個時候決定該平臺是否足夠好,也就是說,它具有執行任務所需的速度、耐力和其他物理屬性。一旦確定了這一點,那么正如國防科學委員會報告所建議的那樣,軟件開發的艱苦工作必須成為優先考慮的因素。

7 無人駕駛系統:美國國防部的一個使用案例

利用大數據、人工智能和機器學習的普遍愿望未能解決一個關鍵問題,即我們希望這些技術能夠幫助作戰人員執行哪些具體任務。問題的根源可能是美國軍方缺乏將作戰人員的需求轉化為建議由大數據、人工智能和機器學習實現的技術解決方案的能力。作為前美國海軍軍官和艦艇指揮官,我們思考這個問題的方式讓我們很自然地想到海軍的例子。

開始解決這個問題的一個方法是思考海上的指揮官需要什么信息。無論是1812年8月艾薩克-赫爾艦長試圖帶著憲法號對蓋瑞爾號采取行動,還是今天的航母打擊群指揮官考慮將他的艦艇帶入一個可能有爭議的地區,指揮官需要三個主要東西來幫助他做出最佳決定。

他或她需要知道部隊前方的情況,需要將這些信息傳達給旗艦,并需要做出明智的決定。雖然今天的海軍指揮官擁有豐富的資產來幫助實現這些目標,但現在大數據、人工智能和機器學習可以幫助彌補一些差距。

一個打擊小組的指揮官擁有許多資產,可以展望部隊未來,以評估戰術形勢。他可能使用MQ-4C “海衛一”無人機系統來執行這種偵察任務。今天,"海衛一"操作人員會收到MQ-4C看到的流媒體視頻。但這需要他連續幾個小時盯著這段視頻(海衛一的續航時間為30小時),看到的主要是空曠的海洋空間。

利用大數據、人工智能和機器學習,MQ-4C可以被訓練成只發送它遇到的每艘船的視頻,從而大大壓縮了人類的工作量。更進一步,"海衛一"可以對每一次接觸進行機載分析,以標明其可能的興趣。例如,如果一艘船在航道上運行,已向海事當局提交了航行計劃,并提供了AIS(自動識別系統)信號,那么它很可能只值得操作者注意,“海衛一”將相應地標記它。然而,如果它不符合這些標準(例如,該船突然改變航線,離開了航道,或者沒有AIS信號),操作人員將被提醒。隨著這項技術的不斷發展,“海衛一”或其他無人機系統最終可能會配備分類算法,有可能導致自動識別目標。

一旦“海衛一”處理了這些信息,大數據、人工智能和機器學習可以幫助確定如何與旗艦溝通。在今天有爭議的電子戰環境中,不同的通信路徑具有不同程度的脆弱性。在 “海衛一”號發射之前,指揮官可以確定可接受的通信截獲風險水平,以及泄露打擊群存在的風險。

掌握了這個指揮官的意圖,并利用大數據、人工智能和機器學習,"海衛一"可以評估電子環境,從多個通信路徑中進行選擇,并確定哪條路徑提供最小的攔截漏洞。鑒于 "海衛一"號的尺寸和增長潛力,它甚至可以攜帶一個較小的無人機,并將其發射回部隊,以傳遞這種監視信息。

在旗艦上,指揮官必須了解他的傳感器所收集的數據,然后做出一些時間關鍵性的決定。他應該繼續前進,等待,還是撤退?他應該在前面偵察,還是在另一個方向?他是否應該調用其他部隊,或者他的有機資產是否足以成功地完成任務而不會給他的部隊帶來不必要的風險?

這就是大數據、人工智能和機器學習可以做出重要貢獻,幫助指揮官做出關鍵決策的地方。

如果指揮官選擇勇往直前,強制進行交戰,大數據、人工智能和機器學習可以做到今天的初級戰術決策輔助工具無法做到的事情--提供一系列選擇,并評估每個選擇的利弊。重要的是,這些技術并不--也不應該--做出決定,而是為指揮官提供足夠的、經過精心策劃的信息,以便他能比對手更快地做出最佳決定。

對于致命的軍事無人系統來說,在授權無人作戰伙伴發射武器之前,操作者必須知道什么,或者像經常發生的那樣,建議上級當局授權采取致命行動,這個標準更高。例如,考慮軍事操作人員管理一系列正在進行的無人駕駛航空系統飛行的情況,他們一直在觀察一個恐怖分子,并等待上級當局授權使用從該無人駕駛航空系統發射的空對地導彈來消除威脅。

利用大數據、人工智能和機器學習,操作者可以訓練無人駕駛航空系統預測上級主管部門在授權發射前會問什么問題,即使不能提供點解決方案,至少也可以提供百分比概率或信心水平的問題,例如。這個人是預定目標的信心水平是多少?這種信心是基于什么?是面部識別、聲音識別、行為模式、與某些人的聯系、與已知家庭成員的接近或與已知同伙的接近?對家庭成員、已知同伙或未知人員造成附帶損害的可能性是什么?等待與現在出擊的潛在影響是什么?

這些考慮只是操作者必須訓練其配備致命武器的無人系統處理的問題的一個子集。用大數據、人工智能和機器學習來增強這些系統,并利用它們在敵人和我們的決策圈內運作的能力,遠不是把致命的權力讓給無人系統,而是使這些系統能夠在戰斗的壓力下把人類操作員從不得不做出實時的、往往是即時的決定中解放出來。從一開始就將這種能力設計到無人系統中,最終將使它們成為其軍事操作者的有效伙伴。

這使我們回到了美國防部副部長羅伯特-沃克提出的一些擔憂。他指出,當敵人以 "機器速度 "攻擊我們時,我們需要利用機器來幫助保護我們。建立具有強大的大數據、人工智能和機器學習水平的無人系統,能夠與操作人員合作進行這項工作,才能最終確保我們建造的無人系統充分發揮其潛力,幫助我們的作戰人員在戰斗中獲勝。

有令人信服的證據表明,美國,特別是美國軍隊,必須在利用大數據、人工智能和機器學習方面超過我們的同行競爭對手。人工智能國家安全委員會在其2019年的臨時報告中明確分析了人工智能將如何成為游戲規則的改變者。"人工智能將塑造權力的未來。"2020年,《未來國防工作組報告》這樣提出將大數據、人工智能和機器學習插入美國軍事武器系統的必要性:

  • 將人工智能納入軍事和國家安全領域,將從根本上改變戰爭的打法和勝利方式。無論哪個國家在人工智能競賽中獲勝,都將擁有關鍵的、也許是不可逾越的軍事和經濟優勢......算法戰爭的到來,由速度和精度驅動的人工智能武器在復雜的戰斗空間中競爭,要求美國在進攻性和防御性人工智能能力方面進行大量投資。

我們通過使用無人機系統的例子討論了插入大數據、人工智能和機器學習的影響,在這種情況下,MQ-4C “海衛一”,因為當插入這些技術的問題出現時,這是大多數人想到的戰爭領域。但還有一個領域,大數據、人工智能和機器學習可以在戰爭中產生更大的影響,那就是決策領域。

8 一個更普遍的用例:增強決策

伊恩-托爾在其獲獎的美國海軍誕生和成熟的歷史《六艘護衛艦》中,不僅記錄了海軍的早期發展,還記錄了它在多場戰爭中的掙扎。67很少有人在讀完這本書后,會對1775年至1815年間海軍和國家的生存是如何的近在眼前。

雖然我們很容易被托爾的敘述所吸引,像讀小說一樣快速閱讀這段歷史,但至關重要的是,不要錯過決策在海軍的勝利和失敗中的重要性。從在哪里建造這些護衛艦,到選擇它們的活動區域,到它們要打哪場戰役和避免哪場戰役,以及其他一系列的決定,主要是使國家能夠在那危險的幾十年中生存下來的正確決定。

雖然今天美國海軍的平臺和武器與迪凱特、普雷布爾、班布里奇、赫爾、佩里、勞倫斯等艦長的海軍沒有任何相似之處,但今天的艦長仍然必須做出他們的前輩所做的那種生死攸關的決定。大不相同的是今天的決策速度。像憲法號、星座號和其他早期護衛艦的艦長往往有幾個小時甚至幾天的時間來做出關鍵的選擇,而今天的艦長必須在幾分鐘甚至幾秒鐘內做出決定。

軍事史上不乏這樣的例子:做出更好決定的指揮官獲得了勝利,即使他們的對手擁有地理或物質優勢,這些事件在此無需重述。值得注意的是,在過去的幾個世紀里,各級領導人有幾個小時,甚至幾天的時間來做出關鍵決定。但到了上個世紀中期,戰爭的變化極大地壓縮了決策周期。

在朝鮮戰爭期間,俄羅斯的米格-15戰斗機和美國的F-86 "佩刀 "戰斗機為爭奪制空權展開了激烈的戰斗。空軍上校約翰-博伊德(John Boyd)為了找到一種減輕美國戰斗損失的方法,創造了我們今天所知的OODA循環。OODA是指:觀察、定向、決定和行動。

博伊德的概念是,勝利的關鍵是創造一個比對手更快地做出適當決定的環境。博伊德的構思最初是一種在空對空作戰中獲得成功的理論,是根據他的能量-機動性理論和他對米格-15戰斗機和北美F-86佩刀戰斗機在朝鮮的空對空作戰的觀察而發展出來的。哈利-希拉克--F-16戰斗機的總設計師在談到OODA理論時說:"時間是主導參數。在最短的時間內完成OODA循環的飛行員占了上風,因為他的對手在應對已經發生變化的情況時被抓住了。"

即使是非軍事觀察員也清楚,空對空作戰可以說是壓力最大的軍事行動之一。但是,軍事領導人越來越意識到,壓力--尤其是無法處理信息--導致軍事操作人員開始出現自己的OODA環,并做出次優的決定。

在壓力下做出關鍵軍事決策的挑戰在1965年的電影《貝德福德事件》中進入流行文化。這部電影松散地基于美國海軍艦艇和蘇聯潛艇之間的一些冷戰事件,其情節線圍繞著美國驅逐艦貝德福德號(DLG 113)和一艘蘇聯潛艇之間的貓捉老鼠游戲。

貝德福德號的船員在長達數日的潛艇搜尋中變得越來越疲憊。隨著尋找蘇聯對手的緊迫性加劇,貝德福德號的船長無視他的船員在壓力下萎靡不振的警告,提高了他的要求,甚至碾壓了柴油潛艇的呼吸器。當有人問船長他是否會對他的對手開第一槍時,他回答說他不會,但 "如果他開一槍,我就開一槍"。一個疲憊的少尉把他的船長的話誤認為是 "開一槍 "的命令,于是發射了一枚反潛火箭,摧毀了潛艇,但在它發射一枚核武魚雷之前,潛艇就被消滅了。

雖然是虛構的,但《貝德福德事件》對55年后的一個真實世界的事件卻有可怕的預見。雖然對2020年1月伊朗革命衛隊擊落一架烏克蘭噴氣式客機的全面調查需要幾個月,甚至幾年的時間,但今天已知的是,在戰斗的壓力下,伊朗剛剛向美國軍隊發射了一連串彈道導彈,該國對美國的反擊保持高度警惕。

在伊朗情報或軍事指揮系統的某個地方,發出了巡航導彈來襲的警告。負責一個防空導彈組的軍官試圖聯系他的上級指揮中心,以獲得開火的授權。可悲的是,他無法接通,帶著不完整的信息,他發射了兩枚防空導彈,176人死亡。

這些事件--一個是虛構的,一個是非常真實的--有一個共同點:人類被迫在信息不充分或錯誤的情況下做出關鍵決定。在《貝德福德事件》中,它是人類之間相隔幾英尺的空氣間隙。在烏克蘭飛機被擊落的案例中,是無法溝通,以及對威脅的錯誤認知。

很容易將上述事件視為難以置信的虛構或不如美國軍隊的決定,但這將是一個悲劇性的錯誤。美軍人員做出錯誤決定導致生命損失的引人注目的事件已經困擾了美國軍隊四十多年。

  • 1987年5月,美國海軍斯塔克號(FFG 31)在兩伊戰爭的禁區邊界附近巡邏。由于錯誤地認為交戰雙方都不會以美國軍艦為目標,當斯塔克號試圖與來襲的飛機進行溝通時,艦長一開始并沒有感到震驚。伊拉克的 "幻影 "噴氣機發射了兩枚 "飛魚 "導彈,造成37名美國人死亡,近二十人受傷。

  • 1988年7月,懷著對斯塔克號艦長未能采取行動保護他的艦艇的回憶,在兩伊戰爭仍然激烈的情況下,當他的艦艇被伊朗炮艇圍攻時,文森斯號(CG49)的艦長錯誤地認為,一架接近的飛機正在接近并以攻擊姿態下降。他發射了一枚SM- 2ER導彈,擊落了伊朗航空公司655號航班,機上290人全部死亡。

  • 1994年4月,兩架美國空軍F-15 "攻擊鷹 "在伊拉克上空擊落兩架美國陸軍UH-60 "黑鷹 "直升機,認為它們是伊拉克的米-24 "雌鹿 "直升機,機上26名軍人和平民全部死亡。空軍AWACS控制飛機和 "攻擊鷹 "之間的誤傳,以及自動識別敵我系統的故障,是造成這場悲劇的近因。

  • 2001年2月,在瓦胡島以南10英里處,在為VIP平民游客進行的演示中,美國海軍格林維爾號核潛艇(SSN 772)進行了一次緊急壓載打擊機動,并在日本漁船愛媛丸號下浮出水面。船上的三十五人中有九人死亡。

  • 2017年6月,美國海軍菲茨杰拉德號(DDG 62)與集裝箱船MV ACX Crystal相撞。她的七名船員被殺,其他幾人受傷。僅僅三個月后,美國海軍約翰-S-麥凱恩號(DDG 56)與懸掛利比里亞國旗的油輪Alnic MC相撞。她的10名船員在這次事故中死亡。

雖然所有這些悲慘的事故背后有多種原因,最明顯的是涉及美國海軍菲茨杰拉德號和美國海軍約翰-S-麥凱恩號的致命碰撞,但很明顯,在每個案例中,都有可用的數據,如果使用得當,可能會打破安全專家所說的 "事故鏈",并防止悲劇的發生。

值得注意的是,做出這些次優決策的軍方人員是在手頭的工具下做了他們能做的最好工作。發生的情況是,戰爭的速度往往超過了人腦做出正確決定的能力。事實上,正如美國陸軍研究實驗室的首席科學家亞歷山大-科特博士在一次指揮和控制會議上所說,"人類的認知帶寬將成為戰場上最嚴重的制約因素"。

美國空軍技術地平線報告這樣描述這一挑戰:"盡管今天人類在許多任務上仍然比機器更有能力,但人類的自然能力正變得與技術提供或要求的巨大數據量、處理能力和決策速度越來越不匹配。更緊密的人機耦合和增強人的表現將成為可能和必要。"由于這些原因和其他原因,海軍需要大數據、人工智能和機器學習,以使其作戰人員在戰斗中獲得優勢。

對于我們今天使用技術的人來說,這一挑戰應該不足為奇。正如任何擁有智能手機的人在打開機器后不久就知道的那樣,獲得足夠的數據很少是個問題。有時讓人不知所措的是對大量的數據進行分類,并試圖只挑出當下必要的數據。從戰爭的角度來看,這意味著系統只向決策者提供經過精心策劃的信息,以幫助他或她做出更好的決定,而且往往是在戰斗的壓力下。

每年春天在海軍戰爭學院舉行的當前戰略論壇是美國海軍的年度會議,討論和評估海軍對國家和國際安全的貢獻。雖然每個論壇都有其亮點,但2017年的活動可能會被人們記住,因為海軍作戰部長在會上用手說話。沒錯,約翰-理查森上將,一個核潛艇兵--而不是一個戰斗機飛行員--用他的手說話,把聽眾帶回了70多年前發明的航空戰術。

CNO將時鐘撥回到20世紀50年代的空軍上校約翰-博伊德和OODA循環。理查森上將用OODA環路來討論美國海軍正在使用的各種新技術。他指出,海軍已經在博伊德分類法中的觀察和行動部分進行了大量投資。他指出,在大數據、機器學習和人工智能等新興技術出現之前,我們對OODA環路中的 "觀察和決定 "部分無能為力,但今天我們可以。

這正是CNO在他的講話中使用博伊德的OODA循環的原因。他解釋說,今天的海軍作戰人員有大量的--甚至是壓倒性的--數據需要處理。他們需要大數據、人工智能和機器學習來整理這些數據,只呈現那些有助于決策者和扣動扳機者更快做出更好決策的信息。不難看出,這種將數據轉化為戰術上有用的信息的努力對作戰的所有方面都很重要,而不僅僅是戰斗機戰術。

現在可能是時候在美國海軍幾十年來幫助作戰人員做出更好決策的努力基礎上再接再厲了。海軍在利用技術幫助作戰人員在緊張的情況下以更少的人和更少的錯誤更快地做出更好的決定方面一直走在前列。在20世紀80年代,海軍研究辦公室啟動了一項計劃,研究作戰人員如何在高度緊張的情況下做出更好的決定。這項計劃被稱為TADMUS(壓力下的戰術決策),它利用認知科學在了解決策者如何做出決策方面取得了新的突破。這導致了海軍太平洋信息戰中心的科學家和工程師設計了幾個原型(多模式觀察站、知識墻和其他),并進行了測試,在幫助決策者實現改進決策方面取得了令人鼓舞的成果。

TADMUS與類似的海軍項目一樣,就其本身而言是好的。但正如理查德森上將在其當前戰略論壇的發言中所指出的,直到最近,將強化決策提升到新水平的技術還不存在。今天,它確實存在,而且利用大數據、人工智能和機器學習能夠為作戰人員提供的東西,很可能導致海戰的下一個突破,特別是在決策領域。海軍太平洋信息戰中心與通過海軍研發界、工業界和學術界的合作伙伴一起,正在領導各種努力,以確保美國作戰人員有能力以更少的人和更少的錯誤做出更好的決定。

9 充分發揮大數據、人工智能和機器學習的作用

在美國戰略和軍事指導的最高層,大數據、人工智能和機器學習被認為對為美國軍隊提供作戰優勢極為重要。而且,那些負責將這些技術整合到美國軍事平臺、系統、傳感器和武器的人越來越多地將決策確定為這些技術可以增加最大價值的一個重要領域。

在AFCEA/海軍研究所 "西部 "會議上的講話中,海軍預算主任迪特里希-庫爾曼少將這樣提出了海軍如何能夠最好地利用大數據、人工智能和機器學習的問題。"我們如何利用人工智能,不是為了生產殺人的自主平臺,而是為了讓指揮官在戰斗中獲得優勢?"的確,美國海軍--進而是美國軍隊--想要利用大數據、機器學習和人工智能的本質,不是在沒有人類監督的情況下向遠方發射終結者般的無人系統,而是幫助操作員做出更快、更明智的決定。

軍事作戰人員將始終處于循環之中,并將得到大數據、機器學習和人工智能的協助。軍方希望通過這些尖端技術--無論是應用于無人系統還是戰爭的其他方面--來實現的是進入對手的OODA循環。負責研究、開發和采購的海軍助理部長詹姆斯-格茨閣下在一次軍事工業會議上這樣說:"如果一支部隊能夠利用人工智能讓決策者比對手更快地做出決定,那么它每次都會贏。"

在海軍戰爭學院的一次演講中,美國防部聯合人工智能中心主任杰克-沙納漢中將這樣說。"人工智能對美國國防最有價值的貢獻將是它如何幫助人類做出更好、更快、更精確的決定,特別是在高后果的行動中。"

很明顯,美國國防部已經認識到,淹沒在數據海洋中的作戰人員無法做出有效的決策,并試圖利用人工智能和機器學習等技術來幫助整理數據,只呈現在激烈戰斗中有用的信息。

沙納漢將軍在戰爭學院的講話中談到了利用大數據、人工智能和機器學習幫助作戰人員做出更好決策的機會和挑戰,他指出:"在思考、書寫和談論人工智能與實踐之間存在著鴻溝。卷起袖子,投入到人工智能項目中,這是無可替代的。

最近,國防部聯合人工智能中心的新主任邁克爾-格羅恩中將這樣強調了決策:

  • 當我考慮人工智能的應用時,我想的不僅僅是在發現目標后近乎瞬時開火的用例。在整個聯合部隊中,有一系列廣泛的決策必須由人工智能來實現。

在20世紀的戰爭中,衡量軍事優勢的單位是坦克、艦艇或飛機,以及 "勝過槍炮和棍棒 "對手的能力。在21世紀的戰爭中,軍事領導人只有幾分鐘甚至幾秒鐘的時間來做出關鍵的決定,超越對手的思維能力將決定勝利和失敗的區別。

當美國軍方及其國防工業伙伴在21世紀的第三個十年中制定他們的研發投資決策時,早就應該關注一個長期被忽視的領域--我們的軍事決策者的思想,并確保他們能夠做出更好的決定,比他們的對手更快和更少的錯誤。

付費5元查看完整內容

戰爭的特點正在發生根本性的變化,這些變化對空中力量的影響尤其深遠。多域整合為空中力量和越來越多的空間力量在未來幾年內的一系列轉變做好了準備,這些轉變不僅與技術有關,而且與空軍組織和進行規劃和行動的戰略和作戰概念有關。

迫在眉睫的、不可避免的多域作戰似乎是空中力量的一個明顯的邏輯演變,它可能會引發這樣的問題:為什么我們沒有更早地沿著這些思路思考和發展作戰概念?畢竟,對優化、作戰協同和武力經濟的尋求在空中力量中是持久的。可以說,多年來,空軍及其相關部門事實上已經嘗試以某種方式或形式在多域背景下運作。然而,在整個部隊甚至整個戰區范圍內,為多域作戰(MDO)提出的早期作戰概念(CONCOPS),在多域作戰空間產生作戰協同和效果的努力是前所未有的。

諸如聯合全域指揮與控制(JADC2)這樣的結構闡述了一個作戰云賦能的未來戰爭,其中任務指揮和戰斗空間管理被有效地隱含在整個戰斗部隊中,觀察-定向-決定-行動(OODA)環路被加速到邊緣計算的速度。傳感器和通信網絡決定了空軍承擔幾乎所有傳統任務的功能能力。數據和數據流將變得比空軍傳統上對機動自由的依賴更加重要,并且有效地成為其戰略推動者。空軍力量將越來越多地與網絡而非平臺、數據而非武器系統有關。

任務的成功和失敗一直是由指揮官和作戰人員可用的態勢感知水平決定的。在新興的作戰模式中,空軍以近乎實時的速度收集、處理和利用數據的能力有效地使數據成為最大的工具和最令人垂涎的武器。收集、處理、匯總、分析、融合和傳播大量的數據、信息和知識將需要像未來有爭議的戰場上的事件速度一樣快。目前正在進行的戰爭數字化將導致在未來幾年內將 "大數據"廣泛用于作戰過程。空間領域將在實現全球范圍內連續的、有保障的和安全的通信方面發揮顯著的作用,除了更傳統的遠程監視用途外,它還被用作這種通信的運輸層。

對信息主導地位的追求將以新的和不確定的方式在物理、電磁和虛擬世界中擴展競爭的連續性。隨著空軍對帶有嵌入式人工智能(AI)工具和應用的作戰云的使用,新的風險、脆弱性和故障點將被引入。本出版物收集了來自世界各地領先的思想家的文章和見解,對多域整合和空中力量的信息優勢框架和概念的一些最相關問題提供了深入的觀點。這里的觀點和討論反映了當前對各種戰略、指揮和作戰層面的思考,讀者會發現這些思考對他們更廣泛的理解很有幫助

這里介紹的專家展望本身既不樂觀也不悲觀,正如我們所期望的那樣,所確認的是各種新技術促成的 "飛躍"機會正在地平線上形成,但其有效利用帶來了復雜和破壞性的新挑戰。在強調其中一些關鍵的挑戰和更好地理解這些挑戰的必要性的同時,正如通常的情況一樣,沒有快速的解決辦法或現成的解決方案。然而,有令人信服的理由認為,今天所預見的眾多挑戰似乎在理論上和技術上是可以克服的,有些甚至在未來幾年內就可以克服。在未來存在的許多不確定因素中,可以肯定的是,空中力量將被徹底重新定義。

付費5元查看完整內容

人工智能正在改變戰爭。英國防部如何準備應對未來的變化?

對于人工智能的軍事用途所帶來的接受挑戰,傳統的反應是堅持要求人類保持 "有意義的人類控制",作為一種產生信心和信任的方式。考慮到人工智能和相關基礎技術的普遍性和快速發展,這不再是一個適當的回應。人工智能將在整個軍事行動范圍內廣泛的指揮和控制(C2)活動中發揮重要的、日益增長的作用。雖然在公眾心目中,人工智能的威脅沒有 "殺手機器人 "那么直接,但在軍事決策中使用人工智能會帶來關鍵的挑戰,同時也有巨大的優勢。加強人類對技術本身的監督并不能防止無意的(更不用說有意的)濫用。

本文以各級(作戰操作員、指揮官、政治領導人和公眾)的信任對有效采用人工智能進行軍事決策至關重要這一前提為基礎,探討了關鍵的相關問題。對人工智能的信任究竟意味著什么?如何建立和維持它以支持軍事決策?人類操作員和人工智能體之間的共生關系對未來的指揮需要作出哪些改變?

當人類對人工智能的行為持有某些期望,而不考慮人工智能體的意圖或道德時,可以說存在對人工智能的信任。然而,與此同時,信任不僅僅是技術性能和可靠性的一個功能--它不能僅僅通過解決數據完整性和可解釋性問題來保證,盡管它們很重要。軍事人工智能中的信任建設還必須解決軍事組織和指揮結構、文化和領導力方面的必要變化。實現總體上適當的信任水平需要一個整體的方法。除了信任人工智能的使用目的之外,軍事指揮官和操作人員還需要充分信任--并且在如何信任--支撐任何特定人工智能模型的輸入、過程和輸出方面得到充分的培訓和具有豐富經驗。然而,最困難的,也可以說是最關鍵的層面是組織生態系統層面的信任。如果不改變軍事決策的體制因素,未來人工智能在C2中的使用將仍然是次優的,被限制在一個模擬框架內。有效引進任何新技術,更不用說像人工智能這樣的變革性技術,需要從根本上重新思考人類活動的組織方式。

優先考慮人和制度層面并不意味著對技術進行更多的控制;相反,它需要在不斷發展的人機認知系統中重新思考人的作用和貢獻。未來的指揮官將需要能夠在一個真正的 "整體部隊"中領導不同的團隊,整合來自軍事、政府和民事領域的貢獻。他們必須對他們的人工隊友有足夠的了解,以便能夠與他們合作并挑戰他們。這更類似于海鷗的雜音,而不是個別 "翠鳥"領導人的天才。為了發展新的指揮和領導概念,英國防部必須重新思考其方法,不僅是培訓和職業管理,還有決策結構和程序,包括未來總部的規模、位置和組成。

人工智能已經在改變戰爭,挑戰人類長期的習慣。通過在訓練和演習中接受更多的實驗,以及探索C2的替代模式,國防部可以更好地準備迎接未來不可避免的變化。

前言

人工智能正在改變人類的思維和決策方式。未來,它將越來越多地影響人類如何確定各種認知過程的優先次序,調整他們的學習、行為和訓練,并更廣泛地改造他們的機構。這些變化在整個軍隊中仍不完全明顯。盡管有新的技術和戰爭迅速發展的特點,今天的武裝部隊在組織結構上與后拿破侖時代歐洲的職業軍隊并沒有很大的區別。太多的人仍然參與到軍事任務中,而這些任務技術可以做得更好更快,并且對于重新思考人類對人機團隊的認知貢獻也沒有給予足夠的重視,而這正是解決未來指揮和控制(C2)問題所需要的。

本文以QinetiQ公司早先的一份報告為基礎,該報告將信任視為軍事能力的基本組成部分和2020年代軍事適應性的基本要求。本文探討了在軍事決策中越來越多地使用人工智能的最新趨勢和想法。本文并不直接關注這一趨勢的倫理(或法律)問題,盡管這些問題很重要。相反,本文強調了信任作為人工智能時代軍事指揮的一個因素的重要性和意義。

人工智能對軍事決策和C2的潛在深遠影響很少引起專家團體以外的關注。大多數公眾關注的是技術的優勢和風險,而不是人類認知和制度構建的潛力和限制。20多年前,著名的社會生物學家E-O-威爾遜抓住了人類當前的挑戰。威爾遜說,真正的問題是,"我們有舊石器時代的情感;中世紀的制度;和神一樣的技術。"在過去的幾十年里,技術的發展速度遠遠超過了人類適應它的能力。強調人工智能的技術屬性,而忽略其日益增長使用中的人類和制度層面,只會使挑戰更加復雜。

在許多領域,人工智能的軍事經驗仍然有限,需要做更多的工作來了解人工智能在人類決策中作用日益增長的影響。本文旨在引發一場更廣泛的辯論,討論英國國防企業內部所需的文化和組織變革,包括指揮部和指揮官的作用,以確保人工智能在未來軍事決策中的最佳使用。

本文的見解來自與人工智能、人類認知、軍事決策和信任理論有關的更廣泛的文獻。這項研究在2021年9月至2022年2月期間進行,大大受益于與來自國防、學術界和工業界的廣泛專家和用戶的訪談。

前兩章提供了本文的理論背景。第一章探討了人工智能和信任的概念,第二章則分析了人類機構的作用以及人工智能對人類做出選擇和決定的認知能力的影響。第三章結合信任、人工智能和人類機構的概念,提出了一個在人工智能支持的軍事決策中發展信任的五維框架。第四章擴大了對C2的分析范圍,特別關注人工智能對傳統上支撐武裝部隊行使權力和指導的人和體制結構的影響。最后一章提出了對未來指揮、領導和 "全軍 "團隊的進一步研究領域。

1. 人工智能和信任

對于人工智能或與人工智能有關的信任,并沒有標準的定義。這兩個概念都有不同的解釋,有時也會有激烈的爭論。本章沒有試圖綜合所有關于這兩個術語的文獻,而是建立了一個基準定義,為隨后討論關于人工智能應用于軍事C2的信任作用提供框架。

1.1 人工智能的性質和類型

人工智能的概念起源于1950年著名的圖靈測試,該測試發生在這個詞被創造出來的幾年前。通過關注它做什么而不是它是什么,更容易將人工智能概念化。人工智能 "試圖讓計算機做人類思想能做的各種事情"。在最基本的方面,它可以被理解為追求特定任務的虛擬信息處理能力。正如 "智能"(或 "思想")有許多層面和不同的用途,人工智能也是如此。因此,人工智能從廣泛的學科中汲取不同的想法和技術,不僅包括數學和計算機工程,還包括哲學、經濟學、神經科學、心理學和語言學。

廣義上講,有三種不同層次的人工智能:人工狹義智能,通常被稱為 "狹義人工智能";人工通用智能,有時被稱為人類水平的人工智能;或者更強大的人工超級智能,超過人類的智能水平。在這一點上,有些人認為會出現一個奇點,在這個奇點中,人工智能要么變得有自我意識,要么達到持續改進的能力,使它的發展超出人類控制。后兩種水平被認為仍有一段距離,盡管距離有多遠還存在爭議。不過,就目前而言,狹義人工智能更先進應用的出現,如先進的機器人技術,加上計算能力的爆炸,才是目前關于人工智能的軍事用途辯論的主要動力。本文重點討論狹義人工智能的應用。

圖 1:AI 類型的簡化分類

在狹義的人工智能中,還有更多的類別,盡管這些技術并不完全是離散的,而且經常被結合使用。最常見的區別是符號人工智能和亞符號或非符號人工智能,前者通常被描述為基于邏輯,后者基于自適應或學習。符號人工智能依賴于順序指令和自上而下的控制,使其特別適合于確定的問題和基于規則的過程。非符號人工智能,其中神經網絡是一種常見的方法,涉及并行、自下而上的處理和近似推理;這與動態條件和數據不完整的情況最相關。符號人工智能提供了精確性和可解釋性,而涉及神經網絡的非符號人工智能則不那么脆弱(網絡中缺少一個節點并不會導致整個網絡無法運行),并且能夠在沒有明確規則或一致證據的情況下識別模式。

有三種常見的機器學習類型,根據有助于智能體學習過程的反饋類型進行區分:監督學習;無監督學習;以及強化學習。在監督學習中,系統被訓練來產生假設或采取具體行動,以追求基于特定輸入的目標值或輸出(被稱為標簽)(例如,圖像識別)。無監督學習沒有設定規格或標簽,也沒有明確的反饋;相反,系統通過尋找數據中的模式進行學習(例如,DNA序列聚類)。強化學習依賴于一個反饋回路,通過試錯或獎懲機制穩定地強化系統的學習行為(例如,先進的機器人技術或無人駕駛汽車)。與監督學習不同,強化學習中使用的輸入數據不是預先定義的,這允許更廣泛的探索,但與無監督學習不同,它有一個預期的應用或總體目標(與總體獎勵最大化相關)。

所有三種類型的機器學習,無論監督或自律的程度如何,都提出了重要的信任和值得信賴的問題。所需的信任程度和性質因使用人工智能的目的不同而不同。

1.2 概念:信任(Trust)

信任描述了兩個或多個智能體之間的互動。信任的傳統定義是假設信任者對受托人的能力和善意(或動機)存在合理的信念。對許多人來說,道德誠信(或意圖)的問題是信任與其他概念(如信心)的區別。另一些人認為,信任的范圍和所指比信心更廣,后者被視為與具體事件相關的獨立判斷。大多數信任的定義趨于統一的是一種脆弱的感覺。沒有背叛的可能性,沒有風險的存在,就不可能有信任。

正是因為經典的信任概念中隱含著假定的道德因素,一些人質疑使用該術語來描述人類與人工智能體的關系。他們認為,在目前狹義人工智能的水平上,我們不能將意向性或道德機構歸于人工智能系統,因此使用 "信任 "一詞是不恰當的。另一些人采取了不那么純粹的觀點,并以反映日常使用的方式應用該術語,意味著對系統的可靠性有信心。

信任作為一個術語在計算機科學中被廣泛使用。更重要的是,信任仍然是公眾和用戶接受人工智能的一個基本方面。今天,關于人工智能的國家政策、法規和專家建議經常強調 "值得信賴的人工智能 "的必要性。例如,DARPA的空戰進化計劃正在探索方法,以模擬和客觀地衡量飛行員在斗狗時對人工智能的信任。認識到這些尚未解決的定義問題,作者選擇了略微調整 "信任 "一詞,使之與通常的做法一致。

作者調整后的信任概念需要對人工智能的表現有一定的預期,而不需要假設人工智能方面的特定動機。因此,對人工智能體行為的積極預期可能是信任存在的充分條件,而不考慮意圖。

在目前大多數關于人工智能的討論中,重點往往是人作為信任者,系統作為受托人,盡管任何認知智能體,包括自主機器人和智能機器,原則上也可以履行信任者的角色。這樣理解的話,信任就成了 "系統成員之間互動的促進者,無論這些成員是人類智能體、人工智能體還是兩者的組合(混合系統)"。事實上,在人工智能更成熟的應用案例中,受托人最有可能同時包括人工智能支持的系統(人工智能體)和該系統的提供者(人類智能體)。在目前的人工智能水平上,信任似乎是一種單向的關系,涉及人類 "信任 "人工智能的程度,而不是真正的雙向信任,即人工智能對人類表現的看法。

各種因素決定了(人類)對技術的信任,包括但不限于信任者的能力水平和信任傾向,以及整體環境或背景(包括更廣泛的文化和機構動態)。除了這些針對人類和環境的考慮,決定一個人或組織對人工智能的信任程度的是技術的性能、過程(它如何產生特定的輸出),以及重要的是目的。所有這三者都決定了人工智能系統的設計和部署。

除了技術的穩健性和安全性,隱私、公平、透明度和問責制是一些最常被提出的影響公眾對人工智能信任的問題。然而,主要是由于設計適當的算法、理解復雜軟件系統的內部結構以及為基于算法的決策賦予責任等方面的困難,所以在值得信賴的人工智能的關鍵屬性列表中總是會加入進一步的考慮:這被交替稱為人類機構、監督或有意義的控制。在某些情況下,保持人類對技術使用的監督可能是唯一的保護措施,以防止無意中出現有偏見的、不可捉摸的和/或監管不力的人工智能系統的風險。

1.3 概念:控制(Control)

控制通常被看作是信任的反面。當對智能體執行任務的能力有信任時,就不需要監督。然而,即使在人工智能更適合做決定的情況下,人類也會經常傾向于干預。信任不足可能和過度信任一樣有風險或適得其反。事實上,正如絕對的控制是罕見的,絕對的信任也是如此。在開發和使用人工智能的過程中,有必要在適當的信任水平和適當的控制水平之間取得謹慎的平衡。這是 "校準的信任 "或可適應/適應性自主性等概念的核心。信任是根據人工智能的能力來校準的,對人工智能能做什么或不能做什么的期望將影響信任的水平。同樣,在可適應的自主性的情況下,用戶定制自主性水平的能力可以支持更大的信任水平。這在國家安全決策中尤為關鍵,因為信任或不信任人工智能的影響可能是最大的。

對技術在人類事務中的作用的擔憂并不新鮮。許多人認為關于人工智能的辯論與之前關于技術的爭論沒有什么不同。根據這一論點,人工智能構成了一種進化,而不是對過去活動的徹底背離,即使人類有時可能在背離以前的自動化水平的情況下被從決策圈中移除。雖然信任仍然是一個挑戰,特別是在機構和社會層面,但穩步應用最初仍然有限的人工智能來支持軍事活動,隨著時間的推移,可以培養出熟悉和越來越多的信心。

其他人,通常是政府以外的人,質疑這種漸進式的方法。他們認為人工智能的崛起是一種范式的轉變,與以前的任何技術都有質的不同。以前的技術都沒有將人工智能的雙重用途特性、傳播的便利性和實質性的破壞潛力結合起來。在過去,最具破壞性的技術都在政府的控制之下,或者在軍事領域之外幾乎沒有應用。此外,雖然以前政府主導了大部分新技術的開發,但這種趨勢幾乎完全逆轉;現在大部分投資和創新來自于工業。鑒于軍事和民用界限的模糊,以及我們的對手和競爭者對人工智能的投資,認為我們可以控制人工智能發展和使用的速度和程度是不明智的。在反思算法技術的進步時,一些人甚至進一步聲稱技術和人類之間的角色發生了逆轉,人們正在成為 "人類的人工制品"和"(技術系統的)智能體"。

如果我們接受對人工智能系統在未來如何操作(和運行)進行完全控制的限制,關鍵問題是我們如何在算法超過目前的性能水平后長期確保適當的交互和人類判斷。反應時間是軍事競賽中的一個關鍵優勢;加快OODA(觀察--方向--決定--行動)循環的各個方面,通常會給那些先到者帶來領先優勢。而這樣做只要一方開始使用人工智能來加快他們的決策和反應時間,另一方就會受到壓力。

2. 人工智能和人類機構

2020年12月,美國空軍首次使用人工智能副駕駛飛行了一架軍用飛機。這種被稱為ARTUμ的算法完全控制了傳感器的使用和戰術導航,而其人類隊友則駕駛著U2間諜飛機。這是首次出現人工智能控制軍事系統的情況。用美國空軍前首席采購官員威爾-羅珀的話說,ARTUμ "是任務指揮官,是人機團隊的最終決定者"。

甚至在ARTUμ演示之前,美國國防部已經開始了其全域聯合指揮控制(JADC2)計劃的工作。JADC2旨在打造連接五個軍種的傳感器,承諾對作戰環境進行快速分析,以便在幾小時或幾分鐘內做出決策。在未來的JADC2中,人工智能將允許快速處理數據,為目標識別提供信息,并推薦最佳的交戰武器(無論是動能還是非動能)。美國空軍的先進作戰管理系統、美國陸軍的 "聚合項目"(被稱為 "學習運動")和美國海軍的 "超配項目 "都在嘗試使用人工智能與自主性相結合的方式來支持JADC2。

其他國家,包括英國通過英國陸軍的 "Theia計劃"等項目,以及北約也已經開始嘗試使用人工智能來支持C2和決策。然而,這種試驗的規模和范圍仍然有限。與數據挖掘和語言翻譯等領域不同,人工智能在軍事決策中的應用仍處于起步階段。

美國國防部高級研究計劃局目前開展的工作提供了對未來的一瞥。作為其 "AI Next "項目的一部分,該機構的第三波人工智能投資尋求 "將計算機從工具轉變為解決問題的伙伴",并 "使人工智能系統能夠解釋其行動,并獲得常識性知識并進行推理"。

2.1 人工智能的民事與軍事用途

人工智能已經塑造或推動了我們的許多日常決策。在某些情況下,它已經改變了整個行業。在高度交易性的活動中尤其如此,如保險或零售部門。人類已經將關鍵活動的責任交給了人工智能,讓算法在沒有人類干預的情況下做出決定。今天,人工智能塑造了谷歌和Facebook等網絡平臺提供的內容,也決定了哪些內容被刪除或屏蔽。保留了人類因素的人工智能決策支持系統也在激增,被用于從醫療診斷到改善制造工藝的各個方面。

很少有地方像金融業那樣,人工智能從根本上改變了人與機器的關系。人工智能現在負責絕大多數的高頻交易。在幾毫秒內做出的數千項微觀決定有能力改變整個財富,有時會帶來毀滅性的后果,2010年的 "閃電風暴 "證明了這一點。人類的決定對于金融市場的效率不再是必要的,事實上,甚至可能會起到反作用。無形的算法似乎已經超越了無形的手。

至于社會的其他部分,人工智能的潛在軍事用途涵蓋了廣泛的應用范圍。這些可以有效地分為企業、任務支持和業務人工智能應用。人工智能的軍事應用,特別是與任務支持和作戰用途有關的應用,在一些基本方面與日常的民用活動不同。在平民生活中,人工智能有機會利用大量容易獲得的數據,不斷針對現實生活中的例子進行訓練和學習。對于軍隊來說,與對手的接觸是零星的,來自真實行動的教訓或 "數據 "在數量和頻率上都相對較低。除了軍事對抗的偶發性質,國家安全決策通常依賴于一套復雜得多的條件,涉及多個參數和利益相關者(更不用說對手的意圖),而今天的算法沒有能力再現這些條件。最后,也是最重要的一點,在國防和國家安全問題上,面臨風險的不僅僅是財富,還有生命。數學邏輯不足以為決策提供依據;在使用武力時,道德和倫理考慮比任何其他人類活動都要突出。當人類生命的完整性受到質疑時,我們為技術設定的標準將永遠高于我們為容易出錯的人類設定的標準。

除了美國、英國和北約等國的現行政策外,人們普遍認為人類將在決策中保留一個關鍵角色。美國國防部的人工智能戰略指示以 "以人為本的方式 "使用人工智能,有可能 "將人類的注意力轉移到更高層次的推理和判斷"。納入人工智能的武器系統設計應 "允許指揮官和操作人員對武力的使用進行適當的人類判斷",并確保 "清晰的人機交互"。提到人類總是 "在循環中 "和 "完全負責選項的開發、解決方案的選擇和執行"--這是以前對我們日益自動化的未來的評估中的常見說法--已經被一種更細微的觀點所取代。

所謂的有監督的自主系統是指人類坐在 "循環 "上。雖然人類在理論上保持監督,但一些批評者認為,在實踐中,他們可能無法真正控制自動決策,因為他們可能不熟悉為他們提供決策信息的環境和人工智能程序。在這些情況下,人類的干預能力,除了停止機器之外,被降到最低,沒有達到"有意義的人類控制 "的想法。只有在完全自主系統的情況下,人類的干預才會被完全消除。然而,最終,試圖定義自主性水平的做法可能會產生誤導,因為它們假定人類和機器之間的認知活動是簡單分離的。2012年美國國防科學委員會的一份報告描述了如何:

  • 沒有完全自主的系統,就像沒有完全自主的士兵、水手、空軍或海軍陸戰隊一樣。也許對指揮官來說最重要的信息是,所有的系統在某種程度上都由人類監督,而最好的能力來自于人類和機器的協調和合作。

兩個領域的發展揭示了各國政府在國防和國家安全的關鍵決策中信任先進的自動化方面已經走了多遠。一個是導彈防御,另一個是網絡防御。兩者的有效性都取決于反應速度,這通常超過了最有經驗的人類操作員的能力。

大多數防御性武器系統,從短程點防御到反彈道導彈系統,都采用先進的自動化操作,使其能夠在沒有人類干預的情況下探測和摧毀來襲導彈。算法實際上是在發號施令。在這種系統中,人類被稱為 "循環",在事先經過嚴格的人類測試后,在有限的設計空間內運作,因此其控制范圍受到限制。雖然錯誤永遠不可能被完全消除,但在大多數情況下,不做出反應或反應遲緩的風險可能超過偶爾發生事故的風險。雖然事故促使人們對這些自主系統的操作進行審查,并可能導致引入一些進一步的人為檢查,但這種干預也帶來了進一步的復雜性。對越來越快的導彈,特別是高超音速導彈的防御將繼續推動人工智能在導彈防御中的應用。

網絡戰是人工智能相對于人類具有明顯優勢的另一個領域,而這往往需要人類保持置身事外。人類操作員缺乏算法快速檢測和應對網絡事件以及不斷調整系統防御的能力。所謂的認知電子戰(EW)系統應用人工智能技術來自動檢測對EW系統的威脅,而不是依賴人類操作員。

2.2 人類和人工的局限性

將決策過程中高度耗時、勞動密集型和需要低層次人類推理的部分自動化,有巨大的好處。軍事評估過程是軍事決策過程的一個關鍵部分,一直是參謀學院教授的標準作戰計劃過程。這種方法的一部分涉及收集和處理信息,為一個或多個行動方案提供信息。由于信息時代的決策需要更大的速度和敏捷性,達成決策的過程將需要加速。人工智能已經證明了它在基于明確定義的規則、輸入和假設快速執行理性過程中的效用。只要人類負責設定假設并定義產生替代方案和概率評估的輸入,人工智能就能增強整個決策過程。

可以理解的是,政府內部和外部都不愿意讓人工智能發揮超出決策支持和適當決策的作用。"指揮和控制"的概念在軍隊的心理和結構中根深蒂固,許多人無法接受一個在某種程度上不涉及人類控制軍事行動或指揮任務的未來。人被要求帶著他們對問題的創造性見解,像現代的亞歷山大一樣解開這個死結。沒有什么比對 "翠鳥時刻 "的信念更能體現這種對直覺型指揮官形象的依戀。這種技能,即指揮官藝術的精髓,只限于那些在最苛刻的情況下能夠憑直覺做出決定的少數人。人工智能提供并非基于人類邏輯或經驗的獨特見解的能力,對這種思維提出了深刻的挑戰,并可能在未來改變指揮官的形象。

許多人將人工智能稱為決策支持而不是決策工具,其推論是人類最終仍然是所有決策的仲裁者。這樣的區別造成了一種令人放心的錯覺,即人工智能只是協助實現一種效果。人類根據一套算法挖掘、篩選和解釋的數據做出的致命行動決定,是否比由智能機器完全執行的決定需要更多的人類機構?對 "行動 "的癡迷--更不用說致命行動--作為更廣泛的 "殺傷鏈 "的最后元素,掩蓋了人工智能在整個行動范圍內的一系列C2活動中日益增長的影響。

許多專家對人類是否有能力控制由人工智能促成或驅動的決策持懷疑態度。這種懷疑往往圍繞著所謂的黑盒問題:高級人工智能,如深度學習,在本質上是無法被人類理解的。這不僅僅是由于它的工作速度,也是由于算法網絡相互作用的方式,以及它們所操作的數據的規模和復雜性。我們不能簡單地詢問系統以了解其思維過程。我們可能知道一個模型的輸入和輸出,但卻無法理解這中間發生的事情。一個相關的、更微妙的論點是,算法對人類的認知攝入施加了 "權力"。人工智能可以決定人類處理哪些信息,而不向他們透露哪些信息被遺漏或拒絕。它還挑戰了這樣一個概念,即如果人類的行動受到數據呈現的內容和方式的制約,他們可以行使 "有意義的 "控制。這與人工智能的好處之一正好相反,即它能夠減少人類的認知負荷,使人類能夠集中精力思考和作出最高價值的活動。

對黑盒挑戰的典型解決方案是開發可解釋的人工智能(XAI)。盡管能夠自我解釋的人工智能可能有助于理解,但它并不必然會導致信任。XAI并不等同于可解釋的AI;解釋不是一個決定,而是一個關于決定的敘事。因此,即使是一個令人信服的解釋也不一定是真的。對于許多潛在的用例,我們還遠遠沒有能力開發出足夠的可解釋(Explainability)的人工智能,更不用說可因果解釋(Interpretability)的了。對更先進的人工智能系統進行嚴格的測試可能會證明它們的部署是足夠的,即使是在沒有人類能力遵循其推理過程的情況下。不過,從根本上說,我們對測試的傳統方法需要重新思考。沒有充分的測試和評估,對不可解釋/可解釋的人工智能的信任將是 "盲目的信任"。對于美國前國防部副部長鮑勃-沃克的問題,我們仍然缺乏一個令人滿意的答案:你如何對學習系統進行測試和評估?

當存在不確定性或缺乏知識時,人類會應用啟發式方法來近似解決復雜問題。啟發式方法是驅動直覺思維的因素;它依賴于經驗法則,通常是通過經驗和實驗來了解。因此,它可能存在偏見和盲點,但它也可以作為一種非常強大和有效的快速認知形式。機器缺乏類似人類的直覺,但它們確實依靠啟發式方法來解決問題。與人類推理的關鍵區別在于,機器不需要記憶或 "個人 "經驗就能進行 "直覺 "或推理。它們利用巨大的數據庫和卓越的概率能力為決策提供信息。強大的模擬與先進的計算能力相結合,提供了一個測試和 "訓練 "算法的機會,其重復程度是人類無法想象的。在宣布任務準備就緒之前,ARTUμ在短短一個多月內經歷了超過一百萬次的訓練模擬。

即使在XAI領域取得了重大進展,仍然會有謹慎的理由,特別是在需要復雜決策的情況下。人工智能通常不善于看到 "全局",也不善于根據相關的內容做出決定。像人類一樣,它也會把相關性或偶然事件誤認為因果關系。人類和機器在處理復雜問題時都會遇到 "正常的意外"。創造力是人類通常具有的特質,但一些先進的人工智能可以產生人類無法企及的驚人結果。簡而言之,許多通常被認為是人類特有的屬性,如創造力和直覺,也可以說適用于人工智能系統--盡管方式不同,速度超過人類能力。

目前機器所缺乏的是人類思維的靈活性和關聯感("框架 "的能力)。人類可以橫向思考,通過實用主義得出合理的結果(這一過程被稱為歸納推理),并反思自己的思維過程(這一能力被稱為元認知)。這些心理過程可以產生驚人的適應和創新的壯舉。

人工智能的出現意味著未來的軍事決策將幾乎肯定需要更強大的人機共生關系,就像在已經接受該技術的商業組織中看到的那樣。目前的討論大多是假設人類繼續控制,或尋求將人類的屬性應用于未來的機器。一些人提倡一種新的 "決策演習"概念,將 "人的指揮和機器的控制"結合起來。但更有可能的是,指揮和控制的責任將越來越多地由人類和人工智能系統分擔,其方式可能是目前難以設想的。人類與人工智能的合作提供了利用各自優勢和減少不足的最佳方式,特別是在戰爭方面(目前戰爭的性質仍然沒有改變)有四個連續性:政治層面;人類層面;不確定性的存在;以及戰爭是一場意志的較量。

3. 信任的維度

信任是動態的;它隨時間而變化。它的最初形成是至關重要的,但它的持續發展也是如此。信任是隨著熟悉程度的提高而自然產生的,因此,假設經驗是積極的,即使是在對技術不完全了解的情況下,技術的使用也會擴大信任的范圍。反過來也是如此,不好的經驗會促進不信任。移動電話技術復雜性對大多數用戶來說是未知的,但人們的積極經驗給了他們使用的信心。這種信心導致了與手機使用所形成的決定相適應的信任感。然而,手機一般不會決定生死大事,盡管它們會將盲目聽從指示的不謹慎的司機置于危險之中。在軍事背景下,賭注更大,用戶和策略制定者非常清楚他們的決定的潛在后果--信任門檻很高。

軍隊作為應急組織,不需要定期交付其主要產出,這影響了可以獲得最直接相關經驗的速度。與金融服務業不同的是,在金融服務業中,交易為人工智能決策提供了頻繁的驗證,而國防部門的時間線往往更長,結果在一個單一的因果鏈中也沒有明確的聯系。做出決定和觀察其影響之間的時間間隔更長,并受制于多種干預變量。雖然模擬演習創造了獲得經驗的機會,但它們只是現實的近似值。

3.1 信任點(Trust Points)

建立和維持信任涉及五個主要的 "Trust Points"--在這些點上,擁有適當水平的信任問題是至關重要的。這些點是:

  • 部署信任:使用人工智能的目的
  • 數據信任:正在使用的數據輸入
  • 過程信任:數據如何被處理
  • 輸出信任:由人工智能產生的輸出
  • 組織系統的信任:優化使用人工智能的整體生態系統

總的來說,這些Trust Points定義了一個整體的信任水平,并且是乘法的:如果對其中一個的信任是 "零",那么整體就是 "零"。只要整體信任是正向的,每個人的信任水平都可以變化--在不同的時間。

部署信任

對在特定情況下使用人工智能的決定的信任是至關重要的。對于人工智能的軍事使用(以及許多民用應用),這在三個層面上運作:社會;組織;和個人。第一個層面考慮的是整個社會是否愿意允許人工智能的使用,這將決定策略制定者如何看待它的使用。組織本身也必須愿意認可這一點。最后,個人必須愿意在這個角色中與人工智能合作。所有這三個層次都需要接受使用人工智能的必要性或其可取性的必然性。可取性可能反映了人工智能在以超過人類操作員的速度或數量(或兩者)處理數據方面的優勢,或在承擔枯燥或危險的工作方面的優勢。而軍方可能會認為,人工智能既實用又要避免將優勢讓給對手,但社會似乎更傾向于將致命的使用視為一個倫理問題,在這個問題上,人類生命的神圣性要求道德行為者決定奪取人的生命。

社會對人工智能使用的接受程度在很大程度上取決于其經驗、有效的溝通和教育,這將有助于為人工智能的使用選擇提供依據。在許多情況下,社會的某些部分可能會比軍方更多地接觸、熟悉和信任人工智能,但致命自主權可能仍然存在問題。雖然沒有致命自主權那么直接的威脅,但在決策中使用人工智能會帶來自己的挑戰,其中最重要的是在一個算法越來越強大、人機協作越來越緊密的世界里,"有意義的人類控制 "究竟意味著什么。

在組織層面,存在關于如何部署作戰和任務支持人工智能的重要問題:是以集中的方式在更高的戰略層面運作,還是以更分散的方式在戰術層面運作。在后一種情況下,人工智能將進一步滲透到組織中,變得更加分散,并用于反應時間可能限制人類干預或驗證人工智能的范圍。組織需要明確決定是否使用人工智能的原則,以及管理其使用的方法(見下文 "過程信任")。關于使用人工智能的決定必須考慮如果系統失敗會發生什么。美國國家航空航天局(NASA)由于擔心系統故障的后果而沒有充分利用其早期火星車的自主能力,對火星車進行微觀管理,并通過大型人類工程師團隊減輕風險。外部組織,如商業技術供應商,的想法也很重要。例如,谷歌的員工迫使該公司在2018年退出一份軍事合同,因為他們擔心軍方對面部識別技術的使用。

個人對人工智能的熟悉程度也將是重要的。目前,從事軍事人工智能工作的人是其使用的倡導者,但隨著接觸人工智能的人群的增加,這種情況將發生變化。與前幾代人相比,接觸技術較多的年輕軍人可能更容易接受人工智能在軍事決策中的應用,但在基礎等級的聯邦結構中,人才幾乎完全來自內部,對其使用的阻力可能來自那些有權力的人;這可能造成機構接受問題。然而,在 "代際特征 "方面,存在著過度簡化的危險。雖然年輕人是在較新的技術中長大的,而且可能更信任它,但技術是可以學習的。代際假設不能成為不使用現代技術的借口。

部署信任是復雜的,因為大多數西方國家的大規模防務活動都是以聯盟行動為前提的,而不是每個盟友或伙伴都對什么是可接受的人工智能的軍事用途有共同的看法。國防部和政府需要更好地傳達他們在使用人工智能方面的方法、用途和保障措施,包括向盟友傳達,而不向對手透露太多信息,因為他們可以制定戰略來抵消(或更糟)人工智能功能的優勢。北約將通過其公共宣傳活動、與成員國在政治層面的聯系以及在不同技術發展階段的軍隊中建立規范,在這方面發揮關鍵作用。

數據信任

這涉及到對人工智能做出判斷的數據的信任程度,這些數據為人類決策提供了依據。雖然測試硬件和軟件相對容易,但測試數據,甚至是準備讓人工智能接受訓練的數據,則更加困難。數據對于人工智能的有效學習至關重要。一些數據將被控制,駐留在現有的國防系統內,或從可靠的外部來源進行驗證,盡管國防部在數據的分類(不一致或不準確)、存儲、訪問和共享方面存在困難,特別是在較高的分類級別。不受控制的數據,如開放源碼數據,是在沒有人類知識或理解的情況下通過聚合產生的,這更具挑戰性。此外,狡猾的對手會試圖注入虛假數據,以破壞決策過程,或用不相關或不準確的數據淹沒決策過程。

武裝部隊需要定義、構建、清理和分析數據的能力,以及開發和維護底層基礎設施(如連接、安全和存儲容量)的能力。這是一個多學科的團隊工作,需要能夠在數據科學生命周期的所有階段工作的 "全棧 "數據科學家。現代戰場將需要更加多樣化的技能,包括心理學家、律師和通信專家。鑒于商業世界對這些技能的需求,吸引和保留這些專家的數量將是困難的。這將需要更靈活的人力資源做法和/或對整個部隊更復雜的理解和使用,包括允許非軍事人員在軍事總部擔任有影響力的職位。

過程信任

過程信任指的是人工智能系統如何運作,包括數據如何處理(匯總、分析和解釋)。目前英國國防部的(狹義的)人工智能決策支持系統吸引了高信任度,因為算法相對簡單且可預測。它們也僅限于參與開發的一小群用戶,或者認識那些開發了人工智能系統的用戶,并且了解該技術。該技術受益于一種源自人們對人類的信任的過渡性信任。雖然不是人工智能,但法國陸軍引進的包裝降落傘的機器導致了降落傘團的信心喪失。堅持要求機器的主管用機器隨機選擇的降落傘打包跳傘,有助于恢復用戶的信心。讓開發人員更接近指揮系統的用戶會有所幫助。法國的采購程序允許某些單位直接與人工智能供應商接觸,以建立對開發商的了解和關系。開發商成為一個關鍵的信任點,如果不是軍隊,他們必須了解和熟悉軍隊的情況。這可能需要加大投資,讓商業伙伴了解軍隊的工作方式,并確保軍事人員了解其文職同事。

要求高水平的可解釋性和透明度并不是一個永久的解決方案,目前限制了英國防部對更強大的、非符號形式的人工智能的訪問。隨著機器學習使技術超越其最初編程的參數,將需要不同的方式來確保對可能看起來是黑盒的信任。隨著這種人工智能系統的使用激增,因了解設計者而產生的過渡性信任將減少,在這個過程中克服最初的信任不足或過度信任將更加困難。應避免過度依賴過程信任,并加強其他信任點,以開發適應能力越來越強的人工智能。

過程信任必須超越技術本身。它需要信任那些為技術提供能量、與技術一起工作并接受技術產出的人類過程。因此,必須同樣重視那些共同構成整體過程的其他活動。這包括培訓和人員的過程,以及如何組建團隊。

輸出信任

對人工智能產出的信任對決策者根據他們收到的信息采取行動至關重要。即使是人類提供的情報,如果原始信息指向不同的方向,指揮官要求新的情報來支持他們的先入之見(一種 "基于決策的證據制作")也不是沒有。而隨著數據的激增,不同的解釋將成為可能,合法的或符合先入為主的解釋。因此,出現了這樣的問題,即人工智能或事實上的人類分析能夠現實地提供什么答案,以及如何驗證輸出。在友軍的部署和對手的物理位置方面,人工智能有可能提供更快的態勢感知。然而,盡管可以從現有的數據中得出更好的推論,但對手的實際意圖是無法可靠地確定的。可預測性通常被視為信任的關鍵因素,但在不穩定的環境中,能夠適應不穩定環境的人工智能輸出會被解釋為不可預測。為了克服這個問題,Bonnie M Muir認為,人類操作員必須具備估計技術可預測性的能力。這種可預測性也會影響整個部署和過程信任點,但在輸出信任方面最為敏感,以反映軍事行動等流動性和不可預測的環境。在這些情況下,數據還必須反映軍事決策者所面臨的大多數情況的離散性和特定對手的獨特文化方式,這加劇了建立大量訓練數據的難度。即使在情況類似于過去的事件時,由于缺乏可比的歷史數據來說明廣泛的變量,使得概率推理變得困難。

用Patricia L McDermott和Ronna N ten Brink的話說,輸出的校準是至關重要的。這可以通過更多地使用企業人工智能和模擬來實現,它擴大了信任的邊界,可以幫助開發輸出信任。如果經驗是積極的,與技術互動并看到它的輸出將產生信任。在作戰環境中,當描述可以知道和檢查的東西時,驗證將是最容易的(例如,關于自己部隊的數據和潛在的對手部隊的布局)。要接近了解對手的意圖是比較困難的,因此需要更高水平的輸出信任。這將包括提高描述的準確性和對從大數據處理中得出的推論進行更多的測試。分享演習和行動的正面敘事,對于實現過渡性信任和緩解從相對不頻繁的行動中積累成功證據的緩慢速度至關重要。

組織系統的信任

生態系統的信任涉及調整更廣泛的組織系統以最大化人工智能的價值所需的信任。C2系統作為一個整體必須被配置為利用人工智能輔助決策的好處,并有適當的檢查和平衡,以在可接受的風險水平內運作。當人工智能的弱點或失敗是在主管的專業知識之外的領域,需要在組織的不同部分進行校準時,這一點尤其重要。如果不在生態系統和組織層面上進行變革,組織將只是將其人類系統數字化。

需要生態系統的信任,以確保結構--包括軍事總部的組織、指揮官的角色以及集中式與更分散或分布式的決策權的平衡--準備好利用人工智能的機會。如果沒有準備好,采用人工智能的漸進式方法往往會鼓勵對結構和整體生態系統的變化采取被動或消極的方法。相比之下,實現人工智能變革力量的專門戰略將迫使人們盡早重新思考支持這種戰略所需的組織。這需要重新思考傳統的軍事結構,但對于走多遠并沒有共識。一些人設想總部變得更扁平,并將非軍事人員納入高級職位,在決策過程中擁有權力。對另一些人來說,生態系統的變化更為深刻;它要求完全取消目前被視為工業時代遺留的工作人員組織系統。這樣做,他們打算消除扼殺理解的信息邊界,并挑戰決策金字塔尖上的獨當一面指揮官的想法。這種轉變需要整個組織生態系統的信任。對于像軍隊這樣的保守組織來說,這將是困難的,在指揮部的激進替代方案被接受之前,需要得到保證。實驗、戰爭游戲和模擬環境提供了低風險的選擇,以測試為特定類型的任務(例如,戰爭、和平行動和能力建設)配置的不同總部結構。

3.2 多少信任是足夠的?

信任是根本,但為技術設定一個不可能高的標準也有風險。幾千年來,指揮官和決策者們一直信任易變的人類。當人工智能開始觀察到輸入數據分布的變化時,技術可以通過自我監測的方式提供幫助,提醒人類 "操作員",或以以前未曾見過的方式進行操作,這樣錯誤輸出的風險會更大。風險容忍度,無論是關于人類還是機器演員,最終都是信任的表達。國防組織需要對自己是否是快速采用者或快速或緩慢的追隨者持誠實態度:商業世界的人工智能發展速度使大多數武裝部隊極不可能成為人工智能決策的 "第一用戶"。漸進派和未來派都是人工智能的支持者,他們之間的差異主要是風險問題,以及針對不同信任點的可實現的信任水平。

通過熟悉產生信任是至關重要的,這可能涉及到將軍事人員嵌入到使用復雜人工智能的商業組織中,或將平民帶入國防。這種變化需要在足夠高的級別上進行,以促進生態系統的信任。模擬、實驗和演習是重要的工具,而且必須足夠廣泛,以便不局限于一小群狂熱者。英國電信公司用人工智能決策支持工具取代英國的電話網絡的項目,當服務時間最長、知識最豐富的工程師與人工智能和數據專家合作時,效果最好,他們可能會對人工智能產生懷疑。將企業人工智能引入改革業務流程,如財務和人力資源,是將熟悉程度擴大到目前直接參與人工智能開發和使用的少數干部之外的另一種方式。

一旦熟悉的東西,信任是人類的天性,但信任的習慣會帶來自身的風險。眾所周知,人類不善于設定正確的目標,當遇到 "專家意見"(無論是人為的還是其他的)時,他們更容易同意而不是懷疑。必須避免 "信任和忘記 "的動態。一個考慮因素是為人工智能系統制定一個 "持續可信性 "的概念,類似于航空平臺的持續適航性,以確保它們仍然適合使用。因此,建立對人工智能的信任(并避免過度信任)的努力必須解決所有的信任點,并包括整個人類-機器團隊,其中人類操作員是其數字對應方的有效合作者和建設性批評者。

4. 對指揮部和指揮員的影響

人工智能對決策的知情、制定和實施方式的影響將是深遠的。通過以超越目前人類進程的速度處理大量的數據,人工智能可以提高對作戰環境的理解,并減少決策者的認知負擔。這不僅僅是今天工作方式的演變。僅僅加快當前C2系統的速度是不切實際的。一輛設計為以70英里/小時速度行駛的汽車是為以該速度運行而配置的。將發動機調整到每小時100英里的速度也許是可能的,但會給車輛系統和駕駛員帶來無法承受的壓力。由人工智能驅動的決策所代表的不連續性需要一種新的方法。正如多國能力發展運動(MCDC)所述。

無論我們未來的C2模型、系統和行為是什么樣子,它們都不能是線性的、確定的和靜態的。它們必須是靈活的、自主的、自適應的和自我調節的,并且至少與它們形成和運行的環境一樣具有偶然性和突發性。

軍隊必須為明天的C2進行重組,并以不同的方式培養他們的指揮官和工作人員。如果沒有這些變化,"生態系統信任"可能被證明是不可能實現的。

4.1 指揮和控制

C2包含兩個不同的元素:指揮,通常與創造力、靈活性和領導力相關;以及控制,與規則、可預測性和標準化相關。人工智能將首先影響控制功能,目前,指揮仍主要是人類的活動。人工智能的數據處理能力將消除控制的大量負擔,例如,為指揮官提供對其部隊的更好理解(如部署、狀態、設備和供應水平),目前這需要消耗大量的注意力和時間。它還將改變向指揮官提供信息的方式。目前,這些數據大部分是在 "拉取"的基礎上提供的--根據總部的報告程序要求或零星地收集。然而,人工智能可以持續監測局勢,并通過強調相關變化的活文件將信息推送給指揮官--類似于24小時的新聞編輯部。然而,通過進一步進入控制領域,人工智能將不可避免地影響指揮權的行使,并形成指揮決策;這對上述指揮和控制之間過于整齊的區分提出了挑戰。在未來的C2系統中,可以想象人工智能可以限制指揮權的行使,就像防抱死制動系統、牽引力控制和電子穩定性允許人類駕駛員指揮車輛,直到失去控制,此時系統會接管,直到情況穩定下來。

人工智能給人類指揮帶來了一個悖論。它同時使更多的知識被集中掌握,使總部能夠看到并與 "前線 "發生的事情互動,并將知識擴散到整個指揮系統,使較低級別的編隊能夠獲得以前只有高級指揮官才有的信息。將更多的權力下放給地方指揮官可以提高反應能力,這在事件發展不可預測、需要快速反應的情況下非常重要。西方武裝部隊傾向于采用(或多或少)任務指揮的概念,即指揮官的意圖描述了預期的效果,并允許下級指揮官根據他們面臨的情況自由執行。軍隊的學習和發展系統以及演習嵌入了這種方法--指揮官將需要相信人工智能能夠在其操作中實施這一意圖。鑒于數據和獎勵功能的戰略復雜性和模糊性,人工智能在戰術和作戰層面的使用可能比在戰略層面的指揮更有效,盡管這些層面并不離散,在現實中也不容易被分割開來。人工智能和更大的網絡連接將提供一個結構、流程和技術網絡,連接多個小型、分散的前方總部和分布式(和加固的)后方功能,即使在更透明的戰斗空間,也更難發現和反擊。如果敵人以C2系統為目標,這將增強復原力。

在每個層面上處理更大數據量的能力必須被仔細引導。人們應該能夠獲得與他們的地位和相對能力有關的信息,以影響他們在環境中發展。W-羅斯-阿什比將此描述為 "必要的多樣性 "問題:一個可行的(生態)系統是一個能夠處理其環境變化的系統。行為者應該在適合其任務的抽象水平上運作。一個旅部不能處理也不需要關于單個士兵的詳細信息;它需要對其下屬單位的身體和道德狀況有一個良好的總體了解。在更多的戰術層面上,NCO指揮官應該對他們團隊中的個人狀態保持警惕。戰略和作戰指揮官可能需要放松控制,讓戰術指揮官在更接近戰斗的地方利用新出現的機會。雖然任務指揮已經允許這樣做,但隨著高級別的指揮官獲得關于戰術層面發生的信息的空前機會,"控制"的誘惑會更大。

人工智能也需要使用抽象、近似和校準的杠桿,以避免將總部淹沒在數據洪流中。這需要在使用這些抽象和近似時的 "過程信任"。總部也可能需要使用不同的人工智能系統,其能力更適合或不適合不同時間范圍內的不同場景。決策也可能包括確定在特定情況下信任哪種人工智能模型(部署和過程信任)的因素。

人機聯合系統的自動化將提高人類的表現,在某些情況下,改變任務本身的性質。無論在什么層面上部署,人工智能不僅會影響人類執行任務的方式,也會影響人類執行的任務。目前的方法通常從研究哪些人類過程可以自動化開始,即人類工作的數字化。有可能從使用人工智能的假設開始,只有在人類是必要(出于法律、政策或道德原因)或可取(更適合這項任務)時才將人類放入系統中--決定什么不應該,而不是什么可以被數字化。這種方法挑戰了目前關于總部的規模、組織、人員配置和運作的概念。

4.2 對未來總體結構的影響

聯合概念說明(JCN)2/17指出,C2有可能在不同的戰爭層次(戰略、作戰和戰術)上發生變化,并對作戰環境的變化特征做出反應,因為作戰環境不再僅僅是物理環境。戰爭與和平的模糊性--強調了在 "行動 "和 "作戰 "之間的連續過程中有效的必要性--以及英國向能夠持續參與的部隊結構的轉變,將需要超越戰斗所需的方法。然而,可能沒有單一的總部原型;因此,為戰斗而配置的總部將與處理上游參與和能力建設的總部不同。雖然現在確定人工智能對軍事總部的影響還為時過早,但商業組織已經發現,與傳統的垂直層次結構相比,具有更多橫向信息共享的扁平結構更適合利用人工智能的優勢,因為在垂直層次結構中,每一層都要保證和授權數據才會被發布。因此,軍事總部--無論其具體形式如何--很可能會比現在更小、更扁平,能夠更快地沿著水平線工作。

探索替代的總部概念可以通過更多地使用實驗和模擬來實現。這應該對經典的J1-9參謀部提出挑戰,或許可以用新的分組來反映人工智能取代人類密集型數據處理和共享任務的能力。在J3/5區域尤其如此,這是計劃和行動之間的界限;由更快的決策帶來的更快節奏的沖突使這種界限變得過時。組織總部的替代方法可能包括那些注重結果的方法。JCN 2/17中描述的英國常設聯合部隊總部(SJFHQ)的結構是圍繞著四個職能來組織的:理解;設計;操作;和啟用。SJFHQ后來又恢復了傳統的J1-9人員分支。然而,"聯合保護者2021 "演習是一項復雜的亞門檻行動,其中使用了人工智能決策支持工具,揭示了J1-9架構的弱點。總部開始演習時是為高強度戰爭而配置的,但隨后調整為更適合與其他機構合作的配置。SJFHQ內部正在開展工作,應用2021年聯合保護者的經驗教訓,并確定這對總部結構意味著什么。然而,不太可能有一個完美的總部模式適用于所有行動類型。需要進一步的實驗,不限于SJFHQ。很能說明問題的是,自JCN 2/17發布以來的四年多時間里,在實施其中的一些建議方面幾乎沒有取得進展。即使英國國防部采用技術的速度相對緩慢,但這也超過了國防部探索改變結構的能力,超越了小規模的愛好者群體。"生態系統信任"是至關重要的,需要有機會在模擬或真實的環境中對各種任務類型的替代方法進行測試,并讓更多的人參與進來,這對有效采用新技術、結構和過程至關重要。

現有的程序需要改變以連接和優化新的結構。這可能需要改變構成武裝部隊規劃過程基礎的軍事評估。雖然它是一個復雜的、符合邏輯的規劃工具,但它是相當線性的、確定性的,并且嚴重依賴于指揮官,特別是在 "指揮官領導 "的英國方法中。在其他國家,參謀部在推動解決方案方面發揮了更大的作用,這可能更適合于人工智能的方法。人工智能為更多的迭代和協作過程提供了機會,它能更好地響應軍事和民防資源中心的要求,轉向更敏捷的模式。新的方法應該給指揮官帶來更少的壓力,要求提供信息(指揮官的關鍵信息要求)。人工智能還可以構建、分析和比較作戰行動方案,允許在做出大規模投入部隊的選擇之前對情景進行建模、測試和完善。

英國常設聯合總部(PJHQ)的情報評估過程自動化的思想實驗發現了取代大量工作人員的機會,加快了總部的戰斗節奏,并允許使用自動總結和自然語言處理來橫向共享信息。在一次作戰部署中測試了這一點,英國第20裝甲步兵旅戰斗隊將部分計劃過程縮短了10倍。然而,當人類仍在環路中時,決策環路的速度可能是有限的。在某些時候,人類決策者將無法跟上,成為決策監控者。如果仍然需要人類來做人工智能自己不能做的決定,這將是一個問題,而這可能是最困難的決定。

盡管有明顯的優勢,但總部不太可能在技術允許的范圍內減少。目前的總部通過規模和保證程序的冗余來補償人類的脆弱性,這對于減輕人工智能團隊成員的脆弱性可能仍然是正確的。此外,隨著戰斗節奏演變成連續的24小時規劃周期,節奏的加快可能會推動某些領域的需求上升。這些壓力可能并不局限于總部本身;它可能會推動前線單位的活動增加,他們必須處理數據并對所發出的指令作出反應。人類行為者仍然需要時間來休息,即使技術不需要。此外,與商業組織不同,軍隊需要冗余,以應對競爭對手蓄意破壞或擾亂他們的決策機構,并需要確保固定基礎設施的安全,以建立他們的網絡。簡而言之,對彈性和流動性的需求影響了軍事C2系統的穩健性和效率。因此,軍隊將需要保留不完全依賴人工智能進行有效操作的結構,并確保在人工智能失敗或故意削弱對人工智能信任的情況下,有恢復性程序可用。

4.3 培養指揮官

傳統上,指揮官是垂直決策結構的頂點,是所有信息的匯集點。雖然不是所有的軍事文化都強調個人的天才,正如 "翠鳥時刻"的概念所體現的那樣,但指揮官獲得信息的特權被總部的低層人員所拒絕。人工智能使信息民主化的潛力將改變這種情況;指揮可能會成為一種更加合議和反復的活動,不僅涉及那些穿制服的人,而且包括情報機構和具有數據科學多方面專業知識的承包商在內的更加折衷的組合--一種 "全部隊"的貢獻。面對一個復雜和適應性強的戰斗空間,另一種鳥也許為未來的指揮提供了一個更好的比喻:椋鳥。它們集體的、高度適應性的雜音為英國的發展、概念和理論中心的C2概念提供了一個更好的形象,即 "為設計和執行聯合行動而配置的動態和適應性的社會技術系統"。

指揮官必須繼續能夠處理動態環境;"沒有計劃能在與敵人的接觸中幸存下來 "這句話仍然是正確的。鑒于技術能夠提高速度(減少反應時間)和復雜性(通過更透明的戰斗空間),處理復雜、快速演變的問題將尤為重要。軍事組織正在試驗人工智能將如何改變C2,包括北約卓越指揮與控制中心、美國JADC2和英國軍隊的數字準備實驗。早期的跡象表明,指揮官將不得不更多地關注問題的框架,并確保在更小、更扁平的結構中的更多不同團隊之間的理解和目標的統一。這表明需要一個不同類型的指揮官和不同類型的工作人員;他們能夠整合由不同學科的成員組成的不同團隊的工作,而且往往是來自軍隊以外的成員。

確保指揮官能夠正確地設定問題的框架是至關重要的。人工智能非常善于在框架內操作,但目前至少在 "閱讀字里行間 "或從定義不明確的數據集中推斷方面很差--這種脆弱性仍然依賴于有人類來設定框架。在確定了問題的框架后,指揮官必須能夠判斷產出在該框架內是否合理。這需要能夠看到大局的人,武裝部隊需要通過在總部的參謀經驗來培養未來的指揮官,使他們熟悉環境和流程,從而能夠在越來越高的級別上進行指揮。模擬可以促進對總部的接觸,同樣可以確保較小的總部仍然保留人們獲得經驗的作用,通過這些經驗可以獲得必要的指揮技能。

雖然指揮官需要知道如何與技術互動,但他們必須繼續關注人工智能所要服務的作戰要求,并對其持適當的懷疑態度,以便他們成為這一過程中的知情者,而不是算法輸出的被動接受者。指揮官需要類似于工業界的 "π型領導人",在軍事專業的同時具有數字和數據意識。他們不需要成為技術專家,但應該有足夠的知識來了解其局限性,能夠與團隊中的專家合作,并有足夠的滿意度來允許對數據、流程和產出的信任。

集體而言,總部團隊需要這些技能,各個團隊成員能夠相互交流和理解。這超出了情報分析員的范圍,包括來自武裝部隊內部和外部的廣泛的行動、技術和數據專家。它還包括對風險更復雜的理解和溝通能力。戰爭從根本上說是一個風險管理的問題,這需要以經驗的方式來理解和溝通風險。因此,了解概率和信心水平是一項關鍵的指揮技能,但諸如沖突中的一次性決定也需要長期的判斷。

軍事教育需要通過在職業生涯中更早地引入數據和技術意識來應對。此外,軍隊對不同能力的評價方式也需要改變。據傳聞,英國陸軍的職業管理流程往往將那些在計算能力上取得好成績的人引向采購等領域,而不是作戰,被選入參謀學院的專業人員往往在計算能力上處于較低的四分之一。這不僅僅是軍隊面臨的挑戰:有望成功競爭的國家需要國家教育系統認識到數據和技術素養技能的價值,并從小培養他們。作者并不主張將教育變成就業前培訓;雖然需要STEM技能(數量比現在多),但人文和社會科學仍然很重要,培養出的畢業生適應性強,能夠解決復雜的問題,并以影響力進行溝通。國家的成功取決于學術和其他形式的多樣性,培養人們在數字世界中茁壯成長,不僅需要技術能力,還需要(人文)特質,如創造力和情商。指揮官和工作人員在未來將需要這兩套技能,也許比今天更需要。

除了分析之外,直覺是信息處理中的一個補充部分。在指揮官需要行使的雙軌制決策方法中,它是人類認知的一個重要部分。有效的決策結合了直覺和分析的優勢。當數據和直覺一致時,決策者可以放心地采取行動。如果它們不一致,則需要在行動前進一步探索。1983年,俄羅斯中校Stanislav Petrov避免了潛在的核戰爭。他的導彈探測系統報告說美國發射了五枚洲際彈道導彈,但他沒有立即報告,而是決定等待,因為這個信息感覺不對。他的(下意識的)雙模式決策使他做出了正確的決定。人工智能更強的數據處理和分析能力可以增強決策過程中的分析要素,但它需要指揮官認識到直覺的價值和局限性。專業軍事教育需要反映出對數據和直覺這兩個組成部分的平衡方法。

4.4 管理整個部隊

未來的指揮官所指揮的團隊必然比今天更加多樣化,領導跨學科團隊為復雜問題帶來新的見解。人類有效構思和發展直覺的能力通過接觸不同的看世界的方式得到加強。這不僅僅是改善受保護特征方面的多樣性,盡管這很重要,還包括確保整個部隊團隊中教育、經驗和觀點的廣泛性。整個部隊的不同元素是這種多樣性的一部分。

越來越多的跨軍事領域的綜合活動要求整個部隊的各軍事部門有效合作。對于正規軍事人員,在 "聯合"方面已經取得了進展,但還需要做更多的工作。在軍事生涯的早期引入聯合訓練是實現這一目標的一種方式;這可能需要重新思考軍事人員何時接受專業軍事教育,目前在英國是在30歲左右。相比之下,澳大利亞國防軍為參加澳大利亞國防軍學院的人員提供了基本的聯合軍事課程,海軍、陸軍和空軍專家也接受了單一軍種培訓。這為未來的指揮官在軍事生涯早期的成長提供了一個跨學科的 "聯合 "模式。正規軍的進展需要擴展到后備軍的整合,因為未來可能會有更多的技術專家駐扎在這里。

事實證明,整合整個部隊的非軍事因素更為困難。Serco研究所的一份報告指出,"盡管在過去十年中,整個部隊的運作取得了進展,但在實現軍事和工業之間的無縫合作方面的努力卻停滯不前。雖然武裝部隊在將非軍事人員帶入其總部方面做得更好,但在場和被納入之間有很大區別。如2021年聯合保護者等演習,經常邀請國際合作伙伴和民間主題專家來幫助規劃過程,但他們往往在軍事規劃人員完成工作后才被邀請對計劃發表意見。許多總部的規劃周期缺乏靈活性,這意味著當規劃被提出來供審查時,可能已經來不及進行修改了。

這不僅僅是對軍隊的觀察;文職專家往往不熟悉軍事進程,等待被邀請做出貢獻,這削弱了他們的影響力。軍事人員沒有本能地理解他們的非軍事同事所能做出的全部貢獻,因此沒有將他們納入其中。人工智能將迫使人們從一開始就需要在規劃過程中建立整個部隊的多樣性,從而使計劃成為真正的合作。

有了人工智能的能力,技術將越來越多地成為整個部隊的一個成員。國際象棋大師加里-卡斯帕羅夫(Gary Kasparov)曾指出,好的技術和好的人類棋手的結合,往往比卓越的技術或更好的人類棋手單獨工作更成功。在某些情況下,人和機器可能在共享任務中緊密結合,以至于他們變得相互依賴,在這種情況下,任務交接的想法就變得不協調了。這在支持網絡感知的工作設計中已經很明顯了,在這種情況下,人類分析員與軟件智能體相結合,以近乎實時的方式理解、預測和回應正在發生的事件。

從這些人機一體的團隊中獲得最大利益,不僅僅是有效的任務分配。它涉及到找到支持和提高每個成員(人或機器)績效的方法,從而使集體產出大于單個部分的總和。正確的行為和創造包容性文化的能力對于從這樣的團隊中獲得最大收益至關重要。指揮官不應專注于試圖管理 "突發事件"--一個試圖描述簡單的事情如何在互動中導致復雜和不可預測的結果概念--或團隊成員的活動,而是需要在塑造團隊和培養團隊內部的關系方面投入更多。

雖然人工智能目前作為一種工具,但隨著技術的發展,它應該被視為團隊的真正成員,擁有影響人類隊友的權利和對他們的責任。然而,無論其最終地位如何,人工智能都可能改變團隊的動態和對人類團隊成員的期望。將人工智能引入一個團隊會改變團隊的動態,而它與人類團隊成員的不同會使團隊的形成更加困難。通過布魯斯-塔克曼(Bruce W Tuckman)的經典階段,即形成、沖刺、規范和執行,需要妥協和適應。人工智能目前不太能做到這一點,需要人類參與者有更大的靈活性,這使得建立人機團隊更加困難,也更難恢復已經失去的信任。

高級人工智能,如果可以說有動機或偏見的話,很可能是以邏輯和任務為導向的(用實力部署清單術語來說,就是綠色和紅色)。一個平衡的團隊將越來越需要能夠維持團隊關系的人類,無論是內部還是跨團隊。因此,人機團隊將是不同的,盡管他們可能與包括神經多樣性同事在內的純人類團隊有一些相似之處,因為對他們來說,感同身受或理解情感線索是困難的。與神經多樣性團隊一樣,人機團隊將受益于團隊成員的多樣性給整體帶來的價值,但也需要進行調整,以最大限度地提高團隊績效的機會。人工智能作為團隊成員的概念究竟會如何發展,目前還不清楚,但有人呼吁組織在更平等的基礎上考慮先進技術的需求。加強企業人工智能在業務支持活動中的使用,將為探索人機團隊如何最有效地合作提供機會,并有可能實現預期運行成本的降低,使人類在價值鏈上從事更有意義的工作。

4.5 職業管理

需要的新的領導風格、新的技能和對技術、數據和風險的進一步理解也需要新的職業管理方法。軍隊的職業管理系統(過于)頻繁地調動人員,但要形成具有必要信任度的有效團隊需要時間。軍隊可能會放慢關鍵人員的流動,甚至可能放慢團隊的流動,從而使總部高級團隊作為一個集體實體而不是個人來管理。然而,目前的人力資源實踐使軍隊或工業界不太可能愿意無限期地保留人們的職位以期待未來的需求。用拉斐爾-帕斯卡爾和西蒙-鮑耶的話說,這就產生了 "混合團隊",即那些成員不固定的團隊,對他們來說,迅速建立團隊信任的能力至關重要。即使是常設總部也會受此影響,特別是當他們成為 "整體部隊 "時。對于'臨時團隊',例如為特定任務而設立的臨時總部,這個問題就更加突出。需要有機制來加速信任的發展,經驗表明,這可以通過早期的行為實踐來實現,包括展示 "技術能力、信息公開、支持互惠和決策中被認為的誠信"。

放慢總部高級職位人員的流動速度將有所幫助,但這還不夠。在無法保證預先建立的團隊在需要時隨時準備好執行任務的情況下,需要有一種方法來減少組建新的部隊團隊的時間。模擬提供了一種方法,通過壓縮任務演練的時間來準備新組建的團隊,并為整個部隊的不同組成部分提供共同工作的經驗。軍隊在這方面做得很好;軍隊的社會化進程創造了強大的紐帶,包括派人到合作伙伴那里進行培訓、演習和任務。對于整個部隊的其他部分來說,這種對跨文化理解的投資是缺乏的。建立對對方的了解,從而建立信任,對文職部門來說同樣重要。軍隊可以做得更多,為其工作人員提供與商業部門合作的經驗,包括與技術專家、數據專家和編碼人員合作,而文職人員也需要更好地了解軍隊、其語言、流程和價值觀。武裝部隊可以通過提供交流任命和模塊化和/或縮短其課程來協助這一進程,使文職人員有可能參加。冠狀病毒大流行引入了新的工作方式,并加速了軍事訓練和教育的變化,這可以為信任提供基礎,在此基礎上可以出現新的團隊和總部類型。

簡而言之,人工智能輔助決策不僅僅是一個技術問題;它需要改變指揮結構、流程和人員技能,才能發揮其潛力,成為武裝部隊在所有任務中運作的一場革命。然而,至關重要的是,在適應不斷變化的戰爭特征時,武裝部隊不能忽視戰爭的持久性:指揮官必須保持領導者和戰士的身份,能夠激勵普通人在最困難的情況下做出非凡的事情,而不僅僅是善于管理戰斗的人。在軍事方面,人工智能是一種工具,可以最大限度地提高武裝部隊在激烈競爭環境中的獲勝機會。

5 結論

人工智能正迅速成為我們國家安全結構的一個核心部分。軍方和情報機構正在嘗試用算法來理解大量的數據,縮短處理時間,并加速和改善他們的決策。對人工智能越來越多的使用和熟悉可以促進對它的信任,但正如專家們的辯論所表明的那樣,要建立和維持對像人工智能這樣的變革性技術的信任,存在著嚴重挑戰。

本文重點討論了人工智能的作戰和任務支持應用,并探討了不斷發展的人與人工智能關系對未來軍事決策和指揮的重要性和影響。當軍事指揮官的角色從控制者轉變為團隊伙伴時,當我們不能再將輔助功能只賦予人工智能體時,那么我們就需要從根本上重新思考人類的角色和我們的機構結構。簡而言之,我們需要重新評估人機決策中信任的條件和意義。沒有這種信任,人工智能的有效采用將繼續比技術的發展更慢,而且重要的是,落后于我們一些對手采用人工智能的速度。

一個稍加修改的信任概念--一個不需要將意向性或道德性歸于人工智能體的概念--可以而且確實適用于AI。只要我們委托機器做可能對人類產生嚴重甚至致命后果的事情,我們就會讓自己變得脆弱。只要存在人工智能的表現達不到我們預期的風險,對它的任何使用基本上都是一種信任的行為。

除了最罕見的情況,對人工智能的信任永遠不會是完全的;在某些情況下,用戶可能有意識地同意較低的信任水平。這種信任需要考慮五個不同的元素,作者稱之為 "信任點"。我們不應該依賴任何一個單一的點來產生整體的信任。事實上,往往得到最多關注的領域--關于數據質量或人工智能輸出的可解釋性問題--從長遠來看,必然會提供不令人滿意的答案,并有可能對技術產生錯位的放心感。

最常被忽視的是在組織生態系統層面上對信任的需求。這需要重新思考武裝部隊的組織及其C2結構。如果說機器的作用越來越大曾經是官僚軍隊結構興起的關鍵驅動力,以集中管理手段,那么人工智能正在以根本的方式挑戰常備軍的這一特點。如果人工智能的使用不僅僅是模擬工作方式的數字化,國防部必須改變其在 "行動(operate)"和 "作戰(warfight)"方面的決策結構。它還需要與整體部隊的各個方面進行更密切的接觸和參與,包括其未被充分利用的后備部隊以及工業和更廣泛的政府。

領導力作為軍事職業的一個持久要素也需要重新考慮。人們傾向于將領導力視為軍事指揮的一種抽象或不可改變的品質。在人工智能時代,指揮任務或領導團隊既需要新的技能(如 "表達數字(speak digital)"的能力),也需要更多樣化的特質(例如,在數據和直覺發生沖突時,橫向思考的能力,構建問題的框架,并應用批判性的判斷)。與以往相比,人工智能更需要那些能夠理解復雜性、構建問題并根據情況提出正確問題的指揮官。這些 "故意的業余愛好者 "摒棄了早期狹隘的專業化,選擇了范圍和實驗思維;他們可以建立專家團隊,吸取專家的意見,使集體人才既廣泛又深入。這些全軍團隊將包括人類和機器,所有這些人都將根據他們在塑造和決策方面的專長作出貢獻。

在尋求回答信任如何影響軍事決策中不斷發展的人與人工智能關系時,本文提出了幾個需要進一步研究的關鍵問題:

  • 我們如何建立必要的信任,在戰術、作戰和戰略層面上重新配置指揮部的組織,其規模、結構、位置和組成
  • 我們如何調整軍事教育,使指揮官為人工智能時代做更好的準備
  • 我們如何優化和改造所有領域的集體訓練,以改善涉及與人工智能體更多協作的指揮
  • 我們如何運作 "全軍 "的概念,以更好地利用我們社會、工業和研究機構中的大量人才
  • 我們如何定義人工智能和人類在人機團隊中的需求和目標

如果我們不從根本上改變如何獲取、培訓和培養領導崗位的人員,以及如何改革他們所處的機構和團隊,我們就有可能在人機關系的信任平衡上出錯,并將無法利用人工智能的全部變革潛力。

作者

克里斯蒂娜-巴利斯是QinetiQ公司的培訓和任務演練的全球活動總監。她在大西洋兩岸有20年的經驗,包括咨詢、工業和公共政策環境,特別關注國防、全球安全和跨大西洋關系。她曾是華盛頓特區戰略與國際研究中心歐洲項目的研究員,Serco公司負責戰略和企業發展的副總裁,以及巴黎Avascent公司的負責人和歐洲業務主管。她擁有華盛頓特區約翰霍普金斯大學高級國際研究學院和意大利博洛尼亞大學的國際關系碩士和博士學位,以及英國和德國的商業學位。

保羅-奧尼爾是RUSI的軍事科學部主任。他在戰略和人力資源方面有超過30年的經驗,他的研究興趣包括國家安全戰略和國防與安全的組織方面,特別是組織設計、人力資源、專業軍事教育和決策。他是CBE,英國特許人事與發展協會的會員,溫徹斯特大學的客座教授,英國后備部隊外部審查小組的成員。

付費5元查看完整內容

這是一個顛覆性技術快速變革的時代,特別是在人工智能(AI)領域。雖然這項技術是由商業部門為商業開發的,但人工智能在軍事應用方面的明顯潛力,現在正促使世界各地的武裝部隊對人工智能防御雛形系統進行試驗,以確定這些系統如何能夠最好地用于作戰與和平時期的任務。

澳大利亞也不例外,在2020年國防戰略更新中分配了資金,開始將人工智能能力引入國防。這將涉及開發解決戰術級和戰略級軍事問題的人工智能應用程序,建立一個熟練的人工智能勞動力,并與澳大利亞合作伙伴和盟友合作,將倫理學納入人工智能應用程序,并進行人工智能實驗。今年在澳大利亞首都地區費爾伯恩設立的國防技術加速實驗室是這一計劃的具體行動體現。

彼得-雷頓(Peter Layton)的論文考慮了人工智能在未來海、陸、空作戰行動中的戰術和作戰層面上可能發揮的作用,為這一廣泛的活動做出了貢獻。這是一個很少被研究的領域,因為到目前為止,大部分的討論都集中在關鍵的技術問題上。這些審議表明,人工智能可能是未來戰爭中的一項重要技術,但仍有許多不確定因素。本文提供了一個起點,在此基礎上開始辯論,這將有助于解決其中一些不確定性。

本文認為,人工智能將滲透到大多數軍事機器中;然而,它的通用性意味著它很可能是在現有作戰層面結構中被使用。鑒于此,人工智能在中短期內的主要作戰用途是“尋找(find)和欺騙(fool)”。人工智能/機器學習尋找隱藏在高度混亂背景中的目標非常出色;在這個應用上,它比人類更好,而且速度更快。然而,人工智能可以通過各種手段被欺騙;其強大的尋找能力缺乏穩健性。這兩個關鍵特征在應用于當前海、陸、空作戰層面的思考時,可能會產生巨大的影響。

本文初步設計的作戰概念與沒有人工智能技術的作戰概念明顯不同。

所討論的概念旨在激發人們對人工智能戰場上人機協作作戰的思考。這樣的戰場在目前看來可能有些猜測,幾乎是科幻小說。即便如此,許多國家已經在規劃、研究和開發方面取得了很大進展。鑒于將軍事力量調整到新方向所需的漫長準備時間,這一旅程需要從現在開始。

人工智能(AI)技術突然變得對軍事力量很重要。美國國防部(US DoD)已將人工智能的投資從2016-17年約6億美元增加到2021-22年25億美元,橫跨600多個項目。中國已經通過了一項“下一代人工智能發展計劃”,旨在到2030年使中國成為人工智能領域的杰出國家,并使人民解放軍從“信息化戰爭”轉向“智能化戰爭”。更引人注目的是,俄羅斯總統普京宣布,“人工智能是未來......誰成為這個領域的領導者,誰就會成為世界的統治者”。這些高級別的倡議和聲明正在產生結果。

在美國,美國海軍(USN)的“海上獵人”號(USV)在沒有船員的情況下從加利福尼亞航行到夏威夷再返回,利用船上的傳感器、雷達和攝像機數據,通過人工智能進行導航。同時,在美國國防部高級研究計劃局(DARPA)的支持下,一架由人工智能驅動的F-16模擬戰斗機最近在多次模擬的近距離空戰中全面擊敗了由非常有經驗的人類飛行員控制的類似模擬。在一項研究陸戰的類似評估中,美國陸軍(US Army)已經確定,一支由人工智能驅動的部隊比一支非人工智能驅動的部隊擁有大約10倍的戰斗力。

中國目前正在應用人工智能,通過指揮和控制系統的自動化來提高其戰場決策的速度和準確性,制定預測性作戰計劃并解決情報、監視和偵察數據融合的挑戰。中國還開始試用人工智能USV,以備在南海使用,并開始試驗無人駕駛坦克,而一家中國私營公司公開展示了人工智能武裝的蜂群無人機。

俄羅斯落后于美國和中國,但現在正在實施一項國家人工智能戰略以迎頭趕上。在軍事領域,俄羅斯有幾項工作正在進行。一條主線是將人工智能應用于信息戰,在戰術上用于發動心理戰,在戰略上用于破壞對手國家的社會凝聚力。另一條線是通過開發無人駕駛地面車輛(UGVs)、遠程傳感器、戰術指揮和控制系統以及無人駕駛航空器(UAVs),使用人工智能來提高陸地作戰行動的有效性。另一個努力方向是國家防空網絡的指揮和控制系統的自動化。

初步跡象表明,人工智能可能是未來戰爭中一項非常重要的技術,但仍然存在不確定性。雖然人工智能在民用領域,特別是在消費類產品中,被廣泛使用,但在軍事環境中才剛剛接近實際部署。此外,它仍然沒有在真正的戰斗行動的惡劣試驗場上得到驗證。即便如此,人工智能已經成為軍事力量考慮其未來時不可忽視的技術。

重要的是,在可預見的未來,可用的人工智能技術是狹義的,而不是通用的。狹義人工智能等于或超過了人類在特定領域內特定任務的智能;其表現取決于應用環境。相比之下,通用人工智能等于人類在任何領域任何任務中的全部表現。何時能實現通用人工智能仍然值得商榷,但似乎還有幾十年的時間。近中期的全球軍事興趣在于如何在現代戰場上使用狹義的人工智能技術。

不足為奇的是,人工智能的定義往往與人類智能相提并論。例如,2018年美國國防部人工智能戰略將人工智能定義為“機器執行通常需要人類智能的任務......”。這種理解將技術擬人化,并無意中將對人工智能應用的思考限制在那些可以由人類執行的任務上。

在某些應用中,人工智能可能比人類做得更多或更少。人工智能和人類能力的維恩圖在某些領域可能會重疊,但認為它們重合是有點虛偽的。在提供解決問題的見解上,人工智能可能是智能的,但它是人工的,因此,它的思維方式是人類所沒有的。

因此,本文在考慮人工智能時,更多的是考慮這種技術能夠執行的廣泛功能,而不是考慮它與人類能力的關系。2019年澳大利亞國防創新委員會采取了這種方法,將人工智能定義為“用于執行以目標為導向的任務的各種信息處理技術,以及追求該任務的推理手段”。

初一看,這個定義似乎并不精確,沒有包括人工智能可能為軍事或民用目的實際執行任務。但這種模糊性是當代人工智能應用的一個關鍵屬性。人工智能可以以多種方式應用,可以被認為是一種普遍存在于社會中的通用技術。通用技術的一個早期例子是電力,現在它被廣泛使用,以至于它的持續存在和使用,就所有的意圖和目的而言,都是簡單的假設。電能使惰性機器活躍起來,人工智能也將以自己的方式,通過推理為它們提供完成任務的能力。人工智能似乎將注入許多軍事機器,因此未來的戰場將不可避免地以某種方式由人工智能支持。

為了取得對對手的作戰優勢,軍隊不斷尋求更大的戰斗力。傳統上,技術是以一種綜合的方式在戰場上使用的,它能最好地利用人類和機器的長處,同時盡量減少兩者弱點的影響。人工智能似乎也可能是類似的。可以預計,人工智能在與人類謹慎地合作時,而不是在某種獨立的模式下,會變得最有效。

這種考慮強調了新技術本身并不會突然間帶來戰場優勢,而是在于人類如何運用它。對早期技術創新的歷史分析指出,擁有指導如何使用這些新技術的合理概念是軍隊成功將其投入使用的關鍵。歷史學家威廉姆森-默里和艾倫-米萊指出:

  • 證據表明,首先,制定未來愿景的重要性。軍事機構不僅需要進行最初的智能投資,以發展對未來戰爭的設想,而且必須繼續對這種設想進行深入思考,以確定這些戰爭可能與以前的沖突有什么不同......在這方面任何對未來戰爭的設想幾乎肯定是模糊和不完整的,不是詳細和精確的,更不是任何科學意義上的預測。然而,愿景并不足以產生成功的創新。一個人對未來沖突的看法也必須是平衡的,并與行動的實際情況有很好的聯系。

在戰術層面,與戰爭現實的聯系是最緊密的。戰略規定了目標、總體方針和使用的力量,但在與聰明和適應性強的對手戰斗中處理這些力量的卻是戰術層面。雖然戰斗的成功可能不會導致戰略的成功,正如美國在越南的戰爭所說明的那樣,反之亦然。一個好的戰略在面對持續的戰術失敗時不可能成功。克勞塞維茨寫道:一切都取決于戰術結果......這就是為什么我們認為強調所有的戰略規劃都只依賴于戰術上的成功是有用的......這在任何情況下都是決策的實際基本依據。戰術通常被認為涉及友軍相互之間以及與敵人之間的分布和機動,以及在戰場上使用這些部隊。

本文旨在為在未來的人工智能戰場上使用人機團隊制定作戰概念。這樣的戰場,特別是當擴大到陸戰以外的空戰和海戰時,有一個混合的線性和深層的方面,具有消耗和機動的概念。設計這些作戰概念將為潛在的狹義人工智能系統如何在戰爭的戰術和作戰層面上使用提供一個廣闊的視野。

首先,本文討論了組成人工智能技術包的各種技術要素。這些要素包括先進的計算機處理和大數據,以及與云計算和物聯網(IoT)有關的具體方面。

第二章研究了利用人工智能發動戰爭的問題,并為防御和進攻制定了通用的作戰概念。這些概念位于作戰和戰術層面之間的模糊界面,涉及友軍相對于對手的分布和機動,以及友軍在戰場上的運用。

第三章、第四章和第五章分別將人工智能防御和進攻的兩個通用概念應用于海洋、陸地和空中領域。每個領域的戰斗在分配和操縱友軍以及與敵人交戰方面都有很大的不同,因此有必要提出單獨的人工智能作戰概念。沒有一個單一的概念能夠充分涵蓋所有三個領域,除非在很高的抽象水平上,但理解其含義可能會變得困難。提出這種具有前瞻性的概念似乎接近于投機性的小說。為了避免這種情況,每個概念都特意以當代作戰思維為基礎,并討論了當前和新興的人工智能支持的海、陸、空平臺和系統,以說明所提出的想法。

設計這些作戰概念的目的是激發思考,并啟動關于未來和如何備戰的辯論。本文提出的作戰概念旨在成為辯論其他人工智能戰場概念的實用性、可能性和有用性的基礎。只有通過對建議進行批判性分析,并不斷重構它們以進一步分析和演化,才能朝著最佳作戰概念取得進展。

本文所討論的概念在性質和范圍上都是有意限制的。就性質而言,海、陸、空的概念是:為了保持每個概念的重點,它們不是聯合或合并的。重要的是,這種狹隘性意味著一些領域并沒有包括在內,如俄羅斯在影響力戰爭中使用人工智能或中國在社會管理和內部防御中使用人工智能。出于類似的原因,每個概念都有一個狹窄的范圍,專注于戰爭,只有限地關注后勤,并避免關鍵領域,如教育、培訓、行政和指揮與控制。值得注意的是,除了與傳統的陸、海、空領域的戰術交戰的關系外,沒有討論網絡和空間這些新領域。

本文將人工智能這種新技術與戰爭的作戰方式和戰術使用選擇聯系起來。有了這樣一個重點,本文就與許多武裝部隊制定的眾多人工智能戰略和計劃不同。一般來說,這些戰略和計劃都是向內看的,目的是闡述人工智能作為一種技術將如何被研究、獲得并引入到他們的具體服務中。本文旨在補充這些人工智能技術戰略和計劃,將它們與更廣泛的作戰業務聯系起來,發揮作用。

付費5元查看完整內容
北京阿比特科技有限公司