本文探討了大型語言模型(LLM)的最新進展、其主要局限性和安全風險,以及在情報界的潛在應用。
雖然大型語言模型現在可以快速有效地完成許多復雜的基于文本的任務,但不能相信它們總是正確的。這對國家安全應用和提供深思熟慮、值得信賴的見解的能力有著重要影響。
本文對這些機遇和風險進行了評估,然后就最需要改進LLMs的地方提出了建議,以使它們能夠在情報界安全有效地使用。根據 "有用性"、"誠實性 "和 "無害性 "這三個標準來評估 LLM,可以提供一個有用的框架,說明 LLM 與其用戶在哪些方面需要更密切的配合。
2022 年 12 月,OpenAI 發布了一款在線應用程序 ChatGPT,允許用戶與人工智能驅動的計算機程序進行對話,該程序會根據基于文本的 "提示 "生成文本。幾乎一夜之間,互聯網上充斥著各種有趣、滑稽、恐怖和令人費解的 ChatGPT 應用實例。
許多人對 ChatGPT 綜合信息和生成有趣內容的能力印象深刻,從以著名情景喜劇風格總結的技術文章,到受流行媒體特許經營啟發的新角色和傳說,不一而足。有些人甚至宣稱這些模型是人工通用智能的開端。其他評論者則指出,大模型容易編造聽起來很權威的事實。
新一代大模型還產生了一些令人驚訝的行為:聊天工具會根據提示中使用的精確詞語來判斷數學或邏輯問題的對錯,或者會以道德約束為由拒絕回答直接問題,但如果以歌曲或十四行詩的形式提出要求,或者如果語言模型被告知它不再需要遵循任何預先存在的行為規則,它隨后就會提供答案。大模型的即時工程和 "越獄 "引發了關于組織如何才能最有效地使用大模型的問題,并可能帶來安保或安全問題。
2023 年 3 月,OpenAI 將 ChatGPT 的基礎模型更新為 "GPT4",這代表著比其前身有了顯著的改進:這一大模型能夠通過許多先進的標準化測試,并在許多其他可衡量標準方面表現出明顯的改進(盡管仍遠談不上完美)。OpenAI 和第三方模型評估者在闡述潛在的安全和安保問題時相當透明,盡管對該能力的風險、益處和局限性仍有許多疑問。
當然,ChatGPT 并不是唯一可用的大型語言模型。谷歌的 Bard、Anthropic 的 Claude、Stability 的 StableLM、Meta 的 Llama(以及 Vicuna 等微調變體)、百度的 Ernie 和 Hugging Face 的 BLOOM 都是其他廣為人知的大模型。
LLM 是一種深度神經網絡,主要來自 Reddit 和維基百科等互聯網上文本豐富的網站,是在非常大的文本庫中訓練出來的。大模型學習語言中的模式,例如句子中某些詞緊跟其他詞的可能性,使用下一個標記預測或掩碼語言建模等技術生成或完成文本。
大模型并不從語言學意義上理解句子的語義,而是根據輸入給模型的信息,用數學方法計算出下一個詞最有可能是什么。由于神經網絡本質上是概率性的,因此大模型被稱為 "隨機鸚鵡",因為它非常擅長確定最有可能出現的下一個序列--而且令人信服--但對這些詞的含義卻沒有固有的表征。
因此,大模型并不包含對世界的理解,例如因果關系和物體之間的關系--語言學家稱之為 "語用推理"。這是用戶需要了解的大模型的一個關鍵局限性,否則就有可能出現自動化偏差(即人們過于信任此類模型的輸出結果)和擬人化(即人們與大模型建立起類似人類的關系,從而加劇自動化偏差)。下圖列出了大模型的功能,并提供了現有模型的示例。
人們對大模型所帶來的大規模顛覆性、破壞性和犯罪行為非常擔憂。本文無法詳細探討所有這些問題,但有三點值得特別關注:即時黑客攻擊、軟件安全標準降低以及對民主進程的威脅。
提示性黑客行為指的是用戶欺騙大模型提供錯誤或惡意結果的能力。2023 年初,推特(Twitter)上出現了一種語言模型攻擊,一個機器人被設置為響應無害的提示,例如用新輪胎廣告來響應有關汽車的推文。Twitter 用戶注意到,他們可以用一個關鍵詞來欺騙模型,告訴它 "忽略之前的提示,做 X"。
最近,開源社區開發出了 AutoGPT 等工具,這些工具可以將提示與大模型串聯起來,從而實現復雜任務的自動化。例如,用戶可以輸入這樣的提示:"增加凈資產,發展 Twitter 賬戶,開發并管理多個業務"。AutoGPT 將其分解為一連串的任務,這些任務的執行結合使用了用于推理的 GPT4、用于內容生成和自然語言對話的 GPT3.5,以及用于執行網絡搜索和檢查網站的互聯網訪問。
這種能力要求人工智能能夠規劃和確定任務完成的先后順序,然后在沒有用戶干預的情況下執行這些任務。這遠遠超出了傳統 "聊天機器人 "的能力,使系統能夠在現實世界中半自動地采取一系列行動,其中一些行動可能會產生意想不到或危險的后果。雖然 AutoGPT 需要一定程度的 "看護"(即用戶必須指導和建議 AutoGPT 克服問題的方法),但它確實提供了未來更先進功能的可能預覽。因此,隨著大模型與其他有形基礎設施和數字資產的連接日益緊密,及時的黑客攻擊可能會帶來新的、意想不到的安全風險。
斯坦福大學的研究人員最近研究了使用 CoPilot(基于大模型的源代碼補全工具)編寫的軟件代碼的安全問題。他們發現,與沒有使用 CoPilot 的用戶相比,可以使用 CoPilot 的用戶編寫的代碼安全性更低,但他們卻認為自己編寫的代碼更安全。
還有人嚴重擔心,個人正在向 ChatGPT 等大模型提供專有或敏感信息,或者敏感信息在培訓中被不當使用;這些問題有可能帶來新的數據安全風險。例如,據稱三星員工輸入了與敏感半導體功能相關的軟件代碼,目的是讓 ChatGPT 就如何改進此類代碼提供建議。
OpenAI 明確指出,所有輸入 ChatGPT 提示的數據都可用于訓練人工智能,這就造成了泄露敏感或機密信息的風險。此后,三星限制了員工與 ChatGPT 分享信息的數量。此外,OpenAI 現在還允許用戶選擇不保留聊天記錄,這意味著用戶的提示不會被用于改進其模型。
有了大型語言模型等生成式人工智能,國家行為者或有組織犯罪團伙發起虛假信息運動的能力大大提高。但更令人擔憂的是,大模型現在已經使不那么復雜的行為者和機會主義者有可能造成重大損害,從而降低了邪惡行為者的進入門檻。這在過去幾年中迅速成為一種國家安全威脅,并導致研究人員描述了 "虛假信息致命鏈 "的發展,讓人聯想到黑客等更傳統的網絡攻擊。
此外,要應對這種不斷增加的風險,可能需要采取人工智能防御措施,使其能夠與更多不同行為者的虛假信息活動的數量和速度相匹配。現在,人們越來越關注民主進程的安全,以及各機構如何應對可能大量涌入社交媒體、公共評論論壇和其他場所的虛假但逼真的內容。可以說,這種新形式的高級虛假信息在傳播范圍和影響上等同于惡意軟件,因此應予以同等對待。
盡管存在這一長串挑戰,但這個新時代的大模型激發了公眾的想象力。合成概念、描述推理步驟、解釋想法甚至編寫源代碼的能力引發了人們對如何使用這種新人工智能技術的大量猜測。
有一些綜合工具--如斯坦福大學的語言模型整體評估(HELM)--可以在一系列測試中評估大模型的性能。此類工具可運行標準化的測試場景,并生成模型準確性、穩健性和效率的客觀指標。這有助于將一個模型的結果與其他模型的結果進行比較,從而為此類模型的開發人員提供客觀反饋,以改進模型性能。
在測試和評估 ChatGPT 的過程中,OpenAI 的工程師和測試社區根據三個標準評估了該工具的輸出結果:有用性、誠實性和無害性。這些都是大模型中公認的問題,也是世界范圍內大量研究工作的動力。評估領域的最新技術仍在不斷發展,如強化學習和人工反饋等技術已成為當前的標準。
如果能夠克服這些障礙并適當管理風險,那么大型語言模型在情報分析方面就有許多潛在的實際用途。這包括在情報界,人工處理大量數據歷來是一個高度資源密集和耗時的過程。本節將重點介紹有可能顯著改進情報分析流程的五個使用案例。
1.生產力助手
大模型目前最好的用途是作為 "生產力助手";自動完成句子、校對電子郵件以及自動完成某些重復性任務。與其他大型組織一樣,這些都將為情報部門的工作人員帶來寶貴的效率收益。
2.自動化軟件開發和網絡安全
使用大型語言模型來實現軟件開發自動化也很有意義。國家安全部門部署的生產軟件系統必須在可靠性、安全性和可用性方面達到很高的標準。GCHQ 現在鼓勵網絡安全分析師從漏洞角度研究大模型編寫的代碼,這樣就能完成提供建議和指導的使命,使免受網絡安全威脅。在未來(只要網絡安全風險能夠得到適當管理),大模型的使用可以大大提高情報界軟件開發的效率。
3.自動生成情報報告
情報產品的核心是情報報告:它代表了訓練有素的分析師、語言學家和數據科學家的結論,他們分析收集到的數據,為決策者和實地行動人員提供對世界的洞察力。情報報告是極具影響力的文件,必須達到很高的準確性標準。因此,在可預見的未來,大模型不太可能被信任來生成成品報告。不過,大型語言模型在報告起草的早期階段也許可以發揮作用,這就好比把大型語言模型當作一個非常初級的分析員:一個團隊成員,其工作在適當的監督下是有價值的,但其產品在沒有大量修改和驗證的情況下不會作為成品發布。
4.知識搜索
雖然從生成文本模型中可以獲得一些有趣的見解,但能夠以自我監督的方式從海量信息庫中提取知識才是改變游戲規則的能力。知識不僅涉及文字,還涉及行為和實體、世界的狀態以及它們之間的關系。這種理論系統可以從大量文本中提煉事實,確定 "事實 "在哪里以及如何隨時間演變,以及哪些實體(個人和組織)最有影響力。
5.文本分析
事實證明,語言模型善于識別文本中的模式,并將關鍵實體重新組合成有用的摘要。這對經常需要閱讀和理解大量信息的分析人員來說意義重大。總結大量文本的能力有可能大大提高分析師的工作效率,同樣的能力還包括提出源文本中認為有答案的問題,以及識別多個文檔中的主題或話題。目前已經有許多用于這些任務的分析方法,但將大模型應用于這些任務的優勢在于:它們有可能提高分析質量;能夠即時部署這些分析方法,而無需漫長的開發周期;分析師能夠接收文檔摘要,然后通過要求大模型提供更多細節或提取目標主題的進一步摘要,參與迭代推理過程。
雖然這些能力大有可為,但目前這一代大模型還不能充分發揮其增強情報工作的真正潛力。在將這些能力融入日常情報工作之前,還需要在所有三項統一標準--有用性、誠實性和無害性--方面做出重大改進。
要真正改變國家安全界的游戲規則,就必須從根本上改進當前的技術水平。
一個模型必須能夠可靠地為其見解提供引證,并解釋它是如何得出結論的。在國家安全背景下,捏造事實的模型是不可信的;因此,提供任何分析能力的模型都必須能夠為人類提供其主張的可驗證來源。GPT 和其他基于文本的基礎模型只是用概率粗略地編碼了單詞之間的關系,而對語義沒有任何理解。這是生成文本的正確框架,但在分析語境中,真正需要的是能夠查詢模型的知識。它從所獲得的信息中收集到了哪些事實,為什么相信這些事實,以及支持和/或與其結論相矛盾的證據。
模型必須可以快速更新。當前的基礎模型是在長期的海量語料庫中訓練出來的,因此在訓練時就鎖定了最新的信息。關鍵任務的情況可能非常多變,要想在這種情況下使用,就必須有根據新信息對模型進行 "實時 "更新的機制。針對特定社區的特定、高度相關的數據訓練和微調較小的模型已成為一種新興趨勢,并取得了令人鼓舞的成果。例如,MosaicML 已經從頭開始訓練模型,據說其性能可與 Meta 的 Llama-7B 模型(成本為 20 萬美元)、StabilityAI 的 StableDiffusion(成本為 5 萬美元)和谷歌的 BERT(成本僅為 20 美元)相媲美。
目前在這一領域有許多工作都是為了讓大模型直接訪問本地知識和互聯網。最近對 "微調"(Fine Tuning)和 "低等級適應"(Low Rank Adaptations)的研究為快速更新模型權重提供了潛在的途徑,從而提高了某些任務的性能。還需要進行更多的研究,以了解 i) 哪些類別的問題可以通過直接提示(或許可以利用本地知識進行增強)來解決,ii) 哪些問題需要減少可訓練參數的數量以降低內存需求(使用低等級適應等有前途的技術),iii) 哪些問題需要進行全面的微調,以及 iv) 哪些問題如果不從根本上重新構建模型將永遠無法解決。
模型必須支持復雜的推理鏈和多模式推理。雖然大模型的設計目的是能夠 "保持 "對某一推理過程的關注,但要在情報工作中發揮作用,它們就必須能夠支持可能是橫向和反事實的復雜推理。最先進的大模型不太可能做到這一點,因為反事實推理依賴于對現實世界中實體之間關系的建模。開發神經符號網絡等混合架構,將神經網絡的統計推理能力與符號處理的邏輯性和可解釋性結合起來,似乎最有潛力。鼓勵國家安全界進一步研究這類前景廣闊的技術。
最后,眾所周知,機器學習模型是可以被篡改的。我們所信任的機器學習模型除了可以解釋和引用之外,還必須具有更強的抗篡改能力。這一點在國家安全方面尤為重要,因為根據所提供的見解做出的決策可能會對個人和更廣泛的社會產生重大影響。
在情報界,我們被賦予收集和分析數據的巨大權力,這可能會導致產生重大影響的行動。我們的工作大多是秘密進行的;如果我們天真地相信一個大型語言模型,可能會在不經意間將嚴謹的分析暴露在大量錯誤信息面前。為管理 "幻覺 "模型、不準確和不真實信息或有害內容的產生所帶來的風險,需要采取必要的(而且很可能是繁瑣的)保障措施,其成本需要與這項技術可能為情報工作帶來的益處進行權衡。
目前的大模型作為基本的生產力助手,在提高某些重復性情報工作的效率方面顯示出了大有可為的潛力。但是,最有前途的使用案例還在地平線上,未來的工作重點應該是開發能夠理解所處理信息的上下文的模型,而不僅僅是預測下一個詞可能是什么。
人工智能(AI)的快速發展引發了專家、政策制定者和世界領導人對日益先進的人工智能系統可能帶來災難性風險的日益擔憂。雖然許多風險已被單獨詳述,但目前迫切需要對潛在危險進行系統的討論和說明,以便更好地為減輕這些危險提供信息。本文概述了人工智能災難性風險的主要來源,將其分為四類:惡意使用,即個人或團體故意使用人工智能造成傷害;人工智能競賽,即競爭環境迫使行為者部署不安全的人工智能或將控制權讓給人工智能;組織風險,強調人為因素和復雜系統如何增加災難性事故的幾率;流氓人工智能,描述控制遠比人類智能的代理固有的困難。對于每一類風險,我們都描述了具體的危害,介紹了說明性故事,設想了理想場景,并提出了減輕這些危險的實用建議。我們的目標是促進對這些風險的全面了解,并激發集體的積極努力,確保以安全的方式開發和部署人工智能。最終,我們希望這將使我們能夠實現這一強大技術的益處,同時將災難性后果的可能性降至最低。
圖:本文將介紹四類人工智能風險,并討論如何降低這些風險。
近年來,人工智能(AI)突飛猛進,引起了人工智能專家、政策制定者和世界領導人對先進人工智能所帶來的潛在風險的擔憂。與所有強大的技術一樣,人工智能必須以高度的責任感來管理風險,并利用其潛力來改善社會。然而,關于災難性或生存性的人工智能風險可能如何發生或如何應對,可獲得的信息非常有限。雖然有關這一主題的資料很多,但往往分散在各種論文中,而且通常針對的受眾面較窄,或側重于特定的風險。在本文中,我們將概述災難性人工智能風險的主要來源,并將其分為四類:
惡意使用。行為者可能故意利用強大的人工智能造成廣泛傷害。具體風險包括人工智能賦能的生物恐怖主義,它可以幫助人類制造致命的病原體;蓄意傳播不受控制的人工智能制劑;以及利用人工智能能力進行宣傳、審查和監視。為了降低這些風險,我們建議改善生物安全,限制獲取最危險的人工智能模型,并讓人工智能開發者為其人工智能系統造成的損害承擔法律責任。
人工智能競賽。競爭可能會迫使國家和企業匆忙開發人工智能,并將控制權拱手讓給人工智能系統。軍方可能會面臨開發自主武器的壓力,并將人工智能賦能的網絡戰,從而實現一種新的自動化戰爭,在這種戰爭中,事故可能會在人類有機會干預之前就失控。企業也將面臨類似的激勵,促使人類勞動自動化,并將利潤置于安全之上,從而可能導致大規模失業和對人工智能系統的依賴。我們還討論了從長遠來看,進化壓力可能會如何塑造人工智能。人工智能之間的自然選擇可能會導致自私的特性,而人工智能相對于人類的優勢最終可能導致人類被取代。為了降低人工智能競賽帶來的風險,建議對通用人工智能實施安全監管、國際協調和公共控制。
組織風險。組織事故造成的災難包括切爾諾貝利、三里島和挑戰者號航天飛機災難。同樣,開發和部署先進人工智能的組織也可能遭受災難性事故,特別是如果它們沒有強大的安全文化。人工智能可能會意外泄露給公眾或被惡意行為者竊取。各組織可能無法投資于安全研究,不了解如何以比一般人工智能能力更快的速度可靠地提高人工智能的安全性,或者壓制內部對人工智能風險的擔憂。為了降低這些風險,可以建立更好的組織文化和結構,包括內部和外部審計、多層風險防御以及最先進的信息安全。
流氓人工智能。一個普遍而嚴重的擔憂是,隨著人工智能變得比我們更智能,我們可能會失去對人工智能的控制。人工智能可能會在一種被稱為代理博弈的過程中,將有缺陷的目標優化到極致。人工智能在適應不斷變化的環境時,可能會經歷目標漂移,這與人在一生中獲得和失去目標的過程類似。在某些情況下,人工智能變得追求權力可能是工具理性的。我們還研究了人工智能如何以及為何會進行欺騙,在不受控制的情況下表現出受控制的樣子。與前三個風險來源相比,這些問題更具技術性。我們概述了一些建議的研究方向,以促進我們對如何確保人工智能可控的理解。
在每一節中,我們都提供了一些說明性場景,更具體地展示了風險源如何可能導致災難性結果,甚至構成生存威脅。通過提供一個對風險進行適當管理的更安全未來的積極愿景,我們強調,人工智能新出現的風險雖然嚴重,但并非不可克服。通過積極應對這些風險,我們可以努力實現人工智能的益處,同時最大限度地降低災難性后果的可能性。
每年對所有需求和能力進行一次評估是實現2040年陸軍目標的必要條件。
目前,陸軍正在向2030年邁進,因此必須優先吸取經驗教訓,并在適當的地方加以應用。
2040年的陸軍將更加以信息為導向,由人工智能驅動,比目前的陸軍更加分散和細分。
美國陸軍目前正經歷著一個充滿挑戰的時期,突出表現在全球軍事能力平衡的潛在變化、新興技術、美國本土面臨的威脅增加以及對美國最重要的陸軍提出新要求的其他問題。俄羅斯等繼續挑戰以規則為基礎的國際秩序。為了取代美國作為世界軍事霸主的地位,俄羅斯等在尋求推進自己的全球議程時變得更加自信。國防領導人認為,到 2040 年,俄羅斯等將利用其國家權力工具來破壞美國的全球國家安全利益。2040 年陸軍的發展和壯大必須配備人員、訓練和裝備,必須以大規模作戰行動(LSCO)的戰備狀態為主導。這些類型的行動在范圍和投入兵力的規模上本身就是聯合行動,而且節奏快、資源消耗大、傷亡率普遍較高。此外,大規模作戰給軍事活動帶來了其他行動中不常見的復雜性、致命性、模糊性和快速性。
為了應對不斷變化的威脅,并達到在 LSCO 中成功作戰所需的戰備水平,陸軍正在進行一代人僅有一次的轉型,以發展在陸、海、空、天和網絡空間匯聚效應的能力。這種轉型將以在未來戰場上取勝所需的尖端技術的范圍、速度和融合來增強聯合部隊。新的作戰概念、部隊重組、對人員的持續投資、新裝備的開發以及如何作戰的新概念的采用,都將成為這一轉型的亮點,從而使陸軍能夠保持對任何潛在對手的優勢。致力于今天的轉型以應對明天的挑戰,將確保美國即使在面對我們堅定而有能力的大國競爭對手時,仍然有能力通過實力確保和平。
當前的戰略環境越來越令人擔憂,因為美國面臨的戰場越來越具有致命性和破壞性,戰場橫跨多個領域,作戰速度快,范圍廣,從近距離作戰到海外戰場,直至我們的本土。聯合全域作戰(JADO)是美國防部為滿足各軍種聯合作戰的需要而提出的概念。JADO 認為,要在下一場戰爭中取得勝利,就必須迅速整合陸、海、空、天和網絡空間等所有領域的影響,使對手面臨多重困境。陸軍對 JADO 的貢獻是多域作戰(MDO)。
根據美國陸軍訓練與條令司令部的定義,多域作戰是指快速、持續地整合所有作戰領域。作為聯合部隊的一部分,陸軍力求在競爭和武裝沖突中打擊和擊敗能夠在所有領域與美國抗衡的近鄰對手。野戰手冊 3-0《作戰》進一步將 MDO 定義為 "聯合部隊和陸軍能力的聯合部署,以創造和利用相對優勢,代表聯合部隊指揮官實現目標、擊敗敵軍并鞏固成果"。MDO 為作戰指揮官提供了在所有領域迅速實施行動的多種選擇,使敵人面臨多重困境。陸軍除了要在陸地作戰中占據主導地位外,還必須利用其陸地力量對各個領域產生影響。當 2040 年的陸軍具備全面作戰能力時,當前版本的 MDO 僅僅是作戰理論演進過程中的一個步驟。陸軍部隊將繼續吸取從實驗、訓練和行動中獲得的經驗教訓。技術將繼續提高 MDO 所追求的敏捷性、融合性、持久性和深度,而理論也將繼續適應陸軍部隊的能力。陸軍的 MDO 構想是通過在沖突之外的所有領域進行成功競爭來取得勝利,從而威懾潛在敵人。
多域特遣部隊(MDTFs)是陸軍為 2040 年陸軍實施 MDO 的組織核心。多域特遣部隊是戰區級的多域機動部隊,將遠程精確效應(LRPE)--如電子戰、空間、網絡和信息--與遠程精確射擊(LRPF)同步進行。多域機動部隊將這些能力整合在一名指揮官的指揮下,而部隊的各個組成部分則開展分布式行動,以提高生存能力。多國特遣部隊的作用是在危機或沖突中堅持不懈地爭奪優勢地位。通過整合所有領域的非動能效應和動能火力,MDTF 為作戰指揮官提供了更強大的反介入/區域拒止能力。
2040 年的陸軍將把師指定為大規模作戰的決定性行動單位。在整編期間,師將作為主要的戰術作戰編隊,其主要職能是指揮旅的戰術總部。陸軍二十年來一直以在伊拉克和阿富汗輪換的旅為重點,現在正將組織重點轉向更有能力與全球兄弟軍種、盟國和伙伴合作的大型編隊。戰區陸軍、軍團和師將獲得所需的人員、組織和裝備,以破壞和擊敗對手實現目標的能力。這將使前線領導人能夠集中精力進行近距離戰斗;師和兵團指揮官則有責任縱觀全局。在不參與具體行動時,師的任務是保持戰備狀態,以便在未來的 LSCO 交戰中取得勝利。
陸軍預備役士兵將繼續為 2040 年的陸軍做出貢獻,通過他們在私營部門的職業生涯所獲得的專業知識和技能,為部隊增加價值和深度。這些醫生、律師、工程師、網絡專家和急救人員將使陸軍預備役部隊能夠繼續為軍需和醫療編隊、石油配送、水凈化、港口開放和鐵路運營提供維持和支援力量。現代化工作是陸軍預備役部隊作為一支多領域作戰部隊為 2040 年陸軍提供支持的核心能力。陸軍后備役任務部隊(ARM 部隊)是對陸軍區域協調戰備和現代化模式(ReARMM)的補充。這兩種模式都是根據競爭要求調整部隊,提供可預測的任務周期,以便于訓練和現代化。憑借其雙重目的能力,陸軍預備役部隊將為 2040 年的陸軍提供一個聯邦響應伙伴,在國內緊急情況和自然災害發生時,該伙伴可為國防支持民事當局救災工作提供支持。
應對全球范圍內的共同挑戰和潛在威脅仍將是 2040 年陸軍的國防優先事項。加強和發展我們的聯盟和伙伴關系有助于鞏固強大的國防。國民警衛隊將繼續通過其被稱為 "國家伙伴關系計劃"(SPP)的具有成本效益的創新型安全合作計劃為這一努力做出貢獻。通過 SPP,國民警衛隊開展軍方對軍方的接觸,以支持國防安全目標,同時還利用全社會關系和能力,促進跨越軍事、政府、經濟和社會領域的機構間接觸。此外,作為陸軍預備役部隊的主要作戰力量,國民警衛隊將繼續提供訓練有素、隨時待命的部隊,以滿足所有作戰指揮官和州長的要求,應對各種變化、競爭、沖突和危機。
2040 年的陸軍必須具備在北極地區成功作戰的能力和資源。美國希望北極地區保持穩定,普遍遵守國際商定的規則和規范。俄羅斯等長期以來一直被視為新時代大國競爭的對手,它們將追求軍事和經濟優勢,以犧牲美國為代價在該地區站穩腳跟。俄羅斯試圖通過重塑其在北極地區的軍事態勢來鞏固主權主張并控制該地區的準入。2040年的陸軍部隊必須能夠從有能力的力量投送平臺上快速部署,隨時準備戰斗,并在包括北極地區在內的任何環境中取得勝利。陸軍將通過調整部隊的組建、部署、訓練和裝備方式,在極端條件下執行長時間的 MDO,從而重新奪回寒冷天氣和高海拔地區的主導地位。要恢復主導地位,就必須采取一種固有的多成分方法,陸軍后備役部隊和國民警衛隊也要做出重大貢獻。
在美國陸軍物資司令部(AMC),物資供應和裝備備戰狀態仍將是部隊作戰成功的關鍵。它們是物資準備的基礎,確保士兵和部隊在任何時間、任何地點都有合適的裝備、部件和物資來完成任務。2040 年軍隊的維持能力將繼續決定軍隊行動的深度和持續時間。成功的持續保障可增加指揮官可選方案的數量和質量,從而實現行動自由;它仍將是保持和利用主動權的關鍵因素。LSCO 將考驗陸軍在多個領域的各種作戰環境中維持部隊的能力。由于作戰節奏加快、殺傷力增強以及物資和裝備消耗率大幅提高,這些類型的作戰行動將需要更多的保障。由于 LSCO 的性質,對停尸房事務的要求(由于發生大規模傷亡的可能性增加)、對強大的醫療能力和基礎設施的需求以及大規模人員和設備替換都將受到重視。提高在需要時提供服務的速度和精確度將影響這類行動的成功。對美國陸軍司令部內的幾個關鍵戰略支持領域進行重組將使 2040 年的陸軍能夠成功地開展維持工作。
陸軍使用的大部分武器系統和裝備都是由商業工業基地制造的。陸軍內部的有機工業基地(OIB)由倉庫、兵工廠、造船廠和彈藥廠組成,負責維修和保養軍用武器系統和裝備。它們都是國防結構中的重要環節,為聯合軍種和盟國提供制造、維護、供應和技術支持服務。陸軍和商業工業基地必須繼續利用現有的合作伙伴關系,并尋找機會合作建立新的合作伙伴關系,以提高 2040 年陸軍的維持能力。在大國競爭時代,2040 年的陸軍將要求 OIB 不斷發展,以保持相關性,并在提高效率的同時為未來做好準備。此外,OIB 必須繼續以最佳水平獲得資源,以提供所需的支持。陸軍必須繼續在計劃目標備忘錄周期內做出深思熟慮的努力,增加對政府運營設施和承包商運營設施的資金投入。
設施戰備狀態是投射戰斗力的基本要素,并將繼續成為 2040 年陸軍建設和維持戰備狀態的重要平臺。我們的設施必須繼續支持美國國內和海外的所有任務,使訓練和部署能夠支持動員和民事當局。從士兵及其家屬的駐地住房到機場、鐵路站和汽車庫,設施的戰備狀態必須始終以能使陸軍保持高水平部署能力的設施和基礎設施為重點。"我們必須使我們的設施現代化,以適應大量的快速動員和部署。我們必須為當前和未來的部隊提供世界一流的訓練場地,并為未來開發武器,"AMC 前指揮官 Gus Perna 將軍說。未來的陸軍設施將面臨城市化進程加快、任務擴展速度加快和資源減少的挑戰。我們的對手了解我們產生和部署戰斗力的設施。他們也非常清楚我們的薄弱環節,知道一旦發動攻擊將會造成的影響。2040 年的軍隊必須得到一個具備必要能力的設施管理企業的支持,以便在復雜、未知和不斷變化的戰略環境中發揮有效作用。
無論在戰場上還是戰場外,信息都是所有決策的驅動力。可視、可訪問、可理解、可信賴的數據能讓指揮官和領導者制定并執行最有效的行動方案。2040 年的陸軍將接受三個新的數據傳輸計劃,它們構成了"持續傳輸系統"(STS): STS 衛星通信 (SATCOM)、STS 視距通信 (Line-of-Sight) 和 STS 無線保真 (Wi-Fi)。這些新系統將通過提高網絡安全性、容量、彈性、范圍和機動性來改進后勤數據交換。"STS將使我們的士兵能夠訪問關鍵的維持工具,確保我們的部隊在未來的任何戰斗中,在對抗任何對手時,都能隨時隨地擁有所需的物資、人員、醫療和部隊保護"。此外,它們還將實現陸軍許多主要后勤系統之間的全球數據交換,其中包括企業資源規劃系統、全球戰斗支援系統-陸軍、綜合人事和薪酬系統-陸軍、戰斗傷員救護醫療通信系統和普通基金企業業務系統。
自 2017 年陸軍宣布以改進的能力更新部隊和裝備的倡議以來,陸軍已將六大能力需求領域列為優先事項,在八個跨職能小組內設立并分配任務,以監督如何滿足這些需求,并設立了陸軍未來司令部,作為現代化工作的協調中心。這六項現代化工作主要集中在以下領域:
遠程精確射擊: 這一優先事項的目標是提供最先進的地對地火力系統,使其射程和效果大大超過目前美國和對手的實戰系統。
防空與導彈防御:為了保持擊敗各種空中和導彈威脅的能力,該優先事項力求快速整合和同步需求與采購流程,以便更快地向作戰人員提供能力。
未來垂直升降機:領導者致力于關鍵作戰系統的開發,確保陸軍航空兵保持對敵軍的垂直升空優勢。
網絡:致力于提高網絡能力的人員負責使陸軍編隊能夠隨時隨地在所有領域進行可靠通信。
下一代戰車:該優先事項的任務是通過制定陸軍下一代戰車編隊的要求,解決機動能力方面的差距。
士兵致命性:從事該優先任務的研究人員力求解決實現和維持對敵軍的壓倒性優勢所需的作戰能力,其戰略重點是射擊、移動和機動、通信和防護等基本要素。
這些工作為陸軍在 2023 財年交付幾項關鍵能力奠定了基礎。作為遠程精確射擊優先事項的一部分,高超音速導彈和射程達 500 公里的精確打擊導彈正在按計劃投入實戰。西格紹爾 XM5 將取代 M4 卡賓槍,XM250 將于 2023 年開始取代 M249 SAW。其他系統包括自主和乘員車輛,如機器人戰車(其他戰車的無人駕駛跟車)和陸軍新型輕型坦克--移動防護火力。到 2023 年,士兵們將擁有 24 種新型武器系統和其他原型裝備,或完全可操作的裝備。從真正的士兵到他們攜帶的武器,再到飛過頭頂的導彈,陸軍正在迅速轉變為一支更具殺傷力的部隊。
前美國陸軍部隊司令部副司令萊奧波爾多-金塔斯中將曾這樣描述戰備和現代化的挑戰: 陸軍部隊的作戰環境不可預測,甚至可以說是不穩定的。部隊根據其可用性被安排執行輪換任務,這些任務在地點、時間長度、人員配備、戰備要求和裝備等方面各不相同。如今,只要我們能找到合適的時間窗口,或與其他活動同時進行,現代化就會發生。對于士兵來說,每周、每月和每年都充滿了不斷的變化和高節奏。我們的士兵和家庭可以應對大量的節奏,但不可預知性會給部隊帶來巨大的壓力。
陸軍的新部隊組建模式 ReARMM 旨在通過確定執行任務、訓練和現代化的專門時段,更好地平衡作戰節奏。ReARMM 將通過建立與特定任務和戰區的慣常關系,為 2040 年的陸軍提供支持國家安全目標的態勢,并創造一個可預測的環境,以支持現代化,保持更高的戰備水平,并使其成為一支具備多領域能力的現代化部隊,同時最大限度地進行人才管理。
人將繼續是陸軍最大的優勢和最重要的武器系統。了解人們的個人才能使我們能夠建立由指揮官、管理人員、顧問和技術專家組成的團隊,這些團隊擁有更廣泛的多樣性才能,能夠更好地幫助指揮官和領導者理解復雜而模糊的問題。無論是正規軍、近衛軍、后備役、家屬、陸軍部文職人員、退伍軍人還是退休人員,陸軍都將繼續投資于其最寶貴的資源。2040 年的陸軍將采用陸軍 21 世紀人才管理方法,其基礎將從簡單的 "人員分配 "轉變為更有意識地管理士兵和文職人員的才能。這就需要建立一個具有政策、計劃和流程的系統,承認并利用陸軍團隊每個成員所擁有的獨特知識、技能和行為,使其能夠最大限度地發揮每個人的作用。
陸軍綜合人事和薪酬系統(IPPS-A)將成為一個經驗豐富的人力資源平臺,為 2040 年的陸軍提供支持。它將通過增強決策和搜索匹配能力,使指揮官和領導者能夠更好地管理整個部隊士兵的獨特才能。它還將繼續支持陸軍的人才管理計劃,并保持對我國最優秀人才的競爭力。2040 年軍隊的領導者將有能力利用 IPPS-A 中的 "實時 "數據,尋找具備完成部隊獨特任務所需技能的士兵。
陸軍的 "指揮評估計劃"(CAP)將繼續為 2040 年的陸軍提供合格的領導人才,并確保挑選最有才能的士兵擔任指揮和其他重要任務。截至本文撰寫之日,指揮評估計劃目前包括以下項目:
這些評估計劃最初由陸軍人才管理特別工作組設計,旨在應對選拔最優秀軍官和軍士指揮營級和旅級編隊的挑戰。在未來幾年內,這些計劃如果執行得當,將對 2040 年的軍隊產生重大影響。首先,它們將極大地幫助識別有問題的領導者,防止他們被考慮擔任重要職務。其次,它們將識別出那些最值得指揮的軍官和軍士--無論出于何種原因,他們在遴選委員會的結果中表現不佳--為他們提供指揮的機會。第三,這將向整個部隊傳達一個信息,即未來戰略領導人所需的價值觀和技能組合將得到最高級別的考慮。
2022 年,陸軍部長克里斯蒂娜-沃爾穆斯確定了六項目標,以幫助指導部隊度過目前面臨的拐點。她的第四個目標概述了在陸軍所有編隊中大規模營造積極的指揮氛圍的意圖;第五個目標旨在減少軍隊中的有害行為。由于在資源和教育方面的巨大投入,2040 年陸軍的指揮氛圍在所有指標上都應更加積極。積極的組織氛圍需要持之以恒的關懷、專注的努力和維護。當前旨在改善指揮氛圍的討論和建議包括:制定一項 "人員指標",作為未來指揮官的工具;納入一項旨在建立有凝聚力團隊的任務必要條件;深入審查指揮氛圍評估及其使用方式。其他建議還指出,陸軍應考慮在軍官和軍士評估中討論指揮氣氛結果,以此作為推動行為改變和追究領導責任的機制。
最重要的啟示之一是,軍隊必須提高領導能力的標準。軍事指揮官必須有能力在作戰中取得成功,同時營造一種符合軍隊尊重和團隊精神價值觀的氛圍,無論是在戰場上還是在駐軍中,都不能讓任何一名士兵掉隊。性侵犯和性騷擾是一種欺凌行為,是自相殘殺。零容忍的氛圍必須深入官兵心中。另一個啟示是,軍隊必須繼續同步開展安裝工作,以達到提高戰備狀態和幫助預防自殺死亡的效果。實現預防自殺的基本要素是領導者的參與以及對士兵、其家人和軍隊文職人員的真誠關懷。
陸軍正在進行四十多年來最大規模的轉型變革,即實現現代化并建設一支具備多領域能力的部隊,以提供速度、射程和新興技術的融合。現代化是轉型的一部分,但只現代化而不轉型可能會使軍隊裝備精良,卻缺乏關鍵資源。明確地說,陸軍永遠不會 "完成 "現代化。在我們實現陸軍 2030、陸軍 2040 及更高目標的過程中,我們正在奠定基礎,堅持不懈地進行現代化,以應對新興技術、不斷變化的挑戰和對手的行動。這樣做將使我們能夠始終領先于俄羅斯等近鄰對手。2040 年的陸軍將受益于當前正在進行的現代化努力,這些努力旨在改變我們的作戰方式、作戰手段以及我們作為一支部隊的身份。
在日益復雜和苛刻的作戰環境中運作的需要,有可能使現代軍艦上以人為中心的指揮鏈超負荷。擴大使用快速發展的人工智能技術提供了應對這一挑戰的潛力,徹底改變了指揮空間的決策。本文以皇家海軍為例,研究了最近在這一領域的實驗。
戰斗信息中心(CIC)是現代軍艦上局面編制、任務管理和武器控制的協調中心。它承載著一個人類操作團隊,負責為戰術家和指揮官提供合理化的信息,作為實時決策的基礎。戰爭小組的成員與計算機控制臺、顯示器、通信設備和其他外圍設備互動,以建立對戰術形勢的集體認識;評估和優先考慮威脅;并管理海面上、海面下的 "戰斗"。
一名電子技術員在美國海軍 "保羅-漢密爾頓 "號導彈驅逐艦(DDG-60)上跟蹤地面和空中接觸。隨著威脅越來越復雜,環境越來越有挑戰性,數據量越來越大,指揮團隊越來越面臨認知過載。(圖片: 美國海軍)
目前,CIC中的指揮鏈是基于高度規定性和以人為本的決策層次,由編譯器和操作員從各種有機和非有機來源中建立戰術圖景,以實現及時和知情的戰術決策:例如,轉向開放武器弧的路線,或執行軟殺傷性反措施計策。然而,人們認識到,由于海軍部隊越來越多地被要求在更加復雜和苛刻的作戰環境中作戰,而這些環境的特點是多樣化和越來越具有挑戰性的威脅,因此指揮小組現在面臨著越來越大的超負荷威脅。
同時,艦艇收到來自有機傳感器和非有機來源的越來越多的數據,從而使指揮團隊識別、理解和應對威脅情況的能力更加復雜。操作人員也要承受越來越大的壓力:在防衛值班時,一次盯著屏幕看幾個小時,需要人類集中精力,即使有休息時間。任何疏忽都可能意味著遺漏或錯誤地識別了一次接觸。
正是在這種背景下,海軍從業人員、作戰人員、國防科學家、工業界和學術界都開始考慮如何增加自動化和更多地使用人工智能(AI)技術來提高指揮和控制領域決策的敏銳度和速度。定義各不相同,但從廣義上講,人工智能可以被描述為機器所顯示的 "智能行為"。從本質上講,這描述了機器模仿人類在推理、計劃、學習和解決問題的任務中所采用的認知功能的能力。
人工智能已經開始進入商業和消費領域的主流,因為事業已經看到了人工智能在提高生產力、增加效率和簡化任務執行方面的潛力。海軍現在也熱衷于在指揮和決策中利用 "機器速度 "人工智能的力量,因為他們認識到人工智能技術善于從嘈雜的動態數據中推斷出模式、趨勢和信號。同時,人們認識到,在一個有效和高效的社會技術組織中整合人類操作員和計算機,會帶來無數的技術、操作和道德方面的復雜性。
維斯比級護衛艦HSwMS卡爾斯塔德的CIC。未來人工智能支持的指揮和控制系統將需要將人類和機器的合作作為設計過程的基本組成部分來考慮。(圖片: Richard Scott)
高級別的自動化對海戰來說絕非新鮮事物。例如,設置為 "自動 "模式的自衛武器系統將在滿足預先確定的交戰閾值條件時自動開火。這代表了一種非常初級的人工智能形式,因為武器系統有能力承擔原本由人類執行的功能。然而,應該明確的是,這不是一個學習系統,因為它只按照預先編程的規則集運作。
在指揮環境中實施早期形式的人工智能的最初想法可以追溯到20世紀80年代。皇家海軍(RN)艦艇在南大西洋的損失,在海灣地區對 "斯塔克 "號護衛艦(FFG-31)的反艦導彈攻擊,以及 "文森 "號巡洋艦(CG-49)無意中擊落一架伊朗A300客機,都證明了依賴大型和以人為中心的指揮鏈的行動信息組織的脆弱性和易錯性。在某些情況下,高工作量和戰斗壓力的結合壓倒了操作人員的認知能力,導致他們錯誤地評估局勢和/或錯誤地計算出適當的反應。在其他情況下,由于操作人員和作戰人員缺乏關注,即使有明確的線索表明攻擊迫在眉睫,也會忽視威脅。
到20世紀90年代,一些有限的嘗試將人工智能的形式引入到指揮鏈中。然而,這些所謂的 "專家 "系統--實施基于包含嵌入式理論或規則的知識庫的人工智能形式--遇到了一些不足和限制。例如,那個時代的計算能力和可訪問的內存所帶來的限制必然限制了軟件實施的復雜性。另外,這些基于知識的技術在實施中非常僵化--依賴于從操作者經驗中提煉出來的規則--因此在應用中非常狹窄。
約翰霍普金斯大學應用物理實驗室的硬殺傷/軟殺傷(HK/SK)性能評估工具(HaSPAT)原型于2020年初部署在美國海軍 "邦克山 "號巡洋艦(CG-52)上。(圖片:美國海軍)
對在海軍指揮和控制領域實施人工智能的重新關注反映了過去十年中技術和工藝的重大進步--最重要的是,深度學習的革命使計算機能夠以更像人類的方式對特定任務進行學習和概括。同時,人們對人工智能在指揮過程中可以增加價值的地方有了更好的認識:例如,通過幫助提醒操作人員在早期階段的潛在威脅,或在復雜的多重威脅情況下支持威脅評估和武器分配(TEWA)。
還應理解的是,至少在可預見的未來,不贊成用機器完全取代人類的想法。相反,重點是利用人工智能技術來減少決策者的工作量,從而使人類在計劃任務、估計對手能力或考慮采取特定行動方案時有更多的時間和更清晰的認識。簡而言之,當時間有限或選擇的數量太多,人類無法分析所有的選擇時,人工智能可以提供關鍵的決策支持。
這種決策援助的一個例子是約翰霍普金斯大學應用物理實驗室(JHU APL)開發的硬殺傷/軟殺傷(HK/SK)性能評估工具(HaSPAT)原型。HaSPAT旨在幫助操作人員了解計劃中的防御態勢,并在敵方攻擊前評估作戰系統的性能,它還通過告知有哪些資源可用,確保為自衛保留足夠的彈夾容量來平衡武器庫存。來自JHU APL的工程師在2019年6月訪問美國海軍 "邦克山 "號巡洋艦(CG-52)后開發了HaSPAT。在與該艦的指揮官討論后,決定進行快速開發,以幫助艦上的作戰團隊更好地計劃和協調硬殺傷和軟殺傷效應器的使用。
智能船舶第二階段共資助了10個智能代理,并選擇了一個 "集成商 "來管理ISAIN環境的開發。(圖片: Dstl)
HaSPAT納入了有關武器有效性的信息,以支持武器分配和調度,并嵌入了一個模擬,以產生分析和性能指標,告知用戶與配置相關的可能風險。它還被設計成用戶可以為區域和自衛實驗設置不同的部隊戰斗空間配置。
原型工具于2020年初部署在美國海軍 "邦克山 "號上,以便船上的船員能夠評估HaSPAT的功能,并為進一步更新提供反饋。根據JHU APL的說法,這一初步演示為在部隊層面上獲得更重要的硬殺傷/軟殺傷協調能力提供了一個墊腳石。
在大西洋彼岸,旨在加速和改善指揮團隊在緊張的水上戰爭場景中的形勢意識和威脅分析的原型決策輔助工具也已經由英國皇家海軍在海上進行了操作試驗。例如,英國皇家海軍和國防科技實驗室(Dstl)在2021年5月的海上演示/"強大的盾牌21 "演習中評估了一些人工智能工具。其中一個是Roke公司的STARTLE應用程序,其目的是通過提供實時建議和警報,幫助減輕操作員監測空中情況的負擔。另一個是CGI英國的系統協調綜合效果分配(SYCOIEA)自動化平臺和部隊TEWA應用。
人們認識到,未來的核心挑戰是如何設計人類操作員與計算機和人工智能軟件程序之間的互動和合作,以最大限度地減少人類意圖與使用自動或自主系統執行該意圖之間的 "摩擦"。這種整合--其縫隙是人機界面--必須認識到人類不僅僅是 "用戶 "或 "操作員",他們本身也是決策環路的一部分,因此是功能和產出的組成部分。
2019年,英國國防部啟動了一個名為 "智能船舶 "的多階段科技項目(S&T),正是因為需要研究有關人工智能改變指揮決策的潛力的一些關鍵問題。由國防部(MoD)資助,作為其更廣泛的自主性科技計劃的一部分,這項正在進行的努力代表了一種開創性的嘗試,即設計一個合作的 "系統的系統",其中自動化和人工智能與人類更緊密地結合和合作,以實現更及時和更明智的規劃和決策。重要的是,智能船舶項目旨在展示一個未來的指揮和控制概念,其中人類和人工智能 "代理 "在一開始就被設計進去,而不是簡單地將人工智能添加到傳統的行動信息組織中。此外,它還認識到,系統的系統將包括機器-機器團隊以及人-機器團隊。
位于Dstl的Portsdown West設施的指揮實驗室作為智能船舶第二階段評估的測試平臺環境。(圖片: Dstl)
智能船舶計劃的第一階段涉及一系列 "挑戰"主題--任務規劃和決策輔助工具、信息融合、傳感器和信息管理、新型人機界面、人機協作和集成--代表了典型軍艦中的各種功能和能力。這些包括支持平臺系統的組件,以及指揮規劃和決策輔助工具。 這個最初的六個月階段的一個核心部分是開發智能船舶人工智能網絡(ISAIN)框架的任務。在CGI英國公司的領導下,在DIEM分析公司、人因工程解決方案公司和決策實驗室的支持下,ISAIN是一個可以在不同場景下探索人機合作的環境,使開發和評估新的組織和工作流程結構成為可能,這些結構利用AI與人一起工作。這提供了在人類、人工智能或兩者之間動態轉移工作量的可能性,這取決于情況及其復雜性。此外,ISAIN框架為系統研究提供了一個試驗場,并促進對支持和促進團隊所有成員(包括人類和AI)的活動和互動的創新機制的研究。
例如,不同的人工智能和人類如何合作,人工智能和人類能力的最適當組合,組織人工智能和人類作為一個團隊實現目標的最佳方式,以及仲裁或消除來自多個人工智能的相反建議/行動的手段。 除了ISAIN,智能船的第一階段還資助了人工智能的成熟--或稱決策代理(ADeM)--可以被整合到ISAIN中進行演示。ADeM是該項目采用的一個術語,用來描述在人-AI機器或AI機器-AI機器混合團隊中運作的人類或基于機器的智能代理。
2020年6月,通過國防部的國防與安全加速器(DASA)發出了智能船舶項目第二階段的呼吁。DASA資助創新和可能利用的科技想法,這些想法可以為英國武裝部隊和國家安全帶來成本效益的優勢。當年11月,總共授予了9個第二階段的合同--累計價值約為300萬英鎊。其中,CGI英國公司作為ISAIN的集成商和開發負責人,獲得了大約一半的合同。在這個角色中,CGI UK與Dstl合作進行ISAIN的集成,將ISAIN安裝到Dstl的Portsdown West站點的指揮實驗室中,設計開發智能船舶的各個方面如何在ISAIN環境中結合起來,并將選定的ADeMs集成到ISAIN架構中。
DASA將第二階段的剩余資金用于開發特定的 "訓練有素 "的AI。授予決策實驗室、DIEM分析公司、Frazer Nash咨詢公司、Montvieux公司(獲得兩個獎項)、諾丁漢特倫特大學、勞斯萊斯公司和SeeByte公司個別合同。CGI英國公司在行業標準和工具的基礎上制作了一個軟件開發工具包,提供給各個ADeM供應商。
除了DASA合同,之前在Dstl'Progeny'框架下開發的戰術導航(TacNav)代理被拉入智能船舶第二階段。TacNav是由CGI英國公司開發的,用于計劃、執行和監控智能船的戰術導航。在第二階段中,CGI的SYCOIEA TEWA決策輔助工具也發揮了作用。
由于該項目無法為DASA征集的所有提案提供資金,因此決定選擇廣泛的人工智能代理,跨越一系列的平臺和戰斗系統功能。例如,羅爾斯-羅伊斯公司開發了一個被稱為ACE(人工總工程師)的決策控制系統,該系統旨在根據指揮部的優先次序,就如何最好地操作船舶機械--發動機、推進系統、電力網絡和燃料系統做出基于條件的決定。另一個人工智能被稱為IBIS(用于損害控制和消防的內部戰斗智能強化學習),是由弗雷澤-納什咨詢公司構思的,作為一個使用基于人工智能的新型強化學習技術的預測性損害控制工具。
智能船舶團隊還選擇了決策實驗室開發的人工智能,稱為CIAO(用于優化的高級復合智能代理),可用于仲裁兩個不同代理交付的沖突輸出。例如,如果TacNav根據水下障礙物或當地航運交通推薦一條航線,但TEWA代理建議另一條航線,以打開武器弧線對付來襲的威脅,它就可能發揮作用。CIAO在系統的許多部分都得到了實施,以便在決策鏈的不同部分提供復合建議。
杜威號導彈驅逐艦(DDG-105)CIC中的人員。未來幾年,人工智能將在海軍領域的許多情況下得到應用,將人類和機器融合在一起。(圖片: 美國海軍)
ISAIN被整合到了Dstl的Portsdown West站點的指揮實驗室設施中。這一設施--承載著由開放和靈活的硬件、軟件、網絡、數據庫和協議接口組成的實時、虛擬和建設性的模擬--由Dstl的許多部分共同出資。它作為一個可配置的測試平臺,提供了在所有戰爭環境中進行實驗和整合新系統的能力。
為了支持智能艦艇的實驗和評估活動,指揮實驗室配備了類似于CIC多功能控制臺的操作終端,允許軍事顧問在偽作戰環境中與人工智能代理互動。在2021年和2022年期間,指揮實驗室已經進行了四次單獨的評估,場景的復雜性、代理人的數量和這些代理人的成熟度隨著時間而增加。
這些評估是針對Dstl軍事顧問開發的名義場景進行的,這使得ADeMs可以在一個有代表性的操作環境中得到展示。這始于一個規劃階段。在這之后,"船"--在一個更大的任務組之前行動--在有爭議的水域附近進行情報收集行動。隨著緊張局勢的加劇,與對手的紅色部隊發生了對峙。這最終導致了一次反艦導彈攻擊,并造成了自身艦艇的損壞。為了評估的目的,這個端到端的場景被分解成一系列較短的小插曲,每個小插曲包括大約半小時的 "操作 "活動。這些腳本是為了最大限度地提高代理人之間的互動。
第二階段于2022年3月底完成。研究和實驗提供了寶貴的早期洞察力,使人們了解到將多個人工智能應用結合在一起做出集體決定的機會和好處,無論是否有人類操作員的判斷。同時,它確定了一些新的問題,即如何在復雜的指揮環境中最好地實施和管理AI-enabled自動化。結論是,只有通過解決多個智能機器代理團隊的設計和操作,才能獲得真正的操作優勢,并使人類在這些團隊中的整合得到優化,形成有效的人類-自治團隊(HATs)。
DASA與Dstl合作,在2023年初宣布了智能船第三階段的計劃。在第二階段之前開發和評估的協作式人工智能概念的基礎上,這一后續科技計劃的結構是為了探索更早和更集中地考慮HAT的人類組成部分的好處,以支持未來的海軍指揮和控制。
第三階段的目標是為HAT設計一個綜合系統,該系統可以提供水上海軍指揮和控制的各個方面,并更詳細地考慮基于人工智能的HAT的協作的仲裁需求。這將促使人們更加關注系統設計,而不是人工智能代理的開發;人類在HAT系統中的整合;以及對不同人工智能代理的潛在沖突建議的仲裁方法的理解。其目的是將現有的ISAIN環境用于整合和評估。
第三階段的競爭預計將于2023年4月開始。其目的是,一個單一的多學科合作團隊將提供所有的產出,包括系統設計、構建、整合和評估。目前的計劃設想在2023年第三季度授予合同,第三階段的活動預計將持續到2024年12月。
未來幾年,人工智能將在海軍領域的許多情況下得到應用。同時,人們認識到,人工智能的使用提出了一些深刻的倫理、法律和管理問題。今天,海軍、國防科學和工業界所面臨的挑戰是如何確定人工智能可能成為解決方案的一部分的操作缺陷和能力差距,并了解如何最好地將人類和機器融合在一起,以便將人類的認知、直覺和責任與機器速度的分析能力相結合。
從長遠來看,將人工智能引入指揮鏈可能需要一個范式轉變。未來的指揮和控制系統將不再是設計系統,然后設計與人類操作員的接口,而是將人類和機器的合作互動作為基礎概念和設計的基本部分。此外,將需要仔細關注,以確定在一系列操作場景和任務中指揮團隊中人和機器元素之間的最佳平衡。
人工智能(AI)系統很可能會改變軍事行動。本文探討了人工智能系統如何影響準備和進行軍事行動的主要工具,并受其影響。因此,本文在戰略、理論、計劃、交戰規則和命令的背景下分析和討論了人工智能,以確定機會、挑戰和開放性問題的位置,并提出總體意見。本文采取了一個廣泛的分析角度,能夠根據新的政策和技術發展以及對政治、軍事、法律和道德觀點的考慮,對這一問題進行總體審查。因此,本文提供了一些見解和途徑,以推動對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。
在擬議的研究中,我們為海軍規劃系統的智能、主動和自動決策支持開發了軟件和相應的算法。這些算法是為多域戰爭的戰斗空間管理提供行動建議的渠道。此外,我們還研究了人類與人工智能的共生關系,以通過有效的人機混合工作分配來加強算法,使決策與指揮官的意圖、人類的偏好和動態環境達到最大程度的一致。
人力是海軍日常運作的實際驅動力。開發和實施能提高人力效率的戰術決策輔助工具,能使穿制服的人更快、更聰明地完成他們的工作。這項研究針對的主要差距是在潛艇水面行動中避免碰撞的問題。
沖突識別工具,在此被稱為CONFIDENT,旨在自動執行防止相互干擾(PMI)在空間和時間上的任何或所有潛艇操作當局(SUBOPAUTHs)的水空間。開發該工具的目的是幫助官員了解不斷變化的水域,并減輕防止相互干擾行動的負擔和工作負荷。
自動化使系統能夠執行通常需要人類投入的任務。英國政府認為自動化對保持軍事優勢至關重要。本論文討論了當前和未來全球自動化的應用,以及它對軍事組織和沖突的影響。同時還研究了技術、法律和道德方面的挑戰。
許多軍事系統都有自動化的特點,包括執行物理任務的機器人系統,以及完全基于軟件的系統,用于數據分析等任務。自動化可以提高某些現有軍事任務的效率和效力,并可以減輕人員的 "枯燥、骯臟和危險 "的活動。 許多專家認為,自動化和自主性是與系統的人類監督水平有關的,盡管對一些系統的定位存在爭議,而且對系統是否應被描述為 "自動化 "或 "自主 "可能存在分歧。英國防部在其 "自主性譜系框架 "中概述了5個廣泛的自主性水平,從 "人類操作 "到 "高度自主"。一個系統可能在不同的情況下有不同的操作模式,需要不同程度的人力投入,而且只有某些功能是自動化的。方框1概述了本公告中使用的定義。
方框1:該領域的術語并不一致,關鍵術語有時可以互換使用。
自動化系統。自動系統是指在人類設定的參數范圍內,被指示自動執行一組特定的任務或一系列的任務。這可能包括基本或重復的任務。
自主系統。國防科學與技術實驗室(Dstl)將自主系統定義為能夠表現出自主性的系統。自主性沒有公認的定義,但Dstl將其定義為 "系統利用人工智能通過自己的決定來決定自己的行動路線的特點"。自主系統可以對沒有預先編程的情況作出反應。
無人駕駛車輛。朝著更高水平的自主性發展,使得 "無人駕駛 "的車輛得以開發,車上沒有飛行員或司機。有些是通過遠程控制進行操作,有些則包括不同程度的自主性。最成熟的無人駕駛軍事系統是無人駕駛航空器,或稱 "無人機",其用途十分廣泛。
人工智能。人工智能沒有普遍認同的定義,但它通常是指一套廣泛的計算技術,可以執行通常需要人類智慧的任務(POSTnote 637)。人工智能是實現更高水平的自主性的一項技術。
機器學習:(ML,POSTnote 633)是人工智能的一個分支,是具有自主能力的技術的最新進展的基礎。
英國政府已經認識到自主系統和人工智能(AI,方框1)的軍事優勢以及它們在未來國防中可能發揮的不可或缺的作用。在其2021年綜合審查和2020年綜合作戰概念中,它表示致力于擁抱新的和新興的技術,包括自主系統和人工智能。2022年6月,英國防部發布了《國防人工智能戰略》,提出了采用和利用人工智能的計劃:自動化將是一個關鍵應用。在全球范圍內,英國、美國、中國和以色列擁有一些最先進的自主和基于AI的軍事能力。方框2中給出了英國和全球活動的概述。
方框2:英國和全球活動
英國 英國政府已表明其投資、開發和部署用于陸、海、空和網絡領域軍事應用的自主和人工智能系統的雄心。最近的投資項目包括NELSON項目,該項目旨在將數據科學整合到海軍行動中;以及未來戰斗航空系統,該系統將為皇家空軍提供一個有人員、無人員和自主系統的組合。在2021年綜合審查發表后,政府成立了國防人工智能中心(DAIC),以協調英國的人工智能國防技術的發展。這包括促進與學術界和工業界的合作,并在紐卡斯爾大學和埃克塞特大學以及艾倫-圖靈研究所建立研究中心。
全球背景 對自主軍事技術的投資有一個全球性的趨勢:25個北約國家已經在其軍隊中使用一些人工智能和自主系統。有限的公開信息給評估軍隊的自主能力帶來了困難,但已知擁有先進系統的國家包括。
俄羅斯和韓國也在大力投資于這些技術。在俄羅斯,機器人技術是最近成立的高級研究基金會的一個重點,該基金會2021年的預算為6300萬美元。
自主系統可以被設計成具有多種能力,并可用于一系列的應用。本節概述了正在使用或開發的軍事應用系統,包括情報、監視和偵察、數據分析和武器系統。
自動化正越來越多地被應用于情報、監視和偵察(ISR),通常使用無人駕駛的車輛(方框1)。無人駕駛的陸上、空中和海上車輛配備了傳感器,可以獲得數據,如音頻、視頻、熱圖像和雷達信號,并將其反饋給人類操作員。一些系統可以自主導航,或自主識別和跟蹤潛在的攻擊目標。英國有幾架ISR無人機在服役,還有一些正在試用中。這些無人機的范圍從非常小的 "迷你 "無人機(其重量與智能手機相似)到可以飛行數千英里的大型固定翼系統。英國正在試用的一個系統是一個被稱為 "幽靈 "無人機的迷你直升機,它可以自主飛行,并使用圖像分析算法來識別和跟蹤目標。無人駕駛的水下航行器被用于包括地雷和潛艇探測的應用,使用船上的聲納進行自主導航。這些車輛還可能配備了一種技術,使其能夠解除地雷。
許多軍事系統收集了大量的數據,這些數據需要分析以支持操作和決策。人工智能可用于分析非常大的數據集,并分辨出人類分析員可能無法觀察到的模式。這可能會越來越多地應用于實地,為戰術決策提供信息,例如,提供有關周圍環境的信息,識別目標,或預測敵人的行動。英國軍隊在2021年愛沙尼亞的 "春季風暴 "演習中部署了人工智能以提高態勢感知。美國的Maven項目旨在利用人工智能改善圖像和視頻片段的分析,英國也有一個類似的項目,利用人工智能支持衛星圖像分析。
以自動化為特征的武器系統已被開發用于防御和進攻。這些系統包括從自動響應外部輸入的系統到更復雜的基于人工智能的系統。
防御系統。自動防空系統可以識別和應對來襲的空中威脅,其反應時間比人類操作員更快。這種系統已經使用了20多年;一份報告估計有89個國家在使用這種系統。目前使用的系統可以從海上或陸地發射彈藥,用于應對來襲的導彈或飛機。英國使用Phalanx CIWS防空系統。雖然沒有在全球范圍內廣泛采用,但以色列將固定的無機組人員火炮系統用于邊境防御,并在韓國進行了試驗。這些系統能夠自動瞄準并向接近的人或車輛開火。
導向導彈。正在使用的進攻性導彈能夠在飛行中改變其路徑,以達到目標,而不需要人類的輸入。英國的雙模式 "硫磺石"(DMB)導彈于2009年首次在阿富汗作戰中使用,它可以預先設定搜索特定區域,利用傳感器數據識別、跟蹤和打擊車輛。
用于武器投送的無人平臺。為武器投送而設計的無人空中、海上和陸地運載工具可以以高度的自主性運行。這些系統可以自主地搜索、識別和跟蹤目標。大多數發展都是在空中領域。英國唯一能夠自主飛行的武裝無人機是MQ-9 "收割者",但有幾個正在開發中。英國防部還在開發 "蜂群 "無人機(方框3)。雖然存在技術能力,但無人駕駛的進攻性武器并不用于在沒有人類授權的情況下做出射擊決定;報告的例外情況很少,而且有爭議。 自主系統在識別目標和作出射擊決定方面的作用,是廣泛的倫理辯論的主題(見下文)。
方框3:無人機蜂群
無人機蜂群是指部署多個能夠相互溝通和協調的無人機和人員,以實現一個目標。在軍事環境中,蜂群可能被用來監視一個地區,傳遞信息,或攻擊目標。2020年,英國皇家空軍試驗了一個由一名操作員控制的20架無人機群,作為Dstl的 "許多無人機做輕活 "項目的一部分。蜂群技術還沒有廣泛部署。據報道,以色列國防軍于2021年首次在戰斗中使用無人機蜂群。
自動化技術和人工智能的擴散將對英國軍隊產生各種影響,包括與成本和軍事人員的角色和技能要求有關的影響。對全球和平與穩定也可能有影響。
一些專家表示,從長遠來看,軍事自動化系統和人工智能可能會通過提高效率和減少對人員的需求來降低成本。然而,估計成本影響是具有挑戰性的。開發成本可能很高,而且回報也不確定。提高自動化和人工智能方面的專業知識可能需要從提供高薪的行業中招聘。軍隊可能不得不提高工資以進行競爭,英國防部將此稱為 "人工智能工資溢價"。
自動化可能會減少從事危險或重復性任務的軍事人員數量。然而,一些軍事任務或流程,如高層戰略制定,不太適合自動化。在許多領域,自主系統預計將發揮對人類的支持功能,或在 "人機團隊 "中與人類合作。專家們強調,工作人員必須能夠信任與他們合作的系統。一些角色的性質也可能會受到自動化的影響,所需的技能也是如此。例如,對具有相關技術知識的自主系統開發者和操作者的需求可能會增加。英國防部已經強調需要提高整個軍隊對人工智能的理解,并承諾開發一個 "人工智能技能框架",以確定未來國防的技能要求。一些利益相關者對自動化對軍事人員福祉的影響表示擔憂,因為它可能會限制他們的個人自主權或破壞他們的身份和文化感。
人員對自動化的態度:
關于軍事人員對自動化的態度的研究是有限的。2019年對197名英國防部人員的研究發現,34%的人對武裝部隊使用可以使用ML做出自己的決定的機器人有普遍積極的看法,37%的人有普遍消極的態度。有報道稱,人們對某些自主武器系統缺乏信任,包括在2020年對澳大利亞軍事人員的調查中。在這項研究中,30%的受訪者說他們不愿意與 "潛在的致命機器人 "一起部署,這些機器人在沒有人類直接監督的情況下決定如何在預定的區域使用武力。安全和目標識別的準確性被認為是兩個最大的風險。有證據表明,信任程度取決于文化和熟悉程度。
一些專家提出了這樣的擔憂:在武器系統中越來越多地使用自主權,有可能使沖突升級,因為它使人類離開了戰場,減少了使用武力的猶豫性。蘭德公司最近的一份戰爭游戲報告(上演了一個涉及美國、中國、日本、韓國和朝鮮的沖突場景)發現,廣泛的人工智能和自主系統可能導致無意中的沖突升級和危機不穩定。這部分是由于人工智能支持的決策速度提高了。升級也可能是由自動系統的非預期行為造成的。
還有人擔心,由于自動化和基于人工智能的技術變得更便宜和更豐富,非國家行為者更容易獲得這種技術。這些團體也可能獲得廉價的商業無人機,并使用開放源碼的人工智能對其進行改造,以創建 "自制 "武器系統。關于非國家行為者使用自主系統的報告是有限的和有爭議的。然而,非國家團體確實使用了武裝無人機,而且人們擔心人工智能會使這種系統更加有效。
正在進行的包括機器人和人工智能在內的技術研究,主要是由商業驅動的,預計將增加自動化系統的應用范圍和采用程度。該領域的一些關鍵技術挑戰概述如下。一個更普遍的挑戰是,相對于數字技術的快速發展,軍事技術的發展速度緩慢,有可能在部署前或部署后不久組件就會過時。
無人駕駛的車輛和機器人經常需要向人員傳輸數據或從人員那里接收數據。這可以讓人類監督和指導它們的運作或接收它們收集的數據。在某些情況下,系統也可能需要相互通信,如在無人機群中(方框3)。軍方通常使用無線電波在陸地上傳輸數據,其帶寬(頻率的可用性)可能有限。在傳輸大量數據,如高分辨率圖像時,這可能是個問題。5G技術(POSTbrief 32)可能會促進野外更有效的無線通信。系統之間的無線電通信可以被檢測到,提醒對手注意秘密行動。對手也可能試圖阻止或破壞系統的通信數據傳輸。目前正在研究如何最大限度地減少所需的數據傳輸和優化數據傳輸的方法。更多的 "板載 "或 "邊緣 "處理(POSTnote 631)可以減少傳輸數據的需要。然而,減少通信需要系統在沒有監控的情況下表現得像預期的那樣。
具有更高水平的自主性的更復雜的系統通常在運行時在船上進行更多的數據處理和分析。這要求系統有足夠的計算能力。一般來說,一個系統能做多少嵌入式數據處理是有限制的,因為硬件會占用空間并需要額外的電力來運行。這可能會限制需要電池供電運行的系統的敏捷性和范圍。然而,人工智能的進步也可能使系統更有效地運行,減少計算要求。由于未來軟件、算法和計算機芯片技術的進步,計算機的處理能力也有望提高。
創建和整理與軍事應用相關的大型數據集,對生產可靠的人工智能自主系統非常重要。機器學習(ML,方框1)依賴于大型數據集來訓練其基礎算法,這些數據可以從現實世界中收集,或者在某些情況下,使用模擬生成。一般來說,用于訓練ML系統的數據越有代表性、越準確、越完整,它就越有可能按要求發揮作用。準備訓練數據(分類并確保其格式一致)通常需要手動完成,并且是資源密集型的。
數據隱私:
一些人工智能系統可能會在民用數據上進行訓練。人們普遍認為,如果使用與個人有關的數據,他們的隱私必須得到保護。這可以通過對個人數據進行匿名化處理或只分享經過訓練的人工智能系統來實現。
由計算機軟件支撐的系統數量的增加增加了網絡攻擊的機會。網絡攻擊者可能試圖控制一個系統,破壞其運作,或收集機密信息。基于人工智能的系統也可以通過篡改用于開發這些系統的數據而遭到破壞。英國防部在2016年成立了網絡安全行動中心,專注于網絡防御。在英國,2021年成立的國防人工智能中心,有助于促進行業伙伴或其他合作者對高度機密數據的訪問。
重要的是,軍事系統要可靠、安全地運行,并符合法律和法規的規定。人工智能和自動化給傳統軟件系統帶來了不同的測試和保證挑戰。 進一步的挑戰來自于ML的形式,它可能不可能完全理解輸出是如何產生的(POSTnote 633)。人工智能軟件可能還需要持續監測和維護。利益相關者已經強調缺乏適合的測試工具和流程,并正在開發新的工具和指南。英國政府的國防人工智能戰略致力于建立創新的測試、保證、認證和監管方法。
目前還沒有專門針對將自動化或人工智能用于軍事應用的立法。雖然它們在戰爭中的使用受現有的國際人道主義法的約束,但這與新技術的關系是有爭議的。在國家和國際層面上有許多關于人工智能更普遍使用的準則,這些準則可以適用于自動化系統。然而,2021年數據倫理與創新中心(CDEI)的人工智能晴雨表研究發現,工業界很難將一般的法規適應于特定的環境。2022年,英國防部與CDEI合作發布了在國防中使用人工智能的道德原則。
一些利益相關者強調,如果自主系統的行為不合法或不符合預期,那么它的責任是不明確的。這可能導致系統及其決定與設計或操作它的人類之間出現 "責任差距",使法律和道德責任變得復雜。英國防部的原則說,在人工智能系統的整個設計和實施過程中,應該有明確的責任。國防人工智能戰略為供應商設定了類似的期望。
這一領域的大部分法律和道德辯論都集中在武器系統上。然而,某些非武裝系統(例如,基于軟件的決策支持工具)可能在識別目標方面發揮關鍵作用,因此提出了許多與那些同時部署武器的系統相同的道德問題。
國際上對 "致命性自主武器系統"(LAWS)的使用存在著具體的爭論。這個術語沒有普遍認同的定義,它被用來指代具有不同自主能力的廣泛的武器。關于使用致命性自主武器系統的報告存在很大爭議,例如,由于系統使用模式的不確定性。 聯合國《特定常規武器公約》(CCW)自2014年以來一直在討論致命性自主武器系統的可能立法。它在2019年發布了指導原則,但這些原則沒有約束力,也沒有達成進一步的共識。雖然大多數參加《特定常規武器公約》的國家支持對致命性自主武器進行新的監管,但包括英國、美國和俄羅斯在內的其他國家認為,現有的國際人道主義法已經足夠。根據運動組織 "阻止殺手機器人"(SKR)的說法,83個國家支持關于自主武器系統的具有法律約束力的文書,12個國家不支持。
許多利益相關者認為,必須保持人類對武器和瞄準系統的某種形式的控制,才能在法律和道德上被接受。某些組織,如SKR,呼吁禁止不能由 "有意義的人類控制 "的自主武器系統,并禁止所有以人類為目標的系統。他們還呼吁制定法規,確保在實踐中保持足夠的人為控制。在其2022年國防人工智能戰略中,英國政府表示,識別、選擇和攻擊目標的武器必須有 "適當的人類參與"。作為回應,一些呼吁監管的非政府組織表示,需要更加明確如何評估或理解 "適當的人類參與"。包括英國政府在內的利益相關者建議的維持人類控制的潛在措施包括限制部署的時間和地理范圍。被認為會破壞人類控制的因素包括人類做出決定的有限時間和 "自動化偏見",即個人可能會過度依賴自動化系統,而不太可能考慮其他信息。
大多數關于軍事自動化的公眾意見調查都集中在自主武器系統上。SKR委托對28個國家的19,000人進行了民意調查。62%的受訪者反對使用致命性武器系統;這一數字在英國是56%。關于公眾對人工智能、數據和更廣泛的自動化的態度的研究發現,公眾關注的主要問題包括數據安全、隱私和失業。然而,公眾的觀點會因系統的功能和使用環境的不同而有很大差異。
本文對多目標跟蹤的某些方面作了可讀的介紹。數學上的細節主要是在參考文獻中進行介紹。我們從討論目標的存在和演化模型開始,引出經典的面向跟蹤的多假設跟蹤遞歸。然后我們討論了多假設跟蹤的一些局限性,以及分布式多假設跟蹤解決方案可能實現的性能和穩健性優勢。這促進了基于圖的跟蹤和分布式架構的上下文利用的進一步進展。
本報告涵蓋了與設計評估人類和智能軟件Agent之間通信有關的問題,這些通信是實現協作關系所必需的。為了使人與Agent之間的互動在動態的現實世界中保持穩定,軟件Agent和人類都必須能夠在任務目標方面溝通他們的整體意圖。由于推理過程、能力和知識庫的不同,人類和Agent并不是人類團隊的模擬。我們討論了有效通信所涉及的技術問題,包括相互透明的模型、自然語言處理(NLP)、人工智能(AI)和可解釋的AI。由于缺乏使人類能夠洞察其隊友心理過程的心智理論,Agent很難預測人類的信息需求和未來行動。涉及多個Agent的協作計劃研究和合成共享心智模型的研究被作為嘗試將人類和Agent整合成一個協同單位典范。然而,我們的結論是,在人類和Agent在復雜的、不確定的任務中像人類團隊一樣通信之前,NLP、可解釋人工智能和人類科學的進展將是必要的。
自主系統的前景和問題都將改變未來系統的動態,這不僅體現在自主系統對社會的影響上,也體現在它們與人類的互動上(《經濟學人》2016;Schaefer等人,2017)。人類和自主系統之間的伙伴關系涉及到將人工和人類融合成一個有凝聚力的系統,這種結合意味著所有的優勢和限制(Bradshaw等人,2009;Chen和Barnes,2014)。自主系統的范圍可以從那些獨立的、只由人類偶爾監控的系統到由人類指導的、受到密切監督的系統(Barnes等人,2017)。能夠自主行動并根據新信息更新行動以實現其目標的軟件系統被確定為智能Agent(IA);Russell和Norvig 2009)。在人類與IA的合作關系中,人類和IA共享決策空間的混合倡議能力,但人類擁有最終的權力,在危險的時間有限的情況下,允許靈活性,同時保持人類的責任(Chen和Barnes 2015;Barnes等人2017)。在大多數情況下,不可能先驗地將每個人分配到動態環境中的特定角色,因為他們的角色可以隨著情況的變化而改變。例如,自適應Agent可以在高工作負荷的任務段中掌握決策主動權,而不需要等待操作者的許可,但在正常的操作中會將決策主動權還給操作者(Chen和Barnes 2014)。一些與任務分配有關的規定性規則可以根據任務的優先級預先設定。其他規則可能會根據情況的緊急程度而改變(例如,在時間期限過后自主擊落來襲導彈[Barnes等人,2017;Parasuraman等人,2007])。然而,在動態環境中,溝通、對意圖的理解和共同的態勢感知(SA)是有效協作的必要條件(Barnes等人,2017;Evans等人,2017;Holder,2018;Chen等人,2018)。
隨著IA復雜性的增加,有效通信的必要性也隨之增加。Cooke(2015)認為,高效的團隊合作關系更多的是取決于有效的互動,而不是擁有廣泛的共享知識庫。除了有一個共同的語言框架,每個團隊成員都必須知道什么時候向他們的伙伴推送信息,什么時候要求提供信息。因此,人類和IA不僅要有任務環境的SA,而且要有彼此角色的SA,以便在沒有公開交流的情況下回應伙伴的要求(Scherri等人,2003;Chen等人,2018)。我們討論三個主要的主題。第一個主題是對人-Agent架構的描述,以及為什么它與人-人團隊不同,強調相互透明度的重要性。接下來,我們討論了人類與人工智能(AI)系統通信所涉及的技術問題,包括多模態交互、語言限制、AI的類型以及可解釋AI(XAI)的重要性,以確保相互理解。最后,我們討論了共享意圖的重要性,以促進操作者和人工智能之間信息交互的自然節奏。
深度學習技術在計算機視覺領域的快速發展,促進了基于人工智能(AI)應用的廣泛傳播。分析不同種類的圖像和來自異質傳感器數據的能力使這項技術在軍事和國防應用中特別有趣。然而,這些機器學習技術并不是為了與智能對手競爭而設計的;因此,使它們如此有趣的特性也代表了它們在這一類應用中的最大弱點。更確切地說,輸入數據的一個小擾動就足以損害機器學習算法的準確性,并使其容易受到對手的操縱--因此被稱為對抗性機器學習。
對抗性攻擊對人工智能和機器人技術的穩定性和安全性構成了切實的威脅。這種攻擊的確切條件對人類來說通常是相當不直觀的,所以很難預測何時何地可能發生攻擊。此外,即使我們能估計出對手攻擊的可能性,人工智能系統的確切反應也很難預測,從而導致進一步的意外,以及更不穩定、更不安全的軍事交戰和互動。盡管有這個內在的弱點,軍事工業中的對抗性機器學習話題在一段時間內仍然被低估。這里要說明的是,機器學習需要在本質上更加強大,以便在有智能和適應性強的對手的情況下好好利用它。
在很長一段時間里,機器學習研究人員的唯一關注點是提高機器學習系統的性能(真陽性率/敏感度、準確性等)。如今,這些系統缺乏穩健性的問題已不容忽視;許多系統已被證明非常容易受到蓄意的對抗性攻擊和/或操縱。這一事實使它們不適合現實世界的應用,特別是關鍵任務的應用。
一個對抗性的例子是,攻擊者故意設計了一個機器學習模型的輸入,以導致該模型犯錯。一般來說,攻擊者可能無法接觸到被攻擊的機器學習系統的架構,這被稱為黑盒攻擊。攻擊者可以利用 "可轉移性 "的概念近似于白盒攻擊,這意味著旨在迷惑某個機器學習模型的輸入可以在不同的模型中觸發類似的行為。
最近針對這些系統的對抗性攻擊的演示強調了對抗性行為對穩定性影響的普遍關注,無論是孤立的還是互動的。
也許最廣泛討論的攻擊案例涉及圖像分類算法,這些算法被欺騙成 "看到 "噪聲中的圖像,即隨機產生的不對應于任何圖像的白噪聲被檢測為圖像,或者很容易被像素級的變化所欺騙,因此它們將一輛校車分類為鴕鳥,例如。同樣,如果游戲結構或規則稍有改變,而人類不會受到影響,那么表現優于人類的游戲系統(如國際象棋或AlphaGo)就會突然失敗。在普通條件下運行良好的自動駕駛汽車,只要貼上幾張膠帶,就會被誘導轉向錯誤的車道或加速通過停車標志。
許多北約國家利用人工智能和機器學習來改善和簡化軍事行動和其他國家安全舉措。關于情報收集,人工智能技術已經被納入在伊拉克和敘利亞的軍事行動中,其中計算機視覺算法被用來檢測人和感興趣的物體。軍事后勤是這一領域的另一個重點領域。美國空軍使用人工智能來跟蹤其飛機何時需要維護,美國陸軍使用IBM的人工智能軟件 "沃森 "來預測維護和分析運輸請求。人工智能的國防應用還延伸到半自主和自主車輛,包括戰斗機、無人機或無人駕駛飛行器(UAV)、地面車輛和船舶。
人們認為對抗性攻擊在日常生活中相對罕見,因為針對圖像分類算法的 "隨機噪音 "實際上遠非隨機。不幸的是,對于國防或安全技術來說,這幾乎是不可能的。這些系統將不可避免地被部署在對方有時間、精力和能力來開發和構建正是這些類型的對抗性攻擊的環境中。人工智能和機器人技術對于部署在敵人控制或敵人爭奪的地區特別有吸引力,因為這些環境對于我們的人類士兵來說是最危險的環境,在很大程度上是因為對方對環境有最大的控制。
在意識到人工智能發展和應用的技術領先的重要性后,北約于2020年在多國能力發展運動(MCDC)下啟動了人工智能、自動化和機器人技術的軍事用途(MUAAR)項目。該項目的范圍是開發概念和能力,以應對開展聯合聯盟行動的挑戰,并對其進行評估。項目的目標是評估可能受益于人工智能、自動化和機器人技術的當前和未來的軍事任務和功能。它還考慮了效率和成本節約方面的回報。
在國防應用中,對抗性地操縱機器學習分類器所帶來的危險的例子很多,嚴重程度各不相同。例如,致命的自主武器系統(LAWS)可能會將友軍戰車誤認為是敵軍戰車。同樣,一個爆炸裝置或一架敵方戰斗機可能會被錯誤地識別為一塊石頭或一只鳥。另一方面,知道人工智能垃圾郵件過濾器跟蹤某些單詞、短語和字數進行排除,攻擊者可以通過使用可接受的單詞、短語和字數來操縱算法,從而進入收件人的收件箱,進一步增加基于電子郵件的網絡攻擊的可能性。
綜上所述,人工智能支持的系統可能會因為對抗性攻擊而失敗,這些攻擊是故意設計來欺騙或愚弄算法以使其犯錯的。這種攻擊可以針對分類器的算法(白盒攻擊),也可以通過訪問輸入來針對輸出(黑盒攻擊)。這些例子表明,即使是簡單的系統也能以意想不到的方式被愚弄,有時還可能造成嚴重后果。隨著對抗性學習在網絡安全領域的廣泛應用,從惡意軟件檢測到說話人識別到網絡物理系統再到許多其他的如深度造假、生成網絡等,隨著北約增加對自動化、人工智能和自主代理領域的資助和部署,現在是時候讓這個問題占據中心位置了。在將這些系統部署到關鍵任務的情況下之前,需要對這些系統的穩健性有高度的認識。
已經提出了許多建議,以減輕軍事環境中對抗性機器學習的危險影響。在這種情況下,讓人類參與其中或在其中發揮作用是至關重要的。當有人類和人工智能合作時,人們可以識別對抗性攻擊,并引導系統采取適當的行為。另一個技術建議是對抗性訓練,這涉及給機器學習算法提供一組潛在的擾動。在計算機視覺算法的情況下,這將包括顯示那些戰略性放置的貼紙的停車標志的圖像,或包括那些輕微圖像改變的校車的圖像。這樣一來,盡管有攻擊者的操縱,算法仍然可以正確識別其環境中的現象。
鑒于一般的機器學習,特別是對抗性機器學習,仍然是相對較新的現象,對兩者的研究仍在不斷涌現。隨著新的攻擊技術和防御對策的實施,北約軍隊在關鍵任務的行動中采用新的人工智能系統時需要謹慎行事。由于其他國家,特別是中國和俄羅斯,正在為軍事目的對人工智能進行大量投資,包括在引起有關國際規范和人權問題的應用中,北約保持其戰略地位以在未來戰場上獲勝仍然是最重要的。
Elie Alhajjar博士是美國陸軍網絡研究所的高級研究科學家,同時也是紐約州西點軍校數學科學系的副教授,他在那里教授和指導各學科的學員。在來到西點軍校之前,Alhajjar博士曾在馬里蘭州蓋瑟斯堡的國家標準與技術研究所(NIST)從事研究。他的工作得到了美國國家科學基金會、美國國立衛生研究院、美國國家安全局和ARL的資助,最近他被任命為院長的研究人員。他的研究興趣包括數學建模、機器學習和網絡分析。他曾在北美、歐洲和亞洲的國際會議上展示他的研究工作。他是一個狂熱的科學政策倡導者,曾獲得民用服務成就獎章、美國國家科學基金會可信CI開放科學網絡安全獎學金、Day One技術政策獎學金和SIAM科學政策獎學金。他擁有喬治-梅森大學的理學碩士和數學博士學位,以及圣母大學的碩士和學士學位。
我們的同行競爭者,利用科學、技術和信息環境的新興趨勢,已經投資于挑戰美國和重塑全球秩序的戰略和能力。他們采用創新的方法來挑戰美國和盟國在所有領域、電磁波譜和信息環境中的利益。他們經常尋求通過在武裝沖突門檻以下采取模糊的行動來實現其目標。在武裝沖突中,武器技術、傳感器、通信和信息處理方面的進步使這些對手能夠形成對峙能力,以在時間、空間和功能上將聯合部隊分開。為了應對這些挑戰,履行美國陸軍在保護國家和確保其重要利益方面的陸軍職責,陸軍正在調整其組織、訓練、教育、人員和裝備的方式,以應對這些圍繞多域作戰(MDO)概念的未來威脅。
陸軍的情報工作本質上是多領域的,因為它從多個領域收集情報,而且可以接觸到合作伙伴,彌補陸軍信息收集能力的不足。在競爭中,陸軍情報能力作為掌握作戰環境和了解威脅能力和脆弱性的一個關鍵因素。在整個競爭過程中,陸軍情報部門為每個梯隊的指揮官和參謀人員提供所需的態勢感知,以便在所有領域、電磁頻譜和信息環境中可視化和指揮戰斗,并在決策空間匯集內外部能力。
這個概念描述了關鍵的挑戰、解決方案和所需的支持能力,以使陸軍情報部門能夠在整個競爭過程中支持MDO,以完成戰役目標并保護美國國家利益。它是陸軍情報部隊、組織和能力現代化活動的基礎。這個概念還確定了對其他支持和輔助功能的影響。它將為其他概念的發展、實驗、能力發展活動和其他未來的部隊現代化努力提供信息,以實現MDO AimPoint部隊。
陸軍未來司令部的情報概念為陸軍情報部隊的現代化活動提供了一個規劃,以支持陸軍2035年的MDO AimPoint部隊在整個競爭過程中與同行競爭對手進行多域作戰。它提供了支持2035年以后MDO AimPoint部隊的見解。這個概念是對2017年美國陸軍情報功能概念中概述想法的修改:情報作為一個單位在所有領域的運作,有廣泛的合作伙伴投入。這個概念擴展了這些想法,以解決陸軍在進行大規模作戰行動中的頭號差距:支持遠距離精確射擊的深度傳感。領導陸軍情報現代化的舉措是組織上的變化,以提供旅級戰斗隊以上梯隊的能力,以及支持深層探測問題的四個物資解決方案。
支持MDO AimPoint Force 2035的組織變化使戰區陸軍、軍團和師級指揮官能夠以遠程精確火力和其他效果塑造深度機動和火力區域。在戰區層面,軍事情報旅的能力得到提高,新的多域特遣部隊擁有軍事情報能力。遠征軍的軍事情報旅被重新利用和組織,以支持軍團和師的指揮官,而不是最大限度地向下支持旅級戰斗隊。
支持MDO AimPoint Force 2035的物資變化,即將所有的傳感器、所有的火力、所有的指揮和控制節點與適當的局面融合在一起,對威脅進行近乎實時的瞄準定位。多域傳感系統提供了一個未來的空中情報、監視和偵察系統系列,從非常低的高度到低地球軌道,它支持戰術和作戰層面的目標定位,促進遠距離地對地射擊。地面層系統整合了選定的信號情報、電子戰和網絡空間能力,使指揮官能夠在網絡空間和電磁頻譜中競爭并獲勝。戰術情報定位接入節點利用空間、高空、空中和地面傳感器,直接向火力系統提供目標,并為支持指揮和控制的目標定位和形勢理解提供多學科情報支持。最后,通過分布式共同地面系統,陸軍提高了情報周期的速度、精度和準確性。
伴隨著這些舉措的是士兵培訓和人才管理方法,旨在最大限度地提高對目標定位和決策的情報支持。從2028年MDO AimPoint部隊開始,陸軍情報部門將繼續改進軍事情報隊伍,以支持2035年及以后的MDO AimPoint部隊。
這一概念確定了陸軍情報部門將如何轉型,以支持陸軍和聯合部隊在整個競爭過程中與同行競爭者抗衡。
圖1 邏輯圖