人工智能(AI)已進入世界各大行業,軍事行業也不例外。幾乎每個國家都在尋找新的方法將人工智能應用到軍隊中,無論是通過作戰、醫療還是分析預測。雖然戰場上的人工智能是頭條新聞(如無人駕駛無人機、智能彈藥等),但其潛力并不止于此。說到人工智能在戰場之外的用途,能夠監測生命體征、定位失蹤人員和進行預測性維護的程序只是軍方如何在非戰斗環境中使用人工智能的一些例子。
本文的目的是探討上述人工智能的用途,具體來說,就是在涉及美國海岸警衛隊(USCG)的深海和近岸搜救(SAR)案例時,分析實施預測分析人工智能機器學習算法的可能性。這將通過將人工智能模型與海岸警衛隊目前用于定位溺水人員的計算機程序(即搜救優化規劃系統(SAROPS))配對來實現。本文的研究將解釋為什么在美國海岸警衛隊中實施人工智能是有益的,同時還將解釋將使用哪種人工智能,以及如何對人工智能進行編程以完成所需的必要任務。本文還將介紹預測分析型人工智能在軍事領域的現狀、美國海岸警衛隊(USCG)當前的搜救協議,以及美國海岸警衛隊(USCG)如何將人工智能與當前的搜救行動結合起來,以提高搜救成功的可能性(POS)。
近 15 年來,SAROPS 已被證明是尋找溺水人員的有效算法,但 SAROPS 在某些方面仍有不足,人工智能算法的加入將使其受益匪淺。就目前而言,SAROPS 有兩大問題需要解決,而人工智能的加入將使其立即受益。
當前 SAROPS 程序的第一個問題是使用起來越來越復雜,需要大量的培訓才能準確操作程序。美國海岸警衛隊退役指揮官德魯-凱西(Drew Casey)(2021 年)說:"海岸警衛隊的搜救案例規劃軟件--搜救最佳規劃系統(SAROPS)變得越來越復雜。它不僅需要指揮中心多年的經驗才能掌握其使用方法,還需要掌握其輸出結果的實際應用"(Casey,2021 年)。雖然 SAROPS 是一個有用且有效的程序,但它的操作難度卻越來越大,尤其是在專業技術力量薄弱的小型單元。像 SAROPS 這樣的高難度程序在高壓力環境(如搜救案例)中的學習也具有挑戰性。凱西接著說:"現在,行動專家要花費大量時間......接聽來自各種報告來源的電話,并將相關信息分發給......分區指揮部的主題專家。這種控制范圍的擴大和行政消耗的增加從來都不是有意為之"(Casey,2021 年)。隨著 SAROPS 操作難度的增加,這給知道如何使用 SAROPS 的操作專家(Operation Specialist,OS)帶來了巨大的壓力,導致操作專家的壓力增加,犯錯的機會也隨之增加。采用機器學習算法后,一旦人工智能學會了如何實現成功的 SAROPS 案例所需的功能,就不再需要大量的人工輸入。信息可以直接發送到數據庫,然后人工智能就能對其進行標注和相應的使用。使用人工智能將大大減少教導新操作員如何有效使用程序的時間,從長遠來看,它還能確保更高的準確性,因為計算機在標注數據集和輸入信息方面比人類更準確。
這就引出了第二個問題:準確性。SAROPS 是一個需要高度準確性的程序,但遺憾的是,實現最佳結果所需的準確性水平并非總能達到。美國海岸警衛隊海洋學家克里斯蒂娜-福布斯(Cristina Forbes)(2024 年)在談到 SAROPS 的準確性時說:“模型數據的不準確性對海上失聯海員的搜救工作來說非常具有挑戰性,因為搜索將在錯誤的地點進行,從而延誤救援并耗費資源”(福布斯等人,2024 年)。如果在 SAROPS 編程時出錯,后果將是耗費時間,而時間在 SAR 案例中是非常寶貴的。對人工智能進行編程,使其能夠成功地對大量信息進行分類,將大大降低錯誤數據危及任務的風險,因為人工智能不僅擅長準確整理和計算數據,而且讓人工智能發揮主導作用幾乎可以完全消除人為錯誤。這也讓 SRU 在運行時更有把握,知道他們發送的搜索模式是最好的,因此在高度緊張的情況下不會再猜測算法。這是人工智能在搜救領域發揮作用的兩種最直接的方式,美國海岸警衛隊可以通過實施預測分析 ML 程序輕松實現這一目標。
人工智能(AI)領域發展迅速。新的人工智能技術不斷被開發出來,有時甚至是突破性的。這些技術越來越多地融入日常生活的方方面面,對商業、經濟和科學發展與創新至關重要。國防部門也在尋求利用人工智能,并將這些新技術引入安全領域,這并不奇怪。正如 Murugesan 所解釋的那樣(2022 年,第 4 頁),除其他外,人工智能可用于 “重復性任務,從而將安保人員解放出來,從事需要人類智慧的項目”。此外,為了證明人工智能的好處,“北約成員國已經開始投資這項技術,并將其納入國防戰略”(Carlo, 2021, 第 269 頁)。
盡管人工智能好處多多,但預計它將給 “交戰雙方的戰略、作戰藝術、戰術和條令帶來巨大變化”(Ploumis, 2022, 第 1 頁)。因此,需要仔細考慮和研究這些變化,以防止它們可能帶來的風險。例如,人工智能技術 “對網絡戰有重大影響,但也可能產生不利影響,并在未來顯著增加網絡攻擊的數量和威脅程度”(Kline et al.)
因此,人工智能系統有望影響 “戰爭的進行,帶來新的能力,并改變力量平衡”(辛格-吉爾,2019 年,第 169 頁)。根據這些假設,本文旨在研究人工智能如何影響沖突的性質。特別是,考慮到技術兼容性和倫理因素,本文試圖更好地理解在軍事聯合行動中將人工智能技術引入安全部門所帶來的益處和風險。人工智能系統在國防領域的發展如何影響軍事合作?將人工智能納入國防部門有哪些好處和風險?
在討論了人工智能的定義問題之后,本文將討論將人工智能技術納入國防領域的諸多影響。人工智能軍事應用的利弊是什么?人工智能會帶來哪些安全后果?為了回答這些重要問題,本文分為四個主要部分。
第一部分討論網絡戰問題。它側重于人工智能對網絡安全的影響。在定義了網絡戰的概念并解釋了該主題的相關性之后,將根據其主要目標分析人工智能的兩種主要應用:進攻型人工智能和防御型人工智能。前者旨在改進網絡攻擊,后者旨在增強網絡空間中特定行為者的防御能力。
第二部分側重于人工智能在物理空間的應用。人工智能可以通過監視、偵察和改進組織的形式,為戰場上的軍事行動帶來巨大的戰術效益。人工智能還可應用于無人系統和車輛,也稱為無人機和機器人。然而,這并非沒有風險,因為人工智能系統并非無懈可擊,可能成為網絡攻擊的目標,給軍事行動帶來嚴重后果。
第三部分分析了人工智能的地緣政治影響。這項技術為國家行為體提供了重大戰略優勢。這些優勢吸引他們增加對人工智能的投資,并將其納入國防能力。這有可能引發新一輪軍備競賽,將人工智能技術武器化。將人工智能系統納入國防領域也給軍事合作帶來了挑戰,特別是在技術兼容性方面。最后,最后一節將討論將人工智能納入安全部門的主要倫理考慮因素。
為支持在不確定的動態環境中長期部署,同時減少人類面臨的威脅和危險,有必要將更多支持人工智能(AI)的機器人整合到軍事和第一反應領域。人工智能機器人作為人類隊友的有效整合將提供支持并提高整體任務性能;然而,目前有關人機交互的研究大多只關注機器人團隊主管。要將機器人真正融入軍事和第一反應任務,需要人類扮演從最高指揮層到直接與機器人一起工作的下地人員等多種角色。層級結構中的所有人類角色都必須了解并保持對機器人隊友的直接控制。本文將文獻中現有的人類角色映射到軍事任務中,提出了與未來人類-機器人團隊合作相關的技術挑戰,并提供了潛在的解決方案和建議,以推動該領域向能夠完成相關領域任務的人類-機器人團隊邁進。
圖:人類與機器人協同作戰的概念軍事示意圖,顯示了 (a) 前沿作戰基地、(b) 下裝巡邏和 (c) 車輛巡邏的示例。請注意,為便于查看,人員、機器人和車輛均已放大。
圖 1 提供了角色圖示,用于說明軍事小故事。有些角色將駐扎在遠離戰場或事件響應區(也稱為熱區)的地方,在那里他們可以從更廣闊的視角來了解需要管理的情況。如圖 1a 所示,這類軍事角色可能駐扎在前方作戰基地。圖 1b 和 c 顯示了結合地面和空中機器人的兩個部署示例,一個是徒步巡邏,另一個是乘車巡邏。這些示例展示了不同角色如何分布在一個軍事單元中,并包括平民旁觀者。
多年來,人工智能一直被用于改進信號情報的收集和分析,但本文探討了生成式人工智能可為戰略情報分析人員執行的一系列任務。文章認為,將生成式人工智能融入情報評估的最穩妥做法是作為人類分析師的 “副駕駛員”。盡管存在不準確、輸入偏差和 “幻覺 ”等問題,但生成式人工智能可以解放時間不足的分析人員,讓他們專注于人類最有價值的任務--運用他們的專業知識、隱性知識和 “現實感”。
人工智能(AI)是無法回避的。我們每個人每天都直接或間接地與它打交道。除了柯潔在圍棋比賽中輸給谷歌的 AlphaGo 這樣的偶然拐點之外,人工智能幾乎沒有大張旗鼓地滲入社會。但現在,圍繞人工智能的爭論非常突出。這主要與用戶友好型生成式人工智能軟件的發布和廣泛采用有關,其中最著名的是 ChatGPT 和 Google Bard。這些功能強大的程序潛力巨大,許多評論家認為它們的影響堪比另一場工業革命。的確,將人工智能應用到各個領域,尤其是醫學領域,可能會帶來革命性的變化;但同樣,它也會帶來巨大的潛在風險--安全、經濟、社會和文化風險。首相蘇納克(Rishi Sunak)希望英國能掌握這個等式的兩面:在人工智能監管和安全方面引領世界,11 月在布萊切利公園舉行的人工智能安全峰會就是一個標志;同時也要抓住這項技術帶來的機遇。八十年前,布萊切利公園的前主人--密碼破譯員、語言學家、數學家和工程師--曾與英格瑪機器搏斗并開創了計算技術的先河。本文關注的是生成式人工智能為他們在情報界的繼承者,特別是那些專注于情報評估技術的繼承者帶來的機遇和挑戰。文章認為,生成式人工智能有可能極大地補充分析工作。但就目前而言,它最有用的應用是作為輔助工具、副駕駛員,它有可能極大地增強分析人員的工作,但也應謹慎使用。
情報與技術是一對老朋友。幾十年來,它們彼此推動著對方的發展。這一點在電子和計算機領域體現得最為明顯。在秘密行動中,情報機構推動了技術的發展。它們還經常是新技術的早期采用者,利用新技術開發、維護和增強能力。畢竟,適應性是成功情報機構的標志之一。英國皇家情報總部成功地從模擬機構轉型為數字機構,如今甚至將自己定位為 “情報、安全和網絡機構”。人工智能已經以多種方式補充了情報工作。各國經常使用人工智能增強系統來協助收集情報。許多在秘密領域工作的私營部門承包商也在人工智能領域大顯身手。由人工智能軟件支持的閉路電視攝像網絡被廣泛用于識別和追蹤城市環境或恐怖風險較高地區(如火車站)的個人或物體。這種技術也為專制政府提供了無與倫比的機會來壓制不同意見或異議,新疆和其他地方的情況就說明了這一點。除數據收集外,這項活動的大部分內容還涉及更輕松、更高效地對數據進行鑒別或選擇,從而為時間有限的分析人員的工作提供便利,因為他們需要評估這些數據的含義。人工智能被廣泛應用于翻譯、將截獲的互聯網流量減少到可控水平、語音識別或在開放的互聯網上搜索對象的協會和聯系人等費力的任務。在英國,INDEX 系統允許分析人員在政府和外部報告中進行搜索。核心信息可以通過自然語言處理系統提取和匯總。但是,正如剛剛退休的英國聯合情報委員會主席西蒙-加斯(Simon Gass)爵士在今年 6 月指出的,“我們正處在這個階段的山腳下”。
需要將生成式人工智能和大型語言模型(LLM)整合到情報評估的正常業務中。簡單地說,生成式人工智能是指 “能夠根據訓練數據生成高質量文本、圖像和其他內容的深度學習模型”。這些技術已經在國防和情報領域受到高度重視。英國國防部國防創新總監約翰-里奇(John Ridge)最近指出,“我們可以肯定的一點是,這類能力將是絕對關鍵的”。這些能力是革命性的,還是只是情報工作的另一個發展階段,還有待觀察。但它們改變商業模式的潛力是顯而易見的。前幾代人工智能主要集中在更有效地收集數據和更有效地整理擺在民間和軍事情報分析師面前的材料上,而生成式人工智能則展示了承擔迄今為止只有人類分析師才能完成的任務的潛力。基于 LLM 的工具(如 ChatGPT)的主要賣點是,它們可以對問題或命令形式的提示做出響應,并利用現有材料在特定參數范圍內做出響應。或者換一種說法,可以命令它們按照特定規格撰寫類似人類的報告,以計算機的速度,根據大量數據提出見解或作出推論。
從這個意義上說,情報分析和評估與其他以研究為基礎的工作領域處于類似的地位,它們可能(而且幾乎肯定會)受到干擾。這些領域包括醫療和法律行業,在這些行業中,根據有關特定主題的全部數字化文獻資料快速、清晰地編寫報告或文件的前景非常誘人。教育領域也受到了影響,其傳統模式正在被檢測機器生成的作品這一挑戰以及人工智能時代究竟什么才是合法研究這一更具哲學意義的問題所顛覆。盡管如此,在這些領域中的每一個領域,理論上都可以在很大程度上將曾經由人類完成的基本任務外包給機器,盡管需要保持謹慎的警惕。這樣做已經產生了令人印象深刻、有時甚至發人深省的成果,比如一篇關于 ChatGPT 對檢測剽竊行為的影響的學術論文,該論文已提交給同行評審的學術期刊,并被其接受,但這篇論文是用 ChatGPT “寫 ”出來的。不過,如果從各行各業廣泛采用 LLM 的軼事證據來看,人類分析師的日子還遠未到頭。在不久的將來,應將 LLMs 視為情報分析員的額外工具,是提高效率和效力的輔助工具。他們是 “副駕駛員”,可以評估論點、進行數據分析或校對,而不是潛在的替代者。就目前而言,在這些領域中的任何一個領域,要想以其他方式開展工作,風險都太大了。情報工作也不例外:在全球競爭的環境中,整合這些工具的必要性只會越來越強,但過快或魯莽行事顯然存在風險。審慎的做法是,情報評估機構利用人工智能增強人類分析師的能力,為他們創造更多的時間和空間,讓他們運用不可或缺的隱性知識和 “現實感”--以賽亞-伯林(Isaiah Berlin)所說的感同身受的理解是歷史解釋的一個關鍵特征--來理解全局。
令人欣慰的是,谷歌Bard也同意這一點。當被問及它能為情報分析帶來哪些好處時,該程序回答說,它可以執行許多有用的任務。這些任務包括收集信息、分析信息、生成報告、交流研究結果、提出情報需求、管理情報資源和監督情報行動,以確保它們符合法律和道德標準。但是,當被要求確定使用 LLMs 進行戰略情報分析的風險時,它指出:"重要的是,要將機器的產出與情報分析結合起來: 重要的是要將機器輸出與人工分析和解釋以及對地緣政治環境的全面了解結合起來"。顯然,如果 “言聽計從”,該系統具有巨大的潛力。但在充分挖掘潛力之前,所有相關人員都需要考慮并解決幾個基本挑戰。
這些問題包括通常對 IT 網絡安全性和穩健性的擔憂,例如:確保集成軟件經過安全架構審查所面臨的挑戰、供應鏈風險的可能性、數據存儲的安全性、確保提交給任何系統的查詢都經過加密或不可能被敵方重建。其他值得注意的安全問題來自于大量的訓練數據、數十億個參數以及設計可行工具所需的訓練過程。目前,這項工作是在基于云的系統中進行的,因此除了常見的網絡安全問題外,還增加了數據主權問題。此外,為了最大限度地發揮其價值和效用,特別是在快速發展的情況下,LLM 需要經常或持續訪問互聯網。顯然,有必要將那些與開放互聯網保持聯系的系統與情報分析員處理更敏感材料和制作情報評估產品的封閉、保密網絡分開。
上述問題都不是不可克服的,但這些挑戰突出表明,必須有條不紊地解決這一問題,協調政府各相關機構利益攸關方,以成功實施這一至關重要的信息技術項目。這些挑戰也并不都集中在如何確保系統不被敵對勢力破壞上。還需要考慮監管問題。事實上,大衛-安德森(David Anderson)勛爵在上議院關于人工智能的辯論中指出,"在一個人人都在使用開源數據集來訓練大型語言模型的世界里,英國信息中心受到了《調查權力法》第 7 部分的獨特限制。這些限制'在某些重要情況下影響了英國信息中心的靈活性,影響了它與商業伙伴的合作,影響了它招聘和留住數據科學家的能力,并最終影響了它的效率'。
只要能找到令人滿意的解決方案,LLM 對分析師工作的許多方面都極為有用。其中包括較為傳統但費力的任務,如作為研究助理,就特定主題(如國際爭端的背景)提供近乎即時的不同長度和細節的摘要,或構建時間軸、撰寫簡介、總結或分析冗長的文本,或(假設版權和訂閱問題得到解決)將最新的學術著作納入其中。雖然第一批LLM是在英語語料庫中接受培訓的,但目前開發多語言模型的工作進展順利。當然,鑒于已發現生成式人工智能生成的回復在準確性和完整性方面存在問題,任何此類產品都必須經過主題專家的檢查,類似于跨白廳當前情報小組系統。這可能會提高穩健性和效率,并隨著時間的推移,促進機構學習和流程改革。
但潛力顯然不止于此。生成式人工智能還可以包括更先進、更重要的工作。例如,分析師可以使用 LLM 來審查和驗證他們的書面報告,從而增強現有的分析流程和產品審計程序。例如,可以要求提供任何對關鍵判斷提出質疑或證偽的數據;查詢長期以來生成的報告,以確定已成為傳統智慧的假設;或使用工具生成 “紅隊 ”評估。從理論上講,這種能力可以在幾個方面幫助分析人員識別或根除導致情報失敗的某些偏見因素,并確保報告盡可能是最新的。不難想象,這些工具的提供和適當使用將如何提高分析界的速度、影響范圍和批判性地反思其行為和業績的能力。
目前這一代 LLM 也可以撰寫報告或評估報告。將此類寫作任務的早期起草階段外包給一個工具,可為資源和時間貧乏的情報分析員創造經濟效益。毫無疑問,謹慎采用 LLM 是有道理的。但這項技術仍然有限,需要認真監測。這些局限性帶來了風險,這一點在 2023 年大眾廣泛嘗試使用 LLM 之后已經得到證明和充分記錄(在 META 推出 Threads 之前,沒有任何應用能像 ChatGPT 那樣迅速得到采用,該應用在推出后五天內用戶就達到了 100 萬)。對于情報分析師及其產品的接收者來說,其中許多挑戰都是非常棘手的。其中包括對這些工具所提供信息的準確性和可靠性的擔憂。這些系統非常善于生成似是而非的文本、聲明和結論。但這些可能在現實中沒有任何依據,甚至在建立 LLM 的訓練數據中也沒有任何依據。這種 “幻覺 ”已被廣泛觀察到;在學術工作中,經常出現的 “幻覺 ”是生成不存在的資料來源(例如,引用聽起來很有道理但實際上并不存在的網頁)來支持生成的主張。這究竟是 LLM 的一個特點還是一個缺陷,還存在爭議。無論如何,這都對采用 LLM 進行情報評估構成了重大挑戰。分析人員從這些工具中獲取材料并將其納入分析產品時,必須對基礎源數據進行系統檢查。因此,這項技術提出了一個悖論:一是節省時間,二是增加工作量。
與其他人工智能系統一樣,LLM 也會在其生成的任何內容中嵌入偏見。該系統的吸引力和潛力在于它有能力攝取和查詢大量資料--基本上是整個開放互聯網--但必然結果是,該系統也會攝取現有的偏見和廢話,這些偏見和廢話可能是關于特定主題的主流敘事,或者是關于特定主題的特定語言。同樣,毫無疑問,破壞性或惡意行為者會利用 LLM 快速、廉價地生成大量虛假信息并充斥網絡。毫無疑問,敵對行為者也會試圖毒害公共或專有 LLM。目前,大多數開放的生成式人工智能應用程序本質上都是黑盒子,這些系統不允許(或不會允許)用戶檢查它們得出特定判斷的過程。這是由于神經網絡依賴多層節點處理數據的本質所致。這種可觀察性的缺乏,再加上基于 LLM 的系統在可復制性方面的某種脆性--即它對準確提示措辭的依賴--帶來了風險和挑戰。事實上,鑒于在專業情報界對分析評估采用可審計程序的重要性,在這些工具被納入正常業務之前,這個問題構成了一個需要克服的重大障礙--或者說需要掌握的挑戰。正如在人工智能之前的時代一樣,結論必然需要由經驗豐富、訓練有素的人員進行檢查、驗證和整個過程的審計。
這些風險有可能被充分降低,使這些工具能夠相對迅速地融入分析流程。許多研究人員正在開發人工智能系統,以識別人工智能在各種情況下生成的內容,如學術論文或視頻文件。還有一些研究人員正在研究可審計的 LLM 系統;還有一些研究人員正在研究如何開發安全的系統,讓分析人員能夠在分類系統和開放的互聯網上進行搜索。但是,即使這些問題可以得到緩解,還有另一個根本性的問題,即這些系統是否只能是衍生系統,因為它們基本上完全建立在基于已有材料的計算模型之上。它們所提供的洞察力能否與任何接近 “想象力 ”的東西相匹配,還是說它們目前的貢獻仍將局限于語法和風格的練習,偶爾會出現幻覺?或者,換一種說法,他們可能會對某個問題進行極其(或表面上)合理的討論,但鑒于這些討論是根據一個統計模型得出的,該模型關注的是某個特定的詞或概念或 “標記 ”與另一個詞或概念或 “標記 ”相聯系的可能性,并以訓練材料為基礎,那么討論結果中是否會存在固有的保守主義或其他偏見?盡管如此,該領域的變化速度之快,即使預測其對情報評估的相對近期影響也充滿了不確定性,突出表明需要不斷審查該領域的發展。
雖然其他類型人工智能的貢獻已經得到證實,但對生成型人工智能的前景過于技術樂觀也會帶來風險。雖然這不是一個精確的類比,但美國情報界在 9/11 事件之前忽視人類情報(HUMINT)技能而青睞高科技的做法,應該為任何想把 LLM 的出現視為減少情報界人力的機會的人提供一個警示。選擇不當的捷徑會造成長期延誤。顯然,政府必須也必須與 LLM 打交道,必須不斷審查現有技術的效用,并愿意在這些系統得到驗證后擴大其使用范圍。但是,除了投資(擁有或使用)LLM,政府還應保留并加倍投資于人。在采用 LLM 的過程中,最大限度地提高效益和降低風險的一個關鍵因素將需要包括保持和發展對情報分析師的培訓,使他們能夠最好地利用這些強大的新工具。這可能包括專業途徑,培養一批善于將生成式人工智能融入分析實踐 “新常態 ”的官員,使他們能夠掌握現有系統,最大限度地發揮其效用,同時將其帶來的風險降至最低。但同時也應保持并優先培養主題和分析技術方面的專家,他們可以用經驗和智慧、隱性知識和人類特有的 “現實感 ”來補充生成式人工智能的巨大威力。在開展這項工作的同時,還應在政府內部(更不用說更廣泛的公眾)開展更廣泛的教育計劃,讓他們了解人工智能的用途和局限性。消費者,尤其是自詡為技術狂熱者和有遠見的 “深層國家 ”或 “小集團 ”的破壞者,應該仔細了解由于 LLM 的便利而繞過其分析機制的局限性和風險。世界不需要唐納德-拉姆斯菲爾德(Donald Rumsfeld)在伊拉克戰爭前的 “特別計劃辦公室”(ChatGPT)。就目前而言,將 LLM 衍生工具整合到分析流程中最合理的使用案例是,由經驗豐富、訓練有素的人類分析師作為 “副駕駛員”,嵌入到仍然樂于向消費者提供不受歡迎的消息的組織中。
如今,航空業不斷發展,特別是隨著新技術和新解決方案的出現。因此,航空業對提高安全性和運行效率的要求越來越高。為了保證這種安全性,必須對飛機發動機進行有效的監測、控制和維護。因此,研究界正在不斷努力,以提供高效、經濟的解決方案。在這個意義上,人工智能,更具體地說,機器學習模型已經得到了應用。這就是本文的命題所在。它提出了利用機器學習模型實施預測性維護的解決方案。它們有助于預測飛機故障。這是為了避免計劃外維護和服務中斷。
通過整合尖端技術和先進的數據分析,航空業已進入飛機維護和可靠性的新階段。在航空領域,飛機部件的可用性和良好運行一直至關重要。通過準確的故障預測可以提高飛機系統和部件的可用性。維修作業的時間安排是決定飛機部件維護和大修總成本的關鍵因素,而維護和大修成本在航空系統的所有運營費用中占很大比重。在航空業,設備維護主要有三種形式。糾正性維護涉及維護程序和使用飛機設備時出現的計劃外問題,如機器和設備故障。預防性維護旨在通過定期維護減少計劃外維修,防止設備故障或機器故障。計劃中的任務可避免意外停機和故障事件,最大限度地減少維修操作的需要。顧名思義,預測性維護利用設備運行期間測量到的參數來預測潛在的故障。其目標是在故障發生前進行干預,通過為從事維護工作的人員提供更可靠的預防性維護計劃選擇,減少意外故障。評估系統可靠性對于選擇適當的維護策略至關重要。隨著人工智能技術的出現,預防性維護取得了令人矚目的進展。借助人工智能方法及其分析大量歷史數據(包括飛機部件、發動機性能、傳感器讀數和維護記錄)的能力,可以實施預防性分析,以便在問題發生之前進行預測。這樣就能降低意外停機的風險,并及時進行干預。人工智能還有助于根據任務的關鍵性有效地確定優先級,并相應地優化資源分配。最后,通過在飛機部件上部署傳感器和其他物聯網設備,人工智能技術可以對飛機進行實時監控,以監測其健康狀況和性能。在本文中,人工智能的一個方面將用于實施預測性維護,即機器學習。選擇這些模型的依據是它們在文獻中的表現。在分析和探索大量商用模塊化航空推進系統模擬(CMAPSS)數據集時,將對這些模型進行探討。文章提出的方法首先是深入探索和準備數據,這是機器學習和決策系統的核心模塊。這包括使用直方圖來了解相關變量的分布情況。這一步驟有助于深入了解數據的統計特征,并幫助識別潛在的模式和異常情況。這一過程包括選擇和設計相關屬性,以全面了解發動機健康狀況和潛在故障情況。這些細致入微的步驟為構建強大的預測模型奠定了基礎,該模型有可能重新定義航空維修實踐,這也是構建機器學習模型的下一步。本文闡明了這些進展的意義、所采用的方法、由此產生的見解及其對航空航天業的深遠影響,以提高飛機發動機的安全性和效率。
這項工作的主要目的是建立一個能夠預測飛機渦輪風扇發動機潛在故障的系統。為此,我們創建了一個準確可靠的人工智能模型,利用數據分析和預測技術來預測故障。
首先,對 C-MAPSS 數據集進行了詳細描述,包括輸入變量和數據集組成的介紹。建議的方法使用分類方法來預測最終的故障部件。建議的方法分為三個步驟: 首先,直方圖;2)平衡數據;3)平滑數據;4)提取特征;5)通過開發監督機器學習模型獲得最終預測結果。
人工智能(AI)正開始徹底改變人類生活的方方面面。從協助醫療保健到為商用無人機送貨導航,科學和工程學在提供 "智能機器 "方面取得了前所未有的進展,為人類帶來了巨大的利益。人工智能的影響是如此廣泛,以至于任何領域如果沒有隨之而來的技術飛躍,就一定會錯過未來的科學發展。因此,各國都相當重視開發人工智能的軍事用途,以保持戰區優勢。基于人工智能的技術可用于軍事領域,以執行復雜而嚴苛的任務,特別是在充滿敵意和不可預測的環境中;海洋戰區完全符合這一框架。海洋環境通常沒有地圖,難以導航,使用基于人工智能的系統對船只進行跟蹤、計算、探測、繪制地圖并執行最佳行動,可以增強現有的航海能力。在需要對海洋環境進行持續情報、監視和偵察的作戰地點,人工智能支持的系統可以消除海洋物理學的敵意,即靜水壓力、海洋湍流、熱梯度和海洋鹽度等。所有這些因素使無人智能系統成為海軍力量結構中不可或缺的資產。此外,相對 "雜亂無章 "的海洋環境可能是第一個部署完全自主武器的戰場。
然而,就在這些技術不斷發展的同時,有關使用具有自主能力的致命系統的法律和倫理問題也開始變得日益突出。這些系統在國際法中的地位問題依然存在,特別是《日內瓦公約》第 36 條(第一附加議定書),其中規定各國需要對新武器進行法律審查,以確保其符合國際法。[3] 因此,即使新一代基于人工智能的作戰技術即將問世,賦予此類系統瞄準自主權也必須嚴格遵守國際法的規定。在基于人工智能的海軍作戰的具體背景下,具有瞄準能力的人工智能支持系統需要能夠持續區分軍事資產和民用船只。
本文描繪了人工智能在海軍系統中的發展、其在海軍作戰管理中的整合,以及由此對現有作戰環境產生的影響。本文試圖確定基于人工智能的系統是否是維護海洋公域安全的答案。主導整個討論的三個問題是:人機協作(也稱人機協同)、機器不同程度的自主性以及人工智能可能影響海軍行動的各種任務。本文探討了使用此類系統的原則是如何與此類技術的進步同步發展的,以及以人工智能為中心的作戰環境可能帶來哪些人力、概念和組織方面的挑戰。文章概述了印度在無人海軍系統方面的做法,以及印度海軍在實施國家人工智能戰略時的作戰環境。最后一節建議采取措施,確保向人工智能支持的海軍行動順利轉型。
首先,有必要區分基于人工智能的海軍作戰系統和基于人工智能的海軍戰車。雖然兩者并不相互排斥,但正在開發和采用的基于人工智能的海軍作戰系統需要全面的人機協作,而基于人工智能的海軍車輛則不一定有人類監督。人工智能影響和增強海軍行動的兩種大致不同的方式如下:
海軍作戰系統--在海軍作戰系統中應用人工智能,可通過結合軟件流程實現更智能的指揮和控制,從而提高海軍的總體可操作性。這些技術還可用于作戰管理系統,以更好地確定目標和繪制敵方資產圖。將這些系統集成到海軍艦艇的現有傳感器中,將增強艦上軍官的決策過程,"通過智能處理多種信息來源,同時提示系統評估和確認潛在威脅"。各國海軍開發這些系統的目的是提高 "作戰單元的作戰能力","在復雜、快速移動的作戰場景中實現快速決策"。
無人駕駛艦艇--人工智能在無人駕駛艦艇中的應用可以從一般的導航支持擴展到完全的自主運行。這些艦艇或車輛(可互換使用)已成為海軍行動的重要組成部分,通常與常規艦艇一起部署,發揮非致命性作用。這些艦艇大致可分為無人潛航器(UUV)和無人水面艦艇(USV),其中大多數由人類直接控制,缺乏任務自主性。這些船只可以通過'遠程遙控'進行遠程操作(簡稱 ROV),遠程遙控允許遠程操作員利用衛星鏈路指揮和監督無人駕駛船只"。
具有一定自主性的無人海軍艦艇通常被歸類為自主水下航行器(AUV)和自主水面航行器(ASV)。斯德哥爾摩國際和平研究所(SIPRI)關于 "繪制武器系統自主性發展圖 "的報告將自主性定義為 "機器在沒有人類輸入的情況下,利用計算機程序與環境的相互作用執行一項或多項任務的能力"。"這些系統無需人工干預即可執行大多數分析功能,從而減少了對傳統上執行這些功能的人類船員的需求。對于由操作員完全控制的船只,人類被視為 "環內";對于具有一定程度自主性但受人類監督的船只,人類被視為 "環上";而對于完全自主執行任務的無系船只,人類被視為 "環外"。這些不同程度的自主性在討論這些無人駕駛資產編程執行的任務類型時尤為重要。圖 1 和表 1 展示了無人艦載機的各種分類。
圖1:無人海事系統分類
表 1: 圖 1 所示無人海上系統的詳細分類
通過信息管理系統將人工智能應用于海軍作戰的目的是影響和增強海軍指揮官的決策過程。在海軍艦艇中使用數字助理來增強導航能力的做法并不是一個新概念,但海軍作戰系統下一步的開創性之處在于它們能夠徹底改變對整艘艦艇甚至整個艦隊的指揮和控制。人工智能軟件使指揮團隊有能力監控實時戰斗情況,并適當利用他們所掌握的海軍資產。這些系統將硬件和軟件(流程)相結合,徹底改變了海軍演習。神經網絡和深度學習算法的結合能夠向指揮團隊展示一幅無縫的作戰畫面,并協助他們做出決策,從而增強他們的人力。如果資產相互連接,這些系統甚至可以提高艦隊的可操作性。以指揮、控制、通信、計算機、情報、監視和偵察(C4ISR)為導向的系統可以連接到單個海軍艦艇,無論其級別如何。潛艇、護衛艦、航空母艦、戰列艦、無人駕駛車輛都可以單獨裝備此類系統,以增強其特定功能。與該系統相連接的無人駕駛資產具有回傳智能視頻分析的能力,能夠提供超視距(OTH)測繪和目標定位,將艦隊的視線延伸到各個方向。
如圖 2 所示,英國皇家海軍計劃在艦艇上安裝人工智能系統,以更好地探測威脅和評估作戰方案。洛克莊園研究公司(Roke Manor Research)的 "STARTLE "機器態勢感知軟件將增強艦艇現有的探測系統,并根據從這些傳感器接收到的數據做出明智的決定。這些系統可識別行為模式,利用深度學習技術運行基于多智能體的模擬,并使最終用戶能夠提高其海洋領域感知能力,以快速分派任務、探測和跟蹤不合作的船只。
圖 2 - 洛克公司的 "STARTLE "威脅監測系統(圖片:Roke.co.uk)。
還計劃為其核潛艇提供基于人工智能的決策支持系統,以減輕潛艇指揮官的負擔。這種支持系統的深度學習算法可以與其他傳感器相關聯,并幫助指揮官 "估計某些戰斗行動的風險和收益,甚至建議采取艇長未考慮的行動。"水下海軍指揮官經常從事枯燥乏味的行動,需要耐心、技能和導航專業知識,最重要的是要有能力對局勢的突然變化做出反應。這些系統可以減輕他們的疲勞,大大提高他們的作戰能力。
在私人運營商中,航空航天制造商勞斯萊斯已表示有意開發完全自主的船舶,擺脫人類船員的束縛。[33] 該制造商 "采用了最新的導航技術,將一系列傳感器與人工智能驅動的計算機相結合。"[34] 該公司已與谷歌云公司合作,將使用谷歌的云學習引擎來訓練其基于人工智能的物體分類系統。[35] 該軟件將主要用于探測、跟蹤和識別。
美國海軍為其瀕海戰斗艦(LCS)采用的 "綜合水上網絡和企業服務"(CANES)系統網絡是利用人工智能擴展和加固現有海軍作戰系統的一個實例[36]。"綜合水上網絡和企業服務 "的升級版將無縫連接艦艇、潛艇、岸上地點和其他戰術節點,增強海軍的可操作性,縮短應對網絡攻擊的行動周期,保護現有作戰系統。 [37]現代海軍艦艇安裝了數量驚人的傳感器套件,通過分析從不同節點接收到的大量信息,升級版的 CANES 網絡可以將信息合理化,消除異常情況并協助人類指揮團隊,同時還能保護系統免受網絡入侵。據克里斯-奧斯本(Kris Osborn)稱,基于人工智能的升級版 CANES 網絡 "正在進行專門配置,以提高自動化程度--在無需人工干預的情況下執行越來越多的分析功能。 "[38]他補充說,"特別是 LCS,它利用了相互連接的水面和多種任務包,這些任務包旨在使用大量艦船系統相互協調--人工智能分析可能會增強這些功能。"[39]美國海軍計劃在未來將升級版人工智能支持的 CANES 網絡擴展到其所有作戰資產,包括其核潛艇和旗艦 "福特 "級航空母艦。
所有這些海軍作戰系統的共同點是能夠從環境反饋中不斷學習。這些系統中嵌入的深度學習算法使它們能夠從各種情況中不斷學習,特別是通過評估人類的長期輸入。因此,為了加快學習過程并超越人類的能力,這些系統越來越依賴于 "機器學習"。正如一份報告所提到的,"機器學習是一種軟件開發方法,通過這種方法,系統可以學習任務并通過經驗提高性能"。[42]這一發展表明,未來的船舶可能會在沒有人類監督的情況下完全自主運行。這些系統可以提供有關水深、水溫和鹽度的信息,以提高聲納的精確度,并通過航點導航和防撞技術協助航向規劃,增強船只的航行能力。 [43]然而,在更具戰爭性的角色中,"機器學習的長足進步為武器系統自主化的發展創造了機會"[44]。這種程度的自主化讓人不禁要問,世界各國海軍是否愿意將如此多的控制權讓給此類作戰管理系統。
雖然人工智能在海軍作戰系統中的應用尚處于起步階段,但在無人航行器中的應用已較為成熟。 無人航行器已成為現代海軍結構的一個常見特征,隨著它們被部署執行更復雜的海軍任務,人類對它們的控制程度正在逐步降低。因此,當這些無人艦艇在沒有任何衛星上行鏈路的無系留環境中工作時,它們被賦予了完全的任務自主權。倫理與安全自動機專家肖恩-威爾士(Sean Welsh)認為,在海軍安全任務中,這些艦艇主要被用作增強戰斗力的手段,以提供無縫的海域感知(MDA)。
技術的集體進步使這些航行器能夠執行更復雜的任務,自主性和自身的支持包也得到了提高。Welsh 介紹說,"潛艇發射的 USV 通過系繩與'母'潛艇相連,提供海面視頻通信,而潛艇無需進入潛望鏡深度。這種 USV 然后發射小型無人機(UAV),使潛艇能夠從空中進行偵察。"[46] 雷神公司的 SOTHOC(潛艇超視距有機能力)就是這種系統的一個例子--"它從潛艇廢物處理鎖上彈出的無人發射平臺上發射一次性無人機。 "[47]在水面行動方面,美國海軍的 "海上獵人"(Sea Hunter)就是一個例子,說明如何部署反潛航行器進行大面積監視行動,跟蹤潛艇并將信息反饋給附近的船只或預先確定的指揮站。 [48] 由美國國防部高級研究計劃局(DARPA)研制的 "海上獵手"(Sea-Hunter),又稱 "反潛戰連續跟蹤無人船"(ACTUV),可配備傘降傳感器陣列,使其感知能力提高一千多英尺,增強了其全向無線電連接能力。
無人作戰的另一項發展正在改變海軍任務的性質,這就是所謂的 "蜂群"。蜂群主要是指一組無人機(飛行器),這些無人機(飛行器)本身可以自主行動,但作為一個整體是由遙控操作的。它們是為執行一個總體目標而量身定做的,但每個單元之間又各自獨立。軟件開發使這些單個的無人機能夠在更大的任務范圍內自行執行小型任務,同時又能無縫連接。美國海軍已經投資了一項研究計劃來開發這種能力。該計劃名為 "低成本無人機蜂群技術"(LOCUST),將允許操作人員控制蜂群的行為,同時保留單個無人機的自主性。[50] 美國海軍研究辦公室(ONR)甚至舉行了一次機器人蜂群演示,四艘無人機船在一個區域內巡邏,同時自動保持編隊,人類僅控制蜂群的大動作。 [51] 中國一家科技公司--云洲智能科技公司(Yunzhou Intelligence Technology,簡稱 "云洲科技")也在萬山群島進行了類似的演示,56 艘自主 USV 裝備了專門開發的 "自主模塊"。與蜂群相關的技術發展有能力改變傳統上以航空母艦等戰略資產為中心的海軍行動。蜂群技術將使海軍能夠分散其較小的戰術資產,執行與大型常規艦艇相同的安全任務,只要這些資產協調一致地執行指定任務即可。
適用于海軍作戰系統的深度學習算法概念同樣適用于自主海軍艦艇。 這些無人航行器在沒有人類監督的情況下,不斷從環境中學習,提高執行任務的能力,并增強洞察力。此類無人艦艇的目標自主性可滿足未來戰爭的需要,讓 "海上獵人 "號這樣的自動潛航器在自主執行任務的情況下進行全方位反潛作戰。同樣,如果獲得致命的自主權,自動潛航器很可能成為未來攻擊型潛艇的替代品。自主執行致命任務將使這種無人艦艇能夠為港口、大型船舶、商業船隊、海上交通線甚至核潛艇提供積極保護。可以說,未來的海戰空間將有利于自主系統。那么問題來了,致命自主武器系統(LAWS)何時部署?
海洋環境被認為是最適合初步部署致命性自主武器系統的區域,因為這里更容易識別資產,而且平民相對較少。[53] 武裝自動潛航器將提高海軍特遣部隊的行動帶寬,因為艦艇將有能力在沒有人工干預或指揮團隊任何投入的情況下發揮作用并攻擊敵方目標。在這場自動化革命的未來,我們很可能會看到這樣一種系統,它將成為海軍指揮和控制的掌舵人,有權在其認為必要時部署致命的無人資產,完全取代人類指揮團隊。在保護極易受到潛艇威脅的海區方面,使用致命性自主武器系統具有不可否認的優勢。在水下執行任務時,部署致命性自主武器系統將更有意義,因為通過遙控潛水器瞄準目標很成問題,由于無線電波在鹽水中的特性,潛艇中現有的通信僅限于 VLF(甚低頻)和 ELF(極低頻)無線電波[54]。
相反,基于人工智能的致命性自主武器系統是否符合國際人道法,則是過去幾年中具有全球意義的一場辯論。就本文而言,采用紅十字國際委員會贊成的定義是合適的。紅十字會使用"'自主武器'作為一個總括術語,包括任何類型的武器,其'關鍵功能'具有'自主性',這意味著一種武器可以在沒有人類干預的情況下選擇(即搜索或探測、識別、跟蹤)和攻擊(即攔截、對其使用武力、使其失效、破壞或摧毀)目標。 "[55]日內瓦的《聯合國特定常規武器公約》(CCW)一直是圍繞致命性自主武器系統合法性進行討論的平臺,該公約已就這一主題舉行了多輪磋商,但未能就如何規范這些不斷發展的武器系統達成共識。很有可能的是,在就監管致命自主武器系統的任何國際公約達成一致之前,就已經有了 "關鍵功能自主 "的武器系統。國際監管機構只能控制各國想要披露的信息,而各國為開發致命性自主武器系統而實施的任何秘密計劃都將繼續游離于《特定常規武器公約》的范圍之外。為了避免出現這種情況,一個非政府組織聯盟發起了 "制止殺手機器人國際運動"。在人權觀察組織的領導下,該運動一直要求先發制人地全面禁止致命性自主武器系統的部署和開發。[57] 由于其中許多技術都處于先進階段,國際社會對致命性自主武器系統的擔憂并非假設。斯德哥爾摩國際和平研究所的報告建議,《特定常規武器公約》應探討 "有意義的人類控制 "自主系統的概念,以規范致命性自主武器系統。
找到一個中間立場是有余地的,即可以對致命性自主武器系統進行編程,使其符合國際法準則。如果這些基于人工智能的飛行器和系統具有殺傷力并可自由攻擊目標,那么它們的任務自主權可僅限于預先編入其系統的機動程序。軟件開發人員可對其自主瞄準功能進行額外控制。在最基本的步驟中,開發致命的無人潛航器或賦予網絡系統致命能力,只需開發一個簡單的船只識別系統,對獨特的聲學特征做出反應即可。根據美國機器人學家和機器人倫理學家羅納德-阿金(Ronald Arkin)提出的原則,可以對這些系統進行進一步的倫理控制: 這些機制將確保智能行為的設計只在嚴格界定的道德界限內做出反應。為機器學習的學習算法編碼的軟件應具有卓越的目標識別能力,并允許創建技術,以適應道德約束集和隨著學習而發展的基本行為控制參數。
美國和中國在開發基于人工智能的海軍系統方面走在前列,這將增強兩國的海軍能力。兩國都投入了大量資源來制定在本國海軍中實施基于人工智能的系統的行動計劃,并在制定此類計劃的同時制定了支持這種向無人操縱轉變的創新作戰程序。美國國防部制定的《第三次抵消戰略》相當重視發展人工智能的軍事用途,目的是保持戰區優勢。[65]奧巴馬政府時期制定的戰略側重于發展尖端國防技術,以保持美國在戰場技術計算上對俄羅斯和中國等對手的優勢。
與此同時,軍事規劃人員也在提出適合新階段無人作戰的創新作戰概念。預計,蜂群智能和蜂群戰術可作為一種非對稱方法來攻擊美國的高價值武器平臺。 [71]"蜂群 "技術很有吸引力,因為它能讓以較低的軍事對抗概率進行武力投射。[72]在另一端,美國的分布式殺傷戰略旨在擺脫多年來圍繞高價值目標的海軍戰略,將行動能力分布在分散的資產中。 [73] 這兩種戰略都會使目標難以鎖定,并使對手的能力不堪一擊。
總的來說,無人平臺在執行水下任務,尤其是反介入/區域拒止(A2/AD)戰略方面最具潛力。[74] 相反,無人平臺也可用于反介入/區域拒止戰略,正如 ORF 分析師 Abhijit Singh 所說,"無人平臺的決定性特征是能夠將作戰行動擴展到對手的反介入/區域拒止區域,而不會危及機載系統的完整性或將己方部隊置于危險境地。 "[75]無人飛行器可執行各種非致命行動:對淺水沿岸地區進行主動勘測、探測和監測水雷、干擾敵方通信、提供聲學情報、進行海洋學和水文學勘測、為水下平臺提供水下通信,以及對海軍水雷實施主動反制措施[76]。[77]從根本上說,無人平臺有望提高生產率,使有人系統能夠執行更專業/更重要的任務,提高作戰程序的效率。
未來幾年,圍繞人工智能的炒作肯定會愈演愈烈,隨著越來越多的此類系統得到部署,世界可能很快就會進入人工智能支持的海軍在海上戰場普遍存在的戰爭階段。然而,在海軍作戰中廣泛啟動基于人工智能的系統會帶來多種后果。其中最主要的是來自傳統海軍人員的制度性阻力,他們會反對任何試圖取代他們的舉動。[79] 人工智能支持的海軍作戰系統將要執行的任務目前是由海軍艦艇上或岸上的人員執行的。因此,在海戰決策周期中取代人類分析人員將改變海軍部隊的多個部門。隨著海軍作戰行動的轉變,海軍將需要這些傳統分析人員的幫助,因為作戰程序需要過渡和調整,以適應人機協同作戰。美國海軍人工智能應用研究中心(Navy Center for Applied Research in Artificial Intelligence of the US Navy)就是一個很好的例子,說明一個專門機構是如何負責研究這些課題的。 在這個先于人機協同進行致命交戰的時代,海軍需要向其行動、部隊和系統灌輸各種可能性,無論它們看起來多么遙遠。最值得注意的是,作戰模式和戰術需要進行改革,以適應多車輛控制。
目前,人工智能在海軍作戰中的大部分應用都依賴于人類操作員,因此人機校準極為重要。海軍作戰系統只在作戰場景中執行分析功能,而交戰的最終決定權在于人類海軍指揮官。因此,在作戰中使用人工智能的海軍需要確保人類指揮官和人工智能支持的機器都能理解對方的決策回路。美國工程心理學家約翰-霍克利(John Hawkley)在《愛國者戰爭》一書中寫道:"新的自動化系統很少能達到最初的要求。首次使用自動化系統的用戶必須預計到一個調試和校準期,在此期間,系統的實際能力和局限性將被確定。"[82] 霍克利進一步提到了自動化系統的 "脆性",他在書中討論了 "機器無法可靠地處理不尋常或模棱兩可的戰術情況"[83]。 [83]這也使人類主管人員難以對自動化系統保持警惕,因為他們需要執行 "關鍵功能",但在其他自主功能中卻處于決策圈之外。[84]受過技術訓練的指揮官對自動化系統沾沾自喜,而經驗豐富的指揮官則對自動化系統心存疑慮,這可能會導致部隊內部出現分歧。[85]這些系統中的自動化系統不應被視作表面價值,正如一份報告所提到的,"相信系統的無懈可擊(即:它總是正確的)可能會使人對自動化系統產生誤解、 86]此外,在一些具有深度學習神經網絡的自主系統中,輸入-輸出過程還不完全透明,這可能會對人機協作造成障礙,因為人類指揮官無法理解系統是如何處理信息并做出決策的。因此,在目前的情況下,"非循環 "自主武器系統極不可能具備致命能力,更何況圍繞著它們的倫理問題。
開發和部署此類系統的另一個障礙是它們容易受到反制措施的影響,其中一些反制措施已經問世。許多人工智能支持的飛行器仍處于設計階段,預計在開發這些飛行器的同時,對手也將投資開發反制措施。聲學隱形和聲學靜音技術已被應用到潛艇中,未來這些技術的改進會讓人工智能艦艇的聲學識別系統徹底崩潰。[88] 聲學隱形技術涉及設計噪聲特征和雷達截面減小的艦艇--新一代柴油電力潛艇就是一個很好的例子。此外,由于水深的限制或敵軍的全球定位系統干擾,無人駕駛飛行器在全球定位系統失效的環境中運行,令人嚴重關切此類系統如何不間斷地工作。非 GPS 制導系統和抗干擾保護軟件需要納入研發過程。許多國家正在開發可對無人系統采取軟殺傷措施的能力,特別是使用黑客攻擊和干擾軟件。[90] 海軍特遣部隊的無人潛航器或 USV 被黑客攻擊并用來對付它的可能性將困擾著每一位海軍指揮官。對無人系統進行黑客防護應是開發人員的首要任務。當這些系統仍在開發階段時,開發人員和最終用戶需要考慮上述所有因素。
印度很晚才認識到自主系統在軍事領域的潛力,在開發基于人工智能的本土作戰系統和海軍車輛方面遠遠落后于美國和中國等國家。不過,印度政府最近在這一領域表現出了一定的緊迫感,并成立了一個人工智能工作組,探索人工智能可以增強常規能力的各種領域。在 2018 年 4 月的欽奈防務博覽會上,印度總理納倫德拉-莫迪(Narendra Modi)表示: "人工智能和機器人等新興技術或許將成為未來任何國防力量防御和進攻能力的最重要決定因素。印度憑借其在信息技術領域的領先地位,將努力利用這種技術傾斜來發揮自身優勢。"[91] 一位印度政府官員在接受一家印度報紙采訪時補充了這一觀點。他說:"世界正在走向人工智能驅動的戰爭。印度也在采取必要措施,讓我們的武裝部隊做好準備,因為人工智能有可能對國家安全產生變革性影響。政府已經成立了人工智能工作組,為其準備路線圖。"[92] 在過去的一年里,印度政府為基于人工智能的研究撥出了一些專款,但無人海軍艦艇和系統的具體研發領域并未得到任何優先考慮。[93] 比較樂觀的是,一些印度大學和研究機構已經開發出了可交由海軍使用的無人潛水器,最近印度首個以人工智能為重點的研究所也在孟買開業。
迄今為止,印度海軍尚未考慮在自主系統時代修改其作戰規程。然而,隨著智能系統在海上安全領域的普及,新德里的海軍戰略家們有必要合理安排行動,以對抗敵對的無人系統。正如 ORF 研究員普山-達斯(Pushan Das)所提到的,"要提高有限反潛資產的作戰效能和靈活性,就必須采用不斷發展的條令和具體的作戰概念,使有人和無人資產能夠協同作戰。 "[96]他補充說,"將有人和無人資產結合起來,將為印度戰艦在高威脅環境下提供高度的戰術靈活性,降低船員的風險,并使目標瞄準更快、更精確。"[97]從根本上說,印度海軍可以部署具有自主能力的海軍車輛執行多種任務,從艦隊保護行動到反潛戰任務,再到沿岸水域偵察。對于印度海軍為印度洋地區(IOR)提供安全保障的主要任務來說,自主系統(包括致命和非致命系統)的應用是巨大的。
印度海軍在開發自動潛航器并將其納入艦隊方面遠遠落后,目前需要將重點放在簡易反制措施上。印度海軍需要獨立于國防研究與發展組織(DRDO),在這一領域開展自己的研發工作,并為此招募懂技術的人員。印度國防機構需要在 "與私營和公共部門合作,促進本土智能技術的發展"[99] 方面表現出一定的緊迫性。印度充分利用了信息技術(IT)時代帶來的好處,并向世界各國提供了經過 IT 訓練的熟練專業人員。印度需要以同樣的活力和魄力開發其龐大的人力資源,將他們的技能導向熟練掌握人工智能相關應用。與大多數開發人工智能相關軍事技術的國家一樣,私營部門的研發工作已自動擴散到國防工業。
本文旨在研究人工智能在海軍行動中的適用性,并對自主海軍任務的不同層面進行了多方面的研究。關鍵問題仍然是,在商業商船數量不斷增加導致海洋環境日益擁擠的情況下,這些基于人工智能的系統能否為海洋公域提供安全保障并保護中立商業。因此,在未來,自主系統最重要的要素將是其同時區分多艘船只和維護商船聲學特征數據庫的能力。這需要商業航運公司的合作,以及對深度學習算法的嚴格測試,以驗證這些自主系統的模式識別過程。雖然自主艦艇可以執行各種海軍任務,但需要在其系統中預設遵守國際海事法和公約的程序,以避免其闖入劃定的專屬經濟區。最重要的是,長期執行閑逛任務的自動艦艇需要使用可持續能源,以確保其任務不會對海洋環境造成任何損害。正如一份報告所提到的,二者之間的矛盾在于,對這些船只的開發進行監管時,"對雙重用途技術的控制不會阻礙有關自主性民用應用的科學研究,從而也不會阻礙經濟發展"。
隨著人類發展的每一個時代,海軍行動都在發生變化,隨著以網絡為中心的戰爭新時代的到來,海軍規劃者將相應地需要考慮到所有的可能性。基于人工智能的系統提供了超越人類可能的機會,為海上安全任務注入了新的熱情。然而,這些技術只有在不對稱的情況下才能在戰場上獲得技術優勢。海軍作戰人員、規劃人員和戰略人員需要認真思考這條自動化之路將把他們帶向何方。雖然否定人工智能系統的發展是在冒險,從長遠來看可能會付出高昂的代價,但從目前的情況來看,更上一層樓就會出現兩支都由人工智能系統指揮的海軍對峙的局面。在這種決策-行動周期完全崩潰的超戰爭場景中,海軍任務與海戰之間的界限可能會變得模糊不清。
在這個前所未有的技術驅動轉型時代,比以往任何時候都更需要積極投資開發強大的人工智能(AI),用于兵棋推演以支持決策。通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域感知,提高決策周期的速度和質量,為新的行動方案提供建議,并更迅速地反擊對手的行動。因此,必須加快人工智能的發展,以幫助更好地應對目前需要人類智慧才能應對的現代挑戰和困境的復雜性,并在可能的情況下嘗試超越人類智慧--不是取代人類,而是以機器的速度增強人類決策并為其提供更好的信息。盡管深度強化學習在智能體行為開發方面不斷取得令人鼓舞的成果,可用于戰斗建模和模擬中常見的長視距復雜任務,但仍需進一步研究,才能使人工智能的規模擴大到能夠處理兵棋推演中錯綜復雜的廣闊狀態空間,從而進行概念開發、教育或分析。為了幫助應對這一挑戰,在研究中,正在開發和實施一個分層強化學習框架,其中包括多模型方法和維度不變觀測抽象。
鑒于這些令人擔憂的活動以及最近在人工智能變革能力方面取得的突破,顯然必須開始更認真地投資于專門用于兵棋推演的人工智能開發。美國國家人工智能安全委員會(NSCAI)[27]詳細闡述了兩個信念:(1)"計算機系統解決問題和完成原本需要人類智慧才能完成的任務--在某些情況下甚至超過人類的表現--的能力迅速提高,正在改變世界";(2)"人工智能正在擴大美國已經進入的脆弱窗口"。因此,有鑒于此,NSCAI得出結論:"美國必須立即行動起來,將人工智能系統投入實戰,并在人工智能創新方面投入更多的大量資源,以保護美國的安全,促進繁榮,保障民主的未來"[27]。NSCAI [27] 認為,通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域意識,提高決策周期的速度和質量,為不同的作戰行動提供建議,并更迅速地反擊對手的行動。
盡管美國在大多數領域都享有軍事優勢,但機器學習(ML)的擴散已開始為競爭對手和其他國家行為者提供無數的破壞機會[28]。因此,現在比以往任何時候都更有必要積極開展研究和實驗,以便對人工智能的優缺點以及如何將其用于規劃和兵棋推演有一個扎實的了解,只有這樣,國防部才能更好地做好準備,以應對戰略突襲和破壞[28]。例如,如今的作戰行動分析主要側重于評估友軍的計劃,而很少強調對手可能會如何根據自身的目標和能力做出反應[26]。盡管不遺余力地試圖了解對手的想法以及他們在沖突中會如何行動,但總是會受到自己想象力的限制。托馬斯-謝林(Thomas Schelling)在他的 "不可能定理"(Impossibility Theorem)中說得最好: "一個人,無論他的分析多么嚴謹,想象力多么豐富,都不可能做的一件事,就是列出一個他不會想到的事情清單"[29]。人工智能支持的兵棋推演甚至有可能克服這一限制,創造出有自己目標的智能體,而這些智能體并不一定受限于思維和計劃方式,因為思維和計劃方式通常是通過幾十年的經驗根深蒂固的。此外,僅從數據中學習新的行為,人工智能就能自動執行原本需要人類智慧才能完成的任務[30]。
雖然在機器學習領域已經開展了大量研究,但兵棋推演和軍事規劃與迄今為止使用人工智能解決的傳統問題--如圖像分類和自然語言處理--有很大不同。任務分析和規劃通常需要人類的直覺和啟發式方法來限制搜索問題的規模 [28]。雖然啟發式方法確實能更容易地找到可接受的解決方案,但這些解決方案的可擴展性或可靠性通常不足以評估可能出現的大量突發情況 [28]。此外,直覺也可能在非常復雜的問題中失效,例如那些涉及到有許多不同參與者的高維空間以及復雜的武器和傳感器交互的問題[28]。不幸的是,這些復雜性正是可能決定未來戰爭的特征[26], [28]。
幸運的是,迄今為止,競技游戲已成為學習如何實施人工智能以支持兵棋推演的良好試驗平臺。早期的成功包括掌握跳棋[32]、五子棋[33]、國際象棋[34]和圍棋[35]。人工智能方法在視頻游戲中也取得了成功,如 Atari 游戲 [36]、超級馬里奧兄弟 [37]、Quake III [38]、Dota 2 [39]、星際爭霸 II [40] 和無上限德州撲克 [41]。然而,競技游戲通常都有一套固定的規則、確定的參數和基于已知變量的可預測結果。雖然這些游戲能為戰略、決策和風險評估提供有價值的見解,但真實世界中的兵棋推演場景往往更加復雜--可能的初始游戲狀態更多,分支系數更大,因此結果更加難以預測。因此,如何將人工智能從這些游戲中獲得的成功轉化為真正的軍事行動是一項挑戰。不過,從這些游戲中獲得的人工智能學習和適應能力方面的進步,為人工智能在作戰模擬中更細致的應用奠定了堅實的基礎。
正如 CeTAS 報告[31]所詳述的那樣,可以采用大量不同的方法來利用人工智能支持兵棋推演;不過,在本文剩余部分的范圍內,將討論人工智能與兵棋推演的關系,即創建能夠在戰斗建模和模擬所特有的龐大而復雜的狀態空間中做出理性決策的智能體。
然而,要證明人工智能能夠贏得游戲或取得超人的表現,只是證明人工智能確實能為兵棋推演者、作戰規劃者和戰場指揮官提供有用見解的第一步[42]。盡管如此,設想這些智能體將成為創建現代決策輔助工具的基礎,與更傳統的工具相比,這些工具能為決策者提供更高的準確性、速度和靈活性[28]--有可能加快決策過程并提供關鍵的洞察力。隨著進一步深入多域作戰[26],在面對人工智能對手時,忽視這一步會帶來巨大風險。
雖然人機協作的概念最初是由 Licklider 在 1960 年提出的[43],但前國際象棋世界冠軍加里-卡斯帕羅夫(Gary Kasparov)在 1997 年輸給 IBM 的 "深藍"(Deep Blue)[44]多年后,首次提出了 "半人馬國際象棋"(Centaur Chess)的概念。盡管被人工智能擊敗,卡斯帕羅夫并沒有將人工智能視為一種威脅,而是鼓勵將人工智能視為一種工具,當它與人類的能力相結合時,可以帶來前所未有的成就[44]。卡斯帕羅夫在他的著作《深度思考》(Deep Thinking: 機器智能的終點和人類創造力的起點[44]》一書中,卡斯帕羅夫強調了利用人類和機器互補優勢的必要性。計算機擅長暴力計算,每秒能分析數百萬個局面,同時輕松計算出最佳的近期戰術行動。另一方面,人類對戰略、創造力和考慮特定棋步長期影響的能力有更深刻的理解,而這一切主要靠直覺[44]。卡斯帕羅夫認為,人類的直覺和機器的計算結合在一起,往往能比頂尖特級大師或計算機單獨發揮出更強的棋力。卡斯帕羅夫指出,在許多情況下,即使是排名相對較低的棋手與計算機配對也能勝過頂級特級大師。
有趣的是,卡斯帕羅夫還指出,隨著計算機國際象棋程序變得越來越強大,人類棋手在這種半人馬合作關系中的角色也發生了變化。最初,人類專注于戰略,而計算機則專注于戰術,但隨著國際象棋人工智能的改進,人類越來越多地開始扮演 "質量控制 "的角色,確保計算機推薦的棋步與人類更廣泛的戰略目標相一致[44]。事實上,卡斯帕羅夫經常說,國際象棋的未來可能不是人類與機器的對決,而是人類與機器配對,使用何種界面,能下出最好的棋。這種合作融合了機器的計算能力和人類提供背景、理解和直覺的能力--這種協同作用所產生的棋藝水平超過了任何一方單獨發揮所能達到的水平。
雖然有許多不同的人工智能技術和方法可以應用于兵棋推演,如監督學習、無監督學習、遺傳算法、自然語言處理、決策樹、專家系統、博弈論、對抗網絡等,但本文主要關注的是推進強化學習(RL)領域的需求,以支持為兵棋推演開發智能體行為。
說到機器學習,主要有三種類型:監督學習、無監督學習和強化學習。監督學習依賴于標注數據,每一組輸入都有相應的預期輸出。它類似于范例學習,最適合圖像分類、回歸和語音識別等任務。相反,無監督學習不依賴于標記數據。相反,它能發現數據中的模式或結構,比如對數據點進行分組或聚類,最適合異常檢測、降維和數據分割。值得注意的是,還有其他類型的機器學習,如遷移學習、主動學習、自我監督學習等;不過,這些通常是上述兩類學習的擴展或組合。
人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。
通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。
政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。
政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:
理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。
議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。
保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。
實現以下目標對這一進程至關重要:
政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。
幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。
其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。
然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。
政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。
政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。
政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。
將人工智能(AI)融入陸軍后勤工作,可以徹底改變供應鏈管理、優化資源配置并增強決策能力。不過,這需要采取全面的方法,解決實施過程中的挑戰和問題。
人工智能技術的迅猛發展為將其應用于包括陸軍后勤在內的各行各業提供了新機遇。認識到人工智能的潛力,陸軍應努力大規模利用其能力,并將其應用到戰術層面,以改善供應鏈管理、資源分配和決策過程。通過與《聯合出版物 4-0:聯合后勤》、《野戰手冊 4-0:維持行動》和《陸軍條令出版物 4-0:維持》中概述的指導原則保持一致,陸軍可以在日益復雜和快速發展的世界中發展適應性強、反應迅速和有效的后勤行動。然而,將人工智能融入陸軍后勤工作會帶來一些挑戰和問題,如在自動化與人類專業技能之間找到最佳平衡點、確保強大的網絡安全、解決倫理問題以及使勞動力適應不斷變化的技術環境。本文探討了在陸軍后勤中整合人工智能的潛在優勢和劣勢,并討論了在最大限度地提高效益的同時,最大限度地降低風險和解決與實施人工智能相關的問題所需的全面方法。
人工智能在大幅提升陸軍供應鏈管理方面的變革能力毋庸置疑。正如美陸軍物資司令部前司令埃德-戴利(Ed Daly)將軍所強調的那樣,人工智能對于實現實際后勤所需的相關速度至關重要。他的愿景是將人工智能和機器學習無縫融入陸軍后勤流程的方方面面,從而為戰場上的士兵提供無與倫比的效率和及時支持。為支持這一觀點,《國際生產經濟學雜志》上發表的一項研究顯示,將人工智能融入供應鏈管理可將效率提高 20% 或更多。
人工智能分析海量數據、預測未來趨勢和資源分配需求的能力是陸軍后勤的另一大優勢。通過利用人工智能驅動的分析,陸軍可以更精確地預測士兵的需求,確保重要物資在正確的時間和地點到達目的地。此外,預測分析還能通過簡化人員和裝備分配來優化陸軍行動。陸軍后勤中的預測分析可以確定車輛部件何時需要更換,從而在故障發生前進行主動維護。這種方法可節省大量成本并提高運營安全性,減少因維護和事故而計劃外停機的可能性。此外,預測性分析還可以通過預測供應需求和驗證在正確的時間和地點是否有正確的資源來完善供應鏈管理。這一戰略可提高運營效率、縮短交付周期并提高供應鏈的可見性。
適應當地快速變化條件的能力是現代軍事行動的重要組成部分。適應性后勤和決策對于維持陸軍在復雜環境中的有效性和反應能力至關重要。人工智能通過提供實時信息、復雜的分析和先進的決策支持工具,有可能徹底改變軍事后勤的這一方面。
人工智能在適應性后勤方面的一個重要優勢是它有能力收集和分析來自各種來源的大量數據,包括傳感器、衛星和其他情報平臺。此外,人工智能還能訪問來自不同陸軍源系統的記錄系統數據,如全球指揮與控制系統-陸軍、后勤現代化計劃、港口自動化工具和運輸協調員移動信息自動化系統 II。人工智能還可以利用非陸軍系統,如全球決策支持系統和后勤功能區服務。通過這種全面的數據分析,可以做出更明智的決策,提高后勤效率。
這些信息可為作戰環境提供全面的最新情況,使指揮官能夠根據實時情報做出明智決策。通過獲取準確及時的數據,陸軍可以更有效地應對新出現的威脅,最大限度地降低風險,并抓住機遇。
除了提供實時信息外,人工智能還能通過識別人類分析人員可能不易察覺的模式和趨勢來加強決策。通過機器學習算法和先進的數據分析,人工智能系統可以發現隱藏的相關性,并產生可操作的見解,為戰略和戰術決策提供依據。例如,人工智能可以幫助預測敵人的動向,預測后勤瓶頸,或在潛在的供應鏈中斷發生之前加以識別。有了這些洞察力,指揮官就能做出更明智的決策,更有效地分配資源,并在戰場上保持競爭優勢。
人工智能還能通過自動化某些后勤規劃和決策環節,提高陸軍應對突發事件和緊急情況的能力。例如,人工智能驅動的系統可以根據不斷變化的環境條件或供應鏈的突然中斷,自動調整物資和人員的路線。通過實現這些流程的自動化,陸軍可以最大限度地減少延誤,并確保將關鍵資源運送到最需要的地方,即使在不確定和逆境中也是如此。
人工智能在適應性后勤中的另一項應用涉及使用模擬和優化技術來支持復雜多變條件下的決策。人工智能驅動的模擬模型可以幫助指揮官探索各種場景,評估潛在的行動方案,并確定實現目標的最有效策略。這可以使后勤計劃更加穩健、更具彈性,并提高任務的整體成功率。
雖然將人工智能融入陸軍后勤會帶來諸多益處,但也有合理的擔憂和潛在的弊端需要考慮。一些批評者認為,依賴人工智能可能會導致過分強調技術,而忽視人的經驗和直覺,而人的經驗和直覺在復雜和不可預測的情況下至關重要。人工智能有可能造成虛假的安全感,導致過度自信和戰略失誤。
此外,與實施人工智能技術相關的巨大成本,如基礎設施升級、軟件開發和持續維護,可能會超過潛在的好處。預算限制和相互競爭的優先事項可能會使為人工智能集成分配足夠的資源變得具有挑戰性,從而可能限制其有效性。
另一個令人擔憂的問題是人工智能系統易受網絡攻擊和敵方操縱。隨著人工智能驅動的后勤系統對陸軍行動越來越關鍵,它們也成為對手試圖破壞或損害軍事能力的高價值目標。制定強有力的網絡安全措施至關重要,但無法保證這些防御措施在應對快速發展的威脅時始終有效。
此外,還要考慮與軍事后勤中的人工智能有關的倫理問題。使用人工智能可能會導致決策偏差、缺乏透明度或意想不到的后果。必須明確界定人工智能系統行動的責任,以確保在出現錯誤或故障時能追究責任。
最后,將人工智能融入陸軍后勤可能會給后勤軍事職業專業帶來意想不到的后果。雖然特定任務的自動化可以提高效率,但也可能導致工作崗位的轉移,并需要對勞動力進行大量的再培訓。確保陸軍能夠適應這些變化并保留一支熟練的勞動力隊伍至關重要,但這需要持續的努力和投資。
雖然反駁意見中提出的擔憂不無道理,但必須指出,不應完全否定整合人工智能的潛在好處。相反,有必要采取一種平衡的方法,仔細考慮與人工智能實施相關的風險和挑戰,同時尋求利用其在陸軍后勤中的變革潛力。通過制定全面的戰略,陸軍可以解決這些問題,最大限度地發揮人工智能集成的效益。
將人工智能融入陸軍后勤工作,為徹底改變供應鏈管理、優化資源配置和加強決策過程提供了眾多機會。然而,至關重要的是要認識到并解決與實施人工智能相關的挑戰和問題,如在自動化和人類專業知識之間取得適當平衡、確保強大的網絡安全、解決道德問題以及使勞動力適應不斷變化的技術環境。
為了充分利用人工智能的潛力,陸軍應采取全面的方法,包括投資人工智能基礎設施、促進公共和私營部門之間的合作、為人員提供持續的教育和培訓,以及制定強有力的網絡安全措施。此外,必須就人工智能在軍事后勤中的道德影響保持公開對話,并建立明確的指導方針和問責結構,以確保負責任地部署人工智能。
通過采取全面的方法,陸軍可以克服與人工智能集成相關的挑戰,釋放其變革潛力,并在日益復雜和快速發展的全球安全環境中保持競爭優勢。
圖4. 人工智能對目標定位的增強:人工智能可以通過搜索目標并在發現后發出警報來增強動態目標定位周期。
開發和使用新的軍事技術是一個軍事專業人員工作的一部分。事實上,軍事歷史在很大程度上是一個技術革新的故事,士兵需要學習如何操作新系統。因此,關于整合人工智能的很多東西并不新鮮。就像坦克、飛機甚至弩一樣,隨著時間的推移,士兵們學會了使用和運用技術,工業界學會了以足夠的數量和質量生產技術,高級領導人學會了運用技術來實現戰略效果。如前所述,人工智能技術與它們的顛覆性“前輩”之間的區別在于,前者有能力改善廣泛的軍事武器、系統和應用。由于這種潛在的普遍性,幾乎所有的士兵都必須在某種程度上變得熟練,才能有效地和道德地運用AI技術。隨著這項技術在應用上的擴展,戰爭將像管理暴力一樣管理數據。
這種普遍性也提出了關于人類發展和人才管理的問題。盡管培訓計劃最終會培養出更多的知識型士兵,人事系統也會提高管理士兵的能力,但軍警人員能夠獲得知識和技能的限制仍然存在,特別是在作戰層面。盡管討論的目的不是要建立嚴格的指導方針,但討論確定了士兵需要獲得的許多知識。例如,士兵將需要知道如何策劃和培訓數據庫,而該數據庫對他們正在執行的任務有著重要作用。這樣做需要確保數據的準確、完整、一致和及時。使用這些數據需要熟練應用推薦模型卡中描述的條件,而熟練的操作有助于確保算法以有效和道德的方式執行。
當然,信任不能僅靠政策和程序來保證。指揮官、參謀員和操作員需要知道他們被信任做什么,以及他們信任系統做什么。指揮官、參謀員和操作員信任人工智能系統來識別合法目標,并避免識別非法目標。參與這一過程的人必須在使用這些信息時,既需要擊敗敵人,又必須避免友軍和非戰斗人員的傷亡。要找到這種平衡,就需要判斷人應該承擔多大的風險。
只要參與流程的人類能夠與系統進行有效的互動,由人工智能賦能的系統就能促進找到這種平衡。在將人類控制整合到機器流程中時,人們經常被迫在控制和速度之間做出選擇:強加的人類控制越多,系統的運行速度就越慢。但本研究發現這種兩難的局面是錯誤的。盡管在某些情況下,在人的控制和速度之間進行平衡可能是必要的,但如果系統要最佳地運作,人的輸入是必要的。
實現最佳性能首先要求指揮官確保參謀和操作人員了解模型能力,理解數據質量的重要性,以及洞悉模型在作戰環境中的表現。盡管它可能不會使系統更加精確或準確,但實現這些任務可使系統能夠更好地對輸出進行概率分配。第二,指揮官需要確定對任務、友軍戰斗人員和敵方非戰斗人員的風險有多大才合適。這一決定很復雜,其中關鍵任務可能是需要容忍更多的友軍和非戰斗人員傷亡。同樣,如果非戰斗人員的密度較低,即使任務不那么緊急,也可以容忍較高的風險。尋找這種平衡將是人類的工作。
但在前面描述的模糊邏輯控制器的幫助下,指揮官可以更好地確定什么時候可以信任一個人工智能系統在沒有人類監督的情況下執行一些目標定位步驟。此外,可以通過構建交互的邏輯,以找到多種不同的人機互動配置,確保系統的最佳使用,同時避免不必要的傷害。在LSCO期間,讓指揮官在需要時選擇智能和負責任地加快目標定位過程將是至關重要的,本報告中提出的設計實現了這一目標。這一成就在未來尤其重要,因為為了保護部隊并實現任務目標,指揮官將面臨大量時間敏感目標,及面臨承擔更多風險的操作條件。
在培養具有正確技能的足夠數量士兵以充分利用人工智能技術方面,仍有大量的工作。目前的人才管理計劃尚未達到管理這一挑戰的要求,盡管多個有前途的計劃準備最終滿足需求。然而,在大多數情況下,這些計劃都是為了滿足機構層面的要求,在機構層面上做出全軍采買人工智能和相關技術的決策。但是,這些技能將如何滲透到作戰陸軍,尚不清楚。
盡管人工智能在目標定位中的使用并不違反當前的戰爭法,但它確實引起了一些道德倫理問題。在所討論的目標定位系統背景下,這些倫理問題中最主要的是問責制差距和自動化偏見。第一個問題對于回答核心問題至關重要,“指揮官在什么基礎上可以信任人工智能系統,從而使指揮官可以對這些系統的使用負責?”自動化偏見和數據衛生與問責制差距有關,因為當這些問題存在時,它們會破壞指揮官可能希望實施的有意義的人類控制措施。指揮官可以通過以下方式縮小問責差距:首先,確保人員受到適當的教育、技能和培訓,以整理相關數據;其次,確保指揮官允許的風險,準確地反映完成任務與保護友軍士兵和非戰斗人員之間的平衡需求。指揮官還可以通過在機器需要更多監督時向參與該過程的人類發出信號來減少自動化偏見的機會及其潛在影響。
作為一個專業人員,不僅僅意味著要提供服務,還要在出問題時承擔責任。專業人員還必須了解各種利益相關者,包括公眾和政府及私營部門實體,如何與本行業互動和競爭。鑒于這些技術的潛力,軍事專業人員必須首先學會在技術及其應用的發展中管理預期。由于這種演變影響到專業工作的特點,軍事專業人員還必須注意專業以外的人如何重視、獎勵和支持這項工作。因此,隨著美軍繼續將人工智能和數據技術整合到各種行動中,對其專業性的考驗將在于擁有專業知識的能力,以及建立能夠繼續發展、維護和認證這種專業知識的機構,這些機構既能滿足美國人民的國防需求,又能反映他們的價值觀。
在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。
在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。
本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。