過去幾年中,機器人技術的顯著發展導致了人工智能(AI)的新 "夏天"。值得注意的是,機器學習和深度學習改變了日常生活。人類越來越依賴 "外部 "智能而不自知。軍方也已經認識到人工智能的巨大潛力。例如,安全部隊采用AI工具進行信息分析和面部識別。然而,人們的興趣還不止于此。技術先進的國家,如美國、中國和俄羅斯,已經開始參與有關人工智能軍事應用的軍備競賽。目前正在進行重大的研究和開發項目,通常涉及國防部門、私營公司和學術界之間的合作。鑒于人工智能的顯著優勢,在安全事務方面有一種強烈的自主性增強的趨勢。這包括在對物體和人員使用武力方面的自主性不斷增強的趨勢。
各國和法律學者已經開始辯論人工智能的軍事應用是否以及如何與現有的國際法,特別是國際人道主義法(IHL--這里同義地稱為 "武裝沖突法 "或 "戰爭法")兼容。在聯合國大會的授權下,致命性自主武器領域的新興技術政府專家組自2016年以來在《特定常規武器公約》(CCW)的框架內對此進行了審議。在此背景下,一些國家強調了根據1949年《日內瓦公約》第一附加議定書第36條和國際習慣法對武器、作戰手段和方法進行法律審查的重要性。評估新武器合法性的法律審查程序將確保各國不會采用不符合國際人道主義法的人工智能系統。學者們的工作呼應了法律審查與武器系統相關的越來越多的自主權的相關性,并開始確定出現的挑戰。人們注意到,新技術 "在某些情況下會使進行第36條審查的過程變得非常困難",這 "可能需要重新修訂舊的法律概念或帶來新的風險,而這些風險本身可能需要新的風險評估方法。" 2019年12月,第33屆紅十字會和紅新月會國際會議也表示,"為了使法律審查有效,開發或獲取新武器技術的國家需要駕馭[其]復雜性"。
本文回應了這一進一步思考的呼吁,并對該問題進行了深入挖掘。它首先概述了新興的人工智能技術及其軍事應用,稱為 "戰爭算法"。因此,這種分析適用于任何類型的人工智能的作戰使用,屬于法律審查的義務,包括其在網絡行動中的使用,這必然導致對人工智能的使用與敵對行動的關系的關注。文章接著調查了各國在外交論壇上的辯論和現有的學術文獻,概述了關于自主系統背景下的法律審查的不同觀點。文章進一步詳細分析了國際人道主義法規定的對武器、作戰手段或方法進行法律審查的義務,以及與這種審查有關的國家實踐。文章認為,雖然法律審查對于防止部署不符合現有國際法的武器和系統至關重要,但現有做法并不完全適合審查人工智能系統的合法性。
文章認為,各國必須使其法律審查適應新興的人工智能技術。對于向人類操作者提供關鍵要素以作出目標決定的人工智能系統和自主作出相關決定的系統,法律審查必須評估是否符合額外的規則,特別是國際人道主義法規定的目標法。然而,人工智能的應用在其可預測性和可解釋性方面帶來了重大挑戰。這種可預測性問題首先是一個操作和技術上的挑戰,可以通過核查和驗證的技術過程來解決,這個過程通常在法律審查之前。本文認為,對于嵌入人工智能的軍事系統,隨著法律被轉化為技術規格,技術和法律評估最終會合二為一。因此,各國需要進行法律審查,作為技術驗證和核查過程的一部分。雖然這需要定義和評估有關可預測性的新參數,以及其他后果,但文章認為,國家和工業界正在出現的關于開發和使用人工智能的準則可以為制定人工智能驅動系統的法律審查的新指南提供要素。文章的結論是,法律審查對于人工智能技術變得比傳統武器更加重要。隨著人類對人工智能的依賴程度增加,法律審查是其法律運作的重要把關人。
人工智能(AI)系統很可能會改變軍事行動。本文探討了人工智能系統如何影響準備和進行軍事行動的主要工具,并受其影響。因此,本文在戰略、理論、計劃、交戰規則和命令的背景下分析和討論了人工智能,以確定機會、挑戰和開放性問題的位置,并提出總體意見。本文采取了一個廣泛的分析角度,能夠根據新的政策和技術發展以及對政治、軍事、法律和道德觀點的考慮,對這一問題進行總體審查。因此,本文提供了一些見解和途徑,以推動對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。
在過去的幾年里,人工智能(AI)的采用非常迅速,其使用也很廣泛。公共和私人部門的組織正在將人工智能用于廣泛的應用。在國防部門,對人工智能對國家安全的潛在影響的認識正在通過對后勤、半自動和自主武器、ISR(情報、監視和偵察)、指揮和控制以及網絡和信息行動的大量投資得到加強。畢竟,人工智能將戰爭的性質從信息化的方式轉變為智能化的戰爭方式。像美國和中國這樣的國家已經在其現有的防御框架中實施了一些形式的智能化戰爭。印度現在正以其新興和顛覆性的技術進步,向強大的軍民融合過渡。這篇背景文章探討了可能通過人工智能及其應用進行的智能化戰爭的所有方面,以及人工智能為國防帶來的挑戰和機遇。
印度的人工智能在軍事領域的實施處于起步階段;然而,其商業化的建立正以其在醫療保健、農業、教育、智能城市和基礎設施以及智能移動和交通等各個領域的不同應用而發展壯大。NITI Aayog在2018年發布了關于人工智能的國家戰略,主要關注這些領域。2021年,它進一步提出了一份關于負責任的人工智能第一部分和第二部分的報告,其中討論了印度人工智能的發展、采用和人工智能生態系統的培育。它的重點是促進研究、勞動力的技能培訓和再培訓,促進采用人工智能解決方案和發展準則。該報告還提出了對負責任的人工智能管理的問責制、安全、隱私和數據安全的關注。Niti Aayog的人工智能卓越研究中心(COREs)將作為國際轉型人工智能中心(ICTAIs)的技術供給者,旨在為社會領域創造基于人工智能的應用。
印度正在帶頭進行人工智能開發和采購,以加強其軍事基礎設施。印度人工智能軍事能力的一些例子包括用于ISR行動的人工智能機器人RoboSen,用于后勤支持的小型化便攜式行走機器人,具有認知能力的機器人,用于維護和維修部件,像黑黃蜂這樣的微型無人機,智能輪椅,以及CAIR的網絡流量分析(NETRA)系統,用于實時監控互聯網流量。印度的無人機能力包括Botlab Dynamics公司的蜂群無人機,HAL和NRT公司的空中發射靈活資產蜂群(ALFA-S),蜂群無人機,DRDO的Rustom 1。 印度海軍還計劃在關鍵任務領域整合基于人工智能的技術,并將INS Valsura作為大數據領域的卓越中心和關于人工智能和大數據分析的最先進實驗室。最近,2022年7月10日,在UDAAN(數字化、自動化、人工智能和應用網絡單位)的支持下,IAF在新德里的空軍站啟動了人工智能(AI)卓越中心。該中心配備了大數據和人工智能平臺,用于處理分析的所有方面,包括機器學習、NLP、神經網絡和深度學習。IIT-Hyderabad已經建立了一個關于自主導航和數據采集系統(TiHAN)的技術創新中心。DRDO的移動自主機器人系統(MARS)UGV和基于Arjun MK 1A戰斗坦克的UGV是正在籌備中的無人駕駛地面車輛,它們將配備120毫米火炮和本土地理信息系統(INDIGIS)。 印度國防部最近在GenNext人工智能解決方案的活動中展示了在過去三年中采取的人工智能舉措。為了促進國防部門的增長和發展,展示了iDEX初創企業技術,今年開始了第六屆國防初創企業挑戰。
本文是美國陸軍網絡研究所系列文章“競爭與勝利:設想 21 世紀的競爭戰略”的一部分。該系列圍繞美國競爭戰略以及在物理、網絡和信息空間中與同行和近似競爭對手非常規戰爭的各種問題發表專家評論。該系列是網絡空間競賽項目 (C2P) 的一部分,該項目由陸軍網絡研究所和現代戰爭研究所聯合發起。
沒有人喜歡在早晨醒來,但現在由人工智能驅動的算法為我們設置鬧鐘,管理我們家中的溫度設置,并選擇符合我們情緒的播放列表,打盹按鈕的使用越來越少。人工智能安全輔助系統使我們的車輛更加安全,人工智能算法優化警察巡邏,使我們開車經過的社區和居住的地方更加安全。在我們周圍,人工智能就在那里,為塑造我們的環境的工具和設備提供動力,在我們的日常生活中增強和協助我們,并促使我們對吃什么、穿什么和買什么做出選擇--不管是否經過我們的同意。然而,當我們的智能設備開始決定我們中誰是可疑的,當一個邊緣化的社區成為警察巡邏的不成比例的目標,當一輛自動駕駛汽車殺死一個亂穿馬路的人,人工智能也在那里。
人工智能在日常生活中變得無處不在,而戰爭也不例外,這是一種趨勢。報道甚至表明,2020年11月對伊朗頂級核科學家的暗殺是由一支自主的、由人工智能增強的步槍完成的,它能夠每分鐘發射六百發子彈。俄羅斯和中國正在迅速發展,在某些情況下還在部署人工智能的非正規戰爭能力,而在為我們日常生活提供動力的人工智能系統中出現的同樣的裂痕、偏見和不良結果開始出現在用于發動戰爭和設計殺人的人工智能系統中,這只是時間問題。
鑒于人工智能和機器學習在戰略競爭中的作用,我們既要了解這些系統帶來的風險,也要了解它們創造戰略優勢的能力,這一點至關重要。通過探索對抗性方法,有可能開始建立這樣一種理解。對四類對抗性方法的研究為了解這些系統的脆弱性提供了一個窗口。在這篇文章中,我們將以目標識別問題為基礎例子,探討人工智能系統的學習和思維如何被攻擊。雖然這個例子發生在沖突中,但我們描述的方法也可以在競爭中使用。這一分析導致了兩個重要的結論。首先,在任何人工智能的使用中,人類必須保持在循環中。第二,在大國競爭的時代,人工智能可能不會為美國提供戰略優勢,但我們必須繼續投資并鼓勵人工智能的道德使用。
像其他軍事系統一樣,人工智能系統經歷了多個不同的生命周期階段--開發(數據收集和訓練)、測試、運行和維護。在這些階段中的每一個階段都有獨特的弱點,必須加以識別,并且我們要考慮到這些弱點。我們將著手開發一個假設的人工智能目標識別系統,該系統正在學習識別敵人的裝甲車輛。在每個階段,我們將探索相關的對抗性方法--中毒、逃避、逆向工程和推理--以及我們如何保護我們的系統免受其害。
開發任何人工智能系統的第一步是識別問題和收集數據。面對我們識別敵方裝甲車的挑戰,我們必須定義我們的問題。我們是想識別所有敵人的裝甲車,還是只識別來自特定對手的某一類型?這個問題的定義為收集和準備一組相關數據提供了依據,在這種情況下,這將包括大量感興趣的敵方裝甲車輛的圖像。我們不僅必須積累所有感興趣的車輛的圖像,而且還需要各種條件下的圖像--例如,變化的光線、不同的角度、有限的曝光和交替的通道(例如,紅外線、日光)。然后由數據分析員準備好數據,用于人工智能系統的訓練。然而,開發人工智能系統所需的巨大數據量造成了一個漏洞。數據量意味著分析員沒有能力驗證每張收集到的圖像是否是實際的敵方裝甲車輛,也沒有能力驗證這些圖像是否代表裝甲車輛的全部類型。
這個發展階段是對手可以通過一種稱為中毒的技術來攻擊人工智能系統的第一個點。投毒的目的是改變人工智能系統在訓練中使用的數據,使人工智能學到的東西是有缺陷的。這個過程在系統投入運行之前就攻擊了它的完整性。
制作惡意的原始數據以誘發有缺陷的分析結果的基本方法與傳統的軍事欺騙手段相同。Quicksilver行動是二戰期間盟軍入侵諾曼底前的一次欺騙行動,旨在攻擊德國的防御性分析模型。為了完成這一攻擊,盟軍建立了一支由喬治-巴頓中將領導的幽靈部隊(有毒數據),以歪曲德國人對其防御重點(模型輸出)的分析(模型)。
這種大規模的欺騙行動在今天這個相互聯系的社會中可能更難實現,但毒化數據是可行的。我們的對手知道我們正在追求由人工智能支持的目標識別。知道這樣一個人工智能系統需要他們當前裝甲車輛的訓練圖像,對手可以通過操縱他們車輛的外觀來毒害這些訓練圖像。這可以簡單到在他們懷疑可能被監視的車輛上添加一個獨特的符號,如紅星。然后,我們的人工智能系統將在這些被故意操縱的車輛的中毒圖像上進行訓練,并 "學習 "所有敵人的裝甲車都有紅星。
盡管這樣的中毒攻擊會在競爭狀態下發生,但當對手部署沒有紅星的裝甲車以避免被發現時,其影響會在沖突中表現出來。此外,對手可以在民用車輛上涂上紅星,誘使我們的人工智能系統錯誤地將平民識別為戰斗人員。
確保我們的系統正確學習可以通過多種方式實現。詳細的數據整理可以幫助減輕風險,但會消耗寶貴的時間和資源。相反,一個可擴展的解決方案包括數據治理政策,以提高用于人工智能系統的數據的完整性和代表性。在人工智能生命周期的所有階段,適當放置技術控制和訓練有素的人員保持在循環中,將進一步減少中毒攻擊的風險。
下一種類型的攻擊,即逃避,依賴于類似的基本攻擊原則,但在人工智能系統運行時進行部署。逃避攻擊的目標是如何應用人工智能的學習,而不是毒害人工智能正在學習的內容。這聽起來可能是一個微不足道的區別;然而,它對攻擊者成功所需的資源和反過來防御者需要采取的行動有重大影響。在中毒攻擊中,攻擊者需要有能力控制或操縱用于訓練模型的數據。在規避攻擊中,攻擊者至少需要有能力在運行期間控制人工智能系統的輸入。
逃避攻擊很適合計算機視覺應用,如面部識別、物體檢測和目標識別。一種常見的規避技術涉及稍微修改某些圖像像素的顏色,以攻擊系統如何應用它所學到的東西。在人眼看來,這似乎沒有什么變化;但是,人工智能現在可能會對圖像進行錯誤分類。研究人員證明了這種技術的效果,當一個之前正確識別熊貓圖像的人工智能被顯示為同一圖像,但在整個圖像中被添加了人眼無法察覺的顏色。該人工智能不僅將熊貓誤認為是長臂猿,而且還以非常高的信心做到了這一點。
攻擊者如果也能獲得系統的輸出或預測,就可以開發出一種更強大的(所有熊貓圖像都被錯誤識別)或有針對性的(所有熊貓都被看成另一種特定的動物)規避方法。
逃避攻擊的原則也可以在物理世界中運用--例如,戴上特制的太陽鏡來遮擋或改變你在面部識別相機上的圖像。這與偽裝背后的原理相同。在這種情況下,對手的目標是模型的感知而不是人類的感知。在軍事方面,如果對手知道我們的人工智能瞄準系統是在沙漠迷彩的坦克上訓練的,那么對手的坦克可以簡單地重新涂上林地迷彩,以故意躲避我們的人工智能系統的探測。一個人工智能增強的自主偵察系統現在可能無法有效地識別目標,無法為指揮官提供及時和準確的情報。
逃避攻擊是一些研究最廣泛的對抗性方法,因此防御所有可能的攻擊載體將被證明具有挑戰性。然而,加強我們的人工智能系統的步驟,可以增加我們對它們按計劃運作的總體信心。其中一個步驟是在部署前實施評估工具。這些工具針對各種已知的對抗性方法對人工智能系統進行測試,為我們提供一個衡量其穩健性的定量標準。在操作過程中,如果可能的話,在循環中保留一個人,也可以減輕逃避攻擊的情況。
前兩類攻擊在開發和運行期間針對人工智能系統有類似的基本原則。這些攻擊也與傳統的軍事概念如欺騙和偽裝有自然的相似之處。然而,人工智能系統的風險并不都是那么直接的,潛在的漏洞存在于開發和運行之外。人工智能系統在維護或儲存時有哪些漏洞?如果對手通過網絡入侵或在戰場上捕獲新一代人工智能無人機而獲得對人工智能系統的訪問,會有什么風險?
在被稱為逆向工程的一類攻擊中,對手攻擊人工智能系統的目的是提取人工智能系統學到的東西,并最終使模型得以重建。為了進行逆向工程攻擊,對手需要能夠向一個模型發送輸入并觀察輸出。這種攻擊可以繞過模型本身的任何加密或混淆。對于我們假設的目標識別人工智能,這種攻擊可以通過對手發送不同類型的車輛(輸入)并觀察哪些車輛能引起人工智能的反應(輸出)來進行。雖然這樣的攻擊需要時間,并有資源損失的風險,但最終對手將能夠了解到目標識別模型認為是一種威脅。
有了這些信息,對手將能夠開發出自己的人工智能系統版本。除了使其他對抗性攻擊更容易發展之外,直接了解人工智能是如何做出決定的,使對手能夠預測我們的反應或完全避免它們。對我們的人工智能強化決策過程的這種洞察力將對我們在整個沖突過程中的行動安全構成重大威脅。
保護我們的系統免受逆向工程的影響可能被證明是困難的,特別是因為任務要求可能要求系統允許許多查詢或加權輸出,而不是簡單的二元決定。這突出了對一系列量身定做的政策的需求,以管理與對抗性方法相關的風險。這些可能包括對人工智能系統的嚴格問責,特別是那些部署在邊緣的系統,如無人機或智能護目鏡。此外,我們可以通過只允許授權用戶查看系統輸出來施加訪問限制。
最后一類攻擊,被稱為推理攻擊,與逆向工程有關。與其說對手試圖恢復人工智能系統學到的東西,不如說對手試圖提取人工智能系統在其學習過程中使用的數據。這是一個微妙但有意義的區別,對在敏感或機密數據上訓練的模型有重大影響。
為了進行推理攻擊,與逆向工程一樣,對手需要有能力向模型發送輸入并觀察輸出。有了一組輸入和輸出,對手可以訓練一個對抗性人工智能,預測一個給定的數據點是否被用來訓練我們的友好模型。
想象一下,我們的目標識別人工智能是在對手的新武器系統的分類圖像上訓練的。使用推理攻擊,對手可以了解到這個武器系統的保密性已被破壞。換句話說,對我們的人工智能系統的推理攻擊可以促進機密情報的泄露。如果這是在競爭期間進行的,它可能會對危機和沖突產生很大影響。
與逆向工程一樣,管理與推理攻擊有關的風險將主要通過政策決定來處理。除了訪問政策決定外,還將有關于何時在人工智能系統的訓練中使用敏感或機密數據、使用什么類型的數據以及數量的困難決定。這些決定將需要平衡性能和風險,以開發仍然能夠滿足任務要求的人工智能系統。
當然,這顯然不是對所有對抗性方法的詳盡解釋。然而,這個框架應該提供一個充分的概述,領導人可以通過它來探索將人工智能系統整合到我們的編隊中的全部影響,包括積極和消極的影響。美國和我們的對手都在追求這種技術,以便在未來的戰略競爭中獲得不對稱的優勢,而雙方都無法贏得這種優勢。
當我們思考技術和不對稱優勢時,從第一原則開始,考慮相對獲得 "原材料 "的問題是有用的。在人工智能系統中,原材料是數據--大量的數據。美國是否能獲得與我們的對手相同質量和數量的數據?鑒于美國國家安全中圍繞隱私和數據安全的法律因素和社會規范--這本身就是一個關鍵的話題,答案顯然不是 "是"。這表明,美國在開發和部署人工智能系統方面將處于固有的不利地位。
訓練有素的人員是人工智能系統的另一個關鍵資源。正如陸軍在其 "人員優先 "戰略中所確定的那樣,擁有合適的人員將是美國在戰略競爭中取得成功的關鍵。美國在工業界、學術界和軍隊都有人才。這些人員能否被招募、留住,并被引向艱難的國家安全問題,是一個值得專門思考的開放式問題。在短期內,應該確定我們編制內已有的人才,并且應該將各組織在人工智能方面的不同努力同步進行。
人工智能是一種工具。像任何其他工具一樣,它有固有的優勢和弱點。通過對這些優勢和劣勢進行審慎和現實的評估,美國可以在人工智能的風險和回報之間找到最佳平衡點。雖然人工智能可能不會帶來美國在戰略競爭中所尋求的最大不對稱優勢,但我們也不能把技術讓給正在該領域進行大量投資的對手。相反,美國可以而且應該支持人工智能的道德使用,促進對強大的人工智能的研究,并為人工智能系統制定防御性的最佳做法。基于對人工智能系統的脆弱性和局限性的理解,實施這些行動和其他行動將導致美國更有效地將人工智能置于大國競爭時代的戰略中。
(2021年11月10日,在荷蘭弗里皮爾舉行的北約反無人機系統技術互操作性演習中,無人機在無人機群演示前處于起飛位置。)
美國防部(DOD)和美國政府在敵方使用小型無人駕駛飛機系統(sUAS)方面面臨著重大國家安全挑戰。創建集群能力的現有技術導致了多層次和無法管理的威脅。本文討論了如何準備和應對這一迫在眉睫的挑戰,俗稱“無人機蜂群”。傳統思維和實踐的基本挑戰推動了對無人機蜂群的關注。一些未解決的問題包括無人機蜂群對美國的潛在利益與威脅。迄今為止,沒有任何方法能充分解決美國對無人機蜂群的戰略風險。盡管美國防部戰略包括一些應對敵方無人機威脅的方法,但它并沒有完全面對挑戰,而要解決未來武裝無人機蜂群帶來的戰略問題,就必須面對這些挑戰。為了減輕這種新出現的風險,美國需要一個協調的方法來解決技術、法律和條令問題。
美國目前的戰略文件為確保和推進國家利益提供了總體要求。然而,新出現的威脅和潛在的無人機蜂群技術威脅著美國的安全態勢。例如,2017年美國國家安全戰略指出,“我們將保持一個能夠威懾并在必要時擊敗任何對手的前沿軍事存在”。隨著美國軍隊在全球范圍內的廣泛投入,對手可以利用無人機蜂群來挑戰美國在許多領域的利益;如果是這樣,美國軍隊就不能可靠地投射力量來威懾和擊敗這些同樣的對手。
此外,《美國國防戰略》認為戰爭的特點在不斷變化,行為者可以更迅速、更容易地獲得技術,包括人工智能(AI)、自主性和機器人技術。時任美國防部長詹姆斯-馬蒂斯在2018年說明了這種擔憂,他承認國土不再是一個避難所,必須預測針對“關鍵的國防、政府和經濟基礎設施”的攻擊。無人機蜂群構成了重大的國家安全戰略風險,應對這一新興威脅給美國帶來了三個關鍵領域的挑戰和機遇:技術、法律和理論。
關于作戰無人機系統使用的研究文獻揭示了以創新方式改變戰爭特征的潛力。技術革命使行為者能夠利用無人機來實現國家目標。最近發生在南高加索地區的納戈爾諾-卡拉巴赫爭議地區的戰爭說明了這一現實。阿塞拜疆對無人機系統的使用極大地幫助了它的勝利,支持了它對亞美尼亞的空中和地面作戰,而亞美尼亞擁有更多的常規空中和地面部隊,包括戰斗機和坦克。此外,這場戰爭說明了使用無人機系統來摧毀防空系統、地面部隊和裝甲車輛的優勢,包括空中能力成本相對低廉。這些系統可以憑借其相對較小的尺寸和較慢的速度避開敵人的防空系統,而且它們在常規沖突中為不太富裕的國家提供了潛在的軍事優勢。這種力量的再平衡表明,國家可能會在未來的沖突中更多地使用無人機系統來脅迫他們的敵人,促成外交上的讓步,并實現國家安全目標。遙控飛機是改變戰爭性質的工具,而小型無人機的創新使用說明了下一步的改進,其成本低,回報潛力大。
除了目前無人機系統的應用,這些航空器的未來發展趨向于更加復雜,在人工智能、自主性和機器學習方面將取得更多進展。這些術語可能會使一些人想到虛構的作品,如《天使降臨》(2019),這部電影中,小型螺旋槳驅動的無人機從地面的管道發射,攻擊美國總統和他的特勤人員。然而,在現實中主要軍事大國目前都在追求這種能力。
中國電子信息技術研究院在2020年9月測試了從地面和空中發射器發射和使用多個sUAS的蜂群編隊。此外,美國海軍研究辦公室和國防高級研究計劃局近年來進行了廣泛的測試,使用大量的無人機相互協調進行偵察,編隊飛行,或可用于向目標投放彈藥。2020年9月的一次演習顯示,俄羅斯也在繼續追求用三種型號的無人機系統進行集成編隊,打擊地面目標。雖然這本身不是無人機蜂群,但一位俄羅斯專家指出:“在這一點上,俄羅斯有很多關于UAV蜂群使用的研究,并對這種概念進行了測試和評估。”
民用無人機蜂群的發展表明,這是一項雙重用途的技術。在過去的幾年里,對無人機能力的需求不斷增加,因為各公司為編排好的展示活動編排了數以百計,有時甚至數以千計的無人機系統。例如,英特爾在2018年創造了一次展示中無人機數量最多的世界紀錄,有2066架。英特爾特定型號的無人機在眾多活動中飛行,包括2018年冬季奧運會和2017年超級碗的半場表演。最近,無人機表演為當選總統喬-拜登的特拉華州勝利慶典展示了蜂群能力。可以想象,一個邪惡的行為者可能會控制大量無人機,對涉及國家元首或大量人群的活動進行破壞。伊朗在2019年9月對沙特阿拉伯最大的原油穩定廠之一進行了無人機攻擊,顯示出不同尋常的復雜性,并且還在試驗同時對50個目標使用大量無人機。無人機蜂群的軍事和民用趨勢預示著美國的力量可能會在未來受到挑戰。盡管各行為體尚未使用真正的小型無人機蜂群來對付對手,但該技術的攻擊應用并不遙遠。
各國應在仔細考慮其風險和影響后,規劃使用無人機群。一些文獻承認無人機蜂群在某些戰略軍事背景下的概念性應用。例如,一位戰略專家認為,完全自主武裝型無人機蜂群(AFADS)是蜂群應用的一個子集,可以被視為大規模殺傷性武器(WMD)。美國陸軍應用兵棋推演方法證明了無人機蜂群武器如何在平行攻擊中提供作戰優勢。美國防部關于使用自主系統的發起人之一指出:部署完全自主的武器將是一個巨大的風險,但這可能是一個軍隊值得承擔的風險。這樣做將會進入未知的領域。敵對行動者正積極試圖破壞戰時的安全行動。而且在行動時,沒有人可以干預或糾正問題。
大國可能愿意承擔這種風險;正在開發能夠獨立于人類操作者做出決策的自主武器。前美國防部長馬克-埃斯佩爾指出了美國和其他大國在自主武器發展方面的這種區別。一些評論家斷言,自動防御系統提供了軍事優勢,包括自由打擊覆蓋戰略資產的傳統防空系統或對核和支撐能力進行監視。
各國必須考慮自主武器計劃的戰略影響。一個行為者向對手使用無人機蜂群可能導致意外升級,而一個意外的人工智能決策可能無意中導致敵人反擊或外交危機。國際上的討論還沒有涉及到使用完全自主武器在“危機穩定、升級控制和戰爭終止”方面的戰略考慮。許多專家同意,自主武器系統可能在危機或武裝沖突期間提供作戰優勢,特別是在灰色地帶或混合戰爭中,但戰略風險要求決策者現在就考慮這些危險,以避免以后出現災難性的結果。完全自主的武器系統增加了誤判和/或誤解的風險,這可能導致國家和非國家競爭者之間不受控制的風險升級。這包括使用大規模毀滅性武器的威脅增加。盡管采用自主無人機蜂群存在固有的風險和后果,但這些能力為行為者提供了實現國家目標的軍事和戰略選擇。有人類參與的半自主無人機蜂群武器也會給對手帶來風險,盡管程度較低。
關鍵術語和分析的范圍將澄清誤解。歐文-拉肖在《原子科學家公報》中寫道,將蜂群無人機定義為“分布式協作系統......成群的小型無人駕駛飛行器,可以作為一個群體移動和行動,只需有限的人類干預”。蜂群的另一個定義規定了軍事應用,“大量分散的個體或小團體協調在一起,作為一個連貫的整體進行戰斗”。根據美國防部指令3000.09,自主武器系統,“一旦啟動,就可以選擇和攻擊目標,而無需人類操作員進一步干預”。美國國家科學、工程和醫學研究院規定,無人機蜂群是指40個或更多的無人機系統,該群體作為一個單位,有各自的行為,所有成員都不知道任務,成員之間相互通信,每個無人機系統“會相對于其他無人機系統進行定位”。這些創新包括人工智能、自主性和機器學習的應用,以及美國防部指定為1、2和3組的sUAS進步。sUAS作為一個整體執行任務,包括情報、監視和偵察以及進攻性攻擊。在本文的其余部分,這種威脅將被稱為無人機蜂群。
對抗(或稱反制)無人機蜂群提出了三個領域,這對五角大樓和負責保衛美國國土的國家機構來說既是挑戰也是機遇。第一個領域,即技術,美國防部的工作集中在硬件解決方案上。在2021財年,美國防部最初計劃“在反無人機系統(C-UAS)的研究和開發上至少花費4.04億美元,在C-UAS的采購上至少花費8300萬美元。”所有軍種都追求各種尖端技術解決方案來探測、跟蹤、識別和擊敗目標。用于探測的硬件解決方案包括雷達以及電子光學、紅外和聲學傳感器;所有這些都因小型無人機的表面特征和相對速度而限制了其有效性。另一種技術涉及操作員可能需要控制無人機無線電指令信號的探測。擊敗機制包括干擾、欺騙、槍支、網、定向能和標準防空系統等方法。然而,目前的能力給操作者帶來的結果是好壞參半的。目前的措施主要是針對數量較少的無人機,而這些無人機并沒有表現出蜂群行為能力。其他方法,包括美國空軍和國防部在作戰環境中測試的高功率微波(HPM),可能提供更有效的能力來對付無人機蜂群,但專利方面的挑戰可能會限制其有效性。誠然,美國防部可能正在追求更先進的HPM武器,其基礎設施足跡更小,如Leonidas系統,但目前的研究僅限于非保密來源。
美國防部的反無人機系統(C-sUAS)戰略承認了無人機蜂群帶來的戰爭特征變化,但并沒有提到具體的解決技術。考慮到對抗無人機蜂群的近期要求,當前技術的重大局限性給行業帶來了挑戰。此外,美國防部可能沒有關注無人機蜂群的新威脅。相反,開發和采購工作表明,重點是傳感器和武器,以擊敗目前的無人機系統。美國防部2021財年的C-UAS預算主要針對當前設備進行開發,沒有考慮滿足未來需求的技術創新。在COVID-19大流行期間和之后美國防部預算下降的環境下,這種方法可能被證明是低效的,并造成重大風險。各國開發無人機蜂群技術的速度表明,其成熟速度比應對此類威脅的設備成熟速度更快。
觀察家們注意到需要快速創新以減輕不斷上升的威脅,但目前的國防工業基礎面臨著變革的障礙,包括軍事文化和新的商業技術測試。快速創新的一個更常見的問題源于對商業產品的收購,其中知識產權成為系統部署使用的很大障礙。當公司的設備或軟件不一定能互操作時,這個問題就會變得很嚴重,使C-sUAS操作者無法獲得擊敗目標所需的融合、及時和有用信息。軍事文化不一定會獎勵創新的思想家,并且很可能成為快速變革的障礙。雖然美國防部目前的C-sUAS戰略確定了無人機蜂群的威脅,但它沒有充分解決國防部必須如何克服高成本和創新遲緩的技術風險。
(2022年8月14日,在密歇根州格雷靈營地,分配給美陸軍第37步兵旅戰斗隊總部的上士Noah Straman 在北方打擊行動期間發射了DroneDefender)
C-sUAS戰略的第二個風險來源是在法律限制,特別是在國土上。現行法律為國土上的美國公民提供保護,同時也抑制了美國防部在軍事設施上保護無人機威脅的能力。鑒于無人機的威脅能力和檢測限制的多重影響,無人機蜂群加劇了這種限制所帶來的風險。C-sUAS戰略宣稱,美國防部的主要利益相關者必須與合作伙伴合作才能取得成功。這一當務之急應推動立法解決方案,以擴大這種反無人機設備運行的國內環境權限。
C-sUAS戰略強調了在國土上操作反無人機能力的重大法律挑戰,并斷言:“許多現有的法律和聯邦法規在設計時并沒有將無人機系統作為威脅來處理,而技術變化的持續速度使得法律當局很難跟上步伐。”目前的法律不允許及時發現潛在的無人機威脅,這些威脅可能來自軍事設施之外。《美國法典》(USC)第10條第130i款授權國防部長和武裝部隊指定人員采取所有動能或非動能行動,以“禁用、損壞或摧毀”對“所涉設施或資產”構成威脅的無人駕駛飛機系統。這一法律限制使操作者無法在潛在的無人機威脅到達目標之前將其擊敗。
盡管《美國法典》第10章第130i條授權國防部“在未經事先同意的情況下......通過攔截或以其他方式獲取電訊或電子通訊,探測、識別、監測和跟蹤無人駕駛飛機”,但它并沒有明確說明這一權力是否延伸到基地的邊界之外;如果可在邊界之外,就會給國防部提供戰術優勢。新的授權也不清楚美國防部是否可以在不違反情報監督指令的情況下,在其管轄范圍之外收集所需的無人機信息。此外,針對潛在的無人機蜂群威脅收集此類信息可能會擴大責任。探測目標還需要區分敵方和友方的無人機,鑒于目前的權限,處理與合法民用飛機有關的具體信息可能會有問題。
根據C-sUAS戰略,美國防部必須采取多邊行動,并與執法機構分享威脅信息,如10 USC 130i所允許的。這可能的一種方式是在國家安全特殊事件(NSSEs)期間,聯邦調查局(FBI)可以有臨時的權力來反擊無人機,而無需首先獲得授權。2018年《預防新威脅法》授權國土安全部(DHS)和司法部(DOJ)“通過基于風險的評估,減輕無人駕駛飛機......對設施或資產的安全或安保構成的威脅”。在最近的案例中,聯邦調查局與聯邦航空管理局(FAA)合作,在2020財政年度期間,包括2020年超級碗、2019年世界大賽、2020年玫瑰碗比賽、華盛頓特區的“A Capitol Fourth”和紐約市的新年慶祝活動中,成功對抗了超過200架無人機。聯邦調查局還與國土安全部以及佐治亞州的州和地方執法部門合作,在2019年超級碗比賽期間對抗54起無人機入侵事件;在體育場周圍的臨時飛行限制期間,至少有6架無人機被沒收了。
2018年《預防新威脅法》的描述內容與《美國法典》第10篇第130i條的授權非常相似,但仍不清楚國土安全部、司法部和國防部如何進行實際合作。首先,NSSEs是臨時性的,如果沒有永久性的授權,通過機構間的協調對威脅進行早期預警的優勢幾乎可以忽略不計。對手很可能不會在NSSE期間對國防部資產發動無人機蜂群攻擊。其次,如果國防部發現了其管轄范圍之外的威脅并警告國土安全部或司法部,聯邦、州或地方執法部門不太可能有時間和能力來攔截無人機蜂群威脅。
地方執法部門和私人實體有更少的權力來對抗無人機。根據國土安全部、司法部、交通部和聯邦通信委員會最近的咨詢,采用反無人機技術的非聯邦公共機構和私人可能違反聯邦法律。法律將無人機定義為飛機,任何破壞或摧毀無人機的工具都可能引發涉及《飛機破壞法》和《飛機海盜法》的責任。那些使用無線電頻率探測的人可能會涉及《竊聽/陷阱法》和《竊聽法》的訴訟負責,這取決于該能力是否記錄或攔截無人機和控制器之間的電子通訊。
最后,附帶影響可能導致當地執法部門或私人實體重新考慮采用這些能力。杰森-奈特對城市地區警察機構的考慮進行了分析,并提到了反無人機技術干擾合法地面和空中活動的例子。目前的授權并沒有為國防部對抗無人機群所需的預警能力提供全面的法律基礎。盡管在某些情況下,與東道國或在應急地點的多邊協調可能為防御者提供優勢,但鑒于美國防部的法律限制,在可能試圖使用無人機蜂群來對付關鍵基礎設施時,國土為對手提供了優勢。
(2022年3月30日,第3海軍陸戰隊第9工兵支援營沿海工兵偵察隊的戰斗工程師海軍陸戰隊下士Chance Bellas在菲律賓克拉韋里亞的Balikatan 22期間組裝了小型無人機系統VAPOR 55)
C-sUAS戰略的最后一個障礙是關于有效使用反無人機設備的一個重要但被忽視的方面。該戰略宣稱,隨著技術的成熟,需要制定條令,但僅僅承認企業的需求并沒有解決規劃誰可能操作這些設備的重大挑戰。現在確定條令上的需求將減輕未來的能力差距。美國陸軍必須在保衛空軍基地免受未來無人機蜂群威脅方面發揮更大作用。
采用反無人機能力的一個獨特方面是,它包括在所有領域的行動。具體來說,在空中瞄準和減輕對手的巨大挑戰,需要對三個主要任務領域的分工進行清晰的評估:防空、部隊保護和空域控制。從這些任務領域中提取部署原則對于規劃反無人機能力的戰略用途是有價值的。聯合條令是基于目前的部隊結構和幫助解決復雜問題的責任。規劃對抗無人機蜂群的方法需要對聯合條令中的角色和責任進行更深入的評估。
條令必須考慮到培訓未來在所有領域發揮作用的設備操作人員。在空中領域的操作需要對防空、部隊保護和空域控制有充分了解和精通的人員。設計一個與技術和設備同步發展的部隊結構并為其提供資源,將更有效地阻止和對付先進的威脅。這一發展推動了反無人機蜂群條令開發的權威指導,其也是C-sUAS聯合辦公室(JCO)作為國防部執行機構責任的一部分。此外,聯合辦公室將“協調C-UAS的聯合作戰概念和聯合條令的發展”。然而,這種責任描述沒有考慮到目前國防部各部門在空域控制、部隊保護和針對無人機蜂群威脅的防空方面的角色挑戰。專注于對抗地面威脅的部隊保護軍事人員并不具備對抗空中威脅同時避開友軍飛機的必要知識。對這些人員進行空域環境、電磁波譜、空間作業和天氣等相關培訓,將使他們更有效地運用能力來對付無人機蜂群。在防空方面重疊的責任,特別是美國陸軍和美國空軍之間的責任,可以解決此條令上的挑戰。然而,各軍種都依賴部隊保護專家,這給業務帶來了風險。
條令還包括對角色和任務的劃分,特別是在空軍基地的防空方面。越南戰爭和伊拉克戰爭迫使高級軍事指揮官和各軍種將能力分配給傳統任務,而犧牲了支持戰略和作戰目標的空軍基地防御。特別是陸軍和空軍,自二戰結束以來,一直在為地區和點狀防空任務的具體作用而爭斗。2020年蘭德公司的一項研究強調了目前的辯論:今天,美國陸軍負責為空軍基地和其他固定設施提供點式AMD(防空和導彈防御),但兩軍多年的忽視導致了能力上的不足......陸軍領導層將其機動部隊的移動式短程防空置于固定設施防御之上。
在美國陸軍對海外和國內主要作戰基地的防空資源進行優先排序之前,戰略和戰役目標很容易被無人機蜂群影響。此外,空軍可能會繼續倡導和獲得C-sUAS的能力,而沒有條令上的決議。空軍可能會實現其長期以來的愿望,即在戰術防空方面發揮更大的領導作用——這將與聯合司令部的任務相矛盾,即避免重復工作并獲得效率。同樣,其他軍種可能會繼續購買設備進行試驗,如果沒有跨領域和職能協調,這可能不是最佳或有效的。
蘭德公司的報告還詳細說明了陸軍和空軍在防空方面的角色錯位。2020年的一份國會研究報告提出了一個重要問題:“計劃中的SHORAD(短程防空)部隊結構和能力是否足以應對預測的未來挑戰?”該報告表明,陸軍計劃在現役和后備部隊之間增加18個營的防空能力,這可能不足以滿足支持歐洲威懾倡議和太平洋威懾倡議的陸軍部隊需要。這些能力包括應對無人機系統的威脅,但不包括保衛空軍關鍵資產和主要作戰基地的假定任務。盡管聯合出版物3-0《作戰》要求整合進攻和防御能力,以實現對敵方無人機的空中優勢和部隊保護,但它并沒有明確規定各軍種的角色和任務。這種理論上的模糊性增加了SHORAD資源不足的危險,以應對未來無人機蜂群的倍增效應。
新興技術的發展和使用無人機蜂群可能性的增加使得有必要對條令和軍種的作用進行重新評估。事實上,空軍參謀長已經敦促國防部長辦公室對各軍種的角色和任務進行審查,以確定聯合作戰概念的領導組織,如遠程精確射擊和攻擊下的后勤。這兩個概念都與保護戰略資產免受潛在的無人機蜂群攻擊有關。此外,美國防部缺乏條令指導可能也表明需要評估機構間的概念和方法,以便在民事管轄范圍內采用類似的能力。JCO及其國防部戰略將為持續的條令開發提供基本要素,但更多的工作必須集中在調整各部門的角色和資源上。
美國防部對抗無人機蜂群的新方法必須解決技術快速發展的風險,對手可能利用民用和國防部保護關鍵基礎設施之間的法律縫隙,以及防空、空域控制和部隊保護方面固有的條令挑戰。正如2018年美國國防戰略所指出的,國土不再是一個避難所,而是敵人無人機蜂群的目標,這些蜂群可能具有洲際范圍的能力。
(2021年10月14日,夏威夷波哈庫洛亞訓練區,海軍陸戰隊準下士德米特里-謝潑德在布干維爾II期間進行步兵排戰斗課程時發射無人機)
敵對趨勢必須推動國防工業基地采用相對低成本、快速和人工智能的技術解決方案。最初尋求納入未來技術的“第三次抵消戰略”,為減輕這種風險提供了一個特別有用的方法。該戰略探討了蜂群式無人機、高超音速武器、人工智能和人機協作的最佳組合方式,以在戰斗中提供獨特的優勢,但它并不只關注材料和設備。相反,它考慮了如何最好地將人類的創造力與技術的精確性相結合。當應用于對抗無人機蜂群時,人機協作的概念可以為防空事業提供優勢。解決方案應該包括一系列與人工智能軟件完全整合的傳感器,以便更迅速地識別潛在目標,并提高信心水平。美國陸軍的TRADOC小冊子525-3-1《2028年多域作戰中的美國陸軍》指出,這些特征是人工智能和高速數據處理所希望的,以提高“人類決策的速度和準確性”。
值得投資的人機技術項目包括由人工智能驅動的自主蜂群無人機,以通過斗狗來減輕或摧毀敵人的蜂群。喬治亞理工大學在2017年與海軍研究生院合作進行了這種實驗。此外,美國防部的低成本開發能力包括非動能直接能量武器,如戰術高功率微波作戰響應器(THOR)和混合防御限制空域(HyDRA)計劃。THOR為對抗無人機蜂群提供了一種特別有效的能力,因為與HyDRA激光器相比,其影響范圍更大。然而,如果與綜合指揮和控制(C2)界面連接部署并協調,將人工智能與人類結合起來,該系統可比標準防空能力更有效,成本更低。
C2能力必須能夠更快地確定目標,將傳感器與擊敗機制連接起來,并允許人類操作員迅速選擇更有效的武器。最近的報告表明,聯合司令部正在追求這些能力,并可能要求各軍種開發自己的C2系統,以便最終整合到美國陸軍的前線防空指揮和控制系統。其他C2系統包括美國海軍的CORIAN(反遙控模型飛機綜合防空網絡)能力和美國空軍的多域無人系統應用指揮和控制。然而,這些具體的系統目前似乎并沒有與先進作戰管理系統(ABMS)或擬議的聯合全域指揮與控制(JADC2)架構聯系在一起。最近和剛開始的工作表明,在北大西洋公約組織中將使用JADC2概念將傳感器與射手聯系起來以對抗無人機群的倡議。未來的JADC2架構在概念上可以使人類操作員為自己的目的控制敵方的無人機蜂群網絡。無論哪種創新,“第三次抵消戰略”都為應對未來致命的自主無人機蜂群問題提供了一個潛在的寶貴方法。
在不考慮未來無人機蜂群威脅或人工智能發展活動的情況下,追求不同的和針對具體軍種的C2能力將浪費時間和納稅人的資金。相反,美國防部應更快地將2021財年開發的反無人機蜂群C2能力納入JADC2架構。國會責成國防部長評估綜合防空和導彈防御C2系統,其中包括C-UAS能力,并確定它們是否與新興的JADC2架構兼容。這個框架符合國會對自主或半自主能力的偏好,而且操作和維持成本低。盡管互操作性、知識產權、數據管理和信息保障仍然是挑戰,但將C-sUAS C2系統整合到JADC2架構中,將產生更快的殺傷鏈和潛在更低成本的項目。JCO主任肖恩-蓋尼少將最近承認,這種開放的架構方法可能會在日后帶來巨大的安全紅利。 第二,在國土的現有法律框架內運作,美國防部必須倡導在固定地點有更多的權力來保衛關鍵基礎設施。國會必須在緊急情況下和和平時期授予國防部長更多的權力。該建議必須包括授權操作者在基地邊界之外確定潛在目標。運營商也應該有法律支持,以近乎實時的方式告警當地和聯邦執法機構。
(2021年4月18日,太平洋,分配到第21直升機海戰中隊的海軍二級空勤人員(直升機)丹尼爾-艾爾斯在與兩棲攻擊艦埃塞克斯號的實彈演習中用MH-60S海鷹GAU-21.50口徑機槍向目標無人機開火)
第二,在國土的現有法律框架內運作,美國防部必須倡導在固定地點有更多的權力來保衛關鍵基礎設施。國會必須在緊急情況下和和平時期授予國防部長更多的權力。該建議必須包括授權操作者在基地邊界之外確定潛在目標。運營商也應該有法律支持,以近乎實時的方式告警當地和聯邦執法機構。
幸運的是,聯邦航空局正在推行幾項舉措來對抗敵方無人機。這些計劃包括將無人機納入國家空域系統,以區分友軍和敵軍的無人機。國防部應積極鼓勵聯邦航空局和美國國家航空航天局繼續各自的無人機行業倡議,包括無人機系統交通管理研究,以“確定服務、角色和責任、信息架構、數據交換協議、軟件功能、基礎設施和性能要求,以實現對低空無控制無人機操作的管理”。這些增加的權力,再加上增強的能力,可以縮小民事和軍事管轄權之間的法律差距,以保護國家基礎設施和國防部的關鍵資產。
最后,美國防部必須通過兵棋推演和演習積極磨練理論,以確定空軍基地防空中最合適的角色和職能。隨著無人機技術的成熟和向友軍提出更復雜的問題,盡早建立正確的部隊結構將更有效地應對挑戰。這將需要進行必要的培訓和適當的資源配置,以滿足國會對有效和低成本設備的需求。正如蘭德公司的研究報告所指出的那樣,沒有單一的行動方案,而是通過組合來提供解決方案。然而,角色和職能的重新調整對于成功至關重要。追求適當的聯合討論將為未來對抗無人機蜂群的強大和基于風險的模式提供基礎,并避免過去的戰略錯誤。
本文探討了人工智能(AI)如何可能使美國軍隊以更符合倫理的方式執行其作戰任務,從而更好地遵守國際人道主義法(IHL)的倫理意圖,并強調它可能帶來的挑戰。它將通過研究軍事目標選擇的兩個關鍵特征來完成這一任務:區分和相稱性。區分和相稱性是國際人道主義法承認的四項基本戰爭原則中的兩項,包括《海牙公約》、《日內瓦公約》及其附加議定書,以及紅十字會編纂的習慣法。 對這兩項原則的仔細研究突出了可預見性的概念在戰爭倫理中的作用。可預見性是正義戰爭理論中經常提到的與保護非戰斗人員有關的關鍵倫理考慮。邁克爾-沃爾澤的奠基之作《正義與非正義的戰爭》認為,在戰爭中,不可預見的邪惡可能是可以接受的,但從倫理上講,戰士們必須在戰爭中盡量減少所有可預見的邪惡。雖然可預見性沒有被標為基本原則,但它是一個經常被忽視的特征,對主要的四項原則的倫理決策產生了重大影響。
審查包括簡要回顧區分的倫理基礎,相稱性,以及兩者如何取決于可預見性。然后,它評估了當前的國際人道主義法,并確定了人工智能可以提供更多的合規性的潛在機會,以及潛在風險的特征。審查將主要集中在戰爭/戰斗期間的倫理決定和行動(戰時法),而不是可能導致戰爭的戰略決定(戰時法)。在執行對人工智能可能給軍事目標帶來的潛力和隱患的評估之前,關鍵是要正確定義人工智能,并審查其與國家安全的日益相關性。
人工智能是一個復雜的話題,既具有爭議性,又經常被誤解。著名物理學家斯蒂芬-霍金警告說,人工智能可能是 "我們文明史上最糟糕的事件",除非其發展得到適當控制。 甚至企業家埃隆-馬斯克,他自己的公司正在創新自動駕駛汽車,也警告說"......人工智能比核彈危險得多",必須受到監管。相反,麻省理工學院計算機科學和人工智能實驗室的創始主任羅德尼-布魯克斯、哈佛大學心理學教授史蒂芬-平克,甚至Facebook創始人馬克-扎克伯格都將這些觀點描述為危言聳聽。
當人工智能被引入到國家安全和軍事行動中時,其強度和審查都會大大增加。馬斯克和霍金都簽署了一封致聯合國的公開信,敦促禁止人工智能武器。 公眾對人工智能 "武器化 "的反彈的一個引人注目的例子發生在Maven項目上,原因是人們對倫理問題的看法。Maven項目是美國國防部(DOD)的一項舉措,旨在利用人工智能來評估來自遙控飛機的視頻,試圖更快、更準確地找到伊拉克和敘利亞的伊斯蘭國恐怖分子。國防部與包括谷歌在內的一些商業伙伴開始了這項努力。然而,在2018年,約有4000名谷歌員工認為該項目與谷歌的倫理規范相抵觸,這些倫理規范是基于 "不作惡 "的非官方格言。然后,這些員工簽署了一份請愿書,要求"......谷歌或其承包商將永遠不會建立戰爭技術"。 此后不久,谷歌退出了該項目。這些事件受到一些人的贊揚,也受到另一些人的批評,他們認為抗議是短視或幼稚的,因為不太倫理的美國競爭對手仍然會從谷歌的人工智能工作中受益。
曾在伊拉克和阿富汗服役的海軍陸戰隊員盧卡斯-昆斯(Lucas Kunce)為人工智能在軍事上的倫理應用提出了令人信服的愿景。他認為,對向軍隊提供先進技術的擔心是沒有根據的。他提供了一些小故事,描述了人工智能增強的工具如何阻止他的團隊殺死一個他們認為向他們投擲手榴彈的平民,而他只是拿著一只鞋。他還描述了在一次交戰中,他的一名海軍陸戰隊員射殺了一名坐在車里的年輕女孩,他的部隊認為這是一個車載簡易爆炸裝置。正是這種觀點準確地將軍隊描述為試圖完成其當選領導層賦予他們的任務的同胞。它還指出,職業軍人不是一群不分青紅皂白的殺手,如三十年戰爭期間蹂躪歐洲的掠奪者,甚至是越南時代助長美萊大屠殺的美國重兵。相反,他們是負責為國家管理暴力的專業人士。正是這種被進一步編入國際人道主義法的特點,應該能緩解人們對人工智能和軍隊的結合將導致未來出現天網、終結者和其他類型的殺人機器人的擔憂。
美國已經進入了一個大國競爭的新時期。俄羅斯和中國的崛起在全球權力結構中形成了復雜的三足鼎立局面。最近人工智能方面的技術進步使這種多變的國際動態進一步復雜化。學者、政治家和高級軍官已經意識到,人工智能的融入是軍事事務中一場新革命的起源,有能力改變權力的戰略平衡。美國在中東被二十年的反叛亂所困擾,并受到僅延伸至2025年的長期人工智能戰略的阻礙,沒有準備好進入這個 "第六代 "軍事能力,以確保其戰略利益。這種人工智能化的部隊將由半自主和自主系統定義,包括致命的自主武器系統。第一個開發和使用這些武器的國家行為者將在這個新時代獲得對其競爭對手的戰略優勢。雖然美國目前在人工智能方面擁有優勢,但由于缺乏前瞻性思維和重點投資政策,這種優勢正在迅速消失。這是一份旨在解決這一差距的政策文件。20世紀90年代中期的中國軍事現代化模式為美國未來的政策提供了一條潛在的途徑。雖然兩國政府結構存在差異,但其中的幾個基本原則可以在美國的制度框架內適用。因此,美國可以通過制定健全的投資政策、集中的技術發展計劃和新的行動概念來確保人工智能的首要地位,以便在新能力出現時將其最大化。
大國競爭必須相對于其他大國的能力進行評估。因此,沒有一種能力可以被評估為產生可持續的絕對優勢。然而,在潛在的對手獲得同樣的能力之前,開發人工智能技術和應用為21世紀沖突設計的CONOPS的能力將在整個政治/軍事領域產生一個暫時的戰略優勢。美國目前的公共政策和戰略并沒有延伸到25年后。隨著中國準備在2030年成為占主導地位的人工智能大國,美國為了確保長期戰略利益,不能接受人工智能競賽的現狀。由于人工智能領域的技術發展速度很快,人工智能RMA的狀態和抓住初始優勢的能力正在接近一個拐點。建議美國采取側重于美國在人工智能競賽中的首要地位的政策,特別是在致命性自主武器系統的研究和開發方面。美國在這一領域保持優勢的能力對于國家安全和參與21世紀人工智能輔助和/或人工智能環境的準備工作是至關重要的。
由于致命性自主武器系統是一項仍在開發中的未來技術,因此不可能確定致命性自主武器系統對戰略環境的完整影響。本研究承認,對于評估一個未來武器系統的影響沒有預測性的措施,該系統在實現其全部潛力之前還將經過幾代技術的演變。然而,評估投資政策、技術和CONOPS演變的影響以及它如何影響軍事準備、政治資本和戰略環境的能力是有據可查的。
本文的建議將以1990年至今的中國軍事投資戰略為藍本。在此期間,中國國防開支的增加創造了一個前所未有的能力和軍事力量的增長,為美國未來的人工智能政策提供了一個框架。由于全球力量是以相對而非絕對的方式衡量的,美國至少必須在多極環境中與不斷增長的大國保持平等。雖然從美國的角度來看,中國戰略的某些方面,特別是盜竊知識產權的因素是不切實際的,但那些關于教育和貨幣投資的內容可以被納入美國未來的人工智能政策中。這項研究建議:
1.設立一個負責人工智能政策的助理國防部長的新職位,直接負責人工智能的發展和整合到美國防部。
2.指示ASDAI為美國軍隊制定一個關于第六代能力的預期最終狀態,每十年更新一次。
3.建立30年、15年和5年的人工智能目標,每五年更新一次,讓各個機構,如DARPA、JAIC、國防創新部門(DIU)和相關組織負責特定的發展水平。這將使美國政策制定者有能力根據ASDAI評估和更新的多變的戰略環境,為每個機構提供適當的資金。
4.成立一個委員會,負責發展和保留研究生水平的科學、技術、工程和數學(STEM)人才。
5.建立一個戰略規劃組織,負責研究和整合新的人工智能技術,因為它們出現在15年和5年的基準點上,以便在收購過程中納入其中。
對這些政策的評估必須對照美國對手在人工智能領域的成就和進步。建立在美國在人工智能領域的首要地位上的政策應該集中在教育和經濟投資,新的人工智能技術的初步發展,以及新的CONOPS的發展,以便在新的人工智能能力可用時充分和有效地進行。本研究報告的其余部分重點關注中國國防現代化計劃對美國未來人工智能政策和建議的調整。
美國海軍在實現海上作戰空間自動化的過程中面臨著挑戰,并有可能落后于其崛起的大國競爭者--中國人民解放軍海軍(PLAN)。美國海軍和中國人民解放軍海軍是如何采用自動化來改善海軍情報、監視和偵察(ISR)的?這項研究的結果表明,美國海軍是一個創新者和早期采用者,而解放軍海軍作為一個后期現代化者接受了自動化系統和人工智能(AI),受益于已經存在的相關技術知識。美國海軍的宙斯盾和艦艇自衛系統以及人工智能技術能夠實現海上優勢;然而,中國海軍在人工智能技術方面的進展比美國海軍快。這篇論文比較了兩支海軍在ISR方面采用自動化和人工智能技術的情況。在本研究中,自動化被定義為一個過程或特定的、以任務為導向的系統,它的運行不需要人類的直接控制。人工智能更深入,包括旨在創造能夠分析、評估和優化備選方案以追求更廣泛目標的機器技術。采用了埃弗雷特-羅杰斯的擴散過程S曲線模型,作為分析海軍規劃者和決策者提高效率的框架,因為他們正在考慮采用哪些自動化和人工智能技術以及如何最好地利用它們。
自動化和人工智能(AI)的發展將影響未來的海權。2017年7月8日,中國表示,目標是建立一個國內的人工智能產業,并在2030年之前使國家成為"人工智能的創新中心"。2019年2月11日,唐納德-特朗普總統簽署了13859號行政命令,以保持人工智能的領導地位,并體現美國的價值觀。雖然這些戰略已經公布,但在海軍事務中采用自動化的速度仍然緩慢。在美國海軍作戰部長2018年的文章《海上優勢的設計》中,海軍作戰部長的首要任務是設計未來的綜合海軍力量結構,并 "全員上陣,使杰拉爾德-R-福特號(CVN 78)盡快準備好作為戰艦。"而中國人民解放軍旨在向未來的 "智能化戰爭 "發展。人工智能超級大國的海軍競相采用自動化和人工智能技術進行持久的情報、監視和偵察。這篇論文比較了兩個關鍵的自動化傳感器--美國宙斯盾和中國348型 "龍眼"的技術采用情況,以及它們如何改進海軍的情報、監視和偵察(ISR)。
自冷戰以來,海上優勢已經開始依賴來自相互連接的ISR平臺的自動化預警系統。在美國和當時的蘇維埃社會主義共和國聯盟(USSR)之間,海上指示和警告(I&W)的自動化被大量嵌入常規海軍能力。蘇聯解體后,中國穩步崛起,并一直在尋求使用人工智能(AI)來增強其軍隊的認知能力,速度越來越快,特別是在未來的海權方面。航空母艦、海軍飛機和潛艇之間的自動化通信鏈路,稱為Link-11或Link-16,允許人類操作員通過互聯網計算機系統即時發送信息。
這項研究的重點是美國海軍和中國人民解放軍海軍(PLAN)采用基于自動化的平臺。海軍ISR平臺的例子包括:船舶自動化、有人和無人系統、空中偵察衛星、可視化識別和定位海上平臺的計算機系統。這個話題很重要,因為有三個關鍵因素:快速人工智能技術研發的政策;大國競爭(GPC)的回歸;以及減輕不確定性和增強判斷力的需要。然而,先前的地緣政治事件表明,由于設備的錯誤配置和人為錯誤,自動化系統可能容易出現錯誤的、非結構化的或無監督的數據。在正確的時間、正確的地點接收正確的數據,對于了解未來海權自動化的采用至關重要。
本研究關于關鍵領域的范圍包括:自動化戰略;輔助決策(速度);以及使自動化工具發揮作用的空間關鍵情報系統。對采用自動化的影響的概述是以美國和中國的國防和政策戰略文件為界。將討論采用關鍵情報系統的戰略意義。
采用和駕馭當今的自動化技術是至關重要的。對新興技術的技術采用有賴于頻繁的軟件更新和兼容的硬件來成功運作;否則,系統將不能按預期或最初的設計運作。另一種方式來概念化這個采用和整合2020年的技術的過程,就是思考將現代藍牙揚聲器或收音機整合到20世紀80年代的車輛中;可能的,但試圖整合不兼容的軟件或硬件將是有代價的,很可能會出現故障并導致不兼容,這就是在海軍ISR平臺上部署或采用自動化系統或AI工具之前缺乏冗余的測試。
美國海軍和中國海軍(PLAN)是如何采用自動化技術來改善海軍ISR與 "宙斯盾 "和348型雷達傳感器對未來海權的影響?
半個世紀前,美國陸軍參謀長威廉-C-威斯特摩蘭將軍對未來戰爭的看法在今天看來是正確的。1969年10月14日,他在美國陸軍協會的演講中指出
威斯特摩蘭將軍概括了采用持續監視、跟蹤和瞄準的設想,用計算機即時跟蹤敵人。
著名的斯坦福大學計算機科學教授、人工智能開發者和企業高管安德魯-吳(Andrew Ng)認為,就像一個多世紀前電力幾乎改變了一切一樣,今天很難想象在未來幾年內有哪個行業不會被人工智能所觸及。他的愿景似乎正在實現,今天提供海上態勢感知的軟件程序被稱為共同作業圖像(COP)。美國國防公司雷神公司開發的COP是為了以近乎實時的方式直觀地顯示海軍的空中、陸地和海上平臺。屏幕上的圖片點根據其獨特的標識符或指紋來識別和定位海上的海軍平臺,這也是GPS在地圖上的顯示方式。這是一種人工智能的應用形式,其中自動化催化了這個過程,并簡化了飛機、水面艦艇、潛艇、地面站和衛星之間的數據流。
自20世紀50年代以來,杰出的領導人已經研究并在海軍事務中采用了海上平臺的模式識別及其相關的雷達信號或信號。對于海軍ISR來說,一種被稱為基于活動的情報(ABI)的軟件程序是 "一種分析方法,它圍繞人、事件和活動的相互作用,迅速整合來自多個情報源和來源的數據,以發現相關模式,確定和識別變化,并對這些模式進行定性,以推動收集和創造決策優勢"。
根據海軍研究生院(NPS)計算機科學家Joshua Kroll教授的說法,自動化是根據一套既定的規則對一個過程進行操作,這些規則被稱為一套顯性和隱性的規范。這些規則可以非常簡單,也可以非常復雜,由人類和機器以各種方式實施。這些規則在軟件程序中以 "如果,那么"的邏輯實現和編碼,然后可以與機械功能相配合,通常與人配合。自動化是有益的,因為它在機械或視覺上使一項任務自動化,同時避免了人類的弱點,如疲勞和不專心。
自動化和人工智能是不完美的,有時會有特定的錯誤。系統規則或規則的輸出可能不正確或不完整,它可能導致災難性的事件,導致自動化的研究停止或暫停。人的錯誤在系統錯誤中也會有很大一部分。
使海上數據流自動化的海軍傳感器已經推動了海軍運營商和戰略家為未來的海上戰斗空間重塑人工智能的采用。美國防部(DOD)的人工智能戰略已經加快了 "采用人工智能和創建一支適合我們時代的部隊。"簡單地說,使用有效的傳統技術是有價值的,但了解人工智能超級大國如何采用改變游戲規則的技術,對于改善海軍ISR至關重要。采用自動化的合適方式圍繞著知識、訪問和時間來進行相關和準確的預警。
第二種方法是定義和理解自動化和人工智能的文獻,包括其在社會各部門的看法。對自動化沒有一個公認的具體定義。我的方法將是概述來自政府、軍事、公共和私人的標準定義,并將他們的定義與計算機科學家等技術專家進行比較。當人們說或聽到人工智能這個短語時,各種想法和圖像就會出現在腦海中--從摧毀對手的致命自主武器或殺手機器人到不那么嚇人的圖像。對人工智能的看法可以從想象水手們坐在船上的電腦屏幕前到蘋果的Siri或亞馬遜的Alexa技術。對自動化的看法可以是簡單的流水線,到自動精簡信號以控制信息流,并納入數字地圖以顯示船只、飛機和潛艇的位置。定義取決于你問誰。
第三種方法是分析今天有關人工智能超級大國之間海軍ISR的自動化和人工智能能力。
第四種方法是構思和描述采用自動化加上人工智能新興技術的設計方法,這些技術可以在不到六個月的時間內被回收、重復使用和轉身,從而擁有為海軍ISR采用自動化的長期戰略的優勢。這種不規則的方法將納入有效性和性能的措施,并有一個苛刻的時間表,其中包括積極的、及時的和道德的標準。
本論文方法將是開發一個適應性模型,用于比較分析今天美國海軍和中國海軍之間的自動化和人工智能能力,包括其海軍的空軍部分。我們的目標是產生一種研究方法,為參謀長聯席會議主席提供精確和簡明的指標和衡量標準,以便其啟發式地觀察和吸收,在今天采取行動,并在人工智能軟件開始超越現有技術時重新調整方向。在第二章中,對自動化和人工智能的文獻回顧進行了定義,海軍ISR的技術方面對于討論、概念化和在本論文中使用一個簡單的工作定義是必要的。
除了定性分析,定量分析將通過對有貢獻的行業公司(私營和公共)的網絡分析來進行,以追求為高層決策和反饋系統開發一個采用框架。混合方法的目的是為了確定情報、監視和偵察的自動化做法。對ISR自動化的徹底分析將使我們更好地了解海上戰場ISR的當前趨勢和限制。值得注意的是,采用的理論通常是基于組織或用戶;因此,將討論兩者。將使用埃弗雷特-羅杰斯(Everett Rogers)的擴散過程的S型曲線模型,研究在過去50年里ISR采用自動化的水平。
這篇論文將包括三個具體的自動化系統,它們可以連接到兩個重點自動化傳感器和兩個海軍采用的云服務來存儲ISR數據。這些系統包括無人潛航器(UUVs)、無人駕駛飛行器(UAVs)。除了美國防部企業范圍內的云解決方案,美國還整合了聯合企業防御基礎設施(JEDI)云計劃,這可以提高海軍ISR支持,并與中國保持同步。關于解放軍的云服務發展計劃,已知的公開信息很少。然而,在2017年,與解放軍合作的中國科技部招募了互聯網巨頭百度、阿里巴巴集團控股公司和騰訊控股--也被稱為BAT--用于云計算。
埃弗雷特-羅杰斯1962年的擴散過程S曲線模型將有助于更好地理解當前的采用方法。例如,美國國防采購系統(DAS)和聯合能力整合與發展系統(JCIDS),以及根據DODI 5000.2的2020年中層采購(MTA)途徑是美國技術采用的采購模式。還將使用定量措施來聯系相關公司的空間和時間網絡分析,私營和非營利公司,可以積極和消極地促進自動化的采用。其目的是可能揭示公司的專有權利和它們之間的距離或分離度,這可能顯示出未來海軍ISR的方法和整體采用過程中的弱點。
作為第三章的案例研究,將提供埃弗雷特技術采用的S型曲線的概述和一個逐步的過程,以幫助海軍ISR采用自動化和AI的過程。其他可提及的擁有采用自動化系統或AI工具的AI戰略的國家將在本論文中簡要討論,它們是英國、俄羅斯、法國、伊朗和韓國。
幾十年來,技術背景下的采用理論一直是研究人員、商業和工業界的焦點。現代術語 "采用 "源自羅馬的一種采用形式,即adoptio。這個15世紀末的法語和拉丁語短語adoptare來自ad,意思是 "到",optare意思是 "選擇"。簡單地說,人們可以選擇一個無生命的物體、人、地方或事物,或者選擇改變,或者不改變。
技術采用的S型曲線代表了一個理論框架,幫助概念化一個人或一個組織如何成功或不成功地采用一項技術。根據美國傳播理論家和社會學家埃弗雷特-羅杰斯(Everett Rogers)的觀點,創新技術的成功采用發生在一個分布式的鐘形曲線上,呈S型,它是由擴散曲線在時間和常態方面得出的(圖1)。采用系統的五個類別是。(1) 創新者;(2) 早期采用者;(3) 早期多數;(4) 晚期多數;(5) 落后者。了解S型鐘形曲線的各個階段對成功采用新興技術非常重要。
圖1以水平和拉伸的 "S "形式描述了技術采用率,采用率在Y軸上,時間在X軸上。這意味著,當一項技術最初被采用時,無論是技術還是市場條件,都需要幾年的時間來調整或發展到達到一個拐點,以實現快速采用。
圖1. 擴散過程的S型曲線模型
當市場開始飽和時,曲線就會變平,技術的后期采用者在飽和點上采用新興技術并融入競爭環境已經太晚了,這就是落后者的位置。海軍領導層會發現這一點很有用,因為這意味著最好是在S型曲線的拐點上,而不是在它的起點或終點。
隨著人口的增長,自動化和人工智能新興技術也將增長。S型曲線思想的歷史始于19世紀,其動機是為了了解更多關于人類的成長。羅杰斯的S型曲線采用理論是基于Logistic函數作為人口增長的模型,該模型由比利時數學家Pierre-Francois Verhulst在1839年首次提出。Verhulst將這一理論與人口增長聯系起來,最初他的想法來自英國人和政治經濟學家托馬斯-馬爾薩斯在1789年的《人口原理論》。在這一時期,人們擔心人口增長超過食物供應,以及未來養活人口的問題。從1950年到今天,美國的人口增長從3.3億美國公民增長到14億中國公民;促成了目前77.6億的人口,而且還在不斷增加。人類人口越是增長,對知識的渴求就越有可能,不僅是人類,還有自動化和AI。人們希望有更多的自動化系統,并采用人工智能技術,因為它們通常比人類更快,可以消耗更多的數據,同時提供智能和監控,有時某些技術只是使用起來很有趣。
S型曲線采用理論的一個重要推論是,海軍應該在已經成長并經歷過失敗的技術上建立公司,以實現成功采用。一些技術包括AlphaGo深度學習系統和IBM的DeepMind子公司谷歌,用于下圍棋的戰略游戲,或稱圍棋。2016年,計算機系統AlphaGo擊敗了韓國特級大師李世石。對于這兩個人工智能超級大國的海軍來說,這種模擬游戲直接關系到美國海軍和解放軍海軍之間的傳感器和計算機系統如何在海上戰場上相互學習。技術的采用和增長可以很好地轉化為生命周期模式,并以長期的累積增長來衡量。
自20世紀50年代以來,自動化技術的增長并不令人驚訝,而且是不完善的。根據Modus的說法,S型曲線 "來自于一個定律,即增長速度與已經完成的增長量和有待完成的增長量成正比"。就像生命周期--出生、成長、青春期或成熟和死亡的時期一樣,S型曲線階段作為減速、加速、換檔或完全停止并重新開始的關鍵機制。不是每一個為ISR設計的特定海軍傳感器或計算機系統都能實現對海上戰場的完美了解。
這種觀察在商業領域得到了認可和利用。谷歌前首席執行官和國防部顧問委員會的董事會成員埃里克-施密特認為問題是直接的。他認為,如果我們建立可靠的系統,在其中了解故障模式和錯誤率,計算機視覺是很容易理解的。通過宙斯盾接收、分析和傳播信息和情報,計算機系統與傳感器的連接有時間差,這在年輕的操作人員中產生了公認的挫折感,他們設想計算機系統和人工智能應用,就像高分辨率的視頻游戲,是采用自動化的一個弱點。
人類使用自動化軟件應用來解決問題。重要的是要明白,自動化目前沒有能力進行智力評估。人工智能模擬了人腦的認知功能和計算機視覺顯示數據。在美國海軍中,機器背后的人類操作員使用基于規則的自動化系統,該系統顯示雷達信號。靜止的數據--計算機中沒有被使用或操作的數據--被限制在輸入的數據量中。
采用理論的變化是不可避免的。與美國歷史學家Elting Morison的研究和反思過程相似,自動化的采用主要圍繞著四個不同的部分:"任何機械變化的起源點的初始條件;變化的主要代理人的特點;那些抵制變化的人的性質;以及促進適應所引入的變化的手段。"不理解和忍受這些部分,就不能超越現有知識體系的門檻。
在2020年,我們處于另一個巨大的技術發展和GPC回歸的時代,通過這個時代維持未來的海權取決于在網絡空間的第四維度的優勢。俄羅斯總統弗拉基米爾-普京曾經說過:"人工智能是未來,不僅是俄羅斯的,而且是全人類的。它帶來了巨大的機會,但也有難以預測的威脅。誰成為這個領域的領導者,誰就會成為世界的統治者。"自動化簡單的任務和采用人工智能工具,即使是傳統的系統,也需要改變今天的GPC和國家安全。
這篇論文試圖比較美國和中國海軍采用自動化和人工智能進行海軍ISR的不同方式。將具體的自動化工具--宙斯盾、SSDS和346型--如何改善現代海上戰斗空間的問題進行了概念化。第二章概念化了自動化一詞--一種技術、過程或系統,機器通過它來實現一個特定的目標--和人工智能,一個更雄心勃勃的概念,提出了分析和評估能力。第三章描述了羅杰斯的技術采用的S型曲線,并建議總共有五類采用者來規范采用者類別的使用。這種方法很重要,因為如果沒有這種方法,在采用過程中,將想法討論和將適當的技術歸類到其適當的時間表是至關重要的。第四章展示并分析了兩國海軍采用自動化和人工智能海軍ISR平臺和軟件的方式。盡管美國海軍在海上優勢和空中優勢方面一直保持著主導地位,但中國海軍在主導人工智能以獲得未來的海權方面正在快速接近。
這篇論文包含一個七步戰略和設計過程,適用于簡單、復雜和特別復雜的自動化或人工智能應用的技術采用。這個理論過程可以幫助確定海上戰斗空間中成功的海軍ISR實踐所需的主要需求和材料。人、材料和物理空間代表了關鍵要素。本研究的理論框架確定了五個關鍵的技術采用能力:早期和季度的 "篝火談話";有遠見的思想領袖;宏偉的戰略敘事;設計一個人工智能發展計劃;在計算機技術材料資源方面的領先;以及,為人工智能工程專家和海軍知識專家建立一個即時的和用戶友好的平臺。
本章涵蓋了調查結果的總結、人工智能的差距、倫理和人工智能、對美國海軍的建議,以及涉及海軍ISR的人機合作的自動化和人工智能工具的未來工作。
弗蘭克-巴納比提醒我們,"軍事技術正在使戰爭自動化。"目前的趨勢顯示,無疑是自動化處理、融合和產品交付,用于指揮和控制海上戰斗空間。我開始對自動化和人工智能應用于海軍ISR的調查,以更好地了解兩國海軍采用的機制和類別,不僅使每個海軍成為偉大的競爭對手,而且使其部隊成功的海軍人工智能力量有哪些特點和技術。
如果指揮官被信息或情報淹沒,海軍ISR技術采用的S型曲線的結論可能很重要,相反,可以刺激一種新的文化,采用自動化和人工智能的混合方式,將早期采用者與后期采用者折疊在一起。根據谷歌前首席執行官埃里克-施密特的說法,"美國防部有一個創新采用的問題",應該對軟件系統采用DevOps,或開發運營的文化,并專注于 "客戶采用 ",文化發展的中心是用戶或戰術操作員和在兩國海軍中服務的AI工程師。例如,中國人民解放軍有一種采用技術較晚的發展文化。后期采用者或落后者可以從早期創新者的成功和失敗中獲益,因為這類采用者專注于采用和 "復制 "成功的技術,并觀察到哪些技術的失敗不被采用。
圖20表明,這兩支海軍作為近似的競爭者,在采用自動化方面是成功的;然而,它們處于曲線的兩端。這意味著美國海軍代表著創新和早期采用,而解放軍海軍代表著海軍ISR任務中采用技術的后來者。
圖20. 美國海軍創新者和采用者與中國人民解放軍后期采用者在S型曲線上的對比
這兩個大國競爭者似乎都在采用技術的前向或后向思維方式中共存并完成波長,但政治制度會影響采用技術的速度,無論是創新者還是后來者。
自動化和人工智能技術的采用速度往往有利于專制社會。根據中國的人工智能戰略,中國的計劃是通過快速發展人工智能成為全球創新中心,加強中國在采用自動化進行海軍ISR方面的領先地位。"中國的人口超過14億公民,大約有29萬解放軍人員,這大約相當于解放軍230萬人員的12.6%。自2018年以來,中國發表了約42.64%的頂級人工智能論文,約52%的人工智能全球專利,在人工智能公司中排名第二,有超過1011家公司,而美國的人工智能公司有2028家。"在私營部門,中國利用百度、阿里巴巴和騰訊(統稱為BAT)來推動人工智能的發展。中國擁有開放社會中較多人口的優勢,可以協助清理數據,開發或復制算法,并利用開源數據和社交媒體收集和監視海上的海軍平臺。也許,開發人工智能的公司和中國之間的強大反饋回路對軍隊來說是天作之合。
此后,解放軍海軍能夠利用并聲稱擁有一種新的海事治理模式,并迅速接近其在人工智能方面的主導地位。中國已經開始在采用自動化方面超越美國海軍。在中國清華大學最近關于人工智能發展的工作中,中國國家人工智能政策演變的第五階段(2017年至今)顯示了下一代人工智能在軍事、工業和民用部門中的特點。自2013年以來,解放軍和中國建設和軍事化了其自造島(即,在第一個島鏈內,解放軍擁有 "主場 "優勢,可以監視和維護其在SCS有爭議島嶼周圍12海里的區域。解放軍繼續使用東雕級AGI船來了解美國的海軍事務。作為后來者,解放軍海軍將有可能 "復制 "美國海軍所展示的成功海軍ISR戰術和行動。
中國正在通過收集大量的數據,在人工智能方面領先于美國海軍的間諜船、偵察衛星和OTH雷達。摩爾定律,即每塊硅芯片的晶體管數量--計算處理能力每兩年翻一番,導致快速增長和生產力。中國正在利用收集從海上到太空資產的大量數據的優勢,生產高質量的數據。如果計算機處理能力每兩年翻一番,那么用長期收集的高質量數據進行過濾的難度就會降低,并且更容易在中央數據存儲(即云)中找到。
隨著中國繼續在當地和全球建立更多的網絡基礎設施,它顯示了它愿意為長期優勢承擔短期風險。另一個長期接受的因素,梅特卡夫定律,斷言完全連接的網絡的價值增長與兼容通信設備數量的平方成正比。例如,如果一個網絡有五個節點完全相互連接,每個節點的固有價值是x,它的力量是100倍(由于它有十個不同的鏈接),而單一鏈接的網絡的力量是5倍。雖然網絡的價值增加了兼容通信,但如果競爭對手破壞或黑掉其中一個節點,它也會增加網絡安全問題。解放軍的愿意承擔計算機網絡攻擊的風險,在人工智能方面占據主導地位,以實現長期戰略。
然而,美國在人工智能方面的領導地位已經超越了美國沿海地區,擁有比中國更多的海軍人員,并領導著建立網絡基礎設施所需的物質資源。雖然美國人口為3.294億,低于中國的總人口,但美國海軍有339,448人,比中國海軍人數多。美國海軍在采用人工智能技術方面具有先發優勢,不僅僅是因為它的人數比中國海軍多,而是因為美國在頂級人工智能公司方面處于領先地位。具體來說,美國的人工智能公司集中在企業軟件、半導體和量子計算方面。
然而,美國海軍與工業界或私營公司的聯姻可能會帶來重大問題,并與那些不或不堅持用人工智能支持軍隊的人工智能工程師產生摩擦。美國人才來自于硅谷、聯合人工智能中心、國防部的項目,如DARPA、DIU和NavalX。然而,谷歌、臉書和亞馬遜等頂級人工智能公司因隱私權問題受到批評,公眾對人工智能武器化的看法造成了無縫合作的問題。即使美國海軍和國防部在與硅谷合作,在60至90天內完成商業人工智能工具的原型制作并投入使用時,似乎在人工智能的某些方面處于領先地位,但這并不適用于所有海軍ISR平臺。美國海軍司令部可能能夠利用硅谷的人工智能工程師的商業人工智能工具,但傳統的美國海軍可能需要數年或數十年才能完全自動化并采用傳統的常規平臺的人工智能工具。
ISR技術使海軍平臺幾乎無法隱藏,大量的數據可以欺騙競爭對手。勞倫斯-利弗莫爾國家實驗室高級研究員、海軍研究生院教授扎卡里-戴維斯博士在他的文章《戰場上的人工智能》中認為,"人工智能可以通過增加突襲的感知風險來侵蝕穩定性",一方的人工智能支持的ISR平臺可以迷惑其他精致的ISR。 由于許多海軍ISR操作人員工作時間長,無法完全審核定位移動目標的相關性和準確性,也無法以速度和精度進行打擊,戴維斯稱今天的ISR操作人員很容易被大量的數據和過度收集的數據所害,而競爭者都很想操縱或欺騙其他競爭者。
這項研究顯示,沒有明顯的中央自動化或人工智能工具,具有連接人工智能工程師和知識專家或海軍用戶的即時通知技術,以更快地解決問題。自動彌合這一差距可以大大有助于獲得客戶和競爭對手的洞察力。根據蘭德公司關于評估數據分析的研究,一個特殊的挑戰與非結構化數據的收集和使用有關,而且不在固定的位置,如關系型數據庫.直接在一個中央數據庫內為人工智能工程師和海軍用戶自動化一個人工智能平臺,對于美國海軍解決和掌握至關重要。采用一個新的平臺來連接人工智能建設者和海軍用戶將有助于超越技術應用的拐點。
盡管收集的信息越來越多,這項研究顯示,描述性和診斷性的風格,特別是視覺分析和趨勢分析,被利用。人工智能提供了關于海軍ISR(即平臺和傳感器)所發生的信息,而診斷性人工智能則迅速指出了確切的問題或議題。正如第四章中提到的,美國海軍采用了一種OTH視覺分析工具,用于對來襲的海軍平臺進行預警。描述性和診斷性的人工智能都是在采用更復雜的預測性和規定性人工智能之前需要掌握的基本程序,其典型代表是神經網絡、模式識別、機器學習和深度學習。
預測性人工智能在美國海軍的數據分析武庫中是缺乏的。預測性人工智能為可能發生的事情提供數據--一個海軍平臺下一步可能去哪里,或者可能是為什么它下一步要去特定的地點。預測性人工智能技術的例子是機器學習、模式識別和統計建模;這種人工智能編程的方法使用歷史和統計數據來進行海軍活動的趨勢分析。預測性和規定性人工智能是對中國保持競爭態勢所必需的先進技術。
規定性人工智能也是缺乏的。規定性人工智能根據歷史數據提供數據,說明如果海軍ISR平臺在海上進行x、y或z的演習,會發生什么以及什么可以更好地發生,并提供建議。規定性人工智能的例子包括監督學習算法,如 "隨機森林",它根據以前收集的數據或模型創建并將決策樹合并成一個 "森林"。這可以幫助支持未來的熱圖和生成對抗網絡(GANs)技術,用于兵棋推演或與競爭對手進行 "紅隊"。簡而言之,無論海軍是早期采用還是在所有其他海軍采用特定的自動化或人工智能技術之后,完善基礎知識并在每一級指揮部發展創新和人工智能操作的文化仍然是成功領導人工智能的關鍵。
美國海軍缺乏的另一個人工智能平臺是能夠從海上生活的 "正常 "模式中區分出可能的異常或反常現象。為了開發和采用區分海上異常或反常現象的技術,目前可用的材料,如來自硅谷的半導體和軟件人才,應該持續和頻繁地訪問和測試。軟件或硬件不足的問題會導致更新的延遲,這最終可能會對識別和定位在海上行動的解放軍部隊構成問題。
人工智能和軍事技術的商業化可能是下一個改變游戲規則的威脅。商業行業出售和使用的無人機可能導致競爭對手使用蜂群戰術來對付關鍵的傳感器,如宙斯盾、SSDS或龍眼雷達。每一級的自動化和人工智能都會增加一層復雜性,以診斷、預測和規定解放軍的下一步行動。此外,如果解放軍與商業部門一起開發人工智能,就會減少美國海軍對具體軟件或硬件更新的控制。對特定的自動化或人工智能工具的控制減少,可能導致其他競爭者或對手購買、銷售和采用這些工具,并利用它們直接對付美國海軍。
這項研究提供了四個主要建議。另一個已經在快速采用新興技術的模范社區是特種作戰部隊(SOF),特別是特種作戰司令部另一個已經在快速采用新興技術的模范社區是特種作戰部隊(SOF),特別是特種作戰司令部(USSOCOM)。根據NPS教授Leo Blanken的說法,DIU、NavalX和USSOCOM等美國防部組織可以提供 "一種簡單且具有成本效益的方式來改善該領域的現有創新工作:將軍事研究生研究人員與已部署的特種作戰部隊結盟,以快速建立原型:概念和技術。"SOF社區為快速原型設計提供了一個有吸引力的測試平臺,并將戰術用戶與人工智能工程師即時聯系起來。
其次,美國海軍應該投資并采用 "DevOps "文化,以保持對解放軍的競爭優勢。在一個等級森嚴的組織中,培養和實踐DevOps將內在地從人工智能學校或部署前和部署后周期的教育時間開始。這只能由負責的高級官員進行灌輸和啟發。可以說,美國在創新和軟件技術及人才方面繼續領先,但可以通過將美國海軍司令部或總部設在商業和私營人工智能公司附近來進一步提高,以培養和采用下一個人工智能的突破。
第三,在為航母植入更多自動化和人工智能的同時,相應的理論應該考慮蜂群戰術和網絡空間。就像一窩蜜蜂可以蜂擁而上超越一頭熊一樣,自主的無人機可以輕易地蜂擁一個航母打擊群,特別是宙斯盾或SSDS及其相關的天線。如果不將蜂群技術與作戰和戰術ISR任務結合起來,其后果可能導致競爭對手以極小的代價摧毀宙斯盾或346型,并對海軍ISR造成巨大的損害。
第四,兩國海軍共享網絡空間。JP 3-12將信息主導權定義為 "一支部隊在網絡空間的主導程度,允許該部隊及其相關的陸地、空中、海上和太空部隊在特定的時間和地點安全、可靠地開展行動而不受對手的干擾。"網絡空間是自動化海軍平臺的致命弱點,因為海軍ISR平臺之間的自動化和通信依賴于共享信息空間和解讀頻率進行通信。
這篇論文發現了在海軍ISR采用自動化和人工智能時應該考慮的五點:
1.從第一天起就制定一個戰略敘事,并在每個指揮層討論人工智能戰略。戰略敘事是一種特殊的故事,一個組織可以清楚地理解和參與這個故事。這很重要,因為它能告訴其他海上競爭者你是誰,你曾經去過哪里,你要去哪里,以及你在哪里。每個指揮部都應該希望激勵其軍隊成員,讓盟友和合作伙伴興奮,并吸引用戶,如人工智能工程師和人類操作員。
2.控制了建立自動化和人工智能所需的技術材料的國家和海軍,如半導體、硅和鍺,將在未來海權的人工智能方面占據主導地位。市場是否準備好支持軍方在海軍ISR方面的解決方案?
3.采用自動化的成敗在很大程度上取決于對電磁頻譜的控制和頻率的解調能力,如果不是全部的話。
4.應該有一個自動化的人工智能反饋平臺,以便軍事用戶和人工智能工程師可以直接發短信和說話。一個獲勝的、更好的端到端產品需要很好的用戶體驗,以實現高效的工作流程和即時的報告。
5.早期采用者和后來者之間的重大洞察力表明,美國海軍和解放軍海軍在技術采用和競爭的波長上處于兩端。在羅杰斯在第三章關于技術采用的S型曲線的工作中,美國和中國海軍領導人都落在S型曲線的兩端,適合他們各自的組織和理論結構。
人類和機器聯手是在海軍ISR事務中采用自動化和AI的關鍵。本節涵蓋了未來的工作和采用自動化和人工智能過程中的長期考慮。這些因素是:為操作者提供自動化的健康指標;利用量子計算的研究;以及各種現實技術(虛擬、增強和混合)的增加。
海軍ISR和采用自動化或新興技術的重心取決于海軍平臺上健康的人類操作員來操作這些系統。如果一種流行病在一艘航空母艦上蔓延,如USS Theodore Roosevelt (CVN 71),那么所有支持航母行動的ISR都會停止,美國海軍未能采用AI進行監視--其后果可能會導致生死攸關的情況。AI可以提供重要的人類輔助工具,可以將明確的指標自動化。
指揮官會發現,為海軍操作人員的各種設計制定策略,并設計一個整合健康實踐和人工智能的戰略是非常有用的。一個自動化的紅綠燈圖表和每日追蹤器,帶有閃爍的通知符號,將有助于為指揮官和決策者指示診斷出的問題或觸發因素。與生物事件相關的社會破壞的自動化指標的一個簡單模型是威爾遜-科爾曼量表,即生物事件可能性增加的四個階段:有利條件、單焦點或多焦點生物事件、嚴重的基礎設施限制和當地反應能力的耗盡,然后是社會崩潰。第二個復雜的模型是約翰霍普金斯大學冠狀病毒互動地圖。另一個可以提取或利用模型的數據庫是康奈爾大學的arXiv數據庫,供世界頂級人工智能研究人員提交給斯坦福大學的知名資料庫(見附錄)。以互動的方式自動列出SWOT,可以使海軍ISR受益。這很重要,因為有一個明確定義的任務和問題清單有助于盡早診斷出問題,并迅速找到合適的人工智能研究人員。
對量子計算的進一步研究將有助于美國海軍對人工智能的成功采用。量子計算超越了二進制數字(比特值為0或1),這是計算機中最小的數據單位,并使用研究人員托馬斯-坎貝爾所說的 "量子比特,其中單個比特可以處于三種狀態之一:開、關,以及唯一的,同時開和關。"在2018年的美國國家量子倡議中,國會確定國家標準與技術研究所(NIST)和能源部的量子信息科學研究中心為量子計算的頂級領導部門。因此,美國海軍應不斷與NIST和能源部密切合作。在這種情況下,國會是資助和提出法案以啟動海軍內部采用新興技術的最高關鍵之一。雖然處于初級階段,但量子計算可以提高人工智能的速度,特別是在機器學習方面,以便迅速發現模式并過濾大量數據集;它將為未來的海權投下長長的陰影。
美國和中國都發布了 "原則",而不是專注于自動化和人工智能是否符合道德、道德上允許或不允許的爭議性問題。2019年6月,中國科技部發布了《新一代人工智能治理原則:發展負責任的人工智能》,其中列出了人工智能治理的八項原則:(1)和諧友好;(2)公平公正;(3)包容共享;(4)尊重隱私;(5)安全可控;(6)責任共擔;(7)開放合作;(8)敏捷治理。2020年2月,美國防部的國防創新部門花了15個月時間才宣布采用人工智能道德的五項原則。它們應該是負責任的、可靠的、公平的、可治理的、可追蹤的。發布像人工智能倫理指南這樣的原則表明,兩個國家都希望在人工智能的發展中具有靈活性,但也有責任。不管有沒有原則,關于使用人工智能的主要爭議很快就與人工智能的錯誤識別以及自動化和人工智能工具武器化的可能性有關。
首先,存在與人工智能和軍事有關的倫理問題,這些問題在電影中都有描寫,如《終結者》或《我,機器人》,這些電影最初是艾薩克-阿西莫夫的深思熟慮的短篇小說,并在現實生活中得到了證明。一些人認為,軍事技術或人工智能在軍隊中的使用不應繼續下去,因為計算機系統可能會自行行動,或根據流行的電影和社交媒體做出自己的致命決定。如果人工智能告訴人類操作員一架飛機有敵意,那么指揮官只有幾秒鐘的時間來決定是否根據現有信息作出反應。然而,自1988年以來,在ISR平臺上采用自動化和人工智能工程,增加了透明度,避免了像美國海軍文森號這樣的事件,這是人的錯誤而不是機器的錯誤。可以說,自動化有助于防御友軍或敵軍的火力,有助于國家安全。
第二,在人機合作中,人是道德主體,而機器不是,但可以被打造為提供道德的選擇。在亞里士多德的《尼各馬可倫理學》中,一個有德行的人并不持有公開的德行態度,而是在特定情況下以某種方式行事,并有一系列的理由。人類可以有意識地做出單獨的選擇;而今天的機器只是協助人類做決定。在美國海軍中,道德問題很可能取決于傳統主義或法律主義的觀點,也可能是以更多的探究性或可能是功利性的心態來修正一種觀點。
在中國人民解放軍中,未來關于道德和采用自動化的工作可以通過中國的道德決策來研究。在中國,倫理學與美德倫理學密切相關,涉及一個人應該如何生活,以及后果主義,涉及所有涉及物質產品的利益。
雖然今天的人工智能機器在一定程度上是自主的,但人工智能機器最終可能會根據特定的道德倫理規范,比人類更快地提出后果。兩個嚴重的倫理問題是:自主系統在未來能否或將被歸類為道德代理人?如果在生死攸關的情況下,對違反人類戰爭法的無道德的代理人--自主系統--缺乏問責,會發生什么?NPS教授Bradley Strawser提出的這些倫理問題值得考慮,但超出了本論文的范圍。
雖然Ishare對自動化和人工智能大大改善人類福祉的潛力抱有極大的熱情,但智力優于人類的機器的發展可能會導致人類操作者頭腦中的認知失調,并可能被用作一種威懾機制。愛因斯坦警告說,原子的力量會改變我們的思維模式。原子彈導致了廣島和長崎的核災難。然后,核電變成了 "核大決戰 "的想法,這是一個涉及使用核武器造成廣泛破壞并最終導致文明崩潰的理論情景。今天,前國務卿亨利-基辛格等人認為,人工智能威脅著我們的意識以及我們理解真理和現實的方式。"人工智能可以作為威懾工具的概念是一個重要問題,可以在未來的研究中進一步研究。
根據這項研究,海軍ISR平臺的自動化程度越高,人工智能工具的增加,海軍事務和海權將變得更加虛擬。最近的報告,如美國 "2020年美國國防訓練中的擴展現實應用",闡明了數字轉型對人類的日常影響,并已延伸到虛擬現實(VR)、增強現實(AR)和混合現實(MR)技術,這可能是下一個顛覆性技術。各種形式的VR的商業化可能會成為對海軍部隊的威脅。本研究沒有涉及現實技術,VR、AR或MR對于保持人類安全不受傷害或作為一種威懾工具是非常有用的。
由于愛因斯坦和基辛格分別就核戰爭的災難和人工智能對人類意識的威脅提出了警告,人工智能可能會走向一場 "認知戰爭"。認知戰爭將是在海上戰場上使用自動化和人工智能,幾乎由不在海上的人類控制。作為一種威懾工具,人工智能可以被用來用 "假的注入數據 "來威脅競爭對手在海上可能存在的海軍威脅,而實際上,沒有機器存在或曾經存在過。
在一場由自動化和人工智能驅動的革命中,人類正處于信息主導的邊緣。自古以來,海上的艦隊一直在尋求了解地平線外的情況,即敵人可能潛伏的地方。一個世紀前,安裝在駕駛飛機上的無線電和雷達的興起使海軍有能力將監視范圍擴大到地平線以外。具有諷刺意味的是,人工智能解決問題和管理信息的最終效果可能是人類推理、智能和決策的轉變。今天,自動化既在全球范圍內擴展其影響力,又在解釋大量的信息以解決問題,并比以往任何時候都更能創造出充分的透明度。真正的,自動化ISR正在改變人類的知識、認知、現實,并最終改變21世紀海權的面貌。
俄羅斯領導層將創新能力視為大國的標志之一,并認為軍事創新對俄羅斯在不斷變化的威脅環境中的整體防御態勢至關重要。俄羅斯人工智能(AI)和自主生態系統的目標最好在俄羅斯經濟發展和現代化努力的背景下理解,包括那些旨在改善俄羅斯公民福祉以及商業和創業活動條件的舉措。
以下報告詳細介紹了俄羅斯人工智能生態系統,以了解俄羅斯不斷發展的人工智能和自主性領域。在關注人工智能和自主性的同時,該報告還試圖將人工智能置于俄羅斯更大的技術環境中。
俄羅斯政府正在建立必要的結構性法律和管理框架,以便在快速增長的人工智能和自主性領域進行發展和競爭。它正試圖實施具有目標和指標的全國性戰略,以促進支持俄羅斯的數字--特別是人工智能--發展的環境。然而,這些努力的實施主要是由政府通過國有企業推動的。雖然人工智能倡議在整個俄羅斯政府中占有一席之地,但缺乏對私人倡議的重視可能會損害俄羅斯在未來的努力。雖然許多俄羅斯人期待著整個俄羅斯更大的數字化帶來的好處,但也有一些人批評政府為增加對私人數據的訪問而做出的努力。俄羅斯公民對不受控制的人工智能發展及其對社會的潛在影響感到厭倦。
俄羅斯的人工智能生態系統由政府、國有企業、軍事、學術和私人行為者之間相互聯系的活動集群組成。然而,俄羅斯人工智能生態系統的一個關鍵特征是它由國有公司領導,并為人工智能部門提供大量的聯邦資金。這些國有公司包括孵化器、資助者和旨在促進人工智能發展的倡議。對聯邦資金的嚴重依賴讓俄羅斯的一些人擔心,它破壞了主動性和技術風險的承擔和增長。雖然關于俄羅斯在人工智能領域的調查和國際排名(如文章調查和機構排名)表明,它落后于其他更大的參與者,但它正在作出一些改進。
俄羅斯的商業、工業和國防部門都面臨著缺乏技術熟練專家,這在人工智能領域尤其如此。造成這種情況的原因包括:受過技術培訓的專業人員流向國外的高薪工作,蘇聯解體和之后的影響揮之不去,以及俄羅斯廣大地區不同的人口結構。俄羅斯政府認識到了這些挑戰,并正在采取措施來減輕這些挑戰。這些步驟包括針對廣泛的人口統計學的許多項目,從鼓勵訓練有素的技術專家到教育更廣泛的民眾了解人工智能相關技術。盡管采取了這些措施,教育和培訓方面的弱點可能會在一段時間內挑戰俄羅斯的技術創新嘗試,這取決于本報告中詳述的新措施如何生效以及需要多長時間。
俄羅斯人工智能私人市場的技術發展和增長主要由國家支持的研發工作推動,盡管私人對人工智能解決方案的需求正在增加。總的來說,私人人工智能市場一直被專注于利用自然語言處理(NLP)和其他形式的自動數據分析的進步所支配,盡管對計算機視覺和其他類型的識別和預測能力的興趣正在增長。在用于金融和零售目的的廣泛的自動化NLP應用之外,獲得私人市場關注的最重要的人工智能技術是在面部識別軟件、設施和周邊安全、無人駕駛貨物運輸和農業企業、公共交通控制系統和鐵路網絡整合、訓練神經網絡和其他人工智能方法的自動化平臺,以及自動化醫療分析。
從高級政治和軍事聲明以及專業軍事著作來看,俄羅斯安全專家和政策制定者的共識是,人工智能的發展和使用對俄羅斯武裝部隊未來的成功至關重要,也是其軍事力量的關鍵。雖然軍事人工智能在俄羅斯遵循了許多與其他發達軍隊相同的趨勢,但俄羅斯軍事機構確實特別強調了其已經關注的領域,如用于決策和自主的信息管理。俄羅斯軍事戰略家重視建立他們所說的 "戰場上的信息優勢",而人工智能增強技術有望利用現代戰場上的數據優勢來保護俄羅斯自己的部隊,并拒絕對手的這種優勢。話雖如此,俄羅斯軍方也在不斷討論軍事人工智能的最終目標。有一種普遍的觀點認為,操作者需要留在決策周期中,以避免軍事和道德上的意外后果,但也有討論預測完全自主是未來沖突的一個不可避免的特征,部分是由對美國人工智能相關意圖的解釋所推動的。
盡管存在上述挑戰,俄羅斯正在尋求成為人工智能領域的主要思想領袖之一。俄羅斯領導人強調了人工智能對普通公民生活的承諾,從醫療創新到改善經濟表現。然而,俄羅斯領導人也強調了人工智能在錯誤的人手中或在錯誤的意圖下可能帶來的危險。也許比起其他任何人,俄羅斯領導人更關注保護傳統和社會內部穩定的需要,這反映了俄羅斯對外部干預俄羅斯事務的長期關注。俄羅斯正在全球范圍內尋求技術和人工智能發展方面的有益伙伴關系;例如,它已經通過華為和三星與中國和韓國達成了實質性協議。然而,中國和韓國更多是例外,而不是常規。與俄羅斯合作的地緣政治利益通常不會超過美國和歐盟等其他生態系統中的商業利益。盡管如此,我們預計它與其他成熟的技術社會之間不斷增長的關系將產生一些好處。
圖1. 描繪人工智能增強的戰斗機工程
本報告是CNA俄羅斯研究項目在過去一年中繪制和了解俄羅斯人工智能生態系統的工作成果。首先,該團隊開發并實施了一份雙周通訊,強調了俄羅斯技術、人工智能和自主性領域的持續發展。這些通訊還重點關注各種軍事人工智能相關的舉措和關鍵的人工智能組織。他們還在繪制俄羅斯的人工智能生態系統方面發揮了關鍵作用,并提供了需要更深入研究的領域的關鍵。通過這項研究,我們能夠了解公共、私營和軍事部門的各種組織之間的關系。
我們從廣泛的俄語來源收集數據,包括法律文件、官方聲明、行業產品信息、俄羅斯專業軍事期刊、會議記錄和個人出版物。每個來源的重要性在不同部門之間有所不同。例如,政府部分在很大程度上依賴現有的許多官方文件,而軍事部分則更多地依賴公開來源的俄羅斯新聞報道。這項研究必須在收集盡可能多的信息與承認許多談論和撰寫人工智能的消息來源并不一定了解屬于人工智能和自主權范疇的復雜而龐大的領域之間取得平衡。為此,CNA團隊與CNA的自主權和人工智能中心合作,更好地了解各種報告的一些技術意義。然而,請注意,我們報告的重點不是對俄羅斯人工智能發展的技術審查。
本報告的第一部分提供了一個概述,以幫助讀者了解俄羅斯和分析家們經常評估它的各種指標。報告的這一部分是獨特的,因為它沒有特別涉及人工智能或自主性,但我們認為它提供了必要的背景,將豐富對俄羅斯技術創新、人工智能和自主性的討論。具體來說,這一部分對于那些主要背景是人工智能和自主權而不是具體的俄羅斯的讀者來說,將是最有用的。
接下來的部分描述了俄羅斯政府為在俄羅斯創造有利于技術進步的氛圍所做的努力。它涵蓋了更廣泛的 "數字化 "努力,并將人工智能置于這一更廣泛的框架中。這一節是以下各節的背景和環境。第三部分重點介紹了俄羅斯的人工智能生態系統,其主要參與者和互動。之后,有四個部分考察了與俄羅斯教育、私營部門、軍事和國際合作有關的人工智能,以便為我們對俄羅斯人工智能生態系統的討論提供一些顆粒度。
記錄一個系統或集成系統內所有信息變化的出處,這提供了關于正在做出的決定和促使這些決定的重要信息。從取證的角度來看,這可以用來重新創建決策環境。然而,出處也可以為其他兩個重要功能服務。收集的數據可以支持組件的整合,而生成的圖形數據結構可以通過解釋、總結和告警來支持操作員進行態勢感知。混合戰爭將必然匯集不同決策支持能力,因為決策者必須在多個戰爭領域運作。自主代理將可能在計劃和執行過程中發揮作用,有時能夠在沒有人類干預的情況下做出決定,但人類決策者必須意識到這一點。事實證明,證據圖可以轉化為修辭結構圖(RSG),使代理能夠用自然語言甚至多模態交流,向人類解釋他們的行動。證據還被證明可以加強對計劃執行監控,并可用于向人類或自主代理提供通知,當計劃中使用的信息發生變化時,可能需要重新考慮計劃。隨著我們朝著智能機器在復雜環境中支持人類決策者團隊的方向發展,跟蹤決策及其輸入的需要變得至關重要。
出處是關于實體、活動、代理以及這些概念之間關系的信息[1]。這些信息不僅僅解釋了發生了什么,它還回答了關于實體如何被操縱、何時發生以及誰參與了這個過程的問題。我們很可能熟悉關于追蹤藝術作品出處的新聞和虛構的故事。任何實體的創造、破壞或修改的出處都可以被追蹤。在本文中,我們將重點討論軍事系統內的信息。在指揮與控制(C2)內,信息出處對于記錄行動背后的決策過程是必要的,特別是當自主和人工智能(AI)代理深入參與時。參與某一過程的 "誰 "可能是人類或人工智能代理。
信息出處有幾個目的。在取證方面,出處追蹤提供了參與決策的人和代理,以及數據是如何演化為該決策的。美國公共政策委員會指出,數據出處是算法透明度和問責制的一個明確原則[2]。完整記錄的出處可以闡明數據的依賴性、責任流,并幫助解釋為什么采取某些行動。隨著人工智能和自主代理繼續自動化進程,它們在做出關鍵決策時已變得更加不可或缺[3]。