人們已經認識到,能力越來越強的機器人和自主系統(RAS)的出現有可能成為一股顛覆性的浪潮,給各國軍隊帶來巨大的挑戰和機遇。現在,每個主要軍事力量都公開宣布有意開發、利用或禁止機器人與自主系統。甚至世界各國領導人,如俄羅斯總統弗拉基米爾-普京,也就其對未來戰爭的潛在影響發表了聲明。然而,盡管有這些說法,卻沒有任何記錄表明大規模部署了可以明確宣布為機器人和功能自主的武器系統。
這里的定義很重要。在本分析中,RAS 的定義側重于機器人和功能自主的系統,而不包括遙控操作平臺和非實體人工智能系統。自主 “是指系統 ”利用計算機程序與環境的交互作用,在沒有人類輸入的情況下執行一項或多項任務 "的能力。因此,“自主系統 ”可以理解為 “一旦啟動,無論是硬件還是軟件,都能自行執行某些任務或功能 ”的系統。然而,“自主 ”是一個相對的而非二元的特征,是由顯示的功能衍生出來的。因此,很難明確區分一個系統是否真正 “完全 ”自主。因此,在文獻和軍事戰略文件中,通常會沿著一個譜系提及自主性的類別。例如,澳大利亞陸軍的 RAS 戰略自主頻譜包含四個自主級別:遙控操作(通常與自主系統混為一談)、自動(人類仍處于環路中進行監控并可能進行干預)、自主(人類對系統進行監督或分配任務,因此仍處于決策環路中)和自主(人類啟動決策環路,但系統可以獨立行動)。考慮到這些特征以及本文試圖回答的核心問題,本文使用 “機器人與自主系統 ”一詞來指那些既是機器人又是功能自主的系統,即那些在澳大利亞國防軍(ADF)RAS自主光譜中被歸類為 “自主 ”的系統。
這并不是說相關技術沒有擴散;軍隊、執法機構和非國家武裝團體顯然都以某種方式部署了強大的人工智能工具、遠程操作系統,甚至是基于任務的自主系統。例如,美國空軍在過去 20 年里以相當大的規模和復雜程度購置和部署了遙控操作平臺,2021 年占其機體總數的 8.5%。這些行動者采用的系統能夠以自主模式運行,并由人類在環路中進行監督(如超級宙斯盾 II),也采用了自主對付威脅的防御系統,但理論上(由于交戰速度)可能會被人類推翻(如愛國者、宙斯盾和 CIWS)。更有爭議的是徘徊彈藥(如 Harpy、Harop 和 Shahed-136),它們能夠根據與預先建立的數據庫匹配的特征,獨立選擇和攻擊目標。這類系統(也包括某些巡航導彈,如 “硫磺石”)被媒體稱為致命的自主武器系統,而法律界和學術界的辯論仍在繼續。
然而,像美國這樣強大而富裕的國家,仍然受到某些因素的阻礙,無法加快將完全自主的機器人系統從概念和原型轉化為可部署和可擴展的能力。即使在俄烏戰爭--二戰以來歐洲最大的陸地戰役--中,此類系統的部署也僅限于遙控平臺。這包括部署 “彈簧刀 ”和 “沙赫德-136 ”等閑散彈藥。但使用這類平臺并非新鮮事,充其量只是對二十多年前使用的作戰概念的延伸。例如,2001 年,美國利用遙控飛機進行直接打擊,而 ISIS 早在 2015 年就展示了將此類系統用作 “窮人的空軍”。因此,在當前烏克蘭沖突的背景下,人們不禁要問,俄羅斯軍方為何選擇從倉庫中調用早已退役的坦克型號來繼續戰斗,而不是使用其大肆宣傳的 “烏蘭 ”系列非乘員地面武裝車輛?為什么 T-14 “阿瑪塔 ”坦克的非乘員版還沒有超越原型階段?更廣泛地說,為什么烏克蘭沖突的規模還沒有達到使用完全自主武器系統的 “示范點”?
要回答這個問題,就不能僅僅局限于 “投入太少”、“技術尚未成熟 ”或 “軍方尚未認識到自主系統的潛在價值 ”等說法。關于前者,考慮到美國在 2018 年對人工智能相關研究的投資超過了印尼當年的全部國防預算。在商業人工智能工具不斷擴散的情況下,技術壁壘不可逾越的說法也顯得蒼白無力。在美國的 “第三次抵消戰略 ”中,自主系統占有重要地位。
因此,無法采用創新技術并不是因為缺乏規模、范圍和資源能力,而是因為低估了要采用創新技術的系統屏障的復雜性。由于 “前沿 ”實驗需要接受許多項目無法成熟或無法投入使用的風險,有時是出于技術或操作方面的原因,因此這種情況變得更加棘手。民事和軍事文獻都對實現這種復雜的平衡進行了廣泛的研究,這對澳大利亞國防軍來說仍然是一個挑戰。
澳國防部宣布成立先進戰略能力加速器(ASCA)并發布《國防戰略審查》(DSR),表明高級文職和軍事決策者認識到了這一挑戰。可信賴的自主權是 ASCA 最初的六個優先領域之一,這一事實表明了應對這一挑戰的核心地位。同樣,《國防戰略審查》中有一章專門論述澳大利亞國防軍需要通過技術創造不對稱優勢,這表明這是國防思考和未來規劃的核心挑戰。AUKUS 第二支柱 "在人工智能和自主系統方面的突出表現表明,這兩種能力對未來的澳大利亞國防軍仍具有重要意義。
隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。
然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。
高層也有同感:聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與 ”制定 “關于通過多邊進程設計、開發和使用人工智能軍事應用的規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。
通過跨地區、跨學科和多方利益相關者的投入,在軍事領域建立一個共享的、堅實的人工智能知識庫。
建立對技術和他人的信任
解讀人工智能系統在軍事領域的開發、測試、部署和使用中的人的因素
了解和解讀軍事領域負責任人工智能的數據實踐
了解人工智能系統的生命周期影響(包括生命周期的終結),在軍事領域推廣負責任的人工智能
了解與人工智能有關的破壞穩定問題的驅動因素、手段、方法和應對措施,包括人工智能系統促成、誘發和倍增的破壞穩定問題
隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。
然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。
聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與”,“通過多邊進程,圍繞人工智能軍事應用的設計、開發和使用制定規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。
人工智能(AI)有可能在社會、經濟和政策的各個方面帶來變革,包括國防和安全。英國希望成為在民用和商業應用領域推廣人工智能以及負責任地發展國防人工智能的領頭羊。這就要求對與人工智能軍事應用相關的新出現的風險和機遇,以及英國如何與其他國家開展最佳合作以減輕或利用這些風險和機遇,有一個清晰而細致的認識。
2024 年 3 月,英國國防部(MOD)國防人工智能與自主單元(DAU)和外交、聯邦與發展辦公室(FCDO)聯合委托蘭德歐洲公司(RAND Europe)開展一項簡短的范圍界定研究。該研究的目的是初步探討人工智能在軍事上的應用可能在戰略層面產生風險和機遇的方式,因為迄今為止的大部分研究都集中在戰術層面或非軍事主題(如人工智能安全)上。后續工作將更詳細地探討這些問題,為英國在這些問題上的國際參與戰略提供信息。
本技術報告旨在為理解人工智能軍事應用所帶來的戰略風險和機遇設定一個基線。一份獨立的總結報告則側重于為決策者提供高層次的研究結果。
人工智能最好被理解為一套雙重用途的通用技術,以硬件為基礎,但以軟件為核心。與傳統軍事技術不同的是,它們高度民主化,擴散速度極快。創新是由商業用途的私營部門驅動的,而不是由政府或國防部門驅動的。對軍事應用和影響的集體認識正在提高,但起點較低。辯論往往優先考慮某些引人注目的問題,如致命自主武器系統(LAWS)或人工智能(AGI),而忽略了其他議題。它只關注戰術,而忽視戰略;只關注風險,而忽視機遇;或只關注軍事人工智能的直接后果,而忽視從長遠來看可能影響最大的二階和三階效應。
為了解決這個問題,國防部和國防和外交、聯邦與發展辦公室(FCDO)委托進行這項研究,以制定一個概念框架,規劃軍事人工智能帶來的戰略風險和機遇。
圖 0.1 框架:人工智能軍事應用的戰略風險與機遇
本報告詳細探討了許多風險和機遇,其中最緊迫的包括
信息操縱,如人工智能深度偽造,這不僅會引發政治、經濟和社會問題,還會在危機時刻影響軍事決策。
賦予非國家行為者挑戰國家軍隊主導地位的不對稱能力,或者在最壞的情況下,賦予他們新的大規模毀滅性工具(如生物武器)。
人工智能對對手之間攻防平衡、戰爭升級動態以及核威懾穩定性的相互影響。這些問題在超級大國競爭加劇的情況下,在世界已經在應對其他不安全因素(如烏克蘭、以色列-伊朗\移民、氣候變化等)的情況下,尤其令人擔憂。
與未來出現的任何人工智能相關的潛在災難性安全和安保風險。
在英國國內,還需要應對對國內政治和經濟產生破壞性影響的重大問題。這些問題決定了國防的目的和手段。在國外,人工智能同樣會對以規則為基礎的國際秩序的健康產生深遠影響,這取決于各國、工業界和民間社會是否以及如何有效地共同管理其影響。人工智能專家非常擔心,人工智能會在多大程度上使世界許多地方的平衡傾向于壓制性和獨裁的治理模式,同時有可能顛覆民主政治、污染信息環境和破壞社會的戰斗意志。
其中許多潛在風險也可能成為戰略優勢的機遇。人工智能的利弊平衡取決于各國如何快速有效地調整武裝部隊等機構,以利用人工智能的優勢。同樣,這也取決于各國政府如何在國際上施加影響,使全球軍事人工智能行為朝著符合本國利益和價值觀的方向發展。這就意味著各國政府要愿意進行重大投資、組織改革和文化變革,以改變國防部門對新技術的態度。
為了應對這些挑戰,各國必須緊急制定一項全面的行動計劃,考慮到人工智能技術進步、圍繞人工智能或通過人工智能進行的地緣政治競爭以及國際體系中圍繞人工智能不斷演變的規范之間復雜的相互作用。這應利用一套影響不同受眾的機制工具包,運用外交、信息、軍事和經濟(DIME)杠桿,匯集一套積極主動的行動方案:
這也應借鑒其他領域的經驗教訓--如本報告所述--以及最近關于人工智能的高級別倡議的勢頭。突出的例子包括布萊切利峰會、軍事領域負責任的人工智能(REAIM)峰會和《軍事人工智能政治宣言》。
表0.2塑造全球國防人工智能發展的機制工具包
工具包類別 | 優先行動手冊 |
---|---|
促進英國國防采用人工智能并從中獲益的機制 | 加快整個國防領域對人工智能的投資和采用,同時提高抵御惡意或意外濫用人工智能的能力 |
限制采用人工智能的機制和對手的利益 | 采取競選方式,限制、減緩或增加對手(國家或非國家)部署軍事人工智能的成本 |
形成新的軍事人工智能管理安排的機制 | 在提高對軍事人工智能風險的認識、發現問題和分享學習成果方面發揮領導作用;與主要盟國(如美國)和競爭對手制定透明度和建立信任措施,以降低升級風險;促進采用包容性和參與性方法,就人工智能軍事領域負責任的行為規范達成新的全球共識,為今后達成更強有力的具有約束力的協議做好準備;促進減少核和生物相關的人工智能緊急風險的小型多邊機制的平行發展;研究如何將人工智能納入核查和合規機制,反之亦然;隨著時間的推移,將當前零散的人工智能治理倡議整合為一個更加具體的架構 |
人工智能(AI)領域發展迅速。新的人工智能技術不斷被開發出來,有時甚至是突破性的。這些技術越來越多地融入日常生活的方方面面,對商業、經濟和科學發展與創新至關重要。國防部門也在尋求利用人工智能,并將這些新技術引入安全領域,這并不奇怪。正如 Murugesan 所解釋的那樣(2022 年,第 4 頁),除其他外,人工智能可用于 “重復性任務,從而將安保人員解放出來,從事需要人類智慧的項目”。此外,為了證明人工智能的好處,“北約成員國已經開始投資這項技術,并將其納入國防戰略”(Carlo, 2021, 第 269 頁)。
盡管人工智能好處多多,但預計它將給 “交戰雙方的戰略、作戰藝術、戰術和條令帶來巨大變化”(Ploumis, 2022, 第 1 頁)。因此,需要仔細考慮和研究這些變化,以防止它們可能帶來的風險。例如,人工智能技術 “對網絡戰有重大影響,但也可能產生不利影響,并在未來顯著增加網絡攻擊的數量和威脅程度”(Kline et al.)
因此,人工智能系統有望影響 “戰爭的進行,帶來新的能力,并改變力量平衡”(辛格-吉爾,2019 年,第 169 頁)。根據這些假設,本文旨在研究人工智能如何影響沖突的性質。特別是,考慮到技術兼容性和倫理因素,本文試圖更好地理解在軍事聯合行動中將人工智能技術引入安全部門所帶來的益處和風險。人工智能系統在國防領域的發展如何影響軍事合作?將人工智能納入國防部門有哪些好處和風險?
在討論了人工智能的定義問題之后,本文將討論將人工智能技術納入國防領域的諸多影響。人工智能軍事應用的利弊是什么?人工智能會帶來哪些安全后果?為了回答這些重要問題,本文分為四個主要部分。
第一部分討論網絡戰問題。它側重于人工智能對網絡安全的影響。在定義了網絡戰的概念并解釋了該主題的相關性之后,將根據其主要目標分析人工智能的兩種主要應用:進攻型人工智能和防御型人工智能。前者旨在改進網絡攻擊,后者旨在增強網絡空間中特定行為者的防御能力。
第二部分側重于人工智能在物理空間的應用。人工智能可以通過監視、偵察和改進組織的形式,為戰場上的軍事行動帶來巨大的戰術效益。人工智能還可應用于無人系統和車輛,也稱為無人機和機器人。然而,這并非沒有風險,因為人工智能系統并非無懈可擊,可能成為網絡攻擊的目標,給軍事行動帶來嚴重后果。
第三部分分析了人工智能的地緣政治影響。這項技術為國家行為體提供了重大戰略優勢。這些優勢吸引他們增加對人工智能的投資,并將其納入國防能力。這有可能引發新一輪軍備競賽,將人工智能技術武器化。將人工智能系統納入國防領域也給軍事合作帶來了挑戰,特別是在技術兼容性方面。最后,最后一節將討論將人工智能納入安全部門的主要倫理考慮因素。
法國、俄羅斯、英國、美國、中國等核武器國家日益認識到將人工智能(AI)融入核武器指揮、控制和通信(NC3)系統的意義。盡管風險和隱患已得到廣泛承認,但在瞬息萬變的核領域獲得戰略優勢的誘惑,加上擔心落后于競爭對手的人工智能創新,可能會推動這些國家競相將人工智能技術整合到可靠性尚待驗證的 NC3 系統中。
人工智能并不是一個新名詞,核武器國家已經將屬于這一范疇的技術整合到 NC3 系統中。但是,與當前基于規則的模型相比,當今最先進的基于深度學習的人工智能模型的可能集成帶來了一系列明顯不同的、更大的挑戰。人們對功能強大的大型模型在影響核武器決策等關鍵功能方面的可靠性和適用性存在重大擔憂。
歐洲領導力網絡(ELN)開展的題為"研究人工智能對戰略穩定的影響:歐洲和五核國的觀點"。在美國國務院軍控、核查與合規局的支持下,該項目確定了核武器國家如何在其 NC3 系統中使用和尋求使用人工智能技術,并探討了這種整合的反響。
報告探討了當今先進人工智能系統的固有風險,揭示了該技術不同分支的特點和風險。報告為通用風險評估框架奠定了基礎,以分析考慮整合的模型,并為暫停將高風險人工智能系統整合到 NC3 奠定了規范和門檻基礎。
在一系列秘密對話中,來自核武器國家的專家比較了他們對在 NC3 系統中使用人工智能的風險和益處的評估,以期建立防止危機情況下核升級的防范措施。
該項目的核心發現包括
核武器國家將人工智能納入 NC3 系統的方式各不相同,反映了特定的核條令、軍事文化、軍民關系和道德考量。不過,它們都看到了人工智能在提高態勢感知、早期威脅探測和決策支持方面的價值。
所有核武器國家都強調人類監督核決策的重要性。它們都同意讓 “人在回路中 ”的概念,但不清楚它們的解釋在多大程度上有重疊。
整合尖端人工智能模型,如大型語言模型,由于其不透明性和不穩定性,對戰略和危機的穩定性構成了特殊風險。
核武器國家應同意迅速暫停整合高風險的人工智能模型。可在本報告介紹的風險分析系統基礎上對暫停措施進行詳細說明,以提供一個評分系統,對高風險人工智能系統進行分類。
對于不具有同樣高風險的人工智能模型,第一軌道層面的雙邊倡議應圍繞保留人類對核系統的控制展開。與此同時,第二軌道對話應深入探討技術問題,如確保人類監督的實用方法。
人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。
通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。
政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。
政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:
理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。
議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。
保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。
實現以下目標對這一進程至關重要:
政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。
幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。
其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。
然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。
政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。
政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。
政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。
人們普遍認為,將機器學習融入軍事決策對于美國在 21 世紀保持軍事主導地位至關重要。機器學習的進步有可能通過提高整個國家安全企業級決策的速度、精確度和效率,極大地改變戰爭的特點。美國國防部的領導者們認識到了這一點,并正在做出大量努力,以在戰爭的戰術、作戰、戰略和機構層面有效整合機器學習工具。
本報告將探討機器學習的一種應用,其重點是在競爭和沖突的作戰層面實現軍事決策。展示了機器學習如何與人類合作,作為決策系統的一部分,用于提高軍事行動和活動的有效性。展示了這種方法如何通過分析原本無法獲取的數據源,為指揮官提供有關作戰環境的新見解。將重點放在從大量基于文本的數據(如報紙報道和情況報告)中獲得的洞察力上,這些數據無處不在,但卻很少以任何系統的方式整合到決策中。
在本報告中介紹的方法以人機協作系統的概念為基礎,并證明了現有的機器學習能力需要人在各個階段的參與,才能證明對操作層面的決策有用。因此,機器學習能力的發展與雷達自二戰以來的演變密切相關,而雷達是人機協作用于軍事目的的最早范例之一。如今,與不列顛之戰期間使用的預警系統同樣依賴雷達機器和人類觀察員一樣,機器學習仍然需要人類的參與,以指導這種新傳感器使用正確的數據,正確解釋其輸出結果,并評估其結果對作戰決策的影響。
通過一個基于真實世界數據和真實世界危機的示例研究,將讀者("您")置身于一名軍事指揮官的視角,就 2022 年俄羅斯全面入侵烏克蘭之前,美國如何支持烏克蘭兵力應對俄羅斯支持的烏克蘭東部叛亂,展示了這一系統方法的實際應用。在撰寫本案例研究時,把讀者您當成了這位指揮官,因為目標是強調您在未來與機器學習工具的合作中可能扮演的關鍵角色--無論是作為分析師、決策者,甚至是在現實世界的類似背景下應用這些工具的軍事指揮官。
值得注意的是,本案例研究是基于 2014-2020 年間的數據于 2020 年 12 月完成的,僅分析了這一時期與俄羅斯支持的烏克蘭東部叛亂有關的實地情況。本研究尚未更新,以反映自 2022 年 2 月俄羅斯入侵烏克蘭以來所獲得的任何見解。然而,從入侵前的視角來看,機器學習在后來發生的現實世界事件中用于作戰決策的優勢和局限性也就不言而喻了。
在整個案例研究中,將看到為本報告目的而進行的基于機器學習的實際評估結果,該評估分析了來自烏克蘭的 18,000 篇歷史新聞報道,內容涉及從 2014 年沖突起源到 2020 年末的沖突。利用機器學習工具從這些數據中提取相關見解,并與分析結果進行互動,就向烏克蘭兵力提供何種類型的支持以及在俄羅斯入侵前實現美國在該地區的目標做出名義上的決策。在此過程中,人機協作學習的優勢將逐漸顯現,將親眼目睹機器學習工具如何快速、系統地利用以前無法獲取的數據,為復雜問題提供新的見解。但這種方法的局限性也會顯現出來,將親眼目睹機器學習的好壞取決于支持它的可用數據,以及訓練機器學習工具和解釋其結果的人類分析師。
人機協作方法適用于軍事決策者在陸軍和美國防部作戰和機構層面面臨的各種問題集。因此,本研究以具體證據清晰地展示了在軍事決策中使用機器學習所涉及的權衡問題,為機器學習在軍事領域的廣泛應用做出了貢獻。本研究為美國陸軍提出了幾項重要發現和建議。
首先,分析展示了機器學習在軍事決策方面的巨大潛力,但只有在與對特定問題背后的背景有詳細了解的人類分析師配對時才能實現。在此提出的機器學習方法不會取代人類分析師。相反,它能使人類分析師更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。在案例研究中,通過使用機器學習獲得的大多數關鍵見解都需要人類分析師的額外干預。在某些情況下,這需要在模型結果的基礎上有選擇性地疊加額外的數據源。在其他情況下,則需要人工分析師手動審查機器學習工具認為相關和有趣的基礎數據。因此,美國陸軍現有的機器學習能力需要人類在各個階段的參與,才能充分發揮其潛力。
其次,分析表明,通過大幅提高執行重復性任務的效率,人機協作方法可以大規模分析人類分析師無法單獨完成的海量數據集,從而產生以前無法實現的有關作戰環境的新見解。案例研究表明,從分析人員處理大量數據的重復性分析任務所花費的時間來看,機器學習能顯著提高效率,使分析人員更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。這表明,對于需要大量人工審核相關數據的問題,陸軍領導應優先考慮將機器學習作為一種解決方案。
最后,這項研究揭示了機器學習的系統方法能夠對作戰級總部已有的大量數據進行標準化、客觀和長期的分析,從而增強其支持有效決策的潛力。在許多情況下,這些數據是戰爭中作戰和機構層面決策的最佳信息來源,但如果沒有機器學習,這些數據就只能以臨時和主觀的方式進行分析。
首先,這項研究表明,陸軍應為各級指揮人員提供頻繁接觸機器學習的機會,讓他們熟悉人類如何利用這些能力作為軍事決策系統的一部分。
其次,本研究強調,陸軍應建立多樣化的機器學習團隊,以充分釋放這一能力的潛力。這些團隊應整合熟悉機器學習工具細節的作戰研究系統分析員、對特定作戰環境有第一手知識的操作員、了解可用數據以分析特定問題的分析員,以及能將機器分析轉化為對作戰決策有實際影響的指揮官。
美國戰略家認為,人工智能(AI)有可能實現更好、更快的決策,這在未來的軍事沖突中是決定性的。機器學習應用將越來越多地影響政治和軍事領導人對戰略環境的看法,權衡風險和選擇,并判斷他們的對手。但是,將關鍵的人類決策過程暴露在人工智能系統的中會有什么風險?
要獲得人工智能在決策方面的優勢,首先需要了解其局限性和陷阱。人工智能系統根據數據模式進行預測。總是有一些意外行為或失敗的機會。現有的工具和技術試圖使人工智能對失敗更加穩健,往往會導致性能上的權衡,解決了一個問題,但可能會使另一個問題惡化。人們對人工智能的脆弱性和缺陷的認識不斷提高,但也需要在現實的部署背景下對技術故障的潛在后果進行更深入的分析。
本簡報研究了直接或間接影響決策的人工智能系統故障如何與戰略壓力和人為因素相互作用,從而引發危機或沖突的升級:
這些情景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,特別是當涉及到他們對戰場的認識,了解對手的意圖和能力,或了解他們自己抵御攻擊的能力。但通過依賴人工智能,他們在人工智能系統技術故障的可能性和后果方面引入了一個新的不確定性來源。
有效利用人工智能需要以一種有謹慎的和有風險的方式來平衡優勢與局限。沒有辦法保證概率性人工智能系統會完全按照預期行為,也沒有辦法保證它能給出正確的答案。然而,軍隊可以設計人工智能系統和依賴它們的決策過程,以減少人工智能失敗的可能性并控制其后果,包括通過:
美國應繼續帶頭制定負責任地開發和使用人工智能的全球標準,采取步驟展示某些可靠性,并盡可能地鼓勵其他國家采取類似的預防措施:
自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。
人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。
土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:
第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。
《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。
焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。
土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。
土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。
土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。
土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。
土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。
土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。
培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。
技術正在從根本上改變國防的性質。從人工智能(AI)和機器學習的革命性進展到量子計算、機器人和天基電信的快速創新,軍事防御規劃正在不斷發展。利用科學技術來推進整個國防部(DND)和加拿大武裝部隊(CAF)的指揮和控制(C2)系統,對于維護北美的防務至關重要。
正如“強大、安全、參與”中所強調的那樣,北美的防御仍然是加拿大和美國的一個關鍵優先事項。加拿大的國防政策(國防部2017年)和美國的國防戰略(美國國防部[DoD]2018年)以及美國國家安全委員會的人工智能(2021年)都強調了這一點。盡管目前的系統和北美防御方法多年來一直保持著加拿大和美國的安全,但在新的和正在出現的威脅面前,這些系統和方法已經越來越過時。
正如最近為國防部準備的一份報告所解釋的那樣,技術變革正在加強作戰指揮官確定需求或機會與向作戰人員提供解決方案之間的時間壓縮(Modigliani等人,2020)。在數字時代,軍隊現在面臨的挑戰是,即使想法和初始作戰能力之間的時間尺度開始縮小,也要更快地行動,做出更好的決定。
今天的安全威脅繼續模糊了陸地、海洋、空中、網絡、空間和信息領域之間的傳統區別--即使技術侵蝕了地理上曾經提供的優勢。人工智能和自主系統在戰場態勢感知和精確制導武器系統中的應用代表了軍事技術發展的一個范式轉變。
盡管技術革新一直在塑造戰爭的性質,但當代技術變革的規模和速度是前所未有的。自主的無人機、增強的人機協作和以衛星為媒介的電信正日益成為現代軍事系統的基礎。多極秩序的崛起和日益增長的數字增強型武器市場(2019年公私分析交流計劃)一起,開始從戰略上重新配置國家安全的性質。
在西方占主導地位的時代之外,亞洲正在回歸到現代性時代之前長期繁榮的商業和文化交流模式(Romei and Reed 2019)。隨著全球經濟的變化越來越有利于亞洲市場,美國和中國之間日益激烈的競爭與世界地緣政治重心的轉移相重疊。如果說十九世紀屬于歐洲,二十世紀屬于美國,那么二十一世紀現在屬于亞洲,特別是中國。
事實上,在烏克蘭發生的事件標志著大國競爭歷史上的一個轉折點。俄羅斯對烏克蘭的入侵凸顯了一個不斷變化的地緣政治格局,一個多中心的體系開始形成。俄羅斯的地區野心和中國的經濟崛起正在顛覆歐亞大陸的戰略架構,重新配置全球秩序。
我們可能看到的是一個新的地緣政治格局。中國"一帶一路 "倡議有可能將地緣政治戰略家Halford Mackinder在1904年描述的 "世界島"(AfroEurasia或非洲、歐洲和亞洲)統一起來(見圖1)。正如麥金德所觀察到的,在過去500年里,每一個全球霸主的崛起都是因為對歐亞大陸的主導地位(McCoy 2021)。
面臨著一個新的歷史時刻,因為大國競爭和加速的技術變革共同重塑了全球秩序。全球貿易的地緣政治摩擦和北大西洋公約組織(NATO)與俄羅斯之間曠日持久的沖突共同表明了一個新的、不同的風險環境。商業算法和現成軟件的應用確保了建立在自主系統和人工智能基礎上的技術提高了曠日持久的網絡戰爭的可能性,即使網絡犯罪分子和國家支持的行為者利用數據和通信網絡來攻擊非傳統目標。
DND/CAF認識到,一個以創新變化和地緣政治格局變化為標志的新技術時代正在形成。2017年6月,DND/CAF發布了其國防政策《強大、安全、參與》,認為加拿大的大部分戰術優勢是由于 "敏捷的信息管理和技術工具"。 以推進一系列信息技術為戰略重點,包括數據分析、深度學習和自主系統,"強大、安全、參與 "概述了一些優先事項,并確定了支持加拿大國防戰略愿景的關鍵支柱。
與 "強大、安全、參與"相一致,加拿大國防研究與發展部(DRDC)和國際治理創新中心(CIGI)共同組織了一個全國性的系列研討會,在加拿大國家安全的背景下研究人工智能促進國防和安全。這一舉措特別符合整個加拿大政府對數據的日益重視,正如提交給樞密院書記的報告中所述。聯邦公共服務的數據戰略路線圖》(加拿大政府2018年)。
該系列研討會邀請了各種演講者,以促進對管理下一代軍事行動所需的資源和專業知識的更好理解,涉及三大主題:
→ 人工智能和半自主系統。
→ 人工智能和網絡安全,以及
→ 實現泛域C2。
該研討會旨在從戰略上吸引加拿大的創新生態系統,為專家們提供了一個討論人工智能給加拿大國防帶來的挑戰的空間。由DRDC伙伴關系戰略局發起,該研討會項目由CIGI在2021年秋季和2022年冬季期間管理。與會者包括來自加拿大國防部/加拿大空軍的主要利益相關者、加拿大政府和支持人工智能研究的主要機構。
該研討會側重于了解為軍事行動開發和實施可信賴、可解釋的人工智能所涉及的要求,審查了一系列問題,包括數據質量評估、數據格式、數據共享、偏見緩解、人機合作和自主系統的倫理。這份特別報告建立在該系列研討會的基礎上,為推進加拿大的軍事規劃提供了具體建議。它旨在提供一個分析框架,以了解人工智能在未來十年內對國防的影響。