人工智能(AI)技術,尤其是機器學習技術,正在通過增強人類決策能力迅速改變戰術行動。本文探討了人工智能驅動的人類自主組隊(HAT)這一變革方法,重點關注它如何增強人類在復雜環境中的決策能力。雖然信任和可解釋性仍是重大挑戰,但我們的探討重點是人工智能驅動的 HAT 在改變戰術行動方面的潛力。通過改善態勢感知和支持更明智的決策,人工智能驅動的 HAT 可以提高此類行動的有效性和安全性。為此,本文了提出了一個綜合框架,該框架涉及人工智能驅動的 HAT 的關鍵組成部分,包括信任和透明度、人類與人工智能之間的最佳功能分配、態勢感知和道德考量。所提出的框架可作為該領域未來研究與開發的基礎。通過識別和討論該框架中的關鍵研究挑戰和知識差距,我們的工作旨在指導人工智能驅動的 HAT 的發展,以優化戰術行動。我們強調開發可擴展且符合道德規范的人工智能驅動的 HAT 系統的重要性,該系統可確保無縫的人機協作、優先考慮道德因素、通過可解釋的人工智能(XAI)技術提高模型的透明度,并有效管理人類操作員的認知負荷。
人工智能和自主技術的融合給包括國防和戰術行動在內的各行各業帶來了革命性的變化。HAT 的興起可歸因于幾個因素,包括自主技術和人工智能的快速進步、任務和環境的日益復雜、能力更強的自主系統的發展,以及數據和計算能力的不斷提高。隨著這些技術變得越來越復雜和強大,人們越來越認識到,將人類的認知能力與自主系統的計算能力和效率相結合,可以實現潛在的合作。現代 HAT 系統的興起也是由于需要應對快速發展和動態環境的復雜性和挑戰。隨著任務變得越來越復雜、對時間越來越敏感、數據越來越密集,人類與智能體之間的協作對于有效駕馭和應對這些挑戰變得至關重要。
HAT 是一個新興領域,探索人類與自主系統之間的協作伙伴關系,以執行任務或實現共同目標。這涉及一種協作安排,其中至少有一名人類工作者與一個或多個智能體協作。這種協作方式有可能徹底改變各行各業完成任務的方式,并為人類與智能自主系統攜手解決復雜問題和實現共同目標的未來鋪平道路。HAT 系統旨在允許人類將任務委托給智能自主體,同時保持對整體任務的控制。這里所說的智能體是指在決策、適應和通信方面具有不同程度自治能力的計算機實體。這一定義得到了先前研究成果的支持。在 HAT 中,人類的認知能力與自主系統的計算能力和效率相結合,可以提高性能、決策和系統的整體能力。
在此,將定義和澄清一些關鍵概念,這些概念對于理解本研究的范圍和背景至關重要。這些概念包括人工智能、自主、自主系統和戰術自主。通過提供明確的定義并區分這些術語,我們希望讀者能夠達成共識。
自主性。HAT背景下的自主性是指智能自主系統或智能體在團隊環境中獨立運行和決策的能力,具有不同程度的自我管理能力。這涉及到自主系統在學習、適應和推理基礎上更高程度的決策能力。它是系統的一種屬性,而非技術本身。自主實體可以感知、推理、規劃和行動,以實現特定的目標或目的,而無需人類的不斷干預。值得注意的是,自主的程度可能各不相同,有的系統可以完全自主地做出所有決定,有的系統則是半自主的,在某些情況下需要人的干預。在戰術自主方面,HAT 涉及將自主能力整合到戰術行動中。這種整合可包括各種應用,如利用自主系統收集情報、執行監視和其他關鍵活動。自主性使系統能夠在復雜和不確定的環境中運行,從經驗中學習,并在任何情況下都無需明確的人工干預即可做出決策。然而,必須將其與傳統自動化區分開來,傳統自動化通常遵循預先編程的規則、決策樹或基于邏輯的算法來執行任務或做出決策。傳統自動化的適應性和靈活性有限,無法在沒有明確編程的情況下處理動態或不可預見的情況。本文討論了人工智能驅動的自主性如何通過強調學習、適應和決策能力來區別于傳統自動化。這些能力最終會提高戰術行動中人類-自動駕駛團隊合作的整體有效性和敏捷性。
自主系統。自主系統可以在沒有人類持續控制的情況下執行任務或操作。它們利用人工智能算法和傳感器感知和導航環境,實現高度自主。
戰術自主。在本研究中,戰術自主是指自主系統在動態和復雜的作戰環境中做出實時決策和采取行動的能力。這涉及人類與自主系統之間的無縫協調和互動,使它們能夠作為一個優勢互補的統一團隊發揮作用。HAT 的重點是通過人類操作員與智能自主系統之間的無縫協調與協作,實現共同的任務目標。本文介紹了一種人工智能驅動的 HAT,它將人工智能集成到 HAT 框架中。這種方法結合了人類專業技能和人工智能能力的優勢,從而提高了決策、態勢感知和作戰效率。戰術自主性將人類的認知能力(如適應能力、直覺和創造力)與自主系統的計算能力、精確性和動態執行能力相結合,有可能給包括國防、應急響應、執法和危險環境在內的各個領域帶來革命性的變化。必須區分戰術自主和戰略自主,以明確人工智能驅動的人類-自主團隊如何在軍事和作戰環境中促進這兩個層次的自主。戰略自主是指一個國家或組織就廣泛的安全目標做出自主選擇的能力,而戰術自主與戰略自主相反,側重于單個單位或團隊在特定任務中的獨立行動。戰略自主涉及更高層次的決策和規劃,要考慮長期目標、總體任務目標和更廣泛的態勢感知。它涉及指導整體任務或戰役的協調、資源分配和戰略決策過程。
戰術行動。戰術行動涉及在特定區域或環境中的協調活動,通常是在軍事、執法或戰略背景下,重點是通過快速決策、適應動態形勢以及在局部區域和時間范圍內應用軍事技能和資源來實現短期目標。
近年來,人工智能、機器學習(ML)、機器人和傳感器技術的進步為實現戰術自主的潛力鋪平了道路。這些技術進步使自主系統能夠執行復雜任務,實時處理大量數據,做出明智決策,并與人類團隊成員無縫協作。這為增強人類能力、優化資源配置和提高整體作戰效率提供了新的可能性。然而,有效的戰術自主需要全面了解人類與自主系統之間的動態關系。包括信任、溝通、共享態勢感知和決策在內的人為因素在確保 HAT 取得成功方面發揮著至關重要的作用。必須認真應對各種挑戰,如建立適當的信任度、解決潛在的認知偏差、管理工作量分配和保持有效的溝通渠道,以確保無縫協作,最大限度地發揮戰術自主的潛在優勢。戰術自主的 HAT 是一種使用人類和自主系統來操作和控制武器及其他軍事系統的協作方法。在 HAT 中,人類操作員和自主系統共同努力實現共同目標。人類操作員負責總體任務并做出高層決策。自主系統負責執行指定任務。
正如第四節詳細解釋的那樣,人類操作員根據自己的經驗和對任務目標的理解,貢獻戰略洞察力、背景和高層決策能力。交互和通信代表著界面和通信渠道,各組成部分可通過這些渠道交換信息、開展協作并做出共同決策。在共享決策過程的背景下,人類操作員和自主系統參與協作決策過程,共享見解、數據和建議,以制定有效的戰略。自主系統負責實時數據處理、分析和特定任務的執行,為人類操作員提供及時、相關的信息支持。隨后,一旦做出決策,自主系統就會根據共同決策過程的指令執行具體任務,包括偵察、導航或數據收集。
本文全面探討了 HAT 的歷史發展和現狀,并深入探討了利用人工智能實現戰術自主的機遇、挑戰和潛在的未來方向。它強調了人工智能對戰術自主性的變革性影響,并提出了改進決策、態勢感知和資源優化的機遇。通過認識和應對與采用人工智能相關的挑戰,并規劃未來的研究方向,可以為人類與自主系統無縫協作的未來鋪平道路,最終實現戰術環境中更安全、更高效、更成功的任務。
圖1:HAT的應用。
隨著無人機與社會越來越緊密地聯系在一起,更多未經培訓的用戶需要具備操作無人機的能力。要實現這一目標,就必須開發人工智能能力,協助人類操作員控制無人機系統和處理傳感器數據,從而減少對操作員進行大量培訓的需要。本文介紹了 HADRON 項目,該項目旨在開發和測試多種新型技術,以實現對無人機群的人性化控制。該項目分為三個主要部分。第一部分是整合各種技術,實現對無人機的直觀控制,重點關注新手或缺乏經驗的飛行員和操作員。第二部分的重點是開發一個多無人機系統,該系統將由一個指揮和控制站控制,其中一名專家飛行員可以監督多架無人機的操作。項目的第三部分將側重于減少人類操作員的認知負荷,無論他們是新手還是專家飛行員。為此,將開發人工智能工具,協助無人機操作員進行半自動實時數據處理。
HADRON 項目考慮了三個級別的自主性。第一級側重于新手用戶,即使是相當簡單的操作也需要高度輔助,例如通過使用直觀的無人機控制技術。下一個層次涉及專業飛行員,旨在使他們能夠從中央站控制多架無人機系統。最后一個層次旨在通過引入人工智能工具來自動處理實時數據,從而大幅降低操作員的認知負荷。本文介紹了 HADRON 項目的定義,該項目將開發和測試不同的新型技術,以明確哪些技術對未來的無人機駕駛有用。本文介紹了系統架構,并討論了所使用的不同技術的選擇。
圖 1. 描繪了一名下馬士兵使用語音命令操作無人機的情景。無人機探測到目標后會通過語音通知操作員,以便操作員當場做出決定。
鑒于確定的能力差距,確定了三個主題:第一個主題將為未經培訓的用戶開發人性化的無人機控制;第二個主題將為專家用戶開發無人機的多智能體控制;最后,第三個主題將通過開發半自動數據解讀算法來輔助前兩個主題。
物聯網的迅猛發展有可能對人類的多個領域產生影響,作戰領域就是其中之一。本文強調了物聯網在現代戰場場景中的應用前景,分析了物聯網在增強態勢感知、提供信息優勢和通過綜合分析補充決策支持系統方面的作用。在肯定技術優勢的同時,本文還探討了物聯網在軍事應用中的安全和倫理問題。
長期以來,國防領域一直是眾多新興技術的源泉。獲得戰場優勢一直是探索和嘗試激進想法的驅動因素。第一次海灣戰爭后,時任美國海軍作戰司令的威廉-歐文斯上將在美國國家安全研究所發表的一篇研究文章中提出了 “系統簇”這一概念,從而使這種想法開始成形。他闡述了數據和網絡改變作戰的方式。這一觀點轉化為 “網絡中心戰”概念,它是三個領域的融合,即物理領域(進行演習并從傳感器獲取數據)、信息領域(傳輸和存檔數據)和認知領域(處理和分析數據)。在這一概念提出二十多年后的今天,世界各地的軍事領導人和國防專家都對這一概念的實施持樂觀態度,這主要是由于物聯網技術的成熟。烏克蘭地面部隊廣泛使用標槍反坦克導彈和 “彈簧刀 ”隱形導彈來挑戰強大的俄羅斯裝甲部隊,這就是物聯網技術在戰區成功應用的例證。
物聯網技術不應被視為 “另一種獨特的利基技術”,相反,它涵蓋了許多此類技術。因此,將物聯網技術理解為一種理念更為恰當和合理。它是多種智能化、網絡化和動態構建的設備和技術融合的結果,可以在物理和虛擬空間產生效果。IoBT 的目標是管理復雜、智能的系統之系統,普遍安裝智能傳感器和執行器,以自適應學習過程為動力,實現軍隊的戰略和戰術目標。IoBT 網格通過各種有線或無線傳感器節點實現功能,所有這些節點都是網狀的。由地面預警和無人機傳感器、自主武器、智能士兵和最先進的指揮所組成的網絡可協調行動。它可以發揮收集情報和實施動能打擊的雙重作用。它可以將士兵從執行環節中剝離出來,讓他們處于最高級別的監督地位,從而使武器能夠高度自主地分配和攻擊目標。它還能加快行動節奏,消除戰爭迷霧。
圖 1:國防戰術邊緣物聯網的目標場景
物聯網在軍事領域的應用潛力巨大,其在戰術戰斗領域的應用似乎更勝一籌,有望帶來豐厚的紅利。在以網絡為中心的作戰場景中,物聯網可無縫、有效地整合戰場指揮官所掌握的所有可用資源,幫助其做出明智決策。下面簡要介紹一些可能的應用領域。
C4ISR。部署在各種平臺上的物聯網傳感器集成網絡可在有爭議和脅迫的環境中提供更好的態勢感知。地面和空中傳感器、監視衛星以及實地士兵的組合必然會收集到各種數據。這些信息可在一個平臺上進行過濾、處理、核對、確證和保存,該平臺可調節指揮鏈上下的關鍵數據傳輸,從而實現更好的戰場協調、指揮和控制。
武器控制系統。目前正在探索利用傳感器網絡、機器學習和先進的人工智能分析技術實現自主武器系統和火力控制的可能性。這種傳感器射手網格可以提供精確的目標火力投送,并對攻擊做出完全自動化的實時響應。
作戰物流。利用智能傳感器、RFID 標簽和 M2M 通信,可以輕松實現有效的車隊管理和高效的貨物跟蹤。邊緣物聯網設備可增強對軍械、關鍵物資、口糧和服裝的實時跟蹤和供應。在監控消費模式的同時,還可以根據固有的優先級和必要性來推動物資供應模式的實施,從而大大提高行動效率。
人員管理。可穿戴物聯網傳感器可嵌入戰斗人員的個人裝備,如小武器、頭盔、服裝、背包等,實現無處不在的身體活動跟蹤和作戰數據收集。利用情境感知數據實時推斷和跟蹤士兵在行動中的健康參數和心理狀態,可提供重要的洞察力,有助于采取預防性措施以保護部隊。
訓練。物聯網還可用于加強訓練和戰爭游戲體驗。IoBT 概念可融入軍事訓練,為未來行動提供更加真實、適應性更強和更有效的準備。可穿戴傳感器可用于跟蹤正在接受訓練的士兵的生理和認知狀態,從而提供量身定制的反饋和個人優化。
管理。管理戰區的電力需求仍然是一個被低估的領域,但隨著戰場上電子設備的引入越來越多,電力和能源管理將給未來行動的規劃和執行帶來嚴峻挑戰。采用預測算法和實時物聯網數據可以大大節省軍方的能源消耗,并有助于了解使用模式。
智能監控。先進的視聽和地震傳感器以及視覺人工智能和模式識別技術可促進智能監視和監測網的建立,該網不僅可覆蓋地面,還可覆蓋海洋環境。物聯網解決方案使感知和預測生態條件成為可能,從而隨時掌握大范圍內的海上作業情況。
協作與人群感應。戰術資源的流動性和機動性給現代戰場帶來了一系列獨特的通信挑戰。協作傳感是指在移動設備之間傳播傳感器數據的過程,通常使用可靠的短程通信。物聯網節點可利用閑置傳感器來滿足自身的傳感需求。通過將傳感器與任務分配相匹配,可為任何臨時 ISR 任務提供便利。因此,作戰指揮官可支配的可用傳感和通信資源可得到最佳利用。
人工智能能否解決戰爭中的倫理、道德和政治困境?人工智能(AI)驅動的戰爭如何改變我們思考戰爭倫理-政治困境和實踐的方式?本文探討了現代數字化戰爭中人機互動的倫理、道德和政治困境的關鍵因素。有觀點認為,人工智能的 “理性 ”效率可以同時為人類在戰斗中的心理和生理缺陷提供可行的解決方案,同時保留人類對戰爭機器的 “有意義的 ”控制,本文對這一觀點提出了反駁。這種龐洛士式的假設忽視了人機互動的心理特征、未來人工智能沖突的速度以及現代戰爭復雜而混亂的本質。文章闡述了人機互動的關鍵心理學見解,以闡明人工智能如何塑造我們思考未來戰爭的政治和倫理困境的能力。文章認為,通過人機融合的心理過程,人工智能將不僅僅是現有先進武器的武力倍增,而將成為戰爭中事實上的戰略行動者--“人工智能指揮官問題”。
文章分為三個部分。第一部分通過對人類與技術以及人機互動的更廣泛對接進行背景分析,為論點提供框架。文章探討了人類為何以及如何與機器和新出現的復雜社會技術系統糾纏在一起、軍事技術倫理的根源以及無風險、無摩擦戰爭的概念。報告將人工智能技術描述為這一社會技術趨勢的新表現形式。它認為,在戰爭決策中外包人類良知--幻想解決戰爭的倫理、道德和政治困境--有可能侵蝕人類與戰爭之間的重要聯系。本節還討論了質疑 “用機器取代人類一定是個壞主意 ”這一觀點的各種反駁意見(“人工智能樂觀主義者”)。例如,人類會犯錯誤,經常做出非理性的行為,而且容易產生暴力、不道德和非人化等原始本能(Haslam,2006 年;Brough,2007 年)。
第二部分探討了人機互動的心理特征。具體地說,本節分析了人類的幾種偏差--控制幻覺、啟發式捷徑(Einstellung效應、存在偏差)和自動化偏差--這些偏差會使指揮官容易濫用或過度使用軍事力量以達到不公正的目的。報告還討論了這些偏差在更廣泛的政治驅動力中的潛在影響,這種政治驅動力就是通過技術神器來實現戰爭的可預測性和集中控制。
最后,第三部分探討了利用人工智能等技術完善無風險、無摩擦戰爭的手段對軍事倫理和戰爭中的道德責任的潛在影響。它將圍繞人工智能技術將人類倫理編碼到機器中的爭論背景化。它還探討了人類情感的作用,人類情感賦予我們理性和深思熟慮的感覺,影響我們的決策,并塑造我們對倫理和道德困境--沒有明顯理想結果的情況--的反應。人類的倫理道德能否被編程到算法中?如果可以,那么如果道德責任外包給人工智能,人類又該如何保留自己的倫理和價值觀?
人工智能(AI)在增強國防系統能力、革新戰略決策和塑造未來軍事行動格局方面發揮著重要作用。神經符號人工智能是一種新興的方法,它利用并增強了神經網絡和符號推理的優勢。與傳統的人工智能系統相比,這些系統可能更具影響力和靈活性,因此非常適合軍事應用。本文全面探討了神經符號人工智能的不同層面和能力,旨在闡明其在軍事領域的潛在應用。我們研究了它在改進決策、自動進行復雜情報分析和加強自主系統方面的能力。除了在軍事領域的應用外,我們還進一步探討了它在解決各領域復雜任務方面的潛力。通過這種探索,我們解決了對神經符號人工智能在軍事和民用領域的開發和部署至關重要的倫理、戰略和技術問題。本研究是對神經符號人工智能廣泛可能性的全面探索,為日益增多的研究做出了貢獻。
神經符號人工智能將推動未來的人工智能戰場,徹底改變戰爭。在軍事決策過程中利用人工智能可以提高戰場效率,改善關鍵作戰決策的質量。神經網絡與符號推理的結合有可能顯著提高威脅探測的準確性,并實現更快、更精確的戰術決策,從而徹底改變軍事行動。本文分析透徹,為關注人工智能在戰爭中的未來的研究人員、從業人員和軍事決策者提供了寶貴的見解。通過對現有研究的批判性審視,確定了關鍵挑戰,并概述了未來有希望的發展方向。這旨在進一步增強神經符號人工智能在優化后勤、增強態勢感知和動態決策等領域的負責任部署。此外,神經符號人工智能在軍事應用方面取得的進步也為其在醫療保健、金融和交通等民用領域的廣泛應用帶來了巨大潛力。這種方法提高了不確定性條件下的適應性、可解釋性和推理能力,徹底改變了傳統方法,推動了軍事和民用效能的發展。
貢獻。本文對神經符號人工智能領域做出了以下重要貢獻。
圖 6:神經符號人工智能的一些主要軍事應用。
先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。
技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。
圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。
結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。
為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。
權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。
這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。
新興技術和顛覆性技術及其在安全和國防領域的應用已成為歐洲聯盟(歐盟)倡議的核心。人工智能(AI)系統也不例外。作為大國競爭和日益武器化的焦點,人工智能技術因其軍民兩用的特點,以及在網絡物理領域的日益部署,在改變軍民關系方面既帶來了風險,也帶來了機遇。本文探討了歐盟最近所做的工作,確定了共同的計劃和項目,并考慮了歐洲技術主權的論述、最近的戰略舉措以及所涉及的主要利益相關者。由于歐盟缺乏明確闡述對這一新興技術領域及其負責任的軍事研究、開發和實戰的立場的戰略愿景,這些工作有可能成為缺失的總體知識拼圖中的零散片段。本文還對將人工智能驅動的技術解決方案納入歐盟安全與防務的主流提出了警示,指出這將使特定的地緣政治和軍國主義創新想象合法化,而這種想象可能與歐盟倡導的對此類系統負責任、可信賴和以人為本的愿景不符。
人工智能(AI)系統等新興和顛覆性技術(EDT)正在開創一個高科技全球競爭和地緣政治對抗的新時代。人工智能,尤其是機器學習(ML)的進步,已經以各種方式影響著戰爭。尖端的人工智能系統作為美國和中國等主要大國的 "終極助推器",預示著巨大的戰略優勢,但也有可能對武裝沖突的全球監管和基于規范的制度造成不可預見的破壞。作為一種無所不能的使能技術,人工智能是一個總括性術語,經常被認為會徹底改變戰爭的本體,并引發戰略、作戰和戰術軍事實踐的范式轉變。不可否認,人工智能已成為國家戰略和軍事條令的基石。出于軍事目的開發人工智能加劇了人們對新一輪 "軍備競賽 "的擔憂,并擔心對抗性的零和思維將主導全球政治。尤其是人工智能在安全和國防領域的應用,正引發有關該技術武器化和廣泛軍事化的激烈辯論,以及對在戰場上使用和部署人工智能技術的倫理和監管問題的擔憂。
需要對 "軍事人工智能 "這一概念進行更多批判性的探討,特別是因為它已被狹隘地與軍國主義對技術顛覆未來的設想混為一談,從而助長了相關的研發(R&D)努力和部署致命自主武器系統(LAWS)的競賽。最近,這一概念與使用人工智能無人機群(或稱 "軍事蜂群")進行軍事行動聯系在一起。雖然為更多地將致命武力交給此類技術鋪平道路的努力值得認真反思,但從國防工業供應鏈到研發、軍事決策、作戰、訓練、后勤和部隊保護等方面的軍民動態,智能軍事的快速發展已準備好改變戰爭的幾乎所有方面。最近的分析主要集中在美國和中國的力量動態上,而較少關注歐洲聯盟(歐盟)的努力或其對軍事人工智能的看法。
在此背景下,人工智能系統的地緣政治因素在歐盟層面吸引了更多關注,它被視為經濟、政治和軍事國家策略的有力工具。在最近關于加強歐洲 "戰略自主權 "和 "技術主權 "的討論中,以及在現任主席烏蘇拉-馮德萊恩自詡為 "地緣政治 "歐盟委員會的領導下,這一地緣政治因素也得到了體現。鑒于將軍事人工智能等關鍵技術納入歐洲安全與防務實踐的主流所面臨的挑戰,這并不奇怪,主要是因為歐盟內部及其成員國在外交、安全與防務等高政治領域的權限各不相同。事實上,安全和防務事務,包括與技術和工業領域相關的事務,以及各自的戰略研發舉措,傳統上一直是成員國的專屬權限。這些事務由歐盟內部的政府間決策機構負責,而不是受歐盟的超國家領導。然而,近年來,歐盟委員會通過基于市場和工業的倡議,擴大了其在這些領域的權限,以塑造和加強歐洲防務技術和工業基地(EDTIB)的競爭力和創新能力。歐盟委員會還越來越多地將民用科學、技術和創新計劃與歐盟主導的安全和國防研發政策領域的興起聯系起來,這些領域受益于關鍵軍民兩用技術的創新。在此背景下,本文通過探討歐盟主導的融資計劃(如歐洲防務基金(EDF)及其前身計劃)下的項目,以及歐洲防務局(EDA)主導的項目,重點介紹歐盟近期的人工智能安全與防務技術計劃。
首先,第二節探討了歐盟人工智能安全與防務倡議的研發趨勢。然后,第三節討論了歐盟國防研究試點項目下的無人蜂群系統計劃。第四節描繪了防務研究預備行動(PADR)下與人工智能相關的防務研究項目,第五節重點介紹了歐洲防務工業發展計劃(EDIDP)中由人工智能支持的幾個防務工業項目。第六節評估了歐洲國防工業發展計劃在改變人工智能國防技術游戲規則方面的作用。最后,第七節探討了歐洲防務局率先提出的幾項人工智能防務倡議和應用,最后在第八節和第九節提出了本文的建議和總體結論**。
隨著技術解決主義的現實政治愿景在布魯塞爾和歐盟成員國首都獲得越來越多的戰略牽引力,重要的是要注意到,這同樣使特定的地緣政治和軍國主義想象合法化,而這種想象可能并不總是與歐盟作為規范和民事大國的身份相一致。社會技術想象是群體的成就和集體持有的愿景,在這種想象中,某些愿景和愿望占據了主導地位,并隨著時間的推移,隨著主要利益相關者調動資源使其愿景更加持久和理想而獲得集體力量。這種軍國主義愿景的形成有助于將歐洲塑造成一個在戰略上獨立的全球大國和技術上擁有主權的想象空間。但與此同時,也應關注歐盟如何為基于規則的國際秩序和軍事人工智能軍備控制制度做出貢獻,從而緩解軍事人工智能和自主系統在戰爭中的使用及其在戰場上的廣泛部署日益正常化的趨勢。
為實現這一目標,歐盟資助的計劃和歐洲防務局的倡議都應采取相關措施,制定最佳做法,應對軍事人工智能帶來的潛在風險、挑戰和不希望出現的結果,從建立人類對人工智能技術的監督標準,到考慮某些系統的不可預測性和安全性,以及認識到沖突升級和違反國際法及道德原則的可能性增加。懷疑論者反對過分夸大人工智能系統的破壞性影響,認為這預示著一場新的 "軍事革命"。不過,應該指出的是,人工智能帶來了一系列新的挑戰和風險,因為這關系到人的作用。本文旨在通過識別具有人工智能驅動的安全與國防技術元素的共同項目,批判性地參與歐盟主導的努力。重點是歐盟層面的超國家和政府間防務合作。
本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。
2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。
這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。
之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。
2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。
人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。
雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。
在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。
要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。
在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。
人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。
為了真實地再現軍事行動,嚴肅的戰斗模擬要求建模實體具有合理的戰術行為。因此,必須定義作戰戰術、條令、交戰規則和行動概念。事實證明,強化學習可以在相關實體的行為邊界內生成廣泛的戰術行動。在多智能體地面作戰場景中,本文展示了人工智能(AI)應用如何制定戰略并向附屬單元提供命令,同時相應地執行任務。我們提出了一種將人類知識和責任與人工智能系統相結合的方法。為了在共同層面上進行交流,人工智能以自然語言下達命令和行動。這樣,人類操作員就可以扮演 "人在回路中 "的角色,對人工智能的推理進行驗證和評估。本文展示了自然語言與強化學習過程的成功整合。
為了獲得模型架構的靈感,我們研究了 DeepMind 的 AlphaStar 架構,因為它被認為是復雜 RL 問題領域的最先進架構。通過我們的架構(如圖 2 所示),我們提出了一種靈活、可擴展的行動空間與深度神經網絡相結合的適應性新方法。觀察空間的設計基于如何準備戰場的軍事經驗。通常使用地圖和可用部隊表。因此,模擬觀測被分為標量數據(如可用坦克數量及其彈藥)。同時,基于地圖的輸入作為視覺輸入提供給空間編碼器。
標量數據用于向人工智能提供幾乎所有場景細節的建議。其中包括有關自身部隊及其平臺的數據,以及有關敵方部隊的部分信息。輸入并非以絕對數字給出,而是采用歸一化方法來提高訓練效果。編碼器可以很容易地寫成多層感知器(MLP);不過,使用多頭注意力網絡可以大大提高訓練后智能體的質量,因此應予以采用(Vaswani 等人,2017 年)。
為了理解地理地形、距離和海拔高度的含義,人工智能會被輸入一個帶有實體編碼的地圖視覺表示。顏色方案基于三通道圖像,這使我們能夠輕松地將數據可視化。雖然使用更多通道會給人類的圖形顯示帶來問題,但人工智能能夠理解更多通道。不同的字段類型和實體會用特殊的顏色進行編碼,以便始終能夠區分。這種所謂的空間編碼器由多個卷積層組成。最初,我們嘗試使用 ResNet-50 (He 和 Zhang,2016 年)和 MobileNetV3 (Howard 等,2019 年)等著名架構,甚至使用預先訓練的權重。然而,這并沒有帶來可接受的訓練性能。因此,我們用自己的架構縮小了卷積神經網絡(CNN)的規模。
為了測試和優化這一架構,我們使用了一個自動編碼器設置,并使用了模擬中的真實樣本。我們能夠將參數數量從大約 200 萬減少到大約 47000。此外,我們還生成了一個預訓練模型,該模型已與模擬的真實觀測數據相匹配。這一步極大地幫助我們加快了 RL 進程。
一個可選元素是添加語言輸入,為人工智能定義任務。雖然一般的戰略人工智能不使用這一元素,但計劃將其用于下屬智能體。這些智能體將以自然語言接收來自戰略人工智能的任務,并使用雙向門控遞歸單元(GRU)編碼器對其進行處理。
視覺數據、任務數據和標量數據的編碼值被合并并輸入核心網絡。根據 Hochreiter 和 Schmidhuber(1997 年)的介紹,核心主要是一個擁有 768 個單元的長短期記憶(LSTM)組件。在軍事場景中,指揮官必須了解高價值資產的長期戰略規劃。在本模擬中,人工智能可以請求戰斗支援要素,這些要素在影響戰場之前需要長達 15 分鐘的時間。因此,人工智能必須了解未來任務的時間安排和規劃。在 RL 中使用 LSTM 網絡相當困難,因為它需要大量的訓練時間,而且會導致上面各層的梯度消失。因此,我們決定在 LSTM 上添加一個跳過連接,以盡量減少新增層的負面影響。
動作頭由一個自然語言處理(NLP)模型組成。這是一個非常簡化的動作頭模型,包含一個小型 LSTM 和一個額外的密集層,共有約 340000 個參數。其結果是一個尺寸為 8 x 125 的多離散動作空間。
除主模型外,還有一個單獨的價值網絡部分。價值網絡使用核心 LSTM 的輸出,并將對手信息串聯起來傳遞給 MLP。然后,MLP 可以精確預測價值函數。通過對手信息,價值網絡對模擬有了一個上帝般的地面實況視圖。由于該網絡只與訓練相關,因此可以在不干擾訓練完整性的情況下進行。
有效決策是組織成功的核心。在數字化轉型時代,企業越來越多地采用數據驅動的方法來獲得競爭優勢。根據現有文獻,人工智能(AI)代表了這一領域的重大進步,它能夠分析大量數據、識別模式、做出準確預測,并為組織提供決策支持。本研究旨在探討人工智能技術對組織決策不同層面的影響。通過將這些決策按照其屬性分為戰略決策和運營決策,本研究可以更全面地了解人工智能在組織決策中實施的可行性、當前采用率以及阻礙因素。
在過去的75年里,蘭德公司進行了支持美國國家安全的研究,目前為聯邦政府管理著四個聯邦資助的研究和發展中心(FFRDCs):一個為國土安全部(DHS),三個為國防部(DoD)。本文將重點評論國防部如何能夠最好地確保人工智能(AI)的進展有利于美國國家安全,而不是降低它。
在一系列廣泛的技術中,人工智能因其進展速度和應用范圍而脫穎而出。人工智能具有廣泛改變整個行業的潛力,包括對我們未來經濟競爭力和國家安全至關重要的行業。由于幾個原因,將人工智能納入我們的國家安全計劃帶來了特殊的挑戰:
這些技術是由商業實體驅動的,而這些商業實體經常在國家安全框架之外。
這些技術正在迅速發展,通常超過了政府內部的政策和組織改革。
對這些技術的評估需要集中在私營部門的專業知識,而這些專業知識很少被用于國家安全。
這些技術缺乏區分良性和惡意使用的常規情報特征。
美國目前是全球人工智能的領導者;然而,這種情況可能會改變,因為中國尋求在2030年前成為世界主要的人工智能創新中心--這是中國人工智能國家戰略的明確目標。此外,中國和俄羅斯都在追求軍事化的人工智能技術,加劇了挑戰。作為回應,將強調美國防部可以采取的四組行動:
1.確保美國防部的網絡安全戰略和網絡紅方活動跟蹤可能影響網絡防御和網絡進攻的人工智能的發展,如網絡武器的自動開發。
2.為防止不良行為者獲得先進的人工智能系統,(1)確保對領先的人工智能芯片和芯片制造設備進行強有力的出口控制,同時許可芯片的良性使用,如果需要的話,可以進行遠程節流;(2)利用國防生產法的授權,要求公司報告大型人工智能計算集群、訓練運行和訓練模型的開發或分發情況;(3) 在美國防部與云計算供應商簽訂的合同中,要求他們在訓練大型人工智能模型之前對所有客戶進行 "了解你的客戶 "篩選;(4) 在美國防部與人工智能開發商簽訂的合同中包括 "了解你的客戶 "篩選,以及強大的網絡安全要求,以防止大型人工智能模型被盜。
3.與情報界合作,大幅擴大收集和分析敵國參與人工智能的關鍵外國公共和私營部門行為者的信息,包括評估關鍵外國公共和私營實體;他們的基礎設施、投資和能力;以及他們的工具、材料和人才供應鏈。通過以下方式加強國防部開展此類活動的機構能力:(1)在美國和盟國政府機構、學術實驗室和工業公司之間建立新的伙伴關系和信息共享協議;(2)招募私營部門的人工智能專家以短期或兼職的方式為政府服務。
4.投資于人工智能安全的潛在計劃,包括(1)嵌入人工智能芯片的微電子控制,以防止開發沒有安全保障的大型人工智能模型,以及(2)在部署人工智能系統之前評估其安全性的通用方法。