?世界各地的軍隊正在根據戰爭的發展開發、集成和使用機器人和自主系統 (RAS)。需要進一步思考這一過程在荷蘭境內發生的條件以及可能產生的挑戰和影響。HCSS 項目“軍事背景下的 RAS”試圖為這一討論做出貢獻。
在兩年的時間里,該項目產生了五篇公共研究論文,涵蓋了與在軍事背景下實施 RAS 相關的一系列主題。這些研究論文涵蓋了軍事適用性、倫理考慮、法律論述、合作要求以及 RAS 在軍事環境中的實施。所有論文都合并在此報告中,包括簡要總結分析的綜合報告和一系列六份情況說明書。 研究方法側重于獲取從業人員、研究人員、倫理學家、法律專家、行業專業人士、技術人員、民間社會組織、軍事人員和國防界其他成員的專業知識。這樣做不僅能夠收集對主題的多方面理解,而且還能將這些利益相關者獨特地聯系在一起,并促進他們之間具有挑戰性的討論。在項目過程中,與不同的咨詢委員會成員舉行了五次會議,指導了研究軌跡,并為其立場文件和研究論文草稿提供了寶貴的意見。還收集了來自 200 多名利益相關者的專業知識,參加了六場專家會議,其中涉及各種方法,包括基于場景的討論、設計會議、
次要目標是為公眾辯論提供信息,并在抵制流行的“殺手機器人”觀念的軍事背景下就 RAS 進行更細致的對話。為此,舉辦了關于 RAS 的道德困境的公開研討會,與 BNR Nieuwsradio 合作發布了五個 De Strateeg 播客,組織了會議和圓桌會議,并于 2021 年 2 月發布了一部 18 分鐘的紀錄片。
引 言
2019 年 12 月,普京在俄羅斯國防部董事會會議上發表講話時表示,“機器人系統和無人機正在被嚴格引入并用于戰斗訓練,這極大地提高了武裝部隊的能力。”幾個月后,俄羅斯國防部宣布了一項價值約 420 萬歐元的封閉招標,旨在“研究為新一代人工智能軍事系統創建神經網絡開發、訓練和實施的實驗模型”。雖然中國在公開場合遠沒有那么自夸,但他們的軍事優勢戰略是由人工智能和自動化的發展引領的,這導致一些分析人士認為,解放軍的目標是通過系統沖突和高度智能化的戰爭來主導。
這些觀點意味著一個更大的現象。世界各地的軍隊正在根據戰爭的第四次演變開發、整合和使用機器人和自主系統,需要進一步思考在荷蘭境內進行這一過程的條件以及可能出現的挑戰和影響作為結果。
HCSS 項目“軍事背景下的 RAS”試圖為這一討論做出貢獻。在兩年的時間里,該項目產生了五篇公共研究論文,涵蓋了與在軍事背景下實施 RAS 相關的一系列主題。該綜合將這些主題聯系在一起,并展示了該項目最相關的發現。下面總結了 HCSS 研究對道德要求、法律話語、合作伙伴合作、實施和概念開發和實驗的觀察,然后是關于 RAS 的軍事適用性的初級部分。
RAS的軍事適用性
機器人和自主系統 (RAS) 在軍事環境中提供了大量、重要且影響深遠的機會。為了觀察這些系統在這種情況下的適用方式并評估它們的效用,需要解決一些定義和概念:
1 自主性:人類賦予系統執行給定任務的獨立程度。根據系統自身的態勢感知(綜合感知、感知、分析)、規劃和決策,實現分配任務是自治的條件或質量。自主性是指一系列自動化,其中可以針對特定任務、風險水平和人機協作程度定制獨立決策。自主級別可以包括遠程控制(非自主)、操作員協助、部分自動化、條件自動化、高度自動化或完全自動化。
2 機器人:能夠通過直接的人工控制、計算機控制或兩者兼而有之來執行一組動作的動力機器。它至少由平臺、軟件和電源組成
3 機器人和自主系統 (RAS):RAS 是學術界和科學技術 (S&T) 社區公認的術語,強調這些系統的物理(機器人)和認知(自主)方面。RAS 是一個框架,用于描述具有機器人元素和自主元素的系統。值得注意的是,RAS 的每個連續部分都涵蓋了廣泛的范圍。“系統”部分指的是廣泛(在我們的例子中為軍事)應用領域的各種物理系統。在計算機或網絡上運行的自動化軟件系統,包括“機器人”,即無需人工干預即可執行命令的軟件,不符合 RAS 的條件,因為它們缺少物理組件。“機器人”部分,指的是系統的物理布局,認為系統是無人或無人居住的。所有其他物理方面(大小、形式,無論是飛行、漂浮還是滾動等)都保持打開狀態。
4 致命自主武器系統 (LAWS):一種武器,在沒有人為干預的情況下,根據人為部署武器的決定,在沒有人為干預的情況下選擇和攻擊符合某些預定義標準的目標,因為攻擊一旦發動,人為干預就無法阻止。
5 有意義的人類控制(MHC):MHC 包括(至少)以下三個要素:(1)人們就武器的使用做出知情、有意識的決定;(2) 人們被充分告知,以確保在他們對目標、武器和使用武器的背景所了解的范圍內,使用武力符合國際法;(3) 所討論的武器是在現實的操作環境中設計和測試的,并且相關人員已經接受了足夠的培訓,以便以負責任的方式使用武器。MHC 是一個復雜的概念,在許多情況下,上述描述并不是決定性的。荷蘭官方的立場是,“所有武器,包括自主武器,都必須保持在有意義的人類控制之下。”
“殺手機器人”的言論已將公眾對軍事環境中機器人和自主系統的看法縮小為完全關于高度或完全自主系統使用致命武力的觀點。實際上,RAS 可應用于眾多軍事功能和任務,每個功能具有不同程度的自主性(見下圖)。機器人和自主系統的廣泛軍事適用性產生了無數和巨大的機會。未來幾年的挑戰是充分利用這些機會,發揮軍事優勢的潛力,同時降低所帶來的風險。
在這些功能中實施 RAS 會帶來重大挑戰,但也預示著軍隊將面臨更有效、更高效和更敏捷的新機遇。可以根據這些類別評估 RAS 繼續改進/再改進國防領域的潛力。
速度。在促進快速決策和威脅優先級排序的人工智能的幫助下,RAS 已經能夠超越人類的反應時間并縮短 OODA(觀察、定位、決定、行動)循環。
可靠性。將任務委派給機器需要高度的信任,但到目前為止,RAS 還不能證明在所有軍事應用領域都有足夠的可靠性。然而,我們對這些系統的信心將會增加,因為它們證明了它們在執行特定任務時的可靠性和有效性。
準確性。人工智能系統的面部圖像識別和感官能力已經超過了人類的表現水平,盡管無人系統比人類操作員更精確的說法受到廣泛爭議。
大規模效應。由于射程和耐力的增加,RAS 有能力增強對戰場的覆蓋范圍并壓倒對手。這種潛力的最好例子是“蜂擁而至”。
可達性。RAS 極大地增強了監視、情報、偵察和武器系統的可用存在點。
穩健性。在短期內,由于惡劣的天氣和任務的變化等意外條件,RAS 將比人類更容易失敗。這種脆弱性延伸到虛擬域:由于連接丟失、黑客攻擊和其他干擾可能導致系統無法運行。
安全。RAS 可以執行“枯燥、危險和骯臟”的任務,以便人類可以專注于更專業的任務并遠離火線。
成本。盡管最先進技術的獨家使用權將保留給最富有的玩家,但現在被認為是高度先進的系統的成本將在未來 20 年內下降,從而變得更加普及。
維護。考慮到系統的復雜性和涉及的多個(外部)合作伙伴,更新和升級 RAS 軟件和硬件可能會更加困難。
時間效率。RAS 可以 24/7 全天候高標準執行乏味且重復性的監控任務,無需休息,高效解決后勤規劃,快速超越人工多任務處理的極限。
靈活性。盡管 RAS 目前在執行特定任務方面表現出色,但在可預見的未來,人類仍將是最靈活的。隨著開發人員繼續創新當前系統,這種動態可能會發生變化。
適應性。RAS 具有高度自適應性,并且隨著時間的推移在系統生命周期(擴展、擴展、升級等)期間易于重新配置,以便跟上動態環境中出現的新要求。
外部合法性。因此,軍方與 RAS 的接觸必須在他們(可能)提供的先進能力與其所服務的社會的價值觀和規范之間取得平衡。
內部合法性。RAS 的信任和組織規范化將隨著時間的推移而得到加強。隨著對系統的理解、可預測性和熟悉度的提高,它們在組織內的合法性將得到鞏固。
許多國家認識到這種潛力并意識到需要在瞬息萬變的國際舞臺上具有軍事競爭力,因此將 RAS 用作其武裝部隊的一部分(圖 2)。然而,盡管有明顯的機會,但在軍事環境中實施 RAS 并非易事。許多實際和理論挑戰阻礙了實施過程,需要政策制定者、創新者、研究人員、國防界和民間社會成員之間的討論,在許多情況下,這些挑戰考驗著我們賴以監管、開發、獲取、整合和使用其他軍事技術。為了分析這些挑戰,重要的是確定 RAS 系統生命周期的三個階段:開發、集成和使用(圖 3)。下一節總結了在 HCSS RAS 項目期間探索和分析的理論考慮(道德和法律)和實際考慮(私營部門合作和概念試驗與開發)。
RAS的開發是一個硬件和軟件設計和生產的動態過程,在后期根據系統測試、集成、監控和使用的結果不斷地重新審視。RAS的設計和開發需要國防部門和私營部門之間更深入的互動與合作。因此,私營部門在塑造 RAS 生命周期的發展階段和解決與該階段相關的理論和實踐考慮方面發揮著關鍵作用。
這一階段涉及 RAS 的組織嵌入,由此與系統開發者/生產者的關系發生變化,新的參與者(例如實際的軍事最終用戶)出現或獲得更主導的角色。在這個階段,“交接”變化的性質引發了關于不同參與者角色的新問題。
在作戰環境中使用 RAS 會影響軍隊的工作方式、與誰合作以及在什么條件下工作。這是因為相關系統的更大自主性促使操作員和指揮官以“更高的抽象層次”與系統進行交互。除了部署之外,這個階段還包括RAS的維護和服務。
結 論
機器人和自主系統代表了軍事領域的轉變。它們提供了顯著的軍事能力,以擴大軍事行動的質量、范圍、效率和安全性,并正在改變我們現在和未來對抗沖突的方式。RAS 功能正在實施,不僅是荷蘭武裝部隊,還有我們的潛在對手。技術、運營、法律和道德問題,以及這種新興技術的潛在擴散是復雜且相對較新的。
隨著新發展的出現和在運營使用過程中獲得經驗,我們概念化、設計、建造和運營 RAS 的方式將需要反復重新考慮。這也意味著需要不斷的知識開發、概念開發和實驗。為了充分了解 RAS 的潛力及其作為軍事工具箱中重要戰略工具的要求,必須在操作環境中進行實際測試。
要讓行業充分參與這些市場,在這個快速發展的領域中共同開發和共同試驗需要不同的思維方式。在產品完全成熟并且操作使用表明它們被充分理解和可預測之前,RAS 將需要通過短周期創新過程進行不斷調整。
在軍事背景下開發和實施 RAS 將需要持續關注、創造性的大局思維以及與利益相關者(包括政策制定者、學者、倫理學家、律師、行業專業人士、技術人員、民間社會和國防界)的強大合作網絡。
俄羅斯總統弗拉基米爾·普京宣布 2021 年為俄羅斯科技年,11 月被命名為人工智能 (AI) 月,這表明俄羅斯領導層對這一總括性術語的濃厚興趣。俄羅斯國防部門尤其被這些人工智能技術相關機遇所吸引。近年來,人工智能、機器人技術以及將自動化和自主性進一步整合到武器系統和軍事決策中,都被強調為俄羅斯武裝部隊現代化的優先事項。
2017 年,普京有句名言:“人工智能是未來,不僅是俄羅斯,也是全人類……誰成為這一領域的領導者,誰就成為世界的統治者”。引用這句話,分析人士經常將俄羅斯的發展歸因于、測試和使用武器化的 AI 來與當前領先的 AI 開發商:美國和中國在所謂的全球 AI 競賽或全球技術競賽中競爭的必要性。雖然認為競爭和追趕的需求是俄羅斯動機的一部分,但它對軍事人工智能的興趣不應僅僅歸因于對相對實力的追求。要了解俄羅斯圍繞人工智能、自治和自動化的辯論的深度和復雜性,需要審查有關其對俄羅斯軍隊的戰略影響、自治的好處和風險,以及更廣泛地說技術現代化和技術現代化的重要性的討論。俄羅斯在世界上的地位的創新。
本報告旨在概述面向國際受眾的不同概念和動機,這些概念和動機一直并正在指導俄羅斯政治和軍事領導人實現其追求武器化人工智能的雄心。首先,它概述了俄羅斯軍隊追求人工智能、自主和自動化背后的各種外部和內部因素。其次,它介紹了俄羅斯在這一領域的一些計劃、對其能力的了解以及加強這些計劃所面臨的挑戰。第三,它深入探討了俄羅斯關于自主,特別是自主武器系統的辯論,以及關于開發所謂的“殺手機器人”或自主戰斗機器人的倫理討論,這是一個經常使用的術語在俄語文學中。
該分析基于對開源材料的調查,包括媒體報道、新聞稿、官方聲明和演講、同行評議的文章和智囊團報告,以及俄羅斯軍事期刊上的出版物。作者希望將其作為正在進行的博士研究項目的第一步,以及對新興的關于俄羅斯如何看待武器化 AI 的英語文獻做出貢獻。
本報告分析了自主、自動化和人工智能的概念——這三個術語在俄羅斯和國外經常相互混淆。值得從探索這些概念開始。自動化是一種基于特定動作或規則序列將任務委派給機器的方式,從而使流程更具可預測性。自動化系統是“根據預編程腳本執行具有定義的進入/退出條件的任務”。自主性是一個更復雜的過程,廣義上的意思是“對機器進行編程以執行通常由人員執行的某些任務或功能人類”,但沒有詳細的規則,因此更難以預測。人工智能可以定義為“數字計算機或計算機控制的機器人執行通常與智能相關的任務的能力。” 人工智能及其子集,例如機器學習,以及其在計算機視覺、面部和聲音識別等方面的應用,可用于實現武器系統更高水平的自動化和自主性。自主武器系統通常被定義為“一旦啟動,無需人工操作員進一步干預即可選擇和攻擊目標的機器人武器系統。” 聯合國安理會 2021 年 3 月發布的一份報告表明,土耳其制造的 Kargu-2在利比亞內戰期間,游蕩彈藥系統被編程為以自主模式選擇和攻擊目標。這被世界各地的媒體描述為首次使用致命的“殺手機器人”。但是,尚不清楚該系統在攻擊時是否真正自主運行。
【在人工智能進步的幫助下,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類】
圖1. 武器系統的自主性
同時,這些領域之間的能力并不總是相同的。在俄羅斯的案例中,自動化和無人機器人系統的開發比集成更現代的基于機器學習的系統更先進。俄羅斯軍事文獻中經常提到的“自動化”(автоматизация)過程——其他術語包括“機器人化”(роботизация)、“智能化”(интеллектуализация)或“數字化”(дигитализация)并不是一個新現象。 俄羅斯在自動化和遠程控制武器系統方面的能力相對優于其在人工智能總稱下整合機器學習和廣泛技術的其他子元素的能力。許多軍事決策者和分析人士的立場是,借助人工智能的進步,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類。
北約數據開發計劃旨在有效利用數據,開發保持北約軍事和技術優勢所需的技能、人力、敏捷流程、工具、服務和技術。
美國、她的盟國和對手正在為民用和軍事應用擁抱計算環境和技術(以下簡稱AI)的進步。我們的工作建議探討自主和半自主系統中的一個核心矛盾,即無人系統的部署長度(停留時間)與因不定期維護導致的單個系統故障和因對手行動導致的故障之間的基本權衡。本文的獨特之處在于,它將從政策的角度以及應用統計學的角度來探討這個問題,并為更廣泛的無人系統的采購和使用提供見解。
信任一個無人系統意味著什么?這個看似無關緊要的問題是無人駕駛技術的各種民用和軍用應用中的一個核心問題。隨著世界變得越來越自動化,人類看護者的監督越來越少,自主系統將在有限的監控下長期忍受下去。雖然具有長時間續航能力的自主系統可以成為民用和軍用海上監測的寶貴資產,但自主系統群的衰落是一個不可避免的現實。但是,預期的衰減速度和實際速度之間的差異可以為無人系統星座的惡意干擾提供一個早期指標。
上述分析提出了一個重要的問題,那就是當檢測到沒有反應而假定某個系統被摧毀時的故障歸屬。如果無響應是系統失敗的唯一指標,它可能是由各種因素造成的,包括環境、機械故障或最令人擔憂的損耗,我們將其定義為旨在使無人駕駛系統喪失功能并加以摧毀的惡意敵方行動。使用這個定義,損耗與失敗是分開的,因為失敗是由不涉及有目的的敵方行動的情況造成的。對于軍事平臺來說,損耗是最嚴重的情況,因為這些平臺上可能攜帶著操作員不希望落入對手軍隊手中的機密傳感器和有效載荷。
同樣,了解自然退化模式可以使一個國家以一種難以區別于隨機故障的方式使對手的系統退化。這樣的方法可以使一個國家有能力參與進攻性行動,或者在紅方參與軍事行動之前限制藍方對跡象和警告(I&W)的探測。 我們在本說明中的貢獻是在一個統一的結構中考慮無人駕駛系統退化的可靠性和博弈方面。我們的論文結構如下。在第二節中,我們從應用數學和政策的角度回顧文獻。在第三節中,我們對可靠性和博弈論進行了初步的、數學上的統一闡述。在第四節中,我們探討了具體的方案,最后總結了結論并為未來的分析提供建議。
人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。
縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。
幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。
幾十年來,政治科學家和國家層面的軍方政策制定者一直在戰略層面使用博弈論,但對其在作戰層面的使用幾乎沒有評論。傳統上,三個主要挑戰阻礙了規劃人員和分析人員在作戰層面使用博弈論,即復雜的作戰環境、參與者的動態交互以及大多數陸軍參謀人員不具備使用復雜數學技能。
這本專著表明,這些挑戰是可以克服的,博弈論可以在規劃過程中提供新穎的見解。美陸軍參謀部規劃人員可以在作戰層面有效地使用基本博弈論和簡單的數學來了解作戰環境、了解行動者及其動機,并在軍事決策過程中比較行動方案。本專著展示了如何避免高級博弈論用于解決理論問題的繁瑣數學程序,而是專注于使用基本博弈論在規劃過程中提供價值。它通過回顧博弈論在戰略層面的應用、教授基本博弈論和涵蓋一些基本博弈概念來展示博弈論的實用性。然后,它考察了一場歷史性的行動,以展示博弈論的使用將如何達到另一個推薦行動方案和結果,也許會改變歷史進程。最后,它通過將博弈論應用于軍事決策過程、任務分析和行動制定過程的兩個步驟的練習,提供了使用博弈論的指南。
幾十年來,戰略規劃者和政策制定者在戰略層面有效地應用了博弈論,但軍事從業者往往不在作戰層面使用它。當約翰·馮·諾依曼和奧斯卡·摩根斯坦在 1940 年代初在蘭德公司工作期間發展博弈論時,他們尋求一種數學方法來為沖突領域,特別是經濟沖突提供解決方案。他們于 1944 年發表了開創性的著作《博弈論與經濟行為》
博弈論允許通過將場景建模為簡化的博弈來分析決策。博弈論試圖定義參與者、策略——或可供他們選擇的選項——以及博弈結果的預期回報。它試圖澄清由于參與者的選擇而導致的不確定性。它的主要用途是它認識到結果是通過多個參與者的互動共同決定的,而不僅僅是一個人自己決定的結果,它允許分析對手可能會做什么。由于這些原因,政策制定者和戰略家使用博弈論來理解戰略問題,例如核對手、貿易慣例、內戰解決和裁軍以及缺乏國際合作,從而制定政策建議以幫助解決這些問題
作戰層面的規劃者是否可以有效地應用博弈論仍然是一個懸而未決的問題。在作戰層面使用博弈論的批評者強調了動態交互的復雜性。他們指出,培訓軍官了解博弈論的基本概念并將操作層面問題的復雜性提煉成基本博弈需要大量時間。
本專著認為博弈論提供了一個有價值的框架,最適用于在軍事決策過程的任務分析和行動發展步驟過程中理解環境中的參與者。博弈論旨在提供對情況的理解。這需要了解參與者及其潛在計劃或戰略動機。博弈論提供了一種理性的方法來研究行動者如何制定他們的策略和他們的動機基礎。由此,指揮官和參謀人員可以獲得理解,然后疊加其他因素,包括行動方案和潛在結果。它提供了一種合理而直接的方法來簡化復雜的問題。因此,博弈論為作戰規劃者提供了另一種工具,可用于了解作戰環境。
本專著重點介紹博弈論在戰略層面的歷史應用、當前的規劃過程學說和相關框架,以回答作戰規劃者能否在作戰層面有效地使用博弈論。這本專著主要通過囚徒困境分析博弈論在戰略層面的應用,將其應用于冷戰、國際貿易和價格戰期間的降價。 1777 年的新澤西戰役為應用博弈論和理解喬治華盛頓將軍和查爾斯康沃利斯將軍之間的競爭環境提供了一個歷史例子。最后,它演示了如何以及在何處將博弈論工具實施到美國陸軍當前使用的規劃過程中。所使用的博弈論是一種基本的應用方法,而不是過于復雜和無用的高級學術博弈論。簡單的博弈可以使復雜的操作情況變得清晰。該研究回顧了陸軍規劃學說,以專注于了解作戰環境和問題。任務分析旨在了解環境中的參與者以及他們之間沖突的根源。這 3 項研究的重點是深入了解對抗性和中立的參與者、激勵措施、潛在的行動方案和回報。該專著追溯了博弈論的戰略應用和作戰應用之間的差異,以了解哪些要素是一致的,同時說明了差異。最后,它將討論如何克服實施中的潛在挑戰。
規劃人員可以在軍事決策過程中使用博弈論工具,特別是在任務分析期間,以不同的視角理解作戰環境和行動發展過程,以檢查未發現的假設。博弈論工具不是替代軍事決策過程中現有的步驟和工具,而是對其進行補充。戰地手冊 6-0 解釋說,指揮官和參謀人員使用任務分析來更好地了解作戰環境和部隊面臨的問題。接下來,規劃人員使用任務分析來制定假設以填補知識空白。最后,考慮到博弈論理解競爭的本質,任務分析也有助于理解友軍和敵軍如何互動。行動方案制定過程提供了一種客觀的方式來看待多個潛在計劃。在上面的歷史例子中,華盛頓將軍和康沃利斯將軍需要了解他們的潛在行動以及他們認為 30 名敵方指揮官可能會做什么。在某種程度上,歷史例子中的將軍們可以在他們的行動發展過程中使用博弈論來檢查他們的假設。開發從敘述性或定性評估開始,然后轉向帶有每個計劃的加權分數的可量化評估。博弈論允許另一種觀點來評估潛在的計劃。以下思想實驗提供了一個示例,說明工作人員如何在任務規劃期間使用一些博弈論工具。
演習如下:美國討論在一個靠近對手的友好國家增加軍事存在,這旨在阻止對手入侵友好國家。軍團工作人員了解國家決策者關于在一個地區增加軍事存在的辯論。此外,他們知道如果國家領導層追求升級,軍團是升級的一個因素。工作人員致力于了解作戰環境并了解國家層面的優先事項和激勵措施,以便他們可以就選項提出更高的建議并為預期的行動方案做好準備。其次,他們努力了解敵人的動機和行動計劃。敵人還面臨著增加其在該地區的軍事存在或維持現狀的前景。兩國都擁有核武器,都不想進行全面戰爭。最后,兩個大國都可以遷移的地區的人口不希望被外國勢力占領。國家決策者面臨的戰略決策具有操作層面的影響。
如上所述,任務分析提供了對情況和問題的理解。在任務分析過程中,工作人員開始對行動者的動機和動機有所了解。戰場情報準備是任務分析的關鍵步驟。參謀人員對友軍和敵軍如何在環境中相互作用做出假設。由此,工作人員開發了每個參與者在即將到來的操作中可以使用的潛在選項。此外,情報準備步驟確定了指揮官和參謀人員的知識差距。這些差距導致了獲取信息的情報需求的發展。正如文獻回顧中所述,人們根據他們擁有的信息做出決策,并預測競爭對手的行為。這些步驟不會取代或否定軍事決策過程的任何步驟,它們只是關于如何以及在何處實施博弈論工具的建議。
鑒于這種情況,參謀人員開始制定敵人的行動方案。當應用于博弈矩陣時,這些行動方案成為敵人的策略。敵人可以用他們的一個師或軍將該地區軍事化,也可以選擇不軍事化。是否軍事化的選擇為敵人創造了兩種不同的戰略。第二步著眼于每個策略的結果。如果雙方都軍事化,那么他們將面臨戰爭。如果雙方都沒有軍事化,那么他們就維持現狀。如果一個國家軍事化而另一個國家不軍事化,那么軍事化的國家就會在沒有爭議的環境中這樣做。表11顯示了這種情況的結果。
表11:定性結果
第三步要求參謀人員查看敵人的動機,然后對他們的選擇進行定性分析。敵人想在美國不決定將該地區軍事化的情況下將該地區軍事化。這為他們創造了一個無可爭議的環境。其次,他們既不看重自己也不看重美國將該地區軍事化,這是現狀。第三個可取的結果是美國軍事化,而敵人沒有,這意味著美國擁有無可爭議的軍事化。最后,如果美國也進行軍事化,敵人不想升級為戰爭,也不想將該地區軍事化。工作人員現在可以根據偏好對敵人的行動路線進行排序。作戰和情報人員可以利用收集資產并制定收集計劃,以確定有關敵人計劃的任何指標,例如在該地區集結部隊。信息收集計劃有助于回答信息需求并協助進行有效規劃。
工作人員現在進入行動開發過程。生成選項步驟概述了指揮官和參謀人員可用的選項。工作人員制定了可以切實擊敗敵人行動方案的選項,然后確定它們的優先級。工作人員還產生了兩個廣泛的選項。他們可以軍事化,也可以不軍事化。由于每個參與者的策略,工作人員現在可以對他們的行動方案進行排序。指揮官和參謀更愿意維持現狀。如果美國采取行動將該地區軍事化,它可能會擾亂地方、國家政府和民眾。因此,美國對該地區的軍事化和一個不軍事化的敵人是次要的選擇。這種選擇意味著美國擁有無可爭議的軍事化,但正如所述,當地政府感到不安。第三,排名是美國不軍事化,但敵人軍事化,給了他們無可爭議的優勢。最后,美國不希望發生戰爭,如果美國和敵人都進行軍事化,就會發生戰爭。
接下來,工作人員將博弈發展為矩陣或戰略形式。首先,他們進行定性分析,說明每次交戰的可能結果,見表 12。然后參謀人員從每個指揮官的角度對結果進行排序,以生成定量分析和回報,如表 13 所示。該表顯示了回報敵方第一,美國第二。使用倒序排列,最低數字的收益表示排后的選項,數字越大,表示首選的選項。每個戰斗人員都是近鄰,因此參謀人員認為交戰將有利于主動一方。
表12 :定性分析
表13:定量結果
這兩種的價值在于員工進行分析以掌握對潛在未來結果的理解。它提供了一個簡潔的可交付產品,參謀計劃人員可以在一張紙上將其交給指揮官或參謀長,以供將來參考或思考,因為指揮官和參謀人員開始在軍事決策過程的未來步驟中權衡選項。這種分析為員工提供了一個思考他們正在做什么以及他們的計劃可能產生什么結果。這是舍恩所說的實踐中反思的一個例子。正如他所說,它允許人們在執行任務時思考他們正在做什么,然后塑造他們所做的事情。
下一步要求參謀人員將可用選項縮小到只有指揮官可用的可信選項。參謀部尋找指揮官永遠不會使用任何主導策略。敵方指揮官沒有任何主導策略,并且兩種策略都可供他使用。但美國永遠不會在博弈中選擇軍事化,因為無論敵人選擇什么,不軍事化都會主導博弈。表 14 以粗體突出顯示哪個選項在美國占主導地位。例如,如果敵人決定軍事化,如果它決定軍事化,美國將獲得 1 的回報,否則將獲得 2 的回報。因此,在這種情況下,美國會選擇不進行軍事化。同樣,如果敵人不軍事化,那么如果它軍事化,美國將獲得三倍的回報,如果它不軍事化,美國將獲得四倍的回報,美國將再次選擇不進行軍事化。因此,工作人員將其排除在外。
表14:以粗體突出顯示的美國的收益
既然參謀人員了解美國沒有軍事化的動機,它就可以看看敵人可能會采取什么行動作為回應。敵人知道美國不想軍事化,并尋求使其結果最大化。因此,敵人選擇軍事化,因為這比不軍事化帶來更好的回報。這達到了納什均衡,即敵人軍事化并獲得四分之二的回報,而美國不軍事化并獲得三分之二的回報。表 15 顯示了圈出的所得納什均衡。
表15:軍事化為主
但現實生活中的情況并不總是一致的。一方通常首先采取行動,迫使另一方做出決定。在上述情況下,美國正在努力應對將該地區軍事化的決定。然后他們的決定迫使敵人做出決定。下一步著眼于在順序移動游戲中情況如何展開,以及納什均衡在決策分析中是否發生變化。順序博弈見表 16。該表首先顯示了敵人的收益,其次是美國的收益。
表16:順序多次博弈
參與者對每個結果的選擇和回報保持不變。唯一的區別是美國先行動,敵人必須做出反應。工作人員必須使用子博弈分析來分析這個博弈及其結果。敵人有第二步,因此分析從他們的預期步驟開始。這兩個參與者都知道,如果美國選擇軍事化,敵人將選擇不軍事化,因為兩個人的回報比一個人要好。如果美國選擇不軍事化,敵人會想要軍事化,因為四比三好。鑒于美國的選擇,上面的表 16 通過圈出每個敵人的首選選擇來表明這種行為。既然美國知道敵人會根據美國的選擇做出哪些選擇,他們就會在兩者之間做出選擇。美國選擇軍事化,知道敵人不會軍事化,從而為美國帶來三倍的回報。美國軍事化總比不軍事化并獲得兩個回報要好,因為知道敵人會選擇軍事化。因此,納什均衡變成了美國軍事化和敵人不軍事化,敵方兩分,美國三分,見表 17。
表17:納什均衡
序列博弈導致的納什均衡與同步博弈不同,為什么?每場比賽都會導致一方軍事化,而另一方不軍事化。在同步博弈中,敵人通過軍事化獲得了最有利的回報,美國知道這一點,因此選擇不軍事化。然而,在順序博弈中,美國先決勝負。如果他們不軍事化,他們將獲得最高的回報,而敵人也選擇不軍事化。兩國都不會軍事化,因為如果美國不軍事化,敵人就有動機進行軍事化。美國意識到這一點,因此認為他們的下一個最佳選擇是軍事化,因為它知道敵人不會軍事化,因為這會迫使兩個參與者之間發生戰爭。這個游戲提供了一個先發優勢的例子。如果敵人先選擇,他們也會有軍事化的動機
序列多次博弈反映了更現實的情況。但是運行這兩種類型的博弈為工作人員了解動機和潛在行動提供了分析價值。工作人員可以看到排序操作如何改變結果。如上所述,使用這種方法的價值在于分析。工作人員可以按照矩陣形式對每個結果進行簡要說明。然后他們可以看到他們的選擇之一不是一個可行的選擇。然后,他們查看了定量評估并確定可以使用平衡結果。所進行的定性分析重申了 Thomas Schelling 的觀點,即博弈論的數學并不總能解決沖突,不應過度依賴數學。而是對問題的思考增加了價值。
博弈論提供了一種分析工具來看待競爭情況。它使分析師能夠了解潛在的行動計劃、激勵措施以及回報或結果。此外,它可以突出信息差距和需要進一步理解的領域。在 20 世紀中葉,戰略層面的規劃者用它來更好地了解美國和蘇聯之間在使用核武器和原子戰方面的競爭。國防部以外的分析師使用它來了解競爭公司之間的貿易爭端和降價。
在作戰層面,博弈論允許對潛在計劃、激勵和結果進行相同類型的分析和理解。這本專著審視了博弈論的歷史并探索了基本的博弈論,確立了博弈論在分析沖突情況方面的有用性。文獻回顧揭示了博弈論的優勢和劣勢,這為如何最好地利用它以最大限度地發揮其潛力提供了信息。檢查諸如核局勢和國際貿易等戰略層面的決策為以前的努力如何有效地應用博弈論提供了背景。博弈論在特倫頓和普林斯頓的美國獨立戰爭中的應用與指揮官們所追求的不同,展示了使用博弈論如何提供獨特的見解,這對于像康沃利斯這樣經驗豐富的將軍來說并不明顯。最后,該專著展示了軍團級別的參謀人員如何使用博弈論來理解戰略級別的決策如何影響作戰級別的行動,比較了同步博弈和序列博弈的實用性。最后一部分提供了一個基本框架,工作人員可以通過將博弈論應用于任務分析和行動開發過程來解決操作問題。
博弈論的使用不僅限于軍事決策過程。博弈論非常適合國防部和美國陸軍目前使用的現有規劃流程。規劃人員可以在聯合作戰設計過程和陸軍設計方法中使用博弈論工具。具體來說,在聯合設計期間,博弈論工具最適合理解戰略指導和理解作戰環境。在軍隊設計期間,它最適合構建作戰環境和理解問題。博弈論是參謀人員或計劃團隊的工具包中的另一個有用工具。當通過軍事決策過程或設計過程應用時,博弈論分析與其他工具很好地結合在一起,可以更好地了解作戰環境。
本報告描述了北約第一個多領域小組IST-173所取得的成果。與會者包括來自不同小組和團體的科學家,以及來自北約機構和軍事利益攸關方、學術界和工業界的科學家,這為AI和軍事決策大數據這一主題創造了第一個利益共同體。該團隊在實踐中證明了一種新的STO方法的可行性,即任務導向研究,以激發公開對話、自我形成的研究合作和跨小組活動。此外,該方法還有助于為人工智能和軍事決策大數據這兩個主要能力領域聯合開發北約首個科技路線圖,以應對北約在這些領域面臨的作戰挑戰。由于新的組織(軍事利益相關者積極參與的多領域團隊)和這種創新方法的應用,確定了一些經驗教訓,應該支持軍事決策AI和大數據的進一步操作。
在過去的兩年中,海牙戰略研究中心(HCSS) 在軍事背景下對機器人和自主系統 (RAS) 進行了研究,涉及多個方面和困境。在這篇關于 RAS 實施的論文中,其希望激發思考并激發讀者反思 RAS 的未來使用,為 2035 年提出適合“Operationeel Kader voor het Landoptreden”的建議(并將這些建議與預見的“2035 年防御”)并考慮到 2045 年實施 RAS 的建議。
展望未來的理由是雙重的。首先,必須在 RAS 的開發和實施早期解決重大問題。許多技術仍處于起步階段,同樣,我們對 RAS 的政治、戰略、戰術和運營應用的理解也處于早期階段。第二個原因源于人們傾向于在短期內高估技術的成熟度,而在長期內低估技術發展的速度。因此,通過使用短期和長期的時間范圍,創造了開箱即用的思考空間,同時提供了計劃一個看似合理但尚未準備好的未來的機會。
本文評估了在武裝部隊尤其是陸軍中實施 RAS 的一些相關要素。它提出了有關概念和條令的制定、如何組織對 RAS 的指揮和控制以及這些變化對人員(包括他們的培訓)、后勤、基礎設施、組織流程和領導力的影響的問題。在此背景下,本文就必須制定哪些發展路線或政策、應制定的時間框架以及這些政策的先決條件提出建議。
基于 HCSS 在整個為期兩年的項目中進行的研究,即軍事背景下的機器人和自主系統,就與實施 RAS 相關的幾個困境和問題進行了詳細說明。在該項目期間,已就操作應用、道德困境、法律方面、協作以及概念開發和實驗 (CD&E) 編寫了論文。
RAS實施過程中的困境和相關問題
作為本文的第一步,通過預期的合理情景和分析的簡短陳述或出發點構建未來前景。該場景位于 2045 年。選擇將場景分解為個體故事片段是為了使其盡可能具體,并確保它對不同的觀眾具有相關性和可理解性。所有片段中都集成了在兩年研究期間確定的困境或問題。在場景部分(以及隨后的整篇論文)中,引入了新術語,例如“wolfpack”、“fleet”和“line”來描述軍事指揮級別。這使我們能夠脫離關于指揮級別的傳統思維。
所進行分析的第二步是構建未來的 RAS 單元。從研究論文中獲得的關于 RAS 的軍事適用性的見解被考慮在內,然后推斷為一組合理的未來系統。為了建造未來的 RAS 單位,這些系統被組合成一個與當今戰斗旅稍有相似的單位。
第三步描述了四個發展路線,詳細解釋了在武裝部隊中實施 RAS 所需的條件。此時,HCSS 使用嚴肅的游戲工具進行了專家會議,以收集進一步的見解并驗證我們的想法。
Drone Wars UK 的最新簡報著眼于人工智能目前在軍事環境中的應用方式,并考慮了所帶來的法律和道德、作戰和戰略風險。
人工智能 (AI)、自動決策和自主技術已經在日常生活中變得普遍,并為顯著改善社會提供了巨大的機會。智能手機、互聯網搜索引擎、人工智能個人助理和自動駕駛汽車是依賴人工智能運行的眾多產品和服務之一。然而,與所有技術一樣,如果人們對人工智能了解甚少、不受監管或以不適當或危險的方式使用它,它也會帶來風險。
在當前的 AI 應用程序中,機器為特定目的執行特定任務。概括性術語“計算方法”可能是描述此類系統的更好方式,這些系統與人類智能相去甚遠,但比傳統軟件具有更廣泛的問題解決能力。假設,人工智能最終可能能夠執行一系列認知功能,響應各種各樣的輸入數據,并理解和解決人腦可以解決的任何問題。盡管這是一些人工智能研究計劃的目標,但它仍然是一個遙遠的前景。
AI 并非孤立運行,而是在更廣泛的系統中充當“骨干”,以幫助系統實現其目的。用戶不會“購買”人工智能本身;他們購買使用人工智能的產品和服務,或使用新的人工智能技術升級舊系統。自主系統是能夠在沒有人工輸入的情況下執行任務的機器,它們依靠人工智能計算系統來解釋來自傳感器的信息,然后向執行器(例如電機、泵或武器)發出信號,從而對機器周圍的環境造成影響.
人工智能被世界軍事大國視為變革戰爭和獲得戰勝敵人的優勢的一種方式。人工智能的軍事應用已經開始進入作戰使用,具有令人擔憂的特性的新系統正在迅速推出。與軍事和公共部門相比,商業和學術界已經引領并繼續引領人工智能的發展,因為它們更適合投資資金和獲取研究所需的資源。因此,未來人工智能的軍事應用很可能是對商業領域開發的技術的改編。目前,人工智能正在以下軍事應用中采用:
人工智能和英國軍事
綜合審查和其他政府聲明毫無疑問地表明,政府非常重視人工智能的軍事應用,并打算繼續推進人工智能的發展。然而,盡管已經發布了概述使用自動化系統的學說的出版物,但迄今為止,英國國防部 (MoD) 仍然對管理其人工智能和自主系統使用的倫理框架保持沉默,盡管已經做出了一些重大決定。軍事人工智能的未來用途。
英國國防部一再承諾發布其國防人工智能戰略,預計該戰略將制定一套高級倫理原則,以控制軍事人工智能系統的整個生命周期。該戰略是在與來自學術界和工業界的選定專家討論后制定的,盡管政府尚未就與人工智能的軍事用途相關的倫理和其他問題進行公開磋商。該戰略的主要目的之一是向行業和公眾保證,國防部是人工智能項目合作的負責任合作伙伴。
與此同時,在沒有任何道德指南的情況下,計劃和政策正在迅速推進,主要問題仍未得到解答。英國軍隊在什么情況下會采用人工智能技術?政府認為何種程度的人為控制是合適的?風險將如何解決?英國將如何向其盟友和對手證明英國打算采取有原則的方法來使用軍事人工智能技術?
軍事人工智能系統帶來的風險 上述人工智能的每一種不同的軍事應用都會帶來不同的風險因素。作為國防部總部后臺操作的一部分,對數據進行排序的算法會引發不同的問題和擔憂,并且需要與自主武器系統不同級別的審查。
盡管如此,目前正在開發的人工智能系統無疑會對生命、人權和福祉構成威脅。軍事人工智能系統帶來的風險可以分為三類:道德和法律、操作和戰略。
道德和法律風險
-問責制:目前尚不清楚如果出現問題,誰來承擔責任:如果計算機運行不可預測并因此犯下戰爭罪行,懲罰它是沒有意義的。
人權和隱私:人工智能系統對人權和個人隱私構成潛在威脅。
不當使用:在戰斗環境中處于壓力之下的部隊可能會試圖修改技術以克服安全功能和控制。
作戰應用風險
偏見的技術來源:人工智能系統的好壞取決于它們的訓練數據,少量損壞的訓練數據會對系統的性能產生很大影響。
偏見的人為來源:當人類濫用系統或誤解其輸出時,可能會導致偏見。當作戰員不信任系統或系統非常復雜以至于其輸出無法解釋時,也會發生這種情況。
惡意操縱:軍用 AI 系統與所有聯網系統一樣,容易受到惡意行為者的攻擊,這些行為者可能試圖干擾、黑客攻擊或欺騙系統。
戰略風險
降低門檻:人工智能系統帶來了政治領導人在沖突中訴諸使用自主軍事系統而不是尋求非軍事選擇的風險。
升級管理:涉及人工智能的軍事行動的執行速度降低了審議和談判的空間,可能導致快速意外升級并造成嚴重后果。
軍備競賽和擴散:對軍事人工智能的追求似乎已經引發了軍備競賽,主要和地區大國競相發展其能力以保持領先于競爭對手。
戰略穩定性:如果先進的人工智能系統發展到能夠預測敵人戰術或部隊部署的程度,這可能會產生高度不穩定的后果。
本簡報列出了為人工智能設想的各種軍事應用,并強調了它們造成傷害的可能性。它認為,減輕軍事人工智能系統帶來的風險的建議必須基于確保人工智能系統始終處于人類監督之下的原則。
迄今為止,公眾對人工智能和機器人技術進步所帶來的社會變化和風險似乎知之甚少。這份簡報的部分目的是為了敲響警鐘。人工智能可以而且應該用于改善工作場所的條件和對公眾的服務,而不是增加戰爭的殺傷力。