人工智能(AI)被廣泛認為是一種通用技術(GPT),有可能影響人類活動的各個方面,推動創新并重塑經濟和安全格局。全球對人工智能戰略重要性的認識,引發了一場經濟和軍事領域的爭霸賽,各國都在努力利用人工智能的潛力在國際舞臺上增強實力和影響力(Friedman 2022, 2)。除了正在進行的研究,將這項新技術融入軍事領域的工作也已經開始。與以往的變革性技術一樣,戰略研究引發了一場關于人工智能潛在戰略影響的辯論,討論的中心是人工智能推動下一場軍事革命(RMA)的前景(Raska 2021, 456)。
技術創新能力一直與國際影響力和國家實力密切相關,包括經濟競爭力、政治合法性、軍事實力和國內安全(Raska and Bitzinger 2023, 2)。因此,軍事創新是國際關系研究中的一個重要課題。對軍事力量分布感興趣的學者們關注的重點是國家如何通過開發新的軍事優勢產生方法來獲得對競爭對手的優勢(Johnson 2022, 478)。尋找施加暴力和行使權力的新方法體現在軍事創新中,而軍事創新是由傳統國防部門推動的(Bitzinger 和 Raska,2015 年,129;Horowitz,2010 年,18)。
但人工智能技術的傳播與以往的經驗有著本質的不同(Raska and Bitzinger 2023, 1)。這有兩個原因。首先,從 20 世紀 70 年代到 2010 年代,西方國家,尤其是美國,在尖端軍事技術的發展方面一直處于領先地位。這些先進技術以不同的路徑和模式傳播給盟國和戰略伙伴,包括歐洲和東亞的中小強國(拉斯卡,2020 年)。但是,在幾十年的軍事技術霸主地位之后,美國現在發現自己面臨著戰略同級競爭對手的挑戰,他們擁有自己快速發展的軍事能力和新技術,其中人工智能處于領先地位(Johnson 2021; Mahnken 2012)。其次,當前的人工智能技術浪潮代表了軍事創新本身的重大轉變,商業技術進步在武器平臺和系統的發展中發揮了重要作用(拉斯卡,2016 年)。這使得小國和中等強國能夠開發利基人工智能技術,從而增強其國防能力,提高其經濟競爭力、政治影響力以及在全球舞臺上的地位(Barsade 和 Horowitz,2018 年)。因此,全世界的軍事力量都在積極尋求將人工智能納入其系統組合,旨在獲得超越對手的獨特競爭優勢(Raska and Bitzinger 2023, 3)。
人們普遍認為,人工智能將引領下一階段的軍事裝備改革(Raska and Bitzinger 2023a),但對軍事人工智能創新過程的理論分析尚屬空白。一方面,關于軍隊如何創新和創新如何擴散的研究已經產生了幾種不同的理論,但都只關注傳統國防工業領域的創新。另一方面,關注軍事人工智能創新軌跡的學者們并沒有利用現有的理論,沒有將人工智能視為像電力一樣的GPT,而是將其視為類似核武器或航空母艦的相對狹義的技術進步(Ding and Dafoe 2023, 1)。鑒于上文所述的人工智能的重要性和廣泛影響,這一發現相當令人費解。因此,本論文旨在通過整合這些研究流派來彌補這些不足。論文采用理論驅動分析法,試圖解決以下問題:
一個國家如何成功開發和整合軍事人工智能?
本研究將從以下幾個方面展開。首先,總結有關軍事創新、創新擴散和軍事人工智能的文獻,找出不足之處。其次,解釋理論框架。這部分包括對 GPT 概念的介紹、對所用理論的總結、將其轉化為因果機制以及對范圍條件的理論定義。第三,解釋人工智能在多大程度上符合 GPT,以及軍事人工智能的含義。第四,概述研究設計、方法(理論測試過程追蹤)和數據選擇。第五,將創建一個案例群體,并從中選出一個案例。然后進行實證分析。最后,本研究通過討論研究結果及其局限性得出結論。
圖1:來自生態系統挑戰的因果理論
人工智能(AI)/大型語言模型(LLMs)在各種任務中都顯示出了良好的前景,但在美國防部(DOD)中,對其在來源選擇評估因素編寫中的應用卻沒有進行深入研究。了解人工智能編寫的評估因素的有效性對于可靠的決策至關重要。LLM 技術在美國防部的整合與人工智能的興起相一致。這項探索性分析調查了美國防部采購專業人員對人工智能編寫的評估因素的信心和偏見。喬治梅森大學(GMU)和海軍研究生院的調查向專業人員提供了需求文檔和人工或人工智能生成的評估因素。由于這兩項調查在統計上存在顯著差異,因此只采用了喬治梅森大學的數據。統計和定性分析評估了不同參與者分組和作者披露情況下的信心評級差異。結果顯示,相對于人工智能編寫,尤其是在年長的專業人員中,對人工智能編寫的信心降低,并對算法略有反感。盡管存在包括抽樣限制在內的局限性,但在對人工智能與人類產出的看法上出現了明顯的差異。建議包括制定一份人工智能指南,以幫助在收購中負責任地使用人工智能。還需要對更多不同樣本和各種人工智能工具進行進一步研究。這項初步工作推動了人工智能集成政策的討論和公眾對國防采購的信任。
強化學習(RL)和人在回路(HitL)學習方面的最新進展使人類與人工智能體的合作變得更加容易。在智能系統中利用人類與人工智能的專業知識和經驗,既高效又有益。不過,人類與人工智能的協作能在多大程度上取得成功,以及這種組隊與僅有人類或人工智能體的組隊相比表現如何,目前仍不清楚。在這項工作中,我們證明了向人類學習是有效的,而且在復雜的模擬環境中,人類-人工智能協作的表現優于人類控制的和完全自主的人工智能體。此外,我們還開發了一種新的關鍵基礎設施保護模擬器,重點關注人工智能驅動的無人機和人類團隊合作抵御敵方無人機攻擊機場的場景。我們開發了一個用戶界面,讓人類能夠有效地協助人工智能體。我們證明,與向人類或智能體學習相比,智能體在向政策校正學習時學習速度更快。此外,與人類直接控制所有智能體相比,人類與人工智能的協作需要更低的精神和時間要求,減少了人類的努力,并產生了更高的性能。總之,我們的研究表明,人類可以為 RL 智能體提供有益的建議,讓它們在多智能體環境中提高學習能力。
保護機場等關鍵基礎設施免受安全威脅是一項復雜、敏感和昂貴的任務,因此人們一直在探索自動和自主解決方案[1]。然而,由于目前技術成熟度和訓練有素的操作員方面的限制,在關鍵應用中采用全自動和自主解決方案并不可取。這可能會導致性能低下、基礎設施嚴重受損以及其他附帶損害風險增加。此外,培訓人類如何有效地使用這些解決方案仍然是一個相當大的挑戰。另一方面,對此類系統的持續監控、快速評估和處理潛在威脅將受益于人工智能能力。在許多情況下,由于系統的復雜性或數據的稀缺性,人工智能體需要在合理的時間范圍內實現完全自主的協助[2]。另一個重大挑戰是人工智能體捕捉上下文理解的能力。例如,考慮一個機場安防場景,隸屬于機場當局的人工智能系統在夜間通過監控攝像頭或無人機檢測到快速移動。該系統可能會將這一移動歸類為入侵者,但由于缺乏上下文的細微差別,無法將其識別為當地警察在機場周邊的例行巡邏。
人類通常擁有解決復雜問題的領域專長、經驗和對上下文的理解,而這些是智能體難以學習或復制的。例如,考慮到上述例子,人類操作員可能會根據無人機出現和行為的相關情況,將無人機識別為例行巡邏。與此同時,智能體缺乏做出適當反應的知識。在安全關鍵型應用中,人的決策變得至關重要,因為在這種應用中,可能會出現部分預料不到的情況。考慮到人類專業知識的價值,有必要在協作環境中有效利用人類知識和態勢感知,尤其是在國防或安全等關鍵應用中。結合人類操作員和自主系統優勢的系統可能會使這些應用受益。這種整合旨在降低系統成本,提高任務性能,同時在危險或關鍵操作中保持有意義的人工控制。這種混合方法對于降低這些高風險環境中的潛在風險至關重要[3]。
最近,強化學習(RL)成功地解決了許多復雜的決策問題,例如掌握圍棋[4]、在平流層部署超壓氣球[5]和生成合成藥物[6, 7]。雖然 Atari 和 Mujoco 等成熟領域已成為前沿 RL 研究的基準[8, 9],但針對復雜領域引入模擬器以促進人類人工智能協作的探索還較少[10, 11]。然而,深度 RL 面臨的一個顯著挑戰是樣本效率低下 [12],需要與環境進行數百萬次交互,因此難以適應現實世界的問題。為了緩解這一問題,示范[13-15]、行動建議[16-18]、偏好[19-21]和獎勵塑造[22-25]等給出建議的技術已被用于引導 RL 智能體進入狀態空間的相關部分。然而,這些工作大多局限于游戲領域和由訓練有素的智能體提供建議。一個重要且相對尚未探索的方面是,在復雜的真實世界環境中,通過人類示范來提高人類與智能體協作的潛力。此外,目前有關人類與智能體協作的文獻顯示,在為人類提供有效建議而進行的智能用戶界面設計和集成方面存在明顯的不足。這種稀缺性經常導致人類與智能體之間的誤解,阻礙了人類操作員專業知識的使用。
為了應對復雜現實世界領域的挑戰,我們針對機場禁區保護系統這一特定問題開發了一種新型模擬器和用戶界面。使用案例包括一個由盟友無人機組成的機群,試圖保護限制空域免受多架無人機的入侵。根據防空領域專家的建議,模擬器的設計模擬了真實世界的動態場景。這包括無人機的速度、飛行動態、地面雷達傳感器的規格、傳感有效載荷(雷達和光電),以及嵌入 "藍色 "無人機的中和有效載荷。這種真實世界的動態變化使得環境變得復雜。環境的復雜性意味著一個天真的 RL 智能體需要多次環境交互才能學習到最優策略。考慮到在指定領域中這些交互所帶來的成本和風險,經過訓練的智能體需要具有樣本效率。我們證明,對于所提到的復雜環境,從人類或智能體演示中學習可以最大限度地減少所需的環境交互次數。一些研究[26-28]表明,當一個人監督復雜系統中的多個智能體時,監控需求的增加會對他們的工作量和認知負荷產生負面影響--這最終會阻礙工作表現。
我們證明,訓練有素的智能體具有更好的決策能力,可以減少人類操作員的工作量,提高人類-智能體團隊的績效。創建人類-智能體協作的主要目標是利用智能體和人類的優勢,同時減輕它們的劣勢。例如,智能體擅長分析龐大的數據集和根據特定模式快速做出決策等任務,表現優于人類[29]。相反,與智能體相比,人類則表現出植根于道德價值觀和語境理解的卓越決策能力 [30]。特定國防領域用例的一個特點是,作戰行動是多變的,往往極難預測,而且道德風險可能極高。為了保持人類行使權力和指揮權,我們還使用人類策略修正來糾正受訓智能體的策略。我們的研究表明,在線策略修正是提高智能體學習效果、實現最佳性能的最有效建議形式。此外,我們還證明,與人類控制未經訓練的智能體(本領域中的無人機)相比,人類在進行策略修正時的認知工作量更低。我們使用非專家人類和智能體演示,以展示我們的方法在解決人類專家有限可用性方面的穩健性。
貢獻 本文有以下貢獻:
1.介紹了一種新型多智能體模擬器,用于國防特定機場保護用例建模,模擬多個盟友和敵方無人機智能體的真實世界動態。
2.使用最先進的深度 RL 算法在新型模擬器內訓練多個智能體。
3.在模擬器內開發用戶界面,使人類操作員能夠動態控制單個或多個智能體,進行情境演示,從而實現人機協作。
4.通過經驗證明,訓練有素的智能體演示或人類與智能體的混合演示有助于智能體更快地學習。
5.比較和評估多種建議提供技術,即從演示中學習和策略修正。
6.通過一項用戶研究,比較各種建議提供技術的人類認知工作量,證明與人類完全控制智能體相比,策略修正所需的工作量更少。
人工智能(AI),即機器的智能行為,是一個已有幾十年歷史的概念,隨著計算能力的進步和理論應用的跟進,這一概念正迅速走向成熟。未來十年,人工智能有可能顯著提高整個美國防部(DoD)各組織的效率和殺傷力。作為美國防部中最小的軍種,海軍陸戰隊的定位是在戰爭的戰術和戰役層面,從人工智能即將帶來的成本節約和作戰能力提升中顯著受益。人工智能可使艦隊在許多領域受益,包括調度優化、目標選擇和圖像處理以及兵棋推演。從技術上講,這些人工智能的增強僅依賴于對現有理論和應用的合理擴展,不需要在未來十到十五年內實現新的重大技術突破。持續的國家人工智能政策制定和海軍陸戰隊高層領導的持續重視,對于在未來幾年內有效實施人工智能以應對全球對手至關重要。
隨著軍隊使用人工智能/機器學習系統實現現代化,軍事情報部門的人員需要充分了解這些系統,并將其納入聯合情報進程(JIP)。為了指導部隊開發和整合這項技術,美國防部(DOD)公開發布了《美國防部通過人工智能倫理原則》,其中包括 "公平 "原則,以減少 "意外偏見"。雖然有多種技術上的最佳實踐可以減少意外偏見,但軍事情報界也可以從商業行業采用一些非技術上的最佳實踐。本定性、多案例研究和跨案例綜合報告探討了這些商業行業的非技術最佳實踐,以減少聯合執行項目中的意外偏見。
人工智能(AI)是公認的顛覆性技術,它能迅速改變各種業務和行業。它還能改變與國家安全和國防有關的功能(流程和系統)。雖然人工智能主要不是在國防部門開發,但它有望通過提高國防相關活動的效力、效率和速度,改變未來沖突的特點。然而,雖然人工智能在替代或協助決策中的人為因素方面潛力巨大,但它仍無法取代人類的戰略思維。本文首先回顧了與人工智能技術相關的意義、當前發展和挑戰。然后,文章從國防能力、決策制定和戰略思維三個方面分析了人工智能對國家安全和國防的影響。文章最后展望了人工智能在安全與國防領域的總體前景,期待其在支持決策方面的最大價值。
人工智能(AI)是我們這個時代爭論最多的技術突破之一,顯然也是最不為人所知的技術突破之一。它讓人著迷,同時也讓人恐懼。它讓人著迷的是其潛力,從其日常應用和大國在這一領域的優勢決心中就可以看出這一點。它也常常讓人擔憂,因為進一步的進步可能會導致人類能力的超越。后者在大眾文化中尤為突出。
盡管人們經常討論人工智能的未來能力,但在商業世界中,人工智能是 "當下",并且已經滲透到我們生活的許多領域。除其他外,人工智能還能翻譯文本、識別數字媒體上的物體和人臉、識別垃圾郵件、駕駛汽車、用聊天機器人取代客戶服務、扮演私人助理的角色、創作藝術作品以及玩游戲。
人工智能已成為一個 "炒作 "詞,其影響有時被視為過于樂觀甚至深奧。因此,有必要分析這一技術的發展趨勢,并預測其對我們社會和生活的全面影響。
人工智能的所有可能性和潛在應用還有待探索。有些人的期望很高。人工智能能否為我們帶來 19 世紀末幾項技術為我們祖先的生活帶來的影響,我們拭目以待。第二次工業革命帶來了電氣化、鐵路、電報和汽車等技術,從許多方面影響了人類的生活。這些技術促進了生活水平的提高,使生活變得更快、聯系更緊密、可能性更豐富,并創造了新的社會關系和生活模式。作為第四次工業革命的一部分,人工智能有望改善人們的生活質量,提高人們的收入水平(Schwab,2016)。
與歷史上許多其他顛覆性技術一樣,人工智能有望創造機遇,但也會帶來挑戰。它可能會帶來經濟機遇(Tegge,2018 年),并通過許多積極的應用帶來益處。與先進的機器人技術和其他新興技術一起,它可能會推動人類的努力,甚至在制造、運輸、醫療保健和教育領域取代人類。
可以說,人工智能的進一步發展將帶來新的顛覆,并帶來巨大的經濟、社會、法律、倫理和安全挑戰。這些挑戰可能涉及經濟安全(因為人工智能預計將在許多領域取代人類(搶走人類的工作)),也可能削弱已實現的人權(個人和政治自由)。這可能會造成普遍的經濟不平等或政府對人口的廣泛和侵入性監控。
在國際關系中,人工智能已經成為戰略競爭的一個方面。主要大國認為走在人工智能技術的前沿對于未來全球經濟和軍事實力的競爭至關重要。雖然 "殺手機器人 "的發展仍停留在科幻電影的范疇,但人工智能已經在國防能力中得到了應用。目前,人工智能被視為一種前瞻性工具,尤其是在流程和系統中,其重點是在數據泛濫的環境中縮短決策時間(即決策)。
本文的分析僅限于人工智能在國家安全和國防領域的潛在應用。本文首先探討了什么是人工智能及其重要性,然后回顧了與人工智能相關的挑戰。文章的核心部分是研究人工智能對國家安全和國防的影響。最后,文章對人工智能技術未來的預期發展和使用進行了總結和思考。
目前,關于人工智能的公認定義尚不存在。人工智能是一個概念,或者說是一個領域,包括 "邏輯、概率和連續數學;感知、推理、學習和行動"(Russell and Norvig, 2003, p.vii)。在將人工智能描述為一個實體時,將其稱為 "智能體 "更為準確。從這個意義上說,人工智能是 "研究從環境中接收感知并執行行動的智能體"(Russell and Norvig, 2003, p.vii)。
Gartner 公司將人工智能簡單定義為 "模仿人類表現的技術,通常是通過向人類學習"(Andrews,2018 年,第 6 頁)。更具描述性的是,人工智能使機器從 "經驗 "中 "學習",適應新的輸入,并執行類似人類的任務。
多種新技術已被廣泛歸類為人工智能。如今,大多數人工智能應用在很大程度上依賴于它們的子領域,如機器學習(ML)和深度學習(DL)。這些技術可以 "訓練 "計算機通過處理大量數據和識別模式來完成特定任務。
事實上,正是機器學習技術讓人工智能系統能夠在沒有明確編程的情況下進行學習。人工智能系統通過識別以前未定義的模式來 "學習"。機器學習還能讓智能體快速吸收和消化反饋信息。其結果是,與傳統的基于人類的反饋系統相比,人工智能所連接的系統在工作中變得更加出色。然而,人工智能體并不 "理解 "它們所執行的任務,至少目前如此,在不久的將來也不會如此,而且也無從得知它們是如何得出結論的。
人工智能的魅力可能就在于,我們不能指望它按照一套預先確定的算法 "行事"。我們可以以漢森機器人公司開發的社交型仿人機器人索菲亞為例,它經常接受采訪,甚至成為了沙特阿拉伯公民。另一個原因可能是,人工智能不同于其他技術進步,因為它不需要我們像使用計算機那樣通過學習如何使用來適應。實際上,人工智能就是創造適應我們的技術,而不是相反。
在本文中,我們將交替使用 "人工智能 "一詞,作為一個概念(一項技術或一個領域)和一種能力(一個AI智能體)。
一般來說,人工智能是 "計算機系統執行通常需要人類智能的任務的能力,如視覺感知、語音識別和決策"。(卡明斯,2017 年,第 2 頁)
經濟合作與發展組織(OECD)在其定義中涉及知識和行為。經合組織將人工智能定義為 "機器和系統獲取和應用知識以及執行智能行為的能力"(經合組織,2016 年,第 86 頁)。就知識而言,以目前的發展水平,人工智能可以獲取和應用知識,但無法轉移知識。
Teradata 的 "企業人工智能現狀 "報告(伯恩,2017 年,第 3 頁)將人工智能定義為 "利用人機認知交互實現企業決策自動化的能力,機器能夠通過感知和持續學習、推理和推斷、決策和行動來增強和輔助人類能力,從而推動業務成果"。這一定義描述了人工智能的能力及其在增強和協助與業務相關的人類能力方面的目的。
最后,人工智能技術在國防領域的應用也備受關注。美國國防部將人工智能描述為 "機器執行通常需要人類智能的任務的能力--例如,識別模式、從經驗中學習、得出結論、做出預測或采取行動--無論是以數字方式還是作為自主物理系統背后的智能軟件"(USA DoD, 2018, p.5)。這一定義還涉及自主系統的使用。自主性在國防領域尤為重要,因為它能使系統(平臺)自動(如自主決策)、在程序設定的范圍內甚至 "自我管理"。人工智能對自主系統至關重要,因為它有助于在處理大量數據時做出決策。
當我們考慮人工智能時,重要的是要區分人工智能現在是什么或能做什么,以及未來可能或將要實現什么。目前,人工智能分為人工狹義智能(ANI)、人工通用智能(AGI)和人工超級智能(ASI),人工狹義智能是指在特定任務中,機器智能等同于或高于人類智能;人工通用智能是指在任何任務中,機器智能都能達到人類智能的全部水平;人工超級智能是指在任何任務中,機器智能都能超過人類智能(Spiegeleire, Maas & Sweijs, 2017)。
目前,所有現有的人工智能應用無一例外都屬于 ANI。人工智能已經以各種姿態出現在我們身邊。它往往不為人所注意,比如我們的搜索引擎、語言翻譯器或設備上的個人助理。目前,人工智能助手領域有四個領跑者: 亞馬遜的 "Alexa"、蘋果的 "Siri"、谷歌的 "Assistant "和微軟的 "Cortana"。而從 2023 年開始,由 OpenAI 公司開發的 ChatGPT 在自然語言處理領域廣受歡迎。
雖然根據目前的趨勢,專家預測人工智能將在本世紀中葉出現,但人工智能的出現時間仍存在爭議。許多專家預計,在此之后,人工智能會相對較快地出現,但很少有人預計這會引發 "人工意識"。
人工智能之所以能取得今天的重大進展,主要得益于算法質量的不斷提高(得益于計算機科學研究的進步、新的編程語言等)、計算能力的不斷增強以及數據的無處不在。
總體而言,人工智能的發展自其概念提出以來一直基于不同的技術;從 20 世紀 50 年代到 70 年代基于神經網絡,從 80 年代到 2010 年代基于機器學習,到今天則基于深度學習。事實上,主要由學術機構和研發組織完成的早期工作為我們今天看到的人工智能應用奠定了基礎。
20 世紀 50 年代末,美國正處于冷戰時期。當時的國會代表愿意在人工智能上投入巨資,將其作為更大安全戰略的一部分。當時的重點是語言翻譯,主要是俄譯英和英譯俄。1954 年至 1966 年被稱為 "樂觀的十年",然而,突破并沒有像承諾的那樣迅速到來。與人工翻譯相比,機器翻譯速度更慢、成本更高、準確性更低,因此對機器翻譯的投資被突然取消。20 世紀 70 年代初和 80 年代末的這段發展停滯期通常被稱為 "人工智能的冬天"。
隨著計算機硬件(即大功率微處理器)的強大,人們對人工智能產生了新的熱情。此外,新技術,特別是與深度學習相關的技術,以及可以在現有示例中 "訓練 "后學習任務的神經網絡,開啟了人工智能的新時代。因此,在十年內,人工智能已從研究機構和大學的原型開發轉向工業和現實世界的應用。
盡管該領域取得了進步,但一些人認為,包括紐約大學心理學教授、長期對人工智能持懷疑態度的加里-馬庫斯(Gary Marcus)在內,"人工智能的歷史已經過去了六十年,我們的機器人所能做的不過是播放音樂、掃地和競標廣告"(馬庫斯,2018 年,第 5 頁)。還有一些人,如 Siri 核心專利的共同作者呂克-朱莉婭(Luc Julia)聲稱,人工智能甚至還不存在(Cagan,2019)。事實上,人工智能的發展仍然缺乏一個有凝聚力的、超前的理論基礎,而且是以一種臨時的方式進行探索。
就其未來發展而言,人工智能可能將與物聯網的發展齊頭并進。也就是說,人工智能(通過機器學習)可以迅速從數據中得出意義。它可以識別智能傳感器和設備數據中的模式并檢測異常情況。這種更接近數據收集地點的潛力可能會引導人工智能的未來朝著小型系統的方向發展。
開發和使用人工智能的一個基本特征是,投資規模并不是獲得技術效益的關鍵。在商業領域,開發人工智能解決方案往往只需要數據和機器來解決具體問題,最重要的是要有 "商業案例"。因此,成功的關鍵在于在定義案例時要有清晰的愿景。這使得那些在人工智能發展方面投入資金看似較少的國家和組織也能獲得巨大收益。
在許多人的想象中,人工智能的發展也會引發 "末日 "景象。然而,盡管科幻小說和電影中描繪了這樣的場景,但能夠自我維持、自我完善并有可能主宰人類的 "超級智能 "的實現,至少在不久的將來,仍然是一種神秘的可能性。
在社會中引入人工智能的結果并非都是有益的。與這項技術的實施相伴而生的破壞將對安全產生或隱或顯的影響。
例如,在經濟領域,人工智能系統預計將影響就業市場,可能會造成失業并加劇不平等。除了社會和經濟方面的挑戰,還應該分析其他一些問題,以評估人工智能的潛在影響。如今,我們可以確定幾個與人工智能相關的問題,如其相關性(在功能和適用性方面)及其負責任的使用(關于其決策的自主性和數據的獲取)。
關于人工智能的相關性,使用人工智能的一個重要方面是提供 "訓練 "人工智能系統所需的數據源。由于人工智能需要數據,可用的數據量越大,它能 "學習 "的算法就越多,人工智能的成果也就越好。數據創建量在持續增長。例如,2013 年,90% 的可用數據都是在前兩年創建的(Jacobson,2013 年),這為人工智能的發展創造了非常有利的條件。對數據的這種需求使得云服務、社交媒體、電子商務或其他行業中能夠獲得大量數據的大公司自然而然地在各種人工智能領域處于領先地位。這包括語音識別、面部識別和自然語言處理。
因此,數據的可用性與人工智能的相關性密切相關。就目前的技術水平而言,使用人工智能處理數據有其局限性。只要相關數據的范圍較窄,人工智能就能發揮作用。換句話說,人工智能要求數據集具有相當明確的特征,包括形狀類型或模式系列。目前,使用人工智能支持決策的最大障礙是人工智能潛在的 "主觀性"。更具體地說,提供給人工智能系統的數據中的偏差會在其決策中復制或放大偏差。人工智能的運行在很大程度上取決于是否有可靠的、經過精心挑選的、符合目標的數據(Poussart & Wyman, 2018)。
人工智能得出結論的過程不受用戶的直接控制。也就是說,人工智能做出的 "結論 "并不一定是最初的、有順序的算法或預測步驟的結果,因為人工智能體會 "學習"。因此,人工智能的進一步發展及其在社會中的應用絕不能處理不當。另一個值得關注的問題是網絡領域的隱私問題。控制問題還包括利用人工智能進行虛假宣傳的問題,如 deepfake(Villasenor,2019 年)。自動監控私人數據等做法以及上述挑戰可能會導致公眾對人工智能的不信任,甚至引發社會對人工智能的強烈批評。因此,數據驅動的人工智能系統的發展必須確保適應數據收集、使用和存儲的法律框架(例如,見歐洲議會,2018 年)。
最后,賦予人工智能系統做出可能改變生活的決定的自主程度仍然是一個關鍵問題。理想情況下,應確保人工智能體只能提供建議,而不是自主做出決定。然而,這并不總是可行的,尤其是當人工智能用于某些國防平臺時,決策速度至關重要。
人工智能的兩大優勢是可擴展性和可用性。人工智能系統可以每周 7 天、每天 24 小時運行,而且不會疲勞、生病或感到壓力。因此,雖然人工智能并不比人類更聰明,但它的生產力要高得多。這些特點使其更容易以較低的成本進行采購。
諾亞-哈拉里(Noah Harari)完美地描述了在包括人工智能在內的大量基于新技術的新經濟中,人變得 "無關緊要"(例如不需要)的可能性(Harari,2018)。這是 "傳統 "資本主義問題的演變,在 "傳統 "資本主義中,許多人感到 "被剝削"。除此之外,哈拉里警告說,將所有信息和權力集中于一處的愿望是 20 世紀專制政權的主要障礙,而在 21 世紀可能會成為他們的決定性優勢。人工智能使之成為可能,因為它可以集中處理大量信息,使集中式系統遠比分散式系統更有效率。
人工智能在國防(即軍事事務)中的應用尚未形成概念,其發展預計將隨著其實施而發展。假定可以將人工智能與其他一些發明相比較,這些發明已在軍事領域得到應用,并為那些使用它的人帶來了巨大優勢。全球定位系統(GPS)就是一個例子。現代互聯網和手持式 GPS 的前身是美國研究人員在 20 世紀 70 年代開發的。20 年后,在第一次海灣戰爭("沙漠風暴行動")中,美軍對信息技術和精確彈藥的廣泛應用震驚了世界。這次行動的成功鞏固了美國幾十年來作為卓越軍事強國的地位。
雖然人工智能在國防領域的應用尚未形成概念,但除美國之外的經濟和軍事強國不會等待。正如法國前國防部長弗洛倫斯-帕利(Florence Parly,2019 年)所說,人工智能對法國國防部的潛在好處是強大而眾多的。當大國的兵力已經在磨礪自己的算法時,法國不能冒險錯過這一技術轉變。這僅僅是今天和未來保持相關性的當務之急。
人工智能已應用于許多新平臺,例如 F-35 噴氣式戰斗機、現代水面戰艦、導彈防御火控系統和網絡防御。它可能適用于許多以決策速度為特征的新興系統。利用人工智能工具制定戰略和作戰行動方針的工作還有待開發。
人工智能在未來可能發揮重要作用的一個領域是無人戰爭(自主系統)。在過去的幾十年里,戰爭的概念已經發生了演變,包括高科技戰場的能力發展。無人機、高超音速導彈、自主系統(即武器化機器人)、水面鼬鼠群(艦船)等平臺以及人工智能的使用,都有助于想象戰爭性質的變化。這種 "新 "戰爭的主要特點之一是武器系統的自主性增強,以減少或避免對戰場上稀缺、緩慢和昂貴的人力存在的依賴。在這種情況下,人類不再參與導航、控制和決策過程。未來的戰場如果高度技術化,在地面和戰斗中心(如決策)的人類將越來越少。
目前,人工智能的開發大多在商業部門(私營公司)進行。目前在自主系統開發方面,商業與軍事研發支出存在巨大差異,這可能會對軍事系統中的自主類型和質量產生連帶影響。在國防中使用人工智能和自主系統的一個關鍵問題是,國防部門是否能夠開發和測試安全可控的自主系統,尤其是發射武器的系統(Cummings,2017)。
目前,人工智能在國家安全和國防領域的主要用途是對越來越多的傳感器收集到的大量數據進行分析。人工智能用于國家安全目的的一個例子是美國國防部高級研究計劃局(DARPA,2019 年)試圖開發基于模式的人工智能能力(詳見:Pezzulo & Butz,2012 年),以加強對復雜世界事件的推理并產生可操作的洞察力。其結果應該是能夠快速理解世界事件,這對于為國家安全工作(即決策制定)提供信息至關重要。
國際關系、人類社會甚至自然界(物理環境)的變化本身就會對國家安全產生重大影響,也可能構成產生更廣泛影響的因果鏈的一部分。這些事件往往不是簡單的偶發事件,而是由眾多次要因素(包括行為體和時間軸)組成的復雜現象。
面對可用但非結構化數據量不斷增長的挑戰,國防(情報)部門顯然需要一種工具來揭示和理解不同的事件、它們之間可能存在的關系及其基本要素。這就是人工智能發揮作用的地方,因為能夠創造出比對手更快、提供更好決策的人工智能體的國防部門將占據優勢。
然而,挑戰在于人工智能需要數據,而數據可能存在偏差。為了確保決策的可靠性,必須了解不良或錯誤("中毒")數據對決策的負面影響,以及如何檢測和隔離不良數據。這是一個商業部門目前尚未解決,但國防部門必須解決的系統問題。
人工智能在軍事領域的應用可以通過 OODA(觀察、定位、決定、行動)循環來概念化(詳見:Poussart & Wyman, 2018)。由于當前的技術發展水平,人工智能目前主要用于觀察階段。對應用(如圖像識別、數據挖掘技術)的信心至關重要,但目前可能難以實現。決定 "階段會帶來法律問題,尤其是涉及到自主系統時。實施能夠做出決定的自主系統是可行的,但需要標準和協議(控制的法律方面)。當做出反應的時間比人類的反應時間短時,就需要實施自動反應(行動階段)。這一階段與 "決定 "階段一樣,無疑是最敏感的階段,需要人工智能和自主系統達到非常成熟的發展水平。總的來說,人工智能有望改變未來沖突的性質,因為它有可能提高整個 OODA 循環中與防御相關活動的效果、效率和速度。
要評估人工智能對國防的影響,就必須預見到人工智能將給國家安全和國防概念本身帶來的深刻變革。以往的工業革命不僅給生產方式,也給人們的生活方式帶來了重大變化。有鑒于此,我們當然可以預見,作為第四次工業革命的一部分,人工智能將引發社會結構、關系和價值觀的變革。
目前,人工智能和新技術往往只被視為對包括國防在內的現有體制框架的擴充。北約的小冊子《戰爭愿景:2036 年》就是將未來武器和軍事能力與現有政治、社會和軍事結構疊加在一起的例子之一(菲利普斯和科爾,2016 年)。人工智能在國防領域的應用,尤其是在自主系統中的應用,也可能導致決策者產生某種自滿情緒,因為人們期望它能消除或最大限度地減少自己兵力中出現(人類)傷亡的風險。
人工智能在戰略思考方面的應用能力仍有待提高。雖然人類似乎可以利用人工智能生成內容和回答問題,但該工具仍無法在地緣政治分析和理解行為體行為方面進行 "思考"。簡而言之,人工智能仍然沒有 "戰略文化"。
一項與美國國家戰略相關的研究就說明了這一點。Elena Wicker(2021 年)利用機器學習創建了人工遞歸神經網絡 "bernardcodie "程序。她用美國國家安全戰略的全部語料庫數據對其進行了訓練。這意味著自該文件于 1987 年授權制定以來,美國發布的所有 17 項國家安全戰略。作者使用一個人工智能工具,在前 17 個國家安全戰略的基礎上創建了新的美國國家安全戰略。結果似乎是相關的,但顯示出詞語的選擇是分析的核心,表明該工具嫻熟地識別了戰略語言中的模式和一致性。因此,Elena Wicker 認為,利用人工智能制定戰略的方法仍需改進,不能取代人類的直覺。盡管如此,人工智能在與人類分析相結合時還是很有用的,因為它可以提供一個全新的視角(復雜系統中智能體之間的聯系),拓展人類對戰略的理解。
同樣,我們用一些與全球安全和國防有關的簡短問題來測試人工智能的能力。這是 2023 年 1 月 13 日與基于人工智能的在線工具 ChatSonic(網址://writesonic.com/chat)"討論 "的兩個問題:
Drazen Smiljanic:"在烏克蘭打敗俄羅斯的最佳戰略是什么?
ChatSonic:"在烏克蘭擊敗俄羅斯的最佳戰略是烏克蘭不讓俄羅斯兵力包圍。要做到這一點,可以對俄軍發動破壞性攻擊,阻止其兵力集結,同時開展防御和進攻行動,為反擊創造機會。烏克蘭還必須繼續接受美國及其盟國的援助和培訓,并繼續投資和發展尖端軍事技術,以保持對俄羅斯的技術優勢。" DS: "克羅地亞的最佳防御戰略應該是什么?"
ChatSonic:"對克羅地亞來說,最好的國防戰略是在該地區保持強大的軍事存在,同時投資和發展尖端軍事技術,以保持對潛在對手的技術優勢。克羅地亞還應繼續加強與北約和其他地區盟國的聯系,以確保集體安全。克羅地亞還應明確表示,如果局勢升級,它將不會派遣任何部隊,以表明它致力于和平解決地區緊張局勢和沖突"。
雖然這些答案似乎很有意義,但它們并不是戰略制定、地緣政治分析或類似領域通常使用的任何方法的產物。結果表明,就目前文本生成和語言翻譯的發展而言,人工智能仍可被理解為一系列具有自然語言處理能力的算法,這是其能力的核心。而不是更多。不過,人工智能可以提供一個獨特的機會,從整體上評估戰略文件的 "體裁",并識別所用語言的模式和一致性。
幾乎每一天都會有關于人工智能的新文章和討論,關于它將給我們的日常生活帶來哪些革命性變化,以及關于主要經濟大國所做的大規模投資。然而,與人工智能相關的話題及其未來發展可能會引起爭議。末日論者對可能由人工智能和智能機器統治的未來抱有烏托邦式的幻想,而技術理想主義者和烏托邦主義者則認為人工智能相關技術只會促進人類福祉。在這兩者之間,還有一些打著哈欠的懷疑論者,他們要么聲稱人工智能領域取得任何重大進展(成本效益方面)的時間太長,要么甚至認為真正的人工智能根本不存在。事實上,人工智能技術已經出現在我們身邊,而且其潛力還在不斷增長。
目前,預計在不久的將來,人工智能發展的大趨勢不會放緩。然而,這種謹慎并非毫無道理。人工智能的發展已經經歷了兩次 "人工智能寒冬",因此在未來一段時間內也應考慮到這種可能性。
人工智能真正令人擔憂的是其未來的應用。在樂觀的情況下,人工智能將提供一個經濟機遇,如果平衡和處理得當,可能會帶來許多積極的應用。預計人工智能幾乎會對社會的各個方面產生影響:勞動力市場、交通、醫療保健、教育和國家安全。在最好的情況下,它將成為適應人類的技術,并將對人類和人類產生深遠的變革。
人工智能在國防能力中的應用呈增長趨勢。也可以預見,人工智能將在戰略競爭中被用作弱者(就軍事實力而言)的工具。因此,可能會出現以不對稱為主的競爭或沖突。在這種情況下,可以將人工智能作為一種手段,更準確地接觸和處理目標國家和社區的個人及其態度和情緒。這樣,人工智能就可以被用來試圖分散甚至破壞對手社會的穩定,更準確地說,是破壞其輿論的穩定。一些國家,特別是非民主國家,也可能決定利用人工智能來觀察和控制本國公民的態度和行為。
人工智能作為安全和國防領域潛在的游戲規則改變者,其最有益的用途可能是決策。深度學習算法為改善態勢感知和對信息環境的理解提供了前所未有的機會,使人工智能服務對最高級別的決策大有裨益。未來,人工智能有望在識別趨勢和驅動因素以及各類人類活動的潛在結果方面提供獨一無二的深刻見解。這將使其在前瞻性分析、處理不確定性和復雜性方面大有用武之地。
軍事分析人員可利用公開數據庫深入了解相關國際事件的發展。然而,這些數據庫依賴于以英語為基礎、經過整理的資料來源。這可能會導致偏差,不利于分析質量,尤其是在關注英語不是主要語言的地區和行動者時更是如此。
本研究旨在利用全球事件、語言和語調數據庫(GDELT)數據集來預測影響烏克蘭戰爭的重要因素,并將使用提取的數據和機器學習技術來開發預測模型。該項目旨在實現兩個目標。首先,提供一種從大數據集合中自動提取和預處理相關事件數據的方法。其次,將不同的機器學習模型應用于提取的數據,以預測重要因素,從而識別持續沖突中的事件趨勢。
所展示的數據采購可自由擴展到不同地區、行為體或其組合。在應用程序接口(API)中配置所需的參數后,相關的 GDELT 事件將自動提取。
由于本論文的重點在于預測,因此建模技術的應用側重于時間序列和遞歸神經網絡(RNN)模型。在測試過的時間序列預測模型中,自回歸綜合移動平均(ARIMA)模型與其他候選模型和天真模型相比,顯示出良好的預測性能。應用時間序列模型預測一至三個月的中期趨勢取得了最佳結果。
為了補充時間序列模型并利用 GDELT 的短期更新間隔,我們建立了不同類型的 RNN,并測試了它們在事件數量短期預測方面的性能。簡單 RNN 與長短期記憶 (LSTM) RNN 進行了比較,結果發現,簡單 RNN 的性能不如 LSTM RNN 模型。由此得出的結論是,數據中確實存在影響模型預測能力的長期和短期效應。
除了最初的跨語言 GDELT 數據庫,RNN 模型還運行了僅基于英語來源的 GDELT 數據提取,以及來自武裝沖突地點和事件數據項目(ACLED)數據庫的數據提取。
總體而言,在幾乎所有測試的模型中,使用基于英語來源的數據集都能獲得更好的均方根誤差值。不過,這并不一定意味著模型在捕捉現實生活中的變化方面表現更好。一項補充性探索數據分析(EDA)得出結論,在以英語為基礎的報告中,一系列事件的代表性不足。這一點在烏克蘭戰爭前奏期間尤為明顯,因為西方公眾對該地區的興趣和英語報道的一致性有時會降溫。事件報道不足導致數據的可變性較低,一致性較高,從而提高了基于英語模式的績效指標。
關于 RNN 模型在 ACLED 數據庫中的性能,除了 "爆炸/遠程暴力 "和 "戰斗 "這兩種事件類型外,本研究選擇的模型無法應用于 ACLED 數據提取。造成兼容性低的原因是報告事件的數量較少,以及報告中的空白與所選模型的相關性不高。
不同數據源之間的性能比較表明,要持續產生可靠的結果,挑選合適的預測因子和對結果進行初步分析并不容易實現自動化。強烈建議每次從 GDELT 首次提取新型數據子集時都進行一次 EDA。
圖 3.1. GDELT 事件數據庫中一個數據元素的示意圖。矩形代表中心數據元素,即事件。圓圈代表屬性,屬性 "GlobalEventID "用作唯一標識符。提及和音調 "屬性是灰色的,因為它不屬于本工作的范圍。
隨著技術的飛速發展和威脅環境變得更加復雜,今天的海軍行動經常面臨著具有挑戰性的決策空間。人工智能(AI)的進步為解決海軍行動中日益復雜的問題提供了潛在的解決方案。未來的人工智能系統提供了潛在的意義深遠的好處--提高對態勢的認識,增加對威脅和對手能力和意圖的了解,識別和評估可能的戰術行動方案,并提供方法來預測行動方案決定的結果和影響。人工智能系統將在支持未來海軍作戰人員和保持作戰和戰術任務優勢方面發揮關鍵作用。
人工智能系統為海戰提供了優勢,但前提是這些系統的設計和實施方式能夠支持有效的作戰人員-機器團隊,改善作戰情況的不確定性,并提出改善作戰和戰術結果的建議。實施人工智能系統,以滿足海軍應用的這些苛刻需求,給工程設計界帶來了挑戰。本文確定了四個挑戰,并描述了它們如何影響戰爭行動、工程界和海軍任務。本文提供了通過研究和工程倡議來解決這些挑戰的解決思路。
人工智能是一個包括許多不同方法的領域,目的是創造具有智能的機器(Mitchell 2019)。自動化系統的運作只需要最小的人類輸入,并經常根據命令和規則執行重復性任務。人工智能系統是自動化機器,執行模仿人類智能的功能。它們將從過去的經驗中學習到的新信息融入其中,以做出決定并得出結論。
如表1所述,人工智能系統有兩種主要類型。第一種類型是明確編程的專家系統。Allen(2020,3)將專家系統描述為手工制作的知識系統,使用傳統的、基于規則的軟件,將人類專家的主題知識編入一長串編程的 "如果給定x輸入,則提供y輸出"的規則。這些系統使用傳統的編程語言。第二種類型是ML系統,從大型數據集中進行訓練。ML系統自動學習并從經驗中改進,而不需要明確地進行編程。一旦ML系統被 "訓練",它們就被用于操作,以產生新的操作數據輸入的結果。
表1. 兩類人工智能系統
人工智能系統--包括專家系統和學習系統--為海軍提供了巨大的潛力,在大多數任務領域有不同的應用。這些智能系統可以擴展海軍的能力,以了解復雜和不確定的情況,制定和權衡選擇,預測行動的成功,并評估后果。它們提供了支持戰略、作戰計劃和戰術領域的潛力。
本文確定了工程設計界必須解決的四個挑戰,以便為未來海戰任務實施人工智能系統。表2強調了這四個挑戰領域。這些挑戰包括:(1)復雜的海戰應用領域;(2)需要收集大量與作戰相關的數據來開發、訓練和驗證人工智能系統;(3)人工智能系統工程的一些新挑戰;(4)存在對手的人工智能進展,不斷變化和發展的威脅,以及不斷變化的人工智能系統的網絡弱點。本文側重于海軍戰爭的四個挑戰領域,但認識到這些挑戰可以很容易地被概括為整個軍隊在未來人工智能系統可能應用的所有戰爭領域中廣泛存在的挑戰。
表2. 為海軍實施人工智能系統的四個挑戰領域
人工智能正被視為一種能力,可應用于廣泛的應用,如批準貸款、廣告、確定醫療、規劃航運路線、實現自動駕駛汽車和支持戰爭決策。每個不同的應用領域都提出了一系列的挑戰,人工智能系統必須與之抗衡,才能成為一種增加價值的可行能力。表3比較了一組領域應用的例子,從潛在的人工智能系統解決方案的角度說明了挑戰的領域。該表在最上面一行列出了一組10個因素,這些因素對一個特定的應用程序產生了復雜性。根據每個因素對作為實施人工智能的領域的整體復雜性的貢獻程度,對六個應用領域的特征進行了定性評估。顏色代表低貢獻(綠色)、中貢獻(黃色)和高貢獻(紅色)。
表3中最上面一行顯示的特征包括: (1)認識上的不確定性水平(情況知識的不確定性程度),(2)情況的動態性,(3)決策時間表(可用于決策的時間量),(4)人類用戶和人工智能系統之間的互動所涉及的錯綜復雜的問題、 (5)資源的復雜性(數量、類型、它們之間的距離以及它們的動態程度),(6)是否涉及多個任務,(7)所需訓練數據集的復雜性(大小、異質性、有效性、脆弱性、可獲得性等 8)對手的存在(競爭者、黑客或徹頭徹尾的敵人),(9)可允許的錯誤幅度(多少決策錯誤是可以接受的),以及(10)決策后果的嚴重程度。該表的定性比較旨在提供一個高層次的相對意義,即基于一組樣本的貢獻因素,不同應用領域的不同復雜程度。
表3. 影響應用復雜性的因素比較
對于所有的應用領域來說,人工智能系統的工程都是具有挑戰性的。人工智能系統在本質上依賴于具有領域代表性的數據。獲得具有領域代表性的數據會帶來基于數據大小、可用性、動態性和不確定性的挑戰。決策時間--由情況的時間動態決定--會給人工智能系統工程帶來重大挑戰--特別是當一個應用領域的事件零星發生和/或意外發生時;以及當決策是時間緊迫的時候。具有更多決策時間、充分訪問大型數據集、直接的用戶互動、完善的目標和非致命后果的應用,如貸款審批、廣告、醫療診斷(在某種程度上)面臨工程挑戰,但其復雜程度較低。確定最佳運輸路線和為自動駕駛汽車設計AI系統是更復雜的工作。這些應用是動態變化的,做決定的時間較短。航運路線將在可能的路線數量上具有復雜性--這可能會導致許多可能的選擇。然而,航運錯誤是有空間的,而且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的空間非常小。在這種應用中,決策失誤會導致嚴重的事故。
影響開發支持海戰決策的人工智能系統的因素在表3所示的所有類別中都具有高度的復雜性。因此,戰術戰爭領域對工程和實施有效的人工智能系統作為解決方案提出了特別棘手的挑戰。表4強調了導致這種復雜性的海戰領域的特點。作為一個例子,海軍打擊力量的行動可以迅速從和平狀態轉變為巨大的危險狀態--需要對威脅保持警惕并采取適當的反應行動--所有這些都是在高度壓縮的決策時間內進行。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是網絡空間,導致需要處理多種時間緊迫的任務。由于海軍和國防資產在艦艇、潛艇、飛機、陸地和太空中,戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用。制定有效的戰術行動方案也必須在高度動態的作戰環境中進行,并且只有部分和不確定的情況知識。決策空間還必須考慮到指揮權、交戰規則和戰術理論所帶來的限制。人類作為戰術決策者的角色增加了決策空間的復雜性--信息過載、操作錯誤、人機信任和人工智能的模糊性/可解釋性問題等挑戰。最后,對于戰術決策及其可能的后果來說,風險可能非常大。
表4. 導致戰術決策復雜性的因素
解決高度復雜的決策領域是對海軍的挑戰。人工智能為解決海軍作戰的復雜性提供了一個潛在的解決方案,即處理大量的數據,處理不確定性,理解復雜的情況,開發和評估決策選擇,以及理解風險水平和決策后果。Desclaux和Prestot(2020)提出了一個 "認知三角",其中人工智能和大數據被應用于支持作戰人員,以實現信息優勢、控制論信心和決策優勢。約翰遜(2019年)開發了一個工程框架和理論,用于解決高度復雜的問題空間,這些問題需要使用智能和分布式人工智能系統來獲得情況意識,并做出適應動態情況的協作行動方案決定。約翰遜(2020a)建立了一個復雜的戰術場景模型,以證明人工智能輔助決策對戰術指揮和控制(C2)決策的好處。約翰遜(2020b)開發了一個預測分析能力的概念設計,作為一個自動化的實時戰爭游戲系統來實施,探索不同的可能的戰術行動路線及其預測的效果和紅色部隊的反應。首先,人工智能支持的C2系統需要描述戰術行動期間的復雜程度,然后提供一個自適應的人機組合安排來做出戰術決策。這個概念包括根據對目前戰術情況的復雜程度最有效的方法來調整C2決策的自動化水平(人與機器的決策角色)。約翰遜(2021年)正在研究這些概念性工程方法在各種防御用例中的應用,包括空中和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。
在海軍作戰中實施人工智能系統的一個額外挑戰是在戰術邊緣施加的限制。分散的海軍艦艇和飛機的作戰行動構成了戰術邊緣--在有限的數據和通信下作戰。"在未來,戰術邊緣遠離指揮中心,通信和計算資源有限,戰場形勢瞬息萬變,這就導致在嚴酷復雜的戰地環境中,網絡拓撲結構連接薄弱,變化迅速"(Yang et. al. 2021)。戰術邊緣網絡也容易斷開連接(Sridharan et. al. 2020)。相比之下,許多商業人工智能系統依賴于基于云的或企業內部的處理和存儲,而這些在海戰中是不存在的。在戰術邊緣實施未來的人工智能系統時,必須進行仔細的設計考慮,以了解哪些數據和處理能力可用。這可能會限制人工智能系統在邊緣所能提供的決策支持能力。
在軍事領域使用人工智能必須克服復雜性的挑戰障礙,在某些情況下,人工智能的加入可能會增加復雜性。辛普森等人(2021)認為,將人工智能用于軍事C2可能會導致脆弱性陷阱,在這種情況下,自動化功能增加了戰斗行動的速度,超出了人類的理解能力,最終導致 "災難性的戰略失敗"。Horowitz等人(2020)討論了通過事故、誤判、增加戰爭速度和升級以及更大的殺傷力來增加國際不穩定和沖突。Jensen等人(2020)指出,人工智能增強的軍事系統增加的復雜性將增加決策建議和產生的信息的范圍、重要性和意義的不確定性;如果人類決策者對產出缺乏信心和理解,他們可能會失去對人工智能系統的信任。
實施人工智能系統的第二個挑戰是它們依賴并需要大量的相關和高質量的數據用于開發、訓練、評估和操作。在海戰領域滿足這些數據需求是一個挑戰。明確編程的專家系統在開發過程中需要數據進行評估和驗證。ML系統在開發過程中對數據的依賴性甚至更大。圖1說明了ML系統如何從代表作戰條件和事件的數據集中 "學習"。
ML系統的學習過程被稱為被訓練,開發階段使用的數據被稱為訓練數據集。有幾種類型的ML學習或訓練--它們是監督的、無監督的和強化的方法。監督學習依賴于地面真相或關于輸出值應該是什么的先驗知識。監督學習算法的訓練是為了學習一個最接近給定輸入和期望輸出之間關系的函數。無監督學習并不從地面真相或已知的輸出開始。無監督學習算法必須在輸入數據中推斷出一個自然結構或模式。強化學習是一種試錯法,允許代理或算法在獎勵所需行為和/或懲罰不需要的行為的基礎上學習。所有三種類型的ML學習都需要訓練數據集。在部署后或運行階段,ML系統繼續需要數據。
圖1顯示,在運行期間,ML系統或 "模型 "接收運行的實時數據,并通過用其 "訓練 "的算法處理運行數據來確定預測或決策結果。因此,在整個系統工程和采購生命周期中,ML系統與數據緊密相連。ML系統是從訓練數據集的學習過程中 "出現 "的。ML系統是數據的質量、充分性和代表性的產物。它們完全依賴于其訓練數據集。
圖1. 使用數據來訓練機器學習系統
美國海軍開始認識到對這些數據集的需求,因為許多領域(戰爭、供應鏈、安全、后勤等)的更多人工智能開發人員正在了解人工智能解決方案的潛在好處,并開始著手開發人工智能系統。在某些情況下,數據已經存在并準備好支持人工智能系統的開發。在其他情況下,數據存在但沒有被保存和儲存。最后,在其他情況下,數據并不存在,海軍需要制定一個計劃來獲得或模擬數據。
收集數據以滿足海軍領域(以及更廣泛的軍事領域)的未來人工智能/ML系統需求是一個挑戰。數據通常是保密的,在不同的項目和系統中被分隔開來,不容易從遺留系統中獲得,并且不能普遍代表現實世界行動的復雜性和多樣性。要從并非為數據收集而設計的遺留系統中獲得足夠的數據,可能非常昂貴和費時。數據收集可能需要從戰爭游戲、艦隊演習、系統測試、以及建模和模擬中收集。此外,和平時期收集的數據并不代表沖突和戰時的操作。海軍(和軍方)還必須教導人工智能系統在預計的戰時行動中發揮作用。這將涉及想象可能的(和可能的)戰時行動,并構建足夠的ML訓練數據。
數據收集的另一個挑戰是潛在的對抗性黑客攻擊。對于人工智能/ML系統來說,數據是一種珍貴的商品,并提出了一種新的網絡脆弱性形式。對手可以故意在開發過程中引入有偏見或腐敗的數據,目的是錯誤地訓練AI/ML算法。這種邪惡的網絡攻擊形式可能很難被發現。
海軍正在解決這一數據挑戰,開發一個數據基礎設施和組織來管理已經收集和正在收集的數據。海軍的Jupiter計劃是一個企業數據和分析平臺,正在管理數據以支持AI/ML的發展和其他類型的海軍應用,這些應用需要與任務相關的數據(Abeyta,2021)。Jupiter努力的核心是確定是否存在正確的數據類型來支持人工智能應用。為了生產出在行動中有用的人工智能/ML系統,海軍需要在游戲中保持領先,擁有能夠代表各種可能情況的數據集,這些情況跨越了競爭、沖突和危機期間的行動范圍。因此,數據集的開發和管理必須是一項持續的、不斷發展的努力。
第三個挑戰是,人工智能系統的工程需要改變傳統的系統工程(SE)。在傳統系統中,行為是設定的(確定性的),因此是可預測的:給定一個輸入和條件,系統將產生一個可預測的輸出。一些人工智能解決方案可能涉及到系統本身的復雜性--適應和學習--因此產生不可預見的輸出和行為。事實上,一些人工智能系統的意圖就是要做到這一點--通過承擔一些認知負荷和產生智能建議,與人類決策者合作。表5強調了傳統系統和人工智能系統之間的區別。需要有新的SE方法來設計智能學習系統,并確保它們對人類操作者來說是可解釋的、可信任的和安全的。
SE作為一個多學科領域,在海軍中被廣泛使用,以將技術整合到連貫而有用的系統中,從而完成任務需求(INCOSE 2015)。SE方法已經被開發出來用于傳統系統的工程設計,這些系統可能是高度復雜的,但也是確定性的(Calvano和John 2004)。如表5所述,傳統系統具有可預測的行為:對于一個給定的輸入和條件,它們會產生可預測的輸出。然而,許多海軍應用的人工智能系統在本質上將是復雜的、適應性的和非決定性的。Raz等人(2021年)解釋說,"SE及其方法的雛形基礎并不是為配備人工智能(即機器學習和深度學習)的最新進展、聯合的多樣化自主系統或多領域操作的工程系統而設想的。" 對于具有高風險后果的軍事系統來說,出錯的余地很小;因此,SE過程對于確保海軍中人工智能系統的安全和理想操作至關重要。
表5. 傳統系統和人工智能系統的比較
在整個系統生命周期中,將需要改變SE方法,以確保人工智能系統安全有效地運行、學習和適應,以滿足任務需求并避免不受歡迎的行為。傳統的SE過程的大部分都需要轉變,以解決人工智能系統的復雜和非確定性的特點。在人工智能系統的需求分析和架構開發階段需要新的方法,這些系統將隨著時間的推移而學習和變化。系統驗證和確認階段將必須解決人工智能系統演化出的突發行為的可能性,這些系統的行為不是完全可預測的,其內部參數和特征正在學習和變化。運營和維護將承擔重要的任務,即隨著人工智能系統的發展,在部署期間不斷確保安全和理想的行為。
SE界意識到,需要新的流程和實踐來設計人工智能系統。國際系統工程師理事會(INCOSE)最近的一項倡議正在探索開發人工智能系統所需的SE方法的變化。表6強調了作為該倡議一部分的五個SE重點領域。除了非決定性的和不斷變化的行為,人工智能系統可能會出現新類型的故障模式,這些故障模式是無法預料的,可能會突然發生,而且其根本原因可能難以辨別。穩健設計--或確保人工智能系統能夠處理和適應未來的情景--是另一個需要新方法的SE領域。最后,對于有更多的人機互動的人工智能系統,必須仔細注意設計系統,使它們值得信賴,可以解釋,并最終對人類決策者有用。
表6.人工智能系統工程中的挑戰(改編自:Robinson,2021)。
SE研究人員正在研究人工智能系統工程所涉及的挑戰,并開發新的SE方法和對現有SE方法的必要修改。Johnson(2019)開發了一個SE框架和方法,用于工程復雜的適應性系統(CASoS)解決方案,涉及分布式人工智能系統的智能協作。這種方法支持開發智能系統的系統,通過使用人工智能,可以協作產生所需的突發行為。Johnson(2021)研究了人工智能系統產生的潛在新故障模式,并提出了一套跨越SE生命周期的緩解和故障預防策略。她提出了元認知,作為人工智能系統自我識別內部錯誤和失敗的設計方案。Cruz等人(2021年)研究了人工智能在空中和導彈防御應用中使用人工智能輔助決策的安全性。他們為計劃使用人工智能系統的軍事項目編制了一份在SE開發和運行階段需要實施的策略和任務清單。Hui(2021年)研究了人類作戰人員與人工智能系統合作進行海軍戰術決策時的信任動態。他制定了工程人工智能系統的SE策略,促進人類和機器之間的 "校準 "信任,這是作為適當利用的最佳信任水平,避免過度信任和不信任,并在信任失敗后涉及信任修復行動。Johnson等人(2014)開發了一種SE方法,即協同設計,用于正式分析人機功能和行為的相互依賴性。研究人員正在使用協同設計方法來設計涉及復雜人機交互的穩健人工智能系統(Blickey等人,2021年,Sanchez 2021年,Tai 2021年)。
數據的作用對于人工智能系統的開發和運行來說是不可或缺的,因此需要在人工智能系統的SE生命周期中加入一個持續不斷的收集和準備數據的過程。Raz等人(2021)提出,SE需要成為人工智能系統的 "數據策劃者"。他們強調需要將數據策劃或轉化為可用的結構,用于開發、訓練和評估AI算法。French等人(2021)描述了需要適當的數據策劃來支持人工智能系統的發展,他們強調需要確保數據能夠代表人工智能系統將在其中運行的預期操作。他們強調需要安全訪問和保護數據,以及需要識別和消除數據中的固有偏見。
SE界正處于發展突破和進步的早期階段,這些突破和進步是在更復雜的應用中設計人工智能系統所需要的。這些進展需要與人工智能的進展同步進行。在復雜的海軍應用以及其他非海軍和非軍事應用中實施人工智能系統取決于是否有必要的工程實踐。SE實踐必須趕上AI的進步,以確保海軍持續的技術優勢。
海軍在有效實施人工智能系統方面面臨的第四個挑戰是應對對手。海軍的工作必須始終考慮對手的作用及其影響。表7確定了在海軍實施人工智能系統時必須考慮的與對手有關的三個挑戰:(1)人工智能技術在許多領域迅速發展,海軍必須注意同行競爭國的軍事應用進展,以防止被超越,(2)在海軍應用中實施人工智能系統和自動化會增加網絡脆弱性,以及(3)海軍應用的人工智能系統需要發展和適應,以應對不斷變化的威脅環境。
表7. AI系統的對抗性挑戰
同行競爭國家之間發展人工智能能力的競賽,最終是為了進入對手的決策周期,以便比對手更快地做出決定和采取行動(Schmidt等人,2021年)。人工智能系統提供了提高決策質量和速度的潛力,因此對獲得決策優勢至關重要。隨著海軍對人工智能解決方案的探索,同行的競爭國家也在做同樣的事情。最終實現將人工智能應用于海軍的目標,不僅僅取決于人工智能研究。它需要適當的數據收集和管理,有效的SE方法,以及仔細考慮人類與AI系統的互動。海軍必須承認,并采取行動解決實施人工智能系統所涉及的挑戰,以贏得比賽。
網絡戰是海軍必須成功參與的另一場競賽,以保持在不斷沖擊的黑客企圖中的領先地位。網絡戰的特點是利用計算機和網絡來攻擊敵人的信息系統(Libicki, 2009)。海軍對人工智能系統的實施導致了更多的網絡攻擊漏洞。人工智能系統的使用在本質上依賴于訓練和操作數據,導致黑客有機會在開發階段和操作階段用腐敗的數據欺騙或毒害系統。如果一個對手獲得了對一個運行中的人工智能系統的控制,他們可能造成的傷害將取決于應用領域。對于支持武器控制決策的自動化,其后果可能是致命的。海軍必須注意人工智能系統開發過程中出現的特殊網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御戰略。海軍必須小心翼翼地確保用于開發、訓練和操作人工智能系統的數據集在整個人工智能系統的生命周期中受到保護,免受網絡攻擊(French等人,2021)。
威脅環境的演變是海軍在開發AI系統時面臨的第三個對抗性挑戰。對手的威脅空間隨著時間的推移不斷變化,武器速度更快、殺傷力更大、監視資產更多、反制措施更先進、隱身性更強,這對海軍能夠預測和識別新威脅、應對戰斗空間的未知因素構成了挑戰。尤其是人工智能系統,必須能夠加強海軍感知、探測和識別新威脅的能力,以幫助它們從未知領域轉向已知領域的過程。他們必須適應新的威脅環境,并在行動中學習,以了解戰斗空間中的未知因素,并通過創新的行動方案快速應對新的威脅(Grooms 2019, Wood 2019, Jones et al 2020)。海軍可以利用人工智能系統,通過研究特定區域或領域的長期數據,識別生活模式的異常(Zhao等人,2016)。最后,海軍可以探索使用人工智能來確定新的和有效的行動方案,使用最佳的戰爭資源來解決棘手的威脅情況。
人工智能系統為海軍戰術決策的優勢提供了相當大的進步潛力。然而,人工智能系統在海戰應用中的實施帶來了重大挑戰。人工智能系統與傳統系統不同--它們是非決定性的,可以學習和適應--特別是在用于更復雜的行動時,如高度動態的、時間關鍵的、不確定的戰術行動環境中,允許的誤差范圍極小。本文確定了為海戰行動實施人工智能系統的四個挑戰領域:(1)開發能夠解決戰爭復雜性的人工智能系統,(2)滿足人工智能系統開發和運行的數據需求,(3)設計這些新穎的非確定性系統,以及(4)面對對手帶來的挑戰。
海軍必須努力解決如何設計和部署這些新穎而復雜的人工智能系統,以滿足戰爭行動的需求。作者在這一工作中向海軍提出了三項建議。
1.第一個建議是了解人工智能系統與傳統系統之間的差異,以及伴隨著人工智能系統的開發和實施的新挑戰。
人工智能系統,尤其是那些旨在用于像海戰這樣的復雜行動的系統,其本身就很復雜。它們在應對動態戰爭環境時將會學習、適應和進化。它們將變得不那么容易理解,更加不可預測,并將出現新型的故障模式。海軍將需要了解傳統的SE方法何時以及如何在這些復雜系統及其復雜的人機交互工程中失效。海軍將需要了解數據對于開發人工智能系統的關鍵作用。
2.第二個建議是投資于人工智能系統的研究和開發,包括其數據需求、人機互動、SE方法、網絡保護和復雜行為。
研究和開發是為海戰行動開發AI系統解決方案的關鍵。除了開發復雜的戰術人工智能系統及其相關的人機協作方面,海軍必須投資研究新的SE方法來設計和評估這些適應性非決定性系統。海軍必須仔細研究哪些新類型的對抗性網絡攻擊是可能的,并且必須開發出解決這些問題的解決方案。海軍必須投資于收集、獲取和維護代表現實世界戰術行動的數據,用于人工智能系統開發,并確保數據的相關性、有效性和安全性。
3.第三個建議是承認挑戰,并在預測人工智能系統何時準備好用于戰爭行動方面采取現實態度。
盡管人工智能系統正在許多領域實施,但海軍要為復雜的戰術戰爭行動實施人工智能系統還需要克服一些挑戰。人工智能系統在較簡單應用中的成功并不能保證人工智能系統為更復雜的應用做好準備。海軍應該保持一種現實的認識,即在人工智能系統準備用于戰爭決策輔助工具之前,需要取得重大進展以克服本文所討論的挑戰。實現人工智能系統的途徑可以依靠建模和模擬、原型實驗、艦隊演習以及測試和評估。可以制定一個路線圖,彌合較簡單應用的人工智能和復雜應用的人工智能之間的差距--基于一個積木式的方法,在為逐漸復雜的任務開發和實施人工智能系統時吸取經驗教訓。
海軍將從未來用于戰術戰爭的人工智能系統中獲益。通過安全和有效地實施人工智能系統,戰術決策優勢的重大進步是可能的。此外,海軍必須跟上(或試圖超越)對手在人工智能方面的進展。本文描述了為在海戰中實施人工智能系統而必須解決的四個挑戰。通過對這些新穎而復雜的人工智能系統的深入了解,對研究和開發計劃的投資,以及對人工智能技術進步時限的現實預期,海軍可以在應對這些挑戰方面取得進展。
人工智能(AI)在過去十年中在全球技術市場中占據領先地位,觸及工業的各個領域的應用,從人們熟悉的智能家電和消費電子的例子到國防。美國和中國代表著世界上最大的兩個經濟體。兩國都在參與人工智能技術競賽,在全球市場和戰場上實施這項技術。
中美人工智能技術競賽在兩個方面給美國帶來了困境:經濟和國防。如果中國成功地創造出完全自主的人工智能無人機并在全球市場上傳播,它將擁有經濟和戰場上的優勢。人民解放軍(PLA)武器庫中的完全自主的人工智能無人機將提供戰斗空間的實時畫面、先發制人的優勢、拒絕向鄰國開放水域和領土、控制貿易路線和有爭議的島嶼,并對美國在印度太平洋司令部(INDOPACOM)的全球力量投射產生負面影響。本論文試圖研究人工智能如何代表全球經濟和戰場上的關鍵因素,它在印度洋司令部能發揮什么具體功能,以及美國如何在與中國的競爭中贏得這場競賽。
在國家間的競爭中,擁有技術優勢的國家在歷史上能夠獲得優勢,盡管代價是破壞國際關系的穩定。這在歷史上表現為火藥、飛機、化學武器、英格瑪機、雷達、核武器和衛星的發明。在冷戰后和21世紀之交,常規威脅已經發展到新的技術領域。除了美國防部(DoD)公認的陸、海、空領域之外,還增加了兩個新的層面:太空和網絡空間。太空領域包括衛星和高超音速巡航導彈,以取代舊的彈道系統;網絡領域,隨著萬物互聯(IoE)的發明,保護國家免受黑客攻擊、商業機密和知識產權(IP)的盜竊。隨著網絡和太空領域的發展,空中領域現在采用了遙控飛機(RPA)作為無形的智能體。此外,新出現的人工智能(AI)技術,以其顯著的適應性,將把空域推向比RPA今天提供的更多的自主性。盡管人工智能的理論基礎可以追溯到20世紀50年代(Anyoha,2020年),但直到公開展示機器在某一特定領域超越人類智力時,它才成為一個討論的話題。
幾個世紀以來,計算科學已經從算盤發展到二進制邏輯,再到現代計算機,并繼續在私人和政府部門蓬勃發展。美國面臨的安全困境是,如果中國在人工智能技術方面的進步超過了美國,然后中國將其軍事化,美國將再次站在英格瑪機器和斯普特尼克的錯誤一邊。它將被留在另一個行為者的能力和意圖不確定性的斗篷中,其可能將美國從印度-太平洋地區的戰區中取代。
人工智能技術競賽與美國的核戰爭理論和太空競賽并不完全相同。因為這項技術在私營部門的應用非常廣泛,并不專屬于國防工業,所以需要一個更窄的形式。狹義的人工智能(NAI)對于它所構建的特定任務是獨一無二的。與物聯網類似,NAI的政策是基于每個國家如何實施的。人工智能與軍事技術的結合,國家關于人工智能的理論,公共和政府部門的貨幣投資,以及實現人工智能優勢的國內政策都特別有趣。這項技術具有巨大的力量潛力,國家可以利用它來對付他們的對手。研究它的軍事潛力并制定防御戰略以維持力量平衡,對于美國,尤其是印度太平洋戰區來說是當務之急。這篇論文研究了美國和中國是如何建立和維持它們的力量的。
第二章介紹了人工智能的概念,并概述了目前美國消費類電子產品和使用人工智能功能的電子產品的市場價值,讓讀者對這一新興技術有一個貨幣視角。它還定義了人工智能在國防方面的作用。
第三章回顧了全球化社會中技術競爭的廣泛概念,并介紹了中國作為一個崛起的大國和國際競爭者的地位。它描述了為什么這種技術從個人到國家的角度都很重要,這種技術競賽與太空競賽有什么不同,并從廣泛的地緣政治方面研究了中國是什么樣的行為者。
第四章研究了軍事航空如何納入NAI以及自主無人機將如何改變戰斗空間。本章重點關注美國已經在進行的具體人工智能進展,并將其應用于空域,以解釋天空中的狹義人工智能是如何成為首次打擊和保持對對手的戰略優勢的關鍵。
第五章對比了美國和中國為贏得這場技術競賽所追求的架構設計。這些對比包括每個國家的立法和基礎組織,知識產權保護,以及政府與私人產業和教育部門在實現人工智能首要地位方面的互動。
第六章從風險投資(VC)與政府支出的角度分析了人工智能的融資,討論了國防部門的人工智能技術的收購過程,并比較了每個國家之間的現有貨幣數據。
第七章研究了在沒有關于在戰場上使用完全自主性的國際交戰規則(ROE)的情況下,狹義的自主人工智能無人機如何呈現出錯綜復雜的道德困境。
為了跟上美國防部(DOD)人工智能(Al)戰略的步伐,美國陸軍在2018年啟動了人工智能集成中心(Al2C)。他們的任務是--與美國各地的公司和大學的人工智能社區溝通,目的是通過人工智能的整合來改善和提高軍隊的能力。
這個頂點項目盡可能地分析了當前美陸軍部(DA)對人工智能的要求狀況,以及它們對人類系統集成(HSI)的包含。該小組審查了發布在獎勵管理系統(SAM)網站上的人工智能合同機會和適用的文件,包括績效工作聲明、工作聲明或目標聲明。第一步是確定這些合同機會中包含的要求是否符合人工智能的定義,即計算機系統有能力執行通常需要人類智慧的任務。如果需求符合人工智能的這一定義,那么分析工作就會繼續進行,并側重于納入HSI,以確保為人類(即操作員、士兵、用戶等)提供便利。研究小組還采訪了主題專家(SMEs),以深入了解軍隊開發和獲取人工智能需求的過程。
在2003年至2022年期間發布到SAM的機會中,只有16%(238個中的40個)在開發過程中足夠成熟,可以考慮進行評估。在這40個被認為足夠成熟的采購開發過程中,只有16個發布的信息包含了相關的文件,可以根據團隊既定的人工智能和HSI標準進行評估。從那里,只有6個帖子符合AL的定義,4個被寬泛地判斷為包括一些對HSI或人為因素的參考。該小組的綜合評估確定,陸軍的人工智能指導還處于起步階段,需要進一步發展和完善。評價還強調,盡管國防部和陸軍指導將HSI納入所有要求,但仍然缺乏對HSI的納入。
這個頂點項目建議,所提出的結果和結論應被用來進一步制定人工智能需求的采購指南,并特別注重納入HSI。我們還建議,未來的研究應納入機密需求以及由其他交易機構通過財團管理的需求。
近年來,針對工業生態系統的高級持續性威脅(APT)的復雜性急劇增加。這使得開發超越傳統解決方案的高級安全服務成為必須,輿論動力學(Opinion Dynamics)就是其中之一。這種新穎的方法提出了一個多智能體協作框架,允許跟蹤APT的整個生命周期。在本文中,我們介紹了TI&TO,這是一個攻擊者和防御者之間的雙人博弈,代表了一個現實的場景,雙方都在爭奪現代工業結構中的資源控制權。通過使用博弈論來驗證這種技術,我們證明,在大多數情況下,輿論動力學包括有效的第一項措施,以阻止和減少APT對基礎設施的影響。為了實現這一目標,攻擊者和防御者的模型都被標準化,并應用了一個公平的評分系統,后者用不同的策略和網絡配置運行了幾個模擬測試案例。
世界各地的公司面對的網絡安全攻擊數量明顯增長,導致了巨大的經濟損失[2]。當涉及到關鍵的基礎設施(即核電站、電網、運輸和制造系統)時,這種情況變得更加嚴重,其工業控制系統必須在所有條件下保持工作。在這里,我們處理的是SCADA(監督控制和數據采集)系統,幾十年來一直在與外部網絡隔離的情況下工作;反過來,如今它們正越來越多地整合新技術,如物聯網(IoT)或云計算,在削減成本的同時外包各種服務。因此,需要做出更大的努力來跟上這種進步,以應對這些系統可能帶來的最新的攻擊載體和可利用的漏洞。
近年來最關鍵的問題之一是高級持續性威脅(APTs),這是一種復雜的攻擊,特別是針對目標基礎設施,由一個資源豐富的組織實施。它們的特點是利用零日漏洞(零時差攻擊),采用隱蔽技術,使威脅在受害者網絡中長期無法被發現。Stuxnet是第一個報道的這種性質的威脅[6],但許多其他的威脅在之后被發現,通常是在攻擊完全執行后的幾個月[7]。在網絡安全方面,只是提出了一些機制來從整體上解決這個問題,超越了傳統的機制(如防火墻、入侵防御系統(IPS)、入侵檢測系統(IDS)、防病毒),這些機制只代表了在第一階段對APT的準時保護[21]。
在這些新穎的機制中,輿論動力學(Opinion Dynamics)[15]包括一個多智能體協作系統,通過分布式異常關聯,使攻擊的整個生命周期都可以被追蹤。在本文中,我們提出了一個理論但現實的方案,以證明該方法在不同類型的攻擊模式下的有效性,使用結構可控性領域[8]和博弈論[14]支持的概念。為了這個目標,我們開發了TI&TO,這是一個雙人博弈,攻擊者和防御者為控制現代工業結構中的資源而競爭。兩個玩家都有自己的動作和相關的分數,分別根據APT和基于Opinion Dynamics的檢測系統的行為。這個博弈最終在不同的模擬中運行,旨在展示算法的能力,同時也建議將該技術與其他防御方案結合起來進行最佳配置。因此,我們可以把我們的貢獻總結為:
本文的其余部分組織如下。第2節介紹了 "輿論動力學"的概念,并強調了應用博弈論來檢測網絡攻擊的建議。在第3節中,定義了博弈,包括規則以及攻擊和防御模型。然后,進行了幾次模擬,并在第4節進行了討論。最后,在第5節中提出了結論和未來的工作。