亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本文介紹了詳細而全面的技術文獻結論,旨在確定戰術自主性的當前和未來的研究挑戰。本文非常詳細地討論了當前最先進的強大人工智能(AI)、機器學習(ML)和機器人技術,以及它們在未來軍事和國防應用背景下開發安全和強大自主系統的潛力。此外,我們還討論了在試圖為先進的軍事和國防應用實際建立完全自主系統時出現的一些技術和操作上的關鍵挑戰。我們的論文提供了最先進的可用于戰術自主的先進人工智能方法。據我們所知,這是第一篇論述戰術自主性當前重要趨勢、戰略、關鍵挑戰、戰術復雜性和未來研究方向的作品。我們相信,這項工作將使從事機器人和自主系統領域的學術界和工業界的研究人員和科學家產生極大興趣。我們希望這項工作能鼓勵人工智能多個學科的研究人員去探索更廣泛的戰術自主領域。我們也希望我們的工作能成為設計先進的人工智能和ML模型的重要步驟,對現實世界的軍事和國防環境有實際意義。

關鍵詞:戰術自主性;自主系統;人工智能;軍隊;國防應用;航天;機器倫理;網絡安全;可信賴性;可解釋性

資助

這項工作得到了霍華德大學國防部(DoD)人工智能和機器學習卓越中心(CoE-AIML)的支持,與美國陸軍研究實驗室簽訂了W911NF-20-2-0277合同。

1. 引言

新興技術,如機器人技術和自主系統,正在為潛在的社會革命提供機會[1]。先進的自主系統正在為多個科學領域的科學突破和顛覆性技術創新鋪平道路[2]。自主系統是一個智能系統網絡,能夠獨立完成復雜的任務,在沒有人類明確干預的情況下做出智能決策,以及其他操作管理和控制系統[3,4]。現代自主系統的最新發展對各種潛在的軍事和國防應用越來越關鍵,包括空中監視系統、隱私、網絡安全、導彈防御、航空航天工業等。

背景和動機。來自民用、國防和軍事界的研究科學家們正在通過復雜的工作來確定為工業和現實世界應用實施先進的人工智能和自主系統的最佳方式。利用AI、ML和其他相關的先進技術領域來實現自主系統,是現代自主系統的一個改變戰術的戰略。

現代尖端的人工智能和ML技術已經越來越多地被用于軍事和國防領域的各種成功應用,包括網絡安全[5]、海上安全[6,7]、關鍵基礎設施保護[8,9],以及其他具有重大社會和技術意義的領域。先進的人工智能系統的潛力可以被用來對軍事和國防技術產生積極的影響。人工智能可以在軍事環境中用來評估收集的數據,并提供作戰計劃和戰略支持,加速決策過程。除此之外,人工智能系統可以被設計和部署在戰略、政治、作戰和戰術層面的戰爭中使用。

在政治和戰略層面上,人工智能系統可以用來動態地破壞隱藏的敵人,并實時防御各種形式的對手攻擊。然而,在戰術層面,人工智能可以為無人系統提供更快、更好的態勢感知,以減少其對攻擊的脆弱性。它還可以通過識別可疑的模式和潛在的危險活動有效地自動檢測威脅。然而,盡管在過去的幾十年里,自主性在廣泛的領域內取得了進展,但一些技術和實際的挑戰仍然大大限制了現代自主系統的部署和廣泛采用。第4節、第5節和第6節將討論一些需要解決的關鍵挑戰。因此,必須在人類最低限度的監督或參與下開發現代戰術自主系統,以大幅提高最先進的水平,減少認知工作負荷,增加功能,改善和保持多領域的態勢感知,提高整體機動性和流動性,有效實現部隊保護,支持主動的網絡防御等。

在對自主性越來越感興趣和普及的激勵下,本文對戰術自主性的基本概念和原則進行了全面的技術調查,重點是以前研究工作中沒有充分解決的前沿人工智能和ML方法。據我們所知,這是第一篇論述當前重要趨勢、戰略、基本挑戰、戰術復雜性和未來戰術自主性研究方向的作品。

貢獻。我們論文的主要貢獻總結如下:

  • 我們介紹了戰術自主的基本概念和它在廣泛的應用中的潛力。

  • 我們掌握了在軍事和國防背景下對戰術自主性概念的理解。

  • 據我們所知,我們是第一個提供關于戰術自主性的重要當前趨勢、戰略、基本挑戰、戰術復雜性和未來研究方向的。

  • 我們提出的工作可以作為設計先進和創新的人工智能和ML模型的一個重要步驟,對現實世界的軍事和國防應用具有實際意義。

  • 我們提出了戰術自主性的基本和長期的挑戰。

提綱。本文的其余部分組織如下。第2節提供了簡要的歷史,主要的里程碑,倫理方面,以及戰術自主性的級別。第3節介紹了可用于推進戰術自主能力的不同人工智能技術。第4節描述了對可信人工智能和任務自主性的需求。第5節簡要介紹了平臺之間的廣泛合作和相關的技術挑戰。第6節介紹了最先進的人機協作方法以及與當前方法相關的挑戰。第7節簡要介紹了戰術自主性的網絡安全及其基本挑戰。第8節詳細討論了戰術自主系統的風險和內在挑戰的概述。最后,在第9節中,我們總結了本文并討論了潛在的未來工作。縮略語部分列出了本文中使用的縮略語。

2. 背景

關于自主系統的文獻已經在許多研究工作中得到了廣泛的研究。自主性的概念有不同的內涵,而且在過去幾年里有了很大的發展。例如,[10]中的自主性概念是關于委托的任務。在[10]中詳細解釋了委托的各個方面和層面。一般來說,智能系統背景下的自主性側重于開發智能決策系統,這些系統可以在復雜的戰術環境中自主地進行物理操作,并具有一定程度的自我管理[11]。在本節中,我們只提供明確與歷史、倫理方面、自主的屬性、監管和戰術自主性級別有關的工作背景。

2.1. 戰術自主權的簡要歷史和主要里程碑

根據美空軍研究實驗室(AFRL)的說法,戰術自主性是一個與現代自主系統相關的術語,該系統在人類的授權和約束下行動,以支持與長期戰略愿景相關的戰術、短期行動。近年來,在廣泛的應用中出現了相當多的關于戰術自主性的跨學科研究。軍方長期以來一直對推進機器人技術和自主行動的能力感興趣。美空軍部(DAF)和國防部(DoD)正在推動開展以戰術自主性為重點的創新自主性研究,這將有助于將研究轉化為實際應用。此外,美國AFRL正在大力優先考慮正在進行的數字化改造戰術自主性的研究工作,特別是在軍事領域,以更好地使作戰人員對抗美國對手。圖1描述了戰術自主性的簡要歷史和重要的里程碑。

圖 1. 戰術自主的性簡史和里程碑。

戰術決策。決策系統采用先進的模型,對復雜環境進行預測。由于這些模型中有許多是數據驅動的,自主系統應該能夠獲得更多關于它們所處的復雜環境的數據,并相應地實時調整它們的基本行為。對智能自主系統在嘈雜、動態和現實環境中的強大和有效的戰術決策的需求正在迅速上升。然而,最關鍵的挑戰之一是為自主系統設計戰術決策模型和支持框架。例如,與其他道路使用者的復雜和動態互動,環境的復雜多樣性,以及傳感器信息的不確定性,使得自主駕駛的戰術決策變得非常困難[12]。

一個結合了規劃和深度強化學習(DRL)的通用框架,可用于自主駕駛系統的戰術決策智能體,在[12]中被詳細描述。該框架的性能在兩個概念上不同的高速公路駕駛場景中進行了評估[12]。戰術決策算法被設計用來處理不可預見的環境狀況和不可預測的對抗性攻擊。戰術決策系統的過程可以被建模為概率的(即包括不確定因素時)或完全確定的(即不包括不確定因素時)。不確定性中的計劃和決策在機器人和自主系統中是至關重要的。因此,在設計自動決策模型和算法時,必須考慮到各種不確定性的來源[13]。部分可觀察的馬爾可夫決策過程(POMDP)是一個通用的數學框架,用于模擬不確定性下的決策任務[13]。然而,在以前的工作中,沒有充分解決設計能夠制定不確定性意識的戰術決策任務的有效方法,如POMDP,以及解決其計算復雜性。因此,正如第3節所解釋的,需要基于先進的人工智能/ML方法的不同策略來加強復雜和現實環境中的戰術決策任務的進程。

2.2. 自主性的倫理問題

自主性的倫理問題對人工智能研究者來說是復雜的挑戰。現代基于人工智能的系統的開發和應用在學術界和工業界都在激增。因此,在決策過程的速度和效率大幅提高的激勵下,我們日常生活的各個方面的決策正在完全委托給人工智能/ML驅動的算法。然而,關于自主權與倫理的關系、社會影響、法規、自主權治理、倫理影響以及這種自主技術和活動的能力等許多重要問題在以往的研究中沒有得到充分的解決。因此,探索基于人工智能的完全自主技術的安全和倫理層面,使我們能夠認識到先進機器自主性的當前和未來潛在發展的倫理影響。此外,對機器智能的倫理學進行準確有效的調查,可以促進發現現有倫理學理論的潛在問題,以及它們在現實世界環境中的一般作用。關于機器倫理學的意義、倫理學理論的研究以及自主智能機器的倫理學影響的詳細討論見于[14]。關于[14]的研究工作還表明,現代算法可以被設計成模仿人類的倫理決策。

機器倫理學。隨著人工智能驅動的決策在廣泛的領域中變得越來越普遍,關于其適用性[15]、倫理層面以及在決策算法設計中對基本方面的考慮等新的重大問題也出現了[16]。機器倫理學的最終目的是有效地研究如何設計智能機器來進行道德和倫理上的推理。它關注的是智能機器對人類和其他自主機器的行為。機器倫理學的主要目標是開發一種智能機器,在可接受的道德層面的指導下,對潛在的行動方案做出決定。區分隱性倫理機器和顯性倫理機器很重要[17]。隱性倫理機器意味著約束智能機器的行動以避免不道德的結果。實現這一目標的一個實用技術是通過開發軟件系統的內部功能和特性來隱性支持和促進道德行為[14]。另一方面,顯式倫理機器可以通過使用倫理原則的顯式表示來解釋倫理信息[14,18]。明確的倫理機器可以處理新的情況,并合理地做出明確的倫理判斷[14,18]。

ML研究界已經開始探索將現代ML能力應用于機器倫理。之前已經介紹了各種用于倫理推理的ML方法。例如,[19]中的工作探討了一個神經網絡模型,該模型對特定的道德判斷和基于案例的道德推理進行分類。在[20]的工作中簡要介紹了一種基于案例的推理方法,以開發能夠指導對道德問題和困境進行推理的系統。[20]中提出的一個主要問題是,機器如何協助或潛在地取代人類在道德推理中的位置。

[21]中提出了一種不同的計算倫理學方法,它采用了一種基于行動的倫理學理論方法。作者為一個具有多種計算職責的倫理理論開發了一個高效的決策程序[21]。除了ML能力之外,還有其他方法來解決這個問題,比如說,使用義務邏輯(deontic logic)(哲學邏輯領域關注義務、許可和相關概念)。例如,[22]中的作者描述了如何使用行為邏輯將一套特定的倫理原則納入自主系統的決策過程。另一方面,[23]中的工作評估了應用行為邏輯方法來實現伊曼紐爾-康德關于絕對命令和道德義務的基本原則的可行性。作為伊曼紐爾-康德關于機器倫理學的一般方法,存在一個決策程序,用于生成絕對命令,并從中得出行動規則。根據[23]中提出的方法的結果,道德范疇被表述為禁止的、允許的或強制的行動。

2.3. 自主性的屬性

文獻表明,在分布式人工智能的背景下,有多種方法來定義自主性和自主系統的概念。自主性可以被定義為智能體在沒有直接外部干預的情況下獨立行動的能力,并在最小的人類監督下做出決定。自主系統概念的定義在其自主性屬性方面也有不同。其外部和內部狀態決定了自主性的屬性。當一個系統的行為是非決定性的,可以被認為是自主的。非決定性的系統即使在相同的環境輸入的情況下也可能表現出不同的行為,甚至可能完全失敗。另一方面,如果考慮到系統的內部狀態,一個自主系統也可能是確定性的。一個確定性的系統是一個系統,它的模型從一個給定的環境初始狀態或情況下持續產生相同的結果。在這種情況下,主動性、互動性和涌現是最能描述自主性及其相關基本特征的三個屬性[24,25,26]。自主性的屬性摘要見表1。

表1. 自主性屬性總結。

主動性。智能自主系統必須安全地適應動態和不可預測的環境中的意外情況,以便在各種領域中使用[27]。當自主系統在沒有明確的外部事件的情況下激活目標或啟動行動時,這種自主性的屬性被稱為主動性[24,25,26]。

交互性。這一屬性指的是智能體與環境的交互。自主系統可以動態地與復雜和不可預測的環境互動并作出反應。此外,智能自主系統還能適應動態環境的變化。這一特性在實時應用中非常重要[24,25,26]。

緊急性。復雜的多智能體系統是由多個相互作用的子系統組成的。智能體的交互和主動性產生了新出現的自主屬性,這些屬性事先沒有明確的模型。在大規模多智能體系統的背景下,緊急性的特點是隨著時間的推移,與環境的非線性相互作用引起的意外系統行為。這種特性影響著系統的可靠性和可預測性,它被用作評估自主軟件系統的標準[24,25,26,28]。

2.4. 監管和自主性級別

受監管的自主性。隨著目前人工智能研究的進展和現代自主系統的影響越來越普遍,建立政策、法規和準則以確保人工智能驅動的智能系統保持可信、道德和以人為本是非常重要的。例如,歐盟的一般數據保護條例(GDPR)[29,30]和美國的公平信用報告法(FCRA)[31]所采用的隱私條例對如何處理個人互聯網數據給出了指示,并授予個人訪問其個人信息的權利,以及獲得有關智能自動系統所做決定的合理解釋。采用這樣的一套法規,使我們能夠評估圍繞人工智能驅動的自主系統及其運作方式的法律和倫理問題。

自主性的級別。根據以前的研究工作,自主性的級別被分為強監管、操作性自主、戰術性自主和戰略性自主。自主級別與基礎動態環境屬性的映射在[26]中有所描述。環境的屬性包括可觀察的、決定性的、偶發的、靜態的和智能體。一個可觀察的環境在任何時候都能完全或部分地接觸到系統的所有必要狀態。一個確定的環境是指基礎環境的下一個狀態完全由當前狀態和智能體選擇的行動決定[32]。在偶發環境中,智能體的經驗被分為多個獨立的偶發事件。環境中的每一個情節都由智能體的感知和然后的行動組成。換句話說,偶發環境是指之前的行動不影響下一次的觀察[32]。然而,如果隨后的行動取決于先前的行動,則環境被稱為順序性的。如果一個環境不隨時間的推移而變化,則被稱為靜態環境。如果一個環境在其上運行時發生變化,則被稱為動態環境。單一智能體系統意味著只有一個智能體在一個特定的環境中行動和互動。然而,如果多個相互作用的智能體與他們的環境相互作用,則被稱為多智能體系統。

強監管表示沒有自主能力的系統。這種監管在復雜程度有限的環境中是有效的。操作性自主表示決策的操作層面。實現操作自主性的智能軟件系統在部分可觀察、確定性、偶發性和靜態的環境中實際上是有效的[26]。戰術自主性在自主系統的戰術決策方面擴展了操作自主性。

3. 用于戰術自主能力的人工智能技術

自主性是學術界和工業部門的一個活躍的研究領域。隨著現代分布式自主系統和智能技術的普及,人工智能和ML方法已經大大推進了各種研究領域問題的最新進展。人工智能方法在大幅提高自主系統的性能和安全性方面具有關鍵作用。完全自主的和其他復雜的網絡系統被配置和編程為連續運行。這些復雜的系統不斷從周圍環境中收集復雜的信息。因此,操作和理解完全自主系統的動態和運動學,并實時處理巨大的信息流是極具挑戰性的,超出了人類的能力。這時,基于人工智能的技術及其底層的ML能力就有了壓倒性的幫助。事實證明,人工智能和ML系統在一些領域比人類更強大、更高效[33,34,35,36]。除此之外,人工智能和ML系統經常在復雜情況下指導人類理解和自主決策過程[37,38]。

先進的人工智能和自主系統技術已經改變了我們的生活,并將在未來繼續改變。這種由人工智能驅動的技術革命的空前成功,其潛力在于人工智能系統在各種新興技術中的適用性迅速增加。例如,在過去的幾十年里,人工智能技術在機器人和自主系統界創造了潛在的現實世界影響。除了人工智能的潛在好處外,人們也擔心強大的人工智能系統的長期影響[39,40,41]。最近,強大的人工智能和ML技術在戰術自主方面的進展已經徹底改變了廣泛的領域,包括自主駕駛[42,43,44]、航空和航天工業[45]、無人駕駛飛行器(UAV)導航[46]、海上防御[47,48]等。最近自主系統的大多數方法都是基于不同的人工智能技術。表2列出了用于戰術自主的最先進的人工智能技術的摘要。一些主要類別的方法詳細包括以下內容。

深度學習(DL)。這是一種有效且強大的人工智能應用算法,如計算機視覺、自然語言處理(NLP)、機器人、人工智能游戲和其他應用。自其誕生以來,深度學習(DL)方法已被證明能有效地發現和學習高維訓練數據的復雜結構[49]。由于深度神經模型在復雜環境中帶來的巨大性能,DL技術最近被用來解決一些現實世界的應用,如自動駕駛[50,51,52]、計算機視覺[53]、圖像分類[49]、視頻預測[54]等。作者在[55]中展示了深度Q網絡(DQN)代理如何學習為自主駕駛做出一個通用的戰術決策模型。DL方法也有助于根據當前和過去對周圍環境的觀察,預測復雜駕駛環境中自主車輛的行為和性能[56,57]。此外,[58]中提出了一種使用深度神經網絡估計端到端車道位置的方法。

強化學習(RL)。要實現人工智能技術的全部影響和潛力,需要智能自主系統能夠動態地學習并自動做出獨立的決定。與自主系統相關的戰術決策任務的一個根本不同的方法是利用一種不需要對輸入的訓練數據進行標記的人工智能/ML技術。完成這種任務的一個強大的ML范式是應用強化學習(RL)技術[59]。RL是一個框架,為經驗驅動的順序決策問題提供了有效的解決方案[59]。它關注的是智能人工智能代理應如何在復雜和嘈雜的環境中做出合適的決定,以使特定可執行行動的累積獎勵最大化。RL是基于自我學習的人工智能代理和其復雜環境之間的動態互動序列。通過其在人工智能代理中的自學能力,RL正在使各種科學領域取得令人興奮的進展,如自主機器人[60]、自主駕駛[61,62]、NLP[63,64]、游戲[65,66]和許多其他應用。可以利用RL技術來為自主系統創建一個通用的戰術決策代理。例如,基于神經網絡集合的貝葉斯RL技術被用于自主駕駛的有效戰術決策代理[67]。此外,最近的一些工作也將基于深度RL的技術擴展到移動機器人的自主導航任務中[68,69]。

聯邦學習(FL)。在傳統的ML和DL應用中,來自不同客戶的訓練數據通常被聚集在一個中央服務器或云平臺上,以訓練模型有效地執行一個給定的任務[70]。這是一個常見的數據隱私問題,也是經典的ML和DL方法的基本限制,主要是當訓練數據包含高度敏感和機密的信息(如國家機密和軍事相關信息、醫院等),會引起廣泛的安全和隱私以及法律和道德問題。維護智能系統的安全和隱私仍然是一個公開的挑戰。這種情況下,聯邦學習(FL)技術是有幫助的。聯邦學習是一種新興的、有前途的去中心化ML范式,它通過采用分布式計算來解決數據安全和隱私問題[71],提供了一種解決方案。它使網絡中許多資源有限的分布式客戶端能夠協同訓練ML模型,而無需交流他們的本地數據,主要目的是保護用戶的隱私和安全[72,73,74]。通過利用跨學科的技術和科技,機器人和自主系統正變得越來越普遍。鑒于隱私保護、分散學習、并行訓練和機載處理等獨特的優勢,FL有可能成為分布式自主系統的安全和高效的人工智能框架[75]。例如,在[76]中,作者提出了一個FL框架,使自主控制器模型在一組連接和自主的車輛中進行協作學習。其他作者在[77]中證明了FL模型可以被用來從更大的設備池中檢測和識別不同類型的無人機,通過利用單個無人機傳輸的射頻信號。

表2. 用于戰術自主能力的人工智能技術綜述。

4. 可信的人工智能和任務自主性

最先進的人工智能和ML技術正被越來越多地應用于一系列需要改進操作可靠的時間關鍵型和安全關鍵型系統,如軍事、國防、航空航天、自動駕駛[78]、醫學[79]、科學[80]等。為了提高和確保其端到端的有效性和彈性操作,這些具有人工智能能力的現代自主系統必須被持續驗證、核實和監測。此外,為了使自主系統保持穩健的運行,還需要持續的系統性能評估,以識別不可預見的風險、異常情況和潛在的對抗性威脅。此外,對于超出人類控制的自主武器,也有人工智能支持的軍事關切[81]。

可解釋人工智能。最近ML技術的進步使得人們對人工智能系統的可解釋性越來越感興趣,以幫助人類更深入地了解ML算法的決策過程。在過去的幾年里,先進的人工智能系統在各種復雜的應用中廣泛部署,與此同時,道德、法律和社會對這些系統提供人類可理解的模型解釋和對其輸出的解釋的要求也在增加。作為這些要求的結果,最近有幾項關于要求對基于人工智能的自動系統所做的決定進行解釋和說明的法規的工作被引入[82,83,84]。這也導致了一個不斷增長的研究群體,他們非常關注可解釋的ML技術。如圖2所示,為用戶提供可理解的解釋和說明,可以讓他們更深入地了解系統的自動決策觀點,這是建立對底層人工智能和ML系統信任的關鍵因素[85,86,87]。因此,在關鍵系統的人工智能模型和技術中建立可解釋性和可解釋性也會對安全[88]、倫理[89,90,91]、法律[92,93,94]和可轉移性[95]產生影響。然而,人工智能和ML系統的內部運作是人類難以理解的,被認為是黑箱方法,只有輸入和輸出對用戶可見[96]。這種人工智能和ML系統的算法缺乏透明度,對現實世界的用戶需求缺乏了解,以及我們無法充分解釋這些系統如何以及為什么會達成特定的人工智能驅動的自動決策,使得它從根本上難以理解,即使是該領域的專家[96,97]。為了讓人類充分信任人工智能驅動的系統并建立信心,底層系統的解釋必須與人類的期望和認知一致。最近,越來越多的開源解釋工具和平臺產生了不同的解釋,用于探索和解釋底層的黑盒ML模型,正在被用戶訪問[98,99,100,101]。然而,盡管最近作出了努力,目前大多數最先進的解釋和解釋技術需要更加值得信賴。

圖 2. 可解釋 AI。如第 8 節所述,開發高級 ML 技術以生成可解釋的模型是我們未來工作的一個方向。除此之外,集成最先進的解釋接口以產生對底層模型的有效解釋是我們計劃在未來工作中探索的挑戰。

可信任人工智能。先進的人工智能和ML模型能夠加速復雜系統中數據驅動的自動決策過程。然而,正如前面所解釋的,盡管最近人工智能和ML系統在科學和技術領域被廣泛采用,其系統模型在很大程度上仍然是黑盒方法。對這些復雜的系統如何全面運作有一個清晰和充分的了解,對于建立信任和透明度是很有幫助的。此外,了解人工智能和ML系統的內部運作,可以讓用戶更好地了解底層模型,然后利用它將模型從不可信轉變為可信任的。當模型被用于自動決策系統時,確定人工智能和ML模型的可信度是一個基本問題。正如第6節所解釋的,人類和智能機器之間的合作使現代自主系統得到了快速發展和廣泛使用。在軍事和國家情報機構以及其他關鍵領域有效使用這種復雜的系統,取決于人類和機器之間建立的信任。因此,鑒于人工智能驅動的技術在眾多自主系統中的應用范圍迅速擴大,使這些系統可靠和值得信賴比以往任何時候都更重要[102]。建立一個安全和可信賴的人工智能生態系統對于確保人類安全和在各種應用中采用先進的人工智能技術至關重要[103]。可信的人工智能是一個技術術語,描述了人工智能的安全性、合法性、穩健性和道德原則,包括對人工智能驅動的系統的安全性[104]、隱私[105]、透明度和公平性的基本關注[106,107]。使人工智能系統值得信賴的要求和要素如圖3所示。可信的人工智能的基本概念是基于這樣一個概念:當信任建立起來時,人工智能會充分發揮其潛力。可信性賦予人工智能系統可解釋性技術,使人類更容易理解和信任無處不在的人工智能算法所產生的結果和輸出背后的特征和原因。

圖 3. 可信人工智能的要求和要素 [108]。

任務自主性。它是一個技術術語,大多用于國防和航空航天技術行業和其他下一代自主和智能系統。任務自主性是指自主系統在使用現代數據驅動的人工智能/ML技術對底層系統的了解和理解的基礎上,獨立執行各種基本的復雜任務的能力,如深空探測任務[109]。為了使先進的任務自主系統的開發和實施在戰術上有用,必須解決上述與自主和人工智能系統相關的潛在安全和風險問題。

5. 平臺之間的協作

先進的算法決策系統的激增使得不同平臺之間的協作成為可能。然而,實現和確定人類、智能機器和自主代理之間的直接協作是具有挑戰性的。一些需要解決的主要技術挑戰是互操作性、可組合性和適應性。

互操作性。在自主性方面,互操作性使不同類型的大規模自主系統能夠通過底層平臺獨立地進行通信。當設計具有強烈自主性概念的交互式自主代理系統時,互操作性問題發生在不同的層面。正如在[110]中詳細描述的那樣,互操作性層可以分為連接層、通信層、本體層和服務層。

可組合性。在軟件系統開發領域,可組合性對于創建一個強大、靈活和可互操作的系統來說是必要的,在這個系統中,不同的交互式自主組件可以無縫通信[111]。它能夠將基于組件的系統的獨立功能結合起來,以完成一個特定的、無法獨立完成的總體任務。可組合性使系統設計有能力通過重復使用現有的系統組件和適應新的變化來提高敏捷性[111]。一個可組合的架構允許幾個系統組件的組裝。這樣的方法有重要的好處,包括可重用性、靈活性和改進的模塊化。自主性、模塊化和可發現性是可組合組件的主要元素。在一個可組合的系統中,每個組件都被期望在沒有其他組件的幫助下自主獨立地執行一個給定的任務。另一方面,模塊化是指當一個可組合系統中的每個組件被設計成獨立解決一個特定任務時的系統屬性。這使得系統設計者有可能將模塊化組件組裝成一個系統。除此之外,可組合系統的框架必須可以被其他用戶發現,以便單個組件可以被重復使用。

適應性。一個交互式自主系統需要意識到它的內部狀態和它穩健運行的復雜環境。先進的自主系統有能力自主地、互動地監測和適應復雜環境中的任何意外變化。一個復雜的系統有效處理運行環境中動態功能變化的程度被稱為適應性[112,113]。一個適應性強的、穩健的、有彈性的系統能夠容忍環境中的突然變化和動態情況,而不依賴外部干預[112]。

6. 人機協作

人機協作的概念及其能力是當前人工智能研究中許多進展的核心。人機協作是一種范式,在這種范式中,人類和具有不同能力的智能機器整合并緊密合作,以完成一個需要集體行動的共同目標[114,115]。它關注的是對打算供人類使用的智能機器的深入理解和評估[116]。鑒于最近的指數增長和人工智能技術的預測能力,在智能系統和人類之間創造一個成功的協作操作環境來解決復雜的問題是至關重要的。然而,廣泛采用人工智能系統的主要挑戰之一是將人類和分布式智能系統無縫整合以實現共同目標的能力。

有效地利用人機合作,使人類能夠更深入地了解智能機器的自動決策。然而,正如第4節所解釋的,這高度依賴于人工智能自動決策系統和人類之間的信任。這是因為當人類對人工智能驅動的決策給予更多的信任時,就會產生關于信任問題的疑問。人機合作的有效性主要取決于機器的透明度以及用戶對人工智能系統的行為是否符合預期、安全、可理解的信心程度[117]。跨越多個學科、由現代人工智能技術驅動的自主系統和領域專家的廣泛合作,對于建立人工智能/ML模型的可解釋性,創建一個可信賴的人工智能生態系統,以及釋放人工智能的潛力以解決更多重大問題,是非常引人注目的。

人工智能有可能提高人類的能力,使組織決策自動化,并從根本上改變企業的運作方式[118,119]。人工智能/ML系統的可解釋性是一種潛在的人機合作方式,因為具有解釋和解釋結果能力的自動化使人類能夠更好地理解智能機器的基本行為。使用自主系統的主要好處之一是能夠比人更快地實時處理更多數據。為了確保安全和有效的關鍵任務操作,跨越不同領域的自主系統,如國防、醫療[120]、航空航天、制造、自動駕駛等,都被評估為與人類協作操作。因此,探索更好的人機協作的前沿技術,有能力提高生產力、可用性、可靠性、操作性能、通信接口、設計和操作平臺的成本,在人類和智能機器之間分享知識,并確保安全和現有系統適應新環境和新任務的能力[121,122]。在[123]中提出了一個人機合作框架,指導人工智能開發團隊創建廣泛采用的道德人工智能系統,這些系統是可用的、安全的、值得信賴的。除此之外,主要的參與者,如IBM[124]、DeepMind[125]、谷歌[126]和其他學術機構最近啟動了一項研究工作,以加強人機協作[127,128,129]。

6.1. 自組織人機協作

自主系統的重大進展正在日益提高我們日常生活的質量。鑒于過去幾年的這些技術進步,出現了不同形式的人機協作。自組織編隊是指具有不同知識和能力的人類和智能機器集體合作以實現共同目標的過程[130]。自組織人機編隊是一個具有挑戰性的場景,在這個場景中,智能體與未知的異質隊友合作,事先沒有協調的知識。一個有效的自組織團隊成員是一個善于將其他代理的能力與自己的能力進行比較評估的代理。在軍事、工業和其他自主環境中,在沒有任何先決條件的情況下與異質團隊進行有效和穩健的合作是非常重要的。沒有任何事先協調的協作是人機研究中的一個已知挑戰[131]。作為解決這個問題的一種方法,[132]中提出了一種針對自組織團隊環境的在線規劃算法,該算法是為智能體在沒有任何預先協調的情況下進行合作而設計的。

6.2. 當前人機協作方法相關的挑戰

以下是限制我們在動態操作環境中有效整合人類和智能機器的一些主要挑戰。

異質性。在人機協作中,由于人類決策任務的顯著異質性,智能機器很難預測和適應人類在動態操作環境中的行動。因此,開發可用于解決人機協作環境中異質性問題的最先進的模型和技術非常重要。

通信。人機協作的成功取決于人類和智能機器之間的有效通信。人類的通信能力有限,只能處理有限的信息量。因此,通過簡單地交換基本信息,人類和機器可以有效地溝通信息,支持人機協作。然而,這在人類和機器之間造成了信任問題。有效團隊溝通的一個關鍵組成部分是智能系統和人類之間建立的信任[133]。在人機協作中,信任被定義為用戶對智能系統結論的可靠性及其完成既定目標的能力的信心[134,135]。透明度的概念是信息交流的一個關鍵方面,因為人類和智能機器需要共享知識,對意圖、推理和決策過程、性能和未來計劃有共同的理解[136,137]。

當人類和機器作為團隊一起工作時,通信可能有助于建立信任。此外,它可以用來建立有效設計信息的準則,促進人機合作的整體性能和信任[138]。然而,機器必須首先能夠大致模仿人類處理信息的方式,才能使機器以人類能夠理解的方式交換信息。人機協作關系有三個最重要的組成部分:人、智能機器、以及人與智能機器(或替代品)之間的互動。因此,如上所述,通過開發可解釋和可信賴的人工智能來建立信任,對人機協作的成功至關重要。然而,人工智能系統日益增長的復雜性和脆弱性,以及它們學習和適應動態變化的操作環境的能力,也為在人機團隊中建立信任提出了新的挑戰。

協調。為了充分發揮異質團隊的潛力,人類和智能機器應該以高效和協調的方式進行合作。如上所述,人機協作中的通信是指人與智能機器之間的信息交流,或者說是交替進行。另一方面,協調是指組織和管理團隊成員及其相關行為以實現特定的共同目標[139,140]。根據[141],有效的人機協調涉及三個基本要求。這些要求是共同點、可預測性和可指導性。為了準確有效地進行團隊溝通,參與者必須首先確定適當的共同點,即知識、共同信念和假設、共同目標等。共同點是指參與對話的所有參與者共同相信的信息[141]。而協調小組成員合理預測對方行動和行為的能力被稱為相互可預測性[141]。另一方面,可指導性是指當環境和優先事項突然改變時,團隊成員重新指導、幫助或影響對方行為的能力[142]。因此,根據這三個要求開發一個支持隱性協調的高級模型是很重要的。隱性協調被定義為在不使用行為通信的情況下,基于假設和意圖同步團隊成員的行動和行為的過程[143,144]。這意味著通信對于隱性協調來說不一定是強制性的。隱性協調有助于提高團隊的效率,因為它使團隊成員即使在沒有直接溝通的情況下,也能通過避免分心和有效通信來共同工作[145]。這反過來又大大減少了通信的開銷[146]。

適應性。通過調整策略和行為來有效改變行動方案以應對意外變化的復雜條件的能力被稱為適應性[113]。適應性可以分為兩類:人類輔助的適應性,以及機器輔助的適應性[147]。智能機器應該能夠識別人類隊友的知識和行為。此外,機器還應該能夠預測和應對人類的新知識和行為。然而,這需要開發現代適應性(即機器控制的適應性)和適應性(即人類控制的適應性)系統。

7. 戰術自主性的網絡安全

近年來,自主系統吸引了學術界和工業部門的大量關注。然而,自主系統在各種領域的廣泛和有效采用也帶來了需要解決的安全攻擊的顯著增加。因為網絡攻擊者的目標是大規模自主系統,如現代自主車輛(AV)、載人航天器、空間交通管理系統、船舶、移動機器人、復雜核電站的運營、飛機、智能城市的關鍵基礎設施等,以破壞系統的安全性,并對其運營造成破壞性的損害。因此,設計基于人工智能的方法是至關重要的,它可以主動應對試圖破壞和獲取自主系統及其指揮組件的潛在破壞性攻擊,例如,針對系統的基本自主決策能力。自動檢測和應對鋪天蓋地的安全威脅,處理大量的數據,并發現未知攻擊的新模式,是人工智能系統在網絡安全方面的一些好處[148]。

人工智能在網絡安全方面的挑戰。人工智能會帶來不可預見的法律、道德和社會風險和挑戰,如果不能有效解決,可能會大大降低其潛力。如上所述,人工智能及其先進的ML技術已經發展成為廣泛的創新和動態領域的一項有利技術。人工智能具有戰術和戰略上的潛在好處。然而,在與使用人工智能系統相關的信任和道德考慮方面,它也被認為有一些關鍵的制約和限制。例如,[149]中的作者談到,人工智能本身可能對網絡安全和法律及道德問題構成威脅。他們認為,人工智能系統缺乏可解釋性和可解釋性,可以被利用來隱藏安全攻擊[149]。[150]中的另一項工作也證明了人工智能在網絡安全威脅方面既有積極作用,也有消極作用。此外,鑒于人工智能驅動的網絡欺凌的興起,作者還認為應該允許網絡安全專家繼續做他們的工作,并在人類智能有必要時進行網絡測試。

7.1. 入侵檢測

入侵檢測系統旨在檢測網絡中盡管采取了預防措施但仍不可避免地發生的入侵或安全攻擊[151]。入侵檢測系統有多種方法。一些方法采用了基于簽名的技術,在該技術中,事件被檢測到并與預先定義的已知安全攻擊和入侵的簽名數據庫進行比較[152,153]。其他系統采用異常檢測技術,系統在數據中發現潛在的有害模式,這些模式不符合正常行為的預期概念[154,155,156] 。在現代自主技術中,監測和識別異常情況,檢測非法和惡意活動,并采取補救措施,以確保實時自主決策系統的持續運行,特別是在戰術環境中,同樣重要。[157]中提出了一個原型的分布式入侵檢測架構,該架構使用為戰術環境定制的自主代理。[158]中提出了一種基于人工智能的方法來識別和檢測無人機中的入侵行為。

7.2. 反自主性

反自主技術越來越受歡迎,之前已經提出了各種方法來解決這個問題。當一個自主系統的基本保密性和功能受到損害時,它就會使自己更容易受到未來的安全攻擊,并對其他自主系統構成潛在威脅。因此,在不斷變化的條件下,主動檢測和識別旨在針對自主系統的潛在網絡攻擊是至關重要的。在[159]中,作者調查了需要解決的安全和隱私挑戰,以提高網絡物理系統的復原力。在[160]中介紹了一個用于自駕車的入侵檢測系統。160]中的工作涉及到,自動駕駛汽車如果被破壞,也會對道路上的乘客和行人構成風險。此外,他們的論文還討論了互聯自動駕駛汽車的漏洞如何超越了對道路上的司機、乘客和行人的危害。作者認為,互聯自動駕駛汽車的協調有可能被用來發動影響大規模車輛特設網絡(VANET)的大范圍攻擊[160]。

無人機系統具有巨大的潛力,可以在廣泛的下一代技術應用中徹底改變研究和創新。這些系統有可能受到復雜的攻擊,旨在破壞其復雜的操作和自主決策能力。這些攻擊可以用于進攻性和防御性的網絡行動。因此,有必要制定靈活和積極的戰略,有效地提供一個潛在的防御機制,以應對旨在利用安全關鍵的自主系統在最小的人為控制下的實時漏洞的攻擊。

8. 與戰術自主性有關的一些挑戰

戰術自主性為許多國防和軍事應用提供了一個很好的解決方案,只需有限的人力參與。ML和AI系統為實現民用和軍事應用的自主性創造了前所未有的機會。然而,為了開發長期的、值得信賴的、強大的和安全的自主系統,需要解決基本的挑戰。對智能系統中使用的復雜技術和工藝的實際理解是許多人工智能和ML系統的關鍵部分,這些系統是戰術自主的核心組成部分。

雖然有許多開放性的研究問題需要解決,但要實現戰術自主性在國防和其他應用中的全部潛力,需要解決的一些最長期和最重要的挑戰包括以下幾點。

  • 用于戰術自主的可信賴的人工智能。為關鍵的國防任務開發可信的、強大的和有彈性的人工智能和ML框架,需要了解與可信的人工智能和任務自主性有關的理論和實踐技術和方法,平臺之間的協作,以及通過解決第4節、第5節和第6節分別討論的關鍵技術挑戰實現的人機合作。為了增強對人工智能系統的信心,我們需要進行更多的研究來解決這些問題,使人工智能系統值得信賴。

  • 對基于人工智能的模型進行驗證。確保基于人工智能的解決方案按照預期工作是極其重要的。然而,設計最先進的方法來驗證基于人工智能的系統是具有挑戰性的,需要大量的工作。

  • 平臺之間的協作。改善人類和完全自主的系統(如飛行員和自主副駕駛)之間的實時協作是具有挑戰性的。因此,開發一個有效的、高效的協作性自主解決方案是一個需要克服的關鍵挑戰。

  • 人機聯合協作。深入了解機器如何向人類學習,人類如何向機器學習,以及機器和人類如何共同工作是非常重要的。我們如何才能設計出先進的自主系統,在軍事和國防環境中與人類協同工作?

  • 提高安全性。我們如何設計和部署一個端到端的方法,整合現代安全關鍵型自主系統的安全問題?

9. 結論

軍事和國防工業希望利用AI和ML的能力來推進和改善其在戰術環境中的表現。在本文中,我們對戰術自主的概念、技術和技術進行了全面的技術概述。此外,我們的論文還強調了在試圖為先進的現實世界軍事和國防應用實際建立完全自主系統時出現的一些關鍵和操作挑戰。因此,我們希望本文能鼓勵人工智能和ML研究人員在戰術自主性領域進一步探索開發架構和方法論。

設計先進的人工智能和ML模型,對現實世界的軍事和國防應用具有實際意義,這是一個很大的挑戰。進一步調查這個問題,重點是在以前的研究工作中沒有充分解決的尖端人工智能和ML方法,是未來工作的一個有趣的方向。此外,展示一系列實際應用和最先進的方法,以解決和深入了解本文所討論的一些長期關注的挑戰,是未來戰術自主權實際應用的另一個研究方向的課題。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)有可能影響所有領域和大規模的軍事行動。本章探討了人工智能系統如何影響準備和開展軍事行動的主要工具,以及如何受其影響。本章分析和討論了人工智能在戰略、條令、規劃、交戰規則和命令方面的多層次影響。采取了一個廣泛的分析角度,能夠根據新的政策和技術發展,以及對政治、軍事、法律和道德觀點的考慮,對這個問題進行總體審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。提供了洞察力和途徑,以推進對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

引言

人工智能(AI)的軍事應用有可能影響所有領域和大規模的軍事行動的準備和進行。人工智能系統可以越來越多地支持和取代人類完成軍事任務,因為它們變得更快、更準確,并能夠處理更多的信息和更高的復雜程度。這可能促進軍事行動速度的提高和更好的軍事決策,最終為擁有高性能人工智能的武裝部隊提供顯著優勢。人工智能的軍事用途甚至可能導致軍事事務的另一場革命,盡管這種發展將取決于其他因素而不僅僅是技術。

人工智能可以被用于各種軍事目的。在多維戰場上,人工智能技術可以被用作傳感器、規劃者和戰斗機,或兩者的結合。更具體地說,人工智能的軍事應用可以從支持情報、監視和偵察(ISR)的系統到自主導航和目標識別系統。這可能導致軍事人員和人工智能系統之間不同形式的互動,以及將軍事任務委托給人工智能系統的不同層次。例如,人工智能系統可以在決策過程中協助指揮官和士兵,無人駕駛的人工智能系統可以與有人駕駛的系統一起協作,人工智能系統可以在最少的人類監督下自主運行。 雖然目前只存在狹義和特定任務的人工智能,但正在大力發展人工通用智能(AGI)--具有類似于人類思維的廣泛領域推理能力的系統。 這與人工智能系統的自主性不斷增強的趨勢是一致的。

鑒于人工智能的特殊性和未來的應用,出現了一個問題,即人工智能的引入將如何影響軍事行動。本章通過評估人工智能如何影響準備和進行軍事行動的主要工具并受其影響來探討這一問題。具體而言,本章分析和討論了人工智能在戰略(第1分章)、條令(第2分章)、規劃(第3分章)、交戰規則(第4分章)和命令(第5分章)方面的多層次影響。以下各章將對每個工具進行一般性解釋,然后討論這些工具與人工智能的具體相互關系。

本章采取了一個廣泛的分析角度,包括了部隊整合和指揮與控制(C2)等軍事概念的各個方面,但并不限于此。 這使得在新政策和技術發展的基礎上,以及在考慮政治、軍事、法律和倫理角度的情況下,能夠對這個問題進行更全面的審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。本章最后發現了人工智能與準備和進行軍事行動的主要工具之間的動態相互關系,并將人類操作員和人工智能之間的互動定位為核心基本問題。

由于軍事人工智能是最近才出現的,因此對納入人工智能的未來軍事行動的任何分析只能是暫時性的,并基于這樣一個前提,即目前對具有高度自主性的人工智能,進行操作化的挑戰將被克服。然而,鑒于技術的快速發展,本章為推動進一步的思考、研究和政策制定提供了見解和途徑,以便在軍事行動中適當整合、管理和使用AI。

1. 戰略與人工智能

軍事行動為國家的政治和戰略目標服務。在戰爭的三個層面(戰略、戰役和戰術)中,軍事戰略是最高的。它可以被描述為 "戰爭的安排 "或 "戰爭的方向"。它為軍事行動提供依據,處于政治和軍事領域的交界處。 從本質上講,軍事戰略是一項計劃,它將最終目標與實現這一目標的手段聯系起來。更具體地說,軍事戰略可以被定義為 "使用武裝力量來實現軍事目標,進而實現戰爭的政治目的 "或 "在戰爭中達到預期結果的概念和實際考慮的表現,涉及對特定敵人的組織、運動和戰術、戰役和戰略使用或承諾的力量。國家安全和國防戰略可以為軍事戰略建立總體框架,而且經常可以在白皮書中找到。

各國還沒有公開通報他們如何使用或打算使用人工智能來制定軍事戰略。因此,在現階段,分析人工智能對軍事戰略的影響以及反之亦然,必須依靠國防白皮書和各國的人工智能戰略。一般來說,雖然在過去幾年中,大約有50個國家發布了關于人工智能在多個部門(特別是民用和工業部門)的使用、發展和融資的官方人工智能戰略,但這些文件一般不關注或幾乎不提及國防應用。然而,主要軍事強國最近通過了與軍事人工智能有關的國家戰略或類似文件,表明各國已經意識到軍事人工智能的戰略重要性,并指導他們努力開發、采購和將人工智能系統納入其武裝部隊。

美國國防部(DOD)在2018年發布了一項人工智能戰略,該戰略強調了優先發展的領域,確定了應如何與民間社會組織建立發展伙伴關系,并制定了一項關于人工智能機器倫理的政策生成計劃。美國人工智能國家安全委員會在2021年發布了一份報告,提出了與人工智能有關的國家防御戰略。 目標是到2025年達到人工智能準備,這意味著 "組織改革,設計創新的作戰概念,建立人工智能和數字準備的性能目標,并定義一個聯合作戰網絡架構",以及贏得"技術競爭"。

俄羅斯到目前為止還沒有公布關于軍事人工智能的政策,但正在積極資助私營和公共部門的研究。2018年,俄羅斯舉行了一次會議,提出了十項政策建議(AI: Problems and Solutions 2018),這些建議構成了其人工智能戰略的非官方基礎。

歐洲國家在人工智能戰略方面處于類似的階段。在英國2021年國防白皮書通過后,英國國防部(MOD)在2022年通過了《國防人工智能戰略》。 該戰略規定了國防部采用和利用人工智能的速度和規模,與工業界建立更強大的伙伴關系,并開展國際合作,以塑造全球人工智能的發展。 法國沒有采取這樣的戰略,但其《國防人工智能報告》強調了將人工智能納入其武裝部隊的戰略優勢,如分析和決策的速度,優化作戰流程和后勤,以及加強對士兵的保護,并將機器學習歸類為研究和開發(R&D)的主要領域。

雖然更多的國家發表了關于人工智能的分析和政策,但卻沒有對未來的軍事戰略提出見解,北約在2021年通過了其人工智能戰略。該戰略是整個聯盟的人工智能準備和運作的基礎,隨后是北約的自主實施計劃,包括在2022年創建數據和人工智能審查委員會。 歐盟至今沒有采取類似的戰略,只限于在2020年的《人工智能、機器人和相關技術的倫理問題框架》中鼓勵與軍事有關的人工智能領域的研究。

由于各國關于人工智能或與人工智能相關的國防戰略并沒有明確說明人工智能將如何影響軍事戰略,因此可以根據未來可能使用人工智能進行戰略決策的跡象來確定各自的期望。人工智能在戰爭戰略層面的應用實例是對核指揮、控制、通信和情報(C3I)架構的貢獻;導彈和防空系統的目標獲取、跟蹤、制導系統和識別;網絡能力;以及核和非核導彈運載系統。

對于軍事戰略來說,最重要的是,人工智能的應用可以幫助決策者監測戰場并制定方案。事實上,可以開發人工智能來預測其他國家的行為和反應,或生成正在進行的沖突的進展模擬,包括兵棋推演模型。人工智能還可以用來評估威脅,提供風險分析,并提出行動方案,最終指導決策者采取最佳對策。 此外,人工智能可以支持武裝部隊的方式和手段與既定的政治和戰略目標相一致,這是軍事戰略的一個主要功能。這種發展的一個后果是軍事進程的速度和質量都會提高。雖然這將為那些擁有高性能人工智能的國家提供巨大的優勢,但這也可能迫使武裝部隊越來越多地將軍事行動的協調工作交給人工智能系統。

將人工智能用于軍事戰略也可能導致挑戰,包括預測性人工智能需要無偏見和大量的數據。可靠的人工智能系統將需要用龐大的數據集進行訓練。 此外,專家們警告說,人工智能可能會加劇威脅,改變其性質和特點,并引入新的安全威脅。 一項關于將人工智能納入核C2系統的桌面演習表明,這種系統 "容易受到惡意操縱,從而嚴重降低戰略穩定性"。這種脆弱性主要來自于第三方使用技術欺騙、破壞或損害C2系統所帶來的風險,這表明系統安全對AI用于軍事戰略的重要性。

另一個重要的挑戰是,人工智能可能會加快戰爭的速度,以至于人類將不再能夠跟隨上述速度的發展,最終導致人類失去控制。 這種現象被稱為 "戰場奇點 "或 "超戰爭",可能導致戰略錯誤和事故,包括非自愿的沖突升級。即使這種風險能夠得到緩解,對人工智能的更多依賴也會減少軍事戰略中人的因素,特別是心理學和人的判斷。觀察家們認為,這可能會導致 "人工智能如何解決人類提出的問題,以及人類如果擁有人工智能的速度、精度和腦力會如何解決這個問題 "之間的差距。 然而,專家們也提出,戰略的制定需要對價值的理解,成本的平衡,以及對戰爭所處的復雜社會系統的理解,從而大大限制了人工智能在軍事戰略上的應用。還有一種可能是,當敵人擁有人工智能系統提供的高水平的理性預測能力時,決定性的因素將不是人工智能系統的能力,而是人類的判斷,特別是關于關鍵和困難的選擇。然而,這假定了某種程度的有意義的人類參與。

總之,主要的軍事大國正在投資開發、獲取和操作其武裝部隊的人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

總之,主要的軍事大國正在投資開發、獲取和使用人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

2. 條令與人工智能

軍事條令進一步指導軍事行動的準備和執行。軍事條令可以被定義為 "從制度化的角度來看,執行軍事任務和職能普遍接受的方法"。因此,它代表了'在戰爭和軍事行動中什么是有效的制度化信念'。條令一般包含三個關鍵要素,即理論(什么是有效的,什么會導致勝利)、權威(條令必須被認真對待)和文化(組織及其成員是誰)。 因此,條令回答了 "軍隊認為自己是什么('我們是誰'),它的任務是什么('我們做什么'),如何執行任務('我們怎么做'),以及歷史上如何執行任務('我們過去怎么做')"等問題。 《美國陸軍條令入門》將條令描述為由基本原則、戰術、技術、程序以及術語和符號組成。

鑒于條令的目的和功能,人工智能在發展軍事條令方面的作用可能有限。它可能會繼續由人類創建和修訂。人工智能的具體作用可能僅限于監測武裝部隊的進程與他們的條令是否一致,以確定過去的工作,并支持對條令的質量和影響進行評估。為了有效地告知負責定義條令的軍事人員,這可能需要透明和可解釋的人工智能方法,否則軍事人員將無法理解并做出適當的決定。

然而,條令在設定人工智能的使用和人類互動的基本原則、價值和參數方面具有重要作用。值得注意的是,軍事條令是界定武裝部隊如何感知、理解和重視人工智能的適當手段。由于人工智能的高度自主性,武裝部隊可能需要明確人工智能是否被視為一種技術工具,或者說是一種代理手段。在這個意義上,條令可以定義武裝部隊是否將人工智能視為簡單的數學、技術系統,或者說是具有認知能力的工具。條令可以定義人類在組織中的價值、地位和作用,以及使用人工智能的過程。由于軍事行動和戰爭是人類為達到目而發起的行動,條令可以明確這意味著什么。在這種情況下,條令也可以定義人類與人工智能系統互動的價值和原則,包括人工智能需要為人類服務而不是相反。

同樣,條令也是定義人工智能系統的開發、獲取和使用的道德標準工具。由于軍事條令是根據國際法起草的,并且通常呼吁武裝部隊成員尊重國際法,因此條令也可以定義人工智能系統和運營商遵守國際法的方式。條令是對人工智能和人機協作施加限制的重要工具,適用于各軍種和武裝部隊的所有成員。這可能意味著對人工智能系統進行有意義的人類控制的一般要求,或禁止將某些功能授權給人工智能系統。

更具體地說,條令可以為人工智能融入組織流程設定原則和參數。例如,從事數據整合、優先排序的人工智能系統可能需要修訂軍事條令和武裝部隊使用和收集信息的準則。雖然僅限于觀測的任務系統需要有限的條令調整,但有更多 "積極 "任務的系統可能需要更具體的指導方針,如保障措施、自主程度、與操作者的溝通以及與人類部隊的互動。此外,有人認為,戰術應用主要是基于規則的決策,而戰役和戰略決策往往是基于價值的。每個級別的首選決策過程類型以及這種過程是否應該標準化,可以在條令層面上確定。

迄今為止,各國還沒有公布專門針對人工智能系統的軍事條令。英國國防部關于無人駕駛飛機系統的聯合條令是目前唯一公開的涉及軍事系統自主性的軍事條令。 然而,未來關于人工智能或與人工智能相關的軍事條令可能會根據人工智能的道德使用政策來制定。 事實上,這種政策定義了相關的價值觀、原則和使用軍事人工智能的形式,并為其提供指導,其目的與軍事條令類似。一些國家和組織最近通過了這種關于軍事人工智能道德使用的政策,包括北約。

美國國防部為人工智能的發展和使用采用了五項道德原則。系統需要負責任、公平、可追蹤、可靠和可治理。這些原則規定,美國防部人員負責人工智能系統的 "開發、部署和使用",因此必須表現出良好的(人類)判斷能力。此外,美國防部明確確定,必須努力將人工智能運作的數據偏見降到最低。 此外,美國國防部2012年3000.09指令確定了美國對致命性自主武器系統(LAWS)的立場。它定義了致命性自主武器系統,確定了三類智能武器系統(自主、半自主和人類監督的自主系統),并為其行動設定了一般界限,以及有關人類操作員的作用和法律審查的標準。

同樣,歐盟議會也通過了一份題為《人工智能:國際法的解釋和應用問題》(人工智能的民事和軍事使用準則),其中特別討論了人工智能的軍事應用。 該報告包含了關于歐盟成員國開發和使用軍事人工智能應用的強制性準則以及一般性結論。首先,報告解釋說,人工智能不能取代人類決策或人類責任。 第二,為了合法,致命性自主武器系統必須受到有意義的人類控制,要求人類必須能夠干預或阻止所有人工智能系統的行動,以遵守國際人道主義法(IHL)。第三,人工智能技術及其使用必須始終遵守國際人道主義法、國際刑事法院羅馬規約、歐盟條約、歐盟委員會關于人工智能的白皮書,以及包括透明度、預防、區分、非歧視、問責制和可預測性等原則。

2021年4月,法國道德委員會公布了一份關于將致命性自主武器和半自動武器納入武裝部隊的意見。盡管其內容尚未得到國防部長的批準,但它代表了未來潛在的軍事條令。該文件重申了人類對自主武器的致命行動保持一定程度控制的重要性,并聲稱法國不會開發也不會使用完全自主的武器。同樣,澳大利亞發表了一份題為《國防中的道德人工智能方法》的報告,其中討論了與軍事人工智能應用有關的道德和法律考慮,但并不代表官方立場。

總之,除了評估和修訂之外,人工智能不太可能對創建軍事條令有實質性的作用,因為條令的作用是定義和規范軍事組織問題以及與信仰、價值觀和身份密切相關軍事行動的各個方面。然而,正是由于這種功能,條令在確定武裝部隊與人工智能的基本關系方面具有重要作用。特別是,條令適合于籠統地規定人工智能將(不)用于哪些任務,人工智能將(不)如何使用,以及組織及其成員如何看待和重視人工智能。最重要的是,鑒于人工智能的特點,條令可以確定人類如何并應該與人工智能互動,以及何種組織文化應該指導這種關系。因此,條令可以為進一步的軍事指令和程序設定規范性框架。各國的道德準則可以作為軍事條令的基礎并被納入其中。

3.規劃和人工智能

根據各自的軍事條令制定的作戰和行動計劃,是根據現有手段實現軍事目標的概念和指示。規劃反映了指揮官的意圖,通常包括不同的行動方案(COA)。存在各種軍事計劃和決策模式,但北約的綜合作戰計劃指令(COPD)對西方各種模式進行了很好的概述和綜合。 例如,加拿大武裝部隊遵循六個步驟,即啟動、定位、概念開發、決策計劃制定和計劃審查。一般來說,規劃包括 "規劃和安排完成特定COA所需的詳細任務;將任務分配給不同的部隊;分配合適的地點和路線;刺激友軍和敵軍的戰斗損失(減員);以及重新預測敵方的行動或反應。

雖然規劃需要考慮到人工智能系統在軍事行動中的使用,但人工智能最有可能被用于規劃本身。用于軍事規劃或與之相關的人工智能應用是ISR系統、規劃工具、地圖生成機器人,以及威脅評估和威脅預測工具。 與規劃有關的進一步人工智能應用可能包括大數據驅動的建模和兵棋推演。例如,美國陸軍為其軍事決策過程(MDMP)開發了一個程序,該程序采用 "高層次的COA"(即目標、行動和順序的草案),并根據這個總體草案構建一個詳細的COA,然后測試其可行性。這表明,人工智能可以發揮各種功能,從COA提議到解構和測試。

人工智能應用可能會對計劃產生強烈影響。規劃軍事行動是一個緩慢而繁重的過程,它依賴于對 "結果、損耗、物資消耗和敵人反應 "的估計。它涉及到對特定情況的理解、時空分析和后勤問題。然而,有限時間和勞動力限制了可以探索的選項數量。此外,預測可以說是"作戰指揮官最棘手的任務之一"。只要能提供足夠數量和質量的數據,人工智能在預測的質量和速度上都可能會有出色的表現。數據分析能夠進一步處理比人類計算更多的信息,最終減少"戰爭迷霧"。由于人工智能程序可以將行動分解為具體的任務,然后相應地分配資源,預測敵人的行動,并估計風險,因此人工智能的使用將提高決策的總體速度和準確性。增加可考慮的COA數量將進一步使規劃過程得到質量上的改善。

然而,使用人工智能進行規劃也有潛在的弊端。由人工智能驅動的更快規劃所帶來的戰爭速度提高,可以說會減少決策者的(再)行動時間,這可能會損害決策的質量。還有人質疑,人工智能驅動的規劃是否會"導致過度關注指揮分析方面,通過書本和數字削弱了軍事指揮決策的直覺、適應性和藝術性"。指揮官和其他軍事人員也可能變得過渡依賴技術,使他們變得脆弱。剩下的一個挑戰是產生足夠的相關數據,讓人工智能規劃系統正常工作并產生有意義的結果。

人工智能系統將執行規劃任務以及協助軍事人員,但它們可能不會根據這些計劃做出適當決策。事實上,有人認為,人工智能系統難以完成與指揮有關的任務,如設定目標、優先事項、規則和約束。因此,人類的判斷對于這些任務仍然是必要的。人工智能寧愿執行控制任務,并最終彌補軍事人員的認知偏差。然而,隨著新版本的C2(部分)納入人工智能,觀察家們質疑是否清楚誰將擁有跨領域的決策權,人類在這種架構中會和應該發揮什么作用,以及技術是否準備好進行大規模開發。

當強大的人工智能系統被用于軍事規劃時,規劃和決策之間的區別可能會變得模糊不清。與人類因軍事行動的高速發展而無法正確跟蹤事件進程的風險類似,將規劃任務更多地委托給人工智能可能意味著指揮官和規劃者不再能夠理解或追溯系統如何得出結論。同樣,指揮官可能會因審查眾多擬議計劃或COA的任務而被壓垮。人工智能生成的方案也可能意味著更高的復雜程度。因此,人工智能可以被用來消化信息,只向指揮官提供最相關的內容。然而,這可能會導致對人工智能的進一步過度依賴。因此,強大的人工智能系統,或系統簇(SOS),將需要一定程度的可預測性和透明度。

總之,與人工智能的其他軍事應用相比,至少在中短期內,人工智能可能會對規劃產生最重大的影響。由于規劃是極度時間和資源密集型的,人工智能系統可以導致速度、精度和質量的提高。這可能會對軍事行動和戰爭產生重大影響,因為有人認為,軍事競賽的贏家是那些在觀察、定位、決策和行動(OODA環)中工作最快的人。一個進一步的影響是,規劃的自動化導致了軍事決策的(進一步)合理化,包括人員傷亡的合理化。另一個后果是對人力的需求減少。然而,規劃方面的人力需求減少并不意味著基于軍事規劃決策的人力判斷需求減少,特別是在價值觀和直覺仍然是規劃的核心內容情況下。

4. 交戰規則與人工智能

交戰規則(ROE)用于描述軍事力量部署的情況和限制。交戰規則可采取多種形式,包括執行命令、部署命令、作戰計劃和長期指令。無論其形式如何,它們都對 "使用武力、部隊的位置和態勢以及使用某些特定能力 "等進行授權或限制。交戰規則有共同的要素,如其功能和在作戰計劃中的地位,以及其他基本組成部分。交戰規則通常是 "軍事和政治政策要求的組合,必須受到現有的國際和國內法律參數約束"。因此,其要素和組成部分反映了軍事行動、法律和政治要素。通用的交戰規則和模板文件,如北約的MC362/1和Sanremo交戰規則手冊,可以作為交戰規則起草者的基礎或靈感,而這些起草者通常是軍事法律顧問。雖然交戰規則一般不會分發給所有低級軍官,但士兵們經常會收到含有簡化的、基本版本的交戰規則記憶卡。

交戰規則是與軍事力量部署和武力使用有關的更大監管框架的一部分。因此,它們與其他類型的軍事指令相互作用,特別是目標選擇和戰術指令。目標定位指令提供了關于目標定位的具體指示,包括對目標的限制和盡量減少附帶損害。戰術指令是 "針對整個部隊或特定類型的單位或武器系統的命令,規定在整個行動中執行特定類型的任務或在行動中限制使用特定的武器系統。雖然交戰規則不是必不可少的,但它們可以為部隊及其成員提供更具體和細微的指示。

交戰規則是確定如何使用人工智能以及在哪些條件下可以在特定情況下應用的適當工具。交戰規則——或相關的行為規則——可以為人工智能的各種軍事應用設定參數,從而將特定的政治、軍事、法律和道德考慮以及來自更高組織或規范梯隊的限制,如條令或國際法律義務,轉化為具體指令。因此,ROE可以代表一個行動框架,被編入AI系統。例如,ROE可以確定一個地理區域或某個潛在任務的清單,系統被授權采取行動。在這些限制之外,他們將不會對處理過的信息采取行動。時間或其他限制,如預先設定的允許(不)與特定目標交戰,也可以由ROE定義。同樣,ROE可以預見一個系統需要標記的意外事件或問題。在這種情況下,有些人提出,人工智能可能會根據環境或其編程的任務來選擇應用哪種ROE。

ROE也可以定義人類和人工智能系統在特定任務中的互動。特別是,ROE可以確定指揮官或操作員在部署期間需要如何監測和控制該系統。由于對人類控制的需求可能會根據歸屬于人工智能系統的具體任務以及各自的背景和行動而有所不同,人工智能的ROE可以定義某些類型的行動或階段的自主性水平。ROE可以進一步處理或參考其他來源,如手冊和指令,關于如何實施各種形式的人類控制,如直接、共享或監督控制。重要的是,ROE可以限制指揮官或操作人員的權力,這可能迫使他們在指揮系統中參考上級。這可能是軍事行動中關于人機協作的ROE的一個重要作用,特別是在面對未曾預料到的情況或問題時,系統或其使用沒有事先得到授權。

當人工智能被用于傷害人和物或與之有關時,如在定位目標的情況下,ROE尤其相關。特別是當考慮到人工智能不能將道德或背景評估納入其決策過程時,在做出使用致命武力的決策時,人類的控制和判斷應該是有意義的。如上所述,大多數公開的政策在原則上確立了這種監督,但很少明確其確切含義。交戰規則和指令可以填補這一空白。為此,可以為人工智能系統的操作者制定與目標定位有關的行為準則,或為此類系統制定ROE模式。

事實上,雖然到今天為止還沒有能夠在沒有人類授權的情況下攻擊人類目標的自主武器,但在目標定位方面,更加自主的系統將是一個大的趨勢。與目標定位有關的現有軍事應用是目標識別軟件,如可以檢測衣服下爆炸物的Super aEgis II,以及用于目標交戰的系統。美國人工智能制導的遠程反艦導彈(LRASM)被宣傳為能夠自主地選擇和攻擊目標,甚至在GPS和通信受阻的環境中,如深水和潛在的外太空。另一個值得注意的事態發展是,據報道,2020年3月在利比亞部署了一架土耳其Kargu-2無人機,據稱該無人機在沒有人類操作員授權的情況下跟蹤和攻擊人類目標。它的使用可能代表了一個重要的先例,即在人類控制非常有限的情況下使用人工智能系統進行目標定位。

由于需要對ROE進行管理,人工智能可以協助主管當局協調、實施并最終確定ROE。軍事、政治、法律和道德目標和參數需要由軍事人員提供--至少在初始階段。正如北約的MC362/1號文件和《圣雷莫ROE手冊》所說明的那樣,ROE的后續管理是一個系統的、反復的過程,包括將具體的權力賦予不同級別的指揮部,以及監測ROE的實施和遵守情況。隨著時間的推移,人工智能系統可能會學會緩解ROE內部和之間的摩擦,以及為其適應性提升效率。例如,盡管國際法的實質內容可能本質上需要基于價值的判斷,而這種判斷不應委托給人工智能系統,但界定哪些規則需要在哪些情況下適用并不是一個過于復雜的理性過程。為了避免改變現有法律框架的實質內容,這種功能要求任何用于管理ROE的AI應用不能侵犯歸屬的權力。

總之,ROE可以成為一個有用的工具,以具體和實用的方式指導軍事AI的使用。因此,它可以補充和執行上級的政策、法規和準則,從而使軍事、政治、法律和道德目標和原則轉化為具體行動。ROE的指導對于人機協作,以及定義和具體化與人工智能系統有關的人類控制和判斷,在目標定位方面尤其重要。人工智能的應用可以進一步提高ROE管理的質量和效率。雖然這可能有助于協助軍事人員,類似于人工智能應用于軍事規劃,但軍事人員需要對ROE的實質進行有效監督,即誰或什么系統在什么情況下可以使用武力。然而,如果人工智能能夠實現更廣泛的、更細微的、更快速的交替性ROE,確保這種監督可能會變得具有挑戰性。

5. 作戰命令與人工智能

規劃和實施軍事行動的最具體的工具是命令。例如,北約和美國陸軍將命令定義為 "以書面、口頭或信號的方式傳達上級對下級的指示"。雖然有不同類型的命令,但它們一般都很簡短和具體。命令可以是口頭的,也可以是圖形的,還可以是疊加的。它們必須遵守法律以及上級的軍事文件和文書。另一個經常使用的術語是指令,它被定義為 "指揮官下達的命令,即指揮官為實現某一特定行動而表達的意愿。

從軍事參謀人員到人工智能系統的指令將采取系統初始開發的形式,有關任務目標和限制的參數編程,以及操作人員在操作期間的輸入。人類和人工智能系統之間的這些互動形式可能會履行傳統上歸屬于命令的功能。雖然人工智能系統的開發和操作,特別是機器學習,有其特殊的挑戰,但測試表明,機器并不存在不服從命令的內在風險。由于在操作過程中人的輸入等于人對系統的控制,如果一個系統能夠根據適當的學習自主地調整其行為,這一點就特別重要,現在正在開發防止系統在沒有人類輸入下采取行動的保障措施。例如,美國國防部3000.09指令規定,致命性武器系統的編程方式必須防止其在未經人類事先批準的情況下選擇和攻擊目標,特別是在失去通信的情況下。

人工智能和操作人員之間具體的互動形式仍在繼續開發。美國陸軍實驗室設計了一種軟件,使機器人能夠理解口頭指示,執行任務,并進行匯報。會說話的人工智能現在也被開發出來,以實現操作員和系統之間的口頭對話。這種互動使系統能夠要求其操作者進行澄清,并在任務完成后提供更新,以便士兵在工作中獲得最新的信息。諸如此類的應用可能使軍事人員更容易與人工智能合作,并減少操作員對人工智能控制的學習曲線。然而,人工智能應用也可以支持指揮官下達命令和指令的任務。人工智能尤其可以用來提高通信系統的穩健性和容錯性,這顯然可以使命令的傳輸更加安全。

雖然人工智能系統可能不會被委托正式發布命令,但是類似的動態可能會出現。對于人工智能系統之間的互動,命令是沒有必要的,因為系統只是作為數字應用網絡的一部分交換信息。關于對軍事人員的命令,武裝部隊似乎不可能接受人工智能系統向其成員發出指令。然而,由于人工智能系統可能會以越來越高的速度和復雜性提出行動建議,作為人類決策的輸入,軍事人員可能不會質疑這些建議,沒有時間批判性地評估它們,或者根本無法理解系統如何得出結論。如果他們還是以這些建議為基礎采取行動,這種對系統輸入的過度依賴可能意味著系統事實上向人類發布命令。還有可能的是,通過信息技術接收指令的較低層次的操作員和士兵可能無法知道某個命令是由人類還是人工智能系統創造的。為了排除這種結果,軍事條令和指令需要建立與命令有關程序的透明度。

總之,在軍事行動中,正式的命令很可能與控制人工智能無關。然而,命令和指令的傳統概念可以幫助分析、分類和發展人工智能系統和人類操作員之間的未來互動。在這種情況下,卡爾-馮-克勞塞維茨提出的管理方法和任務型戰術(Auftragstaktik)之間的傳統區別表明,人類對人工智能系統的投入,即人工智能系統的開發、編程和操作控制,可以根據對執行任務細節的程度來進行分類。鑒于人工智能的特質,我們有理由認為,當人工智能系統被賦予高水平的自主權,類似于任務型戰術時,將對武裝部隊最有價值。同時,人類在行動中的投入將是非常精確的,起到管理作用。然而,最重要的是,這又回到了上文討論的可以授予 AI 系統多少自主權的根本問題。

結論

人工智能有可能影響所有領域和大規模的軍事行動。轉變的程度主要取決于未來的技術發展。然而,這也取決于武裝部隊將賦予人工智能的作用和功能。從這兩個因素中可以看出,人工智能與準備和開展軍事行動的主要工具之間存在著動態的相互關系。一方面,人工智能的引入將影響到這些工具以及軍事行動的準備和實施。另一方面,這些工具在監管和使用人工智能方面發揮著重要作用。這種相互關系是動態的,因為它很可能隨著技術的發展、部隊對人工智能系統的經驗、組織文化和社會價值觀的變化而變化。

上述內容討論了人工智能與準備和執行軍事行動的主要工具之間的相互關系,而其中核心潛在的問題是人類操作員與人工智能系統之間的相互作用。在戰略方面,國家的官方文件證明,獲得和運用人工智能具有戰略意義。人工智能將可能支持軍事戰略,特別是預測和規劃。戰略中的人為因素可能仍然至關重要,因為戰略依賴于本能和價值觀,但軍事人員有可能過度依賴人工智能。對于軍事條令,人工智能的作用可能僅限于評估和協助修訂條令。條令在決定武裝部隊的目的、價值觀和組織文化方面的功能表明,它將在確定武裝部隊如何看待人工智能系統并與之互動方面發揮重要作用。

人工智能將極大地幫助軍事規劃,特別是基于人工智能高速和精確地處理復雜和大量數據的能力。因此,即使人工智能系統不會被委托做出決策,軍事規劃人員和指揮官也有可能過度依賴他們的分析和建議,尤其是在時間壓力下。因此,人工智能支持決策和人工智能作出適當決策之間的界限可能會變得模糊不清。關于ROE,盡管人工智能可以支持ROE的管理,但后者主要是一個適當的工具,以具體的方式為具體的任務劃定人工智能的使用。這尤其適用于人機合作和人對人工智能應用的控制。在軍事命令方面,人工智能系統可能會大大協助指揮和控制,但不會被委托發布命令。然而,在實踐中,可能很難區分由算法發布的命令和由指揮官發布的命令。這可能會導致人工智能支持和人工智能決策之間的混淆,類似于規劃的情況。

因此,如果人類操作員和人工智能系統之間的交互,是人工智能與準備和執行軍事行動的主要工具之間動態相互關系的核心潛在問題,那么無論是技術發展還是工具適應性都需要特別注意適當的人類與人工智能的交互。可以預計,技術進步將主要塑造未來的人機協作模式。軍隊結構、標準和流程可能會跟隨技術發展而相應調整。然而,關鍵是要積極主動地界定基本原則、價值觀和標準,而不是簡單地適應技術發展,成為路徑依賴或面臨意想不到后果。

畢竟,關注適當的人與人工智能互動不僅是道德和法律的必要條件,也是通過引入人工智能有效提高軍事行動的必要條件。因此,對人工智能和軍事行動的進一步思考和研究,以及對人工智能和戰略、條令、規劃、ROE和命令的進一步思考和研究,應該側重于人機互動,因為這仍然是人工智能戰爭最緊迫的挑戰。這可能有助于在人工智能影響工具和這些工具管理軍事人工智能之間找到并確定一個適當的平衡。

付費5元查看完整內容

自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。

人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。

土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:

  • 第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。

  • 《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。

  • 焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。

土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。

土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。

土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。

土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。

土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。

土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。

培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。

付費5元查看完整內容

在過去的幾年里,人工智能(AI)的采用非常迅速,其使用也很廣泛。公共和私人部門的組織正在將人工智能用于廣泛的應用。在國防部門,對人工智能對國家安全的潛在影響的認識正在通過對后勤、半自動和自主武器、ISR(情報、監視和偵察)、指揮和控制以及網絡和信息行動的大量投資得到加強。畢竟,人工智能將戰爭的性質從信息化的方式轉變為智能化的戰爭方式。像美國和中國這樣的國家已經在其現有的防御框架中實施了一些形式的智能化戰爭。印度現在正以其新興和顛覆性的技術進步,向強大的軍民融合過渡。這篇背景文章探討了可能通過人工智能及其應用進行的智能化戰爭的所有方面,以及人工智能為國防帶來的挑戰和機遇。

印度的人工智能實施及其路線圖

印度的人工智能在軍事領域的實施處于起步階段;然而,其商業化的建立正以其在醫療保健、農業、教育、智能城市和基礎設施以及智能移動和交通等各個領域的不同應用而發展壯大。NITI Aayog在2018年發布了關于人工智能的國家戰略,主要關注這些領域。2021年,它進一步提出了一份關于負責任的人工智能第一部分和第二部分的報告,其中討論了印度人工智能的發展、采用和人工智能生態系統的培育。它的重點是促進研究、勞動力的技能培訓和再培訓,促進采用人工智能解決方案和發展準則。該報告還提出了對負責任的人工智能管理的問責制、安全、隱私和數據安全的關注。Niti Aayog的人工智能卓越研究中心(COREs)將作為國際轉型人工智能中心(ICTAIs)的技術供給者,旨在為社會領域創造基于人工智能的應用。

  • 印度在國防方面的人工智能研究由國防研究與發展組織(DRDO)領導,由人工智能和機器人中心(CAIR)負責。它的主要重點領域是人工神經網絡、深度學習、計算機視覺和態勢感知,包括以網絡為中心的行動和在龐大的戰場數據知識庫上運作的AIenabled系統。2019年,印國防部成立了一個高級別的國防人工智能委員會(DAIC),負責為國防中的人工智能應用提供戰略方向。其職能是在政府和行業之間建立伙伴關系,以部署這種基于人工智能的創新。一個由政府、軍方、學術界、工業界專業人士和初創企業代表組成的多利益攸關方工作隊,從國家安全的角度和全球范圍內研究人工智能的戰略影響。該報告闡述了印度在國防需求方面的人工智能發展,并就航空、海軍、陸地、網絡、核戰爭和生物戰等領域的國防人工智能能力提出了建議。鑒于這些發展,DAIC和國防人工智能項目局(DAIPA)獲得了1000億盧比的年度預算,專門用于人工智能支持的項目。它將包括開發一個數據管理框架,擴大數據中心的現有能力,建立一個便利的測試床網絡,并在所有國防培訓中心組織人工智能培訓課程。此外,它將與政府機構和行業合作準備政策,對社會和技術的濫用形成威懾。國防部的人工智能路線圖包括國防公共部門企業(PSU)承擔61個國防專用項目。國家任務組已經確定了12個人工智能領域,包括在印度軍隊中采用人工智能進行C4ISR。印度軍方已經與工業界和新技術創業公司合作開展了人工智能項目。

印度的人工智能能力

印度正在帶頭進行人工智能開發和采購,以加強其軍事基礎設施。印度人工智能軍事能力的一些例子包括用于ISR行動的人工智能機器人RoboSen,用于后勤支持的小型化便攜式行走機器人,具有認知能力的機器人,用于維護和維修部件,像黑黃蜂這樣的微型無人機,智能輪椅,以及CAIR的網絡流量分析(NETRA)系統,用于實時監控互聯網流量。印度的無人機能力包括Botlab Dynamics公司的蜂群無人機,HAL和NRT公司的空中發射靈活資產蜂群(ALFA-S),蜂群無人機,DRDO的Rustom 1。 印度海軍還計劃在關鍵任務領域整合基于人工智能的技術,并將INS Valsura作為大數據領域的卓越中心和關于人工智能和大數據分析的最先進實驗室。最近,2022年7月10日,在UDAAN(數字化、自動化、人工智能和應用網絡單位)的支持下,IAF在新德里的空軍站啟動了人工智能(AI)卓越中心。該中心配備了大數據和人工智能平臺,用于處理分析的所有方面,包括機器學習、NLP、神經網絡和深度學習。IIT-Hyderabad已經建立了一個關于自主導航和數據采集系統(TiHAN)的技術創新中心。DRDO的移動自主機器人系統(MARS)UGV和基于Arjun MK 1A戰斗坦克的UGV是正在籌備中的無人駕駛地面車輛,它們將配備120毫米火炮和本土地理信息系統(INDIGIS)。 印度國防部最近在GenNext人工智能解決方案的活動中展示了在過去三年中采取的人工智能舉措。為了促進國防部門的增長和發展,展示了iDEX初創企業技術,今年開始了第六屆國防初創企業挑戰。

付費5元查看完整內容

首先,美國軍隊所支持的作戰任務范圍涵蓋了在日益困難的作戰環境下的廣泛作戰需求。第二,對手的性質和普遍性,不僅包括主權國家,而且包括非國家恐怖組織,威脅到美國利益的關鍵地區穩定和美國在國內和國外的利益安全。 第三,當前和未來行動范圍和速度對及時有效地適應和應對局勢的能力提出了挑戰。預測對手的行動并以否定或最大限度地減少這些行動的影響的能力仍將是發展軍事能力的首要目標。 最后,技術的進步不僅提高了自身支持軍事行動的能力,也提高了敵人的技術先進性。他們在自己的行動中利用越來越多的新興技術能力的能力,或者,可能更具破壞性,利用技術漏洞來對付美軍,增加了新出現的威脅。

雖然美國繼續享有對那些威脅美國和盟國的重大技術優勢,但這種優勢永遠處于危險之中。隨著美國防部試圖處理其目前和未來行動中日益增加的復雜性,自主性的發展、部署和利用被吹捧為擴大作戰能力的基本手段。

盡管幾十年來,自動化一直是軍事和工業應用的主要內容,但自動化系統的早期應用也面臨著類似的挑戰。自動化的可靠性已大大改善,并繼續推進適應不確定和模糊的作戰環境動態的能力。然而,這些同樣的技術,像大多數技術進步一樣,導致了意想不到的,而且往往是不理想的后果。大量的研究致力于了解適應性自動化和人類-自動化協調在校準自動化系統以適應復雜環境中的動態情況方面所發揮的作用。 復雜環境中的動態情況。

第711人類性能聯隊的協作交互和團隊處發起了一項計劃,調查與先進人類自主性互動相關的問題,特別是與現有的人類-自動化協調研究的對比。決策優勢行動工具(COATDS)任務的啟動是為了調查人機交互的問題,了解自主系統發展的原則,并利用這種理解來指導交互的發展,以支持和加強復雜工作領域的人機協調。

這份最終報告總結了 COATDS 工作的整體文獻綜述部分。有關文獻綜述工作的更多信息也可在兩份早期出版物中找到(Hooper 等人,2015 年;Duffy 等人,2016 年)。本報告的主要目的是為讀者提供有價值的信息,讓他們了解算法和技術的工作知識,以及迄今為止為將其應用于集成的人類自主系統而開發的最佳實踐。除非另有說明,否則信息來自普遍接受的知識或人工智能的主要教科書“人工智能:現代方法”(Russell Norvig,2003 年)中的著作。由于本節的目的是收集和呈現為了讓讀者對這些技術有一個粗略的了解,許多示例直接取自本文,沒有明確引用以提高可讀性。此外,我們為這項工作開發的分類法中包含對方法的審查,包括介紹性材料定義關鍵術語并提供統一的框架和描述符。該報告最后對許多解決問題的方法進行了簡短的分析總結,以提供一個方便的參考工具,交互開發人員可以使用該工具快速檢索關鍵信息。

付費5元查看完整內容

自動化使系統能夠執行通常需要人類投入的任務。英國政府認為自動化對保持軍事優勢至關重要。本論文討論了當前和未來全球自動化的應用,以及它對軍事組織和沖突的影響。同時還研究了技術、法律和道德方面的挑戰。

關鍵要點

  • 在軍事行動中部署自動化技術可以提高有效性并減少人員的風險。
  • 在英國和國際上,自動化正被用于情報收集、數據分析和武器系統。
  • 英國政府正在開發自動化系統;技術挑戰包括數據管理、網絡安全以及系統測試和評估。
  • 軍事自動化的法律和道德影響受到高度爭議,特別是在武器系統和目標選擇方面。

背景

許多軍事系統都有自動化的特點,包括執行物理任務的機器人系統,以及完全基于軟件的系統,用于數據分析等任務。自動化可以提高某些現有軍事任務的效率和效力,并可以減輕人員的 "枯燥、骯臟和危險 "的活動。 許多專家認為,自動化和自主性是與系統的人類監督水平有關的,盡管對一些系統的定位存在爭議,而且對系統是否應被描述為 "自動化 "或 "自主 "可能存在分歧。英國防部在其 "自主性譜系框架 "中概述了5個廣泛的自主性水平,從 "人類操作 "到 "高度自主"。一個系統可能在不同的情況下有不同的操作模式,需要不同程度的人力投入,而且只有某些功能是自動化的。方框1概述了本公告中使用的定義。

方框1:該領域的術語并不一致,關鍵術語有時可以互換使用。

  • 自動化系統。自動系統是指在人類設定的參數范圍內,被指示自動執行一組特定的任務或一系列的任務。這可能包括基本或重復的任務。

  • 自主系統。國防科學與技術實驗室(Dstl)將自主系統定義為能夠表現出自主性的系統。自主性沒有公認的定義,但Dstl將其定義為 "系統利用人工智能通過自己的決定來決定自己的行動路線的特點"。自主系統可以對沒有預先編程的情況作出反應。

  • 無人駕駛車輛。朝著更高水平的自主性發展,使得 "無人駕駛 "的車輛得以開發,車上沒有飛行員或司機。有些是通過遠程控制進行操作,有些則包括不同程度的自主性。最成熟的無人駕駛軍事系統是無人駕駛航空器,或稱 "無人機",其用途十分廣泛。

  • 人工智能。人工智能沒有普遍認同的定義,但它通常是指一套廣泛的計算技術,可以執行通常需要人類智慧的任務(POSTnote 637)。人工智能是實現更高水平的自主性的一項技術。

  • 機器學習:(ML,POSTnote 633)是人工智能的一個分支,是具有自主能力的技術的最新進展的基礎。

英國政府已經認識到自主系統和人工智能(AI,方框1)的軍事優勢以及它們在未來國防中可能發揮的不可或缺的作用。在其2021年綜合審查和2020年綜合作戰概念中,它表示致力于擁抱新的和新興的技術,包括自主系統和人工智能。2022年6月,英國防部發布了《國防人工智能戰略》,提出了采用和利用人工智能的計劃:自動化將是一個關鍵應用。在全球范圍內,英國、美國、中國和以色列擁有一些最先進的自主和基于AI的軍事能力。方框2中給出了英國和全球活動的概述。

方框2:英國和全球活動

  • 英國 英國政府已表明其投資、開發和部署用于陸、海、空和網絡領域軍事應用的自主和人工智能系統的雄心。最近的投資項目包括NELSON項目,該項目旨在將數據科學整合到海軍行動中;以及未來戰斗航空系統,該系統將為皇家空軍提供一個有人員、無人員和自主系統的組合。在2021年綜合審查發表后,政府成立了國防人工智能中心(DAIC),以協調英國的人工智能國防技術的發展。這包括促進與學術界和工業界的合作,并在紐卡斯爾大學和埃克塞特大學以及艾倫-圖靈研究所建立研究中心。

  • 全球背景 對自主軍事技術的投資有一個全球性的趨勢:25個北約國家已經在其軍隊中使用一些人工智能和自主系統。有限的公開信息給評估軍隊的自主能力帶來了困難,但已知擁有先進系統的國家包括。

    • 美國。美國國防部2021年預算撥款17億美元用于自主研發,以及20億美元用于人工智能計劃。
    • 以色列。國有的以色列航空航天工業公司生產先進的自主系統,包括無人駕駛的空中和陸地車輛以及防空系統。
    • 中國。據估計,中國在國防人工智能方面的支出與美國類似。 分析師認為,這包括對情報分析和自主車輛的人工智能的投資。

俄羅斯和韓國也在大力投資于這些技術。在俄羅斯,機器人技術是最近成立的高級研究基金會的一個重點,該基金會2021年的預算為6300萬美元。

應用

自主系統可以被設計成具有多種能力,并可用于一系列的應用。本節概述了正在使用或開發的軍事應用系統,包括情報、監視和偵察、數據分析和武器系統。

情報、監視和偵察

自動化正越來越多地被應用于情報、監視和偵察(ISR),通常使用無人駕駛的車輛(方框1)。無人駕駛的陸上、空中和海上車輛配備了傳感器,可以獲得數據,如音頻、視頻、熱圖像和雷達信號,并將其反饋給人類操作員。一些系統可以自主導航,或自主識別和跟蹤潛在的攻擊目標。英國有幾架ISR無人機在服役,還有一些正在試用中。這些無人機的范圍從非常小的 "迷你 "無人機(其重量與智能手機相似)到可以飛行數千英里的大型固定翼系統。英國正在試用的一個系統是一個被稱為 "幽靈 "無人機的迷你直升機,它可以自主飛行,并使用圖像分析算法來識別和跟蹤目標。無人駕駛的水下航行器被用于包括地雷和潛艇探測的應用,使用船上的聲納進行自主導航。這些車輛還可能配備了一種技術,使其能夠解除地雷。

數據分析

許多軍事系統收集了大量的數據,這些數據需要分析以支持操作和決策。人工智能可用于分析非常大的數據集,并分辨出人類分析員可能無法觀察到的模式。這可能會越來越多地應用于實地,為戰術決策提供信息,例如,提供有關周圍環境的信息,識別目標,或預測敵人的行動。英國軍隊在2021年愛沙尼亞的 "春季風暴 "演習中部署了人工智能以提高態勢感知。美國的Maven項目旨在利用人工智能改善圖像和視頻片段的分析,英國也有一個類似的項目,利用人工智能支持衛星圖像分析。

武器系統

以自動化為特征的武器系統已被開發用于防御和進攻。這些系統包括從自動響應外部輸入的系統到更復雜的基于人工智能的系統。

  • 防御系統。自動防空系統可以識別和應對來襲的空中威脅,其反應時間比人類操作員更快。這種系統已經使用了20多年;一份報告估計有89個國家在使用這種系統。目前使用的系統可以從海上或陸地發射彈藥,用于應對來襲的導彈或飛機。英國使用Phalanx CIWS防空系統。雖然沒有在全球范圍內廣泛采用,但以色列將固定的無機組人員火炮系統用于邊境防御,并在韓國進行了試驗。這些系統能夠自動瞄準并向接近的人或車輛開火。

  • 導向導彈。正在使用的進攻性導彈能夠在飛行中改變其路徑,以達到目標,而不需要人類的輸入。英國的雙模式 "硫磺石"(DMB)導彈于2009年首次在阿富汗作戰中使用,它可以預先設定搜索特定區域,利用傳感器數據識別、跟蹤和打擊車輛。

  • 用于武器投送的無人平臺。為武器投送而設計的無人空中、海上和陸地運載工具可以以高度的自主性運行。這些系統可以自主地搜索、識別和跟蹤目標。大多數發展都是在空中領域。英國唯一能夠自主飛行的武裝無人機是MQ-9 "收割者",但有幾個正在開發中。英國防部還在開發 "蜂群 "無人機(方框3)。雖然存在技術能力,但無人駕駛的進攻性武器并不用于在沒有人類授權的情況下做出射擊決定;報告的例外情況很少,而且有爭議。 自主系統在識別目標和作出射擊決定方面的作用,是廣泛的倫理辯論的主題(見下文)。

方框3:無人機蜂群

無人機蜂群是指部署多個能夠相互溝通和協調的無人機和人員,以實現一個目標。在軍事環境中,蜂群可能被用來監視一個地區,傳遞信息,或攻擊目標。2020年,英國皇家空軍試驗了一個由一名操作員控制的20架無人機群,作為Dstl的 "許多無人機做輕活 "項目的一部分。蜂群技術還沒有廣泛部署。據報道,以色列國防軍于2021年首次在戰斗中使用無人機蜂群。

影響

自動化技術和人工智能的擴散將對英國軍隊產生各種影響,包括與成本和軍事人員的角色和技能要求有關的影響。對全球和平與穩定也可能有影響。

財務影響

一些專家表示,從長遠來看,軍事自動化系統和人工智能可能會通過提高效率和減少對人員的需求來降低成本。然而,估計成本影響是具有挑戰性的。開發成本可能很高,而且回報也不確定。提高自動化和人工智能方面的專業知識可能需要從提供高薪的行業中招聘。軍隊可能不得不提高工資以進行競爭,英國防部將此稱為 "人工智能工資溢價"。

軍事人員的作用和技能

自動化可能會減少從事危險或重復性任務的軍事人員數量。然而,一些軍事任務或流程,如高層戰略制定,不太適合自動化。在許多領域,自主系統預計將發揮對人類的支持功能,或在 "人機團隊 "中與人類合作。專家們強調,工作人員必須能夠信任與他們合作的系統。一些角色的性質也可能會受到自動化的影響,所需的技能也是如此。例如,對具有相關技術知識的自主系統開發者和操作者的需求可能會增加。英國防部已經強調需要提高整個軍隊對人工智能的理解,并承諾開發一個 "人工智能技能框架",以確定未來國防的技能要求。一些利益相關者對自動化對軍事人員福祉的影響表示擔憂,因為它可能會限制他們的個人自主權或破壞他們的身份和文化感。

人員對自動化的態度:

關于軍事人員對自動化的態度的研究是有限的。2019年對197名英國防部人員的研究發現,34%的人對武裝部隊使用可以使用ML做出自己的決定的機器人有普遍積極的看法,37%的人有普遍消極的態度。有報道稱,人們對某些自主武器系統缺乏信任,包括在2020年對澳大利亞軍事人員的調查中。在這項研究中,30%的受訪者說他們不愿意與 "潛在的致命機器人 "一起部署,這些機器人在沒有人類直接監督的情況下決定如何在預定的區域使用武力。安全和目標識別的準確性被認為是兩個最大的風險。有證據表明,信任程度取決于文化和熟悉程度。

升級和擴散

一些專家提出了這樣的擔憂:在武器系統中越來越多地使用自主權,有可能使沖突升級,因為它使人類離開了戰場,減少了使用武力的猶豫性。蘭德公司最近的一份戰爭游戲報告(上演了一個涉及美國、中國、日本、韓國和朝鮮的沖突場景)發現,廣泛的人工智能和自主系統可能導致無意中的沖突升級和危機不穩定。這部分是由于人工智能支持的決策速度提高了。升級也可能是由自動系統的非預期行為造成的。

還有人擔心,由于自動化和基于人工智能的技術變得更便宜和更豐富,非國家行為者更容易獲得這種技術。這些團體也可能獲得廉價的商業無人機,并使用開放源碼的人工智能對其進行改造,以創建 "自制 "武器系統。關于非國家行為者使用自主系統的報告是有限的和有爭議的。然而,非國家團體確實使用了武裝無人機,而且人們擔心人工智能會使這種系統更加有效。

技術挑戰

正在進行的包括機器人和人工智能在內的技術研究,主要是由商業驅動的,預計將增加自動化系統的應用范圍和采用程度。該領域的一些關鍵技術挑戰概述如下。一個更普遍的挑戰是,相對于數字技術的快速發展,軍事技術的發展速度緩慢,有可能在部署前或部署后不久組件就會過時。

數據傳輸

無人駕駛的車輛和機器人經常需要向人員傳輸數據或從人員那里接收數據。這可以讓人類監督和指導它們的運作或接收它們收集的數據。在某些情況下,系統也可能需要相互通信,如在無人機群中(方框3)。軍方通常使用無線電波在陸地上傳輸數據,其帶寬(頻率的可用性)可能有限。在傳輸大量數據,如高分辨率圖像時,這可能是個問題。5G技術(POSTbrief 32)可能會促進野外更有效的無線通信。系統之間的無線電通信可以被檢測到,提醒對手注意秘密行動。對手也可能試圖阻止或破壞系統的通信數據傳輸。目前正在研究如何最大限度地減少所需的數據傳輸和優化數據傳輸的方法。更多的 "板載 "或 "邊緣 "處理(POSTnote 631)可以減少傳輸數據的需要。然而,減少通信需要系統在沒有監控的情況下表現得像預期的那樣。

數據處理

具有更高水平的自主性的更復雜的系統通常在運行時在船上進行更多的數據處理和分析。這要求系統有足夠的計算能力。一般來說,一個系統能做多少嵌入式數據處理是有限制的,因為硬件會占用空間并需要額外的電力來運行。這可能會限制需要電池供電運行的系統的敏捷性和范圍。然而,人工智能的進步也可能使系統更有效地運行,減少計算要求。由于未來軟件、算法和計算機芯片技術的進步,計算機的處理能力也有望提高。

訓練數據

創建和整理與軍事應用相關的大型數據集,對生產可靠的人工智能自主系統非常重要。機器學習(ML,方框1)依賴于大型數據集來訓練其基礎算法,這些數據可以從現實世界中收集,或者在某些情況下,使用模擬生成。一般來說,用于訓練ML系統的數據越有代表性、越準確、越完整,它就越有可能按要求發揮作用。準備訓練數據(分類并確保其格式一致)通常需要手動完成,并且是資源密集型的。

數據隱私:

一些人工智能系統可能會在民用數據上進行訓練。人們普遍認為,如果使用與個人有關的數據,他們的隱私必須得到保護。這可以通過對個人數據進行匿名化處理或只分享經過訓練的人工智能系統來實現。

網絡安全

由計算機軟件支撐的系統數量的增加增加了網絡攻擊的機會。網絡攻擊者可能試圖控制一個系統,破壞其運作,或收集機密信息。基于人工智能的系統也可以通過篡改用于開發這些系統的數據而遭到破壞。英國防部在2016年成立了網絡安全行動中心,專注于網絡防御。在英國,2021年成立的國防人工智能中心,有助于促進行業伙伴或其他合作者對高度機密數據的訪問。

測試和評估

重要的是,軍事系統要可靠、安全地運行,并符合法律和法規的規定。人工智能和自動化給傳統軟件系統帶來了不同的測試和保證挑戰。 進一步的挑戰來自于ML的形式,它可能不可能完全理解輸出是如何產生的(POSTnote 633)。人工智能軟件可能還需要持續監測和維護。利益相關者已經強調缺乏適合的測試工具和流程,并正在開發新的工具和指南。英國政府的國防人工智能戰略致力于建立創新的測試、保證、認證和監管方法。

倫理、政策和立法

目前的準則和立法

目前還沒有專門針對將自動化或人工智能用于軍事應用的立法。雖然它們在戰爭中的使用受現有的國際人道主義法的約束,但這與新技術的關系是有爭議的。在國家和國際層面上有許多關于人工智能更普遍使用的準則,這些準則可以適用于自動化系統。然而,2021年數據倫理與創新中心(CDEI)的人工智能晴雨表研究發現,工業界很難將一般的法規適應于特定的環境。2022年,英國防部與CDEI合作發布了在國防中使用人工智能的道德原則。

責任感

一些利益相關者強調,如果自主系統的行為不合法或不符合預期,那么它的責任是不明確的。這可能導致系統及其決定與設計或操作它的人類之間出現 "責任差距",使法律和道德責任變得復雜。英國防部的原則說,在人工智能系統的整個設計和實施過程中,應該有明確的責任。國防人工智能戰略為供應商設定了類似的期望。

圍繞自主武器系統的辯論

這一領域的大部分法律和道德辯論都集中在武器系統上。然而,某些非武裝系統(例如,基于軟件的決策支持工具)可能在識別目標方面發揮關鍵作用,因此提出了許多與那些同時部署武器的系統相同的道德問題。

國際上對 "致命性自主武器系統"(LAWS)的使用存在著具體的爭論。這個術語沒有普遍認同的定義,它被用來指代具有不同自主能力的廣泛的武器。關于使用致命性自主武器系統的報告存在很大爭議,例如,由于系統使用模式的不確定性。 聯合國《特定常規武器公約》(CCW)自2014年以來一直在討論致命性自主武器系統的可能立法。它在2019年發布了指導原則,但這些原則沒有約束力,也沒有達成進一步的共識。雖然大多數參加《特定常規武器公約》的國家支持對致命性自主武器進行新的監管,但包括英國、美國和俄羅斯在內的其他國家認為,現有的國際人道主義法已經足夠。根據運動組織 "阻止殺手機器人"(SKR)的說法,83個國家支持關于自主武器系統的具有法律約束力的文書,12個國家不支持。

許多利益相關者認為,必須保持人類對武器和瞄準系統的某種形式的控制,才能在法律和道德上被接受。某些組織,如SKR,呼吁禁止不能由 "有意義的人類控制 "的自主武器系統,并禁止所有以人類為目標的系統。他們還呼吁制定法規,確保在實踐中保持足夠的人為控制。在其2022年國防人工智能戰略中,英國政府表示,識別、選擇和攻擊目標的武器必須有 "適當的人類參與"。作為回應,一些呼吁監管的非政府組織表示,需要更加明確如何評估或理解 "適當的人類參與"。包括英國政府在內的利益相關者建議的維持人類控制的潛在措施包括限制部署的時間和地理范圍。被認為會破壞人類控制的因素包括人類做出決定的有限時間和 "自動化偏見",即個人可能會過度依賴自動化系統,而不太可能考慮其他信息。

公眾對該技術的態度

大多數關于軍事自動化的公眾意見調查都集中在自主武器系統上。SKR委托對28個國家的19,000人進行了民意調查。62%的受訪者反對使用致命性武器系統;這一數字在英國是56%。關于公眾對人工智能、數據和更廣泛的自動化的態度的研究發現,公眾關注的主要問題包括數據安全、隱私和失業。然而,公眾的觀點會因系統的功能和使用環境的不同而有很大差異。

付費5元查看完整內容

小型無人駕駛飛機系統(sUAS)的指數式增長為美國防部帶來了新的風險。技術趨勢正極大地改變著小型無人機系統的合法應用,同時也使它們成為國家行為者、非國家行為者和犯罪分子手中日益強大的武器。如果被疏忽或魯莽的操作者控制,小型無人機系統也可能對美國防部在空中、陸地和海洋領域的行動構成危害。越來越多的 sUAS 將與美國防部飛機共享天空,此外美國對手可能在美國防部設施上空運行,在此環境下美國防部必須保護和保衛人員、設施和資產。

為了應對這一挑戰,美國防部最初強調部署和使用政府和商業建造的物資,以解決無人機系統帶來的直接風險;然而,這導致了許多非整合的、多余的解決方案。雖然最初的方法解決了近期的需求,但它也帶來了挑戰,使美國防部跟上不斷變化問題的能力變得復雜。為了應對這些挑戰,美國防部需要一個全局性的戰略來應對無人機系統的危害和威脅。

2019年11月,美國防部長指定陸軍部長(SECARMY)為國防部反小型無人機系統(C-sUAS,無人機1、2、3組)的執行機構(EA)。作為執行機構,SECARMY建立了C-sUAS聯合辦公室(JCO),該辦公室將領導、同步和指導C-sUAS活動,以促進整個部門的統一努力。

美國防部的C-sUAS戰略提供了一個框架,以解決國土、東道國和應急地點的sUAS從危險到威脅的全過程。國防部的利益相關者將合作實現三個戰略目標:(1)通過創新和合作加強聯合部隊,以保護國土、東道國和應急地點的國防部人員、資產和設施;(2)開發物資和非物資解決方案,以促進國防部任務的安全和可靠執行,并剝奪對手阻礙實現目標的能力;以及(3)建立和擴大美國與盟友和合作伙伴的關系,保護其在國內外的利益。

美國防部將通過重點關注三個方面的工作來實現這些目標:準備好部隊;保衛部隊;和建立團隊。為了準備好部隊,國防部將最大限度地提高現有的C-sUAS能力,并使用基于風險的方法來指導高效和快速地開發一套物質和非物質解決方案,以滿足新的需求。為了保衛部隊,國防部將協調以DOTMLPF-P考慮為基礎的聯合能力的交付,并同步發展作戰概念和理論。最后,作為全球首選的軍事伙伴,國防部將通過利用其現有的關系來建設團隊,建立新的伙伴關系,并擴大信息共享,以應對新的挑戰

通過實施這一戰略,美國防部將成功地應對在美國本土、東道國和應急地點出現的無人機系統威脅所帶來的挑戰。在這些不同操作環境中的指揮官將擁有他們需要的解決方案,以保護國防部人員、設施、資產和任務免受當前和未來的無人機系統威脅。

付費5元查看完整內容

2022年6月15日,英國國防部在倫敦科技周人工智能峰會上發布了《國防人工智能戰略》,旨在“雄心勃勃、安全和負責任地”使用人工智能的戰略和相關政策。本戰略支持創建新的國防人工智能中心(DAIC),以提供前沿技術樞紐,支撐英軍使用和創新相關技術。本戰略概述了以下內容:一是在國防中使用人工智能的新倫理原則;二是人工智能在國防部加強安全和現代化的地位和應用;三是考慮通過人工智能研究、開發和實驗,通過新概念和尖端技術徹底改變武裝技術能力,并有效、高效、可信地向戰場交付最新裝備。該戰略將將成為英國人工智能戰略的關鍵要素,并加強國防在政府層面通過科學和技術獲取戰略優勢的核心地位。

圖 英國國防部發布《國防人工智能戰略》

(本文根據原文編譯整理,僅供交流參考,觀點不代表本機構立場。)

英國國防部人工智能戰略的愿景是:以英國規模為標準,成為世界上最有效、最高效、最可信和最具影響的國防組織:

有效——提供戰場制勝能力和支持,以及英國與盟友關于人工智能生態系統合作的能力;

高效——通過創新使用技術交付能力,進行作戰并實現生產力效應;

可信——基于人工智能系統的安全性和可靠性受到公眾、盟友和人民的信任,根據英國核心價值觀合法合規地使用人工智能;

影響——積極參與合作和引領人工智能技術的全球發展和管理趨勢;

**、背景和必要性******

英國國防部《綜合評估(2021)》強調指出,國家在人工智能領域的卓越表現是確保英國在2030年前成為“科技超級大國”的核心。英國國防部《國家人工智能戰略(2021年)》指出,人工智能在改寫整個行業的規則、推動經濟大幅增長和改變生活的所有領域方面具有巨大潛力。英國國防部《綜合作戰概念 (2020年) 》描述了無處不在的信息和快速的技術變革如何改變了戰爭的性質。在軍事作戰的各個領域,沖突正變得愈發復雜。新技術產生大量數據,解鎖新的威脅和漏洞,并通過如蜂群無人機、高速武器和先進網絡攻擊等下一代先進能力擴大潛在攻擊的規模。

人工智能技術以及其影響可能會極大地縮短決策時間,使人類理解負擔加重,而且這些在現代戰場中需要快速做出反應。正如《國防司令部文件(2021)》所指出的,“未來沖突的勝負可能取決于所采用人工智能解決方案的速度和效率”。因此信息作戰變得越來越重要。簡而言之,當代國防正在發生一場根本性的劇變,與人工智能相關的戰略競爭正在加劇,因此必須迅速、主動和全面應對。

本戰略闡述了英國將如何應對這一重大戰略挑戰,其應該引起英國國防部的重視,并參與部隊發展和國防轉型,英國國防部需要明確其機構與人工智能相關的要素并采取相應行動,以在后續執行和交付方面發揮關鍵作用。

三、發展途徑

**一是英國國防部需要轉變為“人工智能就緒”的組織。**具體措施是:1)推動文化、技能和政策變革,培訓領導人,提高人員技能,并加強國防人工智能和自主部門的組織能力;2)創建國防人工智能技能框架和新的人工智能職業發展和晉升路徑;3)將數據視為關鍵戰略資產進行管理和應用,建設新的數字主干網絡和國防人工智能中心。

**二是在速度和規模上采用和利用人工智能,以獲得防御優勢。**具體措施是:1)將人工智能視為能力戰略和部隊發展過程中戰略優勢的關鍵來源;2)短期路線采用成熟的數據科學、機器學習和先進的計算統計技術提升效果和生產力,長期路線進行尖端人工智能技術研發;3)采用多學科多技術將人類認知、創造力和責任與機器速度分析能力相結合以評估人工智能系統的脆弱性和威脅;4)與盟友和伙伴密切合作開發創新能力解決方案以應對共同的挑戰。

**三是推動和支持英國國防和安全人工智能生態系統。**具體措施是:1)通過英國工業和學術人工智能的雄厚基礎以及政府的支持建立信心并明確要求;2)視人工智能生態系統為戰略資產,消除行業壁壘,建立更具活力和一體化的伙伴關系;3)促進行業聯系建立新的國防和國家安全人工智能網絡,促進人才交流和共創,鼓勵業界投資國防相關的人工智能研發,并簡化國防數據和資產的獲取。4)促進中小企業,使監管方法現代化,支持業務增長并最大限度地利用國防人工智能相關知識產權促進相關技術商業化。

**四是塑造全球人工智能發展,以促進安全、穩定和民主價值觀。**具體措施是:1)按照英國的目標和價值觀塑造人工智能的發展,促進倫理方法,并影響符合民主價值觀的全球規范和標準;2)促進安全與穩定,確保英國的技術進步得到適當保護,同時探索建立信心和將軍事人工智能使用風險降至最低的機制;3)考慮可能出現的極端甚至事關生存的風險,并積極與盟友和合作伙伴接觸,制定未來的安全政策,尋求建立對話,以降低戰略錯誤、誤解和誤判的風險。

四、優先效果

通過采用人工智能技術實現本戰略目標,使英國武裝部隊實現現代化,并迅速從工業時代的聯合部隊過渡到敏捷信息時代的綜合部隊,國防部將受益于效率和生產率的提高,其期望的優先效果如下:

決策優勢:通過更充足、更分散的決策制定和基于威脅的機器快速響應,提高作戰節奏和靈活性。

效能:通過智能自主提高靈活性、效能和可用性。

解鎖新能力:通過開發新的作戰方式確保作戰優勢,增強軍事效果,保護人民免受傷害。

武裝部隊:減輕部隊負擔,并將人類決策集中在基于獨創性、背景思維和判斷力的高價值職能上。

五、戰略綜述總結****

**六、**結束語

人工智能必須成為未來必不可少的技術,其也促使著英國國防部改變對現代技術的看法,調整其技術方向和戰略需求,全面擁抱世界領先的人工智能解決方案和能力,推進其國防業務中觀念、文化、規劃和交付方面的持久變化,并將其作為國防戰略融入國防領域,以確保英國軍隊成為敏捷信息時代的綜合部隊。

編譯:船の心

END

世界軍事電子領域2021年度十大進展

軍事電子領域

付費5元查看完整內容
北京阿比特科技有限公司