本文提供了廣泛社會中對人工智能和自動化決策的反應的初步草圖,同時將這些反應與武器系統中的自主性聯系起來。
九年多來,自主武器系統一直是各種論壇的國際討論主題,包括聯合國人權理事會、聯合國大會裁軍與國際安全第一委員會以及《特定常規武器公約》(CCW)致命自主武器系統領域新興技術政府專家組(GGE on LAWS)。 在這些討論中,各國、聯合國機構、國際組織和非政府組織強調了人工智能(AI)和自主武器系統的各種嚴重倫理、道德、人道主義和法律影響。 盡管大多數國家支持就法律文書進行談判,但2021年12月舉行的《化學武器公約》第六次審查大會未能就致力于制定任何形式監管的授權達成一致。
在編寫該報告時,確定了40個國家公開發布了關于國內人工智能發展和使用的具體政策文件或其他戰略。 該報告評估了眾多相關的國家人工智能戰略和立場、歐盟級別的報告和法規、國際準則和其他文件,以引出關于人工智能和自動化決策技術在民用領域的采用和使用的核心主題和關注。
許多國家和國際機構在民用領域認識到人工智能和自動化決策技術的使用帶來的嚴重風險和挑戰的程度,應被視為對軍事領域平行和相關關切的驗證。
考慮到在軍事瞄準背景下自動處理所涉危害的性質和規模,以及在軍事領域應用民用監督機制的困難,與自主武器系統相關的挑戰尤為嚴峻。
針對民用領域的人工智能和自動化決策制定以人權為重點的應對措施,應促使各國關注受影響者的權利,將其作為制定軍事領域必要規則的基本出發點。
使用自主武器系統的問責制和責任的重要性影響到需要如何制定某些規則,以避免問責制的削弱,并確保保護和履行國際人道主義法規則和基本人權。
在軍事上有許多行動領域使用人工智能。除了對正在使用的系統進行持續的進一步開發和人工智能鑒定,特別是具有新特性的未來系統將能夠從人工智能的應用中受益。日常工作中的人員和物資管理,以及培訓,也提供了主要的潛在行動領域。
一個精心定義的政治和法律框架是必不可少的,特別是對于軍事力量的使用。因此,目前和將來使用自動化和自主系統必須符合FMoD的政治和法律要求。除了政治和法律方面,從軍事角度來看,使用致命性自主武器系統也是一種不可取的、非預期的選擇。
人工智能是一種高技術,需要大量的專業知識和開發努力。為了實現這一目標,德國陸軍正在尋求與歐洲工業和研究的密切合作。在德國陸軍發展的背景下已經建立的技術與能力(TmC)模式正被用作進一步活動的起點。
為了能夠充分應對未來所有與人工智能相關的挑戰,德國陸軍必須擁有合格的人工智能人才。在這方面,聯邦國防軍面臨著來自民用部門的強烈競爭。為了滿足短期內的需求,軍隊正在依靠現有的OR/M&S人員。
目前所有的數據表明,利用人工智能的方法和程序可以大幅提高陸軍的效率和效力。為了能夠適當地應對即將到來的挑戰,必須采取與組織程序和結構有關的措施。因此,"陸軍中的人工智能 "立場文件建議為陸軍設立人工智能工作臺,為陸軍設立人工智能開發中心,為陸軍設立人工智能數據中心。只有這樣才能全面覆蓋人工智能領域的創新、人工智能系統的培訓和數據的提供。
下文將在附件中詳細介紹使早期實現成為可能所需的所有措施。
2018/2019年,在德國陸軍概念和能力發展中心開展了關于人工智能(AI)主題的 "技術與能力 "形式。在一系列研討會的過程中,根據北約綜合作戰計劃指令(COPD),確定了人工智能在陸軍所有能力領域以及武器和服務中的應用,并按行動路線進行分類。下面詳細列出了五個應用領域,每個領域都有不同的行動路線。
根據內容和發展的成熟度,這些措施和行動方針的實施是通過CD&E和R&T活動進行的,或者在CPM的范圍內通過適當的舉措進行。與聯邦國防軍的能力概況相匹配是至關重要的。陸軍概念和能力發展中心負責實施。
這個領域匯集了基于人工智能的目標識別和分類系統領域的所有活動。這些項目正在逐步建立起一種功能,以模塊化的方式擴展陸軍的各種保護和效果組件,包括從ISR到基于效果的自動系統。一個重點是將現有的民用方法用于軍事目的。
這一領域匯集了與不同幾何形狀的小型無人機系統有關的所有活動。這些活動包括從偵察到障礙物,再到進攻性武器系統。不管是什么活動,重點都是在防御和部署自己的TaUAS的能力。一個重要的挑戰是,特別是創造出足夠堅硬和強大的TaUAS,使其能夠使用被動傳感器系統,在非常有限的通信和沒有GPS的情況下,在白天和晚上半自主地行動。
這一領域匯集了所有側重于指揮和控制的活動。它既包括實現單一的功能,在適用的情況下,也可以在已經進行的活動中進行改裝,也包括將可能用于超戰爭情況的系統和方法概念化。沒有任何跡象表明有任何明顯的雙重用途。挑戰在于對指揮和控制過程的相關部分進行建模,以創建超戰可行的指揮和控制組件。理想情況下,指揮和控制過程的一部分可以按照博弈論的思路被描述為一個游戲,這樣人工智能就可以在決策支持或指揮和控制的自動手段的意義上使用。MUM-T是這方面的一個關鍵挑戰。
這一領域匯集了后勤、維護和IT管理領域的所有活動。該行動路線包含了各種可以相對快速實施的措施,并有助于更好地應對當前在支持方面的挑戰。許多力爭實現的功能正在民用部門以非常類似的形式使用或開發。
這個領域匯集了各種單獨的解決方案,其中人工智能和大數據可以為有關數據分析和優化的經典問題提供支持。數字化和人工智能提供了一個新的質量機會,因為某些問題(識別,......)可以實時和提前解決(也適用于車輛)或技術設備(如防火墻)。
本出版物是 "北約決策:大數據時代的承諾和危險"會議的成果,由北約盟軍指揮部轉型(ACT)、博洛尼亞大學和羅馬的國際事務研究所(IAI)組織。該會議于2020年11月17日在線舉行,是三個機構之間長期合作的一部分,它代表了ACT學術會議系列的第七次迭代。
數字革命大大改變了我們生活的世界,提供了巨大的機會,但也使社會更加脆弱。技術使外部干擾更便宜、更快速、更全面:公民有可能成為信息戰的直接目標,一個社會的所有成員都可能以這種或那種方式成為沖突的一部分。從先進的武器裝備到指揮和控制,大多數與安全有關的領域都在經歷著深刻的變革,因為數據的可用性和傳輸量成倍增加。在這一背景下,本出版物探討了展望聯盟發展的三個相互關聯的方面:大數據和北約的組織挑戰;對盟國決策的混合威脅;人工智能在國防領域的采用和北約的作用。
大數據和北約的組織挑戰。將決策建立在比以前更多的信息基礎上,可能會導致復雜組織決策過程的真正革命,特別是因為這些信息將涉及現實的不同層面,而且會不斷地更新。除了巨大的信息量,大數據的另一個決定性因素是數據產生和處理的高速性。此外,這些數據通常會從不同的來源獲得,其可信度必須被仔細評估。最后,任何數據在決策過程的不同階段都可能具有不同的價值。所有這些特征都對那些旨在利用大數據減少其作戰中的不確定性的組織提出了具體要求。例如,巨大的數據量迫使人們獲得新的數據存儲技術,而高速度要求新的處理工具,可變的可信度和價值迫使組織制定新的分析方法。因此,任何尋求利用大數據的行為者都應該有明確的目標和定義明確的戰略,以劃定和實施其具體目標。
大數據的一個關鍵問題是為決策者提供與他們的目的真正相關的數據,而不僅僅是有趣。首席數據官和與數據相關的高級領導職位將在信息分析和實際決策過程中獲得至關重要的地位,但這些職位需要特殊的人才和工具組合,而這些人才和工具目前在許多大型組織中是稀缺的,尤其是在公共部門,在軍事部門更是如此。
另一個關鍵問題是,在工作中引入大數據分析的組織的決策過程中,正在出現集中化和分散化之間的矛盾。矛盾的是,雖然大數據應該促進廣泛的責任和戰術意識,但目前先進的數字化似乎與大型組織中明顯的向心力有關。這種向心力導致了低層人員的非責任化和選擇實踐的逐漸喪失。因此,在聯盟的決策中整合大數據是明智之舉,有利于分散所有權,并根據組織中不同部門的特點,為其設計不同的工具。此外,建立精心設計的、可靠的評估程序,以衡量組織創新和新決策過程執行的有效性,也會有所幫助。特別是,確定最初的失敗是特別重要的,以便從中吸取教訓,避免結構性問題。
對盟國決策的混合威脅。混合威脅是一個廣泛的類別,包括各種行為者、行動和目標。就行為者而言,由于其實際能力、意圖和最近的記錄,俄羅斯等大國可以被確定為最主要的威脅。
關于行動,信息在幾個方面是關鍵。它指的是大數據和人工智能,因為后者需要使用算法來學習前者,以期利用目標的漏洞。數字連接是用于在信息領域實施混合威脅的基本基礎設施。西方社會依賴虛擬世界的平臺,這些平臺可以成為潛在攻擊者的目標。由于全球網絡藐視邊界并限制國家管轄權,它們更難防御,并允許潛在的攻擊者在檢測和歸因的門檻下采取行動。混合威脅還得益于信息的空前速度和范圍。這在原則上并不新鮮,但它已經達到了改變游戲規則的水平。一方面,對北約及其成員國來說,管理這種大規模的信息流實在是令人望而卻步;另一方面,高速流通轉化為更快的行動節奏。
混合威脅可能針對各種目標,但特別令人擔憂的是可能導致社會分化、精英分歧和對外國行為體的偏見的進攻性行動。這些行動有可能影響不同層面的決策,甚至破壞民主國家的機構。因此,這些混合型威脅可能會破壞盟國的決策過程,反過來也會破壞北約的決策過程。決策者在制定應對混合威脅的措施時,尤其面臨著三個主要問題:
1)如何以非升級性的方式進行回應?由于混合型攻擊利用灰色地帶來制造模糊性,包括通過操縱檢測門檻和給予合理的推諉,決策者面臨著過度反應的風險。
2)如何民主應對?潛在的攻擊者可能會嚴重損害民主制度的決策過程,例如對遵守國內法和國際法施加壓力。
3)如何獲得公眾支持?由于混合型威脅通常被掩蓋或難以歸因,政策制定者還必須說服公眾輿論,使其相信威脅的存在。
人工智能在國防領域的應用和北約的作用。在討論人工智能對盟國軍隊和聯盟意味著什么時,應該解決一個基本問題:人工智能是一場技術革命還是技術演進的實例?不同的證據可以支持這兩種解釋。從政治角度來看,盟國可能很難迅速適應一場快速的技術革命。北約的方法,由于其程序的特點是共識,將不得不更加進化、細化和細微。無論如何,在未來不太可能看到人工智能為北大西洋理事會(NAC)或核規劃小組(NPG)做決定。這其中有心理、文化、組織、政治以及技術方面的原因。通往人工智能的旅程可能是相當麻煩的。例如,敏捷軟件開發能夠開發出優秀的軟件,但同時也需要不同的程序、組織結構和流程,涉及到組織的身份、使命和文化。
另一個熱點問題是關于人工智能的公私伙伴關系。這是美國和中國之間人工智能競賽的關鍵--可能會導致盟國相對于中國的劣勢--以及北約與從事人工智能和大數據的主要民用公司之間的關系。在盟國采用人工智能技術方面,還有一個根本性的需要,即確保在分散的情況下的互操作性。北約在歷史上一直是標準化進程中的一個重要角色,在這種情況下也可以這樣做。在這種情況下,可能需要一些創造性:例如,北約是否應該像提供空域管理或地面監視一樣提供云計算服務,即賦能者?聯盟是否可以像綜合防空和導彈防御那樣,設想對國家擁有的人工智能資產進行整合?這些都是重要的問題,然而,這些問題突出了一個事實,即國防是一個主權問題,大多數決定是由國家政府作出的,而不是由北約本身作出的。
聯盟可以在人工智能領域發揮突出作用。例如,北約可以建立一個人工智能冠軍,幫助盟國理解、采用和整合人工智能。這種冠軍可以從小型項目開始,旨在驗證解決方案的有效性,然后它可以幫助盟國進行培訓。這方面的一個關鍵、相關問題是教育和培訓。同樣,戰爭游戲、模擬和實驗的重要性也會增加,北約在這方面可以發揮作用,因為它是召集盟國軍事和政治機構的獨特途徑。
軍事系統日益增強的自主能力提出了各種具有挑戰性的法律、倫理、政策、行動和技術問題。本卷的主要貢獻在于它對這些挑戰的多學科表述。在引言部分,沙瑞概述了自主性的基本概念,并反思了其對軍事行動的影響,如人機合作的機會。隨后,威廉姆斯對如何定義 "自主性 "進行了詳細分析。Scharre和Williams的章節提醒我們,真正的自主系統并不存在--也許只是在科幻故事的遙遠未來。相反,他們強調自主性是系統的一種能力,它存在于組織、政策、指導和人類控制的復雜安排中。
Roorda的這一章給出了一個具體的例子,說明自主系統的使用是如何被特定的政策過程所控制的,以及在部署任何系統之前,該過程的每個階段是如何納入對相關法律、道德和操作問題的必要的人類決策。
然而,當代的政策辯論--最近在《聯合國某些常規武器公約》中,顯示出自主系統仍然是一個有爭議的話題。雖然武裝沖突法和國際人權法并不禁止向自主系統下放軍事職能,但阿諾德和克羅托夫的章節擴大了視野,特別討論了國家的作用和責任,以及可能受到自主系統發展影響的各種國際法。然而,這種政策問題并不是軍事領域所獨有的。安德森和松村的章節強調了在民用領域引入 "無人駕駛 "汽車所面臨的法律和政策挑戰,軍事能力應該注意到這一點。
即使考慮到這些法律和政策結論,對自主系統仍有嚴重的倫理和實際保留。梅爾的章節為分析自主系統在軍事行動中的影響提出了一個倫理框架,并提出了一系列政策制定者的建議。Keeley提出了另一種解決方案,建議建立一種審計和追蹤系統內部算法的程序和能力,以便進行驗證和確認、測試和問責。然而,Theunissen和Suarez表明,對于許多任務來說,高水平的自主性不一定是可取的,最佳的解決方案是將自主控制和人類控制結合起來,發揮各自的優勢。
有了這個關于自主系統政策考慮的法律、定義和倫理框架,本書的最后一節介紹了關于能力發展各個方面的四個詳細章節。首先,Saariluoma提出了一個框架,為自主系統引入基于人類技術互動設計的思維,提醒我們,最終,這種系統是人類的工具,因此,人類互動和控制系統的方式應該是直觀的。
Sulzbachner、Zinner和Kadiofsky的章節強調,許多自主系統的要求是無源光學傳感器技術,用于在非結構化、非合作的環境中運動。他們提醒我們,正在進行的將無人駕駛和自主系統納入空域的各種監管舉措,例如,本質上依賴于建立性能標準,然而驗證光學和其他傳感器系統的標準化方法仍未完全建立。
Arbour、MacLeod和Bourdon對有人和無人的組隊概念進行了分析,并提出了一系列不同的選擇,即無人飛機如何與有人飛機協同使用,發揮各種新的作用。他們的建議是,鑒于無人系統的可靠性和自主性不斷提高,我們需要在能力發展的早期階段確定更多的潛在配置和組合,而不是局限于一對一的平臺替代。
托爾克在本卷的最后一章建議更多地使用基于代理的模擬方法來支持自主系統的設計、開發、測試和操作使用。原因是仿真中的軟件代理是自主機器人系統的虛擬對應物,在許多情況下,管理物理系統和軟件代理的基本算法可能是相同的。這導致了許多改善系統測試和評估的機會,而且通過在部署前對系統的任務進行模擬,還可以提供操作支持。
本卷的結尾是北約首席科學家Husniaux少將的前瞻性觀點,他為未來的能力發展推薦了一系列關鍵研究領域。他提醒我們,科學和技術的發展是必不可少的,但必須與操作者、政策、法律和理論觀點合作,共同發展。
我們正在擴大我們在這一關鍵領域國防能力的視野,然而創新需要外部的投入和新的觀點。實現這一目標的最佳方式是通過一個多樣化的專家網絡來分享想法。我知道,SACT總部領導的工作已經從這種接觸中受益匪淺,我希望聯盟的科學家、工程師、法律和政策工作人員以及軍事操作人員網絡也將同樣受益。
本文探討了人工智能(AI)如何可能使美國軍隊以更符合倫理的方式執行其作戰任務,從而更好地遵守國際人道主義法(IHL)的倫理意圖,并強調它可能帶來的挑戰。它將通過研究軍事目標選擇的兩個關鍵特征來完成這一任務:區分和相稱性。區分和相稱性是國際人道主義法承認的四項基本戰爭原則中的兩項,包括《海牙公約》、《日內瓦公約》及其附加議定書,以及紅十字會編纂的習慣法。 對這兩項原則的仔細研究突出了可預見性的概念在戰爭倫理中的作用。可預見性是正義戰爭理論中經常提到的與保護非戰斗人員有關的關鍵倫理考慮。邁克爾-沃爾澤的奠基之作《正義與非正義的戰爭》認為,在戰爭中,不可預見的邪惡可能是可以接受的,但從倫理上講,戰士們必須在戰爭中盡量減少所有可預見的邪惡。雖然可預見性沒有被標為基本原則,但它是一個經常被忽視的特征,對主要的四項原則的倫理決策產生了重大影響。
審查包括簡要回顧區分的倫理基礎,相稱性,以及兩者如何取決于可預見性。然后,它評估了當前的國際人道主義法,并確定了人工智能可以提供更多的合規性的潛在機會,以及潛在風險的特征。審查將主要集中在戰爭/戰斗期間的倫理決定和行動(戰時法),而不是可能導致戰爭的戰略決定(戰時法)。在執行對人工智能可能給軍事目標帶來的潛力和隱患的評估之前,關鍵是要正確定義人工智能,并審查其與國家安全的日益相關性。
人工智能是一個復雜的話題,既具有爭議性,又經常被誤解。著名物理學家斯蒂芬-霍金警告說,人工智能可能是 "我們文明史上最糟糕的事件",除非其發展得到適當控制。 甚至企業家埃隆-馬斯克,他自己的公司正在創新自動駕駛汽車,也警告說"......人工智能比核彈危險得多",必須受到監管。相反,麻省理工學院計算機科學和人工智能實驗室的創始主任羅德尼-布魯克斯、哈佛大學心理學教授史蒂芬-平克,甚至Facebook創始人馬克-扎克伯格都將這些觀點描述為危言聳聽。
當人工智能被引入到國家安全和軍事行動中時,其強度和審查都會大大增加。馬斯克和霍金都簽署了一封致聯合國的公開信,敦促禁止人工智能武器。 公眾對人工智能 "武器化 "的反彈的一個引人注目的例子發生在Maven項目上,原因是人們對倫理問題的看法。Maven項目是美國國防部(DOD)的一項舉措,旨在利用人工智能來評估來自遙控飛機的視頻,試圖更快、更準確地找到伊拉克和敘利亞的伊斯蘭國恐怖分子。國防部與包括谷歌在內的一些商業伙伴開始了這項努力。然而,在2018年,約有4000名谷歌員工認為該項目與谷歌的倫理規范相抵觸,這些倫理規范是基于 "不作惡 "的非官方格言。然后,這些員工簽署了一份請愿書,要求"......谷歌或其承包商將永遠不會建立戰爭技術"。 此后不久,谷歌退出了該項目。這些事件受到一些人的贊揚,也受到另一些人的批評,他們認為抗議是短視或幼稚的,因為不太倫理的美國競爭對手仍然會從谷歌的人工智能工作中受益。
曾在伊拉克和阿富汗服役的海軍陸戰隊員盧卡斯-昆斯(Lucas Kunce)為人工智能在軍事上的倫理應用提出了令人信服的愿景。他認為,對向軍隊提供先進技術的擔心是沒有根據的。他提供了一些小故事,描述了人工智能增強的工具如何阻止他的團隊殺死一個他們認為向他們投擲手榴彈的平民,而他只是拿著一只鞋。他還描述了在一次交戰中,他的一名海軍陸戰隊員射殺了一名坐在車里的年輕女孩,他的部隊認為這是一個車載簡易爆炸裝置。正是這種觀點準確地將軍隊描述為試圖完成其當選領導層賦予他們的任務的同胞。它還指出,職業軍人不是一群不分青紅皂白的殺手,如三十年戰爭期間蹂躪歐洲的掠奪者,甚至是越南時代助長美萊大屠殺的美國重兵。相反,他們是負責為國家管理暴力的專業人士。正是這種被進一步編入國際人道主義法的特點,應該能緩解人們對人工智能和軍隊的結合將導致未來出現天網、終結者和其他類型的殺人機器人的擔憂。
所謂的殺手機器人已經到來,由人工智能支持的自主武器將成為未來戰爭的一個突出特征。在國際競爭者開發這些系統的背景下,在國際和多國公司的關注下,國家安全委員會關于人工智能的最后報告判斷,這些類型的無人駕駛武器可以而且應該以符合國際人道主義法律的方式使用,適用人類授權的使用條件和適當的設計和測試。人工智能支持的自主性及其軍事應用帶來了這些技術的基本風險,它們在無人武器中的使用進一步挑戰了軍隊在國際人道主義法和正義戰爭理論框架內尋求合法使用。因此,倫理學提供了優越的概念載體,以任命和授權人類授權者和使用者,并從質量上確定什么是 "適當的 "設計和測試。國防部的 "人工智能準備部隊運動 "所確立的七個人工智能工作者原型中的每一個都應該應用與角色相關的、與人工智能有關的道德規范,以充分實現《最后報告》中所確立的條件,并保留和支持控制暴力壟斷所必需的人性。對道德教育的需求單獨和集體地滲透到每個原型中,美國防部必須認識到公共/私人伙伴關系的價值,以充分考慮這些條件。
自動化使系統能夠執行通常需要人類投入的任務。英國政府認為自動化對保持軍事優勢至關重要。本論文討論了當前和未來全球自動化的應用,以及它對軍事組織和沖突的影響。同時還研究了技術、法律和道德方面的挑戰。
許多軍事系統都有自動化的特點,包括執行物理任務的機器人系統,以及完全基于軟件的系統,用于數據分析等任務。自動化可以提高某些現有軍事任務的效率和效力,并可以減輕人員的 "枯燥、骯臟和危險 "的活動。 許多專家認為,自動化和自主性是與系統的人類監督水平有關的,盡管對一些系統的定位存在爭議,而且對系統是否應被描述為 "自動化 "或 "自主 "可能存在分歧。英國防部在其 "自主性譜系框架 "中概述了5個廣泛的自主性水平,從 "人類操作 "到 "高度自主"。一個系統可能在不同的情況下有不同的操作模式,需要不同程度的人力投入,而且只有某些功能是自動化的。方框1概述了本公告中使用的定義。
方框1:該領域的術語并不一致,關鍵術語有時可以互換使用。
自動化系統。自動系統是指在人類設定的參數范圍內,被指示自動執行一組特定的任務或一系列的任務。這可能包括基本或重復的任務。
自主系統。國防科學與技術實驗室(Dstl)將自主系統定義為能夠表現出自主性的系統。自主性沒有公認的定義,但Dstl將其定義為 "系統利用人工智能通過自己的決定來決定自己的行動路線的特點"。自主系統可以對沒有預先編程的情況作出反應。
無人駕駛車輛。朝著更高水平的自主性發展,使得 "無人駕駛 "的車輛得以開發,車上沒有飛行員或司機。有些是通過遠程控制進行操作,有些則包括不同程度的自主性。最成熟的無人駕駛軍事系統是無人駕駛航空器,或稱 "無人機",其用途十分廣泛。
人工智能。人工智能沒有普遍認同的定義,但它通常是指一套廣泛的計算技術,可以執行通常需要人類智慧的任務(POSTnote 637)。人工智能是實現更高水平的自主性的一項技術。
機器學習:(ML,POSTnote 633)是人工智能的一個分支,是具有自主能力的技術的最新進展的基礎。
英國政府已經認識到自主系統和人工智能(AI,方框1)的軍事優勢以及它們在未來國防中可能發揮的不可或缺的作用。在其2021年綜合審查和2020年綜合作戰概念中,它表示致力于擁抱新的和新興的技術,包括自主系統和人工智能。2022年6月,英國防部發布了《國防人工智能戰略》,提出了采用和利用人工智能的計劃:自動化將是一個關鍵應用。在全球范圍內,英國、美國、中國和以色列擁有一些最先進的自主和基于AI的軍事能力。方框2中給出了英國和全球活動的概述。
方框2:英國和全球活動
英國 英國政府已表明其投資、開發和部署用于陸、海、空和網絡領域軍事應用的自主和人工智能系統的雄心。最近的投資項目包括NELSON項目,該項目旨在將數據科學整合到海軍行動中;以及未來戰斗航空系統,該系統將為皇家空軍提供一個有人員、無人員和自主系統的組合。在2021年綜合審查發表后,政府成立了國防人工智能中心(DAIC),以協調英國的人工智能國防技術的發展。這包括促進與學術界和工業界的合作,并在紐卡斯爾大學和埃克塞特大學以及艾倫-圖靈研究所建立研究中心。
全球背景 對自主軍事技術的投資有一個全球性的趨勢:25個北約國家已經在其軍隊中使用一些人工智能和自主系統。有限的公開信息給評估軍隊的自主能力帶來了困難,但已知擁有先進系統的國家包括。
俄羅斯和韓國也在大力投資于這些技術。在俄羅斯,機器人技術是最近成立的高級研究基金會的一個重點,該基金會2021年的預算為6300萬美元。
自主系統可以被設計成具有多種能力,并可用于一系列的應用。本節概述了正在使用或開發的軍事應用系統,包括情報、監視和偵察、數據分析和武器系統。
自動化正越來越多地被應用于情報、監視和偵察(ISR),通常使用無人駕駛的車輛(方框1)。無人駕駛的陸上、空中和海上車輛配備了傳感器,可以獲得數據,如音頻、視頻、熱圖像和雷達信號,并將其反饋給人類操作員。一些系統可以自主導航,或自主識別和跟蹤潛在的攻擊目標。英國有幾架ISR無人機在服役,還有一些正在試用中。這些無人機的范圍從非常小的 "迷你 "無人機(其重量與智能手機相似)到可以飛行數千英里的大型固定翼系統。英國正在試用的一個系統是一個被稱為 "幽靈 "無人機的迷你直升機,它可以自主飛行,并使用圖像分析算法來識別和跟蹤目標。無人駕駛的水下航行器被用于包括地雷和潛艇探測的應用,使用船上的聲納進行自主導航。這些車輛還可能配備了一種技術,使其能夠解除地雷。
許多軍事系統收集了大量的數據,這些數據需要分析以支持操作和決策。人工智能可用于分析非常大的數據集,并分辨出人類分析員可能無法觀察到的模式。這可能會越來越多地應用于實地,為戰術決策提供信息,例如,提供有關周圍環境的信息,識別目標,或預測敵人的行動。英國軍隊在2021年愛沙尼亞的 "春季風暴 "演習中部署了人工智能以提高態勢感知。美國的Maven項目旨在利用人工智能改善圖像和視頻片段的分析,英國也有一個類似的項目,利用人工智能支持衛星圖像分析。
以自動化為特征的武器系統已被開發用于防御和進攻。這些系統包括從自動響應外部輸入的系統到更復雜的基于人工智能的系統。
防御系統。自動防空系統可以識別和應對來襲的空中威脅,其反應時間比人類操作員更快。這種系統已經使用了20多年;一份報告估計有89個國家在使用這種系統。目前使用的系統可以從海上或陸地發射彈藥,用于應對來襲的導彈或飛機。英國使用Phalanx CIWS防空系統。雖然沒有在全球范圍內廣泛采用,但以色列將固定的無機組人員火炮系統用于邊境防御,并在韓國進行了試驗。這些系統能夠自動瞄準并向接近的人或車輛開火。
導向導彈。正在使用的進攻性導彈能夠在飛行中改變其路徑,以達到目標,而不需要人類的輸入。英國的雙模式 "硫磺石"(DMB)導彈于2009年首次在阿富汗作戰中使用,它可以預先設定搜索特定區域,利用傳感器數據識別、跟蹤和打擊車輛。
用于武器投送的無人平臺。為武器投送而設計的無人空中、海上和陸地運載工具可以以高度的自主性運行。這些系統可以自主地搜索、識別和跟蹤目標。大多數發展都是在空中領域。英國唯一能夠自主飛行的武裝無人機是MQ-9 "收割者",但有幾個正在開發中。英國防部還在開發 "蜂群 "無人機(方框3)。雖然存在技術能力,但無人駕駛的進攻性武器并不用于在沒有人類授權的情況下做出射擊決定;報告的例外情況很少,而且有爭議。 自主系統在識別目標和作出射擊決定方面的作用,是廣泛的倫理辯論的主題(見下文)。
方框3:無人機蜂群
無人機蜂群是指部署多個能夠相互溝通和協調的無人機和人員,以實現一個目標。在軍事環境中,蜂群可能被用來監視一個地區,傳遞信息,或攻擊目標。2020年,英國皇家空軍試驗了一個由一名操作員控制的20架無人機群,作為Dstl的 "許多無人機做輕活 "項目的一部分。蜂群技術還沒有廣泛部署。據報道,以色列國防軍于2021年首次在戰斗中使用無人機蜂群。
自動化技術和人工智能的擴散將對英國軍隊產生各種影響,包括與成本和軍事人員的角色和技能要求有關的影響。對全球和平與穩定也可能有影響。
一些專家表示,從長遠來看,軍事自動化系統和人工智能可能會通過提高效率和減少對人員的需求來降低成本。然而,估計成本影響是具有挑戰性的。開發成本可能很高,而且回報也不確定。提高自動化和人工智能方面的專業知識可能需要從提供高薪的行業中招聘。軍隊可能不得不提高工資以進行競爭,英國防部將此稱為 "人工智能工資溢價"。
自動化可能會減少從事危險或重復性任務的軍事人員數量。然而,一些軍事任務或流程,如高層戰略制定,不太適合自動化。在許多領域,自主系統預計將發揮對人類的支持功能,或在 "人機團隊 "中與人類合作。專家們強調,工作人員必須能夠信任與他們合作的系統。一些角色的性質也可能會受到自動化的影響,所需的技能也是如此。例如,對具有相關技術知識的自主系統開發者和操作者的需求可能會增加。英國防部已經強調需要提高整個軍隊對人工智能的理解,并承諾開發一個 "人工智能技能框架",以確定未來國防的技能要求。一些利益相關者對自動化對軍事人員福祉的影響表示擔憂,因為它可能會限制他們的個人自主權或破壞他們的身份和文化感。
人員對自動化的態度:
關于軍事人員對自動化的態度的研究是有限的。2019年對197名英國防部人員的研究發現,34%的人對武裝部隊使用可以使用ML做出自己的決定的機器人有普遍積極的看法,37%的人有普遍消極的態度。有報道稱,人們對某些自主武器系統缺乏信任,包括在2020年對澳大利亞軍事人員的調查中。在這項研究中,30%的受訪者說他們不愿意與 "潛在的致命機器人 "一起部署,這些機器人在沒有人類直接監督的情況下決定如何在預定的區域使用武力。安全和目標識別的準確性被認為是兩個最大的風險。有證據表明,信任程度取決于文化和熟悉程度。
一些專家提出了這樣的擔憂:在武器系統中越來越多地使用自主權,有可能使沖突升級,因為它使人類離開了戰場,減少了使用武力的猶豫性。蘭德公司最近的一份戰爭游戲報告(上演了一個涉及美國、中國、日本、韓國和朝鮮的沖突場景)發現,廣泛的人工智能和自主系統可能導致無意中的沖突升級和危機不穩定。這部分是由于人工智能支持的決策速度提高了。升級也可能是由自動系統的非預期行為造成的。
還有人擔心,由于自動化和基于人工智能的技術變得更便宜和更豐富,非國家行為者更容易獲得這種技術。這些團體也可能獲得廉價的商業無人機,并使用開放源碼的人工智能對其進行改造,以創建 "自制 "武器系統。關于非國家行為者使用自主系統的報告是有限的和有爭議的。然而,非國家團體確實使用了武裝無人機,而且人們擔心人工智能會使這種系統更加有效。
正在進行的包括機器人和人工智能在內的技術研究,主要是由商業驅動的,預計將增加自動化系統的應用范圍和采用程度。該領域的一些關鍵技術挑戰概述如下。一個更普遍的挑戰是,相對于數字技術的快速發展,軍事技術的發展速度緩慢,有可能在部署前或部署后不久組件就會過時。
無人駕駛的車輛和機器人經常需要向人員傳輸數據或從人員那里接收數據。這可以讓人類監督和指導它們的運作或接收它們收集的數據。在某些情況下,系統也可能需要相互通信,如在無人機群中(方框3)。軍方通常使用無線電波在陸地上傳輸數據,其帶寬(頻率的可用性)可能有限。在傳輸大量數據,如高分辨率圖像時,這可能是個問題。5G技術(POSTbrief 32)可能會促進野外更有效的無線通信。系統之間的無線電通信可以被檢測到,提醒對手注意秘密行動。對手也可能試圖阻止或破壞系統的通信數據傳輸。目前正在研究如何最大限度地減少所需的數據傳輸和優化數據傳輸的方法。更多的 "板載 "或 "邊緣 "處理(POSTnote 631)可以減少傳輸數據的需要。然而,減少通信需要系統在沒有監控的情況下表現得像預期的那樣。
具有更高水平的自主性的更復雜的系統通常在運行時在船上進行更多的數據處理和分析。這要求系統有足夠的計算能力。一般來說,一個系統能做多少嵌入式數據處理是有限制的,因為硬件會占用空間并需要額外的電力來運行。這可能會限制需要電池供電運行的系統的敏捷性和范圍。然而,人工智能的進步也可能使系統更有效地運行,減少計算要求。由于未來軟件、算法和計算機芯片技術的進步,計算機的處理能力也有望提高。
創建和整理與軍事應用相關的大型數據集,對生產可靠的人工智能自主系統非常重要。機器學習(ML,方框1)依賴于大型數據集來訓練其基礎算法,這些數據可以從現實世界中收集,或者在某些情況下,使用模擬生成。一般來說,用于訓練ML系統的數據越有代表性、越準確、越完整,它就越有可能按要求發揮作用。準備訓練數據(分類并確保其格式一致)通常需要手動完成,并且是資源密集型的。
數據隱私:
一些人工智能系統可能會在民用數據上進行訓練。人們普遍認為,如果使用與個人有關的數據,他們的隱私必須得到保護。這可以通過對個人數據進行匿名化處理或只分享經過訓練的人工智能系統來實現。
由計算機軟件支撐的系統數量的增加增加了網絡攻擊的機會。網絡攻擊者可能試圖控制一個系統,破壞其運作,或收集機密信息。基于人工智能的系統也可以通過篡改用于開發這些系統的數據而遭到破壞。英國防部在2016年成立了網絡安全行動中心,專注于網絡防御。在英國,2021年成立的國防人工智能中心,有助于促進行業伙伴或其他合作者對高度機密數據的訪問。
重要的是,軍事系統要可靠、安全地運行,并符合法律和法規的規定。人工智能和自動化給傳統軟件系統帶來了不同的測試和保證挑戰。 進一步的挑戰來自于ML的形式,它可能不可能完全理解輸出是如何產生的(POSTnote 633)。人工智能軟件可能還需要持續監測和維護。利益相關者已經強調缺乏適合的測試工具和流程,并正在開發新的工具和指南。英國政府的國防人工智能戰略致力于建立創新的測試、保證、認證和監管方法。
目前還沒有專門針對將自動化或人工智能用于軍事應用的立法。雖然它們在戰爭中的使用受現有的國際人道主義法的約束,但這與新技術的關系是有爭議的。在國家和國際層面上有許多關于人工智能更普遍使用的準則,這些準則可以適用于自動化系統。然而,2021年數據倫理與創新中心(CDEI)的人工智能晴雨表研究發現,工業界很難將一般的法規適應于特定的環境。2022年,英國防部與CDEI合作發布了在國防中使用人工智能的道德原則。
一些利益相關者強調,如果自主系統的行為不合法或不符合預期,那么它的責任是不明確的。這可能導致系統及其決定與設計或操作它的人類之間出現 "責任差距",使法律和道德責任變得復雜。英國防部的原則說,在人工智能系統的整個設計和實施過程中,應該有明確的責任。國防人工智能戰略為供應商設定了類似的期望。
這一領域的大部分法律和道德辯論都集中在武器系統上。然而,某些非武裝系統(例如,基于軟件的決策支持工具)可能在識別目標方面發揮關鍵作用,因此提出了許多與那些同時部署武器的系統相同的道德問題。
國際上對 "致命性自主武器系統"(LAWS)的使用存在著具體的爭論。這個術語沒有普遍認同的定義,它被用來指代具有不同自主能力的廣泛的武器。關于使用致命性自主武器系統的報告存在很大爭議,例如,由于系統使用模式的不確定性。 聯合國《特定常規武器公約》(CCW)自2014年以來一直在討論致命性自主武器系統的可能立法。它在2019年發布了指導原則,但這些原則沒有約束力,也沒有達成進一步的共識。雖然大多數參加《特定常規武器公約》的國家支持對致命性自主武器進行新的監管,但包括英國、美國和俄羅斯在內的其他國家認為,現有的國際人道主義法已經足夠。根據運動組織 "阻止殺手機器人"(SKR)的說法,83個國家支持關于自主武器系統的具有法律約束力的文書,12個國家不支持。
許多利益相關者認為,必須保持人類對武器和瞄準系統的某種形式的控制,才能在法律和道德上被接受。某些組織,如SKR,呼吁禁止不能由 "有意義的人類控制 "的自主武器系統,并禁止所有以人類為目標的系統。他們還呼吁制定法規,確保在實踐中保持足夠的人為控制。在其2022年國防人工智能戰略中,英國政府表示,識別、選擇和攻擊目標的武器必須有 "適當的人類參與"。作為回應,一些呼吁監管的非政府組織表示,需要更加明確如何評估或理解 "適當的人類參與"。包括英國政府在內的利益相關者建議的維持人類控制的潛在措施包括限制部署的時間和地理范圍。被認為會破壞人類控制的因素包括人類做出決定的有限時間和 "自動化偏見",即個人可能會過度依賴自動化系統,而不太可能考慮其他信息。
大多數關于軍事自動化的公眾意見調查都集中在自主武器系統上。SKR委托對28個國家的19,000人進行了民意調查。62%的受訪者反對使用致命性武器系統;這一數字在英國是56%。關于公眾對人工智能、數據和更廣泛的自動化的態度的研究發現,公眾關注的主要問題包括數據安全、隱私和失業。然而,公眾的觀點會因系統的功能和使用環境的不同而有很大差異。
這期雜志專門介紹了最近的多領域作戰研討會的成果。邀請了來自北約、學術界和工業界的專家來分享觀點,并建立一個共同的基礎,探討多域作戰對軍團總部的意義,特別是考慮到作為小型聯合行動(陸軍)的聯合特遣部隊總部的作用。戰爭正在快速變化,技術在戰場上的地位是我們可能沒有預料到的。研討會是磨練頭腦和避免意外的另一個步驟。必須努力確保我們的程序、戰法和產品能夠抓住進步帶來的機會。作為那些以指揮和控制為生的人,需要確保統一的意圖和任務,以及完成任務的效果,這些都是明確的,并且能夠有利于跨領域的協調工作。必須務實,集中精力解決需要解決的問題,并提醒自己,我們的行為很重要:這是合作的第一層,因為它確保我們都覺得是解決方案的一部分。
科學和技術的進步越來越復雜和普遍。從智能手機到可穿戴健康監測器,再到用于游戲的虛擬現實頭盔,先進的技術正逐漸融入到日常生活中。但是,隨著科學技術越來越先進,我們在如何與新技術互動和使用這些技術在社會中如何發揮作用方面,也面臨著同樣復雜的倫理挑戰。無人駕駛汽車就是一個說明性的例子,它引發了一些倫理上的難題。例如,在無人駕駛汽車必須 "選擇 "撞上老人或小孩的情況下,哪種反應才是正確的?有沒有一個 "正確 "的反應?在這種情況下,人類司機會有正確的反應嗎?無人駕駛汽車是否應該轉彎以避免被駛來的卡車追尾,但這樣做會使一群過馬路的兒童面臨被卡車撞上的風險? 這些問題的答案本來就不簡單。此外,不同的技術在不同的情況和背景下會帶來不同的倫理問題;事實上,新興技術的軍事用途會帶來一些獨特的倫理挑戰。
美國國防部高級研究計劃局幾十年來一直在資助軍事科技研究和開發,僅2015年的年度預算就達29億美元。盡管科技正在快速發展,為軍事問題穩步提供新興技術解決方案,但我們的監管政策卻滯后,導致我們對在戰場上使用特定技術的倫理、社會和法律后果的認識存在差距,這是許多人指出的問題。對軍隊來說,一些最深刻的倫理問題是由新興的人體強化技術和自主或機器人系統引起的。例如,一個強化的士兵是否會被視為比人類更多或更少的東西,從而受到對手的非人待遇?在海外戰區從國內操作無人駕駛飛行器(UAV)的士兵是否被認為是戰斗人員,因此在本土是公平的軍事目標?與民用技術一樣,新興技術的軍事用途所引起的許多倫理問題沒有明確的答案。無論如何,在一項新興技術被廣泛使用--民用或軍用--之前,開發者、利益相關者和政策制定者意識到與之相關的潛在倫理問題是至關重要的,這樣就可以通過修改技術或規范其使用的政策來緩解這些倫理問題。
確保潛在的倫理問題得到承認的方法之一是建立一個全面的框架,以方便識別在使用任何感興趣的特定技術時可能出現的倫理問題。有幾個現有的工具指導對新興技術的倫理評估,其中包括相關問題和考慮因素的清單。例如,Elin Palm和Sven Hansson提出了一個九項檢查清單,包括:信息的傳播和使用;控制、影響和權力;對社會接觸模式的影響;隱私;可持續性;人類生殖;性別、少數民族和正義;國際關系;以及對人類價值的影響。David Wright提出了一個框架,包括一些原則,在這些原則下列出了一些價值或問題,以及在評估過程中需要回答的問題:尊重自主權(自由權);非惡意(避免傷害);善意;正義;隱私和數據保護。Federica Lucivero、Tsjalling Swierstra和Marianne Boenink建議,倫理學家在考慮一項技術的合理性時應避免過多的猜測,而在考慮該技術將如何被社會看待并在社會中發揮作用時應使用更多的想象力。為了促進這一點,他們提出了三類考慮因素:技術可行性、社會可用性和技術的可取性。雖然這些倫理評估框架對確定與平民使用的新興技術相關的倫理問題很有用,但它們對評估軍事倫理是不夠的,因為軍事倫理有一些獨特的特點。
雖然軍事和民用倫理之間有一些共同的價值觀(例如,隱私和健康問題),但在新興技術的軍事使用方面也有特殊的考慮。例如,軍事行動必須遵守《武裝沖突法》(LOAC),該法規定了戰爭手段并保護非戰斗人員和受沖突影響的平民。例如,加拿大武裝部隊(CAF)有一個《道德和價值觀準則》,其中規定了CAF成員必須遵守的價值觀,包括尊重加拿大法律和為加拿大服務高于自己,以及他們必須表現出的價值觀,如誠信和勇氣。
研究倫理原則對于確保包括士兵在內的人類研究對象在新技術的實驗測試階段得到道德對待至關重要。事實上,現代人類研究倫理原則是在軍事研究人員以研究名義進行的應受譴責的行為的歷史中產生的。當研究對象是軍人時,如果研究和軍事需要之間的界限變得模糊,就會出現挑戰,特別是在知情同意方面會出現復雜情況。但是,即使在設計和測試一項新技術時遵循了研究倫理原則,在使用該技術時仍可能出現倫理問題。有一些類似的倫理原則,如知情同意、隱私和保密性,在研究階段和隨后使用一項技術時都應考慮。
即使遵守了法律和法規,并考慮了其他倫理原則,如研究倫理原則,一項新技術仍不一定符合軍事用途的倫理,必須進一步考慮。例如,一項新技術是否會導致士兵之間的不平等,并導致部隊的凝聚力下降?如果一項新技術導致了意外的傷亡,誰來負責?一項技術是否會使士兵面臨被對手探測和攻擊的風險? 在確定一項技術是否有任何軍事倫理問題時,有許多嚴重的問題需要反思。此外,還有人從反面考慮新技術和軍事倫理之間的關系,認為應該修改指導士兵行為的軍事倫理,以實現某些新興技術的潛在倫理優勢。
鑒于全面評估一項技術所需的軍事倫理考慮的數量,以及任何違反倫理的行為對戰斗的潛在嚴重性,迫切需要一個軍事專用的倫理評估工具。其他團體已經將各種倫理原則改編為討論倫理和軍事技術的框架。然而,據我們所知,還沒有一個實用的倫理評估工具,可以用來指導對軍隊感興趣的新興技術進行系統的倫理評估。
為了填補這一空白,我們創建了一個名為 "軍事倫理評估框架"(框架)的綜合框架,將相關社會、法律、研究和軍事倫理領域的廣泛考慮納入其中,以幫助用戶和決策者確定在軍事上使用人體強化技術可能產生的潛在倫理問題。盡管該框架的設計足夠廣泛,可用于對許多不同類型的新興技術進行倫理評估,但我們對該框架的初步測試側重于新興的人類增強技術,因為這些技術對軍隊有很大的意義,而且它們引起了許多倫理問題。未來的研究將檢驗該框架在識別軍隊可能感興趣的其他新興技術(如人工智能技術)所引起的倫理問題方面的效用。 本文的目的是介紹該框架,并通過展示它如何幫助識別與軍隊感興趣的兩種不同的人體增強技術有關的潛在倫理問題來說明該工具的使用。
美國陸軍未來與概念中心 未來戰爭部主任 克里斯-羅杰斯上校
歷史上的戰爭包含了大量改變戰爭性質的工具和技術的例子。自最初研究多域作戰(MDO)以來,美國陸軍發現人工智能是一種新興技術,有可能改變戰爭的特點,也許也會改變戰爭的性質。使用人工智能(AI)解決方案來緩解軍事問題是過去兩年未來戰爭研究、檢查和學習的一個反復出現的主題。作為2019年未來研究計劃的一部分,我們與陸軍、聯合、多國、學術和科技組織合作,探索和了解人工智能對多軍種的影響,并為未來的研究和發展制定一個操作框架。
多域作戰的人工智能運作最終報告提供了采用人工智能的組織框架,以幫助陸軍和聯合部隊更好地定義所需的能力以及相關的數據和網絡架構,以實現多域能力部隊。描述聯合部隊如何采用人工智能解決方案,為了解人工智能在時間和空間上對多域作戰的影響提供了一個操作說明。本報告確定并解決了與人工智能相關的好處、機會和挑戰,為進一步分析提供了基礎。諸如人工智能等新興技術使陸軍不僅可以改進當前的戰術、技術和程序,而且可以創造新的運用和融合能力的方法。
該報告支持美國陸軍人工智能任務組,該組織負責制定陸軍的人工智能戰略和政策。本文通過描述部隊如何在整個MDO框架內采用人工智能解決方案和相關技術,啟動了陸軍的人工智能運用工作。這份報告使概念發展團體能夠修改陸軍功能概念和戰場發展計劃。它為能力發展團體提供了作戰視角和部隊在確定所需能力時必須考慮的技術影響。此外,該報告還為作戰概念文件或基于能力的評估提供了開發情景或小插曲的基礎。該文件為科學和技術界提供了行動背景,以便為人工智能研究、開發、建模和模擬提供信息和指導。最后,它支持制定一個在未來使用人工智能的全面愿景,以告知陸軍現代化的努力,這將創造有能力的MDO部隊,準備好與任何對手作戰并取得勝利。
人工智能(AI)是未來聯合部隊實現多域作戰(MDO)全部潛力的基礎。人工智能系統提供了跨越領域、電磁頻譜和信息環境戰勝對手的能力。在競爭中使用這些系統使聯合部隊能夠近乎實時地了解作戰環境,從而更好地運用能力來擊敗旨在破壞區域穩定的威脅行動,阻止暴力升級,并將被拒絕的空間變成有爭議的空間。在從競爭到武裝沖突的過渡中,人工智能的機動、火力以及情報、監視和偵察能力為聯合部隊提供了拒絕敵人奪取優勢地位的能力。改進的維持能力與攻擊敵人的反介入/空中拒止網絡的能力相結合,為美國部隊提供了奪取作戰、戰略和戰術優勢位置的能力。通過由人工智能支持的多領域聯合行動圖(MDCOP)增加了解,使美國部隊有能力協調多領域的效果以創造優勢窗口。
制定人工智能的作戰概念使陸軍能夠更好地理解這些技術對戰爭的性質和特征的潛在影響。描述陸軍如何在未來的作戰環境中使用人工智能,有助于說明其對戰爭的暴力、互動和基本的政治性質的影響,以及戰爭不斷演變的特點。本文提供了一些小插曲(附錄A),說明了人工智能的組織運用,為美國陸軍RAS總體概念、作戰和組織概念、基于編隊的作戰概念以及系統或單個系統的運用概念的潛在發展提供信息。
人工智能的運作影響到未來部隊將如何運作,如何針對對手開展行動,以及指揮官如何利用軍事藝術和科學,運用部隊能力來實現預期效果和目標。在2019年未來研究計劃(FSP19)期間,人工智能工作線(LoE)確定了與實施人工智能支持的多領域解決方案有關的以下問題:
數據管理--AI/ML應用程序依賴于對策劃的數據的訪問,以便發揮作用。陸軍必須培養一種以數據為中心的文化,以標準化的格式和協議有效地生成、存儲和訪問數據。人才管理的努力必須側重于發展、培訓和保留一支精通數據的員工隊伍。這可以通過以下方式實現:
在整個部門培養一種以數據為中心的文化
投資于整個員工隊伍的數據科學培訓
簡化數據訪問
設計和實施協議,以確保數據的可發現、可訪問、可共享和可互操作性
功能分解--狹義的人工智能本質上是有限的,構建算法的數據科學家需要精確的問題定義,準確確定聯合部隊的要求。
可解釋人工智能--人工智能支持的系統需要有能力解釋決策/建議和所采取的行動背后的邏輯。這種解釋 "為什么"的能力是人類對人工智能智能體的信任基礎。
邊緣計算/人工智能--未來的作戰環境與有爭議的電磁頻譜預期要求有能力向前處理極其龐大的數據集,以及能夠自主行動的人工智能平臺。
利用商業部門--美國防部實驗室繼續在人工智能/ML發展方面取得重大進展,特別是與聯邦資助的研究和發展中心合作。商業部門繼續探索和擴大可能適用于軍事應用的工作。
作為FSP19的一部分,人工智能LoE開發了五個小插曲和一個概念草圖(見附錄A),以協助人工智能和機器學習的運作。這些小插曲說明了聯合部隊如何利用人工智能/ML來解決多領域行動所需的關鍵能力。MDCOP概念將依靠幾個有限內存的人工智能來建立和維護描繪整個戰場的藍、紅、綠活動。一個反應式機器人工智能將為特定的指揮官和總部定制MDCOP。合作傳感、維持、攻擊和瞄準的小插曲依靠反應式機器人工智能來優化傳感器覆蓋、維持吞吐量、攻擊順序和射手選擇。
未來部隊需要人工智能來充分實現多領域作戰的潛力。人工智能支持的系統使未來部隊能夠進行信息收集和分析,以便在時間有限和信息競爭的環境中增加對形勢的了解。這種能力使快速、知情和合理的決策成為可能。人工智能的決策支持代理將減輕作戰人員的認知工作量并提高整體效率。由人工智能支持的無人系統將探測、識別和穿透高風險區域,以提高開展行動和保護部隊、人口和資源的能力。人工智能使MDO在與近似對手的沖突規模下實現了作戰速度的要求。
軍事決策在不同的領域--陸地、海洋、空中、太空和網絡--以及不同的組織層面--戰略、作戰、戰術和技術上發揮著關鍵作用。建模和仿真被認為是支持軍事決策的一個重要工具,例如,生成和評估潛在的行動方案。為了成功地應用和接受這些技術,人們需要考慮到整個決策 "系統",包括決策過程和做出決策的指揮官或操作員。
人工智能技術可以以各種方式改善這個決策系統。例如,人工智能技術被用來從(大)數據流中提取觀察結果,自動建立(物理/人類/信息)地形模型,產生對未來事件和行動方案的預測,分析這些預測,向人類決策者解釋結果,并建立人類決策者的用戶模型。
對于所有這些應用,人工智能技術可以在不同的情況下被使用,并且已經開始被使用,因此有不同的要求。在本文中,我們概述了人工智能技術和模擬在決策"系統"中的不同作用,目的是在我們的社區中促進對人工智能的綜合看法,并為用于軍事決策的各種人工智能研發奠定基礎。
軍事決策有多種形式。它發生在不同的領域--陸地、海洋、空中、太空、網絡--以及不同的組織層次[7]。例如,在戰略層面上,決策是否以及何時在一個特定的作戰區域內開始一項軍事任務。在作戰層面上,聯合部隊指揮官決定為某項行動分配哪些軍事要素,并指定在具體行動中尋求的預期效果。在戰術層面上,例如,海上任務組的反空戰指揮官決定由哪艘護衛艦來應對來襲的威脅。最后,在技術層面上,要決定在什么范圍內使用什么武器來消滅對手。
建模和仿真被認為是支持這些現場決策過程的一個重要工具(例如,見[3]的清單)。它提供了一種理解復雜環境和評估潛在行動方案有效性的手段,而不必使用現場測試。因此,借助于建模和模擬可以更安全、更便宜、更快速,而且可以更容易地測試不同的操作方式。此外,對于戰場上的軍事行動來說,廣泛地試驗軍事行動應該如何進行,甚至可能在道德上不負責任。因為,在指揮官可以決定不繼續按照同樣的戰術行動之前,就已經產生了意想不到的效果。
現代建模和仿真經常得到人工智能(AI)技術的支持。例如,用于仿真單個節點、組織和社會行為模型(見一些背景資料[13][4]),以獲得對對手合理和可能行為的洞察力。在這種行為洞察力的基礎上,可以為許多決策層面的軍事行動設計提供智能分析和決策支持。此外,人工智能技術被用來構建這些模型,與這些模型互動,并迅速分析大量的模擬結果數據。這里的技術進步非常多,例如,使用機器學習來構建更真實的行為模型[11],改善人機協作[5],對大量的模擬數據進行理解[10]。然而,人工智能技術只有在對決策者有用的情況下才能也應該被用于軍事決策。這意味著,只有在決策質量提高或決策過程變得更容易的情況下,才應將人工智能技術(在建模和仿真中)整合起來。
成功應用和接受用于決策支持的模擬仿真--可能建立在人工智能技術之上--取決于與主要軍事決策過程的互動和不斷學習([1])。決策者和分析員應該知道如何提出正確的輸入問題,以便通過建模和仿真來回答。然后,這些問題應該通過建模和仿真研究轉化為正確的輸出答案。因此,在各種互補的人工智能技術的支持下,應該對軍事決策過程和軍事模擬之間的互動有一個廣泛、全面的看法,并服從不同的功能要求。在本文中,我們概述了由人工智能技術支持的軍事仿真在決策"系統"中的不同作用,目的是在我們的社區內促進對人工智能的綜合看法,并為軍事決策的各種人工智能研發奠定基礎。
如引言所述,決策發生在不同的領域和不同的組織層面。在這里,我們提出了一個決策系統的示意圖,以提供一個關于如何通過仿真來支持決策的一般見解。這一觀點(圖1)來自于對多個決策過程的分析,如聯合定位[5]、作戰計劃[7]、海上反空戰[1],并與著名的OODA環[8]相結合。該觀點中的元素解釋如下。
圖1:由建模和仿真支持的軍事決策周期的系統觀點。
觀察:OODA循環的第一步是觀察,從廣義上講,就是觀察現實世界中正在發展和出現的事件和情況。觀察包括,例如,來自傳感器的(原始)數據,包括我們自己的眼睛和耳朵,以及來自報告、報紙和社會媒體的符號數據。還收集了來自高層指揮和控制實體的指導意見。這些數據由分析員處理,對鏡頭中的個體進行命名,計算某些Twitter標簽的出現次數,驗證某個事件是否真的發生,等等。根據[9],這可以被稱為情境意識的第一級:對當前情況下的元素的感知。
世界模型:在OODA環的觀察步驟中,已經開始了構建世界模型的過程,無論是隱性的還是顯性的。符合軍事決策觀點的世界模型的另一個名稱是共同行動圖。所有相關的概念都在世界模型中得到體現,包括不確定因素和假設。請注意,世界模型可以被仿真,即個體、平臺、團體或社會的行為可以隨著時間的推移而被預測,即使是在用戶的頭腦中隱含完成。
定位:在OODA循環的第二步,分析者使用他的專業知識,對觀察結果進行推理,形成假設,例如對手的意圖。通過這樣做,實現了對真實世界的深入理解[12],這反映在世界模型中(仍然是顯性或隱性的)。在態勢感知方面,這被稱為第2級(對當前形勢的理解)和態勢感知能力第3級(對未來狀態的預測)。在任何時候,推理的結果可能是世界模型結構是不充分的,例如,現實世界的一個方面被認為是不相關的,但最后發現是相關的。因此,世界模型需要被更新。
決定:決策者,可能是與分析員相同的人,將根據對現實世界的理解,考慮如何采取行動的選項。世界模型的預測能力被用來演繹各種情景,讓人了解什么是理想的行動方案,什么不是,或者讓人了解空間和/或時間上的關鍵點,這樣就可以對這些關鍵點給予額外考慮。當然,如果世界模型是隱含的,這都是決策者的精神努力。此外,對于感興趣的現實世界系統的預測行為,可以得出的結論的精確性和/或確定性有很大不同:從精確的路線,到可能的戰略和理論的廣泛指示。
行動:在OODA-環的這一步,行動被執行。這些行動發生在真實世界中,然后一個新的OODA-環開始觀察是否需要重新考慮已經做出的決定。另一個行動可以是向 "較低層次"的決策過程下達命令,例如,讓下屬單位計劃和執行他們所得到的任務。這就是不同組織層次的決策過程的互動方式。還要注意的是,盡管每個組織層面的世界模型都與真實世界相聯系,但這些世界模型的結構(即被認為是相關的)可能是不同的。
從概念上講,在上述的決策過程中引入模擬(實際上首先是建模的巨大努力)是很直接的。在第一步和第二步中,建立了世界相關部分的模型,在以后的時間里,它被用來評估許多不同的情景,分析由此產生的結果,并根據其結論做出決定。正如后面將顯示的那樣,人工智能技術的作用與建模和模擬的使用有很大關系。
雖然從概念上來說,納入仿真模擬和人工智能技術是很簡單的,但為了給行動提供真正的附加值,它需要被嵌入到具體的決策過程中。而每個決策過程都是不同的,有不同的時間限制,不同的行動者,在不同的操作環境中。這將對開發使用的解決方案,包括人工智能技術,提出不同的功能要求。此外,根據具體的作戰決策環境,應用人工智能技術的附加值(或缺乏附加值)將是不同的。在下一節中,我們將對一個具體的案例進行進一步的探索,盡管肯定不是詳盡的努力,以允許對這種系統在這個過程中可能具有的不同角色進行更通用的識別。
本節提供了一個關于如何利用仿真和人工智能技術來支持作戰層面上的(蓄意)聯合目標定位決策的案例研究。對于每個想法,都有以下描述:被加強的行為者(決策者)和/或產品,人工智能如何提供支持,以及使用這種形式的支持的附加值是什么。請注意,這個案例研究的目的是為了更好地了解人工智能技術應用的廣度,因此,目標不是完全涵蓋所有的可能性,也不是過于詳細。這種類型的案例研究已經確保了可以得出初步的功能要求,人工智能技術和智能建模與仿真應該應用于此。
圖2顯示了北約盟國聯合出版物3.9中的聯合瞄準決策周期,其中強調了五個想法。
圖2--來自北約盟國聯合出版物3.9的聯合目標定位周期,JFC=聯合部隊指揮官,JTCB=聯合瞄準協調委員會,JTL=聯合瞄準清單,TNL=目標
想法1--基于AI的目標系統分析的所有來源分析。第一個想法是支持目標小組的成員在聯合目標定位周期的第二階段參與目標系統分析,進行目標開發。例如,假設從第一階段開始,就打算通過瞄準對手的石油生產來擾亂其資金能力。在第二階段,分析人員將研究石油生產的目標系統,以確定油井、煉油廠、管道、重要的道路,也許還有相關的關鍵人物,等等,基于他們擁有的所有來源(圖像、信號情報、人類情報,等等)。
人工智能技術可以協助人類分析員建立 "目標系統模型",即通過采用模式識別算法來處理大量的所有來源的信息,通過使用推理算法將信息碎片組合成一個結構化和連貫的整體。分析傳入信息的算法可能--經過增量的人工智能驅動的創新--也能夠識別尚未反映在目標系統模型中的新概念,然后可以自動添加到模型中。另一種可能性是創建一個 "虛擬分析師"(見圖3),通過不斷挑戰假設、假說和人類偏見來協助人類分析師,這需要額外的用戶建模和可解釋的AI技術。
圖3:人類和虛擬分析員,一起解釋數據,推理信息和知識,以建立一個目標系統模型。
這個想法的潛在附加值首先體現在完整性上,更多的目標可以呈現給人類分析員--它仍然可以為交叉檢查的目的做最后一步的目標審查。因為所有來源的情報都被整合到目標識別決策中,所以可以得出更具體的目標信息。識別算法經過訓練后,與基于人眼從數據中識別目標時相比,可以更快更及時地進行識別。最后,該算法可以明確地轉向識別不同類型的目標,這些目標可能并不都在人類分析員的經驗或觀察能力范圍內。
想法2--通過算法識別來自目標系統分析的優先目標。第二個想法是支持從一個給定的目標系統分析中識別優先目標。這有助于目標支持小組成員得出一個聯合的優先目標清單,該清單是在聯合目標定位周期的第二階段,即目標開發階段制定的。人工智能技術的支持始于將目標系統分析(如果還沒有的話)轉化為計算機可理解的形式,該形式由功能關系連接的實體組成,并由目標任務的目標支持。然后,在相關的時間范圍內計算直接或間接瞄準不同實體所產生的效用(例如,效果和效果的持續時間)。
然后,最終結果可以由人類分析員檢查,該分析員可能會重新引導算法的某些部分,以確保最終結果選擇的優先目標盡可能地滿足和平衡任務目標。另一種可能性是,分析表明,對目標系統的某些部分還沒有足夠的了解,無法做出某種決定,然后發出新的情報請求,以減少這種不確定性。
在這種情況下,使用人工智能技術的附加價值首先體現在通過完整地確定優先事項,包括最大限度地實現任務目標,同時最大限度地減少負面問題,從而更好更快地確定優先次序。這種全面的分析可能會導致原始的目標選擇,在這種情況下,會發現反直覺但非常有效的目標。目標優先級的可追溯性增加了,因為目標選擇問題的算法規范以及積極和消極的相關功能迫使決策者在激發他們的偏好時完全明確。
想法3--能力和優先目標的自動映射。與目標開發(第二階段)密切相關的是第三階段的能力分析。第三個想法是協助,仍然支持目標支持小組的成員,找到最適當的(致命和非致命)能力的最佳同步組合,可以應用于產生所需的物理和心理效果。使用模擬和人工智能技術來自動生成和播放高水平和低水平的行動方案,可以獲得對計劃的優勢、機會、弱點和威脅的深刻理解。當然,只有在與人類分析員和決策者密切合作的情況下,建立這樣的理解才是有用的,這就需要有人類意識的 "虛擬分析員 "技術。
想法4--計算機輔助的穩健和適應性部隊規劃和分配。在聯合定位的第四階段,能力分析的結果被整合到進一步的行動考慮中,推動聯合部隊指揮官對目標的最終批準。仿真和人工智能優化技術可用于尋找稀缺資源對目標或其他任務的最佳分配。什么被認為是 "最好的 "可以是不同的,例如,爭取最大的效果、安全、穩健、靈活,或這些和更多因素的任何組合。這可能會提供原始的規劃和分配方案,從人類分析者的角度來看,這些方案部分是反直覺的,但卻富有成效。智能優化算法可以幫助確定時間和/或空間上值得監測的關鍵點。而且,如果可以實時跟蹤進展,在事件或機會實際發生之前就可以立即生成重新分配方案,在時間緊迫的情況下減少決策時間。
想法5--自動評估軍事行動績效措施。在聯合定位的最后階段,收集和分析數據和信息,以確定計劃的行動在多大程度上得到執行(績效的衡量),以及達到預期的效果(效果的衡量)。因為這種類型的分析與其他階段的分析基本相似(即需要觀察和理解),所以在這里采用的模擬和人工智能技術可以被重復使用。例如,"目標系統模型"可以用來事先確定哪些措施或措施的組合最能說明性能和/或成功,也許還要考慮到其他因素,如效果的可測量性和延遲性。這些見解可用于指導例如戰斗損失評估工作。算法可以自動產生多種假設,當數據/信息可用時,"虛擬分析師"可以協助對這些假設和信息進行推理,幫助人類分析師以結構化的方式更好地解釋復雜的情況。
在本節中,我們將討論人工智能技術在軍事決策中可以發揮的作用,并將這些作用與前面介紹的軍事決策系統聯系起來。這些作用是由上面的案例研究綜合而成的。不同的作用是沿著兩個層次結構的,從上到下:在 "過程"層面,不同但連貫的步驟/階段被執行;在 "個體"層面,人類(或團隊)負責執行決策過程的特定步驟。
在整個決策過程的層面上,有多個步驟可以區分。在前面介紹的決策系統觀點中,這些步驟是觀察、定位、決定和行動。在聯合定位案例研究中,這些對應于六個階段,由不同的人在不同的時間執行。在這個層面上,我們為人工智能技術定義了四個功能角色,以支持決策過程。
感知:這個角色中的人工智能技術,主要以模式識別的形式,幫助處理大量的數據,如在圖像中尋找人,檢測數據流中的異常情況等。
態勢理解:這個角色的功能是實現對當前或假設的作戰環境的理解[12],從而描述所有相關實體、它們之間的關系以及不可觀察的屬性,如它們的野心和目標。例如,對關于最近敵對活動的現有信息進行推理,結合關于他們的理論的一般知識,可以用來產生關于他們最可能的意圖的假設。
計劃生成:在這個角色中,人工智能技術,例如搜索和優化,被用來生成旨在達到(或避免)某種目標情況的計劃、策略和行動方案。處理元標準,如計劃的穩健性或情況的實用性也是這個作用的一部分。顯然,在許多情況下,不確定性是行動環境所固有的,因此不能被忽視。盡管如此,對當前形勢的理解越好,預測能力就越強。
學習:扮演這一角色的人工智能技術被用來更新有關作戰環境的知識。例如,在某個時間點,人們可能會發現一個被認為是正確的關于敵人理論的假設不再有效了。為了能夠保持正確的理解,這種新知識應該反映在所有其他決策步驟中。
在單個節點層面上,決策過程的單一步驟被執行,通常由一個或一組人類分析員和/或決策者負責。無論這一步需要什么,人工智能技術都可以在不同的合作角色中被使用,以支持人類。
專家系統支持:在這個角色中,支持的形式就像一個經典的專家系統,以知識和優化結果的形式向人類決策者或分析員提供建議。重要的考慮因素是,例如,如何以人類能夠接受的方式向其提供建議。對可解釋人工智能的研究可能是一個方向。
虛擬團隊成員:在這個角色中,人工智能技術被用來在人類和支持系統之間創造一種更平等的互動關系,積極為一個共同的目標工作。例如,虛擬團隊成員可以通過提出問題使假設明確化或挑戰偏見來幫助做出決定的(認知)過程。人類-人工智能的研究可能是一個追求的方向。
自主決策:決策過程中的其他步驟的互動,專家系統和虛擬團隊成員支持的考慮同樣有效。例如,在其他決策中的人類需要能夠推斷出一個自主系統。
圖4顯示了在軍事決策系統視圖中繪制的人工智能的七個角色。當使用模擬和人工智能來支持決策過程時,應該始終考慮這些不同的角色是如何互動的,無論是在過程層面還是在個人層面。例如,在聯合目標定位的過程層面上,第二階段包括定位(目標系統分析)和決定(為達到預期效果而瞄準什么)。第三階段也包括定位(自身能力)和決定(如何實現預期效果)。這些階段共享相同的世界模型,在這個過程中引入人工智能支持將推動這些步驟的合并,這不是不可想象的。在個體層面上,例如再次考慮第2階段,分析員可以得到綜合態勢理解、規劃生成和學習技術的支持,以及虛擬團隊成員和專家系統支持技術的任何組合。
圖4:由建模和仿真支持的軍事決策周期的系統視圖,其中人工智能技術的功能(黃色)和協作(綠色)作用被描繪出來。
在本文的第一部分,我們介紹了軍事決策的系統觀點,主要基于OODA循環,其中我們介紹了世界模型,作為向整個決策周期提供建模和仿真支持的核心手段。接下來,從我們的聯合目標定位案例研究中,我們推斷出人工智能可以為軍事決策做出貢獻的七個功能性和協作性角色。這些角色對應于決策步驟,或者對應于如何向負責該過程步驟的人提供支持。最后,我們將這些人工智能角色整合到決策系統視圖中。
本文的目標是為我們社區內人工智能的綜合觀點做出貢獻,并為軍事決策的人工智能各種研發奠定基礎。在開發支持軍事決策的模擬和人工智能時,我們建議同時考慮過程層面和單個節點層面。在過程層面上,通過使用建模和仿真可以獲得好處。在單個節點層面上,為人類分析員和決策者提供實際支持,人工智能技術可以通過不同的角色組合對此作出貢獻。鑒于決策過程的各個步驟都是不同的,并且提出了不同的要求,履行這些不同角色的人工智能技術需要作為一個整體來開發。
我們相信,隨著對這一主題的更多研究,軍事決策的速度和質量都可以得到改善。然而,非常重要的是,要持續關注特定的未來人工智能應用的附加值,以及研究這些應用可能對,例如,負責該過程的人的所需技能,甚至該過程本身的影響。最后需要的是一個系統,它的存在是因為它可以建立,而不是有人幫助。對于這一點,應該更普遍地回答如何限定然后量化應用人工智能進行具體軍事決策應用的附加價值的問題。這樣的見解反過來又會成為關于人工智能用于軍事決策的集體技術路線圖的寶貴基礎。
[1] Bloemen, A., Kerbusch, P., van der Wiel, W., Coalition Force Engagement Coordination, TNO Report TNO-2013-R12117, 2015.
[2] Connable B, Perry W, Doll A, et al. Modeling, Simulation, and Operations Analysis in Afghanistan and Iraq. Santa Monica, CA: RAND, 2014.
[3] Davis P., Kulick J., Egner M. Implications of Modern Decision Science for Military Decision-Support Systems. Santa Monica, CA: RAND, 2005.
[4] Kunc, M., Malpass, J., White, L.(2016). Behavioral Operational Research, Theory, Methodology and Practice. Palgrave Macmillan, London.
[5] Langley, P., Meadows, B., Sridharan, M., Choi, D. (2017). Explainable Agency for Intelligent Autonomous Systems. Proceedings of the Twenty-Ninth AAAI Conference on Innovative Applications (IAAI-17).
[6] NATO Allied Joint Doctrine For Joint Targeting AJP 3.9(B), 2015.
[7] NATO Allied Command Operations. Comprehensive Operations Planning Directive Interim V2.0.
[8] “OODA loop.” Wikipedia, The Free Encyclopedia. 10 Mar. 2018.//en.wikipedia.org/wiki/OODA_loop
[9] “Situation Awareness.” Wikipedia, The Free Encyclopedia. 17 Mar. 2018.
[10] Smit, S., Veldhuis, G., Ferdinandus,G., et al. KaV Advanced Visual Analytics, TNO Report DHWELSS-, 2016.
[11] Toubman, A., Poppinga, G., Roessingh, J. (2015). Modeling CGF Behaviour with Machine Learning Techniques: Requirements and Future Directions. Proceedings of Interservice/Industry Training, Simulation, and Education Conference (I/ITSEC) 2015.
[12] “Understanding.” Wikipedia, The Free Encyclopedia. 18 Apr. 2018.
[13] Zacharias, G., MacMillan, J., van Hemel, S. (2008). Behavioral modeling and simulation: From individuals to societies. National Research Council, National Academies Press.