未來沖突環境中有兩個相互關聯的問題值得情報組織關注:大數據帶來的分析挑戰和網絡威脅。前所未有的數據生產正在超越人類和機器的分析能力,而不斷涌現的技術正在增強對手滲透通信網絡的能力。在未來的沖突中,情報組織將利用易受網絡入侵的不完善的傳統計算來分析大數據,并通過同樣易受入侵的媒介來傳播已完成的情報。在未來沖突中使用傳統的分析和加密技術,表明情報機構沒有能力或不愿意利用先進技術提高情報分析能力和數據保護能力。在發展中的技術中,基于量子的計算和人工智能以及量子加密技術為這兩個問題提供了解決方案。考慮到量子技術在未來 10-15 年內前所未有的潛力,海軍陸戰隊和其他軍種的情報實體應開發一種量子與傳統計算機的集成架構,以產生人機分析能力和量子加密來保護情報通信網絡。
圖 2:假設沖突 OE 和全球環境中的大數據生產和網絡威脅。已部署的 IOC 與 MIC/MCIA 量子人工智能加密中心之間的支持和關系。
首先回顧并簡要評述了當前的軍事人工智能形勢。然后,轉向迄今為止在很大程度上被忽視的人工智能驅動系統影響國家層面訴諸武力決策的前景。雖然此類系統已經對發動戰爭的決策產生了有限而間接的影響,但它們將越來越多地以更直接的方式影響此類決策--無論是在自動自衛的背景下,還是通過為人類決策提供信息的決策支持系統。本文引證了人工智能系統在其他決策領域的不斷擴散,再加上人們認為有必要在人工智能 “全球軍備競賽 ”中與潛在對手的能力相匹配,這種發展是不可避免的,很可能會在不久的將來出現,并有望產生重大影響。在概述了與這一預期發展相關的四個主題之后,預覽了構成本特刊的十二篇多元化、多學科文章。每篇文章都涉及我們提出的四個主題之一,并探討了人工智能技術滲透到戰爭決策中的重大風險或益處。
如果由智能機器來決定國家是否參與戰爭呢?從某種意義上說,這只是科幻小說的內容,或者說是對未來技術如何發展、如何超越我們的能力并掌握控制權的長期猜測。然而,從另一個更細微的角度來看,這是一個非常可信的現實,與我們現在擁有的技術相兼容,很可能在不久的將來以某種形式實現(考慮到其他領域可觀察到的發展),而且是我們心甘情愿地逐步實現的前景。
本文將探討人工智能介入訴諸武力的決策這一完全可以想象的前景所帶來的風險和機遇。將回過頭來簡要評述一下當前的軍事人工智能形勢,然后再探討人工智能預期影響這一在很大程度上被忽視的領域。然后,將強調與人工智能技術滲入戰爭決策相關的四個主題,然后預覽與這些并發癥相關的十二篇不同的、多學科文章。
人工智能(AI)--不斷發展的機器模仿人類智能行為的能力--已經從根本上改變了有組織的暴力行為。人工智能已經并正在越來越多地融入各種軍事功能和能力。例如,圍繞澳大利亞、英國(UK)和美國(US)“AUKUS ”協議發布的官方文件概述了人工智能在先進軍事能力中發揮的日益重要的作用,包括對 “彈性和自主人工智能技術(RAAIT)”的承諾,根據該承諾,"‘AUKUS’合作伙伴正在提供人工智能算法和機器學習,以加強部隊保護、精確瞄準以及情報、監視和偵察。(AUKUS 國防部長引文2023)人工智能在軍事能力中的擴散不僅對武器系統的實用性、準確性、殺傷力和自主性產生深遠影響(例如,見 Scharre 引文2024),而且人工智能與先進武器系統的交叉被認為會對軍事力量平衡產生嚴重影響(例如,見 Ackerman 和 Stavridis 引文2024)。事實上,人工智能已被視為謀求軍事優勢的關鍵所在,并在當前關于維護軍事優勢的思考中占據中心位置。正如一份分析報告所解釋的那樣,人工智能 “將使美國能夠部署更好的武器,在戰斗中做出更好的決策,并釋放出更好的戰術”。(布坎南和米勒引文 2017, 21)用美國前國防部副部長米歇爾-弗盧諾伊(引文 2023)的話說,“人工智能正開始重塑美國的國家安全”。
軍事人工智能的重要性與日俱增,其利用也日益廣泛,與此同時,人們對其使用可能帶來的潛在風險和不良后果也感到擔憂。一個充滿人工智能的決策世界和隨之而來的壓縮時間表,再加上智能自動化甚至完全自主的武器,在帶來軍事優勢的同時也帶來了危險。這促使人們試圖制定規則和限制,至少可以約束人工智能的某些軍事應用,并力求將危險或不良結果降至最低。這種監管不僅僅是一個學術問題。大量證據表明,各國政府也越來越關注人工智能在軍事領域的應用所帶來的廣泛風險。2023 年 2 月在海牙舉行的 “軍事領域負責任的人工智能 ”國際峰會發表了 “關于負責任地在軍事領域使用人工智能和自主權的政治宣言”,截至 2024 年 2 月,該宣言已得到 50 多個國家的認可(美國國務院引文2023)。該聲明包括一系列旨在促進安全、謹慎地使用軍事人工智能的可取措施,其中包括 “在負責任的人類指揮和控制鏈內 ”使用人工智能的主張(與本特刊通篇討論的一個問題有關)(美國國務院引文 2023)。
澳大利亞國防部長理查德-馬爾斯議員在宣布澳大利亞將于 2023 年 11 月加入該宣言時重申,澳大利亞承諾 “積極參與國際議程,以負責任的方式研究、開發、部署和應用人工智能”(澳大利亞政府引文 2023)。此外,美國總統喬-拜登和澳大利亞總理安東尼-阿爾巴內塞于2023年10月在華盛頓特區會晤后發表聯合聲明,申明 “各國應采取適當措施,確保負責任地開發、部署和使用其軍事人工智能能力,包括實現自主功能和系統的能力”(澳大利亞總理引文2023)。當然,要切實采取這些措施,就必須了解--并預測--人工智能系統在軍事環境中的各種應用方式。
最后,必須承認,軍事人工智能與核武器并存的幽靈最近引起了人們的關注和擔憂。人工智能在核武器領域的應用引發了大量分析和擔憂,原因顯而易見,其潛在風險是如此巨大(例如,見 Kaur Citation2024;Shaw Citation2023;Parke Citation2023)。正如 Depp 和 Scharre 嚴正指出的那樣,“在核行動中正確使用人工智能可能會產生毀滅世界的影響”(Depp 和 Scharre 引用 2024)。美國在其 2022 年《核態勢評估報告》中宣布,作為一項政策,在任何涉及使用核武器的決策中,人類都將無一例外地參與其中(美國國防部引文 2022,13)。一個基本的擔憂是,人工智能可能會以自動反應能力的方式融入核指揮與控制,這可能會加強威懾,但也會增加意外升級或失控的風險。由于擔心人工智能的引入會給核指揮與控制帶來新的漏洞,人們呼吁制定規范和準則,以限制核不穩定性以及可能隨之而來的對核威懾的威脅(Avin 和 Amadae Citation 2019)。
總之,人工智能對武器系統的性能、軍事行動的開展以及軍事力量的弱點和優勢的影響非常重要。這些發展對未來戰爭具有嚴重影響(如果仍不確定的話),并引起了學術界、國家領導人和普通公眾的關注。然而,由人工智能驅動的軍事工具激增所引發的思想發酵和政策審議主要集中在因此而使用(和改變)武力的方式上,而不是這種新興技術組合如何可能為國家是否以及何時參與戰爭的決策提供信息(并可能改變決策)的問題上。要討論的正是后一個問題。
學術界和政策制定者的關注點主要集中在戰爭中人工智能系統的使用上。其中最突出的包括正在出現的 “致命自主武器系統”(“LAWS”--或更通俗和挑釁性的 “殺手機器人”)和決策支持系統,其形式是依靠大數據分析和機器學習來推薦無人機襲擊和轟炸目標的算法(如最近引起關注的以色列在加沙的行動(Abraham Citation2024;Davies, McKernan, and Sabbagh Citation2023))。相比之下,試圖探討的是在商議訴諸戰爭的各個階段和層面使用人工智能工具這一相對被忽視的前景。
換句話說,將從戰場上的人工智能轉向戰爭室中的人工智能。從士兵選擇和攻擊目標(以及授權和監督智能機器選擇和攻擊目標)的決策,轉向國家層面關于發動戰爭和軍事干預的決策;從戰時法(jus in bello)轉向訴諸戰爭法(jus ad bellum)的考慮(用正義戰爭傳統的語言);從國際人道法裁定的行動,轉向受《聯合國憲章》禁止訴諸武力及其明確例外規定約束和縱容的行動。
重點的轉移至關重要。它預示著國家在做出戰爭決定時不可避免的變化。之所以預測人工智能將滲透到訴諸武力的決策過程中,部分原因是人工智能驅動的系統(包括預測性機器學習算法)在其他許多領域不斷擴散,以幫助決策制定。從招聘、保險決策、醫院醫療診斷和福利分配,到警務實踐、商用飛機駕駛艙支持和累犯可能性判斷,都需要依靠此類系統。總之,人類的決策越來越依賴于人工智能的幫助。此外,在日益高速、始終高風險的戰爭環境中,需要與潛在對手的能力相匹配,這也助長了最新的 “全球軍備競賽”(Simonite Citation2017)。雖然人工智能系統目前在國家層面的訴諸武力決策中只發揮了有限和間接的作用,但相信,它們將逐步以更直接的方式影響此類決策。現在,通過研究人工智能逐步干預訴諸武力決策的前景,就有可能確定使用這些技術的益處和風險,同時還有時間分別找到加強或減輕這些益處和風險的方法。
這些考慮因素的嚴重性怎么強調都不為過。正如阿什利-迪克斯(Ashley Deeks)、諾姆-盧貝爾(Noam Lubell)和達拉-默里(Daragh Murray)(引文2019, 16)挑釁性地提出的:如果說機器被賦予 “決定 ”殺死一名敵軍士兵的權力的可能性充滿了倫理和法律爭議,那么又該如何看待機器最終決定一個國家是否參戰,從而影響成千上萬或數百萬人生命的可能性呢?
當然,智能機器 “決定 ”一個國家是否參與戰爭可能意味著不同的事情。撇開科幻小說中的場景和長期的未來主義猜測不談,目前的人工智能驅動系統可以通過兩種方式對訴諸武力的決策產生影響。首先,人工智能決策支持系統可用于為是否參戰的討論提供信息。在這種情況下,人類決策者將利用算法建議和預測來做出訴諸武力的決定。在人工智能輔助收集和分析情報方面,這種情況已經開始出現,至少是間接地出現在組織層級和指揮系統中。另外,人工智能驅動的系統本身也可以計算和執行訴諸武力的決定,例如在防御網絡攻擊的情況下。此外,令人擔憂的是,人工智能驅動的自動核反應首次打擊的建議也被醞釀和威脅,特別是在斬首攻擊的情況下。(據報道,蘇聯留給俄羅斯的 “死手 ”發射系統仍在使用,因此這種可能性并非不可想象。俄羅斯的 “周邊 ”系統在 Depp 和 Scharre Citation2024 中有所描述;另見 Andersen Citation2023,12)。在這種情況下,人工智能自主系統將決定并實施行動方案--無論是否有人類監督。這兩類情況都是可預見的(而且很可能是在不久的將來),需要立即關注。
這些人工智能驅動的系統能夠分析大量數據,通過發現人類決策者無法感知的數據模式提出建議和預測,并以望塵莫及的速度和效率對潛在攻擊作出反應,盡管它們具有種種潛在優勢,但挑戰也層出不窮。2023 年 6 月 29 日至 30 日,在澳大利亞國立大學(ANU)舉行了題為 “預測未來戰爭:人工智能、自動化系統和訴諸武力決策 ”的研討會,該研討會促成了本特刊的出版。
復雜因素 1 涉及人工智能驅動的訴諸武力決策中人類判斷的替代,以及對威懾理論和沖突意外升級的可能影響。當編程建議--或獨立計算和實施--對特定情況做出反應時,智能機器的行為會與人類代理人不同。這種差異可能會挑戰我們對威懾的理解。目前對一個國家是否愿意訴諸武力的看法是基于對人類判斷力、決心和忍耐力的假設,而不是機器生成的結果。此外,在某些情況下,人工智能系統被委以獨立應對侵略的任務,將以人類行為者無法達到的速度做出并執行決策,從而加快決策周期。它們似乎還可能曲解人類的信號(例如,關于緩和沖突的愿望)。這兩個因素都可能導致在人類決策者本應保持克制的情況下,訴諸武力卻在無意中升級,并可能造成災難性后果(例如,見 Wong 等人,Citation2020,第 7 章和第 8 章)。
復雜因素 2 強調了自動化偏差可能產生的影響。實證研究表明,依賴人工智能驅動系統的個人和團隊往往會出現 “自動化偏差”,即傾向于不加質疑地接受計算機生成的結果(Cummings Citation2006;Citation2012;Mosier and Fischer Citation2010;Mosier and Manzey Citation2019;Skitka, Mosier, and Burdick Citation1999)。這種傾向會使人類決策者不太可能利用自己的專業知識和判斷力來檢驗機器生成的建議。自動化偏見的有害后果包括接受錯誤、人類行動者的非技能化--包括 “道義上的枯竭”(Vallor Citation2013),以及正如一位在本文集和其他地方所論證的,在戰爭中 “錯位責任 ”的推廣(與其他因素一起),或者說智能機器可以為必然是人類的決策及其結果承擔道義責任的危險誤解(Erskine Citation2024a, 551-554; Citation2024b)。
復雜因素 3 涉及算法的不透明性及其對民主和國際合法性的影響。機器學習過程經常是不透明和不可預測的。受其指導的人往往不理解預測和建議是如何得出的,也不了解它們的局限性。目前,許多人工智能驅動的決策都缺乏透明度,這導致了一系列負面影響(Knight Citation2017;Pasquale Citation2016;Citation2017;Vogel 等人 Citation2021)。由于政府的民主和國際合法性要求對訴諸戰爭的決定提供令人信服且易于理解的理由,當機器為此類行動提供信息或獨立計算和實施此類行動時,這種缺乏透明度的情況會帶來嚴重的問題。
復雜因素4 涉及人工智能系統加劇組織決策病態的可能性。國際關系(IR)和組織理論的研究都揭示了組織決策的現有復雜性和 “病態”(在國際關系領域,例如參見 Barnett 和 Finnemore Citation 1999)。人工智能驅動的決策支持和自動化系統介入這些復雜的結構有可能會放大這些問題。它們對國家甚至政府間決策的貢獻可能會扭曲和擾亂戰略和行動決策過程及指揮系統。
新技術的影響和未來作戰空間速度的加快可能會使指揮和控制職能過度集中于政治或戰略層面,從而繞過合格參謀人員所發揮的咨詢作用。政治和/或戰略領導人可能會發現,發動先發制人的戰爭或預防性戰爭,以此作為獲取對敵不對稱優勢的戰略是很有吸引力的。本文研究了這一趨勢的根源,將歷史觀點與下一代技術可能對指揮和控制產生的影響聯系起來。
圖 3. 自主武器與自主戰爭之間的平行關系
新技術的影響和未來戰場節奏的加快可能會使政治或戰略層面的指揮和控制職能過度集中。政治和戰略領導人可能會將先發制人或預防性戰爭作為一種戰略,以獲得對敵人的不對稱優勢,這不是因為他們必須這樣做,而是因為他們可以這樣做。因此,高級領導人可能會被鼓勵繞過其合格參謀人員所發揮的咨詢作用,并削弱下級指揮官的自主權。技術系統的進步可能會終結任務指揮、Auftragstaktik。唐納德-E-范德格里夫(Donald E. Vandergriff)將 Auftragstaktik 定義為軍事職業化的一種文化理念: 總指揮官的意圖是讓成員努力追求專業精神,作為回報,個人將在完成既定任務時獲得自由。將采用嚴格的、但經過驗證且站得住腳的標準來識別少數有能力從事軍事職業的人。一旦一個人被接納加入這一職業,就會與戰友們形成一種特殊的紐帶,這種紐帶使團隊合作和解決復雜任務成為可能。這種指揮文化......必須從基礎訓練一開始就融入所有教育和培訓中。
本文探討了這一趨勢的根源,將歷史觀點與下一代技術可能對指揮與控制產生的影響聯系起來。
技術創新在戰爭中發揮著至關重要的作用。在戰爭中采用新技術有助于取代傳統上由人類扮演的角色。在第一次世界大戰和第二次世界大戰之間的戰時,戰爭得到了優化,以便通過日益復雜的機器來應對更遠的距離和更快的執行速度。武裝部隊的總參謀部變得更加精密和復雜,以處理更多的信息。戰場逐漸遠離指揮官,而作為戰爭關鍵職能的指揮和控制則走向自動化。
當前的軍事能力是技術和信息不斷發揮核心作用的演變趨勢的結果。隨著以網絡為中心的戰爭(NCW)作戰概念的引入,或各級網絡化部隊的使用,指揮官現在可以訪問由傳感器、決策者和士兵組成的網絡,從而在幾乎全球范圍內提供共享意識、更快的節奏、更強的殺傷力和生存能力。新技術的開發和采用使政治和戰略決策者能夠實時控制戰場,甚至在戰術層面也是如此。新技術的影響和未來戰場速度的加快可能會使政治或戰略層面的指揮和控制職能過于集中。其后果可能不利于在作戰和戰術層面開展軍事行動。此外,自主武器和人工智能是戰爭自動化的下一步,對指揮與控制有著至關重要的影響。
在對指揮與控制的調查中,作者沿用了《指揮與控制》、《海軍陸戰隊條令出版物(MCDP)6》所采取的方法,并使用了美國空軍上校約翰-R-博伊德的 OODA 循環(觀察、定向、決策和行動),因為用《指揮與控制》的話說,它 “描述了指揮與控制過程的基本順序”。此外,OODA 循環對有效決策也有重要作用。作者認為,雖然高度自主技術的引入已經并將繼續對觀察(O)、定向(O)和行動(A)階段產生重大影響,但決策(D)階段仍需要 “環路上 ”的人來控制行動的進行。新技術的采用將大大加快 OOA 階段的速度,決策階段也將從中直接受益,但運用判斷和專業經驗的能力仍將是這一階段的關鍵因素。戰爭規劃》(MCDP 1)正確地強調,軍事決策不僅僅是數學計算。決策既需要有識別特定問題本質的情境意識,也需要有制定切實可行解決方案的創造能力。這些能力是經驗、教育和智慧的產物。
然而,對可靠、準確和快速軍事選擇的追求可能會讓人類從許多過程和程序中消失。事實上,機器可能會在決策過程的許多關鍵階段取代人類。這種可能性引起了軍事工作者和學者的一些擔憂。在經常被描述為超戰爭的未來戰爭中,由于競爭要素的反應近乎瞬時,OODA 循環中可能幾乎完全沒有人類決策。這篇文章描述了未來作戰環境自動化程度的提高所帶來的速度提升的副作用:不可避免且必要的 OODA 循環壓縮。
生成式人工智能(AI)正在以前所未有的規模與人類互動,為產生巨大的積極影響提供了新的途徑,但同時也引發了人們對個人和社會潛在危害的廣泛關注。如今,人類-人工智能安全的主要模式側重于微調生成模型的輸出,使其更好地符合人類提供的示例或反饋。然而,在現實中,人工智能模型的輸出結果無法在孤立的環境中確定:它們與人類用戶的反應和行為長期緊密糾纏在一起。在這份立場文件中,我們認為,只有通過推理人工智能的輸出和人類行為形成的反饋回路會如何推動交互走向不同的結果,才能為這些人工智能技術提供有意義的安全保證。為此,我們設想了一個高價值的機會之窗,將快速增長的生成式人工智能能力與控制理論中的動態安全框架聯系起來,為未來幾十年以人為本的人工智能安全奠定新的基礎。
圖 1. 在本立場文件中,我們認為存在一個高價值的機會窗口,可將生成式人工智能不斷增長的能力與控制理論中的動態安全框架相結合,從而實現新一代以人為本的人工智能安全分析和大規模系統性風險緩解。
在繼續討論之前,我們必須回答這樣一個問題:"什么定義了安全關鍵型人機交互?除了人工智能安全目前對價值一致性的關注之外,我們認為,高風險的人工智能系統還必須了解人類的需求,違反這些需求可能會對人類造成不可接受的、往往是無法彌補的損害。在人工智能決策問題的數學表述中,人的價值對應于優化目標(如隨時間累積的獎勵或偏好),而人的需求則對應于必須始終滿足的硬約束。
因此,我們將安全定義為始終滿足人類的關鍵需求。在本文中,我們將人與人工智能的交互作為一個閉環動態系統進行研究,該系統由人的行為和人工智能的輸出驅動,它們共同影響著人工智能的學習和人的未來行為。我們將安全關鍵型人機交互系統定義為:在交互演化過程中,人類的關鍵需求有可能受到侵犯,因此人工智能所做的決策必須積極確保此類侵犯行為不會發生。即使是一個看似無害的人工智能聊天機器人,也可能給人類帶來災難性的后果,例如因投資建議不當而造成不可挽回的經濟損失(Hicks,2023 年)或身體傷害(Xiang,2023 年)。我們認為,由于任何實用的人工智能系統都無法確定人類當前的內部狀態,因此也無法確定他們未來的行為,因此應該要求人工智能系統確保任何可以想象的人類行為(包括適當悲觀的情況)都能保持安全。第 4 節和第 5 節的人類-人工智能系統理論路線圖將更正式地闡述這些關鍵因素。
在這個前所未有的技術驅動轉型時代,比以往任何時候都更需要積極投資開發強大的人工智能(AI),用于兵棋推演以支持決策。通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域感知,提高決策周期的速度和質量,為新的行動方案提供建議,并更迅速地反擊對手的行動。因此,必須加快人工智能的發展,以幫助更好地應對目前需要人類智慧才能應對的現代挑戰和困境的復雜性,并在可能的情況下嘗試超越人類智慧--不是取代人類,而是以機器的速度增強人類決策并為其提供更好的信息。盡管深度強化學習在智能體行為開發方面不斷取得令人鼓舞的成果,可用于戰斗建模和模擬中常見的長視距復雜任務,但仍需進一步研究,才能使人工智能的規模擴大到能夠處理兵棋推演中錯綜復雜的廣闊狀態空間,從而進行概念開發、教育或分析。為了幫助應對這一挑戰,在研究中,正在開發和實施一個分層強化學習框架,其中包括多模型方法和維度不變觀測抽象。
鑒于這些令人擔憂的活動以及最近在人工智能變革能力方面取得的突破,顯然必須開始更認真地投資于專門用于兵棋推演的人工智能開發。美國國家人工智能安全委員會(NSCAI)[27]詳細闡述了兩個信念:(1)"計算機系統解決問題和完成原本需要人類智慧才能完成的任務--在某些情況下甚至超過人類的表現--的能力迅速提高,正在改變世界";(2)"人工智能正在擴大美國已經進入的脆弱窗口"。因此,有鑒于此,NSCAI得出結論:"美國必須立即行動起來,將人工智能系統投入實戰,并在人工智能創新方面投入更多的大量資源,以保護美國的安全,促進繁榮,保障民主的未來"[27]。NSCAI [27] 認為,通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域意識,提高決策周期的速度和質量,為不同的作戰行動提供建議,并更迅速地反擊對手的行動。
盡管美國在大多數領域都享有軍事優勢,但機器學習(ML)的擴散已開始為競爭對手和其他國家行為者提供無數的破壞機會[28]。因此,現在比以往任何時候都更有必要積極開展研究和實驗,以便對人工智能的優缺點以及如何將其用于規劃和兵棋推演有一個扎實的了解,只有這樣,國防部才能更好地做好準備,以應對戰略突襲和破壞[28]。例如,如今的作戰行動分析主要側重于評估友軍的計劃,而很少強調對手可能會如何根據自身的目標和能力做出反應[26]。盡管不遺余力地試圖了解對手的想法以及他們在沖突中會如何行動,但總是會受到自己想象力的限制。托馬斯-謝林(Thomas Schelling)在他的 "不可能定理"(Impossibility Theorem)中說得最好: "一個人,無論他的分析多么嚴謹,想象力多么豐富,都不可能做的一件事,就是列出一個他不會想到的事情清單"[29]。人工智能支持的兵棋推演甚至有可能克服這一限制,創造出有自己目標的智能體,而這些智能體并不一定受限于思維和計劃方式,因為思維和計劃方式通常是通過幾十年的經驗根深蒂固的。此外,僅從數據中學習新的行為,人工智能就能自動執行原本需要人類智慧才能完成的任務[30]。
雖然在機器學習領域已經開展了大量研究,但兵棋推演和軍事規劃與迄今為止使用人工智能解決的傳統問題--如圖像分類和自然語言處理--有很大不同。任務分析和規劃通常需要人類的直覺和啟發式方法來限制搜索問題的規模 [28]。雖然啟發式方法確實能更容易地找到可接受的解決方案,但這些解決方案的可擴展性或可靠性通常不足以評估可能出現的大量突發情況 [28]。此外,直覺也可能在非常復雜的問題中失效,例如那些涉及到有許多不同參與者的高維空間以及復雜的武器和傳感器交互的問題[28]。不幸的是,這些復雜性正是可能決定未來戰爭的特征[26], [28]。
幸運的是,迄今為止,競技游戲已成為學習如何實施人工智能以支持兵棋推演的良好試驗平臺。早期的成功包括掌握跳棋[32]、五子棋[33]、國際象棋[34]和圍棋[35]。人工智能方法在視頻游戲中也取得了成功,如 Atari 游戲 [36]、超級馬里奧兄弟 [37]、Quake III [38]、Dota 2 [39]、星際爭霸 II [40] 和無上限德州撲克 [41]。然而,競技游戲通常都有一套固定的規則、確定的參數和基于已知變量的可預測結果。雖然這些游戲能為戰略、決策和風險評估提供有價值的見解,但真實世界中的兵棋推演場景往往更加復雜--可能的初始游戲狀態更多,分支系數更大,因此結果更加難以預測。因此,如何將人工智能從這些游戲中獲得的成功轉化為真正的軍事行動是一項挑戰。不過,從這些游戲中獲得的人工智能學習和適應能力方面的進步,為人工智能在作戰模擬中更細致的應用奠定了堅實的基礎。
正如 CeTAS 報告[31]所詳述的那樣,可以采用大量不同的方法來利用人工智能支持兵棋推演;不過,在本文剩余部分的范圍內,將討論人工智能與兵棋推演的關系,即創建能夠在戰斗建模和模擬所特有的龐大而復雜的狀態空間中做出理性決策的智能體。
然而,要證明人工智能能夠贏得游戲或取得超人的表現,只是證明人工智能確實能為兵棋推演者、作戰規劃者和戰場指揮官提供有用見解的第一步[42]。盡管如此,設想這些智能體將成為創建現代決策輔助工具的基礎,與更傳統的工具相比,這些工具能為決策者提供更高的準確性、速度和靈活性[28]--有可能加快決策過程并提供關鍵的洞察力。隨著進一步深入多域作戰[26],在面對人工智能對手時,忽視這一步會帶來巨大風險。
雖然人機協作的概念最初是由 Licklider 在 1960 年提出的[43],但前國際象棋世界冠軍加里-卡斯帕羅夫(Gary Kasparov)在 1997 年輸給 IBM 的 "深藍"(Deep Blue)[44]多年后,首次提出了 "半人馬國際象棋"(Centaur Chess)的概念。盡管被人工智能擊敗,卡斯帕羅夫并沒有將人工智能視為一種威脅,而是鼓勵將人工智能視為一種工具,當它與人類的能力相結合時,可以帶來前所未有的成就[44]。卡斯帕羅夫在他的著作《深度思考》(Deep Thinking: 機器智能的終點和人類創造力的起點[44]》一書中,卡斯帕羅夫強調了利用人類和機器互補優勢的必要性。計算機擅長暴力計算,每秒能分析數百萬個局面,同時輕松計算出最佳的近期戰術行動。另一方面,人類對戰略、創造力和考慮特定棋步長期影響的能力有更深刻的理解,而這一切主要靠直覺[44]。卡斯帕羅夫認為,人類的直覺和機器的計算結合在一起,往往能比頂尖特級大師或計算機單獨發揮出更強的棋力。卡斯帕羅夫指出,在許多情況下,即使是排名相對較低的棋手與計算機配對也能勝過頂級特級大師。
有趣的是,卡斯帕羅夫還指出,隨著計算機國際象棋程序變得越來越強大,人類棋手在這種半人馬合作關系中的角色也發生了變化。最初,人類專注于戰略,而計算機則專注于戰術,但隨著國際象棋人工智能的改進,人類越來越多地開始扮演 "質量控制 "的角色,確保計算機推薦的棋步與人類更廣泛的戰略目標相一致[44]。事實上,卡斯帕羅夫經常說,國際象棋的未來可能不是人類與機器的對決,而是人類與機器配對,使用何種界面,能下出最好的棋。這種合作融合了機器的計算能力和人類提供背景、理解和直覺的能力--這種協同作用所產生的棋藝水平超過了任何一方單獨發揮所能達到的水平。
雖然有許多不同的人工智能技術和方法可以應用于兵棋推演,如監督學習、無監督學習、遺傳算法、自然語言處理、決策樹、專家系統、博弈論、對抗網絡等,但本文主要關注的是推進強化學習(RL)領域的需求,以支持為兵棋推演開發智能體行為。
說到機器學習,主要有三種類型:監督學習、無監督學習和強化學習。監督學習依賴于標注數據,每一組輸入都有相應的預期輸出。它類似于范例學習,最適合圖像分類、回歸和語音識別等任務。相反,無監督學習不依賴于標記數據。相反,它能發現數據中的模式或結構,比如對數據點進行分組或聚類,最適合異常檢測、降維和數據分割。值得注意的是,還有其他類型的機器學習,如遷移學習、主動學習、自我監督學習等;不過,這些通常是上述兩類學習的擴展或組合。
雖然戰爭的基本性質保持不變,但軍事戰略仍在根據新技術帶來的能力不斷演變。因此,軍事領導人必須了解新興的顛覆性技術,以保持部隊的相關性。量子技術就是這樣一種技術,由于其在廣泛領域的潛在應用,它在過去幾年里受到了廣泛關注。特別是,量子技術有望通過大幅提升當前的軍事技術,在戰爭的各個領域實現突破。本文基于現實評估,探討了量子技術在國防領域的三大應用--量子計算、量子傳感和量子通信--及其對未來戰爭的影響。
隨著美國國家戰略重點轉向與大國競爭,對美國海軍陸戰隊是否能滿足美國需求提出了質疑。海軍陸戰隊目前的兵力設計是針對大規模兩棲聯合強行進入作戰(JFEO)和岸上持續作戰而優化的。然而,隨著遠程精確導彈、先進預警雷達、無人機(UAV)和網絡能力在全球的擴散,美國前國防部長羅伯特-蓋茨(Robert M. Gates)以及新美國安全中心(Center for a New American Security)和戰略與預算評估中心(Center for Strategic and Budgetary Assessments)的學者們對海軍陸戰隊數十年來的多海軍陸戰隊遠征旅兩棲聯合強行進入作戰(JFEO)組織設計和相關投資提出了質疑。作為回應,海軍陸戰隊第 38 任司令戴維-伯杰(David H. Berger)將軍于 2020 年 3 月宣布了 "兵力設計 2030"(Force Design 2030),概述了海軍陸戰隊當前兵力設計的不足之處以及變革的必要性,以保持海軍陸戰隊在競爭環境中與先進的同級競爭對手的相關性。
《2030 年部隊設計》是適應性的縮影,是一種應對選擇性壓力的生存機制。迫使海軍陸戰隊進行變革的主要選擇性壓力之一是同行競爭對手的技術以前所未有的速度進步。雖然技術本身并不會改變戰爭的根本性質,但它肯定會影響必須采用的制勝戰略。由于技術在國家安全中的重要性,美國政府每年繼續投入數十億美元資助國防實驗室,如國防高級研究計劃局(DARPA)、海軍研究辦公室和陸軍研究實驗室。這些研究機構開發新的國防技術,并隨時向領導人通報這些技術可能對戰爭各個方面產生的影響。不過,海軍陸戰隊的最終責任是采用和調整這些新技術,使其能夠為聯合部隊提供相關的獨特能力。各級領導層對新興技術的進一步了解將加速新技術的采用,這也是快速技術進步的要求。本文是作者試圖提高人們對量子技術這一重大新興技術和潛在顛覆性技術及其對未來戰場潛在影響的認識,從而使海軍陸戰隊能夠共同積極地維持一支適合未來需求的部隊。
量子技術不會取代現有技術,相反,它將增強現有技術。量子密碼分析可以使美軍,特別是海軍陸戰隊在進攻和防御領域的網絡行動多樣化。抗量子算法的發明和實施就是網絡防御的一個例子。量子優化算法可以解決各種優化問題,包括但不限于路線規劃、供應鏈、多無人機部署和導彈防御,在提高作戰效率的同時減少所需資源。量子模擬可以開發出更輕、更堅固、更節能的材料,使海軍陸戰隊能夠在分布式環境中以更輕的足跡維持更長的時間。量子傳感器可以實現擴展導航和寬帶無線電頻率接收,同時占用空間更小,幾乎沒有電磁特征。量子網絡可提供高水平的通信安全,并實現量子信息的分發。
值得注意的是,由于實施方面的工程挑戰,這些應用仍停留在理論層面。第二次量子革命的大多數技術距離實際應用還有幾十年的時間。海軍陸戰隊不應該太有遠見,因為它必須能夠隨時投入戰斗--但同時,它也不應該太近視,以免在未來落伍并失去相關性。美國同行競爭對手的技術突飛猛進,要求海軍陸戰隊迅速采用新技術。及時合理地獲取、發展條令并在戰術上運用新技術的一個先決條件是,各級領導層要保持對新興顛覆性技術的集體認識,以便海軍陸戰隊能夠適當地組織、裝備和訓練海軍陸戰隊員,使其成為國家未來的替補部隊。
一種新的軍事力量倍增器正在出現。這就是軍事物聯網(MIoT),一個從不斷擴大的網絡來源中獲取數字數據并加以整合,從而創建一個多維情報和行動世界的世界。軍事物聯網由許多技術促成,其中有些是我們熟悉的技術,有些是新技術,但由于設備互操作性的進步和信息處理能力的提高,所有技術都在不斷融合。MIoT 正在成為新的軍事前線,帶來了非凡的能力進步,但也帶來了規劃、管理和部署方面的挑戰。
我們生活在一個互聯的世界。在這個世界里,任何類型的設備或機器,無論是數字還是模擬的,都可以利用體積小、重量輕、價格低廉的無線傳感器和交換機連接到網絡上。所創建的網絡可能在設計上受到限制(即所謂的 "邊緣計算 "模式),也可能是全球數據云的組成部分。但原則上,一切都可以與其他一切相連接。對于軍方來說,這為情報和實時控制從交通或基礎設施管理到動能戰場等各種情況創造了可能性。
從傳感技術中獲取情報并非新生事物。在軍事領域,它已有一個多世紀的歷史。例如,英國陸軍在第一次世界大戰中設計的坑道傳感器。在西線靜止的塹壕戰中,地道挖掘成為一種重要的進攻戰術,陸軍缺乏監聽敵方地道挖掘活動的人員;取而代之的是安裝了遠程傳感器(Tele-geophones 和 Seismo Microphones),只需兩名士兵在中央監聽交換站就能監測 36 個地點。
在第二次世界大戰中,雷達技術脫穎而出,這項傳感技術于 1904 年由德國研究人員首次申請專利,但在成為重要工具之前一直被忽視。隨后,美國在 20 世紀 50 年代部署了聲音監視系統來探測蘇聯潛艇。
所有這些傳感器技術都使用網絡中的遠程設備來整合數據,從而提高數據在沖突中的價值。但是,這些設備成本高昂,有時還不可靠,最常見的是有線設備,其帶寬、數據存儲容量和處理能力近乎無限,早于互聯網時代。
軍事物聯網則不同。如今的傳感器無處不在,具有移動性。它們可在從移動電話蜂窩網絡到安全點對點通信等各種通信網絡中運行。它們可以在大范圍內以低功耗運行(如已在樓宇管理系統中廣泛使用的 WLAN 網絡),并可在不使用服務的情況下持續運行數年。它們可以報告機器和設備的位置和狀態,執行命令,或使用生物識別數據來識別人員和監控生活功能。最重要的是,它們具有潛在的互操作性,能夠將數據輸入各種網絡和機器智能功能。
要實現物聯網的潛力,面臨的挑戰相當大。它需要高水平的組織技能和數據處理能力,以整合普適傳感、普適計算和普適通信。軍事組織必須能夠接受來自各種動態傳感器的信號,如靜態地面傳感器和士兵佩戴的傳感器,以及來自固定和移動設備的數據,包括來自無人機和衛星的情報。它們需要敏捷地跟上不斷變化的技術,同時向潛在對手隱藏自己的能力和知識。
例如,在五年或十年后,MIoT 技術確實有可能讓士兵舉起一個手掌大小的設備,只需輕觸按鈕,甚至在黑暗中,就能在幾秒鐘內知道周圍每個人的身份。然而,要實現這一目標,就必須具備連接多個數據庫和匯集一系列探測技術的能力。這種態勢感知的好處還必須與公民的隱私權和數據保護權相平衡。
圖 1:指揮網絡
只要能夠應對這些挑戰,就有機會創建一個以無與倫比的豐富信息為基礎的領域,其高速、高帶寬網絡既安全又不受干擾,互聯和自愈網絡及數據庫支持人工智能實時決策,豐富的數據與軍事組織及其條令完全融合。
在軍隊越來越多地使用基于機器學習(ML)的技術的背景下,我們的文章呼吁對ML平臺進行分析,以了解ML如何在軍隊中擴散以及產生什么影響。我們采用了新媒體研究中關于平臺的物質技術視角,并將這一文獻帶到了批判性安全研究中,我們認為需要關注平臺和它們所做的技術工作,以了解數字技術是如何出現和塑造安全實踐的。通過對谷歌開源ML平臺TensorFlow的詳細研究,以及對美國國防部算法戰爭跨職能團隊,即Project Maven的討論,我們做出了兩個更廣泛的貢獻。首先,我們確定了軍隊更廣泛的 "平臺化",我們指的是(技術材料)ML平臺的日益參與和滲透,它是使整個軍隊的分散和實驗性算法開發的新做法得以實現的基礎設施。其次,我們得出這種平臺化是如何伴隨著軍隊和企業領域的行為者之間的新的糾葛,特別是在這種情況下發揮關鍵作用的大科技公司,以及圍繞這些平臺組織的開源社區。
在軍隊越來越多地使用機器學習(ML)技術的背景下,我們的論文使用ML平臺的分析視角來理解ML是如何在軍隊中擴散的,并產生了什么影響。我們采用了新媒體研究中發展起來的關于平臺的物質/技術視角,將這一文獻與批判性安全研究結合起來,并認為關注平臺和它們所做的技術工作對于理解數字技術如何出現和塑造安全實踐是必要的。我們借鑒了對谷歌開源ML平臺TensorFlow的詳細研究,以及對美國國防部多功能算法戰爭團隊,即Project Maven的討論,并做出了兩個更廣泛的貢獻。我們首先確定了軍隊更廣泛的 "平臺化",我們指的是ML "硬件技術 "平臺的日益參與和滲透,作為軍隊中實驗性和分散性算法開發的新實踐的基礎設施。然后,我們繼續說明這種平臺化是如何伴隨著軍隊和企業行為者之間的新的糾葛,特別是GAFAMs,它們在這種情況下發揮著關鍵作用,而且圍繞這些平臺組織的開源社區也是如此。
在武裝部隊越來越多地使用自動學習技術(機器學習,ML)的背景下,在我們的文章中,我們描述了關于ML平臺的一個分析視角,目的是理解ML在武裝部隊中的發展以及其影響。采用一種關于平臺的物質和技術觀點,就像在關于新的通信媒體的研究中所開發的那樣,并在安全問題的研究中提及這一信息、 我們認為,有必要集中研究平臺和技術工作,以了解數字技術的發展和安全實踐的結構。通過對谷歌開放的ML平臺TensorFlow的詳細研究,以及美國國防部的交互式戰斗機設備的辯論,美國國防部的Proyectamento de Defensa,即美國國防部。美國的Proyecto Maven,實現了兩個更廣泛的貢獻。首先,我們確定了一個更廣泛的武裝部隊 "平臺",其中我們指的是ML平臺(技術/材料)的不斷參與和滲透,作為一種基礎設施,允許在武裝部隊中進行新的分散的算法開發和實驗實踐。第二,我們注意到這一平臺正伴隨著武裝部隊和公司統治者之間的新沖突,特別是那些在這一背景下發揮重要作用的大型科技公司,以及在這一平臺上組織起來的無國籍社區。
圖4. 人工智能對目標定位的增強:人工智能可以通過搜索目標并在發現后發出警報來增強動態目標定位周期。
開發和使用新的軍事技術是一個軍事專業人員工作的一部分。事實上,軍事歷史在很大程度上是一個技術革新的故事,士兵需要學習如何操作新系統。因此,關于整合人工智能的很多東西并不新鮮。就像坦克、飛機甚至弩一樣,隨著時間的推移,士兵們學會了使用和運用技術,工業界學會了以足夠的數量和質量生產技術,高級領導人學會了運用技術來實現戰略效果。如前所述,人工智能技術與它們的顛覆性“前輩”之間的區別在于,前者有能力改善廣泛的軍事武器、系統和應用。由于這種潛在的普遍性,幾乎所有的士兵都必須在某種程度上變得熟練,才能有效地和道德地運用AI技術。隨著這項技術在應用上的擴展,戰爭將像管理暴力一樣管理數據。
這種普遍性也提出了關于人類發展和人才管理的問題。盡管培訓計劃最終會培養出更多的知識型士兵,人事系統也會提高管理士兵的能力,但軍警人員能夠獲得知識和技能的限制仍然存在,特別是在作戰層面。盡管討論的目的不是要建立嚴格的指導方針,但討論確定了士兵需要獲得的許多知識。例如,士兵將需要知道如何策劃和培訓數據庫,而該數據庫對他們正在執行的任務有著重要作用。這樣做需要確保數據的準確、完整、一致和及時。使用這些數據需要熟練應用推薦模型卡中描述的條件,而熟練的操作有助于確保算法以有效和道德的方式執行。
當然,信任不能僅靠政策和程序來保證。指揮官、參謀員和操作員需要知道他們被信任做什么,以及他們信任系統做什么。指揮官、參謀員和操作員信任人工智能系統來識別合法目標,并避免識別非法目標。參與這一過程的人必須在使用這些信息時,既需要擊敗敵人,又必須避免友軍和非戰斗人員的傷亡。要找到這種平衡,就需要判斷人應該承擔多大的風險。
只要參與流程的人類能夠與系統進行有效的互動,由人工智能賦能的系統就能促進找到這種平衡。在將人類控制整合到機器流程中時,人們經常被迫在控制和速度之間做出選擇:強加的人類控制越多,系統的運行速度就越慢。但本研究發現這種兩難的局面是錯誤的。盡管在某些情況下,在人的控制和速度之間進行平衡可能是必要的,但如果系統要最佳地運作,人的輸入是必要的。
實現最佳性能首先要求指揮官確保參謀和操作人員了解模型能力,理解數據質量的重要性,以及洞悉模型在作戰環境中的表現。盡管它可能不會使系統更加精確或準確,但實現這些任務可使系統能夠更好地對輸出進行概率分配。第二,指揮官需要確定對任務、友軍戰斗人員和敵方非戰斗人員的風險有多大才合適。這一決定很復雜,其中關鍵任務可能是需要容忍更多的友軍和非戰斗人員傷亡。同樣,如果非戰斗人員的密度較低,即使任務不那么緊急,也可以容忍較高的風險。尋找這種平衡將是人類的工作。
但在前面描述的模糊邏輯控制器的幫助下,指揮官可以更好地確定什么時候可以信任一個人工智能系統在沒有人類監督的情況下執行一些目標定位步驟。此外,可以通過構建交互的邏輯,以找到多種不同的人機互動配置,確保系統的最佳使用,同時避免不必要的傷害。在LSCO期間,讓指揮官在需要時選擇智能和負責任地加快目標定位過程將是至關重要的,本報告中提出的設計實現了這一目標。這一成就在未來尤其重要,因為為了保護部隊并實現任務目標,指揮官將面臨大量時間敏感目標,及面臨承擔更多風險的操作條件。
在培養具有正確技能的足夠數量士兵以充分利用人工智能技術方面,仍有大量的工作。目前的人才管理計劃尚未達到管理這一挑戰的要求,盡管多個有前途的計劃準備最終滿足需求。然而,在大多數情況下,這些計劃都是為了滿足機構層面的要求,在機構層面上做出全軍采買人工智能和相關技術的決策。但是,這些技能將如何滲透到作戰陸軍,尚不清楚。
盡管人工智能在目標定位中的使用并不違反當前的戰爭法,但它確實引起了一些道德倫理問題。在所討論的目標定位系統背景下,這些倫理問題中最主要的是問責制差距和自動化偏見。第一個問題對于回答核心問題至關重要,“指揮官在什么基礎上可以信任人工智能系統,從而使指揮官可以對這些系統的使用負責?”自動化偏見和數據衛生與問責制差距有關,因為當這些問題存在時,它們會破壞指揮官可能希望實施的有意義的人類控制措施。指揮官可以通過以下方式縮小問責差距:首先,確保人員受到適當的教育、技能和培訓,以整理相關數據;其次,確保指揮官允許的風險,準確地反映完成任務與保護友軍士兵和非戰斗人員之間的平衡需求。指揮官還可以通過在機器需要更多監督時向參與該過程的人類發出信號來減少自動化偏見的機會及其潛在影響。
作為一個專業人員,不僅僅意味著要提供服務,還要在出問題時承擔責任。專業人員還必須了解各種利益相關者,包括公眾和政府及私營部門實體,如何與本行業互動和競爭。鑒于這些技術的潛力,軍事專業人員必須首先學會在技術及其應用的發展中管理預期。由于這種演變影響到專業工作的特點,軍事專業人員還必須注意專業以外的人如何重視、獎勵和支持這項工作。因此,隨著美軍繼續將人工智能和數據技術整合到各種行動中,對其專業性的考驗將在于擁有專業知識的能力,以及建立能夠繼續發展、維護和認證這種專業知識的機構,這些機構既能滿足美國人民的國防需求,又能反映他們的價值觀。
在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。
在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。
本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。
軍事網絡戰的前景正在發生變化,這是因為數據生成和可訪問性的發展、持續的技術進步及其(公共)可用性、技術和人類(相互)聯系的增加,以及參與其規劃、執行和評估階段的專家活力、需求、不同性質、觀點和技能。這種行動每天都在進行,最近被人工智能賦予了更多能力,以達到或保護他們的目標,并處理產生的意外影響。然而,這些行動受到不同的不確定性水平制約和包圍,例如,預期效果的預測,有效替代方案的考慮,以及對可能的(戰略)未來新層面的理解。因此,應確保這些行動的合法性和道德性;特別是在攻擊性軍事網絡戰(OMCO)中,參與其設計/部署的智能體應考慮、開發和提出適當的(智能)措施/方法。這種機制可以通過像數字孿生這樣的新型系統,在硬件、軟件和通信數據以及專家知識的基礎上嵌入智能技術。雖然數字孿生在軍事、網絡和人工智能的學術研究和討論中處于起步階段,但它們已經開始在不同的行業應用中展示其建模和仿真潛力以及有效的實時決策支持。然而,本研究旨在(i)理解數字孿生在OMCO背景下的意義,同時嵌入可解釋人工智能和負責任人工智能的觀點,以及(ii)捕捉其發展的挑戰和益處。因此,通過對相關領域的廣泛審查,考慮采取多學科的立場,將其包裝在一個設計框架中,以協助參與其開發和部署的智能體。
盡管數字孿生被認為是在工業4.0的數字化轉型過程中引入的一項關鍵技術,但它們有二十年的歷史,甚至更早的基礎。其起源是Michael Grieves的鏡像空間模型,以及他與John Vickers在NASA宇航和航空航天領域項目中的進一步研究(Grieves & Vickers,2017),將數字孿生定義為 "物理產品的虛擬代表",融合了物理和虛擬世界的優勢,它包含三個組成部分:物理產品、物理產品的虛擬代表,以及從物理產品到虛擬代表的雙向數據連接,以及從虛擬代表到物理產品的信息和流程(Jones等人,2020)。
對數字孿生概念的理解有不同的角度和方式,其含義可以根據應用領域進行調整(Vielberth等人,2021)。考慮到與數字模型或數字影子等相關主題存在誤解和混淆,以及數字孿生不存在一致的定義(Hribernik等人,2021;Fuller等人,2020),為了確保其在攻擊性軍事網絡戰(OMCO)中的正確設計、開發和部署,采用了系統性觀點,并提出以下定義:
攻擊性軍事網絡戰(OMCO)中的數字孿生子 = 一個技術系統,在其現實環境中嵌入物理系統,及物理系統的網絡抽象、表示和鏡像,以及它們在OMCO中的相應數據和通信流。
這個定義的要素是:
換句話說,OMCO中的數字孿生是一個先進的(智能)系統,它嵌入了OMCO系統/實體的虛擬、物理以及數據和通信元素。鑒于此,在圖2中提出了以下對訓練、演習和實際行動有用的OMCO數字孿生架構,其中連續的箭頭描述了行動中目標階段之間的信息和結果交流,帶點的箭頭描述了集成部件和其他部件之間的信息和結果。該架構應該是模塊化和可配置的(Silvera等人,2020),并包含兩個組件:
數字孿生層,即三個數字孿生模塊和一個集成模塊或四個獨立的數字孿生模塊,其中集成DT與其他三個獨立的數字孿生模塊通信并獲取結果。
數字孿生層,即整個數字孿生或四個集成數字孿生的物理、數據和通信以及網絡組件。
此外,認識到系統將具有分析、預測或模擬功能,以支持不同的軍事網絡決策過程,軍事指揮官及其團隊有責任如何解釋和使用數字孿生所呈現的結果,因此,有必要從設計階段就將XAI和RAI方法嵌入其中。RAI必須尊重并納入社會道德規范和價值觀,XAI在整個過程中以及在呈現最終結果時,必須尊重軍事技術和社會法律道德要求、規范和價值觀(Arrieta等人,2009, 2020;Agarwal和Mishra,2021;Maathuis,2022a;Maathuis,2022b)。這些措施保證了負責任的OMCO發展和部署。
為了進行示范,OMCO的開發、部署和評估是在架構左側所示的階段進行的,其中集成DT的最終結果可以作為經驗教訓或對未來行動、網絡或其他行動的投入而進一步使用。例如,在設計和開發階段,選擇目標,確定其核心弱點,并進一步在智能網絡武器中建立一個漏洞,可以預測(非)預期效果的水平和概率,并對目標交戰進行負責任和可解釋的比例評估;此外,效果評估與定義的目標和依賴性有關。在這里,一個原型將通過定義和部署系統的多個實例來實現,這些實例將被匯總,同時考慮到要求以及與物理和網絡環境的相互作用(Grieves, M., & Vickers; Jones等人,2020)。
作為數字化轉型過程的一部分,并與若干數字和智能技術緊密相連,與其他類型的技術一樣,數字孿生帶來了挑戰和機遇。
挑戰:
考慮多利益相關者視角的標準化、管理和監管(Talkhestani等人,2019年;Singh等人,2021年;Flamigni等人,2021年):由于這些系統是在多利益相關者參與開發和部署的,在匹配所定義的目標和功能時應考慮適當的標準、管理和監管機制。
數據和算法(Jones等人,2020;Qian等人,2022;Song等人,2022):這類系統對數據敏感,依賴于相關的高保真表示和數據添加到正確構建和部署的人工智能模型中,例如,相關數據應該被收集、分析、使用,并在系統的各個層面和層次之間共享。
安全、安保、隱私和可靠性(Glaessgen & Stargel, 2012; Vielberth et al., 2021; Chockalingam & Maathuis, 2022)和可靠性問題:如果管理不當,并且通過其在數字孿生的設計階段就沒有整合到所有層面和層次,這些有可能通過改變系統的行為來打開意外和有意的網絡安全和安保事件的大門,產生大規模的影響。例如,這樣的行動可能無法區分軍事和民用目標,從而在民用方面產生大量的附帶損害,因此系統在行動中是不可靠的。
機遇:
認識和理解、決策支持和教育(Mendi, Erol & Dogan, 2021; Talkhestani et al., 2019):這些系統有利于理解系統的行為,支持具體的決策過程,并產生/增強不同的學習活動。例如,這些系統不僅可以對當前的行動產生情報,而且還可以通過對未來行動的評估產生情報。
建模和仿真,例如現場生命周期測試、監測、優化(Steinmetz等人,2018;Jones等人,2020;Hribernik等人,2021):通過其性質,數字孿生對不同的系統和過程進行建模和仿真,例如,允許鏡像和測試雙重用途目標的行動執行,以避免預期產生的意外影響;或允許使用不同的優化技術對智能網絡武器實施的路徑和行動進行現場監測。
可訪問性和成本降低(Barricelli, Casiraghi & Fogli, 2019;Jones等人,2020;Aheleroff等人,2021):通過其設計界面,此類系統可被用戶直接訪問,有利于普遍降低實施和部署的成本。