亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(或稱 AI)的應用正以各種方式影響著戰爭的性質和更廣泛的國際安全。在我們討論這些人工智能軍事應用的影響之前,先就如何思考它們的影響提出一些更具普遍性的想法:

通常情況下,人們會把人工智能這個詞賦予那些新穎的、能解決以往與人類智能相關問題的應用,賦予它神奇的光環。然而,當這種應用成為主流時,人工智能的標簽往往就會被摘掉。

在人類戰爭史上,影響戰爭方式的新技術層出不窮。從步槍到雷達,從刀劍到潛艇,從電報到戰斧:每一次新技術的出現都會激發烏托邦式的觀點,但當然也有烏托邦式的觀點,即特定的技術或武器系統將如何極大地影響戰爭的性質。我們的歷史證明了這一點:在萊特兄弟于 1903 年首飛之后,科幻小說家和軍事戰略家們紛紛宣稱空戰時代即將到來。最近,隨著網絡空間的出現,人們開始討論未來的戰爭是否會是網絡戰爭,觀察家們對網絡珍珠港的相關風險提出了警告。目前,學者、專業人士和普通人正在就人工智能對未來戰爭的影響展開激烈辯論,REAIM 會議當然也是一個證明。同樣,辯論也呈現出類似的模式,既有合理的擔憂,也有許多夸張的說法,還有未來戰爭將由機器而非人類自主發動的強大而可怕的畫面。

這次的不同之處在于,"一個人工智能系統 "并不存在。取而代之的是大量的算法應用,它們共同代表了一種萬能技術,一種在多個維度和整個 OODA 循環(軍事術語,即觀察-定向-決策-行動)中影響戰爭特征的萬能技術。這種技術既適用于戰場內外,也適用于戰爭與和平時期。

軍事史也表明,戰爭性質的真正變化往往是漸進的而不是點狀的,是進化的而不是革命的。變革不是通過某種新的銀彈或殺手級應用來實現的,而是通過軍事組織的艱苦工作來實現的,在這些工作中,軍事組織發展和完善作戰概念,將技術嵌入到新的作戰方式中,同時相應地調整組織結構。

有鑒于此,我們現在可以談談人工智能如何改變戰爭性質的問題。一些觀察家對變化的程度感到失望。他們將充滿機器人士兵的烏托邦式軍營與當前俄烏戰爭中充滿人類尸體的血腥戰壕這一同樣烏托邦式的現實相比較,發現戰爭仍然是 "To ánthrōpos,或者說是 "人類的事情"--這是有充分理由的。

盡管至少在可預見的未來,戰爭仍將是人類的事情,但很明顯,ANI(人工狹義智能)的突破與計算能力的爆炸性增長相結合,已經產生了大量的算法應用,國防組織在發動戰爭時可以加以利用。女士們、先生們,這并不是遙遠未來的某種烏托邦式現實,而是此時此地正在發生的算法戰爭現實的一部分。因此,人工智能應用正以各種方式影響著戰爭的性質,(目前)還不是通過人形終結者營,而是通過在整個 OODA 循環中將人工智能集成到現有應用中。

在戰場上,這已經產生了重大變化,通過更好的態勢感知和理解,以及通過所謂的 "戰斗云 "中壓縮殺傷鏈的分散式指揮網絡縮短決策周期,提高了武裝部隊的戰場效率。

沖突的加速為沿著 OODA 循環進一步整合算法提供了戰略依據,并標志著半人馬團隊的出現,人類仍處于循環中,但與人工智能應用近乎無縫整合。對 Sigint 的算法分析還提高了戰場透明度--無處可藏!- 并要求武裝部隊在有爭議和混亂的環境中開展分散行動。算法還用于無人駕駛飛機的導航和目標捕獲,包括進攻性的(通過閑逛彈藥)和防御性的(綜合防空和導彈防御)。

然而,算法的應用并不局限于戰場,它對核穩定也有相當大的影響。首先,徹底透明化將以各種方式改變核威懾的基本原則。例如,發射系統位置的曝光以及運載工具更高的精確度和機動性將影響威懾動態,并可能引發新的第一次和第二次打擊的不穩定性。此外,與技術變革相關的不確定性正促使人們擴大核武庫,并采用更靈活的核指揮與控制態勢--這些發展目前已在發揮作用。

算法也在開辟新的領域,沖突各方試圖在其中施加影響,包括通過我的同事弗蘭克-霍夫曼(Frank Hoffman)所說的 "認知戰爭"。現在有了經過實戰檢驗的劇本、現成的腳本,還有類似劍橋分析的服務可供雇傭。同樣,這不僅會影響戰爭的戰術層面,也會影響戰爭的戰略層面。想象一下,普京宣布發射核武器的 Deep Fake 會給戰略穩定帶來怎樣的影響,即使管理得當,也會造成怎樣的社會動蕩。重要的是要注意到,我們僅僅處于信息時代的黎明:5G、AR(增強現實)和 VR(虛擬現實)的出現以及 Metaverse 的出現將為沖突參與者帶來大量制造混亂的新機會。

總之,人工智能對戰爭性質和國際穩定的影響已經到來,它是真實存在的,并有望在未來幾年逐步實現。

這催化了倫理和法律領域的變革,并對如何限制和規范此類技術的生產、擴散和使用提出了多層次的重要挑戰。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

在過去的75年里,蘭德公司進行了支持美國國家安全的研究,目前為聯邦政府管理著四個聯邦資助的研究和發展中心(FFRDCs):一個為國土安全部(DHS),三個為國防部(DoD)。本文將重點評論國防部如何能夠最好地確保人工智能(AI)的進展有利于美國國家安全,而不是降低它。

在一系列廣泛的技術中,人工智能因其進展速度和應用范圍而脫穎而出。人工智能具有廣泛改變整個行業的潛力,包括對我們未來經濟競爭力和國家安全至關重要的行業。由于幾個原因,將人工智能納入我們的國家安全計劃帶來了特殊的挑戰:

  • 這些技術是由商業實體驅動的,而這些商業實體經常在國家安全框架之外。

  • 這些技術正在迅速發展,通常超過了政府內部的政策和組織改革。

  • 對這些技術的評估需要集中在私營部門的專業知識,而這些專業知識很少被用于國家安全。

  • 這些技術缺乏區分良性和惡意使用的常規情報特征。

美國目前是全球人工智能的領導者;然而,這種情況可能會改變,因為中國尋求在2030年前成為世界主要的人工智能創新中心--這是中國人工智能國家戰略的明確目標。此外,中國和俄羅斯都在追求軍事化的人工智能技術,加劇了挑戰。作為回應,將強調美國防部可以采取的四組行動:

1.確保美國防部的網絡安全戰略和網絡紅方活動跟蹤可能影響網絡防御和網絡進攻的人工智能的發展,如網絡武器的自動開發。

2.為防止不良行為者獲得先進的人工智能系統,(1)確保對領先的人工智能芯片和芯片制造設備進行強有力的出口控制,同時許可芯片的良性使用,如果需要的話,可以進行遠程節流;(2)利用國防生產法的授權,要求公司報告大型人工智能計算集群、訓練運行和訓練模型的開發或分發情況;(3) 在美國防部與云計算供應商簽訂的合同中,要求他們在訓練大型人工智能模型之前對所有客戶進行 "了解你的客戶 "篩選;(4) 在美國防部與人工智能開發商簽訂的合同中包括 "了解你的客戶 "篩選,以及強大的網絡安全要求,以防止大型人工智能模型被盜。

3.與情報界合作,大幅擴大收集和分析敵國參與人工智能的關鍵外國公共和私營部門行為者的信息,包括評估關鍵外國公共和私營實體;他們的基礎設施、投資和能力;以及他們的工具、材料和人才供應鏈。通過以下方式加強國防部開展此類活動的機構能力:(1)在美國和盟國政府機構、學術實驗室和工業公司之間建立新的伙伴關系和信息共享協議;(2)招募私營部門的人工智能專家以短期或兼職的方式為政府服務。

4.投資于人工智能安全的潛在計劃,包括(1)嵌入人工智能芯片的微電子控制,以防止開發沒有安全保障的大型人工智能模型,以及(2)在部署人工智能系統之前評估其安全性的通用方法。

付費5元查看完整內容

在軍隊越來越多地使用基于機器學習(ML)的技術的背景下,我們的文章呼吁對ML平臺進行分析,以了解ML如何在軍隊中擴散以及產生什么影響。我們采用了新媒體研究中關于平臺的物質技術視角,并將這一文獻帶到了批判性安全研究中,我們認為需要關注平臺和它們所做的技術工作,以了解數字技術是如何出現和塑造安全實踐的。通過對谷歌開源ML平臺TensorFlow的詳細研究,以及對美國國防部算法戰爭跨職能團隊,即Project Maven的討論,我們做出了兩個更廣泛的貢獻。首先,我們確定了軍隊更廣泛的 "平臺化",我們指的是(技術材料)ML平臺的日益參與和滲透,它是使整個軍隊的分散和實驗性算法開發的新做法得以實現的基礎設施。其次,我們得出這種平臺化是如何伴隨著軍隊和企業領域的行為者之間的新的糾葛,特別是在這種情況下發揮關鍵作用的大科技公司,以及圍繞這些平臺組織的開源社區。

在軍隊越來越多地使用機器學習(ML)技術的背景下,我們的論文使用ML平臺的分析視角來理解ML是如何在軍隊中擴散的,并產生了什么影響。我們采用了新媒體研究中發展起來的關于平臺的物質/技術視角,將這一文獻與批判性安全研究結合起來,并認為關注平臺和它們所做的技術工作對于理解數字技術如何出現和塑造安全實踐是必要的。我們借鑒了對谷歌開源ML平臺TensorFlow的詳細研究,以及對美國國防部多功能算法戰爭團隊,即Project Maven的討論,并做出了兩個更廣泛的貢獻。我們首先確定了軍隊更廣泛的 "平臺化",我們指的是ML "硬件技術 "平臺的日益參與和滲透,作為軍隊中實驗性和分散性算法開發的新實踐的基礎設施。然后,我們繼續說明這種平臺化是如何伴隨著軍隊和企業行為者之間的新的糾葛,特別是GAFAMs,它們在這種情況下發揮著關鍵作用,而且圍繞這些平臺組織的開源社區也是如此。

在武裝部隊越來越多地使用自動學習技術(機器學習,ML)的背景下,在我們的文章中,我們描述了關于ML平臺的一個分析視角,目的是理解ML在武裝部隊中的發展以及其影響。采用一種關于平臺的物質和技術觀點,就像在關于新的通信媒體的研究中所開發的那樣,并在安全問題的研究中提及這一信息、 我們認為,有必要集中研究平臺和技術工作,以了解數字技術的發展和安全實踐的結構。通過對谷歌開放的ML平臺TensorFlow的詳細研究,以及美國國防部的交互式戰斗機設備的辯論,美國國防部的Proyectamento de Defensa,即美國國防部。美國的Proyecto Maven,實現了兩個更廣泛的貢獻。首先,我們確定了一個更廣泛的武裝部隊 "平臺",其中我們指的是ML平臺(技術/材料)的不斷參與和滲透,作為一種基礎設施,允許在武裝部隊中進行新的分散的算法開發和實驗實踐。第二,我們注意到這一平臺正伴隨著武裝部隊和公司統治者之間的新沖突,特別是那些在這一背景下發揮重要作用的大型科技公司,以及在這一平臺上組織起來的無國籍社區。

付費5元查看完整內容

圖4. 人工智能對目標定位的增強:人工智能可以通過搜索目標并在發現后發出警報來增強動態目標定位周期。

開發和使用新的軍事技術是一個軍事專業人員工作的一部分。事實上,軍事歷史在很大程度上是一個技術革新的故事,士兵需要學習如何操作新系統。因此,關于整合人工智能的很多東西并不新鮮。就像坦克、飛機甚至弩一樣,隨著時間的推移,士兵們學會了使用和運用技術,工業界學會了以足夠的數量和質量生產技術,高級領導人學會了運用技術來實現戰略效果。如前所述,人工智能技術與它們的顛覆性“前輩”之間的區別在于,前者有能力改善廣泛的軍事武器、系統和應用。由于這種潛在的普遍性,幾乎所有的士兵都必須在某種程度上變得熟練,才能有效地和道德地運用AI技術。隨著這項技術在應用上的擴展,戰爭將像管理暴力一樣管理數據。

這種普遍性也提出了關于人類發展和人才管理的問題。盡管培訓計劃最終會培養出更多的知識型士兵,人事系統也會提高管理士兵的能力,但軍警人員能夠獲得知識和技能的限制仍然存在,特別是在作戰層面。盡管討論的目的不是要建立嚴格的指導方針,但討論確定了士兵需要獲得的許多知識。例如,士兵將需要知道如何策劃和培訓數據庫,而該數據庫對他們正在執行的任務有著重要作用。這樣做需要確保數據的準確、完整、一致和及時。使用這些數據需要熟練應用推薦模型卡中描述的條件,而熟練的操作有助于確保算法以有效和道德的方式執行。

當然,信任不能僅靠政策和程序來保證。指揮官、參謀員和操作員需要知道他們被信任做什么,以及他們信任系統做什么。指揮官、參謀員和操作員信任人工智能系統來識別合法目標,并避免識別非法目標。參與這一過程的人必須在使用這些信息時,既需要擊敗敵人,又必須避免友軍和非戰斗人員的傷亡。要找到這種平衡,就需要判斷人應該承擔多大的風險。

只要參與流程的人類能夠與系統進行有效的互動,由人工智能賦能的系統就能促進找到這種平衡。在將人類控制整合到機器流程中時,人們經常被迫在控制和速度之間做出選擇:強加的人類控制越多,系統的運行速度就越慢。但本研究發現這種兩難的局面是錯誤的。盡管在某些情況下,在人的控制和速度之間進行平衡可能是必要的,但如果系統要最佳地運作,人的輸入是必要的。

實現最佳性能首先要求指揮官確保參謀和操作人員了解模型能力,理解數據質量的重要性,以及洞悉模型在作戰環境中的表現。盡管它可能不會使系統更加精確或準確,但實現這些任務可使系統能夠更好地對輸出進行概率分配。第二,指揮官需要確定對任務、友軍戰斗人員和敵方非戰斗人員的風險有多大才合適。這一決定很復雜,其中關鍵任務可能是需要容忍更多的友軍和非戰斗人員傷亡。同樣,如果非戰斗人員的密度較低,即使任務不那么緊急,也可以容忍較高的風險。尋找這種平衡將是人類的工作。

但在前面描述的模糊邏輯控制器的幫助下,指揮官可以更好地確定什么時候可以信任一個人工智能系統在沒有人類監督的情況下執行一些目標定位步驟。此外,可以通過構建交互的邏輯,以找到多種不同的人機互動配置,確保系統的最佳使用,同時避免不必要的傷害。在LSCO期間,讓指揮官在需要時選擇智能和負責任地加快目標定位過程將是至關重要的,本報告中提出的設計實現了這一目標。這一成就在未來尤其重要,因為為了保護部隊并實現任務目標,指揮官將面臨大量時間敏感目標,及面臨承擔更多風險的操作條件。

在培養具有正確技能的足夠數量士兵以充分利用人工智能技術方面,仍有大量的工作。目前的人才管理計劃尚未達到管理這一挑戰的要求,盡管多個有前途的計劃準備最終滿足需求。然而,在大多數情況下,這些計劃都是為了滿足機構層面的要求,在機構層面上做出全軍采買人工智能和相關技術的決策。但是,這些技能將如何滲透到作戰陸軍,尚不清楚。

盡管人工智能在目標定位中的使用并不違反當前的戰爭法,但它確實引起了一些道德倫理問題。在所討論的目標定位系統背景下,這些倫理問題中最主要的是問責制差距和自動化偏見。第一個問題對于回答核心問題至關重要,“指揮官在什么基礎上可以信任人工智能系統,從而使指揮官可以對這些系統的使用負責?”自動化偏見和數據衛生與問責制差距有關,因為當這些問題存在時,它們會破壞指揮官可能希望實施的有意義的人類控制措施。指揮官可以通過以下方式縮小問責差距:首先,確保人員受到適當的教育、技能和培訓,以整理相關數據;其次,確保指揮官允許的風險,準確地反映完成任務與保護友軍士兵和非戰斗人員之間的平衡需求。指揮官還可以通過在機器需要更多監督時向參與該過程的人類發出信號來減少自動化偏見的機會及其潛在影響。

作為一個專業人員,不僅僅意味著要提供服務,還要在出問題時承擔責任。專業人員還必須了解各種利益相關者,包括公眾和政府及私營部門實體,如何與本行業互動和競爭。鑒于這些技術的潛力,軍事專業人員必須首先學會在技術及其應用的發展中管理預期。由于這種演變影響到專業工作的特點,軍事專業人員還必須注意專業以外的人如何重視、獎勵和支持這項工作。因此,隨著美軍繼續將人工智能和數據技術整合到各種行動中,對其專業性的考驗將在于擁有專業知識的能力,以及建立能夠繼續發展、維護和認證這種專業知識的機構,這些機構既能滿足美國人民的國防需求,又能反映他們的價值觀。

付費5元查看完整內容

近幾十年來,國防系統的規劃已經演變成基于能力的規劃(CBP)過程。本文試圖回答兩個問題:首先,如何表達一個復雜的、真實世界的能力需求;其次,如何評估一個具有交互元素的系統是否滿足這一需求。我們建議用一套一致的模型以可追蹤的方式來表達能力需求和滿足該需求的解決方案。這些模型將目前的能力模型,具體到規劃級別和能力觀點,與系統思維方法相結合。我們的概念模型定義了環境中的防御系統,數據模型定義并組織了CBP術語,類圖定義了CBP規劃元素。通過給出一個能力參數化的例子來說明這個方法,并將其與DODAF能力觀點和通用CBP過程進行比較。我們的數據模型描述了能力在行動中是如何退化的,并將該方法擴展到能力動態。定量能力定義的目的是支持解決現實世界中相互作用的子系統,這些子系統共同實現所需的能力。

能力規劃問題的定義

在本節中,能力被定義為執行任務的效果或功能并作為系統時,我們討論CBP;在1.2小節中進一步討論Anteroinen的分類中的第三和第五類。為了專注于軍事系統或軍事單位的結構定義和未來的數學建模,只考慮系統的物理組成部分,即人員和物資,以及他們與能力的關系。環境的影響--天氣條件、地形、周圍的基礎設施和其他軍事單位--被省略,以關注兩種力量之間的相互作用;盡管在實踐中,環境和其他更廣泛的系統問題顯然是相關的。通常情況下,CBP過程定義了環境的相關方面和軍事行動的類型,為能力需求定義、能力評估和解決方案選擇制定了可能的規劃情況集合。

一個軍事單位或一個組織由其人員和物資組成。經過組織和訓練的人員配備了適當的物資,代表、擁有或產生能力。當兩個軍事單位相互作戰時,他們會啟動自己的能力,以造成敵人的物資和人員的退化。為了定義能力需求并計劃如何作為軍事單位或系統來實施,需要解決的問題是:在與敵人的互動過程中,能力將如何演變,而敵人的能力卻鮮為人知?圖1說明了在敵人能力的作用下,自己的軍事作戰和維持能力的動態互動。我們的能力削弱了敵方的人員和物資,對敵方的能力產生了影響;而敵方的能力削弱了我們的人員和物資,對我們的能力產生了影響。外部資源,也就是供應和維持能力,維持著被削弱的人員和物資。如因果循環圖所示,敵方的能力可以與我方的能力對稱地表示。第3節的進一步建模集中在我們自己的能力上,由圖1中的虛線表示,以便更純粹地表示。

對我們自己的能力的定義說明,由人員和物資提供,表明了復雜的結構和與能力有關的功能和元素之間的相互作用。此外,真正的軍事單位,通常由較小的編隊組成,有幾種能力,由大量不同的物資和人員組成,并與環境互動。

現有的能力模型

  • 軍事能力是外交政策的工具
  • 作為軍事單位戰斗力的能力
  • 作為執行任務效果和功能的能力
  • 作為武器系統或平臺的能力
  • 作為系統的能力

軍事背景下能力規劃的概念模型架構描述

架構被定義為 "一個系統在其環境中的基本概念或屬性,體現在其元素、關系以及設計和進化的原則中"。因此,架構描述是一種表達架構的工作產品。架構框架是在一些應用領域或社區應用架構描述的基礎。架構框架為網絡系統的復雜性管理提供了結構化的方法,使利益相關者之間能夠進行溝通,并支持未來和現有系統的系統分析和設計。企業架構的Zachman框架是這類通用框架的一個例子。DoDAF、MODAF和NAF是用于國防系統分析和定義的架構框架,特別是用于指揮、控制、通信、計算機、情報、監視和偵察系統(C4ISR)。這些架構框架由觀點組成,定義了代表特定系統關注點的一組架構視圖的規則。架構視圖由一個或多個模型組成。架構框架基礎的元模型定義了不同視點中元素之間的關系。DoDAF元模型DM2有一個概念數據模型圖(DIV-1),用來向管理者和執行者傳達架構描述的高層數據構造的概念。MODAF元模型詳細定義了每個架構視圖的數據模型。

利益相關者需要適當的支持,以促進他們彼此之間以及與規劃專家團體的溝通,從而從CBP方法中獲益。軍事專家的作用不是參與復雜的工具和方法,而是為規劃過程提供重要的領域專業知識。架構框架是一個很好的工具,可以定義當前的防御系統,確定能力需求,并描述系統解決方案。不幸的是,架構框架和相關元模型的精確但復雜的機制與復雜的符號并不一定能以明顯的方式解釋能力觀點和要素之間的關系。因此,架構觀點和典型的CBP流程并沒有明顯的聯系。因此,參與能力規劃的軍事專家和決策者很少能夠加深理解,或者在沒有專門掌握這些工具和方法的人員的情況下,通過應用架構框架確定解決方案。需要對能力進行更簡單的定義,與流程兼容。

能力模型框架

圖2提出了一個高層次的數據模型,它代表了能力定義問題的抽象。數據模型描述了能力模型類型及其關系,作為能力和防御系統建模的框架。符號的選擇是為了保持信息量,但對更多的人來說是可讀的,因此它不遵循任何特定的方法,但與SODA的認知圖譜有一些共同點。

能力的現實世界實例在圖的左邊,而概念模型類型在右邊。該模型的第一個版本已經被Koivisto和Tuukkanen應用于一個基于研發的自下而上的過程和概念性的未來系統,即認知無線電。原始模型描述,系統模型定義了物資、戰斗力和功能能力。實際上,這是一種雙向的關系:在所需能力和所需資源的驅動下建立系統模型,然后用系統模型來預測特定環境和實例中的結果。

防御系統和能力——上下文模型

防御系統由系統、系統要素及其相互作用組成,其突發屬性由系統、系統要素和它們的相互作用界定。圖3中的模型代表了系統層次結構中的防御系統層次。防御系統可以被看作是SoS,但我們應用一般的系統術語來保持模型的可擴展性,并為防御系統層次結構的較低層次提供合適的術語。在國防系統層次結構的任何一級,系統代表一個由系統元素組成的軍事單位:人員和物資。

圖3 國防系統在其背景下的概念系統模型。防御系統,即利益系統(SOI),被環境和其他行為者的系統所包圍。這些系統包括相互作用的系統要素人員(P)和物資(M)。子系統和系統元素之間的聯系是示范性的。

能力模型類型和術語——高級數據模型

除了系統元素和它們的組織之外,還要定義功能和相應的輸出,以獲得更全面的系統定義。我們將能力定義為執行任務的效果或功能,是一種功能能力。在CBP過程中,功能能力定義了一些當前或計劃中的軍事單位或由物資和人員組成的系統的能力潛力。最終,能力發展過程必須以現實世界的軍事單位來定義系統的實施。力量要素的概念定義了最終的系統結構,也就是要生產的現實世界的軍事單位的組織。在我們的數據模型中,功能能力被安排在SOI內部,以代表系統的涌現屬性。當這種潛力或涌現被計劃為引起某種效果時,系統,具體來說是其功能能力,在計劃過程中被分配到一個任務中。此外,當軍事單位執行任務時,效果就會產生。高層數據模型的作用,如圖4,是將關鍵的術語及其關系可視化。

圖 4 基于能力的規劃中術語及其關系的高級數據模型表示

基于能力的規劃元素——UML類圖

圖5中的類圖將圖3所示的概念系統模型中確定的國防系統規劃要素與圖4中的能力模型類型結合起來。由于我們關注的是國防系統,國家權力和軍事力量的要素被認為是其環境的一部分,不在圖中。然而,我們建議,國家權力也可以通過效應來表示。

圖 5 基于能力的規劃元素的統一建模語言 (UML) 類圖表示

付費5元查看完整內容

在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。

在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。

本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。

付費5元查看完整內容

近年來,機器學習的巨大進步已經開始對科學技術的許多領域產生重大影響。在本篇透視文章中,我們探討了量子技術是如何從這場革命中受益的。我們通過說明性的例子展示了科學家們在過去幾年是如何開始使用機器學習和更廣泛的人工智能方法來分析量子測量,估計量子設備的參數,發現新的量子實驗設置、協議和反饋策略,并普遍改善量子計算、量子通信和量子模擬的各個方面。我們強調了開放的挑戰和未來的可能性,并以對未來十年的一些推測性愿景作為結束。

圖1. 機器學習和人工智能可以幫助更好地解決的量子技術領域的任務概述。

機器學習在量子技術中的應用

  • 測量數據分析和量子態表示

圖3. 通過神經網絡進行狀態估計。(a) 對一個量子態的許多相同副本的測量可以被處理以產生一個量子態的估計。(b)對單個量子系統的連續弱測量可以用來更新估計的狀態。在(a)和(b)中,一個單一的網絡被訓練來正確估計任意的狀態。(c) 我們也可以訓練一個基于網絡的生成模型來重現一個量子狀態的統計數據,即從概率分布中取樣。訓練需要許多可以測量的相同的副本,因此可以學習統計學。這里一個網絡只代表一個量子態。它可以被擴展到處理任意基數的測量。

  • 參數估計:學習量子系統的性質

圖4. 機器學習用于量子設備的參數估計。(a) 一個典型的場景,測量結果的統計取決于一些可調整的測量設置和未知參數,這里表示為馬赫-澤恩德設置中的相移。(b) 一個自適應的測量策略可以用一棵樹來說明,每一層的分支都對應著不同的測量結果。根據這些結果,需要選擇一個特定的下一個測量設置(表示為 "αj")。尋找最佳策略是一項具有挑戰性的任務,因為它相當于搜索所有這樣的樹的空間。 (c) 神經生成模型可用于隨機抽查與先前測量結果兼容的未來可能的測量結果(這里是二維電流-電壓圖,如[68])。這對于選擇最佳的下一個測量位置是有幫助的。潛伏空間中不同的隨機位置會產生不同的樣本。(d) 五個可能的基本參數值的測量結果與測量設置(不同的曲線;測量不確定性通過厚度表示)。我們的目標是使信息增益最大化,即選擇最能確定參數的設置(這不等同于使結果的不確定性最大化)。

  • 發現硬件級量子控制的策略

圖5. (a) 無模型強化學習的最終目標是直接應用于實驗,然后可以將其作為一個黑盒。然而,許多實際的實現是使用無模型的RL技術應用于基于模型的模擬。(b) 基于模型的強化學習直接利用了模型的可用性,例如,通過可微調的動力學取梯度。

  • 發現量子實驗、協議和電路

圖6. 量子實驗的發現。量子光學實驗可以用彩色的圖來表示。使用最一般的、完整的圖作為起始表示,人工智能的目標是提取解決方案的概念核心,然后可以被人類科學家理解。然后,該解決方案可以轉化為眾多不同的實驗配置[113]。

圖7. 用離散門發現量子電路和反饋策略。(a) 強化學習智能體通過選擇門來作用于多量子比特系統,可能以測量結果為條件,找到一個優化的量子電路或量子反饋策略。(b) 一個固定布局的量子電路,其參數可以通過梯度上升進行優化,以實現一些目標,如狀態準備或變異基態搜索(可能包括反饋)。

  • 量子糾錯

圖8. 量子糾錯。綜合癥在表面代碼中解釋為神經網絡可以被訓練來執行的任務。

付費5元查看完整內容

軍事網絡戰的前景正在發生變化,這是因為數據生成和可訪問性的發展、持續的技術進步及其(公共)可用性、技術和人類(相互)聯系的增加,以及參與其規劃、執行和評估階段的專家活力、需求、不同性質、觀點和技能。這種行動每天都在進行,最近被人工智能賦予了更多能力,以達到或保護他們的目標,并處理產生的意外影響。然而,這些行動受到不同的不確定性水平制約和包圍,例如,預期效果的預測,有效替代方案的考慮,以及對可能的(戰略)未來新層面的理解。因此,應確保這些行動的合法性和道德性;特別是在攻擊性軍事網絡戰(OMCO)中,參與其設計/部署的智能體應考慮、開發和提出適當的(智能)措施/方法。這種機制可以通過像數字孿生這樣的新型系統,在硬件、軟件和通信數據以及專家知識的基礎上嵌入智能技術。雖然數字孿生在軍事、網絡和人工智能的學術研究和討論中處于起步階段,但它們已經開始在不同的行業應用中展示其建模和仿真潛力以及有效的實時決策支持。然而,本研究旨在(i)理解數字孿生在OMCO背景下的意義,同時嵌入可解釋人工智能和負責任人工智能的觀點,以及(ii)捕捉其發展的挑戰和益處。因此,通過對相關領域的廣泛審查,考慮采取多學科的立場,將其包裝在一個設計框架中,以協助參與其開發和部署的智能體。

在攻擊性軍事網絡戰中定義數字孿生

盡管數字孿生被認為是在工業4.0的數字化轉型過程中引入的一項關鍵技術,但它們有二十年的歷史,甚至更早的基礎。其起源是Michael Grieves的鏡像空間模型,以及他與John Vickers在NASA宇航和航空航天領域項目中的進一步研究(Grieves & Vickers,2017),將數字孿生定義為 "物理產品的虛擬代表",融合了物理和虛擬世界的優勢,它包含三個組成部分:物理產品、物理產品的虛擬代表,以及從物理產品到虛擬代表的雙向數據連接,以及從虛擬代表到物理產品的信息和流程(Jones等人,2020)。

對數字孿生概念的理解有不同的角度和方式,其含義可以根據應用領域進行調整(Vielberth等人,2021)。考慮到與數字模型或數字影子等相關主題存在誤解和混淆,以及數字孿生不存在一致的定義(Hribernik等人,2021;Fuller等人,2020),為了確保其在攻擊性軍事網絡戰(OMCO)中的正確設計、開發和部署,采用了系統性觀點,并提出以下定義:

攻擊性軍事網絡戰(OMCO)中的數字孿生子 = 一個技術系統,在其現實環境中嵌入物理系統,及物理系統的網絡抽象、表示和鏡像,以及它們在OMCO中的相應數據和通信流

這個定義的要素是:

  • 技術系統:包含其物理、網絡以及數據和通信元素的整個實體。
  • 網絡抽象化、表示和鏡像:系統的網絡/虛擬/數字組件。
  • 物理系統:系統的物理元素包含和虛擬化。
  • 數據和通信流:網絡和物理組件之間傳輸的數據,以及它們相應的通信基礎設施。

換句話說,OMCO中的數字孿生是一個先進的(智能)系統,它嵌入了OMCO系統/實體的虛擬、物理以及數據和通信元素。鑒于此,在圖2中提出了以下對訓練、演習和實際行動有用的OMCO數字孿生架構,其中連續的箭頭描述了行動中目標階段之間的信息和結果交流,帶點的箭頭描述了集成部件和其他部件之間的信息和結果。該架構應該是模塊化和可配置的(Silvera等人,2020),并包含兩個組件:

  • 數字孿生層,即三個數字孿生模塊和一個集成模塊或四個獨立的數字孿生模塊,其中集成DT與其他三個獨立的數字孿生模塊通信并獲取結果。

  • 數字孿生層,即整個數字孿生或四個集成數字孿生的物理、數據和通信以及網絡組件。

此外,認識到系統將具有分析、預測或模擬功能,以支持不同的軍事網絡決策過程,軍事指揮官及其團隊有責任如何解釋和使用數字孿生所呈現的結果,因此,有必要從設計階段就將XAI和RAI方法嵌入其中。RAI必須尊重并納入社會道德規范和價值觀,XAI在整個過程中以及在呈現最終結果時,必須尊重軍事技術和社會法律道德要求、規范和價值觀(Arrieta等人,2009, 2020;Agarwal和Mishra,2021;Maathuis,2022a;Maathuis,2022b)。這些措施保證了負責任的OMCO發展和部署。

為了進行示范,OMCO的開發、部署和評估是在架構左側所示的階段進行的,其中集成DT的最終結果可以作為經驗教訓或對未來行動、網絡或其他行動的投入而進一步使用。例如,在設計和開發階段,選擇目標,確定其核心弱點,并進一步在智能網絡武器中建立一個漏洞,可以預測(非)預期效果的水平和概率,并對目標交戰進行負責任和可解釋的比例評估;此外,效果評估與定義的目標和依賴性有關。在這里,一個原型將通過定義和部署系統的多個實例來實現,這些實例將被匯總,同時考慮到要求以及與物理和網絡環境的相互作用(Grieves, M., & Vickers; Jones等人,2020)。

在攻擊性軍事網絡戰中建立數字孿生時面臨的挑戰和機遇

作為數字化轉型過程的一部分,并與若干數字和智能技術緊密相連,與其他類型的技術一樣,數字孿生帶來了挑戰和機遇。

挑戰

  • 考慮多利益相關者視角的標準化、管理和監管(Talkhestani等人,2019年;Singh等人,2021年;Flamigni等人,2021年):由于這些系統是在多利益相關者參與開發和部署的,在匹配所定義的目標和功能時應考慮適當的標準、管理和監管機制。

  • 數據和算法(Jones等人,2020;Qian等人,2022;Song等人,2022):這類系統對數據敏感,依賴于相關的高保真表示和數據添加到正確構建和部署的人工智能模型中,例如,相關數據應該被收集、分析、使用,并在系統的各個層面和層次之間共享。

  • 安全、安保、隱私和可靠性(Glaessgen & Stargel, 2012; Vielberth et al., 2021; Chockalingam & Maathuis, 2022)和可靠性問題:如果管理不當,并且通過其在數字孿生的設計階段就沒有整合到所有層面和層次,這些有可能通過改變系統的行為來打開意外和有意的網絡安全和安保事件的大門,產生大規模的影響。例如,這樣的行動可能無法區分軍事和民用目標,從而在民用方面產生大量的附帶損害,因此系統在行動中是不可靠的。

機遇

  • 認識和理解、決策支持和教育(Mendi, Erol & Dogan, 2021; Talkhestani et al., 2019):這些系統有利于理解系統的行為,支持具體的決策過程,并產生/增強不同的學習活動。例如,這些系統不僅可以對當前的行動產生情報,而且還可以通過對未來行動的評估產生情報。

  • 建模和仿真,例如現場生命周期測試、監測、優化(Steinmetz等人,2018;Jones等人,2020;Hribernik等人,2021):通過其性質,數字孿生對不同的系統和過程進行建模和仿真,例如,允許鏡像和測試雙重用途目標的行動執行,以避免預期產生的意外影響;或允許使用不同的優化技術對智能網絡武器實施的路徑和行動進行現場監測。

  • 可訪問性和成本降低(Barricelli, Casiraghi & Fogli, 2019;Jones等人,2020;Aheleroff等人,2021):通過其設計界面,此類系統可被用戶直接訪問,有利于普遍降低實施和部署的成本。

付費5元查看完整內容

受自然界中蜂群的啟發,蜂群機器人技術已被開發出來,用于執行各種具有挑戰性的任務,如環境監測、災難恢復、物流,甚至軍事行動。盡管蜂群對社會有重大的潛在影響,但對針對蜂群機器人技術的對抗性情景的關注相對較少。

在本文中,我們探索了一種系統化的方法,以找到對手可以利用的蜂群機器人算法的邏輯缺陷。具體來說,我們為蜂群算法開發了一個自動測試系統,蜂群缺陷探測器(SWARMFLAWFINDER)。我們確定并克服了在理解和推理蜂群算法執行方面的各種挑戰。特別是,我們提出了一個新的機器人行為抽象,我們稱之為因果貢獻度(DCC),基于反事實的因果關系的想法。然后,我們建立了一個名為SWARMFLAWFINDER的反饋指導的灰盒模糊測試系統,利用DCC作為反饋指標。我們用四個進行導航、搜索和救援任務的蜂群算法來評估SWARMFLAWFINDER。SWARMFLAWFINDER在蜂群算法中發現了42個邏輯缺陷(并且所有這些缺陷都得到了開發者的承認)。我們對這些缺陷的分析表明,蜂群算法存在關鍵的邏輯錯誤/漏洞,或者存在不完整的實現,可以被對手利用。

付費5元查看完整內容

許多軍事人工智能的研究和開發資金是針對短期內可以實現的戰術級系統的改進。在這里,人工智能(AI)的潛在好處往往受到感官輸入質量和機器解釋能力的限制。然而,為了充分理解人工智能在戰爭中的影響,有必要設想它在未來戰場上的應用,傳感器和輸入被優化為機器解釋。我們還必須嘗試理解人工智能在質量上和數量上與我們的有什么不同。本文介紹了綜合作戰規劃過程中自動化和機器自主決策的潛力。它認為,人工智能最重要的潛力可能是在戰役和戰略層面,而不是戰術層面。然后探討了更多機器參與高級軍事決策的影響,強調了其潛力和一些風險。人工智能在這些情況下的應用發展應該被描述為一場我們輸不起的軍備競賽,但我們必須以最大的謹慎來進行。

1 引言

目前,人工智能(AI)的民用發展大大超過了其在軍事方面的應用。盡管知道網絡將是一個重要的未來領域,但國防部門還沒有習慣于數字-物理混合世界,因此,國防部門與新的社會技術的顛覆性變化相對隔絕。在軍事上運用人工智能的努力往往集中在戰術應用上。然而,人工智能在這些領域的好處受到輸入傳感器的限制,它們被用來復制人類的行為,并在需要與物理環境互動的角色中使用。在作戰和戰略層面上,軍事總部的特點是信息的流入和流出。如今,這些產品無一例外都是完全數字化的。考慮到作戰計劃的過程,可以看出,即使在目前的技術水平下,其中有很大一部分可以可行地實現自動化。這種自動化的大部分并不構成可能被理解的最純粹意義上的人工智能,即 "擁有足夠的通用智能來全面替代人類的機器智力"。然而,軟件可以在特定任務中勝過人類的事實,再加上高級軍事決策過程被細分為此類特定任務的事實,使其成為比較人類和機器決策的優點、限制和能力的有用工具。這樣做,人類的能力似乎有可能被輕易取代。因此,追求軍事決策自動化的動機肯定是存在的。本文討論了部分自動化軍事決策的潛力和實用性,并想象了為這些目的無限制地發展人工智能可能帶來的一些風險和影響。

付費5元查看完整內容

人工智能(AI)正迅速融入軍事指揮與控制(C2)系統,成為許多國防部隊的戰略重點。人工智能的成功實施有希望預示著通過自動化實現C2靈活性的重大飛躍。然而,需要對人工智能在可預見的未來所能實現的目標設定現實的期望。本文認為,人工智能可能會導致脆弱性陷阱,即把C2功能委托給人工智能會增加C2的脆弱性,導致災難性的戰略失敗。這就要求在C2中建立一個新的人工智能框架以避免這種陷阱。我們將論證,"抗脆弱性 "和敏捷性應該構成人工智能C2系統的核心設計原則。這種雙重性被稱為敏捷、抗脆弱、人工智能驅動的指揮和控制(A3IC2)。一個A3IC2系統通過C2決策周期中的反饋過度補償,不斷提高其在面對沖擊和意外時的表現能力。一個A3IC2系統不僅能夠在復雜的作戰環境中生存,還能茁壯成長,從戰爭中不可避免的沖擊和波動中獲益。

I 引言

許多人認為,將人工智能(AI)納入軍事指揮和控制(C2)是建立軍事力量競爭優勢的一個關鍵因素[1],[2],[3]。人們對人工智能在戰場上能夠實現的目標抱有很高的期望,有些人宣稱它是下一場"軍事事務革命"[4]。人工智能有望在C2中實現復雜功能自動化,從而導致"戰場奇點"的概念,即決策周期自動化帶來的行動速度的增加導致人類的認知無法跟上機器做出決定的速度[3]。在這種對未來戰場的展望中,人被認為是C2系統中的一個薄弱環節[5]。

本文認為,人工智能的整合可能會對尋求機器速度決策的C2系統性能產生意想不到的后果;從戰略上講,一個已經達到 "戰場奇點"的系統在根本上是脆弱的。人工智能的快速發展及其對C2系統明顯的革命性/顛覆性影響在很大程度上是由對戰爭期間對對手的 "響應"程度的關注所引導的,而不是對這種技術可能對C2系統性能的整體影響。文獻中提出了兩個假設:第一,假設人工智能將通過優化系統的各個部分來進一步實現提高敏捷性的目標;第二,由于復雜的人工智能能夠在戰時做出決定,甚至在戰略層面做出決定,未來人工智能支持的C2系統將在盡可能少的人力投入下得到改善[6],[7]。這兩個假設都是錯誤的,因為人工智能帶來了獨特的特性,可能會增加C2系統的脆弱性。

傳統上,C2系統被認為受益于一種戰略,該戰略側重于在復雜的競爭環境中最大限度地提高敏捷性[8],[9],[10],[11]。David Alberts用 "敏捷C2"的概念體現了這一戰略,該概念指出,為了使C2系統有效,它必須能夠在復雜的環境中成功應對、利用和實現變化。C2的有效性是通過系統要素的相互作用來實現的,如適應性、響應性、靈活性、多功能性、創新性和復原力[8]。然而,對"敏捷C2"模式的接受使大多數軍事C2理論和文獻將人工智能技術作為提高C2決策單獨響應性的手段[1],[2],[7],[3],[5],而對C2系統需要響應性以滿足戰略利益這一單純的事實則關注較少。問題的核心就在這里,提高響應能力的人工智能是否能夠做到這一點,同時了解決策對跨多個領域的戰略和大戰略目標的影響。我們認為,盡管人工智能很先進,但由于人工智能系統容易受到具有戰略后果的黑天鵝事件的影響,在作戰環境中的預測從根本上來說是脆弱的[4]。人工智能的優化特性,加上人類責任的減少,可能成為阻礙C2敏捷性的 "脆弱 "方法。

為了否定上述可能導致人工智能C2系統脆弱性的一些問題,需要一個新的設計原則,以增強系統從波動中自我改善的能力,即所謂的 "抗脆弱性"[12],[13]。適當設計的人工智能可以通過在系統級存儲器中積累適當的遭遇和學習經驗來實現抗脆弱系統的發展,但它也可能鼓勵C2決策周期的過度優化。這可能會導致系統無法識別和解釋突發事件,但仍然快速推薦決策,導致負面風險的升級。因此,人工智能的整合支持了一種新模式的發展,擴展了敏捷C2的概念,并包含了抗脆弱性。這將被稱為 "敏捷、抗脆弱、人工智能驅動的指揮與控制"(A3IC2),它是敏捷C2、抗脆弱理論和人工智能用于C2的綜合體,建立在Boyd、Brehmer和Alberts[14],[8]所開發的模型之上。

為了探討A3IC2,本文的結構如下。第二節介紹了文獻回顧,將A3IC2概念與之前的其他概念區分開來。然后在第三節中介紹了人工智能導致脆弱性,接著在第四節中論證了抗脆弱性將使人工智能在C2系統中得到有效利用的原因。第五節討論了擬議的A3IC2功能模型,然后在第六節得出結論。

II 文獻回顧

A. 指揮與控制

就本文而言,軍事C2的定義是負責適當分配部隊以實現軍事目標的戰區級職能。軍事學說將其廣泛定義為 "對所分配的部隊行使權力和進行合法指揮的過程和手段"[1],[2],[15]。這有別于其他被描述為戰術層面的C2系統,如單個車輛或小單位的C2。

軍事C2與戰略決策是密不可分的。它包括一個等級組織,指揮官的意圖來自他們所保衛的國家戰略目標,為下屬的決策和行動提供方向[14]。C2的最高優先事項之一是保持對環境的態勢感知,并以軍事行動做出適當的響應(或不響應),以實現戰略目標。C2不僅要有效地進行作戰,而且還必須知道何時從非作戰行動(OOTW)過渡到作戰[16],反之亦然。因此,軍事C2的適當抽象(或模型)需要承認沖突的全部范圍;從作戰到非作戰行動[15]。它必須考慮到C2系統所處的 "作戰環境 "的動態復雜性;從戰術到戰略層面以及它在大戰略層面產生的影響。簡而言之,有效的C2不僅僅是能夠贏得戰斗,它還必須知道什么時候挑起戰斗是一種相稱的響應[2],[15],[16]。此外,它需要了解其行動對大戰略層面的影響;也就是整個政府的目標。

C2,作為一個系統,在一個非線性和復雜的環境中運作。它被歸類為 "社會技術"系統,是技術和 "社會 "或人類元素的混合體,它們相互作用,并與更廣泛的復雜環境相互作用[17]。一個C2系統表現出動態的、突發的行為,有許多意外的或不可預知的后果。這不僅是因為這些系統依靠人類來理解復雜的環境并制定解決問題的計劃,而且因為它也是一個技術系統,態勢感知依賴于數字系統和傳感器來傳遞信息,而這些信息可能無法準確地代表作戰環境[9],[17],[10],[4]。C2系統必須完成的任務或目標完全取決于未預料到的現實世界的事件,如戰爭、環境災難和其他雜項OTW。這發生在多個領域(物理的和非物理的),并且都是在分歧的作用下。從系統思維的角度來看,C2作戰環境是真正 "超復雜"的[18],[16]。

因此,軍事C2有一個非常困難的任務,即它必須在一個復雜的環境中做出具有重要意義的決策,并保證有幾乎不可能預測或逆轉的二階和三階戰略效應[19],[4]。長期以來,軍事戰略家們一直理解這一點,并在傳統上通過心理模型或啟發式方法來管理,以指導如何理解和應對戰爭的復雜性。這些心智模式現在被固化在戰略研究學科和現代軍事理論中[4]。C2是在戰爭中取得戰略成功的一個重要手段,它被定義為 "確定一種方法,使敵人的組織因無助或混亂而崩潰"[16]。與指導這一結果相關的心智模式(必然)是高度抽象的,反映了對復雜性的理解;戰略與其說是一門科學,不如說是一種藝術。Clausewitz和他的 "分歧"概念,描述了在這種復雜性中操作的困難,它習慣于破壞所有精心策劃的計劃,導致了 "戰爭中一切都很簡單,但最簡單的事情卻很困難 "的看法[20]。自Clausewitz以來,由于信息理論、人工智能、系統思維和控制論方面的重大進展,戰略的啟發式方法已經取得了進展。關于戰爭的心智模式繼續從技術中發展,但戰爭的核心性質卻沒有發展。它在政治中的基礎要求它是一種與人的因素密不可分的活動[4],[15]。將這些心智模式轉化為指導人工智能的具體指標,是一項非同尋常的、可能不可行的任務。這些心智模型的工作原理是對背景、指揮官的意圖以及一個決定可能產生的大戰略后果的整體理解。

科學、技術和信息理論對戰略和C2概念產生了重大影響[21]。John Boyd上校,作為控制論和戰略的學者,在這兩個學科的基礎上,創造了戰略研究領域中最有影響力的功能模型之一--觀察(Observe)-調整(Orient)-決定(Decide)-行動(Act)(OODA)環。OODA環路是一個詳細描述 "贏與輸 "理論的模型,大致描述了一個人如何管理競爭環境和生存[21]。對于一個有效和可生存的C2,Boyd認為,一個系統必須能夠比敵人更快地適應其環境。調整(Orient)的步驟代表了在觀察、分析和心理模型的基礎上做出 "正確的決定",但如果雙方對手的其他條件相同,誰能更快地循環到每個步驟,誰就能獲勝[21]。因此,推動沖突的速度超過對手反應速度的C2系統,將造成'致命的不穩定',從而取得勝利[4]。正是從OODA循環理論的發展中,系統思維C2文獻繼續研究什么是一個卓越的C2系統;這是一個結合了系統思維方法和戰略研究的多學科領域[14],[19],[21]。文獻中有一個廣泛的共識,即戰爭的復雜性要求C2系統必須是動態的或敏捷的,允許人們既取得勝利又避免系統失敗[8],[10],[11],[9],[21],[4]。

然而,盡管OODA環路作為一種輸贏理論是合理的,但它并不是在C2系統中實施敏捷性的充分模型,因為它忽略了特定的功能,如 "指揮概念、規劃、放行準則或系統延遲",導致模型過度強調速度為目的[14],[9],[19]。為了將OODA環作為C2的一個更好的模型,Brehmer開發了動態OODA環(DOODA環)。Brehmer認為,需要具體的細節,如整個決策過程中的延遲,以使該模型在C2背景下具有足夠的描述性[14]。因此,在圖1中看到的DOODA循環允許指揮官和工作人員實際了解C2過程的每個功能。它通過明確每個C2功能,說明了為了提高敏捷性和決策性需要實現什么[14]。出于這個原因,DOODA循環模型將被用作本文后面的A3IC2功能模型的基礎。

從上面的討論中,有一個概念是明確的:C2及其性能的測量與系統運行的戰略背景是不可分割的。C2系統內的動態變化不是在真空中發生的;C2系統的最終結果是控制的影響,或在指揮軍事力量的超復雜環境中做出有效決定的能力,以便生存和獲勝。如果一個高度復雜、高效、響應迅速的人工智能C2系統無法追蹤作戰環境的復雜性、產生的影響以及它們在大戰略層面的后果,那么C2系統將無法在高強度戰爭的動蕩下生存。

圖1. 動態OODA環[14]

B. C2系統定義

在文獻中,對C2系統類型的描述是有問題的,導致與敏捷性、適應性、穩健性和復原力的定義有很大的重疊,這取決于情況或背景[11],[22],[8]。然而,有兩個廣泛的基本生存方法被描述,所有C2系統類型至少有一個方面是相同的:

1)保持形式的力量(在不改變的情況下,在波動中生存的能力)。

2)改變形式以保持力量(通過改變在波動中能生存的能力)。

這兩種生存方法都可以根據情況而有效;因此,一個有用的C2功能模型必須包括這兩種方法。C2文獻大致了解這一點,并試圖在功能模型中結合各種定義來調和兩種方法[11]。"敏捷C2"的概念將彈性和穩健性納入其定義中,背離了人們對敏捷性的通常理解,即僅僅意味著改變形式的 "迅速"。Alberts將敏捷C2定義為 "成功影響、應對或利用環境變化的能力"[8]。這一定義有實現這一目的所需的六個方面[8],[23]:響應性、靈活性、適應性、多變性/穩健性、創新性和復原力/彈性。

所有這些要素的融合有望最大限度地減少與不利影響相關的事件的概率,并最大限度地增加提供機會的事件的概率。如果事件真的發生,這些要素也會努力使成本最小化或收益最大化[8]。需要強調的是,單一目標的優化并不等同于敏捷性;相反,它反映了響應能力高于靈活性和彈性的不平衡。當一個系統的優化依賴于單一目標時,它不一定是高效的,即使這個單一目標是預先確定的不同目標的加權和。然而,我們承認,優化是一個數學概念,可以被調整以實現任何目標。如果目的是平衡響應性、速度、靈活性和彈性,多目標優化是優化理論的一個分支,可以用數學方法處理這個問題,同時優化相互沖突的目標。

敏捷C2的目標是將不利影響最小化,將機會最大化,這與Nassim Taleb的 "凸"系統的想法相似;對波動的有益響應,也就是所謂的抗脆弱性[12]。敏捷性和抗脆弱性有很多相似之處。敏捷性和抗脆弱性都有一個共同的風險觀,即既要減少黑天鵝事件(災難性的、低概率的事件)的負面影響,又要避免在組織內低估其可能性的自滿情緒[8],[12]。其他的相似之處還體現在所列舉的組織如果要成為一個抗脆弱組織應該避免的特性,比如限制使用單目標優化、專業化、預測、標準化和微觀管理[24],[12],[8]。

與敏捷C2一樣,抗脆弱組織關注的是將行動自由(靈活性)最大化的策略和結構。它不鼓勵優化、缺乏多樣性、不容忍風險,關鍵是不切實際的簡化現實模型[8], [24]。然而,抗脆弱性和敏捷C2之間的關鍵區別是 "為了學習和過度補償的目的,有目的地在系統中實施誘導性的小壓力 "或 "非單調性" [25],[26],[12]。這是抗脆弱系統和敏捷或彈性系統之間的關鍵變量。抗脆弱系統積極尋求在其自身系統內注入波動性,以暴露脆弱性。這兩個概念之間的差異是互補的,它將被論證,當兩者結合起來時,可以為人工智能C2系統產生一個強大的功能模型。

C. 抗脆弱性與C2

抗脆弱性是一種系統特性或特征,它不僅能使系統對突如其來的沖擊和壓力具有魯棒性和彈性,而且還能從這些壓力中學習,在下次遇到這些壓力時改進自己[12],[27]。抗脆弱性是脆弱性的反面,因為穩健性和彈性的定義都不'意味著從沖擊中獲得力量'[16],[12]。Taleb指出,抗脆弱性系統'有一種機制,它通過利用而不是遭受隨機事件、不可預測的沖擊、壓力和波動來不斷自我再生'[12]。由此可見,"如果沒有反饋和記憶的機制,抗脆弱性是不可能的"[27]。因此,為了使一個系統走向抗脆弱的系統動力學,它必須能夠從對其系統的沖擊中學習(反饋),并從這種記憶中改善其運作(定向)。必須強調的是,這種反饋可以是內部的,并且是自我產生的,使用內部設計的性能和效果的衡量標準,同時使用內部模擬的外部環境進行情景的角色扮演。作為一個概念,抗脆弱性有以下五個維度[12],[28],[25]:

  1. 從沖擊和傷害中學習的能力:系統有能力從它收到的反饋中儲存其記憶和經驗。

2)利用過度補償進行系統改進:一旦收到反饋,系統就會自我改進,涵蓋未來管理類似沖擊的要求。

  1. 冗余:由于過度補償沖擊的結果,系統將開發多層次的冗余機制。

4)凸性和選擇性("杠鈴戰略"):該系統將以一種使潛在收益最大化但使潛在損失最小化的方式構建自己。換句話說,該系統將是穩健的,但準備運用收益函數。

5)小規模的實驗:承擔風險,以便在犧牲小故障的情況下獲得顯著的性能收益。對系統誘導小的壓力源,以確保非單調性。

將敏捷系統與抗脆弱系統區分開來的三個特征是:注重過度補償,有目的的誘發系統壓力,以及來自波動的記憶/反饋。抗脆弱的系統會改進自己,不僅能夠補償未來類似的壓力,而且能夠補償比所經歷的更嚴酷的沖擊[12]。因此,波動性是非常可取的,因為它允許系統收集信息,并通過從盡可能廣泛的輸入中學習來保護自己的未來。這就產生了對系統進行過度補償適應所需的數據,以管理沖擊。事實上,一個抗脆弱的系統將有目的地嘗試 "風險管理的實驗",以創造過度補償所需的波動性。Taleb明確指出,這包括來自黑天鵝的風險;那些具有高度不可能性和極端影響的事件[25],[28],[8]。黑天鵝對于抗脆弱系統來說具有很高的價值,因為它可以獲得加強系統的稀有信息,只要它們最初是可以生存的[12],因此,復原力和穩健性很重要。抗脆弱系統的設計是為了盡可能地抵御作為本體論現實的混沌,在復雜環境中無法消除或預測[28],[12]。

Alberts[8]討論了敏捷性的概念模型,"環境空間"代表系統的性能水平,取決于各種外部和內部變化。從敏捷C2的角度來看,一個抗脆弱的系統會探索環境空間,以便從盡可能多的生成環境中了解盡可能多的 "可接受的性能區域"。波動性和反饋允許這種探索。有效地使用反饋/記憶,并通過波動性實驗,以便過度補償,從而使敏捷C2系統通過探索越來越多地了解其 "自我模型",通過更多的 "實體可以識別和成功應對的各種情況 "來提高其敏捷性[8] 。此外,該系統對環境、可預期沖擊的背景以及形成環境壓力源的環境約束有了更好的理解。經驗教訓可以采取幾種形式,如經過驗證的作業環境模型、代表環境的人工智能數學函數,以及其他人類/機器產生的數據存儲。這些信息將隨著每次沖擊產生的新信息而更新,使C2系統能夠隨著時間的推移而提高效力。

現在,我們應該清楚,抗脆弱系統并不排除敏捷性作為系統內的一個有利特征;抗脆弱是一個額外的特征--而不是一個替代品[12],[29]。在Taleb對抗脆弱的定義中,Taleb將敏捷性與脆弱性、復原力和抗脆弱從同一范圍中分割出來。為了使A3IC2結構清晰,我們將繼續這樣做。在圖2中看到的是敏捷性和抗脆弱性的覆蓋范圍。兩者的定義分為 "從波動中生存的系統 "和 "系統為生存而進行改進的能力"。這很好地概括了上述系統動力學文獻中的定義[26]。例如,如果沒有系統恢復或適應的能力,就不可能有彈性,也不可能在受到沖擊后恢復到正常水平的性能。不變性也是脆弱的,因為所有系統的功能都來自于無常性;沒有變化,系統最終會失敗[30]。敏捷性是抗脆弱性的助推器,因為對反饋的有效過度補償需要一個敏捷的組織;反之亦然,敏捷的C2需要過度補償來主動創新,并從操作環境的變化中建立復原力。

圖2. 敏捷和抗脆弱范圍[8],[12]。

與彈性和穩健的系統相比,敏捷性與抗脆弱性相結合的好處是對沖擊的響應要好得多[22]。Taleb指出,脆弱性在數學上被定義為 "對有害壓力的加速敏感性:這種反應被繪制成一條凹形曲線,在數學上最終導致隨機事件帶來的傷害多于收益"。一個脆弱的系統將在極端的波動下崩潰,因為它沒有否定凹形響應的屬性。由此可見,抗脆弱性的動力學產生了 "凸型響應,導致更多的利益而不是傷害"[12]。因此,一個有彈性或堅固的系統處于脆弱和抗脆弱之間的中間位置。一個穩健的或有彈性的系統既不會從波動中得到什么,也不會失去什么。抗脆弱性有一些元素,使它不僅能在沖擊后恢復正常功能,而且能從壓力源中學習,以便進行過度補償。因此,要獲得一個抗脆弱和敏捷的C2系統,需要具備表1中所列的以下要素。

從表一中可以看出,這種組合能夠發揮兩種方法的優勢。最下面的三行是抗脆弱性要素,前三行是敏捷C2要素,而中間一行是兩者的必需要素。尋求創新的解決方案以消除脆弱性和提高敏捷性是兩者都需要的過度補償。記憶/反饋、可選擇性和對創新能力的補充,是將敏捷C2與A3IC2分開的新元素。一個C2系統如何實際發展這些元素,需要人工智能、混沌工程和具體組織戰略的交集;這是下一節的主題。

表1. A3ic2系統的要素[8],[12],[26],[22] 。

III. 人工智能和抗脆弱的C2系統工程

在C2系統中實施抗脆弱性需要利用和積累有關系統性能的反饋;最容易實現的是將數據收集作為在系統中保留記憶和學習的永久方法。這允許創建抗脆弱的反饋回路,使其能夠使用過度補償[26],[22]。Jones [31] 將抗脆弱機器描述為一種能夠適應意外環境的機器,因為它的腳本隨著時間的推移在決策、采取行動和觀察結果的過程中變得更加復雜。這種機器必須從它的環境中學習,并適應那些 "在設計時沒有預想過的 "變化[31]。換句話說,要做到真正的抗脆弱,系統所面臨的情景必須是新的,但也要熟悉到可以從以前的經驗中概括或抽象出來,創造出新的知識。機器通過與環境或感知數據的互動,從其經驗中更新其內部狀態的這一過程被稱為 "機器學習"(ML),是人工智能的一個分支。因此,這項技術是在系統內實現抗脆弱動態的基礎[31]。

文獻中對人工智能的定義還沒有達成共識,但為了本文的目的,人工智能被定義為 "為計算機提供認知技能和能力的算法,用于感知和決策"[32]。建立人工智能系統的方法各不相同。傳統的方法是通過 "專家系統 "或 "手工制作的知識",即通過人工編碼并咨詢專家來創建算法[33],[34]。然而,由于模型是手工更新的,這些系統對于不斷變化的環境來說通常是非常脆弱的。ML提供了一種更新系統知識的替代方法,可以從系統直接接收的數據中獲得,也可以通過與環境的互動獲得。先進的ML模型,如深度學習,依賴于大型數據集和專門的算法來學習結構化(表格)和非結構化(圖片、文件)數據中的特定模式;允許創建一個系統的復雜數學表示/模型。這種模型可用于對新數據進行預測,或在以前未見過的情況下采取行動。由于從環境本身的觀察中收集到的數據集的多維模式,人工智能模型在面對復雜的環境時可以表現得更加準確[33]。人工智能有望減少人類決策的許多限制,如注意力集中、有限的記憶、回憶和信息處理[35]。

ML方法試圖在功能上接近空間內的高維拓撲結構[4]。數據源系統通過傳感器提供拓撲結構,而ML算法試圖通過訓練學習這個拓撲結構,然后驗證其性能(即準確性)。當一個新的數據點被提交給受過訓練的人工智能時,它就會被放在這個相同的配置空間中,根據算法形成的近似值,它將對新的數據點進行預測。作為一個例子,圖3是一個ML分類算法的低維結果。它有四個標簽,代表對敵人當前行為的預測,每個標簽都是由人工智能設計師根據以前對數據的理解而指定的。當收到一個新的數據點并在這個狀態空間內進行評估時,該數據點可能被分配到最接近的群組。如果與數據點的歐幾里得距離最接近紅色集群,那么人工智能就會輸出一個 "可能的攻擊 "作為預測,可能會有一個從與紅點的距離與其他集群的距離相比得出的可能性。

圖3. 高度簡化的狀態空間與由ML聚類算法形成的拓撲結構

因此,人工智能是敏捷C2系統的一個有利工具,從根本上可以還原為形成這些適應性的復雜數學函數來模擬一個動態和變化環境的效用。有人認為,這些模型將為大多數C2任務提供比人類更高的精確度,并且盡管超復雜,也能提供快速和值得信賴的自動化[5],[1],[2]。通過精確和適應性的數學函數來取代OODA環路中的每個階段,可以實現卓越的感知和學習,并延伸到快速和卓越的決策[3],[36],[4],[7],[6]。下面將討論這樣做所帶來的風險。

A.脆弱性風險

人工智能伴隨著新形式的風險,需要加以管理。對C2系統影響最大的現象是戰爭的爆發。如果錯過了常規國家間沖突的爆發(一個非常罕見的事件),可能會導致災難性的突然襲擊。事實上,對手將積極尋求一種策略,對C2系統產生盡可能大的沖擊[16]。在這種情況下產生的問題是,通過人工智能算法實現C2決策自動化的好處是否值得承擔災難性失敗的風險?如果準備在人工智能預測有99%的信心,而1%的機會可能導致不可逆轉的戰略后果的情況下,自動做出提供致命武力(或不提供)的決定,那么C2的性能是否得到全面改善?對于C2來說,戰略決策失誤的后果可能是如此的極端,以至于會導致其自身的毀滅,這就需要一個抗脆弱的戰略,作為對抗黑天鵝事件的必要條件。

99%置信度的人工智能預測之所以會導致失敗,是因為在面對動態復雜系統時,人工智能會受到所謂的 "柏拉圖式折疊 "的困擾。柏拉圖式折疊描述了這樣一種情況:復雜環境的模型 "拓撲結構 "或 "狀態空間 "由于 "為了隱藏復雜性 "而省略細節,本質上是錯誤的,或者說是脆弱的[12],[29],[34],[4]。當復雜性被不明智地隱藏時,人工智能所操作的抽象水平比它應該操作的適當抽象水平更簡單。其結果是人工智能狀態空間中沒有體現的突發現象,或者無法區分需要不同決策的不同環境。這些變量可能是隱藏的強化反饋回路,可能導致黑天鵝現象,往往會產生災難性的影響[12],[13],[22],[37],[4]。這給C2操作環境中的自動決策帶來了風險。更糟糕的是,即使人工智能模型正在從環境中學習,如果它不能 "跟上 "拓撲結構的變化,隨著時間的推移發展出更多的隱藏變量,它也會變得很脆弱[29],[38]。忽視或低估這種不確定性影響的模型,作為他們試圖模仿的復雜環境的本體事實,將產生越來越多的脆弱程度,與模型失敗的后果一致[12],[28],[4]。

快速更新一個模型,以防止與人工智能對 "開放 "和復雜系統的理解有關的 "漂移"。Florio[38]認為,通過定期的訓練更新和足夠的獨特數據進行訓練,一個非常復雜的模型/函數可以隨著時間的推移保持對非線性系統的接近。這種方法通常被稱為 "ML管道 "或ML開發過程[33],是一種循環技術,其中一個ML模型正在運行并預測環境,而另一個正在被訓練。環境的變化只會導致新的數據供算法自我更新,改善C2系統的模型庫,以便在其活動適應環境時加以利用。模型的更新和替換速度將對模型準確反映復雜環境的保真度產生相應的影響[38]。

然而,模型快速更新并不能解決決策型人工智能的柏拉圖式折疊問題。一個ML模型可以快速更新一個持續不準確的模型,并且完全沒有意識到數據的退化[4]。人工智能可以迅速形成一個C2系統,對它所訓練的事件具有優化和卓越的決策,其代價是對尚未發生或被系統感知的事件具有脆弱性[4]。然而,如上所述,C2系統認為其最優先的正是這些尚未發生的罕見事件。

人工智能支持的C2的系統故障點是,由于作戰環境的拓撲結構和表征拓撲結構之間的不匹配,人工智能模型做出的快速決定有助于控制的崩潰,導致無助或混亂[4],[16]。作為一個例子,Wallace[4]討論了最近股票市場的 "閃電崩盤"(黑天鵝),認為它類似于C2系統中脆弱的人工智能應該產生的結果。這些崩潰的發生是由于自動化交易算法過于迅速而無法進行人工干預,其根本原因非常復雜,至今仍不為人知。對于C2來說,相當于兩個具有高度自主的人工智能決策的對立軍隊,導致了高強度戰爭的閃電式崩潰;所有這些都來自于以毫秒為單位的穩定性喪失[4]。

B.C2SIM和AI

針對人工智能遺漏罕見與災難性事件的風險,提議的解決方案是通過使用合成(人工構建)數據。合成數據是唯一現實的方法,使ML算法能夠從C2系統高度關注的現象數據中進行訓練,例如C2系統被設計為有效決策的未來常規高強度戰爭[39],[7],[5]。未來的戰爭沒有數據,而過去的戰爭是否有用也是可以爭論的。合成數據的生成過程分為三類[40]。

1)人工開發,通過手工建立的數據集進行策劃。

2)自動調整真實輸入,產生類似的輸入,幫助算法學習更廣泛的規則。

3)通過建模和模擬(M&S)以及仿真自動進行。

使用哪種程序完全取決于人工智能的目的和它試圖進行預測的環境稀缺性。如果人工智能要取代指揮官的決策能力,那么極有可能需要將人工創建的來自情報的數據與戰場模擬模型相結合,來訓練一個人工智能系統。這種方法將C2SIM和人工智能等概念整合在一起,可能使用強化學習算法[5],[41]。

然而,這種方法仍然存在風險。創建一個高度詳細的操作環境模型不僅很難驗證,而且很可能產生欺騙性的結果,因為人工智能將缺乏在不確定性下做出有效決策所需的保真度[37],[5],[41]。

然而,這種方法仍然存在風險。創建一個高度詳細的作戰環境模型不僅很難驗證,而且很可能產生欺騙性的結果,因為人工智能將缺乏在不確定性下做出有效決策所需的保真度[37],[5],[41]。Davis[37]將此描述為 "場景空間 "的減少,意味著人工智能被訓練的選項或靈活性變得狹窄。一個在C2系統中為指揮官制定行動方案的人工智能系統,如果針對特定場景進行了優化,那么作為一個反應式系統,它在高度特定的場景空間中只會有可靠的表現。對模型內變量之間的因果關系或非因果關系的假設,將不可避免地導致脆弱性[37]。

另一方面,一個高度抽象的模型,為一個"戰略層面"的推薦系統而忽略了作戰環境的大部分細節,有其自身的問題。合成數據的使用將與創造它的軍事文化密不可分。對敵人以及他們將如何進行下一場戰爭的假設,將被固化在人工智能所訓練的數據中[4]。如果敵人決定 "改變游戲規則",在戰略層面采取人工智能從未接受過的不對稱行動,任何新的敵人戰略或戰術都不會在發生之初就被準確預測[41]。相反,它們會被預測為完全不同的東西。在戰略層面上,比如戰區,與預測敵人行為相關的變量會有很長的統計 "尾巴",而在人工智能模型中卻沒有體現[4]。這可能會產生嚴重的戰略后果,導致系統不適合戰爭的 "深度不確定性 "或波動性[37],[41]。Zhang[41]指出,將人工智能'用于涉及戰略決策的應用,比如那些模擬甚至沒有物理學作為依托的應用,現實世界和模擬之間的對應關系可能非常小,以至于經過訓練的算法實際上是無用的'。由此可見,人工智能要想保持有用,就必須從對應于C2函數的數據中進行訓練,而C2函數是充分人為復雜的,而不是天生自然復雜的。顯然,為了使人工智能的使用不成為脆弱的風險,需要在對人工智能的信任、預測失敗的風險以及特定人工智能給C2功能帶來的響應能力的好處之間取得平衡。

圖4. 人工智能集成和增長的限制

與人工智能支持的C2系統相關的脆弱性風險,反映了上文圖4中顯示的增長限制的原型。決策性能通過復雜功能的自動化得到改善,從而提高了C2的響應能力。然而,人工智能整合到更復雜的功能(如決策),導致更多的風險被轉移到人工智能模型的準確性和與操作環境相比的差異。這可能會導致低概率但高后果的災難性事件的預測失敗。人工智能取代的需求和判斷來理解復雜環境的功能越多,系統就會變得越脆弱。黑天鵝事件在數學上是不可預測的,對系統也是有影響的。因此,C2系統暴露在重大沖擊下的風險越大,它就越有可能最終遭受災難性的失敗[12],[13],[42],[22]。

IV. 從AI的脆弱性到抗脆弱性

將人工智能整合到敏捷C2系統而不增加脆弱性的方法將需要仔細考慮上文表一中討論的抗脆弱性要素。具體來說,C2系統將需要確保對來自作戰環境的沖擊作出凸形響應。這可以通過兩種方法實現:

1)將人工智能的功能分配到C2系統中,使災難性故障的風險最小化,但使系統的收益最大化。

2)使用實驗來發現系統的脆弱性,產生創新和混沌;這使得過度補償和人工智能模型的不一致。

A. 功能分配

一個AI使能系統需要在其作為敏捷性工具與其存在的脆弱性風險(如果AI不能在復雜環境的極端波動下執行)之間取得平衡。人工智能并不適合所有的決策任務[43],[32],[36]。一個抗脆弱系統將需要特定的邊界,將在戰略/作戰層面上將具有黑天鵝高風險的C2決策功能與其他可以自動化的低風險復雜C2功能分開。明確說明人工智能在C2系統中負責哪些任務,對于避免脆弱性和整體上有利于系統至關重要。

由于C2系統是社會技術性的,那些為C2功能分配使用人工智能的人需要確保對人的替換不會對系統的性能產生風險。Abbass[32],討論了在這樣的系統中分配人工智能的幾種方法。一種 "靜態分配",即在C2系統中賦予人工智能的功能并不改變,可能不適合動態環境。具體的C2功能的需求將根據情況發生變化,特別是考慮到戰爭中對響應能力的需求,這可能需要快速變換功能分配[36]。例如,針對來襲的大規模超音速導彈防御場景將更傾向于速度而不是戰略環境。在這種情況下,什么都不做的后果是如此之大,以至于錯誤的風險可能值得AI完全控制。另一方面,批準超音速攻擊的決定將需要比速度更多的決策背景。因此,一種適應性的方法,或自動分配邏輯(AAL)是必要的[32]。

在戰略決策層面,關鍵事件邏輯最適合于評估脆弱性與自動化的好處。根據對響應能力的需求重要性,以及失敗的后果有多高或多低,C2功能將需要有人類或AI控制的適應性邏輯。圖5展示了一個與C2任務大類相關的潛在后果的例子,從感知到戰區級決策。

圖5. AI使能C2的脆弱性范圍

對于專注于感知型人工智能的系統來說,風險較低,因為來自人類決策者的數據適用于額外的背景[36]。感知型人工智能很可能需要多個專門的算法模塊來解析特定類別的數據,如視頻資料、圖片、文件和其他[33]。因此,這也是一個魯棒的算法系統,如果其中一個算法模塊不能感知關鍵信息,那么這個算法系統其他算法模塊也能捕捉到此信息。當然,風險仍然存在,這將需要通過理解決策中的 "風險轉移 "已經傳遞給人工智能系統的輸入和感知能力來進行評估[32]。

然而,如上所述,人工智能決策與戰爭期間高失敗風險相關聯。失敗的影響將取決于人工智能是支持戰術層面、戰役層面還是戰略層面;與戰略層面的單一失敗相比,戰術層面的單一失敗后果較小;不過,人們必須考慮到從戰術層面到戰略層面可能產生連帶效應。對于抗脆弱系統,Taleb[12]指出,人們應該避免依賴具有高度后果性輸出的系統,因為許多較小的、后果性較小的系統是不太脆弱的。當然,即使戰略層面的人工智能決策者的風險是通過人在環結構來管理的,由于建議依靠人工智能感知器,以及預測對人類決策者的額外影響,風險仍然存在。例如,如果C2系統使用受信任的非人類智能合作者(NIC)來推薦戰略層面的決策,可能會導致軍事指揮官在獲得99%的人工智能預測的情況下增加風險。這是因為NIC會表現得像一個預測者,有證據表明,這可能會增加決策者的風險承擔[12],[44],[45],[16]。

一旦確定了失敗的后果,就需要為每個場景分配適應性人工智能。這是一個 "指揮概念 "的C2功能;在為特定場景分配適應性人工智能功能時,需要考慮指揮官的意圖和國家的戰略目標。這些場景可以通過傳統的兵棋推演方法進行開發和測試,但也可以從創新和混沌生成的抗脆弱性過程中產生。適應性人工智能將需要持續測試脆弱性,以防止凹形響應;這是下一節的主題。

B. 創新和混沌的產生

為了將人工智能作為一種敏捷和抗脆弱的工具,反饋/記憶、小規模實驗和過度補償等元素需要在一個人工智能支持的C2系統結構中結合起來。這可以通過有目的地在系統中注入波動性來實現,并延伸到支持特定C2流程的人工智能功能。通過使用波動性,人工智能系統將發展出一個更廣泛/抽象的決策空間,增加其對更多種類沖擊的通用性。

對于合成數據的生成,可以將一致程度的波動和混沌應用于人工智能所訓練的數據。例如,可以在人工智能系統上測試極端情況,而不僅僅是預期的極端情況。C2組織內的 "混沌小組 "可以嘗試使用極端或極不可能的情況,來暴露人工智能模型的預測失敗。通過暴露失敗,人工智能開發團隊可以確定失敗發生的原因,探索人工智能采取什么行動會更好,然后嘗試重新訓練模型以增加其變異性,以處理未來類似的極端情況。因此,這個過程通過與外界復雜環境相比對自身的理解,加強了系統的能力[12]。這有可能也是由人工智能場景生成器實現的,主要目的是對開發導致人工智能C2系統失敗的場景進行獎勵。無論具體的方法是什么,目的是讓系統的壓力和失敗允許C2系統內的創新能力和發現發生,從而導致過度補償。

這些沖擊不僅僅是對人工智能本身的要求,也是對C2系統整體的要求。應該尋求一種分層的方法,作為一種穩健性的形式[12]。這樣做的一種方法可以在計算紅隊和混沌工程實踐中找到。計算紅隊[46]提供了人工智能所需的計算構件,以設計壓力源來挑戰自己和它所處的環境,并發展新的模型和戰術。類似地,混沌工程通過對計算機網絡或系統中的特定元素注入壓力或故意失敗的實驗來防止組織內部的脆弱性[30]。混沌工程的目的是確保C2 IT系統的所有功能的 "可用性",盡管環境中存在波動。對抗脆弱C2的用處是顯而易見的,因為其混沌工程實驗允許產生作戰環境效應,如網絡攻擊,作為極端波動的輸入。C2信息技術和通信網絡被視為一個單一的復雜系統,通過觀察其在真實世界的輸入或誘發故障后的行為,可以更好地理解它[30]。

將混沌工程、計算紅隊和人工智能結合起來,可以實現復雜的故障狀態生成,以實現抗脆弱性,但C2系統要有能力從自我造成的壓力中學習,以實現過度補償,需要組織文化上的巨大變化。在圖6中看到的是A3IC2系統的系統。在C2組織內建立這樣一個系統,需要改變組織的心智模式、組織規劃、C2結構,以及改變對人類操作人員的培訓方式,以支持抗脆弱的C2系統。A3IC2應該只關注C2操作的系統;作為一個抗脆弱系統成功進行C2的過程。對于一個C2組織來說,作為一個社會技術系統,它需要采取一種整體的方法,結構、系統、流程和文化都具有抗脆弱的特性,以便在壓力和沖擊下生存[25]。

圖6. 抗脆弱C2作為一個體系系統

V. 敏捷抗脆弱的指揮和控制(A3IC2)

通過將抗脆弱性概念與Boyd、Brehmer和Alberts[14]、[21]、[8]開發的功能C2模型相結合,可以開發出一個通過抗脆弱性動態提高C2系統有效性的新框架。這在下面的圖7中可以看到,說明了圖1中傳統C2運行周期與A3IC2結構之間的區別。

圖7描述了由Brehmer創建的相同的DOODA環路,并增加了對所實施的模型的積累的反饋。模型的建立作為系統的方法,在操作過程中從與復雜環境的互動中學習。從所做的決定、計劃、感覺活動和軍事行動的結果中得到的反饋的綜合,都為AI模型/功能提供了背景。開發的模型取決于具體的C2系統。對于一個空中機動/后勤C2單位來說,模型將反映諸如優先權、飛機選擇、選擇的路線和貨物驗證細節等決定。對于一個人工智能C2推薦系統的COA開發,反饋將代表變量,如敵人的位置,藍色的位置,單位的數量,以及許多其他。這些模型是在日常行動中通過與C2決策支持系統的互動和/或通過C2SIM建立的。

圖7. 抗脆弱的動態OODA循環

如上所述,"混沌生成 "功能是迫使系統從反饋中學到的東西進行過度補償的方法。它同時適用于社會技術系統中的人和機器。混沌生成是C2 "紅隊",它有目的地給系統施加壓力,以加強決策周期,提高敏捷性,減少脆弱性。對于人工智能支持的C2系統,混沌生成器包括基于先前經驗的合成數據生成過程,但對其進行修改以加強系統。因此,人工智能將在具有超出先前經驗的更多極端變量的任務中得到訓練和改進;導致過度補償。這些模型在性質上可能是極端的,并應盡可能多地覆蓋可能性空間。如果環境發生重大變化,或出現黑天鵝,可能性空間只會增加,允許系統改進并產生進一步的模型。C2系統的波動性越大,產生的模型就越多,以進行補償。

以前的討論假定,模型和數據需要提前建立,并預期未來結果。最近的趨勢是引入了形成、重新塑造和校準的模型。影子機器的概念[46]有一個專門的控制邏輯,隨著背景的展開學習模型。然而,這些概念假設來自實際環境的實時數據輸入,以持續測量偏差并進行相應的調整。這種方法仍然存在挑戰。關于自我的數據可能比關于敵人的數據多出幾個數量級。這種可供人工智能即時學習模型的數據不平衡,在人工智能界有其自身的挑戰。

VI. 結論

將人工智能整合到C2中,只有通過對其效果的整體理解來實施,才能提高系統的性能。如果一個由人工智能支持的C2功能有可能導致它所保衛的國家戰略目標無法實現,那么就需要認真考慮該人工智能的功效問題。當C2功能被分配給人工智能以避免脆弱性時,那么反饋和過度補償的使用有可能促進對系統波動的凸形響應。使用有目的的混沌生成將有助于C2系統能夠了解其自身的弱點,以便改進。使用A3IC2作為人工智能支持的C2戰略,可以確保人工智能仍然是建立一個抗脆弱系統的工具。最大限度地減少災難性失敗的可能性,同時最大限度地利用系統的好處,這將有助于在極端動蕩的戰爭中生存和制勝。

雖然本文的重點是人工智能所面臨的風險,但當新形勢展開時,人類指揮官仍將面臨類似的問題,特別是當軍事歷史的教訓可能阻礙他們對這些新形勢的思考能力時。如果敵人依靠人工智能產生接近光速的效果,未來的沖突場景將更具挑戰性。這就需要人類-人工智能的人機協作,利用各自的優勢,過度補償各自的弱點,以相關的速度產生效果。

付費5元查看完整內容
北京阿比特科技有限公司