在人工智能和自主系統日益成為現代戰爭以決策為中心的基礎的環境中,對這些數據豐富的超速領域的解釋將成為指揮、控制和分析的共同困境。許多軍事報告已經認識到,未來的戰爭將越來越多地被 "大量的自主系統 "所定義(澳大利亞陸軍,2021年),關鍵的戰略挑戰和優勢將取決于向以決策為中心的能力轉變(克拉克等人,2020年)。在這種復雜、遙遠和混合的安全背景下,解釋學,或解釋的理論和方法,將是關鍵的挑戰。我們建議圍繞四個解釋學模式建立基于場景的模擬。在現實世界的例子的啟發下,我們的方法推斷出假設的場景,以開發沉浸式決策模擬。這些場景要求參與者瀏覽四個復雜而微妙的解釋學模式:(1)信任解釋學探索決策的完整性和強大的系統如何被對手破壞或劫持。(2) 批判解釋學將數字對象/過程置于更廣泛的社會政治和文化背景中,承認人類社區與機器學習活動之間有爭議的互動。(3) 隱性解釋學是一種積極尋求揭示和揭開數字生態系統中的系統偏見或邪惡因素的處置方式。(4) 懷疑解釋學允許以復雜的形式破譯和揭示知識的多個來源和意義的層次。高級模擬將探索反措施的武器化。這些模擬將提供研究和培訓,提高指揮、控制和情報從業人員的復原力和以決策為中心的能力。
本文的結構分為四個部分。第一部分簡要考慮了 "馬賽克戰爭 "的戰略概念,將我們的工作置于本次會議的主題中,并與我們正在進行的人工智能和思維群的研究聯系起來。第二部分介紹了我們在解釋學方面的工作,這種思想在當代戰爭(和更廣泛的政治沖突)的一系列新模式中獲得了吸引力。第三部分介紹了我們在構建基于場景的模擬時確保真實性的理由和方法。第四部分提出了一個彈性解釋學的案例,闡明了解釋學框架如何能夠被納入三種通用類型的情景(第一秩序、第二秩序和團隊合作情景)。利用這些方法的研究和專業發展成果是為決策者開發一種能力,以預測和更有效地應對復雜的解釋挑戰。
未來的 MDO 概念:
正在探索的RAS是為了:
RAS將被要求:
我們最強大的力量投射和作戰能力,是為應對當前和未來的威脅而開發的,技術先進,價格昂貴,并且有半個世紀的使用壽命。這些特點中的第一個給了我們一個暫時的、可能是短暫的戰爭優勢。第二個特點給予我們的政治領導人短暫的經濟和政治優勢。最后一個特點將我們鎖定在多年的維護和升級的高額費用上,以證明最初的沉沒成本是合理的。這種組合迫使我們進入一個對我們更敏捷的對手來說透明的高慣性安全軌道,為他們提供關于這個軌道的可靠信息,同時給他們時間用更便宜的反擊力量、技術和戰略來適應。
因此,我們必須對服役期,即 "遙遠的未來"進行兵棋推演,以確保我們當前和未來的武器系統和作戰概念是為近期和遠期設計的。然而,50年的預測范圍已經超出了兵棋推演的可信度極限。工作組和研討會探討并記錄了兵棋推演可以處理這一范圍的方法。
工作組和研討會的參與者選擇了以下對遠期作戰的廣泛挑戰進行研究--本報告中記錄了細節:
機構
? 美國國家安全機構只關注短期。
? 和平時期的軍隊在面對大規模突發事件時變得不靈活。
? 對近期的關注減少了在對遠期進行推演時的嚴格動機。
過程
? 遠期兵棋推演是被動的。
? 先進技術部隊的指揮和控制是不明確的。
不確定性
? 不確定性和不確定性隨著人們對遙遠未來的展望而增長。
? 可能的相互作用和未來的組合爆炸。
? 未來情景的可信度、合理性和概率難以確定。
? 技術上的不連續和黑天鵝進展將發生。
? 當展望未來時,相互作用的因果因素的復雜性會增加。
本報告探討了以下涵蓋這些挑戰的方法,并記錄了它們的優勢、劣勢和實施障礙。由于大多數方法涵蓋了一個以上的挑戰,因此挑戰和方法之間沒有一對一的映射關系。
組織方面
? 建立一個有明確任務的組織,旨在對未來進行兵棋推演。
? 重振兵棋推演的最佳實踐,并確定遠期推演所需的新實踐。
社會工程
? 探討兵棋推演如何影響軍事思想,而不僅僅是軍事思想如何影響兵棋推演。
? 使用兵棋推演來提高人們處理未知未來的能力。
? 考慮到人們如何思考和擔心未來的心理。
未來主義
? 在兵棋推演過程中嵌入未來框架和展望規劃。
? 使用系統思維來設計未來情景。
? 以能源變化驅動的軍事事務革命(RMAs)為基礎的未來情景。
過程
? 對美國防部的采購進行戰爭演練,以便在數月和數年內發展能力。
? 以月/年的采購戰為輸入,對從現在到遠期的軌跡進行戰役。
? 將我們穩定的社會價值與對手的社會價值進行戰爭。
? 以每次不同的游戲設計進行多次兵棋推演。
? 對每個游戲設計進行多次兵棋推演。
? 對許多游戲進行戰時敏感度分析,以探索假設的技術或能力水平何時會對作戰決策者有用。
? 將情景規劃和作戰設計結合到路徑游戲中
本文件包含了工作組撰寫的論文,他們在2018年11月至2019年6月期間撰寫和完善這些論文時的討論,以及在2019年8月聯結美國兵棋推演會議期間舉行的研討會上的討論。
人工智能(AI)和機器學習(ML)有望對聯盟的多領域混合行動產生變革性影響。在戰術邊緣的聯盟行動中,支持情景理解的人工智能/機器學習方法目前有相當大的研究興趣。聯盟行動需要分布式人工智能/機器學習,它對復雜的多行為體情況具有強大的能力。高度復雜性信息需要通過一系列傳感方式來收集,并根據人類的需求和能力來進行高速處理。自2016年以來,美國/英國分布式分析和信息科學(DAIS)聯合計劃研究正在解決聯盟對可適應、可信賴和有彈性的AI/ML的需求:可適應的人工智能是指能夠在動態情況下快速適應的人工智能系統;可信賴的人工智能是指人類用戶能夠快速校準他們對人工智能系統的信任;有彈性的人工智能涉及對對手攻擊和欺騙有彈性的人工智能系統。
本文重點關注以快速整合利用聯盟人工智能/機器學習資產為中心的DAIS研究,包括符號(基于邏輯)和亞符號(基于深度神經網絡)方法。本文的重點是,我們考慮了涉及檢測相互關聯的事件模式,這些事件形成了只有稀疏的訓練數據(對于機器學習)可用的情況。快速信任校準是通過可解釋的人工智能--涉及可解釋的符號和亞符號方法--和不確定性的有效管理--考慮不確定性的啟示和認識結合來解決的。雖然這不是本文的主要重點,但通過顯示綜合神經符號系統對有針對性的模型中毒對抗性攻擊的穩健表現,以及可解釋的人工智能/機器學習服務對多模態傳感數據的處理使綜合系統更難被攻擊,我們考慮了復原力。為了更容易地吸收工作計劃,我們使用了一個基于北約Anglova演習的城市環境中協調攻擊的單一綜合案例研究。
本文重點關注以快速整合利用聯盟AI/ML資產為中心的DAIS研究,包括符號(基于邏輯)和亞符號(基于深度神經網絡)方法。本文的重點是,我們考慮了涉及檢測相互關聯的事件模式環境,這些事件形成了只有稀疏的訓練數據(對于ML)可用的情況。快速信任校準是通過可解釋的人工智能--涉及可解釋的符號和亞符號方法--和不確定性的有效管理--考慮不確定性的啟示和認識類型的結合來解決。雖然這不是本文的主要重點,但通過顯示綜合神經符號系統對有針對性的模型中毒對抗性攻擊的魯棒表現,以及采用可解釋的AI/ML方法對多模態傳感數據處理,使得綜合系統更難被攻擊。此外我們考慮了系統的彈性力。為了更容易地解讀工作規劃,我們使用了一個基于北約Anglova演習的單一綜合案例研究。
軍事行動通常涉及與聯盟伙伴合作,在面對快速演變的局勢時采取有效措施。實現聯盟態勢理解(CSU)既包括洞察力,即認識現有的情況,也包括預見力,即學習和推理,以便對這些情況進行推斷,利用整個聯盟的資源,包括各種模式的傳感器反饋和分析服務。因此,軍事信息處理系統需要能夠近乎實時地識別分布在時間和空間上的重要活動模式,而不會產生太多的錯誤告警信息。用信息處理的語言來說,這要求有能力識別一組單獨事件之間的關系。近年來,適用于CSU的人工智能(AI)和機器學習(ML)技術取得了重大進展。基于深度學習的人工智能系統正在不斷提高其識別此類單個事件的能力。然而,這種基于深度神經網絡的最先進的ML技術需要大量的訓練數據;但不幸的是,CSU中代表性訓練實例通常是稀少的。此外,基于ML的分析服務不能是 "黑盒子";它們必須能夠解釋它們的輸出,并量化它們在決策中的不確定性,以使用戶能夠校準他們對基于AI的資產的信任,并且這個過程應該是快速的。
我們描述了一種綜合的CSU方法,它將深度神經網絡與符號學習和推理,以及可解釋性和不確定性的技術結合起來,集成在一個有利于人類與人工智能合作的環境中。該方法支持多模式傳感數據的處理,并強調了兩個關鍵特征。
我們的方法是松耦合的,基于開放架構的開源軟件,基于人工智能的資產可以在網絡邊緣設備上運行,因此適用于戰術傳感器系統。我們的綜合方法旨在使基于人工智能的國防CSU系統具有以下特點:(1)適應性強,能夠以 "戰斗的速度 "學習和適應;(2)可信,意味著人類用戶能夠迅速校準他們對基于人工智能資產的信任;以及(3)對對手的攻擊和欺騙有彈性。本文報告了自2016年以來在美國/英國分布式分析和信息科學(DAIS)聯合計劃中進行的研究。為了更容易吸收該工作計劃,我們在一個綜合場景中介紹了關鍵的科學和技術組成部分:城市環境中的協調攻擊。
美國陸軍現代化戰略將人工智能(AI)確定為陸軍優先研究領域(PRA)之一[1]。作為美國陸軍作戰能力發展司令部(DEVCOM)科技事業的一部分,DEVCOM-大西洋前沿部隊今年發起了兩項新的人工智能倡議,以促進與外國學術界和工業界在該優先研究領域的合作機會。第一個倡議,即人工智能重點國際虛擬交流系列(AI FIVES)[2],是一個虛擬研討會,為國際組織提供一個平臺,向美國國防部主題專家和利益相關者介紹他們的人工智能研發活動和能力,促進討論和合作。在AI FIVES下促成的演講涉及的主題包括對抗性機器學習;強大和有彈性的人工智能;來自小數據的預測分析;可解釋和可信賴的人工智能;網絡和安全;用于改善態勢感知和決策的人工智能;以及有人和無人的互動和團隊合作。第二項倡議,xTechGlobal - AI挑戰賽[3],是陸軍助理部長(采購、后勤和技術)遠征技術(xTech)獎競賽項目[4]向國際參與者的首次擴展。xTechGlobal-人工智能挑戰賽從歐洲、非洲和中東的非傳統/小型企業技術開發商那里尋求創新的相關技術,以解決強大的人工智能能力問題,從而在嚴重的資源限制下,如計算能力和需求點的帶寬,管理、整合、處理并從不同的數據源中獲取信息,以便快速決策。在一次成功的競賽之后,有機會繼續并擴大xTechGlobal競賽,使之成為由大西洋、美洲和印度洋-太平洋地區不同地域的DEVCOM前沿要素贊助的其他優先挑戰主題。本文將討論這些舉措的起因、結果以及對陸軍更廣泛的人工智能研究活動的貢獻。
美國陸軍作戰能力發展司令部(DEVCOM)是美國陸軍未來司令部的一個主要下屬司令部,是陸軍的科學和技術領導者[5]。DEVCOM由八個主要的下屬單位組成,包括 軍備中心;陸軍研究實驗室;航空和導彈中心;化學生物中心;指揮、控制、計算機、通信、網絡、情報、監視和偵察中心;數據和分析中心;地面車輛系統中心;和士兵中心。除了實驗室和七個中心外,DEVCOM還有三個國際前沿單位。DEVCOM-美洲、DEVCOM-大西洋和DEVCOM-印度太平洋。指揮部為陸軍的六個現代化優先項目提供基礎科學研究、技術開發、工程和分析支持,重點是提供支持多領域行動的能力。
大西洋發展司令部在英國、法國、德國和以色列的國際技術中心(ITCs)安排了科學家、工程師和軍官。國際技術中心的作用是發展與盟友和親密伙伴的關系;與外國政府、工業界和學術界進行技術搜索;通過學術界、工業界和政府的伙伴關系,與外國伙伴確定基礎和應用研究的機會,提供強有力的科學和技術支持[6]。DEVCOM-Atlantic還包括科學和技術的實地援助(FAST)顧問,他們作為作戰司令部的陸軍單位和研究實驗室之間的聯絡人,確定關鍵需求和實驗機會,以支持陸軍的任務。
從2020年開始,DEVCOM-Atlantic發起了兩項新的倡議,以促進其地理區域內以人工智能(AI)為中心的學術界和工業界的合作機會。第一項舉措,重點國際虛擬交流系列(FIVES)為國際組織提供了一個平臺,向美國國防部主題專家和利益相關者介紹他們的人工智能研發活動和能力,促進討論和合作。第二項舉措,xTechGlobal是陸軍助理部長(采購、后勤和技術)遠征技術(xTech)獎競賽項目[4]向國際參與者的試點擴展,其中包括一個人工智能問題聲明。
可解釋的人工智能(XAI)提供了克服這一問題的手段,它基于有關深度學習(DL)算法結果的額外補充信息。雖然完全透明對于復雜的DL算法來說仍然是不可行的,但解釋有助于用戶在關鍵情況下對AI信息產品進行判斷。應該指出的是,XAI是透明度、因果關系、可信度、信心、公平、信心和隱私等方面的總稱。因此,基本的方法論是多方面的。一種已經流行的方法是局部可解釋模型-預知解釋(LIME)方法,因為它可以很好地應用于各種應用中的不同模型。在本文中,LIME算法是在戰略運營的決策建議背景下進行研究的。在簡單介紹了其概念后,介紹了文獻中的應用。然后,一個戰略博弈的場景被認為是軍事戰爭的替代環境。一個基于DL的國際象棋人工智能被做成 "可解釋的",以評估信息對人類決定者的價值。得出了與戰略混合行動有關的結論,這反映了所提出的方法的局限性。
根據設想,未來戰略戰爭的決策將在很大程度上受到基于人工智能(AI)方法的信息產品的影響。特別是混合作戰,是在一個高維和變異的環境中進行的,在這種環境中,對潛在的威脅和機會的評估是人類操作者難以掌握的,戰略規劃必須納入異質的、多功能的和高容量的數據源。因此,基于人工智能方法的算法產生的分類、預測和建議在這種復雜的場景中變得越來越重要。在過去的幾年里,人工智能的方法已經獲得了巨大的發展,有大量的創新和令人尊敬的成果,可以從大型數據集中獲得更高層次的信息。然而,深度學習(DL)方法的一個主要缺點是其固有的黑箱屬性,即由于計算模型的復雜性,其結果是不透明的。例如,后者可能有數百個層和數百萬個參數,這些參數是在訓練階段通過算法發現和優化的。因此,即使結果是準確的,用戶也沒有機會理解它或掌握輸入數據的因果部分。這反過來又會影響到用戶對輔助設備的信任,在兩個方向上都是如此。這個問題在某些民事應用中起著次要的作用,例如語音識別,它經常被應用于與設備的互動,因為除了體面的失望之外沒有潛在的風險。對于其他非常具體的任務,如手寫字符識別,DL算法的性能超出了人類的平均水平,這意味著失敗的可能性很小,因此關于因果關系的問題可能成為附屬品。然而,在許多軍事應用中,當涉及到與人工智能的互動時,人類的信任是一個關鍵問題,因為錯誤的決定可能會產生嚴重的后果,而用戶始終要負責任。這實際上是兩方面的。一方面,操作者往往需要了解人工智能產品的背景,特別是如果這些產品與他或她自己的本能相悖。另一方面,不可理解的技術會對算法信息產品產生偏見,因為很難確定在哪些條件下它會失敗。因此,適當的信任程度可能很難計算。
可解釋的人工智能(XAI)是向黑盒人工智能模型的用戶提供 "透明度"、"可解釋性 "或 "可解釋性 "的方法的集合。這些術語幾乎沒有一個共同的定義,但許多出版物提到了:
XAI不能完全 "解釋 "DL模型,然而,它為工程師或操作員提供了更好地理解特定AI產品背后的因果關系的手段。而且很多時候,這可以幫助看到,從合理的因果關系鏈暗示算法決策或預測的意義上來說,該模型是否是合理的(或不是)。因此,XAI可以成為人工智能模型工程的一個重要工具,用于安全方面的驗證,甚至用于認證過程,以及為操作員提供額外的信息,以支持明智的決策。
雖然關于XAI的大多數文獻都集中在圖像識別的方法上,但這些結果很難轉化為基于特定挑戰性競爭形勢的戰術和戰略決策領域。在本文中,我們研究了人工智能模型在棋盤評估中的可解釋性。對更復雜的軍事戰略模擬的一些影響進行了討論。
本文的結構如下。在下一節中,簡要介紹了選定的XAI方法。然后,這些方法之一(LIME)被應用于棋盤評估問題,以證明在支持信息方面的解釋的質量。在最后一節,得出了結論,并討論了對更復雜的戰爭博弈和模擬的概括。
記錄一個系統或集成系統內所有信息變化的出處,這提供了關于正在做出的決定和促使這些決定的重要信息。從取證的角度來看,這可以用來重新創建決策環境。然而,出處也可以為其他兩個重要功能服務。收集的數據可以支持組件的整合,而生成的圖形數據結構可以通過解釋、總結和告警來支持操作員進行態勢感知。混合戰爭將必然匯集不同決策支持能力,因為決策者必須在多個戰爭領域運作。自主代理將可能在計劃和執行過程中發揮作用,有時能夠在沒有人類干預的情況下做出決定,但人類決策者必須意識到這一點。事實證明,證據圖可以轉化為修辭結構圖(RSG),使代理能夠用自然語言甚至多模態交流,向人類解釋他們的行動。證據還被證明可以加強對計劃執行監控,并可用于向人類或自主代理提供通知,當計劃中使用的信息發生變化時,可能需要重新考慮計劃。隨著我們朝著智能機器在復雜環境中支持人類決策者團隊的方向發展,跟蹤決策及其輸入的需要變得至關重要。
出處是關于實體、活動、代理以及這些概念之間關系的信息[1]。這些信息不僅僅解釋了發生了什么,它還回答了關于實體如何被操縱、何時發生以及誰參與了這個過程的問題。我們很可能熟悉關于追蹤藝術作品出處的新聞和虛構的故事。任何實體的創造、破壞或修改的出處都可以被追蹤。在本文中,我們將重點討論軍事系統內的信息。在指揮與控制(C2)內,信息出處對于記錄行動背后的決策過程是必要的,特別是當自主和人工智能(AI)代理深入參與時。參與某一過程的 "誰 "可能是人類或人工智能代理。
信息出處有幾個目的。在取證方面,出處追蹤提供了參與決策的人和代理,以及數據是如何演化為該決策的。美國公共政策委員會指出,數據出處是算法透明度和問責制的一個明確原則[2]。完整記錄的出處可以闡明數據的依賴性、責任流,并幫助解釋為什么采取某些行動。隨著人工智能和自主代理繼續自動化進程,它們在做出關鍵決策時已變得更加不可或缺[3]。
俄羅斯總統弗拉基米爾·普京宣布 2021 年為俄羅斯科技年,11 月被命名為人工智能 (AI) 月,這表明俄羅斯領導層對這一總括性術語的濃厚興趣。俄羅斯國防部門尤其被這些人工智能技術相關機遇所吸引。近年來,人工智能、機器人技術以及將自動化和自主性進一步整合到武器系統和軍事決策中,都被強調為俄羅斯武裝部隊現代化的優先事項。
2017 年,普京有句名言:“人工智能是未來,不僅是俄羅斯,也是全人類……誰成為這一領域的領導者,誰就成為世界的統治者”。引用這句話,分析人士經常將俄羅斯的發展歸因于、測試和使用武器化的 AI 來與當前領先的 AI 開發商:美國和中國在所謂的全球 AI 競賽或全球技術競賽中競爭的必要性。雖然認為競爭和追趕的需求是俄羅斯動機的一部分,但它對軍事人工智能的興趣不應僅僅歸因于對相對實力的追求。要了解俄羅斯圍繞人工智能、自治和自動化的辯論的深度和復雜性,需要審查有關其對俄羅斯軍隊的戰略影響、自治的好處和風險,以及更廣泛地說技術現代化和技術現代化的重要性的討論。俄羅斯在世界上的地位的創新。
本報告旨在概述面向國際受眾的不同概念和動機,這些概念和動機一直并正在指導俄羅斯政治和軍事領導人實現其追求武器化人工智能的雄心。首先,它概述了俄羅斯軍隊追求人工智能、自主和自動化背后的各種外部和內部因素。其次,它介紹了俄羅斯在這一領域的一些計劃、對其能力的了解以及加強這些計劃所面臨的挑戰。第三,它深入探討了俄羅斯關于自主,特別是自主武器系統的辯論,以及關于開發所謂的“殺手機器人”或自主戰斗機器人的倫理討論,這是一個經常使用的術語在俄語文學中。
該分析基于對開源材料的調查,包括媒體報道、新聞稿、官方聲明和演講、同行評議的文章和智囊團報告,以及俄羅斯軍事期刊上的出版物。作者希望將其作為正在進行的博士研究項目的第一步,以及對新興的關于俄羅斯如何看待武器化 AI 的英語文獻做出貢獻。
本報告分析了自主、自動化和人工智能的概念——這三個術語在俄羅斯和國外經常相互混淆。值得從探索這些概念開始。自動化是一種基于特定動作或規則序列將任務委派給機器的方式,從而使流程更具可預測性。自動化系統是“根據預編程腳本執行具有定義的進入/退出條件的任務”。自主性是一個更復雜的過程,廣義上的意思是“對機器進行編程以執行通常由人員執行的某些任務或功能人類”,但沒有詳細的規則,因此更難以預測。人工智能可以定義為“數字計算機或計算機控制的機器人執行通常與智能相關的任務的能力。” 人工智能及其子集,例如機器學習,以及其在計算機視覺、面部和聲音識別等方面的應用,可用于實現武器系統更高水平的自動化和自主性。自主武器系統通常被定義為“一旦啟動,無需人工操作員進一步干預即可選擇和攻擊目標的機器人武器系統。” 聯合國安理會 2021 年 3 月發布的一份報告表明,土耳其制造的 Kargu-2在利比亞內戰期間,游蕩彈藥系統被編程為以自主模式選擇和攻擊目標。這被世界各地的媒體描述為首次使用致命的“殺手機器人”。但是,尚不清楚該系統在攻擊時是否真正自主運行。
【在人工智能進步的幫助下,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類】
圖1. 武器系統的自主性
同時,這些領域之間的能力并不總是相同的。在俄羅斯的案例中,自動化和無人機器人系統的開發比集成更現代的基于機器學習的系統更先進。俄羅斯軍事文獻中經常提到的“自動化”(автоматизация)過程——其他術語包括“機器人化”(роботизация)、“智能化”(интеллектуализация)或“數字化”(дигитализация)并不是一個新現象。 俄羅斯在自動化和遠程控制武器系統方面的能力相對優于其在人工智能總稱下整合機器學習和廣泛技術的其他子元素的能力。許多軍事決策者和分析人士的立場是,借助人工智能的進步,武器系統可以在自主范圍內進一步發展,承擔更多任務,并最終在戰場上取代人類。
任務指揮是一種分散指揮和控制的概念,它試圖將戰爭的克勞塞維茨的混亂性質作為一種優勢,通過允許下屬軍官在其指揮官的意圖范圍內行使主動權,并利用他們對其部署區域的更好的態勢感知,使采用它的一方獲得決策優勢。任務指揮,作為一種分散的軍事行動方法,被大多數西方武裝部隊作為一種理論并采用。然而,信息技術已經發展到這樣的程度,今天的指揮官們擁有先進的指揮和控制系統,與不遠的過去相比,這些系統使他們對局勢的認識和通信能力有了極大的提高。因此,克勞塞維茨的 "戰爭迷霧 "和 "摩擦 "概念受到了質疑,相應地,任務指揮也受到了質疑。
本文探討了在現代信息時代的戰爭環境中,任務指揮是否仍然是一個相關的指揮和控制概念。在此背景下,我不僅考察了該方法在戰爭中的有用性,從過去到今天,而且還考慮到了該舉措對培養有能力和有效力的軍事領導人的重要性。
本文表明,現代指揮和控制系統的能力使集中指揮不僅成為可能,而且更加有效。然而,戰爭仍然是一種混亂的現象。這類系統的冗余和彈性至關重要,在出現故障時,下屬指揮官必須有能力單獨行動。
任務指揮(Auftragstaktik)被許多學者和軍官認為是德國軍事藝術在現代戰爭中的最重要貢獻。至少在理論上,任務指揮受到北約大多數武裝力量的贊揚和提倡,他們強調地方指揮官在戰場上行使分散控制和主動權的重要性,以戰勝戰爭的不確定性并取得軍事行動的成功。
同時,大眾媒體和社會媒體的發展大大增加了軍事行動對社會的影響,至少在民主國家。今天,由于信息的快速無序流動和社交媒體的影響,即使是小的戰術行動也會對公眾輿論產生不成比例的影響。因此,政治和軍事領導人試圖對軍事行動進行嚴格的集中控制,以避免發展出不必要的情況。在這種情況下,任務指揮作為一個概念很難被接受和實施,因為它需要將權力和責任交給他人。
此外,目前的信息時代技術導致了現代C2系統的急劇進步,它為高級指揮官提供了前所未有的實時通信和態勢感知能力,聲稱要擊敗過去主導戰場的不確定性。由于這些系統的存在,越來越多的人傾向于由高層總部集中控制行動。因此,任務指揮部很少被充分應用,尤其是在戰術層面以上。雖然它作為一種方法存在于理論中,但作戰命令往往越來越詳細,而各級指揮部之間不斷的實時溝通,更減少了下級指揮官的主動性空間。
我將在本文中研究的問題是,在現代作戰環境中是否還有任務指揮的空間,或者換一種說法。信息時代和C2系統的發展是否已經使任務指揮部過時了?使其如此有效的條件是否已經不復存在,其程度如何?
人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。
縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。
幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。