軍隊正在研究改善其多域作戰(MDO)中的通信和敏捷性的方法。物聯網(IoT)的流行在公共和政府領域獲得了吸引力。它在MDO中的應用可能會徹底改變未來的戰局,并可能帶來戰略優勢。雖然這項技術給軍事能力帶來了好處,但它也帶來了挑戰,其中之一就是不確定性和相關風險。一個關鍵問題是如何解決這些不確定性。最近發表的研究成果提出了信息偽裝,將信息從一個數據域轉化為另一個數據域。由于這是一個相對較新的方法,我們研究了這種轉換的挑戰,以及如何檢測和解決這些相關的不確定性,特別是未知-未知因素,以改善決策。
現代世界受到了技術和全球連接的基礎設施動態的重大影響。隨著這種新環境的出現,許多領域的決策過程面臨更大的挑戰。領導者和決策者必須考慮各種因素的影響,包括那些屬于已知和未知的數據來源[9]。
雖然這不是一個新的概念,但在一些論文中已經提出了對已知和未知因素進行分類的定義。當條件是"已知-已知"(Known-Knowns):那么條件是有我們知道和理解的知識,已知-未知(known-Unknowns):條件是有我們不知道但不理解的知識,未知-已知(Unknown-knowns):條件是有我們理解但不知道的知識,以及"未知-未知"(Unknown-Unknowns):條件是有我們不理解也不知道的知識[6]。在圖1中,對知識的已知和未知分區的討論是圍繞一個問題展開的。圖中所選的是與對風險的認識和理解有關的。
在這四種情況中,"已知-已知"是最明顯的一種,人們可以對一個特定的問題有完整的了解,而 "未知-未知"則完全相反,也是最具挑戰性的一種。因此,重點應該是制定策略,以發現可能的未知數,從而將其轉換為已知數的數據。然而,在許多情況下,這可能不是小事,這可能需要應急計劃和適應性技能來應對不可預見的情況。
已知-未知的任務計劃需要被徹底觀察。然而,由于已知的部分,只要有足夠的時間和資源投入,就可以找到一個合理的方案。最后,為了處理未知數[11,22,23],人類是最著名的直覺模型,具有很強的預知能力[5]。因此,包括來自個人或團體的建議可以幫助對那些被遺漏的數據進行分類,從而被機器學習模型認為是未知的。
我們在圖2中提供了上述與我們的 "已知 "和 "未知"知識相關的不確定性區域的可視化表示。在這項研究中,我們將未知數視為圖像數據中未見或未檢測到的對象類別,通過應用第3.1節所述的圖像-音頻編碼方案,這些對象可以被發現或重新歸類為已知數。
圖2:我們提出的方法的可視化表示,說明了已知和未知對的前提。當我們離開綠色區域外的中心,踏入其他顏色的區域時,人類知識的邊界變得模糊和混亂。"?"代表需要探索的區域。紅色區域的點狀周長表示該區域的無界性,因為對該區域及其存在缺乏任何知識。向內的點狀箭頭表示目標應該是將這個紅色區域匯聚到任何可能的黃色、藍色或綠色區域。按照這個順序,理想情況下,每一個包絡區域都應該被收斂到它所包絡的區域。
任何決策都會受到風險存在的嚴重影響,任何能夠幫助識別和了解已知和未知的過程都是理想的。此外,對未知數據的識別和檢測可以使風險最小化。然而,面對先驗知識并不奢侈,只有少數數據樣本可供分析的情況很常見。軍事決策者,如指揮官,在做出關鍵決定時可能沒有什么選擇,最終可能完全依賴于他們的專業知識和新數據的輸入。他們可能會利用以前的經驗來分析傳來的信息,并捕捉可能的未知數據,以盡量減少風險。這種方法可能仍然不能涵蓋所有的未知因素。
本文工作的動機是決策中的主要挑戰,即我們完全依靠有意義的和足夠的數據來支持決策。另外,決策者必須對用于提供數據支持決策的技術的性能和結果有信心。因此,我們研究了當深度學習模型的性能由于缺乏豐富的數據樣本而受到限制時,如何提高決策過程中的信任水平。我們關注一個訓練有素的模型如何能夠高精度地檢測和識別未知(未檢測到的)物體;該模型區分新的觀察是屬于已知還是未知類別的能力。
這項工作背后的動力來自于美國陸軍的IoBT CRA項目中的一個問題,該項目將設備分為:紅色(敵人)、灰色(中立)、藍色(朋友)資產。類的屬性和行為是非常不確定的,與前面提到的第1.1節中的已知或未知的挑戰有關,因為要么來自友好來源的數據可能被破壞,要么敵人有可能被欺騙成友好數據來源[1,2,3,4]。因此,以較高的置信度對這些資產進行分類是一項具有挑戰性的任務。應對這一挑戰的最初步驟是,從這些設備中獲取數據,例如圖像、文本或音頻,并調查未知數據是否可以被分類為已知數據。
我們的方法包括選擇圖像數據和建立一個深度學習框架來解決分類的挑戰。圖像類被特別選擇來代表類似于軍事行動中常用的地形景觀。
因此,我們的框架由兩個獨立的部分組成;對從原始數據集獲得的圖像進行分類,以及對使用圖像-音頻編碼方案從圖像獲得的音頻信號進行分類(第3.1節)。
由于編碼將數據從一個數據域(圖像)轉換到另一個數據域(音頻),預計會有信息損失。為了解決上述轉換后的數據樣本的挑戰,我們提出了以下問題:當數據被編碼方案轉換后,我們能否提高模型的性能,從而將未知數轉換成已知數?我們怎樣才能彌補模型的低性能,從而使以前的未知數據能夠用于提高決策過程中的可信度?在模型的性能和正確分類數據以支持決策之間的權衡是什么?
全球信息網絡架構(GINA)是一個語義建模框架,旨在促進特設傳感器資產和指揮與控制系統的整合,因為它們可以通過被稱為矢量關系數據建模的實施方式提供給戰斗空間中的操作人員。為了評估GINA的互操作性和推理能力,開發了一個概念驗證評估,并在真實世界的傳感器數據上進行測試。
正如美國陸軍的多域作戰(MDO)概念所指出的,美國的對手試圖通過在政治、軍事和經濟領域的分層對峙來實現他們的戰略目標,而不是通過沖突來對抗美國軍隊和聯盟伙伴。此外,MDO概念指出,對手可能采用多層跨域對峙--跨越陸地、海洋、空中、太空和網絡空間,在時間、空間和功能上威脅美國和聯盟部隊。反擊這些戰略的中心思想是快速和持續地整合所有領域的戰爭(即融合),跨越時間、空間和能力,以戰勝敵人。
為了實現MDO的執行,聯合軍種、政府機構和多國伙伴之間的互操作性是一個關鍵要求。戰術行動已經越來越依賴于信息網絡的傳感、通信、協調、情報和指揮與控制(C2)。因此,美國陸軍不斷尋求提高其整合網絡系統的能力,并在不同的作戰節奏水平上實現同步效果。從歷史上看,由于沒有足夠的能力來支持現有的和新興的技術和進程,這種整合在以無處不在的物聯網(IoT)和軍事C2系統為特征的不斷發展的網絡化戰斗空間中帶來了技術挑戰。這種限制因不同系統的孤島而進一步加劇,限制了戰術、技術和程序的跨系統使用,以及支持硬件和軟件組件。這些限制使作戰人員面臨不一致和缺失的關鍵任務數據,促使作戰功能在孤立中運作。例如,行動和情報之間的數據交換是有限的,范圍也受到限制,增加了指揮官決策過程中的風險和延誤。
為了實現陸軍網絡現代化,陸軍未來司令部網絡跨職能小組(N-CFT)正在調查通過創新、整體和適應性的信息技術解決方案來實現網絡互操作性的顛覆性方法,以滿足既定的C2互操作性挑戰。根據NCFT的指示,美國陸軍作戰能力發展司令部(DEVCOM)陸軍研究實驗室(ARL)的研究人員評估了一項名為全球信息網絡架構(GINA)的技術,作為多源傳感器數據融合的系統解決方案,以支持決策。 根據其軟件規格,GINA的目的是減少在互操作和集成方面存在的技術挑戰,并支持及時的共同情報/作戰圖景和決策的情報分析。
目前,語義互操作是一個活躍的研究領域;近十年來,已經開發了一些軍事技術解決方案。語義互操作提供了促進快速整合來自臨時傳感器資產和異質C2系統的信息的手段,因為它們為戰斗空間中的操作人員所了解。這項初步評估表明,GINA能夠整合不同的傳感器系統,并對數據進行同質化和協調,以便在本次評估的實驗場景下提供解釋、分析和推理。在這一評估的基礎上,在與MDO的規模和復雜性相匹配的實地演習或實驗中進行進一步的評估可能是有意義的。具體來說,進一步評估的能力是:1)來自多個部門的傳感器和通信設備之間及時的互操作性;2)連接來自不同結構和標準的盟國、合作伙伴或商業數據流系統;3)豐富、數據分析、推理或增強其他決策支持C2系統;以及4)與其他技術解決方案的比較。
這項評估的綜合分析已經在DEVCOM ARL技術報告ARL-TR-9100中記錄和公布。
?在日益復雜的軍事行動環境中,下一代兵棋推演平臺可以減少風險,降低作戰成本,并改善整體結果。基于具有多模態交互和可視化能力軟件平臺的新型人工智能(AI)兵棋推演方法,對于提供滿足當前和新興戰爭現實所需的決策靈活性和適應性至關重要。我們強調了未來作戰人-機器交互的三個發展領域:由人工智能引導的決策指導,高計算力下的決策過程,以及決策空間的真實呈現。這些領域的進展將使有效的人機協作決策得以發展,以滿足當今戰斗空間日益增長的規模和復雜性。
關鍵詞:決策、交互、兵棋推演、人工智能、增強/混合現實、可視化
在傳統的兵棋推演中,指揮官利用一個共同的基于地圖的作戰地形,并在軍事決策過程(MDMP,方框1)中模擬各種因素的組合如何產生行動方案(COA)、可能的反擊行動、資源使用估計和預測結果(美國陸軍,1997年,2014年,2015年)。在幾天或幾周的時間里,MDMP過程導致了一套精煉的COAs,它對作戰環境做出了一定的假設,包括地形、天氣以及戰區資產的可用性和能力(即塑造支持主要作戰行動的活動)。
方框1. 軍事決策過程(MDMP) | |
---|---|
MDMP是美國陸軍解決問題的理論方法,從接到任務開始,到生成作戰命令結束。MDMP被用作一種工具,幫助指揮人員審查眾多的友軍和敵軍的作戰行動。MDMP的7個步驟在規劃新任務、擴展行動和執行訓練演習所需的決策過程中灌輸徹底、清晰、合理的判斷、邏輯和專業知識(美陸軍,1997年,2015年)。 | |
指揮官在接到任務后啟動了MDMP。在MDMP的第1步中,所有的工作人員和關鍵的任務參與者都被告知任務和待定的規劃要求,包括進行MDMP的可用時間量。確定進行任務分析所需的工具,并收集與任務和作戰區有關的文件。步驟2,執行任務分析,建立對任務的全面理解,包括關鍵的事實和假設,形成擬議的任務說明和任務分析簡報,為制定COA做準備。 | |
MDMP的第3至第6步著重于制定COA以進行分析和比較。這些步驟包括:第3步,制定COA;第4步,COA分析(兵棋推演);第5步,COA比較;第6步,COA批準。COA是對一個已確定的問題的潛在解決方案。每個COA都要使用篩選標準來檢查其有效性,如在既定的時間框架、空間和資源限制內完成任務。COA的選擇過程通常涉及到兵棋推演,它試圖在考慮到友軍力量和敵人能力的情況下,將行動的順序流程可視化,同時考慮到行動區域內平民的影響和要求(美陸軍,2014)。戰術模擬(兵棋推演)方法的好處是突出了作戰行動的優勢和劣勢。這往往是一個反復的過程,對作戰行動方案進行評估,然后根據需要進行修改,直到出現一個或多個具有最高成功概率的作戰行動方案來完成任務目標。 | |
在一個具體的行動方案得到指揮部的批準后,MDMP的最后一步是制作行動指令,這是一份給下屬和鄰近單位的指令,旨在協調所有參與任務的組織的活動。這一步驟涉及到所有受命令傳播影響的組織之間的積極合作,并建立起對局勢的共同理解。 |
盡管MDMP幫助指揮官了解作戰環境和考慮作戰方法,但這個過程有很多局限性,如時間密集、假設僵化、跨場景訓練的機會有限,以及將人工智能(AI)指導納入決策過程的機會很少。傳統上,一項任務的成功與指揮部執行MDMP的能力直接相關。然而,鑒于當今多域作戰(MDO)的復雜性增加(Feickert,2021年),有大量的任務指揮系統和流程,與行動相關的所有活動的整合和同步變得越來越困難,甚至到了人為無法完成的地步。由于MDMP的缺陷而導致的規劃專業知識的缺乏,可能會導致不同步和不協調的行動,從而最終導致士兵的生命損失。
MDMP中沒有具體描述戰斗空間的可視化能力,但它顯然在決策過程中發揮著重要作用。最近,集成了先進可視化能力的新系統和新技術已經被開發出來,它們可以提高態勢感知,從而增強決策過程。美陸軍的例子包括Nett Warrior(Gilmore,2015),它使下馬戰士能夠直觀地看到附近的友軍和敵軍,同時根據當地的地形協同規劃戰術任務。盡管這項技術將無線電和數字地圖擴展到了下馬戰士,但它缺乏一個底層的人工智能引擎來提供決策幫助。戰斗空間可視化和交互平臺(BVI,前身為增強現實沙盤,ARES)是陸軍技術的另一個例子,它能夠為任務規劃提供分布式協作,具有從任意視角和廣泛選擇設備的共同作戰畫面的二維和三維可視化能力(Su等人,2021)。BVI架構的制定是為了拉入外部計算服務,如分析管道、模型和人工智能引擎。美陸軍研究實驗室正在努力將這些類型的服務納入BVI,包括用于加強決策支持的人工智能。
目前,MDMP并沒有將人工智能指導納入整體任務規劃方法中。美陸軍的自動規劃框架(APF)(Bailey,2017)開始通過將自主技術插入MDMP工作流程來解決人工智能輔助決策問題。指揮人員可以通過APF的數字規劃呈現、規劃創建和規劃監控工具,在任務規劃和COA開發期間獲得背景援助。任務執行和估計能力通過監測任務的規劃和實際進展,為改進決策跟蹤和支持活動提供自動協助。盡管APF為MDMP引入了基本的自動化水平,但它缺乏Nett Warrior和BVI所提供的先進的可視化和用戶互動能力。
提供地面部隊自動化和用戶可視化能力的是美陸軍最知名的兵棋推演平臺--半自動化部隊(OneSAF),為計算機生成的地面部隊提供建模和模擬能力(PEO_STRI, 2022)。OneSAF提供了半自動和全自動的軍事實體(即士兵、坦克、直升機和綜合單位)的建模,在類似真實世界的戰斗空間中以不同的保真度來支持特定的應用和場景。OneSAF主要用于訓練,并與目前的任務指揮系統具有互操作性。它可以使用多分辨率的地形和詳細的實體相關數據庫來模擬廣泛的作戰環境。然而,OneSAF對地形和實體系統的高保真建模的優勢使得它的設置和運行成本很高。它受到老化系統的限制,而且眾所周知,士兵需要大量的培訓來學習如何操作模擬,使用起來很困難(Ballanco,2019)。OneSAF的復雜功能并不適合開發人工智能能力,以實現快速和敏捷的戰士-機器決策。
除了MDMP和上面提到的陸軍平臺外,最近將人工智能納入決策過程的工作包括一些方法(Goecks等人,2021a),在模擬人類決策過程方面取得了一些成功。一般來說,人工智能在決策變量有限的問題上取得了一些成功,如資源分配(Surdu等人,1999)、飛行模擬器(Drubin,2020)和更簡單的場景。正在進行的挑戰包括需要提高人工智能的能力,以解決有多個行為者、不完整和可能沖突的信息、不斷變化的單位行動和環境屬性的復雜決策,以及需要將這些決策的后果在許多空間和時間尺度和領域內可視化。
以下各節描述了對MDMP的潛在改進。"未來軍事決策過程所需的進步"一節概述了支持MDO決策的三個研究領域,并以圖表形式描述了這些研究領域與軍事理論決策方法之間的關系。"未來軍事決策過程所需的進步 "一節中的小節對每個研究領域進行了更深入的討論。"展望推進人-人工智能團隊決策的交互技術 "一節概述了未來的作戰人員-機器接口(WMI)的發展方向,重點是與決策有關的人-人工智能團隊的跨學科研究。
軍事決策過程在支持MDO復雜決策方面的局限性,突出了在三個研究領域的改進需要。首先,有必要將人工智能產生的指導和輔助決策支持納入MDMP。這既包括進一步開發和整合人工智能到戰斗空間決策規劃,也包括進一步改善人工智能決策過程的可解釋性和透明度(Chen等人,2018)。第二,有必要在戰略層面以及戰術邊緣,盡可能地將決策分析與高性能計算(HPC)的力量結合起來。這將能夠利用HPC系統的力量來支持建模、分析和計算時間,同時整合和同步來自所有戰區領域的信息。最后,有必要利用先進的可視化技術,如混合現實技術,對決策空間進行更準確和互動表述。不是簡單地在一個固定的時間尺度上顯示地形的二維渲染,而是需要可視化不同領域的決策是如何相互作用的,并利用混合現實技術來提高理解的吞吐量,并產生平面顯示不可能的洞察力。
除了MDMP之外,其他更廣泛適用的支持戰斗性問題解決的軍事理論包括:DOTMLPF[例如,學說、組織、訓練、物資、領導、人員和設施;(美陸軍,2018年)],這是一個確定差距并為當前和未來作戰要求提出設計解決方案的框架;以及METT-TC[例如,任務、敵人、地形和天氣、部隊、可用時間和民事考慮;(美陸軍,2019年)],這是一個結構化框架,用于捕捉任務相關因素的狀態,以便在軍事行動期間進行共享評估。這些理論定義了MDO戰場的信息背景,構成了應用于上述三個研究領域的軍事決策的核心基礎。如圖1所示,在為人類和人工智能指揮開發復雜軍事決策空間的新表述時,研究進展和MDO相關理論相互借鑒、相互啟發、相互加強(美陸軍,2010)。
圖1. 新型作戰人員-機器交互(WMIs)和人工智能輔助決策所需的三個研究發展領域,以支持和加強基本的MDO理論[右下圖來源:Lebsack(2021)]。
需要新的人工智能支持的WMI,以利用人工智能決策方面正在取得的進展,并為復雜的適應性決策的人工智能學習作出貢獻。在簡化的戰斗空間中測試人工智能決策輔助工具是開發過程中重要的第一步,也是將人工智能納入更成熟的戰斗空間平臺(即BVI、OneSAF)的前奏。開發用于決策輔助實驗的人工智能測試平臺可以在MDO中產生能力越來越強的潛在COA建議。圖2顯示了陸軍開發的兩個人工智能測試平臺的例子。
圖2. 兩個ARL人工智能測試平臺的例子。左邊:ARL Battlespace(Hare等人,2021)( //github.com/USArmyResearchLab/ARL_Battlespace )。右邊:ARL的Simple Yeho測試平臺。圖片由C. Hung制作。
人工智能測試平臺能夠開發出匯集所有領域信息的AI,并計算出人類和AI智能體的風險和預期回報。圖2的左側顯示了ARL戰斗空間測試平臺(Hare等人,2021年),它是從頭開始開發復雜決策的新型人工智能的理想場所。它對戰斗空間的抽象強調了軍隊相關場景下的核心推理原則,在這種情況下,用蜜罐進行網絡欺騙。較小的網格空間使人工智能的學習和發展能夠集中在不確定性下的復雜推理,有多個友好和敵對的agent。圖2的右側顯示了ARL的Simple Yeho測試平臺,它提供了將人工智能開發與更多真實世界場景中的默契推理結合起來的能力,有多個基于地形的海拔高度、視線范圍、障礙物、樹葉(隱蔽)、道路和城市區域。紅色陰影和黑色線條表示任務的起點和終點、左右邊界以及人工智能建議的路線。這種額外的真實性使其能夠與MDO理論相結合,包括DOTMLPF和METT-TC,并使人工智能與自然的、機會主義的士兵行為共同發展。這兩個人工智能測試平臺都可以擴展為傳統和沉浸式混合現實WMI開發平臺。
使用漸進式和可擴展的人工智能測試平臺,可以調查現有人工智能的幾個基本限制,特別是對于具有不確定性的復雜和適應性決策,以及人類和AI智能體的協作和對抗。對多智能體的協作和對抗性決策進行建模可能特別復雜,因為其遞歸性質,其他智能體是模型的一部分(Goldman,1973;Grüning和Krueger,2021),需要對決策特征、個性化的價值、風險規避、記憶和注意力進行動態和不斷發展的估計。這些具有高度不確定性、復雜性和動態性的情況是人類擅長的領域,適當設計的交互界面和人工智能測試平臺的人機協作可以提供加速和更有效的決策。對于有效的團隊合作,新穎的WMI應該幫助作戰人員篩選復雜的信息,并幫助人工智能發現決策的隱含規則。下面,我們提供了關于人機協作如何有效的案例。
多域兵棋推演中需要的復雜決策是開發有效人工智能決策輔助工具的直接挑戰。最近人工智能在圍棋、國際象棋、Minecraft和大富翁等游戲中的成功(Silver等人,2017;Goecks等人,2021b;Haliem等人,2021)是基于對世界現有狀態有完整了解的游戲(即 "開放 "游戲),而兵棋推演平臺通常包括關于作戰環境的不完整(如星際爭霸)、不確定或欺騙性信息(Vinyals等人,2019)。不確定性也可能來自變化的物理學或其他環境規則,正如在《憤怒的小鳥》中所探索的那樣(Gamage等人,2021)。由于世界狀態、不同行動者的狀態以及所采取的行動不確定性,知識的缺乏使得人工智能agent難以計算未來行動的風險回報情況(Cassenti和Kaplan,2021)。不確定性也限制了人工智能估計其他行為者的風險回報概況的能力,而這是計算有效的博弈論策略所需要的。人工智能被可能的最優和近似最優選擇的廣度所淹沒(Lavine,2019),即由于信息有限而選擇錯誤的選項,這種情況并不罕見,因為人類在制定有效探索隱藏信息的策略時,采用啟發式方法進行有效的選擇和預測(Gardner,2019)。為了幫助發展人工智能的隱性知識和探索能力,新型的WMI需要有效地解釋和展示決策景觀,以使作戰人員能夠快速和自然地瀏覽可能的選擇,同時使人工智能能夠在不施加認知負擔的情況下從人類的決策中機會主義地學習(Lance等人,2020)。這種機會主義學習可以包括:例如,凝視跟蹤,以捕捉吸引人類興趣和意圖的視覺區域和未標記的目標。它們還可以包括建立在自然的士兵選擇行為基礎上的行動者批評方法,以改善人工智能對人類專家在不確定、不完全信息和欺騙的情況下如何優先考慮某些選擇的學習,這取決于任務相關的背景。
開發人工智能的WMI的另一個基本挑戰是如何有效地整合和顯示MDO中所有五個領域的信息,特別是空間和網絡,因為這些領域的信息具有不同的時空尺度(Gil等人,2018)。對于網絡,決策的規模和速度可能比人類處理和理解的能力更快,需要人類的輸入來指導半自動化的決策,以及實施進攻和防御性欺騙策略的人工智能。WMI需要能夠以這樣的方式顯示決策圖景,即可以解釋一小部分最優和接近最優的決策策略(例如,圖3中的決策樹)。這應該包括對關鍵agent在不確定情況下的未來狀態和風險回報情況的估計(Hare等人,2020),以使有效的博弈論決策能夠被共同開發和相互理解。
圖3. 在頂部,是BVI網絡戰術規劃器應用程序中友軍與敵軍戰爭場景的三維視圖。三維視圖提供了一個比二維視圖更真實的決策視角,例如,顯示友軍(藍色)和敵軍(紅色)機載預警系統(AEWs)和周圍地形的海拔。這使得快速審查可能的視線和相對于周圍地形的感應。下面是人工智能的導航決策樹,為人工智能計算的幾個關鍵選擇的風險/回報概況以及它們如何映射到地形上提供透明度。這種抽象的決策空間還可以整合非空間決策,例如網絡欺騙。虛線表示與友方AEW的通信聯系和對敵方AEW的可能干擾。圖片由C. Hung制作。
這些挑戰為有效的WMIs設計提供了參考。也就是說,我們需要有能力從不同的來源(包括從其他國家的決策輔助工具)提取信息,以及一個能夠承載整合這些信息的計算能力的架構,同時還要處理基礎的人工智能計算(用于學習和部署)。我們還需要共同開發一個界面和算法設計,以適時地利用人類和人工智能agent的優勢并減少其局限性。
在復雜的決策過程中,需要大量的計算能力來處理和記錄所有組件、實體和狀態空間。從積累的動態狀態空間的數據集中建立過去、現在和預測模型,需要利用HPC資源來產生分析性的見解,并在決策背景下創建有用的表述。
實施HPC分析工作流程的一種方法是使用持久性服務框架(PSF)。PSF是一個最近可用的分布式虛擬化解決方案,它可以通過一個基于網絡的前端實現對HPC服務的非傳統訪問,而不像傳統的HPC環境,計算節點在特定的時間段內以批處理模式分配給用戶。此外,PSF提供對數據、數據庫、容器化工具集和其他托管平臺的分布式連續訪問(Su等人,2021)。
在一個PSF方法的例子中,一個模擬引擎連接到PSF,用于記錄人類和人工智能做出的所有決定。這允許分析在任務規劃和COA開發過程中發生的決策行為,以及識別決策模式和戰略,以開發競爭性和現實的兵棋推演場景。一個戰斗空間可視化平臺可以托管在PSF上,并使用消息傳遞協議來更新所有連接的設備接口。來自模擬引擎的狀態信息可用于生成戰斗空間和參與作戰單位的圖形表示。
使用PSF方法并利用HPC資源,可以實施人工智能輔助決策機制,利用大數據攝取和分析,同時可供地理分布的用戶用于協作決策工作和 "永遠在線 "的個性化培訓和紅色團隊。連接到PSF托管服務器的各種混合現實顯示模式可以支持一系列作戰場景,從戰略層面的指揮和控制到作戰邊緣的更多移動戰術使用。
用圖形表示各級行動的軍事決策戰略需要新的可視化方法,這些方法可以應用于以規則變化、認知狀態、不確定性以及個人偏見和啟發式方法為特征的動態環境(Dennison等人,2020;Hung等人,2020;Raglin等人,2020)。戰斗空間的視覺表現應該在技術上盡可能準確和逼真,但又保持在人類可以理解和解釋的認知水平(Kase等人,2020;Larkin等人,2020;Hung等人,2021)。融合了混合現實技術的先進可視化方法有可能更好地表現多領域戰爭的變化特征及其不斷變化的威脅和動態環境。隨著最近混合現實可視化設備的技術進步,成本降低,硬件的可靠性和實用性顯著提高,混合二維和三維可視化方法現在已經成為可能。
由多個二維顯示器組成的混合現實方法增強了更先進的三維可視化能力,可以為指揮人員提供理解復雜的兵棋推演狀態空間所需的洞察力(Su等人,2021)。當需要一個共享的戰斗空間表示時,可以通過在不同的可視化模式上實現多個協調的視圖來實現協作的戰略規劃模式,以根據分布式指揮人員的輸入進行互動更新。
BVI(Garneau等人,2018)平臺表示地理空間地形信息和地圖圖像,允許指揮人員建立和修改戰術任務規劃和COA。作為一個數據服務器,BVI將地形和作戰數據分發給支持多種可視化模式的客戶端應用程序,包括頭戴式顯示器設備、基于網絡的界面、移動安卓平板設備和混合現實設備(例如,HoloLens 2、Oculus Quest)。
例如,圖3(頂部)顯示了位于加利福尼亞州圣貝納迪諾縣歐文堡國家訓練中心的高分辨率地形上的友軍與敵軍的兵棋推演場景(Wikipedia, 2021)。與MDMP期間經常使用的傳統2D地圖顯示相比,戰斗空間的3D視圖可以從多個觀察角度提供更豐富的用戶體驗。三維視圖,在BVI的網絡戰術計劃器(WTP)中,將地形和人工特征的空間信息以及由MIL-STD 2525C符號描繪的單位位置可視化(美國防部,2014)。可以想象,地理空間視角,如BVI提供的視角,支持決策者對動態戰斗空間環境的理解。與可導航的人工智能增強的決策空間(圖3,底部)搭配,組合的視角可以使人們更好地理解視覺空間依賴性、影響和因果關系、估計的風險和價值、不確定性以及復雜決策的欺騙性。將這種以地理空間和決策為中心的視角與人工智能相結合,可以提供必要的廣度,以協調物理行動與網絡和其他非空間領域的行動,跨越多個時間尺度,并具有快速適應變化的任務目標的靈活性。
人工智能和人-人工智能團隊的快速發展需要WMI同步發展。隨著新型人工智能對有價值的COA產生更好的預測,并能更好地處理復雜的決策,它們也必須利用人類的專業知識,學習如何處理具有高度不確定性、欺騙、隱性知識和博弈論的決策。相反,人工智能的推理必須既抽象又能與兵棋推演環境相聯系,以實現透明和信任,同時又不造成過度的認知負擔。基于三維混合現實的WMI可以利用和增強人類固有的三維認知和預測能力(Welchman等人,2005;Kamitani和Tong,2006;Kim等人,2014;Boyce等人,2019;Krokos等人,2019),如果設計得當,其交互將感覺自然,同時擴大顯示多個領域的信息的能力,同時使AI能夠適時地從用戶的決策中學習。
我們強調了三個關鍵的發展領域,即人工智能引導的決策指導,支持這種指導的計算基礎設施,以及決策透明度的混合現實表現的發展。這些領域的進步需要跨越許多不同學科的專業知識。新的人工智能發展需要融合神經科學、心理學和數學的思想,以克服復雜決策中長期存在的問題的瓶頸。這包括跨時間尺度的學習和變化環境下的災難性遺忘,以及更具體的兵棋推演問題,如具有不確定性、欺騙和博弈論的多Agent決策。計算基礎設施也需要發展,因為計算能力和數據框架對于在戰術邊緣產生人-人工智能團隊的共同操作圖來說都是必不可少的。為了有效地開發,應該通過一個共同的框架來抽象出專有的限制和軟件的依賴性,并為使用和故障排除提供清晰的文檔,以使學術界、政府和工業界更好地專注于解決人與人工智能的合作問題。這個通用框架應該包括有效的信息傳遞,同時提供靈活性和適應性,以滿足人工智能開發和人類用戶在訓練和實際使用環境中的需求。最后,交互技術的開發本身需要跨學科的協同專業技術。一個基礎性的問題是如何壓縮信息使之被用戶有效地理解,以及如何最好地利用用戶的互動來進行機會主義學習。人類的大腦并不處理所有的感官信息,而是對世界進行預測和假設,以便在信息不完整的環境下節約計算。一個有效的WMI應該同時預測潛在的決策結果以及個人用戶的期望和假設。此外,人工智能決策輔助工具必須估計用戶的默契,使其能夠提供最相關的信息和最有希望的選擇,這些信息來自整個作戰領域。
信息作戰和指揮與控制(C2)是美國陸軍可以向盟友和伙伴提供的兩種能力。在未來的作戰環境中,不僅要為動能作戰做準備,而且要為混合作戰和以信息為重點的戰爭做準備。這需要在復雜和默契推理的人工智能能力方面取得進展,在能夠提供持續訓練、分布式混合決策和大數據分析系統方面取得進展,以及在人與人工智能協作決策和機會主義學習方面取得進展,以實現人工智能的持續進步和人與人工智能的共同適應。這些進展中的每一項都需要跨學科的計劃性努力,以克服復雜的技術挑戰,創造新的決策原則、理論和理論方法,包括持續開發綜合測試平臺和技術,以實現政府、學術界和工業界的合作和協同發展。
本文討論了F-35 "閃電"戰斗機對挪威皇家空軍指揮與控制(C2)可能的影響方式。它強調了協調的重要性,回答了有關F-35的實施對其他能力相互依賴性的影響問題。這一基礎被進一步用來討論對C2核心要素的可能影響,如程序、人員、通信和信息系統。基于F-35系統的能力,發現挪威武裝部隊中跨領域和C2級別的相互依存關系的發展;這些相互依存關系的復雜性,既受到空中行動執行的影響,也受到環境突發事件的影響,意味著組織需要靈活使用協調機制。我們發現,相互依存關系,以及如果要獲得成功所需的協調,對涉及F-35的空中行動指揮和控制有影響。我們建議該組織應更積極地使用分層和水平結構,以適應跨領域和C2級別的知識和信息共享。程序需要包括授權的方法和系統,人員需要了解相互依存關系和多域作戰。最后,通信和信息系統必須是可用的、可互操作的和強大的。
關鍵詞:挪威,F-35,指揮與控制,相互依賴,多團隊協調
博弈論提供了一些分析工具,旨在幫助人們更全面地理解決策者互動時出現的現象。博弈描述了玩家之間的戰略互動,他們在利益的指引下,意識到自己的行動會影響到對方。所有博弈論模型中的基本實體是玩家。博弈者可以被理解為一個人、一群人或任何類型的組織,甚至是面臨決策挑戰和機會的國家或聯盟。在這方面,"能力 "這一概念為優化國防資源分配所需的規劃 "游戲 "要素提供了維度和變量。本文開發的模型側重于在假設的能力上分配可用的國防資源,以實現對國家安全的最佳響應。參與國防資源管理的戰略決策者與國家安全威脅之間的競爭是一種博弈。
戰爭是一種代價高昂的經濟活動。博弈論提供了一些分析工具,旨在幫助人們更全面地理解決策者互動時發生的現象。博弈描述了參與者之間的戰略互動,他們以自己的利益為導向,并意識到他們的行動會影響對方。所有博弈論模型中的基本實體是玩家。博弈者可以被理解為一個人、一群人或任何類型的組織,甚至是需要做出決定的國家或聯盟。
為了描述一個理論博弈,我們需要明確四個基本要素:玩家、行動、報酬和信息。Rasmussen用PAPI的縮寫來指代這些要素[2]。
為了在博弈論的基礎上建立一個能夠描述最佳防御資源分配的模型,并確定規劃的 "游戲"要素,需要對 "防御能力 "有一個全面的概念性理解。
澳大利亞國防軍將 "防御能力 "定義為 "在指定的環境中,在指定的時間內達到預期的作戰效果,并在指定的時間內保持這種效果的能力"[3]。這包括多種投入的綜合效果,如:人員、組織、訓練、主要系統、物資。美國國防部將軍事能力定義為 "在規定的標準和條件下,通過執行一系列任務的手段和方法的組合,達到預期效果的能力"[CJCSI/M 3010系列]。它包括四個主要部分:部隊結構、現代化、戰備和可持續性。
這兩個定義都是圍繞著 "效果 "的概念。這使我們想到一個問題:"在有限的可用資源(如分配的國防預算)的壓力下,在設計了某些能力以應對某些威脅后,可以采取什么決定來最大化一般的安全效果?"
本文建立的模型側重于在假定的能力上分配可用的國防資源,以實現對國家安全的最佳反應。參與國防資源管理的戰略決策者與國家安全威脅之間的競爭是一種博弈。
記錄一個系統或集成系統內所有信息變化的出處,這提供了關于正在做出的決定和促使這些決定的重要信息。從取證的角度來看,這可以用來重新創建決策環境。然而,出處也可以為其他兩個重要功能服務。收集的數據可以支持組件的整合,而生成的圖形數據結構可以通過解釋、總結和告警來支持操作員進行態勢感知。混合戰爭將必然匯集不同決策支持能力,因為決策者必須在多個戰爭領域運作。自主代理將可能在計劃和執行過程中發揮作用,有時能夠在沒有人類干預的情況下做出決定,但人類決策者必須意識到這一點。事實證明,證據圖可以轉化為修辭結構圖(RSG),使代理能夠用自然語言甚至多模態交流,向人類解釋他們的行動。證據還被證明可以加強對計劃執行監控,并可用于向人類或自主代理提供通知,當計劃中使用的信息發生變化時,可能需要重新考慮計劃。隨著我們朝著智能機器在復雜環境中支持人類決策者團隊的方向發展,跟蹤決策及其輸入的需要變得至關重要。
出處是關于實體、活動、代理以及這些概念之間關系的信息[1]。這些信息不僅僅解釋了發生了什么,它還回答了關于實體如何被操縱、何時發生以及誰參與了這個過程的問題。我們很可能熟悉關于追蹤藝術作品出處的新聞和虛構的故事。任何實體的創造、破壞或修改的出處都可以被追蹤。在本文中,我們將重點討論軍事系統內的信息。在指揮與控制(C2)內,信息出處對于記錄行動背后的決策過程是必要的,特別是當自主和人工智能(AI)代理深入參與時。參與某一過程的 "誰 "可能是人類或人工智能代理。
信息出處有幾個目的。在取證方面,出處追蹤提供了參與決策的人和代理,以及數據是如何演化為該決策的。美國公共政策委員會指出,數據出處是算法透明度和問責制的一個明確原則[2]。完整記錄的出處可以闡明數據的依賴性、責任流,并幫助解釋為什么采取某些行動。隨著人工智能和自主代理繼續自動化進程,它們在做出關鍵決策時已變得更加不可或缺[3]。
應對氣候變化對北約具有戰略意義。對可能的氣候措施和后果進行充分知情的決策支持分析將決定北約如何很好地應對這一挑戰。環境科學和軍事行動分析的結合將使各國和聯盟能夠做出明智的決定,有可能減少溫室氣體排放和成本,并提高行動效率。
挪威國防部已責成挪威國防研究機構(FFI)在軍事要求規定的范圍內研究挪威武裝部隊減少溫室氣體排放的潛力。
我們對挪威武裝部隊未來的排放量進行了建模,并對七項措施的減排量和成本進行了量化。總的來說,這些措施有可能使溫室氣體排放相對于未來排放的基線減少15-30%,平均估計為22%。此外,我們還確定了幾個同樣重要的措施,這些措施的減排量可能難以量化。
武裝部隊的軍事平臺有很長的服務壽命。現在投資于能源效率低下的解決方案將在未來許多年內產生排放和成本。因此,我們建議,排放預測在采購決策和長期國防規劃過程中得到更突出的作用。
挪威武裝部隊的活動對環境產生了一些負面影響。鑒于武裝部隊任務的性質,其中一些影響是不可避免的。對環境的影響進行了持續的調查,并每年進行報告。國防部門的溫室氣體排放在國際和國內得到了越來越多的關注,挪威國防部責成挪威國防研究機構(FFI)研究減少挪威武裝部隊溫室氣體排放的潛力。
本文的目的是在軍事要求規定的范圍內,對這種潛力進行建模。這項研究并不包含國防部門可能的環境措施的完整清單。我們已經優先考慮了目前知識缺乏的領域。我們還考慮了一個新提出的海上戰爭替代概念的排放效應。這不應該被理解為一種減排措施,它是一種提高能力和降低成本的措施。然而,我們希望證明這樣一個概念的排放后果,并將其作為一個例子,說明如何在國防部門利用技術來實現更多的氣候效率解決方案。
在本章中,我們將簡要地討論氣候變化和對挪威武裝部隊可能產生的后果。在接下來的章節中,我們將說明我們的分析方法和數據、結果和結論。
將多個領域的軍事能力融合以提高效能的學說預示著國防的新時代,其特點是能夠承受更高的作戰規模和節奏,這得益于戰場自動化和協作水平的提高。然而,要獲得這些技術進步的潛在好處,前提是要找到應對無數挑戰的成功解決方案,以便在競爭環境中實現智能、異構、交互資源的更高效和可擴展的操作。換句話說,提高防御能力的自動化和協作需要更智能的“戰場操作系統”——一個在排除人類參與時間尺度上管理復雜自動化任務的系統,同時賦予作戰人員足夠的控制權。我們將此操作系統稱為戰場物聯網 (IoBT)。
在本文中,我們將重點關注維護 IoBT 所依據的三個優勢原則(在現代沖突中)所面臨的挑戰。即,
(i) 時間是武器;贏家是那些將傳感器和行動者之間的延遲最小化的人
(ii) IoBT 是一個戰斗網絡;所有功能都必須經受住主動、堅定和技術成熟的對手
(iii) 需要機器智能;需要一種新型的 AI 解決方案,可以快速預測到需要的點,在那里它們可以在嚴酷的現場操作環境中生存,而不是將 AI 限制運行在更高級別數據中心的解決方案中。
戰場物聯網協作研究聯盟(由政府和學術界研究機構組成的聯盟,由美國陸軍作戰能力發展司令部資助,稱為 DEVCOM,陸軍研究實驗室 (ARL))針對上述挑戰制定的解決方案是討論了:
我們特別關注涉及機器自動化和危害人工智能本身的威脅。雖然國防科學在研究保護有形資源的解決方案方面有著悠久的歷史,但一旦自動化進入循環并被依賴作為手動操作的優越替代方案,自動化或人工智能 (AI) 就需要同樣強調保護,因為它對作戰優勢至關重要。因此,戰場物聯網解決的一個關鍵挑戰是保護 IoBT 本身的效率、功效和完整性。
圖1:多域作戰(MDO)效應循環圖
圖2:分布式虛擬試驗場(DVPG)的概念架構
當代和新出現的安全威脅以及從最近的軍事行動中吸取的教訓已經證明,為了在傳統的物理領域(陸地、空中、海上、太空)實現作戰目標,確保在非物理領域的主導地位至關重要,即網絡空間、電磁環境(EME)和信息環境。因此,除了物理作戰領域之外,在非物理領域取得優勢的能力對于實現戰役的軍事和非軍事目標具有決定性意義。
作戰人員將面臨消除沖突,協作,同步和整合行動的挑戰,以實現并發揮協同效應以應對多種威脅,其中可能還包括來自每個作戰領域對手的武裝沖突閾值以下的行動,包括非物質的。
本文探討了作戰環境聯合情報準備 (JIPOE) 作為支持聯合作戰規劃、執行和評估的主要工具的作用和意義,從而有助于多域作戰 (MDO) 的同步和協調。在這方面,基于政治、軍事、經濟、信息、基礎設施-物理、時間(PMESII-PT)方法,不可能將對當代作戰環境(OE)的分析局限于物理領域及其與非物理領域的關系。相反,作者們相信,確定一種合適的方法來關注在非物理領域單獨或聯合進行的活動影響,它們在PMESII-PT所有領域的相互融合和實際操作領域的相關性,將大大有助于友軍識別和評估對手的重心(COG)、關鍵弱點、意圖和行動路線(COAs)的能力,包括各自的指標。JIPOE將為聯合部隊指揮官(JFC)提供OE的整體視圖,將與戰術層面密切合作、共享和開發,通過結合不同領域的能力,應該能夠壓倒對手的部隊。這種集中控制和分散執行的方法將有助于在作戰和戰術層面之間產生協同效應。
未來的軍事行動將以物理和非物理層面的融合為特征,眾多不同的行為者將在其中運作。任何部隊都需要適應極其復雜的作戰環境和大量的作戰變量,需要適應性地使用一系列武器系統來產生致命和非致命的效果。因此,除了物理作戰領域(即陸地、空中、海上和太空),在非物理領域(網絡空間、EME、信息環境)取得優勢的能力將對實現戰役的軍事和非軍事目標具有決定性意義[1, p.280]。
OE是影響能力運用和影響指揮官決策的條件、環境和影響因素的綜合體[2, p.3]。了解OE的因素和條件不僅是所有計劃活動,特別是行動設計的關鍵前提,也是友軍保護和許多其他相關任務的關鍵前提[3, p.41]。
JIPOE代表了一種系統的方法,用于分析有關OE和對手的信息。它可以應用于全部的軍事行動。指揮官和參謀部在危機背景、根本原因和具體動態方面,對戰區形成共同的理解和整體的看法。它使指揮官能夠直觀地看到問題的程度,以及他們如何塑造和改變OE,使之成為他們的優勢,這將為他們的決策提供信息[2, p.3-5]。
JIPOE產品極大地促進了聯合(即作戰)層面的軍事行動的規劃和執行。現代軍隊,特別是北大西洋公約組織(NATO)內的軍隊,幾十年來在討論跨領域(陸、海、空)的協調行動時一直使用聯合這一術語。如今,由于全球安全環境的巨大變化以及俄羅斯和中國日益增長的野心,為了挑戰潛在的同行對手,需要采取多領域的方法。在傳統的戰爭門檻下,盟國及其合作伙伴已經受到了跨越物理和非物理領域的持續攻擊[4, p.2]。MDO一詞不同于聯合行動,因為它旨在關注跨越多個領域的行動,而不考慮服務的歸屬,不一定是由多個部門進行的行動[5,p.49]。
圖1:支持聯合行動的當前JIPOE流程的可視化。
圖2:提出支持MDO的JIPOE過程方案。
paper1:
paper2:
工業和政府中兩個或多個數字設備之間的數據傳輸需要安全和敏捷的技術。數字信息分發通常需要部署物聯網設備和數據融合技術,這些技術在民用和軍事環境中也越來越流行,例如智能城市和戰場物聯網(IoBT)的出現。這通常需要從多個來源捕獲和整合數據。由于數據集不一定來自相同的傳感器,因此融合數據通常會導致復雜的大數據問題。美國陸軍研究實驗室研究了一種多傳感器方法,使得異構物聯網設備助力軍用任務開展。此外,提出了一種信號到圖像編碼方法,用于轉換信息(信號)以將來自物聯網可穿戴設備的數據集成(融合)為圖像,該圖像是可逆的且更易于可視化支持決策[1]。
由于物聯網數據集的潛在敏感性,區塊鏈技術用于促進物聯網數據集的安全共享,這允許數字信息被分發,但不能被復制。然而,區塊鏈在復雜性、可擴展性和過度能耗方面存在一些限制。提出了一種通過將信息(傳感器信號)轉換為圖像或音頻信號來隱藏信息的方法。該研究了實現智能識別和檢測操作的挑戰,并證明了所提出的深度學習和異常檢測模型的可行性,這些模型可以支持利用來自可穿戴設備的手勢數據的未來應用[2].
人工神經網絡在解決特定剛性任務的分類問題時,通過不同訓練階段的廣義學習行為獲取知識。由此產生的網絡類似于一個靜態的知識實體,努力擴展這種知識而不針對最初的任務,從而導致災難性的遺忘。
持續學習將這種范式轉變為可以在不同任務上持續積累知識的網絡,而不需要從頭開始再訓練。我們關注任務增量分類,即任務按順序到達,并由清晰的邊界劃分。我們的主要貢獻包括:
(1) 對持續學習技術的分類和廣泛的概述;
(2) 一個持續學習器穩定性-可塑性權衡的新框架;
(3) 對11種最先進的持續學習方法和4條基準進行綜合實驗比較。
考慮到微型Imagenet和大規模不平衡的非自然主義者以及一系列識別數據集,我們以經驗的方式在三個基準上仔細檢查方法的優缺點。我們研究了模型容量、權重衰減和衰減正則化的影響,以及任務呈現的順序,并從所需內存、計算時間和存儲空間等方面定性比較了各種方法。
//www.zhuanzhi.ai/paper/c90f25024b2c2364ce63299b4dc4677f
引言
近年來,據報道,機器學習模型在個人任務上表現出甚至超過人類水平的表現,如雅達利游戲[1]或物體識別[2]。雖然這些結果令人印象深刻,但它們是在靜態模型無法適應其行為的情況下獲得的。因此,這需要在每次有新數據可用時重新啟動訓練過程。在我們的動態世界中,這種做法對于數據流來說很快就變得難以處理,或者可能由于存儲限制或隱私問題而只能暫時可用。這就需要不斷適應和不斷學習的系統。人類的認知就是這樣一個系統的例證,它具有順序學習概念的傾向。通過觀察例子來重新審視舊的概念可能會發生,但對保存這些知識來說并不是必要的,而且盡管人類可能會逐漸忘記舊的信息,但完全丟失以前的知識很少被證明是[3]。相比之下,人工神經網絡則不能以這種方式學習:在學習新概念時,它們會遭遇對舊概念的災難性遺忘。為了規避這一問題,人工神經網絡的研究主要集中在靜態任務上,通常通過重組數據來確保i.i.d.條件,并通過在多個時期重新訪問訓練數據來大幅提高性能。
持續學習研究從無窮無盡的數據流中學習的問題,其目標是逐步擴展已獲得的知識,并將其用于未來[4]的學習。數據可以來自于變化的輸入域(例如,不同的成像條件),也可以與不同的任務相關聯(例如,細粒度的分類問題)。持續學習也被稱為終身學習[18]0,[18]1,[18]2,[18]3,[18]5,[18]4,順序學習[10],[11],[12]或增量學習[13],[14],[15],[16],[17],[18],[19]。主要的標準是學習過程的順序性質,只有一小部分輸入數據來自一個或幾個任務,一次可用。主要的挑戰是在不發生災難性遺忘的情況下進行學習:當添加新的任務或域時,之前學習的任務或域的性能不會隨著時間的推移而顯著下降。這是神經網絡中一個更普遍的問題[20]的直接結果,即穩定性-可塑性困境,可塑性指的是整合新知識的能力,以及在編碼時保持原有知識的穩定性。這是一個具有挑戰性的問題,不斷學習的進展使得現實世界的應用開始出現[21]、[22]、[23]。
為了集中注意力,我們用兩種方式限制了我們的研究范圍。首先,我們只考慮任務增量設置,其中數據按順序分批到達,一個批對應一個任務,例如要學習的一組新類別。換句話說,我們假設對于一個給定的任務,所有的數據都可以同時用于離線訓練。這使得對所有訓練數據進行多個時期的學習成為可能,反復洗刷以確保i.i.d.的條件。重要的是,無法訪問以前或將來任務的數據。在此設置中優化新任務將導致災難性的遺忘,舊任務的性能將顯著下降,除非采取特殊措施。這些措施在不同情況下的有效性,正是本文所要探討的。此外,任務增量學習將范圍限制為一個多頭配置,每個任務都有一個獨占的輸出層或頭。這與所有任務共享一個頭的更有挑戰性的類增量設置相反。這在學習中引入了額外的干擾,增加了可供選擇的輸出節點的數量。相反,我們假設已知一個給定的樣本屬于哪個任務。
其次,我們只關注分類問題,因為分類可以說是人工神經網絡最既定的任務之一,使用相對簡單、標準和易于理解的網絡體系結構具有良好的性能。第2節對設置進行了更詳細的描述,第7節討論了處理更一般設置的開放問題。