亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

研究集成人類推理、機器學習和因果學習的重要性

  • 專注于人類推理的可視化和因果推理方面
  • 提供可信賴和安全的自動化和人工智能工具
  • 為人類操作員提供可解釋和可操作的信息
    • AI/ML模型和仿真模型:
      • 一致
      • 可解釋,沒有黑盒性
      • 在廣泛的應用中為一系列用戶測試理論,如
        • 戰役/任務規劃
        • 未來作戰概念的設計和模擬
        • 戰士培訓等,允許提出不同的問題很容易
  • 與ML/AI的發展,以及圖靈測試相聯系
    • 對研究人工智能、認知和元認知的重要性
    • 人工通用智能(AGI):一個知識系統總是和我們在一起,自我學習并幫助我們學習

付費5元查看完整內容

計算思維和數據科學的進步導致了人工智能系統的新時代,這些系統被設計來適應復雜的情況并開發可操作的知識。這些學習系統旨在可靠地理解情況的本質,并構建關鍵的決策建議,以支持自主和人機團隊的運作。

同時,數據的數量、速度、種類、真實性、價值和變異性的不斷增加,使這些新系統的復雜性受到影響--在其開發和實施方面造成了挑戰。對于支持具有較高后果的關鍵決策的人工系統來說,安全已經成為一個重要的問題。需要有方法來避免故障模式,并確保只允許期望的行為。

元認知是一種解決策略,它能促進人工智能系統內部的自我意識,以了解其外部和內部的運行環境,并利用這些知識來識別潛在的故障,實現自我修復和自我管理,以實現安全和理想的行為。

人工智能戰爭決策輔助工具通過增強戰斗空間知識、解決不確定性、推薦戰術行動方案、制定交戰戰略來支持作戰人員決策。

付費5元查看完整內容

現代戰術戰爭需要迅速而有效的決策和行動,以便在經常是高度動態和復雜的戰區保持競爭優勢。需要考慮的因素的數量因不確定性、事件的快速發展和人為錯誤的風險而放大。自動化、人工智能和博弈論方法的潛在應用可以為作戰人員提供認知支持。這項研究以自動兵棋推演輔助決策的形式探索了這些應用。該團隊為這個未來的系統開發了一個概念設計,并將其稱為兵棋推演實時人工智能輔助決策(WRAID)能力。

頂點項目的目標是探索自動化、人工智能和博弈論的應用,作為支持未來WRAID能力的方法。該團隊為WRAID能力開發了需求、概念設計和操作概念。該小組確定并探索了可能對未來實施WRAID能力構成障礙的挑戰性領域。該小組調查了與使用人工智能來支持戰爭決策有關的倫理挑戰和影響。

本報告首先對與WRAID能力相關的主題進行文獻回顧。文獻回顧從人工智能的回顧開始,提供了一個關于人工智能如何工作以及它能夠完成什么類型任務的概述。文獻綜述探討了人機協作的方法,以支持未來指揮官和人類用戶與WRAID系統之間的互動。需要翻譯指揮官的意圖,并讓WRAID將有意義的輸出傳達給指揮官,這需要一個強大的界面。審查包括傳統的兵棋推演,以研究目前的模擬兵棋推演是如何進行的,以便深入了解,未來的WRAID能力如何能夠實時復制兵棋推演的各個方面,并認為以前的兵棋推演可以為人工智能和機器學習(ML)算法的發展提供訓練數據。ML算法的訓練需要大量的代表性數據。文獻回顧研究了人類的認知負荷,以深入了解人類大腦的認知技能和上限;并確定人類思維的極限,以顯示人工智能可能提供的支持。文獻綜述中涉及的最后一個主題是,傳統的計劃和決策,以了解目前在軍事上如何制定戰術行動方案。

該小組進行了需求分析和利益相關者分析,探索WRAID能力如何支持作戰人員。該小組在需求分析的基礎上為WRAID系統開發了一套需求。這些要求被歸類為:硬件/軟件,人機界面,和道德規范。第一階段的分析結果包括 (1)戰爭的復雜性需要發展一種未來的WRAID能力,這種能力利用自動化方法,包括人工智能、ML和博弈論,(2)WRAID能力需要大量的計算能力和復雜的軟件算法,(3)實現未來WRAID系統的挑戰將是技術和道德的。

未來WRAID系統的概念設計是基于需求分析的。概念設計被記錄在一套系統模型中,包括背景圖、系統視圖、功能工作流程圖和操作視圖。該團隊開發了一個作戰場景,以支持對WRAID能力如何在作戰中使用。

在開發WRAID的過程中,預計會有一些路障。開發WRAID系統的技術是存在的,然而,研究小組發現數據挑戰、人工智能訓練、程序限制和當前系統工程的局限性將是需要解決的障礙。數據挑戰指的是獲得足夠的數據集的能力,這些數據集代表了訓練ML算法所需的真實世界的戰術行動和兵棋推演分析。程序性挑戰包括國防部實施網絡安全、機密數據、數據庫訪問和信息分配協議的能力。系統工程方面的障礙是需要新的方法來設計安全和可靠的人工智能系統,如WRAID能力。將需要SE方法來處理不可預見的故障模式,并在系統生命周期的早期確定根本原因。

對像WRAID能力這樣的人工智能系統的倫理考慮是系統發展的一個重要因素。開發系統以取代倫理學,將使系統更有可能被部署。有幾個有道德問題的自主武器系統被拉出來作為WRAID能力的道德對話的基礎。通過一個示例場景,對道德狀況進行定性分析,以了解在部署WRAID能力時可能出現的道德問題。倫理學在未來的技術中發揮著巨大的作用;從一開始就考慮到倫理學,建立技術是很重要的。

未來的重點需要放在繼續對想象中的WRAID系統采取正規的系統工程方法。WRAID系統需要一個強大的數據集,需要收集和注釋;收集的定性兵棋推演數據越多,WRAID系統的可行性和準確性就越高。與軍事部門的合作對于最大化WRAID的利益至關重要,例如情報和偵察組織。WRAID的模擬將是完善系統要求和創建現實模型的關鍵。關于如何使用WRAID的培訓和文檔應該同時開發,所以利益相關者,特別是指揮官已經準備好,知道如何使用這個新工具。未來的研究領域包括認知工程、基于正式模型的系統工程和人機協作。

隨著目前技術進步的速度和外國的目標,人工智能將在未來的沖突和戰爭中發揮作用。自上而下的指令將需要設計和實施WRAID能力:提供大量的資源,解決操作和文化變化,重組系統工程,并確保網絡安全和收購變化。實現未來的WRAID能力并不是一個微不足道的任務。然而,它對確保現在和未來的戰斗空間優勢至關重要。

付費5元查看完整內容

人工智能(AI)是機器顯示出來的智能行為。在日常用語中,當機器模仿人類進行學習和解決與認知功能相關的問題時,就會使用人工智能這個術語。人工智能中關鍵問題包括推理、規劃和學習。在軍事應用中,人工智能在不同軍事層面使用的系統中變得越來越重要,不管是從戰斗層面還是到戰術和作戰層面,人工智能都有極其重要的作用。這一發展導致決策支持系統被用于營級和旅級。基于通過以用戶為中心涉及軍事人員的結構化活動收集的經驗數據,本研究調查了人工智能如何在指揮和控制系統中應用。我們研究了它在情報和作戰過程中的用途。我們討論了人工智能方法如何用于決策支持的過程,這些過程提供了一個共同的作戰圖景,使用威脅分析來預測敵人的行動,并在執行前分析自己部隊的替代行動。我們的結論是,人工智能對武裝部隊的好處是,當時間有限或選擇太多,人們無法分析所有備選方案時,它可以提供關鍵的系統支持。我們相信,在指揮和控制系統中成功實施人工智能的一方可以成為分析信息的最優和最快的一方,并因此可以更快做出決策,獲得對對手的作戰優勢。

關鍵詞:人工智能;指揮與控制;OODA環;分析;規劃;執行

1 介紹

《牛津詞典》對人工智能(AI)的定義如下:"計算機系統的理論和開發,能夠完成通常需要人類智慧的任務,如視覺感知、語音識別、決策和語言之間的翻譯"。

目前,很難想象有什么比人工智能更突出的流行語了。當然,隨著最近性能的進步,人工智能在一些任務上的表現甚至超過了人類,如下圍棋、皮膚癌檢測和語音識別,而且使用它有一些很好的理由。

這些進展的共同點是都與深度學習(DL)這個子領域相關。深度學習是指由多層非線性處理單元組成的機器學習模型。通常,用人工神經網絡來表示這些模型,在這里,神經元指的是一個單一的計算單元,其輸出是通過一個(非線性)激活函數輸入的加權和(例如,一個只有在信號為正時才通過的函數)。

基于人工神經網絡的深度學習系統被稱為深度神經網絡(DNN),由并聯神經元組成的大量串聯層構成。對大量數據的處理和強大的計算機以及一系列創新(例如初始化策略和數據規范化)的結合使這些大容量網絡能夠成功訓練。表示學習是DNNs高性能的主要原因之一。使用 DL 和 DNN,不再需要手動制作學習特定任務所需的特征。相反,判別特征是在 DNN 的訓練過程中自動學習的。

應該強調的是,DNN不是解決所有人工智能問題的靈丹妙藥,根據具體場景和任務,還需要其他人工智能概念和機器學習模型。

根據McCann和Pigeau的說法,指揮和控制(C2)被定義為 "建立共同意圖以實現協作行動"。在軍事背景下,C2的核心問題如下:

  • 如何從一大批資源中獲得集體效應?
  • 如何處理內在的不確定性?
  • 如何能以比敵人更快的速度對敵方產生影響?

以比敵人更快的速度產生影響,迫使敵人做出反應而不是采取行動。實現這一目標的先決條件是要能夠處理大量的信息,并對不確定因素進行有效的建模。

為了以一種結構化的方式解決這些問題,C2總是伴隨著C2系統。C2系統由人、組織、流程、方法和設備組成。正如Brehmer所提到的,C2系統的產品是命令,為了產生命令,系統需要促進(i)數據收集,(ii)推理/感知(即分析信息并確定需要做什么),以及(iii)規劃(即把需要做的事情變成可以做的事情)。

對于軍事部門而言,將 AI 納入 C2 系統的好處在于,當時間有限或選項數量過多以至于人們無法分析替代行動方案時,它可能會提供關鍵系統支持。因此,在戰術和作戰層面使用人工智能的戰略重要性怎么強調都不為過。Ayoub和Payne寫道:"特定領域的人工智能可以從根本上轉變軍事力量的對比,使人工智能發展成熟的一方具有更強的軍事力量。特定領域的人工智能將對沖突產生變革性影響,并且與之前的軍事能力變革一樣,它有可能深刻地破壞戰略平衡。戰術和作戰系統最有希望被改變,而且這些系統將產生戰略影響。

在這份概念文件中,我們討論了AI方法在決策支持系統(DSS)中的應用。根據瑞典武裝部隊指揮與控制學校舉辦研討會的經驗數據,我們確定了人工智能在現有C2系統中對之前列出的C2的三個核心問題可能產生重大大影響的領域和任務。此外,我們還討論了人工智能方法的不同方面以及它們對具體任務的相應適合性。具體來說,能夠解釋人工智能產生的某些建議可能是基于人工智能的決策支持系統的核心。

本文的其余部分安排如下:在第2節中,我們介紹了C2系統的動態觀察、定位、決定和行動環路模型,并描述了以用戶為中心的方法,該方法被用來發現C2系統的挑戰,在這些挑戰中,人工智能有可能被利用來發揮作用。然后在第3節中總結了以用戶為中心的活動的結果。第4節和第5節分別介紹了在研討會上確定的人工智能方法在一些重點任務中的機會和挑戰。最后,第6節專門討論結論。

2 方法論

對于一個特定的任務,C2過程是一個高度動態的過程,正如博伊德所啟發的那樣,在某種程度上可以被抽象為一個動態的觀察、定位、決定和行動的循環(所謂的DOODA循環),如圖1所示。命令轉化為軍事活動,而軍事活動又會導致一些效果被摩擦(影響效果的未知因素)所過濾。這些影響由傳感器(在最廣泛的意義上,從電子傳感器到人的觀察)觀察這些影響,并將傳感器數據與來自系統內部狀態的數據(例如任務的進展)一起收集。對任務至關重要的事件與任務、資源和約束一起被識別并且確定。最后,命令依據規劃過程確定計劃、分配資產、評估風險、估計、選擇和排練計劃等。這個循環一直持續到任務完成、失敗或撤消。DOODA循環的所有階段都與C2系統必須考慮的一些不確定性有關。

圖1:DOODA-環的說明

在 C2 系統中的DSS中要處理的任務具有復雜性和多樣性等特點。因此,在不久的將來,我們不太可能擁有一個人工智能,它在給定所有可用傳感器數據和內部系統狀態的情況下簡單地輸出一組建議的命令。相反,在DSS中逐步引入人工智能似乎更有可能達到效果。為了確定當前武裝部隊C2系統中導致DOODA-循環速度降低的瓶頸所在,并確定哪里可以改進,我們采用了以用戶為中心的設計(UCD)方法。這種方法使最終用戶和非專業人員都可以發表意見,否則他們幾乎沒有機會影響未來技術的發展。UCD的特點是在一個復雜過程中使用適當的設計方法和設計活動。這些方法和活動取決于手頭的問題,需要哪些專家知識,以及最終用戶、設計工程師和決策者的可及性。這個想法是,設計師和設計工程師是促進設計活動和成為設計專家的推動者,而最終用戶和其他利益相關者被認為是各自領域內的專家。這明確了角色和能力,以便有關未來設計選擇和采購的決策可以基于相關和準確的信息。

在UCD哲學的啟發下,進行了一次結構化的頭腦風暴,目的是為了獲得有關用戶需求的更深層次的知識,并能夠設想未來C2系統的發展。參與者包括瑞典武裝部隊指揮與控制學校的軍官、設計工程師和研究人員。結構化的頭腦風暴內容包括個人和聯合的頭腦風暴活動,以及對需求的優先排序。

頭腦風暴中要回答的問題涉及到人工智能系統在C2系統背景下的目的、由誰和在哪里受益。為了確保考慮到未來技術的全部可能性,與會者被明確告知不考慮任何有關財務、法律和技術挑戰的問題。與會者被要求首先單獨寫下他們的想法。然后,所有參與者將這些想法分成若干組,每個組都有一個代表性的標簽。最后,為了評估所產生的想法的優先級,每個參與者在1到3的范圍內對三個不同的想法進行優先排序。

3 研究結果

三個不同的組別被確認:分析(和監測)、規劃和執行。這些都可以與前面描述的DOODA循環中的感知、規劃和行動過程聯系起來。鑒于參與者的背景和經驗,這并不令人驚訝。就重要性而言,分析組被認為具有最高的優先權,其次是規劃,然后是執行。

在分析組中,可以確定三個不同的子組:尋找信息、匯編信息和檢測信息中的異常情況。與尋找信息有關的例子是量身定做的搜索(針對個人或角色)和信息的自動元標記(例如,主題或安全級別)。在信息編纂子組中列出的一個想法是自動更新共同的作戰圖。最后,識別報告和命令之間以及報告之間的不一致被列為與檢測異常相關的示例。

規劃組內的想法可以分成兩個子組:規劃支持和戰術開發。在規劃支持方面,提出的想法有:地形分析(例如,以最小的可探測性顯示路線)、后勤計劃(例如,從A到B需要x、y和z)、預測敵人對形勢的認識、預測敵人的行為(從理論到實際數據)以及自動提出行動計劃。對于戰術的發展,有人提出將強化學習用于空戰和海戰,這將有可能引出新的軍事理論。

在執行組中列出的想法側重于為指揮官評估行動方案,以及在執行行動期間簡化軍事總部的人員工作。提出的兩個具體想法是自動生成(定制)報告摘要的人工智能和自動將語音轉錄為文本的人工智能。

4 機遇

今天,非軍事部門推動了人工智能的創新。然而,開發的技術和概念非常通用,可以用于軍事系統。在本節中,我們將討論在瑞典武裝部隊指揮與控制學校舉辦的研討會期間提煉出的一些問題背景下使用 AI 的機會。

重點是為分析形勢提供決策支持,并為我們自己的部隊提出和評估行動。我們確定了幾個子任務:分析當前形勢,為制定計劃提供決策支持,評估已經制定的規劃和執行過程中的規劃,為動態重新規劃提供決策支持,并隨著事件的發展不斷擴展和完善規劃

為獲得良好的決策支持,最重要的部分是為當前問題構建一個適當的知識表示。知識表示提供了一個框架,人工智能方法將在其中工作。構建知識表示是一個智力問題。鑒于這一點已經做得很好,決策支持的其余部分是在表示框架內的數學問題,并為決策者提供一個良好的演示。如果我們假設規劃、評估、實施和動態重新規劃的操作可以用具有多種可能值的參數形式完全描述,并且用幾種有效性措施(MOE)對這種計劃進行評估,那么問題就是要找到一個能提供良好MOE的計劃。

4.1 用于分析的人工智能

在分析階段,人們對信息進行處理和組合,以構建一個通用態勢圖(COP)。這包括對傳入的信息進行分類,確定當前的情況,構建一個動態更新的COP,并檢查自己的系統是否被欺騙了。利用信息融合技術,可以根據收到的一連串情報并且報告自動生成一個戰術性的行動計劃。因此,分析階段本身就很重要,但它還有一個進一步目的,即它的結果構成了在接下來的計劃和執行階段的決策支持的可用輸入。

理解已確定的情況意味著什么的方法很重要;"目前對理解的強調是由于英國軍事指揮官意識到一種軍事傾向,即對錯誤的問題匆忙采取精確的解決方案,而沒有充分考慮背景。美國指揮官也意識到了這一點"。這些指揮官認為有必要在進行數據分析、信息融合的基礎上構建一個抽象的COP并開始解決手頭的問題之前,制定方法來定義問題的框架。這是傳統上由情報單位進行的工作,但應該被納入總部的所有職能中。

研討會強調了三個不同的分析子組,它們都與信息處理有關:尋找信息、匯編信息和檢測信息中的異常情況。

尋找信息的問題存在于許多不同的尺度上。例如,一個常見的情況是檢索一組涉及某個主題的類似文件。如果所有的文件都有其主題的元標簽,那么這個過程就會很快。元標簽可以通過半監督學習自動進行。Salakhutdinov和Hinton使用深度自動編碼器的形式進行深度學習,將非常高維的文檔輸入向量(歸一化的字數)轉化為低維的潛在向量空間,其中相鄰的向量對應于相似的文件。學習自動編碼器本身可以以無監督的方式進行。然后,一個自動元標簽算法可以通過使用一些主題標記的樣本在潛空間中定義特定的聚類來構建。

在不同的尺度上尋找信息,可以確定文件中與某一主題相關的實體。例如,提取與后勤有關的物品和數量可以加速部隊調動的規劃過程,等等。在自然語言處理中,這個問題被稱為命名實體識別,神經網絡與命名實體詞典的結合已經顯示出很好的效果。

最后一個子組包含了與異常檢測有關的想法。目前最先進的異常檢測方法是使用深度自動編碼器作為基礎。假設“正常 "數據點位于自動編碼器的非線性低維嵌入模型上,因此在被自動編碼器解碼時具有較低的重建誤差。相反,異常值往往有較大的重建誤差。所描述的方法適用于大多數的問題,從檢測傳入傳感器數據中的異常到標記與標準非常不同的報告都可以適用。與異常檢測組相關的具體想法是檢測報告和命令中的沖突信息。最近的工作表明,在對兩個句子是否沖突進行分類方面取得了一些可喜的成果。

4.2 用于規劃的人工智能

對于規劃行動,人工智能與模擬的結合是一個富有成效的組合。那些必須規劃軍事行動的人可以進行 "如果 "測試,以衡量不同規劃的預期效果。目標是盡可能真實地模擬軍事行動產生的不同影響。這既包括對戰場的影響,也包括對道德、后勤和難民等其他因素的影響。

在演習中獲得的軍事知識可以幫助決策支持系統進行任務規劃這一點也同樣重要。在規劃制定要實現的目標、有效分配資源、執行任務以監控任務進展和根據需要重新規劃活動時,都需要這種知識。

在規劃過程中和計劃執行之前,可以用定性或定量的方法對計劃進行分析。在分析行動方案(COA)的定性方法中,一個強調論證模型之間相似性和差異性的框架可以用來選擇和完善觀點來評判軍事行動。這樣的框架在決策支持系統中很有用,可以對軍事計規劃進行支持和反對。當不同的規劃小組提出多個 COA 時,概念框架用于記錄領域專家對這些 COA 的批評。為了創建結構化的批評并系統地評估 COA 的某些方面,我們向專家提供了一個模板。這種方法有助于在規劃階段對備選COA進行結構化分析。

作為定性分析的替代方法,可以使用定量的方法。一個例子是將人工智能和多智能體系統結合起來組成紅隊。在軍事規劃和決策中,組建紅隊有一個長期的傳統劃分模式。一個藍隊代表我方的目的、目標和利益,而敵人則由紅隊代表。通過讓紅隊模仿敵人的動機、意圖、行為和預期行動,己方可以測試和評估自己的行動方案,找出利用敵人弱點的機會,并學習了解藍隊和紅隊的互動動態。組建紅隊是一種了解所有可能影響一個系統及其決策的設備的方法。從本質上講,敵人是一個單位,它和我們存在競爭關系,并采取行動阻止我們實現目標。在這里,可以集成人工智能和多智能體系統以支持決策和規劃。它允許決策者探索可能影響目標的事件發展情況,發現和評估我們自己的弱點,學習了解敵人的行為并找到獲勝的策略。

同樣值得一提的是最近關于為北約開發可操作的數據耕作決策支持工作(MSG-124),該工作使用數據耕作方法(即大規模并行模擬、數據分析和可視化)來分析模擬系統的輸出,其中有數十萬種地面戰爭作戰計劃的備選模擬。這是一種將模擬與大數據分析相結合的定性方法。

4.3 用于執行的人工智能

在執行行動時,重要的是迅速將可通過人工智能方法進行融合和分析的戰場信息送到指揮官手中。指揮官需要這些信息,以便在緊張的情況下迅速做出關鍵決定。處理和傳遞給指揮官的信息量往往很大,以至于存在信息過載的重大風險。如果信息沒有按照指揮官理解的邏輯、并且以簡明和有意義的方式呈現,就會出現問題。

除了人工智能和信息融合之外,高級模擬是決策支持系統框架內的一種重要方法,其中模擬可以與人工智能方法進行交互。 Moffat 和 Witty 開發了一種決策和軍事指揮模型,有助于深入了解軍事決策過程。 在這個模型中,軍事行動可以看作是一系列連續的對抗。 該模型基于博弈論和對抗分析。對抗不同方面的看法是基于他們對當前局勢的看法以及他們能夠采取的替代行動。該模型可用于高級模擬,以評估決策支持系統框架內的行動。

自2008年以來,美國國防部高級研究計劃局(DARPA)已經為軍事戰術指揮和控制開發了一項名為 "深綠"(DG)的技術。DG幫助指揮官發現和評估更多的行動選擇,從而積極主動地管理一項行動。DG背后的方法旨在進入對手的OODA環內。其想法是,決策應該非常迅速以至于OODA-環被分解成一個極快的OO-環,它提供一個定制的DA-環,當前的情況信息被用來模擬自己和對手的許多決策組合,以及模擬和評估這些選擇。該計劃在2013年被移交給美國陸軍。DARPA在DG之后采取了進一步的措施,最近開展了一個名為實時對抗性情報和決策(RAID)的研究項目,使用預測分析、人工智能和模擬來分析對手的行動 。

RAID開發的技術可以幫助戰術指揮官估計敵方部隊的位置、實力和目的,并有效打擊對手的行動時預測他們可能的戰術動向。這包括識別對手的意圖,預測對手的戰略,發現欺騙行為,規劃自己的欺騙行為,生成戰略等。這些問題發生在軍事行動的規劃、行動的執行、情報分析等方面。為了實現這一目標,RAID將用于規劃的人工智能與認知建模、博弈論、控制論和機器學習相結合。

機器學習也可以用來制定戰斗的戰術。然而,許多機器學習算法的速度不足以在空戰等應用中找到智能體的最佳行為。Q-learning是一種強化學習算法,已被成功用于評估空戰目標分配。該算法在不使用任何大型數據集或先驗數據的情況下,為智能體的行為學習最佳狀態-行動對。

有時,我們需要為一連串的類似場景學習行為規則。在這種情況下,我們可以使用遷移學習來減少學習時間。例如,當我們學習不同的2對2場景下的空戰規則時,我們可以先使用已經有2對1場景下戰斗經驗的智能體。一個實驗表明,在2對1場景中已經獲得的經驗在2對2場景中是非常有利的,因為進一步的學習所花費的成本是最小的。以這種方式使用遷移學習可以使智能體的行為在新的場景中得到快速發展。

如第3節所述,人工智能促進執行的重點還在于使工作人員在執行業務的過程中更有效地工作。其中提到的一個想法是自動生成報告摘要。確定的需求來自于分層的組織結構,每個上層都會收到來自相連的下層的報告,因此,如果不進行總結,可能會有一個指數級增長的信息向上傳遞。在過去,自動文本總結是提取式的,即從原始文件中剪切和粘貼相關的完整句子。隨著最近的深度學習技術--序列到序列模型的出現,抽象化的總結方法也隨之出現。抽象方法能夠產生摘要,其中產生了原始文件中不存在的新的表述方式。

另一個被提及的想法是將語音轉錄為文本。自計算機興起以來,機器學習一直是語音識別系統的基礎。今天最先進的算法都是基于深度學習技術。例如,微軟在2017年提出的算法能夠達到與人類相同的錯誤率。

5 挑戰

在本節中,我們討論了將人工智能納入決策支持系統時的一些潛在挑戰。具體來說,我們討論了當前人工智能技術的可行性和可解釋性。

5.1 可行性

研討會上浮現的不同想法具有不同的技術成熟度。 例如,美國軍方長期使用基于人工智能的后勤規劃工具“部署和執行聯合助理”(JADE),美國海軍研究實驗室開發了一種名為“狙擊手”的任務規劃和訓練工具 -RT。后者的工具是圍繞三維地形數據建立的,可以回答 "我能看到什么 "或 "我在哪里能被看到 "這類問題,這些問題在放置傳感器或保護部隊時是至關重要的。另一個技術上成熟的人工智能問題是自動語音識別。微軟、谷歌、亞馬遜和其他公司都有利用最新深度學習技術的產品,用于基于語音的對話系統。

在第4.1和4.3節中列出的自然處理語言應用中,尋找類似文件的有效算法已經足夠成熟,可以在實際系統中使用。稍微不那么成熟的是命名實體識別和自動總結的技術。然而,商業系統已經存在(參見www.primer.ai)。最困難的問題(在列出的分析想法中),因此也是最不成熟的問題,是尋找文件之間的矛盾。與更直接的分類問題相比,發現矛盾的學習算法需要另一層抽象的推理。

正如人工智能的最新進展所證明的那樣,海量數據的可用性是實現強大人工智能系統的基礎。根據場景或應用,這在某些軍事環境中可能是一個挑戰。如遷移學習之類的技術,其中針對相似但不同的應用程序訓練來說,機器學習模型被重新使用并適應新問題,當數據稀缺時,對于許多軍事應用程序來說將是重要的。例如,軍事報告和摘要與民用報告和摘要是不同的。然而,考慮到兩者的相似性,人們會期望對非軍事文本進行訓練算法將會是機器學習模型學習特定軍事用例摘要的良好起點。Kruithof研究了與使用遷移學習相比,深度學習需要多少輸入數據才能獲得更好的分類性能。

5.2 可解釋的人工智能

決策支持系統能夠解釋其建議對于決策者能夠理解和依賴該系統至關重要。在可解釋人工智能領域,重點是異構數據的分類、規劃、數據生成和決策策略的創建。該研究領域旨在創建能夠解釋模型的機器學習方法,其中機器學習系統能夠解釋其建議并描述其自身推理的優勢和局限性。

這個研究領域并不新鮮。它已經存在了幾十年,但隨著越來越多地在子符號級別上運行的機器學習方法的出現,它變得更加突出。人工智能系統有幾種方式可以解釋他們的建議。首先,一些類型的模型被認為比其他的更容易解釋,如線性模型,基于規則的系統,或決策樹。對這類模型的檢查可以讓人了解它們的組成和計算。此外,可解釋模型可用于近似亞符號人工智能系統的推理。近似推理可以對系統的整個決策區域或特定決策點周圍的區域進行采樣。

此外,混合系統是可以想象的,其中亞符號機器學習(如深度學習)層面與符號層面相連,在符號層面上進行近似推理,將來自不同推理過程的不確定數據結合到決策支持的基礎上。這樣一個可解釋的人工智能將連接機器學習和更高層次的近似推理和決策。每當決策部分是基于機器學習的結果時,它將為決策者提供解釋。

為了深入了解深度神經網絡的工作情況,必須對神經網絡進行概率性解釋,其中權重被視為概率,網絡被第二個解釋過程劃分為基于神經元之間共同信息處理行為的子網絡。這種劃分確實可以由另一個機器學習模塊來完成。對于這個次要任務,可以考慮幾種不同的方法(例如Kohonen網絡)。然后,每個子網絡(集群)可以被映射到決策樹中的一個節點,通過調查每個節點對決策樹得出的整體結論的影響,可以從可解釋性的角度進行分析。因此,這種方法將從詳細的子符號水平上的問題解決能力轉向聚合的符號水平上的問題解釋能力。 可以將深度學習與神經符號推理和可解釋的人工智能結合使用的應用程序來自通用應用程序池,這些應用程序要么具有大量歷史訓練數據、可從模擬器獲得的數據,要么具有事先不一定完全知道的流數據。 這些應用程序包含一個需要管理的問題(并且可能隨著時間的推移動態發展),需要高級近似推理來將來自不同來源的信息(包括機器學習過程)集成到提供管理問題解決方案的決策支持中。

可解釋人工智能的另一個活躍的研究領域是特征可視化,其中子符號推理被映射回了輸入空間。通常情況下,有兩種通用的方法被用于特征可視化,即激活最大化和DNN解釋。激活最大化計算哪些輸入特征將最大限度地激活可能的建議。DNN的解釋是通過突出有辨別力的輸入特征來解釋系統的建議,這些特征可以通過使用局部梯度或其他一些變化度量的敏感性來分析計算。

未來可解釋的人工智能可能會接近人們一般如何根據感知的信念、愿望和意圖來解釋其他智能體的行為。 Miller 對社會科學研究中的解釋以及如何使用這些知識來設計人工智能系統的解釋進行了回顧。 主要發現是(i)解釋是針對特定反事實事件的對比,(ii)解釋是有選擇的,集中在一個或兩個可能的原因上,以及(iii)解釋是一種社會對話和知識遷移的互動。

最后,對于已經在更高的符號水平上進行論證的軍事決策支持系統來說,基于敏感性分析的解釋特征是一種既定的方法,可以用來解釋為什么某項擬議的軍事計劃被認為是成功的。van Lent等人提出的另一個例子描述了一個人工智能架構,用于解釋野外作戰模擬系統中的人工智能智能體的戰術行為。該方法被美國陸軍用于培訓步兵軍官。

6 結論

本文提出的研究旨在調查人工智能如何被用于增強未來C2系統的決策支持功能。 該研究指出了不同的人工智能觀點,確定了人工智能工具可能產生影響的領域,并強調了可能從人工智能功能的引入中受益最大的具體 C2 任務。

從C2系統建模的角度來看,該研究指出了在C2過程中應該考慮人工智能的三個主要活動,即(i)感知,(ii)規劃,以及(iii)軍事活動,根據圖1中描述的公認的DOODA-循環。為了促進感知過程,管理和利用各種規模不同信息的工具,可以預期提供容易實現的有利條件。對于規劃,處理戰術數據庫(地形、后勤、理論等)的工具可以與決策支持工具相結合,使指揮官能夠在不同的抽象層次上評估不同的行動方案。最后,人工智能對執行的支持可以概括為指揮官評估行動方案,以及在執行行動期間促進不同類型的工作人員工作,例如使用語音到文本工具快速和正確地溝通不同的簡報。

從最終用戶的軍事角度來看,需要考慮的人工智能挑戰主要涉及成熟度和透明度。考慮到可行性,研究中出現的想法與研發方面的不同技術成熟度有關,這并不令人驚訝。一些工具,如語音轉文字工具、地形分析功能等,已經相當成熟,可以買到現成的工具,而其他領域,如推理對手想法的博弈論工具,還需要很多年的基礎研究才能實現其實際功能。關于透明度,這是軍事決策支持需要考慮的一個關鍵挑戰,在這方面,要求人工智能能夠解釋建議,并且人能夠理解和依賴系統是至關重要的。隨著可解釋人工智能領域地不斷探索,初步展現出利好結果,關于透明度還有很多需要學習的地方。

在未來,我們的目標是進行一系列的以用戶為中心的設計活動,目的是指定一套詳細的使用案例,這可以作為在涉及軍事人員的軍事C2環境中采購和進一步測試實際人工智能功能的基礎。

付費5元查看完整內容

本文討論了F-35 "閃電"戰斗機對挪威皇家空軍指揮與控制(C2)可能的影響方式。它強調了協調的重要性,回答了有關F-35的實施對其他能力相互依賴性的影響問題。這一基礎被進一步用來討論對C2核心要素的可能影響,如程序、人員、通信和信息系統。基于F-35系統的能力,發現挪威武裝部隊中跨領域和C2級別的相互依存關系的發展;這些相互依存關系的復雜性,既受到空中行動執行的影響,也受到環境突發事件的影響,意味著組織需要靈活使用協調機制。我們發現,相互依存關系,以及如果要獲得成功所需的協調,對涉及F-35的空中行動指揮和控制有影響。我們建議該組織應更積極地使用分層和水平結構,以適應跨領域和C2級別的知識和信息共享。程序需要包括授權的方法和系統,人員需要了解相互依存關系和多域作戰。最后,通信和信息系統必須是可用的、可互操作的和強大的。

關鍵詞:挪威,F-35,指揮與控制,相互依賴,多團隊協調

付費5元查看完整內容

執行摘要

這項工作是在任務9 "關于指揮和控制系統的信息融合、數據分析和決策支持的人為因素問題 "下,由Calian和C3人為因素咨詢公司為加拿大國防研究和發展部(DRDC)進行的,作為更大的人機交互(HAI)任務授權合同(TAC;合同號W/001/TOR)的一部分。HAI TAC的目標是設計、開發、實施和評估人機協作(HAT)概念、方法和技術,以改善加拿大武裝部隊的整體人機系統性能。北美航空航天防御司令部(NORAD)是美國和加拿大的聯合軍事組織,一直在為北美大陸提供航空航天預警、空中主權和保護。自1957年以來,它一直在為整個北美大陸提供航空航天警報、空中主權和保護。現在已經超過60年了,面對新出現的威脅,北美防空司令部及其相關的機場、雷達站和衛星網絡需要進行一次大修。例如,美國和加拿大的對手專門開發了朝鮮彈道導彈、快速發展的巡航導彈技術和高超音速滑翔飛行器,以繞過NORAD主要是冷戰時期的防御系統。

北美防空司令部未來的現代化努力已經確定了 "探路者計劃",以建立國土防御數據生態系統(HDE)的原型,通過更多地采用自動化、人工智能(Al)和機器學習(ML)技術,提高防御決策的及時性。DRDC是對這一努力做出貢獻的關鍵參與者。如何融合信息,如何通過交互式界面向操作人員展示和解釋人工智能和ML模型所提供的決策,是探路者的關鍵人因(HF)問題。為了確保改進決策,減少操作人員的認知負荷,增加自動化的采用,需要使用HF原則、措施、方法和/或最佳實踐來設計和評估開拓者的技術。

這項工作的目的是審查現有的文獻和資源,并與DRDC中小型企業就指揮和控制(C2)系統的信息融合、數據分析和決策支持方面的高頻問題進行訪談,為NORAD提供初步的高頻建議,并確定可以探索的研究差距,以幫助改善開拓者的整體系統性能和未來行動的有效性。為此,我們對文獻進行了回顧,并與DRDC主題專家(SMEs)進行了訪談,以更好地了解從高頻角度設計、開發和評估信息融合、數據分析和決策支持系統的復雜性、挑戰和最佳實踐。文獻回顧和中小企業訪談集中在以下領域。

1.交互和界面設計。回顧C2系統的信息融合(即原則、措施、方法)的交互和界面設計的最新進展。系統和基于Al和ML的決策支持系統的交互和界面設計的最新進展,特別關注于可解釋的Al決策的設計。

2.人為因素的挑戰。確定信息融合和基于Al/ML的決策支持系統的以人為本的關鍵分析和設計挑戰,這些系統可用于航空航天防御任務的C2系統。

3.培訓系統。回顧在C2系統的信息融合和Al/ML決策輔助的背景下,針對操作者-自主性/操作者-操作者互動的培訓系統(如智能輔導系統)設計的最新進展。

總之,文獻審查包括HF、人機交互和Al領域的總共189篇文章。在這些文章中,134篇文章的子集在本報告的第3節中報告。此外,項目組還采訪了四個DRDC中小企業。

本報告還概述了由多倫多DRDC開發的高頻分析和設計框架--以交互為中心的設計(ICD),該框架已成功應用于智能自適應系統(IASs)的設計。兩個DRDC項目被確定為相關的案例研究,以展示如何將ICD框架應用于支持NORAD的開拓者計劃。具體而言。

1.創新戰斗管理決策支持技術演示項目(INCOMMANDS TDP)由DRDC Valcartier在2006年至2009年期間實施,旨在為加拿大皇家海軍哈利法克斯級護衛艦的指揮團隊開發和演示先進的指揮決策支持能力(CDSC)原型,以提高威脅評估(TE)和戰斗力管理(CPM)的整體決策效率。

2.多倫多DRDC在2014年至2019年期間開發了武器交戰的權威路徑(APWE)決策支持工具,以協助加拿大皇家空軍無人機系統機組人員在使用致命武器攻擊目標時遵循正確的交戰規則和武裝沖突法。

這兩個用例都與開拓者計劃的目標一致,即利用Al/ML技術將人類的參與從處理 "大數據 "轉移到關注高階決策過程。這樣一來,操作人員可以在比對手更清晰的數據基礎上做出更快、更好的決定,從而實現 "決策優勢"。

未來的研究可能會試圖確定INCOMMANDS CDSC和APWE與開拓者計劃的相關性。此外,作為ICD的延伸,人類-自主性信任的意圖、可測量性、可預測性、敏捷性、溝通、透明度和安全性(IMPACTS)模型可用于指導開拓者計劃中IAS設計概念的發展,以幫助運營商和半自主的TE和CPM系統之間建立有效的伙伴關系,實現共同目標。

總之,從文獻綜述和與多倫多DRDC和瓦爾卡蒂爾的中小企業的訪談中收集到的信息,以及本報告中的報告,提供了豐富的信息,DRDC可以在此基礎上為開拓者計劃做出重大貢獻;特別是通過利用他們現有的HAT工作,以及高頻分析和設計框架,如感知控制理論、以交互為中心的設計方法來設計IAS以及HAT信任的IMPACTS模型。

付費5元查看完整內容

摘要

這項工作的目的是深入了解人工智能 (AI) 工具以及如何將它們應用于空中目標威脅評估。人工智能工具是包含人工智能元素的軟件產品。關于人工智能有多種不同的思想流派,并且可以在同一個工具中使用不同的方法。許多現代人工智能方法都涉及機器學習 (ML)。本參考文檔將涵蓋不同類型的 AI 和 ML 以及如何將它們應用于威脅評估。這項工作將介紹所有 ML 模型共有的元素,例如數據收集、數據準備和數據清理。該報告還將討論選擇適合不同問題的最佳人工智能類型

此外,這項工作將描述處理缺失數據或數據不確定性的方法。將提出實用的解決方案,包括通過數據插補填充缺失數據或修改人工智能工具的架構

最后,該報告將檢查人工智能工具的輸出與現有基礎設施的集成。將結合威脅評估過程及其可以改進的元素來描述 AI 工具。還將討論 AI 工具系統的通用架構

國防與安全的意義

威脅評估對于維護國家安全利益和維護各國主權具有重要意義。空中威脅評估對于一個有大片國土需要保護的國家(例如加拿大)很有價值。人工智能和機器學習都可以應用于威脅評估的研究領域。通過學習構建人工智能驅動的工具,加拿大的國防和安全將通過獲得持續的前沿研究得到改善。無論哪個國家開發出最有效和最可靠的威脅評估工具,在決策和威脅反應方面都將獲得優勢。通過利用前面提到的快速擴張的領域,加拿大可以獲得決定性的優勢

1 簡介

評估所有領域(如空中、網絡、陸地、海洋、太空)的威脅是維護任何國家安全的一個重要方面。威脅分析包括查看敵人過去、現在和預期的行動,以及這些行動對友軍資產或單位的影響。威脅評估還考慮了為減少、避免或消除風險而可能采取的任何防御措施[1]。在防空的背景下,空中目標威脅評估的任務需要識別、確定空中目標和優先排序,并管理任何必要的資源以應對威脅[2,3]。

當前的空中目標威脅評估任務由操作室中的一組高技能和經驗豐富的人員執行[3,4]。該任務涉及考慮先驗信息(例如,情報報告和評估標準)和獲取的信息(例如,從傳感器系統動態收集的運動學信息),以確定目標對某個感興趣點/區域(POI/AOI)。此信息(運動學和非運動學)稱為提示。這些信息的心理整合需要相當水平的戰術專業知識,包括有關威脅類型、軍事條令和基于經驗的評估啟發式的知識[4]。人工智能(AI)將允許根據防空作戰員(ADO)可用的線索以及他們的威脅評估決策[5]或專業知識來創建工具。

本報告全面概述了AI工具及其構建。這些方法是尖端的并且非常有效。本報告將清晰地展示人工智能工具的開發方式。它將展示哪些組件是必要的,如何獲取數據并使其對機器學習(ML)模型有用,以及AI工具如何與更廣泛的威脅評估環境進行交互

2 人工智能

本節將介紹人工智能的概念和許多現代人工智能算法。它將包含有關AI和ML主要主題的背景知識。它還將描述AI工具中經常出現的組件。

2.1 概述

從一個非常廣泛的角度來看,人工智能是人工系統“執行與智能生物相關的任務”的能力[6]。然而,這是一個非常寬泛的術語,涵蓋了許多系統。例如,它不區分人工智能系統、智能系統和自動化系統。關于什么構成人工智能,文獻和文化中有許多定義。本報告中使用的“人工智能系統”的定義是文獻和文化中各種來源的觀點的結合。

人工智能系統是一種具有以下能力的人工系統:

1.執行“有趣的”[7]任務,這些任務“通常與智能生物相關”[6]

2.“自學成才”[7,8]

早期的AI開發人員研究的問題在智力上對我們來說很困難,但對計算機來說卻相對簡單。這些問題可以用一組形式和數學規則來描述[9]。例如,國際象棋游戲由一組有限且嚴格的規則定義,這些規則可以編程到人工智能中。然而,人工智能很難處理使用人類直覺而不是使用一組正式的規則來處理的任務,例如圖像識別。人工智能的一種方法是基于知識的方法,它涉及嘗試設計形式語言和手工制作的邏輯推理規則,以使機器能夠推理和解決問題。另一種方法是讓計算機從經驗中收集知識,而不是讓人類對程序的行為進行硬編碼。

機器學習是通過從數據中發現模式來獲取知識的能力。因此,這些數據的表示會顯著影響機器學習算法的性能。換句話說,提供給機器的信息(即特征)會影響它解決問題的能力。然而,手工設計的特征受到人類知識的限制。讓機器發現哪種表示最好稱為表示學習。學習到的表示通常比手工設計的表現要好得多。本報告在2.3小節中探討了人工智能的機器學習方法。

2.2 AI 工具的組成部分

AI 工具的最終目標是通過減少操作員的認知和體力工作量來改善操作員的決策過程。為此,人工智能工具通過提供協作環境來補充操作員的角色。人工智能工具處理可用信息,從數據中獲得洞察力,并以有利于操作員體驗的方式呈現信息和洞察力。圖1顯示了AI工具流程的概覽。該模型基于[3]中提出的決策支持系統(DSS)架構。

1.操作員是與工具交互和監控工具、根據工具輸出做出決策并根據這些決策向相關個人報告的人。輸入工具的信息可以是靜態的或動態的。靜態信息(例如配置文件和靜態操作員首選項)在操作期間不會更改。動態信息,例如數據輸入和設備操作,在整個操作過程中不一定保持不變[3]。將操作員與咨詢能力聯系起來的箭頭強調了該工具的協作方面。

2.咨詢能力負責管理操作員和系統之間的交互。這包括管理操作員輸入(即靜態和動態信息),管理環境輸入(例如,約束和環境信息),促進操作員交互(例如,人機交互,人機界面)和顯示信息。要顯示的關鍵信息包括算法的結果和當前的操作限制。

3.領域知識由用于評估的規則和關系組成。例如,領域知識可能包括操作員對信息變化影響的意見。

4.算法組負責處理數據和執行評估或預測任務。可以考慮許多不同的算法和功能來實現算法組。該組將提供應用程序中的大部分AI功能,并且可以選擇或組合不同的AI或ML應用程序。

5.環境為人工智能工具提供操作約束。更具體地說,環境由檢測和測量目標的傳感器系統以及來自更高級別個人的任務概覽和命令組成。

雖然[3]對圖1中的大多數組件進行了詳細解釋,重點是咨詢能力部分,但本報告側重于架構的算法部分。

圖1:操作員、環境和人工智能工具的交互

上面介紹的AI工具被認為是基于第 2.1 節中介紹的定義的AI系統。評估的復雜性和重要性使其成為一項不容易解決的任務。人工智能工具的學習和適應方面可以通過機器學習方法來完成,這將在2.3小節中進行描述。

2.3 AI 中的機器學習

本節將討論機器學習和人工智能的結合。有許多不同類型的AI算法,ML是這些算法的一個子集。本節將描述使用ML從數據中學習的算法類型,以及這對AI工具有何用處。作者還在他們之前的工作中定義了機器學習中的許多基本概念[5]。

2.3.1 概述

根據柯林斯詞典,機器是“使用電力或發動機來完成特定工作的設備”[10]。在機器學習的背景下,機器就是計算機。更具體地說,是計算機中的程序完成了這項工作。正如[11]中所定義的那樣,“如果計算機程序在T中的任務(由P衡量)上的性能隨著經驗E提高,則可以說計算機程序從經驗E中學習某類任務T和性能度量P。”這個定義提出了機器學習問題的三個主要組成部分:任務T、性能度量P和經驗E。

1.任務是要解決的問題。例如,分類任務涉及確定某個輸入屬于哪個類別(例如,對象分類)。其他任務示例是回歸(例如,成本預測)、異常檢測(例如,欺詐檢測)和去噪(例如,信號處理)。

2.性能度量是用于評估ML算法性能的指標。例如,準確度是一種可用于分類任務的性能度量。準確率是模型正確分類的示例的分數。“示例”被定義為特征的集合,通常表示為向量,其中n為特征個數,每個元素為一個特征[9]。數據集是一組例子的集合。

3.經驗是指模型在學習過程中所接受的訓練類型。在無監督學習中,模型所體驗的數據集僅包含特征,并且由模型來學習數據的特征。例如,學習描述數據的概率分布可能很有用。聚類也可以使用無監督學習算法來執行。在監督學習中,模型體驗的數據集不僅包含特征,還包含與每個示例相關聯的標簽。無監督學習模型觀察幾個例子,而監督學習模型觀察幾個例子及其標簽。但是,在某些情況下,有監督和無監督之間沒有明確的區別。例如,半監督學習涉及從包含標記和未標記數據的數據集中學習。在強化學習中,模型不是從固定的數據集中體驗,而是模型與環境交互并從交互中學習。

為了了解模型在處理現實世界中的新數據時的表現如何,通常會分離出一部分數據集,以便僅在完成所有訓練后才能使用。這被稱為測試集,由于模型之前沒有看到測試集中的數據,因此測試集上的性能可以作為模型真實性能的指標。文獻提供了機器學習算法和模型的許多不同分類(例如,[12]提出了機器學習的五種范式:連接主義(例如,神經網絡、象征主義、進化論、貝葉斯和類比)。本報告并不是對機器學習中在空中目標威脅評估領域有用的不同方法的詳盡回顧。本報告重點關注三類特定的方法:監督機器學習、無監督機器學習和強化學習。

2.3.2 監督學習

在監督機器學習中,可以使用一組標記的訓練示例(即訓練集)。該模型的目標是能夠為示例分配正確的標簽,其中正確的標簽是與特定示例對應的標簽。通過基于一組標記的訓練數據最小化某個損失函數來調整模型。具體來說,迭代調整模型的參數,以減少訓練誤差。

1.模型:模型是根據樣本特征輸出標簽的算法。

2.參數:模型的參數根據選擇的模型而有所不同。例如,在神經網絡中,參數包括神經元的權重和偏差。

3.誤差:也稱為損失,誤差用于衡量模型的執行情況。可以針對特定應用設計和修改損失函數。

4.迭代調整:在訓練過程中,采用一定的方案來改變每次迭代的參數。具體來說,迭代調整模型的參數,以減少訓練誤差。一個例子是普通梯度下降法[13]:

其中θ是模型的參數,α是學習率(決定每次迭代調整多少參數的超參數),J(θ) 是模型在整個訓練集上的損失函數, 是相對于θ的梯度。可以使用各種修改來改進普通梯度下降算法,例如動量[13]。這種改進產生的算法包括Adagrad[14]和Adam[15]。

2.3.3 無監督學習

由于機器學習,許多研究和應用領域都取得了許多成功。圖像理解(例如,檢測[16]、分類[17])和自動化物理系統(例如,自動駕駛汽車[18])只是成功的兩個例子。這些成功的很大一部分歸功于監督學習和強化學習的使用。然而,這兩種范式都僅限于人類輸入和經驗:監督學習的訓練信號是目標標簽,而在強化學習中,信號是期望行為的獎勵[19]。使用人類設計的標簽和獎勵的一個弱點是由于訓練信號的稀疏性而導致的信息丟失。例如,盡管用于訓練監督學習和強化學習模型的數據通常具有豐富的特征(例如,圖像),但目標和獎勵通常非常稀疏(例如,表示圖片標簽的單個向量)[19]。無監督學習的動機是更好地利用可用數據來更好地理解數據。因此,無監督學習范式“旨在通過獎勵智能體(即計算機程序)來創建自主智能,以學習他們在不考慮特定任務的情況下觀察到的數據。換句話說,智能體“為了學習而學習”[19]。無監督學習算法的強大之處在于它能夠發現標簽無法完全表達的數據的潛在模式和結構。

2.3.4 強化學習

強化學習(RL)的思想是學習采取什么行動來獲得最大的回報。這種范式背后的一個共同動機是智能體與環境之間的交互(圖2)。根據對環境的觀察,智能體執行影響環境的動作。作為響應,會生成新的觀察結果,并且智能體會收到獎勵或懲罰。

圖 2:智能體-環境交互

RL的兩個重要區別特征是試錯搜索和延遲獎勵。與程序員指定輸出應該是什么的監督學習不同,RL智能體必須進行實驗以發現導致最高獎勵的動作。此外,行動可能會產生長期影響。因此,較早采取的行動可能會導致稍后的獎勵或懲罰。

在監督學習中,該模型嘗試從訓練示例中學習以泛化并在新示例上表現良好。雖然功能強大,但在處理涉及交互的問題時,監督學習是不夠的。例如,在未知環境中學習時,獲得包含代表智能體在所有可能情況下應采取的行動方式的示例的訓練集可能是不切實際的。在這些情況下,智能體必須使用自己的經驗和與環境的交互來學習。

RL系統[20]有四個主要組成部分:

1.策略:策略根據智能體的感知狀態定義智能體的行為。換句話說,它決定了當智能體處于當前狀態時要采取什么行動(或行動的什么分布)。

2.獎勵信號:獎勵信號表明智能體在某個時刻的表現如何。獎勵的概念是RL問題的核心概念,因為從長遠來看最大化獎勵數量是智能體的最終目標。獎勵的類型是特定于問題的。例如,在訓練RL智能體玩游戲時,它可能會因獲勝而獲得正獎勵,而因失敗而獲得負獎勵。結果,通過監控獎勵信號來學習策略。例如,如果當前策略給出的某個動作導致了懲罰,那么該策略可能會以某種方式改變,以便在情況再次出現時避免該動作。

3.價值函數:價值函數表示如果遵循當前策略,智能體在未來的預期表現如何。雖然獎勵被視為即時指標,但價值函數是長期指標。例如,在當前狀態下投資獲得負回報可能會導致總回報為正。價值函數引入了延遲獎勵的方面:某個狀態的價值是預期在長期內獲得的總折扣獎勵,其中每個收到的獎勵都根據最近收到的時間進行折扣。

4.環境模型:環境模型存在于基于模型的RL問題中。它指示環境如何根據智能體在特定狀態下的行為做出反應。然而,環境模型并不總是可用的。無模型方法解決了這一挑戰。

正式表示完全可觀察的環境(即智能體的觀察完全描述當前環境狀態的環境)以進行強化學習的流行方法之一是使用馬爾可夫決策過程(MDPs)。馬爾可夫過程是服從馬爾可夫性質的一系列隨機狀態S:在給定當前狀態的情況下,未來狀態獨立于過去狀態。

其中是第時間步的狀態,t是當前時間步,發生的概率。MDPs是馬爾可夫過程的擴展:除了表征馬爾可夫過程的狀態集S和狀態轉換集P之外,還有可能的動作集A和獎勵集R。

3 空中威脅評估——人工智能工具

本節將把空中威脅評估的任務與人工智能工具的能力聯系起來。 AI 能力將映射到威脅評估的每個階段,并將展示如何將其集成到現有能力中或改進現有能力

3.1 AI 工具在威脅評估中的優勢

如第 1 節所述,ADOs等操作人員面臨認知和身體挑戰,這些挑戰不利于其做出可靠決策的能力。人工智能工具將通過提供以下兩個主要好處來應對這些挑戰:

1.減少認知和身體負荷量:人工智能工具為操作員提供的支持和顯示將緩解導致操作員總壓力的眾多因素。這種好處是通過使用決策支持系統(DSS)的設計原則來提供的。

2.利用最先進的方法:人工智能的機器學習方法是一個非常受歡迎的研究領域,因此在方法的開發和改進方面做了大量工作。通過使用AI支持空中目標決策,該系統可以使用和利用最先進的方法。

3.2 威脅評估中的 AI 工具組件

如2.2小節所述,通用AI工具中有多個組件可以專門用于評估。威脅評估AI工具中的組件及其專業化如下:

1.操作員(Operator)是評估過程中的ADO。操作員將負責確保提供給AI工具的信息盡可能準確。然后,ADO將與該工具交互,以充分了解威脅情況,并獲得AI生成的威脅評估。

2.咨詢能力(Advisory?Capability)負責與ADO以及各種傳感器和數據庫系統進行交互。這將涉及從雷達和其他傳感器收集數據,以及解釋從情報報告中獲得的數據。咨詢能力還負責確保ADO可以有效地與計算機界面一起工作。更新界面可能涉及一個可以結合機器學習的動態過程。

3.領域知識(Domain Knowledge)將包括ADO的經驗以及他們用來進行準確評估的任何規則。在空中威脅評估中,這可能包括常見的高度、異常的飛行模式或敵軍作戰節奏的變化。

4.算法組(Algorithms)負責目標數據的處理和威脅評估。這將包括處理軌跡數據以獲得提示數據,并使用提示數據和領域知識來評估目標的威脅。可能的評估算法包括基于規則的方法[3、4]、貝葉斯方法[3]和本報告[5]中提供的AI技術。

5.環境(Environment)為人工智能工具提供操作限制和目標數據。更具體地說,環境包括檢測和測量目標的傳感器系統以及來自更高軍事指揮鏈的任務概覽和命令。

3.3 機器學習在威脅評估中的應用

由于機器學習方法的種類和成功率眾多且不斷增加,機器學習在威脅評估中的應用數量僅限于研究人員的知識和經驗。本報告將概述如何將三種主要機器學習范式應用于人工智能工具進行威脅評估的示例

3.3.1 監督學習

通過一組標記的過去目標示例,其中每個示例包含有關歷史目標及其相應威脅值標簽的信息,監督機器學習可用于將威脅值分配給目標。在[21]中,監督學習被用于構建多標準決策(MCDM)方法(EMCDM)的集成,以根據當時的線索值推斷目標在某個時間點的威脅值。EMCDM技術由各種MCDM方法組成,它們的輸出組合成一個單一的威脅值。MCDM方法的輸出基于作為輸入的提示值。用于訓練EMCDM技術的監督學習技術取決于集成技術的類型。例如,在加權組合EMCDM技術中,MCDM方法是使用監督學習調整的組合權重。在所有的EMCDM訓練中,示例集由標記的目標實例組成,其中目標實例被定義為目標在某個時間點的提示數據。

3.3.2 無監督學習

可以從目標中提取各種信息。因此,對于某個目標,可以為系統提供關于目標的大量線索,作為威脅評估的基礎。無監督學習可用于分析提示數據,以深入了解底層結構和模式。例如,無監督學習的一種用法是降維。通過降低提示數據的維數,系統可以處理更緊湊和簡潔的目標描述。換句話說,目標是以數據可以提供關于目標的大致相同信息但使用較少資源的方式轉換數據(例如,使用10個提示而不是50個提示)。

實現降維的一種方法是主成分分析(PCA)[23]。PCA旨在通過學習最大化新子空間中數據方差的線性變換,來表達低維子空間中的數據。最大化數據方差背后的直覺是假設更高的方差意味著更多的信息量。數據原本會有一定量的方差/信息。PCA嘗試使用低維子空間來近似數據,同時盡可能多地保留原始方差。PCA的結果之一是檢測和去除數據中的冗余,從而在沒有不必要的線索的情況下描述目標。然后可以將這些PCA生成的線索視為要使用的新的各種線索。然而,在應用過程中需要考慮基于PCA的假設(例如,方差足以描述信息量,主成分是正交的)。

自動編碼器[9]是經過訓練以將輸入重新創建為其輸出的神經網絡。自動編碼器通常由兩部分組成:編碼器和解碼器。編碼器網絡生成低維潛在特征。然后將潛在特征輸入到解碼器網絡中,該解碼器網絡嘗試輸出最初輸入到編碼器中的內容。通常存在約束和限制,以防止自動編碼器能夠完美地重新創建輸出(即,它只能提供近似值)。結果,模型被訓練為優先使用最有用的數據特征。因此,與PCA類似,自動編碼器可用于使目標提示數據更加簡潔,并且僅包含足以描述目標的提示數據。自動編碼器的其他用法也存在。例如,自動編碼器可用于去噪[24]應用程序。這在威脅評估中特別有用,因為目標數據(例如,傳感器數據、提示)本質上是含噪的。

除了降維之外,無監督學習的另一個用途是聚類。文獻中有大量關于用于聚類的無監督學習算法的工作,所有這些算法都用于威脅評估。在不關注特定算法的情況下,聚類的一種用途是將感興趣的目標與歷史目標進行聚類。這樣做的目的是發現感興趣的目標是否與歷史目標相似。如果有關于如何處理過去目標的知識,操作員可以在決定對當前感興趣的目標采取何種行動時考慮這些信息。

3.3.3 強化學習

可以將威脅評估過程建模為強化學習問題。例如,咨詢能力可以在操作期間使用RL來了解操作員希望如何顯示信息。這類似于社交網站知道在首頁上顯示哪些項目的方式。例如,如果RL模型有一個獎勵處理速度的策略,它可以測量從ADO開始評估到ADO提交威脅評估所花費的時間。這將允許模型因導致更短的威脅評估過程的行動而獲得獎勵,從而鼓勵更有效的交互選擇。如果某個深度為兩級的菜單項(即,它需要兩次單擊才能訪問)被頻繁使用,則模型可以將該菜單項放置為第一級深度項。如果該項目被非常頻繁地使用,則該項目應該在主屏幕上被賦予一個突出的按鈕位置。在空中威脅評估應用程序界面上工作的強化學習算法將能夠進行這些和其他更改,以檢查威脅評估的時間是否正在減少,在這種情況下,它將獲得獎勵。

有大量研究和許多資源可用于解決MDPs,這使得使用MDPs解決RL問題成為一個不錯的選擇[25]。

3.4 結構與流程

人工智能工具的結構需要考慮多種因素。該工具將在流程管道中運行,從數據收集和準備開始,到模型訓練,然后到模型預測,最后為用戶顯示結果。在AI工作流程中,可以更容易地將結構視為流程工作流[26]。一旦AI工具經過訓練,它就會不斷返回到周期的第一階段,并使用新數據和新見解進行重新訓練。這個過程使人工智能工具非常強大,可以隨著時間的推移保持準確性和有效性。

人工智能工具開發的第一階段是收集高質量數據。這些數據將存放在一個或多個可供AI工具訪問的數據庫中。人工智能工具將首先在數據庫中的現有數據上進行訓練,然后在生產時,它將主動監控任何操作數據庫中的最新數據,以便提供威脅評估。

除了收集數據,還必須確定最有效的機器學習或人工智能模型。該決定需要考慮可用數據的類型、數據的數量及其質量。與最終用戶面談也很重要,以確保所選模型將以對他們有用的格式輸出信息。這可能是一個要求,例如最終威脅評估值必須呈現為分類問題(例如,高、中、低)或回歸問題(例如,1.4、2.9、9.0)。要求也可能更嚴格,例如人工智能工具的推理必須能夠被人類操作員解釋。像這樣的要求可能會使現代機器學習研究的整個分支沒有吸引力,而是需要不同的模型。由于所選AI模型對整個工具的影響很大,因此必須在模型開發之前的早期階段收集最終用戶的需求。

一旦選擇了一個或多個模型類型,就必須對其進行訓練。在這個階段,由于上一步的需求分析,一些AI模型可能已經被淘汰。在此步驟中,將淘汰更多模型。在對數據進行訓練之前,通常很難判斷哪個機器學習平臺最有效。這意味著應該對多個模型進行數據訓練,并使用某種準確度指標進行比較。一旦確定了最準確的模型,該模型將被完全訓練并準備好在生產中使用。

下一階段是將模型部署到生產應用中。ADO獲得了一個功能性AI工具,可以連接到操作數據庫并協助威脅評估過程。輸出到ADO的最終值都將被處理和清理,最終格式將被確定。然后,隨著所有ADO將其威脅評估以及可用的線索提交給訓練數據庫,該工具將得到持續訓練。這將使該工具能夠與新出現的威脅和新情況保持同步。ADO還可以就AI工具提供的評估進行反饋。例如,如果AI工具提供“高”威脅評估,而ADO認為它應該是“中”,則ADO可以提供反饋信號,表明該工具不正確并且威脅等級太高。這將存儲在數據中并用于在線訓練,使其能夠不斷地向經驗豐富的ADO學習,也可以自學成型。

AI工具流程的最后階段是將工具轉移到精度維護。在這個階段,需要對工具進行監控,以確保準確性不會下降。該工具也將在此階段接收反饋并從ADO評估中學習。最后,人工智能工具的開發并沒有停留在這個最后階段;相反,它必須隨著威脅的演變、環境和要求的變化以及新的和更相關的數據變得可用,而相應地更新和改進。

圖3: AI工具中的模塊及其交互

圖 3 提供了AI工具中以下模塊的可視化表示:

1.數據庫組件

  • 存儲傳感器數據、操作員情報和來自歷史數據的人為威脅評估。

2.數據訪問和存儲模塊

  • 與數據庫交互以不斷地保存和讀取來自傳感器或人工操作員的數據。
  • 查詢數據庫以提供關于1個目標的完整信息集,用于預測威脅評估。

3.數據預處理模塊

  • 清理數據,處理缺失值,并正確格式化數據以用于訓練或訓練模型的推理。

4.ML 模型組件

  • 實現機器學習模型的AI組件。這就是將整個工具定義為AI工具的原因。所有其他組件都用于支持該組件。
  • 在訓練管道中,模型仍在開發中,可能會同時測試多個模型。
  • 在推理管道中,已經選擇了一個模型,并由數據預處理模塊提供數據,以便它可以進行預測。

5.數據后處理模塊

  • 在將推理步驟的結果顯示給用戶之前對其進行清理。
  • 可以從零到一之間的預測值映射到更易讀的值或類別評級(例如,低、中、高)。

6.可視化/操作員交互模塊

  • 負責所有操作員交互。提供數據的可視化和讀數,并以最佳方式傳達模型對威脅價值的預測。
  • 獲取操作員對分配的威脅值的反饋(例如,太高、太低、非常準確)。
  • 與數據訪問和存儲模塊通信,將操作員反饋存儲為有用的數據,以供未來訓練使用

3.4.1 人工智能工具集成

將ML組件集成到更大的AI工具中需要兩條不同的管道。第一個管道將是訓練管道,這是進行模型選擇、測試和訓練的地方。一旦確定了合適的ML模型,并且該模型已經針對所有當前可用的數據進行了訓練,它將在稱為推理管道的第二個管道中使用。

圖4顯示了訓練管道的可視化。第一步需要收集歷史威脅評估數據以及ADO威脅標簽(如果所需的ML模型使用監督學習算法)。接下來,這些數據將通過數據預處理模塊合并為格式良好的數據集。然后,這個大型數據集將被分成三個不同的集合:

1.訓練數據集:該數據集將是ML模型在訓練時唯一看到的數據集。它也將是三個數據集中最大的一個。通常在本節中描述的三組之間決定百分比分配。這取決于系統設計者的判斷。常見的比率是80/20或90/10,具體取決于可用訓練點的數量。這些點將用于訓練模型,但重要的是保留一個保留數據集,以確保您的模型不會過度擬合訓練數據(即,無法泛化到新的未見數據點)。

2.驗證數據集:這將在訓練進行時用作測試集。這些數據不會用于訓練模型,而是在訓練的非常時期結束時,將在這個小集合上測試模型。這對于確定模型何時得到充分訓練很有用。即使模型在訓練數據集上的損失可能會繼續減少,但如果驗證集上的損失已經趨于穩定,那么模型可能會過度擬合訓練數據集,應該停止訓練。

3.測試數據集:該數據集將為所有候選 ML 模型提供最終評估指標。它不會用于訓練,并且模型設計者也必須不要檢查此數據集。這將確保模型超參數不會根據此測試數據集進行調整。測試數據集的價值在于發現ML模型是否可以泛化到來自類似于訓練示例分布的看不見的數據點。如果測試數據集的損失遠高于訓練集和驗證集,則模型很可能對其訓練數據進行過擬合。如果有多個候選ML模型,則可以使用測試數據集上的損失和準確率來確定選擇哪個模型。

在模型訓練期間將使用訓練和驗證數據集,在模型評估期間將使用測試數據集。

圖4 :ML 模型訓練管道

一旦最佳候選ML模型經過訓練和選擇,它將用于AI工具的生產版本。該模型將用于實時提供在線推理/預測。候選模型的訓練和測試可以繼續進行,也可以納入新模型或研究。這將確保AI工具始終使用性能最佳的ML模型。

一旦經過訓練的模型展示了所需水平的能力,就該使用推理管道了。推理管道是ML組件,將在操作中使用的實際AI工具中使用。該管道的示意圖如圖5所示。

圖5:ML 模型推理管道

人工智能工具將被要求不斷監控傳感器和操作員的情報,以獲得最準確的現實畫面。該數據將組合成與每個空中目標相關的提示數據集。一旦一組提示數據可用,它將被提供給ML模型,以便進行預測。然后,該預測將通過本工作前面討論的AI工具的其他組件提供給ADO。一旦投入生產,該模型還將通過運行來自新威脅評估情況的示例和迄今為止ADO對預測的反饋來保持最新狀態。這種訓練可以以在線方式(即連續)完成,也可以通過批量訓練(即以設定的時間間隔一次對所有示例進行訓練)完成。該模型還將對其性能進行監控,以確保準確性和損失不會隨著操作現實的變化而隨著時間的推移而降低。如果檢測到性能下降,則人工干預和糾正可以使系統恢復到以前的性能水平。

3.5 威脅評估和人工智能流程

本小節將解釋威脅評估過程的背景以及傳統上它是如何完成的。它還將標志著傳統流程中的挑戰和通過智能決策支持系統(DSS)改進的機會。還將介紹AI工具及其與傳統DSS威脅評估的關系。

3.5.1 用于威脅評估的因素和結構

有關因素信息和分類的描述,請參見[21]。出于 AI 目的,因素數據應構造為包含m個因素的向量,其中m是觀察中的因素數量,每個條目是一個因素值。每個完整的向量都是一個樣本,如果有足夠大的樣本訓練數據集,就可以進行機器學習。

對于空中威脅評估,已經確定了16個因素來構成關于目標的最有價值的信息[4]。這些見表 1。

表 1:用于目標威脅評估的因素。

3.5.2 挑戰和機遇

威脅評估過程絕非易事。這是一項壓力極大的任務,需要做出復雜的決策。該過程的認知和物理性質是由于各種原因造成的,當它們結合起來時,會對操作員的決策過程產生不利影響。

操作員不僅必須處理來自各種來源的大量和類型的信息,而且還要同時管理多個任務。例如,操作員管理可能來自眾多媒體、顯示器和人員的音頻、口頭和視覺信息[4]。除此之外,他們還必須執行其他任務,例如監控指定監視區域內的空中目標、了解可用資源以及準備情況報告[4]。這種高度的多任務處理和信息過載給威脅評估任務帶來了認知復雜性和身體壓力。

除了大量數據之外,運營商還面臨著信息中固有的不確定性。運營商必須考慮到數據源的不完善性以及人類行為的不可預測性[3]。不確定性量化和感知在威脅評估過程(和戰術軍事行動一般[3],因為運營商依賴決策過程中的數據來獲取環境(和對手)的感知。

在時間限制下操作人員的工作也造成了相當大的壓力。需要時間來收集信息、處理信息并最大限度地減少不確定性。但是,空中目標正在高速移動,因此必須根據可用的融合做出決策此外,用于信息收集/處理和不確定性最小化的時間越多,制定后續決策和行動的時間就越少,對手收集/處理信息和行動的時間就越多。最后,錯誤決定的后果是嚴重的,甚至可能是災難性的。飛機的錯誤分類1988年造成290名平民死亡的事件[27]就是決策失誤的一個例子。操作員工作的重要性和不正確執行的后果增加了任務的壓力。

運營商在威脅評估過程中面臨的挑戰促使人們研究如何在不影響威脅評估可靠性的情況下減輕認知和物理工作量。更具體地說,有機會開發用于空中目標威脅評估的決策支持系統(DSS)[4]。圍繞DSS的設計原則(即DSS 所包含的內容)有許多著作。

DSS的關鍵要求之一是它不能取代運營商;相反,DSS是對運營商的補充。[3]將此要求描述為DSS充當“決策支持而非決策自動化”。這方面允許在威脅評估過程中操作員和系統之間的協作。讓人參與決策過程是至關重要的:人在環方面確保每個決策都有責任。軍事行動的合法性要求問責是其行動的組成部分,問責包括明確的合法性和道德標準。如果在這個過程中沒有操作者,那么誰應該為錯誤決策的后果負責的模糊性就會帶來法律和道德上的分歧。

除了確保操作員始終參與決策之外,文獻中還介紹了其他設計原則。[2]根據文獻及其實地工作,詳細列出了設計威脅評估系統的規則。顯著的設計特點包括:

1.透明度:DSS應該能夠證明其計算和后續建議的合理性[3,4]。因此,DSS應向操作員提供導致最終值[2]的中間計算以及每個提示對最終威脅值[4]的影響。消除DSS的黑盒特性的重要性在于建立對系統的信心和信任[3]。如果不知道決策/建議是如何生成的,人類不太可能接受自動化系統的決策/建議[29]。理解上的不透明為誤用和錯誤創造了機會[12]。由于使用機器學習方法來構建AI工具,因此這是這項工作的一個重要考慮因素。機器學習方法不限于人類定義的決策規則,因此可以表現出黑盒性質。因此,與傳統DSS相比,AI工具的透明度更為重要。

2.處理不確定性:DSS決策所依據的數據中有許多不確定性來源(例如,傳感器數據、威脅值計算中的參數)[2]。處理不確定性也是DSS的一個重要設計特征,因為它允許運營商調整他們對系統的信任級別。在[2]中,這個設計方面是通過使用提示數據的區間表示來實現的。

3.信息的有效和交互式顯示:使用圖形格式顯示信息很重要,因為威脅是一個模糊的概念[4]。應傳達給操作員的重要信息是威脅等級、威脅歷史、線索列表[4],以及與建議相關的不確定性[3]。除了顯示信息之外,系統還必須能夠提供操作員可以與之交互的媒介。這可確保操作員留在威脅評估過程中[3]。

本報告中提出的人工智能工具可作為空中目標威脅評估的DSS。人工智能工具的人工智能方面在于系統的運行方式。更具體地說,人工智能工具將把人工智能概念(例如,機器學習、適應)納入其操作中。

3.6 AI 工具

AI工具將能夠集成到空中威脅評估的所有階段。本小節將描述威脅評估的每個階段與AI工具的能力之間的關系。

空中威脅評估的階段如下[4]:

1.掃描并選擇提示。

2.比較、調整適合和適應。

3.計算威脅等級。

4.繼續處理。

關于1(掃描并選擇提示),AI工具將能夠使用所有可用的提示。這與人類操作員不同,后者僅審查18個可用于評估飛機的線索中的6到13個[4]。這些信息將通過各種傳感器從環境中收集,然后通過通常的情報報告或傳感器讀數方式進行報告。這些數據將被編譯到一個數據庫中,供AI工具訪問以從中進行學習和預測。

關于2(比較、調整擬合和適應),AI工具將對數據庫中可用的線索進行計算。該數據可以與ADO專家提供的感知數據(例如預期海拔)進行比較,并檢查實際數據是否一致。如果數據與預期不一致,人工智能工具會將差異與歷史示例進行比較,以提供對差異的解釋或調整。如果數據無法協調,則可能需要調整模型的擬合度,人工智能工具可以選擇將飛機作為不同類型(即軍用、民用)進行處理。

關于3(計算威脅評級),人工智能工具將使用可用的線索,如果它增強預測,可能還會使用這些線索的子集,來預測目標的威脅評級。 Liebhaber、Kobus 和 Smith 在[30]中發現威脅等級獨立于檢查的線索數量。

關于4(繼續處理),如果所有提示數據都可以充分解釋,人工智能工具將完成分析,或者它將繼續搜索和處理新的提示。這個過程將一直持續到模型通過基于解釋的輸出獲得ADO的批準,或者直到所有可用的線索都被處理并且模型擬合得到盡可能好的調整。

3.7 AI 工具在威脅評估中的挑戰

第3.5.2節概述的關于操作員對DSS的信任的關鍵點之一是用于生成威脅評估結果的模型的透明度。操作員很難對沒有提供理由和解釋的機器輔助預測有信心[4]。出于這個原因,已經創建了許多在計算和標準加權方面具有透明度的DSS方法。例如,許多MCDM方法可以為每個單獨屬性的權重以及它們如何對最終威脅評估做出貢獻提供充分的理由。這是MCDM DSS工具的優勢之一。不幸的是,這種透明性可能會導致工具缺乏復雜性和表現力。相反,機器學習工具可以同時基于所有數據點之間的非常深的聯系做出假設,這可能是以人類不會的方式。這種增加的復雜性往往會降低工具的透明度和可解釋性。

某些機器學習方法的結果仍然是透明的,并且以與自學的MCDM方法相似的方式工作。例如,線性回歸模型可以提供每個線索如何影響最終威脅評估評估的完整理由。該模型既受益于透明度,也受益于無需人類專家參與的自學。

其他一些機器學習模型并沒有從透明度中受益。最先進的機器學習模型之一是神經網絡。這是一個擁有大量研究的大領域,也是深度學習分支的新爆炸。這些方法不那么透明。在[31]中發現的2020年文獻調查探索了許多現有的試圖使神經網絡和深度神經網絡推理對最終用戶可解釋的工作,但是,局限性仍然存在。

現實世界的威脅評估變量通常包括決策過程各個級別的不確定性。對威脅評估準確性的最大影響之一來自根本沒有獲取的數據。這種丟失的數據可能是由于無法收集、傳感器故障、傳感器誤報或許多其他原因造成的。當數據完全丟失時,就很難就目標所擁有的威脅做出明智的決定。幸運的是,機器擅長執行計算,可以估計、替換或忽略丟失的數據。

在[22]中,探索了為每個決策結構預先計算不同查找表的選項。這將涉及根據每種可能的信息缺乏狀態訓練許多不同的模型,并將它們與完整狀態相關聯。這假設對于訓練有大量完整的示例可供借鑒。不幸的是,“為所有可能的輸入組合訓練網絡的天真的策略在復雜性上呈爆炸式增長,并且需要為所有相關案例提供足夠的數據”[32]。相反,[32]建議定義一個可以被認為是真實的基礎模型,然后將所有數據與該模型相關聯。

在許多可能的情況下,在訓練時沒有或只有很少的完整示例可用。在這種情況下,必須確定是僅使用完整數據進行訓練,還是以某種方式合并不完整的示例。在[32]中,發現用均值代替缺失輸入會導致比僅基于完整示例訓練網絡更差的性能。因此,尋求改變神經網絡架構或訓練方法的方法,以有效地合并(可能大量)不完整的數據示例。

使用不完整數據進行訓練的最有效方法之一來自[33]。本文證實,在訓練神經網絡中使用原始不完整數據可能是比在學習開始之前填充缺失屬性更好的方法。所采用的方法涉及對神經網絡架構的輕微改變,但應該與大多數現有架構兼容。該方法通過將第一個隱藏層中典型神經元的響應替換為其期望值來工作。高斯混合模型在每個神經元的輸出上進行訓練,以學習概率密度函數和期望值。這消除了通過單個值對任何缺失屬性進行直接插補的需要。 “隱藏層不是計算單個數據點的激活函數(對于完整的數據點),而是計算神經元的預期激活”[33]。該方法還取得了與其他現有方法可比的結果,這些方法可以從不完整的數據中進行預測,但需要完整的數據進行訓練。

另一種方法可以通過提高缺失數據插補的準確性來采取。[34]研究了文獻中許多可能的數據插補解決方案。它還指出,一些無監督學習聚類算法,如分類和回歸樹(CART)和K-means,已適用于缺失數據的問題。缺失數據插補的優點是不需要對實際的機器學習模型或平臺進行任何更改。當前存在或將來構建的任何基于完整數據提供準確預測的方法都將有效地處理通過插補生成的數據。數據插補的目標是以盡可能接近現有真實數據分布的方式填充缺失值。如果成功完成,則可以對新完成的數據使用現有的統計分析和機器學習工具。

4 AI工具的架構

在本節中,將討論AI工具的潛在架構。將涵蓋從面向操作員的界面到AI組件組合的設計。所提出的AI工具的整體架構可以在參考文獻[35]中看到,它需要三個主要組件,如圖6所示。

圖6:AI 工具的概念框架

未來的人工智能工具可能會將舊的基于模型或自上而下的方法與新的數據驅動的自下而上的方法結合起來。這種類型的系統允許人工智能工具擁有一個由數百或數千個專家派生規則以及數百萬條特定領域知識(如歷史傳感器數據)組成的知識庫[36]。一種可以結合領域專業知識和數據驅動學習的人工智能系統是回歸樹。圍繞回歸或分類樹構建用于空中威脅評估的AI工具將是一個不錯的選擇。回歸樹的另一個好處是它們的輸出可以被人類操作員解釋,并且可以解釋它的選擇。整個模型基于一系列決策或規則,這些決策或規則可以在操作員界面中作為理由提供。這使ADOs可以對AI工具提供的評估充滿信心,或者質疑為什么某個值的解釋與他們的解釋不同。

AI工具的前端組件將是所有ADO交互發生的地方。它將顯示可用信息和AI工具獲得的見解。它還將允許ADO與信息交互并形成自己的結論。此前端將需要分析ADO工作流程。在[4]中已經對美國海軍ADOs進行了采訪,并提出了許多不同的圖形顯示建議。前端應顯示計算出的軌道威脅等級,并為該評估提供證據和解釋。還應提供原始數據,以便ADOs可以確認AI工具的假設。盡可能以圖形方式呈現給用戶的概率,因為這會減少冒險行為[37]。前端還將通過使用強化學習來利用AI功能。應制定一項獎勵快速完成ADO活動的政策,例如將資源分配到目標軌道以保護資產。此RL算法將能夠決定用戶界面(UI)元素的放置位置以及UI上顯示的內容。如果將常見動作從菜單移動到主顯示屏增加了RL功能獲得的獎勵,那么ADO完成任務所用的時間將會減少。這確保了前端最終變得最優,并適合實際ADOs的工作流程。

人工智能工具后端的兩個不同元素之間存在區別。在AI中,該工具可以是正在學習的,也可以是經過全面訓練并準備好執行的。首先將檢查學習后端。無論是第一次訓練AI工具還是處于持續學習狀態,它都會利用學習后端。學習后端連接到包含歷史數據的知識數據庫,可用于提供數百萬對自下而上的人工智能技術有用的數據點。這是機器學習和決策樹將特別有效的地方。如果實施決策樹學習算法,它將能夠創建有助于根據歷史數據和決策對新目標進行分類的規則。這些規則還允許AI工具向ADOs解釋其輸出。

當工具準備好用于生產并與前端交互時,將使用正在執行的后端。這種執行就緒狀態將存儲自上而下或基于模型的人工智能的人類專家規則。該組件將是一個由學習后端輔助的專家系統。通過對ADOs的專業知識和對目標線索重要性的看法的采訪中獲得的數千條規則將使其成為AI組件。同時,通過將這些人工規則與通過機器學習在學習后端找到的規則相結合,可以優化值和預測。

一些功能性和非功能性需求可以從目前已知的用于威脅評估的AI工具中指定。更高級的要求應通過與未來ADO 客戶的面談來制定。

4.1 功能需求

1.當傳感器或智能數據更新時,人工智能工具應攝取數據并進行訓練或預測。

2.AI 工具應為 ADO 定義的感興趣區域內的所有目標提供評估預測。

3.界面應提供評估說明并允許 ADO 交互。

4.AI 工具應提供自動模型訓練或新數據的重新訓練。

5.AI 工具應與 ADO 請求時可用的任何數據子集一起使用,并在新數據可用時合并它。

4.2 非功能性要求

1.AI 工具應在數據可用后 100 毫秒內提取數據。

2.AI 工具必須處理每個實例和感興趣區域的數百個目標。

3.AI 工具應在 2 秒內提供 ADO 要求的特定威脅評估。

4.界面必須符合 ADO 偏好,并允許在 3 次點擊內訪問所有常用命令。

5.人工智能工具必須對缺失的數據做出強有力的反應,并繼續進行評估和學習。

4.3 未來步驟

本報告之后的下一步將是開發供ADOs用于空中威脅評估的AI工具。為完成此目標應采取的一系列步驟如下:

1.需求分析:人工智能工具開發人員應在威脅評估過程的每個階段與關鍵決策者坐下來。應采訪ADOs,以確保該工具滿足其工作模式和預期結果的所有要求。還應與流程早期的關鍵人員進行面談,以確保系統兼容性。這將包括傳感器和其他資產經理,他們可以確認系統輸出將如何格式化并提供給AI工具。人工智能工具完成分析后,需要以有用的格式輸出和存儲,因此依賴人工智能工具輸出的系統中的決策者應該分析他們的需求。

2.確定AI工具所需的組件:完成需求分析后,開發人員應決定哪些通用AI工具組件將需要,哪些可以省略(如果有的話)。可能還需要開發某些專門的組件來支持威脅評估和軍事環境所面臨的獨特挑戰。應該開發工具的架構,并為每個組件分配明確的職責。該架構還將受益于每個組件之間的嚴格輸入和輸出合同,以便數據可用于現有系統。

3.AI和ML組件的選擇和評估:架構和需求確定后,應該明確哪些類型的AI和ML適合該問題。每個可能涉及AI或ML的組件都需要提出和訓練多個候選人。然后將比較這些候選者,以確定哪個最有效地解決了獨特的要求。一旦選擇了最佳模型并選擇了正確的AI類型,所有模型將被移入生產環境并準備連接到AI工具中的其他組件。

4.文檔和培訓:一旦開發了最終的AI工具并通過代碼注釋和其他文檔工具正確記錄了文檔,就該開發外部文檔了。該文檔應傳達AI工具的實用性以及如何有效使用它及其功能。審查ADO要求將有助于為受眾塑造文檔。一旦開發了該工具,培訓會和從ADOs收集反饋將很有用。

5.集成到生產系統:人工智能工具將投入生產,以協助ADOs進行空中威脅評估。需要檢查智能管道中較早的系統和管道中較晚的系統之間的所有連接以確認兼容性。

6.監控和維護:隨著時間的推移,隨著新威脅或新情況的發現,人工智能工具將能夠得到更新和改進。無論是通過人工還是自動系統,持續監控AI工具以確保預測質量不會隨著時間的推移而降低,這一點很重要。通過使用新版本更新舊模型,也可以納入AI和ML研究的新改進。

5 結論

人工智能工具是執行通常由人類處理的復雜任務的最先進方法。這為提高人類操作員的效率和有效性提供了許多可能性,例如執行高腦力任務的ADOs。威脅評估就是這樣一項非常適合人工智能協助的任務。重要的是要承認,人工智能工具不會取代操作員做出關鍵決策:相反,它們將為決策者提供更準確的數據,以有效地做出關鍵和及時的決策。

將ML集成到AI工具中可以帶來許多過去只能通過人類設計才能實現的新可能性。ML可以讓AI工具在沒有人類教授或者面對不斷變化的情境要求或敵人能力的情況下,從數據中學習。它可以重新設計AI工具交互,使其對 ADOs盡可能有用。它可以幫助將新目標與歷史示例進行聚類,從而為ADOs提供更好的威脅心理模型。可以自動檢測異常數據或空中目標并向操作員報告。

熟練和經驗豐富的ADOs與AI工具的結合將實現更快、更準確和更強大的空中威脅評估。通過讓人工操作員參與進來,該工具將保持ADO的責任和專業知識,同時提高生產力和效率。結合處理不完整數據狀態的現代方法也將使該工具對數據不準確或不可用具有魯棒性。

因此,該工具應該有助于國防和威脅評估過程。

付費5元查看完整內容
北京阿比特科技有限公司