2022年5月9日蘭德公司發布《利用機器學習進行作戰評估》報告。作者描述了一種利用機器學習來支持軍事作戰評估的方法。他們展示了如何利用機器學習從情報報告、作戰報告以及傳統和社會媒體中的非結構化文本中快速、系統地提取與評估相關的見解。這些數據已經由作戰級別的總部收集,通常是關于當地居民、敵人和伙伴部隊的最佳可用信息來源,但很少被納入評估,因為它們的結構不容易被分析。本報告中描述的機器學習方法有助于克服這一挑戰。
本報告中描述的方法,作者利用最近結束的針對上帝抵抗軍的戰役進行了說明,使評估小組能夠向指揮官提供關于戰役的近乎實時的見解,這些見解是客觀的,與統計學相關。這種機器學習方法可能特別有利于資源有限或沒有具體評估數據的戰役,這在資源有限或被拒絕地區的戰役中很常見。這種機器學習的應用對大多數評估小組來說應該是可行的,并且可以通過公開和免費的機器學習工具來實現,這些工具已被授權在美國國防部系統上使用。
如何利用機器學習工具將現有的情報報告、作戰報告和環境數據(如社交媒體、傳統媒體)納入戰爭行動層面的評估?
準確和及時的評估--提供關于哪些是有效的,哪些是無效的,以及如何改進作戰的反饋--是所有美國軍事作戰的一個關鍵要求。對軍事作戰的評估是圍繞戰役的作戰目標進行的,評估過程的重點是確定在實現這些目標方面是否正在取得進展。評估小組--最好是與指揮小組一起--確定與每個目標相關的預期效果,然后制定有效性措施(MOE),以跟蹤實現這些目標的進展。
獲得和處理正確的數據類型對于產生相關和可辯護的評估至關重要,這也是本報告的主題。有效的評估要求數據是客觀的、縱向的、與軍事作戰希望達到的效果類型相關的、有適當的評估結構,并且有足夠的時間頻率來支持決策。
在以前的研究中,我們為特種作戰部隊(SOF)的作戰評估開發了一種標準化的方法,我們發現作戰總部已經收集的各種數據與評估有關,但很少被使用。三種類型的數據--情報報告(如來自人類情報或信號情報來源)、作戰報告(如情況報告[SITREPs])和環境數據(如社交媒體)中已有的對正在發生的事件的文字描述,往往是有關當地居民、敵人和伙伴部隊的最佳可用信息來源。然而,這些數據的結構很少能被輕易地納入評估過程。
本報告描述了一種方法,即如何利用機器學習(ML)工具將這些現有數據納入作戰評估。我們展示了一個基于ML的文本分類器如何快速整理和準備這些數據,以便使用評估小組常用的標準統計工具進行后續分析。然后,我們使用最近結束的針對上帝抵抗軍的作戰數據來說明這一方法。這種基于ML的方法對大多數評估小組來說應該是可行的,并且可以用公開和免費提供的ML工具來實施,這些工具已被預先授權用于美國國防部(DoD)的機密系統。
本報告所描述的方法使評估小組能夠準確、及時地了解一場戰役,為指揮官提供近乎實時的、客觀的、與統計學相關的結果。可以使用我們的方法分析的每一種類型的數據--情報、作戰和環境--為理解一個戰役的效果提供了一個不同的視角。在有評估特定數據(如投票)的軍事作戰中,這些新的數據來源使評估小組能夠對調查結果進行三角測量,提高評估的可靠性。然而,ML工具在評估專用數據有限或沒有的情況下特別有用--這在資源有限或在被拒絕地區的作戰中很常見。
我們的分析集中在一個具體ML評估應用上:使用 "有監督機器學習"(SML),從現有的情報、作戰和環境報告中的非結構化文本中構建一個可供評估的數據庫。SML的這種應用的直覺是相對簡單的。首先,人類分析員通過手工審查和分析可用的非結構化文本的一個子集。這第一步的輸出通常被稱為 "訓練數據"。然后,ML算法分析這個訓練數據,并試圖模仿人類分析師對所有剩余文本使用的相同分析過程。
這種方法允許評估小組系統地編輯非結構化文本中的信息--每份報告中提供的定性描述成為客觀和定量評估中的單一數據點--然后檢查這些信息如何隨時間演變。這種方法是將ML納入評估過程的最簡單方法,但它仍然是一種有效的方法,可以從這些現有數據中信息豐富的非結構化文本中獲得與評估相關的見解。
在本報告中,我們詳細說明了一個五步工作流程,并在圖S.1中進行了總結,評估小組可以按照這個流程將SML納入評估過程。
圖S.1 用于評估工作流的監督機器學習
第1步是整理大量的潛在相關報告--通常是數以千計的年度報告(或更多)--可用于大多數業務。這個整理過程包括刪除不必要的重復內容,并將數據重新組織成適合ML算法分析的格式。在我們的方法中,現有報告中的非結構化文本被分為單句,然后分析其與競選活動的相關性。
第2步是制定適合每個相關MOE的編碼標準。這些編碼標準是歸納出來的,評估小組首先審查現有的數據,以確定哪些MOE是可以用現有的數據衡量的。然后,評估小組制定具體的編碼標準--也就是一套規則,說明什么時候一份報告應該被認為與該MOE相關(或不相關)。至關重要的是,這些編碼標準要足夠清晰和詳細,以便于復制,使不同的分析員在應用這些標準時產生幾乎相同的結果。本報告為每一類數據(情報、作戰和環境)提供了常用的MOE的編碼標準樣本,盡管具體的編碼標準必須是針對作戰的。
第3步是準備訓練數據,這是SML方法中ML算法的主要輸入。這些訓練數據是整體非結構化數據的一個子集,由評估小組使用步驟2中制定的編碼標準進行審查、分析和編碼。確保編碼標準的穩健性和可復制性是開發這些訓練數據的一個關鍵組成部分,因為ML算法試圖復制人類分析員的編碼。
第4步是實現和校準一個或幾個選定的ML算法。校準過程包括審查由ML算法編碼的報告,以驗證其準確性--也就是說,即確保被識別為相關的報告確實是相關的。如果算法表現不佳,評估小組需要調整算法參數或擴大訓練數據的數量。在一個實際的活動中,這個校準過程應定期重復,以確保算法在更多的數據可用時仍然表現良好。
第5步,評估小組處理來自ML算法的輸出,以整合到評估過程中。ML算法的輸出是一個結構化的數據庫(例如,Excel),確定所有滿足步驟2中制定的編碼標準的報告。這種通用的結構化格式允許用評估小組常用的工具進行分析,并便于插入現有的態勢感知工具中。在某些情況下,可以直接分析這些數據,以產生報告在一段時間內的趨勢線,例如,以正面方式討論一個實體(如敵人或伙伴部隊)的社交媒體報告的百分比與以負面方式討論它的數量相比。在其他情況下,這些數據需要與報告中的其他信息相結合--例如,提取特定地點的信息可以使評估小組生成不斷變化的敵人作戰自由地圖。
機器學習可以成為支持作戰評估的有力工具
我們的研究確定了五個建議,這些建議將提高基于ML的評估方法的價值。
建議1:在受控演習中驗證SML方法。本報告所描述的方法是特意設計的,以使評估小組盡可能容易復制,而且該方法的設計依靠的是既免費又已被批準在許多軍事網絡上使用的工具。然而,盡管我們已經用實際作戰測試了我們的方法,但我們并沒有試圖在實時或與軍事分析員團隊一起做這件事。因此,我們建議利用實戰演習,但在受控條件下驗證各項要求--如任務前培訓、人員配置、分析工具的可用性和必要的數據訪問。
建議2:探索如何利用無監督的ML為作戰評估提供信息。無監督的ML可以提供一種工具,用于發現戰役活動和這些活動的行動目標之間的未預期模式。經過評估小組的審查,這些信息可以為指揮官提供一個寶貴的工具,用來探索未預料到的模式。考慮到我們的任務是探索如何利用ML將現有數據用于評估,我們沒有詳細研究將無監督ML納入評估的實用性或價值。
建議3:對作戰報告實施適度的標準化。SITREP和其他作戰報告往往是關于伙伴部隊活動和能力的唯一最佳歷史數據來源,而且這種報告還可以提供關于美國部隊活動的詳細歷史記錄。這些特點使作戰報告成為評估小組潛在的有力工具--特別是如果有ML(或類似的)工具可以快速提取與評估有關的信息--但這種報告在質量和細節上并不一致。我們建議對這種作戰報告進行適度的標準化。要求(簡單地)戰術部門持續討論其伙伴部隊的活動和能力。
建議4:改善歷史情報和作戰報告的歸檔、發現和提取。獲取和提取本報告所述方法所需的相關情報和作戰報告在現有系統中并不容易。對于情報報告,我們建議在現有系統中增加快速提取縱向數據(如三個月或更長時間的數據)的能力,以滿足一組特定的搜索參數(如地理、布爾邏輯),其中包括報告全文和一些關于數據的基本描述性信息(日期、來源等)。對于業務報告,我們建議業務層面的總部確保所有下屬總部的SITREPs被系統地歸檔。
建議5:擴大專業軍事教育中要求的具體評估討論。盡管承認評估對軍事行動的重要性,但在向聯合部隊提供的與評估有關的教育和培訓方面存在重大差距。因此,評估小組往往難以提供指導有效決策所需的信息,而作戰級總部的其他工作人員往往缺乏經驗。
報告探討了美國空軍在戰役層實施聯合全域指揮控制(JADC2)面臨的挑戰,分析了未來多域作戰中運用人工智能的機會,梳理了建設JADC2人工智能生態系統的最佳商業實踐。報告最后指出,指揮控制構造、指揮控制所需的數據和數據基礎設施以及利用數據來指揮控制所有領域部隊需要的工具、應用程序和算法必須調整以支持未來的多域作戰。JADC2應該以一種內聚、漸進、交互式的方式發展,美國空軍作戰集成中心應確保JADC2的指揮控制結構、數據管理以及工具、應用程序和算法開發的發展遵循統一的戰略。
作者研究并推薦了將人工智能(AI)以及更廣泛的自動化應用于美國空軍全域聯合指揮與控制(JADC2)。作者發現,為了支持未來的多域作戰,必須對三個主要的使能類別進行調整:(1)指揮和控制(C2)結構或部隊如何組織,當局在哪里,以及他們如何訓練和配備人員,(2)利用數據進行C2所需的數據和數據基礎設施,以及(3)利用數據進行C2全域部隊的工具、應用程序和算法,包括人工智能算法。轉向現代化的JADC2需要各利益相關者合作制定政策、指導、戰術、技術、程序、訓練和演習、基礎設施和工具,很可能利用人工智能,以實現概念。
美國空軍空中作戰中心(AOC)制定的72小時空中任務周期,已經無法滿足當前數字世界的要求。在未來有計劃規劃與動態規劃之間的平衡點會發生變化,動態規劃的比重會加大。全域聯合指揮控制工具和流程要具備為這種變化提供支持的能力。
將空軍作戰中心結構體系遷移到現代數字環境中面臨許多挑戰,包括對以人為中心的主題專家會議和委員會的依賴,“空氣隔離”系統中的數據分為多個保密級別;對商業服務產品的嚴重依賴等。
其他限制多域作戰速度和范圍的因素包括:權力和指揮關系,跨域同步戰斗節奏,各域使用的程序不同,不同戰區和地區使用不同的指揮控制結構,靈活健全的通信系統和程序。
要支持多域行動應協調一下三個范疇的內容:全域聯合指揮控制的指揮控制結構的確定,可用于多域作戰的數據源和計算基礎結構,以及實現多域決策者“在圈中”且支持機器對機器過程的算法開發。
目前有多個未來多域作戰概念,需求也因戰役而異。未來的指揮控制結構應具有靈活性,能夠適應各種變化。
美國空軍綜合作戰中心(AFWIC)應與美國空軍太平洋司令部、歐洲司令部、非洲司令部合作,通過兵棋推演和桌面演練進行假設并繼續研究多域作戰概念,為國防戰略提供支持。同時他們應該將最終確定的多域作戰概念告知空軍以外部門,以便與其他軍種和美國國防部進行合作。
美國空軍首席數據官應制定適用于整個作戰中心的數據管理政策,確保數據得到保存和適當標記方便之后使用,同時要保證有足夠的數據儲存能力。
美國空軍綜合作戰中心應該與美國空軍作戰司令部(ACC)合作,評估各種能夠實現多域作戰的指揮控制結構。同時還要另外開展兵棋推演以及研討會來對比和比較各種替代方案。美國空軍作戰司令部后續應該進行的工作,還包括制定開發、組織、培訓和裝備方案。
全域聯合指揮控制流程應該體現凝聚、漸進和交互原則。指揮結構、數據管理以及工具,應用程序和算法的開發都應根據總體戰略進行。
美國空軍綜合作戰中心應確保戰略的實施,并向空軍參謀長報告相關情況。
美國陸軍未來司令部的醫療2028概念描述了陸軍衛生系統在2028年的時間框架內對同行/近鄰競爭者進行多領作戰的內容和方式的變化。該概念仍然與所吸取的教訓相聯系并受其影響,利用過去的實驗結果和未來作戰環境中的科學技術應用。
中心思想是,陸軍醫療系統作為全球一體化醫療服務的一個組成部分,將支持陸軍和聯合部隊在競爭期間以遠征和互操作的醫療能力進行多域作戰;必要時,武裝沖突,并以有利的條件返回競爭。陸軍醫療部隊采用全域能力的指揮和控制系統,以及治療和多式聯運能力,旨在迅速穩定和清除戰場上的傷員,同時盡可能地使傷員在前方返回崗位。醫療信息有助于形成共同的作戰圖景,為所有領導人,包括醫療和非醫療人員,提供他們做出決策所需的信息。部隊健康保護能力促進、改善或保護聯合部隊的行為和身體健康;使部隊保持健康和健壯,防止傷害和疾病,并保護部隊在競爭和沖突中免受健康危害。陸軍衛生系統的力量態勢必須支持多域編隊在全球和國內的多個地點半獨立地運作。(見圖1.邏輯圖)。
為了支持多域作戰,陸軍衛生系統必須成功地做到以下幾點:
1)賦予梯隊指揮官在醫療方面的指揮和控制權力,通過讓領導者能夠優化醫療能力以支持指揮官。無論通信網絡的狀況如何,通過一個綜合的指揮和控制系統來執行指揮官的意圖。并在適當的梯隊分配適當的權力和能力,以實現快速和風險知情決策。
2)通過最大限度地保持部隊的健康和體能,使部隊保持作戰能力。陸軍衛生系統發展了有效的健康監測能力,以支持作戰活動,實現風險分析,為保護決策提供信息,并指導其他危險緩解和遏制活動。它還通過不斷地同步和整合聯合和東道國的醫療資產來支持作戰部隊。
3)向前方提供醫療支持,實現半獨立作戰,通過調整直接和常規影響到軍團前方作戰人員生存能力、減少維持需求、簡化第八類(醫療供應)補給,并采用更輕、更小和現代化的設備。
4)通過同步進行有效的醫療和疏散,快速有效地將傷員從戰場上清除,并注重最大限度地讓士兵返回崗位,從而優化疏散和最大限度地恢復工作。讓士兵盡可能多地返回崗位,以維持戰斗力,使部隊保持競爭優勢。
本文件是北約 IST-151 研究任務組 (RTG) 活動的最終報告,題為“軍事系統的網絡安全”。該 RTG 專注于研究軍事系統和平臺的網絡安全風險評估方法。 RTG 的目標如下:
? 協作評估軍事系統的網絡安全,并在 RTG 的北約成員國之間共享訪問權限;
? 在 RTG 的北約成員國之間共享風險評估方法和結果;
? 將 RTG 的北約成員國使用的評估方法整合到一個連貫的網絡安全風險評估方法中,以使北約國家受益。
軍事平臺比以往任何時候都更加計算機化、網絡化和受處理器驅動。他們大量使用數據總線,如 MIL-STD-1553A/B、CAN/MilCAN、RS-422/RS-485、AFDX 甚至普通以太網,以及戰術通信的舊標準,如 MIL-STD-188C 和 Link 16。此外,捕獲器、傳感器、執行器和許多嵌入式系統是擴展攻擊面的額外無人保護的潛在輸入。結果是增加了網絡攻擊的風險。然而,這些平臺的持續穩定運行對于軍事任務的成功和公共安全至關重要。
軍事系統和平臺是網絡攻擊的首選目標,不是因為它們像消費電子產品那樣普遍,而是因為它們潛在的戰略影響。一旦受到影響,就可以實現各種短期和長期影響,從拒絕能力到秘密降低其有效性或效率。因此,軍隊必須在各個層面解決網絡安全問題:戰略層面,同時獲取平臺和系統;作戰層面,同時規劃軍事任務和戰術。
北約國家擁有大量可能面臨網絡攻擊的軍事平臺和系統。因此,北約將受益于利用當前的流程和方法來設計更安全的系統并評估當前系統的網絡安全。
本報告介紹了針對軍事系統和平臺量身定制的網絡安全評估方法,該方法由 RTG 團隊成員合作開發,并建立在他們的經驗和專業知識之上。團隊成員已經使用的流程被共享、分析、集成和擴充,以產生本報告中描述的流程。本報告的目標受眾是愿意評估和減輕其軍事系統的網絡安全風險的決策者。
圖一:網絡安全評估過程的五個主要步驟。
第 2 節介紹了 RTG 團隊在其存在的三年中用于開發流程的方法。第 3 節列出了可以應用該過程的系統的一些特征。最后,第 4 節描述了評估流程,而第 5 節總結本報告。
軍事平臺比以往任何時候都更加計算機化、網絡化和受處理器驅動。這導致增加了網絡攻擊的風險。然而,這些平臺的持續穩定運行對于軍事任務和公共安全的成功至關重要。
絕對的網絡安全是不存在的。必須通過迭代風險評估持續管理網絡安全。傳統 IT 系統存在許多網絡安全風險管理框架和流程。然而,在軍事平臺和系統方面,情況遠非如此。本文檔介紹了針對軍事系統量身定制的網絡安全風險評估流程。該流程由北約 IST-151 研究任務組 (RTG) 活動的團隊成員開發,該活動名為“軍事系統的網絡安全”。該過程可以應用于傳統的 IT 和基于固件的嵌入式系統,這些系統在軍事平臺和系統中無處不在。
這項工作的目的是深入了解人工智能 (AI) 工具以及如何將它們應用于空中目標威脅評估。人工智能工具是包含人工智能元素的軟件產品。關于人工智能有多種不同的思想流派,并且可以在同一個工具中使用不同的方法。許多現代人工智能方法都涉及機器學習 (ML)。本參考文檔將涵蓋不同類型的 AI 和 ML 以及如何將它們應用于威脅評估。這項工作將介紹所有 ML 模型共有的元素,例如數據收集、數據準備和數據清理。該報告還將討論選擇適合不同問題的最佳人工智能類型。
此外,這項工作將描述處理缺失數據或數據不確定性的方法。將提出實用的解決方案,包括通過數據插補填充缺失數據或修改人工智能工具的架構。
最后,該報告將檢查人工智能工具的輸出與現有基礎設施的集成。將結合威脅評估過程及其可以改進的元素來描述 AI 工具。還將討論 AI 工具系統的通用架構。
威脅評估對于維護國家安全利益和維護各國主權具有重要意義。空中威脅評估對于一個有大片國土需要保護的國家(例如加拿大)很有價值。人工智能和機器學習都可以應用于威脅評估的研究領域。通過學習構建人工智能驅動的工具,加拿大的國防和安全將通過獲得持續的前沿研究得到改善。無論哪個國家開發出最有效和最可靠的威脅評估工具,在決策和威脅反應方面都將獲得優勢。通過利用前面提到的快速擴張的領域,加拿大可以獲得決定性的優勢。
評估所有領域(如空中、網絡、陸地、海洋、太空)的威脅是維護任何國家安全的一個重要方面。威脅分析包括查看敵人過去、現在和預期的行動,以及這些行動對友軍資產或單位的影響。威脅評估還考慮了為減少、避免或消除風險而可能采取的任何防御措施[1]。在防空的背景下,空中目標威脅評估的任務需要識別、確定空中目標和優先排序,并管理任何必要的資源以應對威脅[2,3]。
當前的空中目標威脅評估任務由操作室中的一組高技能和經驗豐富的人員執行[3,4]。該任務涉及考慮先驗信息(例如,情報報告和評估標準)和獲取的信息(例如,從傳感器系統動態收集的運動學信息),以確定目標對某個感興趣點/區域(POI/AOI)。此信息(運動學和非運動學)稱為提示。這些信息的心理整合需要相當水平的戰術專業知識,包括有關威脅類型、軍事條令和基于經驗的評估啟發式的知識[4]。人工智能(AI)將允許根據防空作戰員(ADO)可用的線索以及他們的威脅評估決策[5]或專業知識來創建工具。
本報告全面概述了AI工具及其構建。這些方法是尖端的并且非常有效。本報告將清晰地展示人工智能工具的開發方式。它將展示哪些組件是必要的,如何獲取數據并使其對機器學習(ML)模型有用,以及AI工具如何與更廣泛的威脅評估環境進行交互。
本節將介紹人工智能的概念和許多現代人工智能算法。它將包含有關AI和ML主要主題的背景知識。它還將描述AI工具中經常出現的組件。
從一個非常廣泛的角度來看,人工智能是人工系統“執行與智能生物相關的任務”的能力[6]。然而,這是一個非常寬泛的術語,涵蓋了許多系統。例如,它不區分人工智能系統、智能系統和自動化系統。關于什么構成人工智能,文獻和文化中有許多定義。本報告中使用的“人工智能系統”的定義是文獻和文化中各種來源的觀點的結合。
人工智能系統是一種具有以下能力的人工系統:
1.執行“有趣的”[7]任務,這些任務“通常與智能生物相關”[6]
2.“自學成才”[7,8]
早期的AI開發人員研究的問題在智力上對我們來說很困難,但對計算機來說卻相對簡單。這些問題可以用一組形式和數學規則來描述[9]。例如,國際象棋游戲由一組有限且嚴格的規則定義,這些規則可以編程到人工智能中。然而,人工智能很難處理使用人類直覺而不是使用一組正式的規則來處理的任務,例如圖像識別。人工智能的一種方法是基于知識的方法,它涉及嘗試設計形式語言和手工制作的邏輯推理規則,以使機器能夠推理和解決問題。另一種方法是讓計算機從經驗中收集知識,而不是讓人類對程序的行為進行硬編碼。
機器學習是通過從數據中發現模式來獲取知識的能力。因此,這些數據的表示會顯著影響機器學習算法的性能。換句話說,提供給機器的信息(即特征)會影響它解決問題的能力。然而,手工設計的特征受到人類知識的限制。讓機器發現哪種表示最好稱為表示學習。學習到的表示通常比手工設計的表現要好得多。本報告在2.3小節中探討了人工智能的機器學習方法。
AI 工具的最終目標是通過減少操作員的認知和體力工作量來改善操作員的決策過程。為此,人工智能工具通過提供協作環境來補充操作員的角色。人工智能工具處理可用信息,從數據中獲得洞察力,并以有利于操作員體驗的方式呈現信息和洞察力。圖1顯示了AI工具流程的概覽。該模型基于[3]中提出的決策支持系統(DSS)架構。
1.操作員是與工具交互和監控工具、根據工具輸出做出決策并根據這些決策向相關個人報告的人。輸入工具的信息可以是靜態的或動態的。靜態信息(例如配置文件和靜態操作員首選項)在操作期間不會更改。動態信息,例如數據輸入和設備操作,在整個操作過程中不一定保持不變[3]。將操作員與咨詢能力聯系起來的箭頭強調了該工具的協作方面。
2.咨詢能力負責管理操作員和系統之間的交互。這包括管理操作員輸入(即靜態和動態信息),管理環境輸入(例如,約束和環境信息),促進操作員交互(例如,人機交互,人機界面)和顯示信息。要顯示的關鍵信息包括算法的結果和當前的操作限制。
3.領域知識由用于評估的規則和關系組成。例如,領域知識可能包括操作員對信息變化影響的意見。
4.算法組負責處理數據和執行評估或預測任務。可以考慮許多不同的算法和功能來實現算法組。該組將提供應用程序中的大部分AI功能,并且可以選擇或組合不同的AI或ML應用程序。
5.環境為人工智能工具提供操作約束。更具體地說,環境由檢測和測量目標的傳感器系統以及來自更高級別個人的任務概覽和命令組成。
雖然[3]對圖1中的大多數組件進行了詳細解釋,重點是咨詢能力部分,但本報告側重于架構的算法部分。
圖1:操作員、環境和人工智能工具的交互
上面介紹的AI工具被認為是基于第 2.1 節中介紹的定義的AI系統。評估的復雜性和重要性使其成為一項不容易解決的任務。人工智能工具的學習和適應方面可以通過機器學習方法來完成,這將在2.3小節中進行描述。
本節將討論機器學習和人工智能的結合。有許多不同類型的AI算法,ML是這些算法的一個子集。本節將描述使用ML從數據中學習的算法類型,以及這對AI工具有何用處。作者還在他們之前的工作中定義了機器學習中的許多基本概念[5]。
根據柯林斯詞典,機器是“使用電力或發動機來完成特定工作的設備”[10]。在機器學習的背景下,機器就是計算機。更具體地說,是計算機中的程序完成了這項工作。正如[11]中所定義的那樣,“如果計算機程序在T中的任務(由P衡量)上的性能隨著經驗E提高,則可以說計算機程序從經驗E中學習某類任務T和性能度量P。”這個定義提出了機器學習問題的三個主要組成部分:任務T、性能度量P和經驗E。
1.任務是要解決的問題。例如,分類任務涉及確定某個輸入屬于哪個類別(例如,對象分類)。其他任務示例是回歸(例如,成本預測)、異常檢測(例如,欺詐檢測)和去噪(例如,信號處理)。
2.性能度量是用于評估ML算法性能的指標。例如,準確度是一種可用于分類任務的性能度量。準確率是模型正確分類的示例的分數。“示例”被定義為特征的集合,通常表示為向量,其中n為特征個數,每個元素
為一個特征[9]。數據集是一組例子的集合。
3.經驗是指模型在學習過程中所接受的訓練類型。在無監督學習中,模型所體驗的數據集僅包含特征,并且由模型來學習數據的特征。例如,學習描述數據的概率分布可能很有用。聚類也可以使用無監督學習算法來執行。在監督學習中,模型體驗的數據集不僅包含特征,還包含與每個示例相關聯的標簽。無監督學習模型觀察幾個例子,而監督學習模型觀察幾個例子及其標簽。但是,在某些情況下,有監督和無監督之間沒有明確的區別。例如,半監督學習涉及從包含標記和未標記數據的數據集中學習。在強化學習中,模型不是從固定的數據集中體驗,而是模型與環境交互并從交互中學習。
為了了解模型在處理現實世界中的新數據時的表現如何,通常會分離出一部分數據集,以便僅在完成所有訓練后才能使用。這被稱為測試集,由于模型之前沒有看到測試集中的數據,因此測試集上的性能可以作為模型真實性能的指標。文獻提供了機器學習算法和模型的許多不同分類(例如,[12]提出了機器學習的五種范式:連接主義(例如,神經網絡、象征主義、進化論、貝葉斯和類比)。本報告并不是對機器學習中在空中目標威脅評估領域有用的不同方法的詳盡回顧。本報告重點關注三類特定的方法:監督機器學習、無監督機器學習和強化學習。
在監督機器學習中,可以使用一組標記的訓練示例(即訓練集)。該模型的目標是能夠為示例分配正確的標簽,其中正確的標簽是與特定示例對應的標簽。通過基于一組標記的訓練數據最小化某個損失函數來調整模型。具體來說,迭代調整模型的參數,以減少訓練誤差。
1.模型:模型是根據樣本特征輸出標簽的算法。
2.參數:模型的參數根據選擇的模型而有所不同。例如,在神經網絡中,參數包括神經元的權重和偏差。
3.誤差:也稱為損失,誤差用于衡量模型的執行情況。可以針對特定應用設計和修改損失函數。
4.迭代調整:在訓練過程中,采用一定的方案來改變每次迭代的參數。具體來說,迭代調整模型的參數,以減少訓練誤差。一個例子是普通梯度下降法[13]:
其中θ是模型的參數,α是學習率(決定每次迭代調整多少參數的超參數),J(θ) 是模型在整個訓練集上的損失函數, 是相對于θ的梯度。可以使用各種修改來改進普通梯度下降算法,例如動量[13]。這種改進產生的算法包括Adagrad[14]和Adam[15]。
由于機器學習,許多研究和應用領域都取得了許多成功。圖像理解(例如,檢測[16]、分類[17])和自動化物理系統(例如,自動駕駛汽車[18])只是成功的兩個例子。這些成功的很大一部分歸功于監督學習和強化學習的使用。然而,這兩種范式都僅限于人類輸入和經驗:監督學習的訓練信號是目標標簽,而在強化學習中,信號是期望行為的獎勵[19]。使用人類設計的標簽和獎勵的一個弱點是由于訓練信號的稀疏性而導致的信息丟失。例如,盡管用于訓練監督學習和強化學習模型的數據通常具有豐富的特征(例如,圖像),但目標和獎勵通常非常稀疏(例如,表示圖片標簽的單個向量)[19]。無監督學習的動機是更好地利用可用數據來更好地理解數據。因此,無監督學習范式“旨在通過獎勵智能體(即計算機程序)來創建自主智能,以學習他們在不考慮特定任務的情況下觀察到的數據。換句話說,智能體“為了學習而學習”[19]。無監督學習算法的強大之處在于它能夠發現標簽無法完全表達的數據的潛在模式和結構。
強化學習(RL)的思想是學習采取什么行動來獲得最大的回報。這種范式背后的一個共同動機是智能體與環境之間的交互(圖2)。根據對環境的觀察,智能體執行影響環境的動作。作為響應,會生成新的觀察結果,并且智能體會收到獎勵或懲罰。
圖 2:智能體-環境交互
RL的兩個重要區別特征是試錯搜索和延遲獎勵。與程序員指定輸出應該是什么的監督學習不同,RL智能體必須進行實驗以發現導致最高獎勵的動作。此外,行動可能會產生長期影響。因此,較早采取的行動可能會導致稍后的獎勵或懲罰。
在監督學習中,該模型嘗試從訓練示例中學習以泛化并在新示例上表現良好。雖然功能強大,但在處理涉及交互的問題時,監督學習是不夠的。例如,在未知環境中學習時,獲得包含代表智能體在所有可能情況下應采取的行動方式的示例的訓練集可能是不切實際的。在這些情況下,智能體必須使用自己的經驗和與環境的交互來學習。
RL系統[20]有四個主要組成部分:
1.策略:策略根據智能體的感知狀態定義智能體的行為。換句話說,它決定了當智能體處于當前狀態時要采取什么行動(或行動的什么分布)。
2.獎勵信號:獎勵信號表明智能體在某個時刻的表現如何。獎勵的概念是RL問題的核心概念,因為從長遠來看最大化獎勵數量是智能體的最終目標。獎勵的類型是特定于問題的。例如,在訓練RL智能體玩游戲時,它可能會因獲勝而獲得正獎勵,而因失敗而獲得負獎勵。結果,通過監控獎勵信號來學習策略。例如,如果當前策略給出的某個動作導致了懲罰,那么該策略可能會以某種方式改變,以便在情況再次出現時避免該動作。
3.價值函數:價值函數表示如果遵循當前策略,智能體在未來的預期表現如何。雖然獎勵被視為即時指標,但價值函數是長期指標。例如,在當前狀態下投資獲得負回報可能會導致總回報為正。價值函數引入了延遲獎勵的方面:某個狀態的價值是預期在長期內獲得的總折扣獎勵,其中每個收到的獎勵都根據最近收到的時間進行折扣。
4.環境模型:環境模型存在于基于模型的RL問題中。它指示環境如何根據智能體在特定狀態下的行為做出反應。然而,環境模型并不總是可用的。無模型方法解決了這一挑戰。
正式表示完全可觀察的環境(即智能體的觀察完全描述當前環境狀態的環境)以進行強化學習的流行方法之一是使用馬爾可夫決策過程(MDPs)。馬爾可夫過程是服從馬爾可夫性質的一系列隨機狀態S:在給定當前狀態的情況下,未來狀態獨立于過去狀態。
其中是第
時間步的狀態,t是當前時間步,
是
發生的概率。MDPs是馬爾可夫過程的擴展:除了表征馬爾可夫過程的狀態集S和狀態轉換集P之外,還有可能的動作集A和獎勵集R。
本節將把空中威脅評估的任務與人工智能工具的能力聯系起來。 AI 能力將映射到威脅評估的每個階段,并將展示如何將其集成到現有能力中或改進現有能力。
如第 1 節所述,ADOs等操作人員面臨認知和身體挑戰,這些挑戰不利于其做出可靠決策的能力。人工智能工具將通過提供以下兩個主要好處來應對這些挑戰:
1.減少認知和身體負荷量:人工智能工具為操作員提供的支持和顯示將緩解導致操作員總壓力的眾多因素。這種好處是通過使用決策支持系統(DSS)的設計原則來提供的。
2.利用最先進的方法:人工智能的機器學習方法是一個非常受歡迎的研究領域,因此在方法的開發和改進方面做了大量工作。通過使用AI支持空中目標決策,該系統可以使用和利用最先進的方法。
如2.2小節所述,通用AI工具中有多個組件可以專門用于評估。威脅評估AI工具中的組件及其專業化如下:
1.操作員(Operator)是評估過程中的ADO。操作員將負責確保提供給AI工具的信息盡可能準確。然后,ADO將與該工具交互,以充分了解威脅情況,并獲得AI生成的威脅評估。
2.咨詢能力(Advisory?Capability)負責與ADO以及各種傳感器和數據庫系統進行交互。這將涉及從雷達和其他傳感器收集數據,以及解釋從情報報告中獲得的數據。咨詢能力還負責確保ADO可以有效地與計算機界面一起工作。更新界面可能涉及一個可以結合機器學習的動態過程。
3.領域知識(Domain Knowledge)將包括ADO的經驗以及他們用來進行準確評估的任何規則。在空中威脅評估中,這可能包括常見的高度、異常的飛行模式或敵軍作戰節奏的變化。
4.算法組(Algorithms)負責目標數據的處理和威脅評估。這將包括處理軌跡數據以獲得提示數據,并使用提示數據和領域知識來評估目標的威脅。可能的評估算法包括基于規則的方法[3、4]、貝葉斯方法[3]和本報告[5]中提供的AI技術。
5.環境(Environment)為人工智能工具提供操作限制和目標數據。更具體地說,環境包括檢測和測量目標的傳感器系統以及來自更高軍事指揮鏈的任務概覽和命令。
由于機器學習方法的種類和成功率眾多且不斷增加,機器學習在威脅評估中的應用數量僅限于研究人員的知識和經驗。本報告將概述如何將三種主要機器學習范式應用于人工智能工具進行威脅評估的示例。
通過一組標記的過去目標示例,其中每個示例包含有關歷史目標及其相應威脅值標簽的信息,監督機器學習可用于將威脅值分配給目標。在[21]中,監督學習被用于構建多標準決策(MCDM)方法(EMCDM)的集成,以根據當時的線索值推斷目標在某個時間點的威脅值。EMCDM技術由各種MCDM方法組成,它們的輸出組合成一個單一的威脅值。MCDM方法的輸出基于作為輸入的提示值。用于訓練EMCDM技術的監督學習技術取決于集成技術的類型。例如,在加權組合EMCDM技術中,MCDM方法是使用監督學習調整的組合權重。在所有的EMCDM訓練中,示例集由標記的目標實例組成,其中目標實例被定義為目標在某個時間點的提示數據。
可以從目標中提取各種信息。因此,對于某個目標,可以為系統提供關于目標的大量線索,作為威脅評估的基礎。無監督學習可用于分析提示數據,以深入了解底層結構和模式。例如,無監督學習的一種用法是降維。通過降低提示數據的維數,系統可以處理更緊湊和簡潔的目標描述。換句話說,目標是以數據可以提供關于目標的大致相同信息但使用較少資源的方式轉換數據(例如,使用10個提示而不是50個提示)。
實現降維的一種方法是主成分分析(PCA)[23]。PCA旨在通過學習最大化新子空間中數據方差的線性變換,來表達低維子空間中的數據。最大化數據方差背后的直覺是假設更高的方差意味著更多的信息量。數據原本會有一定量的方差/信息。PCA嘗試使用低維子空間來近似數據,同時盡可能多地保留原始方差。PCA的結果之一是檢測和去除數據中的冗余,從而在沒有不必要的線索的情況下描述目標。然后可以將這些PCA生成的線索視為要使用的新的各種線索。然而,在應用過程中需要考慮基于PCA的假設(例如,方差足以描述信息量,主成分是正交的)。
自動編碼器[9]是經過訓練以將輸入重新創建為其輸出的神經網絡。自動編碼器通常由兩部分組成:編碼器和解碼器。編碼器網絡生成低維潛在特征。然后將潛在特征輸入到解碼器網絡中,該解碼器網絡嘗試輸出最初輸入到編碼器中的內容。通常存在約束和限制,以防止自動編碼器能夠完美地重新創建輸出(即,它只能提供近似值)。結果,模型被訓練為優先使用最有用的數據特征。因此,與PCA類似,自動編碼器可用于使目標提示數據更加簡潔,并且僅包含足以描述目標的提示數據。自動編碼器的其他用法也存在。例如,自動編碼器可用于去噪[24]應用程序。這在威脅評估中特別有用,因為目標數據(例如,傳感器數據、提示)本質上是含噪的。
除了降維之外,無監督學習的另一個用途是聚類。文獻中有大量關于用于聚類的無監督學習算法的工作,所有這些算法都用于威脅評估。在不關注特定算法的情況下,聚類的一種用途是將感興趣的目標與歷史目標進行聚類。這樣做的目的是發現感興趣的目標是否與歷史目標相似。如果有關于如何處理過去目標的知識,操作員可以在決定對當前感興趣的目標采取何種行動時考慮這些信息。
可以將威脅評估過程建模為強化學習問題。例如,咨詢能力可以在操作期間使用RL來了解操作員希望如何顯示信息。這類似于社交網站知道在首頁上顯示哪些項目的方式。例如,如果RL模型有一個獎勵處理速度的策略,它可以測量從ADO開始評估到ADO提交威脅評估所花費的時間。這將允許模型因導致更短的威脅評估過程的行動而獲得獎勵,從而鼓勵更有效的交互選擇。如果某個深度為兩級的菜單項(即,它需要兩次單擊才能訪問)被頻繁使用,則模型可以將該菜單項放置為第一級深度項。如果該項目被非常頻繁地使用,則該項目應該在主屏幕上被賦予一個突出的按鈕位置。在空中威脅評估應用程序界面上工作的強化學習算法將能夠進行這些和其他更改,以檢查威脅評估的時間是否正在減少,在這種情況下,它將獲得獎勵。
有大量研究和許多資源可用于解決MDPs,這使得使用MDPs解決RL問題成為一個不錯的選擇[25]。
人工智能工具的結構需要考慮多種因素。該工具將在流程管道中運行,從數據收集和準備開始,到模型訓練,然后到模型預測,最后為用戶顯示結果。在AI工作流程中,可以更容易地將結構視為流程工作流[26]。一旦AI工具經過訓練,它就會不斷返回到周期的第一階段,并使用新數據和新見解進行重新訓練。這個過程使人工智能工具非常強大,可以隨著時間的推移保持準確性和有效性。
人工智能工具開發的第一階段是收集高質量數據。這些數據將存放在一個或多個可供AI工具訪問的數據庫中。人工智能工具將首先在數據庫中的現有數據上進行訓練,然后在生產時,它將主動監控任何操作數據庫中的最新數據,以便提供威脅評估。
除了收集數據,還必須確定最有效的機器學習或人工智能模型。該決定需要考慮可用數據的類型、數據的數量及其質量。與最終用戶面談也很重要,以確保所選模型將以對他們有用的格式輸出信息。這可能是一個要求,例如最終威脅評估值必須呈現為分類問題(例如,高、中、低)或回歸問題(例如,1.4、2.9、9.0)。要求也可能更嚴格,例如人工智能工具的推理必須能夠被人類操作員解釋。像這樣的要求可能會使現代機器學習研究的整個分支沒有吸引力,而是需要不同的模型。由于所選AI模型對整個工具的影響很大,因此必須在模型開發之前的早期階段收集最終用戶的需求。
一旦選擇了一個或多個模型類型,就必須對其進行訓練。在這個階段,由于上一步的需求分析,一些AI模型可能已經被淘汰。在此步驟中,將淘汰更多模型。在對數據進行訓練之前,通常很難判斷哪個機器學習平臺最有效。這意味著應該對多個模型進行數據訓練,并使用某種準確度指標進行比較。一旦確定了最準確的模型,該模型將被完全訓練并準備好在生產中使用。
下一階段是將模型部署到生產應用中。ADO獲得了一個功能性AI工具,可以連接到操作數據庫并協助威脅評估過程。輸出到ADO的最終值都將被處理和清理,最終格式將被確定。然后,隨著所有ADO將其威脅評估以及可用的線索提交給訓練數據庫,該工具將得到持續訓練。這將使該工具能夠與新出現的威脅和新情況保持同步。ADO還可以就AI工具提供的評估進行反饋。例如,如果AI工具提供“高”威脅評估,而ADO認為它應該是“中”,則ADO可以提供反饋信號,表明該工具不正確并且威脅等級太高。這將存儲在數據中并用于在線訓練,使其能夠不斷地向經驗豐富的ADO學習,也可以自學成型。
AI工具流程的最后階段是將工具轉移到精度維護。在這個階段,需要對工具進行監控,以確保準確性不會下降。該工具也將在此階段接收反饋并從ADO評估中學習。最后,人工智能工具的開發并沒有停留在這個最后階段;相反,它必須隨著威脅的演變、環境和要求的變化以及新的和更相關的數據變得可用,而相應地更新和改進。
圖3: AI工具中的模塊及其交互
圖 3 提供了AI工具中以下模塊的可視化表示:
1.數據庫組件
2.數據訪問和存儲模塊
3.數據預處理模塊
4.ML 模型組件
5.數據后處理模塊
6.可視化/操作員交互模塊
將ML組件集成到更大的AI工具中需要兩條不同的管道。第一個管道將是訓練管道,這是進行模型選擇、測試和訓練的地方。一旦確定了合適的ML模型,并且該模型已經針對所有當前可用的數據進行了訓練,它將在稱為推理管道的第二個管道中使用。
圖4顯示了訓練管道的可視化。第一步需要收集歷史威脅評估數據以及ADO威脅標簽(如果所需的ML模型使用監督學習算法)。接下來,這些數據將通過數據預處理模塊合并為格式良好的數據集。然后,這個大型數據集將被分成三個不同的集合:
1.訓練數據集:該數據集將是ML模型在訓練時唯一看到的數據集。它也將是三個數據集中最大的一個。通常在本節中描述的三組之間決定百分比分配。這取決于系統設計者的判斷。常見的比率是80/20或90/10,具體取決于可用訓練點的數量。這些點將用于訓練模型,但重要的是保留一個保留數據集,以確保您的模型不會過度擬合訓練數據(即,無法泛化到新的未見數據點)。
2.驗證數據集:這將在訓練進行時用作測試集。這些數據不會用于訓練模型,而是在訓練的非常時期結束時,將在這個小集合上測試模型。這對于確定模型何時得到充分訓練很有用。即使模型在訓練數據集上的損失可能會繼續減少,但如果驗證集上的損失已經趨于穩定,那么模型可能會過度擬合訓練數據集,應該停止訓練。
3.測試數據集:該數據集將為所有候選 ML 模型提供最終評估指標。它不會用于訓練,并且模型設計者也必須不要檢查此數據集。這將確保模型超參數不會根據此測試數據集進行調整。測試數據集的價值在于發現ML模型是否可以泛化到來自類似于訓練示例分布的看不見的數據點。如果測試數據集的損失遠高于訓練集和驗證集,則模型很可能對其訓練數據進行過擬合。如果有多個候選ML模型,則可以使用測試數據集上的損失和準確率來確定選擇哪個模型。
在模型訓練期間將使用訓練和驗證數據集,在模型評估期間將使用測試數據集。
圖4 :ML 模型訓練管道
一旦最佳候選ML模型經過訓練和選擇,它將用于AI工具的生產版本。該模型將用于實時提供在線推理/預測。候選模型的訓練和測試可以繼續進行,也可以納入新模型或研究。這將確保AI工具始終使用性能最佳的ML模型。
一旦經過訓練的模型展示了所需水平的能力,就該使用推理管道了。推理管道是ML組件,將在操作中使用的實際AI工具中使用。該管道的示意圖如圖5所示。
圖5:ML 模型推理管道
人工智能工具將被要求不斷監控傳感器和操作員的情報,以獲得最準確的現實畫面。該數據將組合成與每個空中目標相關的提示數據集。一旦一組提示數據可用,它將被提供給ML模型,以便進行預測。然后,該預測將通過本工作前面討論的AI工具的其他組件提供給ADO。一旦投入生產,該模型還將通過運行來自新威脅評估情況的示例和迄今為止ADO對預測的反饋來保持最新狀態。這種訓練可以以在線方式(即連續)完成,也可以通過批量訓練(即以設定的時間間隔一次對所有示例進行訓練)完成。該模型還將對其性能進行監控,以確保準確性和損失不會隨著操作現實的變化而隨著時間的推移而降低。如果檢測到性能下降,則人工干預和糾正可以使系統恢復到以前的性能水平。
本小節將解釋威脅評估過程的背景以及傳統上它是如何完成的。它還將標志著傳統流程中的挑戰和通過智能決策支持系統(DSS)改進的機會。還將介紹AI工具及其與傳統DSS威脅評估的關系。
有關因素信息和分類的描述,請參見[21]。出于 AI 目的,因素數據應構造為包含m個因素的向量,其中m是觀察中的因素數量,每個條目是一個因素值。每個完整的向量都是一個樣本,如果有足夠大的樣本訓練數據集,就可以進行機器學習。
對于空中威脅評估,已經確定了16個因素來構成關于目標的最有價值的信息[4]。這些見表 1。
表 1:用于目標威脅評估的因素。
威脅評估過程絕非易事。這是一項壓力極大的任務,需要做出復雜的決策。該過程的認知和物理性質是由于各種原因造成的,當它們結合起來時,會對操作員的決策過程產生不利影響。
操作員不僅必須處理來自各種來源的大量和類型的信息,而且還要同時管理多個任務。例如,操作員管理可能來自眾多媒體、顯示器和人員的音頻、口頭和視覺信息[4]。除此之外,他們還必須執行其他任務,例如監控指定監視區域內的空中目標、了解可用資源以及準備情況報告[4]。這種高度的多任務處理和信息過載給威脅評估任務帶來了認知復雜性和身體壓力。
除了大量數據之外,運營商還面臨著信息中固有的不確定性。運營商必須考慮到數據源的不完善性以及人類行為的不可預測性[3]。不確定性量化和感知在威脅評估過程(和戰術軍事行動一般[3],因為運營商依賴決策過程中的數據來獲取環境(和對手)的感知。
在時間限制下操作人員的工作也造成了相當大的壓力。需要時間來收集信息、處理信息并最大限度地減少不確定性。但是,空中目標正在高速移動,因此必須根據可用的融合做出決策此外,用于信息收集/處理和不確定性最小化的時間越多,制定后續決策和行動的時間就越少,對手收集/處理信息和行動的時間就越多。最后,錯誤決定的后果是嚴重的,甚至可能是災難性的。飛機的錯誤分類1988年造成290名平民死亡的事件[27]就是決策失誤的一個例子。操作員工作的重要性和不正確執行的后果增加了任務的壓力。
運營商在威脅評估過程中面臨的挑戰促使人們研究如何在不影響威脅評估可靠性的情況下減輕認知和物理工作量。更具體地說,有機會開發用于空中目標威脅評估的決策支持系統(DSS)[4]。圍繞DSS的設計原則(即DSS 所包含的內容)有許多著作。
DSS的關鍵要求之一是它不能取代運營商;相反,DSS是對運營商的補充。[3]將此要求描述為DSS充當“決策支持而非決策自動化”。這方面允許在威脅評估過程中操作員和系統之間的協作。讓人參與決策過程是至關重要的:人在環方面確保每個決策都有責任。軍事行動的合法性要求問責是其行動的組成部分,問責包括明確的合法性和道德標準。如果在這個過程中沒有操作者,那么誰應該為錯誤決策的后果負責的模糊性就會帶來法律和道德上的分歧。
除了確保操作員始終參與決策之外,文獻中還介紹了其他設計原則。[2]根據文獻及其實地工作,詳細列出了設計威脅評估系統的規則。顯著的設計特點包括:
1.透明度:DSS應該能夠證明其計算和后續建議的合理性[3,4]。因此,DSS應向操作員提供導致最終值[2]的中間計算以及每個提示對最終威脅值[4]的影響。消除DSS的黑盒特性的重要性在于建立對系統的信心和信任[3]。如果不知道決策/建議是如何生成的,人類不太可能接受自動化系統的決策/建議[29]。理解上的不透明為誤用和錯誤創造了機會[12]。由于使用機器學習方法來構建AI工具,因此這是這項工作的一個重要考慮因素。機器學習方法不限于人類定義的決策規則,因此可以表現出黑盒性質。因此,與傳統DSS相比,AI工具的透明度更為重要。
2.處理不確定性:DSS決策所依據的數據中有許多不確定性來源(例如,傳感器數據、威脅值計算中的參數)[2]。處理不確定性也是DSS的一個重要設計特征,因為它允許運營商調整他們對系統的信任級別。在[2]中,這個設計方面是通過使用提示數據的區間表示來實現的。
3.信息的有效和交互式顯示:使用圖形格式顯示信息很重要,因為威脅是一個模糊的概念[4]。應傳達給操作員的重要信息是威脅等級、威脅歷史、線索列表[4],以及與建議相關的不確定性[3]。除了顯示信息之外,系統還必須能夠提供操作員可以與之交互的媒介。這可確保操作員留在威脅評估過程中[3]。
本報告中提出的人工智能工具可作為空中目標威脅評估的DSS。人工智能工具的人工智能方面在于系統的運行方式。更具體地說,人工智能工具將把人工智能概念(例如,機器學習、適應)納入其操作中。
AI工具將能夠集成到空中威脅評估的所有階段。本小節將描述威脅評估的每個階段與AI工具的能力之間的關系。
空中威脅評估的階段如下[4]:
1.掃描并選擇提示。
2.比較、調整適合和適應。
3.計算威脅等級。
4.繼續處理。
關于1(掃描并選擇提示),AI工具將能夠使用所有可用的提示。這與人類操作員不同,后者僅審查18個可用于評估飛機的線索中的6到13個[4]。這些信息將通過各種傳感器從環境中收集,然后通過通常的情報報告或傳感器讀數方式進行報告。這些數據將被編譯到一個數據庫中,供AI工具訪問以從中進行學習和預測。
關于2(比較、調整擬合和適應),AI工具將對數據庫中可用的線索進行計算。該數據可以與ADO專家提供的感知數據(例如預期海拔)進行比較,并檢查實際數據是否一致。如果數據與預期不一致,人工智能工具會將差異與歷史示例進行比較,以提供對差異的解釋或調整。如果數據無法協調,則可能需要調整模型的擬合度,人工智能工具可以選擇將飛機作為不同類型(即軍用、民用)進行處理。
關于3(計算威脅評級),人工智能工具將使用可用的線索,如果它增強預測,可能還會使用這些線索的子集,來預測目標的威脅評級。 Liebhaber、Kobus 和 Smith 在[30]中發現威脅等級獨立于檢查的線索數量。
關于4(繼續處理),如果所有提示數據都可以充分解釋,人工智能工具將完成分析,或者它將繼續搜索和處理新的提示。這個過程將一直持續到模型通過基于解釋的輸出獲得ADO的批準,或者直到所有可用的線索都被處理并且模型擬合得到盡可能好的調整。
第3.5.2節概述的關于操作員對DSS的信任的關鍵點之一是用于生成威脅評估結果的模型的透明度。操作員很難對沒有提供理由和解釋的機器輔助預測有信心[4]。出于這個原因,已經創建了許多在計算和標準加權方面具有透明度的DSS方法。例如,許多MCDM方法可以為每個單獨屬性的權重以及它們如何對最終威脅評估做出貢獻提供充分的理由。這是MCDM DSS工具的優勢之一。不幸的是,這種透明性可能會導致工具缺乏復雜性和表現力。相反,機器學習工具可以同時基于所有數據點之間的非常深的聯系做出假設,這可能是以人類不會的方式。這種增加的復雜性往往會降低工具的透明度和可解釋性。
某些機器學習方法的結果仍然是透明的,并且以與自學的MCDM方法相似的方式工作。例如,線性回歸模型可以提供每個線索如何影響最終威脅評估評估的完整理由。該模型既受益于透明度,也受益于無需人類專家參與的自學。
其他一些機器學習模型并沒有從透明度中受益。最先進的機器學習模型之一是神經網絡。這是一個擁有大量研究的大領域,也是深度學習分支的新爆炸。這些方法不那么透明。在[31]中發現的2020年文獻調查探索了許多現有的試圖使神經網絡和深度神經網絡推理對最終用戶可解釋的工作,但是,局限性仍然存在。
現實世界的威脅評估變量通常包括決策過程各個級別的不確定性。對威脅評估準確性的最大影響之一來自根本沒有獲取的數據。這種丟失的數據可能是由于無法收集、傳感器故障、傳感器誤報或許多其他原因造成的。當數據完全丟失時,就很難就目標所擁有的威脅做出明智的決定。幸運的是,機器擅長執行計算,可以估計、替換或忽略丟失的數據。
在[22]中,探索了為每個決策結構預先計算不同查找表的選項。這將涉及根據每種可能的信息缺乏狀態訓練許多不同的模型,并將它們與完整狀態相關聯。這假設對于訓練有大量完整的示例可供借鑒。不幸的是,“為所有可能的輸入組合訓練網絡的天真的策略在復雜性上呈爆炸式增長,并且需要為所有相關案例提供足夠的數據”[32]。相反,[32]建議定義一個可以被認為是真實的基礎模型,然后將所有數據與該模型相關聯。
在許多可能的情況下,在訓練時沒有或只有很少的完整示例可用。在這種情況下,必須確定是僅使用完整數據進行訓練,還是以某種方式合并不完整的示例。在[32]中,發現用均值代替缺失輸入會導致比僅基于完整示例訓練網絡更差的性能。因此,尋求改變神經網絡架構或訓練方法的方法,以有效地合并(可能大量)不完整的數據示例。
使用不完整數據進行訓練的最有效方法之一來自[33]。本文證實,在訓練神經網絡中使用原始不完整數據可能是比在學習開始之前填充缺失屬性更好的方法。所采用的方法涉及對神經網絡架構的輕微改變,但應該與大多數現有架構兼容。該方法通過將第一個隱藏層中典型神經元的響應替換為其期望值來工作。高斯混合模型在每個神經元的輸出上進行訓練,以學習概率密度函數和期望值。這消除了通過單個值對任何缺失屬性進行直接插補的需要。 “隱藏層不是計算單個數據點的激活函數(對于完整的數據點),而是計算神經元的預期激活”[33]。該方法還取得了與其他現有方法可比的結果,這些方法可以從不完整的數據中進行預測,但需要完整的數據進行訓練。
另一種方法可以通過提高缺失數據插補的準確性來采取。[34]研究了文獻中許多可能的數據插補解決方案。它還指出,一些無監督學習聚類算法,如分類和回歸樹(CART)和K-means,已適用于缺失數據的問題。缺失數據插補的優點是不需要對實際的機器學習模型或平臺進行任何更改。當前存在或將來構建的任何基于完整數據提供準確預測的方法都將有效地處理通過插補生成的數據。數據插補的目標是以盡可能接近現有真實數據分布的方式填充缺失值。如果成功完成,則可以對新完成的數據使用現有的統計分析和機器學習工具。
在本節中,將討論AI工具的潛在架構。將涵蓋從面向操作員的界面到AI組件組合的設計。所提出的AI工具的整體架構可以在參考文獻[35]中看到,它需要三個主要組件,如圖6所示。
圖6:AI 工具的概念框架
未來的人工智能工具可能會將舊的基于模型或自上而下的方法與新的數據驅動的自下而上的方法結合起來。這種類型的系統允許人工智能工具擁有一個由數百或數千個專家派生規則以及數百萬條特定領域知識(如歷史傳感器數據)組成的知識庫[36]。一種可以結合領域專業知識和數據驅動學習的人工智能系統是回歸樹。圍繞回歸或分類樹構建用于空中威脅評估的AI工具將是一個不錯的選擇。回歸樹的另一個好處是它們的輸出可以被人類操作員解釋,并且可以解釋它的選擇。整個模型基于一系列決策或規則,這些決策或規則可以在操作員界面中作為理由提供。這使ADOs可以對AI工具提供的評估充滿信心,或者質疑為什么某個值的解釋與他們的解釋不同。
AI工具的前端組件將是所有ADO交互發生的地方。它將顯示可用信息和AI工具獲得的見解。它還將允許ADO與信息交互并形成自己的結論。此前端將需要分析ADO工作流程。在[4]中已經對美國海軍ADOs進行了采訪,并提出了許多不同的圖形顯示建議。前端應顯示計算出的軌道威脅等級,并為該評估提供證據和解釋。還應提供原始數據,以便ADOs可以確認AI工具的假設。盡可能以圖形方式呈現給用戶的概率,因為這會減少冒險行為[37]。前端還將通過使用強化學習來利用AI功能。應制定一項獎勵快速完成ADO活動的政策,例如將資源分配到目標軌道以保護資產。此RL算法將能夠決定用戶界面(UI)元素的放置位置以及UI上顯示的內容。如果將常見動作從菜單移動到主顯示屏增加了RL功能獲得的獎勵,那么ADO完成任務所用的時間將會減少。這確保了前端最終變得最優,并適合實際ADOs的工作流程。
人工智能工具后端的兩個不同元素之間存在區別。在AI中,該工具可以是正在學習的,也可以是經過全面訓練并準備好執行的。首先將檢查學習后端。無論是第一次訓練AI工具還是處于持續學習狀態,它都會利用學習后端。學習后端連接到包含歷史數據的知識數據庫,可用于提供數百萬對自下而上的人工智能技術有用的數據點。這是機器學習和決策樹將特別有效的地方。如果實施決策樹學習算法,它將能夠創建有助于根據歷史數據和決策對新目標進行分類的規則。這些規則還允許AI工具向ADOs解釋其輸出。
當工具準備好用于生產并與前端交互時,將使用正在執行的后端。這種執行就緒狀態將存儲自上而下或基于模型的人工智能的人類專家規則。該組件將是一個由學習后端輔助的專家系統。通過對ADOs的專業知識和對目標線索重要性的看法的采訪中獲得的數千條規則將使其成為AI組件。同時,通過將這些人工規則與通過機器學習在學習后端找到的規則相結合,可以優化值和預測。
一些功能性和非功能性需求可以從目前已知的用于威脅評估的AI工具中指定。更高級的要求應通過與未來ADO 客戶的面談來制定。
1.當傳感器或智能數據更新時,人工智能工具應攝取數據并進行訓練或預測。
2.AI 工具應為 ADO 定義的感興趣區域內的所有目標提供評估預測。
3.界面應提供評估說明并允許 ADO 交互。
4.AI 工具應提供自動模型訓練或新數據的重新訓練。
5.AI 工具應與 ADO 請求時可用的任何數據子集一起使用,并在新數據可用時合并它。
1.AI 工具應在數據可用后 100 毫秒內提取數據。
2.AI 工具必須處理每個實例和感興趣區域的數百個目標。
3.AI 工具應在 2 秒內提供 ADO 要求的特定威脅評估。
4.界面必須符合 ADO 偏好,并允許在 3 次點擊內訪問所有常用命令。
5.人工智能工具必須對缺失的數據做出強有力的反應,并繼續進行評估和學習。
本報告之后的下一步將是開發供ADOs用于空中威脅評估的AI工具。為完成此目標應采取的一系列步驟如下:
1.需求分析:人工智能工具開發人員應在威脅評估過程的每個階段與關鍵決策者坐下來。應采訪ADOs,以確保該工具滿足其工作模式和預期結果的所有要求。還應與流程早期的關鍵人員進行面談,以確保系統兼容性。這將包括傳感器和其他資產經理,他們可以確認系統輸出將如何格式化并提供給AI工具。人工智能工具完成分析后,需要以有用的格式輸出和存儲,因此依賴人工智能工具輸出的系統中的決策者應該分析他們的需求。
2.確定AI工具所需的組件:完成需求分析后,開發人員應決定哪些通用AI工具組件將需要,哪些可以省略(如果有的話)。可能還需要開發某些專門的組件來支持威脅評估和軍事環境所面臨的獨特挑戰。應該開發工具的架構,并為每個組件分配明確的職責。該架構還將受益于每個組件之間的嚴格輸入和輸出合同,以便數據可用于現有系統。
3.AI和ML組件的選擇和評估:架構和需求確定后,應該明確哪些類型的AI和ML適合該問題。每個可能涉及AI或ML的組件都需要提出和訓練多個候選人。然后將比較這些候選者,以確定哪個最有效地解決了獨特的要求。一旦選擇了最佳模型并選擇了正確的AI類型,所有模型將被移入生產環境并準備連接到AI工具中的其他組件。
4.文檔和培訓:一旦開發了最終的AI工具并通過代碼注釋和其他文檔工具正確記錄了文檔,就該開發外部文檔了。該文檔應傳達AI工具的實用性以及如何有效使用它及其功能。審查ADO要求將有助于為受眾塑造文檔。一旦開發了該工具,培訓會和從ADOs收集反饋將很有用。
5.集成到生產系統:人工智能工具將投入生產,以協助ADOs進行空中威脅評估。需要檢查智能管道中較早的系統和管道中較晚的系統之間的所有連接以確認兼容性。
6.監控和維護:隨著時間的推移,隨著新威脅或新情況的發現,人工智能工具將能夠得到更新和改進。無論是通過人工還是自動系統,持續監控AI工具以確保預測質量不會隨著時間的推移而降低,這一點很重要。通過使用新版本更新舊模型,也可以納入AI和ML研究的新改進。
人工智能工具是執行通常由人類處理的復雜任務的最先進方法。這為提高人類操作員的效率和有效性提供了許多可能性,例如執行高腦力任務的ADOs。威脅評估就是這樣一項非常適合人工智能協助的任務。重要的是要承認,人工智能工具不會取代操作員做出關鍵決策:相反,它們將為決策者提供更準確的數據,以有效地做出關鍵和及時的決策。
將ML集成到AI工具中可以帶來許多過去只能通過人類設計才能實現的新可能性。ML可以讓AI工具在沒有人類教授或者面對不斷變化的情境要求或敵人能力的情況下,從數據中學習。它可以重新設計AI工具交互,使其對 ADOs盡可能有用。它可以幫助將新目標與歷史示例進行聚類,從而為ADOs提供更好的威脅心理模型。可以自動檢測異常數據或空中目標并向操作員報告。
熟練和經驗豐富的ADOs與AI工具的結合將實現更快、更準確和更強大的空中威脅評估。通過讓人工操作員參與進來,該工具將保持ADO的責任和專業知識,同時提高生產力和效率。結合處理不完整數據狀態的現代方法也將使該工具對數據不準確或不可用具有魯棒性。
因此,該工具應該有助于國防和威脅評估過程。
美國軍方和情報界對開發和部署人工智能 (AI) 系統以支持情報分析表現出興趣,這既是利用新技術的機會,也是應對不斷激增的數據過剩的解決方案。然而,在國家安全背景下部署人工智能系統需要能夠衡量這些系統在其任務背景下的表現。
為了解決這個問題,作者首先介紹了人工智能系統在支持智能方面可以發揮的作用的分類法——即自動分析、收集支持、評估支持和信息優先級——并提供了對人工智能影響驅動因素的定性分析。每個類別的系統性能。
然后,作者挑選出信息優先系統,這些系統將情報分析師的注意力引導到有用的信息上,并允許他們忽略對他們無用的信息,以進行定量分析。作者開發了一個簡單的數學模型來捕捉此類系統的錯誤后果,表明它們的功效不僅取決于系統的屬性,還取決于系統的使用方式。通過這個練習,作者展示了人工智能系統的計算影響和用于預測它的指標如何用于描述系統的性能,以幫助決策者了解其對情報任務的實際價值。
報告指出,目前存在多種描述人工智能系統性能的標準方法,包括通常被稱為“精確度”、“召回率”和“準確率”等指標,但這些標準并未提及該系統對其所支持任務的影響。在準確率與情報任務成功之間沒有明確關聯的情況下,只能依據情報任務的完成水平對系統有效性作出臨時判斷。基于此,報告作者將人工智能系統在情報分析過程中可發揮的功能分為四大類,分別評估每項功能的錯誤輸出可能會對結果產生的影響,從而理解“人工智能系統性如何影響情報分析的有效性”。
按照情報周期的組織過程,報告將人工智能系統可在該過程中發揮的作用分為四大“系統功能模塊”,分別是提供評估支持、自動分析、優先信息和收集支持。報告為每個功能模塊設計了函數模型,以詳細推演其在情報過程中的作用。
通過對“從任務到系統”的追溯性推演評估,報告得出兩個一般性結論:首先,在部署人工智能系統前,制定與符合實際情況優先級的情報監測指標十分重要,這一工作應以評估系統部署的實際影響力為指導;其次,系統的有效性不僅取決于系統屬性,還取決于如何使用。
人工智能在刑事司法中的應用,可以從全球眾多例子說明。我們采用按時間順序的方法,追溯犯罪如何展開,包括(i)其承諾,(ii)其偵查,以及最終(iii)刑事法庭和懲教機構對其作出的反應。首先,我們關注惡意行為者利用人工智能實施應受譴責行為的可能性,盡管這一點還有待觀察。其次,我們評估了執法部門對人工智能的使用,包括警察部隊發現和預測犯罪的新能力。第三,我們研究了人工智能和刑事訴訟之間的關系,以顯示人工智能是如何被用于評估在審判前和定罪后階段與罪犯相關的各種風險的。最后,我們分析了人工智能在刑事司法領域所帶來的四大挑戰: 道德、效率、采購和撥款。我們敦促所有尋求在其刑事司法系統中實施人工智能的實體保持謹慎: 必須明確和徹底地解決這些相互關聯的問題類別,以便人工智能系統能夠迭代、公平和透明地成為刑事司法決策的一部分。
?以消費者和企業為中心的新技術的爆炸式增長已成為美國民眾體驗醫療保健和福祉的顛覆性力量。這些技術——統稱為“數字健康”——有可能改變個人、家庭和社區管理他們的醫療保健和福祉的方式。
美國機構和其他利益相關者正在對新工具進行大量投資;獲取、提供和使用數據的方法;以及提供衛生服務的創新方式。然而,對于指導眾多創新實現共同目標、協作工作和高優先級成果的國家優先事項集,并沒有達成一致意見。需要一個包括協作治理流程在內的戰略框架,以建立一個值得信賴、透明和公平的數字健康生態系統。
被統稱為“數字健康”的技術正在擾亂美國乃至世界各地的醫療保健和福祉現狀。在這方面,COVID-19大流行似乎是一個分水嶺。環境促使遠程保健的使用激增,在這一過程中產生了關于遠程保健的交付、影響、價值和可持續性方面的數據和潛在教訓。大流行可能產生對個人、家庭和社區產生積極影響的轉變。替代方案——在當前系統之上簡單地分層數字技術——將不僅僅維持現狀。這將使那些在連通性、數字素養和獲得護理方面已經落后的人的處境更加糟糕,并將進一步為濫用、欺詐和浪費打開大門。在一個如此富有和創新能力的國家,這樣的結果是不可接受的。國家需要采取戰略性行動,充分考慮數字衛生帶來的獨特挑戰和機遇。
該戰略為指導美國數字健康生態系統的發展提供了一個框架。該戰略包括六個目標,每個目標都有建議的行動。總的來說,這些目標旨在實現數字健康生態系統推動的改善國民健康和福祉的愿景。
本文檔旨在為領導者提供實施變革的框架。其中涉及的變化范圍很廣——不僅是技術上的,還有政治、社會和文化上的。這里的想法的實施需要大量的時間、金錢、資源的投資,最重要的是領導能力。其他國家也在國家規劃的指導下進行這些投資。美國必須采取明智的行動,但不能拖延,以實現數字衛生生態系統的愿景。
戰略的最后一個組成部分是治理。我們需要對支離破碎且過時的治理結構進行廣泛改革。避免重復、協調努力并代表全國做法的戰略投資將受益于數字衛生。該策略詳細說明了所需治理結構的關鍵組成部分,并建議了實現有效治理機制的步驟。
情報社區 (IC) 專注于開發和部署未來的尖端技術能力——包括人工智能、機器學習和深度學習——以支持所有源情報分析。在此期間,應部署現有技術,尤其是商業世界中可用多年的人類語言技術和自然語言處理能力,以減輕分析師的工作量,同時提高他們的效率,直到這些未來的系統投入使用。
以下領域的改進將對分析師的日常工作產生最大的影響:
最終,分析師需要一種能力來減少搜索相關信息所需的時間,并為他們提供更多思考、分析和寫作的時間。這種能力不僅應該提供 IC 數據存儲庫的聯合搜索,還應該自動提取和過濾信息,以及以正確的格式推送數據,以便它們可以在其他應用程序中可視化。
空軍專業 (AFS) 初始技能培訓 (IST) 的最新趨勢表明,美國空軍 (USAF) 入伍人員重新分類為其他職業專業的人數近年來有所增加,并且在財政年度之間出現了穩步增長2013 年和 2017 年。職業領域重新分類可能會導致廣泛的負面結果,包括成本增加、人員配備延遲、培訓計劃挑戰和士氣下降。為了理解和解決 IST 重新分類的挑戰,作者考慮了改進流程的選項,以對 IST 的現役非在職飛行員進行分類和重新分類。在本報告中,他們概述了 2019 年一項研究的主要發現,該研究采用了定性和定量分析,包括機器學習 (ML) 模型、評估 IST 成功(和失敗)的預測因素。他們還描述了他們對優化模型的測試,該模型旨在確定修改重新分類決策的機會,以便不僅減少重新分類飛行員的數量,而且提高飛行員的工作滿意度和生產力,并提高美國空軍的保留率。
01 研究問題
02 主要發現
2.1 IST 分類旨在優化訓練成功,但不優化其他重要結果
2.2 增加相關變量的數量可以提高 ML 預測的準確性
2.3 重新分類是一個手動過程,可以進行優化以實現不同的結果
2.4 與 IST 飛行員就選定的 AFS 進行的焦點小組討論確定了促成 IST 成功和挑戰的因素,并確定了改進建議
飛行員的特征(例如,動機)和先前的經驗(例如,教育)、支持性教官和學習小組有助于 IST 的成功。
IST 挑戰涉及飛行員特征和訓練基地環境。
改進涵蓋了諸如 AFS 的先驗知識以及對 IST 的期望、課程設計、非 IST 要求和宿舍安排等領域。
03 建議
通過保留有關 IST 資格和結果的數據庫,要求新兵完成職業評估和招聘人員提供有關 IST 和 AFS 的信息,系統地收集有關工作要求的信息,開發生物數據工具,從而擴展 USAF 入伍分類中使用的預測變量集。由所有入伍新兵完成,并使用同行和教官對飛行員的個性進行評分。
通過定義和系統地測量與 IST 成功相關的結果以及通過監控專業畢業的移動平均值來擴展 USAF 入伍分類中使用的結果集。
提高數據質量、全面性和可訪問性,以便 ML 模型能夠提供準確且有用的預測。
更新分類和重新分類流程以優化 IST 的成功和工作匹配,從而提高績效和職業滿意度。
在實施任何 ML 模型之前,應對道德和隱私、ML 模型的可解釋性和模型性能等領域的挑戰。
04 報告目錄
第一章
簡介和背景
第二章
空軍分類和重新分類過程
第三章
可用于預測空軍訓練和職業成果的數據
第四章
預測成功的模型
第五章
重新分類訓練消除的優化模型
第六章
飛行員在選擇專業的初始技能培訓中的經驗
第七章
結論和建議
附錄 A
定義和衡量人員選拔的成功
附錄 B
描述性統計和分析建模結果
附錄 C
優化模型方法論
附錄 D
焦點小組方法論