美國軍方和情報界對開發和部署人工智能 (AI) 系統以支持情報分析表現出興趣,這既是利用新技術的機會,也是應對不斷激增的數據過剩的解決方案。然而,在國家安全背景下部署人工智能系統需要能夠衡量這些系統在其任務背景下的表現。
為了解決這個問題,作者首先介紹了人工智能系統在支持智能方面可以發揮的作用的分類法——即自動分析、收集支持、評估支持和信息優先級——并提供了對人工智能影響驅動因素的定性分析。每個類別的系統性能。
然后,作者挑選出信息優先系統,這些系統將情報分析師的注意力引導到有用的信息上,并允許他們忽略對他們無用的信息,以進行定量分析。作者開發了一個簡單的數學模型來捕捉此類系統的錯誤后果,表明它們的功效不僅取決于系統的屬性,還取決于系統的使用方式。通過這個練習,作者展示了人工智能系統的計算影響和用于預測它的指標如何用于描述系統的性能,以幫助決策者了解其對情報任務的實際價值。
報告指出,目前存在多種描述人工智能系統性能的標準方法,包括通常被稱為“精確度”、“召回率”和“準確率”等指標,但這些標準并未提及該系統對其所支持任務的影響。在準確率與情報任務成功之間沒有明確關聯的情況下,只能依據情報任務的完成水平對系統有效性作出臨時判斷。基于此,報告作者將人工智能系統在情報分析過程中可發揮的功能分為四大類,分別評估每項功能的錯誤輸出可能會對結果產生的影響,從而理解“人工智能系統性如何影響情報分析的有效性”。
按照情報周期的組織過程,報告將人工智能系統可在該過程中發揮的作用分為四大“系統功能模塊”,分別是提供評估支持、自動分析、優先信息和收集支持。報告為每個功能模塊設計了函數模型,以詳細推演其在情報過程中的作用。
通過對“從任務到系統”的追溯性推演評估,報告得出兩個一般性結論:首先,在部署人工智能系統前,制定與符合實際情況優先級的情報監測指標十分重要,這一工作應以評估系統部署的實際影響力為指導;其次,系統的有效性不僅取決于系統屬性,還取決于如何使用。
如今,隨著技術飛速發展和威脅環境變得更加復雜,在信息爆炸的局面下,作戰人員面臨著具有挑戰性的決策空間。人工智能(AI)和機器學習(ML)可以減輕作戰人員負荷。人工智能系統具有深遠的好處——提高態勢感知能力,檢測威脅,理解對手的能力和意圖;確定和評估可能的戰術行動方針;并提供方法來預測行動決策的結果和影響。人工智能系統是理解和解決高度復雜的戰術情況的關鍵。
人工智能系統為作戰人員提供了優勢,但前提是這些系統被正確設計和實施,并且以減輕作戰人員的認知負荷的方式。為國防應用實施人工智能系統帶來了獨特的挑戰。本文確定了四個獨特的挑戰,并描述了它們如何影響戰術作戰人員、工程設計界和國防。本文通過國防采辦和系統工程計劃,為解決這些獨特的挑戰提供了解決方案。
Bonnie Johnson——在海軍工程研發方面擁有超過 25 年的領導和系統工程經驗。她曾是 SAIC 和諾斯羅普·格魯曼公司的高級系統工程師,研究用于海戰系統和導彈防御能力的自動決策輔助。她于 2011 年加入美國海軍研究生院 (NPS) 系統工程系。她擁有 NPS 系統工程博士學位、約翰霍普金斯大學系統工程碩士學位和弗吉尼亞理工大學物理學學士學位。
人工智能是一個包含許多不同方法的領域,其目標是創造具有智能的機器(Mitchell,2019)。圖 1 顯示了一個簡單的維恩圖,其中機器學習 (ML) 作為 AI 的子集,而 AI 作為更廣泛的自動化類別的子集。自動化系統以最少的人工輸入運行,并且經常根據命令和規則執行重復性任務。人工智能系統執行模仿人類智能的功能。他們將從過去的經驗中學到的知識與收到的新信息結合起來,以做出決策并得出結論。
圖 1. 自動化、人工智能和機器學習的維恩圖
如圖 2 所示,有兩種主要類型的 AI 系統。第一種類型是明確編程的,也稱為手工知識系統。 Allen (2020) 將手工知識系統描述為“使用傳統的、基于規則的軟件,將人類專家的主題知識編碼為一長串編程的‘如果給定 x 輸入,則提供 y 輸出’規則的人工智能”(第3頁)。這些系統使用傳統的或普通的編程語言。第二種類型是從大量數據集訓練而來的機器學習系統。 ML 系統從訓練過的數據集中“學習”,然后在操作上使用“訓練過的”系統在給定新的操作數據的情況下產生預測結果。
圖 2. 兩種類型的人工智能:顯式編程和學習系統
自動化、人工智能和機器學習系統,包括手工知識系統和學習系統,為美國國防部 (DoD) 提供了巨大的潛力,在大多數任務領域具有多種應用。這些智能系統可以擴展國防部理解復雜和不確定情況、制定和權衡選項、預測行動成功和評估后果的能力。它們提供了在戰略、規劃和戰術領域支持國防部的潛力。人工智能系統可以減輕作戰人員的負擔,但前提是這些系統的設計和實施正確,并且以減輕作戰人員認知負擔的方式。這為國防應用實施人工智能系統提出了獨特的挑戰。本文確定了四個獨特的挑戰,并描述了它們如何影響戰術作戰人員、工程設計界和國防。
第一個為國防應用實施人工智能系統的獨特挑戰是戰術戰爭呈現高度復雜的情況。戰術復雜性可能涉及信息超載、需要處理的多個并發任務、具有可怕后果的時間關鍵決策、態勢感知的未知/不準確/不完整,以及因各種分布式戰爭能力所需的互操作性而產生的工程挑戰。將人工智能系統添加到這個已經很復雜的環境中是一項必要但極具挑戰性的工作。
第二個獨特的挑戰是人工智能系統需要大量數據來訓練。所開發的人工智能系統的質量很大程度上取決于訓練數據集的質量和數量。軍事領域的數據尤其難以獲得。軍事數據可能涉及分類問題、網絡漏洞、數據驗證挑戰,并且根據艦隊演習和兵棋推演的需要,收集起來可能非常昂貴且耗時。
第三個獨特的挑戰是人工智能系統為系統工程提出了一個新的前沿。在傳統系統中,行為是固定的,因此是可預測的:給定輸入和條件,系統將產生可預測的輸出。一些人工智能解決方案可能涉及本身就很復雜的系統——適應和學習——因此會產生無法預料的輸出和行為。事實上,一些人工智能系統的目的就是為了做到這一點——與人類決策者合作,承擔一些認知負荷并產生智能建議。需要系統工程方法來設計智能系統,并確保它們對人類操作員來說是可解釋的、可信賴的和安全的。
第四個獨特的挑戰是,對于國防應用,總是需要考慮潛在的對手。在人工智能系統方面,采購界必須注意同行競爭對手國家,他們在人工智能進步方面取得了自己的進步。美國國防系統也必須在這場人工智能競賽中取得進步。網絡攻擊在防御系統中總是有可能發生的。隨著防御能力增加對自動化和人工智能系統的依賴,這可能會造成更多的網絡漏洞。最后,技術正在迅速發展,對抗性威脅空間正在發生變化。國防采購和系統工程界必須確保人工智能系統不斷發展和適應,以應對威脅環境的變化,并以可信賴和安全的方式做到這一點。
第一個獨特的挑戰是許多防御領域呈現出復雜的決策空間。因此,設計和實施適當的人工智能系統來解決這種復雜性將是極具挑戰性的。圖 3 突出顯示了導致戰術領域決策復雜性的許多因素。例如,海軍打擊部隊的行動可以迅速從和平狀態轉變為一種巨大的危險——需要對威脅保持警惕并采取適當的反應行動——所有這些都在高度壓縮的決策時間線上。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是虛擬的,因此需要處理多個時間緊迫的任務。在船舶、潛艇、飛機、陸地和太空中擁有海軍和國防資產;戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用問題。制定有效的戰術行動方案也必須發生在高度動態的作戰環境中,只有部分和不確定的態勢知識。決策空間還必須考慮指揮權、交戰規則和戰術條令施加的限制。人類作為戰術決策者的角色增加了決策空間的復雜性——面臨信息過載、操作員錯誤、人工智能信任以及人工智能模糊性和可解釋性問題等挑戰。最后,戰術決策及其可能后果的風險可能非常高。
圖 3. 導致戰術決策空間復雜性的因素
解決高度復雜的決策空間是美國國防部面臨的挑戰。人工智能提供了解決這種復雜性的潛在解決方案——通過處理大量數據、處理不確定性、理解復雜情況、開發和評估決策替代方案以及了解風險水平和決策后果。人工智能解決方案可以應用于國防部的戰略、規劃和戰術層面。海軍研究生院 (NPS) 開發了一種工程框架和理論,用于解決高度復雜的問題空間,這些問題空間需要使用智能和分布式 AI 系統來獲得態勢感知并做出適應動態情況的協作行動決策(Johnson, 2019)。模擬了一個復雜的戰術場景,以演示使用 AI 來驗證該方法(Johnson,2020a)。 NPS 已經開發了一種預測分析能力的概念設計,該設計將被實施為一個自動化的實時戰爭游戲系統,該系統探索不同的可能戰術行動方案及其預測效果和紅軍反應(Johnson,2020b)。 NPS 研究已經確定了在戰術行動中描述復雜性水平的必要性,并實施自適應人機協作安排以做出戰術決策,其中自動化水平根據情境復雜性水平進行調整。正在進行的 NPS 研究正在研究這些概念工程方法在各種防御用例應用中的應用,包括防空和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。
復雜的決策空間為 AI 系統嘗試和解決創造了具有挑戰性的問題。表 1 根據決策空間的復雜性比較了不同的 AI 應用領域。該表包含 10 個表征決策空間復雜性的因素:認知不確定性(對情境知識的不確定性數量)、情境動態、決策時間線(做出決策的時間量)、決策的復雜性決策過程中的人機交互、資源復雜性(數量、類型、它們之間的距離以及它們的動態程度)、是否涉及多個任務、對手(競爭對手、黑客或打算摧毀的徹底敵人)的存在,允許誤差的幅度(多少決策錯誤是可以接受的),以及決策后果的嚴重性。
表 1. 不同 AI 應用的決策復雜度比較
人工智能應用程序涉及的決策空間用于廣告(根據特定用戶的購買習慣或互聯網搜索確定將哪些廣告流式傳輸)、貸款批準(根據貸款金額和信用評分確定貸款資格)和醫療(根據診斷確定關于患者癥狀)相對簡單。存在大量訓練數據,決策過程中的計算和人為交互簡單,情況相對穩定。不良廣告的后果是微乎其微的。可以審計不良貸款批準決定。糟糕的醫學診斷可能會產生更嚴重的后果,但通常有足夠的時間在治療前尋求更多的評估和意見。為自動駕駛汽車確定最佳運輸路線和工程 AI 系統是更復雜的工作。這些應用程序是動態變化的,需要更短的時間來做出決策。運輸路線在可能路線的數量上會很復雜——這可能會導致許多可能的選擇。但是,存在運輸錯誤的空間,并且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的余地非常小。此應用程序中的錯誤決定可能導致嚴重事故。
然而,軍事戰術領域在決策空間的所有領域都呈現出極端的復雜性:不確定性和有限的知識/意識、高度動態的情況、非常有限的時間線、復雜的人機交互、大量和類型的資源、多個任務、昂貴和困難- 獲取訓練數據集、極小的允許誤差范圍以及行動(或不行動)的生死攸關的后果。
第二個獨特的挑戰是 AI/ML 系統需要大量相關且高質量的數據用于訓練和開發,而這些數據在軍事領域可能很難獲得。明確編程的手工知識系統在開發過程中需要數據進行評估和驗證。 ML 系統在開發過程中對數據的依賴性更大。如圖 4 所示,ML 系統從代表操作條件和事件的數據集中“學習”。 ML系統學習的過程也稱為被訓練,開發階段使用的數據稱為訓練數據集。有幾種類型的 ML 學習或訓練——它們是有監督的、無監督的和強化的。所有三種類型的 ML 學習都需要訓練數據集。 ML 系統在部署后或運營階段繼續需要數據。圖 4 顯示,在運營期間,ML 系統或“模型”接收運營實時數據,并通過使用其“訓練過的”算法處理運營數據來確定預測或決策結果。因此,在整個系統工程和采集生命周期中,ML 系統與數據密切相關。 ML 系統從訓練數據集的學習過程中“出現”。機器學習系統是數據質量、充分性和代表性的產物。他們完全依賴于他們的訓練數據集。
圖 4. 開發和實施機器學習系統
隨著許多領域(戰爭、供應鏈、安全、物流等)的更多 AI 開發人員正在了解 AI 解決方案的潛在優勢并開始著手 AI 系統開發,DoD 開始認識到對這些數據集的需求。在某些情況下,數據存在并準備好支持 AI 系統開發。在其他情況下,數據存在但不保存和存儲。最后,在其他情況下,數據不存在,需要模擬或在艦隊演習或戰爭游戲中收集。圖 5 說明了收集、獲取和在某些情況下開發用于開發和訓練 AI 和 ML 系統的數據時需要考慮的過程。
圖 5. 人工智能和機器學習系統訓練數據集的開發
軍事領域對開發訓練數據集提出了一些獨特的挑戰——數據可能被分類,數據可能存在網絡漏洞(它可能被攻擊并被對手故意破壞),如果數據不存在,它可能需要從軍事/艦隊演習或兵棋推演中獲得。數據驗證也是一項具有挑戰性的工作。
NPS 正在為海軍的數據管理系統執行需求分析和概念設計,該系統將收集數據并向海軍內部許多正在開發 AI/ML 系統的不同組織提供數據(French 等人,2021 年)。圖 6 是海軍中央人工智能庫 (CAIL) 的上下文圖,它被設想為一個數據管理系統和流程,用于識別數據集并提供索引、驗證、審計和對 AI 可以使用的數據的安全訪問。從事海軍應用的機器學習開發人員。 CAIL 將不是一個數據存儲庫或數據庫,而是一個中央組織,使 AI/ML 開發人員能夠訪問經過驗證和保護的海軍數據——以幫助識別數據集的存在,啟用授權訪問,并幫助支持開發人員所需的數據尚不存在,需要獲得——可能通過艦隊演習或兵棋推演。
圖 6. 概念性中央人工智能庫
第三個獨特的挑戰是開發人工智能系統為系統工程提出了一個新的前沿。系統工程方法已被開發用于設計可能非常復雜但也具有確定性的傳統系統(Calvano & John,2004)。傳統系統具有可預測的行為:對于給定的輸入和條件,它們將產生可預測的輸出。圖 7 說明了對傳統 SE 方法(如 SE Vee 過程)進行更改的必要性,以便設計復雜且不確定的 AI 系統。特別是,需要新的方法來定義隨時間適應的學習系統的要求,并且系統驗證過程可能需要在操作過程中不斷發展和繼續,以確保安全和期望的行為。對于具有高風險后果的軍事系統,幾乎沒有出錯的余地,因此需要實施一個可以確保 AI 系統安全和預期操作的系統工程流程。
圖7. 人工智能:系統工程的新前沿
國際系統工程師理事會 (INCOSE) 最近的一項倡議已經開始探索需要對系統工程方法進行哪些改變才能有效地開發人工智能系統。圖 8 是作為該計劃的一部分創建的,旨在強調在 SE 過程中需要考慮的 AI 系統的五個方面。除了不確定性和不斷發展的行為之外,人工智能系統可能會出現新類型的故障模式,這些故障模式可能會突然發生,并且可能難以辨別其根本原因。穩健的設計——或確保人工智能系統能夠處理和適應未來的場景——是另一個系統工程設計考慮因素。最后,對于涉及更多人機交互的 AI 系統,必須特別注意設計系統,使其值得信賴、可解釋并最終對人類決策者有用。
圖 8. 人工智能系統工程中的挑戰
NPS 正在研究可以支持復雜、自適應和智能 AI 系統的設計和開發的系統工程方法。已經開發了一個系統工程框架和方法來設計系統解決方案的復雜自適應系統(Johnson,2019)。該方法支持系統系統的開發,通過使用人工智能,可以協作以產生所需的緊急行為。當前的一個研究項目正在研究可以在設計過程中設計到 AI 系統中的安全措施,以確保操作期間的安全(Cruz 等人,2021 年)。 NPS 正在研究一種稱為元認知的設計解決方案,作為 AI 系統識別內部錯誤的一種方法(Johnson,2021 年)。當前的另一個 NPS 論文項目正在研究如何將“信任”設計到 AI 系統中,以確保有效的人機協作安排(Hui,2021)。幾個 NPS 項目研究使用稱為協同設計的 SE 設計方法,來確定人類操作員與 AI 系統之間的相互依賴關系(Blickley 等人,2021;Sanchez,2021)。
第四個獨特的挑戰是對手在防御應用中的存在和作用。國防部必須與對手競爭以提升人工智能能力,人工智能系統必須免受網絡攻擊,人工智能系統必須適應不斷變化的威脅環境演變。圖 9 突出顯示了對手的存在給國防部正在開發的 AI 系統帶來的一系列獨特挑戰。
圖9. 敵手的挑戰
競爭對手國家之間開發人工智能能力的競賽最終是為了進入對手的決策周期,以比對手更快的速度做出決定和采取行動(Rosenberg,2010 年)。人工智能系統提供了提高決策質量和速度的潛力,因此對于獲得決策優勢至關重要。隨著國防部探索人工智能解決方案,同行競爭對手國家也在做同樣的事情。最終,實現將 AI 用于 DoD 的目標不僅僅取決于 AI 研究。它需要適當的數據收集和管理、有效的系統工程和采集方法,以及仔細考慮人類與人工智能系統的交互。國防部必須確保它能夠應對實施人工智能系統所涉及的所有挑戰,才能贏得比賽。NPS 研究計劃正在研究如何應用 AI 和博弈論來進入對手的戰術決策周期(Johnson,2020b)。該項目正在開發一個概念,用于創建戰術態勢模型、對手的位置和能力,以及預測對手對形勢的了解。然后,概念系統將進行實時“兵棋推演”,根據預測的對抗反應和二階和三階效應分析戰術決策選項。這是一個研究未來戰術戰爭可能是什么樣子的一個例子,它為藍軍和紅軍提供了增強的知識和決策輔助。為 AI 競賽準備國防部的其他 NPS 舉措包括研究新的 SE 方法和獲取實踐以開發 AI 能力、研究海軍和國防部的數據管理需求(French 等人,2021 年)以及研究 AI 系統安全風險開發確保安全 AI 能力的工程實踐(Cruz 等人,2021 年;Johnson,2021 年)。
賽博戰是國防部必須成功參與的另一場競賽,以保持領先于黑客攻擊的持續攻擊。隨著國防部實施更多的自動化,它自然會導致更多的網絡漏洞。使用本質上依賴于訓練數據和操作數據的人工智能系統,為黑客在開發階段和操作階段用損壞的數據毒害系統提供了機會。如果對手控制了一個可操作的人工智能系統,他們可能造成的傷害將取決于應用程序領域。對于支持武器控制決策的自動化,后果可能是致命的。在最近一項關于汽車網絡安全的研究中,一家汽車公司在網上發布了一個假汽車電子控制單元,在不到 3 天的時間里,進行了 25,000 次違規嘗試(Taub,2021 年)。國防部必須注意人工智能系統開發過程中出現的特定網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御策略。 NPS 正在研究數據安全要求,以確保 ML 訓練數據集不受黑客攻擊,并且需要安全授權才能訪問(French 等人,2021 年)。 NPS 正在研究使用元認知作為 AI 系統執行自我評估的一種方法,以識別網絡入侵、篡改或任何異常行為(Johnson,2020b)。 NPS 還在研究使用 ML 來識別惡意欺騙和篡改全球定位系統 (GPS; Kennedy, 2020)。
威脅環境的演變是國防部在開發人工智能系統時的第三次對抗性競賽。由于對抗性威脅空間隨著時間的推移而不斷變化,擁有更快、更致命的武器、更多的自主權、更大的監視資產、更先進的對抗措施和更多的隱身性,這對國防部能夠預測和識別新威脅并進行應對提出了挑戰戰場上的未知數。 NPS 研究的重點是在作戰過程中不斷適應和學習的工程系統,以檢測和識別戰場中的未知未知,并通過創新的行動方案快速響應新威脅(Grooms,2019;Jones 等人,2020;Wood,2019 )。 NPS 正在研究通過研究特定區域隨時間變化的數據來識別異常變化的機器學習方法(Zhao et al., 2016)。一個例子是研究商用飛機飛行模式并根據異常飛行模式識別可疑飛機。隨著時間的推移,可以監視地面行動,以識別可能意味著軍事行動的新的和不尋常的建設項目。
人工智能系統為國防部在實現和保持知識和決策優勢方面提供了重大進展。然而,為國防應用實施人工智能系統提出了獨特的挑戰。軍事戰術領域在決策空間的所有領域都呈現出極端的復雜性:不確定性和有限的知識、高度動態的情況、非常有限的時間線、復雜的人機交互、大量和類型的資源、多個任務、昂貴且難以獲得訓練數據集、極小的允許誤差范圍以及行動(或不行動)的生死攸關的后果。 AI 系統,尤其是 ML 系統,需要有代表性、足夠、安全和經過驗證的數據集來進行開發。為國防應用收集合適的數據具有處理分類數據集和確保數據安全和免受網絡攻擊的額外挑戰;這也將是收集代表戰術行動的真實數據的一項重大努力。將需要新的系統工程方法來有效地指定、設計和評估人工智能系統,這些系統通過其不確定性、新型人機協作挑戰以及難以預測和預防的新安全故障模式而呈現出新的復雜性.最后,軍事領域中對手的存在呈現出三種形式的 AI 競賽:與對手一樣快地開發 AI 系統的競賽、保持領先于可能的網絡攻擊的競賽以及訓練能夠應對的 AI/ML 系統的競賽隨著不斷發展的對抗性威脅空間。
NPS 正在通過一系列正在進行的研究計劃來解決四個獨特的挑戰領域。 NPS 研究人員正在研究人工智能系統在海軍戰術作戰領域的實施,對軍事數據集進行需求分析和需求開發,研究開發復雜人工智能系統的系統工程方法,以及開發安全、可信賴的人工智能系統工程方法,并注意潛在對手的作用。 NPS 正在為軍官和平民學生提供人工智能研究和教育機會。 NPS 歡迎與國防部和海軍組織合作,繼續研究用于國防應用的人工智能系統,并繼續探索解決方案戰略和方法,以克服開發和實施人工智能能力的挑戰。
工業人工智能 (AI) 是人工智能在工業中的應用,是第四次工業革命中價值創造的主要貢獻者。人工智能正被嵌入到廣泛的應用程序中,幫助組織獲得顯著的利益,并使他們能夠改變向市場提供價值的方式。
? 本文檔為支持人工智能的工業物聯網系統的開發、培訓、文檔編制、通信、集成、部署和操作提供指導和幫助。它面向來自 IT 和運營技術 (OT)、來自多個學科的業務和技術的決策者,包括業務決策者、產品經理、系統工程師、用例設計師、系統架構師、組件架構師、開發人員、集成商和系統操作員。
該文檔圍繞 IIC 工業互聯網參考架構中的架構觀點構建,即業務、使用、功能和實施觀點。該文件討論了推動人工智能采用的商業和價值創造考慮因素。它還詳細闡述了人工智能的使用、工業用例以及與之相關的道德、隱私、偏見、安全、勞工影響和社會問題。在技術方面,該文檔描述了與 AI 相關的架構、功能和數據注意事項,并討論了各種實施注意事項,例如性能、可靠性、數據屬性和安全性?。
人工智能的采用將在行業中加速。鑒于計算能力的快速增長、可用于訓練的數據的更廣泛可用性以及算法的日益復雜,人工智能技術將繼續發展。當前的 IT 標準和最佳實踐必須不斷發展,以解決 AI 本身的獨特特征以及與 IIoT 系統的安全性、可靠性和彈性相關的具體考慮因素。此外,人工智能技術的日益成熟將幫助人們認識到它的好處遠遠超過它的風險。 AI 標準生態系統也將繼續發展,例如 ISO/IEC JTC 1/SC42 正在進行的標準工作,為 JTC 1、IEC 和 ISO 委員會制定 AI 標準提供指導。
基于這些趨勢,毫無疑問,人工智能將繼續推動技術和功能上的可能性,因此預期合理的事情將同樣發展。對技術的態度和對其使用的商業期望也將繼續發展。
未來,我們可以期待使用人工智能技術成為常態,而不是例外,考慮到這項技術的社會效益,“不使用人工智能”最終可能會成為不負責任的做法。
美國陸軍總部發布新版“ ATP 2-33.4 Intelligence Analysis: January 2020”
情報分析是情報的核心。它是包括計劃在內的許多參謀活動的基礎,并貫穿整個美國陸軍。除其他結果外,分析有助于指揮官和其他決策者可視化作戰環境 (OE)、組織部隊和控制行動以實現其目標的能力。要了解情報分析的作用,情報專業人員必須了解情報分析與其他參謀流程的對應關系,尤其是軍事決策過程和信息收集。
ATP 2-33.4 向包括指揮官、參謀和領導人在內的廣大受眾提供有關情報人員如何進行分析以支持陸軍行動的基本信息。它描述了情報分析過程和具體的分析技術以及情報人員,特別是全源分析師在所有情報學科中進行情報分析的信息。此外,ATP 2-33.4 描述了情報分析如何促進指揮官的決策制定和對復雜環境的理解。ATP 2-33.4 的主要受眾是進行情報分析的初級到中級情報分析員。本出版物為指揮官、參謀人員和其他高級軍事人員提供情報分析的基本信息。
【報告標題】
Human Factors and ISR Concept Development and Evaluation 人為因素和情報、監視、偵察 (ISR) 概念開發和評估
【報告來源】
北約技術報告
【出版時間】
2022年2月
【研究問題】
情報、監視和偵察 (ISR) 行動是關于收集信息并向操作員提供信息,而操作員又需要就其戰區的各種行動方案做出具體決策。可以肯定的是,ISR 行動是技術密集型的。然而,與此同時,ISR 行動是一個非常以人為本的過程。盡管如此,ISR 概念開發和評估 (CD&E) 過程中幾乎沒有人為因素 (HF) 研究。通過研究新的ISR技術和概念對不同操作環境下操作員性能的影響,研究人員可以提供更科學的建議,為高層政策和決策者提供關于所有ISR環境下未來ISR技術和能力的信息:包括空中、海面、地下和空間。就這一點而言,HF 研究方法應成為任何 ISR CD&E 過程的組成部分,為 ISR 指揮鏈各級的政策和決策者提供信息和建議。
【研究目的】
北大西洋公約組織 (NATO) 研究和技術組織 (RTO) 人為因素和醫學 (HFM) 小組任務組 (RTG) 276 (NATO RTG HFM-276) 題為“人為因素和 ISR 概念開發和評估”,旨在識別和理解對有效 ISR 操作至關重要的 HF 問題。更準確地說,這項開創性工作的目標是:
1 確定有效 ISR 行動的關鍵 HF 問題(例如,態勢感知、工作量、組織結構、協調和協調機制、可視化、信任、信息共享和管理、領導力以及做決定);
2 使用行為理論模型來發展我們的研究方法并理解我們的發現;
3 就 ISR CD&E 操作中 HF 研究的使用和實施提出建議。
【結果、意義、影響】
北約 HFM-276 任務組使用組織有效性模型開發了一組調查,以識別和了解對有效 ISR 行動至關重要的 HF 問題。該模型的核心是由任務、收集、處理、利用和傳播 (TCPED) 組成的 JISR 流程。源自該模型以及其他來源的數據收集計劃著眼于 ISR 行動中的一些 HF 問題的作用:基本 HF 知識、情況評估、工作量、組織結構、信任、信息共享、信息管理、領導力、文化、組織過程、組織靈活性、共享意識和責任、協調和協調機制、決策、能力、情報請求管理(IRM)、通信、元數據和應用系統。所有這些 HF 因素都會影響 ISR 操作概念并影響操作員的績效。此外,該報告總結了一些改進北約和非北約行動的 ISR CD&E 過程的實際影響,重點是開發應包含在 ISR CD&E 過程中的 HF 研究方法。這種 HF 方法將像技術和程序 ISR 概念開發的質量控制組件一樣工作。預計研究結果將有助于為 ISR 指揮鏈各級的政策和決策者提供信息和建議,以增強北約 ISR 規劃、任務執行和能力發展中的信息和決策優勢。它還有望幫助告知 ISR 與其他聯合流程的整合,例如在確定當前與 ISR 相關的 HF 差距以及與其他流程整合方面的聯合目標。
空軍專業 (AFS) 初始技能培訓 (IST) 的最新趨勢表明,美國空軍 (USAF) 入伍人員重新分類為其他職業專業的人數近年來有所增加,并且在財政年度之間出現了穩步增長2013 年和 2017 年。職業領域重新分類可能會導致廣泛的負面結果,包括成本增加、人員配備延遲、培訓計劃挑戰和士氣下降。為了理解和解決 IST 重新分類的挑戰,作者考慮了改進流程的選項,以對 IST 的現役非在職飛行員進行分類和重新分類。在本報告中,他們概述了 2019 年一項研究的主要發現,該研究采用了定性和定量分析,包括機器學習 (ML) 模型、評估 IST 成功(和失敗)的預測因素。他們還描述了他們對優化模型的測試,該模型旨在確定修改重新分類決策的機會,以便不僅減少重新分類飛行員的數量,而且提高飛行員的工作滿意度和生產力,并提高美國空軍的保留率。
01 研究問題
02 主要發現
2.1 IST 分類旨在優化訓練成功,但不優化其他重要結果
2.2 增加相關變量的數量可以提高 ML 預測的準確性
2.3 重新分類是一個手動過程,可以進行優化以實現不同的結果
2.4 與 IST 飛行員就選定的 AFS 進行的焦點小組討論確定了促成 IST 成功和挑戰的因素,并確定了改進建議
飛行員的特征(例如,動機)和先前的經驗(例如,教育)、支持性教官和學習小組有助于 IST 的成功。
IST 挑戰涉及飛行員特征和訓練基地環境。
改進涵蓋了諸如 AFS 的先驗知識以及對 IST 的期望、課程設計、非 IST 要求和宿舍安排等領域。
03 建議
通過保留有關 IST 資格和結果的數據庫,要求新兵完成職業評估和招聘人員提供有關 IST 和 AFS 的信息,系統地收集有關工作要求的信息,開發生物數據工具,從而擴展 USAF 入伍分類中使用的預測變量集。由所有入伍新兵完成,并使用同行和教官對飛行員的個性進行評分。
通過定義和系統地測量與 IST 成功相關的結果以及通過監控專業畢業的移動平均值來擴展 USAF 入伍分類中使用的結果集。
提高數據質量、全面性和可訪問性,以便 ML 模型能夠提供準確且有用的預測。
更新分類和重新分類流程以優化 IST 的成功和工作匹配,從而提高績效和職業滿意度。
在實施任何 ML 模型之前,應對道德和隱私、ML 模型的可解釋性和模型性能等領域的挑戰。
04 報告目錄
第一章
簡介和背景
第二章
空軍分類和重新分類過程
第三章
可用于預測空軍訓練和職業成果的數據
第四章
預測成功的模型
第五章
重新分類訓練消除的優化模型
第六章
飛行員在選擇專業的初始技能培訓中的經驗
第七章
結論和建議
附錄 A
定義和衡量人員選拔的成功
附錄 B
描述性統計和分析建模結果
附錄 C
優化模型方法論
附錄 D
焦點小組方法論
在決定是否減輕或接受網絡攻擊對武器系統的風險時,最重要的考慮因素是它如何影響作戰任務——也稱為任務影響。然而,對整個空軍的每個系統和所有任務進行全面評估是不切實際的,因為每個系統都很復雜,有大量潛在的漏洞需要檢查,每個漏洞都有自己復雜的威脅環境。
進入網絡任務線程分析框架。為了分析任務影響,作者提出了這種旨在同時實現幾個目標的新方法:足夠全面,可以在美國空軍的每個任務的規模上執行,但信息量足以指導決定接受或接受減輕特定風險。此外,該方法非常簡單,可以在不超過幾個月的時間內執行,并且可以根據需要進行更新。
該框架遵循自上而下的方法,從捕獲所有關鍵任務元素的整個任務的“線程”(映射)開始,然后是支持其執行的系統。雖然作者并未將網絡安全風險評估問題簡化為交鑰匙解決方案,但他們提出了有用的方法來分類與任務成功最相關的領域,同時將對漏洞和威脅的詳細調查限制在最關鍵的領域。他們的框架旨在大規模完成,適用于各種場景,并明確其工作方式。
00 報告研究的問題
01 主要發現
1.1 在合理的資源支出下分析大規模的任務影響是一個主要的挑戰
1.2 隨著新系統的引入、舊系統的修改以及戰術、技術和程序的發展,執行任務的方式發生了變化
1.3 網絡空間的特點之一是冗余無效
1.4 失去指揮和控制可能會在沒有任何系統或組件故障的情況下損害任務
1.5 當決策者不了解分析的工作原理時,他們通常會恢復直覺和判斷
02 建議
要大規模執行任務影響評估并節省工作量,請使用系統工程熟悉的方法和可用于分類的任務關鍵性標準組合。
定義任務時,不要包含任何系統。在分析的后期介紹特定系統的作用。
將隨著時間推移相對穩定的工作與需要在系統生命周期中更新的分析分開。
盡可能使用現有的和經過驗證的技術以保持透明,以便決策者了解分析的工作原理及其局限性,并信任它來指導決策。
應用網絡分離的概念來解決冗余問題。
在任務和系統級別合并功能流程圖,以解決對手指揮和控制分析問題。
為了全面驗證和驗證網絡任務線程分析框架,空軍應該在各種不同的任務中應用和測試它。
03 報告目錄
第一章
評估武器系統網絡安全風險的一些注意事項
第二章
評估任務影響的原型框架
第三章
框架的討論
《信息安全技術 機器學習算法安全評估規范》國家標準,本文件本文件規定了機器學習算法在設計開發、驗證測試、部署運行、維護升級、退役下線等階段的安全 要求和證實方法,以及機器學習算法的安全評估實施。本文件適用于對機器學習系統中的算法進行安全評估,也適用于機器學習系統開發者和運營者在算 法開發運營過程中進行自評估和改進安全措施。
本標準給出了機器學習算法安全評估指標、評估流程以及在需求、設計、開發訓練、驗證評估、運行等階段的算法安全評估規范,涉及影響算法-模型安全的數據、系統等方面的安全因素,適用于指導機器學習應用開發者、運營管理者、用戶以及第三方等相關方開展機器學習算法安全評估。本標準擬解決機器學習算法安全評估問題,給出安全評估規范,主要表現在:1)機器學習算法的安全評估指標和評估流程。雖然傳統的安全問題在人工智能中依然存在,但機器學習算法安全有很多自身的特點,開展算法安全評估應重點關注機器學習算法的安全問題,因此,研究機器學習算法的安全屬性和安全風險就十分必要。在此基礎上,本項目將研究機器學習算法的安全評估指標,從整體上給出機器學習算法的安全評估目標、流程及結果判定方式,為開發人員、用戶及第三方等相關組織開展人工智能算法安全評估提供基本指導。2)機器學習系統開發生命周期的算法安全評估要求。機器學習算法安全評估全面考慮系統工程的整個生命周期安全需求,包括需求階段、設計階段、開發訓練階段、驗證評估階段、運行階段,各實踐階段均存在需要特別考慮的安全評估點。本項目將綜合考慮人工智能算法生命周期安全評估需求,提出針對不同實施階段的算法安全評估要求。3)機器學習算法安全評估要求。機器學習算法面臨數據、算法、模型等多個層面的安全風險,開展算法安全評估將全面考慮機器學習算法安全風險點,給出針對不同層面安全風險的評估方法、流程、要求等,從攻擊、防御等方面,分別給出對應評估方案和具體要求。
目的意義
《人工智能標準化白皮書(2018版)》中指出,對人類的安全和生命安全有直接的影響的人工智能系統,可能會對人類構成威脅,需要在這類人工智能系統得到廣泛應用之前,就通過標準化等手段對系統進行規范和評估,保障安全性。
《人工智能安全標準化白皮書(2019版)》指出,充分兼容已有支撐性安全標準,設計人工智能安全測試評估指標,優先針對算法魯棒性、人工智能系統應用可信賴、隱私保護、數據集安全、應用安全等主題開展測試評估類標準研制工作。
與此同時,安全評估標準往往滯后于技術發展,盡早開始人工智能算法安全的標準制定,顯得十分必要。
本項目立足機器學習算法安全評估,針對需求、設計、開發訓練、驗證評估、運行階段的算法安全需求,結合算法安全風險點,研究人工智能算法的安全評估指標、評估方法、評估流程,有助于推動國務院《新一代人工智能發展規劃》和工信部《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》中有關建立人工智能安全方面的技術標準的落地實施,為機器學習算法開發方、用戶方以及第三方等相關方開展機器學習算法安全評估提供實踐指導。
近日,美國人工智能國家安全委員會發布最終報告(草案)。本報告共分為兩大部分:第一部分,“在人工智能時代保衛美國”(第1-8章)概述了美國必須做些什么來抵御來自國家和無政府組織的人工智能相關威脅,并建議美國政府如何負責任地使用人工智能技術來保護美國人民和利益。第二部分,“贏得技術競爭”(第9-16章)概述了人工智能在更廣泛的技術競爭中的作用,并建議政府必須采取行動促進人工智能創新,從多個方面提高國家競爭,保護美國的關鍵優勢。
這兩個部分共同代表了白宮領導下的戰略綱要,該戰略旨在調整國家的方向,以應對新興時代的機遇和挑戰。
美國人工智能國家安全委員會于2019年由國會特許成立,旨在探討人工智能對美國國家安全的影響。該報告中包括對白宮、聯邦機構、國會和其他實體的詳盡建議,涉及從勞動力、知識產權到倫理的各個主題,最終報告預計將影響未來幾年拜登政府和國會議員所采取的人工智能政策。
這兩個部分共同代表了白宮領導下的戰略綱要,該戰略旨在調整國家的方向,以應對新興時代的機遇和挑戰。