亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在美國國防部,人工智能(AI)/機器學習(ML)的整合目前是以現有項目的升級或新項目的收購形式進行的。怎么知道這些AI/ML支持的系統會按照預期的方式運行?為了做出這個判斷,與其他傳統的軟件開發/采購項目相比,AI/ML產品開發/采購需要一個獨特的評估過程。作為回應,美海軍軍械安全和保障活動(NOSSA)資助了以下研究,以調查獨特的政策、指導方針、工具和技術,以評估AI/ML關鍵功能中的安全問題。在這項工作中,開發了14項關鍵的嚴謹度(LOR)任務,并在五個階段中應用:(1)需求,(2)架構,(3)算法設計,(4)算法代碼,以及(5)測試和評估(T&E)。14項LOR任務涉及最佳實踐討論、定義、測量、論證文件和AI/ML系統特有的危險分析格式。這14項LOR任務還明確了為什么AI/ML軟件開發需要采購界的特別考慮。此外,這項研究有可能影響采購界如何定義需求、創建架構、產生AI/ML算法設計、開發AI/ML算法代碼以及執行T&E。在開發 "采購沙盒"的過程中,跨越五個發展階段的14項LOR任務的需求變得很明顯,該沙盒研究了部署AI/ML自主系統的路線規劃者,以及讓這些系統交付軟件包,重點是評估關鍵功能行為的安全性。該沙盒是使用國防部架構框架(DoDAF)和統一建模語言(UML)圖設計的,其中包含了各種AI/ML技術。當面臨這種程度的復雜性和/或不確定性時,14項LOR任務代表了一組有凝聚力的問題/考慮因素,為應對當前海軍AI/ML的采購問題提供了重點。這些指南還為涉及安全的組織,如NOSSA和適航性,以及包括項目經理和系統工程師在內的采購專業人員提供了一個分步驟的 "如何 "評估方法,以確保創造高質量的人工智能嵌入式產品。

該報告為包含人工智能功能的系統的采購和開發提供了詳細的指導方針。該準則允許用戶在作戰部署的挑戰中對人工智能功能的行為建立不同程度的信心。信心的程度決定了14個LOR任務中的哪一個在五個階段中被應用。每個LOR任務提供了問題和/或考慮因素,使開發人員能夠客觀地評估人工智能/ML功能的安全性和可靠性。當審查每個LOR任務時,LOR任務編號(和相關階段)后面的 "參考編號 "是指用于開發問題和/或考慮因素的文件中的相應標識(ID)。這四份文件的標題分別是:(1)操作視圖(OV),(2)系統視圖(SV),(3)數據集設計,和(4)算法設計。LOR任務 "參考ID "命名法的例子是Ops1、Sys1、Alg1和Dat1。在這些例子中,每個ID與四個文件中的一個有關,其中數字 "1 "表示文件中描述的第一個LOR任務。在每個文件中使用 "Ref ID "支持對研究的可追溯性,包括數學。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)應用于武器系統是過去10年研究的一個主要趨勢。這些舉措旨在提高武器的準確性,執行非主動的瞄準手段,幫助導航和制導與控制(例如,在全球定位系統被拒絕的情況下),并減少與傳統的基于物理學的方法相比的整體計算資源,以便在更小、更實惠的武器系統上實現智能瞄準。這項研究還包括將作戰人員的戰斗空間擴展到無人駕駛飛行器,并使用蜂群方法與有人和無人平臺進行合作。

我們首先概述了人工智能的描述和歷史,并概述了人工智能在武器系統中的原理、技術和應用。這包括對監督自主系統;制導、導航和控制;行為和路徑規劃;傳感器和信息融合;智能戰略和規劃;兵棋推演建模;以及認知電子戰的研究和計劃的回顧。

然后,對將人工智能應用于武器系統的系統和項目進行了調查。雖然重點是基于美國的系統和項目,但也包括一個關于俄羅斯和中國相關系統的小節。最后,我們對將人工智能用于武器系統的倫理考慮進行了簡要評論。

引言

1.1 問題陳述

機器學習(ML)和人工智能研究的最新進展揭示了人工智能在實現創新、增加機器的效用以及增強人類能力和經驗方面的力量和潛力。人工智能技術的顛覆性和其影響的深度還沒有被廣大公眾完全掌握。考慮到新時代的新興技術威脅,展示關鍵和相關的人工智能研究和最先進的技術是很重要的,這些技術不僅為武器系統提供了比傳統武器系統更多的自主權,而且大大增加了它們的殺傷力和戰斗生存能力。最終,人工智能在開發改變游戲規則的技術方面帶來了巨大的戰略機遇,這將確保國家安全、繁榮和技術領先地位。

1.2 常規武器系統

美國軍方在創造先進的常規武器技術方面取得了巨大的進步,這些技術支持了士兵在戰場上的任務并增強了他們的能力。這些常規武器技術大多是自動化系統,在計劃、執行和完成一項任務或使命時依靠一套預先編程的規則。然而,在中國和俄羅斯等國家新開發的武器的前沿陣地上,人工智能支持的戰爭和高超音速武器給美國武裝部隊帶來了新一代的質量挑戰。下一代戰斗的步伐要求為戰略決策進行時間緊迫和大量的戰斗信息處理,這使得美國的許多常規武器系統只能執行低風險的任務,并在核領域之外處于威懾力減弱的態勢。

必須承認,人是昂貴的訓練資產。在戰場上增加更多的人員并不是推進最先進的戰爭的優雅或廉價的解決方案。相反,用支持人工智能的智能硬件來增強人在回路中的系統,可以在戰區提供更多的眼睛和耳朵,并通過使人工智能系統執行一些簡單和常規的任務來釋放人類的決策。

此外,無人駕駛作戰飛機系統(UCAS)是一種成熟的具有成本效益的系統解決方案,用于執行情報、監視和偵察(ISR)任務和遠程空襲。然而,自動化能力仍然受到人類在環形操作、評估和接觸的限制。雖然在任何可預見的未來都沒有打算消除武器化人工智能系統中的人類元素,但人類的能力仍然構成這些系統協同潛力的上限。但是,一個由人工智能驅動的智能武器系統的新生態系統將迎來新的戰爭形式和戰略。

人工智能國家安全委員會在其2021年的報告中提出,美國國防部(DoD)的軍事企業在整合人工智能技術方面落后于商業部門,并敦促在2025年前為整個國防部廣泛整合人工智能奠定基礎[1]。

1.3 人工智能的簡要歷史

幾個世紀以來,哲學家們一直在考慮以某種形式人工復制人類智能的某個方面的概念。1869年,威廉-杰農創造了第一臺基于布爾邏輯實現邏輯計算的機器。該機器能夠比人類更快地計算布爾代數和維恩圖。隨著這種邏輯計算機器的發展,人們很自然地質疑機器是否可以通過邏輯推理來為人類解決問題并做出決定。圖1-1中的時間軸顯示了人工智能的歷史和演變,并在本節中進行了詳細說明[2]。

在理論計算機科學的一些最早的工作中,英國數學家阿蘭-圖靈(Alan Turing)思考了機器是否能像人類一樣智能地行為和解決問題的問題。他在他的圖靈測試中提出,如果一臺機器能模糊地模仿人類這樣的智能生物,那么這臺機器就是智能的。這一理論測試成為一種指導性的形式主義,在這種形式主義中,當前的機器被測試其模仿人類智能概念的能力或潛力。作為測試的見證,Loebner獎是一個圖靈測試競賽,其任務是根據圖靈提出的基本問題來評估機器智能研究的現狀。

1928年,約翰-馮-諾伊曼證明了Minimax算法的基本定理,該算法旨在提供一種在零和博弈過程中使最大可能損失最小的策略。

圖1-1. AI歷史年表

在第二次世界大戰的高峰期,阿蘭-圖靈和他的團隊開發了一種機器算法,可以破譯德國的英格瑪信息密碼。他的算法的成功,推動了將復雜任務委托給機器的進一步努力,是機器計算的基礎,也是ML發展的先導。

1943年,McCulloch和Pitts開創了神經網絡(NN)的最早概念--McCulloch-Pitts的形式網絡理論--這在1949年馮-紐曼在伊利諾伊大學的四次演講中得到了體現[3]。

大約在同一時間,約翰-麥卡錫,一位計算機科學家,在1955年創造了 "人工智能 "來指代機器智能;計算機科學家艾倫-紐維爾;以及赫伯特-A-西蒙,一位經濟學家和政治學家,開創了第一個旨在自動推理的真正程序(稱為邏輯理論家)。隨著這一突破性的努力,對智能機器的探索開始了,為人工智能作為計算機科學的一個新的學術研究領域鋪平了道路。

1957年,一位名叫弗蘭克-羅森布拉特博士的心理學家開發了一個名為 "感知器 "的簡化數學模型,描述了我們大腦中的神經元如何運作。這一成就被強調為 "Perceptron收斂定理"。

同年,理查德-貝爾曼開發了動態編程,用于解決一類最佳控制問題。他還介紹了離散隨機最優控制問題的馬爾科夫決策過程表述,這為現在所稱的 "強化學習 "奠定了重要基礎。

在這些發展之后,另一位名叫阿瑟-塞繆爾的人工智能先驅利用他早先在ML方面的開創性工作,成功地開發了第一個檢查者算法。他實現了現在被稱為 "Alpha-Beta修剪 "的早期版本,這是一種搜索樹方法,通過Minimax算法減少評估節點的數量。1959年,一位名叫威廉-貝爾森(William Belson)的統計學家開發了一種名為決策樹的非參數、監督學習方法的早期版本。

在20世紀60年代,人工智能研究的重點是解決數學和優化問題。1960年,羅納德-霍華德提出了馬爾科夫決策過程的策略迭代方法,建立了一些與強化學習有關的最早的工作。

到1968年,著名的路徑搜索算法A-star是由計算機科學家尼爾斯-尼爾森提出的。60年代末,機器人建模、控制和機器視覺方面取得了進展,導致在1972年開發了第一個名為WABOT-1的 "智能 "擬人機器人,并整合了肢體操縱、視覺和語音系統。

Harry Klopf的 "適應性系統的異質理論 "的復興對適應性系統的試錯范式的發展有很大影響。1977年,Ian Witten提出了最早的強化學習系統之一,使用了時間差法。理查德-薩頓和安德魯-巴托設計了一種強化學習算法,稱為演員批評法。

由于70年代中期到80年代末計算機的計算能力限制,人工智能研究在有大量數據處理要求的應用中發現了困難,如視覺學習或優化問題。同時,數學研究 "證明 "了(單層)感知器不能學習某些模式。此外,1973年發表的一份Lighthill報告對人工智能的潛力非常悲觀,這導致人工智能研究的資金被削減。結果,資金短缺導致人工智能的研究經歷了一個被稱為 "人工智能冬天 "的時期。

到了80年代中后期,繼1986年多層感知器的發展之后,在NNs方面也做出了重要的理論貢獻。這些貢獻是David Rumelhart在1986年開發的遞歸神經網絡(RNNs),John Denker等人在1987年開發的貝葉斯網絡,以及Yann LeCun在1989年開發的卷積神經網絡(CNNs)。

此外,Chris Watkins在1989年開發了另一種重要的強化學習方法,稱為 "Q-Learning"。1992年,在IBM的Thomas J. Watson研究中心,Gerald Tesauro通過自我強化學習為雙陸棋游戲訓練了TD Gammon程序。1997年,IBM的 "深藍 "計算機使用粗暴的、基于搜索的算法擊敗了國際象棋世界冠軍加里-卡斯帕羅夫,使其成為第一個在國際象棋中戰勝頂級職業選手的程序。

在90年代末和21世紀初,在ML中看到的大部分進展是由計算機處理、存儲和分布式計算方面的指數級進展所推動的。2007年,需要大量計算資源的保證最優玩法在跳棋中得到了解決。在過去的20年里,圖形處理單元用于通用計算的激增導致了今天人工智能應用的進一步進展,特別是在2012年和2014年,不同的NN拓撲結構,如殘差網絡和生成式對抗網絡的發展。

2015年,ImageNet競賽,一個為約400萬張圖像的ImageNet圖像集開發分類器的公開競賽,有一個冠軍,其錯誤率被認為低于一個人。2016年,DeepMind的AlphaGo程序在擊敗當時被認為是最優秀的圍棋選手李世石后,成為最佳AlphaGo選手。繼AlphaGo的學習能力之后,AlphaZero在2017年擴展了AlphaGo,成為國際象棋和Shogi的最佳棋手。

2019年,美國國防部高級研究計劃局(DARPA)推出了AlphaDogfight,這是基于人工智能的空戰算法在模擬的F-16狗斗中與經過頂級訓練的飛行員進行的一系列三輪競賽。第一輪和第二輪比賽中,人工智能程序相互競爭。第三輪將人工智能勝利者的飛行員提煉出來,與美國空軍武器學校的優秀畢業生進行競爭。蒼鷺系統的人工智能飛行員不僅在競爭激烈的人工智能空中戰斗人員中獲勝,而且在與訓練有素的人類F-16飛行員的較量中取得了令人難以置信的五次勝利。

OpenAI在2020年5月推出了一個名為GP3的 "自然語言處理 "模型,它生成的寫作內容與人類無異。其最新版本可以從簡單的描述性語言生成編程語言代碼[4]。人工智能的歷史繼續向前發展,特別是對國防部的武器系統應用。本報告的其余部分將調查與武器系統有關的當代人工智能技術和系統。

1.4 什么是AI?

根據Barr和Feigenbaum的說法,人工智能被定義為 "計算機科學中與設計智能計算機系統有關的部分,即表現出我們與人類行為中的智能有關的特征的系統--理解語言、學習、推理、解決問題等等"[5]。

Stuart Russel和Peter Norvig在他們的《人工智能:一種現代方法》一書中對人工智能的最新定義是:"設計和建造能夠從環境中接收感知并采取影響環境的行動的智能體" [6]。

Pei Wang優雅地將智能定義為 "在知識和資源不足的情況下的適應"[7]。雖然該定義沒有說明適應的目的(如目標),但它揭示了為達到這種智能需要完成的工作。

如果要以人類為中心定義人工智能,即執行人類智能水平的任務,那么人工智能需要感知、推理、知識構建、推理、決策和計劃、學習、交流,以及有效移動和操縱環境的能力。

人工智能的科學目標是回答哪些關于知識表示、學習、規則系統、搜索等的想法可以解釋各種類型和水平的真實智能。工程目標是為不同的應用領域開發人工智能技術,以解決現實世界的問題。

在人工智能的科學基礎上,我們發現來自不同科學領域的可識別概念--哲學、邏輯/數學、計算、心理學和認知科學、生物學和神經科學以及進化。在尋求發現和更好地理解人工智能是什么或將是什么的過程中,來自這些不同知識領域的貢獻已經被證明是不可避免和不可或缺的了。許多研究人工智能的領域都在同時構建人類認知如何運作的模型,并在它們之間采用有用的概念。例如,NN,一個源于生物學的概念,試圖在簡化的人工神經元的基礎上建立人工系統,這個概念導致了一個簡單的抽象知識結構的表示,足以解決大型計算問題集。

人工智能大致分為三個主要層級--人工狹義智能(ANI)、人工通用智能(AGI)和人工超級智能(ASI)。圖1-2說明了這三個層級中的各種分組,本節將更多地討論這些分組。

1.4.1 人工狹義智能(ANI)

ANI是對一個執行狹窄或單一任務的人工智能系統的描述。它可以包括各種方法來獲得結果,如傳統的ML(以圖像分類為例)或目標檢測(包括ML和基于規則的系統)。給定一組規則或約束,它的目標是提供一組代表狹義任務的輸出。ANI不會擴展或學習新的認知,也不會自我學習新的操作模式。數據挖掘、大多數專家系統和針對某一應用的預測功能(例如,垃圾郵件檢測和面部識別)都被認為是ANI的形式。ANI還包括 "有限記憶人工智能"--用于自動駕駛汽車的系統類型,使用過去的經驗(訓練),并學習做決定,隨著時間的推移而改進。

1.4.2 人工通用智能(AGI)

AGI是一種更強大的智能形式,因為它被更多類似人類智能的特征所增強,例如自主學習的能力和解釋情緒和語音語調的能力。這使得與AGI相關的智能與人類的智能水平相當。AGI的一些關鍵核心能力如下:

  • 推理、解決問題、運用策略和在不確定情況下做出決定的能力。
  • 展示知識的能力。
  • 計劃的能力。
  • 學習的能力。
  • 用自然語言交流的能力。
  • 將所有上述內容整合為一個共同目標的能力。
  • 類似人類的思維與圖靈測試等計算的結合。

1.4.3 人工超級智能(ASI)

ASI是一種超越最聰明的人類頭腦的智能模型。實現ASI的方法仍在概念化中,但將是那些超越AGI并需要某種自我意識的系統。這些系統最好能代表所有人類的認知能力,甚至更多。

1.5 機器學習(ML)

ML是機器從數據中學習的能力,目的是做出準確的預測。它大致分為四類學習,提供了豐富的專用和通用的技術家族。

1.5.1 監督學習

在這種形式的學習中,訓練數據使用包含的輸入和標記的或預定的輸出數據。如果有缺失的輸入或輸出條目,它們會被預處理,以便將一個輸入正確地映射到其真正的對應輸出。通過從正確生成的訓練數據集中學習,系統學會了將不在原始數據集中的輸入與預測的輸出(標簽或值)聯系起來。這種類型的訓練解決的典型問題是回歸和分類[8]。

1.5.2 無監督學習

這種形式的學習中,系統直接從未標記的數據中發現有趣的或隱藏的結構[9]。無監督學習被用于聚類分析、降維或估計可能產生輸入數據的密度[8]。

1.5.3 半監督學習

當數據集包含有標記的和無標記的數據時,這種學習形式的系統利用無標記的數據來更好地捕捉潛在的數據分布,并獲得一個更好的預測,如果它只從標記的數據中訓練的話。這種學習形式適用于訓練數據集中的標注數據遠遠少于未標注數據的情況[8]。

1.5.4 強化學習

在這種學習模式中,系統使用獎勵/懲罰機制進行訓練,這樣它所選擇和執行的行動,當行動可取時,會使系統得到獎勵,當行動不可取時,會受到懲罰。強化學習問題涉及學習如何做(如何將情況映射到行動上)以最大化數字獎勵信號[9]。

03 人工智能在武器系統中的應用

人工智能有可能應用于武器系統生態系統的許多方面。它被用來控制系統,從而實現自主性和提高性能,以在具有挑戰性的環境中選擇指導、導航和控制方面的問題。同樣,人工智能可用于解決任務和路徑規劃中的挑戰性問題,從而實現更高水平的復雜任務目標和操作要求。人工智能也被用于電子戰領域的支持、反制,甚至是反制措施。它還可能被用于來自不同系統層次和領域的信息融合,以泄露抽象的高價值戰場情報,并提供關鍵線索和快節奏的決策,從而在現代戰爭中創造寶貴的戰術優勢。

報告的這一部分將強調最先進的人工智能方法在適用于自主和武器系統的各種人工智能問題領域的使用。它是根據以下問題領域來組織的。

  • 自主性

  • 感知中的人工智能

  • 制導、導航和控制中的人工智能

  • 任務和路徑規劃

  • 智能戰略

  • 對手建模

  • 認知型電子戰

提綱

第一章 引言

1.1問題陳述

1.2常規武器系統

1.3 AI簡史

1.4什么是AI?

1.4.1 ANI

1.4.2 AGI

1.4.3 ASI

1.5 ML

1.5.1監督學習

1.5.2無監督學習

1.5.3半監督學習

1.5.4強化學習

第二章 最先進的方法

2.1學習人工智能范例

2.1.1深度學習

2.1.2強化學習

2.2隨機優化和搜索算法

2.2.1隨機優化

2.2.2圖形搜索算法

2.3新興人工智能范例

2.3.1神經符號AI

2.3.2 NE

第三章 人工智能在武器系統中的應用

3.1自主性

3.1.1定義、級別和框架

3.1.2自主系統的功能組件

3.2感知中的人工智能

3.2.1圖像分割

3.2.2目標檢測、分類和場景理解

3.2.3傳感器融合

3.3制導、導航和控制中的人工智能

3.3.1 GN&C系統

3.3.2常規控制理論方法

3.3.3智能控制

3.3.4本地化和導航

3.3.5系統識別

3.4任務和路徑規劃

3.4.1GAs

3.4.2群體智能

3.5智能策略

3.6對手建模和兵棋推演

3.7認知電子戰

3.7.1電子支持措施

3.7.2 ECMs

3 .7.3 ECCMs

第四章 將人工智能應用于武器系統的系統和程序

4.1天線系統

4.1.1下一代空中優勢計劃

4.1.2 Shield AI Hivemind

4.1.3 Shield AI V-Bat

4.1.4 Kratos XQ-58 Valkyrie

4.1.5 MQ-20 Avenger UCAS

4.1.6自主彈藥

4.1.7 Dynetics X-61小精靈

4.2 海軍系統

4.3 陸軍系統

4.3.1 QinetiQ/Pratt Miller的遠征自主模塊化飛行器

4.3.2Textron系統公司的Ripsaw M5

4.3.3 Rheinmetall公司的Lynx KF41

4.4 群系統

4.4.1 DARPA的攻擊性蜂群戰術

4.4.2自主協同小直徑炸彈群

4.4.3 Perdix群

4.4.4 Mako UTAP22

4.4.5 Coyote UAS Block 3

4.4.6機器人代理命令和傳感群的控制架構

4.4.7激流勇進微型無人潛水器

4.5戰斗管理和智能指揮與控制

4.6 ISR和目標系統

4.6.1 SRC的HPEC Pod

4.6.2復仇女神

4.7導航

第五章 未來作戰中的AI

第六章 人工智能和外來威脅

6.1俄羅斯

6.2中國

第七章 倫理考量

第八章 總結

參考文獻

付費5元查看完整內容

私營部門不斷收集和整理關鍵數據及其來源,以通過利用數據密集型的人工智能機器學習(AI/ML)技術來確保支持和發展新的業務。大部分行業數據都是有價值的共享資源,而海軍到目前為止還沒有實現這種做法。本頂點研究通過研究、訪談和個人專業知識,探討了海軍在創造數據可用性和質量方面的挑戰性任務。研究側重于過程、技術和管理,采用了詳細需求評估、利益相關者分析、功能設計。其研究結果是一個集中式人工智能庫(CAIL)的概念框架,旨在匹配行業對數據作為關鍵商品的堅定關注。美國海軍需要持久和動態的數字化準備,因此這個擁有70多年美國海軍數據專業知識的頂點團隊建議 OVERMATCH 考慮這些發現并生成一個確保海軍數據可用性和質量的系統。

執行摘要

美國海軍部(DON)對研究和開發人工智能和機器學習(AI/ML)系統的興趣源于這些創新能力對海軍任務和對作戰人員的直接支持所帶來的深遠和改變游戲規則的影響。人工智能/機器學習系統可以被用來改善任務規劃,減少人員配置,改善戰術決策,簡化系統維護和支持,提高安全性,在某些情況下,還可以將作戰人員從危險中移除。戰士日常活動的許多方面將發生變化,從常規和勞動密集型工作的自動化到支持復雜和時間緊迫的戰斗空間決策。

只有當美國國防部首先釋放數據的力量,才能實現AI/ML系統的這些進步。目前,在獲取或"釋放"DON的數據以開發未來的AI/ML系統方面存在許多障礙。整個海軍的數據主要停留在"筒倉"或難以訪問的數據庫中,每個"筒倉"都在其領域內受到保護。在DON的數據領域內,定位、請求、獲取和策劃數據的過程并不正式。米勒(2021)說:"數據的所有者是美國人民。海軍只是管理人和監護人"。這句話包含了將數據從孤島中 "解放"出來的需要,以使海軍真正成為一個以數據為中心的企業,并實現海軍的數字化準備。

這個頂點項目開始了一項研究,以了解美國防部內AI/ML開發人員的數據需求,并制定一個概念性的解決方案來解決數據需求。其他目標是:

  • 研究AI/ML方法如何在DON任務中應用。

  • 了解數據需求是否在DON任務中普遍是標準的,或者數據需求是否在DON任務中有所不同。

  • 制定一套 DON AI/ML利益相關者的要求。

  • 為一個支持DON AI/ML數據需求的系統制定一個概念性設計。

  • 研究實施概念性解決方案系統的潛在成本和進度效益。

時區團隊(Team Time Zone)應用系統工程分析方法研究DON AI/ML開發人員的數據需求,并開發和評估一個概念性的系統解決方案,以解決這一數據挑戰,并最終支持DON未來的數字準備,以解決復雜的任務。該團隊通過采訪三個不同的海軍任務領域的主題專家(SME)來進行利益相關者的需求分析:系統維護、物理安全和戰備。這三個任務被認為是 "數據提供者"的代表。此外,該團隊還采訪了數據研究人員和AI/ML科學家,以了解他們的數據需求。訪談為團隊提供了基于獨特和不同領域和經驗的關注、挫折、經驗教訓和挑戰的洞察力。從數據提供者的角度來看,反復出現的主題包括所有權的劃分、信息保障的需要、數據未被收集或存儲的情況以及對可訪問性的擔憂。從數據用戶的角度來看,明顯的軼事包括尋找數據的耗時,承諾的數據并不總是能夠實現,以及即使在獲得數據后,理解數據的背景也是至關重要的。該小組根據利益相關者的訪談和信息收集工作,為DON AI/ML制定了一套數據要求。DON AI/ML的數據需求是:

  • 數據必須能夠被外部組織訪問。

  • 數據必須被翻譯成與其領域應用兼容的標準格式。

  • 數據必須有確定的所有者。

  • 數據必須伴隨著描述性的元數據。

  • 數據必須有標準化的管理。

  • 數據必須以其 "最低標準"的形式被訪問。

  • 數據必須具有保護和適當共享的安全性。

  • 數據必須具有混淆性,以保護個人身份信息(PII)。

  • 數據必須伴有背景信息。

為了解決DON數據研究人員和AI/ML科學家確定的數據需求,Team Time Zone開發了一個中央AI庫(CAIL)系統的概念設計,作為解決方案。CAIL系統的目的是簡化 DON內部的數據訪問和管理,以支持AI/ML系統的開發。CAIL系統旨在減少訪問數據的時間(和相關費用),騰出更多時間用于AI/ML系統的實際開發、培訓和評估。該團隊提出,為了滿足未來計劃的訪問和整合要求,CAIL需要成為一個 "數據云"。圖1是CAIL的OV-1;它描述了為AI/ML開發簡化DON數據訪問和管理的擬議過程。

圖1. CAIL OV-1

該團隊根據六個主要類別制定了CAIL系統要求:數據準備、數據偏差、數據整理、數據分類、數據治理和數據安全。每一個類別都是針對利益相關者分析過程中發現的需求。CAIL系統將主要與外部聯合數據、數據庫、文件和權威數據生產商/供應商的內容對接。它將像 "谷歌 "一樣為DON用戶尋找數據。數據將是結構化的,并將伴隨著元數據(關于數據的描述性信息),使數據可以被搜索。一個管理數據的社區將提供規則來管理對數據的安全訪問和授權。

在利益相關者的分析中,很明顯,在訪問數據之前需要進行一些重要的活動。AI/ML開發人員解釋了了解數據收集方式、數據來源以及其他有關數據的特定領域的背景方面的重要性。Team Time Zone將這些過程指定為 "預CAIL活動",并將其作為整個CAIL過程的一部分。

Team Time Zone進行了成本分析,以估計為DON實施CAIL系統的成本。該團隊使用了兩種方法來估計成本:傳統的成本估計和基于模型的系統工程(MBSE)方法。該小組估計CAIL系統的成本(基于傳統的成本估算)為3380萬美元,持續時間為5年,每年的重復維持成本為400萬美元。團隊估算的CAIL系統成本(基于MBSE方法),在運行了一萬次蒙特卡洛模擬后,平均為3290萬美元,持續時間為5年。運營和維護模型的平均成本為每年440萬美元。表1顯示了CAIL開發和維護成本的摘要。

表1. CAIL系統成本匯總

為了使DON的AI/ML項目蓬勃發展,并在未來幾十年內實現AI/ML的進步,DON必須確保數據的管理,并使AI/ML的發展能夠被訪問。Team Time Zone提出的CAIL系統解決方案將為AI/ML項目提供一個單一來源的綜合數據環境,以訪問存儲在整個DON各種數據庫中的數據庫目錄。Team Time Zone建議海軍實施CAIL系統,通過確保AI/ML開發者訪問持久和動態的數字數據來支持數字準備。CAIL系統支持DON項目和開發人員的協調方法,以安全訪問數據。該小組建議超配項目(Project Overmatch)考慮這些發現并實施CAIL系統和流程,以確保海軍的數據可用性和質量。該小組開發了一個CAIL標志(見圖2),表明CAIL系統是海軍的一個重要基礎。

圖2:CAIL標志。改編自美國海軍標志。

I. 簡介

A. 背景情況

技術的進步給軍事領域帶來了新的威脅類型和現有威脅的改進版本。對抗性威脅的進步要求海軍改進現有的能力并開發新的能力,以提高防御能力并應對這些威脅。能力的增強需要提高速度、隱身性、機動性、反措施、擴大范圍、更早發現和更大的殺傷力。這些增強的能力使我們能夠在不確定的、復雜的和時間緊迫的條件下做出關鍵決定。現代戰術作戰人員面臨著越來越復雜的決策空間。他們需要獲得對動態戰斗空間的態勢感知,并確定有效的行動方案(COA)以滿足任務需求。圖1強調了造成這種戰術復雜決策空間的因素。決策的復雜性來自于威脅環境,來自于知識的不確定性,來自于戰爭和信息系統本身,來自于作戰人員與自動化系統和信息系統的互動和使用所產生的挑戰,以及任務決策的重要性或后果的嚴重性。

圖1:戰士的復雜決策空間。資料來源:Johnson (2021).

美國國防部(DOD)和海軍部(DON)正在研究使用人工智能(AI)來解決復雜的戰術決策空間,通過改善態勢感知和提供自動決策輔助來支持戰術作戰人員。利用人工智能方法的先進算法可以通過減少信息過載、改善態勢感知、提高決策速度和加強一般的戰術決策來減輕作戰人員的認知負荷。預測分析(PA)可以支持對系統可靠性和故障概率的預測,這為物流提供了廣泛的改進(Zhao和Mata 2020)。諸如PA等技術可以通過開發 "what-if "和 "if-then "情景來加強戰術決策,通過預測決策選擇的長期影響來改善戰士的COA決策(Johnson 2020)。人工智能方法可以通過檢測異常情況和從大量的安全攝像機數據中識別可能的威脅來改善海軍基地的物理安全。

米切爾(2019)將人工智能定義為一個包括許多不同方法的領域,以創造具有智能的機器。圖2顯示,人工智能存在于一套廣泛的自動化方法中,使機器能夠根據命令和規則執行任務。人工智能是使系統能夠執行模仿人類智能的功能的一套方法。機器學習(ML)方法是人工智能方法的一個子集。ML方法允許系統從被訓練的大型數據集上學習。ML系統從訓練的數據集中學習。然后,這些 "訓練有素 "的ML系統在操作上被用來識別模式,并在新的操作數據下產生預測的結果(Johnson 2021)。

圖2:什么是人工智能?資料來源:Johnson (2021)。

人工智能算法是編碼的計算機程序,用于對數據進行分類、分析和得出預測。監控、交通預測和虛擬個人助理是實施ML算法的應用實例。

開發人工智能系統,特別是ML系統,是一項具有挑戰性的工作。ML算法的初始訓練是一個數據密集型的演變。人工智能/ML系統對數據要求很高,其準確性在很大程度上取決于數據訓練集的質量和數量(Godbole 2020)。作為一個參考點,訓練DeepMind的AlphaGo Zero系統學習下圍棋花了大約40天,包括2900萬場比賽(Feldman, Dant, and Massey 2019)。想象一下人工智能/ML武器系統算法所涉及的額外復雜性,它需要考慮戰爭背景(戰爭游戲、冷戰、和平時期)、朋友或敵人、道德和合法性等概念(Feldman, Dant, and Massey 2019)。

隨著美國防部開始開發人工智能和ML方法,出現了獨特的數據挑戰。開發人員需要大量的驗證數據來訓練他們的算法;這些數據需要準確、安全和完整,以確保算法不會被破壞或有偏見。這些數據集必須代表適當的操作環境。對于海軍的應用,訓練數據必須代表眾多的任務,包括海上、空中、太空、水下、沿岸、網絡和陸基領域的任務。盡管許多海軍司令部和實驗室正在研究和開發基于人工智能/ML系統的未來能力,但沒有協調的程序來獲取他們所需的海軍數據。在許多情況下,數據是存在的,但要確定國防部的數據來源并獲得數據是一項耗時和昂貴的工作。

這個頂點項目采用了系統工程分析方法來研究DON AI/ML開發者的數據需求,并確定和評估一個概念性的系統解決方案來解決這個數據挑戰,并最終支持未來DON的數字準備來解決復雜的任務。

B. 問題陳述

DON對研究和開發AI/ML系統的興趣為各種應用帶來了數據挑戰。盡管DON的許多指揮部和實驗室正在研究和開發基于AI/ML系統的未來能力,但沒有一個協調的程序來訪問他們所需的DON數據。AI/ML系統需要大量的驗證數據來支持他們的發展和訓練算法。在許多情況下,數據是存在的,但要確定美國防部的數據來源并獲得數據是一項耗時和昂貴的工作。這個頂點研究了這個問題,并進行了需求分析,以確定DON AI/ML開發人員的數據需求,并開發和評估了解決DON數字準備這方面的解決方案概念。

C. 項目目標

這個頂點項目的主要目標是分析 DON AI/ML 開發的數據需求,并開發一個概念性的解決方案來解決數據需求。其他目標是

  • 研究AI/ML方法如何在DON任務中應用。

  • 了解數據需求在DON任務中是否有普遍的標準,或者數據需求在DON任務中是否有差異。

  • 制定一套 DON AI/ML利益相關者的要求。

  • 為一個支持DON AI/ML數據需求的系統制定一個概念性設計。

  • 研究實施概念解決方案系統的潛在成本和進度效益。

D. 項目團隊和組織

時區團隊由五個具有不同學術和專業經驗的NPS系統工程學生組成。該團隊由以下人員組成。

  • Robert French于2016年畢業于Old Dominion大學,獲得了計算機工程和電子工程的學士學位。他目前是位于弗吉尼亞州弗吉尼亞海灘的海軍水面作戰中心Dahlgren分部-Dam Neck附件的特殊傳感器技術部門的R.F.工程師。羅伯特也是美國艦隊司令部海上作戰中心N6(信息系統)的高級入伍領導(USNR)。他曾在現役中擔任電子技術員超過14年,并成為現役預備役軍人達9年之久。

  • Wallace Fukumae前擁有夏威夷大學的電子工程學位。他目前居住在夏威夷,為海軍太平洋信息戰中心工作,擔任印度-太平洋部門主管。他的經驗包括指揮和控制(C2)系統的開發和交付以及操作。

  • Kheng Hun目前居住在日本,擁有華盛頓大學的電子工程學位。他目前在海軍信息戰中心(NIWC)太平洋分部工作,擔任位于日本橫須賀的夏威夷西太平洋(HWP)分部的項目工程師。他的專業背景包括設計和安裝各種C4I系統,如電子安全系統(ESS)和網絡系統以及MILCON項目的C4I系統規劃。

  • Obed Matuga擁有馬里蘭州巴爾的摩市摩根州立大學的工業工程學位,在華盛頓特區的海軍海洋系統司令部工作。與宙斯盾和艦船自衛系統一起工作,目前居住在馬里蘭州。

  • Caitlyn O’Shaughnessy于2015年畢業于馬薩諸塞大學達特茅斯分校,獲得計算機科學學士學位。她目前是羅德島紐波特的海軍海底作戰中心的CANES(S.S.)項目的首席工程師。

圖3描述了時區團隊(Team Time Zone)的組織結構和每個團隊成員的主要職責。圖中還顯示了NPS的項目顧問,Bonnie Johnson博士(系統工程系)和美國海軍上尉Scot Miller(退役)(信息科學系)。

圖3:團隊時區組織圖

E. 項目方法

時區團隊采用了系統工程的方法來進行這個項目。圖4說明了該團隊的過程。團隊從需求分析開始,以了解問題并為DON AI/ML開發者定義數據要求。在這個階段,團隊確定了三個DON任務領域作為AI/ML應用的代表性領域。接下來,團隊在功能分析和系統綜合的基礎上,制定了一個名為中央人工智能庫(CAIL)系統的解決方案戰略的概念設計。該小組對CAIL系統進行了建模,并利用DON的三個任務領域來分析實施CAIL系統的效用和潛在的成本/進度效益。該團隊的分析過程涉及幾種分析方法,包括定性調查、定量調查、建模和模擬、數據結構和格式分析、需求分析和操作概念評估。

圖4:頂點項目的方法

首先,該團隊通過進行需求分析和為海軍AI/ML開發人員制定一套數據要求來確定需求的定義。該團隊確定了利益相關者,并與來自不同海軍任務領域的AI/ML開發者會面,以了解他們的數據需求。該小組進行了文獻回顧,以收集背景信息并了解當前的人工智能/ML方法。團隊對來自利益相關者會議和文獻審查的信息進行了匯編,以了解與支持海軍AI/ML應用有關的要求和限制、數據所有者、數據源、數據系統、數據元素和數據屬性。

該小組研究并確定了利益相關者和三個海軍任務主線的獨特數據要求:系統維護、實體安全和戰斗群準備。該小組確定并采訪了任務領域的主題專家(SMEs),以了解獲得AI/ML實施數據的過程,并關注需要從DON系統和組織中收集和存儲哪些數據。圖5說明了海軍的三個任務主線,以及數據、架構、基礎設施和互操作性能力在支持這些作戰人員任務領域方面的直接潛在重要性。

圖5:美國防部任務領域

接下來,團隊根據需求分析結果,制定了一個概念設計方案,以解決海軍對人工智能/ML發展的數據需求。該團隊綜合了CAIL系統,并生成了CAIL操作概念(CONOPS)和CAIL功能模型。基于國防部建筑框架(DODAF)和系統建模語言(SysML),該團隊開發了概念模型,詳細說明了CAIL的系統特征、功能和操作概念。

頂點項目的最后階段是團隊對CAIL解決方案方法的評估和分析。該團隊使用Innoslate(一種基于模型的系統工程工具)開發了一個模型,以表示CAIL系統在三個海軍任務主線中的使用情況。該小組評估了CAIL系統的能力,以簡化和改善收集、格式化、策劃、驗證和確保安全訪問海軍任務數據集的過程,以支持在三個海上任務線領域工作的AI/ML開發人員。對該模型進行了評估,以估計海軍實施CAIL系統的潛在成本和調度效益。CAIL系統模型被用來驗證和確認需求。

F. 頂點報告概述

第一章提供了項目的介紹和動機,描述了問題陳述、項目目標,以及團隊的組織和完成項目的方法。

第二章總結了團隊的文獻回顧,為需求分析提供了基礎,強調了訓練AI和ML算法所需的數據。文獻回顧包括對數據科學、統計學習、深度學習、分類學以及支持AI和ML系統的企業信息技術解決方案的信息探索。

第三章包含了團隊的需求分析結果。

第四章包含了對團隊的概念性解決方案--CAIL系統的描述。

第五章介紹了團隊對CAIL系統的分析和評估結果,該系統是解決海軍在支持AI/ML發展方面的數據挑戰的解決方案。

最后,第六章討論了擁有CAIL系統的影響和結論以及對后續研究和工作的建議。

付費5元查看完整內容

美國國防部和空軍領導人認為,人工智能(AI)是一種改變游戲規則的技術,將幫助空軍情報、監視和偵察(ISR)體系克服大國沖突所需的情報分析速度和規模方面的長期挑戰。傳感網格概念(最近更名為傳感器集成)被作為未來框架引入,以整合人工智能和認知建模工具融入空軍ISR,但對于對手的威脅和道德方面的考慮卻很少討論,而這些考慮應該貫穿于系統的設計和功能模塊。為了讓空軍內部的人力和組織做好準備,以整合高度自動化的人工智能情報分析系統,領導人必須倡導以人為本的設計,從歷史上人機協作的成功和失敗中吸取教訓。領導人還必須采取積極主動的方法來培訓空軍的ISR勞動力,以便與革命性的但不完善的人工智能技術進行有效協作。

問題陳述

根據美國空軍作戰集成能力(AFWIC)傳感跨職能小組的說法,空軍情報、監視和偵察(ISR)的現狀是高度專業化、專有化,并且過于依賴人力密集的回傳(reach-back)過程。當規劃人員展望未來的大國沖突時,他們評估目前的硬件和分析過程將不足以建立對同行對手的決策優勢,情報工作在勝利所需的速度和規模方面落后。空軍A2的 "下一代ISR主導地位飛行計劃"對目前的ISR體系也提出了類似的批評,主張擺脫今天的 "工業時代的單一領域方法",以追求 "架構和基礎設施,以實現機器智能,包括自動化、人機合作,以及最終的人工智能。"雖然為空軍人員提供更快更智能的工具來制作和分享評估是空軍高級領導人的優先事項,但引入更高水平的自動化和機器主導的感知為情報界帶來了一系列新問題。考慮到這些工具可能遇到的篡改和故意提供錯誤信息的威脅,依靠算法走捷徑是否安全?追求由自動化武器系統促成的戰爭到底是否合乎道德?如果是這樣,情報界采用自動化工具以更快的速度產生關鍵的情報評估會帶來什么風險?

人工智能(AI)一詞被美國防部聯合人工智能中心定義為 "機器執行通常需要人類智慧的任務能力--例如,識別模式、從經驗中學習、得出結論、進行預測或采取行動。"參議員們希望AI能夠很快為人類分析師用來進行評估的軟件套件提供動力,并使物理系統在更多的自主應用中發揮作用。機器學習(ML)被國防部高級研究計劃局(DARPA)定義為人工智能中的一個領域,"將統計和概率方法應用于大型數據集",并可以將衍生模型應用于未來的數據樣本。利用ML好處的一個流行方法是通過深度神經網絡(DNN),它可以使用歷史數據被訓練成執行一系列的分類和預測任務。雖然在AFWIC或A2的出版物中沒有特別提及,但在模擬人類思維過程的應用中使用AI、ML和DNN是計算機科學和心理學的一個混合領域,稱為認知建模。在AFWIC對未來空軍ISR體系的設想中,AI、ML、DNNs和認知建模概念是向數字化、以網絡為中心的情報方法轉變的關鍵部分。

為了給空軍ISR體系的現代化舉措提供一個框架,AFWIC建立了傳感網的概念,定義為 "傳感器、平臺、人員、設備、內容和服務的組合,為決策者提供整體、準確、預測和及時的作戰環境特征。"該概念的設計者設想了一個具有預測分析、自主傳感和響應、融合多個數據源和邊緣處理的系統,所有這些都是通過利用AI、ML、DNN、數據分析和其他認知建模方法來實現的。盡管沒有公布傳感網格的首次亮相日期,但大多數討論表明,優化的系統簇至少還有十年。同時,美國防部領導層非常迫切地要趕上中國和俄羅斯在軍事人工智能應用方面的投資,鼓勵快速原型設計和實驗,以找到解決方案。人工智能在國防論壇上經常被認為是使以數據為中心的情報任務更快、加快戰術決策的答案,但如果所涉及的系統處于工程的初級階段,并且在國家安全領域仍未得到證實,這僅僅是猜想。

雖然AFWIC和空軍A2專注于人工智能傳感器和工具的研發投資,但很少討論使傳感網格安全和有效所需的人機合作動態。為了使傳感網格成為一個有效的系統,為空軍執行ISR和分析的方式帶來價值和進步,領導人應該在技術中倡導以人為本的設計,培訓和準備一線分析員與新系統有效的協作,并根據人工智能的優勢和劣勢調整組織做法。空軍領導人必須承認將更多的分析任務分配給人工智能工具所固有的對抗性威脅和道德問題,這些問題必須告知感知網格的藍圖。這并不是說正在進行的系統軟件開發應該停滯不前,而是說在情報和物資領導人之間必須同時進行對話,討論人類分析員的作用,因為這對減輕越來越多地依賴人工智能的弊端至關重要。空軍領導人還必須推行一項深思熟慮的計劃,將傳感網格組件整合到當前的傳感、識別、歸屬和共享(SIAS)活動中,使一線分析員為 "更高級別的推理和判斷"任務做好準備,同時承認機器應該增強人類任務,而不是完全取代人類。

接下來本文將提供與人工智能系統相關的脆弱性和道德問題的文獻回顧,以深入了解建設和應用傳感網格可能面臨的挑戰。它還將包括討論在完成和應用這個改變游戲規則的系統之前,情報和物資領導人應該考慮哪些因素。本文最后將就如何為空軍ISR戰斗空間準備傳感網格提出進一步的建議,為空軍人員在數字時代的行動提供必要的場景設置。

文獻回顧

最近關于將人工智能應用于認知任務的相關弱點的研究大多強調了對抗性樣本的危險性,這些樣本修改了DNN的輸入,導致它們控制的系統以各種方式發生故障。對抗性輸入可以是物理的或非物理的,可以影響各種數據分類器分類媒體,包括圖像、音頻文件和文本。最常提到的物理欺騙樣本是一個實驗,工程師通過將停車標志調整成不同的角度來愚弄自動駕駛汽車上的光學傳感器,導致車輛錯過停車。物理欺騙在國防應用中不是一個新穎的計劃,但將邊緣處理和自動化納入像傳感網格這樣的系統可能排除了人類分析師第一手識別這些戰術。在非物理領域,訓練算法以類似于人腦的方式來識別模式是一項具有挑戰性的任務。計算機視覺(CV)算法對圖像的分類與人類分析人員非常不同,當只有幾個像素不合適時,很容易對物體進行錯誤分類。在不太直接的情況下,工程師無法解釋模型的錯誤,刺激了DARPA等組織對可解釋人工智能的倡議。 在最好的情況下,對抗性輸入被識別為異常值,并被具有強大訓練樣本的CV模型所忽略;在最壞的情況下,它們可能會破壞現實世界的輸入,并在人類分析師不知情的情況下從樣本中數字化地刪除物體或活動。如果對抗性輸入導致分析師錯過他們通常會在沒有協助的情況下捕捉到的重要活動,就會產生災難性的后果。

如果將AI、ML和DNN應用于情報數據集背后的目標是以更高的速度分析和傳播更多的信息,那么自然語言處理(NLP)也可能是感知網格架構的一部分。NLP模型今天被廣泛用于個人和商業用途,像Siri和亞馬遜Alexa這樣的工具使用語音提示來啟動其他應用程序。NLP模型也可用于大量文本或其他媒體的理解任務,使用衍生數據回答問題。這種技術在融合多種數據源的SIAS任務中可能非常有用,但也可能容易受到干擾。NLP中的對抗性輸入可以引入錯誤的句子或用文本文件中的反義詞替換關鍵詞,導致模型在沒有時間或能力進行人工審查的情況下錯誤描述數據集。

與任何分層模型的方案一樣,CV和NLP模型是否能像預測的那樣有效地協同工作還是個未知數,更不用說檢測像Deepfakes這樣在非保密領域進入DNN的偽造數據了。人類分析員離通常可以檢測錯誤信息的源數據流越遠,SIAS就越容易受到錯誤輸入的影響。盡管有這種擔憂,但空軍A2的指導意見表明,人們對分層模型利用非保密的公開信息(PAI)進行無縫傳感器提示寄予厚望,使ISR體系能夠更有效地找到相關目標。如果沒有一種強大的方法來檢測提示傳感器的PAI樣本中的偽造媒體,這個過程可能難以安全地實現。

技術的復雜性和自動化、人工智能系統對篡改的潛在脆弱性,引發了關于在軍事行動中應用這類技術是否符合道德的討論。雖然傳感網格的設計不是為了直接使用武器,但來自該系統的情報數據很可能為關于多個領域的關鍵決策提供信息。關于AI/ML的倫理學文獻通常對采用自主運作、人類干預窗口有限的系統持批評態度,其邏輯與反對地雷等傳統自動化武器的倫理學論點相似。雖然傳感網格及其前驅系統將具有比壓力板裝置高得多的認知行為屬性,但一些人認為,人類對黑盒系統的控制同樣很少,這些系統在向人類操作者提出選擇或結論之前,會執行層層的算法通信。

幸運的是,人工智能系統可能也能夠在人類容易出現道德失誤的情況下進行補償,因為機器不會經歷像恐懼或驚慌這樣的情緒,而這些情緒可能會引發危險的決定或違反LOAC。盡管利用人類與認知模型合作的這一潛在優勢是謹慎的,但美國防部的指導意見將速度作為人工智能最有用貢獻的具體價值,這引入了更多道德難題。對個人決策的測試表明,人類在復雜環境中的風險評估能力已經很差,而引入人工智能,使人類判斷的價值邊緣化,只會導致更快的、風險更高的結論。當人工智能帶來的錯誤評估或草率決定導致災難性錯誤時,問責也是美國防部領導人必須準備解決的混亂道德問題。

大多數文獻中隱含的減輕對手篡改和道德失誤威脅的解決方案,是在人類控制器和自主的人工智能系統之間進行最佳分工。不足為奇的是,對于這應該是什么樣子,以及它如何適用于像傳感網格這樣的系統,有許多觀點。一些人認為,在國際協議框架中沒有雇用自動武器系統的空間,并將其缺乏責任感與兒童兵相比較。其他人認為,如果像聯合目標定位這樣的程序以同樣的嚴格和參與規則進行,人工智能工具將不會導致不可接受的失控。雖然人們認為迫切需要通過購買現有的商業軟件向聯合情報界提供傳感網格的能力,但如果美國防部領導人希望減少前面討論的風險,工程師、需求所有者和分析師必須致力于仔細討論人工智能應用在ISR體系中最有幫助的地方以及它們有可能造成傷害的地方。

討論結果

當涉及到投資建設由人工智能和認知建模應用驅動的未來ISR體系的項目時,美國防部和空軍除了需要快速投資并與大學和國家實驗室合作外,提供的指導有限。除了系統 "事故風險較低;對黑客和對手的欺騙行為更有彈性和表現出較少的意外行為"之外,對該部門在人工智能投資方面所期望的指導也是有限的。缺乏特殊性可能是人工智能在國防部戰略中首次出現的癥狀,但自滿和滿足于為投資而投資的情況并沒有遠遠超過這種情況。使用該技術的社區有責任決定與認知模型建立哪種類型的協作關系將提供最大的利益,但戰略指導似乎將責任交給了實驗室和行業合作伙伴,責成外部人士確定人工智能將解決的問題和解決方案。如果空軍ISR領導人在討論如何最好地將人類分析員與人工智能工具協作方面不發揮積極作用,他們將如何評估開發人員是否在提供資金的情況下取得足夠的進展?美國防部如何相信由非業務伙伴開發的解決方案能夠充分解決安全和道德問題?在什么時候,人工智能會從一個脆弱的研究項目過渡到改善SIAS的速度和準確性的可行解決方案?

討論人工智能及其在情報工作中的預期功能的一個更有成效的方法是,不要把它當作一個神奇的子彈,因為它的定義太不明確,根本無法研究。雖然將認知模型應用于情報過程可能是新的,但在戰爭中實現自動化的技術已經存在了幾十年。領導人必須考慮現代戰爭中已經存在的人機合作結構,以獲得設計和整合傳感網格的經驗。對于空軍ISR來說,分析當前和歷史上人類分析員、機載傳感器和戰區決策者的團隊合作是一項有益的工作。機載ISR傳感器的性能衡量通常通過傳感器輸出的響應性和準確性等因素來評估,但了解傳感器數據引發的分析和決策過程也很重要。例如,光譜成像傳感器可以被用作異常檢測器,突出不尋常的物體或活動,供人類分析員審查和報告。報告可以傳播給行動領導人,然后他根據情報做出決定,命令對異常活動的來源進行空襲。如果這一連串的事件在行動過程中習慣性地發生,那么傳感器和人類在循環中的互動可能會開始改變,而傳感器被潛意識地重新歸類為威脅探測器。在這種情況下,傳感器的性能規格并沒有改變,但隨著時間的推移,團隊關系中的人類開始對傳感器的輸出應用不同的價值,這可能是外部激勵因素的影響。雖然大多數分析家都知道,假設所有的異常情況都是威脅是不正確的,也是危險的,但人機協作關系演變為扭曲人類判斷的微妙方式是值得關注的。為了確保人機協作以道德方式進行,領導者必須反思協作結構如何在無意中抑制組織的價值觀。對新作戰技術的準確性和穩健性的要求是合理的,但了解技術煽動的組織行為和習慣對有效和道德地使用是最重要的。

除了在ISR體系內應用現有的人機合作經驗外,人工智能感應網格的設計也應以人為本。雖然在建立一個由人類分析員使用的系統時,這似乎是顯而易見的,但在復雜的系統工程項目中,人因工程和人機協作的考慮往往是一個低優先級的問題。這部分是由于傳統的組織障礙,將軟件工程師和人因專家放在不同的部門,尤其是后者專門研究認知心理學、神經科學和機器人學等學科,這些學科在一些項目中可能發揮有限的作用。未能在復雜系統中適當整合人的因素的后果是可怕的,這在波音公司的737 Max飛機上可以看到,該飛機在2018年和2019年發生了兩起致命事故。兩份事故報告都提到高度自動化的機動特性增強系統(MCAS)軟件是導致飛機失事的一個重要因素。 雖然MCAS被設計為使用傳感器輸入來協助飛行安全,但糟糕的人為因素考慮使得該系統在觸發自動程序后,飛行員很難覆蓋。雖然培訓用戶與新系統合作是入職的自然部分,但由于缺乏人為因素工程而導致的陡峭學習曲線是一種風險,可以通過對人類和機器行為進行建模來減輕,因為它們與手頭的任務相關。 在這種情況下,建模將幫助系統架構師確定在特定的團隊合作關系中造成誤解的溝通差距,也許可以提供關于機器如何在緊急情況發生前向人類操作員充分披露其局限性的洞察力。

當我們推測如何最好地促進人機互動,充分解決與人工智能和自動化相關的安全和倫理問題時,尋求視覺分析專家的咨詢可以提供有價值的設計見解。"視覺分析是一個科學領域,它試圖通過交互式可視化增加人機對話來提高自動化、高容量數據處理的透明度。 為分析師提供一個團隊結構,讓他們選擇如何可視化數據集,可以在自動化、機器輔助的數據精簡和人類判斷之間取得有利的平衡。在傳感網格的可視化分析的最佳應用中,分析師將以高度的信心理解數據集的重要性,這得益于調整基礎分析過程的能力。 理想情況下,可視化分析使用戶能夠通過向系統提出關于數據的假設和問題來利用他們的學科專長,使他們能夠通過對話得出結論。視覺分析中的一種被稱為語義互動的方法也可能是有幫助的,創建的模型可以將分析師與視覺數據的對話轉化為模型的調整,推斷和學習人類伙伴執行常規任務的原因,如突出、復制等。考慮到前面詳述的學科有多新,建立明確的測試和評估標準將是準備將這些和其他團隊技術納入SIAS任務的重要步驟。

美國空軍研究實驗室(AFRL)內的各局無疑面臨著許多挑戰,在這個概念正式確定之前,他們一直致力于建立傳感網格的組成部分。將人工智能整合到智能架構和軟件中的工程師和開發人員主要在羅馬實驗室AFRL信息局(AFRL/RI)工作,分為多個核心技術能力(CTC)團隊。特別是處理和開發(PEX)CTC將深入參與開發實現傳感網的DNN,其任務是"為空軍、國防部和情報界提供快速感知,以提高對形勢的認識和對抗的洞察力"。在PEX CTC中,項目按功能分為特征化、極端計算、理解和預測項目,涵蓋了從數據提取到高級感知的一系列步驟。人因工程方面的專業知識來自位于兩個州外的萊特-帕特森空軍基地的飛行員系統(RH),一個跨學科局。下一步,PEX CTC的項目可能會與AFRL的其他部門(如傳感器(RY)或航空航天系統(RQ))的開發項目相結合,將RI的SIAS部分與新的機載收集傳感器和車輛聯系起來。目前,RI的工程師使用來自實際聯合和國家情報來源的樣本數據流,逐步解決在大量非結構化數據中進行分類的計算挑戰。尋找解決方案以保持物理系統的尺寸、重量和功率要求可控,也是一個持續關注的問題,特別是在像Agile Condor這樣尋求在機載系統上提供高水平邊緣處理的項目。

正如前面的文獻調查所示,在DNN中建立穩健性和安全性,以防止ML中的對抗性干擾,是任何網絡開發者都關心的問題,RI內部的團隊也不例外。DNN已經在實驗室環境中以意想不到的方式學習或失敗,引入與人類感知相矛盾的對抗性輸入,可能會使開發有用工具的進展受挫。如果系統繼續隨著新數據集的發展而發展,那么可能很難確定技術成熟度的基準,在這種情況下,AFRL將維持責任轉移給空軍生命周期管理中心(AFLCMC)是合適的。雖然這一點與建立人工智能傳感網格組件的測試和評估標準的重要性有關,但它也應該引發關于復雜系統在開發和維持組織之間的移交是否適合這種技術的討論。理想的情況是,在DNN上擁有最多專業知識的團隊建立模型,并在其整個生命周期內維護它們。一個更有可能和更少破壞性的行動方案是建立具有可升級底盤和外形尺寸的傳感網組件,允許在可用時用替換設備進行簡化升級。考慮到國家實驗室、DARPA、麻省理工學院、卡內基梅隆大學和其他機構的大量人工智能研究投資,空軍領導人應該考慮如何在研究結果公布后,整合部門的投資回報,以改善感知網的設計和功能。

對于美國防部和空軍領導人來說,為未來傳感網的整合創造條件,還有其他獨特的倫理挑戰需要協調。如果 "傳感網格"及其組件能夠提供該概念所承諾的快速和強大的傳感功能,那么期望所有使用該系統的一線分析員都能理解其工作原理是否合理?在發生災難性錯誤的情況下,初級分析員是否需要了解該技術,以便對涉嫌疏忽的錯誤負責?"將邊緣處理納入傳感網設計也是一個有道德爭議的話題。雖然自動數據處理可以節省SIAS的時間,但分析師如何知道邊緣計算程序是否出現故障,或者他們是否被對手欺騙?從傳感器的邊緣去除人類的認知勞動可以更快地提供數據,但結果的準確性可能會有所不同。那些認識到這些問題,但卻因為要比中國或俄羅斯更快地投入技術的壓力而推遲解決的領導人,應該仔細思考這一立場背后的原因。雖然中國和俄羅斯的政府形式與美國根本不同,但事實是,這兩個國家都有等級制度,對國防事務中的錯誤和不精確性的責任也很重視。以類似于核計劃的方式,美國政府應該領導國際社會與競爭對手分享安全、設計良好的人工智能算法的傳統技術,確保沒有國家因為糟糕的態勢感知工具而引發誤解導致的沖突。最好的國際人工智能軍備控制可能來自于對人工智能研究結果的盡可能透明,并倡導負責任地使用該技術。

建議

盡管完整形式的傳感網格還需要幾年時間才能實現,但最終系統的組成部分可能會在未來十年內逐步投入使用。在為下一代人機協作做好技術、人員和組織的準備方面,還有大量的工作要做。美國防部和空軍ISR領導人不應等到正式的系統首次亮相時才開始倡導在傳感網格技術中采用以人為本的設計,將人工智能的培訓目標納入對一線分析員的指導,并為組織接受該技術和與之合作做好準備。當涉及到設計和構建這個復雜的系統時,物資領導人在考慮采購商業的、現成的軟件以獲得更快的數據匯總解決方案時,應該謹慎行事。在沒有為傳感網格及其系統如何運作建立測試、評估和安全標準的情況下,過早地整合多用途商業軟件可能會給傳感網的人工智能互動帶來不確定性和風險

此外,找到更快解決方案的愿望不應該先于對人的因素的考慮,因為這對安全和富有成效的人機合作至關重要。美國防部領導人還應該認真審視在整個傳感網中整合邊緣處理的計劃,將其作為一個安全和道德問題,并應仔細思考在哪些地方將人類感知與傳感器輸出分離才是真正合適的。雖然培訓人類分析員是ISR體系可以采取的最明顯的措施之一,以減輕來自外部干預和道德失誤的威脅,但物資領導人也必須考慮他們在采購精心設計的、以人為本的技術方面的作用,作為一個同樣重要的保障。

正如美國國防創新委員會的AI原則。雖然年輕的分析員在快速學習數字應用和程序方面表現出很強的能力,但初級人員也傾向于以令人驚訝的方式信任技術。因此,這些分析員必須繼續接受情報分析基礎知識的培訓,使他們善于識別傳感網格中的算法錯誤和遺漏。空軍領導人在2018年為促進AI和ML素養邁出了務實的第一步,啟動了一項試點計劃,以確定具有計算機語言經驗的空軍人員,希望在各種舉措中利用那些具有編碼專長的人。雖然這項措施將有助于區分具有較高數字熟練度的分析員,但教導勞動力如何運作計算機模型可能是一個更有用的技能組合,以準備在傳感網中進行人機合作。"為傳感網就業準備一線分析員的最壞方法是依靠及時培訓來彌補勞動力對技術知識的差距,從而為SIAS活動引入更大的錯誤率。

為了讓組織準備好接收和整合傳感網格,美國防部和空軍領導人必須首先解決人力需求。盡管像傳感網格這樣的系統被設計成模仿人類的認知勞動,但分析人員的勞動對于質量控制和任務管理仍然是至關重要的,更不用說作為識別DNN內潛在篡改或系統故障的保障。現在還不是為預期的技術進步做出任何急劇的力量結構調整的時候,而這種技術進步離投入使用還有好幾年的時間。此外,到目前為止,關于傳感網將如何整合來自聯合部隊的數據,或者是否允許作戰司令部像今天一樣擁有自己獨特的數據戰略和情報資源的討論很少。如果傳感網由于來自一個服務部門或地理作戰司令部的人為縫隙而無法為分析人員提供更多的情報來源,那么該系統是否真正做到了其設計者所宣傳的?這些問題必須在聯合參謀部層面加以解決和調和。最后,利用來自傳感網的情報的組織必須認識到,當他們與機器合作時,他們很容易受到偏見和捷徑的影響。了解外部壓力和交戰規則如何導致對機器輸出的質疑失敗,對于改善人機伙伴關系,真正使SIAS更加有效至關重要。

結論

美國防部和空軍對人工智能在情報中的應用所進行的研究投資,對于確定部隊應如何準備與傳感網格進行人機合作是至關重要的。對領導人和一線分析人員進行培訓,讓他們了解在自動化、人工智能支持的SIAS中存在的道德難題和對手攻擊的可能性,這對保護組織不傳播錯誤信息至關重要。幸運的是,美國防部和空軍ISR領導人主張在傳感網格系統中采用以人為本的設計和培訓模式還為時不晚,因為AFRL的工程師們正在繼續努力為部隊提供一個安全、務實的解決方案。領導人必須認識到以速度換取精確性的組織傾向,并理解精心設計的系統分階段整合將是值得等待的。

付費5元查看完整內容

摘要

軍事決策在不同的領域--陸地、海洋、空中、太空和網絡--以及不同的組織層面--戰略、作戰、戰術和技術上發揮著關鍵作用。建模和仿真被認為是支持軍事決策的一個重要工具,例如,生成和評估潛在的行動方案。為了成功地應用和接受這些技術,人們需要考慮到整個決策 "系統",包括決策過程和做出決策的指揮官或操作員。

人工智能技術可以以各種方式改善這個決策系統。例如,人工智能技術被用來從(大)數據流中提取觀察結果,自動建立(物理/人類/信息)地形模型,產生對未來事件和行動方案的預測,分析這些預測,向人類決策者解釋結果,并建立人類決策者的用戶模型。

對于所有這些應用,人工智能技術可以在不同的情況下被使用,并且已經開始被使用,因此有不同的要求。在本文中,我們概述了人工智能技術和模擬在決策"系統"中的不同作用,目的是在我們的社區中促進對人工智能的綜合看法,并為用于軍事決策的各種人工智能研發奠定基礎。

1.0 引言

軍事決策有多種形式。它發生在不同的領域--陸地、海洋、空中、太空、網絡--以及不同的組織層次[7]。例如,在戰略層面上,決策是否以及何時在一個特定的作戰區域內開始一項軍事任務。在作戰層面上,聯合部隊指揮官決定為某項行動分配哪些軍事要素,并指定在具體行動中尋求的預期效果。在戰術層面上,例如,海上任務組的反空戰指揮官決定由哪艘護衛艦來應對來襲的威脅。最后,在技術層面上,要決定在什么范圍內使用什么武器來消滅對手。

建模和仿真被認為是支持這些現場決策過程的一個重要工具(例如,見[3]的清單)。它提供了一種理解復雜環境和評估潛在行動方案有效性的手段,而不必使用現場測試。因此,借助于建模和模擬可以更安全、更便宜、更快速,而且可以更容易地測試不同的操作方式。此外,對于戰場上的軍事行動來說,廣泛地試驗軍事行動應該如何進行,甚至可能在道德上不負責任。因為,在指揮官可以決定不繼續按照同樣的戰術行動之前,就已經產生了意想不到的效果。

現代建模和仿真經常得到人工智能(AI)技術的支持。例如,用于仿真單個節點、組織和社會行為模型(見一些背景資料[13][4]),以獲得對對手合理和可能行為的洞察力。在這種行為洞察力的基礎上,可以為許多決策層面的軍事行動設計提供智能分析和決策支持。此外,人工智能技術被用來構建這些模型,與這些模型互動,并迅速分析大量的模擬結果數據。這里的技術進步非常多,例如,使用機器學習來構建更真實的行為模型[11],改善人機協作[5],對大量的模擬數據進行理解[10]。然而,人工智能技術只有在對決策者有用的情況下才能也應該被用于軍事決策。這意味著,只有在決策質量提高或決策過程變得更容易的情況下,才應將人工智能技術(在建模和仿真中)整合起來。

成功應用和接受用于決策支持的模擬仿真--可能建立在人工智能技術之上--取決于與主要軍事決策過程的互動和不斷學習([1])。決策者和分析員應該知道如何提出正確的輸入問題,以便通過建模和仿真來回答。然后,這些問題應該通過建模和仿真研究轉化為正確的輸出答案。因此,在各種互補的人工智能技術的支持下,應該對軍事決策過程和軍事模擬之間的互動有一個廣泛、全面的看法,并服從不同的功能要求。在本文中,我們概述了由人工智能技術支持的軍事仿真在決策"系統"中的不同作用,目的是在我們的社區內促進對人工智能的綜合看法,并為軍事決策的各種人工智能研發奠定基礎。

2.0 基于仿真的軍事決策

如引言所述,決策發生在不同的領域和不同的組織層面。在這里,我們提出了一個決策系統的示意圖,以提供一個關于如何通過仿真來支持決策的一般見解。這一觀點(圖1)來自于對多個決策過程的分析,如聯合定位[5]、作戰計劃[7]、海上反空戰[1],并與著名的OODA環[8]相結合。該觀點中的元素解釋如下。

圖1:由建模和仿真支持的軍事決策周期的系統觀點。

觀察:OODA循環的第一步是觀察,從廣義上講,就是觀察現實世界中正在發展和出現的事件和情況。觀察包括,例如,來自傳感器的(原始)數據,包括我們自己的眼睛和耳朵,以及來自報告、報紙和社會媒體的符號數據。還收集了來自高層指揮和控制實體的指導意見。這些數據由分析員處理,對鏡頭中的個體進行命名,計算某些Twitter標簽的出現次數,驗證某個事件是否真的發生,等等。根據[9],這可以被稱為情境意識的第一級:對當前情況下的元素的感知。

世界模型:在OODA環的觀察步驟中,已經開始了構建世界模型的過程,無論是隱性的還是顯性的。符合軍事決策觀點的世界模型的另一個名稱是共同行動圖。所有相關的概念都在世界模型中得到體現,包括不確定因素和假設。請注意,世界模型可以被仿真,即個體、平臺、團體或社會的行為可以隨著時間的推移而被預測,即使是在用戶的頭腦中隱含完成。

定位:在OODA循環的第二步,分析者使用他的專業知識,對觀察結果進行推理,形成假設,例如對手的意圖。通過這樣做,實現了對真實世界的深入理解[12],這反映在世界模型中(仍然是顯性或隱性的)。在態勢感知方面,這被稱為第2級(對當前形勢的理解)和態勢感知能力第3級(對未來狀態的預測)。在任何時候,推理的結果可能是世界模型結構是不充分的,例如,現實世界的一個方面被認為是不相關的,但最后發現是相關的。因此,世界模型需要被更新。

決定:決策者,可能是與分析員相同的人,將根據對現實世界的理解,考慮如何采取行動的選項。世界模型的預測能力被用來演繹各種情景,讓人了解什么是理想的行動方案,什么不是,或者讓人了解空間和/或時間上的關鍵點,這樣就可以對這些關鍵點給予額外考慮。當然,如果世界模型是隱含的,這都是決策者的精神努力。此外,對于感興趣的現實世界系統的預測行為,可以得出的結論的精確性和/或確定性有很大不同:從精確的路線,到可能的戰略和理論的廣泛指示。

行動:在OODA-環的這一步,行動被執行。這些行動發生在真實世界中,然后一個新的OODA-環開始觀察是否需要重新考慮已經做出的決定。另一個行動可以是向 "較低層次"的決策過程下達命令,例如,讓下屬單位計劃和執行他們所得到的任務。這就是不同組織層次的決策過程的互動方式。還要注意的是,盡管每個組織層面的世界模型都與真實世界相聯系,但這些世界模型的結構(即被認為是相關的)可能是不同的。

從概念上講,在上述的決策過程中引入模擬(實際上首先是建模的巨大努力)是很直接的。在第一步和第二步中,建立了世界相關部分的模型,在以后的時間里,它被用來評估許多不同的情景,分析由此產生的結果,并根據其結論做出決定。正如后面將顯示的那樣,人工智能技術的作用與建模和模擬的使用有很大關系。

雖然從概念上來說,納入仿真模擬和人工智能技術是很簡單的,但為了給行動提供真正的附加值,它需要被嵌入到具體的決策過程中。而每個決策過程都是不同的,有不同的時間限制,不同的行動者,在不同的操作環境中。這將對開發使用的解決方案,包括人工智能技術,提出不同的功能要求。此外,根據具體的作戰決策環境,應用人工智能技術的附加值(或缺乏附加值)將是不同的。在下一節中,我們將對一個具體的案例進行進一步的探索,盡管肯定不是詳盡的努力,以允許對這種系統在這個過程中可能具有的不同角色進行更通用的識別。

3.0 案例研究:聯合目標定位周期

本節提供了一個關于如何利用仿真和人工智能技術來支持作戰層面上的(蓄意)聯合目標定位決策的案例研究。對于每個想法,都有以下描述:被加強的行為者(決策者)和/或產品,人工智能如何提供支持,以及使用這種形式的支持的附加值是什么。請注意,這個案例研究的目的是為了更好地了解人工智能技術應用的廣度,因此,目標不是完全涵蓋所有的可能性,也不是過于詳細。這種類型的案例研究已經確保了可以得出初步的功能要求,人工智能技術和智能建模與仿真應該應用于此。

圖2顯示了北約盟國聯合出版物3.9中的聯合瞄準決策周期,其中強調了五個想法。

圖2--來自北約盟國聯合出版物3.9的聯合目標定位周期,JFC=聯合部隊指揮官,JTCB=聯合瞄準協調委員會,JTL=聯合瞄準清單,TNL=目標

想法1--基于AI的目標系統分析的所有來源分析。第一個想法是支持目標小組的成員在聯合目標定位周期的第二階段參與目標系統分析,進行目標開發。例如,假設從第一階段開始,就打算通過瞄準對手的石油生產來擾亂其資金能力。在第二階段,分析人員將研究石油生產的目標系統,以確定油井、煉油廠、管道、重要的道路,也許還有相關的關鍵人物,等等,基于他們擁有的所有來源(圖像、信號情報、人類情報,等等)。

人工智能技術可以協助人類分析員建立 "目標系統模型",即通過采用模式識別算法來處理大量的所有來源的信息,通過使用推理算法將信息碎片組合成一個結構化和連貫的整體。分析傳入信息的算法可能--經過增量的人工智能驅動的創新--也能夠識別尚未反映在目標系統模型中的新概念,然后可以自動添加到模型中。另一種可能性是創建一個 "虛擬分析師"(見圖3),通過不斷挑戰假設、假說和人類偏見來協助人類分析師,這需要額外的用戶建模和可解釋的AI技術。

圖3:人類和虛擬分析員,一起解釋數據,推理信息和知識,以建立一個目標系統模型。

這個想法的潛在附加值首先體現在完整性上,更多的目標可以呈現給人類分析員--它仍然可以為交叉檢查的目的做最后一步的目標審查。因為所有來源的情報都被整合到目標識別決策中,所以可以得出更具體的目標信息。識別算法經過訓練后,與基于人眼從數據中識別目標時相比,可以更快更及時地進行識別。最后,該算法可以明確地轉向識別不同類型的目標,這些目標可能并不都在人類分析員的經驗或觀察能力范圍內。

想法2--通過算法識別來自目標系統分析的優先目標。第二個想法是支持從一個給定的目標系統分析中識別優先目標。這有助于目標支持小組成員得出一個聯合的優先目標清單,該清單是在聯合目標定位周期的第二階段,即目標開發階段制定的。人工智能技術的支持始于將目標系統分析(如果還沒有的話)轉化為計算機可理解的形式,該形式由功能關系連接的實體組成,并由目標任務的目標支持。然后,在相關的時間范圍內計算直接或間接瞄準不同實體所產生的效用(例如,效果和效果的持續時間)。

然后,最終結果可以由人類分析員檢查,該分析員可能會重新引導算法的某些部分,以確保最終結果選擇的優先目標盡可能地滿足和平衡任務目標。另一種可能性是,分析表明,對目標系統的某些部分還沒有足夠的了解,無法做出某種決定,然后發出新的情報請求,以減少這種不確定性。

在這種情況下,使用人工智能技術的附加價值首先體現在通過完整地確定優先事項,包括最大限度地實現任務目標,同時最大限度地減少負面問題,從而更好更快地確定優先次序。這種全面的分析可能會導致原始的目標選擇,在這種情況下,會發現反直覺但非常有效的目標。目標優先級的可追溯性增加了,因為目標選擇問題的算法規范以及積極和消極的相關功能迫使決策者在激發他們的偏好時完全明確。

想法3--能力和優先目標的自動映射。與目標開發(第二階段)密切相關的是第三階段的能力分析。第三個想法是協助,仍然支持目標支持小組的成員,找到最適當的(致命和非致命)能力的最佳同步組合,可以應用于產生所需的物理和心理效果。使用模擬和人工智能技術來自動生成和播放高水平和低水平的行動方案,可以獲得對計劃的優勢、機會、弱點和威脅的深刻理解。當然,只有在與人類分析員和決策者密切合作的情況下,建立這樣的理解才是有用的,這就需要有人類意識的 "虛擬分析員 "技術。

想法4--計算機輔助的穩健和適應性部隊規劃和分配。在聯合定位的第四階段,能力分析的結果被整合到進一步的行動考慮中,推動聯合部隊指揮官對目標的最終批準。仿真和人工智能優化技術可用于尋找稀缺資源對目標或其他任務的最佳分配。什么被認為是 "最好的 "可以是不同的,例如,爭取最大的效果、安全、穩健、靈活,或這些和更多因素的任何組合。這可能會提供原始的規劃和分配方案,從人類分析者的角度來看,這些方案部分是反直覺的,但卻富有成效。智能優化算法可以幫助確定時間和/或空間上值得監測的關鍵點。而且,如果可以實時跟蹤進展,在事件或機會實際發生之前就可以立即生成重新分配方案,在時間緊迫的情況下減少決策時間。

想法5--自動評估軍事行動績效措施。在聯合定位的最后階段,收集和分析數據和信息,以確定計劃的行動在多大程度上得到執行(績效的衡量),以及達到預期的效果(效果的衡量)。因為這種類型的分析與其他階段的分析基本相似(即需要觀察和理解),所以在這里采用的模擬和人工智能技術可以被重復使用。例如,"目標系統模型"可以用來事先確定哪些措施或措施的組合最能說明性能和/或成功,也許還要考慮到其他因素,如效果的可測量性和延遲性。這些見解可用于指導例如戰斗損失評估工作。算法可以自動產生多種假設,當數據/信息可用時,"虛擬分析師"可以協助對這些假設和信息進行推理,幫助人類分析師以結構化的方式更好地解釋復雜的情況。

4.0 討論:人工智能在軍事決策中的作用

在本節中,我們將討論人工智能技術在軍事決策中可以發揮的作用,并將這些作用與前面介紹的軍事決策系統聯系起來。這些作用是由上面的案例研究綜合而成的。不同的作用是沿著兩個層次結構的,從上到下:在 "過程"層面,不同但連貫的步驟/階段被執行;在 "個體"層面,人類(或團隊)負責執行決策過程的特定步驟。

在整個決策過程的層面上,有多個步驟可以區分。在前面介紹的決策系統觀點中,這些步驟是觀察、定位、決定和行動。在聯合定位案例研究中,這些對應于六個階段,由不同的人在不同的時間執行。在這個層面上,我們為人工智能技術定義了四個功能角色,以支持決策過程。

  • 感知:這個角色中的人工智能技術,主要以模式識別的形式,幫助處理大量的數據,如在圖像中尋找人,檢測數據流中的異常情況等。

  • 態勢理解:這個角色的功能是實現對當前或假設的作戰環境的理解[12],從而描述所有相關實體、它們之間的關系以及不可觀察的屬性,如它們的野心和目標。例如,對關于最近敵對活動的現有信息進行推理,結合關于他們的理論的一般知識,可以用來產生關于他們最可能的意圖的假設。

  • 計劃生成:在這個角色中,人工智能技術,例如搜索和優化,被用來生成旨在達到(或避免)某種目標情況的計劃、策略和行動方案。處理元標準,如計劃的穩健性或情況的實用性也是這個作用的一部分。顯然,在許多情況下,不確定性是行動環境所固有的,因此不能被忽視。盡管如此,對當前形勢的理解越好,預測能力就越強。

  • 學習:扮演這一角色的人工智能技術被用來更新有關作戰環境的知識。例如,在某個時間點,人們可能會發現一個被認為是正確的關于敵人理論的假設不再有效了。為了能夠保持正確的理解,這種新知識應該反映在所有其他決策步驟中。

在單個節點層面上,決策過程的單一步驟被執行,通常由一個或一組人類分析員和/或決策者負責。無論這一步需要什么,人工智能技術都可以在不同的合作角色中被使用,以支持人類。

  • 專家系統支持:在這個角色中,支持的形式就像一個經典的專家系統,以知識和優化結果的形式向人類決策者或分析員提供建議。重要的考慮因素是,例如,如何以人類能夠接受的方式向其提供建議。對可解釋人工智能的研究可能是一個方向。

  • 虛擬團隊成員:在這個角色中,人工智能技術被用來在人類和支持系統之間創造一種更平等的互動關系,積極為一個共同的目標工作。例如,虛擬團隊成員可以通過提出問題使假設明確化或挑戰偏見來幫助做出決定的(認知)過程。人類-人工智能的研究可能是一個追求的方向。

  • 自主決策:決策過程中的其他步驟的互動,專家系統和虛擬團隊成員支持的考慮同樣有效。例如,在其他決策中的人類需要能夠推斷出一個自主系統。

圖4顯示了在軍事決策系統視圖中繪制的人工智能的七個角色。當使用模擬和人工智能來支持決策過程時,應該始終考慮這些不同的角色是如何互動的,無論是在過程層面還是在個人層面。例如,在聯合目標定位的過程層面上,第二階段包括定位(目標系統分析)和決定(為達到預期效果而瞄準什么)。第三階段也包括定位(自身能力)和決定(如何實現預期效果)。這些階段共享相同的世界模型,在這個過程中引入人工智能支持將推動這些步驟的合并,這不是不可想象的。在個體層面上,例如再次考慮第2階段,分析員可以得到綜合態勢理解、規劃生成和學習技術的支持,以及虛擬團隊成員和專家系統支持技術的任何組合。

圖4:由建模和仿真支持的軍事決策周期的系統視圖,其中人工智能技術的功能(黃色)和協作(綠色)作用被描繪出來。

5.0 結論和進一步研究

在本文的第一部分,我們介紹了軍事決策的系統觀點,主要基于OODA循環,其中我們介紹了世界模型,作為向整個決策周期提供建模和仿真支持的核心手段。接下來,從我們的聯合目標定位案例研究中,我們推斷出人工智能可以為軍事決策做出貢獻的七個功能性和協作性角色。這些角色對應于決策步驟,或者對應于如何向負責該過程步驟的人提供支持。最后,我們將這些人工智能角色整合到決策系統視圖中。

本文的目標是為我們社區內人工智能的綜合觀點做出貢獻,并為軍事決策的人工智能各種研發奠定基礎。在開發支持軍事決策的模擬和人工智能時,我們建議同時考慮過程層面和單個節點層面。在過程層面上,通過使用建模和仿真可以獲得好處。在單個節點層面上,為人類分析員和決策者提供實際支持,人工智能技術可以通過不同的角色組合對此作出貢獻。鑒于決策過程的各個步驟都是不同的,并且提出了不同的要求,履行這些不同角色的人工智能技術需要作為一個整體來開發。

我們相信,隨著對這一主題的更多研究,軍事決策的速度和質量都可以得到改善。然而,非常重要的是,要持續關注特定的未來人工智能應用的附加值,以及研究這些應用可能對,例如,負責該過程的人的所需技能,甚至該過程本身的影響。最后需要的是一個系統,它的存在是因為它可以建立,而不是有人幫助。對于這一點,應該更普遍地回答如何限定然后量化應用人工智能進行具體軍事決策應用的附加價值的問題。這樣的見解反過來又會成為關于人工智能用于軍事決策的集體技術路線圖的寶貴基礎。

6.0 參考文獻

[1] Bloemen, A., Kerbusch, P., van der Wiel, W., Coalition Force Engagement Coordination, TNO Report TNO-2013-R12117, 2015.

[2] Connable B, Perry W, Doll A, et al. Modeling, Simulation, and Operations Analysis in Afghanistan and Iraq. Santa Monica, CA: RAND, 2014.

[3] Davis P., Kulick J., Egner M. Implications of Modern Decision Science for Military Decision-Support Systems. Santa Monica, CA: RAND, 2005.

[4] Kunc, M., Malpass, J., White, L.(2016). Behavioral Operational Research, Theory, Methodology and Practice. Palgrave Macmillan, London.

[5] Langley, P., Meadows, B., Sridharan, M., Choi, D. (2017). Explainable Agency for Intelligent Autonomous Systems. Proceedings of the Twenty-Ninth AAAI Conference on Innovative Applications (IAAI-17).

[6] NATO Allied Joint Doctrine For Joint Targeting AJP 3.9(B), 2015.

[7] NATO Allied Command Operations. Comprehensive Operations Planning Directive Interim V2.0.

[8] “OODA loop.” Wikipedia, The Free Encyclopedia. 10 Mar. 2018.//en.wikipedia.org/wiki/OODA_loop

[9] “Situation Awareness.” Wikipedia, The Free Encyclopedia. 17 Mar. 2018.

[10] Smit, S., Veldhuis, G., Ferdinandus,G., et al. KaV Advanced Visual Analytics, TNO Report DHWELSS-, 2016.

[11] Toubman, A., Poppinga, G., Roessingh, J. (2015). Modeling CGF Behaviour with Machine Learning Techniques: Requirements and Future Directions. Proceedings of Interservice/Industry Training, Simulation, and Education Conference (I/ITSEC) 2015.

[12] “Understanding.” Wikipedia, The Free Encyclopedia. 18 Apr. 2018.

[13] Zacharias, G., MacMillan, J., van Hemel, S. (2008). Behavioral modeling and simulation: From individuals to societies. National Research Council, National Academies Press.

付費5元查看完整內容

斯考克羅夫特戰略與安全中心致力于制定可持續的、無黨派的戰略,以應對美國及其盟友和伙伴面臨的最重要的安全挑戰。該中心支持美國在與盟國、伙伴的合作中發揮領導作用,以及對培養下一代領導人提供指導。

執行摘要

在過去的幾年里,世界各地的軍隊對發展人工智能(AI)的興趣和投資有所增加,以支持一系列多樣化的國防和國家安全目標。然而,對于什么是人工智能,它如何影響美國和中國之間的戰略競爭,以及如何為這個部署軍事人工智能的新時代優化國防工業基礎,仍然缺乏普遍的理解。現在已經到了在人工智能方面見仁見智的時候了,在政策界和技術界之間建立對現代人工智能的共同理解,并在國防部(DoD)和其工業伙伴之間統一觀點和優先事項。因此,本文討論了以下核心問題。

(1)什么是人工智能,為什么國家安全政策制定者應該關心?

人工智能的能力有可能為美國國家安全和國防帶來改變游戲規則的優勢,包括

  • 大大加快和改善決策。
  • 加強軍事準備和作戰能力。
  • 提高人類的認知和身體能力。
  • 設計、制造和維持軍事系統的新方法。
  • 具有能打破微妙的軍事平衡的新能力。
  • 創造和檢測戰略網絡攻擊、虛假信息運動和影響作戰的能力。

對人工智能作為威懾和贏得未來戰斗所必需的關鍵能力,在美國防部內部得到了重視,美國防部在過去五年里對人工智能進行了顯著的投資。但是,五角大樓以外的政策制定者,以及公眾和正在開發人工智能技術的公司,都需要更好地了解當今人工智能的能力和局限性,并清楚地認識到人工智能對國家安全的積極影響和潛在的破壞性影響。

(2)為什么人工智能對戰略競爭至關重要?

五角大樓對人工智能的興趣也必須從與中國--以及在較小程度上與俄羅斯--的戰略競爭加劇的角度來看待,人們越來越理解在人工智能和相關新興技術方面的落后可能會損害美國軍隊自冷戰結束以來所保持的戰略、技術和行動優勢。一些國防領導人甚至認為,美國已經在軍事技術競爭中輸給了中國。

雖然本文不贊同這種宿命論的觀點,但本文認為軍事人工智能競爭的賭注很大,而且時間很短。

(3)美國防部采用人工智能的障礙是什么?

五角大樓臭名昭著的官僚主義、陳舊的采購和合同制度以及規避風險的組織文化,繼續抑制著美國防部引進外部創新和更快地走向廣泛的人工智能整合和采用的能力。解決這種系統性問題是一個很高的要求。但是,為促進美國防部與商業技術部門和創新初創企業的接觸,已經在進行重要的變革,而且似乎有一種共同的緊迫感,即鞏固這些公私伙伴關系,以確保美國持續的技術和軍事優勢。然而,在統一美國防部及其行業伙伴對人工智能發展最具影響力領域的看法,以及闡明和實施共同的技術標準和測試機制以實現可信賴和負責任的人工智能方面,仍有許多工作要做。

主要收獲和建議

國防部必須迅速行動起來,從對人工智能重要性的廣泛認可過渡到創建路徑、流程、實踐和原則,以加速采用人工智能技術所帶來的能力。如果沒有有意的、協調的和立即的行動,美國有可能在利用主導未來動能和非動能戰場的制勝技術方面落后于競爭對手。本報告為美國防部確定了三個行動方案,這些方案可以幫助確保美國軍隊保持其在人工智能領域的全球領先地位,促進更迅速地采用人工智能所需的內部變革,并利用充滿活力和多樣化的美國創新生態系統,包括

  • 優先考慮安全、可靠、可信和負責任的人工智能開發和部署
  • 調整人工智能發展的關鍵優先事項,加強美國防部和行業合作伙伴之間的協調,以幫助縮小人工智能能力的差距;以及
  • 促進領先的國防技術公司和非傳統供應商之間的協調,以加快美國防部人工智能的采用

本報告是在美國防部采用人工智能努力過程中和全球地緣政治的未來軌跡方面既合適又充滿不確定性的時候發表的。正在進行的烏克蘭沖突使限制獨裁者控制領土、人口、標準和言論的重要性變得非常明顯,而致力于維護長期國際行為規范的聯盟可以在這一努力中發揮作用。因此,作者敦促美國防部在政府層面,并在可能的情況下在工業層面與美國的盟友和可信賴的伙伴進行接觸和整合,以更好地實施本文的三項主要建議。

1 簡介

人工智能為國防政策制定者提供了一個重要的機會。人工智能處理和融合信息的能力,以及將數據提煉為增強決策的能力,可以在一個混亂的、有爭議的環境中撥開 "戰爭的迷霧",在這個環境中,速度是王道。人工智能還可以釋放出新型可損耗和一次性無人系統的可能性,從而增強威懾力。例如,它可以幫助保障美國軍人的生命,為指導沖突地區自主補給卡車的導航軟件提供動力。雖然人類仍然負責對目標做出最終決定,但人工智能算法在幫助情報專業人員識別和追蹤惡意行為者方面正日益發揮作用,目的是 "縮短殺戮鏈,加快決策速度"。

由于美國所處的更廣泛的地緣戰略背景,特別是與中國的戰略競爭,人工智能的發展和整合也勢在必行。中國人民解放軍(PLA)在人工智能方面的預算似乎與美國軍隊相當,而且解放軍正在為同樣廣泛的應用和能力開發人工智能技術,包括訓練和模擬、蜂群自主系統和信息操作,以及其他許多方面,所有這些都可能取代美國的軍事技術優勢。

正如美國國防部長勞埃德-奧斯汀在2021年7月指出的那樣,"中國的領導人已經明確表示,他們打算在2030年之前在人工智能方面成為全球主導。北京已經談及將人工智能用于一系列任務,從監視到網絡攻擊到自主武器"。美國不能落后于中國或其他競爭對手。

為了加快人工智能的采用,五角大樓必須面對它的弊端:一個孤立的官僚機構,它阻礙了有效的數據管理努力,并阻礙了大規模利用美國防部數據所需的技術基礎設施;陳舊的采購和合同流程,抑制了國防部引進外部創新和將成功的人工智能技術原型過渡到生產和部署;以及一種規避風險的文化,與已知的促進創新的開放、實驗和容忍失敗的類型不一致。

目前正在進行一些努力來解決其中的一些問題。直接向美國防部副部長報告的首席數據和人工智能官(CDAO)角色最近被宣布,以合并首席數據官辦公室、聯合人工智能中心(JAIC)和國防數字服務(DDS)。這一重組將美國防部的數據和人工智能工作置于一個屋檐下,以消除重疊的權力,原來的這種權力重疊性使得人工智能項目的規劃和執行變得困難。擴大使用替代性收購方法,像國防創新單位(DIU)和空軍的AFWERX正在彌合與商業技術部門的差距,特別是初創企業和非傳統供應商。盡管如此,一些技術領導人認為這些努力還不夠,警告說 "時間不多了"。

隨著美國國防部轉向大規模采用人工智能,本報告試圖提供有關現代人工智能未解決問題的見解,總結中國、俄羅斯在軍事人工智能發展方面的關鍵進展,并強調整個美國防部一些最引人注目的人工智能使用案例。報告還簡要評估了美國防部與其行業伙伴之間的不協調,這些不協調繼續阻礙五角大樓獲得美國軍隊所需的改變游戲規則的技術,以阻止對手的侵略并主導未來的戰場。

然而,競爭的緊迫性決不能掩蓋對指導美國軍隊進入人工智能時代的道德準則。因此,報告重申,有必要將美國防部的人工智能道德準則有效地轉化為評估可信度的共同技術標準和評估指標,并加強與國防部的行業合作伙伴--特別是初創企業和非傳統供應商在這些關鍵問題上的合作和協調。

在本報告的最后,為政策制定者和整個國家安全生態系統的其他人工智能利益相關者提出了一些考慮。具體而言,敦促美國防部優先考慮安全、可靠、可信和負責任的人工智能開發和部署,調整國防部和行業之間的人工智能發展的關鍵優先事項,以幫助縮小美國防部的人工智能能力差距,并促進領先的國防技術公司和非傳統供應商之間的協調,以加快國防部的人工智能采用進程。

2 人工智能創新和應用中的軍事競爭

推動美國防部人工智能開發和采用工作的緊迫性在很大程度上源于確保美國及其盟國在軍事技術競爭中超過中國,這種競爭已經主導了兩國之間的關系。俄羅斯的技術能力遠沒有那么發達,但其侵略行為破壞了全球安全,并威脅到美國和北約的利益。

中國

中國已將對人工智能的投資優先用于國防和國家安全,作為其努力成為 "世界級軍隊"的一部分,并在未來的 "智能化"戰爭中獲得優勢--人工智能(與其他新興技術一起)通過 "網絡化、智能化和自主系統和設備 "更完全地融入軍事系統和行動。

雖然中國人工智能相關活動的全部范圍并不廣為人知,但美國安全與新興技術中心(CSET)在2021年10月對343份與人工智能相關的中國軍事合同的審查估計,解放軍 "每年在人工智能相關的系統和設備上花費超過16億美元"。美國國家人工智能安全委員會(NSCAI)的最終報告評估說,"中國的計劃、資源和進展應該引起所有美國人的關注。它在人工智能的許多應用領域處于全球同等水平,而在一些應用領域是人工智能的領導者"。

CSET的審查和其他開源評估顯示,中國的人工智能發展的重點領域,就像美國的一樣廣泛,包括:

  • 智能和自動駕駛汽車,特別關注蜂群技術。
  • 情報、監視和偵查(ISR)。
  • 預測性維護和后勤。
  • 信息、網絡和電子戰。
  • 模擬和訓練(包括兵棋推演)。
  • 指揮和控制(C2);以及
  • 自動目標識別。

這些領域中的每一個進展都對美國在與中國的軍事技術競爭中保持同步的能力構成了挑戰。然而,值得研究的是,中國在兩個領域的進步能力可能對軍事平衡產生特別有力的影響

(1)整合

首先,人工智能可以通過人為地加強軍事整合和跨域作戰,幫助解放軍彌補作戰準備方面的差距。許多觀察家指出,解放軍缺乏沖突中的作戰經驗是一個關鍵的弱點。盡管從技術角度來看,中國不斷推進的軍事現代化令人印象深刻,但在過去二十年里,解放軍的人員都沒有像美國軍隊那樣在高端沖突中接受過火力考驗。解放軍繼續努力從組織和理論的角度提高其"聯合性",這也是剛剛起步,沒有經過測試。

使用人工智能來提高模擬和兵棋推演的質量、保真度和復雜性,是解放軍糾正這一關切領域的一種方式。新美國安全中心2019年的一份報告指出,"對中國軍事戰略家來說,從AlphaGo的勝利中學到的教訓之一是,人工智能可以在一場可以比作兵棋推演的游戲中創造出優于人類玩家的戰術和策略。"這可以更艱巨地考驗解放軍的決策者,改善指揮決策。事實上,CSET報告發現,在所調查的343份合同中,有百分之六是在模擬和訓練中使用人工智能,包括使用人工智能系統對臺灣突發事件進行戰爭演練。

圖:在美國國防部高級研究計劃局(DAPRA)的AlphaDogfight試驗中,一名作戰的F-16飛行員在虛擬現實模擬器中與Heron系統公司開發的冠軍F-16人工智能代理進行飛行。Heron人工智能代理在連續五場斗狗比賽中擊敗了人類飛行員,結束了試驗。資料來源:DARPA, //www.darpa.mil/news-events/2020-08-26

注重人工智能整合以減少經驗中的感知漏洞也適用于作戰和戰術訓練。2021年7月,中國出版物《環球時報》報道說,解放軍空軍(PLAAF)已經開始在飛行員的空戰訓練中部署人工智能作為模擬對手,以 "磨練他們的決策和戰斗技能,對抗快速計算的計算機"。

除了虛擬模擬,中國還旨在利用人工智能來支持飛行員在真實世界飛機上的訓練。在2020年11月播出的中國中央電視臺(CCTV)節目中,中國L-15教練機的總設計師張弘指出,訓練飛機上的人工智能可以 "識別每個飛行員在飛行中的不同習慣。通過管理它們,我們將讓飛行員更安全地成長,在未來獲得更多的戰斗能力"。

值得注意的是,解放軍空軍2021年7月的人工智能與人類的斗狗類似于美國國防部高級研究計劃局(DARPA)2020年9月的AlphaDogFight挑戰賽,在一系列五次模擬斗狗中,一個人工智能代理擊敗了人類飛行員。 同樣,美國在2021年9月宣布與訓練和模擬公司Red 6簽訂合同,將該公司的機載戰術增強現實系統(ATARS)--該系統允許飛行員駕駛真實世界的飛機,使用增強現實耳機與人工智能生成的虛擬飛機進行訓練--整合到T-38 "塔隆"訓練器中,并計劃最終在第四代飛機上安裝該系統。由于中國軍隊正在利用人工智能來提高戰備水平,美國防部不能落后。

(2)自主性

中國人工智能發展的第二個重點領域是自主系統,特別是蜂群技術,其中幾個系統將獨立運行或相互配合,以混淆和壓倒對手的防衛系統。中國對發展蜂群技術的興趣和能力已經得到了很好的證明,包括2017年6月創紀錄地發射了118架小型無人機組成的互聯蜂群。

據報道,2020年9月,中國電子信息研究院(CAEIT)從一輛改裝的東風猛士輕型戰術車上發射了200枚固定翼CH901徘徊彈藥群。2022年2月在阿布扎比舉行的2022年無人駕駛展的調查顯示,不僅中國的參展陣容強大--中國航空技術進出口總公司(CATIC)和中國北方工業公司(NORINCO)都有大型展館,而且還將重點放在 "協作"行動和智能蜂群。

圖:2月在阿布扎比舉行的UMEX 2022展會上展示的協作式蜂群無人機的一個例子。

對蜂群的興趣并不限于無人駕駛飛行器(UAVs)。據《環球時報》報道,中國也在發展部署自主無機組人員水面飛行器(USVs)群的能力,以"攔截、圍攻和驅逐入侵目標"。 2021年11月,中國公司云洲科技--它在2018年進行了一個由56個USV組成的蜂群的演示--發布了一段視頻,顯示六個USV進行了 "合作對抗",作為將一艘有船員的船只從中國水域移走的一部分。不難想象,這種合作對抗可以如何針對美國或盟國的海軍船只,甚至商業船只進行部署,以發展或維持海上控制。這種能力在灰色地帶的突發事件中尤為強大,在這種情況下,升級的擔憂可能會限制反應的選擇。

俄羅斯

在人工智能的投資和能力方面,俄羅斯落后于美國和中國。因烏克蘭戰爭而實施的制裁也可能給俄羅斯的科技部門帶來巨大損失。盡管如此,美國國家決策者不應低估俄羅斯以不對稱的方式使用人工智能技術來破壞美國和北約利益的潛力。俄羅斯國防部有許多自主性和人工智能相關的項目,處于不同的開發和實驗階段,涉及軍事機器人、無人系統、蜂群技術、預警和防空系統、ISR、C2、后勤、電子戰和信息操作。

俄羅斯軍事戰略家認為,在未來的戰場上,更大的自主權和人工智能具有巨大的潛力,可以加快信息處理,增強決策,提高態勢感知,并保障俄羅斯軍事人員的生命安全。自主和人工智能系統的發展和使用也在俄羅斯軍事理論的更廣泛背景下進行討論。其理論重點是利用這些技術來擾亂和破壞對手的指揮和控制系統以及通信能力,并利用非軍事手段在戰爭初期建立信息優勢,從俄羅斯的角度來看,這包括與美國和北約等對手的非軍事沖突時期。

俄羅斯人工智能的發展軌跡是不確定的。但是,由于持續的制裁,俄羅斯很可能會在微電子方面越來越依賴中國,并在與美國的技術競爭中進一步落后。

3 美國在人工智能方面的軍事進展概述

五角大樓對人工智能的興趣和緊迫性既是由于技術發展的速度加快,也是由于它所能帶來的變革性能力越來越強。事實上,人工智能正準備從根本上改變軍隊思考、準備、執行和維持行動的方式。根據大西洋理事會以前的報告大綱,"五次革命 "框架對人工智能在五個廣泛的能力領域的潛在影響進行了分類,下面的圖3說明了人工智能可以通過不同的方式增強人類的認知和身體能力,融合網絡和系統以獲得最佳效率和性能,并在信息空間中迎來一個網絡沖突和混亂的新時代,以及其他影響。

圖3:跨越未來軍事能力發展的五個廣泛目標的人工智能優先發展項目概述。

  • 邁向完美的態勢感知:感知、處理和認知

  • 即將到來的設計時代:制造、供應鏈和物流

  • 超能力平臺和人員:人機性能增強

  • 連接性、致命性和靈活性:通信、導航、目標定位和打擊

  • 監控、操縱和武器化:網絡和信息作戰

美國防部目前有六百多項與人工智能相關的工作正在進行中,其愿景是將人工智能融入國防部任務的每一個要素--從作戰行動到支持和維持功能,再到支撐龐大的國防部企業的商業運作和流程。美國政府問責局(GAO)2022年2月的一份報告發現,國防部正在追求人工智能的作戰能力,主要集中在"(1)通過情報和監視分析識別目標,(2)向戰場上的作戰人員提供建議(如在哪里移動部隊或哪種武器最適合應對威脅),以及(3)增加無人駕駛系統的自主性。 "國防部的大多數人工智能能力,特別是與作戰有關的努力,仍處于開發階段,尚未與具體的系統接軌或整合。而且,盡管在實驗中取得了明顯的進展,并在作戰行動中部署人工智能能力方面取得了一些經驗,但在廣泛采用方面仍然存在著重大挑戰。

2021年9月,空軍第一任首席軟件官尼古拉-沙伊蘭辭職,以抗議官僚主義和文化挑戰,這些挑戰減緩了技術的采用,阻礙了美國防部以足夠快的速度與中國有效競爭。在沙伊蘭看來,20年后,美國及其盟友 "將沒有機會在一個中國擁有巨大人口優勢的世界中競爭。"后來,他補充說,中國基本上已經贏了,他說,"現在,這已經是一筆交易了。"

沙伊蘭關于美國與中國進行無用競爭的評估肯定不是整個美國防部都認同的,但它反映了許多人認為在該部門規避風險和深思熟慮的文化中缺乏緊迫感。

JAIC的負責人Michael Groen中將同意,"在國防部內部,必須發生文化變革。"然而,他也吹捧了美國的創新能力,并強調建立了一個人工智能加速器,并最終確定了一個聯合共同基金會(JCF),用于人工智能的開發、測試和在國防部各實體之間共享人工智能工具。"支持云的JCF是向前邁出的重要一步,將允許基于共同標準和架構的人工智能開發。這應有助于鼓勵各軍種和國防部各部門之間的共享,并且根據JAIC的說法,確保 "國防部一個人工智能倡議的進展將在整個國防部企業中形成勢頭。"

雖然取得的進展值得贊揚,但仍然存在障礙,這些障礙延緩了人工智能能力的采用,而這種能力對于在不久的將來遏制威脅,以及應對中國在這十年及以后的競爭挑戰至關重要。

下面的三個案例研究提供了美國防部人工智能工作中出現的技術、官僚主義和采用方面的進步的例子。這些案例還強調了阻礙美國在與中國以及在較小程度上與俄羅斯的軍事技術競爭加劇的情況下,充分運用其國家創新生態系統的能力的持久性問題。

圖4:聯合人工智能中心(JAIC)的人工智能采用階段。

用例1:JADC2的不可逆轉勢頭、遠大目標和集成挑戰

五角大樓最重要的現代化優先事項之一是聯合全域指揮與控制(JADC2)計劃,該計劃被描述為 "將所有軍種的傳感器連接到一個單一網絡的概念。"根據美國國會研究服務部的說法,"JADC2打算通過從眾多傳感器收集數據,使用人工智能算法處理數據以識別目標,然后推薦最佳武器(包括動能和非動能武器)來對付目標,使指揮官能夠做出更好的決策。 "如果成功的話,JADC2有可能消除各軍種C2網絡之間的孤島,這些孤島以前減緩了整個部隊的相關信息傳輸。因此,產生更全面的態勢感知,指揮官可以據此做出更好和更快的決定。

2021年12月,有報道稱JADC2跨職能小組(CTF)將成立一個 "AI for C2 "工作組,該工作組將研究如何利用負責任的AI來加強和加速指揮和控制,這加強了負責任的AI對該項目的核心作用。

2022年3月,美國防部發布了其JADC2實施計劃的非保密版本,用參謀長聯席會議主席馬克-米利將軍的話說,此舉代表了實施JADC2 "不可逆轉的勢頭"。

然而,觀察家們強調,在按照保持(或恢復)感知、處理和認知方面的優勢所需的緊迫時間表實施JADC2方面,有幾個持續的挑戰。特別是相對于中國而言。

圖5. JADC2的邏輯圖反映了與國防部JADC2實施計劃相關的復雜性和雄心。資料來源:美國國防部。

數據安全和網絡安全、數據管理和共享問題、與盟友的互操作性以及與軍方網絡整合相關的問題,都被認為是認識到JADC2方法的宏偉前景所面臨的挑戰。一些人還強調,這種包羅萬象的雄心也是一種挑戰。哈德遜研究所的布萊恩-克拉克和丹-帕特認為,"當今威脅的緊迫性和新技術帶來的機遇要求五角大樓領導人將JADC2的重點從美國軍事部門的需求轉向作戰人員的需求。

可以肯定的是,在人工智能開發和整合項目中,不一定要避免宏偉的野心。然而,采用的途徑將需要在難以實現的、官僚主義的、耗時的和昂貴的目標與開發能夠在美國部隊面臨的更直接的威脅時限內提供能力和優勢的系統之間取得平衡。

用例2:脆弱的人工智能和將人工智能納入目標的道德和安全挑戰

2021年9月,空軍部長弗蘭克-肯德爾宣布,空軍已經 "首次將人工智能算法部署到實際作戰的殺傷鏈中,這表明部署人工智能的時代確實已經到來。"根據肯德爾的說法,將人工智能納入目標定位過程的目的是 "大大減少人工識別目標的人力密集型任務--縮短殺傷鏈并加快決策速度。" 成功使用人工智能支持目標定位是人工智能發展的一個里程碑,盡管在更全面地采用人工智能的作用方面仍然存在道德、安全和技術挑戰。

例如,2021年美國防部的一項測試強調了人工智能的脆弱性問題。根據Defense One的報道,測試中使用的人工智能目標定位在人工智能不得不從不同角度破譯數據的環境中只有大約25%的時間是準確的,盡管它認為它有90%的時間是準確的,這表明缺乏 "適應一套狹窄的假設之外條件"的能力。"這些結果說明了今天的人工智能技術在安全關鍵環境中的局限性,并加強了在一系列條件下對人工智能進行積極和廣泛的現實世界和數字世界測試和評估的必要性。

人工智能目標定位的道德和安全也可能構成對進一步采用的挑戰,特別是隨著對人工智能算法的信心增加。空軍的行動涉及自動目標識別的輔助作用,協助 "情報專家"--即人類決策者。當然,國防部有一個嚴格的目標定位程序,人工智能的目標定位算法將是其中的一部分,再往前想,自主系統將必須通過這一程序。然而,即使它們是這一程序的一部分,并被設計用來支持人類的決定,高錯誤率加上對人工智能輸出的高度信任,有可能導致不理想或嚴重的結果。

用例3:人工智能在信息領域應用的局限性

與中國和俄羅斯日益激烈的競爭正在信息和網絡領域上演,對美國安全以及美國經濟、社會和政體具有真實、持久和破壞性的影響。

對于網絡和信息行動來說,人工智能技術和技能是未來進攻和防御行動的核心,突出了人工智能在信息領域的危險性和前景。

人們對智能機器人、合成媒體的威脅越來越關注,例如描述沒有發生過的事件或聲明的逼真視頻或音頻制品,以及能夠創造出令人信服的散文和文本的大型語言模型。雖然虛假信息是一個需要社會和整個政府應對的挑戰,但國防部無疑將在管理和應對這一威脅方面發揮關鍵作用--由于其在美國政治和社會中的突出地位,其職能作用的性質,以及其持續活動的影響。

人工智能在五角大樓和其他美國政府檢測機器人和合成媒體的努力中處于領先地位。例如,DARPA的MediaForensics(MediFor)項目正在使用人工智能算法來 "自動量化圖像或視頻的完整性"。

然而,鑒于合成媒體通過社交媒體的傳播速度,人們對這種檢測的速度表示擔憂。正如聯合參謀部首席信息官丹尼斯-克拉爾中將所觀察到的,"機器和人工智能贏得其中一些信息運動的速度改變了我們的游戲......數字化轉型、預測分析、ML、人工智能,它們正在改變游戲......如果我們不匹配這種速度,我們將使其達到正確的答案,而這種正確的答案將完全不相關。"

4 加快美國防部AI的應用

正如上面的討論所示,美國防部在成功部署人工智能信息管理和決策支持工具的基礎上,有一系列廣泛的人工智能相關舉措,處于不同的發展和實驗階段。隨著重點轉向整合和擴展,加快這些采用工作對于保持美國在與中國的戰略競爭中的優勢以及有效遏制俄羅斯至關重要。

在這一節中,本文強調了美國防部與其工業伙伴之間關系的一些不協調,這些不協調可能會導致失去創新和有影響力的人工智能項目的機會,擴大使用替代采購方法的積極影響,以及日益緊迫的調整過程和時間表,以確保美國軍隊能夠獲得未來戰爭的高水準技術能力。此外,本節還討論了國防部實施道德人工智能原則的方法,以及與可信和負責任系統的標準和測試有關的問題。

4.1 美國防部和工業界的伙伴關系:統一觀點、流程和時間安排

盡管國防部已經發布了一些高級別文件,概述了人工智能發展和部署的優先領域,但市場滿足,甚至理解這些需求的能力還遠遠不夠。最近,IBM對來自全球國防組織的250名技術領導人進行了調查,揭示了國防技術領導人和國防部如何看待人工智能對組織和任務的價值的一些重要差異。例如,只有約三分之一的受訪技術領導人表示,他們認為人工智能對軍事后勤、醫療和健康服務以及信息操作和深層假想有重大的潛在價值。當被問及人工智能支持的解決方案對商業和其他非戰斗應用的潛在價值時,不到三分之一的人提到了維護、采購和人力資源。

這些觀點與國防部在人工智能方面的目標有些不一致。例如,包括設備維護和采購在內的軍事后勤和維持職能是國防部實施人工智能的首要任務之一。Leidos與退伍軍人事務部的合作也說明了人工智能在醫療和健康服務方面的潛力。最后,隨著人工智能在虛假信息運動中的使用已經開始,正如上一節的討論所強調的那樣,迫切需要開發技術措施和人工智能支持的工具,以檢測和反擊人工智能驅動的信息行動。

國防部及其行業伙伴基于各自的問題集和任務,有不同的優先事項和激勵措施。但是,對人工智能發展的有價值和關鍵領域的不同觀點可能會導致失去有影響力的人工智能項目的機會。也就是說,即使五角大樓和它的工業伙伴在人工智能方面意見一致,有效的合作也常常被一個笨拙的官僚機構所阻撓,這個機構常常被傳統的流程、結構和文化束縛。

國防部的預算規劃、采購、收購和簽約流程,總的來說,不是為購買軟件而設計的。這些 這些體制上的障礙,再加上復雜而冗長的軟件開發和合規條例,對小型初創企業和非傳統供應商來說尤其困難,因為他們缺乏資源、人員和事先的知識,無法像國防部的主要部門那樣駕馭這個系統。

國防部清楚地意識到這些挑戰。自2015年以來,國防部長辦公室和各軍種已經建立了幾個實體,如DIU、AFWERX、NavalX和陸軍應用實驗室,與商業技術部門,特別是初創企業和非傳統供應商對接,目的是加速提供同類最佳的技術解決方案。同時,國防部還采取了其他值得注意的措施,以促進使用替代性的采購和合同,這為構建和執行協議提供了比傳統采購更大的靈活性。這些包括 "其他交易授權、中間層采購、快速原型設計和快速投入使用以及軟件采購的專門途徑"。

DIU一直處于使用其中一些替代性采購途徑的前沿,從商業技術部門采購人工智能解決方案。空軍的AFWERX還與空軍研究實驗室和國家安全創新網絡合作,創新地利用小企業創新研究(SBIR)和小企業技術轉讓(STTR)資金,以 "提高項目的效率、有效性和過渡率"。例如,在2021年6月,美國空軍SBIR/STTR人工智能投標日向關于 "可信人工智能,這表明系統是安全、可靠、強大、有能力和有效的 "主題的提案提供了超過1800萬美元。

這些都是朝著正確的方向邁出的步伐,而且確實變得更容易獲得國防部的研究、開發和原型制作資金。然而,及時獲得生產資金仍然是一個重大挑戰。這個 "死亡之谷 "的問題--研究和開發階段與一個既定的、有資金記錄的項目之間的差距--對于非傳統的國防公司尤其嚴重,因為風險資本對初創企業的資助周期與將一個項目納入國防部預算所需的時間之間存在差異。

五角大樓明白,彌合 "死亡之谷 "對于推進和擴大創新至關重要,并在最近啟動了快速國防實驗儲備,以處理這些問題。然而,使預算規劃、采購和簽約流程與私人資本的步伐相一致所需的系統性變化,需要國會采取行動,并可能需要數年時間來實施。在實施這些改革方面的延誤正在損害國防部獲得尖端技術的能力,而這些技術在未來的戰場上可能是至關重要的。

4.2 建立可信賴和負責任的人工智能系統

確保美國軍隊能夠使用安全可信的人工智能和自主系統,并按照國際人道主義法律使用這些系統,將有助于美國保持其競爭優勢,以對抗俄羅斯等對人工智能的道德使用承諾較少的專制國家。強調值得信賴的人工智能也是至關重要的,因為國防部的大多數人工智能項目都需要人機合作和協作的元素,它們的成功實施在很大程度上取決于操作者對系統的足夠信任和使用。最后,國防部和行業伙伴之間就可信和負責任的人工智能的共享標準和測試要求進行更密切的協調,對于推進國防部人工智能的采用至關重要。

除了國防部現有的武器審查和目標程序,包括自主武器系統的協議,該部門還在尋求解決倫理、法律和政策的模糊性,以及人工智能更具體的風險。2020年2月,五角大樓通過了五項道德原則來指導人工智能的發展和使用,呼吁人工智能是負責任的、公平的、可追溯的、可靠的和可治理的。為了將這些原則付諸實踐,國防部副部長凱瑟琳-希克斯發布了一份備忘錄,指示采取一種 "整體的、綜合的和有原則的方法 "來整合負責任的人工智能(RAI),包括六個原則:管理、作戰人員的信任、產品和采購生命周期、需求驗證、負責任的人工智能生態系統和人工智能勞動力。

同時,2021年11月,DIU發布了其負責任的人工智能指導方針,響應了備忘錄中對 "工具、政策、流程、系統和指導 "的呼吁,將道德的人工智能原則納入該部門的采購政策。這些指導方針是在國防部人工智能項目中操作和實施道德的具體步驟,建立在DIU在預測健康、水下自主、預測性維護和供應鏈分析等領域的人工智能解決方案的經驗上。它們的目的是可操作的、自適應的和有用的,同時確保人工智能供應商、國防部利益相關者和DIU項目經理在人工智能系統生命周期的規劃、開發和部署階段考慮到公平、問責和透明度。

國防部人工智能項目的成功將在很大程度上取決于確保人類發展并保持對其智能機器隊友的適當信任。因此,國防部對可信人工智能的強調越來越多地體現在其一些旗艦人工智能項目中。例如,2020年8月,DARPA的空戰進化(ACE)項目吸引了大量的關注,因為一個人工智能系統在模擬的空中斗犬比賽中擊敗了空軍的一名頂級F-16戰斗機飛行員。 ACE的一個關鍵問題是 "如何讓飛行員足夠信任人工智能并使用它",而不是讓人類與機器對決。ACE選擇了斗狗場景,很大程度上是因為這種類型的空對空戰斗包含了許多成為戰斗機飛行員群體中值得信賴的伙伴所必需的基本飛行動作。讓人工智能掌握作為更復雜任務基礎的基本飛行動作,如壓制敵方防空系統或護送友軍飛機。根據ACE項目經理的說法,AlphaDogfight試驗是 "關于增加對人工智能的信任"。

人工智能的發展速度很快,因此很難設計和實施一個足夠靈活的監管結構,以保持相關性,同時又不至于限制性太強而扼殺創新。與國防部合作的公司正在尋求符合國防部人工智能道德原則的人工智能系統的開發、部署、使用和維護的指導方針。這些行業伙伴中的許多人已經采用了他們自己的可信和負責任的人工智能解決方案的框架,強調了安全、安保、穩健、彈性、問責制、透明度、可追溯性、可審計性、可解釋性、公平性和其他相關質量等屬性。

圖:2021年10月19日,在亞利桑那州尤馬試驗場,一名美國陸軍士兵使用戰術機器人控制器來控制遠征模塊化自主車輛,作為準備 "聚合項目 "的練習活動。在 "聚合項目21 "期間,士兵們試驗了使用這種車輛進行半自主偵察和再補給。無論是在戰場上還是在戰場之外,對自主和半自主車輛等人工智能能力的信任對于成功至關重要。

目前,對于什么是道德或值得信賴的人工智能系統,沒有共同的技術標準,這可能會使非傳統的人工智能供應商難以設定預期,并在官僚機構中穿梭。國防部不直接負責制定標準。相反,2021年國防授權法案(NDAA)擴大了國家標準與技術研究所(NIST)的任務,"包括推進人工智能的合作框架、標準、指導方針,支持開發人工智能系統的風險緩解框架,并支持開發技術標準和指導方針,以促進值得信賴的人工智能系統"。2021年7月,NIST在制定其人工智能風險管理框架時,向利益相關者發出了信息請求,旨在幫助組織 "將可信性考慮納入人工智能產品、服務和系統的設計、開發、使用和評估"。

對這一挑戰沒有簡單的解決方案。但是,讓政府、行業、學術界和民間社會的利益相關者參與進來的合作過程可以幫助防止人工智能的發展走上社交媒體的道路,在社交媒體上,公共政策未能預測到虛假信息和其他惡意活動在這些平臺上造成的風險和損失,而且反應緩慢。

與標準相關的是與測試、評估、驗證和確認(TEVV)相關的挑戰。測試和驗證過程是為了 "幫助決策者和操作者了解和管理開發、生產、操作和維持人工智能系統的風險",對于建立對人工智能的信任至關重要。國防部目前的TEVV協議和基礎設施主要是針對主要的國防采購項目,如船舶、飛機或坦克;它是線性的、順序的,而且一旦項目過渡到生產和部署,最終是有限的。然而,對于人工智能系統,"開發從未真正完成,所以測試也是如此。"因此,像人工智能這樣的適應性強、不斷學習的新興技術需要一個更加敏捷和迭代的開發和測試方法,正如NSCAI建議的那樣,"將測試作為需求規范、開發、部署、培訓和維護的持續部分,包括運行時監測操作行為。"

建立在開發、安全和運營(DevSecOps)的商業最佳實踐基礎上的綜合和自動化的開發和測試方法,更適合于人工智能/ML系統。雖然JAIC的聯合基金有可能實現真正的人工智能DevSecOps方法,但在整個國防部擴大這種努力是一個重大挑戰,因為它需要對當前的測試基礎設施進行重大改變,以及更多的資源,如帶寬、計算支持和技術人員。也就是說,如果不開發更適合人工智能的新測試方法,不調整當前的測試基礎設施以支持迭代測試,將阻礙大規模整合和采用可信和負責任的人工智能的努力。

上述關于標準和TEVV的討論概括了現代人工智能系統對現有國防部框架和流程的獨特挑戰,以及商業技術公司和國防部對人工智能開發、部署、使用和維護的不同方法。為了加速人工智能的采用,國防部及其行業伙伴需要在具體的、現實的、與操作相關的標準和性能要求、測試過程和評估指標上更好地保持一致,并納入道德的人工智能原則。一個以可信和負責任的人工智能為導向的國防技術生態系統可以促進最佳做法的相互交流,并降低非傳統供應商和初創公司所面臨的官僚主義和程序性障礙。

5 主要收獲和建議

充分發揮人工智能推動成本和時間效率的能力,支持人類決策者,并實現自主性,將需要更多的技術進步或開發新的作戰概念。下面,我們概述了優先努力的三個關鍵領域,以更成功地將人工智能納入整個國防部事業,并確保美國能夠阻止威脅,并保持對其競爭對手和潛在對手的戰略、戰役和戰術優勢。

5.1 優先考慮安全、可靠、受信任和負責任的人工智能開發和部署

與中國日益激烈的戰略競爭,精湛的技術和強有力作戰能力,以及與私營部門快速的技術開發和整合速度的比較,都給國防部帶來了壓力,使其更快地走向人工智能系統的實戰。在人工智能發展中鼓勵更大的風險容忍度,以便在大規模采用人工智能方面取得進展,這有很多好處。但是,僅僅為了 "超越 "中國而匆忙部署容易受到一系列對手攻擊的人工智能系統,并且很可能在作戰環境中失敗,這將被證明是適得其反。

指導美國軍隊的道德準則反映了對遵守戰爭法則的基本承諾,而此時,一些獨裁國家對人權和人道主義原則很不重視。同時,國防部對新能力的測試和保證采取了嚴格的方法,旨在確保新武器的使用是負責任的和適當的,并盡量減少事故、誤用和濫用系統和能力的風險,因為這可能會產生危險,甚至是災難性的影響。美國與許多盟友和伙伴共享的這些價值觀和原則,在與專制國家競爭時是一種戰略資產,因為它們正在部署人工智能軍事系統。為了鞏固國防部在這個領域的優勢,我們建議采取以下步驟。

  • 美國防部應將DIU的“負責任的人工智能指南”納入相關的提案請求、招標和其他材料中,要求承包商展示他們的人工智能產品和解決方案是如何實施國防部的人工智能道德原則。這將設定一套共同和明確的期望,幫助非傳統的人工智能供應商和初創公司在五角大樓的提案過程中游刃有余。最近有國防部為項目制定收購類別的先例,要求工業界調整其開發過程,以滿足不斷變化的國防部標準。例如,在2020年9月,美國空軍為所有采購工作制定了e系列采購指定,要求供應商使用數字工程實踐--而不是原型--作為他們激勵行業接受數字工程的一部分。

  • 美國防部的行業合作伙伴,特別是非傳統的人工智能供應商,應積極與NIST合作,因為該機構繼續努力制定標準和指導方針,以促進可信賴的人工智能系統,以確保他們的觀點為后續框架提供信息。

  • 本文提到的有效采用人工智能的挑戰包括人工智能的脆弱性和對手旨在破壞人工智能算法的網絡攻擊可能性。克服這些挑戰將需要國防部繼續致力于提高國防部人工智能系統測試和評估的速度、種類和能力,以確保這些系統在更廣泛的不同環境下發揮預期功能。其中一些測試需要在真實世界的環境中進行,但基于模型的模擬的進步可以使人工智能系統的性能在數字/虛擬世界中得到越來越多的驗證,減少與這種測試相關的成本和時間。

圖:人工智能可以極大地重塑未來的戰場。為了實現這一愿景,美國防部必須采取關鍵步驟,有效利用人工智能。資料來源:美國陸軍。

  • 此外,美國防部還應該利用國防部研究與工程副部長(USDR&E)的測試實踐和優先事項,以確保計劃和部署的人工智能系統能夠抵御對手的攻擊,包括數據污染和算法損壞。

  • 美國防部應利用盟友和外國合作伙伴來開發、部署和采用可信的人工智能。這種性質的參與對于協調人工智能發展和使用的共同規范至關重要,這些規范遏制并對抗中國和俄羅斯的獨裁技術模式。擴大現有合作模式和建立新的伙伴關系的途徑可以包括以下內容:

i. 加強對道德、安全和負責任的人工智能的重視,將其作為全日空防務伙伴關系的一部分,通過評估成員方法的共同點和差異,確定未來聯合項目和合作的具體機會。

ii. 與 "五眼"、北約和AUKUS伙伴交叉分享和實施聯合道德項目。除了支持互操作性,這將增加視角和經驗的多樣性,并有助于確保人工智能發展工作限制各種形式的偏見。正如本項目所采訪的一位前將軍所指出的,"多樣性是我們確保可靠性的方式。它是必不可少的。"

iii. 擴大與不同能力和地域的盟友和合作伙伴的聯系,包括印度、南非、越南,以探索雙邊和多邊研發工作和技術共享計劃的機會,解決可信和負責任的人工智能的技術屬性。

5.2 調整人工智能發展的關鍵優先事項,加強國防部和工業伙伴之間的協調,以幫助縮小國防部人工智能能力的差距

如果不與廣泛的技術公司建立密切的伙伴關系,國防部將無法實現其在人工智能方面的雄心壯志,并與中國通過軍民融合采購技術創新的模式進行有效競爭。這包括與五角大樓有長期聯系的國防工業領導人,處于全球創新前沿的技術巨頭,尋求擴大其政府投資組合的商業技術參與者,以及處于人工智能發展前沿的初創企業。但是,國防部的預算規劃、采購、收購、簽約和合規流程可能需要從根本上進行重組,以有效地與這個充滿活力和多樣化的技術生態系統的整體接觸。

系統性變革是一個緩慢而艱巨的過程。但是,拖延這一過渡有可能使美國軍隊在利用人工智能承諾提供的優勢方面落后,從作戰速度到決策主導權。同時,以下行動可以幫助改善與行業伙伴的協調,以加快國防部采用人工智能的努力。

  • 國防部應評估其溝通和外聯戰略,以澄清和精簡圍繞該部門在人工智能方面的優先事項的信息。

  • 國防部應與技術公司合作,重新審查他們對某些類別的人工智能解決方案的潛在價值的評估,包括但不限于后勤、醫療和健康服務以及信息操作。

  • 國防部應實施NSCAI的建議,加快對采購專業人員的培訓,使其了解采購和簽約的全部可用選擇,并激勵他們使用人工智能和數字技術。" 此外,這種采購人員培訓舉措應確保采購專業人員充分了解國防部的人工智能倫理原則以及可信和負責任的人工智能的技術層面。國防部的道德準則可以作為這種培訓的基礎。

5.3 促進領先的國防技術公司和非傳統供應商之間的協調,以加快美國防部人工智能的采用

在中短期內,美國防部將不會建立全新的人工智能系統,而是將人工智能整合到一系列現有的軟件和硬件系統中--從網絡防御架構到戰斗機到C2。因此,實施人工智能的進展也將取決于簡化國防部一直在爭取的創新和尖端技術的初創公司和非傳統人工智能供應商與負責將新能力整合到傳統系統的國防部門之間的合作。

NSCAI建議確定 "國防部門與非傳統公司合作的新機會,以便在現有平臺上更快地采用人工智能能力。"我們贊同這一建議:改進國防部門與非傳統公司之間的協調可以幫助確保人工智能解決方案是強大的,有彈性的,與作戰相關的,以及引導有前途的原型穿過 "死亡之谷"。

毫無疑問,從概念到實踐可能是很棘手的。本文的研究顯示,在將創新的新技術從實驗室轉移到記錄項目中采用的主要挑戰在哪里,人們的觀點存在著很大的分歧。初創企業傾向于認為系統集成商抗拒參與,而初創企業可能被認為缺乏對收購過程的理解,以及開發的技術難以整合到記錄項目中,或難以擴大規模。

彌補這一差距將需要政府采取新的方法來解決非傳統供應商對知識產權的擔憂。大多數人不愿意放棄敏感技術的所有權,這些技術主要是賣給國防市場以外的客戶。這也將涉及到國防部幫助小企業通過加快網絡認證和運營授權(ATO)過程等步驟來瀏覽聯邦采購流程,以及幫助有興趣的公司為國防部的不同組成部分開發使用案例。這種積極的促進作用將幫助那些通過研究和開發撥款與國防部合作的非傳統供應商更有準備地與系統集成商達成合作。

最重要的是,優化大型系統集成商和小型創新者的利益,將需要國防部在連接小型公司和那些正在運行的項目方面發揮更積極的對話者作用。目前,國防部在要求公司合作方面存在一些可以理解的猶豫,主要是擔心觸犯聯邦采購條例(FAR)。但是,正如本項目采訪的一位行業專家所認為的,國防部可以更積極地了解《聯邦采購條例》所允許的內容,并幫助公司建立聯系,特別是為了滿足特定的采購優先權或計劃。

6 結論

在過去的幾年里,對人工智能的興趣和投資已經獲得了動力。這在國家安全和國防界尤其如此,因為戰略家、政策制定者和行政人員在不斷上升的地緣戰略競爭中尋求決定性的優勢,并為以復雜性、不確定性和最重要的速度為特征的未來操作環境做準備。人工智能現在是美國和中國之間軍事技術競爭的中心,這兩個國家以及世界上其他國家的軍隊都已經在部署人工智能系統,目的是為了主導未來的戰場。

美國不能冒落后于中國的風險--在人工智能的創新方面,在人工智能的采用方面,在人工智能全面融入國防事業方面,都不能。迫切需要解決一系列技術和官僚程序以及文化問題,迄今為止,這些問題已經抑制了國防部采用人工智能的步伐。具體來說,國防部應優先考慮以下問題。

  • 建立對人工智能的信任:國防部的人工智能努力主要集中在增強人類理解、決策和效能的技術上,而不是取代人類。因此,在人類和他們的智能機器隊友之間建立信任和信心是成功開發和部署軍事人工智能的一個關鍵方面。

  • 制定和實施可信和負責任的人工智能標準:目前,對于什么是可信和負責任的人工智能,還沒有共同的標準或系統性能要求。因此,五角大樓及其行業伙伴必須與NIST等機構合作,制定和實施與作戰相關的標準、測試流程和評估指標,其中包括道德的、可信賴的和負責任的人工智能原則。這將有助于將成功的人工智能研究原型推進到可投入生產的解決方案中。

  • 促進美國創新生態系統和國防工業基地的優化。將尖端的人工智能技術引入國防部還需要五角大樓減少國防部采購過程中經常出現的官僚主義挑戰,特別是對于那些在傳統國防工業基地之外的創新公司。開發新的手段來支持和激勵這些公司的參與,并促進領先的國防技術公司與初創公司和非傳統供應商之間的行業內伙伴關系將是至關重要的。

  • 吸引盟友和合作伙伴。正如本文開頭所述,烏克蘭戰爭加強了盟友和合作伙伴在執行地緣政治規范和標準方面的重要性。未來人工智能的發展和采用也可能是如此。國防部不僅將受益于工業界和國家安全界的合作,還將受益于與盟友和外國伙伴的合作,以確保建立和頒布規范和標準,從而實現可信、負責和可互操作的人工智能開發和部署。

關于本報告

本報告是在對人工智能的國家安全和國防影響進行為期八個月的研究項目的最終成果。

關于作者

瑪格麗特-科納耶夫(Margarita Konaev)是大西洋理事會斯考克羅夫特戰略與安全中心前沿防御業務的非常駐高級研究員。此外,她還擔任喬治敦安全與新興技術中心(CSET)的分析副主任和研究員,對人工智能的軍事應用和俄羅斯軍事創新感興趣。她也是新美國安全中心的兼職高級研究員。在此之前,她是西點軍校現代戰爭研究所的非駐地研究員,弗萊徹法律和外交學院的博士后研究員,以及賓夕法尼亞大學佩里世界之家的博士后研究員。在加入CSET之前,她曾在Gartner公司的營銷和溝通部門擔任高級負責人。

科納耶夫博士對國際安全、武裝沖突、非國家行為者和中東、俄羅斯和歐亞大陸的城市戰爭的研究已經在《戰略研究雜志》、《全球安全研究雜志》、《沖突管理與和平科學》、法國國際關系研究所、《原子科學家公報》、《法律戰》、《巖石上的戰爭》、現代戰爭研究所、外交政策研究所以及其他一系列機構和組織發表。她擁有圣母大學的政治學博士學位,喬治敦大學的沖突解決碩士學位,以及布蘭代斯大學的學士學位。

泰特-努爾金(Tate Nurkin)是OTH情報集團的創始人,也是大西洋理事會斯考克羅夫特戰略與安全中心的高級研究員。

在2018年3月建立OTH情報集團之前,努爾金在IHS Markit的簡氏公司工作了12年,擔任各種職務,包括管理簡氏國防、風險和安全咨詢業務。從2013年到他離開,他擔任戰略評估和未來研究(SAFS)中心的創始執行主任,該中心提供有關地緣政治、未來軍事能力和全球國防工業的全球競爭的思想領導和定制分析。

實質上,努爾金的研究和分析特別關注中美競爭、國防技術、未來軍事能力和全球國防工業及其市場問題。他還擅長設計和提供替代性未來分析活動,如情景規劃、紅色團隊和兵棋推演。

他曾在聯合管理服務公司、SAIC的戰略評估中心以及博思艾倫公司的建模、模擬、兵棋推演和分析團隊工作。2014-2018年,他在世界經濟論壇的核安全全球議程委員會和國際安全未來委員會連續任職兩年,該委員會的成立是為了診斷和評估第四次工業革命的安全和防御影響。

努爾金擁有佐治亞理工學院薩姆-納恩國際事務學院的國際事務科學碩士學位,以及杜克大學的歷史和政治學學士學位。

付費5元查看完整內容
北京阿比特科技有限公司