亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在這個前所未有的技術驅動轉型時代,比以往任何時候都更需要積極投資開發強大的人工智能(AI),用于兵棋推演以支持決策。通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域感知,提高決策周期的速度和質量,為新的行動方案提供建議,并更迅速地反擊對手的行動。因此,必須加快人工智能的發展,以幫助更好地應對目前需要人類智慧才能應對的現代挑戰和困境的復雜性,并在可能的情況下嘗試超越人類智慧--不是取代人類,而是以機器的速度增強人類決策并為其提供更好的信息。盡管深度強化學習在智能體行為開發方面不斷取得令人鼓舞的成果,可用于戰斗建模和模擬中常見的長視距復雜任務,但仍需進一步研究,才能使人工智能的規模擴大到能夠處理兵棋推演中錯綜復雜的廣闊狀態空間,從而進行概念開發、教育或分析。為了幫助應對這一挑戰,在研究中,正在開發和實施一個分層強化學習框架,其中包括多模型方法和維度不變觀測抽象。

利用人工智能進行兵棋推演

鑒于這些令人擔憂的活動以及最近在人工智能變革能力方面取得的突破,顯然必須開始更認真地投資于專門用于兵棋推演的人工智能開發。美國國家人工智能安全委員會(NSCAI)[27]詳細闡述了兩個信念:(1)"計算機系統解決問題和完成原本需要人類智慧才能完成的任務--在某些情況下甚至超過人類的表現--的能力迅速提高,正在改變世界";(2)"人工智能正在擴大美國已經進入的脆弱窗口"。因此,有鑒于此,NSCAI得出結論:"美國必須立即行動起來,將人工智能系統投入實戰,并在人工智能創新方面投入更多的大量資源,以保護美國的安全,促進繁榮,保障民主的未來"[27]。NSCAI [27] 認為,通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域意識,提高決策周期的速度和質量,為不同的作戰行動提供建議,并更迅速地反擊對手的行動。

盡管美國在大多數領域都享有軍事優勢,但機器學習(ML)的擴散已開始為競爭對手和其他國家行為者提供無數的破壞機會[28]。因此,現在比以往任何時候都更有必要積極開展研究和實驗,以便對人工智能的優缺點以及如何將其用于規劃和兵棋推演有一個扎實的了解,只有這樣,國防部才能更好地做好準備,以應對戰略突襲和破壞[28]。例如,如今的作戰行動分析主要側重于評估友軍的計劃,而很少強調對手可能會如何根據自身的目標和能力做出反應[26]。盡管不遺余力地試圖了解對手的想法以及他們在沖突中會如何行動,但總是會受到自己想象力的限制。托馬斯-謝林(Thomas Schelling)在他的 "不可能定理"(Impossibility Theorem)中說得最好: "一個人,無論他的分析多么嚴謹,想象力多么豐富,都不可能做的一件事,就是列出一個他不會想到的事情清單"[29]。人工智能支持的兵棋推演甚至有可能克服這一限制,創造出有自己目標的智能體,而這些智能體并不一定受限于思維和計劃方式,因為思維和計劃方式通常是通過幾十年的經驗根深蒂固的。此外,僅從數據中學習新的行為,人工智能就能自動執行原本需要人類智慧才能完成的任務[30]。

雖然在機器學習領域已經開展了大量研究,但兵棋推演和軍事規劃與迄今為止使用人工智能解決的傳統問題--如圖像分類和自然語言處理--有很大不同。任務分析和規劃通常需要人類的直覺和啟發式方法來限制搜索問題的規模 [28]。雖然啟發式方法確實能更容易地找到可接受的解決方案,但這些解決方案的可擴展性或可靠性通常不足以評估可能出現的大量突發情況 [28]。此外,直覺也可能在非常復雜的問題中失效,例如那些涉及到有許多不同參與者的高維空間以及復雜的武器和傳感器交互的問題[28]。不幸的是,這些復雜性正是可能決定未來戰爭的特征[26], [28]。

幸運的是,迄今為止,競技游戲已成為學習如何實施人工智能以支持兵棋推演的良好試驗平臺。早期的成功包括掌握跳棋[32]、五子棋[33]、國際象棋[34]和圍棋[35]。人工智能方法在視頻游戲中也取得了成功,如 Atari 游戲 [36]、超級馬里奧兄弟 [37]、Quake III [38]、Dota 2 [39]、星際爭霸 II [40] 和無上限德州撲克 [41]。然而,競技游戲通常都有一套固定的規則、確定的參數和基于已知變量的可預測結果。雖然這些游戲能為戰略、決策和風險評估提供有價值的見解,但真實世界中的兵棋推演場景往往更加復雜--可能的初始游戲狀態更多,分支系數更大,因此結果更加難以預測。因此,如何將人工智能從這些游戲中獲得的成功轉化為真正的軍事行動是一項挑戰。不過,從這些游戲中獲得的人工智能學習和適應能力方面的進步,為人工智能在作戰模擬中更細致的應用奠定了堅實的基礎。

利用 "半人馬 "概念進行兵棋推演

正如 CeTAS 報告[31]所詳述的那樣,可以采用大量不同的方法來利用人工智能支持兵棋推演;不過,在本文剩余部分的范圍內,將討論人工智能與兵棋推演的關系,即創建能夠在戰斗建模和模擬所特有的龐大而復雜的狀態空間中做出理性決策的智能體。

然而,要證明人工智能能夠贏得游戲或取得超人的表現,只是證明人工智能確實能為兵棋推演者、作戰規劃者和戰場指揮官提供有用見解的第一步[42]。盡管如此,設想這些智能體將成為創建現代決策輔助工具的基礎,與更傳統的工具相比,這些工具能為決策者提供更高的準確性、速度和靈活性[28]--有可能加快決策過程并提供關鍵的洞察力。隨著進一步深入多域作戰[26],在面對人工智能對手時,忽視這一步會帶來巨大風險。

雖然人機協作的概念最初是由 Licklider 在 1960 年提出的[43],但前國際象棋世界冠軍加里-卡斯帕羅夫(Gary Kasparov)在 1997 年輸給 IBM 的 "深藍"(Deep Blue)[44]多年后,首次提出了 "半人馬國際象棋"(Centaur Chess)的概念。盡管被人工智能擊敗,卡斯帕羅夫并沒有將人工智能視為一種威脅,而是鼓勵將人工智能視為一種工具,當它與人類的能力相結合時,可以帶來前所未有的成就[44]。卡斯帕羅夫在他的著作《深度思考》(Deep Thinking: 機器智能的終點和人類創造力的起點[44]》一書中,卡斯帕羅夫強調了利用人類和機器互補優勢的必要性。計算機擅長暴力計算,每秒能分析數百萬個局面,同時輕松計算出最佳的近期戰術行動。另一方面,人類對戰略、創造力和考慮特定棋步長期影響的能力有更深刻的理解,而這一切主要靠直覺[44]。卡斯帕羅夫認為,人類的直覺和機器的計算結合在一起,往往能比頂尖特級大師或計算機單獨發揮出更強的棋力。卡斯帕羅夫指出,在許多情況下,即使是排名相對較低的棋手與計算機配對也能勝過頂級特級大師。

有趣的是,卡斯帕羅夫還指出,隨著計算機國際象棋程序變得越來越強大,人類棋手在這種半人馬合作關系中的角色也發生了變化。最初,人類專注于戰略,而計算機則專注于戰術,但隨著國際象棋人工智能的改進,人類越來越多地開始扮演 "質量控制 "的角色,確保計算機推薦的棋步與人類更廣泛的戰略目標相一致[44]。事實上,卡斯帕羅夫經常說,國際象棋的未來可能不是人類與機器的對決,而是人類與機器配對,使用何種界面,能下出最好的棋。這種合作融合了機器的計算能力和人類提供背景、理解和直覺的能力--這種協同作用所產生的棋藝水平超過了任何一方單獨發揮所能達到的水平。

為兵棋推演開發人工智能

雖然有許多不同的人工智能技術和方法可以應用于兵棋推演,如監督學習、無監督學習、遺傳算法、自然語言處理、決策樹、專家系統、博弈論、對抗網絡等,但本文主要關注的是推進強化學習(RL)領域的需求,以支持為兵棋推演開發智能體行為。

說到機器學習,主要有三種類型:監督學習、無監督學習和強化學習。監督學習依賴于標注數據,每一組輸入都有相應的預期輸出。它類似于范例學習,最適合圖像分類、回歸和語音識別等任務。相反,無監督學習不依賴于標記數據。相反,它能發現數據中的模式或結構,比如對數據點進行分組或聚類,最適合異常檢測、降維和數據分割。值得注意的是,還有其他類型的機器學習,如遷移學習、主動學習、自我監督學習等;不過,這些通常是上述兩類學習的擴展或組合。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

生成式人工智能模型能夠執行一系列傳統上需要創造力和人類理解力的任務。在訓練過程中,它們可以從現有數據中學習模式,然后根據這些模式生成文本、圖像和音樂等新內容。一方面,由于它們的多功能性和普遍的高質量結果,它們代表了數字化的機遇。另一方面,人工智能生成模型的使用也帶來了新的 IT 安全風險,在全面分析與 IT 安全相關的威脅時需要考慮這些風險。

針對這種潛在風險,使用生成式人工智能的公司或機構在將生成式人工智能集成到工作流程之前,應進行單獨的風險分析。這同樣適用于開發人員和運營商,因為生成式人工智能的許多風險必須在開發時就考慮到,或者只能由運營公司來影響。在此基礎上,可以調整現有的安全措施,并采取額外的措施。

付費5元查看完整內容

要在未來與技術先進的競爭對手的沖突中保持競爭力,就必須加快兵棋推演人工智能(AI)的研究與開發。更重要的是,利用機器學習進行智能作戰行為開發將是有朝一日在這一領域實現超人性能的關鍵--提高在未來戰爭中的決策質量并加快決策速度。盡管深度強化學習(RL)在游戲中的智能體行為開發方面不斷取得令人鼓舞的成果,但在戰斗建模與仿真中常見的長視距復雜任務中,其表現尚未達到或超過人類水平。利用分層強化學習(HRL)已被證實的潛力和最近取得的成功,我們的研究正在調查和擴展 HRL 的使用,以創建能夠在這些大型復雜模擬環境中有效執行任務的智能體。最終目標是開發出一種能夠發揮超人性能的智能體,然后將其作為軍事規劃者和決策者的人工智能顧問。本文介紹了正在進行的研究方法,以及五個研究領域中的前三個領域,這些領域旨在管理迄今為止限制人工智能在作戰模擬中應用的計算量指數級增長問題: (1) 為作戰單元開發一個 HRL 訓練框架和智能體架構;(2) 為智能體決策開發一個多模型框架;(3) 開發狀態空間的維度不變觀測抽象,以管理計算量的指數增長;(4) 開發一個內在獎勵引擎,以實現長期規劃;(5) 將此框架實施到更高保真的作戰模擬中。這項研究將進一步推動國防部正在進行的研究興趣,即擴展人工智能以處理大型復雜的軍事場景,從而支持用于概念開發、教育和分析的兵棋推演。

人工智能(AI)技術的最新進展,如 OpenAI 的 ChatGPT,再次體現了人工智能在重塑各行各業方面的變革潛力。正如生成式預訓練變換器(GPT)模型從根本上重新定義了對人工智能巨大威力的理解一樣,其他人工智能方法也能為國防部門開發改變游戲規則的工具做出貢獻,而迄今為止,人工智能已被證明過于復雜,無法有效解決這些問題。

人工智能可以產生變革性影響的一個領域是支持兵棋推演的戰斗建模和仿真領域。但遺憾的是,就像兵棋推演的歷史可以追溯到幾個世紀前一樣,如今用于現代兵棋推演的大多數工具和技術也是如此。雖然傳統兵棋推演工具(如實體游戲棋盤、紙牌和骰子)絕對仍有其作用,但將兵棋推演帶入 21 世紀的壓力也越來越大(Berger,2020 年,2022 年;美國國防科學委員會,2021 年;美國國防部副部長,2015 年;美國政府問責局,2023 年),并利用現代技術進步,如人工智能(Davis & Bracken,2022 年),"從技術和方法兩方面發展當前的兵棋推演范式"(Wong 等人,2019 年)。

雖然美國在大多數領域都享有軍事優勢,但機器學習(ML)的大眾化已開始為競爭對手和其他國家行為體提供無數的破壞機會(Zhang 等人,2020)。因此,比以往任何時候都更有必要積極投資于研究與開發,以建立對人工智能優缺點的扎實基礎理解(Schmidt 等人,2021 年),以及如何將其用于設計、規劃、執行和分析各種目的的兵棋推演。只有這樣,國防部(DOD)才能更好地應對戰略突襲和破壞(Zhang 等人,2020 年)。

然而,兵棋推演和軍事規劃與迄今為止成功利用人工智能的傳統領域--如圖像分類和后勤相關的優化問題--有很大不同。由于戰爭的復雜性,任務分析和規劃通常需要在早期應用直覺和思維啟發法來限制搜索問題的規模(Zhang 等人,2020 年)。雖然啟發式方法確實能讓我們更容易地找到可接受的解決方案,但這些解決方案的可擴展性或可靠性通常不足以評估可能出現的大量突發事件。此外,直覺也不足以解決高度復雜的問題,例如那些涉及許多不同參與者的高維空間以及復雜的武器和傳感器相互作用的問題(Zhang 等人,2020 年)--然而這些復雜性正是可能決定未來戰爭的特征(Narayanan 等人,2021 年)。

雖然不認為人工智能會在可預見的未來取代人類的判斷或決策,但我們確實認為,人工智能在融入決策輔助工具后,有機會加快決策過程并提供新的見解。事實上,如果不能充分利用人工智能的力量,那么當我們深入多域作戰時,就可能會面臨巨大風險(Narayanan 等人,2021 年)。最終,通過利用超人智能體作為人類決策者決策支持工具的基礎,有望在未來戰爭中取得超越對手的決策優勢--加快決策速度,提高決策質量。因此,要想在未來與技術先進的競爭對手的沖突中保持競爭力,就必須加快對兵棋推演人工智能的研究和開發。更重要的是,利用機器學習進行智能作戰行為開發將是有朝一日在這一領域實現超人表現的關鍵。

本文介紹了在擴展人工智能方面的研究方法,以處理兵棋推演中戰斗建模和模擬所特有的復雜而錯綜復雜的狀態空間。雖然研究仍在進行中,而且還不完整,但將在本文中介紹總體方法、初步成果和前進方向。

研究規劃

研究利用 RL 已證明的潛力和 HRL 最近取得的成功,打算進一步提高擴展機器學習的能力,以開發智能體行為,用于戰斗建模和仿真中常見的大型復雜場景。為了實現這一目標,我們打算吸收文獻中的許多見解,同時為這一領域做出我們自己的獨特貢獻。研究主要分為五個研究領域:(1) HRL 訓練框架和作戰單元的智能體架構;(2) 用于智能體決策的多模型框架;(3) 狀態空間的維度不變觀測抽象;(4) HRL 框架的內在獎勵工程;(5) 將此框架實施到高保真作戰模擬中。本文僅關注前三個研究領域。

HRL 訓練框架和智能體架構

首先開發了一個 HRL 訓練框架,通過擴展和吸收 Dayan & Hinton(Dayan & Hinton, 1992)、Vezhnevets 等人(Vezhnevets et al、 2017)、Levy(Levy 等人,2019)、Pope 等人(Pope 等人,2021)、Wang 等人(Wang 等人,2021)、Rood(Rood,2022)和 Li 等人(S. Li 等人,2022)。為了支持這一框架,我們還開發了一種新的智能體架構,由智能體層次結構和決策層次結構組成--每個單獨的智能體都是一個多模型智能體。

如圖 3 所示,"智能體層次結構 "中的每個層次主要對不同數量的下級智能體實施控制,最低層次控制單個實體。為便于說明,我們將這些層級命名為 指揮官、經理和操作員。然而,我們可以把這種層次結構看作從 1 到 n 層的任何深度,其中最低層級為 1,最高層級為 n。只有少數單元的簡單任務可能只需要兩個層級,而涉及多個交互單元的復雜任務可能需要三個或更多層級。由于我們的研究打算考察更復雜的場景,因此我們預計至少需要三個層次。

在這一分層框架內,還制定了決策分層。值得注意的是,盡管在圖 3 中列出了具體的決策,但這只是為了說明問題,并不一定 是決策的最終細分。薩頓等人最初為決策層次概念創造了 "選項 "一詞(薩頓等人,1999 年)。選項是對行動的概括,薩頓等人正式將其用于原始選擇。之前的術語包括宏觀行動、行為、抽象行動和子控制器。在層次結構中表示這一概念時,我們使用了決策一詞。在傳統的 RL 問題中,智能體接受觀察結果,并在固定的時間步輸出一個動作,而在 HRL 問題中,智能體要么被給予背景知識,要么必須發現背景知識,從而以顯式或隱式的方式分解問題(Sammut & Webb,2010 年)。然后,智能體利用這些知識,通過訓練優化未來回報的策略,更高效地解決問題。

分層結構中的多個層次還允許每個層次針對不同的目標和不同的抽象程度進行訓練,從而使擴展到非常復雜的場景成為一個更容易解決的問題。此外,這種分層方法還隱含著對智能體協調與合作的訓練,因為上層控制著下層的總體行為(Wang 等人,2021 年)。除最底層外,層次結構的每一層都可以被視為抽象或認知層(即,它們最初是高層決策,最終將為原始行動提供信息)。只有處于層次結構最底層的智能體才是游戲板上的實際實體,會采取影響環境的離散或原始行動。

圖 4 展示了 HRL 框架。層級結構的指揮官層級接收自己對狀態空間的獨特抽象觀察,并向下一層級輸出子目標和終止條件。在下一級中,管理者接收指揮者的子目標和對狀態空間的不同抽象觀察結果,并輸出其 自己的子目標。最后,在最底層,操作員接收子目標和對狀態空間的抽象本地觀察,并利用我們的多模型智能體框架輸出一個供實體采取的行動。

多模型智能體

為了構建我們的多模型智能體框架,我們借鑒并采用了專家混合(MoE)(Jacobs 等人,1991 年)、"多模型思想家"(Page,2018 年)、集合方法和 RL 的概念。盡管我們從 MoE 和集合文獻中借鑒了采用各種專家網絡的想法,但我們偏離了這些傳統方法提出的中心思想。雖然我們仍然利用了許多不同的模型,但我們并沒有采用純粹的分而治之的方法(Jacobs 等人,1991 年)或模型輸出的匯集(Page,2018 年),而是對模型進行了區分,以確定哪個特定的模型可以在每個行動選擇步驟中最大化智能體的整體性能。換句話說,我們并不是將模型輸出進行組合,而是簡單地將它們作為一個評估函數的輸入,然后由該函數決定在每個步驟中應使用哪個特定的行為模型。集合方法要求建模者考慮模型的偏差或缺陷,而我們的多模型方法則允許我們利用一組不同的模型(腳本模型或機器學習訓練的模型),而無需考慮模型的平衡或驗證。之所以能做到這一點,是因為我們不是將模型預測結合在一起,而是對模型預測進行區分,并采用能最大化特定目標的單一最佳策略。

多模型框架如圖 5 所示。在每個行動選擇步驟中,多模型都會接收一個觀察結果作為輸入,并將其傳遞給每個得分預測模型。每個得分預測模型都會推導出一個預測的游戲得分,并將其輸入評估函數。然后根據評估函數選擇特定的行為模型。最后,原始觀察結果被傳遞給選定的行為模型,由其產生一個動作。

為了提供選擇適當行為模型的評估函數,我們為資源庫中的每個行為模型訓練了一個單獨的分數預測模型。該分數預測模型是一個卷積神經網絡(CNN),可根據當前游戲狀態推斷出游戲分數。預測的游戲得分假定藍方按照各自的行為模型繼續游戲,紅方按照特定的對手行為模型繼續游戲。鑒于 Atlatl 是一款回合制游戲,而非時間步進模擬,我們將棋盤上實體被提示采取某項行動的每個實例都稱為行動選擇步驟。盡管迄今為止,我們一直在使用監督學習方法訓練得分預測模型,并在游戲中使用了 "行動選擇 "模型。數據來訓練得分預測模型,但我們最近開發了一個單獨版本的得分預測模型,并正在對其進行測試。

在實驗中評估了這種多模型方法相對于傳統單模型方法(無論是腳本還是基于 RL 的)的有效性,發現多模型方法比表現最好的單模型提高了 62.6%。此外,我們還發現,由更多模型組成的多模型明顯優于由較少模型組成的多模型,即使這些額外模型的整體性能較差。這表明,即使我們的某些單個模型在總體上表現不佳,但它們很可能在非常特殊的情況下取得了成功--我們的分數預測模型似乎準確地捕捉到了這一現象,而我們的評估函數也正確地用于為每個行動選擇步驟選擇最佳模型。

更重要的是,使用這種方法,不必訓練一個能夠在所有可能情況下都有效執行任務的單一模型,而是可以開發或訓練能夠在特定情況下執行任務的非常專業的模型,然后在遇到這些特定情況(即游戲中的特定狀態)時自動調用這些專業模型。此外,由于我們的多模型可以區分其嵌入的模型,因此我們可以根據需要加入新的模型,而無需考慮行為驗證、平衡甚至偏差等問題--傳統的集合建模方法通常需要將結果匯集在一起。

狀態空間的觀測抽象

即使使用 Atlatl 這樣的簡單環境,將其擴展到更大的場景也會導致性能不佳(Boron,2020;Cannon & Goericke,2020;Rood,2022)。部分原因在于,與人類不同,RL 的樣本效率不高,需要大量的訓練數據(Botvinick 等人,2019 年;Tsividis 等人,2017 年),而龐大的行動和觀察空間則進一步加劇了這一問題。不過,Abel 等人指出,RL 中的抽象可以提高采樣效率(Abel 等人,2020 年),從而有可能讓我們擴展到處理非常復雜的環境。此外,學習和使用適當的世界抽象表征是任何智能體(無論是生物還是人工智能)都必須具備的基本技能(Abel,2020)。

然而,由于抽象本質上會丟棄信息--這可能會損害基于這些抽象所做決策的有效性--我們必須在使學習變得更容易(或可操作)與保留足夠信息以實現最優策略發現之間權衡利弊(Abel,2020)。我們對狀態空間抽象得越多,丟失的信息就越多,就越難保證獲得最優或接近最優的解決方案(L. Li 等人,2016 年)。不過,這也是一種權衡,因為盡管更粗略的抽象可能會導致次優行動,但它們確實可以更好地進行規劃和價值迭代(李玲等人,2016 年)。

為了克服在大型狀態空間中進行訓練時所面臨的一些權衡挑戰,同時保留足夠的信息以找到最優或接近最優的解決方案,我們目前正在開發一種方法,其中包括根據層次結構的級別應用不同級別的抽象。在《模擬與兵棋推演》一書中,Tolk 和 Laderman 討論了 "任務通常會驅動所需的抽象層級"(Turnitsa 等人,2021 年)。同樣,正如我們在軍事規劃中通常看到的那樣,高層次的抽象會更粗,而低層次的抽象會更細(FM 5-0 Planning and Orders Production, 2022;Joint Publication 5-0 Joint Planning, 2020;MCWP 5-10 Marine Corps Planning Process, 2020)。因此,我們的 HRL 框架涉及在較高層次的決策中應用較粗略的抽象層次,同時仍通過本地觀測為較低層次的決策保留所有本地狀態空間信息。我們認為,這種方法將使高層的長期規劃更加有效,并使低層的計劃在當地得到更有效的實時執行。

為了說明這一概念,我們首先描述了一般的 Atlatl 觀測空間。盡管觀察空間在不斷演變,但最近的一個觀察空間由 n x m 網格的 17 個通道組成,其中網格的每個入口代表 n x m 大小棋盤的一個十六進制。這個觀察空間被編碼為張量。圖 6 舉例說明了每個通道所代表的信息。例如,每個通道編碼的信息包括單元移動、單元類型、地形類型等。

圖 7 顯示了一個 20 x 20 棋盤的狀態空間表示示例,其中疊加了三個通道(藍色部隊、紅色部隊、城市六角形)。我們在下面所有圖中疊加了三個通道,僅供參考;但在 Atlatl 中,這些通道將表示為 3 個獨立通道(共 17 個通道),如圖 6 所示。

付費5元查看完整內容

為計算機生成兵力(CGF)創建行為模型是一項具有挑戰性且耗時的任務,通常需要具備復雜人工智能算法編程方面的專業知識。因此,對于了解應用領域和培訓目標的主題專家來說,很難建立相關的場景并使培訓系統與培訓需求保持同步。近年來,機器學習作為一種為合成智能體建立高級決策模型的方法,已顯示出良好的前景。這類智能體已經能夠在撲克、圍棋和星際爭霸等復雜游戲中擊敗人類冠軍。我們有理由相信,軍事模擬領域也有可能取得類似的成就。然而,為了有效地應用這些技術,必須獲得正確的工具,并了解算法的能力和局限性。

本文討論了深度強化學習的高效應用,這是一種機器學習技術,可讓合成智能體學習如何通過與環境互動來實現目標。我們首先概述了現有的深度強化學習開源框架,以及最新算法的參考實現庫。然后,我們舉例說明如何利用這些資源為旨在支持戰斗機飛行員培訓的計算機生成兵力軟件構建強化學習環境。最后,基于我們在所介紹環境中進行的探索性實驗,我們討論了在空戰訓練系統領域應用強化學習技術的機遇和挑戰,目的是為計算機生成的兵力有效構建高質量的行為模型。

計算機生成兵力的學習環境

在實驗中,將強化學習環境構建為實現 OpenAI Gym 接口的 Python 模塊,因為許多現有的強化學習算法實現都支持該接口。環境的結構如圖 2 所示。環境的大部分功能都在 EnvironmentCore 類中實現。該類通過 SimulationInterface 與本地或遠程計算機上運行的仿真進程通信,在仿真中的實體和控制它們的強化學習智能體之間傳輸觀察結果和操作。SimulationInterface 還用于在計算機生成兵力軟件中加載模擬場景。

模擬與環境模塊之間的通信是通過 ZeroMQ 實現的,ZeroMQ 是一個開源、輕量級的消息傳遞中間件,可綁定多種編程語言,包括 C++ 和 Python。ZeroMQ 可以輕松實現幾種流行的消息傳遞模式,如請求-回復、發布-訂閱和推-拉。ZeroMQ使用谷歌協議緩沖區(Google protocol buffers)來指定消息,這是一種語言中立、平臺中立的結構化數據序列化機制。使用簡單的協議語言創建消息規范,然后將其編譯成各種編程語言(包括 C++ 和 Python)的源代碼。

要配置特定的環境,需要使用一些委托對象:

  • ActionDelegate: ActionDelegate 指定環境的動作空間(OpenAI Gym 中提供的空間定義之一)。在執行過程中,它將該空間中的動作作為輸入,并將其轉換為 ActionRequest 消息,然后由 EnvironmentCore 發送給模擬中的實體。 -ObservationDelegate:指定環境的觀察空間(OpenAI Gym 中提供的空間定義之一)。在執行過程中,它將來自模擬實體的狀態更新信息作為輸入,并將其轉換為來自觀察空間的狀態觀察信息,然后將其呈現給智能體。
  • RewardDelegate:將狀態觀測信息作為輸入,并計算出一個標量獎勵信號,然后將其發送給智能體。
  • ScenarioDelegate:管理要模擬的情景,包括終止標準。對于訓練過程中的每個情節,委托機構都會根據需要調整場景內容,并生成模擬請求(SimulationRequest)消息,由環境核心(EnvironmentCore)發送給模擬。
  • RenderDelegate:會渲染模擬場景當前狀態的視圖。這對調試非常有用。我們使用 Python Matplotlib 和 Basemap 庫實現了簡單的地圖渲染。

空戰仿真領域的深度強化學習

在空戰模擬領域的深度強化學習實驗中,我們發現了一些挑戰,這些挑戰通常不存在于許多強化學習的簡單基準環境中。狀態和行動空間的維度高且復雜,使得智能體難以學習重要的狀態特征和合適的決策策略。例如,在許多場景中,由于傳感器的限制或電子戰的影響,環境只能被部分觀測到。此外,在大多數場景中,智能體不會單獨行動,而是必須與盟友合作,同時與敵人競爭,以達到目標。為了處理長期和短期目標,可能需要在不同的時間尺度上進行決策。代表最重要目標的獎勵通常是延遲的、稀疏的,例如,如果智能體取得了勝利,就會在情景結束時給予獎勵,這樣就很難將功勞歸于正確的行動。此外,根據訓練需要,智能體的目標也有可能在不同的模擬運行中有所不同。例如,我們可能需要調整模擬的難度,以適應受訓者的熟練程度。最后,由于運行高保真模擬的計算成本很高,因此盡可能提高學習過程的樣本效率非常重要。在下面的章節中,我們將討論一些可以用來應對這些挑戰的技術。

付費5元查看完整內容

機器學習將極大地改變未來戰爭的方式。為了充分利用機器學習帶來的固有能力,海軍陸戰隊必須做出重大改變。

機器學習是人工智能的一個分支,是軍事領域的一場革命(RMA)。它將從根本上改變戰爭的方式。從圖像分類到語音識別、機器人和自動駕駛汽車,其可能性是無窮的。然而,這一進步仍面臨著實際障礙。數據采集和格式化是成功的關鍵,而這兩項工作在政府部門本身就很困難。此外,機器學習也不是萬能的。有些問題機器學習能解決,有些問題機器學習不能解決,因此必須明確兩者之間的區別。因此,要利用這些新趨勢,海軍陸戰隊必須了解技術,并能夠和愿意在必要時適應技術。

海軍陸戰隊尚未做好適應當前 RMA 的準備,需要立即做出實質性改變,以扭轉趨勢。海軍陸戰隊應采用當前的 Project Maven 流程,并在信息副指揮官 (DCI) 下設立一個單元。該單元必須開始整理海軍陸戰隊的不同數據,并利用這些數據與行業領導者建立有意義的關系,以此激勵私營公司參與其中。

付費5元查看完整內容

將人工智能(AI)融入陸軍后勤工作,可以徹底改變供應鏈管理、優化資源配置并增強決策能力。不過,這需要采取全面的方法,解決實施過程中的挑戰和問題。

人工智能技術的迅猛發展為將其應用于包括陸軍后勤在內的各行各業提供了新機遇。認識到人工智能的潛力,陸軍應努力大規模利用其能力,并將其應用到戰術層面,以改善供應鏈管理、資源分配和決策過程。通過與《聯合出版物 4-0:聯合后勤》、《野戰手冊 4-0:維持行動》和《陸軍條令出版物 4-0:維持》中概述的指導原則保持一致,陸軍可以在日益復雜和快速發展的世界中發展適應性強、反應迅速和有效的后勤行動。然而,將人工智能融入陸軍后勤工作會帶來一些挑戰和問題,如在自動化與人類專業技能之間找到最佳平衡點、確保強大的網絡安全、解決倫理問題以及使勞動力適應不斷變化的技術環境。本文探討了在陸軍后勤中整合人工智能的潛在優勢和劣勢,并討論了在最大限度地提高效益的同時,最大限度地降低風險和解決與實施人工智能相關的問題所需的全面方法。

最大化供應鏈管理: 真實案例

人工智能在大幅提升陸軍供應鏈管理方面的變革能力毋庸置疑。正如美陸軍物資司令部前司令埃德-戴利(Ed Daly)將軍所強調的那樣,人工智能對于實現實際后勤所需的相關速度至關重要。他的愿景是將人工智能和機器學習無縫融入陸軍后勤流程的方方面面,從而為戰場上的士兵提供無與倫比的效率和及時支持。為支持這一觀點,《國際生產經濟學雜志》上發表的一項研究顯示,將人工智能融入供應鏈管理可將效率提高 20% 或更多。

人工智能分析海量數據、預測未來趨勢和資源分配需求的能力是陸軍后勤的另一大優勢。通過利用人工智能驅動的分析,陸軍可以更精確地預測士兵的需求,確保重要物資在正確的時間和地點到達目的地。此外,預測分析還能通過簡化人員和裝備分配來優化陸軍行動。陸軍后勤中的預測分析可以確定車輛部件何時需要更換,從而在故障發生前進行主動維護。這種方法可節省大量成本并提高運營安全性,減少因維護和事故而計劃外停機的可能性。此外,預測性分析還可以通過預測供應需求和驗證在正確的時間和地點是否有正確的資源來完善供應鏈管理。這一戰略可提高運營效率、縮短交付周期并提高供應鏈的可見性。

自適應后勤與決策: 對實時信息做出反應

適應當地快速變化條件的能力是現代軍事行動的重要組成部分。適應性后勤和決策對于維持陸軍在復雜環境中的有效性和反應能力至關重要。人工智能通過提供實時信息、復雜的分析和先進的決策支持工具,有可能徹底改變軍事后勤的這一方面。

人工智能在適應性后勤方面的一個重要優勢是它有能力收集和分析來自各種來源的大量數據,包括傳感器、衛星和其他情報平臺。此外,人工智能還能訪問來自不同陸軍源系統的記錄系統數據,如全球指揮與控制系統-陸軍、后勤現代化計劃、港口自動化工具和運輸協調員移動信息自動化系統 II。人工智能還可以利用非陸軍系統,如全球決策支持系統和后勤功能區服務。通過這種全面的數據分析,可以做出更明智的決策,提高后勤效率。

這些信息可為作戰環境提供全面的最新情況,使指揮官能夠根據實時情報做出明智決策。通過獲取準確及時的數據,陸軍可以更有效地應對新出現的威脅,最大限度地降低風險,并抓住機遇。

除了提供實時信息外,人工智能還能通過識別人類分析人員可能不易察覺的模式和趨勢來加強決策。通過機器學習算法和先進的數據分析,人工智能系統可以發現隱藏的相關性,并產生可操作的見解,為戰略和戰術決策提供依據。例如,人工智能可以幫助預測敵人的動向,預測后勤瓶頸,或在潛在的供應鏈中斷發生之前加以識別。有了這些洞察力,指揮官就能做出更明智的決策,更有效地分配資源,并在戰場上保持競爭優勢。

人工智能還能通過自動化某些后勤規劃和決策環節,提高陸軍應對突發事件和緊急情況的能力。例如,人工智能驅動的系統可以根據不斷變化的環境條件或供應鏈的突然中斷,自動調整物資和人員的路線。通過實現這些流程的自動化,陸軍可以最大限度地減少延誤,并確保將關鍵資源運送到最需要的地方,即使在不確定和逆境中也是如此。

人工智能在適應性后勤中的另一項應用涉及使用模擬和優化技術來支持復雜多變條件下的決策。人工智能驅動的模擬模型可以幫助指揮官探索各種場景,評估潛在的行動方案,并確定實現目標的最有效策略。這可以使后勤計劃更加穩健、更具彈性,并提高任務的整體成功率。

反駁意見

雖然將人工智能融入陸軍后勤會帶來諸多益處,但也有合理的擔憂和潛在的弊端需要考慮。一些批評者認為,依賴人工智能可能會導致過分強調技術,而忽視人的經驗和直覺,而人的經驗和直覺在復雜和不可預測的情況下至關重要。人工智能有可能造成虛假的安全感,導致過度自信和戰略失誤。

此外,與實施人工智能技術相關的巨大成本,如基礎設施升級、軟件開發和持續維護,可能會超過潛在的好處。預算限制和相互競爭的優先事項可能會使為人工智能集成分配足夠的資源變得具有挑戰性,從而可能限制其有效性。

另一個令人擔憂的問題是人工智能系統易受網絡攻擊和敵方操縱。隨著人工智能驅動的后勤系統對陸軍行動越來越關鍵,它們也成為對手試圖破壞或損害軍事能力的高價值目標。制定強有力的網絡安全措施至關重要,但無法保證這些防御措施在應對快速發展的威脅時始終有效。

此外,還要考慮與軍事后勤中的人工智能有關的倫理問題。使用人工智能可能會導致決策偏差、缺乏透明度或意想不到的后果。必須明確界定人工智能系統行動的責任,以確保在出現錯誤或故障時能追究責任。

最后,將人工智能融入陸軍后勤可能會給后勤軍事職業專業帶來意想不到的后果。雖然特定任務的自動化可以提高效率,但也可能導致工作崗位的轉移,并需要對勞動力進行大量的再培訓。確保陸軍能夠適應這些變化并保留一支熟練的勞動力隊伍至關重要,但這需要持續的努力和投資。

雖然反駁意見中提出的擔憂不無道理,但必須指出,不應完全否定整合人工智能的潛在好處。相反,有必要采取一種平衡的方法,仔細考慮與人工智能實施相關的風險和挑戰,同時尋求利用其在陸軍后勤中的變革潛力。通過制定全面的戰略,陸軍可以解決這些問題,最大限度地發揮人工智能集成的效益。

結論

將人工智能融入陸軍后勤工作,為徹底改變供應鏈管理、優化資源配置和加強決策過程提供了眾多機會。然而,至關重要的是要認識到并解決與實施人工智能相關的挑戰和問題,如在自動化和人類專業知識之間取得適當平衡、確保強大的網絡安全、解決道德問題以及使勞動力適應不斷變化的技術環境。

為了充分利用人工智能的潛力,陸軍應采取全面的方法,包括投資人工智能基礎設施、促進公共和私營部門之間的合作、為人員提供持續的教育和培訓,以及制定強有力的網絡安全措施。此外,必須就人工智能在軍事后勤中的道德影響保持公開對話,并建立明確的指導方針和問責結構,以確保負責任地部署人工智能。

通過采取全面的方法,陸軍可以克服與人工智能集成相關的挑戰,釋放其變革潛力,并在日益復雜和快速發展的全球安全環境中保持競爭優勢。

付費5元查看完整內容

人工智能(AI)和統計機器學習(ML)與復雜系統的集成,給傳統的測試與評估(T&E)實踐帶來了各種挑戰。隨著更多不同級別的決策由人工智能系統(AIES)處理,我們需要測試與評估流程為確保系統的有效性、適用性和生存性奠定基礎。這涉及到評估 ML 模型和人工智能算法組件的方法,包括展示它們如何產生可重復和可解釋的決策的能力,以及對任何故障模式和故障緩解技術的了解。此外,還需要人工智能保證,以證明人工智能算法按預期運行,不存在因設計缺陷或惡意插入數據或算法代碼而產生的漏洞。T&E 需要新的流程來鑒定 ML 模型的訓練數據是否充足、算法和模型性能、系統性能以及運行能力。弗里曼(Freeman,2020 年)概述了當前復雜軟件支持系統的測試與評價方法所面臨的挑戰、嵌入式人工智能所加劇的關鍵挑戰,以及針對 AIES 的測試與評價需要如何改變的 10 個主題[1]。

為了充分測試 AIES,測試與評估界需要應對以下挑戰:

  • 當狀態空間的大小導致測試所有情況不可行,或開放世界問題導致無法枚舉所有情況時,確定測試要求;
  • 解決這些突發系統可以分解這一可能無效的假設;以及
  • 處理動態變化的系統,這些系統在部署過程中可能永遠不會處于 "最終 "狀態[1]。

圖 1 總結了加強測試與評估的 10 個不同主題,以應對充分測試和評估 AIES 所面臨的挑戰。在過去的一年中,弗吉尼亞理工大學致力于測試和評估各種 AIES。本最佳實踐指南對圖 1 中的主題進行了進一步的完善和補充。本文所包含的最佳實踐將這些主題轉化為可執行的測試與評估實踐。在編寫本指南的過程中,我們充分利用了我們在人工智能系統開發和與更廣泛的人工智能社區合作方面的 T&E 工作經驗。這里所包含的最佳實踐反映了我們為使人工智能系統的測試與評估具有可操作性所做的初步嘗試。這些實踐需要在各種人工智能系統中進行測試,以確保它們是真正的最佳實踐。貫穿許多最佳實踐的一個亮點是數據的重要作用。數據不再僅僅是 T&E 的產物。現在,它已成為人工智能系統開發本身的輸入。這一顯著變化推動了對人工智能系統的技術與評估提出新的要求和實踐。此外,這份清單還遠遠不夠完整,應被視為一份活生生的實踐文檔。隨著越來越多的人工智能系統可供測試,新的實踐將不斷發展,本清單也需要不斷更新。不過,本文件中的每種做法都已證明在美國防部 AIES 測試中非常有用。

付費5元查看完整內容

美國陸軍志在利用和處理數據以推動決策的能力方面超過對手。決策為導向,將更有能力確定正確的數據,無論是數量還是質量。即,需要做出的決策應該用來確定作戰人員的數據需求,而不是相反。數據專業人員是陸軍的財富,應該得到一切可以利用的機會來了解梯隊的能力、限制和挑戰。如果數據專業人員以前沒有軍事經驗,這就變得特別重要。

雖然之前的軍事經驗并不是數據專業人員提供數據科學相關專業知識的先決條件,但如果數據專業人員能夠獲得對多個梯隊軍事決策過程的理解,他們將變得更有優勢。如果數據專業人員只能通過作戰部隊以外的概念和論壇來了解他們對作戰人員的貢獻,他們可能會發現很難在戰術和作戰梯隊中整合反饋和建議。經驗性的機會提供了對作戰人員在行動中使用數據/信息/知識的洞察力。

同步多域作戰(MDO)將需要采集大量有關作戰環境的數據。梯隊的數據管理和訪問權限所面臨的獨特挑戰,很可能決定了多域作戰在哪級梯隊融合。如果由于行動或任務變化,重要的數據處理和利用能力在梯隊中不可能或無法獲得,那么實現融合的能力或使用來自多個領域的能力,將從更高梯隊獲得,能夠處理同步MDO所需數據。

由于對現有記錄程序(PORs)存在限制,人們越來越依賴商業現成(COTS)解決方案來滿足數據管理和可視化需求。這些COTS解決方案給美國陸軍部隊和統一作戰伙伴(UAPs)帶來了內部和互操作性挑戰,因為它們不可避免地導致在數據標準、交換機制和由于成本原因采納特定COTS方面,存在管理挑戰。在滿足作戰人員對數據管理和可視化的作戰需求方面,PORs的局限性需要被記錄下來并加以協調。

如果沒有一個協調的學習、戰略和訓練運動,那么將數據視為“數量大于質量”的風險就會很高。在對陸軍的數據文化進行有意義的改變之前,陸軍必須首先了解為什么這些改變是必要的。可以說,陸軍一直在運用數據科學和數據分析;指揮官和參謀部一直在接收數據,將其加工成信息,將信息分析成知識,并運用判斷力將其轉化為見解。數據分析有巨大的潛力,可以優化歷史上漫長的手工過程,在時間上獲得效率。然而,對于AI/ML解決方案提供和處理大量數據的能力和限制,必須有共同的理解。雖然進行分析的人類也有可能在判斷上出錯,但圍繞著依賴AI/ML解決方案來實現決策,存在著道德上的擔憂。可能總是需要一個人在環路(HITL)來驗證AI/ML解決方案的輸出,但HITL評估和分析現有數據和信息的能力,不能因為對技術的依賴而減弱或忽視。如果人員不繼續參與驗證和核實數據分析的持續過程,那人員進行分析和評估的能力將迅速減弱。數據分析的發展決不能成為損害指揮官決策能力的同義詞;AI/ML解決方案不能被誤解為具有權威性,或替代指揮官運用戰爭藝術和科學的能力。

付費5元查看完整內容

圖4. 人工智能對目標定位的增強:人工智能可以通過搜索目標并在發現后發出警報來增強動態目標定位周期。

開發和使用新的軍事技術是一個軍事專業人員工作的一部分。事實上,軍事歷史在很大程度上是一個技術革新的故事,士兵需要學習如何操作新系統。因此,關于整合人工智能的很多東西并不新鮮。就像坦克、飛機甚至弩一樣,隨著時間的推移,士兵們學會了使用和運用技術,工業界學會了以足夠的數量和質量生產技術,高級領導人學會了運用技術來實現戰略效果。如前所述,人工智能技術與它們的顛覆性“前輩”之間的區別在于,前者有能力改善廣泛的軍事武器、系統和應用。由于這種潛在的普遍性,幾乎所有的士兵都必須在某種程度上變得熟練,才能有效地和道德地運用AI技術。隨著這項技術在應用上的擴展,戰爭將像管理暴力一樣管理數據。

這種普遍性也提出了關于人類發展和人才管理的問題。盡管培訓計劃最終會培養出更多的知識型士兵,人事系統也會提高管理士兵的能力,但軍警人員能夠獲得知識和技能的限制仍然存在,特別是在作戰層面。盡管討論的目的不是要建立嚴格的指導方針,但討論確定了士兵需要獲得的許多知識。例如,士兵將需要知道如何策劃和培訓數據庫,而該數據庫對他們正在執行的任務有著重要作用。這樣做需要確保數據的準確、完整、一致和及時。使用這些數據需要熟練應用推薦模型卡中描述的條件,而熟練的操作有助于確保算法以有效和道德的方式執行。

當然,信任不能僅靠政策和程序來保證。指揮官、參謀員和操作員需要知道他們被信任做什么,以及他們信任系統做什么。指揮官、參謀員和操作員信任人工智能系統來識別合法目標,并避免識別非法目標。參與這一過程的人必須在使用這些信息時,既需要擊敗敵人,又必須避免友軍和非戰斗人員的傷亡。要找到這種平衡,就需要判斷人應該承擔多大的風險。

只要參與流程的人類能夠與系統進行有效的互動,由人工智能賦能的系統就能促進找到這種平衡。在將人類控制整合到機器流程中時,人們經常被迫在控制和速度之間做出選擇:強加的人類控制越多,系統的運行速度就越慢。但本研究發現這種兩難的局面是錯誤的。盡管在某些情況下,在人的控制和速度之間進行平衡可能是必要的,但如果系統要最佳地運作,人的輸入是必要的。

實現最佳性能首先要求指揮官確保參謀和操作人員了解模型能力,理解數據質量的重要性,以及洞悉模型在作戰環境中的表現。盡管它可能不會使系統更加精確或準確,但實現這些任務可使系統能夠更好地對輸出進行概率分配。第二,指揮官需要確定對任務、友軍戰斗人員和敵方非戰斗人員的風險有多大才合適。這一決定很復雜,其中關鍵任務可能是需要容忍更多的友軍和非戰斗人員傷亡。同樣,如果非戰斗人員的密度較低,即使任務不那么緊急,也可以容忍較高的風險。尋找這種平衡將是人類的工作。

但在前面描述的模糊邏輯控制器的幫助下,指揮官可以更好地確定什么時候可以信任一個人工智能系統在沒有人類監督的情況下執行一些目標定位步驟。此外,可以通過構建交互的邏輯,以找到多種不同的人機互動配置,確保系統的最佳使用,同時避免不必要的傷害。在LSCO期間,讓指揮官在需要時選擇智能和負責任地加快目標定位過程將是至關重要的,本報告中提出的設計實現了這一目標。這一成就在未來尤其重要,因為為了保護部隊并實現任務目標,指揮官將面臨大量時間敏感目標,及面臨承擔更多風險的操作條件。

在培養具有正確技能的足夠數量士兵以充分利用人工智能技術方面,仍有大量的工作。目前的人才管理計劃尚未達到管理這一挑戰的要求,盡管多個有前途的計劃準備最終滿足需求。然而,在大多數情況下,這些計劃都是為了滿足機構層面的要求,在機構層面上做出全軍采買人工智能和相關技術的決策。但是,這些技能將如何滲透到作戰陸軍,尚不清楚。

盡管人工智能在目標定位中的使用并不違反當前的戰爭法,但它確實引起了一些道德倫理問題。在所討論的目標定位系統背景下,這些倫理問題中最主要的是問責制差距和自動化偏見。第一個問題對于回答核心問題至關重要,“指揮官在什么基礎上可以信任人工智能系統,從而使指揮官可以對這些系統的使用負責?”自動化偏見和數據衛生與問責制差距有關,因為當這些問題存在時,它們會破壞指揮官可能希望實施的有意義的人類控制措施。指揮官可以通過以下方式縮小問責差距:首先,確保人員受到適當的教育、技能和培訓,以整理相關數據;其次,確保指揮官允許的風險,準確地反映完成任務與保護友軍士兵和非戰斗人員之間的平衡需求。指揮官還可以通過在機器需要更多監督時向參與該過程的人類發出信號來減少自動化偏見的機會及其潛在影響。

作為一個專業人員,不僅僅意味著要提供服務,還要在出問題時承擔責任。專業人員還必須了解各種利益相關者,包括公眾和政府及私營部門實體,如何與本行業互動和競爭。鑒于這些技術的潛力,軍事專業人員必須首先學會在技術及其應用的發展中管理預期。由于這種演變影響到專業工作的特點,軍事專業人員還必須注意專業以外的人如何重視、獎勵和支持這項工作。因此,隨著美軍繼續將人工智能和數據技術整合到各種行動中,對其專業性的考驗將在于擁有專業知識的能力,以及建立能夠繼續發展、維護和認證這種專業知識的機構,這些機構既能滿足美國人民的國防需求,又能反映他們的價值觀。

付費5元查看完整內容

在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。

在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。

本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。

付費5元查看完整內容

軍事網絡戰的前景正在發生變化,這是因為數據生成和可訪問性的發展、持續的技術進步及其(公共)可用性、技術和人類(相互)聯系的增加,以及參與其規劃、執行和評估階段的專家活力、需求、不同性質、觀點和技能。這種行動每天都在進行,最近被人工智能賦予了更多能力,以達到或保護他們的目標,并處理產生的意外影響。然而,這些行動受到不同的不確定性水平制約和包圍,例如,預期效果的預測,有效替代方案的考慮,以及對可能的(戰略)未來新層面的理解。因此,應確保這些行動的合法性和道德性;特別是在攻擊性軍事網絡戰(OMCO)中,參與其設計/部署的智能體應考慮、開發和提出適當的(智能)措施/方法。這種機制可以通過像數字孿生這樣的新型系統,在硬件、軟件和通信數據以及專家知識的基礎上嵌入智能技術。雖然數字孿生在軍事、網絡和人工智能的學術研究和討論中處于起步階段,但它們已經開始在不同的行業應用中展示其建模和仿真潛力以及有效的實時決策支持。然而,本研究旨在(i)理解數字孿生在OMCO背景下的意義,同時嵌入可解釋人工智能和負責任人工智能的觀點,以及(ii)捕捉其發展的挑戰和益處。因此,通過對相關領域的廣泛審查,考慮采取多學科的立場,將其包裝在一個設計框架中,以協助參與其開發和部署的智能體。

在攻擊性軍事網絡戰中定義數字孿生

盡管數字孿生被認為是在工業4.0的數字化轉型過程中引入的一項關鍵技術,但它們有二十年的歷史,甚至更早的基礎。其起源是Michael Grieves的鏡像空間模型,以及他與John Vickers在NASA宇航和航空航天領域項目中的進一步研究(Grieves & Vickers,2017),將數字孿生定義為 "物理產品的虛擬代表",融合了物理和虛擬世界的優勢,它包含三個組成部分:物理產品、物理產品的虛擬代表,以及從物理產品到虛擬代表的雙向數據連接,以及從虛擬代表到物理產品的信息和流程(Jones等人,2020)。

對數字孿生概念的理解有不同的角度和方式,其含義可以根據應用領域進行調整(Vielberth等人,2021)。考慮到與數字模型或數字影子等相關主題存在誤解和混淆,以及數字孿生不存在一致的定義(Hribernik等人,2021;Fuller等人,2020),為了確保其在攻擊性軍事網絡戰(OMCO)中的正確設計、開發和部署,采用了系統性觀點,并提出以下定義:

攻擊性軍事網絡戰(OMCO)中的數字孿生子 = 一個技術系統,在其現實環境中嵌入物理系統,及物理系統的網絡抽象、表示和鏡像,以及它們在OMCO中的相應數據和通信流

這個定義的要素是:

  • 技術系統:包含其物理、網絡以及數據和通信元素的整個實體。
  • 網絡抽象化、表示和鏡像:系統的網絡/虛擬/數字組件。
  • 物理系統:系統的物理元素包含和虛擬化。
  • 數據和通信流:網絡和物理組件之間傳輸的數據,以及它們相應的通信基礎設施。

換句話說,OMCO中的數字孿生是一個先進的(智能)系統,它嵌入了OMCO系統/實體的虛擬、物理以及數據和通信元素。鑒于此,在圖2中提出了以下對訓練、演習和實際行動有用的OMCO數字孿生架構,其中連續的箭頭描述了行動中目標階段之間的信息和結果交流,帶點的箭頭描述了集成部件和其他部件之間的信息和結果。該架構應該是模塊化和可配置的(Silvera等人,2020),并包含兩個組件:

  • 數字孿生層,即三個數字孿生模塊和一個集成模塊或四個獨立的數字孿生模塊,其中集成DT與其他三個獨立的數字孿生模塊通信并獲取結果。

  • 數字孿生層,即整個數字孿生或四個集成數字孿生的物理、數據和通信以及網絡組件。

此外,認識到系統將具有分析、預測或模擬功能,以支持不同的軍事網絡決策過程,軍事指揮官及其團隊有責任如何解釋和使用數字孿生所呈現的結果,因此,有必要從設計階段就將XAI和RAI方法嵌入其中。RAI必須尊重并納入社會道德規范和價值觀,XAI在整個過程中以及在呈現最終結果時,必須尊重軍事技術和社會法律道德要求、規范和價值觀(Arrieta等人,2009, 2020;Agarwal和Mishra,2021;Maathuis,2022a;Maathuis,2022b)。這些措施保證了負責任的OMCO發展和部署。

為了進行示范,OMCO的開發、部署和評估是在架構左側所示的階段進行的,其中集成DT的最終結果可以作為經驗教訓或對未來行動、網絡或其他行動的投入而進一步使用。例如,在設計和開發階段,選擇目標,確定其核心弱點,并進一步在智能網絡武器中建立一個漏洞,可以預測(非)預期效果的水平和概率,并對目標交戰進行負責任和可解釋的比例評估;此外,效果評估與定義的目標和依賴性有關。在這里,一個原型將通過定義和部署系統的多個實例來實現,這些實例將被匯總,同時考慮到要求以及與物理和網絡環境的相互作用(Grieves, M., & Vickers; Jones等人,2020)。

在攻擊性軍事網絡戰中建立數字孿生時面臨的挑戰和機遇

作為數字化轉型過程的一部分,并與若干數字和智能技術緊密相連,與其他類型的技術一樣,數字孿生帶來了挑戰和機遇。

挑戰

  • 考慮多利益相關者視角的標準化、管理和監管(Talkhestani等人,2019年;Singh等人,2021年;Flamigni等人,2021年):由于這些系統是在多利益相關者參與開發和部署的,在匹配所定義的目標和功能時應考慮適當的標準、管理和監管機制。

  • 數據和算法(Jones等人,2020;Qian等人,2022;Song等人,2022):這類系統對數據敏感,依賴于相關的高保真表示和數據添加到正確構建和部署的人工智能模型中,例如,相關數據應該被收集、分析、使用,并在系統的各個層面和層次之間共享。

  • 安全、安保、隱私和可靠性(Glaessgen & Stargel, 2012; Vielberth et al., 2021; Chockalingam & Maathuis, 2022)和可靠性問題:如果管理不當,并且通過其在數字孿生的設計階段就沒有整合到所有層面和層次,這些有可能通過改變系統的行為來打開意外和有意的網絡安全和安保事件的大門,產生大規模的影響。例如,這樣的行動可能無法區分軍事和民用目標,從而在民用方面產生大量的附帶損害,因此系統在行動中是不可靠的。

機遇

  • 認識和理解、決策支持和教育(Mendi, Erol & Dogan, 2021; Talkhestani et al., 2019):這些系統有利于理解系統的行為,支持具體的決策過程,并產生/增強不同的學習活動。例如,這些系統不僅可以對當前的行動產生情報,而且還可以通過對未來行動的評估產生情報。

  • 建模和仿真,例如現場生命周期測試、監測、優化(Steinmetz等人,2018;Jones等人,2020;Hribernik等人,2021):通過其性質,數字孿生對不同的系統和過程進行建模和仿真,例如,允許鏡像和測試雙重用途目標的行動執行,以避免預期產生的意外影響;或允許使用不同的優化技術對智能網絡武器實施的路徑和行動進行現場監測。

  • 可訪問性和成本降低(Barricelli, Casiraghi & Fogli, 2019;Jones等人,2020;Aheleroff等人,2021):通過其設計界面,此類系統可被用戶直接訪問,有利于普遍降低實施和部署的成本。

付費5元查看完整內容
北京阿比特科技有限公司