亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能在軍事領域的應用已有數十年歷史,但隨著大型語言模型(LLM)能力激增,這些系統極有可能在現代戰爭中發揮更大作用。既往研究表明,LLM在兵棋推演模擬中傾向于支持沖突升級,暴露出軍事化人工智能潛在的危險邏輯缺陷。基于這些研究,我們測試了不確定性、思維鏈提示與溫度參數如何影響LLM建議采取激進行動的傾向。與先前結論不同,我們發現測試模型普遍優先選擇外交手段而非沖突升級。然而,研究同時揭示:時間與情報的不確定性、以及思維鏈提示機制,往往會導致更具攻擊性的行動建議。這些發現表明,特定威脅條件下采用基于LLM的決策支持系統可能更具安全性。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

強化學習(RL)是提升國防安保行業無人機與機器人系統效能最具前瞻性的方法之一。本文在異常檢測(AD)系統中探討了強化學習作為模型選擇標準(MSC)方法的潛力及其相關問題。強化學習算法使此類系統能夠適應環境互動并從中學習,從而優化對復雜動態威脅的響應。通過這種方式,系統可引入具備更優決策流程的新狀態,提升作戰行動效能,同時讓強化學習驅動的系統既能學習新場景,又能在實時環境下執行精細防御行動。因此,強化學習在國防領域的重要性可概括為改變威脅識別方式、威脅響應方式乃至防御策略構想方式的革新潛力。整合強化學習的自治系統能夠在不可預測環境中運轉,精準評估威脅,并幾乎完全無需人工干預執行防御措施。這種多功能性在現代戰爭中至關重要,因為應對數年前未知威脅的首選方案正是此類系統。然而,將強化學習融入自主防御系統仍面臨重大挑戰:強化學習算法在多樣化關鍵場景中的穩定性與準確性提升、自主決策的法律與現實影響、以及學習算法遭受對抗性操縱可能引發的威脅。此外,此類系統必須在國際國內標準框架下開發部署,以滿足特定要求并建立應用公信力。本文通過案例研究與理論分析,深入探索這些戰略應用與議題,全面闡述強化學習提升自主防御功能的技術路徑,同時剖析相關重大難題,旨在論證強化學習具有定義國防技術發展軌跡的潛力,可在威脅不斷升級的背景下增強國家安全體系。

強化學習(RL)是機器學習最重要的分支領域之一,專注于智能體在當前情境下為實現最高累積獎勵而進行的決策行為(Sutton, R. S., & Barto, A. G. 2018)。這種方法尤其適用于無法用規則描述的環境——例如劇烈變化的戰場態勢,或其它無法通過明確定義規則調控行為的場景;因此該類技術可成功應用于軍用自主控制系統(如無人機與機器人)。自控系統作為現代戰術戰略的核心要素,因其能最大限度減少人員直接參戰從而降低傷亡風險,現已成為提升作戰效能的關鍵。其中,無人飛行器(UAV)、無人地面載具(UGV)及機器人系統可執行從純偵察監視到作戰打擊的多樣化任務。

強化學習的整合已帶來革命性變革,各系統能基于歷史經驗學習并實時決策,尤其在不可預測或敵對環境中效果顯著。強化學習在自主防御系統中的典型應用體現于無人機與機器人平臺:這些平臺通過自主作戰實現在多樣化條件下機動并獨立響應威脅。強化學習算法使系統無需針對所有突發狀況單獨編程,即可優化運動軌跡決策、目標識別及威脅規避策略。例如,自主無人機可被設定任務目標以穿越復雜環境、識別追蹤目標,并協同其他無人機達成整體作戰使命。強化學習通過增強戰場機器人系統決策能力,使其能執行拆彈排爆、地雷探測乃至危險區域人員搜救等任務。基于持續行動結果學習機制,這些機器人的實戰效能不斷增強(Chen, X., & Liu, B. 2020)。從國家戰略防御視角看,強化學習在自治防御系統的應用高度敏感。美國國防高級研究計劃局(DARPA 2021)指出,強化學習通過提升不同自治系統效能助力軍隊獲得競爭優勢。軍事領域的強化學習應用推動了全自主系統發展,大幅降低人工干預需求并優化軍事資產配置。然而,強化學習融入自主防御系統仍存在亟待突破的瓶頸:除倫理沖突與自主系統軍事行動法律地位問題外,責任歸屬與決策透明性難題,以及意外沖突升級風險(Smith, R. J., & Jones, A. M. 2019)均可能危及強化學習防御系統的穩定性。

自主防御系統

在定義自主防御系統時,此類技術被闡釋為通過最小必要輸入和指令進行操作或控制,并融合算法、人工智能及機器學習以實現實時決策執行(McLean, A. 2023)。這些系統由無人飛行器、機器人系統及人工智能自主載具等技術集合構成;其中部分系統用于監視、偵察、任務獲取和作戰目的,幾乎無需人工操作員指揮。若缺乏對自主防御系統作用的理解,則難以充分認知現代戰爭形態(Smith, J. 2024)。其主要優勢包括:首先,提升作戰效率;其次,減少人力介入;第三,實現力量集約化;最后,構成戰略核威懾屏障。無人機可在戰場上空保持較長效滯空時間,這對規劃決策至關重要。這使得數十至數百名操作員即可控制數百上千臺機器人資產,從而在不擴編兵力的前提下提升軍事編隊整體作戰效能(Brown, P. 2024)。然而在所有深度強化學習(DRL)技術中,強化學習(RL)因其能助力達成該目標而更適用于全自主防御系統。強化學習是一種將訓練行為與決策融合的學習機制,模型通過獎勵目標選擇與懲罰不良特征來構建實踐體系。總體而言,強化學習可應用于目標識別追蹤、隨機環境學習能力培養,以及開發防御型自由機動自主系統(AS)的新型任務規劃方法。毋庸置疑,自主防御系統在軍事領域屬新興事物且具備顯著優勢:高強度持續作戰能力、規避人員傷亡風險及高效預警能力。強化學習的融合更提升了系統適應性,使其成為當代戰爭中至關重要的戰略工具(Turner, M. 2024)。

動態對抗環境中的強化學習

強化學習(RL)是應對動態環境的強大工具,因其能在該類環境中學習最優策略。系統可隨環境變化優化策略,使智能體在不可預測環境中有效運作。在機器人領域,強化學習已用于開發能適應地形變化或障礙物的機器人系統,從而提升操作效率。模型驅動強化學習、元強化學習等方法可訓練智能體實時學習更新環境變化的能力。在防御戰略中,強化學習必須應對動態環境、突發威脅及其他對抗行為。因此需采用對抗訓練、多智能體強化學習(MARL)等方法。此類系統能在短時間內識別消除網絡威脅,增強關鍵資產防護效能。值得注意的是,強化學習在非防御領域(如金融算法交易、自動駕駛)的成功應用,提供了可轉化至防御場景的實踐經驗——例如應對市場管理信息系統(MIS)的交易策略生成。強化學習在高風險不可控環境中的成功案例,有力佐證了其在防御領域更廣闊的應用前景。

基于強化學習的防御系統架構

1.傳感器、執行器與決策模塊的強化學習算法集成

強化學習(RL)驅動的防御系統架構通常包含若干核心組件:傳感器、執行器及機器人決策單元。傳感器負責采集環境態勢數據,這對強化學習至關重要。例如在自主無人機中,攝像頭、激光雷達(LiDAR)與雷達等傳感器將實時數據傳輸至強化學習算法以供決策(Ranjan等,2020)。執行器作為模型物理執行單元,負責實現強化學習模型的決策輸出,例如調整無人機航跡或觸發防御機制(Bhatnagar等,2022)。前文所述決策模塊包含強化學習算法,其接收傳感器數據并根據習得策略生成行動指令。這些組件必須實現無縫互操作,以確保數據流暢交換與行動及時執行(Gao等,2023)。該架構需精心設計以應對防御場景的耦合性與不確定性,這使得接口設計與集成成為剛性需求(Mousavi等,2021)。

圖:RL驅動防御系統的組成和流程示意圖

2.仿真環境在強化學習模型訓練中的作用

仿真環境對防御系統強化學習模型訓練具有關鍵價值。它們提供基于合成數據的訓練環境,使算法在實戰部署前獲得充分訓練。通過模擬特定作戰環境與威脅態勢,強化學習模型可在規避實彈測試風險的前提下實現能力提升(Lillicrap等,2015)。真實場景模擬是強化學習算法高效訓練的另一要素,因其能復現復雜動態的現實環境(Tamar等,2016)。此外,仿真支持迭代優化——訓練模型根據仿真評估的性能數據進行持續修正(Schulman等,2017)。此類高擬真仿真環境率先驗證強化學習在動態對抗環境中的效能,并有助于解決模型實戰部署前的潛在問題(Baker等,2019)。

3.實戰部署挑戰與軟硬件協同設計考量

強化學習在防御系統部署中面臨的主要現實問題包括:核心挑戰在于仿真訓練模型轉實戰部署時的性能落差。仿真環境與現實條件的差異可能導致實戰表現不佳甚至完全失效(Tachet等,2020)。這要求采用軟硬件協同設計策略——即針對特定系統同步設計處理器/傳感器等硬件資源與強化學習模型等軟件組件(Xia等,2019)。此外,強化學習算法在物理系統的實時性實現及不可控因素處理亦存重大難點(Kahn等,2017)。設計過程必須權衡關鍵因素:機載硬件的日常算力限制,以及確保強化學習模型在可靠性與響應時間方面滿足嚴苛條件(Sutton & Barto,2018)。

強化學習在自主防御系統的戰略應用

強化學習(RL)正成為提升軍用無人機作戰效能的前沿技術。基于強化學習的方法可優化任務期間無人機航跡規劃與傳感器控制,有效規避危險態勢(Gao, Y.等,2021)。此類學習機制確能增強無人機環境適應能力,從而提升情報收集效率。在目標接戰、任務分配與追蹤領域,強化學習算法顯著提高無人機戰場目標定位與高精度追蹤能力。自適應導航是強化學習在無人機的另一重點應用方向,通過訓練無人機在擁擠敵對地形中的機動策略,實現實時決策并提升作戰區域生存幾率。協同強化學習技術已應用于無人機集群通信支持,使集群能夠協同達成任務目標(Kuwata, Y.等,2019)。該技術在搜救行動、廣域空中監視及突擊作戰中效果顯著。強化學習在自主地面載具的控制應用,則實現復雜地形的路徑點規劃、后勤最優補給路線決策及戰場態勢自適應(Liu X等,2020)。機器人應用中,強化學習在拆彈排爆與救援任務中發揮關鍵作用——機器人通過歷史處置經驗學習,顯著提升爆炸物處理精度與效率(Kalashnikov, D.等,2018)。多智能體強化學習對地面自主作戰單元的協同防御至關重要:多類型機器人系統可協同工作、交換信息并同步行動節奏以高效應對威脅。水下無人機及海軍防御系統中,強化學習算法用于在廣闊模糊水域探索最優作戰路徑與策略。海洋極端環境下,強化學習驅動系統可改進路徑規劃、威脅識別及規避策略。此類系統能適應海洋環境的非線性特征、水文動態及敵對潛艇/水雷等風險因素。海軍對抗期間需持續強化聲納等海洋探測器與強化學習的融合應用(Ma, H.等,2022)。

付費5元查看完整內容

本研究探討人工智能(AI)輔助軍事情報分析工作的潛力。專用AI工具集成文本檢索、自動摘要及命名實體識別(NER)功能。研究表明,在時間壓力下,使用AI功能的實驗組分析質量優于對照組,且其概率估計更接近專家評估值。盡管實驗組分析結果與概率估計均顯著更優,但未發現其對分析任務所使用信息來源的信心更高。最后,本文指出AI在軍事情報應用中的局限性,尤其體現在處理模糊矛盾信息時的分析能力。

當前可獲取的數據規模表明,軍事情報領域必須應用人工智能(AI)(Gartin, 2019)。AI的效益源于多維度優勢,需明晰其潛在附加值(Vogel等, 2021)。軍事情報的核心職能是收集與分析信息,輔助軍事決策者制定策略。從學術視角看,軍事情報是融合政治學、經濟學、社會學與心理學等多學科的交叉研究領域(Albrecht等, 2022;Svendsen, 2017)。

軍事情報旨在通過信息采集與分析構建全面態勢圖景,包括他國武裝力量數據收集、作戰計劃研判,以及影響本國安全態勢的動向監測(Sadiku與Musa, 2021)。分析師承擔情報數據收集、分析與呈現職責。AI技術發展為分析工具集成提供了多維支持可能(Cho等, 2020),預期將減輕分析師負擔,使其聚焦于核心分析評估工作(Hare與Coghill, 2016)。需強調的是,AI應作為輔助而非替代工具,確保分析師始終理解評估依據信息(Blanchard與Taddeo, 2023)。

本研究基于專有AI工具deepCOM開展實驗。該工具依托大語言模型(LLM),核心功能包括:語義搜索(支持直接提問并標注來源)、自動摘要(生成短句摘要定位相關文獻)及命名實體識別(NER)自動標注(標記時間、地點、組織與人名)(Devlin, 2018)。當前AI已滲透幾乎所有軍事領域(Rashid等, 2023),人機交互成為關鍵研究方向,涉及多媒介信息傳遞與對話形式優化,旨在提升個體創造力、生產力與決策效能(Dell'Acqua等, 2025)。信任構建(McNeese等, 2021)與協同態勢感知(Gorman等, 2017)亦是本研究重點。

相較于既有研究聚焦AI在大數據管理中的作用(Horlings, 2023),本文關注AI對人類分析評估的輔助價值。通過實驗驗證,探討AI在軍事情報分析中的增效機制,重點分析人機交互信任提升與AI透明度優化的路徑。

全文結構如下:第二章基于情報周期理論解析軍事情報分析流程;第三章闡釋實驗AI功能及其對分析師的支撐機制;第四章詳述實驗設計;第五章呈現實驗結果;第六章討論研究發現;第七章總結結論。

deepCOM演示器中支持軍事情報的AI功能

deepCOM演示器是一款集成AI功能的軍事情報分析工具,旨在輔助分析師工作。其實驗性測試的AI功能如下:三項AI功能中,AI搜索與自動摘要基于大語言模型(LLM),第三項為命名實體識別(NER)。盡管德國情報機構因北約、聯合國與歐盟等國際架構需使用英語工作,但其自產情報以德語生成,故deepCOM的界面與輸出均為德語。

  • 文本數據庫的智能搜索
    傳統文本數據庫搜索基于詞頻匹配(即“詞袋模型”,BOW),搜索結果排序取決于關鍵詞出現次數,而非語義關聯(Qader等, 2019)。用戶需將問題拆解為多個關鍵詞輸入(Bohne等, 2011),而非直接輸入完整問句。此類搜索效率較低:首先,強制簡化為關鍵詞導致信息丟失(如介詞、格位、數字與變位形式的省略可能影響結果);其次,流程不直觀(無法像互聯網搜索引擎直接輸入完整問句);最后,僅依賴詞頻易返回含關鍵詞但無關的文檔。

AI搜索可解決上述問題:其能解析完整問句,減少信息損失。deepCOM的AI搜索基于LLM實現,根據問題復雜度呈現系統生成答案或直接引用原文。基于LLM的AI搜索答案不受問句措辭限制,且能處理同一實體的不同拼寫(如阿拉伯專有名詞的多種音譯形式)。答案始終附帶全文引用,提升可靠性并降低LLM“幻覺”(即生成看似合理但虛構的信息)風險。

  • 命名實體識別
    命名實體識別(NER)指從非結構化文本提取實體并分類至預定義類別(Lample等, 2016)。deepCOM的NER基于谷歌發布的Transformer雙向編碼器模型(Devlin, 2018; Yadav與Bethard, 2019)德語再訓練版本,可自動識別時間、地點、組織與人名實體(無需針對特定語料庫優化)。由于文本中實體常以變格形式出現,系統通過詞形還原將其轉換為基本形式以增強可比性(如Mittelmeers、Mittelmeere→Mittelmeer)。該功能整體運行準確,但偶見罕見實體分類錯誤或詞形還原失誤。軍事情報中NER應用詳見Nitzl等(2024a)。

NER可顯著提升分析效率:自動標注替代耗時的手工標注,幫助分析師快速篩選有價值文獻;閱讀時顏色標注加速關鍵信息定位;提取的實體可在地圖界面可視化,輔助事件定位與態勢整合(支持熱力圖顯示區域事件聚類)。

圖:上圖:NER自動從文本中提取時間、地點、組織和人名。中圖:[德語]文本中已識別實體的顏色編碼。下圖:在地圖上顯示已識別的位置。

  • 自動文本摘要
    除全文展示外,deepCOM通過將每段壓縮為一句,將文獻長度縮減至原文1/3至1/2。自動摘要與NER目標類似——協助分析師快速評估文獻相關性。摘要的詳略取舍需根據具體場景權衡。

摘要功能由deepCOM后端LLM驅動,神經網絡算法通過合并段落或刪減句子生成連貫摘要。當前實現主要依賴句子成分省略,測試表明摘要質量總體良好,但偶現LLM訓練數據引入的額外背景信息。

付費5元查看完整內容

人工智能尤其是深度學習技術的最新進展,加速了不同應用領域的創新與發展。深度學習技術的發展深刻影響了軍事發展趨勢,導致戰爭形式和模式發生重大變化。本文將概述深度學習的歷史和架構。然后,回顧了相關工作,并廣泛介紹了深度學習在兩個主要軍事應用領域的應用:情報行動和自主平臺。最后,討論了相關的威脅、機遇、技術和實際困難。主要發現是,人工智能技術并非無所不能,需要謹慎應用,同時考慮到其局限性、網絡安全威脅以及在 OODA 決策循環中對人類監督的強烈需求。在戰略決策層面需要某些保障機制。在這方面,最重要的一個方面與軍官人員的教育、培訓和選拔有關。

人工智能(AI)是一門涉及心理學、認知科學、信息科學、系統科學和生物科學的綜合性技術。自 1956 年夏天約翰-麥卡錫在達特茅斯會議上首次提出人工智能概念以來(Hyman,2012),人工智能技術已進入高速發展的新時期,并被公認為未來最有可能改變世界的顛覆性技術。人工智能應用的成功激發了廣大軍事研究人員的積極探索。世界軍事強國預見到人工智能技術在軍事領域的廣闊應用前景,認為未來的軍備競賽將在智能競爭的背景下展開。在不久的將來,人工智能將在 “觀察、定向、決策、行動”(OODA)循環中扮演 “智能決策中心 ”的角色,因為它的技術已經成熟,可靠性也在不斷提高。人工智能的重要性不言而喻,智能指揮系統的貢獻將超越傳統方法。利用人工智能和其他相關技術可以減少整個 OODA 循環所消耗的時間,從而實現多域聯合作戰中的指揮與控制目標。

下文回顧了 DL 在軍事上的應用,最后討論了其潛在的威脅和機遇。

軍事情報

深度學習的起源應用是圖像分類任務。首先,Rawat 和 Wang 的論文(2017 年)介紹了現實圖像識別中最先進的深度學習系統。從軍事角度來看,關鍵應用之一是衛星圖像。這些應用需要人工識別圖像中的物體和設施(Pritt,Chern,2017 年)。一個具有代表性的例子是通過卷積神經網絡理解多光譜衛星圖像(Mohanty 等人,2020 年)。基于側掃聲納技術生成的圖像可以進行圖像分類,從而實現水下態勢感知。長期以來,聲納圖像自動分析的研究主要集中在經典方法,即基于非深度學習的方法上(Steiniger 等人,2022 年)。但近年來,深度學習在這一研究領域的應用不斷增加。Neupane 等人(2020 年)概述了過去和當前涉及深度學習的研究,包括側掃和合成孔徑聲納圖像的特征提取、分類、檢測和分割。深度學習模型可直接應用于軍事數據的被動聲納信號分類,這一點并不廣為人知。艦船輻射的噪聲可用于被動聲納系統的識別和分類。已經提出了幾種基于聲學特征的軍用艦船分類技術,這些聲學特征可以通過在聲學車道上進行的受控實驗獲得。由于艦船和船員必須脫離艦隊,因此獲取此類數據的成本是一個重要問題(Fernandes 等人,2022 年)。這種進步為廣泛的多模態和多重情報提供了機會,在這種情況下,眾多空中、地面和空間傳感器以及人類情報會產生結構化傳感器和非結構化音頻、視頻和文本 ISR(情報、監視和偵察)數據。當然,各級數據融合仍是一項具有挑戰性的任務。雖然單個模式的算法系統運行良好,但無縫集成和關聯包括文本、高光譜和視頻內容在內的多情報數據的工作仍在進行中(Das 等人,2018 年)。

自主平臺

在民用領域,自動駕駛汽車正在成為現實。在智能輔助駕駛方面,第三級的車輛自動駕駛(智能巡航控制、行人識別、自動剎車、盲區傳感器、罕見交叉交通警報、避免碰撞等)已在商用車和私家車上應用多年。第四和第五級別的自動駕駛(有監督自動駕駛和完全無監督自動駕駛)目前正在開發中。Kisa?anin(2017 年)的論文是對自動駕駛藝術和科學發展的最早描述之一。深度學習方法已成為設計和實施此類系統不可或缺的方法。Hagstr?m (2019)首先介紹了機器學習和自主系統的軍事應用。根據他的論文,為自動駕駛車輛設計一個能夠在所有駕駛場景中提供足夠性能的控制器具有挑戰性,因為環境非常復雜,而且無法在部署后可能遇到的各種場景中測試系統。然而,深度學習方法已顯示出巨大的潛力,不僅能為復雜的非線性控制問題提供出色的性能,還能將先前學習到的規則推廣到新的場景中。基于這些原因,將深度學習用于車輛控制正變得越來越流行。Kuutti 等人(2020 年)的論文對文獻中報道的旨在通過深度學習方法控制車輛的大量研究工作進行了調查。正如 Vecherin 等人(2020)所指出的,自主軍用車輛面臨著巨大的挑戰。具體而言,需要解決的任務包括:先進的當前地形感知、越野運行、運行時的未知地形、在開闊空間完全重定路線的可能性、確定可能的替代路線以及針對給定地形條件和車輛的最佳車輛控制。軍用自動駕駛車輛的主要區別在于:非公路運行、運行時的未知地形以及在開闊空間完全重新規劃路線的可能性。在這種環境下,智能自主控制所需的算法和環境感知能力與工業中民用的算法和環境感知能力不同。最新的研究結果表明,基于 ML 的算法可以成功地解決其中的一些難題,從而為軍用車輛的手動駕駛提供實質性幫助。DL 方法可能也適用于無人駕駛水下航行器。首批研究之一是無人潛航器上聲納的自動目標識別方法。在這種方法中,目標特征由一個在聲納圖像上運行的卷積神經網絡提取,然后由一個基于人工標注數據訓練的支持向量機進行分類(Zhu 等人,2017 年)。實際上,側掃聲納圖像在軍事和商業應用中都具有重要意義。在 Einsidler 等人(2018 年)的論文中,將該方法應用于現有數據的結果表明,該方法在探測海底物體/異常方面簡單而穩健。

值得一提的是,自主武器的首批正式軍事應用之一是 Kargu 無人機。這是一種小型便攜式自殺式無人機,由土耳其 Savunma Teknolojileri Mühendislik ve Ticaret 公司生產。它可以由個人攜帶,有自主和手動兩種模式。通過其實時圖像處理能力和平臺上嵌入的深度學習算法,“卡古 ”可有效用于打擊靜態或移動目標。自主武器正在迅速擴散:在可獲取性、自主程度、國際開發商、情報、偵察和致命打擊等方面(Longpre 等人,2022 年)。有很多挑戰者,如自主系統,仍然極易出錯,表現出很差的魯棒性、可解釋性和對抗脆弱性。此外,需要強調的是,國際政策仍然模糊不清,缺乏現實的問責和執行機制(Hayir,2022 年)。

挑戰和威脅

DL 軍事應用帶來了許多積極的機遇,但同時也產生了大量的風險和問題。這種權衡視角如表 1 所示。

表 1. 在軍事應用中應用機器學習的優缺點

優點/優勢 風險/缺點
OODA 決策和情報分析 決策質量更高、更精確;縮短決策時間;成本效益;減少情緒和偏見;危機情況下的理性行為;根據預測分析生成潛在方案的可能性;處理海量情報數據的可能性; 極易受到網絡攻擊;分析錯誤:偏差、假陽性和假陰性錯誤、風險治理;假陽性和/或假陰性錯誤的成本;缺乏解釋能力;不知道對 “黑天鵝 ”事件的反應;開發和維護機器學習模型需要很高的技能;決策環路的加速和缺乏人工干預可能會導致危機升級而不是降級。
軍事行動和自主平臺 通過遠程操作降低傷害風險和受傷士兵人數;精確瞄準;減少戰備時間;成本效益;危機情況下的理性行為 極易受到網絡攻擊;有被對手控制的風險;假陽性和假陰性錯誤的代價巨大;由于缺乏足夠的訓練數據,不清楚是否可以在復雜情況下使用自主平臺;基于 “盲目 ”執行損失函數的意外行為可能意味著沖突升級。

軍事人工智能應用在設計和操作使用方面面臨的主要挑戰有

1.復雜系統建模:戰爭中戰場信息(包括作戰單位和武器裝備)超載。現實情況極其復雜,包括意外情況(如 “黑天鵝”),這些情況可能不在訓練數據中。

2.信息不準確:在對抗情況下,獲得的信息總是有限的,信息的真實性也無法保證。在信息不準確的情況下做出決策并確保利益最大化,需要綜合權衡。

3.訓練數據的數量和質量:可接受的 DL 系統性能水平主要取決于高質量、低偏差和大量的數據。目前,從戰術到行動計劃的生成,樣本學習的來源都存在很大困難。實戰經驗仍面臨訓練數據量不足的問題。

此外,軍事系統的網絡安全也是關鍵問題之一。

結論

人工智能技術并非無所不能。它需要與傳統技術相結合,如 OODA 循環中的人類,其中領域知識和常識的作用不可或缺。在戰略決策層面需要某些保障機制。在這種情況下,機器學習最重要的一個方面與軍隊士兵和軍官的教育、培訓和選拔有關。

兩項重大技術進步將很快對人工智能的軍事應用產生強烈影響。首先,生成式人工智能的發展為合理處理文本等非結構化數據提供了絕佳機會。其次,Metaverse 技術的發展可能會徹底重新定義未來戰場。這兩個技術方向需要從軍事角度進行深入而有意義的分析。

付費5元查看完整內容

配備先進傳感器的無人平臺的集成有望提高態勢感知能力,緩解軍事行動中的 “戰爭迷霧”。然而,管理這些平臺涌入的大量數據給指揮與控制(C2)系統帶來了巨大挑戰。本研究提出了一種新穎的多智能體學習框架來應對這一挑戰。該方法可實現智能體與人類之間自主、安全的通信,進而實時形成可解釋的 “共同作戰圖景”(COP)。每個智能體將其感知和行動編碼為緊湊向量,然后通過傳輸、接收和解碼形成包含戰場上所有智能體(友方和敵方)當前狀態的 COP。利用深度強化學習(DRL),聯合訓練 COP 模型和智能體的行動選擇策略。展示了在全球定位系統失效和通信中斷等惡劣條件下的復原能力。在 Starcraft-2 模擬環境中進行了實驗驗證,以評估 COP 的精度和策略的魯棒性。報告顯示,COP 誤差小于 5%,策略可抵御各種對抗條件。總之,貢獻包括自主 COP 形成方法、通過分布式預測提高復原力以及聯合訓練 COP 模型和多智能體 RL 策略。這項研究推動了自適應和彈性 C2 的發展,促進了對異構無人平臺的有效控制。

圖:從學習到的交流中預測 COP 的框架概覽。在決策過程中確定并使用 COP。使用 QMIX作為 COP 集成的 MARL 方法示例。

配備先進傳感器的無人平臺的集成為減輕 “戰爭迷霧 ”和提高態勢感知能力帶來了希望。然而,管理和傳播來自此類平臺的大量數據對中央指揮與控制(C2)節點的信息處理能力構成了巨大挑戰,特別是考慮到隨著平臺數量的增加,數據量也會呈指數級增長。目前的人工處理方法不適合未來涉及無人平臺群的 C2 場景。在本研究中,我們提出了一個利用多智能體學習方法來克服這一障礙的框架。

我們考慮的框架是,智能體以自主方式相互通信(以及與人類通信),并以數據驅動的方式訓練這種通信功能。在每個時間步驟中,每個智能體都可以發送/接收一個實值信息向量。該向量是智能體感知或視場(FoV)的學習編碼。這些向量不易被對手解讀,因此可以實現安全的信息傳輸。

在接收方,必須對信息進行解碼,以恢復發送方的感知和行動。此外,還應將信息整合(隨時間匯總)到 “共同作戰圖像”(COP)中。與編碼器一樣,解碼器也是以數據驅動的方式學習的。在本文中,我們將 COP 的定義簡化為戰場上每個友方和敵方智能體的當前狀態(位置、健康狀況、護盾、武器等)。我們認為,COP 對決策智能體至關重要。

近年來,以數據驅動方式進行端到端訓練的人工智能/人工智能方法大有可為。在數據驅動型自主 COP 的背景下,一個優勢是無需對傳感器和執行器中的噪聲、對手的動態等做出建模假設。通過充分的訓練,我們的數據驅動方法將產生高度精確的 COP。

不過,ML 模型可能對訓練數據或訓練場景的偏差很敏感。這與陸軍 C2 場景中通常假設的 DDIL(拒絕、中斷、間歇和有限影響)環境形成了鮮明對比。我們的實驗強調評估對霧增加、全球定位系統失效和通信中斷(如干擾)的適應能力。

我們使用深度神經網絡(DNN)的深度學習實現了編碼器和解碼器的數據驅動端到端訓練。將 DNN 應用于 COP 形成的一個挑戰是通信中缺乏人類可解釋性。人類可解釋性對于人類操作員有效控制蜂群至關重要。例如,通過解釋通信,操作員可以理解蜂群用于(自主)決策的特征。我們的方法具有人機互換性,這意味著人類操作員可以解碼傳入的信息,并將自己的感知編碼,與蜂群進行交流。由此產生的 COP 使人類能夠指揮蜂群。

在實踐中,COP 被大量用于任務執行,例如,確保協調運動。我們假設,將 COP 納入自主決策智能體將產生彈性多智能體策略(例如,對敵方變化的彈性)。我們在實驗中將有 COP 和沒有 COP 的多智能體策略學習與多種最先進的方法進行了比較,并驗證了這一假設。

接下來,我們總結一下我們的方法。我們首先描述了我們的深度學習方案,其中每個智能體將其感知和行動編碼成緊湊向量并進行傳輸。各智能體共享底層嵌入向量空間,以實現對態勢的共同理解。每個智能體都要訓練一個編碼器-解碼器,以生成本地 COP。本地 COP 應與智能體的感知一致,并能預測行動區域內所有單元的狀態(包括位置)。

在不同的模擬場景、初始部隊配置和對手行動中,使用深度強化學習(DRL)對 COP 和智能體策略進行端到端訓練。訓練的輸出是一個編碼器-解碼器神經網絡(NN)和一個跨智能體共享的策略 NN。可通過多種方式對訓練進行配置:最小化帶寬、最大化對干擾(如信道噪聲、數據包丟失、GPS 干擾等)的恢復能力。該方法可用于協調信息收集任務。

實驗在星際爭霸-2(SC2)多智能體環境中進行。在 SC2 中模擬的多個藍方與紅方場景中,通過經驗觀察了方法的有效性。具體來說,在具有挑戰性和現實性的 TigerClaw 場景(圖 1)中測試和評估了方法,該場景由 DEVCOM 陸軍研究實驗室(ARL)和陸軍主題專家(SMEs)在美國佐治亞州摩爾堡的上尉職業課程中開發。

圖 1:(左)Tigerclaw場景中的狀態示例。(右)每個智能體的感知(本地觀察)和它們之間的通信聯系。

對 COP 的準確性和幻覺進行評估,以揭示有趣的訓練動態。在整個模擬過程中,方法生成的 COP 高度準確,誤差小于 5%(與地面實況相比)。為了測試策略的魯棒性,我們將我們的方法與多種最先進的多智能體 RL 方法和基線進行了比較。結果表明,我們的方法所制定的策略能夠抵御視覺范圍下降、通信能力下降、GPS 被拒絕以及場景變化等因素的影響。

總之,這項研究通過數據驅動的 COP 形成,實現了人在環內的異構自主平臺的指揮和控制,推動了自適應和彈性 C2 領域的發展。其貢獻如下:

  • 實時自主形成可解釋的共同行動圖像(COP)的方法,包括預測整個行動區域的敵方位置。

  • 由于利用智能體間的通信進行分布式 COP 預測,因此展示了對可視范圍和 GPS 拒絕的更強的應變能力。

  • 通過聯合訓練 COP 模型和多智能體 RL 策略,提高整體任務成功率。

付費5元查看完整內容

人工智能(AI)技術,尤其是機器學習技術,正在通過增強人類決策能力迅速改變戰術行動。本文探討了人工智能驅動的人類自主組隊(HAT)這一變革方法,重點關注它如何增強人類在復雜環境中的決策能力。雖然信任和可解釋性仍是重大挑戰,但我們的探討重點是人工智能驅動的 HAT 在改變戰術行動方面的潛力。通過改善態勢感知和支持更明智的決策,人工智能驅動的 HAT 可以提高此類行動的有效性和安全性。為此,本文了提出了一個綜合框架,該框架涉及人工智能驅動的 HAT 的關鍵組成部分,包括信任和透明度、人類與人工智能之間的最佳功能分配、態勢感知和道德考量。所提出的框架可作為該領域未來研究與開發的基礎。通過識別和討論該框架中的關鍵研究挑戰和知識差距,我們的工作旨在指導人工智能驅動的 HAT 的發展,以優化戰術行動。我們強調開發可擴展且符合道德規范的人工智能驅動的 HAT 系統的重要性,該系統可確保無縫的人機協作、優先考慮道德因素、通過可解釋的人工智能(XAI)技術提高模型的透明度,并有效管理人類操作員的認知負荷。

人工智能和自主技術的融合給包括國防和戰術行動在內的各行各業帶來了革命性的變化。HAT 的興起可歸因于幾個因素,包括自主技術和人工智能的快速進步、任務和環境的日益復雜、能力更強的自主系統的發展,以及數據和計算能力的不斷提高。隨著這些技術變得越來越復雜和強大,人們越來越認識到,將人類的認知能力與自主系統的計算能力和效率相結合,可以實現潛在的合作。現代 HAT 系統的興起也是由于需要應對快速發展和動態環境的復雜性和挑戰。隨著任務變得越來越復雜、對時間越來越敏感、數據越來越密集,人類與智能體之間的協作對于有效駕馭和應對這些挑戰變得至關重要。

HAT 是一個新興領域,探索人類與自主系統之間的協作伙伴關系,以執行任務或實現共同目標。這涉及一種協作安排,其中至少有一名人類工作者與一個或多個智能體協作。這種協作方式有可能徹底改變各行各業完成任務的方式,并為人類與智能自主系統攜手解決復雜問題和實現共同目標的未來鋪平道路。HAT 系統旨在允許人類將任務委托給智能自主體,同時保持對整體任務的控制。這里所說的智能體是指在決策、適應和通信方面具有不同程度自治能力的計算機實體。這一定義得到了先前研究成果的支持。在 HAT 中,人類的認知能力與自主系統的計算能力和效率相結合,可以提高性能、決策和系統的整體能力。

在此,將定義和澄清一些關鍵概念,這些概念對于理解本研究的范圍和背景至關重要。這些概念包括人工智能、自主、自主系統和戰術自主。通過提供明確的定義并區分這些術語,我們希望讀者能夠達成共識。

自主性。HAT背景下的自主性是指智能自主系統或智能體在團隊環境中獨立運行和決策的能力,具有不同程度的自我管理能力。這涉及到自主系統在學習、適應和推理基礎上更高程度的決策能力。它是系統的一種屬性,而非技術本身。自主實體可以感知、推理、規劃和行動,以實現特定的目標或目的,而無需人類的不斷干預。值得注意的是,自主的程度可能各不相同,有的系統可以完全自主地做出所有決定,有的系統則是半自主的,在某些情況下需要人的干預。在戰術自主方面,HAT 涉及將自主能力整合到戰術行動中。這種整合可包括各種應用,如利用自主系統收集情報、執行監視和其他關鍵活動。自主性使系統能夠在復雜和不確定的環境中運行,從經驗中學習,并在任何情況下都無需明確的人工干預即可做出決策。然而,必須將其與傳統自動化區分開來,傳統自動化通常遵循預先編程的規則、決策樹或基于邏輯的算法來執行任務或做出決策。傳統自動化的適應性和靈活性有限,無法在沒有明確編程的情況下處理動態或不可預見的情況。本文討論了人工智能驅動的自主性如何通過強調學習、適應和決策能力來區別于傳統自動化。這些能力最終會提高戰術行動中人類-自動駕駛團隊合作的整體有效性和敏捷性。

自主系統。自主系統可以在沒有人類持續控制的情況下執行任務或操作。它們利用人工智能算法和傳感器感知和導航環境,實現高度自主。

戰術自主。在本研究中,戰術自主是指自主系統在動態和復雜的作戰環境中做出實時決策和采取行動的能力。這涉及人類與自主系統之間的無縫協調和互動,使它們能夠作為一個優勢互補的統一團隊發揮作用。HAT 的重點是通過人類操作員與智能自主系統之間的無縫協調與協作,實現共同的任務目標。本文介紹了一種人工智能驅動的 HAT,它將人工智能集成到 HAT 框架中。這種方法結合了人類專業技能和人工智能能力的優勢,從而提高了決策、態勢感知和作戰效率。戰術自主性將人類的認知能力(如適應能力、直覺和創造力)與自主系統的計算能力、精確性和動態執行能力相結合,有可能給包括國防、應急響應、執法和危險環境在內的各個領域帶來革命性的變化。必須區分戰術自主和戰略自主,以明確人工智能驅動的人類-自主團隊如何在軍事和作戰環境中促進這兩個層次的自主。戰略自主是指一個國家或組織就廣泛的安全目標做出自主選擇的能力,而戰術自主與戰略自主相反,側重于單個單位或團隊在特定任務中的獨立行動。戰略自主涉及更高層次的決策和規劃,要考慮長期目標、總體任務目標和更廣泛的態勢感知。它涉及指導整體任務或戰役的協調、資源分配和戰略決策過程。

戰術行動。戰術行動涉及在特定區域或環境中的協調活動,通常是在軍事、執法或戰略背景下,重點是通過快速決策、適應動態形勢以及在局部區域和時間范圍內應用軍事技能和資源來實現短期目標。

近年來,人工智能、機器學習(ML)、機器人和傳感器技術的進步為實現戰術自主的潛力鋪平了道路。這些技術進步使自主系統能夠執行復雜任務,實時處理大量數據,做出明智決策,并與人類團隊成員無縫協作。這為增強人類能力、優化資源配置和提高整體作戰效率提供了新的可能性。然而,有效的戰術自主需要全面了解人類與自主系統之間的動態關系。包括信任、溝通、共享態勢感知和決策在內的人為因素在確保 HAT 取得成功方面發揮著至關重要的作用。必須認真應對各種挑戰,如建立適當的信任度、解決潛在的認知偏差、管理工作量分配和保持有效的溝通渠道,以確保無縫協作,最大限度地發揮戰術自主的潛在優勢。戰術自主的 HAT 是一種使用人類和自主系統來操作和控制武器及其他軍事系統的協作方法。在 HAT 中,人類操作員和自主系統共同努力實現共同目標。人類操作員負責總體任務并做出高層決策。自主系統負責執行指定任務。

正如第四節詳細解釋的那樣,人類操作員根據自己的經驗和對任務目標的理解,貢獻戰略洞察力、背景和高層決策能力。交互和通信代表著界面和通信渠道,各組成部分可通過這些渠道交換信息、開展協作并做出共同決策。在共享決策過程的背景下,人類操作員和自主系統參與協作決策過程,共享見解、數據和建議,以制定有效的戰略。自主系統負責實時數據處理、分析和特定任務的執行,為人類操作員提供及時、相關的信息支持。隨后,一旦做出決策,自主系統就會根據共同決策過程的指令執行具體任務,包括偵察、導航或數據收集。

本文全面探討了 HAT 的歷史發展和現狀,并深入探討了利用人工智能實現戰術自主的機遇、挑戰和潛在的未來方向。它強調了人工智能對戰術自主性的變革性影響,并提出了改進決策、態勢感知和資源優化的機遇。通過認識和應對與采用人工智能相關的挑戰,并規劃未來的研究方向,可以為人類與自主系統無縫協作的未來鋪平道路,最終實現戰術環境中更安全、更高效、更成功的任務。

圖1:HAT的應用。

付費5元查看完整內容

人們對使用語言模型(LM)進行自動決策的興趣與日俱增,多個國家都在積極測試 LM,以協助軍事危機決策。為了仔細研究在高風險環境中對 LM 決策的依賴,本文研究了危機模擬(“兵棋推演”)中反應的不一致性,這與美國軍方進行的測試報告類似。先前的研究表明了 LM 的升級傾向和不同程度的攻擊性,但僅限于預先定義行動的模擬。這是由于定量測量語義差異和評估自然語言決策而不依賴預定義行動所面臨的挑戰。在這項工作中,查詢 LM 的自由形式回答,并使用基于 BERTScore 的指標來定量測量回答的不一致性。利用 BERTScore 的優勢,證明了不一致性度量對語言變化的穩健性,在不同長度的文本中都能保持問題解答設置中的語義。研究表明,即使在調整兵棋推演設置、對涉及沖突的國家進行匿名化處理或調整采樣溫度參數 T 時,所有五個測試的 LM 都會表現出表明語義差異的不一致性水平。還研究了不同的提示敏感度變化對溫度 T=0 時不一致性的影響。我們發現,在不同的消融水平下,對于大多數研究模型而言,語義等同的提示變化導致的不一致性可能超過溫度采樣導致的響應不一致性。考慮到軍事部署的高風險性質,建議在使用 LMs 為軍事決策或其他高風險決策提供信息之前,應進一步加以考慮。

圖 3:LLM 的不一致性。繪制了所研究的每個 LLM 的不一致性得分。每個分布代表 20 個數據點,每個數據點代表在單個模擬中測出的不一致性得分。我們發現,LLMs 表現出較高的不一致性,這表明它們產生了語義不一致的反應。還發現,持續戰中兵棋推演的升級程度對 LM 響應的不一致性沒有顯著影響。

付費5元查看完整內容

多年來,人工智能一直被用于改進信號情報的收集和分析,但本文探討了生成式人工智能可為戰略情報分析人員執行的一系列任務。文章認為,將生成式人工智能融入情報評估的最穩妥做法是作為人類分析師的 “副駕駛員”。盡管存在不準確、輸入偏差和 “幻覺 ”等問題,但生成式人工智能可以解放時間不足的分析人員,讓他們專注于人類最有價值的任務--運用他們的專業知識、隱性知識和 “現實感”。

人工智能(AI)是無法回避的。我們每個人每天都直接或間接地與它打交道。除了柯潔在圍棋比賽中輸給谷歌的 AlphaGo 這樣的偶然拐點之外,人工智能幾乎沒有大張旗鼓地滲入社會。但現在,圍繞人工智能的爭論非常突出。這主要與用戶友好型生成式人工智能軟件的發布和廣泛采用有關,其中最著名的是 ChatGPT 和 Google Bard。這些功能強大的程序潛力巨大,許多評論家認為它們的影響堪比另一場工業革命。的確,將人工智能應用到各個領域,尤其是醫學領域,可能會帶來革命性的變化;但同樣,它也會帶來巨大的潛在風險--安全、經濟、社會和文化風險。首相蘇納克(Rishi Sunak)希望英國能掌握這個等式的兩面:在人工智能監管和安全方面引領世界,11 月在布萊切利公園舉行的人工智能安全峰會就是一個標志;同時也要抓住這項技術帶來的機遇。八十年前,布萊切利公園的前主人--密碼破譯員、語言學家、數學家和工程師--曾與英格瑪機器搏斗并開創了計算技術的先河。本文關注的是生成式人工智能為他們在情報界的繼承者,特別是那些專注于情報評估技術的繼承者帶來的機遇和挑戰。文章認為,生成式人工智能有可能極大地補充分析工作。但就目前而言,它最有用的應用是作為輔助工具、副駕駛員,它有可能極大地增強分析人員的工作,但也應謹慎使用。

情報與技術是一對老朋友。幾十年來,它們彼此推動著對方的發展。這一點在電子和計算機領域體現得最為明顯。在秘密行動中,情報機構推動了技術的發展。它們還經常是新技術的早期采用者,利用新技術開發、維護和增強能力。畢竟,適應性是成功情報機構的標志之一。英國皇家情報總部成功地從模擬機構轉型為數字機構,如今甚至將自己定位為 “情報、安全和網絡機構”。人工智能已經以多種方式補充了情報工作。各國經常使用人工智能增強系統來協助收集情報。許多在秘密領域工作的私營部門承包商也在人工智能領域大顯身手。由人工智能軟件支持的閉路電視攝像網絡被廣泛用于識別和追蹤城市環境或恐怖風險較高地區(如火車站)的個人或物體。這種技術也為專制政府提供了無與倫比的機會來壓制不同意見或異議,新疆和其他地方的情況就說明了這一點。除數據收集外,這項活動的大部分內容還涉及更輕松、更高效地對數據進行鑒別或選擇,從而為時間有限的分析人員的工作提供便利,因為他們需要評估這些數據的含義。人工智能被廣泛應用于翻譯、將截獲的互聯網流量減少到可控水平、語音識別或在開放的互聯網上搜索對象的協會和聯系人等費力的任務。在英國,INDEX 系統允許分析人員在政府和外部報告中進行搜索。核心信息可以通過自然語言處理系統提取和匯總。但是,正如剛剛退休的英國聯合情報委員會主席西蒙-加斯(Simon Gass)爵士在今年 6 月指出的,“我們正處在這個階段的山腳下”。

需要將生成式人工智能和大型語言模型(LLM)整合到情報評估的正常業務中。簡單地說,生成式人工智能是指 “能夠根據訓練數據生成高質量文本、圖像和其他內容的深度學習模型”。這些技術已經在國防和情報領域受到高度重視。英國國防部國防創新總監約翰-里奇(John Ridge)最近指出,“我們可以肯定的一點是,這類能力將是絕對關鍵的”。這些能力是革命性的,還是只是情報工作的另一個發展階段,還有待觀察。但它們改變商業模式的潛力是顯而易見的。前幾代人工智能主要集中在更有效地收集數據和更有效地整理擺在民間和軍事情報分析師面前的材料上,而生成式人工智能則展示了承擔迄今為止只有人類分析師才能完成的任務的潛力。基于 LLM 的工具(如 ChatGPT)的主要賣點是,它們可以對問題或命令形式的提示做出響應,并利用現有材料在特定參數范圍內做出響應。或者換一種說法,可以命令它們按照特定規格撰寫類似人類的報告,以計算機的速度,根據大量數據提出見解或作出推論。

從這個意義上說,情報分析和評估與其他以研究為基礎的工作領域處于類似的地位,它們可能(而且幾乎肯定會)受到干擾。這些領域包括醫療和法律行業,在這些行業中,根據有關特定主題的全部數字化文獻資料快速、清晰地編寫報告或文件的前景非常誘人。教育領域也受到了影響,其傳統模式正在被檢測機器生成的作品這一挑戰以及人工智能時代究竟什么才是合法研究這一更具哲學意義的問題所顛覆。盡管如此,在這些領域中的每一個領域,理論上都可以在很大程度上將曾經由人類完成的基本任務外包給機器,盡管需要保持謹慎的警惕。這樣做已經產生了令人印象深刻、有時甚至發人深省的成果,比如一篇關于 ChatGPT 對檢測剽竊行為的影響的學術論文,該論文已提交給同行評審的學術期刊,并被其接受,但這篇論文是用 ChatGPT “寫 ”出來的。不過,如果從各行各業廣泛采用 LLM 的軼事證據來看,人類分析師的日子還遠未到頭。在不久的將來,應將 LLMs 視為情報分析員的額外工具,是提高效率和效力的輔助工具。他們是 “副駕駛員”,可以評估論點、進行數據分析或校對,而不是潛在的替代者。就目前而言,在這些領域中的任何一個領域,要想以其他方式開展工作,風險都太大了。情報工作也不例外:在全球競爭的環境中,整合這些工具的必要性只會越來越強,但過快或魯莽行事顯然存在風險。審慎的做法是,情報評估機構利用人工智能增強人類分析師的能力,為他們創造更多的時間和空間,讓他們運用不可或缺的隱性知識和 “現實感”--以賽亞-伯林(Isaiah Berlin)所說的感同身受的理解是歷史解釋的一個關鍵特征--來理解全局。

令人欣慰的是,谷歌Bard也同意這一點。當被問及它能為情報分析帶來哪些好處時,該程序回答說,它可以執行許多有用的任務。這些任務包括收集信息、分析信息、生成報告、交流研究結果、提出情報需求、管理情報資源和監督情報行動,以確保它們符合法律和道德標準。但是,當被要求確定使用 LLMs 進行戰略情報分析的風險時,它指出:"重要的是,要將機器的產出與情報分析結合起來: 重要的是要將機器輸出與人工分析和解釋以及對地緣政治環境的全面了解結合起來"。顯然,如果 “言聽計從”,該系統具有巨大的潛力。但在充分挖掘潛力之前,所有相關人員都需要考慮并解決幾個基本挑戰。

這些問題包括通常對 IT 網絡安全性和穩健性的擔憂,例如:確保集成軟件經過安全架構審查所面臨的挑戰、供應鏈風險的可能性、數據存儲的安全性、確保提交給任何系統的查詢都經過加密或不可能被敵方重建。其他值得注意的安全問題來自于大量的訓練數據、數十億個參數以及設計可行工具所需的訓練過程。目前,這項工作是在基于云的系統中進行的,因此除了常見的網絡安全問題外,還增加了數據主權問題。此外,為了最大限度地發揮其價值和效用,特別是在快速發展的情況下,LLM 需要經常或持續訪問互聯網。顯然,有必要將那些與開放互聯網保持聯系的系統與情報分析員處理更敏感材料和制作情報評估產品的封閉、保密網絡分開。

上述問題都不是不可克服的,但這些挑戰突出表明,必須有條不紊地解決這一問題,協調政府各相關機構利益攸關方,以成功實施這一至關重要的信息技術項目。這些挑戰也并不都集中在如何確保系統不被敵對勢力破壞上。還需要考慮監管問題。事實上,大衛-安德森(David Anderson)勛爵在上議院關于人工智能的辯論中指出,"在一個人人都在使用開源數據集來訓練大型語言模型的世界里,英國信息中心受到了《調查權力法》第 7 部分的獨特限制。這些限制'在某些重要情況下影響了英國信息中心的靈活性,影響了它與商業伙伴的合作,影響了它招聘和留住數據科學家的能力,并最終影響了它的效率'。

只要能找到令人滿意的解決方案,LLM 對分析師工作的許多方面都極為有用。其中包括較為傳統但費力的任務,如作為研究助理,就特定主題(如國際爭端的背景)提供近乎即時的不同長度和細節的摘要,或構建時間軸、撰寫簡介、總結或分析冗長的文本,或(假設版權和訂閱問題得到解決)將最新的學術著作納入其中。雖然第一批LLM是在英語語料庫中接受培訓的,但目前開發多語言模型的工作進展順利。當然,鑒于已發現生成式人工智能生成的回復在準確性和完整性方面存在問題,任何此類產品都必須經過主題專家的檢查,類似于跨白廳當前情報小組系統。這可能會提高穩健性和效率,并隨著時間的推移,促進機構學習和流程改革。

但潛力顯然不止于此。生成式人工智能還可以包括更先進、更重要的工作。例如,分析師可以使用 LLM 來審查和驗證他們的書面報告,從而增強現有的分析流程和產品審計程序。例如,可以要求提供任何對關鍵判斷提出質疑或證偽的數據;查詢長期以來生成的報告,以確定已成為傳統智慧的假設;或使用工具生成 “紅隊 ”評估。從理論上講,這種能力可以在幾個方面幫助分析人員識別或根除導致情報失敗的某些偏見因素,并確保報告盡可能是最新的。不難想象,這些工具的提供和適當使用將如何提高分析界的速度、影響范圍和批判性地反思其行為和業績的能力。

目前這一代 LLM 也可以撰寫報告或評估報告。將此類寫作任務的早期起草階段外包給一個工具,可為資源和時間貧乏的情報分析員創造經濟效益。毫無疑問,謹慎采用 LLM 是有道理的。但這項技術仍然有限,需要認真監測。這些局限性帶來了風險,這一點在 2023 年大眾廣泛嘗試使用 LLM 之后已經得到證明和充分記錄(在 META 推出 Threads 之前,沒有任何應用能像 ChatGPT 那樣迅速得到采用,該應用在推出后五天內用戶就達到了 100 萬)。對于情報分析師及其產品的接收者來說,其中許多挑戰都是非常棘手的。其中包括對這些工具所提供信息的準確性和可靠性的擔憂。這些系統非常善于生成似是而非的文本、聲明和結論。但這些可能在現實中沒有任何依據,甚至在建立 LLM 的訓練數據中也沒有任何依據。這種 “幻覺 ”已被廣泛觀察到;在學術工作中,經常出現的 “幻覺 ”是生成不存在的資料來源(例如,引用聽起來很有道理但實際上并不存在的網頁)來支持生成的主張。這究竟是 LLM 的一個特點還是一個缺陷,還存在爭議。無論如何,這都對采用 LLM 進行情報評估構成了重大挑戰。分析人員從這些工具中獲取材料并將其納入分析產品時,必須對基礎源數據進行系統檢查。因此,這項技術提出了一個悖論:一是節省時間,二是增加工作量。

與其他人工智能系統一樣,LLM 也會在其生成的任何內容中嵌入偏見。該系統的吸引力和潛力在于它有能力攝取和查詢大量資料--基本上是整個開放互聯網--但必然結果是,該系統也會攝取現有的偏見和廢話,這些偏見和廢話可能是關于特定主題的主流敘事,或者是關于特定主題的特定語言。同樣,毫無疑問,破壞性或惡意行為者會利用 LLM 快速、廉價地生成大量虛假信息并充斥網絡。毫無疑問,敵對行為者也會試圖毒害公共或專有 LLM。目前,大多數開放的生成式人工智能應用程序本質上都是黑盒子,這些系統不允許(或不會允許)用戶檢查它們得出特定判斷的過程。這是由于神經網絡依賴多層節點處理數據的本質所致。這種可觀察性的缺乏,再加上基于 LLM 的系統在可復制性方面的某種脆性--即它對準確提示措辭的依賴--帶來了風險和挑戰。事實上,鑒于在專業情報界對分析評估采用可審計程序的重要性,在這些工具被納入正常業務之前,這個問題構成了一個需要克服的重大障礙--或者說需要掌握的挑戰。正如在人工智能之前的時代一樣,結論必然需要由經驗豐富、訓練有素的人員進行檢查、驗證和整個過程的審計。

這些風險有可能被充分降低,使這些工具能夠相對迅速地融入分析流程。許多研究人員正在開發人工智能系統,以識別人工智能在各種情況下生成的內容,如學術論文或視頻文件。還有一些研究人員正在研究可審計的 LLM 系統;還有一些研究人員正在研究如何開發安全的系統,讓分析人員能夠在分類系統和開放的互聯網上進行搜索。但是,即使這些問題可以得到緩解,還有另一個根本性的問題,即這些系統是否只能是衍生系統,因為它們基本上完全建立在基于已有材料的計算模型之上。它們所提供的洞察力能否與任何接近 “想象力 ”的東西相匹配,還是說它們目前的貢獻仍將局限于語法和風格的練習,偶爾會出現幻覺?或者,換一種說法,他們可能會對某個問題進行極其(或表面上)合理的討論,但鑒于這些討論是根據一個統計模型得出的,該模型關注的是某個特定的詞或概念或 “標記 ”與另一個詞或概念或 “標記 ”相聯系的可能性,并以訓練材料為基礎,那么討論結果中是否會存在固有的保守主義或其他偏見?盡管如此,該領域的變化速度之快,即使預測其對情報評估的相對近期影響也充滿了不確定性,突出表明需要不斷審查該領域的發展。

雖然其他類型人工智能的貢獻已經得到證實,但對生成型人工智能的前景過于技術樂觀也會帶來風險。雖然這不是一個精確的類比,但美國情報界在 9/11 事件之前忽視人類情報(HUMINT)技能而青睞高科技的做法,應該為任何想把 LLM 的出現視為減少情報界人力的機會的人提供一個警示。選擇不當的捷徑會造成長期延誤。顯然,政府必須也必須與 LLM 打交道,必須不斷審查現有技術的效用,并愿意在這些系統得到驗證后擴大其使用范圍。但是,除了投資(擁有或使用)LLM,政府還應保留并加倍投資于人。在采用 LLM 的過程中,最大限度地提高效益和降低風險的一個關鍵因素將需要包括保持和發展對情報分析師的培訓,使他們能夠最好地利用這些強大的新工具。這可能包括專業途徑,培養一批善于將生成式人工智能融入分析實踐 “新常態 ”的官員,使他們能夠掌握現有系統,最大限度地發揮其效用,同時將其帶來的風險降至最低。但同時也應保持并優先培養主題和分析技術方面的專家,他們可以用經驗和智慧、隱性知識和人類特有的 “現實感 ”來補充生成式人工智能的巨大威力。在開展這項工作的同時,還應在政府內部(更不用說更廣泛的公眾)開展更廣泛的教育計劃,讓他們了解人工智能的用途和局限性。消費者,尤其是自詡為技術狂熱者和有遠見的 “深層國家 ”或 “小集團 ”的破壞者,應該仔細了解由于 LLM 的便利而繞過其分析機制的局限性和風險。世界不需要唐納德-拉姆斯菲爾德(Donald Rumsfeld)在伊拉克戰爭前的 “特別計劃辦公室”(ChatGPT)。就目前而言,將 LLM 衍生工具整合到分析流程中最合理的使用案例是,由經驗豐富、訓練有素的人類分析師作為 “副駕駛員”,嵌入到仍然樂于向消費者提供不受歡迎的消息的組織中。

付費5元查看完整內容

為了真實地再現軍事行動,嚴肅的戰斗模擬要求建模實體具有合理的戰術行為。因此,必須定義作戰戰術、條令、交戰規則和行動概念。事實證明,強化學習可以在相關實體的行為邊界內生成廣泛的戰術行動。在多智能體地面作戰場景中,本文展示了人工智能(AI)應用如何制定戰略并向附屬單元提供命令,同時相應地執行任務。我們提出了一種將人類知識和責任與人工智能系統相結合的方法。為了在共同層面上進行交流,人工智能以自然語言下達命令和行動。這樣,人類操作員就可以扮演 "人在回路中 "的角色,對人工智能的推理進行驗證和評估。本文展示了自然語言與強化學習過程的成功整合。

RELEGS:針對復雜作戰情況的強化學習

為了獲得模型架構的靈感,我們研究了 DeepMind 的 AlphaStar 架構,因為它被認為是復雜 RL 問題領域的最先進架構。通過我們的架構(如圖 2 所示),我們提出了一種靈活、可擴展的行動空間與深度神經網絡相結合的適應性新方法。觀察空間的設計基于如何準備戰場的軍事經驗。通常使用地圖和可用部隊表。因此,模擬觀測被分為標量數據(如可用坦克數量及其彈藥)。同時,基于地圖的輸入作為視覺輸入提供給空間編碼器。

標量數據用于向人工智能提供幾乎所有場景細節的建議。其中包括有關自身部隊及其平臺的數據,以及有關敵方部隊的部分信息。輸入并非以絕對數字給出,而是采用歸一化方法來提高訓練效果。編碼器可以很容易地寫成多層感知器(MLP);不過,使用多頭注意力網絡可以大大提高訓練后智能體的質量,因此應予以采用(Vaswani 等人,2017 年)。

為了理解地理地形、距離和海拔高度的含義,人工智能會被輸入一個帶有實體編碼的地圖視覺表示。顏色方案基于三通道圖像,這使我們能夠輕松地將數據可視化。雖然使用更多通道會給人類的圖形顯示帶來問題,但人工智能能夠理解更多通道。不同的字段類型和實體會用特殊的顏色進行編碼,以便始終能夠區分。這種所謂的空間編碼器由多個卷積層組成。最初,我們嘗試使用 ResNet-50 (He 和 Zhang,2016 年)和 MobileNetV3 (Howard 等,2019 年)等著名架構,甚至使用預先訓練的權重。然而,這并沒有帶來可接受的訓練性能。因此,我們用自己的架構縮小了卷積神經網絡(CNN)的規模。

為了測試和優化這一架構,我們使用了一個自動編碼器設置,并使用了模擬中的真實樣本。我們能夠將參數數量從大約 200 萬減少到大約 47000。此外,我們還生成了一個預訓練模型,該模型已與模擬的真實觀測數據相匹配。這一步極大地幫助我們加快了 RL 進程。

一個可選元素是添加語言輸入,為人工智能定義任務。雖然一般的戰略人工智能不使用這一元素,但計劃將其用于下屬智能體。這些智能體將以自然語言接收來自戰略人工智能的任務,并使用雙向門控遞歸單元(GRU)編碼器對其進行處理。

視覺數據、任務數據和標量數據的編碼值被合并并輸入核心網絡。根據 Hochreiter 和 Schmidhuber(1997 年)的介紹,核心主要是一個擁有 768 個單元的長短期記憶(LSTM)組件。在軍事場景中,指揮官必須了解高價值資產的長期戰略規劃。在本模擬中,人工智能可以請求戰斗支援要素,這些要素在影響戰場之前需要長達 15 分鐘的時間。因此,人工智能必須了解未來任務的時間安排和規劃。在 RL 中使用 LSTM 網絡相當困難,因為它需要大量的訓練時間,而且會導致上面各層的梯度消失。因此,我們決定在 LSTM 上添加一個跳過連接,以盡量減少新增層的負面影響。

動作頭由一個自然語言處理(NLP)模型組成。這是一個非常簡化的動作頭模型,包含一個小型 LSTM 和一個額外的密集層,共有約 340000 個參數。其結果是一個尺寸為 8 x 125 的多離散動作空間。

除主模型外,還有一個單獨的價值網絡部分。價值網絡使用核心 LSTM 的輸出,并將對手信息串聯起來傳遞給 MLP。然后,MLP 可以精確預測價值函數。通過對手信息,價值網絡對模擬有了一個上帝般的地面實況視圖。由于該網絡只與訓練相關,因此可以在不干擾訓練完整性的情況下進行。

付費5元查看完整內容

這項工作使用來自建設性模擬的可靠數據,比較了有監督的機器學習方法,以估計空戰中發射導彈的最有效時刻。我們采用了重采樣技術來改進預測模型,分析了準確度、精確度、召回率和f1-score。事實上,我們可以發現基于決策樹的模型性能卓越,而其他算法對重采樣技術非常敏感。在未使用重采樣技術和使用重采樣技術的情況下,最佳f1-score模型的值分別為0.378和0.463,提高了22.49%。因此,如果需要,重采樣技術可以提高模型的召回率和f1-score,但準確率和精確度會略有下降。此外,通過創建基于機器學習模型的決策支持工具,有可能提高飛行員在空戰中的表現,這有助于提高攻擊任務命中特定目標的有效性。

付費5元查看完整內容

在軍隊越來越多地使用基于機器學習(ML)的技術的背景下,我們的文章呼吁對ML平臺進行分析,以了解ML如何在軍隊中擴散以及產生什么影響。我們采用了新媒體研究中關于平臺的物質技術視角,并將這一文獻帶到了批判性安全研究中,我們認為需要關注平臺和它們所做的技術工作,以了解數字技術是如何出現和塑造安全實踐的。通過對谷歌開源ML平臺TensorFlow的詳細研究,以及對美國國防部算法戰爭跨職能團隊,即Project Maven的討論,我們做出了兩個更廣泛的貢獻。首先,我們確定了軍隊更廣泛的 "平臺化",我們指的是(技術材料)ML平臺的日益參與和滲透,它是使整個軍隊的分散和實驗性算法開發的新做法得以實現的基礎設施。其次,我們得出這種平臺化是如何伴隨著軍隊和企業領域的行為者之間的新的糾葛,特別是在這種情況下發揮關鍵作用的大科技公司,以及圍繞這些平臺組織的開源社區。

在軍隊越來越多地使用機器學習(ML)技術的背景下,我們的論文使用ML平臺的分析視角來理解ML是如何在軍隊中擴散的,并產生了什么影響。我們采用了新媒體研究中發展起來的關于平臺的物質/技術視角,將這一文獻與批判性安全研究結合起來,并認為關注平臺和它們所做的技術工作對于理解數字技術如何出現和塑造安全實踐是必要的。我們借鑒了對谷歌開源ML平臺TensorFlow的詳細研究,以及對美國國防部多功能算法戰爭團隊,即Project Maven的討論,并做出了兩個更廣泛的貢獻。我們首先確定了軍隊更廣泛的 "平臺化",我們指的是ML "硬件技術 "平臺的日益參與和滲透,作為軍隊中實驗性和分散性算法開發的新實踐的基礎設施。然后,我們繼續說明這種平臺化是如何伴隨著軍隊和企業行為者之間的新的糾葛,特別是GAFAMs,它們在這種情況下發揮著關鍵作用,而且圍繞這些平臺組織的開源社區也是如此。

在武裝部隊越來越多地使用自動學習技術(機器學習,ML)的背景下,在我們的文章中,我們描述了關于ML平臺的一個分析視角,目的是理解ML在武裝部隊中的發展以及其影響。采用一種關于平臺的物質和技術觀點,就像在關于新的通信媒體的研究中所開發的那樣,并在安全問題的研究中提及這一信息、 我們認為,有必要集中研究平臺和技術工作,以了解數字技術的發展和安全實踐的結構。通過對谷歌開放的ML平臺TensorFlow的詳細研究,以及美國國防部的交互式戰斗機設備的辯論,美國國防部的Proyectamento de Defensa,即美國國防部。美國的Proyecto Maven,實現了兩個更廣泛的貢獻。首先,我們確定了一個更廣泛的武裝部隊 "平臺",其中我們指的是ML平臺(技術/材料)的不斷參與和滲透,作為一種基礎設施,允許在武裝部隊中進行新的分散的算法開發和實驗實踐。第二,我們注意到這一平臺正伴隨著武裝部隊和公司統治者之間的新沖突,特別是那些在這一背景下發揮重要作用的大型科技公司,以及在這一平臺上組織起來的無國籍社區。

付費5元查看完整內容
北京阿比特科技有限公司