亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著無人平臺越來越多地出現在戰場上,與人類一起,以不同的配置(從遠程操作到完全自主的平臺,有人-無人的團隊,蜂群等)和領域(空間、空中、陸地、海洋和水下),也有必要使決策過程適應這一新的現實。這個過程將不再是完全由人類完成的,這就要求人類和機器對他們行動和互動的環境有一個共同的、有意義的、及時的理解,即共同的態勢感知。我們將研究如何通過基于本體的推理和推理的人工智能相關技術來實現這一目標,這些技術將使所有參與者(人類和非人類)之間共享所有級別的信息(數據、知識和模型)。這項工作的成功應體現在異質實體之間實現高水平的互操作性,在此范圍內,他們將能夠利用彼此的最佳發展能力。

人工智能驅動的態勢感知評估方法

圖2展示了基于先前所述斷言和要求的人工智能驅動SA評估的高級概念模型。

廣泛的人工智能方法可用于支持所需的過程,適用于每個層次,從歸納法到演繹法。在歸納推理方法中,我們提到了傳統的機器學習--邏輯回歸(LR)、支持向量機(SVM)、Naive-Bayes(NB)或深度學習--卷積神經網絡(CNN)、長短時記憶(LSTM)、門控循環單元(GRU)。演繹法是由knowledgerule系統代表的。但是,只有當系統的所有組成部分對目標、概念和關系有相同的理解時,才能以有效的方式實現各級的無縫協作。本體是實現這一目的最合適的工具(Sharman, Kishore, & Ramesh, 2004)。

本體是對知識的正式描述,是一個領域內概念的集合以及它們之間的關系(Ontotext, 2022; Earley, 2015)。本體的組成部分在圖3中顯示。3,其詳細的正式描述可以在Sharman, Kishore & Ramesh (2004)找到。

圖2: AI驅動的態勢感知評估概念

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

多種類無人駕駛飛行器(UAV)的使用越來越重要。因此,人類和機器人之間的互動及其互動設計變得越來越重要,特別是在戰場上的軍事偵察。然而,越來越大的無人機蜂群導致許多需要解決的挑戰,例如,具有高動態的復雜情況增加了對用戶的要求。在這項工作中,研究了以應用為導向的人類與蜂群互動的展示方案,其重點是作戰管理系統中的蜂群。在一項文獻調查中,確定了潛在的應用和當單個操作者監控作為高度自動化系統的大型蜂群時可能出現的挑戰。此外,還確定了已經存在的設計準則。基于這些結果,為獲得全面的態勢感知,對蜂群的可視化的四種不同布局進行了原型設計。

概念可視化

根據收集到的文獻,定義了四種群組可視化的布局。這些都是在原型人機界面中實現的。可視化的重點是戰斗管理系統中的蜂群。人機交互是通過傳統的顯示器和鼠標/鍵盤或觸摸控制實現的。首先,介紹了四個布局,之后解釋了不同的組件。

  • 基于蜂群的表示

基于蜂群的顯示器將整個蜂群作為一個單元來顯示,而不是每個智能體單獨顯示(見圖2-2)。用戶通過高級命令控制整個蜂群,蜂群則自行組織。仍然可以從蜂群中分離出個別的智能體,或發送個別的命令;這些可以單獨顯示或啟用。

付費5元查看完整內容

人工智能(AI)有可能影響所有領域和大規模的軍事行動。本章探討了人工智能系統如何影響準備和開展軍事行動的主要工具,以及如何受其影響。本章分析和討論了人工智能在戰略、條令、規劃、交戰規則和命令方面的多層次影響。采取了一個廣泛的分析角度,能夠根據新的政策和技術發展,以及對政治、軍事、法律和道德觀點的考慮,對這個問題進行總體審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。提供了洞察力和途徑,以推進對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

引言

人工智能(AI)的軍事應用有可能影響所有領域和大規模的軍事行動的準備和進行。人工智能系統可以越來越多地支持和取代人類完成軍事任務,因為它們變得更快、更準確,并能夠處理更多的信息和更高的復雜程度。這可能促進軍事行動速度的提高和更好的軍事決策,最終為擁有高性能人工智能的武裝部隊提供顯著優勢。人工智能的軍事用途甚至可能導致軍事事務的另一場革命,盡管這種發展將取決于其他因素而不僅僅是技術。

人工智能可以被用于各種軍事目的。在多維戰場上,人工智能技術可以被用作傳感器、規劃者和戰斗機,或兩者的結合。更具體地說,人工智能的軍事應用可以從支持情報、監視和偵察(ISR)的系統到自主導航和目標識別系統。這可能導致軍事人員和人工智能系統之間不同形式的互動,以及將軍事任務委托給人工智能系統的不同層次。例如,人工智能系統可以在決策過程中協助指揮官和士兵,無人駕駛的人工智能系統可以與有人駕駛的系統一起協作,人工智能系統可以在最少的人類監督下自主運行。 雖然目前只存在狹義和特定任務的人工智能,但正在大力發展人工通用智能(AGI)--具有類似于人類思維的廣泛領域推理能力的系統。 這與人工智能系統的自主性不斷增強的趨勢是一致的。

鑒于人工智能的特殊性和未來的應用,出現了一個問題,即人工智能的引入將如何影響軍事行動。本章通過評估人工智能如何影響準備和進行軍事行動的主要工具并受其影響來探討這一問題。具體而言,本章分析和討論了人工智能在戰略(第1分章)、條令(第2分章)、規劃(第3分章)、交戰規則(第4分章)和命令(第5分章)方面的多層次影響。以下各章將對每個工具進行一般性解釋,然后討論這些工具與人工智能的具體相互關系。

本章采取了一個廣泛的分析角度,包括了部隊整合和指揮與控制(C2)等軍事概念的各個方面,但并不限于此。 這使得在新政策和技術發展的基礎上,以及在考慮政治、軍事、法律和倫理角度的情況下,能夠對這個問題進行更全面的審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。本章最后發現了人工智能與準備和進行軍事行動的主要工具之間的動態相互關系,并將人類操作員和人工智能之間的互動定位為核心基本問題。

由于軍事人工智能是最近才出現的,因此對納入人工智能的未來軍事行動的任何分析只能是暫時性的,并基于這樣一個前提,即目前對具有高度自主性的人工智能,進行操作化的挑戰將被克服。然而,鑒于技術的快速發展,本章為推動進一步的思考、研究和政策制定提供了見解和途徑,以便在軍事行動中適當整合、管理和使用AI。

1. 戰略與人工智能

軍事行動為國家的政治和戰略目標服務。在戰爭的三個層面(戰略、戰役和戰術)中,軍事戰略是最高的。它可以被描述為 "戰爭的安排 "或 "戰爭的方向"。它為軍事行動提供依據,處于政治和軍事領域的交界處。 從本質上講,軍事戰略是一項計劃,它將最終目標與實現這一目標的手段聯系起來。更具體地說,軍事戰略可以被定義為 "使用武裝力量來實現軍事目標,進而實現戰爭的政治目的 "或 "在戰爭中達到預期結果的概念和實際考慮的表現,涉及對特定敵人的組織、運動和戰術、戰役和戰略使用或承諾的力量。國家安全和國防戰略可以為軍事戰略建立總體框架,而且經常可以在白皮書中找到。

各國還沒有公開通報他們如何使用或打算使用人工智能來制定軍事戰略。因此,在現階段,分析人工智能對軍事戰略的影響以及反之亦然,必須依靠國防白皮書和各國的人工智能戰略。一般來說,雖然在過去幾年中,大約有50個國家發布了關于人工智能在多個部門(特別是民用和工業部門)的使用、發展和融資的官方人工智能戰略,但這些文件一般不關注或幾乎不提及國防應用。然而,主要軍事強國最近通過了與軍事人工智能有關的國家戰略或類似文件,表明各國已經意識到軍事人工智能的戰略重要性,并指導他們努力開發、采購和將人工智能系統納入其武裝部隊。

美國國防部(DOD)在2018年發布了一項人工智能戰略,該戰略強調了優先發展的領域,確定了應如何與民間社會組織建立發展伙伴關系,并制定了一項關于人工智能機器倫理的政策生成計劃。美國人工智能國家安全委員會在2021年發布了一份報告,提出了與人工智能有關的國家防御戰略。 目標是到2025年達到人工智能準備,這意味著 "組織改革,設計創新的作戰概念,建立人工智能和數字準備的性能目標,并定義一個聯合作戰網絡架構",以及贏得"技術競爭"。

俄羅斯到目前為止還沒有公布關于軍事人工智能的政策,但正在積極資助私營和公共部門的研究。2018年,俄羅斯舉行了一次會議,提出了十項政策建議(AI: Problems and Solutions 2018),這些建議構成了其人工智能戰略的非官方基礎。

歐洲國家在人工智能戰略方面處于類似的階段。在英國2021年國防白皮書通過后,英國國防部(MOD)在2022年通過了《國防人工智能戰略》。 該戰略規定了國防部采用和利用人工智能的速度和規模,與工業界建立更強大的伙伴關系,并開展國際合作,以塑造全球人工智能的發展。 法國沒有采取這樣的戰略,但其《國防人工智能報告》強調了將人工智能納入其武裝部隊的戰略優勢,如分析和決策的速度,優化作戰流程和后勤,以及加強對士兵的保護,并將機器學習歸類為研究和開發(R&D)的主要領域。

雖然更多的國家發表了關于人工智能的分析和政策,但卻沒有對未來的軍事戰略提出見解,北約在2021年通過了其人工智能戰略。該戰略是整個聯盟的人工智能準備和運作的基礎,隨后是北約的自主實施計劃,包括在2022年創建數據和人工智能審查委員會。 歐盟至今沒有采取類似的戰略,只限于在2020年的《人工智能、機器人和相關技術的倫理問題框架》中鼓勵與軍事有關的人工智能領域的研究。

由于各國關于人工智能或與人工智能相關的國防戰略并沒有明確說明人工智能將如何影響軍事戰略,因此可以根據未來可能使用人工智能進行戰略決策的跡象來確定各自的期望。人工智能在戰爭戰略層面的應用實例是對核指揮、控制、通信和情報(C3I)架構的貢獻;導彈和防空系統的目標獲取、跟蹤、制導系統和識別;網絡能力;以及核和非核導彈運載系統。

對于軍事戰略來說,最重要的是,人工智能的應用可以幫助決策者監測戰場并制定方案。事實上,可以開發人工智能來預測其他國家的行為和反應,或生成正在進行的沖突的進展模擬,包括兵棋推演模型。人工智能還可以用來評估威脅,提供風險分析,并提出行動方案,最終指導決策者采取最佳對策。 此外,人工智能可以支持武裝部隊的方式和手段與既定的政治和戰略目標相一致,這是軍事戰略的一個主要功能。這種發展的一個后果是軍事進程的速度和質量都會提高。雖然這將為那些擁有高性能人工智能的國家提供巨大的優勢,但這也可能迫使武裝部隊越來越多地將軍事行動的協調工作交給人工智能系統。

將人工智能用于軍事戰略也可能導致挑戰,包括預測性人工智能需要無偏見和大量的數據。可靠的人工智能系統將需要用龐大的數據集進行訓練。 此外,專家們警告說,人工智能可能會加劇威脅,改變其性質和特點,并引入新的安全威脅。 一項關于將人工智能納入核C2系統的桌面演習表明,這種系統 "容易受到惡意操縱,從而嚴重降低戰略穩定性"。這種脆弱性主要來自于第三方使用技術欺騙、破壞或損害C2系統所帶來的風險,這表明系統安全對AI用于軍事戰略的重要性。

另一個重要的挑戰是,人工智能可能會加快戰爭的速度,以至于人類將不再能夠跟隨上述速度的發展,最終導致人類失去控制。 這種現象被稱為 "戰場奇點 "或 "超戰爭",可能導致戰略錯誤和事故,包括非自愿的沖突升級。即使這種風險能夠得到緩解,對人工智能的更多依賴也會減少軍事戰略中人的因素,特別是心理學和人的判斷。觀察家們認為,這可能會導致 "人工智能如何解決人類提出的問題,以及人類如果擁有人工智能的速度、精度和腦力會如何解決這個問題 "之間的差距。 然而,專家們也提出,戰略的制定需要對價值的理解,成本的平衡,以及對戰爭所處的復雜社會系統的理解,從而大大限制了人工智能在軍事戰略上的應用。還有一種可能是,當敵人擁有人工智能系統提供的高水平的理性預測能力時,決定性的因素將不是人工智能系統的能力,而是人類的判斷,特別是關于關鍵和困難的選擇。然而,這假定了某種程度的有意義的人類參與。

總之,主要的軍事大國正在投資開發、獲取和操作其武裝部隊的人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

總之,主要的軍事大國正在投資開發、獲取和使用人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

2. 條令與人工智能

軍事條令進一步指導軍事行動的準備和執行。軍事條令可以被定義為 "從制度化的角度來看,執行軍事任務和職能普遍接受的方法"。因此,它代表了'在戰爭和軍事行動中什么是有效的制度化信念'。條令一般包含三個關鍵要素,即理論(什么是有效的,什么會導致勝利)、權威(條令必須被認真對待)和文化(組織及其成員是誰)。 因此,條令回答了 "軍隊認為自己是什么('我們是誰'),它的任務是什么('我們做什么'),如何執行任務('我們怎么做'),以及歷史上如何執行任務('我們過去怎么做')"等問題。 《美國陸軍條令入門》將條令描述為由基本原則、戰術、技術、程序以及術語和符號組成。

鑒于條令的目的和功能,人工智能在發展軍事條令方面的作用可能有限。它可能會繼續由人類創建和修訂。人工智能的具體作用可能僅限于監測武裝部隊的進程與他們的條令是否一致,以確定過去的工作,并支持對條令的質量和影響進行評估。為了有效地告知負責定義條令的軍事人員,這可能需要透明和可解釋的人工智能方法,否則軍事人員將無法理解并做出適當的決定。

然而,條令在設定人工智能的使用和人類互動的基本原則、價值和參數方面具有重要作用。值得注意的是,軍事條令是界定武裝部隊如何感知、理解和重視人工智能的適當手段。由于人工智能的高度自主性,武裝部隊可能需要明確人工智能是否被視為一種技術工具,或者說是一種代理手段。在這個意義上,條令可以定義武裝部隊是否將人工智能視為簡單的數學、技術系統,或者說是具有認知能力的工具。條令可以定義人類在組織中的價值、地位和作用,以及使用人工智能的過程。由于軍事行動和戰爭是人類為達到目而發起的行動,條令可以明確這意味著什么。在這種情況下,條令也可以定義人類與人工智能系統互動的價值和原則,包括人工智能需要為人類服務而不是相反。

同樣,條令也是定義人工智能系統的開發、獲取和使用的道德標準工具。由于軍事條令是根據國際法起草的,并且通常呼吁武裝部隊成員尊重國際法,因此條令也可以定義人工智能系統和運營商遵守國際法的方式。條令是對人工智能和人機協作施加限制的重要工具,適用于各軍種和武裝部隊的所有成員。這可能意味著對人工智能系統進行有意義的人類控制的一般要求,或禁止將某些功能授權給人工智能系統。

更具體地說,條令可以為人工智能融入組織流程設定原則和參數。例如,從事數據整合、優先排序的人工智能系統可能需要修訂軍事條令和武裝部隊使用和收集信息的準則。雖然僅限于觀測的任務系統需要有限的條令調整,但有更多 "積極 "任務的系統可能需要更具體的指導方針,如保障措施、自主程度、與操作者的溝通以及與人類部隊的互動。此外,有人認為,戰術應用主要是基于規則的決策,而戰役和戰略決策往往是基于價值的。每個級別的首選決策過程類型以及這種過程是否應該標準化,可以在條令層面上確定。

迄今為止,各國還沒有公布專門針對人工智能系統的軍事條令。英國國防部關于無人駕駛飛機系統的聯合條令是目前唯一公開的涉及軍事系統自主性的軍事條令。 然而,未來關于人工智能或與人工智能相關的軍事條令可能會根據人工智能的道德使用政策來制定。 事實上,這種政策定義了相關的價值觀、原則和使用軍事人工智能的形式,并為其提供指導,其目的與軍事條令類似。一些國家和組織最近通過了這種關于軍事人工智能道德使用的政策,包括北約。

美國國防部為人工智能的發展和使用采用了五項道德原則。系統需要負責任、公平、可追蹤、可靠和可治理。這些原則規定,美國防部人員負責人工智能系統的 "開發、部署和使用",因此必須表現出良好的(人類)判斷能力。此外,美國防部明確確定,必須努力將人工智能運作的數據偏見降到最低。 此外,美國國防部2012年3000.09指令確定了美國對致命性自主武器系統(LAWS)的立場。它定義了致命性自主武器系統,確定了三類智能武器系統(自主、半自主和人類監督的自主系統),并為其行動設定了一般界限,以及有關人類操作員的作用和法律審查的標準。

同樣,歐盟議會也通過了一份題為《人工智能:國際法的解釋和應用問題》(人工智能的民事和軍事使用準則),其中特別討論了人工智能的軍事應用。 該報告包含了關于歐盟成員國開發和使用軍事人工智能應用的強制性準則以及一般性結論。首先,報告解釋說,人工智能不能取代人類決策或人類責任。 第二,為了合法,致命性自主武器系統必須受到有意義的人類控制,要求人類必須能夠干預或阻止所有人工智能系統的行動,以遵守國際人道主義法(IHL)。第三,人工智能技術及其使用必須始終遵守國際人道主義法、國際刑事法院羅馬規約、歐盟條約、歐盟委員會關于人工智能的白皮書,以及包括透明度、預防、區分、非歧視、問責制和可預測性等原則。

2021年4月,法國道德委員會公布了一份關于將致命性自主武器和半自動武器納入武裝部隊的意見。盡管其內容尚未得到國防部長的批準,但它代表了未來潛在的軍事條令。該文件重申了人類對自主武器的致命行動保持一定程度控制的重要性,并聲稱法國不會開發也不會使用完全自主的武器。同樣,澳大利亞發表了一份題為《國防中的道德人工智能方法》的報告,其中討論了與軍事人工智能應用有關的道德和法律考慮,但并不代表官方立場。

總之,除了評估和修訂之外,人工智能不太可能對創建軍事條令有實質性的作用,因為條令的作用是定義和規范軍事組織問題以及與信仰、價值觀和身份密切相關軍事行動的各個方面。然而,正是由于這種功能,條令在確定武裝部隊與人工智能的基本關系方面具有重要作用。特別是,條令適合于籠統地規定人工智能將(不)用于哪些任務,人工智能將(不)如何使用,以及組織及其成員如何看待和重視人工智能。最重要的是,鑒于人工智能的特點,條令可以確定人類如何并應該與人工智能互動,以及何種組織文化應該指導這種關系。因此,條令可以為進一步的軍事指令和程序設定規范性框架。各國的道德準則可以作為軍事條令的基礎并被納入其中。

3.規劃和人工智能

根據各自的軍事條令制定的作戰和行動計劃,是根據現有手段實現軍事目標的概念和指示。規劃反映了指揮官的意圖,通常包括不同的行動方案(COA)。存在各種軍事計劃和決策模式,但北約的綜合作戰計劃指令(COPD)對西方各種模式進行了很好的概述和綜合。 例如,加拿大武裝部隊遵循六個步驟,即啟動、定位、概念開發、決策計劃制定和計劃審查。一般來說,規劃包括 "規劃和安排完成特定COA所需的詳細任務;將任務分配給不同的部隊;分配合適的地點和路線;刺激友軍和敵軍的戰斗損失(減員);以及重新預測敵方的行動或反應。

雖然規劃需要考慮到人工智能系統在軍事行動中的使用,但人工智能最有可能被用于規劃本身。用于軍事規劃或與之相關的人工智能應用是ISR系統、規劃工具、地圖生成機器人,以及威脅評估和威脅預測工具。 與規劃有關的進一步人工智能應用可能包括大數據驅動的建模和兵棋推演。例如,美國陸軍為其軍事決策過程(MDMP)開發了一個程序,該程序采用 "高層次的COA"(即目標、行動和順序的草案),并根據這個總體草案構建一個詳細的COA,然后測試其可行性。這表明,人工智能可以發揮各種功能,從COA提議到解構和測試。

人工智能應用可能會對計劃產生強烈影響。規劃軍事行動是一個緩慢而繁重的過程,它依賴于對 "結果、損耗、物資消耗和敵人反應 "的估計。它涉及到對特定情況的理解、時空分析和后勤問題。然而,有限時間和勞動力限制了可以探索的選項數量。此外,預測可以說是"作戰指揮官最棘手的任務之一"。只要能提供足夠數量和質量的數據,人工智能在預測的質量和速度上都可能會有出色的表現。數據分析能夠進一步處理比人類計算更多的信息,最終減少"戰爭迷霧"。由于人工智能程序可以將行動分解為具體的任務,然后相應地分配資源,預測敵人的行動,并估計風險,因此人工智能的使用將提高決策的總體速度和準確性。增加可考慮的COA數量將進一步使規劃過程得到質量上的改善。

然而,使用人工智能進行規劃也有潛在的弊端。由人工智能驅動的更快規劃所帶來的戰爭速度提高,可以說會減少決策者的(再)行動時間,這可能會損害決策的質量。還有人質疑,人工智能驅動的規劃是否會"導致過度關注指揮分析方面,通過書本和數字削弱了軍事指揮決策的直覺、適應性和藝術性"。指揮官和其他軍事人員也可能變得過渡依賴技術,使他們變得脆弱。剩下的一個挑戰是產生足夠的相關數據,讓人工智能規劃系統正常工作并產生有意義的結果。

人工智能系統將執行規劃任務以及協助軍事人員,但它們可能不會根據這些計劃做出適當決策。事實上,有人認為,人工智能系統難以完成與指揮有關的任務,如設定目標、優先事項、規則和約束。因此,人類的判斷對于這些任務仍然是必要的。人工智能寧愿執行控制任務,并最終彌補軍事人員的認知偏差。然而,隨著新版本的C2(部分)納入人工智能,觀察家們質疑是否清楚誰將擁有跨領域的決策權,人類在這種架構中會和應該發揮什么作用,以及技術是否準備好進行大規模開發。

當強大的人工智能系統被用于軍事規劃時,規劃和決策之間的區別可能會變得模糊不清。與人類因軍事行動的高速發展而無法正確跟蹤事件進程的風險類似,將規劃任務更多地委托給人工智能可能意味著指揮官和規劃者不再能夠理解或追溯系統如何得出結論。同樣,指揮官可能會因審查眾多擬議計劃或COA的任務而被壓垮。人工智能生成的方案也可能意味著更高的復雜程度。因此,人工智能可以被用來消化信息,只向指揮官提供最相關的內容。然而,這可能會導致對人工智能的進一步過度依賴。因此,強大的人工智能系統,或系統簇(SOS),將需要一定程度的可預測性和透明度。

總之,與人工智能的其他軍事應用相比,至少在中短期內,人工智能可能會對規劃產生最重大的影響。由于規劃是極度時間和資源密集型的,人工智能系統可以導致速度、精度和質量的提高。這可能會對軍事行動和戰爭產生重大影響,因為有人認為,軍事競賽的贏家是那些在觀察、定位、決策和行動(OODA環)中工作最快的人。一個進一步的影響是,規劃的自動化導致了軍事決策的(進一步)合理化,包括人員傷亡的合理化。另一個后果是對人力的需求減少。然而,規劃方面的人力需求減少并不意味著基于軍事規劃決策的人力判斷需求減少,特別是在價值觀和直覺仍然是規劃的核心內容情況下。

4. 交戰規則與人工智能

交戰規則(ROE)用于描述軍事力量部署的情況和限制。交戰規則可采取多種形式,包括執行命令、部署命令、作戰計劃和長期指令。無論其形式如何,它們都對 "使用武力、部隊的位置和態勢以及使用某些特定能力 "等進行授權或限制。交戰規則有共同的要素,如其功能和在作戰計劃中的地位,以及其他基本組成部分。交戰規則通常是 "軍事和政治政策要求的組合,必須受到現有的國際和國內法律參數約束"。因此,其要素和組成部分反映了軍事行動、法律和政治要素。通用的交戰規則和模板文件,如北約的MC362/1和Sanremo交戰規則手冊,可以作為交戰規則起草者的基礎或靈感,而這些起草者通常是軍事法律顧問。雖然交戰規則一般不會分發給所有低級軍官,但士兵們經常會收到含有簡化的、基本版本的交戰規則記憶卡。

交戰規則是與軍事力量部署和武力使用有關的更大監管框架的一部分。因此,它們與其他類型的軍事指令相互作用,特別是目標選擇和戰術指令。目標定位指令提供了關于目標定位的具體指示,包括對目標的限制和盡量減少附帶損害。戰術指令是 "針對整個部隊或特定類型的單位或武器系統的命令,規定在整個行動中執行特定類型的任務或在行動中限制使用特定的武器系統。雖然交戰規則不是必不可少的,但它們可以為部隊及其成員提供更具體和細微的指示。

交戰規則是確定如何使用人工智能以及在哪些條件下可以在特定情況下應用的適當工具。交戰規則——或相關的行為規則——可以為人工智能的各種軍事應用設定參數,從而將特定的政治、軍事、法律和道德考慮以及來自更高組織或規范梯隊的限制,如條令或國際法律義務,轉化為具體指令。因此,ROE可以代表一個行動框架,被編入AI系統。例如,ROE可以確定一個地理區域或某個潛在任務的清單,系統被授權采取行動。在這些限制之外,他們將不會對處理過的信息采取行動。時間或其他限制,如預先設定的允許(不)與特定目標交戰,也可以由ROE定義。同樣,ROE可以預見一個系統需要標記的意外事件或問題。在這種情況下,有些人提出,人工智能可能會根據環境或其編程的任務來選擇應用哪種ROE。

ROE也可以定義人類和人工智能系統在特定任務中的互動。特別是,ROE可以確定指揮官或操作員在部署期間需要如何監測和控制該系統。由于對人類控制的需求可能會根據歸屬于人工智能系統的具體任務以及各自的背景和行動而有所不同,人工智能的ROE可以定義某些類型的行動或階段的自主性水平。ROE可以進一步處理或參考其他來源,如手冊和指令,關于如何實施各種形式的人類控制,如直接、共享或監督控制。重要的是,ROE可以限制指揮官或操作人員的權力,這可能迫使他們在指揮系統中參考上級。這可能是軍事行動中關于人機協作的ROE的一個重要作用,特別是在面對未曾預料到的情況或問題時,系統或其使用沒有事先得到授權。

當人工智能被用于傷害人和物或與之有關時,如在定位目標的情況下,ROE尤其相關。特別是當考慮到人工智能不能將道德或背景評估納入其決策過程時,在做出使用致命武力的決策時,人類的控制和判斷應該是有意義的。如上所述,大多數公開的政策在原則上確立了這種監督,但很少明確其確切含義。交戰規則和指令可以填補這一空白。為此,可以為人工智能系統的操作者制定與目標定位有關的行為準則,或為此類系統制定ROE模式。

事實上,雖然到今天為止還沒有能夠在沒有人類授權的情況下攻擊人類目標的自主武器,但在目標定位方面,更加自主的系統將是一個大的趨勢。與目標定位有關的現有軍事應用是目標識別軟件,如可以檢測衣服下爆炸物的Super aEgis II,以及用于目標交戰的系統。美國人工智能制導的遠程反艦導彈(LRASM)被宣傳為能夠自主地選擇和攻擊目標,甚至在GPS和通信受阻的環境中,如深水和潛在的外太空。另一個值得注意的事態發展是,據報道,2020年3月在利比亞部署了一架土耳其Kargu-2無人機,據稱該無人機在沒有人類操作員授權的情況下跟蹤和攻擊人類目標。它的使用可能代表了一個重要的先例,即在人類控制非常有限的情況下使用人工智能系統進行目標定位。

由于需要對ROE進行管理,人工智能可以協助主管當局協調、實施并最終確定ROE。軍事、政治、法律和道德目標和參數需要由軍事人員提供--至少在初始階段。正如北約的MC362/1號文件和《圣雷莫ROE手冊》所說明的那樣,ROE的后續管理是一個系統的、反復的過程,包括將具體的權力賦予不同級別的指揮部,以及監測ROE的實施和遵守情況。隨著時間的推移,人工智能系統可能會學會緩解ROE內部和之間的摩擦,以及為其適應性提升效率。例如,盡管國際法的實質內容可能本質上需要基于價值的判斷,而這種判斷不應委托給人工智能系統,但界定哪些規則需要在哪些情況下適用并不是一個過于復雜的理性過程。為了避免改變現有法律框架的實質內容,這種功能要求任何用于管理ROE的AI應用不能侵犯歸屬的權力。

總之,ROE可以成為一個有用的工具,以具體和實用的方式指導軍事AI的使用。因此,它可以補充和執行上級的政策、法規和準則,從而使軍事、政治、法律和道德目標和原則轉化為具體行動。ROE的指導對于人機協作,以及定義和具體化與人工智能系統有關的人類控制和判斷,在目標定位方面尤其重要。人工智能的應用可以進一步提高ROE管理的質量和效率。雖然這可能有助于協助軍事人員,類似于人工智能應用于軍事規劃,但軍事人員需要對ROE的實質進行有效監督,即誰或什么系統在什么情況下可以使用武力。然而,如果人工智能能夠實現更廣泛的、更細微的、更快速的交替性ROE,確保這種監督可能會變得具有挑戰性。

5. 作戰命令與人工智能

規劃和實施軍事行動的最具體的工具是命令。例如,北約和美國陸軍將命令定義為 "以書面、口頭或信號的方式傳達上級對下級的指示"。雖然有不同類型的命令,但它們一般都很簡短和具體。命令可以是口頭的,也可以是圖形的,還可以是疊加的。它們必須遵守法律以及上級的軍事文件和文書。另一個經常使用的術語是指令,它被定義為 "指揮官下達的命令,即指揮官為實現某一特定行動而表達的意愿。

從軍事參謀人員到人工智能系統的指令將采取系統初始開發的形式,有關任務目標和限制的參數編程,以及操作人員在操作期間的輸入。人類和人工智能系統之間的這些互動形式可能會履行傳統上歸屬于命令的功能。雖然人工智能系統的開發和操作,特別是機器學習,有其特殊的挑戰,但測試表明,機器并不存在不服從命令的內在風險。由于在操作過程中人的輸入等于人對系統的控制,如果一個系統能夠根據適當的學習自主地調整其行為,這一點就特別重要,現在正在開發防止系統在沒有人類輸入下采取行動的保障措施。例如,美國國防部3000.09指令規定,致命性武器系統的編程方式必須防止其在未經人類事先批準的情況下選擇和攻擊目標,特別是在失去通信的情況下。

人工智能和操作人員之間具體的互動形式仍在繼續開發。美國陸軍實驗室設計了一種軟件,使機器人能夠理解口頭指示,執行任務,并進行匯報。會說話的人工智能現在也被開發出來,以實現操作員和系統之間的口頭對話。這種互動使系統能夠要求其操作者進行澄清,并在任務完成后提供更新,以便士兵在工作中獲得最新的信息。諸如此類的應用可能使軍事人員更容易與人工智能合作,并減少操作員對人工智能控制的學習曲線。然而,人工智能應用也可以支持指揮官下達命令和指令的任務。人工智能尤其可以用來提高通信系統的穩健性和容錯性,這顯然可以使命令的傳輸更加安全。

雖然人工智能系統可能不會被委托正式發布命令,但是類似的動態可能會出現。對于人工智能系統之間的互動,命令是沒有必要的,因為系統只是作為數字應用網絡的一部分交換信息。關于對軍事人員的命令,武裝部隊似乎不可能接受人工智能系統向其成員發出指令。然而,由于人工智能系統可能會以越來越高的速度和復雜性提出行動建議,作為人類決策的輸入,軍事人員可能不會質疑這些建議,沒有時間批判性地評估它們,或者根本無法理解系統如何得出結論。如果他們還是以這些建議為基礎采取行動,這種對系統輸入的過度依賴可能意味著系統事實上向人類發布命令。還有可能的是,通過信息技術接收指令的較低層次的操作員和士兵可能無法知道某個命令是由人類還是人工智能系統創造的。為了排除這種結果,軍事條令和指令需要建立與命令有關程序的透明度。

總之,在軍事行動中,正式的命令很可能與控制人工智能無關。然而,命令和指令的傳統概念可以幫助分析、分類和發展人工智能系統和人類操作員之間的未來互動。在這種情況下,卡爾-馮-克勞塞維茨提出的管理方法和任務型戰術(Auftragstaktik)之間的傳統區別表明,人類對人工智能系統的投入,即人工智能系統的開發、編程和操作控制,可以根據對執行任務細節的程度來進行分類。鑒于人工智能的特質,我們有理由認為,當人工智能系統被賦予高水平的自主權,類似于任務型戰術時,將對武裝部隊最有價值。同時,人類在行動中的投入將是非常精確的,起到管理作用。然而,最重要的是,這又回到了上文討論的可以授予 AI 系統多少自主權的根本問題。

結論

人工智能有可能影響所有領域和大規模的軍事行動。轉變的程度主要取決于未來的技術發展。然而,這也取決于武裝部隊將賦予人工智能的作用和功能。從這兩個因素中可以看出,人工智能與準備和開展軍事行動的主要工具之間存在著動態的相互關系。一方面,人工智能的引入將影響到這些工具以及軍事行動的準備和實施。另一方面,這些工具在監管和使用人工智能方面發揮著重要作用。這種相互關系是動態的,因為它很可能隨著技術的發展、部隊對人工智能系統的經驗、組織文化和社會價值觀的變化而變化。

上述內容討論了人工智能與準備和執行軍事行動的主要工具之間的相互關系,而其中核心潛在的問題是人類操作員與人工智能系統之間的相互作用。在戰略方面,國家的官方文件證明,獲得和運用人工智能具有戰略意義。人工智能將可能支持軍事戰略,特別是預測和規劃。戰略中的人為因素可能仍然至關重要,因為戰略依賴于本能和價值觀,但軍事人員有可能過度依賴人工智能。對于軍事條令,人工智能的作用可能僅限于評估和協助修訂條令。條令在決定武裝部隊的目的、價值觀和組織文化方面的功能表明,它將在確定武裝部隊如何看待人工智能系統并與之互動方面發揮重要作用。

人工智能將極大地幫助軍事規劃,特別是基于人工智能高速和精確地處理復雜和大量數據的能力。因此,即使人工智能系統不會被委托做出決策,軍事規劃人員和指揮官也有可能過度依賴他們的分析和建議,尤其是在時間壓力下。因此,人工智能支持決策和人工智能作出適當決策之間的界限可能會變得模糊不清。關于ROE,盡管人工智能可以支持ROE的管理,但后者主要是一個適當的工具,以具體的方式為具體的任務劃定人工智能的使用。這尤其適用于人機合作和人對人工智能應用的控制。在軍事命令方面,人工智能系統可能會大大協助指揮和控制,但不會被委托發布命令。然而,在實踐中,可能很難區分由算法發布的命令和由指揮官發布的命令。這可能會導致人工智能支持和人工智能決策之間的混淆,類似于規劃的情況。

因此,如果人類操作員和人工智能系統之間的交互,是人工智能與準備和執行軍事行動的主要工具之間動態相互關系的核心潛在問題,那么無論是技術發展還是工具適應性都需要特別注意適當的人類與人工智能的交互。可以預計,技術進步將主要塑造未來的人機協作模式。軍隊結構、標準和流程可能會跟隨技術發展而相應調整。然而,關鍵是要積極主動地界定基本原則、價值觀和標準,而不是簡單地適應技術發展,成為路徑依賴或面臨意想不到后果。

畢竟,關注適當的人與人工智能互動不僅是道德和法律的必要條件,也是通過引入人工智能有效提高軍事行動的必要條件。因此,對人工智能和軍事行動的進一步思考和研究,以及對人工智能和戰略、條令、規劃、ROE和命令的進一步思考和研究,應該側重于人機互動,因為這仍然是人工智能戰爭最緊迫的挑戰。這可能有助于在人工智能影響工具和這些工具管理軍事人工智能之間找到并確定一個適當的平衡。

付費5元查看完整內容

人工智能(AI)的最新進展引起了人們對人工智能系統需要被人類用戶理解的關注。可解釋人工智能(XAI)文獻旨在通過向用戶提供有關人工智能系統行為的必要信息來增強人類的理解和人類-人工智能團隊的表現。同時,人為因素文獻長期以來一直在解決有助于人類表現的重要考慮因素,包括如何確定人類的信息需求、人類負荷以及人類對自主系統的信任。從人類因素的文獻中,提出了可解釋人工智能的態勢感知框架(SAFE-AI),這是一個關于人工智能系統行為解釋的發展和評估的三級框架。提出的XAI級別是基于人類用戶的信息需求,這些需求可以用人因文獻中的態勢感知(SA)級別框架來確定。基于我們的XAI等級框架,我們還提出了一種評估XAI系統有效性的方法。進一步詳細說明了在確定解釋的內容和頻率時對人為負荷的考慮,以及可用于評估人為負荷的指標。最后,討論了通過解釋適當校準用戶對人工智能系統信任的重要性,以及XAI的其他與信任有關的考慮,還詳細介紹了可用于評估用戶對這些系統信任的指標。

隨著最近人工智能文獻中對可解釋人工智能(XAI)的關注,定義XAI系統應該傳達哪些信息以及如何衡量其有效性變得越來越重要。Gunning和Aha(2019)將XAI定義為 "能夠向人類用戶解釋其原理的人工智能系統,描述其優勢和劣勢,并傳達對其未來行為方式的理解"。我們采用了XAI的這一定義,并將解釋定義為支持人類推斷人工智能系統上述細節的必要信息,包括關于其輸入、模型和輸出的信息。開發XAI技術的動機經常被說成是需要在日益復雜的人工智能系統中實現透明化(Fox等人,2017;Lipton,2016),以及需要在日益不透明的系統中獲得用戶信任(Borgo等人,2018;Fox等人,2017;Lipton,2016)。提高人工智能系統的透明度和說明人類對這些系統的信任都有助于提高人類-人工智能團隊的績效;因此,支持人類-人工智能團隊的績效是XAI的主要目標之一。事實上,以前的研究已經證明了智能體的透明度對人類-AI團隊中人類隊友的任務表現的積極影響(Chen等人,2017,2018;Stowers等人,2016)。一些文獻認為,存在性能-可解釋性的交換,即更多可解釋的人工智能系統會以某種方式犧牲算法性能(Gunning & Aha,2019;Lipton,2016)。然而,如果缺乏系統的可解釋性抑制了團隊的整體表現,那么改進算法性能所提供的好處可能會喪失。例如,如果一個基于醫學機器學習的成像系統能夠在對某些醫療問題進行分類時取得更大的準確性,但它的方式使人類醫生更難注意到其判斷中的錯誤,醫生-AI團隊的績效可能會受到整體影響。因此,我們認為優化人類-AI團隊的表現,通過對系統行為的解釋來實現,是XAI的主要目標。

在人因方面存在著豐富的文獻,探討了人類與自動化系統互動的場景,以及在任務執行過程中影響人類表現的各種因素。態勢感知(SA)的概念,已經在人為因素領域和人類-自動化團隊的背景下進行了研究(Chen等人,2014;Endsley,1995),定義了人類在任何場景下操作的信息需求(Endsley,1995)。XAI系統,作為提供人工智能行為信息的系統,可以為人類用戶的SA子集做出貢獻,該子集與人工智能行為有關。通過XAI系統提供的支持人工智能的信息,可以提高人類-人工智能團隊的績效;然而,除了XAI支持的人工智能子集之外,整體的人工智能也是支持團隊績效的必要條件,但并不完全是充分條件(Endsley,1995)。

人為因素的文獻討論了其他的因素,這些因素對于人與AI團隊的表現同樣是必要的,并且也與XAI系統有關。首先,雖然SA定義了人類需要的信息,但工作負荷的考慮影響了如何以及何時提供這些信息(Parasuraman等人,2008)。其次,用戶對自動化系統的信任的重要性已經在之前的文獻中得到了明確的探討(Lee & See, 2004; Schaefer等人, 2014)。重點不是增加用戶的信任,這通常被作為XAI的動機(Borgo等人,2018;Fox等人,2017;Krarup等人,2019),而是適當地校準信任,導致人工智能系統的適當使用(Chen等人,2014;Ososky等人,2014;Schaefer等人,2014)。

除了討論SA、負荷和信任的概念以及對這些考慮因素的相關設計建議之外,文獻還將這些概念操作化,提供了評估的方法和指標(Parasuraman等人,2008)。正如SA支持但不等同于性能一樣,XAI系統提供的高質量解釋支持但不等同于SA、適當的人類工作負荷或對AI系統的充分信任。然而,根據與這些因素相關的方法和指標來評估XAI系統,有助于了解所提供的解釋是否實現了提高人與AI團隊績效的最終目標。除了團隊績效之外,將SA、工作負荷和信任作為XAI的中間目標來衡量,可以明確績效評估中存在的潛在混淆因素。

雖然之前已經提出了一些評估XAI系統不同方面的指標(Doshi-Velez和Kim,2017;Hoffman、Miller等人,2018;Hoffman、Mueller等人,2018;Lage等人,2019),但XAI文獻目前缺乏一套全面的評估解釋質量的合適指標。雖然可能無法明確和獨立地定義一個解釋的質量,但在許多情況下,一個解釋只有在它有助于實現SA、適當的信任和適當的工作負荷等中間目標以及提高績效的最終目標時才是 "好 "的。換句話說,在許多情況下,SA、信任和工作負荷以及團隊績效可以作為代理,表明XAI系統是否實現了它的預期目標,因為XAI系統的目標往往與這些概念有關。因此,XAI從業者可以利用現有的人類因素指標來評估他們所提出的技術。

在本文中,我們討論了與XAI相關的人類因素文獻(包括現有的XAI技術),并根據人類因素界的發現提出了一套XAI系統的設計考慮和評估指標。我們首先更詳細地討論了人的因素中的SA概念,并提出了可解釋人工智能的態勢感知框架(SAFE-AI),其中包括XAI的級別,定義了哪些關于人工智能算法和過程的信息應該由XAI系統來支持;這些級別與Endsley(1995)提出的SA級別緊密對應。我們進一步強調了一套現有的XAI技術如何適合我們的框架,以及用于評估現有技術的指標如何映射到SA的評估。SAFE-AI旨在為定義XAI系統的需求提供一個以人為本的結構化方法,為XAI技術的開發提供指導,并為XAI系統的評估提供指導。

SAFE-AI可以用來定義XAI系統的信息要求,但是信息要求本身并不能決定XAI系統的整個設計。同樣重要的是,要考慮在交互過程中的任何給定點向用戶展示多少信息,以及展示信息的頻率,以便用戶能夠實際處理這些信息。這些考慮與人類的工作負荷有關。此外,系統可能有必要向人類用戶提供額外的信息,以便適當地校準人類對系統的信任,這可能會影響到適當的使用和團隊表現。因此,在本文中,我們還討論了工作負荷和信任的人為因素概念,XAI中考慮過這些概念的現有工作,以及如何將與每個概念相關的指標應用于XAI系統的評估。理想情況下,SAFE-AI可以被應用于確定一套初始的交互信息要求,而信任和工作負荷的考慮可以被用來完善這套初始要求,并充實與XAI系統如何被整合到真實世界環境中有關的額外細節。這項工作的初步版本可以在Sanneman和Shah(2020)中找到。本文通過擴展與SAFE-AI框架相關的XAI技術的文獻回顧,以及包括對工作負荷和信任及其與XAI系統的關系的額外討論,對初步版本進行了擴展。

本文的其余部分組織如下:在第2節中,我們討論了態勢感知,包括來自人類因素的相關文獻,我們基于態勢感知的XAI框架,來自XAI文獻的相關例子,以及一個激勵性的例子來澄清對框架的討論。在第3節中,我們擴展了人類因素中人類工作負荷的概念,以及XAI的相關考慮和衡量標準。在第4節中,我們討論了XAI的信任相關考慮。在第5節中,我們根據人類因素文獻的結果和發現,列舉了未來可能的方向,在第6節中,我們總結了本文。

付費5元查看完整內容

盡管美國陸軍希望在多域作戰中取得認知上的優勢,但它還沒有充分發展并采用認知能力提升的概念。本文對陸軍在這一領域的努力進行了全面評估,探討了對士兵認知的日益增長的要求,并將陸軍目前的方法與對手進行了比較。它的結論將幫助美國軍隊和政策執行者建立促進認知優勢和跨領域成功的文化和行為。

關鍵字:認知能力、復原力、神經倫理學、人類表現、信息過載

認知能力是支持所有士兵表現的關鍵變量:身體、精神和情感。美國陸軍條令認識到認知優勢的重要性,或獲得對敵人的智力優勢。它甚至在最近的幾個出版物中占據了突出位置,包括2019年陸軍現代化戰略(AMS)和美國陸軍多域作戰(MDO)2028年概念。 盡管認知科學取得了進展,并且認識到認知超配在多域作戰中的重要性,然而,美國陸軍還沒有完全接受認知能力優化的概念。在過去的十年中,美國國家衛生研究院在大腦研究方面的投資超過535億美元,但士兵和領導人在 "永遠在線 "的多任務和連接文化中進行訓練和操作,這種習慣最終會降低認知性能。 無論是在駐地還是在部署時,領導人都試圖過濾幾十條信息流,并在睡眠不足和對認知能力優化原則理解有限的情況下做出快速決策。

與此同時,中國和俄羅斯一直在追求生物技術、神經科學和人工智能(AI)解決方案,以提高人類的認知能力,并獲得對美國及其盟友的不對稱作戰優勢。 不受西方社會道德規范的約束,俄羅斯等積極利用雙重用途的民用和軍用研究來實現這一目的,將頭腦視為未來戰爭的主要戰斗空間,并正在采取措施在那里占據主導地位。

為了應對這一挑戰,美國陸軍必須與美國防部的認知能力研究和開發工作保持一致。然而,僅有科學是不夠的。陸軍還必須發展其文化,認識到以科學為基礎的道德方法的重要性,以確保以推動整個部隊的競爭和創新的方式發揮認知優勢。需要采取一種植根于教育、培訓和技術的審慎行為修正方法來取代過時的認知能力神話,這些神話最終會通過多任務處理、睡眠剝奪和信息過載來降低認知功能。否則,我們的對手可能會找到他們所需的不對稱優勢來支配美國的聯合部隊。

多域作戰與認知域

認知能力是指觀察、定向、決定和行動以產生最佳結果的能力。 認知技能對于戰場上的成功一直很重要,在決定戰斗和戰役中發揮著關鍵作用。未來將提供類似的機會,但隨著戰場擴展到空間和網絡空間,會有更大的復雜性、迷霧和摩擦。2019年AMS針對這種不斷變化的環境,提出了多域作戰的概念。 2019年AMS概述了多域作戰概念與以前的作戰概念有何不同,并要求其從業人員具有更高水平的認知能力。

MDO概念提出了認知方面的挑戰,因為它要求領導者認識并利用稍縱即逝的機會,在復雜的作戰環境中實現對先進對手能力的跨域聚合效應。 為了在多領域作戰中取勝,美國陸軍沿著六個貫穿所有領域的現代化優先事項部署了日益復雜的系統。這些先進的系統不僅需要更高的智力和技術技能來操作和維護,而且當與改進的數字通信和網絡能力相結合時,領導人還可以獲得比以往更多的實時數據。最后,MDO 2028概念和 "陸軍人員戰略 "將美國士兵置于多域作戰概念的中心。事實上,作為"陸軍最大的力量和最重要的武器系統",士兵們將在無數實時數據和信息源的交匯處行動,并面臨著越來越大的壓力,需要在機會和威脅出現時進行多任務處理、優先排序、評估、決定和行動。

以人工智能、人機交互和其他技術進步的承諾來解決這些挑戰是很誘人的。然而,許多這些能力仍然是假設的,即使對士兵的認知要求繼續上升。即使當它們可用時,人工智能和其他技術將補充人類的決策,但在短期內,人腦可能仍然是關鍵節點。因此,要實現認知上的優勢,首先要了解人腦的基本能力和局限性。大衛-洛克(David Rock)等認知科學家堅持認為,了解大腦功能是提高認知能力的最佳途徑之一。最佳喚醒、多任務處理、認知耐力和決策質量等概念提供了一個理解框架,并為提高績效提供了機會。

認知喚醒

情緒的喚醒程度直接影響認知表現。1908年首次提出的耶克斯-多德森定律(Yerkes-Dodson Law)為這一現象提供了一個基本模型,并描述了一個與巔峰表現相關的認知喚醒的甜蜜點。正確的喚醒水平,或壓力,會使大腦釋放正確的神經化學物質組合,以產生最佳表現所需的警覺性和注意力。優秀的教練認識到喚醒水平對表現的影響,并在比賽期間根據需要成功地使球隊平靜下來或振作起來。太少會讓我們變得平淡無奇,而太多則會產生適得其反的壓力、焦慮或脫離。軍隊領導人可能熟悉這種現象,在戰斗情況下,身體的威脅會激起強大的反應,但在工作壓力和信息過載的情況下也會出現類似的狀態。

盡管在戰斗中限制壓力和焦慮具有挑戰性,但監測和管理士兵的情緒喚醒水平可以為提高認知能力提供直接機會。英國皇家學會描述的一個新穎的解決方案建議軍隊和執法部門使用認知過載監測系統,在個人出現認知過載的跡象時發出警報。這種意識將使用戶有意識地改變他們的情緒喚醒和行為狀態,以專注于最關鍵的問題。同樣,美國陸軍作戰能力發展司令部士兵中心進行的監測和評估士兵戰術準備和有效性試點研究,重點是通過創新的科學技術優化士兵個人和小單位的感知、認知和互動。通過分析持續訓練期間通過佩戴式傳感器和實驗室傳感器收集的數據,該研究確定了額外研究的機會,可以幫助士兵和領導識別、預測和維持影響決策質量、射擊精度和注意力控制的最佳喚醒和戰術性能水平。

圖 1. Yerkes-Dodson 定律

多任務處理

軍隊領導人被要求發展一種能力,以應付多種情況--立即對短信、聊天和電子郵件作出反應,并在快速變化的環境中解決問題的同時保持對局勢的認識。不幸的是,軍隊領導人所使用的工具及其使用方法在戰斗和駐軍中加深了 "戰爭迷霧"。盡管社會聯系日益緊密,但科學表明,大腦在任何特定時間內能夠處理的操作數量和復雜性都是有限的。集中我們的注意力需要分配前額葉皮層的神經資源,使大腦不能有效地同時關注兩件事情。當多任務處理時,我們的大腦反而被迫從一個話題迅速過渡到另一個話題。在不同的任務之間轉換需要大量的代謝資源,如含氧葡萄糖;一旦耗盡,認知和身體表現都會下降。多任務處理還產生壓力荷爾蒙皮質醇,并影響腎上腺素和多巴胺水平,從而擾亂我們的思維。多任務處理影響的深刻性使一些研究人員相信,通過文本、電子郵件、廣播交通和聊天窗口等不斷的中斷,可能會產生類似于暫時降低智商的效果。

此外,研究表明,多任務處理會增加決策風險。2009年斯坦福大學的一項研究稱,重度媒體多任務處理者的記憶力、學習和認知功能都有所下降。該研究比較了被認定為重度和輕度多任務處理者的群體的認知能力。雖然其他因素可能導致這種退化,但研究表明,習慣性的多任務處理可能會諷刺地損害個人完成偶爾多任務的能力。例如,考慮到一個司機在城市的一個不熟悉的地方一邊聽廣播一邊與乘客交談。在一次轉彎失誤后,司機本能地暫停了談話,關閉了收音機,集中精力糾正方向。司機的行為顯示了他對同時做兩件事的挑戰的直覺認識。通過選擇多任務處理,我們接受了性能下降,正式稱為 "雙重任務干擾 "或 "心理折返效應"。

作為全軍腦科學教育倡議的一部分,早期職業教育可以為減少多任務、分心、頻繁中斷和信息過載的文化提供有意義的第一步。冥想、深思熟慮、元認知、正念和正念意識等技術提供了可獲得的、低成本的方法,通過提高注意力和表現來建立整個部隊更好的認知習慣,以滿足訓練和任務要求。

認知耐力

軍隊的腦科學教育也可以幫助領導者了解決策和注意力過濾對認知表現的累積代價。大腦可用于數據處理的資源是有限的,做出決定、抵制沖動或忽略分心等行為會隨著時間的推移消耗我們的認知能量。充滿瑣碎的選擇和分散注意力的信息的環境耗盡了我們的頭腦,使我們的認知能力變得遲鈍,因為大腦不會根據重要性的程度來區分或確定決定的優先次序。換句話說,我們的決策能力受制于認知耐力的限制,并隨著時間的推移而退化。

盡管對認知耐力的極限有天生的認識,但許多軍事領導人在安排日程和戰斗節奏時并沒有考慮到這一點。例如,在值班日結束時舉行 "夜間法庭 "非司法處罰聽證會的指揮官可能會在日常決策的累積效應使他們的認知能力出現問題和不可靠的時候做出重要決定。相反,領導人可能把他們最有成效的時間花在回答電子郵件或執行低級任務上,而不是最大限度地利用他們的認知資源來完成復雜的任務和決策。這些基本的例子說明了為什么軍隊必須將時間管理教育和培訓納入其認知主導工作中。

決策質量

即使在考慮認知耐力的極限時,我們的大腦也經常被淹沒在信息中,必須在采取行動之前進行綜合分析。對最佳復雜性理論的研究表明,在做決定時需要考慮的因素有一個最佳數量,太少或太多都會降低性能。正如對計算機的研究一樣,這些研究揭示了人類工作記憶的極限。我們在綜合理解時,很難在腦海中記住超過三到五件知識。此外,試圖考慮10個以上的因素會大大降低性能。了解這一現象有助于促進更好的決策,尤其是在時間緊迫的情況下。

許多人認為,更多的投入將導致最佳決策的產生。在決策實驗中,受試者在超過最佳復雜程度后要求更多的信息,受試者的表現因信息過載而下降。這種趨勢對軍隊來說尤其值得關注,在伊拉克和阿富汗的信息至上主義現在使高級領導人有條件期待大量的信息來支持他們的決策。信息成癮可能會耽誤指揮官等待更多的信息,而這具有諷刺意味的是,這會降低他們決策的質量。

軍方認識到這一挑戰,正在利用人工智能開發改進的信息過濾和決策支持算法,使領導人能夠做出更好、更快的決定。雖然很有希望,但這些努力在不久的將來是有限的,不會完全緩解與現代戰爭相關的認知挑戰。再次,作為全軍腦科學教育倡議的一部分,關于信息過載的負面影響的教育可以推動文化變革,改善決策--無論是否有人工智能的增強。

對手

當美國軍隊慢慢地將提高認知能力融入其文化時,俄羅斯等在認知領域取得了令人不安的進展。中國強調旨在創造神經科學、人工智能和生物技術方面的作戰優勢的研究和開發,作為正在進行的軍民融合的一部分。有影響力的中國人民解放軍(PLA)領導人強調要為延伸到虛擬領域的未來作戰環境做好軍事準備。這些領域包括信息領域和 "意識領域",需要 "精神/認知主導 "才能取得成功。新美國安全中心的高級研究員和中國問題專家Elsa B. Kania指出,這些概念現在經常在解放軍的著作中討論,還有人類和人工智能融合的概念。

同樣,俄羅斯認為思想是現代戰爭的主戰場,"戰爭要以信息和心理戰為主導"。俄羅斯模仿中國在認知優勢研究中對道德規范的堅持值得懷疑,但俄羅斯的方法更多的是依靠通過心理戰和其他手段破壞對手的認知過程。無處不在的虛假俄羅斯敘事給對手帶來了很高的認知負荷,需要增加信息過濾,這消耗了認知資源,并隨著時間的推移降低了決策的速度和質量。在2022年俄羅斯對烏克蘭戰爭的前6個月,就有無數這樣的例子。非人化的言辭、非法吞并的行為以及關于烏克蘭人親近俄羅斯的錯誤說法,都是為了混淆俄羅斯的侵略和制造混亂的說法。通過播種懷疑和制造混亂,俄羅斯的錯誤信息只需要暫時蒙蔽敵人的判斷力,就能造成猶豫,為俄羅斯的活動提供優勢。

此外,俄羅斯軍隊對使用喪失能力的藥劑來降低其對手的認知功能表現出持續的興趣。在2002年杜布羅夫卡劇院的人質事件中,俄羅斯特種部隊在通風系統中釋放芬太尼衍生物,以操縱大約50名車臣分離主義分子和750名俄羅斯人質的意識。雖然他們的行動使分離主義分子失去了知覺,但也導致了大約125名人質的過量死亡和其他人的永久性衰弱。盡管俄羅斯官員在很大程度上認為這次行動是成功的,但他們的行動招致了國際社會的譴責,并再次引發了對國際法,如1993年《化學武器公約》的有效性和適用性的辯論。

神經學和生物化學專家,如喬治敦大學醫學中心的神經倫理學主任詹姆斯-喬達諾,擔心神經科學和技術的進步為利用現有條約、國際法和超國家公約中關于使用化學和生物制劑的空白提供了機會。這包括使用CRISPR基因編輯和納米技術來增強士兵的神經結構,同時制造新型神經武器來降低對手的認知功能。

美國陸軍的機遇

飛躍性技術的誘惑和神經科學的進步獲得了國內媒體對認知表現舉措的大部分關注。雖然這些努力很重要,而且應該繼續下去,但美軍必須利用實際的、近期的機會來實現現在的認知主導地位。

間接和直接提高和優化認知性能的方法可以以適度的成本為美陸軍提供快速的勝利。了解到直接-間接二分法涉及到對復雜的認知和神經科學概念的一些過度簡化,但這些類別還是提供了一個討論的框架。提高認知能力的間接方法是通過飲食干預、睡眠調整、體育鍛煉、藥理學和復原力訓練來影響認知能力。直接方法 "直接針對學習、感知、認知或情感的結構或功能機制和過程",包括經顱腦電刺激或現實增強等方法。在實踐中,這兩種方法沒有界限之分,都需要有效地提高和優化認知性能。

圖 2. 認知優勢的綜合方法

認知硬件升級——一種間接方法

使用計算機類比有助于可視化認知增強,同時建立在間接和直接方法的概念上。認知性能的優化意味著我們在現有的硬件(或生理學)的限制下,最大限度地提高我們的軟件(認知能力,或我們如何思考)。在這種情況下,硬件和軟件的升級都可以為提高認知能力提供機會。硬件升級通過人才管理、生理干預、藥物干預和技術提升提供了一種間接的方法。

人才管理

在《從優秀到卓越》(Harper Business, 2001)中,詹姆斯-C-柯林斯(James C. Collins)通過 "讓正確的人上車,讓錯誤的人下車,讓正確的人坐在正確的座位上 "這一比喻來描述建立一個成功組織的第一步。同樣,陸軍提高部隊集體認知操作能力的最佳機會可能在于識別、招募、評估和保留合適的人。

研究表明,認知能力部分是遺傳的,通過結合神經影像技術、統計工具和傳統的認知評估,識別諸如神經靈活性和技能專長等特質是可能的。這些工具為軍隊提供了一個識別和優化個人認知特征應用的機會,作為信息時代招聘和人才管理計劃的一部分,促進認知多樣性以提高創造力和決策力。認知多樣性被定義為 "視角或信息處理方式的差異"。最近的研究表明,認知多樣性加速了學習,并提高了團隊在不確定的復雜情況下的表現。通過有效的評估和人才管理計劃,可以提高軍事團隊的認知多樣性。諸如 "雅典娜項目 "這樣的倡議為應用評估作為自我發展工具提供了一個有前途的模式,但在軍隊范圍內實施需要增加研究、開發和應用的資金。在當今競爭激烈的就業市場上,陸軍必須在目前的評估和人才管理努力的基礎上,招募和保留所需的人才,以優化其認知潛力并超越近似的競爭對手。

生理干預

大量的研究表明,體育訓練、適當的營養和睡眠管理與認知能力有明顯的聯系。陸軍長期以來一直倡導體育鍛煉對心理和生理的益處,研究證實耐力運動中產生的神經化學物質具有神經保護作用,可以改善學習和記憶。睡眠管理和營養指南也反映在美國陸軍的 "整體健康和體能"(H2F)理論和 "績效三要素戰略 "中,但在整個部隊中缺乏廣泛接受。盡管陸軍認識到適當的營養對支持 "最佳身體和認知功能 "的重要性,但士兵們往往將陸軍的營養概念與體力、體質和能量水平聯系起來,而不是與心理功能或情緒聯系起來。例如,領導人對脫水的身體影響很熟悉。然而,脫水對認知的影響在醫學和研究界之外卻鮮為人知。

在可用于提高認知能力的生理干預措施中,睡眠管理可能是軍隊應用中最尚未開發的潛力。陸軍H2F理論指出,"認知能力和戰備狀態與獲得的睡眠量有直接關系",許多研究將睡眠與陸軍的認知功能和戰備狀態直接聯系起來。即便如此,研究表明,超過62%的士兵長期遭受睡眠不足的困擾,無論是在駐扎地還是部署地,每晚平均睡眠時間不足6小時。軍隊要想在睡眠管理方面取得有意義的進展,就必須在入伍培訓和專業軍事教育的各個階段通過腦力教育來刻意改變文化。教育必須與表彰和獎勵士兵建立健康的睡眠習慣作為提高認知能力的生活方式的計劃相結合。

隨著美陸軍尋求改變其文化,更廣泛地采用可穿戴技術可以提高士兵和領導者的意識,建立理想的習慣和做法,并改變思維方式。所有這三者都需要啟動在認知和身體領域的持久增強性能。沃爾特-里德陸軍研究所(WRAIR)和美國陸軍作戰能力發展司令部士兵中心涉及數百名第十山地師士兵的研究表明,商業化的現成可穿戴技術,如手表、戒指或手環,可以在個人和組織層面推動行為變化。例如,監測睡眠習慣和下班后的身體活動水平可以幫助領導者利用個性化的數據指導士兵建立健康的習慣。陸軍應優先考慮在這一領域的近期投資,作為快速和可見的手段來證明對提高認知能力的承諾。與領導層的教育和強調相結合,可穿戴設備的使用可以為廣泛的文化變革提供強大的催化劑。

非藥物介入

與生理干預類似,藥物干預為提高認知能力提供了機會。興奮劑的使用就是這樣一種干預,在軍隊中已經很普遍了。在高端領域,醫療機構為飛行員開出了諸如右旋苯丙胺之類的藥物,以維持長期任務中的認知能力和警覺性。更常見的是,士兵們通過飲用咖啡因來幫助他們的個人表現。雖然有機會對提高認知能力的藥物如莫達非尼(Provigil)、哌醋甲酯(Ritalin)和各種苯丙胺混合物(Adderall)的使用進行進一步研究和道德辯論,但咖啡因的使用在西方社會基本上沒有爭議。即便如此,過量飲用咖啡因也會產生不必要的副作用,包括失眠、焦慮、血壓升高和心悸。為了可靠地提高認知能力,需要采取慎重的方法來使用興奮劑,以達到最佳的喚醒水平,同時不產生負面的健康后果。

2B-Alert應用是優化咖啡因使用的一種新方法,有可能在全軍范圍內使用。目前,沃爾特-里德陸軍研究所與生物技術高性能計算軟件應用研究所合作開發,2B-Alert使用機器學習、睡眠歷史和個人數據來預測睡眠不足時期的認知功能,并制定咖啡因劑量計劃,以在所需的時間窗口內最大限度地提高警覺性。如果與可穿戴技術相結合,納入所有訓練,并成為日常軍事文化的一部分,像2B-Alert這樣的應用可以為整個聯合部隊提供安全和具有成本效益的認知增強。

技術加強

整個美國防部的多種努力都在探索基于技術的認知增強手段。這些技術在開發、應用方法和成本方面差異很大,但應被視為整體認知優勢戰略的一部分。例如,經顱電刺激(TES)可以增強大腦信號,模仿深度恢復性睡眠時的腦電波,以提高睡眠質量。因此,在睡眠不足的環境中使用TES可以使士兵從短暫的睡眠中獲得更多的恢復性效果,以提高認知能力。沃爾特-里德陸軍研究所睡眠研究中心與美國國防部高級研究計劃局(DARPA)和Teledyne Scientific合作,正在評估可實地使用的TES設備的有效性,以充分利用有限的睡眠時間并改善疲勞管理。

經顱直流電刺激(tDCS)已經被奧林匹克運動員使用,并正在國防部內進行測試。與經顱電刺激不同,tDCS通過增加大腦中的能量來促進神經活動,改變大腦連接,以改善運動表現和認知。海軍特種作業人員的初步測試顯示,TDCS可以提高訓練效率,空軍的研究顯示,使用經顱直流電刺激可以提高警覺性,增強疲勞狀態下的認知能力。

生物技術和藥物認知增強正在引發關于士兵同意增強的自由和增強社會一部分人的長期反響的道德辯論。陸軍在繼續其強化研究工作以跟上近似競爭對手的步伐時,應該參與到這場辯論中。然而,認識到這些道德限制和預算限制,陸軍應該在短期內更多地強調容易執行和爭議較少的工作。

認知軟件升級——一個直接的方法

重新審視我們的計算機類比有助于說明,增強的認知軟件--我們如何使用我們的思想--為增強認知性能提供了直接的方法。雖然間接的步驟可以改善認知的硬件,但僅靠更好的硬件可能無法提高性能。新的硬件往往需要升級的軟件和更高的用戶熟練度來最大限度地發揮其潛力。因此,直接和間接的方法--升級的硬件和軟件--對于實現最高水平的認知性能是必要的。大腦教育、基于認知科學的學習技術和管理信息過載的方法以最小的投資提供實用的軟件升級。

大腦教育和自我感知

許多認知心理學家和神經學家都認為,優化個人的認知表現要從了解大腦開始。對大腦功能的基本了解為元認知,或 "關于思維的思考 "奠定了基礎。軍隊理論重視元認知在復雜問題解決和適應性思維方面的作用,但對如何發展和改善元認知過程卻沒有提供深入的見解。此外,陸軍理論中關于元認知的文章很少,完全集中在復雜問題解決背景下的領導人身上,沒有考慮到整個部隊的廣泛應用。安德魯-斯蒂德曼在其2011年關于應用神經科學提高陸軍認知能力的論文中指出,"元認知還沒有作為一種理想的領導者特質和培訓概念下降到戰術層面。"

對服役人員進行基本腦科學和元認知的普遍培訓和教育,如果輔之以個人實時觀察大腦過程的能力,可以為高峰認知性能打下基礎。元認知是通過正念完成的,或者說是 "有目的、無判斷 "地密切關注當下。多項神經科學和心理學研究顯示,練習正念有很大好處,包括改善認知控制和決策。陸軍將正念訓練作為士兵和家庭綜合健身計劃的一部分,并在陸軍H2F學說和教練中承認正念和正念意識的概念。然而,正念和正念意識的概念在整個部隊中缺乏廣泛的理解和采用。

腦科學、元認知和正念意識必須被納入專業軍事教育,以優化整個軍隊的士兵認知表現。美國陸軍外國軍事和文化研究大學提供的應用批判性思維課程為野戰級預科課程和陸軍戰略教育計劃提供了基線課程內容。這些主題也應該在所有的初始入職培訓管道中教授,根據技能和經驗水平進行調整,并根據職業生涯的評估結果進行定制。這種方法在許多方面類似于海軍的 "勇士堅韌"計劃,該計劃側重于發展水兵的精神、心理和體力,并取得了初步的成果。

海軍在審查了菲茨杰拉德號和約翰-S-麥凱恩號上最近發生的事故后,于2018年在所有士兵和軍官入伍計劃中實施了 "勇士堅韌 "課程。 它使用正念和體育心理學的目標設定、自我對話、可視化和能量管理技術來改善情緒調節和認知表現。勇士堅韌計劃的實施標志著對整個海軍文化變革的重大投資,其結果迄今為止還難以量化。美國海軍臨床心理學家梅麗莎-D-希勒-勞比(Melissa D. Hiller Lauby)上尉指出,2020年7月在美國海軍 "邦霍姆-理查德 "號上成功應對火災的水兵們在行動后的匯報中多次提到了 "勇士堅韌 "訓練的好處。具體來說,自我對話和情緒調節的使用幫助一些水手在面對極端壓力時更加冷靜地應對。需要更多的時間和分析來判斷該計劃的有效性,但 "勇士堅韌"可以為陸軍改變其認知性能文化的努力提供參考。

基于認知科學的學習

訓練在軍隊中無處不在,但最近的認知科學研究表明,軍隊的許多訓練技術可能無法產生長期的理解力。認知科學表明,重復操練、死記硬背和重讀并不像許多人認為的那樣有效。對學術情況和試圖掌握運動技能(如擊球)的運動員的研究表明,改變提供指導和訓練的方式會大大影響學習的質量和持久性。采用基于認知科學的學習方法,如間隔練習、交錯練習和適應性輔導,可以為軍隊提供低成本的機會,使教育和訓練的效果最大化,以提高認知能力。

此外,《陸軍野戰手冊》(FM)7-22《整體健康與體能》指出,基于認知科學的學習策略,控制學習環境,限制干擾,并根據士兵的學習偏好進行指導,可以使士兵更有效地掌握任務。陸軍大學的應用認知和腦科學專家韋德-埃爾莫爾(Wade Elmore)認為,自適應輔導技術有機會增加持久的學習。研究表明,使用機器學習和計算機算法提供定制教學的智能輔導平臺優于所有其他方法,包括人類輔導員。雖然智能輔導可能不會直接提高決策和批判性思維能力,但通過量身定制的強化學習方法來增加士兵的隱性知識,為隨后掌握相關的認知任務提供了基礎。基于認知科學的學習方法和技術必須在整個陸軍訓練中采用,納入陸軍訓練理論,并融入陸軍訓練文化。提高嵌入士兵長期記憶中的持久知識和技能的數量和質量是優化認知軟件以達到最佳性能的有力方法。

管理信息過載

雖然基于認知科學的學習方法和技術可以幫助優化學習,但改善士兵的短期工作記憶需要一個不同的方法。陸軍理論認識到這一點,并在FM7-22《整體健康和體能》中宣稱,優化短期工作記憶的士兵可以更有效地處理和完成復雜任務。該手冊繼續提供任務簡化、學習提示和記憶提示作為提高績效的方法,但沒有采取更全面的方法,并錯過了在這個關鍵領域影響軍隊文化的機會。

抵消信息過載的影響需要從根本上改變陸軍 "永遠在線 "的通信和信息管理文化。特別是對領導人隨時可以進行即時溝通的期望,會因為頻繁的中斷、分心和情緒激動而降低認知能力。作為全軍腦科學教育倡議的一部分,關于多任務、分心、頻繁中斷和信息過載的影響的教育可以為推動變革提供重要的第一步。

有效的時間管理提供了另一個減少心理摩擦和提高認知能力的機會。日常行動的要求經常考驗領導者的時間管理技能。然而,在高級軍校以下的專業軍事教育中沒有系統地教授有效的時間管理技巧。因此,許多領導人不知道基于認知科學的時間管理的最佳做法,并執行保證次優認知表現的日常計劃。加強這方面的教育可以幫助領導人制定日常時間表,避免在創作期間分心,提供集中工作的機會,并支持充足的睡眠和營養。

結論

認知能力是所有領域中個人和集體表現的基礎。隨著美國陸軍為多域作戰做準備,建立促進認知優勢的文化和行為對于成功地與在多個領域尋求不對稱優勢的近似對手競爭至關重要。為了成功,陸軍必須用一種優化和提高認知性能的文化來取代其 "永遠在線 "的多任務和連接文化,以便在信息時代占據主導地位并取得勝利。只有通過植根于教育、培訓、技術和努力工作的深思熟慮的方法,美國陸軍才能建立一種持久的認知主導文化。

雖然僅僅依靠技術進步來實現認知優勢是很誘人的,但在預算和行動不確定的情況下,需要在理論、組織、訓練、物資、領導和教育、人員、設施和政策(DOTMLPF-P)框架內采取多樣化的方法來減少風險。陸軍必須同時采用間接和直接的方法來提高認知性能,同時參與與這些方法相關的道德辯論。美國未來的對手將繼續尋求在認知領域的不對稱優勢。我們必須迫使他們嘗試克服美國士兵的決心、創造力和勇氣來實現這一目標。

付費5元查看完整內容

人工智能在軍事領域的前景之一是其廣泛的適用性,這似乎可以保證其被采用。在軍事方面,人工智能的潛力存在于所有作戰領域(即陸地、海洋、空中、太空和網絡空間)和所有戰爭級別(即政治、戰略、戰役和戰術)。然而,盡管有潛力,需求和人工智能技術進步之間的銜接仍然不是最佳狀態,特別是在軍事應用的監督機器學習方面。訓練監督機器學習模型需要大量的最新數據,而這些數據往往是一個組織無法提供或難以產生的。應對這一挑戰的絕佳方式是通過協作設計數據管道的聯邦學習。這種機制的基礎是為所有用戶實施一個單一的通用模型,使用分布式數據進行訓練。此外,這種聯邦模式確保了每個實體所管理的敏感信息的隱私和保護。然而,這個過程對通用聯邦模型的有效性和通用性提出了嚴重的反對意見。通常情況下,每個機器學習算法在管理現有數據和揭示復雜關系的特點方面表現出敏感性,所以預測有一些嚴重的偏差。本文提出了一種整體的聯邦學習方法來解決上述問題。它是一個聯邦自動集成學習(FAMEL)框架。FAMEL,對于聯邦的每個用戶來說,自動創建最合適的算法,其最優的超參數適用于其擁有的現有數據。每個聯邦用戶的最優模型被用來創建一個集成學習模型。因此,每個用戶都有一個最新的、高度準確的模型,而不會在聯邦中暴露個人數據。實驗證明,這種集成模型具有更好的可預測性和穩定性。它的整體行為平滑了噪音,同時減少了因抽樣不足而導致的錯誤選擇風險。

關鍵詞:聯邦學習;元學習;集成學習;軍事行動;網絡防御

1 引言

隨著步伐的加快,人工智能(AI)正在成為現代戰爭的重要組成部分,因為它為大規模基礎設施的完全自動化和眾多防御或網絡防御系統的優化提供了新的機會[1]。人工智能在軍事領域[2]的前景之一,似乎保證了它的采用,即它的廣泛適用性。在軍事方面,人工智能的潛力存在于所有作戰領域(即陸地、海洋、空中、太空和網絡空間)和所有級別的戰爭(即政治、戰略、戰役和戰術)[3]。但與此同時,隨著參與連續互聯和不間斷信息交換服務的互聯系統數量的實時擴大,其復雜性仍在成倍增長[4]。從概括的角度來看,可以說人工智能將對以下任務產生重大影響:

1.太快的任務,反應時間為幾秒鐘或更少,在高復雜度(數據、背景、任務類型)下執行。

2.操作時間超過人類耐力的任務,或意味著長期的高操作(人員)成本。

3.涉及巨大的復雜性的任務,需要靈活地適應環境和目標的變化。

4.具有挑戰性的行動環境,意味著對作戰人員的嚴重風險。

支持上述任務的實時監測事件的應用程序正在接收一個持續的、無限的、相互聯系的觀察流。這些數據表現出高度的可變性,因為它們的特征隨著時間的推移而發生巨大的、意想不到的變化,改變了它們典型的、預期的行為。在典型情況下,最新的數據是最重要的,因為老化是基于它們的時間。

利用數據的軍事人工智能系統可以將軍事指揮官和操作員的知識和經驗轉化為最佳的有效和及時的決策[3,4]。然而,缺乏與使用復雜的機器學習架構相關的詳細知識和專業知識會影響智能模型的性能,阻止對一些關鍵的超參數進行定期調整,并最終降低算法的可靠性和這些系統應有的概括性。這些缺點正在阻礙國防的利益相關者,在指揮鏈的各個層級,信任并有效和系統地使用機器學習系統。在這種情況下,鑒于傳統決策系統無法適應不斷變化的環境,采用智能解決方案勢在必行。

此外,加強國防領域對機器學習系統不信任的一個普遍困難是,采用單一數據倉庫對智能模型進行整體訓練的前景[1],由于需要建立一個潛在的單點故障和對手的潛在戰略/主要目標[6],這可能造成嚴重的技術挑戰和隱私[5]、邏輯和物理安全等嚴重問題。相應地,可以使更完整的智能分類器泛化的數據交換也給敏感數據的安全和隱私帶來了風險,而軍事指揮官和操作人員并不希望冒這個風險[7]。

為了克服上述雙重挑戰,這項工作提出了FAMEL。它是一個整體系統,可以自動選擇和使用最合適的算法超參數,以最佳方式解決所考慮的問題,將其作為一個尋找算法解決方案的模型,其中通過輸入和輸出數據之間的映射來解決。擬議的框架使用元學習來識別過去積累的類似知識,以加快這一過程[8]。這些知識使用啟發式技術進行組合,實現一個單一的、不斷更新的智能框架。數據保持在操作者的本地環境中,只有模型的參數通過安全流程進行交換,從而使潛在的對手更難干預系統[9,10]。

2 提出的框架

在提議的FAMEL框架中,每個用戶在水平聯邦學習方法中使用一個自動元學習系統(水平聯邦學習在所有設備上使用具有相同特征空間的數據集。垂直聯邦學習使用不同特征空間的不同數據集來共同訓練一個全局模型)。以完全自動化的方式選擇具有最佳超參數的最合適的算法,該算法可以最佳地解決給定的問題。該實施基于實體的可用數據,不需要在遠程存儲庫中處置或與第三方共享[11]。

整個過程在圖1中描述。

圖1.FAMEL框架。

具體來說就是:

步驟1--微調最佳局部模型。微調過程將有助于提高每個機器學習模型的準確性,通過整合現有數據集的數據并將其作為初始化點,使訓練過程具有時間和資源效率。

步驟2--將本地模型上傳至聯邦服務器。

步驟3--由聯邦服務器對模型進行組合。這種集成方法使用多種學習算法,以獲得比單獨使用任何一種組成的學習算法都要好的預測性能。

步驟4--將集成模型分配給本地設備。

從這個過程中產生的最佳模型(贏家算法)被輸送到一個聯邦服務器,在那里通過啟發式機制創建一個集成學習模型。這個集成模型基本上包含了本地最佳模型所代表的知識,如前所述,這些知識來自用戶持有的本地數據[12]。因此,總的來說,集成模型提供了高概括性、更好的預測性和穩定性。它的一般行為平滑了噪音,同時降低了在處理本地數據的場景中由于建模或偏見而做出錯誤選擇的總體危險[13,14]。

結論

將機器學習應用于現實世界的問題仍然特別具有挑戰性[44]。這是因為需要訓練有素的工程師和擁有豐富經驗和信息的軍事專家來協調各自算法的眾多參數,將它們與具體問題關聯起來,并使用目前可用的數據集。這是一項漫長的、費力的、昂貴的工作。然而,算法的超參數特征和理想參數的設計選擇可以被看作是優化問題,因為機器學習可以被認為是一個搜索問題,它試圖接近輸入和輸出數據之間的一個未知的潛在映射函數。

利用上述觀點,在目前的工作中,提出了FAMEL,擴展了制定自動機器學習的一般框架的想法,該框架具有有效的通用優化,在聯邦層面上運作。它使用自動機器學習在每個聯邦用戶持有的數據中找到最佳的本地模型,然后,進行廣泛的元學習,創建一個集成模型,正如實驗所顯示的那樣,它可以泛化,提供高度可靠的結果。這樣,聯邦機構就有了一個專門的、高度概括的模型,其訓練不需要接觸他們所擁有的數據的聯合體。在這方面,FAMEL可以應用于一些軍事應用,在這些應用中,持續學習和環境適應對支持的行動至關重要,而且由于安全原因,信息交流可能很難或不可能。例如,在實時優化有關任務和情況的信息共享方面就是這種情況。在部署了物聯網傳感器網格的擁擠環境中,FAMEL的應用將具有特別的意義,需要滿足許多安全限制。同樣,它也可以應用于網絡空間行動,在雜亂的信息環境和復雜的物理場景中實時發現和識別潛在的敵對活動,包括對抗負面的數字影響[45,46]。必須指出的是,在不減少目前所描述的要點的情況下,所提出的技術可以擴展到更廣泛的科學領域。它是一種通用的技術,可以發展和產生一種開放性的整體聯邦學習方法。

盡管總的來說,聯邦學習技術的方法論、集成模型以及最近的元學習方法已經強烈地占據了研究界,并提出了相關的工作,提升了相關的研究領域,但這是第一次在國際文獻中提出這樣一個綜合框架。本文提供的方法是一種先進的學習形式。計算過程并不局限于解決一個問題,而是通過一種富有成效的方法來搜索解決方案的空間,并以元啟發式的方式選擇最優的解決方案[47,48]。

另一方面,聯邦學習模型應該對合作訓練數據集應用平均聚合方法。這引起了人們對這種普遍方法的有效性的嚴重關注,因此也引起了人們對一般聯邦架構的有效性的關注。一般來說,它將單個用戶的獨特需求扁平化,而不考慮要管理的本地事件。如何創建解決上述局限性的個性化智能模型,是目前一個突出的研究問題。例如,研究[49]是基于每個用戶必須以聯邦的形式解決的需求和事件。解釋是可解釋系統的各種特征,在指定的插圖的情況下,這些特征有助于得出結論,并在局部和全局層面提供模型的功能。建議只對那些變化程度被認為對其功能的演變相當重要的特征進行再訓練。

可以擴大擬議框架研究領域的基本課題涉及元集成學習過程,特別是如何解決創建樹和它們的深度的問題,從而使這個過程自動完全簡化。還應確定一個自動程序,以最佳的分離方式修剪每棵樹,以避免負收益。最后,探索將優化修剪的樹的版本添加到模型中的程序,以最大限度地提高框架效率、準確性和速度。

(完整內容請閱讀原文)

付費5元查看完整內容

人工智能正在緩慢地進入軍事行動,該學科的進步推動了戰斗空間中自主性的質和量的增加。這就意味著戰斗人員將越來越多地與具有越來越先進自主能力的機器共存。隨著機器從簡單的工具躍升為合作的隊友,人機編隊將成為現代戰爭的中心。空軍的忠誠僚機概念表明,人與機器之間的互動質量與機器的技術先進性一樣,對成功的人機協作至關重要。了解如何確保人類和機器之間的信任將是至關重要的。人工智能和機器學習將使信任變得更加必要和難以實現,而與神經技術的融合可能會使這項任務進一步復雜化,帶來新的挑戰。

引言

人工智能(AI)正日益進入軍事領域。雖然愛好者、否認者和實用主義者可能對人工智能將在多大程度上賦予戰斗空間優勢持不同意見,但它已經被用作分析工具、破壞者和力量倍增器(Rickli和Mantellassi,2023)。在烏克蘭的沖突中,人工智能通過縮短傳感器到射手的時間、分析截獲的通信、傳播情報以及在信息戰中利用人工智能來優化目標定位周期,明顯體現了這種趨勢(Rickli, Mantellassi, and Juillard, 2022, p.22)。人工智能的進步不僅在數量上加速了戰爭的自主性和自動化,而且在質量上也加速了完全或部分由機器完成的一系列任務。隨著人類和機器在戰斗空間中的共存不斷擴大,成功理解如何實現人類和機器之間的最佳合作是釋放人工智能在軍事行動中的全部潛力的關鍵。本文將重點討論人工智能和人機協作對空軍的新的重要性,在放大信任問題之前,特別關注 "忠誠的僚機 "概念。它還將討論人機協作如何與其他新興技術,特別是神經技術相融合,以重新定義未來的可能性。

人工智能與人機編隊

人機編隊(HMT)是將人類的判斷與計算機的數據處理和響應能力相結合的行為(Motley,2022)。在軍事領域,這意味著將人類、人工智能和機器人整合到合作、相互依賴和自主的系統中(Hein和Maquaire,2022)。人機互動在軍事和民用領域已經很普遍,但這種傳統的機器和人之間的互動模式并不一定構成一個 "團隊"(Walliser等人,2019)。理解是什么讓兩者之間的互動成為一個團隊,而不是機器只是一個工具,這一點至關重要。在人機團隊中,機器在實現目標方面發揮著積極作用,它 "從信息中進行推斷,從信息中獲得新的見解,從過去的經驗中學習,發現并提供相關信息以測試假設,幫助評估潛在解決方案的后果,辯論所提出的立場的有效性,提供證據和論據,提出解決方案并提供對非結構化問題的預測,另外還參與人類行為者的認知決策"(Bittner等人,2020,第3頁)。在HMT中,機器不僅僅是一個在指示后完成指定功能的工具,而是一個能夠與人類同行協調并支持實現目標的決策的隊友(Motley, 2022)。

如果機器沒有與人并肩合作,僅憑機器中存在的自主權不足以將人機互動定性為團隊(Motely, 2022)。人機互動由三個要素組成:人、機器以及機器和人之間的互動和關系的性質(Chahal和Konaev,2021)。人工智能正在加速HMT的潛力和普遍性,特別是在軍事行動中,人工智能驅動的自主性有了質的飛躍,正在投入使用的自主系統的數量也在增加。機器將不再是簡單的工具,而是成為行動的組成部分,積極參與決策(Walliser等人,2019)。在這種新興的背景下,需要成功地將人和機器配對,以提取兩者的最大潛力,這為HMT奠定了基礎。

人工智能的進步導致自主系統可以執行的各種功能有了質的提高,使這些系統以更關鍵和合作的方式與人類并肩作戰。以人工智能為動力的自主性,越來越多地由機器學習(ML)驅動,正導致機器能夠獨立和更準確地完成的任務的復雜性增加。例如,Primer。AI正在使用不同的技術,最主要的是自然語言處理(NLP),融合多種情報輸入(音頻、視覺、文本),為烏克蘭軍隊提供實時、自主生成的戰斗空間情報圖(Primer, 2022)。同樣,游蕩的彈藥已經進入了戰斗空間,依靠人工智能來識別和攻擊目標。武器系統正越來越多地受益于私營部門開發的雙重用途人工智能技術。例如,2022年5月,Deepmind發布了一種新的算法 "GATO",能夠執行604項不同的任務(Deepmind, 2022)。

  • 算法可以執行的功能越多,它在功能上與“人類”的等效性就越大,從而增加了 HMT 的潛力。

一個算法可以執行的功能越多,它在功能上就越等同于人類,增加了HMT的潛力。這些發展也推動了自主系統或具有某種程度自主性的系統數量的增加(Boulanin和Verbruggen,2017)。蜂群技術的出現--已經在實驗中得到證明--將加速這一趨勢(Xin等人,2022;Mehta,2017)。許多這些技術進步都是在私營部門開創的,是小國、非國家行為者和個人更容易獲得的收益,與傳統系統不同(Ashby等人,2020;Rickli,2020a)。隨著機器人技術和自主權在數量和質量上的增加,戰爭的節奏將加快(Rickli,2019)。在算法戰爭中,人類在決策過程中保留有意義的作用的唯一途徑將是通過整合和同步人類和機器的輸入(Walsh, 2021)。空軍必須在人和機器元素之間建立共生關系和互動。

雖然人工智能的成功和高潛力正在重塑HMT,但人工智能的固有局限性和相對脆性意味著機器必須繼續與人類共存(Rickli,2020b)。假設戰爭的所有方面都將在不久的將來實現自動化,人工智能將取代所有--甚至大多數--作戰人員的任務,這是不現實的。人工智能目前仍然是 "狹窄的",只能夠在容易編纂或有更明確的規則和指標的活動中勝過人類(英國國防部,2018)。此外,這些狹窄的人工智能應用很容易受到對抗性攻擊和數據偏差的影響,這可能導致驚人的失敗(Scott-Hayward,2022)。雖然人工智能卓越的分析、數據處理和統計關聯能力大大超過了人類,但后者將保持對戰斗空間的認知優勢,理解背景,依靠直覺,必要時打破規則,并以新穎的方式適應(Losey,2022)。HMT的優先級正是由于需要從機器算法與人類的結合中獲得最佳結果,在這種情況下,每個人都可以發揮其優勢(Jatho和Kroll,2022)。當正確的任務被分配給團隊中正確的元素(人類或機器),并且兩者之間的互動是高質量的,人機團隊的表現就會大大超過人類和機器單獨行動(Jatho和Kroll,2022)。

忠誠僚機的概念和信任

空軍已經特別適應HMT的要求(Briant,2021)。采用人工智能和人與機器之間的互動越來越成為空中力量的核心(Briant, 2021)。世界上有幾個備受矚目的項目正在試驗 "忠誠的僚機 "概念,該概念建議自主的無人駕駛飛機與有人駕駛的飛機一起協作。空軍對HMT的需求來自于多個方面。首先,將人工智能、機器人和計算機整合到行動中,加速了數據的生產和收集,給作戰人員帶來了 "信息過載 "的風險(約翰遜等人,2014年)。操作復雜系統的飛行員需要高度集中和多任務處理,實時分析更多數據的范圍有限。人工智能協助可以減輕一些這種負擔。作為其 "先鋒計劃 "的一部分,美國空軍正在開發 "Skyborg"--一個 "自主飛機組隊架構",它將使諸如Kratos Valkyrie這樣的無人機能夠與有人駕駛的飛機組隊飛行(美國空軍,n.d)。這些無人機僚機將通過卸載一些數據分析任務、繪制目標和防空系統,以及為飛行員建議飛行走廊來提高飛行員的表現(Losey, 2022)。隨著時間的推移,機載人工智能系統將能夠向飛行員建議適當的行動方案。第二,美國的近鄰對手,如中國,已經大量投資于發展反介入/區域拒止(A2/AD)能力,使作戰環境變得非常有爭議和致命(Grynkewich, 2017)。為了在這些高度競爭的環境中提高生存能力--考慮到蜂群技術的出現--忠誠的僚機可以被大量用于穿透和飽和對手的防御,充當誘餌,或提供動能效應(Perret,2021)。

無數的挑戰出現了,使為忠誠的僚機實現有效的HMT的目標變得復雜,而這些挑戰并非都是技術性的。多種因素影響著HMT的互動質量,其中一些因素在圖9.1中得到了說明。許多關于HMT的研究重點并不完全在技術能力和特性上,而是在人和機器之間的關系及其互動的性質和質量上。有效的HMT只是部分地依賴于人工智能的先進性,但在很大程度上取決于互動的質量。人們常常把它與人與人之間的團隊相提并論。團隊的有效性不是簡單的單獨成員能力和投入的總和,實際上取決于通過團隊流程和團隊工作成功地整合和協調個人努力(Funke等人,2022)。在HMT中,人類必須了解1)其角色,2)人工智能系統,3)如何與人工智能系統/隊友互動,以及4)如何與其他人類隊友互動(Puscas,2022)。

圖 9.1:影響人機交互質量的因素

信任是HMT中的一個重要元素,但也是一個高度復雜的概念,有許多影響它的變量,如人口、地理位置、背景和其他多種因素(Chahal and Konaev, 2021)。Davis、Mayer和Schoorman將信任定義為 "一方愿意受到另一方行動的影響,因為他們期望另一方會采取對信任者很重要的特定行動,而不考慮監督或控制該另一方的能力"(1995)。關于支配人與人之間信任的變量和動力是否與影響人機信任的變量和動力相同,目前還沒有定論(Celaya and Yeung, 2019)。本文將把信任視為 "個人對技術結論的可靠性及其完成既定目標的能力的信心"。(Chahal and Konaev, 2021)。正如英國國防部所指出的,人工智能系統不僅會受到可以做什么的限制,而且還會受到 "行為者信任他們的機器會做什么 "的限制(英國國防部,2018)。事實上,如果沒有信任,人工智能將無法發揮其全部潛力,因為它的使用可能僅限于低風險的情況,而不是它可以提供真正的優勢(Motley, 2022)。空軍面臨的挑戰涉及到如何加強對人工智能的信任,從質量上增強人機關系。培訓和用戶界面的特點是提高對人工智能的信任和改善人機關系的核心考慮。

對人工智能系統的信任可以受到機械理解、系統可預測性、熟悉度和背景的影響(英國國防部,2018,第48頁)。這些因素可以--至少是部分地--通過適當的培訓來灌輸對人工智能系統的信心和理解,以及通過用戶友好的界面,通過提高熟悉度和可預測感來控制機器(Puscas, 2022)。然而,人工智能驅動的自主性的增加和ML作用的擴大意味著適當的培訓和用戶界面將同時變得更加復雜和具有挑戰性,但也更加必要--但所有這些都會對信任產生不利影響(Puscas,2022)。人工智能的 "黑箱 "問題阻礙了可理解性、可解釋性和可預測性,從而降低了信任度,而這種信任度只會隨著下放給機器的自主權程度而增加(Michel,2020)。隨著ML算法隨著時間的推移而學習,飛行員/人類隊友必須知道機器如何變化,它正在學習什么,以及這將如何影響其結果。因此,自動化的復雜性使得持續培訓成為首要任務,但也更加復雜。同樣地,界面的可用性變得更加重要,但同時也更加復雜。隨著機器隊友提供更多的自主權和它的算法過程的復雜化,它的輸出在解釋和溝通上也更具挑戰性(Puscas 2022)。這種復雜性反過來可能會導致對系統的信任度降低。

  • 隨著ML算法隨著時間的推移而學習,飛行員/人類隊友必須知道機器如何變化,它在學習什么,以及這將如何影響其結果。因此,自動化的復雜性使得持續訓練成為首要任務,但也更加復雜。

缺乏信任會影響HMT,降低人機團隊的效率和潛力,從而降低其作戰使用的概率。然而,對機器的過度信任也會對HMT產生負面影響。(Scharre, 2018; Puscas, 2022)。事實上,系統自主性的提高會導致 "自動化難題",即用戶警覺性的喪失與系統增強的自動化和感知的可靠性成正比(Puscas,2022)。在這個意義上,機器的復雜性既可以減少信任,也可以將其增加到一個過度的水平。因此,軍事操作人員需要對他們操作或監督的自主系統抱有健康的懷疑態度,這就需要有能力準確評估系統的局限性(Scharre, 2018, p.144)。這再次強調了適當培訓的重要性,以獲得對系統的理解,以免它 "因忽視而變得完全自主"(Puscas, 2022)。2003年,涉及美國 "愛國者系統 "的一系列事件,一個人在回路中的防空系統,導致自相殘殺,歸因于過度信任和不適當的培訓,這使得該系統事實上完全自主(Scharre, 2018)。

神經科技的融合

任何單獨的新興技術的興起都不會發生在真空中,獨立于其他技術創新。因此,新興技術組之間的融合需要仔細關注,以預測這些技術之間不可預測的互動所帶來的未來挑戰(Rickli和Mantellassi,2022)。目前,人類的互動總是通過界面(如屏幕)進行的,這意味著其效率有一些限制。采用忠誠的僚機的操作演示中,操作員用手持平板電腦指揮機器隊友(Trevithick, 2021)。消除對界面的需求的一個方法是,使用一套允許大腦和機器之間雙向互動的技術,直接將機器與人腦連接起來。人工智能和神經技術領域--尋求將技術部件連接到神經系統的科學領域--之間正在進行的融合可能會在未來實現最佳的人機互動(Rickli,2020c)。

人與機器之間的關系質量對人機交互至關重要,并且受到界面特征的影響。使用外部界面(屏幕、平板電腦、計算機)來監督或以其他方式與機器或半自主代理接觸,可能對認知要求很高,導致喪失警覺性和自滿情緒(Puscas,2022)。神經技術的進步可能會解決飛行員與外部鏈接(如屏幕或顯示器)互動的需要,以查看、溝通并向機器傳輸信息。腦機接口(BCI)將把忠誠的僚機控制無縫整合到飛行員的認知過程中,以減少認知過載,加速觀察、定向、決定和行動(OODA)循環,如下圖9.2所示,并消除設計接口的復雜任務。BCI可以 "促進思維速度的多任務處理",并允許飛行員 "與智能決策輔助工具對接 "和多車輛合作(Bartels等人,2020)。DARPA正在努力實現BCI的使用,它模擬了狗斗,其中算法 "進入 "對手的OODA循環,通過更快的決策擊敗人類對手(Tegler,2020)。

圖 9.2:OODA 循環的儀表板樣式表示

技術的融合融合了每項技術的特質,加速了它們的發展,并導致了以前不可能的新穎創新。然而,融合也使與單個技術相關的風險轉移到另一個技術,有時會帶來全新的、不可預測的挑戰。因此,雖然BCI等神經技術可以及時實現最佳的HMT,但它們也帶來了新的和更復雜的風險。對于神經技術而言,這些風險包括數據隱私和認知及精神完整性的倫理困境、大腦操縱和發動認知戰爭的新途徑,以及前所未有的監控能力等(Rickli和Ienca,2021)。

結論

人工智能的進步導致軍事行動中具有自主能力的人工智能驅動的機器在質量和數量上的增加。然而,今天的人工智能相對脆弱,這意味著作戰人員將在戰斗空間與機器共存,越來越多地成為隊友。空軍必須投資于可消耗的、無人駕駛的能力,如忠誠的僚機,以克服信息負擔、認知過載和高度競爭的空域中的低生存能力等挑戰。HMT的挑戰是未來空中力量能力的中心。優化人與機器之間的關系,而不僅僅是駕駛這些忠誠僚機的算法,是至關重要的。確保飛行員對人工智能驅動的自主系統的運作和性能有信任,并對其固有的局限性有一個強有力的理解是至關重要的。在解決這些問題時,培訓和用戶界面的重要性非常突出。了解自主性如何影響信任并影響飛行員和他們的機器隊友之間的關系,將對推進HMT具有決定性意義。神經技術,特別是BCI,是一個新興的領域,有可能與忠誠的僚機概念相融合,并使人與機器之間的聯系更加優化。通過預見性地預測BCI、忠誠僚機和人工智能之間的融合所帶來的新挑戰,對于指導未來空中力量的發展至關重要。

付費5元查看完整內容

為了跟上美國防部(DOD)人工智能(Al)戰略的步伐,美國陸軍在2018年啟動了人工智能集成中心(Al2C)。他們的任務是--與美國各地的公司和大學的人工智能社區溝通,目的是通過人工智能的整合來改善和提高軍隊的能力。

這個頂點項目盡可能地分析了當前美陸軍部(DA)對人工智能的要求狀況,以及它們對人類系統集成(HSI)的包含。該小組審查了發布在獎勵管理系統(SAM)網站上的人工智能合同機會和適用的文件,包括績效工作聲明、工作聲明或目標聲明。第一步是確定這些合同機會中包含的要求是否符合人工智能的定義,即計算機系統有能力執行通常需要人類智慧的任務。如果需求符合人工智能的這一定義,那么分析工作就會繼續進行,并側重于納入HSI,以確保為人類(即操作員、士兵、用戶等)提供便利。研究小組還采訪了主題專家(SMEs),以深入了解軍隊開發和獲取人工智能需求的過程。

在2003年至2022年期間發布到SAM的機會中,只有16%(238個中的40個)在開發過程中足夠成熟,可以考慮進行評估。在這40個被認為足夠成熟的采購開發過程中,只有16個發布的信息包含了相關的文件,可以根據團隊既定的人工智能和HSI標準進行評估。從那里,只有6個帖子符合AL的定義,4個被寬泛地判斷為包括一些對HSI或人為因素的參考。該小組的綜合評估確定,陸軍的人工智能指導還處于起步階段,需要進一步發展和完善。評價還強調,盡管國防部和陸軍指導將HSI納入所有要求,但仍然缺乏對HSI的納入。

這個頂點項目建議,所提出的結果和結論應被用來進一步制定人工智能需求的采購指南,并特別注重納入HSI。我們還建議,未來的研究應納入機密需求以及由其他交易機構通過財團管理的需求。

付費5元查看完整內容

為了面對軍事防御的挑戰,軍隊及其戰術工具的現代化是一個持續的過程。在不久的將來,各種任務將由軍事機器人執行,以實現100%的影響和0%的生命風險。國防機器人工程師和公司有興趣將各種戰略自動化,以獲得更高的效率和更大的影響,因為陸地防御機器人的需求正在穩步增長。在這項研究中,軍事防御系統中使用的陸地機器人是重點,并介紹了各種類型的陸地機器人,重點是技術規格、控制策略、戰斗參與和使用目的。本研究還介紹了陸地機器人技術在世界軍事力量中的最新整合,其必要性,以及各國際防務公司對世界經濟的貢獻,表明其在軍事自動化和經濟穩定中的優勢。本報告還討論了近期發展的局限性和挑戰、機器人倫理和道德影響,以及與機器人安全有關的一些重要觀點和克服近期挑戰的一些建議,以促進未來的發展。

引言

為了加強軍事防御系統,必須大力發展和提高智能自主戰略能力。在大多數第一世界國家,研究國防技術改進是實現軍事防御現代化的優先事項。未來戰爭的特點可以根據不同領域的沖突進行分析,如:海洋、陸地、空中、網絡、太空、電磁和信息。隨著現代智能和機器人技術的改進,跨域(X域)和多域戰略也需要被關注。無人自主X域(多域)系統,簡稱UAxS,現在是研究和發展的重點,以使軍事力量更加強大、有力和智能。圖1展示了多域和X域的戰爭模式。

圖 1:多域和 X 域戰爭模型

現代防御機制可以在四個相互關聯的領域進行研究:先進的戰艦、良好的通信、人工智能和自主武器。這基本上意味著在軍事防御系統中實施機器人技術。在戰場上,一支裝備精良的機械化部隊是指揮官非常重要的資產。在戰爭中,指揮官必須專注于火力、機動性、人機合作、決策、支持裝甲和指揮步兵。在未來,機器人和自動化系統將通過提供支持和減少負擔來幫助解決這些問題,因為這些系統將更加智能、可靠和合作。在最近的軍事活動中,機器人和自主技術被用于偵察、設備供應、監視、掃雷、災難恢復、受傷士兵的檢索等(Dufourda, & Dalgalarrondo, 2006;Akhtaruzzaman, et al., 2020)。

為了確保可靠的使用和獲得最高的技術影響,機器人必須在半自動化、自動化和人機交互工程方面進行良好的設計。無人地面車輛(UGV)很有前途,在國防應用中具有很大的潛力,在這些應用中高度需要更快和可靠的通信鏈接(鏈接預算)和快速獲取信息(RAtI)(Akhtaruzzaman, et al., 2020)。機器人的價值比人的生命還要低。機器人在感知、檢測、測量和分析方面速度更快。機器人沒有任何激情或情感,不會像人類那樣感到疲勞或疲倦,而是在極端和關鍵條件下保持運作。在不久的將來,機器人將成為作戰計劃和參與的核心技術(Abiodun, & Taofeek, 2020)。它們將能夠通過智能傳感器技術與環境溝通,通過建模理解環境,理解人類的行動,定義威脅,服從命令,以更高的處理能力獲取信息,通過信息交換和共享與其他機器人互動,通過先進的控制技術自主適應敵對環境,并通過強大的計算能力與自動生成的程序應用智能進行自我學習(Akhtaruzzaman, & Shafie, 2010a, 2010b; Karabegovi?, & Karabegovi?, 2019)。

在不久的將來,UGV系統將成為軍事行動的關鍵技術,因為它們將確保幾乎零人力風險,不需要將人力直接安置到戰斗中。UGV系統還將能夠開放各種設施,如負載、自動監視、邊境巡邏、風險降低、障礙物清除、力量倍增器、遠程操縱、信號中繼等(Sathiyanarayanan等人,2014)。陸地防衛機器人必須能夠適應各種崎嶇的地形、惡劣的環境和非結構化的區域,同時發揮指定的作用并保持指揮層次。作為軍事部隊的一種程度,陸地機器人不能給團隊帶來任何額外的工作負擔。因此,必須實施有效的人工智能(AI)工程,以實現UGV或陸地機器人與行動部隊之間可靠的人機合作。

今天的智能機器人或自主武器仍然處于狹義人工智能(ANI)的水平(Horowitz,2019年),或者以某種方式處于ANI和通用人工智能(AGI)之間。這反映出它們還沒有準備好在災難或戰爭等敵對情況下完全自主并做出可靠的決定。人類擁有在很大程度上應用感知經驗的智慧,能夠適應環境,并能在關鍵情況下做出適當的決定。如果這些能力能夠被植入機器人的大腦,該系統就可以說是AGI系統。盡管與人類相比,機器人可以抵御枯燥、骯臟和危險的工作,但它們包括一些有限的功能,如航點或目標導向的導航、障礙物檢測、障礙物規避、威脅檢測、人類檢測和識別、定位、地圖構建、通過圖像和聲音處理提取信息,以及與其他機器人的某種合作。因此,如果能確保機器人和人類之間的良好合作,機器人將在人類的監督下自主工作,那么軍用地面機器人將是最有效的。

本研究對軍用陸地機器人系統、最近的技術進步、應用和道德影響進行了回顧。一些發達國家和不發達國家的現狀,以及通過推進和發展軍事武器、自動化武器和智能技術對世界經濟的工業影響,都反映在審查研究中。本文還闡述了參與戰爭的機器人倫理以及該技術對道德國家的影響。該研究主要試圖通過確定最近的差距、局限性和技術進步的倫理影響,來確定地面機器人技術的最新應用和實施情況

付費5元查看完整內容

目前,人工智能(AI)為改造許多軍事行動領域提供了巨大的機會,包括作戰、指揮與控制(C2)、后勤、安全和維護,以提高其整體作戰效率。空中和導彈防御(AMD)是一個特別復雜的任務領域,人工智能的應用至關重要。空中導彈防御任務指的是保衛國土、保護區、地面基地、地面部隊或艦艇免受敵對的空中或導彈威脅。AMD的威脅包括敵對的飛機、無人駕駛飛行器(UAV)或機載導彈。AMD行動的復雜性源于威脅的嚴重性、威脅的意外性、對形勢認識的不確定性以及事件的快速發展,因為作戰人員必須迅速評估形勢,制定適當的行動方案,并最好地利用他們的戰爭資產來應對。美國國防部(U.S. DOD)正在研究使用AI系統(或AI-enabled AMD[AI-AMD]系統)作為AMD作戰人員的自動決策輔助工具,以大大減少他們的認知負荷(Jones等人,2020),使AMD決策更快、更好。

人工智能的一個關鍵方面已經聚集了大量的研究興趣,那就是信任。信任是有效團隊的一個基本原則。它同時適用于人類和人機團隊。信任使團隊成員能夠很好地合作,是有效團隊表現的基礎(Lee and See 2004)。與人工智能系統的成功合作將需要人類對人工智能系統有一個校準的信任和依賴程度(泰勒等人,2016)。

隨著更先進和更快的空中和導彈威脅彈藥的發展和投入使用,操作人員更需要在AMD行動中迅速作出監測。不及時的決策和反應將導致災難性的后果。因此,人工智能是一個可能的解決方案,通過自動決策輔助工具加快和加強決策過程。這些AMD自動戰斗管理輔助工具可以幫助戰術操作人員應對更快的決策周期、大量的數據以及需要觀察的幾個系統或屏幕(Galdorisi 2019)。然而,為了有效地利用人工智能能力的潛力,需要操作員的高度信任。操作員對系統的信任程度低,可能會導致人工智能-AMD系統利用不足,受到不適當的監控,或者根本不使用(Floyd, Drinkwater, and Aha 2016)。這些問題中的任何一個都可能導致操作者的工作量不必要的增加,或者任務失敗的可能性。

論文對信任的定義、人機交互(HMI)的概念、信任因素以及包括AMD殺傷鏈模型、威脅場景、架構、模型和功能在內的概念模型進行了廣泛的回顧。有了這樣的認識,論文提出了人工智能-AMD系統的信任框架,對人機交互和人工智能-AMD系統信任因素的描述。論文最后提出了在人類操作者和AI-AMD系統之間實現校準信任的策略

信任框架始于對系統背景的分析。圖1顯示了AI-AMD指揮與控制(C2)系統(包括AI-AMD操作員和決策輔助工具)及其他與之互動的子系統的背景圖,這些子系統有助于操作員和AI-AMD決策輔助工具之間信任的發展。背景圖使我們能夠研究各系統之間的相互作用,以及它們對AI-AMD操作員和決策輔助工具之間信任動態的影響。

圖1. AI-AMD系統框架圖。

這篇論文將信任定義為操作者的態度,即AI-AMD決策輔助工具將有助于實現操作者的目標,即在一個以不確定性和脆弱性為特征的作戰環境中迅速摧毀來襲威脅的任務。這種信任的定義表明,它是對操作者相信或感知AI-AMD決策輔助工具的一種情感評估。為了積極地影響信任,操作者必須親自看到并感受到AI-AMD決策輔助行動的優勢。AI-AMD行動涉及很多不確定因素,以及天氣、電磁干擾和地形等環境因素以及不斷變化的威脅的性質所帶來的脆弱性。操作員將預期AI-AMD決策輔助系統按照 "合同 "執行,以處理這些不確定性和脆弱性。這些合同將是人工智能-AMD決策輔助工具應該執行的感知功能或任務,以及執行這些功能或任務的理想表現。

圖2說明了操作員和AI-AMD決策輔助工具之間的信任框架。y軸代表人類對AI-AMD決策輔助系統的信任程度,x軸代表AI-AMD決策輔助系統的能力。綠色的45°虛線表示最佳的信任水平或校準的信任線,其中的信任與AI-AMD的能力相對應,導致正確的利用(Lee and See 2004)。過度信任由最佳信任水平線以上的區域表示,此時的信任超過了系統能力,導致誤用。低于理想信任水平線的區域表示不信任,這時的信任沒有達到系統能力,導致濫用。假設存在一些默認的信任水平(如黃框所示),目標是制定一個策略,以提高AI-AMD輔助決策能力的信任。在使用該系統時,可能會發生違反信任的情況,從而降低操作員的信任。因此,信任修復行動必須被納入,以保持信任在最佳水平。

圖2. 人類操作員和AI-AMD決策輔助工具之間的信任。

基于功能分配的操作員和AI-AMD決策輔助工具之間的人機交互研究表明,操作員和AI-AMD決策輔助工具應該被設計成在大多數殺戮鏈功能中作為一個 "團隊"運作。這引導論文研究了單獨和集體考慮人類和決策輔助的信任因素。對操作員和人工智能-AMD決策之間的人機交互的研究還顯示,操作員的角色已經從手動控制器變成了監督控制器。因此,一個值得信賴的決策輔助工具是很重要的,因為操作者會期望系統的表現符合預期,以幫助操作者更好地履行他的角色。另外,為了進一步幫助減輕操作者的認知工作量,信息的外部表示、決策輔助工具的建議必須易于閱讀和理解。

關于信任因素,本論文提出了一個 "由外而內 "的框架,如圖3所示。論文首先考慮了與操作環境相關的因素,這些因素描述了AMD操作系統的背景。第二,它研究了與組織環境相關的因素,操作人員和人工智能-AMD系統得到了培訓和發展。第三,論文研究了操作人員和人工智能-AMD決策輔助工具之間的交互,以提出與操作人員、人工智能-AMD、單獨和集體相關的因素。

圖3. 建議的信任因素

圖4顯示了擬議的戰略銜接圖,以實現操作者和AI-AMD輔助決策之間的校準信任。對信任定義、人機界面和信任因素的審查表明,該戰略應關注三個關鍵領域:(1)人類對自動化技術和AI-AMD決策輔助系統的集體和個人感知;(2)增強操作員和AI-AMD決策輔助系統的團隊活力;(3)AI-AMD決策輔助系統的可信度,重點是系統開發。該戰略利用DOTMLPF-P框架提出了三個關鍵原則和五個支持原則。首先,軍事作戰人員需要被告知自動化技術的真正能力和局限性,特別是AI-AMD輔助決策。第二,操作員的培訓要求必須增加,以應對新的工作范圍和不斷變化的威脅。第三,必須在人工智能-AMD決策輔助系統的開發中加入新的要求,以提高系統的可感知的可信度。這三個關鍵原則得到了DOTMLPF-P框架其他方面的支持,如組織、領導、人員、設施和政策。

圖4. 實現操作員和人工智能-AMD決策輔助工具之間校準信任的戰略銜接圖

付費5元查看完整內容

融合項目(PC)是一項美國陸軍學習活動,旨在整合和推進他們對聯合部隊(陸軍、海軍、空軍和海軍陸戰隊)的貢獻。根據研究和分析中心(TRAC)-蒙特雷的說法,"PC確保陸軍作為聯合戰斗的一部分,能夠快速和持續地整合或'融合'所有領域的效果--空中、陸地、海上、太空和網絡空間,以便在競爭和沖突中戰勝對手"(研究和分析中心[TRAC]2020)。目標是評估在PC21上展示的新的創新系統(SoS)技術是否滿足為聯合部隊提供必要的速度、范圍和融合所需的作戰能力,以產生未來的決策主導權和大國競爭的超能力。然而,鑒于PC期間各種現代技術的注入,TRAC-蒙特雷目前缺乏一種方法來衡量作戰效果以及作為軍隊和聯合部隊的融合是否正在實現。因此,本項目的重點是制定一個概念性的評估框架,以確定在PC21演習中測試的多域作戰(MDO)任務中SoS的作戰有效性。這個框架將集中在那些被證明可以減少傳感器到射手(S2S)時間的技術的行動有效性,以便在聯合MDO任務中消滅一個固定的目標。

該小組確定,對某一特定能力的功能分解,結合用于開發MOE的Langford綜合框架的修改版,將產生描述該特定能力的行動有效性的良好措施。為了將衡量標準轉化為價值分數,團隊使用了構建價值尺度的理想范圍方法,該方法為每個衡量標準建立了一個從最好到最壞的情況,使其具有適應任何能力的靈活性。帕內爾的搖擺加權法被用來量化利益相關者對每個蘭福衍生的MOE的重要性,以確定能力的每個MOE的加權價值分數(WVS)。WVS相加得出總分,這就提供了對運營有效性的最終評估。然后,該團隊產生了一個行動有效性量表,向利益相關者說明他們的能力在這個量表中的得分情況。

該項目最后針對概念評估框架應用了PC21用例,以衡量其在生成與用例中的能力最相關的MOE以及單一行動有效性分數方面的穩健性。該模型的最終驗證將在目前計劃于2021年10月開始的PC21期間進行。

總之,該團隊使用系統工程流程建立了一個概念性評估框架系統,該系統將使TRAC-Monterey有能力評估PC21期間展示的新的創新SoS技術的作戰能力。該團隊開發了一個利益相關者分析,一個由利益相關者衍生的目標層次,一個功能分解,以及一個創建良好措施的過程,將這些措施轉化為價值分數,量化措施的重要性,并將產生的價值匯總為一個單一的、行動有效性分數。該框架將為利益相關者提供信息,使他們能夠就進一步的技術開發做出明智的決定。TRAC-Monterey還可以將本研究中制定的衡量標準作為指南,在整個PC21和未來的PC活動中收集相關信息。

建議 TRAC 在 PC21 期間對照 S2S 用例 1-1 驗證概念性評估框架。還應采用其他用例來測試框架的靈活性和可用性。還建議進一步研究行動效率的認知方面,以及如何利用這些信息來擴大本評估框架的范圍。TRAC和JMC向團隊表示,PC的努力將有助于改寫聯合行動的理論。

付費5元查看完整內容
北京阿比特科技有限公司