亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

引言

軍事和民事情報組織經常被要求為指揮官和決策者提供支持,他們的決定影響著國家和國際安全。除其他特征外,如及時性和相關性,情報組織應做出有嚴格分析支持的評估,準確無誤,并明確傳達給決策者。不確定性對情報的評估和溝通功能都構成了關鍵挑戰。例如,分析員收到的信息的質量往往是不確定的,他們所依賴的概念模型也是如此。簡而言之,大多數分析都是在不確定的條件下做出的人類判斷。決策者可能希望完全消除不確定性,但情報組織必須努力將有關事件(概率)和他們的評估(信心)的揮之不去的不確定性盡可能連貫和清晰地傳達出去,以避免誤傳。

SAS-114研究工作組通過研究(a)在不確定情況下促進情報評估準確性的現有和新方法,以及(b)在這種評估中溝通不確定性的標準來應對這些雙重挑戰。本報告概述了SAS-114所完成的研究和分析,分為以下四個部分。

第一部分(第1-5章)研究了情報生產管理的組織方面。第1章概述了目前由科學知識有限的思想領袖制定的情報培訓如何未能解決不確定性溝通中固有的主觀性或鼓勵分析員的自我批判性認知。第二章根據英國國防情報局的經驗,提出了一個不確定性評估的框架,旨在為決策者創造最大價值,減少情報失敗的風險。第3章介紹了荷蘭國防情報和安全局利用 "魔鬼建議 "來改進分析產品。第四章介紹了關于加拿大情報從業人員認為自己及其組織在多大程度上符合美國情報界第203號指令規定的分析嚴謹性標準的研究。在第五章中,英國分析傳統技術培訓小組的成員討論了學術合作和內部研究如何促進循證傳統技術在其組織中的實施。

本報告的第二部分(第6-9章)重點討論了不確定情況下的信息評估。第6章介紹了一種基于預期信息價值建立情報收集優先級的新方法。第7章批判性地審查了目前評估來源可靠性和信息可信度的標準,并強調了未來研究的途徑。接下來,第8章介紹了 "可靠性游戲",作為衡量來源因素對人類處境意識影響的一種游戲方法。第九章接著討論了風險游戲,這是一種評估專家如何處理異質信息、考慮信息質量和形成對同時發生的事件的信念的方法。

第三部分(第10-15章)探討了不確定性下的情報和風險評估。第10章討論了系統地監測地緣政治預測技能的重要性,并概述了這樣做的經驗方法。第11章重點討論了信息安全持續監測(ISCM)在防御性網絡行動中的挑戰,并討論了應用ISCM框架來改善情報評估。第12章介紹了關于競爭假設分析的有效性的實驗研究,以及分析后的重新校準和匯總方法,作為提高分析員判斷準確性的手段。第13章介紹了批判現實主義理論,以及批判話語分析和安全化理論的理論組成部分,它們共同為一種新穎的分析方法提供了框架:通過對比敘述進行分析。第14章接著介紹了一種以3值和6值邏輯的真值表形式結合分析判斷的透明方法。第15章的結論是一個分類系統,它有助于將分析技術與具體的情報問題相聯系。

本報告第四部分(第16-20章)根據SAS-114的最初目標,討論了情報制作中不確定性的交流。第16章研究了自然語言中固有的不確定性是如何影響報告質量的,并提出了一種識別、評估和權衡文本信息的證據性的方法。第17章對美國和英國在情報分析中交流概率的政策進行了批判性評論。第18章介紹了由SAS-114的成員和附屬機構收集的估計概率標準的注釋集。同樣,第19章介紹了SAS-114收集的用于評估和溝通分析信心的標準。第20章是報告的結尾,討論了數字時代的交流,特別關注商業開放源代碼情報中的不確定性溝通。

因此,本報告中的二十個章節涵蓋了廣泛的概念領域。SAS-114團隊希望,讀者會發現這套報告既能激發智力,又有實際用途。

內容提要

軍事和民事情報組織經常被要求為指揮官和策略制定者提供支持,他們的決定影響著國家和國際安全。除其他特點外,如及時性和相關性,情報組織應做出有嚴格分析支持的評估,準確無誤,并明確傳達給決策者。不確定性對情報的評估和溝通功能都構成了關鍵挑戰。例如,分析員收到的信息的質量往往是不確定的,他們所依賴的概念模型也是如此。簡而言之,大多數分析都是在不確定的條件下做出的人類判斷。決策者可能希望完全消除不確定性,但情報組織必須努力將有關事件(概率)和他們的評估(信心)的揮之不去的不確定性盡可能連貫和清晰地傳達出去,以避免誤傳。

SAS-114研究任務組通過研究來應對這些雙重挑戰。

a) 在不確定情況下促進情報評估準確性的現有和新方法;以及

b) 溝通此類評估中不確定性的標準。

本報告概述了SAS-114所完成的研究和分析,分為四個部分。

a) 第一部分(第1-5章)探討了情報生產管理的組織方面。

b) 第二部分(第6-9章)研究了不確定性下的信息評估。

c) 第三部分(第10-15章)研究不確定條件下的情報和風險評估;以及

d) 第四部分(第16-20章)研究了目前在情報生產中溝通不確定性的方法。

第一部分的核心主題是,情報組織需要積極主動地利用判斷和決策的科學。第一部分進一步說明了盟國的情報組織正試圖發展一種更加基于證據的分析技術和情報監督的方法。第二部分批判性地審查了目前評估信息有用性和質量的情報方法,并提出了替代方法。第二部分還介紹了測試分析員在不確定環境中如何評估信息質量的研究方法。第三部分描述了監測情報預測的準確性和監測防御性網絡風險的方法。第三部分還對支持情報分析的替代方法給予了極大的關注,包括通過對分析員的支持,以及通過從決策科學中提取的分析后方法。第四部分集中討論了自然語言和情報領域中不確定性的溝通。有幾章對目前向決策者傳達概率和置信度的情報(和其他專業)標準進行了批評分析。

盡管本報告所涉及的主題和調查方法多種多樣,但有幾個章節在一些關鍵結論上是一致的。首先,現有的交流信息質量、事件發生和評估準確性的不確定性的方法在多個方面存在缺陷,應促使北約下的情報界更密切地關注相關科學。具體來說,我們建議情報組織考慮使用數字概率,而不是目前使用的不確定性的模糊的口頭表達。其次,我們建議情報組織在符合科學標準的實驗中測試分析技術方法的有效性,并建議他們考慮在科學理論中具有更強基礎的替代方法。這一點至關重要,因為正如我們的一些研究表明,現有的方法可能不僅不能提高分析的嚴謹性,事實上還可能削弱分析員的評估質量。最后,我們建議情報組織采用積極的自我監測系統,除其他外,跟蹤他們提供給決策者的預測的準確性。

前言

SAS-114小組的前身是SAS-ET-CR探索小組,該小組于2014年12月在北約合作支持辦公室(CSO)召開了一次會議。最初的想法是專注于審查不確定性和風險的溝通標準。根據英國的建議,將范圍擴大,不僅包括不確定性的溝通,還包括在不確定性條件下如何進行評估。一年后,SAS-114研究任務小組(RTG)在CSO啟動,最初的團隊來自加拿大、丹麥、英國、荷蘭和美國,以及北約的海洋研究和實驗中心。隨后,它的成員擴大到包括德國、挪威、西班牙和瑞典。在第一年內,SAS-114也變得很明顯,它主要集中在情報分析領域。對情報的強調在活動中期的重新命名中被正式體現出來。SAS-114從情報界吸收了許多新成員,團隊的組成變得真正多樣化,包括科學家和情報專家的組合。每次會議的結構就像一個小型會議,旨在交流思想和新的發現,并做一些很少做的事情:給科學家和從業人員一個一年兩次的幾天空間來討論情報分析中的挑戰,并聽取可用于改善情報和向決策者傳達的前沿研究。因此,SAS-114也受益于來自科學界和情報界的大量特邀發言人。一個有代表性的例子是在會議記錄中,溝通不確定性,評估信息質量和風險,以及在情報分析中使用結構化技術(doi: 10.14339/STO-MP-SAS-114),其中概述了Arne Biering在哥本哈根Kastellet舉辦的研討會。SAS-114的會議結構與RTG的會議不同,是為了刺激坦率和公開的對話,并為合作的形成和發展提供機會。核心團隊并沒有著手設計所有成員都會參與的實驗。相反,在雙方興趣濃厚且每個參與成員都有貢獻的地方,形成了較小的合作集群。本報告中的許多章節概述了這種合作努力的結果。其中一些團隊的努力仍在進行中,并不是所有的團隊都已經成熟到可以在本報告中總結的地步。如果SAS-114在過去的三年里沒有什么成果,這可能會被理解為 "未完成的工作",然而根據任何合理的標準,SAS-114已經有了很高的成果,正在進行的合作更適合被理解為團隊持續合作的力量和產生的潛力的明確標志,這將遠遠超過其預定的年份,甚至可能成為北約未來的一個或多個活動。

SAS-114被證明是一個公開對話和自我形成研究合作的實驗,這一點在這份最終報告中得到了很好的體現。在報告中,讀者將發現沒有成員共同簽署的共識文件,而是一個結構化分析、研究結果、專業見解和影響SAS-114關鍵焦點的思想文章的多樣化集合。作為編輯,我偶爾會在實質性問題上對作者提出質疑,但這只是為了進一步突出論點,而不是為了強求一個共同的觀點。本報告中的20個章節分為四個部分:(a)情報生產管理的組織方面,(b)不確定性下的信息評估,(c)不確定性下的情報和風險評估,以及(d)情報生產中的不確定性溝通。最后一部分正視SAS-114的最初目標,追溯到探索小組,而前三部分則強調該活動自早期開始以來的發展。

序文

指揮官和策略制定者需要高質量的信息來做出適當的決定。在處理他們自己的部隊時,在正確的級別和正確的時間獲得正確的信息,雖然不是小事,但可以通過卓越管理來實現。然后,風險可以得到適當的衡量和說明。然而,如果不注入大量的不確定性,再好的管理也無法提供關于一個合格對手的決策質量信息。

大部分的不確定性來自于無法獲得第一手的信息,而不得不從不完整的或智能體的測量結果中進行推斷--這種情況對于其他行業的分析人員來說是很熟悉的,無論是市場研究、運營研究還是財務分析。然而,其中一些不確定性來自于對手使用積極的欺騙手段,試圖讓我們自己的偏見對我們不利,以掩蓋意圖和能力。為了適應我們用來描述對手行動路線的描述詞:如果第一個不確定性的產生者是最有可能的,那么第二個就是最危險的。它們共同為情報分析員提供了兩個不同但相關的挑戰:如何在這些條件下達成適當的評估,以及如何將這種不確定性適當地傳達給決策者。

雖然在大多數情報組織中,促進情報評估的準確性和溝通不確定性的直觀一致的程序已經使用了一段時間,但本報告中的研究表明,有些程序經不起科學方法的檢驗。這組論文中反復出現的主題是,隨著我們繼續在研究人員和從業人員之間不斷加深理解,不斷發展的判斷和決策科學可以幫助發展一種基于證據的情報分析技術。

科學和戰爭之間的共生關系并不新鮮。從最早的洞穴居民嘗試用棍子的大小、形狀和材料來保護家人免受攻擊,到隱形飛機的開發,研究、開發和國防從業人員之間的聯系在 "行動"、"防護 "和 "感知 "的操作功能中一直很緊密。指揮職能,包括其情報子集,已被證明對科學界的幫助有更大的阻力。文化、難以讓科學家獲得適當級別的批準,以及發表機密到無法進行同行評審的研究缺乏吸引力,是造成這種距離的一些因素。

本技術報告收集了豐富的思想文章、專業見解和研究成果,是科學家和從業人員特意聚在一起討論情報分析中的挑戰的產物,這表明我們最終正在打破這一鴻溝。兩個部落都肯定會從這種合作方式中獲益,但最大的贏家無疑是情報的消費者:指揮官、策略制定者和他們所服務的人。

  • 克里斯蒂安-盧梭上將(退役)(MGen (Ret'd) Christian Rousseau,加拿大恐怖主義綜合評估中心主任;前加拿大國防情報局局長和加拿大部隊情報指揮部的創始指揮官。
付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

美國國防部和空軍領導人認為,人工智能(AI)是一種改變游戲規則的技術,將幫助空軍情報、監視和偵察(ISR)體系克服大國沖突所需的情報分析速度和規模方面的長期挑戰。傳感網格概念(最近更名為傳感器集成)被作為未來框架引入,以整合人工智能和認知建模工具融入空軍ISR,但對于對手的威脅和道德方面的考慮卻很少討論,而這些考慮應該貫穿于系統的設計和功能模塊。為了讓空軍內部的人力和組織做好準備,以整合高度自動化的人工智能情報分析系統,領導人必須倡導以人為本的設計,從歷史上人機協作的成功和失敗中吸取教訓。領導人還必須采取積極主動的方法來培訓空軍的ISR勞動力,以便與革命性的但不完善的人工智能技術進行有效協作。

問題陳述

根據美國空軍作戰集成能力(AFWIC)傳感跨職能小組的說法,空軍情報、監視和偵察(ISR)的現狀是高度專業化、專有化,并且過于依賴人力密集的回傳(reach-back)過程。當規劃人員展望未來的大國沖突時,他們評估目前的硬件和分析過程將不足以建立對同行對手的決策優勢,情報工作在勝利所需的速度和規模方面落后。空軍A2的 "下一代ISR主導地位飛行計劃"對目前的ISR體系也提出了類似的批評,主張擺脫今天的 "工業時代的單一領域方法",以追求 "架構和基礎設施,以實現機器智能,包括自動化、人機合作,以及最終的人工智能。"雖然為空軍人員提供更快更智能的工具來制作和分享評估是空軍高級領導人的優先事項,但引入更高水平的自動化和機器主導的感知為情報界帶來了一系列新問題。考慮到這些工具可能遇到的篡改和故意提供錯誤信息的威脅,依靠算法走捷徑是否安全?追求由自動化武器系統促成的戰爭到底是否合乎道德?如果是這樣,情報界采用自動化工具以更快的速度產生關鍵的情報評估會帶來什么風險?

人工智能(AI)一詞被美國防部聯合人工智能中心定義為 "機器執行通常需要人類智慧的任務能力--例如,識別模式、從經驗中學習、得出結論、進行預測或采取行動。"參議員們希望AI能夠很快為人類分析師用來進行評估的軟件套件提供動力,并使物理系統在更多的自主應用中發揮作用。機器學習(ML)被國防部高級研究計劃局(DARPA)定義為人工智能中的一個領域,"將統計和概率方法應用于大型數據集",并可以將衍生模型應用于未來的數據樣本。利用ML好處的一個流行方法是通過深度神經網絡(DNN),它可以使用歷史數據被訓練成執行一系列的分類和預測任務。雖然在AFWIC或A2的出版物中沒有特別提及,但在模擬人類思維過程的應用中使用AI、ML和DNN是計算機科學和心理學的一個混合領域,稱為認知建模。在AFWIC對未來空軍ISR體系的設想中,AI、ML、DNNs和認知建模概念是向數字化、以網絡為中心的情報方法轉變的關鍵部分。

為了給空軍ISR體系的現代化舉措提供一個框架,AFWIC建立了傳感網的概念,定義為 "傳感器、平臺、人員、設備、內容和服務的組合,為決策者提供整體、準確、預測和及時的作戰環境特征。"該概念的設計者設想了一個具有預測分析、自主傳感和響應、融合多個數據源和邊緣處理的系統,所有這些都是通過利用AI、ML、DNN、數據分析和其他認知建模方法來實現的。盡管沒有公布傳感網格的首次亮相日期,但大多數討論表明,優化的系統簇至少還有十年。同時,美國防部領導層非常迫切地要趕上中國和俄羅斯在軍事人工智能應用方面的投資,鼓勵快速原型設計和實驗,以找到解決方案。人工智能在國防論壇上經常被認為是使以數據為中心的情報任務更快、加快戰術決策的答案,但如果所涉及的系統處于工程的初級階段,并且在國家安全領域仍未得到證實,這僅僅是猜想。

雖然AFWIC和空軍A2專注于人工智能傳感器和工具的研發投資,但很少討論使傳感網格安全和有效所需的人機合作動態。為了使傳感網格成為一個有效的系統,為空軍執行ISR和分析的方式帶來價值和進步,領導人應該在技術中倡導以人為本的設計,培訓和準備一線分析員與新系統有效的協作,并根據人工智能的優勢和劣勢調整組織做法。空軍領導人必須承認將更多的分析任務分配給人工智能工具所固有的對抗性威脅和道德問題,這些問題必須告知感知網格的藍圖。這并不是說正在進行的系統軟件開發應該停滯不前,而是說在情報和物資領導人之間必須同時進行對話,討論人類分析員的作用,因為這對減輕越來越多地依賴人工智能的弊端至關重要。空軍領導人還必須推行一項深思熟慮的計劃,將傳感網格組件整合到當前的傳感、識別、歸屬和共享(SIAS)活動中,使一線分析員為 "更高級別的推理和判斷"任務做好準備,同時承認機器應該增強人類任務,而不是完全取代人類。

接下來本文將提供與人工智能系統相關的脆弱性和道德問題的文獻回顧,以深入了解建設和應用傳感網格可能面臨的挑戰。它還將包括討論在完成和應用這個改變游戲規則的系統之前,情報和物資領導人應該考慮哪些因素。本文最后將就如何為空軍ISR戰斗空間準備傳感網格提出進一步的建議,為空軍人員在數字時代的行動提供必要的場景設置。

文獻回顧

最近關于將人工智能應用于認知任務的相關弱點的研究大多強調了對抗性樣本的危險性,這些樣本修改了DNN的輸入,導致它們控制的系統以各種方式發生故障。對抗性輸入可以是物理的或非物理的,可以影響各種數據分類器分類媒體,包括圖像、音頻文件和文本。最常提到的物理欺騙樣本是一個實驗,工程師通過將停車標志調整成不同的角度來愚弄自動駕駛汽車上的光學傳感器,導致車輛錯過停車。物理欺騙在國防應用中不是一個新穎的計劃,但將邊緣處理和自動化納入像傳感網格這樣的系統可能排除了人類分析師第一手識別這些戰術。在非物理領域,訓練算法以類似于人腦的方式來識別模式是一項具有挑戰性的任務。計算機視覺(CV)算法對圖像的分類與人類分析人員非常不同,當只有幾個像素不合適時,很容易對物體進行錯誤分類。在不太直接的情況下,工程師無法解釋模型的錯誤,刺激了DARPA等組織對可解釋人工智能的倡議。 在最好的情況下,對抗性輸入被識別為異常值,并被具有強大訓練樣本的CV模型所忽略;在最壞的情況下,它們可能會破壞現實世界的輸入,并在人類分析師不知情的情況下從樣本中數字化地刪除物體或活動。如果對抗性輸入導致分析師錯過他們通常會在沒有協助的情況下捕捉到的重要活動,就會產生災難性的后果。

如果將AI、ML和DNN應用于情報數據集背后的目標是以更高的速度分析和傳播更多的信息,那么自然語言處理(NLP)也可能是感知網格架構的一部分。NLP模型今天被廣泛用于個人和商業用途,像Siri和亞馬遜Alexa這樣的工具使用語音提示來啟動其他應用程序。NLP模型也可用于大量文本或其他媒體的理解任務,使用衍生數據回答問題。這種技術在融合多種數據源的SIAS任務中可能非常有用,但也可能容易受到干擾。NLP中的對抗性輸入可以引入錯誤的句子或用文本文件中的反義詞替換關鍵詞,導致模型在沒有時間或能力進行人工審查的情況下錯誤描述數據集。

與任何分層模型的方案一樣,CV和NLP模型是否能像預測的那樣有效地協同工作還是個未知數,更不用說檢測像Deepfakes這樣在非保密領域進入DNN的偽造數據了。人類分析員離通常可以檢測錯誤信息的源數據流越遠,SIAS就越容易受到錯誤輸入的影響。盡管有這種擔憂,但空軍A2的指導意見表明,人們對分層模型利用非保密的公開信息(PAI)進行無縫傳感器提示寄予厚望,使ISR體系能夠更有效地找到相關目標。如果沒有一種強大的方法來檢測提示傳感器的PAI樣本中的偽造媒體,這個過程可能難以安全地實現。

技術的復雜性和自動化、人工智能系統對篡改的潛在脆弱性,引發了關于在軍事行動中應用這類技術是否符合道德的討論。雖然傳感網格的設計不是為了直接使用武器,但來自該系統的情報數據很可能為關于多個領域的關鍵決策提供信息。關于AI/ML的倫理學文獻通常對采用自主運作、人類干預窗口有限的系統持批評態度,其邏輯與反對地雷等傳統自動化武器的倫理學論點相似。雖然傳感網格及其前驅系統將具有比壓力板裝置高得多的認知行為屬性,但一些人認為,人類對黑盒系統的控制同樣很少,這些系統在向人類操作者提出選擇或結論之前,會執行層層的算法通信。

幸運的是,人工智能系統可能也能夠在人類容易出現道德失誤的情況下進行補償,因為機器不會經歷像恐懼或驚慌這樣的情緒,而這些情緒可能會引發危險的決定或違反LOAC。盡管利用人類與認知模型合作的這一潛在優勢是謹慎的,但美國防部的指導意見將速度作為人工智能最有用貢獻的具體價值,這引入了更多道德難題。對個人決策的測試表明,人類在復雜環境中的風險評估能力已經很差,而引入人工智能,使人類判斷的價值邊緣化,只會導致更快的、風險更高的結論。當人工智能帶來的錯誤評估或草率決定導致災難性錯誤時,問責也是美國防部領導人必須準備解決的混亂道德問題。

大多數文獻中隱含的減輕對手篡改和道德失誤威脅的解決方案,是在人類控制器和自主的人工智能系統之間進行最佳分工。不足為奇的是,對于這應該是什么樣子,以及它如何適用于像傳感網格這樣的系統,有許多觀點。一些人認為,在國際協議框架中沒有雇用自動武器系統的空間,并將其缺乏責任感與兒童兵相比較。其他人認為,如果像聯合目標定位這樣的程序以同樣的嚴格和參與規則進行,人工智能工具將不會導致不可接受的失控。雖然人們認為迫切需要通過購買現有的商業軟件向聯合情報界提供傳感網格的能力,但如果美國防部領導人希望減少前面討論的風險,工程師、需求所有者和分析師必須致力于仔細討論人工智能應用在ISR體系中最有幫助的地方以及它們有可能造成傷害的地方。

討論結果

當涉及到投資建設由人工智能和認知建模應用驅動的未來ISR體系的項目時,美國防部和空軍除了需要快速投資并與大學和國家實驗室合作外,提供的指導有限。除了系統 "事故風險較低;對黑客和對手的欺騙行為更有彈性和表現出較少的意外行為"之外,對該部門在人工智能投資方面所期望的指導也是有限的。缺乏特殊性可能是人工智能在國防部戰略中首次出現的癥狀,但自滿和滿足于為投資而投資的情況并沒有遠遠超過這種情況。使用該技術的社區有責任決定與認知模型建立哪種類型的協作關系將提供最大的利益,但戰略指導似乎將責任交給了實驗室和行業合作伙伴,責成外部人士確定人工智能將解決的問題和解決方案。如果空軍ISR領導人在討論如何最好地將人類分析員與人工智能工具協作方面不發揮積極作用,他們將如何評估開發人員是否在提供資金的情況下取得足夠的進展?美國防部如何相信由非業務伙伴開發的解決方案能夠充分解決安全和道德問題?在什么時候,人工智能會從一個脆弱的研究項目過渡到改善SIAS的速度和準確性的可行解決方案?

討論人工智能及其在情報工作中的預期功能的一個更有成效的方法是,不要把它當作一個神奇的子彈,因為它的定義太不明確,根本無法研究。雖然將認知模型應用于情報過程可能是新的,但在戰爭中實現自動化的技術已經存在了幾十年。領導人必須考慮現代戰爭中已經存在的人機合作結構,以獲得設計和整合傳感網格的經驗。對于空軍ISR來說,分析當前和歷史上人類分析員、機載傳感器和戰區決策者的團隊合作是一項有益的工作。機載ISR傳感器的性能衡量通常通過傳感器輸出的響應性和準確性等因素來評估,但了解傳感器數據引發的分析和決策過程也很重要。例如,光譜成像傳感器可以被用作異常檢測器,突出不尋常的物體或活動,供人類分析員審查和報告。報告可以傳播給行動領導人,然后他根據情報做出決定,命令對異常活動的來源進行空襲。如果這一連串的事件在行動過程中習慣性地發生,那么傳感器和人類在循環中的互動可能會開始改變,而傳感器被潛意識地重新歸類為威脅探測器。在這種情況下,傳感器的性能規格并沒有改變,但隨著時間的推移,團隊關系中的人類開始對傳感器的輸出應用不同的價值,這可能是外部激勵因素的影響。雖然大多數分析家都知道,假設所有的異常情況都是威脅是不正確的,也是危險的,但人機協作關系演變為扭曲人類判斷的微妙方式是值得關注的。為了確保人機協作以道德方式進行,領導者必須反思協作結構如何在無意中抑制組織的價值觀。對新作戰技術的準確性和穩健性的要求是合理的,但了解技術煽動的組織行為和習慣對有效和道德地使用是最重要的。

除了在ISR體系內應用現有的人機合作經驗外,人工智能感應網格的設計也應以人為本。雖然在建立一個由人類分析員使用的系統時,這似乎是顯而易見的,但在復雜的系統工程項目中,人因工程和人機協作的考慮往往是一個低優先級的問題。這部分是由于傳統的組織障礙,將軟件工程師和人因專家放在不同的部門,尤其是后者專門研究認知心理學、神經科學和機器人學等學科,這些學科在一些項目中可能發揮有限的作用。未能在復雜系統中適當整合人的因素的后果是可怕的,這在波音公司的737 Max飛機上可以看到,該飛機在2018年和2019年發生了兩起致命事故。兩份事故報告都提到高度自動化的機動特性增強系統(MCAS)軟件是導致飛機失事的一個重要因素。 雖然MCAS被設計為使用傳感器輸入來協助飛行安全,但糟糕的人為因素考慮使得該系統在觸發自動程序后,飛行員很難覆蓋。雖然培訓用戶與新系統合作是入職的自然部分,但由于缺乏人為因素工程而導致的陡峭學習曲線是一種風險,可以通過對人類和機器行為進行建模來減輕,因為它們與手頭的任務相關。 在這種情況下,建模將幫助系統架構師確定在特定的團隊合作關系中造成誤解的溝通差距,也許可以提供關于機器如何在緊急情況發生前向人類操作員充分披露其局限性的洞察力。

當我們推測如何最好地促進人機互動,充分解決與人工智能和自動化相關的安全和倫理問題時,尋求視覺分析專家的咨詢可以提供有價值的設計見解。"視覺分析是一個科學領域,它試圖通過交互式可視化增加人機對話來提高自動化、高容量數據處理的透明度。 為分析師提供一個團隊結構,讓他們選擇如何可視化數據集,可以在自動化、機器輔助的數據精簡和人類判斷之間取得有利的平衡。在傳感網格的可視化分析的最佳應用中,分析師將以高度的信心理解數據集的重要性,這得益于調整基礎分析過程的能力。 理想情況下,可視化分析使用戶能夠通過向系統提出關于數據的假設和問題來利用他們的學科專長,使他們能夠通過對話得出結論。視覺分析中的一種被稱為語義互動的方法也可能是有幫助的,創建的模型可以將分析師與視覺數據的對話轉化為模型的調整,推斷和學習人類伙伴執行常規任務的原因,如突出、復制等。考慮到前面詳述的學科有多新,建立明確的測試和評估標準將是準備將這些和其他團隊技術納入SIAS任務的重要步驟。

美國空軍研究實驗室(AFRL)內的各局無疑面臨著許多挑戰,在這個概念正式確定之前,他們一直致力于建立傳感網格的組成部分。將人工智能整合到智能架構和軟件中的工程師和開發人員主要在羅馬實驗室AFRL信息局(AFRL/RI)工作,分為多個核心技術能力(CTC)團隊。特別是處理和開發(PEX)CTC將深入參與開發實現傳感網的DNN,其任務是"為空軍、國防部和情報界提供快速感知,以提高對形勢的認識和對抗的洞察力"。在PEX CTC中,項目按功能分為特征化、極端計算、理解和預測項目,涵蓋了從數據提取到高級感知的一系列步驟。人因工程方面的專業知識來自位于兩個州外的萊特-帕特森空軍基地的飛行員系統(RH),一個跨學科局。下一步,PEX CTC的項目可能會與AFRL的其他部門(如傳感器(RY)或航空航天系統(RQ))的開發項目相結合,將RI的SIAS部分與新的機載收集傳感器和車輛聯系起來。目前,RI的工程師使用來自實際聯合和國家情報來源的樣本數據流,逐步解決在大量非結構化數據中進行分類的計算挑戰。尋找解決方案以保持物理系統的尺寸、重量和功率要求可控,也是一個持續關注的問題,特別是在像Agile Condor這樣尋求在機載系統上提供高水平邊緣處理的項目。

正如前面的文獻調查所示,在DNN中建立穩健性和安全性,以防止ML中的對抗性干擾,是任何網絡開發者都關心的問題,RI內部的團隊也不例外。DNN已經在實驗室環境中以意想不到的方式學習或失敗,引入與人類感知相矛盾的對抗性輸入,可能會使開發有用工具的進展受挫。如果系統繼續隨著新數據集的發展而發展,那么可能很難確定技術成熟度的基準,在這種情況下,AFRL將維持責任轉移給空軍生命周期管理中心(AFLCMC)是合適的。雖然這一點與建立人工智能傳感網格組件的測試和評估標準的重要性有關,但它也應該引發關于復雜系統在開發和維持組織之間的移交是否適合這種技術的討論。理想的情況是,在DNN上擁有最多專業知識的團隊建立模型,并在其整個生命周期內維護它們。一個更有可能和更少破壞性的行動方案是建立具有可升級底盤和外形尺寸的傳感網組件,允許在可用時用替換設備進行簡化升級。考慮到國家實驗室、DARPA、麻省理工學院、卡內基梅隆大學和其他機構的大量人工智能研究投資,空軍領導人應該考慮如何在研究結果公布后,整合部門的投資回報,以改善感知網的設計和功能。

對于美國防部和空軍領導人來說,為未來傳感網的整合創造條件,還有其他獨特的倫理挑戰需要協調。如果 "傳感網格"及其組件能夠提供該概念所承諾的快速和強大的傳感功能,那么期望所有使用該系統的一線分析員都能理解其工作原理是否合理?在發生災難性錯誤的情況下,初級分析員是否需要了解該技術,以便對涉嫌疏忽的錯誤負責?"將邊緣處理納入傳感網設計也是一個有道德爭議的話題。雖然自動數據處理可以節省SIAS的時間,但分析師如何知道邊緣計算程序是否出現故障,或者他們是否被對手欺騙?從傳感器的邊緣去除人類的認知勞動可以更快地提供數據,但結果的準確性可能會有所不同。那些認識到這些問題,但卻因為要比中國或俄羅斯更快地投入技術的壓力而推遲解決的領導人,應該仔細思考這一立場背后的原因。雖然中國和俄羅斯的政府形式與美國根本不同,但事實是,這兩個國家都有等級制度,對國防事務中的錯誤和不精確性的責任也很重視。以類似于核計劃的方式,美國政府應該領導國際社會與競爭對手分享安全、設計良好的人工智能算法的傳統技術,確保沒有國家因為糟糕的態勢感知工具而引發誤解導致的沖突。最好的國際人工智能軍備控制可能來自于對人工智能研究結果的盡可能透明,并倡導負責任地使用該技術。

建議

盡管完整形式的傳感網格還需要幾年時間才能實現,但最終系統的組成部分可能會在未來十年內逐步投入使用。在為下一代人機協作做好技術、人員和組織的準備方面,還有大量的工作要做。美國防部和空軍ISR領導人不應等到正式的系統首次亮相時才開始倡導在傳感網格技術中采用以人為本的設計,將人工智能的培訓目標納入對一線分析員的指導,并為組織接受該技術和與之合作做好準備。當涉及到設計和構建這個復雜的系統時,物資領導人在考慮采購商業的、現成的軟件以獲得更快的數據匯總解決方案時,應該謹慎行事。在沒有為傳感網格及其系統如何運作建立測試、評估和安全標準的情況下,過早地整合多用途商業軟件可能會給傳感網的人工智能互動帶來不確定性和風險

此外,找到更快解決方案的愿望不應該先于對人的因素的考慮,因為這對安全和富有成效的人機合作至關重要。美國防部領導人還應該認真審視在整個傳感網中整合邊緣處理的計劃,將其作為一個安全和道德問題,并應仔細思考在哪些地方將人類感知與傳感器輸出分離才是真正合適的。雖然培訓人類分析員是ISR體系可以采取的最明顯的措施之一,以減輕來自外部干預和道德失誤的威脅,但物資領導人也必須考慮他們在采購精心設計的、以人為本的技術方面的作用,作為一個同樣重要的保障。

正如美國國防創新委員會的AI原則。雖然年輕的分析員在快速學習數字應用和程序方面表現出很強的能力,但初級人員也傾向于以令人驚訝的方式信任技術。因此,這些分析員必須繼續接受情報分析基礎知識的培訓,使他們善于識別傳感網格中的算法錯誤和遺漏。空軍領導人在2018年為促進AI和ML素養邁出了務實的第一步,啟動了一項試點計劃,以確定具有計算機語言經驗的空軍人員,希望在各種舉措中利用那些具有編碼專長的人。雖然這項措施將有助于區分具有較高數字熟練度的分析員,但教導勞動力如何運作計算機模型可能是一個更有用的技能組合,以準備在傳感網中進行人機合作。"為傳感網就業準備一線分析員的最壞方法是依靠及時培訓來彌補勞動力對技術知識的差距,從而為SIAS活動引入更大的錯誤率。

為了讓組織準備好接收和整合傳感網格,美國防部和空軍領導人必須首先解決人力需求。盡管像傳感網格這樣的系統被設計成模仿人類的認知勞動,但分析人員的勞動對于質量控制和任務管理仍然是至關重要的,更不用說作為識別DNN內潛在篡改或系統故障的保障。現在還不是為預期的技術進步做出任何急劇的力量結構調整的時候,而這種技術進步離投入使用還有好幾年的時間。此外,到目前為止,關于傳感網將如何整合來自聯合部隊的數據,或者是否允許作戰司令部像今天一樣擁有自己獨特的數據戰略和情報資源的討論很少。如果傳感網由于來自一個服務部門或地理作戰司令部的人為縫隙而無法為分析人員提供更多的情報來源,那么該系統是否真正做到了其設計者所宣傳的?這些問題必須在聯合參謀部層面加以解決和調和。最后,利用來自傳感網的情報的組織必須認識到,當他們與機器合作時,他們很容易受到偏見和捷徑的影響。了解外部壓力和交戰規則如何導致對機器輸出的質疑失敗,對于改善人機伙伴關系,真正使SIAS更加有效至關重要。

結論

美國防部和空軍對人工智能在情報中的應用所進行的研究投資,對于確定部隊應如何準備與傳感網格進行人機合作是至關重要的。對領導人和一線分析人員進行培訓,讓他們了解在自動化、人工智能支持的SIAS中存在的道德難題和對手攻擊的可能性,這對保護組織不傳播錯誤信息至關重要。幸運的是,美國防部和空軍ISR領導人主張在傳感網格系統中采用以人為本的設計和培訓模式還為時不晚,因為AFRL的工程師們正在繼續努力為部隊提供一個安全、務實的解決方案。領導人必須認識到以速度換取精確性的組織傾向,并理解精心設計的系統分階段整合將是值得等待的。

付費5元查看完整內容

人工智能(AI)的最新進展為許多經典的AI應用帶來了突破,例如計算機視覺、自然語言處理、機器人和數據挖掘。因此,有很多人努力將這些進展應用于軍事領域,如監視、偵察、威脅評估、水雷戰、網絡安全、情報分析、指揮和控制以及教育和培訓。然而,盡管人工智能在軍事應用上有很多可能性,但也有很多挑戰需要考慮。例如,1)高風險意味著軍事人工智能系統需要透明,以獲得決策者的信任并能進行風險分析;這是一個挑戰,因為許多人工智能技術具有黑盒性質,缺乏足夠的透明度;2)軍用 AI 系統需要穩健可靠;這是一個挑戰,因為已經表明即使對所使用的 AI 技術沒有任何了解,AI 技術也容易受到輸入數據微小變動的影響,并且 3) 許多 AI 技術基于需要大量數據的機器學習訓練;這是一個挑戰,因為在軍事應用中經常缺乏足夠的數據。本文介紹了正在進行的項目成果,以說明軍事應用中人工智能的可能性,以及如何應對這些挑戰。

1 介紹

人工智能(AI),特別是機器學習(ML)和深度學習(DL),在十年內已經從研究機構和大學的原型設計轉向工業和現實世界應用。使用DL技術的現代人工智能已經徹底改變了傳統人工智能應用的性能,如機器翻譯、問答系統和語音識別。這一領域的許多進展也將其優秀的想法變成了卓越的人工智能應用,能夠進行圖像說明、唇語閱讀、語音模仿、視頻合成、連續控制等。這些成果表明,一個能夠自我編程的機器有潛力:1)提高軟件和硬件開發的效率,2)以超越人類的水平完成特定的任務,3)為人類以前沒有考慮過的問題提供創造性的解決方案,4)在人類已知的主觀、偏見、不公平、腐敗等方面提供客觀和公平的決定。

在軍事背景下,人工智能的潛力存在于所有維度的軍事空間中(即陸地、海洋、空中、空間和信息)和所有級別的戰爭內(即政治、戰略、作戰和戰術)。例如,在政治和戰略層面,人工智能可以通過制作和發布大量的虛假信息來破壞對手的穩定狀態。在這種情況下,人工智能很可能也是抵御這種攻擊的最佳人選。在戰術層面,人工智能可以改善無人系統的部分自主控制,以便人類操作員可以更有效地操作無人系統,最終擴大戰場影響力,增強戰場實力。

然而,正如我們將在這項工作中指出的那樣,有幾個關鍵挑戰可能會減緩或限制現代人工智能在軍事應用中的使用:

  • ML模型的透明度和可解釋性不足。舉一個例子,使用DL對使用深度神經網絡(DNN)的自動駕駛汽車進行控制建模需要幾十萬個參數。顯然,這樣一個復雜的程序不容易被解釋。即使是使用替代的ML算法生成的模型,其中模型可以被圖形化,如解析樹或決策樹,即使在應用于玩具模型問題時,也很難甚至不可能解釋。一個更重要的挑戰是人工智能系統向決策者或人類操作者解釋其推理的能力,或者在這種情況下是無能為力的。
  • 眾所周知,使用ML開發的模型很容易受到對抗性攻擊。例如,基于DL的模型可以很容易地通過操縱輸入信號而被欺騙,即使該模型對攻擊者來說是未知的。舉一個例子,使用最先進的目標檢測的無人駕駛飛行器(UAV)也有可能被地面上精心設計的偽裝圖案所欺騙。
  • 任何 ML 應用的原料是機器可以從中學習并最終深入理解的數據。軍事組織通常擅長收集數據用于匯報或重建目的。然而,不能保證同樣的數據可以成功用于ML。因此,軍事組織可能必須調整其數據收集過程,以充分利用現代人工智能技術,如DL。

本文的目的是強調人工智能在軍事應用中的可能性和主要挑戰。第2節簡要介紹了DL,它是本文關注的主要人工智能技術。第3節提供了幾個人工智能在軍事領域中應用的例子。第4節描述了與軍事領域中人工智能的關鍵挑戰,以及部分可用于解決這些挑戰的技術。第5節提出了結論。

2 深度學習

我們所說的DL是指由多個非線性處理單元層組成的機器學習模型。通常情況下,這些模型由人工神經網絡表示。在這種情況下,神經元指的是一個單一的計算單元,其輸出是通過一個(非線性)激活函數的輸入的加權和(例如,一個只有在信號為正時才通過的函數)。DNN指的是具有大量串連神經元層(神經元層由神經元并聯組成)的系統。與DNN相對的是淺層神經網絡,它只有一層平行連接的神經元。

直到大約十年前,DNN的訓練幾乎是不可能的。第一個成功的深度網絡的訓練策略是基于一次訓練一個層。逐層訓練的深度網絡的參數最終使用隨機梯度方法進行微調(同時),以最大限度地提高分類精度。此后,許多研究進展使得直接訓練DNN成為可能,而無需逐層訓練。例如,人們發現,網絡權重的初始化策略與激活函數的選擇相結合是解決問題的關鍵。甚至一些技術,如在訓練階段隨機停用神經元,以及在信號到達激活函數之前對其進行歸一化處理,也已證明對于使用 DNN 獲得良好結果非常重要。

表示學習是DNN高性能的主要原因之一。使用DL和DNN,不再需要手動制作學習特定任務所需的特征。相反,辨別特征是在 DNN 的訓練過程中自動學習的。

支持 DL 應用的技術和工具如今比以往任何時候都更加好用。通過廉價的計算資源、免費的 ML 框架、預訓練模型、開源數據和代碼,僅使用有限的編程/腳本技能即可成功應用和定制高級 DL。

3 軍事人工智能應用

本節介紹了幾個可以應用人工智能來提高軍事能力的例子。

3.1 監視

海上監視是利用固定雷達站、巡邏飛機、船舶,以及近年來使用自動識別系統(AIS)對海上船只進行的電子跟蹤。這些信息源提供了大量的關于船只運動的信息,這些信息可能會揭示船舶非法的、不安全的、有威脅的和異常的行為。然而,大量的船舶運動信息使得手動檢測此類行為變得困難。因此ML-方法被用來從船舶運動數據中生成常態模型。任何偏離常態模型的船舶運動都被認為是異常的,并提交給操作員進行人工檢查。

一種早期的海事異常檢測方法使用模糊 ARTMAP 神經網絡架構根據港口位置對正常船舶速度進行建模。另一種方法是利用運動模式的關聯學習來預測基于其當前位置和行駛方向的船舶運動。其他方法則使用基于高斯混合模型(GMM)和內核密度估計(KDE)的無監督聚類。這些模型能夠檢測出改變方向、穿越海路、向相反方向移動或高速行駛的船只。最近的方法是使用貝葉斯網絡來檢測錯誤的船舶類型,以及不連續的、不可能的和徘徊的船舶運動。海事異常檢測的未來發展還應該考慮周圍的船只和多艘船只之間的互動。

3.2 水下水雷戰

水雷對海上船只構成重大威脅,被用來限制船只行動或阻止船只通過受限水域。因此,反水雷措施(MCM)試圖定位和消除水雷,以實現行動自由。越來越多地使用配備合成孔徑聲納 (SAS) 的自主水下航行器 (AUV) 進行水雷搜索,該水下航行器能提供厘米分辨率的海底聲學圖像。由于AUV收集了大量的SAS圖像,自動目標分類對于區分潛在的水雷與其他物體是很有用的。雖然對水雷的自動目標分類已經研究了很長時間,但DNN在圖像分類方面的高性能表現使人們對如何將這種辦法用于自動地雷探測產生了興趣。

一些研究顯示了DNN在水雷探測方面的潛力。例如,這些研究描述了如何將假水雷的形狀、類似水雷的目標、人造物體和巖石放置在海底的各種地理圖形位置上。然后用AUV和SAS對海底進行測量。結果顯示,與傳統的目標分類器相比,DNN的性能明顯提高,對水雷形狀的檢測概率更高,誤報率更低。同樣,這些研究也描述了如何生成圓柱形物體和各種海底景觀的協同SAS圖像,并這些圖像用來訓練DNN。進一步的研究可能會探究如何從所有類型的雜波物體中分辨出水雷,結合檢測和分類,以及對噪聲、模糊和遮擋的魯棒性等

3.3 網絡安全

入侵檢測是網絡安全的重要組成部分,可在惡意網絡活動危及信息可用性、完整性或機密性之前對其進行檢測。入侵檢測是使用入侵檢測系統(IDS)進行的,該系統將網絡流量分類為正常或入侵。然而,由于正常的網絡流量往往具有與實際攻擊相似的特征,網絡安全分析師對所有入侵警報的情況進行分析,以確定是否存在實際的攻擊。雖然基于簽名的IDS通常擅長檢測已知的攻擊模式,但它們不能檢測以前未見過的攻擊。此外,基于簽名的檢測的開發往往是緩慢和昂貴的,因為它需要大量的專業知識。這限制了系統對快速演變的網絡威脅的適應性。

許多研究使用 ML 和其他 AI 技術來提高已知攻擊的分類準確性、檢測異常網絡流量(因為這可能表明新的攻擊模式偏離了正常網絡流量)以及自動化模型構建。然而,這些系統很少被實際使用。其原因是,入侵檢測給出了具體的挑戰,如缺乏訓練數據、網絡流量變化大、錯誤成本高以及難以進行相關評估。雖然可以收集大量的網絡流量,但這些信息往往是敏感的,只能部分匿名化處理。使用模擬數據是另一種選擇,但它往往不夠真實。然后,必須根據模式是正常還是入侵,或用于確保無攻擊的異常檢測來標記數據以進行監督學習,這通常很難做到。最后,模型需要是透明的,以便研究人員能夠理解檢測限制和特征的含義。

另一項提高網絡安全的措施是在安全審計期間進行滲透測試,以確定潛在的可利用的安全弱點。由于許多網絡的復雜性和其中的大量主機,滲透測試通常是自動化的。一些研究已經調查了如何使用網絡的邏輯模型而不是實際的網絡將 AI 技術用于模擬滲透測試。網絡通常用攻擊圖或樹來表示,描述對手如何利用漏洞闖入系統。描述了模型在表征方式方面的不同之處:1) 攻擊者的不確定性,從抽象的成功和檢測概率到網絡狀態的不確定性,以及 2) 從已知的前后條件到一般感知和觀察的攻擊者行為-結果的服務。此外,通過網絡和主機的正式模型,可以對不同的緩解策略進行假設分析。未來對滲透測試的研究可能會使用攻擊者和防御者之間交互的認知有效模型,例如,深度強化學習來探索可能攻擊的大問題空間。

4 挑戰

正如第3節中的案例所示,在為軍事目的開發和部署的基于人工智能的應用之前,有一些尚未解決的挑戰是很重要的。在本節中,我們將討論我們認為對軍事人工智能最關鍵的挑戰:1)透明度,2)脆弱性,以及3)在有限的訓練數據下的學習。其他重要的,但不太關鍵的,與優化、泛化、架構設計、超參數調整和生產級部署有關的挑戰,在本節中沒有進一步討論。

4.1 透明度

許多應用除了需要高性能外,還需要高透明度、高安全性以及用戶的信任或理解。這種要求在安全關鍵系統、監控系統、自主智能體、醫學和其他類似的應用中很典型。隨著最近人工智能技術的突破,人們對透明度的研究也越來越感興趣,以支持最終用戶在此類應用中的使用與透明度相關的成果。

4.1.1 對透明度的期望

人工智能所需的透明度取決于終端用戶的需求。利普頓描述了透明度可能涉及五種類型的用戶需求:

  • 1.信任-在用戶難以質疑系統建議的情況下。然而,可能不清楚用戶的信任是基于系統的性能或穩定性,相對于用戶的體驗,還是用戶對系統推薦的舒適度。
  • 2.理解之前未知的因果關系,可以用其他方法測試。
  • 3.由于與用戶的能力相比,模型的通用性有限,因此對系統性能的了解受到限制。
  • 4.有關系統建議的一些補充信息。
  • 5.公平性,以避免可能導致某些情況下的不平等待遇的系統性偏見。例如,對信貸申請的評估不應基于個人屬性,如性別或種族,盡管這種屬性可能在整體統計水平上用來區分人口群體。

原則上,有兩種方法可以使人工智能系統透明。首先,某些類型的模型被認為比其他的更容易解釋,例如線性模型、基于規則的系統或決策樹。檢查這些模型可以理解它們的組成和計算。Lipton描述了可解釋性取決于用戶是否能夠預測系統的建議,理解模型參數,以及理解訓練算法。其次,系統可以解釋其建議。這種解釋可以是文字的,也可以是視覺的。例如,通過指出圖像的哪些方面最有助于其分類。Miller 對社會科學研究中如何使用這些知識來設計 AI 系統的進行了的回顧。通常情況下,人們用他們感知到的信念、欲望和意圖來解釋其他智能體的行為。對于人工智能系統來說,信念對應于系統關于情況的信息,欲望對應于系統的目標,而意圖對應于中間狀態。此外,解釋可能包括行動的異常性、使成本或風險最小化的偏好、對預期規范的偏離、事件的回顧性和行動的可控性。主要的發現是:

  • 解釋是針對特定的反事實案例而進行的對比性解釋。因此,解釋的重點是為什么提出特定的建議而不是其他建議。
  • 解釋是有選擇的,并且集中在一兩個可能的原因上,而不是建議的所有原因。
  • 解釋是一種傳遞知識的社會對話和互動。

4.1.2 可解釋模型的實例

貝葉斯規則列表(BRL)是可解釋模型的一個例子。BRL由一系列的if(條件)then(結果)else(替代)語句組成。Letham等人描述了如何為一個高度準確和可解釋的模型生成BRL來估計中風的風險。條件離散化了影響中風風險的高維多變量特征空間,結果描述了預測的中風風險。BRL在預測中風風險方面具有與其他ML方法類似的性能,并且與其他現有評分系統一樣具有可解釋性,但其準確性較低。

基于詞典的分類器是文本分類的另一個可解釋模型的例子。基于詞典的分類器將術語的頻率與每個類別中出現的術語的概率相乘。得分最高的類別被選為預測對象。Clos等人使用一個門控遞歸網絡對詞典進行建模,該網絡同時學習術語和修飾語,如副詞和連詞。受過訓練的詞典是關于論壇中的帖子是支持還是反對死刑以及對商業作品的看法。詞典的表現比其他ML方法更好,同時也是可解釋的。

4.1.3 特征可視化的實例

盡管DNN在許多應用中提供了很高的性能,但它們的子符號計算可能有數百萬個參數,這使得人們很難準確理解輸入特征對系統推薦的貢獻。由于DNN的高性能對許多應用來說是至關重要的,因此人們對如何使它們更容易解釋產生了濃厚的興趣(見一篇評論)。許多用于解釋DNN的算法將DNN處理轉化為原始輸入空間,以便將辨別特征可視化。通常,有兩種通用方法用于特征的可視化,即激活最大化和DNN解釋。

激活最大化會計算哪些輸入特征將最大限度地激活可能的系統建議。對于圖像分類來說,這代表了理想的圖像,它顯示了每個類別的可區分和可識別的特征。然而,由于各類可能使用同一物體的許多方面,而且圖像中的語義信息往往是分散的,所以圖像往往看起來不自然。激活最大化的方法的一些例子是梯度上升法,更好的正則化方法以增加通用性,以及合成首選圖像法。

DNN的解釋是通過強調區分輸入特征來解釋系統建議。在圖像分類中,這種可視化可能會突出顯示支持或反對某個類別的區域,或者僅顯示包含區分特征的區域。計算鑒別特征的一種方法是使用局部梯度或其他變化度量的敏感性分析。然而,敏感性分析的一個問題是,它可能顯示輸入中不存在的判別特征。例如,在圖像分類中,敏感性分析可能會顯示物體被遮擋的部分,而不是可見部分。逐層相關性傳播通過考慮特征存在和模型反應來避免這個問題。

4.1.4 具體應用解釋的實例

與分類不同的是,人工智能規劃是基于動態的領域模型。Fox等人描述如何使用領域模型來解釋為什么行動被執行或不執行,為什么一些行動不能被執行,使未來行動的因果關系,以及重新規劃的需要。

由于公平性對許多人工智能應用來說非常重要,Tan等人描述了如何利用模型蒸餾來檢測黑箱模型的偏差。模型蒸餾法將更大更復雜的模型進行簡化,而沒有明顯的準確性損失。為了提高透明度,他們使用了基于淺層樹的廣義加性模型,對每個參數和兩個參數之間的相互作用進行建模。他們根據黑盒模型的系統建議訓練一個透明模型,并根據實際結果訓練一個透明模型。對兩個模型的推薦差異的假設檢驗體現了黑盒模型引入偏差的情況,然后可以通過比較兩個透明模型來診斷偏差。該系統在犯罪風險、借貸風險和卷入槍擊事件的個人風險方面進行了評估。結果顯示,一個黑盒模型低估了年輕罪犯和白種人的犯罪風險,而高估了美國本土非洲裔犯罪的風險。

4.2 脆弱性

在本節中,我們討論DNN在兩個不同方面的脆弱性。1)對輸入操縱的脆弱性和2)對模型操縱的脆弱性。我們首先看一下對輸入信號的操縱:

4.2.1 對輸入進行對抗性處理

在提供DNN的情況下,人們發現很容易調整輸入信號,從而使分類系統完全失敗。當輸入信號的維度很大時,例如圖片,通常只需對輸入中的每個元素(即像素)進行不易察覺的微小調整,就足以欺騙系統。用同樣的技術來訓練DNN,通常是采用隨機梯度法,通過觀察梯度的符號,你可以很容易地找到每個元素應該朝哪個方向改變,以使分類器錯誤地選擇目標類別或僅僅是錯誤分類。只需幾行代碼,最好的圖像識別系統就會被欺騙,相信一張車輛的圖片是一只狗。下面的圖 1 顯示了操作前后的圖像以及操作前后類的可能性。

上述方法假設有對DNN的完全訪問權,即所謂的白盒攻擊。人們發現,即使是所謂的黑箱攻擊,即你只觀察到系統的輸入和輸出類型,也是可能的。在其中,作者采用從他們想要攻擊的黑盒系統中稀疏采樣所獲得的數據來訓練一個替代網絡。鑒于替代網絡,你可以使用上述的白盒攻擊方法來制作對抗性輸入。一個學習替代網絡的替代方法被提出來,在這個方法中,遺傳算法被用來創建導致系統錯誤分類的攻擊向量。同一作者甚至表明,通常只需修改圖像中的一個像素,盡管常常是可察覺的,就能實現成功的攻擊。

圖 1:從小型貨車到西伯利亞雪橇犬。 原始圖像和操縱(對抗性制作)圖像之間的絕對差異(放大 20 倍)顯示在右側。 對抗性示例(中心)是使用 Kurakin 的基本迭代方法(BIM)生成的。

4.2.2 利用預訓練 DNN 中的隱藏后門

當設計一個DNN,但只能獲得少量的訓練數據時,通常會使用預訓練的模型來達到良好的性能。這個概念被稱為遷移學習,一個常見的應用是采用在大量數據上訓練過的模型,根據具體問題替換和定制網絡中的最后幾層,然后在最后階段(有時甚至是整個系統)利用可用的訓練數據微調參數。目前已經有大量的預訓練模型可以從互聯網上下載。那么一個相關的問題是:"我們怎么知道那些上傳模型的人沒有壞心眼?"。作者在識別美國交通標志的模型中插入后門,就考慮了這種類型的漏洞。例如,一個貼紙被訓練為屬于停止標志以外的類別。然后他們表明,當使用后門(即在交通標志上放置一個貼紙)時,基于美國交通標志網絡的識別瑞典交通標志的系統會有負面的反應(大大損害了瑞典交通標志系統的分類準確性)。

4.2.3 防御方法

減少DNN對輸入信號操縱的脆弱性的一種方法是在模型的訓練過程中明確包括被操縱/對抗的例子。也就是說,除了原始訓練數據外,還產生了對抗性例子,并用于模型的訓練。

另一種方法是使用一個叫做防御蒸餾的概念。簡而言之,該方法試圖降低輸出信號只指出真實類別的要求,并迫使其他類別的概率為零。這分兩步完成。第一步是對DNN進行常規訓練。在第二步,將第一個神經元網絡的輸出(類別概率)用作新的類別標簽,并使用新的(軟)類別標簽訓練一個新的系統(具有相同的架構)。這已被證明可以減少漏洞,因為你沒有把DNN與訓練數據貼得太緊,并保留了一些合理的類間關系。

其他防御方法,例如特征壓縮技術,例如均值或中值濾波或非線性像素表示,例如單熱或溫度計編碼。

不幸的是,所描述的方法都不能完全解決漏洞問題,尤其是如果攻擊者對模型和防御方法有充分的了解的話。

4.3 數據

在軍事背景下開發基于ML的應用是具有挑戰性的,因為軍事組織、訓練設施、平臺、傳感器網絡、武器等的數據收集應用最初不是為ML目的設計的。因此,在這個領域,往往很難找到真實世界的、高質量的、足夠大的數據集,可以用來學習和深入理解的。在本節中,我們將探討即使在有限的訓練數據中也可以用來建立ML應用的技術。

4.3.1 遷移學習

遷移學習(也在第4.2.2節中提到)是一種技術,通常在數據集較小和計算資源有限時使用。這個想法是在開發針對其他類似任務的新模型時,重復使用通常由 DNN 表示的預訓練模型的參數。至少有兩種方法可用于DL應用中的遷移學習:

  • 重新學習輸出層:使用這種方法,預先訓練好的模型的最后一層被替換成新的輸出層,與新任務的預期輸出相匹配。在訓練過程中,只有新輸出層的權重被更新,其他的都是固定的。
  • 微調整個模型:這種方法類似于第一種方法,但在這種情況下,可能會更新整個 DNN 的權重。 這種方法通常需要更多的訓練數據。

事實證明,遷移學習也可以提高模型的泛化能力。然而,隨著源任務和目標任務之間距離的增加,遷移學習的積極作用往往會減少。

4.3.2 生成性對抗網絡

生成性對抗網絡(GANs)是由Goodfellow等人發明的,是一種生成模型,可用于半監督學習,其中將一小組標記的數據與一大組未標記的數據相結合以提高模型的性能。基本的GAN實現由兩個DNN組成,分別代表一個生成器和一個判別器。生成器被訓練成產生假數據,而判別器被訓練成將數據分辨為真實或虛假。當這兩個網絡同時被訓練時,一個網絡的改進也會導致另一個網絡的改進,直到最后達到一個平衡。在半監督學習中,生成器的主要目標是產生未標記的數據,用于提高最終模型的整體性能。除了半監督學習之外,GANs還被用于:

  • 重建:填補部分被遮擋的圖像或對象的空白部分。
  • 超分辨率:將圖像從低分辨率轉換為高分辨率。
  • 磁帶到圖像的轉換:將圖像從冬天轉換為夏天,從夜晚轉換為白天,等等。這項技術的一個軍事應用是可以將夜視圖像轉換為日光圖像。

4.3.3 建模和仿真

建模和仿真已被軍隊廣泛用于培訓、決策支持和研究等。因此,有很多經過長期驗證的模型,也有可能被用于生成ML應用的合成數據。例如,飛行模擬器可以用來生成置于不同環境中飛機的合成圖像。在這種情況下,標簽是自動的,因為在生成合成圖像之前,飛機的類型是已知的。然而,不足為奇的是,在將模型應用于真實世界的圖像時,使用合成圖像可能會導致性能不佳。目前正在探索的一種方法是采用GANs增強合成圖像,使其具有照片般的真實性。這種方法已經得到成功的應用。

5 結論

人工智能最近的突破正在逐漸達到可以用于軍事應用的地步。 該論文描述了在監視、水下魚雷戰和網絡安全中使用人工智能的一些可能性。 其他潛在應用包括使用半自動駕駛車輛和傳感器系統進行偵察、在具有長時間要求的防空系統中進行威脅評估、新興模式的情報分析、指揮和控制系統以及教育和培訓。 然而,人工智能的軍事應用需要考慮以下方面的挑戰:

  • 確保模型性能符合軍事要求的透明度。
  • 脆弱性可能會導致系統性能大幅度降低。
  • ML的訓練數據不足。

專注于人工智能的透明度、可解釋性和可解釋性問題的研究人員已經取得了許多進展。這些進展中的許多部分也都可能被用于軍事人工智能應用中。然而,需要進行更徹底的需求分析以了解如何利用這些研究成果。軍事需求在風險、數據質量、法律要求等方面與一般情況相比非常不同,有些類型的透明度甚至可能不適用。此外,還需要對如何利用社會科學研究來提高人工智能的可解釋性進行更多研究。未來的研究還應該包括如何充分利用在視覺分析研究領域中開發地豐富的可視化技術。

由于目前還沒有解決脆弱性問題的有效方案,因此在監測這一研究領域不斷尋找有希望的解決方案非常重要。然而,在這種解決方案出現之前,有必要盡量減少外部對模型和防御技術的訪問。否則,對手可能會試圖利用這些漏洞來為自己謀利。

最后,遷移學習使其有可能將預先訓練好的模型應用于訓練數據和計算資源都有限的軍事應用。GAN是另一種有很前途的技術,它能夠采用標記的和未標記的數據進行學習(半監督學習)。GAN也可以與仿真結合使用,以提高合成的訓練數據的真實性。

付費5元查看完整內容

人工智能正在改變戰爭。英國防部如何準備應對未來的變化?

對于人工智能的軍事用途所帶來的接受挑戰,傳統的反應是堅持要求人類保持 "有意義的人類控制",作為一種產生信心和信任的方式。考慮到人工智能和相關基礎技術的普遍性和快速發展,這不再是一個適當的回應。人工智能將在整個軍事行動范圍內廣泛的指揮和控制(C2)活動中發揮重要的、日益增長的作用。雖然在公眾心目中,人工智能的威脅沒有 "殺手機器人 "那么直接,但在軍事決策中使用人工智能會帶來關鍵的挑戰,同時也有巨大的優勢。加強人類對技術本身的監督并不能防止無意的(更不用說有意的)濫用。

本文以各級(作戰操作員、指揮官、政治領導人和公眾)的信任對有效采用人工智能進行軍事決策至關重要這一前提為基礎,探討了關鍵的相關問題。對人工智能的信任究竟意味著什么?如何建立和維持它以支持軍事決策?人類操作員和人工智能體之間的共生關系對未來的指揮需要作出哪些改變?

當人類對人工智能的行為持有某些期望,而不考慮人工智能體的意圖或道德時,可以說存在對人工智能的信任。然而,與此同時,信任不僅僅是技術性能和可靠性的一個功能--它不能僅僅通過解決數據完整性和可解釋性問題來保證,盡管它們很重要。軍事人工智能中的信任建設還必須解決軍事組織和指揮結構、文化和領導力方面的必要變化。實現總體上適當的信任水平需要一個整體的方法。除了信任人工智能的使用目的之外,軍事指揮官和操作人員還需要充分信任--并且在如何信任--支撐任何特定人工智能模型的輸入、過程和輸出方面得到充分的培訓和具有豐富經驗。然而,最困難的,也可以說是最關鍵的層面是組織生態系統層面的信任。如果不改變軍事決策的體制因素,未來人工智能在C2中的使用將仍然是次優的,被限制在一個模擬框架內。有效引進任何新技術,更不用說像人工智能這樣的變革性技術,需要從根本上重新思考人類活動的組織方式。

優先考慮人和制度層面并不意味著對技術進行更多的控制;相反,它需要在不斷發展的人機認知系統中重新思考人的作用和貢獻。未來的指揮官將需要能夠在一個真正的 "整體部隊"中領導不同的團隊,整合來自軍事、政府和民事領域的貢獻。他們必須對他們的人工隊友有足夠的了解,以便能夠與他們合作并挑戰他們。這更類似于海鷗的雜音,而不是個別 "翠鳥"領導人的天才。為了發展新的指揮和領導概念,英國防部必須重新思考其方法,不僅是培訓和職業管理,還有決策結構和程序,包括未來總部的規模、位置和組成。

人工智能已經在改變戰爭,挑戰人類長期的習慣。通過在訓練和演習中接受更多的實驗,以及探索C2的替代模式,國防部可以更好地準備迎接未來不可避免的變化。

前言

人工智能正在改變人類的思維和決策方式。未來,它將越來越多地影響人類如何確定各種認知過程的優先次序,調整他們的學習、行為和訓練,并更廣泛地改造他們的機構。這些變化在整個軍隊中仍不完全明顯。盡管有新的技術和戰爭迅速發展的特點,今天的武裝部隊在組織結構上與后拿破侖時代歐洲的職業軍隊并沒有很大的區別。太多的人仍然參與到軍事任務中,而這些任務技術可以做得更好更快,并且對于重新思考人類對人機團隊的認知貢獻也沒有給予足夠的重視,而這正是解決未來指揮和控制(C2)問題所需要的。

本文以QinetiQ公司早先的一份報告為基礎,該報告將信任視為軍事能力的基本組成部分和2020年代軍事適應性的基本要求。本文探討了在軍事決策中越來越多地使用人工智能的最新趨勢和想法。本文并不直接關注這一趨勢的倫理(或法律)問題,盡管這些問題很重要。相反,本文強調了信任作為人工智能時代軍事指揮的一個因素的重要性和意義。

人工智能對軍事決策和C2的潛在深遠影響很少引起專家團體以外的關注。大多數公眾關注的是技術的優勢和風險,而不是人類認知和制度構建的潛力和限制。20多年前,著名的社會生物學家E-O-威爾遜抓住了人類當前的挑戰。威爾遜說,真正的問題是,"我們有舊石器時代的情感;中世紀的制度;和神一樣的技術。"在過去的幾十年里,技術的發展速度遠遠超過了人類適應它的能力。強調人工智能的技術屬性,而忽略其日益增長使用中的人類和制度層面,只會使挑戰更加復雜。

在許多領域,人工智能的軍事經驗仍然有限,需要做更多的工作來了解人工智能在人類決策中作用日益增長的影響。本文旨在引發一場更廣泛的辯論,討論英國國防企業內部所需的文化和組織變革,包括指揮部和指揮官的作用,以確保人工智能在未來軍事決策中的最佳使用。

本文的見解來自與人工智能、人類認知、軍事決策和信任理論有關的更廣泛的文獻。這項研究在2021年9月至2022年2月期間進行,大大受益于與來自國防、學術界和工業界的廣泛專家和用戶的訪談。

前兩章提供了本文的理論背景。第一章探討了人工智能和信任的概念,第二章則分析了人類機構的作用以及人工智能對人類做出選擇和決定的認知能力的影響。第三章結合信任、人工智能和人類機構的概念,提出了一個在人工智能支持的軍事決策中發展信任的五維框架。第四章擴大了對C2的分析范圍,特別關注人工智能對傳統上支撐武裝部隊行使權力和指導的人和體制結構的影響。最后一章提出了對未來指揮、領導和 "全軍 "團隊的進一步研究領域。

1. 人工智能和信任

對于人工智能或與人工智能有關的信任,并沒有標準的定義。這兩個概念都有不同的解釋,有時也會有激烈的爭論。本章沒有試圖綜合所有關于這兩個術語的文獻,而是建立了一個基準定義,為隨后討論關于人工智能應用于軍事C2的信任作用提供框架。

1.1 人工智能的性質和類型

人工智能的概念起源于1950年著名的圖靈測試,該測試發生在這個詞被創造出來的幾年前。通過關注它做什么而不是它是什么,更容易將人工智能概念化。人工智能 "試圖讓計算機做人類思想能做的各種事情"。在最基本的方面,它可以被理解為追求特定任務的虛擬信息處理能力。正如 "智能"(或 "思想")有許多層面和不同的用途,人工智能也是如此。因此,人工智能從廣泛的學科中汲取不同的想法和技術,不僅包括數學和計算機工程,還包括哲學、經濟學、神經科學、心理學和語言學。

廣義上講,有三種不同層次的人工智能:人工狹義智能,通常被稱為 "狹義人工智能";人工通用智能,有時被稱為人類水平的人工智能;或者更強大的人工超級智能,超過人類的智能水平。在這一點上,有些人認為會出現一個奇點,在這個奇點中,人工智能要么變得有自我意識,要么達到持續改進的能力,使它的發展超出人類控制。后兩種水平被認為仍有一段距離,盡管距離有多遠還存在爭議。不過,就目前而言,狹義人工智能更先進應用的出現,如先進的機器人技術,加上計算能力的爆炸,才是目前關于人工智能的軍事用途辯論的主要動力。本文重點討論狹義人工智能的應用。

圖 1:AI 類型的簡化分類

在狹義的人工智能中,還有更多的類別,盡管這些技術并不完全是離散的,而且經常被結合使用。最常見的區別是符號人工智能和亞符號或非符號人工智能,前者通常被描述為基于邏輯,后者基于自適應或學習。符號人工智能依賴于順序指令和自上而下的控制,使其特別適合于確定的問題和基于規則的過程。非符號人工智能,其中神經網絡是一種常見的方法,涉及并行、自下而上的處理和近似推理;這與動態條件和數據不完整的情況最相關。符號人工智能提供了精確性和可解釋性,而涉及神經網絡的非符號人工智能則不那么脆弱(網絡中缺少一個節點并不會導致整個網絡無法運行),并且能夠在沒有明確規則或一致證據的情況下識別模式。

有三種常見的機器學習類型,根據有助于智能體學習過程的反饋類型進行區分:監督學習;無監督學習;以及強化學習。在監督學習中,系統被訓練來產生假設或采取具體行動,以追求基于特定輸入的目標值或輸出(被稱為標簽)(例如,圖像識別)。無監督學習沒有設定規格或標簽,也沒有明確的反饋;相反,系統通過尋找數據中的模式進行學習(例如,DNA序列聚類)。強化學習依賴于一個反饋回路,通過試錯或獎懲機制穩定地強化系統的學習行為(例如,先進的機器人技術或無人駕駛汽車)。與監督學習不同,強化學習中使用的輸入數據不是預先定義的,這允許更廣泛的探索,但與無監督學習不同,它有一個預期的應用或總體目標(與總體獎勵最大化相關)。

所有三種類型的機器學習,無論監督或自律的程度如何,都提出了重要的信任和值得信賴的問題。所需的信任程度和性質因使用人工智能的目的不同而不同。

1.2 概念:信任(Trust)

信任描述了兩個或多個智能體之間的互動。信任的傳統定義是假設信任者對受托人的能力和善意(或動機)存在合理的信念。對許多人來說,道德誠信(或意圖)的問題是信任與其他概念(如信心)的區別。另一些人認為,信任的范圍和所指比信心更廣,后者被視為與具體事件相關的獨立判斷。大多數信任的定義趨于統一的是一種脆弱的感覺。沒有背叛的可能性,沒有風險的存在,就不可能有信任。

正是因為經典的信任概念中隱含著假定的道德因素,一些人質疑使用該術語來描述人類與人工智能體的關系。他們認為,在目前狹義人工智能的水平上,我們不能將意向性或道德機構歸于人工智能系統,因此使用 "信任 "一詞是不恰當的。另一些人采取了不那么純粹的觀點,并以反映日常使用的方式應用該術語,意味著對系統的可靠性有信心。

信任作為一個術語在計算機科學中被廣泛使用。更重要的是,信任仍然是公眾和用戶接受人工智能的一個基本方面。今天,關于人工智能的國家政策、法規和專家建議經常強調 "值得信賴的人工智能 "的必要性。例如,DARPA的空戰進化計劃正在探索方法,以模擬和客觀地衡量飛行員在斗狗時對人工智能的信任。認識到這些尚未解決的定義問題,作者選擇了略微調整 "信任 "一詞,使之與通常的做法一致。

作者調整后的信任概念需要對人工智能的表現有一定的預期,而不需要假設人工智能方面的特定動機。因此,對人工智能體行為的積極預期可能是信任存在的充分條件,而不考慮意圖。

在目前大多數關于人工智能的討論中,重點往往是人作為信任者,系統作為受托人,盡管任何認知智能體,包括自主機器人和智能機器,原則上也可以履行信任者的角色。這樣理解的話,信任就成了 "系統成員之間互動的促進者,無論這些成員是人類智能體、人工智能體還是兩者的組合(混合系統)"。事實上,在人工智能更成熟的應用案例中,受托人最有可能同時包括人工智能支持的系統(人工智能體)和該系統的提供者(人類智能體)。在目前的人工智能水平上,信任似乎是一種單向的關系,涉及人類 "信任 "人工智能的程度,而不是真正的雙向信任,即人工智能對人類表現的看法。

各種因素決定了(人類)對技術的信任,包括但不限于信任者的能力水平和信任傾向,以及整體環境或背景(包括更廣泛的文化和機構動態)。除了這些針對人類和環境的考慮,決定一個人或組織對人工智能的信任程度的是技術的性能、過程(它如何產生特定的輸出),以及重要的是目的。所有這三者都決定了人工智能系統的設計和部署。

除了技術的穩健性和安全性,隱私、公平、透明度和問責制是一些最常被提出的影響公眾對人工智能信任的問題。然而,主要是由于設計適當的算法、理解復雜軟件系統的內部結構以及為基于算法的決策賦予責任等方面的困難,所以在值得信賴的人工智能的關鍵屬性列表中總是會加入進一步的考慮:這被交替稱為人類機構、監督或有意義的控制。在某些情況下,保持人類對技術使用的監督可能是唯一的保護措施,以防止無意中出現有偏見的、不可捉摸的和/或監管不力的人工智能系統的風險。

1.3 概念:控制(Control)

控制通常被看作是信任的反面。當對智能體執行任務的能力有信任時,就不需要監督。然而,即使在人工智能更適合做決定的情況下,人類也會經常傾向于干預。信任不足可能和過度信任一樣有風險或適得其反。事實上,正如絕對的控制是罕見的,絕對的信任也是如此。在開發和使用人工智能的過程中,有必要在適當的信任水平和適當的控制水平之間取得謹慎的平衡。這是 "校準的信任 "或可適應/適應性自主性等概念的核心。信任是根據人工智能的能力來校準的,對人工智能能做什么或不能做什么的期望將影響信任的水平。同樣,在可適應的自主性的情況下,用戶定制自主性水平的能力可以支持更大的信任水平。這在國家安全決策中尤為關鍵,因為信任或不信任人工智能的影響可能是最大的。

對技術在人類事務中的作用的擔憂并不新鮮。許多人認為關于人工智能的辯論與之前關于技術的爭論沒有什么不同。根據這一論點,人工智能構成了一種進化,而不是對過去活動的徹底背離,即使人類有時可能在背離以前的自動化水平的情況下被從決策圈中移除。雖然信任仍然是一個挑戰,特別是在機構和社會層面,但穩步應用最初仍然有限的人工智能來支持軍事活動,隨著時間的推移,可以培養出熟悉和越來越多的信心。

其他人,通常是政府以外的人,質疑這種漸進式的方法。他們認為人工智能的崛起是一種范式的轉變,與以前的任何技術都有質的不同。以前的技術都沒有將人工智能的雙重用途特性、傳播的便利性和實質性的破壞潛力結合起來。在過去,最具破壞性的技術都在政府的控制之下,或者在軍事領域之外幾乎沒有應用。此外,雖然以前政府主導了大部分新技術的開發,但這種趨勢幾乎完全逆轉;現在大部分投資和創新來自于工業。鑒于軍事和民用界限的模糊,以及我們的對手和競爭者對人工智能的投資,認為我們可以控制人工智能發展和使用的速度和程度是不明智的。在反思算法技術的進步時,一些人甚至進一步聲稱技術和人類之間的角色發生了逆轉,人們正在成為 "人類的人工制品"和"(技術系統的)智能體"。

如果我們接受對人工智能系統在未來如何操作(和運行)進行完全控制的限制,關鍵問題是我們如何在算法超過目前的性能水平后長期確保適當的交互和人類判斷。反應時間是軍事競賽中的一個關鍵優勢;加快OODA(觀察--方向--決定--行動)循環的各個方面,通常會給那些先到者帶來領先優勢。而這樣做只要一方開始使用人工智能來加快他們的決策和反應時間,另一方就會受到壓力。

2. 人工智能和人類機構

2020年12月,美國空軍首次使用人工智能副駕駛飛行了一架軍用飛機。這種被稱為ARTUμ的算法完全控制了傳感器的使用和戰術導航,而其人類隊友則駕駛著U2間諜飛機。這是首次出現人工智能控制軍事系統的情況。用美國空軍前首席采購官員威爾-羅珀的話說,ARTUμ "是任務指揮官,是人機團隊的最終決定者"。

甚至在ARTUμ演示之前,美國國防部已經開始了其全域聯合指揮控制(JADC2)計劃的工作。JADC2旨在打造連接五個軍種的傳感器,承諾對作戰環境進行快速分析,以便在幾小時或幾分鐘內做出決策。在未來的JADC2中,人工智能將允許快速處理數據,為目標識別提供信息,并推薦最佳的交戰武器(無論是動能還是非動能)。美國空軍的先進作戰管理系統、美國陸軍的 "聚合項目"(被稱為 "學習運動")和美國海軍的 "超配項目 "都在嘗試使用人工智能與自主性相結合的方式來支持JADC2。

其他國家,包括英國通過英國陸軍的 "Theia計劃"等項目,以及北約也已經開始嘗試使用人工智能來支持C2和決策。然而,這種試驗的規模和范圍仍然有限。與數據挖掘和語言翻譯等領域不同,人工智能在軍事決策中的應用仍處于起步階段。

美國國防部高級研究計劃局目前開展的工作提供了對未來的一瞥。作為其 "AI Next "項目的一部分,該機構的第三波人工智能投資尋求 "將計算機從工具轉變為解決問題的伙伴",并 "使人工智能系統能夠解釋其行動,并獲得常識性知識并進行推理"。

2.1 人工智能的民事與軍事用途

人工智能已經塑造或推動了我們的許多日常決策。在某些情況下,它已經改變了整個行業。在高度交易性的活動中尤其如此,如保險或零售部門。人類已經將關鍵活動的責任交給了人工智能,讓算法在沒有人類干預的情況下做出決定。今天,人工智能塑造了谷歌和Facebook等網絡平臺提供的內容,也決定了哪些內容被刪除或屏蔽。保留了人類因素的人工智能決策支持系統也在激增,被用于從醫療診斷到改善制造工藝的各個方面。

很少有地方像金融業那樣,人工智能從根本上改變了人與機器的關系。人工智能現在負責絕大多數的高頻交易。在幾毫秒內做出的數千項微觀決定有能力改變整個財富,有時會帶來毀滅性的后果,2010年的 "閃電風暴 "證明了這一點。人類的決定對于金融市場的效率不再是必要的,事實上,甚至可能會起到反作用。無形的算法似乎已經超越了無形的手。

至于社會的其他部分,人工智能的潛在軍事用途涵蓋了廣泛的應用范圍。這些可以有效地分為企業、任務支持和業務人工智能應用。人工智能的軍事應用,特別是與任務支持和作戰用途有關的應用,在一些基本方面與日常的民用活動不同。在平民生活中,人工智能有機會利用大量容易獲得的數據,不斷針對現實生活中的例子進行訓練和學習。對于軍隊來說,與對手的接觸是零星的,來自真實行動的教訓或 "數據 "在數量和頻率上都相對較低。除了軍事對抗的偶發性質,國家安全決策通常依賴于一套復雜得多的條件,涉及多個參數和利益相關者(更不用說對手的意圖),而今天的算法沒有能力再現這些條件。最后,也是最重要的一點,在國防和國家安全問題上,面臨風險的不僅僅是財富,還有生命。數學邏輯不足以為決策提供依據;在使用武力時,道德和倫理考慮比任何其他人類活動都要突出。當人類生命的完整性受到質疑時,我們為技術設定的標準將永遠高于我們為容易出錯的人類設定的標準。

除了美國、英國和北約等國的現行政策外,人們普遍認為人類將在決策中保留一個關鍵角色。美國國防部的人工智能戰略指示以 "以人為本的方式 "使用人工智能,有可能 "將人類的注意力轉移到更高層次的推理和判斷"。納入人工智能的武器系統設計應 "允許指揮官和操作人員對武力的使用進行適當的人類判斷",并確保 "清晰的人機交互"。提到人類總是 "在循環中 "和 "完全負責選項的開發、解決方案的選擇和執行"--這是以前對我們日益自動化的未來的評估中的常見說法--已經被一種更細微的觀點所取代。

所謂的有監督的自主系統是指人類坐在 "循環 "上。雖然人類在理論上保持監督,但一些批評者認為,在實踐中,他們可能無法真正控制自動決策,因為他們可能不熟悉為他們提供決策信息的環境和人工智能程序。在這些情況下,人類的干預能力,除了停止機器之外,被降到最低,沒有達到"有意義的人類控制 "的想法。只有在完全自主系統的情況下,人類的干預才會被完全消除。然而,最終,試圖定義自主性水平的做法可能會產生誤導,因為它們假定人類和機器之間的認知活動是簡單分離的。2012年美國國防科學委員會的一份報告描述了如何:

  • 沒有完全自主的系統,就像沒有完全自主的士兵、水手、空軍或海軍陸戰隊一樣。也許對指揮官來說最重要的信息是,所有的系統在某種程度上都由人類監督,而最好的能力來自于人類和機器的協調和合作。

兩個領域的發展揭示了各國政府在國防和國家安全的關鍵決策中信任先進的自動化方面已經走了多遠。一個是導彈防御,另一個是網絡防御。兩者的有效性都取決于反應速度,這通常超過了最有經驗的人類操作員的能力。

大多數防御性武器系統,從短程點防御到反彈道導彈系統,都采用先進的自動化操作,使其能夠在沒有人類干預的情況下探測和摧毀來襲導彈。算法實際上是在發號施令。在這種系統中,人類被稱為 "循環",在事先經過嚴格的人類測試后,在有限的設計空間內運作,因此其控制范圍受到限制。雖然錯誤永遠不可能被完全消除,但在大多數情況下,不做出反應或反應遲緩的風險可能超過偶爾發生事故的風險。雖然事故促使人們對這些自主系統的操作進行審查,并可能導致引入一些進一步的人為檢查,但這種干預也帶來了進一步的復雜性。對越來越快的導彈,特別是高超音速導彈的防御將繼續推動人工智能在導彈防御中的應用。

網絡戰是人工智能相對于人類具有明顯優勢的另一個領域,而這往往需要人類保持置身事外。人類操作員缺乏算法快速檢測和應對網絡事件以及不斷調整系統防御的能力。所謂的認知電子戰(EW)系統應用人工智能技術來自動檢測對EW系統的威脅,而不是依賴人類操作員。

2.2 人類和人工的局限性

將決策過程中高度耗時、勞動密集型和需要低層次人類推理的部分自動化,有巨大的好處。軍事評估過程是軍事決策過程的一個關鍵部分,一直是參謀學院教授的標準作戰計劃過程。這種方法的一部分涉及收集和處理信息,為一個或多個行動方案提供信息。由于信息時代的決策需要更大的速度和敏捷性,達成決策的過程將需要加速。人工智能已經證明了它在基于明確定義的規則、輸入和假設快速執行理性過程中的效用。只要人類負責設定假設并定義產生替代方案和概率評估的輸入,人工智能就能增強整個決策過程。

可以理解的是,政府內部和外部都不愿意讓人工智能發揮超出決策支持和適當決策的作用。"指揮和控制"的概念在軍隊的心理和結構中根深蒂固,許多人無法接受一個在某種程度上不涉及人類控制軍事行動或指揮任務的未來。人被要求帶著他們對問題的創造性見解,像現代的亞歷山大一樣解開這個死結。沒有什么比對 "翠鳥時刻 "的信念更能體現這種對直覺型指揮官形象的依戀。這種技能,即指揮官藝術的精髓,只限于那些在最苛刻的情況下能夠憑直覺做出決定的少數人。人工智能提供并非基于人類邏輯或經驗的獨特見解的能力,對這種思維提出了深刻的挑戰,并可能在未來改變指揮官的形象。

許多人將人工智能稱為決策支持而不是決策工具,其推論是人類最終仍然是所有決策的仲裁者。這樣的區別造成了一種令人放心的錯覺,即人工智能只是協助實現一種效果。人類根據一套算法挖掘、篩選和解釋的數據做出的致命行動決定,是否比由智能機器完全執行的決定需要更多的人類機構?對 "行動 "的癡迷--更不用說致命行動--作為更廣泛的 "殺傷鏈 "的最后元素,掩蓋了人工智能在整個行動范圍內的一系列C2活動中日益增長的影響。

許多專家對人類是否有能力控制由人工智能促成或驅動的決策持懷疑態度。這種懷疑往往圍繞著所謂的黑盒問題:高級人工智能,如深度學習,在本質上是無法被人類理解的。這不僅僅是由于它的工作速度,也是由于算法網絡相互作用的方式,以及它們所操作的數據的規模和復雜性。我們不能簡單地詢問系統以了解其思維過程。我們可能知道一個模型的輸入和輸出,但卻無法理解這中間發生的事情。一個相關的、更微妙的論點是,算法對人類的認知攝入施加了 "權力"。人工智能可以決定人類處理哪些信息,而不向他們透露哪些信息被遺漏或拒絕。它還挑戰了這樣一個概念,即如果人類的行動受到數據呈現的內容和方式的制約,他們可以行使 "有意義的 "控制。這與人工智能的好處之一正好相反,即它能夠減少人類的認知負荷,使人類能夠集中精力思考和作出最高價值的活動。

對黑盒挑戰的典型解決方案是開發可解釋的人工智能(XAI)。盡管能夠自我解釋的人工智能可能有助于理解,但它并不必然會導致信任。XAI并不等同于可解釋的AI;解釋不是一個決定,而是一個關于決定的敘事。因此,即使是一個令人信服的解釋也不一定是真的。對于許多潛在的用例,我們還遠遠沒有能力開發出足夠的可解釋(Explainability)的人工智能,更不用說可因果解釋(Interpretability)的了。對更先進的人工智能系統進行嚴格的測試可能會證明它們的部署是足夠的,即使是在沒有人類能力遵循其推理過程的情況下。不過,從根本上說,我們對測試的傳統方法需要重新思考。沒有充分的測試和評估,對不可解釋/可解釋的人工智能的信任將是 "盲目的信任"。對于美國前國防部副部長鮑勃-沃克的問題,我們仍然缺乏一個令人滿意的答案:你如何對學習系統進行測試和評估?

當存在不確定性或缺乏知識時,人類會應用啟發式方法來近似解決復雜問題。啟發式方法是驅動直覺思維的因素;它依賴于經驗法則,通常是通過經驗和實驗來了解。因此,它可能存在偏見和盲點,但它也可以作為一種非常強大和有效的快速認知形式。機器缺乏類似人類的直覺,但它們確實依靠啟發式方法來解決問題。與人類推理的關鍵區別在于,機器不需要記憶或 "個人 "經驗就能進行 "直覺 "或推理。它們利用巨大的數據庫和卓越的概率能力為決策提供信息。強大的模擬與先進的計算能力相結合,提供了一個測試和 "訓練 "算法的機會,其重復程度是人類無法想象的。在宣布任務準備就緒之前,ARTUμ在短短一個多月內經歷了超過一百萬次的訓練模擬。

即使在XAI領域取得了重大進展,仍然會有謹慎的理由,特別是在需要復雜決策的情況下。人工智能通常不善于看到 "全局",也不善于根據相關的內容做出決定。像人類一樣,它也會把相關性或偶然事件誤認為因果關系。人類和機器在處理復雜問題時都會遇到 "正常的意外"。創造力是人類通常具有的特質,但一些先進的人工智能可以產生人類無法企及的驚人結果。簡而言之,許多通常被認為是人類特有的屬性,如創造力和直覺,也可以說適用于人工智能系統--盡管方式不同,速度超過人類能力。

目前機器所缺乏的是人類思維的靈活性和關聯感("框架 "的能力)。人類可以橫向思考,通過實用主義得出合理的結果(這一過程被稱為歸納推理),并反思自己的思維過程(這一能力被稱為元認知)。這些心理過程可以產生驚人的適應和創新的壯舉。

人工智能的出現意味著未來的軍事決策將幾乎肯定需要更強大的人機共生關系,就像在已經接受該技術的商業組織中看到的那樣。目前的討論大多是假設人類繼續控制,或尋求將人類的屬性應用于未來的機器。一些人提倡一種新的 "決策演習"概念,將 "人的指揮和機器的控制"結合起來。但更有可能的是,指揮和控制的責任將越來越多地由人類和人工智能系統分擔,其方式可能是目前難以設想的。人類與人工智能的合作提供了利用各自優勢和減少不足的最佳方式,特別是在戰爭方面(目前戰爭的性質仍然沒有改變)有四個連續性:政治層面;人類層面;不確定性的存在;以及戰爭是一場意志的較量。

3. 信任的維度

信任是動態的;它隨時間而變化。它的最初形成是至關重要的,但它的持續發展也是如此。信任是隨著熟悉程度的提高而自然產生的,因此,假設經驗是積極的,即使是在對技術不完全了解的情況下,技術的使用也會擴大信任的范圍。反過來也是如此,不好的經驗會促進不信任。移動電話技術復雜性對大多數用戶來說是未知的,但人們的積極經驗給了他們使用的信心。這種信心導致了與手機使用所形成的決定相適應的信任感。然而,手機一般不會決定生死大事,盡管它們會將盲目聽從指示的不謹慎的司機置于危險之中。在軍事背景下,賭注更大,用戶和策略制定者非常清楚他們的決定的潛在后果--信任門檻很高。

軍隊作為應急組織,不需要定期交付其主要產出,這影響了可以獲得最直接相關經驗的速度。與金融服務業不同的是,在金融服務業中,交易為人工智能決策提供了頻繁的驗證,而國防部門的時間線往往更長,結果在一個單一的因果鏈中也沒有明確的聯系。做出決定和觀察其影響之間的時間間隔更長,并受制于多種干預變量。雖然模擬演習創造了獲得經驗的機會,但它們只是現實的近似值。

3.1 信任點(Trust Points)

建立和維持信任涉及五個主要的 "Trust Points"--在這些點上,擁有適當水平的信任問題是至關重要的。這些點是:

  • 部署信任:使用人工智能的目的
  • 數據信任:正在使用的數據輸入
  • 過程信任:數據如何被處理
  • 輸出信任:由人工智能產生的輸出
  • 組織系統的信任:優化使用人工智能的整體生態系統

總的來說,這些Trust Points定義了一個整體的信任水平,并且是乘法的:如果對其中一個的信任是 "零",那么整體就是 "零"。只要整體信任是正向的,每個人的信任水平都可以變化--在不同的時間。

部署信任

對在特定情況下使用人工智能的決定的信任是至關重要的。對于人工智能的軍事使用(以及許多民用應用),這在三個層面上運作:社會;組織;和個人。第一個層面考慮的是整個社會是否愿意允許人工智能的使用,這將決定策略制定者如何看待它的使用。組織本身也必須愿意認可這一點。最后,個人必須愿意在這個角色中與人工智能合作。所有這三個層次都需要接受使用人工智能的必要性或其可取性的必然性。可取性可能反映了人工智能在以超過人類操作員的速度或數量(或兩者)處理數據方面的優勢,或在承擔枯燥或危險的工作方面的優勢。而軍方可能會認為,人工智能既實用又要避免將優勢讓給對手,但社會似乎更傾向于將致命的使用視為一個倫理問題,在這個問題上,人類生命的神圣性要求道德行為者決定奪取人的生命。

社會對人工智能使用的接受程度在很大程度上取決于其經驗、有效的溝通和教育,這將有助于為人工智能的使用選擇提供依據。在許多情況下,社會的某些部分可能會比軍方更多地接觸、熟悉和信任人工智能,但致命自主權可能仍然存在問題。雖然沒有致命自主權那么直接的威脅,但在決策中使用人工智能會帶來自己的挑戰,其中最重要的是在一個算法越來越強大、人機協作越來越緊密的世界里,"有意義的人類控制 "究竟意味著什么。

在組織層面,存在關于如何部署作戰和任務支持人工智能的重要問題:是以集中的方式在更高的戰略層面運作,還是以更分散的方式在戰術層面運作。在后一種情況下,人工智能將進一步滲透到組織中,變得更加分散,并用于反應時間可能限制人類干預或驗證人工智能的范圍。組織需要明確決定是否使用人工智能的原則,以及管理其使用的方法(見下文 "過程信任")。關于使用人工智能的決定必須考慮如果系統失敗會發生什么。美國國家航空航天局(NASA)由于擔心系統故障的后果而沒有充分利用其早期火星車的自主能力,對火星車進行微觀管理,并通過大型人類工程師團隊減輕風險。外部組織,如商業技術供應商,的想法也很重要。例如,谷歌的員工迫使該公司在2018年退出一份軍事合同,因為他們擔心軍方對面部識別技術的使用。

個人對人工智能的熟悉程度也將是重要的。目前,從事軍事人工智能工作的人是其使用的倡導者,但隨著接觸人工智能的人群的增加,這種情況將發生變化。與前幾代人相比,接觸技術較多的年輕軍人可能更容易接受人工智能在軍事決策中的應用,但在基礎等級的聯邦結構中,人才幾乎完全來自內部,對其使用的阻力可能來自那些有權力的人;這可能造成機構接受問題。然而,在 "代際特征 "方面,存在著過度簡化的危險。雖然年輕人是在較新的技術中長大的,而且可能更信任它,但技術是可以學習的。代際假設不能成為不使用現代技術的借口。

部署信任是復雜的,因為大多數西方國家的大規模防務活動都是以聯盟行動為前提的,而不是每個盟友或伙伴都對什么是可接受的人工智能的軍事用途有共同的看法。國防部和政府需要更好地傳達他們在使用人工智能方面的方法、用途和保障措施,包括向盟友傳達,而不向對手透露太多信息,因為他們可以制定戰略來抵消(或更糟)人工智能功能的優勢。北約將通過其公共宣傳活動、與成員國在政治層面的聯系以及在不同技術發展階段的軍隊中建立規范,在這方面發揮關鍵作用。

數據信任

這涉及到對人工智能做出判斷的數據的信任程度,這些數據為人類決策提供了依據。雖然測試硬件和軟件相對容易,但測試數據,甚至是準備讓人工智能接受訓練的數據,則更加困難。數據對于人工智能的有效學習至關重要。一些數據將被控制,駐留在現有的國防系統內,或從可靠的外部來源進行驗證,盡管國防部在數據的分類(不一致或不準確)、存儲、訪問和共享方面存在困難,特別是在較高的分類級別。不受控制的數據,如開放源碼數據,是在沒有人類知識或理解的情況下通過聚合產生的,這更具挑戰性。此外,狡猾的對手會試圖注入虛假數據,以破壞決策過程,或用不相關或不準確的數據淹沒決策過程。

武裝部隊需要定義、構建、清理和分析數據的能力,以及開發和維護底層基礎設施(如連接、安全和存儲容量)的能力。這是一個多學科的團隊工作,需要能夠在數據科學生命周期的所有階段工作的 "全棧 "數據科學家。現代戰場將需要更加多樣化的技能,包括心理學家、律師和通信專家。鑒于商業世界對這些技能的需求,吸引和保留這些專家的數量將是困難的。這將需要更靈活的人力資源做法和/或對整個部隊更復雜的理解和使用,包括允許非軍事人員在軍事總部擔任有影響力的職位。

過程信任

過程信任指的是人工智能系統如何運作,包括數據如何處理(匯總、分析和解釋)。目前英國國防部的(狹義的)人工智能決策支持系統吸引了高信任度,因為算法相對簡單且可預測。它們也僅限于參與開發的一小群用戶,或者認識那些開發了人工智能系統的用戶,并且了解該技術。該技術受益于一種源自人們對人類的信任的過渡性信任。雖然不是人工智能,但法國陸軍引進的包裝降落傘的機器導致了降落傘團的信心喪失。堅持要求機器的主管用機器隨機選擇的降落傘打包跳傘,有助于恢復用戶的信心。讓開發人員更接近指揮系統的用戶會有所幫助。法國的采購程序允許某些單位直接與人工智能供應商接觸,以建立對開發商的了解和關系。開發商成為一個關鍵的信任點,如果不是軍隊,他們必須了解和熟悉軍隊的情況。這可能需要加大投資,讓商業伙伴了解軍隊的工作方式,并確保軍事人員了解其文職同事。

要求高水平的可解釋性和透明度并不是一個永久的解決方案,目前限制了英國防部對更強大的、非符號形式的人工智能的訪問。隨著機器學習使技術超越其最初編程的參數,將需要不同的方式來確保對可能看起來是黑盒的信任。隨著這種人工智能系統的使用激增,因了解設計者而產生的過渡性信任將減少,在這個過程中克服最初的信任不足或過度信任將更加困難。應避免過度依賴過程信任,并加強其他信任點,以開發適應能力越來越強的人工智能。

過程信任必須超越技術本身。它需要信任那些為技術提供能量、與技術一起工作并接受技術產出的人類過程。因此,必須同樣重視那些共同構成整體過程的其他活動。這包括培訓和人員的過程,以及如何組建團隊。

輸出信任

對人工智能產出的信任對決策者根據他們收到的信息采取行動至關重要。即使是人類提供的情報,如果原始信息指向不同的方向,指揮官要求新的情報來支持他們的先入之見(一種 "基于決策的證據制作")也不是沒有。而隨著數據的激增,不同的解釋將成為可能,合法的或符合先入為主的解釋。因此,出現了這樣的問題,即人工智能或事實上的人類分析能夠現實地提供什么答案,以及如何驗證輸出。在友軍的部署和對手的物理位置方面,人工智能有可能提供更快的態勢感知。然而,盡管可以從現有的數據中得出更好的推論,但對手的實際意圖是無法可靠地確定的。可預測性通常被視為信任的關鍵因素,但在不穩定的環境中,能夠適應不穩定環境的人工智能輸出會被解釋為不可預測。為了克服這個問題,Bonnie M Muir認為,人類操作員必須具備估計技術可預測性的能力。這種可預測性也會影響整個部署和過程信任點,但在輸出信任方面最為敏感,以反映軍事行動等流動性和不可預測的環境。在這些情況下,數據還必須反映軍事決策者所面臨的大多數情況的離散性和特定對手的獨特文化方式,這加劇了建立大量訓練數據的難度。即使在情況類似于過去的事件時,由于缺乏可比的歷史數據來說明廣泛的變量,使得概率推理變得困難。

用Patricia L McDermott和Ronna N ten Brink的話說,輸出的校準是至關重要的。這可以通過更多地使用企業人工智能和模擬來實現,它擴大了信任的邊界,可以幫助開發輸出信任。如果經驗是積極的,與技術互動并看到它的輸出將產生信任。在作戰環境中,當描述可以知道和檢查的東西時,驗證將是最容易的(例如,關于自己部隊的數據和潛在的對手部隊的布局)。要接近了解對手的意圖是比較困難的,因此需要更高水平的輸出信任。這將包括提高描述的準確性和對從大數據處理中得出的推論進行更多的測試。分享演習和行動的正面敘事,對于實現過渡性信任和緩解從相對不頻繁的行動中積累成功證據的緩慢速度至關重要。

組織系統的信任

生態系統的信任涉及調整更廣泛的組織系統以最大化人工智能的價值所需的信任。C2系統作為一個整體必須被配置為利用人工智能輔助決策的好處,并有適當的檢查和平衡,以在可接受的風險水平內運作。當人工智能的弱點或失敗是在主管的專業知識之外的領域,需要在組織的不同部分進行校準時,這一點尤其重要。如果不在生態系統和組織層面上進行變革,組織將只是將其人類系統數字化。

需要生態系統的信任,以確保結構--包括軍事總部的組織、指揮官的角色以及集中式與更分散或分布式的決策權的平衡--準備好利用人工智能的機會。如果沒有準備好,采用人工智能的漸進式方法往往會鼓勵對結構和整體生態系統的變化采取被動或消極的方法。相比之下,實現人工智能變革力量的專門戰略將迫使人們盡早重新思考支持這種戰略所需的組織。這需要重新思考傳統的軍事結構,但對于走多遠并沒有共識。一些人設想總部變得更扁平,并將非軍事人員納入高級職位,在決策過程中擁有權力。對另一些人來說,生態系統的變化更為深刻;它要求完全取消目前被視為工業時代遺留的工作人員組織系統。這樣做,他們打算消除扼殺理解的信息邊界,并挑戰決策金字塔尖上的獨當一面指揮官的想法。這種轉變需要整個組織生態系統的信任。對于像軍隊這樣的保守組織來說,這將是困難的,在指揮部的激進替代方案被接受之前,需要得到保證。實驗、戰爭游戲和模擬環境提供了低風險的選擇,以測試為特定類型的任務(例如,戰爭、和平行動和能力建設)配置的不同總部結構。

3.2 多少信任是足夠的?

信任是根本,但為技術設定一個不可能高的標準也有風險。幾千年來,指揮官和決策者們一直信任易變的人類。當人工智能開始觀察到輸入數據分布的變化時,技術可以通過自我監測的方式提供幫助,提醒人類 "操作員",或以以前未曾見過的方式進行操作,這樣錯誤輸出的風險會更大。風險容忍度,無論是關于人類還是機器演員,最終都是信任的表達。國防組織需要對自己是否是快速采用者或快速或緩慢的追隨者持誠實態度:商業世界的人工智能發展速度使大多數武裝部隊極不可能成為人工智能決策的 "第一用戶"。漸進派和未來派都是人工智能的支持者,他們之間的差異主要是風險問題,以及針對不同信任點的可實現的信任水平。

通過熟悉產生信任是至關重要的,這可能涉及到將軍事人員嵌入到使用復雜人工智能的商業組織中,或將平民帶入國防。這種變化需要在足夠高的級別上進行,以促進生態系統的信任。模擬、實驗和演習是重要的工具,而且必須足夠廣泛,以便不局限于一小群狂熱者。英國電信公司用人工智能決策支持工具取代英國的電話網絡的項目,當服務時間最長、知識最豐富的工程師與人工智能和數據專家合作時,效果最好,他們可能會對人工智能產生懷疑。將企業人工智能引入改革業務流程,如財務和人力資源,是將熟悉程度擴大到目前直接參與人工智能開發和使用的少數干部之外的另一種方式。

一旦熟悉的東西,信任是人類的天性,但信任的習慣會帶來自身的風險。眾所周知,人類不善于設定正確的目標,當遇到 "專家意見"(無論是人為的還是其他的)時,他們更容易同意而不是懷疑。必須避免 "信任和忘記 "的動態。一個考慮因素是為人工智能系統制定一個 "持續可信性 "的概念,類似于航空平臺的持續適航性,以確保它們仍然適合使用。因此,建立對人工智能的信任(并避免過度信任)的努力必須解決所有的信任點,并包括整個人類-機器團隊,其中人類操作員是其數字對應方的有效合作者和建設性批評者。

4. 對指揮部和指揮員的影響

人工智能對決策的知情、制定和實施方式的影響將是深遠的。通過以超越目前人類進程的速度處理大量的數據,人工智能可以提高對作戰環境的理解,并減少決策者的認知負擔。這不僅僅是今天工作方式的演變。僅僅加快當前C2系統的速度是不切實際的。一輛設計為以70英里/小時速度行駛的汽車是為以該速度運行而配置的。將發動機調整到每小時100英里的速度也許是可能的,但會給車輛系統和駕駛員帶來無法承受的壓力。由人工智能驅動的決策所代表的不連續性需要一種新的方法。正如多國能力發展運動(MCDC)所述。

無論我們未來的C2模型、系統和行為是什么樣子,它們都不能是線性的、確定的和靜態的。它們必須是靈活的、自主的、自適應的和自我調節的,并且至少與它們形成和運行的環境一樣具有偶然性和突發性。

軍隊必須為明天的C2進行重組,并以不同的方式培養他們的指揮官和工作人員。如果沒有這些變化,"生態系統信任"可能被證明是不可能實現的。

4.1 指揮和控制

C2包含兩個不同的元素:指揮,通常與創造力、靈活性和領導力相關;以及控制,與規則、可預測性和標準化相關。人工智能將首先影響控制功能,目前,指揮仍主要是人類的活動。人工智能的數據處理能力將消除控制的大量負擔,例如,為指揮官提供對其部隊的更好理解(如部署、狀態、設備和供應水平),目前這需要消耗大量的注意力和時間。它還將改變向指揮官提供信息的方式。目前,這些數據大部分是在 "拉取"的基礎上提供的--根據總部的報告程序要求或零星地收集。然而,人工智能可以持續監測局勢,并通過強調相關變化的活文件將信息推送給指揮官--類似于24小時的新聞編輯部。然而,通過進一步進入控制領域,人工智能將不可避免地影響指揮權的行使,并形成指揮決策;這對上述指揮和控制之間過于整齊的區分提出了挑戰。在未來的C2系統中,可以想象人工智能可以限制指揮權的行使,就像防抱死制動系統、牽引力控制和電子穩定性允許人類駕駛員指揮車輛,直到失去控制,此時系統會接管,直到情況穩定下來。

人工智能給人類指揮帶來了一個悖論。它同時使更多的知識被集中掌握,使總部能夠看到并與 "前線 "發生的事情互動,并將知識擴散到整個指揮系統,使較低級別的編隊能夠獲得以前只有高級指揮官才有的信息。將更多的權力下放給地方指揮官可以提高反應能力,這在事件發展不可預測、需要快速反應的情況下非常重要。西方武裝部隊傾向于采用(或多或少)任務指揮的概念,即指揮官的意圖描述了預期的效果,并允許下級指揮官根據他們面臨的情況自由執行。軍隊的學習和發展系統以及演習嵌入了這種方法--指揮官將需要相信人工智能能夠在其操作中實施這一意圖。鑒于數據和獎勵功能的戰略復雜性和模糊性,人工智能在戰術和作戰層面的使用可能比在戰略層面的指揮更有效,盡管這些層面并不離散,在現實中也不容易被分割開來。人工智能和更大的網絡連接將提供一個結構、流程和技術網絡,連接多個小型、分散的前方總部和分布式(和加固的)后方功能,即使在更透明的戰斗空間,也更難發現和反擊。如果敵人以C2系統為目標,這將增強復原力。

在每個層面上處理更大數據量的能力必須被仔細引導。人們應該能夠獲得與他們的地位和相對能力有關的信息,以影響他們在環境中發展。W-羅斯-阿什比將此描述為 "必要的多樣性 "問題:一個可行的(生態)系統是一個能夠處理其環境變化的系統。行為者應該在適合其任務的抽象水平上運作。一個旅部不能處理也不需要關于單個士兵的詳細信息;它需要對其下屬單位的身體和道德狀況有一個良好的總體了解。在更多的戰術層面上,NCO指揮官應該對他們團隊中的個人狀態保持警惕。戰略和作戰指揮官可能需要放松控制,讓戰術指揮官在更接近戰斗的地方利用新出現的機會。雖然任務指揮已經允許這樣做,但隨著高級別的指揮官獲得關于戰術層面發生的信息的空前機會,"控制"的誘惑會更大。

人工智能也需要使用抽象、近似和校準的杠桿,以避免將總部淹沒在數據洪流中。這需要在使用這些抽象和近似時的 "過程信任"。總部也可能需要使用不同的人工智能系統,其能力更適合或不適合不同時間范圍內的不同場景。決策也可能包括確定在特定情況下信任哪種人工智能模型(部署和過程信任)的因素。

人機聯合系統的自動化將提高人類的表現,在某些情況下,改變任務本身的性質。無論在什么層面上部署,人工智能不僅會影響人類執行任務的方式,也會影響人類執行的任務。目前的方法通常從研究哪些人類過程可以自動化開始,即人類工作的數字化。有可能從使用人工智能的假設開始,只有在人類是必要(出于法律、政策或道德原因)或可取(更適合這項任務)時才將人類放入系統中--決定什么不應該,而不是什么可以被數字化。這種方法挑戰了目前關于總部的規模、組織、人員配置和運作的概念。

4.2 對未來總體結構的影響

聯合概念說明(JCN)2/17指出,C2有可能在不同的戰爭層次(戰略、作戰和戰術)上發生變化,并對作戰環境的變化特征做出反應,因為作戰環境不再僅僅是物理環境。戰爭與和平的模糊性--強調了在 "行動 "和 "作戰 "之間的連續過程中有效的必要性--以及英國向能夠持續參與的部隊結構的轉變,將需要超越戰斗所需的方法。然而,可能沒有單一的總部原型;因此,為戰斗而配置的總部將與處理上游參與和能力建設的總部不同。雖然現在確定人工智能對軍事總部的影響還為時過早,但商業組織已經發現,與傳統的垂直層次結構相比,具有更多橫向信息共享的扁平結構更適合利用人工智能的優勢,因為在垂直層次結構中,每一層都要保證和授權數據才會被發布。因此,軍事總部--無論其具體形式如何--很可能會比現在更小、更扁平,能夠更快地沿著水平線工作。

探索替代的總部概念可以通過更多地使用實驗和模擬來實現。這應該對經典的J1-9參謀部提出挑戰,或許可以用新的分組來反映人工智能取代人類密集型數據處理和共享任務的能力。在J3/5區域尤其如此,這是計劃和行動之間的界限;由更快的決策帶來的更快節奏的沖突使這種界限變得過時。組織總部的替代方法可能包括那些注重結果的方法。JCN 2/17中描述的英國常設聯合部隊總部(SJFHQ)的結構是圍繞著四個職能來組織的:理解;設計;操作;和啟用。SJFHQ后來又恢復了傳統的J1-9人員分支。然而,"聯合保護者2021 "演習是一項復雜的亞門檻行動,其中使用了人工智能決策支持工具,揭示了J1-9架構的弱點。總部開始演習時是為高強度戰爭而配置的,但隨后調整為更適合與其他機構合作的配置。SJFHQ內部正在開展工作,應用2021年聯合保護者的經驗教訓,并確定這對總部結構意味著什么。然而,不太可能有一個完美的總部模式適用于所有行動類型。需要進一步的實驗,不限于SJFHQ。很能說明問題的是,自JCN 2/17發布以來的四年多時間里,在實施其中的一些建議方面幾乎沒有取得進展。即使英國國防部采用技術的速度相對緩慢,但這也超過了國防部探索改變結構的能力,超越了小規模的愛好者群體。"生態系統信任"是至關重要的,需要有機會在模擬或真實的環境中對各種任務類型的替代方法進行測試,并讓更多的人參與進來,這對有效采用新技術、結構和過程至關重要。

現有的程序需要改變以連接和優化新的結構。這可能需要改變構成武裝部隊規劃過程基礎的軍事評估。雖然它是一個復雜的、符合邏輯的規劃工具,但它是相當線性的、確定性的,并且嚴重依賴于指揮官,特別是在 "指揮官領導 "的英國方法中。在其他國家,參謀部在推動解決方案方面發揮了更大的作用,這可能更適合于人工智能的方法。人工智能為更多的迭代和協作過程提供了機會,它能更好地響應軍事和民防資源中心的要求,轉向更敏捷的模式。新的方法應該給指揮官帶來更少的壓力,要求提供信息(指揮官的關鍵信息要求)。人工智能還可以構建、分析和比較作戰行動方案,允許在做出大規模投入部隊的選擇之前對情景進行建模、測試和完善。

英國常設聯合總部(PJHQ)的情報評估過程自動化的思想實驗發現了取代大量工作人員的機會,加快了總部的戰斗節奏,并允許使用自動總結和自然語言處理來橫向共享信息。在一次作戰部署中測試了這一點,英國第20裝甲步兵旅戰斗隊將部分計劃過程縮短了10倍。然而,當人類仍在環路中時,決策環路的速度可能是有限的。在某些時候,人類決策者將無法跟上,成為決策監控者。如果仍然需要人類來做人工智能自己不能做的決定,這將是一個問題,而這可能是最困難的決定。

盡管有明顯的優勢,但總部不太可能在技術允許的范圍內減少。目前的總部通過規模和保證程序的冗余來補償人類的脆弱性,這對于減輕人工智能團隊成員的脆弱性可能仍然是正確的。此外,隨著戰斗節奏演變成連續的24小時規劃周期,節奏的加快可能會推動某些領域的需求上升。這些壓力可能并不局限于總部本身;它可能會推動前線單位的活動增加,他們必須處理數據并對所發出的指令作出反應。人類行為者仍然需要時間來休息,即使技術不需要。此外,與商業組織不同,軍隊需要冗余,以應對競爭對手蓄意破壞或擾亂他們的決策機構,并需要確保固定基礎設施的安全,以建立他們的網絡。簡而言之,對彈性和流動性的需求影響了軍事C2系統的穩健性和效率。因此,軍隊將需要保留不完全依賴人工智能進行有效操作的結構,并確保在人工智能失敗或故意削弱對人工智能信任的情況下,有恢復性程序可用。

4.3 培養指揮官

傳統上,指揮官是垂直決策結構的頂點,是所有信息的匯集點。雖然不是所有的軍事文化都強調個人的天才,正如 "翠鳥時刻"的概念所體現的那樣,但指揮官獲得信息的特權被總部的低層人員所拒絕。人工智能使信息民主化的潛力將改變這種情況;指揮可能會成為一種更加合議和反復的活動,不僅涉及那些穿制服的人,而且包括情報機構和具有數據科學多方面專業知識的承包商在內的更加折衷的組合--一種 "全部隊"的貢獻。面對一個復雜和適應性強的戰斗空間,另一種鳥也許為未來的指揮提供了一個更好的比喻:椋鳥。它們集體的、高度適應性的雜音為英國的發展、概念和理論中心的C2概念提供了一個更好的形象,即 "為設計和執行聯合行動而配置的動態和適應性的社會技術系統"。

指揮官必須繼續能夠處理動態環境;"沒有計劃能在與敵人的接觸中幸存下來 "這句話仍然是正確的。鑒于技術能夠提高速度(減少反應時間)和復雜性(通過更透明的戰斗空間),處理復雜、快速演變的問題將尤為重要。軍事組織正在試驗人工智能將如何改變C2,包括北約卓越指揮與控制中心、美國JADC2和英國軍隊的數字準備實驗。早期的跡象表明,指揮官將不得不更多地關注問題的框架,并確保在更小、更扁平的結構中的更多不同團隊之間的理解和目標的統一。這表明需要一個不同類型的指揮官和不同類型的工作人員;他們能夠整合由不同學科的成員組成的不同團隊的工作,而且往往是來自軍隊以外的成員。

確保指揮官能夠正確地設定問題的框架是至關重要的。人工智能非常善于在框架內操作,但目前至少在 "閱讀字里行間 "或從定義不明確的數據集中推斷方面很差--這種脆弱性仍然依賴于有人類來設定框架。在確定了問題的框架后,指揮官必須能夠判斷產出在該框架內是否合理。這需要能夠看到大局的人,武裝部隊需要通過在總部的參謀經驗來培養未來的指揮官,使他們熟悉環境和流程,從而能夠在越來越高的級別上進行指揮。模擬可以促進對總部的接觸,同樣可以確保較小的總部仍然保留人們獲得經驗的作用,通過這些經驗可以獲得必要的指揮技能。

雖然指揮官需要知道如何與技術互動,但他們必須繼續關注人工智能所要服務的作戰要求,并對其持適當的懷疑態度,以便他們成為這一過程中的知情者,而不是算法輸出的被動接受者。指揮官需要類似于工業界的 "π型領導人",在軍事專業的同時具有數字和數據意識。他們不需要成為技術專家,但應該有足夠的知識來了解其局限性,能夠與團隊中的專家合作,并有足夠的滿意度來允許對數據、流程和產出的信任。

集體而言,總部團隊需要這些技能,各個團隊成員能夠相互交流和理解。這超出了情報分析員的范圍,包括來自武裝部隊內部和外部的廣泛的行動、技術和數據專家。它還包括對風險更復雜的理解和溝通能力。戰爭從根本上說是一個風險管理的問題,這需要以經驗的方式來理解和溝通風險。因此,了解概率和信心水平是一項關鍵的指揮技能,但諸如沖突中的一次性決定也需要長期的判斷。

軍事教育需要通過在職業生涯中更早地引入數據和技術意識來應對。此外,軍隊對不同能力的評價方式也需要改變。據傳聞,英國陸軍的職業管理流程往往將那些在計算能力上取得好成績的人引向采購等領域,而不是作戰,被選入參謀學院的專業人員往往在計算能力上處于較低的四分之一。這不僅僅是軍隊面臨的挑戰:有望成功競爭的國家需要國家教育系統認識到數據和技術素養技能的價值,并從小培養他們。作者并不主張將教育變成就業前培訓;雖然需要STEM技能(數量比現在多),但人文和社會科學仍然很重要,培養出的畢業生適應性強,能夠解決復雜的問題,并以影響力進行溝通。國家的成功取決于學術和其他形式的多樣性,培養人們在數字世界中茁壯成長,不僅需要技術能力,還需要(人文)特質,如創造力和情商。指揮官和工作人員在未來將需要這兩套技能,也許比今天更需要。

除了分析之外,直覺是信息處理中的一個補充部分。在指揮官需要行使的雙軌制決策方法中,它是人類認知的一個重要部分。有效的決策結合了直覺和分析的優勢。當數據和直覺一致時,決策者可以放心地采取行動。如果它們不一致,則需要在行動前進一步探索。1983年,俄羅斯中校Stanislav Petrov避免了潛在的核戰爭。他的導彈探測系統報告說美國發射了五枚洲際彈道導彈,但他沒有立即報告,而是決定等待,因為這個信息感覺不對。他的(下意識的)雙模式決策使他做出了正確的決定。人工智能更強的數據處理和分析能力可以增強決策過程中的分析要素,但它需要指揮官認識到直覺的價值和局限性。專業軍事教育需要反映出對數據和直覺這兩個組成部分的平衡方法。

4.4 管理整個部隊

未來的指揮官所指揮的團隊必然比今天更加多樣化,領導跨學科團隊為復雜問題帶來新的見解。人類有效構思和發展直覺的能力通過接觸不同的看世界的方式得到加強。這不僅僅是改善受保護特征方面的多樣性,盡管這很重要,還包括確保整個部隊團隊中教育、經驗和觀點的廣泛性。整個部隊的不同元素是這種多樣性的一部分。

越來越多的跨軍事領域的綜合活動要求整個部隊的各軍事部門有效合作。對于正規軍事人員,在 "聯合"方面已經取得了進展,但還需要做更多的工作。在軍事生涯的早期引入聯合訓練是實現這一目標的一種方式;這可能需要重新思考軍事人員何時接受專業軍事教育,目前在英國是在30歲左右。相比之下,澳大利亞國防軍為參加澳大利亞國防軍學院的人員提供了基本的聯合軍事課程,海軍、陸軍和空軍專家也接受了單一軍種培訓。這為未來的指揮官在軍事生涯早期的成長提供了一個跨學科的 "聯合 "模式。正規軍的進展需要擴展到后備軍的整合,因為未來可能會有更多的技術專家駐扎在這里。

事實證明,整合整個部隊的非軍事因素更為困難。Serco研究所的一份報告指出,"盡管在過去十年中,整個部隊的運作取得了進展,但在實現軍事和工業之間的無縫合作方面的努力卻停滯不前。雖然武裝部隊在將非軍事人員帶入其總部方面做得更好,但在場和被納入之間有很大區別。如2021年聯合保護者等演習,經常邀請國際合作伙伴和民間主題專家來幫助規劃過程,但他們往往在軍事規劃人員完成工作后才被邀請對計劃發表意見。許多總部的規劃周期缺乏靈活性,這意味著當規劃被提出來供審查時,可能已經來不及進行修改了。

這不僅僅是對軍隊的觀察;文職專家往往不熟悉軍事進程,等待被邀請做出貢獻,這削弱了他們的影響力。軍事人員沒有本能地理解他們的非軍事同事所能做出的全部貢獻,因此沒有將他們納入其中。人工智能將迫使人們從一開始就需要在規劃過程中建立整個部隊的多樣性,從而使計劃成為真正的合作。

有了人工智能的能力,技術將越來越多地成為整個部隊的一個成員。國際象棋大師加里-卡斯帕羅夫(Gary Kasparov)曾指出,好的技術和好的人類棋手的結合,往往比卓越的技術或更好的人類棋手單獨工作更成功。在某些情況下,人和機器可能在共享任務中緊密結合,以至于他們變得相互依賴,在這種情況下,任務交接的想法就變得不協調了。這在支持網絡感知的工作設計中已經很明顯了,在這種情況下,人類分析員與軟件智能體相結合,以近乎實時的方式理解、預測和回應正在發生的事件。

從這些人機一體的團隊中獲得最大利益,不僅僅是有效的任務分配。它涉及到找到支持和提高每個成員(人或機器)績效的方法,從而使集體產出大于單個部分的總和。正確的行為和創造包容性文化的能力對于從這樣的團隊中獲得最大收益至關重要。指揮官不應專注于試圖管理 "突發事件"--一個試圖描述簡單的事情如何在互動中導致復雜和不可預測的結果概念--或團隊成員的活動,而是需要在塑造團隊和培養團隊內部的關系方面投入更多。

雖然人工智能目前作為一種工具,但隨著技術的發展,它應該被視為團隊的真正成員,擁有影響人類隊友的權利和對他們的責任。然而,無論其最終地位如何,人工智能都可能改變團隊的動態和對人類團隊成員的期望。將人工智能引入一個團隊會改變團隊的動態,而它與人類團隊成員的不同會使團隊的形成更加困難。通過布魯斯-塔克曼(Bruce W Tuckman)的經典階段,即形成、沖刺、規范和執行,需要妥協和適應。人工智能目前不太能做到這一點,需要人類參與者有更大的靈活性,這使得建立人機團隊更加困難,也更難恢復已經失去的信任。

高級人工智能,如果可以說有動機或偏見的話,很可能是以邏輯和任務為導向的(用實力部署清單術語來說,就是綠色和紅色)。一個平衡的團隊將越來越需要能夠維持團隊關系的人類,無論是內部還是跨團隊。因此,人機團隊將是不同的,盡管他們可能與包括神經多樣性同事在內的純人類團隊有一些相似之處,因為對他們來說,感同身受或理解情感線索是困難的。與神經多樣性團隊一樣,人機團隊將受益于團隊成員的多樣性給整體帶來的價值,但也需要進行調整,以最大限度地提高團隊績效的機會。人工智能作為團隊成員的概念究竟會如何發展,目前還不清楚,但有人呼吁組織在更平等的基礎上考慮先進技術的需求。加強企業人工智能在業務支持活動中的使用,將為探索人機團隊如何最有效地合作提供機會,并有可能實現預期運行成本的降低,使人類在價值鏈上從事更有意義的工作。

4.5 職業管理

需要的新的領導風格、新的技能和對技術、數據和風險的進一步理解也需要新的職業管理方法。軍隊的職業管理系統(過于)頻繁地調動人員,但要形成具有必要信任度的有效團隊需要時間。軍隊可能會放慢關鍵人員的流動,甚至可能放慢團隊的流動,從而使總部高級團隊作為一個集體實體而不是個人來管理。然而,目前的人力資源實踐使軍隊或工業界不太可能愿意無限期地保留人們的職位以期待未來的需求。用拉斐爾-帕斯卡爾和西蒙-鮑耶的話說,這就產生了 "混合團隊",即那些成員不固定的團隊,對他們來說,迅速建立團隊信任的能力至關重要。即使是常設總部也會受此影響,特別是當他們成為 "整體部隊 "時。對于'臨時團隊',例如為特定任務而設立的臨時總部,這個問題就更加突出。需要有機制來加速信任的發展,經驗表明,這可以通過早期的行為實踐來實現,包括展示 "技術能力、信息公開、支持互惠和決策中被認為的誠信"。

放慢總部高級職位人員的流動速度將有所幫助,但這還不夠。在無法保證預先建立的團隊在需要時隨時準備好執行任務的情況下,需要有一種方法來減少組建新的部隊團隊的時間。模擬提供了一種方法,通過壓縮任務演練的時間來準備新組建的團隊,并為整個部隊的不同組成部分提供共同工作的經驗。軍隊在這方面做得很好;軍隊的社會化進程創造了強大的紐帶,包括派人到合作伙伴那里進行培訓、演習和任務。對于整個部隊的其他部分來說,這種對跨文化理解的投資是缺乏的。建立對對方的了解,從而建立信任,對文職部門來說同樣重要。軍隊可以做得更多,為其工作人員提供與商業部門合作的經驗,包括與技術專家、數據專家和編碼人員合作,而文職人員也需要更好地了解軍隊、其語言、流程和價值觀。武裝部隊可以通過提供交流任命和模塊化和/或縮短其課程來協助這一進程,使文職人員有可能參加。冠狀病毒大流行引入了新的工作方式,并加速了軍事訓練和教育的變化,這可以為信任提供基礎,在此基礎上可以出現新的團隊和總部類型。

簡而言之,人工智能輔助決策不僅僅是一個技術問題;它需要改變指揮結構、流程和人員技能,才能發揮其潛力,成為武裝部隊在所有任務中運作的一場革命。然而,至關重要的是,在適應不斷變化的戰爭特征時,武裝部隊不能忽視戰爭的持久性:指揮官必須保持領導者和戰士的身份,能夠激勵普通人在最困難的情況下做出非凡的事情,而不僅僅是善于管理戰斗的人。在軍事方面,人工智能是一種工具,可以最大限度地提高武裝部隊在激烈競爭環境中的獲勝機會。

5 結論

人工智能正迅速成為我們國家安全結構的一個核心部分。軍方和情報機構正在嘗試用算法來理解大量的數據,縮短處理時間,并加速和改善他們的決策。對人工智能越來越多的使用和熟悉可以促進對它的信任,但正如專家們的辯論所表明的那樣,要建立和維持對像人工智能這樣的變革性技術的信任,存在著嚴重挑戰。

本文重點討論了人工智能的作戰和任務支持應用,并探討了不斷發展的人與人工智能關系對未來軍事決策和指揮的重要性和影響。當軍事指揮官的角色從控制者轉變為團隊伙伴時,當我們不能再將輔助功能只賦予人工智能體時,那么我們就需要從根本上重新思考人類的角色和我們的機構結構。簡而言之,我們需要重新評估人機決策中信任的條件和意義。沒有這種信任,人工智能的有效采用將繼續比技術的發展更慢,而且重要的是,落后于我們一些對手采用人工智能的速度。

一個稍加修改的信任概念--一個不需要將意向性或道德性歸于人工智能體的概念--可以而且確實適用于AI。只要我們委托機器做可能對人類產生嚴重甚至致命后果的事情,我們就會讓自己變得脆弱。只要存在人工智能的表現達不到我們預期的風險,對它的任何使用基本上都是一種信任的行為。

除了最罕見的情況,對人工智能的信任永遠不會是完全的;在某些情況下,用戶可能有意識地同意較低的信任水平。這種信任需要考慮五個不同的元素,作者稱之為 "信任點"。我們不應該依賴任何一個單一的點來產生整體的信任。事實上,往往得到最多關注的領域--關于數據質量或人工智能輸出的可解釋性問題--從長遠來看,必然會提供不令人滿意的答案,并有可能對技術產生錯位的放心感。

最常被忽視的是在組織生態系統層面上對信任的需求。這需要重新思考武裝部隊的組織及其C2結構。如果說機器的作用越來越大曾經是官僚軍隊結構興起的關鍵驅動力,以集中管理手段,那么人工智能正在以根本的方式挑戰常備軍的這一特點。如果人工智能的使用不僅僅是模擬工作方式的數字化,國防部必須改變其在 "行動(operate)"和 "作戰(warfight)"方面的決策結構。它還需要與整體部隊的各個方面進行更密切的接觸和參與,包括其未被充分利用的后備部隊以及工業和更廣泛的政府。

領導力作為軍事職業的一個持久要素也需要重新考慮。人們傾向于將領導力視為軍事指揮的一種抽象或不可改變的品質。在人工智能時代,指揮任務或領導團隊既需要新的技能(如 "表達數字(speak digital)"的能力),也需要更多樣化的特質(例如,在數據和直覺發生沖突時,橫向思考的能力,構建問題的框架,并應用批判性的判斷)。與以往相比,人工智能更需要那些能夠理解復雜性、構建問題并根據情況提出正確問題的指揮官。這些 "故意的業余愛好者 "摒棄了早期狹隘的專業化,選擇了范圍和實驗思維;他們可以建立專家團隊,吸取專家的意見,使集體人才既廣泛又深入。這些全軍團隊將包括人類和機器,所有這些人都將根據他們在塑造和決策方面的專長作出貢獻。

在尋求回答信任如何影響軍事決策中不斷發展的人與人工智能關系時,本文提出了幾個需要進一步研究的關鍵問題:

  • 我們如何建立必要的信任,在戰術、作戰和戰略層面上重新配置指揮部的組織,其規模、結構、位置和組成
  • 我們如何調整軍事教育,使指揮官為人工智能時代做更好的準備
  • 我們如何優化和改造所有領域的集體訓練,以改善涉及與人工智能體更多協作的指揮
  • 我們如何運作 "全軍 "的概念,以更好地利用我們社會、工業和研究機構中的大量人才
  • 我們如何定義人工智能和人類在人機團隊中的需求和目標

如果我們不從根本上改變如何獲取、培訓和培養領導崗位的人員,以及如何改革他們所處的機構和團隊,我們就有可能在人機關系的信任平衡上出錯,并將無法利用人工智能的全部變革潛力。

作者

克里斯蒂娜-巴利斯是QinetiQ公司的培訓和任務演練的全球活動總監。她在大西洋兩岸有20年的經驗,包括咨詢、工業和公共政策環境,特別關注國防、全球安全和跨大西洋關系。她曾是華盛頓特區戰略與國際研究中心歐洲項目的研究員,Serco公司負責戰略和企業發展的副總裁,以及巴黎Avascent公司的負責人和歐洲業務主管。她擁有華盛頓特區約翰霍普金斯大學高級國際研究學院和意大利博洛尼亞大學的國際關系碩士和博士學位,以及英國和德國的商業學位。

保羅-奧尼爾是RUSI的軍事科學部主任。他在戰略和人力資源方面有超過30年的經驗,他的研究興趣包括國家安全戰略和國防與安全的組織方面,特別是組織設計、人力資源、專業軍事教育和決策。他是CBE,英國特許人事與發展協會的會員,溫徹斯特大學的客座教授,英國后備部隊外部審查小組的成員。

付費5元查看完整內容

前言

我們的同行競爭者,利用科學、技術和信息環境的新興趨勢,已經投資于挑戰美國和重塑全球秩序的戰略和能力。他們采用創新的方法來挑戰美國和盟國在所有領域、電磁波譜和信息環境中的利益。他們經常尋求通過在武裝沖突門檻以下采取模糊的行動來實現其目標。在武裝沖突中,武器技術、傳感器、通信和信息處理方面的進步使這些對手能夠形成對峙能力,以在時間、空間和功能上將聯合部隊分開。為了應對這些挑戰,履行美國陸軍在保護國家和確保其重要利益方面的陸軍職責,陸軍正在調整其組織、訓練、教育、人員和裝備的方式,以應對這些圍繞多域作戰(MDO)概念的未來威脅。

陸軍的情報工作本質上是多領域的,因為它從多個領域收集情報,而且可以接觸到合作伙伴,彌補陸軍信息收集能力的不足。在競爭中,陸軍情報能力作為掌握作戰環境和了解威脅能力和脆弱性的一個關鍵因素。在整個競爭過程中,陸軍情報部門為每個梯隊的指揮官和參謀人員提供所需的態勢感知,以便在所有領域、電磁頻譜和信息環境中可視化和指揮戰斗,并在決策空間匯集內外部能力。

這個概念描述了關鍵的挑戰、解決方案和所需的支持能力,以使陸軍情報部門能夠在整個競爭過程中支持MDO,以完成戰役目標并保護美國國家利益。它是陸軍情報部隊、組織和能力現代化活動的基礎。這個概念還確定了對其他支持和輔助功能的影響。它將為其他概念的發展、實驗、能力發展活動和其他未來的部隊現代化努力提供信息,以實現MDO AimPoint部隊。

本文總結

陸軍未來司令部的情報概念為陸軍情報部隊的現代化活動提供了一個規劃,以支持陸軍2035年的MDO AimPoint部隊在整個競爭過程中與同行競爭對手進行多域作戰。它提供了支持2035年以后MDO AimPoint部隊的見解。這個概念是對2017年美國陸軍情報功能概念中概述想法的修改:情報作為一個單位在所有領域的運作,有廣泛的合作伙伴投入。這個概念擴展了這些想法,以解決陸軍在進行大規模作戰行動中的頭號差距:支持遠距離精確射擊的深度傳感。領導陸軍情報現代化的舉措是組織上的變化,以提供旅級戰斗隊以上梯隊的能力,以及支持深層探測問題的四個物資解決方案。

支持MDO AimPoint Force 2035的組織變化使戰區陸軍、軍團和師級指揮官能夠以遠程精確火力和其他效果塑造深度機動和火力區域。在戰區層面,軍事情報旅的能力得到提高,新的多域特遣部隊擁有軍事情報能力。遠征軍的軍事情報旅被重新利用和組織,以支持軍團和師的指揮官,而不是最大限度地向下支持旅級戰斗隊。

支持MDO AimPoint Force 2035的物資變化,即將所有的傳感器、所有的火力、所有的指揮和控制節點與適當的局面融合在一起,對威脅進行近乎實時的瞄準定位。多域傳感系統提供了一個未來的空中情報、監視和偵察系統系列,從非常低的高度到低地球軌道,它支持戰術和作戰層面的目標定位,促進遠距離地對地射擊。地面層系統整合了選定的信號情報、電子戰和網絡空間能力,使指揮官能夠在網絡空間和電磁頻譜中競爭并獲勝。戰術情報定位接入節點利用空間、高空、空中和地面傳感器,直接向火力系統提供目標,并為支持指揮和控制的目標定位和形勢理解提供多學科情報支持。最后,通過分布式共同地面系統,陸軍提高了情報周期的速度、精度和準確性。

伴隨著這些舉措的是士兵培訓和人才管理方法,旨在最大限度地提高對目標定位和決策的情報支持。從2028年MDO AimPoint部隊開始,陸軍情報部門將繼續改進軍事情報隊伍,以支持2035年及以后的MDO AimPoint部隊。

這一概念確定了陸軍情報部門將如何轉型,以支持陸軍和聯合部隊在整個競爭過程中與同行競爭者抗衡。

圖1 邏輯圖

付費5元查看完整內容

引言

本文件是北約 IST-151 研究任務組 (RTG) 活動的最終報告,題為“軍事系統的網絡安全”。該 RTG 專注于研究軍事系統和平臺的網絡安全風險評估方法。 RTG 的目標如下:

? 協作評估軍事系統的網絡安全,并在 RTG 的北約成員國之間共享訪問權限;

? 在 RTG 的北約成員國之間共享風險評估方法和結果;

? 將 RTG 的北約成員國使用的評估方法整合到一個連貫的網絡安全風險評估方法中,以使北約國家受益。

軍事平臺比以往任何時候都更加計算機化、網絡化和受處理器驅動。他們大量使用數據總線,如 MIL-STD-1553A/B、CAN/MilCAN、RS-422/RS-485、AFDX 甚至普通以太網,以及戰術通信的舊標準,如 MIL-STD-188C 和 Link 16。此外,捕獲器、傳感器、執行器和許多嵌入式系統是擴展攻擊面的額外無人保護的潛在輸入。結果是增加了網絡攻擊的風險。然而,這些平臺的持續穩定運行對于軍事任務的成功和公共安全至關重要。

軍事系統和平臺是網絡攻擊的首選目標,不是因為它們像消費電子產品那樣普遍,而是因為它們潛在的戰略影響。一旦受到影響,就可以實現各種短期和長期影響,從拒絕能力到秘密降低其有效性或效率。因此,軍隊必須在各個層面解決網絡安全問題:戰略層面,同時獲取平臺和系統;作戰層面,同時規劃軍事任務和戰術。

北約國家擁有大量可能面臨網絡攻擊的軍事平臺和系統。因此,北約將受益于利用當前的流程和方法來設計更安全的系統并評估當前系統的網絡安全。

本報告介紹了針對軍事系統和平臺量身定制的網絡安全評估方法,該方法由 RTG 團隊成員合作開發,并建立在他們的經驗和專業知識之上。團隊成員已經使用的流程被共享、分析、集成和擴充,以產生本報告中描述的流程。本報告的目標受眾是愿意評估和減輕其軍事系統的網絡安全風險的決策者。

圖一:網絡安全評估過程的五個主要步驟。

報告結構

第 2 節介紹了 RTG 團隊在其存在的三年中用于開發流程的方法。第 3 節列出了可以應用該過程的系統的一些特征。最后,第 4 節描述了評估流程,而第 5 節總結本報告。

執行總結

軍事平臺比以往任何時候都更加計算機化、網絡化和受處理器驅動。這導致增加了網絡攻擊的風險。然而,這些平臺的持續穩定運行對于軍事任務和公共安全的成功至關重要。

絕對的網絡安全是不存在的。必須通過迭代風險評估持續管理網絡安全。傳統 IT 系統存在許多網絡安全風險管理框架和流程。然而,在軍事平臺和系統方面,情況遠非如此。本文檔介紹了針對軍事系統量身定制的網絡安全風險評估流程。該流程由北約 IST-151 研究任務組 (RTG) 活動的團隊成員開發,該活動名為“軍事系統的網絡安全”。該過程可以應用于傳統的 IT 和基于固件的嵌入式系統,這些系統在軍事平臺和系統中無處不在。

付費5元查看完整內容

本報告描述了北約第一個多領域小組IST-173所取得的成果。與會者包括來自不同小組和團體的科學家,以及來自北約機構和軍事利益攸關方、學術界和工業界的科學家,這為AI和軍事決策大數據這一主題創造了第一個利益共同體。該團隊在實踐中證明了一種新的STO方法的可行性,即任務導向研究,以激發公開對話、自我形成的研究合作和跨小組活動。此外,該方法還有助于為人工智能和軍事決策大數據這兩個主要能力領域聯合開發北約首個科技路線圖,以應對北約在這些領域面臨的作戰挑戰。由于新的組織(軍事利益相關者積極參與的多領域團隊)和這種創新方法的應用,確定了一些經驗教訓,應該支持軍事決策AI和大數據的進一步操作。

付費5元查看完整內容

【報告標題】

Human Factors and ISR Concept Development and Evaluation 人為因素和情報、監視、偵察 (ISR) 概念開發和評估

【報告來源】

北約技術報告

【出版時間】

2022年2月

【研究問題】

情報、監視和偵察 (ISR) 行動是關于收集信息并向操作員提供信息,而操作員又需要就其戰區的各種行動方案做出具體決策。可以肯定的是,ISR 行動是技術密集型的。然而,與此同時,ISR 行動是一個非常以人為本的過程。盡管如此,ISR 概念開發和評估 (CD&E) 過程中幾乎沒有人為因素 (HF) 研究。通過研究新的ISR技術和概念對不同操作環境下操作員性能的影響,研究人員可以提供更科學的建議,為高層政策和決策者提供關于所有ISR環境下未來ISR技術和能力的信息:包括空中、海面、地下和空間。就這一點而言,HF 研究方法應成為任何 ISR CD&E 過程的組成部分,為 ISR 指揮鏈各級的政策和決策者提供信息和建議。

【研究目的】
 北大西洋公約組織 (NATO) 研究和技術組織 (RTO) 人為因素和醫學 (HFM) 小組任務組 (RTG) 276 (NATO RTG HFM-276) 題為“人為因素和 ISR 概念開發和評估”,旨在識別和理解對有效 ISR 操作至關重要的 HF 問題。更準確地說,這項開創性工作的目標是:

1 確定有效 ISR 行動的關鍵 HF 問題(例如,態勢感知、工作量、組織結構、協調和協調機制、可視化、信任、信息共享和管理、領導力以及做決定);

2 使用行為理論模型來發展我們的研究方法并理解我們的發現;

3 就 ISR CD&E 操作中 HF 研究的使用和實施提出建議。

【結果、意義、影響】
 北約 HFM-276 任務組使用組織有效性模型開發了一組調查,以識別和了解對有效 ISR 行動至關重要的 HF 問題。該模型的核心是由任務、收集、處理、利用和傳播 (TCPED) 組成的 JISR 流程。源自該模型以及其他來源的數據收集計劃著眼于 ISR 行動中的一些 HF 問題的作用:基本 HF 知識、情況評估、工作量、組織結構、信任、信息共享、信息管理、領導力、文化、組織過程、組織靈活性、共享意識和責任、協調和協調機制、決策、能力、情報請求管理(IRM)、通信、元數據和應用系統。所有這些 HF 因素都會影響 ISR 操作概念并影響操作員的績效。此外,該報告總結了一些改進北約和非北約行動的 ISR CD&E 過程的實際影響,重點是開發應包含在 ISR CD&E 過程中的 HF 研究方法。這種 HF 方法將像技術和程序 ISR 概念開發的質量控制組件一樣工作。預計研究結果將有助于為 ISR 指揮鏈各級的政策和決策者提供信息和建議,以增強北約 ISR 規劃、任務執行和能力發展中的信息和決策優勢。它還有望幫助告知 ISR 與其他聯合流程的整合,例如在確定當前與 ISR 相關的 HF 差距以及與其他流程整合方面的聯合目標。

付費5元查看完整內容
北京阿比特科技有限公司