人工智能的不斷進步使軍事系統具有更高水平的自主性。隨著機器智能作用的擴大,人類與自主系統之間的有效合作將成為未來軍事行動中越來越重要的一個方面。成功的人機協作(HAT)需要對機器智能建立適當的信任度,而信任度會隨著人機協作發生的環境而變化。有關信任和自動化的大量文獻,以及關注軍事系統自主性的最新研究成果,構成了本研究的基礎。本研究考察了機器智能應用的三個一般類別中信任的各個方面。這些應用包括數據集成與分析、所有領域的自主系統以及決策支持應用。在每個類別中,與適當調整信任度有關的問題各不相同,信任度調整不當的后果和潛在的緩解措施也不盡相同。
縱觀歷史,技術在武裝沖突的演變中發揮了關鍵作用。技術加快了戰術交戰的節奏,拓寬了戰場的地理范圍,增加了指揮官與部隊溝通的手段,也改變了國家計劃和實施武裝沖突的方式。在二十一世紀,一組統稱為人工智能(AI)的技術似乎準備開創一個新時代,在這個時代,機器智能和自主性將為軍事行動的規劃和執行帶來全新的概念和程序。大量數據的不斷涌現激發了人們對信息的貪婪欲望,這就需要對信息進行快速、冷靜的分析,而人工智能恰恰能夠勝任這一角色。人工智能決策、改進的傳感器和敏捷的機器人技術的融合,將使新系統能夠獨立完成 "觀察-定向-決策-行動"(OODA)決策循環的所有階段。大量自主系統涌入戰場,基于算法的戰爭潛力將逐漸增強甚至取代人類在部分或全部步驟中的決策過程,其速度可能超過人類規劃者的認知戰能力。
目前,從通信設備、傳感器到防空系統,算法為一系列軍事系統做出了貢獻。在許多方面,現代軍事力量已經依賴于某些形式的人工智能。然而,機器智能的未來應用將帶來一種新的能力--一種非人類的協作伙伴,能夠在戰場環境不斷變化的背景下做出積極主動的 "決策"。這種能力的內在優勢只有在人類能夠自如地依賴人工智能的情況下才能實現--人工智能不僅是一種工具,而且是團隊中的一員。因此,本文將重點討論人機協作(HAT)的一個具體方面:建立對機器智能的適當信任度。已有大量學術文獻關注自動化或機器人技術在商業應用中的信任問題,但專門針對軍事應用的學術研究卻不多。本文將特別探討利用人工智能的自主系統是如何在不同的軍事環境中使用的,以及這些不同的環境是如何影響信任度的。
本文的基本論點有三個方面。首先,為軍事用途開發的人工智能技術分為三大類,貫穿戰爭的戰術、戰役和戰略層面:用于數據整合與分析的算法解決方案、利用機器智能的自主系統以及輔助人類決策的支持軟件。其次,認為人工智能在軍事行動中的普及必然會導致人類與智能機器之間更多的互動。軍事行動將越來越依賴于安全有效的人機協作,而這反過來又依賴于人類不斷評估并給予智能機器適當程度的信任--即信任校準。與適當的信任校準有關的問題在這三個類別中各不相同,信任失調的影響也各不相同。第三,因此,確保與人工智能的最佳人機合作將取決于識別每個類別中的潛在信任問題,并設計適當的技術或理論調整來解決這些問題。在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,探討了信任和信任校準的概念,然后分析了在三個類別中鼓勵適當信任度的陷阱和可能性。
幾十年來,人類一直醉心于為機器注入某種形式的人工智能的可能性。尼爾斯-尼爾森將人工智能定義為 "致力于使機器智能化的活動,而智能是指使實體在其環境中適當地、有預見性地發揮作用的品質"。在數字時代的初期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析特定的數據集。對于具有可預測規則的明確環境(如分析實驗室結果或下棋等應用),專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法質量。另一大類則采用自下而上的機器學習方法,仿效人類通過檢測數據中的模式進行學習的方式。神經網絡是一種受人腦啟發的機器學習方式,它能利用多層(因此是 "深層")人工神經元識別復雜模式,這種技術是 "深度學習 "方法的基礎。這種方法能夠發現數據集中的關系,因此也被稱為 "連接主義"。
自上而下、基于規則的符號系統與自下而上的機器學習聯結主義技術之間存在很大差異,尤其是在應用的潛在范圍和靈活性方面。深度學習方法的顯著特點是能夠將學習與訓練所依據的數據集分離開來,因此該方法可應用于其他類似問題。基于規則的算法在狹義的任務中表現極為出色,而深度學習方法則能夠迅速找到模式,并在專家系統計算方法效果較差的應用中“自學成才”。最近的一些人工智能進展表明,它們有能力模仿創造力,或產生新穎的解決問題的方法,而這些在人類看來可能是違反直覺的。例如,帶有人工智能導航控制的高空氣球發現了利用風型的最佳和意想不到的技術,或者利用人工智能開發出更有效的增材制造機器部件設計。
不過,一般來說,人工智能的范圍仍然很窄,或者說 "很脆弱",因為它們在特定的應用中運作良好,但在其他應用中仍然缺乏靈活性。與人類相比,由于機器的計算速度遠遠超過人腦,因此在對數據集應用邏輯規則時,機器智能要優越得多,但在嘗試歸納推理時,機器智能必須對數據集或環境進行一般性觀察,因此就顯得力不從心。大多數機器學習仍然需要大量的訓練數據,盡管包括自監督學習、生成模擬數據的技術(如使用生成式對抗網絡(GAN))和 "少樣本學習"(LO-shot learning)在內的新方法正在出現,這些方法需要非常小的數據集。圖像識別算法很容易混淆,無法像人類那樣立即或直觀地解釋環境背景。這種脆性還延伸到游戲等其他問題上。雖然人工智能在視頻游戲中經常表現出超人的能力,但它們往往無法將這種專長轉移到具有類似規則或游戲機制的新游戲中。
雖然人工智能技術在提高適應性方面不斷取得重大進展,但接近人類的人工通用智能仍然遙不可及。這部分是由于我們對人類處理信息時所涉及的生物學和化學--也就是通常所說的人類認知--的掌握令人驚訝地有限。神經科學家仍不完全了解大腦是如何運作的,這限制了以生物過程為基礎模擬數字過程的努力。因此,深度學習等人工智能技術與認知神經科學建立了共生互利的關系。人工智能技術的漸進式發展使評估人工智能的近期前景變得更加復雜。深度學習方法的成功在很大程度上助長了對人工智能的炒作,導致人們對該技術的未來抱有不切實際的期望,并將其巨大進步正常化。有人將此稱為 "人工智能效應"。一份報告指出:"人工智能將一項新技術帶入大眾,人們對這項技術習以為常,它不再被視為人工智能,而更新的技術出現了。" 一些人猜測,機器學習技術帶來的進步可能會趨于平緩,而另一些人則保持樂觀。一些人認為,將符號人工智能方法與各種形式的機器學習相結合的嘗試很有潛力。因此,近期前景仍不明朗。相關的技術進步,包括短期的計算機芯片設計和長期的量子計算,也可能影響人工智能進一步發展的步伐。
不過,對于許多軍事應用來說,狹義的人工智能應用已經綽綽有余。全球各國軍隊已在使用的許多算法解決方案都可被視為 "人工智能",而且不乏對人工智能用途的建議。人工智能可能帶來的軍事能力,是克里斯蒂安-布羅斯等分析家和羅伯特-沃克等前國防官員所設想的截然不同的未來作戰環境的一部分。如果這些關于人工智能影響的預測成真,它們將對行動的規劃和實施產生廣泛影響。現有和不久將來的應用可分為三類:數據整合與分析、自主系統和決策支持軟件。與大多數類型一樣,這些類別的邊緣并不完全清晰,有些應用跨越了多個標簽。但值得注意的是,從數據分析到自主系統,再到最終的決策支持應用,在軍事背景下利用人工智能的潛在后果--以及由此帶來的信任度不高的風險--都在增加。此外,在軍事力量結構中整合自主系統也會產生累積效應。信任人工智能來處理傳感器數據是允許自主系統與人類人員并肩作戰的必要步驟,而未來在戰役層面由人工智能支持的決策將需要更多一層的信任,這種信任關系建立在將自主系統投入實戰的軍事單元之間的人類-自主團隊合作所注入的信任關系之上。
在各種能力和平臺的運行中使用人工智能,普通用戶往往不會注意到,原因很簡單,因為人工智能在系統架構中發揮著綜合作用。這方面的例子包括民用衛星導航、互聯網搜索引擎或在線翻譯工具。軍事應用包括利用機器學習算法優化電磁頻譜使用的無線通信或雷達。對于無人駕駛或遙控飛機,機載算法允許傳感器獨立進行初步數據分析,從而減少帶寬需求。算法已經在一系列系統和平臺的傳感器數據分析中發揮了作用。
除了這些綜合應用外,有意識地積極使用人工智能進行數據分析還延伸到了情報、監視和偵察(ISR)工作中。正如詹姆斯-約翰遜(James Johnson)所指出的那樣,機器學習算法 "可以顯著改善現有的機器視覺和其他信號處理應用,從大量的信號和圖像數據集中識別模式,并增強自主性和傳感器融合應用"。美國空軍于2017年成立了算法跨職能小組,將人工智能應用于圖像分析,努力識別和跟蹤目標,并建立生活模式以提高態勢感知能力。在網絡空間,模式識別算法同樣可以確定網絡的正常運行模式,從而更容易識別可能預示著入侵者存在的偏差。利用人工智能進行公開來源情報(OSINT)分析可以識別個人,甚至對叛亂活動做出粗略的近期預測。全球信息主導實驗(GIDE)等實驗性人工智能應用軟件可從海量多源數據中篩選出模式和趨勢,從而對一系列未來事件做出預測。
人工智能的第二類應用包括范圍廣泛的自主系統。自主是一個仍然難以準確或簡明定義的術語。聯合空中力量能力中心(JAPCC)在2016年的一份報告中對自動化與完全自主系統進行了區分,前者涉及機器執行人類設定的可預測、有界限的預定任務。作者將自主系統描述為:能夠決定自己的行動方針、不受預編程反應限制的深思熟慮的決策、具有學習和積累 "經驗 "的能力,因此其行動不再是完全可預測的。保羅-沙雷(Paul Scharre)和邁克爾-霍洛維茨(Michael Horowitz)在 2015 年的一篇論文中描述了自主性的三個維度: (a) 人機指揮和控制關系,通過確定人類是 "參與"、"開啟 "還是 "退出 "決策環路來簡化;(b) 機器或系統的復雜性和能力;以及 (c) 自動化功能的類型。
在人工智能方面,值得注意的是,自動化系統與自主系統之間的區別變得模糊。機器智能與實現自主系統的許多自動化功能高度相關,包括系統操作和自我診斷、自動駕駛儀、作戰軟件和目標跟蹤/識別以及自導武器。因此,"自主性 "描述的是一種獨立機器功能的滑動尺度,其中包含一系列變量,包括人機交互的程度、獨立感知和適應環境變化的能力、完成一系列預定目標的決策能力,以及不斷學習和改進這些決策的能力。
不那么嚴格的自主定義可能包括當前的軍事資產,如防空和導彈防御系統、反火箭或火炮系統、地面車輛主動防護系統、閑逛彈藥、先進巡航導彈和賽博能力。雖然目前大多數作戰領域都部署了自主系統,但下一代自主系統將利用人工智能實現更大程度的獨立,不受人類指揮的影響。目前正在開發的空間、海上、空中和地面平臺與系統,正如聯合咨詢理事會報告所概述的那樣,代表著一種質的演變,從戰術指揮官可利用的工具轉變為人類必須與之互動和合作的伙伴。
自主飛機不久將執行后勤任務,如運輸貨物或加油任務。俗稱 "忠誠僚機 "計劃的新作戰概念設想了與駕駛飛機并肩作戰的大型無人平臺,從而為傳感器聯網或增加彈藥提供了更多選擇,從而提高了戰術靈活性。自主艦艇將為海上指揮官提供類似的海上作戰能力,地面系統目前也在開發之中。新的制造工藝將降低生產成本,同時降低對可擴展人工智能軟件的尺寸、重量和功率要求。這將有可能部署大量的小型無人系統,這些系統將以蜂群編隊的形式進行控制和協調,并配備作戰管理和目標瞄準軟件,這些軟件可以快速上傳和更新,只需敲擊幾下鍵盤就能對系統進行有效的 "再訓練"。因此,自主系統有望增加戰場上平臺的總體數量。
軍事指揮官在決策過程中已經依賴于機器智能,從算法推導的附帶損害估計,到防空和導彈防御系統的目標定位解決方案,不一而足。對于一系列系統而言,計算機生成的數據分析增強了對態勢的認識,并為作戰人員提供了選擇。未來的決策輔助工具可能會帶來進一步的發展。與目前耗時的作戰計劃模式相比,史蒂文-戴維斯認為,"當面對許多僅僅是合適、可行或完整的方案時,人工智能可以引導決策者找到最佳解決方案"。大量使用人工智能決策軟件的自主武器系統的引入可能會影響戰爭的作戰層面,特別是軍事行動的指揮與控制(C2)方面。
這個現在很常見的術語出現在 20 世紀 60 年代剛剛興起的信息技術時代,用來區分指揮的權力和責任,以及為指揮官控制行動的實施和執行創造必要條件的過程。雖然上級指揮官和政治領導人觀察特定戰術交戰已成為司空見慣的事,但如果部署了自主系統,作戰層面可能最適合由人類 "參與"。即使有了自動同步的水面艦艇或航空系統艦隊,仍需要以人為中心協調更廣泛的作戰行動。然而,在這種情況下,作戰計劃和協調可能需要人工智能的協助,以便保持有利和有效的戰斗節奏。
這就是所謂 "以決策為中心 "的作戰概念背后的動機。美國國防部高級研究計劃局(DARPA)提出的 "馬賽克戰爭"(Mosaic Warfare)概念,就是利用人工智能來協調分布式的部隊網絡。該概念提出了一種由人工指揮和機器控制的混合 C2 配置。指揮官根據人工智能對現有有人和無人部隊的概述,從人工智能生成的行動方案(COA)中選擇需要完成的任務。戴維斯概述的另一種方法是利用海上決策支持架構,中間層的人工智能基于保護、維持或火力等作戰功能。鑒于基于機器的快速決策所具有的明顯優勢,整合人工智能和自主系統的概念是一種合乎邏輯的進步,盡管這種進步雄心勃勃。當互聯的作戰空間允許不同但相互關聯的網絡進行數據融合時,這一點尤其適用。大量的可用信息可能會導致對機器智能的依賴,原因很簡單,因為需要機器認知來理解這些數據,并以有利的方式及時采取行動。
從傳感器數據到武器系統再到作戰決策支持,機器智能在軍事行動各個領域的預期作用表明,人們對人工智能的依賴程度越來越高。例如,北大西洋公約組織(NATO)倡議下的一份專家組報告建議,該軍事聯盟 "應鼓勵將人工智能納入戰略和行動規劃。它應利用人工智能驅動技術的力量,加強情景規劃演習和長期備戰。美國海軍最近發布的智能自主系統政策等官方聲明和出版物強調,信任是依賴的重要組成部分,其中包括人類應如何以及何時信任機器等問題。隨著機器智能越來越能勝任日益復雜的認知功能,并不斷磨練其獨立運作的能力,人類將需要把人工智能和自主系統視為合作伙伴,就像看待工具一樣。與任何伙伴關系類似,信任是人機有效合作的關鍵。
信任是許多概念中的一個,最初看起來很直觀,但深入研究后會發現變得更加復雜。在過去的幾十年里,信任出現了多種定義和概念,這并不奇怪。一篇頗具影響力的文章的作者在回顧了為信任下定義的各種嘗試后得出結論:"這些定義凸顯了在信任是一種信念、態度、意圖還是行為方面存在的一些重要的不一致之處。這些區別具有重要的理論意義"。梅耶等人(1995 年)提出的一個流行定義認為,信任是 "一方基于對另一方將采取對信任者很重要的特定行動的預期,愿意受另一方行動的影響,而不管是否有能力監督或控制該方"。信任的最新簡化定義是 "在以不確定性和脆弱性為特征的情況下,認為智能體將幫助實現個人目標的態度"。脆弱性和風險的存在是信任的重要組成部分,因為它為錯誤的信任帶來了潛在的代價。
雖然人機協作的基本要素與人際關系不同,但許多基本要素具有可比性。Keng Siau 和 Weiyu Wang 指出,信任是動態的,通常是通過雙向互動逐步建立起來的,但也會受到最初印象的強烈影響。一些學者認為,信任的產生最初是通過對未來行為的可預測性,然后通過建立可依賴性的一貫行為反復確認,最后演變成一種類似于信仰的對可靠性的廣泛判斷。
影響自動化信任度的有三個類似因素。自動化過去和當前的表現,以及系統實際工作的信息,都與可預測性相似。有關自動化設計的細節,以及它是否能實現操作員設定的目標,可以揭示系統如何運行的相關有用信息,從而激發與可依賴性相同的動力。最后,自動化背后的目的或原理,以及自動化的使用是否符合設計者的意圖,具有類似于信仰的抽象傳遞性(相信設計者的意圖,因此相信自動化)。
在許多學者看來,在這一點上,人與人之間的關系和人類對機器的信任開始有所不同。人們通常會對陌生人持懷疑態度,并如上所述逐漸建立信任,而人類則通常會在最初基于信仰的基礎上期望機器能完美工作。當出現錯誤時,這種最初的信任會迅速消失,但信任最終會被可預測性和可靠性這些更持久的品質所取代。凱文-霍夫(Kevin Hoff)和馬蘇達-巴希爾(Masooda Bashir)在 2015 年對有關信任和自動化的學術文章進行了全面調查,并建立了一個由三部分組成的信任模型,該模型以對機器的初始信任(處置性信任)為起點,并加入了背景(情景信任)和經驗(習得性信任)。
他們認為,對自動化的傾向性信任是三者中最穩定的,受文化、年齡、性別和個性特征的影響最大。這些變量中的大多數都有明顯的影響,但傾向性并不明顯。文化(可定義為 "反映共同教育和生活經歷的一系列社會規范和期望")的作用是一個特別突出的因素。專業背景或技術培訓是影響個人如何對待自動化的一種文化差異。對權力和權威的態度,甚至是對個人或集體利益平衡的看法,也會產生影響。一項針對冰島、芬蘭和瑞典客戶對電子商務服務信任度的研究顯示,在傾向性信任方面存在顯著差異,芬蘭客戶的懷疑程度最高,而冰島客戶的信任程度最高。
除了性格信任的初始影響外,情境信任是該模型的第二個組成部分,在培養自動化信任方面發揮著重要作用。情境因素可能包括外部變量,如系統復雜性、影響自動化監控的操作員工作量、影響自動化風險和效益的環境因素或組織結構。被視為人類操作員 "內部 "的相關情景信任因素可能包括自信心、自動化領域的主題專業知識、操作員的專注能力(受壓力、睡眠、無聊、內部動機的影響),甚至是積極的情緒--這與自動化的初始信任水平較高有關。
該模型的第三個也是最后一個組成部分是 "習得信任",它包含與自動化信任相關的一系列變量。操作員通常對自動化已有一定的了解,無論是來自其他自動化系統的先前經驗,還是基于相關自動化的聲譽。甚至在操作員與系統互動之前,對自動化的期望和對其性能的二手了解就會影響信任度。最初的交互首先會受到自動化系統設計特點的影響:其外觀、易用性、通信模式和透明度。與人機界面有關的設計選擇,如顯示屏布局或語音命令類型,在激發信任方面可發揮重要作用。一旦通過先前的經驗或系統本身的設計特點建立了最初的信任度,操作員就會不斷動態地衡量自己的信任度。這可能取決于可靠性、可預測性、系統實用性以及錯誤發生的時間和方式(包括如何提醒操作員)等因素。
人們一直致力于在人類與自動化系統之間建立信任,但過去的經驗表明,過度信任也會帶來問題。與自動化 "過度信任 "或濫用相關的最常見傾向包括自滿情緒和自動化偏見。操作員在監督基本可靠的自動化系統時往往會產生自滿情緒,從而降低對日常監控的警惕性,并認為系統運行正常--這一點不足為奇。與此相關的一個問題是自動化偏差,即人類操作員未能對自動化故障做出反應,或按照自動化建議做出錯誤決定。一項研究得出結論,使用計算機生成的除冰程序建議系統的飛行員,只要計算機提供的建議正確,其表現就會優于沒有該輔助系統的飛行員,但如果建議不正確,其表現就會更差。在另一項研究中,隨著自動化水平的提高,負責戰斧巡航導彈飛行中重新瞄準的操作員似乎更容易接受自動化建議,這表明存在自動化偏差。
自動化偏差似乎是造成一些商用飛機災難的原因,包括 2009 年法國航空 447 號航班的失事。資深記者威廉-蘭格維什(William Langewiesche)在 2014 年根據從飛機飛行記錄器中恢復的駕駛艙機組人員對話撰寫的一篇關于空難的詳細文章中,將自動化作為一個促成因素。Langewiesche 認為,飛行員已經習慣于依賴自動飛行輔助設備,而故障空速指示器的誤導信息造成了不確定性,使他們無法理解飛機的實際情況。這導致了一連串錯誤的決定,以及屢次未能做出適當--回想起來相對簡單--的調整,而這些調整本可以避免悲劇的發生。他簡明扼要地總結道:"自動化使得普通的航空公司飛行員越來越不可能在飛行中面臨原始的危機--但同時也使得他們越來越不可能在危機出現時能夠應對這種危機"。
開發人員通常不會專注于如何提高人類對自動化系統的信任度,而是努力激發與系統能力相關的校準信任度。信任校準簡單地描述了這樣一個過程:人類與機器自動化或機器智能的交互努力達到一種理想狀態,在這種狀態下,人類根據機器智能的優缺點對其給予適當的信任。以適當校準的信任度為目標,過度信任可以理解為超出系統能力的信任,而不信任則描述了與之相反的情況,即操作員對系統的信任程度低于其能力要求。實現適當的信任度調整聽起來很簡單,但往往會因人類的正常反應而變得復雜。如上所述,操作員在使用系統,尤其是機器智能系統時,通常對其性能有很高的期望。當錯誤發生時,人類操作員往往會過度修正自己的信任度,將期望值降低到低于系統能力的水平--從而直接從過度信任過渡到不信任。
過去幾十年來,對人機協作的大部分研究都集中在自動化系統上。一個幾乎沒有明確答案的基本問題是,自動化系統與自主系統在多大程度上存在差異。前面提到的區別是僵化的、預先確定的和可預測的自動化任務與不受約束的、動態的和不可預測的自主性之間的區別。最近一篇關于人類自主團隊的調查文章指出:"兩者之間的劃分是一個程度問題,差異是一個移動的目標......在哪一點上,自動化可能更適合描述為自主,這是一個開放的問題"。
因此,在實踐中,這種區分更多的是分級的,也許更好理解為一個連續體,一端是自動化功能,另一端是自主功能。即使是這種分級方法,其效用也是有限的。一旦我們對自主功能的性能和可靠性越來越滿意,就會逐漸將其視為更類似于自動化的功能。為了進一步細化,自主系統甚至可能具有自動化功能。由人工智能支持的自主網絡防御系統可以獨立行動,以不可預測和無腳本的方式處理威脅,但網絡防御系統本身可能被認為是自動化的。
希瑟-羅夫(Heather Roff)和戴維-丹克斯(David Danks)在一篇發人深省的文章中論述了自主武器系統中的信任問題,他們對類似的二元論態度提出質疑,將自主系統分為兩種:一種是工具,"在這種情況下,行為的可靠性和可預測性足以'信任'系統";另一種是 "具有價值觀和偏好的道德主體,在這種情況下,'信任'的門檻將大大提高"。同樣,托馬斯-奧尼爾(Thomas O'Neill)等人提出了基于計算機的 "自主智能體"(autonomous agents)概念,即 "代表團隊中獨特角色的獨特實體,否則這些角色就必須由人類來擔任"。雖然羅夫和丹克斯對道德代理與工具的二元概念并不認同,但這種區分在概念化信任自動化與信任自主性之間的差異方面還是有一定價值的。自主智能體并不是簡單地在特定情況下執行預先設定的行動,而是在更大程度上依賴于某種類似于判斷的東西。對這種判斷的信任,結合了與自動化系統性能有關的傾向性信任和情境信任,以及對過程和目的的更多關注,這就需要對智能體的價值觀和偏好有更深入的了解。
只要人類操作員對所操作的系統有適當的信任度,機器智能提供新能力和提高現有能力的潛力就能成為軍事行動的一個重要因素。正如霍夫和巴希爾所言,"就像在人際關系中一樣,信任在決定人類是否愿意在不確定的情況下依賴自動化系統方面起著主導作用"。在聯盟或聯軍行動中,如果一些成員國在人機協作方面已經建立了良好的校準關系,而另一些成員國則沒有,那么就會出現互操作性問題。信任校準并不一定能傳遞給不同文化背景的人員。然而,即使在每個國家的軍隊內部,信任校準問題也可能因機器智能所執行的上述三類任務(數據整合與分析、自主武器系統和決策支持)而有所不同。
對于許多軍事應用而言,機器智能所扮演的角色已經完全融入系統架構,甚至可能無法察覺。這些應用包括自動語言翻譯工具、由人工智能引導的通信設備頻率選擇、整合傳感器數據為平臺操作員創建戰場整體視圖,或由智能數字實體監控計算機網絡以發現入侵跡象。對于這些類型的功能,人工智能正在做出 "選擇 "并影響人類操作員對態勢的理解,這反過來又會對認知和人類決策產生影響。這種機器智能的使用更符合自動化系統的定義。因此,信任校準問題更為人所熟知,研究也更為深入。
一個直接而明顯的問題是,大多數操作人員可能會對這類系統給予高度的處置性信任或初始信任,甚至可能沒有意識到人工智能對信息環境的塑造程度。軍事應用中適當的信任校準可能涉及人機界面的設計特點,既能激發信任,又能提供足夠的透明度,特別是在機器智能據以得出結論的數據的穩健性方面。一項研究建議,智能體應具備評估自身自信心的能力,包括自身知識庫的不確定性、自身運行狀態的不確定性以及推理過程的不確定性。當然,這也會受到與決策過程本身相同的弱點的影響,但可以對人類的自動化偏差傾向進行有益的糾正。
人類操作員依賴機器智能進行態勢感知所面臨的另一個挑戰是時間性的。在未來的沖突中,可用于做出決策的時間可能會被嚴重壓縮,從而促使對機器認知的依賴。當被迫迅速采取行動時,人類可能會選擇不分析智能體的自信水平,或在做出時間緊迫的決策時嚴格評估人工智能生成的數據。在某些領域,其他傳感器可能會提供有用的輔助驗證來源,而人類在其他情況下可能會完全依賴機器智能提供的信息。網絡領域的人工智能工具是數據分析和自主系統之間的復雜混合體,因為機器智能可以監控網絡以防止潛在的入侵,并使進攻性網絡武器能夠分析和規避對手的智能防御。對這些工具進行獨立驗證以確保充分的態勢感知可能具有挑戰性,特別是考慮到作戰時間的限制。
與物理世界中的自主系統--無論是地面 "packbot "系統、無人駕駛加油機、自主水面艦艇還是自主武器系統--的交互涉及與上述算法實體相同的問題,但也涉及人類自主團隊合作的其他獨特和具有挑戰性的方面。這些系統更真實地體現了在團隊中扮演特定角色的智能體,通常從人際交互(HAI)的角度進行討論。因此,成功的人際團隊合作的特征具有更大的相關性,包括強有力的溝通、有關意圖和動機的共享心理模型,以及可預測和協作行動的能力。
在美國國防部自主研究試點計劃的支持下進行的一項研究考察了一個軍事單元與其自主 "packbot "小隊成員之間的互動,發現顯示機器人意圖和邏輯的數據加強了信任的一些基本基礎,如態勢感知和理解。隨著操作員對智能體的使用越來越熟練,經驗越來越豐富,這種透明度可以增強學習信任。有許多透明模式是可能的,包括交流智能體的意圖和目標結構,或其對任務的理解;側重于智能體內部運作和算法的分析模型;交流智能體對外部環境的理解;或強調團隊內部分工的團隊合作模式。
透明度是加強人類-自主團隊合作的一個潛在設計特征。與機器界面相關的工程細節可以在激發信任與鼓勵過度信任之間取得適當平衡。自然語言處理和合成語音技術已經取得了長足進步,實現了人類與機器人之間的對話交流,提高了透明度和信任度。將人類特征賦予智能體是一種自然的心理現象,可以加強合作,但擬人化也可能產生負面影響,包括對爆炸物處理機器人產生不幸的情感依戀,或因類似人類的語言模式而鼓勵對智能體的過度信任。
在人類與智能體的最初互動中,傾向性信任可能影響最大。例如,澳大利亞的一項研究認為,軍人對自主武器系統持有根深蒂固的懷疑態度。然而,隨著時間的推移,實現適當的信任校準可能主要取決于情景信任和學習信任。在高風險情況下,是依靠機器智能,還是將關鍵任務留給其他人,即使這一選擇并不理想,人類的判斷最終可能是高度個人化的。與人類團隊合作一樣,這種決定往往基于以往類似情況下的經驗,這表明與智能體一起進行綜合培訓練習可以成為信任校準的重要組成部分。與自主系統一起進行培訓被認為是鼓勵信任人類自主團隊合作的合理步驟,而且還能提供額外的人工智能培訓數據。Roff 和 Danks 提醒說,訓練的環境也可能會產生影響,并強調了基礎訓練等低風險環境與模擬戰場環境的更高級演習之間的差異。此外,他們還建議在每個單元內創建一個自主智能體 "聯絡官",與系統密切合作,了解其邏輯、動機和流程,從而利用信任的傳遞屬性。這樣,單元其余成員的信任校準可能會更容易通過聯絡官傳達,不過這種方法也有其局限性。
上文討論的與有效的人類自主團隊合作有關的問題將對次戰術和戰術層面產生直接影響,但在戰場上部署自主系統可能也會帶來作戰層面的調整。更多獨立運行的自主平臺--以及以機器速度進行的戰術決策--將給人類認知帶來挑戰,并可能成為破壞對手決策循環的限制因素。考慮到對手可能在多個領域構成的威脅,以及充分、迅速地做出反應所需的信息量,一位美國軍事領導人得出結論說,如果沒有機器智能管理數據的幫助,"二十世紀的指揮官將無法在這種環境中生存"。機器智能在作戰層面的應用很可能是累積性的,它融合了前兩節討論的信任帶來的好處和風險,并增加了另一層復雜性。
在作戰層面利用機器智能提供決策支持,與戰術層面的數據分析有明顯的相似之處,特別是容易出現自動化偏差,以及容易忽視人工智能有時微妙的決策效果。此外,潛在的自主武器或平臺協調群(甚至可能是蜂群)的增加也給現有的 C2 程序(如聯合瞄準)帶來了新的挑戰,這些程序本身可能需要在節奏更快、動態性更強的環境中實現自動化。對于作戰規劃人員來說,人機信任因素成為評估作戰單元準備狀態和效能的又一因素。以決策為中心的戰爭概念將人工智能直接納入指揮與控制結構,可能是自主性最引人注目的應用。隨著持續新聞報道和社交媒體的出現,人們對戰術決策失誤可能產生的戰略影響的認識變得更加深刻。在軍事領域,人類自主團隊合作的一個重要部分是考慮自主智能體是否有能力在意識到沖突的戰略和政治背景的情況下,以及在國際武裝沖突法的法律框架內采取行動。隨著人工智能輔助的信息流和對自主平臺群的自主控制與自主代理在戰術層面的行動后果相結合,這種考慮在作戰層面變得大大放大。由于決策時間被壓縮、確認偏差以及機器學習的臨床成本效益獎勵制度,機器智能和自主系統可能導致沖突升級,因此這一點尤其值得關注。
信任是一種發生在不確定性和風險情況下的現象。機器智能有可能通過減少處于危險中的人員和改進信息處理以增強態勢感知來緩解作戰計劃和控制的這兩個方面。正如最近一篇文章所指出的,用于算法戰爭的人工智能必須保持靈活性并降低作戰復雜性,包括 "獨立制定和裁定行動方案 "的能力。信任機器智能體作為 "環路中 "的道德代理人來規劃和批準具體的作戰行動,這涉及到讓自主代理人適當評估戰術決策的充分舒適度,而這本身就涉及到某種基于機器的 "信任"。正如戴維斯所言,在作戰層面,基于人工智能的決策支持架構 "將充當一個受信任的智能體,濃縮指揮官負責的信息量"。現有研究表明,監督或管理自主智能體的操作人員應獲得盡可能多的態勢數據,特別是一些研究表明,隨著自主智能體數量的增加,態勢感知能力也會下降。對于作為 "環路 "上的人而管理智能體的指揮官來說,加強對態勢的了解已被證明比簡單地提供供操作員選擇的選項更有效。
另一個可能出現的與信任和機器智能有關的問題是信任和戰術優勢的矛盾性。現有研究表明,在類似情況下可預測的行為會產生信任,但如果對手擁有類似的數據分析工具并能預測算法模式,這種可預測性就可能成為戰場上的弱點。只需觀察幾次智能體的算法戰術和行為,就可能預測到它們的行動,從而予以反擊。當然,可以在智能體的行為中加入適應性,避免在空戰中重復相同的動作,但這種缺乏可預測性的情況將使人類與自主體之間的信任更具挑戰性,無論這種信任在戰術意義上如何有利。此外,對手可能會干擾自己的訓練數據或算法,這仍然是一個令人擔憂的問題,也是人們持懷疑態度的正當理由。
這些戰術和戰役層面的問題會造成一系列戰略困境。時間限制可能迫使人類操作員將決策過程的重要環節讓給智能體,以獲得對對手的優勢。在美國陸軍進行的虛擬實驗中,人類傾向于對其無人機群進行微觀管理,由于人類認知速度較慢,一直被人工智能控制的單元擊敗。這種態勢很可能會鼓勵操作人員為了權宜之計而放棄對智能體的可信度進行冷靜評估。人類在決策中的認知能力逐漸降低,可能會對各級威懾和升級控制產生不可預測的戰略影響,尤其是在涉及信任問題時。正如詹姆斯-約翰遜(James Johnson)所言,"人工智能對戰略穩定的威脅所造成的不確定性,可能是對手夸大了對其有效性的信任,也可能是(也許更令人擔憂的)錯誤地認為某種特定的人工智能能力在行動上是有效的,而實際上并非如此"。
自主系統的軍事應用顯然將繼續擴大,因為對決策者的激勵似乎大于風險。機器智能代表了一套獨特的技術,它超越了武器系統在射程、速度或精度方面的漸進式改進。這三類中的每一類智能體都有可能以不可預測的方式改變戰場,這對正在尋找將人工智能技術融入現有和計劃中的部隊結構的最佳手段的軍事領導人來說,既是危險也是機遇。鑒于戰爭仍然是以人為本的事業,人類自主團隊的重要性可能會成為軍事行動中越來越重要的一個方面。
關于人類與自主團隊合作中的信任問題,基于研究的知識是廣泛而全面的,但大部分實證數據自然主要與從自動化到自主化的滑動尺度中自動化程度較高的過程有關。考慮到機器智能在軍事領域的預期功能,這項研究的大部分內容仍然具有很強的現實意義--尤其是與性格信任相關的文化差異方面或自動化偏差等常見現象。適當的信任校準所面臨的挑戰因應用的類型和類別而異,與用于 ISR 數據分析的集成機器學習軟件相比,激發人類對物理自主系統的充分信任可能更具挑戰性。歸根結底,實現適當和校準的信任水平對于最大限度地發揮人工智能的潛力仍然至關重要。
自主性和人工智能將通過有限的應用逐步改變戰爭,因為完全自主瞄準面臨障礙,因此有必要就自主系統的規則進行細致的國際談判,而不是拒絕該技術。
自主(autonomy)和自治(autonomous)如今已成為熱門詞匯,被用來描述軍事(以及民用)領域對人工智能(AI)功能、流程和系統日益增長的利用。俄羅斯入侵烏克蘭以及隨之而來的高強度沖突為大量新技術和舊技術的創新使用提供了試驗平臺,從人工智能驅動的語音識別和態勢感知軟件到無處不在的商用無人機,再到商用衛星通信和圖像以及 3D 打印組件的大規模使用,不一而足。
高機動性、可攜帶爆炸物的第一人稱視角(FPV)無人機或利用計算機視覺鎖定目標并將其摧毀的徘徊彈藥的圖像已成為頭條新聞,并引發了對戰爭中自主革命黎明到來的焦慮,即殺手機器人將主宰戰場并顛覆國際秩序。
雖然沒有人能真正否認人工智能對戰爭及其未來演變的結構性影響,但當前關于自主性的辯論卻往往使人們對其實際軍事影響產生了扭曲和不準確的認識,這反過來又產生了一種不可調和的二元方法,其典型特征是要么完全拒絕、要么崇拜自主武器系統(AWS)。因此,任何有關為軍事目的使用和管理自主性的政策決定和機制都有可能對利用該技術和防止其濫用無效,甚至有害。
這種不一致做法背后的一個關鍵原因是缺乏對自主真正含義的理解,例如經常混淆自主武器系統和自動武器系統。自動武器系統具有不同程度的自動化,可對選定類別的目標執行特定和有序的功能,而且無論如何都不能偏離其預定目的。因此,它們的行為是確定的,或者簡單地說,是可預測的。例如,不同類型的地雷和裝有空爆近炸引信的炮彈一旦被激活,就會在沒有人為控制的情況下工作。
更廣泛地說,傳統的尋的彈藥就屬于這一類,并且已經服役多年。例如,烏克蘭使用的 AGM-88 型反輻射導彈就是通過被動雷達尋的器自動探測敵方無線電發射源(通常是雷達站或防空系統)并將其鎖定。重要的是,這些武器的設計目的是打擊非常具體和預先確定的目標,不能偏離其最初的指令序列。
相反,預警機的特點是能夠感知和適應作戰環境。這意味著它們可以根據計算機程序與外部環境交互產生的行為自主調整行動路線,為給定的輸入產生一系列不同的輸出。這種能力來源于車載人工智能計算和傳感器,可以達到不同的熟練程度,取決于算法的復雜程度、系統設計的權衡、任務的復雜程度和環境。
一般來說,有一些系統具有有限的自主能力,無需人工干預就能探測、跟蹤、提示和攻擊目標,不過它們的使用對象是特定的目標集,而且通常僅限于雜亂無章的環境,因此產生的行為在很大程度上是可預測的。此外,人類操作員可以修改武器的管理規則,或在出現潛在風險時激活/編碼任務中止選項。因此,在瞄準過程中,人類仍處于決策循環之中。防空系統、巡航導彈、閑逛彈藥或其他配備各種傳感器和機載數據處理能力的平臺就是最常見的例子。
然而,集成了更先進的機器學習功能后,自主系統可以自主學習和決策,包括選擇目標,并根據從環境中接收到的輸入不斷更新可用的輸出范圍。因此,它們的行為是非確定性的,可能無法預測。不過,目前還沒有證據表明戰場上使用了 "自我學習 "的完全自主武器系統。
以色列制造的 "哈比 "反輻射閑逛彈藥可在特定區域上空盤旋長達 9 個小時,以尋找雷達發射目標,并在無人監督的情況下自主攻擊這些目標。然而,雖然 "哈比 "的所有運作階段確實都是自動化的,但該系統無法學習和改變其任務規則和輸出,因為它只能選擇和攻擊由人類操作員預先選定的特定保持區域和無線電頻率范圍內的目標。因此,"哈比 "的行為在本質上仍然是可預測的,因為其任務參數和管理規則是由人類定義的,盡管仍然可能存在附帶損害的風險。
在最近關于致命預警系統的辯論中經常提到的另一個例子是土耳其的 "卡古-2 "戰術旋轉翼閑逛彈藥,根據聯合國的一份報告,在利比亞軍閥哈利法-哈夫塔爾于 2020 年圍攻的黎波里失敗期間,該彈藥可能被用于自主瞄準隸屬于他的部隊。然而,聯合國專家小組無法提供任何證據來證實自主模式的說法,而 "卡古 "的制造商土耳其 STM 公司后來明確指出,該系統使用人工智能計算機視覺來識別和跟蹤目標,但需要人類操作員與目標交戰。在最近的一次私下討論中,一位直接參與 "卡古 "研發的工程師向本文作者證實,該系統的程序設計并不能在沒有人類監督的情況下攻擊目標。
越來越多的武器系統--從無人機系統到巡航彈藥、防空系統到無人地面車輛和其他系統--使用機載計算機視覺和其他人工智能功能來自動化和加速流程,而人類的自然能力對于當前(和未來)軍事行動中不斷加快的決策節奏和激增的數據量來說,顯得過于緩慢或有限。然而,這些能力并不會使武器系統默認為完全自主。相反,它們優化了特定的子過程和任務(如導航、目標識別、態勢感知等),以解決人類疲勞問題,減輕人類操作員的認知負擔。除此以外,自主化通常還旨在通過限制參與行動的士兵和機組人員數量來降低人員風險。
瞄準和交戰循環是其中的一項任務,但它很可能仍將局限于為特定目標集或任務而設計的平臺,因為在這些平臺上有大量可靠的訓練數據,軍事目標和民用目標之間的區別比較簡單,附帶損害的風險有限。這些任務包括壓制敵方防空系統(SEAD)、空對空交戰、戰術射程內分層精確射擊或打擊敵方第二梯隊等。飛機系統(如無人機系統、閑散彈藥)是主要的自然候選者,但我們很可能會看到自主地面系統的瞄準任務,作為其在某些戰術交戰中火力支援作用的一部分。
與此同時,有些任務將發生重大的、結構性的自主化轉變。例如,通過高保真傳感器進行情報收集、監視和偵察、替身電子戰、誘餌、通信節點和補給。在這些領域,最有希望取得成果的還是使用具有蜂群能力的網絡化和多樣化的自主飛機,不過預計在海上和陸地領域也會取得進展。
因此,AWS 對戰爭的預期變革影響將比通常設想的要緩慢和零散,因為自主性主要是作為一種促進因素,其集成通常僅限于子系統或特定功能,而不是整個軍事企業。有幾個原因需要考慮。
首先,物理學仍然重要。AWS 依靠邊緣的大量計算能力和工作存儲器,通常需要更高的電池容量,特別是在長距離應用中。這就意味著要在尺寸、航程、速度、續航時間、有效載荷以及最終的成本之間進行明顯的權衡,在可預見的未來不可避免地會對作戰產生影響。例如,抗干擾超寬帶連接技術的使用可以降低能耗,但卻有固有的范圍限制。就機載系統而言,使用自主 "母艦 "從中間集結區釋放托盤化的彈群和空射效應,有助于擴大彈群和空射效應的作戰范圍,但這些大型母艦雖然前景廣闊,但仍容易遭到敵方攔截和反制,很難成為唯一的解決方案。
其次,即使技術已經成熟,但如果不將其適當融入強大的作戰概念(CONEMPs)和行動概念(CONOPs),AWS 也只能為作戰人員提供微不足道的優勢。然而,CONEMPs 和 CONOPs 的建立并非一朝一夕之事,在北約等多國環境中,由于互操作性問題、異質能力和培訓、人機界面挑戰以及國家層面對 AWS 的不同處理方法,CONEMPs 和 CONOPs 的建立變得更具挑戰性。此外,每個軍事部門都可能以自己的方式看待自主性,這就進一步增加了復雜性。
正如烏克蘭戰爭所表明的,新技術的有效整合與技術本身同樣重要。
第三,如果不仔細權衡意外升級的風險和可能帶來的災難性代價,就認為各國有意愿(和興趣)部署完全自主的武器系統(即自學平臺),至少可以說是草率的。
在此背景下,有必要提出一些警告。
顯然,上述對 AWS 的漸進和不定期采用并不能排除與這些平臺相關的危險,從道德和法律考慮到附帶損害問題。然而,似乎可以公平地說,它們可能被限制用于直接與目標交戰的目的,這在一定程度上減輕了這些風險,削弱了支持徹底禁止預警系統的一些論點。
遺憾的是,缺乏國際公認的自主定義是準確評估預警系統影響和規范其使用的一大障礙。人工智能發展的不穩定性,以及它對 "有意義的人類控制 "的概念和實用性的影響,進一步加劇了這一問題。如果 AWS 依賴于操作員可以獲得的相同信息、參數和嚴格的交戰規則,那么 "人類脫離環路 "本身并不一定是個問題,前提是它不能推翻這些信息、參數和規則。正如專家 Jovana Davidovic 所說,"任何道德上的差異都源于經驗事實,即什么方法(在安全和避免附帶損害方面)更有效,而不是操作員與最終決定的距離有多遠"。
在另一篇發人深省的文章中,學者 Andree-Anne Melancon 認為,"發展自動化武器的更根本問題不在于技術或人工智能。相反,問題源于選擇目標的方式"。或許,這場辯論首先應該討論的是自主系統編程的基本流程和規則(如目標識別等),而不是技術本身。
與此同時,關于在完美計劃和實施的行動中無縫使用和利用自主系統和人工智能的描述將被現實證明是錯誤的。人工智能可以幫助人們看穿戰爭迷霧,但不會徹底消除迷霧。例如,目前最好的物體檢測模型在最流行的基準測試中平均精度僅為 65%。雖然這些表述的首要目標是營銷,但由此產生的對人工智能優點的偏愛和對其局限性的忽視,都可能不利于就 AWS 問題展開建設性的、平衡的辯論。但是,基于可怕或不準確的觀點而對 AWS(或其他人工智能軍事應用)嗤之以鼻的評估也于事無補。
聯合國大會最近通過了有史以來第一份關于 AWS 的決議,這表明各國確實認為有必要采取行動規范 AWS,并應鼓勵人們對這項技術采取不那么軍國主義、但也更加清醒的態度。
作者:
費德里科-博薩里是歐洲政策分析中心(CEPA)跨大西洋防務與安全項目的萊昂納多研究員。他還是北約 2030全球研究員和歐洲對外關系委員會 (ECFR) 的訪問學者。他的主要研究興趣包括安全與國防動態、跨大西洋安全關系以及新技術對戰爭的影響。
本文討論了在軍事領域決策過程中使用人工智能(AI)的好處和注意事項。文章側重于三個主要方面:提供更快、更準確信息的能力,掌握情況和減少人為錯誤,以及在使用這種技術時必須考慮的技術和倫理因素。人工智能可以大大改善軍事領域的決策;然而,重要的是要反思與使用人工智能相關的倫理和技術影響。
關鍵詞 人工智能、情境領域、減少人為錯誤、合成環境、顛覆性技術、知情決策。
人工智能(AI)已成為包括軍事在內的各個領域的重要工具。人工智能的定義是開發計算機系統,使其能夠執行通常需要人類典型的理性智能才能完成的任務,包括識別語音、做出決策和解決問題。在軍事領域,人工智能可以通過實時處理有價值的信息,幫助指揮官更快、更準確地做出決策。然而,人工智能在軍事領域的應用也帶來了倫理和技術方面的挑戰,例如在隱私和數據安全等方面對人類的影響。必須了解人工智能在軍事領域的優勢和挑戰,才能有效、負責任地實施人工智能。從這個意義上說,人工智能的應用可以優化指揮官在戰場上及時做出明智決策的能力。此外,對大量信息的即時處理使人們有可能對全景有更全面的了解,這為預測突然變化和可能出現的風險提供了依據,而這些都需要掌握態勢。這也有助于減少個人失誤,擺脫每個人的局限性。不過,有必要考慮在對這一顛覆性技術進行管理時所涉及的倫理問題。
在軍事領域使用人工智能并非新概念。然而,在很短的時間內,它已成為一種日益重要和有用的工具。它能夠高速、準確地處理大量數據,并分析模式和趨勢,提供重要信息,幫助指揮員在發生危機時執行措施,而危機需要快速、有效的反應,這在完成任務可能受到影響的情況下非常有用。
此外,人工智能還能識別人類可能忽略的模式和趨勢,從而更好地進行數據分析。這樣就能更全面、更清晰地了解任何情況,使軍方能夠做出更明智的決策。人工智能還能將數據收集和分析等乏味的重復性任務自動化,從而騰出時間實施更相關的行動。
從這個意義上說,人工智能提供信息的速度和質量對軍事決策過程有著積極的影響。指揮官可以擁有一種工具,使他們在行動發展過程中更容易選擇并永久保持認知優勢。所謂 "認知優勢",是指在戰場上以最有效的方式利用信息和知識的能力。這意味著,人工智能可用于規劃過程、開展行動,甚至在任務完成后提供反饋并鞏固認知優勢。
同樣,在軍事行動規劃中,人工智能可以分析數據、生成情報,并提供需要優先處理的局勢變化信息以及可用資源和其他重要因素。在戰爭實施過程中,人工智能可以提供有關設備變化、通信流量和其他關鍵因素的實時數據。這一優勢將使指揮官有能力在不斷變化的情況下做出快速有效的決策,并確保其部署的資產始終處于有利地位。例如,某國開發了一套自主車輛系統,用于收集戰場信息,其目的是對信息進行處理,以便為決策提供準確的要素;它甚至可以在結果評估方面提供幫助。
據西點軍校現代戰爭研究所稱,人工智能的多任務特性使其可以通過與不同決策層的偵察、監視和情報集成手段的實時連接,用于收集和處理信息。人工智能能夠處理大量數據并從中學習,這意味著指揮官可以提高對態勢的掌控能力,減少危急情況下的人為錯誤。
一方面,人工智能可以實時處理信息,全面了解戰場態勢。此外,人工智能還能分析歷史數據和趨勢,在更短的時間內預測局勢并做出更準確的決策。同樣,如果與能夠以自身標準開展行動的自主手段銜接,就可以省去暫停行動的必要,從而有可能對對手保持持續的壓力。例如,人工智能可以分析敵人的行為模式并預測未來的動向,從而用于制定不確定性余地更小、細節更精確的應急計劃。
另一方面,在軍事決策過程中應用人工智能還能減少人為錯誤。從這個意義上說,由于軍事力量的應用所隱含的后果,指揮官的決策能力面臨著需要高度重視的情況。例如,法律方面的考慮,如尊重人權或保護自己的部隊,被證明是涉及道德的因素,最終會對指揮官產生壓力,并可能導致因疲勞、恐懼或缺乏經驗而做出錯誤的決定。在這種情況下,人工智能通過提供準確可靠的信息,有助于最大限度地減少這些錯誤。
此外,人工智能還可用于模擬合成環境中的情況,讓軍事人員在安全可控的環境中練習、積累經驗并提高技能。因此,美國陸軍正在利用人工智能的優勢培訓步兵單元指揮官,根據戰術形勢的變化--面對模擬對手--創建可變場景,對手的反饋和快速決策能力豐富了培訓經驗。這樣就能加強美國陸軍培訓的步兵指揮官的決策和掌握情況的能力。總之,在軍事決策過程中應用人工智能,可以讓負責任的指揮官提高對態勢的掌握能力,減少人為錯誤。
人工智能這一技術正越來越多地應用于軍事領域,目的是提高軍事行動的效力和效率。然而,人工智能的使用也帶來了一些重要的技術和倫理問題,必須認真加以解決。從這個意義上說,不應無視這一現實,也不應無視在使用這些技術時因其顛覆性而涉及的考慮因素。
從技術角度看,在軍事決策過程中使用人工智能有可能提供更快、更準確的信息,提高對態勢的認識,并降低人為錯誤的風險。然而,人工智能的使用也帶來了必須妥善解決的重大挑戰。首先是人工智能所使用數據的質量問題,人工智能的正常運行依賴于準確、高質量的信息。如果不具備這些特征,人工智能除了在訓練中出現錯誤外,還可能做出不正確或不恰當的決定。因此,必須掌握準確的最新數據,以確保人工智能的效率。其次,必須有足夠的基礎設施供其使用。換句話說,人工智能需要大功率的計算基礎設施和可靠的通信網絡才能良好運行。因此,要想在軍事決策過程中充分發揮人工智能的潛力,就必須對基礎設施進行投資。
另一方面,從道德角度來看,使用人工智能會引發重要的思考,例如它對受武裝沖突影響的戰斗人員、非戰斗人員和平民的生活會產生什么影響。因此,必須制定明確和透明的政策,規范在軍事情況下使用人工智能。在這方面,為確保在軍事領域有效使用人工智能,有必要明確以下幾個方面: 首先,必須制定明確透明的人工智能使用政策,并確保所有專家、人工智能操作員都接受過使用、監督和控制該技術的培訓。其次,必須確保提供有效使用人工智能所需的計算和通信基礎設施。這包括購置適當的設備和技術,以及建立安全可靠的通信網絡。因此,要充分利用人工智能在軍事決策中的潛力,就必須對基礎設施進行投資。
人工智能可提高收集信息的速度和準確性,并增強及時做出明智決策的能力,從而提高軍事行動的效力和效率。此外,使用人工智能還有助于減少人員傷亡和附帶損害,從而保護平民和限制軍事行動對非戰斗人員的負面影響。為了充分發揮人工智能在軍事領域的潛力,必須制定清晰透明的使用政策,優先培訓軍事人員使用人工智能,并與學術研究機構簽訂合作交流協議。這將有助于最大限度地降低在軍事行動中使用人工智能的風險,最大限度地提高其效益。在軍事領域的決策過程中使用人工智能的經驗,主要參與者是美國陸軍等,由于不斷競爭以加強其在世界上的存在,他們一直在加速發展這項技術。可以從中汲取重要的經驗教訓,以發展自己的人工智能,并闡明國防方面的需求,特別是在軍事決策過程中。總之,在決策過程中適當實施人工智能,可受益匪淺。這可以通過提供更快、更準確信息的自主系統來實現;也可以通過在模擬器中使用合成環境對指揮官進行決策培訓來實現;最后,還可以通過減少處理過程中的人為錯誤來實現。
參考來源:CEEEP
從規劃到執行,人工智能(AI)在軍事行動中發揮著越來越重要的作用。隨著技術的進步,將人工智能融入國防戰略已成為各國保持競爭優勢、確保國民安全和安保的關鍵所在。人工智能在軍事行動中的潛在應用非常廣泛,從加強決策過程到提高軍事系統的效率和效力,不一而足。
人工智能在軍事行動中的主要應用方式之一是分析大量數據。在當今的信息時代,兵力從衛星圖像、信號情報和社交媒體等各種來源生成和收集海量數據。人工分析這些數據是一個耗時耗力的過程,可能會延誤關鍵決策。而人工智能算法則能以更快的速度處理和分析這些數據,使軍事指揮官能夠根據實時信息做出更明智的決策。
除數據分析外,人工智能還被用于加強軍事行動的規劃和執行。例如,人工智能驅動的系統可以通過模擬各種場景和預測不同戰略的結果,幫助軍事戰略家制定更有效、更高效的作戰計劃。這樣,指揮官就能根據最準確的最新信息選擇最佳行動方案。此外,人工智能還可用于優化人員和裝備等資源的分配,確保以最有效的方式部署兵力。
人工智能在軍事行動中的另一個重要應用是開發自主系統。無人駕駛飛行器(UAVs)又稱無人機,由于能夠在不危及人類生命的情況下執行監視和偵察任務,已成為現代戰爭的主要裝備。人工智能技術有可能進一步提升這些能力,使無人機能夠自主運行,根據周圍環境和任務目標做出決策,而無需人工干預。這不僅能降低人類操作員的風險,還能更高效、更有效地利用這些資產。
此外,人工智能正被集成到各種軍事系統中,以提高其性能和能力。例如,人工智能驅動的算法可用于提高導彈防御系統的精確度和瞄準能力,增強其攔截和消除來襲威脅的效力。同樣,人工智能也可用于提高軍事通信系統的性能,確保信息在不同單位和指揮中心之間快速、安全地傳輸。
盡管人工智能為軍事行動帶來了諸多好處,但也存在一些需要解決的問題和挑戰。其中一個主要問題是在戰爭中使用人工智能所涉及的倫理問題,特別是當涉及到可以在沒有人類干預的情況下做出生死攸關決定的自主系統時。確保這些系統遵守國際法和道德標準對于防止潛在的濫用和意外后果至關重要。
另一個挑戰是對手惡意利用人工智能技術的風險。隨著人工智能變得越來越先進,越來越容易獲取,人們越來越擔心敵對行為體可能會利用人工智能開發出新的、更復雜的網絡戰形式,甚至制造出難以防御的人工智能武器。
總之,將人工智能融入軍事行動有可能徹底改變戰爭的打法和勝負。從加強決策過程到提高軍事系統的效率和效力,人工智能提供了眾多好處,可以幫助各國在日益復雜和不可預測的全球安全環境中保持競爭優勢。然而,必須解決與戰爭中的人工智能相關的倫理問題和潛在風險,以確保負責任地使用這項技術,并為更大的利益服務。
參考來源:TS2 space,作者:Marcin Fr?ckiewicz
無人機集群協同作戰的自主化、智能化是未來軍事指揮控制技術發展的重要趨勢, 為滿足日趨重視的集群應用需求, 提出了面向協同作戰任務的無人機集群自主決策技術概念與體系, 建立了無人機集群多任務的通信-決策-規劃-控制(communication, decision, planning, control;CDPC)自主決策框架. 根據通信拓撲結構建立了集中式、完全分布式和混合式的決策樣式, 在此基礎上, 分別建立了感性任務推理決策模型和理性任務推理決策模型, 探討了模型的求解框架以及關鍵技術解決途徑, 表示無人機集群任務決策對協同作戰的規劃和實施具有較好的指導意義.
2020 年 1 月, 中國科學院發布的 《2019 年人工 智能發展白皮書》中將“群體智能技術”列為八大人工 智能關鍵技術之一[1] , 隨著智能系統與復雜體系、感 知與判斷、分布式協同、人工智能和算法戰等理論 與技術的不斷發展與突破, 智能系統已呈現出無人 化、集群化和自主化等特征[2] . 無人機集群作為未來集 群智能系統的主要形式, 能夠實現單平臺行為決策、 多平臺任務協同, 具有集群涌現特性, 表現出了巨大 的應用前景. 無人機集群任務環境彈性大、態勢變化 快、傳感器信息不完全、通信結構不穩定, 是以決策 為主的對抗. 因此, 協同自主決策作為“感知-判斷決策-行動 (observation-orientation-decision-action, OODA)”環路循環中的關鍵技術引起了國內外廣泛 關注[3-5] . 無人機集群在復雜動態變化的環境下, 如何 根據不確定的態勢信息, 實施可解釋的自主決策推 理, 確定高效可靠的任務協同執行方式對保障集群 安全, 提升作戰效能至關重要.
按照系統科學的觀點[6] , 無人機集群系統多平臺 異構、任務需求眾多、輸入態勢變化、戰術目的復 雜、約束條件耦合, 為解決以上問題, 需要面向無人 機集群多任務設計自主決策規劃框架, 降低系統研 究的復雜性. 文獻[7]基于不確定攻防博弈態勢信息 搭建了無人機集群對抗博弈模型, 并設計博弈成本 函數計算最優策略;文獻[8]提出了一種多無人機分 布式智能自組織算法, 將集群偵察-打擊任務優化問 題分解為多個局部優化問題, 并通過集群與環境和 集群之間的信息交流實現全局優化決策;文獻[9]針 對區域偵察等典型集群任務, 采用深度學習方法構 建任務決策模型, 然后基于遺傳算法對決策模型進 行優化, 為集群實現離線學習和在線決策提供了有 效支撐, 然而現有成果從多任務角度出發, 對集群自 主決策問題進行研究相對較少.
對于集群系統協同作戰任務方面的研究, 主要 以任務規劃問題為主[10] , 此類問題大都是事先擬定好 了任務輸入類型和約束, 是一種有目標信息的多約 束優化問題. 然而對于集群如何獲得準確的任務目 標信息, 并根據態勢進行動態任務調整并沒有考慮, 此問題正是集群協同任務決策的研究重點. 現階段 無人機決策問題研究大都聚焦于空戰過程中的機動 動作決策[11-12] , 或者某個明確任務場景中的決策, 如集 群打擊任務等[13-14] , 沒有從集群協同作戰過程中戰術 戰略及任務的多樣性和復雜性方面開展自主決策研 究. 因此, 本文針對這個問題, 分析了集群任務自主 決策概念、任務定義與分類, 設計了自主決策的流 程;應用分層研究思想提出一種自主決策框架, 并根 據通信結構定義不同的決策模式;結合多種技術途徑 對無人機集群自主決策建模的體系結構和求解框架 進行了分析和探討.
以語音為中心的機器學習系統徹底改變了許多領先領域,從交通和醫療保健到教育和國防,深刻改變了人們的生活、工作和相互互動的方式。然而,最近的研究表明,許多以語音為中心的機器學習系統可能需要被認為更值得信任,以便更廣泛地部署。具體來說,在機器學習研究領域,人們都發現了對隱私泄露、判別性能和對抗性攻擊脆弱性的擔憂。為了應對上述挑戰和風險,人們做出了大量努力,以確保這些機器學習系統是值得信任的,特別是隱私、安全和公平。本文首次對與隱私、安全和公平相關的、以語音為中心的可信機器學習主題進行了全面的調研。除了作為研究界的總結報告外,本文指出了幾個有希望的未來研究方向,以激勵希望在該領域進一步探索的研究人員。 引言
在過去的幾年中,機器學習(ML),特別是深度學習,在各種研究領域和應用中取得了巨大的突破,包括自然語言處理(Devlin等人,2018)、圖像分類(He等人,2016)、視頻推薦(Davidson等人,2010)、醫療保健分析(Miotto等人,2018),甚至掌握國際象棋游戲(Silver等人,2016)。深度學習模型通常由多個處理層組成,并結合了線性和非線性操作。盡管訓練具有多層架構的深度學習模型需要積累大型數據集和訪問強大的計算基礎設施(Bengio等人,2021),但與傳統的建模方法相比,訓練后的模型通常達到最先進的(SOTA)性能。深度學習的廣泛成功還允許更深入地了解人類狀況(狀態、特征、行為、交互)和革命性的技術,以支持和增強人類體驗。除了ML在上述領域取得的成功,以語音為中心的ML也取得了重大進展。 言語是人類之間一種自然而突出的交流形式。它存在于人類生活的幾乎每一個層面,無論是與朋友聊天、與同事討論,還是與家人遠程通話。以語音為中心的機器學習的進步使Siri、谷歌Voice和Alexa等智能助手的普遍使用成為可能。此外,以語音為中心的建模在人類行為理解、人機界面(HCI) (Clark等人,2019)和社交媒體分析方面創造了許多研究主題。例如,一些廣泛研究的語音建模領域包括自動語音識別(Malik et al., 2021)、語音情感識別(Ak?ay和O?uz, 2020)、自動說話人確認(Irum和Salman, 2019)和關鍵詞識別(Warden, 2018)。
盡管ML系統有在廣泛的以語音為中心的應用中廣泛部署的前景,但在大多數這些系統中,兩個交織在一起的挑戰仍然沒有解決:理解和闡明跨人和環境的豐富多樣性,同時創建可信的ML技術,在所有環境中適用于每個人。信任是人類生活的基礎,無論是信任朋友、同事、家庭成員,還是像人工智能服務這樣的人工制品。傳統上,機器學習從業者,如研究人員和決策者,使用系統性能(如F1分數)來評估機器學習系統。雖然大量的研究都集中在提高機器學習模型的系統性能上,但確保機器學習應用是可信的仍然是一個具有挑戰性的課題。在過去的幾年中,我們見證了大量針對可信人工智能和機器學習的研究工作,本文的目標是對相關研究活動進行全面的回顧,重點以語音為中心的機器學習。
**ML中的可信性在不同的文獻中有不同的定義。**例如,Huang等人(2020)基于涉及認證過程和解釋過程實施的行業生產實踐規范描述了術語可信性。認證過程包括測試和驗證模塊,以檢測輸入數據中潛在的偽造或干擾。解釋是解釋機器學習為什么根據輸入數據做出特定決策的能力。此外,歐盟發布的《可信人工智能倫理準則》(Smuha, 2019)承認,要被認為是可信的人工智能系統,必須遵守法律和法規,堅持道德原則,并強大地運行。最近,Liu等人(2022b)從安全性、公平性、可解釋性、隱私、可問責性和環境友好方面總結了可信人工智能。同樣,我們的審查認為,可信的核心設計元素是魯棒性、可靠性、安全性、安全性、包容性和公平性。基于這些標準,本文從隱私、安全和公平的角度綜述了關于以語音為中心的可信機器學習的文獻,如圖1.1所示:
**隱私: **以語音為中心的ML系統嚴重依賴于收集來自、關于和針對潛在敏感環境和上下文中的人的語音數據,例如家庭、工作場所、醫院和學校。語音數據的收集經常引起人們對侵犯用戶隱私的嚴重擔憂,例如泄露人們可能希望保密的敏感信息(Liu等人,2021)。至關重要的是,要確保由個人共享或由ML系統收集的語音數據受到保護,免受任何不合理和未經授權的使用。
安全性: 在過去幾年中,研究人員發現機器學習系統普遍容易受到對抗性攻擊,這些攻擊旨在利用模型預測函數中的漏洞進行惡意的目的(Goodfellow等人,2014)。例如,通過對語音數據引入足夠小的擾動,惡意行為者可以導致關鍵詞檢測模型對所需的輸入語音命令進行錯誤分類。因此,一個可信的機器學習系統必須對惡意攻擊者可能故意更改的相同輸入輸出一致。
**公平性:**最近人們知道機器學習系統的行為可能不公平。機器學習系統為什么會虐待人是多方面的(Mehrabi等人,2021)。一個因素是社會方面,由于訓練數據或整個機器學習開發過程中的假設/決策中的社會偏見,機器學習系統產生有偏的輸出。導致人工智能不公平的另一個原因是數據集特征的不平衡,某些群體的數據樣本有限。因此,模型需要考慮某些人群的需求。同樣重要的是要注意,部署不公平的機器學習系統可能會放大社會偏見和數據不平衡問題。為了評估以語音為中心的機器學習系統的可信性,機器學習從業者需要評估機器學習模型是否對個人或群體表現出區分性。
**本文的其余部分組織如下。**第2節簡要總結了流行的以語音為中心的任務、數據集和SOTA建模框架。第3節全面討論了以語音為中心的機器學習系統中的安全考慮。第4節討論了語音建模中的隱私風險和防御。第5節回顧了語音建模任務中出現的公平性問題。第6節闡述了以語音為中心的可信機器學習的潛在發展和未來的挑戰。最后,第7節總結了本文的主要觀點。
具體而言,我們的貢獻總結如下:
據我們所知,這是第一個對設計可信的、以語音為中心建模的機器學習進行全面回顧的綜述工作。我們調研了大部分已經發表和預印本的工作,包括自動語音識別、語音情感識別、關鍵詞識別和自動說話人驗證。
創建了分類法,以系統地審查與以語音為中心的機器學習系統可信性相關的設計支柱。我們進一步比較了關于每個關鍵因素的各種文獻。
3.本文討論了設計以語音為中心的機器學習系統面臨的突出挑戰,這些系統面臨著與隱私、安全和公平相關的可信性考慮。在文獻綜述的基礎上,討論了有待解決的挑戰,并提出了幾個有希望的未來方向。
人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。
人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。
作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。
人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。
在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。
目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。
鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。
如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。
如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。
人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。
C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。
圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。
圖1. 海上人工智能系統的擬議架構
首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。
第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。
第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。
及時掌握有關作戰情況的信息,對于開展各種規模的軍事行動和人員培訓都是至關重要的。現有軍事指揮和控制系統的復雜程度僅限于可視化,主要使用戰術符號。信息和計算機技術的現狀允許通過應用 "增強現實 "在感知水平上實現質的飛躍。對等的信息技術通過在實時圖像上增加額外的、有意義的圖形和文字信息來增強認知能力。高性能移動設備的飽和和無線數字網絡對軍事活動的有力進入,使得該技術的使用有可能達到戰場上單個戰士的水平。在這篇文章中,作者思考了在執行戰術任務中應用增強現實可視化的特殊性,確定了整合視覺和文本信息的適當方法,提供了一個與增強現實應用的信息交互模型。他們提出了一個專門的移動應用程序的軟件架構,并介紹了其實際實施的結果。
【關鍵詞】增強現實,指揮與控制,移動應用
2018年國防部人工智能戰略將人工智能定義為機器執行通常需要人類智能的任務的能力。戰略和相關計劃包括了全面戰略的一些特點,但不是全部。例如,國防部的9個與人工智能相關的戰略和計劃并不包括與采用人工智能技術相關的資源、投資和風險的完整描述(見圖)。在未來與人工智能相關的戰略中,發布包括綜合戰略的所有特征的指導,可以幫助國防部更好地定位,幫助管理者確保對人工智能的問責和負責任的使用。
國防部已經開始識別并報告其人工智能活動,但其人工智能基線庫存存在局限性,如排除分類活動。國防部官員表示,這些限制將在AI庫存識別過程的后續階段得到解決。然而,國防部還沒有開發一個高層次的計劃或路線圖來捕獲所有的需求和里程碑。該計劃將為國防部提供一個高層次的、端到端對所有必要特征的視圖,以實現該計劃的目標,為國會和國防部決策者提供一個完整、準確的人工智能活動清單。
國防部組織在人工智能活動上進行合作,但可以更充分地納入領先的合作實踐。國防部使用了各種正式和非正式的合作機制,GAO之前的工作已經確定,如跨機構小組。國防部已經部分納入了領先的協作實踐,例如識別領導能力。然而,國防部官員告訴我們,他們正在制定指導方針和協議,明確定義參與人工智能活動的國防部組件的角色和職責。通過最終確定和發布這樣的指南,國防部可以幫助確保所有參與者對整個部門的AI工作的責任和決策達成一致。
人工智能在與人類生活息息相關的場景中自主決策時,正逐漸面臨法律或倫理的問題或風險.可信機器學習是建立安全人工智能系統的核心技術,是人工智能領域的熱門研究方向,而公平性是可信機器學習的重要考量.公平性旨在研究機器學習算法決策對個人或群體不存在因其固有或后天屬性所引起的偏見或偏愛.本文從公平表征、公平建模和公平決策三個角度出發,以典型案例中不公平問題及其危害為驅動,分析數據和算法中造成不公平的潛在原因,建立機器學習中的公平性抽象定義及其分類體系,進一步研究用于消除不公平的機制.可信機器學習中的公平性研究在人工智能多個領域中處于起步階段,如計算機視覺、自然語言處理、推薦系統、多智能體系統和聯邦學習等.建立具備公平決策能力的人工智能算法,是加速推廣人工智能落地的必要條件,且極具理論意義和應用價值.