本文討論了在軍事領域決策過程中使用人工智能(AI)的好處和注意事項。文章側重于三個主要方面:提供更快、更準確信息的能力,掌握情況和減少人為錯誤,以及在使用這種技術時必須考慮的技術和倫理因素。人工智能可以大大改善軍事領域的決策;然而,重要的是要反思與使用人工智能相關的倫理和技術影響。
關鍵詞 人工智能、情境領域、減少人為錯誤、合成環境、顛覆性技術、知情決策。
人工智能(AI)已成為包括軍事在內的各個領域的重要工具。人工智能的定義是開發計算機系統,使其能夠執行通常需要人類典型的理性智能才能完成的任務,包括識別語音、做出決策和解決問題。在軍事領域,人工智能可以通過實時處理有價值的信息,幫助指揮官更快、更準確地做出決策。然而,人工智能在軍事領域的應用也帶來了倫理和技術方面的挑戰,例如在隱私和數據安全等方面對人類的影響。必須了解人工智能在軍事領域的優勢和挑戰,才能有效、負責任地實施人工智能。從這個意義上說,人工智能的應用可以優化指揮官在戰場上及時做出明智決策的能力。此外,對大量信息的即時處理使人們有可能對全景有更全面的了解,這為預測突然變化和可能出現的風險提供了依據,而這些都需要掌握態勢。這也有助于減少個人失誤,擺脫每個人的局限性。不過,有必要考慮在對這一顛覆性技術進行管理時所涉及的倫理問題。
在軍事領域使用人工智能并非新概念。然而,在很短的時間內,它已成為一種日益重要和有用的工具。它能夠高速、準確地處理大量數據,并分析模式和趨勢,提供重要信息,幫助指揮員在發生危機時執行措施,而危機需要快速、有效的反應,這在完成任務可能受到影響的情況下非常有用。
此外,人工智能還能識別人類可能忽略的模式和趨勢,從而更好地進行數據分析。這樣就能更全面、更清晰地了解任何情況,使軍方能夠做出更明智的決策。人工智能還能將數據收集和分析等乏味的重復性任務自動化,從而騰出時間實施更相關的行動。
從這個意義上說,人工智能提供信息的速度和質量對軍事決策過程有著積極的影響。指揮官可以擁有一種工具,使他們在行動發展過程中更容易選擇并永久保持認知優勢。所謂 "認知優勢",是指在戰場上以最有效的方式利用信息和知識的能力。這意味著,人工智能可用于規劃過程、開展行動,甚至在任務完成后提供反饋并鞏固認知優勢。
同樣,在軍事行動規劃中,人工智能可以分析數據、生成情報,并提供需要優先處理的局勢變化信息以及可用資源和其他重要因素。在戰爭實施過程中,人工智能可以提供有關設備變化、通信流量和其他關鍵因素的實時數據。這一優勢將使指揮官有能力在不斷變化的情況下做出快速有效的決策,并確保其部署的資產始終處于有利地位。例如,某國開發了一套自主車輛系統,用于收集戰場信息,其目的是對信息進行處理,以便為決策提供準確的要素;它甚至可以在結果評估方面提供幫助。
據西點軍校現代戰爭研究所稱,人工智能的多任務特性使其可以通過與不同決策層的偵察、監視和情報集成手段的實時連接,用于收集和處理信息。人工智能能夠處理大量數據并從中學習,這意味著指揮官可以提高對態勢的掌控能力,減少危急情況下的人為錯誤。
一方面,人工智能可以實時處理信息,全面了解戰場態勢。此外,人工智能還能分析歷史數據和趨勢,在更短的時間內預測局勢并做出更準確的決策。同樣,如果與能夠以自身標準開展行動的自主手段銜接,就可以省去暫停行動的必要,從而有可能對對手保持持續的壓力。例如,人工智能可以分析敵人的行為模式并預測未來的動向,從而用于制定不確定性余地更小、細節更精確的應急計劃。
另一方面,在軍事決策過程中應用人工智能還能減少人為錯誤。從這個意義上說,由于軍事力量的應用所隱含的后果,指揮官的決策能力面臨著需要高度重視的情況。例如,法律方面的考慮,如尊重人權或保護自己的部隊,被證明是涉及道德的因素,最終會對指揮官產生壓力,并可能導致因疲勞、恐懼或缺乏經驗而做出錯誤的決定。在這種情況下,人工智能通過提供準確可靠的信息,有助于最大限度地減少這些錯誤。
此外,人工智能還可用于模擬合成環境中的情況,讓軍事人員在安全可控的環境中練習、積累經驗并提高技能。因此,美國陸軍正在利用人工智能的優勢培訓步兵單元指揮官,根據戰術形勢的變化--面對模擬對手--創建可變場景,對手的反饋和快速決策能力豐富了培訓經驗。這樣就能加強美國陸軍培訓的步兵指揮官的決策和掌握情況的能力。總之,在軍事決策過程中應用人工智能,可以讓負責任的指揮官提高對態勢的掌握能力,減少人為錯誤。
人工智能這一技術正越來越多地應用于軍事領域,目的是提高軍事行動的效力和效率。然而,人工智能的使用也帶來了一些重要的技術和倫理問題,必須認真加以解決。從這個意義上說,不應無視這一現實,也不應無視在使用這些技術時因其顛覆性而涉及的考慮因素。
從技術角度看,在軍事決策過程中使用人工智能有可能提供更快、更準確的信息,提高對態勢的認識,并降低人為錯誤的風險。然而,人工智能的使用也帶來了必須妥善解決的重大挑戰。首先是人工智能所使用數據的質量問題,人工智能的正常運行依賴于準確、高質量的信息。如果不具備這些特征,人工智能除了在訓練中出現錯誤外,還可能做出不正確或不恰當的決定。因此,必須掌握準確的最新數據,以確保人工智能的效率。其次,必須有足夠的基礎設施供其使用。換句話說,人工智能需要大功率的計算基礎設施和可靠的通信網絡才能良好運行。因此,要想在軍事決策過程中充分發揮人工智能的潛力,就必須對基礎設施進行投資。
另一方面,從道德角度來看,使用人工智能會引發重要的思考,例如它對受武裝沖突影響的戰斗人員、非戰斗人員和平民的生活會產生什么影響。因此,必須制定明確和透明的政策,規范在軍事情況下使用人工智能。在這方面,為確保在軍事領域有效使用人工智能,有必要明確以下幾個方面: 首先,必須制定明確透明的人工智能使用政策,并確保所有專家、人工智能操作員都接受過使用、監督和控制該技術的培訓。其次,必須確保提供有效使用人工智能所需的計算和通信基礎設施。這包括購置適當的設備和技術,以及建立安全可靠的通信網絡。因此,要充分利用人工智能在軍事決策中的潛力,就必須對基礎設施進行投資。
人工智能可提高收集信息的速度和準確性,并增強及時做出明智決策的能力,從而提高軍事行動的效力和效率。此外,使用人工智能還有助于減少人員傷亡和附帶損害,從而保護平民和限制軍事行動對非戰斗人員的負面影響。為了充分發揮人工智能在軍事領域的潛力,必須制定清晰透明的使用政策,優先培訓軍事人員使用人工智能,并與學術研究機構簽訂合作交流協議。這將有助于最大限度地降低在軍事行動中使用人工智能的風險,最大限度地提高其效益。在軍事領域的決策過程中使用人工智能的經驗,主要參與者是美國陸軍等,由于不斷競爭以加強其在世界上的存在,他們一直在加速發展這項技術。可以從中汲取重要的經驗教訓,以發展自己的人工智能,并闡明國防方面的需求,特別是在軍事決策過程中。總之,在決策過程中適當實施人工智能,可受益匪淺。這可以通過提供更快、更準確信息的自主系統來實現;也可以通過在模擬器中使用合成環境對指揮官進行決策培訓來實現;最后,還可以通過減少處理過程中的人為錯誤來實現。
參考來源:CEEEP
人工智能的不斷進步使軍事系統具有更高水平的自主性。隨著機器智能作用的擴大,人類與自主系統之間的有效合作將成為未來軍事行動中越來越重要的一個方面。成功的人機協作(HAT)需要對機器智能建立適當的信任度,而信任度會隨著人機協作發生的環境而變化。有關信任和自動化的大量文獻,以及關注軍事系統自主性的最新研究成果,構成了本研究的基礎。本研究考察了機器智能應用的三個一般類別中信任的各個方面。這些應用包括數據集成與分析、所有領域的自主系統以及決策支持應用。在每個類別中,與適當調整信任度有關的問題各不相同,信任度調整不當的后果和潛在的緩解措施也不盡相同。
縱觀歷史,技術在武裝沖突的演變中發揮了關鍵作用。技術加快了戰術交戰的節奏,拓寬了戰場的地理范圍,增加了指揮官與部隊溝通的手段,也改變了國家計劃和實施武裝沖突的方式。在二十一世紀,一組統稱為人工智能(AI)的技術似乎準備開創一個新時代,在這個時代,機器智能和自主性將為軍事行動的規劃和執行帶來全新的概念和程序。大量數據的不斷涌現激發了人們對信息的貪婪欲望,這就需要對信息進行快速、冷靜的分析,而人工智能恰恰能夠勝任這一角色。人工智能決策、改進的傳感器和敏捷的機器人技術的融合,將使新系統能夠獨立完成 "觀察-定向-決策-行動"(OODA)決策循環的所有階段。大量自主系統涌入戰場,基于算法的戰爭潛力將逐漸增強甚至取代人類在部分或全部步驟中的決策過程,其速度可能超過人類規劃者的認知戰能力。
目前,從通信設備、傳感器到防空系統,算法為一系列軍事系統做出了貢獻。在許多方面,現代軍事力量已經依賴于某些形式的人工智能。然而,機器智能的未來應用將帶來一種新的能力--一種非人類的協作伙伴,能夠在戰場環境不斷變化的背景下做出積極主動的 "決策"。這種能力的內在優勢只有在人類能夠自如地依賴人工智能的情況下才能實現--人工智能不僅是一種工具,而且是團隊中的一員。因此,本文將重點討論人機協作(HAT)的一個具體方面:建立對機器智能的適當信任度。已有大量學術文獻關注自動化或機器人技術在商業應用中的信任問題,但專門針對軍事應用的學術研究卻不多。本文將特別探討利用人工智能的自主系統是如何在不同的軍事環境中使用的,以及這些不同的環境是如何影響信任度的。
本文的基本論點有三個方面。首先,為軍事用途開發的人工智能技術分為三大類,貫穿戰爭的戰術、戰役和戰略層面:用于數據整合與分析的算法解決方案、利用機器智能的自主系統以及輔助人類決策的支持軟件。其次,認為人工智能在軍事行動中的普及必然會導致人類與智能機器之間更多的互動。軍事行動將越來越依賴于安全有效的人機協作,而這反過來又依賴于人類不斷評估并給予智能機器適當程度的信任--即信任校準。與適當的信任校準有關的問題在這三個類別中各不相同,信任失調的影響也各不相同。第三,因此,確保與人工智能的最佳人機合作將取決于識別每個類別中的潛在信任問題,并設計適當的技術或理論調整來解決這些問題。在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,探討了信任和信任校準的概念,然后分析了在三個類別中鼓勵適當信任度的陷阱和可能性。
幾十年來,人類一直醉心于為機器注入某種形式的人工智能的可能性。尼爾斯-尼爾森將人工智能定義為 "致力于使機器智能化的活動,而智能是指使實體在其環境中適當地、有預見性地發揮作用的品質"。在數字時代的初期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析特定的數據集。對于具有可預測規則的明確環境(如分析實驗室結果或下棋等應用),專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法質量。另一大類則采用自下而上的機器學習方法,仿效人類通過檢測數據中的模式進行學習的方式。神經網絡是一種受人腦啟發的機器學習方式,它能利用多層(因此是 "深層")人工神經元識別復雜模式,這種技術是 "深度學習 "方法的基礎。這種方法能夠發現數據集中的關系,因此也被稱為 "連接主義"。
自上而下、基于規則的符號系統與自下而上的機器學習聯結主義技術之間存在很大差異,尤其是在應用的潛在范圍和靈活性方面。深度學習方法的顯著特點是能夠將學習與訓練所依據的數據集分離開來,因此該方法可應用于其他類似問題。基于規則的算法在狹義的任務中表現極為出色,而深度學習方法則能夠迅速找到模式,并在專家系統計算方法效果較差的應用中“自學成才”。最近的一些人工智能進展表明,它們有能力模仿創造力,或產生新穎的解決問題的方法,而這些在人類看來可能是違反直覺的。例如,帶有人工智能導航控制的高空氣球發現了利用風型的最佳和意想不到的技術,或者利用人工智能開發出更有效的增材制造機器部件設計。
不過,一般來說,人工智能的范圍仍然很窄,或者說 "很脆弱",因為它們在特定的應用中運作良好,但在其他應用中仍然缺乏靈活性。與人類相比,由于機器的計算速度遠遠超過人腦,因此在對數據集應用邏輯規則時,機器智能要優越得多,但在嘗試歸納推理時,機器智能必須對數據集或環境進行一般性觀察,因此就顯得力不從心。大多數機器學習仍然需要大量的訓練數據,盡管包括自監督學習、生成模擬數據的技術(如使用生成式對抗網絡(GAN))和 "少樣本學習"(LO-shot learning)在內的新方法正在出現,這些方法需要非常小的數據集。圖像識別算法很容易混淆,無法像人類那樣立即或直觀地解釋環境背景。這種脆性還延伸到游戲等其他問題上。雖然人工智能在視頻游戲中經常表現出超人的能力,但它們往往無法將這種專長轉移到具有類似規則或游戲機制的新游戲中。
雖然人工智能技術在提高適應性方面不斷取得重大進展,但接近人類的人工通用智能仍然遙不可及。這部分是由于我們對人類處理信息時所涉及的生物學和化學--也就是通常所說的人類認知--的掌握令人驚訝地有限。神經科學家仍不完全了解大腦是如何運作的,這限制了以生物過程為基礎模擬數字過程的努力。因此,深度學習等人工智能技術與認知神經科學建立了共生互利的關系。人工智能技術的漸進式發展使評估人工智能的近期前景變得更加復雜。深度學習方法的成功在很大程度上助長了對人工智能的炒作,導致人們對該技術的未來抱有不切實際的期望,并將其巨大進步正常化。有人將此稱為 "人工智能效應"。一份報告指出:"人工智能將一項新技術帶入大眾,人們對這項技術習以為常,它不再被視為人工智能,而更新的技術出現了。" 一些人猜測,機器學習技術帶來的進步可能會趨于平緩,而另一些人則保持樂觀。一些人認為,將符號人工智能方法與各種形式的機器學習相結合的嘗試很有潛力。因此,近期前景仍不明朗。相關的技術進步,包括短期的計算機芯片設計和長期的量子計算,也可能影響人工智能進一步發展的步伐。
不過,對于許多軍事應用來說,狹義的人工智能應用已經綽綽有余。全球各國軍隊已在使用的許多算法解決方案都可被視為 "人工智能",而且不乏對人工智能用途的建議。人工智能可能帶來的軍事能力,是克里斯蒂安-布羅斯等分析家和羅伯特-沃克等前國防官員所設想的截然不同的未來作戰環境的一部分。如果這些關于人工智能影響的預測成真,它們將對行動的規劃和實施產生廣泛影響。現有和不久將來的應用可分為三類:數據整合與分析、自主系統和決策支持軟件。與大多數類型一樣,這些類別的邊緣并不完全清晰,有些應用跨越了多個標簽。但值得注意的是,從數據分析到自主系統,再到最終的決策支持應用,在軍事背景下利用人工智能的潛在后果--以及由此帶來的信任度不高的風險--都在增加。此外,在軍事力量結構中整合自主系統也會產生累積效應。信任人工智能來處理傳感器數據是允許自主系統與人類人員并肩作戰的必要步驟,而未來在戰役層面由人工智能支持的決策將需要更多一層的信任,這種信任關系建立在將自主系統投入實戰的軍事單元之間的人類-自主團隊合作所注入的信任關系之上。
在各種能力和平臺的運行中使用人工智能,普通用戶往往不會注意到,原因很簡單,因為人工智能在系統架構中發揮著綜合作用。這方面的例子包括民用衛星導航、互聯網搜索引擎或在線翻譯工具。軍事應用包括利用機器學習算法優化電磁頻譜使用的無線通信或雷達。對于無人駕駛或遙控飛機,機載算法允許傳感器獨立進行初步數據分析,從而減少帶寬需求。算法已經在一系列系統和平臺的傳感器數據分析中發揮了作用。
除了這些綜合應用外,有意識地積極使用人工智能進行數據分析還延伸到了情報、監視和偵察(ISR)工作中。正如詹姆斯-約翰遜(James Johnson)所指出的那樣,機器學習算法 "可以顯著改善現有的機器視覺和其他信號處理應用,從大量的信號和圖像數據集中識別模式,并增強自主性和傳感器融合應用"。美國空軍于2017年成立了算法跨職能小組,將人工智能應用于圖像分析,努力識別和跟蹤目標,并建立生活模式以提高態勢感知能力。在網絡空間,模式識別算法同樣可以確定網絡的正常運行模式,從而更容易識別可能預示著入侵者存在的偏差。利用人工智能進行公開來源情報(OSINT)分析可以識別個人,甚至對叛亂活動做出粗略的近期預測。全球信息主導實驗(GIDE)等實驗性人工智能應用軟件可從海量多源數據中篩選出模式和趨勢,從而對一系列未來事件做出預測。
人工智能的第二類應用包括范圍廣泛的自主系統。自主是一個仍然難以準確或簡明定義的術語。聯合空中力量能力中心(JAPCC)在2016年的一份報告中對自動化與完全自主系統進行了區分,前者涉及機器執行人類設定的可預測、有界限的預定任務。作者將自主系統描述為:能夠決定自己的行動方針、不受預編程反應限制的深思熟慮的決策、具有學習和積累 "經驗 "的能力,因此其行動不再是完全可預測的。保羅-沙雷(Paul Scharre)和邁克爾-霍洛維茨(Michael Horowitz)在 2015 年的一篇論文中描述了自主性的三個維度: (a) 人機指揮和控制關系,通過確定人類是 "參與"、"開啟 "還是 "退出 "決策環路來簡化;(b) 機器或系統的復雜性和能力;以及 (c) 自動化功能的類型。
在人工智能方面,值得注意的是,自動化系統與自主系統之間的區別變得模糊。機器智能與實現自主系統的許多自動化功能高度相關,包括系統操作和自我診斷、自動駕駛儀、作戰軟件和目標跟蹤/識別以及自導武器。因此,"自主性 "描述的是一種獨立機器功能的滑動尺度,其中包含一系列變量,包括人機交互的程度、獨立感知和適應環境變化的能力、完成一系列預定目標的決策能力,以及不斷學習和改進這些決策的能力。
不那么嚴格的自主定義可能包括當前的軍事資產,如防空和導彈防御系統、反火箭或火炮系統、地面車輛主動防護系統、閑逛彈藥、先進巡航導彈和賽博能力。雖然目前大多數作戰領域都部署了自主系統,但下一代自主系統將利用人工智能實現更大程度的獨立,不受人類指揮的影響。目前正在開發的空間、海上、空中和地面平臺與系統,正如聯合咨詢理事會報告所概述的那樣,代表著一種質的演變,從戰術指揮官可利用的工具轉變為人類必須與之互動和合作的伙伴。
自主飛機不久將執行后勤任務,如運輸貨物或加油任務。俗稱 "忠誠僚機 "計劃的新作戰概念設想了與駕駛飛機并肩作戰的大型無人平臺,從而為傳感器聯網或增加彈藥提供了更多選擇,從而提高了戰術靈活性。自主艦艇將為海上指揮官提供類似的海上作戰能力,地面系統目前也在開發之中。新的制造工藝將降低生產成本,同時降低對可擴展人工智能軟件的尺寸、重量和功率要求。這將有可能部署大量的小型無人系統,這些系統將以蜂群編隊的形式進行控制和協調,并配備作戰管理和目標瞄準軟件,這些軟件可以快速上傳和更新,只需敲擊幾下鍵盤就能對系統進行有效的 "再訓練"。因此,自主系統有望增加戰場上平臺的總體數量。
軍事指揮官在決策過程中已經依賴于機器智能,從算法推導的附帶損害估計,到防空和導彈防御系統的目標定位解決方案,不一而足。對于一系列系統而言,計算機生成的數據分析增強了對態勢的認識,并為作戰人員提供了選擇。未來的決策輔助工具可能會帶來進一步的發展。與目前耗時的作戰計劃模式相比,史蒂文-戴維斯認為,"當面對許多僅僅是合適、可行或完整的方案時,人工智能可以引導決策者找到最佳解決方案"。大量使用人工智能決策軟件的自主武器系統的引入可能會影響戰爭的作戰層面,特別是軍事行動的指揮與控制(C2)方面。
這個現在很常見的術語出現在 20 世紀 60 年代剛剛興起的信息技術時代,用來區分指揮的權力和責任,以及為指揮官控制行動的實施和執行創造必要條件的過程。雖然上級指揮官和政治領導人觀察特定戰術交戰已成為司空見慣的事,但如果部署了自主系統,作戰層面可能最適合由人類 "參與"。即使有了自動同步的水面艦艇或航空系統艦隊,仍需要以人為中心協調更廣泛的作戰行動。然而,在這種情況下,作戰計劃和協調可能需要人工智能的協助,以便保持有利和有效的戰斗節奏。
這就是所謂 "以決策為中心 "的作戰概念背后的動機。美國國防部高級研究計劃局(DARPA)提出的 "馬賽克戰爭"(Mosaic Warfare)概念,就是利用人工智能來協調分布式的部隊網絡。該概念提出了一種由人工指揮和機器控制的混合 C2 配置。指揮官根據人工智能對現有有人和無人部隊的概述,從人工智能生成的行動方案(COA)中選擇需要完成的任務。戴維斯概述的另一種方法是利用海上決策支持架構,中間層的人工智能基于保護、維持或火力等作戰功能。鑒于基于機器的快速決策所具有的明顯優勢,整合人工智能和自主系統的概念是一種合乎邏輯的進步,盡管這種進步雄心勃勃。當互聯的作戰空間允許不同但相互關聯的網絡進行數據融合時,這一點尤其適用。大量的可用信息可能會導致對機器智能的依賴,原因很簡單,因為需要機器認知來理解這些數據,并以有利的方式及時采取行動。
從傳感器數據到武器系統再到作戰決策支持,機器智能在軍事行動各個領域的預期作用表明,人們對人工智能的依賴程度越來越高。例如,北大西洋公約組織(NATO)倡議下的一份專家組報告建議,該軍事聯盟 "應鼓勵將人工智能納入戰略和行動規劃。它應利用人工智能驅動技術的力量,加強情景規劃演習和長期備戰。美國海軍最近發布的智能自主系統政策等官方聲明和出版物強調,信任是依賴的重要組成部分,其中包括人類應如何以及何時信任機器等問題。隨著機器智能越來越能勝任日益復雜的認知功能,并不斷磨練其獨立運作的能力,人類將需要把人工智能和自主系統視為合作伙伴,就像看待工具一樣。與任何伙伴關系類似,信任是人機有效合作的關鍵。
信任是許多概念中的一個,最初看起來很直觀,但深入研究后會發現變得更加復雜。在過去的幾十年里,信任出現了多種定義和概念,這并不奇怪。一篇頗具影響力的文章的作者在回顧了為信任下定義的各種嘗試后得出結論:"這些定義凸顯了在信任是一種信念、態度、意圖還是行為方面存在的一些重要的不一致之處。這些區別具有重要的理論意義"。梅耶等人(1995 年)提出的一個流行定義認為,信任是 "一方基于對另一方將采取對信任者很重要的特定行動的預期,愿意受另一方行動的影響,而不管是否有能力監督或控制該方"。信任的最新簡化定義是 "在以不確定性和脆弱性為特征的情況下,認為智能體將幫助實現個人目標的態度"。脆弱性和風險的存在是信任的重要組成部分,因為它為錯誤的信任帶來了潛在的代價。
雖然人機協作的基本要素與人際關系不同,但許多基本要素具有可比性。Keng Siau 和 Weiyu Wang 指出,信任是動態的,通常是通過雙向互動逐步建立起來的,但也會受到最初印象的強烈影響。一些學者認為,信任的產生最初是通過對未來行為的可預測性,然后通過建立可依賴性的一貫行為反復確認,最后演變成一種類似于信仰的對可靠性的廣泛判斷。
影響自動化信任度的有三個類似因素。自動化過去和當前的表現,以及系統實際工作的信息,都與可預測性相似。有關自動化設計的細節,以及它是否能實現操作員設定的目標,可以揭示系統如何運行的相關有用信息,從而激發與可依賴性相同的動力。最后,自動化背后的目的或原理,以及自動化的使用是否符合設計者的意圖,具有類似于信仰的抽象傳遞性(相信設計者的意圖,因此相信自動化)。
在許多學者看來,在這一點上,人與人之間的關系和人類對機器的信任開始有所不同。人們通常會對陌生人持懷疑態度,并如上所述逐漸建立信任,而人類則通常會在最初基于信仰的基礎上期望機器能完美工作。當出現錯誤時,這種最初的信任會迅速消失,但信任最終會被可預測性和可靠性這些更持久的品質所取代。凱文-霍夫(Kevin Hoff)和馬蘇達-巴希爾(Masooda Bashir)在 2015 年對有關信任和自動化的學術文章進行了全面調查,并建立了一個由三部分組成的信任模型,該模型以對機器的初始信任(處置性信任)為起點,并加入了背景(情景信任)和經驗(習得性信任)。
他們認為,對自動化的傾向性信任是三者中最穩定的,受文化、年齡、性別和個性特征的影響最大。這些變量中的大多數都有明顯的影響,但傾向性并不明顯。文化(可定義為 "反映共同教育和生活經歷的一系列社會規范和期望")的作用是一個特別突出的因素。專業背景或技術培訓是影響個人如何對待自動化的一種文化差異。對權力和權威的態度,甚至是對個人或集體利益平衡的看法,也會產生影響。一項針對冰島、芬蘭和瑞典客戶對電子商務服務信任度的研究顯示,在傾向性信任方面存在顯著差異,芬蘭客戶的懷疑程度最高,而冰島客戶的信任程度最高。
除了性格信任的初始影響外,情境信任是該模型的第二個組成部分,在培養自動化信任方面發揮著重要作用。情境因素可能包括外部變量,如系統復雜性、影響自動化監控的操作員工作量、影響自動化風險和效益的環境因素或組織結構。被視為人類操作員 "內部 "的相關情景信任因素可能包括自信心、自動化領域的主題專業知識、操作員的專注能力(受壓力、睡眠、無聊、內部動機的影響),甚至是積極的情緒--這與自動化的初始信任水平較高有關。
該模型的第三個也是最后一個組成部分是 "習得信任",它包含與自動化信任相關的一系列變量。操作員通常對自動化已有一定的了解,無論是來自其他自動化系統的先前經驗,還是基于相關自動化的聲譽。甚至在操作員與系統互動之前,對自動化的期望和對其性能的二手了解就會影響信任度。最初的交互首先會受到自動化系統設計特點的影響:其外觀、易用性、通信模式和透明度。與人機界面有關的設計選擇,如顯示屏布局或語音命令類型,在激發信任方面可發揮重要作用。一旦通過先前的經驗或系統本身的設計特點建立了最初的信任度,操作員就會不斷動態地衡量自己的信任度。這可能取決于可靠性、可預測性、系統實用性以及錯誤發生的時間和方式(包括如何提醒操作員)等因素。
人們一直致力于在人類與自動化系統之間建立信任,但過去的經驗表明,過度信任也會帶來問題。與自動化 "過度信任 "或濫用相關的最常見傾向包括自滿情緒和自動化偏見。操作員在監督基本可靠的自動化系統時往往會產生自滿情緒,從而降低對日常監控的警惕性,并認為系統運行正常--這一點不足為奇。與此相關的一個問題是自動化偏差,即人類操作員未能對自動化故障做出反應,或按照自動化建議做出錯誤決定。一項研究得出結論,使用計算機生成的除冰程序建議系統的飛行員,只要計算機提供的建議正確,其表現就會優于沒有該輔助系統的飛行員,但如果建議不正確,其表現就會更差。在另一項研究中,隨著自動化水平的提高,負責戰斧巡航導彈飛行中重新瞄準的操作員似乎更容易接受自動化建議,這表明存在自動化偏差。
自動化偏差似乎是造成一些商用飛機災難的原因,包括 2009 年法國航空 447 號航班的失事。資深記者威廉-蘭格維什(William Langewiesche)在 2014 年根據從飛機飛行記錄器中恢復的駕駛艙機組人員對話撰寫的一篇關于空難的詳細文章中,將自動化作為一個促成因素。Langewiesche 認為,飛行員已經習慣于依賴自動飛行輔助設備,而故障空速指示器的誤導信息造成了不確定性,使他們無法理解飛機的實際情況。這導致了一連串錯誤的決定,以及屢次未能做出適當--回想起來相對簡單--的調整,而這些調整本可以避免悲劇的發生。他簡明扼要地總結道:"自動化使得普通的航空公司飛行員越來越不可能在飛行中面臨原始的危機--但同時也使得他們越來越不可能在危機出現時能夠應對這種危機"。
開發人員通常不會專注于如何提高人類對自動化系統的信任度,而是努力激發與系統能力相關的校準信任度。信任校準簡單地描述了這樣一個過程:人類與機器自動化或機器智能的交互努力達到一種理想狀態,在這種狀態下,人類根據機器智能的優缺點對其給予適當的信任。以適當校準的信任度為目標,過度信任可以理解為超出系統能力的信任,而不信任則描述了與之相反的情況,即操作員對系統的信任程度低于其能力要求。實現適當的信任度調整聽起來很簡單,但往往會因人類的正常反應而變得復雜。如上所述,操作員在使用系統,尤其是機器智能系統時,通常對其性能有很高的期望。當錯誤發生時,人類操作員往往會過度修正自己的信任度,將期望值降低到低于系統能力的水平--從而直接從過度信任過渡到不信任。
過去幾十年來,對人機協作的大部分研究都集中在自動化系統上。一個幾乎沒有明確答案的基本問題是,自動化系統與自主系統在多大程度上存在差異。前面提到的區別是僵化的、預先確定的和可預測的自動化任務與不受約束的、動態的和不可預測的自主性之間的區別。最近一篇關于人類自主團隊的調查文章指出:"兩者之間的劃分是一個程度問題,差異是一個移動的目標......在哪一點上,自動化可能更適合描述為自主,這是一個開放的問題"。
因此,在實踐中,這種區分更多的是分級的,也許更好理解為一個連續體,一端是自動化功能,另一端是自主功能。即使是這種分級方法,其效用也是有限的。一旦我們對自主功能的性能和可靠性越來越滿意,就會逐漸將其視為更類似于自動化的功能。為了進一步細化,自主系統甚至可能具有自動化功能。由人工智能支持的自主網絡防御系統可以獨立行動,以不可預測和無腳本的方式處理威脅,但網絡防御系統本身可能被認為是自動化的。
希瑟-羅夫(Heather Roff)和戴維-丹克斯(David Danks)在一篇發人深省的文章中論述了自主武器系統中的信任問題,他們對類似的二元論態度提出質疑,將自主系統分為兩種:一種是工具,"在這種情況下,行為的可靠性和可預測性足以'信任'系統";另一種是 "具有價值觀和偏好的道德主體,在這種情況下,'信任'的門檻將大大提高"。同樣,托馬斯-奧尼爾(Thomas O'Neill)等人提出了基于計算機的 "自主智能體"(autonomous agents)概念,即 "代表團隊中獨特角色的獨特實體,否則這些角色就必須由人類來擔任"。雖然羅夫和丹克斯對道德代理與工具的二元概念并不認同,但這種區分在概念化信任自動化與信任自主性之間的差異方面還是有一定價值的。自主智能體并不是簡單地在特定情況下執行預先設定的行動,而是在更大程度上依賴于某種類似于判斷的東西。對這種判斷的信任,結合了與自動化系統性能有關的傾向性信任和情境信任,以及對過程和目的的更多關注,這就需要對智能體的價值觀和偏好有更深入的了解。
只要人類操作員對所操作的系統有適當的信任度,機器智能提供新能力和提高現有能力的潛力就能成為軍事行動的一個重要因素。正如霍夫和巴希爾所言,"就像在人際關系中一樣,信任在決定人類是否愿意在不確定的情況下依賴自動化系統方面起著主導作用"。在聯盟或聯軍行動中,如果一些成員國在人機協作方面已經建立了良好的校準關系,而另一些成員國則沒有,那么就會出現互操作性問題。信任校準并不一定能傳遞給不同文化背景的人員。然而,即使在每個國家的軍隊內部,信任校準問題也可能因機器智能所執行的上述三類任務(數據整合與分析、自主武器系統和決策支持)而有所不同。
對于許多軍事應用而言,機器智能所扮演的角色已經完全融入系統架構,甚至可能無法察覺。這些應用包括自動語言翻譯工具、由人工智能引導的通信設備頻率選擇、整合傳感器數據為平臺操作員創建戰場整體視圖,或由智能數字實體監控計算機網絡以發現入侵跡象。對于這些類型的功能,人工智能正在做出 "選擇 "并影響人類操作員對態勢的理解,這反過來又會對認知和人類決策產生影響。這種機器智能的使用更符合自動化系統的定義。因此,信任校準問題更為人所熟知,研究也更為深入。
一個直接而明顯的問題是,大多數操作人員可能會對這類系統給予高度的處置性信任或初始信任,甚至可能沒有意識到人工智能對信息環境的塑造程度。軍事應用中適當的信任校準可能涉及人機界面的設計特點,既能激發信任,又能提供足夠的透明度,特別是在機器智能據以得出結論的數據的穩健性方面。一項研究建議,智能體應具備評估自身自信心的能力,包括自身知識庫的不確定性、自身運行狀態的不確定性以及推理過程的不確定性。當然,這也會受到與決策過程本身相同的弱點的影響,但可以對人類的自動化偏差傾向進行有益的糾正。
人類操作員依賴機器智能進行態勢感知所面臨的另一個挑戰是時間性的。在未來的沖突中,可用于做出決策的時間可能會被嚴重壓縮,從而促使對機器認知的依賴。當被迫迅速采取行動時,人類可能會選擇不分析智能體的自信水平,或在做出時間緊迫的決策時嚴格評估人工智能生成的數據。在某些領域,其他傳感器可能會提供有用的輔助驗證來源,而人類在其他情況下可能會完全依賴機器智能提供的信息。網絡領域的人工智能工具是數據分析和自主系統之間的復雜混合體,因為機器智能可以監控網絡以防止潛在的入侵,并使進攻性網絡武器能夠分析和規避對手的智能防御。對這些工具進行獨立驗證以確保充分的態勢感知可能具有挑戰性,特別是考慮到作戰時間的限制。
與物理世界中的自主系統--無論是地面 "packbot "系統、無人駕駛加油機、自主水面艦艇還是自主武器系統--的交互涉及與上述算法實體相同的問題,但也涉及人類自主團隊合作的其他獨特和具有挑戰性的方面。這些系統更真實地體現了在團隊中扮演特定角色的智能體,通常從人際交互(HAI)的角度進行討論。因此,成功的人際團隊合作的特征具有更大的相關性,包括強有力的溝通、有關意圖和動機的共享心理模型,以及可預測和協作行動的能力。
在美國國防部自主研究試點計劃的支持下進行的一項研究考察了一個軍事單元與其自主 "packbot "小隊成員之間的互動,發現顯示機器人意圖和邏輯的數據加強了信任的一些基本基礎,如態勢感知和理解。隨著操作員對智能體的使用越來越熟練,經驗越來越豐富,這種透明度可以增強學習信任。有許多透明模式是可能的,包括交流智能體的意圖和目標結構,或其對任務的理解;側重于智能體內部運作和算法的分析模型;交流智能體對外部環境的理解;或強調團隊內部分工的團隊合作模式。
透明度是加強人類-自主團隊合作的一個潛在設計特征。與機器界面相關的工程細節可以在激發信任與鼓勵過度信任之間取得適當平衡。自然語言處理和合成語音技術已經取得了長足進步,實現了人類與機器人之間的對話交流,提高了透明度和信任度。將人類特征賦予智能體是一種自然的心理現象,可以加強合作,但擬人化也可能產生負面影響,包括對爆炸物處理機器人產生不幸的情感依戀,或因類似人類的語言模式而鼓勵對智能體的過度信任。
在人類與智能體的最初互動中,傾向性信任可能影響最大。例如,澳大利亞的一項研究認為,軍人對自主武器系統持有根深蒂固的懷疑態度。然而,隨著時間的推移,實現適當的信任校準可能主要取決于情景信任和學習信任。在高風險情況下,是依靠機器智能,還是將關鍵任務留給其他人,即使這一選擇并不理想,人類的判斷最終可能是高度個人化的。與人類團隊合作一樣,這種決定往往基于以往類似情況下的經驗,這表明與智能體一起進行綜合培訓練習可以成為信任校準的重要組成部分。與自主系統一起進行培訓被認為是鼓勵信任人類自主團隊合作的合理步驟,而且還能提供額外的人工智能培訓數據。Roff 和 Danks 提醒說,訓練的環境也可能會產生影響,并強調了基礎訓練等低風險環境與模擬戰場環境的更高級演習之間的差異。此外,他們還建議在每個單元內創建一個自主智能體 "聯絡官",與系統密切合作,了解其邏輯、動機和流程,從而利用信任的傳遞屬性。這樣,單元其余成員的信任校準可能會更容易通過聯絡官傳達,不過這種方法也有其局限性。
上文討論的與有效的人類自主團隊合作有關的問題將對次戰術和戰術層面產生直接影響,但在戰場上部署自主系統可能也會帶來作戰層面的調整。更多獨立運行的自主平臺--以及以機器速度進行的戰術決策--將給人類認知帶來挑戰,并可能成為破壞對手決策循環的限制因素。考慮到對手可能在多個領域構成的威脅,以及充分、迅速地做出反應所需的信息量,一位美國軍事領導人得出結論說,如果沒有機器智能管理數據的幫助,"二十世紀的指揮官將無法在這種環境中生存"。機器智能在作戰層面的應用很可能是累積性的,它融合了前兩節討論的信任帶來的好處和風險,并增加了另一層復雜性。
在作戰層面利用機器智能提供決策支持,與戰術層面的數據分析有明顯的相似之處,特別是容易出現自動化偏差,以及容易忽視人工智能有時微妙的決策效果。此外,潛在的自主武器或平臺協調群(甚至可能是蜂群)的增加也給現有的 C2 程序(如聯合瞄準)帶來了新的挑戰,這些程序本身可能需要在節奏更快、動態性更強的環境中實現自動化。對于作戰規劃人員來說,人機信任因素成為評估作戰單元準備狀態和效能的又一因素。以決策為中心的戰爭概念將人工智能直接納入指揮與控制結構,可能是自主性最引人注目的應用。隨著持續新聞報道和社交媒體的出現,人們對戰術決策失誤可能產生的戰略影響的認識變得更加深刻。在軍事領域,人類自主團隊合作的一個重要部分是考慮自主智能體是否有能力在意識到沖突的戰略和政治背景的情況下,以及在國際武裝沖突法的法律框架內采取行動。隨著人工智能輔助的信息流和對自主平臺群的自主控制與自主代理在戰術層面的行動后果相結合,這種考慮在作戰層面變得大大放大。由于決策時間被壓縮、確認偏差以及機器學習的臨床成本效益獎勵制度,機器智能和自主系統可能導致沖突升級,因此這一點尤其值得關注。
信任是一種發生在不確定性和風險情況下的現象。機器智能有可能通過減少處于危險中的人員和改進信息處理以增強態勢感知來緩解作戰計劃和控制的這兩個方面。正如最近一篇文章所指出的,用于算法戰爭的人工智能必須保持靈活性并降低作戰復雜性,包括 "獨立制定和裁定行動方案 "的能力。信任機器智能體作為 "環路中 "的道德代理人來規劃和批準具體的作戰行動,這涉及到讓自主代理人適當評估戰術決策的充分舒適度,而這本身就涉及到某種基于機器的 "信任"。正如戴維斯所言,在作戰層面,基于人工智能的決策支持架構 "將充當一個受信任的智能體,濃縮指揮官負責的信息量"。現有研究表明,監督或管理自主智能體的操作人員應獲得盡可能多的態勢數據,特別是一些研究表明,隨著自主智能體數量的增加,態勢感知能力也會下降。對于作為 "環路 "上的人而管理智能體的指揮官來說,加強對態勢的了解已被證明比簡單地提供供操作員選擇的選項更有效。
另一個可能出現的與信任和機器智能有關的問題是信任和戰術優勢的矛盾性。現有研究表明,在類似情況下可預測的行為會產生信任,但如果對手擁有類似的數據分析工具并能預測算法模式,這種可預測性就可能成為戰場上的弱點。只需觀察幾次智能體的算法戰術和行為,就可能預測到它們的行動,從而予以反擊。當然,可以在智能體的行為中加入適應性,避免在空戰中重復相同的動作,但這種缺乏可預測性的情況將使人類與自主體之間的信任更具挑戰性,無論這種信任在戰術意義上如何有利。此外,對手可能會干擾自己的訓練數據或算法,這仍然是一個令人擔憂的問題,也是人們持懷疑態度的正當理由。
這些戰術和戰役層面的問題會造成一系列戰略困境。時間限制可能迫使人類操作員將決策過程的重要環節讓給智能體,以獲得對對手的優勢。在美國陸軍進行的虛擬實驗中,人類傾向于對其無人機群進行微觀管理,由于人類認知速度較慢,一直被人工智能控制的單元擊敗。這種態勢很可能會鼓勵操作人員為了權宜之計而放棄對智能體的可信度進行冷靜評估。人類在決策中的認知能力逐漸降低,可能會對各級威懾和升級控制產生不可預測的戰略影響,尤其是在涉及信任問題時。正如詹姆斯-約翰遜(James Johnson)所言,"人工智能對戰略穩定的威脅所造成的不確定性,可能是對手夸大了對其有效性的信任,也可能是(也許更令人擔憂的)錯誤地認為某種特定的人工智能能力在行動上是有效的,而實際上并非如此"。
自主系統的軍事應用顯然將繼續擴大,因為對決策者的激勵似乎大于風險。機器智能代表了一套獨特的技術,它超越了武器系統在射程、速度或精度方面的漸進式改進。這三類中的每一類智能體都有可能以不可預測的方式改變戰場,這對正在尋找將人工智能技術融入現有和計劃中的部隊結構的最佳手段的軍事領導人來說,既是危險也是機遇。鑒于戰爭仍然是以人為本的事業,人類自主團隊的重要性可能會成為軍事行動中越來越重要的一個方面。
關于人類與自主團隊合作中的信任問題,基于研究的知識是廣泛而全面的,但大部分實證數據自然主要與從自動化到自主化的滑動尺度中自動化程度較高的過程有關。考慮到機器智能在軍事領域的預期功能,這項研究的大部分內容仍然具有很強的現實意義--尤其是與性格信任相關的文化差異方面或自動化偏差等常見現象。適當的信任校準所面臨的挑戰因應用的類型和類別而異,與用于 ISR 數據分析的集成機器學習軟件相比,激發人類對物理自主系統的充分信任可能更具挑戰性。歸根結底,實現適當和校準的信任水平對于最大限度地發揮人工智能的潛力仍然至關重要。
在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。
在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。
即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。
但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。
這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。
AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。
新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。
與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。
最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。
隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。
因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。
AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。
例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。
在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。
這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。
人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:
2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。
"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。
試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。
正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。
放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。
當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。
除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。
正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。
"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。
這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。
在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。
確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。
關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。
參考來源:International Committee of the Red Cross
本文提供了一個關于大型語言模型(LLMs)在軟件工程(SE)中應用的新興領域的調查。它還提出了將LLMs應用于軟件工程師面臨的技術問題的開放性研究挑戰。LLMs的新興屬性帶來了創新性和創造力,其應用覆蓋了軟件工程活動的全譜,包括編碼、設計、需求、修復、重構、性能提升、文檔和分析。然而,這些同樣的新興屬性也帶來了重大的技術挑戰;我們需要能夠可靠地剔除錯誤的解決方案,如幻覺。我們的調查揭示了混合技術(傳統的SE與LLMs相結合)在開發和部署可靠、高效和有效的基于LLM的SE中的關鍵作用。本文調查了基于LLM的SE的最近發展、進展和實證結果;即大型語言模型(LLMs)在軟件工程(SE)應用的應用。我們使用這次調查來突出這個迅速發展但尚屬初級階段的研究文獻中的空白。基于文獻中的空白和技術機會,我們還確定了軟件工程研究社區的開放問題和挑戰。盡管對這樣一個迅速擴張的領域的任何調查都既不能渴望也不能聲稱是全面的,但我們希望這次調查能為這個令人興奮的新軟件工程子學科——基于LLM的軟件工程提供一個有用且相對完整的早期概述。盡管該領域的科學和技術結構仍在形成中,但我們已經可以識別出趨勢、對未來研究的有益方向以及需要解決的重要技術挑戰。特別是,我們已經能夠辨別出與軟件工程內的現有趨勢和既定方法及子學科的重要連接(和共鳴)。盡管總的來說,我們找到了很多樂觀的理由,但仍然存在重要的技術挑戰,這些挑戰很可能在未來幾年內影響研究議程。許多作者都從科學和軼事的角度指出,LLMs普遍存在幻覺問題[1],而且它對基于LLM的SE也帶來了特定的問題[2]。與人類智慧一樣,幻覺意味著LLM可以產生虛構的輸出。在軟件工程的背景下,這意味著創造的工程制品可能是錯誤的,但看起來是合理的;LLMs可能引入錯誤。然而,與LLMs的許多其他應用不同,軟件工程師通常有可自動化的真實依據(軟件執行),大部分軟件工程制品都可以基于此進行評估。此外,軟件工程研究社區已經花了很多時間開發自動化和半自動化技術,以檢查人類可能產生的錯誤結果。這意味著,對于這個學科和研究社區,當面對像幻覺這樣的問題所帶來的挑戰時,有大量的經驗和專業知識可以借鑒。
顯然,自動化測試技術 [3]–[5] 將在確保正確性中發揮核心作用,就像它們已經為人工設計的制品所做的那樣。在生成全新的功能和系統時,由于缺乏可自動化的oracle [6](一種自動技術,用于確定給定輸入刺激的輸出行為是否正確),自動測試數據生成受到限制。考慮到LLMs的幻覺傾向,Oracle問題仍然非常相關,對它的解決方案將變得更加有影響力。但是,一些SE應用關心現有軟件系統的適應、改進和開發,對于這些應用,有一個現成的可自動化的oracle:原始系統的功能行為。在本文中,我們稱其為“自動回歸Oracle”,這種方法已在遺傳改進領域得到證明是有益的 [7]。自動回歸Oracle簡單地使用軟件系統的現有版本作為參考,以對任何后續的適應和更改的輸出進行基準測試。當然,有“烘焙”功能錯誤的風險,因為自動回歸Oracle無法檢測系統應該做什么,只能捕捉它當前做什么。因此,自動回歸Oracle只能測試功能退化,所以它最適合于需要保持現有功能的用例。例如,對于性能優化和語義保持不變的重構。LLM的輸入將成為越來越多研究的焦點,我們可以預期關于prompt工程和prompt優化文獻的迅速發展 [8]。在這次調查中,我們突出了關于軟件工程的幾個特定方面的prompt工程的現有工作和開放挑戰。LLM的輸出不僅可以限于代碼,還可以包括其他軟件工程制品,如需求、測試用例、設計圖和文檔。總的來說,LLM的基于語言的特性使其能夠生成任何語言定義的軟件工程制品。我們通常認為軟件工程制品是LLM的主要輸出,但它不是唯一的輸出。與主要輸出一起提供的解釋也是LLM的重要輸出。我們的調查突出了需要進行更多的研究的需求,不僅要優化prompt工程(專注于LLM的輸入),還要優化與主要輸出一起提供的解釋的工作。LLMs本質上是非確定性的:相同的prompt在不同的推斷執行中產生不同的答案(除非溫度設為零,這在多次執行中經常被發現是次優的)[9]。此外,無論溫度設置如何,prompt的微妙變化都可能導致非常不同的輸出[9]。除了激勵‘prompt工程’和輸出處理,這種非確定性行為為基于LLM的軟件工程的科學評估帶來了挑戰:如果每次我們運行整個工程過程時結果都會變化,我們如何確定所提議的技術是否超越了現有的技術?這是一個在經驗軟件工程[10]和基于搜索的軟件工程(SBSE)[11]的背景下已經被深入研究的問題。特別是,SBSE與基于LLM的軟件工程有很多相似之處,在存在嘈雜、非確定性和不完整的結果[12]、[13]的情況下實現穩健的科學評估都與之有關。因此,已經有一個成熟的軟件工程文獻專門研究適用于基于LLM的科學評估所需的穩健的科學評估技術。例如,參數和非參數的推斷統計技術現在經常被用來在SBSE學科中提供在高度非確定性算法存在的情況下的穩健的科學結論。為了找出與LLM相關的計算機科學論文,我們過濾了出版物,將其細分為以下子類別:人工智能 (cs.AI)、機器學習 (cs.LG)、神經和進化計算 (cs.NE)、軟件工程 (cs.SE) 和編程語言 (cs.PL)。我們使用查詢“Large Language Model”、“LLM”和“GPT”在標題或摘要中進行篩選(我們手動排除了重載縮寫,例如將GPT誤認為是通用規劃工具),結果是L列。最后,我們使用相同的查詢來識別基于LLM的軟件工程論文,這些論文位于軟件工程 (cs.SE) 和編程語言 (cs.PL) 類別中。這些查詢本質上是近似的,因此我們只局限于基于總體趨勢得出的結論,而這些總體趨勢有強有力的證據支持,而不是觀察到的數字的具體細節。盡管如此,我們報告了觀察到的原始數字,以支持其他人的復制。
圖2展示了arXiv上發布的計算機科學論文數量(|A|,以藍色表示)和LLM相關論文的數量(|L|,以橙色表示)的增長。特別是與軟件工程和LLM相關的論文以綠色表示(|L ∩ S|)。考慮到總體發表量的快速增長,我們為縱軸使用了對數刻度。不出所料,我們看到了計算機科學出版物數量的整體增長。同時,鑒于LLM最近受到的關注增多,LLM相關論文數量的指數增長也相對不足為奇。或許更有趣的是LLM在軟件工程應用中的快速采納,如圖中的綠色所示。為了更詳細地檢查這一趨勢,我們在圖3中畫出了LLM出版物(L)與所有計算機科學出版物(A)的比例(以藍色表示),以及基于LLM的軟件工程出版物(L ∩ S)與所有LLM出版物的比例(以橙色表示)。如圖所示,自2019年以來,基于LLM的軟件工程論文的比例已經急劇上升。目前,所有關于LLM的論文中已有超過10%與基于LLM的軟件工程有關。由于這一增長,我們可以預期將有更多其他的基于LLM的軟件工程調查。文獻的快速擴展使得進一步的全面軟件工程研究不太可能適應單篇論文的空間限制,但我們可以預期會有許多關于感興趣的子領域的全面調查,以及針對系統評審中的主要文獻提出具體研究問題的系統文獻回顧(SLRs)。例如,Hou等人[14]提供了一個出色的最新SLR,涵蓋了2017年至2023年的229篇研究論文,報告了所處理的軟件工程任務、數據收集和預處理技術,以及優化LLM性能的策略(例如提示工程)。本文的其余部分按照主要的頂級軟件開發活動和研究領域進行組織。圖1顯示了軟件開發活動、研究領域和我們論文結構之間的映射。
人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。
人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。
電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。
將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。
在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。
此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。
人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。
不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。
最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。
最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。
雷達和電子戰(EW)等軍事應用測試和測量系統的設計人員正在加緊使用人工智能(AI)解決方案,以便更好地測試認知功能。同時,現代數字架構的采用也推動了軍事測試需求的增長。
人工智能(AI)和機器學習(ML)工具正在進入國防系統的幾乎每一個領域,從制造、雷達系統開發、航空電子設備到軟件開發和測試測量系統。
NI 公司(德克薩斯州奧斯汀)航空航天、國防與政府研究與原型開發解決方案營銷經理 Jeremy Twaits 說:"人工智能不僅影響測試系統本身的能力,還影響我們的測試方式。"人工智能使系統更具適應性,其行為會根據訓練數據集發生變化。有了人工智能,工程師必須了解系統性能的界限,并使用測試方法來滿足系統部署時可能遇到的最關鍵和最可能的情況。
人工智能工具還能在電子戰系統中實現認知功能。羅德與施瓦茨公司(Rohde & Schwarz,馬里蘭州哥倫比亞市)航空航天與國防市場部雷達與 EW(電子戰)全球市場部門經理 Tim Fountain 說:"通過為客戶配備工具,提供高帶寬、長時間射頻記錄和回放系統,用于在操作相關的射頻環境中訓練認知系統,從而幫助客戶交付支持 AI/ML 的系統"。
他繼續說:"此外,認知系統還可用于提取和分類 ELINT(電子情報)接收器捕獲的寬帶數據中的新型發射器。我們的客戶一再告訴我們,他們面臨的一個挑戰是,他們并不缺少來自采集活動的數據,但對這些信號進行標記、分類、排序和地理定位仍然是一項人工任務,由于時間和預算壓力,分析人員往往會忽略這項任務"。
軍事用戶對數據量的要求只增不減,這給系統設計人員和系統測試人員帶來了更大的壓力。
Keysight 航空航天/國防和政府解決方案集團(加利福尼亞州圣克拉拉市)總經理 Greg Patschke 說:"隨著高速捕獲技術的發展,我們能夠收集的數據量正以指數級速度增長。這些大型數據集帶來了分析信息和得出結果的挑戰。目前,我們正在使用無監督機器學習工具來加快洞察之路。我們可以使用智能算法來識別感興趣的信號,對信息進行分類,并識別數據中的模式和異常。利用這項技術為我們打開了一扇通往全新數據分析世界的大門,而這在以前是不可行的"。
由于系統的復雜性,在定義測試場景的同時,通過人工智能系統實現適應性將至關重要。
Twaits指出:"幾乎不可能在每一種可能的情況下進行測試,但業界必須定義關鍵的測試場景和模型。"由于真正測試和信任人工智能系統的動態性和挑戰性,測試平臺必須具備適應性,以應對未來的測試場景和要求。例如,NI 的 COTS(現成商用)硬件可以與 MathWorks 的軟件工具(如深度學習工具箱)相連接。NI 和 MathWorks 合作展示了如何利用軟件定義無線電 (SDR) 對訓練有素的神經網絡進行空中測試和評估,以對雷達和 5G 新無線電信號進行分類。
人工智能在測試解決方案中的應用得益于在軟件中植入測試和測量系統功能的能力。
Patschke 說:"在測試和測量行業,不斷需要改進測量軟件的功能。EW 測試的專業性往往要求軟件具有一定程度的創新性和靈活性,而這在其他行業通常是看不到的。例如,與雷達/預警機有關的到達角(AOA)測試需要軟件和硬件的無縫配對,以適當應用實時運動學并準確計算 AOA 結果"。
他繼續說:"幾年前,[測試]軟件還不具備這種功能,但隨著客戶要求和需求的變化,像 Keysight 這樣的公司已經進行了調整,以滿足這些需求。客戶要求系統具有靈活性,以便在新的挑戰出現時滿足他們的需求。滿足這些需求的唯一方法就是不斷升級我們的軟件,盡可能增加新的功能,這樣就可以不斷地將硬件重新用于多種用途"。
對標準化和快速周轉的需求也需要更多的軟件功能。
Fountain 說:"客戶告訴 R&S 最緊迫的問題是,他們需要快速、可驗證和可重復的測量,而且通常是基于標準的測量。"客戶通常沒有時間或內部專業知識來開發特定的測量功能,因此可能會依賴供應商將該測量功能作為附加功能提供,或者在某些情況下使用事實上的行業工具集(如 Matlab 和/或 Simlink)來支持快速軟件/硬件功能,特別是隨著 FPGA(現場可編程門陣列)和 GPU(圖形處理器)在測量數據流中變得越來越普遍。(圖 1)。
[圖1 ? 羅德與施瓦茨公司提供集成記錄、分析和回放系統(IRAPS)。IRAPS可用于需要寬帶寬、長時間射頻記錄和回放的實驗室和靶場射頻記錄和回放應用,如雷達測試和靶場電子戰(EW)效果評估。]
NI 雷達/EW 業務開發經理 Haydn Nelson 說:"在軟件中定義測試系統是整個航空航天工業趨勢的體現,通常被稱為基于模型的系統工程。"推動系統級模型和要求的標準化使軟件成為定義自動測試系統不可或缺的一部分。
Nelson 繼續說:"對于雷達和電子戰來說,由于雷達的多任務性質和電子戰的保密性質,這具有挑戰性。定義、開發、評估和部署新方法和技術是一個復雜的過程。隨著威脅的不斷發展,用戶需要更快地獲得新系統,而測試和評估流程不能阻礙這一進程。軟件定義的測試系統對于在保持系統能力和性能敏感性的同時滿足速度要求至關重要。
對更多實驗室測試的需求也在推動軟件定義測試系統的發展。Nelson 說:"我們看到的一個具體要求是,能夠在實驗室中以現實的方式進行更多測試,而無需面對固定和鎖定測試系統的挑戰。在公開范圍測試之前,測試的次數越多,新方法或新技術獲得最終用戶信任的信心就越大。共享數據和證明能力與開發能力本身同樣重要。"
跨越多個領域的復雜對抗性威脅對雷達和預警系統的性能提出了更高的要求,從而給測試系統設計人員帶來了更大的壓力,要求他們提供準確、高效的解決方案。
"總體而言,趨勢是不斷提高測量精度和降低相位噪聲,"Fountain 說。"精度和相位噪聲直接關系到描述雷達性能的能力。在電子戰方面,我們看到,在擁擠和有爭議的作戰環境的推動下,高度復雜的電磁場景正朝著更高保真模擬的方向發展。"
雷達和預警系統的數字架構要求和現代化努力也要求測試系統具有多功能性。
NI 的 Twaits 說:"從高層次上講,測試和評估的要求是由采用現代數字架構驅動的,這些架構要求在單個系統中進行功能、參數和系統級測試,以及分割數字和射頻系統以進行獨立測試的方法。"此外,許多傳統雷達和預警系統正在進行現代化改造,而傳統的測試平臺靈活性太差,無法滿足新系統功能的測試要求。現代化不會帶來無限的測試預算。新系統和升級要不斷平衡預算和時間交付壓力所帶來的限制,而適應不斷變化的要求本身就是一種要求"。
帶寬需求也對測試系統提出了更高的要求。"從技術上講,在電磁頻譜戰(EMSO)領域,實戰系統正朝著更寬的帶寬、更高的頻率、更大的頻率靈活性和更強的抗威脅能力方向發展。因此,[測試和測量]設備必須能夠生成和分析具有適當規格的波形,快速調整,并創建逼真的場景,在接近真實的運行條件下對被測設備施加壓力。"
測試系統還能在系統部署前的設計過程中盡早發現缺陷,從而降低長期生命周期成本。
Twaits說:"按時、按預算交付的一個關鍵方面是制定測試策略,以便在設計過程中及早發現缺陷。露天靶場測試成本高昂,對于測試早期設計既不可行也不實際。例如,在雷達測試中,客戶正在尋找硬件在環系統,該系統可將真實目標注入到正在測試的雷達系統中。這使他們能夠盡早、頻繁地測試系統,盡早消除問題,并針對各種情況對雷達進行評估"。
NI 提供的雷達目標生成 (RTG) 軟件使客戶能夠將 PXI 射頻矢量信號收發器 (VST) 作為閉環實時雷達目標生成器來操作。它為工程師提供了一個單一模塊,既可作為標準雷達參數測量設備,也可作為 RTG,具有很強的能力和靈活性,適合最終用戶的調整。通過完全開放的列表模式,用戶可以定義多達 1000 萬個測試目標,以硬件速度進行排序,從而以在露天靶場上無法實現的方式刺激雷達。
電子戰系統的作用是對抗和探測復雜的敵對威脅,而測試系統的作用則是使作戰人員不僅能高效而且能安全地利用這些系統。
Patschke 指出:"EW 測試的核心是確保人員和設備都做好應對各種電磁威脅的準備,從而保證部隊的安全。隨著 EW 測試環境越來越先進,客戶需要生成盡可能逼真的模擬。要做到這一點,就必須生成能模擬現實條件的高保真動態場景。過去,這需要大量的設備,而這些設備在使用中往往缺乏通用性。現在,客戶不僅希望他們的設備具有更高水平的能力,如更寬的帶寬和更多的輸出端口,而且還希望它能以更緊湊的尺寸提供更大的靈活性。Keysight 推出了包括最新 M9484C 矢量信號發生器在內的可擴展、開放式架構 EW 測試和評估產品組合,滿足了客戶的這些期望。"(圖 2)
[圖2 ? Keysight 的 M9484C 矢量信號發生器是一個四端口信號源,還能產生脈沖對脈沖輸出。這種單一信號發生器能夠取代四個老式信號源]。
Fountain 對發展趨勢的最后評論是:"人們希望從露天靶場測試轉向封閉實驗室,這主要是由于露天測試的復雜性、成本以及測試產生的射頻輻射可能被不受歡迎的聽眾截獲"。
Fountain 說,在測試和測量層面,他并沒有看到這些計劃有多少活動。"測量系統在操作層面有一些利基應用,模塊化架構(如 MOSA[模塊化開放系統方法]和 SOSA[傳感器開放系統架構])的優勢和附加成本將適用于這些應用,但在大多數情況下,測試和測量設備是在實驗室中,需要一個可控的環境來提供高度的測量精度。"
Nelson說:"從許多方面來看,SOSA等標準架構在嵌入式設計中采用的理念與NI在模塊化PXI平臺測試和測量設計中采用的理念非常相似:制造模塊化、靈活和可互操作的系統。模塊化開放式架構的這三個目標是未來軍用嵌入式系統取得成功的關鍵,使系統能夠在今天設計,并在明天進行低成本升級。NI 的測試和測量方法與這一目標不謀而合。擁有模塊化、可擴展、靈活和可升級的嵌入式系統意味著測試系統也必須是模塊化、可擴展、靈活和可升級的,以適應不斷變化的要求、能力和接口。我們相信,與開放式架構計劃的模塊化方向一致的模塊化測試系統將有助于實現這一新嵌入式系統理念的承諾。"
Keysight 的 Patschke 說:"投資新產品的客戶希望確保其傳統設備和系統能夠與升級后的平臺協同運行。"這不僅是一項節約成本的措施,而且還能通過延長舊產品的使用壽命來減少浪費,同時使整個系統保持最新狀態。開放式架構平臺將可持續發展作為優先事項,同時又不犧牲升級能力。Keysight 在設計下一代系統時非常重視開放式架構的實施。"
人工智能和軟件定義的測試系統正在為現在以及未來的雷達和 EW 測試系統的更多能力鋪平道路,例如軟件定義雷達、頻譜共享、數字孿生等領域。
Patschke說:"未來美國國防部(DoD)客戶的系統測試可能發展的一個途徑就是數字孿生技術的進步。"這些系統利用基于模型的系統工程(MBSE)方法生成數字化的真實測試場景,這些場景通常會考慮到外部變量,而以前的虛擬測試方法無法做到這一點。理論上,'數字孿生'概念可以將大多數(如果不是全部)物理系統工程活動轉換為虛擬活動。在進行物理測試不切實際、真實世界的效果難以再現的情況下,"數字孿生 "有可能增加廣泛的價值。隨著客戶尋求更可靠、更具成本效益的測試手段,數字孿生選擇可能會變得更具吸引力。
Fountain 說,未來幾年有四個關鍵領域將推動測試和測量技術的發展:
雷達和預警系統對靈活性和多功能性的需求也成為測試和測量需求的一個特點。
"納爾遜說:"我們已經看到許多要求測試系統像瑞士軍刀一樣的需求:客戶希望測試設備能在單一系統中完成所有功能。
"我們經常收到這樣的請求:要求配置的系統在進行雷達目標生成等系統級測試的同時,還能進行參數測試,并能進行射頻記錄和回放。這些要求結合在一起,就很難在保持可接受的尺寸、重量和功率的同時,以具有成本效益的方式完成測試。只有采用模塊化系統,在封閉的特定功能與使用開放軟件擴展功能之間取得平衡,才能做到這一點。我們看到的趨勢是,現代測試系統必須像它們所測試的系統一樣具有多功能。
在技術飛速發展的時代,戰爭的面貌正在發生重大轉變。人工智能(AI)與軍事系統的結合正在徹底改變我們進行戰爭的方式。
本文將深入探討人工智能在戰爭中的迷人世界,重點關注認知戰爭的概念以及人工智能在塑造未來戰斗中的作用。
認知戰爭代表著軍事行動模式的轉變。它戰略性地利用人工智能和機器學習來影響對手的認知過程。
其目的是操縱決策過程,制造混亂,最終獲得戰略優勢。這種方法利用人工智能的力量來增強人的能力,因此越來越被認為是現代戰爭中的有力工具。
認知戰爭最顯著的實例之一是國防科技初創公司 Anduril 開發的 "幽靈 4 "無人機。這架無人機是人工智能融入軍事系統的見證。它配備了人工智能,可以在地面單個操作員的控制下執行各種偵察任務。它利用機器學習來分析圖像和識別目標,展示了人工智能在增強軍事能力方面的潛力。
盡管如此,重要的是要以平衡的視角來看待這一發展。雖然幽靈 4 無人機代表了軍事技術的重大進步,但它也提出了幾個問題。
在戰爭中使用人工智能,尤其是能夠做出決策的自主系統,會帶來新的復雜性和不可預測性。如果這些系統出現故障或被對手利用,就有可能產生意想不到的后果。
此外,在戰爭中使用人工智能所涉及的倫理問題也是一個一直爭論不休的話題。機器在戰場上做出生死攸關決定的前景是一個有爭議的問題。雖然人工智能通過接管危險任務有可能減少人員傷亡,但缺乏人類判斷力和責任感是一個主要問題。
最后,在認知戰爭中使用人工智能有可能使沖突升級。操縱對手決策過程的能力可能導致誤判和誤解,增加沖突風險。因此,制定明確的規則和條例來規范人工智能在戰爭中的使用以降低這些風險至關重要。
2023 年標志著數字化、透明化戰爭的到來。烏克蘭戰爭就是這一新時代的明顯例證。由于衛星、數字痕跡和用戶在社交媒體上生成的內容提供了全面的透明度,全世界都看著俄羅斯在烏克蘭邊境集結兵力。在這個時代,再也不可能用陸海空三軍偷襲另一個國家了。這些兵力造成的死亡和破壞也無法掩蓋。這種透明度迫使兵力調整戰略,以更加分散的方式移動和機動。
精確武器的出現又一次改變了戰爭的游戲規則。這些武器可以用一枚成本效益高的導彈摧毀價值數百萬的平臺。這一現實正在改變軍隊、海軍和空軍的組織、裝備和作戰方式。
在烏克蘭沖突中,精確武器成功打擊了裝甲車輛和飛機,凸顯了其有效性。現在的挑戰是降低這些武器的成本和復雜性,各國正在緊急開展這項工作。
人工智能與戰爭的結合必將推動國家對抗沖突的方式發生深刻變革。機器人技術、自主性、連通性、安全云中的數據以及人工智能的進步將導致武裝力量迅速發展為有人、無人和自主能力的團隊。
這一轉變的意義將不亞于 Airbnb 和 Uber 等數字平臺對各自行業的影響。然而,盡管發生了這種轉變,戰爭的本質將保持不變--意志的較量,理性、情感和機遇的混合
我們深入研究了人工智能與戰爭,發現自己正站在一個新時代的懸崖邊上。將人工智能融入軍事系統的確是一把雙刃劍。一方面,它有望徹底改變戰爭,增強軍事能力,并有可能減少人員傷亡。另一方面,它也提出了深刻的倫理道德問題,作為一個社會,我們必須努力解決這些問題。
例如,在認知戰爭中使用人工智能會帶來機器做出生死攸關決定的幽靈。我們能把如此關鍵的決策交給算法嗎?在自主系統主導的領域,我們如何確保問責制?
這些問題不僅是技術問題,更是深刻的哲學問題,涉及我們的價值觀和原則。
此外,人工智能在戰爭中的潛在濫用也是一個重大問題。如果落入壞人之手,這些技術可能會被用來加劇沖突、操縱輿論或侵犯人權。
我們如何防止這種濫用?
我們如何在利用人工智能的好處和防范其潛在風險之間取得平衡?
關鍵是要以謹慎和負責的態度對待它。我們必須促進有關這些問題的公開對話,鼓勵不同的觀點和嚴謹的辯論。
只有通過這樣的討論,我們才有希望以負責任和合乎道德的方式在戰爭中利用人工智能的力量。
將人工智能(AI)融入軍事行動是一個持續討論和爭論的話題。在眾多人工智能應用中,像 OpenAI 的 GPT-4 這樣的大型語言模型(LLM)在自然語言處理、理解和生成方面展現出了前所未有的能力。本文探討了 LLMs 在軍事規劃革命中的潛力,并強調了它們帶來的挑戰和機遇。
過去幾年中,LLM 在人工智能研究領域取得了長足進步,展示了其理解上下文、生成連貫文本甚至翻譯語言的能力。這些模型給人留下了深刻印象,在新聞、客戶服務和科學研究等各個領域都得到了應用。
軍事規劃是一個復雜的過程,需要分析大量信息,如敵方能力、兵力和后勤。LLM 可以幫助軍事規劃人員快速處理和分析這些數據,簡化規劃流程,減少人為錯誤的可能性。在軍事規劃中使用 LLM 可以帶來以下好處:
1、改進決策: 通過分析歷史數據,LLMs 可以洞察各種戰略的潛在結果,幫助軍事規劃人員做出更明智的決策。此外,LLM 還能通過評估潛在對手的行為模式來預測其行動。
2、增強交流: LLMs 可以生成復雜數據集的自然語言摘要,使軍事人員之間更容易交流關鍵信息。這可以提高對態勢的認識,并做出更明智的決策。
3、有效分配資源: LLM 可以通過分析供應鏈數據和預測未來需求來優化軍事資源的分配。這有助于最大限度地減少浪費,確保資源用在最需要的地方。
4、定制培訓: LLM 可以根據每個士兵的需求和能力創建定制的訓練場景。這樣可以提高訓練效率,最大限度地發揮每個士兵的潛能。
5、士氣和心理健康支持: LLM 可以通過自然語言對話為士兵提供心理支持,協助進行壓力管理并解決心理健康問題。
盡管有諸多優勢,但在軍事規劃中實施 LLMs 還面臨一些挑戰和問題:
1、數據安全: 在軍事規劃中使用 LLM 需要處理高度敏感的信息。確保這些數據的安全性和保密性至關重要。軍事組織必須投資于強大的網絡安全措施,以保護其數據免遭未經授權的訪問和潛在泄漏。
2、道德考慮因素: 在軍事規劃中部署 LLM 會引發道德問題,即決策自動化程度可能會提高。隨著人工智能系統變得越來越復雜,人類決策與機器決策之間的界限可能會變得模糊,從而導致人們擔心在出現錯誤或失敗時的問責和責任問題。
3、技術局限性: 雖然 LLM 在自然語言理解方面取得了顯著進步,但它們也并非沒有局限性。這些模型有時會產生不準確或有偏見的結果,從而可能導致錯誤的決策。軍事組織必須認識到這些局限性,并確保人類的專業知識仍然是規劃過程中不可或缺的一部分。
4、對技術的依賴: 過度依賴 LLM 可能會導致人類分析能力下降和對技術的過度依賴。軍事規劃人員必須在利用 LLM 的力量與保持人類參與決策過程之間取得平衡。
軍事組織、學術界和私營部門之間的合作有助于應對軍事規劃中與 LLM 相關的挑戰。以下是一些潛在的合作途徑:
1、分享最佳實踐: 軍事組織可以相互學習在規劃過程中實施 Lating LLMs 的經驗。分享最佳實踐有助于找出潛在的隱患,確保最有效地利用這些先進的人工智能工具。
2、聯合研究計劃: 軍事組織、學術界和私營部門之間的合作研究計劃可以推動 LLM 的創新發展。這可以創建更先進的模型,更好地應對軍事規劃人員面臨的獨特挑戰。
3、道德準則: 為在軍事規劃中使用 LLMs 制定道德準則,有助于消除人們對決策自動化程度提高的潛在后果的擔憂。軍事組織、人工智能研究人員和倫理學家之間的合作可以制定原則,在人工智能的益處與人的責任和義務之間取得平衡。
4、培訓與教育: 聯合培訓和教育計劃可以幫助軍事人員發展必要的技能,以便在規劃過程中有效實施 LLM。這可以包括有關 LLM 技術方面的培訓,以及有關人工智能在軍事行動中的道德和法律影響的教育。
5、互操作性: 開發可互操作的人工智能系統可促進軍事組織之間的無縫通信和信息共享,確保將 LLM 有效納入多國軍事規劃工作。
大型語言模型的強大功能為軍事規劃帶來了巨大的變革機遇。雖然在實施過程中會遇到一些挑戰和問題,但軍事組織、學術界和私營部門之間的合作有助于克服這些障礙,最大限度地發揮 LLM 在軍事行動中的潛力。通過利用人工智能的力量并保持技術創新與人類專業知識之間的平衡,軍事組織可以改進決策、加強溝通、優化資源分配,并更好地支持其人員的福祉。
作者:Chad Scott
原文來源:Crossroads of Power
社會對人工智能(AI)的信任以及可信任的人工智能系統和生態系統的發展,對于人工智能技術在醫學領域的進步和實施至關重要。隨著人工智能在各種醫療和成像應用領域的應用日益廣泛,使這些系統更加可靠和值得信賴變得比以往任何時候都重要。本文考慮了14個核心原則,旨在將針更接近于準確、有彈性、公平、可解釋、安全和透明的系統:面向可信的AI。 //pubmed.ncbi.nlm.nih.gov/34809860/ 問題不再是人工智能(AI)是否會影響醫學的未來,而是“由誰、如何、在何處以及何時感受到這種有益或有害的影響”。基于人工智能的新技術和增強技術的發展速度正在加快,并滲透到每個行業。人工智能在改善人類生活和我們周圍的環境方面有著巨大的潛力;但是,我們必須小心地向前走,以便認識到它提供的機會和避免潛在的陷阱。
軍事環境產生了大量的重要數據,需要使用機器學習對其進行處理。它通過分析產生的大量信息來學習和預測可能的場景的能力提供了自動學習和決策支持。本文的目的是提出一種應用于軍事組織的機器學習體系結構模型,并以應用于非軍事組織體系結構模型的文獻計量學研究為支撐。為此,進行了截至2021年的文獻計量學分析,制作了戰略圖并對結果進行了解釋。所使用的信息是從科學界廣泛接受的一個主要數據庫ISI WoS中提取的。沒有直接使用軍事消息來源。本工作分為五個部分: 軍事領域的機器學習研究; 使用SciMat、Excel和VosViewer工具解釋我們的研究方法; 該方法基于數據挖掘、預處理、聚類歸一化、戰略圖及其結果分析來研究軍事背景下的機器學習; 在此基礎上,我們提出了一種軍事應用的概念架構; 最后,我們給出結論,在這里我們將看到機器學習最重要的領域和最新的進展,在這個例子中,應用到軍事環境中,分析大量數據,提供效用,機器學習和決策支持。
機器學習(ML)通過利用來自不同來源(包括大數據應用程序)的大量可用信息,實現了許多任務的自動化。它的使用目前正在廣泛的傳播,而ML已經成為我們日常生活中[1]的重要組成部分。在軍隊中,智能應用的使用也加速了[2]的發展。例如,韓國國防部大幅增加了其信息,隨著越來越少的情報分析師,他們需要應用人工智能(AI)技術來準確、及時地處理所有信息[3]。另一個值得注意的例子是軍事設備和機器對石油的依賴。這也是ML發揮作用的地方,因為軍事后勤必須基于明智的推理[4];因此,我們看到了ML是如何融入軍事世界的。本文的目的是提出一個體系結構模型,以反映如何在軍事環境中實際應用數學模型。在這個架構中,我們解決了在軍事環境中使用最頻繁的數據、算法和應用等方面的問題。
在開展這項工作的同時,正如我們將在第2節中看到的,我們研究了相關工作,注意到在這一新興主題中很少有綜述工作,這引起了我們對對主要科學數據庫之一Web of Science進行到2021年及包括2021年的文獻計量分析的興趣。在本節中,我們還提出了一個概念架構,以一種實際的方式在非軍事組織中應用ML,因為在軍事領域中沒有反映這種架構的作品。本工作中使用的文獻計量方法在第3節中解釋,我們將主要使用SciMat文獻計量分析工具,能夠在一個縱向框架[5]中執行科學的繪圖分析。通過這一分析,我們建立了一個戰略圖,其中我們確定了ML應用于軍事領域的主要領域。在第4節中,我們應用所描述的方法來根據起源進行分析:我們看到了ML應用于軍事世界的主要科學領域; 在第5節中,一旦完成了文獻計量分析,我們現在可以重新定義第2節中提出的概念架構,特別是針對軍事組織。最后,我們得出了一些結論,其中我們揭示了所獲得的結果與發現的主要主題領域和結論。
圖1 用于軍事組織的數據驅動架構
機器學習是現代戰爭系統的關鍵組成部分。本文探討了人工智能的 7 個關鍵軍事應用。
機器學習已成為現代戰爭的重要組成部分,也是我(Nicholas Abell)作為陸軍退伍軍人和數據科學家的主要興趣點。與傳統系統相比,配備人工智能/機器學習的軍事系統能夠更有效地處理大量數據。此外,人工智能由于其固有的計算和決策能力,提高了作戰系統的自我控制、自我調節和自我驅動能力。
人工智能/機器學習幾乎被部署在所有軍事應用中,軍事研究機構增加研發資金有望進一步推動人工智能驅動系統在軍事領域的應用。
例如,美國國防部 (DoD) 的國防高級研究計劃局 (DARPA) 正在資助一種機器人潛艇系統的開發,該系統預計將用于從探測水下水雷到參與反潛行動的各種應用。此外,美國國防部在 2017 財年在人工智能、大數據和云計算方面的總體支出為 74 億美元。預計到 2025 年,軍事 ML 解決方案的市場規模將達到 190 億美元。
以下是機器學習將在未來幾年證明其重要性的七種主要軍事應用。
來自全球不同國家的國防軍隊正在將人工智能嵌入陸地、海軍、空中和太空平臺上使用的武器和其他系統中。
在基于這些平臺的系統中使用人工智能,可以開發出更少依賴人工輸入的高效作戰系統。它還增加了協同作用,提高了作戰系統的性能,同時需要更少的維護。人工智能還有望使自主和高速武器能夠進行協作攻擊。
軍事系統通常容易受到網絡攻擊,這可能導致機密軍事信息丟失和軍事系統損壞。然而,配備人工智能的系統可以自主保護網絡、計算機、程序和數據免受任何未經授權的訪問。
此外,支持人工智能的網絡安全系統可以記錄網絡攻擊的模式,并開發反擊工具來應對它們。
人工智能有望在軍事后勤和運輸中發揮關鍵作用。貨物、彈藥、武器和部隊的有效運輸是成功軍事行動的重要組成部分。
將人工智能與軍事運輸相結合可以降低運輸成本并減少人力工作負荷。它還使軍用艦隊能夠輕松檢測異常并快速預測組件故障。最近,美國陸軍與 IBM 合作,使用其 Watson 人工智能平臺來幫助預先識別 Stryker 戰車的維護問題。
正在開發人工智能技術以提高復雜戰斗環境中目標識別的準確性。這些技術使國防軍隊能夠通過分析報告、文檔、新聞提要和其他形式的非結構化信息來深入了解潛在的作戰領域。此外,目標識別系統中的人工智能提高了這些系統識別目標位置的能力。
支持人工智能的目標識別系統能力包括基于概率的敵人行為預測、天氣和環境條件匯總、潛在供應線瓶頸或漏洞的預測和標記、任務方法評估以及建議的緩解策略。機器學習還用于從獲得的數據中學習、跟蹤和發現目標。
例如,DARPA 的競爭環境中的目標識別和適應 (TRACE) 計劃使用機器學習技術在合成孔徑雷達 (SAR) 圖像的幫助下自動定位和識別目標。
在戰區,人工智能可以與機器人手術系統 (RSS) 和機器人地面平臺 (RGP) 集成,以提供遠程手術支持和疏散活動。美國尤其參與了 RSS、RGP 和其他各種用于戰場醫療保健的系統開發。在困難條件下,配備人工智能的系統可以挖掘士兵的病歷并協助進行復雜的診斷。
例如,IBM 的 Watson 研究團隊與美國退伍軍人管理局合作開發了一種稱為電子病歷分析器 (EMRA) 的臨床推理原型。這項初步技術旨在使用機器學習技術來處理患者的電子病歷,并自動識別和排列他們最嚴重的健康問題。
模擬與訓練是一個多學科領域,它將系統工程、軟件工程和計算機科學結合起來構建計算機模型,使士兵熟悉在軍事行動中部署的各種作戰系統。美國正在越來越多地投資于模擬和訓練應用。
美國海軍和陸軍都在進行戰爭分析,啟動了幾個傳感器模擬程序項目。美國海軍已經招募了 Leidos、SAIC、AECOM 和 Orbital ATK 等公司來支持他們的計劃,而美國陸軍的計劃得到了包括 SAIC、CACI、Torch Technologies 和 Millennium Engineering 在內的公司的支持。
威脅監控和態勢感知在很大程度上依賴于情報、監視和偵察 (ISR) 工作。ISR 行動用于獲取和處理信息以支持一系列軍事活動。
用于執行 ISR 任務的無人系統既可以遠程操作,也可以按照預先定義的路線發送。為這些系統配備人工智能有助于防御人員進行威脅監控,從而提高他們的態勢感知能力。
具有集成 AI 的無人駕駛飛行器 (UAV) - 也稱為無人機 - 可以巡邏邊境地區,識別潛在威脅,并將有關這些威脅的信息傳輸給響應團隊。因此,使用無人機可以加強軍事基地的安全,并提高軍事人員在戰斗中或偏遠地區的安全性和效率。
人工智能在軍事技術硬件和軟件的大規模采用,向我們展示了現代戰爭中令人難以置信和可怕的范式轉變。毫不奇怪,世界上最大的軍隊比其他任何事情都更加關注這項技術,而這場技術競賽的獲勝者可能會比美國在研制原子彈后擁有更多的全球影響力。 (作者:Nicholas Abell,美國陸軍退伍軍人)