將 GPT-4 等大型語言模型(LLM)融入軍事行動,是提高武裝部隊效率、效能和情報能力的重大飛躍。在大型數據集上訓練有素的大型語言模型擁有處理和分析大量信息、提供戰略洞察力以及實時支持決策過程的能力。以下是大型語言模型如何改變軍事行動的各個方面:
大型語言模型可以分析多種來源的大型數據集,包括衛星圖像、截獲的通信和社交媒體信息。通過識別模式和異常現象,這些模型可以幫助情報分析師預測潛在威脅和對手的動向。例如,在監視行動中,大型語言模型可以迅速處理和翻譯截獲的外國通信,比傳統方法更快地提供可操作的見解。
在戰略規劃中,大型語言模型可以根據歷史數據和當前情報模擬各種情景。這些模擬可幫助軍事戰略家預測敵人的行動并制定對策。通過生成多種可能的結果,大型語言模型可協助評估不同戰略的潛在風險和益處,從而做出更明智的決策。
有效的后勤和供應鏈管理對軍事行動至關重要。大型語言模型可以通過分析各種來源的數據來優化供應路線、預測設備故障和管理庫存。例如,在行動期間,大型語言模型可以根據部隊的移動情況和歷史消耗模式預測物資需求,確保士兵及時獲得必要的資源。
大型語言模型也正在徹底改變軍事訓練計劃。它們可以模擬潛在的戰場條件,創建逼真的訓練場景。通過提供交互式和自適應學習環境,大型語言模型可幫助士兵和軍官培養批判性思維和決策技能。此外,這些模型還能提供個性化的反饋和建議,以提高績效。
在網絡安全領域,大型語言模型可以通過分析網絡流量和檢測可能預示著網絡攻擊的異常模式來識別和應對網絡威脅。他們還可以協助制定對策和應對戰略,以減輕網絡事件的影響。鑒于對數字基礎設施的依賴日益增加,大型語言模型在保護軍事網絡方面的作用不可或缺。
有效溝通在軍事行動中至關重要,尤其是在多語言環境中。配備自然語言處理(NLP)功能的大型語言模型可以實時翻譯和解釋多種語言,促進與當地居民、盟友甚至對手更好地溝通。這種能力在多國行動和維和任務中尤其有用。
大型語言模型可作為先進的決策支持系統,為指揮官提供全面的態勢感知和可操作的見解。通過整合各種來源的數據,這些模型有助于了解戰場動態、預測敵方動向并推薦最佳行動方案。這種支持對于在高風險環境中做出及時準確的決策至關重要。
管理公眾認知和心理作戰是現代戰爭不可或缺的一部分。大型語言模型可以分析公眾情緒,制定溝通策略,以影響公眾輿論,反擊敵方宣傳。通過了解和預測各種信息的影響,軍事公共事務單元可以精心策劃有效的活動,以支持其戰略目標。
雖然大型語言模型在陸軍中的潛力巨大,但必須應對幾個挑戰。確保人工智能系統的安全性和完整性對于防止對手操縱至關重要。此外,還必須仔細考慮在軍事環境中使用人工智能(如致命行動中的決策)所涉及的道德問題。持續的監督、透明度以及對國際法律和規范的遵守對于減少這些問題至關重要。
將大型語言模型融入軍事行動將徹底改變武裝部隊的作戰方式。從加強情報分析和戰略規劃到改善后勤和培訓,大型語言模型可帶來眾多好處,顯著提高作戰效率。隨著這些技術的不斷發展,它們在塑造未來軍事行動中的作用只會越來越大,因此軍事組織必須投資并采用這些先進的能力。
參考來源://www.linkedin.com/pulse/leveraging-llms-army-revolutionizing-military-ai-monser-kernosh-5utbe
人工智能(AI)正影響著人類生活的方方面面。過去十年中,人工智能的使用急劇增加,包括面部識別軟件、自動駕駛汽車、搜索引擎和翻譯軟件。人工智能在現代社會中的這些公認用途,也與人工智能在現代戰爭中的日益增多不謀而合。人工智能武器化的不斷升級與冷戰時期的核軍備競賽相似,核武器被自動化武器系統所取代。然而,國際社會、聯合國和國際法一直在努力適應和規范自動化武器的使用,自動化武器正在迅速改變現代戰爭的格局。
2012 年,國際社會開始注意到人工智能及其對現代戰爭的影響,一系列文件概述了自動化武器系統的使用,呼吁全面禁止自動化武器。
開發和使用能在沖突中承擔自主功能的武器正成為各國和科技公司關注的焦點。2017 年,由 126 位人工智能和機器人公司的首席執行官和創始人簽署的 "未來生命研究所"(Future Life Institute)致聯合國(UN)的一封公開信 "懇請 "各國防止自主武器系統(AWS)的軍備競賽。然而,目前還沒有一個國際法律監管框架來解決圍繞人工智能使用的這些問題,尤其是在沖突背景下。唯一存在的人工智能法律框架是由《公民權利和政治權利國際公約》第 26 條建立的,只將人工智能的使用與隱私權聯系起來。
盡管英國國防部(MoD)和美國國防部(DoD)已制定了兩個主要定義,但關于什么是自動武器系統的定義仍存在爭議。2011 年,英國國防部將 AWS 定義為 "能夠理解更高層次意圖和方向的系統,即能夠達到與人類相同的態勢理解水平,并能夠采取適當行動實現理想狀態"。同樣,美國國防部在 2023 年提出了一種不同的方法,并將 "預警系統 "定義為 "一旦啟動,能夠選擇和攻擊目標,而無需人類操作員的進一步干預"。2012 年人權觀察-國際人權委員會報告為國際社會提出了類似的定義,將 AWS 定義為 "完全自主的武器,可以在沒有人類干預的情況下選擇和攻擊目標"。北約聯合空中力量能力中心(JAPCC)也將自動化的概念延伸至 "意識和自決"。自動化武器的例子包括以色列 "鐵穹 "和德國 "MANTIS "等防御系統,以及瑞典 LEDS-150 等主動防護車。新的定義還需要包括在非沖突情況下使用的自動化武器,如韓國的超級 aEgis II,它在和平時期被用作南北韓邊境的監視設備。
然而,真正的問題在于未來對 AWS 的定義。定義不僅必須包括尚未考慮在內的系統,如 "超級 aEgis II",還必須預見到未來可能出現的 AWS。特別是,國際社會必須商定一個能夠涵蓋人工智能人類認知輸入算法的定義,這種算法具有類似人類的決策能力。
盡管有此需要,但國際社會尚未就 AWS 的法規達成一致。《聯合國常規武器公約》(CCW)有一項特別修正議定書(1986 年),由政府專家組(GGE)負責管理,專家組每年舉行一次會議,討論《常規武器公約》議定書的執行情況和相關武器問題。最近一次政府專家小組會議于 2023 年 5 月舉行,會議結束時,由于政府專家小組未就任何監管保障措施達成一致意見,特設工作組未取得任何實質性進展。他們的報告草案也未能推進法律框架。不過,該報告確實提出了以人類控制 AWS 的必要性為中心的禁令,以及以 AWS 開發為中心的法規。52 個國家發表了支持報告草案的聯合聲明,但他們也指出,該草案只是最低標準,并強調需要一個更加健全的法律框架。在 2023 年 5 月的會議上,政府專家小組決定在 2024 年 3 月和 8 月組織更長時間的討論,探討新出現的致命 AWS 技術。雖然政府專家小組最近的討論可能會取得更有意義的進展,但規范致命性氣霧劑開發和部署的法律框架尚未出現。
俄羅斯總統普京曾表示,在人工智能領域處于領先地位的國家 "將成為世界的統治者"。人工智能在現代戰爭中的進步將永遠改變美國、中國和俄羅斯等大國以及私營科技行業之間的關系。中國大力投入旨在成為人工智能技術的世界領導者,而俄羅斯在2021年至2023年的支出為1.81億美元,美國的支出為46億美元。2019 年,《簡氏》雜志稱,未來十年,全球將購買超過 8 萬架偵察無人機和近 2000 架攻擊無人機。英國運營著攜帶導彈的無人機,并計劃到 2024 年花費 4.15 億英鎊購買保護者無人機。沙特阿拉伯作為無人機市場的后起之秀也不容小覷,它在 2023 年的國防投資將達到 690 億美元,占其國家預算的 23%。此外,沙特阿拉伯還計劃設立一個 400 億美元的基金,用于投資人工智能,這將使其成為世界上最大的人工智能投資者。
隨著無人機和人工智能開發支出的快速增長,技術的進步最終可能會使無人機在沖突期間無需人類輸入就能即時做出決定。這可能會消除沖突中的和平談判,因為無人機的反應將純粹是報復性暴力。從 1999 年科索沃戰爭期間北約使用無人機識別隱藏的塞爾維亞戰略陣地,到 9 月 11 日恐怖襲擊后美國立即使用無人機,無人機技術已經取得了進步。在一架 ISR 無人機成功找到奧薩馬-本-拉登之后,美國軍方越來越多地使用無人機并為其配備致命有效載荷,從 2010 年到 2020 年,僅在阿富汗就進行了 14,000 次無人機襲擊。
美國、英國和以色列仍然是無人機的最大用戶,而且它們的武庫還在繼續擴大。美國和英國使用武器化無人機已有十多年,其中包括 "捕食者 "和 "收割者",這兩種無人機均由總部位于加利福尼亞的通用原子公司制造。據《無人機戰爭》報道,在2014年至2018年的四年敘利亞沖突中,英國在執行戰略任務時使用了2400多次 "收割者 "無人機,相當于每天使用兩架。五角大樓預計,到2035年,遙控飛機將占美國空軍的70%。與此同時,以色列也在研發自己的武器化無人機,并在加沙部署了無人機,用于監視、運送爆炸物等。
此外,無人機技術正在迅速向世界各地的軍隊傳播。現在,幾乎所有北約成員國都有能力在沖突中使用無人機。在過去五年中,土耳其和巴基斯坦也都建立了無人機制造項目。甚至非國家行為者也在使用無人機。真主黨曾使用伊朗制造的無人偵察機侵犯以色列領空,而哈馬斯自 2023 年 10 月以來一直在使用無人機對付以色列。
人工智能在戰爭中的應用也在迅速蔓延。有報道稱,烏克蘭為其遠程無人機配備了能自主識別地形和軍事目標的人工智能,并利用它們成功地對俄羅斯煉油廠發動了襲擊。以色列在加沙沖突中也使用了 "薰衣草 "人工智能系統,識別了 3.7 萬個哈馬斯目標。因此,目前以色列與哈馬斯之間的沖突被稱為第一場 "人工智能戰爭"。然而,目前還沒有證據表明在沖突中使用過 AWS(一種沒有大量人工控制的系統)。
隨著人們對所謂 "殺手機器人 "出現的憂慮與日俱增,在戰爭中使用人工智能引發了越來越突出的倫理和法律問題。特別是,無人機可能無法區分戰斗人員和平民。值得慶幸的是,許多人工智能技術仍處于開發階段。殺手機器人 "的比喻指的是可以自主操作的無人駕駛飛機;然而,目前大多數人工智能只能在人類操作員的輸入下,在狹窄的、預先確定的環境中發揮良好作用。
盡管如此,人工智能越來越多地融入無人機和其他亞博體育手機客戶端,造成了在沒有人類有效控制的情況下決定沖突的非常真實的危險。在沖突中使用暴力可能是由機器的本能決定的,而機器無法駕馭戰爭中模棱兩可的道德問題,也無法做出合乎道德的決定。我們無法預測法律將如何跟上甚至阻止這種技術進步,但目前的法律框架肯定缺乏清晰性和前瞻性。
由算法和機器驅動的沖突無需人工干預,圍繞這些沖突的倫理或道德問題能否得到解答尚不確定。自動無人機本身并不是武器,而是運送武器的平臺,國際法并未對無人機的使用做出具體規定。雖然無人機的使用與所有武器一樣受國際法原則的約束,即區分、相稱和禁止任意攻擊的規則,但由于缺乏任何具體的法律,監管難度極大。國際社會必須建立一個國際法律框架,確保人類始終保持對 AWS 的有效控制,確保系統不會在沖突中自主選擇軍事目標。
政府專家小組在 2023 年發布的最新報告中強調,必須制定法律措施,限制使用 "基于致命自主武器系統領域新興技術的武器系統,這些系統一旦啟動,就能夠識別、選擇、跟蹤并對目標使用武力,而無需人類進一步干預"。作為戰爭武器領域前所未有的創新,AWS 需要一個新的國際法律框架,它必須足夠強大和靈活,以跟上技術進步的飛速發展。因此,政府專家小組必須繼續推動聯合國通過新的國際法律框架,限制在現代戰爭中開發和使用 AWS。
克里斯蒂安-漢伯是倫敦格林威治大學法律與犯罪學學院國際法副教授。他在國際法領域發表了大量論文,主題包括人權、人工智能、隱私權、民粹主義、現代戰爭和國際關系。他還是上議院武器系統人工智能特設委員會(House of Lords Select Committee on Artificial Intelligence in Weapon Systems)的撰稿人。
人工智能(AI)已成為多個領域的變革力量,國防領域也不例外。然而,有一種人工智能子集在這方面尤其具有突破性: 邊緣人工智能。通過在設備上本地處理數據,邊緣人工智能即使在斷開連接的環境中也能提供更快的響應、更強的安全性和更穩健的操作。對于國防部隊(陸軍、海軍和空軍)來說,這些優勢可以轉化為更高的作戰效率、更強的態勢感知能力,并最終增強國家安全。
要使邊緣人工智能有效發揮作用,需要一套特定的基礎設施組件。核心要素包括
問題陳述: 陸軍經常在危險和不可預測的地形中執行任務。派遣士兵在這些地區執行偵察或巡邏任務會使他們面臨不必要的風險。
解決方案 配備了邊緣人工智能功能(攝像頭+邊緣人工智能節點)的自主地面車輛可以在具有挑戰性的地形上航行,在不危及人類生命的情況下執行偵察和巡邏任務。這些車輛可以實時處理數據,快速決定要走的路徑、要避開的障礙物以及是撤退還是繼續前進。
成果: 降低士兵的風險,提高巡邏效率,增強態勢感知能力。
問題陳述: 海軍艦艇需要定期維護,以確保最佳功能。然而,由于這些系統的復雜性,確定維護需求可能是一項具有挑戰性的任務。此外,目前艦艇和潛艇上的數據收集系統都是靜態的,只能在事后而非實時地從中挖掘洞察力。
解決方案結構: 邊緣人工智能可用于開發智能維護系統。遍布整個船只的傳感器可以監測各種參數,通過邊緣處理,可以在本地對數據進行實時分析,從而獲得即時見解。在邊緣設備上運行的預測性維護模型可以在潛在問題變成嚴重問題之前預見到它們。
成果: 提高船舶效率,減少停機時間,顯著節約維護成本。
問題陳述: 空軍需要進行廣泛監視,以維護空域安全。然而,這項任務需要大量資源,而且會使飛機和人員暴露在敵方防御之下。
解決方案結構: 由邊緣人工智能驅動的無人機蜂群是一種新興的解決方案。配備了邊緣人工智能設備和適當人工智能模型的無人機可以協調成群或 “蜂群 ”運行,在提供廣泛覆蓋的同時降低風險。它們可以就飛行路徑、監控目標和躲避敵方防御做出實時決策。
成果: 擴大監視范圍,降低人員和飛機面臨的風險,縮短響應時間。
問題陳述: 國家邊境和軍事設施幅員遼闊,往往地處偏遠,要有效監控和確保其安全極具挑戰性。傳統的監控方法可能會耗費大量資源,而且不一定能及時發出有關潛在安全威脅的警報。
解決方案結構: 邊緣人工智能可以利用傳感器和攝像頭網絡為先進的監控系統提供動力。這些系統可以對視頻信號進行實時分析,識別異常情況或潛在威脅。例如,它們可以檢測未經授權的移動,識別特定車輛或人員,甚至識別可疑的行為模式。
成果: 加強邊境和軍事設施的安全,及時發現威脅,減少監控任務的人力需求。
問題陳述: 軍事平臺,無論是物理平臺(如軍事基地或艦船)還是數字平臺(如國防網絡),都需要嚴格的訪問控制來確保安全。傳統的訪問控制方法很容易遭到破壞,而且訪問權限管理既復雜又耗時。
解決方案結構: 邊緣人工智能可用于創建復雜的自動訪問控制系統。生物識別身份驗證系統可利用人工智能,根據面部識別、指紋或其他生物識別數據準確驗證身份,并在本地處理信息,以實現快速、安全的訪問控制。對于數字平臺,人工智能可以監控用戶行為,檢測可能表明未經授權訪問或惡意活動的異常情況。
成果: 增強軍事平臺的安全性,簡化訪問控制程序,及早發現潛在的安全漏洞。
上述用例是國防垂直領域的一些關鍵用例。還有許多其他使用案例,使用邊緣人工智能可以成倍地提高效率,從而釋放關鍵的人力資源。在軍隊中實施基于邊緣人工智能的解決方案不是 “是否 ”的問題,而是 “何時 ”的問題。
參考來源://www.linkedin.com/pulse/harnessing-power-edge-ai-defence-look-critical-use-cases-katta
當今的威脅形勢瞬息萬變,能否在充分了解情況的基礎上做出以數據為導向的決策,關系到任務的成敗。然而,傳統的分析方法往往無法應對現代國防和情報行動所面臨的大量復雜數據。
這正是知識圖譜驅動的先進人工智能(AI)提供變革性解決方案的地方。通過利用大型語言模型和知識圖譜的協同作用,軍事領導人和分析人員可以獲得基于背景的洞察力,從而領先于新出現的威脅,并自信地做出關鍵決策。
國防領域的有效決策需要對行動背景有細致入微的了解,即形成現實世界場景的實體、關系和特定領域知識的錯綜復雜的網絡。在人命關天、容錯率極低的情況下,這種背景意識至關重要。
獨立的人工智能模型雖然功能強大,但缺乏可靠支持關鍵任務應用所需的上下文基礎。這些模型通常是在廣泛的互聯網數據基礎上訓練出來的,容易產生幻覺、與事實不符,而且對國防部隊面臨的復雜作戰現實缺乏敏感性。
知識圖譜為人工智能提供了一個專為國防領域量身定制的豐富、結構化的知識庫,從而彌補了這一關鍵差距。這些圖對現實世界的概念、實體(人員、組織、地點等)及其相互關聯的關系進行建模,捕捉可靠的決策支持所需的深層背景。
通過將大型語言模型(LLM)與知識圖譜相結合,我們可以釋放出強大的協同效應,將 LLM 的生成能力與圖譜中編碼的結構化上下文知識相結合。這種混合方法通常被稱為 "情景(上下文)人工智能",它允許 LLM 生成不僅流暢連貫,而且基于相關的、經過驗證的事實和特定領域知識的響應。
例如,負責分析潛在威脅場景的情境人工智能系統可以利用知識圖譜來了解相關行為體、其動機、歷史模式和地緣政治背景。有了這些豐富的背景知識,LLM 就能生成細致入微的評估、可行的建議和應急計劃,以應對錯綜復雜的局勢。
情境人工智能在國防和情報領域的應用意義深遠:
雖然情景人工智能潛力巨大,但將其部署到關鍵任務防御應用中需要一個強大的信任和問責框架。知識圖譜通過編碼事實性的、可驗證的知識并實現透明的推理過程,為此奠定了重要的基礎。
此外,人工智能的道德原則,如公平性、可解釋性和人類監督,必須嵌入到這些系統的開發和部署中。這將確保情境人工智能能夠增強人類決策者的能力,同時遵守最高的問責和負責任使用標準。
隨著威脅的演變和現代戰爭復雜性的加劇,知識圖譜和情景人工智能的整合成為國防部門和特種作戰部隊的戰略要務。通過利用這一變革性技術的力量,可以獲得決定性的優勢,在日益動蕩的世界中保持任務準備狀態并保障國家安全。
注:任務準備(戰備):指軍隊、組織或個人為完成任務所做的準備工作,包括物資、裝備、人員、訓練等方面的準備。
美陸軍深入探索了影響作戰環境的問題,特別是那些直接影響美陸軍在當代作戰空間中的行動問題。在過去的十多年里,國家和非國家行為者越來越多地將軍民兩用自動化技術武器化,使空中、陸地和海洋領域的作戰能力擴散化。 在空中領域,無人駕駛航空系統(UAS)最初提供的是情報、監視和偵察(ISR)能力,而無需運營有人駕駛平臺所需的相關成本和基礎設施。 最近,目睹了 ISR 和打擊能力在小型無人機系統(sUAS)中的融合,使較小的國家也有能力識別、接近和打擊目標--“降低了聯合作戰的‘入門費’”。
幾乎任何人都將 “能夠利用這些小型、廉價、可單獨消耗的平臺,幾乎不間斷地收集實時情報,并選擇時間和地點,通過龐大的數量壓垮對手的防御”--用美瘋狂科學家扎克里-泰森-布朗(Zachery Tyson Brown)雄辯的話來說,這就是 “喬米尼的復仇”(Jomini's Revenge): 大規模反擊!
以下是關于 sUAS 在當代帶來的真實威脅、從當前和最近的沖突中看到的趨勢,以及陸軍、聯合部隊和整個國家應如何應對的關鍵見解:
-** 俄羅斯/烏克蘭沖突是 sUAS 平臺發展的最新實驗室,尤其是第一人稱視角 (FPV) 無人機技術的發展--利用虛擬現實技術駕駛無人機精確打擊目標**。無人機系統技術的發展可以追溯到 2021 年的以色列/哈馬斯沖突、2020 年的納戈爾諾-卡拉巴赫沖突、2014 年最初的俄羅斯/烏克蘭沖突以及 2010 年的伊拉克沖突。
前美國防部長馬克·埃斯珀(Mark Esper)曾經說過:“歷史告訴我們,那些率先利用新一代技術的人往往在未來幾年的戰場上擁有決定性的優勢”。
人工智能和機器學習將在塑造現代戰場方面發揮關鍵作用。這些技術增強了態勢感知能力,優化了決策,并提供了競爭優勢。
從用于偵察的自主無人機到用于供應鏈管理的預測分析,它們的影響是深遠的。在烏克蘭的行動凸顯了這些技術的應用:由克里斯·希爾博士領導的陸軍物資司令部分析小組利用作戰數據在需要時協助需求規劃,同時無縫預測和協調需求。快速處理此類大量數據的能力允許實時威脅檢測和響應,從而挽救生命和資源。
此外,人工智能有助于開發復雜的網絡防御系統,并支持創造更智能、適應性更強的武器。簡而言之,人工智能和機器學習正在通過提高效率、準確性和整體有效性來徹底改變戰爭。隨著我們繼續開展活動和運營,并在全球范圍內進行投資,情況將保持不變。
總的來說,指揮官和領導者必須信任這項技術,才能在聯合全域作戰中證明其有效。當務之急是,所有梯隊的領導者都必須考慮如何制定和實施與家鄉站的數據訓練策略——以及戰斗訓練中心的參與——以建立對技術的信心,以便領導者能夠以信任的速度運作。
在不斷變化的戰爭環境中,技術進步不斷塑造著武裝部隊的作戰方式。從南北戰爭期間的加特林機槍到二戰期間的DUKW兩棲車輛和M-3半履帶運兵車,技術一直影響著我們的戰斗方式。
在這些進步中,人工智能和機器學習已成為游戲規則的改變者,無疑將徹底改變現代戰場。它們的整合在軍事行動的各個方面,從情報收集到決策等方面都帶來了前所未有的改進。
量子計算和機器學習可以在幾秒鐘內做出比傳統工作人員在軍事決策過程中更多的行動方案,這允許決策速度,這將給我們帶來決定性的優勢。
隨著戰爭性質的變化,我們正處于一個戰略轉折點,正如現已退休的馬克·米利將軍在 2023 年 7 月發表的“聯合部隊季刊”文章《戰略拐點:戰爭性質中最具歷史意義和最根本的變化正在發生——而未來籠罩在迷霧和不確定性中》中所闡明的那樣。
“我們必須努力比敵人少犯錯,”他說。這要求我們的聯合特遣部隊在聯合作戰概念的指導下進行根本性轉變。隨著我們過渡到一個新的戰爭時代,如果我們要贏得“比敵人少犯錯”的戰斗,我們必須確保聯合部隊被納入人工智能和機器學習的整合中。
同時,全面了解戰場對于軍事成功至關重要,人工智能和機器學習將使軍隊能夠利用大數據和實時信息的力量來增強態勢感知能力。配備人工智能算法的自主無人機可以以無與倫比的效率執行偵察任務,捕獲有關敵人動向、地形狀況和潛在威脅的數據。這些信息可以快速處理,使指揮官能夠在使用傳統方法所需時間的一小部分內做出明智的決定。
這種增強的態勢感知能力不僅可以最大限度地降低士兵的風險,還可以對新出現的威脅做出積極反應。簡而言之,訪問可以快速處理和分析的數據,為指揮官和作戰人員的實時決策提供信息,這將改變戰場上的游戲規則。
利用人工智能和機器學習等技術將塑造我們如何在未來的戰斗中采用這一概念,并決定我們如何培訓和發展梯隊領導者,以便在競爭、危機或沖突中利用這項革命性技術。
在“軍事評論”最近的一篇文章中,堪薩斯州萊文沃思堡陸軍聯合武器中心司令米爾福德·比格爾中將談到了我們必須如何通過減少對材料的依賴和提高對信息維度的利用來優化指揮所。
在混亂的戰爭中,瞬間的決策可以決定戰斗的結果。
正如在第二次世界大戰期間的中途島海戰中所看到的那樣,在那場海戰中,決策速度決定了成敗。人工智能和機器學習算法旨在處理大量數據并識別人類可能遺漏的模式。這些工具將改變組織如何更快地做出更好的決策。
將那些經常在“數據脫節”環境中作戰的戰場最邊緣的指揮官提升到行動指揮官和上層之間費力的信息流的犧牲品。
這種能力有助于軍事領導人做出更明智的決策,從選擇最佳戰略到根據實時情報評估最佳行動方案。從歷史數據中得出的預測分析還可以幫助預測敵人的動向并識別其防御中的潛在弱點。這是對指揮官現在利用的人類情報和信號情報流的一大補充。
最后,利用這項技術可以采取更有計劃、更有效的軍事行動方法,從而最大限度地減少傷亡并提高任務成功率。
戰略競爭對手正在部署能力,通過所有領域的多層對峙來對抗對手,這將要求在太空、網絡、空中、海上和陸地上擊敗多層對峙。實時檢測和響應威脅的能力是現代戰爭的重要組成部分。
人工智能驅動的系統可以同時監控多個數據源,從衛星圖像到截獲的通信。通過實時分析這些數據,算法可以識別異常和潛在威脅,從而立即向軍事人員發出警報。這種積極主動的方法能夠實現快速響應和反擊,防止對手占據上風。
無論是對關鍵基礎設施的網絡攻擊還是敵軍的移動,人工智能驅動的威脅檢測系統在維護軍事行動的安全性和完整性方面都具有顯著優勢。
后勤和供應鏈管理是任何軍事行動的命脈。在全球綜合后勤環境中,有太多相互作用的變量,維持者無法有效監控。
如今,人員只能通過各種數據流對車隊和供應商品的歷史數據進行監控。正如 Lone Star Analysis 的 John Price 在 2021 年 8 月發表在“軍事嵌入式系統”上的一篇文章中所寫的那樣,“計算機系統可以提供持續的評估,并且有足夠的機器智能,預測就會變得強大。
人工智能和機器學習通過預測需求模式、識別供應短缺和簡化分銷路線來優化這些流程。這包括人工智能驅動的基于車輛狀態的維護,該維護監控車輛的各個方面,從進氣到排氣以及其中的所有點。
因此,我們將范式完全從工廠轉移到了工廠,現在需求從散兵坑傳到了工廠。基于車輛狀態的維護利用預測性和規范性分析,同時提供持續診斷以及提供問題預測和解決方案處方,從而使人員能夠專注于進行特定調整,以優化軍用車隊的運營可用性。
這不僅確保了部隊擁有必要的資源,而且還最大限度地減少了浪費并降低了成本。通過自動化重復性任務和優化路線,武裝部隊可以更有效地分配資源,并在速度和效率方面保持競爭優勢。這種由人工智能和機器學習實現的精確維持確保響應符合需要,或者從散兵坑移動到工廠,而不是從工廠轉移到散兵坑。
同時,現代戰爭超越了傳統戰場,也包括了網絡領域。人工智能和機器學習在制定針對網絡威脅的自適應防御策略方面發揮著至關重要的作用。
美國防部的OODA - 觀察,定位,決策和行動 - 是作戰人員使用數據不僅實現有根據的決策,而且及時定位的循環。這些技術可以快速識別和響應網絡攻擊,分析模式以區分正常的網絡活動和可疑行為。此外,人工智能驅動的網絡安全系統可以從以前的攻擊中吸取教訓,并不斷提高其檢測和消除新出現的威脅的能力。
隨著世界的不斷發展,沖突的性質也在不斷變化。人工智能和機器學習已成為現代軍事武器庫中不可或缺的工具。他們處理大量數據、加強決策和實現實時響應的能力改變了武裝部隊的運作方式。
從提高態勢感知到徹底改變供應鏈管理和網絡安全,這些技術正在塑造戰爭的未來。
美國防部致力于遵循“設計即使用”的方法,在聯合全域作戰中利用這項技術。在開發解決方案時,每種服務都有不同的要求。
美國陸軍的要求可能是移動中的士兵或地面戰車;相比之下,對于空軍來說,這個案例可能是前沿空軍基地所需要的。
隨著向前邁進,這些技術的整合對于保持軍事優勢和確保軍事人員在現代戰場上的安全和成功仍然至關重要。借助人工智能和機器學習,無疑將能夠“以最先的速度”到達那里。
參考來源,David Wilson,美國陸軍維持司令部司令
本文討論了在軍事領域決策過程中使用人工智能(AI)的好處和注意事項。文章側重于三個主要方面:提供更快、更準確信息的能力,掌握情況和減少人為錯誤,以及在使用這種技術時必須考慮的技術和倫理因素。人工智能可以大大改善軍事領域的決策;然而,重要的是要反思與使用人工智能相關的倫理和技術影響。
關鍵詞 人工智能、情境領域、減少人為錯誤、合成環境、顛覆性技術、知情決策。
人工智能(AI)已成為包括軍事在內的各個領域的重要工具。人工智能的定義是開發計算機系統,使其能夠執行通常需要人類典型的理性智能才能完成的任務,包括識別語音、做出決策和解決問題。在軍事領域,人工智能可以通過實時處理有價值的信息,幫助指揮官更快、更準確地做出決策。然而,人工智能在軍事領域的應用也帶來了倫理和技術方面的挑戰,例如在隱私和數據安全等方面對人類的影響。必須了解人工智能在軍事領域的優勢和挑戰,才能有效、負責任地實施人工智能。從這個意義上說,人工智能的應用可以優化指揮官在戰場上及時做出明智決策的能力。此外,對大量信息的即時處理使人們有可能對全景有更全面的了解,這為預測突然變化和可能出現的風險提供了依據,而這些都需要掌握態勢。這也有助于減少個人失誤,擺脫每個人的局限性。不過,有必要考慮在對這一顛覆性技術進行管理時所涉及的倫理問題。
在軍事領域使用人工智能并非新概念。然而,在很短的時間內,它已成為一種日益重要和有用的工具。它能夠高速、準確地處理大量數據,并分析模式和趨勢,提供重要信息,幫助指揮員在發生危機時執行措施,而危機需要快速、有效的反應,這在完成任務可能受到影響的情況下非常有用。
此外,人工智能還能識別人類可能忽略的模式和趨勢,從而更好地進行數據分析。這樣就能更全面、更清晰地了解任何情況,使軍方能夠做出更明智的決策。人工智能還能將數據收集和分析等乏味的重復性任務自動化,從而騰出時間實施更相關的行動。
從這個意義上說,人工智能提供信息的速度和質量對軍事決策過程有著積極的影響。指揮官可以擁有一種工具,使他們在行動發展過程中更容易選擇并永久保持認知優勢。所謂 "認知優勢",是指在戰場上以最有效的方式利用信息和知識的能力。這意味著,人工智能可用于規劃過程、開展行動,甚至在任務完成后提供反饋并鞏固認知優勢。
同樣,在軍事行動規劃中,人工智能可以分析數據、生成情報,并提供需要優先處理的局勢變化信息以及可用資源和其他重要因素。在戰爭實施過程中,人工智能可以提供有關設備變化、通信流量和其他關鍵因素的實時數據。這一優勢將使指揮官有能力在不斷變化的情況下做出快速有效的決策,并確保其部署的資產始終處于有利地位。例如,某國開發了一套自主車輛系統,用于收集戰場信息,其目的是對信息進行處理,以便為決策提供準確的要素;它甚至可以在結果評估方面提供幫助。
據西點軍校現代戰爭研究所稱,人工智能的多任務特性使其可以通過與不同決策層的偵察、監視和情報集成手段的實時連接,用于收集和處理信息。人工智能能夠處理大量數據并從中學習,這意味著指揮官可以提高對態勢的掌控能力,減少危急情況下的人為錯誤。
一方面,人工智能可以實時處理信息,全面了解戰場態勢。此外,人工智能還能分析歷史數據和趨勢,在更短的時間內預測局勢并做出更準確的決策。同樣,如果與能夠以自身標準開展行動的自主手段銜接,就可以省去暫停行動的必要,從而有可能對對手保持持續的壓力。例如,人工智能可以分析敵人的行為模式并預測未來的動向,從而用于制定不確定性余地更小、細節更精確的應急計劃。
另一方面,在軍事決策過程中應用人工智能還能減少人為錯誤。從這個意義上說,由于軍事力量的應用所隱含的后果,指揮官的決策能力面臨著需要高度重視的情況。例如,法律方面的考慮,如尊重人權或保護自己的部隊,被證明是涉及道德的因素,最終會對指揮官產生壓力,并可能導致因疲勞、恐懼或缺乏經驗而做出錯誤的決定。在這種情況下,人工智能通過提供準確可靠的信息,有助于最大限度地減少這些錯誤。
此外,人工智能還可用于模擬合成環境中的情況,讓軍事人員在安全可控的環境中練習、積累經驗并提高技能。因此,美國陸軍正在利用人工智能的優勢培訓步兵單元指揮官,根據戰術形勢的變化--面對模擬對手--創建可變場景,對手的反饋和快速決策能力豐富了培訓經驗。這樣就能加強美國陸軍培訓的步兵指揮官的決策和掌握情況的能力。總之,在軍事決策過程中應用人工智能,可以讓負責任的指揮官提高對態勢的掌握能力,減少人為錯誤。
人工智能這一技術正越來越多地應用于軍事領域,目的是提高軍事行動的效力和效率。然而,人工智能的使用也帶來了一些重要的技術和倫理問題,必須認真加以解決。從這個意義上說,不應無視這一現實,也不應無視在使用這些技術時因其顛覆性而涉及的考慮因素。
從技術角度看,在軍事決策過程中使用人工智能有可能提供更快、更準確的信息,提高對態勢的認識,并降低人為錯誤的風險。然而,人工智能的使用也帶來了必須妥善解決的重大挑戰。首先是人工智能所使用數據的質量問題,人工智能的正常運行依賴于準確、高質量的信息。如果不具備這些特征,人工智能除了在訓練中出現錯誤外,還可能做出不正確或不恰當的決定。因此,必須掌握準確的最新數據,以確保人工智能的效率。其次,必須有足夠的基礎設施供其使用。換句話說,人工智能需要大功率的計算基礎設施和可靠的通信網絡才能良好運行。因此,要想在軍事決策過程中充分發揮人工智能的潛力,就必須對基礎設施進行投資。
另一方面,從道德角度來看,使用人工智能會引發重要的思考,例如它對受武裝沖突影響的戰斗人員、非戰斗人員和平民的生活會產生什么影響。因此,必須制定明確和透明的政策,規范在軍事情況下使用人工智能。在這方面,為確保在軍事領域有效使用人工智能,有必要明確以下幾個方面: 首先,必須制定明確透明的人工智能使用政策,并確保所有專家、人工智能操作員都接受過使用、監督和控制該技術的培訓。其次,必須確保提供有效使用人工智能所需的計算和通信基礎設施。這包括購置適當的設備和技術,以及建立安全可靠的通信網絡。因此,要充分利用人工智能在軍事決策中的潛力,就必須對基礎設施進行投資。
人工智能可提高收集信息的速度和準確性,并增強及時做出明智決策的能力,從而提高軍事行動的效力和效率。此外,使用人工智能還有助于減少人員傷亡和附帶損害,從而保護平民和限制軍事行動對非戰斗人員的負面影響。為了充分發揮人工智能在軍事領域的潛力,必須制定清晰透明的使用政策,優先培訓軍事人員使用人工智能,并與學術研究機構簽訂合作交流協議。這將有助于最大限度地降低在軍事行動中使用人工智能的風險,最大限度地提高其效益。在軍事領域的決策過程中使用人工智能的經驗,主要參與者是美國陸軍等,由于不斷競爭以加強其在世界上的存在,他們一直在加速發展這項技術。可以從中汲取重要的經驗教訓,以發展自己的人工智能,并闡明國防方面的需求,特別是在軍事決策過程中。總之,在決策過程中適當實施人工智能,可受益匪淺。這可以通過提供更快、更準確信息的自主系統來實現;也可以通過在模擬器中使用合成環境對指揮官進行決策培訓來實現;最后,還可以通過減少處理過程中的人為錯誤來實現。
參考來源:CEEEP
人工智能的不斷進步使軍事系統具有更高水平的自主性。隨著機器智能作用的擴大,人類與自主系統之間的有效合作將成為未來軍事行動中越來越重要的一個方面。成功的人機協作(HAT)需要對機器智能建立適當的信任度,而信任度會隨著人機協作發生的環境而變化。有關信任和自動化的大量文獻,以及關注軍事系統自主性的最新研究成果,構成了本研究的基礎。本研究考察了機器智能應用的三個一般類別中信任的各個方面。這些應用包括數據集成與分析、所有領域的自主系統以及決策支持應用。在每個類別中,與適當調整信任度有關的問題各不相同,信任度調整不當的后果和潛在的緩解措施也不盡相同。
縱觀歷史,技術在武裝沖突的演變中發揮了關鍵作用。技術加快了戰術交戰的節奏,拓寬了戰場的地理范圍,增加了指揮官與部隊溝通的手段,也改變了國家計劃和實施武裝沖突的方式。在二十一世紀,一組統稱為人工智能(AI)的技術似乎準備開創一個新時代,在這個時代,機器智能和自主性將為軍事行動的規劃和執行帶來全新的概念和程序。大量數據的不斷涌現激發了人們對信息的貪婪欲望,這就需要對信息進行快速、冷靜的分析,而人工智能恰恰能夠勝任這一角色。人工智能決策、改進的傳感器和敏捷的機器人技術的融合,將使新系統能夠獨立完成 "觀察-定向-決策-行動"(OODA)決策循環的所有階段。大量自主系統涌入戰場,基于算法的戰爭潛力將逐漸增強甚至取代人類在部分或全部步驟中的決策過程,其速度可能超過人類規劃者的認知戰能力。
目前,從通信設備、傳感器到防空系統,算法為一系列軍事系統做出了貢獻。在許多方面,現代軍事力量已經依賴于某些形式的人工智能。然而,機器智能的未來應用將帶來一種新的能力--一種非人類的協作伙伴,能夠在戰場環境不斷變化的背景下做出積極主動的 "決策"。這種能力的內在優勢只有在人類能夠自如地依賴人工智能的情況下才能實現--人工智能不僅是一種工具,而且是團隊中的一員。因此,本文將重點討論人機協作(HAT)的一個具體方面:建立對機器智能的適當信任度。已有大量學術文獻關注自動化或機器人技術在商業應用中的信任問題,但專門針對軍事應用的學術研究卻不多。本文將特別探討利用人工智能的自主系統是如何在不同的軍事環境中使用的,以及這些不同的環境是如何影響信任度的。
本文的基本論點有三個方面。首先,為軍事用途開發的人工智能技術分為三大類,貫穿戰爭的戰術、戰役和戰略層面:用于數據整合與分析的算法解決方案、利用機器智能的自主系統以及輔助人類決策的支持軟件。其次,認為人工智能在軍事行動中的普及必然會導致人類與智能機器之間更多的互動。軍事行動將越來越依賴于安全有效的人機協作,而這反過來又依賴于人類不斷評估并給予智能機器適當程度的信任--即信任校準。與適當的信任校準有關的問題在這三個類別中各不相同,信任失調的影響也各不相同。第三,因此,確保與人工智能的最佳人機合作將取決于識別每個類別中的潛在信任問題,并設計適當的技術或理論調整來解決這些問題。在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,探討了信任和信任校準的概念,然后分析了在三個類別中鼓勵適當信任度的陷阱和可能性。
幾十年來,人類一直醉心于為機器注入某種形式的人工智能的可能性。尼爾斯-尼爾森將人工智能定義為 "致力于使機器智能化的活動,而智能是指使實體在其環境中適當地、有預見性地發揮作用的品質"。在數字時代的初期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析特定的數據集。對于具有可預測規則的明確環境(如分析實驗室結果或下棋等應用),專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法質量。另一大類則采用自下而上的機器學習方法,仿效人類通過檢測數據中的模式進行學習的方式。神經網絡是一種受人腦啟發的機器學習方式,它能利用多層(因此是 "深層")人工神經元識別復雜模式,這種技術是 "深度學習 "方法的基礎。這種方法能夠發現數據集中的關系,因此也被稱為 "連接主義"。
自上而下、基于規則的符號系統與自下而上的機器學習聯結主義技術之間存在很大差異,尤其是在應用的潛在范圍和靈活性方面。深度學習方法的顯著特點是能夠將學習與訓練所依據的數據集分離開來,因此該方法可應用于其他類似問題。基于規則的算法在狹義的任務中表現極為出色,而深度學習方法則能夠迅速找到模式,并在專家系統計算方法效果較差的應用中“自學成才”。最近的一些人工智能進展表明,它們有能力模仿創造力,或產生新穎的解決問題的方法,而這些在人類看來可能是違反直覺的。例如,帶有人工智能導航控制的高空氣球發現了利用風型的最佳和意想不到的技術,或者利用人工智能開發出更有效的增材制造機器部件設計。
不過,一般來說,人工智能的范圍仍然很窄,或者說 "很脆弱",因為它們在特定的應用中運作良好,但在其他應用中仍然缺乏靈活性。與人類相比,由于機器的計算速度遠遠超過人腦,因此在對數據集應用邏輯規則時,機器智能要優越得多,但在嘗試歸納推理時,機器智能必須對數據集或環境進行一般性觀察,因此就顯得力不從心。大多數機器學習仍然需要大量的訓練數據,盡管包括自監督學習、生成模擬數據的技術(如使用生成式對抗網絡(GAN))和 "少樣本學習"(LO-shot learning)在內的新方法正在出現,這些方法需要非常小的數據集。圖像識別算法很容易混淆,無法像人類那樣立即或直觀地解釋環境背景。這種脆性還延伸到游戲等其他問題上。雖然人工智能在視頻游戲中經常表現出超人的能力,但它們往往無法將這種專長轉移到具有類似規則或游戲機制的新游戲中。
雖然人工智能技術在提高適應性方面不斷取得重大進展,但接近人類的人工通用智能仍然遙不可及。這部分是由于我們對人類處理信息時所涉及的生物學和化學--也就是通常所說的人類認知--的掌握令人驚訝地有限。神經科學家仍不完全了解大腦是如何運作的,這限制了以生物過程為基礎模擬數字過程的努力。因此,深度學習等人工智能技術與認知神經科學建立了共生互利的關系。人工智能技術的漸進式發展使評估人工智能的近期前景變得更加復雜。深度學習方法的成功在很大程度上助長了對人工智能的炒作,導致人們對該技術的未來抱有不切實際的期望,并將其巨大進步正常化。有人將此稱為 "人工智能效應"。一份報告指出:"人工智能將一項新技術帶入大眾,人們對這項技術習以為常,它不再被視為人工智能,而更新的技術出現了。" 一些人猜測,機器學習技術帶來的進步可能會趨于平緩,而另一些人則保持樂觀。一些人認為,將符號人工智能方法與各種形式的機器學習相結合的嘗試很有潛力。因此,近期前景仍不明朗。相關的技術進步,包括短期的計算機芯片設計和長期的量子計算,也可能影響人工智能進一步發展的步伐。
不過,對于許多軍事應用來說,狹義的人工智能應用已經綽綽有余。全球各國軍隊已在使用的許多算法解決方案都可被視為 "人工智能",而且不乏對人工智能用途的建議。人工智能可能帶來的軍事能力,是克里斯蒂安-布羅斯等分析家和羅伯特-沃克等前國防官員所設想的截然不同的未來作戰環境的一部分。如果這些關于人工智能影響的預測成真,它們將對行動的規劃和實施產生廣泛影響。現有和不久將來的應用可分為三類:數據整合與分析、自主系統和決策支持軟件。與大多數類型一樣,這些類別的邊緣并不完全清晰,有些應用跨越了多個標簽。但值得注意的是,從數據分析到自主系統,再到最終的決策支持應用,在軍事背景下利用人工智能的潛在后果--以及由此帶來的信任度不高的風險--都在增加。此外,在軍事力量結構中整合自主系統也會產生累積效應。信任人工智能來處理傳感器數據是允許自主系統與人類人員并肩作戰的必要步驟,而未來在戰役層面由人工智能支持的決策將需要更多一層的信任,這種信任關系建立在將自主系統投入實戰的軍事單元之間的人類-自主團隊合作所注入的信任關系之上。
在各種能力和平臺的運行中使用人工智能,普通用戶往往不會注意到,原因很簡單,因為人工智能在系統架構中發揮著綜合作用。這方面的例子包括民用衛星導航、互聯網搜索引擎或在線翻譯工具。軍事應用包括利用機器學習算法優化電磁頻譜使用的無線通信或雷達。對于無人駕駛或遙控飛機,機載算法允許傳感器獨立進行初步數據分析,從而減少帶寬需求。算法已經在一系列系統和平臺的傳感器數據分析中發揮了作用。
除了這些綜合應用外,有意識地積極使用人工智能進行數據分析還延伸到了情報、監視和偵察(ISR)工作中。正如詹姆斯-約翰遜(James Johnson)所指出的那樣,機器學習算法 "可以顯著改善現有的機器視覺和其他信號處理應用,從大量的信號和圖像數據集中識別模式,并增強自主性和傳感器融合應用"。美國空軍于2017年成立了算法跨職能小組,將人工智能應用于圖像分析,努力識別和跟蹤目標,并建立生活模式以提高態勢感知能力。在網絡空間,模式識別算法同樣可以確定網絡的正常運行模式,從而更容易識別可能預示著入侵者存在的偏差。利用人工智能進行公開來源情報(OSINT)分析可以識別個人,甚至對叛亂活動做出粗略的近期預測。全球信息主導實驗(GIDE)等實驗性人工智能應用軟件可從海量多源數據中篩選出模式和趨勢,從而對一系列未來事件做出預測。
人工智能的第二類應用包括范圍廣泛的自主系統。自主是一個仍然難以準確或簡明定義的術語。聯合空中力量能力中心(JAPCC)在2016年的一份報告中對自動化與完全自主系統進行了區分,前者涉及機器執行人類設定的可預測、有界限的預定任務。作者將自主系統描述為:能夠決定自己的行動方針、不受預編程反應限制的深思熟慮的決策、具有學習和積累 "經驗 "的能力,因此其行動不再是完全可預測的。保羅-沙雷(Paul Scharre)和邁克爾-霍洛維茨(Michael Horowitz)在 2015 年的一篇論文中描述了自主性的三個維度: (a) 人機指揮和控制關系,通過確定人類是 "參與"、"開啟 "還是 "退出 "決策環路來簡化;(b) 機器或系統的復雜性和能力;以及 (c) 自動化功能的類型。
在人工智能方面,值得注意的是,自動化系統與自主系統之間的區別變得模糊。機器智能與實現自主系統的許多自動化功能高度相關,包括系統操作和自我診斷、自動駕駛儀、作戰軟件和目標跟蹤/識別以及自導武器。因此,"自主性 "描述的是一種獨立機器功能的滑動尺度,其中包含一系列變量,包括人機交互的程度、獨立感知和適應環境變化的能力、完成一系列預定目標的決策能力,以及不斷學習和改進這些決策的能力。
不那么嚴格的自主定義可能包括當前的軍事資產,如防空和導彈防御系統、反火箭或火炮系統、地面車輛主動防護系統、閑逛彈藥、先進巡航導彈和賽博能力。雖然目前大多數作戰領域都部署了自主系統,但下一代自主系統將利用人工智能實現更大程度的獨立,不受人類指揮的影響。目前正在開發的空間、海上、空中和地面平臺與系統,正如聯合咨詢理事會報告所概述的那樣,代表著一種質的演變,從戰術指揮官可利用的工具轉變為人類必須與之互動和合作的伙伴。
自主飛機不久將執行后勤任務,如運輸貨物或加油任務。俗稱 "忠誠僚機 "計劃的新作戰概念設想了與駕駛飛機并肩作戰的大型無人平臺,從而為傳感器聯網或增加彈藥提供了更多選擇,從而提高了戰術靈活性。自主艦艇將為海上指揮官提供類似的海上作戰能力,地面系統目前也在開發之中。新的制造工藝將降低生產成本,同時降低對可擴展人工智能軟件的尺寸、重量和功率要求。這將有可能部署大量的小型無人系統,這些系統將以蜂群編隊的形式進行控制和協調,并配備作戰管理和目標瞄準軟件,這些軟件可以快速上傳和更新,只需敲擊幾下鍵盤就能對系統進行有效的 "再訓練"。因此,自主系統有望增加戰場上平臺的總體數量。
軍事指揮官在決策過程中已經依賴于機器智能,從算法推導的附帶損害估計,到防空和導彈防御系統的目標定位解決方案,不一而足。對于一系列系統而言,計算機生成的數據分析增強了對態勢的認識,并為作戰人員提供了選擇。未來的決策輔助工具可能會帶來進一步的發展。與目前耗時的作戰計劃模式相比,史蒂文-戴維斯認為,"當面對許多僅僅是合適、可行或完整的方案時,人工智能可以引導決策者找到最佳解決方案"。大量使用人工智能決策軟件的自主武器系統的引入可能會影響戰爭的作戰層面,特別是軍事行動的指揮與控制(C2)方面。
這個現在很常見的術語出現在 20 世紀 60 年代剛剛興起的信息技術時代,用來區分指揮的權力和責任,以及為指揮官控制行動的實施和執行創造必要條件的過程。雖然上級指揮官和政治領導人觀察特定戰術交戰已成為司空見慣的事,但如果部署了自主系統,作戰層面可能最適合由人類 "參與"。即使有了自動同步的水面艦艇或航空系統艦隊,仍需要以人為中心協調更廣泛的作戰行動。然而,在這種情況下,作戰計劃和協調可能需要人工智能的協助,以便保持有利和有效的戰斗節奏。
這就是所謂 "以決策為中心 "的作戰概念背后的動機。美國國防部高級研究計劃局(DARPA)提出的 "馬賽克戰爭"(Mosaic Warfare)概念,就是利用人工智能來協調分布式的部隊網絡。該概念提出了一種由人工指揮和機器控制的混合 C2 配置。指揮官根據人工智能對現有有人和無人部隊的概述,從人工智能生成的行動方案(COA)中選擇需要完成的任務。戴維斯概述的另一種方法是利用海上決策支持架構,中間層的人工智能基于保護、維持或火力等作戰功能。鑒于基于機器的快速決策所具有的明顯優勢,整合人工智能和自主系統的概念是一種合乎邏輯的進步,盡管這種進步雄心勃勃。當互聯的作戰空間允許不同但相互關聯的網絡進行數據融合時,這一點尤其適用。大量的可用信息可能會導致對機器智能的依賴,原因很簡單,因為需要機器認知來理解這些數據,并以有利的方式及時采取行動。
從傳感器數據到武器系統再到作戰決策支持,機器智能在軍事行動各個領域的預期作用表明,人們對人工智能的依賴程度越來越高。例如,北大西洋公約組織(NATO)倡議下的一份專家組報告建議,該軍事聯盟 "應鼓勵將人工智能納入戰略和行動規劃。它應利用人工智能驅動技術的力量,加強情景規劃演習和長期備戰。美國海軍最近發布的智能自主系統政策等官方聲明和出版物強調,信任是依賴的重要組成部分,其中包括人類應如何以及何時信任機器等問題。隨著機器智能越來越能勝任日益復雜的認知功能,并不斷磨練其獨立運作的能力,人類將需要把人工智能和自主系統視為合作伙伴,就像看待工具一樣。與任何伙伴關系類似,信任是人機有效合作的關鍵。
信任是許多概念中的一個,最初看起來很直觀,但深入研究后會發現變得更加復雜。在過去的幾十年里,信任出現了多種定義和概念,這并不奇怪。一篇頗具影響力的文章的作者在回顧了為信任下定義的各種嘗試后得出結論:"這些定義凸顯了在信任是一種信念、態度、意圖還是行為方面存在的一些重要的不一致之處。這些區別具有重要的理論意義"。梅耶等人(1995 年)提出的一個流行定義認為,信任是 "一方基于對另一方將采取對信任者很重要的特定行動的預期,愿意受另一方行動的影響,而不管是否有能力監督或控制該方"。信任的最新簡化定義是 "在以不確定性和脆弱性為特征的情況下,認為智能體將幫助實現個人目標的態度"。脆弱性和風險的存在是信任的重要組成部分,因為它為錯誤的信任帶來了潛在的代價。
雖然人機協作的基本要素與人際關系不同,但許多基本要素具有可比性。Keng Siau 和 Weiyu Wang 指出,信任是動態的,通常是通過雙向互動逐步建立起來的,但也會受到最初印象的強烈影響。一些學者認為,信任的產生最初是通過對未來行為的可預測性,然后通過建立可依賴性的一貫行為反復確認,最后演變成一種類似于信仰的對可靠性的廣泛判斷。
影響自動化信任度的有三個類似因素。自動化過去和當前的表現,以及系統實際工作的信息,都與可預測性相似。有關自動化設計的細節,以及它是否能實現操作員設定的目標,可以揭示系統如何運行的相關有用信息,從而激發與可依賴性相同的動力。最后,自動化背后的目的或原理,以及自動化的使用是否符合設計者的意圖,具有類似于信仰的抽象傳遞性(相信設計者的意圖,因此相信自動化)。
在許多學者看來,在這一點上,人與人之間的關系和人類對機器的信任開始有所不同。人們通常會對陌生人持懷疑態度,并如上所述逐漸建立信任,而人類則通常會在最初基于信仰的基礎上期望機器能完美工作。當出現錯誤時,這種最初的信任會迅速消失,但信任最終會被可預測性和可靠性這些更持久的品質所取代。凱文-霍夫(Kevin Hoff)和馬蘇達-巴希爾(Masooda Bashir)在 2015 年對有關信任和自動化的學術文章進行了全面調查,并建立了一個由三部分組成的信任模型,該模型以對機器的初始信任(處置性信任)為起點,并加入了背景(情景信任)和經驗(習得性信任)。
他們認為,對自動化的傾向性信任是三者中最穩定的,受文化、年齡、性別和個性特征的影響最大。這些變量中的大多數都有明顯的影響,但傾向性并不明顯。文化(可定義為 "反映共同教育和生活經歷的一系列社會規范和期望")的作用是一個特別突出的因素。專業背景或技術培訓是影響個人如何對待自動化的一種文化差異。對權力和權威的態度,甚至是對個人或集體利益平衡的看法,也會產生影響。一項針對冰島、芬蘭和瑞典客戶對電子商務服務信任度的研究顯示,在傾向性信任方面存在顯著差異,芬蘭客戶的懷疑程度最高,而冰島客戶的信任程度最高。
除了性格信任的初始影響外,情境信任是該模型的第二個組成部分,在培養自動化信任方面發揮著重要作用。情境因素可能包括外部變量,如系統復雜性、影響自動化監控的操作員工作量、影響自動化風險和效益的環境因素或組織結構。被視為人類操作員 "內部 "的相關情景信任因素可能包括自信心、自動化領域的主題專業知識、操作員的專注能力(受壓力、睡眠、無聊、內部動機的影響),甚至是積極的情緒--這與自動化的初始信任水平較高有關。
該模型的第三個也是最后一個組成部分是 "習得信任",它包含與自動化信任相關的一系列變量。操作員通常對自動化已有一定的了解,無論是來自其他自動化系統的先前經驗,還是基于相關自動化的聲譽。甚至在操作員與系統互動之前,對自動化的期望和對其性能的二手了解就會影響信任度。最初的交互首先會受到自動化系統設計特點的影響:其外觀、易用性、通信模式和透明度。與人機界面有關的設計選擇,如顯示屏布局或語音命令類型,在激發信任方面可發揮重要作用。一旦通過先前的經驗或系統本身的設計特點建立了最初的信任度,操作員就會不斷動態地衡量自己的信任度。這可能取決于可靠性、可預測性、系統實用性以及錯誤發生的時間和方式(包括如何提醒操作員)等因素。
人們一直致力于在人類與自動化系統之間建立信任,但過去的經驗表明,過度信任也會帶來問題。與自動化 "過度信任 "或濫用相關的最常見傾向包括自滿情緒和自動化偏見。操作員在監督基本可靠的自動化系統時往往會產生自滿情緒,從而降低對日常監控的警惕性,并認為系統運行正常--這一點不足為奇。與此相關的一個問題是自動化偏差,即人類操作員未能對自動化故障做出反應,或按照自動化建議做出錯誤決定。一項研究得出結論,使用計算機生成的除冰程序建議系統的飛行員,只要計算機提供的建議正確,其表現就會優于沒有該輔助系統的飛行員,但如果建議不正確,其表現就會更差。在另一項研究中,隨著自動化水平的提高,負責戰斧巡航導彈飛行中重新瞄準的操作員似乎更容易接受自動化建議,這表明存在自動化偏差。
自動化偏差似乎是造成一些商用飛機災難的原因,包括 2009 年法國航空 447 號航班的失事。資深記者威廉-蘭格維什(William Langewiesche)在 2014 年根據從飛機飛行記錄器中恢復的駕駛艙機組人員對話撰寫的一篇關于空難的詳細文章中,將自動化作為一個促成因素。Langewiesche 認為,飛行員已經習慣于依賴自動飛行輔助設備,而故障空速指示器的誤導信息造成了不確定性,使他們無法理解飛機的實際情況。這導致了一連串錯誤的決定,以及屢次未能做出適當--回想起來相對簡單--的調整,而這些調整本可以避免悲劇的發生。他簡明扼要地總結道:"自動化使得普通的航空公司飛行員越來越不可能在飛行中面臨原始的危機--但同時也使得他們越來越不可能在危機出現時能夠應對這種危機"。
開發人員通常不會專注于如何提高人類對自動化系統的信任度,而是努力激發與系統能力相關的校準信任度。信任校準簡單地描述了這樣一個過程:人類與機器自動化或機器智能的交互努力達到一種理想狀態,在這種狀態下,人類根據機器智能的優缺點對其給予適當的信任。以適當校準的信任度為目標,過度信任可以理解為超出系統能力的信任,而不信任則描述了與之相反的情況,即操作員對系統的信任程度低于其能力要求。實現適當的信任度調整聽起來很簡單,但往往會因人類的正常反應而變得復雜。如上所述,操作員在使用系統,尤其是機器智能系統時,通常對其性能有很高的期望。當錯誤發生時,人類操作員往往會過度修正自己的信任度,將期望值降低到低于系統能力的水平--從而直接從過度信任過渡到不信任。
過去幾十年來,對人機協作的大部分研究都集中在自動化系統上。一個幾乎沒有明確答案的基本問題是,自動化系統與自主系統在多大程度上存在差異。前面提到的區別是僵化的、預先確定的和可預測的自動化任務與不受約束的、動態的和不可預測的自主性之間的區別。最近一篇關于人類自主團隊的調查文章指出:"兩者之間的劃分是一個程度問題,差異是一個移動的目標......在哪一點上,自動化可能更適合描述為自主,這是一個開放的問題"。
因此,在實踐中,這種區分更多的是分級的,也許更好理解為一個連續體,一端是自動化功能,另一端是自主功能。即使是這種分級方法,其效用也是有限的。一旦我們對自主功能的性能和可靠性越來越滿意,就會逐漸將其視為更類似于自動化的功能。為了進一步細化,自主系統甚至可能具有自動化功能。由人工智能支持的自主網絡防御系統可以獨立行動,以不可預測和無腳本的方式處理威脅,但網絡防御系統本身可能被認為是自動化的。
希瑟-羅夫(Heather Roff)和戴維-丹克斯(David Danks)在一篇發人深省的文章中論述了自主武器系統中的信任問題,他們對類似的二元論態度提出質疑,將自主系統分為兩種:一種是工具,"在這種情況下,行為的可靠性和可預測性足以'信任'系統";另一種是 "具有價值觀和偏好的道德主體,在這種情況下,'信任'的門檻將大大提高"。同樣,托馬斯-奧尼爾(Thomas O'Neill)等人提出了基于計算機的 "自主智能體"(autonomous agents)概念,即 "代表團隊中獨特角色的獨特實體,否則這些角色就必須由人類來擔任"。雖然羅夫和丹克斯對道德代理與工具的二元概念并不認同,但這種區分在概念化信任自動化與信任自主性之間的差異方面還是有一定價值的。自主智能體并不是簡單地在特定情況下執行預先設定的行動,而是在更大程度上依賴于某種類似于判斷的東西。對這種判斷的信任,結合了與自動化系統性能有關的傾向性信任和情境信任,以及對過程和目的的更多關注,這就需要對智能體的價值觀和偏好有更深入的了解。
只要人類操作員對所操作的系統有適當的信任度,機器智能提供新能力和提高現有能力的潛力就能成為軍事行動的一個重要因素。正如霍夫和巴希爾所言,"就像在人際關系中一樣,信任在決定人類是否愿意在不確定的情況下依賴自動化系統方面起著主導作用"。在聯盟或聯軍行動中,如果一些成員國在人機協作方面已經建立了良好的校準關系,而另一些成員國則沒有,那么就會出現互操作性問題。信任校準并不一定能傳遞給不同文化背景的人員。然而,即使在每個國家的軍隊內部,信任校準問題也可能因機器智能所執行的上述三類任務(數據整合與分析、自主武器系統和決策支持)而有所不同。
對于許多軍事應用而言,機器智能所扮演的角色已經完全融入系統架構,甚至可能無法察覺。這些應用包括自動語言翻譯工具、由人工智能引導的通信設備頻率選擇、整合傳感器數據為平臺操作員創建戰場整體視圖,或由智能數字實體監控計算機網絡以發現入侵跡象。對于這些類型的功能,人工智能正在做出 "選擇 "并影響人類操作員對態勢的理解,這反過來又會對認知和人類決策產生影響。這種機器智能的使用更符合自動化系統的定義。因此,信任校準問題更為人所熟知,研究也更為深入。
一個直接而明顯的問題是,大多數操作人員可能會對這類系統給予高度的處置性信任或初始信任,甚至可能沒有意識到人工智能對信息環境的塑造程度。軍事應用中適當的信任校準可能涉及人機界面的設計特點,既能激發信任,又能提供足夠的透明度,特別是在機器智能據以得出結論的數據的穩健性方面。一項研究建議,智能體應具備評估自身自信心的能力,包括自身知識庫的不確定性、自身運行狀態的不確定性以及推理過程的不確定性。當然,這也會受到與決策過程本身相同的弱點的影響,但可以對人類的自動化偏差傾向進行有益的糾正。
人類操作員依賴機器智能進行態勢感知所面臨的另一個挑戰是時間性的。在未來的沖突中,可用于做出決策的時間可能會被嚴重壓縮,從而促使對機器認知的依賴。當被迫迅速采取行動時,人類可能會選擇不分析智能體的自信水平,或在做出時間緊迫的決策時嚴格評估人工智能生成的數據。在某些領域,其他傳感器可能會提供有用的輔助驗證來源,而人類在其他情況下可能會完全依賴機器智能提供的信息。網絡領域的人工智能工具是數據分析和自主系統之間的復雜混合體,因為機器智能可以監控網絡以防止潛在的入侵,并使進攻性網絡武器能夠分析和規避對手的智能防御。對這些工具進行獨立驗證以確保充分的態勢感知可能具有挑戰性,特別是考慮到作戰時間的限制。
與物理世界中的自主系統--無論是地面 "packbot "系統、無人駕駛加油機、自主水面艦艇還是自主武器系統--的交互涉及與上述算法實體相同的問題,但也涉及人類自主團隊合作的其他獨特和具有挑戰性的方面。這些系統更真實地體現了在團隊中扮演特定角色的智能體,通常從人際交互(HAI)的角度進行討論。因此,成功的人際團隊合作的特征具有更大的相關性,包括強有力的溝通、有關意圖和動機的共享心理模型,以及可預測和協作行動的能力。
在美國國防部自主研究試點計劃的支持下進行的一項研究考察了一個軍事單元與其自主 "packbot "小隊成員之間的互動,發現顯示機器人意圖和邏輯的數據加強了信任的一些基本基礎,如態勢感知和理解。隨著操作員對智能體的使用越來越熟練,經驗越來越豐富,這種透明度可以增強學習信任。有許多透明模式是可能的,包括交流智能體的意圖和目標結構,或其對任務的理解;側重于智能體內部運作和算法的分析模型;交流智能體對外部環境的理解;或強調團隊內部分工的團隊合作模式。
透明度是加強人類-自主團隊合作的一個潛在設計特征。與機器界面相關的工程細節可以在激發信任與鼓勵過度信任之間取得適當平衡。自然語言處理和合成語音技術已經取得了長足進步,實現了人類與機器人之間的對話交流,提高了透明度和信任度。將人類特征賦予智能體是一種自然的心理現象,可以加強合作,但擬人化也可能產生負面影響,包括對爆炸物處理機器人產生不幸的情感依戀,或因類似人類的語言模式而鼓勵對智能體的過度信任。
在人類與智能體的最初互動中,傾向性信任可能影響最大。例如,澳大利亞的一項研究認為,軍人對自主武器系統持有根深蒂固的懷疑態度。然而,隨著時間的推移,實現適當的信任校準可能主要取決于情景信任和學習信任。在高風險情況下,是依靠機器智能,還是將關鍵任務留給其他人,即使這一選擇并不理想,人類的判斷最終可能是高度個人化的。與人類團隊合作一樣,這種決定往往基于以往類似情況下的經驗,這表明與智能體一起進行綜合培訓練習可以成為信任校準的重要組成部分。與自主系統一起進行培訓被認為是鼓勵信任人類自主團隊合作的合理步驟,而且還能提供額外的人工智能培訓數據。Roff 和 Danks 提醒說,訓練的環境也可能會產生影響,并強調了基礎訓練等低風險環境與模擬戰場環境的更高級演習之間的差異。此外,他們還建議在每個單元內創建一個自主智能體 "聯絡官",與系統密切合作,了解其邏輯、動機和流程,從而利用信任的傳遞屬性。這樣,單元其余成員的信任校準可能會更容易通過聯絡官傳達,不過這種方法也有其局限性。
上文討論的與有效的人類自主團隊合作有關的問題將對次戰術和戰術層面產生直接影響,但在戰場上部署自主系統可能也會帶來作戰層面的調整。更多獨立運行的自主平臺--以及以機器速度進行的戰術決策--將給人類認知帶來挑戰,并可能成為破壞對手決策循環的限制因素。考慮到對手可能在多個領域構成的威脅,以及充分、迅速地做出反應所需的信息量,一位美國軍事領導人得出結論說,如果沒有機器智能管理數據的幫助,"二十世紀的指揮官將無法在這種環境中生存"。機器智能在作戰層面的應用很可能是累積性的,它融合了前兩節討論的信任帶來的好處和風險,并增加了另一層復雜性。
在作戰層面利用機器智能提供決策支持,與戰術層面的數據分析有明顯的相似之處,特別是容易出現自動化偏差,以及容易忽視人工智能有時微妙的決策效果。此外,潛在的自主武器或平臺協調群(甚至可能是蜂群)的增加也給現有的 C2 程序(如聯合瞄準)帶來了新的挑戰,這些程序本身可能需要在節奏更快、動態性更強的環境中實現自動化。對于作戰規劃人員來說,人機信任因素成為評估作戰單元準備狀態和效能的又一因素。以決策為中心的戰爭概念將人工智能直接納入指揮與控制結構,可能是自主性最引人注目的應用。隨著持續新聞報道和社交媒體的出現,人們對戰術決策失誤可能產生的戰略影響的認識變得更加深刻。在軍事領域,人類自主團隊合作的一個重要部分是考慮自主智能體是否有能力在意識到沖突的戰略和政治背景的情況下,以及在國際武裝沖突法的法律框架內采取行動。隨著人工智能輔助的信息流和對自主平臺群的自主控制與自主代理在戰術層面的行動后果相結合,這種考慮在作戰層面變得大大放大。由于決策時間被壓縮、確認偏差以及機器學習的臨床成本效益獎勵制度,機器智能和自主系統可能導致沖突升級,因此這一點尤其值得關注。
信任是一種發生在不確定性和風險情況下的現象。機器智能有可能通過減少處于危險中的人員和改進信息處理以增強態勢感知來緩解作戰計劃和控制的這兩個方面。正如最近一篇文章所指出的,用于算法戰爭的人工智能必須保持靈活性并降低作戰復雜性,包括 "獨立制定和裁定行動方案 "的能力。信任機器智能體作為 "環路中 "的道德代理人來規劃和批準具體的作戰行動,這涉及到讓自主代理人適當評估戰術決策的充分舒適度,而這本身就涉及到某種基于機器的 "信任"。正如戴維斯所言,在作戰層面,基于人工智能的決策支持架構 "將充當一個受信任的智能體,濃縮指揮官負責的信息量"。現有研究表明,監督或管理自主智能體的操作人員應獲得盡可能多的態勢數據,特別是一些研究表明,隨著自主智能體數量的增加,態勢感知能力也會下降。對于作為 "環路 "上的人而管理智能體的指揮官來說,加強對態勢的了解已被證明比簡單地提供供操作員選擇的選項更有效。
另一個可能出現的與信任和機器智能有關的問題是信任和戰術優勢的矛盾性。現有研究表明,在類似情況下可預測的行為會產生信任,但如果對手擁有類似的數據分析工具并能預測算法模式,這種可預測性就可能成為戰場上的弱點。只需觀察幾次智能體的算法戰術和行為,就可能預測到它們的行動,從而予以反擊。當然,可以在智能體的行為中加入適應性,避免在空戰中重復相同的動作,但這種缺乏可預測性的情況將使人類與自主體之間的信任更具挑戰性,無論這種信任在戰術意義上如何有利。此外,對手可能會干擾自己的訓練數據或算法,這仍然是一個令人擔憂的問題,也是人們持懷疑態度的正當理由。
這些戰術和戰役層面的問題會造成一系列戰略困境。時間限制可能迫使人類操作員將決策過程的重要環節讓給智能體,以獲得對對手的優勢。在美國陸軍進行的虛擬實驗中,人類傾向于對其無人機群進行微觀管理,由于人類認知速度較慢,一直被人工智能控制的單元擊敗。這種態勢很可能會鼓勵操作人員為了權宜之計而放棄對智能體的可信度進行冷靜評估。人類在決策中的認知能力逐漸降低,可能會對各級威懾和升級控制產生不可預測的戰略影響,尤其是在涉及信任問題時。正如詹姆斯-約翰遜(James Johnson)所言,"人工智能對戰略穩定的威脅所造成的不確定性,可能是對手夸大了對其有效性的信任,也可能是(也許更令人擔憂的)錯誤地認為某種特定的人工智能能力在行動上是有效的,而實際上并非如此"。
自主系統的軍事應用顯然將繼續擴大,因為對決策者的激勵似乎大于風險。機器智能代表了一套獨特的技術,它超越了武器系統在射程、速度或精度方面的漸進式改進。這三類中的每一類智能體都有可能以不可預測的方式改變戰場,這對正在尋找將人工智能技術融入現有和計劃中的部隊結構的最佳手段的軍事領導人來說,既是危險也是機遇。鑒于戰爭仍然是以人為本的事業,人類自主團隊的重要性可能會成為軍事行動中越來越重要的一個方面。
關于人類與自主團隊合作中的信任問題,基于研究的知識是廣泛而全面的,但大部分實證數據自然主要與從自動化到自主化的滑動尺度中自動化程度較高的過程有關。考慮到機器智能在軍事領域的預期功能,這項研究的大部分內容仍然具有很強的現實意義--尤其是與性格信任相關的文化差異方面或自動化偏差等常見現象。適當的信任校準所面臨的挑戰因應用的類型和類別而異,與用于 ISR 數據分析的集成機器學習軟件相比,激發人類對物理自主系統的充分信任可能更具挑戰性。歸根結底,實現適當和校準的信任水平對于最大限度地發揮人工智能的潛力仍然至關重要。
從規劃到執行,人工智能(AI)在軍事行動中發揮著越來越重要的作用。隨著技術的進步,將人工智能融入國防戰略已成為各國保持競爭優勢、確保國民安全和安保的關鍵所在。人工智能在軍事行動中的潛在應用非常廣泛,從加強決策過程到提高軍事系統的效率和效力,不一而足。
人工智能在軍事行動中的主要應用方式之一是分析大量數據。在當今的信息時代,兵力從衛星圖像、信號情報和社交媒體等各種來源生成和收集海量數據。人工分析這些數據是一個耗時耗力的過程,可能會延誤關鍵決策。而人工智能算法則能以更快的速度處理和分析這些數據,使軍事指揮官能夠根據實時信息做出更明智的決策。
除數據分析外,人工智能還被用于加強軍事行動的規劃和執行。例如,人工智能驅動的系統可以通過模擬各種場景和預測不同戰略的結果,幫助軍事戰略家制定更有效、更高效的作戰計劃。這樣,指揮官就能根據最準確的最新信息選擇最佳行動方案。此外,人工智能還可用于優化人員和裝備等資源的分配,確保以最有效的方式部署兵力。
人工智能在軍事行動中的另一個重要應用是開發自主系統。無人駕駛飛行器(UAVs)又稱無人機,由于能夠在不危及人類生命的情況下執行監視和偵察任務,已成為現代戰爭的主要裝備。人工智能技術有可能進一步提升這些能力,使無人機能夠自主運行,根據周圍環境和任務目標做出決策,而無需人工干預。這不僅能降低人類操作員的風險,還能更高效、更有效地利用這些資產。
此外,人工智能正被集成到各種軍事系統中,以提高其性能和能力。例如,人工智能驅動的算法可用于提高導彈防御系統的精確度和瞄準能力,增強其攔截和消除來襲威脅的效力。同樣,人工智能也可用于提高軍事通信系統的性能,確保信息在不同單位和指揮中心之間快速、安全地傳輸。
盡管人工智能為軍事行動帶來了諸多好處,但也存在一些需要解決的問題和挑戰。其中一個主要問題是在戰爭中使用人工智能所涉及的倫理問題,特別是當涉及到可以在沒有人類干預的情況下做出生死攸關決定的自主系統時。確保這些系統遵守國際法和道德標準對于防止潛在的濫用和意外后果至關重要。
另一個挑戰是對手惡意利用人工智能技術的風險。隨著人工智能變得越來越先進,越來越容易獲取,人們越來越擔心敵對行為體可能會利用人工智能開發出新的、更復雜的網絡戰形式,甚至制造出難以防御的人工智能武器。
總之,將人工智能融入軍事行動有可能徹底改變戰爭的打法和勝負。從加強決策過程到提高軍事系統的效率和效力,人工智能提供了眾多好處,可以幫助各國在日益復雜和不可預測的全球安全環境中保持競爭優勢。然而,必須解決與戰爭中的人工智能相關的倫理問題和潛在風險,以確保負責任地使用這項技術,并為更大的利益服務。
參考來源:TS2 space,作者:Marcin Fr?ckiewicz
將人工智能(AI)融入軍事行動是一個持續討論和爭論的話題。在眾多人工智能應用中,像 OpenAI 的 GPT-4 這樣的大型語言模型(LLM)在自然語言處理、理解和生成方面展現出了前所未有的能力。本文探討了 LLMs 在軍事規劃革命中的潛力,并強調了它們帶來的挑戰和機遇。
過去幾年中,LLM 在人工智能研究領域取得了長足進步,展示了其理解上下文、生成連貫文本甚至翻譯語言的能力。這些模型給人留下了深刻印象,在新聞、客戶服務和科學研究等各個領域都得到了應用。
軍事規劃是一個復雜的過程,需要分析大量信息,如敵方能力、兵力和后勤。LLM 可以幫助軍事規劃人員快速處理和分析這些數據,簡化規劃流程,減少人為錯誤的可能性。在軍事規劃中使用 LLM 可以帶來以下好處:
1、改進決策: 通過分析歷史數據,LLMs 可以洞察各種戰略的潛在結果,幫助軍事規劃人員做出更明智的決策。此外,LLM 還能通過評估潛在對手的行為模式來預測其行動。
2、增強交流: LLMs 可以生成復雜數據集的自然語言摘要,使軍事人員之間更容易交流關鍵信息。這可以提高對態勢的認識,并做出更明智的決策。
3、有效分配資源: LLM 可以通過分析供應鏈數據和預測未來需求來優化軍事資源的分配。這有助于最大限度地減少浪費,確保資源用在最需要的地方。
4、定制培訓: LLM 可以根據每個士兵的需求和能力創建定制的訓練場景。這樣可以提高訓練效率,最大限度地發揮每個士兵的潛能。
5、士氣和心理健康支持: LLM 可以通過自然語言對話為士兵提供心理支持,協助進行壓力管理并解決心理健康問題。
盡管有諸多優勢,但在軍事規劃中實施 LLMs 還面臨一些挑戰和問題:
1、數據安全: 在軍事規劃中使用 LLM 需要處理高度敏感的信息。確保這些數據的安全性和保密性至關重要。軍事組織必須投資于強大的網絡安全措施,以保護其數據免遭未經授權的訪問和潛在泄漏。
2、道德考慮因素: 在軍事規劃中部署 LLM 會引發道德問題,即決策自動化程度可能會提高。隨著人工智能系統變得越來越復雜,人類決策與機器決策之間的界限可能會變得模糊,從而導致人們擔心在出現錯誤或失敗時的問責和責任問題。
3、技術局限性: 雖然 LLM 在自然語言理解方面取得了顯著進步,但它們也并非沒有局限性。這些模型有時會產生不準確或有偏見的結果,從而可能導致錯誤的決策。軍事組織必須認識到這些局限性,并確保人類的專業知識仍然是規劃過程中不可或缺的一部分。
4、對技術的依賴: 過度依賴 LLM 可能會導致人類分析能力下降和對技術的過度依賴。軍事規劃人員必須在利用 LLM 的力量與保持人類參與決策過程之間取得平衡。
軍事組織、學術界和私營部門之間的合作有助于應對軍事規劃中與 LLM 相關的挑戰。以下是一些潛在的合作途徑:
1、分享最佳實踐: 軍事組織可以相互學習在規劃過程中實施 Lating LLMs 的經驗。分享最佳實踐有助于找出潛在的隱患,確保最有效地利用這些先進的人工智能工具。
2、聯合研究計劃: 軍事組織、學術界和私營部門之間的合作研究計劃可以推動 LLM 的創新發展。這可以創建更先進的模型,更好地應對軍事規劃人員面臨的獨特挑戰。
3、道德準則: 為在軍事規劃中使用 LLMs 制定道德準則,有助于消除人們對決策自動化程度提高的潛在后果的擔憂。軍事組織、人工智能研究人員和倫理學家之間的合作可以制定原則,在人工智能的益處與人的責任和義務之間取得平衡。
4、培訓與教育: 聯合培訓和教育計劃可以幫助軍事人員發展必要的技能,以便在規劃過程中有效實施 LLM。這可以包括有關 LLM 技術方面的培訓,以及有關人工智能在軍事行動中的道德和法律影響的教育。
5、互操作性: 開發可互操作的人工智能系統可促進軍事組織之間的無縫通信和信息共享,確保將 LLM 有效納入多國軍事規劃工作。
大型語言模型的強大功能為軍事規劃帶來了巨大的變革機遇。雖然在實施過程中會遇到一些挑戰和問題,但軍事組織、學術界和私營部門之間的合作有助于克服這些障礙,最大限度地發揮 LLM 在軍事行動中的潛力。通過利用人工智能的力量并保持技術創新與人類專業知識之間的平衡,軍事組織可以改進決策、加強溝通、優化資源分配,并更好地支持其人員的福祉。
作者:Chad Scott
原文來源:Crossroads of Power
人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。
人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。
作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。
人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。
在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。
目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。
鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。
如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。
如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。
人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。
C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。
圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。
圖1. 海上人工智能系統的擬議架構
首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。
第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。
第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。