人工智能(Al)有可能徹底改變全球軍事事務,就像原子彈在 20 世紀中期所做的那樣。當技術革命打破國際戰略平衡時,外交通常會介入其中。在這種情況下,歐洲聯盟(歐盟)如何定位自己?尤其是歐盟對致命性自主武器系統(LAWS)采取了什么態度?歐盟新的國防工業政策就是其中之一。
然而,歐盟似乎無意在這一領域推行限制性政策,至少目前是這樣。歐盟在這一問題上的雄心僅限于LAWSA,即便如此,這一領域的想法也是建立在非常模糊的概念基礎上,這些概念不應該在開發和工業生產方面產生任何實質性影響。
關于軍事人工智能和致命性自主武器,首先要說明的是,歐盟并不禁止開發或使用它們。事實上,在國際層面上,目前還沒有任何形式的治理框架或規則來處理這些系統。然而,無論是在聯合國(UN)和歐盟,還是在其他國際論壇上,要求部分禁用致命性自主武器的壓力都很大。
在聯合國日內瓦辦事處,自2014年以來,在1981年《特定常規武器公約》(ccW)的框架內,特別是在該公約設立的政府專家組(GGE)內,就這一議題展開了討論。在此背景下通過了 11 項原則。這些原則指出,致命性自主武器必須始終符合國際人道主義法,人類必須對使用這些系統的決定負責,各國必須審查這些新武器的合法性。歐盟通過其外交與安全事務高級代表承諾遵守這些原則,但這些原則仍然含糊不清,不具約束力。然而,安東尼奧-古特雷斯(António Guterres)更明確地談到了 "致命性自主武器"。2018 年,聯合國秘書長宣布此類武器應被視為政治上不可接受、"道德上令人厭惡 "的武器,并呼吁國際法禁止此類武器。隨后,他呼吁會員國在 2026 年之前就此問題通過一項條約。然而,各國就此問題的討論卻停滯不前。
在布魯塞爾,辯論也是如此。一方面,歐洲議會長期以來一直堅持歐盟應在國際層面推動通過一項法律文書來禁止致命性自主武器。另一方面,一些成員國(但不是所有成員國)似乎并不打算讓步。在這方面應該強 調的是,這一問題仍然是理事會和成員國的專屬權限,歐盟在這一領域可能采取的任何舉 措只能由它們一致提出。
然而,這并不意味著歐盟,包括歐盟委員會和歐洲議會(EP),不會對軍用人工智能系統和致命性自主武器系統的研究、開發和生產產生任何影響。相反,它們可能會間接影響人工智能的方式,主要通過以下三個因素:
1.歐盟將于 2023 年底通過的關于人工智能民用和商業應用的法規。
2.歐洲機構和歐洲議會內部關于是否有必要對軍事人工智能,特別是 "致命性自主武器系統 "進行監管的辯論。
3.歐盟管理其國防工業資助計劃的方式。
未來趨勢
在國家安全企業中采用人工智能/ML 將如何影響危機決策?例如,古巴導彈危機會以怎樣的機器速度發生?
除了當前的政策辯論、國會證詞、新戰略以及確定、測試和評估標準的動力之外,還有一個基本問題,即計算機算法將如何影響核大國之間的危機互動。此外,在既涉及恐懼和情感又涉及理性決策的危機中,經過改進的人工智能/ML 模型是會將人們從邊緣拉回來,還是將他們推向邊緣?在核大國之間的危機中,人類和機器將如何互動?
為了回答這個問題,美智庫CSIS 未來實驗室在 2023 年初舉行了一系列危機模擬,分析人工智能/ML 將如何塑造威懾的未來。這些游戲以隨機對照試驗的形式設計,探討了人類對對手大國人工智能/ML 集成水平的不確定性,以及這一因素如何影響危機期間的戰略穩定性。
研究得出了兩大發現。首先,在所有模擬中,不同水平的人工智能/ML 能力對戰略沒有明顯影響,而且在應對危機時,人們普遍傾向于嘗試結合多種力量工具。雖然數據科學和使用人工智能/ML來增強國家力量幾乎肯定會成為不久將來的一個決定性特征,但似乎有一些戰略常量會在這種新技術出現后繼續存在。即使機器收集和處理更多信息并幫助制定國家安全決策,外交、經濟脅迫和影響力活動也將繼續存在。AI/ML 將增強戰略,但不會從根本上改變戰略。也就是說,迫切需要開始培訓國家安全專業人員,讓他們了解什么是人工智能/ML,什么不是人工智能/ML,以及人工智能/ML 如何在外交政策危機中為人類決策提供支持。
其次,隨著各國有選擇地瞄準對手的作戰網絡,各國在核武器陰影下的作戰方式也將發生變化。盡管對升級風險的感知不太可能受到人工智能/ML 能力平衡的影響,但用于選擇靈活應對方案的標準將發生變化。各國將需要在反制對手算法與確保不會蒙蔽對手和引發 “死手 ”風險之間取得平衡--“死手 ”是蘇聯為發射核武器而開發的快速自動化系統--螺旋式升級。這種在軍事目標選擇中取得適當平衡的需要將為情報收集工作帶來新的機遇,因為情報收集工作可以了解對手國家如何在戰術、作戰和戰略層面運用人工智能/移動式計算能力。這也會改變各國的軍備控制方式,新的重點是了解人工智能/ML 能力在哪些方面以及如何增強危機決策。
現代威懾文獻主要研究國家如何在戰爭之外通過威脅和承諾進行討價還價。這些信號改變了每一方計算戰爭成本和收益的方式,意味著每一方掌握的有關能力和決心平衡的信息越少,就越難鼓勵克制。在國家如何操縱風險以剝奪對手優勢的過程中,信號和溝通起著核心作用,包括通過軍事力量尋求既成事實的動機。即使是強調外交政策領導人如何處理危機外交的心理和文化先決條件的文獻,也同樣強調信息的核心作用。基于過去的信息(即信念如何影響預期)和有缺陷的權重(如偏見和前景理論),理性的計算會被打破。
在現代軍事規劃和作戰中,信息是通過作戰網絡來管理的。進行遠程精確打擊和跟蹤對手部隊動向的能力都依賴于數據的匯總和分析。這一邏輯是聯軍聯合全域指揮與控制(CJADC2)網絡的基礎,該網絡旨在通過更快的通信、處理和由人工智能/機器學習(AI/ML)提供信息的決策層連接傳感器和射手的分布式網絡推拉數據。網絡是新聯合作戰概念的核心,是新的制勝理論,它優先考慮在時間和空間上同步多域效應。因此,信息現在是軍事力量的關鍵組成部分,同時也是一個國家與對手討價還價的能力。在算法的輔助下,一個國家能夠處理的信息越多,就越有可能識別機會和風險窗口,并調整目的、方式和手段,以獲得相對優勢。
然而,大多數關于人工智能/機器學習和未來戰爭的新興文獻更多關注的是風險和倫理方面的考慮,而不是討價還價的優勢。首先,有多種觀點認為人工智能/機器學習將帶來新的風險,包括 “閃電戰”,并有可能在多個方面產生破壞穩定的影響。有觀點認為,隨著俄羅斯、中國和美國競相獲取改變游戲規則的技術,新的大國競爭時代將以 “殘酷的恐怖平衡 ”為標志。人工智能/機器學習改變軍事力量的程度,可能會影響各國對力量平衡的看法。隨著對實力和影響力的認識發生變化,可能會引發不經意的升級風險。在官僚機構內部,國防規劃人員可能會依賴脆性和黑箱化的 AI/ML 建議,從而造成新形式的戰略不穩定。在戰術層面,自主武器系統的速度可能會導致意外升級,同時也會破壞危機期間的信號承諾"。
這些說法有兩個問題。首先,關于人工智能/機器學習破壞穩定作用的論點,除了文獻綜述、替代方案和說明性兵棋推演之外,還有待進一步探討。換言之,有關風險和升級的假設尚未得到驗證。其次,關于新興技術和意外升級的說法往往忽略了信息增加在緩解緊張局勢方面的作用。如果在作戰網絡中應用算法有助于減少不確定性,那么它們就有可能支持威懾。你永遠無法撥開戰爭的迷霧,但你可以做出天氣預報,描述已知、未知和不可知的情況。CSIS 未來實驗室構建了 “兵棋推演實驗”,以分析人工智能/機器學習如何影響戰略穩定,而這一替代邏輯正是該實驗的基礎。
這些危機模擬的研究結果提出了一些建議,美國及其合作伙伴和盟友網絡在建立可互操作的作戰網絡時應考慮這些建議,因為在這些網絡中,人工智能/機器學習支持戰術、作戰和戰略層面的決策。
1.擁抱實驗和敏捷思維。
國家安全界需要停止對 “天網 ”以及其他與技術相關的威脅的擔憂,開始構建應用程序,幫助人們在危機期間瀏覽已經讓工作人員和決策者不堪重負的海量信息。有必要在全球信息主導演習(GIDE)[41] 等既定工作的基礎上,開展更多旨在校準如何最好地將人工智能/機器學習融入國家安全決策的實驗。這些演習將作戰司令部連接起來,測試它們在危機期間和向沖突過渡期間通過人工智能/機器學習(即人在回路中)在無縫戰斗網絡中開展工作的能力。每個全球戰略發展信息網都能幫助國防部思考如何支持與新出現的條令相一致的現代作戰,包括聯合作戰概念和聯合競爭概念"。
美國需要擴大 GIDE 系列,從機構間和聯盟的角度審視危機應對。這些實驗應描繪從國務院到財政部等不同行政機構如何進行危機管理,以便通過匯總和分析數據做出更好的決策。從簡單開始,清楚地了解每個機構如何處理靈活的威懾選項,以及國家安全委員會如何評估這些選項,這將有助于深入了解在何處以及如何以最佳方式加強戰略制定和危機應對。
2.參與戰役分析。
戰爭中永恒不變的是對信息的爭奪,以及指揮官如何在收集情報的同時利用偵察和安全行動來了解態勢、預測變化并尋求優勢。信息爭奪戰將沿著人工智能/機器學習應用管理的復雜作戰網絡進行,這就需要新的機動、安全和出其不意的概念。一個國家如何在削弱對手的同時保護自己的作戰網絡,很可能成為未來戰役的真正決定性行動,也是一種全新形式的 “先發制人”(schwerpunkt)。
國防部需要擴大現代戰役分析的范圍,探索如何與網絡作戰。這些研究應將歷史戰役見解與兵棋推演、建模和戰略分析相結合,著眼于平衡軍事優勢與升級動態。這些研究應評估現有流程,如聯合規劃和聯合目標定位方法,看它們在以相互競爭的戰斗網絡為特征的戰役中是否仍然可行。研究的最終結果很可能是既能加快節奏又能謹慎關注升級風險的新流程和新方法。
3.從開放天空到開放算法,就二十一世紀軍備控制展開更廣泛的對話。
最后,有必要開始思考人工智能時代的軍備控制是什么樣的。對于未來的威懾而言,管理武器庫存可能不如建立規范、制度和條約來管理針對敵對核國家現代作戰網絡決策和處理層的軍事行動。
在危機中,各層級的軟件都在尋求提高效率以加快決策速度,高級領導人有可能發現自己陷入了升級陷阱。對與預警和情報有關的關鍵系統的攻擊可能會加速這種升級。各國越早攜手繪制風險地圖并建立共同理解的防護網,核對手之間無意或意外升級的可能性就越低。這些努力應包括第 2 軌和第 3 軌桌面演習和對話,為對手國如何處理危機提供信息。
由于未來幾年人工智能/機器學習能力在國家安全領域的使用幾乎肯定會增加,因此需要就任何信息技術是否以及如何增強戰略和軍事決策展開更廣泛的辯論。這關系重大,不能盲目走向未來。
因此,國家安全界需要加快試驗如何將人工智能/機器學習融入現代作戰網絡,著眼于更好地理解危機決策、戰役和軍備控制。僅僅優化聯合目標定位以及軍隊感知、理解和獲得優勢的速度是不夠的。新世界需要重新思考自拿破侖以來幾乎沒有變化的軍事參謀組織,以及傳統的國家安全官僚設計和規劃流程。這將需要思考如何在信息泛濫、仍存在不確定性、迷霧和摩擦的情況下為人類決策提供最佳支持。
盡管本文的研究結果表明,人工智能/機器學習既有可能發揮穩定作用,也有可能發揮破壞穩定的作用,但世界上的核國家仍有可能無意中通過編碼走向世界末日。因此,必須對研究結果提出質疑,并承認研究的局限性。首先,觀察結果仍然有限,可能會受到年齡、性別和每個參與者的國家安全經驗類型的影響。今后的工作應擴大參與者的范圍。其次,研究結果需要更多的觀察,不僅要分析已知與未知人工智能/機器學習能力的平衡,還要分析風險認知和升級是否會在更多針對不同人工智能/機器學習水平的處理(如 “無人工智能/機器學習能力”、“更多人工智能/機器學習能力 ”等)基礎上發生變化。未來的研究應該向更廣泛的參與者開放實驗,并比較普通大眾與專家的看法有何不同。在理想情況下,這些游戲還應有更多的非美國玩家參與。
人工智能(AI)可以說是當代最具變革性的技術,其新用途正以前所未有的速度和規模不斷涌現。國防部(MOD)認識到,人工智能在增強能力、提高生產力和最大限度地發揮我們的戰略優勢方面具有巨大的潛力。2022 年發布的《國防人工智能戰略》提出了一個明確的愿景,即在人工智能方面,英國國防部將成為世界上最具效力、效率、可信度和影響力的國防組織。
國防人工智能中心(DAIC)與國防、政府、工業、學術界和盟友中積極參與的利益相關者合作,正在加速人工智能的應用,并推動國防向人工智能就緒型組織轉型。將繼續投資,為國防用戶提供雄心勃勃、安全負責的人工智能能力,這將鞏固戰略和業務優勢。
DAIC 是加速英國國防部利用人工智能改變游戲規則的能力的催化劑。
正在建立一個人工智能生態系統,以加強我們與工業界的關系,與非傳統供應商和中小型企業建立新的聯系,并打破在應對當前和未來國防挑戰方面的合作障礙。
編寫這本《國防人工智能手冊》的目的是為了說明整個組織中人工智能機會的廣泛性,從運營中的戰略優勢到業務流程中的效率。每個案例研究都代表了組織內正在開發或使用的人工智能領域,并揭示了國防在實現人工智能潛在優勢方面面臨的一些共同挑戰。
隨著從初創走向規模化,國防人工智能中心(DAIC)將繼續發展與所有利益相關者的合作方式。只有通過這些伙伴關系,才能開發和采用真正具有變革意義的解決方案。
自 2010 年承認氣候變化對軍事行動構成威脅以來,美國國防部(DOD)不斷認識到氣候變化對國家安全的相關性和日益增加的影響。最近的美國行政命令要求國防部在武裝部隊行動中考慮氣候變化。2021 年,國防部發布了 "氣候適應計劃",其中確定了具體的工作重點,強調了各軍種應對和準備氣候變化所需的要求,包括工作重點二的重點領域,即評估 "當前和未來的裝備",以 "訓練和裝備一支氣候就緒的部隊"。 各軍種還確定了各種途徑、實施行動和氣候適應計劃。美國海軍部(DON)發布了一項氣候戰略--"2030 年氣候行動",旨在從戰略上應對氣候變化給海軍部隊帶來的威脅。對于美國海軍部隊而言,可能受到影響的行動范圍包括海軍和海軍陸戰隊在艦隊中使用的關鍵資產;其中包括海軍艦艇、飛機、潛艇、遠征軍和設施。《美國防部氣候風險分析》中的圖 1 顯示了每個作戰司令部預計會受到的一些影響,以及一些交叉、連帶和/或全球影響。
美海軍部面臨的一個長期挑戰是準確識別和理解氣候變化對海軍和海軍陸戰隊行動的真正影響;海軍為認識這些影響所做的努力可以追溯到 20 世紀 50 年代。據預測,許多氣候變化影響將削弱海軍的能力,而有些影響則是良性的,有些影響甚至可能有利于行動。了解、預測氣候變化的影響不僅對戰略和作戰計劃十分重要,而且對戰術計劃也十分重要。法國等其他國家已正式認識到軍隊適應氣候變化的必要性,并已著手將氣候變化影響和準備工作納入各自的部隊結構。英國下議院最近發布了一份題為 "國防與氣候變化 "的報告,指出 "在不削弱軍事能力的情況下,國防可以做更多的工作來衡量和減少碳排放。武裝部隊、國防采購和國防產業--無論是在國內還是在國外--都需要進行調整,以應對未來幾十年氣候變化的影響,這將對地緣戰略、國防戰備、復原力和有效發揮軍事作用產生影響"。為協助適應氣候變化,政府間氣候學數據和分析的可用性不斷增加。利用這些工具可以幫助國防部更好地了解在不斷變化的氣候和環境中完成作戰任務所需的條件,并提高面對這些影響的復原力。
網絡、人工智能和量子計算等新興技術和顛覆性技術正在改變世界的運行方式。在軍事上,這些技術既帶來了機遇,也帶來了挑戰。它們使軍隊變得更有效、更有韌性,但同時也在改變戰爭的性質。
2020 年 9 月,英國國防部推出了 "綜合作戰概念"(IOC),這是一個新的國防戰略愿景,它認識到世界已經進入了一個 "持續競爭的時代",戰爭的性質已經發生了變化。
綜合作戰概念》的首要信息,即多領域一體化和持續交戰,是 2021 年 3 月發布的《綜合審查報告》和《國防指揮文件》以及隨后于 2023 年更新的《綜合審查報告》和《國防指揮文件》的思路和結論的基礎。
作為這一新方法的一部分,擁抱新興技術被視為一個優先事項。國防部打算在2025年前投資66億英鎊用于國防研發,重點關注人工智能、人工智能支持的自主系統、網絡、空間、定向能武器、高超音速和量子計算等新興技術。高風險研究和創新被認為是現代化的關鍵。
然而,2021 年綜合審查和國防指揮文件承認,擁抱新的 "朝陽 "技術不應完全以犧牲更傳統的作戰能力為代價。
2023 年更新版贊同將科學技術作為國防部部隊設計和能力發展的核心。2023 年國防司令部文件還確認了比 2021 年綜合審查中已確定的 66 億英鎊先進國防研發投資 "大幅增加 "的意圖,但沒有提供更多細節。
建議
新的國家網絡部隊已經成立,政府致力于成為網絡領域的全球領導者。
人工智能是整個國防領域軍事能力的關鍵推動因素。人工智能已被納入包括未來戰斗航空系統在內的若干關鍵計劃,并且是通過國防與安全加速器實施的若干創新籌資計劃的重點。2022 年發布了人工智能國防戰略,并成立了一個新的人工智能中心。2023 年 2 月,英國批準了《關于負責任地在軍事上使用人工智能和自主性的政治宣言》(PDF)。
除了已經投資 50 億英鎊用于新的 "天網 6 號 "衛星通信項目外,未來十年,英國國防部還將投資 15 億英鎊用于太空相關能力建設。新的聯合太空司令部已于 2022 年 4 月具備初步運作能力,建立新的國家太空作戰中心和新的太空學院的工作也正在進行中。2021 年 9 月,發布了一項綜合太空戰略,首次將軍事和民用太空政策結合在一起。隨后,2022 年 2 月發布的《國防太空戰略》(PDF)闡述了國防部打算如何實現其太空雄心。
高超音速和反超音速能力是國防部研究和資助的優先領域之一。迄今為止,我們采取的方法是與國際伙伴、工業界和學術界合作。2023 年 7 月,國防部宣布打算加快獲取高超音速打擊能力。
英國國防部是國家量子技術計劃(NQTP)的重要合作伙伴,并正在資助幾個 DSTL 計劃,包括未來傳感計劃,該計劃將在四年內投資 3000 萬英鎊。原型目前正在國防部的平臺上進行試驗。
新興技術不僅僅屬于國防領域。它們具有雙重用途,為整個社會帶來機遇和挑戰。
雖然英國國防部被認為是此類技術的 "早期采用者",也是資助創新的重要合作伙伴,但人們普遍認為,有必要在政府、工業界、學術界之間以及與國際盟友和合作伙伴之間開展 "真正的合作"。
因此,英國國防部門對這些技術的態度與政府更廣泛目標的實現密切相關。
隨著技術的飛速發展和威脅環境變得更加復雜,今天的海軍行動經常面臨著具有挑戰性的決策空間。人工智能(AI)的進步為解決海軍行動中日益復雜的問題提供了潛在的解決方案。未來的人工智能系統提供了潛在的意義深遠的好處--提高對態勢的認識,增加對威脅和對手能力和意圖的了解,識別和評估可能的戰術行動方案,并提供方法來預測行動方案決定的結果和影響。人工智能系統將在支持未來海軍作戰人員和保持作戰和戰術任務優勢方面發揮關鍵作用。
人工智能系統為海戰提供了優勢,但前提是這些系統的設計和實施方式能夠支持有效的作戰人員-機器團隊,改善作戰情況的不確定性,并提出改善作戰和戰術結果的建議。實施人工智能系統,以滿足海軍應用的這些苛刻需求,給工程設計界帶來了挑戰。本文確定了四個挑戰,并描述了它們如何影響戰爭行動、工程界和海軍任務。本文提供了通過研究和工程倡議來解決這些挑戰的解決思路。
人工智能是一個包括許多不同方法的領域,目的是創造具有智能的機器(Mitchell 2019)。自動化系統的運作只需要最小的人類輸入,并經常根據命令和規則執行重復性任務。人工智能系統是自動化機器,執行模仿人類智能的功能。它們將從過去的經驗中學習到的新信息融入其中,以做出決定并得出結論。
如表1所述,人工智能系統有兩種主要類型。第一種類型是明確編程的專家系統。Allen(2020,3)將專家系統描述為手工制作的知識系統,使用傳統的、基于規則的軟件,將人類專家的主題知識編入一長串編程的 "如果給定x輸入,則提供y輸出"的規則。這些系統使用傳統的編程語言。第二種類型是ML系統,從大型數據集中進行訓練。ML系統自動學習并從經驗中改進,而不需要明確地進行編程。一旦ML系統被 "訓練",它們就被用于操作,以產生新的操作數據輸入的結果。
表1. 兩類人工智能系統
人工智能系統--包括專家系統和學習系統--為海軍提供了巨大的潛力,在大多數任務領域有不同的應用。這些智能系統可以擴展海軍的能力,以了解復雜和不確定的情況,制定和權衡選擇,預測行動的成功,并評估后果。它們提供了支持戰略、作戰計劃和戰術領域的潛力。
本文確定了工程設計界必須解決的四個挑戰,以便為未來海戰任務實施人工智能系統。表2強調了這四個挑戰領域。這些挑戰包括:(1)復雜的海戰應用領域;(2)需要收集大量與作戰相關的數據來開發、訓練和驗證人工智能系統;(3)人工智能系統工程的一些新挑戰;(4)存在對手的人工智能進展,不斷變化和發展的威脅,以及不斷變化的人工智能系統的網絡弱點。本文側重于海軍戰爭的四個挑戰領域,但認識到這些挑戰可以很容易地被概括為整個軍隊在未來人工智能系統可能應用的所有戰爭領域中廣泛存在的挑戰。
表2. 為海軍實施人工智能系統的四個挑戰領域
人工智能正被視為一種能力,可應用于廣泛的應用,如批準貸款、廣告、確定醫療、規劃航運路線、實現自動駕駛汽車和支持戰爭決策。每個不同的應用領域都提出了一系列的挑戰,人工智能系統必須與之抗衡,才能成為一種增加價值的可行能力。表3比較了一組領域應用的例子,從潛在的人工智能系統解決方案的角度說明了挑戰的領域。該表在最上面一行列出了一組10個因素,這些因素對一個特定的應用程序產生了復雜性。根據每個因素對作為實施人工智能的領域的整體復雜性的貢獻程度,對六個應用領域的特征進行了定性評估。顏色代表低貢獻(綠色)、中貢獻(黃色)和高貢獻(紅色)。
表3中最上面一行顯示的特征包括: (1)認識上的不確定性水平(情況知識的不確定性程度),(2)情況的動態性,(3)決策時間表(可用于決策的時間量),(4)人類用戶和人工智能系統之間的互動所涉及的錯綜復雜的問題、 (5)資源的復雜性(數量、類型、它們之間的距離以及它們的動態程度),(6)是否涉及多個任務,(7)所需訓練數據集的復雜性(大小、異質性、有效性、脆弱性、可獲得性等 8)對手的存在(競爭者、黑客或徹頭徹尾的敵人),(9)可允許的錯誤幅度(多少決策錯誤是可以接受的),以及(10)決策后果的嚴重程度。該表的定性比較旨在提供一個高層次的相對意義,即基于一組樣本的貢獻因素,不同應用領域的不同復雜程度。
表3. 影響應用復雜性的因素比較
對于所有的應用領域來說,人工智能系統的工程都是具有挑戰性的。人工智能系統在本質上依賴于具有領域代表性的數據。獲得具有領域代表性的數據會帶來基于數據大小、可用性、動態性和不確定性的挑戰。決策時間--由情況的時間動態決定--會給人工智能系統工程帶來重大挑戰--特別是當一個應用領域的事件零星發生和/或意外發生時;以及當決策是時間緊迫的時候。具有更多決策時間、充分訪問大型數據集、直接的用戶互動、完善的目標和非致命后果的應用,如貸款審批、廣告、醫療診斷(在某種程度上)面臨工程挑戰,但其復雜程度較低。確定最佳運輸路線和為自動駕駛汽車設計AI系統是更復雜的工作。這些應用是動態變化的,做決定的時間較短。航運路線將在可能的路線數量上具有復雜性--這可能會導致許多可能的選擇。然而,航運錯誤是有空間的,而且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的空間非常小。在這種應用中,決策失誤會導致嚴重的事故。
影響開發支持海戰決策的人工智能系統的因素在表3所示的所有類別中都具有高度的復雜性。因此,戰術戰爭領域對工程和實施有效的人工智能系統作為解決方案提出了特別棘手的挑戰。表4強調了導致這種復雜性的海戰領域的特點。作為一個例子,海軍打擊力量的行動可以迅速從和平狀態轉變為巨大的危險狀態--需要對威脅保持警惕并采取適當的反應行動--所有這些都是在高度壓縮的決策時間內進行。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是網絡空間,導致需要處理多種時間緊迫的任務。由于海軍和國防資產在艦艇、潛艇、飛機、陸地和太空中,戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用。制定有效的戰術行動方案也必須在高度動態的作戰環境中進行,并且只有部分和不確定的情況知識。決策空間還必須考慮到指揮權、交戰規則和戰術理論所帶來的限制。人類作為戰術決策者的角色增加了決策空間的復雜性--信息過載、操作錯誤、人機信任和人工智能的模糊性/可解釋性問題等挑戰。最后,對于戰術決策及其可能的后果來說,風險可能非常大。
表4. 導致戰術決策復雜性的因素
解決高度復雜的決策領域是對海軍的挑戰。人工智能為解決海軍作戰的復雜性提供了一個潛在的解決方案,即處理大量的數據,處理不確定性,理解復雜的情況,開發和評估決策選擇,以及理解風險水平和決策后果。Desclaux和Prestot(2020)提出了一個 "認知三角",其中人工智能和大數據被應用于支持作戰人員,以實現信息優勢、控制論信心和決策優勢。約翰遜(2019年)開發了一個工程框架和理論,用于解決高度復雜的問題空間,這些問題需要使用智能和分布式人工智能系統來獲得情況意識,并做出適應動態情況的協作行動方案決定。約翰遜(2020a)建立了一個復雜的戰術場景模型,以證明人工智能輔助決策對戰術指揮和控制(C2)決策的好處。約翰遜(2020b)開發了一個預測分析能力的概念設計,作為一個自動化的實時戰爭游戲系統來實施,探索不同的可能的戰術行動路線及其預測的效果和紅色部隊的反應。首先,人工智能支持的C2系統需要描述戰術行動期間的復雜程度,然后提供一個自適應的人機組合安排來做出戰術決策。這個概念包括根據對目前戰術情況的復雜程度最有效的方法來調整C2決策的自動化水平(人與機器的決策角色)。約翰遜(2021年)正在研究這些概念性工程方法在各種防御用例中的應用,包括空中和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。
在海軍作戰中實施人工智能系統的一個額外挑戰是在戰術邊緣施加的限制。分散的海軍艦艇和飛機的作戰行動構成了戰術邊緣--在有限的數據和通信下作戰。"在未來,戰術邊緣遠離指揮中心,通信和計算資源有限,戰場形勢瞬息萬變,這就導致在嚴酷復雜的戰地環境中,網絡拓撲結構連接薄弱,變化迅速"(Yang et. al. 2021)。戰術邊緣網絡也容易斷開連接(Sridharan et. al. 2020)。相比之下,許多商業人工智能系統依賴于基于云的或企業內部的處理和存儲,而這些在海戰中是不存在的。在戰術邊緣實施未來的人工智能系統時,必須進行仔細的設計考慮,以了解哪些數據和處理能力可用。這可能會限制人工智能系統在邊緣所能提供的決策支持能力。
在軍事領域使用人工智能必須克服復雜性的挑戰障礙,在某些情況下,人工智能的加入可能會增加復雜性。辛普森等人(2021)認為,將人工智能用于軍事C2可能會導致脆弱性陷阱,在這種情況下,自動化功能增加了戰斗行動的速度,超出了人類的理解能力,最終導致 "災難性的戰略失敗"。Horowitz等人(2020)討論了通過事故、誤判、增加戰爭速度和升級以及更大的殺傷力來增加國際不穩定和沖突。Jensen等人(2020)指出,人工智能增強的軍事系統增加的復雜性將增加決策建議和產生的信息的范圍、重要性和意義的不確定性;如果人類決策者對產出缺乏信心和理解,他們可能會失去對人工智能系統的信任。
實施人工智能系統的第二個挑戰是它們依賴并需要大量的相關和高質量的數據用于開發、訓練、評估和操作。在海戰領域滿足這些數據需求是一個挑戰。明確編程的專家系統在開發過程中需要數據進行評估和驗證。ML系統在開發過程中對數據的依賴性甚至更大。圖1說明了ML系統如何從代表作戰條件和事件的數據集中 "學習"。
ML系統的學習過程被稱為被訓練,開發階段使用的數據被稱為訓練數據集。有幾種類型的ML學習或訓練--它們是監督的、無監督的和強化的方法。監督學習依賴于地面真相或關于輸出值應該是什么的先驗知識。監督學習算法的訓練是為了學習一個最接近給定輸入和期望輸出之間關系的函數。無監督學習并不從地面真相或已知的輸出開始。無監督學習算法必須在輸入數據中推斷出一個自然結構或模式。強化學習是一種試錯法,允許代理或算法在獎勵所需行為和/或懲罰不需要的行為的基礎上學習。所有三種類型的ML學習都需要訓練數據集。在部署后或運行階段,ML系統繼續需要數據。
圖1顯示,在運行期間,ML系統或 "模型 "接收運行的實時數據,并通過用其 "訓練 "的算法處理運行數據來確定預測或決策結果。因此,在整個系統工程和采購生命周期中,ML系統與數據緊密相連。ML系統是從訓練數據集的學習過程中 "出現 "的。ML系統是數據的質量、充分性和代表性的產物。它們完全依賴于其訓練數據集。
圖1. 使用數據來訓練機器學習系統
美國海軍開始認識到對這些數據集的需求,因為許多領域(戰爭、供應鏈、安全、后勤等)的更多人工智能開發人員正在了解人工智能解決方案的潛在好處,并開始著手開發人工智能系統。在某些情況下,數據已經存在并準備好支持人工智能系統的開發。在其他情況下,數據存在但沒有被保存和儲存。最后,在其他情況下,數據并不存在,海軍需要制定一個計劃來獲得或模擬數據。
收集數據以滿足海軍領域(以及更廣泛的軍事領域)的未來人工智能/ML系統需求是一個挑戰。數據通常是保密的,在不同的項目和系統中被分隔開來,不容易從遺留系統中獲得,并且不能普遍代表現實世界行動的復雜性和多樣性。要從并非為數據收集而設計的遺留系統中獲得足夠的數據,可能非常昂貴和費時。數據收集可能需要從戰爭游戲、艦隊演習、系統測試、以及建模和模擬中收集。此外,和平時期收集的數據并不代表沖突和戰時的操作。海軍(和軍方)還必須教導人工智能系統在預計的戰時行動中發揮作用。這將涉及想象可能的(和可能的)戰時行動,并構建足夠的ML訓練數據。
數據收集的另一個挑戰是潛在的對抗性黑客攻擊。對于人工智能/ML系統來說,數據是一種珍貴的商品,并提出了一種新的網絡脆弱性形式。對手可以故意在開發過程中引入有偏見或腐敗的數據,目的是錯誤地訓練AI/ML算法。這種邪惡的網絡攻擊形式可能很難被發現。
海軍正在解決這一數據挑戰,開發一個數據基礎設施和組織來管理已經收集和正在收集的數據。海軍的Jupiter計劃是一個企業數據和分析平臺,正在管理數據以支持AI/ML的發展和其他類型的海軍應用,這些應用需要與任務相關的數據(Abeyta,2021)。Jupiter努力的核心是確定是否存在正確的數據類型來支持人工智能應用。為了生產出在行動中有用的人工智能/ML系統,海軍需要在游戲中保持領先,擁有能夠代表各種可能情況的數據集,這些情況跨越了競爭、沖突和危機期間的行動范圍。因此,數據集的開發和管理必須是一項持續的、不斷發展的努力。
第三個挑戰是,人工智能系統的工程需要改變傳統的系統工程(SE)。在傳統系統中,行為是設定的(確定性的),因此是可預測的:給定一個輸入和條件,系統將產生一個可預測的輸出。一些人工智能解決方案可能涉及到系統本身的復雜性--適應和學習--因此產生不可預見的輸出和行為。事實上,一些人工智能系統的意圖就是要做到這一點--通過承擔一些認知負荷和產生智能建議,與人類決策者合作。表5強調了傳統系統和人工智能系統之間的區別。需要有新的SE方法來設計智能學習系統,并確保它們對人類操作者來說是可解釋的、可信任的和安全的。
SE作為一個多學科領域,在海軍中被廣泛使用,以將技術整合到連貫而有用的系統中,從而完成任務需求(INCOSE 2015)。SE方法已經被開發出來用于傳統系統的工程設計,這些系統可能是高度復雜的,但也是確定性的(Calvano和John 2004)。如表5所述,傳統系統具有可預測的行為:對于一個給定的輸入和條件,它們會產生可預測的輸出。然而,許多海軍應用的人工智能系統在本質上將是復雜的、適應性的和非決定性的。Raz等人(2021年)解釋說,"SE及其方法的雛形基礎并不是為配備人工智能(即機器學習和深度學習)的最新進展、聯合的多樣化自主系統或多領域操作的工程系統而設想的。" 對于具有高風險后果的軍事系統來說,出錯的余地很小;因此,SE過程對于確保海軍中人工智能系統的安全和理想操作至關重要。
表5. 傳統系統和人工智能系統的比較
在整個系統生命周期中,將需要改變SE方法,以確保人工智能系統安全有效地運行、學習和適應,以滿足任務需求并避免不受歡迎的行為。傳統的SE過程的大部分都需要轉變,以解決人工智能系統的復雜和非確定性的特點。在人工智能系統的需求分析和架構開發階段需要新的方法,這些系統將隨著時間的推移而學習和變化。系統驗證和確認階段將必須解決人工智能系統演化出的突發行為的可能性,這些系統的行為不是完全可預測的,其內部參數和特征正在學習和變化。運營和維護將承擔重要的任務,即隨著人工智能系統的發展,在部署期間不斷確保安全和理想的行為。
SE界意識到,需要新的流程和實踐來設計人工智能系統。國際系統工程師理事會(INCOSE)最近的一項倡議正在探索開發人工智能系統所需的SE方法的變化。表6強調了作為該倡議一部分的五個SE重點領域。除了非決定性的和不斷變化的行為,人工智能系統可能會出現新類型的故障模式,這些故障模式是無法預料的,可能會突然發生,而且其根本原因可能難以辨別。穩健設計--或確保人工智能系統能夠處理和適應未來的情景--是另一個需要新方法的SE領域。最后,對于有更多的人機互動的人工智能系統,必須仔細注意設計系統,使它們值得信賴,可以解釋,并最終對人類決策者有用。
表6.人工智能系統工程中的挑戰(改編自:Robinson,2021)。
SE研究人員正在研究人工智能系統工程所涉及的挑戰,并開發新的SE方法和對現有SE方法的必要修改。Johnson(2019)開發了一個SE框架和方法,用于工程復雜的適應性系統(CASoS)解決方案,涉及分布式人工智能系統的智能協作。這種方法支持開發智能系統的系統,通過使用人工智能,可以協作產生所需的突發行為。Johnson(2021)研究了人工智能系統產生的潛在新故障模式,并提出了一套跨越SE生命周期的緩解和故障預防策略。她提出了元認知,作為人工智能系統自我識別內部錯誤和失敗的設計方案。Cruz等人(2021年)研究了人工智能在空中和導彈防御應用中使用人工智能輔助決策的安全性。他們為計劃使用人工智能系統的軍事項目編制了一份在SE開發和運行階段需要實施的策略和任務清單。Hui(2021年)研究了人類作戰人員與人工智能系統合作進行海軍戰術決策時的信任動態。他制定了工程人工智能系統的SE策略,促進人類和機器之間的 "校準 "信任,這是作為適當利用的最佳信任水平,避免過度信任和不信任,并在信任失敗后涉及信任修復行動。Johnson等人(2014)開發了一種SE方法,即協同設計,用于正式分析人機功能和行為的相互依賴性。研究人員正在使用協同設計方法來設計涉及復雜人機交互的穩健人工智能系統(Blickey等人,2021年,Sanchez 2021年,Tai 2021年)。
數據的作用對于人工智能系統的開發和運行來說是不可或缺的,因此需要在人工智能系統的SE生命周期中加入一個持續不斷的收集和準備數據的過程。Raz等人(2021)提出,SE需要成為人工智能系統的 "數據策劃者"。他們強調需要將數據策劃或轉化為可用的結構,用于開發、訓練和評估AI算法。French等人(2021)描述了需要適當的數據策劃來支持人工智能系統的發展,他們強調需要確保數據能夠代表人工智能系統將在其中運行的預期操作。他們強調需要安全訪問和保護數據,以及需要識別和消除數據中的固有偏見。
SE界正處于發展突破和進步的早期階段,這些突破和進步是在更復雜的應用中設計人工智能系統所需要的。這些進展需要與人工智能的進展同步進行。在復雜的海軍應用以及其他非海軍和非軍事應用中實施人工智能系統取決于是否有必要的工程實踐。SE實踐必須趕上AI的進步,以確保海軍持續的技術優勢。
海軍在有效實施人工智能系統方面面臨的第四個挑戰是應對對手。海軍的工作必須始終考慮對手的作用及其影響。表7確定了在海軍實施人工智能系統時必須考慮的與對手有關的三個挑戰:(1)人工智能技術在許多領域迅速發展,海軍必須注意同行競爭國的軍事應用進展,以防止被超越,(2)在海軍應用中實施人工智能系統和自動化會增加網絡脆弱性,以及(3)海軍應用的人工智能系統需要發展和適應,以應對不斷變化的威脅環境。
表7. AI系統的對抗性挑戰
同行競爭國家之間發展人工智能能力的競賽,最終是為了進入對手的決策周期,以便比對手更快地做出決定和采取行動(Schmidt等人,2021年)。人工智能系統提供了提高決策質量和速度的潛力,因此對獲得決策優勢至關重要。隨著海軍對人工智能解決方案的探索,同行的競爭國家也在做同樣的事情。最終實現將人工智能應用于海軍的目標,不僅僅取決于人工智能研究。它需要適當的數據收集和管理,有效的SE方法,以及仔細考慮人類與AI系統的互動。海軍必須承認,并采取行動解決實施人工智能系統所涉及的挑戰,以贏得比賽。
網絡戰是海軍必須成功參與的另一場競賽,以保持在不斷沖擊的黑客企圖中的領先地位。網絡戰的特點是利用計算機和網絡來攻擊敵人的信息系統(Libicki, 2009)。海軍對人工智能系統的實施導致了更多的網絡攻擊漏洞。人工智能系統的使用在本質上依賴于訓練和操作數據,導致黑客有機會在開發階段和操作階段用腐敗的數據欺騙或毒害系統。如果一個對手獲得了對一個運行中的人工智能系統的控制,他們可能造成的傷害將取決于應用領域。對于支持武器控制決策的自動化,其后果可能是致命的。海軍必須注意人工智能系統開發過程中出現的特殊網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御戰略。海軍必須小心翼翼地確保用于開發、訓練和操作人工智能系統的數據集在整個人工智能系統的生命周期中受到保護,免受網絡攻擊(French等人,2021)。
威脅環境的演變是海軍在開發AI系統時面臨的第三個對抗性挑戰。對手的威脅空間隨著時間的推移不斷變化,武器速度更快、殺傷力更大、監視資產更多、反制措施更先進、隱身性更強,這對海軍能夠預測和識別新威脅、應對戰斗空間的未知因素構成了挑戰。尤其是人工智能系統,必須能夠加強海軍感知、探測和識別新威脅的能力,以幫助它們從未知領域轉向已知領域的過程。他們必須適應新的威脅環境,并在行動中學習,以了解戰斗空間中的未知因素,并通過創新的行動方案快速應對新的威脅(Grooms 2019, Wood 2019, Jones et al 2020)。海軍可以利用人工智能系統,通過研究特定區域或領域的長期數據,識別生活模式的異常(Zhao等人,2016)。最后,海軍可以探索使用人工智能來確定新的和有效的行動方案,使用最佳的戰爭資源來解決棘手的威脅情況。
人工智能系統為海軍戰術決策的優勢提供了相當大的進步潛力。然而,人工智能系統在海戰應用中的實施帶來了重大挑戰。人工智能系統與傳統系統不同--它們是非決定性的,可以學習和適應--特別是在用于更復雜的行動時,如高度動態的、時間關鍵的、不確定的戰術行動環境中,允許的誤差范圍極小。本文確定了為海戰行動實施人工智能系統的四個挑戰領域:(1)開發能夠解決戰爭復雜性的人工智能系統,(2)滿足人工智能系統開發和運行的數據需求,(3)設計這些新穎的非確定性系統,以及(4)面對對手帶來的挑戰。
海軍必須努力解決如何設計和部署這些新穎而復雜的人工智能系統,以滿足戰爭行動的需求。作者在這一工作中向海軍提出了三項建議。
1.第一個建議是了解人工智能系統與傳統系統之間的差異,以及伴隨著人工智能系統的開發和實施的新挑戰。
人工智能系統,尤其是那些旨在用于像海戰這樣的復雜行動的系統,其本身就很復雜。它們在應對動態戰爭環境時將會學習、適應和進化。它們將變得不那么容易理解,更加不可預測,并將出現新型的故障模式。海軍將需要了解傳統的SE方法何時以及如何在這些復雜系統及其復雜的人機交互工程中失效。海軍將需要了解數據對于開發人工智能系統的關鍵作用。
2.第二個建議是投資于人工智能系統的研究和開發,包括其數據需求、人機互動、SE方法、網絡保護和復雜行為。
研究和開發是為海戰行動開發AI系統解決方案的關鍵。除了開發復雜的戰術人工智能系統及其相關的人機協作方面,海軍必須投資研究新的SE方法來設計和評估這些適應性非決定性系統。海軍必須仔細研究哪些新類型的對抗性網絡攻擊是可能的,并且必須開發出解決這些問題的解決方案。海軍必須投資于收集、獲取和維護代表現實世界戰術行動的數據,用于人工智能系統開發,并確保數據的相關性、有效性和安全性。
3.第三個建議是承認挑戰,并在預測人工智能系統何時準備好用于戰爭行動方面采取現實態度。
盡管人工智能系統正在許多領域實施,但海軍要為復雜的戰術戰爭行動實施人工智能系統還需要克服一些挑戰。人工智能系統在較簡單應用中的成功并不能保證人工智能系統為更復雜的應用做好準備。海軍應該保持一種現實的認識,即在人工智能系統準備用于戰爭決策輔助工具之前,需要取得重大進展以克服本文所討論的挑戰。實現人工智能系統的途徑可以依靠建模和模擬、原型實驗、艦隊演習以及測試和評估。可以制定一個路線圖,彌合較簡單應用的人工智能和復雜應用的人工智能之間的差距--基于一個積木式的方法,在為逐漸復雜的任務開發和實施人工智能系統時吸取經驗教訓。
海軍將從未來用于戰術戰爭的人工智能系統中獲益。通過安全和有效地實施人工智能系統,戰術決策優勢的重大進步是可能的。此外,海軍必須跟上(或試圖超越)對手在人工智能方面的進展。本文描述了為在海戰中實施人工智能系統而必須解決的四個挑戰。通過對這些新穎而復雜的人工智能系統的深入了解,對研究和開發計劃的投資,以及對人工智能技術進步時限的現實預期,海軍可以在應對這些挑戰方面取得進展。
美國仍然是世界上最突出的軍事和技術力量。在過去十年中,美國認識到人工智能作為力量倍增器的潛力,越來越多地將人工智能(AI)的熟練程度視為美國重要利益和保證美國軍事和經濟實力的機制。特別是,在過去十年中,人工智能已成為美國國防的一項關鍵能力,特別是考慮到2022年美國國防戰略對印度-太平洋地區的關注。
因此,美國國防部(DoD)(以及美國政府和國防機構總體上)對人工智能和相關新興技術表現出越來越大的熱情。然而,雖然美國目前在學術界和私營部門的人工智能研究和開發方面取得了巨大進展,但國防部尚未在廣泛范圍內成功地將商業人工智能的發展轉化為真正的軍事能力。
美國政府在利用國防人工智能和人工智能支持的系統方面通常處于有利地位。然而,在過去的幾年里,各種官僚主義、組織和程序上的障礙減緩了國防部在國防人工智能采用和基于技術的創新方面的進展。最關鍵的是,國防部遭受了復雜的收購過程和廣泛的數據、STEM和AI人才和培訓的短缺。從事人工智能和人工智能相關技術和項目的組織往往是孤立的,而且還存在必要的數據和其他資源相互分離。在美國防部內部存在一種傾向于可靠方法和系統的文化,有時趨向于勒德主義。所有這些因素都導致了人工智能采用的速度出奇的緩慢。美國家安全委員會2021年提交給國會的最終報告總結說,"盡管有令人興奮的實驗和一些小型的人工智能項目,但美國政府離人工智能就緒還有很長的路要走"。
因此,盡管人工智能有可能增強美國的國家安全并成為一個優勢領域,而且鑒于美國在軍事、創新和技術領導方面的長期傳統,人工智能有可能成為一個薄弱點,擴大 "美國已經進入的脆弱窗口"。 如果美國不加快創新步伐,達到負責任的速度,并奠定必要的制度基礎,以支持一支精通人工智能的軍隊,人工智能將繼續成為一個不安全點。
去年,美國防部在這些挑戰中的一些方面取得了進展,調整了國防人工智能的方法。2022年6月,美國防部發布了《負責任人工智能戰略和實施途徑》,將更有數據依據的、負責任的、可操作的人工智能工作列為優先事項,此后開始執行。最重要的是,美國防部已經啟動了對其人工智能組織結構的重大改革,創建了一個新的首席數字和人工智能辦公室(CDAO),以整合其不同的人工智能項目和利益相關者,并使其與該部門的數據流更好地協調。值得注意的是,美國國防部目前正在對其國防人工智能的整體方法進行重大變革和振興。然而,這些新的人工智能努力是否足以讓美國彌補失去的時間,還有待觀察。
自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。
人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。
土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:
第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。
《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。
焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。
土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。
土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。
土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。
土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。
土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。
土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。
培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。
由于沒有足夠快地開發和部署人工智能(AI),美國在常規戰斗中面臨被超越的風險。對手,特別是中國,正在擁抱人工智能,并試圖利用所認為的美國弱點。中國計劃到2030年成為人工智能的世界領導者,并繼續在其民用和軍用部門大量投資于人工智能能力。使用致命性自主武器(LAWS)是不可避免的,并正在所有領域發展這種能力。人工智能是一種力量倍增器,但美國對在戰斗中使用致命性自主武器感到不安。中國和美國對未來的人工智能應用有著截然不同的戰略。為了使美國軍隊既能最大限度地發揮人工智能的全部潛力,又能維護國際法治,在未來的大規模沖突中,人-智能體(H-A)編隊合作是必不可少的。
雖然人工智能是一種力量倍增器,但美國的政策制定者和軍事指揮官目前對在未來的戰斗中使用致命性自主武器系統感到憂慮。如果一個或多個對手對美國或其盟國部署致命性自主武器系統,這一政策可能會引起爭論。解決這個問題的一個潛在辦法是將人工智能與人類對應方組合起來。人-智能體(H-A)團隊是一個網絡,其中智能系統(智能體)和人在一個小組內有效合作,通過加強彼此的強項和預測彼此的弱點來創造協同效應。團隊合作的特點和屬性因模型而異,但貫穿始終的一個概念是相互依賴的重要性。H-A團隊合作取決于人與人工智能系統之間的這種相互依存關系,才能取得成功。
DeepMind之前提到的AlphaGo是一個完美的例子,說明如何有效地將人工智能與人類同行配對。2017年,也就是AlphaGo第二次擊敗圍棋世界冠軍的那一年,兩名人類專業人士與人工智能系統結成了伙伴。在 "配對圍棋 "中,人類和AlphaGo交替下棋,每個人都必須學習和適應他們的隊友正在下的棋。這種耦合使人類能夠從他們的人工智能對手那里學習,成為更好的棋手。與AlphaGo配對的中國圍棋大師連笑解釋說:"AlphaGo非常自信,他也給了我信心。他幫助我相信我應該掌好舵"。雖然人類在AlphaGo手中的失敗讓一些人感到失望,但這實際上是一種變相的祝福。H-A組隊有可能增強,甚至可能改善人類目前的能力。
本文將試圖回答美軍將如何利用人工智能和H-A團隊合作,為未來10到20年的大規模戰斗做準備。為了使美國軍隊既能最大限度地發揮人工智能的潛力,又能維護國際法治,H-A團隊合作在未來的沖突中是必不可少的。通過理論、歷史、條令、已完成的研究項目和潛在的未來情景,這項研究將有助于回答人工智能在美國軍事行動中的未來是什么樣子。證據將集中在利用自主武器系統(AWS)和人工智能的積極和消極方面。
本文還將探討H-A組隊的能力,以及當兩者結合在一起時,性能是否會提高。研究結果將解決 "終結者難題 "的可能性,特別是在自主機器提供明顯優勢的情況下是否使用它們。雖然這個話題相對較新,但有許多關于人工智能研究和在美國軍隊中使用的書籍、期刊文章和新聞報道。研究將擴展這一主題,并提出在未來戰場上人工智能和人類合作的方式。人工智能有可能引領下一次軍事事務的革命(RMA);然而,除非人工智能成為人類有效團隊的一部分,否則美國無法在大規模戰斗中充分發揮其潛力。
像俄羅斯等這樣的近鄰對手明白,他們無法與美國(US)競爭并贏得傳統沖突。為了使俄羅斯等能夠戰勝美國,他們通過技術進步開發了新的手段和能力,以便在戰場上取得勝利。正在開發的主要能力之一是低當量戰場核武器(LYBNWs),以便在未來的沖突中贏得對美國的勝利。美國的近鄰對手可能對美國的機動部隊發射LYBNW,以將其從戰場上消滅,不至于將沖突提升到全面核戰爭的門檻。
自任何戰爭開始以來,人類就利用武器技術的進步來增加沖突中的勝利機會。新武器系統的演變在整個歷史上的爭端中是至關重要的。能夠在現有系統或平臺上實施新技術的領導人或國家將獲得勝利。歷史上的一個典型例子是步槍和大炮在戰場上的實施發展。在1805年和1806年,拿破侖利用這兩項技術進步與騎兵相結合,贏得了關鍵的勝利,奧斯特利茨戰役就是一個例子。世界各國都把步槍和大炮與演習的混合作為戰爭的突破口。在隨后的幾年里,歐洲和世界各國都在全力以赴地按照拿破侖在耶拿戰役和其他沖突之前的方式來建設和訓練自己的軍事力量。隨著時間的推移,武器技術的演變繼續增加。下一個改變未來戰爭執行方式的武器系統是空中力量。
第一架飛機于1902年飛行,其微小的進步將空中力量限制在偵察能力上,并限制了第一次世界大戰(WWI)的空中戰斗。當時的領導人設想,飛機是未來通過空中力量對抗沖突的手段。空中力量的進步在1945年第二次世界大戰(WWII)期間取得了成果。空中力量,加上陸軍,使美國對德國具有戰略優勢。美國了解空中力量給戰場帶來的能力,即沿著敵人的交通線和主要戰線攻擊敵人的目標。空中力量使地面部隊能夠在戰場上與敵人全面交戰,以消耗德國軍隊并贏得戰爭。空中力量對二戰勝利作出貢獻的另一個例子是在對日本的太平洋戰役中。空中力量能夠在跳島任務中轟炸敵方目標,并攻擊日本本土。最終,空軍投下了原子彈,迫使日本在二戰中投降。
歷史為那些利用技術進步在戰爭中取得勝利或阻止沖突的國家提供了一個準確的畫面。前國防部長馬克-埃斯珀理解技術進步的重要性,他說:"歷史告訴我們,那些率先利用一代人的技術的人往往在未來幾年里在戰場上具有決定性的優勢。" 下一個改變戰爭方式的技術將是什么?諸如俄羅斯等這樣的對手認為擊敗美國的下一個技術進步是低當量戰場核武器(LYBNWs)。俄羅斯等設想的情景是,美國的地面部隊在戰場上機動,但防空保護有限,地形將他們引入一個巨大的殺傷箱。然后,俄羅斯等將使用混合了戰術彈道導彈(TBM)的LYBNWs來攻擊美國地面部隊和關鍵地區,如濕隙交叉點、支持區和后勤線。
美國軍方的領導人已經關注了從遠程火力、戰術核、高超音速導彈、無人機群和空間能力等廣泛的技術進步。隨著如此多的新技術擠入戰斗空間,一種能力引起了軍事和民用部門的興趣,那就是人工智能(AI)。在陸軍中,人工智能是一個未被開發的武器系統,可以成為戰爭中的下一個技術進步。人工智能將使美國陸軍在戰場上擁有手段和優勢,就像大炮和空軍一樣。此外,人工智能將協助美國陸軍在大規模戰斗中檢測、分類和使LYBNW失效。
美國的近鄰顧問正在不斷地嘗試開發下一個武器系統,以使他們在戰場上獲得優勢,從而在戰爭中獲勝。俄羅斯正在開發高超音速武器;與此同時,中國利用遠程精確射擊來與敵人保持距離。然而,這兩種威脅都以LYBNW為中心努力在未來的沖突中摧毀美國的機動部隊。 目前,美國的防空平臺缺乏技術和能力來對抗大規模沖突中混有TBM的LYBNW的新威脅。
本專著旨在提供將人工智能整合到陸軍防空系統中以擊敗LYBNWs的方案。首先,本專著將通過歷史的視角來說明發展技術進步并將其整合到現有系統中對在戰場上或戰爭中取得勝利是多么重要。用于研究的主要武器系統是大炮、空氣動力和核武器。通過歷史分析,讀者可以預見,美國必須繼續發展技術進步,特別是在人工智能方面,以便對未來的沖突產生積極影響。其次,該專著重點介紹了美國陸軍目前和未來的防空平臺,以備戰事。這部分調查讓讀者了解系統的能力和局限性,以了解防空作戰環境和導致需要綜合人工智能的不足之處。第三,該專著重點介紹了目前民用和軍用部門的算法和平臺的人工智能能力。這些算法提供了對機器學習能力的洞察力,以便在人工智能平臺上與當前的系統結合起來提出建議。最后,該論文集中討論了整合的建議和對自主人工智能系統的需求,以擊敗LYBNWs。
這項研究對美國陸軍來說很重要,因為近似的建議開發了新的和增強的導彈平臺以贏得未來的沖突,特別是LYBNWs。這些武器系統的出現正在慢慢超過美國陸軍目前的防空系統。這項研究提供了一個行動方案,通過將人工智能與目前的平臺結合起來,提供增強的防空覆蓋,從而重新獲得優勢。同時,為自主武器系統的建立留出時間。在綜合防空導彈防御系統(IAMD)中利用人工智能能力可提供早期預警、交戰速度、瞄準威脅的距離,更重要的是,可提供威懾。防空系統一旦部署到一個行動區,就會對世界大國產生威懾力。人工智能的增強提高了美國威懾或擊敗侵略的能力,并保留了陸地部隊。
量子技術和生物技術是對安全和國防產生越來越大影響的關鍵新興技術。如何利用這些新興技術來加強(國際)國家安全?這些關鍵技術給荷蘭帶來了哪些潛在挑戰?
戰略警報解決了這些問題,并總結了以下關鍵要點:
量子計算技術將能夠打破當前的(非對稱)加密標準并促進網絡攻擊。
荷蘭應投資于歐洲層面的量子技術發展合作,以加強整個歐洲量子價值鏈。
荷蘭應就疫苗和療法的開發做出明確和早期的安排(最好在歐盟層面),為下一次大流行做好準備。
集中協調生物技術研究將使荷蘭在該領域發揮更突出的作用。
荷蘭應將基因改造對脆弱生態系統可能產生的負面影響納入其規劃過程。
荷蘭應投資研究生物技術的可能應用,以創造和改進可再生能源。
荷蘭應監測這兩種技術相對于其他國家的潛在依賴關系,并應優先保持對那些對發展戰略自主權至關重要的要素的控制。