ChatGPT作為人工智能發展新的里程碑,在語言表達、自我強化等方面表現突出,展現出生成式人工智能的廣泛運用前景,在多領域引起廣泛關注,以ChatGPT為代表的生成式人工智能將會可預期地改變國家安全態勢。在意識形態安全層面,對生成式人工智能的惡意運用使滲透方式更加多元,滲透效能更加顯著。在國際輿論層面,對生成式人工智能的大規模使用將進一步使輿論場復雜化。在國家實力發展層面,生成式人工智能將繼續拉大國家實力差距,國內公共權力與權威進一步分散。在軍事安全層面,生成式人工智能賦能戰場信息收集和戰場指揮,國家之間的認知戰對抗能力重要性日益提升。在法律規范層面,當前生成式人工智能的責任主體不明晰,現有法律法規難以約束基于該技術開展的犯罪行為。在社會穩定方面,生成式人工智能沖擊勞動力市場,重塑人才發展模式。面對新技術沖擊下急劇變化的新安全態勢,應建立更多元協同的創新和應用體系,在國際上共享發展成果,完善法律體系,推動該技術服務于國家利益發展與人類命運共同體的構建。
隨著大型語言模型(LLMs)和視覺基礎模型(VFMs)的出現,利用大型模型的多模態AI系統有潛力像人類一樣感知現實世界、做出決策和控制工具。近幾個月來,LLMs在自動駕駛和地圖系統中顯示出廣泛的關注。盡管潛力巨大,但對關鍵挑戰、機會和未來應用于LLM駕駛系統的努力仍缺乏全面理解。在這篇論文中,我們對這一領域進行了系統性的研究。我們首先介紹多模態大型語言模型(MLLMs)的背景、使用LLMs的多模態模型開發以及自動駕駛的歷史。然后,我們概述了現有的MLLM工具,用于駕駛、交通和地圖系統,以及現有的數據集和基準測試。此外,我們總結了第一屆WACV關于自動駕駛的大型語言和視覺模型研討會(LLVM-AD)的工作,這是首個關于自動駕駛中LLMs的綜述。為了進一步推動這一領域的發展,我們還討論了在自動駕駛系統中使用MLLMs需要由學術界和工業界解決的幾個重要問題。論文集可以在Awesome-Multimodal-LLM-Autonomous-Driving中找到。
大型語言模型(LLMs)最近獲得了顯著的關注,顯示出在模仿類似人類的智能方面的顯著潛力。這些進展激發了對多模態大型語言模型(MLLMs)[199]的熱情,這些模型將LLMs的復雜推理能力與圖像、視頻和音頻數據結合起來。模態對齊使它們能夠以更高的熟練度執行各種任務,包括分類圖像、匹配文本和對應視頻以及語音檢測。此外,[174] 證明LLMs可以處理機器人領域的簡單任務,包括基本的邏輯、幾何和數學推理,到復雜的任務,如空中導航、操縱和具體化的代理。然而,LLMs融入交通和自動駕駛車輛領域還處于開創階段。將語言交流與全景圖像、激光雷達點云和駕駛行為等多模態感官輸入相結合,可以徹底改變當前自動駕駛系統的基礎模型。 最近,更有能力的基礎模型的出現使SAE L3駕駛自動化成為可能[28]。然而,多模態LLMs在自動駕駛中的集成并沒有跟上這些進展,一個自然的問題是,基于LLM的模型如GPT-4、PaLM-2和LLaMA-2是否有潛力增強自動駕駛?圖2為我們提供了一個很好的例子。不可否認,將LLMs整合到自動駕駛車輛行業可以帶來車輛智能、決策和乘客互動方面的重大范式轉變[30,31],提供一個更以用戶為中心、適應性強和值得信賴的交通未來。 在自動駕駛的背景下,LLMs將在關鍵模塊上帶來變革性影響:感知、運動規劃和運動控制[180]。在感知方面,LLMs可以利用外部API訪問實時基于文本的信息源,如高清地圖、交通報告和天氣更新,使車輛獲得對周圍環境更全面的了解[30]。一個很好的例子是改進車載地圖中的導航。LLMs可以處理實時交通數據,識別擁擠的路線,并提出替代路徑,最終優化導航的效率和安全性[159]。在運動規劃方面,LLMs通過利用它們的自然語言理解和推理[110]發揮作用。它們促進以用戶為中心的溝通,并使乘客能夠使用日常語言表達他們的意圖和偏好。此外,LLMs還處理文本數據源,如地圖、交通報告和實時信息,然后為優化路線規劃做出高層決策[124]。
在運動控制的背景下,大型語言模型(LLMs)首先使控制器參數的定制化成為可能,以符合駕駛者的偏好,實現駕駛體驗的個性化。此外,LLMs還可以通過解釋運動控制過程的每一步提供透明度。多模態大型語言模型(MLLMs)代表了LLMs的下一個發展層次,將語言理解的能力與處理和整合多樣數據模式的能力結合在一起。在自動駕駛的領域內,MLLMs的重要性是巨大且變革性的。裝備了MLLMs的車輛可以處理來自文本輸入的信息以及車載攝像頭和其他傳感器捕獲的其他特征,使復雜交通場景和駕駛行為的學習變得更加容易。在自動駕駛之外,MLLMs還可以通過語音通信和用戶偏好分析,顯著增強個性化的人車交互。在未來的SAE L4-L5級自動駕駛車輛中,乘客可以在駕駛過程中通過語言、手勢甚至目光來傳達他們的請求,而MLLMs可以通過集成視覺顯示或語音響應提供實時的車內反饋。
在我們將自動駕駛和高級建模領域橋接起來的追求中,我們聯合舉辦了2024年IEEE/CVF冬季計算機視覺應用會議(WACV)上的首屆大型語言和視覺模型自動駕駛研討會(LLVM-AD)。該活動旨在增強學術研究人員和行業專業人士之間的合作,探索在自動駕駛領域實施多模態大型語言模型的可能性和挑戰。LLVM-AD還發布了一個后續的開源真實世界交通語言理解數據集,催化了實際進展。
本文的主要貢獻可以概括如下:
如圖1所示,我們的綜述論文旨在為自動駕駛的MLLMs提供全面概述,并討論不斷增長的趨勢和未來方向。接下來的兩個部分分別簡要描述了自動駕駛和MLLMs的發展歷史。第4節介紹了關于自動駕駛中MLLMs的當前已發表作品,涵蓋感知、運動規劃和運動控制。第5節介紹了利用MLLMs的相關自動駕駛行業應用。在最后三個部分中,我們總結了第一屆WACV LLVM-AD研討會的論文,并討論了LLMs和MLLMs在自動駕駛領域的潛在研究方向。 自動駕駛的發展 自動駕駛的追求是一個逐步前進的旅程,它由愿景抱負和技術能力之間的持續互動所標志。自動駕駛的第一波全面研究始于20世紀末。例如,由卡內基梅隆大學發起的自主陸地車輛(ALV)項目利用來自立體攝像頭、聲納和ERIM激光掃描儀的傳感器讀數執行諸如車道保持和障礙物避讓等任務。然而,這些研究受限于傳感器精度和計算能力的限制。
自動駕駛發展
在過去的二十年中,自動駕駛系統取得了快速的改進。2014年由汽車工程師學會(SAE)發布的分類系統定義了六個級別的自動駕駛系統。這種分類方法現已被廣泛接受,并揭示了研究和開發進程的重要里程碑。深度神經網絡(DNNs)的引入也發揮了重要作用。借助深度學習,計算機視覺對于解釋復雜的駕駛環境至關重要,為諸如目標檢測、場景理解和車輛定位等問題提供了最先進的解決方案。深度強化學習(DRL)在提升自動駕駛車輛的控制策略方面也發揮了關鍵作用,完善了運動規劃和決策過程,以適應動態和不確定的駕駛條件。此外,傳感器精度和計算能力的提高使得車輛上能運行更大、更準確的模型。隨著這些改進,更多L1至L2級別的高級駕駛輔助系統(ADAS)如車道居中和自適應巡航控制現在已在日常車輛上可用。諸如Waymo、Zoox、Cruise和百度等公司也在推出具有3級或更高自主性的Robotaxis。然而,這些自動駕駛系統在許多駕駛邊緣情況下仍然會失敗,例如極端天氣、糟糕的光照條件或罕見情況。
受當前局限性的啟發,自動駕駛研究的一部分現在專注于解決自動系統的安全性和增強自動系統的安全性。由于深度神經網絡通常被視為黑盒,可信AI旨在使系統更加可靠、可解釋和可驗證。例如,為自動駕駛系統生成對抗性的安全關鍵場景,以便系統更有能力處理低概率事件。另一種提高整體安全性的方法是通過車對基礎設施和車對車通信。通過來自附近實例的信息,系統將具有改進的魯棒性,并可以接收早期警告。與此同時,隨著大型語言模型展示出其強大的推理和場景理解能力,正在進行研究以利用它們來提高自動駕駛系統的安全性和整體性能。
多模態大型語言模型
最近,多模態大型語言模型(MLLMs)已成為一個重要的研究領域。這些模型利用了大型語言模型(LLMs)的力量,如ChatGPT、InstructGPT、FLAN和OPT-IML,來執行跨越多種模態(如文本和圖像)的任務。它們展現出了令人驚訝的新興能力,例如基于圖像編寫故事和執行無需光學字符識別的數學推理,這在傳統方法中很罕見。這表明了通往人工通用智能的潛在路徑。MLLMs中的關鍵技術和應用包括多模態指令調整(Multimodal Instruction Tuning),它調整模型以跟隨不同模態的指令;多模態上下文學習(Multimodal In-Context Learning),允許模型從多模態數據的上下文中學習;多模態思維鏈(Multimodal Chain of Thought),使模型能夠跨不同模態保持思維鏈;以及LLM輔助視覺推理(LLM-Aided Visual Reasoning, LAVR),利用LLMs來幫助視覺推理任務。MLLMs更符合人類感知世界的方式,提供了比LLMs更友好的用戶界面,并支持更廣泛的任務范圍。MLLMs的最新進展得益于GPT-4V的發展,盡管它沒有開放的多模態界面,但已展示出驚人的能力。研究社區已經做出了重大努力,開發了功能強大的開源MLLMs,并展示了驚人的實際能力。
**多模態語言模型在自動駕駛領域 **
在自動駕駛行業中,多模態語言模型(MLLMs)有潛力理解交通場景,改善駕駛決策過程,并徹底改變人與車輛的互動方式。這些模型接受了大量交通場景數據的訓練,使它們能夠從地圖、視頻和交通規則等不同來源提取有價值的信息。因此,它們可以增強車輛的導航和規劃能力,確保安全性和效率。此外,它們能夠適應不斷變化的道路條件,并具有與人類直覺非常相似的理解水平。
多模態語言模型在感知方面的應用 傳統的感知系統通常僅限于識別一組預定義的特定對象類別,這限制了它們的適應性,并需要收集和注釋新數據的繁瑣過程以識別不同的視覺概念。因此,它們的通用性和實用性受到了削弱。相比之下,一種新的范式正在興起,它涉及從原始文本描述和各種模態中學習,提供更豐富的監督來源。
多模態大型語言模型(MLLMs)由于能夠通過文本分析來分析非文本數據(如圖像和點云)而受到了顯著關注。這些進展極大地提高了零樣本和少樣本圖像分類、分割和對象檢測。
開創性的模型如CLIP已經表明,通過訓練將圖像與標題匹配,可以有效地從頭開始創建圖像表示。在此基礎上,Liu等人引入了LLaMa,它結合了視覺編碼器和LLM,增強了對視覺和語言概念的理解。Zhang等人進一步擴展了這項工作,開發了Video-LLaMa,使MLLMs能夠處理視頻中的視覺和聽覺信息。這代表了機器感知在整合語言和視覺模態方面的重大進展。
多模態語言模型用于規劃和控制 在機器人學領域,語言在規劃和控制任務中的使用已有悠久的歷史,可以追溯到早期展示人機互動的自然語言詞匯解析的使用[187],并且它已經被廣泛研究用于機器人領域。關于這個主題存在廣泛的綜述性研究[104, 164]。已經被充分證明,語言作為非專業人員與機器人交流的有價值接口[82]。此外,通過基于語言的控制實現機器人系統對新任務的泛化能力已經在各種研究中得到證明[2, 66]。已經廣泛研究了實現特定規劃或控制任務或策略,包括基于模型的[5, 121, 153]、模仿學習[105, 155]和強化學習[47, 67, 116]。
由于多模態語言模型在零樣本學習[167]、上下文學習[114]和推理[184]方面具有顯著的能力,許多研究表明LLM(多模態語言模型)可以啟用規劃[152, 176]和通過文本描述來感知環境[157],以開發用戶在機器人控制中的參與[174]。[81]通過文本完成和語義翻譯的組合將自然語言命令分解為可執行操作序列,以控制機器人。SayCan [2]利用加權LLMs來生成合理的動作并控制機器人,而[62]使用環境反饋,LLMs可以發展內心的自言自語,增強了它們在機器人控制場景中進行更全面處理的能力。Socratic Models [202]使用視覺語言模型替代用于機器人行動生成的語言提示中的感知信息。[96]介紹了一種使用LLMs直接生成機器人執行任務的策略代碼、指定反饋循環和編寫低級控制原語的方法。
在自動駕駛方面,LLMs可以作為支持人機交互的橋梁。對于通用目的,LLMs可以是任務無關的規劃器。在[60]中,作者發現預訓練的LLMs包含了關于一致和可執行行動計劃的可操作知識,無需額外的訓練。黃等人[61]提出了使用LLMs將任意自然語言命令或任務描述轉化為具體和詳細列出的目標和約束。[185]提出將LLMs集成為決策解碼器,以生成沿著自主車輛中的思維鏈提示的行動序列。在[31]中,作者展示了LLMs可以將駕駛員的任意命令分解為一系列中間階段,其中包括實現目標的行動的詳細描述。
同時,增強自動駕駛的安全性和可解釋性也是至關重要的。多模態語言模型提供了理解環境及決策過程透明性的潛力。[77]顯示,視頻到文本模型可以幫助生成與下游控制器對齊的環境文本解釋。Deruyttere等人[33]比較了基線模型,并顯示LLMs可以識別與自然語言命令或描述相關的環境中的特定對象。為了提高模型的可解釋性,Xu等人[193]提出了集成LLMs以生成關于計劃行動的解釋的方法。在[31]中,作者提出了一個框架,LLMs可以提供關于它們如何感知和對環境因素(如天氣和交通狀況)做出反應的描述。
此外,自動駕駛中的LLMs還可以促進控制器參數的微調,使其與駕駛員的偏好相一致,從而獲得更好的駕駛體驗。[150]通過引導參數矩陣適應將LLMs集成到低級控制器中。除了LLMs的發展,多模態語言-圖像模型(MLLMs)也取得了巨大進展。MLLMs具有作為自動駕駛的通用和安全規劃模型的潛力。處理和融合視覺信號,如圖像,可以通過結合視覺線索和語言指令[69, 84]增強導航任務。在自動規劃過程中,互操作性挑戰一直是一個問題[23, 46]。然而,近年來在解決自動規劃中的互操作性挑戰方面取得了巨大進展,利用MLLMs在自動駕駛規劃階段的出色推理能力[22, 41]。在一個顯著的方法中,陳等人[22]將矢量化的對象級2D場景表示集成到預訓練的LLM中,通過適配器實現直接解釋和全面推理各種駕駛場景。此外,付等人[41]利用LLMs進行推理,并將這種推理轉化為可執行的駕駛行為,展示了LLMs在增強自動駕駛規劃方面的多功能性。
此外,GPT-Driver [110]將運動規劃重新構想為一個語言建模問題,并利用LLMs在運動規劃中以自然語言描述高精度軌跡坐標及其內部決策過程。SurrealDriver [68]模擬了基于MLLM的生成駕駛代理,可以感知復雜的交通情景并生成相應的駕駛操作。[76]研究了在自動駕駛中使用文本描述與預訓練的語言編碼器進行運動預測的可能性。
盡管人工智能作為宣傳工具的使用一直備受關注,但烏克蘭和以色列的熱點沖突正被證明是加速人工智能和其他信息技術工具在戰場上使用的活實驗室。特別是在烏克蘭,有報道稱,人工智能甚至被用于自主瞄準打擊目標。以色列國防軍(IDF)對人工智能的使用則更為隱秘,但它肯定被用作瞄準輔助工具,以擊敗來自加沙哈馬斯的鋪天蓋地的導彈攻擊。
烏克蘭在拒絕了其他 10 個國家的人工智能項目后,開發出了自己的人工智能,因為烏克蘭確信本國開發的人工智能會更有益處,而且可以規避向商業公司報告的任何要求。烏克蘭的人工智能主要集中在龐大的攝像頭和無人機網絡提供的計算機視覺數據上。例如,名稱和目標字符識別(OCR)可以快速識別伊朗制造的 "沙赫德 "神風無人機,而不是標準導彈。 人工智能還有助于烏克蘭自己的導彈瞄準。這些人工智能工作大多由烏克蘭的 IT 陸軍完成,據說他們有 25 萬人,其中許多人在創新的 "蝸牛車庫 "里工作,而他們的預算只有西方 IT 公司的一小部分。人工智能還被用于分析俄羅斯的無線電通信和清除地雷。與此同時,俄羅斯在軍事領域的人工智能應用似乎陷入了雄心壯志與實際用途之間的脫節,尤其是自主無人機,據說供不應求。
一些通訊社報道稱,無人化嚴重的烏克蘭已經更進一步,允許配備人工智能的無人機在某些情況下不受人類控制地識別和攻擊目標,從而引發了戰場上 "機器人殺手 "的幽靈。美國軍方已經啟動了一項為期兩年的 "復制者 "計劃,準備投入數千套價格相對低廉的自主系統,主要是為了應對大國在海軍艦艇等領域的數量優勢。澳大利亞一家名為 "Anduril "的公司(以《指環王》傳奇中的一把劍命名)正在向烏克蘭提供可發射彈藥、由人工智能驅動的 "幽靈鯊 "海上無人機。
雖然烏克蘭似乎正在使用自主人工智能來攻擊坦克等大型物體,但它幾乎可以指名道姓地攻擊單個士兵。據《時代》雜志報道,備受爭議的 Clearview 公司免費提供的面部識別系統已經識別出 23 萬多名參與烏克蘭戰爭的俄羅斯士兵和官員。Clearview 系統被用于偵測滲透者、識別親俄民兵和合作者,甚至烏克蘭稱被越過俄羅斯邊境綁架的兒童。Clearview 技術標志著 "戰斗識別系統 "的首次使用,該系統有可能被用于鎖定敵方關鍵人員。例如,一架攜帶彈藥的人工智能無人機可以在原地徘徊,直到發現一名反對派將軍。
與此同時,在立志成為 "人工智能超級大國 "的以色列,人工智能技術正在協助對加沙的哈馬斯目標進行快速定位空襲--該系統被稱為 "火力工廠",但其針對軍事目標的準確性目前尚不得而知。人工智能還幫助抵御來襲的導彈襲擊,這些導彈試圖以數量優勢壓倒以色列引以為傲的 "鐵穹 "導彈防御系統。以色列國防軍(IDF)越來越多地使用人工智能,并將其應用于移動平臺,如新型 "巴拉克 "超級坦克。巴拉克 "坦克的一個主要特點是配備了 "鐵視角 "頭盔,通過一系列外部傳感器和攝像頭,坦克乘員只需按下按鈕,就能 "看穿車輛的裝甲"。
主要得益于人工智能,坦克能夠在戰場上獨立學習、適應、導航和瞄準。以色列國防軍表示,一對 "巴拉克 "坦克將能夠執行以前需要一個坦克排才能完成的任務。
大多數分析家都認為,烏克蘭和以色列正被證明是在戰斗中加速使用人工智能的前所未有的試驗基地,而這一發展在和平時期通常需要更長的時間。現在,人工智能系統正在接受來自真實戰爭的真實數據的訓練,這意味著人工智能將在下一場武裝沖突中發揮更大的作用和效力,而下一場武裝沖突很可能包括人工智能自主作戰。
參考來源:techstrong.ai
自主性和人工智能將通過有限的應用逐步改變戰爭,因為完全自主瞄準面臨障礙,因此有必要就自主系統的規則進行細致的國際談判,而不是拒絕該技術。
自主(autonomy)和自治(autonomous)如今已成為熱門詞匯,被用來描述軍事(以及民用)領域對人工智能(AI)功能、流程和系統日益增長的利用。俄羅斯入侵烏克蘭以及隨之而來的高強度沖突為大量新技術和舊技術的創新使用提供了試驗平臺,從人工智能驅動的語音識別和態勢感知軟件到無處不在的商用無人機,再到商用衛星通信和圖像以及 3D 打印組件的大規模使用,不一而足。
高機動性、可攜帶爆炸物的第一人稱視角(FPV)無人機或利用計算機視覺鎖定目標并將其摧毀的徘徊彈藥的圖像已成為頭條新聞,并引發了對戰爭中自主革命黎明到來的焦慮,即殺手機器人將主宰戰場并顛覆國際秩序。
雖然沒有人能真正否認人工智能對戰爭及其未來演變的結構性影響,但當前關于自主性的辯論卻往往使人們對其實際軍事影響產生了扭曲和不準確的認識,這反過來又產生了一種不可調和的二元方法,其典型特征是要么完全拒絕、要么崇拜自主武器系統(AWS)。因此,任何有關為軍事目的使用和管理自主性的政策決定和機制都有可能對利用該技術和防止其濫用無效,甚至有害。
這種不一致做法背后的一個關鍵原因是缺乏對自主真正含義的理解,例如經常混淆自主武器系統和自動武器系統。自動武器系統具有不同程度的自動化,可對選定類別的目標執行特定和有序的功能,而且無論如何都不能偏離其預定目的。因此,它們的行為是確定的,或者簡單地說,是可預測的。例如,不同類型的地雷和裝有空爆近炸引信的炮彈一旦被激活,就會在沒有人為控制的情況下工作。
更廣泛地說,傳統的尋的彈藥就屬于這一類,并且已經服役多年。例如,烏克蘭使用的 AGM-88 型反輻射導彈就是通過被動雷達尋的器自動探測敵方無線電發射源(通常是雷達站或防空系統)并將其鎖定。重要的是,這些武器的設計目的是打擊非常具體和預先確定的目標,不能偏離其最初的指令序列。
相反,預警機的特點是能夠感知和適應作戰環境。這意味著它們可以根據計算機程序與外部環境交互產生的行為自主調整行動路線,為給定的輸入產生一系列不同的輸出。這種能力來源于車載人工智能計算和傳感器,可以達到不同的熟練程度,取決于算法的復雜程度、系統設計的權衡、任務的復雜程度和環境。
一般來說,有一些系統具有有限的自主能力,無需人工干預就能探測、跟蹤、提示和攻擊目標,不過它們的使用對象是特定的目標集,而且通常僅限于雜亂無章的環境,因此產生的行為在很大程度上是可預測的。此外,人類操作員可以修改武器的管理規則,或在出現潛在風險時激活/編碼任務中止選項。因此,在瞄準過程中,人類仍處于決策循環之中。防空系統、巡航導彈、閑逛彈藥或其他配備各種傳感器和機載數據處理能力的平臺就是最常見的例子。
然而,集成了更先進的機器學習功能后,自主系統可以自主學習和決策,包括選擇目標,并根據從環境中接收到的輸入不斷更新可用的輸出范圍。因此,它們的行為是非確定性的,可能無法預測。不過,目前還沒有證據表明戰場上使用了 "自我學習 "的完全自主武器系統。
以色列制造的 "哈比 "反輻射閑逛彈藥可在特定區域上空盤旋長達 9 個小時,以尋找雷達發射目標,并在無人監督的情況下自主攻擊這些目標。然而,雖然 "哈比 "的所有運作階段確實都是自動化的,但該系統無法學習和改變其任務規則和輸出,因為它只能選擇和攻擊由人類操作員預先選定的特定保持區域和無線電頻率范圍內的目標。因此,"哈比 "的行為在本質上仍然是可預測的,因為其任務參數和管理規則是由人類定義的,盡管仍然可能存在附帶損害的風險。
在最近關于致命預警系統的辯論中經常提到的另一個例子是土耳其的 "卡古-2 "戰術旋轉翼閑逛彈藥,根據聯合國的一份報告,在利比亞軍閥哈利法-哈夫塔爾于 2020 年圍攻的黎波里失敗期間,該彈藥可能被用于自主瞄準隸屬于他的部隊。然而,聯合國專家小組無法提供任何證據來證實自主模式的說法,而 "卡古 "的制造商土耳其 STM 公司后來明確指出,該系統使用人工智能計算機視覺來識別和跟蹤目標,但需要人類操作員與目標交戰。在最近的一次私下討論中,一位直接參與 "卡古 "研發的工程師向本文作者證實,該系統的程序設計并不能在沒有人類監督的情況下攻擊目標。
越來越多的武器系統--從無人機系統到巡航彈藥、防空系統到無人地面車輛和其他系統--使用機載計算機視覺和其他人工智能功能來自動化和加速流程,而人類的自然能力對于當前(和未來)軍事行動中不斷加快的決策節奏和激增的數據量來說,顯得過于緩慢或有限。然而,這些能力并不會使武器系統默認為完全自主。相反,它們優化了特定的子過程和任務(如導航、目標識別、態勢感知等),以解決人類疲勞問題,減輕人類操作員的認知負擔。除此以外,自主化通常還旨在通過限制參與行動的士兵和機組人員數量來降低人員風險。
瞄準和交戰循環是其中的一項任務,但它很可能仍將局限于為特定目標集或任務而設計的平臺,因為在這些平臺上有大量可靠的訓練數據,軍事目標和民用目標之間的區別比較簡單,附帶損害的風險有限。這些任務包括壓制敵方防空系統(SEAD)、空對空交戰、戰術射程內分層精確射擊或打擊敵方第二梯隊等。飛機系統(如無人機系統、閑散彈藥)是主要的自然候選者,但我們很可能會看到自主地面系統的瞄準任務,作為其在某些戰術交戰中火力支援作用的一部分。
與此同時,有些任務將發生重大的、結構性的自主化轉變。例如,通過高保真傳感器進行情報收集、監視和偵察、替身電子戰、誘餌、通信節點和補給。在這些領域,最有希望取得成果的還是使用具有蜂群能力的網絡化和多樣化的自主飛機,不過預計在海上和陸地領域也會取得進展。
因此,AWS 對戰爭的預期變革影響將比通常設想的要緩慢和零散,因為自主性主要是作為一種促進因素,其集成通常僅限于子系統或特定功能,而不是整個軍事企業。有幾個原因需要考慮。
首先,物理學仍然重要。AWS 依靠邊緣的大量計算能力和工作存儲器,通常需要更高的電池容量,特別是在長距離應用中。這就意味著要在尺寸、航程、速度、續航時間、有效載荷以及最終的成本之間進行明顯的權衡,在可預見的未來不可避免地會對作戰產生影響。例如,抗干擾超寬帶連接技術的使用可以降低能耗,但卻有固有的范圍限制。就機載系統而言,使用自主 "母艦 "從中間集結區釋放托盤化的彈群和空射效應,有助于擴大彈群和空射效應的作戰范圍,但這些大型母艦雖然前景廣闊,但仍容易遭到敵方攔截和反制,很難成為唯一的解決方案。
其次,即使技術已經成熟,但如果不將其適當融入強大的作戰概念(CONEMPs)和行動概念(CONOPs),AWS 也只能為作戰人員提供微不足道的優勢。然而,CONEMPs 和 CONOPs 的建立并非一朝一夕之事,在北約等多國環境中,由于互操作性問題、異質能力和培訓、人機界面挑戰以及國家層面對 AWS 的不同處理方法,CONEMPs 和 CONOPs 的建立變得更具挑戰性。此外,每個軍事部門都可能以自己的方式看待自主性,這就進一步增加了復雜性。
正如烏克蘭戰爭所表明的,新技術的有效整合與技術本身同樣重要。
第三,如果不仔細權衡意外升級的風險和可能帶來的災難性代價,就認為各國有意愿(和興趣)部署完全自主的武器系統(即自學平臺),至少可以說是草率的。
在此背景下,有必要提出一些警告。
顯然,上述對 AWS 的漸進和不定期采用并不能排除與這些平臺相關的危險,從道德和法律考慮到附帶損害問題。然而,似乎可以公平地說,它們可能被限制用于直接與目標交戰的目的,這在一定程度上減輕了這些風險,削弱了支持徹底禁止預警系統的一些論點。
遺憾的是,缺乏國際公認的自主定義是準確評估預警系統影響和規范其使用的一大障礙。人工智能發展的不穩定性,以及它對 "有意義的人類控制 "的概念和實用性的影響,進一步加劇了這一問題。如果 AWS 依賴于操作員可以獲得的相同信息、參數和嚴格的交戰規則,那么 "人類脫離環路 "本身并不一定是個問題,前提是它不能推翻這些信息、參數和規則。正如專家 Jovana Davidovic 所說,"任何道德上的差異都源于經驗事實,即什么方法(在安全和避免附帶損害方面)更有效,而不是操作員與最終決定的距離有多遠"。
在另一篇發人深省的文章中,學者 Andree-Anne Melancon 認為,"發展自動化武器的更根本問題不在于技術或人工智能。相反,問題源于選擇目標的方式"。或許,這場辯論首先應該討論的是自主系統編程的基本流程和規則(如目標識別等),而不是技術本身。
與此同時,關于在完美計劃和實施的行動中無縫使用和利用自主系統和人工智能的描述將被現實證明是錯誤的。人工智能可以幫助人們看穿戰爭迷霧,但不會徹底消除迷霧。例如,目前最好的物體檢測模型在最流行的基準測試中平均精度僅為 65%。雖然這些表述的首要目標是營銷,但由此產生的對人工智能優點的偏愛和對其局限性的忽視,都可能不利于就 AWS 問題展開建設性的、平衡的辯論。但是,基于可怕或不準確的觀點而對 AWS(或其他人工智能軍事應用)嗤之以鼻的評估也于事無補。
聯合國大會最近通過了有史以來第一份關于 AWS 的決議,這表明各國確實認為有必要采取行動規范 AWS,并應鼓勵人們對這項技術采取不那么軍國主義、但也更加清醒的態度。
作者:
費德里科-博薩里是歐洲政策分析中心(CEPA)跨大西洋防務與安全項目的萊昂納多研究員。他還是北約 2030全球研究員和歐洲對外關系委員會 (ECFR) 的訪問學者。他的主要研究興趣包括安全與國防動態、跨大西洋安全關系以及新技術對戰爭的影響。
大數據與人工智能(AI)的結合實現了準確預測和明智決策,為工業和研究帶來了革命性的變化。這些進步也在軍事領域找到了自己的應用位置,一些舉措整合來自不同領域的數據源和傳感器,提供共享的態勢感知。在城市軍事行動中,及時了解具體情況的信息對于實現精確和成功至關重要。數據融合將來自不同來源的信息結合在一起,對實現這一目標至關重要。此外,民用數據可提供關鍵的背景信息,并對任務規劃產生重大影響。本文提出了軍事數據空間(MDS)概念,探討大數據如何通過結合民用和軍用數據來支持軍事決策。文章介紹了使用案例,強調了數據融合和圖像認證在提高數據質量和可信度方面的優勢。此外,還討論了數據安全、隱私、完整性、獲取、融合、聯網和利用人工智能方法等方面的挑戰,同時強調了構建下一代軍事應用的機遇。
大數據的興起改變了企業存儲、管理和分析海量數據的方式。此外,大型數據集的可用性和更強大硬件的發展也為人工智能(AI)時代的到來鋪平了道路。盡管存在局限性,但這些課題在軍事領域也找到了適用性。其中一個例子是美軍使用的多域作戰(MDO),后來擴展為聯合全域指揮與控制(JADC2),以及 "共同作戰圖景"(COP)概念,這些概念整合了多個領域(陸地、海洋、空中、太空和網絡空間)的各種數據源和傳感器,使決策變得更快、更明智,提供了從戰術到戰略的各級組織的共享態勢感知。此外,北約社區已通過北約核心數據框架(NCDF)討論并測試了數據湖概念,以便在適當的時間/形式與聯盟伙伴共享可靠的跨域信息。
利用先進的算法和計算能力,人工智能可以處理龐大的數據集,揭示人類通常無法察覺的復雜模式。這使國防行動能夠增強實戰經驗、促進任務執行、做出數據驅動的決策、協調來自不同來源的數據,并加強應對威脅和災難的準備。通過整理來自不同來源的數據,指揮與控制(C2)部門可以深入了解城市景觀,并通過數據融合技術[3]、[4]促進態勢感知決策[1]、[2]。現代城市部署了傳感器網絡,利用大數據支持城市軍事戰略。此外,社交媒體平臺是寶貴的文本、圖像和視頻來源,豐富了態勢感知,但也帶來了數據完整性等挑戰。在 "非戰爭 "行動中,包括打擊腐敗政府、毒品販運和人道主義任務,大數據、數據融合、數據完整性和人工智能在任務成功中的重要作用在當代全球格局中變得顯而易見。
本文深入探討了利用大數據促進軍事決策以及相關挑戰。文章以簡明易讀的方式涵蓋了該領域相對欠缺探索的各個方面。在此背景下,研究介紹了軍事數據空間(MDS)的概念,這是一種將軍內數據(IMD)和軍外數據(EMD)結合在一起的新方法,旨在引發討論并開發軍事解決方案。然后,它通過以數據融合和圖像完整性機制為重點的使用案例來說明大數據的好處。最后,它討論了使用大數據的挑戰和機遇,集中在支持戰略性軍事決策必須考慮的四個主要方面:i) 數據融合;ii) 安全/隱私和完整性;iii) 人工智能;以及 iv) 網絡作為訪問大數據的手段。
從網絡視角討論數據傳播問題具有現實意義,文獻中也有廣泛論述。因此,本研究旨在引發對大數據觀點的討論,以及利用大數據造福軍事系統的可能性。此外,我們還強調了應對整合 IMD 和 EMD 相關挑戰的重要性。這種整合對于建立有凝聚力的大數據,最終提高軍事決策能力至關重要。總之,本文的貢獻如下:
文章結構如下。第二節介紹了 MDS 的概念。第三節回顧了有關軍事和民用場景中大數據的最新文獻。第四節介紹兩個使用案例,說明大數據如何支持軍事決策。第五節討論了軍事數據領域的挑戰和機遇。最后,第六節總結了本研究討論的主要方面,為文章畫上了句號。
軍事數據空間(MDS)的概念是根據 [5] 中討論的觀點提出的。它提供了一個以數據為驅動的軍事場景視角,有助于根據不同的數據源做出決策。MDS 包括兩個主要類別: 軍內數據(IMD)和軍外數據(EMD),如圖 1 所示。目前大多數軍事文獻都只針對 IMD 提出和評估系統(如中間件、協議)。然而,隨著信息和通信技術(ICT)的迅猛發展,民用系統已成為不可忽視的數據和基礎設施(網絡)的重要來源。因此,考慮到數據隱私/安全、完整性、獲取、融合、聯網和利用人工智能等挑戰,MDS 旨在支持關于 EMD 如何幫助軍事決策的討論。
圖1 軍事數據空間。
IMD 與軍方提供和消費的數據相對應,主要分為兩層:帶有真實/虛擬傳感器(來自空間/航空/地面/航海單元)的基礎設施和信息層,包括作戰、情報和后勤數據。
基礎設施包括傳感器(如雷達、聲納、照相機)和其他電子系統收集的數據,可探測和跟蹤空中、陸地或水中的物體;車輛傳感器可提供軍事單元和周圍的狀態;可穿戴/智能和物聯網(IoT)設備可通過 GPS 定位、地圖、健康測量、實時照相機(高分辨率、紅外線)等為戰場上的步兵提供支持。這些數據可用于監測和識別潛在威脅、協助鎖定敵軍目標以及監測步兵狀況。
除了來自真實/虛擬傳感器的原始數據外,IMD 還包括信息層,該層融合了從作戰到情報等各種來源收集的數據,以創建一個更可靠、更廣闊的作戰視圖,這也是 JADC2 和 COP 系統的目標。情報信息可幫助軍隊了解敵軍的能力和意圖,識別潛在威脅并制定作戰計劃。后勤數據提供有關物資、裝備和人員的信息,如運輸時間表、庫存水平和維護記錄。這些數據對于確保軍隊擁有有效執行任務的資源至關重要。
軍外數據是由真實/虛擬傳感器單獨或融合提供的數據子集,可描述軍事行動周圍的環境。因此,可定義用于支持軍事行動的兩個主要數據層:基礎設施(如交通系統、天氣、當局)和信息(如社交媒體、新聞、政府報告)。這些層產生了大量高度可變的信息,從用戶對實時事件(如事故、腐敗和恐怖主義)的感受和照片,到城市環境中的交通/天氣狀況和人們/駕駛員的行為。
信息和通信技術在城市地區的發展催生了智能城市的出現,智能城市通過增強流動性、安全性和健康解決方案來應對城市化帶來的挑戰。智能城市基礎設施包含傳感器,可捕捉有關車輛、交通、天氣和駕駛員行為的寶貴數據。傳感器和物聯網設備的激增也產生了大量數據,這使得利用云通信技術和人工智能應用開發智能系統成為可能。在大數據的推動下,數據融合應運而生,它整合了來自多個提供商的數據,以提高質量和覆蓋范圍,并減少海量數據流量。融合來自交通、天氣、攝像頭、醫療系統等的數據,不僅有可能支持民用應用,還能通過提供上下文數據支持戰略性軍事行動。在傳感器基礎設施有限的情況下,來自社交媒體和政府報告等媒體來源的數據可幫助了解當地行為,并識別影響犯罪、腐敗和毒品販運的因素。
社交媒體數據對于支持與緊急事件和災難相關的信息非常有價值,可通過捕捉獨特信息(如需要救援的群體的位置或隱藏人員的存在)來補充其他傳感器數據。建筑物上的固定傳感器和監控攝像頭可幫助進行人員跟蹤,以準確識別位置。社交媒體數據與其他數據源相結合,有助于敵情偵查和戰術規劃。與交通相關的傳感器數據,特別是交通監控攝像頭,在應急響應和軍事后勤方面發揮著重要作用。它可以檢測事故造成的擁堵和堵塞,從而改進軍事行動期間的路線規劃和交通管理。整合所有收集到的信息可增強態勢感知,促進城市環境中行動的有效規劃和管理。
針對近期發生的事件,如俄羅斯戰爭以及美國和巴西等國的反民主極端分子所帶來的挑戰,已經出現了多項舉措。其中一個例子是 ACLED(武裝沖突地點和事件數據)項目,該項目提供有關政治暴力和抗議事件的實時全球數據。另一個值得一提的項目是 DATTALION,這是一個廣泛的開源照片和視頻片段數據庫,記錄了俄羅斯對烏克蘭的戰爭。該數據庫的主要目的是反擊俄羅斯政府散布的錯誤信息。聯合國開發計劃署(UNDP)利用機器學習(ML)算法和大數據來檢測烏克蘭東部受損的基礎設施。語義損壞檢測器 (//tinyurl.com/semdam) 利用衛星圖像和地面照片對算法進行訓練,以識別建筑物、道路和橋梁的潛在損壞,協助地方當局和人道主義組織確定行動的優先次序。這些舉措極大地促進了 MDS,特別是 EMD,為分析和研究提供了寶貴的資源。
本節探討大數據在軍事領域的應用,重點從數據內(IMD)和數據外(EMD)兩個角度概述大數據在軍事行動中的重要意義,并探索利用其潛力的最新解決方案。
大數據在軍事領域的一些挑戰已在文獻中提出,并成為北約社區討論的主題,如作戰安全性、漏洞加固和數據可靠性[1]、[2]、[6],以及北約 IST160 和 IST-173。納入與外界幾乎沒有聯系的自主隔離(如 EMD)可能會限制大數據的自由流動,這就要求在保持系統自主性和保護性的同時,以創造性的方式利用大數據。在這一方向上,COP 和 JADC2 引導研究人員和行業使用和融合來自不同軍事實體的數據,以支持戰略決策。
Kun 等人[1]提出了在軍工企業構建大數據平臺、建立多級數據通道、實現全面數據管理和控制的詳細技術方案。該平臺有利于數據的收集、組織、處理和分析,將數據轉化為知識,以加強決策/服務支持、創新、質量控制和風險管理。Xu 等人[6]強調了數據科學在當代戰爭中實現信息優勢的重要性。他們的系統性綜述顯示,社會科學文獻對數據科學風險給予了極大關注,這可能會影響政治和軍事決策者。然而,與戰術層面相比,科學文獻缺乏對作戰和戰略層面風險的關注,這表明存在研究空白。這一差距可能是由于 IMD 與 EMD 之間缺乏聯系造成的,而 EMD 可以支持行動和戰略決策。
多傳感器數據融合(MSDF)方法是在戰術場景中提供快速高效的目標探測、跟蹤和威脅評估的一個實例,如文獻[4]所示。數據融合的另一個應用領域是基于位置的社交媒體(LBSM),它可以增強各個領域的知識,包括交通特征描述和事故檢測[7]。利用 LBSM 系統可以獲得更詳細的交通數據,有利于軍事后勤工作。在特定的軍事環境中,可以利用 LBSM 系統的潛力來提高數據可用性,并實現情境感知操作。
數據完整性對于維護對 MDS 的信任至關重要[9]。被篡改的數據會產生嚴重后果,影響民事和軍事決策過程,破壞對數據源的信心。社交媒體平臺上錯誤信息的泛濫就是這一挑戰的例證,這些錯誤信息往往被利用來施加政治影響,烏克蘭正在發生的沖突就是一例。為應對此類問題,Twitter 等平臺修訂了其政策,標記了許多與俄羅斯國家附屬媒體相關的推文,并檢測了數十億條與沖突相關的實時推文印象[10]。
與此同時,圖像認證的出現解決了人們對圖像完整性和來源驗證的擔憂。然而,包括人工智能軟件在內的先進圖像處理工具的興起使圖像驗證變得越來越棘手。雖然圖像驗證引入了水印、數字簽名和感知散列(pHash)等多種技術[11],但每種技術都有其優勢和局限性。例如,水印可提供真實性和所有權保護,但可能會影響圖像質量,而且容易受到高級處理技術的影響。相比之下,pHash 可以靈活地進行圖像操作,并對內容變化敏感,因此特別適合在社交媒體平臺上使用。在數據完整性和圖像認證的背景下考慮這些挑戰和解決方案至關重要。
首先,大數據的時空融合是為了支持軍事決策。由于缺乏所討論的可用 IMD,多數據融合(MDF)框架[12]被實例化,用于收集、準備和處理 EMD,并將其融合以提供豐富的信息。為了證明時空數據的豐富性,MDF 利用基于云的系統共享數據的公共可用性獲取了交通系統數據。不過,該框架可擴展到其他各種數據類型。其目標是提高數據質量、改進 C2 系統和軍事后勤,并支持城市地區的 COP/JADC2,從而創造出將融合 EMD 與來自不同領域的可用 IMD 結合使用的新方法。下文圖 2 介紹了 MDF 的主要功能。此外,還通過分析數值結果討論了融合大數據的好處。
對于數據采集,圖 2 (1)配置了一組參數(如區域、請求頻率)和數據源,MDF 為此收集各種格式的數據,并將其存儲在文件中。在準備階段(2),通過將不同的地物名稱和類型轉換為統一的表示方法,對輸入數據集進行標準化。這包括各種數據映射,以生成統一的數據類型,例如將描述性映射為數值或降低數據粒度。此外,還啟動地圖匹配,將所有地理定位數據(可能具有不同的精確度)融合到同一個路網中。MDF 對所有收集到的數據進行預處理,并從收集到的區域獲取 Shapefile (SHP)。請注意,根據應用目標和可用數據類型,框架可能會應用不同的特征提取方法,如自然語言處理(NLP)(情感分析、關鍵詞提取、詞法化、詞干化和自動摘要)或圖像處理(圖像分割、邊緣檢測和對象檢測),以從非結構化數據類型中提取信息。在使用案例中,我們沒有使用 NLP 算法,因為數據是無文本圖像和基于交通的數據。不過,建議的數據融合框架具有多功能性,可以處理各種數據類型,包括可以應用 NLP 技術的文本數據。
圖2 數據融合框架工作流程。
第三階段實現時間/空間數據融合和數據導出。為確保數據完整性,需要事先過濾非信任信息或有偏見的信息,例如,根據信息在不同數據源或圖像認證機制中的出現情況,使用驗證信息的方法,如第四節B部分所述。時間數據融合是通過對任意時間窗口(如每分鐘、每小時、每天)內的數據進行分組來實現的。為了進行空間融合,MDF 利用地圖匹配,根據底層道路網絡在規定的精確度下對 GPS 點進行對齊。由于不同數據源的 GPS 報告精度各不相同,因此必須這樣做,才能將所有地理定位數據映射到相同的道路網絡中。
最后,在圖 2 (4)中,豐富的數據以不同的格式輸出,為軍事和民用領域提供了多種可能性。MDF 的輸出通過創建不同類型的統計數據和可視化效果來支持時空分析,從不同的空間和時間方面描述可用信息的特征。
表I 按數據來源分列的道路覆蓋情況。
之前的工作[11]介紹了一種利用 Twitter 和 Facebook 來確保圖像完整性的圖像認證系統。該系統采用卷積神經網絡(CNN)和全連接層(FCC)進行特征提取,采用位置敏感散列(LSH)進行散列構建,并采用對比度損失最大化原始圖像和篡改圖像之間的差異。該模型的輸出是每個圖像 1024 位的固定長度向量表示。
為解決在城市軍事行動和民用系統中保持圖像完整性的重要性,提出了圖像事實檢查器(IFC),如圖 3 所示。它能檢測虛假圖像,確保數據的可信度,并作為當局主導的認證系統,打擊錯誤信息。系統會生成帶有徽標或圖標的驗證版照片,表明其已通過 IFC 系統驗證。此外,IFC 還提供了圖像的感知散列(pHash)字符串表示,可將其納入描述或在其他網站上共享。數據融合系統是 IFC 的一個可能的終端用戶,它可以在應用時空融合和生成豐富數據之前對抓取的圖片進行驗證。
圖3 Image-Fact-Checker (IFC)。
建立一個能提供即時真實信息的自動化系統是一個相對較新的概念,因此通過比較來評估其有效性具有挑戰性。然而,由于創建令人信服的偽造圖像的人工智能生成模型的興起,實施圖像認證系統現在變得至關重要。添加這一系統作為驗證層有助于防止或減少虛假信息的傳播,尤其是考慮到不斷發展的互聯網法規會對缺乏反虛假信息措施的平臺進行處罰。一種有效的方法是將 IFC 系統與政府機構連接起來。IFC 方法具有通用性和可擴展性,可提高個人的意識和信任度。
圖 4(左)是通過 DATTALION 從普通社交媒體用戶那里收集到的兩張未經驗證的圖片。這些圖片只是更大數據集中的一小部分。用戶通常不愿意相信這些來源,因此有效利用這些來源具有挑戰性。然而,當這些圖像經過 IFC 機制處理后,其可靠性就會提高,因為任何進一步的篡改都很容易被檢測出來。如圖 4(右圖)所示,應用 IFC 后,每張圖片都會收到 pHash 和相關信息,如圖片描述、提取的特征、位置、事件日期、抓取日期、發布者 ID。這些經過處理的圖像將存儲在 IFC 數據庫中,供今后查詢。該數據庫有多種用途:重復檢測、完整性驗證以及滿足特定最終用戶的要求。
圖4 使用IFC提取圖像細節。
數據融合的第一個挑戰是尋找和獲取軍事和民用領域的可用數據。出于隱私/安全考慮,信息可能無法廣泛獲取或獲取途徑有限。在軍事領域(IMD),數據受到更多限制,這為探索可用的民用數據(EMD)以支持戰略性信息決策提供了機會。第二個值得注意的挑戰是融合多種數據源,這些數據源可能具有不同的結構(結構化、半結構化和非結構化數據)、標準、數據類型(如文本、圖像、視頻)、測量單元、粒度和時空覆蓋范圍。因此,需要深入了解如何準備和處理不同的數據集,并將其融合為一個數據集。
處理社交媒體中的圖像和文本需要進一步的程序,如特征提取方法(如 NLP 和圖像處理),以提取可用信息。盡管數據融合面臨諸多挑戰,但將從不同角度(如指揮部、用戶、記者、政府、傳感器)描述同一空間和時間的不同數據源結合起來的好處,可以加強軍事行動的規劃和戰略階段,為 COP 和 JADC2 系統提供支持。
數據安全與隱私: 保護敏感的軍事信息對國家安全至關重要。需要強大的加密、安全的數據存儲和訪問控制來降低風險。建議采用的技術包括公鑰基礎設施(PKI)安全、受保護內核、數據加密、防火墻和入侵檢測。然而,如何在數據共享、有利于信息融合和安全/隱私措施之間取得平衡,對軍方來說仍是一項具有挑戰性的任務。
數據完整性: 被操縱的數據會給民用和軍用決策帶來風險,并降低對數據提供者的信任度。在生成內容的人工智能模型不斷進步的幫助下,篡改圖像迅速傳播,參與度不斷提高,這凸顯了對智能綜合解決方案的需求。通過社交媒體分享的圖片能夠快速傳達復雜的想法,從而為救援行動提供支持,使人們能夠立即采取行動,如在城市發生事故/災難時改變交通路線。圖片還能喚起情感聯系,增強讀者對新聞事件的理解。然而,烏克蘭戰爭等危機擴大了錯誤信息的傳播,這就需要 snopes.com 和 norc.org 等人工事實核查機構的參與,以打擊錯誤信息。然而,在戰爭期間或為打擊腐敗政府而進行基于人工的實時核查可能會耗費大量時間,這就為設計自動系統來驗證圖像和處理虛假信息創造了機會。
雖然這項工作的主要重點在于數據視角,以及確保使用來自不同來源的可信數據來支持軍事行動的相關性,但同樣重要的是要認識到網絡在有效提供數據和服務方面的重要性。在以網絡為中心的軍事行動中,利用高頻、甚高頻、超高頻、衛星通信、Wi-Fi 和 LTE 4-5G 等各種技術進行無線通信至關重要。有些技術擅長長距離覆蓋,但帶寬有限、延遲高,而且容易受到干擾。另一些則以可靠性為先,覆蓋范圍較短,帶寬較大,延遲較低。
以信息為中心的網絡(ICN)和軟件定義網絡(SDN)等網絡范例對于優化數據傳播和網絡協調至關重要[13],尤其是在網絡資源有限的情況下。在軍事網絡中,尤其是在戰術邊緣,數據傳播過程中會出現資源有限和安全問題等挑戰。為解決這些問題,軍方可能會探索包括民用網絡在內的各種基礎設施,以獲取和融合非軍事數據。以歐洲 5G COMPAD 聯盟為例,目前正在考慮采用 5G 技術。然而,由于硬件通信系統成本高昂、帶寬和互操作性有限,因此具有挑戰性。這就需要定制參考架構來滿足軍事通信需求。
在最近的烏克蘭-俄羅斯沖突中,俄羅斯對烏克蘭基礎設施的攻擊導致互聯網中斷,暴露了通信網絡的脆弱性。SpaceX 的 Starlink 衛星互聯網星座提供了一種解決方案,證明了在戰時利用民用網絡基礎設施的價值。盡管該技術有望提高互聯網在數據和緊急通信方面的可靠性,但它在網絡安全、覆蓋范圍、可靠性和成本效益方面仍面臨挑戰。
由于隱私、安全以及軍事機構為防止濫用和限制 IMD 的可用性而施加的限制,為人工智能研究訪問軍方擁有的大數據帶來了挑戰。此外,人工智能功能可能會受到對抗性攻擊的影響,對抗性攻擊會通過改變造成錯誤分類來欺騙人工智能模型。快速梯度符號法(FGSM)和語義攻擊等技術分別有助于識別和減輕計算機視覺和 NLP 中的此類攻擊。Yuan等人[14]對攻擊、對策和基于應用的分類標準進行了全面評述。
要檢測對抗性攻擊,一種有效的方法是使用具有與主人工智能模型不同特征的輔助人工智能模型。這一想法源于早期的衛星通信。當時,人們使用電報等輔助系統來防止對衛星通信的中間人攻擊或干擾攻擊。由于帶寬有限,輔助系統只能傳輸與完整衛星數據相對應的摘要數據,用于偵測攻擊和應急通信。同樣,在人工智能中防范對抗性攻擊時,傳統的 ML 可以作為輔助系統,產生與主要 CNN 方法一致的結果。對抗性攻擊依賴于計算機視覺深度學習模型中的梯度技術,而傳統的 ML 方法則使用不同的方法,這些方法對這些攻擊操作大多具有免疫力。
在軍事領域使用人工智能的另一個問題是需要共享敏感數據來訓練模型。在這方面,聯邦學習(FL)作為一種訓練 ML 模型的技術已經出現,在這種技術中,數據不會暴露,從而確保了數據的安全性和隱私性[15]。雖然它不能被視為對抗惡意攻擊的防御技術,但這種方法隱藏了敏感數據和模型或參數的一部分。這種技術對于建立在人工智能基礎上的新興軍事應用非常有價值。
本文探討了大數據在軍事領域的應用。研究了與整合不同數據源、確保數據安全、隱私和完整性以及聯網和利用人工智能相關的機遇和挑戰。文章引入了 MDS 概念,以豐富和引導討論,強調納入民用數據的潛力,以提高軍事行動戰略決策所需的信息質量和數量。此外,文章還包括兩個實際使用案例,說明了數據融合的好處以及實施圖像認證機制以保持數據完整性的重要性。這些發現凸顯了大數據在軍事領域的重要意義,并強調了在該領域開展進一步研究和探索的必要性。
無人機戰爭的下一階段已經到來。2023年9月6日,美國國防部副部長凱瑟琳-希克斯(Kathleen Hicks)吹噓五角大樓的 "復制者"(Replicator)計劃正在加速推進--該計劃旨在大幅擴大美國在戰場上使用人工智能的規模。她理所當然地稱這是國家安全領域 "改變游戲規則的轉變"。根據 "復制者 "計劃,美國軍方的目標是在未來18到24個月內在多個領域部署數千套自主武器系統。
然而,"復制者 "只是冰山一角。人工智能的飛速發展正在催生新一代致命自主武器系統(LAWS),它們可以在沒有人類干預的情況下識別、跟蹤和攻擊目標。具有自主能力的無人機和人工智能賦能的彈藥已經在戰場上使用,尤其是在俄烏戰爭中。從根據特定特征選擇目標的 "殺手算法 "到自主無人機群,戰爭的未來看起來越來越具有啟示性。
在 "戰爭機器人 "陸軍的陰影中,人們很容易忽略正在進行的人工智能革命。五角大樓稱之為 "以人為本 "或 "負責任的人工智能",旨在讓人類 "參與 "決策,以確保人工智能的使用 "合法、合乎道德、負責任和可問責"。但是,即使有人類的監督和對法律的嚴格遵守,人工智能的使用方式從根本上違反國際人道法(IHL)和國際人權法(IHRL)的風險也越來越大。
最直接的威脅不是 "人工智能啟示錄"--機器接管世界--而是人類利用人工智能建立新的暴力和相互支配的模式。
俄烏戰爭被稱為 "第一場全面的無人機戰爭",標志著各國在日益網絡化的戰場上測試和部署致命性自主武器系統的拐點。據報道,自主無人機曾在利比亞和加沙使用過,而烏克蘭戰爭則標志著這種技術加速融入常規軍事行動,并可能帶來不可預測的災難性結果。交戰方由于缺乏技術能力或意愿,可能會在沒有最高級別保障措施的情況下部署無人機,因此這些風險更加明顯。
烏克蘭戰爭的教訓包括,價格相對低廉的無人機可以使對手喪失空中優勢,并在同級和近似同級沖突中以及在對付非國家行為體時提供決定性的軍事優勢。
美國和其他國家正在認真對待這些經驗教訓。規模和速度顯然將主導未來的無人機戰爭,因為美國正通過 "復制者 "計劃和其他舉措,努力發展部署大量廉價、可重復使用無人機的能力,以應對大國等對手的風險。針對非國家行為者的離散無人機打擊將越來越多地被人工智能賦能的無人機群所取代,這些無人機群可以相互通信并協同工作(以及與人類合作)摧毀關鍵基礎設施和其他目標。
與過去的無人機戰爭相比,這種新興技術給平民帶來的風險更大。與由人類操作員審查和控制的傳統無人機戰爭不同,新的無人機戰爭將更加自動化。從目標的選擇和識別到監視和攻擊,人機協作將滲透到目標定位周期的幾乎每一個階段。最大的轉變將是最不顯眼的,因為專有算法將篩選大量情報數據和無人機信息,編制目標清單供人類批準。
雖然人類可能會繼續簽字同意使用致命兵力,但人工智能將在決定誰生誰死、誰存誰亡的基本選擇方面發揮更普遍的作用。
隨著人工智能減少人類對殺戮的參與,無人機戰爭的可解釋性和透明度很可能會比現在更低。這不僅對公眾是如此--他們已經被蒙在鼓里--對負責實施和監督無人機項目的政府官員也是如此。
可解釋性問題,即人類無法完全理解或解釋人工智能產生的結果,是人工智能的一個更廣泛的問題,并不局限于無人機襲擊。依賴于人工智能的計算系統往往是不透明的,因為它們涉及專有信息,在學習新數據的過程中不斷演化,而且過于復雜,任何單一行為者都無法理解。
但在無人機戰爭中,可解釋性問題尤為突出。
在美國龐大的機構間進程中,軍事和情報機構依靠不同的信息流、技術和官僚程序來支持無人機項目。這些機構正在開發自己的人工智能工具,這些工具是高度機密的,并且基于不與關鍵決策者或公眾共享的算法和假設。再加上人工智能系統產生的結果無法被完全理解,政府官員將無法解釋為什么某個人被誤殺。
可解釋性的問題將導致未來的無人機戰爭缺乏責任感--而這種責任感已經非常缺乏了。當平民在人工智能賦能的無人機打擊中被誤殺時,五角大樓官員也將能夠把這些 "悲劇性錯誤 "歸咎于機器。無人機群的情況尤其如此,來自不同制造商的無人機可能無法正常通信,盡管五角大樓在這項技術上花費了數百萬美元。隨著無人機開始相互對話以及與人類對話,人類決定殺人與機器執行致命行動之間的責任和合法性差距可能會越來越大。
這些挑戰是眾所周知的,五角大樓長期以來一直鼓吹 "負責任的人工智能 "政策,旨在通過迷宮般的法律法規來應對這些挑戰。這在紙面上聽起來不錯,但在對平民傷害的嚴重擔憂浮出水面之前,傳統的無人機項目也曾被宣傳為 "合法、合乎道德、明智"。如果過去的無人機戰爭能說明什么,那么真正負責任的人工智能無人機戰爭同樣可能難以實現,尤其是在管理人工智能使用的各種法律、倫理和政策框架出現保護空白的地方。
為此,一些國家和紅十字國際委員會(ICRC)提議禁止那些缺乏有意義的人為控制、過于復雜而難以理解或解釋的武器系統。在今年 7 月舉行的聯合國安理會關于人工智能的首次會議上,聯合國秘書長安東尼奧-古特雷斯建議各國在三年內通過一項 "具有法律約束力的文書,禁止在沒有人類控制或監督的情況下使用致命的自主武器系統,因為這種系統的使用不符合國際人道法"。
但是,即使各國原則上同意這樣的禁令,重大問題依然存在。必須對自主武器系統施加什么樣的法律限制才能確保其符合國際人道法?需要何種類型和程度的人為控制才能確保未來的無人機襲擊符合國際人道法的必要性、相稱性和區別對待以及預防原則?遵守國際人道主義法就足夠了,還是需要一項新條約?雖然許多國家呼吁制定這樣一項條約,但美國、俄羅斯和印度堅持認為,LAWS 應受現有國際人道主義法的管制。
隨著新的無人機戰爭變得越來越普遍,據說適用于戰爭的特殊規則--尤其是國際人道法所提供的較低水平的保護--有可能成為默認制度。從長遠來看,這種情況的實際影響是,禁止使用兵力的規定繼續受到侵蝕,對國際法的解釋越來越放任。這些事態發展的全部代價和后果仍在顯現,但現在開創的先例很可能會以有害且不可逆轉的方式損害個人權利。
為應對這一趨勢,各國至少應重申國際人權法在武裝沖突內外的適用性。戰爭的個人化和自動化促使人們轉向《國際人權法》所載的原則,如在某些條件下對必要性標準進行更嚴格的解釋,以及只有在旁觀者不太可能受到傷害的情況下才使用兵力的類似規定。然而,盡管國際人權法提供了國際人道主義法之外的額外保護,但國際人道主義法與國際人權法之間的確切互動關系卻存在爭議,而且因國家實踐而異。從根本上說,這些法律制度并不是為了規范非傳統沖突和使用致命兵力的非傳統手段而設計的,在即將到來的無人機戰爭中,法律保護方面的差距可能會越來越大。
這些空白促使紅十字國際委員會強調,"有必要根據人道倫理考慮澄清和加強法律保護"。在現有條約未涵蓋的情況下,《日內瓦公約第一附加議定書》第 1(2)條和《日內瓦公約第二附加議定書》序言(通常被稱為 "馬頓斯條款")規定,個人應受到習慣國際人道法以及 "人道原則和公眾良知的要求 "的保護。
但道德方面的考慮可能與法律有很大出入。道德與法律之間的關系是一個長期的學術爭論,不在本文討論范圍之內。簡而言之,法律的目的不同于道德,因為它必須考慮到公約對行為的影響、現實世界中認識論的不確定性程度以及國際體系中的無政府狀態。在這種情況下,用亨利-舒(Henry Shue)的話來說,道德上最優的法律可能只是那些 "能夠讓憤怒而恐懼的凡人在道德判斷上產生相對較少的錯誤--相對較少的錯誤--揮舞著威力巨大的武器 "的法律。
然而,人工智能不可預測和復雜的性質,使得事先辨別正確行動方針的工作變得更加復雜。即使人類遵循了所有的法律和政策準則,人類決策與機器行動之間的差距也意味著結果可能并不道德。遠非如此。
道德的東西未必合法或明智,反之亦然。
與此同時,政策指導并不能取代法律所提供的保護。例如,新制定的《美國總統政策備忘錄》(PPM)本應在戰爭法規定的直接行動(即無人機襲擊和特種作戰突襲)之外提供更多保護。但該政策指南不具有法律約束力,可以隨時秘密中止,包含大量集體和單位自衛的豁免條款,而且僅適用于美國無人機在 "現行敵對行動地區"(尤其是伊拉克和敘利亞)之外的一小部分打擊行動。
此外,該政策指南是針對常規無人機襲擊而制定的。當世界站在人工智能驅動的無人機戰爭新階段的懸崖邊時,是時候重新思考規則了。
關于監管致命的自主武器系統,包括人工智能賦能的無人機,已經有很多建議。但是,如果過去的無人機戰爭能夠說明問題,那么這些法規很可能仍然不夠完善。人的監督以及對現有法律和標準的遵守至關重要,但還不夠。
為了在未來的無人機戰爭中更全面地保護平民,美國決策者應緊急采取以下措施:
1、制定美國政府范圍內關于在無人機戰爭中使用人工智能的政策。雖然國防部已經發布了許多關于人工智能和自主武器系統的指導方針,但這些指令并不一定適用于其他機構,比如美國情報界。鑒于這些其他機構可能在日常識別、審查和攻擊目標方面發揮關鍵作用,這種疏忽令人深感憂慮。
2、遵循 "兩人規則"。冷戰期間,兩人規則要求在維修、移動或使用核武器或核材料時,必須有兩名或兩名以上獲得授權的人員在場。這一規則旨在防止可能對人類生命構成重大危險的核事故或誤用。人工智能賦能的武器也有可能造成類似的災難性結果,因此所有無人機操作都應遵循同樣的規則。
3、縮小責任差距。無人機戰爭中不斷提高的自主性將使打擊更加不可預測,從而導致無法歸咎于任何特定個人的錯誤。為了降低這種風險,從人類批準對目標采取致命行動到無人機采取行動之間的時間間隔應盡量縮短到幾秒或幾分鐘,而不是幾天或幾個月。在任何情況下,都不應允許無人機獨立瞄準預先批準(人類批準)的 "殺戮名單 "上的個人。
4、開展并公布例行的人工智能健康審計。為了減少可解釋性問題,人類必須檢查人工智能,人工智能也必須檢查自己。"檢查人工智能 "可以成為道德審計的有力工具,幫助人類測試人工智能系統,找出算法中的缺陷或潛在偏見。人工智能健康檢查必須定期進行,檢查結果應向國會議員(如八國集團)通報,并向公眾提供經過編輯的版本。
潘多拉的盒子已經打開,但決策者仍可為無人機戰爭中的人工智能革命設置必要的防護欄。用馬丁-路德-金的話說,美國 "面臨著刻不容緩的緊迫性","有一種事情就是為時已晚"。
隨著技術的飛速發展和威脅環境變得更加復雜,今天的海軍行動經常面臨著具有挑戰性的決策空間。人工智能(AI)的進步為解決海軍行動中日益復雜的問題提供了潛在的解決方案。未來的人工智能系統提供了潛在的意義深遠的好處--提高對態勢的認識,增加對威脅和對手能力和意圖的了解,識別和評估可能的戰術行動方案,并提供方法來預測行動方案決定的結果和影響。人工智能系統將在支持未來海軍作戰人員和保持作戰和戰術任務優勢方面發揮關鍵作用。
人工智能系統為海戰提供了優勢,但前提是這些系統的設計和實施方式能夠支持有效的作戰人員-機器團隊,改善作戰情況的不確定性,并提出改善作戰和戰術結果的建議。實施人工智能系統,以滿足海軍應用的這些苛刻需求,給工程設計界帶來了挑戰。本文確定了四個挑戰,并描述了它們如何影響戰爭行動、工程界和海軍任務。本文提供了通過研究和工程倡議來解決這些挑戰的解決思路。
人工智能是一個包括許多不同方法的領域,目的是創造具有智能的機器(Mitchell 2019)。自動化系統的運作只需要最小的人類輸入,并經常根據命令和規則執行重復性任務。人工智能系統是自動化機器,執行模仿人類智能的功能。它們將從過去的經驗中學習到的新信息融入其中,以做出決定并得出結論。
如表1所述,人工智能系統有兩種主要類型。第一種類型是明確編程的專家系統。Allen(2020,3)將專家系統描述為手工制作的知識系統,使用傳統的、基于規則的軟件,將人類專家的主題知識編入一長串編程的 "如果給定x輸入,則提供y輸出"的規則。這些系統使用傳統的編程語言。第二種類型是ML系統,從大型數據集中進行訓練。ML系統自動學習并從經驗中改進,而不需要明確地進行編程。一旦ML系統被 "訓練",它們就被用于操作,以產生新的操作數據輸入的結果。
表1. 兩類人工智能系統
人工智能系統--包括專家系統和學習系統--為海軍提供了巨大的潛力,在大多數任務領域有不同的應用。這些智能系統可以擴展海軍的能力,以了解復雜和不確定的情況,制定和權衡選擇,預測行動的成功,并評估后果。它們提供了支持戰略、作戰計劃和戰術領域的潛力。
本文確定了工程設計界必須解決的四個挑戰,以便為未來海戰任務實施人工智能系統。表2強調了這四個挑戰領域。這些挑戰包括:(1)復雜的海戰應用領域;(2)需要收集大量與作戰相關的數據來開發、訓練和驗證人工智能系統;(3)人工智能系統工程的一些新挑戰;(4)存在對手的人工智能進展,不斷變化和發展的威脅,以及不斷變化的人工智能系統的網絡弱點。本文側重于海軍戰爭的四個挑戰領域,但認識到這些挑戰可以很容易地被概括為整個軍隊在未來人工智能系統可能應用的所有戰爭領域中廣泛存在的挑戰。
表2. 為海軍實施人工智能系統的四個挑戰領域
人工智能正被視為一種能力,可應用于廣泛的應用,如批準貸款、廣告、確定醫療、規劃航運路線、實現自動駕駛汽車和支持戰爭決策。每個不同的應用領域都提出了一系列的挑戰,人工智能系統必須與之抗衡,才能成為一種增加價值的可行能力。表3比較了一組領域應用的例子,從潛在的人工智能系統解決方案的角度說明了挑戰的領域。該表在最上面一行列出了一組10個因素,這些因素對一個特定的應用程序產生了復雜性。根據每個因素對作為實施人工智能的領域的整體復雜性的貢獻程度,對六個應用領域的特征進行了定性評估。顏色代表低貢獻(綠色)、中貢獻(黃色)和高貢獻(紅色)。
表3中最上面一行顯示的特征包括: (1)認識上的不確定性水平(情況知識的不確定性程度),(2)情況的動態性,(3)決策時間表(可用于決策的時間量),(4)人類用戶和人工智能系統之間的互動所涉及的錯綜復雜的問題、 (5)資源的復雜性(數量、類型、它們之間的距離以及它們的動態程度),(6)是否涉及多個任務,(7)所需訓練數據集的復雜性(大小、異質性、有效性、脆弱性、可獲得性等 8)對手的存在(競爭者、黑客或徹頭徹尾的敵人),(9)可允許的錯誤幅度(多少決策錯誤是可以接受的),以及(10)決策后果的嚴重程度。該表的定性比較旨在提供一個高層次的相對意義,即基于一組樣本的貢獻因素,不同應用領域的不同復雜程度。
表3. 影響應用復雜性的因素比較
對于所有的應用領域來說,人工智能系統的工程都是具有挑戰性的。人工智能系統在本質上依賴于具有領域代表性的數據。獲得具有領域代表性的數據會帶來基于數據大小、可用性、動態性和不確定性的挑戰。決策時間--由情況的時間動態決定--會給人工智能系統工程帶來重大挑戰--特別是當一個應用領域的事件零星發生和/或意外發生時;以及當決策是時間緊迫的時候。具有更多決策時間、充分訪問大型數據集、直接的用戶互動、完善的目標和非致命后果的應用,如貸款審批、廣告、醫療診斷(在某種程度上)面臨工程挑戰,但其復雜程度較低。確定最佳運輸路線和為自動駕駛汽車設計AI系統是更復雜的工作。這些應用是動態變化的,做決定的時間較短。航運路線將在可能的路線數量上具有復雜性--這可能會導致許多可能的選擇。然而,航運錯誤是有空間的,而且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的空間非常小。在這種應用中,決策失誤會導致嚴重的事故。
影響開發支持海戰決策的人工智能系統的因素在表3所示的所有類別中都具有高度的復雜性。因此,戰術戰爭領域對工程和實施有效的人工智能系統作為解決方案提出了特別棘手的挑戰。表4強調了導致這種復雜性的海戰領域的特點。作為一個例子,海軍打擊力量的行動可以迅速從和平狀態轉變為巨大的危險狀態--需要對威脅保持警惕并采取適當的反應行動--所有這些都是在高度壓縮的決策時間內進行。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是網絡空間,導致需要處理多種時間緊迫的任務。由于海軍和國防資產在艦艇、潛艇、飛機、陸地和太空中,戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用。制定有效的戰術行動方案也必須在高度動態的作戰環境中進行,并且只有部分和不確定的情況知識。決策空間還必須考慮到指揮權、交戰規則和戰術理論所帶來的限制。人類作為戰術決策者的角色增加了決策空間的復雜性--信息過載、操作錯誤、人機信任和人工智能的模糊性/可解釋性問題等挑戰。最后,對于戰術決策及其可能的后果來說,風險可能非常大。
表4. 導致戰術決策復雜性的因素
解決高度復雜的決策領域是對海軍的挑戰。人工智能為解決海軍作戰的復雜性提供了一個潛在的解決方案,即處理大量的數據,處理不確定性,理解復雜的情況,開發和評估決策選擇,以及理解風險水平和決策后果。Desclaux和Prestot(2020)提出了一個 "認知三角",其中人工智能和大數據被應用于支持作戰人員,以實現信息優勢、控制論信心和決策優勢。約翰遜(2019年)開發了一個工程框架和理論,用于解決高度復雜的問題空間,這些問題需要使用智能和分布式人工智能系統來獲得情況意識,并做出適應動態情況的協作行動方案決定。約翰遜(2020a)建立了一個復雜的戰術場景模型,以證明人工智能輔助決策對戰術指揮和控制(C2)決策的好處。約翰遜(2020b)開發了一個預測分析能力的概念設計,作為一個自動化的實時戰爭游戲系統來實施,探索不同的可能的戰術行動路線及其預測的效果和紅色部隊的反應。首先,人工智能支持的C2系統需要描述戰術行動期間的復雜程度,然后提供一個自適應的人機組合安排來做出戰術決策。這個概念包括根據對目前戰術情況的復雜程度最有效的方法來調整C2決策的自動化水平(人與機器的決策角色)。約翰遜(2021年)正在研究這些概念性工程方法在各種防御用例中的應用,包括空中和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。
在海軍作戰中實施人工智能系統的一個額外挑戰是在戰術邊緣施加的限制。分散的海軍艦艇和飛機的作戰行動構成了戰術邊緣--在有限的數據和通信下作戰。"在未來,戰術邊緣遠離指揮中心,通信和計算資源有限,戰場形勢瞬息萬變,這就導致在嚴酷復雜的戰地環境中,網絡拓撲結構連接薄弱,變化迅速"(Yang et. al. 2021)。戰術邊緣網絡也容易斷開連接(Sridharan et. al. 2020)。相比之下,許多商業人工智能系統依賴于基于云的或企業內部的處理和存儲,而這些在海戰中是不存在的。在戰術邊緣實施未來的人工智能系統時,必須進行仔細的設計考慮,以了解哪些數據和處理能力可用。這可能會限制人工智能系統在邊緣所能提供的決策支持能力。
在軍事領域使用人工智能必須克服復雜性的挑戰障礙,在某些情況下,人工智能的加入可能會增加復雜性。辛普森等人(2021)認為,將人工智能用于軍事C2可能會導致脆弱性陷阱,在這種情況下,自動化功能增加了戰斗行動的速度,超出了人類的理解能力,最終導致 "災難性的戰略失敗"。Horowitz等人(2020)討論了通過事故、誤判、增加戰爭速度和升級以及更大的殺傷力來增加國際不穩定和沖突。Jensen等人(2020)指出,人工智能增強的軍事系統增加的復雜性將增加決策建議和產生的信息的范圍、重要性和意義的不確定性;如果人類決策者對產出缺乏信心和理解,他們可能會失去對人工智能系統的信任。
實施人工智能系統的第二個挑戰是它們依賴并需要大量的相關和高質量的數據用于開發、訓練、評估和操作。在海戰領域滿足這些數據需求是一個挑戰。明確編程的專家系統在開發過程中需要數據進行評估和驗證。ML系統在開發過程中對數據的依賴性甚至更大。圖1說明了ML系統如何從代表作戰條件和事件的數據集中 "學習"。
ML系統的學習過程被稱為被訓練,開發階段使用的數據被稱為訓練數據集。有幾種類型的ML學習或訓練--它們是監督的、無監督的和強化的方法。監督學習依賴于地面真相或關于輸出值應該是什么的先驗知識。監督學習算法的訓練是為了學習一個最接近給定輸入和期望輸出之間關系的函數。無監督學習并不從地面真相或已知的輸出開始。無監督學習算法必須在輸入數據中推斷出一個自然結構或模式。強化學習是一種試錯法,允許代理或算法在獎勵所需行為和/或懲罰不需要的行為的基礎上學習。所有三種類型的ML學習都需要訓練數據集。在部署后或運行階段,ML系統繼續需要數據。
圖1顯示,在運行期間,ML系統或 "模型 "接收運行的實時數據,并通過用其 "訓練 "的算法處理運行數據來確定預測或決策結果。因此,在整個系統工程和采購生命周期中,ML系統與數據緊密相連。ML系統是從訓練數據集的學習過程中 "出現 "的。ML系統是數據的質量、充分性和代表性的產物。它們完全依賴于其訓練數據集。
圖1. 使用數據來訓練機器學習系統
美國海軍開始認識到對這些數據集的需求,因為許多領域(戰爭、供應鏈、安全、后勤等)的更多人工智能開發人員正在了解人工智能解決方案的潛在好處,并開始著手開發人工智能系統。在某些情況下,數據已經存在并準備好支持人工智能系統的開發。在其他情況下,數據存在但沒有被保存和儲存。最后,在其他情況下,數據并不存在,海軍需要制定一個計劃來獲得或模擬數據。
收集數據以滿足海軍領域(以及更廣泛的軍事領域)的未來人工智能/ML系統需求是一個挑戰。數據通常是保密的,在不同的項目和系統中被分隔開來,不容易從遺留系統中獲得,并且不能普遍代表現實世界行動的復雜性和多樣性。要從并非為數據收集而設計的遺留系統中獲得足夠的數據,可能非常昂貴和費時。數據收集可能需要從戰爭游戲、艦隊演習、系統測試、以及建模和模擬中收集。此外,和平時期收集的數據并不代表沖突和戰時的操作。海軍(和軍方)還必須教導人工智能系統在預計的戰時行動中發揮作用。這將涉及想象可能的(和可能的)戰時行動,并構建足夠的ML訓練數據。
數據收集的另一個挑戰是潛在的對抗性黑客攻擊。對于人工智能/ML系統來說,數據是一種珍貴的商品,并提出了一種新的網絡脆弱性形式。對手可以故意在開發過程中引入有偏見或腐敗的數據,目的是錯誤地訓練AI/ML算法。這種邪惡的網絡攻擊形式可能很難被發現。
海軍正在解決這一數據挑戰,開發一個數據基礎設施和組織來管理已經收集和正在收集的數據。海軍的Jupiter計劃是一個企業數據和分析平臺,正在管理數據以支持AI/ML的發展和其他類型的海軍應用,這些應用需要與任務相關的數據(Abeyta,2021)。Jupiter努力的核心是確定是否存在正確的數據類型來支持人工智能應用。為了生產出在行動中有用的人工智能/ML系統,海軍需要在游戲中保持領先,擁有能夠代表各種可能情況的數據集,這些情況跨越了競爭、沖突和危機期間的行動范圍。因此,數據集的開發和管理必須是一項持續的、不斷發展的努力。
第三個挑戰是,人工智能系統的工程需要改變傳統的系統工程(SE)。在傳統系統中,行為是設定的(確定性的),因此是可預測的:給定一個輸入和條件,系統將產生一個可預測的輸出。一些人工智能解決方案可能涉及到系統本身的復雜性--適應和學習--因此產生不可預見的輸出和行為。事實上,一些人工智能系統的意圖就是要做到這一點--通過承擔一些認知負荷和產生智能建議,與人類決策者合作。表5強調了傳統系統和人工智能系統之間的區別。需要有新的SE方法來設計智能學習系統,并確保它們對人類操作者來說是可解釋的、可信任的和安全的。
SE作為一個多學科領域,在海軍中被廣泛使用,以將技術整合到連貫而有用的系統中,從而完成任務需求(INCOSE 2015)。SE方法已經被開發出來用于傳統系統的工程設計,這些系統可能是高度復雜的,但也是確定性的(Calvano和John 2004)。如表5所述,傳統系統具有可預測的行為:對于一個給定的輸入和條件,它們會產生可預測的輸出。然而,許多海軍應用的人工智能系統在本質上將是復雜的、適應性的和非決定性的。Raz等人(2021年)解釋說,"SE及其方法的雛形基礎并不是為配備人工智能(即機器學習和深度學習)的最新進展、聯合的多樣化自主系統或多領域操作的工程系統而設想的。" 對于具有高風險后果的軍事系統來說,出錯的余地很小;因此,SE過程對于確保海軍中人工智能系統的安全和理想操作至關重要。
表5. 傳統系統和人工智能系統的比較
在整個系統生命周期中,將需要改變SE方法,以確保人工智能系統安全有效地運行、學習和適應,以滿足任務需求并避免不受歡迎的行為。傳統的SE過程的大部分都需要轉變,以解決人工智能系統的復雜和非確定性的特點。在人工智能系統的需求分析和架構開發階段需要新的方法,這些系統將隨著時間的推移而學習和變化。系統驗證和確認階段將必須解決人工智能系統演化出的突發行為的可能性,這些系統的行為不是完全可預測的,其內部參數和特征正在學習和變化。運營和維護將承擔重要的任務,即隨著人工智能系統的發展,在部署期間不斷確保安全和理想的行為。
SE界意識到,需要新的流程和實踐來設計人工智能系統。國際系統工程師理事會(INCOSE)最近的一項倡議正在探索開發人工智能系統所需的SE方法的變化。表6強調了作為該倡議一部分的五個SE重點領域。除了非決定性的和不斷變化的行為,人工智能系統可能會出現新類型的故障模式,這些故障模式是無法預料的,可能會突然發生,而且其根本原因可能難以辨別。穩健設計--或確保人工智能系統能夠處理和適應未來的情景--是另一個需要新方法的SE領域。最后,對于有更多的人機互動的人工智能系統,必須仔細注意設計系統,使它們值得信賴,可以解釋,并最終對人類決策者有用。
表6.人工智能系統工程中的挑戰(改編自:Robinson,2021)。
SE研究人員正在研究人工智能系統工程所涉及的挑戰,并開發新的SE方法和對現有SE方法的必要修改。Johnson(2019)開發了一個SE框架和方法,用于工程復雜的適應性系統(CASoS)解決方案,涉及分布式人工智能系統的智能協作。這種方法支持開發智能系統的系統,通過使用人工智能,可以協作產生所需的突發行為。Johnson(2021)研究了人工智能系統產生的潛在新故障模式,并提出了一套跨越SE生命周期的緩解和故障預防策略。她提出了元認知,作為人工智能系統自我識別內部錯誤和失敗的設計方案。Cruz等人(2021年)研究了人工智能在空中和導彈防御應用中使用人工智能輔助決策的安全性。他們為計劃使用人工智能系統的軍事項目編制了一份在SE開發和運行階段需要實施的策略和任務清單。Hui(2021年)研究了人類作戰人員與人工智能系統合作進行海軍戰術決策時的信任動態。他制定了工程人工智能系統的SE策略,促進人類和機器之間的 "校準 "信任,這是作為適當利用的最佳信任水平,避免過度信任和不信任,并在信任失敗后涉及信任修復行動。Johnson等人(2014)開發了一種SE方法,即協同設計,用于正式分析人機功能和行為的相互依賴性。研究人員正在使用協同設計方法來設計涉及復雜人機交互的穩健人工智能系統(Blickey等人,2021年,Sanchez 2021年,Tai 2021年)。
數據的作用對于人工智能系統的開發和運行來說是不可或缺的,因此需要在人工智能系統的SE生命周期中加入一個持續不斷的收集和準備數據的過程。Raz等人(2021)提出,SE需要成為人工智能系統的 "數據策劃者"。他們強調需要將數據策劃或轉化為可用的結構,用于開發、訓練和評估AI算法。French等人(2021)描述了需要適當的數據策劃來支持人工智能系統的發展,他們強調需要確保數據能夠代表人工智能系統將在其中運行的預期操作。他們強調需要安全訪問和保護數據,以及需要識別和消除數據中的固有偏見。
SE界正處于發展突破和進步的早期階段,這些突破和進步是在更復雜的應用中設計人工智能系統所需要的。這些進展需要與人工智能的進展同步進行。在復雜的海軍應用以及其他非海軍和非軍事應用中實施人工智能系統取決于是否有必要的工程實踐。SE實踐必須趕上AI的進步,以確保海軍持續的技術優勢。
海軍在有效實施人工智能系統方面面臨的第四個挑戰是應對對手。海軍的工作必須始終考慮對手的作用及其影響。表7確定了在海軍實施人工智能系統時必須考慮的與對手有關的三個挑戰:(1)人工智能技術在許多領域迅速發展,海軍必須注意同行競爭國的軍事應用進展,以防止被超越,(2)在海軍應用中實施人工智能系統和自動化會增加網絡脆弱性,以及(3)海軍應用的人工智能系統需要發展和適應,以應對不斷變化的威脅環境。
表7. AI系統的對抗性挑戰
同行競爭國家之間發展人工智能能力的競賽,最終是為了進入對手的決策周期,以便比對手更快地做出決定和采取行動(Schmidt等人,2021年)。人工智能系統提供了提高決策質量和速度的潛力,因此對獲得決策優勢至關重要。隨著海軍對人工智能解決方案的探索,同行的競爭國家也在做同樣的事情。最終實現將人工智能應用于海軍的目標,不僅僅取決于人工智能研究。它需要適當的數據收集和管理,有效的SE方法,以及仔細考慮人類與AI系統的互動。海軍必須承認,并采取行動解決實施人工智能系統所涉及的挑戰,以贏得比賽。
網絡戰是海軍必須成功參與的另一場競賽,以保持在不斷沖擊的黑客企圖中的領先地位。網絡戰的特點是利用計算機和網絡來攻擊敵人的信息系統(Libicki, 2009)。海軍對人工智能系統的實施導致了更多的網絡攻擊漏洞。人工智能系統的使用在本質上依賴于訓練和操作數據,導致黑客有機會在開發階段和操作階段用腐敗的數據欺騙或毒害系統。如果一個對手獲得了對一個運行中的人工智能系統的控制,他們可能造成的傷害將取決于應用領域。對于支持武器控制決策的自動化,其后果可能是致命的。海軍必須注意人工智能系統開發過程中出現的特殊網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御戰略。海軍必須小心翼翼地確保用于開發、訓練和操作人工智能系統的數據集在整個人工智能系統的生命周期中受到保護,免受網絡攻擊(French等人,2021)。
威脅環境的演變是海軍在開發AI系統時面臨的第三個對抗性挑戰。對手的威脅空間隨著時間的推移不斷變化,武器速度更快、殺傷力更大、監視資產更多、反制措施更先進、隱身性更強,這對海軍能夠預測和識別新威脅、應對戰斗空間的未知因素構成了挑戰。尤其是人工智能系統,必須能夠加強海軍感知、探測和識別新威脅的能力,以幫助它們從未知領域轉向已知領域的過程。他們必須適應新的威脅環境,并在行動中學習,以了解戰斗空間中的未知因素,并通過創新的行動方案快速應對新的威脅(Grooms 2019, Wood 2019, Jones et al 2020)。海軍可以利用人工智能系統,通過研究特定區域或領域的長期數據,識別生活模式的異常(Zhao等人,2016)。最后,海軍可以探索使用人工智能來確定新的和有效的行動方案,使用最佳的戰爭資源來解決棘手的威脅情況。
人工智能系統為海軍戰術決策的優勢提供了相當大的進步潛力。然而,人工智能系統在海戰應用中的實施帶來了重大挑戰。人工智能系統與傳統系統不同--它們是非決定性的,可以學習和適應--特別是在用于更復雜的行動時,如高度動態的、時間關鍵的、不確定的戰術行動環境中,允許的誤差范圍極小。本文確定了為海戰行動實施人工智能系統的四個挑戰領域:(1)開發能夠解決戰爭復雜性的人工智能系統,(2)滿足人工智能系統開發和運行的數據需求,(3)設計這些新穎的非確定性系統,以及(4)面對對手帶來的挑戰。
海軍必須努力解決如何設計和部署這些新穎而復雜的人工智能系統,以滿足戰爭行動的需求。作者在這一工作中向海軍提出了三項建議。
1.第一個建議是了解人工智能系統與傳統系統之間的差異,以及伴隨著人工智能系統的開發和實施的新挑戰。
人工智能系統,尤其是那些旨在用于像海戰這樣的復雜行動的系統,其本身就很復雜。它們在應對動態戰爭環境時將會學習、適應和進化。它們將變得不那么容易理解,更加不可預測,并將出現新型的故障模式。海軍將需要了解傳統的SE方法何時以及如何在這些復雜系統及其復雜的人機交互工程中失效。海軍將需要了解數據對于開發人工智能系統的關鍵作用。
2.第二個建議是投資于人工智能系統的研究和開發,包括其數據需求、人機互動、SE方法、網絡保護和復雜行為。
研究和開發是為海戰行動開發AI系統解決方案的關鍵。除了開發復雜的戰術人工智能系統及其相關的人機協作方面,海軍必須投資研究新的SE方法來設計和評估這些適應性非決定性系統。海軍必須仔細研究哪些新類型的對抗性網絡攻擊是可能的,并且必須開發出解決這些問題的解決方案。海軍必須投資于收集、獲取和維護代表現實世界戰術行動的數據,用于人工智能系統開發,并確保數據的相關性、有效性和安全性。
3.第三個建議是承認挑戰,并在預測人工智能系統何時準備好用于戰爭行動方面采取現實態度。
盡管人工智能系統正在許多領域實施,但海軍要為復雜的戰術戰爭行動實施人工智能系統還需要克服一些挑戰。人工智能系統在較簡單應用中的成功并不能保證人工智能系統為更復雜的應用做好準備。海軍應該保持一種現實的認識,即在人工智能系統準備用于戰爭決策輔助工具之前,需要取得重大進展以克服本文所討論的挑戰。實現人工智能系統的途徑可以依靠建模和模擬、原型實驗、艦隊演習以及測試和評估。可以制定一個路線圖,彌合較簡單應用的人工智能和復雜應用的人工智能之間的差距--基于一個積木式的方法,在為逐漸復雜的任務開發和實施人工智能系統時吸取經驗教訓。
海軍將從未來用于戰術戰爭的人工智能系統中獲益。通過安全和有效地實施人工智能系統,戰術決策優勢的重大進步是可能的。此外,海軍必須跟上(或試圖超越)對手在人工智能方面的進展。本文描述了為在海戰中實施人工智能系統而必須解決的四個挑戰。通過對這些新穎而復雜的人工智能系統的深入了解,對研究和開發計劃的投資,以及對人工智能技術進步時限的現實預期,海軍可以在應對這些挑戰方面取得進展。
今天,人工智能(AI)和機器學習/深度學習(ML/DL)已經成為信息技術中最熱門的領域。在當今社會,許多智能設備依賴于AI/ML/DL算法/工具進行智能操作。盡管AI/ML/DL算法和工具已經在許多互聯網應用程序和電子設備中使用,但它們也容易受到各種攻擊和威脅。AI參數可能被內部攻擊者扭曲;DL輸入樣本可能被對手污染;在許多其他攻擊和威脅中,ML模型可能會因改變分類邊界而被誤導。這樣的攻擊會使人工智能產品變得危險。雖然本討論的重點是基于AI/ML/DL的系統中的安全問題(即保護智能系統本身),但AI/ML/DL模型和算法實際上也可以用于網絡安全(即使用AI來實現安全)。由于AI/ML/DL安全是一個新興的領域,許多研究人員和行業專業人士還不能對該領域進行詳細、全面的了解。本書旨在提供各種應用程序中相關安全問題的挑戰和解決方案的完整圖景。它解釋了高級人工智能工具中如何發生不同的攻擊,以及克服這些攻擊的挑戰。然后,書中描述了許多實現人工智能安全和隱私的有希望的解決方案。這本書的特點有七個方面:
人工智能在與人類生活息息相關的場景中自主決策時,正逐漸面臨法律或倫理的問題或風險.可信機器學習是建立安全人工智能系統的核心技術,是人工智能領域的熱門研究方向,而公平性是可信機器學習的重要考量.公平性旨在研究機器學習算法決策對個人或群體不存在因其固有或后天屬性所引起的偏見或偏愛.本文從公平表征、公平建模和公平決策三個角度出發,以典型案例中不公平問題及其危害為驅動,分析數據和算法中造成不公平的潛在原因,建立機器學習中的公平性抽象定義及其分類體系,進一步研究用于消除不公平的機制.可信機器學習中的公平性研究在人工智能多個領域中處于起步階段,如計算機視覺、自然語言處理、推薦系統、多智能體系統和聯邦學習等.建立具備公平決策能力的人工智能算法,是加速推廣人工智能落地的必要條件,且極具理論意義和應用價值.
深度學習在計算機視覺領域取得了重大成功,超越了眾多傳統的方法.然而,近年來深度學習技術被濫用在假視頻的制作上,使得以Deepfakes為代表的偽造視頻在網絡上泛濫成災.這種深度偽造技術通過篡改或替換原始視頻的人臉信息,并合成虛假的語音,來制作色情電影、虛假新聞、政治謠言等.為了消除此類偽造技術帶來的負面影響,眾多學者對假視頻的鑒別進行了深入的研究,并提出一系列的檢測方法幫助機構或社區來識別此類偽造視頻.盡管如此,目前的檢測技術仍然存在依賴特定分布數據、特定壓縮率等眾多的局限性,遠遠落后于假視頻的生成技術.并且,不同的學者解決問題的角度不同,使用的數據集和評價指標均不統一.迄今為止,學術界對深度偽造與檢測技術仍缺乏統一的認識,深度偽造和檢測技術研究的體系架構尚不明確.在本綜述中,我們回顧了深度偽造與檢測技術的發展,并對現有研究工作進行了系統的總結和科學的歸類.最后,我們討論了深度偽造技術蔓延帶來的社會風險,分析了檢測技術的諸多局限性,并探討了檢測技術面臨的挑戰和潛在研究方向,旨在為后續學者進一步推動深度偽造檢測技術的發展和部署提供指導.
近年來,以 Deepfakes [1]為代表的換臉技術開始在網絡興起.此類技術可將視頻中的人臉替換成目標人物, 從而制作出目標人物做特定動作的假視頻.隨著深度學習技術的發展,自動編碼器、生成對抗網絡等技術逐漸 被應用到深度偽造中.由于 Deepfakes 技術只需要少量的人臉照片便可以實現視頻換臉,一些惡意用戶利用互聯網上可獲取的數據生成眾多的假視頻并應用在灰色地帶,如將色情電影的女主角替換成女明星,給政客、公司高管等有影響力的人偽造一些視頻內容,從而達到誤導輿論,贏得選取,操縱股價等目的.這些虛假視頻內容 極其逼真,在制作的同時往往伴隨著音頻的篡改,使得互聯網用戶幾乎無法鑒別.如果這些深度偽造的內容作為新聞素材被制作傳播,這會損害新聞機構的聲譽和公眾對媒體的信心.更深層次的,當遇到案件偵查和事故取證時,如果缺乏對 Deepfakes 類虛假影像資料的鑒別,將對司法體系產生巨大的挑戰.盡管深度偽造技術有其積極的一面,如“復活”一些去世的人進行影視創作,以及 Zao APP[2]提供大眾換臉娛樂服務等,但是目前負面影響遠遠大于正面,擁有鑒別此類深度偽造視頻的能力變得尤為重要.
為了盡量減少深度偽造技術帶來的影響,消除虛假視頻的傳播,學術界和工業界開始探索不同的深度偽 造檢測技術.相繼有學者構造數據集,展開對 Deepfakes 檢測的多角度研究.臉書公司也聯合微軟一起舉辦全 球 Deepfakes 檢測競賽[3]以推動檢測技術的發展.然而這些 Deepfakes 檢測工作各有側重,存在眾多局限性.針 對本領域的綜述工作還比較缺乏,只有針對早期圖像篡改工作的一些總結[4][5],亟需對現有工作進行系統的整 理和科學的總結、歸類,以促進該領域的研究.
本文首先在第1節中介紹深度偽造的各種相關技術,在第2節中列舉了當下深度偽造研究的數據集,接著 在第 3 節中對現有的深度偽造檢測技術進行系統的總結和歸類.第 4 節我們討論了深度偽造生成和檢測技術 的雙面對抗性,第 5 節我們總結了面臨的挑戰和未來可行的研究方向.最后,在第 6 節,我們對全文的工作進行 總結.
//www.jos.org.cn/jos/ch/reader/view_abstract.aspx?file_no=6140&flag=1
通用量子計算機器件進展緩慢,對實用化 1024-bit 的 RSA 密碼破譯尚不能構成威脅,現代密碼依舊是 安全的. 量子計算密碼攻擊需要探索新的途徑:一是,量子計算能否協助/加速傳統密碼攻擊模式,拓展已有量子 計算的攻擊能力;二是,需要尋找 Shor 算法之外的量子計算算法探索密碼攻擊. 對已有的各類量子計算整數分解 算法進行綜述,分析量子計算密碼攻擊時面對的挑戰,以及擴展至更大規模整數分解存在的問題. 結合 Shor 算法 改進過程,分析 Shor 算法對現代加密體系造成實質性威脅前遇到的困難并給出 Shor 破譯 2048 位 RSA 需要的資 源. 分析基于 D-Wave 量子退火原理的 RSA 破譯,這是一種新的量子計算公鑰密碼攻擊算法,與Shor 算法原理上 有本質性不同. 將破譯 RSA 問題轉換為組合優化問題,利用量子退火算法獨特的量子隧穿效應跳出局部最優解逼 近全局最優解,和經典算法相比有指數級加速的潛力. 進一步闡述 Grover 量子搜索算法應用于橢圓曲線側信道攻擊,拓展其攻擊能力. 探討量子人工智能算法對 NTRU 等后量子密碼攻擊的可能性.