在技術進步重塑戰爭格局的時代,將人工智能(AI)、機器學習(ML)和自主系統融入國防戰略已不再是未來的概念,而是現實的演變。這些技術在提高電子戰(EW)能力方面的意義怎么強調都不為過,因為它們在作戰速度、效率和復雜性方面具有顯著優勢。成本更低、規模更小、資產更豐富的戰爭即將來臨,對烏克蘭戰爭時經常這樣評論。
現代戰爭中潛在的變革性戰略之一是應用蜂群戰術,即使用多個自主單元執行協調任務。認知電子戰的蜂群資產,強調了這些戰術如何通過同時出現的一系列威脅來壓垮敵方系統。人工智能的集成使這些蜂群具有自主決策能力,從而大大提高了其有效性。這些系統可以根據實時戰場數據動態調整戰術,有效地適應反制措施并利用敵方防御的漏洞。
在繼續向完全自主系統轉變的過程中,一些討論強調了這些系統徹底改變戰爭的潛力。重點討論了在人工智能驅動的戰爭預警行動中使用無人機的問題。這些自主系統可以執行復雜的任務,處理大量的感知和信號數據,在瞬間做出有關干擾、欺騙或規避的決定。這些系統的獨立運行能力減輕了人類操作員的認知負擔,并允許采用更復雜、多層次的防御策略。無人機獨立運行是好事嗎?如何避免藍對藍?如何防止妥協或黑客攻擊?
將人工智能集成到關鍵軍事系統中會帶來一系列挑戰,尤其是在確保這些系統決策的可靠性和可信度方面。戰爭中的人工智能系統必須具有高度的可預測性,并通過模擬真實世界條件的模擬進行徹底審查。這不僅能確保作戰成功,還能防止因人工智能決策失誤而導致的災難性故障。我們如何進行這類培訓?我們是否擁有實時更新和更改這些系統的人員?
未來戰爭,將人工智能和自主系統融入電子戰戰略是一個充滿希望而又充滿挑戰的前沿領域。這些技術重新定義軍事行動的潛力。然而,先進技術的成功和安全取決于嚴格的測試、驗證和持續改進,以符合道德標準和戰略目標。
戰爭的演變不僅需要技術進步,還需要一個堅實的治理和監督框架,以確保負責任地有效使用這些強大的工具。關于這些更新的技術,已經有很多話題和討論,人們普遍感到興奮,但也看到了一些目前仍被忽視的重要問題。如何控制這些資產?誰來控制這些資產?是否已經決定將這些資產像彈藥一樣作為消耗品,還是仍然期望保留這些資產?
參考來源: JED
當今的威脅形勢瞬息萬變,能否在充分了解情況的基礎上做出以數據為導向的決策,關系到任務的成敗。然而,傳統的分析方法往往無法應對現代國防和情報行動所面臨的大量復雜數據。
這正是知識圖譜驅動的先進人工智能(AI)提供變革性解決方案的地方。通過利用大型語言模型和知識圖譜的協同作用,軍事領導人和分析人員可以獲得基于背景的洞察力,從而領先于新出現的威脅,并自信地做出關鍵決策。
國防領域的有效決策需要對行動背景有細致入微的了解,即形成現實世界場景的實體、關系和特定領域知識的錯綜復雜的網絡。在人命關天、容錯率極低的情況下,這種背景意識至關重要。
獨立的人工智能模型雖然功能強大,但缺乏可靠支持關鍵任務應用所需的上下文基礎。這些模型通常是在廣泛的互聯網數據基礎上訓練出來的,容易產生幻覺、與事實不符,而且對國防部隊面臨的復雜作戰現實缺乏敏感性。
知識圖譜為人工智能提供了一個專為國防領域量身定制的豐富、結構化的知識庫,從而彌補了這一關鍵差距。這些圖對現實世界的概念、實體(人員、組織、地點等)及其相互關聯的關系進行建模,捕捉可靠的決策支持所需的深層背景。
通過將大型語言模型(LLM)與知識圖譜相結合,我們可以釋放出強大的協同效應,將 LLM 的生成能力與圖譜中編碼的結構化上下文知識相結合。這種混合方法通常被稱為 "情景(上下文)人工智能",它允許 LLM 生成不僅流暢連貫,而且基于相關的、經過驗證的事實和特定領域知識的響應。
例如,負責分析潛在威脅場景的情境人工智能系統可以利用知識圖譜來了解相關行為體、其動機、歷史模式和地緣政治背景。有了這些豐富的背景知識,LLM 就能生成細致入微的評估、可行的建議和應急計劃,以應對錯綜復雜的局勢。
情境人工智能在國防和情報領域的應用意義深遠:
雖然情景人工智能潛力巨大,但將其部署到關鍵任務防御應用中需要一個強大的信任和問責框架。知識圖譜通過編碼事實性的、可驗證的知識并實現透明的推理過程,為此奠定了重要的基礎。
此外,人工智能的道德原則,如公平性、可解釋性和人類監督,必須嵌入到這些系統的開發和部署中。這將確保情境人工智能能夠增強人類決策者的能力,同時遵守最高的問責和負責任使用標準。
隨著威脅的演變和現代戰爭復雜性的加劇,知識圖譜和情景人工智能的整合成為國防部門和特種作戰部隊的戰略要務。通過利用這一變革性技術的力量,可以獲得決定性的優勢,在日益動蕩的世界中保持任務準備狀態并保障國家安全。
注:任務準備(戰備):指軍隊、組織或個人為完成任務所做的準備工作,包括物資、裝備、人員、訓練等方面的準備。
美國陸軍即將發布關于使用大型語言模型(LLM)和生成式人工智能(AI)的新政策指南。此舉正值五角大樓尋求利用人工智能的變革潛力,同時解決安全問題并確保該技術滿足美國防部(DoD)的獨特需求之際。隨著人工智能的不斷發展,陸軍旨在利用其能力來提高作戰效率、決策和整體任務成功率。
大型語言模型,如 OpenAI 的 GPT-4 和谷歌的 Gemini,因其能夠根據提示和訓練數據生成類似人類的文本、音頻、代碼、圖像和視頻而備受關注。這些模型已在從內容創建到復雜問題解決等各種應用中展示出令人印象深刻的能力。然而,它們的廣泛應用也引發了有關數據安全、道德考量和潛在濫用的關鍵問題。
認識到生成式人工智能的潛力和挑戰,陸軍將發布新的政策指南,以確保負責任地安全使用這些技術。據陸軍首席信息官(CIO)利奧-加西加(Leo Garciga)稱,即將發布的指令將為如何將 LLM 集成到陸軍行動中同時保護敏感信息提供明確的指導。這項政策預計將涉及幾個關鍵領域:
生成式人工智能在各種軍事應用中大有可為。一些潛在用例包括
雖然生成式人工智能的潛在效益巨大,但陸軍必須克服幾個挑戰,以確保成功實施:
美陸軍即將發布的關于大型語言模型和生成式人工智能的政策指導,是利用人工智能的力量進行軍事應用的重要一步。通過解決安全問題、定制滿足作戰需求的解決方案以及促進道德使用,陸軍旨在利用人工智能提高任務成功率并保持技術優勢。
參考來源:Indigo Monser
由人工智能(AI)支持的自主系統已經徹底改變了軍事行動和現代戰爭。無人系統非常適合執行危險和重復性的任務,在增強態勢感知和后勤能力的同時,也降低了對人類人員的風險。然而,它們日益重要的作用也引發了重大的安全問題:無人系統嚴重依賴機器學習(ML),容易受到網絡攻擊,從而危及任務、部隊和關鍵技術。雖然沒有系統是不可破解的,但系統架構對于確保設備盡可能抵御網絡攻擊至關重要,這不僅體現在初始部署,還體現在其產品生命周期的若干年內。因此,在整個開發和部署生命周期中都必須采取強有力的保障措施。安全設計原則、加密、訪問控制和安全通信可以強化這些系統,防止未經授權的訪問。
隨著自主系統在海洋、陸地和戰場上越來越普遍,包括軍隊、私營部門、學術界和政府在內的航空航天與國防(A&D)生態系統必須考慮大量因素。
從長矛、大炮到坦克,技術進步早已為軍隊帶來了戰術優勢。如今,人工智能(AI)已成為有望徹底改變戰爭的下一個前沿領域。能否實現這一愿景,取決于是否有能力防止這些 "會思考 "的機器被用來對付我們。
無人機(UAV)和機器人哨兵 "狗 "等自主技術正在重新定義戰斗空間。這些設備擅長勘測地形、識別目標、探測威脅并解除威脅,而不會危及軍人的安全。它們的潛力巨大,但也存在漏洞。如果在設計中不采取嚴格的網絡安全措施,這些自主系統最終服務的可能是我們的對手,而不是我們的兵力。
軍用無人機和設備利用尖端的人工智能技術,只需極少的人工引導即可運行。計算機視覺算法使無人機能夠導航和探測目標,而自然語言處理技術則能分析語音和文本數據以提取洞察力。強化學習可優化復雜任務的決策,而深度神經網絡則可識別模式并從海量數據集中進行預測。
然而,增強無人系統的技術也帶來了新的網絡安全風險。人工智能支持的自主平臺在很大程度上依賴于數據和機器學習(ML)算法,這可能會使其面臨數據中毒、模型被盜以及旨在操縱其行為的惡意攻擊。
2015 年至 2021 年間,美國國防部(DoD)經歷了 12000 多起針對無人機和無人駕駛飛行器等無人系統的網絡事件--這個數字還會上升。攻擊者通過干擾通信、奪取飛行器控制權、竊取用于訓練人工智能模型的專有技術和敏感數據集等方式危害國家安全。這些最近的例子凸顯了網絡威脅日益增長的態勢。
此外,美國還面臨著來自戰略競爭對手的日益嚴重的網絡威脅,他們正在利用距離直接沖突不遠的灰色地帶,試圖破壞安全利益。這些漏洞的后果可能超出直接的安全風險: 黑客可能會偷取數據來降低人工智能模型的性能,或者竊取知識產權,如專有算法,從而削弱一個國家的競爭優勢。(圖 1)。
圖1 美國及其軍事利益面臨著來自戰略競爭對手的日益嚴重的網絡威脅,這些競爭對手試圖利用尚未發生沖突的灰色地帶破壞國家安全。
然而,預計到 2028 年,全球軍用人工智能市場規模將超過 130 億美元,這反映出越來越多的人開始采用這些非常適合執行危險任務和提高態勢感知能力的系統。在這種快速發展和暴露的環境中,技術進步與網絡安全復原力之間的微妙平衡已成為維護國家利益和保護每個人的當務之急。
為加強防御,無人系統開發人員應利用模塊化開放系統架構(MOSA)原則。模塊化開放系統架構通過開放標準和接口提供強大而靈活的網絡安全保障。
開發人員還可以將來自不同供應商的傳感器、處理器和功能作為人工智能操作系統的模塊組件進行集成。這種即插即用的方法更便于快速更換易受攻擊的部件,并針對快速發展的威脅定制防御措施。這也是沙箱或分離功能的關鍵策略,這樣任何損壞的應用程序都不會給其他應用程序帶來問題。
利用 MOSA,還可以利用最小特權原則(PoLP)(也稱為最小特權訪問模型)來保護系統架構免受破壞或攻擊。利用PoLP,內存等系統資源可以不可改變地分配給某些功能,開發人員可以確保應用程序只能訪問完成任務所需的最小系統功能集。
利用未來機載能力環境(FACE)和傳感器開放系統架構(SOSA)等通用開放式架構標準,可以安全地集成組件,并在不同平臺和不同技術世代之間實現互換。例如,一個供應商提供的模塊化計算板可以用另一個供應商提供的升級模塊替換,而無需徹底修改整個系統設計。
MOSA 還減少了對供應商的鎖定,從而使長期維護和升級更加經濟實惠。考慮到維持和維護成本通常占國防部系統生命周期成本的 70%,采用組件可互換的模塊化方法有望大大減少為適應新系統而重寫代碼的需要。
開發人員可以創建可重復使用、經認可的軟件和加密 IP 庫,從而簡化并加速新功能的集成,以適應不斷變化的威脅。通過迭代開發和測試,MOSA 等開放式架構方法可以更輕松地持續驗證、確認和認證是否符合安全標準。
從硬件的設計階段到軟件的開發階段,無人系統的每個層面都必須考慮到安全問題。為防止未經授權的訪問,開發人員應采用加密關鍵數據和通信、建立基于角色的訪問控制以及設計具有內置防篡改機制的硬件等策略。主動監控、頻繁打補丁和定期重新訓練 ML 模型將增強其在生命周期內的恢復能力。
人工智能和自主技術正在改變現代戰爭:無人系統增強了軍事能力,同時降低了人類面臨的風險,并確保網絡安全始終是重中之重。如果不能在這些系統中建立強大的防御系統,我們的對手就可能獲得優勢。
隨著無人系統的普及,A&D 生態系統必須共同努力,應對人工智能帶來的獨特安全挑戰。為此,公共和私營部門應增加對安全人工智能研發的投資。學術機構可以加強網絡安全、ML 和機器人等領域的培訓。
隨著系統變得更加自主,政策制定者還必須使法規現代化,以促進安全性和問責制。采購準則應要求采用模塊化設計和開放式標準,使無人平臺面向未來。通過全企業范圍內的合作和警惕,無人駕駛系統實際上可以以負責任的方式部署,從而贏得信任。
人工智能的前景是廣闊的,但如果不對其力量加以控制,危險也會隨之而來。如果將嚴格的網絡安全保護措施融入系統架構中,人工智能操作系統就能加強國家安全,為作戰人員提供持久優勢,應對不斷變化的威脅。A&D 行業有義務以明智和合乎道德的方式開發和利用這些技術。通過將安全放在首位,行業和政府可以負責任地獲得人工智能的好處,同時保障生命和自由。
航空航天和國防領域正在經歷一場變革,其主要驅動力是將人工智能(AI)和機器學習(ML)技術集成到為軍事設計的傳感器、武器和信息系統中。在精確度、快速決策和穩健性至關重要的環境中,人工智能/機器學習已成為一項關鍵技術,可加快對態勢的理解和決策,提高作戰效率。這些技術使軍事行動更有可能克服 "戰爭迷霧",人工智能/機器學習基于無休止和持續的信號收集,而不是人眼可見的跡象,使感官和態勢理解更加敏銳。這些部門的獨特要求,如多域作戰、極端條件下的應變能力、高風險決策、互操作性和先進的安全措施,為人工智能發揮重大影響創造了條件。
航空航天和國防領域轉向人工智能有幾個關鍵因素:
1.快速準確的決策:軍事行動在時間和空間上都具有決定性意義。人工智能系統快速處理和分析海量數據的能力對于實時做出戰略和行動決策至關重要。挖掘來自不同來源和領域的信息并快速融合這些數據,可為決策者提供可在短周期內實施的行動情報,從而在分配的時間和空間內產生預期效果。
2.彈性和可靠性: 人工智能應用程序必須在各種具有挑戰性的環境中始終如一地運行;其建議和響應必須可信、可靠,并且不會出現商業大型語言模型(LLM)所遇到的 "幻覺"。信心和信任是軍事人工智能系統中最重要的因素,能讓用戶利用這些系統發揮最大價值。安全和信心不應是設計功能,而應是軍事人工智能系統基線基礎設施的一部分。此外,還應考慮物理安全和安保問題,采用分布式系統、邊緣處理以及強大而有彈性的網絡,使人工智能隨時隨地為作戰部隊提供支持。
3.道德和受控的自動化:無論是否有制衡機制來實現人類的信任,軍事系統的高風險都要求人工智能系統納入并遵守道德標準,并允許人類在不減慢整個流程的情況下進行監督。盡管 "道德標準 "是一個不固定的術語,取決于設計者和用戶的法律、文化、宗教和社會背景,但它為人工智能操作定義了 "游戲場地 "和邊界,就像戰爭法定義了作戰人員在戰時能做什么或不能做什么一樣。
4.先進的安全措施:鑒于國防行動的敏感性,人工智能系統必須具備無與倫比的網絡安全能力,消除系統訓練和操作過程中的不利和惡意行為。人工智能系統依賴于網絡、信息、數據饋送以及通過訓練嵌入的算法。在設計或訓練過程中篡改這些基礎,或在系統運行階段對其進行惡意操作,都可能會給用戶和依賴系統帶來巨大風險和意想不到的后果。因此,從早期設計階段就應考慮安全措施,包括風險檢測、規避和應對。
研究了數十家公司的產品,觀看了演示,并在展覽和會議上聽取了官員的介紹。通過研究,掃描了市場上專為軍事行動設計或能夠支持軍事用途的人工智能系統。使用現有最好的人工智能工具進行研究,但即使這樣也需要大量的人工分析才能提供符合標準的可用信息。在第一部分中,挑選了五個在軍事行動中表現出色的人工智能系統。
為何選擇:作為行業領導者,洛克希德-馬丁公司是將人工智能廣泛應用于國防領域的典范。他們的 AI Factory 計劃展示了他們在該領域推進 AI/ML 技術的承諾。它提供了一個安全的端到端模塊化生態系統,用于訓練、部署和維持可信賴的人工智能解決方案。其功能側重于從開發到部署和維護的自動化,應用 MLOps 解決方案(機器學習運營)來驗證、解釋、保護和監控所有機器學習生命周期階段,并創建可跨項目重復使用的參考架構和組件。
影響:從作戰飛機到太空探索,洛克希德-馬丁公司通過其人工智能驅動的解決方案影響著全球國防戰略,樹立了行業標準并為未來的技術進步鋪平了道路。
為何選擇: Palantir 在大數據分析領域舉足輕重,為情報收集和作戰計劃提供人工智能平臺。他們的 AIP 平臺為綜合解決方案奠定了基礎,通過向決策者提供相關信息、利用可用傳感器增強信息以及根據對信息、紅軍和藍軍戰術、技術和程序(TTP)的理解向決策者提供相關的、可操作的響應,從而增強軍事組織的能力并使其同步化。
影響: Palantir AIP 將大型語言模型和尖端人工智能的力量結合起來,激活數據和模型,以安全、合法和合乎道德的方式從最高度敏感的環境中獲取信息。他們的系統利用信息源的可追溯性和可信推理,在復雜的國防環境中實現數據驅動決策,說明人工智能在作戰計劃和情報行動中的重要性與日俱增。
為何選擇:Anduril Industries 站在將人工智能整合到自主系統和監控技術的前沿,改變傳統的防御戰略,采用可信賴的有人無人操作能力。
影響:他們的任務自主方法是從邊境安全和態勢感知發展而來的。他們的 Lattice AI 操作系統重新定義了防御方法,引入了分布式任務自主,采用由小型人類團隊操作的眾多無人系統。核心軟件提供傳感器融合、目標識別和跟蹤、智能網絡、指揮和控制。與其他解決方案不同的是,Anduril 的方法是通過添加可操作的使能因素,將其人工智能的覆蓋范圍擴展到 Lattice 核心之外--在安全領域,這些使能因素包括 Sentry 傳感器、Anvil 和 Roadrunner 反制措施。在進攻性打擊任務中,例如在美國陸軍的 "空中發射效應 "中,該系統通過Altius長續航時間傳感器、Fury Attritable飛機和Altius 700M效應器,將Anduril的移動自主概念發揮到極致。作為一個集成解決方案,它通過擴展覆蓋范圍、能力和態勢感知,使人類能夠使用自主系統,同時使作戰人員能夠更快地做出更好的決策。
為何選擇:C3.ai 的突出之處在于其將各種人工智能工具整合到 AI-Readiness 中的戰略,這是一個安全、統一的平臺,具有可信任、彈性和可互操作的可擴展系統,可在整個生命周期內連接和管理復雜且不同的資產。
影響: 通過提高決策和運營效率,C3.ai 的解決方案優化了資源管理和維護計劃,證明了人工智能在提高國防資產的可用性和使用壽命方面的作用,同時還能保持高安全標準。為支持引入人工智能驅動的解決方案,該公司提供了一個人工智能開發工作室,將技術評估加速到數天,并在數周或數月內完成應用開發和部署,而不是數年。
為何選擇:赫爾辛公司代表了新一輪專注于專業人工智能應用的國防初創企業,他們得到歐洲主要國防企業的支持,凸顯了赫爾辛公司在人工智能國防市場的潛力和影響力。
影響:赫爾辛公司在情報分析和決策支持方面的人工智能解決方案利用先進的目標識別和人工智能賦能的電子戰技術,與其他合作伙伴的解決方案一起,必將成為雄心勃勃的未來空戰系統(FCAS)這一任務系統的人工智能支柱的一部分。赫爾辛公司專為現代戰爭量身定制,將為未來提供獨一無二的人工智能國防和航空應用。自 2022 年以來,赫爾辛公司一直活躍在烏克蘭,為前線作戰提供能力和技術。
正如這些領先公司所展示的那樣,航空航天和國防領域正在走向以人工智能為中心的未來。市場格局多種多樣,發展迅速。每家公司都以獨特的方式塑造人工智能的市場、技術和未來,凸顯了人工智能對全球國防和航空航天戰略的變革性影響。這一趨勢增強了當前的能力,為軍事和太空行動開辟了新的可能性,標志著國防技術進入了一個新時代。
參考來源:DEFENSE UPDATE
一種新的軍事力量倍增器正在出現。這就是軍事物聯網(MIoT),一個從不斷擴大的網絡來源中獲取數字數據并加以整合,從而創建一個多維情報和行動世界的世界。軍事物聯網由許多技術促成,其中有些是我們熟悉的技術,有些是新技術,但由于設備互操作性的進步和信息處理能力的提高,所有技術都在不斷融合。MIoT 正在成為新的軍事前線,帶來了非凡的能力進步,但也帶來了規劃、管理和部署方面的挑戰。
我們生活在一個互聯的世界。在這個世界里,任何類型的設備或機器,無論是數字還是模擬的,都可以利用體積小、重量輕、價格低廉的無線傳感器和交換機連接到網絡上。所創建的網絡可能在設計上受到限制(即所謂的 "邊緣計算 "模式),也可能是全球數據云的組成部分。但原則上,一切都可以與其他一切相連接。對于軍方來說,這為情報和實時控制從交通或基礎設施管理到動能戰場等各種情況創造了可能性。
從傳感技術中獲取情報并非新生事物。在軍事領域,它已有一個多世紀的歷史。例如,英國陸軍在第一次世界大戰中設計的坑道傳感器。在西線靜止的塹壕戰中,地道挖掘成為一種重要的進攻戰術,陸軍缺乏監聽敵方地道挖掘活動的人員;取而代之的是安裝了遠程傳感器(Tele-geophones 和 Seismo Microphones),只需兩名士兵在中央監聽交換站就能監測 36 個地點。
在第二次世界大戰中,雷達技術脫穎而出,這項傳感技術于 1904 年由德國研究人員首次申請專利,但在成為重要工具之前一直被忽視。隨后,美國在 20 世紀 50 年代部署了聲音監視系統來探測蘇聯潛艇。
所有這些傳感器技術都使用網絡中的遠程設備來整合數據,從而提高數據在沖突中的價值。但是,這些設備成本高昂,有時還不可靠,最常見的是有線設備,其帶寬、數據存儲容量和處理能力近乎無限,早于互聯網時代。
軍事物聯網則不同。如今的傳感器無處不在,具有移動性。它們可在從移動電話蜂窩網絡到安全點對點通信等各種通信網絡中運行。它們可以在大范圍內以低功耗運行(如已在樓宇管理系統中廣泛使用的 WLAN 網絡),并可在不使用服務的情況下持續運行數年。它們可以報告機器和設備的位置和狀態,執行命令,或使用生物識別數據來識別人員和監控生活功能。最重要的是,它們具有潛在的互操作性,能夠將數據輸入各種網絡和機器智能功能。
要實現物聯網的潛力,面臨的挑戰相當大。它需要高水平的組織技能和數據處理能力,以整合普適傳感、普適計算和普適通信。軍事組織必須能夠接受來自各種動態傳感器的信號,如靜態地面傳感器和士兵佩戴的傳感器,以及來自固定和移動設備的數據,包括來自無人機和衛星的情報。它們需要敏捷地跟上不斷變化的技術,同時向潛在對手隱藏自己的能力和知識。
例如,在五年或十年后,MIoT 技術確實有可能讓士兵舉起一個手掌大小的設備,只需輕觸按鈕,甚至在黑暗中,就能在幾秒鐘內知道周圍每個人的身份。然而,要實現這一目標,就必須具備連接多個數據庫和匯集一系列探測技術的能力。這種態勢感知的好處還必須與公民的隱私權和數據保護權相平衡。
圖 1:指揮網絡
只要能夠應對這些挑戰,就有機會創建一個以無與倫比的豐富信息為基礎的領域,其高速、高帶寬網絡既安全又不受干擾,互聯和自愈網絡及數據庫支持人工智能實時決策,豐富的數據與軍事組織及其條令完全融合。
隨著人工智能發展速度的加快,國防規劃人員開始重視人工智能技術為指揮和控制帶來的超匹配能力。大量的規劃、計劃和預算編制工作已經開始,這將提高未來戰場上的通信能力和生存能力。現在,部隊也在設計和原型開發現代系統,以幫助指揮官比以往任何時候都更全面地感知、觀察、定位、決策和行動。它們將穿透戰爭迷霧。
隨著武裝沖突時間的縮短,會產生哪些技術影響?過去可能耗時數年的戰爭可能在數月甚至數周內就能決定勝負。歷時數周的行動必須在數天或數小時內完成。而指揮官們在做出決定之前,在歷史上可能有充足的時間,但現在卻不得不在幾秒鐘內做出決定。每個指揮所的組織和運行將發生怎樣的變化?這些都是軍事領導人面臨的重大問題,因為他們正在規劃一條融合并充分利用自主性、機器學習、可信通信和邊緣計算優勢的前進道路。
場景設想
一只兔子正在咀嚼三葉草,咬到一半就僵住了,耳朵轉向左邊。透過樹林,它聽到了另一種生物向它走來的腳步聲。如果聲音的來源是捕食者,兔子就準備逃跑,它聽著不明動物的四只腳有節奏地小跑,看著它出現在空地邊緣。它飛快地躲開了這只越來越近的四足動物,因為它從未見過這樣的動物。這只像狗一樣的生物是當晚在該地區出現的 12 個自主機器人之一,它們在一個摩托化師準備建立的指揮所周圍的關鍵地形上各就各位。這是戰爭的開端,這些狗的任務是進行偵察。
幾分鐘后,隨著師長和參謀人員停下腳步并建立防御態勢,一陣低沉而穩定的裝甲踩踏聲從樹林中傳出。指揮所的自主防御部隊--軍犬--現在占據了安全位置。“軍犬”每三個一組。當其中一只正在進行四小時輪班時,另外兩只正在充電。
這些“軍犬”距離指揮所很近,可以將自己作為網狀網絡的節點進行通信和數據傳輸。在沖突的這一階段,“軍犬”只有一個簡單的交戰規則:如果有人類靠近,就向指揮所發出警報。如果探測到人類,它們就會使用傳感器記錄并向指揮所傳輸音頻、視頻和熱紅外數據。被指派保衛指揮所的連長將根據該人是友軍、敵軍還是非戰斗人員來決定采取何種行動。
在行動的這一階段,指揮所將在原地停留長達 48 小時,然后再移動。在這 172800 秒的時間里,“軍犬”每小時將以近乎穩定的速度傳輸 288 千字節。這是它們的指揮和控制數據傳輸速率,可以讓它們一遍又一遍地重復熟悉的模式--向左看、向前看、向右看、報告系統狀態、重復。這可以確保它們彼此保持聯系,并保持警惕。如果它們懷疑或探測到附近有人類,那么它們的數據傳輸速率就會膨脹到每小時 720 千兆字節,來自機載傳感器的態勢感知觀測數據。
在這種環境下,帶寬在功率、重量和冷卻方面都很昂貴。通信資源還有其他需求者。由于該師的每個成員及其設備都是一個傳感器,因此還有更多的情報、監視和偵察信息在網絡上爭奪優先權。后勤系統、語音通信、地理空間更新、指揮命令、醫療診斷數據和氣象數據都在試圖通過這些網絡進行傳輸。此外,還有計劃的網絡限制和從主要路徑到備用路徑的轉換,以混淆任何敵對系統對該師真實組成和身份的認識。
出于這些原因,"軍犬"機器人(或分艦上的其他傳感器)中的計算機視覺模型必須盡可能減少誤報。值得慶幸的是,軍犬"眼睛 "上的計算機視覺模型已經在高度多樣化的生物群落、一年四季、無數種天氣和光線條件下完成了近五萬小時的訓練。它們還消耗了關于現代軍事遮蔽物對視覺的影響、偽裝技術和模式以及人類和機器人軍事編隊的步態和身體姿勢差異的特殊訓練數據。盡管這種訓練數據機制聽起來令人印象深刻,但它不可能考慮到所有情況,這也是為什么該師的機器學習作戰部門準備根據部隊遇到的生物群落以及首戰中不可避免的敵方戰術、技術和程序變化,對軍犬和其他傳感器進行微調的原因。
重新訓練計算機視覺模型與所有其他統計分析一樣。簡單地說,需要有一個有代表性的樣本,以便用數學方法表達樣本關鍵變量之間的關系。在計算機視覺中,場景中的物體--天空、云層、地平線、有樹的山丘、無樹的山丘、單個建筑物、建筑物上的窗戶、透過窗戶看到的人臉等等--都是樣本。每只"軍犬"的傳感器都在收集周圍生物群落的無數樣本。在這些樣本中,有計算機視覺模型從未見過的新的異常值,因為它的制作者沒有一個能容納地球上所有多樣性的實驗室。
經過最初 8640 秒的夜間巡邏,"軍犬"誤報了一只熊,這只熊蹣跚地走到一棵樹下,然后用后腿站起來,試圖去夠一些橡子。當它這樣做時,其中一只"軍犬"發現了它,通過傳感器捕捉到了幾分鐘的畫面,并向指揮所安全人員發出警報。在早上的員工會議上,指揮所安全連連長問機器學習操作人員,他們能對這只讓他們夜不能寐的熊做些什么。
機器學習小組是整個聯合部隊的眾多小組之一。他們都在沖突的早期階段收集樣本。感知到的異常值以及所有觀察結果中的大量隨機樣本,都會根據其能力和隊列優先級流回戰區內外的計算集群。部分數據通過戰術網狀網絡傳輸。其他數據則由在單元間移動的各種后勤車輛被動收集,然后通過物理存儲設備傳輸移動。
數據科學家在處理整個視覺傳感器隊的誤報時,確定他們對當地熊類的觀察結果具有統計學意義,可以將所有觀察結果反饋給人工智能數據產品團隊,以完成一輪半監督負訓練,將其分類為非人類和非戰斗人員。團隊相信,新訓練的計算機視覺模型對熊的誤報率將減少約 70%。
早期樣本的另一個重要發現是發現了計算機視覺模型未檢測到的敵方戰術哨兵。這種誤報可能會對部隊保護造成不利影響。哨兵就像一只坐在樹枝上的鳥,但實際上它是一個離散的視聽傳感器包。通過將哨兵的多次觀察結果與互聯網上業余觀鳥者的視頻樣本進行比較,數據科學團隊能夠訓練出一個分類器,將哨兵與活鳥區分開來。
有了這個新的計算機視覺模型,團隊就可以準備軟件更新策略了。在接下來的 21600 秒內,整個聯合部隊將部署數百個計算機視覺更新。它們不可能也不應該一次性全部部署。在過去三年中,這些團隊已經數百次實踐了這種持續集成和持續交付(CI/CD)方法。與現代云計算提供商一樣,他們也有一套部署策略,通過一系列測試和小規模部署來確認功能是否正常。
除了這些現代軟件實踐外,機器學習操作人員還確保他們的計算機視覺模型部署到狗的樣本中,這些狗會重新觀察類似鳥類的對象,以及熊產生誤報最多的地方。由于新數據顯示誤報和誤報率大幅降低,團隊繼續在計算機視覺傳感器機群的其余部分進行部署。值得慶幸的是,更新計算機視覺模型可以有效利用帶寬。根據傳感器的不同,原始模型的大小在 40 到 60 兆之間。更新只需原始模型的 10%-20%,在這種情況下,更新只需五到十兆字節。所有這些微小的效率在戰術邊緣及其潛在的拒絕、斷開、間歇或受限條件下都非常重要。
在每個數據時代都必須進行的一系列更新就是新的戰斗演練。它們必須像士兵清除卡住的武器一樣熟悉和磨練。
必須展示哪些概念才能最終投入實戰?軍隊編制、人員和領導者必須如何采用和塑造這些新的數據作戰演習?美國陸軍已經開始了云計算、軟件定義網絡、算法戰爭、自主性和人機團隊的數字奧德賽。美國各軍種都在迅速啟用其采購、安全和信息技術干部,以提供這些技術和實踐。由此產生的軟件開發實踐不僅限于后臺職能部門。它們正通過傳統和替代性的采購途徑,在各個層級同時出現。久經考驗的研究、開發、測試和評估計劃,以及專門致力于成功實現數字化和人工智能能力的新組織,都在加速這些實踐。引領這些新努力的是一個擁有共同愿景和重新審慎承擔風險的領導者網絡。
走進任何一家新的軟件工廠或 Dev/Ops(開發/運營)軟件團隊,如 AFWERX、SOFWERX 等,就會看到了解自己使命和技能的專業人士。就像他們之前在航空、機械化作業和非機組人員系統領域的先驅一樣,他們知道自己所從事的工作的新穎性很容易被誤解或否定。然而,當他們考慮到烏克蘭和以色列正在進行的戰爭時,他們積極推動新能力的發展,以戰勝任何對手。
所有這些工作都有意義所在。要想讓它們結出碩果并最大限度地影響軍事效率,領導者必須積極努力,加快團隊的效果。為此,他們可以采取幾個關鍵步驟。
首先,消除開發團隊與最終用戶之間的距離。這對成功采用軟件和硬件至關重要。用戶和開發人員之間的接觸點是你應該衡量和投資的。如果用戶沒有破壞技術,而開發人員也沒有根據他們無法預料的用例迅速調整技術,那么你就會把這些不幸的發現推遲到第一場戰斗中。
第二,與官僚機構中的現狀偏見作斗爭。如果有人告訴你,生成式人工智能沒有需求,那么請提醒他們,在軍事史的其他拐點上,槍械、坦克、飛機、反簡易爆炸裝置和反無人機技術也沒有需求--直到技術和用例匯聚在一起,使需求變得非常明確。
第三,將人工智能項目分解成一個組合,在一般的開發、安全、機器學習、運營(DevSecMLOps)流水線與不同機器學習學科(如自然語言、計算機聽覺和計算機視覺)的獨特需求之間取得平衡,以滿足遙感、感知和自主等不同應用的需求。
第四,除了你的團隊正在構建的人類角色外,還必須為另一個用戶--新興力量結構中的機器角色--提供服務。部隊結構中每個支持機器學習的設備都需要一個人工智能就緒的數據產品戰略和數據網絡戰略,以便在各種沖突、生物群落和任務中對其進行再訓練。當人類繼續消耗豆子和子彈時,機器將消耗電池和字節。
第五,除了已經建立的物理和虛擬訓練環境,還需要一個設備農場、一個模型動物園和一個數字孿生家族。移動應用開發人員必須在各種設備制造商之間進行測試,以確保向前和向后的兼容性。設備農場可以幫助開發人員從這些異構設備群中快速獲得技術反饋。在下一個戰爭時代,這些設備可能是四足機器人、無人機群,也可能是載人履帶車。機器學習工程師建立并迭代了大量開源和專有模型。在對它們進行訓練和再訓練的過程中,工程師們將擁有越來越多的模型集合(動物園),這些模型將成為在新情況下進行快速微調的更好起點。數字孿生將有助于確保您擁有一個具有充分代表性的環境,以展示新的網絡-設備-數據-模型組合的預期效果。
第六,零信任運動。就像 Hedy Lamarr 和 George Antheil 發明的跳頻擴頻一樣,零信任系統不斷強制執行憑證和其他證書的連接、輪換和重新認證,以確保安全一致性,抵御外部和內部威脅。要做到這一點是一門復雜的藝術,但您應該在數據和系統訪問中要求具備這種能力。BYOD(自帶設備)是企業能夠以零信任方式運行的標志。當您可以信任員工帶去工作的異構敵對外國設備時,您將具備必要的組織和技術實力,與盟友和聯合部隊中的任務合作伙伴實現同樣的目標。
第七,組織需要每周部署到生產中,領導應參與 CI/CD 流程。現代云計算服務通過多種策略實現高可用性。其中最關鍵的是,在發生中斷事件時,開發人員與其領導之間通過軟件定義的連接。在純粹的形式下,DevOps 意味著構建軟件的同一個團隊也會部署軟件,如果部署失敗,他們會在半夜接到呼叫。這就加強了測試過程中對細節的關注。傳呼過程還可以與主要領導聯系起來。如果知道有一定的時間來解決軟件部署失敗的問題,并在經理被傳呼之前恢復正常服務,那么每個人都會在測試過程中更加關注細節。
第八,明確允許在哪些領域進行 "系統 1 "和 "系統 2 "機器思維實驗。丹尼爾-卡尼曼(Daniel Kahneman)在《思考,快與慢》(Thinking, Fast and Slow)一書中普及了現代人對人類思維能力的理解,即人類的思維能力是兩個系統的副產品。系統 1 自動做出快速反應,就像 "戰斗或逃跑 "反應一樣。你的視覺、聽覺或嗅覺幾乎不費吹灰之力就能處理房子著火的情況。卡尼曼將其與系統 2 區分開來,后者 "將注意力分配給費力的心理活動",并完成復雜計算等任務。通過它,我們對何時將精力分配給專注力有了更多的自主權和選擇權。人機協作的關鍵在于將系統 1 和系統 2 的任務分配給合適的隊友。
我們不希望有一天會經歷這種情況,但在未來的戰場上,兩支陸軍將在夜間發生沖突。清晨,雙方的幾個營可能只剩下殘兵敗將。哪一方能更快地執行重組戰斗演習,哪一方就能立即獲得優勢。從原屬組織脫離并加入新組織的任務命令需要幾個行政和控制步驟。指揮官應首先選擇新的領導和編隊,這是系統 2 的流程。不過,一旦命令下達,一系列系統 1 應用程序和信息應能使所有人員、醫療、后勤和其他支持數據迅速準確地傳送到新的指揮人員手中。如果我們把眼前的工作做好,新營應該能在 3600 秒內做好戰斗準備,而不是 28800 秒。分秒必爭。
參考來源:The Modern War Institute
在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。
在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。
即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。
但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。
這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。
AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。
新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。
與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。
最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。
隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。
因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。
AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。
例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。
在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。
這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。
人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:
2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。
"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。
試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。
正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。
放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。
當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。
除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。
正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。
"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。
這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。
在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。
確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。
關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。
參考來源:International Committee of the Red Cross
近來出現了新的作戰方式。涉及信息、說服和感知的非傳統戰術可以取代傳統的軍事戰斗。學者和公眾對** "智慧戰"(wisdom warfare)**越來越感興趣。
"智慧戰"這一新的戰略方法旨在影響未來結果,實現近期軍事目標。智慧型作戰人員利用對手的知識和戰略規劃差距,在不進行人身攻擊的情況下實現目標。
戰略規劃與和平方法可以創造持久的變革。然而,我們必須認識到,只要有足夠的證據和令人信服的論據,態度和行動就可能發生改變。必須強調的是,"智慧戰"的概念并不能取代當今的傳統沖突模式,因為當今的肉搏戰受到心理和文化因素的影響。
智慧戰可以被描述為一種政治斗爭,在這種斗爭中,一派宣稱自己擁有比對手更多更全面的知識或信息。可以通過操縱信息傳播、傳播誤導性信息以及利用其他宣傳手段來達到目的。戰場上明智的士兵盡可能不訴諸暴力。相反,他們依靠心理方法來影響敵人、朋友和公眾的思想和行動。智慧戰不同于其他類型的戰斗,因為它在戰略上利用知識和力量來利用對手的弱點和長處,使其獲得不公平的優勢。
智慧戰指的是采用多種策略來實現軍事目標的做法。其中一種方法被稱為 "心理作戰"(PSYOPS),其他方法包括 "網絡作戰"、"誤導戰術 "和 "敘事框架"。
隨著互聯網和其他數字通信形式的發展,智慧戰已成為一種世界性現象。這意味著不同的團體現在可以在其物理邊界之外影響事件和改變輿論。在做出戰略選擇時,知識戰士經常會使用一些方法來確保自己不會出丑。在試圖弄清誰在某一事件中做了什么時,這種有條不紊的手法很難找到具體的人或國家。
故意傳播不準確或欺騙性信息,目的是影響公眾情緒,制造不確定性,削弱對機構或對手的信心。心理行動(PSYOPS)包括利用戰略性心理戰術對個人或集體的認知過程、情感狀態和行為模式施加影響,經常使用的技術包括宣傳、欺騙和說服。
以符合自身觀點和目標的方式影響對某一問題或爭端的描述的行為。這可能包括有選擇地強調某些事實細節,同時盡量減少其他細節,構建一個獨特的敘事框架,或采用說服技巧來喚起情感反應。
利用網絡攻擊、黑客攻擊和信息戰來阻礙重要基礎設施、竊取機密信息或影響數字系統,會產生重大的心理和戰略影響。利用社交媒體平臺進行宣傳,參與網絡蠱惑,影響公眾對話。利用文化外交、教育交流、傳播自己的文化和理想,在國際平臺上施加影響,培養好感。
智慧戰現象有可能破壞人們對機構、政府和媒體的信心,從而給社會帶來辨別可信信息和虛假信息的挑戰。由于透明的信息生態系統的固有特征,很容易受到智慧戰現象的影響。通過虛假信息行動傳播虛假或誤導性信息有可能破壞政治進程,削弱體制的力量。
智慧戰現象有可能促進沖突的全球化,使國家和非國家行為者能夠在全球范圍內擴大影響和追求目標,而無需依賴常規的軍事部署。在戰略信息戰的背景下利用虛假信息和網絡攻擊會引起道德和法律方面的關切,涉及軍事行動的管理條例以及相關政府和非政府實體的責任。為了有效應對智慧戰現象,社會必須制定戰略,促進抵制虛假信息,提高媒體素養,并為加強網絡安全措施分配資源。
智慧戰的概念是沖突的一種動態表現形式,它承認信息、觀念和影響力在塑造國家行為和選擇方面的重要性。這一概念包括各種戰術和方法,其目的是在認知領域取得超越對手的競爭優勢。智慧戰的基本要素包括心理戰(PSYOPS)、誤導運動、網絡戰和操縱輿論。心理作戰在戰爭中心理戰術的戰略實施中發揮著舉足輕重的作用。心理戰術被用來對人和群體的態度、信仰和行為施加影響。
軍事專業人員(即決策者)利用心理戰術(PSYOPS)將重點放在敵方民眾身上,有可能破壞對方部隊的決心和團結。在 1990 年至 1991 年發生的海灣戰爭中,美國對伊拉克士兵使用了心理戰。一個值得注意的策略是利用擴音器向伊拉克軍事人員傳播信息,有效地說服他們中的相當一部分人選擇向聯軍投降作為最安全的行動方案。
心理壓力的存在在促使大量人員叛逃和投降方面發揮了關鍵作用,從而導致伊拉克軍力明顯下降。造謠活動包括蓄意傳播不準確或欺騙性信息,目的是誤導和迷惑對手。這些戰術從戰略上利用對手信息生態的弱點,從而擾亂秩序,助長沖突,并逐漸削弱人們對權威信息來源的信心。
網絡戰包括利用數字工具滲透、破壞或損害敵對實體的信息系統。上述攻擊有能力專門針對重要的基礎設施、政府實體或軍事網絡,造成重大傷害和傳播混亂。
2010 年發生的針對伊朗核設施的 Stuxnet 網絡攻擊在學術文獻中有大量記載。人們普遍猜測,Stuxnet 是美國和以色列的合作成果,其目的是通過使用一種復雜的惡意軟件來破壞離心機設備,從而破壞伊朗的核計劃。上述秘密行動有效阻礙了伊朗對核能力的追求,并展示了網絡戰在破壞敵對國家作戰能力方面的功效。
智慧戰的概念包括在戰略上操縱對手國內的輿論。通過操縱敘事和觀念,有可能削弱社會凝聚力,加劇內部分歧,降低政府機構的公信力。促進媒體掃盲和培養批判性思維能力對個人有效區分可靠信息和欺騙行為至關重要。
將媒體掃盲計劃納入正規教育有可能培養一種更能抵御操縱的文化。建立自主的事實核查組織可以在核實信息和識別誤導性敘述方面發揮關鍵作用。倡導媒體和社交媒體平臺對虛假內容進行標注或刪除,可以有效遏制其傳播。政府和技術公司必須在內容過濾和廣告行為方面保持透明度。
問責機制,如實施監管控制和對傳播虛假信息實施制裁,有可能阻止和勸阻惡意行為者從事此類活動。在政府實體、國際組織、技術公司和民間社會之間建立合作關系至關重要。通過分享最佳做法、威脅情報和協調應對措施,可以提高反制措施的有效性。加強網絡安全協議可以有效保護重要的基礎設施和信息系統,防止網絡攻擊助長戰略信息戰。
利用端到端加密和建立安全的通信渠道有可能有效限制與竊聽和數據篡改相關的風險。各國政府和民間社會組織有能力發起提高公眾認識的運動,教育公民了解與智慧戰相關的戰略和目標。這些計劃有可能促進網上道德行為和舉報潛在可疑內容。技術企業必須優先發展符合道德規范的人工智能(AI)算法,以促進內容多樣性,減少回聲室的盛行。
實施優先推廣高質量材料而非嘩眾取寵的算法,可作為減少不正確信息傳播的有效措施。政府必須制定全面的危機傳播戰略,以有效應對危機和災難期間的虛假信息傳播。提供及時準確的信息有可能緩解恐慌和迷茫的情緒。
旨在建立有關網絡空間領域負責任行為的國際標準和協議的外交努力有可能阻止國家支持的網絡戰爭行為。這些協議可能包含不干涉他國信息生態系統的條款。民間社會組織 (CSO) 在監督和揭露虛假信息行動方面發揮著關鍵作用。這些組織有可能與技術公司、政府和國際實體開展合作,以有效解決智慧戰問題。
盡管實施上述補救措施至關重要,但在應對智慧戰的過程中也存在各種問題。將虛假信息歸咎于個別行為者或國家是一個經常遇到的挑戰,因此阻礙了實施精確而有針對性的補救措施。智慧戰現象往往超越國界,因此必須開展國際合作與協調。對手能夠迅速調整和應對反制措施,因此需要不斷創新應對技術。
智慧戰是當代一種新興的作戰范式,以信息操縱、施加影響和感知管理為核心的戰略取代了傳統的武力和武器交戰手段。
當前范式的轉變要求我們重新評估既定的安全條令,并制定新的措施來有效應對和盡量減少認知戰的影響。在這個以全球互聯性和數字化日益增強為特征的時代,有效駕馭信息的復雜動態并施加影響的能力將在決定國家和全球整體框架的安全與穩定方面發揮至關重要的作用。
參考來源:WGI.WORLD,作者:Rana Danish Nisar
人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。
人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。
電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。
將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。
在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。
此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。
人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。
不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。
最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。
最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。
自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。
人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。
土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:
第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。
《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。
焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。
土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。
土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。
土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。
土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。
土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。
土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。
培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。