人工智能(AI)融入軍事行動對國際和平產生重大影響,國際社會、學者及政策制定者亟需全面理解其含義。本研究探討現代戰爭中圍繞人工智能的倫理問題,重點關注問責機制——特別是在自主系統故障情形下。基于技術決定論理論。主題分析表明,戰爭中日益增加的人工智能應用引發了有關問責、人類尊嚴及沖突未來的深刻倫理質疑。研究建議建立全球框架以規范人工智能在軍事行動中的使用。
人工智能在軍事行動中的出現已引發關于其倫理影響的激烈爭論。隨著人工智能技術日益精進,其改變現代戰爭的潛力不斷增強,進而對問責機制、人類尊嚴及沖突未來提出關鍵性質疑。人工智能(AI)的迅猛發展具有巨大的潛在優勢(Rowe,2022年)。為避免人工智能在社會應用中引發不可預見的危害與風險,我們必須審視人工智能系統的所有倫理維度。與科幻小說緊密關聯的普遍誤解是:人工智能由能完全感知環境的仿人機器人構成(Osimen, Fulani, Chidozie & Dada, 2024年)。然而根據Copeland(2024年)的見解,其內涵遠不止于此——人工智能(AI)指計算機控制的機器或機器人執行需要與人類同等智能的任務的能力;它們被認為能夠思考、理解并從先驗經驗中學習(Osimen, Fulani, Chidozie & Dada, 2024年)。
無論學者持何種觀點,過去20年間人工智能始終以加速態勢發展。因此,人工智能技術已深刻影響美國及其他工業化國家人民生活的多個維度。人工智能正滲透至日常生活的諸多領域,包括智能手機、移動測繪導航系統、自然語言交互計算機、定向在線營銷及定制化社交媒體信息推送(Morgan, Boudreaux, Curriden & Klima, 2020年)。隨著自動駕駛汽車等自主機器人技術獲得社會認可與整合,此趨勢將持續強化(Morgan, Boudreaux, Curriden & Klima, 2020年)。人工智能已迅速成為日常生活的重要部分,深刻影響著醫療保健、教育、金融及娛樂等行業(Marwala, 2023年;Adom, Kportufe, Asare-Aboagye, & Kquofi, 2024年)。
艾倫·圖靈1950年的論文《計算機器與智能》被公認為人工智能的奠基性著作。在這篇論文中,著名數學家兼計算機科學先驅艾倫·圖靈設問:機器是否終能進行推理(Anyoha, 2017年)?縱觀歷史,追求技術進步常被合理化作為實現軍事優勢的手段。自塹壕戰遭棄用后,作戰焦點已從直接物理對抗轉向數字戰爭領域(Chukwudi, Osimen, Dele-Dada, Ahmed, 2024年)。技術最初用于制造更強大的武器系統,但迅速擴展至機械化作戰,從而開啟新時代(Military Africa, 2023年)。Parkin(2015年)指出:在涉及致命性武力的軍事技術與規劃中,以人工智能(AI)軟件替代人力的構想正日益普及。鑒于軍事沖突的危險性,推動參與者自動化的動力尤為強勁(Osimen等, 2024年)。例如,韓國采用基礎人工智能技術的自動炮塔已獲廣泛應用(Parkin, 2015年)。
然而,Alderman、Daniel與Ray(2018年)對軍隊在沖突期間乃至相對和平時期為加強安全而使用人工智能引發的倫理問題表示憂慮。最尖銳的批判聚焦于:機器人可能在未經人類操作員直接授權的情況下殺人,甚至可能在武器選擇錯誤目標時脫離人類監督或干預能力。此外,對人工智能其他應用也存在擔憂——例如決策支持系統可能建議采取更極端措施乃至先發制人的打擊,而指揮官無法審查其復雜運算邏輯;或公民因人臉識別系統及其他尖端人工智能計算被誤判為恐怖分子或罪犯,從而面臨監禁乃至處決(Alderman, Daniel, & Ray, 2018年)。
現代戰爭中人工智能(AI)的應用已引發嚴峻倫理困境與挑戰。隨著技術發展,人工智能在軍事行動中的使用正日益影響作戰效能、目標精確度及決策流程。然而,此進步亦伴隨隱憂:包括潛在的人權侵犯、人工智能決策失準、人類問責弱化,以及違反國際人道法(IHL)的風險。缺乏有力的道德標準與法律框架來規范人工智能在戰斗中的應用,加劇了這些問題,進而引發對創新與問責間張力、技術對平民的影響及自主性在殺戮決策中作用的擔憂。為確保人工智能在戰爭中的使用符合道德標準與國際規范,必須嚴格審視這些難題。
本研究旨在探究這些倫理問題,聚焦自主系統帶來的挑戰,強調建立全球監管框架的必要性,并應對現代戰爭中人工智能開發與應用引發的倫理議題。本定性研究采用二手數據分析法,援引來自在線資源、教科書、期刊論文、會議記錄和報紙的可信數據源,運用主題分析法識別并解析數據模式。
為破解軍事智能裝備預測性維護中智能化與網絡化程度低、物理模型構建困難等問題,本研究針對人工智能技術在軍事智能裝備中的應用框架、關鍵技術及保障決策方法展開探索。通過將預測性健康管理(PHM)系統架構融入軍事智能裝備健康管理體系,充分發揮人工智能全域通信、泛在感知與自主學習等核心能力,實現軍事智能裝備健康管理的數據驅動化、智能化和網絡化轉型。本研究成果可為復雜戰場環境下軍事智能裝備保障提供參考路徑,有效降低運維成本,持續提升保障效能。
本文重點研究人工智能技術(AIT)在機電控制系統(MECS)中的應用:首先闡釋AIT基礎理論與概念框架,繼而開發現代化AIT核心技術,結合我國現代企業機電控制系統現狀剖析現存瓶頸,最終探究AIT與機械系統的融合路徑,重點討論其在機械電子孔口子系統與電氣控制系統集成中的實踐應用。
"軍事智能裝備"泛指具備預測、感知、分析、推理、決策及控制能力的裝備體系。其在裝備數控化基礎上演進為更高級形態,可顯著提升生產效能與制造精度。其發展關鍵技術涵蓋缺陷檢測與健康維護技術(如高端數控機床、工業機器人),而故障預測與健康管理(PHM)技術正成為未來保障體系的核心方向。隨著軍事智能裝備復雜度提升,構建部件或系統的精確數學模型愈發困難。利用裝備全生命周期多節點歷史數據進行建模,相較物理分析模型更有利于實現PHM功能。鑒于軍事智能裝備向信息化、智能化、網絡化演進,其維護流程也需同步實現網絡協同與智能決策。本研究聚焦PHM與人工智能的融合應用,著力提升軍事裝備智能保障的決策水平、力量編成、方法革新及效能增益,為PHM智能化與網絡化維護模式的落地實施提供支撐。
高端技術的廣泛運用正在深刻改變制勝機理。信息力已超越火力成為戰爭勝負的決定性要素,控制取代摧毀成為壓制對手的首選手段。作戰體系中集群單元的影響力超越傳統集中兵力效果,催生出三大新型作戰樣式:基于集群協同的"新型智能作戰"(亦稱分布式協同戰)、基于多域集群的"集群攻防戰"、以及創新理論體系衍生的"電磁全維戰",三者共同構成未來智能化戰爭的基本形態。
哪些因素決定人工智能的軍事干預傾向?盡管AI在兵棋推演與軍事規劃中的應用呈指數級增長,但對其模型核心驅動力的基礎分析尚屬空白。本文通過聯合實驗構建軍事干預決策模型,在640個情境案例中各運行100次,系統探究AI干預決策機制。分析發現:國內支持度與軍事勝率是AI決定干預的最強預測因子;國際譴責、軍人傷亡、平民死傷及經濟負面影響等成本因素雖具統計學顯著性,但效應值僅為前兩者的一半;機會窗口僅在與它因素交互時顯現統計顯著性。該規律在各類場景及不同模型(OpenAI GPT、Anthropic Claude、Google Gemini)間呈現顯著一致性,揭示AI決策的固有模式。
若2003年由AI擔任美國總統,會否發動伊拉克軍事干預?若2022年由AI擔任俄羅斯總統,會否下令對烏克蘭行動?隨著人工智能在高風險領域的普及,理解其軍事干預邏輯及驅動因素變得至關重要(Hirsh 2023; Black等 2024)。
關于AI地緣軍事決策的研究文獻激增。在人機交互領域,將AI作為獨立玩家或輔助智能體嵌入兵棋推演已成趨勢(Lamparth等 2024);純AI研究中,學者通過多場景模擬讓不同模型對抗以測定其沖突升級傾向(Rivera等 2024; Hua等 2024);另有研究訓練AI玩《外交》等復雜戰略游戲(Meta FAIR團隊等 2022)。Jensen等(2025)的新近工作轉向大樣本分析,在不同模型運行400種場景。現有共識是:AI模型常表現高升級傾向且比人類更難預測。研究空白在于厘清具體影響因素——當前人機交互與純AI研究方法均側重復雜決策建模,難以剝離行為驅動要素。
本文采用聯合實驗法(Hainmueller等 2014; Kertzer等 2021),在OpenAI GPT 4o-mini模型上運行覆蓋5類21世紀典型軍事干預場景(從人道干預到勢力范圍爭奪)的因子情境實驗,檢驗AI思維中的先驗假設。這屬于通過模擬現有調查方法剖析模型深層認知的新興研究范式(Qu與Wang 2024)。
實驗顯示:AI平均干預傾向為30/100分,既非好戰亦非綏靖。軍事干預最強預測因子是國內支持度(效應值0.17)與軍事勝率(0.15);軍人傷亡(-0.08)、平民死傷(-0.07)、經濟沖擊(-0.07)及國際譴責(-0.06)等成本因素雖顯著但影響減半;學界新近關注的機會窗口在多數場景不顯著。有趣的是,僅當國內支持與勝率雙高時,成本因素對AI的重要性才提升——這與人類"國內支持高漲時忽視成本"的常識相悖。
研究在OpenAI GPT 4o、Anthropic Claude Haiku 3.0、Claude Sonnet 3.5及Google Gemini 2.0 flash模型復現實驗。核心驅動因子跨模型高度一致:所有模型均優先考量國內支持度(效應值0.14-0.18)與軍事勝率(0.12-0.16)。Claude Sonnet 3.5是唯一異常模型,其勝率系數呈矛盾負值(-0.04)。值得注意的是,GPT 4o與Claude Sonnet 3.5等復雜模型更重視機會窗口理論。模型間好戰性差異顯著:GPT 4o均分2.1(極度反戰)至Claude Sonnet 3.5均分39.1(中度好戰)。
本文核心貢獻在于揭示AI的戰爭認知邏輯:聯合實驗表明,當前AI發展階段的軍事干預決策主要受公共支持與勝率感知驅動。隨著AI在軍事領域指數級滲透,系統化理解其機制至關重要——例如兵棋推演中作為輔助工具的AI,實則主要響應公眾支持與勝率信號(本研究揭示)。方法論上,聯合實驗為探索AI思維提供簡潔系統路徑:當前主流復雜研究方法難以分離基礎驅動因子,定性兵棋推演雖促進人機互動但缺乏系統重復性,定量多周期AI對抗推演產生過度復雜升級模式且無法剝離簡單驅動力。聯合實驗作為成熟方法,可助力跨學科學者探究各領域AI決策的核心邏輯。
人工智能在軍事教育與安全領域的融合既帶來機遇也伴隨挑戰。本研究結合場景矩陣與政策建議,為決策者和國防戰略家提供平衡人工智能發展與安全治理的見解,以促進軍事應用穩定性。該研究采用情景分析法評估四種模式——基于人工智能應用水平及治理力度的"樂觀采用"、"風險創新"、"可控進步"及"技術停滯"。研究表明:高強度人工智能應用配合強力監管可提升作戰效能與國際安全;缺乏監管的快速擴張則導致網絡安全漏洞與倫理困境。強力治理被確認為降低風險、確保人工智能負責任部署的核心要素。研究特別強調人工智能驅動的戰略模擬、網絡彈性防御及道德框架在國防戰略中的重要性。
人工智能正引發重大技術變革,深刻影響教育、安全及國防戰略等領域(Horowitz等,2018)。其在軍事應用中的整合及對全球安全的深遠影響,已引起政策制定者、研究者與國防分析專家的日益關注(Schmidt, 2022;Jensen, 2023)。當各國試圖利用人工智能增強戰略決策、情報行動和網絡安全時,必須同步應對倫理隱憂、地緣政治風險及現代戰爭形態演變等挑戰(Canton, 2020)。
人工智能在軍事備戰中的作用已超越傳統學習模式,涵蓋自適應訓練系統、自主決策支持工具及情景模擬推演(Jensen, 2023)。這些創新旨在為軍事人員提供數據驅動洞察力、預測建模能力及實時威脅分析,從而強化國家安全戰備水平(Horowitz等,2018)。然而在提升戰略運作效率、增強網絡防御的同時,人工智能整合亦引發算法偏見、人工智能賦能虛假信息威脅及對抗性人工智能操縱風險等復雜挑戰(Schmidt, 2022;Canton, 2020)。隨著各國日益依賴人工智能技術開展國防、情報及戰略行動,人工智能軍事化加劇了對其影響全球安全與戰爭形態的嚴重關切(Marwala, 2023)。
本文運用場景分析法探索人工智能在軍事教育與安全框架中潛在發展路徑。通過構建并評估"樂觀前景"、"風險創新"、"可控進步"和"技術停滯"四類場景,該研究建立結構化預測模型,剖析未來十年人工智能如何塑造全球安全格局(Jensen, 2023;Masakowski, 2020)。通過考察政策框架、技術進步及倫理考量等關鍵驅動因素,本研究致力揭示人工智能驅動教育體系與全球安全需求間的戰略契合點。最終,本文在人工智能治理框架、軍事領域負責任應用、以及人工智能教育與國家安全戰略交叉領域作出學術貢獻。通過情景分析方法論,該研究為軍事教育者、國防政策制定者及安全專家提供重要參照,闡明人工智能快速融入全球防務結構的機遇與風險。
本文通過探討巴以沖突中人工智能與無人機打擊軍事精準性的關聯,提出基于研究的AI武器系統監管策略,并為沖突解決及和平進程指明方向。以"正義戰爭"理論、"技術決定論"及"安全困境"理論三重框架為基礎,整合多維度視角分析人工智能對軍事行動的復雜影響,包括倫理后果與巴以沖突的戰略結果。研究發現:人工智能正通過無人機打擊重塑巴以沖突的軍事格局。在軍事精準性層面,AI技術支持精密數據分析,顯著提升目標識別與監控能力。然而,AI融入無人機作戰引發國際法與軍事倫理的嚴峻挑戰——即使AI驅動的精準打擊亦無法消除平民傷亡風險,其在加沙等人口稠密區的使用道德合理性引發廣泛爭議。本文指出,巴以沖突中AI與無人機精準性的未來發展需平衡技術進步與倫理考量。通過強化人類監督、問責機制及人道主義原則,相關方可在降低戰爭風險的同時發揮AI優勢。此類多維度方法對促進負責任的軍事行動及增強和平前景至關重要。研究建議建立緊急協議機制,允許實時重新評估無人機打擊決策(尤其在巴以沖突等快速變化的戰場環境),以預防非預期傷害。但最根本的是,必須解決巴以沖突的根源問題。盡管和平之路充滿挑戰,本地與國際行為體的持續承諾仍是實現持久解決方案的關鍵。
人工智能指計算機通過環境自適應能力,高效精準地模擬人類活動的技術(Emegha, 2024)。過去數十年沖突演變見證了自主性增強,民用與軍用領域中致命性自主武器系統持續增長。報告顯示,當前無人機及自主武器領域的發展主要由人工智能與機器人技術的突破性進步驅動(Hasain, 2024; 《環球時報》, 2024)。
巴以沖突因先進AI技術的引入發生深刻演變。Petrovski等(2022)指出,AI賦能的無人機已成為軍事行動關鍵工具,提供前所未有的精準性與作戰效能。據Ekelhof(2024)闡釋,人工智能作為當代最具變革性的技術,其發展可追溯至1956年——約翰·麥卡錫與同事首提"人工智能"概念后已逾六十年。
如霍姆斯等人(2022)所述并經林等人(2023)佐證,人工智能指能夠執行通常需人類智能任務的設備或計算機系統。具備AI能力的武器系統因潛在威脅人類種族而引發特殊關切,巴以沖突即為明證。歷史上,自以色列建國以來,巴以雙方因領土控制爭端長期陷入沖突。舒、宋與張(2023)指出,巴以沖突根源可追溯至英國托管時期及1947年11月29日聯合國分治方案。
2023年10月7日,巴勒斯坦哈馬斯運動襲擊以色列音樂節及周邊社區,造成超1300人死亡、1300余人被俘。此次事件導致被譽為全球最安全防御系統的以色列"鐵穹"被突破,其國土陷入脆弱狀態。報告披露這是以色列自1948年5月14日建國以來首次遭遇此類危機。哈馬斯史無前例的襲擊造成以方重大傷亡與人員劫持,隨即引發以軍強力反擊——包括對加沙的無人機空襲(哈辛,2024;戴蒙,2024)。沖突已導致包括戰斗人員與平民在內的重大生命損失,且局勢持續每日演變(塔庫拉與塔庫拉,2024)。
此輪沖突激增引發諸多亟待妥善解決的法律與倫理困境,尤以AI武器系統在機遇中暗藏威脅最為突出。爭議焦點在于:基于AI的無人機應用及武器系統因其卓越表現顯著增加了認知功能向機器的委派,而此類機器或對人類種族構成致命威脅。AI技術的這種雙刃劍特性,正是本研究需探究巴以沖突中AI與無人機軍事精準性關聯的動因——旨在提出基于研究的AI武器系統監管策略,并為和平解決沖突指明前進路徑。
過去數十年間,民用與軍用系統的自主性持續增強,而當前對自主武器的關注主要源于人工智能(AI)與機器人技術的突破性進展(Panwar, 2023)。研究顯示,巴以沖突因先進技術引入發生顯著演變——AI賦能的無人機已成為軍事行動關鍵工具,提供前所未有的精準性與作戰效能(Hasian, 2024; Ekelhof, 2024; Frantzman, 2022)。基于AI的應用與系統存在重大風險:這些系統表現出的卓越性能導致認知功能向機器的大規模委派,致使AI在無人機打擊中提升軍事精準性的行為對該沖突產生深遠影響。
AI能識別模式并預測潛在結果,輔助戰略規劃與行動執行。但社會戰略后果往往難以隔離戰斗人員與平民。Frantzman(2022)指出機器學習算法無法使交戰方有效區分戰斗人員與非戰斗人員,所謂"降低平民傷亡與附帶損害"存有爭議。AI通過功能自動化減少人員在沖突區域的危險暴露(Onyigbuo, 2024)。AI增強自主無人機的作戰能力——半自主與全自主無人機的研發標志著巴以沖突軍事實力的重大進步(Ekelhof, 2024)。
需強調AI在該沖突中通過目標識別與監視發揮關鍵作用:AI技術支持精密數據分析,顯著提升目標定位與監控能力。在無人機行動中,AI系統高效處理整合多元來源信息(衛星圖像、社交媒體及偵察數據),構建全面態勢感知以支撐精準軍事決策(Panwar, 2023)。Hasian(2024)認為巴以沖突的動態特性要求快速決策,AI與軍用無人機的集成能實現實時決策支持。Petrovski等(2022)證實AI可實時分析傳輸數據,使指揮官基于最新情報及時決策。然而將致命決策權委派給機器,引發了關于戰爭問責制與自主系統道德影響的倫理關切。
物聯網的迅猛發展有可能對人類的多個領域產生影響,作戰領域就是其中之一。本文強調了物聯網在現代戰場場景中的應用前景,分析了物聯網在增強態勢感知、提供信息優勢和通過綜合分析補充決策支持系統方面的作用。在肯定技術優勢的同時,本文還探討了物聯網在軍事應用中的安全和倫理問題。
長期以來,國防領域一直是眾多新興技術的源泉。獲得戰場優勢一直是探索和嘗試激進想法的驅動因素。第一次海灣戰爭后,時任美國海軍作戰司令的威廉-歐文斯上將在美國國家安全研究所發表的一篇研究文章中提出了 “系統簇”這一概念,從而使這種想法開始成形。他闡述了數據和網絡改變作戰的方式。這一觀點轉化為 “網絡中心戰”概念,它是三個領域的融合,即物理領域(進行演習并從傳感器獲取數據)、信息領域(傳輸和存檔數據)和認知領域(處理和分析數據)。在這一概念提出二十多年后的今天,世界各地的軍事領導人和國防專家都對這一概念的實施持樂觀態度,這主要是由于物聯網技術的成熟。烏克蘭地面部隊廣泛使用標槍反坦克導彈和 “彈簧刀 ”隱形導彈來挑戰強大的俄羅斯裝甲部隊,這就是物聯網技術在戰區成功應用的例證。
物聯網技術不應被視為 “另一種獨特的利基技術”,相反,它涵蓋了許多此類技術。因此,將物聯網技術理解為一種理念更為恰當和合理。它是多種智能化、網絡化和動態構建的設備和技術融合的結果,可以在物理和虛擬空間產生效果。IoBT 的目標是管理復雜、智能的系統之系統,普遍安裝智能傳感器和執行器,以自適應學習過程為動力,實現軍隊的戰略和戰術目標。IoBT 網格通過各種有線或無線傳感器節點實現功能,所有這些節點都是網狀的。由地面預警和無人機傳感器、自主武器、智能士兵和最先進的指揮所組成的網絡可協調行動。它可以發揮收集情報和實施動能打擊的雙重作用。它可以將士兵從執行環節中剝離出來,讓他們處于最高級別的監督地位,從而使武器能夠高度自主地分配和攻擊目標。它還能加快行動節奏,消除戰爭迷霧。
圖 1:國防戰術邊緣物聯網的目標場景
物聯網在軍事領域的應用潛力巨大,其在戰術戰斗領域的應用似乎更勝一籌,有望帶來豐厚的紅利。在以網絡為中心的作戰場景中,物聯網可無縫、有效地整合戰場指揮官所掌握的所有可用資源,幫助其做出明智決策。下面簡要介紹一些可能的應用領域。
C4ISR。部署在各種平臺上的物聯網傳感器集成網絡可在有爭議和脅迫的環境中提供更好的態勢感知。地面和空中傳感器、監視衛星以及實地士兵的組合必然會收集到各種數據。這些信息可在一個平臺上進行過濾、處理、核對、確證和保存,該平臺可調節指揮鏈上下的關鍵數據傳輸,從而實現更好的戰場協調、指揮和控制。
武器控制系統。目前正在探索利用傳感器網絡、機器學習和先進的人工智能分析技術實現自主武器系統和火力控制的可能性。這種傳感器射手網格可以提供精確的目標火力投送,并對攻擊做出完全自動化的實時響應。
作戰物流。利用智能傳感器、RFID 標簽和 M2M 通信,可以輕松實現有效的車隊管理和高效的貨物跟蹤。邊緣物聯網設備可增強對軍械、關鍵物資、口糧和服裝的實時跟蹤和供應。在監控消費模式的同時,還可以根據固有的優先級和必要性來推動物資供應模式的實施,從而大大提高行動效率。
人員管理。可穿戴物聯網傳感器可嵌入戰斗人員的個人裝備,如小武器、頭盔、服裝、背包等,實現無處不在的身體活動跟蹤和作戰數據收集。利用情境感知數據實時推斷和跟蹤士兵在行動中的健康參數和心理狀態,可提供重要的洞察力,有助于采取預防性措施以保護部隊。
訓練。物聯網還可用于加強訓練和戰爭游戲體驗。IoBT 概念可融入軍事訓練,為未來行動提供更加真實、適應性更強和更有效的準備。可穿戴傳感器可用于跟蹤正在接受訓練的士兵的生理和認知狀態,從而提供量身定制的反饋和個人優化。
管理。管理戰區的電力需求仍然是一個被低估的領域,但隨著戰場上電子設備的引入越來越多,電力和能源管理將給未來行動的規劃和執行帶來嚴峻挑戰。采用預測算法和實時物聯網數據可以大大節省軍方的能源消耗,并有助于了解使用模式。
智能監控。先進的視聽和地震傳感器以及視覺人工智能和模式識別技術可促進智能監視和監測網的建立,該網不僅可覆蓋地面,還可覆蓋海洋環境。物聯網解決方案使感知和預測生態條件成為可能,從而隨時掌握大范圍內的海上作業情況。
協作與人群感應。戰術資源的流動性和機動性給現代戰場帶來了一系列獨特的通信挑戰。協作傳感是指在移動設備之間傳播傳感器數據的過程,通常使用可靠的短程通信。物聯網節點可利用閑置傳感器來滿足自身的傳感需求。通過將傳感器與任務分配相匹配,可為任何臨時 ISR 任務提供便利。因此,作戰指揮官可支配的可用傳感和通信資源可得到最佳利用。
人工智能(AI)技術,尤其是機器學習技術,正在通過增強人類決策能力迅速改變戰術行動。本文探討了人工智能驅動的人類自主組隊(HAT)這一變革方法,重點關注它如何增強人類在復雜環境中的決策能力。雖然信任和可解釋性仍是重大挑戰,但我們的探討重點是人工智能驅動的 HAT 在改變戰術行動方面的潛力。通過改善態勢感知和支持更明智的決策,人工智能驅動的 HAT 可以提高此類行動的有效性和安全性。為此,本文了提出了一個綜合框架,該框架涉及人工智能驅動的 HAT 的關鍵組成部分,包括信任和透明度、人類與人工智能之間的最佳功能分配、態勢感知和道德考量。所提出的框架可作為該領域未來研究與開發的基礎。通過識別和討論該框架中的關鍵研究挑戰和知識差距,我們的工作旨在指導人工智能驅動的 HAT 的發展,以優化戰術行動。我們強調開發可擴展且符合道德規范的人工智能驅動的 HAT 系統的重要性,該系統可確保無縫的人機協作、優先考慮道德因素、通過可解釋的人工智能(XAI)技術提高模型的透明度,并有效管理人類操作員的認知負荷。
人工智能和自主技術的融合給包括國防和戰術行動在內的各行各業帶來了革命性的變化。HAT 的興起可歸因于幾個因素,包括自主技術和人工智能的快速進步、任務和環境的日益復雜、能力更強的自主系統的發展,以及數據和計算能力的不斷提高。隨著這些技術變得越來越復雜和強大,人們越來越認識到,將人類的認知能力與自主系統的計算能力和效率相結合,可以實現潛在的合作。現代 HAT 系統的興起也是由于需要應對快速發展和動態環境的復雜性和挑戰。隨著任務變得越來越復雜、對時間越來越敏感、數據越來越密集,人類與智能體之間的協作對于有效駕馭和應對這些挑戰變得至關重要。
HAT 是一個新興領域,探索人類與自主系統之間的協作伙伴關系,以執行任務或實現共同目標。這涉及一種協作安排,其中至少有一名人類工作者與一個或多個智能體協作。這種協作方式有可能徹底改變各行各業完成任務的方式,并為人類與智能自主系統攜手解決復雜問題和實現共同目標的未來鋪平道路。HAT 系統旨在允許人類將任務委托給智能自主體,同時保持對整體任務的控制。這里所說的智能體是指在決策、適應和通信方面具有不同程度自治能力的計算機實體。這一定義得到了先前研究成果的支持。在 HAT 中,人類的認知能力與自主系統的計算能力和效率相結合,可以提高性能、決策和系統的整體能力。
在此,將定義和澄清一些關鍵概念,這些概念對于理解本研究的范圍和背景至關重要。這些概念包括人工智能、自主、自主系統和戰術自主。通過提供明確的定義并區分這些術語,我們希望讀者能夠達成共識。
自主性。HAT背景下的自主性是指智能自主系統或智能體在團隊環境中獨立運行和決策的能力,具有不同程度的自我管理能力。這涉及到自主系統在學習、適應和推理基礎上更高程度的決策能力。它是系統的一種屬性,而非技術本身。自主實體可以感知、推理、規劃和行動,以實現特定的目標或目的,而無需人類的不斷干預。值得注意的是,自主的程度可能各不相同,有的系統可以完全自主地做出所有決定,有的系統則是半自主的,在某些情況下需要人的干預。在戰術自主方面,HAT 涉及將自主能力整合到戰術行動中。這種整合可包括各種應用,如利用自主系統收集情報、執行監視和其他關鍵活動。自主性使系統能夠在復雜和不確定的環境中運行,從經驗中學習,并在任何情況下都無需明確的人工干預即可做出決策。然而,必須將其與傳統自動化區分開來,傳統自動化通常遵循預先編程的規則、決策樹或基于邏輯的算法來執行任務或做出決策。傳統自動化的適應性和靈活性有限,無法在沒有明確編程的情況下處理動態或不可預見的情況。本文討論了人工智能驅動的自主性如何通過強調學習、適應和決策能力來區別于傳統自動化。這些能力最終會提高戰術行動中人類-自動駕駛團隊合作的整體有效性和敏捷性。
自主系統。自主系統可以在沒有人類持續控制的情況下執行任務或操作。它們利用人工智能算法和傳感器感知和導航環境,實現高度自主。
戰術自主。在本研究中,戰術自主是指自主系統在動態和復雜的作戰環境中做出實時決策和采取行動的能力。這涉及人類與自主系統之間的無縫協調和互動,使它們能夠作為一個優勢互補的統一團隊發揮作用。HAT 的重點是通過人類操作員與智能自主系統之間的無縫協調與協作,實現共同的任務目標。本文介紹了一種人工智能驅動的 HAT,它將人工智能集成到 HAT 框架中。這種方法結合了人類專業技能和人工智能能力的優勢,從而提高了決策、態勢感知和作戰效率。戰術自主性將人類的認知能力(如適應能力、直覺和創造力)與自主系統的計算能力、精確性和動態執行能力相結合,有可能給包括國防、應急響應、執法和危險環境在內的各個領域帶來革命性的變化。必須區分戰術自主和戰略自主,以明確人工智能驅動的人類-自主團隊如何在軍事和作戰環境中促進這兩個層次的自主。戰略自主是指一個國家或組織就廣泛的安全目標做出自主選擇的能力,而戰術自主與戰略自主相反,側重于單個單位或團隊在特定任務中的獨立行動。戰略自主涉及更高層次的決策和規劃,要考慮長期目標、總體任務目標和更廣泛的態勢感知。它涉及指導整體任務或戰役的協調、資源分配和戰略決策過程。
戰術行動。戰術行動涉及在特定區域或環境中的協調活動,通常是在軍事、執法或戰略背景下,重點是通過快速決策、適應動態形勢以及在局部區域和時間范圍內應用軍事技能和資源來實現短期目標。
近年來,人工智能、機器學習(ML)、機器人和傳感器技術的進步為實現戰術自主的潛力鋪平了道路。這些技術進步使自主系統能夠執行復雜任務,實時處理大量數據,做出明智決策,并與人類團隊成員無縫協作。這為增強人類能力、優化資源配置和提高整體作戰效率提供了新的可能性。然而,有效的戰術自主需要全面了解人類與自主系統之間的動態關系。包括信任、溝通、共享態勢感知和決策在內的人為因素在確保 HAT 取得成功方面發揮著至關重要的作用。必須認真應對各種挑戰,如建立適當的信任度、解決潛在的認知偏差、管理工作量分配和保持有效的溝通渠道,以確保無縫協作,最大限度地發揮戰術自主的潛在優勢。戰術自主的 HAT 是一種使用人類和自主系統來操作和控制武器及其他軍事系統的協作方法。在 HAT 中,人類操作員和自主系統共同努力實現共同目標。人類操作員負責總體任務并做出高層決策。自主系統負責執行指定任務。
正如第四節詳細解釋的那樣,人類操作員根據自己的經驗和對任務目標的理解,貢獻戰略洞察力、背景和高層決策能力。交互和通信代表著界面和通信渠道,各組成部分可通過這些渠道交換信息、開展協作并做出共同決策。在共享決策過程的背景下,人類操作員和自主系統參與協作決策過程,共享見解、數據和建議,以制定有效的戰略。自主系統負責實時數據處理、分析和特定任務的執行,為人類操作員提供及時、相關的信息支持。隨后,一旦做出決策,自主系統就會根據共同決策過程的指令執行具體任務,包括偵察、導航或數據收集。
本文全面探討了 HAT 的歷史發展和現狀,并深入探討了利用人工智能實現戰術自主的機遇、挑戰和潛在的未來方向。它強調了人工智能對戰術自主性的變革性影響,并提出了改進決策、態勢感知和資源優化的機遇。通過認識和應對與采用人工智能相關的挑戰,并規劃未來的研究方向,可以為人類與自主系統無縫協作的未來鋪平道路,最終實現戰術環境中更安全、更高效、更成功的任務。
圖1:HAT的應用。
人工智能能否解決戰爭中的倫理、道德和政治困境?人工智能(AI)驅動的戰爭如何改變我們思考戰爭倫理-政治困境和實踐的方式?本文探討了現代數字化戰爭中人機互動的倫理、道德和政治困境的關鍵因素。有觀點認為,人工智能的 “理性 ”效率可以同時為人類在戰斗中的心理和生理缺陷提供可行的解決方案,同時保留人類對戰爭機器的 “有意義的 ”控制,本文對這一觀點提出了反駁。這種龐洛士式的假設忽視了人機互動的心理特征、未來人工智能沖突的速度以及現代戰爭復雜而混亂的本質。文章闡述了人機互動的關鍵心理學見解,以闡明人工智能如何塑造我們思考未來戰爭的政治和倫理困境的能力。文章認為,通過人機融合的心理過程,人工智能將不僅僅是現有先進武器的武力倍增,而將成為戰爭中事實上的戰略行動者--“人工智能指揮官問題”。
文章分為三個部分。第一部分通過對人類與技術以及人機互動的更廣泛對接進行背景分析,為論點提供框架。文章探討了人類為何以及如何與機器和新出現的復雜社會技術系統糾纏在一起、軍事技術倫理的根源以及無風險、無摩擦戰爭的概念。報告將人工智能技術描述為這一社會技術趨勢的新表現形式。它認為,在戰爭決策中外包人類良知--幻想解決戰爭的倫理、道德和政治困境--有可能侵蝕人類與戰爭之間的重要聯系。本節還討論了質疑 “用機器取代人類一定是個壞主意 ”這一觀點的各種反駁意見(“人工智能樂觀主義者”)。例如,人類會犯錯誤,經常做出非理性的行為,而且容易產生暴力、不道德和非人化等原始本能(Haslam,2006 年;Brough,2007 年)。
第二部分探討了人機互動的心理特征。具體地說,本節分析了人類的幾種偏差--控制幻覺、啟發式捷徑(Einstellung效應、存在偏差)和自動化偏差--這些偏差會使指揮官容易濫用或過度使用軍事力量以達到不公正的目的。報告還討論了這些偏差在更廣泛的政治驅動力中的潛在影響,這種政治驅動力就是通過技術神器來實現戰爭的可預測性和集中控制。
最后,第三部分探討了利用人工智能等技術完善無風險、無摩擦戰爭的手段對軍事倫理和戰爭中的道德責任的潛在影響。它將圍繞人工智能技術將人類倫理編碼到機器中的爭論背景化。它還探討了人類情感的作用,人類情感賦予我們理性和深思熟慮的感覺,影響我們的決策,并塑造我們對倫理和道德困境--沒有明顯理想結果的情況--的反應。人類的倫理道德能否被編程到算法中?如果可以,那么如果道德責任外包給人工智能,人類又該如何保留自己的倫理和價值觀?
先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。
技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。
圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。
結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。
為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。
權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。
這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。
本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。
2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。
這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。
之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。
2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。
人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。
雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。
在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。
要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。
在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。
人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。
認識到當前軍事教育體系的特殊性,并考慮到軍事工程培訓快速現代化的必要性,人機界面需要采用創新技術來加強教育過程。我們的目的是詳細分析在培訓未來軍事工程軍官時人工智能技術的實施情況,概述現有策略,并制定通過人工智能技術強化教育過程的可行策略。為實現研究目的,通過五份問卷對 154 名教官進行了開放式和封閉式調查,以解決研究問題。采用傳統的內容分析法和數據統計處理法對答案進行了研究。結果揭示了人工智能在軍事工程訓練中應用的基本方向,以及人工智能在未來軍事工程軍官專業能力培養中的可能應用。但與此同時,研究結果表明,軍事工程訓練過程正面臨著一些挑戰,使人工智能驅動的轉型實施變得更加復雜。為了克服人工智能目前面臨的挑戰,并為人工智能在人機界面的應用提出建議,概述了通過人工智能技術加強軍事工程訓練的策略。
圖 3:通過人工智能技術加強軍事工程訓練的戰略。
根據調查結果,可以考慮通過人工智能技術加強軍事工程訓練的五項策略。
首先,對未來軍事工程軍官進行有效培訓和數據隱私控制需要制定使用人工智能的法律框架。特別是對于信息獲取受限的人機交互界面而言,這一點至關重要。由于所有烏克蘭教育機構都根據《歐盟-烏克蘭聯系協議》中烏克蘭立法與歐盟(EU)法律相協調的原則運作,因此擬議的歐盟人工智能法(歐盟委員會,2021 年)成為設計人工智能法規的基礎。同時,高校的教育過程近似于北大西洋公約組織(NATO)的標準,他們有義務在北約實施人工智能政策(Stanley-Lockman & Christie, 2021)。針對特定機構的規定可以幫助教師處理具體情況,并解決人工智能應用所帶來的具體風險。此外,官方指南還包括一份不能在人機界面中使用的高風險應用程序清單,并規定了人工智能用戶(包括教員和學員)的具體義務。我們預計,制定使用人工智能的法律框架將促進教育進程,并使學員能夠從已有的幾項創新技術中受益。
其次,將人工智能納入課程涉及將人工智能的原則、道德、法規和基本功能納入人機界面教授的課程,以及創建使用人工智能工具的綜合課程。該戰略以在培養未來軍事工程軍官的過程中有效應用人工智能工具為導向,可用于培養人工智能素養和數字能力。此外,這種影響可能有助于擴大工程單元的運作可能性,提高未來軍事工程軍官專業活動的生產力。將人工智能納入課程是培養教員和學員適應人機界面創新數字教育環境的必要條件。因此,修改現有課程將為在軍事工程訓練中正確和合乎道德地使用人工智能創造一個穩定的位置。
第三,教育過程參與者的高水平人工智能數字化能力意味著他們已準備好正確使用人工智能工具,能夠處理來自不同來源的大量信息,并理解在專業軍事活動中進行數字化轉型的必要性(Ng 等人,2023 年)。培養人工智能數字化能力需要為教官和學員開設專門課程,教授如何在數字化環境中操作以及如何避免可能出現的錯誤。人工智能數字化能力對于優化教育過程、在線環境下的工作、改善學習材料的視覺感知、使用人工智能工具創建高質量內容、收集和系統化數據、開發基于人工智能的項目、積極的在線交流、改善教學實踐、高效的課堂管理等都是必不可少的。
第四,通過人工智能技術加強軍事工程訓練需要制定具體的方法,旨在選擇教學方法和活動,使教學過程高效。適當的方法論可以讓教員合理使用學習材料,在學員中形成深厚的知識和技能,培養未來軍事工程軍官的持續學習能力。目前,人機界面的教學科目正面臨著快速轉型,我們看到的是從傳統教學方法向個性化學習和互動式教學方式的轉變。一方面,行為模型、數據分析和學習管理系統等人工智能工具促進了軍事教育的現代化,形成了有效的定制學習。另一方面,人工智能工具的使用要求根據教學科目和教學目標采用特定的教學方法。