人工智能能否解決戰爭中的倫理、道德和政治困境?人工智能(AI)驅動的戰爭如何改變我們思考戰爭倫理-政治困境和實踐的方式?本文探討了現代數字化戰爭中人機互動的倫理、道德和政治困境的關鍵因素。有觀點認為,人工智能的 “理性 ”效率可以同時為人類在戰斗中的心理和生理缺陷提供可行的解決方案,同時保留人類對戰爭機器的 “有意義的 ”控制,本文對這一觀點提出了反駁。這種龐洛士式的假設忽視了人機互動的心理特征、未來人工智能沖突的速度以及現代戰爭復雜而混亂的本質。文章闡述了人機互動的關鍵心理學見解,以闡明人工智能如何塑造我們思考未來戰爭的政治和倫理困境的能力。文章認為,通過人機融合的心理過程,人工智能將不僅僅是現有先進武器的武力倍增,而將成為戰爭中事實上的戰略行動者--“人工智能指揮官問題”。
文章分為三個部分。第一部分通過對人類與技術以及人機互動的更廣泛對接進行背景分析,為論點提供框架。文章探討了人類為何以及如何與機器和新出現的復雜社會技術系統糾纏在一起、軍事技術倫理的根源以及無風險、無摩擦戰爭的概念。報告將人工智能技術描述為這一社會技術趨勢的新表現形式。它認為,在戰爭決策中外包人類良知--幻想解決戰爭的倫理、道德和政治困境--有可能侵蝕人類與戰爭之間的重要聯系。本節還討論了質疑 “用機器取代人類一定是個壞主意 ”這一觀點的各種反駁意見(“人工智能樂觀主義者”)。例如,人類會犯錯誤,經常做出非理性的行為,而且容易產生暴力、不道德和非人化等原始本能(Haslam,2006 年;Brough,2007 年)。
第二部分探討了人機互動的心理特征。具體地說,本節分析了人類的幾種偏差--控制幻覺、啟發式捷徑(Einstellung效應、存在偏差)和自動化偏差--這些偏差會使指揮官容易濫用或過度使用軍事力量以達到不公正的目的。報告還討論了這些偏差在更廣泛的政治驅動力中的潛在影響,這種政治驅動力就是通過技術神器來實現戰爭的可預測性和集中控制。
最后,第三部分探討了利用人工智能等技術完善無風險、無摩擦戰爭的手段對軍事倫理和戰爭中的道德責任的潛在影響。它將圍繞人工智能技術將人類倫理編碼到機器中的爭論背景化。它還探討了人類情感的作用,人類情感賦予我們理性和深思熟慮的感覺,影響我們的決策,并塑造我們對倫理和道德困境--沒有明顯理想結果的情況--的反應。人類的倫理道德能否被編程到算法中?如果可以,那么如果道德責任外包給人工智能,人類又該如何保留自己的倫理和價值觀?
將超大規模人工智能融入國防建模與仿真(M&S)對于提高戰略和作戰能力至關重要。本文將探討超大規模人工智能如何通過提供前所未有的準確性、速度和模擬復雜場景的能力來徹底改變國防建模與仿真(M&S)。美國和中國等國家在采用這些技術方面走在前列,并取得了不同程度的成功。要最大限度地發揮超大規模人工智能的潛力,就必須解決一些關鍵挑戰,如封閉網絡、長尾數據、復雜決策和專家短缺等。未來的方向強調采用國內基礎模型、投資各種 GPU / NPU、利用大技術服務以及使用開源軟件。這些舉措將增強國家安全,保持競爭優勢,促進更廣泛的技術和經濟進步。有了這一藍圖,韓國就能加強國防能力,在現代戰爭的新興威脅面前保持領先。
圖 1:韓國國防部使用的生成式人工智能示例圖。
近年來,隨著全球安全威脅的演變,將人工智能融入國防 M&S 至關重要。模擬復雜場景的能力至關重要,而人工智能憑借其先進的算法可以徹底改變國防 M&S 系統。這些系統可提供前所未有的準確性和速度,從而做出更好的戰略決策。更好的結果可確保更高的國家安全,因此必須領先于對手。人工智能驅動的模型可以精確預測敵人的動向,而加速模擬則可以實現實時決策。更強的計算能力可支持復雜的分析,而數據驅動的洞察力可改善戰術反應。此外,人工智能還能有效簡化資源分配。
世界各國正在認識到人工智能在國防中的戰略重要性。美國(U.S.)、中國、日本、歐盟和英國等國家都制定了全面的人工智能戰略,強調人工智能在現代戰爭中的作用。韓國(ROK)也宣布了采用人工智能保持競爭力的國防人工智能戰略。國防戰略正在迅速演變,人工智能一體化現已成為全球優先事項。落后會帶來嚴重后果,尤其是隨著人工智能應用步伐的加快。因此,隨著全球對人工智能技術的投資不斷增加,早期采用者將獲得顯著優勢。
最近,許多國家已經利用人工智能來解決傳統國防 M&S 中以前未曾探索過的領域。這種整合不僅解決了未知的挑戰,還將以前需要大量人工和時間的任務自動化。例如,韓國國防部(MND)已經開發并正在使用一種名為 GeDAI(生成式國防人工智能)的 LLM(如圖 1 所示)來簡化各種流程。這種方法表明了向更高效、人工智能驅動的解決方案轉變的趨勢,可增強作戰能力并減少關鍵國防任務中對人工干預的依賴。此外,GeDAI 等人工智能技術的實施有望加速國防部門的決策過程并改善戰略規劃。
主要貢獻如下
本文的其余部分安排如下。在第二節中,探討了國防 M&S 和超大規模人工智能的關鍵概念。在第三節中,描述了將人工智能應用于韓國國防 M&S 所面臨的挑戰。隨后,第四節介紹了未來的發展方向。最后,在第五部分提出了結束語。
圖 2:國防 M&S 層次結構示意圖。
超大規模人工智能以前所未有的規模運行,利用海量計算資源和龐大的數據集來解決復雜的問題。如圖 3 所示,超大規模人工智能的可能應用包括計算機視覺、自然語言、多模態、表格和音頻處理。超大規模人工智能正被用于加強預測分析、自動化決策過程,并通過深度學習和機器學習算法提供深刻見解。通過將超大規模人工智能應用于國防 M&S,可以像 COA-GPT 一樣,在減少人工干預的情況下進行兵棋推演。這樣就可以模擬眾多場景、戰略決策和結果預測,從而減少人類主導的模擬所需的時間和資源。
圖 3:可應用超大規模人工智能的領域示意圖。
圖 4:使用超大規模人工智能的國防 M&S 圖解。
將人工智能納入韓國國防 M&S 的一個潛在未來方向是積極采用國內公司開發的基礎模型,如 HyperCLOVA X 和 Exaone 2.0,這與美國采用的戰略如出一轍。通過利用私營部門人工智能開發人員的專業知識,軍方可以加快先進人工智能技術的實施。這些基礎模型已經非常強大,并經過了充分的測試,可以為國防應用提供一個堅實的起點,減少開發時間和成本。與韓國人工智能公司合作還能促進創新,確保模型符合韓國國防領域的具體需求和環境。
雖然將數據轉讓給私營公司會引起安全和潛在泄密方面的擔憂,但這種合作有助于解決軍方人工智能專業人員短缺的問題。通過與外部專家合作,國防部門可以從內部可能無法獲得的專業知識和技能中獲益。此外,這些合作關系還能提供寶貴的見解,讓我們了解須通過作戰實驗收集哪些數據,以優化人工智能模型,供軍事使用。通過與私營公司密切合作,軍方可以為數據采集制定更明確的方向,確保人工智能模型有效適應其作戰要求,同時通過嚴格的數據處理協議降低安全風險。
與美國國防創新部門(DIU)的戰略相同,韓國未來的一個關鍵方向是鼓勵其領先的 IT 企業(如 NAVER、三星和 SK)積極參與國防 M&S 領域的研發活動。通過向這些開拓和主導最新物聯網市場的行業領導者敞開大門,軍方可以利用尖端技術提高國防 M&S 性能。這種合作能將先進的物聯網解決方案整合到軍事模擬和作戰中,促進創新,縮小民用技術進步與國防應用之間的差距。這種合作關系可以加速開發適合軍方特定需求的復雜仿真模型和人工智能系統。
讓大型 IT 公司參與國防項目,還能讓軍方通過調整現有的企業解決方案,使其適用于軍事用途,從而快速獲得新的武器系統。這些公司擁有尖端技術和專業知識,可以針對國防需求進行優化,從而減少開發時間和相關成本。通過與 IT 巨頭合作,軍方可以確保使用最高效、最安全的技術構建國防物聯網基礎設施。這不僅能增強作戰能力,還能通過利用這些公司的熟練勞動力來解決人工智能專業人才短缺的問題。最終,這種方法既能加強國防,又能促進軍方與私營部門之間的協同關系。
需要多樣化的 GPU/NPU 基礎設施,這是未來將人工智能融入韓國國防 M&S 的關鍵方向。目前,采購英偉達?(NVIDIA?)人工智能硬件具有挑戰性,過度依賴單一公司的產品可能會導致國防能力受到公司決策的影響或制約。這種依賴性會給安全和戰備帶來風險,因為供應鏈的任何中斷或公司政策的變化都可能對軍隊的人工智能能力產生不利影響。因此,必須減少對單一供應商的依賴,以確保國防技術的穩健性和自主性。
通過采用和利用英特爾、三星電子和 AMD 等多家供應商的 GPU 和 NPU,軍方可以建立更具彈性和靈活性的人工智能基礎設施。這種多樣化不僅能降低與供應鏈中斷相關的風險,還能促進供應商之間的競爭性創新,從而可能帶來更好的性能和成本節約。納入三星電子等國內公司的硬件還能支持民族工業,并通過更緊密的合作提高安全性。多供應商方法可確保國防部門不會受制于任何一家公司的技術,從而加強國家安全和技術主權。
要在軍方內部加強基于人工智能的保密數據 M&S,不僅要利用私營公司的軟件和數據,還必須利用公開的軟件和數據。通過整合開源工具和數據集,軍方可以開發出強大的人工智能模型,而無需輸出敏感數據,從而在受益于最新技術進步的同時維護了安全性。這種方法可以利用全球人工智能社區的集體創新,在內部開發適合軍方特定需求的人工智能解決方案。
實現這種整合需要在內部使用外部可用軟件和數據時取消復雜的審批程序。通過簡化官僚程序并提供一個相對沒有懲罰措施的環境,研究人員和開發人員可以更快地在國防 M&S 中采用新技術。行政障礙的減少鼓勵了創新和靈活性,使軍方能夠走在技術進步的前列。為技術采用創造更寬松的環境不僅能加快發展,還能吸引渴望在支持性和前瞻性環境中工作的人才。
首先回顧并簡要評述了當前的軍事人工智能形勢。然后,轉向迄今為止在很大程度上被忽視的人工智能驅動系統影響國家層面訴諸武力決策的前景。雖然此類系統已經對發動戰爭的決策產生了有限而間接的影響,但它們將越來越多地以更直接的方式影響此類決策--無論是在自動自衛的背景下,還是通過為人類決策提供信息的決策支持系統。本文引證了人工智能系統在其他決策領域的不斷擴散,再加上人們認為有必要在人工智能 “全球軍備競賽 ”中與潛在對手的能力相匹配,這種發展是不可避免的,很可能會在不久的將來出現,并有望產生重大影響。在概述了與這一預期發展相關的四個主題之后,預覽了構成本特刊的十二篇多元化、多學科文章。每篇文章都涉及我們提出的四個主題之一,并探討了人工智能技術滲透到戰爭決策中的重大風險或益處。
如果由智能機器來決定國家是否參與戰爭呢?從某種意義上說,這只是科幻小說的內容,或者說是對未來技術如何發展、如何超越我們的能力并掌握控制權的長期猜測。然而,從另一個更細微的角度來看,這是一個非常可信的現實,與我們現在擁有的技術相兼容,很可能在不久的將來以某種形式實現(考慮到其他領域可觀察到的發展),而且是我們心甘情愿地逐步實現的前景。
本文將探討人工智能介入訴諸武力的決策這一完全可以想象的前景所帶來的風險和機遇。將回過頭來簡要評述一下當前的軍事人工智能形勢,然后再探討人工智能預期影響這一在很大程度上被忽視的領域。然后,將強調與人工智能技術滲入戰爭決策相關的四個主題,然后預覽與這些并發癥相關的十二篇不同的、多學科文章。
人工智能(AI)--不斷發展的機器模仿人類智能行為的能力--已經從根本上改變了有組織的暴力行為。人工智能已經并正在越來越多地融入各種軍事功能和能力。例如,圍繞澳大利亞、英國(UK)和美國(US)“AUKUS ”協議發布的官方文件概述了人工智能在先進軍事能力中發揮的日益重要的作用,包括對 “彈性和自主人工智能技術(RAAIT)”的承諾,根據該承諾,"‘AUKUS’合作伙伴正在提供人工智能算法和機器學習,以加強部隊保護、精確瞄準以及情報、監視和偵察。(AUKUS 國防部長引文2023)人工智能在軍事能力中的擴散不僅對武器系統的實用性、準確性、殺傷力和自主性產生深遠影響(例如,見 Scharre 引文2024),而且人工智能與先進武器系統的交叉被認為會對軍事力量平衡產生嚴重影響(例如,見 Ackerman 和 Stavridis 引文2024)。事實上,人工智能已被視為謀求軍事優勢的關鍵所在,并在當前關于維護軍事優勢的思考中占據中心位置。正如一份分析報告所解釋的那樣,人工智能 “將使美國能夠部署更好的武器,在戰斗中做出更好的決策,并釋放出更好的戰術”。(布坎南和米勒引文 2017, 21)用美國前國防部副部長米歇爾-弗盧諾伊(引文 2023)的話說,“人工智能正開始重塑美國的國家安全”。
軍事人工智能的重要性與日俱增,其利用也日益廣泛,與此同時,人們對其使用可能帶來的潛在風險和不良后果也感到擔憂。一個充滿人工智能的決策世界和隨之而來的壓縮時間表,再加上智能自動化甚至完全自主的武器,在帶來軍事優勢的同時也帶來了危險。這促使人們試圖制定規則和限制,至少可以約束人工智能的某些軍事應用,并力求將危險或不良結果降至最低。這種監管不僅僅是一個學術問題。大量證據表明,各國政府也越來越關注人工智能在軍事領域的應用所帶來的廣泛風險。2023 年 2 月在海牙舉行的 “軍事領域負責任的人工智能 ”國際峰會發表了 “關于負責任地在軍事領域使用人工智能和自主權的政治宣言”,截至 2024 年 2 月,該宣言已得到 50 多個國家的認可(美國國務院引文2023)。該聲明包括一系列旨在促進安全、謹慎地使用軍事人工智能的可取措施,其中包括 “在負責任的人類指揮和控制鏈內 ”使用人工智能的主張(與本特刊通篇討論的一個問題有關)(美國國務院引文 2023)。
澳大利亞國防部長理查德-馬爾斯議員在宣布澳大利亞將于 2023 年 11 月加入該宣言時重申,澳大利亞承諾 “積極參與國際議程,以負責任的方式研究、開發、部署和應用人工智能”(澳大利亞政府引文 2023)。此外,美國總統喬-拜登和澳大利亞總理安東尼-阿爾巴內塞于2023年10月在華盛頓特區會晤后發表聯合聲明,申明 “各國應采取適當措施,確保負責任地開發、部署和使用其軍事人工智能能力,包括實現自主功能和系統的能力”(澳大利亞總理引文2023)。當然,要切實采取這些措施,就必須了解--并預測--人工智能系統在軍事環境中的各種應用方式。
最后,必須承認,軍事人工智能與核武器并存的幽靈最近引起了人們的關注和擔憂。人工智能在核武器領域的應用引發了大量分析和擔憂,原因顯而易見,其潛在風險是如此巨大(例如,見 Kaur Citation2024;Shaw Citation2023;Parke Citation2023)。正如 Depp 和 Scharre 嚴正指出的那樣,“在核行動中正確使用人工智能可能會產生毀滅世界的影響”(Depp 和 Scharre 引用 2024)。美國在其 2022 年《核態勢評估報告》中宣布,作為一項政策,在任何涉及使用核武器的決策中,人類都將無一例外地參與其中(美國國防部引文 2022,13)。一個基本的擔憂是,人工智能可能會以自動反應能力的方式融入核指揮與控制,這可能會加強威懾,但也會增加意外升級或失控的風險。由于擔心人工智能的引入會給核指揮與控制帶來新的漏洞,人們呼吁制定規范和準則,以限制核不穩定性以及可能隨之而來的對核威懾的威脅(Avin 和 Amadae Citation 2019)。
總之,人工智能對武器系統的性能、軍事行動的開展以及軍事力量的弱點和優勢的影響非常重要。這些發展對未來戰爭具有嚴重影響(如果仍不確定的話),并引起了學術界、國家領導人和普通公眾的關注。然而,由人工智能驅動的軍事工具激增所引發的思想發酵和政策審議主要集中在因此而使用(和改變)武力的方式上,而不是這種新興技術組合如何可能為國家是否以及何時參與戰爭的決策提供信息(并可能改變決策)的問題上。要討論的正是后一個問題。
學術界和政策制定者的關注點主要集中在戰爭中人工智能系統的使用上。其中最突出的包括正在出現的 “致命自主武器系統”(“LAWS”--或更通俗和挑釁性的 “殺手機器人”)和決策支持系統,其形式是依靠大數據分析和機器學習來推薦無人機襲擊和轟炸目標的算法(如最近引起關注的以色列在加沙的行動(Abraham Citation2024;Davies, McKernan, and Sabbagh Citation2023))。相比之下,試圖探討的是在商議訴諸戰爭的各個階段和層面使用人工智能工具這一相對被忽視的前景。
換句話說,將從戰場上的人工智能轉向戰爭室中的人工智能。從士兵選擇和攻擊目標(以及授權和監督智能機器選擇和攻擊目標)的決策,轉向國家層面關于發動戰爭和軍事干預的決策;從戰時法(jus in bello)轉向訴諸戰爭法(jus ad bellum)的考慮(用正義戰爭傳統的語言);從國際人道法裁定的行動,轉向受《聯合國憲章》禁止訴諸武力及其明確例外規定約束和縱容的行動。
重點的轉移至關重要。它預示著國家在做出戰爭決定時不可避免的變化。之所以預測人工智能將滲透到訴諸武力的決策過程中,部分原因是人工智能驅動的系統(包括預測性機器學習算法)在其他許多領域不斷擴散,以幫助決策制定。從招聘、保險決策、醫院醫療診斷和福利分配,到警務實踐、商用飛機駕駛艙支持和累犯可能性判斷,都需要依靠此類系統。總之,人類的決策越來越依賴于人工智能的幫助。此外,在日益高速、始終高風險的戰爭環境中,需要與潛在對手的能力相匹配,這也助長了最新的 “全球軍備競賽”(Simonite Citation2017)。雖然人工智能系統目前在國家層面的訴諸武力決策中只發揮了有限和間接的作用,但相信,它們將逐步以更直接的方式影響此類決策。現在,通過研究人工智能逐步干預訴諸武力決策的前景,就有可能確定使用這些技術的益處和風險,同時還有時間分別找到加強或減輕這些益處和風險的方法。
這些考慮因素的嚴重性怎么強調都不為過。正如阿什利-迪克斯(Ashley Deeks)、諾姆-盧貝爾(Noam Lubell)和達拉-默里(Daragh Murray)(引文2019, 16)挑釁性地提出的:如果說機器被賦予 “決定 ”殺死一名敵軍士兵的權力的可能性充滿了倫理和法律爭議,那么又該如何看待機器最終決定一個國家是否參戰,從而影響成千上萬或數百萬人生命的可能性呢?
當然,智能機器 “決定 ”一個國家是否參與戰爭可能意味著不同的事情。撇開科幻小說中的場景和長期的未來主義猜測不談,目前的人工智能驅動系統可以通過兩種方式對訴諸武力的決策產生影響。首先,人工智能決策支持系統可用于為是否參戰的討論提供信息。在這種情況下,人類決策者將利用算法建議和預測來做出訴諸武力的決定。在人工智能輔助收集和分析情報方面,這種情況已經開始出現,至少是間接地出現在組織層級和指揮系統中。另外,人工智能驅動的系統本身也可以計算和執行訴諸武力的決定,例如在防御網絡攻擊的情況下。此外,令人擔憂的是,人工智能驅動的自動核反應首次打擊的建議也被醞釀和威脅,特別是在斬首攻擊的情況下。(據報道,蘇聯留給俄羅斯的 “死手 ”發射系統仍在使用,因此這種可能性并非不可想象。俄羅斯的 “周邊 ”系統在 Depp 和 Scharre Citation2024 中有所描述;另見 Andersen Citation2023,12)。在這種情況下,人工智能自主系統將決定并實施行動方案--無論是否有人類監督。這兩類情況都是可預見的(而且很可能是在不久的將來),需要立即關注。
這些人工智能驅動的系統能夠分析大量數據,通過發現人類決策者無法感知的數據模式提出建議和預測,并以望塵莫及的速度和效率對潛在攻擊作出反應,盡管它們具有種種潛在優勢,但挑戰也層出不窮。2023 年 6 月 29 日至 30 日,在澳大利亞國立大學(ANU)舉行了題為 “預測未來戰爭:人工智能、自動化系統和訴諸武力決策 ”的研討會,該研討會促成了本特刊的出版。
復雜因素 1 涉及人工智能驅動的訴諸武力決策中人類判斷的替代,以及對威懾理論和沖突意外升級的可能影響。當編程建議--或獨立計算和實施--對特定情況做出反應時,智能機器的行為會與人類代理人不同。這種差異可能會挑戰我們對威懾的理解。目前對一個國家是否愿意訴諸武力的看法是基于對人類判斷力、決心和忍耐力的假設,而不是機器生成的結果。此外,在某些情況下,人工智能系統被委以獨立應對侵略的任務,將以人類行為者無法達到的速度做出并執行決策,從而加快決策周期。它們似乎還可能曲解人類的信號(例如,關于緩和沖突的愿望)。這兩個因素都可能導致在人類決策者本應保持克制的情況下,訴諸武力卻在無意中升級,并可能造成災難性后果(例如,見 Wong 等人,Citation2020,第 7 章和第 8 章)。
復雜因素 2 強調了自動化偏差可能產生的影響。實證研究表明,依賴人工智能驅動系統的個人和團隊往往會出現 “自動化偏差”,即傾向于不加質疑地接受計算機生成的結果(Cummings Citation2006;Citation2012;Mosier and Fischer Citation2010;Mosier and Manzey Citation2019;Skitka, Mosier, and Burdick Citation1999)。這種傾向會使人類決策者不太可能利用自己的專業知識和判斷力來檢驗機器生成的建議。自動化偏見的有害后果包括接受錯誤、人類行動者的非技能化--包括 “道義上的枯竭”(Vallor Citation2013),以及正如一位在本文集和其他地方所論證的,在戰爭中 “錯位責任 ”的推廣(與其他因素一起),或者說智能機器可以為必然是人類的決策及其結果承擔道義責任的危險誤解(Erskine Citation2024a, 551-554; Citation2024b)。
復雜因素 3 涉及算法的不透明性及其對民主和國際合法性的影響。機器學習過程經常是不透明和不可預測的。受其指導的人往往不理解預測和建議是如何得出的,也不了解它們的局限性。目前,許多人工智能驅動的決策都缺乏透明度,這導致了一系列負面影響(Knight Citation2017;Pasquale Citation2016;Citation2017;Vogel 等人 Citation2021)。由于政府的民主和國際合法性要求對訴諸戰爭的決定提供令人信服且易于理解的理由,當機器為此類行動提供信息或獨立計算和實施此類行動時,這種缺乏透明度的情況會帶來嚴重的問題。
復雜因素4 涉及人工智能系統加劇組織決策病態的可能性。國際關系(IR)和組織理論的研究都揭示了組織決策的現有復雜性和 “病態”(在國際關系領域,例如參見 Barnett 和 Finnemore Citation 1999)。人工智能驅動的決策支持和自動化系統介入這些復雜的結構有可能會放大這些問題。它們對國家甚至政府間決策的貢獻可能會扭曲和擾亂戰略和行動決策過程及指揮系統。
人工智能(AI)在增強國防系統能力、革新戰略決策和塑造未來軍事行動格局方面發揮著重要作用。神經符號人工智能是一種新興的方法,它利用并增強了神經網絡和符號推理的優勢。與傳統的人工智能系統相比,這些系統可能更具影響力和靈活性,因此非常適合軍事應用。本文全面探討了神經符號人工智能的不同層面和能力,旨在闡明其在軍事領域的潛在應用。我們研究了它在改進決策、自動進行復雜情報分析和加強自主系統方面的能力。除了在軍事領域的應用外,我們還進一步探討了它在解決各領域復雜任務方面的潛力。通過這種探索,我們解決了對神經符號人工智能在軍事和民用領域的開發和部署至關重要的倫理、戰略和技術問題。本研究是對神經符號人工智能廣泛可能性的全面探索,為日益增多的研究做出了貢獻。
神經符號人工智能將推動未來的人工智能戰場,徹底改變戰爭。在軍事決策過程中利用人工智能可以提高戰場效率,改善關鍵作戰決策的質量。神經網絡與符號推理的結合有可能顯著提高威脅探測的準確性,并實現更快、更精確的戰術決策,從而徹底改變軍事行動。本文分析透徹,為關注人工智能在戰爭中的未來的研究人員、從業人員和軍事決策者提供了寶貴的見解。通過對現有研究的批判性審視,確定了關鍵挑戰,并概述了未來有希望的發展方向。這旨在進一步增強神經符號人工智能在優化后勤、增強態勢感知和動態決策等領域的負責任部署。此外,神經符號人工智能在軍事應用方面取得的進步也為其在醫療保健、金融和交通等民用領域的廣泛應用帶來了巨大潛力。這種方法提高了不確定性條件下的適應性、可解釋性和推理能力,徹底改變了傳統方法,推動了軍事和民用效能的發展。
貢獻。本文對神經符號人工智能領域做出了以下重要貢獻。
圖 6:神經符號人工智能的一些主要軍事應用。
多年來,人工智能一直被用于改進信號情報的收集和分析,但本文探討了生成式人工智能可為戰略情報分析人員執行的一系列任務。文章認為,將生成式人工智能融入情報評估的最穩妥做法是作為人類分析師的 “副駕駛員”。盡管存在不準確、輸入偏差和 “幻覺 ”等問題,但生成式人工智能可以解放時間不足的分析人員,讓他們專注于人類最有價值的任務--運用他們的專業知識、隱性知識和 “現實感”。
人工智能(AI)是無法回避的。我們每個人每天都直接或間接地與它打交道。除了柯潔在圍棋比賽中輸給谷歌的 AlphaGo 這樣的偶然拐點之外,人工智能幾乎沒有大張旗鼓地滲入社會。但現在,圍繞人工智能的爭論非常突出。這主要與用戶友好型生成式人工智能軟件的發布和廣泛采用有關,其中最著名的是 ChatGPT 和 Google Bard。這些功能強大的程序潛力巨大,許多評論家認為它們的影響堪比另一場工業革命。的確,將人工智能應用到各個領域,尤其是醫學領域,可能會帶來革命性的變化;但同樣,它也會帶來巨大的潛在風險--安全、經濟、社會和文化風險。首相蘇納克(Rishi Sunak)希望英國能掌握這個等式的兩面:在人工智能監管和安全方面引領世界,11 月在布萊切利公園舉行的人工智能安全峰會就是一個標志;同時也要抓住這項技術帶來的機遇。八十年前,布萊切利公園的前主人--密碼破譯員、語言學家、數學家和工程師--曾與英格瑪機器搏斗并開創了計算技術的先河。本文關注的是生成式人工智能為他們在情報界的繼承者,特別是那些專注于情報評估技術的繼承者帶來的機遇和挑戰。文章認為,生成式人工智能有可能極大地補充分析工作。但就目前而言,它最有用的應用是作為輔助工具、副駕駛員,它有可能極大地增強分析人員的工作,但也應謹慎使用。
情報與技術是一對老朋友。幾十年來,它們彼此推動著對方的發展。這一點在電子和計算機領域體現得最為明顯。在秘密行動中,情報機構推動了技術的發展。它們還經常是新技術的早期采用者,利用新技術開發、維護和增強能力。畢竟,適應性是成功情報機構的標志之一。英國皇家情報總部成功地從模擬機構轉型為數字機構,如今甚至將自己定位為 “情報、安全和網絡機構”。人工智能已經以多種方式補充了情報工作。各國經常使用人工智能增強系統來協助收集情報。許多在秘密領域工作的私營部門承包商也在人工智能領域大顯身手。由人工智能軟件支持的閉路電視攝像網絡被廣泛用于識別和追蹤城市環境或恐怖風險較高地區(如火車站)的個人或物體。這種技術也為專制政府提供了無與倫比的機會來壓制不同意見或異議,新疆和其他地方的情況就說明了這一點。除數據收集外,這項活動的大部分內容還涉及更輕松、更高效地對數據進行鑒別或選擇,從而為時間有限的分析人員的工作提供便利,因為他們需要評估這些數據的含義。人工智能被廣泛應用于翻譯、將截獲的互聯網流量減少到可控水平、語音識別或在開放的互聯網上搜索對象的協會和聯系人等費力的任務。在英國,INDEX 系統允許分析人員在政府和外部報告中進行搜索。核心信息可以通過自然語言處理系統提取和匯總。但是,正如剛剛退休的英國聯合情報委員會主席西蒙-加斯(Simon Gass)爵士在今年 6 月指出的,“我們正處在這個階段的山腳下”。
需要將生成式人工智能和大型語言模型(LLM)整合到情報評估的正常業務中。簡單地說,生成式人工智能是指 “能夠根據訓練數據生成高質量文本、圖像和其他內容的深度學習模型”。這些技術已經在國防和情報領域受到高度重視。英國國防部國防創新總監約翰-里奇(John Ridge)最近指出,“我們可以肯定的一點是,這類能力將是絕對關鍵的”。這些能力是革命性的,還是只是情報工作的另一個發展階段,還有待觀察。但它們改變商業模式的潛力是顯而易見的。前幾代人工智能主要集中在更有效地收集數據和更有效地整理擺在民間和軍事情報分析師面前的材料上,而生成式人工智能則展示了承擔迄今為止只有人類分析師才能完成的任務的潛力。基于 LLM 的工具(如 ChatGPT)的主要賣點是,它們可以對問題或命令形式的提示做出響應,并利用現有材料在特定參數范圍內做出響應。或者換一種說法,可以命令它們按照特定規格撰寫類似人類的報告,以計算機的速度,根據大量數據提出見解或作出推論。
從這個意義上說,情報分析和評估與其他以研究為基礎的工作領域處于類似的地位,它們可能(而且幾乎肯定會)受到干擾。這些領域包括醫療和法律行業,在這些行業中,根據有關特定主題的全部數字化文獻資料快速、清晰地編寫報告或文件的前景非常誘人。教育領域也受到了影響,其傳統模式正在被檢測機器生成的作品這一挑戰以及人工智能時代究竟什么才是合法研究這一更具哲學意義的問題所顛覆。盡管如此,在這些領域中的每一個領域,理論上都可以在很大程度上將曾經由人類完成的基本任務外包給機器,盡管需要保持謹慎的警惕。這樣做已經產生了令人印象深刻、有時甚至發人深省的成果,比如一篇關于 ChatGPT 對檢測剽竊行為的影響的學術論文,該論文已提交給同行評審的學術期刊,并被其接受,但這篇論文是用 ChatGPT “寫 ”出來的。不過,如果從各行各業廣泛采用 LLM 的軼事證據來看,人類分析師的日子還遠未到頭。在不久的將來,應將 LLMs 視為情報分析員的額外工具,是提高效率和效力的輔助工具。他們是 “副駕駛員”,可以評估論點、進行數據分析或校對,而不是潛在的替代者。就目前而言,在這些領域中的任何一個領域,要想以其他方式開展工作,風險都太大了。情報工作也不例外:在全球競爭的環境中,整合這些工具的必要性只會越來越強,但過快或魯莽行事顯然存在風險。審慎的做法是,情報評估機構利用人工智能增強人類分析師的能力,為他們創造更多的時間和空間,讓他們運用不可或缺的隱性知識和 “現實感”--以賽亞-伯林(Isaiah Berlin)所說的感同身受的理解是歷史解釋的一個關鍵特征--來理解全局。
令人欣慰的是,谷歌Bard也同意這一點。當被問及它能為情報分析帶來哪些好處時,該程序回答說,它可以執行許多有用的任務。這些任務包括收集信息、分析信息、生成報告、交流研究結果、提出情報需求、管理情報資源和監督情報行動,以確保它們符合法律和道德標準。但是,當被要求確定使用 LLMs 進行戰略情報分析的風險時,它指出:"重要的是,要將機器的產出與情報分析結合起來: 重要的是要將機器輸出與人工分析和解釋以及對地緣政治環境的全面了解結合起來"。顯然,如果 “言聽計從”,該系統具有巨大的潛力。但在充分挖掘潛力之前,所有相關人員都需要考慮并解決幾個基本挑戰。
這些問題包括通常對 IT 網絡安全性和穩健性的擔憂,例如:確保集成軟件經過安全架構審查所面臨的挑戰、供應鏈風險的可能性、數據存儲的安全性、確保提交給任何系統的查詢都經過加密或不可能被敵方重建。其他值得注意的安全問題來自于大量的訓練數據、數十億個參數以及設計可行工具所需的訓練過程。目前,這項工作是在基于云的系統中進行的,因此除了常見的網絡安全問題外,還增加了數據主權問題。此外,為了最大限度地發揮其價值和效用,特別是在快速發展的情況下,LLM 需要經常或持續訪問互聯網。顯然,有必要將那些與開放互聯網保持聯系的系統與情報分析員處理更敏感材料和制作情報評估產品的封閉、保密網絡分開。
上述問題都不是不可克服的,但這些挑戰突出表明,必須有條不紊地解決這一問題,協調政府各相關機構利益攸關方,以成功實施這一至關重要的信息技術項目。這些挑戰也并不都集中在如何確保系統不被敵對勢力破壞上。還需要考慮監管問題。事實上,大衛-安德森(David Anderson)勛爵在上議院關于人工智能的辯論中指出,"在一個人人都在使用開源數據集來訓練大型語言模型的世界里,英國信息中心受到了《調查權力法》第 7 部分的獨特限制。這些限制'在某些重要情況下影響了英國信息中心的靈活性,影響了它與商業伙伴的合作,影響了它招聘和留住數據科學家的能力,并最終影響了它的效率'。
只要能找到令人滿意的解決方案,LLM 對分析師工作的許多方面都極為有用。其中包括較為傳統但費力的任務,如作為研究助理,就特定主題(如國際爭端的背景)提供近乎即時的不同長度和細節的摘要,或構建時間軸、撰寫簡介、總結或分析冗長的文本,或(假設版權和訂閱問題得到解決)將最新的學術著作納入其中。雖然第一批LLM是在英語語料庫中接受培訓的,但目前開發多語言模型的工作進展順利。當然,鑒于已發現生成式人工智能生成的回復在準確性和完整性方面存在問題,任何此類產品都必須經過主題專家的檢查,類似于跨白廳當前情報小組系統。這可能會提高穩健性和效率,并隨著時間的推移,促進機構學習和流程改革。
但潛力顯然不止于此。生成式人工智能還可以包括更先進、更重要的工作。例如,分析師可以使用 LLM 來審查和驗證他們的書面報告,從而增強現有的分析流程和產品審計程序。例如,可以要求提供任何對關鍵判斷提出質疑或證偽的數據;查詢長期以來生成的報告,以確定已成為傳統智慧的假設;或使用工具生成 “紅隊 ”評估。從理論上講,這種能力可以在幾個方面幫助分析人員識別或根除導致情報失敗的某些偏見因素,并確保報告盡可能是最新的。不難想象,這些工具的提供和適當使用將如何提高分析界的速度、影響范圍和批判性地反思其行為和業績的能力。
目前這一代 LLM 也可以撰寫報告或評估報告。將此類寫作任務的早期起草階段外包給一個工具,可為資源和時間貧乏的情報分析員創造經濟效益。毫無疑問,謹慎采用 LLM 是有道理的。但這項技術仍然有限,需要認真監測。這些局限性帶來了風險,這一點在 2023 年大眾廣泛嘗試使用 LLM 之后已經得到證明和充分記錄(在 META 推出 Threads 之前,沒有任何應用能像 ChatGPT 那樣迅速得到采用,該應用在推出后五天內用戶就達到了 100 萬)。對于情報分析師及其產品的接收者來說,其中許多挑戰都是非常棘手的。其中包括對這些工具所提供信息的準確性和可靠性的擔憂。這些系統非常善于生成似是而非的文本、聲明和結論。但這些可能在現實中沒有任何依據,甚至在建立 LLM 的訓練數據中也沒有任何依據。這種 “幻覺 ”已被廣泛觀察到;在學術工作中,經常出現的 “幻覺 ”是生成不存在的資料來源(例如,引用聽起來很有道理但實際上并不存在的網頁)來支持生成的主張。這究竟是 LLM 的一個特點還是一個缺陷,還存在爭議。無論如何,這都對采用 LLM 進行情報評估構成了重大挑戰。分析人員從這些工具中獲取材料并將其納入分析產品時,必須對基礎源數據進行系統檢查。因此,這項技術提出了一個悖論:一是節省時間,二是增加工作量。
與其他人工智能系統一樣,LLM 也會在其生成的任何內容中嵌入偏見。該系統的吸引力和潛力在于它有能力攝取和查詢大量資料--基本上是整個開放互聯網--但必然結果是,該系統也會攝取現有的偏見和廢話,這些偏見和廢話可能是關于特定主題的主流敘事,或者是關于特定主題的特定語言。同樣,毫無疑問,破壞性或惡意行為者會利用 LLM 快速、廉價地生成大量虛假信息并充斥網絡。毫無疑問,敵對行為者也會試圖毒害公共或專有 LLM。目前,大多數開放的生成式人工智能應用程序本質上都是黑盒子,這些系統不允許(或不會允許)用戶檢查它們得出特定判斷的過程。這是由于神經網絡依賴多層節點處理數據的本質所致。這種可觀察性的缺乏,再加上基于 LLM 的系統在可復制性方面的某種脆性--即它對準確提示措辭的依賴--帶來了風險和挑戰。事實上,鑒于在專業情報界對分析評估采用可審計程序的重要性,在這些工具被納入正常業務之前,這個問題構成了一個需要克服的重大障礙--或者說需要掌握的挑戰。正如在人工智能之前的時代一樣,結論必然需要由經驗豐富、訓練有素的人員進行檢查、驗證和整個過程的審計。
這些風險有可能被充分降低,使這些工具能夠相對迅速地融入分析流程。許多研究人員正在開發人工智能系統,以識別人工智能在各種情況下生成的內容,如學術論文或視頻文件。還有一些研究人員正在研究可審計的 LLM 系統;還有一些研究人員正在研究如何開發安全的系統,讓分析人員能夠在分類系統和開放的互聯網上進行搜索。但是,即使這些問題可以得到緩解,還有另一個根本性的問題,即這些系統是否只能是衍生系統,因為它們基本上完全建立在基于已有材料的計算模型之上。它們所提供的洞察力能否與任何接近 “想象力 ”的東西相匹配,還是說它們目前的貢獻仍將局限于語法和風格的練習,偶爾會出現幻覺?或者,換一種說法,他們可能會對某個問題進行極其(或表面上)合理的討論,但鑒于這些討論是根據一個統計模型得出的,該模型關注的是某個特定的詞或概念或 “標記 ”與另一個詞或概念或 “標記 ”相聯系的可能性,并以訓練材料為基礎,那么討論結果中是否會存在固有的保守主義或其他偏見?盡管如此,該領域的變化速度之快,即使預測其對情報評估的相對近期影響也充滿了不確定性,突出表明需要不斷審查該領域的發展。
雖然其他類型人工智能的貢獻已經得到證實,但對生成型人工智能的前景過于技術樂觀也會帶來風險。雖然這不是一個精確的類比,但美國情報界在 9/11 事件之前忽視人類情報(HUMINT)技能而青睞高科技的做法,應該為任何想把 LLM 的出現視為減少情報界人力的機會的人提供一個警示。選擇不當的捷徑會造成長期延誤。顯然,政府必須也必須與 LLM 打交道,必須不斷審查現有技術的效用,并愿意在這些系統得到驗證后擴大其使用范圍。但是,除了投資(擁有或使用)LLM,政府還應保留并加倍投資于人。在采用 LLM 的過程中,最大限度地提高效益和降低風險的一個關鍵因素將需要包括保持和發展對情報分析師的培訓,使他們能夠最好地利用這些強大的新工具。這可能包括專業途徑,培養一批善于將生成式人工智能融入分析實踐 “新常態 ”的官員,使他們能夠掌握現有系統,最大限度地發揮其效用,同時將其帶來的風險降至最低。但同時也應保持并優先培養主題和分析技術方面的專家,他們可以用經驗和智慧、隱性知識和人類特有的 “現實感 ”來補充生成式人工智能的巨大威力。在開展這項工作的同時,還應在政府內部(更不用說更廣泛的公眾)開展更廣泛的教育計劃,讓他們了解人工智能的用途和局限性。消費者,尤其是自詡為技術狂熱者和有遠見的 “深層國家 ”或 “小集團 ”的破壞者,應該仔細了解由于 LLM 的便利而繞過其分析機制的局限性和風險。世界不需要唐納德-拉姆斯菲爾德(Donald Rumsfeld)在伊拉克戰爭前的 “特別計劃辦公室”(ChatGPT)。就目前而言,將 LLM 衍生工具整合到分析流程中最合理的使用案例是,由經驗豐富、訓練有素的人類分析師作為 “副駕駛員”,嵌入到仍然樂于向消費者提供不受歡迎的消息的組織中。
先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。
技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。
圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。
結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。
為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。
權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。
這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。
本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。
2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。
這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。
之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。
2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。
人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。
雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。
在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。
要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。
在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。
人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。
有效決策是組織成功的核心。在數字化轉型時代,企業越來越多地采用數據驅動的方法來獲得競爭優勢。根據現有文獻,人工智能(AI)代表了這一領域的重大進步,它能夠分析大量數據、識別模式、做出準確預測,并為組織提供決策支持。本研究旨在探討人工智能技術對組織決策不同層面的影響。通過將這些決策按照其屬性分為戰略決策和運營決策,本研究可以更全面地了解人工智能在組織決策中實施的可行性、當前采用率以及阻礙因素。
本文探討了認知戰的概念,這是一種通過操縱對手的認知機制來實現戰略目標的多層面方法。本文借鑒歷史實例和當代發展,深入探討了現代沖突中日益受到關注的 "人心 "問題。分析包括俄羅斯軍事文獻中提出的認知戰的兩個主要組成部分:反射控制和心理戰。西方文獻曾對 "反射控制 "進行過討論,而 "心理戰 "則是最近才出現的一個鮮為人知的概念。本文探討了這兩個組成部分的理論和哲學基礎,強調了它們對認知過程的共同重視。心理戰是 "可控混亂 "戰略的一個組成部分,旨在占領對手的意識并誘導集體心態的變化,而 "反射控制 "則旨在通過有針對性的信息影響對手。本文還討論了認知戰對北約和西方國家的影響,強調了采取積極主動的措施和加強認知防御以抵御對手利用系統漏洞的企圖的重要性。最后,本文強調了保護人類思維的迫切需要,因為人類思維已成為當代戰爭中追求政治目標的主要戰場。
無論是在和平時期還是在沖突時期,信息、心理和影響力行動都被用來實現多個戰略層面的目標。雖然有觀點認為法國軍隊在第一次世界大戰期間通過攔截無線電和電話通信最先參與信息作戰(Bailey, 2001),但孫子早已論述了將后方和陸軍的團結和士氣與敵方進行比較的重要性(Sun Tzu & von Clausewitz, 2000)。此外,腓特烈大帝以其令人印象深刻的情報系統而聞名,他利用欺騙手段誤導對手對其兵力和意圖的認識,從戰略上瞄準對手的信息和認知過程(Dufy, 1974)。
過去 50 年的科技進步,尤其是信息和通信技術的進步,使人們有可能以創新的方式運用行之有效的戰爭方法。由于戰爭的首要目標是政治,而軍事手段只是實現這一目標的手段,因此爭奪 "人心 "已成為當代戰爭的一個重要方面。鑒于北約軍事威懾力量的高度可信性,這對西方國家具有重要影響。對手不再僅僅依靠常規軍事手段,而是越來越注重利用西方的系統性弱點,通過控制對手的認知過程,影響個人和集體層面的認知、行為和決策,從而取得政治上的勝利。從本質上講,人腦已成為戰場,而整個社會則是主要目標。
北約及其成員和盟國一直在發展對認知戰意義和影響的理解,而俄羅斯的軍事文獻則對類似現象進行了獨特的分析。西方認知戰的方法不區分影響的層次。換言之,認知戰可指針對個人、群體或整個社會的行動。相反,俄羅斯軍事文獻將戰爭中的認知因素分為 "反射控制"(Refexive Control)和最近提出的 "心理戰"(Mental Warfare)。
西方文獻中廣泛討論的 "反射控制 "主要集中于通過誘導個人或群體對現實的認知發生轉變來操縱他們的認知過程。相比之下,"心理戰 "試圖重塑個人和社會集體的認知過程,目的是改變他們的社會意識。這是通過破壞精神和道德價值觀、傳統以及國家的文化和歷史基礎來實現的(伊爾尼茨基,2022 年)。
因此,本文的目的是對西方和俄羅斯當代認知戰的進展進行分析,尤其側重于確定核心理論和概念基礎、流行趨勢以及所使用的工具。鑒于這一領域仍在不斷發展,本文提出了更多的問題,而不是給出明確的答案。因此,本文是對西方和俄羅斯圍繞認知戰正在進行的討論的介紹性探討。本文的第一部分從西方的視角提出了自己的見解,隨后的部分則深入探討了俄羅斯的發展,最后得出結論。
自 2017 年起,美國開始使用 "認知戰"(Cognitive Warfare)一詞來描述一個國家或有影響力的團體為操縱敵方或其民眾的認知機制而可能采用的特定行動模式。認知戰的目標是削弱、煽動、影響目標實體,并有可能征服或摧毀目標實體(Stuart,2017)。認知戰整合了信息戰的各個組成部分,將針對無形資產的心理戰和影響戰與旨在擾亂或破壞有形信息系統的網絡戰結合起來。
根據 Claverie 和 du Cluzel(2022 年)的研究,認知戰戰略通常包括通過提供有偏見的信息(或經過數字修改的信息)來蓄意操縱現實,從而達到促進自身利益的目的。新通信工具的出現成倍地擴大了可能性的范圍,在這一領域產生了新的方法和目標。然而,這種復雜性的增加凸顯了潛在目標采取持續復原姿態的重要性,因為受害者可能只有在攻擊發生后才會意識到。這就強調需要采取積極主動的措施,有效地應對認知戰威脅。
如圖 1 所示,認知戰在兩個傳統上相互獨立的作戰領域交匯處占據著舉足輕重的地位:一方面是心理作戰(PSYOPS)和影響作戰(通常與權力概念相關),另一方面是網絡作戰(主要用于防御和破壞物理信息資產)。雖然認知戰的技術方面,特別是涉及網絡能力的方面,與傳統的心理戰不同,但認知戰可以被視為一種互補的努力,其特點是在心理影響領域內具有共同的目標和戰略(Claverie & du Cluzel,2022 年)。因此,認知戰的主要目標不僅僅是輔助戰略規劃或在不直接對抗的情況下取得勝利。相反,它涉及到一場深刻的沖突,涉及到敵對群體的思想、情感和信念,最終重塑他們對現實的認知(Claverie & du Cluzel,2022 年)。
圖 1:認知戰與 PSYOPS(廣義上包括實際心理作戰和其他非動能行動,如影響行動和軍民合作)之間的差異。改編自 Claverie 和 du Cluzel (2022)。
認知戰不僅僅是一種輔助戰略,也不僅僅是一種不通過肉搏戰而取得勝利的手段。其根本目標是通過操縱敵方對現實的感知,對其核心信仰、價值觀和情感發動戰爭。這種類型的戰爭專門針對敵人的思維過程、認知框架和整體世界觀,影響他們如何感知世界和形成概念思維。認知戰的預期效果包括改變世界觀,從而擾亂敵方的平靜心態,破壞其確定性,削弱其競爭力,阻礙其繁榮發展(Claverie & du Cluzel, 2022)。
從本質上講,認知戰是一種利用信息、技術和心理行動來左右對手的認知、信念和決策的沖突形式。其最終目的是干預現實構建過程,破壞心理自信、對過程的信任,以及對群體、社會甚至國家順利運作至關重要的機制(Claverie & du Cluzel, 2022)。因此,認知戰的目的是擾亂或利用對手的決策能力,操縱他們的認知,最終獲得戰略優勢。它可以包括心理戰,如宣傳或虛假信息、網絡攻擊以及通過數字通信傳播虛假信息。國家和非國家行為者都可以參與認知戰,并對對手的決策能力產生重大影響。
認知戰將新技術與人為因素和系統相結合,包括人工智能(AI)、機器學習(ML)、信息通信技術(ICT)、神經科學、生物技術和人類增強過程。這種融合對安全這一包含經濟、社會和文化問題的廣泛概念構成了高風險(Masakowski 等人,2020 年)。因此,戰爭領域已從傳統的三個(陸、海、空)擴展到北約目前認可的六個(陸、空、海、空、網絡和認知)(Guyader,2022 年)。
前面的討論沒有明確北約或任何歐盟國家準備用認知戰工具與其他行為體交戰。相反,目的是更好地了解認知戰及其自衛手段。惡性行為體利用認知戰對付西方的事例時有發生。俄羅斯干預美國大選,散布虛假信息詆毀媒體、公共機構、政治家和公務員,以及有關 COVID-19 疫苗、氣候變化、5G 技術等的虛假說法,都是這方面的明顯例子。
俄羅斯分析人士敏銳地注意到西方世界認知戰的最新發展。俄羅斯總參謀部學術期刊《Voennaia mysl'》最近刊登的一篇文章以明顯的憂慮感斷言,西方政府正高度重視尖端認知技術的發展。這些技術使他們有能力對個人、社會集體和整個國家機器的認知領域施加影響。這種能力構成了全球發達國家為實現其地緣政治目標而實施全面認知戰戰略的基石(Zhdanov 等人,2023 年)。
俄羅斯的認知戰方法與西方的理解不同。相反,它根據行動的來源劃分出兩個基本組成部分。當源頭來自俄羅斯時,它被稱為 "反射控制",而當源頭來自西方時,它被稱為 "心理戰"。雖然 "反射控制 "在西方文獻中已有廣泛論述,但 "心理戰 "的概念相對較新,值得進一步分析和討論。因此,本文將主要關注 "心理戰 "的原則。這兩個概念有著共同的理論和哲學框架,都與認知過程相關聯。此外,"心理戰 "還與 "反射控制 "共享 "反射性 "原則。
"反射控制 "是一種向對手(被控制者)提供敵方專門信息,誘使其自愿采取控制者所希望的預定行動的技術。這可以通過改變敵人的信息處理(認知)或有選擇地傳播信息(信息)來實現。當敵方受到影響而自愿做出對控制者有利的決定時,可進一步將其分為建設性反射控制和破壞性反射控制,前者的目的是破壞、癱瘓或抵消敵方的決策過程和算法。這種操縱利用道德、心理和其他因素,包括對手的個人特征,利用欺騙行動中的心理弱點。
不要把沖突僅僅看作是兩支兵力之間的互動,而必須把沖突看作是發生在敵對雙方決策過程中的一種動態。每個對手的選擇都是由他們對自己和對手的認知所決定的,從而形成兩者之間的反射互動。再現控制包括這樣一個過程,即一方向敵方提供推理或信息,引導敵方進行邏輯推理,并最終做出由發起方預先確定的決定。一個更現代的定義將其描述為一種向伙伴或對手傳遞特別準備的信息的方法,目的是引導他們自愿做出行動發起者所希望的決定。反射控制所使用的主要手段有(科莫夫,1997 年):
消耗: 這種戰術旨在迫使敵方采取不明智或徒勞的行動,消耗其資源并降低戰斗準備。它可能涉及有限的戰斗或聲東擊西的行動。
誘餌: 該戰術涉及信息反擊,使敵人在脆弱地區(后方、側翼等)感受到不需要特殊反擊措施的威脅。其目的是轉移敵人對真正威脅的注意力,使其放松警惕。
瓦解: 這種戰術主要是一種外交武器,利用信息反擊向敵方灌輸違背聯盟利益的思想。這可能包括誤導公眾輿論,或向相關國家領導人灌輸有關軍事政治局勢的錯誤觀念。此外,它還可能包括在敵國內部制造緊張局勢或加劇現有矛盾,削弱其軍事和經濟實力的行動。
綏靖: 用于說服敵方,使其相信對手持有中立或友好的意圖。它涉及信息對抗措施,給人一種例行戰斗訓練而非準備敵對行動的印象。其目的是讓敵人相信對手是和平的、不具威脅性的,從而降低他們的警惕性。任何計劃中的攻擊都要嚴格保密。
恐嚇: 目的是讓敵人了解對手真實或想象中的優勢。
挑釁: 目的是誘使敵方采取對己方有利的行動。
超負荷: 它要求在準備和敵對行動期間向敵人灌輸大量信息。這給他們的指揮系統造成壓力,迫使他們在不確定和混亂的情況下做出決定。
建議: 這種戰術涉及塑造和利用對方的行為模式。在準備階段,向敵方提供法律、道德、意識形態或其他方面的信息,促使其采取有利于對手的行動。
分散注意力和癱瘓: 在作戰行動的準備階段,對敵方最重要的地點之一(如側翼和后方)造成真實或假想的威脅。它迫使兵力重新評估其關于行動軸心的決定。
盡管人們可能對 "反射控制 "持懷疑態度,但它的明顯優勢在于,它迫使潛在用戶形成一種思維模式,即了解敵人、思考招數和反招數,并嘗試發展一種嚴謹的方法論來分析戰略問題并做出最佳決策,這一點至關重要。因此,"反射控制 "旨在改變受試者對物質世界的感知,從而影響社會意識并改變其認知過程。反射控制可以理解為一種策略,通過向合作伙伴或對手提供精心定制的信息來影響他們,從而引導他們自愿做出與發起者所期望的結果相一致的決定。因此,它是俄羅斯影響認知的主要手段之一,旨在影響對手的決策過程。它與北約之前討論的認知戰概念有許多相似之處。
心理戰的概念主要與俄羅斯人的信念有關,即他們正面臨著一場由西方通過顏色革命發動的文明戰爭,以達到俄羅斯軍事文獻中所謂的 "受控混亂 "狀態。日丹諾夫等人(2023 年)認為,俄羅斯對維護國家利益的追求已經轉變為文明對抗,表現為針對整個西方世界的混合戰爭,這不僅包括國家作為主權國家的存在,還包括整個俄羅斯文明的保存。從這個意義上說,它是之前討論的發展,而之前的討論大約在 2010 年代初就已經開始了,當時 A. A. Bartosh、I. N. Vorobyov、V. A. Kiselyov、S. G. Chekinov、S. A. Bogdanov 和其他俄羅斯軍事學者開始就俄羅斯軍事文獻中所稱的 "新一代戰爭"(Voyna novogo pokoleniya 或 New Generation Warfare)展開討論。從這個意義上說,心理戰是 "可控混亂 "戰略的主要組成部分之一,而 "可控混亂 "戰略是 "新一代戰爭 "的一部分。
"可控混亂 "是一種地緣政治模式,旨在對另一個國家(客戶國)選定的目標受害國造成破壞。這種 "破壞 "需要采取一系列措施,通過制造人為危機,削弱受害國的地緣政治優勢,包括領土面積、人口總數、國際地位、經濟潛力、軍事實力和綜合能力(Serzhantov et al.) 它還與俄羅斯的 "混合戰爭"(gibridnaya voyna)概念密切相關,該概念被定義為侵略國協調使用多種類型(工具)的暴力,旨在利用目標國的弱點,涵蓋所有社會功能,以實現協同效應,使敵人屈從于自己的意志(Bartosh,2022 年)。在這種情況下,奪取領土被推翻令人反感的政府和賦予忠誠的政治兵力所取代,從而剝奪目標國的主權并將其置于外部控制之下。
正如 Vorobyov 和 Kiselyov(2014)所述,俄羅斯深信西方正在使用一種顛覆性的意識形態武器,即所謂的 "西化"(Westernization),它涉及將與西方國家相似的社會制度、經濟、意識形態、文化和生活方式強加給俄羅斯(或其他國家)。這一戰略旨在詆毀俄羅斯現有的社會制度,在民眾中制造分裂,并為反對派運動爭取支持。從根本上說,這就是 "顏色革命",俄羅斯人堅信這是西方發動 "混合戰爭 "的主要手段。
在俄羅斯看來,"混合戰爭 "仍然是西方使用的專用工具,與俄羅斯的軍事條令格格不入。根據俄羅斯的文獻,混合戰爭的過程分為三個階段(Vorobyov & Kiselyov, 2014): 第一階段是在受害國內部挑起危機、促進不穩定、制造內部沖突;第二階段的中心是使受害國退化、貧困化,并最終將其推向解體,有效地將其轉變為通常所說的 "失敗國家";最后,西方將自己描繪成仁慈的救世主,對局勢進行干預,促進政治權力的更迭。如有必要,美國兵力隨時準備實施入侵,然后開展所謂的 "穩定 "行動。混合戰爭中使用的主要手段有(Karavaev,2022 年):
心理戰在這一過程中的作用是通過使用一套方法和影響手段,將不同規模的活動和行動進行戰略組合,以 "占領 "對手的意識為目標,挫敗社會意識,導致其意志癱瘓,并誘導民眾的個人和集體心態發生變化(Karavaev,2022 年)。因此,心理戰被定義為 "旨在'占領'對手意識的各種規模活動和行動的協調總和。這樣做的目的是麻痹其意志,改變民眾的個人和群體意識,打擊陸軍和社會的士氣,摧毀其精神和道德價值觀、傳統以及國家的文化和歷史基礎,抹殺人民的民族認同感(伊爾尼茨基,2022 年)。它有七個主要信條:
信息化: 對國家和軍事指揮系統以及對方的控制產生復雜的影響,從而導致通過所需的決定,并使基礎設施管理的運作陷入癱瘓。
心理:蓄意利用宣傳和其他手段(外交、軍事、經濟等)直接或間接影響敵方的觀點、情緒和情感,從而影響敵方的行為和文化設施。
控制論: 旨在破壞信息安全,擾亂計算機系統的運行,竊取數據,秘密監視和搜查不利證據。
政治:為政治孤立創造條件,并造成各種后果;
經濟上: 經濟:制造人為的貿易壁壘和限制,暫停投資資產。
金融: 關閉資本市場,使借貸、金融服務、中介和結算成為不可能。
混合型:結合使用秘密行動、破壞和網絡戰,以及向在敵國境內活動的叛亂分子提供支持。
無論是在和平時期還是在軍事沖突期間,其目標都是敵對一方的心態、身份、歷史傳統和價值觀。其目標是摧毀或改變影響對象:摧毀公眾意識、公共機構、國家、兵力等。心理戰的主要形式包括多向信息行動,其間使用特定的信息行動來影響人的意識(態度、感染、模仿、說服、影響、壓制和暗示),針對的領域如下(伊爾尼茨基,2022 年)。心理戰使用以下技術(Karavaev, 2022):
隱瞞有關社會各領域形勢的重要信息。
根據 "林子大了什么鳥都有 "的原則,將有價值的信息淹沒在一系列 "信息垃圾 "中。
偷換概念或曲解概念。
將注意力轉移到無關緊要的事件上。
應用媒體空間中經常使用的概念,而這些概念的含義已經發生了質的變化。
向受眾展示比正面新聞更受關注的負面信息。
討論沒有實際社會價值的事件,利用錯誤的社會學研究成果來歪曲社會形勢。
禁止某些類型的信息和新聞欄目,以防止公眾廣泛討論對某些權力結構至關重要的問題和話題。
公然撒謊,誤導民眾了解本國和外國公眾。
在這種情況下,行動重點是控制對手的認知過程,以影響個人或集體的觀念、行為和決策。目標是使受攻擊國家/地區的民眾與攻擊者的政治、社會、經濟和軍事/戰術目標保持一致。要實現這一目標,就要利用社會工程工具和技術,混淆政治辯論,癱瘓決策過程。過去三十年的技術發展、互聯網的發展以及網絡和網絡資產的重要性增加了改變和控制信息流的機會。由于目標是將信息轉化為知識的過程,信息已成為一種武器(Ilnitsky,2022 年),因此社會已成為戰爭中的一個公平目標。
克勞塞維茨闡述的持久原則強調,在大戰略層面,戰爭是圍繞政治目標展開的。新技術的出現帶來了新的交戰形式,包括動能和非動能方法。這些多層面的戰略旨在引起個人和集體認知過程的轉變,最終目的是實現戰略目標,傳統上通過動能手段來實現,現在則通過非動能手段來實現。近年來,"認知戰"(cognitive warfare)概念備受關注,其目的是操縱敵人或民眾的認知機制,以削弱、影響或征服目標實體。這種戰爭形式利用心理戰、影響戰和網絡攻擊來改變對手的認知、信仰和決策過程。在此背景下,北約和西方國家一直在努力應對認知戰的復雜性以及對手利用系統漏洞帶來的挑戰。此外,戰斗序列已從過去的體力、情感和智力因素轉變為現在的智力、情感和體力因素并重。
與當前的西方方法相比,俄羅斯軍事文獻提出了更加細致和獨特的觀點,介紹了兩個主要組成部分: 反射控制和心理戰。雖然 "反射控制 "的概念在西方文獻中已受到關注,但 "心理戰 "的概念卻是最近才出現的。反射控制和心理戰的理論和哲學基礎都以認知過程為中心。反射控制的目的是通過向對手提供有針對性的信息來施加影響,而心理戰的目標則是對方的心態、身份、歷史傳統和價值觀。
值得注意的是,心理戰是受控混亂和顏色革命背景下不可或缺的一部分。根據俄羅斯的文獻,心理戰的目的是占領對手的意識,麻痹他們的意志,并促使民眾的個人和集體心態發生變化。它試圖摧毀或改變目標國家的社會意識、公共機構、國家、兵力和其他關鍵方面。心理戰結合多向信息作戰,利用特定技術影響人的意識,包括態度、感染、說服和壓制。值得注意的是,俄羅斯認為心理戰是西方用來對付包括俄羅斯在內的不結盟國家的工具。
從這個意義上說,俄羅斯將自己定位為西方挑起的文明戰爭的受害者。俄羅斯不認為自身存在潛在的缺陷,而是將西方價值觀和政治、社會、經濟模式的吸引力歸咎于外部操縱,不認為本國精英的價值觀和政策可能會導致獨特的弱點和挑戰。因此,俄羅斯將責任歸咎于西方等外部行為體。
與此同時,俄羅斯還采用了他們認為西方正在對其使用的策略,將矛頭指向西方本身,這也可以被稱為 "文明戰爭"。他們的目的是利用西方自身的制度脆弱性,目標是推翻令人反感的政府,讓政治兵力上臺,而不是奪取領土。因此,由于目標是政治性的,他們利用了社會與政治、政府、經濟、軍事和其他機構之間的差距。因此,這些敘事不是親俄的,而是反西方、反體制、親民粹的,針對的是更廣泛的社會階層。
盡管認知戰并不能取代動能戰,但由于對手不斷采用創新和復雜的方法來實現其政治目標,西方在反擊認知戰時必須保持警惕。通過投資于積極主動的措施,包括增強復原力、信息安全和認知防御,北約及其成員國可以在面對不斷變化的威脅時更好地保護其社會并維護民主價值觀。政治家、公務員和其他利益相關者還必須明白,他們的行為會影響國家的信任度。信任度越低,認知行動成功的幾率就越高。
人工智能(或稱 AI)的應用正以各種方式影響著戰爭的性質和更廣泛的國際安全。在我們討論這些人工智能軍事應用的影響之前,先就如何思考它們的影響提出一些更具普遍性的想法:
通常情況下,人們會把人工智能這個詞賦予那些新穎的、能解決以往與人類智能相關問題的應用,賦予它神奇的光環。然而,當這種應用成為主流時,人工智能的標簽往往就會被摘掉。
在人類戰爭史上,影響戰爭方式的新技術層出不窮。從步槍到雷達,從刀劍到潛艇,從電報到戰斧:每一次新技術的出現都會激發烏托邦式的觀點,但當然也有烏托邦式的觀點,即特定的技術或武器系統將如何極大地影響戰爭的性質。我們的歷史證明了這一點:在萊特兄弟于 1903 年首飛之后,科幻小說家和軍事戰略家們紛紛宣稱空戰時代即將到來。最近,隨著網絡空間的出現,人們開始討論未來的戰爭是否會是網絡戰爭,觀察家們對網絡珍珠港的相關風險提出了警告。目前,學者、專業人士和普通人正在就人工智能對未來戰爭的影響展開激烈辯論,REAIM 會議當然也是一個證明。同樣,辯論也呈現出類似的模式,既有合理的擔憂,也有許多夸張的說法,還有未來戰爭將由機器而非人類自主發動的強大而可怕的畫面。
這次的不同之處在于,"一個人工智能系統 "并不存在。取而代之的是大量的算法應用,它們共同代表了一種萬能技術,一種在多個維度和整個 OODA 循環(軍事術語,即觀察-定向-決策-行動)中影響戰爭特征的萬能技術。這種技術既適用于戰場內外,也適用于戰爭與和平時期。
軍事史也表明,戰爭性質的真正變化往往是漸進的而不是點狀的,是進化的而不是革命的。變革不是通過某種新的銀彈或殺手級應用來實現的,而是通過軍事組織的艱苦工作來實現的,在這些工作中,軍事組織發展和完善作戰概念,將技術嵌入到新的作戰方式中,同時相應地調整組織結構。
有鑒于此,我們現在可以談談人工智能如何改變戰爭性質的問題。一些觀察家對變化的程度感到失望。他們將充滿機器人士兵的烏托邦式軍營與當前俄烏戰爭中充滿人類尸體的血腥戰壕這一同樣烏托邦式的現實相比較,發現戰爭仍然是 "To ánthrōpos,或者說是 "人類的事情"--這是有充分理由的。
盡管至少在可預見的未來,戰爭仍將是人類的事情,但很明顯,ANI(人工狹義智能)的突破與計算能力的爆炸性增長相結合,已經產生了大量的算法應用,國防組織在發動戰爭時可以加以利用。女士們、先生們,這并不是遙遠未來的某種烏托邦式現實,而是此時此地正在發生的算法戰爭現實的一部分。因此,人工智能應用正以各種方式影響著戰爭的性質,(目前)還不是通過人形終結者營,而是通過在整個 OODA 循環中將人工智能集成到現有應用中。
在戰場上,這已經產生了重大變化,通過更好的態勢感知和理解,以及通過所謂的 "戰斗云 "中壓縮殺傷鏈的分散式指揮網絡縮短決策周期,提高了武裝部隊的戰場效率。
沖突的加速為沿著 OODA 循環進一步整合算法提供了戰略依據,并標志著半人馬團隊的出現,人類仍處于循環中,但與人工智能應用近乎無縫整合。對 Sigint 的算法分析還提高了戰場透明度--無處可藏!- 并要求武裝部隊在有爭議和混亂的環境中開展分散行動。算法還用于無人駕駛飛機的導航和目標捕獲,包括進攻性的(通過閑逛彈藥)和防御性的(綜合防空和導彈防御)。
然而,算法的應用并不局限于戰場,它對核穩定也有相當大的影響。首先,徹底透明化將以各種方式改變核威懾的基本原則。例如,發射系統位置的曝光以及運載工具更高的精確度和機動性將影響威懾動態,并可能引發新的第一次和第二次打擊的不穩定性。此外,與技術變革相關的不確定性正促使人們擴大核武庫,并采用更靈活的核指揮與控制態勢--這些發展目前已在發揮作用。
算法也在開辟新的領域,沖突各方試圖在其中施加影響,包括通過我的同事弗蘭克-霍夫曼(Frank Hoffman)所說的 "認知戰爭"。現在有了經過實戰檢驗的劇本、現成的腳本,還有類似劍橋分析的服務可供雇傭。同樣,這不僅會影響戰爭的戰術層面,也會影響戰爭的戰略層面。想象一下,普京宣布發射核武器的 Deep Fake 會給戰略穩定帶來怎樣的影響,即使管理得當,也會造成怎樣的社會動蕩。重要的是要注意到,我們僅僅處于信息時代的黎明:5G、AR(增強現實)和 VR(虛擬現實)的出現以及 Metaverse 的出現將為沖突參與者帶來大量制造混亂的新機會。
總之,人工智能對戰爭性質和國際穩定的影響已經到來,它是真實存在的,并有望在未來幾年逐步實現。
這催化了倫理和法律領域的變革,并對如何限制和規范此類技術的生產、擴散和使用提出了多層次的重要挑戰。
近年來,機器學習的巨大進步已經開始對科學技術的許多領域產生重大影響。在本篇透視文章中,我們探討了量子技術是如何從這場革命中受益的。我們通過說明性的例子展示了科學家們在過去幾年是如何開始使用機器學習和更廣泛的人工智能方法來分析量子測量,估計量子設備的參數,發現新的量子實驗設置、協議和反饋策略,并普遍改善量子計算、量子通信和量子模擬的各個方面。我們強調了開放的挑戰和未來的可能性,并以對未來十年的一些推測性愿景作為結束。
圖1. 機器學習和人工智能可以幫助更好地解決的量子技術領域的任務概述。
圖3. 通過神經網絡進行狀態估計。(a) 對一個量子態的許多相同副本的測量可以被處理以產生一個量子態的估計。(b)對單個量子系統的連續弱測量可以用來更新估計的狀態。在(a)和(b)中,一個單一的網絡被訓練來正確估計任意的狀態。(c) 我們也可以訓練一個基于網絡的生成模型來重現一個量子狀態的統計數據,即從概率分布中取樣。訓練需要許多可以測量的相同的副本,因此可以學習統計學。這里一個網絡只代表一個量子態。它可以被擴展到處理任意基數的測量。
圖4. 機器學習用于量子設備的參數估計。(a) 一個典型的場景,測量結果的統計取決于一些可調整的測量設置和未知參數,這里表示為馬赫-澤恩德設置中的相移。(b) 一個自適應的測量策略可以用一棵樹來說明,每一層的分支都對應著不同的測量結果。根據這些結果,需要選擇一個特定的下一個測量設置(表示為 "αj")。尋找最佳策略是一項具有挑戰性的任務,因為它相當于搜索所有這樣的樹的空間。 (c) 神經生成模型可用于隨機抽查與先前測量結果兼容的未來可能的測量結果(這里是二維電流-電壓圖,如[68])。這對于選擇最佳的下一個測量位置是有幫助的。潛伏空間中不同的隨機位置會產生不同的樣本。(d) 五個可能的基本參數值的測量結果與測量設置(不同的曲線;測量不確定性通過厚度表示)。我們的目標是使信息增益最大化,即選擇最能確定參數的設置(這不等同于使結果的不確定性最大化)。
圖5. (a) 無模型強化學習的最終目標是直接應用于實驗,然后可以將其作為一個黑盒。然而,許多實際的實現是使用無模型的RL技術應用于基于模型的模擬。(b) 基于模型的強化學習直接利用了模型的可用性,例如,通過可微調的動力學取梯度。
圖6. 量子實驗的發現。量子光學實驗可以用彩色的圖來表示。使用最一般的、完整的圖作為起始表示,人工智能的目標是提取解決方案的概念核心,然后可以被人類科學家理解。然后,該解決方案可以轉化為眾多不同的實驗配置[113]。
圖7. 用離散門發現量子電路和反饋策略。(a) 強化學習智能體通過選擇門來作用于多量子比特系統,可能以測量結果為條件,找到一個優化的量子電路或量子反饋策略。(b) 一個固定布局的量子電路,其參數可以通過梯度上升進行優化,以實現一些目標,如狀態準備或變異基態搜索(可能包括反饋)。
圖8. 量子糾錯。綜合癥在表面代碼中解釋為神經網絡可以被訓練來執行的任務。