先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。
技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。
圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。
結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。
為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。
權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。
這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。
首先回顧并簡要評述了當前的軍事人工智能形勢。然后,轉向迄今為止在很大程度上被忽視的人工智能驅動系統影響國家層面訴諸武力決策的前景。雖然此類系統已經對發動戰爭的決策產生了有限而間接的影響,但它們將越來越多地以更直接的方式影響此類決策--無論是在自動自衛的背景下,還是通過為人類決策提供信息的決策支持系統。本文引證了人工智能系統在其他決策領域的不斷擴散,再加上人們認為有必要在人工智能 “全球軍備競賽 ”中與潛在對手的能力相匹配,這種發展是不可避免的,很可能會在不久的將來出現,并有望產生重大影響。在概述了與這一預期發展相關的四個主題之后,預覽了構成本特刊的十二篇多元化、多學科文章。每篇文章都涉及我們提出的四個主題之一,并探討了人工智能技術滲透到戰爭決策中的重大風險或益處。
如果由智能機器來決定國家是否參與戰爭呢?從某種意義上說,這只是科幻小說的內容,或者說是對未來技術如何發展、如何超越我們的能力并掌握控制權的長期猜測。然而,從另一個更細微的角度來看,這是一個非常可信的現實,與我們現在擁有的技術相兼容,很可能在不久的將來以某種形式實現(考慮到其他領域可觀察到的發展),而且是我們心甘情愿地逐步實現的前景。
本文將探討人工智能介入訴諸武力的決策這一完全可以想象的前景所帶來的風險和機遇。將回過頭來簡要評述一下當前的軍事人工智能形勢,然后再探討人工智能預期影響這一在很大程度上被忽視的領域。然后,將強調與人工智能技術滲入戰爭決策相關的四個主題,然后預覽與這些并發癥相關的十二篇不同的、多學科文章。
人工智能(AI)--不斷發展的機器模仿人類智能行為的能力--已經從根本上改變了有組織的暴力行為。人工智能已經并正在越來越多地融入各種軍事功能和能力。例如,圍繞澳大利亞、英國(UK)和美國(US)“AUKUS ”協議發布的官方文件概述了人工智能在先進軍事能力中發揮的日益重要的作用,包括對 “彈性和自主人工智能技術(RAAIT)”的承諾,根據該承諾,"‘AUKUS’合作伙伴正在提供人工智能算法和機器學習,以加強部隊保護、精確瞄準以及情報、監視和偵察。(AUKUS 國防部長引文2023)人工智能在軍事能力中的擴散不僅對武器系統的實用性、準確性、殺傷力和自主性產生深遠影響(例如,見 Scharre 引文2024),而且人工智能與先進武器系統的交叉被認為會對軍事力量平衡產生嚴重影響(例如,見 Ackerman 和 Stavridis 引文2024)。事實上,人工智能已被視為謀求軍事優勢的關鍵所在,并在當前關于維護軍事優勢的思考中占據中心位置。正如一份分析報告所解釋的那樣,人工智能 “將使美國能夠部署更好的武器,在戰斗中做出更好的決策,并釋放出更好的戰術”。(布坎南和米勒引文 2017, 21)用美國前國防部副部長米歇爾-弗盧諾伊(引文 2023)的話說,“人工智能正開始重塑美國的國家安全”。
軍事人工智能的重要性與日俱增,其利用也日益廣泛,與此同時,人們對其使用可能帶來的潛在風險和不良后果也感到擔憂。一個充滿人工智能的決策世界和隨之而來的壓縮時間表,再加上智能自動化甚至完全自主的武器,在帶來軍事優勢的同時也帶來了危險。這促使人們試圖制定規則和限制,至少可以約束人工智能的某些軍事應用,并力求將危險或不良結果降至最低。這種監管不僅僅是一個學術問題。大量證據表明,各國政府也越來越關注人工智能在軍事領域的應用所帶來的廣泛風險。2023 年 2 月在海牙舉行的 “軍事領域負責任的人工智能 ”國際峰會發表了 “關于負責任地在軍事領域使用人工智能和自主權的政治宣言”,截至 2024 年 2 月,該宣言已得到 50 多個國家的認可(美國國務院引文2023)。該聲明包括一系列旨在促進安全、謹慎地使用軍事人工智能的可取措施,其中包括 “在負責任的人類指揮和控制鏈內 ”使用人工智能的主張(與本特刊通篇討論的一個問題有關)(美國國務院引文 2023)。
澳大利亞國防部長理查德-馬爾斯議員在宣布澳大利亞將于 2023 年 11 月加入該宣言時重申,澳大利亞承諾 “積極參與國際議程,以負責任的方式研究、開發、部署和應用人工智能”(澳大利亞政府引文 2023)。此外,美國總統喬-拜登和澳大利亞總理安東尼-阿爾巴內塞于2023年10月在華盛頓特區會晤后發表聯合聲明,申明 “各國應采取適當措施,確保負責任地開發、部署和使用其軍事人工智能能力,包括實現自主功能和系統的能力”(澳大利亞總理引文2023)。當然,要切實采取這些措施,就必須了解--并預測--人工智能系統在軍事環境中的各種應用方式。
最后,必須承認,軍事人工智能與核武器并存的幽靈最近引起了人們的關注和擔憂。人工智能在核武器領域的應用引發了大量分析和擔憂,原因顯而易見,其潛在風險是如此巨大(例如,見 Kaur Citation2024;Shaw Citation2023;Parke Citation2023)。正如 Depp 和 Scharre 嚴正指出的那樣,“在核行動中正確使用人工智能可能會產生毀滅世界的影響”(Depp 和 Scharre 引用 2024)。美國在其 2022 年《核態勢評估報告》中宣布,作為一項政策,在任何涉及使用核武器的決策中,人類都將無一例外地參與其中(美國國防部引文 2022,13)。一個基本的擔憂是,人工智能可能會以自動反應能力的方式融入核指揮與控制,這可能會加強威懾,但也會增加意外升級或失控的風險。由于擔心人工智能的引入會給核指揮與控制帶來新的漏洞,人們呼吁制定規范和準則,以限制核不穩定性以及可能隨之而來的對核威懾的威脅(Avin 和 Amadae Citation 2019)。
總之,人工智能對武器系統的性能、軍事行動的開展以及軍事力量的弱點和優勢的影響非常重要。這些發展對未來戰爭具有嚴重影響(如果仍不確定的話),并引起了學術界、國家領導人和普通公眾的關注。然而,由人工智能驅動的軍事工具激增所引發的思想發酵和政策審議主要集中在因此而使用(和改變)武力的方式上,而不是這種新興技術組合如何可能為國家是否以及何時參與戰爭的決策提供信息(并可能改變決策)的問題上。要討論的正是后一個問題。
學術界和政策制定者的關注點主要集中在戰爭中人工智能系統的使用上。其中最突出的包括正在出現的 “致命自主武器系統”(“LAWS”--或更通俗和挑釁性的 “殺手機器人”)和決策支持系統,其形式是依靠大數據分析和機器學習來推薦無人機襲擊和轟炸目標的算法(如最近引起關注的以色列在加沙的行動(Abraham Citation2024;Davies, McKernan, and Sabbagh Citation2023))。相比之下,試圖探討的是在商議訴諸戰爭的各個階段和層面使用人工智能工具這一相對被忽視的前景。
換句話說,將從戰場上的人工智能轉向戰爭室中的人工智能。從士兵選擇和攻擊目標(以及授權和監督智能機器選擇和攻擊目標)的決策,轉向國家層面關于發動戰爭和軍事干預的決策;從戰時法(jus in bello)轉向訴諸戰爭法(jus ad bellum)的考慮(用正義戰爭傳統的語言);從國際人道法裁定的行動,轉向受《聯合國憲章》禁止訴諸武力及其明確例外規定約束和縱容的行動。
重點的轉移至關重要。它預示著國家在做出戰爭決定時不可避免的變化。之所以預測人工智能將滲透到訴諸武力的決策過程中,部分原因是人工智能驅動的系統(包括預測性機器學習算法)在其他許多領域不斷擴散,以幫助決策制定。從招聘、保險決策、醫院醫療診斷和福利分配,到警務實踐、商用飛機駕駛艙支持和累犯可能性判斷,都需要依靠此類系統。總之,人類的決策越來越依賴于人工智能的幫助。此外,在日益高速、始終高風險的戰爭環境中,需要與潛在對手的能力相匹配,這也助長了最新的 “全球軍備競賽”(Simonite Citation2017)。雖然人工智能系統目前在國家層面的訴諸武力決策中只發揮了有限和間接的作用,但相信,它們將逐步以更直接的方式影響此類決策。現在,通過研究人工智能逐步干預訴諸武力決策的前景,就有可能確定使用這些技術的益處和風險,同時還有時間分別找到加強或減輕這些益處和風險的方法。
這些考慮因素的嚴重性怎么強調都不為過。正如阿什利-迪克斯(Ashley Deeks)、諾姆-盧貝爾(Noam Lubell)和達拉-默里(Daragh Murray)(引文2019, 16)挑釁性地提出的:如果說機器被賦予 “決定 ”殺死一名敵軍士兵的權力的可能性充滿了倫理和法律爭議,那么又該如何看待機器最終決定一個國家是否參戰,從而影響成千上萬或數百萬人生命的可能性呢?
當然,智能機器 “決定 ”一個國家是否參與戰爭可能意味著不同的事情。撇開科幻小說中的場景和長期的未來主義猜測不談,目前的人工智能驅動系統可以通過兩種方式對訴諸武力的決策產生影響。首先,人工智能決策支持系統可用于為是否參戰的討論提供信息。在這種情況下,人類決策者將利用算法建議和預測來做出訴諸武力的決定。在人工智能輔助收集和分析情報方面,這種情況已經開始出現,至少是間接地出現在組織層級和指揮系統中。另外,人工智能驅動的系統本身也可以計算和執行訴諸武力的決定,例如在防御網絡攻擊的情況下。此外,令人擔憂的是,人工智能驅動的自動核反應首次打擊的建議也被醞釀和威脅,特別是在斬首攻擊的情況下。(據報道,蘇聯留給俄羅斯的 “死手 ”發射系統仍在使用,因此這種可能性并非不可想象。俄羅斯的 “周邊 ”系統在 Depp 和 Scharre Citation2024 中有所描述;另見 Andersen Citation2023,12)。在這種情況下,人工智能自主系統將決定并實施行動方案--無論是否有人類監督。這兩類情況都是可預見的(而且很可能是在不久的將來),需要立即關注。
這些人工智能驅動的系統能夠分析大量數據,通過發現人類決策者無法感知的數據模式提出建議和預測,并以望塵莫及的速度和效率對潛在攻擊作出反應,盡管它們具有種種潛在優勢,但挑戰也層出不窮。2023 年 6 月 29 日至 30 日,在澳大利亞國立大學(ANU)舉行了題為 “預測未來戰爭:人工智能、自動化系統和訴諸武力決策 ”的研討會,該研討會促成了本特刊的出版。
復雜因素 1 涉及人工智能驅動的訴諸武力決策中人類判斷的替代,以及對威懾理論和沖突意外升級的可能影響。當編程建議--或獨立計算和實施--對特定情況做出反應時,智能機器的行為會與人類代理人不同。這種差異可能會挑戰我們對威懾的理解。目前對一個國家是否愿意訴諸武力的看法是基于對人類判斷力、決心和忍耐力的假設,而不是機器生成的結果。此外,在某些情況下,人工智能系統被委以獨立應對侵略的任務,將以人類行為者無法達到的速度做出并執行決策,從而加快決策周期。它們似乎還可能曲解人類的信號(例如,關于緩和沖突的愿望)。這兩個因素都可能導致在人類決策者本應保持克制的情況下,訴諸武力卻在無意中升級,并可能造成災難性后果(例如,見 Wong 等人,Citation2020,第 7 章和第 8 章)。
復雜因素 2 強調了自動化偏差可能產生的影響。實證研究表明,依賴人工智能驅動系統的個人和團隊往往會出現 “自動化偏差”,即傾向于不加質疑地接受計算機生成的結果(Cummings Citation2006;Citation2012;Mosier and Fischer Citation2010;Mosier and Manzey Citation2019;Skitka, Mosier, and Burdick Citation1999)。這種傾向會使人類決策者不太可能利用自己的專業知識和判斷力來檢驗機器生成的建議。自動化偏見的有害后果包括接受錯誤、人類行動者的非技能化--包括 “道義上的枯竭”(Vallor Citation2013),以及正如一位在本文集和其他地方所論證的,在戰爭中 “錯位責任 ”的推廣(與其他因素一起),或者說智能機器可以為必然是人類的決策及其結果承擔道義責任的危險誤解(Erskine Citation2024a, 551-554; Citation2024b)。
復雜因素 3 涉及算法的不透明性及其對民主和國際合法性的影響。機器學習過程經常是不透明和不可預測的。受其指導的人往往不理解預測和建議是如何得出的,也不了解它們的局限性。目前,許多人工智能驅動的決策都缺乏透明度,這導致了一系列負面影響(Knight Citation2017;Pasquale Citation2016;Citation2017;Vogel 等人 Citation2021)。由于政府的民主和國際合法性要求對訴諸戰爭的決定提供令人信服且易于理解的理由,當機器為此類行動提供信息或獨立計算和實施此類行動時,這種缺乏透明度的情況會帶來嚴重的問題。
復雜因素4 涉及人工智能系統加劇組織決策病態的可能性。國際關系(IR)和組織理論的研究都揭示了組織決策的現有復雜性和 “病態”(在國際關系領域,例如參見 Barnett 和 Finnemore Citation 1999)。人工智能驅動的決策支持和自動化系統介入這些復雜的結構有可能會放大這些問題。它們對國家甚至政府間決策的貢獻可能會扭曲和擾亂戰略和行動決策過程及指揮系統。
本文介紹了一種通過整合領域知識和基于注意力的策略機制來增強多智能體強化學習(MARL)的替代方法。方法側重于將特定領域的專業知識融入學習過程,從而簡化協作行為的開發。這種方法旨在通過使智能體專注于復雜任務的重要方面,從而優化學習曲線,降低與 MARL 相關的復雜性和學習開銷。在我們的模型中,注意力機制的利用起到了關鍵作用。它可以有效處理動態上下文數據和智能體之間細微的互動,從而做出更精細的決策。在斯坦福智能系統實驗室(SISL)“追逐 ”和 “多粒子環境”(MPE)“簡單擴展 ”等標準 MARL 場景中的應用表明,我們的方法既能提高學習效率,又能提高協作行為的有效性。結果表明,我們基于注意力的方法可以在行動層面整合特定領域的知識,是提高 MARL 訓練過程效率的可行方法。
本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。
2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。
這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。
之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。
2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。
人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。
雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。
在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。
要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。
在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。
人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。
生成式人工智能模型能夠執行一系列傳統上需要創造力和人類理解力的任務。在訓練過程中,它們可以從現有數據中學習模式,然后根據這些模式生成文本、圖像和音樂等新內容。一方面,由于它們的多功能性和普遍的高質量結果,它們代表了數字化的機遇。另一方面,人工智能生成模型的使用也帶來了新的 IT 安全風險,在全面分析與 IT 安全相關的威脅時需要考慮這些風險。
針對這種潛在風險,使用生成式人工智能的公司或機構在將生成式人工智能集成到工作流程之前,應進行單獨的風險分析。這同樣適用于開發人員和運營商,因為生成式人工智能的許多風險必須在開發時就考慮到,或者只能由運營公司來影響。在此基礎上,可以調整現有的安全措施,并采取額外的措施。
為了真實地再現軍事行動,嚴肅的戰斗模擬要求建模實體具有合理的戰術行為。因此,必須定義作戰戰術、條令、交戰規則和行動概念。事實證明,強化學習可以在相關實體的行為邊界內生成廣泛的戰術行動。在多智能體地面作戰場景中,本文展示了人工智能(AI)應用如何制定戰略并向附屬單元提供命令,同時相應地執行任務。我們提出了一種將人類知識和責任與人工智能系統相結合的方法。為了在共同層面上進行交流,人工智能以自然語言下達命令和行動。這樣,人類操作員就可以扮演 "人在回路中 "的角色,對人工智能的推理進行驗證和評估。本文展示了自然語言與強化學習過程的成功整合。
為了獲得模型架構的靈感,我們研究了 DeepMind 的 AlphaStar 架構,因為它被認為是復雜 RL 問題領域的最先進架構。通過我們的架構(如圖 2 所示),我們提出了一種靈活、可擴展的行動空間與深度神經網絡相結合的適應性新方法。觀察空間的設計基于如何準備戰場的軍事經驗。通常使用地圖和可用部隊表。因此,模擬觀測被分為標量數據(如可用坦克數量及其彈藥)。同時,基于地圖的輸入作為視覺輸入提供給空間編碼器。
標量數據用于向人工智能提供幾乎所有場景細節的建議。其中包括有關自身部隊及其平臺的數據,以及有關敵方部隊的部分信息。輸入并非以絕對數字給出,而是采用歸一化方法來提高訓練效果。編碼器可以很容易地寫成多層感知器(MLP);不過,使用多頭注意力網絡可以大大提高訓練后智能體的質量,因此應予以采用(Vaswani 等人,2017 年)。
為了理解地理地形、距離和海拔高度的含義,人工智能會被輸入一個帶有實體編碼的地圖視覺表示。顏色方案基于三通道圖像,這使我們能夠輕松地將數據可視化。雖然使用更多通道會給人類的圖形顯示帶來問題,但人工智能能夠理解更多通道。不同的字段類型和實體會用特殊的顏色進行編碼,以便始終能夠區分。這種所謂的空間編碼器由多個卷積層組成。最初,我們嘗試使用 ResNet-50 (He 和 Zhang,2016 年)和 MobileNetV3 (Howard 等,2019 年)等著名架構,甚至使用預先訓練的權重。然而,這并沒有帶來可接受的訓練性能。因此,我們用自己的架構縮小了卷積神經網絡(CNN)的規模。
為了測試和優化這一架構,我們使用了一個自動編碼器設置,并使用了模擬中的真實樣本。我們能夠將參數數量從大約 200 萬減少到大約 47000。此外,我們還生成了一個預訓練模型,該模型已與模擬的真實觀測數據相匹配。這一步極大地幫助我們加快了 RL 進程。
一個可選元素是添加語言輸入,為人工智能定義任務。雖然一般的戰略人工智能不使用這一元素,但計劃將其用于下屬智能體。這些智能體將以自然語言接收來自戰略人工智能的任務,并使用雙向門控遞歸單元(GRU)編碼器對其進行處理。
視覺數據、任務數據和標量數據的編碼值被合并并輸入核心網絡。根據 Hochreiter 和 Schmidhuber(1997 年)的介紹,核心主要是一個擁有 768 個單元的長短期記憶(LSTM)組件。在軍事場景中,指揮官必須了解高價值資產的長期戰略規劃。在本模擬中,人工智能可以請求戰斗支援要素,這些要素在影響戰場之前需要長達 15 分鐘的時間。因此,人工智能必須了解未來任務的時間安排和規劃。在 RL 中使用 LSTM 網絡相當困難,因為它需要大量的訓練時間,而且會導致上面各層的梯度消失。因此,我們決定在 LSTM 上添加一個跳過連接,以盡量減少新增層的負面影響。
動作頭由一個自然語言處理(NLP)模型組成。這是一個非常簡化的動作頭模型,包含一個小型 LSTM 和一個額外的密集層,共有約 340000 個參數。其結果是一個尺寸為 8 x 125 的多離散動作空間。
除主模型外,還有一個單獨的價值網絡部分。價值網絡使用核心 LSTM 的輸出,并將對手信息串聯起來傳遞給 MLP。然后,MLP 可以精確預測價值函數。通過對手信息,價值網絡對模擬有了一個上帝般的地面實況視圖。由于該網絡只與訓練相關,因此可以在不干擾訓練完整性的情況下進行。
有效決策是組織成功的核心。在數字化轉型時代,企業越來越多地采用數據驅動的方法來獲得競爭優勢。根據現有文獻,人工智能(AI)代表了這一領域的重大進步,它能夠分析大量數據、識別模式、做出準確預測,并為組織提供決策支持。本研究旨在探討人工智能技術對組織決策不同層面的影響。通過將這些決策按照其屬性分為戰略決策和運營決策,本研究可以更全面地了解人工智能在組織決策中實施的可行性、當前采用率以及阻礙因素。
人工智能(AI)通過提供決策建議和與問題相關的信息來協助人類決策者,具有改善人類決策的潛力。然而,要充分發揮人類與人工智能合作的潛力,仍然面臨著一些挑戰。首先,我們必須了解支持互補性的條件,即人類在人工智能輔助下的表現超過無輔助的人類或單獨的人工智能的情況。這項任務要求人類能夠識別在哪些情況下應該利用人工智能,以及開發新的人工智能系統,使其能夠學習如何與人類決策者互補。其次,我們需要準確評估人類對人工智能的心理模型,其中既包括對人工智能的期望,也包括依賴策略。第三,我們需要了解不同的人機交互設計選擇所產生的影響,包括人工智能輔助的時機以及應該向人類決策者展示的模型信息量,以避免認知超載和無效的依賴策略。針對這三大挑戰,我們將基于最新的經驗和理論研究成果提出跨學科觀點,并討論新的研究方向。
人工智能(或稱 AI)的應用正以各種方式影響著戰爭的性質和更廣泛的國際安全。在我們討論這些人工智能軍事應用的影響之前,先就如何思考它們的影響提出一些更具普遍性的想法:
通常情況下,人們會把人工智能這個詞賦予那些新穎的、能解決以往與人類智能相關問題的應用,賦予它神奇的光環。然而,當這種應用成為主流時,人工智能的標簽往往就會被摘掉。
在人類戰爭史上,影響戰爭方式的新技術層出不窮。從步槍到雷達,從刀劍到潛艇,從電報到戰斧:每一次新技術的出現都會激發烏托邦式的觀點,但當然也有烏托邦式的觀點,即特定的技術或武器系統將如何極大地影響戰爭的性質。我們的歷史證明了這一點:在萊特兄弟于 1903 年首飛之后,科幻小說家和軍事戰略家們紛紛宣稱空戰時代即將到來。最近,隨著網絡空間的出現,人們開始討論未來的戰爭是否會是網絡戰爭,觀察家們對網絡珍珠港的相關風險提出了警告。目前,學者、專業人士和普通人正在就人工智能對未來戰爭的影響展開激烈辯論,REAIM 會議當然也是一個證明。同樣,辯論也呈現出類似的模式,既有合理的擔憂,也有許多夸張的說法,還有未來戰爭將由機器而非人類自主發動的強大而可怕的畫面。
這次的不同之處在于,"一個人工智能系統 "并不存在。取而代之的是大量的算法應用,它們共同代表了一種萬能技術,一種在多個維度和整個 OODA 循環(軍事術語,即觀察-定向-決策-行動)中影響戰爭特征的萬能技術。這種技術既適用于戰場內外,也適用于戰爭與和平時期。
軍事史也表明,戰爭性質的真正變化往往是漸進的而不是點狀的,是進化的而不是革命的。變革不是通過某種新的銀彈或殺手級應用來實現的,而是通過軍事組織的艱苦工作來實現的,在這些工作中,軍事組織發展和完善作戰概念,將技術嵌入到新的作戰方式中,同時相應地調整組織結構。
有鑒于此,我們現在可以談談人工智能如何改變戰爭性質的問題。一些觀察家對變化的程度感到失望。他們將充滿機器人士兵的烏托邦式軍營與當前俄烏戰爭中充滿人類尸體的血腥戰壕這一同樣烏托邦式的現實相比較,發現戰爭仍然是 "To ánthrōpos,或者說是 "人類的事情"--這是有充分理由的。
盡管至少在可預見的未來,戰爭仍將是人類的事情,但很明顯,ANI(人工狹義智能)的突破與計算能力的爆炸性增長相結合,已經產生了大量的算法應用,國防組織在發動戰爭時可以加以利用。女士們、先生們,這并不是遙遠未來的某種烏托邦式現實,而是此時此地正在發生的算法戰爭現實的一部分。因此,人工智能應用正以各種方式影響著戰爭的性質,(目前)還不是通過人形終結者營,而是通過在整個 OODA 循環中將人工智能集成到現有應用中。
在戰場上,這已經產生了重大變化,通過更好的態勢感知和理解,以及通過所謂的 "戰斗云 "中壓縮殺傷鏈的分散式指揮網絡縮短決策周期,提高了武裝部隊的戰場效率。
沖突的加速為沿著 OODA 循環進一步整合算法提供了戰略依據,并標志著半人馬團隊的出現,人類仍處于循環中,但與人工智能應用近乎無縫整合。對 Sigint 的算法分析還提高了戰場透明度--無處可藏!- 并要求武裝部隊在有爭議和混亂的環境中開展分散行動。算法還用于無人駕駛飛機的導航和目標捕獲,包括進攻性的(通過閑逛彈藥)和防御性的(綜合防空和導彈防御)。
然而,算法的應用并不局限于戰場,它對核穩定也有相當大的影響。首先,徹底透明化將以各種方式改變核威懾的基本原則。例如,發射系統位置的曝光以及運載工具更高的精確度和機動性將影響威懾動態,并可能引發新的第一次和第二次打擊的不穩定性。此外,與技術變革相關的不確定性正促使人們擴大核武庫,并采用更靈活的核指揮與控制態勢--這些發展目前已在發揮作用。
算法也在開辟新的領域,沖突各方試圖在其中施加影響,包括通過我的同事弗蘭克-霍夫曼(Frank Hoffman)所說的 "認知戰爭"。現在有了經過實戰檢驗的劇本、現成的腳本,還有類似劍橋分析的服務可供雇傭。同樣,這不僅會影響戰爭的戰術層面,也會影響戰爭的戰略層面。想象一下,普京宣布發射核武器的 Deep Fake 會給戰略穩定帶來怎樣的影響,即使管理得當,也會造成怎樣的社會動蕩。重要的是要注意到,我們僅僅處于信息時代的黎明:5G、AR(增強現實)和 VR(虛擬現實)的出現以及 Metaverse 的出現將為沖突參與者帶來大量制造混亂的新機會。
總之,人工智能對戰爭性質和國際穩定的影響已經到來,它是真實存在的,并有望在未來幾年逐步實現。
這催化了倫理和法律領域的變革,并對如何限制和規范此類技術的生產、擴散和使用提出了多層次的重要挑戰。
近年來,機器學習的巨大進步已經開始對科學技術的許多領域產生重大影響。在本篇透視文章中,我們探討了量子技術是如何從這場革命中受益的。我們通過說明性的例子展示了科學家們在過去幾年是如何開始使用機器學習和更廣泛的人工智能方法來分析量子測量,估計量子設備的參數,發現新的量子實驗設置、協議和反饋策略,并普遍改善量子計算、量子通信和量子模擬的各個方面。我們強調了開放的挑戰和未來的可能性,并以對未來十年的一些推測性愿景作為結束。
圖1. 機器學習和人工智能可以幫助更好地解決的量子技術領域的任務概述。
圖3. 通過神經網絡進行狀態估計。(a) 對一個量子態的許多相同副本的測量可以被處理以產生一個量子態的估計。(b)對單個量子系統的連續弱測量可以用來更新估計的狀態。在(a)和(b)中,一個單一的網絡被訓練來正確估計任意的狀態。(c) 我們也可以訓練一個基于網絡的生成模型來重現一個量子狀態的統計數據,即從概率分布中取樣。訓練需要許多可以測量的相同的副本,因此可以學習統計學。這里一個網絡只代表一個量子態。它可以被擴展到處理任意基數的測量。
圖4. 機器學習用于量子設備的參數估計。(a) 一個典型的場景,測量結果的統計取決于一些可調整的測量設置和未知參數,這里表示為馬赫-澤恩德設置中的相移。(b) 一個自適應的測量策略可以用一棵樹來說明,每一層的分支都對應著不同的測量結果。根據這些結果,需要選擇一個特定的下一個測量設置(表示為 "αj")。尋找最佳策略是一項具有挑戰性的任務,因為它相當于搜索所有這樣的樹的空間。 (c) 神經生成模型可用于隨機抽查與先前測量結果兼容的未來可能的測量結果(這里是二維電流-電壓圖,如[68])。這對于選擇最佳的下一個測量位置是有幫助的。潛伏空間中不同的隨機位置會產生不同的樣本。(d) 五個可能的基本參數值的測量結果與測量設置(不同的曲線;測量不確定性通過厚度表示)。我們的目標是使信息增益最大化,即選擇最能確定參數的設置(這不等同于使結果的不確定性最大化)。
圖5. (a) 無模型強化學習的最終目標是直接應用于實驗,然后可以將其作為一個黑盒。然而,許多實際的實現是使用無模型的RL技術應用于基于模型的模擬。(b) 基于模型的強化學習直接利用了模型的可用性,例如,通過可微調的動力學取梯度。
圖6. 量子實驗的發現。量子光學實驗可以用彩色的圖來表示。使用最一般的、完整的圖作為起始表示,人工智能的目標是提取解決方案的概念核心,然后可以被人類科學家理解。然后,該解決方案可以轉化為眾多不同的實驗配置[113]。
圖7. 用離散門發現量子電路和反饋策略。(a) 強化學習智能體通過選擇門來作用于多量子比特系統,可能以測量結果為條件,找到一個優化的量子電路或量子反饋策略。(b) 一個固定布局的量子電路,其參數可以通過梯度上升進行優化,以實現一些目標,如狀態準備或變異基態搜索(可能包括反饋)。
圖8. 量子糾錯。綜合癥在表面代碼中解釋為神經網絡可以被訓練來執行的任務。
本研究報告分析了當前利益相關者對軍事自主系統的人為輸入或控制的想法。作者首先定義了關鍵術語,如 "機器學習"、"自主系統"、"人在回路中"以及軍事背景下的 "有意義的人為控制",然后討論了當代利益相關者的文獻對無人駕駛軍事系統的人的輸入/控制的說明。然后,報告討論了各利益攸關方是否對進攻性和防御性系統中所需要或期望的人類控制水平達成了共識,以及是否因系統具有致命性和非致命性能力或西方和非西方國家之間的意見不同而有所不同。報告最后從政策和操作的角度闡述了利益相關者的想法對加拿大國防部/空軍的可能影響。
主要研究結果
在與自主系統有關的關鍵術語的定義方面存在著相當多的爭論。
在國家對自主武器應采取何種監管手段的問題上,各利益攸關方一直存在分歧。
參加這些討論的締約國已就自主武器的一系列指導原則達成共識,包括 "必須保留人類對使用武器系統決定的責任"。
在近30個表示支持禁止致命性自主武器系統(LAWS)的國家中,沒有一個是主要的軍事大國或機器人開發商,主要的軍事大國似乎都在對沖自己的賭注。
許多民主國家認為,他們打算保留人類對使用武力的控制/判斷,不需要禁止,因為現有的國際人道主義法律(IHL)足以解決圍繞自主武器的問題。
加拿大擁有重要的人工智能(AI)能力,該能力被用于民用而非軍事用途。
如果在國防領域不接受至少某種程度的(人工智能支持的)自主性,可能會降低與盟國的互操作性,給加拿大武裝部隊(CAF)的行動帶來風險,并且隨著時間的推移,使CAF對國際和平與安全的貢獻失去意義。