本報告旨在通過推演通用人工智能(AGI)治理的未來情景及其對全球權力格局的影響,促使政策制定者深入思考AGI發展對地緣政治與國際秩序的可能沖擊。作者聚焦于AGI研發部署可能引發的多維度影響——其中部分情形雖概率較低但意義重大——這些影響將從根本上改變現有地緣政治秩序。
為深入探究這些可能重塑世界的潛在影響,作者基于AGI研發集中化程度及其地緣政治結果構建了八種示范性情景。這些情景涵蓋:使美國占據優勢地位的AGI影響、增強美國競爭對手的AGI影響、引發重大地緣政治格局變遷的影響、以及導致AGI發展中斷的影響。
這些情景旨在揭示AGI研發的集中化程度是實現特定地緣政治結果的關鍵決定因素。在高度集中化情景中,美國或其競爭對手可能獲得顯著優勢;而分散化發展路徑可能導致多邊治理模式,甚至因非國家行為體借助AGI大幅增強實力而引發地緣政治失穩。
決定未來AGI地緣政治格局的關鍵因素持續顯現:
? 集中化程度可能是AGI發展最核心的影響要素。高度集中化研發有利于擁有雄厚資源的傳統強國;分散化路徑雖可賦能多元主體,但會增加擴散風險。出口管制、研究經費分配及國際治理框架構成影響AGI研發相對集中化程度的潛在調控杠桿。
? 國家與私營企業的關系成為另一關鍵決定因素。公私密切合作的情景與缺乏協調的情景產生截然不同的結果。專家一致強調:無論是國家還是企業都無法單獨有效管控AGI發展,建立平衡的合作關系至關重要。
? 即使在地緣政治因素有利的條件下,確保AGI系統可靠追求人類兼容目標的內在難度仍構成重大風險。緩解該風險通常需要開展國際合作,旨在限制危險行為體獲取AGI技術,并應對可能災難性的AGI系統失控局面。
? AGI部署引發的經濟社會動蕩給技術發展管理帶來嚴峻挑戰。社會能否適應快速自動化進程、信息操控及潛在的就業崗位更替,將直接影響最終結果對現有權力結構的鞏固或削弱效應。
本文剖析了擬議中用于探測、監控及對抗“認知戰”的人工智能系統,批判性審視此類系統對基本權利與價值觀的影響。在闡釋當代公共安全話語中的“認知戰”概念后,文章指出人工智能作為新興工具,可能加劇針對社會在線信息生態系統的惡意活動。為應對此挑戰,研究者與決策者提議利用人工智能制定反制措施——從基于人工智能的預警系統到政府主導的全網絡內容審核工具。然而這些干預措施在不同程度上干預了隱私權、言論自由、信息自由與自決權等基本權利與價值觀。所提出的人工智能系統缺乏充分考量當代在線信息生態系統的復雜性,尤其未能解決“認知戰”活動與不良后果間因果關系的固有判定難題。其后果在于,利用人工智能對抗“認知戰”反而可能損害本應受保護的基本權利與價值觀。決策者應減少對看似立竿見影的技術解決方案的過度關注,轉而投入構筑立足于保障基本權利的長效策略,以應對數字傳播生態系統中的信息失序問題。
人工智能(AI)的發展將如何塑造未來戰爭形態?盡管公眾對AI顛覆戰爭模式的潛力抱有濃厚興趣,研究者們仍處于探索AI如何改變作戰方式的初級階段。本報告提供概念框架與初步評估,旨在為系統探討AI改變軍隊作戰制勝模式的潛力確立基礎。
本次分析基于一項核心假設:AI成功實現其消除人類智力作為軍事行動約束的目標。據此框架,報告評估了AI對軍事行動四大"基礎要素競賽"的潛在影響。該框架將戰爭拆解為以下組元性競爭:(1)數量與質量的博弈,(2)隱蔽與發現的對抗,(3)集中式與分布式指揮控制(C2)的抉擇,(4)網絡進攻與網絡防御的較量。針對每項要素,我們闡釋了AI可能影響競爭形態的關鍵驅動因素與權衡取舍。
基于四維要素競賽分析,我們認為美軍可能需要改變其在作戰理念與軍力規劃方面的傳統模式,以釋放AI潛能。鑒于AI技術尚未成熟,以下僅為試探性推論:
徹底革新作戰理念與部隊架構的軍隊,將比僅用AI小幅改進現有模式的對手更具優勢。釋放AI軍事潛能既是技術挑戰更是組織變革,它要求軍隊突破既有的編制與運作舒適區。
隨著生成式人工智能(AI)技術迅猛發展,其對全球信息安全的潛在影響日益凸顯。本文探討俄羅斯國家關聯及親國家行為體如何在網絡傳播中討論、概念化與界定AI。基于對俄羅斯關聯網絡渠道的原創分析,本研究調查了俄影響力生態系統中的行為體如何看待AI在信息戰中的作用,以及其敘事揭示的威脅演變軌跡。報告發現:多元化的俄羅斯行為體正積極參與AI話題討論——不僅探索AI工具在內容自動化生產與傳播放大中的應用,更將其作為敘事工具加以探討:或宣揚其效力,或警示其風險,將其同時塑造為戰略資產與潛在威脅。
分析表明各類俄行為體(從瓦格納關聯組織到親俄黑客團體及網絡意見領袖)日益聚焦AI的雙重性。AI常被描繪為強大的信息操縱工具:能生成說服性內容、放大信息傳播量、以規模壓制對手。與此同時,眾多行為體對西方主導AI發展表示強烈憂慮,認為該技術可能顛覆公眾輿論、侵蝕自主權、破壞國內信息環境穩定性。關于監控、深度偽造(通過數字手段篡改音視頻以偽造人物言行)及算法偏見的擔憂在此類論述中尤為突出。這些討論遠非抽象臆測——本文記錄了國家關聯行為體如何積極辯論AI影響、分享實操知識、批判虛假信息實踐并招募技術人才。這些洞察表明俄影響力網絡正形成適應性演進文化,AI日益被視為未來信息戰的核心組件。
盡管本研究未觸及高層情報規劃內幕,但提供了行為體層面的獨特視角:揭示AI如何融入俄影響力網絡的戰略構想。這些發現不僅強調追蹤AI在未來虛假信息戰中的操作化應用至關重要,更需理解其已如何塑造行為體的思維方式、傳播模式及數字生態定位。
背景與方法
生成式AI的擴散引發廣泛擔憂——惡意行為體可能利用其破壞信息生態。早期關于AI生成虛假信息的警示多聚焦理論風險,而新近證據表明眾多行為體已將此類技術納入影響力行動。理解這些行為體如何認知、試驗及部署生成式AI,對預測未來威脅設計有效反制至關重要。此問題在俄信息戰背景下尤為迫切:俄政府長期將信息戰視為治國方略核心,視信息域為與傳統/核戰爭同等重要的沖突戰場。據信俄國家關聯虛假信息行為體已重金投入AI技術,以期在2024年歐洲議會選舉前夕影響歐洲受眾。隨著生成式AI更易獲取且功能增強,其降低了親俄行為體生態(含國家關聯媒體、黑客活動分子及網絡意見領袖)的操作門檻,使其能以更復雜方式試驗并應用這些工具。
盡管威脅嚴峻,對俄國家關聯行為體虛假信息戰的認知仍有限。現有討論多聚焦行動輸出,卻較少關注其如何看待AI在影響力行動中的作用。本文通過考察俄國家關聯行為體(含國家關聯社媒群組、黑客團體、軍事關聯組織及網絡意見領袖)對AI的討論填補此空白,探討AI如何成為其武器庫中的增效工具或補充現有技戰術。本研究通過測繪分析這些行為體的網絡傳播渠道與信息生態,為理解俄虛假信息戰提供新洞察。具體而言:分析其如何探討AI的認知理解、技術應用現狀及宣傳潛力,聚焦歐洲受眾影響與輿論極化嘗試。
本分析置于探索AI賦能信息戰的文獻脈絡中,提供更以行為體為中心的視角。研究未將俄虛假信息視為單一國家主導行為,而是強調參與者的異質性及其應用AI方式的多樣性與矛盾性。盡管聚焦戰術與中層級行為體,本文無意映射情報機構高層或決策者的戰略思想——此類洞察超出開源社媒監測范疇。本報告旨在精細呈現AI在俄影響力生態系統中如何被認知、討論與操作化,揭示這些演變實踐反映的實操與敘事層面新興威脅。
本背景資料簡報概述人工智能(AI)與國防領域的交匯點。AI現部署于教育、金融、交通、醫療與國家安全等多領域。國防領域作為國家安全體系的核心構成,涵蓋以維護國家主權與利益為目標的軍事能力與行動。盡管AI有望提升國防活動效能,但其應用引發人權與國防領域善治相關的諸多挑戰。本簡報將界定AI概念,探討其在國防領域的應用場景,剖析對善治的潛在風險,并就強化監管提出建議(包括完善監測機制、提升透明度、健全問責制及促進利益相關方協作)。
本背景資料簡報解答以下問題
? 何為人工智能(AI)?
? 國防領域的定義為何?
? 國防領域為何使用AI?
? AI對國防領域構成哪些風險?
? AI如何影響國防領域善治?
? 如何強化國防領域AI應用的監管?
主體 | 檢測 | 規劃 | 行動 | 后勤 |
---|---|---|---|---|
??武裝部隊?? | 收集分析多源數據,識別動態、威脅與異常 | 通過海量數據分析輔助戰略戰術規劃,預測未來場景并優化資源配置 | 提供實時作戰情報支持軍事行動 | 自動化物流供應鏈管理與人員調度 |
??行政管控機構?? | 分析風險并評估國防能力替代方案 | 起草國防立法框架,評估戰備狀態 | 實時監測作戰效能,動態調整資源分配 | 自動化國防采購預算與資產追蹤 |
??國內安全機構?? | 處理海量數據識別模式趨勢,研判潛在威脅 | 開發戰略報告,建立威脅優先級體系 | 部署AI增強型監控偵察系統提升行動精度 | 自動化數據處理與信息分發流程 |
??監督委員會?? | 監測分析國防開支與采購動態 | 制定戰略監督報告,評估項目合規性 | 實時追蹤國防項目執行情況 | 自動化審計程序與風險管理系統 |
??商業國防供應商?? | 整合Tranche 0衛星追蹤數據與地面傳感器網絡 | 開發下一代AI驅動武器系統,優化研發周期 | 維護升級AI作戰平臺軟件系統 | 構建智能供應鏈,實現備件預測性維護 |
??民間社會組織?? | 監控AI軍事化應用倫理風險 | 推動制定AI軍事應用國際規范框架 | 開展AI武器系統影響評估 | 建立AI軍事技術雙用途追蹤數據庫 |
行為主體 | 國內監管框架 | 透明度與問責制 | 伙伴關系與協作 |
---|---|---|---|
??武裝部隊?? | 實施人工智能專項審計與審查流程,監測系統開發、部署及運行 | 通過披露數據源、算法與決策流程等非涉密信息,提升人工智能系統透明度 | 與民間社會組織、學術機構、研究組織及產業伙伴合作,共享經驗教訓,促進治理創新 |
??行政管控機構?? | 建立專用監管機構/委員會,實施風險管理框架識別人工智能應用風險(技術/法律/安全) | 發布人工智能影響評估報告,詳述部署成效與運營結果 | 強化與議會委員會、政府監察機構及獨立審計部門協作,確保人工智能倡議透明度 |
??國內安全機構?? | 成立獨立審查小組,監控人工智能在國內安防應用中的倫理與法律影響 | 推動人工智能治理透明化與問責機制建設 | 與人權組織、隱私倡導機構及技術專家合作開展獨立評估,完善安防人工智能系統審查 |
??監督委員會?? | 制定人工智能采購與部署專項監管條例 | 定期公開國防人工智能項目進展與資金流向 | 搭建跨部門人工智能治理協作平臺,促進監管經驗共享 |
??商業國防供應商?? | 執行人工智能技術出口管制與雙用途技術監管 | 建立人工智能研發應用全周期可追溯機制 | 參與行業聯盟制定人工智能倫理標準,推動負責任技術創新 |
??民間社會組織?? | 倡導建立人工智能軍事應用倫理審查制度 | 開發公民監督平臺,完善人工智能應用違規舉報機制 | 聯合國際智庫開展人工智能軍事化影響研究,推動全球治理框架構建 |
普遍預期人工智能(AI)將在未來軍事行動中發揮關鍵作用。作為美空軍部(DAF)將新興技術融入現代戰爭的重要舉措,蘭德公司研究人員受托研究未來十年支撐有效態勢感知所需的數據、技術、流程與政策框架。為深入理解這些要素與當前技術發展的交叉點,研究團隊系統梳理了現有感知流程的挑戰與改進機遇,重點關注感知發生的場景、工具與主體,特別強調如何融合多源情報實現目標發現、定位與跟蹤。
本報告中,揭示了DAF面臨的核心感知挑戰,評估AI技術的應對潛力。通過構建AI應用對比框架,提出技術采納路徑,并以假想AI系統開展系統性風險評估,展示最佳實踐方案。鑒于AI能力與DAF感知流程的復雜性,二者協同需審慎考量決策者應用方式及其與整體情報周期的整合。
? 數據與知識表征需精細構建。高質量數據集須精心設計并配備準確元數據,支撐對象化生產與算法開發。
? 分析師須預判AI故障模式。理解AI訓練數據與知識表征的局限性,有助于優化系統應用效能。
? 專家系統仍具戰略價值。傳統AI技術持續發揮重要作用。
? DAF應為顛覆性技術應用鋪路。當前需優先部署非顛覆性AI技術,為未來重大變革奠定基礎。
? 制定感知能力發展共同路線圖。DAF情報、監視與偵察(ISR)聯隊協同太空軍相關部門,聯合首席數據與人工智能官(CDAO)確立AI融合優先事項。
? 建立前瞻性風險評估機制。DAF各感知機構應對擬采用AI工具開展社會-技術-操作-政治-經濟-可持續性(STOPES)多維評估,首席信息官需確保責任型AI原則在感知領域落地。
? 警惕工具過載效應。ISR聯隊與空戰中心應選擇性開發應用AI感知工具,優先適配現有工作流且降低培訓依賴的解決方案。
? 防范技能退化風險。DAF CDAO須制定應對計劃,通過構建訓練數據集、提升分析師數據辨識能力等手段,緩解AI應用可能導致的感知技能衰退。
本報告是系列研究之一,旨在分析新興技術對美國國土安全部(DHS)任務與能力的影響。作為研究組成部分,作者團隊開發一套技術與風險評估方法論,用于評估新興技術并理解其在國土安全背景下的潛在影響。該方法論與分析為DHS提供了理解新興技術及其風險的基礎框架。
確保太空關鍵通道的可靠接入已成為經濟與國家安全的重要命題。鑒于DHS廣泛的國土安全職責與權限(作為美國政府最大的執法機構),該部門在諸多依賴太空可靠接入的活動中具有核心利益,特別是在與16個關鍵基礎設施部門相關或位于其中的領域。
在技術評估中,作者團隊考察了四個維度:技術可用性,以及風險與情景(細分為威脅、脆弱性和后果)。風險與情景分析由DHS科技政策辦公室和DHS政策辦公室提供。研究團隊將這四個維度置于三個時間段進行比較——短期(最多三年)、中期(三至五年)和長期(五至十年)。具體而言,研究聚焦未來十年內通信與成像衛星、太空數據中心與存儲設施、太空研發、太空增材制造、商業能源生產及太空采礦等領域的技術進展。
在數字化和戰略競爭日趨激烈的現代,成功與否取決于一個組織是否有能力比競爭對手更好、更快地利用數據和技術。人工智能(AI)技術的飛速發展正在徹底改變公共和私營機構保持領先的方式,影響著傳統的、由人類驅動的分析流程的各個層面。本報告探討了在情報周期中應用人工智能工具的機會,以增強人類分析師的能力,同時減少其局限性,從而推動更加無縫的情報流程。
人類分析師擅長批判性思維和直覺判斷。他們解讀細微信息、理解復雜環境并根據不完整數據集做出明智決策的能力無與倫比。然而,數據超載、認知偏差、需要資源密集型培訓以及有限的時間和精力等限制因素卻阻礙了他們的工作效率。相反,人工智能技術擅長數據處理、客觀性和日常任務自動化。它們能以前所未有的速度分析海量數據、識別模式并執行重復性任務,而不會造成身心疲憊。
因此,人類和機器能力的互補優勢表明,分析流程將發生轉變,分析師-機器團隊將自適應地持續合作,以近乎實時的洞察力應對復雜的威脅。這種新模式將需要敏捷的協作框架、能夠有效使用人工智能工具并解讀人工智能生成的洞察力的熟練分析師、可靠而全面的培訓數據和流程,以及強大的監督機制。
本報告旨在為信息環境評估 (IEA) 從業人員提供指導。這包括了解信息環境和受眾,尤其是在線活動中的信息環境和受眾,并涵蓋必要的技術要素和法律因素。
報告涉及的關鍵問題包括:哪些人工智能(AI)功能對戰略傳播(StratCom)至關重要?哪些模式需要改進?人工智能在這一領域的前景如何?
報告提供了當前的知識,以提高從業人員安全、高效地駕馭人工智能驅動的信息環境并符合法律要求的能力。
根據《盟軍戰略傳播聯合條令》(AJP-10 (2023),以下簡稱 AJP-10),戰略傳播(StratCom)是指揮集團的一項職能,負責了解所有相關受眾的信息環境(IE),并在此基礎上利用包括行動、圖像和語言在內的所有傳播手段,通過以敘事為主導、以行為為中心的方法,適當地告知和影響受眾的態度和行為,以實現所期望的最終狀態。在北約軍事背景下,戰略傳播負責將傳播能力和信息參謀職能與其他軍事活動結合起來,以了解和塑造國際環境,支持北約的戰略目的和目標。
北約的 J10 戰略傳播局(J10-StratCom)包括信息作戰(Info Ops)的信息參謀職能以及軍事公共事務(Mil PA)和心理作戰(PsyOps)的傳播能力。在我們的研究報告中,雖然主要議題是人工智能在戰略傳播中的作用,但選擇特別關注心理作戰(PsyOps),因為這些領域之間存在重要的相互作用。
北約的 “心理戰 ”以北約或合作盟國、伙伴國或組織的真實信息為基礎。J10 戰略傳播中的心理作戰參謀人員僅存在于作戰層面及以下,并為指揮官的決策過程做出貢獻。他們就可行的心理作戰傳播活動和計劃行動的心理影響提出建議,并就心理作戰人員和非心理作戰人員及單元開展的信息和傳播活動提出建議,以便在IE中產生效果。在 J10-StratCom 內部,心理作戰人員提供五種不同的職能:
1.受眾分析 2.心理作戰計劃 3.反敵對信息和虛假信息 4.網絡行動 5.聯合心理戰特遣部隊總部
圖 9. 人工智能工具在戰略傳播活動各階段的使用情況概述
本研究報告介紹了聯合情報組織 (JIO) 和英國政府通信總部 (GCHQ) 委托開展的一個項目的研究成果,該項目以人工智能 (AI) 和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果是在對英國評估機構、情報機構和其他政府部門進行廣泛的初步研究基礎上得出的。情報評估職能部門在識別、處理和分析呈指數增長的信息來源和數量方面面臨著巨大挑戰。研究發現,人工智能是所有來源情報分析師的重要分析工具,如果不采用人工智能工具,可能會損害所有來源情報評估的權威性和對政府的價值。然而,人工智能的使用既可能加劇情報工作中已知的風險,如偏差和不確定性,也可能使分析人員難以評估和交流人工智能豐富情報的局限性。評估界面臨的一個主要挑戰將是最大限度地利用人工智能的機遇和優勢,同時降低任何風險。為了在向決策者傳達富含人工智能的情報時采用最佳做法,報告建議為傳達與人工智能有關的不確定性開發標準化術語;為情報分析師和戰略決策者提供新的培訓;以及為情報分析和評估中使用的人工智能系統制定認證計劃。
圖 1:聯合條令出版物 2-00《對聯合行動的情報、反情報和安全支持》,國防部,2023 年
本報告介紹了由聯合情報組織(JIO)和英國皇家通信總部(GCHQ)委托開展的CETaS研究項目的結果,該項目以人工智能(AI)和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果基于對英國評估機構、情報機構和其他政府部門進行的廣泛的初級研究,在整個2023-24年期間進行了為期7個月的研究。
這里的 "人工智能豐富情報 "是指部分或全部通過使用機器學習分析或生成式人工智能系統(如大型語言模型)而得出的情報見解。
研究考慮了
主要研究結果如下
1.人工智能是所有來源情報分析師的重要分析工具。人工智能系統處理大量數據的能力遠遠超出人類分析人員的能力,可以識別可能被忽視的趨勢和異常現象。因此,選擇不將人工智能用于情報目的,有可能違反《情報評估專業負責人共同分析標準》中規定的情報評估全面覆蓋原則。此外,如果遺漏了關鍵的模式和聯系,不采用人工智能工具可能會損害所有來源情報評估對政府的權威和價值。
2.然而,人工智能的使用加劇了情報評估和決策過程中固有的不確定性。人工智能系統的輸出是概率計算(而非確定性),目前在數據不完整或有偏差的情況下很容易出現誤差。許多人工智能系統的不透明性也使得人們難以理解人工智能是如何得出結論的。
3.對情報分析和評估中使用的人工智能系統,亟需精心設計、持續監測和定期調整,以減少擴大偏差和錯誤的風險。
4.制作評估產品的情報部門仍對評估用于情報分析和評估的人工智能方法的相關技術指標(如準確率和錯誤率)負有最終責任,所有來源的情報分析員在作出結論和判斷時必須考慮到任何局限性和不確定性。
5.國家安全決策者目前需要人工智能系統性能和安全方面的高度保證,才能根據人工智能豐富的情報做出決策。
6.在人工智能系統缺乏強有力的保證程序的情況下,國家安全決策者普遍對人工智能識別事件和發生的能力比對人工智能確定因果關系的能力表現出更大的信心。決策者更愿意相信人工智能豐富的情報見解,如果這些見解得到非人工智能、可解釋的情報來源的證實。
7.決策者對人工智能系統的技術知識差異很大。研究參與者一再表示,決策者必須對人工智能的基本原理、當前能力以及相應的保證流程有一個基本的了解,才能根據人工智能豐富的情報做出有分量的決策。
本報告建議采取以下行動,在向戰略決策者傳達富含人工智能的情報時采用最佳做法。
1.情報評估專業負責人(PHIA)應制定在所有來源評估中傳達人工智能強化情報不確定性的指南。該指南應概述在向決策者闡明人工智能相關限制和注意事項時應使用的標準化術語。此外,還應就評估應向決策者說明使用人工智能強化情報的閾值提供指導。
2.在向戰略決策者介紹技術信息時,評估界應采取分層方法。在提交給決策者的最終情報產品中,評估應始終能夠為非技術受眾所解讀。然而,應根據要求向那些具有更多技術專長的人提供有關系統性能和局限性的補充信息。
3.英國情報評估學院應代表所有來源評估界完成培訓需求分析,以確定新老 分析人員的培訓需求。該學院應與所有情報來源評估組織合作,根據分析結果開發適當的培訓。
4.應向國家安全決策者(及其工作人員)提供培訓,以建立他們對人工智能情報評估的信任。應向決策者介紹人工智能的基本原理和相應的保證程序。
5.在高風險的國家安全決策會議之前,應立即舉行簡短、可選的專家簡報會,因為在這些會議上,人工智能強化情報是承重決策的基礎。這些會議應向決策者簡要介紹關鍵的技術細節和局限性,并確保他們有機會提前考慮置信度評級。這些簡報會應由聯合信息辦公室和國家安全秘書處共同協調,并應利用首席科學顧問網絡和相關科學咨詢委員會的跨政府專業知識。應制定關于何時提供簡報的指南,并應持續評估簡報的必要性;隨著決策者對消費人工智能情報變得更加得心應手,所需的保證程度可能會降低,簡報最終可能變得沒有必要。
6.應為情報分析和評估中使用的人工智能系統制定一個正式的認證方案,以確保模型在穩健性、安全性、透明度以及固有偏見和緩解記錄方面滿足最低政策要求。將系統應用于特定問題的技術保證應下放給相關組織,每個組織的保證過程都應得到認證。這一計劃將需要專門的資源,將對情報評估標準和程序的理解與技術專長結合起來。PHIA 應協助制定原則和要求,而認證和測試方面的技術專長則應從情報界和政府各部門的技術主管部門抽調。
俄羅斯等大國反太空能力的提高可能會危及美國賴以實現廣泛軍事和經濟功能的天基能力。美國和對手能力的擴散導致不穩定的太空競爭,增加意外軍事升級的風險。在本報告中,作者研究了有關太空領域升級的傳統智慧,就美國太空部隊(USSF)和其他利益相關方如何更好地做好準備以阻止和管理升級提出了建議。他們研究了與穩定有關的六個命題的影響:(1)在沖突早期使用進攻能力的動機,(2)利用外國和商業系統的好處,(3)通信渠道對預防危機和緩和危機的效用,(4)促進共同的負責任行為規范的可行性,(5)選擇性啟示的戰略利益,以及(6)使用可逆能力來管理升級。