本報告是系列研究之一,旨在分析新興技術對美國國土安全部(DHS)任務與能力的影響。作為研究組成部分,作者團隊開發一套技術與風險評估方法論,用于評估新興技術并理解其在國土安全背景下的潛在影響。該方法論與分析為DHS提供了理解新興技術及其風險的基礎框架。
確保太空關鍵通道的可靠接入已成為經濟與國家安全的重要命題。鑒于DHS廣泛的國土安全職責與權限(作為美國政府最大的執法機構),該部門在諸多依賴太空可靠接入的活動中具有核心利益,特別是在與16個關鍵基礎設施部門相關或位于其中的領域。
在技術評估中,作者團隊考察了四個維度:技術可用性,以及風險與情景(細分為威脅、脆弱性和后果)。風險與情景分析由DHS科技政策辦公室和DHS政策辦公室提供。研究團隊將這四個維度置于三個時間段進行比較——短期(最多三年)、中期(三至五年)和長期(五至十年)。具體而言,研究聚焦未來十年內通信與成像衛星、太空數據中心與存儲設施、太空研發、太空增材制造、商業能源生產及太空采礦等領域的技術進展。
天基服務及其中斷在持續進行的烏克蘭戰爭中發揮了前所未有的作用。太空在這場戰爭中的角色為美國如何在未來潛在沖突中準備太空域行動提供了重要經驗。在本報告中,蘭德公司研究人員對戰爭期間太空活動進行開源分析,并為國家安全界提煉相關啟示。
本報告圍繞對烏克蘭戰爭最具塑造力的三大任務領域展開:衛星通信(SATCOM);定位、導航與授時(PNT);以及包含天基圖像或雷達的情報、監視與偵察(ISR)。針對每個任務領域,蘭德研究人員梳理了烏克蘭與俄羅斯戰前能力,明確這些能力在戰爭中的運用或干擾方式,并確定沖突中關鍵相關方面臨的挑戰或問題。研究基于公開信息,包括西方、烏克蘭及俄羅斯官員的公開聲明;俄烏防務企業文獻;以及開源報道。
本報告《定位、導航與授時未來展望》呈現一項前瞻研究項目的成果,旨在強化瑞士學術界與國防戰略思維的協同效應。項目核心驅動力為:如何利用學術界深厚多元的知識儲備預判具有潛在軍事價值的技術發展趨勢?為此,我們開發并驗證了一套廣泛對接學術研究的系統性方法。該流程旨在評估所有科研方向對軍事需求的潛在貢獻價值,力圖揭示非常規洞見,并規避因認知或體制偏見而草率排除特定領域(非因價值缺失,而是因其超出當前條令或作戰認知范疇)。最終目標是建立一套可系統化前瞻、啟發、指導并影響(AI4)軍隊技術未來的機制。
選擇PNT作為切入點,因其兼具國防關鍵性與學科交叉性,可容納多樣化的科學技術路徑。以PNT為試點主題,我們驗證了方法論框架,并協同國防領域多方利益相關者——測試如何呈現、分析與評估傳統及非傳統理念。除主題性發現外,本報告概述了可復用于其他領域的研究流程,為國防未來能力建設與瑞士學術界的持續互動提供框架。瑞士聯邦國防科技采購局(Armasuisse)下屬的"預見與技術前瞻團隊"致力于探索將蘇黎世聯邦理工(ETH)領域新興技術視角融入現有知識生產與轉化流程的新路徑。為此,與洛桑聯邦理工學院(EPFL)VEGA團隊達成協議,啟動"定位、導航與授時(PNT)未來"前瞻項目。項目目標為:構建PNT技術發展全景圖,識別面向"未來部隊"時間跨度(10年以上)的PNT關鍵機遇與風險。研究基于二手文獻綜述、ETH領域教授與實驗室訪談,以及Armasuisse內部知識整合研討會的成果。本執行摘要闡述項目執行過程,整合研究發現,提煉關鍵主題。附錄包含受訪實驗室名錄。
研究流程包含以下核心環節:
? 范圍界定:明確研究邊界與焦點領域;
? PNT相關實驗室識別:篩選與定位、導航、授時技術相關的科研機構;
? 第一輪訪談:開展初步調研;
? 技術全景圖初版構建:整合初期研究成果;
? Armasuisse內部研討會:關聯研究發現與內部知識體系;
? 第二輪訪談:深化關鍵領域調研;
? 數據分析與整合;
? 知識成果產出。
通過文獻調研初步確定PNT相關實驗室名錄,隨后聯系實驗室負責人(通常為教授)安排訪談。共聯系約30個實驗室,最終完成23次訪談(時長30-60分鐘)。訪談目標包括:理解實驗室研究領域與PNT的關聯性;梳理近十年關鍵創新與變革驅動因素;預判未來重點應用領域與潛在技術突破。
基于訪談數據構建瑞士PNT研究與技術全景圖,形成兩類文檔:
研究流程通過可視化形式呈現于報告中,并基于情景規劃生成未來情景敘事文檔。該文檔通過訪談提煉的趨勢與關鍵不確定性構建情景矩陣,衍生四種未來可能性(以敘事形式描述各情景對核心主體的影響)。后續章節為研究發現的宏觀概述,具體細節詳見各實驗室畫像分析。
確定性趨勢(高影響、高確定性)
? 消費電子持續驅動技術革新:推動小型化、低功耗、傳感器融合及內置慣性傳感技術的發展。
? 自動駕駛需求催生自主式PNT系統:促進不依賴外部輸入的自主定位導航授時技術演進。
? 無人機發展提升PNT性能門檻:對定位精度、實時性與抗干擾能力提出更高要求。
? 太空與深海經濟價值凸顯:推動極端環境PNT技術研發投入。
? AI與算力微型化協同發展:計算設備體積縮小伴隨智能化水平躍升。
? PNT破壞成為沖突新維度:安全防護需求倒逼PNT系統抗干擾與可信驗證能力升級。
? 高精度授時重要性陡增:支撐能源網絡、高頻金融交易、云計算數據中心及太空系統等關鍵領域。
不確定性(高影響、高不確定性)
? 地基與天基解決方案的競爭態勢;
? 自主慣性PNT系統與外部依賴型方案的博弈;
? 多源傳感器融合中視覺、激光雷達、雷達等輸入的權重分配。
? 安全防護范式——依賴全球導航衛星系統(GNSS)星座群擴張,抑或新型加密驗證技術突破?
? PNT主導權歸屬:政府主導與私營主導之爭;
? 授時技術路線:微型量子鐘研發與安全分布式授時系統的選擇。
PNT作為橫跨工業與國防應用的核心能力體系,其技術演進直接影響多領域戰略布局。本項目通過梳理瑞士科研機構的技術圖譜,為Armasuisse(瑞士聯邦國防科技采購局)未來PNT能力建設提供決策支撐,助力識別關鍵研發方向與潛在技術風險。
本背景資料簡報概述人工智能(AI)與國防領域的交匯點。AI現部署于教育、金融、交通、醫療與國家安全等多領域。國防領域作為國家安全體系的核心構成,涵蓋以維護國家主權與利益為目標的軍事能力與行動。盡管AI有望提升國防活動效能,但其應用引發人權與國防領域善治相關的諸多挑戰。本簡報將界定AI概念,探討其在國防領域的應用場景,剖析對善治的潛在風險,并就強化監管提出建議(包括完善監測機制、提升透明度、健全問責制及促進利益相關方協作)。
本背景資料簡報解答以下問題
? 何為人工智能(AI)?
? 國防領域的定義為何?
? 國防領域為何使用AI?
? AI對國防領域構成哪些風險?
? AI如何影響國防領域善治?
? 如何強化國防領域AI應用的監管?
主體 | 檢測 | 規劃 | 行動 | 后勤 |
---|---|---|---|---|
??武裝部隊?? | 收集分析多源數據,識別動態、威脅與異常 | 通過海量數據分析輔助戰略戰術規劃,預測未來場景并優化資源配置 | 提供實時作戰情報支持軍事行動 | 自動化物流供應鏈管理與人員調度 |
??行政管控機構?? | 分析風險并評估國防能力替代方案 | 起草國防立法框架,評估戰備狀態 | 實時監測作戰效能,動態調整資源分配 | 自動化國防采購預算與資產追蹤 |
??國內安全機構?? | 處理海量數據識別模式趨勢,研判潛在威脅 | 開發戰略報告,建立威脅優先級體系 | 部署AI增強型監控偵察系統提升行動精度 | 自動化數據處理與信息分發流程 |
??監督委員會?? | 監測分析國防開支與采購動態 | 制定戰略監督報告,評估項目合規性 | 實時追蹤國防項目執行情況 | 自動化審計程序與風險管理系統 |
??商業國防供應商?? | 整合Tranche 0衛星追蹤數據與地面傳感器網絡 | 開發下一代AI驅動武器系統,優化研發周期 | 維護升級AI作戰平臺軟件系統 | 構建智能供應鏈,實現備件預測性維護 |
??民間社會組織?? | 監控AI軍事化應用倫理風險 | 推動制定AI軍事應用國際規范框架 | 開展AI武器系統影響評估 | 建立AI軍事技術雙用途追蹤數據庫 |
行為主體 | 國內監管框架 | 透明度與問責制 | 伙伴關系與協作 |
---|---|---|---|
??武裝部隊?? | 實施人工智能專項審計與審查流程,監測系統開發、部署及運行 | 通過披露數據源、算法與決策流程等非涉密信息,提升人工智能系統透明度 | 與民間社會組織、學術機構、研究組織及產業伙伴合作,共享經驗教訓,促進治理創新 |
??行政管控機構?? | 建立專用監管機構/委員會,實施風險管理框架識別人工智能應用風險(技術/法律/安全) | 發布人工智能影響評估報告,詳述部署成效與運營結果 | 強化與議會委員會、政府監察機構及獨立審計部門協作,確保人工智能倡議透明度 |
??國內安全機構?? | 成立獨立審查小組,監控人工智能在國內安防應用中的倫理與法律影響 | 推動人工智能治理透明化與問責機制建設 | 與人權組織、隱私倡導機構及技術專家合作開展獨立評估,完善安防人工智能系統審查 |
??監督委員會?? | 制定人工智能采購與部署專項監管條例 | 定期公開國防人工智能項目進展與資金流向 | 搭建跨部門人工智能治理協作平臺,促進監管經驗共享 |
??商業國防供應商?? | 執行人工智能技術出口管制與雙用途技術監管 | 建立人工智能研發應用全周期可追溯機制 | 參與行業聯盟制定人工智能倫理標準,推動負責任技術創新 |
??民間社會組織?? | 倡導建立人工智能軍事應用倫理審查制度 | 開發公民監督平臺,完善人工智能應用違規舉報機制 | 聯合國際智庫開展人工智能軍事化影響研究,推動全球治理框架構建 |
歷史趨勢無法完全決定AI的未來走向。盡管本系列報告首篇強調歷史經驗的重要性,但仍可通過主動選擇塑造未來。期望《應對AI合規挑戰(下篇):防范未來風險》能指導決策者在避免重蹈覆轍的同時,培育社會對AI系統的信任。
作為系列報告的第二部分,本文提出39項風險緩解策略(詳見《防范未來風險的緩解策略》),旨在規避AI系統的制度性、流程性與性能性故障。這些策略致力于增強用戶對AI系統的信任并最大化產品效用。AI構建者與使用者(包括AI實驗室、部署AI系統的企業及州與地方政府)可根據需求與風險承受度,選擇性實施22項技術導向與17項政策導向的策略。
通過落實這些實踐,相關機構不僅能降低監管風險、構建產品信任度,還將獲得吸引頂尖人才、提升競爭優勢、改善財務表現與延長方案生命周期的綜合效益。基于研究及利益相關方調研結果,我們向AI構建者與使用者重點推薦39項策略中的以下九項核心建議:
? 實施分級合規措施應對高影響AI應用:AI構建者與使用者需針對敏感或高影響領域(如國家安全、醫療、金融等關鍵行業)的AI系統開發部署,根據預期用途、潛在風險與應用場景(從娛樂至關鍵領域)的差異,制定分級的合規方案。
? 認知并管控AI開發部署的可接受風險:應將意外后果與合規失敗區別對待。開發方、構建者與監管機構需在考量攻擊面擴大及AI未知特性引發的風險閾值時,明確承認非預期影響的客觀存在。
? 優先落實數據管理與隱私保護實踐:采用隱私保護技術、內容溯源功能與用戶授權機制等措施,可緩解流程性故障,在遵守數據法規的同時維護用戶權益與信任。
? 部署強健網絡安全防護體系:通過網絡安全控制、紅隊測試、故障保護機制等手段,抵御針對AI系統的攻擊,并在多元場景中提升系統可靠性。安全護欄設計可同步預防性能性與流程性故障。
? 運用安全風險評估機制前瞻性規避危害:建立涵蓋事件報告框架與全生命周期AI安全基準的評估流程,在危害發生前識別并緩解風險,有效應對流程性與性能性雙重故障。
? 開展全員合規與AI素養培訓:從數據供應商至模型開發者與部署者的全AI供應鏈員工,均需接受強制性培訓。所有涉及AI工具使用的員工應通過培訓掌握基礎AI素養技能。
? 構建透明度機制強化信任基礎:采用模型卡片、數據卡片與信息披露框架等透明化與可解釋性工具,是建立用戶/利益相關方信任、落實問責機制與支撐知情決策的必要條件。
? 優化AI可解釋性與披露框架:通過強化系統可解釋性并配套模型評估披露機制,使構建者與使用者深入理解AI行為模式與輸出邏輯,從而防范性能性故障。
? 推行非歧視性AI保障策略:在模型訓練、數據采集與持續監測環節實施偏差緩解策略,結合對抗性去偏技術,可預防性能性故障,確保系統公平性并消除歧視性結果。
云計算已成為全球數字經濟的基礎要素,釋放出前所未有的創新和連接水平。為了解這一關鍵使能技術對國際安全的深遠影響,本報告概述了云計算的相關用例、益處和風險,以及其關鍵治理挑戰和對軍備控制的影響。本報告分為兩部分--技術入門和治理入門--提供技術見解和政策分析。
本文對技術進行了通俗易懂的描述,解讀了技術的各個組成部分,同時概述了選定的優勢、風險和相關的國際安全應用。云計算實現了計算資源的可擴展性和靈活性,以及成本效益和實時數據處理與共享。與此同時,云計算也會加劇網絡安全威脅,增加跨境管轄問題,增加對少數大型服務提供商的依賴。
該技術入門指南還將云計算置于更廣泛的人工智能(AI)背景下,強調了云計算在促進和加速人工智能發展方面的作用。隨著國防、關鍵基礎設施和人道主義部門等與國際安全有交集的部門越來越多地采用云計算解決方案,謹慎平衡風險與收益至關重要。
有鑒于此,治理入門概述了與國際安全相關的關鍵治理挑戰。這些挑戰源于技術和商業模式本身的固有因素,以及與云計算交織在一起的地緣政治和國際安全現實相關的更廣泛因素。這些挑戰包括云計算的復雜性、數字主權、市場和地理集中度、與其他技術治理工作的交叉,以及軍事領域使用增加所帶來的治理挑戰。
最后,本報告探討了云計算對軍備控制的影響。它為討論軍備控制討論如何更好地考慮云計算帶來的問題,以及傳統軍備控制機制(如出口控制)如何受到新技術現實的影響提供了一個跳板。
在數字化和戰略競爭日趨激烈的現代,成功與否取決于一個組織是否有能力比競爭對手更好、更快地利用數據和技術。人工智能(AI)技術的飛速發展正在徹底改變公共和私營機構保持領先的方式,影響著傳統的、由人類驅動的分析流程的各個層面。本報告探討了在情報周期中應用人工智能工具的機會,以增強人類分析師的能力,同時減少其局限性,從而推動更加無縫的情報流程。
人類分析師擅長批判性思維和直覺判斷。他們解讀細微信息、理解復雜環境并根據不完整數據集做出明智決策的能力無與倫比。然而,數據超載、認知偏差、需要資源密集型培訓以及有限的時間和精力等限制因素卻阻礙了他們的工作效率。相反,人工智能技術擅長數據處理、客觀性和日常任務自動化。它們能以前所未有的速度分析海量數據、識別模式并執行重復性任務,而不會造成身心疲憊。
因此,人類和機器能力的互補優勢表明,分析流程將發生轉變,分析師-機器團隊將自適應地持續合作,以近乎實時的洞察力應對復雜的威脅。這種新模式將需要敏捷的協作框架、能夠有效使用人工智能工具并解讀人工智能生成的洞察力的熟練分析師、可靠而全面的培訓數據和流程,以及強大的監督機制。
本研究報告介紹了聯合情報組織 (JIO) 和英國政府通信總部 (GCHQ) 委托開展的一個項目的研究成果,該項目以人工智能 (AI) 和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果是在對英國評估機構、情報機構和其他政府部門進行廣泛的初步研究基礎上得出的。情報評估職能部門在識別、處理和分析呈指數增長的信息來源和數量方面面臨著巨大挑戰。研究發現,人工智能是所有來源情報分析師的重要分析工具,如果不采用人工智能工具,可能會損害所有來源情報評估的權威性和對政府的價值。然而,人工智能的使用既可能加劇情報工作中已知的風險,如偏差和不確定性,也可能使分析人員難以評估和交流人工智能豐富情報的局限性。評估界面臨的一個主要挑戰將是最大限度地利用人工智能的機遇和優勢,同時降低任何風險。為了在向決策者傳達富含人工智能的情報時采用最佳做法,報告建議為傳達與人工智能有關的不確定性開發標準化術語;為情報分析師和戰略決策者提供新的培訓;以及為情報分析和評估中使用的人工智能系統制定認證計劃。
圖 1:聯合條令出版物 2-00《對聯合行動的情報、反情報和安全支持》,國防部,2023 年
本報告介紹了由聯合情報組織(JIO)和英國皇家通信總部(GCHQ)委托開展的CETaS研究項目的結果,該項目以人工智能(AI)和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果基于對英國評估機構、情報機構和其他政府部門進行的廣泛的初級研究,在整個2023-24年期間進行了為期7個月的研究。
這里的 "人工智能豐富情報 "是指部分或全部通過使用機器學習分析或生成式人工智能系統(如大型語言模型)而得出的情報見解。
研究考慮了
主要研究結果如下
1.人工智能是所有來源情報分析師的重要分析工具。人工智能系統處理大量數據的能力遠遠超出人類分析人員的能力,可以識別可能被忽視的趨勢和異常現象。因此,選擇不將人工智能用于情報目的,有可能違反《情報評估專業負責人共同分析標準》中規定的情報評估全面覆蓋原則。此外,如果遺漏了關鍵的模式和聯系,不采用人工智能工具可能會損害所有來源情報評估對政府的權威和價值。
2.然而,人工智能的使用加劇了情報評估和決策過程中固有的不確定性。人工智能系統的輸出是概率計算(而非確定性),目前在數據不完整或有偏差的情況下很容易出現誤差。許多人工智能系統的不透明性也使得人們難以理解人工智能是如何得出結論的。
3.對情報分析和評估中使用的人工智能系統,亟需精心設計、持續監測和定期調整,以減少擴大偏差和錯誤的風險。
4.制作評估產品的情報部門仍對評估用于情報分析和評估的人工智能方法的相關技術指標(如準確率和錯誤率)負有最終責任,所有來源的情報分析員在作出結論和判斷時必須考慮到任何局限性和不確定性。
5.國家安全決策者目前需要人工智能系統性能和安全方面的高度保證,才能根據人工智能豐富的情報做出決策。
6.在人工智能系統缺乏強有力的保證程序的情況下,國家安全決策者普遍對人工智能識別事件和發生的能力比對人工智能確定因果關系的能力表現出更大的信心。決策者更愿意相信人工智能豐富的情報見解,如果這些見解得到非人工智能、可解釋的情報來源的證實。
7.決策者對人工智能系統的技術知識差異很大。研究參與者一再表示,決策者必須對人工智能的基本原理、當前能力以及相應的保證流程有一個基本的了解,才能根據人工智能豐富的情報做出有分量的決策。
本報告建議采取以下行動,在向戰略決策者傳達富含人工智能的情報時采用最佳做法。
1.情報評估專業負責人(PHIA)應制定在所有來源評估中傳達人工智能強化情報不確定性的指南。該指南應概述在向決策者闡明人工智能相關限制和注意事項時應使用的標準化術語。此外,還應就評估應向決策者說明使用人工智能強化情報的閾值提供指導。
2.在向戰略決策者介紹技術信息時,評估界應采取分層方法。在提交給決策者的最終情報產品中,評估應始終能夠為非技術受眾所解讀。然而,應根據要求向那些具有更多技術專長的人提供有關系統性能和局限性的補充信息。
3.英國情報評估學院應代表所有來源評估界完成培訓需求分析,以確定新老 分析人員的培訓需求。該學院應與所有情報來源評估組織合作,根據分析結果開發適當的培訓。
4.應向國家安全決策者(及其工作人員)提供培訓,以建立他們對人工智能情報評估的信任。應向決策者介紹人工智能的基本原理和相應的保證程序。
5.在高風險的國家安全決策會議之前,應立即舉行簡短、可選的專家簡報會,因為在這些會議上,人工智能強化情報是承重決策的基礎。這些會議應向決策者簡要介紹關鍵的技術細節和局限性,并確保他們有機會提前考慮置信度評級。這些簡報會應由聯合信息辦公室和國家安全秘書處共同協調,并應利用首席科學顧問網絡和相關科學咨詢委員會的跨政府專業知識。應制定關于何時提供簡報的指南,并應持續評估簡報的必要性;隨著決策者對消費人工智能情報變得更加得心應手,所需的保證程度可能會降低,簡報最終可能變得沒有必要。
6.應為情報分析和評估中使用的人工智能系統制定一個正式的認證方案,以確保模型在穩健性、安全性、透明度以及固有偏見和緩解記錄方面滿足最低政策要求。將系統應用于特定問題的技術保證應下放給相關組織,每個組織的保證過程都應得到認證。這一計劃將需要專門的資源,將對情報評估標準和程序的理解與技術專長結合起來。PHIA 應協助制定原則和要求,而認證和測試方面的技術專長則應從情報界和政府各部門的技術主管部門抽調。
本報告是關于新興技術對美國國土安全部(DHS)任務和能力影響的系列分析報告之一。作為這項研究的一部分,作者負責開發一種技術和風險評估方法,用于評估新興技術并了解其對國土安全的影響。該方法和分析為國土安全部更好地了解新興技術及其帶來的風險奠定了基礎。
本報告重點關注人工智能(AI),尤其是與關鍵基礎設施相關的人工智能。作者借鑒了有關智能城市的文獻,在評估技術時考慮了幾個屬性:技術可用性、風險和情景(作者將其分為威脅、脆弱性和后果)。本分析中考慮的風險和情景與影響關鍵基礎設施的人工智能使用有關。這些用例可以是用于監控關鍵基礎設施,也可以是對手利用人工智能對關鍵基礎設施進行非法活動和邪惡行為。風險和場景由國土安全部科技局和國土安全部政策辦公室提供。作者比較了短期(最多三年)、中期(三至五年)和長期(五至十年)三個時期的屬性,以評估人工智能關鍵基礎設施的可用性和相關風險。
無人機系統或無人機技術,包括單個系統和成群的無人機系統,在過去的 25 年里得到了廣泛的應用。因此,隨著技術的不斷成熟,這種技術和使用這些無人機系統的能力既是當前的威脅,也是日益增長的威脅。
在本報告中,研究人員評估了智能蜂群技術,考慮了技術可用性以及未來三年、三至五年和五至十年的風險和情景(威脅、弱點和后果)。此外,研究人員還考慮了隨著技術的發展,是否會開展可降低風險的準備或緩解和響應活動。研究人員得出結論認為,無論是采用代用無人機群還是智能無人機群技術,這些系統都會對國土構成重大風險,而脆弱性和后果的緩解很可能具有挑戰性。
圖:智能蜂群風險評估
澳大利亞皇家海軍 (RAN) 最近推出了一項開發和使用機器人、自主系統和人工智能 (RAS-AI) 的戰略,該戰略將通過一項運動計劃來實施。蘭德澳大利亞研究團隊正在通過建立證據基礎來支持 RAN 的這項工作,以幫助識別和塑造基礎活動。本報告概述了近期和長期(到 2040 年)海上 RAS-AI 技術的現狀和軌跡,并對近期、中期和長期可能執行的任務進行了高級審查根據相關的技術和非技術推動因素。
本報告并沒有研究人工智能在海上行動中更廣泛的整合,而是關注支撐無人平臺的任務和技術的進步,包括無人空中、水面和水下航行器。除了概述近期和長期 RAS-AI 任務的關鍵技術推動因素外,該報告還指出了在 RAS-AI 能力發展中應考慮的三個關鍵原則:(1)關注多種技術(新系統和“遺留”系統),而不是單一的技術解決方案; (2) 考慮國防和商業 RAS-AI 系統的互補性進展; (3) 監測非技術因素,例如不斷發展的監管、法律、政策和道德框架,這些框架可能會顯著影響未來的技術采用路徑。