隨著生成式人工智能(AI)技術迅猛發展,其對全球信息安全的潛在影響日益凸顯。本文探討俄羅斯國家關聯及親國家行為體如何在網絡傳播中討論、概念化與界定AI。基于對俄羅斯關聯網絡渠道的原創分析,本研究調查了俄影響力生態系統中的行為體如何看待AI在信息戰中的作用,以及其敘事揭示的威脅演變軌跡。報告發現:多元化的俄羅斯行為體正積極參與AI話題討論——不僅探索AI工具在內容自動化生產與傳播放大中的應用,更將其作為敘事工具加以探討:或宣揚其效力,或警示其風險,將其同時塑造為戰略資產與潛在威脅。
分析表明各類俄行為體(從瓦格納關聯組織到親俄黑客團體及網絡意見領袖)日益聚焦AI的雙重性。AI常被描繪為強大的信息操縱工具:能生成說服性內容、放大信息傳播量、以規模壓制對手。與此同時,眾多行為體對西方主導AI發展表示強烈憂慮,認為該技術可能顛覆公眾輿論、侵蝕自主權、破壞國內信息環境穩定性。關于監控、深度偽造(通過數字手段篡改音視頻以偽造人物言行)及算法偏見的擔憂在此類論述中尤為突出。這些討論遠非抽象臆測——本文記錄了國家關聯行為體如何積極辯論AI影響、分享實操知識、批判虛假信息實踐并招募技術人才。這些洞察表明俄影響力網絡正形成適應性演進文化,AI日益被視為未來信息戰的核心組件。
盡管本研究未觸及高層情報規劃內幕,但提供了行為體層面的獨特視角:揭示AI如何融入俄影響力網絡的戰略構想。這些發現不僅強調追蹤AI在未來虛假信息戰中的操作化應用至關重要,更需理解其已如何塑造行為體的思維方式、傳播模式及數字生態定位。
背景與方法
生成式AI的擴散引發廣泛擔憂——惡意行為體可能利用其破壞信息生態。早期關于AI生成虛假信息的警示多聚焦理論風險,而新近證據表明眾多行為體已將此類技術納入影響力行動。理解這些行為體如何認知、試驗及部署生成式AI,對預測未來威脅設計有效反制至關重要。此問題在俄信息戰背景下尤為迫切:俄政府長期將信息戰視為治國方略核心,視信息域為與傳統/核戰爭同等重要的沖突戰場。據信俄國家關聯虛假信息行為體已重金投入AI技術,以期在2024年歐洲議會選舉前夕影響歐洲受眾。隨著生成式AI更易獲取且功能增強,其降低了親俄行為體生態(含國家關聯媒體、黑客活動分子及網絡意見領袖)的操作門檻,使其能以更復雜方式試驗并應用這些工具。
盡管威脅嚴峻,對俄國家關聯行為體虛假信息戰的認知仍有限。現有討論多聚焦行動輸出,卻較少關注其如何看待AI在影響力行動中的作用。本文通過考察俄國家關聯行為體(含國家關聯社媒群組、黑客團體、軍事關聯組織及網絡意見領袖)對AI的討論填補此空白,探討AI如何成為其武器庫中的增效工具或補充現有技戰術。本研究通過測繪分析這些行為體的網絡傳播渠道與信息生態,為理解俄虛假信息戰提供新洞察。具體而言:分析其如何探討AI的認知理解、技術應用現狀及宣傳潛力,聚焦歐洲受眾影響與輿論極化嘗試。
本分析置于探索AI賦能信息戰的文獻脈絡中,提供更以行為體為中心的視角。研究未將俄虛假信息視為單一國家主導行為,而是強調參與者的異質性及其應用AI方式的多樣性與矛盾性。盡管聚焦戰術與中層級行為體,本文無意映射情報機構高層或決策者的戰略思想——此類洞察超出開源社媒監測范疇。本報告旨在精細呈現AI在俄影響力生態系統中如何被認知、討論與操作化,揭示這些演變實踐反映的實操與敘事層面新興威脅。
本報告旨在通過推演通用人工智能(AGI)治理的未來情景及其對全球權力格局的影響,促使政策制定者深入思考AGI發展對地緣政治與國際秩序的可能沖擊。作者聚焦于AGI研發部署可能引發的多維度影響——其中部分情形雖概率較低但意義重大——這些影響將從根本上改變現有地緣政治秩序。
為深入探究這些可能重塑世界的潛在影響,作者基于AGI研發集中化程度及其地緣政治結果構建了八種示范性情景。這些情景涵蓋:使美國占據優勢地位的AGI影響、增強美國競爭對手的AGI影響、引發重大地緣政治格局變遷的影響、以及導致AGI發展中斷的影響。
這些情景旨在揭示AGI研發的集中化程度是實現特定地緣政治結果的關鍵決定因素。在高度集中化情景中,美國或其競爭對手可能獲得顯著優勢;而分散化發展路徑可能導致多邊治理模式,甚至因非國家行為體借助AGI大幅增強實力而引發地緣政治失穩。
決定未來AGI地緣政治格局的關鍵因素持續顯現:
? 集中化程度可能是AGI發展最核心的影響要素。高度集中化研發有利于擁有雄厚資源的傳統強國;分散化路徑雖可賦能多元主體,但會增加擴散風險。出口管制、研究經費分配及國際治理框架構成影響AGI研發相對集中化程度的潛在調控杠桿。
? 國家與私營企業的關系成為另一關鍵決定因素。公私密切合作的情景與缺乏協調的情景產生截然不同的結果。專家一致強調:無論是國家還是企業都無法單獨有效管控AGI發展,建立平衡的合作關系至關重要。
? 即使在地緣政治因素有利的條件下,確保AGI系統可靠追求人類兼容目標的內在難度仍構成重大風險。緩解該風險通常需要開展國際合作,旨在限制危險行為體獲取AGI技術,并應對可能災難性的AGI系統失控局面。
? AGI部署引發的經濟社會動蕩給技術發展管理帶來嚴峻挑戰。社會能否適應快速自動化進程、信息操控及潛在的就業崗位更替,將直接影響最終結果對現有權力結構的鞏固或削弱效應。
自二戰以來,戰爭背景下錯誤信息與宣傳戰的利弊已獲充分研究與記載。深度偽造技術通過結合人工智能(AI)與軍事情報(MI),能生成超逼真合成媒體,對軍事信息系統的機密性、完整性與可用性構成獨特挑戰。本文探究二戰、冷戰等歷史錯誤信息案例,評估深度偽造如何變革心理戰行動、欺騙策略與非動能作戰。研究強調通過軍事訓練、強化指揮體系、數字意識與技術監管構建防御機制,并指出需發展攻防兼備的雙用途能力。同時探討技術適應挑戰,提出在健全生態下開發印度本土方案以實現聯合信息戰的數字主導權。
信息向錯誤信息的轉化歷程已有充分歷史記錄與研究。利用錯誤信息贏得戰爭自古有之,其傳播通常旨在通過過度推銷特定敘事獲勝,或心理引導大眾敘事獲取聲望。在運用宣傳贏得戰爭層面,二戰堪稱最佳范例。若宣傳與錯誤信息是傳播敘事的手段,深度偽造則隨技術演進成為此類傳播的新興載體。本文將深度偽造定義為技術概念并分析案例研究,后續章節將剖析其如何成為強力"錯誤信息工具"。
深度偽造技術本質
"深度偽造"(Deepfake)由"深度學習"(deep learning)與"偽造"(fake)復合而成,指利用機器學習算法創建代表某人某物的合成媒體的人工智能能力。產物可為純語音或音視頻組合。技術發展已使公眾難辨真偽,其生成的錯誤信息能深刻影響輿論、扭曲現實、煽動恐慌。盡管圖像/語音/視頻生成技術復雜,但傳播極為便捷。經由社交媒體、WhatsApp或YouTube等數字渠道傳播的深度偽造內容可瞬間煽動公眾情緒,其傳播規模與速度呈指數級增長,故成為信息戰(IW)的理想武器與催化劑。
深度偽造技術原理
深度偽造基于深度學習算法構建,以生成對抗網絡(GANs)最為常用。本文無意深究技術細節,但理解合成數據創建的技術精妙性頗具價值。GANs超越"神經網絡"技術,因其運作機制類人腦神經元得名。GANs含兩大組件:生成器與判別器。生成器負責生成最終音視頻或合成數據;判別器則提取目標人物真實圖像特征。這對組件通過競爭機制——生成器優化合成輸出,判別器提升真實特征提取能力——實現協同進化。
隨時間推移,判別器經訓練可精準提取目標人物特征,生成器則能產出高質量數據。因GANs基于神經網絡架構,持續學習改進能力構成其核心價值。訓練數據集由目標對象的圖像視頻組成,編碼器-解碼器通過處理該數據集提取特征:編碼器壓縮輸入數據,解碼器重構數據。由此獲得的認知可將面部特征、表情及聲音跨個體、跨語境遷移。當特征提取成熟后,神經網絡訓練成果可無縫移植至不同場景或敘事。該技術還提升適應性——惡意使用者可基于不同場景訓練數據,重構適配新場景的特征。
人工智能(AI)的發展將如何塑造未來戰爭形態?盡管公眾對AI顛覆戰爭模式的潛力抱有濃厚興趣,研究者們仍處于探索AI如何改變作戰方式的初級階段。本報告提供概念框架與初步評估,旨在為系統探討AI改變軍隊作戰制勝模式的潛力確立基礎。
本次分析基于一項核心假設:AI成功實現其消除人類智力作為軍事行動約束的目標。據此框架,報告評估了AI對軍事行動四大"基礎要素競賽"的潛在影響。該框架將戰爭拆解為以下組元性競爭:(1)數量與質量的博弈,(2)隱蔽與發現的對抗,(3)集中式與分布式指揮控制(C2)的抉擇,(4)網絡進攻與網絡防御的較量。針對每項要素,我們闡釋了AI可能影響競爭形態的關鍵驅動因素與權衡取舍。
基于四維要素競賽分析,我們認為美軍可能需要改變其在作戰理念與軍力規劃方面的傳統模式,以釋放AI潛能。鑒于AI技術尚未成熟,以下僅為試探性推論:
徹底革新作戰理念與部隊架構的軍隊,將比僅用AI小幅改進現有模式的對手更具優勢。釋放AI軍事潛能既是技術挑戰更是組織變革,它要求軍隊突破既有的編制與運作舒適區。
當今社會的技術發展要求對計算機及通信網絡實施有效防護,并實現網絡攻擊的快速精準檢測。本文探討如何應用機器學習(ML)算法強化網絡安全防護措施,重點聚焦勒索軟件檢測領域。據此,提出系列ML專屬方法——包括分類算法(隨機森林、支持向量機)、異常檢測(K均值聚類、自編碼器)與神經網絡(卷積神經網絡、循環神經網絡),并解析如何優化運用這些技術甄別各類應用的異常活動。同時,本文亦探究支撐ML模型的基礎設施所面臨的安全風險。
當前影響人類的威脅可分為五大領域:陸域、水域、空域、天域及網絡空間。但極端主義、輿論極化乃至虛假信息亦可能引發嚴峻社會問題。各領域均構成現代國家及組織實施防御與戰略安全布局的獨立維度。前四類威脅與網絡威脅的核心差異在于:前者受自然法則約束,而后者根植于人為因素。然而這些領域深度互嵌且頻繁交疊,例如網絡攻擊可干擾海空通信并影響導航系統,而衛星在涉及無人機導引或空中監視的地面行動中亦發揮關鍵作用。
在此具有虛擬屬性的新現實中,新型網絡威脅持續涌現,亟需縝密管控與追蹤。技術迭代速度加劇了基礎設施所有者(IT部門)與負責網絡安全防護、控制流程的安全團隊之間的割裂。根據曼迪昂特(Mandiant)最新安全效能報告:
? 53%的網絡攻擊未被上報
? 68%的勒索攻擊未被上報
? 91%的攻擊未觸發任何警報
? 1.23億高科技安全解決方案覆蓋9億用戶及11個行業
日益增多的實體正遭受多維度網絡攻擊,而網絡安全的核心使命正是保護信息資產并防范未授權訪問。
在此背景下,人工智能(AI)與量子計算技術通過增強實時數據分析處理能力,成為虛擬環境安全轉型的支柱。AI發展引發用戶群體分化:依賴AI實現流程自動化者,與通過保障數據質量及精確性優化模型者。這種動態要求采取雙軌策略——既要提升AI應用效能,亦須強化倫理矯正與監控機制。下文各章節將分別探討:
本背景資料簡報概述人工智能(AI)與國防領域的交匯點。AI現部署于教育、金融、交通、醫療與國家安全等多領域。國防領域作為國家安全體系的核心構成,涵蓋以維護國家主權與利益為目標的軍事能力與行動。盡管AI有望提升國防活動效能,但其應用引發人權與國防領域善治相關的諸多挑戰。本簡報將界定AI概念,探討其在國防領域的應用場景,剖析對善治的潛在風險,并就強化監管提出建議(包括完善監測機制、提升透明度、健全問責制及促進利益相關方協作)。
本背景資料簡報解答以下問題
? 何為人工智能(AI)?
? 國防領域的定義為何?
? 國防領域為何使用AI?
? AI對國防領域構成哪些風險?
? AI如何影響國防領域善治?
? 如何強化國防領域AI應用的監管?
主體 | 檢測 | 規劃 | 行動 | 后勤 |
---|---|---|---|---|
??武裝部隊?? | 收集分析多源數據,識別動態、威脅與異常 | 通過海量數據分析輔助戰略戰術規劃,預測未來場景并優化資源配置 | 提供實時作戰情報支持軍事行動 | 自動化物流供應鏈管理與人員調度 |
??行政管控機構?? | 分析風險并評估國防能力替代方案 | 起草國防立法框架,評估戰備狀態 | 實時監測作戰效能,動態調整資源分配 | 自動化國防采購預算與資產追蹤 |
??國內安全機構?? | 處理海量數據識別模式趨勢,研判潛在威脅 | 開發戰略報告,建立威脅優先級體系 | 部署AI增強型監控偵察系統提升行動精度 | 自動化數據處理與信息分發流程 |
??監督委員會?? | 監測分析國防開支與采購動態 | 制定戰略監督報告,評估項目合規性 | 實時追蹤國防項目執行情況 | 自動化審計程序與風險管理系統 |
??商業國防供應商?? | 整合Tranche 0衛星追蹤數據與地面傳感器網絡 | 開發下一代AI驅動武器系統,優化研發周期 | 維護升級AI作戰平臺軟件系統 | 構建智能供應鏈,實現備件預測性維護 |
??民間社會組織?? | 監控AI軍事化應用倫理風險 | 推動制定AI軍事應用國際規范框架 | 開展AI武器系統影響評估 | 建立AI軍事技術雙用途追蹤數據庫 |
行為主體 | 國內監管框架 | 透明度與問責制 | 伙伴關系與協作 |
---|---|---|---|
??武裝部隊?? | 實施人工智能專項審計與審查流程,監測系統開發、部署及運行 | 通過披露數據源、算法與決策流程等非涉密信息,提升人工智能系統透明度 | 與民間社會組織、學術機構、研究組織及產業伙伴合作,共享經驗教訓,促進治理創新 |
??行政管控機構?? | 建立專用監管機構/委員會,實施風險管理框架識別人工智能應用風險(技術/法律/安全) | 發布人工智能影響評估報告,詳述部署成效與運營結果 | 強化與議會委員會、政府監察機構及獨立審計部門協作,確保人工智能倡議透明度 |
??國內安全機構?? | 成立獨立審查小組,監控人工智能在國內安防應用中的倫理與法律影響 | 推動人工智能治理透明化與問責機制建設 | 與人權組織、隱私倡導機構及技術專家合作開展獨立評估,完善安防人工智能系統審查 |
??監督委員會?? | 制定人工智能采購與部署專項監管條例 | 定期公開國防人工智能項目進展與資金流向 | 搭建跨部門人工智能治理協作平臺,促進監管經驗共享 |
??商業國防供應商?? | 執行人工智能技術出口管制與雙用途技術監管 | 建立人工智能研發應用全周期可追溯機制 | 參與行業聯盟制定人工智能倫理標準,推動負責任技術創新 |
??民間社會組織?? | 倡導建立人工智能軍事應用倫理審查制度 | 開發公民監督平臺,完善人工智能應用違規舉報機制 | 聯合國際智庫開展人工智能軍事化影響研究,推動全球治理框架構建 |
普遍預期人工智能(AI)將在未來軍事行動中發揮關鍵作用。作為美空軍部(DAF)將新興技術融入現代戰爭的重要舉措,蘭德公司研究人員受托研究未來十年支撐有效態勢感知所需的數據、技術、流程與政策框架。為深入理解這些要素與當前技術發展的交叉點,研究團隊系統梳理了現有感知流程的挑戰與改進機遇,重點關注感知發生的場景、工具與主體,特別強調如何融合多源情報實現目標發現、定位與跟蹤。
本報告中,揭示了DAF面臨的核心感知挑戰,評估AI技術的應對潛力。通過構建AI應用對比框架,提出技術采納路徑,并以假想AI系統開展系統性風險評估,展示最佳實踐方案。鑒于AI能力與DAF感知流程的復雜性,二者協同需審慎考量決策者應用方式及其與整體情報周期的整合。
? 數據與知識表征需精細構建。高質量數據集須精心設計并配備準確元數據,支撐對象化生產與算法開發。
? 分析師須預判AI故障模式。理解AI訓練數據與知識表征的局限性,有助于優化系統應用效能。
? 專家系統仍具戰略價值。傳統AI技術持續發揮重要作用。
? DAF應為顛覆性技術應用鋪路。當前需優先部署非顛覆性AI技術,為未來重大變革奠定基礎。
? 制定感知能力發展共同路線圖。DAF情報、監視與偵察(ISR)聯隊協同太空軍相關部門,聯合首席數據與人工智能官(CDAO)確立AI融合優先事項。
? 建立前瞻性風險評估機制。DAF各感知機構應對擬采用AI工具開展社會-技術-操作-政治-經濟-可持續性(STOPES)多維評估,首席信息官需確保責任型AI原則在感知領域落地。
? 警惕工具過載效應。ISR聯隊與空戰中心應選擇性開發應用AI感知工具,優先適配現有工作流且降低培訓依賴的解決方案。
? 防范技能退化風險。DAF CDAO須制定應對計劃,通過構建訓練數據集、提升分析師數據辨識能力等手段,緩解AI應用可能導致的感知技能衰退。
本文探討了人機協同(HMT)和人機自主協同(HAT)在加強歐洲陸軍維持行動方面的變革潛力。文章探討了這些模式如何通過將人類的適應性與自主的精確性和效率相結合,徹底改變后勤、戰場維修和醫療支持。通過探討動態和有爭議的環境中日益增長的需求,本文強調了歐洲軍隊采用這些技術的戰略重要性,以便在未來大規模作戰場景中實現更強的應變能力和作戰效能。
在作戰環境日益復雜的時代,先進機器和自主系統的集成有可能重塑未來戰爭的實施方式。隨著軍事理論轉向多域作戰,以應對多極世界和大規模沖突的回歸,軍隊必須創新其維持戰略,以滿足現代戰爭的復雜需求。這一發展對于增強軍隊的機動性、應變能力以及在有爭議和動態沖突地區支持分散、聯合和技術一體化部隊的能力至關重要。在這方面,人機協同(HMT)和人機自主協同(HAT)這兩個新興范例尤其具有發展前景,它們將人類的適應性與自動化和機器人技術的精確性和效率相融合,在各種軍事后勤和醫療活動中具有變革潛力。雖然這兩個概念涉及維持網絡的不同方面,但它們協同合作,有望更快地為關鍵支持功能提供更強大、更準確的解決方案。
因此,本文探討了這些范例在重新定義歐洲陸軍前方維持行動方面的潛力,強調了它們在軍隊(再)補給、戰場維修/維護和醫療支持服務方面的作用。本文強調,雖然這些創新會帶來挑戰,包括技術限制和行動整合障礙,但歐洲軍隊必須適應并為未來鋪平道路,在未來,人類專長和自主能力將相互促進,以維持任務并確保行動效力。
人工智能在軍事應用中的融入改變了當代戰爭,提供了無與倫比的效率、準確性和獨立能力。然而,隨著人工智能系統的進步,自主武器相互協作和通信的可能性帶來了大量的戰略、倫理和安全問題。本文試圖通過分析機器學習和自主系統的最新進展,研究實現人工智能通信的技術基礎。本文將研究連接性如何影響戰場動態、決策過程,以及可能提高作戰效率或導致意外后果的潛在突發行為。
在戰爭越來越多地被技術進步所定義的時代,一個引人入勝的問題是,人工智能戰爭武器是否會開始相互通信,以及這種潛在的聯系將如何重塑戰場的動態。人工智能系統之間的相互聯系不僅代表著軍事能力的飛躍,也代表著沖突的根本性變化,對戰略、倫理和全球安全產生深遠影響。問題的核心是自主軍事系統正在發揮的作用,它將徹底改變現代戰爭。人工智能驅動的技術,包括無人機(UAV)、無人地面機器人(UGV)和海上無人機,在偵察、作戰和戰略行動中展現出無與倫比的能力。這些系統越先進,就越能協同工作:共享信息、協調行動,并可能做出獨立決策,這就對未來戰爭提出了一些非常關鍵的問題。
人工智能武器相互通信的前景帶來了突發行為的可能性--單個人工智能單元的互動可能產生復雜的、有時甚至是不可預測的模式。這種行為表明,作戰效率能夠使高度適應性和協調行動超越人類控制系統。然而,為這些充滿希望的概念提供動力的連接本身也帶來了巨大的挑戰。人工智能交互的不可預測性意味著無法預測人工智能在戰場上的交互后果:沖突升級、意外交戰或失去人類監督。
本文將探討這些緊迫問題,并將進一步論述與人工智能武器的相互關聯性相關的技術、戰略和倫理層面的問題。本文將介紹人工智能系統中的通信如何改變戰場態勢,提高軍事對抗的速度、準確性和自主性。本文還將討論與這種發展相關的風險,從可預測性和控制問題到人工智能驅動的完全失控的沖突,進一步擴展到與將生死攸關的決定權交給機器相關的倫理困境。如果人工智能在目前的狀態下繼續改進,問題就變成了:人工智能武器是否會互相交談?人工智能武器會互相交談嗎?這會對戰場動態產生什么影響?這不是技術上的猜測,其答案將決定人類在全球安全方面是否會有一個不同的未來。
自持軍事技術的采用從根本上改變了當代戰爭,為偵察和作戰任務引入了新的能力。人工智能驅動的無人機和傳感器配備了最新的成像技術和人工智能算法,可以快速分析大量信息,以驚人的精度定位和跟蹤威脅,并不間斷地對廣大地區進行實時監視(Kallenborn,2024 年)。這些自主系統可以在各種環境下執行任務,從城市地區到偏遠的敵對地點,為軍事部隊提供全面的態勢感知。
在偵察方面,無人機和地面機器人可用于從敵對或難以接近的環境中收集重要信息。無人機可在不同高度飛行,并配備激光雷達、紅外攝像機和雷達等先進傳感器。這些傳感器使其能夠探測和分析各種環境和態勢因素,如敵軍動向、地形變化和潛在威脅。無人地面車輛(UGV),如 Lyut 坦克,通常專為崎嶇地形而設計,可攜帶類似的傳感器有效載荷,并在人類士兵難以穿越的危險環境中航行(Malyasov,2024 年)。這些自主系統可以在敵方地點執行偵察任務、探測地形條件并跟蹤移動,而不會讓士兵面臨風險(Scharre,2014 年)。這在派遣人類偵察隊過于危險的沖突地區非常有用。這些自動駕駛車輛收集的數據通常使用機器學習方法進行分析,以發現有助于產生有用見解的趨勢。這些方法提高了所收集數據的準確性,加快了決策速度,有助于對動態戰場局勢做出快速、明智的反應。
在戰斗中,部署自主武器系統標志著軍事戰術的重大變革。這些系統由無人機、自主地面機器人和海上無人機組成,可以高精度、高效率地執行作戰行動(Scharre,2014)。自主武器旨在執行復雜的機動任務,與其他單位合作,并在較少人員參與的情況下完成任務。例如,配備先進瞄準系統的無人機可對目標實施精確打擊,將附帶損害降至最低,提高任務成功率(Ackerman & Stavridi, 2024)。無人機群是最新的部署方法之一,在無人機群中,多架無人機以一體化的方式執行特定任務,實現單機無法達到的效果。
這些無人機群能夠摧毀敵人的防御工事,在廣闊的地域執行偵察行動,甚至搜救任務。群組中的每架無人機都能與其他無人機通信,從而在一秒鐘內共享數據并適應各種情況。這就提高了任務的整體成功率(Scharre,2014 年)。此外,當應用于作戰時,自主系統可大大提高部隊的倍增能力和作戰靈活性。例如,自主地面機器人可以執行拆彈任務,提供后勤支持,甚至與敵軍交戰(《突破防線》)。
通過承擔戰場上一些最危險的任務,這些機器人降低了人類士兵的風險。在海軍行動中,海上無人機被部署執行監視、水雷探測和反潛戰等任務(Burt,2024 年)。這些無人機可以獨立行動,也可以與有人駕駛的船只聯合行動,以擴大海軍部隊的覆蓋范圍和能力(Burt,2024 年)。
自主系統不僅能提高軍隊的攻擊和防御能力,還能對新威脅做出更快、更適應性更強的反應,如利用人工智能漏洞的復雜網絡戰戰術或旨在破壞通信和導航系統的電子戰,從而帶來巨大的戰術優勢。在一系列領域(海、陸、空)部署數以百計的自主部隊,可以形成錯綜復雜的動態戰場環境,很少有對手能與之匹敵。自主系統之間的這種相互聯系和協調,有助于以更加整體、更具彈性的方式開展軍事行動。
隨著人工智能和自主系統的不斷發展,更有必要解決它們帶來的倫理和安全挑戰。必須確保這些系統始終符合規定的法律和道德行為規范,以免落入壞人之手或造成意想不到的后果。因此,防范網絡威脅和確保自主系統的可靠性對于保持其在軍事應用中的整體效率和可靠性將變得非常重要。隨著此類技術越來越多地應用于全球軍事力量,自主系統的作用將繼續成為未來戰爭的決定性因素,這就要求制定有關負責任地使用和部署自主系統的詳細政策和戰略(Sophos,n.d.)。
在數字化和戰略競爭日趨激烈的現代,成功與否取決于一個組織是否有能力比競爭對手更好、更快地利用數據和技術。人工智能(AI)技術的飛速發展正在徹底改變公共和私營機構保持領先的方式,影響著傳統的、由人類驅動的分析流程的各個層面。本報告探討了在情報周期中應用人工智能工具的機會,以增強人類分析師的能力,同時減少其局限性,從而推動更加無縫的情報流程。
人類分析師擅長批判性思維和直覺判斷。他們解讀細微信息、理解復雜環境并根據不完整數據集做出明智決策的能力無與倫比。然而,數據超載、認知偏差、需要資源密集型培訓以及有限的時間和精力等限制因素卻阻礙了他們的工作效率。相反,人工智能技術擅長數據處理、客觀性和日常任務自動化。它們能以前所未有的速度分析海量數據、識別模式并執行重復性任務,而不會造成身心疲憊。
因此,人類和機器能力的互補優勢表明,分析流程將發生轉變,分析師-機器團隊將自適應地持續合作,以近乎實時的洞察力應對復雜的威脅。這種新模式將需要敏捷的協作框架、能夠有效使用人工智能工具并解讀人工智能生成的洞察力的熟練分析師、可靠而全面的培訓數據和流程,以及強大的監督機制。
本研究報告介紹了聯合情報組織 (JIO) 和英國政府通信總部 (GCHQ) 委托開展的一個項目的研究成果,該項目以人工智能 (AI) 和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果是在對英國評估機構、情報機構和其他政府部門進行廣泛的初步研究基礎上得出的。情報評估職能部門在識別、處理和分析呈指數增長的信息來源和數量方面面臨著巨大挑戰。研究發現,人工智能是所有來源情報分析師的重要分析工具,如果不采用人工智能工具,可能會損害所有來源情報評估的權威性和對政府的價值。然而,人工智能的使用既可能加劇情報工作中已知的風險,如偏差和不確定性,也可能使分析人員難以評估和交流人工智能豐富情報的局限性。評估界面臨的一個主要挑戰將是最大限度地利用人工智能的機遇和優勢,同時降低任何風險。為了在向決策者傳達富含人工智能的情報時采用最佳做法,報告建議為傳達與人工智能有關的不確定性開發標準化術語;為情報分析師和戰略決策者提供新的培訓;以及為情報分析和評估中使用的人工智能系統制定認證計劃。
圖 1:聯合條令出版物 2-00《對聯合行動的情報、反情報和安全支持》,國防部,2023 年
本報告介紹了由聯合情報組織(JIO)和英國皇家通信總部(GCHQ)委托開展的CETaS研究項目的結果,該項目以人工智能(AI)和戰略決策為主題。報告評估了應如何向政府戰略決策者傳達人工智能情報,以確保情報報告和評估的分析嚴謹性、透明度和可靠性等原則得到堅持。研究結果基于對英國評估機構、情報機構和其他政府部門進行的廣泛的初級研究,在整個2023-24年期間進行了為期7個月的研究。
這里的 "人工智能豐富情報 "是指部分或全部通過使用機器學習分析或生成式人工智能系統(如大型語言模型)而得出的情報見解。
研究考慮了
主要研究結果如下
1.人工智能是所有來源情報分析師的重要分析工具。人工智能系統處理大量數據的能力遠遠超出人類分析人員的能力,可以識別可能被忽視的趨勢和異常現象。因此,選擇不將人工智能用于情報目的,有可能違反《情報評估專業負責人共同分析標準》中規定的情報評估全面覆蓋原則。此外,如果遺漏了關鍵的模式和聯系,不采用人工智能工具可能會損害所有來源情報評估對政府的權威和價值。
2.然而,人工智能的使用加劇了情報評估和決策過程中固有的不確定性。人工智能系統的輸出是概率計算(而非確定性),目前在數據不完整或有偏差的情況下很容易出現誤差。許多人工智能系統的不透明性也使得人們難以理解人工智能是如何得出結論的。
3.對情報分析和評估中使用的人工智能系統,亟需精心設計、持續監測和定期調整,以減少擴大偏差和錯誤的風險。
4.制作評估產品的情報部門仍對評估用于情報分析和評估的人工智能方法的相關技術指標(如準確率和錯誤率)負有最終責任,所有來源的情報分析員在作出結論和判斷時必須考慮到任何局限性和不確定性。
5.國家安全決策者目前需要人工智能系統性能和安全方面的高度保證,才能根據人工智能豐富的情報做出決策。
6.在人工智能系統缺乏強有力的保證程序的情況下,國家安全決策者普遍對人工智能識別事件和發生的能力比對人工智能確定因果關系的能力表現出更大的信心。決策者更愿意相信人工智能豐富的情報見解,如果這些見解得到非人工智能、可解釋的情報來源的證實。
7.決策者對人工智能系統的技術知識差異很大。研究參與者一再表示,決策者必須對人工智能的基本原理、當前能力以及相應的保證流程有一個基本的了解,才能根據人工智能豐富的情報做出有分量的決策。
本報告建議采取以下行動,在向戰略決策者傳達富含人工智能的情報時采用最佳做法。
1.情報評估專業負責人(PHIA)應制定在所有來源評估中傳達人工智能強化情報不確定性的指南。該指南應概述在向決策者闡明人工智能相關限制和注意事項時應使用的標準化術語。此外,還應就評估應向決策者說明使用人工智能強化情報的閾值提供指導。
2.在向戰略決策者介紹技術信息時,評估界應采取分層方法。在提交給決策者的最終情報產品中,評估應始終能夠為非技術受眾所解讀。然而,應根據要求向那些具有更多技術專長的人提供有關系統性能和局限性的補充信息。
3.英國情報評估學院應代表所有來源評估界完成培訓需求分析,以確定新老 分析人員的培訓需求。該學院應與所有情報來源評估組織合作,根據分析結果開發適當的培訓。
4.應向國家安全決策者(及其工作人員)提供培訓,以建立他們對人工智能情報評估的信任。應向決策者介紹人工智能的基本原理和相應的保證程序。
5.在高風險的國家安全決策會議之前,應立即舉行簡短、可選的專家簡報會,因為在這些會議上,人工智能強化情報是承重決策的基礎。這些會議應向決策者簡要介紹關鍵的技術細節和局限性,并確保他們有機會提前考慮置信度評級。這些簡報會應由聯合信息辦公室和國家安全秘書處共同協調,并應利用首席科學顧問網絡和相關科學咨詢委員會的跨政府專業知識。應制定關于何時提供簡報的指南,并應持續評估簡報的必要性;隨著決策者對消費人工智能情報變得更加得心應手,所需的保證程度可能會降低,簡報最終可能變得沒有必要。
6.應為情報分析和評估中使用的人工智能系統制定一個正式的認證方案,以確保模型在穩健性、安全性、透明度以及固有偏見和緩解記錄方面滿足最低政策要求。將系統應用于特定問題的技術保證應下放給相關組織,每個組織的保證過程都應得到認證。這一計劃將需要專門的資源,將對情報評估標準和程序的理解與技術專長結合起來。PHIA 應協助制定原則和要求,而認證和測試方面的技術專長則應從情報界和政府各部門的技術主管部門抽調。