亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)在現代國防領域已發揮關鍵作用,而數據日益成為戰略資產。用于雷達輻射信號檢測、識別與分類的信號處理技術亦不例外,但大型語言模型(LLMs)在電子情報(ELINT)領域更廣泛的適應性仍未被公開研究充分探索。面對復雜不兼容數據集、海量數據及信息過載的環境挑戰,本研究深入探究LLMs解決此類難題的可行性及實施路徑。我們提出具備結構化與非結構化數據整合能力的AI驅動型聊天機器人系統,其模塊化架構設計旨在提升透明度與可解釋性。該系統在合成數據集上接受評估,其架構與設計選擇基于該敏感領域特性設定的約束條件。單元測試結果顯示:提示分類準確率達97.8%,生成SQL查詢正確率達93.3%,較人工查詢顯著節約時間成本。系統還通過決策日志與過程溯源實現可解釋性與透明度。然而對話測試暴露出錯誤傳播、模糊輸入應對缺陷、模型能力及用戶熟練度依賴等局限。盡管多數問題可被解決,研究仍揭示系統可靠性與資源可用度的強關聯性,凸顯作戰環境中的機遇與風險。盡管模擬數據與通用假設存在局限,該原型系統證實在軍事情報環境廣泛應用LLMs具備技術可行性與應用潛力。

本文由六章節構成:第一章為緒論,第二章文獻綜述,第三章深入闡述雷達技術軍事應用、電子戰、電子情報、信號處理管線及LLMs等理論基礎,第四章介紹方法論,第五章呈現并討論實驗結果,第六章給出最終結論。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)在軍事行動中引發前所未有的不確定性,這在AI賦能的自主武器系統(AWS)與決策支持系統(DSS)中尤為顯著——其不僅影響關鍵戰場決策,更帶來新穎且不可預測的風險。盡管部分風險可預先研判管控,但因系統運行環境的復雜性、動態性與對抗性,諸多風險仍具固有性與不可避免性。即便秉持善意的AI操作員,在嚴格審查與謹慎部署后仍可能面臨不可預見的平民傷亡事件。實踐中,此類事件多被定性為"事故",即國際人道法(IHL)預期容忍的戰爭現實。

本文質疑該假設,主張通過迭代方法可緩解(若非預防)先驗不可預測的AI失效。該方法通過系統整合部署后評估洞見,使決策者能更新對現實使用中暴露的邊界案例及其他"已知未知項"的認知,為未來AI部署提供關鍵依據。我們提出由兩項互補機制——"部署迭代審查"與"部署迭代評估"——構成的迭代評估框架。該框架代表管理不確定性并最小化軍事AI使用中平民傷亡的最佳實踐。初始事故雖或難免,但通過結構化迭代流程(含報告、分析與適配),其復現率可顯著降低。致力于負責任運用軍事AI者應將該框架嵌入作戰規劃與法律合規的核心環節。

關鍵詞:不確定性;人工智能(AI);事故;自主武器系統;決策支持系統;可預測性;武器審查;國際人道法

圖1:迭代評估的可視化操作指南

隨著人工智能(AI)日益深入軍事行動,使用者將面臨加劇的不確定性、不可預測風險及系統脆弱性。諸多挑戰僅在事后顯現——即失效已導致平民傷亡等人道損害后。實踐中此類事件常被歸為"不可避免的事故",作為戰爭必然副產品被容忍。本文挑戰此假設,提出"迭代評估框架"作為軍隊在動態作戰環境中主動緩解AI相關平民傷害的最佳實踐方案。該框架基于兩大基石:一方面承認軍事AI失效初期或難避免,決策者無法預知不可知之事;另一方面強調國際人道法(IHL)精神要求交戰方采取一切可行措施防止可預知風險的傷害重演。為此,迭代評估框架引入雙層機制以支持快速自適應緩解新興AI風險。

本文結構如下:第2節剖析AI系統的高度不可預測性如何削弱傳統質控與風險緩解機制預防重復失效的效能;第3節半技術性解析AI不確定性的多元來源,論證多數源于技術固有屬性——故無法單靠技術手段消除,亦不能通過先驗預防完全解決。為應對此挑戰,本文倡導采納迭代思維:將IHL義務持續貫徹于全周期而非孤立節點。基于此理念,第4-5節分別探討迭代評估在武器審查與目標鎖定階段的應用;第6節整合模型為可視化操作指南;第7節提出將迭代評估嵌入軍事實踐的關鍵建議。

需先行闡明迭代評估框架的性質與目標:刻意選用"框架"而非"規范"或"原則",因其非法定約束性義務(尤其IHL嚴格解釋下),而是決策者在AI研發、測試與部署中可采納的結構化措施集,其核心是迭代優化哲學。該框架既非激進創新——諸多建議已存于當代軍事條令與學術研究;核心挑戰亦非概念新穎性,而在作戰與后勤現實約束下的持續落實。同時應承認其局限:無法消除所有不確定性(此乃軍事行動固有特征),但能通過預防可避免傷害強化IHL遵約。本質上,它旨在減少因決策者缺失理論上可知信息(而非魯莽行事)導致的傷害。

本文預設AI使用者秉持善意,力求遵守IHL并負責任管理不確定性;假定所有IHL要求的測試、審查及攻擊預防義務均已履行;不涉及惡意場景(如故意部署未經驗證的"黑箱系統")。迭代評估旨在補充而非替代這些IHL基礎義務。核心論點是:即使傳統IHL要求完全滿足,采納迭代路徑仍有持續改進空間。

付費5元查看完整內容

技術進步與人工智能在軍事領域的加速滲透,凸顯出探索新型空優戰術的迫切需求。可消耗自主無人作戰飛行器(AUCAV)的部署為維持空戰優勢提供了潛在路徑。傳統空戰機動訓練依賴人類飛行員積累的實戰經驗,而定向能武器(DEW)等新型裝備則催生了尚未充分開發的戰術可能性。本研究借助仿真、集成與建模高級框架,探索強化學習(RL)技術在植入空戰視覺范圍內(WVR)機動決策問題的AUCAV智能體行為優化中的應用。研究將2v2 WVR空戰機動問題建模為馬爾可夫決策過程(MDP),其中友方AUCAV配備定向能武器并在六自由度(6DOF)環境中運作。核心方法論采用雙深度Q網絡強化學習算法,對兩架友方AUCAV進行集中式訓練。通過分階段學習策略:初期采用密集獎勵環境加速基礎訓練,后期切換至稀疏獎勵環境激發自適應與涌現行為,構建系統性訓練框架。研究設計典型實驗場景評估不同DEW配置下AUCAV作戰效能,為后續研究提供基準。通過對學習所得機動戰術的定性分析,以及DEW武器參數四因子全析因實驗的定量評估,驗證強化學習解決方案的有效性,并揭示其對未來武器概念開發的啟示價值。

本文結構如下:第二章綜述空戰機動問題、強化學習解決方案及仿真環境相關研究;第三章闡述2v2空戰機動問題建模方法,提出MDP形式化框架,并詳述機動戰術學習智能體的強化學習實現路徑;第四章展示學習機動戰術的定性分析結果,以及DEW武器參數四因子全析因實驗的定量研究成果;第五章總結研究成果,并提出未來研究方向的戰略考量與技術路線。

付費5元查看完整內容

自 1994 年麻省理工學院數學家彼得-肖爾(Peter Shor)發現大數因式分解的量子算法以來,量子信息科學與技術一直處于科技前沿。量子理論的進步也推動了實際技術的應用。從加密、人工智能、傳感到通信,量子技術既可應用于民用社會,也可應用于軍事領域。因此,這種多用途的適用性有可能改變國際安全,因為科學發達的國家都在爭奪量子霸權。本研究探討了量子科學的應用以及這些應用如何對國際安全產生潛在影響。由于家資助和支持量子科學研究,研究方法的來源將包括學術期刊和在線資源以及政府報告。量子技術的實際應用,包括量子計算、量子傳感和量子通信,將構成本研究的主要范圍。

在量子計算取得進步的同時,量子比特也在不斷發展,這表明量子信息科學與技術正在迅速成為現實。量子研究的成功不僅展示了量子科學的可行性,還展示了如何通過產生更多的量子比特來實現量子至上(Kelly,2018)。隨著學術界、政府和跨國公司的科學家和研究人員不斷推進量子科學的發展,量子科學在技術領域的潛在應用也在不斷發展和擴大。

如何利用量子科學推進量子計算、通信或傳感?另一方面,量子科學是否也能破壞當今使用的標準加密?如果是這樣,國家或網絡犯罪分子是否會大膽而邪惡地在軍事或網絡空間部署量子技術來打擊目標和其他國家?像美國政府這樣資源充足的政府該如何確保自己在量子研究領域保持領先地位,并在全球工業和國防領域具有競爭力?本研究要解決的主要問題是量子科學與技術的新興應用,以及這些應用如何改變國家、網絡犯罪分子和平民的國際安全進程。

量子科學主要以理論為基礎。然而,對量子化應用和量子計算過程的預期導致了必須考慮的潛在問題。當今量子科學的核心是推進量子計算的能力。而量子計算則需要在穩定的環境中無差錯、無噪音地處理量子比特。由于量子比特很脆弱,因此不能在溫度波動等有噪音的環境中進行處理。由于 “需要接近絕對零度的極低工作溫度”(M?ller & Vuik,2017 年,第 254 頁),這種敏感性是一個常見的挑戰。雖然云計算有可能解決這一敏感性問題,但量子計算在理論上甚至能夠解密云計算。

因此,推動量子科學發展的根本問題之一是量子計算所需的量子比特數量。根據凱利(2018)的說法,“用 49 個量子比特就可以舒適地展示量子至上”。除非量子比特的數量繼續增加,以支持更強、更快的量子計算機,否則量子科學仍將是一種理論。從本質上講,量子比特的數量決定了量子科學能否在現階段的基礎上進一步發展。

第二個潛在問題是量子科學的預期和應用。具體來說,量子計算有可能破解加密,包括現代的 RSA 2048 位加密,只需 2 千萬量子比特,而不是之前評估的 10 億量子比特(Jee, Hao, Firth & Temple, 2019)。因此,隨著量子比特數量的大幅減少,解密 2048 位加密所需的時間也大幅減少。正如后文所述,解密時間的縮短和所需量子位的減少也會產生重大影響。

與量子計算相關的另一個問題是處理大量非結構化數據的能力。例如,金融服務業依賴于及時、快速分析大量非結構化數據的能力。量子驅動的算法可以執行此類分析,優化投資組合。但問題是,還沒有人 “設法擴展量子計算機使其發揮作用”,“與金融業相關的計算需要數百或數千量子比特才能解決”(Dietz et al.) 理論上可以處理非結構化數據,但發展仍然滯后。

推進和使用量子計算存在一些重大問題。如果今天的 2048 位加密能夠通過量子驅動的算法和計算被破解,那么今天的敏感和加密信息最終將被利用并向公眾披露。例如,政府的機密和敏感信息可能會因為加密被破解而提前泄露。國家現在就可以開展網絡行動,獲取盡可能多的加密數據,以便在未來量子計算準備就緒時進行解密。

因此,如前所述,量子計算機解密 2048 位加密的預期能力和貢獻產生了重大影響。在民用層面,如果量子計算在未來可以用于解密這些敏感數據,那么今天的個人身份信息(PII)、健康和醫療記錄或金融賬戶的加密數據將不再安全(Norris,2020 年)。在國家安全層面,一旦使用量子計算解密,有關軍事通信、戰略、移動或部署的加密信息將不再安全(Vermeer & Peet,2020)。如果這些數據和信息可以在未來解密,那么不法分子現在就可以試圖獲取這些數據和信息進行保管。一旦量子計算解密了 2048 位加密,行為者就可以利用他們已經獲取并存儲起來的數據。這種情況進一步提高了對這種可能結果進行評估和規劃的緊迫性。

隨著科學家和研究人員努力推動量子信息科學與技術的發展,科學界認識到量子科學取決于能夠產生的量子比特數量。量子比特的數量使量子計算能夠執行經典計算機通常無法執行的復雜算法。一旦生成了足夠的量子比特而沒有錯誤和噪聲,量子計算就能為包括量子通信、傳感和密碼學在內的技術提供動力。有了這種量子驅動的技術,國家就能進一步推進其政治、經濟和軍事議程,并提高其在世界上的地位。國家最終將有能力推進其產業,包括軍事、太空任務和健康計劃。那么,問題就變成了國家將如何應用量子驅動技術,以及在哪些行業應用。同樣,哪些國家正在通過政府項目和研究開展強有力的量子研究?因此,本項目旨在研究量子科技的實際應用和技術應用,以及政府對量子科技的興趣和計劃。在此過程中,還可以研究量子科技對國際安全的潛在影響。

付費5元查看完整內容

人工智能有可能從根本上改變國防,從后臺職能到前線,并在軍事競爭和沖突中提供決定性優勢。人工智能已在俄羅斯烏克蘭沖突中得到有效部署,這表明人工智能不再屬于未來戰爭,而是國防必須參與的現實。鑒于人工智能潛在應用的廣泛性,很少有國防領域不能從人工智能或人工智能增強中獲益,因此國防部門需要開始考慮將人工智能作為其解決問題和實現目標的一個組成部分。英國有潛力成為一流的國防人工智能部門,但目前國防部門發展不足,需要加以培育。這既需要實踐變革,也需要文化變革。

發展國防人工智能部門需要改善數字基礎設施、數據管理和人工智能技能基礎,國防部門需要找出存在的差距,以便著手解決這些問題。建議國防部門可以采取一些具體行動,比如讓人工智能成為軍事教育的更大一部分,讓人工智能專家更容易在民用和國防部門之間流動。國防部門還可能需要與規模較小的非傳統國防供應商合作,這些供應商目前在與國防部門合作方面面臨障礙,國防部門需要采用其工作方式,使自己成為更具吸引力和更有效的合作伙伴。國防部門需要更加適應承擔風險、快速開發周期以及與非傳統國防供應商合作。國防部門需要克服目前阻礙防務公司與國防部門合作的障礙,如復雜的采購流程和工作人員難以獲得安全許可。

除了這些實際變化之外,國防部門還需要進行更廣泛的文化變革,以適應這樣一個世界:軍事優勢越來越多地由數字化能力和可快速開發、部署和迭代的廉價平臺來實現。國防部門的政策文件認識到了這一點,但該部門的言論與現實之間存在差距,而且人工智能往往仍被視為一種新事物,而不是即將成為國防工具包核心部分的事物。正在進行的《戰略防御審查》是一個理想的時機,國防部門可以借此加快所需的文化轉型,并為新的人工智能時代實現能力和思維的現代化。

人工智能系統如果能與盟國的系統互操作,將發揮最大功效。英國和盟國在開發和部署國防人工智能的目標上相互理解,并在適當情況下共享標準和實踐。AUKUS 合作伙伴關系的支柱 2 是英國國防人工智能部門與澳大利亞和美國盟國在人工智能前沿領域開展合作的協議。

認識到,在國防領域使用人工智能會引發重要的倫理問題。上議院武器系統人工智能委員會于 2023 年 12 月發布了一份關于致命自主武器系統的全面報告,決定不再重復這項工作。因此,本報告重點關注英國在國防領域開發和部署人工智能的能力。

英國國防人工智能格局

關于英國國防人工智能部門的規模和特點的公開研究很少。2023 年,英國政府委托進行的研究發現,英國有 3713 家人工智能公司;其中 2204 家公司的業務模式以人工智能產品或基礎設施為核心。目前尚不清楚英國有多少人工智能公司從事國防工作: 33% 的公司從事計算機視覺和圖像處理工作,另有 29% 的公司從事自主系統工作--智庫蘭德歐洲公司在其書面證據中指出,這些領域 “與國防高度相關”--但這部分行業還將包括許多非國防公司。人工智能是一個快速發展的行業,預計將在未來幾年內大幅擴張:據 KBR 和 Frazer-Nash Consultancy 提供的證據估計,2023 年英國軍事人工智能行業的價值約為 2.85 億英鎊,預計到 2028 年將增長到 12 億英鎊。

有關英國國防人工智能公司特點的數據很有限,但證據表明,這些公司既包括人工智能只占其業務一小部分的老牌國防公司,也包括專門從事國防人工智能的初創公司。大多數參與人工智能開發的公司規模都相對較小: 蘭卡斯特大學創新、技術和戰略教授西蒙娜-索阿雷(Simona Soare)博士將該行業描述為一個 “成熟的生態系統”,其中 75-80% 的公司都是小型企業或初創公司。在國防領域,這類公司包括 Adarga、AdvAI、Skyral、Ripjar 和 Mind Foundry。人工智能的發展跨越國界,微軟和亞馬遜等在人工智能領域處于全球領先地位的跨國公司都在英國設有分支機構。此外,一些專門從事人工智能國防應用的國際公司也在英國設有分支機構,如 Helsing 和 Anduril。

人工智能行業相對剛剛起步,現在判斷英國人工智能和國防人工智能行業將如何發展還為時尚早。但是,證據表明,英國擁有可以促進該行業成功發展的優勢,包括大學和強大的研究部門,以及在計算和數學科學等相關學科的現有優勢。英國還擁有強大的計算能力(計算),這是開發先進人工智能的重要資產,同時英國還擁有龐大的金融部門,可以吸引對先進研究的投資。英國的制度優勢也為人工智能公司提供了良好的發展環境,并能吸引投資者,其中包括強有力的監管制度和有效的法治。所有這些都意味著英國具備蘭德歐洲公司的詹姆斯-布萊克(James Black)所說的 “相當好的通用優勢”,可以支持人工智能行業取得成功。

與此同時,一些證人也指出了英國該行業目前存在的弱點。Simona Soare 博士強調,雖然英國確實存在人工智能 “生態系統”,但 “并沒有特別獨立的國防人工智能生態系統”。此外,初創公司的更替率非常高,只有不到五分之一的公司能持續四年或更長時間。這意味著該生態系統幾乎沒有彈性,這將使英國擴大國防人工智能能力面臨挑戰。小組委員會還聽說,各軍種內部對整個國防領域的人工智能方法缺乏一致性。退役空軍元帥 Edward Stringer認為:"在整個國防人工智能領域,有一些非常優秀的人員,但系統略顯分散。雖然英國總體上是一個充滿活力的風險投資(VC)環境,但薩里大學人工智能研究所的 Mikolaj Firlej 博士寫道,英國國防人工智能部門 “投資不足”,只有幾家較小的風險投資基金在投資。

雖然英國的人工智能部門和國防人工智能部門的絕對規模較小,但與同行相比,英國的表現相對較好,因為該部門在全球仍處于發展的早期階段。蘭德歐洲公司報告稱,英國的人工智能公司數量在全球排名第三。牛津洞察》(Oxford Insights)和Tortoise編制的《全球人工智能指數》(Global AI Indices)根據各種因素對各國進行排名,英國分別位列第三和第四。雖然這些指數并沒有對各國在國防人工智能方面的實力進行具體排名,但有理由相信英國在這一領域的表現相對較好: Simona Soare 博士指出,英國為人工智能提供的資金遠遠高于歐洲同行,據估計,英國在國防人工智能領域的投資是法國和德國的兩倍。與此同時,雖然英國領先于許多同行,但在許多關鍵指標上卻遠遠落后于人工智能領域的全球領導者--美國和中國。這兩個國家政府在人工智能方面的總支出是英國政府的四倍多,美國和中國超級計算機的數量和處理能力也遠遠超過英國。一些意見認為,英國不可能與美國部門的規模和投資能力競爭,但英國可以利用其現有優勢,在人工智能的某些領域發展世界領先的專業技術。

英國具備許多適當的條件,可以在國防人工智能發展方面成為全球領導者,但目前國防是英國人工智能生態系統中發展不足的一個方面,英國與目前人工智能領域的全球領導者美國和中國之間的差距很大。英國不能也不應該以在規模上與這些國家的部門相媲美為目標,而應該尋求在優勢領域實現專業化,并在這些領域達到一流的先進水平。

人工智能對有效防務的重要性與日俱增,因此英國的目標必須是擁有一流的國防人工智能生態系統。國防部門應制定措施,將英國的部門與國際上的其他部門進行比較,以便跟蹤該部門相對于同行的實力。

付費5元查看完整內容

現代沖突涉及信息武器化和操縱人類行為。人工智能(AI)及其與個人日常生活的融合有望增強、加速這些趨勢,但也會使其復雜化。兩個重要的轉變將幫助我們了解這場新興戰爭的真實面目:對人類本身的攻擊。

人工智能使信息戰變得更強大、更易獲取。生成式人工智能與數據捕捉相結合,提供了將虛假信息的進攻性使用產業化的新技術。此外,生成式人工智能與其他強大技術的結合使信息戰的潛力更加復雜。問題的關鍵在于兩用知識本身的武器化。在人工智能、神經、納米和生物技術等復雜的技術領域,生成式人工智能已經在學習如何使軍事和民用專業知識擴散化。這種能力將使國家和非國家行為者都能獲得與有影響力的技術相關的知識和指導。這種力量的擴散將改變信息戰和物理戰的性質,加劇沖突中威脅行為體之間雙重用途知識的不對稱。迫切需要為利用技術融合的濫用情景做好準備。新的融合風險將帶來集體安全挑戰,而這些挑戰在全球范圍內并沒有得到很好的理解或預期。

世界已進入復雜而危險的十年。隨著新舊威脅的交織和對多邊秩序的挑戰,戰爭、技術和網絡空間的交匯點正在發生最震撼人心的變化。現代沖突--無論是宣戰的、有爭議的還是在灰色地帶進行的--都因本質上具有雙重用途的技術革命而加劇。這些沖突融合了物理和數字戰線,入侵城市和工廠、家庭和日常設備,并隨之產生新的目標和受害者。和平與戰爭、進攻與防御、民用技術與軍用技術、國家力量與網絡代理人之間的界限正在消失。

現代沖突越來越多地涉及信息武器化以及對人類行為和觀念的操縱。人工智能(AI)的快速發展及其與個人日常生活和社會內部結構的融合,不僅有望增強和加速這些趨勢,而且還會使其復雜化。本文旨在展示兩個重要的轉變,這將有助于我們認識和理解這場新興戰爭的真面目:對人類本身的攻擊。

首先,人工智能作為一種催化劑,正在使信息戰變得更強大、更易獲取。生成式人工智能的發展與多種形式的數據采集相結合,為大幅改進、定制、擴大甚至產業化虛假信息的進攻性使用提供了新技術。例如,個性化人工智能助手和聊天機器人現在有能力與用戶進行看似真實的對話,并根據用戶的心理特征和偏好巧妙地注入操縱性內容。通過有說服力的敘述,復雜的機器人網絡可以深刻影響個人和群體的信仰。這些由算法推動的影響力爭奪戰,是為了控制人們的情感和態度,也是破壞社會凝聚力和信任的主要手段。在沖突時期,這些工具影響到平民保護和平民生存決策的關鍵要素,對民眾造成直接和間接傷害(聯合國大會,2022 年)。對于邊緣化人群和弱勢群體,如婦女和青年,這些工具可能會越來越多地制約和限制自決的概念,并可能會繼續影響后代。

其次,人工智能(包括生成式人工智能)與其他強大技術的融合是一個根本性的轉變,因為這種融合擴大并復雜化了信息戰的潛力。問題的關鍵在于軍民兩用知識本身的武器化,可能包括人類文明發展的所有形式的軍民兩用專業知識。

在人工智能、神經、納米和生物技術等復雜的技術領域,生成式人工智能已經在學習如何使戰略性軍事和民用專業知識和隱性知識擴散化。這種能力將為各種國家和非國家行為者提供獲取與有影響力的技術相關的敏感知識和指導的機會。這種力量的擴散不僅會改變信息戰和物理戰的規模,也會改變其性質,從而加劇沖突威脅方之間的雙重用途知識不對稱。迫切需要為敵方使用或濫用技術的情況做好準備,因為這些情況可能會利用原本主要是民用和有益技術的融合。這種新的風險匯合將帶來集體安全挑戰,而這些挑戰在全球范圍內并沒有得到很好的理解或預期。

利害關系重大。隨著人工智能和生成式人工智能系統重塑知識、專長和信息在沖突中以及在戰爭與和平之間的灰色地帶的使用和潛在操縱方式,現在是時候進行前瞻性思考并評估風險、脆弱性和復原形式了。雖然這對軍事力量和戰略思維會有具體影響,但預防和恢復能力將取決于全社會的反應。

本文的戰略目標有兩個方面。首先,通過深入分析人工智能與其他技術的融合如何能被用于擴大信息戰,本文旨在讓軍事當局和戰略思想家、政策制定者和法律專家、民間社會和多邊機構了解有可能威脅和削弱社會同時又逃避責任的新興戰略。其次,通過分析國際法如何適用于新出現的信息戰形式,本文旨在找出法律空白和模糊之處,以及支持國家和多邊層面治理和政策進程的潛在切入點。

本文開篇的框架部分界定了所關注的主題,并迅速回顧了近期的信息戰概念是如何與數字化轉型和不斷演變的沖突格局相關趨勢相結合的(見方框 1)。技術部分闡明了上述兩大轉變,展示了人工智能不僅如何使信息戰擴散化,還如何使其復雜化并擴大其影響。因此,技術部分將涵蓋人工智能在信息戰中的具體用途,包括心理戰;對軍隊和平民的影響;最近在現實世界中的一些表現;以及人工智能的未來潛力和與其他技術的融合。接下來是一個詳細的場景,展示了在曠日持久的武裝沖突中,以人工智能為主導的信息戰如何利用生物技術中的雙重用途知識和尖端技術來削弱公共當局,并從心理上破壞平民的穩定。法律部分回顧了國際法律框架提供的保護措施,以及可能阻礙有效保護和問責的法律空白和模糊之處。最后一節強調了軍民協同的必要性和全社會應對的要素,以加強預防和復原力。

付費5元查看完整內容

在國防和國家安全領域部署物聯網(IoT)系統面臨著一些限制,而邊緣計算(Edge Computing)方法可以解決這些問題。邊緣計算和物聯網范例的結合帶來了潛在的好處,因為它們正視了傳統集中式云計算方法的局限性,傳統云計算方法易于擴展、支持實時應用或移動性,但其使用在網絡安全等方面存在一定風險。本章確定了國防和國家安全機構可以利用商用現貨(COTS)邊緣物聯網功能為作戰人員或急救人員提供更高的生存能力,同時降低成本并提高運行效率和有效性的場景。此外,它還介紹了戰術邊緣物聯網通信架構的總體設計,指出了廣泛采用該架構所面臨的挑戰,并為國防和國家安全領域實現經濟高效的邊緣物聯網提供了研究指南和一些建議。

關鍵詞 物聯網、戰場物聯網、國防和公共安全、戰術物聯網、邊緣計算、公共安全響應者、信任管理、戰術邊緣

本章其余部分的內容安排如下。第 1.2 節介紹本章將使用的基本概念。第 1.3 節回顧了當前商用現成 (COTS) 邊緣物聯網應用為戰術環境創造的機遇。第 1.4 節介紹了一些有前景的戰術邊緣物聯網應用場景。第 1.5 節概述了戰術邊緣物聯網通信架構的總體設計。第 1.6 節概述了阻礙戰術邊緣物聯網技術應用的挑戰,并提出了一些進一步研究的建議。最后,第 1.7 節是結論部分。

圖 1.2:國防和公共安全領域戰術邊緣物聯網的目標場景。

戰術邊緣物聯網的目標場景

以網絡為中心的戰爭(NCW)模式 [73] 將戰場資產與總部連接起來。這種概念通過促進用戶之間安全、及時地交換信息而帶來好處。此外,NCW 范式結合了三個域:物理域,在事件和行動發生的地方生成數據;信息域,傳輸和存儲數據;認知域,處理和分析數據,以實現決策和任務規劃。NCW 的三個域與當今商業邊緣物聯網的基礎相對應。

在以網絡為中心的 C2 行動中,責任被下放到戰場邊緣[74],形成了所謂的戰場物聯網 (IoBT),可將戰場上所有有助于做出明智決策的事物匯集在一起。然而,這些動態需要能確保網絡效率的網絡范例。在 [74] 中,作者將以信息為中心的網絡(ICN)與軟件定義網絡(SDN)結合起來,以滿足這些要求。

本節分析了一些與邊緣服務最相關的戰術物聯網應用場景,如圖 1.2 所示。指揮、控制、通信、計算機、情報、監視和偵察(C4ISR)和火控系統的應用主導了國防和 PS 物聯網相關技術的采用,因為傳感器主要用于收集和通信數據,以改進 C2。雖然物聯網和邊緣計算技術以前曾用于與后勤和訓練有關的應用,但它們與其他系統的集成往往有限。

如前所述,邊緣物聯網功能可用于在戰場上提供卓越的態勢感知。指揮官可根據從無人機/無人駕駛傳感器和戰場報告中提取的 AI/ML 數據整合后得出的實時分析結果做出決策。地面傳感器和攝像機,以及人或無人設備、車輛或士兵都能為指揮官提供廣泛的信息。上述物聯網設備能夠掃描任務環境,然后將信息發送到前沿基地的邊緣計算服務器。這些信息的一部分可由指揮中心收集,并在那里與其他來源的信息進行處理和融合。

圖 1.3:戰術邊緣物聯網系統的通信架構

付費5元查看完整內容

人工智能(AI)在塑造未來技術格局方面舉足輕重。多智能體強化學習(MARL)已成為一項重要的人工智能技術,可用于模擬各個領域的復雜動態,為高級戰略規劃和自主智能體之間的協調提供新的潛力。然而,由于缺乏可解釋性(可靠性、安全性、戰略驗證和人機交互的關鍵因素),它在敏感軍事環境中的實際應用受到限制。本文回顧了 MARL 在可解釋性方面的最新進展,并介紹了新的使用案例,強調了可解釋性對于研究智能體決策過程的不可或缺性。首先對現有技術進行了批判性評估,并將其與軍事戰略領域聯系起來,重點關注模擬空戰場景。然后,引入了新穎的信息論可解釋性描述符概念,以分析智能體的合作能力。通過研究,旨在強調精確理解人工智能決策的必要性,并使這些人工生成的戰術與人類的理解和戰略軍事理論相一致,從而提高人工智能系統的透明度和可靠性。通過闡明可解釋性在推進MARL用于作戰防御方面的至關重要性,該工作不僅支持了戰略規劃,還通過有見地和可理解的分析支持了對軍事人員的訓練。

作戰決策

深度 RL 涉及神經網絡在兵棋推演等復雜和真實世界環境中的決策。然而,由于難以解釋其結果,這些網絡經常被視為黑箱模型。可解釋強化學習(XRL)指的是解釋和理解強化學習模型決策過程的能力,讓人們深入了解在特定情況下采取某些行動的原因。XRL 面臨的挑戰包括與科學評估和操作可靠性相關的風險、缺乏普遍接受的評估指標,以及為復雜任務提供全面解釋的難度[3]。盡管存在這些挑戰,但在軍事行動中,采用有效的可解釋性方法來理解模型輸出對于診斷錯誤、提高模型性能和理解錯綜復雜的智能體行為尤為關鍵。這些方法在建立軍事人員之間的信任、確保安全關鍵任務的透明度以及促進遵守嚴格的操作和監管標準方面發揮著至關重要的作用。在復雜而敏感的軍事場景中,XRL 使指揮官和決策者能夠解釋和證明人工智能驅動的戰略和行動,從而做出更加明智和負責任的決策。此外,精確的可解釋性(即正確可靠的解釋)有助于更好地進行風險評估和管理,改善人類與智能體之間的協調,并支持將先進的人工智能系統集成到現有的軍事框架中,同時保持作戰的可靠性和有效性。空戰模擬涉及復雜的決策過程,智能體必須在瞬間做出決策以實現戰略目標。這些模擬通常涉及眾多因素,包括機動、瞄準、規避威脅、燃料管理以及與其他單元的協調。舉例來說,考慮以下場景:智能體檢測到敵軍導彈來襲。為了反擊,它迅速釋放照明彈并進行桶形翻滾,以迷惑導彈的熱傳感器并躲避敵方的瞄準。在這一場景中,對導彈的觀察是執行釋放照明彈和桶形翻滾動作的重要特征。

本文回顧了 MARL 在可解釋性方面的最新進展,并介紹了一些新穎的使用案例,這些案例突出了 MARL 在模擬空戰場景(圖 1-1)中分析智能體決策過程的關鍵作用。通過研究這些進展,我們強調了可解釋性在理解和改進智能體行為方面的重要性,尤其是在應用于軍事模擬等復雜環境時。我們的論文不僅僅是一份調查報告,它還探討了可解釋性如何加強戰略規劃、促進人類與人工智能的協作,以及確保人工智能在關鍵任務行動中做出的決策值得信賴。通過這些見解,我們旨在證明可解釋 MARL 在高風險場景的研究和實際部署中的緊迫性。

空中強化學習

目前有多種結合 RL 和 MARL 的方法,用于訓練空戰場景中的智能體。這些方法不僅限于戰斗機的狗斗機動,還包括無人機群(UAV)和不同類型的飛機(異構智能體)。

小規模交戰中的空戰通常側重于通過 RL 控制飛機,以便在幾乎沒有還擊風險的情況下獲得對對手有利的位置。早期控制飛機的方法包括專家系統或帶有學習分類器的混合系統,而較新的方法則依賴于 RL。為了學習更強的 CoA,使用 RL 方法的模擬空戰方法依賴于更先進的技術,如深度 Q 網絡(DQN)、深度確定性策略梯度(DDPG)、課程學習方法或包含自我博弈的方法,即智能體與自身的副本進行博弈。

另一方面,更大規模的交戰側重于高層次的戰術決策或武器-目標分配,即 CoA 的規劃。在這種情況下,考慮到維度過程,MARL 方法通過利用單個智能體內部的對稱性,尤其適用。在這一領域,有一些使用多智能體 DDPG、分層 RL 或基于注意力的神經網絡的先進方法。我們之前的一項工作包括一個具有注意力機制的分層 MARL 模型,該模型使用近端策略優化(PPO)進行訓練。在我們的工作中,我們還考慮了異構智能體,這在文獻中似乎很少見。加入異構智能體會增加協調的復雜性,因為智能體可能不了解彼此的技能和能力。

空戰可解釋性方法

現在回顧相關工作部分所回顧的 XRL 類別,隨后將它們與空戰場景的多智能體領域聯系起來,以強調理解人工智能戰術的益處和不可或缺性。前三種方法(策略簡化、獎勵分解和特征貢獻)屬于被動解釋類別。這類解釋側重于短時間范圍,根據即時行為提供反饋。例如,“飛機為什么發射導彈?”這樣的問題可以通過 “對手進入武器交戰區(WEZ)”這樣的即時激勵來回答。這些解釋往往側重于個人行為,而不是更廣泛的戰略考慮。相比之下,積極主動的解釋考慮的時間跨度更長,更適合解釋戰略決策。例如,它們可以解釋為什么在特定情況下,某些擁有特定技能的智能體被設置為防御模式,而其他智能體則采取攻擊性戰術。因果和層次 RL 模型可以提供這類解釋,為空戰中的長期戰略和協調演習提供見解。

  • 策略簡化

在深度 RL 中,神經網絡被用作函數近似器來學習決策函數,可以是策略,也可以是 Q 函數,在我們的分析中,我們側重于前者。策略簡化指的是降低策略的復雜性,使其可以被人類解釋的過程。具體做法包括:以決策樹的形式學習策略,跟蹤每個決策步驟;將學習到的策略作為 “if-then ”規則集(如模糊規則);使用狀態抽象法將相似的狀態分組,降低狀態空間的維度;或使用高級的、人類可讀的編程語言來表示學習到的策略。這些方法的主要優點是簡單易用,因為這有利于產生解釋并增強對系統的信任。在動態相對簡單、智能體較少的環境中,即使是在不可預見(和簡單)的空戰場景中,這些方法也能充分推廣和擴展,以提取有意義的解釋。然而,在任務目標眾多、智能體技能各異的更復雜環境中,這種方法可能就不適用了,因為解釋往往是靜態的。這種方法的主要缺點是模型性能與可解釋性之間的權衡:隨著可解釋性水平的提高,模型的準確性往往會降低。在模擬空戰場景中,逼真度對產生有價值的見解至關重要,因此保持模型的高準確性非常重要。這通常需要復雜的模型,涉及精密的神經網絡、廣泛的超參數調整、先進的訓練算法和高度動態的環境。雖然策略簡化會限制策略表示的類型,從而影響整體性能,但它可以作為一個實用、高效的起點。簡化后的策略可以有效訓練和解釋空戰智能體的基本控制動作,為未來的迭代打下基礎,從而隨著場景復雜度的增加,在可解釋性和準確性之間取得平衡。

付費5元查看完整內容

第五代 (5G) 技術的部署已被確定為包括軍事在內的各行業的關鍵戰略技術。美國防部(DOD)尤其強調了盡早采用 5G 技術以保持競爭優勢的重要性。然而,在戰術網絡中部署現成商用(COTS)5G 解決方案仍需進一步研究。戰術環境復雜多變,往往充滿敵意,給網絡通信帶來了獨特的挑戰。利用純軟件解決方案集成 5G 技術,實現戰術融合,可在成本、靈活性和可靠性方面帶來顯著優勢。本研究旨在收集和分析 5G 網絡實驗數據,以深入了解在戰術環境中部署和使用 5G 技術所面臨的挑戰和機遇。目標是推動開發更有效、更高效的網絡解決方案。這項研究揭示了顯式網絡切片的潛在性能權衡、5G 擴大頻譜接入的意義,以及 COTS 解決方案在加速戰術網絡開發方面的價值。提出的建議包括在實驗性戰術環境中全面實施網絡切片,以及探索用于資源優化和網絡防御的人工智能/ML 模型。

圖 1.1. 美通信陸戰隊員在加利福尼亞州 29 Palms 的一次野外訓練中安裝 COTS 解決方案。

論文闡述了戰術融合的復雜性及其與 5G 技術的融合,為現代國防通信的戰略需要指明了方向。

第 2 章 “背景和相關工作 ”首先簡要概述了 5G 的歷史,詳細介紹了支撐其徹底改變戰術通信潛力的關鍵技術創新。這一敘述不僅強調了 5G 的關鍵技術能力,還將討論置于相關著作的背景下,明確了本研究試圖解決的貢獻和差距。

第 3 章 “方法論 ”介紹了為探索 5G 的可擴展性及其增強美國海軍陸戰隊戰術網絡并與之整合的潛力而采用的研究方法。本章概述了實驗設計以及為評估 5G 在這些獨特環境中的實用性和有效性而制定的評估標準,為嚴格的實證調查奠定了基礎。在

第 4 章 “結果 ”介紹了實證研究的結果,詳細分析了 5G 網絡在戰術條件下的表現以及軟件解決方案在促進網絡整合方面的作用。分析的重點是評估戰術融合的可行性,利用數據為有關 5G 在支持戰術行動方面的適應性、復原力和作戰效能的討論提供信息。

最后,第 5 章 “結論與未來工作 ”對研究成果進行了總結,探討了在戰術網絡中采用戰術融合的戰略意義。它闡明了 5G 和戰術融合在增強未來國防通信系統方面的預期作用,同時也為進一步研究指明了道路。最后一章旨在總結本研究的見解,反思本研究對更廣泛的軍事通信技術討論的貢獻,并提出未來探索的途徑。

付費5元查看完整內容

決策輔助系統是國防指揮與控制裝置的基礎,為各級決策過程提供信息。圍繞人工智能(AI)在決策輔助系統中的應用開展的現有研究認為,人工智能是此類系統性能和應用的關鍵驅動因素。然而,很少有研究探討時間因素和中間決策的存在對決策者對此類系統信任度的影響,或者當決策由另一個人輔助時,與由人工智能輔助時的影響有何不同。現有文獻認為,對人工智能的信任不同于其他信任對象。本論文通過探究信任的產生是否更多地取決于信任的對象或來源來探索這一假設。之前的一項實驗研究了當決策支持僅由人工智能系統提供時,時間和中間判斷對信任的影響。本論文對該實驗進行了擴展,同時操縱了決策輔助的來源,即人類,而不僅僅是人工智能。通過加入人與人之間信任的基礎案例,本研究可以就中間判斷和時間對決策輔助系統信任的相對影響進行比較分析。

決策輔助系統是美國防部(DOD)指揮與控制機構的基礎,為各級決策過程提供信息。團隊是美國軍隊組織和完成任務的主要要素。美國防部打算通過將人工智能嵌入戰術、組織和戰略層面的組織結構(團隊),更快地做出更好的決策,從而獲得優勢(國防部,2022、2023a、2023b)。圍繞人工智能(AI)在決策支持系統中應用的現有研究表明,信任是此類系統性能和采用的關鍵驅動因素。

問題在于,人們尚未充分認識到若干設計參數對信任和性能的影響,這可能會延遲或抵消人工智能決策支持系統的優勢(Ashoori & Weisz, 2019; Tangredi & Galdorisi, 2021)。由于這些系統將用于做出關鍵決策,或在動態、混亂的環境中為人類提供支持,因此這些系統必須值得信賴且性能良好(Babo?,2021;人工智能特設委員會,2023)。本研究的目的是,與人工智能(AI)相比,當人類的決策過程得到人類分析師的支持時,研究自變量(中間判斷和時機)對因變量(信任)的影響。這項研究旨在促進人機系統的整合,實現有效的機器/人工智能設計并更快地應用于軍事領域,加強這些機器的穩健性和復原力,并為設計有效的人機系統提供支持理論。

之前的一項調查試圖了解在僅與人工智能輔助決策系統互動時,信任是如何隨著時間的推移而演變的(Humr 等人,2023 年)。本調查比較了當決策支持來源是人類分析師和人工智能分析師時,信任度是如何演變的。通過操縱決策支持的來源,本調查旨在比較人類和人工智能群體的信任度和表現,并分析人類和人工智能群體本身的自變量的影響。

現有文獻的基本假設是,人類決策者對人工智能決策支持系統產生信任的過程不同于決策者對提供相同決策支持的另一個人類產生信任的過程。這一假設在人工智能研究中基本上沒有受到質疑。雖然人工智能系統中信任和性能的關鍵驅動因素須要并將繼續得到確定,但值得確定的是,它們與現有的以人類之間的信任為基本情況的信任模型相比有何不同。這種調查可能會挑戰現有的假設,即人類建立信任的過程因信任對象的不同而不同。按理說,無論是人類還是人工智能,信任決定都是由人類主體做出的,可能會也可能不會受到人類所信任的對象的影響。

現有文獻表明,人類建立信任的過程更多地取決于信任的對象(被信任的人或事物),而不是信任的來源(決定信任的人類)。鑒于人工智能系統的新穎性和細微差別,以及它們與人類的生物和社會稟賦的截然不同,當決策支持、信任對象是人工智能系統而非人類時,決策背景下的信任模型會有所不同這一假設通過了表面有效性的檢驗。然而,本次調查對現有文獻中這一近乎教條的假設提出了質疑,直接探討了人類對人工智能的信任是否與人類對其他人的信任有本質區別。畢竟,人類的信任過程已經發展了數千年,而機器和人工智能的存在不過是進化過程中的一眨眼。

這項研究試圖擴展之前的一項實驗(Humr 等人,2023 年),在這項實驗中,人工智能分析師為人類決策者提供意見。在該研究中,操縱的自變量是中間判斷形式的選擇和分配的時間。因變量是信任評價,其形式是詢問受試者在與決策支持體互動后,未來將某項任務委托給人工智能的可能性有多大。這項研究重復了之前的實驗,但用人類分析師代替了人工智能分析師。其他一切保持不變,以便在人類支持組和人工智能支持組之間進行比較。

這項研究發現,在由人類與人工智能系統支持決策的受試者之間,信任評價在統計學上沒有顯著差異。這些發現與人工智能信任研究領域的傳統假設相沖突,即人工智能信任是一種與一般信任根本不同的現象,因此需要獨立表達。

雖然這些發現并不能概括所有類型的信任、人工智能的使用案例或人類可能與之互動的人工智能類型,但它確實表明,與試圖重新發現人工智能或人工智能系統中可能使其值得信任的方面相比,更努力地識別人類之間信任的關鍵驅動因素對于設計可信任的人工智能可能更有價值。本研究建議未來的實驗探索信任的另一個關鍵驅動因素,即決策支持(人工智能或人類)的性能,并將其對信任的影響與本實驗中使用的自變量進行比較。此外,本研究還建議調查選擇和時機這兩個自變量如何影響決策者的整體決策表現。畢竟,信任是影響績效的一個中介變量,因此,通過直接觀察這些自變量對績效的影響,決策支持系統的設計者就能建立盡可能好的系統。

付費5元查看完整內容

近年來,人工智能(AI)和機器學習領域的進步為增強人類能力和提高各種自主系統的功能創造了前所未有的機遇,包括在國際安全領域。然而,在國防領域,訓練日益復雜的人工智能系統所需的高質量、高度多樣化和相關的真實世界數據集卻十分稀缺。因此,合成數據正逐漸成為開發和訓練人工智能系統的數據工具箱中必不可少的工具。合成數據的特點和潛在優勢,以及該技術在各個領域的成熟應用,使其成為圍繞在國際安全背景下使用人工智能的辯論的一個相關話題。

本入門指南簡要概述了合成數據,包括其特點、生成方式、增加的價值、風險以及在國防組織和軍事行動中的潛在用例。此外,本手冊還概述了現有的數據挑戰和限制,這些挑戰和限制促使合成數據成為開發日益復雜的人工智能系統的重要工具。

迄今為止,合成數據在國際安全領域的應用大多停留在實驗和探索階段。不過,合成數據的特點可對訓練人工智能系統產生有益影響。特別是,合成數據可以生成高度多樣化甚至新穎的數據集,對數據屬性進行精細控制,必要時自動注釋或標記數據,而且成本效益高。這本入門書探討了合成數據的主要特點如何使軍隊和國防組織受益,讓他們能夠在防御性和進攻性自主系統中集成能力更強、更可靠的人工智能系統。

雖然合成數據有利于訓練人工智能系統,并有助于緩解軍隊和國防組織面臨的一些數據問題,但它并不是靈丹妙藥,也伴隨著風險和挑戰。使用合成數據所帶來的好處將取決于各組織是否有能力駕馭這些風險,以便以負責任和安全的方式并按照法律要求和道德價值觀使用根據合成數據訓練的人工智能系統。

圖1所示。真實世界與合成數據

付費5元查看完整內容
北京阿比特科技有限公司