亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)在增強國防系統能力、革新戰略決策和塑造未來軍事行動格局方面發揮著重要作用。神經符號人工智能是一種新興的方法,它利用并增強了神經網絡和符號推理的優勢。與傳統的人工智能系統相比,這些系統可能更具影響力和靈活性,因此非常適合軍事應用。本文全面探討了神經符號人工智能的不同層面和能力,旨在闡明其在軍事領域的潛在應用。我們研究了它在改進決策、自動進行復雜情報分析和加強自主系統方面的能力。除了在軍事領域的應用外,我們還進一步探討了它在解決各領域復雜任務方面的潛力。通過這種探索,我們解決了對神經符號人工智能在軍事和民用領域的開發和部署至關重要的倫理、戰略和技術問題。本研究是對神經符號人工智能廣泛可能性的全面探索,為日益增多的研究做出了貢獻。

神經符號人工智能將推動未來的人工智能戰場,徹底改變戰爭。在軍事決策過程中利用人工智能可以提高戰場效率,改善關鍵作戰決策的質量。神經網絡與符號推理的結合有可能顯著提高威脅探測的準確性,并實現更快、更精確的戰術決策,從而徹底改變軍事行動。本文分析透徹,為關注人工智能在戰爭中的未來的研究人員、從業人員和軍事決策者提供了寶貴的見解。通過對現有研究的批判性審視,確定了關鍵挑戰,并概述了未來有希望的發展方向。這旨在進一步增強神經符號人工智能在優化后勤、增強態勢感知和動態決策等領域的負責任部署。此外,神經符號人工智能在軍事應用方面取得的進步也為其在醫療保健、金融和交通等民用領域的廣泛應用帶來了巨大潛力。這種方法提高了不確定性條件下的適應性、可解釋性和推理能力,徹底改變了傳統方法,推動了軍事和民用效能的發展。

貢獻。本文對神經符號人工智能領域做出了以下重要貢獻。

  • 本研究全面探索了神經符號 AI 在軍事應用方面的廣泛可能性,為不斷增長的研究成果做出了貢獻。
  • 強調了神經符號人工智能在軍事行動中的變革潛力,突出了它在加強國家安全和提高行動效率方面的作用。通過全面分析其應用和影響,我們強調了將神經符號人工智能融入軍事戰略和決策過程的重要意義。
  • 全面論述了在軍事環境中開發和部署神經符號人工智能所必須考慮的倫理、戰略和技術因素。
  • 最后,本文概述了在動態和復雜情況下將神經符號人工智能融入軍事行動的戰略意義,強調了神經符號人工智能如何能夠重新定義戰略、提高行動效率并促進國家安全。

圖 6:神經符號人工智能的一些主要軍事應用。

付費5元查看完整內容

相關內容

 是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。 人工智能是計算機科學的一個分支。

本文介紹了一種為戰場環境量身定制的動態三維場景感知創新系統,該系統利用配備雙目視覺和慣性測量單元(IMU)的無人智能體。該系統處理雙目視頻流和 IMU 數據,部署先進的深度學習技術,包括實例分割和密集光流預測,并通過專門策劃的目標數據集加以輔助。通過集成 ResNet101+FPN 骨干進行模型訓練,作戰單元類型識別準確率達到 91.8%,平均交叉比聯合(mIoU)為 0.808,平均精度(mAP)為 0.6064。動態場景定位和感知模塊利用這些深度學習輸出來完善姿態估計,并通過克服通常與 SLAM 方法相關的環境復雜性和運動引起的誤差來提高定位精度。

在模擬戰場元環境中進行的應用測試表明,與傳統的 ORB-SLAM2 立體方法相比,自定位精度提高了 44.2%。該系統能有效地跟蹤和注釋動態和靜態戰場元素,并利用智能體姿勢和目標移動的精確數據不斷更新全局地圖。這項工作不僅解決了戰場場景中的動態復雜性和潛在信息丟失問題,還為未來增強網絡能力和環境重建方法奠定了基礎框架。未來的發展將側重于作戰單元模型的精確識別、多代理協作以及三維場景感知的應用,以推進聯合作戰場景中的實時決策和戰術規劃。這種方法在豐富戰場元宇宙、促進深度人機交互和指導實際軍事應用方面具有巨大潛力。

付費5元查看完整內容

多年來,人工智能一直被用于改進信號情報的收集和分析,但本文探討了生成式人工智能可為戰略情報分析人員執行的一系列任務。文章認為,將生成式人工智能融入情報評估的最穩妥做法是作為人類分析師的 “副駕駛員”。盡管存在不準確、輸入偏差和 “幻覺 ”等問題,但生成式人工智能可以解放時間不足的分析人員,讓他們專注于人類最有價值的任務--運用他們的專業知識、隱性知識和 “現實感”。

人工智能(AI)是無法回避的。我們每個人每天都直接或間接地與它打交道。除了柯潔在圍棋比賽中輸給谷歌的 AlphaGo 這樣的偶然拐點之外,人工智能幾乎沒有大張旗鼓地滲入社會。但現在,圍繞人工智能的爭論非常突出。這主要與用戶友好型生成式人工智能軟件的發布和廣泛采用有關,其中最著名的是 ChatGPT 和 Google Bard。這些功能強大的程序潛力巨大,許多評論家認為它們的影響堪比另一場工業革命。的確,將人工智能應用到各個領域,尤其是醫學領域,可能會帶來革命性的變化;但同樣,它也會帶來巨大的潛在風險--安全、經濟、社會和文化風險。首相蘇納克(Rishi Sunak)希望英國能掌握這個等式的兩面:在人工智能監管和安全方面引領世界,11 月在布萊切利公園舉行的人工智能安全峰會就是一個標志;同時也要抓住這項技術帶來的機遇。八十年前,布萊切利公園的前主人--密碼破譯員、語言學家、數學家和工程師--曾與英格瑪機器搏斗并開創了計算技術的先河。本文關注的是生成式人工智能為他們在情報界的繼承者,特別是那些專注于情報評估技術的繼承者帶來的機遇和挑戰。文章認為,生成式人工智能有可能極大地補充分析工作。但就目前而言,它最有用的應用是作為輔助工具、副駕駛員,它有可能極大地增強分析人員的工作,但也應謹慎使用。

情報與技術是一對老朋友。幾十年來,它們彼此推動著對方的發展。這一點在電子和計算機領域體現得最為明顯。在秘密行動中,情報機構推動了技術的發展。它們還經常是新技術的早期采用者,利用新技術開發、維護和增強能力。畢竟,適應性是成功情報機構的標志之一。英國皇家情報總部成功地從模擬機構轉型為數字機構,如今甚至將自己定位為 “情報、安全和網絡機構”。人工智能已經以多種方式補充了情報工作。各國經常使用人工智能增強系統來協助收集情報。許多在秘密領域工作的私營部門承包商也在人工智能領域大顯身手。由人工智能軟件支持的閉路電視攝像網絡被廣泛用于識別和追蹤城市環境或恐怖風險較高地區(如火車站)的個人或物體。這種技術也為專制政府提供了無與倫比的機會來壓制不同意見或異議,新疆和其他地方的情況就說明了這一點。除數據收集外,這項活動的大部分內容還涉及更輕松、更高效地對數據進行鑒別或選擇,從而為時間有限的分析人員的工作提供便利,因為他們需要評估這些數據的含義。人工智能被廣泛應用于翻譯、將截獲的互聯網流量減少到可控水平、語音識別或在開放的互聯網上搜索對象的協會和聯系人等費力的任務。在英國,INDEX 系統允許分析人員在政府和外部報告中進行搜索。核心信息可以通過自然語言處理系統提取和匯總。但是,正如剛剛退休的英國聯合情報委員會主席西蒙-加斯(Simon Gass)爵士在今年 6 月指出的,“我們正處在這個階段的山腳下”。

需要將生成式人工智能和大型語言模型(LLM)整合到情報評估的正常業務中。簡單地說,生成式人工智能是指 “能夠根據訓練數據生成高質量文本、圖像和其他內容的深度學習模型”。這些技術已經在國防和情報領域受到高度重視。英國國防部國防創新總監約翰-里奇(John Ridge)最近指出,“我們可以肯定的一點是,這類能力將是絕對關鍵的”。這些能力是革命性的,還是只是情報工作的另一個發展階段,還有待觀察。但它們改變商業模式的潛力是顯而易見的。前幾代人工智能主要集中在更有效地收集數據和更有效地整理擺在民間和軍事情報分析師面前的材料上,而生成式人工智能則展示了承擔迄今為止只有人類分析師才能完成的任務的潛力。基于 LLM 的工具(如 ChatGPT)的主要賣點是,它們可以對問題或命令形式的提示做出響應,并利用現有材料在特定參數范圍內做出響應。或者換一種說法,可以命令它們按照特定規格撰寫類似人類的報告,以計算機的速度,根據大量數據提出見解或作出推論。

從這個意義上說,情報分析和評估與其他以研究為基礎的工作領域處于類似的地位,它們可能(而且幾乎肯定會)受到干擾。這些領域包括醫療和法律行業,在這些行業中,根據有關特定主題的全部數字化文獻資料快速、清晰地編寫報告或文件的前景非常誘人。教育領域也受到了影響,其傳統模式正在被檢測機器生成的作品這一挑戰以及人工智能時代究竟什么才是合法研究這一更具哲學意義的問題所顛覆。盡管如此,在這些領域中的每一個領域,理論上都可以在很大程度上將曾經由人類完成的基本任務外包給機器,盡管需要保持謹慎的警惕。這樣做已經產生了令人印象深刻、有時甚至發人深省的成果,比如一篇關于 ChatGPT 對檢測剽竊行為的影響的學術論文,該論文已提交給同行評審的學術期刊,并被其接受,但這篇論文是用 ChatGPT “寫 ”出來的。不過,如果從各行各業廣泛采用 LLM 的軼事證據來看,人類分析師的日子還遠未到頭。在不久的將來,應將 LLMs 視為情報分析員的額外工具,是提高效率和效力的輔助工具。他們是 “副駕駛員”,可以評估論點、進行數據分析或校對,而不是潛在的替代者。就目前而言,在這些領域中的任何一個領域,要想以其他方式開展工作,風險都太大了。情報工作也不例外:在全球競爭的環境中,整合這些工具的必要性只會越來越強,但過快或魯莽行事顯然存在風險。審慎的做法是,情報評估機構利用人工智能增強人類分析師的能力,為他們創造更多的時間和空間,讓他們運用不可或缺的隱性知識和 “現實感”--以賽亞-伯林(Isaiah Berlin)所說的感同身受的理解是歷史解釋的一個關鍵特征--來理解全局。

令人欣慰的是,谷歌Bard也同意這一點。當被問及它能為情報分析帶來哪些好處時,該程序回答說,它可以執行許多有用的任務。這些任務包括收集信息、分析信息、生成報告、交流研究結果、提出情報需求、管理情報資源和監督情報行動,以確保它們符合法律和道德標準。但是,當被要求確定使用 LLMs 進行戰略情報分析的風險時,它指出:"重要的是,要將機器的產出與情報分析結合起來: 重要的是要將機器輸出與人工分析和解釋以及對地緣政治環境的全面了解結合起來"。顯然,如果 “言聽計從”,該系統具有巨大的潛力。但在充分挖掘潛力之前,所有相關人員都需要考慮并解決幾個基本挑戰。

這些問題包括通常對 IT 網絡安全性和穩健性的擔憂,例如:確保集成軟件經過安全架構審查所面臨的挑戰、供應鏈風險的可能性、數據存儲的安全性、確保提交給任何系統的查詢都經過加密或不可能被敵方重建。其他值得注意的安全問題來自于大量的訓練數據、數十億個參數以及設計可行工具所需的訓練過程。目前,這項工作是在基于云的系統中進行的,因此除了常見的網絡安全問題外,還增加了數據主權問題。此外,為了最大限度地發揮其價值和效用,特別是在快速發展的情況下,LLM 需要經常或持續訪問互聯網。顯然,有必要將那些與開放互聯網保持聯系的系統與情報分析員處理更敏感材料和制作情報評估產品的封閉、保密網絡分開。

上述問題都不是不可克服的,但這些挑戰突出表明,必須有條不紊地解決這一問題,協調政府各相關機構利益攸關方,以成功實施這一至關重要的信息技術項目。這些挑戰也并不都集中在如何確保系統不被敵對勢力破壞上。還需要考慮監管問題。事實上,大衛-安德森(David Anderson)勛爵在上議院關于人工智能的辯論中指出,"在一個人人都在使用開源數據集來訓練大型語言模型的世界里,英國信息中心受到了《調查權力法》第 7 部分的獨特限制。這些限制'在某些重要情況下影響了英國信息中心的靈活性,影響了它與商業伙伴的合作,影響了它招聘和留住數據科學家的能力,并最終影響了它的效率'。

只要能找到令人滿意的解決方案,LLM 對分析師工作的許多方面都極為有用。其中包括較為傳統但費力的任務,如作為研究助理,就特定主題(如國際爭端的背景)提供近乎即時的不同長度和細節的摘要,或構建時間軸、撰寫簡介、總結或分析冗長的文本,或(假設版權和訂閱問題得到解決)將最新的學術著作納入其中。雖然第一批LLM是在英語語料庫中接受培訓的,但目前開發多語言模型的工作進展順利。當然,鑒于已發現生成式人工智能生成的回復在準確性和完整性方面存在問題,任何此類產品都必須經過主題專家的檢查,類似于跨白廳當前情報小組系統。這可能會提高穩健性和效率,并隨著時間的推移,促進機構學習和流程改革。

但潛力顯然不止于此。生成式人工智能還可以包括更先進、更重要的工作。例如,分析師可以使用 LLM 來審查和驗證他們的書面報告,從而增強現有的分析流程和產品審計程序。例如,可以要求提供任何對關鍵判斷提出質疑或證偽的數據;查詢長期以來生成的報告,以確定已成為傳統智慧的假設;或使用工具生成 “紅隊 ”評估。從理論上講,這種能力可以在幾個方面幫助分析人員識別或根除導致情報失敗的某些偏見因素,并確保報告盡可能是最新的。不難想象,這些工具的提供和適當使用將如何提高分析界的速度、影響范圍和批判性地反思其行為和業績的能力。

目前這一代 LLM 也可以撰寫報告或評估報告。將此類寫作任務的早期起草階段外包給一個工具,可為資源和時間貧乏的情報分析員創造經濟效益。毫無疑問,謹慎采用 LLM 是有道理的。但這項技術仍然有限,需要認真監測。這些局限性帶來了風險,這一點在 2023 年大眾廣泛嘗試使用 LLM 之后已經得到證明和充分記錄(在 META 推出 Threads 之前,沒有任何應用能像 ChatGPT 那樣迅速得到采用,該應用在推出后五天內用戶就達到了 100 萬)。對于情報分析師及其產品的接收者來說,其中許多挑戰都是非常棘手的。其中包括對這些工具所提供信息的準確性和可靠性的擔憂。這些系統非常善于生成似是而非的文本、聲明和結論。但這些可能在現實中沒有任何依據,甚至在建立 LLM 的訓練數據中也沒有任何依據。這種 “幻覺 ”已被廣泛觀察到;在學術工作中,經常出現的 “幻覺 ”是生成不存在的資料來源(例如,引用聽起來很有道理但實際上并不存在的網頁)來支持生成的主張。這究竟是 LLM 的一個特點還是一個缺陷,還存在爭議。無論如何,這都對采用 LLM 進行情報評估構成了重大挑戰。分析人員從這些工具中獲取材料并將其納入分析產品時,必須對基礎源數據進行系統檢查。因此,這項技術提出了一個悖論:一是節省時間,二是增加工作量。

與其他人工智能系統一樣,LLM 也會在其生成的任何內容中嵌入偏見。該系統的吸引力和潛力在于它有能力攝取和查詢大量資料--基本上是整個開放互聯網--但必然結果是,該系統也會攝取現有的偏見和廢話,這些偏見和廢話可能是關于特定主題的主流敘事,或者是關于特定主題的特定語言。同樣,毫無疑問,破壞性或惡意行為者會利用 LLM 快速、廉價地生成大量虛假信息并充斥網絡。毫無疑問,敵對行為者也會試圖毒害公共或專有 LLM。目前,大多數開放的生成式人工智能應用程序本質上都是黑盒子,這些系統不允許(或不會允許)用戶檢查它們得出特定判斷的過程。這是由于神經網絡依賴多層節點處理數據的本質所致。這種可觀察性的缺乏,再加上基于 LLM 的系統在可復制性方面的某種脆性--即它對準確提示措辭的依賴--帶來了風險和挑戰。事實上,鑒于在專業情報界對分析評估采用可審計程序的重要性,在這些工具被納入正常業務之前,這個問題構成了一個需要克服的重大障礙--或者說需要掌握的挑戰。正如在人工智能之前的時代一樣,結論必然需要由經驗豐富、訓練有素的人員進行檢查、驗證和整個過程的審計。

這些風險有可能被充分降低,使這些工具能夠相對迅速地融入分析流程。許多研究人員正在開發人工智能系統,以識別人工智能在各種情況下生成的內容,如學術論文或視頻文件。還有一些研究人員正在研究可審計的 LLM 系統;還有一些研究人員正在研究如何開發安全的系統,讓分析人員能夠在分類系統和開放的互聯網上進行搜索。但是,即使這些問題可以得到緩解,還有另一個根本性的問題,即這些系統是否只能是衍生系統,因為它們基本上完全建立在基于已有材料的計算模型之上。它們所提供的洞察力能否與任何接近 “想象力 ”的東西相匹配,還是說它們目前的貢獻仍將局限于語法和風格的練習,偶爾會出現幻覺?或者,換一種說法,他們可能會對某個問題進行極其(或表面上)合理的討論,但鑒于這些討論是根據一個統計模型得出的,該模型關注的是某個特定的詞或概念或 “標記 ”與另一個詞或概念或 “標記 ”相聯系的可能性,并以訓練材料為基礎,那么討論結果中是否會存在固有的保守主義或其他偏見?盡管如此,該領域的變化速度之快,即使預測其對情報評估的相對近期影響也充滿了不確定性,突出表明需要不斷審查該領域的發展。

雖然其他類型人工智能的貢獻已經得到證實,但對生成型人工智能的前景過于技術樂觀也會帶來風險。雖然這不是一個精確的類比,但美國情報界在 9/11 事件之前忽視人類情報(HUMINT)技能而青睞高科技的做法,應該為任何想把 LLM 的出現視為減少情報界人力的機會的人提供一個警示。選擇不當的捷徑會造成長期延誤。顯然,政府必須也必須與 LLM 打交道,必須不斷審查現有技術的效用,并愿意在這些系統得到驗證后擴大其使用范圍。但是,除了投資(擁有或使用)LLM,政府還應保留并加倍投資于人。在采用 LLM 的過程中,最大限度地提高效益和降低風險的一個關鍵因素將需要包括保持和發展對情報分析師的培訓,使他們能夠最好地利用這些強大的新工具。這可能包括專業途徑,培養一批善于將生成式人工智能融入分析實踐 “新常態 ”的官員,使他們能夠掌握現有系統,最大限度地發揮其效用,同時將其帶來的風險降至最低。但同時也應保持并優先培養主題和分析技術方面的專家,他們可以用經驗和智慧、隱性知識和人類特有的 “現實感 ”來補充生成式人工智能的巨大威力。在開展這項工作的同時,還應在政府內部(更不用說更廣泛的公眾)開展更廣泛的教育計劃,讓他們了解人工智能的用途和局限性。消費者,尤其是自詡為技術狂熱者和有遠見的 “深層國家 ”或 “小集團 ”的破壞者,應該仔細了解由于 LLM 的便利而繞過其分析機制的局限性和風險。世界不需要唐納德-拉姆斯菲爾德(Donald Rumsfeld)在伊拉克戰爭前的 “特別計劃辦公室”(ChatGPT)。就目前而言,將 LLM 衍生工具整合到分析流程中最合理的使用案例是,由經驗豐富、訓練有素的人類分析師作為 “副駕駛員”,嵌入到仍然樂于向消費者提供不受歡迎的消息的組織中。

付費5元查看完整內容

先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。

結構性風險的定義和概念化

技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。

圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。

結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。

為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。

權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。

這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。

付費5元查看完整內容

本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。

2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。

這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。

之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。

討論

2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。

人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。

雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。

在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。

要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。

在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。

人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。

付費5元查看完整內容

為了真實地再現軍事行動,嚴肅的戰斗模擬要求建模實體具有合理的戰術行為。因此,必須定義作戰戰術、條令、交戰規則和行動概念。事實證明,強化學習可以在相關實體的行為邊界內生成廣泛的戰術行動。在多智能體地面作戰場景中,本文展示了人工智能(AI)應用如何制定戰略并向附屬單元提供命令,同時相應地執行任務。我們提出了一種將人類知識和責任與人工智能系統相結合的方法。為了在共同層面上進行交流,人工智能以自然語言下達命令和行動。這樣,人類操作員就可以扮演 "人在回路中 "的角色,對人工智能的推理進行驗證和評估。本文展示了自然語言與強化學習過程的成功整合。

RELEGS:針對復雜作戰情況的強化學習

為了獲得模型架構的靈感,我們研究了 DeepMind 的 AlphaStar 架構,因為它被認為是復雜 RL 問題領域的最先進架構。通過我們的架構(如圖 2 所示),我們提出了一種靈活、可擴展的行動空間與深度神經網絡相結合的適應性新方法。觀察空間的設計基于如何準備戰場的軍事經驗。通常使用地圖和可用部隊表。因此,模擬觀測被分為標量數據(如可用坦克數量及其彈藥)。同時,基于地圖的輸入作為視覺輸入提供給空間編碼器。

標量數據用于向人工智能提供幾乎所有場景細節的建議。其中包括有關自身部隊及其平臺的數據,以及有關敵方部隊的部分信息。輸入并非以絕對數字給出,而是采用歸一化方法來提高訓練效果。編碼器可以很容易地寫成多層感知器(MLP);不過,使用多頭注意力網絡可以大大提高訓練后智能體的質量,因此應予以采用(Vaswani 等人,2017 年)。

為了理解地理地形、距離和海拔高度的含義,人工智能會被輸入一個帶有實體編碼的地圖視覺表示。顏色方案基于三通道圖像,這使我們能夠輕松地將數據可視化。雖然使用更多通道會給人類的圖形顯示帶來問題,但人工智能能夠理解更多通道。不同的字段類型和實體會用特殊的顏色進行編碼,以便始終能夠區分。這種所謂的空間編碼器由多個卷積層組成。最初,我們嘗試使用 ResNet-50 (He 和 Zhang,2016 年)和 MobileNetV3 (Howard 等,2019 年)等著名架構,甚至使用預先訓練的權重。然而,這并沒有帶來可接受的訓練性能。因此,我們用自己的架構縮小了卷積神經網絡(CNN)的規模。

為了測試和優化這一架構,我們使用了一個自動編碼器設置,并使用了模擬中的真實樣本。我們能夠將參數數量從大約 200 萬減少到大約 47000。此外,我們還生成了一個預訓練模型,該模型已與模擬的真實觀測數據相匹配。這一步極大地幫助我們加快了 RL 進程。

一個可選元素是添加語言輸入,為人工智能定義任務。雖然一般的戰略人工智能不使用這一元素,但計劃將其用于下屬智能體。這些智能體將以自然語言接收來自戰略人工智能的任務,并使用雙向門控遞歸單元(GRU)編碼器對其進行處理。

視覺數據、任務數據和標量數據的編碼值被合并并輸入核心網絡。根據 Hochreiter 和 Schmidhuber(1997 年)的介紹,核心主要是一個擁有 768 個單元的長短期記憶(LSTM)組件。在軍事場景中,指揮官必須了解高價值資產的長期戰略規劃。在本模擬中,人工智能可以請求戰斗支援要素,這些要素在影響戰場之前需要長達 15 分鐘的時間。因此,人工智能必須了解未來任務的時間安排和規劃。在 RL 中使用 LSTM 網絡相當困難,因為它需要大量的訓練時間,而且會導致上面各層的梯度消失。因此,我們決定在 LSTM 上添加一個跳過連接,以盡量減少新增層的負面影響。

動作頭由一個自然語言處理(NLP)模型組成。這是一個非常簡化的動作頭模型,包含一個小型 LSTM 和一個額外的密集層,共有約 340000 個參數。其結果是一個尺寸為 8 x 125 的多離散動作空間。

除主模型外,還有一個單獨的價值網絡部分。價值網絡使用核心 LSTM 的輸出,并將對手信息串聯起來傳遞給 MLP。然后,MLP 可以精確預測價值函數。通過對手信息,價值網絡對模擬有了一個上帝般的地面實況視圖。由于該網絡只與訓練相關,因此可以在不干擾訓練完整性的情況下進行。

付費5元查看完整內容

有效決策是組織成功的核心。在數字化轉型時代,企業越來越多地采用數據驅動的方法來獲得競爭優勢。根據現有文獻,人工智能(AI)代表了這一領域的重大進步,它能夠分析大量數據、識別模式、做出準確預測,并為組織提供決策支持。本研究旨在探討人工智能技術對組織決策不同層面的影響。通過將這些決策按照其屬性分為戰略決策和運營決策,本研究可以更全面地了解人工智能在組織決策中實施的可行性、當前采用率以及阻礙因素。

付費5元查看完整內容

深度偽造(DT)技術已經達到了全新的復雜程度。網絡犯罪分子現在有能力修改聲音、圖像和視頻,以誤導個人和企業,傳播虛假信息。這對國際組織和個人構成了日益嚴重的威脅,當務之急是采取措施加以應對。本文概述了深度偽造,討論了其對社會的作用以及 DT 的運作。本文重點探討了深度偽造對世界各國的經濟、政治和法律機構可能造成的危害。此外,本研究還將探討深度偽造問題的各種解決方案,并在最后討論進一步研究的潛在方向。

深度偽造技術(DT)的出現是人工智能(AI)發展的直接結果[1,2]。這些技術給世界各地的機構帶來了巨大風險。深度偽造是一個術語,指的是一種建立在人工智能基礎上的技術,這種技術有能力改變圖像、音頻和視頻內容,以表現實際并未發生的事件。例如,將政客的面孔編輯到其他人的身體上,然后讓他們說一些政客實際上從未說過的話,這種情況越來越常見。這種不斷擴大的現象已被用于政治場合,在各種議題上誤導公眾,而且只會繼續下去。以意大利一檔諷刺電視節目針對意大利現任總理馬泰奧-倫齊(Matteo Renzi)使用 deepfake 視頻為例。在社交媒體上流傳的這段視頻中,可以看到他在貶低其他立法者。隨著這段視頻在網上瘋傳,越來越多的人開始認為它是真實的,這引起了大眾的憤怒[3,4]。網絡犯罪分子還利用 "深度偽造 "冒充公司的首席執行官(CEO),誘騙員工(通常是財務部門的員工)向騙子控制的銀行賬戶轉賬"[5,6]。絕大多數深度偽造篡改都是為了在電影、電子游戲和教學視頻等娛樂媒體中使用[7,8]。另一方面,網絡犯罪分子已經找到了利用這種技術誤導組織和個人并實施欺詐的方法。此外,制作這種深度偽造品除了需要專業的計算機軟件和技術外,還需要知識[9,10]。然而,"FaceSwap "和 "Reface "等免費軟件的存在,使得不懂技術的人也可以出于娛樂或有害的目的參與媒體操縱[10-12]。

深度偽造技術可用于創建令人信服的合成媒體,使人們無法分辨其與真實媒體之間的區別。這是一個相對較新的研究領域,來自學術界和工業界的學者都貢獻了深度偽造數據庫以及合成和檢測算法,所有這些都促進了深度偽造的流行[13,14]。"深度偽造是人工智能(AI)應用的結果,它通過合并、組合、替換和疊加照片和視頻片段,生成看起來合法的虛假視頻"[15]。深度偽造利用了當前深度神經網絡的發展成果,制造出極為逼真的人工媒體[16]。當深度偽造技術應用于電影或靜態照片時,就有可能將一個人的臉替換成另一個人的臉,而幾乎不留下任何操縱的證據[17]。Cho 和 Jeong [18]認為,深度學習的發展使以前建立的假臉檢測系統變得易受攻擊。

"深度偽造數據集以及合成和檢測技術的可用性,使得社區甚至經驗不足的用戶都有可能構建逼真的深度偽造人臉。這反過來又導致深度偽造視頻在野外的受歡迎程度大幅上升"[19]。令人信服的深度偽造視頻可以迅速影響數百萬人,并對我們的社會產生有害影響[20]。社交媒體的傳播范圍和速度使這一切成為可能。

與深度偽造研究相關的學術資料數量的增加也是這種擴張的反映。除了與深度偽造的制作和檢測相關的技術方面,倫理、社會和法律方面的影響也得到了細致的探討。目前已經有一些針對特定領域的綜述,如深度贗品的制作和檢測[21]、法律[22]、取證[23]和社會影響[24]等等。盡管如此,它們都沒有考慮到深度偽造的整個研究領域,而我們認為,這對于打算從事這一研究的學者來說可能非常有價值[25]。盡管深度偽造研究還相對年輕,但它是一個正在迅速擴展的研究領域。在這一領域中,研究課題及其相互關系隨著時間的推移不斷變化,新的趨勢也在不斷涌現[26]。從目前正在進行的眾多子研究領域來看,研究深度偽造的研究人員來自各種不同的學術和專業背景。除了目前的趨勢之外,調查融資機會也很有意義,因為這有助于集中研究力量[27,28]。

付費5元查看完整內容

在技術飛速發展的時代,戰爭的面貌正在發生重大轉變。人工智能(AI)與軍事系統的結合正在徹底改變我們進行戰爭的方式。

本文將深入探討人工智能在戰爭中的迷人世界,重點關注認知戰爭的概念以及人工智能在塑造未來戰斗中的作用。

認知戰爭: 新領域

認知戰爭代表著軍事行動模式的轉變。它戰略性地利用人工智能和機器學習來影響對手的認知過程。

其目的是操縱決策過程,制造混亂,最終獲得戰略優勢。這種方法利用人工智能的力量來增強人的能力,因此越來越被認為是現代戰爭中的有力工具。

認知戰爭最顯著的實例之一是國防科技初創公司 Anduril 開發的 "幽靈 4 "無人機。這架無人機是人工智能融入軍事系統的見證。它配備了人工智能,可以在地面單個操作員的控制下執行各種偵察任務。它利用機器學習來分析圖像和識別目標,展示了人工智能在增強軍事能力方面的潛力。

盡管如此,重要的是要以平衡的視角來看待這一發展。雖然幽靈 4 無人機代表了軍事技術的重大進步,但它也提出了幾個問題。

在戰爭中使用人工智能,尤其是能夠做出決策的自主系統,會帶來新的復雜性和不可預測性。如果這些系統出現故障或被對手利用,就有可能產生意想不到的后果。

此外,在戰爭中使用人工智能所涉及的倫理問題也是一個一直爭論不休的話題。機器在戰場上做出生死攸關決定的前景是一個有爭議的問題。雖然人工智能通過接管危險任務有可能減少人員傷亡,但缺乏人類判斷力和責任感是一個主要問題。

最后,在認知戰爭中使用人工智能有可能使沖突升級。操縱對手決策過程的能力可能導致誤判和誤解,增加沖突風險。因此,制定明確的規則和條例來規范人工智能在戰爭中的使用以降低這些風險至關重要。

數字化、透明戰爭時代

2023 年標志著數字化、透明化戰爭的到來。烏克蘭戰爭就是這一新時代的明顯例證。由于衛星、數字痕跡和用戶在社交媒體上生成的內容提供了全面的透明度,全世界都看著俄羅斯在烏克蘭邊境集結兵力。在這個時代,再也不可能用陸海空三軍偷襲另一個國家了。這些兵力造成的死亡和破壞也無法掩蓋。這種透明度迫使兵力調整戰略,以更加分散的方式移動和機動。

精確武器的影響

精確武器的出現又一次改變了戰爭的游戲規則。這些武器可以用一枚成本效益高的導彈摧毀價值數百萬的平臺。這一現實正在改變軍隊、海軍和空軍的組織、裝備和作戰方式。

在烏克蘭沖突中,精確武器成功打擊了裝甲車輛和飛機,凸顯了其有效性。現在的挑戰是降低這些武器的成本和復雜性,各國正在緊急開展這項工作。

未來: 人工智能驅動的變革

人工智能與戰爭的結合必將推動國家對抗沖突的方式發生深刻變革。機器人技術、自主性、連通性、安全云中的數據以及人工智能的進步將導致武裝力量迅速發展為有人、無人和自主能力的團隊。

這一轉變的意義將不亞于 Airbnb 和 Uber 等數字平臺對各自行業的影響。然而,盡管發生了這種轉變,戰爭的本質將保持不變--意志的較量,理性、情感和機遇的混合

即將結束...

我們深入研究了人工智能與戰爭,發現自己正站在一個新時代的懸崖邊上。將人工智能融入軍事系統的確是一把雙刃劍。一方面,它有望徹底改變戰爭,增強軍事能力,并有可能減少人員傷亡。另一方面,它也提出了深刻的倫理道德問題,作為一個社會,我們必須努力解決這些問題。

例如,在認知戰爭中使用人工智能會帶來機器做出生死攸關決定的幽靈。我們能把如此關鍵的決策交給算法嗎?在自主系統主導的領域,我們如何確保問責制?

這些問題不僅是技術問題,更是深刻的哲學問題,涉及我們的價值觀和原則。

此外,人工智能在戰爭中的潛在濫用也是一個重大問題。如果落入壞人之手,這些技術可能會被用來加劇沖突、操縱輿論或侵犯人權。

我們如何防止這種濫用?

我們如何在利用人工智能的好處和防范其潛在風險之間取得平衡?

關鍵是要以謹慎和負責的態度對待它。我們必須促進有關這些問題的公開對話,鼓勵不同的觀點和嚴謹的辯論。

只有通過這樣的討論,我們才有希望以負責任和合乎道德的方式在戰爭中利用人工智能的力量。

付費5元查看完整內容

電子戰(EW)操作人員在日益密集和敏捷的威脅環境中執行單平臺和分布式平臺的傳感和干擾任務時,面臨著眾多的挑戰。在交戰時限內,往往必須根據現有的部分信息迅速采取行動。最近,世界觀察到了人工智能的蓬勃發展,這是一套數據驅動的橫向技術,已經顛覆了自主性和大數據是關鍵因素的多個領域。盡管它不是所有EW任務的解決方案,但人工智能顯示出有希望提供潛在的解決方案,通過超出人類操作員能力的知情決策來提高EW效率和有效性。約翰霍普金斯大學應用物理實驗室(APL)精確打擊任務區已經投資于發射器識別和自主資源分配等具體EW任務的研究和開發。本文介紹了這些項目的有希望的結果,并描述了在這些領域建議的未來工作,以及可能從人工智能研究中受益的其他EW應用。

1 引言

電子戰(EW)作戰威脅空間是一個在有爭議的頻譜環境中運行的多個射頻(RF)傳感和發射平臺之間的非合作性互動。這個作戰空間給執行任務的操作人員帶來了許多挑戰,如感知電磁(EM)頻譜、有效管理頻譜資源、在多個EW平臺之間共享關鍵信息,同時干擾威脅發射器。這些挑戰促使人們需要能力越來越強的射頻系統,以機器的速度處理大量的信息并采取行動,通常幾乎不需要人工干預。下一代軟軟件定義的射頻威脅發射器,使用越來越復雜的敏捷波形,推動了未來電子支持(ES)和電子攻擊(EA)活動方式的轉變。干擾平臺的整體有效性受制于其有效探測、描述、干擾和通信威脅波形的能力,同時智能地管理戰斗空間內的可用射頻資源。

在過去幾年中,人工智能領域受到了極大的關注,在物體識別、自然語言處理和自動語音識別等領域取得了多項重大突破。機器學習(ML)技術在其他問題領域的成功應用,引起了EW贊助商、運營商和研究人員的興趣,他們希望確定ML方法如何解決EW的差距。本文重點介紹了通過APL的精確打擊任務區(PSMA)獨立研究和開發(IRAD)項目取得的幾個有希望的成果,這些項目專門針對發射器識別和自主資源分配的EW任務。它還包括其他建議的研究課題,以使自動化EW方法成熟,并可過渡到未來的軍事平臺。此外,本文還強調了幾個特定領域的挑戰,并提出了未來的研究課題,在這一重點領域中,使用ML技術可能會顯示出前景。

1.1 背景

圖1展示了一種場景,它試圖通過使用協作式EW來實現信息主導并對對手產生壓倒性的EW效應。開發ML應用以提高單平臺背景下的EW效率和有效性,是實現協作、自主和適應性EW能力的一個重要基石。在這篇文章中,我們主要描述了從兩個IRAD項目中獲得的結果和知識,這些項目將ML應用于傳感和發射器識別,以研究自動調制識別(AMR)和自主資源分配。這項基礎性工作證明了這些方法的優點,并建立了一條通往多平臺、協作式EW能力的發展道路。本文介紹的方法和結果與平臺無關,盡管迄今為止考慮的主要平臺是機載的,但可能也有引人注目的地面或海基應用。

圖1. 在APL的PSMA中,有兩個感興趣的協作EW主題。美國將建立頻譜優勢,并通過使用協作式EW來對對手提供壓倒性的EW效果。為了實現這一目標,必須克服兩個挑戰:分布式傳感,ML AMR將識別感興趣的特定信號(左);以及分布式資源管理,傳感和干擾資源將在戰斗空間中自動管理(右)。

2 機器學習適用于EW技術和操作的挑戰

圖1大致說明了戰術EW操作中的兩個具有挑戰性的主題領域,ML提供了有希望的解決方案。本節簡要介紹了與分布式傳感和分布式資源管理相關的挑戰。

2.1 敏捷威脅發射器的交戰

敵方傳感器和通信系統的敏捷性給EW系統帶來了挑戰,它們能迅速適應并在整個電磁頻譜上運行。傳統的EW系統必須首先確定一個威脅雷達,以確定適當的預編程EA技術。隨著雷達從固定的模擬系統發展到具有未知行為和敏捷波形的可編程數字變體,這種方法的有效性就會下降。未來的雷達可能會帶來更大的挑戰,因為它們將能夠感知環境,同時適應傳輸和信號處理,以最大限度地提高性能和減輕干擾影響。同樣,通信系統能夠適應頻率、調制和編碼以及協議,以便在各種退化的信道條件下運行,目標是最大限度地提高數據吞吐量,同時最大限度地減少幀錯誤和比特錯誤率。此外,由于硬件、軟件和自適應信號處理的進步,現代傳感器系統以更敏捷和更不確定的方式工作的能力得到了大幅提升。打擊這些潛在的威脅需要靈活的EW交戰方案,根據當前觀察到的運行參數和威脅的模式,在特定的快照下調整EA技術。通常情況下,這種交戰需要在威脅發射者的時間刻度上以機器的速度調整反措施--換句話說,比人類操作員的速度快得多(以毫秒或微秒為單位,而不是秒)。美國國防部高級研究計劃局(DARPA)的兩個項目專注于這一問題空間:自適應電子戰的行為學習(BLADE)項目已經成功地將ML技術應用于敏捷的通信信號,而自適應雷達對抗措施(ARC)項目已經成功地將ML應用于威脅雷達信號。鑒于該領域的基礎性工作已經建立,本文不進一步討論ML對威脅發射器的應用。

2.2 寬帶傳感

EW系統的關鍵挑戰之一是實時提供精確的電磁頻譜態勢感知,以描述所觀察到的信號的行為,并確定什么是友好、威脅和中立。敵方的傳感和通信系統正在擴大其對電磁波譜的使用,要求ES傳感器同時觀察多個千兆赫茲的頻譜。傳統的ES系統在同時監測大面積的電磁頻譜方面能力有限,通常會求助于掃描一組窄帶頻道。在信號收集之后,大量的信號捕獲數據必須在戰術時間尺度上進行處理,以便在這些測量變得陳舊之前確定發射體的特征并告知EA的反應。如果考慮到遇到多個高密度射頻發射器在不同的射頻功率水平下工作,觀察到部分信號,以及在高度的機載和非機載射頻干擾的情況下進行感應,這些挑戰就進一步加劇了。

除了在基于傳感器的應用中很有價值外(如模擬處理),ML方法也有可能在緩解ES數據處理瓶頸中發揮作用。只有當這種傳感與能夠應對相應的大信息速率的信號處理器結合在一起時,才能實現寬帶傳感的好處。即使計算昂貴的操作與完整的輸入流解耦,如果檢測沒有被有效過濾,密集的信號環境仍然會使下游資源超載。ML技術可以在處理鏈的早期丟棄低優先級的檢測,減少整個系統的負荷,為處理關鍵任務的檢測節省計算資源。換句話說,ML可以通過在處理鏈的早期和較少的步驟中捕捉關鍵模式來發揮作用。這一優勢適用于本文介紹的AMR工作的一個特定的下一步應用。AMR工作僅側重于調制識別,為潛在的富有成效的ML調查參數留下了機會,如通過帶寬、中心頻率、脈沖重復間隔、到達角或這些參數的組合來確定信號特征。

2.3 資源管理

必須根據具體任務和威脅環境平衡使用EW平臺的傳感和干擾資源,以有效地打擊射頻通信和雷達目標。一個EW任務可能包括與一系列的威脅交戰,從需要有限的傳感支持的已知的、不太敏捷的威脅到需要精確的傳感和交戰時間表來跟蹤和擊敗的復雜的、適應性強的威脅。來自單一平臺的傳統EW傳感和干擾資源是按時間尺度管理和安排的,可以在任務前分配或在任務中由操作人員調整。然而,必須被感知和打擊的可適應的對手目標的數量正在增加,超出了傳統的人在環形方法的可行性。在威脅發射器的時間尺度上保持有效性需要自主優化方法,以機器速度平衡和分配EW資源。未來的分布式、協作式EW任務包括多個平臺一起工作,并適應實現特定的EW任務目標,這將需要分布式資源管理。

如果我們從貝葉斯的角度出發,這個看似難以解決的問題可以得到簡化。在每個時間點上,操作者必須考慮對手正在做什么的多種競爭性假設。然后,操作者必須從一組可能的假設中考慮什么是最佳行動方案。這些假設可以被列舉出來,并根據收集到的累積證據為每個假設分配代表強度的實際數值。貝葉斯概率理論允許我們將證據單位表示為實數,可用于加強或摒棄競爭性假設。這種方法使我們能夠自動權衡不同假設的合理性,并根據證據最支持的假設做出決定。我們相信,ML有可能為EW任務前計劃的資源管理和EW行動中的近實時決策提供重大的能力提升。

3 基于AMR的發射器識別

發射器識別過程允許ES和監視接收器區分來自威脅和友好或中立的發射。因此,ES系統必須處理一套廣泛的接收波形,從商業波段常用的波形到軍事特定的雷達和通信信號。ES系統依靠脈沖處理器,使用固定的描述符來檢測、過濾,并從接收到的射頻調制脈沖中提取發射器信息。調制格式是ES系統在勘察頻譜時用于描述有源發射器的一種描述符。

EW系統必須完成的許多挑戰性任務之一是有效地確定檢測到的信號的調制格式。這個話題更廣泛地被稱為AMR。傳統的脈沖處理器將調制格式視為一個單一的特征,可與其他用于識別活動發射體的波形特征相配合。許多脈沖處理器會將脈沖描述符群與板載庫進行匹配,以識別正在觀察的發射器。成功應用這種傳統的匹配方法的前提是,信號先前已經被觀察過,其特征也是已知的。

AMR的第二個挑戰是在遇到新觀察到的調制類型或發射器模式時識別和解釋它們。事實證明,新的發射物對于依賴預定義的已知發射物特征庫的系統來說是一種挑戰。在軟件定義的威脅成為現實之前,捕捉和描述新的發射物的過程一直是一個歷史上可解決的問題。然而,現代適應性威脅促使人們需要能夠以機器的速度快速識別和描述新的檢測的傳感技術。圖2說明了AMR在一個名義上的戰術EW場景中的應用。

圖2. 將AMR應用于一個名義上的戰術EW場景。這里顯示的是如何利用在線AMR來描述各種威脅的一個例子。左上圖表示原始探測的時間-頻率分布。左下圖表示確定的雷達脈沖組合,其中每個不同的顏色用于代表具有特定特征的脈沖。

3.1 用于AMR的特征學習背后的動機

雖然有幾種深度學習方法已經應用于AMR,但在2018和2019財年,基于特征的電子攻擊訓練超表面反應(FEATHR)IRAD項目探討了AMR背景下的深度特征表示模型。這項工作強調了這些模型比其他類型的深度神經網絡(DNN)模型直接訓練分類的幾個明顯優勢。

將深度學習應用于AMR的大部分現有工作都集中在使用神經網絡模型從一組固定的標記實例中學習分類調制分配的方法。各種研究表明,這種方法是執行AMR的一種可行方式。然而,僅僅為了分類的目的而訓練一個模型,本質上是將模型的預測限定在訓練數據中的標記類集上。這種限制導致了訓練后的模型無法超越訓練期間的標簽集進行泛化。擴展神經網絡分類器的類集需要一個漫長的過程,即收集新的例子,給例子貼上標簽,然后用擴展的類集重新訓練模型。

當用分類目標訓練DNN時,一個模型通常會使用全連接輸出層,加上一個歸一化指數,以產生一個跨越正在學習的類集的信心分數。因此,學到的任何特征都不會被直接觀察到,因為它們是網絡架構的內部。然而,如果學習目標是直接學習特征,情況就不一定是這樣了。在這個問題的背景下,特征可以被認為是數據中的獨特模式,是特定信號調制的特征。這就把我們帶到了一組被稱為特征學習的技術上。雖然與特征提取類似,但特征學習并不假定直接獲得特征的預定義規則或變換;相反,所需的特征是通過客觀任務的訓練而學習的。

為了解決在一組預定義的標簽之外識別和分類開放的調制集的需要,我們研究了一種特征學習的方法來執行AMR,其中首先學習區分調制類型差異的特征,而不是調制類型本身。該模型的目標是學習一種轉換,將實例映射到多維特征空間中的一個位置。

3.2 三重損失

第一篇關于三重損失的論文顯示了如何對個體進行分類。由于同一個體會因各種因素(如燈光、服裝、視角)而看起來不同,研究人員意識到需要一種方法來對許多個體進行非線性條件下的分類。通過使用神經網絡定義一個高維輸出空間的軸,他們發現個體可以在這個空間中被聚在一起。術語 "嵌入 "經常被用來描述在這個輸出空間中對應于一個位置的N維向量。

使用三重損失(一種特征學習方法)訓練的模型產生了一種轉換,允許數據被映射到一個學習的特征空間。在這個空間中,根據訓練過程中提出的調制類之間的學習關系,對實例進行匯總。這使我們能夠隨后分析這些特征,對已知的調制進行分類,并對新觀察到的不在我們現有標簽集中的例子進行分類。我們實施了一個兩步法,首先使用用三重損失訓練的殘余DNN模型學習特征表示轉換。一旦模型被訓練出來,我們就以調制分類和異常調制識別為學習目標,探索兩種方法來描述這個特征表示。

三重損失是一個有監督的訓練目標,旨在與連體網絡一起使用。連體網絡可以被認為是單個人工神經網絡模型的多個鏡像實例,其中每個實例在整個訓練過程中以相同的方式初始化和聯合更新。每個輸出被視為輸入實例在一個共同的N維歐幾里得空間(也稱為嵌入空間)中的映射。對于使用三連體損失的訓練配置,創建了一個有三個實例的連體網絡模型,如圖3所示。

圖3. 使用連體網絡訓練配置的三重損失配置的例子。連體網絡可以被認為是單個人工神經網絡模型的多個鏡像實例,在整個訓練過程中,每個實例都以相同的方式被初始化和聯合更新。每個輸出被視為輸入實例在一個共同的N維歐幾里得空間(也稱為嵌入空間)中的位置的映射。

3.3 使用學習到的特征進行異常檢測

一旦學會了一組調制特征,它們就可以被用于執行分類或異常檢測等任務。圖5顯示了一個對每個調制類型的學習特征擬合多變量高斯模型的過程。異常情況是通過為每個高斯模型固定一個對數似然閾值來確定的。這個閾值作為關聯新例子的決策邊界。沒有關聯的例子也會被捕獲并歸類為異常。這由圖5中的底部分支表示。圖6顯示了在訓練好的特征空間內映射的波形的三維投影。

如果我們考慮一種以上的異常檢測類型,就需要一個無監督的聚類步驟來識別被分類為異常的檢測中各種可能的異常類型。

圖5. 異常類識別過程的流程圖。這個過程將一個多變量高斯模型適合于每個調制類型的學習特征。通過為每個高斯模型固定一個對數似然閾值來確定異常情況。這個閾值作為關聯新例子的決策邊界。沒有關聯的例子也被捕獲并歸類為異常,由底部分支表示。

圖6. 映射在訓練過的特征空間內的波形的3-D投影。左圖:映射到訓練過的特征空間的波形投影,每種顏色代表一種不同的調制方式。這個空間中的位置對應于所學特征的不同組合。具有相似/匹配的學習特征集的波形被放在彼此附近,形成一個集群。右圖:只包含與訓練階段產生的任何調制集群無關的點的投影。運行OPTICS后,綠色的點被識別為噪聲,而藍色和紅色的點被賦予新的 "未識別的調制 "標簽。

3.4 射頻調制數據集

在下面描述的實驗中,我們使用了由DeepSig發布的開源RadioML2018數據集。該數據集由24種合成的通信調制類型的大約250萬個例子組成。每個例子都表示為1,024個長度的同相和正交(IQ)矢量,使用浮點進行時間采樣。這些數據包括在收集的數據中經常觀察到的多種環境失真。例子上標有調制標簽以及跨度為-20到30dB的離散信噪比。這些數據中的調制集合以兩種方式使用:作為監督訓練的例子和類別,以及作為無監督異常檢測的保留。監督訓練使用IQ向量與其適當的調制標簽配對,而保留的調制則不給調制標簽。我們首先使用22種調制類型的子集學習特征表示,并展示了一種無監督的方法,使用兩個調制類別--頻率調制(FM)和16正交振幅調制(16QAM)--作為保留類別來識別新類別。

3.5 有監督的培訓課程

我們將數據集分為兩類:(1)由22個已知類別組成的監督類,細分為80%的訓練區和20%的評估區;(2)有兩個保留類的類別(FM和16QAM在訓練中被扣留)。我們的DNN模型是在22個已知的調制上訓練的(即不包括這兩個保留類)。按照上述程序,我們將多變量高斯分布適合于訓練分區的每個調制特征嵌入。所有已知調制的聯合分布被用來定義一個閾值距離。這個閾值被用作一個多維高斯邊界,用于將新的樣本與現有的一個類別相關聯,或者用于標記未識別的樣本。落在這個定義的多維邊界內的樣本(在公式3中用θ表示)與現有的調制類別之一相關。否則,樣本將被賦予未識別的標簽。請注意,這一步并不假設任何關于未識別點的先驗信息;相反,它只是將離群或異常的例子排除在已知調制類別的分類之外。

我們現在的目標是在我們的異常例子中識別出我們的保留調控的新群組。要做到這一點,我們針對上一步確定的異常例子集運行OPTICS,為落在有足夠密度的區域的例子創建標簽。

圖7中的混淆矩陣顯示了這個過程對信噪比為10dB的例子的準確性。真正的保留類(FM和16QAM)被顯示為灰色的列。這里我們顯示了新的群組1和新的群組2,作為識別的類別,顯示了與保留類中的例子集的強烈相關性。未識別的類別包含落在我們的分布閾值之外的例子,被OPTICS歸類為噪聲樣本。新群組3是由其他調制類中被錯誤分類的未識別樣本的密集區域產生的錯誤檢測。

3.6 下一步工作

我們認為特征學習是一種可推廣的方法,用于建立豐富的射頻調制特征表示,使新觀察到的射頻信號的識別和分類。在射頻領域的許多邊緣應用中,一旦部署了神經網絡模型,對其進行再訓練往往是不現實的。使用一致的學習過的特征表示與較簡單的分類模型相結合,可以動態識別射頻調制,而不需要重新訓練單一模型的高處理要求。用一個簡單的分類模型對特征表示進行后處理所需的計算能力遠遠低于重新訓練所需的計算能力。此外,可以采用無監督技術來搜索新的波形,使用現有的學習過的特征表征,這些特征表征在區分其他調制方面顯示出重要性。我們有興趣擴大這項工作的幾個要素。

首先,我們預計有幾個因素可以提高這項技術的性能。三聯體損失的原始實現是用比我們在這項工作中使用的更大的類數來訓練的。更高的類數允許網絡學習更豐富的特征表示,以捕捉樣本之間更精細的差異。在我們的實驗中,我們使用了一個由24種獨特的調制類型組成的數據集。然而,我們預計用更多的獨特調制進行訓練將通過增加訓練期間使用的三聯體的種類來提高性能。

其次,在考慮信號類型的廣度時,要注意不同類型的特征在區分信號類型時是很重要的。例如,區分16QAM調制和正交相移鍵控的特征集將不同于區分線性頻率調制脈沖和非線性頻率調制脈沖的特征集。正因為如此,考慮信號之間相互關系的分層模式是有意義的。其他正在進行的APL工作已經證明了在用DNN執行AMR時使用層次結構的成功。一個潛在的后續研究工作可能是探索如何將特征學習與信號的層次結構相結合,以提高對廣泛的信號類型的分類性能。一個潛在的解決方案可能涉及到在每個決策點使用單獨的學習特征集構建一個非二元分類樹。這種方法可以允許使用更小/更簡單的模型,因為每個特征集將不再需要捕獲全部的信號類型。

第三,這種方法假設實例被捕獲為檢測,表示為在時間和頻率上隔離的IQ向量。探索其他各種波形表示可能是有用的,如復雜的時間-頻率數據或稀疏的檢測樣本。此外,將學習到的特定調制特征與其他背景數據(如方向、波的偏振或地理位置)結合起來,對于形成具有高置信度的特定發射器身份是必要的。最后,圖7中產生的錯誤檢測的來源和特征是一個需要進一步調查的領域。

圖7. 混淆矩陣說明了在信噪比為10dB的情況下,AMR過程的準確性。真正的保留類(FM和16QAM)顯示在灰色的列中。新群組1和新群組2是已識別的類別,顯示出與保持類中的例子集有很強的相關性。未識別的類別包含分布閾值之外的例子,被OPTICS歸類為噪聲樣本。新群組3是由其他調制類的錯誤分類的未識別樣本的密集區域產生的錯誤檢測。

4 資源自主分配

如前所述,發射器特征的自動解決方案提供了一個有用的手段,將觀察到的射頻數據映射到特定的觀察到的對手威脅發射器中。然而,這本身并不足以提供一個強大的EW響應。上一節介紹的AMR結果通常假定有孤立的探測和完整的信號捕獲,以告知AMR決策過程。EW平臺通常遇到的真實情況要復雜得多。通常,一個EW平臺必須干擾更多的可能的威脅發射器,其頻率超過了它能同時覆蓋的頻率,而且占空比不允許對威脅環境進行充分的接收采樣。因此,必須對EW系統可用的有限資源進行適當的分配,使威脅發射器的準確快照及其相應的行為與干擾反應相平衡。我們把如何最好地分配我們可用的EW資產的問題稱為資源分配問題,并在圖8中以作戰背景加以說明。

盡管在實踐中我們可能希望分配許多資產以優化系統性能,但在這里我們考慮的是具有兩種不同行動類型的資源分配問題:感知和干擾。感知是指檢測和識別環境中存在的波形類型的行動;干擾是指干擾對手的波形的行動。一般來說,目標是最大限度地提高干擾者的開機時間,最小化有用的傳感時間(即干擾者關機時間)。這兩個問題是相互關聯的,因為對環境的感知可以指導干擾者技術的調整和集中,以提高整體的干擾效果,但要犧牲干擾者的關閉時間。

在2020和2021財年,PSMA資助了智能學習電子攻擊大師(IL'EA Maestro)IRAD項目,以開發一種解決資源分配問題的方法。IL'EA Maestro的長期愿景是使未來部署可擴展的、分布式的、多平臺的方法來實現自主資源分配。盡管人們可以使用無數潛在的方法來設計這樣一個系統,但IL'EA Maestro團隊已經確定使用基于模型的隨機優化加上近似貝葉斯推理是一個特別有前途的方法。與標準的現成強化學習算法相比,這種方法允許系統設計者將重要的領域知識(對手能力的已知限制、基于事先感知對手威脅的觀察行為等)納入智能體的設計。而對于標準的強化學習算法,如果在模擬器上有足夠的訓練時間,我們希望智能體能夠自己確定對手的弱點,而在系統中建立這樣的知識,可以減少學習負擔。凈效應是系統性能的提高,因為需要更少的數據來學習對手的有用模型,因此需要更少的整體感應時間。在本節的其余部分,我們描述了資源分配問題并探討了IL'EA Maestro項目的早期結果。

圖8. 在戰術EW環境下自主資源分配的說明。僅為說明起見,ES任務被顯示出來,形狀代表紅色威脅發射器的發射。如果ES任務是在沒有智能的情況下安排的,傳感間隔不能優化對脈沖的傳感(左上圖),顯示為錯過許多脈沖的虛線框。如果任務被智能地安排,它們可能會更有效地執行(左下圖),其中ES間隔被動態地安排以捕獲更多的脈沖。

4.1 資源分配問題

解決自主資源分配的一種方法是通過貝葉斯概率理論(見,例如,Koller和Friedman)。我們首先根據先驗信息初始化一套廣泛的可能的對抗行為,例如,預期的對抗頻率范圍和時間模式。然后,我們分配資源,在不同的時間段從頻譜的不同部分收集信號,以建立一套證據,可以支持一個特定的戰略,或不遵循的信念。在每次嘗試采集信號(即掃描)后,我們更新我們關于哪些行為是可能的信念,以反映添加到我們知識庫中的新證據。

為了更好地構建本節的發展,現在讓我們正式描述所考慮的資源分配問題的一個一般實例。我們考慮對感興趣的射頻頻譜子集進行劃分。我們認為分區的每個元素都是一個特定的頻率通道,其中總共有c個通道。我們將時間軸劃分為離散的元素,每個元素的持續時間為Δt。如果我們用C表示通道的集合,用T表示所考慮的時間集合,我們就會發現,所考慮的感興趣的信號在C×T的乘積空間上作為時間的函數演化。圖9顯示了一個潛在的發射器在離散的時間和頻率空間中表示,其中C={1,2,...,9},T={1,2,...,20},著色的網格空間表示從脈沖波形內單獨接收的突發。請注意,紅色信號的頻率是敏捷的-它在第四和第五個脈沖之間從通道4跳到通道7。

我們用S表示環境中感興趣的信號集。我們假設在遇到每個脈沖時,有能力將每個收到的脈沖識別為特定的感興趣的信號。重要的是,我們不假設關于信號的模式行為(例如,脈沖長度、跳頻序列、占空比)的全部先驗信息。我們假設:(1)每個信號可以出現的通道集是連續的(即,它出現在一個設定的最小和一個設定的最大頻率之間);(2)感興趣的信號是周期性的;(3)信號不是相互干擾的(即,兩個信號不能同時占據同一個頻率通道)。嚴格地說,這些假設簡化了我們當前原型所需的分析。放寬這些假設以適應更大的可能信號集是可能的,盡管這樣做的代價是需要更多的數據來學習有用的信號特征。哪一組假設在實踐中是最好的,將根據情況決定。

我們考慮一種情況,即考慮中的平臺同時具有感知和干擾能力。我們假設每個能夠執行傳感或干擾行動的收發器只能在連續的信道范圍內這樣做,如果有多個收發器,它們可以獨立分配,但要明白如果不適當地協調,它們會造成自我干擾。

圖9. 一個潛在的發射器在一個離散的時間和頻率空間中表示。著色的網格空間代表了從脈沖波形中單獨接收的突發信號。紅色的信號從通道4跳到通道7。

4.2 貝葉斯智能體

貝葉斯智能體是開發必須以有意義的方式與世界互動的智能學習系統的基本方法。它可以被認為是設計強化學習智能體的一種非傳統的、抽象的方式,它對世界的本質和如何推理世界有強烈的假設。這種假設可以而且應該與人類主題專家一起設計。這些假設包括:(1)智能體認為世界的可能性的假設集;(2)關于這些可能性的相對可能性的先驗信念分布;(3)結合從環境觀察中獲得的數據來更新關于智能體的基本假設的信念的方法;(4)評估未來行動的潛在序列的相對價值的方法;以及(5)選擇一個特定行動以應用于環境的方法。我們可以將第1-5項分解為一組行為塊,如圖10所示。

我們可以把第1-3項視為構成智能體的學習者(圖中的對象A),第4項構成智能體的評估者(圖10中的對象B),第5項構成智能體的執行者(圖中的對象C)。圖10中的對象C)。我們看到,智能體通過執行器和學習者與現實世界(環境;圖中的對象D)對接,前者對環境采取了行動,后者則從環境中吸收了觀察結果。

這種方法的一個優點是,對學習者、評估者和執行者的適當選擇可以顯著提高智能體學習與環境有效互動的速度。值得注意的是,假設的特定選擇可以限制智能體的通用性,即假設所允許的可行控制策略集可能嚴格小于所有可行控制策略集。如果我們這樣選擇,我們可以設計學習者、評估者和執行者來模仿標準的通用強化學習算法,如Q-learning、深度Q-learning、策略梯度,等等。然而,通過以特定的目的構建它們,我們可以用比使用現成的方法更少的訓練時間達到良好的性能。因此,智能體的設計者自己可以控制失去多少通用性的問題。

在討論為這里考慮的資源分配任務開發貝葉斯智能體所涉及的任何特定技術細節之前,讓我們首先討論一些抽象的原則,這些原則是設計一個有利于高水平操作的貝葉斯智能體所需要的:近似貝葉斯信念傳播、信念驅動的行動評估和行動選擇。

4.3 對現狀的評價

現在我們可以詳細說明我們的解決方案的現狀,所做的一些基本設計決定,以及它目前的性能。對一組假設的選擇是非常直接的:給定關于環境中存在多少信號及其相應時期的預先假設,可以產生一個有限的可能信號集。這就是我們的假說集。

隨著數據從環境中收集,它們被用來更新智能體關于假設的信念。隨著使用掃描資源從環境中收集證據,與某些假設相關的概率將增加,表明它們更可能是真的。在我們的解決方案中,我們對世界做了某些公理上的假設,我們試圖以現實主義為基礎。這樣做的目的是為了將假設集的范圍限制在只有操作上合理的情況。

更新信仰分布的方法比較抽象。如果智能體在特定的時間t進行了掃描,并且在時間t觀察到了特定的信號q,那么智能體就會排除任何說明信號q在時間t不存在的假設。這個過程會積累更多的信息,直到最后只剩下對環境來說是真的特定假設。同樣地,每當在一個特定的通道上觀察到一個信號時,我們就會更新智能體的信念。這樣的觀察可以用來支持關于哪些信號出現在特定通道上的任何假設。至少,這使智能體相信,在不久的將來,該信號更有可能留在特定的通道上。然而,一些觀察可以更顯著地改變智能體的信念--例如,通過告知智能體,一個特定的信號可以存在于一個迄今為止沒有觀察到的頻道上。評估智能體行動的價值的方法也同樣涉及。

抽象地講,資源分配智能體的目標是了解環境中正在發生什么,以及如何最好地干擾對手的行動。為此,在智能體的當前信念狀態的基礎上設計了一個隨機優化問題。如果智能體對環境在某一特定時刻將如何行動比較確定,那么目標就會高度優先考慮干擾對手的信號。如果智能體對目前或不久的將來要發生的事情沒有強烈的信念,則優先考慮以掃描的形式收集信息。如果規定得好,這樣的優化問題會誘發一種行為,迅速發現、描述和干擾高價值的對抗性信號。同時,它逐漸了解到低價值信號的行為,以及如何在不犧牲高價值信號性能的情況下最好地阻止它們。

為了進一步研究這個問題,讓我們看一個資源分配問題的例子和我們目前的方法在這方面的表現。我們考慮一個有24個頻率通道和8個不同對手發射器的環境。每個信號的周期長度、脈沖長度和脈沖間長度是隨機產生的。信號被隨機地分散在頻率-時間空間中,只要(1)發射者能在所需的頻率上操作,(2)該頻率是可用的(即沒有被其他對抗性發射者使用),信號就可以跳到不同的頻率。信號被分配的效用值為正整數,范圍從1到4(隨機選擇)。每當有信號被干擾時,智能體就會產生效用,獲得的金額就是信號的價值。

圖11總結了三種資源分配算法的統計性能:(1)在收集足夠的發射器模式數據后,干擾對抗性發射器以累積最佳預期獎勵的策略(藍色),(2)在各通道中均勻隨機干擾(橙色),以及(3)假設完全了解發射器模式的干擾性能(灰色)。請注意,每一種算法都是根據其干擾適當信號的能力來評分的,而存在的信號有無數的評分權重。信號被分配的權重大致與它們被認為的重要性成正比,因此更高的分數與更頻繁地干擾重要的對手能力(即那些與更高效用值相關的能力)相關。

圖11. 資源管理策略之間的干擾性能比較。在收集了足夠的發射器模式數據后,干擾對抗性發射器以累積最佳預期獎勵的策略顯示為藍色,跨信道的均勻隨機干擾顯示為橙色,假設對發射器模式完全了解的干擾性能顯示為灰色。相應顏色的虛線給出了模擬的抽樣平均性能。

共進行了一千次抽樣運行。圖11給出了每種策略的得分直方圖,其中相應顏色的虛線給出了模擬的采樣平均性能。均勻隨機干擾在三種策略中表現最差,智能資源分配方法表現次之,完美干擾策略表現最好。請注意,完美策略在實踐中是不可能實現的,因為它是非因果的,需要關于未來的完美信息,而實施的智能體在運行時無法獲得這些信息。

然而,我們感興趣的可能不僅僅是智能體的原始干擾能力。因此,我們在圖12中比較了智能資源智能體與統一搜索策略的學習性能。這里,藍色直方圖(及其相關的平均值)描述了智能體在每個歷時(即時間離散間隔)采取行動以盡可能減少其對操作環境的不確定性的性能,而橙色直方圖(及其相關的平均值)描述了在每個歷時均勻隨機掃描的智能體的性能。智能體學習對抗性信號的頻率范圍和時間模式的速度比處理通過在所有時間均勻隨機掃描獲得的信息的智能體要快。

4.4 下一步

在這個階段,值得注意的是,在解決資源分配問題方面,已經開發的內容與運營系統所需的內容之間存在明顯差距。最容易注意到的是,在目前的問題陳述中,至少有一些(如果不是全部)簡化的假設需要被改變,以適應現實世界的系統。盡管這樣的工作正在進行,并且具有技術上的意義,但它超出了本文的范圍。

目前的智能體只考慮控制一個收發器。在實踐中,每個平臺可能會配備幾個不同的傳感器和發射器。盡管在考慮這種概括時,智能體的具體實施細節將不可避免地發生變化,但基本架構將保持不變。變化將限于評價器。

目前我們為資源管理問題開發的解決方案是一個智能體,旨在根據關于其對手波形的貝葉斯假設采取行動。隨著智能體對其環境知識的積累,它可以更新其信念分布,導致更好的可能干擾行動。該智能體與傳統的強化學習智能體不同,因為它強烈地結合了主題專家知識,并利用基于模型的隨機優化方法來采取行動。基于模型的隨機優化方法允許設計者在智能體上設置特定的約束和界限,以防止它采取從設計者角度看是沒有結果的行動。我們的結果表明,這種方法顯示了在單智能體環境中使用的前景。

我們相信,隨著更多的研究,這種方法可以擴展到由協作性EW平臺組成的多智能體環境。主要關注的是分布式平臺的通信和處理延遲。由于波形以光速傳播,在EW平臺的戰斗群中優化這種方法仍然是一個挑戰。目前,我們只明確考慮了單個收發器的控制,但我們希望基本的方法可以擴展到多個收發器的情況,而不需要進行嚴格的算法重新設計。

圖12. 資源管理策略之間的學習性能比較。藍色直方圖(及其相關的平均值)描述了一個智能體在每個歷時中采取行動以盡可能減少其對操作環境的不確定性的性能,而橙色直方圖(及其相關的平均值)描述了一個智能體在每個歷時中均勻地隨機掃描的性能。

5 將ML應用于EW的挑戰

盡管應用ML的潛在好處是令人信服的,但要在戰術EW平臺內實現設想中的具有ML功能的自主行為,還存在許多障礙。ML技術可以作為一個強大的工具,用于開發能夠做出強大的、數據驅動的預測的模型。然而,當開發一個能夠進行數據驅動推斷的模型時,首先要有一個代表手頭問題的數據源,這一點至關重要。必須有一個能充分捕捉感興趣的射頻環境的訓練數據集來訓練ML算法。讓我們考慮兩種類型的射頻數據源,以及它們在構建適合在EW中實現ML應用的射頻數據集方面的作用。

5.1 射頻采集

產生射頻數據集的一個明顯的方法是直接從相關環境中記錄感興趣的信號。這可能是一個挑戰,取決于要解決的問題的背景。軟件定義的無線電已經使捕捉大量的信號變得更加容易。然而,要從收集的信號中捕捉到形成強大數據集所需的信號類型的廣度仍然是一個挑戰。此外,信號收集總是包含對特定環境和接收設備的偏見。如果想要一個干凈的信號集,現實世界中的數據雜質,如信道衰減、多徑和干擾,可能會成為問題。在其他條件下,收集的數據在驗證模型的環境因素方面可以產生優勢,而這些因素可能不健全。在使用現有的采集數據方面的另一個挑戰是,大多數數據不包含監督學習工作所需的足夠注釋。這通常意味著在使用采集的數據之前,需要額外的數據混合/手動標注。

5.2 射頻模擬

產生射頻數據的另一種方法是模擬。這種方法的一個明顯的優點是,任何特征化的信號都可以通過參數的變化來產生,而這些參數的變化超出了可行的收集。然而,生成的射頻數據將只與模擬框架中的效果和損傷一樣真實。此外,在模擬過程中,幾乎不需要額外的努力來捕獲任何所需的元數據。這意味著用于訓練有監督的ML算法的標記數據通常可以更容易地添加到模擬數據集中。相反,考慮到適當的射頻效應會使合成足夠真實的信號數據成為一種挑戰。必須對觀測效應進行建模的保真度在很大程度上取決于數據將被應用的問題。還需要一個嚴格的驗證方法,如用標記的射頻集合進行交叉驗證,以確保所使用的合成數據能適當地代表它們所模擬的真實射頻信號。

5.3 其他考慮因素

一旦克服了上述與ML訓練數據相關的挑戰,在將ML應用于EW問題之前還應該考慮其他的挑戰。首先,許多可能用于未來整合ML算法的戰術主機平臺可能受到尺寸、重量和功率的限制。額外的尺寸、重量和功率通常會減少任務時間或功能。這意味著在具有豐富的圖形處理單元資源的企業服務器設施中應用典型的ML算法訓練方法在戰術平臺上是不可行的。同樣,連接平臺和這些設施的高帶寬數據鏈接可能無法支持ML應用。此外,需要有可靠的離線訓練與有限的再訓練和/或在線學習的方法,以便將ML引入戰術EW平臺。EW界長期以來一直依靠硬件在環和范圍內的測試和評估來確定EW技術的有效性。需要改進測試和評估基礎設施,以描述ML算法的非確定性行為,并在開發、贊助者和操作者群體中建立信任和信心。

6 結論

PSMA IRAD對發射器識別和資源管理的投資為未來智能和自主EW平臺奠定了基礎。對AMR和自主資源分配的研究結果已經產生了有希望的結果,展示了平臺使用數據驅動技術和快速有效地解決敏捷威脅的能力。盡管這些基礎性的努力證明了ML解決方案在解決EW差距方面的可行性,但我們建議進行大量的后續研究工作,以使這些解決方案成熟。

一個這樣的未來研究方向涉及將問題背景從特定的調制或信號類型擴展到特定的發射器ID。這帶來了幾個必須首先解決的挑戰。確定發射器特定ID的問題可能會推動對其他背景信息的需求,以便有效地處理。其他相關的非射頻因素,如地理位置、日/月/年的時間,或其他特定任務的先驗因素,可能會影響到如何解釋捕獲的射頻發射,從而確定優先次序。

盡管測試/開發框架能夠反映真實世界的情景(如DARPA的頻譜合作挑戰所使用的環境模型),但需要與這些高保真頻譜環境模型整合,以開發和測試下一次迭代的ML-enabled RF系統。PSMA在這方面的其他幾項努力尋求加速未來協作EW系統的開發和演示。正在進行的小規模寬帶、低延遲環境(SaBLE)工作的重點是開發一個硬件在環射頻環境仿真基礎設施。協作和自適應系統EW模擬工作提出了一個事件驅動的模擬框架,設計了模塊化的平臺互動模型來模擬復雜的交戰。通過動態地改變保真度水平,模擬解決了在信號層面上對協作性EW交戰進行建模時遇到的時間分辨率挑戰。

最終,任何實地的、自動化的EW缺口解決方案都將以操作者可以理解的方式與人類操作者協同行動,并向指揮鏈的其他成員解釋。設計一個界面,允許手動調整不同信號的優先級,以及手動調整用于觀察和干擾的努力的平衡,在技術層面上是很簡單的。它可以通過允許用戶手動輸入不同的目標函數到智能體的在線優化中來完成。然而,創建這樣一個操作者可以認知管理的界面是具有挑戰性的。解決這項任務的路徑有很多;然而,所有這些都需要大量的設計工作和與相關專家(如人類因素工程師、候選操作員)的協商。

最后,將自動化解決方案納入EW任務需要一定程度的任務規劃。自主資源分配的貝葉斯機構方法也可以擴展到任務規劃中,以實現EW平臺和EW技術的最佳安置和使用。將自主資源分配部分描述的工作應用于任務規劃,需要考慮到目標、環境和對手的準確模型。通常情況下,所關注的情景是基于在有爭議的環境中的競爭性對手目標,從而使防御者獲得優勢。一個任務規劃應用程序應該在制定假設時納入操作者的先前信息。如果這樣做是正確的,算法所考慮的假設將與任務目標更加相關。然而,操作者也需要將不確定性納入先驗信息,這將導致非零概率跨越一組假設,這些假設是可能的,但根據操作者的知識認為不太可信。

在這篇文章中,我們描述了APL的兩個活躍的研究領域,它們正在將ML技術應用于EW領域的特定挑戰。我們進一步概述了EW的差距和建議的研究課題,我們預計ML將在未來的EM作戰環境中發揮作用。這些技術的成功采用將可能推動未來EW系統的開發、測試和維護方式的改變。

付費5元查看完整內容

近年來,機器學習的巨大進步已經開始對科學技術的許多領域產生重大影響。在本篇透視文章中,我們探討了量子技術是如何從這場革命中受益的。我們通過說明性的例子展示了科學家們在過去幾年是如何開始使用機器學習和更廣泛的人工智能方法來分析量子測量,估計量子設備的參數,發現新的量子實驗設置、協議和反饋策略,并普遍改善量子計算、量子通信和量子模擬的各個方面。我們強調了開放的挑戰和未來的可能性,并以對未來十年的一些推測性愿景作為結束。

圖1. 機器學習和人工智能可以幫助更好地解決的量子技術領域的任務概述。

機器學習在量子技術中的應用

  • 測量數據分析和量子態表示

圖3. 通過神經網絡進行狀態估計。(a) 對一個量子態的許多相同副本的測量可以被處理以產生一個量子態的估計。(b)對單個量子系統的連續弱測量可以用來更新估計的狀態。在(a)和(b)中,一個單一的網絡被訓練來正確估計任意的狀態。(c) 我們也可以訓練一個基于網絡的生成模型來重現一個量子狀態的統計數據,即從概率分布中取樣。訓練需要許多可以測量的相同的副本,因此可以學習統計學。這里一個網絡只代表一個量子態。它可以被擴展到處理任意基數的測量。

  • 參數估計:學習量子系統的性質

圖4. 機器學習用于量子設備的參數估計。(a) 一個典型的場景,測量結果的統計取決于一些可調整的測量設置和未知參數,這里表示為馬赫-澤恩德設置中的相移。(b) 一個自適應的測量策略可以用一棵樹來說明,每一層的分支都對應著不同的測量結果。根據這些結果,需要選擇一個特定的下一個測量設置(表示為 "αj")。尋找最佳策略是一項具有挑戰性的任務,因為它相當于搜索所有這樣的樹的空間。 (c) 神經生成模型可用于隨機抽查與先前測量結果兼容的未來可能的測量結果(這里是二維電流-電壓圖,如[68])。這對于選擇最佳的下一個測量位置是有幫助的。潛伏空間中不同的隨機位置會產生不同的樣本。(d) 五個可能的基本參數值的測量結果與測量設置(不同的曲線;測量不確定性通過厚度表示)。我們的目標是使信息增益最大化,即選擇最能確定參數的設置(這不等同于使結果的不確定性最大化)。

  • 發現硬件級量子控制的策略

圖5. (a) 無模型強化學習的最終目標是直接應用于實驗,然后可以將其作為一個黑盒。然而,許多實際的實現是使用無模型的RL技術應用于基于模型的模擬。(b) 基于模型的強化學習直接利用了模型的可用性,例如,通過可微調的動力學取梯度。

  • 發現量子實驗、協議和電路

圖6. 量子實驗的發現。量子光學實驗可以用彩色的圖來表示。使用最一般的、完整的圖作為起始表示,人工智能的目標是提取解決方案的概念核心,然后可以被人類科學家理解。然后,該解決方案可以轉化為眾多不同的實驗配置[113]。

圖7. 用離散門發現量子電路和反饋策略。(a) 強化學習智能體通過選擇門來作用于多量子比特系統,可能以測量結果為條件,找到一個優化的量子電路或量子反饋策略。(b) 一個固定布局的量子電路,其參數可以通過梯度上升進行優化,以實現一些目標,如狀態準備或變異基態搜索(可能包括反饋)。

  • 量子糾錯

圖8. 量子糾錯。綜合癥在表面代碼中解釋為神經網絡可以被訓練來執行的任務。

付費5元查看完整內容
北京阿比特科技有限公司