亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本博士論文詳細分析了提高網絡防御態勢感知所需的決策要素,特別強調了網絡安全運營中心(SOC)分析人員的感知和理解。提出了基于數據流網絡流取證(NF3)的兩種不同架構。第一種架構使用集合機器學習技術,第二種則是算法復雜度更高的機器學習變體(λ-NF3),可提供更強大的防御框架來抵御對抗性攻擊。這兩項建議都旨在有效地自動檢測惡意軟件并進行后續的事件管理,在接近所謂的下一代認知計算 SOC(NGC2SOC)方面取得了令人滿意的結果。為保護組織的計算機網絡而進行的事件監督和監測必須輔以可視化技術。在這種情況下,本論文基于任務導向的指標和程序,使用基于模糊邏輯的專家系統,對三維圖片進行了表述。確切地說,在實施網絡防御解決方案時,考慮到一個組織的使命、資源和任務的相關性,以做出更明智的決策,最新技術證明存在嚴重缺陷。這項研究工作最終為改進網絡防御決策提供了兩個關鍵領域:一個是用于評估解決方案參數的可靠、完整的驗證和確認框架,另一個是根據網絡殺傷鏈和 MITRE ATT & CK 標準開發的合成數據集,該數據集可統一參考網絡攻擊的各個階段。

圖1所示。研究活動的周界及其演變順時針方向。

論文目標

本博士論文的研究目標如下: 1.了解和分析網絡防御態勢感知及其研究挑戰; 2.開展研究活動,將計算和數據處理與網絡決策系統的操作方面(業務需求)聯系起來; 3.找出不足之處,闡明未來的研究方向;

上述目標促成了以下研究任務:

  • 通過對文獻和研究進展進行深入分析,了解態勢感知的基礎,包括其在網絡空間中的應用;
  • 研究針對網絡空間安全的國際倡議;
  • 研究和分析人的因素和人的系統整合(HSI)概念;
  • 研究網絡防御可視化工具;
  • 制定衡量標準,并將模糊邏輯應用于任務規劃和執行的近似推理機制;
  • 開展機器學習(ML)算法研究;
  • 研究機器學習(ML)算法的適用性,將支持識別 SOC 中網絡威脅的流程自動化;
  • 研究如何通過建模和模擬創建合成數據集;
  • 設計用于驗證和核實 CySA 及其相應定義的全面技術,以指導實驗;
  • 研究智能網絡防御代理,將其作為未來研究的一個突出領域;
付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)和機器學習(ML)為整個技術生態系統提供了新的能力。作為新技術的基礎,最終軟件產品的安全性在很大程度上取決于底層供應鏈的安全性,包括其軟件依賴性。本研究通過對精選的人工智能庫樣本的依賴關系進行漏洞映射,對人工智能/機器學習供應鏈的一部分進行了研究。我們在樣本庫的依賴樹中尋找依賴深度與相應庫供應鏈中發現的漏洞數量之間的關系。我們考慮了多種開發工具和庫及其軟件依賴關系,所有這些都是開源軟件。了解開發供應鏈中存在的潛在風險、漏洞和依賴關系將為進一步安全開發 AI/ML 產品和確保其供應鏈的安全提供參考。

付費5元查看完整內容

本報告研究了如何利用人工智能(AI)解決方案,結合傳感器數據和更高級的企業級機器學習(ML)算法,改進戰術決策,提供先進的目標定位解決方案,并為艱苦環境中的步行作戰人員推薦行動方案(COA)。該團隊采用系統工程分析方法,為戰術邊緣的人工智能輔助決策系統提出要求并進行概念設計。團隊將這一未來能力命名為 "地面感知作戰決策(GAWD)系統"。設想中的 GAWD 能力將提供一個功能強大的人工智能/ML 骨干架構,用于在邊緣傳輸戰術相關數據,供士兵實時處理和分析,以確定目標和選擇路線。此外,該能力還能監測士兵的健康狀況,并將信息提供給指揮部。未來的 GAWD 系統概念將利用人工智能、ML、增強現實 (AR)、虛擬現實 (VR) 和機身處理來分析數據,從而在終端用戶設備 (EUD) 或平視顯示器 (HUD) 上觸發實時通知和建議行動方案 (COA),以幫助下裝作戰人員及時做出作戰決策。研究小組進行了場景分析,探討了在三種不同的地面部署士兵場景中使用 GAWD 系統的問題。研究小組研究了在軍事行動中引入 GAWD 系統的道德影響。

圖 14. 用于瞄準的地面感知作戰決策邊緣計算系統架構圖。

雖然具有未來性,但將人工智能(AI)和機器學習(ML)作為下馬兵棋推演的輔助工具,是美國在戰場內外保持優勢的下一步。美國國防部(DOD)和聯合軍種正在探索將人工智能/機器學習用于各種應用,以支持作戰人員執行任務。本畢業設計項目研究了如何使用人工智能/ML 來實現未來的兵棋推演決策輔助功能,以支持下裝士兵執行任務。頂點團隊(Linchpin 小組)采用系統分析方法,研究人工智能和機器學習的當前和預期能力,了解下裝士兵的需求和任務,并利用人工智能和機器學習開發決策輔助系統的概念設計。

頂點團隊設想實施一種前沿、全面的人工智能/ML 機器兵棋推演決策輔助系統,稱為地面感知作戰決策(GAWD)系統。該系統是一個數據套件,搭配最先進的軟件(SW),可確保步兵單元在艱苦環境中的戰術決策能力,有助于挽救生命。利用人工智能、機器學習和先進的數據分析技術,這一創新工具可以提供一個適應性強、可擴展的系統,可以滿足各種單元規模的需求,并能與現有的軍事技術和網絡無縫集成。

這種實時和不斷發展的系統有可能使下馬士兵能夠清晰、全面地了解作戰環境,包括對手陣地的位置、地形特征以及使用各種傳感器和數據集提供戰場最新信息的友軍。此外,這種兵棋推演輔助工具將通過利用機器學習和歷史數據,為士兵及其指揮部提供態勢感知(SA)。這些信息將能夠快速分析各種場景,預測敵人的潛在動向,并根據當前形勢和單元目標提出最佳行動方案(COA),從而做出關鍵的戰術決策。

Linchpin 集團為下馬士兵設計的概念性人工智能/機器學習 GAWD 系統代表了步兵戰的突破性進展。通過利用人工智能/機器學習的力量,這一尖端工具將為下馬士兵提供無與倫比的戰略部署、決策支持和協調能力。根據設想,這一工具還將作為一個訓練平臺,使士兵能夠參與虛擬兵棋推演和模擬場景。該系統可記錄個人和單元在訓練演習和真實場景中的表現,從而為行動后評估(AAR)和持續改進單兵和整個陸軍提供有價值的見解。

該小組進行了一項情景分析,以探討士兵在地面任務中如何使用 GAWD 系統。團隊確定了三種相關場景,這些場景將通過添加人工智能支持的 GAWD 系統得到增強。這三種情況是 (1) 目標交戰,(2) 路線選擇,以及 (3) 士兵健康和狀態監控。研究小組探討了每種場景,然后比較了三種場景下未來 GAWD 能力所需的功能。

人工智能/機器學習作為一種力量倍增器,有可能顯著提高下裝單元的戰斗力和生存能力,確保現代戰場上的軍事優勢。它的部署將徹底改變下裝作戰,并為軍隊的卓越戰術設定新的標準。

付費5元查看完整內容

本博士論文研究對抗性攻擊下多智能體強化學習(MARL)和多智能體深度強化學習(MADRL)系統的控制問題。論文對各種攻擊進行了研究,并提出了幾種防御算法(緩解方法),以幫助實現共識控制和適當的數據傳輸。

研究了無領導者、同質 MARL 系統的共識問題,使用了有惡意智能體和無惡意智能體的行為批判算法。考慮了各種基于距離的即時獎勵函數,以提高系統的性能。除了提出基于歐幾里得距離、n-norm 距離和切比雪夫距離的四種不同即時獎勵函數外,還根據每個智能體和整個智能體團隊的累積獎勵,嚴格論證了哪種獎勵函數性能更好。理論證明了這些說法,而模擬則證實了理論結論。

研究了修改惡意智能體的神經網絡(NN)結構,以及提供均方誤差(MSE)損失函數和 sigmoid 激活函數的兼容組合能否減輕惡意智能體對無領導、同質、MARL 系統性能的破壞性影響。除了理論支持,仿真也證實了理論結論。

利用深度 Q 網絡(DQN)算法研究了基于梯度的對抗攻擊,這些攻擊針對的是基于集群、具有延遲數據傳輸的異構 MADRL 系統。我們引入了兩種新的觀測方法,分別稱為 "準時觀測 "和 "延時觀測"。通過考慮相鄰智能體之間的距離,我們提出了一種新穎的即時獎勵函數,將基于距離的獎勵附加到之前利用的獎勵上,以提高 MADRL 系統的性能。我們考慮了三種基于梯度的攻擊,以研究擬議系統數據傳輸的魯棒性。我們還提出了兩種防御方法,以減少所討論的惡意攻擊的影響。我們用仿真實例對理論結果進行了說明和驗證。

還研究了基于集群的異構 MADRL 系統的智能體之間在基于梯度的惡意攻擊下的數據傳輸魯棒性。我們提出了一種使用 DQN 方法和比例反饋控制器來防御快速梯度符號法(FGSM)攻擊并提高 DQN 智能體性能的算法。仿真結果用于驗證所提出的結果。

圖 4.1: 有 N 個智能體的多智能體評價器架構。綠色箭頭表示在相鄰智能體之間傳輸正確數據。

貢獻點

本論文的貢獻可歸納為以下幾個方面:

  • 引入了一種基于集群的 MAS 結構,包括 N 個智能體和 P 個集群。我們提出了基于集群的 MAS 的平均位置共識,其中包括具有獨特目的的集群,即所有群組的所有智能體的目標都是就相同的位置狀態達成全局一致。隨后,我們提供了基于集群的 MAS 的平均位置共識,其中包括具有不同目標的集群。在這方面,每個群組的智能體的目標都是就某個位置狀態達成局部協議;但是,所討論的協議與其他群組的解決方法不同。我們將所有計算和模擬實例從二維空間擴展到三維空間。

  • 研究了一個無領導、同質 MARL 系統在使用分散式智能體批判法達成共識時的行為,包括有惡意智能體和無惡意智能體。我們根據不同的距離度量定義并提出了各種即時獎勵函數。這些即時獎勵函數可用于計算每個智能體和 MARL 系統的累積獎勵。這項工作研究的是,即使有惡意智能體的破壞作用,改變即時獎勵是否也能提高系統的整體性能。假設與現有的距離指標相比,其中一個距離指標(如曼哈頓、歐幾里得、n-norm 或切比雪夫距離)在當前位置和期望位置之間提供了一個較小的值。因此,從所討論的距離度量中提取的即時獎勵會為每個智能體和整個 MARL 系統產生更高的回報累積獎勵。因此,衡量 MARL 系統行為的標準是基于各種即時獎勵函數。

首先,我們研究了 [132] 提出的基于曼哈頓距離的即時獎勵函數。因此,我們提出了基于歐氏距離、n-norm 距離和切比雪夫距離的即時獎勵函數。此外,我們還提供了一種算法來組合各種即時獎勵函數,并根據每一集的最大返回值來使用它們,以提高 MARL 系統內有惡意智能體和無惡意智能體時的智能體累積獎勵。然后,我們證明了歐氏即時獎勵函數優于曼哈頓即時獎勵函數。我們證明了切比雪夫即時獎勵函數優于歐氏即時獎勵函數。此外,我們還證明了組合即時獎勵函數優于其他即時獎勵函數。

  • 在惡意智能體的 NN 結構中提供了均方誤差(MSE)損失函數和 sigmoid 激活函數的兼容組合,以降低 MARL 系統中被討論的敵對智能體的累積獎勵并增加累積損失。在這種情況下,惡意智能體對 MARL 系統性能的有害影響得到了緩解,MARL 系統達成位置共識的效率得到了提高。我們證明了 MSE 損失函數與線性激活函數的結合比 MSE 損失函數與 sigmoid 激活函數的結合更優越,能獲得更高的累積獎勵和更低的累積損失。

  • 研究了基于集群的異構 MADRL 系統中智能體之間在對抗性攻擊下的延時數據傳輸問題。除了無領導者 MAS 外,我們還提出了領導者-追隨者 MAS,即每個集群中預先指定的領導者與其他集群的領導者以及本集群的智能體進行通信。我們考慮了數據傳輸中的兩種新型觀測,即準時觀測和延時觀測,并研究了它們對 DQN 損失和團隊獎勵的影響。我們提出了一種新穎的即時獎勵函數,該函數考慮了包長度、包頭大小和相鄰智能體之間的距離,從而在延時數據傳輸期間的近似累計團隊折扣獎勵方面改善了 MAS 性能。我們考慮了 FGSM、FGM 和 BIM 對手(基于梯度的攻擊)來攻擊 DQN 算法。然后,我們研究了這些攻擊對 MAS 性能和延時數據傳輸的影響。我們引入了兩種防御算法來抵御所實施的對抗性攻擊。在所提出的防御方法中,DQN 智能體的 DNN 會從產生最大擾動值的狀態中學習,并利用其負反饋在對抗性攻擊中提高系統性能。

  • 為 DQN 算法設計了一個比例控制器,以抵御 FGSM 對抗性攻擊的破壞性影響。我們考慮了準時和延時數據傳輸,研究了一種防御算法,包括 DQN 方法和反饋控制系統。因此,我們提出了一種以 DQN 算法作為反饋控制系統過程的算法,以抵御 FGSM 網絡攻擊。我們證明了在 DQN 學習過程中使用比例控制器在實現 MADRL 系統更高的平均近似累積團隊折扣獎勵方面的優越性。

付費5元查看完整內容

受赭石藻啟發的微電子機械系統(MEMS)傳感器可按一定配置排列,以探測入射聲波的到達方向(DoA)。先前的研究結果表明,可以確定方位角 360 度范圍內的明確到達方向。迄今為止,一直使用實驗室儀器進行模擬讀數。本研究的目標是開發、構建和測試一種電路配置,包括 MEMS 傳感器的外殼和電源,以及設計一種圖形用戶界面(GUI),以便從傳感器陣列中讀取 DoA,并利用 GPS 定位數據對多旋翼小型無人機的位置進行三角測量。測試場使用兩個節點的配置來探測小型旋翼無人機。操作場景顯示在地圖上。這種新配置可以探測到來自任何可探測來源的聲音,并提供聲音來源的坐標。

付費5元查看完整內容

本論文提出開發一種彈性機器學習算法,可對海軍圖像進行分類,以便在廣闊的沿海地區開展監視、搜索和探測行動。然而,現實世界的數據集可能會受到標簽噪聲的影響,標簽噪聲可能是通過隨機的不準確性或蓄意的對抗性攻擊引入的,這兩種情況都會對機器學習模型的準確性產生負面影響。我們的創新方法采用 洛克菲勒風險最小化(RRM)來對抗標簽噪聲污染。與依賴廣泛清理數據集的現有方法不同,我們的兩步流程包括調整神經網絡權重和操縱數據點標稱概率,以有效隔離潛在的數據損壞。這項技術減少了對細致數據清理的依賴,從而提高了數據處理的效率和時間效益。為了驗證所提模型的有效性和可靠性,我們在海軍環境數據集上應用了多種參數配置的 RRM,并評估了其與傳統方法相比的分類準確性。通過利用所提出的模型,我們旨在增強艦船探測模型的魯棒性,為改進自動海上監視系統的新型可靠工具鋪平道路。

藍色亞馬遜管理系統

機器學習(ML)發展迅速,使機器能夠根據數據分析做出決策。計算機視覺(CV)是這一領域的一個專業部門,它使用先進的算法來解釋視覺信息,通過創造創新機會來改變汽車、醫療、安全和軍事等行業。在軍事領域,這些工具已被證明在改進決策、態勢感知、監視能力、支持行動以及促進在復雜環境中有效使用自主系統等方面大有裨益。

我們的研究主要集中在將 CV 原理應用于海軍領域,特別是解決二元分類問題,以顯示船只的存在與否。這構成了更廣泛的監視工具的重要組成部分,并采用了一種名為 "Rockafellian 風險最小化"(RRM)[1] 的新策略。RRM 方法旨在應對海上監控等復雜多變環境中固有的數據集標簽損壞所帶來的挑戰。我們方法的核心是交替方向啟發式(ADH),這是一種雙管齊下的策略,可依次優化不同的變量集。這種兩步迭代的過程可調整神經網絡權重并操縱數據點概率,從而有效隔離潛在的數據損壞。其結果是建立了一個更強大、更準確的海上監視和探測系統,從而增強了海軍行動中的決策和態勢感知能力。

我們的評估使用了兩個不同的數據集,即空中客車船舶探測(AIRBUS)[2] 和海事衛星圖像(MASATI)[3]。為了測試我們方法的魯棒性,我們逐步提高了這些數據集的標簽損壞水平,并觀察了這對模型性能的影響。

我們的研究在 ADH 流程中采用了兩種策略:w-優化和 u-優化。在 w 優化階段,我們試用了兩種不同的神經網絡(NN)優化器 Adam [4] 和 Stochastic Gradient Descent (SGD) [5, Section 3G],以調整神經網絡權重。u優化階段包括實施 ADH-LP(線性規劃)或 ADH-SUB(子梯度)算法,以修改每個數據點的概率,并有效隔離潛在的數據損壞。

ADH-LP 利用線性規劃進行計算優化,可提供全局最優解,但需要更多處理時間。另一方面,ADH-SUB 采用更快的子梯度方法,更適合較大的數據集或有限的計算資源。主要目的不是通過架構調整來提高性能,而是展示 RRM 方法如何提供優于傳統 ERM 方法的優勢,特別是在處理數據損壞和提高模型性能方面。

無論使用何種數據集(MASATI 或 AIRBUS),我們的研究采用 RRM 方法訓練 NN 始終優于或匹配 ERM 方法。RRM下的ADHLP和ADH-SUB算法在保持高性能水平的同時,對數據損壞表現出了顯著的適應能力,其中ADH-LP一直表現優異。總之,我們的研究結果表明,RRM 是一種穩健而有彈性的方法,可用于處理一定程度的數據損壞。

總之,我們利用 RRM 的創新方法為減少對標簽正確數據的依賴提供了一種有前途的解決方案,從而能夠開發出更強大的船舶檢測模型。這項研究在改進船舶自動檢測和整體海事安全方面邁出了一大步。通過有效處理數據損壞和測試創新方法,我們提高了海事監控系統有效監控沿海和劃界海域的能力。

付費5元查看完整內容

對手的聲學傳感器會給試圖在不被發現的情況下行動的美國海軍潛艇帶來問題。解決這一威脅的潛在方法之一是使用主動噪聲消除來掩蓋潛艇噪聲。本論文通過數值求解偏微分方程約束優化問題,計算信號在模擬的二維海洋環境中傳播時,給定源信號的掩蔽信號,從而研究這一想法的可行性。我們研究了信號源的位置和類型對消除強度的影響。特別是,我們表明,只要知道聲源的位置和聲譜,就有可能有效地消除特定區域內聲源發出的聲音,例如聲學傳感器附近的區域。

付費5元查看完整內容

本論文旨在利用深度學習技術提高從二維目標圖像中估計目標姿態的能力。為此,我們采用了一種名為高分辨率網絡(High-Resolution Net)的尖端卷積神經網絡來訓練關鍵點檢測模型并評估其性能。實驗使用了兩個不同的數據集,包括 600,000 張合成圖像和 77,077 張高能激光束控制研究試驗臺(HBCRT)圖像。這些圖像來自六種不同的無人駕駛飛行器,用于訓練和評估目的,高分辨率網在 80% 的圖像上進行訓練,在其余 20% 的圖像上進行測試。運行高分辨率網絡時使用了 MMPose 框架,這是一個 Python 庫,其中包含多種卷積神經網絡選項。研究結果表明,High-Resolution Net 在姿勢估計方面表現良好,但由于目標形狀的對稱性,在左右反轉方面仍存在明顯差距。這項研究為今后利用高分辨率網絡進行目標姿態估計研究奠定了基礎。進一步的研究將集中式提高圖書館中左右分辨的準確性,以增強這些成果。

本論文分為五章。第一章是引言,介紹了本課題的概況及其相關性,以及如何進行實驗。第二章是文獻綜述,通過相關的學術和行業資料更詳細地介紹了這一研究領域。第三章是問題的提出和方法,介紹了將要解決的問題和解決問題的方法。第四章是模擬結果和深度學習性能評估,對結果進行評估,看是否取得了有意義的進展。第五章是結論,從更廣闊的視角看待結果,并討論未來工作的可能性。

付費5元查看完整內容

深度強化學習(DRL)已經在單智能體學習中得到了廣泛的研究,但在多智能體領域還需要進一步發展和理解。作為最復雜的集群問題之一,競爭性學習評估了多智能體團隊合作實現某些目標的性能,同時超越了其他候選方案。這樣的動態復雜性使得即使是小眾的DRL方法也難以解決多智能體問題。在一個競爭性的框架內,我們研究了最先進的演員評論家算法和Q算法,并從性能和收斂性方面深入分析了它們的改型(如優先化、雙重網絡等)。為了討論的完整性,我們提出并評估了一個異步和優先版本的近似策略優化行為批判技術(P3O)與其他基準的對比。結果證明,在給定的環境中,基于Q的方法比演員評論家的配置更加穩健和可靠。此外,我們建議納入本地團隊通信,并將DRL與直接搜索優化相結合,以提高學習效果,特別是在具有部分觀察的挑戰性場景中。

圖3 多智能體深度強化學習系統。已實現的深度強化學習技術所使用的主要算法數據流圖。a) 具有單一團隊經驗重放緩沖區的深度Q網絡。盡管保存了異步強化學習轉換,但樣本是隨機的。目標網絡,其參數以緩慢的方式更新,給學習過程帶來了穩定性。b) 帶有優先團隊經驗重放緩沖器的決斗雙深Q網絡。根據時差誤差為每個存儲的過渡分配隨機優先級。c) 帶有分布式記憶的近似策略優化。網絡更新由團隊智能體異步進行。d) 帶有智能體分布式記憶、演員評論家網絡的優先級近似策略優化。每個智能體存儲自己的經驗,并使用它們來進行異步網絡更新。同時,根據有效的召回系數建立優先的數據集,然后用來訓練網絡。此外,該算法還與團隊共享的演員評論家網絡以及團隊共享的演員評論家網絡進行了研究。e)具有分布式記憶的異步優勢演員評論家。

付費5元查看完整內容

本論文研究了在干擾為主的環境中使用雷達對小型目標進行探測、跟蹤和分類的課題。這個問題從資源充足型雷達系統和資源有限型雷達系統的角度進行研究。在資源充足型雷達系統的情況下,分析了能夠逐步感知環境并調整其工作波形-接收機濾波器的認知架構。對聯合最佳發射波形和接收濾波器的研究,使它們在小型目標和干擾的情況下以最佳方式運行,在學術界和工業界都有巨大的興趣。最近在自適應波形合成方面的進展集中在知識輔助接收信號處理技術和自適應發射信號的聯合設計和實施上。這種模仿哺乳動物根據對環境的認知調整系統參數的神經能力的閉環雷達框架通常被稱為 "認知雷達 "或 "完全自適應雷達"。

在這篇論文中,提出了在存在擴展目標和有色干擾的情況下,單輸入、單輸出雷達設計的輸出信號與干擾噪聲比最大化的聯合最佳發射波形和接收濾波器。推導了這種波形濾波器的模糊函數、處理增益和Cramer-Rao約束。除了聯合優化策略規定的最佳波形外,希望雷達發射波形具有恒定的時間包絡,以驅動飽和狀態的功率放大器。這個約束條件要求重建恒定包絡信號,這需要使用所提出的寬松的迭代減錯算法來解決。一般來說,迭代算法對初始種子很敏感,這要通過推導出靜止相位假設的閉式解來解決。在多輸入多輸出(MIMO)雷達的情況下,信號之間的干擾會大大限制雷達在存在較強目標和背景雜波的情況下對小型目標的觀測能力。對于多信道雷達,本論文提出了正交編碼線性頻率調制(LFM)波形,其中一幀中連續的復雜LFM信號由正交編碼,即Golay互補、Zadoff Chu、直接擴頻、時空塊編碼、離散傅里葉變換和基于Costas的序列。對LFM進行調制的正交碼在整個符號中形成固定的庫波形,導致部分適應,而不是 "全適應雷達 "所決定的任意波形。這種正交編碼的MIMO雷達的模糊函數被推導出來,并從模糊函數和成像性能方面分析了波形。

隨著硅和封裝技術的進步,雷達已經從高端航空技術發展到相對低成本的人機界面(HMI)傳感器。然而,在這樣的工業和消費環境中,傳感器應該具有較小的外形尺寸和低成本,因此它們不能維持認知架構來檢測和分類小型的人類目標。為了提高人機界面應用的檢測和分類性能,人們提出了新的處理和學習算法。在實踐中,使用低成本雷達的基于學習的解決方案有幾個挑戰,特別是在開放集分類方面。在開放集分類中,系統需要處理輸入數據的變化、外來操作環境和未知類別。傳統的深度學習方法使用一個簡單的softmax層,并評估已知類別的準確性,因此是封閉集分類。softmax層提供了類別的可分離性,但沒有提供鑒別性的類別邊界。因此,許多未知的類被錯誤地預測為具有高置信度的已知類之一,導致在現實世界環境中表現不佳。其他挑戰是由于來自一個類和其他密切相關類的特征之間不明顯的類間差異,以及來自相同類的雷達數據中巨大的類內變化。為了應對這些挑戰,本論文提出了新的表示學習算法和新的損失函數。與傳統的使用softmax學習分類的深度學習方法不同,深度表征學習通過將輸入的特征圖像投射到一個嵌入式空間來學習分類的過程,在這個空間中,相似的類被分組,而不相似的類則相距甚遠。因此,深度表征學習方法同時學習可分離的類間差異和緊湊的類內判別,這對開放集分類至關重要。具體來說,所提出的表示學習算法在手勢傳感、材料分類、空氣書寫和踢腳傳感人機界面應用的背景下進行了評估。

付費5元查看完整內容

本文利用基于博弈論的粒子群優化(GPSO)為多個無人駕駛飛行器(UAVs)提出了新的合作路徑規劃算法。首先,編隊路徑規劃被表述為成本函數的最小化,其中包括每個無人機的多個目標和約束條件。然后,建立了一個基于博弈論的框架,將最小化問題歸結為尋找Stackelberg-Nash均衡的問題。接下來,開發了層次化的粒子群優化算法來獲得全局最優解。仿真結果顯示,GPSO算法可以為多個無人機生成高效可行的飛行路徑,在收斂率和靈活性方面優于其他路徑規劃方法。該編隊可以調整其幾何形狀以適應工作環境。對一組三個無人機的實驗測試證實了所提出的方法在實際應用中的優勢。

付費5元查看完整內容
北京阿比特科技有限公司