亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

多Agent系統,尤其是無人駕駛系統,是解決很多現實問題的關鍵部分,因此必須改進任務分配技術。在這篇綜述中,我們介紹了用于任務分配算法的主要技術,并根據所使用的技術對其進行了分類,主要側重于最近的工作。我們還分析了這些方法,主要集中在它們的復雜性、優化性和可擴展性上。我們還提到了任務分配方法中使用的常見通信方案,以及任務分配中不確定性的作用。最后,我們根據上述標準對它們進行了比較,試圖找到文獻中的差距,并提出最有希望的方法

關鍵詞:任務分配、MAS、優化、學習、博弈論、元啟發式方法

I. 簡介

眾所周知,自然界中的大多數系統都是復雜的分布式系統。這樣的系統主要需要溝通和合作,以實現一個共同的目標,如改善群體內每個人的表現,旨在實現最佳的整體表現[1]。因此,由于受到自然界的啟發,許多復雜的工程系統也采用了同樣的原則。特別是在過去的15年里,很多研究工作都集中在多智能體系統上,這些系統可以更好地完成很多單一智能體有時無法完成的任務。智能體可以是一個物理實體,如UAVs、UGVs或UUVs,一般類型的機器人,但甚至是計算機資源,如處理器,或一個計算機程序[2]。

科學界將注意力集中在MAS上的原因有很多。一些任務,特別是分布式任務,由于其復雜性和前提條件,可能無法由單個智能體來完成。此外,多個智能體的存在提高了執行任務的性能和可信度,因為更多的智能體可以合作更快地完成相同的任務,而且系統對智能體的損失或故障更加強大。另外,成本可能會降低,因為可以使用許多便宜的、有時是一次性的智能體,而不是一個昂貴的智能體[3]。

但是,在使用多智能體系統完成多項任務時,出現了分工的問題,即哪項任務將被分配給哪個智能體,智能體將有什么類型的通信,一般來說,每個智能體的行為將被定義,以便有一個最佳和強大的性能[3], [4]。所有這些問題的答案就是任務分配技術。為MAS中的任務分配問題找到一個最優或接近最優的解決方案是一個相當困難的過程,在一般情況下已被證明是NP困難的[5], [6]。任務分配的一些主要目標,除了實現整體最優的系統性能外,還可以是任務執行時間的最小化,一些智能體保持不活動的時間最小化,在特定的時間內完成的任務數量最大化,任務分配程序的可靠性最大化,即任務的成功完成,等等。[7]. 由于最佳整體性能是一個模糊的概念,難以量化,而且可能取決于每個智能體的感知,因此使用了效用的概念,即對任務分配程序對系統性能的價值或成本進行估計[4]。

任務分配的第一步是靜態的,但由于現實環境是動態環境,動態任務分配領域在過去幾年中已經成為一個很大的研究領域。在動態任務分配中,系統可以處理任務或環境的在線變化,具有更強大的性能[8]。使用的算法可以是集中式的,也可以是分散式的,取決于智能體的通信結構,也可以使用同質或異質的智能體。在任務分配技術的最初應用中,主要是假設同質智能體,因為相應算法的計算負擔較小。但是,在現實世界的應用中,經常需要異質的智能體。例如,在機器人系統中可能存在不同類型的傳感器,或者同一問題的不同任務可能需要不同類型的機器人。盡管異質性增加了計算成本,但它在許多應用中的必要性,促使研究人員為異質MAS開發了大量的任務分配算法[9], [10]。

用于解決MAS中任務分配問題的主要技術是基于拍賣(或市場)的方法、基于博弈論的方法、基于優化的方法(啟發式算法、元啟發式算法等),以及機器學習技術。根據所使用的技術,可以找到一個最佳的,或者幾乎總是一個近似的解決方案,而且問題的可擴展性、復雜性和適應性也會存在不同程度。MAS中的任務或任務分配的應用包括搜索和救援任務(SAR)[11]-[14],軍事行動,如攻擊或監視[15]-[18],物理災害管理[11],[12],[19]-[22],其中主要使用無人駕駛系統,也包括眾包平臺的使用,云計算[23]-[28],智能電網,制造業的資源分配[29]-[32]和其他。

II. 任務分配技術的不同通信方案

解決任務分配問題的算法主要有兩大類,即集中式算法和分布式算法。

A. 集中式任務分配

集中式算法是過去研究較多的一類算法。其主要概念是,有一個中央協調者智能體,它與所有其他智能體有通信渠道。這個智能體管理其他智能體的談判,并決定分配給其他智能體的任務。在這些情況下,大多數時候,會考慮全局效用函數[14],[33],[3],[34]。

圖1. 一個集中式系統,智能體A7是中央協調人

這些方法的優點是使用較少的系統資源,可能有較低的實施成本,但由于計算成本高,它們只能用于少量的智能體,而且它們不能適應動態環境,因此它們主要用于靜態任務分配。任務集中分配的事實避免了任務分配的沖突,因此不需要共識階段,也可以找到分配問題的最優解。它們也缺乏穩健性,因為它們很容易受到智能體,特別是中央智能體的損失,導致整體性能的惡化。此外,所有的智能體與中央智能體進行通信的事實,限制了它們的可擴展性[17],[35]。

B. 分布式任務分配

分布式算法克服了集中式算法的一些缺點,因此它們在過去幾年中吸引了研究人員的注意。在這種類型的算法中,沒有中央協調者,智能體對環境有一個局部的感知,并可能相互協商。因此,任務分配的決定是以分布式方式在局部做出的。每個智能體也可能有自己的效用函數,總體效用函數可能是近似的[14]、[33]、[3]、[34]。

圖2. 一個分布式系統

這些方法的優點是它們具有穩健性,因為智能體的失敗對整體性能的影響很小,而且由于智能體之間的通信水平較低,所以也是可擴展的。此外,它們的計算成本比集中式方法小,使它們成為大規模系統的理想選擇,即使通信帶寬很小。權衡之下,它們找到了任務分配問題的次優(近似)解決方案,而且可能需要一種共識算法,因為局部任務分配可能導致任務之間發生沖突[17],[35]。

III. MAS任務分配中的不同算法

在MAS中,有很多用于任務分配的技術。下面對所使用的方法進行分類介紹(見圖3)。

A. 基于拍賣的算法

在MAS中用于任務分配的一大類算法是基于拍賣的算法。這類算法以經濟學為基礎,智能體使用談判協議,根據他們對環境的局部感知,在拍賣中為任務投標。這就是為什么有時這些方法也被稱為基于市場的原因。智能體根據他們計算的效用或成本出價,他們的目標是為分配的任務完成最高的效用或最低的成本。基于智能體的效用函數,一個全局目標函數被優化。拍賣者可能是一個中央智能體,也可能由系統的智能體以分布式方式進行拍賣,拍賣可能需要幾輪,可以考慮一個或幾個任務[10], [14], [36], [37]。

基于拍賣的算法有很多優點,例如,即使找到了次優的解決方案,也有很高的解決效率,因為它們同時使用了集中式和分布式的方法及穩健性。它們也是可擴展的,因為它們有適度的計算成本或通信負擔,不是完全集中式的算法,它們對動態任務分配很好,因為它們可以從拍賣程序中增加或刪除新任務[3]。

圖3. 任務分配技術分類

a) 基于CBBA的算法:基于共識的捆綁算法(CBBA)是一種分布式的算法,它為多目標優化問題提供解決方案,與智能體態勢感知的不一致無關,其成本函數是每個智能體對執行捆綁任務所感知的效用。在第一階段,該算法使用帶有貪婪啟發式的拍賣來選擇任務,在第二階段,該算法應用基于共識的程序來解開任何重疊的任務。該算法被證明可以為單機器人單任務的任務分配問題提供次優解(完整的分類法見[4]),并且具有高度的可擴展性,使其適用于動態任務分配應用,因為它具有多項式時間競標[38] [39]。

最近發現的方法包括PI(性能影響)算法的改進,如PI-MaxAss[14]和[35]。此外,其他技術是CBBA算法的改進,如修改的CCBBA[38],G-CBBA[40]和[41]。

b) 基于CNP的技術:Smith[42]開發的合約網協議(CNP)是第一個用于任務分配問題的談判平臺,構成了眾多任務分配算法的基礎。它是一個標準化的協議,可以將任務分配給最合適的智能體,同時它能夠在需要時進行任務重新分配[43]。另一方面,CNP有信息擁塞的問題,有時會使智能體之間的談判程序變得不方便。與其他方法不同,如基于信息素的方法,CNP在很大程度上依賴于智能體之間的信息通信,這些信息的計算成本可能非常高,從而降低了通信效率和系統性能[44]。

最近一些基于CNP的方法包括[45]、[46]、[11]、[27]、[44]。此外,一種不屬于上述類別的基于拍賣的方法是(FMC TA)[47]。

B. 基于博弈論的方法

在基于博弈論的方法中,假定智能體是采取特定行動的玩家,任務分配方案是他們應該遵循的策略。在博弈結束時,玩家根據他們的行動所獲得的回報被稱為報酬。當玩家選擇了最佳策略,那么他們就不會希望改變他們的策略,因為這是他們能夠完成的最佳結果,達到納什均衡[48]。

博弈可以分為兩大類,合作博弈和非合作博弈。在合作博弈中,智能體在采取具體行動之前進行合作或形成聯盟,影響他們的一般戰略和效用。合作博弈的一個例子是聯盟形成博弈。在非合作博弈中,智能體單獨選擇他們的行動和策略,這意味著智能體是自私的,希望達到最高的回報。一些例子包括貝葉斯博弈、非合作性差分博弈、子模態博弈等。[49].

最近一些基于博弈論的方法包括[50]、[20]、[51]、[52]、[53]、[54]、[55]。

C. 基于優化的技術

優化是應用數學的一個領域,旨在從一組可能的解決方案中找到一個特定問題的解決方案,使某一成本或目標函數的成本最小或利潤最大。這個成本函數根據一些約束條件進行優化,決定了系統的目標。有很多優化技術可以是確定性的或隨機性的[3], [56]。確定性方法不考慮隨機性,也就是說,如果使用相同的起點,通往解決方案的路徑將是相同的。確定性方法包括諸如圖形方法、基于圖形的方法、順序規劃、線性規劃、混合整數線性規劃(MILP)等技術。隨機方法或元啟發式方法是指在計算過程中包含隨機性的方法。元啟發法包括進化算法、蜂群智能、模擬退火等。此外,啟發式算法是用來尋找快速和高質量的解決方案的算法,以解決確定性方法會有難以承受的計算成本的困難優化問題。這些方法雖然提供了近似的解決方案[57]。

a) 基于確定性的優化:一個經常被用作開發新任務分配算法的基礎的優化算法是匈牙利算法[58]。匈牙利算法將任務分配問題視為一個組合優化問題,使用圖論并在多項式時間內解決該問題。該算法計算每個智能體效用的估計值,從而使整體效用最大化。但這在計算上是很昂貴的,而且當系統存在高不確定性時,有時價值較低,因此對該算法提出了很多改進[59]。最近的一些方法包括[60]、[61]和[62]。

b) 元啟發式算法:元啟發式算法包括幾種方法,如蜂群智能、遺傳算法、模擬退火和其他。蜂群智能已被廣泛用于MAS的任務分配,它是一類受生物啟發的算法,主要來自具有社會行為的動物,如昆蟲群、魚群、鳥群等[63]。 這些動物表現出高效的分工,由于團隊成員的專業化,導致了群體的高效率[64]。即使智能體可能相當簡單,但由于他們的合作,他們可以作為一個整體完成復雜的任務,導致強大、高效和低成本的解決方案[65]。另一方面,這些算法有時會給智能體分配不必要的任務,導致沖突,并對環境變化有緩慢的整體反應[63]。主要使用的方法分為基于閾值和概率的方法。

在基于閾值的方法中,如響應閾值法[66],智能體決定其關于任務的行動,取決于一些監測量的值和閾值的值。閾值可以是固定的,也可以是可變的,智能體可能只有關于該數量的局部或整體信息。在概率方法中,智能體根據環境觀察或歷史數據計算出的概率,隨機地改變任務。另外,可能會使用一個刺激物,當刺激物對特定的任務來說是高的時候,可能會選擇一個任務[67]。

最近一些基于元啟發式的任務分配方法包括改進的分布式蜜蜂算法[63]、動態蟻群的分工[17]、分布式免疫多Agent算法[68]、改進的QPSO[69]、分層任務分配和路徑尋找方法[70]、多目標多類人機器人任務分配[71]和其他技術如[72]、[73]、[15]。

c) 啟發式方法:最近基于啟發式的方法包括Lazy max-sum算法[19]、平均Hamilton分區--多個旅行推銷員算法[74]、One-To-Many Bipartite Matching[75]、基于最近鄰的聚類和路由方法[76]和[77]。

D. 基于學習的方法

要預測一個智能體必須處理的未來干擾是非常困難的,特別是在沒有具體的數學模型來描述環境行為的情況下,這對實際應用來說是動態的。因此,一個解決方案是智能體學習如何面對這種干擾,考慮到他們過去的行動和其他智能體的行動,從而提高系統效率[78], [79], [80]。

一個典型的機器學習技術是強化學習,其中智能體使用他們的經驗來學習如何在環境的不同狀態下采取行動。環境通常是以馬爾科夫決策過程(MDP)的形式形成的,智能體優化成本或獎勵函數,以便從環境中學習。經常使用的RL方法是Q-learning,它是一種無模型的RL方法,幫助智能體找到MDP的最優解。[78], [79]. RL有很多優點,包括處理環境中的不確定性、實時實施(對于訓練有素的網絡)和處理不同的任務[16]。另一方面,特別是在大規模的復雜系統中,大多數RL算法需要高計算能力[81]。

已發現的基于學習的方法包括[82]中的分布式自組織地圖方法、[12]中的隨機強化學習算法、基于圖的多智能體強化學習方法[83]、帶有增強爬坡搜索方法的MARL[84]、基于Q-學習的快速任務分配算法[16]、使用合作深度強化學習策略的任務分配過程[79]和基于MARL軟Q-學習方法[85]。

E. 混合方法

除了上述解決任務分配問題的方法外,還有一些結合了上述一些方法的其他方法,它們被稱為混合方法。

在[86]中,優化和基于拍賣的方法被結合起來,而在[87]中,基于市場的方法與基于博弈論的方法被結合起來。此外,[88]、[89]和[13]是基于市場和元啟發式的結合,[90]是基于市場和學習的結合。在[91]中,進化算法與貪婪算法相結合,而在[92]中,基于博弈論的方法與學習算法相結合。

IV. 任務分配程序的關鍵因素

評價MAS中的任務分配程序的一些基本標準是所使用的算法的計算復雜性、解決方案的最優性和所使用方法的可擴展性。此外,算法處理不確定性的能力,以及通信程序的有效性,對整個系統的性能起著重要作用。

A. 復雜性、最優性和可擴展性

影響任務分配計算成本的因素是所使用的算法的復雜性,這些算法的使用頻率,以及智能體之間需要的通信方法的計算成本(智能體為實現成功的任務分配需要交換的信息比特)[93], [94]。

另一個關鍵因素是找到的解決方案的最優性。當我們提到任務分配程序的最優性時,我們的意思是所找到的解決方案具有可能的最高總體效用,受到系統特性的限制,如提供給智能體的信息的噪聲、不確定性和不準確性。為了找到動態而非靜態的解決方案而執行算法的頻率,以及可以重新分配的任務的比例,都會影響解決方案的質量[4]。此外,隨著越來越多的復雜任務和更多的智能體被用于任務分配方案,算法的可擴展性對其有效性至關重要。

表一 一些有代表性的任務分配算法的復雜性

a) 基于CBBA的方法:所提出的基于CBBA的方法,是CBBA和PI算法的改進,比基線CBBA方法有更好的效率和可擴展性,但缺點是計算成本較高。具體來說,PI-MaxAss[14]算法的計算復雜性相當于 ,其中 是任務數。此外,改進的CCBBA算法[38]的復雜度為 ,其中Θ是收斂前需要的最大迭代次數, 是每個任務的最大傳感器數量, 是智能體數量, 是任務數量,M是規劃范圍。

b) 基于CNP的方法:一般來說,基于CNP的技術在重新分配任務方面非常好,但高度依賴于智能體之間的通信程序,通常造成高計算成本。此外,CNP的另一個問題是觀察到的信息擁堵。所提出的改進的CNP算法,比基線CNP有更高的效率和更小的計算成本。但是,即使有一些方法試圖解決消息擁塞的問題,例如[44],這仍然是一個開放的研究領域。

c) 基于博弈論的方法:所提出的博弈論方法,比基線方法更有效,有更好的次優(近優)解決方案。此外,一些博弈論的算法比基于市場的方法有更好的效率。至于復雜度,基于Apollonius圈的主動追擊者檢查(AAPC)[52],其復雜度為 其中 為追擊者的數量。基于匿名享樂博弈[50]的GRAPE算法的復雜度由 約束,盡管在大多數情況下要小得多,其中 是網絡的圖徑, 是任務數, 是智能體的數量。至于每個智能體的通信復雜度是 ,其中 是智能體i所通信的智能體數量。

d) 啟發式方法:有很多解決DCOP問題的技術。提供最優解決方案的技術通常具有指數級的協調負擔,而基于啟發式的技術具有較低的協調成本,但提供次優的解決方案。一些提議的技術顯示了比一些基于遺傳和市場的方法更高的效率和更小的計算成本[19]。懶惰的最大和方法[19]的信息傳遞復雜性為 但如果我們考慮所有智能體對所有任務的分配,復雜度會上升到 對于找到次優解的AHP-mTSP算法[74](平均哈密爾頓分區,多個旅行銷售人員問題),對于 個智能體和 個任務,每個迭代的復雜度為 平均運行時間為 。此外,集中式啟發式基于最近鄰的聚類和路由(ncar)方法[76]的計算成本為 ,其中 是智能體的數量。OTMaM技術[75]適用于大規模的系統,其時間復雜度為 ,其中 是智能體的數量, 是任務的數量。

e) 元啟發法:元啟發式技術成本低、穩健、高效,但有時會造成任務間的沖突,為智能體分配不必要的任務,對環境變化的反應也很慢。與基線算法相比,所提出的算法具有較低的復雜性和更好的可擴展性。但是,其中一些算法是次優的,或者假設通信程序沒有故障。此外,其中一些算法比一些貪婪的和基于市場的(如CNP)方法具有更高的可擴展性和更好的性能。對于MOMHTA算法[71],總體最壞情況下的復雜度是 ,其中 是任務的數量,H是超平面上參考點的數量,L是目標的數量,K是創建集群的數量。

f) 基于學習的方法:基于學習的方法,特別是強化學習的方法,通常具有很高的效率,可以在線實施,并對環境干擾有很好的表現。我們注意到,很多技術比基線模擬退火、爬坡和貪婪算法有更好的性能。此外,我們還注意到比基于邊界的方法和匈牙利方法的效率更高。盡管一些方法的計算成本比基于拍賣的方法小,但計算成本和維度的增加仍然是其他強化學習方法的一個問題。

表二 一些有代表性的任務分配算法的通信類型

g) 混合方法:使用混合方法是一個非常好的解決方案,因為兩種技術可以結合起來,利用它們的優勢,實現比基線方法或只使用一種方法更高的效率或更小的計算成本。在[86]中,使用了簡化的MILP程序和多智能體投標的迭代調度算法,迭代調度器的計算復雜度為 ,其中 是智能體的子集。此外,在這個調度器的低級階段,使用了GSTP算法,增加了整體的復雜性。在[89]中,基于CBBA的方法與蟻群系統(ACS)算法相結合,并且在CBBA的包含階段使用了基于貪婪的策略,最壞情況下的計算復雜性是 ,其中 是幸存者(任務)的數量。

表一中列出了上述算法的復雜度摘要。我們可以看到大多數方法都有多項式的時間復雜度。計算成本較高的是基于CBBA的算法,以及一些混合方法。另一方面,基于啟發式的方法和基于博弈論的方法的復雜性較低。

B. 通信

智能體之間的通信是其協調性能的一個非常重要的因素。目標是智能體使用最小的可用帶寬,在不使通信網絡過載的情況下,交換有關其狀態以及周圍環境的重要信息[12]。智能體的通信可以是明確的或隱含的。顯性或直接通信,是指智能體之間使用通信網絡和專用網絡協議交換信息。大多數現有的協調方法都使用這種類型的通信。隱式方法是指通過環境,使用智能體配備的傳感器,獲得關于多智能體系統中其他智能體的信息。如果智能體利用其他智能體在環境中留下的信息進行交流,那么隱式交流是主動的(生物學啟發技術),如果智能體使用他們的傳感器來感知環境發生的變化,那么隱式交流是被動的[96]。

顯式通信方式通常比隱式情況有更高的準確性,缺點是通信負荷較高,特別是對于大規模的系統。隱式的情況下,即使缺乏準確性,也有更好的穩定性和更強的容錯性。因此,混合使用這些方法是一個非常好的主意,可以利用它們的優勢,導致更好的整體系統性能[96]。在表二中列出了一些任務分配的特征算法的通信技術。我們看到,一些經常使用的技術是社會網絡技術、黑板計劃、信息素圖和一般基于圖的技術。

表三 主要任務分配方法的比較

C. 不確定性

考慮到不確定性的任務分配技術,對于在現實生活中實現高效和穩健的任務分配非常有用。到目前為止,大多數技術,特別是分布式技術,比集中式技術更難融入不確定性。不確定性可以考慮到傳感器的不準確性、智能體的失敗、環境干擾等[97] [98]。根據以前的研究,應該把可靠性作為優先考慮的因素,因為如果忽略了失敗的可能性,性能就會下降(次優性能)[99]。例如,在[100]中,作者發現在通信程序不確定的環境中使用基于異步共識的捆綁算法(ACBBA)(現實的有損網絡環境),會產生低效的任務分配,特別是對于大量的智能體。因此,該算法的性能與理論上的預期性能相比是不同的。

在[99]中,使用啟發式方法和非馬爾科夫狀態,研究了多智能體系統中的不確定性問題(通常是任務分配程序中的元素失效)。他們的結論是,做出簡化的假設,如馬爾科夫狀態,會導致結果不能公平地反映系統的性能。此外,他們證明了在某些類別的問題中,使用更復雜的啟發式方法,更好地描述物理環境和發生的不確定性,導致了性能的提高。在[97]中,作者通過處理不確定的環境,開發了性能影響(PI)算法的改進版本,提高了魯棒性。提出了三種穩健的PI變體,使用蒙特卡洛抽樣從高斯分布中抽取不確定的變量。與基線CBBA和PI相比,所提出的方法降低了不確定情況下的故障率和未分配任務的數量,但增加了計算的復雜性,使得它們對時間關鍵型應用不可靠。

因此,納入不確定性在很多應用中是非常有用的,可以帶來更好的性能。但是,總是存在著計算復雜度較高的危險,因此在效率、穩健性和收斂時間之間應該有一個平衡,這取決于可用的計算能力和每個應用的具體需求。

V. 結論

表三是主要任務分配技術的一些主要性能特征的總結,從1(低值)到4(非常高的值)進行了分類。我們看到,基于CBBA和CNP的技術通常具有較高的計算成本,使它們不適合大規模的系統。此外,確定性優化技術也有極高的成本和低可擴展性,使得它們也不適合于中到大規模的系統,盡管它們有非常好的效率。另一方面,啟發式和博弈論方法具有非常低的成本,使它們成為提供具有中等和良好效率的快速解決方案的理想選擇。這些方法也可以用于大規模的系統,因為它們具有非常好的可擴展性。元啟發式方法和學習方法具有適度的成本、良好的效率和可擴展性,可用于中等規模,有時也可用于大規模環境,這取決于具體問題。特別是學習技術在動態任務分配和動態環境中非常好。

隨著MAS系統技術的發展和計算能力的逐年提高,在實際環境中實施改進的任務分配算法的需求勢在必行。這樣的環境有很高的不確定性,復雜的任務,并且可能需要實時實現所用的算法。由于對這種環境的適應性,RL方法是一個很有前途的任務分配研究領域,在過去的幾年里被科學界廣泛研究。此外,博弈論和元啟發式方法對這類系統也很有前途。如[101]所述,基于RL和博弈論的技術的結合改善了多Agent情況下的RL(MARL),因此基于博弈論和RL的技術的結合對于任務分配方法來說也是非常有前途的。

付費5元查看完整內容

相關內容

多智能體系統(multi-agent system,MAS) 是一種全新的分布式計算技術。自20 世紀70年代出現以來得到迅速發展,目前已經成為一種進行復雜系統分析與模擬的思想方法與工具。

本文考慮了一類特殊的多機器人任務分配問題,其中任務對應于定義在特定環境的不同區域的異質多機器人路由問題。我們提出了一個分層規劃器,將這個問題的復雜性分解為兩個子問題:將機器人分配到路由任務的高層問題,以及計算每個子團隊的實際路由路徑的低層問題。規劃者使用圖形神經網絡(GNN)作為啟發式方法來估計特定聯盟在特定路由任務上的子團隊表現。然后,隨著底層問題解決方案的出現,它將估計值迭代細化為實際的子團隊性能。在一個以異構多機器人區域檢查問題為基礎路由任務的測試平臺問題上,我們的經驗表明,我們的分層規劃器能夠計算出最優或接近最優(7%以內)的解決方案,比事先計算所有可能的分配計劃以獲得精確的路由時間的最優基線快16倍左右(平均而言)。此外,我們表明,與其他基線(非學習型)估計器相比,基于GNN的估計器可以在解決方案的質量和計算時間之間提供出色的權衡。

圖 1:應用于我們的測試平臺問題的擬議分層規劃框架。 GNN 首先用于估計不同子團隊檢查環境不同區域所需的時間。高級求解器使用這些估計來計算高級分配,而低級求解器使用專門的路由算法計算實際路徑。然后使用實際任務持續時間來更新高級求解器的 GNN 估計,然后可以使用改進的估計集計算新的分配。

I 引言

本文考慮了一類特殊的多機器人任務分配問題,其中任務對應于定義在特定環境的不同區域的異質多機器人路由問題。目標是最小化完成所有路由任務所需的時間。這類問題代表了一些場景,在這些場景中,將機器人的子團隊分配到各個區域將是有益的。例如,在跨越非常大的環境的搜索和救援行動中,電池的限制可能使一個機器人不能被用于一個以上的區域。另外,在軍事場景中,戰略區域可能需要在車隊通過之前同時檢查是否有對手存在。作為最后一個例子,考慮一個通信受限的巡邏場景,將子團隊分配到各個區域可以保證機器人將有足夠的組間網絡,以迅速響應對入侵者的檢測。這些類型的問題本質上顯示了一個層次結構:如果我們事先知道每個可能的機器人子團隊完成每個可能的路由任務所需的時間,我們可以首先確定子團隊對感興趣區域的最佳分配,然后只計算該分配的實際子團隊路徑。優化處理第一階段的一個直接方法是預先計算所有可能的子團隊任務分配的路徑,這將提供所有可能的路由時間作為一個副產品。不幸的是,即使不考慮分配問題的組合性,通常情況下,由子團隊分配產生的多機器人路由問題是NP-hard,只有通過計算昂貴的算法方法才能得到一個好的解決方案,例如將路由問題表述為混合整數線性程序(MILP),通常需要幾秒鐘到幾分鐘或幾小時的運行。為了減少整體規劃時間,尋找一個好的分配應該以懶惰的方式解決路由任務問題,從最有希望的子團隊分配給任務開始。然而,知道一個分配的潛在效用通常需要知道它的路由計劃,消除了懶惰方法的優勢。

我們注意到,子團隊的分配只需要知道給定分配的不同路由計劃的成本,而不是實際計劃本身。如果我們能夠估計這些成本,而不同時解決相應的路由問題,我們就可以推遲計算路由計劃,直到決定了一個暫定的分配。

基于這些觀察,我們提出了一個分層規劃器,能夠將原始問題的復雜性分解為兩個自然的子問題:將機器人分配到路由任務的高層次問題,以及只為所有可能分配給子團隊的區域中的一個選定子集計算實際路由路徑的低層次問題。由于多機器人路由問題通常是在圖形表示的環境中定義的,規劃者使用圖形神經網絡(GNN)作為啟發式方法來估計特定聯盟在特定路由任務中的子團隊性能。迭代后,計劃者將這些估計值細化為真正的子團隊性能,因為低層問題的解決方案已經可用。我們引入了一個測試平臺問題,其中有一個異構多機器人區域檢查問題作為基本的路由任務,對此我們再次考慮了基于傳統混合整數線性編程表述的解決方法。圖1顯示了擬議的規劃框架的示意圖。

在包含多達45個機器人和20個檢查區域的路由任務分配問題中,我們的經驗表明,我們的方法總是能夠計算出最優或接近最優(7%以內)的解決方案,比事先計算所有可能分配的計劃以獲得精確的路由時間的最優基線快16倍(平均)。我們還表明,與其他基線(非學習型)估計器相比,基于GNN的估計器在解決方案的質量和計算時間之間提供了一個很好的權衡。

付費5元查看完整內容

在戰術情報、監視、目標獲取和偵察(ISTAR)中,移動特設傳感器智能體合作實現收集任務,以彌補信息需求和信息收集之間的差距,從而保持持久的態勢感知。針對有限的機載傳感器平臺資源能力和能耗,最新的貢獻往往采用特設規定的傳感器行為,導致過度保守的連接約束和有偏見的決策。 其他的方法是假設一個分割的空間,持續的網絡連接或約束放松,以減少問題的復雜性。但是,這些可能會傳達一個重要的機會成本,并不利于整體性能,遠離收集價值最大化,只要數據路由是可行的。本文提出了一種創新的方法來處理移動特設傳感器網絡/蜂群收集任務的問題,該方法考慮了有限的機載處理能力和數據傳播的能耗預算。收集規劃依賴于一種新的開環反饋決策模型的制定。它包括反復求解一個靜態決策問題,使采集值在一個逐漸縮小的時間范圍內最大化。偶發性決策受傳入請求、累計采集值、正在進行的資源承諾、剩余資源能力和上一階段的反饋影響。該方法結合了一個新的緊湊圖表示和一個近似的路徑規劃決策模型,受制于周期性連接。

對國防和安全的意義

本科學報告提出了新的收集任務決策支持技術概念,為實現數字化指揮和控制(C2)解決方案鋪平了道路,以支持戰術陸地指揮、控制、通信、計算機、情報、監視和偵察(C4ISR)。這種新的傳感器網絡收集任務概念,以保持持久的態勢感知,完全符合加拿大陸軍陸上需求局(DLR)2的意圖,即實現戰術決策-行動周期的自動化和優化。這項工作旨在及時向DLR 2和陸地情報、監視、偵察(ISR)現代化資本采購項目的定義階段通報戰術邊緣的新的自動化和優化收集任務技術概念,并確定有希望的研究方向。倡導的概念為敏感目標定位、動態收集任務重新分配、收集器集成以及新的自動化收集任務解決方案的可行性和價值帶來了新的視角。所提出的核心概念計劃在適當的國家和國際場合,如關鍵的選定的軍事演習和/或技術合作計劃(TTCP)中逐步和適時地展示。這將為其他 "五眼 "國家提供必要的能見度和適當驗證的機會窗口,同時獲得對加拿大感興趣的有競爭力的最新技術。

報告組織

該文件的其余部分分為以下幾個部分:

第2節介紹了傳感器網絡收集任務的問題。

然后在第3節中強調了一種新的收集任務的方法,以保持持久的態勢感知。第3節介紹了一種新的收集任務分配方法,以保持持久的態勢感知。該節提出了一個總體概述,并強調了其主要特征和相關的新穎性。然后分別進一步描述了一種創新的收集圖表示、一種新的連接性約束處理方法和一種管理臨時代理收集的數學決策模型表述。然后介紹了所促進的具有成本效益的通信規劃/路由方案的細節。

第4節描述了自然問題模型的擴展,以處理連通性的不確定性,并隨時捕捉多個目標。

第5節簡要討論了問題復雜性的降低。

第6節報告了計算結果,并對各種基線問題解決技術進行了一些性能比較分析,以評估擬議方法的價值。

最后,第7節給出了一個結論,簡要總結了報告的主要貢獻和預期的未來工作。

付費5元查看完整內容

摘要

多Agent系統研究關注的是相對簡單的Agent互動所產生的系統級行為。迄今為止,多Agent系統研究主要涉及同質Agent系統,其成員Agent在物理上和行為上都是相同的。具有不同物理或行為特征的異質Agent系統可能比同質團隊更有效地完成任務,通過相互補充的Agent類型之間的合作。在這篇文章中,我們比較了同質和異質團隊在聯合武器情況下的表現。聯合武器理論提出,異質力量的集體應用可以產生遠遠大于同質力量或個別武器的連續使用所取得的效果。實驗結果表明,聯合武器的戰術可以從簡單的Agent互動中產生。

1 引言

多Agent系統研究領域試圖開發出開發單個Agent的方法和算法,以產生理想的系統行為。該領域已經產生了著名的算法,如粒子群優化(PSO)和蟻群優化(ACO),但主要集中在相同的、同質的Agent系統。最近的工作已經開始探索異質系統的潛力,或具有不同行為或物理形式的Agent系統。我們特別感興趣的是這種系統在發展和驗證聯合武器理論方面的應用。

聯合軍備的軍事理論將不同類型的軍備結合起來,以達到比同樣的軍備單獨或依次應用所能達到的效果更大(陸軍2019年)。它將互補的武器結合在一起,為了避免一種武器,敵人必須將自己暴露在另一種武器之下(軍團1997a)。因此,一支聯合武器部隊是異質的,因為它所包括的武器或制劑彼此不同。由于聯合武器部隊是一個異質的多Agent系統,對多Agent系統的研究可能會給聯合武器的軍事研究帶來成果。本文介紹了一組實驗,旨在探索聯合武器戰術在異質代理系統中的出現,即在行為或物理形式上不同的Agent。

實驗是在一個二維(2D)戰斗模擬中進行的,在這個模擬中,各Agent團隊為實現既定目標而競爭。遺傳算法被用來為每個場景演化出有效的團隊,并將每個演化出的團隊的行為與現有軍事學說中的聯合武器行為的定義進行比較。假設被證明是正確的,即聯合武器戰術可以從簡單的異質Agent的相互作用中產生。

這項工作的其余部分按主題分為幾個部分。第2節回顧了同質和異質多Agent系統的現有研究。第3節描述了實驗過程中使用的平臺和措施。第4節概述了測試場景,第5節討論了每個實驗的結果。第6節提供了結束語和對未來工作的建議。

付費5元查看完整內容

摘要

本報告介紹了對動態數據驅動應用系統(DDDAS)異常檢測和響應的研究,以建立抗攻擊的多智能體系統。報告涵蓋了2019年1月至2021年11月期間的情況。除了之前報告中介紹的成就,我們還展示了一些關于所述策略實際執行的新結果,以及完成項目所有活動所需的最后細節。由于Covid-19大流行病,封鎖阻礙了實驗室的工作,不被允許雇用研究生研究助理,項目要求延期,并在2020年11月獲得批準。大學在2021年第二學期開放了實驗室,當時能夠雇用四個本科生研究人員。因此,所有的活動都是由這些本科生、三名研究生和兩名主要研究人員制定的。

這份最終報告的組織結構如下:

(i) 第一節總結了項目的目標和活動,到目前為止取得的進展,所需要素的購買情況,以及書面論文的清單。

(ii) 第二節介紹了一些與所制定的戰略共同的初步情況。

(iii) 第3節介紹了開發的方法和實驗結果。

(iv) 第4節提出了一種新穎的離散時間種群動力學來實現機器人的編隊。

(v) 第5節介紹了所開發的策略的發展和進一步的實際執行情況,以供測試。

(vi) 最后,第7節介紹了所開發工作的最終結論。

1 引言

具有多個智能體的系統使我們能夠開發不同的策略來控制大規模的互連系統。與有單個智能體的系統相比,有多個智能體的系統可以更容易和更快地完成監視等任務。對這類系統的研究使我們能夠對動物和人類的行為進行建模,并根據這些行為設計控制策略。這種策略從基于鳥群和蜜蜂覓食的算法[1],沿網絡的分布式傳感[2],延伸到耦合振蕩器的同步[3],等等[4,5]。

進化博弈論對生物種群有重要的啟發作用,當與物理系統適當結合時,博弈論可以優化系統行為。這種理論的使用允許為不同的應用設計分布式控制器,如水系統的控制[6],或孤立的微電網的同步[3]。大多數提出的問題解決方案都采用連續時間的方法。然而,為了在一些系統上正確實施這些策略,需要有離散時間控制器。即使連續時間控制器是穩定的,離散化也可能變得不穩定。因此,必須發展理論結果以確保離散時間控制器是穩定的。

除了提到的離散化問題,控制器和系統還面臨另一個問題,因為它們很容易受到攻擊。惡意智能體可以修改系統信息以損害用戶和物理工廠。在多智能體系統中,對一個智能體的攻擊可以滲透到整個系統中,因為它向其余的智能體發送了損壞的信息。此外,攻擊者可以修改一個智能體發送給其鄰居的信息。對真實系統的一些攻擊表明,有必要開發一種自動反應來面對其影響[7, 8]。

該項目解決了上述問題,即使用離散時間群體動力學的系統控制和緩解對控制系統的攻擊。因此,本項目所取得的貢獻可以概括為以下幾點。首先,我們開發了一種策略來檢測和緩解對系統智能體之一的傳感器的攻擊。該策略減輕了對被攻擊智能體的影響,并防止攻擊通過通信網絡傳播到整個系統。第二,我們設計了一個使用新的離散時間群體動力學來優化凸函數的策略。我們開發了理論結果以確保系統的穩定性。這一新穎的發展使我們能夠設計一個控制器來實現機器人的編隊。第三,我們開發了一個基于軟件定義的網絡(SDN)的策略,以減輕對通信鏈路的攻擊。我們說明,使用SDN為網絡物理系統提供了不同的能力,以減輕智能體之間的通信攻擊。最后,我們不僅模擬,而且還在一個有多個差動驅動機器人的系統上實施了上述的一些策略,以顯示其效率。

1.1 目標和活動

為無人駕駛地面車輛(UGVs)設計并實現一個能夠減輕對傳感器讀數攻擊的編隊控制器。這項工作的重點是至少有三個機器人的編隊,并限于完整性和重放攻擊。

之前所說的目標可以在以下具體目標中分開:

  • 開發一個編隊控制器,用于幾個UGV,即三到六個機器人,以及至少三個幾何編隊分布。

  • 開發一種能夠檢測機器人傳感器異常情況(攻擊/失敗)的機制。

  • 開發至少一種機制,能夠協調測量值和估計值,并計算控制行動所需的調整,以減輕異常情況對機器人編隊的影響。

  • 開發一個機制的性能指數,以量化當緩解機制被添加到編隊控制器中時攻擊的影響的減少。

為了實現這些目標,我們在項目提案中陳述了以下活動:

(i) 設計和實現編隊隊長的控制器。

(ii) 設計和實現緩解對編隊領導的路徑跟蹤任務的攻擊的機制。

(iii) 選擇要探索的編隊集合,即定義每個編隊的機器人數量和幾何形狀(至少有三種情況)。

(iv) 為三個機器人系統的每個編隊中的跟隨者機器人設計和實現控制器。

(v) 開發機制,以檢測由領導者發送和/或由兩個追隨者接收的信息的異常情況(被攻擊的信息可能是不同的)。

(vi) 開發機制以減輕攻擊對編隊中兩個跟隨者機器人的影響。

(vii) 在一次專門會議上發表部分成果。該出版物將包括緩解對一個有三個機器人的編隊中的領導者和追隨者機器人的攻擊。

(viii) 設計和實現六個機器人的多智能體系統中的領導者和跟隨者的編隊控制器。

(ix) 開發機制,以檢測有六個智能體的系統中由領導者發送和/或由追隨者接收的信息的異常情況(在攻擊下可能是不同的)。

(x) 為六個智能體和不同的隊形形狀擴展緩解機制。

(xi) 定義一個性能指數,以量化受攻擊系統和包括緩解機制的受攻擊系統之間的差異。

(xii) 在專業期刊上發表最終結果。

圖1:不同移動地面機器人平臺的比較。EPFL是洛桑聯邦理工學院,USC是南加州大學。改編自[9]。

1.2 基礎硬件

為了完成上述活動,我們已經購買了一些硬件。圖1顯示了不同研究小組制造的一些機器人的主要特征。盡管有些機器人如Khepera IV呈現出許多功能,但這些機器人的價格很高,或者它們沒有商業化的供應。因此,我們選擇了e-puck第2版;它有足夠的功能來開發目前的工作,其價格允許我們用現有的預算購買幾個機器人。

我們總共購買了六個地面機器人,一臺高性能的和三臺中等大小的計算機。表1顯示了每個部件的不含稅成本。機器人的價格是不同的,因為它們是在不同的日期購買的。此外,為了實現機器人的分布式通信,購買了6個樹莓派,為了檢測機器人的位置,還購買了一個攝像頭。作為項目的對應方,博士生Luis Francisco C′ombita在2015年獲得Colciencias 727資助的預算中的一些資源被用來購買項目用品,以及博士生Jorge Alfredo Lopez Jimenez的一些預算資源。Colciencias是哥倫比亞相當于國家科學基金會(NSF)的機構。

表1:為項目發展所獲得的要素

付費5元查看完整內容

摘要

本報告涵蓋了與設計評估人類和智能軟件Agent之間通信有關的問題,這些通信是實現協作關系所必需的。為了使人與Agent之間的互動在動態的現實世界中保持穩定,軟件Agent和人類都必須能夠在任務目標方面溝通他們的整體意圖。由于推理過程、能力和知識庫的不同,人類和Agent并不是人類團隊的模擬。我們討論了有效通信所涉及的技術問題,包括相互透明的模型、自然語言處理(NLP)、人工智能(AI)和可解釋的AI。由于缺乏使人類能夠洞察其隊友心理過程的心智理論,Agent很難預測人類的信息需求和未來行動。涉及多個Agent的協作計劃研究和合成共享心智模型的研究被作為嘗試將人類和Agent整合成一個協同單位典范。然而,我們的結論是,在人類和Agent在復雜的、不確定的任務中像人類團隊一樣通信之前,NLP、可解釋人工智能和人類科學的進展將是必要的。

1. 引言

自主系統的前景和問題都將改變未來系統的動態,這不僅體現在自主系統對社會的影響上,也體現在它們與人類的互動上(《經濟學人》2016;Schaefer等人,2017)。人類和自主系統之間的伙伴關系涉及到將人工和人類融合成一個有凝聚力的系統,這種結合意味著所有的優勢和限制(Bradshaw等人,2009;Chen和Barnes,2014)。自主系統的范圍可以從那些獨立的、只由人類偶爾監控的系統到由人類指導的、受到密切監督的系統(Barnes等人,2017)。能夠自主行動并根據新信息更新行動以實現其目標的軟件系統被確定為智能Agent(IA);Russell和Norvig 2009)。在人類與IA的合作關系中,人類和IA共享決策空間的混合倡議能力,但人類擁有最終的權力,在危險的時間有限的情況下,允許靈活性,同時保持人類的責任(Chen和Barnes 2015;Barnes等人2017)。在大多數情況下,不可能先驗地將每個人分配到動態環境中的特定角色,因為他們的角色可以隨著情況的變化而改變。例如,自適應Agent可以在高工作負荷的任務段中掌握決策主動權,而不需要等待操作者的許可,但在正常的操作中會將決策主動權還給操作者(Chen和Barnes 2014)。一些與任務分配有關的規定性規則可以根據任務的優先級預先設定。其他規則可能會根據情況的緊急程度而改變(例如,在時間期限過后自主擊落來襲導彈[Barnes等人,2017;Parasuraman等人,2007])。然而,在動態環境中,溝通、對意圖的理解和共同的態勢感知(SA)是有效協作的必要條件(Barnes等人,2017;Evans等人,2017;Holder,2018;Chen等人,2018)。

隨著IA復雜性的增加,有效通信的必要性也隨之增加。Cooke(2015)認為,高效的團隊合作關系更多的是取決于有效的互動,而不是擁有廣泛的共享知識庫。除了有一個共同的語言框架,每個團隊成員都必須知道什么時候向他們的伙伴推送信息,什么時候要求提供信息。因此,人類和IA不僅要有任務環境的SA,而且要有彼此角色的SA,以便在沒有公開交流的情況下回應伙伴的要求(Scherri等人,2003;Chen等人,2018)。我們討論三個主要的主題。第一個主題是對人-Agent架構的描述,以及為什么它與人-人團隊不同,強調相互透明度的重要性。接下來,我們討論了人類與人工智能(AI)系統通信所涉及的技術問題,包括多模態交互、語言限制、AI的類型以及可解釋AI(XAI)的重要性,以確保相互理解。最后,我們討論了共享意圖的重要性,以促進操作者和人工智能之間信息交互的自然節奏

付費5元查看完整內容

這項工作的目的是開發能夠成功處理復雜動態環境中順序決策的深度終身學習方法,重點是多Agent情報、監視和偵察(ISR)場景。我們為深度卷積神經網絡開發了一個新的架構,支持通過去卷積因子化的終身學習(DF-CNN),探索了通過Distral和Sobolev訓練的策略提煉的組合,并開發了一個混合控制器,將深度學習應用于ISR智能體。我們的方法在標準基準深度學習數據集、DOOM環境和ATE3模擬環境中的ISR場景中進行了評估。

我們的主要貢獻是反卷積因子卷積神經網絡(DFCNN)。DF-CNN框架調整了標準卷積神經網絡(CNN)框架,以實現任務之間的轉移。它在每個CNN層維護一個共享知識庫,并通過這個共享知識促進不同任務的CNN之間的轉移。每個具體任務的CNN模型的各個過濾層都是由這個共享知識庫重建的,隨著網絡在多個任務中的訓練,這個知識庫會隨著時間的推移而調整。DF-CNN代表了ELLA終身學習框架對深度網絡的概括。

實驗表明,DF-CNN在終身中的基準識別任務上的表現優于其他方法(包括單任務學習、低層的硬參數共享和漸進式神經網絡)。此外,該框架能夠抵抗災難性遺忘,同時仍然允許從未來的學習中反向轉移到以前學習的模型。

對于深度強化學習,我們研究了將Sobolev訓練整合到Distral多任務框架中,以努力改善轉移和訓練,探索了DF-CNN在深度RL中的應用,并開發了一個混合控制器,將本地學習的深度RL策略結合在一起,在ATE3仿真環境中完成ISR場景。

付費5元查看完整內容

摘要

本研究論文使用問題解決框架,研究了美國武器系統如何在采購生命周期的操作和支持階段陷入持續的陳舊和停滯循環,并提供了解決這種情況的方案。一些美國武器系統保持著它們最初在幾十年前投入使用時的能力。關鍵的發現,如厭惡風險的文化、系統要求低于計劃目標備忘錄的切割線、對財務指導的誤解、嚴格的維持法規、繁瑣的采購流程以及高于必要的決策,都被認為是導致根本問題的原因。這篇研究論文提出了幾個解決方案,解決了部分包容性的問題。對解決方案的整體可行性、對作戰人員的好處以及與實施相關的任何潛在風險進行了權衡。最后的建議包括鞏固和利用財務條例對作戰人員的好處,允許增加運營和維護資金的靈活性,允許在F3I重新設計中增加靈活性和性能,盡可能利用領先的商業技術,以及改變維持的心態,從保持準備狀態到保持相關性。結論強調,美國空軍在技術上落后于近似對手,高級領導人必須像對手一樣思考,以確保美國的法規不會抑制空軍比敵人更快地穿越OODA循環的能力。

引言

自朝鮮戰爭以來,美國在每次交戰中都保持著空中優勢;然而,一些跡象表明,空中優勢在未來的沖突中可能不再有保障。據報道,他們最新的S-500防空導彈系統成功擊中了近300英里外的目標。中國在過去十年中對其軍事進行了大量投資,現在已經達到了一個關鍵的自信點。

這個問題可能源于美國如何運作和資助其軍事項目。美國空軍將 "維持 "定義為維持一個武器系統的現有基線能力。任何改進武器系統超過其現有性能閾值的手段都被認為是開發工程的努力,需要從研究開發測試和評估(RDT&E)撥款中獲得資金。許多系統一旦投入使用就不會獲得RDT&E資金,通常在其生命周期的剩余時間內由運營和維護(O&M)撥款資助。由于對現行財務條例的嚴格解釋,財務經理通常會拒絕使用運營和維護資金來提高系統能力和應對不斷變化的威脅的創造性努力。這使得綜合產品小組(IPTs)沒有什么選擇,只能對他們的武器系統進行意義不大的改變,以保持它們在操作上的相關性。

美國不僅在做錯誤的財務決定,而且在做這些決定時也很緩慢。在過去的幾十年里,采購時間周期已經增加。據美國空軍高級領導人目前的估計,從授予合同到投入使用一個系統的時間超過10年。美國的對手在采購周期上的運作速度至少是其兩倍。在過去的二十年里,一些主要的國防采購項目(MDAP)已經被取消。事實上,國防部(DOD)已經在那些永遠不會投入使用的項目上花費了超過460億美元。

為了解決這個問題,新的倡議,如第804條快速采購和破解國防部5000號文件正受到相當大的關注。雖然它們不能解決撥款問題,但它們試圖縮短采購時間周期。在幾十年來成本成為采購決策的主要因素之后,速度現在被強調為主要考慮因素。使用問題/解決方案框架,本文將研究美國武器系統是如何陷入陳舊和停滯的循環中的,以及可以實施哪些解決方案來有效維持美國武器系統。

本文將首先闡明這個問題,描述綜合維持活動組(CSAG)和空軍維持中心(AFSC)內的幾個低效的供應鏈政策。然后,它將討論系統過時和對商業技術的依賴,接著是國防部緩慢的采購過程。問題部分最后將詳細分析當前的撥款限制以及美國空軍的幾個文化問題。

解決方案部分將首先定義具體的評價標準。該文件將提出幾個潛在的解決方案,以及建議的行動。然后將根據規定的標準對每個解決方案進行詳細評估,包括實施中的任何潛在風險。還將討論其他被考慮但未被推薦的解決方案。最后,本文將對問題進行快速總結,提出最終建議,以及為什么這項研究與美國空軍有關。

付費5元查看完整內容
北京阿比特科技有限公司