模擬環境中的逼真行為是必要的,尤其是在訓練模擬器的空對空戰爭中。與有限狀態機(FSM)等以前的技術相比,有了行為樹這一新框架,行為可以變得更加逼真、模塊化、靈活和可擴展。人工運算符或智能體通常是靜態構建的,這意味著一旦它們以特定方式構建,就不會改變其行為,因此在對它們進行一些練習后,就很容易預測它們的行為。即使是靜態構建的智能體,其行為也會變得非常復雜,它們必須能夠以合作的方式應對環境和其他智能體。利用新的算法和框架,這些智能體及其行為可以不斷學習新的戰術進展,并在不同的可能交戰技術之間進行切換,以挑戰人類操作員。智能體可以變得更智能、更逼真,幫助人類飛行員訓練新的戰術方法。該技術將在未來幫助設計人員看到新的模式,并創建可在多種場景中重復使用的通用行為。
在本論文中,一種名為遺傳算法(GA)和遺傳編程(GP)的人工智能技術將作為一種優化算法,用于搜索解決方案空間,并在名為戰術模擬(TACSI)的模擬環境中演化人工行為。模擬場景是兩個智能體之間的超視距(BVR)搏斗,其中對手使用靜態行為,而學習型智能體將針對靜態行為進行訓練。BVR 場景的設置是兩個智能體以相同的起始位置、高度和武器裝備(即四枚 BVR 導彈)面對面開始。學習智能體必須學習動作空間(即可用動作)和動作的工作原理,然后將其應用到狀態空間(如識別目標和發射導彈)。然后,當一個或一組解決方案滿足要求時,生成的解決方案將在新的場景設置中進行評估和測試,在新的場景設置中,位置、方向和高度都是隨機的。在新的設置中測試智能體,可以分析其適應性。
從結果中可以看出,所有解決方案都有一個缺陷,即過于被動。算法很難設計攻擊序列,但逃離和機動序列卻不難設計。每種行為的模擬測試也表明了這一點,大多數情況下都以平局告終。
第 2 節將介紹 BT 框架的歷史、包含的不同節點類型以及 BT 框架的優缺點。第 3 節將向讀者深入介紹人工智能,并介紹機器學習(Machine Learning),這是一種通過獎勵和將輸入映射到輸出來智能訓練智能體的技術。第 4 節將介紹進化計算(EC)和選擇開發的算法。所選技術稱為遺傳算法和遺傳編程。第 5 節將介紹系統架構、組件以及與 TACSI 的集成。第 6 節將展示四種不同解決方案在斗狗場景中的模擬評估。第 7 節將討論算法、框架和評估。第 8 節將介紹本論文在倫理和道德標準方面的合理性,第 9 節將介紹未來的工作。
無人戰術自主控制與協作(UTACC)系統旨在以不增加作戰人員認知負擔的方式將陸戰隊員與機器整合在一起。當機器與人類是相互依存的隊友,而不是遵循人類操作機器人的框架時,機器如何與人類交流,反之亦然?這一能力的關鍵在于將可觀察性、可預測性和可指導性納入界面設計的能力。以前的研究是從海軍陸戰隊火力小組的角度來研究這個問題的,該火力小組的成員之一就是機器人。選擇合適的界面類型來促進火力小組(無論是人類還是機器)之間的交流,對于他們能否真正發揮團隊作用和相互信任至關重要。但是,這些通信都是在隊友的近距離內進行的。如果將這一概念擴展到小分隊之外,會發生什么變化呢?本論文包括三個基本重點領域。首先,UTACC 火力小組與更高級別的軍事單位之間保持態勢感知所需的基本信息是什么?換言之,這是信息交換的 “內容”。其次,無論交換什么類型的信息,界面設計的原則是什么?最后,本論文提出了評估這些原則和具體信息交換要求的方法。
本文分為另外四章。第二章是文獻綜述,探討了人機界面(HMI)和人機協作的態勢感知模型。第三章介紹了將機器納入美國海軍陸戰隊部隊以提高任務能力的研究方法,重點是通過團隊態勢感知進行溝通和決策。第四章介紹第三章所述的研究結果。第五章總結了論文的研究成果,并為海軍陸戰隊在人機界面和機器人領域的進一步研究提出了建議。
軍事模擬既是培訓工具,也是分析手段。在訓練方面,模擬為領導者提供了一個機會,讓他們做出名義上的重大決策,并演練這些決策的后果。另外,分析性模擬還提供了一種測試能力、部隊設計和理論的反復且相對廉價的方法。鑒于所需的專業知識和數據,通過腳本或模仿學習的方式為大規模作戰模擬實施人工智能(AI)似乎令人生畏;然而,最近業界在強化學習方面取得的成功,開發出了能玩商業電子游戲的人工智能,這提供了一條令人興奮的前進道路。多模型方法與強化學習相結合,在行動空間和可擴展性方面相對簡單,因此在軍事模擬中具有巨大潛力。多模型方法不使用結構復雜的組合式行動空間進行強化學習,而是使用下級人工智能模型作為智能體的行動空間,有效地委托下級行動決策。本研究提供了強化學習(RL)多模型和分級多模型的概念驗證,分級多模型是一種利用軍事單位固有分級結構的多模型類型。此外,本文還展示了時間抽象和方向變換器的應用如何提高分層多模型的性能。
空對空作戰背景下的戰斗識別(CID)是一項高度復雜的認知任務,要求操作員迅速做出后果嚴重的決策。為了完成 CID 任務,戰斗機機組人員必須在建立態勢感知(SA)和執行其他任務的同時注意和感知大量信息。雖然現有的智能體可以幫助戰斗機機組人員完成這項 CID 任務,但它們是針對整個任務中非常狹窄的子集而設計的,不太適合人類與智能體的協同工作。對人類操作員和支持該任務的智能體的相互依存關系進行的分析表明,“觀察-方向-決定-行動”(OODA)循環中的 “方向 ”步驟對提高 CID 任務執行的可靠性或效率最有影響。通過建模對現有系統架構中的 CID 任務進行了研究,以了解在此任務中加強人類-智能體團隊設計的潛在改進措施。更具體地說,探索了主觀邏輯,將其作為提高多智能體界面可觀察性的一種可能手段,以支持 CID 用例中的決策制定。這種方法已被納入模型,以展示其潛在的實用性。初步研究結果表明,應進一步研究主觀邏輯,以了解這一工具對提高國防部門未來系統中多智能體系統性能的影響。
荷蘭的 "智能強盜"(Smart Bandits)項目旨在開發計算機生成部隊(CGF),展示逼真的戰術行為,從而提高戰斗機飛行員模擬訓練的價值。雖然該項目的重點是展示空對空任務中的對抗行為,但其成果在模擬領域的應用更為廣泛。
傳統的 CGF 行為受腳本控制,腳本規定了特定事件發生時的預定行動。腳本的使用存在一些缺陷,例如,在考慮整個任務場景時,腳本的復雜性較高,而且腳本化的 CGF 往往會表現出僵化和不切實際的行為。為了克服這些缺點,需要更復雜的人類行為模型,并結合最先進的人工智能(AI)技術。智能強盜項目探索了應用這些人工智能技術的可能性。
本文介紹了在理論行為模型與用于戰斗機訓練的 CGF 實際應用之間架起橋梁的主要架構。測試 CGF 的訓練環境由四臺聯網的 F-16 戰斗機模擬器組成。這種設置能夠為飛行員提供與敵方戰斗機編隊(以智能 CGF 的形式)作戰的實驗性訓練。該架構具有通用性,可以滿足各種人類行為模型的需要,這些模型在人工智能技術的使用、認知的內部表示以及學習能力等方面都存在概念上的差異。基于認知理論(如態勢感知理論、心智理論、直覺和驚訝)的行為模型和基于機器學習技術的行為模型實際上都嵌入了該架構。
在模擬器中對戰斗機飛行員進行戰術訓練已得到廣泛應用。戰術訓練的一個基本特征是除受訓者外還有其他參與者。這些參與者可以是隊友(如編隊中的其他戰斗機)、支援部隊(如前方空中管制員)、中立部隊(如平民)或敵方部隊(如對手戰斗機)。在模擬中,這些參與者的角色可以由人類、半自動化部隊(SAF)或 CGF 來扮演。半自動化部隊具有執行與角色相關任務的某些功能,例如一個人可以控制多個虛擬實體。然而,使用人類專家參與戰術模擬可能既不符合成本效益,在操作上也不有效。首先,這些人類參與者是昂貴的資產。其次,由于模擬的目的并不是為他們提供培訓,他們可以用在其他地方。因此,由 CGF 來扮演這些角色更為有效,只要這些 CGF 能夠以適當的方式扮演這些角色。
然而,目前最先進的 CGF 由于其行為簡單,在許多情況下并不能滿足戰術訓練的目的。除了上述的 SAF 外,CGF 行為還可分為四類(Roessingh、Merk & Montijn,2011 年):
2)刺激-反應(S-R)行為,即 CGF 在對來自環境的特定刺激或輸入做出反應時,始終表現出一致的行為;例如,當可以持續觀察飛機位置時,這種 CGF 能夠攔截飛機。
延遲響應(DR)行為,在這種行為中,CGF 不僅要考慮當前環境中的一組刺激,還要考慮存儲在 CGF 記憶中的以前時刻的刺激。這樣的 CGF 可以通過記憶以前的位置來攔截飛機,即使無法持續觀察到這架飛機。
基于動機的行為,這種 CGF 結合了 S-R 和 DR 行為,但還考慮了其動機狀態。這些動機狀態是內部過程的結果,可能代表目標、假設、期望、生物和情感狀態。例如,這樣的 CGF 可以假設目標飛機燃料不足,將返回基地。因此,CGF 可能決定放棄攔截。另一種情況是,飛行情報組可能預計飛機會改變航線,并決定在更有利的位置攔截飛機。
迄今為止,CGF 的一個特征尚未納入討論范圍,那就是學習行為或適應行為(Russell 和 Norvig,2003 年)。CGF 的行為表現可以是 S-R、DR 或基于動機的行為,可以在機器學習(ML)的基礎上進行擴展,使其具有適應這種行為的能力。通過 ML 技術,可以開發出更適合受訓者專長的 CGF。此外,ML 技術還能避免費力地制定一套規則(例如 "if-then 規則"),這些規則需要針對每個要解決的具體問題或情況進行推導,而推導的基礎是對操作專業知識的人工誘導,這些專業知識在很大程度上是隱含的,不能簡單地用邏輯規則來解釋。
本文旨在說明智能匪幫項目(2010-2013 年)中智能 CGF 的開發情況。該項目旨在為模擬任務場景中出現的 CGF 植入類似人類的智能。荷蘭國家航空航天實驗室(NLR)和荷蘭皇家空軍(RNLAF)希望通過 "智能強盜 "項目在模擬戰術戰斗機飛行員訓練領域邁出重要一步。本文的中心思想是,認知建模是在 CGF 中創建基于動機的行為的有力手段。然而,為了減少認知建模的缺點,我們提倡額外使用多重學習技術。這些技術對于減少在復雜領域開發智能體時的知識汲取工作至關重要。我們展示了如何將不同的方法結合到混合模型中。
像 GPT-3 這樣的大型語言模型 (LLM) 在國防領域有著廣泛的潛在應用。以下是LLM在國防相關領域的一些應用方式:
大型語言模型可用于識別社交媒體數據中可能與國家安全相關的模式和趨勢。例如,它們可用于監控社交媒體平臺,以發現動亂或政治不穩定的跡象。
大型語言模型還可用于分析各種來源的新聞文章,以識別新出現的威脅和趨勢。例如,它們可用于監控新聞文章,以發現恐怖活動或網絡攻擊的跡象。
大型語言模型還可用于分析政府報告和其他官方文件,以識別潛在威脅和趨勢。例如,它們可用于分析情報機構或軍事組織的報告,以識別新出現的威脅。
大型語言模型還可用于生成這些數據的報告和摘要,幫助決策者更輕松地理解信息。例如,它們可用于生成每日或每周報告,介紹可能與國家安全相關的新興威脅和趨勢。
加固網絡物理資產既重要又耗費人力。最近,機器學習(ML)和強化學習(RL)在自動化任務方面顯示出巨大的前景,否則這些任務將需要大量的人類洞察力/智能。在RL的情況下,智能體根據其觀察結果采取行動(進攻/紅方智能體或防御/藍方智能體)。這些行動導致狀態發生變化,智能體獲得獎勵(包括正獎勵和負獎勵)。這種方法需要一個訓練環境,在這個環境中,智能體通過試錯學習有希望的行動方案。在這項工作中,我們將微軟的CyberBattleSim作為我們的訓練環境,并增加了訓練藍方智能體的功能。報告描述了我們對CBS的擴展,并介紹了單獨或與紅方智能體聯合訓練藍方智能體時獲得的結果。我們的結果表明,訓練藍方智能體確實可以增強對攻擊的防御能力。特別是,將藍方智能體與紅方智能體聯合訓練可提高藍方智能體挫敗復雜紅方智能體的能力。
由于網絡威脅不斷演變,任何網絡安全解決方案都無法保證提供全面保護。因此,我們希望通過機器學習來幫助創建可擴展的解決方案。在強化學習的幫助下,我們可以開發出能夠分析和學習攻擊的解決方案,從而在未來防范類似威脅,而不是像商業網絡安全解決方案那樣簡單地識別威脅。
我們的項目名為MARLon,探索將多智能體強化學習(MARL)添加到名為CyberBattleSim的模擬抽象網絡環境中。這種多智能體強化學習將攻擊智能體和可學習防御智能體的擴展版本結合在一起進行訓練。
要在CyberBattleSim中添加MARL,有幾個先決條件。第一個先決條件是了解CyberBattleSim環境是如何運行的,并有能力模擬智能體在做什么。為了實現這一點,該項目的第一個目標是實現一個用戶界面,讓用戶看到環境在一個事件中的樣子。
第二個先決條件是為CyberBattleSim添加MARL算法。目前CyberBattleSim的表Q學習和深Q學習實現在結構上無法處理這個問題。這是因為CyberBattleSim實現的表Q學習和深Q學習不符合適當的OpenAI Gym標準。因此,需要添加新的強化學習算法。
當前的防御者沒有學習能力,這意味著要啟用多智能體學習,防御者需要添加以下功能:添加使用所有可用行動的能力,將這些行動收集到行動空間,實現新的觀察空間,并實現獎勵函數。
最后,為了增加MARL,新創建的攻擊者算法和新的可學習防御者必須在同一環境中組合。這樣,兩個智能體就可以在相互競爭的同時進行訓練。
戰斗機飛行員通常使用模擬器來練習他們需要的戰術、技術和程序。訓練可能涉及計算機生成的力量,由預定的行為模型控制。這種行為模型通常是通過從有經驗的飛行員那里獲取知識而手工制作的,并且需要很長的時間來開發。盡管如此,這些行為模型由于其可預測性和缺乏適應性而通常是不夠的,教官必須花時間手動監測和控制這些力量的各個方面。然而,最近人工智能(Al)研究的進展已經開發出能夠產生智能代理的方法,在復雜的游戲(如圍棋和《星際爭霸II》)中擊敗人類專家玩家。
同樣,人們可以利用人工智能的方法來組成空戰的高級行為模型,使教官能夠更專注于飛行員的訓練進展,而不是手動控制他們的對手和隊友。這種智能行為必須表現得逼真,并遵循正確的軍事理論,以證明對飛行員訓練是有用的。實現這一目標的一個可能方法是通過模仿學習,這是一種機器學習(ML)類型,代理學習模仿專家飛行員提供的例子。
本報告總結了使用模仿學習技術優化空戰行為模型的工作。這些行為模型被表述為控制計算機生成的部隊的行為轉換網絡(BTN),由下一代威脅系統(NGTS)模擬,這是一個主要針對空域的軍事模擬應用。遺傳算法Neuroevolution of Augmenting Topologies (NEAT)的一個改編版本優化了BTNs,使其行為與飛行員行為的演示相似。與大多數ML方法一樣,NEAT需要許多連續的行為模擬來產生滿意的解決方案。NGTS不是為ML目的而設計的,因此圍繞NGTS開發了一個系統,該系統自動處理模擬和數據管理并控制優化過程。
進行了一組實驗,其中開發的ML系統對BTN進行了優化,以模仿三個簡單空戰場景中的例子行為。實驗表明,NEAT的改編版本(BTN-NEAT)產生的BTN能成功地模仿簡單的示范行為。然而,優化過程需要相當長的時間,計算時間長達44小時或模擬飛行時間為92天。緩慢的優化主要是受NGTS不能快速運行同時保持可靠的影響。這個可靠性問題是由NGTS缺乏時間管理造成的,它可以將代理人的狀態與模擬時間戳聯系起來。為了在更復雜的場景和演示中實現成功的行為優化,人們應該在高可靠性的前提下以比實時快得多的速度模擬行為。因此,我們認為NGTS并不適合于未來的ML工作。相反,需要一個為ML目的設計的輕量級空戰模擬,能夠快速可靠地運行。
戰斗機飛行員通過嚴格的訓練學習并保持他們的戰術技能。相當多的訓練是以模擬為基礎的,在訓練中,受訓者面對友軍和敵軍,他們的行為最好能加速訓練并建立起理想的能力。計算機生成的部隊(CGFs),是自主的、計算機控制的實體,被用來扮演這些友軍和敵軍的角色。理想情況下,在基于模擬的訓練中使用CGF應該提供一些好處,如增加飛行員的訓練可用性,減少訓練中對主題專家(SME)的需求。然而,手動模擬CGF的行為,使其對教學作用有足夠的代表性,這是很繁瑣的,而且已被證明具有挑戰性。因此,目前手工制作的行為模型往往是可預測的,不能適應新的情況或在軍事理論、戰術、技術和程序(TTP)方面表現得很真實。在基于模擬的空戰訓練中保持真實的體驗對于確保受訓者獲得必要的技能至關重要。然而,由于CGF的表現和行為被認為是不足的,中小企業往往在訓練中對CGF進行微觀管理,這是不幸的,因為中小企業的成本很高,他們的時間很寶貴,而且數量有限。
人工智能研究的最新進展已經開發出能夠產生智能代理的方法,在復雜的游戲中擊敗人類專家玩家,如圍棋[1]和星際爭霸II[2]。隨著這些進展,學習用于空戰的指導性和適應性代理行為已成為一個越來越受關注的研究領域。然而,為了發揮作用,飛行員模擬的對手和盟友的行為必須是真實的,并符合軍事理論,而不是,例如,試圖不惜一切代價贏得交戰。該研究領域的一些貢獻集中在強化學習方法上,并且已經顯示出一些有希望的結果。然而,即使仔細設計目標函數,強化學習代理也有可能學習到用于飛行員訓練的次優政策,這意味著他們的行為與根據既定理論和TTP所期望的不同。另一種方法是向ML算法提供專家示范,從中提取飛行員的具體知識,并將其納入代理人使用的行為模型。據我們所知,在空戰領域,很少或沒有先前的研究探討過這種方法。
本報告介紹了基于達爾文自然選擇原則的模仿學習算法被用來產生以行為轉換網絡(BTNs)表示的空戰行為模型。雖然BTNs已經出現在之前使用強化學習的空戰行為建模的相關工作中,但這項工作研究了BTNs是否適合模仿學習。下一代威脅系統(NGTS)被用來模擬BTNs,并進行了評估以考慮該模擬系統對機器學習(ML)的適用性。已經開發了一個ML系統,包括使用NGTS和選定的學習算法成功生產空中戰斗機代理所需的工具和方法。這個ML系統自動處理模擬和數據管理并控制學習算法。簡單的空戰場景被定義,并在使用該ML系統進行的一系列實驗中使用,在這些實驗中產生了反映示范飛行員行為的BTN。
為了限制這項工作的范圍,我們做了一些限定。開發的ML系統不是生產級的,而是一個概念驗證。因此,實驗中使用的場景和試點演示保持簡單。具體來說,這些都是一對一的場景,演示僅限于二維空間的運動。此外,行為演示是基于報告作者手工制作的BTN,而不是由專業飛行員制作的。
本報告是為從事軍事訓練和人工智能相關課題的研究人員準備的,最好具有空戰和行為建模的知識,其組織結構如下。第2章介紹了工作的背景,包括與空戰訓練和模擬有關的概念、人工智能理論和相關工作。第3章涵蓋了實驗中使用的選定的學習算法及其配置,而第4章介紹了構成ML系統的過程和工具。第5章和第6章通過定義空戰場景和行為演示來回顧實驗的設置和執行,并介紹了結果。第7章討論了這些結果,以及ML系統和NGTS的性能。第8章本報告的總結和對未來工作的思考。
圖5.2 第一個場景的總結: 逃亡。CGF從它們的初始位置向對方飛去。一旦藍色飛機進入紅色飛機的導彈射擊范圍內,紅色飛機就會轉身向相反方向逃離。
在決策或推理網絡中進行適當的推理,需要指揮官(融合中心)對每個下屬的輸入賦予相對權重。最近的工作解決了在復雜網絡中估計智能體行為的問題,其中社會網絡是一個突出的例子。這些工作在各種指揮和控制領域具有相當大的實際意義。然而,這些工作可能受限于理想化假設:指揮官(融合中心)擁有所有下屬歷史全部信息,并且可以假設這些歷史信息之間具有條件統計獨立性。在擬議的項目中,我們打算探索更普遍的情況:依賴性傳感器、(可能的)依賴性的未知結構、缺失的數據和下屬身份被掩蓋/摻雜/完全缺失。對于這樣的動態融合推理問題,我們建議在一些方向上擴展成果:探索數據源之間的依賴性(物理接近或 "群體思維"),在推理任務和量化不一定匹配的情況下,采用有用的通信策略,甚至在每個測量源的身份未知的情況下,采用無標簽的方式--這是數據關聯問題的一種形式。
我們還認識到,對動態情況的推斷是關鍵目標所在。考慮到一個涉及測量和物理 "目標 "的傳統框架,這是一個熟悉的跟蹤問題。但是,來自目標跟蹤和多傳感器數據關聯的技術能否應用于提取非物理狀態(物理狀態如雷達觀察到的飛機)?一個例子可能是恐怖主義威脅或作戰計劃--這些都是通過情報報告和遙測等測量手段從多個來源觀察到的,甚至可能被認為包含了新聞或金融交易等民用來源。這些都不是標準數據,這里所關注的動態系統也不是通常的運動學系統。盡管如此,我們注意到與傳統的目標追蹤有很多共同點(因此也有機會應用成熟的和新興的工具):可能有多個 "目標",有雜波,有可以通過統計學建模的行為。對于這種動態系統的融合推理,我們的目標是提取不尋常的動態模式,這些模式正在演變,值得密切關注。我們特別建議通過將雜波建模為類似活動的豐富集合,并將現代多傳感器數據關聯技術應用于這項任務,來提取特征(身份)信息。
研究的重點是在具有融合觀測的動態系統中進行可靠推理。
1.決策人身份不明。在作戰情況下,融合中心(指揮官)很可能從下屬那里收到無序的傳感器報告:他們的身份可能是混合的,甚至完全沒有。這種情況在 "大數據 "應用中可能是一個問題,在這種情況下,數據血統可能會丟失或由于存儲的原因被丟棄。前一種情況對任務1提出了一個有趣的轉折:身份信息有很強的先驗性,但必須推斷出身份錯誤的位置;建議使用EM算法。然而,這可能會使所有的身份信息都丟。在這種情況下,提出了類型的方法來完成對局部(無標簽)信念水平和正在進行的最佳決策的聯合推斷。
2.動態系統融合推理的操作點。在以前的支持下,我們已經探索了動態事件的提取:我們已經開發了一個合理的隱馬爾科夫模型,學會了提取(身份)特征,有一個多伯努利過濾器啟發的提取方法 - 甚至提供了一些理論分析。作為擬議工作的一部分,將以兩種方式進行擴展。首先,打算將測量結果作為一個融合的數據流,這些數據來自必須被估計的未知可信度的來源。第二,每個這樣的信息源必須被假定為雜亂無章的 "環境 "事件(如一個家庭去度假的財務和旅行足跡),這些事件雖然是良性的,可能也不復雜,但卻是動態的,在某種意義上與所尋求的威脅類似。這些必須被建模(從數據中)和抑制(由多目標追蹤器)。
3.數據融合中的身份不確定性。當數據要從多個來源融合時,當這些數據指的是多個真相對象時,一個關鍵的問題是要確定一個傳感器的哪些數據與另一個傳感器的哪些數據相匹配:"數據關聯 "問題。實際上,這種融合的手段--甚至關聯過程的好方法--都是相當知名的。缺少的是對所做關聯的質量的理解。我們試圖提供這一點,并且我們打算探索傳感器偏差和定位的影響。
4.具有極端通信約束的傳感器網絡。考慮由位置未知、位置受漂移和擴散影響的傳感器網絡進行推理--一個泊松場。此外,假設在這樣的網絡中,傳感器雖然知道自己的身份和其他相關的數據,但為了保護帶寬,選擇不向融合中心傳輸這些數據。可以做什么?又會失去什么?我們研究這些問題,以及評估身份與觀察的作用(在信息論意義上)。也就是說,假設對兩個帶寬相等的網絡進行比較;一個有n個傳感器,只傳輸觀察;另一個有n/2個傳感器,同時傳輸數據和身份。哪一個更合適,什么時候更合適?
5.追蹤COVID-19的流行病狀況。誠然,流行病學并不在擬議研究的直接范圍內,但考慮到所代表的技能以及在目前的健康緊急情況下對這些技能的迫切需要,投機取巧似乎是合理的。通過美國和意大利研究人員組成的聯合小組,我們已經證明,我們可以從當局提供的每日--可能是不確定的--公開信息中可靠地估計和預測感染的演變,例如,每日感染者和康復者的數量。當應用于意大利倫巴第地區和美國的真實數據時,所提出的方法能夠估計感染和恢復參數,并能很準確地跟蹤和預測流行病學曲線。我們目前正在將我們的方法擴展到數據分割、變化檢測(如感染人數的增加/減少)和區域聚類。
由于多種因素的影響,自動機器學習(AutoML)這些年一直在快速發展,數據科學家需要創建機器學習管道原型來決定如何進行解決,并為非專業人士提供解決方案。已經創建了一些AutoML框架,但它們受到能解決的問題類型、機器學習原語的數量、管道表示語言和嚴格數據描述的限制。這些限制大多是由相當大的工程量造成的。D3M項目旨在擴大AutoML的范圍,提供創建AutoML系統所需的工具,使其能夠解決超出大部分框架的問題類型,并為用戶提供工具,使機器學習工具不需要太多的專業知識。此外,該項目還致力于實現AutoML組件的標準化,以便對不同的框架進行公平的比較,并通過開源共享該項目期間創建的基礎設施來幫助研發界改善該領域。
本文在D3M上的工作主要集中在兩個方面:在D3M小組內創建標準化AutoML工具,以及創建具有不同目的的AutoML系統和框架。在這份報告中,將介紹對該項目的主要貢獻以及AutoML系統的演變。在該項目中,創建了評估AutoML系統的工具,開發了三個AutoML系統,開發了被多個系統廣泛使用的原型,設計了測試原型的自動化框架,并通過創建AutoKeras對AutoML研發界產生了巨大影響。
模擬真實的人類行為,包括決策和創造力,是戰斗模擬中最難和最復雜的挑戰。行為樹(BTs)是一種相對較新的、越來越流行的為人工智能(AI)和智能代理開發行為模型的方法。這種方法在為計算機游戲中的非玩家角色(NPC)、機器人和自動駕駛汽車創建行為模型方面變得特別流行。
BTs被表示為具有控制流節點和任務節點的層次結構的有向樹,這些節點控制著一個代理的行為。使得BT如此強大的原因是其可組合性和模塊化。任務節點和控制流節點被組成子樹,代表更復雜的行動,這些行動可以被組成更高級別的行為。
在本文中,我們將根據現有文獻對BTs進行介紹,并討論在戰斗模擬中采用這種建模技術為計算機生成的部隊(CGF)創建行為模型的可能性和局限性。此外,我們將給出一個具體的例子,說明如何從戰斗演習的文本描述中創建一個BT,并提供如何創建BT的一般技巧和竅門。最后,我們將總結我們在BT方面的工作經驗。