亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本論文介紹了在 Atlatl 模擬環境中設計、實施和測試人工智能 STOMp(短期優化機動)的情況。通過四個系列實驗,STOMp 的有效性在與各種已有人工智能對手的較量中得到了檢驗。第一個實驗表明,STOMp 的性能比大多數人工智能對手都有持續的提高。STOMp 必須在瞄準對方部隊與確保地形之間做出關鍵選擇。第二個實驗對參數進行了優化,揭示了在不同場景下性能最穩定的算法參數。第三個實驗重點關注其機動能力,強調其比競爭人工智能更有效地穿越障礙的能力,并展示其在不同環境中的機動性。最后,第四項實驗檢驗了它在一個特別構建的場景中的決策過程,在這個場景中,需要在戰場的不同區域同時做出相反的決策,從而展示了它評估局部優勢和做出戰術決策的能力,從而提高了它的生存能力和戰斗力。結果強化了 STOMp 算法,并使人們深入了解了該算法的優勢和局限性。總之,研究結果驗證了 STOMp 是一種適用于軍事模擬的有能力的人工智能。這項研究有助于為軍事模擬開發有效的人工智能。

論文結構如下: 第 1 章簡要介紹了本研究的背景和基本原理。第 2 章探討了過去和當前的戰斗模擬研究。第 3 章深入探討 STOMp 的技術方面,包括其啟發式評估功能和本論文所做各項實驗的目標。第 4 章介紹了實驗結果和主要發現。最后,第 5 章對論文進行了總結,總結了研究成果,并提出了未來研究的潛在改進領域。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)通過提供決策建議和與問題相關的信息來協助人類決策者,具有改善人類決策的潛力。然而,要充分發揮人類與人工智能協作的潛力,仍然面臨著一些挑戰。首先,必須了解支持互補性的條件,即人類在人工智能輔助下的表現超過無輔助的人類或單獨的人工智能的情況。這項任務要求人類能夠識別出應該利用人工智能的情況,并開發出能夠學習補充人類決策者的新型人工智能系統。其次,需要準確評估人類對人工智能的心理模型,其中既包括對人工智能的期望,也包括依賴策略。第三,需要了解不同的人機交互設計選擇所產生的影響,包括人工智能輔助的時機以及應該向人類決策者展示的模型信息量,以避免認知超載和無效的依賴策略。針對這三大挑戰,將基于最新的經驗和理論研究成果提出跨學科觀點,并討論新的研究方向。

表 1: 本文研究的人工智能輔助決策的現實世界實例及相關挑戰

過去十年來,人工智能(AI)越來越多地被用于在各個領域協助人類。現在,簡單的任務都可以通過 Siri 和 Alexa 等數字人工智能助手實現自動化。人們依靠高級駕駛輔助系統(ADAS)來改善駕駛體驗。媒體平臺上的推薦系統提供個性化播放列表,其中既有用戶喜愛的內容,也有他們可能喜歡的新內容。將人工智能融入日常生活,有望節省人力,避免人類決策的盲點,并有可能挽救生命。然而,人類與人工智能的合作也面臨著許多挑戰。已部署的人工智能系統因傳播系統性偏見(Raji & Buolamwini, 2019; Gebru, 2020)、對訓練數據之外的示例概括能力差(Shen 等人,2021)以及以犧牲用戶福祉為代價優化用戶參與度等問題而受到公眾監督。這些問題源于這些人工智能系統與人類用戶的目標和價值觀不一致(Christian,2020;Gabriel,2020)。要創建符合人類價值觀和期望的人工智能,需要指定反映人類價值觀的效用函數,而這仍然是一個挑戰。就目前的形式而言,人工智能無法獨立做出對人類來說準確、可接受和公平的決策。因此,在做出決策時,除了人工智能的計算之外,還必須考慮人類決策者(DM)的專業知識和反饋。

本文將重點關注與人工智能輔助決策相關的一系列挑戰,即人工智能以預測和/或解釋的形式向做出最終決策的人類決策者提供幫助。例如,人工智能系統已被開發用于協助專家進行臨床診斷(Rajpurkar 等人,2020 年;Sayres 等人,2019 年)、金融(Bussmann 等人,2021 年)和司法(Grgic′-Hlacˇa 等人,2019 年)決策以及預測(Benjamin 等人,2023 年)。關于人工智能輔助決策的文獻越來越多,涉及多個學科和研究領域,包括人機交互(HCI)、人工智能和機器學習以及心理學(Lai 等人,2021 年)。

沒有對這些文獻進行系統性的回顧,而是綜合了已經出現的一些見解,并將重點完全放在人工智能輔助決策的性能相關方面。具體來說,研究了人工智能協助人類管理者完成獨立任務時影響決策準確性的三大挑戰。首先,討論了開發能夠補充人類管理者能力的人工智能的必要性。當熟練的人工智能助手融入決策過程時,人類必須充分了解人工智能的能力和制約因素。其次,強調人類對人工智能精確心智模型的重要性。只有當人知道如何利用這種支持來提高人類-人工智能團隊的績效時,人工智能輔助才能充分發揮其潛力。第三,討論了在人類與人工智能協同工作的不同工作流程中開發有效的人機交互方法所面臨的挑戰。這涉及確定何時提供人工智能協助和提供哪些信息,以及考慮人工智能系統適應人類認知局限性的需要。認為,認知建模有助于了解有效使用人工智能信息所面臨的障礙。表 1 結合現實世界中的例子討論了這三個挑戰,包括臨床決策支持、信用評估和高級駕駛輔助系統,在這些系統中,人工智能輔助決策正逐漸成為常態。

針對每項挑戰,都會深入探討在經驗和理論方面正在進行的跨學科研究。此外,還將提出有助于更有效地應對這些挑戰的未來研究方向。

挑戰 1:了解人類與人工智能互補性的決定因素

人類經常在兩個或更多人的小組中討論問題,并能取得比小組中任何一個人都高的成績(Kameda 等人,2022 年)。此前對人類協作工作的研究表明,績效的提高往往是由于小組成員之間的分工互補(Stasser & Abele, 2020)。將人工智能引入以前只有人類參與的工作流程,就是為了實現這一目標,即通過利用人類 DM 和人工智能的互補優勢來提高決策的準確性。至少,我們希望人工智能輔助下的人類能比無人輔助下的人類表現得更好(或至少不會更差)。許多研究之所以能夠達到這一基準,主要是因為這些研究涉及的情況是,人工智能向人類提供人工智能建議,而人工智能所表現出的準確性要高于僅靠人類的表現(Zhang 等人,2020 年;Vodrahalli 等人,2020 年)。在這種情況下,人類可以采用簡單的啟發式方法,即始終遵循人工智能的建議來提高性能。然而,這種情況提出了一個問題:在缺乏相關倫理和法律考慮的情況下,人類為什么要參與決策過程?當人工智能的輔助性能不僅超過了無輔助的人類性能,而且還超過了人工智能本身的性能時,就會出現一種更令人信服的情況。這種情況被稱為互補性(Bansal、Wu 等人,2021 年;Steyvers 等人,2022 年),表明人類與人工智能的表現優于人類或人工智能單獨的表現。盡管一些研究顯示,在人類與人工智能的綜合表現超過人工智能或人類單獨表現的情況下,結果很有希望(Bansal、Wu 等人,2021 年;Tejeda 等人,2022 年),但其他研究表明,人類 DM 對這種表現沒有貢獻,而人工智能單獨行動會帶來更好的表現。

要了解人工智能輔助決策在什么條件下會產生互補性,區分可能無法實現互補性的兩種不同原因是很有幫助的。首先,重要的是要了解人類 DM 和人工智能可以獨立貢獻哪些信息,以及這些信息能否(理論上)導致互補。例如,Steyvers 等人(2022 年)指出了分類領域互補性的一些一般條件。調查重點是成對的分類器:人類-人類、混合人類-人工智能和人工智能-人工智能(特別是兩種不同的機器分類器)對。研究結果表明,人類-人工智能混合對(將人類預測與不同程度的人工智能精確預測相結合)的性能可以超過人類-人類或人工智能-人工智能對。只要人類和人工智能預測的準確性差距保持在一個特定的閾值以下,就能實現這種優異的性能。這個閾值取決于潛在的相關性,即人類和人工智能預測之間的獨立程度。當人類和人工智能預測之間的相關性較低時,將高準確度人工智能的預測與準確度較低的人類的預測(或反之亦然)合并,仍然可以獲得比一對人類或一對人工智能更優越的性能。同樣,對人類群體決策的研究表明,當群體由認知不同的個體組成時,個體預測的統計組合可帶來準確的群體績效,從而產生不相關的預測。

在人工智能增強決策的情況下,最終預測不是通過統計手段得出的,而是人類 DM 內部認知過程的結果,人類 DM 必須將人工智能預測與自己的獨立信息相結合。理想的情況是,在人工智能比較準確的問題上,人類依靠人工智能,而在人工智能不太準確的情況下,人類依靠自己的判斷。為了確保適當的依賴,幫助人類正確識別人工智能能力互補的區域至關重要。這可以通過提供人工智能信心或解釋來實現,以幫助人類更好地理解人工智能的決策。當互補性的本質易于人類識別時,人類就能做出適當的依賴決策(Q. Zhang 等人,2022 年)。然而,目前還不完全清楚人類管理者能否更普遍地利用互補性的潛力。因此,互補性可能會失敗,因為盡管存在互補性的潛力,但由于次優的依賴決策,DM 無法實現互補性。

另一種情況是,互補性可能會失敗,因為從統計學的角度來看,互補性的潛力從未存在過(例如,人類和人工智能之間的性能差異可能足夠大,而且相關性過強),在這種情況下,即使人類 DM 做出了最佳的依賴決策,也不會產生互補性。確定互補性成功或失敗的方法之一,是觀察由人類 DM 做出最終決策的范例和將人類和人工智能的獨立決策統計合并為最終決策的范例中的性能差異。然而,在人類 DM 做出最終決策的情況下,依靠外部統計匯總器來識別和利用人工智能的互補性并不是一個可行的解決方案。正如我們在 “挑戰 2 ”中所討論的,重要的是要讓人類管理者有能力為其人工智能助手建立適當的心智模型,這樣他們就可以利用人工智能的互補能力。人類是否有效利用了人工智能提供的信息?

  • 提高人類與人工智能的互補性

必須開展更多的研究,以更好地了解促成人類-人工智能互補性的因素,并開發促進互補性的新方法。在人工智能研究方面,新開發的人工智能系統考慮到了人類是決策過程的一部分這一事實(Bansal、Nushi、Kamar、Horvitz 等人,2021 年;De 等人,2020 年;Wilder 等人,2021 年)。這些人工智能系統經過訓練,可在人類利用人工智能促進決策時優化預期的聯合表現。在心理學方面,有必要開展更多研究,以了解人工智能預測的獨立程度如何影響人類決策。在人類團隊中,團隊成員之間一定程度的認知多樣性對團隊績效有積極的促進作用,但研究人員假設,過度的認知多樣性可能會對團隊成員之間的交流產生負面影響,從而導致團隊績效不理想(Aggarwal 等人,2015 年)。同樣,雖然人類和人工智能預測之間的獨立性有助于互補,但與人類預測差異過大的人工智能預測可能不會被認為有用(Grgic′-Hlacˇa 等人,2022 年)。因此,有必要開展更多研究,以了解可能阻礙人類 DMs 有效利用人工智能預測的心理限制。

挑戰 2:了解人類對人工智能的心理模型

有效使用人工智能輔助工具的一個重要決定因素是相關人工智能的人類心智模型,其中包含一個人對人工智能的信念集合,以及對與人工智能互動效果的預期。一般來說,心智模型是人類構建的對世界的簡化表述,使他們能夠整合新信息并進行預測,同時只需花費很少的腦力(Craik,1952 年;Smyth 等人,1994 年)。因此,人工智能的心智模型越準確,人工智能就越有可能被正確使用(Bansal 等人,2019 年)。同樣,不完整和/或不正確的人工智能心智模型也可能導致人工智能的無效使用。這種不正確的心理模型可能會導致對人工智能不恰當的依賴或錯誤的信任。我們認為,深入了解人們對人工智能的心理模型有助于設計工作流程,幫助人類制定適當的依賴策略,從而提高團隊績效。

關于人們對人工智能的心智模型的研究表明,人們對人工智能有各種各樣的概念。為了組織和理解這些實證結果,我們區分了在人們實際體驗相關人工智能之前就已經形成的人工智能心智模型,這種心智模型主要是由先前的信念驅動的,以及這些模型與人類為其他人類建立的模型相比有何不同。我們還討論了人們的人工智能心智模型是如何通過與人工智能的互動體驗而形成的。

總體而言,這些實證結果表明,人們對人工智能的心智模型取決于他們對相關人工智能的熟悉程度,以及他們對其依賴決策結果的熟悉程度。如果人們對人工智能的表現比較熟悉,但對自己決定委托或依賴人工智能建議的后果并不熟悉,那么他們的心智模型可能是不完整的,可能不能準確地代表人工智能相對于自己的不同能力。也許他們對人工智能的心理評估在暴露于人工智能不可避免的錯誤之后(正確地)被降級了,但卻沒有正確地反映出這樣一個事實,即他們自己在試圖解決同樣的問題時可能并沒有表現得更好,事實上,他們在這種情況下可能表現得更差。然而,人們被告知其依賴決定的后果的研究結果表明,人們會建立更豐富的人工智能心智模型,從而在依賴自己的決定還是人工智能的決定方面具有靈活性。其他因素,如人工智能和當前決策任務的復雜性,也可能影響心智模型的忠實性。一些實驗室任務側重于相對簡單的行為任務,可能不需要大量的學習來開發有效的依賴策略。然而,在復雜的工業系統或與較高自動化水平相關的軍事應用中,DM 可能無法完全理解系統是如何工作的,因此可能會采用簡單化的策略,如不加區分地依賴人工智能(Cummings,2017)。

  • 改進心智模型評估

要了解人們對人工智能的心智模型,需要在幾個方向上開展新的研究。首先,目前人們對人工智能信念的長期變化知之甚少(Glikson & Woolley, 2020)。必須進行縱向研究,以了解人們的心智模型隨時間的變化。這些心智模型是否會隨著時間的推移而變得更加準確?此外,認知建模等方法可用于推斷人們心智模型的潛在內容,包括他們的決策策略和信念,而這些內容無法通過行為測量直接評估(如 Chong 等人,2022 年;Tejeda 等人,2022 年)。人類與人工智能交互的心智模型編碼了人類自身能力與人工智能能力之間的感知差異,利用心理學研究中關于元認知的見解來理解人們如何估計自己的自信心(Koriat 和 Levy-Sadot,1999 年)以及自己相對于他人的表現(Moore 和 Cain,2007 年)可能會有所幫助。此外,個人與人工智能的合作有可能是由直接的學習方法引導的,如無模型強化學習,而不是由對人工智能助手能力的明確心智化引導的。還需要進一步的研究來確定,在整合人工智能的建議時,個體是形成了對人工智能的明確表征,還是依賴于基本的啟發式方法。

挑戰 3:開發與人工智能互動的有效方法

為人工智能建立準確的心智模型是人類與人工智能高效協作的關鍵。因此,開發工作流程和系統以幫助人類管理者為其人工智能隊友構建準確的心理模型至關重要。具體來說,我們考慮了影響人類 DM 使用人工智能輔助的兩種主要設計選擇:選擇何時提供人工智能輔助和選擇提供哪些信息。此外,我們還討論了自適應方法,這些方法可以調整人工智能的輸出和人與人工智能的交互,從而將人類認知的局限性考慮在內。

  • 實現自適應和交互式人工智能輔助

總體而言,經驗證據表明,提供更多有關人工智能的信息并不總能提高性能。鑒于處理人工智能建議的認知資源可能有限,特別是在時間敏感(時間不足)的情況下,人工智能必須調整其輸出(例如,通過提供適當詳細程度的解釋)。過多的信息可能不利于決策(Poursabzi-Sangdeh 等人,2021 年;Schaffer 等人,2019 年)。因此,人工智能系統的設計必須適應人類 DM 的認知局限性(Cummings,2017 年)。應該向人類 DM 提供哪些信息、何時提供以及提供多少信息,這些問題突出表明,有必要制定理論框架,以推斷人工智能輔助工具對人類認知和所觀察到的表現的影響。在可解釋人工智能(Chen 等人,2022 年)的背景下,這樣的框架已經開始出現。此外,在與人工智能合作時,可以利用心理學理論和計算模型來更好地理解人類認知(Rastogi 等人,2022 年)。例如,在必須快速做出決策或需要不同程度的腦力勞動來處理人工智能輸出結果的情況下,可以利用合理資源分配理論(Lewis 等人,2014 年;Gershman 等人,2015 年;Lieder 等人,2018 年;Lieder & Griffiths,2020 年)來識別人們何時會無視人工智能的預測,如果所感知到的收益不能證明相關的時間和腦力成本是值得的。

心理學和行為經濟學的研究長期以來一直主張通過干預或 “暗示 ”來引導人們做出決策(Thaler & Sunstein, 2018)。推導計算理論的進步(Callaway 等人,2022a;Callaway 等人,2022b)使人們能夠識別最佳決策策略和有效反饋,以指導決策。Callaway 等人(2022a)證明,人工智能助手在獲得有關人們決策過程的反饋時,可以成功地促使人們采用最佳決策策略。與此類似,最佳游戲化可以重新設計環境的獎勵結構,使人們的長期目標與短期獎勵相一致。這種方法有助于人們克服近視決策傾向,在面對連續任務時表現得更有遠見(Consul 等人,2022 年;Lieder 等人,2019 年)。人工智能輔助推導是一種強大的自適應人工智能輔助范例,它可以根據人們的能力量身定制,并能減輕長期優化的認知負荷。

最后,另一個有前途的研究方向是讓人工智能輸出更具互動性。Lakkaraju 等人(2022 年)認為交互式人工智能系統非常重要,而不是以一次性輸出的形式提供解釋。在這些系統中,人類管理者可以使用自然語言對話來詢問模型做出決定的原因,從而通過一系列互動來澄清人工智能預測。此外,交互式人工智能助手已被證明能提高用戶的接受度和信任度。例如,病理學家報告說,當他們能夠在基于內容的圖像檢索(CBIR)系統中自定義搜索時,診斷效用提高了,信任度也提高了(Cai 等人,2019 年)。允許與人工智能助手進行交流和互動可以提高人們對系統的理解。

付費5元查看完整內容

設計紅外系統可以幫助商業和軍事用戶實現大量應用。隨著寬帶紅外成像儀的尺寸、重量和功率(SWaP)的減小,其在航空飛行器上的實用性得到了開發。機載系統具有更大的機動性,可增強用戶獲取圖像的能力。本文介紹的研究采用輻射測量產生的理論模型,并將地面設計技術應用于空中。領航、瞄準、制圖和態勢感知都是紅外成像任務的例子,具有廣泛的設計歷史。本文的研究重點是設計空中系統。設計了一種基于導航的紅外系統,用于比較中波和長波紅外波段,以探測高壓電線,避免致命的撞車事故。一種新的瞄準系統采用了一種新穎的多攝像頭設計方法,該方法植根于瞄準任務性能(TTP)指標,以提高在無人機平臺上飛行時的大范圍性能。對可見光、近紅外、短波紅外和擴展短波紅外的校準圖像進行比較,以找出哪種圖像對繪圖任務的場景對比度最高。最后,設計了一個態勢感知系統,利用波長保持人員視線,同時實時繪制火災邊界以避免致命事故,從而確保森林消防員在極端野火條件下的安全。對于上述領航、瞄準、測繪和態勢感知系統設計,所產生的理論模型與實驗室和實地測量結果進行了比較。提出的校準分析提供了避免結果偏差和公平比較每個寬帶傳感器系統性能的技術。在每種情況下,理論和測量結果都證明了設計方法對創建航空傳感器系統是有效的。在每種情況下,傳感器的性能都能滿足設計要求,并可通過這些初步研究創建可部署的系統。

付費5元查看完整內容

美國國防部(DoD)對利用人工智能(AI)增強具有作戰行為的軍事模擬越來越感興趣。本文探討了深度有限神經(DLN)搜索的應用--一種集成了卷積神經網絡(CNN)的博弈樹搜索技術,作為在特定方案下訓練的評估函數,以提高人工智能在生成戰斗行為方面的可擴展性和有效性。利用專為人工智能研究設計的軍事模擬平臺 Atlatl 進行了各種實驗,以評估 DLN 在不同場景下的性能。這些實驗包括測試訓練 DLN 的人工智能組合、評估其在多個對手面前的表現,以及探索環境規模和單位數量的變化。此外,研究還采用了 DeepMind 的 AlphaStar 所展示的聯盟訓練概念,以訓練人工智能模型,避免過度擬合并制定穩健的策略。研究結果表明,在基準場景下,DLN 優于現有的替代方案,但在擴展到更大、更復雜的環境方面仍存在挑戰。這些發現為人工智能驅動的軍事模擬的未來研究與開發提供了寶貴的見解,支持了美國陸軍作戰能力開發指揮分析中心(DEVCOM DAC)正在進行的工作。

本文分為五章。第 1 章概述了研究內容,包括論文的背景、動機、問題陳述、目標、意義、范圍和結構。第 2 章回顧了有關軍事模擬中的人工智能的現有文獻和研究,指出了當前知識中存在的差距,并討論了對抗樹搜索、DLN 和 Atlatl 框架等相關概念。第 3 章詳細介紹了進行實驗所使用的方法和程序。其中包括研究設計、數據收集方法和分析技術。第 4 章詳細介紹了實驗結果,提供了數據和結論。第 5 章對結果進行分析和解釋,與現有研究進行比較,討論其影響,解決論文中提出的研究問題,總結主要發現,討論對該領域的貢獻,并提出未來研究的方向。

圖 2.7. 顯示的是啟用人機交互后瀏覽器中出現的 Atlatl 場景示例。該場景顯示了多種不同的地形和單位類型,以及代表敵對勢力的紅色和藍色隊伍。

付費5元查看完整內容

數據分發服務(DDS)是一種中間件協議,也是無人系統中內聚通信的主要候選協議。早先工作提出了一種包含 SATCOM 和 WiFi 鏈接的網絡架構。本文通過將 5G 通信與 DDS 集成,擴展了先前研究的網絡架構。在這種集成中,無人飛行器(UAV)的控制被卸載到 5G 網絡上,這不僅確保了無人飛行器的安全運行,還通過提供特定任務的有效載荷數據促進了一系列應用。本研究的目標是利用受控模擬,成功地將無人機連接到 5G 網絡,并分析無人機能否向地面站發送數據。此外,還對系統的延遲和吞吐量進行了分析,并與之前的設置進行了比較。

本文的貢獻如下:

  • 探索使用包含 DDS 的多鏈路網絡架構將 5G 網絡集成到無人機控制和向地面控制站發送數據的可行性。

  • 在理想和抖動網絡配置下,評估各節點點對點鏈路的吞吐量和延遲性能,以實現可靠和最佳通信。

  • 當網絡配置出現抖動和損耗時,評估網絡節點之間同步多流通信的吞吐量和延遲性能。

  • 將 5G 網絡架構的網絡性能與早期論文中的網絡架構進行比較和分析。

本文其余各章的內容安排如下: 在第 2 章中,介紹了相關著作的背景、所使用軟件的概述以及相關通信技術的背景。第 3 章介紹了擬議的 5G 網絡架構、仿真參數的選擇和仿真場景。它還討論了如何設置 5G 鏈路。隨后,第 4 章將介紹和討論仿真結果。最后,第 5 章將給出結論和對未來工作的建議。

付費5元查看完整內容

本文探討了機器學習在自主無人戰斗飛行器(AUCAV)控制中的應用。特別是,本研究將深度強化學習方法應用于防御性空戰場景,在該場景中,AUCAV 機群保護軍事高價值資產 (HVA),該資產要么是靜止的(如在空軍基地防御場景中),要么是快速移動的(如在涉及護送貨運飛機或指揮控制飛機的場景中)。通過采用馬爾可夫決策過程、近似動態規劃算法和用于價值函數近似的深度神經網絡,一系列空戰管理場景、原始模擬環境和一系列設計的計算實驗為高質量決策策略的近似提供了支持。三項連續的研究探索了新型模型和相應的方法論,以提高數學模型的準確性,提高計算效率,或更準確地評估復雜問題的解決方案質量,在這些問題中,最優解決方案的計算難以實現。對政策有效性和特定政策行為的深入分析為戰術、技術和程序的完善提供了信息,并使能力評估更加準確和量化,從而為所有相關系統的需求開發和采購計劃提供支持。

圖 1. 假想的 GABMP 場景,描繪了穿越敵對領土的固定 HVA 任務路徑

第二章至第四章由三項連續研究組成,將防御性空戰管理數學模型作為一個連續決策問題加以制定和擴展。每一章都探討了一種新穎的方法論,以提高數學模型的準確性,提高數據效率,或更準確地評估復雜問題的解決方案質量,因為在復雜問題中,最優解決方案的計算難以進行。

第二章介紹了廣義空戰管理問題(GABMP)。由 AUCAV 組成的艦隊護送 HVA 穿過敵方領土,而敵方的攻擊模式會根據友軍和敵軍的相對位置在來源和強度上發生變化。鑒于大多數現實問題并不存在于靜態環境中,針對非靜態問題的強化學習是一個廣泛研究的課題。要解決這些問題,需要在特征工程方面投入大量精力,為學習算法提供足夠有用的狀態空間信息,以揭示復雜的系統動態。本章提出了上下文分解馬爾可夫決策過程(CDMDP),它是靜態子問題的集合,旨在利用值函數的線性組合來逼近非靜態問題的動態。一組設計好的計算實驗證明了 CDMDP 方法的有效性,表明復雜的非穩態學習問題可以通過一小組靜態子問題得到有效的近似,而且 CDMDP 解決方案與基線方法相比,無需額外的特征工程就能顯著提高解決方案的質量。如果研究人員懷疑復雜且持續變化的環境可以用少量靜態上下文來近似,那么 CDMDP 框架可能會節省大量計算資源,并產生更易于可視化和實施的決策策略。

第三章為強化學習問題中的經驗重放記憶緩沖區介紹了一種新穎的基于相似性的接納控制方法。通過只用足夠不相似的經驗更新緩沖區,可以提高學習算法的效率和速度,尤其是在連續狀態空間的情況下。該方法采用了廣義空戰管理問題的擴展版本,納入了導航航點和基于軌跡的殺傷概率模型,以增強真實感。此外,還設計了一系列計算實驗,研究基于神經網絡的近似策略迭代算法的結構。對比分析表明,使用包含前 50% 最獨特經驗的內存緩沖區,學習算法收斂到穩健決策策略的速度比單獨使用優先級經驗回放快 10%。這些發現凸顯了所提出的方法在復雜、連續的狀態空間中提高強化學習效率的潛力。

第四章研究了信息松弛技術在 GABMP 進一步擴展版本中用于近似求解質量上限的應用。信息松弛指的是放寬順序決策問題中的非預期性約束,這些約束要求決策者僅根據當前可用的信息采取行動。信息松弛采用了時間事件視野,為決策者提供了對問題環境中未來隨機不確定性結果的可調整訪問。以往的研究都是針對在確定性松弛條件下更容易求解的問題進行信息松弛研究,而本方法論則將該方法應用于連續空間中的連續時間問題,即使在確定性條件下也需要求解近似技術。對事件視界和其他問題特征進行多維敏感性分析,有助于量化戰術改變或能力修改對決策政策有效性的潛在改進。這種量化方法應用于現實世界的能力差距評估,客觀地增強了傳統的主觀分析,從而為決策提供指導,并為采購計劃制定更有效的要求。第五章總結了前述各項研究的結果。

此外,第五章還指出了每項研究的假設和局限性,并提出了未來研究的可能途徑。

利用神經網絡進行近似策略迭代

圖 12. 描繪航點和攔截軌跡的 GABMP 假設場景

付費5元查看完整內容

本文介紹了一種在美國海軍和國防部框架內提高可操作技術(OT)系統安全性和效率的新方法。這項研究由負責作戰能源的海軍副助理部長贊助,旨在解決 OT 系統中異常檢測方面的關鍵差距。本文引入了一個綜合傳感器系統和先進的機器學習(ML)模型,用于分析各種 OT 設備的實時功耗數據。通過從模擬的小規模 OT 環境中開發獨特的非侵入式負載監控(NILM)數據集,本研究率先將成本效益高、易于部署的傳感器陣列與支持向量機、長短期記憶和卷積神經網絡算法等 ML 技術集成在一起。這種集成旨在簡化異常檢測,減輕這些 OT 系統中多種背板協議集成所帶來的復雜性。通過異常表征和定制檢測方法的制定,本文在利用 ML 識別系統故障、設備故障和潛在網絡安全威脅的早期指標方面開創了新的先例。這項工作極大地促進了獨立 OT 系統的安全性和復原力,使其能夠抵御一系列異常現象,為未來對基礎設施至關重要的安全和復原力 OT 系統的發展奠定了基礎。

付費5元查看完整內容

本文旨在分析人工智能(AI)在遠征先進基地作戰(EABO)中的應用,重點是作戰和后勤行動。使用 Atlatl 作為模擬引擎,在模擬待命部隊在兩棲環境中分布式作戰所面臨挑戰的場景中測試了多個智能體。測試了每種人工智能在軍事行動臨界值以下開展維持行動的能力,以及在越過臨界值時抵御兩棲攻擊的能力。就腳本智能體而言,事實證明,根據聯合作戰方法對行為進行調整可創造出生存能力更強的人工智能,同時保持其殺傷力水平。就建立在神經網絡基礎上的智能體而言,由于問題的規模和范圍,其性能受到了限制,可能需要進行更多的研究才能顯示出顯著的效果。這項研究是繼續開發 EABO 概念的探索工具,可為繼續完善操作概念提供反饋。

本文屬于建模、虛擬環境和模擬領域。具體來說,它分析了在作戰模型和模擬中使用人工智能(AI)來評估未來潛在沖突場景中的作戰概念。戰爭游戲和模擬為行動的發展提供了寶貴的反饋,檢驗了我們對特定場景下所面臨的環境和挑戰的理解。2019 年,美國(U.S. )海軍陸戰隊(USMC)發布了新的指南--指揮官規劃指南,將重點轉向圍繞中國在南太平洋帶來的挑戰而開展的防御工作,從而提出了遠征先進基地行動(EABO)的概念(Berger,2019 年)。隨著重點的轉移,有了一個新的機會,可以對我們的概念和想法進行兵棋推演,評估那些能提供最廣闊成功之路的概念和想法。

在軍事領域,兵棋推演的目的是對想法進行分析,找出行動方案的優缺點,進一步完善最終方案。通過在 EABO 兵棋中引入人工智能,可以對概念進行更深入的分析,從而在行動發展過程中獲得更精細的反饋。一旦捕捉到這些數據,對其進行研究就能進一步促進對 EABO 的探索,檢驗我們對過去和未來軍事模擬在同一領域的判斷,并提供信息,幫助圍繞 EABO 和其他目標行動繼續開發人工智能能力。具體來說,通過了解現有人工智能體在場景驅動模擬中的行為,我們可以評估和推斷人工智能可能如何應對更廣泛的模擬(圍繞一個主題場景提出類似的挑戰),以及如何改進人工智能以更好地在其中使用。

付費5元查看完整內容

本文是研究指揮與控制(C2)未來表現形式的四篇系列論文中的第一篇。第一篇論文通過探討未來指揮與控制(C2)系統需要在其中運行的未來作戰環境,為后續研究設定了基線。具體來說,本文探討了復雜性的驅動因素、表現形式和影響,而此前的研究表明,復雜性很可能是這一環境的特征。為此,它討論了 C2 和復雜性等關鍵術語的定義;介紹了未來運行環境中復雜性的一些驅動因素,并討論了這些因素如何對 C2 系統和組織造成新的壓力;研究了分析和理解復雜性的可能方法;并概述了 2030 年代及以后可能產生的一些實際考慮因素。由于本文旨在為本系列的后續三篇論文提供資料,因此沒有全面涵蓋未來 C2 思考的所有方面,包括提出具體建議。

研究問題

  • 根據當前的全球社會和技術趨勢進行預測,國防和合作伙伴可能面臨的持續競爭和多領域作戰的作戰環境的性質是什么?
  • 基于這種對未來的預測,未來的 C2 系統和組織將面臨怎樣的復雜性;即復雜性的可能來源是什么?
  • 考慮到未來作戰環境的這一特點,未來的 C2 系統和組織需要具備哪些條件?
  • 未來的 C2 系統和組織需要什么樣的新能力和特性才能有效應對這些需求?

有爭議的定義

C2 沒有直截了當的定義,對于該術語在當代作戰環境中的范圍和相關性也存在爭議。對 C2 傳統定義的批判來自于對 21 世紀有效領導力構成要素的更廣泛質疑。在英國、美國和北約,最近出現了大量與 C2 相關的新術語,并將重點從聯合思維轉向多領域思維。我們的研究將 C2 定義為一個動態的、適應性強的社會技術系統,因此有必要考慮組織、技術和人力要素。

同樣,復雜性也沒有一個公認的定義。學術界對復雜性的研究日益增多,涉及多個科學學科,但缺乏統一的方法或理論框架。一個有用的出發點是區分簡單系統、復雜系統、復雜系統和復雜適應系統。文獻還描述了在這些條件下可能出現的所謂 "棘手"或 "超級棘手問題"。還可以對有限博弈和無限博弈進行重要區分--這是考慮作為復雜適應系統的國家間競爭時的一個有用視角。鑒于這些爭論,我們的研究避開了對復雜性的僵化定義,而是從其關鍵屬性的角度對這一現象進行了 DCDC 式的描述。

復雜性的預計驅動因素

未來作戰環境的特征--以及國防 C2 系統和組織預計將執行的任務類型--具有很大的不確定性,因此任何預測都必須謹慎。盡管如此,文獻指出了各種政治、經濟、社會、技術、法律、環境和軍事(PESTLE-M)趨勢,預計這些趨勢將影響國際體系的演變,進而影響 2030 年及以后的國防行動。這些趨勢包括以下宏觀趨勢

  • 日益增強的互聯性、多極化和全球競爭
  • 不斷變化的氣候的影響
  • 技術變革和數字化的影響
  • 傳統和新穎領域的模糊化
  • 國際準則和價值觀的轉變。

最重要的是,沒有一個單一或主要的趨勢推動著變化或復雜性;相反,最令人擔憂的是多種因素的融合及其不可預測的相互作用。這種認識為進一步研究這些趨勢影響國際體系復雜性水平和特征的具體機制提供了基礎,從而為在這一領域開展工作的 C2 帶來了新的挑戰。

復雜性的表現

上述 PESTLE-M 趨勢為未來組織應對 C2 帶來了一系列困境和壓力,包括但不限于

  • 不確定性
  • 模糊性
  • 多義性
  • 信息超載
  • 認知偏差
  • 面對瞬息萬變的事件,決策癱瘓或節奏不足
  • 難以確保決策(包括人工智能)或信任決策所依據的數據、邏輯和假設
  • 難以調動所有必要的權力杠桿,或協調參與制定和執行特定戰略或行動計劃的大量不同參與者(如跨政府合作伙伴、行業、國際盟友、公民)。

此外,無論是理論家還是實踐者,在處理包含非線性動態的問題時,都缺乏有力的措施來衡量所做決定或采取的行動的有效性。因此,很難確切地說未來作戰環境中的復雜性是否在客觀上不斷增加(而不是以不同的形式出現),但對軍隊應處理的復雜任務的政治期望與當前 C2 方法的執行能力之間顯然存在巨大差距。當前的學術理論為決定如何在復雜環境中配置 C2 提供了一個方法工具包的初步輪廓和一些指導原則,但并沒有提供靈丹妙藥。該理論強調審議分析方法,即讓不同利益相關者參與共同設計、借鑒多學科和知識體系的見解,并在分析和決策過程中建立靈活性,以便根據反饋意見不斷迭代和改進的方法。

未來 C2 的實際考慮因素

要應對復雜的自適應系統,就必須摒棄當前的線性 C2 流程和等級結構,盡管在處理非復雜任務和問題時,更傳統的方法可能仍然有用。在競爭激烈的世界中,英國既需要培養能夠對他人施加建設性影響的特性和能力(例如,將復雜性強加給對手的 C2),也需要培養能夠增強自身駕馭復雜性能力的特性和能力。

要影響敵對行動者的觀念、決策和行為,首先要深入了解其 C2 結構、流程和文化。根據這種了解,英國國防需要一套動能和非動能杠桿,對敵方的 C2 施加建設性影響,包括施加復雜性。除了敵對行動者,英國國防部還需要進一步了解如何對 PAG、盟友、合作伙伴、工業界、學術界、公民和對 C2 采取截然不同方法的其他人施加建設性影響。

在增強英國自身應對復雜性的能力方面,未來的 C2 系統和組織必須促進靈活性、復原力以及學習和適應能力等特性。整個決策周期都需要變革。例如,傳感器和通信技術的進步為獲取更多深度和廣度的數據提供了機會,包括有關復雜問題的數據。因此,提高認知能力對于理解所有這些數據至關重要,既要利用人類和機器的優勢,又要減少各自的缺點。要改變決策方法,還需要改變領導風格,以培養更善于駕馭復雜適應系統的決策者。在做出決策或計劃后,提高跨部門或跨層級的能力,在實施階段更好地整合活動或匯聚效應,對于抵消英國的局限性(如在質量方面)至關重要。

同樣,整合也不是萬全的;如果國防缺乏足夠深度的力量和能力,無法在充滿敵意的威脅環境中采取可信行動或維持高節奏行動,那么即使是最高效的指揮控制系統也無法在未來取得成功。此外,還需要采取防御措施以及恢復和失效模式,以阻止或減輕敵方破壞 C2 系統和組織的努力所造成的影響。鑒于所面臨的威脅,以及英國國防可能需要解決的不同形式的復雜問題,很可能會同時出現多種并行的 C2 模式,而不是單一的方法。應對復雜性意味著不斷學習、適應、創新和開放求變。因此,必須從一開始就將效果衡量標準、信號和變革機制納入計劃以及 C2 系統和組織,使其能夠隨著時間的推移不斷學習和調整,以應對各種情況。至關重要的是,未來 C2 系統和組織的設計只是挑戰的一部分--它們還必須得到更廣泛的國防企業緊急改革的支持,以確保獲得所需的使能因素(人員、技術等)。從 C2 的角度來看,這本身就是一個挑戰,因為改變這個企業--一個復雜的適應性系統--本身就是一個棘手的問題。

結論和下一步行動

學術理論家和政府、軍事或工業從業人員對復雜性或復雜適應系統的理解并不全面,而這正是未來 C2 運行環境的特點。雖然文獻提供了處理復雜性的有用方法和工具,以及未來 C2 的一些初步設計考慮,但英國 C2(本身就是一個社會技術系統)的現代化和轉型將是一項高度復雜的工作。這意味著要與不斷發展的作戰環境、不斷變化的威脅和技術環境共同適應,從而進行迭代和不斷學習。因此,最緊迫的挑戰或許是,考慮到 C2 系統在未來面對復雜性時取得成功所需的轉型(技術、結構、流程、文化、教育等)的程度和性質,了解如何在一段時間內最好地引導這一過程。

自相矛盾的是,要克服實現以應對復雜性為目標的 C2 系統所面臨的障礙,可能需要英國國防部已經表現出其所尋求建立的系統的許多特征。面對這樣的循環邏輯,英國國防部可能需要某種外部沖擊來迫使其進行創造性的破壞,或者利用(或不顧)更傳統、線性的 C2 方法來啟動自身的激進改革努力,并隨著時間的推移,隨著變化的到來而進行調整。

付費5元查看完整內容

本研究探討了無人駕駛飛行器(UAV)與有人駕駛飛機合作進行集中任務規劃的發展情況。我們采用經過近端策略優化(PPO)訓練的單一智能體來模擬敵方防空壓制(SEAD)場景。我們的目標是掌握最佳任務策略。我們的模型在各種環境條件下進行了測試,在 100 次測試中,消除敵方防御的成功率達到 78%。我們的模型所取得的巨大成功強調了它在未來戰爭場景中的應用潛力,代表了空戰和強化學習應用領域的重大進展。

方法

集中式任務規劃架構

集中式任務規劃架構是指一種先進的技術架構,能夠在復雜多變的作戰場景中高效協調和管理無人機。該架構從各種信息來源收集數據,實時評估局勢,并規劃和執行最佳戰略,以最大限度地提高整個任務的成功潛力。

該架構的主要組成部分如下:

  1. 戰斗信息管理: 該組件持續監控當前的戰斗態勢并跟蹤信息,以提供實時戰場情報。信息來源多種多樣,包括各種傳感器、傳感器網絡和人工觀察,從而能夠深入了解動態復雜的作戰環境。這相當于強化學習中收集環境信息的過程,為有效的學習過程提供了第一步。

  2. 戰斗狀態(觀察): 在這一階段,戰場信息被提供給智能體。在戰場上收集到的各種信息會被實時處理,并傳遞給強化學習智能體。這樣,智能體就能通過綜合戰場態勢感知了解當前形勢,預測未來的可能性,并決定下一步行動。

3)任務規劃器(智能體): 作為中心的核心要素,這個基于強化學習的智能體根據傳入的實時作戰態勢數據做出最優行動。這一決策過程由一個預訓練的強化學習模型執行,該模型學習如何在復雜環境中實現任務目標。

  1. 指揮官: 最后,智能體的決策將交由指揮官執行。智能體決定的行動將作為指令傳遞給實際的無人機,從而實現移動、目標探測和攻擊等具體任務。

因此,集中任務規劃架構實現了從各種信息源收集和處理數據、規劃和調整無人機行動以適應實時戰場條件的戰略。這就實現了實時戰略決策和快速反應,提高了整體作戰效率和生存能力。

強化學習環境的構建

我們為 MUM-T 問題開發了一個量身定制的強化學習環境。在這個環境中,我們部署了一架戰斗機無人機、一個干擾器和一個防空導彈系統,每個系統都有預定義的攻擊范圍和干擾距離。任務的主要目標是協同參與干擾行動,使目標防空導彈系統失效,隨后通過操縱戰斗機無人機將其消滅。任務的成功完成取決于是否到達指定的目標點。

在無人機任務規劃的背景下,我們為 MUM-T 構建了一個定制的強化學習環境。在 MUM-T 環境中,我們部署了一架戰斗機無人機、一個干擾器和防空導彈系統,每個系統都有明確的攻擊范圍和干擾距離。任務的最終目標是與干擾機進行合作干擾,使防空導彈無法攻擊,隨后通過操縱戰斗機無人機摧毀防空導彈。當無人機到達最終目的地(稱為 "目標點")時,即成功完成任務。

為了開發環境,我們使用了 Gym 庫,這是一個用于強化學習環境的開源框架。無人飛行器可以移動的空間用二維網格表示。由于無人機的航向和速度等低層次控制方面的問題假定由 AFRL ACL 5 級自主處理,因此集中式任務規劃框架側重于負責規劃任務相關值(即航點和任務點)的高層次控制,這些值基于多架無人機的信息和戰場狀態。為促進學習過程,我們將任務空間離散化為 30x30 的網格,共由 900 個單元組成。

每個無人機的行動空間被定義為離散的多行動空間,使每個智能體能夠獨立選擇行動。戰斗機無人機和干擾機有五種可能的行動:向左、向右、向上、向下和攻擊。行動空間的離散化簡化了學習和控制[圖 5、6]。

在每個時間步長內,智能體根據其選擇的行動在網格環境中移動。我們施加了邊界條件(懲罰),以防止無人機在網格邊界外移動。此外,我們還通過檢測碰撞并分配相應的懲罰來處理戰斗機和干擾機之間的潛在碰撞。為了解決無人飛行器之間的協作問題,我們為智能體之間的特定功能和互動建立了模型。當干擾機進行干擾時,如果薩母不在攻擊范圍內,則會產生懲罰。但是,如果防空導彈在攻擊范圍內,干擾成功則會獲得獎勵,使防空導彈無法使用。戰斗機總共有五次攻擊機會,攻擊失敗(當防空導彈不在攻擊范圍內時)會導致失去一次攻擊機會并受到懲罰。另一方面,如果防空導彈在規定的攻擊范圍內,防空導彈就會失效,并獲得獎勵。重要的是,如果戰斗機沒有進行干擾,則無法攻擊,因為戰斗機的攻擊范圍小于干擾距離。

付費5元查看完整內容

人工智能(AI)是一個快速發展的領域,世界各地的政府和軍隊越來越多地將其納入其技術,以創造新的能力。人工智能有可能最終超越人類的智力能力,獲得超級智能。這篇論文研究了超級人工智能(ASI)的影響以及美國的對手如何利用它來獲得不對稱的戰略優勢。本文發現,人工智能在中期和可能的近期對未來的行動構成了極大的風險,并就美國防部應如何思考并將人工智能的威脅納入戰略規劃提出了建議。

引言

人類最偉大的力量之一是我們利用工具的能力。縱觀歷史,工具使我們能夠提高執行任務的效率,使我們的知識專業化,并創造機會反復改進和創造更復雜的工具。機器的發明給了人類一套工具,可以完全取代人類的勞動,而不是放大它,并在勞動的速度和質量上遠遠超過人類。現在,人工智能(AI)的發展正在做同樣的思考。人工智能系統已經在前幾代人認為機器永遠無法完成的任務中超越了人類,例如:圖像和目標識別,復雜的棋類游戲,如國際象棋和明顯更復雜的圍棋,需要實時戰略思考的視頻游戲,讀唇語,甚至通過投資股票市場實現盈利。目前,人工智能的所有應用都是狹窄的,這意味著盡管它們在某項任務上可以超過人類的能力,但它們只能做它們被設計的那件特定的事情,而不是其他。然而,這種情況不會一直存在。

1993年,統計學家Vernor Vinge預測,人類將有能力創造出一種超人類的智能。他推測,這種創造將導致智能爆炸,因為超級智能在自身基礎上不斷改進,變得越來越聰明,將人類的能力遠遠甩在后面。這種能力將對人類生活的各個方面產生深遠的影響。正如人工智能和決策理論家Eliezer Yudkowsky所說的那樣。"沒有困難的問題,只有對某一智能水平來說是困難的問題。向上移動最小的一點[智力水平],一些問題會突然從'不可能'變成'明顯'。向上移動一個相當大的程度,所有的問題都會變得明顯。" 因此,超級智能將為世界舞臺上任何能夠開發和控制它的行為者提供不對稱的優勢。

自第二次世界大戰結束以來,美國一直是占主導地位的世界大國,能夠通過國家權力的四個工具:外交、信息、軍事和經濟來擴大其影響力和追求其利益。然而,歷史告訴我們,占主導地位的世界大國會因為軍事革命而非常意外和迅速地失去這種地位。西方歷史經歷了五次這樣的重大革命:現代民族國家的創建、大眾政治與戰爭的融合、工業革命、第一次世界大戰和核武器的出現。這些革命中的每一次都圍繞著為首先采用這些革命的人提供的不對稱優勢,這使得他們能夠獲得突出的地位,即使只是暫時的,直到其他人也出于需要而采用新的模式。超級智能的人工智能的出現有可能創造出下一次軍事革命,并使美國不再是世界上最大的國家。

默里和諾克斯指出,軍事革命就其性質而言是 "不可控的、不可預測的和不可預見的。"但這是一個觀點問題。納西姆-塔勒布將這些類型的事件稱為黑天鵝,并對其有三個標準:它們是罕見的,有極端的影響,并且是可追溯的。然而,他表明,某件事之所以成為黑天鵝,特別是因為沒有認真對待這種可能性,而不是沒有人想到它。舉例來說,如果有人在9-11事件之前就認為恐怖主義是一種合理的威脅,并要求在飛機艙門上加鎖,那么被劫持的飛機成為武器的黑天鵝事件就不會發生。推動這一變革的人甚至可能會因為他們的假設不正確而受到批評。如果沒有這個事件的發生,就沒有證據表明所實施的變革具有防止恐怖主義的預期效果。

對未來的正確預測在被認真對待時一般是不可能被驗證的,因為他們成功地防止了他們預測的結果。因此,被認為不值得適當考慮或規劃的想法成為決定性的。"看到一個事件的發生正是因為它不應該發生,這不是很奇怪嗎?" 如果美國希望在一個正在迅速發展并變得越來越復雜的世界舞臺上保持主導地位,它就必須對可能的和不可能的事情進行思考。正如參議院軍事委員會前參謀長克里斯蒂安-布羅斯在其《殺戮鏈》一書的結論中所說,"問題是想象力的失敗"。

問題陳述

技術正在以指數級的速度發展,并將在某一時刻導致下一次范式轉變和軍事革命。人工超級智能(ASI)有可能在國際行為者揮舞國家權力工具的能力方面創造不對稱優勢,并導致這樣一場軍事革命。從歷史上看,軍事革命的結果往往是,誰最先發揮新革命的不對稱優勢,誰就能推翻當時的世界霸主。下一次革命也會如此,美國可能會發現自己被剝奪了世界主導地位,除非它能預測并為即將到來的事情做好準備。僅僅為今天挑戰美國主導地位的差距尋求解決方案是不夠的,因為今天的問題在下一次范式轉變后將變得無關緊要。因此,如果下一次軍事革命以超級人工智能為中心,美國防部如何確定可能被利用的漏洞?

研究目的

美國防部在超級智能方面的文獻有一個明顯的空白。這次探索的目的是填補文獻空白,確定這種技術所帶來的風險程度,并確定對手可能利用ASI攻擊美國的潛在漏洞。這將為國防界的決策者提供關于該主題的相關觀點,并告知在規劃和預測中應考慮該技術的程度。通過額外的研究,如果對手率先獲得ASI,可以減輕已確定的漏洞以防止其被利用。最終,本研究的目的是防止ASI軍事革命的出現成為一個黑天鵝事件,使美國失去其世界主導地位。

研究問題

本論文試圖回答的主要研究問題是:對手如何利用ASI來取代美國作為世界主導力量的地位?為了回答這個問題并達到研究的目的,還需要回答幾個問題。 1.ASI有什么獨特的能力,使它能夠影響國家權力的信息和軍事要素? 2.對美國有敵意的行為者如何利用ASI的能力來實現作戰和戰略效果? 3.在信息和軍事領域有哪些弱點可以被擁有ASI的美國對手所利用?

假設

作為對一項理論技術如何在未來作戰環境中使用的探索,必須對該未來環境的狀態做出若干假設。因為本論文的目的是確定脆弱性和評估風險,所以對該環境的假設是那些被認為有可能造成最大風險的假設。這些關鍵的假設在文獻回顧中都有更深入的闡述。

1.通用人工智能(AGI)將在2035年之前初步開發,并在2040年之前推進到人工智能。

2.美國的一個對手將是第一個開發AGI/ASI的人,并且該技術不會在他們的控制范圍之外被分享或擴散。

3.一個發達的人工智能是可控的,不具備獨立于其控制者的驅動力和動機,并作為其控制者意志的延伸而發揮作用。

4.2040年的作戰環境將如國家情報委員會2040年報告中描述的競爭性共存情景,主要特點是美國和中國之間的競爭。

研究的意義

雖然近年來國防界的成員們在文獻中充斥著關于人工智能的著作,但從國防的角度來看,關于超級智能主題的文獻存在著明顯的空白。雖然人工智能本身有可能在軍事和民用領域產生變革,但本研究將開始填補有關人工智能的未來及其創造軍事革命的潛力的知識空白。此外,這項研究還試圖確定潛在的弱點,這些弱點可能被控制人工智能的對手所利用,以廢止或取代美國作為世界主導力量的地位。這項研究的結果將為預測未來部隊需求的戰略計劃者提供洞察力。識別弱點是緩解的第一步;然而,還需要更多的研究來為識別的弱點找到解決方案。矛盾的是,本研究的真正意義只有在其預測沒有實現的情況下才能實現;也許表明它在防止所設想的負面情況的發生方面發揮了作用。

付費5元查看完整內容
北京阿比特科技有限公司