亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

麻省理工學院數字經濟倡議主任Eric Brynjolfsson在他的《第二個機器時代》一書中,描述了我們在理解摩爾指數增長定律方面的挑戰。他講述了一個關于國際象棋起源的古老故事:古普塔帝國的皇帝對這種新游戲印象深刻,他向發明家提供了他想要的任何東西。發明者建議皇帝在棋盤的第一個格子上放一粒米,以后每個格子放一倍。到了棋盤的后半部分,皇帝才意識到自己的錯誤。在32個格子之后,皇帝給出了40億粒米,相當于一大片田地。然而,如果皇帝能夠通過棋盤上的所有64個格子來滿足要求,他就會欠下18萬億粒大米......比世界歷史上生產的大米還要多,如果堆在一起會比珠穆朗瑪峰還高。正是董事會的后半部分創造了深不可測的增長。從技術角度來看,我們站在第32個方格上。

布林約爾松將過去十年的技術時代描述為 "下半場技術 "的開始,指數式增長將帶來驚人的進步。正是人工智能、芯片技術、存儲能力、神經網絡的突破等組成部分的指數加速,在其自身摩爾定律的指數增長中,準備在人工智能和機器學習(AI/ML)領域提供前所未聞的進步。這種為任何系統增加智能的能力已經在商業領域顯示出廣泛的應用,而且在國家安全企業中也會有重大影響。

本文研究了最近五年來人工智能和機器學習的爆炸性增長,以及美國和中國為了解和利用這一技術以保持全球戰略優勢所做的政策努力。它試圖從整體上研究每個國家的政策,為美國投資和應用人工智能和機器學習以支持國防和情報工作的未來道路提供建議。這項研究的前提是,人工智能/機器學習代表了一種基礎性的通用技術,類似于電力或內燃機,在國家安全企業中有著廣泛的應用,并對通過系統認知創造應用的國家有著巨大的優勢。本文將首先走過相關的和適用的人工智能的創造以及它對當前國家安全工作的重要性和意義的例子。在研究了中國和美國政府最近的人工智能/ML政策以及每個政府如何對待和優先考慮人工智能/ML之后,將提供加強美國戰略優勢的建議以指導政策制定者。這項研究的最終目標是強調人工智能/ML將在下一次大國沖突中發揮關鍵作用,以及優先應用這項技術對美國戰略優勢的重要性。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

美國國家人工智能(AI)研究資源(NAIRR)工作組近日發布題為《加強和民主化美國人工智能創新生態系統:國家AI研究資源實施計劃》最終報告。該報告是建立國家研究基礎設施的路線圖,該基礎設施將擴大對AI研發必不可少的資源的訪問。報告由引言,民主化和加速AI研發的國家網絡基礎設施,NAIRR組織、管理和治理,NAIRR架構和對資源要素的技術要求,NAIRR組織和資源的分階段擴建,以及結論六部分,另有12個附錄構成。主要內容如下:

人工智能(AI)是推動科學發現和經濟增長的創新引擎。它正日益成為解決方案不可或缺的一部分,這些解決方案將影響從日常工作到社會層面挑戰的方方面面,最終服務于公共利益。同時,也有人擔心AI會帶來負面的社會環境影響后果。為了實現AI的積極和變革潛力,當務之急是利用美國所有的聰明才智來推進這一領域的發展社會挑戰,為所有美國人工作,維護美國的民主價值觀。

然而,AI當前前沿的進展往往與獲取大量計算能力和數據有關。今天,這種機會往往僅限于資源豐富的組織。這一巨大且不斷擴大的資源鴻溝有可能限制和不利地扭曲AI研究生態系統。這種不平衡威脅到美國培養AI研究的能力社區和勞動力反映了美國豐富的多樣性和駕馭AI的能力推進公共利益。

一個廣泛可用的AI研究網絡基礎設施資源、數據、試驗臺、算法、軟件、服務、網絡和專業知識,如這份報告中所述,在美國將有助于為了所有人的利益去民主化AI研發態勢。這將有助于創造途徑來擴大從事AI的研究人員,致力于AI方法和應用的發展和多樣化。網絡基礎設施也有助于為所有科學領域和學科的進步,包括AI審計、測試和評估等關鍵領域,可信人工智能、偏差緩解和AI安全開辟新的機會和多樣化的視角,反過來可以導致新的想法,否則不會實現,并設置條件開發設計包容的AI系統。

作為2020年國家AI倡議法案的一部分,國會建立了國家AI研究資源(NAIRR)工作組研究發展“NAIRR”作為國家AI研究的可行性和可取性網絡基礎設施,并“提出一個路線圖,詳細說明應該如何建立NAIRR”持續有效。最近的2022年芯片和科學法案強調了通過投資實現國家人工智能研究網絡基礎設施的民主化,從下一代圖形處理器(GPU),加速高級計算的開發到高密度內存芯片——以及積極吸引廣泛多樣的美國人才的措施在前沿科學和工程領域,包括人工智能。

建立NAIRR時應考慮四個可衡量的目標,即(1)刺激創新,(2)增加人才的多樣性,(3)提高能力,以及(4)推進可信的AI。NAIRR應通過支持研究人員的需求來實現這些目標,并來自不同背景的學生,他們追求基礎、使用激勵和轉化AI研究。這些用戶應位于美國或隸屬于美國組織,包括學術機構、非營利組織以及創業公司或小企業。

NAIRR應該包括來自各種提供商資源的一組聯合的計算、數據、測試床和軟件,以及技術支持和培訓,以滿足需求這個目標用戶群。NAIRR的具體設計、實施和評估應以四個關鍵目標為中心,并應支持收集數據以評估實現這些目標過程中的系統性能和成功的關鍵指標。

NAIRR的管理和治理應遵循合作管理原則,作為NAIRR一個單一的聯邦機構行政總部運營和指導委員會,由來自聯邦機構的負責人組成AI研究實體推動著NAIRR的戰略方向。項目管理行政總部機構內的辦公室應為管理NAIRR日常運營的獨立運營實體。由國家AI倡議辦公室(NAIIO)共同主持的指導委員會將在全國AI倡議辦公室的治理中納入來自各聯邦機構的利益和觀點。這些機構還應該直接支持資源提供者,如果聯合起來,他們的資源將構成NAIRR。應挖掘不同的觀點和專業知識,為NAIRR的運營通過用戶委員會、科學顧問委員會、技術顧問委員會和道德咨詢委員會向運營實體提供建議。

NAIRR應該提供對計算和數據的聯合訪問資源、測試平臺、軟件和測試工具以及用戶支持服務門戶網站。計算資源應包括傳統服務器、計算集群、高性能計算和云計算,并應支持對邊緣計算的訪問AI研發的資源和測試平臺。開放和受保護的數據應在分層訪問協議并與計算資源共處一地。經營實體應當它本身并不操作構成NAIRR的全部計算機硬件;相反,計算以及數據、測試和培訓資源應通過聯邦機構或多機構資助機會選擇的合作資源提供商作為服務交付。當完全實施時,NAIRR應解決容量(支持大型用戶數量)和AI的能力(訓練資源密集型AI模型的能力)需求研究社區。

NAIRR必須能夠被廣泛的用戶訪問,并提供一個平臺可用于教育和社區建設活動,以降低參與AI研究生態系統的障礙,增加AI研究人員的多樣性。NAIRR訪問門戶和公共網站應提供目錄、搜索和發現 有助于訪問數據、測試平臺、教育和培訓資源的工具經驗水平。

NAIRR應該為負責任的AI研究制定標準實施其治理流程。NAIRR必須積極主動地通過集成適當的技術控制、政策和治理機制解決。運營實體應遵循其職業道德咨詢委員會制定評估擬議研究的標準和機制從隱私、公民權利和公民自由的角度看NAIRR中包含的資源。應要求定期培訓,以建立NAIRR用戶對權利、責任,以及AI研究中與隱私、公民權利和公民自由相關的最佳實踐.白宮科學與技術辦公室2022年10月公布了AI權利法案的藍圖技術政策。

付費5元查看完整內容

本文介紹了詳細而全面的技術文獻結論,旨在確定戰術自主性的當前和未來的研究挑戰。本文非常詳細地討論了當前最先進的強大人工智能(AI)、機器學習(ML)和機器人技術,以及它們在未來軍事和國防應用背景下開發安全和強大自主系統的潛力。此外,我們還討論了在試圖為先進的軍事和國防應用實際建立完全自主系統時出現的一些技術和操作上的關鍵挑戰。我們的論文提供了最先進的可用于戰術自主的先進人工智能方法。據我們所知,這是第一篇論述戰術自主性當前重要趨勢、戰略、關鍵挑戰、戰術復雜性和未來研究方向的作品。我們相信,這項工作將使從事機器人和自主系統領域的學術界和工業界的研究人員和科學家產生極大興趣。我們希望這項工作能鼓勵人工智能多個學科的研究人員去探索更廣泛的戰術自主領域。我們也希望我們的工作能成為設計先進的人工智能和ML模型的重要步驟,對現實世界的軍事和國防環境有實際意義。

關鍵詞:戰術自主性;自主系統;人工智能;軍隊;國防應用;航天;機器倫理;網絡安全;可信賴性;可解釋性

資助

這項工作得到了霍華德大學國防部(DoD)人工智能和機器學習卓越中心(CoE-AIML)的支持,與美國陸軍研究實驗室簽訂了W911NF-20-2-0277合同。

1. 引言

新興技術,如機器人技術和自主系統,正在為潛在的社會革命提供機會[1]。先進的自主系統正在為多個科學領域的科學突破和顛覆性技術創新鋪平道路[2]。自主系統是一個智能系統網絡,能夠獨立完成復雜的任務,在沒有人類明確干預的情況下做出智能決策,以及其他操作管理和控制系統[3,4]。現代自主系統的最新發展對各種潛在的軍事和國防應用越來越關鍵,包括空中監視系統、隱私、網絡安全、導彈防御、航空航天工業等。

背景和動機。來自民用、國防和軍事界的研究科學家們正在通過復雜的工作來確定為工業和現實世界應用實施先進的人工智能和自主系統的最佳方式。利用AI、ML和其他相關的先進技術領域來實現自主系統,是現代自主系統的一個改變戰術的戰略。

現代尖端的人工智能和ML技術已經越來越多地被用于軍事和國防領域的各種成功應用,包括網絡安全[5]、海上安全[6,7]、關鍵基礎設施保護[8,9],以及其他具有重大社會和技術意義的領域。先進的人工智能系統的潛力可以被用來對軍事和國防技術產生積極的影響。人工智能可以在軍事環境中用來評估收集的數據,并提供作戰計劃和戰略支持,加速決策過程。除此之外,人工智能系統可以被設計和部署在戰略、政治、作戰和戰術層面的戰爭中使用。

在政治和戰略層面上,人工智能系統可以用來動態地破壞隱藏的敵人,并實時防御各種形式的對手攻擊。然而,在戰術層面,人工智能可以為無人系統提供更快、更好的態勢感知,以減少其對攻擊的脆弱性。它還可以通過識別可疑的模式和潛在的危險活動有效地自動檢測威脅。然而,盡管在過去的幾十年里,自主性在廣泛的領域內取得了進展,但一些技術和實際的挑戰仍然大大限制了現代自主系統的部署和廣泛采用。第4節、第5節和第6節將討論一些需要解決的關鍵挑戰。因此,必須在人類最低限度的監督或參與下開發現代戰術自主系統,以大幅提高最先進的水平,減少認知工作負荷,增加功能,改善和保持多領域的態勢感知,提高整體機動性和流動性,有效實現部隊保護,支持主動的網絡防御等。

在對自主性越來越感興趣和普及的激勵下,本文對戰術自主性的基本概念和原則進行了全面的技術調查,重點是以前研究工作中沒有充分解決的前沿人工智能和ML方法。據我們所知,這是第一篇論述當前重要趨勢、戰略、基本挑戰、戰術復雜性和未來戰術自主性研究方向的作品。

貢獻。我們論文的主要貢獻總結如下:

  • 我們介紹了戰術自主的基本概念和它在廣泛的應用中的潛力。

  • 我們掌握了在軍事和國防背景下對戰術自主性概念的理解。

  • 據我們所知,我們是第一個提供關于戰術自主性的重要當前趨勢、戰略、基本挑戰、戰術復雜性和未來研究方向的。

  • 我們提出的工作可以作為設計先進和創新的人工智能和ML模型的一個重要步驟,對現實世界的軍事和國防應用具有實際意義。

  • 我們提出了戰術自主性的基本和長期的挑戰。

提綱。本文的其余部分組織如下。第2節提供了簡要的歷史,主要的里程碑,倫理方面,以及戰術自主性的級別。第3節介紹了可用于推進戰術自主能力的不同人工智能技術。第4節描述了對可信人工智能和任務自主性的需求。第5節簡要介紹了平臺之間的廣泛合作和相關的技術挑戰。第6節介紹了最先進的人機協作方法以及與當前方法相關的挑戰。第7節簡要介紹了戰術自主性的網絡安全及其基本挑戰。第8節詳細討論了戰術自主系統的風險和內在挑戰的概述。最后,在第9節中,我們總結了本文并討論了潛在的未來工作。縮略語部分列出了本文中使用的縮略語。

2. 背景

關于自主系統的文獻已經在許多研究工作中得到了廣泛的研究。自主性的概念有不同的內涵,而且在過去幾年里有了很大的發展。例如,[10]中的自主性概念是關于委托的任務。在[10]中詳細解釋了委托的各個方面和層面。一般來說,智能系統背景下的自主性側重于開發智能決策系統,這些系統可以在復雜的戰術環境中自主地進行物理操作,并具有一定程度的自我管理[11]。在本節中,我們只提供明確與歷史、倫理方面、自主的屬性、監管和戰術自主性級別有關的工作背景。

2.1. 戰術自主權的簡要歷史和主要里程碑

根據美空軍研究實驗室(AFRL)的說法,戰術自主性是一個與現代自主系統相關的術語,該系統在人類的授權和約束下行動,以支持與長期戰略愿景相關的戰術、短期行動。近年來,在廣泛的應用中出現了相當多的關于戰術自主性的跨學科研究。軍方長期以來一直對推進機器人技術和自主行動的能力感興趣。美空軍部(DAF)和國防部(DoD)正在推動開展以戰術自主性為重點的創新自主性研究,這將有助于將研究轉化為實際應用。此外,美國AFRL正在大力優先考慮正在進行的數字化改造戰術自主性的研究工作,特別是在軍事領域,以更好地使作戰人員對抗美國對手。圖1描述了戰術自主性的簡要歷史和重要的里程碑。

圖 1. 戰術自主的性簡史和里程碑。

戰術決策。決策系統采用先進的模型,對復雜環境進行預測。由于這些模型中有許多是數據驅動的,自主系統應該能夠獲得更多關于它們所處的復雜環境的數據,并相應地實時調整它們的基本行為。對智能自主系統在嘈雜、動態和現實環境中的強大和有效的戰術決策的需求正在迅速上升。然而,最關鍵的挑戰之一是為自主系統設計戰術決策模型和支持框架。例如,與其他道路使用者的復雜和動態互動,環境的復雜多樣性,以及傳感器信息的不確定性,使得自主駕駛的戰術決策變得非常困難[12]。

一個結合了規劃和深度強化學習(DRL)的通用框架,可用于自主駕駛系統的戰術決策智能體,在[12]中被詳細描述。該框架的性能在兩個概念上不同的高速公路駕駛場景中進行了評估[12]。戰術決策算法被設計用來處理不可預見的環境狀況和不可預測的對抗性攻擊。戰術決策系統的過程可以被建模為概率的(即包括不確定因素時)或完全確定的(即不包括不確定因素時)。不確定性中的計劃和決策在機器人和自主系統中是至關重要的。因此,在設計自動決策模型和算法時,必須考慮到各種不確定性的來源[13]。部分可觀察的馬爾可夫決策過程(POMDP)是一個通用的數學框架,用于模擬不確定性下的決策任務[13]。然而,在以前的工作中,沒有充分解決設計能夠制定不確定性意識的戰術決策任務的有效方法,如POMDP,以及解決其計算復雜性。因此,正如第3節所解釋的,需要基于先進的人工智能/ML方法的不同策略來加強復雜和現實環境中的戰術決策任務的進程。

2.2. 自主性的倫理問題

自主性的倫理問題對人工智能研究者來說是復雜的挑戰。現代基于人工智能的系統的開發和應用在學術界和工業界都在激增。因此,在決策過程的速度和效率大幅提高的激勵下,我們日常生活的各個方面的決策正在完全委托給人工智能/ML驅動的算法。然而,關于自主權與倫理的關系、社會影響、法規、自主權治理、倫理影響以及這種自主技術和活動的能力等許多重要問題在以往的研究中沒有得到充分的解決。因此,探索基于人工智能的完全自主技術的安全和倫理層面,使我們能夠認識到先進機器自主性的當前和未來潛在發展的倫理影響。此外,對機器智能的倫理學進行準確有效的調查,可以促進發現現有倫理學理論的潛在問題,以及它們在現實世界環境中的一般作用。關于機器倫理學的意義、倫理學理論的研究以及自主智能機器的倫理學影響的詳細討論見于[14]。關于[14]的研究工作還表明,現代算法可以被設計成模仿人類的倫理決策。

機器倫理學。隨著人工智能驅動的決策在廣泛的領域中變得越來越普遍,關于其適用性[15]、倫理層面以及在決策算法設計中對基本方面的考慮等新的重大問題也出現了[16]。機器倫理學的最終目的是有效地研究如何設計智能機器來進行道德和倫理上的推理。它關注的是智能機器對人類和其他自主機器的行為。機器倫理學的主要目標是開發一種智能機器,在可接受的道德層面的指導下,對潛在的行動方案做出決定。區分隱性倫理機器和顯性倫理機器很重要[17]。隱性倫理機器意味著約束智能機器的行動以避免不道德的結果。實現這一目標的一個實用技術是通過開發軟件系統的內部功能和特性來隱性支持和促進道德行為[14]。另一方面,顯式倫理機器可以通過使用倫理原則的顯式表示來解釋倫理信息[14,18]。明確的倫理機器可以處理新的情況,并合理地做出明確的倫理判斷[14,18]。

ML研究界已經開始探索將現代ML能力應用于機器倫理。之前已經介紹了各種用于倫理推理的ML方法。例如,[19]中的工作探討了一個神經網絡模型,該模型對特定的道德判斷和基于案例的道德推理進行分類。在[20]的工作中簡要介紹了一種基于案例的推理方法,以開發能夠指導對道德問題和困境進行推理的系統。[20]中提出的一個主要問題是,機器如何協助或潛在地取代人類在道德推理中的位置。

[21]中提出了一種不同的計算倫理學方法,它采用了一種基于行動的倫理學理論方法。作者為一個具有多種計算職責的倫理理論開發了一個高效的決策程序[21]。除了ML能力之外,還有其他方法來解決這個問題,比如說,使用義務邏輯(deontic logic)(哲學邏輯領域關注義務、許可和相關概念)。例如,[22]中的作者描述了如何使用行為邏輯將一套特定的倫理原則納入自主系統的決策過程。另一方面,[23]中的工作評估了應用行為邏輯方法來實現伊曼紐爾-康德關于絕對命令和道德義務的基本原則的可行性。作為伊曼紐爾-康德關于機器倫理學的一般方法,存在一個決策程序,用于生成絕對命令,并從中得出行動規則。根據[23]中提出的方法的結果,道德范疇被表述為禁止的、允許的或強制的行動。

2.3. 自主性的屬性

文獻表明,在分布式人工智能的背景下,有多種方法來定義自主性和自主系統的概念。自主性可以被定義為智能體在沒有直接外部干預的情況下獨立行動的能力,并在最小的人類監督下做出決定。自主系統概念的定義在其自主性屬性方面也有不同。其外部和內部狀態決定了自主性的屬性。當一個系統的行為是非決定性的,可以被認為是自主的。非決定性的系統即使在相同的環境輸入的情況下也可能表現出不同的行為,甚至可能完全失敗。另一方面,如果考慮到系統的內部狀態,一個自主系統也可能是確定性的。一個確定性的系統是一個系統,它的模型從一個給定的環境初始狀態或情況下持續產生相同的結果。在這種情況下,主動性、互動性和涌現是最能描述自主性及其相關基本特征的三個屬性[24,25,26]。自主性的屬性摘要見表1。

表1. 自主性屬性總結。

主動性。智能自主系統必須安全地適應動態和不可預測的環境中的意外情況,以便在各種領域中使用[27]。當自主系統在沒有明確的外部事件的情況下激活目標或啟動行動時,這種自主性的屬性被稱為主動性[24,25,26]。

交互性。這一屬性指的是智能體與環境的交互。自主系統可以動態地與復雜和不可預測的環境互動并作出反應。此外,智能自主系統還能適應動態環境的變化。這一特性在實時應用中非常重要[24,25,26]。

緊急性。復雜的多智能體系統是由多個相互作用的子系統組成的。智能體的交互和主動性產生了新出現的自主屬性,這些屬性事先沒有明確的模型。在大規模多智能體系統的背景下,緊急性的特點是隨著時間的推移,與環境的非線性相互作用引起的意外系統行為。這種特性影響著系統的可靠性和可預測性,它被用作評估自主軟件系統的標準[24,25,26,28]。

2.4. 監管和自主性級別

受監管的自主性。隨著目前人工智能研究的進展和現代自主系統的影響越來越普遍,建立政策、法規和準則以確保人工智能驅動的智能系統保持可信、道德和以人為本是非常重要的。例如,歐盟的一般數據保護條例(GDPR)[29,30]和美國的公平信用報告法(FCRA)[31]所采用的隱私條例對如何處理個人互聯網數據給出了指示,并授予個人訪問其個人信息的權利,以及獲得有關智能自動系統所做決定的合理解釋。采用這樣的一套法規,使我們能夠評估圍繞人工智能驅動的自主系統及其運作方式的法律和倫理問題。

自主性的級別。根據以前的研究工作,自主性的級別被分為強監管、操作性自主、戰術性自主和戰略性自主。自主級別與基礎動態環境屬性的映射在[26]中有所描述。環境的屬性包括可觀察的、決定性的、偶發的、靜態的和智能體。一個可觀察的環境在任何時候都能完全或部分地接觸到系統的所有必要狀態。一個確定的環境是指基礎環境的下一個狀態完全由當前狀態和智能體選擇的行動決定[32]。在偶發環境中,智能體的經驗被分為多個獨立的偶發事件。環境中的每一個情節都由智能體的感知和然后的行動組成。換句話說,偶發環境是指之前的行動不影響下一次的觀察[32]。然而,如果隨后的行動取決于先前的行動,則環境被稱為順序性的。如果一個環境不隨時間的推移而變化,則被稱為靜態環境。如果一個環境在其上運行時發生變化,則被稱為動態環境。單一智能體系統意味著只有一個智能體在一個特定的環境中行動和互動。然而,如果多個相互作用的智能體與他們的環境相互作用,則被稱為多智能體系統。

強監管表示沒有自主能力的系統。這種監管在復雜程度有限的環境中是有效的。操作性自主表示決策的操作層面。實現操作自主性的智能軟件系統在部分可觀察、確定性、偶發性和靜態的環境中實際上是有效的[26]。戰術自主性在自主系統的戰術決策方面擴展了操作自主性。

3. 用于戰術自主能力的人工智能技術

自主性是學術界和工業部門的一個活躍的研究領域。隨著現代分布式自主系統和智能技術的普及,人工智能和ML方法已經大大推進了各種研究領域問題的最新進展。人工智能方法在大幅提高自主系統的性能和安全性方面具有關鍵作用。完全自主的和其他復雜的網絡系統被配置和編程為連續運行。這些復雜的系統不斷從周圍環境中收集復雜的信息。因此,操作和理解完全自主系統的動態和運動學,并實時處理巨大的信息流是極具挑戰性的,超出了人類的能力。這時,基于人工智能的技術及其底層的ML能力就有了壓倒性的幫助。事實證明,人工智能和ML系統在一些領域比人類更強大、更高效[33,34,35,36]。除此之外,人工智能和ML系統經常在復雜情況下指導人類理解和自主決策過程[37,38]。

先進的人工智能和自主系統技術已經改變了我們的生活,并將在未來繼續改變。這種由人工智能驅動的技術革命的空前成功,其潛力在于人工智能系統在各種新興技術中的適用性迅速增加。例如,在過去的幾十年里,人工智能技術在機器人和自主系統界創造了潛在的現實世界影響。除了人工智能的潛在好處外,人們也擔心強大的人工智能系統的長期影響[39,40,41]。最近,強大的人工智能和ML技術在戰術自主方面的進展已經徹底改變了廣泛的領域,包括自主駕駛[42,43,44]、航空和航天工業[45]、無人駕駛飛行器(UAV)導航[46]、海上防御[47,48]等。最近自主系統的大多數方法都是基于不同的人工智能技術。表2列出了用于戰術自主的最先進的人工智能技術的摘要。一些主要類別的方法詳細包括以下內容。

深度學習(DL)。這是一種有效且強大的人工智能應用算法,如計算機視覺、自然語言處理(NLP)、機器人、人工智能游戲和其他應用。自其誕生以來,深度學習(DL)方法已被證明能有效地發現和學習高維訓練數據的復雜結構[49]。由于深度神經模型在復雜環境中帶來的巨大性能,DL技術最近被用來解決一些現實世界的應用,如自動駕駛[50,51,52]、計算機視覺[53]、圖像分類[49]、視頻預測[54]等。作者在[55]中展示了深度Q網絡(DQN)代理如何學習為自主駕駛做出一個通用的戰術決策模型。DL方法也有助于根據當前和過去對周圍環境的觀察,預測復雜駕駛環境中自主車輛的行為和性能[56,57]。此外,[58]中提出了一種使用深度神經網絡估計端到端車道位置的方法。

強化學習(RL)。要實現人工智能技術的全部影響和潛力,需要智能自主系統能夠動態地學習并自動做出獨立的決定。與自主系統相關的戰術決策任務的一個根本不同的方法是利用一種不需要對輸入的訓練數據進行標記的人工智能/ML技術。完成這種任務的一個強大的ML范式是應用強化學習(RL)技術[59]。RL是一個框架,為經驗驅動的順序決策問題提供了有效的解決方案[59]。它關注的是智能人工智能代理應如何在復雜和嘈雜的環境中做出合適的決定,以使特定可執行行動的累積獎勵最大化。RL是基于自我學習的人工智能代理和其復雜環境之間的動態互動序列。通過其在人工智能代理中的自學能力,RL正在使各種科學領域取得令人興奮的進展,如自主機器人[60]、自主駕駛[61,62]、NLP[63,64]、游戲[65,66]和許多其他應用。可以利用RL技術來為自主系統創建一個通用的戰術決策代理。例如,基于神經網絡集合的貝葉斯RL技術被用于自主駕駛的有效戰術決策代理[67]。此外,最近的一些工作也將基于深度RL的技術擴展到移動機器人的自主導航任務中[68,69]。

聯邦學習(FL)。在傳統的ML和DL應用中,來自不同客戶的訓練數據通常被聚集在一個中央服務器或云平臺上,以訓練模型有效地執行一個給定的任務[70]。這是一個常見的數據隱私問題,也是經典的ML和DL方法的基本限制,主要是當訓練數據包含高度敏感和機密的信息(如國家機密和軍事相關信息、醫院等),會引起廣泛的安全和隱私以及法律和道德問題。維護智能系統的安全和隱私仍然是一個公開的挑戰。這種情況下,聯邦學習(FL)技術是有幫助的。聯邦學習是一種新興的、有前途的去中心化ML范式,它通過采用分布式計算來解決數據安全和隱私問題[71],提供了一種解決方案。它使網絡中許多資源有限的分布式客戶端能夠協同訓練ML模型,而無需交流他們的本地數據,主要目的是保護用戶的隱私和安全[72,73,74]。通過利用跨學科的技術和科技,機器人和自主系統正變得越來越普遍。鑒于隱私保護、分散學習、并行訓練和機載處理等獨特的優勢,FL有可能成為分布式自主系統的安全和高效的人工智能框架[75]。例如,在[76]中,作者提出了一個FL框架,使自主控制器模型在一組連接和自主的車輛中進行協作學習。其他作者在[77]中證明了FL模型可以被用來從更大的設備池中檢測和識別不同類型的無人機,通過利用單個無人機傳輸的射頻信號。

表2. 用于戰術自主能力的人工智能技術綜述。

4. 可信的人工智能和任務自主性

最先進的人工智能和ML技術正被越來越多地應用于一系列需要改進操作可靠的時間關鍵型和安全關鍵型系統,如軍事、國防、航空航天、自動駕駛[78]、醫學[79]、科學[80]等。為了提高和確保其端到端的有效性和彈性操作,這些具有人工智能能力的現代自主系統必須被持續驗證、核實和監測。此外,為了使自主系統保持穩健的運行,還需要持續的系統性能評估,以識別不可預見的風險、異常情況和潛在的對抗性威脅。此外,對于超出人類控制的自主武器,也有人工智能支持的軍事關切[81]。

可解釋人工智能。最近ML技術的進步使得人們對人工智能系統的可解釋性越來越感興趣,以幫助人類更深入地了解ML算法的決策過程。在過去的幾年里,先進的人工智能系統在各種復雜的應用中廣泛部署,與此同時,道德、法律和社會對這些系統提供人類可理解的模型解釋和對其輸出的解釋的要求也在增加。作為這些要求的結果,最近有幾項關于要求對基于人工智能的自動系統所做的決定進行解釋和說明的法規的工作被引入[82,83,84]。這也導致了一個不斷增長的研究群體,他們非常關注可解釋的ML技術。如圖2所示,為用戶提供可理解的解釋和說明,可以讓他們更深入地了解系統的自動決策觀點,這是建立對底層人工智能和ML系統信任的關鍵因素[85,86,87]。因此,在關鍵系統的人工智能模型和技術中建立可解釋性和可解釋性也會對安全[88]、倫理[89,90,91]、法律[92,93,94]和可轉移性[95]產生影響。然而,人工智能和ML系統的內部運作是人類難以理解的,被認為是黑箱方法,只有輸入和輸出對用戶可見[96]。這種人工智能和ML系統的算法缺乏透明度,對現實世界的用戶需求缺乏了解,以及我們無法充分解釋這些系統如何以及為什么會達成特定的人工智能驅動的自動決策,使得它從根本上難以理解,即使是該領域的專家[96,97]。為了讓人類充分信任人工智能驅動的系統并建立信心,底層系統的解釋必須與人類的期望和認知一致。最近,越來越多的開源解釋工具和平臺產生了不同的解釋,用于探索和解釋底層的黑盒ML模型,正在被用戶訪問[98,99,100,101]。然而,盡管最近作出了努力,目前大多數最先進的解釋和解釋技術需要更加值得信賴。

圖 2. 可解釋 AI。如第 8 節所述,開發高級 ML 技術以生成可解釋的模型是我們未來工作的一個方向。除此之外,集成最先進的解釋接口以產生對底層模型的有效解釋是我們計劃在未來工作中探索的挑戰。

可信任人工智能。先進的人工智能和ML模型能夠加速復雜系統中數據驅動的自動決策過程。然而,正如前面所解釋的,盡管最近人工智能和ML系統在科學和技術領域被廣泛采用,其系統模型在很大程度上仍然是黑盒方法。對這些復雜的系統如何全面運作有一個清晰和充分的了解,對于建立信任和透明度是很有幫助的。此外,了解人工智能和ML系統的內部運作,可以讓用戶更好地了解底層模型,然后利用它將模型從不可信轉變為可信任的。當模型被用于自動決策系統時,確定人工智能和ML模型的可信度是一個基本問題。正如第6節所解釋的,人類和智能機器之間的合作使現代自主系統得到了快速發展和廣泛使用。在軍事和國家情報機構以及其他關鍵領域有效使用這種復雜的系統,取決于人類和機器之間建立的信任。因此,鑒于人工智能驅動的技術在眾多自主系統中的應用范圍迅速擴大,使這些系統可靠和值得信賴比以往任何時候都更重要[102]。建立一個安全和可信賴的人工智能生態系統對于確保人類安全和在各種應用中采用先進的人工智能技術至關重要[103]。可信的人工智能是一個技術術語,描述了人工智能的安全性、合法性、穩健性和道德原則,包括對人工智能驅動的系統的安全性[104]、隱私[105]、透明度和公平性的基本關注[106,107]。使人工智能系統值得信賴的要求和要素如圖3所示。可信的人工智能的基本概念是基于這樣一個概念:當信任建立起來時,人工智能會充分發揮其潛力。可信性賦予人工智能系統可解釋性技術,使人類更容易理解和信任無處不在的人工智能算法所產生的結果和輸出背后的特征和原因。

圖 3. 可信人工智能的要求和要素 [108]。

任務自主性。它是一個技術術語,大多用于國防和航空航天技術行業和其他下一代自主和智能系統。任務自主性是指自主系統在使用現代數據驅動的人工智能/ML技術對底層系統的了解和理解的基礎上,獨立執行各種基本的復雜任務的能力,如深空探測任務[109]。為了使先進的任務自主系統的開發和實施在戰術上有用,必須解決上述與自主和人工智能系統相關的潛在安全和風險問題。

5. 平臺之間的協作

先進的算法決策系統的激增使得不同平臺之間的協作成為可能。然而,實現和確定人類、智能機器和自主代理之間的直接協作是具有挑戰性的。一些需要解決的主要技術挑戰是互操作性、可組合性和適應性。

互操作性。在自主性方面,互操作性使不同類型的大規模自主系統能夠通過底層平臺獨立地進行通信。當設計具有強烈自主性概念的交互式自主代理系統時,互操作性問題發生在不同的層面。正如在[110]中詳細描述的那樣,互操作性層可以分為連接層、通信層、本體層和服務層。

可組合性。在軟件系統開發領域,可組合性對于創建一個強大、靈活和可互操作的系統來說是必要的,在這個系統中,不同的交互式自主組件可以無縫通信[111]。它能夠將基于組件的系統的獨立功能結合起來,以完成一個特定的、無法獨立完成的總體任務。可組合性使系統設計有能力通過重復使用現有的系統組件和適應新的變化來提高敏捷性[111]。一個可組合的架構允許幾個系統組件的組裝。這樣的方法有重要的好處,包括可重用性、靈活性和改進的模塊化。自主性、模塊化和可發現性是可組合組件的主要元素。在一個可組合的系統中,每個組件都被期望在沒有其他組件的幫助下自主獨立地執行一個給定的任務。另一方面,模塊化是指當一個可組合系統中的每個組件被設計成獨立解決一個特定任務時的系統屬性。這使得系統設計者有可能將模塊化組件組裝成一個系統。除此之外,可組合系統的框架必須可以被其他用戶發現,以便單個組件可以被重復使用。

適應性。一個交互式自主系統需要意識到它的內部狀態和它穩健運行的復雜環境。先進的自主系統有能力自主地、互動地監測和適應復雜環境中的任何意外變化。一個復雜的系統有效處理運行環境中動態功能變化的程度被稱為適應性[112,113]。一個適應性強的、穩健的、有彈性的系統能夠容忍環境中的突然變化和動態情況,而不依賴外部干預[112]。

6. 人機協作

人機協作的概念及其能力是當前人工智能研究中許多進展的核心。人機協作是一種范式,在這種范式中,人類和具有不同能力的智能機器整合并緊密合作,以完成一個需要集體行動的共同目標[114,115]。它關注的是對打算供人類使用的智能機器的深入理解和評估[116]。鑒于最近的指數增長和人工智能技術的預測能力,在智能系統和人類之間創造一個成功的協作操作環境來解決復雜的問題是至關重要的。然而,廣泛采用人工智能系統的主要挑戰之一是將人類和分布式智能系統無縫整合以實現共同目標的能力。

有效地利用人機合作,使人類能夠更深入地了解智能機器的自動決策。然而,正如第4節所解釋的,這高度依賴于人工智能自動決策系統和人類之間的信任。這是因為當人類對人工智能驅動的決策給予更多的信任時,就會產生關于信任問題的疑問。人機合作的有效性主要取決于機器的透明度以及用戶對人工智能系統的行為是否符合預期、安全、可理解的信心程度[117]。跨越多個學科、由現代人工智能技術驅動的自主系統和領域專家的廣泛合作,對于建立人工智能/ML模型的可解釋性,創建一個可信賴的人工智能生態系統,以及釋放人工智能的潛力以解決更多重大問題,是非常引人注目的。

人工智能有可能提高人類的能力,使組織決策自動化,并從根本上改變企業的運作方式[118,119]。人工智能/ML系統的可解釋性是一種潛在的人機合作方式,因為具有解釋和解釋結果能力的自動化使人類能夠更好地理解智能機器的基本行為。使用自主系統的主要好處之一是能夠比人更快地實時處理更多數據。為了確保安全和有效的關鍵任務操作,跨越不同領域的自主系統,如國防、醫療[120]、航空航天、制造、自動駕駛等,都被評估為與人類協作操作。因此,探索更好的人機協作的前沿技術,有能力提高生產力、可用性、可靠性、操作性能、通信接口、設計和操作平臺的成本,在人類和智能機器之間分享知識,并確保安全和現有系統適應新環境和新任務的能力[121,122]。在[123]中提出了一個人機合作框架,指導人工智能開發團隊創建廣泛采用的道德人工智能系統,這些系統是可用的、安全的、值得信賴的。除此之外,主要的參與者,如IBM[124]、DeepMind[125]、谷歌[126]和其他學術機構最近啟動了一項研究工作,以加強人機協作[127,128,129]。

6.1. 自組織人機協作

自主系統的重大進展正在日益提高我們日常生活的質量。鑒于過去幾年的這些技術進步,出現了不同形式的人機協作。自組織編隊是指具有不同知識和能力的人類和智能機器集體合作以實現共同目標的過程[130]。自組織人機編隊是一個具有挑戰性的場景,在這個場景中,智能體與未知的異質隊友合作,事先沒有協調的知識。一個有效的自組織團隊成員是一個善于將其他代理的能力與自己的能力進行比較評估的代理。在軍事、工業和其他自主環境中,在沒有任何先決條件的情況下與異質團隊進行有效和穩健的合作是非常重要的。沒有任何事先協調的協作是人機研究中的一個已知挑戰[131]。作為解決這個問題的一種方法,[132]中提出了一種針對自組織團隊環境的在線規劃算法,該算法是為智能體在沒有任何預先協調的情況下進行合作而設計的。

6.2. 當前人機協作方法相關的挑戰

以下是限制我們在動態操作環境中有效整合人類和智能機器的一些主要挑戰。

異質性。在人機協作中,由于人類決策任務的顯著異質性,智能機器很難預測和適應人類在動態操作環境中的行動。因此,開發可用于解決人機協作環境中異質性問題的最先進的模型和技術非常重要。

通信。人機協作的成功取決于人類和智能機器之間的有效通信。人類的通信能力有限,只能處理有限的信息量。因此,通過簡單地交換基本信息,人類和機器可以有效地溝通信息,支持人機協作。然而,這在人類和機器之間造成了信任問題。有效團隊溝通的一個關鍵組成部分是智能系統和人類之間建立的信任[133]。在人機協作中,信任被定義為用戶對智能系統結論的可靠性及其完成既定目標的能力的信心[134,135]。透明度的概念是信息交流的一個關鍵方面,因為人類和智能機器需要共享知識,對意圖、推理和決策過程、性能和未來計劃有共同的理解[136,137]。

當人類和機器作為團隊一起工作時,通信可能有助于建立信任。此外,它可以用來建立有效設計信息的準則,促進人機合作的整體性能和信任[138]。然而,機器必須首先能夠大致模仿人類處理信息的方式,才能使機器以人類能夠理解的方式交換信息。人機協作關系有三個最重要的組成部分:人、智能機器、以及人與智能機器(或替代品)之間的互動。因此,如上所述,通過開發可解釋和可信賴的人工智能來建立信任,對人機協作的成功至關重要。然而,人工智能系統日益增長的復雜性和脆弱性,以及它們學習和適應動態變化的操作環境的能力,也為在人機團隊中建立信任提出了新的挑戰。

協調。為了充分發揮異質團隊的潛力,人類和智能機器應該以高效和協調的方式進行合作。如上所述,人機協作中的通信是指人與智能機器之間的信息交流,或者說是交替進行。另一方面,協調是指組織和管理團隊成員及其相關行為以實現特定的共同目標[139,140]。根據[141],有效的人機協調涉及三個基本要求。這些要求是共同點、可預測性和可指導性。為了準確有效地進行團隊溝通,參與者必須首先確定適當的共同點,即知識、共同信念和假設、共同目標等。共同點是指參與對話的所有參與者共同相信的信息[141]。而協調小組成員合理預測對方行動和行為的能力被稱為相互可預測性[141]。另一方面,可指導性是指當環境和優先事項突然改變時,團隊成員重新指導、幫助或影響對方行為的能力[142]。因此,根據這三個要求開發一個支持隱性協調的高級模型是很重要的。隱性協調被定義為在不使用行為通信的情況下,基于假設和意圖同步團隊成員的行動和行為的過程[143,144]。這意味著通信對于隱性協調來說不一定是強制性的。隱性協調有助于提高團隊的效率,因為它使團隊成員即使在沒有直接溝通的情況下,也能通過避免分心和有效通信來共同工作[145]。這反過來又大大減少了通信的開銷[146]。

適應性。通過調整策略和行為來有效改變行動方案以應對意外變化的復雜條件的能力被稱為適應性[113]。適應性可以分為兩類:人類輔助的適應性,以及機器輔助的適應性[147]。智能機器應該能夠識別人類隊友的知識和行為。此外,機器還應該能夠預測和應對人類的新知識和行為。然而,這需要開發現代適應性(即機器控制的適應性)和適應性(即人類控制的適應性)系統。

7. 戰術自主性的網絡安全

近年來,自主系統吸引了學術界和工業部門的大量關注。然而,自主系統在各種領域的廣泛和有效采用也帶來了需要解決的安全攻擊的顯著增加。因為網絡攻擊者的目標是大規模自主系統,如現代自主車輛(AV)、載人航天器、空間交通管理系統、船舶、移動機器人、復雜核電站的運營、飛機、智能城市的關鍵基礎設施等,以破壞系統的安全性,并對其運營造成破壞性的損害。因此,設計基于人工智能的方法是至關重要的,它可以主動應對試圖破壞和獲取自主系統及其指揮組件的潛在破壞性攻擊,例如,針對系統的基本自主決策能力。自動檢測和應對鋪天蓋地的安全威脅,處理大量的數據,并發現未知攻擊的新模式,是人工智能系統在網絡安全方面的一些好處[148]。

人工智能在網絡安全方面的挑戰。人工智能會帶來不可預見的法律、道德和社會風險和挑戰,如果不能有效解決,可能會大大降低其潛力。如上所述,人工智能及其先進的ML技術已經發展成為廣泛的創新和動態領域的一項有利技術。人工智能具有戰術和戰略上的潛在好處。然而,在與使用人工智能系統相關的信任和道德考慮方面,它也被認為有一些關鍵的制約和限制。例如,[149]中的作者談到,人工智能本身可能對網絡安全和法律及道德問題構成威脅。他們認為,人工智能系統缺乏可解釋性和可解釋性,可以被利用來隱藏安全攻擊[149]。[150]中的另一項工作也證明了人工智能在網絡安全威脅方面既有積極作用,也有消極作用。此外,鑒于人工智能驅動的網絡欺凌的興起,作者還認為應該允許網絡安全專家繼續做他們的工作,并在人類智能有必要時進行網絡測試。

7.1. 入侵檢測

入侵檢測系統旨在檢測網絡中盡管采取了預防措施但仍不可避免地發生的入侵或安全攻擊[151]。入侵檢測系統有多種方法。一些方法采用了基于簽名的技術,在該技術中,事件被檢測到并與預先定義的已知安全攻擊和入侵的簽名數據庫進行比較[152,153]。其他系統采用異常檢測技術,系統在數據中發現潛在的有害模式,這些模式不符合正常行為的預期概念[154,155,156] 。在現代自主技術中,監測和識別異常情況,檢測非法和惡意活動,并采取補救措施,以確保實時自主決策系統的持續運行,特別是在戰術環境中,同樣重要。[157]中提出了一個原型的分布式入侵檢測架構,該架構使用為戰術環境定制的自主代理。[158]中提出了一種基于人工智能的方法來識別和檢測無人機中的入侵行為。

7.2. 反自主性

反自主技術越來越受歡迎,之前已經提出了各種方法來解決這個問題。當一個自主系統的基本保密性和功能受到損害時,它就會使自己更容易受到未來的安全攻擊,并對其他自主系統構成潛在威脅。因此,在不斷變化的條件下,主動檢測和識別旨在針對自主系統的潛在網絡攻擊是至關重要的。在[159]中,作者調查了需要解決的安全和隱私挑戰,以提高網絡物理系統的復原力。在[160]中介紹了一個用于自駕車的入侵檢測系統。160]中的工作涉及到,自動駕駛汽車如果被破壞,也會對道路上的乘客和行人構成風險。此外,他們的論文還討論了互聯自動駕駛汽車的漏洞如何超越了對道路上的司機、乘客和行人的危害。作者認為,互聯自動駕駛汽車的協調有可能被用來發動影響大規模車輛特設網絡(VANET)的大范圍攻擊[160]。

無人機系統具有巨大的潛力,可以在廣泛的下一代技術應用中徹底改變研究和創新。這些系統有可能受到復雜的攻擊,旨在破壞其復雜的操作和自主決策能力。這些攻擊可以用于進攻性和防御性的網絡行動。因此,有必要制定靈活和積極的戰略,有效地提供一個潛在的防御機制,以應對旨在利用安全關鍵的自主系統在最小的人為控制下的實時漏洞的攻擊。

8. 與戰術自主性有關的一些挑戰

戰術自主性為許多國防和軍事應用提供了一個很好的解決方案,只需有限的人力參與。ML和AI系統為實現民用和軍事應用的自主性創造了前所未有的機會。然而,為了開發長期的、值得信賴的、強大的和安全的自主系統,需要解決基本的挑戰。對智能系統中使用的復雜技術和工藝的實際理解是許多人工智能和ML系統的關鍵部分,這些系統是戰術自主的核心組成部分。

雖然有許多開放性的研究問題需要解決,但要實現戰術自主性在國防和其他應用中的全部潛力,需要解決的一些最長期和最重要的挑戰包括以下幾點。

  • 用于戰術自主的可信賴的人工智能。為關鍵的國防任務開發可信的、強大的和有彈性的人工智能和ML框架,需要了解與可信的人工智能和任務自主性有關的理論和實踐技術和方法,平臺之間的協作,以及通過解決第4節、第5節和第6節分別討論的關鍵技術挑戰實現的人機合作。為了增強對人工智能系統的信心,我們需要進行更多的研究來解決這些問題,使人工智能系統值得信賴。

  • 對基于人工智能的模型進行驗證。確保基于人工智能的解決方案按照預期工作是極其重要的。然而,設計最先進的方法來驗證基于人工智能的系統是具有挑戰性的,需要大量的工作。

  • 平臺之間的協作。改善人類和完全自主的系統(如飛行員和自主副駕駛)之間的實時協作是具有挑戰性的。因此,開發一個有效的、高效的協作性自主解決方案是一個需要克服的關鍵挑戰。

  • 人機聯合協作。深入了解機器如何向人類學習,人類如何向機器學習,以及機器和人類如何共同工作是非常重要的。我們如何才能設計出先進的自主系統,在軍事和國防環境中與人類協同工作?

  • 提高安全性。我們如何設計和部署一個端到端的方法,整合現代安全關鍵型自主系統的安全問題?

9. 結論

軍事和國防工業希望利用AI和ML的能力來推進和改善其在戰術環境中的表現。在本文中,我們對戰術自主的概念、技術和技術進行了全面的技術概述。此外,我們的論文還強調了在試圖為先進的現實世界軍事和國防應用實際建立完全自主系統時出現的一些關鍵和操作挑戰。因此,我們希望本文能鼓勵人工智能和ML研究人員在戰術自主性領域進一步探索開發架構和方法論。

設計先進的人工智能和ML模型,對現實世界的軍事和國防應用具有實際意義,這是一個很大的挑戰。進一步調查這個問題,重點是在以前的研究工作中沒有充分解決的尖端人工智能和ML方法,是未來工作的一個有趣的方向。此外,展示一系列實際應用和最先進的方法,以解決和深入了解本文所討論的一些長期關注的挑戰,是未來戰術自主權實際應用的另一個研究方向的課題。

付費5元查看完整內容

本文是美國陸軍網絡研究所系列文章“競爭與勝利:設想 21 世紀的競爭戰略”的一部分。該系列圍繞美國競爭戰略以及在物理、網絡和信息空間中與同行和近似競爭對手非常規戰爭的各種問題發表專家評論。該系列是網絡空間競賽項目 (C2P) 的一部分,該項目由陸軍網絡研究所和現代戰爭研究所聯合發起。

沒有人喜歡在早晨醒來,但現在由人工智能驅動的算法為我們設置鬧鐘,管理我們家中的溫度設置,并選擇符合我們情緒的播放列表,打盹按鈕的使用越來越少。人工智能安全輔助系統使我們的車輛更加安全,人工智能算法優化警察巡邏,使我們開車經過的社區和居住的地方更加安全。在我們周圍,人工智能就在那里,為塑造我們的環境的工具和設備提供動力,在我們的日常生活中增強和協助我們,并促使我們對吃什么、穿什么和買什么做出選擇--不管是否經過我們的同意。然而,當我們的智能設備開始決定我們中誰是可疑的,當一個邊緣化的社區成為警察巡邏的不成比例的目標,當一輛自動駕駛汽車殺死一個亂穿馬路的人,人工智能也在那里。

人工智能在日常生活中變得無處不在,而戰爭也不例外,這是一種趨勢。報道甚至表明,2020年11月對伊朗頂級核科學家的暗殺是由一支自主的、由人工智能增強的步槍完成的,它能夠每分鐘發射六百發子彈。俄羅斯和中國正在迅速發展,在某些情況下還在部署人工智能的非正規戰爭能力,而在為我們日常生活提供動力的人工智能系統中出現的同樣的裂痕、偏見和不良結果開始出現在用于發動戰爭和設計殺人的人工智能系統中,這只是時間問題。

鑒于人工智能和機器學習在戰略競爭中的作用,我們既要了解這些系統帶來的風險,也要了解它們創造戰略優勢的能力,這一點至關重要。通過探索對抗性方法,有可能開始建立這樣一種理解。對四類對抗性方法的研究為了解這些系統的脆弱性提供了一個窗口。在這篇文章中,我們將以目標識別問題為基礎例子,探討人工智能系統的學習和思維如何被攻擊。雖然這個例子發生在沖突中,但我們描述的方法也可以在競爭中使用。這一分析導致了兩個重要的結論。首先,在任何人工智能的使用中,人類必須保持在循環中。第二,在大國競爭的時代,人工智能可能不會為美國提供戰略優勢,但我們必須繼續投資并鼓勵人工智能的道德使用。

對抗性方法

像其他軍事系統一樣,人工智能系統經歷了多個不同的生命周期階段--開發(數據收集和訓練)、測試、運行和維護。在這些階段中的每一個階段都有獨特的弱點,必須加以識別,并且我們要考慮到這些弱點。我們將著手開發一個假設的人工智能目標識別系統,該系統正在學習識別敵人的裝甲車輛。在每個階段,我們將探索相關的對抗性方法--中毒、逃避、逆向工程和推理--以及我們如何保護我們的系統免受其害。

中毒

開發任何人工智能系統的第一步是識別問題和收集數據。面對我們識別敵方裝甲車的挑戰,我們必須定義我們的問題。我們是想識別所有敵人的裝甲車,還是只識別來自特定對手的某一類型?這個問題的定義為收集和準備一組相關數據提供了依據,在這種情況下,這將包括大量感興趣的敵方裝甲車輛的圖像。我們不僅必須積累所有感興趣的車輛的圖像,而且還需要各種條件下的圖像--例如,變化的光線、不同的角度、有限的曝光和交替的通道(例如,紅外線、日光)。然后由數據分析員準備好數據,用于人工智能系統的訓練。然而,開發人工智能系統所需的巨大數據量造成了一個漏洞。數據量意味著分析員沒有能力驗證每張收集到的圖像是否是實際的敵方裝甲車輛,也沒有能力驗證這些圖像是否代表裝甲車輛的全部類型。

這個發展階段是對手可以通過一種稱為中毒的技術來攻擊人工智能系統的第一個點。投毒的目的是改變人工智能系統在訓練中使用的數據,使人工智能學到的東西是有缺陷的。這個過程在系統投入運行之前就攻擊了它的完整性。

制作惡意的原始數據以誘發有缺陷的分析結果的基本方法與傳統的軍事欺騙手段相同。Quicksilver行動是二戰期間盟軍入侵諾曼底前的一次欺騙行動,旨在攻擊德國的防御性分析模型。為了完成這一攻擊,盟軍建立了一支由喬治-巴頓中將領導的幽靈部隊(有毒數據),以歪曲德國人對其防御重點(模型輸出)的分析(模型)。

這種大規模的欺騙行動在今天這個相互聯系的社會中可能更難實現,但毒化數據是可行的。我們的對手知道我們正在追求由人工智能支持的目標識別。知道這樣一個人工智能系統需要他們當前裝甲車輛的訓練圖像,對手可以通過操縱他們車輛的外觀來毒害這些訓練圖像。這可以簡單到在他們懷疑可能被監視的車輛上添加一個獨特的符號,如紅星。然后,我們的人工智能系統將在這些被故意操縱的車輛的中毒圖像上進行訓練,并 "學習 "所有敵人的裝甲車都有紅星。

盡管這樣的中毒攻擊會在競爭狀態下發生,但當對手部署沒有紅星的裝甲車以避免被發現時,其影響會在沖突中表現出來。此外,對手可以在民用車輛上涂上紅星,誘使我們的人工智能系統錯誤地將平民識別為戰斗人員。

確保我們的系統正確學習可以通過多種方式實現。詳細的數據整理可以幫助減輕風險,但會消耗寶貴的時間和資源。相反,一個可擴展的解決方案包括數據治理政策,以提高用于人工智能系統的數據的完整性和代表性。在人工智能生命周期的所有階段,適當放置技術控制和訓練有素的人員保持在循環中,將進一步減少中毒攻擊的風險。

逃避

下一種類型的攻擊,即逃避,依賴于類似的基本攻擊原則,但在人工智能系統運行時進行部署。逃避攻擊的目標是如何應用人工智能的學習,而不是毒害人工智能正在學習的內容。這聽起來可能是一個微不足道的區別;然而,它對攻擊者成功所需的資源和反過來防御者需要采取的行動有重大影響。在中毒攻擊中,攻擊者需要有能力控制或操縱用于訓練模型的數據。在規避攻擊中,攻擊者至少需要有能力在運行期間控制人工智能系統的輸入。

逃避攻擊很適合計算機視覺應用,如面部識別、物體檢測和目標識別。一種常見的規避技術涉及稍微修改某些圖像像素的顏色,以攻擊系統如何應用它所學到的東西。在人眼看來,這似乎沒有什么變化;但是,人工智能現在可能會對圖像進行錯誤分類。研究人員證明了這種技術的效果,當一個之前正確識別熊貓圖像的人工智能被顯示為同一圖像,但在整個圖像中被添加了人眼無法察覺的顏色。該人工智能不僅將熊貓誤認為是長臂猿,而且還以非常高的信心做到了這一點。

攻擊者如果也能獲得系統的輸出或預測,就可以開發出一種更強大的(所有熊貓圖像都被錯誤識別)或有針對性的(所有熊貓都被看成另一種特定的動物)規避方法。

逃避攻擊的原則也可以在物理世界中運用--例如,戴上特制的太陽鏡來遮擋或改變你在面部識別相機上的圖像。這與偽裝背后的原理相同。在這種情況下,對手的目標是模型的感知而不是人類的感知。在軍事方面,如果對手知道我們的人工智能瞄準系統是在沙漠迷彩的坦克上訓練的,那么對手的坦克可以簡單地重新涂上林地迷彩,以故意躲避我們的人工智能系統的探測。一個人工智能增強的自主偵察系統現在可能無法有效地識別目標,無法為指揮官提供及時和準確的情報。

逃避攻擊是一些研究最廣泛的對抗性方法,因此防御所有可能的攻擊載體將被證明具有挑戰性。然而,加強我們的人工智能系統的步驟,可以增加我們對它們按計劃運作的總體信心。其中一個步驟是在部署前實施評估工具。這些工具針對各種已知的對抗性方法對人工智能系統進行測試,為我們提供一個衡量其穩健性的定量標準。在操作過程中,如果可能的話,在循環中保留一個人,也可以減輕逃避攻擊的情況。

逆向工程

前兩類攻擊在開發和運行期間針對人工智能系統有類似的基本原則。這些攻擊也與傳統的軍事概念如欺騙和偽裝有自然的相似之處。然而,人工智能系統的風險并不都是那么直接的,潛在的漏洞存在于開發和運行之外。人工智能系統在維護或儲存時有哪些漏洞?如果對手通過網絡入侵或在戰場上捕獲新一代人工智能無人機而獲得對人工智能系統的訪問,會有什么風險?

在被稱為逆向工程的一類攻擊中,對手攻擊人工智能系統的目的是提取人工智能系統學到的東西,并最終使模型得以重建。為了進行逆向工程攻擊,對手需要能夠向一個模型發送輸入并觀察輸出。這種攻擊可以繞過模型本身的任何加密或混淆。對于我們假設的目標識別人工智能,這種攻擊可以通過對手發送不同類型的車輛(輸入)并觀察哪些車輛能引起人工智能的反應(輸出)來進行。雖然這樣的攻擊需要時間,并有資源損失的風險,但最終對手將能夠了解到目標識別模型認為是一種威脅。

有了這些信息,對手將能夠開發出自己的人工智能系統版本。除了使其他對抗性攻擊更容易發展之外,直接了解人工智能是如何做出決定的,使對手能夠預測我們的反應或完全避免它們。對我們的人工智能強化決策過程的這種洞察力將對我們在整個沖突過程中的行動安全構成重大威脅。

保護我們的系統免受逆向工程的影響可能被證明是困難的,特別是因為任務要求可能要求系統允許許多查詢或加權輸出,而不是簡單的二元決定。這突出了對一系列量身定做的政策的需求,以管理與對抗性方法相關的風險。這些可能包括對人工智能系統的嚴格問責,特別是那些部署在邊緣的系統,如無人機或智能護目鏡。此外,我們可以通過只允許授權用戶查看系統輸出來施加訪問限制。

推理攻擊

最后一類攻擊,被稱為推理攻擊,與逆向工程有關。與其說對手試圖恢復人工智能系統學到的東西,不如說對手試圖提取人工智能系統在其學習過程中使用的數據。這是一個微妙但有意義的區別,對在敏感或機密數據上訓練的模型有重大影響。

為了進行推理攻擊,與逆向工程一樣,對手需要有能力向模型發送輸入并觀察輸出。有了一組輸入和輸出,對手可以訓練一個對抗性人工智能,預測一個給定的數據點是否被用來訓練我們的友好模型。

想象一下,我們的目標識別人工智能是在對手的新武器系統的分類圖像上訓練的。使用推理攻擊,對手可以了解到這個武器系統的保密性已被破壞。換句話說,對我們的人工智能系統的推理攻擊可以促進機密情報的泄露。如果這是在競爭期間進行的,它可能會對危機和沖突產生很大影響。

與逆向工程一樣,管理與推理攻擊有關的風險將主要通過政策決定來處理。除了訪問政策決定外,還將有關于何時在人工智能系統的訓練中使用敏感或機密數據、使用什么類型的數據以及數量的困難決定。這些決定將需要平衡性能和風險,以開發仍然能夠滿足任務要求的人工智能系統。

對大國競爭的影響

當然,這顯然不是對所有對抗性方法的詳盡解釋。然而,這個框架應該提供一個充分的概述,領導人可以通過它來探索將人工智能系統整合到我們的編隊中的全部影響,包括積極和消極的影響。美國和我們的對手都在追求這種技術,以便在未來的戰略競爭中獲得不對稱的優勢,而雙方都無法贏得這種優勢。

數據不對稱

當我們思考技術和不對稱優勢時,從第一原則開始,考慮相對獲得 "原材料 "的問題是有用的。在人工智能系統中,原材料是數據--大量的數據。美國是否能獲得與我們的對手相同質量和數量的數據?鑒于美國國家安全中圍繞隱私和數據安全的法律因素和社會規范--這本身就是一個關鍵的話題,答案顯然不是 "是"。這表明,美國在開發和部署人工智能系統方面將處于固有的不利地位。

開發能力

訓練有素的人員是人工智能系統的另一個關鍵資源。正如陸軍在其 "人員優先 "戰略中所確定的那樣,擁有合適的人員將是美國在戰略競爭中取得成功的關鍵。美國在工業界、學術界和軍隊都有人才。這些人員能否被招募、留住,并被引向艱難的國家安全問題,是一個值得專門思考的開放式問題。在短期內,應該確定我們編制內已有的人才,并且應該將各組織在人工智能方面的不同努力同步進行。

人工智能只是一種工具

人工智能是一種工具。像任何其他工具一樣,它有固有的優勢和弱點。通過對這些優勢和劣勢進行審慎和現實的評估,美國可以在人工智能的風險和回報之間找到最佳平衡點。雖然人工智能可能不會帶來美國在戰略競爭中所尋求的最大不對稱優勢,但我們也不能把技術讓給正在該領域進行大量投資的對手。相反,美國可以而且應該支持人工智能的道德使用,促進對強大的人工智能的研究,并為人工智能系統制定防御性的最佳做法。基于對人工智能系統的脆弱性和局限性的理解,實施這些行動和其他行動將導致美國更有效地將人工智能置于大國競爭時代的戰略中。

付費5元查看完整內容

本文件供加拿大陸軍發展局局長審議。在過去的幾十年里,西方國家的部隊在其技術優勢的幫助下,已經取得了對對手的優勢。戰術性的地面作戰軍隊由于其技術優勢而被驅使贏得戰斗。這種技術優勢在很大程度上取決于與信息時代相關的技術和概念的演變。因此,預計信息技術的不斷演變將發揮重要的驅動力,在現在和2050年之間塑造戰爭技術。本服務文件將強調人工智能(AI)作為一種變革性技術對未來三十年陸軍行動的基本性質的影響。

付費5元查看完整內容

本出版物是 "北約決策:大數據時代的承諾和危險"會議的成果,由北約盟軍指揮部轉型(ACT)、博洛尼亞大學和羅馬的國際事務研究所(IAI)組織。該會議于2020年11月17日在線舉行,是三個機構之間長期合作的一部分,它代表了ACT學術會議系列的第七次迭代。

執行總結

數字革命大大改變了我們生活的世界,提供了巨大的機會,但也使社會更加脆弱。技術使外部干擾更便宜、更快速、更全面:公民有可能成為信息戰的直接目標,一個社會的所有成員都可能以這種或那種方式成為沖突的一部分。從先進的武器裝備到指揮和控制,大多數與安全有關的領域都在經歷著深刻的變革,因為數據的可用性和傳輸量成倍增加。在這一背景下,本出版物探討了展望聯盟發展的三個相互關聯的方面:大數據和北約的組織挑戰;對盟國決策的混合威脅;人工智能在國防領域的采用和北約的作用

大數據和北約的組織挑戰。將決策建立在比以前更多的信息基礎上,可能會導致復雜組織決策過程的真正革命,特別是因為這些信息將涉及現實的不同層面,而且會不斷地更新。除了巨大的信息量,大數據的另一個決定性因素是數據產生和處理的高速性。此外,這些數據通常會從不同的來源獲得,其可信度必須被仔細評估。最后,任何數據在決策過程的不同階段都可能具有不同的價值。所有這些特征都對那些旨在利用大數據減少其作戰中的不確定性的組織提出了具體要求。例如,巨大的數據量迫使人們獲得新的數據存儲技術,而高速度要求新的處理工具,可變的可信度和價值迫使組織制定新的分析方法。因此,任何尋求利用大數據的行為者都應該有明確的目標和定義明確的戰略,以劃定和實施其具體目標。

大數據的一個關鍵問題是為決策者提供與他們的目的真正相關的數據,而不僅僅是有趣。首席數據官和與數據相關的高級領導職位將在信息分析和實際決策過程中獲得至關重要的地位,但這些職位需要特殊的人才和工具組合,而這些人才和工具目前在許多大型組織中是稀缺的,尤其是在公共部門,在軍事部門更是如此。

另一個關鍵問題是,在工作中引入大數據分析的組織的決策過程中,正在出現集中化和分散化之間的矛盾。矛盾的是,雖然大數據應該促進廣泛的責任和戰術意識,但目前先進的數字化似乎與大型組織中明顯的向心力有關。這種向心力導致了低層人員的非責任化和選擇實踐的逐漸喪失。因此,在聯盟的決策中整合大數據是明智之舉,有利于分散所有權,并根據組織中不同部門的特點,為其設計不同的工具。此外,建立精心設計的、可靠的評估程序,以衡量組織創新和新決策過程執行的有效性,也會有所幫助。特別是,確定最初的失敗是特別重要的,以便從中吸取教訓,避免結構性問題。

對盟國決策的混合威脅。混合威脅是一個廣泛的類別,包括各種行為者、行動和目標。就行為者而言,由于其實際能力、意圖和最近的記錄,俄羅斯等大國可以被確定為最主要的威脅。

關于行動,信息在幾個方面是關鍵。它指的是大數據和人工智能,因為后者需要使用算法來學習前者,以期利用目標的漏洞。數字連接是用于在信息領域實施混合威脅的基本基礎設施。西方社會依賴虛擬世界的平臺,這些平臺可以成為潛在攻擊者的目標。由于全球網絡藐視邊界并限制國家管轄權,它們更難防御,并允許潛在的攻擊者在檢測和歸因的門檻下采取行動。混合威脅還得益于信息的空前速度和范圍。這在原則上并不新鮮,但它已經達到了改變游戲規則的水平。一方面,對北約及其成員國來說,管理這種大規模的信息流實在是令人望而卻步;另一方面,高速流通轉化為更快的行動節奏。

混合威脅可能針對各種目標,但特別令人擔憂的是可能導致社會分化、精英分歧和對外國行為體的偏見的進攻性行動。這些行動有可能影響不同層面的決策,甚至破壞民主國家的機構。因此,這些混合型威脅可能會破壞盟國的決策過程,反過來也會破壞北約的決策過程。決策者在制定應對混合威脅的措施時,尤其面臨著三個主要問題:

1)如何以非升級性的方式進行回應?由于混合型攻擊利用灰色地帶來制造模糊性,包括通過操縱檢測門檻和給予合理的推諉,決策者面臨著過度反應的風險。

2)如何民主應對?潛在的攻擊者可能會嚴重損害民主制度的決策過程,例如對遵守國內法和國際法施加壓力。

3)如何獲得公眾支持?由于混合型威脅通常被掩蓋或難以歸因,政策制定者還必須說服公眾輿論,使其相信威脅的存在。

人工智能在國防領域的應用和北約的作用。在討論人工智能對盟國軍隊和聯盟意味著什么時,應該解決一個基本問題:人工智能是一場技術革命還是技術演進的實例?不同的證據可以支持這兩種解釋。從政治角度來看,盟國可能很難迅速適應一場快速的技術革命。北約的方法,由于其程序的特點是共識,將不得不更加進化、細化和細微。無論如何,在未來不太可能看到人工智能為北大西洋理事會(NAC)或核規劃小組(NPG)做決定。這其中有心理、文化、組織、政治以及技術方面的原因。通往人工智能的旅程可能是相當麻煩的。例如,敏捷軟件開發能夠開發出優秀的軟件,但同時也需要不同的程序、組織結構和流程,涉及到組織的身份、使命和文化。

另一個熱點問題是關于人工智能的公私伙伴關系。這是美國和中國之間人工智能競賽的關鍵--可能會導致盟國相對于中國的劣勢--以及北約與從事人工智能和大數據的主要民用公司之間的關系。在盟國采用人工智能技術方面,還有一個根本性的需要,即確保在分散的情況下的互操作性。北約在歷史上一直是標準化進程中的一個重要角色,在這種情況下也可以這樣做。在這種情況下,可能需要一些創造性:例如,北約是否應該像提供空域管理或地面監視一樣提供云計算服務,即賦能者?聯盟是否可以像綜合防空和導彈防御那樣,設想對國家擁有的人工智能資產進行整合?這些都是重要的問題,然而,這些問題突出了一個事實,即國防是一個主權問題,大多數決定是由國家政府作出的,而不是由北約本身作出的。

聯盟可以在人工智能領域發揮突出作用。例如,北約可以建立一個人工智能冠軍,幫助盟國理解、采用和整合人工智能。這種冠軍可以從小型項目開始,旨在驗證解決方案的有效性,然后它可以幫助盟國進行培訓。這方面的一個關鍵、相關問題是教育和培訓。同樣,戰爭游戲、模擬和實驗的重要性也會增加,北約在這方面可以發揮作用,因為它是召集盟國軍事和政治機構的獨特途徑。

付費5元查看完整內容

技術正在從根本上改變國防的性質。從人工智能(AI)和機器學習的革命性進展到量子計算、機器人和天基電信的快速創新,軍事防御規劃正在不斷發展。利用科學技術來推進整個國防部(DND)和加拿大武裝部隊(CAF)的指揮和控制(C2)系統,對于維護北美的防務至關重要。

正如“強大、安全、參與”中所強調的那樣,北美的防御仍然是加拿大和美國的一個關鍵優先事項。加拿大的國防政策(國防部2017年)和美國的國防戰略(美國國防部[DoD]2018年)以及美國國家安全委員會的人工智能(2021年)都強調了這一點。盡管目前的系統和北美防御方法多年來一直保持著加拿大和美國的安全,但在新的和正在出現的威脅面前,這些系統和方法已經越來越過時。

正如最近為國防部準備的一份報告所解釋的那樣,技術變革正在加強作戰指揮官確定需求或機會與向作戰人員提供解決方案之間的時間壓縮(Modigliani等人,2020)。在數字時代,軍隊現在面臨的挑戰是,即使想法和初始作戰能力之間的時間尺度開始縮小,也要更快地行動,做出更好的決定。

今天的安全威脅繼續模糊了陸地、海洋、空中、網絡、空間和信息領域之間的傳統區別--即使技術侵蝕了地理上曾經提供的優勢。人工智能和自主系統在戰場態勢感知和精確制導武器系統中的應用代表了軍事技術發展的一個范式轉變。

盡管技術革新一直在塑造戰爭的性質,但當代技術變革的規模和速度是前所未有的。自主的無人機、增強的人機協作和以衛星為媒介的電信正日益成為現代軍事系統的基礎。多極秩序的崛起和日益增長的數字增強型武器市場(2019年公私分析交流計劃)一起,開始從戰略上重新配置國家安全的性質。

在西方占主導地位的時代之外,亞洲正在回歸到現代性時代之前長期繁榮的商業和文化交流模式(Romei and Reed 2019)。隨著全球經濟的變化越來越有利于亞洲市場,美國和中國之間日益激烈的競爭與世界地緣政治重心的轉移相重疊。如果說十九世紀屬于歐洲,二十世紀屬于美國,那么二十一世紀現在屬于亞洲,特別是中國。

事實上,在烏克蘭發生的事件標志著大國競爭歷史上的一個轉折點。俄羅斯對烏克蘭的入侵凸顯了一個不斷變化的地緣政治格局,一個多中心的體系開始形成。俄羅斯的地區野心和中國的經濟崛起正在顛覆歐亞大陸的戰略架構,重新配置全球秩序。

我們可能看到的是一個新的地緣政治格局。中國"一帶一路 "倡議有可能將地緣政治戰略家Halford Mackinder在1904年描述的 "世界島"(AfroEurasia或非洲、歐洲和亞洲)統一起來(見圖1)。正如麥金德所觀察到的,在過去500年里,每一個全球霸主的崛起都是因為對歐亞大陸的主導地位(McCoy 2021)。

面臨著一個新的歷史時刻,因為大國競爭和加速的技術變革共同重塑了全球秩序。全球貿易的地緣政治摩擦和北大西洋公約組織(NATO)與俄羅斯之間曠日持久的沖突共同表明了一個新的、不同的風險環境。商業算法和現成軟件的應用確保了建立在自主系統和人工智能基礎上的技術提高了曠日持久的網絡戰爭的可能性,即使網絡犯罪分子和國家支持的行為者利用數據和通信網絡來攻擊非傳統目標。

DND/CAF認識到,一個以創新變化和地緣政治格局變化為標志的新技術時代正在形成。2017年6月,DND/CAF發布了其國防政策《強大、安全、參與》,認為加拿大的大部分戰術優勢是由于 "敏捷的信息管理和技術工具"。 以推進一系列信息技術為戰略重點,包括數據分析、深度學習和自主系統,"強大、安全、參與 "概述了一些優先事項,并確定了支持加拿大國防戰略愿景的關鍵支柱。

與 "強大、安全、參與"相一致,加拿大國防研究與發展部(DRDC)和國際治理創新中心(CIGI)共同組織了一個全國性的系列研討會,在加拿大國家安全的背景下研究人工智能促進國防和安全。這一舉措特別符合整個加拿大政府對數據的日益重視,正如提交給樞密院書記的報告中所述。聯邦公共服務的數據戰略路線圖》(加拿大政府2018年)。

該系列研討會邀請了各種演講者,以促進對管理下一代軍事行動所需的資源和專業知識的更好理解,涉及三大主題:

→ 人工智能和半自主系統。
→ 人工智能和網絡安全,以及
→ 實現泛域C2。

該研討會旨在從戰略上吸引加拿大的創新生態系統,為專家們提供了一個討論人工智能給加拿大國防帶來的挑戰的空間。由DRDC伙伴關系戰略局發起,該研討會項目由CIGI在2021年秋季和2022年冬季期間管理。與會者包括來自加拿大國防部/加拿大空軍的主要利益相關者、加拿大政府和支持人工智能研究的主要機構。

該研討會側重于了解為軍事行動開發和實施可信賴、可解釋的人工智能所涉及的要求,審查了一系列問題,包括數據質量評估、數據格式、數據共享、偏見緩解、人機合作和自主系統的倫理。這份特別報告建立在該系列研討會的基礎上,為推進加拿大的軍事規劃提供了具體建議。它旨在提供一個分析框架,以了解人工智能在未來十年內對國防的影響。

付費5元查看完整內容

想象力和對物理原理不斷發展的理解是未來技術能力的唯一界限,當美國陸軍將自己轉變為一支能夠在多域作戰(MDO)中占主導地位的部隊時,技術在建立和保持對敵手的優勢方面的作用就會增加。美國的政府機構包含了一些組織,負責資助、研究、開發并在新技術增長時將其納入部隊。本專著描述了目前正在開發的能力,這些能力將作為下一代概念的基礎,目前只存在于科幻小說中,但現實中卻有可能實現。它概述了這些進展中的技術所提供的潛在機會,以及它們如何能夠融入所有領域的未來作戰環境。

引言

隨著美國國防部(DoD)從大規模戰斗行動概念向多域作戰(MDO)和聯合全域作戰過渡,對跨領域技術整合的重視程度繼續提高。公共和私營部門的研究和開發組織已經從關注具體的能力轉向提供基本概念的創新,正如陸軍優先研究領域中所概述的那樣(見圖1)。雖然這些優先事項是陸軍特有的,但國防部的其他部門也在為技術創新投入大量資源。

圖 1. 美陸軍優先研究領域。美國陸軍,“2019 年陸軍現代化戰略:投資未來”。

2019年正式成立的美國太空部隊(USSF),在其預算撥款中包括89億美元用于發展天基系統技術。 作為領導將新技術納入空間領域當前和未來擬議戰爭概念的軍事機構,USSF占據了一個不斷發展以滿足作戰環境變化的角色。在短期內,其余領域的更多能力將依賴于空間領域的資產,并推動對技術能力和效率的要求呈指數級增長。美國防部或整個美國政府的任何作戰組織都沒有智力或財政能力來單獨管理這一巨大的任務。與私營企業的緊密合作提供了美國所需的優勢,以保持對其對手的相對優勢。

民用技術的軍事應用和軍用技術的民用應用通過連接兩個平行的研究軌道和匯集關鍵資源如突破、設施和資金來加速發展進程。美國的幾家私營公司已經有專門的部門與政府合作,使雙方受益。作為洛克希德-馬丁公司的一部分,臭鼬工廠負責開發標志性的軍用飛機,如F-117夜鷹和SR-71黑鳥,而雷神技術實驗室創造了愛國者導彈,至今仍是國家防空計劃的基石。私營企業和軍方官員之間的持續合作也改善了技術預測,使規劃者有能力建立起納入仍在開發管道中的概念的途徑,甚至在它們準備投入使用之前。

在本專著中,對未來軍事規劃者來說,最后也是最關鍵的難題是如何在中期和長期將預測能力整合到作戰方法中。等到概念經歷了研究、開發、測試、原型設計和規模生產的完整周期后再考慮其效果,會使美國部隊落后于曲線,并處于持續的反應狀態,特別是在與俄羅斯和中國這樣的全球技術大國競爭時。未來的鑄造過程必須是連續的和迭代的。適應性強的計劃,具有圍繞發展中的突然延遲或進展進行調整的靈活性,比依賴線性進展的概念保持優勢。將 "鞭打 "事件的可能性傳達給高級領導人和政治家,以緩和期望,并減少那些不熟悉技術的細微差別的人的摩擦。

研究問題

美國國防機構如何利用并迅速整合技術進步,以在多域作戰框架內獲得并保持競爭優勢?

論題

負責開發下一代全域聯合作戰概念的戰地級規劃人員需要采用一個反復的、持續的規劃過程,考慮到理論上可能的、但目前還沒有的、與所有領域相互依賴的技術,以集中資源分配和從目前到未來作戰環境的未來預測路徑。

方法論

本專著包括四個不同的研究和思考階段,大致遵循軍隊設計方法學的概念。因此,第一部分試圖了解創新技術的現狀,從而了解軌道和軌道外競爭的技術作戰環境。發展存在于整個美國戰爭機器從概念到原型生產的連續過程中,一些進步來自非軍事應用,如通信、金融和體育產業。第二,研究哪些非保密技術有待于相對迫切的實施。即使在起步階段,新概念的簡單應用也會在多領域的戰場上帶來作戰優勢,而來自真實世界的反饋和數據支持進一步的完善。

在已知的物理學和應用科學的限制下,對現在和可能的空間進行了略微緩和但雄心勃勃的介紹,為未來三十年設定了目標桿。計算能力、材料科學和效率的線性增長阻礙了這些崇高目標的實現。然而,如果能力的增長保持過去幾十年的指數增長(見圖2),本專著中所探討的所有概念都是可以掌握的。最后,本研究以一個簡短的未來戰爭的虛構場景作為結束,該場景展示了戰略和作戰能力在戰術領域的整合,加強了它們與未來戰士在MDO的五個現有領域以及未來可能存在的地外領域的相關性。該方案提出了一個可能的理論終結狀態,以在10到15年的規劃范圍內建立一個作戰方法。然而,這很可能只是物理學和想象力極限競賽中的一個快照。

圖2. 隨著時間的推移,技術能力呈指數增長。

本專著主要關注軌道和軌道外的競爭,包括對所探討的能力有重大影響的地面節點和系統。最終的勝利或失敗,即使是在未來的沖突中,也將極大地影響地面人口,即交戰國的公民。他們將掙扎著在戰爭的附帶影響下生存,同時也會受到氣候變化、人口過剩、食物和水匱乏的日益嚴重的影響。

付費5元查看完整內容

美國已經進入了一個大國競爭的新時期。俄羅斯和中國的崛起在全球權力結構中形成了復雜的三足鼎立局面。最近人工智能方面的技術進步使這種多變的國際動態進一步復雜化。學者、政治家和高級軍官已經意識到,人工智能的融入是軍事事務中一場新革命的起源,有能力改變權力的戰略平衡。美國在中東被二十年的反叛亂所困擾,并受到僅延伸至2025年的長期人工智能戰略的阻礙,沒有準備好進入這個 "第六代 "軍事能力,以確保其戰略利益。這種人工智能化的部隊將由半自主和自主系統定義,包括致命的自主武器系統。第一個開發和使用這些武器的國家行為者將在這個新時代獲得對其競爭對手的戰略優勢。雖然美國目前在人工智能方面擁有優勢,但由于缺乏前瞻性思維和重點投資政策,這種優勢正在迅速消失。這是一份旨在解決這一差距的政策文件。20世紀90年代中期的中國軍事現代化模式為美國未來的政策提供了一條潛在的途徑。雖然兩國政府結構存在差異,但其中的幾個基本原則可以在美國的制度框架內適用。因此,美國可以通過制定健全的投資政策、集中的技術發展計劃和新的行動概念來確保人工智能的首要地位,以便在新能力出現時將其最大化。

針對美國的政策建議與評估

大國競爭必須相對于其他大國的能力進行評估。因此,沒有一種能力可以被評估為產生可持續的絕對優勢。然而,在潛在的對手獲得同樣的能力之前,開發人工智能技術和應用為21世紀沖突設計的CONOPS的能力將在整個政治/軍事領域產生一個暫時的戰略優勢。美國目前的公共政策和戰略并沒有延伸到25年后。隨著中國準備在2030年成為占主導地位的人工智能大國,美國為了確保長期戰略利益,不能接受人工智能競賽的現狀。由于人工智能領域的技術發展速度很快,人工智能RMA的狀態和抓住初始優勢的能力正在接近一個拐點。建議美國采取側重于美國在人工智能競賽中的首要地位的政策,特別是在致命性自主武器系統的研究和開發方面。美國在這一領域保持優勢的能力對于國家安全和參與21世紀人工智能輔助和/或人工智能環境的準備工作是至關重要的。

由于致命性自主武器系統是一項仍在開發中的未來技術,因此不可能確定致命性自主武器系統對戰略環境的完整影響。本研究承認,對于評估一個未來武器系統的影響沒有預測性的措施,該系統在實現其全部潛力之前還將經過幾代技術的演變。然而,評估投資政策、技術和CONOPS演變的影響以及它如何影響軍事準備、政治資本和戰略環境的能力是有據可查的。

本文的建議將以1990年至今的中國軍事投資戰略為藍本。在此期間,中國國防開支的增加創造了一個前所未有的能力和軍事力量的增長,為美國未來的人工智能政策提供了一個框架。由于全球力量是以相對而非絕對的方式衡量的,美國至少必須在多極環境中與不斷增長的大國保持平等。雖然從美國的角度來看,中國戰略的某些方面,特別是盜竊知識產權的因素是不切實際的,但那些關于教育和貨幣投資的內容可以被納入美國未來的人工智能政策中。這項研究建議:

1.設立一個負責人工智能政策的助理國防部長的新職位,直接負責人工智能的發展和整合到美國防部。

2.指示ASDAI為美國軍隊制定一個關于第六代能力的預期最終狀態,每十年更新一次。

3.建立30年、15年和5年的人工智能目標,每五年更新一次,讓各個機構,如DARPA、JAIC、國防創新部門(DIU)和相關組織負責特定的發展水平。這將使美國政策制定者有能力根據ASDAI評估和更新的多變的戰略環境,為每個機構提供適當的資金。

4.成立一個委員會,負責發展和保留研究生水平的科學、技術、工程和數學(STEM)人才。

5.建立一個戰略規劃組織,負責研究和整合新的人工智能技術,因為它們出現在15年和5年的基準點上,以便在收購過程中納入其中。

對這些政策的評估必須對照美國對手在人工智能領域的成就和進步。建立在美國在人工智能領域的首要地位上的政策應該集中在教育和經濟投資,新的人工智能技術的初步發展,以及新的CONOPS的發展,以便在新的人工智能能力可用時充分和有效地進行。本研究報告的其余部分重點關注中國國防現代化計劃對美國未來人工智能政策和建議的調整。

付費5元查看完整內容

在以色列,技術科學的領導地位是國家安全的關鍵支柱,人工智能(AI)被認為是一項戰略技術--"基礎設施的基礎設施"--有可能重塑軍事事務、全球經濟和國際體系中的權力分配。為了保證其國家安全、行動自主權、經濟增長和公民的福祉,以色列努力使自己成為第四次工業革命(4IR)領域和相關技術領域的世界前五名國家之一。以色列的安全部門在這一努力和國家人工智能生態系統中發揮著核心作用。盡管人工智能和第四次工業革命被全球公認為我們這個時代的主要軍事創新,甚至可能是新的軍事事務革命(RMA)的先驅,但不同的參與者對它們將如何塑造未來的戰爭和戰場有不同的看法。以色列對該技術變革潛力的解釋反映在以色列國防軍(IDF)的 "勝利新作戰概念"、"動力多年計劃 "和新宣布的 "數據和人工智能戰略 "中。鑒于以色列國防軍在該領域的先進作戰經驗,以色列的做法成為正在進行的戰略學習競爭的一個有趣的案例研究。

付費5元查看完整內容

「美國人仍未認真思考 AI 革命將對社會、經濟和國家安全產生多大影響」,3 月 1 日,美國國家人工智能安全委員會(the National Security Commission on Artificial Intelligence,NSCAI)發布的一份報告,提出了對于總統拜登、國會及企業和機構的數十項建議。

該組織稱,中國是對于美國技術主導地位的首要挑戰,在第二次世界大戰后第一次有國家對美國的經濟和軍事力量產生了如此程度的威脅。該報告的一個結論是,在未來十年內,美國可能會失去對中國的軍事技術優勢。

這個由 15 名成員組成的委員會主張以 400 億美元的投資擴展和民主化 AI 研究的進程,并為「未來技術突破進行投資」,鼓勵決策者們對創新投資持類似態度。該組織最終希望能推動聯邦政府在未來幾年里對于人工智能投資數千億美元。

付費5元查看完整內容
北京阿比特科技有限公司