亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。

然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。

高層也有同感:聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與 ”制定 “關于通過多邊進程設計、開發和使用人工智能軍事應用的規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。

  • 優先領域 1:建立知識庫

通過跨地區、跨學科和多方利益相關者的投入,在軍事領域建立一個共享的、堅實的人工智能知識庫。

  • 優先領域 2:建立信任

建立對技術和他人的信任

  • 優先領域 3:人的因素

解讀人工智能系統在軍事領域的開發、測試、部署和使用中的人的因素

  • 優先領域 4:數據實踐

了解和解讀軍事領域負責任人工智能的數據實踐

  • 優先領域 5:生命周期管理

了解人工智能系統的生命周期影響(包括生命周期的終結),在軍事領域推廣負責任的人工智能

  • 優先領域 6:不穩定

了解與人工智能有關的破壞穩定問題的驅動因素、手段、方法和應對措施,包括人工智能系統促成、誘發和倍增的破壞穩定問題

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。

然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。

聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與”,“通過多邊進程,圍繞人工智能軍事應用的設計、開發和使用制定規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。

付費5元查看完整內容

人工智能(AI)有可能在社會、經濟和政策的各個方面帶來變革,包括國防和安全。英國希望成為在民用和商業應用領域推廣人工智能以及負責任地發展國防人工智能的領頭羊。這就要求對與人工智能軍事應用相關的新出現的風險和機遇,以及英國如何與其他國家開展最佳合作以減輕或利用這些風險和機遇,有一個清晰而細致的認識。

2024 年 3 月,英國國防部(MOD)國防人工智能與自主單元(DAU)和外交、聯邦與發展辦公室(FCDO)聯合委托蘭德歐洲公司(RAND Europe)開展一項簡短的范圍界定研究。該研究的目的是初步探討人工智能在軍事上的應用可能在戰略層面產生風險和機遇的方式,因為迄今為止的大部分研究都集中在戰術層面或非軍事主題(如人工智能安全)上。后續工作將更詳細地探討這些問題,為英國在這些問題上的國際參與戰略提供信息。

本技術報告旨在為理解人工智能軍事應用所帶來的戰略風險和機遇設定一個基線。一份獨立的總結報告則側重于為決策者提供高層次的研究結果。

人工智能的出現正在給競爭和沖突帶來深刻變化

人工智能最好被理解為一套雙重用途的通用技術,以硬件為基礎,但以軟件為核心。與傳統軍事技術不同的是,它們高度民主化,擴散速度極快。創新是由商業用途的私營部門驅動的,而不是由政府或國防部門驅動的。對軍事應用和影響的集體認識正在提高,但起點較低。辯論往往優先考慮某些引人注目的問題,如致命自主武器系統(LAWS)或人工智能(AGI),而忽略了其他議題。它只關注戰術,而忽視戰略;只關注風險,而忽視機遇;或只關注軍事人工智能的直接后果,而忽視從長遠來看可能影響最大的二階和三階效應。

為了解決這個問題,國防部和國防和外交、聯邦與發展辦公室(FCDO)委托進行這項研究,以制定一個概念框架,規劃軍事人工智能帶來的戰略風險和機遇。

圖 0.1 框架:人工智能軍事應用的戰略風險與機遇

人工智能對國防和安全構成復雜、重大且未被充分認識的風險

本報告詳細探討了許多風險和機遇,其中最緊迫的包括

  • 信息操縱,如人工智能深度偽造,這不僅會引發政治、經濟和社會問題,還會在危機時刻影響軍事決策。

  • 賦予非國家行為者挑戰國家軍隊主導地位的不對稱能力,或者在最壞的情況下,賦予他們新的大規模毀滅性工具(如生物武器)。

  • 人工智能對對手之間攻防平衡、戰爭升級動態以及核威懾穩定性的相互影響。這些問題在超級大國競爭加劇的情況下,在世界已經在應對其他不安全因素(如烏克蘭、以色列-伊朗\移民、氣候變化等)的情況下,尤其令人擔憂。

  • 與未來出現的任何人工智能相關的潛在災難性安全和安保風險。

在英國國內,還需要應對對國內政治和經濟產生破壞性影響的重大問題。這些問題決定了國防的目的和手段。在國外,人工智能同樣會對以規則為基礎的國際秩序的健康產生深遠影響,這取決于各國、工業界和民間社會是否以及如何有效地共同管理其影響。人工智能專家非常擔心,人工智能會在多大程度上使世界許多地方的平衡傾向于壓制性和獨裁的治理模式,同時有可能顛覆民主政治、污染信息環境和破壞社會的戰斗意志。

同樣,在軍事人工智能方面的領導力也可能帶來巨大的利益。

其中許多潛在風險也可能成為戰略優勢的機遇。人工智能的利弊平衡取決于各國如何快速有效地調整武裝部隊等機構,以利用人工智能的優勢。同樣,這也取決于各國政府如何在國際上施加影響,使全球軍事人工智能行為朝著符合本國利益和價值觀的方向發展。這就意味著各國政府要愿意進行重大投資、組織改革和文化變革,以改變國防部門對新技術的態度。

需要采取緊急行動,降低新出現的風險,利用各種機遇

為了應對這些挑戰,各國必須緊急制定一項全面的行動計劃,考慮到人工智能技術進步、圍繞人工智能或通過人工智能進行的地緣政治競爭以及國際體系中圍繞人工智能不斷演變的規范之間復雜的相互作用。這應利用一套影響不同受眾的機制工具包,運用外交、信息、軍事和經濟(DIME)杠桿,匯集一套積極主動的行動方案:

  • 努力促進負責任地采用人工智能,最大限度地發揮其對國防的益處。
  • 努力限制非國家行為者、恐怖主義行為者或敵對/無賴國家采用軍事人工智能,同時也要讓他們付出代價,以影響他們的行動。
  • 努力為軍事人工智能制定全球、小型和雙邊治理安排。

這也應借鑒其他領域的經驗教訓--如本報告所述--以及最近關于人工智能的高級別倡議的勢頭。突出的例子包括布萊切利峰會、軍事領域負責任的人工智能(REAIM)峰會和《軍事人工智能政治宣言》。

表0.2塑造全球國防人工智能發展的機制工具包

工具包類別 優先行動手冊
促進英國國防采用人工智能并從中獲益的機制 加快整個國防領域對人工智能的投資和采用,同時提高抵御惡意或意外濫用人工智能的能力
限制采用人工智能的機制和對手的利益 采取競選方式,限制、減緩或增加對手(國家或非國家)部署軍事人工智能的成本
形成新的軍事人工智能管理安排的機制 在提高對軍事人工智能風險的認識、發現問題和分享學習成果方面發揮領導作用;與主要盟國(如美國)和競爭對手制定透明度和建立信任措施,以降低升級風險;促進采用包容性和參與性方法,就人工智能軍事領域負責任的行為規范達成新的全球共識,為今后達成更強有力的具有約束力的協議做好準備;促進減少核和生物相關的人工智能緊急風險的小型多邊機制的平行發展;研究如何將人工智能納入核查和合規機制,反之亦然;隨著時間的推移,將當前零散的人工智能治理倡議整合為一個更加具體的架構

付費5元查看完整內容

計算力(或稱 "計算")對于開發和部署人工智能(AI)能力至關重要。因此,政府和公司開始利用計算作為管理人工智能的手段。例如,政府正在投資國內計算能力,控制計算向競爭國家的流動,并對某些行業的計算訪問提供補貼。然而,這些工作只是從表面上了解了如何利用計算來管理人工智能的開發和部署。與人工智能的其他關鍵投入(數據和算法)相比,人工智能相關計算是一個特別有效的干預點:它是可檢測、可排除、可量化的,并且是通過極其集中的供應鏈生產出來的。這些特點,加上計算對尖端人工智能模型的獨特重要性,表明對計算的管理有助于實現共同的政策目標,如確保人工智能的安全和有益使用。更確切地說,政策制定者可以利用計算促進人工智能的監管可見性,分配資源以促進有益的結果,并對不負責任或惡意的人工智能開發和使用實施限制。然而,雖然基于計算的政策和技術有可能在這些領域提供幫助,但其實施的準備程度卻存在很大差異。一些想法目前正在試行,而另一些則因需要進行基礎研究而受到阻礙。此外,在隱私、經濟影響和權力集中等領域,樸素或范圍不清的計算治理方法會帶來巨大風險。最后,我們將提出一些建議,以最大限度地降低計算治理的這些風險。

圖 1:報告中的核心概念摘要。計算因其四種特性而對政策制定具有吸引力。可以利用這些特性來設計和實施政策,從而實現人工智能治理的三種關鍵能力。

在第 2 節 "人工智能能力、人工智能治理和計算概述 "中,我們提供了幾個主題的基本背景,作為后面章節的基礎。我們討論了作為人工智能發展關鍵投入的人力資本、數據、算法和計算。然后,我們描述了人工智能生命周期的各個步驟(包括設計、培訓、增強和部署)--其中每個步驟都是可能的干預點(并具有獨特的計算足跡)。我們接著討論了人工智能可能對社會產生的影響,以說明負責任治理的重要性。隨后,我們將回顧目前在治理計算方面所做的努力,以便為后面的章節提供背景資料。

在第 3 節 "為什么計算治理對決策具有吸引力 "中,將解釋計算的特點,這些特點使其成為人工智能治理的一個有吸引力的工具。這源于計算對前沿模型的獨特重要性,以及計算作為一種治理策略所具有的增強功效的若干特性。

讀者如果已經確信計算的重要性和特殊屬性,但又想知道如何將計算治理擴展到現有工作之外,可以考慮跳到第 4 節 "計算可以增強三種人工智能治理能力",在這一節中,我們將探討如何利用計算來增強關鍵的治理能力:(a)通過監控計算來提高人工智能發展的可見性;(b)改變計算的分配以實現有益的發展;以及(c)利用計算來執行人工智能相關規范和法規。

在第 5 節 "計算治理的風險與可能的緩解措施 "中,我們總結了之前關于計算治理可能存在的局限性的討論。

付費5元查看完整內容

近年來,人工智能(AI)和機器學習領域的進步為增強人類能力和提高各種自主系統的功能創造了前所未有的機遇,包括在國際安全領域。然而,在國防領域,訓練日益復雜的人工智能系統所需的高質量、高度多樣化和相關的真實世界數據集卻十分稀缺。因此,合成數據正逐漸成為開發和訓練人工智能系統的數據工具箱中必不可少的工具。合成數據的特點和潛在優勢,以及該技術在各個領域的成熟應用,使其成為圍繞在國際安全背景下使用人工智能的辯論的一個相關話題。

本入門指南簡要概述了合成數據,包括其特點、生成方式、增加的價值、風險以及在國防組織和軍事行動中的潛在用例。此外,本手冊還概述了現有的數據挑戰和限制,這些挑戰和限制促使合成數據成為開發日益復雜的人工智能系統的重要工具。

迄今為止,合成數據在國際安全領域的應用大多停留在實驗和探索階段。不過,合成數據的特點可對訓練人工智能系統產生有益影響。特別是,合成數據可以生成高度多樣化甚至新穎的數據集,對數據屬性進行精細控制,必要時自動注釋或標記數據,而且成本效益高。這本入門書探討了合成數據的主要特點如何使軍隊和國防組織受益,讓他們能夠在防御性和進攻性自主系統中集成能力更強、更可靠的人工智能系統。

雖然合成數據有利于訓練人工智能系統,并有助于緩解軍隊和國防組織面臨的一些數據問題,但它并不是靈丹妙藥,也伴隨著風險和挑戰。使用合成數據所帶來的好處將取決于各組織是否有能力駕馭這些風險,以便以負責任和安全的方式并按照法律要求和道德價值觀使用根據合成數據訓練的人工智能系統。

圖1所示。真實世界與合成數據

付費5元查看完整內容

無人飛行器/無人機(UAV)技術的最新進展極大地推動了無人飛行器在軍事、民用和商業領域的應用。然而,為無人機群建立高速通信鏈路、制定靈活的控制策略和開發高效的協同決策算法等方面的挑戰,限制了無人機群的自主性、魯棒性和可靠性。因此,越來越多的人開始關注協作通信,使無人機群能夠自主協調和通信,在短時間內合作完成任務,并提高效率和可靠性。本研究全面回顧了多無人機系統中的協作通信。我們深入探討了智能無人機的特點及其自主協作和協調所需的通信和控制要求。此外,還回顧了各種無人機協作任務,總結了無人機蜂群網絡在密集城市環境中的應用,并介紹了使用案例場景,以突出基于無人機的應用在各個領域的當前發展情況。最后,我們確定了未來需要關注的幾個令人興奮的研究方向,以推進無人機協作研究。

無人飛行器中的協作

起初,單無人機系統用于導航、監視和災難恢復,每個無人機作為一個孤立的節點直接與中央地面站連接。然而,在單無人機系統中,由于無人機在指定區域內獨立運行,因此更容易出現系統和通信故障。此外,無人機在網絡中獨立工作還需要更長的時間和更高的帶寬來完成任務。相比之下,在多無人機系統中,無人機共同工作以實現共同目標。例如,無人機可以協同工作,生成高分辨率圖像和三維地圖,以確定救災過程中的熱點區域。同時,配備嗅探器的無人機可以探測到高濃度的甲烷,從而找到破損的天然氣管道。因此,無人機還可以在不危及救援人員生命的情況下提供水和食物。因此,協調與合作對于在多無人機環境中實現理想性能至關重要。本節將詳細討論協作式無人機的要求和挑戰,如智能、通信、控制和協作。此外,我們還將介紹最先進的協作通信方法,以突出無人機網絡的貢獻和局限性。

A 智能無人機

傳統無人機的主要組成部分包括傳感、通信、控制和計算單元 [25]。傳感單元由集成在無人機上的多個傳感器組成,用于不同的目的,如評估高分辨率物體、溫度估計、光探測和天線配置[36]。同時,通信單元使無人機能夠相互通信并與中央控制站交換信息。強制控制單元通常控制傳統無人機的操作,包括避免碰撞、路徑規劃、目標跟蹤和資源管理。然而,與中央控制單元的頻繁通信以及無人機與無人機之間有限的通信能力限制了無人機獨立完成任務的自主性和協作性。例如,在救災行動中,具有自主功能的多架無人機可以執行協作功能,如一組無人機可以檢查危險區域,而其他無人機可以執行醫療援助補給投放任務,幫助災民。此外,配備高分辨率攝像頭和資源管理算法的無人機可以執行智能決策,將損失降到最低。同時,當無人機對城市環境中的風向模式有了更深入的了解后,它們可以利用這些知識避開亂流,選擇能量最小的路線,而無需頻繁接受控制單元的指令。

同樣,具有協作通信能力的智能無人機可以執行各種分布式操作,并為智慧城市應用做出獨立決策[32]。例如,在城市環境中工作的無人機需要與其他傳感設備、機器、機器人、無人機和人進行高度協調和協作,才能執行某些操作。因此,加強合作和對部署環境的了解有助于無人機與周圍物體進行無縫互動,以處理監測到的數據并做出實時決策,從而提高復雜環境中的安全性和可靠性[37]。同樣,無人機可以通過對城市環境中周圍物體的語義理解來提高物體識別能力,從而更好地理解和設計與周圍環境互動的方法。

然而,由于缺乏高效的智能自主無人機對無人機通信機制,無法實現無人機的獨立飛行、軌跡形成、目標定位和數據操作決策,這阻礙了基于無人機的應用范圍。因此,為了從無人機的天然特性(如高機動性、靈活部署和不同類型傳感器集成)中獲益,有必要更加關注無人機的自主性和智能協作通信能力集成,以提高無人機作為一個團隊了解環境、共享知識和資源以做出智能決策的性能,而無需高度依賴中央控制的系統指令[38]。

B 通信要求

在多無人機系統中,無人機之間以及無人機與中央骨干基礎設施之間都要進行通信,以順利完成各種指定任務。無人機與基礎設施網絡之間的通信一般遵循兩種通信模式,即無人機與基礎設施之間的通信和無人機與無人機之間的通信,以交換數據并確保高水平的連接性,從而實現協作通信。本節將詳細討論這兩種模式的通信要求。

  1. 無人機對基礎設施: 如圖 2 所示,無人機對基礎設施通信可實現無人機與基礎設施網絡之間的信息傳輸,使用的平臺包括地面平臺、高空平臺(HAP)和衛星。無人機可充當通信中繼站、用戶或基站,以建立有效的通信。在無法直接聯系的情況下,無人機作為中繼器可在地面站和遠程基礎設施之間提供無線覆蓋。無人機作為中繼器具有許多優勢,如覆蓋范圍大、速度快、通信信道清晰、易于部署、數據轉發模式可靠等 [39],[40]。無人機還可以作為用戶將任務卸載到邊緣服務器,從而以較低的延遲增強覆蓋范圍 [41]。與此同時,當無人機作為基站工作時,它們能為異構網絡提供更靈活的通信服務解決方案,因為它們能實現更好的 LoS 傳播、可擴展性和更高的運行高度[42]。本節重點介紹使用上述各平臺實現高效無人機群的主要通信要求。

  1. 無人機對無人機通信: 除了無人機與基礎設施之間的通信外,有效的無人機對無人機鏈路可使無人機群克服各種基本挑戰,如自主飛行、避免碰撞、分布式處理和聯合行動。最新文獻提出了提供無人機對無人機通信的多種方法,包括衛星通信鏈路、Wi-Fi 鏈路、超高頻(UHF)鏈路、蜂窩通信鏈路、長距離廣域網(LoRAWAN)和自由空間光學(FSO)鏈路。本節將討論這些不同方法對實現穩定可靠的無人機對無人機通信的要求。

C 控制要求

由于無人飛行器體積小、成本低,因此需要一種成本效益高的控制系統,能夠在起飛、著陸、懸停、機動性、高度控制、定位和避免碰撞等方面實現靈活的移動和軌跡跟蹤。下文將討論無人機的主要控制要求:

  • 起降:無人機可分為固定翼和旋翼兩種,兩者對起降都有特定要求。固定翼無人機的起飛和降落需要跑道,而旋轉翼無人機可以垂直起飛和降落,從而提高了其在各種民用領域的適用性[69]-[71]。在文獻[72]中,作者提出了一種混合垂直起降 VTOL 解決方案,該方案將固定翼和旋轉翼無人機的功能集成在一個平臺上,從而實現了長續航時間和高飛行效率。VTOL 方法需要一個固定翼位置控制器、旋轉翼位置控制器、過渡控制器和基于氣動特性的 VTOL 混合器,以實現過渡和提高飛行穩定性。在另一項工作[73]中,不同的 PID 控制器用于沒有跑道和發射回收設備的 VTOL,通過控制指令實現平穩運行。此外,在現有文獻[74]-[76]中,還介紹了使用可見光攝像傳感器、全球定位系統和 IMU,利用 PID 控制器進行起降的各種解決方案。

  • 受控運動和懸停: 無人飛行器的旋翼使用螺旋槳,可實現滾動、推力控制、俯仰、偏航和六個自由度的旋轉、機動和懸停。無人飛行器的控制算法可調整滾轉、俯仰和偏航,以實現在 X 軸、Y 軸和 Z 軸上的穩定旋轉。現有研究提出了各種控制無人機運動的模型,例如,Thu 等人在文獻[77]中根據 "+"和"×"飛行配置,模擬了著名的四旋翼飛行器控制系統,以實現靈活的運動和機動。在另一項研究[78]中,設計了一個動態模型來控制無人飛行器在一個旋轉軸上的運動。Elkaim 等人在文獻[79]中介紹了一種無人機控制系統,該系統利用位置、速度和高度估計來控制無人機的運動和軌跡形成。另一篇論文[80]介紹了一種自主無人機飛行控制系統,該系統集成了全球定位系統,可生成最佳飛行路徑。此外,現有文獻還對油門運動、狀態信息和機載傳感組件進行了分析和建模,以實現穩定機動和懸停 [81]-[83]。

  • 飛行中控制: 無人機的位置和速度等狀態信息用于引導和控制無人機進行著陸或物體跟蹤等精確操作。遙控航空模型自動駕駛儀(RAMA)在文獻[84]中有詳細描述,它利用高度、角速度和位置信息來設計小型無人機的控制系統。此外,PID 控制器也引起了學術界和工業界對無人機自主運行的極大關注 [85]。集成 PID 自動駕駛儀可實現一整套無人機自主導航和實時操作的航空電子設備 [86]。此外,PID 控制器還能提高可靠性,并以最小的誤差和能耗將飛行中的無人機穩定在預定軌跡上。

  • 避免碰撞:這是無人機設計中確保無人機自主飛行的基本要求。現有文獻 [80]、[87] 提出了各種方法,如 GPS 導航和不同的防撞傳感器來避免碰撞。此外,根據現有研究[88]、[89],廉價的商用傳感器(如紅外、壓力和高度傳感器)可以很容易地集成到無人機飛行系統中,以估計與障礙物的距離,從而控制其移動。此外,無人機的精確位置估計和軌跡規劃也是避免碰撞的基本要求[90]。

D 協同執行任務

本節將全面介紹協作通信方面的現有發展。無人機的協同任務允許多架無人機共享信息,以分布式的方式低成本、高效率地執行各種任務,并提高靈活性、魯棒性和容錯性。近年來,人們提出了一些協作通信架構,主要側重于將無人機網絡與 WSN、Ad-hoc 網絡和物聯網范例整合起來,以實現有效監測和數據收集[91]。此外,還提出了一些基于蜂群的方法,用于協作軌跡規劃、路由選擇和目標定位。

  1. 基于蜂群的協作通信: 最近有幾項研究利用無人機群在短時間內協作完成任務,具有更好的覆蓋范圍、可靠性和效率。

  2. 無人機群網絡的深度強化學習: 在過去幾年中,強化學習技術已被廣泛應用于提高無人機蜂群網絡在復雜環境中的路徑規劃、導航和控制性能[97], [98]。

  3. 軌跡形成: 協作軌跡形成可使多個無人機找到從起點到目標點的最佳路徑。這是無人機系統的新興研究領域之一,因為協同路徑規劃可最大限度地降低定位成本、改進機動決策并有助于避免碰撞 [109]-[111]。

  4. 合作目標定位: 精確定位可為目標指示、空中拍攝、數據傳感和空對地攻擊帶來顯著優勢[121]。

  5. 數據收集: 在過去的幾年中,人們引入了許多協作通信機制,以改善遠程數據收集體驗[128]。

  6. 協同決策: 無人機的自主操作需要做出復雜的決策,以實現應用目標,如消除威脅或時間緊迫的救援行動。這些復雜決策受到信息不足、高度不確定性、延遲和任務耦合的影響 [137]。

付費5元查看完整內容

人們普遍認為,將機器學習融入軍事決策對于美國在 21 世紀保持軍事主導地位至關重要。機器學習的進步有可能通過提高整個國家安全企業級決策的速度、精確度和效率,極大地改變戰爭的特點。美國國防部的領導者們認識到了這一點,并正在做出大量努力,以在戰爭的戰術、作戰、戰略和機構層面有效整合機器學習工具。

本報告將探討機器學習的一種應用,其重點是在競爭和沖突的作戰層面實現軍事決策。展示了機器學習如何與人類合作,作為決策系統的一部分,用于提高軍事行動和活動的有效性。展示了這種方法如何通過分析原本無法獲取的數據源,為指揮官提供有關作戰環境的新見解。將重點放在從大量基于文本的數據(如報紙報道和情況報告)中獲得的洞察力上,這些數據無處不在,但卻很少以任何系統的方式整合到決策中。

在本報告中介紹的方法以人機協作系統的概念為基礎,并證明了現有的機器學習能力需要人在各個階段的參與,才能證明對操作層面的決策有用。因此,機器學習能力的發展與雷達自二戰以來的演變密切相關,而雷達是人機協作用于軍事目的的最早范例之一。如今,與不列顛之戰期間使用的預警系統同樣依賴雷達機器和人類觀察員一樣,機器學習仍然需要人類的參與,以指導這種新傳感器使用正確的數據,正確解釋其輸出結果,并評估其結果對作戰決策的影響。

通過一個基于真實世界數據和真實世界危機的示例研究,將讀者("您")置身于一名軍事指揮官的視角,就 2022 年俄羅斯全面入侵烏克蘭之前,美國如何支持烏克蘭兵力應對俄羅斯支持的烏克蘭東部叛亂,展示了這一系統方法的實際應用。在撰寫本案例研究時,把讀者您當成了這位指揮官,因為目標是強調您在未來與機器學習工具的合作中可能扮演的關鍵角色--無論是作為分析師、決策者,甚至是在現實世界的類似背景下應用這些工具的軍事指揮官。

值得注意的是,本案例研究是基于 2014-2020 年間的數據于 2020 年 12 月完成的,僅分析了這一時期與俄羅斯支持的烏克蘭東部叛亂有關的實地情況。本研究尚未更新,以反映自 2022 年 2 月俄羅斯入侵烏克蘭以來所獲得的任何見解。然而,從入侵前的視角來看,機器學習在后來發生的現實世界事件中用于作戰決策的優勢和局限性也就不言而喻了。

在整個案例研究中,將看到為本報告目的而進行的基于機器學習的實際評估結果,該評估分析了來自烏克蘭的 18,000 篇歷史新聞報道,內容涉及從 2014 年沖突起源到 2020 年末的沖突。利用機器學習工具從這些數據中提取相關見解,并與分析結果進行互動,就向烏克蘭兵力提供何種類型的支持以及在俄羅斯入侵前實現美國在該地區的目標做出名義上的決策。在此過程中,人機協作學習的優勢將逐漸顯現,將親眼目睹機器學習工具如何快速、系統地利用以前無法獲取的數據,為復雜問題提供新的見解。但這種方法的局限性也會顯現出來,將親眼目睹機器學習的好壞取決于支持它的可用數據,以及訓練機器學習工具和解釋其結果的人類分析師。

人機協作方法適用于軍事決策者在陸軍和美國防部作戰和機構層面面臨的各種問題集。因此,本研究以具體證據清晰地展示了在軍事決策中使用機器學習所涉及的權衡問題,為機器學習在軍事領域的廣泛應用做出了貢獻。本研究為美國陸軍提出了幾項重要發現和建議。

研究問題

  • 指揮官如何利用機器學習進行作戰決策?
  • 人類分析師應如何與機器學習工具合作以實現作戰決策?

主要發現

首先,分析展示了機器學習在軍事決策方面的巨大潛力,但只有在與對特定問題背后的背景有詳細了解的人類分析師配對時才能實現。在此提出的機器學習方法不會取代人類分析師。相反,它能使人類分析師更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。在案例研究中,通過使用機器學習獲得的大多數關鍵見解都需要人類分析師的額外干預。在某些情況下,這需要在模型結果的基礎上有選擇性地疊加額外的數據源。在其他情況下,則需要人工分析師手動審查機器學習工具認為相關和有趣的基礎數據。因此,美國陸軍現有的機器學習能力需要人類在各個階段的參與,才能充分發揮其潛力。

其次,分析表明,通過大幅提高執行重復性任務的效率,人機協作方法可以大規模分析人類分析師無法單獨完成的海量數據集,從而產生以前無法實現的有關作戰環境的新見解。案例研究表明,從分析人員處理大量數據的重復性分析任務所花費的時間來看,機器學習能顯著提高效率,使分析人員更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。這表明,對于需要大量人工審核相關數據的問題,陸軍領導應優先考慮將機器學習作為一種解決方案。

最后,這項研究揭示了機器學習的系統方法能夠對作戰級總部已有的大量數據進行標準化、客觀和長期的分析,從而增強其支持有效決策的潛力。在許多情況下,這些數據是戰爭中作戰和機構層面決策的最佳信息來源,但如果沒有機器學習,這些數據就只能以臨時和主觀的方式進行分析。

建議

首先,這項研究表明,陸軍應為各級指揮人員提供頻繁接觸機器學習的機會,讓他們熟悉人類如何利用這些能力作為軍事決策系統的一部分。

其次,本研究強調,陸軍應建立多樣化的機器學習團隊,以充分釋放這一能力的潛力。這些團隊應整合熟悉機器學習工具細節的作戰研究系統分析員、對特定作戰環境有第一手知識的操作員、了解可用數據以分析特定問題的分析員,以及能將機器分析轉化為對作戰決策有實際影響的指揮官。

付費5元查看完整內容

隨著技術的飛速發展和威脅環境變得更加復雜,今天的海軍行動經常面臨著具有挑戰性的決策空間。人工智能(AI)的進步為解決海軍行動中日益復雜的問題提供了潛在的解決方案。未來的人工智能系統提供了潛在的意義深遠的好處--提高對態勢的認識,增加對威脅和對手能力和意圖的了解,識別和評估可能的戰術行動方案,并提供方法來預測行動方案決定的結果和影響。人工智能系統將在支持未來海軍作戰人員和保持作戰和戰術任務優勢方面發揮關鍵作用。

人工智能系統為海戰提供了優勢,但前提是這些系統的設計和實施方式能夠支持有效的作戰人員-機器團隊,改善作戰情況的不確定性,并提出改善作戰和戰術結果的建議。實施人工智能系統,以滿足海軍應用的這些苛刻需求,給工程設計界帶來了挑戰。本文確定了四個挑戰,并描述了它們如何影響戰爭行動、工程界和海軍任務。本文提供了通過研究和工程倡議來解決這些挑戰的解決思路。

引言

人工智能是一個包括許多不同方法的領域,目的是創造具有智能的機器(Mitchell 2019)。自動化系統的運作只需要最小的人類輸入,并經常根據命令和規則執行重復性任務。人工智能系統是自動化機器,執行模仿人類智能的功能。它們將從過去的經驗中學習到的新信息融入其中,以做出決定并得出結論。

如表1所述,人工智能系統有兩種主要類型。第一種類型是明確編程的專家系統。Allen(2020,3)將專家系統描述為手工制作的知識系統,使用傳統的、基于規則的軟件,將人類專家的主題知識編入一長串編程的 "如果給定x輸入,則提供y輸出"的規則。這些系統使用傳統的編程語言。第二種類型是ML系統,從大型數據集中進行訓練。ML系統自動學習并從經驗中改進,而不需要明確地進行編程。一旦ML系統被 "訓練",它們就被用于操作,以產生新的操作數據輸入的結果。

表1. 兩類人工智能系統

人工智能系統--包括專家系統和學習系統--為海軍提供了巨大的潛力,在大多數任務領域有不同的應用。這些智能系統可以擴展海軍的能力,以了解復雜和不確定的情況,制定和權衡選擇,預測行動的成功,并評估后果。它們提供了支持戰略、作戰計劃和戰術領域的潛力。

本文確定了工程設計界必須解決的四個挑戰,以便為未來海戰任務實施人工智能系統。表2強調了這四個挑戰領域。這些挑戰包括:(1)復雜的海戰應用領域;(2)需要收集大量與作戰相關的數據來開發、訓練和驗證人工智能系統;(3)人工智能系統工程的一些新挑戰;(4)存在對手的人工智能進展,不斷變化和發展的威脅,以及不斷變化的人工智能系統的網絡弱點。本文側重于海軍戰爭的四個挑戰領域,但認識到這些挑戰可以很容易地被概括為整個軍隊在未來人工智能系統可能應用的所有戰爭領域中廣泛存在的挑戰。

表2. 為海軍實施人工智能系統的四個挑戰領域

挑戰一:戰爭復雜性

人工智能正被視為一種能力,可應用于廣泛的應用,如批準貸款、廣告、確定醫療、規劃航運路線、實現自動駕駛汽車和支持戰爭決策。每個不同的應用領域都提出了一系列的挑戰,人工智能系統必須與之抗衡,才能成為一種增加價值的可行能力。表3比較了一組領域應用的例子,從潛在的人工智能系統解決方案的角度說明了挑戰的領域。該表在最上面一行列出了一組10個因素,這些因素對一個特定的應用程序產生了復雜性。根據每個因素對作為實施人工智能的領域的整體復雜性的貢獻程度,對六個應用領域的特征進行了定性評估。顏色代表低貢獻(綠色)、中貢獻(黃色)和高貢獻(紅色)。

表3中最上面一行顯示的特征包括: (1)認識上的不確定性水平(情況知識的不確定性程度),(2)情況的動態性,(3)決策時間表(可用于決策的時間量),(4)人類用戶和人工智能系統之間的互動所涉及的錯綜復雜的問題、 (5)資源的復雜性(數量、類型、它們之間的距離以及它們的動態程度),(6)是否涉及多個任務,(7)所需訓練數據集的復雜性(大小、異質性、有效性、脆弱性、可獲得性等 8)對手的存在(競爭者、黑客或徹頭徹尾的敵人),(9)可允許的錯誤幅度(多少決策錯誤是可以接受的),以及(10)決策后果的嚴重程度。該表的定性比較旨在提供一個高層次的相對意義,即基于一組樣本的貢獻因素,不同應用領域的不同復雜程度。

表3. 影響應用復雜性的因素比較

對于所有的應用領域來說,人工智能系統的工程都是具有挑戰性的。人工智能系統在本質上依賴于具有領域代表性的數據。獲得具有領域代表性的數據會帶來基于數據大小、可用性、動態性和不確定性的挑戰。決策時間--由情況的時間動態決定--會給人工智能系統工程帶來重大挑戰--特別是當一個應用領域的事件零星發生和/或意外發生時;以及當決策是時間緊迫的時候。具有更多決策時間、充分訪問大型數據集、直接的用戶互動、完善的目標和非致命后果的應用,如貸款審批、廣告、醫療診斷(在某種程度上)面臨工程挑戰,但其復雜程度較低。確定最佳運輸路線和為自動駕駛汽車設計AI系統是更復雜的工作。這些應用是動態變化的,做決定的時間較短。航運路線將在可能的路線數量上具有復雜性--這可能會導致許多可能的選擇。然而,航運錯誤是有空間的,而且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的空間非常小。在這種應用中,決策失誤會導致嚴重的事故。

影響開發支持海戰決策的人工智能系統的因素在表3所示的所有類別中都具有高度的復雜性。因此,戰術戰爭領域對工程和實施有效的人工智能系統作為解決方案提出了特別棘手的挑戰。表4強調了導致這種復雜性的海戰領域的特點。作為一個例子,海軍打擊力量的行動可以迅速從和平狀態轉變為巨大的危險狀態--需要對威脅保持警惕并采取適當的反應行動--所有這些都是在高度壓縮的決策時間內進行。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是網絡空間,導致需要處理多種時間緊迫的任務。由于海軍和國防資產在艦艇、潛艇、飛機、陸地和太空中,戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用。制定有效的戰術行動方案也必須在高度動態的作戰環境中進行,并且只有部分和不確定的情況知識。決策空間還必須考慮到指揮權、交戰規則和戰術理論所帶來的限制。人類作為戰術決策者的角色增加了決策空間的復雜性--信息過載、操作錯誤、人機信任和人工智能的模糊性/可解釋性問題等挑戰。最后,對于戰術決策及其可能的后果來說,風險可能非常大。

表4. 導致戰術決策復雜性的因素

解決高度復雜的決策領域是對海軍的挑戰。人工智能為解決海軍作戰的復雜性提供了一個潛在的解決方案,即處理大量的數據,處理不確定性,理解復雜的情況,開發和評估決策選擇,以及理解風險水平和決策后果。Desclaux和Prestot(2020)提出了一個 "認知三角",其中人工智能和大數據被應用于支持作戰人員,以實現信息優勢、控制論信心和決策優勢。約翰遜(2019年)開發了一個工程框架和理論,用于解決高度復雜的問題空間,這些問題需要使用智能和分布式人工智能系統來獲得情況意識,并做出適應動態情況的協作行動方案決定。約翰遜(2020a)建立了一個復雜的戰術場景模型,以證明人工智能輔助決策對戰術指揮和控制(C2)決策的好處。約翰遜(2020b)開發了一個預測分析能力的概念設計,作為一個自動化的實時戰爭游戲系統來實施,探索不同的可能的戰術行動路線及其預測的效果和紅色部隊的反應。首先,人工智能支持的C2系統需要描述戰術行動期間的復雜程度,然后提供一個自適應的人機組合安排來做出戰術決策。這個概念包括根據對目前戰術情況的復雜程度最有效的方法來調整C2決策的自動化水平(人與機器的決策角色)。約翰遜(2021年)正在研究這些概念性工程方法在各種防御用例中的應用,包括空中和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。

在海軍作戰中實施人工智能系統的一個額外挑戰是在戰術邊緣施加的限制。分散的海軍艦艇和飛機的作戰行動構成了戰術邊緣--在有限的數據和通信下作戰。"在未來,戰術邊緣遠離指揮中心,通信和計算資源有限,戰場形勢瞬息萬變,這就導致在嚴酷復雜的戰地環境中,網絡拓撲結構連接薄弱,變化迅速"(Yang et. al. 2021)。戰術邊緣網絡也容易斷開連接(Sridharan et. al. 2020)。相比之下,許多商業人工智能系統依賴于基于云的或企業內部的處理和存儲,而這些在海戰中是不存在的。在戰術邊緣實施未來的人工智能系統時,必須進行仔細的設計考慮,以了解哪些數據和處理能力可用。這可能會限制人工智能系統在邊緣所能提供的決策支持能力。

在軍事領域使用人工智能必須克服復雜性的挑戰障礙,在某些情況下,人工智能的加入可能會增加復雜性。辛普森等人(2021)認為,將人工智能用于軍事C2可能會導致脆弱性陷阱,在這種情況下,自動化功能增加了戰斗行動的速度,超出了人類的理解能力,最終導致 "災難性的戰略失敗"。Horowitz等人(2020)討論了通過事故、誤判、增加戰爭速度和升級以及更大的殺傷力來增加國際不穩定和沖突。Jensen等人(2020)指出,人工智能增強的軍事系統增加的復雜性將增加決策建議和產生的信息的范圍、重要性和意義的不確定性;如果人類決策者對產出缺乏信心和理解,他們可能會失去對人工智能系統的信任。

挑戰二:數據需求

實施人工智能系統的第二個挑戰是它們依賴并需要大量的相關和高質量的數據用于開發、訓練、評估和操作。在海戰領域滿足這些數據需求是一個挑戰。明確編程的專家系統在開發過程中需要數據進行評估和驗證。ML系統在開發過程中對數據的依賴性甚至更大。圖1說明了ML系統如何從代表作戰條件和事件的數據集中 "學習"。

ML系統的學習過程被稱為被訓練,開發階段使用的數據被稱為訓練數據集。有幾種類型的ML學習或訓練--它們是監督的、無監督的和強化的方法。監督學習依賴于地面真相或關于輸出值應該是什么的先驗知識。監督學習算法的訓練是為了學習一個最接近給定輸入和期望輸出之間關系的函數。無監督學習并不從地面真相或已知的輸出開始。無監督學習算法必須在輸入數據中推斷出一個自然結構或模式。強化學習是一種試錯法,允許代理或算法在獎勵所需行為和/或懲罰不需要的行為的基礎上學習。所有三種類型的ML學習都需要訓練數據集。在部署后或運行階段,ML系統繼續需要數據。

圖1顯示,在運行期間,ML系統或 "模型 "接收運行的實時數據,并通過用其 "訓練 "的算法處理運行數據來確定預測或決策結果。因此,在整個系統工程和采購生命周期中,ML系統與數據緊密相連。ML系統是從訓練數據集的學習過程中 "出現 "的。ML系統是數據的質量、充分性和代表性的產物。它們完全依賴于其訓練數據集。

圖1. 使用數據來訓練機器學習系統

美國海軍開始認識到對這些數據集的需求,因為許多領域(戰爭、供應鏈、安全、后勤等)的更多人工智能開發人員正在了解人工智能解決方案的潛在好處,并開始著手開發人工智能系統。在某些情況下,數據已經存在并準備好支持人工智能系統的開發。在其他情況下,數據存在但沒有被保存和儲存。最后,在其他情況下,數據并不存在,海軍需要制定一個計劃來獲得或模擬數據。

收集數據以滿足海軍領域(以及更廣泛的軍事領域)的未來人工智能/ML系統需求是一個挑戰。數據通常是保密的,在不同的項目和系統中被分隔開來,不容易從遺留系統中獲得,并且不能普遍代表現實世界行動的復雜性和多樣性。要從并非為數據收集而設計的遺留系統中獲得足夠的數據,可能非常昂貴和費時。數據收集可能需要從戰爭游戲、艦隊演習、系統測試、以及建模和模擬中收集。此外,和平時期收集的數據并不代表沖突和戰時的操作。海軍(和軍方)還必須教導人工智能系統在預計的戰時行動中發揮作用。這將涉及想象可能的(和可能的)戰時行動,并構建足夠的ML訓練數據。

數據收集的另一個挑戰是潛在的對抗性黑客攻擊。對于人工智能/ML系統來說,數據是一種珍貴的商品,并提出了一種新的網絡脆弱性形式。對手可以故意在開發過程中引入有偏見或腐敗的數據,目的是錯誤地訓練AI/ML算法。這種邪惡的網絡攻擊形式可能很難被發現。

海軍正在解決這一數據挑戰,開發一個數據基礎設施和組織來管理已經收集和正在收集的數據。海軍的Jupiter計劃是一個企業數據和分析平臺,正在管理數據以支持AI/ML的發展和其他類型的海軍應用,這些應用需要與任務相關的數據(Abeyta,2021)。Jupiter努力的核心是確定是否存在正確的數據類型來支持人工智能應用。為了生產出在行動中有用的人工智能/ML系統,海軍需要在游戲中保持領先,擁有能夠代表各種可能情況的數據集,這些情況跨越了競爭、沖突和危機期間的行動范圍。因此,數據集的開發和管理必須是一項持續的、不斷發展的努力。

挑戰三:工程化人工智能系統

第三個挑戰是,人工智能系統的工程需要改變傳統的系統工程(SE)。在傳統系統中,行為是設定的(確定性的),因此是可預測的:給定一個輸入和條件,系統將產生一個可預測的輸出。一些人工智能解決方案可能涉及到系統本身的復雜性--適應和學習--因此產生不可預見的輸出和行為。事實上,一些人工智能系統的意圖就是要做到這一點--通過承擔一些認知負荷和產生智能建議,與人類決策者合作。表5強調了傳統系統和人工智能系統之間的區別。需要有新的SE方法來設計智能學習系統,并確保它們對人類操作者來說是可解釋的、可信任的和安全的。

SE作為一個多學科領域,在海軍中被廣泛使用,以將技術整合到連貫而有用的系統中,從而完成任務需求(INCOSE 2015)。SE方法已經被開發出來用于傳統系統的工程設計,這些系統可能是高度復雜的,但也是確定性的(Calvano和John 2004)。如表5所述,傳統系統具有可預測的行為:對于一個給定的輸入和條件,它們會產生可預測的輸出。然而,許多海軍應用的人工智能系統在本質上將是復雜的、適應性的和非決定性的。Raz等人(2021年)解釋說,"SE及其方法的雛形基礎并不是為配備人工智能(即機器學習和深度學習)的最新進展、聯合的多樣化自主系統或多領域操作的工程系統而設想的。" 對于具有高風險后果的軍事系統來說,出錯的余地很小;因此,SE過程對于確保海軍中人工智能系統的安全和理想操作至關重要。

表5. 傳統系統和人工智能系統的比較

在整個系統生命周期中,將需要改變SE方法,以確保人工智能系統安全有效地運行、學習和適應,以滿足任務需求并避免不受歡迎的行為。傳統的SE過程的大部分都需要轉變,以解決人工智能系統的復雜和非確定性的特點。在人工智能系統的需求分析和架構開發階段需要新的方法,這些系統將隨著時間的推移而學習和變化。系統驗證和確認階段將必須解決人工智能系統演化出的突發行為的可能性,這些系統的行為不是完全可預測的,其內部參數和特征正在學習和變化。運營和維護將承擔重要的任務,即隨著人工智能系統的發展,在部署期間不斷確保安全和理想的行為。

SE界意識到,需要新的流程和實踐來設計人工智能系統。國際系統工程師理事會(INCOSE)最近的一項倡議正在探索開發人工智能系統所需的SE方法的變化。表6強調了作為該倡議一部分的五個SE重點領域。除了非決定性的和不斷變化的行為,人工智能系統可能會出現新類型的故障模式,這些故障模式是無法預料的,可能會突然發生,而且其根本原因可能難以辨別。穩健設計--或確保人工智能系統能夠處理和適應未來的情景--是另一個需要新方法的SE領域。最后,對于有更多的人機互動的人工智能系統,必須仔細注意設計系統,使它們值得信賴,可以解釋,并最終對人類決策者有用。

表6.人工智能系統工程中的挑戰(改編自:Robinson,2021)。

SE研究人員正在研究人工智能系統工程所涉及的挑戰,并開發新的SE方法和對現有SE方法的必要修改。Johnson(2019)開發了一個SE框架和方法,用于工程復雜的適應性系統(CASoS)解決方案,涉及分布式人工智能系統的智能協作。這種方法支持開發智能系統的系統,通過使用人工智能,可以協作產生所需的突發行為。Johnson(2021)研究了人工智能系統產生的潛在新故障模式,并提出了一套跨越SE生命周期的緩解和故障預防策略。她提出了元認知,作為人工智能系統自我識別內部錯誤和失敗的設計方案。Cruz等人(2021年)研究了人工智能在空中和導彈防御應用中使用人工智能輔助決策的安全性。他們為計劃使用人工智能系統的軍事項目編制了一份在SE開發和運行階段需要實施的策略和任務清單。Hui(2021年)研究了人類作戰人員與人工智能系統合作進行海軍戰術決策時的信任動態。他制定了工程人工智能系統的SE策略,促進人類和機器之間的 "校準 "信任,這是作為適當利用的最佳信任水平,避免過度信任和不信任,并在信任失敗后涉及信任修復行動。Johnson等人(2014)開發了一種SE方法,即協同設計,用于正式分析人機功能和行為的相互依賴性。研究人員正在使用協同設計方法來設計涉及復雜人機交互的穩健人工智能系統(Blickey等人,2021年,Sanchez 2021年,Tai 2021年)。

數據的作用對于人工智能系統的開發和運行來說是不可或缺的,因此需要在人工智能系統的SE生命周期中加入一個持續不斷的收集和準備數據的過程。Raz等人(2021)提出,SE需要成為人工智能系統的 "數據策劃者"。他們強調需要將數據策劃或轉化為可用的結構,用于開發、訓練和評估AI算法。French等人(2021)描述了需要適當的數據策劃來支持人工智能系統的發展,他們強調需要確保數據能夠代表人工智能系統將在其中運行的預期操作。他們強調需要安全訪問和保護數據,以及需要識別和消除數據中的固有偏見。

SE界正處于發展突破和進步的早期階段,這些突破和進步是在更復雜的應用中設計人工智能系統所需要的。這些進展需要與人工智能的進展同步進行。在復雜的海軍應用以及其他非海軍和非軍事應用中實施人工智能系統取決于是否有必要的工程實踐。SE實踐必須趕上AI的進步,以確保海軍持續的技術優勢。

挑戰四:對抗性

海軍在有效實施人工智能系統方面面臨的第四個挑戰是應對對手。海軍的工作必須始終考慮對手的作用及其影響。表7確定了在海軍實施人工智能系統時必須考慮的與對手有關的三個挑戰:(1)人工智能技術在許多領域迅速發展,海軍必須注意同行競爭國的軍事應用進展,以防止被超越,(2)在海軍應用中實施人工智能系統和自動化會增加網絡脆弱性,以及(3)海軍應用的人工智能系統需要發展和適應,以應對不斷變化的威脅環境。

表7. AI系統的對抗性挑戰

同行競爭國家之間發展人工智能能力的競賽,最終是為了進入對手的決策周期,以便比對手更快地做出決定和采取行動(Schmidt等人,2021年)。人工智能系統提供了提高決策質量和速度的潛力,因此對獲得決策優勢至關重要。隨著海軍對人工智能解決方案的探索,同行的競爭國家也在做同樣的事情。最終實現將人工智能應用于海軍的目標,不僅僅取決于人工智能研究。它需要適當的數據收集和管理,有效的SE方法,以及仔細考慮人類與AI系統的互動。海軍必須承認,并采取行動解決實施人工智能系統所涉及的挑戰,以贏得比賽。

網絡戰是海軍必須成功參與的另一場競賽,以保持在不斷沖擊的黑客企圖中的領先地位。網絡戰的特點是利用計算機和網絡來攻擊敵人的信息系統(Libicki, 2009)。海軍對人工智能系統的實施導致了更多的網絡攻擊漏洞。人工智能系統的使用在本質上依賴于訓練和操作數據,導致黑客有機會在開發階段和操作階段用腐敗的數據欺騙或毒害系統。如果一個對手獲得了對一個運行中的人工智能系統的控制,他們可能造成的傷害將取決于應用領域。對于支持武器控制決策的自動化,其后果可能是致命的。海軍必須注意人工智能系統開發過程中出現的特殊網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御戰略。海軍必須小心翼翼地確保用于開發、訓練和操作人工智能系統的數據集在整個人工智能系統的生命周期中受到保護,免受網絡攻擊(French等人,2021)。

威脅環境的演變是海軍在開發AI系統時面臨的第三個對抗性挑戰。對手的威脅空間隨著時間的推移不斷變化,武器速度更快、殺傷力更大、監視資產更多、反制措施更先進、隱身性更強,這對海軍能夠預測和識別新威脅、應對戰斗空間的未知因素構成了挑戰。尤其是人工智能系統,必須能夠加強海軍感知、探測和識別新威脅的能力,以幫助它們從未知領域轉向已知領域的過程。他們必須適應新的威脅環境,并在行動中學習,以了解戰斗空間中的未知因素,并通過創新的行動方案快速應對新的威脅(Grooms 2019, Wood 2019, Jones et al 2020)。海軍可以利用人工智能系統,通過研究特定區域或領域的長期數據,識別生活模式的異常(Zhao等人,2016)。最后,海軍可以探索使用人工智能來確定新的和有效的行動方案,使用最佳的戰爭資源來解決棘手的威脅情況。

結論

人工智能系統為海軍戰術決策的優勢提供了相當大的進步潛力。然而,人工智能系統在海戰應用中的實施帶來了重大挑戰。人工智能系統與傳統系統不同--它們是非決定性的,可以學習和適應--特別是在用于更復雜的行動時,如高度動態的、時間關鍵的、不確定的戰術行動環境中,允許的誤差范圍極小。本文確定了為海戰行動實施人工智能系統的四個挑戰領域:(1)開發能夠解決戰爭復雜性的人工智能系統,(2)滿足人工智能系統開發和運行的數據需求,(3)設計這些新穎的非確定性系統,以及(4)面對對手帶來的挑戰。

海軍必須努力解決如何設計和部署這些新穎而復雜的人工智能系統,以滿足戰爭行動的需求。作者在這一工作中向海軍提出了三項建議。

1.第一個建議是了解人工智能系統與傳統系統之間的差異,以及伴隨著人工智能系統的開發和實施的新挑戰。

人工智能系統,尤其是那些旨在用于像海戰這樣的復雜行動的系統,其本身就很復雜。它們在應對動態戰爭環境時將會學習、適應和進化。它們將變得不那么容易理解,更加不可預測,并將出現新型的故障模式。海軍將需要了解傳統的SE方法何時以及如何在這些復雜系統及其復雜的人機交互工程中失效。海軍將需要了解數據對于開發人工智能系統的關鍵作用。

2.第二個建議是投資于人工智能系統的研究和開發,包括其數據需求、人機互動、SE方法、網絡保護和復雜行為。

研究和開發是為海戰行動開發AI系統解決方案的關鍵。除了開發復雜的戰術人工智能系統及其相關的人機協作方面,海軍必須投資研究新的SE方法來設計和評估這些適應性非決定性系統。海軍必須仔細研究哪些新類型的對抗性網絡攻擊是可能的,并且必須開發出解決這些問題的解決方案。海軍必須投資于收集、獲取和維護代表現實世界戰術行動的數據,用于人工智能系統開發,并確保數據的相關性、有效性和安全性。

3.第三個建議是承認挑戰,并在預測人工智能系統何時準備好用于戰爭行動方面采取現實態度。

盡管人工智能系統正在許多領域實施,但海軍要為復雜的戰術戰爭行動實施人工智能系統還需要克服一些挑戰。人工智能系統在較簡單應用中的成功并不能保證人工智能系統為更復雜的應用做好準備。海軍應該保持一種現實的認識,即在人工智能系統準備用于戰爭決策輔助工具之前,需要取得重大進展以克服本文所討論的挑戰。實現人工智能系統的途徑可以依靠建模和模擬、原型實驗、艦隊演習以及測試和評估。可以制定一個路線圖,彌合較簡單應用的人工智能和復雜應用的人工智能之間的差距--基于一個積木式的方法,在為逐漸復雜的任務開發和實施人工智能系統時吸取經驗教訓。

海軍將從未來用于戰術戰爭的人工智能系統中獲益。通過安全和有效地實施人工智能系統,戰術決策優勢的重大進步是可能的。此外,海軍必須跟上(或試圖超越)對手在人工智能方面的進展。本文描述了為在海戰中實施人工智能系統而必須解決的四個挑戰。通過對這些新穎而復雜的人工智能系統的深入了解,對研究和開發計劃的投資,以及對人工智能技術進步時限的現實預期,海軍可以在應對這些挑戰方面取得進展。

付費5元查看完整內容

美國仍然是世界上最突出的軍事和技術力量。在過去十年中,美國認識到人工智能作為力量倍增器的潛力,越來越多地將人工智能(AI)的熟練程度視為美國重要利益和保證美國軍事和經濟實力的機制。特別是,在過去十年中,人工智能已成為美國國防的一項關鍵能力,特別是考慮到2022年美國國防戰略對印度-太平洋地區的關注。

因此,美國國防部(DoD)(以及美國政府和國防機構總體上)對人工智能和相關新興技術表現出越來越大的熱情。然而,雖然美國目前在學術界和私營部門的人工智能研究和開發方面取得了巨大進展,但國防部尚未在廣泛范圍內成功地將商業人工智能的發展轉化為真正的軍事能力。

美國政府在利用國防人工智能和人工智能支持的系統方面通常處于有利地位。然而,在過去的幾年里,各種官僚主義、組織和程序上的障礙減緩了國防部在國防人工智能采用和基于技術的創新方面的進展。最關鍵的是,國防部遭受了復雜的收購過程和廣泛的數據、STEM和AI人才和培訓的短缺。從事人工智能和人工智能相關技術和項目的組織往往是孤立的,而且還存在必要的數據和其他資源相互分離。在美國防部內部存在一種傾向于可靠方法和系統的文化,有時趨向于勒德主義。所有這些因素都導致了人工智能采用的速度出奇的緩慢。美國家安全委員會2021年提交給國會的最終報告總結說,"盡管有令人興奮的實驗和一些小型的人工智能項目,但美國政府離人工智能就緒還有很長的路要走"。

因此,盡管人工智能有可能增強美國的國家安全并成為一個優勢領域,而且鑒于美國在軍事、創新和技術領導方面的長期傳統,人工智能有可能成為一個薄弱點,擴大 "美國已經進入的脆弱窗口"。 如果美國不加快創新步伐,達到負責任的速度,并奠定必要的制度基礎,以支持一支精通人工智能的軍隊,人工智能將繼續成為一個不安全點。

去年,美國防部在這些挑戰中的一些方面取得了進展,調整了國防人工智能的方法。2022年6月,美國防部發布了《負責任人工智能戰略和實施途徑》,將更有數據依據的、負責任的、可操作的人工智能工作列為優先事項,此后開始執行。最重要的是,美國防部已經啟動了對其人工智能組織結構的重大改革,創建了一個新的首席數字和人工智能辦公室(CDAO),以整合其不同的人工智能項目和利益相關者,并使其與該部門的數據流更好地協調。值得注意的是,美國國防部目前正在對其國防人工智能的整體方法進行重大變革和振興。然而,這些新的人工智能努力是否足以讓美國彌補失去的時間,還有待觀察。

付費5元查看完整內容

人工智能(AI)是一個創新的引擎,正在推動科學發現和經濟增長。它正日益成為解決方案的一個組成部分,這些解決方案將影響到從日常例行任務到社會層面的挑戰,最終服務于公共利益。同時,也有人擔心人工智能可能會產生負面的社會和環境后果。為了實現人工智能的積極和變革潛力,必須利用美國所有的聰明才智,以解決社會挑戰的方式推進該領域,為所有美國人服務,并維護民主價值觀。

然而,目前人工智能前沿的進展往往與獲得大量的計算能力和數據有關。今天,這種機會往往僅限于那些資源豐富的組織。這種巨大且不斷擴大的資源鴻溝有可能限制和不利于人工智能研究生態系統。這種不平衡威脅著國家培養人工智能研究社區和勞動力的能力,以反映美國豐富的多樣性和利用人工智能來推動公共利益的能力。

如本報告所述,一個可廣泛使用的人工智能研究網絡基礎設施,匯集了計算資源、數據、測試平臺、算法、軟件、服務、網絡和專業知識,將有助于使美國的人工智能研究和開發(R&D)景觀民主化,使所有人受益。它將有助于創造途徑,擴大參與人工智能的研究人員的范圍,并使人工智能的方法和應用增長和多樣化。這種網絡基礎設施也有助于為所有科學領域和學科的進步開辟新的機會,包括在人工智能審計、測試和評估、可信的人工智能、減少偏見和人工智能安全等關鍵領域。反過來,更多的機會和多樣化的視角可以帶來新的想法,否則就不會實現,并為開發設計上具有包容性的人工智能系統創造條件。

作為《2020年國家人工智能倡議法》的一部分,國會成立了國家人工智能研究資源(NAIRR)工作組,以 "調查 "NAIRR作為國家人工智能研究網絡基礎設施的可行性和可取性,并 "提出詳細說明[如何建立和維持NAIRR]的路線圖。" 最近的《2022年CHIPS和科學法案》加強了民主化使用國家人工智能研究網絡基礎設施的重要性,通過投資加速先進計算的發展--從下一代圖形處理單元到高密度內存芯片--以及采取措施積極吸引廣泛和多樣化的美國人才參與前沿科學和工程,包括人工智能。

這份最終報告是特別工作組歷時18個月,為建立NAIRR制定愿景和實施計劃的最終成果。它建立在工作組2022年5月發布的臨時報告中的調查結果和建議的基礎上,提供了一個實現NAIRR目標的實施計劃:以保護隱私、公民權利和公民自由的方式,加強美國的人工智能創新生態系統并使之民主化。

NAIRR的建立應考慮到四個可衡量的目標,即(1)刺激創新,(2)增加人才的多樣性,(3)提高能力,以及(4)推進值得信賴的人工智能。NAIRR應該通過支持來自不同背景的研究人員和學生的需求來實現這些目標,這些研究人員和學生正在從事基礎性的、受使用啟發的和轉化性的人工智能研究。這些用戶應以美國為基地或隸屬于美國的組織,包括學術機構、非營利組織和初創企業或小型企業。

NAIRR應包括一套來自不同供應商的計算、數據、測試平臺和軟件資源,以及技術支持和培訓,以滿足這一目標用戶群的需求。NAIRR的具體設計、實施和評估應圍繞四個關鍵目標進行,并應支持收集數據以評估系統性能的關鍵指標和實現這些目標的成功。

NAIRR的管理和治理應遵循合作管理模式,即由一個聯邦機構作為NAIRR運作的管理機構,由聯邦機構的負責人組成的指導委員會負責推動NAIRR的戰略方向。行政機構內的項目管理辦公室應該為一個獨立的運營實體提供資金和監督,以管理NAIRR的日常運營。由國家人工智能倡議辦公室(NAIIO)共同主持的指導委員會將在NAIRR的管理中納入聯邦各機構的利益和觀點。這些機構也應直接支持資源提供者,他們的資源聯合起來將構成NAIRR。應通過用戶委員會、科學咨詢委員會、技術咨詢委員會和道德咨詢委員會向運營實體提供建議,挖掘多樣化的觀點和專業知識,為NAIRR的運營提供信息。

NAIRR應通過一個綜合門戶網站提供計算和數據資源、測試平臺、軟件和測試工具以及用戶支持服務的聯合組合。計算資源應包括傳統服務器、計算集群、高性能計算和云計算,并應支持訪問邊緣計算資源和人工智能研發的測試平臺。開放的和受保護的數據應在分層訪問協議下提供,并與計算資源共處一地。運營實體本身不應操作構成NAIRR的全部計算機硬件;相反,計算以及數據、測試和培訓資源應作為服務由通過聯邦機構或多機構資助機會選擇的合作伙伴資源提供者提供。當全面實施時,NAIRR應同時滿足人工智能研究界的能力(支持大量用戶的能力)和能力(訓練資源密集型人工智能模型的能力)需求

NAIRR必須能被各種用戶廣泛使用,并提供一個可用于教育和社區建設活動的平臺,以降低參與人工智能研究生態系統的障礙,增加人工智能研究人員的多樣性。NAIRR的訪問門戶和公共網站應提供目錄以及搜索和發現工具,以促進對數據、測試平臺以及為各種經驗水平服務的教育和培訓資源的訪問。

NAIRR應該通過設計和實施其管理程序,為負責任的人工智能研究設定標準。NAIRR必須從一開始就通過整合適當的技術控制、政策和治理機制,積極主動地解決隱私、民權和公民自由問題。運營實體應與道德咨詢委員會合作,制定標準和機制,從隱私、民權和公民自由的角度評估擬納入NAIRR的研究和資源。應根據白宮科技政策辦公室在2022年10月發布的《人工智能權利法案藍圖》,要求定期培訓,以建立NAIRR用戶對人工智能研究中與隱私、民權和公民自由有關的權利、責任和最佳做法的認識。

NAIRR應根據既定的指導方針實施系統保障措施。這些準則包括美國國家標準與技術研究所(NIST)制定的準則和五個安全框架:安全項目、安全人員、安全設置、安全數據和安全產出。運營實體應將NAIRR網絡基礎設施設計成由多個層次組成,首先是兩個主要區域:一個開放的科學區域 "NAIRR-開放 "和一個安全區域 "NAIRR-安全"。每個區域都應該聯合計算、網絡和數據資源,按照安全和訪問控制政策運行,這些政策在區域內是統一的,但在區域之間是不同的,反映了用戶和資源運營商的不同優先級和需求。NAIRR-Open應采用開放科學界20多年來形成的最佳做法;與聯邦開放數據、開放政府和研究安全政策保持一致;使用單點登錄認證和運營實體管理的資源分配機制管理訪問。NAIRR-Secure應該由一個或多個安全飛地組成,遵守一套共同的安全控制,并有能力支持受法律保護的數據所產生的安全要求。

NAIRR的實施應分四個階段,在本報告發表后立即開始。在第一階段,國會應授權并撥款建立NAIRR。行政機構和NAIIO應該協調指導委員會的成立,并建立一個項目管理辦公室,然后準備對運營實體的招標,并管理選擇過程。

圖:階段性NAIRR實施時間表

在第二階段,運營實體應確立其活動,并監督NAIRR門戶網站和用戶界面的創建,建立適當的技術和政策控制。該架構應支持收集關鍵績效指標,以評估NAIRR的進展。資源提供者應通過協調的、多機構的籌資機會來選擇,最好是在運營實體最初授予的6個月內發布。

在第三階段,NAIRR應達到初步的運作能力,運營實體也應正式確定政策、程序和初步的技術資源,提供給人工智能研究人員。最初的能力包括:(1)一個門戶網站和用戶支持資源;(2)一個混合的計算資源提供者;(3)一個分配和身份系統;(4)一個數據發布系統。在第四階段,活動應從建立NAIRR過渡到建立穩定的運作,以及根據用戶的吸收和需求對NAIRR資源進行計劃的演變。

最后,工作組還提出了一個實施NAIRR的試點方案,該方案將與上述階段同時啟動,以加快向人工智能研發界提供NAIRR資源。

按照設想,NAIRR的影響將是巨大而深遠的,使研究人員能夠解決從常規任務到全球挑戰的各種問題。為了實現其愿景和目標,特別工作組估計NAIRR的預算在最初的六年期間為26億美元。這筆投資的大部分(22.5億美元)用于資助通過NAIRR獲得的資源,通過向多個聯邦機構撥款。工作小組根據先進的計算資源以及數據、培訓和軟件資源的近期成本、滿足人工智能研發界當前需求的使用水平估計,以及人工智能研發界的預期增長來估計這一預算。資源提供者應每兩年上線一次,使用壽命為六年,這樣每兩年就會有7.5億美元的新投資,以確保NAIRR的資源保持最先進的水平。運營實體每年將需要5500萬至6500萬美元來支持NAIRR活動的協調和管理。每年還有500萬美元的預算用于對運營實體和NAIRR績效的外部評估。

本報告中提出的NAIRR的愿景旨在滿足國家對增加獲得最先進的資源的需求,以推動人工智能創新。實現這一愿景的路線圖建立在現有的聯邦投資之上;設計了對隱私、民權和公民自由的保護;并促進了多樣性和公平的使用。如果成功,國家人工智能研究資源將改變美國國家人工智能研究生態系統,并通過加強和民主化參與美國的基礎性、使用性和轉化性人工智能研發,促進解決社會層面問題的能力

付費5元查看完整內容

人工智能(AI)領域的不斷進步以及在關鍵部門整合AI系統的工作正在逐步改變社會的各個方面,包括國防部門。盡管人工智能的進步為增強人類能力和改善各種決策提供了前所未有的機會,但它們也帶來了重大的法律、安全、安保和倫理問題。因此,為了確保人工智能系統的開發和使用是合法的、道德的、安全的、有保障的和負責任的,政府和政府間組織正在制定一系列規范性文書。這種方法被廣泛稱為 "負責任的人工智能",或道德的或值得信賴的人工智能。目前,負責任的人工智能最引人注目的方法是開發和運作負責任或道德的人工智能原則。

聯合國裁研所的 "在國防中實現負責任的人工智能 "項目首先尋求對負責任的人工智能系統的研究、設計、開發、部署和使用的關鍵方面建立共同的理解。然后,它將審查負責任的人工智能在國防部門的運作情況,包括確定和促進良好做法的交流。該項目有三個主要目標。首先,它旨在鼓勵各國采用和實施能夠在開發和使用人工智能系統中實現負責任行為的工具。它還試圖幫助提高透明度,促進國家和其他關鍵人工智能行為者之間的信任。最后,該項目旨在建立對負責任的人工智能關鍵要素的共同理解,以及如何將其付諸實施,這可以為制定國際公認的治理框架提供參考。

本研究簡報概述了該項目的目標。它還概述了項目第一階段的研究方法和初步結果:制定共同的原則分類法和對各國采用的人工智能原則進行比較分析。

付費5元查看完整內容
北京阿比特科技有限公司