亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

摘要

人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。

引言

縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。

人工智能的進展

幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
 雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

摘要

建模與仿真(M&S)是作戰分析人員用來支持決策者的一種關鍵方法,因為它有能力對復雜的問題提供清晰的見解。鑒于其好處,許多北約國家和北約內部的組織擁有大量的M&S專業知識,并將其應用于廣泛的問題。然而,這些模擬,特別是那些具有高度復雜性的模擬,可能是昂貴的,開發和驗證需要時間,并且需要專業知識和資源來使用。雖然在整個北約共享這些專業知識和這些模擬可能會導致更有效的決策支持,但它充滿了障礙,包括與項目時間表有關的時間壓力、知識產權,有時還需要共享機密材料。克服這些障礙將有助于北約從整個聯盟的M&S投資和專業知識中獲得應有的決策優勢。然而,為了克服這些障礙,需要有切實可行的解決方案。

在本文中,我們概述了MSG-SAS-178的工作,其目的是開發一種方法來減少這些障礙。我們討論了該小組的兩個主要貢獻。首先,該小組對北約內部共享M&S軟件、資源和模擬本身的常見障礙進行了識別和分類。其次,我們提出了一個障礙交換框架,在考慮數據、軟件、供應商和決策者等多個方面的障礙時,它可以作為決策支持工具。該框架提供了一種可操作的方式,通過仔細考慮模型和數據交換的要求以及交換帶來的障礙來塑造合作。這使得整個聯盟的M&S共享得到加強。

引言

幾十年來,建模與仿真(M&S)已被成功地用于支持北約的決策,是一種關鍵的分析能力。應用的領域包括先進的作戰計劃、基于能力的計劃、能力和/或概念開發,以及支持實驗和戰爭游戲。M&S有多種形式,從設計多年的大型復雜戰役模擬,到為單一目的快速建立的模擬。大型復雜模型的開發和維護成本很高,而且許多模型需要專家的專業知識,而這些專業知識是供不應求的。成本和所需的專業知識使M&S成為北約集體能力和合作意愿的一個領域,應使聯盟比其對手更有優勢。

通常情況下,有四個來源可以提供模擬服務。(1)北約實體,(2)國家政府,(3)工業,和(4)學術界。這四個方面都有專業知識、工具和數據。專業知識和工具的開發和維護可能是昂貴和費時的,特別是在專業或利基領域。對于數據來說,國防中使用的分類級別可能是一個問題,限制了工業界和學術界,并影響了國家和北約層面的共享。

北約實體和國家政府已經成為北約仿真服務的首選。在北約內部簽訂服務合同相對容易,但經驗表明,與國家政府或其他實體簽訂合同則充滿了困難。在整個北約提供模擬服務方面存在障礙,導致爐灶和低效率。在北約的科學和技術組織(STO)下,2019年啟動了一個聯合建模與仿真小組(MSG)和系統分析與研究(SAS)活動(MSG-SAS-178)。該活動的目的是考慮如何克服障礙,使北約及其所有成員受益。本文討論了該小組的兩個主要貢獻。首先,該小組對在北約內部共享M&S軟件、資源和模擬本身的共同障礙進行了識別和分類。第二,一個障礙交換框架,在考慮數據、軟件、供應商和決策者等多個方面的障礙時,可作為決策支持工具。該框架提供了一種可操作的方式,通過仔細考慮模型和數據交換的要求以及交換帶來的障礙,來塑造合作并為成功創造條件。這使得整個聯盟的M&S共享得到加強。

本文的其余部分組織如下。第2節概述了本研究中使用的方法。接下來,第3節討論了共享的障礙:首先是通過對知識共享文獻的回顧而發現的障礙,其次是通過MSG-SAS-178活動而發現的與北約內部和國家之間共享模擬有關的障礙。第4節介紹了一種引導模型和數據交換的方法,這也許是國防領域最重要的一組障礙。從MSG-SAS-178更詳細的案例研究庫中,我們介紹了數據和模型交換框架如何在現實世界的場景中使用。第5節提供了結論意見。

付費5元查看完整內容

作戰實驗室是將測試能力與作戰終端用戶結合在一起,以開發或增強作戰概念、程序和/或作戰人員培訓(北約定義)。

演講大綱

  • 全國民主聯盟戰斗實驗室概述
  • 多域運營挑戰
  • M&S的全新而不同的角色
  • 讓戰斗實驗室為MDO做好準備
  • 主要收獲和前進的道路
付費5元查看完整內容

摘要

美國、她的盟國和對手正在為民用和軍事應用擁抱計算環境和技術(以下簡稱AI)的進步。我們的工作建議探討自主和半自主系統中的一個核心矛盾,即無人系統的部署長度(停留時間)與因不定期維護導致的單個系統故障和因對手行動導致的故障之間的基本權衡。本文的獨特之處在于,它將從政策的角度以及應用統計學的角度來探討這個問題,并為更廣泛的無人系統的采購和使用提供見解。

引言

信任一個無人系統意味著什么?這個看似無關緊要的問題是無人駕駛技術的各種民用和軍用應用中的一個核心問題。隨著世界變得越來越自動化,人類看護者的監督越來越少,自主系統將在有限的監控下長期忍受下去。雖然具有長時間續航能力的自主系統可以成為民用和軍用海上監測的寶貴資產,但自主系統群的衰落是一個不可避免的現實。但是,預期的衰減速度和實際速度之間的差異可以為無人系統星座的惡意干擾提供一個早期指標。

上述分析提出了一個重要的問題,那就是當檢測到沒有反應而假定某個系統被摧毀時的故障歸屬。如果無響應是系統失敗的唯一指標,它可能是由各種因素造成的,包括環境、機械故障或最令人擔憂的損耗,我們將其定義為旨在使無人駕駛系統喪失功能并加以摧毀的惡意敵方行動。使用這個定義,損耗與失敗是分開的,因為失敗是由不涉及有目的的敵方行動的情況造成的。對于軍事平臺來說,損耗是最嚴重的情況,因為這些平臺上可能攜帶著操作員不希望落入對手軍隊手中的機密傳感器和有效載荷。

同樣,了解自然退化模式可以使一個國家以一種難以區別于隨機故障的方式使對手的系統退化。這樣的方法可以使一個國家有能力參與進攻性行動,或者在紅方參與軍事行動之前限制藍方對跡象和警告(I&W)的探測。 我們在本說明中的貢獻是在一個統一的結構中考慮無人駕駛系統退化的可靠性和博弈方面。我們的論文結構如下。在第二節中,我們從應用數學和政策的角度回顧文獻。在第三節中,我們對可靠性和博弈論進行了初步的、數學上的統一闡述。在第四節中,我們探討了具體的方案,最后總結了結論并為未來的分析提供建議。

付費5元查看完整內容

摘要

作為一個多國聯盟,當北約的成員國能夠在短時間內自信地將他們的部隊聚集在一起時,北約是最有效的。因此,一個關鍵的信息要求是了解其國家部隊的互操作性程度。為了有效地傳達這種理解,需要統一的、可重復的、可靠的和結構化的方法和框架。成立SAS-156的目的是為互操作性數據的測量、收集和評估制定一個北約標準。信息時代的要求對不同單位快速、方便、安全地連接和共享信息的能力提出了挑戰,但人和程序的因素仍然同樣重要。作者將介紹他們根據在加拿大聯合作戰司令部的工作經驗,對參與國的現有評估框架進行綜合和擴展的工作。加拿大武裝部隊的經驗特別相關,因為它是北約在拉脫維亞的多國增強型前沿存在戰斗小組的框架國家,并且輪流領導北約常設海上小組。

引言

聯盟和伙伴關系一直是上個世紀成功的大規模作戰行動的一個關鍵組成部分。互操作性--為實現戰術、作戰和戰略目標而一致、有效和高效地共同行動的能力--是取得成功的關鍵。北約國家和合作伙伴了解互操作性的重要性,并且已經和正在收集關于行動和演習及活動的大量數據,以評估多國聯盟能夠實現互操作性的程度。然而,諸如缺乏標準術語等障礙仍然存在,而且可靠和有效的數據收集方法仍然難以找到。為了彌補這一缺陷,向系統分析和研究(SAS)小組提出的技術活動建議在2019年獲得批準,由此產生的后續活動,即北約任務組SAS-156 "制定評估多國互操作性的標準方法",正在追求這些明確的研究和利用目標:

  • 幫助北約實現互操作性數據定義、收集和管理的標準。

  • 讓軍事規劃人員更好地了解他們與合作伙伴的互操作性狀況,并在他們之間以共同的方式討論這些評估。

  • 為追求自身互操作性目標的各個國家的資源配置決策提供依據。

付費5元查看完整內容

摘要

應對氣候變化對北約具有戰略意義。對可能的氣候措施和后果進行充分知情的決策支持分析將決定北約如何很好地應對這一挑戰。環境科學和軍事行動分析的結合將使各國和聯盟能夠做出明智的決定,有可能減少溫室氣體排放和成本,并提高行動效率。

挪威國防部已責成挪威國防研究機構(FFI)在軍事要求規定的范圍內研究挪威武裝部隊減少溫室氣體排放的潛力。

我們對挪威武裝部隊未來的排放量進行了建模,并對七項措施的減排量和成本進行了量化。總的來說,這些措施有可能使溫室氣體排放相對于未來排放的基線減少15-30%,平均估計為22%。此外,我們還確定了幾個同樣重要的措施,這些措施的減排量可能難以量化。

武裝部隊的軍事平臺有很長的服務壽命。現在投資于能源效率低下的解決方案將在未來許多年內產生排放和成本。因此,我們建議,排放預測在采購決策和長期國防規劃過程中得到更突出的作用。

引言

挪威武裝部隊的活動對環境產生了一些負面影響。鑒于武裝部隊任務的性質,其中一些影響是不可避免的。對環境的影響進行了持續的調查,并每年進行報告。國防部門的溫室氣體排放在國際和國內得到了越來越多的關注,挪威國防部責成挪威國防研究機構(FFI)研究減少挪威武裝部隊溫室氣體排放的潛力。

本文的目的是在軍事要求規定的范圍內,對這種潛力進行建模。這項研究并不包含國防部門可能的環境措施的完整清單。我們已經優先考慮了目前知識缺乏的領域。我們還考慮了一個新提出的海上戰爭替代概念的排放效應。這不應該被理解為一種減排措施,它是一種提高能力和降低成本的措施。然而,我們希望證明這樣一個概念的排放后果,并將其作為一個例子,說明如何在國防部門利用技術來實現更多的氣候效率解決方案。

在本章中,我們將簡要地討論氣候變化和對挪威武裝部隊可能產生的后果。在接下來的章節中,我們將說明我們的分析方法和數據、結果和結論。

圖1-1:根據目前的長期計劃,挪威武裝部隊未來排放的模擬基線。
付費5元查看完整內容

當前的海軍作戰要求水手們根據動態作戰環境中的不確定態勢信息做出時間緊迫和高風險的決策。最近的悲慘事件導致了不必要的傷亡,海軍行動中涉及決策復雜性,并特別突出了 OODA 循環(觀察、定向、決策和評估)中的挑戰。涉及使用武器系統的殺傷鏈決策是 OODA 循環中一個特別緊張的類別——具有難以確定的意外威脅、縮短的決策反應時間和致命的后果。有效的殺傷鏈需要正確設置和使用船上傳感器;未知接觸者的識別和分類;基于運動學和智能的接觸意圖分析;環境意識;以及決策分析和資源選擇。

該項目探索了使用自動化和人工智能 (AI) 來改進海軍殺傷鏈決策。該團隊研究了海軍殺傷鏈功能,并為每個功能制定了特定的評估標準,以確定特定 AI 方法的功效。該團隊確定并研究了 AI 方法,并應用評估標準將特定的 AI 方法映射到特定的殺傷鏈功能

圖:利用人工智能改進海軍殺傷鏈的作戰概念

總結

當前的海軍行動通常是快節奏的、關鍵的,并且需要做出高風險的決策,這些決策有時基于非常動態的戰區中的不確定信息。許多例子強調了提高決策效率的必要性以及減輕觀察團隊負擔的必要性。缺乏上述情況的例子包括 2017 年的菲茨杰拉德號航空母艦 (DDG 62) 和 MV ACX Crystal相撞,以及 2009 年皇家港口號航空母艦 (CG 73) 的擱淺。一些根本原因是相關人員缺乏經驗、疲勞和壓力.

上述事故展示了軍事行動的難度,并展示了 OODA(觀察、定向、決策和評估)循環中的挑戰(Jones 等人,2020 年)。人為錯誤、人的認知限制和海軍作戰固有的決策復雜性導致了 OODA 循環中的挑戰,更具體地說,是殺傷鏈過程中的挑戰。

現代戰斗空間由來自常規陸地、空中和海洋等多個領域以及來自太空和網絡空間的大量數據組成。決策者需要考慮許多因素,包括交戰規則 (ROE)、要使用的武器、傳感器和意圖評估。發現、修復、跟蹤、瞄準、參與、評估 (F2T2EA) 殺傷鏈模型緩解了該過程的一些困難(參謀長聯席會議,2013 年)。人工智能 (AI) 和機器學習 (ML) 可以通過分析備選方案和使用評估標準將 AI 方法映射到殺傷鏈功能,從而幫助海軍在戰術領域做出殺傷鏈決策。這是在本報告的五個章節中分三個階段完成的。

本報告利用了數百個資源,主要利用了美海軍研究生院 AI-OODA 團隊在其 Capstone 報告(2020 年)中進行的先前研究,“利用人工智能 (AI) 進行空中和導彈防御 (AMD):以結果為導向的決策援助。”他們將他們的工作與 John Boyd 的觀察、定向、決定和行動決策框架相結合。作為他們分析的初步步驟,AI-OODA 團隊將特定的 OODA 功能明確且緊密地耦合到特定的 F2T2EA 功能。然而,本報告斷言 OODA 循環是一個決策循環,它嵌套在殺傷鏈的每個功能中,而不是在高壓力或低壓力情況下專門映射到一個或多個殺傷鏈功能。團隊基于 F2T2EA 模型開發了一組 28 個殺傷鏈功能。

在制定將 AI 方法映射到殺傷鏈的評估標準時,很難確定一個好的決策,這對于決策評估至關重要。在評估決策時,必須考慮選擇行動時的知識意識狀態以及解釋能力。使用了幾種對決策進行評分的方法,從定義和優先考慮感興趣的“武器-目標”到制定評分標準和報告評估結果,以供其他人審查。

目前,人工智能的狀態非常廣泛,必須對其進行解釋,以了解人工智能對殺傷鏈中功能的適用性。本報告討論了所選 AI 方法的高級概述,并突出顯示了部分最流行的方法。首先,沒有普遍接受的定義,這很難定義人工智能。其次,人工智能與機器學習 (ML) 存在差異。 ML 允許在準確性和可預測性方面取得增量收益; AI 接收數據并通過算法提供輸出。人工智能的歷史從 1940 年代艾倫·圖靈 (Alan Turing) 的加密機器到 1980 年代美國政府在戰略計算計劃中的使用,再到今天在聯合人工智能中心 (JAIC) 中的人工智能戰略五個支柱,從領先的人工智能人力到安全和倫理。美國國防高級研究計劃局 (DARPA) 在 3-wave 框架中描述了 AI 的發展方向,分為手工知識 (Wave 1)、統計學習 (Wave 2) 和上下文推理 (Wave 3) 在 1-4 個維度內情報參數的屬性(Launchbury 2017)。這些屬性包括感知、推理、抽象和學習。

人工智能涉及可以根據輸入值預測結果的監督學習。有幾種使用監督學習進行學習的技術。包括線性回歸和分類。此外,許多數值方法可以分析發生的學習有效性,例如 F-score 和 Accuracy score。人工智能還可以使用無監督學習,它使用算法來發現未標記數據集中的數據模式或分組。在分析未知(y)響應以揭示標記(x)數據中的模式時,無監督學習是有益的。數據分析界的一個著名例子是鳶尾花(Iris flower)數據集。僅使用標記的數據,可以看到響應聚集在一起,并且可以確定響應中存在模式(花的種類)。無監督學習的方法包括聚類和 K-means,但還有其他方法。強化學習有一個代理能夠接收來自環境的反饋并理解基本目標。此外,正如 Sutton 和 Barto 在(2018 年)中解釋的那樣,探索和開發之間存在權衡。最后,生成對抗網絡 (GAN) 利用無監督學習和強化學習,通常用于神經網絡 (NN)。神經網絡是機器學習算法的極好來源,它有大量的輸入,而這些輸入又會產生大量的計算。 NN 非常適合用于模擬、自然語言處理、博弈論和計算機視覺。 NN 只是一種將輸入映射到輸出的簡單方法,可以在此過程中進行學習。然而,NN 可以被描述為一種“黑盒”學習技術,因為很難解釋正在發生的事情,并且通常需要一種可解釋的 AI (XAI) 技術。 XAI 的三個主要組成部分是可解釋模型、解釋界面和解釋心理學(Gunning 2019)。數據安全必須與“大數據”一起考慮,“大數據”是指非結構化、復雜和大型數據集,具有五個 v 特征:數量、速度(數據量隨時間變化的增加)、多樣性、真實性和價值。其他理論包括決策理論、模糊邏輯和效用函數

使用上述文獻綜述,該團隊開發了一個框架,用于將 AI/ML 映射到 AMD(空中導彈防御)殺傷鏈。采取了四個步驟:1) 建立模型框架,2) 確定決策點,3) 應用 AI/ML 方法,以及 4) 分析結果。該團隊確定了以下用于殺傷鏈映射分析的 AI/ML 方法:線性回歸、邏輯回歸、聚類、關聯、隨機森林、神經網絡、GAN 和樸素貝葉斯。評估標準被稱為“決策點”并提出四個問題:(1)所需輸出的類型是什么,(2)所需的學習類型是什么,(3)可解釋性(XAI)是什么水平需要,以及 (4) 需要多少個預測變量?該團隊通過基于一組決策點和評分過程評估每個殺傷鏈功能的每種方法來執行映射。對于被認為非常適合某項任務的方法,得分為+1,如果該方法適合但次優,則為0,如果該方法不適合該任務,則為–1。

該團隊進行了映射分析,根據與殺傷鏈的 28 個功能中的每一個功能相關的評估標準(決策點)分析 AI 方法。該團隊使用評分方法來確定每個殺傷鏈功能的最佳整體 AI/ML 分數。團隊的映射顯示為 0。

該團隊的 AI/ML 映射到殺傷鏈功能為國防部和海軍提供了兩個關鍵好處。首先,映射本身是設計和開發支持殺傷鏈決策的人工智能戰術決策輔助工具的重要起點和基礎。其次,該團隊將 AI 方法映射到殺傷鏈的分析過程可用于了解 AI 在許多其他軍事和非軍事領域的應用。識別適當的人工智能方法、制定評估標準和評分過程以及制定過程功能以進行分析映射的過程對于支持許多不同人工智能系統的工程具有深遠的潛力。

表1:AI/ML方法到殺傷鏈的映射

付費5元查看完整內容

本報告描述了北約第一個多領域小組IST-173所取得的成果。與會者包括來自不同小組和團體的科學家,以及來自北約機構和軍事利益攸關方、學術界和工業界的科學家,這為AI和軍事決策大數據這一主題創造了第一個利益共同體。該團隊在實踐中證明了一種新的STO方法的可行性,即任務導向研究,以激發公開對話、自我形成的研究合作和跨小組活動。此外,該方法還有助于為人工智能和軍事決策大數據這兩個主要能力領域聯合開發北約首個科技路線圖,以應對北約在這些領域面臨的作戰挑戰。由于新的組織(軍事利益相關者積極參與的多領域團隊)和這種創新方法的應用,確定了一些經驗教訓,應該支持軍事決策AI和大數據的進一步操作。

付費5元查看完整內容

?美國國防部已經可以開始應用其現有的國際科技協議、全球科學網絡以及在多邊機構中的作用來促進數字國防合作。本報告將這些選項集合構建為軍事人工智能合作工具箱,可為調整政策、推進研究、開發和測試以及連接人員提供了有價值的途徑。

美國將人工智能 (AI) 的領導地位視為提升其在國際體系中的戰略地位和保持其未來軍事優勢的關鍵。美國的盟友和伙伴網絡是服務于這些目標的不對稱資產,正如旨在讓美國為當前戰略競爭時代做好準備的國家安全和國防政策所確認的那樣。

最值得注意的是,美國國防部 (DOD) 人工智能戰略中宣布的關鍵舉措和國家安全委員會關于人工智能的建議表明了國際參與對人工智能安全、安保、互操作性和與民主價值觀保持一致的重要性。

簡而言之,人們一致認為,加強聯盟和伙伴關系很重要,不僅因為美國在聯盟中行動,而且因為俄羅斯等經常單獨行動。由于技術加速如何推動軍事進步、刺激經濟增長和塑造21世紀的治理模式,人工智能和其他新興技術是與這些近乎同等競爭對手競爭的核心。如果不深化與盟友和伙伴的合作,美國既無法應對大國帶來的挑戰,也無法從塑造人工智能的民主軌跡中獲益。

在此背景下,本報告重點關注通過基于可互操作部隊和尖端技術的強大軍事關系,維護美國及其伙伴和盟國網絡相對于潛在對手的優勢的必要性。國防部已經擁有多種工具可用于深化與其盟國和國際安全伙伴的科技(S&T)合作。但為了充分利用它們在人工智能方面的潛力,該部門需要重新設想并更好地整合它們。

為此,此處的分析將現有的國防科技協議、軍事科技交流和多邊機構的要素構建為軍事人工智能合作工具箱。這項工作不僅僅是為人工智能能力開發集中資源,還包括政策調整;測試、評估、確認和驗證 (TEVV) 管道;研發(R&D)、人員交流;數據共享;和標準化。這里的目的不是提出新的協議,而是回答國防部如何利用其現有的科技合作機制來支持數字時代的軍事合作,確保相關資源和框架在尋求人工智能領導力和未來時不會被利用聯軍成功。

雖然應該承認挑戰,包括圍繞數據交換的敏感性和對技術政策的不同政策觀點,但隨著時間的推移,它們也可以成為合作以減輕這些障礙的動力。換言之,現有工具有助于在政治信任、凝聚力和互操作性方面獲得更多支持,從而使合作有助于應對數字威權主義和技術驅動的國際安全環境變化的共同挑戰。 主要發現是:

  • TEVV 是軍事人工智能合作的一個重要但代表性不足的特征。一系列活動可以納入 AI 的合作 TEVV 管道,包括聯合測試、試驗、實驗、培訓、練習以及建模和模擬。
  • 利用國防科技協議就共同的研發優先事項進行合作,有助于為其他形式的人工智能合作建立良好意愿,包括與民主價值觀保持一致。
  • 軍事人工智能合作不是純粹的技術努力。促進政策和人員聯系的技術、人力和程序措施對于推進可互操作的人工智能采用同樣重要。
  • 印度-太平洋地區的盟國和合作伙伴在現有軍事人工智能合作工具箱所涵蓋的主要協議和機構中的代表性不足。

雖然軍事人工智能合作的某些方面可能需要新的投資、機制和協議,但這不應該排除現有工具可以用于新用途的多種方式。軍事人工智能合作工具箱之所以有吸引力,正是因為它可以在短期內啟動,滿足與盟友和伙伴盡早建立互操作性和推進人工智能的緊迫性。

付費5元查看完整內容

Drone Wars UK 的最新簡報著眼于人工智能目前在軍事環境中的應用方式,并考慮了所帶來的法律和道德、作戰和戰略風險。

人工智能 (AI)、自動決策和自主技術已經在日常生活中變得普遍,并為顯著改善社會提供了巨大的機會。智能手機、互聯網搜索引擎、人工智能個人助理和自動駕駛汽車是依賴人工智能運行的眾多產品和服務之一。然而,與所有技術一樣,如果人們對人工智能了解甚少、不受監管或以不適當或危險的方式使用它,它也會帶來風險。

在當前的 AI 應用程序中,機器為特定目的執行特定任務。概括性術語“計算方法”可能是描述此類系統的更好方式,這些系統與人類智能相去甚遠,但比傳統軟件具有更廣泛的問題解決能力。假設,人工智能最終可能能夠執行一系列認知功能,響應各種各樣的輸入數據,并理解和解決人腦可以解決的任何問題。盡管這是一些人工智能研究計劃的目標,但它仍然是一個遙遠的前景。

AI 并非孤立運行,而是在更廣泛的系統中充當“骨干”,以幫助系統實現其目的。用戶不會“購買”人工智能本身;他們購買使用人工智能的產品和服務,或使用新的人工智能技術升級舊系統。自主系統是能夠在沒有人工輸入的情況下執行任務的機器,它們依靠人工智能計算系統來解釋來自傳感器的信息,然后向執行器(例如電機、泵或武器)發出信號,從而對機器周圍的環境造成影響.

人工智能被世界軍事大國視為變革戰爭和獲得戰勝敵人的優勢的一種方式。人工智能的軍事應用已經開始進入作戰使用,具有令人擔憂的特性的新系統正在迅速推出。與軍事和公共部門相比,商業和學術界已經引領并繼續引領人工智能的發展,因為它們更適合投資資金和獲取研究所需的資源。因此,未來人工智能的軍事應用很可能是對商業領域開發的技術的改編。目前,人工智能正在以下軍事應用中采用:

  • 情報、監視和偵察
  • 賽博戰
  • 電子戰
  • 指揮控制和決策支持
  • 無人機群
  • 自主武器系統

人工智能和英國軍事

綜合審查和其他政府聲明毫無疑問地表明,政府非常重視人工智能的軍事應用,并打算繼續推進人工智能的發展。然而,盡管已經發布了概述使用自動化系統的學說的出版物,但迄今為止,英國國防部 (MoD) 仍然對管理其人工智能和自主系統使用的倫理框架保持沉默,盡管已經做出了一些重大決定。軍事人工智能的未來用途。

英國國防部一再承諾發布其國防人工智能戰略,預計該戰略將制定一套高級倫理原則,以控制軍事人工智能系統的整個生命周期。該戰略是在與來自學術界和工業界的選定專家討論后制定的,盡管政府尚未就與人工智能的軍事用途相關的倫理和其他問題進行公開磋商。該戰略的主要目的之一是向行業和公眾保證,國防部是人工智能項目合作的負責任合作伙伴。

與此同時,在沒有任何道德指南的情況下,計劃和政策正在迅速推進,主要問題仍未得到解答。英國軍隊在什么情況下會采用人工智能技術?政府認為何種程度的人為控制是合適的?風險將如何解決?英國將如何向其盟友和對手證明英國打算采取有原則的方法來使用軍事人工智能技術?

軍事人工智能系統帶來的風險 上述人工智能的每一種不同的軍事應用都會帶來不同的風險因素。作為國防部總部后臺操作的一部分,對數據進行排序的算法會引發不同的問題和擔憂,并且需要與自主武器系統不同級別的審查。

盡管如此,目前正在開發的人工智能系統無疑會對生命、人權和福祉構成威脅。軍事人工智能系統帶來的風險可以分為三類:道德和法律、操作和戰略。

道德和法律風險

  • 遵守戰爭法: 目前尚不清楚機器人系統,特別是自主武器如何能夠滿足戰爭法制定的致命決定和保護非戰斗人員的標準。

-問責制:目前尚不清楚如果出現問題,誰來承擔責任:如果計算機運行不可預測并因此犯下戰爭罪行,懲罰它是沒有意義的。

  • 人權和隱私:人工智能系統對人權和個人隱私構成潛在威脅。

  • 不當使用:在戰斗環境中處于壓力之下的部隊可能會試圖修改技術以克服安全功能和控制。

作戰應用風險

  • 偏見的技術來源:人工智能系統的好壞取決于它們的訓練數據,少量損壞的訓練數據會對系統的性能產生很大影響。

  • 偏見的人為來源:當人類濫用系統或誤解其輸出時,可能會導致偏見。當作戰員不信任系統或系統非常復雜以至于其輸出無法解釋時,也會發生這種情況。

  • 惡意操縱:軍用 AI 系統與所有聯網系統一樣,容易受到惡意行為者的攻擊,這些行為者可能試圖干擾、黑客攻擊或欺騙系統。

戰略風險

  • 降低門檻:人工智能系統帶來了政治領導人在沖突中訴諸使用自主軍事系統而不是尋求非軍事選擇的風險。

  • 升級管理:涉及人工智能的軍事行動的執行速度降低了審議和談判的空間,可能導致快速意外升級并造成嚴重后果。

  • 軍備競賽和擴散:對軍事人工智能的追求似乎已經引發了軍備競賽,主要和地區大國競相發展其能力以保持領先于競爭對手。

  • 戰略穩定性:如果先進的人工智能系統發展到能夠預測敵人戰術或部隊部署的程度,這可能會產生高度不穩定的后果。

本簡報列出了為人工智能設想的各種軍事應用,并強調了它們造成傷害的可能性。它認為,減輕軍事人工智能系統帶來的風險的建議必須基于確保人工智能系統始終處于人類監督之下的原則。

迄今為止,公眾對人工智能和機器人技術進步所帶來的社會變化和風險似乎知之甚少。這份簡報的部分目的是為了敲響警鐘。人工智能可以而且應該用于改善工作場所的條件和對公眾的服務,而不是增加戰爭的殺傷力。

付費5元查看完整內容
北京阿比特科技有限公司