亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)在國防領域的使用帶來了重大的倫理問題和風險。隨著人工智能系統的開發和部署,澳國防部將需要解決這些問題,以維護澳大利亞國防軍的聲譽,維護澳大利亞的國內和國際法律義務,并支持國際人工智能制度的發展。

這份報告《案例研究:國防中的倫理人工智能方法應用于戰術指揮和控制系統》是總理與內閣部(PM&C)、澳國防部和澳大利亞國立大學(ANU)3A研究所之間的科技(S&T)合作的產物。它使用《國防中的倫理人工智能方法》[1]來探討設想中的人工智能戰術指揮和控制(C2)系統的倫理風險,該系統整合了各種自主功能,以協助單個人類操作員同時管理多個無人駕駛車輛。

使用 "國防中的倫理人工智能方法 "對這一設想的C2系統進行分析,為三個利益相關者群體提供了關鍵的發現:澳國防部;人工智能技術開發者,以及那些尋求使用或迭代 "國防中的倫理人工智能方法 "的人。

對于澳國防部,該報告確定了關鍵的政策差距,并建議在以下方面采取行動。

  • 對人工智能所做的決定和使用人工智能所做的決定制定一個問責框架

  • 對操作員、指揮和系統開發人員的教育和培訓

  • 管理支撐許多人工智能應用的數據,包括其收集、轉換、存儲和使用。

如果不采取行動,這些差距使澳國防部容易受到重大的聲譽和業務損害。

對人工智能技術開發者的其他關鍵發現涉及到有效性、整合、授權途徑、信心和復原力等主題。總的來說,這些發現鼓勵開發者考慮最有效的系統或算法(例如,在速度或準確性方面),是否一定是為決策者提供幫助的最佳選擇。在某些情況下,與規范性決策更一致的效率較低的算法可能更合適。此外,顯然需要研究哪些信息是做出好的判斷所必需的(特別是在問題復雜、背景重要的情況下);以及應該如何快速傳達這些信息。通過考慮作為分析的一部分而開發的七種假設的道德風險情景,可以進一步探討這些關鍵的發現。

對于那些尋求應用或迭代《國防倫理人工智能方法》的人來說,報告建議開發更多的工具,以幫助從業者確定對其特定需求具有最大相關性和效用的領域;以及一套全面的定義,以幫助應用該方法。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)有可能影響所有領域和大規模的軍事行動。本章探討了人工智能系統如何影響準備和開展軍事行動的主要工具,以及如何受其影響。本章分析和討論了人工智能在戰略、條令、規劃、交戰規則和命令方面的多層次影響。采取了一個廣泛的分析角度,能夠根據新的政策和技術發展,以及對政治、軍事、法律和道德觀點的考慮,對這個問題進行總體審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。提供了洞察力和途徑,以推進對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

引言

人工智能(AI)的軍事應用有可能影響所有領域和大規模的軍事行動的準備和進行。人工智能系統可以越來越多地支持和取代人類完成軍事任務,因為它們變得更快、更準確,并能夠處理更多的信息和更高的復雜程度。這可能促進軍事行動速度的提高和更好的軍事決策,最終為擁有高性能人工智能的武裝部隊提供顯著優勢。人工智能的軍事用途甚至可能導致軍事事務的另一場革命,盡管這種發展將取決于其他因素而不僅僅是技術。

人工智能可以被用于各種軍事目的。在多維戰場上,人工智能技術可以被用作傳感器、規劃者和戰斗機,或兩者的結合。更具體地說,人工智能的軍事應用可以從支持情報、監視和偵察(ISR)的系統到自主導航和目標識別系統。這可能導致軍事人員和人工智能系統之間不同形式的互動,以及將軍事任務委托給人工智能系統的不同層次。例如,人工智能系統可以在決策過程中協助指揮官和士兵,無人駕駛的人工智能系統可以與有人駕駛的系統一起協作,人工智能系統可以在最少的人類監督下自主運行。 雖然目前只存在狹義和特定任務的人工智能,但正在大力發展人工通用智能(AGI)--具有類似于人類思維的廣泛領域推理能力的系統。 這與人工智能系統的自主性不斷增強的趨勢是一致的。

鑒于人工智能的特殊性和未來的應用,出現了一個問題,即人工智能的引入將如何影響軍事行動。本章通過評估人工智能如何影響準備和進行軍事行動的主要工具并受其影響來探討這一問題。具體而言,本章分析和討論了人工智能在戰略(第1分章)、條令(第2分章)、規劃(第3分章)、交戰規則(第4分章)和命令(第5分章)方面的多層次影響。以下各章將對每個工具進行一般性解釋,然后討論這些工具與人工智能的具體相互關系。

本章采取了一個廣泛的分析角度,包括了部隊整合和指揮與控制(C2)等軍事概念的各個方面,但并不限于此。 這使得在新政策和技術發展的基礎上,以及在考慮政治、軍事、法律和倫理角度的情況下,能夠對這個問題進行更全面的審查。因此,本章確定了機遇、挑戰和開放性問題,并提出了總體性的意見。本章最后發現了人工智能與準備和進行軍事行動的主要工具之間的動態相互關系,并將人類操作員和人工智能之間的互動定位為核心基本問題。

由于軍事人工智能是最近才出現的,因此對納入人工智能的未來軍事行動的任何分析只能是暫時性的,并基于這樣一個前提,即目前對具有高度自主性的人工智能,進行操作化的挑戰將被克服。然而,鑒于技術的快速發展,本章為推動進一步的思考、研究和政策制定提供了見解和途徑,以便在軍事行動中適當整合、管理和使用AI。

1. 戰略與人工智能

軍事行動為國家的政治和戰略目標服務。在戰爭的三個層面(戰略、戰役和戰術)中,軍事戰略是最高的。它可以被描述為 "戰爭的安排 "或 "戰爭的方向"。它為軍事行動提供依據,處于政治和軍事領域的交界處。 從本質上講,軍事戰略是一項計劃,它將最終目標與實現這一目標的手段聯系起來。更具體地說,軍事戰略可以被定義為 "使用武裝力量來實現軍事目標,進而實現戰爭的政治目的 "或 "在戰爭中達到預期結果的概念和實際考慮的表現,涉及對特定敵人的組織、運動和戰術、戰役和戰略使用或承諾的力量。國家安全和國防戰略可以為軍事戰略建立總體框架,而且經常可以在白皮書中找到。

各國還沒有公開通報他們如何使用或打算使用人工智能來制定軍事戰略。因此,在現階段,分析人工智能對軍事戰略的影響以及反之亦然,必須依靠國防白皮書和各國的人工智能戰略。一般來說,雖然在過去幾年中,大約有50個國家發布了關于人工智能在多個部門(特別是民用和工業部門)的使用、發展和融資的官方人工智能戰略,但這些文件一般不關注或幾乎不提及國防應用。然而,主要軍事強國最近通過了與軍事人工智能有關的國家戰略或類似文件,表明各國已經意識到軍事人工智能的戰略重要性,并指導他們努力開發、采購和將人工智能系統納入其武裝部隊。

美國國防部(DOD)在2018年發布了一項人工智能戰略,該戰略強調了優先發展的領域,確定了應如何與民間社會組織建立發展伙伴關系,并制定了一項關于人工智能機器倫理的政策生成計劃。美國人工智能國家安全委員會在2021年發布了一份報告,提出了與人工智能有關的國家防御戰略。 目標是到2025年達到人工智能準備,這意味著 "組織改革,設計創新的作戰概念,建立人工智能和數字準備的性能目標,并定義一個聯合作戰網絡架構",以及贏得"技術競爭"。

俄羅斯到目前為止還沒有公布關于軍事人工智能的政策,但正在積極資助私營和公共部門的研究。2018年,俄羅斯舉行了一次會議,提出了十項政策建議(AI: Problems and Solutions 2018),這些建議構成了其人工智能戰略的非官方基礎。

歐洲國家在人工智能戰略方面處于類似的階段。在英國2021年國防白皮書通過后,英國國防部(MOD)在2022年通過了《國防人工智能戰略》。 該戰略規定了國防部采用和利用人工智能的速度和規模,與工業界建立更強大的伙伴關系,并開展國際合作,以塑造全球人工智能的發展。 法國沒有采取這樣的戰略,但其《國防人工智能報告》強調了將人工智能納入其武裝部隊的戰略優勢,如分析和決策的速度,優化作戰流程和后勤,以及加強對士兵的保護,并將機器學習歸類為研究和開發(R&D)的主要領域。

雖然更多的國家發表了關于人工智能的分析和政策,但卻沒有對未來的軍事戰略提出見解,北約在2021年通過了其人工智能戰略。該戰略是整個聯盟的人工智能準備和運作的基礎,隨后是北約的自主實施計劃,包括在2022年創建數據和人工智能審查委員會。 歐盟至今沒有采取類似的戰略,只限于在2020年的《人工智能、機器人和相關技術的倫理問題框架》中鼓勵與軍事有關的人工智能領域的研究。

由于各國關于人工智能或與人工智能相關的國防戰略并沒有明確說明人工智能將如何影響軍事戰略,因此可以根據未來可能使用人工智能進行戰略決策的跡象來確定各自的期望。人工智能在戰爭戰略層面的應用實例是對核指揮、控制、通信和情報(C3I)架構的貢獻;導彈和防空系統的目標獲取、跟蹤、制導系統和識別;網絡能力;以及核和非核導彈運載系統。

對于軍事戰略來說,最重要的是,人工智能的應用可以幫助決策者監測戰場并制定方案。事實上,可以開發人工智能來預測其他國家的行為和反應,或生成正在進行的沖突的進展模擬,包括兵棋推演模型。人工智能還可以用來評估威脅,提供風險分析,并提出行動方案,最終指導決策者采取最佳對策。 此外,人工智能可以支持武裝部隊的方式和手段與既定的政治和戰略目標相一致,這是軍事戰略的一個主要功能。這種發展的一個后果是軍事進程的速度和質量都會提高。雖然這將為那些擁有高性能人工智能的國家提供巨大的優勢,但這也可能迫使武裝部隊越來越多地將軍事行動的協調工作交給人工智能系統。

將人工智能用于軍事戰略也可能導致挑戰,包括預測性人工智能需要無偏見和大量的數據。可靠的人工智能系統將需要用龐大的數據集進行訓練。 此外,專家們警告說,人工智能可能會加劇威脅,改變其性質和特點,并引入新的安全威脅。 一項關于將人工智能納入核C2系統的桌面演習表明,這種系統 "容易受到惡意操縱,從而嚴重降低戰略穩定性"。這種脆弱性主要來自于第三方使用技術欺騙、破壞或損害C2系統所帶來的風險,這表明系統安全對AI用于軍事戰略的重要性。

另一個重要的挑戰是,人工智能可能會加快戰爭的速度,以至于人類將不再能夠跟隨上述速度的發展,最終導致人類失去控制。 這種現象被稱為 "戰場奇點 "或 "超戰爭",可能導致戰略錯誤和事故,包括非自愿的沖突升級。即使這種風險能夠得到緩解,對人工智能的更多依賴也會減少軍事戰略中人的因素,特別是心理學和人的判斷。觀察家們認為,這可能會導致 "人工智能如何解決人類提出的問題,以及人類如果擁有人工智能的速度、精度和腦力會如何解決這個問題 "之間的差距。 然而,專家們也提出,戰略的制定需要對價值的理解,成本的平衡,以及對戰爭所處的復雜社會系統的理解,從而大大限制了人工智能在軍事戰略上的應用。還有一種可能是,當敵人擁有人工智能系統提供的高水平的理性預測能力時,決定性的因素將不是人工智能系統的能力,而是人類的判斷,特別是關于關鍵和困難的選擇。然而,這假定了某種程度的有意義的人類參與。

總之,主要的軍事大國正在投資開發、獲取和操作其武裝部隊的人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

總之,主要的軍事大國正在投資開發、獲取和使用人工智能,因為人工智能有可預見的戰略優勢。然而,各國的戰略并沒有表明人工智能將如何被用于軍事戰略。然而,根據目前的技術發展,可以預計,人工智能將加強軍事戰略的制定和戰略決策,特別是人工智能能夠處理更多的數據,并以比人類和簡單計算更高的精度和速度來理解復雜性。一個可能的結果是軍事行動的加速,這可能會增加武裝部隊整合人工智能的壓力,使人類的判斷力邊緣化。因此,擁有和使用人工智能本身就成為一種戰略資產和目標。同時,國家對軍事人工智能的投資可能成為一種戰略責任,因為它可能增加破壞穩定的軍備競賽、誤解和誤判的風險。未來的軍事戰略需要考慮到這種風險。

2. 條令與人工智能

軍事條令進一步指導軍事行動的準備和執行。軍事條令可以被定義為 "從制度化的角度來看,執行軍事任務和職能普遍接受的方法"。因此,它代表了'在戰爭和軍事行動中什么是有效的制度化信念'。條令一般包含三個關鍵要素,即理論(什么是有效的,什么會導致勝利)、權威(條令必須被認真對待)和文化(組織及其成員是誰)。 因此,條令回答了 "軍隊認為自己是什么('我們是誰'),它的任務是什么('我們做什么'),如何執行任務('我們怎么做'),以及歷史上如何執行任務('我們過去怎么做')"等問題。 《美國陸軍條令入門》將條令描述為由基本原則、戰術、技術、程序以及術語和符號組成。

鑒于條令的目的和功能,人工智能在發展軍事條令方面的作用可能有限。它可能會繼續由人類創建和修訂。人工智能的具體作用可能僅限于監測武裝部隊的進程與他們的條令是否一致,以確定過去的工作,并支持對條令的質量和影響進行評估。為了有效地告知負責定義條令的軍事人員,這可能需要透明和可解釋的人工智能方法,否則軍事人員將無法理解并做出適當的決定。

然而,條令在設定人工智能的使用和人類互動的基本原則、價值和參數方面具有重要作用。值得注意的是,軍事條令是界定武裝部隊如何感知、理解和重視人工智能的適當手段。由于人工智能的高度自主性,武裝部隊可能需要明確人工智能是否被視為一種技術工具,或者說是一種代理手段。在這個意義上,條令可以定義武裝部隊是否將人工智能視為簡單的數學、技術系統,或者說是具有認知能力的工具。條令可以定義人類在組織中的價值、地位和作用,以及使用人工智能的過程。由于軍事行動和戰爭是人類為達到目而發起的行動,條令可以明確這意味著什么。在這種情況下,條令也可以定義人類與人工智能系統互動的價值和原則,包括人工智能需要為人類服務而不是相反。

同樣,條令也是定義人工智能系統的開發、獲取和使用的道德標準工具。由于軍事條令是根據國際法起草的,并且通常呼吁武裝部隊成員尊重國際法,因此條令也可以定義人工智能系統和運營商遵守國際法的方式。條令是對人工智能和人機協作施加限制的重要工具,適用于各軍種和武裝部隊的所有成員。這可能意味著對人工智能系統進行有意義的人類控制的一般要求,或禁止將某些功能授權給人工智能系統。

更具體地說,條令可以為人工智能融入組織流程設定原則和參數。例如,從事數據整合、優先排序的人工智能系統可能需要修訂軍事條令和武裝部隊使用和收集信息的準則。雖然僅限于觀測的任務系統需要有限的條令調整,但有更多 "積極 "任務的系統可能需要更具體的指導方針,如保障措施、自主程度、與操作者的溝通以及與人類部隊的互動。此外,有人認為,戰術應用主要是基于規則的決策,而戰役和戰略決策往往是基于價值的。每個級別的首選決策過程類型以及這種過程是否應該標準化,可以在條令層面上確定。

迄今為止,各國還沒有公布專門針對人工智能系統的軍事條令。英國國防部關于無人駕駛飛機系統的聯合條令是目前唯一公開的涉及軍事系統自主性的軍事條令。 然而,未來關于人工智能或與人工智能相關的軍事條令可能會根據人工智能的道德使用政策來制定。 事實上,這種政策定義了相關的價值觀、原則和使用軍事人工智能的形式,并為其提供指導,其目的與軍事條令類似。一些國家和組織最近通過了這種關于軍事人工智能道德使用的政策,包括北約。

美國國防部為人工智能的發展和使用采用了五項道德原則。系統需要負責任、公平、可追蹤、可靠和可治理。這些原則規定,美國防部人員負責人工智能系統的 "開發、部署和使用",因此必須表現出良好的(人類)判斷能力。此外,美國防部明確確定,必須努力將人工智能運作的數據偏見降到最低。 此外,美國國防部2012年3000.09指令確定了美國對致命性自主武器系統(LAWS)的立場。它定義了致命性自主武器系統,確定了三類智能武器系統(自主、半自主和人類監督的自主系統),并為其行動設定了一般界限,以及有關人類操作員的作用和法律審查的標準。

同樣,歐盟議會也通過了一份題為《人工智能:國際法的解釋和應用問題》(人工智能的民事和軍事使用準則),其中特別討論了人工智能的軍事應用。 該報告包含了關于歐盟成員國開發和使用軍事人工智能應用的強制性準則以及一般性結論。首先,報告解釋說,人工智能不能取代人類決策或人類責任。 第二,為了合法,致命性自主武器系統必須受到有意義的人類控制,要求人類必須能夠干預或阻止所有人工智能系統的行動,以遵守國際人道主義法(IHL)。第三,人工智能技術及其使用必須始終遵守國際人道主義法、國際刑事法院羅馬規約、歐盟條約、歐盟委員會關于人工智能的白皮書,以及包括透明度、預防、區分、非歧視、問責制和可預測性等原則。

2021年4月,法國道德委員會公布了一份關于將致命性自主武器和半自動武器納入武裝部隊的意見。盡管其內容尚未得到國防部長的批準,但它代表了未來潛在的軍事條令。該文件重申了人類對自主武器的致命行動保持一定程度控制的重要性,并聲稱法國不會開發也不會使用完全自主的武器。同樣,澳大利亞發表了一份題為《國防中的道德人工智能方法》的報告,其中討論了與軍事人工智能應用有關的道德和法律考慮,但并不代表官方立場。

總之,除了評估和修訂之外,人工智能不太可能對創建軍事條令有實質性的作用,因為條令的作用是定義和規范軍事組織問題以及與信仰、價值觀和身份密切相關軍事行動的各個方面。然而,正是由于這種功能,條令在確定武裝部隊與人工智能的基本關系方面具有重要作用。特別是,條令適合于籠統地規定人工智能將(不)用于哪些任務,人工智能將(不)如何使用,以及組織及其成員如何看待和重視人工智能。最重要的是,鑒于人工智能的特點,條令可以確定人類如何并應該與人工智能互動,以及何種組織文化應該指導這種關系。因此,條令可以為進一步的軍事指令和程序設定規范性框架。各國的道德準則可以作為軍事條令的基礎并被納入其中。

3.規劃和人工智能

根據各自的軍事條令制定的作戰和行動計劃,是根據現有手段實現軍事目標的概念和指示。規劃反映了指揮官的意圖,通常包括不同的行動方案(COA)。存在各種軍事計劃和決策模式,但北約的綜合作戰計劃指令(COPD)對西方各種模式進行了很好的概述和綜合。 例如,加拿大武裝部隊遵循六個步驟,即啟動、定位、概念開發、決策計劃制定和計劃審查。一般來說,規劃包括 "規劃和安排完成特定COA所需的詳細任務;將任務分配給不同的部隊;分配合適的地點和路線;刺激友軍和敵軍的戰斗損失(減員);以及重新預測敵方的行動或反應。

雖然規劃需要考慮到人工智能系統在軍事行動中的使用,但人工智能最有可能被用于規劃本身。用于軍事規劃或與之相關的人工智能應用是ISR系統、規劃工具、地圖生成機器人,以及威脅評估和威脅預測工具。 與規劃有關的進一步人工智能應用可能包括大數據驅動的建模和兵棋推演。例如,美國陸軍為其軍事決策過程(MDMP)開發了一個程序,該程序采用 "高層次的COA"(即目標、行動和順序的草案),并根據這個總體草案構建一個詳細的COA,然后測試其可行性。這表明,人工智能可以發揮各種功能,從COA提議到解構和測試。

人工智能應用可能會對計劃產生強烈影響。規劃軍事行動是一個緩慢而繁重的過程,它依賴于對 "結果、損耗、物資消耗和敵人反應 "的估計。它涉及到對特定情況的理解、時空分析和后勤問題。然而,有限時間和勞動力限制了可以探索的選項數量。此外,預測可以說是"作戰指揮官最棘手的任務之一"。只要能提供足夠數量和質量的數據,人工智能在預測的質量和速度上都可能會有出色的表現。數據分析能夠進一步處理比人類計算更多的信息,最終減少"戰爭迷霧"。由于人工智能程序可以將行動分解為具體的任務,然后相應地分配資源,預測敵人的行動,并估計風險,因此人工智能的使用將提高決策的總體速度和準確性。增加可考慮的COA數量將進一步使規劃過程得到質量上的改善。

然而,使用人工智能進行規劃也有潛在的弊端。由人工智能驅動的更快規劃所帶來的戰爭速度提高,可以說會減少決策者的(再)行動時間,這可能會損害決策的質量。還有人質疑,人工智能驅動的規劃是否會"導致過度關注指揮分析方面,通過書本和數字削弱了軍事指揮決策的直覺、適應性和藝術性"。指揮官和其他軍事人員也可能變得過渡依賴技術,使他們變得脆弱。剩下的一個挑戰是產生足夠的相關數據,讓人工智能規劃系統正常工作并產生有意義的結果。

人工智能系統將執行規劃任務以及協助軍事人員,但它們可能不會根據這些計劃做出適當決策。事實上,有人認為,人工智能系統難以完成與指揮有關的任務,如設定目標、優先事項、規則和約束。因此,人類的判斷對于這些任務仍然是必要的。人工智能寧愿執行控制任務,并最終彌補軍事人員的認知偏差。然而,隨著新版本的C2(部分)納入人工智能,觀察家們質疑是否清楚誰將擁有跨領域的決策權,人類在這種架構中會和應該發揮什么作用,以及技術是否準備好進行大規模開發。

當強大的人工智能系統被用于軍事規劃時,規劃和決策之間的區別可能會變得模糊不清。與人類因軍事行動的高速發展而無法正確跟蹤事件進程的風險類似,將規劃任務更多地委托給人工智能可能意味著指揮官和規劃者不再能夠理解或追溯系統如何得出結論。同樣,指揮官可能會因審查眾多擬議計劃或COA的任務而被壓垮。人工智能生成的方案也可能意味著更高的復雜程度。因此,人工智能可以被用來消化信息,只向指揮官提供最相關的內容。然而,這可能會導致對人工智能的進一步過度依賴。因此,強大的人工智能系統,或系統簇(SOS),將需要一定程度的可預測性和透明度。

總之,與人工智能的其他軍事應用相比,至少在中短期內,人工智能可能會對規劃產生最重大的影響。由于規劃是極度時間和資源密集型的,人工智能系統可以導致速度、精度和質量的提高。這可能會對軍事行動和戰爭產生重大影響,因為有人認為,軍事競賽的贏家是那些在觀察、定位、決策和行動(OODA環)中工作最快的人。一個進一步的影響是,規劃的自動化導致了軍事決策的(進一步)合理化,包括人員傷亡的合理化。另一個后果是對人力的需求減少。然而,規劃方面的人力需求減少并不意味著基于軍事規劃決策的人力判斷需求減少,特別是在價值觀和直覺仍然是規劃的核心內容情況下。

4. 交戰規則與人工智能

交戰規則(ROE)用于描述軍事力量部署的情況和限制。交戰規則可采取多種形式,包括執行命令、部署命令、作戰計劃和長期指令。無論其形式如何,它們都對 "使用武力、部隊的位置和態勢以及使用某些特定能力 "等進行授權或限制。交戰規則有共同的要素,如其功能和在作戰計劃中的地位,以及其他基本組成部分。交戰規則通常是 "軍事和政治政策要求的組合,必須受到現有的國際和國內法律參數約束"。因此,其要素和組成部分反映了軍事行動、法律和政治要素。通用的交戰規則和模板文件,如北約的MC362/1和Sanremo交戰規則手冊,可以作為交戰規則起草者的基礎或靈感,而這些起草者通常是軍事法律顧問。雖然交戰規則一般不會分發給所有低級軍官,但士兵們經常會收到含有簡化的、基本版本的交戰規則記憶卡。

交戰規則是與軍事力量部署和武力使用有關的更大監管框架的一部分。因此,它們與其他類型的軍事指令相互作用,特別是目標選擇和戰術指令。目標定位指令提供了關于目標定位的具體指示,包括對目標的限制和盡量減少附帶損害。戰術指令是 "針對整個部隊或特定類型的單位或武器系統的命令,規定在整個行動中執行特定類型的任務或在行動中限制使用特定的武器系統。雖然交戰規則不是必不可少的,但它們可以為部隊及其成員提供更具體和細微的指示。

交戰規則是確定如何使用人工智能以及在哪些條件下可以在特定情況下應用的適當工具。交戰規則——或相關的行為規則——可以為人工智能的各種軍事應用設定參數,從而將特定的政治、軍事、法律和道德考慮以及來自更高組織或規范梯隊的限制,如條令或國際法律義務,轉化為具體指令。因此,ROE可以代表一個行動框架,被編入AI系統。例如,ROE可以確定一個地理區域或某個潛在任務的清單,系統被授權采取行動。在這些限制之外,他們將不會對處理過的信息采取行動。時間或其他限制,如預先設定的允許(不)與特定目標交戰,也可以由ROE定義。同樣,ROE可以預見一個系統需要標記的意外事件或問題。在這種情況下,有些人提出,人工智能可能會根據環境或其編程的任務來選擇應用哪種ROE。

ROE也可以定義人類和人工智能系統在特定任務中的互動。特別是,ROE可以確定指揮官或操作員在部署期間需要如何監測和控制該系統。由于對人類控制的需求可能會根據歸屬于人工智能系統的具體任務以及各自的背景和行動而有所不同,人工智能的ROE可以定義某些類型的行動或階段的自主性水平。ROE可以進一步處理或參考其他來源,如手冊和指令,關于如何實施各種形式的人類控制,如直接、共享或監督控制。重要的是,ROE可以限制指揮官或操作人員的權力,這可能迫使他們在指揮系統中參考上級。這可能是軍事行動中關于人機協作的ROE的一個重要作用,特別是在面對未曾預料到的情況或問題時,系統或其使用沒有事先得到授權。

當人工智能被用于傷害人和物或與之有關時,如在定位目標的情況下,ROE尤其相關。特別是當考慮到人工智能不能將道德或背景評估納入其決策過程時,在做出使用致命武力的決策時,人類的控制和判斷應該是有意義的。如上所述,大多數公開的政策在原則上確立了這種監督,但很少明確其確切含義。交戰規則和指令可以填補這一空白。為此,可以為人工智能系統的操作者制定與目標定位有關的行為準則,或為此類系統制定ROE模式。

事實上,雖然到今天為止還沒有能夠在沒有人類授權的情況下攻擊人類目標的自主武器,但在目標定位方面,更加自主的系統將是一個大的趨勢。與目標定位有關的現有軍事應用是目標識別軟件,如可以檢測衣服下爆炸物的Super aEgis II,以及用于目標交戰的系統。美國人工智能制導的遠程反艦導彈(LRASM)被宣傳為能夠自主地選擇和攻擊目標,甚至在GPS和通信受阻的環境中,如深水和潛在的外太空。另一個值得注意的事態發展是,據報道,2020年3月在利比亞部署了一架土耳其Kargu-2無人機,據稱該無人機在沒有人類操作員授權的情況下跟蹤和攻擊人類目標。它的使用可能代表了一個重要的先例,即在人類控制非常有限的情況下使用人工智能系統進行目標定位。

由于需要對ROE進行管理,人工智能可以協助主管當局協調、實施并最終確定ROE。軍事、政治、法律和道德目標和參數需要由軍事人員提供--至少在初始階段。正如北約的MC362/1號文件和《圣雷莫ROE手冊》所說明的那樣,ROE的后續管理是一個系統的、反復的過程,包括將具體的權力賦予不同級別的指揮部,以及監測ROE的實施和遵守情況。隨著時間的推移,人工智能系統可能會學會緩解ROE內部和之間的摩擦,以及為其適應性提升效率。例如,盡管國際法的實質內容可能本質上需要基于價值的判斷,而這種判斷不應委托給人工智能系統,但界定哪些規則需要在哪些情況下適用并不是一個過于復雜的理性過程。為了避免改變現有法律框架的實質內容,這種功能要求任何用于管理ROE的AI應用不能侵犯歸屬的權力。

總之,ROE可以成為一個有用的工具,以具體和實用的方式指導軍事AI的使用。因此,它可以補充和執行上級的政策、法規和準則,從而使軍事、政治、法律和道德目標和原則轉化為具體行動。ROE的指導對于人機協作,以及定義和具體化與人工智能系統有關的人類控制和判斷,在目標定位方面尤其重要。人工智能的應用可以進一步提高ROE管理的質量和效率。雖然這可能有助于協助軍事人員,類似于人工智能應用于軍事規劃,但軍事人員需要對ROE的實質進行有效監督,即誰或什么系統在什么情況下可以使用武力。然而,如果人工智能能夠實現更廣泛的、更細微的、更快速的交替性ROE,確保這種監督可能會變得具有挑戰性。

5. 作戰命令與人工智能

規劃和實施軍事行動的最具體的工具是命令。例如,北約和美國陸軍將命令定義為 "以書面、口頭或信號的方式傳達上級對下級的指示"。雖然有不同類型的命令,但它們一般都很簡短和具體。命令可以是口頭的,也可以是圖形的,還可以是疊加的。它們必須遵守法律以及上級的軍事文件和文書。另一個經常使用的術語是指令,它被定義為 "指揮官下達的命令,即指揮官為實現某一特定行動而表達的意愿。

從軍事參謀人員到人工智能系統的指令將采取系統初始開發的形式,有關任務目標和限制的參數編程,以及操作人員在操作期間的輸入。人類和人工智能系統之間的這些互動形式可能會履行傳統上歸屬于命令的功能。雖然人工智能系統的開發和操作,特別是機器學習,有其特殊的挑戰,但測試表明,機器并不存在不服從命令的內在風險。由于在操作過程中人的輸入等于人對系統的控制,如果一個系統能夠根據適當的學習自主地調整其行為,這一點就特別重要,現在正在開發防止系統在沒有人類輸入下采取行動的保障措施。例如,美國國防部3000.09指令規定,致命性武器系統的編程方式必須防止其在未經人類事先批準的情況下選擇和攻擊目標,特別是在失去通信的情況下。

人工智能和操作人員之間具體的互動形式仍在繼續開發。美國陸軍實驗室設計了一種軟件,使機器人能夠理解口頭指示,執行任務,并進行匯報。會說話的人工智能現在也被開發出來,以實現操作員和系統之間的口頭對話。這種互動使系統能夠要求其操作者進行澄清,并在任務完成后提供更新,以便士兵在工作中獲得最新的信息。諸如此類的應用可能使軍事人員更容易與人工智能合作,并減少操作員對人工智能控制的學習曲線。然而,人工智能應用也可以支持指揮官下達命令和指令的任務。人工智能尤其可以用來提高通信系統的穩健性和容錯性,這顯然可以使命令的傳輸更加安全。

雖然人工智能系統可能不會被委托正式發布命令,但是類似的動態可能會出現。對于人工智能系統之間的互動,命令是沒有必要的,因為系統只是作為數字應用網絡的一部分交換信息。關于對軍事人員的命令,武裝部隊似乎不可能接受人工智能系統向其成員發出指令。然而,由于人工智能系統可能會以越來越高的速度和復雜性提出行動建議,作為人類決策的輸入,軍事人員可能不會質疑這些建議,沒有時間批判性地評估它們,或者根本無法理解系統如何得出結論。如果他們還是以這些建議為基礎采取行動,這種對系統輸入的過度依賴可能意味著系統事實上向人類發布命令。還有可能的是,通過信息技術接收指令的較低層次的操作員和士兵可能無法知道某個命令是由人類還是人工智能系統創造的。為了排除這種結果,軍事條令和指令需要建立與命令有關程序的透明度。

總之,在軍事行動中,正式的命令很可能與控制人工智能無關。然而,命令和指令的傳統概念可以幫助分析、分類和發展人工智能系統和人類操作員之間的未來互動。在這種情況下,卡爾-馮-克勞塞維茨提出的管理方法和任務型戰術(Auftragstaktik)之間的傳統區別表明,人類對人工智能系統的投入,即人工智能系統的開發、編程和操作控制,可以根據對執行任務細節的程度來進行分類。鑒于人工智能的特質,我們有理由認為,當人工智能系統被賦予高水平的自主權,類似于任務型戰術時,將對武裝部隊最有價值。同時,人類在行動中的投入將是非常精確的,起到管理作用。然而,最重要的是,這又回到了上文討論的可以授予 AI 系統多少自主權的根本問題。

結論

人工智能有可能影響所有領域和大規模的軍事行動。轉變的程度主要取決于未來的技術發展。然而,這也取決于武裝部隊將賦予人工智能的作用和功能。從這兩個因素中可以看出,人工智能與準備和開展軍事行動的主要工具之間存在著動態的相互關系。一方面,人工智能的引入將影響到這些工具以及軍事行動的準備和實施。另一方面,這些工具在監管和使用人工智能方面發揮著重要作用。這種相互關系是動態的,因為它很可能隨著技術的發展、部隊對人工智能系統的經驗、組織文化和社會價值觀的變化而變化。

上述內容討論了人工智能與準備和執行軍事行動的主要工具之間的相互關系,而其中核心潛在的問題是人類操作員與人工智能系統之間的相互作用。在戰略方面,國家的官方文件證明,獲得和運用人工智能具有戰略意義。人工智能將可能支持軍事戰略,特別是預測和規劃。戰略中的人為因素可能仍然至關重要,因為戰略依賴于本能和價值觀,但軍事人員有可能過度依賴人工智能。對于軍事條令,人工智能的作用可能僅限于評估和協助修訂條令。條令在決定武裝部隊的目的、價值觀和組織文化方面的功能表明,它將在確定武裝部隊如何看待人工智能系統并與之互動方面發揮重要作用。

人工智能將極大地幫助軍事規劃,特別是基于人工智能高速和精確地處理復雜和大量數據的能力。因此,即使人工智能系統不會被委托做出決策,軍事規劃人員和指揮官也有可能過度依賴他們的分析和建議,尤其是在時間壓力下。因此,人工智能支持決策和人工智能作出適當決策之間的界限可能會變得模糊不清。關于ROE,盡管人工智能可以支持ROE的管理,但后者主要是一個適當的工具,以具體的方式為具體的任務劃定人工智能的使用。這尤其適用于人機合作和人對人工智能應用的控制。在軍事命令方面,人工智能系統可能會大大協助指揮和控制,但不會被委托發布命令。然而,在實踐中,可能很難區分由算法發布的命令和由指揮官發布的命令。這可能會導致人工智能支持和人工智能決策之間的混淆,類似于規劃的情況。

因此,如果人類操作員和人工智能系統之間的交互,是人工智能與準備和執行軍事行動的主要工具之間動態相互關系的核心潛在問題,那么無論是技術發展還是工具適應性都需要特別注意適當的人類與人工智能的交互。可以預計,技術進步將主要塑造未來的人機協作模式。軍隊結構、標準和流程可能會跟隨技術發展而相應調整。然而,關鍵是要積極主動地界定基本原則、價值觀和標準,而不是簡單地適應技術發展,成為路徑依賴或面臨意想不到后果。

畢竟,關注適當的人與人工智能互動不僅是道德和法律的必要條件,也是通過引入人工智能有效提高軍事行動的必要條件。因此,對人工智能和軍事行動的進一步思考和研究,以及對人工智能和戰略、條令、規劃、ROE和命令的進一步思考和研究,應該側重于人機互動,因為這仍然是人工智能戰爭最緊迫的挑戰。這可能有助于在人工智能影響工具和這些工具管理軍事人工智能之間找到并確定一個適當的平衡。

付費5元查看完整內容

本文總結了關于自主軍事系統的測試、評估、驗證和確認(TEV&V)的挑戰和建議的部分文獻。本文獻綜述僅用于提供信息,并不提出任何建議。

對文獻的綜合分析確定了以下幾類TEV&V挑戰:

1.自主系統的復雜性產生的問題。

2.當前采購系統的結構所帶來的挑戰。

3.缺少測試的方法、工具和基礎設施。

4.新的安全和保障問題。

5.在政策、標準和衡量標準方面缺乏共識。

6.圍繞如何將人類融入這些系統的操作和測試的問題。

關于如何測試自主軍事系統的建議可以分為五大類:

1.使用某些程序來編寫需求,或設計和開發系統。

2.進行有針對性的投資,以開發方法或工具,改善我們的測試基礎設施,或提高我們勞動力的人工智能技能組合。

3.使用特定的擬議測試框架。

4.采用新的方法來實現系統安全或網絡安全。

5.采用具體的建議政策、標準或衡量標準。

在過去的十年中,計算和機器學習的進步導致了工業、民用和學術應用中人工智能(AI)能力的激增(例如,Gil & Selman,2019;Narla, Kuprel, Sarin, Novoa, & Ko, 2018;Silver等人,2016;Templeton,2019)。由人工智能促成的系統往往在某種意義上表現得很自主:它們可能會接管傳統上由人類做出的決定,或者在較少的監督下執行任務。然而,與武裝沖突期間的錯誤決定相比,一個真空機器人、一個高頻股票交易系統,甚至一輛自主汽車做出錯誤的選擇是可以通過糾正措施相對恢復的。軍事系統將面臨與民用系統相同的大部分挑戰,但更多地是在結構化程度較低的環境中運作,所需的反應時間較短,而且是在對手積極尋求利用錯誤的情況下。人工智能和自主軍事系統將需要強有力的測試,以保證不理想的結果,如自相殘殺、附帶損害和糟糕的任務表現是不太可能的,并且在可接受的風險參數范圍內。

為了自信地投入使用自主軍事系統(AMS),必須相信它們會對設計時可預見的問題和它們必須適應的不可預見的情況做出適當的決定。簡而言之,這些系統必須是熟練的、靈活的和值得信賴的。 當AMS要在狹義的情況下運行時(例如,要求一個 "智能"地雷在一天中的特定時間內施加特定的壓力時爆炸),要保證系統的行為符合要求就容易多了。它能遇到的相關不同情況的數量和它的行為反應(即其決策的狀態空間)都是有限的。擴大這個狀態空間會使保證更加困難。例如,一個自主的基地防御系統旨在根據目前的ROE用適當的武力來應對任何可能的威脅,預計會遇到更多的情況,包括設計的和不可預見的。要在這種情況下適當地運作,需要更多的靈活性,這反過來又要求系統更加熟練,允許它運作的人類更加信任。這些需求的相互作用是這些系統的許多T&E困難的一個核心驅動因素。

人工智能技術為美國防部(DoD)內的采購項目的測試和評估過程帶來了一系列的挑戰。首先,這些系統純粹的技術復雜性和新穎性可能難以駕馭。此外,美國防部的采購流程是在假設的基礎上進行優化的,而自主權可能不再成立(Tate & Sparrow, 2018)。例如,將承包商、開發和操作測試分開,假設我們有離散的、相對線性的開發階段,導致系統的 "生產代表 "版本。對于AMS來說,這可能不是真的,特別是如果它們在整個生命周期中繼續學習。此外,在我們擁有一個系統之前就寫需求,是假設我們事先了解它將如何被使用。因為AMS的熟練度、靈活性和可信度會隨著時間的推移而發展,并會影響人類如何使用或與系統互動,所以與標準系統相比,作戰概念(CONOPS)和戰術、技術和程序(TTPs)將需要與系統共同開發,其程度更高(Haugh, Sparrow, & Tate, 2018; Hill & Thompson, 2016; Porter, McAnally, Bieber, & Wojton, 2020; Zacharias, 2019b)。

然而,即使美國防部的采購流程被更新,美國防部員工用于測試和評估(T&E)的具體方法、工具和基礎設施將無法保證系統的性能達到預期。開發和設計工作包含了測試,通過內部儀器建立可測試性;提高軟件的透明度、可追溯性或可解釋性;對培訓和其他數據進行良好的管理和驗證,可以改善開發過程,同時也為測試和評估鋪平道路,但它們沒有被普遍采用。此外,能夠幫助項目克服所有這些挑戰的政策和標準要么缺乏,要么不存在。

什么是自主性?

自主性的定義繁雜眾多,有些定義對美國防部來說不如其他定義有用。許多定義包含了獨立、不受外部控制或監督、或與其他實體分離的概念(例如,牛津英語詞典,2020年)。然而,假設任何參與者將在沒有控制或監督的情況下運作,甚至是人類作戰人員,這與美國防部的政策和指揮與控制(C2)的思想相悖。不希望自主系統擁有選擇行動路線的完全自由,而是在其分配的任務中擁有一些受約束的自由。

與作戰人員一樣,可能希望與自主系統有一個C2或智能體關系。希望:1. 明確具體任務和/或整體任務的目標或目的,可能還有這些目標的更大原因,如指揮官的意圖(即做什么和為什么)。2.明確與任務相關的約束,如交戰規則(ROE,即不能做什么)。3. 不指定使用的方法或對每一種情況給出明確的應急措施,如對對手的反應做出反應(即如何完成任務)。

一個系統是否被授權為一項任務做出這些 "如何 "的決定,是本文將區分自主系統和非自主系統的方法。

在 "是什么"、"不是什么 "和 "為什么 "的限制下,為 "如何 "做出有用的、理想的選擇,假定了某種程度的智能。因為這些是機器,這就意味著存在某種程度的人工智能。需要人工智能來實現對非瑣碎任務的有用的自主性,這可能解釋了為什么人工智能和自主性經常被混為一談。在本文件中,我們將自主性稱為系統在其操作環境中的行為,而人工智能則是與該環境進行有意義的互動的 "內在 "促成因素。

付費5元查看完整內容

人工智能(AI)系統很可能會改變軍事行動。本文探討了人工智能系統如何影響準備和進行軍事行動的主要工具,并受其影響。因此,本文在戰略、理論、計劃、交戰規則和命令的背景下分析和討論了人工智能,以確定機會、挑戰和開放性問題的位置,并提出總體意見。本文采取了一個廣泛的分析角度,能夠根據新的政策和技術發展以及對政治、軍事、法律和道德觀點的考慮,對這一問題進行總體審查。因此,本文提供了一些見解和途徑,以推動對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

付費5元查看完整內容

GAO為什么要做這項研究

據美國防部稱,其競爭對手正在利用信息環境中的漏洞來推進他們的國家目標,并抵消美國作為卓越作戰力量的地位。美國防部在信息環境中的軍事行動在與對手交戰中發揮著關鍵作用。

眾議院第117-118號報告包括一項條款,要求美國政府問責局審查美國防部為領導人和軍人在競爭性信息環境中行動和決策做準備的培訓。在本報告中,美國政府問責局(1)描述了美國防部支持該部門教育和培訓工作的指南,以使領導人在有爭議的信息環境中做出決策;(2)評估了美國防部提供教育和培訓的程度,以使領導人為做出此類決策做好準備。

美國政府問責局審查了選定的美國防部戰略、政策和課程大綱;分析了與進行軍事演習有關的信息;并采訪了了解該部教育和培訓工作的官員。

GAO的建議

美國政府問責局建議美國防部(1)制定指導意見,說明在競爭性信息環境中的決策方面的教育和培訓中應納入哪些內容;(2)評估滿足相關教育和培訓需求的必要資源。美國防部基本同意GAO的建議。

GAO的發現

美國防部(DOD)關于在競爭性信息環境中行動的指南繼續發展,因為美國防部努力發展和準備領導人做出有效的決策。信息環境--即影響人類和自動化系統如何從信息中獲得意義、根據信息采取行動并受到信息影響的各種因素的總和--正面臨著來自任何地方的對手攻擊和爭奪它以破壞美國防部行動的風險。2017年,美國防部將 "信息"提升為一項聯合職能,并在2019年將信息環境下的全球一體化行動確定為教育的一個特別重點領域。由于對手越來越多地旨在歪曲或損害領導人所掌握的信息,因此關注領導人的決策方法變得更加重要,以盡量減少對軍事準備和成功執行軍事行動的負面影響(見圖)。美國防部繼續采取步驟--如建立一個理論、行動和技術框架--以改善其對日益激烈的信息環境的理解和有效運作。

作為為競爭性信息環境做準備的一部分,美國防部為其領導人提供教育和培訓。然而,美國防部各部門并不清楚在這種教育和培訓中應包括哪些信息環境方面的內容,因為指導意見并沒有規定應包括哪些內容。美國防部官員還報告說,他們的教育和培訓工作資源有限,并指出模擬、基礎設施和人員限制進一步阻礙了這些工作。官員們表示,這些限制阻礙了創造真實的環境,使領導人能夠練習決策技能。然而,美國防部還沒有評估或全面審查各部門對資源的評估。在美國防部制定指導意見和評估其資源之前,它將缺乏保證,無法教育和培訓領導人,使他們為在有爭議的信息環境中做出決策做好準備。

付費5元查看完整內容

這篇短文分析了英國在最近兩份政策文件中提出的將人工智能(AI)用于軍事目的的方法。第一部分回顧并批評了英國防部于2022年6月發布的《國防人工智能戰略》,而第二部分則考慮了英國對 "負責任的"軍事人工智能能力的承諾,該承諾在與戰略文件同時發布的《雄心勃勃、安全、負責任》文件中提出。

建立自主武器系統所需的技術曾經是科幻小說的范疇,目前包括英國在內的許多國家都在開發。由于無人駕駛飛機技術的最新進展,第一批自主武器很可能是基于無人機的系統。

英國無人機戰爭組織認為,開發和部署具有人工智能功能的自主武器將產生一些嚴重的風險,主要是在戰場上喪失人的價值。賦予機器奪取生命的能力跨越了一個關鍵的道德和法律障礙。致命的自主無人機根本缺乏人類的判斷力和其他素質,而這些素質是在動態戰場上做出復雜的道德選擇、充分區分士兵和平民以及評估攻擊的相稱性所必需的。

在短期內,自主技術的軍事應用可能是在低風險領域,如物流和供應鏈,支持者認為這些領域有成本優勢,對戰斗情況的影響最小。這些系統可能會受到人類操作員的密切監督。從長遠來看,隨著技術的進步和人工智能變得更加復雜,自主技術越來越有可能成為武器,人類監督的程度可望下降。

真正的問題也許不是自主權的發展本身,而是人類控制和使用這一技術發展的里程碑的方式。自主性提出了與人類判斷、意圖和責任有關的廣泛的倫理、法律、道德和政治問題。這些問題在很大程度上仍未得到解決,因此,對于快速推進發展自主武器系統,人們應該深感不安。

盡管自主武器系統似乎不可避免,但有一系列的措施可以用來防止其發展,如建立國際條約和規范,制定建立信任措施,引入國際法律文書,以及采取單邊控制措施。英國無人機戰爭組織認為,英國應充分參與在國際舞臺上制定這些措施。

然而,在這個時候,政府似乎希望保持其選擇的開放性,經常爭辯說,它不希望創造可能阻礙人工智能和機器人技術的基本研究的障礙。盡管如此,大量受控技術,如加密,或在核、生物和化學科學領域,可用于民事或軍事目的,而且受控時不會扼殺基礎研究。

付費5元查看完整內容

所謂的殺手機器人已經到來,由人工智能支持的自主武器將成為未來戰爭的一個突出特征。在國際競爭者開發這些系統的背景下,在國際和多國公司的關注下,國家安全委員會關于人工智能的最后報告判斷,這些類型的無人駕駛武器可以而且應該以符合國際人道主義法律的方式使用,適用人類授權的使用條件和適當的設計和測試。人工智能支持的自主性及其軍事應用帶來了這些技術的基本風險,它們在無人武器中的使用進一步挑戰了軍隊在國際人道主義法和正義戰爭理論框架內尋求合法使用。因此,倫理學提供了優越的概念載體,以任命和授權人類授權者和使用者,并從質量上確定什么是 "適當的 "設計和測試。國防部的 "人工智能準備部隊運動 "所確立的七個人工智能工作者原型中的每一個都應該應用與角色相關的、與人工智能有關的道德規范,以充分實現《最后報告》中所確立的條件,并保留和支持控制暴力壟斷所必需的人性。對道德教育的需求單獨和集體地滲透到每個原型中,美國防部必須認識到公共/私人伙伴關系的價值,以充分考慮這些條件。

付費5元查看完整內容

這是一個顛覆性技術快速變革的時代,特別是在人工智能(AI)領域。雖然這項技術是由商業部門為商業開發的,但人工智能在軍事應用方面的明顯潛力,現在正促使世界各地的武裝部隊對人工智能防御雛形系統進行試驗,以確定這些系統如何能夠最好地用于作戰與和平時期的任務。

澳大利亞也不例外,在2020年國防戰略更新中分配了資金,開始將人工智能能力引入國防。這將涉及開發解決戰術級和戰略級軍事問題的人工智能應用程序,建立一個熟練的人工智能勞動力,并與澳大利亞合作伙伴和盟友合作,將倫理學納入人工智能應用程序,并進行人工智能實驗。今年在澳大利亞首都地區費爾伯恩設立的國防技術加速實驗室是這一計劃的具體行動體現。

彼得-雷頓(Peter Layton)的論文考慮了人工智能在未來海、陸、空作戰行動中的戰術和作戰層面上可能發揮的作用,為這一廣泛的活動做出了貢獻。這是一個很少被研究的領域,因為到目前為止,大部分的討論都集中在關鍵的技術問題上。這些審議表明,人工智能可能是未來戰爭中的一項重要技術,但仍有許多不確定因素。本文提供了一個起點,在此基礎上開始辯論,這將有助于解決其中一些不確定性。

本文認為,人工智能將滲透到大多數軍事機器中;然而,它的通用性意味著它很可能是在現有作戰層面結構中被使用。鑒于此,人工智能在中短期內的主要作戰用途是“尋找(find)和欺騙(fool)”。人工智能/機器學習尋找隱藏在高度混亂背景中的目標非常出色;在這個應用上,它比人類更好,而且速度更快。然而,人工智能可以通過各種手段被欺騙;其強大的尋找能力缺乏穩健性。這兩個關鍵特征在應用于當前海、陸、空作戰層面的思考時,可能會產生巨大的影響。

本文初步設計的作戰概念與沒有人工智能技術的作戰概念明顯不同。

所討論的概念旨在激發人們對人工智能戰場上人機協作作戰的思考。這樣的戰場在目前看來可能有些猜測,幾乎是科幻小說。即便如此,許多國家已經在規劃、研究和開發方面取得了很大進展。鑒于將軍事力量調整到新方向所需的漫長準備時間,這一旅程需要從現在開始。

人工智能(AI)技術突然變得對軍事力量很重要。美國國防部(US DoD)已將人工智能的投資從2016-17年約6億美元增加到2021-22年25億美元,橫跨600多個項目。中國已經通過了一項“下一代人工智能發展計劃”,旨在到2030年使中國成為人工智能領域的杰出國家,并使人民解放軍從“信息化戰爭”轉向“智能化戰爭”。更引人注目的是,俄羅斯總統普京宣布,“人工智能是未來......誰成為這個領域的領導者,誰就會成為世界的統治者”。這些高級別的倡議和聲明正在產生結果。

在美國,美國海軍(USN)的“海上獵人”號(USV)在沒有船員的情況下從加利福尼亞航行到夏威夷再返回,利用船上的傳感器、雷達和攝像機數據,通過人工智能進行導航。同時,在美國國防部高級研究計劃局(DARPA)的支持下,一架由人工智能驅動的F-16模擬戰斗機最近在多次模擬的近距離空戰中全面擊敗了由非常有經驗的人類飛行員控制的類似模擬。在一項研究陸戰的類似評估中,美國陸軍(US Army)已經確定,一支由人工智能驅動的部隊比一支非人工智能驅動的部隊擁有大約10倍的戰斗力。

中國目前正在應用人工智能,通過指揮和控制系統的自動化來提高其戰場決策的速度和準確性,制定預測性作戰計劃并解決情報、監視和偵察數據融合的挑戰。中國還開始試用人工智能USV,以備在南海使用,并開始試驗無人駕駛坦克,而一家中國私營公司公開展示了人工智能武裝的蜂群無人機。

俄羅斯落后于美國和中國,但現在正在實施一項國家人工智能戰略以迎頭趕上。在軍事領域,俄羅斯有幾項工作正在進行。一條主線是將人工智能應用于信息戰,在戰術上用于發動心理戰,在戰略上用于破壞對手國家的社會凝聚力。另一條線是通過開發無人駕駛地面車輛(UGVs)、遠程傳感器、戰術指揮和控制系統以及無人駕駛航空器(UAVs),使用人工智能來提高陸地作戰行動的有效性。另一個努力方向是國家防空網絡的指揮和控制系統的自動化。

初步跡象表明,人工智能可能是未來戰爭中一項非常重要的技術,但仍然存在不確定性。雖然人工智能在民用領域,特別是在消費類產品中,被廣泛使用,但在軍事環境中才剛剛接近實際部署。此外,它仍然沒有在真正的戰斗行動的惡劣試驗場上得到驗證。即便如此,人工智能已經成為軍事力量考慮其未來時不可忽視的技術。

重要的是,在可預見的未來,可用的人工智能技術是狹義的,而不是通用的。狹義人工智能等于或超過了人類在特定領域內特定任務的智能;其表現取決于應用環境。相比之下,通用人工智能等于人類在任何領域任何任務中的全部表現。何時能實現通用人工智能仍然值得商榷,但似乎還有幾十年的時間。近中期的全球軍事興趣在于如何在現代戰場上使用狹義的人工智能技術。

不足為奇的是,人工智能的定義往往與人類智能相提并論。例如,2018年美國國防部人工智能戰略將人工智能定義為“機器執行通常需要人類智能的任務......”。這種理解將技術擬人化,并無意中將對人工智能應用的思考限制在那些可以由人類執行的任務上。

在某些應用中,人工智能可能比人類做得更多或更少。人工智能和人類能力的維恩圖在某些領域可能會重疊,但認為它們重合是有點虛偽的。在提供解決問題的見解上,人工智能可能是智能的,但它是人工的,因此,它的思維方式是人類所沒有的。

因此,本文在考慮人工智能時,更多的是考慮這種技術能夠執行的廣泛功能,而不是考慮它與人類能力的關系。2019年澳大利亞國防創新委員會采取了這種方法,將人工智能定義為“用于執行以目標為導向的任務的各種信息處理技術,以及追求該任務的推理手段”。

初一看,這個定義似乎并不精確,沒有包括人工智能可能為軍事或民用目的實際執行任務。但這種模糊性是當代人工智能應用的一個關鍵屬性。人工智能可以以多種方式應用,可以被認為是一種普遍存在于社會中的通用技術。通用技術的一個早期例子是電力,現在它被廣泛使用,以至于它的持續存在和使用,就所有的意圖和目的而言,都是簡單的假設。電能使惰性機器活躍起來,人工智能也將以自己的方式,通過推理為它們提供完成任務的能力。人工智能似乎將注入許多軍事機器,因此未來的戰場將不可避免地以某種方式由人工智能支持。

為了取得對對手的作戰優勢,軍隊不斷尋求更大的戰斗力。傳統上,技術是以一種綜合的方式在戰場上使用的,它能最好地利用人類和機器的長處,同時盡量減少兩者弱點的影響。人工智能似乎也可能是類似的。可以預計,人工智能在與人類謹慎地合作時,而不是在某種獨立的模式下,會變得最有效。

這種考慮強調了新技術本身并不會突然間帶來戰場優勢,而是在于人類如何運用它。對早期技術創新的歷史分析指出,擁有指導如何使用這些新技術的合理概念是軍隊成功將其投入使用的關鍵。歷史學家威廉姆森-默里和艾倫-米萊指出:

  • 證據表明,首先,制定未來愿景的重要性。軍事機構不僅需要進行最初的智能投資,以發展對未來戰爭的設想,而且必須繼續對這種設想進行深入思考,以確定這些戰爭可能與以前的沖突有什么不同......在這方面任何對未來戰爭的設想幾乎肯定是模糊和不完整的,不是詳細和精確的,更不是任何科學意義上的預測。然而,愿景并不足以產生成功的創新。一個人對未來沖突的看法也必須是平衡的,并與行動的實際情況有很好的聯系。

在戰術層面,與戰爭現實的聯系是最緊密的。戰略規定了目標、總體方針和使用的力量,但在與聰明和適應性強的對手戰斗中處理這些力量的卻是戰術層面。雖然戰斗的成功可能不會導致戰略的成功,正如美國在越南的戰爭所說明的那樣,反之亦然。一個好的戰略在面對持續的戰術失敗時不可能成功。克勞塞維茨寫道:一切都取決于戰術結果......這就是為什么我們認為強調所有的戰略規劃都只依賴于戰術上的成功是有用的......這在任何情況下都是決策的實際基本依據。戰術通常被認為涉及友軍相互之間以及與敵人之間的分布和機動,以及在戰場上使用這些部隊。

本文旨在為在未來的人工智能戰場上使用人機團隊制定作戰概念。這樣的戰場,特別是當擴大到陸戰以外的空戰和海戰時,有一個混合的線性和深層的方面,具有消耗和機動的概念。設計這些作戰概念將為潛在的狹義人工智能系統如何在戰爭的戰術和作戰層面上使用提供一個廣闊的視野。

首先,本文討論了組成人工智能技術包的各種技術要素。這些要素包括先進的計算機處理和大數據,以及與云計算和物聯網(IoT)有關的具體方面。

第二章研究了利用人工智能發動戰爭的問題,并為防御和進攻制定了通用的作戰概念。這些概念位于作戰和戰術層面之間的模糊界面,涉及友軍相對于對手的分布和機動,以及友軍在戰場上的運用。

第三章、第四章和第五章分別將人工智能防御和進攻的兩個通用概念應用于海洋、陸地和空中領域。每個領域的戰斗在分配和操縱友軍以及與敵人交戰方面都有很大的不同,因此有必要提出單獨的人工智能作戰概念。沒有一個單一的概念能夠充分涵蓋所有三個領域,除非在很高的抽象水平上,但理解其含義可能會變得困難。提出這種具有前瞻性的概念似乎接近于投機性的小說。為了避免這種情況,每個概念都特意以當代作戰思維為基礎,并討論了當前和新興的人工智能支持的海、陸、空平臺和系統,以說明所提出的想法。

設計這些作戰概念的目的是激發思考,并啟動關于未來和如何備戰的辯論。本文提出的作戰概念旨在成為辯論其他人工智能戰場概念的實用性、可能性和有用性的基礎。只有通過對建議進行批判性分析,并不斷重構它們以進一步分析和演化,才能朝著最佳作戰概念取得進展。

本文所討論的概念在性質和范圍上都是有意限制的。就性質而言,海、陸、空的概念是:為了保持每個概念的重點,它們不是聯合或合并的。重要的是,這種狹隘性意味著一些領域并沒有包括在內,如俄羅斯在影響力戰爭中使用人工智能或中國在社會管理和內部防御中使用人工智能。出于類似的原因,每個概念都有一個狹窄的范圍,專注于戰爭,只有限地關注后勤,并避免關鍵領域,如教育、培訓、行政和指揮與控制。值得注意的是,除了與傳統的陸、海、空領域的戰術交戰的關系外,沒有討論網絡和空間這些新領域。

本文將人工智能這種新技術與戰爭的作戰方式和戰術使用選擇聯系起來。有了這樣一個重點,本文就與許多武裝部隊制定的眾多人工智能戰略和計劃不同。一般來說,這些戰略和計劃都是向內看的,目的是闡述人工智能作為一種技術將如何被研究、獲得并引入到他們的具體服務中。本文旨在補充這些人工智能技術戰略和計劃,將它們與更廣泛的作戰業務聯系起來,發揮作用。

付費5元查看完整內容

2022年6月15日,英國國防部在倫敦科技周人工智能峰會上發布了《國防人工智能戰略》,旨在“雄心勃勃、安全和負責任地”使用人工智能的戰略和相關政策。本戰略支持創建新的國防人工智能中心(DAIC),以提供前沿技術樞紐,支撐英軍使用和創新相關技術。本戰略概述了以下內容:一是在國防中使用人工智能的新倫理原則;二是人工智能在國防部加強安全和現代化的地位和應用;三是考慮通過人工智能研究、開發和實驗,通過新概念和尖端技術徹底改變武裝技術能力,并有效、高效、可信地向戰場交付最新裝備。該戰略將將成為英國人工智能戰略的關鍵要素,并加強國防在政府層面通過科學和技術獲取戰略優勢的核心地位。

圖 英國國防部發布《國防人工智能戰略》

(本文根據原文編譯整理,僅供交流參考,觀點不代表本機構立場。)

英國國防部人工智能戰略的愿景是:以英國規模為標準,成為世界上最有效、最高效、最可信和最具影響的國防組織:

有效——提供戰場制勝能力和支持,以及英國與盟友關于人工智能生態系統合作的能力;

高效——通過創新使用技術交付能力,進行作戰并實現生產力效應;

可信——基于人工智能系統的安全性和可靠性受到公眾、盟友和人民的信任,根據英國核心價值觀合法合規地使用人工智能;

影響——積極參與合作和引領人工智能技術的全球發展和管理趨勢;

**、背景和必要性******

英國國防部《綜合評估(2021)》強調指出,國家在人工智能領域的卓越表現是確保英國在2030年前成為“科技超級大國”的核心。英國國防部《國家人工智能戰略(2021年)》指出,人工智能在改寫整個行業的規則、推動經濟大幅增長和改變生活的所有領域方面具有巨大潛力。英國國防部《綜合作戰概念 (2020年) 》描述了無處不在的信息和快速的技術變革如何改變了戰爭的性質。在軍事作戰的各個領域,沖突正變得愈發復雜。新技術產生大量數據,解鎖新的威脅和漏洞,并通過如蜂群無人機、高速武器和先進網絡攻擊等下一代先進能力擴大潛在攻擊的規模。

人工智能技術以及其影響可能會極大地縮短決策時間,使人類理解負擔加重,而且這些在現代戰場中需要快速做出反應。正如《國防司令部文件(2021)》所指出的,“未來沖突的勝負可能取決于所采用人工智能解決方案的速度和效率”。因此信息作戰變得越來越重要。簡而言之,當代國防正在發生一場根本性的劇變,與人工智能相關的戰略競爭正在加劇,因此必須迅速、主動和全面應對。

本戰略闡述了英國將如何應對這一重大戰略挑戰,其應該引起英國國防部的重視,并參與部隊發展和國防轉型,英國國防部需要明確其機構與人工智能相關的要素并采取相應行動,以在后續執行和交付方面發揮關鍵作用。

三、發展途徑

**一是英國國防部需要轉變為“人工智能就緒”的組織。**具體措施是:1)推動文化、技能和政策變革,培訓領導人,提高人員技能,并加強國防人工智能和自主部門的組織能力;2)創建國防人工智能技能框架和新的人工智能職業發展和晉升路徑;3)將數據視為關鍵戰略資產進行管理和應用,建設新的數字主干網絡和國防人工智能中心。

**二是在速度和規模上采用和利用人工智能,以獲得防御優勢。**具體措施是:1)將人工智能視為能力戰略和部隊發展過程中戰略優勢的關鍵來源;2)短期路線采用成熟的數據科學、機器學習和先進的計算統計技術提升效果和生產力,長期路線進行尖端人工智能技術研發;3)采用多學科多技術將人類認知、創造力和責任與機器速度分析能力相結合以評估人工智能系統的脆弱性和威脅;4)與盟友和伙伴密切合作開發創新能力解決方案以應對共同的挑戰。

**三是推動和支持英國國防和安全人工智能生態系統。**具體措施是:1)通過英國工業和學術人工智能的雄厚基礎以及政府的支持建立信心并明確要求;2)視人工智能生態系統為戰略資產,消除行業壁壘,建立更具活力和一體化的伙伴關系;3)促進行業聯系建立新的國防和國家安全人工智能網絡,促進人才交流和共創,鼓勵業界投資國防相關的人工智能研發,并簡化國防數據和資產的獲取。4)促進中小企業,使監管方法現代化,支持業務增長并最大限度地利用國防人工智能相關知識產權促進相關技術商業化。

**四是塑造全球人工智能發展,以促進安全、穩定和民主價值觀。**具體措施是:1)按照英國的目標和價值觀塑造人工智能的發展,促進倫理方法,并影響符合民主價值觀的全球規范和標準;2)促進安全與穩定,確保英國的技術進步得到適當保護,同時探索建立信心和將軍事人工智能使用風險降至最低的機制;3)考慮可能出現的極端甚至事關生存的風險,并積極與盟友和合作伙伴接觸,制定未來的安全政策,尋求建立對話,以降低戰略錯誤、誤解和誤判的風險。

四、優先效果

通過采用人工智能技術實現本戰略目標,使英國武裝部隊實現現代化,并迅速從工業時代的聯合部隊過渡到敏捷信息時代的綜合部隊,國防部將受益于效率和生產率的提高,其期望的優先效果如下:

決策優勢:通過更充足、更分散的決策制定和基于威脅的機器快速響應,提高作戰節奏和靈活性。

效能:通過智能自主提高靈活性、效能和可用性。

解鎖新能力:通過開發新的作戰方式確保作戰優勢,增強軍事效果,保護人民免受傷害。

武裝部隊:減輕部隊負擔,并將人類決策集中在基于獨創性、背景思維和判斷力的高價值職能上。

五、戰略綜述總結****

**六、**結束語

人工智能必須成為未來必不可少的技術,其也促使著英國國防部改變對現代技術的看法,調整其技術方向和戰略需求,全面擁抱世界領先的人工智能解決方案和能力,推進其國防業務中觀念、文化、規劃和交付方面的持久變化,并將其作為國防戰略融入國防領域,以確保英國軍隊成為敏捷信息時代的綜合部隊。

編譯:船の心

END

世界軍事電子領域2021年度十大進展

軍事電子領域

付費5元查看完整內容
北京阿比特科技有限公司