這篇短文分析了英國在最近兩份政策文件中提出的將人工智能(AI)用于軍事目的的方法。第一部分回顧并批評了英國防部于2022年6月發布的《國防人工智能戰略》,而第二部分則考慮了英國對 "負責任的"軍事人工智能能力的承諾,該承諾在與戰略文件同時發布的《雄心勃勃、安全、負責任》文件中提出。
建立自主武器系統所需的技術曾經是科幻小說的范疇,目前包括英國在內的許多國家都在開發。由于無人駕駛飛機技術的最新進展,第一批自主武器很可能是基于無人機的系統。
英國無人機戰爭組織認為,開發和部署具有人工智能功能的自主武器將產生一些嚴重的風險,主要是在戰場上喪失人的價值。賦予機器奪取生命的能力跨越了一個關鍵的道德和法律障礙。致命的自主無人機根本缺乏人類的判斷力和其他素質,而這些素質是在動態戰場上做出復雜的道德選擇、充分區分士兵和平民以及評估攻擊的相稱性所必需的。
在短期內,自主技術的軍事應用可能是在低風險領域,如物流和供應鏈,支持者認為這些領域有成本優勢,對戰斗情況的影響最小。這些系統可能會受到人類操作員的密切監督。從長遠來看,隨著技術的進步和人工智能變得更加復雜,自主技術越來越有可能成為武器,人類監督的程度可望下降。
真正的問題也許不是自主權的發展本身,而是人類控制和使用這一技術發展的里程碑的方式。自主性提出了與人類判斷、意圖和責任有關的廣泛的倫理、法律、道德和政治問題。這些問題在很大程度上仍未得到解決,因此,對于快速推進發展自主武器系統,人們應該深感不安。
盡管自主武器系統似乎不可避免,但有一系列的措施可以用來防止其發展,如建立國際條約和規范,制定建立信任措施,引入國際法律文書,以及采取單邊控制措施。英國無人機戰爭組織認為,英國應充分參與在國際舞臺上制定這些措施。
然而,在這個時候,政府似乎希望保持其選擇的開放性,經常爭辯說,它不希望創造可能阻礙人工智能和機器人技術的基本研究的障礙。盡管如此,大量受控技術,如加密,或在核、生物和化學科學領域,可用于民事或軍事目的,而且受控時不會扼殺基礎研究。
近幾十年來,安全環境發生了巨大的變化。最重要的是,這對敵對戰爭的作戰方式產生了影響,特別是所使用的軍事方法。軍事革命是戰爭和沖突史上一個不可分割的特征。變化的最重要驅動力之一是技術進步,今天,技術以無與倫比的速度推動著軍事事務的這種轉變。將傳感器技術與精確打擊效應器和通信相結合的無人機作戰能力就是一個最好的例證。人工智能(AI)、機器人、網絡、云技術、納米技術和激光系統是為此目的而采用和整合的技術進步。這些進步得到了小型化、相對低成本的制造和隱身技術的補充。特別是軍用無人機的發展,已經改變了民用和軍用任務。雖然無人機在農業、監測、電影攝影和其他領域有多種民用應用,但本文將討論軍用無人機、無人駕駛飛行器(UAVs)和不同大小的遙控飛機,它們被用來進行對人類人員來說過于枯燥、骯臟或危險的活動。沒有人在機上是軍用無人機的主要賣點,因為這對各種原因都有幫助:首先,它需要更少的飛行員在戰場上冒生命危險;其次,由于沒有飛行設備,無人機更輕,可能非常小。
為了保持武力使用的可控性,限制武力升級的危險,并限制使用武力造成的政治風險和傷害,混合戰爭參與者更愿意使用軍事影響相對較小的限定戰爭方法。無人機戰爭技術,以及無人駕駛和遠程精確武器系統,實際上適合于啟用這種方法。
作為第一步,必須對混合沖突/戰爭背景下現有的無人機使用情況有一個總體的了解,這也是因為盡管無人機的部署越來越多,但它仍然是一種有爭議的戰術。使用無人機是否符合道德?它甚至是合法的嗎?由于缺乏使用軍事無人機的法律框架,以及大量的平民傷亡,這些仍然是高度討論的問題。有必要在歐洲和國際層面上制定關于使用無人機的法律。
這一分析旨在為圍繞武裝無人機在陸軍行動中的使用、風險、挑戰和結果的學術辯論做出貢獻。本文將首先介紹軍用無人機:描述無人機的類型,并對軍用和民用無人機、軍事應用、目的和戰術進行區分。隨后,將分析在軍事行動中使用無人機的法律和倫理爭議。
最后,將解釋兩個案例研究:第一個是關于納戈爾諾-卡拉巴赫爭議地區44天的戰斗(2020年),它提供了一個樣本,說明這些武器可能對特定沖突的結果產生巨大影響;第二個是關于2004至2009年美國在巴基斯坦的攻擊。它描述了缺乏規范在戰場上使用軍用無人機的國際法,以及由此產生的非法殺戮。
這個話題與Finabel MS有關,因為它可能使他們意識到有必要審查與該主題有關的立法,以形成對無人駕駛飛行器的共同理解。此外,在2020年的納戈爾諾-卡拉巴赫沖突中大量使用作戰無人機,可能為Finabel MS將無人機能力與火炮相結合的新戰略鋪平道路。
總之,各國在沒有仔細研究對所有各方(友軍、敵方戰斗人員、平民和社會)的潛在后果的情況下,不得輕率作出決定。
人工智能(AI)已經作為一個強大的推動力出現,滲透到人類生活的各個領域。鑒于其深刻的效率,并受到現實主義假設的啟發,這種雙重用途的使能器現在正被全世界的政策制定者快速納入軍事部門。與人工智能相關的越來越多的自主性和決策速度必然會以新的方式影響未來的戰爭。本文研究了人工智能在各個軍事領域的應用,包括情報監視和偵察(ISR)、指揮和控制(C2)、自主武器系統(AWS)/致命性自主武器系統(LAWS)、網絡防御/攻擊、軍事規劃與培訓、后勤。它還探討了人工智能在戰爭中可以引導的眾多機會和潛在風險。注意到人工智能的動態性質,該文件還討論了巴基斯坦在這一領域的地位。
新技術正在迅速進入戰場,并有可能影響未來的戰爭。人工智能(AI)就是這樣一個新興的推動者,它已經擴展到各個領域。定義人工智能相當困難,專家們還沒有就任何特定的定義達成共識。解釋這一現象的一個基本方法是對機器進行編程,讓它們的認知能力模擬人類的智力,使它們能夠執行各種任務。人工智能系統能夠通過處理大量數據來學習和預測未來的情況。處理給定數據的算法作為分析模型,以最優的方式對系統進行編程,并從它們的經驗中學習。這種持續的學習可以更好地利用現有信息,并根據給定的環境執行最基本的決策/行動因此,它是一種具有前瞻性的技術,在執行各種任務和決策方面提高了效率。
人工智能的研究始于1940年,但在2010年之后,由于有了更多的數據、更好的機器學習和更快的計算機處理能力,人工智能的研究得到了顯著的發展。這項技術尤其吸引了世界各地的軍事決策者。俄羅斯總統普京宣稱,“誰領導人工智能,誰將統治世界”,這類似于阿爾弗雷德·塞耶·馬漢(Alfred Thayer Mahan)的斷言,誰控制了人工智能浪潮,誰就統治了世界。
人工智能被稱為繼核武器和火藥之后的第三次軍事革命。這種技術令人眼花繚亂的效率,如今已促使大國將其應用于軍事領域。目前,美國和中國在這場競賽中處于領先地位,并在這項技術上展開了激烈的競爭。埃隆·馬斯克(Elon Musk)等專家一再稱人工智能比核武器更危險,并認為各國應避免將這種不可預測的技術應用于武器,并強調了對其致命性質的嚴重擔憂。然而,國防部隊傾向于借助這項技術來增強他們的實力。
人工智能的軍事化并不是全新的,但隨著時間的推移,人類參與最新武器的程度正在迅速下降,機器變得更加自主,對人類的依賴越來越小。人工智能幾乎適用于每一項軍事技術,專家們正致力于獲得更好的資金,以找出加強軍事領域的途徑和潛在應用。
截至目前,約有20個國家制定了人工智能政策,并有望有更多國家加入這一競賽。隨著新應用的出現和日益復雜的程度,人工智能正在成為現代戰爭的核心元素。
人工智能已經成為一種兩用技術,既適用于民用,也適用于軍事領域。人工智能的軍事化被廣泛地與致命自主武器系統(LAWS)聯系在一起,通常被稱為“殺手機器人”。“然而,人工智能的應用范圍很廣,而法律只是人工智能在武裝部隊應用的一個方面。
人工智能正在迅速給戰場帶來微觀和宏觀層面的變化。它不僅可以在戰場上幫助士兵,還可以簡化戰爭計劃和后勤。重要的是要理解人工智能本身不是一種技術,而是一種使能者,它將增加現有技術的能力,使它們更有效。因此,它的應用可以有三個方面:它可以為各種系統帶來自主性,產生戰爭中涉及的新的和先進的技術,并為進一步的行動解釋/處理可用信息。下面幾節將討論人工智能可以應用于軍隊的一些領域。
ISR是人工智能能夠有效幫助武裝部隊的最重要領域之一。通過無人機和傳感器收集數據的能力可以提供大量重要信息,以支持廣泛的軍事活動。此外,軍隊必須處理大量數據進行監視,這需要相當多的時間和精力。從2001年到2011年,無人機收集的數據增加了16倍。集成了計算機視覺的機器處理算法可以在意想不到的短時間內處理大量數據,從而識別重要的威脅和目標,使國防部隊的監視任務更容易。由于帶寬限制,一些數據可以在戰場上部署的ISR平臺上進行分析,而更敏感的數據可以在情報處理中心進行分析。
這些數據現在以信息的形式存在,然后用于得出戰場上正在發生的情況。然后,它進一步用于軍事指揮官的決策。一旦準備好執行潛在的響應,ISR的角色就會再次發揮作用。AI傳感器為指揮官提供目標的位置和其他必要細節。此外,有關任何威脅存在的數據也會反饋給指揮官,以確保作戰成功。通過這種方式,人工智能極大地幫助ISR智勝對手。
目前,不同的數據處理機制和數據同步阻礙了空中和地面部隊之間的理想通信。或者,支持人工智能的軟件可以處理大量數據,并根據接收方的要求對其進行分類,這將使不同的軍事單位能夠在沒有任何延遲的情況下接收信息。
機器學習系統可以根據經過長期訓練的數據創建正常模式。這些正常模式考慮了各種因素,如海上、陸地和空中部署的不同武器的速度、方向和移動。只要觀察到與標準模式的偏差,就可以檢測到行為,并將其轉發以進行進一步的操作。自動識別系統(AIS),模糊自適應共振理論(ARTMAP)神經網絡,高斯混合模型(GMM),核密度是一些自治的系統,用于監測,以檢測任何可疑活動。因此,人工智能將加快篩選可用數據的過程,使其能夠掌握關鍵信息。
世界各地的軍隊都依賴C2結構來順利運作。這些是指為完成一項既定行動而行使的權力和方向。通過人工智能系統的幫助,這些結構可以滿足其中期、中期和長期的需求。中間需求是指為各個操作提供的數據。中期需求是指人工智能系統所做的動態規劃和協調。AI還可以幫助C2滿足其長期需求,即分散執行的集中控制。
武裝部隊可以在C2中使用人工智能,以建立更好的防御組織。多域指揮與控制(MDC2)已經在美軍的計劃中。這些系統旨在勾勒出一個綜合網絡,其中海、陸、空和天基行動得到集中規劃并良好整合在一起。目前,有各種各樣的平臺向軍事領導層提供信息,這些信息由決策者進行嚴格評估,以便采取可能的行動。對于未來戰場,“通用作戰圖像”將作為單一信息源,根據通過不同傳感器收集的信息提供戰場事件的全面圖像,從而實現無縫集成。雖然MDC2仍處于起步階段,但美國空軍正在與包括洛克希德·馬丁公司在內的多家公司合作,以具備這種能力,為此在2018年舉行了一系列軍事演習,以進一步規劃這方面的需求。
在未來,通信模式也將受益于人工智能支持的項目。人工智能可以在通信網絡被對手破壞的情況下引入發送信息的替代模式。除了篩選傳入的信息,人工智能算法還能夠為戰場上的軍事指揮官提供幾個可能的執行選項,同時考慮到任何給定場景的實時分析。所有這些措施都將簡化軍事指揮官的C2。
武裝部隊可以將人工智能納入其現有的廣泛武器中,如飛機、海軍艦艇、防空系統、坦克和其他軍事裝備。它還可以集成到系統和軟件中,例如雷達,以提高它們的效率。同樣,人工智能也可以用于支持任務的武器,例如用于飛機戰斗支持任務的“忠誠僚機”。
另一方面,人工智能也是LAWS發展的關鍵因素,這些系統具有獨立識別和打擊目標的能力,無需人類的任何命令。戰爭發生了明顯的轉變,其標志是從自動化武器向自主武器的過渡。
區分“自動化”和“自主性”的概念對于理解人工智能的應用和影響是很重要的。當軍事領導人給一臺機器分配特定的命令時,他們就把一定的權力委托給了這臺機器。如果權限級別高,則系統是自治的。AWS根據推理、感知和基本原理執行決策,從而得出最佳輸出。另一方面,自動化系統的決策能力依賴于預定義的輸入集,這些輸入集不具有任何認知能力,它們執行它們被編程去做的事情,這表明它們在每個任務/程序中具有較少的權威。法律的發展將逐漸以“自主性”取代“自動化”。
軍方的目標是通過可部署在陸地、空中、海上和天基平臺上的LAWS增強精確打擊。法律的決策方面有很大的爭議。科技專家一再強調,這些“殺手機器人”不應被賦予發動攻擊的自主性,因為它們可能引發不希望看到的結果。然而,主要大國,特別是美國等,準備將這種系統投入戰場。
來自網絡戰的威脅是持久的,而且在未來很可能會增長。保護數據不受惡意活動的侵害對于保護重要信息的完整性和機密性不受潛在攻擊至關重要。因此,計算機和軟件的脆弱性正在增加,因為傳統的檢測網絡攻擊的方法不足以檢測它們的演變形式。
世界各地的軍隊都容易受到對手的攻擊。除了這種攻擊造成的系統/數據破壞外,武裝部隊還遇到了重大的歸因挑戰。為了解決這一問題,軍事政策制定者正在關注人工智能,因為它可以成為避免此類攻擊的主要工具,并指出受人工智能保護的數據、軟件和程序相對不太容易受到網絡攻擊。人工智能可以記錄網絡攻擊的模式,通過機器學習,它可以找到方法,以制定措施,對這些攻擊執行反擊,以避免重要數據的暴露。入侵檢測系統(IDS)可以有效區分正常數據和入侵數據,避免重要數據被破壞。
檢測侵入性數據最流行的技術是基于簽名的技術。這種方法使用人工智能來識別惡意軟件和網絡攻擊。系統被輸入不同已知惡意軟件的惡意軟件簽名(代碼的字節序列)。該數據庫使用可用的簽名來識別潛在的惡意軟件,并防止它進一步滲透到系統中。雖然這種方法確實對新的惡意軟件不太有效,但在這方面已經做了相當大的努力來訓練系統,使它們能夠記錄模式并使用機器學習來自行識別新形式的惡意軟件。
同樣,對于一些國家來說,這可能是一種強大的工具,可以在網絡領域對對手進行攻擊性攻擊,因為網絡是相當脆弱的途徑之一。攻擊的成功將取決于防御系統。這很可能會導致支持人工智能的進攻性網絡攻擊與支持人工智能的防御性網絡攻擊之間的競爭。在這種情況下,更聰明地使用“使能”的一方將占上風。因此,國家很可能在網絡領域使用人工智能的進攻和防御能力。
人工智能將有助于為從步兵到高級將領的軍事領導提供所需的規劃和訓練。它可以更好地概述如何有效地計劃任務,提高準確性,減少人力和支出,最重要的是,節省在一切都依賴于人力時投入的時間。機器學習可以在為武裝部隊提供更安全的網絡方面發揮至關重要的作用,使他們不那么容易受到攻擊。同樣,軍隊也可以通過在早期階段預測部件故障而受益于人工智能。交叉引用和自動關聯分析可以幫助檢測任何故障和異常。此外,可以通過傳感器數據檢測威脅。分析所有這些數據,決策者可以得出更務實的結論。盡管人工智能系統不會對計劃的絕對授權進行監管,但它們將為士兵提供戰場的更大圖景。
人工智能系統還可以用于武裝部隊的訓練。可以考慮個人能力和學習風格,使學習更加個性化。它們還將使指揮官能夠在潛在沖突中為特定行動選擇最佳人員。機器學習系統可以考慮輸入數據集的各種因素,并為軍事指揮官提供分析模型,以做出有利于戰斗的決策。例如士兵的長期表現,他/她的技能,個性特征,在壓力下工作的能力,長處和弱點可以根據任務的具體要求來制定。同時分析所有這些因素可以為某一特定行動選擇最佳軍官。
此外,基于其認知能力,人工智能還可以使用程序來決定官員的職位和晉升,這些程序可以分析官員的能力、學習經驗和表現,以便提出最合適的職位。通過這種方式,武裝部隊的能力將得到最佳利用,戰斗人員將得到最佳部署。此外,它還將防止在上述任何活動中存在偏見。
在和平時期,還使用諸如模擬器之類的庫存來訓練軍事人員。兵棋推演技術可以使用人工智能進行改進,因為它們可以在與對手的潛在遭遇中提供廣泛的選擇。這將通過為士兵提供更好的實地體驗來提高這種技術的有效性,以便理解在與對手的潛在沖突中利用最新技術的最佳方式。虛擬現實技術(VR),結合人工智能和復雜算法,有望在很大程度上提高軍隊的訓練水平。
后勤是人工智能有潛力加強武裝部隊能力的另一個領域,例如,空軍可以通過采用預測性飛機維護任務從人工智能支持的系統中受益。這項技術將使飛機能夠通過預定的時間表進行定期維護,從而避免在飛機受損后等待維修。美國已經建立了一個“預測后勤”小組,該小組的任務是為飛機的維護提供智能計算。人工智能將幫助預測某個部件何時可能損壞。這種方法目前被F-35的自主后勤信息系統所采用,該系統從不同的部件獲取實時數據,并將其導向預測算法,并在操作員需要訪問和更換飛機的任何部件時進行分析。
此外,人工智能系統可以幫助軍隊處理大數據。大數據包含的信息要么太大,無法存儲在一臺計算機的內存中,要么生成太快,一臺計算機無法處理,要么以不同的格式呈現,使人類難以處理。相反,人工智能系統可以更有效地存儲大數據。
機器學習算法還可以利用可用數據制定智能預算解決方案,以優化幾乎所有軍事活動的資源和成本分配。同樣,它也可以幫助軍事運輸,使其更容易運輸部隊,武器,和彈藥在軍事行動。它不僅可以降低運輸所需的成本,而且可以降低人工操作的工作負荷。
盡管人工智能的軍事化仍處于初始階段;其不斷提高的效率和快速發展的性質,受到意外和不確定性的影響,可能對未來的戰爭產生許多影響。本文的以下部分將重點討論人工智能在戰場上的潛在利益和風險。
鑒于這項技術前所未有的效率,人工智能將在軍事領域帶來許多好處。
時間是一個主要的因素。自主系統執行任務的速度比人類快得多,因此,使操作系統能夠增加它們的速度歧管,從而加快戰斗的速度。它們尤其能協助軍隊完成需要長時間且超出人類承受能力的任務。此外,他們識別軍事設備缺陷的自主能力可以使軍隊避免意外故障延誤,這可能會給潛在的任務帶來障礙。
軍事分析人員必須花費大量的時間篩選大量的數據。人工智能可以在快速分析這些數據方面發揮關鍵作用,并將最重要的元素反饋給軍事指揮官進行進一步評估。人工智能處理的數據可以為分析復雜環境的指揮官提供更詳細和準確的概述。美國中央情報局(CIA)有140多個項目將利用人工智能系統收集數據,用于分析和決策。因此,人工智能獲取、處理和分析來自不同來源的數據的能力有可能對軍事決策者可用數據的數量、質量和準確性產生顯著影響。
深度神經網絡的顯著改進導致了圖像識別的顯著效率。因此,人工智能可以提高戰斗中目標識別的準確性,因為機器學習能夠根據給定的信息和戰場情況學習、檢測和識別目標。改進的圖像分析可以節省寶貴的時間,并優先考慮潛在的威脅。這些數據可以反饋給應對小組,以便采取進一步行動。
盡管LAWS的法律方面在許多論壇上被廣泛討論,但它們有可能在危險的戰斗中取代士兵,并減輕人類生命的損失。此外,使用MDC2,指揮官可以在遠離戰場的情況下有效地執行決策。也有可能利用人工智能在戰場上提供機器人協助,這將在不增加人力的情況下加強武裝部隊的作戰能力。
人工智能不僅可以增強態勢感知,還可以在考慮環境條件、天氣、基于概率的敵人行為評估和現有能力等各種因素的情況下,為軍事指揮官提供給定背景下的最佳可能選項。作為信息通信技術,人工智能可以傳達對手的意圖和動機,使其成為敵對對手之間有效的維和工具。此外,由于人工智能具有前所未有的自主決策和處理能力,可以幫助作戰系統的自我調節、自我控制和自我驅動等關鍵過程。因此,它的預測和分析能力可以幫助軍事領導人做出更明智的決定。同樣,它將對戰斗準備的動態產生顯著影響。總之,它將為軍隊提供更多解決方案和新方法,以應對各種挑戰。
正如前面所討論的,人工智能的前景是令人信服的。它為軍隊提供了若干改善其防務和安全職能的機會。另一方面,軍隊在開發、部署和使用的各個階段也必須面臨人工智能融合的困境。在所有的階段中,關于安全和升級的潛在挑戰(與潛在的好處相競爭)可能會被忽視。更高的效率、更快的處理速度和更少的人為干預可能會壓倒所帶來的風險,因為安全部隊希望避免在這場競賽中落后,并防止他們的軍隊變得更容易受到其他國家的攻擊。這種對人工智能的追求可能引發軍備競賽和這種技術的破壞性擴散。隨著法律進入戰場,未來的戰爭也將變得更加不確定和模糊。
由于戰爭的自主程度不斷提高,未來很可能會有很大一部分決策由機器自己完成。在這種情況下,存在道德問題。例如,在潛在的沖突場景中,系統可能開始在選擇目標、決定行動模式和武力的殺傷力方面行使絕對控制。在沒有人類監督的情況下,更強大的人工智能可能會導致重大的附帶損害。如果系統或機器無法正確解釋數據會發生什么?對于軍事和政治領導人來說,這是一個重大的道德困境,因為它可以造成相當大的傷害。
也可能有一些情況迫使人類全力以赴,以選擇沖突的緩和。然而,機器不遵守安全規范。一旦一臺機器熟悉了一個特定的目標,它就會做一切被認為必要的事情來實現它。這可能會導致一種情況,即人工智能的目標可能與人類的目標不兼容,從而導致不必要的升級。這種升級可能引發重大沖突,考慮到法律的災難性性質,可能產生不可逆轉的影響,從而使人類為緩和沖突與和平所作的努力成為徒勞。
盡管專家們尚未就人工智能的定義達成共識,但他們一致認為,人工智能可能(在大多數情況下)是致命的。
著名技術專家尼克·博斯特羅姆(Nick Bostrom)對人工智能軍事化表達了嚴重擔憂,他表示,將人工智能等技術集成到武器中就像孩子玩炸彈一樣。2018年,蘋果首席執行官蒂姆·庫克和SpaceX首席執行官埃隆·馬斯克在一次會議上聲稱,人類對人工智能的控制是有一定限度的。一旦越過這個門檻,人類將不由自主地失去對它的權力,隨后出現的情況是,他們將無法控制AI,相反,AI將自己做出決定。因此,人類將無法解釋決策和執行過程,這將增加不確定性的范圍。
對于俄羅斯等這樣的大國來說,人工智能已經成為他們挑戰美國霸權和軍事實力的一個機會,美國的霸權和軍事實力在很長一段時間內都沒有受到挑戰。這種傾向可能會迫使國家放棄道德和倫理考慮,賦予配備人工智能的武器更多自主性。通過對古巴導彈危機(CMC)的評估,可以很好地理解將這種技術整合到武裝部隊中的嚴重擔憂,在古巴導彈危機中,一個錯誤的警報可能導致一場核災難。同樣,類似的情況也可能演變成可能將國家帶入潛在戰爭場景的情況。類似地,涉及多個人工智能系統的設置將使本已緊張的局勢進一步復雜化,因為不同的人工智能系統將接受不同的訓練,因此可能會得出不同的、相互沖突的結論,并導致不確定的決策。
此外,人工智能依賴于從不同的傳感器收集數據,然后對其進行解釋。如果一個或多個傳感器出現故障,人工智能的未來軌跡仍將高度模糊。該系統可能會完全崩潰,從而玷污人工智能的可信度,或者導致致命的危機,而這種危機將以政策制定者沒有考慮到的方式爆發。同樣,為了迫使對手采取可能破壞沖突管理過程的行動,可以故意篡改數據。
與現在相比,未來平民傷亡將會減少的斷言并不是很有說服力,因為自動機器有可能造成巨大的破壞。如果在沖突頻繁的地區或沖突閾值很低的地區使用這種系統,則可能造成重大損害。
信任是戰略穩定的必要條件,而人工智能也會給戰場帶來不確定性和不可預測性。因此,提高效率的感覺可能使后者更容易升級。雖然高精度和驚人的精度確實適用于軍事目的,但人工智能系統可能無法考慮上下文變化。因此,對它們方向的依賴增加,意味著更多(而不是更少)不可預測性將占上風。
考慮到人工智能的重要性,在巴基斯坦的安全背景下討論它是恰當的。顯然,人工智能將成為未來戰爭不可分割的一部分。已經有許多國家正在以快速的速度將其應用于軍隊。美國、俄羅斯和中國已經在這一領域取得了明顯進展。
在南亞,受印度教影響的印度政權一直熱衷于尋找機會以巴基斯坦為目標。這個政權還將人工智能視為改進其激進設計的工具。在《陸戰理論》(2018年)中,特別強調了將人工智能融入武裝部隊的重要性。由國防研究與發展組織(DRDO)開發的人工智能和計算中心(CAIR)正在為印度武裝部隊開發AWS。自主無人機、自主坦克和多智能體機器人框架(MARF)是印度已經完成或即將完成的一些舉措。因此,巴基斯坦也應該考慮這些事態發展。人工智能提供的效率可以顯著提高巴基斯坦三軍的潛力和能力。但是,要做到這一點,政府需要在這項技術上進行大量投資。在這方面,應該促進國際合作和本國的研究與發展(R&D)。
巴基斯坦有幾所大學提供與人工智能相關的學位/課程。在這方面,航空大學、國立科技大學和國立計算機與新興科學大學是一些值得注意的例子。同樣,人工智能和計算中心(CENTAIC)于2020年8月成立,以促進民用和軍事領域的研發。然而,巴基斯坦還有很長的路要走,需要更多的關注。
政府需要與友好國家合作,特別是中國,在人工智能領域取得進步。其次,在前面提到的機構所教授的課程需要與國際標準相兼容。此外,大學應該相當重視這項技術的實際應用
人工智能(AI)是成功進入軍事領域的推動者。隨著時間的推移,越來越多的國家將把它用于國防目的。雖然它對未來戰場的影響可能很大,但各國也需要警惕其潛在風險,包括沖突迅速和災難性地升級,而不是降級。最終,人工智能在戰場上的未來將主要取決于決策者愿意給予這種技術多大的自主性。
人工智能(AI)在國防領域的使用帶來了重大的倫理問題和風險。隨著人工智能系統的開發和部署,澳國防部將需要解決這些問題,以維護澳大利亞國防軍的聲譽,維護澳大利亞的國內和國際法律義務,并支持國際人工智能制度的發展。
這份報告《案例研究:國防中的倫理人工智能方法應用于戰術指揮和控制系統》是總理與內閣部(PM&C)、澳國防部和澳大利亞國立大學(ANU)3A研究所之間的科技(S&T)合作的產物。它使用《國防中的倫理人工智能方法》[1]來探討設想中的人工智能戰術指揮和控制(C2)系統的倫理風險,該系統整合了各種自主功能,以協助單個人類操作員同時管理多個無人駕駛車輛。
使用 "國防中的倫理人工智能方法 "對這一設想的C2系統進行分析,為三個利益相關者群體提供了關鍵的發現:澳國防部;人工智能技術開發者,以及那些尋求使用或迭代 "國防中的倫理人工智能方法 "的人。
對于澳國防部,該報告確定了關鍵的政策差距,并建議在以下方面采取行動。
對人工智能所做的決定和使用人工智能所做的決定制定一個問責框架
對操作員、指揮和系統開發人員的教育和培訓
管理支撐許多人工智能應用的數據,包括其收集、轉換、存儲和使用。
如果不采取行動,這些差距使澳國防部容易受到重大的聲譽和業務損害。
對人工智能技術開發者的其他關鍵發現涉及到有效性、整合、授權途徑、信心和復原力等主題。總的來說,這些發現鼓勵開發者考慮最有效的系統或算法(例如,在速度或準確性方面),是否一定是為決策者提供幫助的最佳選擇。在某些情況下,與規范性決策更一致的效率較低的算法可能更合適。此外,顯然需要研究哪些信息是做出好的判斷所必需的(特別是在問題復雜、背景重要的情況下);以及應該如何快速傳達這些信息。通過考慮作為分析的一部分而開發的七種假設的道德風險情景,可以進一步探討這些關鍵的發現。
對于那些尋求應用或迭代《國防倫理人工智能方法》的人來說,報告建議開發更多的工具,以幫助從業者確定對其特定需求具有最大相關性和效用的領域;以及一套全面的定義,以幫助應用該方法。
本文件在信息完整性研究和開發領域建立了一個聯邦路線圖。其目的是承認當今科學知識的差距,使研究界對聯邦未來的研究重點有一個共同的認識。這些優先事項使政府內外的研究人員能夠調整研究工作,確定富有成效的協調機會,并與各類社區合作,以保護基本自由和人權的方式探索信息完整性領域。
重要的是,本文件不是一個政策指令。它沒有對管理數字信息生態系統的法律或法規作出任何決定或建議,也沒有采取任何政策立場。相反,它的目的是激發研究,以加強信息生態系統在開放的思想交流中的作用,使健康的辯論和自由的表達蓬勃發展。
準確和可靠的信息對人民和社會的福祉至關重要。被操縱的信息會對國家安全、民主進程、經濟福利和發展、環境和自然生態系統、地方和國家危機應對工作、人權和保護、國內外的暴力和極端主義、醫療保健系統以及人們的個人健康和福利產生不穩定和有害的后果。快速的技術進步、真正的不確定性、堅定的外國對手或競爭者以及互聯網規模的人機互動創造了復雜的動態,使這些風險變得更加復雜。
現在,數字互聯性使數十億人能夠以前所未有的速度和規模交換信息。現在,許多人可以接觸到數百、數千、甚至數百萬人,這改變了信息流動的方式和傳統的高完整性信息來源的運作方式。一方面,大規模的連接使建立支持系統、交流思想和實現集體目標的新機制成為可能;另一方面,當個人、公司和機構缺乏辨別可信信息和被操縱信息的手段以做出正確的決定時,欺詐、騷擾、剝削、安全隱患、犯罪、健康風險和其他類型傷害的機會就出現了。雖然操縱信息不是新事物,但其傳播和影響因現代數字環境和使操縱信息蓬勃發展的動態因素而大大加劇了。新的和強大的人工智能技術可以被用來產生難以察覺的欺騙性內容,平臺可能會放大被破壞的內容,而人們可能會無意中傳播被操縱的敘述。
此外,與被操縱的信息有關的傷害影響到所有年齡、國籍和信仰的人;所有文化、民族和種族背景的人;所有性別的人;以及所有政治光譜的人。危害的確切性質各不相同。一些群體的風險較高,包括美國老年人,僅在2018年就經歷了1.84億美元的欺詐損失,以及退伍軍人,包括軍隊退休人員,他們在2020年向聯邦貿易委員會報告了6600萬美元的欺詐。 其他人可能會從在線騷擾或虐待中經歷更嚴重的影響,這對婦女、少女、LGBTQI+個人以及那些因為種族、民族、宗教或其他因素而成為額外目標的人影響更大。需要了解風險因素、普遍性和傷害的性質,以探索和驗證減輕風險和解決潛在傷害的策略。
重要的是,要承認社交媒體公司、新聞機構和政府部分人員為向公眾提供高誠信度信息所做的復雜工作。同樣重要的是要承認,在某些情況下,這些努力是不夠的,有時會加劇誤解,引起對言論自由的關注,或造成意想不到的后果。對這些可能的后果進行范圍界定,同時承認信息生態系統是動態的、復雜的,有時甚至是不可預測的,這對減輕危害至關重要。
認識到這些復雜性和廣泛的風險,拜登-哈里斯政府明確表示,為了維護民主原則和保護公共安全,有必要對有可能造成危害的信息操縱行為進行研究,同時堅定地維護美國的公民權利和自由,包括第一修正案的權利。此外,前幾屆政府和國會的兩黨聯盟都認為這些問題至關重要,采取了重要行動來調查和解決與信息操縱有關的風險。在白宮科技政策辦公室的領導下,與國家科技委員會一起,并與國家安全委員會和國內政策委員會協調,成立了一個機構間工作組(IWG)。IWG與不同的聯邦部門和機構一起,通過信息請求(RFI)從公眾那里收集關于這些問題的信息,并聽取了來自政府、私營部門、研究團體和社區組織的幾十名成員的情況介紹。其主要目的是更好地了解與被操縱的信息相關的風險,在真正不確定的情況下交流高完整性信息的復雜性,知識和技術能力方面的差距,以及保障公民權利和自由的戰略。
作為長達一年的研究結果,本文件為研究人員制定了一份與信息完整性研究和開發有關的優先事項路線圖,以了解缺乏高完整性信息如何導致有害結果,以及哪些研究可以幫助解決這些挑戰。該路線圖為聯邦資助的信息完整性研究(包括校外和校內)確立了目標,為協調信息完整性的研究和開發(R&D)提供了一個結構,并鼓勵多學科研究,承認公共和私營部門的責任。路線圖反映了不同政治派別的政府雇員的觀點,并承認一些研究問題將受益于整個研究過程中更廣泛的社區參與,以使研究問題與公眾利益保持一致,并對公眾關于理想的信息完整性水平、實現自由表達的方法和對人權的尊重的觀點做出反應。
本路線圖不對管理數字信息生態系統的法律或法規做出任何決定或建議,也不主張使用任何特定的方法或行動來應對信息完整性挑戰。相反,它的目的是推動科學發展,擴大政府雇員和政策制定者、企業家和公司、個人和社區組織、教育工作者、非營利組織和外國合作伙伴的循證選擇的數量,以加強信息生態系統在健康辯論和自由表達蓬勃發展的公開交流中的作用。
信息完整性研發應側重于了解人們如何辨別高完整性(即真實、準確、可信、透明的審查)和低完整性的信息和信息生態系統,如何應對不確定或模糊的信息,如何減輕和恢復信息操縱的影響,以及如何享受開放的信息生態系統的好處(見第1.6節和本文所用術語的解釋)。同時,本路線圖優先考慮的研究必須尋求為社區提供理解,以加強信息交流的完整性和美國社會在整個信息生態系統中維護基本自由。同樣,它應該為人們和系統提供工具,使其能夠有效地運作,即使在信息被操縱的情況下。為了實現高完整性的信息生態系統的愿景,研究應該集中在以下目標上。
完整性評估。加強人們用來或希望用來辨別高完整性和低完整性信息的方法、敘述和信息生態系統的特征。
危害緩解。識別可用于防止或減少信息操縱所造成的可避免的傷害的策略,并評估其在不同人群、文化、社區和傷害類型中的有效性。
復原力。確定使人們更容易在可能有問題的信息背景下進行操作的技能和策略,加強溝通策略和工具,使社區能夠在開放的信息生態系統中逐步實現并保持適當的信息完整性水平,即使在存在不確定性或主動操縱的情況下。
高質量的證據。收集嚴格的經驗證據,以評估旨在應對信息完整性挑戰的戰略和技術;向決策者明確傳達高質量的證據,為制定相關的公共政策、組織層面的溝通過程以及關于采用、加強或淘汰哪些技術的決策提供信息。
為了實現這些目標,本路線圖為促進和推動信息完整性科學及其在現實世界中的應用確定了研究重點。這些研究重點涉及信息完整性方面的廣泛關注和挑戰,描述了基礎研究、使用啟發研究、轉化研究和成果研究的關鍵目標,以及為政策和實踐提供信息的戰略。預計各個聯邦機構將根據自己的專長專注于研究重點的子集。因此,貢獻機構將根據他們的重點和任務來制定和交流他們的優先事項。
總的來說,這些研究重點尋求回答這些問題。
1.信息生態系統中的人類、社會、技術和系統因素如何影響信息創造、交流和消費的完整性,以及如何通過建模、測量和分析來加強對基本機制的理解?
2.哪些保障措施、技能和策略可以幫助遇到被操縱的、誤導的或不確定的信息的人,其風險和好處是什么,其有效性在不同的環境、文化、信息來源和人群中如何變化?
3.技術如何能使社區更容易促進和維持高集成度的信息生態系統?
4.哪些方法和工具可以幫助人們在保護第一修正案和人權的同時,識別、減輕、回應或主動揭穿被操縱的信息運動?
5.數據訪問、研究基礎設施和伙伴關系如何能夠加速并提高信息完整性研究的嚴謹性?
6.信息完整性研究產生的知識和見解如何能夠以幫助整個社會的方式為政策和實踐提供信息?
以下六個研究重點試圖解決這些問題。
研究重點1:分析、建模和測量信息生態系統。推進信息完整性科學需要模型和測量,用它來實例化、評估、迭代和改進信息生態系統的理論。計算機科學、認知科學、經濟學、流行病學、語言學、政治學、心理學、社會和行為科學以及其他相關學科已經開發了方法、模型和理論,為信息生態系統的不同方面提供解釋。推進信息完整性科學的一個挑戰是將相關的方法、模型和理論聯系起來,以捕捉系統中的相互依存關系,并解釋出現的新情況,包括與信息供應鏈、激勵結構、人類元素和技術組件有關的機制。需要跨學科的理論來推進科學理解,并提出研究問題,從而找到有效和高效的方法來減輕危害,支持信息完整性,并加強對信息操縱的抵御能力。需要在測量方面取得重大進展,以了解信息生態系統,測量跨媒體平臺的動態,探索信息生態系統如何連接不同的人群,并評估減輕操縱信息的策略。
研究重點2:研究協助人們的保障措施。被操縱的信息很容易產生,可以在大范圍內自由傳播,而且不容易從源頭上阻止。鑒于這些現實,研究幫助人們、社區和組織--包括那些遇到被操縱信息的人和應對被操縱信息運動的人--的保障措施至關重要。我們需要進行研究,以確定保障措施、技能和策略,以減少人們對被操縱信息的脆弱性,并使人們能夠成為精明的信息消費者。重要的是,保障措施還必須尊重信息生態系統中的參與者的自主權,保護自由表達,并支持人們對信息進行知情和獨立評估。需要研究在學校和其他正式的學習環境之外使個人和社區熟悉數字、媒體和信息素養的機會,以及如何使這些支持機制適應個人和社區的需要。
研究重點3:構思技術方法以加強高集成度的信息交流。信息生態系統中的設計決定會產生預期和非預期的效果,影響被操縱信息的產生、流行和持久性。例如,有證據表明,隱藏的設計特征,如內容可以被重新分享的次數或表情符號反應對內容傳播的影響,可能會以用戶看不見的方式影響被操縱信息的流行和范圍。同樣地,平臺設計元素也有助于感知到的兩極分化。這些經驗性的發現提出了這樣的問題:技術如何能更好地實現社區分享觀點和匯聚到高完整性結論所需的信息交流類型。關鍵問題包括:技術如何幫助社區在開放的信息生態系統中建立和維持高完整性的交流,來源追蹤技術如何幫助設計可信的信息渠道,以及用戶定制如何使人們能夠以吸引對對話有真正興趣的用戶的方式來影響信息生態系統,從而追求高完整性的理解。還需要對生態系統設計和信息完整性屬性之間的因果關系進行更多的研究,包括對結果指標、算法設計以及設計選擇、社會效益和與被操縱信息有關的危害之間的機理關系進行基礎研究。
研究重點4:了解應對受操縱信息運動的有效策略。傳播被操縱信息的運動值得特別關注,因為它們具有動態性,并不斷開發新的策略來規避檢測和測量。例如,深度造假技術使創建虛假身份變得非常容易,需要取得進展,以防止人們偽造政府身份,防止外國行為者在網上冒充美國人,以及防止不良行為者欺騙政府或公眾。全球數字連接、沉浸式信息技術和廣泛使用的數字營銷技術的擴展使受操縱信息產業迅速增長。由外國、犯罪組織和其他惡意行為者發起的運動,由于戰術和造假技術的快速發展,帶來了復雜的技術挑戰。在信息領域惡意行為者擴張的同時,越來越需要建立機制來解決導致傷害的信息運動,如負面的健康結果、金融盜竊、激進化、破壞國際聯盟和民主進程的退化。需要人機合作的方法來實現早期預警、主動宣傳和減輕廣泛的傷害,既要改善與有可能成為目標的社區的溝通,又要迅速適應對手的策略。有效的方法必須解決傳播被操縱的信息的低成本與預測、減輕和補救這種被操縱的信息和運動的影響的高成本之間的不對稱問題。 需要研究了解操縱信息的動機,以及如何對操縱信息的活動施加成本,以阻止其啟動。研究還需要一個多模態的視角,因為這些活動在眾多的網絡平臺、電視、印刷和電子媒體以及線下渠道中流動。最后,跨學科的方法仍然至關重要,包括人工智能、國家安全、經濟學、教育科學、行為和社會科學,以及與被操縱信息的目標人群相關的專業知識領域。
研究重點5:促進數據訪問和伙伴關系。信息完整性研究的重大進展將需要關于低完整性和高完整性信息在多種模式、平臺和渠道上的生產、傳播(例如,數字路由)和消費的全面、縱向數據。與公共衛生或金融等領域的影響類似,研究將受益于聯合體,聯合體允許許多相關方--平臺公司、研究人員、監管者和最終用戶--以協調、負責、保護隱私和透明的方式匯總數據、工具、方法和洞察力。這種研究聯合體需要解決與信息完整性生態系統有關的問題,如充分保護專有信息、個人身份信息和其他類型的敏感數據,以及旨在破壞參與研究者的欺騙性敘述的風險。此外,這種研究聯合體必須考慮到第一修正案和人權因素,并承認私營公司在如何處理信息完整性問題上保留最終的自由裁量權,但要受到適當的法律約束。
研究重點6:將研究與政策和實踐相結合。最終,合作關系應該超越數據的透明度和測量,以改善結果,如提高公眾對如何減少信息操縱的認識。需要多種研究方法,包括基礎研究人員提供健全的測量技術和可推廣的知識,使用啟發研究人員為新的原型消除風險,轉化研究人員為政策制定者和實踐者增加這些原型的效用,以及結果研究人員在真實世界的背景下測量縱向效果。
本路線圖最后提出了一個行動計劃,確定了公共和私人組織在信息完整性研發中的潛在作用,并描述了信息完整性研發界及其合作伙伴需要考慮的具體行動。
小型無人駕駛飛機系統(sUAS)的指數式增長為美國防部帶來了新的風險。技術趨勢正極大地改變著小型無人機系統的合法應用,同時也使它們成為國家行為者、非國家行為者和犯罪分子手中日益強大的武器。如果被疏忽或魯莽的操作者控制,小型無人機系統也可能對美國防部在空中、陸地和海洋領域的行動構成危害。越來越多的 sUAS 將與美國防部飛機共享天空,此外美國對手可能在美國防部設施上空運行,在此環境下美國防部必須保護和保衛人員、設施和資產。
為了應對這一挑戰,美國防部最初強調部署和使用政府和商業建造的物資,以解決無人機系統帶來的直接風險;然而,這導致了許多非整合的、多余的解決方案。雖然最初的方法解決了近期的需求,但它也帶來了挑戰,使美國防部跟上不斷變化問題的能力變得復雜。為了應對這些挑戰,美國防部需要一個全局性的戰略來應對無人機系統的危害和威脅。
2019年11月,美國防部長指定陸軍部長(SECARMY)為國防部反小型無人機系統(C-sUAS,無人機1、2、3組)的執行機構(EA)。作為執行機構,SECARMY建立了C-sUAS聯合辦公室(JCO),該辦公室將領導、同步和指導C-sUAS活動,以促進整個部門的統一努力。
美國防部的C-sUAS戰略提供了一個框架,以解決國土、東道國和應急地點的sUAS從危險到威脅的全過程。國防部的利益相關者將合作實現三個戰略目標:(1)通過創新和合作加強聯合部隊,以保護國土、東道國和應急地點的國防部人員、資產和設施;(2)開發物資和非物資解決方案,以促進國防部任務的安全和可靠執行,并剝奪對手阻礙實現目標的能力;以及(3)建立和擴大美國與盟友和合作伙伴的關系,保護其在國內外的利益。
美國防部將通過重點關注三個方面的工作來實現這些目標:準備好部隊;保衛部隊;和建立團隊。為了準備好部隊,國防部將最大限度地提高現有的C-sUAS能力,并使用基于風險的方法來指導高效和快速地開發一套物質和非物質解決方案,以滿足新的需求。為了保衛部隊,國防部將協調以DOTMLPF-P考慮為基礎的聯合能力的交付,并同步發展作戰概念和理論。最后,作為全球首選的軍事伙伴,國防部將通過利用其現有的關系來建設團隊,建立新的伙伴關系,并擴大信息共享,以應對新的挑戰。
通過實施這一戰略,美國防部將成功地應對在美國本土、東道國和應急地點出現的無人機系統威脅所帶來的挑戰。在這些不同操作環境中的指揮官將擁有他們需要的解決方案,以保護國防部人員、設施、資產和任務免受當前和未來的無人機系統威脅。
這是一個顛覆性技術快速變革的時代,特別是在人工智能(AI)領域。雖然這項技術是由商業部門為商業開發的,但人工智能在軍事應用方面的明顯潛力,現在正促使世界各地的武裝部隊對人工智能防御雛形系統進行試驗,以確定這些系統如何能夠最好地用于作戰與和平時期的任務。
澳大利亞也不例外,在2020年國防戰略更新中分配了資金,開始將人工智能能力引入國防。這將涉及開發解決戰術級和戰略級軍事問題的人工智能應用程序,建立一個熟練的人工智能勞動力,并與澳大利亞合作伙伴和盟友合作,將倫理學納入人工智能應用程序,并進行人工智能實驗。今年在澳大利亞首都地區費爾伯恩設立的國防技術加速實驗室是這一計劃的具體行動體現。
彼得-雷頓(Peter Layton)的論文考慮了人工智能在未來海、陸、空作戰行動中的戰術和作戰層面上可能發揮的作用,為這一廣泛的活動做出了貢獻。這是一個很少被研究的領域,因為到目前為止,大部分的討論都集中在關鍵的技術問題上。這些審議表明,人工智能可能是未來戰爭中的一項重要技術,但仍有許多不確定因素。本文提供了一個起點,在此基礎上開始辯論,這將有助于解決其中一些不確定性。
本文認為,人工智能將滲透到大多數軍事機器中;然而,它的通用性意味著它很可能是在現有作戰層面結構中被使用。鑒于此,人工智能在中短期內的主要作戰用途是“尋找(find)和欺騙(fool)”。人工智能/機器學習尋找隱藏在高度混亂背景中的目標非常出色;在這個應用上,它比人類更好,而且速度更快。然而,人工智能可以通過各種手段被欺騙;其強大的尋找能力缺乏穩健性。這兩個關鍵特征在應用于當前海、陸、空作戰層面的思考時,可能會產生巨大的影響。
本文初步設計的作戰概念與沒有人工智能技術的作戰概念明顯不同。
所討論的概念旨在激發人們對人工智能戰場上人機協作作戰的思考。這樣的戰場在目前看來可能有些猜測,幾乎是科幻小說。即便如此,許多國家已經在規劃、研究和開發方面取得了很大進展。鑒于將軍事力量調整到新方向所需的漫長準備時間,這一旅程需要從現在開始。
人工智能(AI)技術突然變得對軍事力量很重要。美國國防部(US DoD)已將人工智能的投資從2016-17年約6億美元增加到2021-22年25億美元,橫跨600多個項目。中國已經通過了一項“下一代人工智能發展計劃”,旨在到2030年使中國成為人工智能領域的杰出國家,并使人民解放軍從“信息化戰爭”轉向“智能化戰爭”。更引人注目的是,俄羅斯總統普京宣布,“人工智能是未來......誰成為這個領域的領導者,誰就會成為世界的統治者”。這些高級別的倡議和聲明正在產生結果。
在美國,美國海軍(USN)的“海上獵人”號(USV)在沒有船員的情況下從加利福尼亞航行到夏威夷再返回,利用船上的傳感器、雷達和攝像機數據,通過人工智能進行導航。同時,在美國國防部高級研究計劃局(DARPA)的支持下,一架由人工智能驅動的F-16模擬戰斗機最近在多次模擬的近距離空戰中全面擊敗了由非常有經驗的人類飛行員控制的類似模擬。在一項研究陸戰的類似評估中,美國陸軍(US Army)已經確定,一支由人工智能驅動的部隊比一支非人工智能驅動的部隊擁有大約10倍的戰斗力。
中國目前正在應用人工智能,通過指揮和控制系統的自動化來提高其戰場決策的速度和準確性,制定預測性作戰計劃并解決情報、監視和偵察數據融合的挑戰。中國還開始試用人工智能USV,以備在南海使用,并開始試驗無人駕駛坦克,而一家中國私營公司公開展示了人工智能武裝的蜂群無人機。
俄羅斯落后于美國和中國,但現在正在實施一項國家人工智能戰略以迎頭趕上。在軍事領域,俄羅斯有幾項工作正在進行。一條主線是將人工智能應用于信息戰,在戰術上用于發動心理戰,在戰略上用于破壞對手國家的社會凝聚力。另一條線是通過開發無人駕駛地面車輛(UGVs)、遠程傳感器、戰術指揮和控制系統以及無人駕駛航空器(UAVs),使用人工智能來提高陸地作戰行動的有效性。另一個努力方向是國家防空網絡的指揮和控制系統的自動化。
初步跡象表明,人工智能可能是未來戰爭中一項非常重要的技術,但仍然存在不確定性。雖然人工智能在民用領域,特別是在消費類產品中,被廣泛使用,但在軍事環境中才剛剛接近實際部署。此外,它仍然沒有在真正的戰斗行動的惡劣試驗場上得到驗證。即便如此,人工智能已經成為軍事力量考慮其未來時不可忽視的技術。
重要的是,在可預見的未來,可用的人工智能技術是狹義的,而不是通用的。狹義人工智能等于或超過了人類在特定領域內特定任務的智能;其表現取決于應用環境。相比之下,通用人工智能等于人類在任何領域任何任務中的全部表現。何時能實現通用人工智能仍然值得商榷,但似乎還有幾十年的時間。近中期的全球軍事興趣在于如何在現代戰場上使用狹義的人工智能技術。
不足為奇的是,人工智能的定義往往與人類智能相提并論。例如,2018年美國國防部人工智能戰略將人工智能定義為“機器執行通常需要人類智能的任務......”。這種理解將技術擬人化,并無意中將對人工智能應用的思考限制在那些可以由人類執行的任務上。
在某些應用中,人工智能可能比人類做得更多或更少。人工智能和人類能力的維恩圖在某些領域可能會重疊,但認為它們重合是有點虛偽的。在提供解決問題的見解上,人工智能可能是智能的,但它是人工的,因此,它的思維方式是人類所沒有的。
因此,本文在考慮人工智能時,更多的是考慮這種技術能夠執行的廣泛功能,而不是考慮它與人類能力的關系。2019年澳大利亞國防創新委員會采取了這種方法,將人工智能定義為“用于執行以目標為導向的任務的各種信息處理技術,以及追求該任務的推理手段”。
初一看,這個定義似乎并不精確,沒有包括人工智能可能為軍事或民用目的實際執行任務。但這種模糊性是當代人工智能應用的一個關鍵屬性。人工智能可以以多種方式應用,可以被認為是一種普遍存在于社會中的通用技術。通用技術的一個早期例子是電力,現在它被廣泛使用,以至于它的持續存在和使用,就所有的意圖和目的而言,都是簡單的假設。電能使惰性機器活躍起來,人工智能也將以自己的方式,通過推理為它們提供完成任務的能力。人工智能似乎將注入許多軍事機器,因此未來的戰場將不可避免地以某種方式由人工智能支持。
為了取得對對手的作戰優勢,軍隊不斷尋求更大的戰斗力。傳統上,技術是以一種綜合的方式在戰場上使用的,它能最好地利用人類和機器的長處,同時盡量減少兩者弱點的影響。人工智能似乎也可能是類似的。可以預計,人工智能在與人類謹慎地合作時,而不是在某種獨立的模式下,會變得最有效。
這種考慮強調了新技術本身并不會突然間帶來戰場優勢,而是在于人類如何運用它。對早期技術創新的歷史分析指出,擁有指導如何使用這些新技術的合理概念是軍隊成功將其投入使用的關鍵。歷史學家威廉姆森-默里和艾倫-米萊指出:
在戰術層面,與戰爭現實的聯系是最緊密的。戰略規定了目標、總體方針和使用的力量,但在與聰明和適應性強的對手戰斗中處理這些力量的卻是戰術層面。雖然戰斗的成功可能不會導致戰略的成功,正如美國在越南的戰爭所說明的那樣,反之亦然。一個好的戰略在面對持續的戰術失敗時不可能成功。克勞塞維茨寫道:一切都取決于戰術結果......這就是為什么我們認為強調所有的戰略規劃都只依賴于戰術上的成功是有用的......這在任何情況下都是決策的實際基本依據。戰術通常被認為涉及友軍相互之間以及與敵人之間的分布和機動,以及在戰場上使用這些部隊。
本文旨在為在未來的人工智能戰場上使用人機團隊制定作戰概念。這樣的戰場,特別是當擴大到陸戰以外的空戰和海戰時,有一個混合的線性和深層的方面,具有消耗和機動的概念。設計這些作戰概念將為潛在的狹義人工智能系統如何在戰爭的戰術和作戰層面上使用提供一個廣闊的視野。
首先,本文討論了組成人工智能技術包的各種技術要素。這些要素包括先進的計算機處理和大數據,以及與云計算和物聯網(IoT)有關的具體方面。
第二章研究了利用人工智能發動戰爭的問題,并為防御和進攻制定了通用的作戰概念。這些概念位于作戰和戰術層面之間的模糊界面,涉及友軍相對于對手的分布和機動,以及友軍在戰場上的運用。
第三章、第四章和第五章分別將人工智能防御和進攻的兩個通用概念應用于海洋、陸地和空中領域。每個領域的戰斗在分配和操縱友軍以及與敵人交戰方面都有很大的不同,因此有必要提出單獨的人工智能作戰概念。沒有一個單一的概念能夠充分涵蓋所有三個領域,除非在很高的抽象水平上,但理解其含義可能會變得困難。提出這種具有前瞻性的概念似乎接近于投機性的小說。為了避免這種情況,每個概念都特意以當代作戰思維為基礎,并討論了當前和新興的人工智能支持的海、陸、空平臺和系統,以說明所提出的想法。
設計這些作戰概念的目的是激發思考,并啟動關于未來和如何備戰的辯論。本文提出的作戰概念旨在成為辯論其他人工智能戰場概念的實用性、可能性和有用性的基礎。只有通過對建議進行批判性分析,并不斷重構它們以進一步分析和演化,才能朝著最佳作戰概念取得進展。
本文所討論的概念在性質和范圍上都是有意限制的。就性質而言,海、陸、空的概念是:為了保持每個概念的重點,它們不是聯合或合并的。重要的是,這種狹隘性意味著一些領域并沒有包括在內,如俄羅斯在影響力戰爭中使用人工智能或中國在社會管理和內部防御中使用人工智能。出于類似的原因,每個概念都有一個狹窄的范圍,專注于戰爭,只有限地關注后勤,并避免關鍵領域,如教育、培訓、行政和指揮與控制。值得注意的是,除了與傳統的陸、海、空領域的戰術交戰的關系外,沒有討論網絡和空間這些新領域。
本文將人工智能這種新技術與戰爭的作戰方式和戰術使用選擇聯系起來。有了這樣一個重點,本文就與許多武裝部隊制定的眾多人工智能戰略和計劃不同。一般來說,這些戰略和計劃都是向內看的,目的是闡述人工智能作為一種技術將如何被研究、獲得并引入到他們的具體服務中。本文旨在補充這些人工智能技術戰略和計劃,將它們與更廣泛的作戰業務聯系起來,發揮作用。
2022年6月15日,英國國防部在倫敦科技周人工智能峰會上發布了《國防人工智能戰略》,旨在“雄心勃勃、安全和負責任地”使用人工智能的戰略和相關政策。本戰略支持創建新的國防人工智能中心(DAIC),以提供前沿技術樞紐,支撐英軍使用和創新相關技術。本戰略概述了以下內容:一是在國防中使用人工智能的新倫理原則;二是人工智能在國防部加強安全和現代化的地位和應用;三是考慮通過人工智能研究、開發和實驗,通過新概念和尖端技術徹底改變武裝技術能力,并有效、高效、可信地向戰場交付最新裝備。該戰略將將成為英國人工智能戰略的關鍵要素,并加強國防在政府層面通過科學和技術獲取戰略優勢的核心地位。
圖 英國國防部發布《國防人工智能戰略》
(本文根據原文編譯整理,僅供交流參考,觀點不代表本機構立場。)
英國國防部人工智能戰略的愿景是:以英國規模為標準,成為世界上最有效、最高效、最可信和最具影響的國防組織:
有效——提供戰場制勝能力和支持,以及英國與盟友關于人工智能生態系統合作的能力;
高效——通過創新使用技術交付能力,進行作戰并實現生產力效應;
可信——基于人工智能系統的安全性和可靠性受到公眾、盟友和人民的信任,根據英國核心價值觀合法合規地使用人工智能;
影響——積極參與合作和引領人工智能技術的全球發展和管理趨勢;
二**、背景和必要性******
英國國防部《綜合評估(2021)》強調指出,國家在人工智能領域的卓越表現是確保英國在2030年前成為“科技超級大國”的核心。英國國防部《國家人工智能戰略(2021年)》指出,人工智能在改寫整個行業的規則、推動經濟大幅增長和改變生活的所有領域方面具有巨大潛力。英國國防部《綜合作戰概念 (2020年) 》描述了無處不在的信息和快速的技術變革如何改變了戰爭的性質。在軍事作戰的各個領域,沖突正變得愈發復雜。新技術產生大量數據,解鎖新的威脅和漏洞,并通過如蜂群無人機、高速武器和先進網絡攻擊等下一代先進能力擴大潛在攻擊的規模。
人工智能技術以及其影響可能會極大地縮短決策時間,使人類理解負擔加重,而且這些在現代戰場中需要快速做出反應。正如《國防司令部文件(2021)》所指出的,“未來沖突的勝負可能取決于所采用人工智能解決方案的速度和效率”。因此信息作戰變得越來越重要。簡而言之,當代國防正在發生一場根本性的劇變,與人工智能相關的戰略競爭正在加劇,因此必須迅速、主動和全面應對。
本戰略闡述了英國將如何應對這一重大戰略挑戰,其應該引起英國國防部的重視,并參與部隊發展和國防轉型,英國國防部需要明確其機構與人工智能相關的要素并采取相應行動,以在后續執行和交付方面發揮關鍵作用。
三、發展途徑
**一是英國國防部需要轉變為“人工智能就緒”的組織。**具體措施是:1)推動文化、技能和政策變革,培訓領導人,提高人員技能,并加強國防人工智能和自主部門的組織能力;2)創建國防人工智能技能框架和新的人工智能職業發展和晉升路徑;3)將數據視為關鍵戰略資產進行管理和應用,建設新的數字主干網絡和國防人工智能中心。
**二是在速度和規模上采用和利用人工智能,以獲得防御優勢。**具體措施是:1)將人工智能視為能力戰略和部隊發展過程中戰略優勢的關鍵來源;2)短期路線采用成熟的數據科學、機器學習和先進的計算統計技術提升效果和生產力,長期路線進行尖端人工智能技術研發;3)采用多學科多技術將人類認知、創造力和責任與機器速度分析能力相結合以評估人工智能系統的脆弱性和威脅;4)與盟友和伙伴密切合作開發創新能力解決方案以應對共同的挑戰。
**三是推動和支持英國國防和安全人工智能生態系統。**具體措施是:1)通過英國工業和學術人工智能的雄厚基礎以及政府的支持建立信心并明確要求;2)視人工智能生態系統為戰略資產,消除行業壁壘,建立更具活力和一體化的伙伴關系;3)促進行業聯系建立新的國防和國家安全人工智能網絡,促進人才交流和共創,鼓勵業界投資國防相關的人工智能研發,并簡化國防數據和資產的獲取。4)促進中小企業,使監管方法現代化,支持業務增長并最大限度地利用國防人工智能相關知識產權促進相關技術商業化。
**四是塑造全球人工智能發展,以促進安全、穩定和民主價值觀。**具體措施是:1)按照英國的目標和價值觀塑造人工智能的發展,促進倫理方法,并影響符合民主價值觀的全球規范和標準;2)促進安全與穩定,確保英國的技術進步得到適當保護,同時探索建立信心和將軍事人工智能使用風險降至最低的機制;3)考慮可能出現的極端甚至事關生存的風險,并積極與盟友和合作伙伴接觸,制定未來的安全政策,尋求建立對話,以降低戰略錯誤、誤解和誤判的風險。
四、優先效果
通過采用人工智能技術實現本戰略目標,使英國武裝部隊實現現代化,并迅速從工業時代的聯合部隊過渡到敏捷信息時代的綜合部隊,國防部將受益于效率和生產率的提高,其期望的優先效果如下:
決策優勢:通過更充足、更分散的決策制定和基于威脅的機器快速響應,提高作戰節奏和靈活性。
效能:通過智能自主提高靈活性、效能和可用性。
解鎖新能力:通過開發新的作戰方式確保作戰優勢,增強軍事效果,保護人民免受傷害。
武裝部隊:減輕部隊負擔,并將人類決策集中在基于獨創性、背景思維和判斷力的高價值職能上。
五、戰略綜述總結****
**六、**結束語
人工智能必須成為未來必不可少的技術,其也促使著英國國防部改變對現代技術的看法,調整其技術方向和戰略需求,全面擁抱世界領先的人工智能解決方案和能力,推進其國防業務中觀念、文化、規劃和交付方面的持久變化,并將其作為國防戰略融入國防領域,以確保英國軍隊成為敏捷信息時代的綜合部隊。
編譯:船の心
END
世界軍事電子領域2021年度十大進展
在俄羅斯-烏克蘭軍事行動之后,北約盟國終于認識到有必要重新武裝,以威懾和抵御俄羅斯。德國政府宣布它將把國防開支增加一倍以上,其他國家也紛紛效仿。由于缺乏資金不再是主要制約因素,歐洲的北約盟國現在將重建其軍事力量。但在重建的同時,他們的軍隊必須應對今天的緊迫挑戰,為明天的沖突做好準備。保持--或達到--軍事技術優勢將有助于北約未來的作戰能力,并首先要求具備創新能力。不幸的是,由于各種原因,經過幾十年的預算削減,軍事創新不再是西方軍事組織的強項。北約即將出臺的戰略概念需要為全聯盟刺激軍事創新的努力提供指導并設定界限。本文概述了聯盟在這一努力中所面臨的挑戰,并為應對這些挑戰提出了具體建議。
現在人們普遍承認,軍事技術和軍事戰略的發展正在重塑戰爭的特征,并重新分配地區的力量平衡--在大國之間(例如美國和中國)以及小國之間(例如阿塞拜疆和亞美尼亞)。這些發展影響了戰爭的所有層面。例子很多:深度學習的進展正在加速OODA(觀察、定向、決定、行動)循環,并改變指揮的動態;A2/AD(反介入區域封鎖)能力的擴散正在破壞空中優勢,并使競爭環境趨于平等;傳感器的無處不在正在刺激物理環境的全景化,迫使人們采取新的軍事行動方式;各種規模的無人系統的普遍存在正在使更多的行為者能夠從遠處進行攻擊。但是,在新事物誕生的同時,舊事物不會凋零,至少現在不會。事實證明,現有的武器系統遠遠沒有被淘汰。它們可以被用來威脅和施加巨大的破壞。作戰坦克具有軍事重量(weight),火箭和導彈具有破壞力和摧毀力。盡管有大量關于靈活性和敏捷性的討論,但大量裝備(mass)仍然很重要,且現代技術未能解除當代戰爭的迷霧。
因此,一個合理的斷言是,戰爭的特點可能正在發生變化,但預期的軍事事務革命(RMA)肯定還沒有實現。用軍事創新的話說,當軍事組織采用新技術、開發使用這些技術的作戰概念并調整其組織結構以提供支持時,就會發生RMA。這反過來又使 "武裝力量的戰斗潛力和軍事效力大幅提高--往往是一個數量級或更大"。 下一個RMA被描述為圍繞 "自主武器、多領域機器人集群、自組織防御系統、自動化武器、大數據分析以及機器和深度學習程序"。 預計它將轉化為超強的態勢感知和理解,并加速決策,以更高的速度實現更高的精度。預計它將以人機團隊為特色,人和機器無縫地一起運作;大量的一次性無人系統可以在類似蜂群的編隊中半自主地運作;以及數量較少的分布式人類單位利用戰斗云在戰場上尋找作戰方式,以越來越快的戰爭的形式呈現。
軍事戰略家和未來學家對下一個軍事事務革命(RMA)到來的確切時間跨度并不確定。雖然許多新興和顛覆性技術仍然相當不成熟,但邁克爾-奧漢隆預計,"與軍事創新有關的技術變革在未來20年可能比過去20年證明的速度更快、影響更大。" 在2021年的一項研究中,基于廣泛的文獻回顧和深入的專家訪談,我的研究小組也評估了在下一個區域軍事聯盟愿景中出現的關鍵技術,將對國際安全產生巨大影響(見表1)。
表1:敏感技術及其對國際安全的影響(來源:HCSS)
在未來一段時間內,計算機和機器人技術以及人工智能和大數據應用方面的快速變化預計將繼續進行,并對武器系統產生重大影響。正如O'Hanlon所寫的那樣:"如機器人系統集群等在戰場上既可作為傳感器又可作為武器的時代,將可能會真正到來。此外,激光武器、可重復使用的火箭、高超音速導彈、軌道炮、無人潛水艇、生物病原體和納米材料可能會發展得非常快。總的來說,可能是也可能不是一場革命。但其潛力是不容忽視的"。
因此,未來的時期可以說是一個過渡時期。過渡時期充滿著不確定性,但那些頑固地堅持自己的老路的人很可能會面臨失敗。與此相反,那些成功駕馭過渡期的人必然會在下一次軍事沖突中勇往直前。
因此,真正的不確定性取決于軍事組織是否能夠通過發展概念和調整組織結構,富有成效地利用技術進步,使其在戰場上獲得競爭優勢。目前的技術進步速度與高水平的地緣政治競爭(以及隨之而來的高水平的威脅感)相結合,很可能會激勵沖突各方投入大量。
在認識到創新的必要性后,北約已經實施了一系列舉措來支持創新,特別是在新興和顛覆性技術領域,如人工智能、量子技術和生物技術。它在2021年2月宣布了一項戰略("培養和保護:北約關于新興和顛覆性技術的一致性實施戰略"),并在2021年7月創建了DIANA(北大西洋防御創新加速器),以 "促進北約盟國之間的技術合作,促進互操作性,鼓勵開發和采用技術解決方案"。它還建立了價值10億歐元的北約創新基金,在2021年10月投資具有軍事用途的尖端兩用技術。至少在紙面上,北約似乎正在采取真正的措施,為明天的沖突做準備,但我們從軍事歷史中知道,新技術的發展是必要的,但遠遠不夠。畢竟,"要在軍事事務中帶來一場革命,通常需要兩樣東西:一個使之成為可能的客觀發展,以及一個能抓住這種發展的人,駕馭它,并指導它"。
因此,北約的新戰略概念應提供指導和方向,說明聯盟如何管理過渡,利用現有和新興技術提供的機會,并提高其作戰潛力。聯盟需要注意以下陷阱,并注意以下建議:
"我有兩種問題:緊急問題和重要問題。緊急的不重要,重要的永遠不緊急,"美國總統艾森豪威爾在1954年說了一句著名的話。
對組織來說,一個常見的謬誤是,盡管有良好的意圖,但任何眼前的危機都會吸走組織的大部分注意力和精力。竭盡全力去處理當前的危險,而明天的挑戰卻被有效地忽略了。
軍事組織意識到了這種偏見,并將其組織分層為處理當前、未來和長期未來規劃的不同單位。然而,幾十年來的預算削減已經大大削弱了這些面向未來的單位所能支配的資源。在一些中小國家(SMPs),這些部門甚至被完全取消,人力被重新分配來處理當前事務。在其他中小國家,這些單位在機構層次中的地位被削弱,不利于它們在官方決策中的地位。因此,至少可以說,他們對實際能力組合發展決策的投入是微弱的。有必要避免重蹈覆轍,造成今天的局面:當 "重要 "最終變成 "緊急 "時,完全沒有準備好應對俄烏沖突。這可以在未來被避免,通過重振未來規劃部門,提高他們在官方機構中的地位,以及關閉展望活動和能力發展活動之間的循環。
當然,經過幾十年的衰敗,迫切需要加強現有部隊的裝備和庫存。填補關鍵的能力差距,補充庫存,加強軍事準備,提高軍事流動性:每一項都是重建北約作戰能力的必要因素。
事實上,歐洲北約成員國仍未實施所有必要的轉型,以完全收獲在20世紀90年代承諾的完全信息化戰場的技術成果,并且在指揮、控制、通信、計算機、情報、監視和偵察(C4ISR)、"壓制敵方防空能力(SEAD)、巡航導彈、彈道導彈防御、隱形飛機和電子戰資產 "以及作戰總部的部署和指揮方面都依賴于美國。但是,完全專注于重建部隊將阻礙對未來戰爭預測中所設想的未來武裝力量的創新。此外,一個危險的事實是,重新武裝將加強現有的支持者的地位,他們將保護現有的資產并阻礙變革。
要在翻新與創新之間取得適當的平衡,并沒有什么神奇的公式,也很難給出一個具體的數字(還因為漸進式的調整有時也會導致轉型),但有必要創造一個擁抱變化和支持實驗的環境--下文將詳細介紹。這也將有助于分配所需的手段,例如,將整個國防開支的至少2%分配給研究和投資(R&I)。
北約保持其軍事優勢的能力的一個真正風險在于過度關注硬件和平臺,而沒有充分考慮如何協同使用這些平臺來實現戰場上和戰場下的政治目標。正是硬件、軟件和濕件(即 "人的東西")的結合使情況發生了變化。
軍事創新源于技術、作戰概念和組織調整這三者。將這三者割裂開來可能會產生尋找問題的解決方案(而不是相反),并且不太可能為北約提供它所需要的軍事技術優勢。現在是時候縮小富有想象力的實踐者和長期規劃者之間的差距了。
國防組織應該建立紅色小組,并責成他們進行零基礎規劃:他們應該從一張白紙開始,考慮如何將技術(包括新舊技術)和作戰概念結合起來,以便在未來的戰爭環境中獲勝。這可以為新能力的發展提供信息,并推動創新而非更新的進程。同時,其他小組可以負責確定如何將創新的作戰概念應用于現有能力,以實現競爭優勢。這應該在北約成員國和北約層面進行。北約,特別是盟軍指揮部轉型(ACT),可以成為最佳實踐的重要收集者和優秀成果的傳播者,并在該領域的現有倡議的基礎上進行。
知識和思想在全球的思想市場上迅速傳播。這個全球思想市場不僅限于新聞和娛樂,而且還延伸到了戰爭領域。戰略家和國防規劃人員畢竟不是在真空中運作。
在思想的喧囂中,參與者爭先恐后,形式變得和內容一樣重要。技術被描述為新的和革命性的,并被斷言一定會破壞戰爭性質。這不可否認地灌輸了 "敬畏"的效果,但不一定能讓人了解這些技術將如何帶來勝利。然而,在許多21世紀的武裝沖突中,智力和道德因素與物質因素一樣重要,是戰斗和勝利的關鍵。要解決這種對技術的執著,需要作出更多的努力,思考在未來的安全環境中,什么樣的方式和手段的組合會帶來勝利或成功。同時,需要確定組織和作戰的要求,這當然包括--但顯然超出了--硬件。這將需要戰略、作戰、組織和規劃專家利用專門的未來戰爭模擬進行緊密合作。歸根結底,它始于將未來戰爭的預測和準備作為一個專業行業認真對待。這開始于在(國防)大學為未來的平民和軍事規劃者制定課程,在其中接受類似于軍事專業人員在戰爭藝術方面的培訓和教育。
長期以來,技術通貨膨脹的幽靈一直籠罩著國防能力的發展:每一代軍事平臺都會變得更加昂貴。這就造成了一種情況,即平臺的數量,特別是SMP的數量,已經大量減少。這也導致了頭號軍事強國--美國--與聯盟內其他國家之間的技術差距擴大。
當歐洲的北約成員國仍在努力充分吸收和利用C4SIR的進步所提供的機會時,美國已經開始了另一項創新戰略,以延長其軍事技術優勢。總的來說,平臺數量的減少和對未來互操作性的威脅意味著國防規劃者和他們在SMPs的政治決策者面臨著重要的選擇。
有必要重新認識SMP的優勢,以及它們能夠真正帶來什么。它需要接受的是,一些平臺不需要是 "軍事規格",但也可以不那么通用和堅固,在某些情況下是可有可無或一次性的,更容易負擔。它要求在考慮到國家實力、戰略文化、威脅觀念和盟國需求的情況下,處理國家專業化的敏感問題。通過一個與盟軍作戰概念緊密結合的戰略概念,可以作為一個有用的統一催化劑來指導這一努力。
建議北約接受這些挑戰并聽取這些建議。即將出臺的戰略概念應該為成功的軍事創新設定參數。但是,這就留下了文化這個不太實際的因素。
軍事創新只有在一個刺激而不是反對它的大環境中才能開花結果--正如軍事創新文獻中充分記載的那樣。近年來,在我與國防規劃人員和軍官的交談中,已經非常清楚地看到,幾十年的預算削減已經扼殺了大部分創新的沖動。僵化的官僚結構、不鼓勵破壞者的職業道路結構、注重保護和保存的廣泛文化:可以說,創新不再是現有軍事組織的DNA。好消息是,通過專門的努力,使用逆流的規劃方法,即自上而下和自下而上的同時實施,這種情況是可以改變的。這需要在機構層級中賦予創新者權力,調整職業道路以促進和獎勵創新者,更廣泛地認識到停滯不前意味著衰退。
作者:Tim Sweijs——海牙戰略研究中心(HCSS)研究主任、戰爭研究中心(WSRC)高級研究員
毫無疑問,今天圍繞人工智能(AI)的最復雜的治理挑戰涉及國防和安全。CIGI正在促進戰略制定:人工智能對軍事防御和安全的影響項目將這一領域的主要專家與來自國防部的40多名公務員和加拿大武裝部隊的人員聚集在一起,討論人工智能對國家安全和軍事領域的力量倍增效應。
這一努力依賴于一系列的四次研討會,以產生關于數據驅動技術如何引發巨大的技術重組的前瞻性思考,這將對加拿大的國防規劃產生深遠影響。具體來說,這些研討會集中在數據治理和政策(道德、云計算、數據準備和互操作性);決策(可信賴性、人機一體化、生物技術和問責制);模擬工具(培訓、兵棋推演、人機合作、機器人、自主和可信的人工智能);以及信息時代的加拿大情報(將人工智能用于情報)。CIGI還主辦了一個研究生研討會,以激勵整個加拿大在全球公共政策、計算機科學和安全等領域學習的新興學者。
本文探討了在人工智能(AI)和機器學習背景下的軍事特定能力的發展。在加拿大國防政策的基礎上,本文概述了人工智能的軍事應用和管理下一代軍事行動所需的資源,包括多邊參與和技術治理。
維持先進軍事能力的前景現在與人工智能的武器化直接聯系在一起。作為一項通用技術,人工智能代表著一種力量的倍增器,有能力重塑戰爭規則。事實上,在核彈頭仍然是一種單一的技術應用的情況下,人工智能有能力支持許多不同類型的武器和系統。正如北大西洋公約組織(NATO)的指導意見所指出的,人工智能和其他 "智能 "技術現在對加拿大及其盟國的未來安全至關重要。
新技術在改變戰爭的性質方面有著悠久的歷史。從馬匹和盔甲的使用到航空母艦和戰斗機的引進,人工智能和機器人只是代表了軍事技術發展的最新階段。常規武器與人工智能和機器學習的融合,必將重塑決策的性質和軍事戰略轉型中的武力應用。
即使當代人工智能系統的能力被限制在機器學習算法的狹窄范圍內,這種限制可能不會持續太久。與神經科學、量子計算和生物技術相重疊的發現領域正在迅速發展,代表了 "智能機器 "進化的未知領域。在這些新的研究領域中的科學和技術發現給加拿大的國防帶來了巨大的風險,但同時也代表著巨大的機遇。
顯而易見的是,新興技術已經成為高度緊張的地緣政治競爭的基礎,它與一系列商業產業和技術平臺相重疊。中國、俄羅斯、美國和其他國家和非國家行為者正在積極追求人工智能和其他前沿技術的軍事應用。競爭的領域包括云技術、高超音速和新導彈技術、空間應用、量子和生物技術以及人類增強。
盡管技術創新一直塑造著國家間沖突的性質,但新興和顛覆性技術(EDT)的規模和速度是前所未有的。加拿大的國防政策反映了這種擔憂,它呼吁使加拿大武裝部隊(CAF)適應不斷變化的地緣政治環境。加拿大國防規劃已著手擴大和發展加拿大武裝部隊,在新的軍事平臺整合中納入下一代偵察機、遙控系統和天基設施。
基于對不斷變化的技術環境的廣泛評估,加拿大國防部(DND)認識到,這個新時代的特點是全球力量平衡的變化。這包括在快速發展的創新經濟中大國競爭性質的變化。就像石油和鋼鐵為工業時代設定條件一樣,人工智能和機器學習現在也可能為數字時代設定條件。
這種規模的破壞是由技術和制度變化的融合所驅動的,這些變化可以以新的和不可預測的方式觸發復雜的反饋回路。在這個新的環境中,人工智能技術將迫使世界各國軍隊投射力量的能力倍增。確定軍事人工智能發展中的護欄對于避免未來危機至關重要。應用減少風險的措施來識別和減輕軍事人工智能可能帶來的一系列風險將是關鍵。事實上,在這些能力完全嵌入世界上目前和未來的軍隊之前,治理人工智能可能會更容易。
從整體上看,這種轉變預示著從初級機器到數據驅動技術和精密電子的巨大轉變。這種物理、數字和生物技術的加速融合代表了一場巨大技術革命的早期階段。在全球范圍內管理這些新興和顛覆性的技術,對于減少未來沖突的風險至關重要。
從人工智能和機器人到電池存儲、分布式賬本技術(DLT)和物聯網(IoT),新興和顛覆性技術(EDT)現在正在激起一個商業創新的新時代。這一巨大的技術變革景觀正在醞釀一場社會和經濟變革,對中央銀行的發展具有巨大影響。正如北約最近的一份報告所指出的(北約新興和顛覆性技術咨詢小組2020),這些技術包括:
→ 人工智能和機器學習。人工智能/機器學習的發展及其對創新的潛在影響。這包括神經形態計算、生成式對抗網絡,以及人工智能從已經收集或尚未收集的數據中揭示出意想不到的見解的能力。
→ 量子技術。正在進行的從量子過程研究中獲得的知識轉化為量子技術的應用,包括量子計算、量子傳感、量子密碼系統,以及在量子尺度上對材料的操縱和開發。
→ 數據安全。用于保障和損害通信、數據交易和數據存儲安全的算法和系統的設計,包括量子證明加密方法、區塊鏈和分布式賬本架構,以及更廣泛的網絡安全領域。
→ 計算功能的硬件。微型化、電力采集和能源儲存方面的進展,包括在全球范圍內提供數字化關鍵基礎設施所需的物理系統(物聯網)和機器人的廣泛使用及其對全球系統和流程的持續影響。
→ 生物和合成材料。從原子/分子層面的材料設計、合成和操作到中觀和宏觀尺度的創新,支持生物工程、化學工程、基因層面的操作、增材制造和AI介導的生成設計。
正如蒸汽機和印刷術激發了工業革命一樣,人工智能和機器人技術現在也在軍事技術的性質和全球力量平衡方面引發了巨大變革。人工智能的興起并非沒有歷史先例,但伴隨著人工智能的變化表明,需要對國防規劃進行更精確的調整,以適應一個數據驅動的時代。
在大國競爭和多極體系的背景下,人工智能已經成為競爭的一個特別焦點。中國、俄羅斯、美國和其他許多國家都在積極追求人工智能能力,并把重點放在國防和安全方面。例如,中國希望到2030年在人工智能方面領先世界,并期望通過利用大量的豐富數據,擴大其在人工智能產業化方面的領先優勢(Lucas和Feng,2017年)。
事實上,數據和數據驅動的技術現在占據了全球經濟的制高點。整個全球數據經濟的競爭已經與大國競爭密不可分(Mearsheimer 2021)。盡管美國和中國的經濟深深地相互依存,但中國在整個歐亞大陸不斷擴大的投資將很快使其成為世界貿易的中心。
技術優勢仍然是北約國家的關鍵支柱,但中國正在迅速趕超。即使美國在人工智能發現方面建立了強大的領先優勢,中國也越來越有可能在人工智能驅動的應用產業化方面占據主導地位。中國不僅有先進的商業能力,而且還有一個連貫的國家戰略。中國的技術部門正在達到專業知識、人才和資本的臨界質量,正在重新調整全球經濟的指揮高度(Lucas and Waters 2018)(見圖1)。
中國產業部署的大部分技術創新都是 "漸進式 "的,而不是 "顛覆式 "的,但現在這種情況正在改變。將新興市場聚集在其軌道上,中國前所未有的經濟擴張現在對世界經濟產生了引力(The Economist 2018)。標志性項目,價值數萬億美元的 "一帶一路 "倡議(世界銀行2018年)為圍繞電動汽車、電信、機器人、半導體、鐵路基礎設施、海洋工程以及最終的人工智能的廣泛戰略轉變提供了一個全球平臺(McBride和Chatzky 2019年)。
毫不奇怪,中國已經是國際專利申請的世界領導者(世界知識產權組織2020)。隨著自主機器(Etzioni和Etzioni 2017)、可再生能源基礎設施、量子通信(?iljak 2020)、增強型腦機接口(Putze等人2020)和天基武器(Etherington 2020)的出現,重新思考加拿大國家安全,特別是加拿大國防的性質的壓力正在增加。鑒于技術創新的步伐不斷加快,以及亞洲作為世界貿易中心的崛起(Huiyao 2019),來自國外的技術的影響可能是巨大的。
圖1:按購買力平價計算的國內生產總值預測(以萬億美元計)
人工智能的概念已被廣泛討論,但該術語的精確定義仍然是一個移動的目標。與其說人工智能是一項具體的技術或特定的創新,不如說它是一個材料的集合。事實上,即使人工智能技術已經成為廣泛的主流商業應用的基礎,包括網絡搜索、醫療診斷、算法交易、工廠自動化、共享汽車和自動駕駛汽車,人工智能仍然是一個理想的目標。
盡管人工智能領域的研究始于20世紀40年代,但隨著機器學習和計算機處理能力的改進,過去十年對人工智能興趣的爆炸性增長已經加速。人工智能的持續進步被比喻為在人腦中發現的多尺度學習和推理能力。當與大數據和云計算相結合時,預計人工智能將通過將 "智能 "人工智能和機器學習系統與第五代(5G)電信網絡(即物聯網)上的大量聯網設備連接起來,使數字技術 "認知化"。
作為人工智能的一個子集,機器學習代表了人工智能的最突出的應用(見圖2)。機器學習使用統計技術,使機器能夠在沒有明確指令的情況下 "學習",推動許多應用和服務,改善一系列分析和物理任務的自動化。通過使用數據自動提高性能,這個過程被稱為 "訓練 "一個 "模型"。使用一種算法來提高特定任務的性能,機器學習系統分析大量的訓練數據集,以便做人類自然而然的事情:通過實例學習。
今天,機器學習的最常見應用是深度學習。作為更廣泛的機器學習家族的一部分,深度學習利用人工神經網絡層來復制人類智能。深度學習架構,如深度神經網絡、遞歸神經網絡和卷積神經網絡,支持一系列廣泛的研究領域,包括計算機視覺、語音識別、機器翻譯、自然語言處理和藥物設計。
圖2:人工智能的層級
安全人工智能位于新興和顛覆性技術(EDT)星座的中心,包括機器人學、基因組學、電池存儲、區塊鏈、3D打印、量子計算和5G電信。在研究層面,美國仍然是人工智能的全球領導者。目前,國家科學基金會每年在人工智能研究方面的投資超過1億美元(國家科學基金會2018年)。國防高級研究計劃局(DARPA)最近宣布投資20億美元用于一項名為AI Next的計劃,其目標是推進上下文和適應性推理(DARPA 2018)。
與過去的原子武器或隱形飛機的技術發展不同,沒有國家會壟斷軍事人工智能。研究人員和領先的商業企業之間廣泛的全球合作意味著人工智能和機器學習的進步可能會在全球范圍內擴散。事實上,人工智能發展的大多數技術進步是由工業界而不是政府推動的。除了市場主導的技術公司,世界各地廣泛的網絡集群正在孵化新一代的商業創新(Li and Pauwels 2018)。因此,許多未來的軍事應用將可能是為商業產業開發的技術的改編。
幸運的是,加拿大一直是人工智能研究前沿的領導者,并繼續通過2017年推出的泛加拿大人工智能戰略下的幾個項目培育一個強大的人工智能生態系統。加拿大政府積極參與人工智能咨詢委員會和各種國際伙伴關系,包括2020年啟動的全球人工智能伙伴關系;人工智能國防伙伴關系,其第二次對話在2021年舉行;以及重疊人工智能驅動的安全和規劃的多邊協議(五眼,北約)。事實上,加拿大的國防政策,"強大、安全、參與"(SSE),反映了加拿大政府對增加年度國防開支的承諾,重點是技術。
目前的聯邦預算包括對人工智能發展的實質性承諾,承諾在10年內投入4.438億美元(Silcoff 2021)。在政府2021年的預算中,1.85億美元將支持人工智能研究的商業化;1.622億美元將用于在全國范圍內招聘頂尖的學術人才;4800萬美元將用于加拿大高級研究所;五年內4000萬美元將旨在加強埃德蒙頓、多倫多和蒙特利爾的國家人工智能研究所的研究人員的計算能力;五年內860萬美元將幫助推進人工智能相關標準的發展和采用(加拿大政府2021年,148)。
人工智能是一個影響廣泛的商業和軍事技術的模糊領域。像電力或化石燃料一樣,人工智能的廣泛應用意味著人工智能和其他通用技術有能力重新配置現代軍隊的步伐和組織(Bresnahan和Trajtenberg 1995)。從整體上看,人工智能代表了國家安全性質的結構性轉變。出于這個原因,SSE設想了一個未來的軍事態勢,更加注重開發、獲取和整合先進的變革性技術,包括網絡和自主系統。
即使加拿大在傳統聯盟(北美防空司令部、北約和五眼聯盟)中的持續作用仍然是國家安全的基礎,EDT正在從根本上改變沖突的性質。正如格雷格-菲夫(2021年)所觀察到的,人工智能作為戰爭工具的崛起與升級加拿大國家安全架構,特別是加拿大情報部門的日益增長的需求相重疊。技術變革和信息爆炸的復合周期,新的技能組合和新的數據分析戰略對國防規劃的演變變得至關重要。
在數字時代,戰爭正日益成為基于知識的戰爭。隨著沖突進入信息領域,軍事規劃開始重新聚焦于信息/虛假信息行動、網絡行動、情報行動和政治或經濟影響行動。事實上,這種混合戰爭作為一種戰爭工具由來已久,其目的是利用宣傳、破壞、欺騙和其他非動能軍事行動,從內部破壞對手(Bilal 2021)。
網絡仍然是潛在對手、國家代理人、犯罪組織和非國家行為者的一個關鍵目標。這包括對通信、情報和敏感信息的嵌入式監視和偵察。正如Amy Zegart(2021年)所解釋的那樣,技術正在通過極大地擴展數據和信息的獲取,使情報的性質民主化。事實上,今天驅動戰略情報的大部分信息實際上是開放源碼情報(OSINT)或在公共領域。
現代軍隊正變得嚴重依賴安全、及時和準確的數據。隨著數據的急劇膨脹,消化它變得不可能。這種數據爆炸正在推動對新的分析模式和新型網絡工具的需求。在數字時代,安全和情報人員需要新的平臺、新的工具和跨領域工作的新OSINT機構。在這方面,人工智能可能特別有幫助。
隨著數據的重要性增加,在廣闊的數字領域的對抗性競爭也在增加。人工智能和機器學習可以通過篩選巨大的數據庫來極大地提高加拿大的國家情報能力。人工智能不是銀彈。人工智能系統不能產生意義或提供因果分析。然而,人工智能和機器學習可以極大地增強人類在管理數據和數據驅動的分析方面的情報能力。
隨著決策者為數據驅動的世界調整其安全態勢,人工智能有望改變軍事沖突的既定模式。DND/CAF面臨的關鍵挑戰之一是數據驅動的網絡重塑指揮和控制系統的速度(Thatcher 2020)。集中式系統的優勢在于其協調人類活動的效率。在指揮系統中,人員和傳感器推動威脅檢測,將信息向決策堆棧上移,以便決策者可以做出適當的反應。數字技術深刻地加速了這個過程。
人工智能在軍事領域的應用可能被證明對傳統的指揮和控制系統具有挑戰性。例如,在美國,五角大樓的第一位首席軟件官最近辭職,以抗議技術轉型的緩慢步伐。在離開國防部職位后的一次采訪中,尼古拉-沙伊蘭告訴《金融時報》,美國未能對技術變革和其他威脅作出反應,使國家的未來面臨風險(Manson 2021)。
除了變化的速度緩慢,軍事指揮和控制系統的集中性意味著單點故障提供了脆弱的攻擊點。指揮機關和自動或人類控制者往往容易受到利用不良或欺騙性信息的對抗性技術的影響,甚至自上而下的決策在適應復雜的突發挑戰方面也會很緩慢。
神經形態計算、生成式對抗網絡(GANs)、人工智能決策支持、數據分析和情報分析方面的新創新在增強軍事行動的結構和進程方面可能會產生巨大影響。機器學習算法的快速發展已經在商業和軍事領域引發了一波投資熱潮。
超越對損耗和動能攻擊的傳統關注,轉向基于加速和適應的新方法,數據驅動的技術可能是促成國家安全性質徹底轉變的關鍵。人工智能不是一種單一的技術。相反,它是一類可以在一系列軍事和商業應用中整合的技術。這些技術不斷演變的基礎是數據。
數字技術現在由數據推動,并將繼續推動創造越來越多的數據驅動的技術--特別是人工智能。數據是訓練人工智能和先進機器學習算法的基礎。數據既是大規模運行的數字系統產生的 "操作廢氣",也是機器對數據輸入作出反應的過程,它現在推動了機器的 "自主性"。
數據驅動的技術支撐著現代社會的核心社會和經濟功能,涵蓋了基礎設施、能源、醫療保健、金融、貿易、運輸和國防。隨著5G網絡的全球推廣,預計在高度健全的全球信息網絡中創建、收集、處理和存儲的數據將出現爆炸性增長。根據市場研究公司IDC的數據,目前全球數據正以每年61%的速度增長(Patrizio 2018)。預計到2025年,數據將達到175 zettabytes(一萬億吉字節),改變數字經濟的性質和規模(同上)。
出于這個原因,DND/CAF將數據提升到國家資產的水平是明智的。這對經濟增長和加拿大國防都至關重要。將數據作為國家資產加以保護和利用,將意味著重新思考目前構成當代數據架構的大型集中式數字基礎設施。可以肯定的是,網絡時代的數據安全應該是分散的和聯合的,以避免集中式系統的脆弱性。
關于技術破壞的傳統預測往往會犯一個錯誤,即假設這種規模的系統變化只是以一對一的方式取代舊技術。在現實中,這種規模的顛覆往往會不成比例地取代舊的系統,使其具有巨大的新的架構、界限和能力(Arbib和Seba 2020)。
正在進行的人工智能武器化正在助長一場全球軍備競賽,有望重塑加拿大國防戰略的輪廓。事實上,世界上許多國家在人員系統自動化、設備維護、監視系統以及無人機和機器人的部署方面已經遠遠領先(斯坦利和平與安全中心、聯合國裁軍事務廳和史汀生中心2019)。從美國到俄羅斯到以色列再到中國,軍事研究人員正在將人工智能嵌入網絡安全舉措和支持遠程手術、戰斗模擬和數據處理的機器人系統。
以先進的物流、半自動車隊、智能供應鏈管理和預測性維護系統的形式將人工智能應用于軍事行動代表了人工智能的近期應用(Perry 2021)。然而,能夠在陸地、海洋、空中、太空和網絡領域針對個人(無論是否需要人類干預)的自主武器的演變代表了軍事沖突的可能未來(見圖3)。事實上,近100個國家的軍隊目前擁有某種程度的武裝或非武裝無人機能力(Gettinger 2019)。
圖3:全球無人機激增
商業無人機技術在采礦、農業和能源領域的縱橫捭闔,正在助長無人機技術的廣泛擴散。正如最近亞美尼亞和阿塞拜疆之間的沖突所表明的那樣,一群相對便宜的自主和半自主無人機可以被利用來壓倒傳統的軍事系統,使一系列當代平臺變得過時(Shaikh和Rumbaugh 2020)。輕型、可重復使用的武裝無人機,如土耳其的Songar(Uyan?k 2021)可以配備一系列有效載荷,包括迫擊炮、手榴彈和輕機槍。最近對沙特阿拉伯的Abqaiq石油加工設施(Rapier 2019)和俄羅斯的Khmeimim空軍基地(Hambling 2018)的攻擊反映了軍事無人機在不同戰場環境中的應用越來越多。
致命自主武器系統(LAWS)被定義為可以在沒有人類授權的情況下選擇和攻擊目標的武器,它被設計為在獨立識別目標之前在指定的行動區域內長期徘徊。多個無人機或機器人可以并行運作,以克服對手的防御或摧毀一個特定目標。開發人員傾向于將致命性武器系統分為三大類,即觀察、定位、決定和行動(OODA)循環(見圖4)。這些類別包括。"循環中的人"、"循環中的人 "和 "循環外的人"。這種區分也被框定為 "半自主"、"受監督的自主 "和 "完全自主 "的技術系統。不幸的是,受監督的致命性自主武器系統和完全自主的致命性自主武器系統之間的區別,可能只是一個軟件補丁或一個監管程序。
圖4:OODA環
隨著致命性自主武器系統和其他數據驅動的技術變得更便宜和更廣泛,它們可能會給廣泛的國家和非國家行為者提供平臺和工具,以新的和破壞性的方式利用人工智能和機器學習。除了收緊OODA循環外,軍事人員將需要了解人工智能在加速OODA循環方面的影響,以確定在特定情況下哪種模式最合適。
鑒于EDT的范圍和規模,認為我們可以簡單地保持從上個世紀繼承的系統和做法是錯誤的。正如英國查塔姆研究所2018年的一份報告所警告的那樣,美國、英國和其他核武器系統正變得越來越容易受到網絡攻擊(Unal and Lewis 2018)。這些擔憂是有根據的。人工智能和EDT的擴散一起,幾乎肯定會通過利用人工智能和自主系統的規模效應,為小國和非國家行為者帶來好處。
對于許多北約國家來說,網絡平臺已經成為多領域行動的關鍵--海、空、陸、網絡和空間。大規模的網絡使得在復雜環境中可視化和協調大量資源成為可能。在5G電信和云計算的基礎上,信息系統現在可以有效地收集、傳輸和處理大量的戰場數據,提供實時數據分析。
連接設備正在成為協調空襲、駕駛無人機、消化戰斗空間的實時視頻和管理高度復雜的供應鏈的關鍵。在英國,國防數據框架提供了一個結構,以解決軍事組織與數據驅動的企業需求相一致的挑戰(Ministry of Defence 2021)。從戰略到通信到后勤到情報,數字平臺現在是協調復雜軍事行動的基礎。數據現在是所有作戰領域的命脈。
在一個數字化的戰斗空間中,每個士兵、平臺和資源現在都是一個復雜軍事網絡中的節點。從20世紀90年代以網絡為中心的美國軍事行動開始,數字技術已經成為先進武器、戰術和戰略的基礎。從戰場態勢感知和自主無人機到精確制導彈藥和機器驅動的心理行動,網絡正在使戰爭進入網絡時代。
在集中式機構對工業時代至關重要的地方,平臺和網絡正在成為數字時代的關鍵。人工智能本質上是一種 "自下而上 "的技術,依靠不斷 "喂養 "大量的數據來支持機器學習作為 "學習引擎"。隨著數字生態系統的激增,網絡平臺和它們所依賴的數據管理系統成為管理不斷擴大的資源和人員的關鍵。
與金融部門一樣,DND應該尋求區塊鏈等DLT,以加速加拿大軍隊的數字化轉型。通過在分散的網絡中橫向分配數據,CAF區塊鏈可以幫助減少官僚化系統固有的限制和脆弱性。DLT提供了一個高度分散的驗證系統,可以確保所有的通信和數據傳輸免受對手的攻擊,同時消除集中式節點的潛在故障。
人工智能在軍事規劃中的應用正在迅速推進,許多國家在部署無人機和機器人方面已經取得了很大進展。事實上,無人機技術的全球擴散正在順利進行中。
世界各地的軍隊正在加速開發或采購攻擊型無人機(見圖5)。俄羅斯的 "閃電"(BulgarianMilitary.com 2021)、西班牙的Rapaz8以及英國、9美國10和以色列11的各種無人機項目共同代表了軍事技術新時代的早期階段。與工業時代的軍事技術不同,無人機可以以低成本獲得,并需要相對較少的技術技能。
無人機群技術涉及微型/迷你無人機/無人駕駛飛行器或無人機群,利用基于共享信息的自主決策。事實上,當代軍用無人機已經可以被設計成在沒有人參與的情況下定位、識別和攻擊目標。利用蜂群技術,數以百計的非武裝無人機可以從現場收集信息,同時用各種武器(即火器、火炮和/或彈藥)引導數以千計的無人機。
正如簡短的視頻 "Slaugherbots "所展示的那樣,完全自主的武器將使瞄準和殺死獨特的個人變得非常容易和便宜。在面部識別和決策算法的基礎上,國家和非國家行為者都可以廣泛使用致命性武器。數以千計的相對便宜的無人機配備了爆炸性的彈頭,有可能壓倒防空系統,攻擊基礎設施、城市、軍事基地等等。
圖5:無人機對比
無人機群壓倒加拿大軍事設施的威脅,以及對關鍵基礎設施的網絡攻擊或在衛星傳感器檢測到威脅時自動發射的高超音速導彈,代表了一個令人不安但越來越可能的未來。從復雜性科學和對昆蟲的研究中產生的,使用無人機來支持 "集群情報 "代表了一個加速戰爭節奏的新工具集。
為了應對這種不斷變化的環境,DARPA提出了 "馬賽克戰爭"的概念。馬賽克戰爭的中心思想是,模塊化系統可以成為應對高度網絡化環境的廉價、靈活和高度可擴展的工具。就像馬賽克中的瓷片一樣,單個作戰平臺可以被設計成高度可配置的。編隊利用分散的代理在 "殺戮網 "上進行重新配置。殺戮網的目標是避免 "單體系統 "的結構僵化。
與傳統戰爭中需要的復雜棋局不同,馬賽克戰爭利用數字網絡,利用模塊的靈活性和增強的決策(時間壓縮)加快動態響應時間。像自然界中的復雜系統一樣,殺傷性網絡使用算法來消除單點故障,通過模塊化設計加速反應時間。
從主導地位(預測)轉向加速反應(適應),"馬賽克戰爭 "旨在支持混合軍事單位,利用 "決策棧 "上下的橫向網絡。人工智能、無人機、傳感器、數據和人員結合在一起,為地面上的作戰指揮官提供支持,使小型編隊能以更快的速度獲得情報、資源和后勤資產。
像 "馬賽克戰爭 "這樣的模塊化系統表明,未來的戰爭將越來越多地利用現在驅動戰爭游戲和模擬的計算、數據分析和算法。推動高度流動、游戲化和不可預測的環境,未來的人工智能系統可以將戰爭加速到一個隨著結果范圍的擴大而變得極其密集的計算速度和節奏。
DARPA最近的AlphaDogfight(2019-2020年)為這一新現實提供了一個窗口。使用復雜的F-16飛行模擬器讓計算機與有經驗的人類飛行員對決,試驗的目的是為DARPA的空戰進化計劃推進人工智能開發者。毫不奇怪,F-16人工智能代理通過積極和精確的機動性擊敗了人類飛行員,而人類飛行員根本無法與之相提并論,五局為零。
人工智能的武器化也在激起對抗人工智能系統的新戰略和方法。正如網絡行動(無論是間諜活動還是攻擊)可以指示計算機網絡或機器以它們不打算的方式運行,對手也可以對人工智能系統使用同樣的策略。這個過程被稱為對抗性機器學習,旨在找出機器學習模型的弱點并加以利用。攻擊可能發生在開發或部署階段,包括通過提供欺騙性輸入(例如,"毒化"數據)或針對模型本身來誤導模型。
這些方法在國家安全環境中特別危險,因為在許多情況下,它們是微妙的,人類無法察覺。此外,具有挑戰性的是,對手不一定需要對目標模型的具體知識或直接訪問其訓練數據來影響它。隨著人工智能系統變得更加普遍,更多的人可以接觸到,對手的吸引力和攻擊機會將增加。
攻擊者可能試圖修改訓練數據或測試數據。這是通過創造對抗性樣本來實現的,這些樣本被故意 "擾亂 "或改變并提供給模型,從而導致錯誤。例如,通過改變洗衣機圖像的分辨率,研究人員能夠欺騙一個模型,將機器分類為 "安全 "或 "擴音器"(Kurakin, Goodfellow and Bengio 2017)。對人的眼睛來說,對抗性圖像看起來幾乎是一樣的。
在國家安全方面,對手可能會試圖使用同樣的技術來暗示武器系統實際上是一個社區中心。如果這是在孤立的情況下發生的,那么這個問題很可能被識別和解決。如果對手的樣本被長期大規模使用,這可能成為一個重大的挑戰,并影響對情報收集系統的信任。
此外,一些對手可能并不精確--或有技能--并可能試圖迫使一個模型對整個類別而不是特定類別進行錯誤分類。由于我們在國家安全環境中越來越依賴計算機圖像,并不總是能夠實時或在有爭議的空間進行驗證,因此在這種攻擊中出現誤判的風險是很大的。
高后果的人工智能系統并不是對抗性攻擊的唯一目標。受對抗性樣本影響的人工智能系統可以包括生物識別,其中假的生物特征可以被利用來冒充合法用戶,語音識別中攻擊者添加低量級的噪音來混淆系統(Zelasko等人,2021)和計算機安全(包括在網絡數據包中混淆惡意軟件代碼)。
由于DND/CAF尋求通過部署人工智能系統來提高效率--如軍艦上的語音助手(McLeod 2019)--必須在部署前評估對抗性使用的風險并制定對策。
除了改變輸入,另一種攻擊方法可用于逆向工程模型以獲取訓練數據(Heaven 2021)。由于機器學習模型對訓練數據的表現比新的輸入更好,對手可以識別目標模型預測的差異,并與包括個人身份信息在內的已知數據相匹配(Shokri等人,2017)。隨著機器學習即服務變得越來越多--而且在許多情況下,被用作開發更復雜的能力的基礎--DND將需要仔細審查國家安全系統的數據泄漏風險。這甚至適用于看似無害的系統,如語音助手。
人工智能系統的弱點的例子很多(Hadfield-Menell等人,2017)。這些例子包括吸塵器將收集到的灰塵彈回它剛打掃過的地方,以便它能收集更多的灰塵,或者數字游戲中的賽艇在原地循環以收集分數,而不是追求贏得比賽的主要目的。雖然這些例子沒有生命危險,但同樣的技術--被稱為獎勵黑客(當一個模型被指示使其目標函數最大化,但卻以非故意的方式進行)--可以被用于更嚴重的效果。
從旨在用固定的訓練數據解決 "單步決策問題 "的機器學習過渡到解決 "順序決策問題 "和更廣泛的數據集的深度機器學習,將使對抗性攻擊更難發現。這種威脅是如此之大,以至于美國情報高級研究項目活動正在資助一個項目,以檢測木馬人工智能對已完成系統的攻擊。令人擔憂的是,政府可能會在不知情的情況下操作一個產生 "正確 "行為的人工智能系統,直到出現 "觸發 "的情況。例如,在部署過程中,對手可能會攻擊一個系統,并在更晚的時候才導致災難性的故障發生。這些類型的攻擊可能會影響到圖像、文本、音頻和游戲的人工智能系統。
正如對抗性樣本可以用來愚弄人工智能系統一樣,它們可以被納入訓練過程中,以使它們對攻擊更加強大。通過對最重要的國家安全人工智能系統進行清潔和對抗性數據的訓練--要么給它們貼上這樣的標簽,要么指示一個模型將它們分離出來--更大的防御是可能的。但是,復雜的對手很可能會自行躲避這種防御方法,而使用額外的戰術進行深度防御將是必要的。
GANs有各種各樣的用例,從創建深度假說到癌癥預后(Kim, Oh and Ahn 2018)。它們也可用于防御對抗性攻擊(Short, Le Pay and Ghandi 2019),使用一個生成器來創建對抗性樣本,并使用一個判別器來確定它是真的還是假的。一個額外的好處是,使用GANs作為防御,實際上也可能通過規范數據和防止 "過度擬合 "來提高原始模型的性能(IBM云教育2021)。
對抗性攻擊和防御模型進行基準測試--如使用GANs--是一種全面的對策,可以對AI系統進行比較。這種方法為制定和滿足安全標準提供了一個量化的衡量標準,并允許評估人工智能系統的能力和限制。
作為這個測試和評估過程的一部分,博弈論可能有助于建立對手的行為模型,以確定可能的防御策略。由于人工智能系統無法在傳統的信息安全意義上進行 "修補",因此在部署前應仔細分析針對國家安全人工智能系統的對抗性攻擊的風險,并定期進行審查。此外,訓練有素的模型--特別是那些關于機密數據和最敏感應用的模型--應該得到仔細保護。
數據驅動的戰爭的速度和范圍表明,我們正在進入一個新的時代,其中致命性武器系統的潛力--無論是否有人類參與--都可能極大地改變全球力量平衡。從殺手級無人機和人機合作到增強的軍事決策(殺手2020),人工智能技術將使世界各國軍隊投射力量的能力大大增加。正在進行的人工智能武器化也與空間武器化相重疊(《經濟學人》2019年),因為低地球軌道(LEO)日益成為軍事監視、遙感、通信、數據處理(Turner 2021)和彈道武器(Sevastopulo和Hille 2021)的操作環境。
人工智能與低地軌道和致命性自主武器系統的興起,代表了全球安全性質的一個關鍵轉折點。為此,世界各地的學術研究人員、技術企業家和公民都對人工智能的軍事化所帶來的危險表示擔憂。正如他們正確地指出的那樣,在規范負責任地開發和使用人工智能的規范和法律方面缺乏國際共識,有可能造成未來的危機。
除了我們在科幻小說中經常看到的對人工智能的夸張描述,重要的是建立適當的制衡機制,以限制人工智能技術可能提供的權力集中。關于管理人工智能和其他數字技術的共同國際規則和條例將塑造未來幾十年的戰爭和沖突的輪廓。在軍事人工智能的發展中制定護欄,對于減少未來沖突的可能性至關重要。
加拿大和其他北約國家積極參與這一討論可能是未來全球和平與安全的關鍵。在發動戰爭的條件(jus ad bellum)和戰爭中的人工智能行為(jus in bello)方面,規范人工智能使用的戰爭法仍有待確定。鑒于美國和中國之間不斷擴大的競爭,需要制定關于致命性自主武器系統的使用及其擴散的條約是再及時不過了。
正如北約所觀察到的,加拿大及其盟國應尋求促進、參與和建立合作機會,以支持開發和應用人工智能和其他EDT的廣泛、全面的架構(北約新興和顛覆性技術咨詢小組2020)。盡管面臨著艱巨的挑戰,全球治理在規范軍事人工智能方面可以發揮重要作用。盡管對人工智能及其武器化有不同的看法,但過去的談判可以作為未來條約的基礎,特別是在定義戰爭規則方面。這包括關于常規武器、核軍備控制、生物和化學武器、地雷、外層空間和平民保護的條約(見圖6)。
到目前為止,《聯合國特定常規武器公約》(CCW)已經監督了一個討論應對自主武器帶來的人道主義和國際安全挑戰的進程。已經提出了一系列監管致命性自主武器系統的潛在方案,包括《特定常規武器公約》下的一項國際條約,一個不具約束力的行為準則,宣布各國承諾負責任地開發和使用致命性自主武器系統。在聯合國之外,2013年發起了 "停止殺手機器人 "運動,目標是完全禁止致命性自主武器系統。
聯合國秘書長安東尼奧-古特雷斯強調了人工智能和其他數字技術的風險和機遇(聯合國2020),并呼吁禁止致命性自主武器系統(古特雷斯2021)。不幸的是,聯合國成員國,特別是聯合國安理會的觀點存在分歧,一些國家認為監管是民族國家的專屬權限,而另一些國家則側重于更多部門的做法。除了人工智能的武器化,在圍繞人權、算法偏見、監控(公共和私人)以及國家支持的或國家支持的網絡攻擊等問題上也存在廣泛的分歧。
對于世界上的主要軍事大國來說,缺乏互信仍然是追求人工智能集體軍備控制協議的一個重大障礙。即使相當多的國家支持提供新的具有法律約束力的條約,禁止開發和使用致命性自主武器,但世界上大多數主要軍事大國都認為人工智能的武器化具有重大價值。鑒于這些分歧,致命性自主武器系統的多邊管理將需要建立信任措施,作為打開政治僵局的軍控進程的手段。
走向平凡的監管 也許制定管理人工智能的政策和監管制度的最具挑戰性的方面是難以準確地確定這些制度應該監管什么。與生物和化學武器不同,人工智能大多是軟件。事實上,人工智能是一個移動的目標:40年前被定義為人工智能的東西,今天只是傳統的軟件。
人工智能是一個模糊的技術領域,影響著廣泛的商業和軍事應用。例如,機器學習算法是搜索引擎(算法排名)、軍用無人機(機器人技術和決策)和網絡安全軟件(算法優化)的成分。但它們也支撐著平凡的行業,甚至兒童玩具(語義分析、視覺分析和機器人技術)、金融軟件和社交媒體網絡(趨勢分析和預測分析)。
與屬于這些平凡的監管領域的產品和流程一樣,人工智能技術不是被設計成最終實體,而是被設計成在廣泛的產品、服務和系統中使用的成分或組件。例如,一個 "殺手機器人 "不是一種特定技術的結果。相反,它是人工智能 "成分 "重新組合的結果,其中許多成分也被用來檢測癌癥或增加駕駛者的安全。
雖然人們傾向于使用一個專門的不擴散鏡頭來監管人工智能,但雙重用途的挑戰仍然存在。與核擴散或轉基因病原體不同,人工智能不是一種特定的技術。相反,它更類似于一個材料或軟件成分的集合。與大多數二元的核不擴散鏡頭相比,可以在食品監管中找到更相關(盡管不那么令人興奮)的監管模式的靈感,特別是食品安全和材料標準(Araya和Nieto-Gómez 2020)。
鑒于對人工智能進行全面監管存在重大的概念和政治障礙,治理仍然是一項艱巨的挑戰。一方面,如果我們把人工智能理解為一系列復制人類活動的技術實踐,那么就根本沒有一個單一的領域可以監管。相反,人工智能的治理幾乎重疊了每一種使用計算來執行任務的產品或服務。另一方面,如果我們將人工智能理解為大幅改變人民和國家之間權力平衡的基礎,那么我們就會面臨重大挑戰。
幸運的是,這并不是民族國家第一次面臨影響全球安全的新技術。在第二次世界大戰之后,世界上最強大的國家--美國、英國、蘇聯、中國、法國、德國和日本--對核武器、化學制劑和生物戰的全球治理進行監督。當時和現在一樣,世界必須采取集體行動來治理人工智能。
與冷戰時期一樣,包括定期對話、科學合作和分享學術成果在內的建立信任措施可以幫助減少地緣政治的緊張。為管理軍事人工智能帶來的風險制定一個共同的詞匯,可以為隨著時間的推移制定更有力的人工智能多邊條約提供基礎。
在這方面,經濟合作與發展組織(OECD)已經公布了其關于人工智能的建議,作為一套政府間標準,于2020年2月啟動了人工智能政策觀察站。加拿大和法國政府還與經合組織一起領導了一個全球人工智能伙伴關系(GPAI),旨在成為一個人工智能政策的國際論壇。GPAI的成員專注于以 "人權、包容、多樣性、創新和經濟增長原則 "為基礎的負責任的人工智能發展。
除了GPAI,一些歐洲國家已經呼吁歐盟成員開始一個關于負責任地使用新技術的戰略進程--特別是人工智能。美國已經邀請盟國討論人工智能的道德使用問題(JAIC公共事務2020)。北約已經啟動了一個進程,鼓勵成員國就一系列道德原則和具有軍事用途的電子技術關鍵領域的國際軍備控制議程達成一致(Christie 2020;NATO 2020)。認識到EDT對全球安全的深遠影響,北約于2019年12月推出了EDT路線圖(北約科技組織2020)。
從整體上看,二十一世紀需要進行正式監管。從長遠來看,這很可能包括尋求與禁止生物武器、化學武器和殺傷人員地雷一樣的人工智能條約。然而,鑒于人工智能的創新速度和世界超級大國之間日益擴大的分歧,就人工智能的全球治理進行談判的機會之窗可能正在關閉。
圖6:人工智能的全球治理
即使在工業時代即將結束的時候,技術創新也在加速進行(Araya 2020)。自從大約80年前誕生以來,人工智能已經從一個神秘的學術領域發展成為社會和經濟轉型的強大驅動力。人工智能在戰爭中的整合被一些軍事分析家描述為一個不斷發展的 "戰場奇點"(Kania 2017)。在 "技術奇點"(Schulze-Makuch 2020)的概念基礎上,人們越來越多地猜測,人工智能和機器人將超越人類的能力,有效地應對算法驅動的戰爭。
人工智能和其他EDT的演變正在將先進的數據、算法和計算能力匯集起來,以 "認知 "軍事技術。在這種新環境下,現代軍隊正變得嚴重依賴提供安全、及時和準確數據的網絡。數據已經成為數字系統的 "作戰用氣 "和驅動 "智能機器 "的原料。隨著數據重要性的增加,在廣闊的數字領域的對抗性競爭也在增加。事實上,數據的真正價值在于其推動創新的數量和質量。
正如北約關于EDT的年度報告(北約新興和顛覆性技術咨詢小組2020)明確指出,要想跟上技術變革的步伐,就必須在技術的開發、實驗和應用方面保持靈活性和快速迭代。整個CAF的創新能力必須是一個更廣泛的創新生態系統的一部分,該系統有效地整合了公共和私人生態系統的研究和實施。這包括與加拿大工業界合作利用雙重用途的GPT的明確目標,以便利用已經存在的技術。
這種多領域的合作在歷史上被定義為國家創新體系(NSI)(OECD 1997)。事實上,NSI政策和規劃可以采取多種形式,從松散的協調到高度整合的伙伴關系。在美國(Atkinson 2020)、中國(Song 2013)和歐洲(Wirkierman, Ciarli and Savona 2018)應用的各種NSI規劃模式表明,在最大化政府-產業-研究伙伴關系方面可以找到大量的經濟和社會回報。政府應通過稅收優惠、采購和研究資金以及戰略規劃,努力建設加拿大的技術能力。但它不能單獨行動。
國家創新必然取決于機構參與者在一個共享的生態系統中進行合作。出于這個原因,一個協調的加拿大國家統計局將需要在推動長期創新的過程中,人們和機構之間的技術和信息的相互流動。鑒于EDT的許多創新是由工業界主導的,推進公私伙伴關系對加拿大軍隊的發展至關重要。對于國防部/加拿大空軍來說,要推進適合數字時代的軍隊,政府、工業界和學術界將需要以更綜合的方式進行合作。
建立一個強大的加拿大創新生態系統將意味著更廣泛的公私合作和持續的知識和資源的再培訓、培訓和孵化。盡管開發尖端人工智能需要人力資本投資,但大多數人工智能應用現在可以通過開源許可獲得,即使核心學習算法可以在公共平臺和整個學術生態系統中獲得。這種 "開放一切 "環境的影響是對封閉的等級制度和深思熟慮的官方機構的實質性挑戰。
政府程序和規劃將需要適應加速的創新生命周期,以配合EDT積極的淘汰周期。除了與網絡技術相關的巨大的不對稱安全風險外,向數據驅動型軍隊的轉變將需要大量關注數據安全和數據治理。與進行傳統的國家間沖突所需的大量成本和規劃不同,網絡攻擊的破壞性影響可以由僅有一臺個人電腦的小團體對關鍵基礎設施發動。鑒于未來不斷增加的挑戰,大型官僚機構(公司、政府、學術和軍事)的設計變化是不可避免的。
除了對新的和不同的知識、資源和專長的需求,加拿大政府和加拿大軍方將需要平衡硬實力和不斷變化的地緣政治格局的需求。在美國占主導地位的時代之外,二十一世紀正被一個以技術民族主義和后布雷頓森林體系為特征的多極體系所塑造。面對一個快速發展的數字時代,國際合作將是確保和平與安全的關鍵。信息共享、專家會議和多邊對話可以幫助世界各民族國家及其軍隊更好地了解彼此的能力和意圖。作為一個全球中等國家,加拿大可以成為推動這一努力的主要伙伴。
國際治理創新中心(CIGI)是一個獨立的、無黨派的智囊團,其經同行評議的研究和可信的分析影響著政策制定者的創新。其全球多學科研究人員網絡和戰略伙伴關系為數字時代提供政策解決方案,目標只有一個:改善各地人民的生活。CIGI總部設在加拿大滑鐵盧,得到了加拿大政府、安大略省政府和創始人吉姆-巴爾西利的支持。
Drone Wars UK 的最新簡報著眼于人工智能目前在軍事環境中的應用方式,并考慮了所帶來的法律和道德、作戰和戰略風險。
人工智能 (AI)、自動決策和自主技術已經在日常生活中變得普遍,并為顯著改善社會提供了巨大的機會。智能手機、互聯網搜索引擎、人工智能個人助理和自動駕駛汽車是依賴人工智能運行的眾多產品和服務之一。然而,與所有技術一樣,如果人們對人工智能了解甚少、不受監管或以不適當或危險的方式使用它,它也會帶來風險。
在當前的 AI 應用程序中,機器為特定目的執行特定任務。概括性術語“計算方法”可能是描述此類系統的更好方式,這些系統與人類智能相去甚遠,但比傳統軟件具有更廣泛的問題解決能力。假設,人工智能最終可能能夠執行一系列認知功能,響應各種各樣的輸入數據,并理解和解決人腦可以解決的任何問題。盡管這是一些人工智能研究計劃的目標,但它仍然是一個遙遠的前景。
AI 并非孤立運行,而是在更廣泛的系統中充當“骨干”,以幫助系統實現其目的。用戶不會“購買”人工智能本身;他們購買使用人工智能的產品和服務,或使用新的人工智能技術升級舊系統。自主系統是能夠在沒有人工輸入的情況下執行任務的機器,它們依靠人工智能計算系統來解釋來自傳感器的信息,然后向執行器(例如電機、泵或武器)發出信號,從而對機器周圍的環境造成影響.
人工智能被世界軍事大國視為變革戰爭和獲得戰勝敵人的優勢的一種方式。人工智能的軍事應用已經開始進入作戰使用,具有令人擔憂的特性的新系統正在迅速推出。與軍事和公共部門相比,商業和學術界已經引領并繼續引領人工智能的發展,因為它們更適合投資資金和獲取研究所需的資源。因此,未來人工智能的軍事應用很可能是對商業領域開發的技術的改編。目前,人工智能正在以下軍事應用中采用:
人工智能和英國軍事
綜合審查和其他政府聲明毫無疑問地表明,政府非常重視人工智能的軍事應用,并打算繼續推進人工智能的發展。然而,盡管已經發布了概述使用自動化系統的學說的出版物,但迄今為止,英國國防部 (MoD) 仍然對管理其人工智能和自主系統使用的倫理框架保持沉默,盡管已經做出了一些重大決定。軍事人工智能的未來用途。
英國國防部一再承諾發布其國防人工智能戰略,預計該戰略將制定一套高級倫理原則,以控制軍事人工智能系統的整個生命周期。該戰略是在與來自學術界和工業界的選定專家討論后制定的,盡管政府尚未就與人工智能的軍事用途相關的倫理和其他問題進行公開磋商。該戰略的主要目的之一是向行業和公眾保證,國防部是人工智能項目合作的負責任合作伙伴。
與此同時,在沒有任何道德指南的情況下,計劃和政策正在迅速推進,主要問題仍未得到解答。英國軍隊在什么情況下會采用人工智能技術?政府認為何種程度的人為控制是合適的?風險將如何解決?英國將如何向其盟友和對手證明英國打算采取有原則的方法來使用軍事人工智能技術?
軍事人工智能系統帶來的風險 上述人工智能的每一種不同的軍事應用都會帶來不同的風險因素。作為國防部總部后臺操作的一部分,對數據進行排序的算法會引發不同的問題和擔憂,并且需要與自主武器系統不同級別的審查。
盡管如此,目前正在開發的人工智能系統無疑會對生命、人權和福祉構成威脅。軍事人工智能系統帶來的風險可以分為三類:道德和法律、操作和戰略。
道德和法律風險
-問責制:目前尚不清楚如果出現問題,誰來承擔責任:如果計算機運行不可預測并因此犯下戰爭罪行,懲罰它是沒有意義的。
人權和隱私:人工智能系統對人權和個人隱私構成潛在威脅。
不當使用:在戰斗環境中處于壓力之下的部隊可能會試圖修改技術以克服安全功能和控制。
作戰應用風險
偏見的技術來源:人工智能系統的好壞取決于它們的訓練數據,少量損壞的訓練數據會對系統的性能產生很大影響。
偏見的人為來源:當人類濫用系統或誤解其輸出時,可能會導致偏見。當作戰員不信任系統或系統非常復雜以至于其輸出無法解釋時,也會發生這種情況。
惡意操縱:軍用 AI 系統與所有聯網系統一樣,容易受到惡意行為者的攻擊,這些行為者可能試圖干擾、黑客攻擊或欺騙系統。
戰略風險
降低門檻:人工智能系統帶來了政治領導人在沖突中訴諸使用自主軍事系統而不是尋求非軍事選擇的風險。
升級管理:涉及人工智能的軍事行動的執行速度降低了審議和談判的空間,可能導致快速意外升級并造成嚴重后果。
軍備競賽和擴散:對軍事人工智能的追求似乎已經引發了軍備競賽,主要和地區大國競相發展其能力以保持領先于競爭對手。
戰略穩定性:如果先進的人工智能系統發展到能夠預測敵人戰術或部隊部署的程度,這可能會產生高度不穩定的后果。
本簡報列出了為人工智能設想的各種軍事應用,并強調了它們造成傷害的可能性。它認為,減輕軍事人工智能系統帶來的風險的建議必須基于確保人工智能系統始終處于人類監督之下的原則。
迄今為止,公眾對人工智能和機器人技術進步所帶來的社會變化和風險似乎知之甚少。這份簡報的部分目的是為了敲響警鐘。人工智能可以而且應該用于改善工作場所的條件和對公眾的服務,而不是增加戰爭的殺傷力。