人工智能(AI)有可能在社會、經濟和政策的各個方面帶來變革,包括國防和安全。英國希望成為在民用和商業應用領域推廣人工智能以及負責任地發展國防人工智能的領頭羊。這就要求對與人工智能軍事應用相關的新出現的風險和機遇,以及英國如何與其他國家開展最佳合作以減輕或利用這些風險和機遇,有一個清晰而細致的認識。
2024 年 3 月,英國國防部(MOD)國防人工智能與自主單元(DAU)和外交、聯邦與發展辦公室(FCDO)聯合委托蘭德歐洲公司(RAND Europe)開展一項簡短的范圍界定研究。該研究的目的是初步探討人工智能在軍事上的應用可能在戰略層面產生風險和機遇的方式,因為迄今為止的大部分研究都集中在戰術層面或非軍事主題(如人工智能安全)上。后續工作將更詳細地探討這些問題,為英國在這些問題上的國際參與戰略提供信息。
本技術報告旨在為理解人工智能軍事應用所帶來的戰略風險和機遇設定一個基線。一份獨立的總結報告則側重于為決策者提供高層次的研究結果。
人工智能最好被理解為一套雙重用途的通用技術,以硬件為基礎,但以軟件為核心。與傳統軍事技術不同的是,它們高度民主化,擴散速度極快。創新是由商業用途的私營部門驅動的,而不是由政府或國防部門驅動的。對軍事應用和影響的集體認識正在提高,但起點較低。辯論往往優先考慮某些引人注目的問題,如致命自主武器系統(LAWS)或人工智能(AGI),而忽略了其他議題。它只關注戰術,而忽視戰略;只關注風險,而忽視機遇;或只關注軍事人工智能的直接后果,而忽視從長遠來看可能影響最大的二階和三階效應。
為了解決這個問題,國防部和國防和外交、聯邦與發展辦公室(FCDO)委托進行這項研究,以制定一個概念框架,規劃軍事人工智能帶來的戰略風險和機遇。
圖 0.1 框架:人工智能軍事應用的戰略風險與機遇
本報告詳細探討了許多風險和機遇,其中最緊迫的包括
信息操縱,如人工智能深度偽造,這不僅會引發政治、經濟和社會問題,還會在危機時刻影響軍事決策。
賦予非國家行為者挑戰國家軍隊主導地位的不對稱能力,或者在最壞的情況下,賦予他們新的大規模毀滅性工具(如生物武器)。
人工智能對對手之間攻防平衡、戰爭升級動態以及核威懾穩定性的相互影響。這些問題在超級大國競爭加劇的情況下,在世界已經在應對其他不安全因素(如烏克蘭、以色列-伊朗\移民、氣候變化等)的情況下,尤其令人擔憂。
與未來出現的任何人工智能相關的潛在災難性安全和安保風險。
在英國國內,還需要應對對國內政治和經濟產生破壞性影響的重大問題。這些問題決定了國防的目的和手段。在國外,人工智能同樣會對以規則為基礎的國際秩序的健康產生深遠影響,這取決于各國、工業界和民間社會是否以及如何有效地共同管理其影響。人工智能專家非常擔心,人工智能會在多大程度上使世界許多地方的平衡傾向于壓制性和獨裁的治理模式,同時有可能顛覆民主政治、污染信息環境和破壞社會的戰斗意志。
其中許多潛在風險也可能成為戰略優勢的機遇。人工智能的利弊平衡取決于各國如何快速有效地調整武裝部隊等機構,以利用人工智能的優勢。同樣,這也取決于各國政府如何在國際上施加影響,使全球軍事人工智能行為朝著符合本國利益和價值觀的方向發展。這就意味著各國政府要愿意進行重大投資、組織改革和文化變革,以改變國防部門對新技術的態度。
為了應對這些挑戰,各國必須緊急制定一項全面的行動計劃,考慮到人工智能技術進步、圍繞人工智能或通過人工智能進行的地緣政治競爭以及國際體系中圍繞人工智能不斷演變的規范之間復雜的相互作用。這應利用一套影響不同受眾的機制工具包,運用外交、信息、軍事和經濟(DIME)杠桿,匯集一套積極主動的行動方案:
這也應借鑒其他領域的經驗教訓--如本報告所述--以及最近關于人工智能的高級別倡議的勢頭。突出的例子包括布萊切利峰會、軍事領域負責任的人工智能(REAIM)峰會和《軍事人工智能政治宣言》。
表0.2塑造全球國防人工智能發展的機制工具包
工具包類別 | 優先行動手冊 |
---|---|
促進英國國防采用人工智能并從中獲益的機制 | 加快整個國防領域對人工智能的投資和采用,同時提高抵御惡意或意外濫用人工智能的能力 |
限制采用人工智能的機制和對手的利益 | 采取競選方式,限制、減緩或增加對手(國家或非國家)部署軍事人工智能的成本 |
形成新的軍事人工智能管理安排的機制 | 在提高對軍事人工智能風險的認識、發現問題和分享學習成果方面發揮領導作用;與主要盟國(如美國)和競爭對手制定透明度和建立信任措施,以降低升級風險;促進采用包容性和參與性方法,就人工智能軍事領域負責任的行為規范達成新的全球共識,為今后達成更強有力的具有約束力的協議做好準備;促進減少核和生物相關的人工智能緊急風險的小型多邊機制的平行發展;研究如何將人工智能納入核查和合規機制,反之亦然;隨著時間的推移,將當前零散的人工智能治理倡議整合為一個更加具體的架構 |
美國國防創新委員會(DIB)的任務是提交一份研究報告,就優化與盟國和合作伙伴的創新合作提出具體可行的建議。有效整合盟國和合作伙伴對于建立全球穩定、增強集體力量以及確保美國、盟國和伙伴國的作戰人員能夠獲得他們在全方位沖突中所需的能力至關重要。如果發展得當,這些網絡將確保美國及其盟國和伙伴在 21 世紀的技術優勢。
為了更好地了解美國國防部(DoD)在與盟友和合作伙伴共同創新方面的成敗得失,國防創新委員會召集了美國國防部、聯邦政府、美國工業界和外國同行進行討論,以確定務實的見解、最佳實踐和應對具體挑戰的解決方案。在此過程中,注意到
美國不再是5G、高超音速和電子戰等國防相關技術創新關鍵領域取得進展的主要來源,而盟國和合作伙伴在半導體、定向能和量子科學等其他領域日益領先。
威懾的價位正在下降,最近在烏克蘭、加沙和紅海發生的沖突就證明了這一點,而低成本監視和傳感器射擊網絡的侵蝕性使用往往就是證明。保持威懾力比以往任何時候都更依賴于與盟友和合作伙伴的合作。
國防部內部在共同開發、共同生產和共同維持方面的言行之間存在巨大差距,尤其是在 “五眼 ”和北約盟國之外。長期存在的監管和合規框架,如《國際武器貿易條例》(ITAR),仍然是合作的主要障礙。
要解決合作的主要障礙,就需要美國聯邦機構間,特別是國防部、國務院和商務部之間進行大量、持續和協調的合作。
因此,DIB確定了幾個總體性的關鍵優先事項:
互操作性和資源共享--美國及其盟友和合作伙伴需要優先考慮互操作性,使他們能夠在既定系統中快速發送資源,相互支持以應對相互交織的全球威脅。這對多國行動中的有效合作至關重要。
國防生產--美國必須與更廣泛的國際工業基地一起提高國防制造能力。雖然北約和印度洋-太平洋盟國擁有先進的武器裝備,但物資卻集體短缺。提高生產能力對于威懾至關重要。
無縫分銷--簡化美國軍事銷售和轉讓的分銷流程至關重要。目前,國內和國外訂單由相同的裝配線完成,但國防部對外軍售(FMS)在程序上存在差異,主要由美國國務院監督。美國國防部須繼續與美國國務院合作,將那些延誤向重要盟友和合作伙伴運送武器的 FMS 規則收回。
可出口性--美國擁有盟國和合作伙伴所渴望的眾多精良系統,包括先進的作戰飛機、核動力潛艇、太空能力和自動駕駛車輛。此外,美國國防部有共享高端國防技術的歷史,如 F-35 戰斗機。美國國防部須加大力度,激勵美國工業考慮向盟國和合作伙伴出口,并將此作為能力發展的首要原則。
利用盟國優勢--盟國和合作伙伴可以而且須在其專業領域內做出貢獻。例如,日本和韓國(ROK)的造船業、挪威的反艦導彈和彈藥、以色列的防空和導彈防御、波蘭的導彈生產設施--這樣的例子不勝枚舉。國防部須通過新的創新合作機制利用這些優勢。
供應商鎖定--遺留系統和平臺受制于特定工業基礎參與者的供應商鎖定,阻礙了為盟國和合作伙伴快速轉移和擴大生產規模的努力。國防部須利用現有授權避免供應商鎖定,如 2017 年的一項法律要求國防采購采用模塊化開放系統方法,同時對傳統、非先決條件、低端系統的知識產權(IP)保護引入時間限制。這與制藥業的做法類似,即在為創新者提供知識產權保護的同時,隨著時間的推移或需求的變化,為第三方藥品生產敞開大門,這將使盟國和合作伙伴急需的遺留系統能夠實現供應商轉換和規模化生產。
A) 領導力--鑒于美國國防工業基地面臨全球性、多戰區的挑戰,國防部必須優先考慮國際國防工業合作,并將該組合提升到目前應有的持續、無縫、周到的關注和執行水平。2018 年,國防部副部長(AT&L)拆分為國防部副部長(A&S)和國防部副部長(R&E),這使得國際國防工業合作組合脫節,沒有一個受權機構作為國防部長和副部長在所有工業基地問題上的主要顧問,單獨與國際工業基地合作伙伴進行接觸。
B) 國際合作優先事項--國防部需要一個更加集中的程序,在項目層面與外國合作伙伴開展合作,包括一個更具戰略性的方法,為項目經理如何確定和選擇與盟友和合作伙伴的合作技術開發計劃制定標準和指導方針。要想取得進展,就必須從小處入手,建立可行的概念驗證,消除歷史或文化上的不信任問題,并對干擾合作的根深蒂固的政府官僚體制進行逐步調整。
C) 監管與合規改革--為了建立一個網絡化的國防工業基地,國防部必須首先創建一個監管與合規環境,讓盟友和合作伙伴能夠輕松駕馭,并隨著時間的推移,與他們自己的環境相協調。ITAR 肩負著保護美國寶藏的必要使命,但一段時間以來已不適合使用。國防部的其他框架,即技術安全與對外披露(TSFD)和網絡安全成熟度模型認證(CMMC)流程,也在干擾國家安全和外交政策的核心目標。
D) 信息共享與通信技術--信息共享與通信技術的重要性,以及在有效實現該領域系統和流程現代化方面的落后程度,是不容低估的。在國防部內部,對無法向盟友和合作伙伴提供信息的失望情緒無處不在。國防人員,尤其是高層以下人員,沒有權力就哪些信息可以共享、哪些信息必須共享采取果斷行動,相反,他們因害怕違規和違反安全規定而陷入癱瘓。
E) AUKUS--AUKUS 是國防部處理開放與合作的主要機會。它是在擁有共同語言、價值觀和戰略愿景的長期盟友之間建立的,是在強調盟友和伙伴的時代制定的。與北約和其他既有的多邊機構不同,冷戰時期影響其發展的保密殘余并不決定 AUKUS 的未來。如果實現得當,AUKUS 可以成為 21 世紀與盟友和合作伙伴共同創新的典范,并在國防部繼續走創新合作的新道路上取得巨大成功。
F) 北約與歐洲--雖然北約長期以來一直是國防部國際參與和合作創新的基石,但在充分發揮該聯盟的潛力方面仍存在許多障礙。傳統上,北約一直是軍事硬件共享、維護、后勤和共同防御的來源。這些工作通常是在 “按需 ”的基礎上進行的,自冷戰結束以來,一直沒有成為長期戰略協調的來源。
G) 印度-太平洋地區--作為美國國防部優先考慮的地區,以及經濟繁榮、技術發展和軍事能力的重要來源,印度-太平洋地區日益成為共同創新的重要樞紐。盡管如此,在 AUKUS 之外,國防部并未充分整合主要盟友和合作伙伴,從而導致大量資源和能力未得到充分利用。早期的努力,如在澳大利亞的 GMLRS 聯合生產,是加強整合的令人鼓舞的跡象,但仍然剛剛起步。適當地將新興合作伙伴整合到其協同創新網絡中,須成為國防部以及國防部國際工業合作副部長(USD(IIC))的首要任務。
在與眾多利益相關者的訪談和接觸中,國防部領導人和作戰人員都致力于實現盟友和合作伙伴更無縫的整合。然而,實現國防互操作性是一項復雜而長期的行動,需要技術、文化和后勤方面的調整,同時還要克服法律和安全方面的挑戰。為了充分解決這些問題,并響應指導性戰略文件的號召,需要高層領導的高度重視和跨部門、跨機構的協作。要采納本報告中的建議,就必須采取高層次的方法,并在盟友和合作伙伴之間開展公開、高效的合作。
隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。
然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。
聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與”,“通過多邊進程,圍繞人工智能軍事應用的設計、開發和使用制定規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。
人工智能(AI)領域發展迅速。新的人工智能技術不斷被開發出來,有時甚至是突破性的。這些技術越來越多地融入日常生活的方方面面,對商業、經濟和科學發展與創新至關重要。國防部門也在尋求利用人工智能,并將這些新技術引入安全領域,這并不奇怪。正如 Murugesan 所解釋的那樣(2022 年,第 4 頁),除其他外,人工智能可用于 “重復性任務,從而將安保人員解放出來,從事需要人類智慧的項目”。此外,為了證明人工智能的好處,“北約成員國已經開始投資這項技術,并將其納入國防戰略”(Carlo, 2021, 第 269 頁)。
盡管人工智能好處多多,但預計它將給 “交戰雙方的戰略、作戰藝術、戰術和條令帶來巨大變化”(Ploumis, 2022, 第 1 頁)。因此,需要仔細考慮和研究這些變化,以防止它們可能帶來的風險。例如,人工智能技術 “對網絡戰有重大影響,但也可能產生不利影響,并在未來顯著增加網絡攻擊的數量和威脅程度”(Kline et al.)
因此,人工智能系統有望影響 “戰爭的進行,帶來新的能力,并改變力量平衡”(辛格-吉爾,2019 年,第 169 頁)。根據這些假設,本文旨在研究人工智能如何影響沖突的性質。特別是,考慮到技術兼容性和倫理因素,本文試圖更好地理解在軍事聯合行動中將人工智能技術引入安全部門所帶來的益處和風險。人工智能系統在國防領域的發展如何影響軍事合作?將人工智能納入國防部門有哪些好處和風險?
在討論了人工智能的定義問題之后,本文將討論將人工智能技術納入國防領域的諸多影響。人工智能軍事應用的利弊是什么?人工智能會帶來哪些安全后果?為了回答這些重要問題,本文分為四個主要部分。
第一部分討論網絡戰問題。它側重于人工智能對網絡安全的影響。在定義了網絡戰的概念并解釋了該主題的相關性之后,將根據其主要目標分析人工智能的兩種主要應用:進攻型人工智能和防御型人工智能。前者旨在改進網絡攻擊,后者旨在增強網絡空間中特定行為者的防御能力。
第二部分側重于人工智能在物理空間的應用。人工智能可以通過監視、偵察和改進組織的形式,為戰場上的軍事行動帶來巨大的戰術效益。人工智能還可應用于無人系統和車輛,也稱為無人機和機器人。然而,這并非沒有風險,因為人工智能系統并非無懈可擊,可能成為網絡攻擊的目標,給軍事行動帶來嚴重后果。
第三部分分析了人工智能的地緣政治影響。這項技術為國家行為體提供了重大戰略優勢。這些優勢吸引他們增加對人工智能的投資,并將其納入國防能力。這有可能引發新一輪軍備競賽,將人工智能技術武器化。將人工智能系統納入國防領域也給軍事合作帶來了挑戰,特別是在技術兼容性方面。最后,最后一節將討論將人工智能納入安全部門的主要倫理考慮因素。
人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。
通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。
政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。
政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:
理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。
議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。
保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。
實現以下目標對這一進程至關重要:
政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。
幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。
其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。
然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。
政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。
政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。
政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。
人們普遍認為,將機器學習融入軍事決策對于美國在 21 世紀保持軍事主導地位至關重要。機器學習的進步有可能通過提高整個國家安全企業級決策的速度、精確度和效率,極大地改變戰爭的特點。美國國防部的領導者們認識到了這一點,并正在做出大量努力,以在戰爭的戰術、作戰、戰略和機構層面有效整合機器學習工具。
本報告將探討機器學習的一種應用,其重點是在競爭和沖突的作戰層面實現軍事決策。展示了機器學習如何與人類合作,作為決策系統的一部分,用于提高軍事行動和活動的有效性。展示了這種方法如何通過分析原本無法獲取的數據源,為指揮官提供有關作戰環境的新見解。將重點放在從大量基于文本的數據(如報紙報道和情況報告)中獲得的洞察力上,這些數據無處不在,但卻很少以任何系統的方式整合到決策中。
在本報告中介紹的方法以人機協作系統的概念為基礎,并證明了現有的機器學習能力需要人在各個階段的參與,才能證明對操作層面的決策有用。因此,機器學習能力的發展與雷達自二戰以來的演變密切相關,而雷達是人機協作用于軍事目的的最早范例之一。如今,與不列顛之戰期間使用的預警系統同樣依賴雷達機器和人類觀察員一樣,機器學習仍然需要人類的參與,以指導這種新傳感器使用正確的數據,正確解釋其輸出結果,并評估其結果對作戰決策的影響。
通過一個基于真實世界數據和真實世界危機的示例研究,將讀者("您")置身于一名軍事指揮官的視角,就 2022 年俄羅斯全面入侵烏克蘭之前,美國如何支持烏克蘭兵力應對俄羅斯支持的烏克蘭東部叛亂,展示了這一系統方法的實際應用。在撰寫本案例研究時,把讀者您當成了這位指揮官,因為目標是強調您在未來與機器學習工具的合作中可能扮演的關鍵角色--無論是作為分析師、決策者,甚至是在現實世界的類似背景下應用這些工具的軍事指揮官。
值得注意的是,本案例研究是基于 2014-2020 年間的數據于 2020 年 12 月完成的,僅分析了這一時期與俄羅斯支持的烏克蘭東部叛亂有關的實地情況。本研究尚未更新,以反映自 2022 年 2 月俄羅斯入侵烏克蘭以來所獲得的任何見解。然而,從入侵前的視角來看,機器學習在后來發生的現實世界事件中用于作戰決策的優勢和局限性也就不言而喻了。
在整個案例研究中,將看到為本報告目的而進行的基于機器學習的實際評估結果,該評估分析了來自烏克蘭的 18,000 篇歷史新聞報道,內容涉及從 2014 年沖突起源到 2020 年末的沖突。利用機器學習工具從這些數據中提取相關見解,并與分析結果進行互動,就向烏克蘭兵力提供何種類型的支持以及在俄羅斯入侵前實現美國在該地區的目標做出名義上的決策。在此過程中,人機協作學習的優勢將逐漸顯現,將親眼目睹機器學習工具如何快速、系統地利用以前無法獲取的數據,為復雜問題提供新的見解。但這種方法的局限性也會顯現出來,將親眼目睹機器學習的好壞取決于支持它的可用數據,以及訓練機器學習工具和解釋其結果的人類分析師。
人機協作方法適用于軍事決策者在陸軍和美國防部作戰和機構層面面臨的各種問題集。因此,本研究以具體證據清晰地展示了在軍事決策中使用機器學習所涉及的權衡問題,為機器學習在軍事領域的廣泛應用做出了貢獻。本研究為美國陸軍提出了幾項重要發現和建議。
首先,分析展示了機器學習在軍事決策方面的巨大潛力,但只有在與對特定問題背后的背景有詳細了解的人類分析師配對時才能實現。在此提出的機器學習方法不會取代人類分析師。相反,它能使人類分析師更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。在案例研究中,通過使用機器學習獲得的大多數關鍵見解都需要人類分析師的額外干預。在某些情況下,這需要在模型結果的基礎上有選擇性地疊加額外的數據源。在其他情況下,則需要人工分析師手動審查機器學習工具認為相關和有趣的基礎數據。因此,美國陸軍現有的機器學習能力需要人類在各個階段的參與,才能充分發揮其潛力。
其次,分析表明,通過大幅提高執行重復性任務的效率,人機協作方法可以大規模分析人類分析師無法單獨完成的海量數據集,從而產生以前無法實現的有關作戰環境的新見解。案例研究表明,從分析人員處理大量數據的重復性分析任務所花費的時間來看,機器學習能顯著提高效率,使分析人員更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。這表明,對于需要大量人工審核相關數據的問題,陸軍領導應優先考慮將機器學習作為一種解決方案。
最后,這項研究揭示了機器學習的系統方法能夠對作戰級總部已有的大量數據進行標準化、客觀和長期的分析,從而增強其支持有效決策的潛力。在許多情況下,這些數據是戰爭中作戰和機構層面決策的最佳信息來源,但如果沒有機器學習,這些數據就只能以臨時和主觀的方式進行分析。
首先,這項研究表明,陸軍應為各級指揮人員提供頻繁接觸機器學習的機會,讓他們熟悉人類如何利用這些能力作為軍事決策系統的一部分。
其次,本研究強調,陸軍應建立多樣化的機器學習團隊,以充分釋放這一能力的潛力。這些團隊應整合熟悉機器學習工具細節的作戰研究系統分析員、對特定作戰環境有第一手知識的操作員、了解可用數據以分析特定問題的分析員,以及能將機器分析轉化為對作戰決策有實際影響的指揮官。
美國戰略家認為,人工智能(AI)有可能實現更好、更快的決策,這在未來的軍事沖突中是決定性的。機器學習應用將越來越多地影響政治和軍事領導人對戰略環境的看法,權衡風險和選擇,并判斷他們的對手。但是,將關鍵的人類決策過程暴露在人工智能系統的中會有什么風險?
要獲得人工智能在決策方面的優勢,首先需要了解其局限性和陷阱。人工智能系統根據數據模式進行預測。總是有一些意外行為或失敗的機會。現有的工具和技術試圖使人工智能對失敗更加穩健,往往會導致性能上的權衡,解決了一個問題,但可能會使另一個問題惡化。人們對人工智能的脆弱性和缺陷的認識不斷提高,但也需要在現實的部署背景下對技術故障的潛在后果進行更深入的分析。
本簡報研究了直接或間接影響決策的人工智能系統故障如何與戰略壓力和人為因素相互作用,從而引發危機或沖突的升級:
這些情景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,特別是當涉及到他們對戰場的認識,了解對手的意圖和能力,或了解他們自己抵御攻擊的能力。但通過依賴人工智能,他們在人工智能系統技術故障的可能性和后果方面引入了一個新的不確定性來源。
有效利用人工智能需要以一種有謹慎的和有風險的方式來平衡優勢與局限。沒有辦法保證概率性人工智能系統會完全按照預期行為,也沒有辦法保證它能給出正確的答案。然而,軍隊可以設計人工智能系統和依賴它們的決策過程,以減少人工智能失敗的可能性并控制其后果,包括通過:
美國應繼續帶頭制定負責任地開發和使用人工智能的全球標準,采取步驟展示某些可靠性,并盡可能地鼓勵其他國家采取類似的預防措施:
美國仍然是世界上最突出的軍事和技術力量。在過去十年中,美國認識到人工智能作為力量倍增器的潛力,越來越多地將人工智能(AI)的熟練程度視為美國重要利益和保證美國軍事和經濟實力的機制。特別是,在過去十年中,人工智能已成為美國國防的一項關鍵能力,特別是考慮到2022年美國國防戰略對印度-太平洋地區的關注。
因此,美國國防部(DoD)(以及美國政府和國防機構總體上)對人工智能和相關新興技術表現出越來越大的熱情。然而,雖然美國目前在學術界和私營部門的人工智能研究和開發方面取得了巨大進展,但國防部尚未在廣泛范圍內成功地將商業人工智能的發展轉化為真正的軍事能力。
美國政府在利用國防人工智能和人工智能支持的系統方面通常處于有利地位。然而,在過去的幾年里,各種官僚主義、組織和程序上的障礙減緩了國防部在國防人工智能采用和基于技術的創新方面的進展。最關鍵的是,國防部遭受了復雜的收購過程和廣泛的數據、STEM和AI人才和培訓的短缺。從事人工智能和人工智能相關技術和項目的組織往往是孤立的,而且還存在必要的數據和其他資源相互分離。在美國防部內部存在一種傾向于可靠方法和系統的文化,有時趨向于勒德主義。所有這些因素都導致了人工智能采用的速度出奇的緩慢。美國家安全委員會2021年提交給國會的最終報告總結說,"盡管有令人興奮的實驗和一些小型的人工智能項目,但美國政府離人工智能就緒還有很長的路要走"。
因此,盡管人工智能有可能增強美國的國家安全并成為一個優勢領域,而且鑒于美國在軍事、創新和技術領導方面的長期傳統,人工智能有可能成為一個薄弱點,擴大 "美國已經進入的脆弱窗口"。 如果美國不加快創新步伐,達到負責任的速度,并奠定必要的制度基礎,以支持一支精通人工智能的軍隊,人工智能將繼續成為一個不安全點。
去年,美國防部在這些挑戰中的一些方面取得了進展,調整了國防人工智能的方法。2022年6月,美國防部發布了《負責任人工智能戰略和實施途徑》,將更有數據依據的、負責任的、可操作的人工智能工作列為優先事項,此后開始執行。最重要的是,美國防部已經啟動了對其人工智能組織結構的重大改革,創建了一個新的首席數字和人工智能辦公室(CDAO),以整合其不同的人工智能項目和利益相關者,并使其與該部門的數據流更好地協調。值得注意的是,美國國防部目前正在對其國防人工智能的整體方法進行重大變革和振興。然而,這些新的人工智能努力是否足以讓美國彌補失去的時間,還有待觀察。
自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。
人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。
土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:
第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。
《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。
焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。
土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。
土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。
土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。
土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。
土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。
土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。
培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。
人工智能(AI)領域的不斷進步以及在關鍵部門整合AI系統的工作正在逐步改變社會的各個方面,包括國防部門。盡管人工智能的進步為增強人類能力和改善各種決策提供了前所未有的機會,但它們也帶來了重大的法律、安全、安保和倫理問題。因此,為了確保人工智能系統的開發和使用是合法的、道德的、安全的、有保障的和負責任的,政府和政府間組織正在制定一系列規范性文書。這種方法被廣泛稱為 "負責任的人工智能",或道德的或值得信賴的人工智能。目前,負責任的人工智能最引人注目的方法是開發和運作負責任或道德的人工智能原則。
聯合國裁研所的 "在國防中實現負責任的人工智能 "項目首先尋求對負責任的人工智能系統的研究、設計、開發、部署和使用的關鍵方面建立共同的理解。然后,它將審查負責任的人工智能在國防部門的運作情況,包括確定和促進良好做法的交流。該項目有三個主要目標。首先,它旨在鼓勵各國采用和實施能夠在開發和使用人工智能系統中實現負責任行為的工具。它還試圖幫助提高透明度,促進國家和其他關鍵人工智能行為者之間的信任。最后,該項目旨在建立對負責任的人工智能關鍵要素的共同理解,以及如何將其付諸實施,這可以為制定國際公認的治理框架提供參考。
本研究簡報概述了該項目的目標。它還概述了項目第一階段的研究方法和初步結果:制定共同的原則分類法和對各國采用的人工智能原則進行比較分析。
毫無疑問,今天圍繞人工智能(AI)的最復雜的治理挑戰涉及國防和安全。CIGI正在促進戰略制定:人工智能對軍事防御和安全的影響項目將這一領域的主要專家與來自國防部的40多名公務員和加拿大武裝部隊的人員聚集在一起,討論人工智能對國家安全和軍事領域的力量倍增效應。
這一努力依賴于一系列的四次研討會,以產生關于數據驅動技術如何引發巨大的技術重組的前瞻性思考,這將對加拿大的國防規劃產生深遠影響。具體來說,這些研討會集中在數據治理和政策(道德、云計算、數據準備和互操作性);決策(可信賴性、人機一體化、生物技術和問責制);模擬工具(培訓、兵棋推演、人機合作、機器人、自主和可信的人工智能);以及信息時代的加拿大情報(將人工智能用于情報)。CIGI還主辦了一個研究生研討會,以激勵整個加拿大在全球公共政策、計算機科學和安全等領域學習的新興學者。
本文探討了在人工智能(AI)和機器學習背景下的軍事特定能力的發展。在加拿大國防政策的基礎上,本文概述了人工智能的軍事應用和管理下一代軍事行動所需的資源,包括多邊參與和技術治理。
維持先進軍事能力的前景現在與人工智能的武器化直接聯系在一起。作為一項通用技術,人工智能代表著一種力量的倍增器,有能力重塑戰爭規則。事實上,在核彈頭仍然是一種單一的技術應用的情況下,人工智能有能力支持許多不同類型的武器和系統。正如北大西洋公約組織(NATO)的指導意見所指出的,人工智能和其他 "智能 "技術現在對加拿大及其盟國的未來安全至關重要。
新技術在改變戰爭的性質方面有著悠久的歷史。從馬匹和盔甲的使用到航空母艦和戰斗機的引進,人工智能和機器人只是代表了軍事技術發展的最新階段。常規武器與人工智能和機器學習的融合,必將重塑決策的性質和軍事戰略轉型中的武力應用。
即使當代人工智能系統的能力被限制在機器學習算法的狹窄范圍內,這種限制可能不會持續太久。與神經科學、量子計算和生物技術相重疊的發現領域正在迅速發展,代表了 "智能機器 "進化的未知領域。在這些新的研究領域中的科學和技術發現給加拿大的國防帶來了巨大的風險,但同時也代表著巨大的機遇。
顯而易見的是,新興技術已經成為高度緊張的地緣政治競爭的基礎,它與一系列商業產業和技術平臺相重疊。中國、俄羅斯、美國和其他國家和非國家行為者正在積極追求人工智能和其他前沿技術的軍事應用。競爭的領域包括云技術、高超音速和新導彈技術、空間應用、量子和生物技術以及人類增強。
盡管技術創新一直塑造著國家間沖突的性質,但新興和顛覆性技術(EDT)的規模和速度是前所未有的。加拿大的國防政策反映了這種擔憂,它呼吁使加拿大武裝部隊(CAF)適應不斷變化的地緣政治環境。加拿大國防規劃已著手擴大和發展加拿大武裝部隊,在新的軍事平臺整合中納入下一代偵察機、遙控系統和天基設施。
基于對不斷變化的技術環境的廣泛評估,加拿大國防部(DND)認識到,這個新時代的特點是全球力量平衡的變化。這包括在快速發展的創新經濟中大國競爭性質的變化。就像石油和鋼鐵為工業時代設定條件一樣,人工智能和機器學習現在也可能為數字時代設定條件。
這種規模的破壞是由技術和制度變化的融合所驅動的,這些變化可以以新的和不可預測的方式觸發復雜的反饋回路。在這個新的環境中,人工智能技術將迫使世界各國軍隊投射力量的能力倍增。確定軍事人工智能發展中的護欄對于避免未來危機至關重要。應用減少風險的措施來識別和減輕軍事人工智能可能帶來的一系列風險將是關鍵。事實上,在這些能力完全嵌入世界上目前和未來的軍隊之前,治理人工智能可能會更容易。
從整體上看,這種轉變預示著從初級機器到數據驅動技術和精密電子的巨大轉變。這種物理、數字和生物技術的加速融合代表了一場巨大技術革命的早期階段。在全球范圍內管理這些新興和顛覆性的技術,對于減少未來沖突的風險至關重要。
從人工智能和機器人到電池存儲、分布式賬本技術(DLT)和物聯網(IoT),新興和顛覆性技術(EDT)現在正在激起一個商業創新的新時代。這一巨大的技術變革景觀正在醞釀一場社會和經濟變革,對中央銀行的發展具有巨大影響。正如北約最近的一份報告所指出的(北約新興和顛覆性技術咨詢小組2020),這些技術包括:
→ 人工智能和機器學習。人工智能/機器學習的發展及其對創新的潛在影響。這包括神經形態計算、生成式對抗網絡,以及人工智能從已經收集或尚未收集的數據中揭示出意想不到的見解的能力。
→ 量子技術。正在進行的從量子過程研究中獲得的知識轉化為量子技術的應用,包括量子計算、量子傳感、量子密碼系統,以及在量子尺度上對材料的操縱和開發。
→ 數據安全。用于保障和損害通信、數據交易和數據存儲安全的算法和系統的設計,包括量子證明加密方法、區塊鏈和分布式賬本架構,以及更廣泛的網絡安全領域。
→ 計算功能的硬件。微型化、電力采集和能源儲存方面的進展,包括在全球范圍內提供數字化關鍵基礎設施所需的物理系統(物聯網)和機器人的廣泛使用及其對全球系統和流程的持續影響。
→ 生物和合成材料。從原子/分子層面的材料設計、合成和操作到中觀和宏觀尺度的創新,支持生物工程、化學工程、基因層面的操作、增材制造和AI介導的生成設計。
正如蒸汽機和印刷術激發了工業革命一樣,人工智能和機器人技術現在也在軍事技術的性質和全球力量平衡方面引發了巨大變革。人工智能的興起并非沒有歷史先例,但伴隨著人工智能的變化表明,需要對國防規劃進行更精確的調整,以適應一個數據驅動的時代。
在大國競爭和多極體系的背景下,人工智能已經成為競爭的一個特別焦點。中國、俄羅斯、美國和其他許多國家都在積極追求人工智能能力,并把重點放在國防和安全方面。例如,中國希望到2030年在人工智能方面領先世界,并期望通過利用大量的豐富數據,擴大其在人工智能產業化方面的領先優勢(Lucas和Feng,2017年)。
事實上,數據和數據驅動的技術現在占據了全球經濟的制高點。整個全球數據經濟的競爭已經與大國競爭密不可分(Mearsheimer 2021)。盡管美國和中國的經濟深深地相互依存,但中國在整個歐亞大陸不斷擴大的投資將很快使其成為世界貿易的中心。
技術優勢仍然是北約國家的關鍵支柱,但中國正在迅速趕超。即使美國在人工智能發現方面建立了強大的領先優勢,中國也越來越有可能在人工智能驅動的應用產業化方面占據主導地位。中國不僅有先進的商業能力,而且還有一個連貫的國家戰略。中國的技術部門正在達到專業知識、人才和資本的臨界質量,正在重新調整全球經濟的指揮高度(Lucas and Waters 2018)(見圖1)。
中國產業部署的大部分技術創新都是 "漸進式 "的,而不是 "顛覆式 "的,但現在這種情況正在改變。將新興市場聚集在其軌道上,中國前所未有的經濟擴張現在對世界經濟產生了引力(The Economist 2018)。標志性項目,價值數萬億美元的 "一帶一路 "倡議(世界銀行2018年)為圍繞電動汽車、電信、機器人、半導體、鐵路基礎設施、海洋工程以及最終的人工智能的廣泛戰略轉變提供了一個全球平臺(McBride和Chatzky 2019年)。
毫不奇怪,中國已經是國際專利申請的世界領導者(世界知識產權組織2020)。隨著自主機器(Etzioni和Etzioni 2017)、可再生能源基礎設施、量子通信(?iljak 2020)、增強型腦機接口(Putze等人2020)和天基武器(Etherington 2020)的出現,重新思考加拿大國家安全,特別是加拿大國防的性質的壓力正在增加。鑒于技術創新的步伐不斷加快,以及亞洲作為世界貿易中心的崛起(Huiyao 2019),來自國外的技術的影響可能是巨大的。
圖1:按購買力平價計算的國內生產總值預測(以萬億美元計)
人工智能的概念已被廣泛討論,但該術語的精確定義仍然是一個移動的目標。與其說人工智能是一項具體的技術或特定的創新,不如說它是一個材料的集合。事實上,即使人工智能技術已經成為廣泛的主流商業應用的基礎,包括網絡搜索、醫療診斷、算法交易、工廠自動化、共享汽車和自動駕駛汽車,人工智能仍然是一個理想的目標。
盡管人工智能領域的研究始于20世紀40年代,但隨著機器學習和計算機處理能力的改進,過去十年對人工智能興趣的爆炸性增長已經加速。人工智能的持續進步被比喻為在人腦中發現的多尺度學習和推理能力。當與大數據和云計算相結合時,預計人工智能將通過將 "智能 "人工智能和機器學習系統與第五代(5G)電信網絡(即物聯網)上的大量聯網設備連接起來,使數字技術 "認知化"。
作為人工智能的一個子集,機器學習代表了人工智能的最突出的應用(見圖2)。機器學習使用統計技術,使機器能夠在沒有明確指令的情況下 "學習",推動許多應用和服務,改善一系列分析和物理任務的自動化。通過使用數據自動提高性能,這個過程被稱為 "訓練 "一個 "模型"。使用一種算法來提高特定任務的性能,機器學習系統分析大量的訓練數據集,以便做人類自然而然的事情:通過實例學習。
今天,機器學習的最常見應用是深度學習。作為更廣泛的機器學習家族的一部分,深度學習利用人工神經網絡層來復制人類智能。深度學習架構,如深度神經網絡、遞歸神經網絡和卷積神經網絡,支持一系列廣泛的研究領域,包括計算機視覺、語音識別、機器翻譯、自然語言處理和藥物設計。
圖2:人工智能的層級
安全人工智能位于新興和顛覆性技術(EDT)星座的中心,包括機器人學、基因組學、電池存儲、區塊鏈、3D打印、量子計算和5G電信。在研究層面,美國仍然是人工智能的全球領導者。目前,國家科學基金會每年在人工智能研究方面的投資超過1億美元(國家科學基金會2018年)。國防高級研究計劃局(DARPA)最近宣布投資20億美元用于一項名為AI Next的計劃,其目標是推進上下文和適應性推理(DARPA 2018)。
與過去的原子武器或隱形飛機的技術發展不同,沒有國家會壟斷軍事人工智能。研究人員和領先的商業企業之間廣泛的全球合作意味著人工智能和機器學習的進步可能會在全球范圍內擴散。事實上,人工智能發展的大多數技術進步是由工業界而不是政府推動的。除了市場主導的技術公司,世界各地廣泛的網絡集群正在孵化新一代的商業創新(Li and Pauwels 2018)。因此,許多未來的軍事應用將可能是為商業產業開發的技術的改編。
幸運的是,加拿大一直是人工智能研究前沿的領導者,并繼續通過2017年推出的泛加拿大人工智能戰略下的幾個項目培育一個強大的人工智能生態系統。加拿大政府積極參與人工智能咨詢委員會和各種國際伙伴關系,包括2020年啟動的全球人工智能伙伴關系;人工智能國防伙伴關系,其第二次對話在2021年舉行;以及重疊人工智能驅動的安全和規劃的多邊協議(五眼,北約)。事實上,加拿大的國防政策,"強大、安全、參與"(SSE),反映了加拿大政府對增加年度國防開支的承諾,重點是技術。
目前的聯邦預算包括對人工智能發展的實質性承諾,承諾在10年內投入4.438億美元(Silcoff 2021)。在政府2021年的預算中,1.85億美元將支持人工智能研究的商業化;1.622億美元將用于在全國范圍內招聘頂尖的學術人才;4800萬美元將用于加拿大高級研究所;五年內4000萬美元將旨在加強埃德蒙頓、多倫多和蒙特利爾的國家人工智能研究所的研究人員的計算能力;五年內860萬美元將幫助推進人工智能相關標準的發展和采用(加拿大政府2021年,148)。
人工智能是一個影響廣泛的商業和軍事技術的模糊領域。像電力或化石燃料一樣,人工智能的廣泛應用意味著人工智能和其他通用技術有能力重新配置現代軍隊的步伐和組織(Bresnahan和Trajtenberg 1995)。從整體上看,人工智能代表了國家安全性質的結構性轉變。出于這個原因,SSE設想了一個未來的軍事態勢,更加注重開發、獲取和整合先進的變革性技術,包括網絡和自主系統。
即使加拿大在傳統聯盟(北美防空司令部、北約和五眼聯盟)中的持續作用仍然是國家安全的基礎,EDT正在從根本上改變沖突的性質。正如格雷格-菲夫(2021年)所觀察到的,人工智能作為戰爭工具的崛起與升級加拿大國家安全架構,特別是加拿大情報部門的日益增長的需求相重疊。技術變革和信息爆炸的復合周期,新的技能組合和新的數據分析戰略對國防規劃的演變變得至關重要。
在數字時代,戰爭正日益成為基于知識的戰爭。隨著沖突進入信息領域,軍事規劃開始重新聚焦于信息/虛假信息行動、網絡行動、情報行動和政治或經濟影響行動。事實上,這種混合戰爭作為一種戰爭工具由來已久,其目的是利用宣傳、破壞、欺騙和其他非動能軍事行動,從內部破壞對手(Bilal 2021)。
網絡仍然是潛在對手、國家代理人、犯罪組織和非國家行為者的一個關鍵目標。這包括對通信、情報和敏感信息的嵌入式監視和偵察。正如Amy Zegart(2021年)所解釋的那樣,技術正在通過極大地擴展數據和信息的獲取,使情報的性質民主化。事實上,今天驅動戰略情報的大部分信息實際上是開放源碼情報(OSINT)或在公共領域。
現代軍隊正變得嚴重依賴安全、及時和準確的數據。隨著數據的急劇膨脹,消化它變得不可能。這種數據爆炸正在推動對新的分析模式和新型網絡工具的需求。在數字時代,安全和情報人員需要新的平臺、新的工具和跨領域工作的新OSINT機構。在這方面,人工智能可能特別有幫助。
隨著數據的重要性增加,在廣闊的數字領域的對抗性競爭也在增加。人工智能和機器學習可以通過篩選巨大的數據庫來極大地提高加拿大的國家情報能力。人工智能不是銀彈。人工智能系統不能產生意義或提供因果分析。然而,人工智能和機器學習可以極大地增強人類在管理數據和數據驅動的分析方面的情報能力。
隨著決策者為數據驅動的世界調整其安全態勢,人工智能有望改變軍事沖突的既定模式。DND/CAF面臨的關鍵挑戰之一是數據驅動的網絡重塑指揮和控制系統的速度(Thatcher 2020)。集中式系統的優勢在于其協調人類活動的效率。在指揮系統中,人員和傳感器推動威脅檢測,將信息向決策堆棧上移,以便決策者可以做出適當的反應。數字技術深刻地加速了這個過程。
人工智能在軍事領域的應用可能被證明對傳統的指揮和控制系統具有挑戰性。例如,在美國,五角大樓的第一位首席軟件官最近辭職,以抗議技術轉型的緩慢步伐。在離開國防部職位后的一次采訪中,尼古拉-沙伊蘭告訴《金融時報》,美國未能對技術變革和其他威脅作出反應,使國家的未來面臨風險(Manson 2021)。
除了變化的速度緩慢,軍事指揮和控制系統的集中性意味著單點故障提供了脆弱的攻擊點。指揮機關和自動或人類控制者往往容易受到利用不良或欺騙性信息的對抗性技術的影響,甚至自上而下的決策在適應復雜的突發挑戰方面也會很緩慢。
神經形態計算、生成式對抗網絡(GANs)、人工智能決策支持、數據分析和情報分析方面的新創新在增強軍事行動的結構和進程方面可能會產生巨大影響。機器學習算法的快速發展已經在商業和軍事領域引發了一波投資熱潮。
超越對損耗和動能攻擊的傳統關注,轉向基于加速和適應的新方法,數據驅動的技術可能是促成國家安全性質徹底轉變的關鍵。人工智能不是一種單一的技術。相反,它是一類可以在一系列軍事和商業應用中整合的技術。這些技術不斷演變的基礎是數據。
數字技術現在由數據推動,并將繼續推動創造越來越多的數據驅動的技術--特別是人工智能。數據是訓練人工智能和先進機器學習算法的基礎。數據既是大規模運行的數字系統產生的 "操作廢氣",也是機器對數據輸入作出反應的過程,它現在推動了機器的 "自主性"。
數據驅動的技術支撐著現代社會的核心社會和經濟功能,涵蓋了基礎設施、能源、醫療保健、金融、貿易、運輸和國防。隨著5G網絡的全球推廣,預計在高度健全的全球信息網絡中創建、收集、處理和存儲的數據將出現爆炸性增長。根據市場研究公司IDC的數據,目前全球數據正以每年61%的速度增長(Patrizio 2018)。預計到2025年,數據將達到175 zettabytes(一萬億吉字節),改變數字經濟的性質和規模(同上)。
出于這個原因,DND/CAF將數據提升到國家資產的水平是明智的。這對經濟增長和加拿大國防都至關重要。將數據作為國家資產加以保護和利用,將意味著重新思考目前構成當代數據架構的大型集中式數字基礎設施。可以肯定的是,網絡時代的數據安全應該是分散的和聯合的,以避免集中式系統的脆弱性。
關于技術破壞的傳統預測往往會犯一個錯誤,即假設這種規模的系統變化只是以一對一的方式取代舊技術。在現實中,這種規模的顛覆往往會不成比例地取代舊的系統,使其具有巨大的新的架構、界限和能力(Arbib和Seba 2020)。
正在進行的人工智能武器化正在助長一場全球軍備競賽,有望重塑加拿大國防戰略的輪廓。事實上,世界上許多國家在人員系統自動化、設備維護、監視系統以及無人機和機器人的部署方面已經遠遠領先(斯坦利和平與安全中心、聯合國裁軍事務廳和史汀生中心2019)。從美國到俄羅斯到以色列再到中國,軍事研究人員正在將人工智能嵌入網絡安全舉措和支持遠程手術、戰斗模擬和數據處理的機器人系統。
以先進的物流、半自動車隊、智能供應鏈管理和預測性維護系統的形式將人工智能應用于軍事行動代表了人工智能的近期應用(Perry 2021)。然而,能夠在陸地、海洋、空中、太空和網絡領域針對個人(無論是否需要人類干預)的自主武器的演變代表了軍事沖突的可能未來(見圖3)。事實上,近100個國家的軍隊目前擁有某種程度的武裝或非武裝無人機能力(Gettinger 2019)。
圖3:全球無人機激增
商業無人機技術在采礦、農業和能源領域的縱橫捭闔,正在助長無人機技術的廣泛擴散。正如最近亞美尼亞和阿塞拜疆之間的沖突所表明的那樣,一群相對便宜的自主和半自主無人機可以被利用來壓倒傳統的軍事系統,使一系列當代平臺變得過時(Shaikh和Rumbaugh 2020)。輕型、可重復使用的武裝無人機,如土耳其的Songar(Uyan?k 2021)可以配備一系列有效載荷,包括迫擊炮、手榴彈和輕機槍。最近對沙特阿拉伯的Abqaiq石油加工設施(Rapier 2019)和俄羅斯的Khmeimim空軍基地(Hambling 2018)的攻擊反映了軍事無人機在不同戰場環境中的應用越來越多。
致命自主武器系統(LAWS)被定義為可以在沒有人類授權的情況下選擇和攻擊目標的武器,它被設計為在獨立識別目標之前在指定的行動區域內長期徘徊。多個無人機或機器人可以并行運作,以克服對手的防御或摧毀一個特定目標。開發人員傾向于將致命性武器系統分為三大類,即觀察、定位、決定和行動(OODA)循環(見圖4)。這些類別包括。"循環中的人"、"循環中的人 "和 "循環外的人"。這種區分也被框定為 "半自主"、"受監督的自主 "和 "完全自主 "的技術系統。不幸的是,受監督的致命性自主武器系統和完全自主的致命性自主武器系統之間的區別,可能只是一個軟件補丁或一個監管程序。
圖4:OODA環
隨著致命性自主武器系統和其他數據驅動的技術變得更便宜和更廣泛,它們可能會給廣泛的國家和非國家行為者提供平臺和工具,以新的和破壞性的方式利用人工智能和機器學習。除了收緊OODA循環外,軍事人員將需要了解人工智能在加速OODA循環方面的影響,以確定在特定情況下哪種模式最合適。
鑒于EDT的范圍和規模,認為我們可以簡單地保持從上個世紀繼承的系統和做法是錯誤的。正如英國查塔姆研究所2018年的一份報告所警告的那樣,美國、英國和其他核武器系統正變得越來越容易受到網絡攻擊(Unal and Lewis 2018)。這些擔憂是有根據的。人工智能和EDT的擴散一起,幾乎肯定會通過利用人工智能和自主系統的規模效應,為小國和非國家行為者帶來好處。
對于許多北約國家來說,網絡平臺已經成為多領域行動的關鍵--海、空、陸、網絡和空間。大規模的網絡使得在復雜環境中可視化和協調大量資源成為可能。在5G電信和云計算的基礎上,信息系統現在可以有效地收集、傳輸和處理大量的戰場數據,提供實時數據分析。
連接設備正在成為協調空襲、駕駛無人機、消化戰斗空間的實時視頻和管理高度復雜的供應鏈的關鍵。在英國,國防數據框架提供了一個結構,以解決軍事組織與數據驅動的企業需求相一致的挑戰(Ministry of Defence 2021)。從戰略到通信到后勤到情報,數字平臺現在是協調復雜軍事行動的基礎。數據現在是所有作戰領域的命脈。
在一個數字化的戰斗空間中,每個士兵、平臺和資源現在都是一個復雜軍事網絡中的節點。從20世紀90年代以網絡為中心的美國軍事行動開始,數字技術已經成為先進武器、戰術和戰略的基礎。從戰場態勢感知和自主無人機到精確制導彈藥和機器驅動的心理行動,網絡正在使戰爭進入網絡時代。
在集中式機構對工業時代至關重要的地方,平臺和網絡正在成為數字時代的關鍵。人工智能本質上是一種 "自下而上 "的技術,依靠不斷 "喂養 "大量的數據來支持機器學習作為 "學習引擎"。隨著數字生態系統的激增,網絡平臺和它們所依賴的數據管理系統成為管理不斷擴大的資源和人員的關鍵。
與金融部門一樣,DND應該尋求區塊鏈等DLT,以加速加拿大軍隊的數字化轉型。通過在分散的網絡中橫向分配數據,CAF區塊鏈可以幫助減少官僚化系統固有的限制和脆弱性。DLT提供了一個高度分散的驗證系統,可以確保所有的通信和數據傳輸免受對手的攻擊,同時消除集中式節點的潛在故障。
人工智能在軍事規劃中的應用正在迅速推進,許多國家在部署無人機和機器人方面已經取得了很大進展。事實上,無人機技術的全球擴散正在順利進行中。
世界各地的軍隊正在加速開發或采購攻擊型無人機(見圖5)。俄羅斯的 "閃電"(BulgarianMilitary.com 2021)、西班牙的Rapaz8以及英國、9美國10和以色列11的各種無人機項目共同代表了軍事技術新時代的早期階段。與工業時代的軍事技術不同,無人機可以以低成本獲得,并需要相對較少的技術技能。
無人機群技術涉及微型/迷你無人機/無人駕駛飛行器或無人機群,利用基于共享信息的自主決策。事實上,當代軍用無人機已經可以被設計成在沒有人參與的情況下定位、識別和攻擊目標。利用蜂群技術,數以百計的非武裝無人機可以從現場收集信息,同時用各種武器(即火器、火炮和/或彈藥)引導數以千計的無人機。
正如簡短的視頻 "Slaugherbots "所展示的那樣,完全自主的武器將使瞄準和殺死獨特的個人變得非常容易和便宜。在面部識別和決策算法的基礎上,國家和非國家行為者都可以廣泛使用致命性武器。數以千計的相對便宜的無人機配備了爆炸性的彈頭,有可能壓倒防空系統,攻擊基礎設施、城市、軍事基地等等。
圖5:無人機對比
無人機群壓倒加拿大軍事設施的威脅,以及對關鍵基礎設施的網絡攻擊或在衛星傳感器檢測到威脅時自動發射的高超音速導彈,代表了一個令人不安但越來越可能的未來。從復雜性科學和對昆蟲的研究中產生的,使用無人機來支持 "集群情報 "代表了一個加速戰爭節奏的新工具集。
為了應對這種不斷變化的環境,DARPA提出了 "馬賽克戰爭"的概念。馬賽克戰爭的中心思想是,模塊化系統可以成為應對高度網絡化環境的廉價、靈活和高度可擴展的工具。就像馬賽克中的瓷片一樣,單個作戰平臺可以被設計成高度可配置的。編隊利用分散的代理在 "殺戮網 "上進行重新配置。殺戮網的目標是避免 "單體系統 "的結構僵化。
與傳統戰爭中需要的復雜棋局不同,馬賽克戰爭利用數字網絡,利用模塊的靈活性和增強的決策(時間壓縮)加快動態響應時間。像自然界中的復雜系統一樣,殺傷性網絡使用算法來消除單點故障,通過模塊化設計加速反應時間。
從主導地位(預測)轉向加速反應(適應),"馬賽克戰爭 "旨在支持混合軍事單位,利用 "決策棧 "上下的橫向網絡。人工智能、無人機、傳感器、數據和人員結合在一起,為地面上的作戰指揮官提供支持,使小型編隊能以更快的速度獲得情報、資源和后勤資產。
像 "馬賽克戰爭 "這樣的模塊化系統表明,未來的戰爭將越來越多地利用現在驅動戰爭游戲和模擬的計算、數據分析和算法。推動高度流動、游戲化和不可預測的環境,未來的人工智能系統可以將戰爭加速到一個隨著結果范圍的擴大而變得極其密集的計算速度和節奏。
DARPA最近的AlphaDogfight(2019-2020年)為這一新現實提供了一個窗口。使用復雜的F-16飛行模擬器讓計算機與有經驗的人類飛行員對決,試驗的目的是為DARPA的空戰進化計劃推進人工智能開發者。毫不奇怪,F-16人工智能代理通過積極和精確的機動性擊敗了人類飛行員,而人類飛行員根本無法與之相提并論,五局為零。
人工智能的武器化也在激起對抗人工智能系統的新戰略和方法。正如網絡行動(無論是間諜活動還是攻擊)可以指示計算機網絡或機器以它們不打算的方式運行,對手也可以對人工智能系統使用同樣的策略。這個過程被稱為對抗性機器學習,旨在找出機器學習模型的弱點并加以利用。攻擊可能發生在開發或部署階段,包括通過提供欺騙性輸入(例如,"毒化"數據)或針對模型本身來誤導模型。
這些方法在國家安全環境中特別危險,因為在許多情況下,它們是微妙的,人類無法察覺。此外,具有挑戰性的是,對手不一定需要對目標模型的具體知識或直接訪問其訓練數據來影響它。隨著人工智能系統變得更加普遍,更多的人可以接觸到,對手的吸引力和攻擊機會將增加。
攻擊者可能試圖修改訓練數據或測試數據。這是通過創造對抗性樣本來實現的,這些樣本被故意 "擾亂 "或改變并提供給模型,從而導致錯誤。例如,通過改變洗衣機圖像的分辨率,研究人員能夠欺騙一個模型,將機器分類為 "安全 "或 "擴音器"(Kurakin, Goodfellow and Bengio 2017)。對人的眼睛來說,對抗性圖像看起來幾乎是一樣的。
在國家安全方面,對手可能會試圖使用同樣的技術來暗示武器系統實際上是一個社區中心。如果這是在孤立的情況下發生的,那么這個問題很可能被識別和解決。如果對手的樣本被長期大規模使用,這可能成為一個重大的挑戰,并影響對情報收集系統的信任。
此外,一些對手可能并不精確--或有技能--并可能試圖迫使一個模型對整個類別而不是特定類別進行錯誤分類。由于我們在國家安全環境中越來越依賴計算機圖像,并不總是能夠實時或在有爭議的空間進行驗證,因此在這種攻擊中出現誤判的風險是很大的。
高后果的人工智能系統并不是對抗性攻擊的唯一目標。受對抗性樣本影響的人工智能系統可以包括生物識別,其中假的生物特征可以被利用來冒充合法用戶,語音識別中攻擊者添加低量級的噪音來混淆系統(Zelasko等人,2021)和計算機安全(包括在網絡數據包中混淆惡意軟件代碼)。
由于DND/CAF尋求通過部署人工智能系統來提高效率--如軍艦上的語音助手(McLeod 2019)--必須在部署前評估對抗性使用的風險并制定對策。
除了改變輸入,另一種攻擊方法可用于逆向工程模型以獲取訓練數據(Heaven 2021)。由于機器學習模型對訓練數據的表現比新的輸入更好,對手可以識別目標模型預測的差異,并與包括個人身份信息在內的已知數據相匹配(Shokri等人,2017)。隨著機器學習即服務變得越來越多--而且在許多情況下,被用作開發更復雜的能力的基礎--DND將需要仔細審查國家安全系統的數據泄漏風險。這甚至適用于看似無害的系統,如語音助手。
人工智能系統的弱點的例子很多(Hadfield-Menell等人,2017)。這些例子包括吸塵器將收集到的灰塵彈回它剛打掃過的地方,以便它能收集更多的灰塵,或者數字游戲中的賽艇在原地循環以收集分數,而不是追求贏得比賽的主要目的。雖然這些例子沒有生命危險,但同樣的技術--被稱為獎勵黑客(當一個模型被指示使其目標函數最大化,但卻以非故意的方式進行)--可以被用于更嚴重的效果。
從旨在用固定的訓練數據解決 "單步決策問題 "的機器學習過渡到解決 "順序決策問題 "和更廣泛的數據集的深度機器學習,將使對抗性攻擊更難發現。這種威脅是如此之大,以至于美國情報高級研究項目活動正在資助一個項目,以檢測木馬人工智能對已完成系統的攻擊。令人擔憂的是,政府可能會在不知情的情況下操作一個產生 "正確 "行為的人工智能系統,直到出現 "觸發 "的情況。例如,在部署過程中,對手可能會攻擊一個系統,并在更晚的時候才導致災難性的故障發生。這些類型的攻擊可能會影響到圖像、文本、音頻和游戲的人工智能系統。
正如對抗性樣本可以用來愚弄人工智能系統一樣,它們可以被納入訓練過程中,以使它們對攻擊更加強大。通過對最重要的國家安全人工智能系統進行清潔和對抗性數據的訓練--要么給它們貼上這樣的標簽,要么指示一個模型將它們分離出來--更大的防御是可能的。但是,復雜的對手很可能會自行躲避這種防御方法,而使用額外的戰術進行深度防御將是必要的。
GANs有各種各樣的用例,從創建深度假說到癌癥預后(Kim, Oh and Ahn 2018)。它們也可用于防御對抗性攻擊(Short, Le Pay and Ghandi 2019),使用一個生成器來創建對抗性樣本,并使用一個判別器來確定它是真的還是假的。一個額外的好處是,使用GANs作為防御,實際上也可能通過規范數據和防止 "過度擬合 "來提高原始模型的性能(IBM云教育2021)。
對抗性攻擊和防御模型進行基準測試--如使用GANs--是一種全面的對策,可以對AI系統進行比較。這種方法為制定和滿足安全標準提供了一個量化的衡量標準,并允許評估人工智能系統的能力和限制。
作為這個測試和評估過程的一部分,博弈論可能有助于建立對手的行為模型,以確定可能的防御策略。由于人工智能系統無法在傳統的信息安全意義上進行 "修補",因此在部署前應仔細分析針對國家安全人工智能系統的對抗性攻擊的風險,并定期進行審查。此外,訓練有素的模型--特別是那些關于機密數據和最敏感應用的模型--應該得到仔細保護。
數據驅動的戰爭的速度和范圍表明,我們正在進入一個新的時代,其中致命性武器系統的潛力--無論是否有人類參與--都可能極大地改變全球力量平衡。從殺手級無人機和人機合作到增強的軍事決策(殺手2020),人工智能技術將使世界各國軍隊投射力量的能力大大增加。正在進行的人工智能武器化也與空間武器化相重疊(《經濟學人》2019年),因為低地球軌道(LEO)日益成為軍事監視、遙感、通信、數據處理(Turner 2021)和彈道武器(Sevastopulo和Hille 2021)的操作環境。
人工智能與低地軌道和致命性自主武器系統的興起,代表了全球安全性質的一個關鍵轉折點。為此,世界各地的學術研究人員、技術企業家和公民都對人工智能的軍事化所帶來的危險表示擔憂。正如他們正確地指出的那樣,在規范負責任地開發和使用人工智能的規范和法律方面缺乏國際共識,有可能造成未來的危機。
除了我們在科幻小說中經常看到的對人工智能的夸張描述,重要的是建立適當的制衡機制,以限制人工智能技術可能提供的權力集中。關于管理人工智能和其他數字技術的共同國際規則和條例將塑造未來幾十年的戰爭和沖突的輪廓。在軍事人工智能的發展中制定護欄,對于減少未來沖突的可能性至關重要。
加拿大和其他北約國家積極參與這一討論可能是未來全球和平與安全的關鍵。在發動戰爭的條件(jus ad bellum)和戰爭中的人工智能行為(jus in bello)方面,規范人工智能使用的戰爭法仍有待確定。鑒于美國和中國之間不斷擴大的競爭,需要制定關于致命性自主武器系統的使用及其擴散的條約是再及時不過了。
正如北約所觀察到的,加拿大及其盟國應尋求促進、參與和建立合作機會,以支持開發和應用人工智能和其他EDT的廣泛、全面的架構(北約新興和顛覆性技術咨詢小組2020)。盡管面臨著艱巨的挑戰,全球治理在規范軍事人工智能方面可以發揮重要作用。盡管對人工智能及其武器化有不同的看法,但過去的談判可以作為未來條約的基礎,特別是在定義戰爭規則方面。這包括關于常規武器、核軍備控制、生物和化學武器、地雷、外層空間和平民保護的條約(見圖6)。
到目前為止,《聯合國特定常規武器公約》(CCW)已經監督了一個討論應對自主武器帶來的人道主義和國際安全挑戰的進程。已經提出了一系列監管致命性自主武器系統的潛在方案,包括《特定常規武器公約》下的一項國際條約,一個不具約束力的行為準則,宣布各國承諾負責任地開發和使用致命性自主武器系統。在聯合國之外,2013年發起了 "停止殺手機器人 "運動,目標是完全禁止致命性自主武器系統。
聯合國秘書長安東尼奧-古特雷斯強調了人工智能和其他數字技術的風險和機遇(聯合國2020),并呼吁禁止致命性自主武器系統(古特雷斯2021)。不幸的是,聯合國成員國,特別是聯合國安理會的觀點存在分歧,一些國家認為監管是民族國家的專屬權限,而另一些國家則側重于更多部門的做法。除了人工智能的武器化,在圍繞人權、算法偏見、監控(公共和私人)以及國家支持的或國家支持的網絡攻擊等問題上也存在廣泛的分歧。
對于世界上的主要軍事大國來說,缺乏互信仍然是追求人工智能集體軍備控制協議的一個重大障礙。即使相當多的國家支持提供新的具有法律約束力的條約,禁止開發和使用致命性自主武器,但世界上大多數主要軍事大國都認為人工智能的武器化具有重大價值。鑒于這些分歧,致命性自主武器系統的多邊管理將需要建立信任措施,作為打開政治僵局的軍控進程的手段。
走向平凡的監管 也許制定管理人工智能的政策和監管制度的最具挑戰性的方面是難以準確地確定這些制度應該監管什么。與生物和化學武器不同,人工智能大多是軟件。事實上,人工智能是一個移動的目標:40年前被定義為人工智能的東西,今天只是傳統的軟件。
人工智能是一個模糊的技術領域,影響著廣泛的商業和軍事應用。例如,機器學習算法是搜索引擎(算法排名)、軍用無人機(機器人技術和決策)和網絡安全軟件(算法優化)的成分。但它們也支撐著平凡的行業,甚至兒童玩具(語義分析、視覺分析和機器人技術)、金融軟件和社交媒體網絡(趨勢分析和預測分析)。
與屬于這些平凡的監管領域的產品和流程一樣,人工智能技術不是被設計成最終實體,而是被設計成在廣泛的產品、服務和系統中使用的成分或組件。例如,一個 "殺手機器人 "不是一種特定技術的結果。相反,它是人工智能 "成分 "重新組合的結果,其中許多成分也被用來檢測癌癥或增加駕駛者的安全。
雖然人們傾向于使用一個專門的不擴散鏡頭來監管人工智能,但雙重用途的挑戰仍然存在。與核擴散或轉基因病原體不同,人工智能不是一種特定的技術。相反,它更類似于一個材料或軟件成分的集合。與大多數二元的核不擴散鏡頭相比,可以在食品監管中找到更相關(盡管不那么令人興奮)的監管模式的靈感,特別是食品安全和材料標準(Araya和Nieto-Gómez 2020)。
鑒于對人工智能進行全面監管存在重大的概念和政治障礙,治理仍然是一項艱巨的挑戰。一方面,如果我們把人工智能理解為一系列復制人類活動的技術實踐,那么就根本沒有一個單一的領域可以監管。相反,人工智能的治理幾乎重疊了每一種使用計算來執行任務的產品或服務。另一方面,如果我們將人工智能理解為大幅改變人民和國家之間權力平衡的基礎,那么我們就會面臨重大挑戰。
幸運的是,這并不是民族國家第一次面臨影響全球安全的新技術。在第二次世界大戰之后,世界上最強大的國家--美國、英國、蘇聯、中國、法國、德國和日本--對核武器、化學制劑和生物戰的全球治理進行監督。當時和現在一樣,世界必須采取集體行動來治理人工智能。
與冷戰時期一樣,包括定期對話、科學合作和分享學術成果在內的建立信任措施可以幫助減少地緣政治的緊張。為管理軍事人工智能帶來的風險制定一個共同的詞匯,可以為隨著時間的推移制定更有力的人工智能多邊條約提供基礎。
在這方面,經濟合作與發展組織(OECD)已經公布了其關于人工智能的建議,作為一套政府間標準,于2020年2月啟動了人工智能政策觀察站。加拿大和法國政府還與經合組織一起領導了一個全球人工智能伙伴關系(GPAI),旨在成為一個人工智能政策的國際論壇。GPAI的成員專注于以 "人權、包容、多樣性、創新和經濟增長原則 "為基礎的負責任的人工智能發展。
除了GPAI,一些歐洲國家已經呼吁歐盟成員開始一個關于負責任地使用新技術的戰略進程--特別是人工智能。美國已經邀請盟國討論人工智能的道德使用問題(JAIC公共事務2020)。北約已經啟動了一個進程,鼓勵成員國就一系列道德原則和具有軍事用途的電子技術關鍵領域的國際軍備控制議程達成一致(Christie 2020;NATO 2020)。認識到EDT對全球安全的深遠影響,北約于2019年12月推出了EDT路線圖(北約科技組織2020)。
從整體上看,二十一世紀需要進行正式監管。從長遠來看,這很可能包括尋求與禁止生物武器、化學武器和殺傷人員地雷一樣的人工智能條約。然而,鑒于人工智能的創新速度和世界超級大國之間日益擴大的分歧,就人工智能的全球治理進行談判的機會之窗可能正在關閉。
圖6:人工智能的全球治理
即使在工業時代即將結束的時候,技術創新也在加速進行(Araya 2020)。自從大約80年前誕生以來,人工智能已經從一個神秘的學術領域發展成為社會和經濟轉型的強大驅動力。人工智能在戰爭中的整合被一些軍事分析家描述為一個不斷發展的 "戰場奇點"(Kania 2017)。在 "技術奇點"(Schulze-Makuch 2020)的概念基礎上,人們越來越多地猜測,人工智能和機器人將超越人類的能力,有效地應對算法驅動的戰爭。
人工智能和其他EDT的演變正在將先進的數據、算法和計算能力匯集起來,以 "認知 "軍事技術。在這種新環境下,現代軍隊正變得嚴重依賴提供安全、及時和準確數據的網絡。數據已經成為數字系統的 "作戰用氣 "和驅動 "智能機器 "的原料。隨著數據重要性的增加,在廣闊的數字領域的對抗性競爭也在增加。事實上,數據的真正價值在于其推動創新的數量和質量。
正如北約關于EDT的年度報告(北約新興和顛覆性技術咨詢小組2020)明確指出,要想跟上技術變革的步伐,就必須在技術的開發、實驗和應用方面保持靈活性和快速迭代。整個CAF的創新能力必須是一個更廣泛的創新生態系統的一部分,該系統有效地整合了公共和私人生態系統的研究和實施。這包括與加拿大工業界合作利用雙重用途的GPT的明確目標,以便利用已經存在的技術。
這種多領域的合作在歷史上被定義為國家創新體系(NSI)(OECD 1997)。事實上,NSI政策和規劃可以采取多種形式,從松散的協調到高度整合的伙伴關系。在美國(Atkinson 2020)、中國(Song 2013)和歐洲(Wirkierman, Ciarli and Savona 2018)應用的各種NSI規劃模式表明,在最大化政府-產業-研究伙伴關系方面可以找到大量的經濟和社會回報。政府應通過稅收優惠、采購和研究資金以及戰略規劃,努力建設加拿大的技術能力。但它不能單獨行動。
國家創新必然取決于機構參與者在一個共享的生態系統中進行合作。出于這個原因,一個協調的加拿大國家統計局將需要在推動長期創新的過程中,人們和機構之間的技術和信息的相互流動。鑒于EDT的許多創新是由工業界主導的,推進公私伙伴關系對加拿大軍隊的發展至關重要。對于國防部/加拿大空軍來說,要推進適合數字時代的軍隊,政府、工業界和學術界將需要以更綜合的方式進行合作。
建立一個強大的加拿大創新生態系統將意味著更廣泛的公私合作和持續的知識和資源的再培訓、培訓和孵化。盡管開發尖端人工智能需要人力資本投資,但大多數人工智能應用現在可以通過開源許可獲得,即使核心學習算法可以在公共平臺和整個學術生態系統中獲得。這種 "開放一切 "環境的影響是對封閉的等級制度和深思熟慮的官方機構的實質性挑戰。
政府程序和規劃將需要適應加速的創新生命周期,以配合EDT積極的淘汰周期。除了與網絡技術相關的巨大的不對稱安全風險外,向數據驅動型軍隊的轉變將需要大量關注數據安全和數據治理。與進行傳統的國家間沖突所需的大量成本和規劃不同,網絡攻擊的破壞性影響可以由僅有一臺個人電腦的小團體對關鍵基礎設施發動。鑒于未來不斷增加的挑戰,大型官僚機構(公司、政府、學術和軍事)的設計變化是不可避免的。
除了對新的和不同的知識、資源和專長的需求,加拿大政府和加拿大軍方將需要平衡硬實力和不斷變化的地緣政治格局的需求。在美國占主導地位的時代之外,二十一世紀正被一個以技術民族主義和后布雷頓森林體系為特征的多極體系所塑造。面對一個快速發展的數字時代,國際合作將是確保和平與安全的關鍵。信息共享、專家會議和多邊對話可以幫助世界各民族國家及其軍隊更好地了解彼此的能力和意圖。作為一個全球中等國家,加拿大可以成為推動這一努力的主要伙伴。
國際治理創新中心(CIGI)是一個獨立的、無黨派的智囊團,其經同行評議的研究和可信的分析影響著政策制定者的創新。其全球多學科研究人員網絡和戰略伙伴關系為數字時代提供政策解決方案,目標只有一個:改善各地人民的生活。CIGI總部設在加拿大滑鐵盧,得到了加拿大政府、安大略省政府和創始人吉姆-巴爾西利的支持。