亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

首先回顧并簡要評述了當前的軍事人工智能形勢。然后,轉向迄今為止在很大程度上被忽視的人工智能驅動系統影響國家層面訴諸武力決策的前景。雖然此類系統已經對發動戰爭的決策產生了有限而間接的影響,但它們將越來越多地以更直接的方式影響此類決策--無論是在自動自衛的背景下,還是通過為人類決策提供信息的決策支持系統。本文引證了人工智能系統在其他決策領域的不斷擴散,再加上人們認為有必要在人工智能 “全球軍備競賽 ”中與潛在對手的能力相匹配,這種發展是不可避免的,很可能會在不久的將來出現,并有望產生重大影響。在概述了與這一預期發展相關的四個主題之后,預覽了構成本特刊的十二篇多元化、多學科文章。每篇文章都涉及我們提出的四個主題之一,并探討了人工智能技術滲透到戰爭決策中的重大風險或益處。

如果由智能機器來決定國家是否參與戰爭呢?從某種意義上說,這只是科幻小說的內容,或者說是對未來技術如何發展、如何超越我們的能力并掌握控制權的長期猜測。然而,從另一個更細微的角度來看,這是一個非常可信的現實,與我們現在擁有的技術相兼容,很可能在不久的將來以某種形式實現(考慮到其他領域可觀察到的發展),而且是我們心甘情愿地逐步實現的前景。

本文將探討人工智能介入訴諸武力的決策這一完全可以想象的前景所帶來的風險和機遇。將回過頭來簡要評述一下當前的軍事人工智能形勢,然后再探討人工智能預期影響這一在很大程度上被忽視的領域。然后,將強調與人工智能技術滲入戰爭決策相關的四個主題,然后預覽與這些并發癥相關的十二篇不同的、多學科文章。

當前背景

人工智能(AI)--不斷發展的機器模仿人類智能行為的能力--已經從根本上改變了有組織的暴力行為。人工智能已經并正在越來越多地融入各種軍事功能和能力。例如,圍繞澳大利亞、英國(UK)和美國(US)“AUKUS ”協議發布的官方文件概述了人工智能在先進軍事能力中發揮的日益重要的作用,包括對 “彈性和自主人工智能技術(RAAIT)”的承諾,根據該承諾,"‘AUKUS’合作伙伴正在提供人工智能算法和機器學習,以加強部隊保護、精確瞄準以及情報、監視和偵察。(AUKUS 國防部長引文2023)人工智能在軍事能力中的擴散不僅對武器系統的實用性、準確性、殺傷力和自主性產生深遠影響(例如,見 Scharre 引文2024),而且人工智能與先進武器系統的交叉被認為會對軍事力量平衡產生嚴重影響(例如,見 Ackerman 和 Stavridis 引文2024)。事實上,人工智能已被視為謀求軍事優勢的關鍵所在,并在當前關于維護軍事優勢的思考中占據中心位置。正如一份分析報告所解釋的那樣,人工智能 “將使美國能夠部署更好的武器,在戰斗中做出更好的決策,并釋放出更好的戰術”。(布坎南和米勒引文 2017, 21)用美國前國防部副部長米歇爾-弗盧諾伊(引文 2023)的話說,“人工智能正開始重塑美國的國家安全”。

軍事人工智能的重要性與日俱增,其利用也日益廣泛,與此同時,人們對其使用可能帶來的潛在風險和不良后果也感到擔憂。一個充滿人工智能的決策世界和隨之而來的壓縮時間表,再加上智能自動化甚至完全自主的武器,在帶來軍事優勢的同時也帶來了危險。這促使人們試圖制定規則和限制,至少可以約束人工智能的某些軍事應用,并力求將危險或不良結果降至最低。這種監管不僅僅是一個學術問題。大量證據表明,各國政府也越來越關注人工智能在軍事領域的應用所帶來的廣泛風險。2023 年 2 月在海牙舉行的 “軍事領域負責任的人工智能 ”國際峰會發表了 “關于負責任地在軍事領域使用人工智能和自主權的政治宣言”,截至 2024 年 2 月,該宣言已得到 50 多個國家的認可(美國國務院引文2023)。該聲明包括一系列旨在促進安全、謹慎地使用軍事人工智能的可取措施,其中包括 “在負責任的人類指揮和控制鏈內 ”使用人工智能的主張(與本特刊通篇討論的一個問題有關)(美國國務院引文 2023)。

澳大利亞國防部長理查德-馬爾斯議員在宣布澳大利亞將于 2023 年 11 月加入該宣言時重申,澳大利亞承諾 “積極參與國際議程,以負責任的方式研究、開發、部署和應用人工智能”(澳大利亞政府引文 2023)。此外,美國總統喬-拜登和澳大利亞總理安東尼-阿爾巴內塞于2023年10月在華盛頓特區會晤后發表聯合聲明,申明 “各國應采取適當措施,確保負責任地開發、部署和使用其軍事人工智能能力,包括實現自主功能和系統的能力”(澳大利亞總理引文2023)。當然,要切實采取這些措施,就必須了解--并預測--人工智能系統在軍事環境中的各種應用方式。

最后,必須承認,軍事人工智能與核武器并存的幽靈最近引起了人們的關注和擔憂。人工智能在核武器領域的應用引發了大量分析和擔憂,原因顯而易見,其潛在風險是如此巨大(例如,見 Kaur Citation2024;Shaw Citation2023;Parke Citation2023)。正如 Depp 和 Scharre 嚴正指出的那樣,“在核行動中正確使用人工智能可能會產生毀滅世界的影響”(Depp 和 Scharre 引用 2024)。美國在其 2022 年《核態勢評估報告》中宣布,作為一項政策,在任何涉及使用核武器的決策中,人類都將無一例外地參與其中(美國國防部引文 2022,13)。一個基本的擔憂是,人工智能可能會以自動反應能力的方式融入核指揮與控制,這可能會加強威懾,但也會增加意外升級或失控的風險。由于擔心人工智能的引入會給核指揮與控制帶來新的漏洞,人們呼吁制定規范和準則,以限制核不穩定性以及可能隨之而來的對核威懾的威脅(Avin 和 Amadae Citation 2019)。

總之,人工智能對武器系統的性能、軍事行動的開展以及軍事力量的弱點和優勢的影響非常重要。這些發展對未來戰爭具有嚴重影響(如果仍不確定的話),并引起了學術界、國家領導人和普通公眾的關注。然而,由人工智能驅動的軍事工具激增所引發的思想發酵和政策審議主要集中在因此而使用(和改變)武力的方式上,而不是這種新興技術組合如何可能為國家是否以及何時參與戰爭的決策提供信息(并可能改變決策)的問題上。要討論的正是后一個問題。

被忽視的前景

學術界和政策制定者的關注點主要集中在戰爭中人工智能系統的使用上。其中最突出的包括正在出現的 “致命自主武器系統”(“LAWS”--或更通俗和挑釁性的 “殺手機器人”)和決策支持系統,其形式是依靠大數據分析和機器學習來推薦無人機襲擊和轟炸目標的算法(如最近引起關注的以色列在加沙的行動(Abraham Citation2024;Davies, McKernan, and Sabbagh Citation2023))。相比之下,試圖探討的是在商議訴諸戰爭的各個階段和層面使用人工智能工具這一相對被忽視的前景。

換句話說,將從戰場上的人工智能轉向戰爭室中的人工智能。從士兵選擇和攻擊目標(以及授權和監督智能機器選擇和攻擊目標)的決策,轉向國家層面關于發動戰爭和軍事干預的決策;從戰時法(jus in bello)轉向訴諸戰爭法(jus ad bellum)的考慮(用正義戰爭傳統的語言);從國際人道法裁定的行動,轉向受《聯合國憲章》禁止訴諸武力及其明確例外規定約束和縱容的行動。

重點的轉移至關重要。它預示著國家在做出戰爭決定時不可避免的變化。之所以預測人工智能將滲透到訴諸武力的決策過程中,部分原因是人工智能驅動的系統(包括預測性機器學習算法)在其他許多領域不斷擴散,以幫助決策制定。從招聘、保險決策、醫院醫療診斷和福利分配,到警務實踐、商用飛機駕駛艙支持和累犯可能性判斷,都需要依靠此類系統。總之,人類的決策越來越依賴于人工智能的幫助。此外,在日益高速、始終高風險的戰爭環境中,需要與潛在對手的能力相匹配,這也助長了最新的 “全球軍備競賽”(Simonite Citation2017)。雖然人工智能系統目前在國家層面的訴諸武力決策中只發揮了有限和間接的作用,但相信,它們將逐步以更直接的方式影響此類決策。現在,通過研究人工智能逐步干預訴諸武力決策的前景,就有可能確定使用這些技術的益處和風險,同時還有時間分別找到加強或減輕這些益處和風險的方法。

這些考慮因素的嚴重性怎么強調都不為過。正如阿什利-迪克斯(Ashley Deeks)、諾姆-盧貝爾(Noam Lubell)和達拉-默里(Daragh Murray)(引文2019, 16)挑釁性地提出的:如果說機器被賦予 “決定 ”殺死一名敵軍士兵的權力的可能性充滿了倫理和法律爭議,那么又該如何看待機器最終決定一個國家是否參戰,從而影響成千上萬或數百萬人生命的可能性呢?

當然,智能機器 “決定 ”一個國家是否參與戰爭可能意味著不同的事情。撇開科幻小說中的場景和長期的未來主義猜測不談,目前的人工智能驅動系統可以通過兩種方式對訴諸武力的決策產生影響。首先,人工智能決策支持系統可用于為是否參戰的討論提供信息。在這種情況下,人類決策者將利用算法建議和預測來做出訴諸武力的決定。在人工智能輔助收集和分析情報方面,這種情況已經開始出現,至少是間接地出現在組織層級和指揮系統中。另外,人工智能驅動的系統本身也可以計算和執行訴諸武力的決定,例如在防御網絡攻擊的情況下。此外,令人擔憂的是,人工智能驅動的自動核反應首次打擊的建議也被醞釀和威脅,特別是在斬首攻擊的情況下。(據報道,蘇聯留給俄羅斯的 “死手 ”發射系統仍在使用,因此這種可能性并非不可想象。俄羅斯的 “周邊 ”系統在 Depp 和 Scharre Citation2024 中有所描述;另見 Andersen Citation2023,12)。在這種情況下,人工智能自主系統將決定并實施行動方案--無論是否有人類監督。這兩類情況都是可預見的(而且很可能是在不久的將來),需要立即關注。

四個復雜因素

這些人工智能驅動的系統能夠分析大量數據,通過發現人類決策者無法感知的數據模式提出建議和預測,并以望塵莫及的速度和效率對潛在攻擊作出反應,盡管它們具有種種潛在優勢,但挑戰也層出不窮。2023 年 6 月 29 日至 30 日,在澳大利亞國立大學(ANU)舉行了題為 “預測未來戰爭:人工智能、自動化系統和訴諸武力決策 ”的研討會,該研討會促成了本特刊的出版。

復雜因素 1 涉及人工智能驅動的訴諸武力決策中人類判斷的替代,以及對威懾理論和沖突意外升級的可能影響。當編程建議--或獨立計算和實施--對特定情況做出反應時,智能機器的行為會與人類代理人不同。這種差異可能會挑戰我們對威懾的理解。目前對一個國家是否愿意訴諸武力的看法是基于對人類判斷力、決心和忍耐力的假設,而不是機器生成的結果。此外,在某些情況下,人工智能系統被委以獨立應對侵略的任務,將以人類行為者無法達到的速度做出并執行決策,從而加快決策周期。它們似乎還可能曲解人類的信號(例如,關于緩和沖突的愿望)。這兩個因素都可能導致在人類決策者本應保持克制的情況下,訴諸武力卻在無意中升級,并可能造成災難性后果(例如,見 Wong 等人,Citation2020,第 7 章和第 8 章)。

復雜因素 2 強調了自動化偏差可能產生的影響。實證研究表明,依賴人工智能驅動系統的個人和團隊往往會出現 “自動化偏差”,即傾向于不加質疑地接受計算機生成的結果(Cummings Citation2006;Citation2012;Mosier and Fischer Citation2010;Mosier and Manzey Citation2019;Skitka, Mosier, and Burdick Citation1999)。這種傾向會使人類決策者不太可能利用自己的專業知識和判斷力來檢驗機器生成的建議。自動化偏見的有害后果包括接受錯誤、人類行動者的非技能化--包括 “道義上的枯竭”(Vallor Citation2013),以及正如一位在本文集和其他地方所論證的,在戰爭中 “錯位責任 ”的推廣(與其他因素一起),或者說智能機器可以為必然是人類的決策及其結果承擔道義責任的危險誤解(Erskine Citation2024a, 551-554; Citation2024b)。

復雜因素 3 涉及算法的不透明性及其對民主和國際合法性的影響。機器學習過程經常是不透明和不可預測的。受其指導的人往往不理解預測和建議是如何得出的,也不了解它們的局限性。目前,許多人工智能驅動的決策都缺乏透明度,這導致了一系列負面影響(Knight Citation2017;Pasquale Citation2016;Citation2017;Vogel 等人 Citation2021)。由于政府的民主和國際合法性要求對訴諸戰爭的決定提供令人信服且易于理解的理由,當機器為此類行動提供信息或獨立計算和實施此類行動時,這種缺乏透明度的情況會帶來嚴重的問題。

復雜因素4 涉及人工智能系統加劇組織決策病態的可能性。國際關系(IR)和組織理論的研究都揭示了組織決策的現有復雜性和 “病態”(在國際關系領域,例如參見 Barnett 和 Finnemore Citation 1999)。人工智能驅動的決策支持和自動化系統介入這些復雜的結構有可能會放大這些問題。它們對國家甚至政府間決策的貢獻可能會扭曲和擾亂戰略和行動決策過程及指揮系統。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

未來沖突環境中有兩個相互關聯的問題值得情報組織關注:大數據帶來的分析挑戰和網絡威脅。前所未有的數據生產正在超越人類和機器的分析能力,而不斷涌現的技術正在增強對手滲透通信網絡的能力。在未來的沖突中,情報組織將利用易受網絡入侵的不完善的傳統計算來分析大數據,并通過同樣易受入侵的媒介來傳播已完成的情報。在未來沖突中使用傳統的分析和加密技術,表明情報機構沒有能力或不愿意利用先進技術提高情報分析能力和數據保護能力。在發展中的技術中,基于量子的計算和人工智能以及量子加密技術為這兩個問題提供了解決方案。考慮到量子技術在未來 10-15 年內前所未有的潛力,海軍陸戰隊和其他軍種的情報實體應開發一種量子與傳統計算機的集成架構,以產生人機分析能力和量子加密來保護情報通信網絡。

圖 2:假設沖突 OE 和全球環境中的大數據生產和網絡威脅。已部署的 IOC 與 MIC/MCIA 量子人工智能加密中心之間的支持和關系。

付費5元查看完整內容

新技術的影響和未來作戰空間速度的加快可能會使指揮和控制職能過度集中于政治或戰略層面,從而繞過合格參謀人員所發揮的咨詢作用。政治和/或戰略領導人可能會發現,發動先發制人的戰爭或預防性戰爭,以此作為獲取對敵不對稱優勢的戰略是很有吸引力的。本文研究了這一趨勢的根源,將歷史觀點與下一代技術可能對指揮和控制產生的影響聯系起來。

圖 3. 自主武器與自主戰爭之間的平行關系

新技術的影響和未來戰場節奏的加快可能會使政治或戰略層面的指揮和控制職能過度集中。政治和戰略領導人可能會將先發制人或預防性戰爭作為一種戰略,以獲得對敵人的不對稱優勢,這不是因為他們必須這樣做,而是因為他們可以這樣做。因此,高級領導人可能會被鼓勵繞過其合格參謀人員所發揮的咨詢作用,并削弱下級指揮官的自主權。技術系統的進步可能會終結任務指揮、Auftragstaktik。唐納德-E-范德格里夫(Donald E. Vandergriff)將 Auftragstaktik 定義為軍事職業化的一種文化理念: 總指揮官的意圖是讓成員努力追求專業精神,作為回報,個人將在完成既定任務時獲得自由。將采用嚴格的、但經過驗證且站得住腳的標準來識別少數有能力從事軍事職業的人。一旦一個人被接納加入這一職業,就會與戰友們形成一種特殊的紐帶,這種紐帶使團隊合作和解決復雜任務成為可能。這種指揮文化......必須從基礎訓練一開始就融入所有教育和培訓中。

本文探討了這一趨勢的根源,將歷史觀點與下一代技術可能對指揮與控制產生的影響聯系起來。

技術創新在戰爭中發揮著至關重要的作用。在戰爭中采用新技術有助于取代傳統上由人類扮演的角色。在第一次世界大戰和第二次世界大戰之間的戰時,戰爭得到了優化,以便通過日益復雜的機器來應對更遠的距離和更快的執行速度。武裝部隊的總參謀部變得更加精密和復雜,以處理更多的信息。戰場逐漸遠離指揮官,而作為戰爭關鍵職能的指揮和控制則走向自動化。

當前的軍事能力是技術和信息不斷發揮核心作用的演變趨勢的結果。隨著以網絡為中心的戰爭(NCW)作戰概念的引入,或各級網絡化部隊的使用,指揮官現在可以訪問由傳感器、決策者和士兵組成的網絡,從而在幾乎全球范圍內提供共享意識、更快的節奏、更強的殺傷力和生存能力。新技術的開發和采用使政治和戰略決策者能夠實時控制戰場,甚至在戰術層面也是如此。新技術的影響和未來戰場速度的加快可能會使政治或戰略層面的指揮和控制職能過于集中。其后果可能不利于在作戰和戰術層面開展軍事行動。此外,自主武器和人工智能是戰爭自動化的下一步,對指揮與控制有著至關重要的影響。

在對指揮與控制的調查中,作者沿用了《指揮與控制》、《海軍陸戰隊條令出版物(MCDP)6》所采取的方法,并使用了美國空軍上校約翰-R-博伊德的 OODA 循環(觀察、定向、決策和行動),因為用《指揮與控制》的話說,它 “描述了指揮與控制過程的基本順序”。此外,OODA 循環對有效決策也有重要作用。作者認為,雖然高度自主技術的引入已經并將繼續對觀察(O)、定向(O)和行動(A)階段產生重大影響,但決策(D)階段仍需要 “環路上 ”的人來控制行動的進行。新技術的采用將大大加快 OOA 階段的速度,決策階段也將從中直接受益,但運用判斷和專業經驗的能力仍將是這一階段的關鍵因素。戰爭規劃》(MCDP 1)正確地強調,軍事決策不僅僅是數學計算。決策既需要有識別特定問題本質的情境意識,也需要有制定切實可行解決方案的創造能力。這些能力是經驗、教育和智慧的產物。

然而,對可靠、準確和快速軍事選擇的追求可能會讓人類從許多過程和程序中消失。事實上,機器可能會在決策過程的許多關鍵階段取代人類。這種可能性引起了軍事工作者和學者的一些擔憂。在經常被描述為超戰爭的未來戰爭中,由于競爭要素的反應近乎瞬時,OODA 循環中可能幾乎完全沒有人類決策。這篇文章描述了未來作戰環境自動化程度的提高所帶來的速度提升的副作用:不可避免且必要的 OODA 循環壓縮。

付費5元查看完整內容

先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。

結構性風險的定義和概念化

技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。

圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。

結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。

為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。

權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。

這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。

付費5元查看完整內容

在這個前所未有的技術驅動轉型時代,比以往任何時候都更需要積極投資開發強大的人工智能(AI),用于兵棋推演以支持決策。通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域感知,提高決策周期的速度和質量,為新的行動方案提供建議,并更迅速地反擊對手的行動。因此,必須加快人工智能的發展,以幫助更好地應對目前需要人類智慧才能應對的現代挑戰和困境的復雜性,并在可能的情況下嘗試超越人類智慧--不是取代人類,而是以機器的速度增強人類決策并為其提供更好的信息。盡管深度強化學習在智能體行為開發方面不斷取得令人鼓舞的成果,可用于戰斗建模和模擬中常見的長視距復雜任務,但仍需進一步研究,才能使人工智能的規模擴大到能夠處理兵棋推演中錯綜復雜的廣闊狀態空間,從而進行概念開發、教育或分析。為了幫助應對這一挑戰,在研究中,正在開發和實施一個分層強化學習框架,其中包括多模型方法和維度不變觀測抽象。

利用人工智能進行兵棋推演

鑒于這些令人擔憂的活動以及最近在人工智能變革能力方面取得的突破,顯然必須開始更認真地投資于專門用于兵棋推演的人工智能開發。美國國家人工智能安全委員會(NSCAI)[27]詳細闡述了兩個信念:(1)"計算機系統解決問題和完成原本需要人類智慧才能完成的任務--在某些情況下甚至超過人類的表現--的能力迅速提高,正在改變世界";(2)"人工智能正在擴大美國已經進入的脆弱窗口"。因此,有鑒于此,NSCAI得出結論:"美國必須立即行動起來,將人工智能系統投入實戰,并在人工智能創新方面投入更多的大量資源,以保護美國的安全,促進繁榮,保障民主的未來"[27]。NSCAI [27] 認為,通過推進人工智能系統并將其與人類判斷力相結合,將能夠增強全域意識,提高決策周期的速度和質量,為不同的作戰行動提供建議,并更迅速地反擊對手的行動。

盡管美國在大多數領域都享有軍事優勢,但機器學習(ML)的擴散已開始為競爭對手和其他國家行為者提供無數的破壞機會[28]。因此,現在比以往任何時候都更有必要積極開展研究和實驗,以便對人工智能的優缺點以及如何將其用于規劃和兵棋推演有一個扎實的了解,只有這樣,國防部才能更好地做好準備,以應對戰略突襲和破壞[28]。例如,如今的作戰行動分析主要側重于評估友軍的計劃,而很少強調對手可能會如何根據自身的目標和能力做出反應[26]。盡管不遺余力地試圖了解對手的想法以及他們在沖突中會如何行動,但總是會受到自己想象力的限制。托馬斯-謝林(Thomas Schelling)在他的 "不可能定理"(Impossibility Theorem)中說得最好: "一個人,無論他的分析多么嚴謹,想象力多么豐富,都不可能做的一件事,就是列出一個他不會想到的事情清單"[29]。人工智能支持的兵棋推演甚至有可能克服這一限制,創造出有自己目標的智能體,而這些智能體并不一定受限于思維和計劃方式,因為思維和計劃方式通常是通過幾十年的經驗根深蒂固的。此外,僅從數據中學習新的行為,人工智能就能自動執行原本需要人類智慧才能完成的任務[30]。

雖然在機器學習領域已經開展了大量研究,但兵棋推演和軍事規劃與迄今為止使用人工智能解決的傳統問題--如圖像分類和自然語言處理--有很大不同。任務分析和規劃通常需要人類的直覺和啟發式方法來限制搜索問題的規模 [28]。雖然啟發式方法確實能更容易地找到可接受的解決方案,但這些解決方案的可擴展性或可靠性通常不足以評估可能出現的大量突發情況 [28]。此外,直覺也可能在非常復雜的問題中失效,例如那些涉及到有許多不同參與者的高維空間以及復雜的武器和傳感器交互的問題[28]。不幸的是,這些復雜性正是可能決定未來戰爭的特征[26], [28]。

幸運的是,迄今為止,競技游戲已成為學習如何實施人工智能以支持兵棋推演的良好試驗平臺。早期的成功包括掌握跳棋[32]、五子棋[33]、國際象棋[34]和圍棋[35]。人工智能方法在視頻游戲中也取得了成功,如 Atari 游戲 [36]、超級馬里奧兄弟 [37]、Quake III [38]、Dota 2 [39]、星際爭霸 II [40] 和無上限德州撲克 [41]。然而,競技游戲通常都有一套固定的規則、確定的參數和基于已知變量的可預測結果。雖然這些游戲能為戰略、決策和風險評估提供有價值的見解,但真實世界中的兵棋推演場景往往更加復雜--可能的初始游戲狀態更多,分支系數更大,因此結果更加難以預測。因此,如何將人工智能從這些游戲中獲得的成功轉化為真正的軍事行動是一項挑戰。不過,從這些游戲中獲得的人工智能學習和適應能力方面的進步,為人工智能在作戰模擬中更細致的應用奠定了堅實的基礎。

利用 "半人馬 "概念進行兵棋推演

正如 CeTAS 報告[31]所詳述的那樣,可以采用大量不同的方法來利用人工智能支持兵棋推演;不過,在本文剩余部分的范圍內,將討論人工智能與兵棋推演的關系,即創建能夠在戰斗建模和模擬所特有的龐大而復雜的狀態空間中做出理性決策的智能體。

然而,要證明人工智能能夠贏得游戲或取得超人的表現,只是證明人工智能確實能為兵棋推演者、作戰規劃者和戰場指揮官提供有用見解的第一步[42]。盡管如此,設想這些智能體將成為創建現代決策輔助工具的基礎,與更傳統的工具相比,這些工具能為決策者提供更高的準確性、速度和靈活性[28]--有可能加快決策過程并提供關鍵的洞察力。隨著進一步深入多域作戰[26],在面對人工智能對手時,忽視這一步會帶來巨大風險。

雖然人機協作的概念最初是由 Licklider 在 1960 年提出的[43],但前國際象棋世界冠軍加里-卡斯帕羅夫(Gary Kasparov)在 1997 年輸給 IBM 的 "深藍"(Deep Blue)[44]多年后,首次提出了 "半人馬國際象棋"(Centaur Chess)的概念。盡管被人工智能擊敗,卡斯帕羅夫并沒有將人工智能視為一種威脅,而是鼓勵將人工智能視為一種工具,當它與人類的能力相結合時,可以帶來前所未有的成就[44]。卡斯帕羅夫在他的著作《深度思考》(Deep Thinking: 機器智能的終點和人類創造力的起點[44]》一書中,卡斯帕羅夫強調了利用人類和機器互補優勢的必要性。計算機擅長暴力計算,每秒能分析數百萬個局面,同時輕松計算出最佳的近期戰術行動。另一方面,人類對戰略、創造力和考慮特定棋步長期影響的能力有更深刻的理解,而這一切主要靠直覺[44]。卡斯帕羅夫認為,人類的直覺和機器的計算結合在一起,往往能比頂尖特級大師或計算機單獨發揮出更強的棋力。卡斯帕羅夫指出,在許多情況下,即使是排名相對較低的棋手與計算機配對也能勝過頂級特級大師。

有趣的是,卡斯帕羅夫還指出,隨著計算機國際象棋程序變得越來越強大,人類棋手在這種半人馬合作關系中的角色也發生了變化。最初,人類專注于戰略,而計算機則專注于戰術,但隨著國際象棋人工智能的改進,人類越來越多地開始扮演 "質量控制 "的角色,確保計算機推薦的棋步與人類更廣泛的戰略目標相一致[44]。事實上,卡斯帕羅夫經常說,國際象棋的未來可能不是人類與機器的對決,而是人類與機器配對,使用何種界面,能下出最好的棋。這種合作融合了機器的計算能力和人類提供背景、理解和直覺的能力--這種協同作用所產生的棋藝水平超過了任何一方單獨發揮所能達到的水平。

為兵棋推演開發人工智能

雖然有許多不同的人工智能技術和方法可以應用于兵棋推演,如監督學習、無監督學習、遺傳算法、自然語言處理、決策樹、專家系統、博弈論、對抗網絡等,但本文主要關注的是推進強化學習(RL)領域的需求,以支持為兵棋推演開發智能體行為。

說到機器學習,主要有三種類型:監督學習、無監督學習和強化學習。監督學習依賴于標注數據,每一組輸入都有相應的預期輸出。它類似于范例學習,最適合圖像分類、回歸和語音識別等任務。相反,無監督學習不依賴于標記數據。相反,它能發現數據中的模式或結構,比如對數據點進行分組或聚類,最適合異常檢測、降維和數據分割。值得注意的是,還有其他類型的機器學習,如遷移學習、主動學習、自我監督學習等;不過,這些通常是上述兩類學習的擴展或組合。

付費5元查看完整內容

本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。

2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。

這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。

之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。

討論

2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。

人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。

雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。

在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。

要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。

在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。

人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。

付費5元查看完整內容

生成式人工智能模型能夠執行一系列傳統上需要創造力和人類理解力的任務。在訓練過程中,它們可以從現有數據中學習模式,然后根據這些模式生成文本、圖像和音樂等新內容。一方面,由于它們的多功能性和普遍的高質量結果,它們代表了數字化的機遇。另一方面,人工智能生成模型的使用也帶來了新的 IT 安全風險,在全面分析與 IT 安全相關的威脅時需要考慮這些風險。

針對這種潛在風險,使用生成式人工智能的公司或機構在將生成式人工智能集成到工作流程之前,應進行單獨的風險分析。這同樣適用于開發人員和運營商,因為生成式人工智能的許多風險必須在開發時就考慮到,或者只能由運營公司來影響。在此基礎上,可以調整現有的安全措施,并采取額外的措施。

付費5元查看完整內容

將人工智能(AI)融入陸軍后勤工作,可以徹底改變供應鏈管理、優化資源配置并增強決策能力。不過,這需要采取全面的方法,解決實施過程中的挑戰和問題。

人工智能技術的迅猛發展為將其應用于包括陸軍后勤在內的各行各業提供了新機遇。認識到人工智能的潛力,陸軍應努力大規模利用其能力,并將其應用到戰術層面,以改善供應鏈管理、資源分配和決策過程。通過與《聯合出版物 4-0:聯合后勤》、《野戰手冊 4-0:維持行動》和《陸軍條令出版物 4-0:維持》中概述的指導原則保持一致,陸軍可以在日益復雜和快速發展的世界中發展適應性強、反應迅速和有效的后勤行動。然而,將人工智能融入陸軍后勤工作會帶來一些挑戰和問題,如在自動化與人類專業技能之間找到最佳平衡點、確保強大的網絡安全、解決倫理問題以及使勞動力適應不斷變化的技術環境。本文探討了在陸軍后勤中整合人工智能的潛在優勢和劣勢,并討論了在最大限度地提高效益的同時,最大限度地降低風險和解決與實施人工智能相關的問題所需的全面方法。

最大化供應鏈管理: 真實案例

人工智能在大幅提升陸軍供應鏈管理方面的變革能力毋庸置疑。正如美陸軍物資司令部前司令埃德-戴利(Ed Daly)將軍所強調的那樣,人工智能對于實現實際后勤所需的相關速度至關重要。他的愿景是將人工智能和機器學習無縫融入陸軍后勤流程的方方面面,從而為戰場上的士兵提供無與倫比的效率和及時支持。為支持這一觀點,《國際生產經濟學雜志》上發表的一項研究顯示,將人工智能融入供應鏈管理可將效率提高 20% 或更多。

人工智能分析海量數據、預測未來趨勢和資源分配需求的能力是陸軍后勤的另一大優勢。通過利用人工智能驅動的分析,陸軍可以更精確地預測士兵的需求,確保重要物資在正確的時間和地點到達目的地。此外,預測分析還能通過簡化人員和裝備分配來優化陸軍行動。陸軍后勤中的預測分析可以確定車輛部件何時需要更換,從而在故障發生前進行主動維護。這種方法可節省大量成本并提高運營安全性,減少因維護和事故而計劃外停機的可能性。此外,預測性分析還可以通過預測供應需求和驗證在正確的時間和地點是否有正確的資源來完善供應鏈管理。這一戰略可提高運營效率、縮短交付周期并提高供應鏈的可見性。

自適應后勤與決策: 對實時信息做出反應

適應當地快速變化條件的能力是現代軍事行動的重要組成部分。適應性后勤和決策對于維持陸軍在復雜環境中的有效性和反應能力至關重要。人工智能通過提供實時信息、復雜的分析和先進的決策支持工具,有可能徹底改變軍事后勤的這一方面。

人工智能在適應性后勤方面的一個重要優勢是它有能力收集和分析來自各種來源的大量數據,包括傳感器、衛星和其他情報平臺。此外,人工智能還能訪問來自不同陸軍源系統的記錄系統數據,如全球指揮與控制系統-陸軍、后勤現代化計劃、港口自動化工具和運輸協調員移動信息自動化系統 II。人工智能還可以利用非陸軍系統,如全球決策支持系統和后勤功能區服務。通過這種全面的數據分析,可以做出更明智的決策,提高后勤效率。

這些信息可為作戰環境提供全面的最新情況,使指揮官能夠根據實時情報做出明智決策。通過獲取準確及時的數據,陸軍可以更有效地應對新出現的威脅,最大限度地降低風險,并抓住機遇。

除了提供實時信息外,人工智能還能通過識別人類分析人員可能不易察覺的模式和趨勢來加強決策。通過機器學習算法和先進的數據分析,人工智能系統可以發現隱藏的相關性,并產生可操作的見解,為戰略和戰術決策提供依據。例如,人工智能可以幫助預測敵人的動向,預測后勤瓶頸,或在潛在的供應鏈中斷發生之前加以識別。有了這些洞察力,指揮官就能做出更明智的決策,更有效地分配資源,并在戰場上保持競爭優勢。

人工智能還能通過自動化某些后勤規劃和決策環節,提高陸軍應對突發事件和緊急情況的能力。例如,人工智能驅動的系統可以根據不斷變化的環境條件或供應鏈的突然中斷,自動調整物資和人員的路線。通過實現這些流程的自動化,陸軍可以最大限度地減少延誤,并確保將關鍵資源運送到最需要的地方,即使在不確定和逆境中也是如此。

人工智能在適應性后勤中的另一項應用涉及使用模擬和優化技術來支持復雜多變條件下的決策。人工智能驅動的模擬模型可以幫助指揮官探索各種場景,評估潛在的行動方案,并確定實現目標的最有效策略。這可以使后勤計劃更加穩健、更具彈性,并提高任務的整體成功率。

反駁意見

雖然將人工智能融入陸軍后勤會帶來諸多益處,但也有合理的擔憂和潛在的弊端需要考慮。一些批評者認為,依賴人工智能可能會導致過分強調技術,而忽視人的經驗和直覺,而人的經驗和直覺在復雜和不可預測的情況下至關重要。人工智能有可能造成虛假的安全感,導致過度自信和戰略失誤。

此外,與實施人工智能技術相關的巨大成本,如基礎設施升級、軟件開發和持續維護,可能會超過潛在的好處。預算限制和相互競爭的優先事項可能會使為人工智能集成分配足夠的資源變得具有挑戰性,從而可能限制其有效性。

另一個令人擔憂的問題是人工智能系統易受網絡攻擊和敵方操縱。隨著人工智能驅動的后勤系統對陸軍行動越來越關鍵,它們也成為對手試圖破壞或損害軍事能力的高價值目標。制定強有力的網絡安全措施至關重要,但無法保證這些防御措施在應對快速發展的威脅時始終有效。

此外,還要考慮與軍事后勤中的人工智能有關的倫理問題。使用人工智能可能會導致決策偏差、缺乏透明度或意想不到的后果。必須明確界定人工智能系統行動的責任,以確保在出現錯誤或故障時能追究責任。

最后,將人工智能融入陸軍后勤可能會給后勤軍事職業專業帶來意想不到的后果。雖然特定任務的自動化可以提高效率,但也可能導致工作崗位的轉移,并需要對勞動力進行大量的再培訓。確保陸軍能夠適應這些變化并保留一支熟練的勞動力隊伍至關重要,但這需要持續的努力和投資。

雖然反駁意見中提出的擔憂不無道理,但必須指出,不應完全否定整合人工智能的潛在好處。相反,有必要采取一種平衡的方法,仔細考慮與人工智能實施相關的風險和挑戰,同時尋求利用其在陸軍后勤中的變革潛力。通過制定全面的戰略,陸軍可以解決這些問題,最大限度地發揮人工智能集成的效益。

結論

將人工智能融入陸軍后勤工作,為徹底改變供應鏈管理、優化資源配置和加強決策過程提供了眾多機會。然而,至關重要的是要認識到并解決與實施人工智能相關的挑戰和問題,如在自動化和人類專業知識之間取得適當平衡、確保強大的網絡安全、解決道德問題以及使勞動力適應不斷變化的技術環境。

為了充分利用人工智能的潛力,陸軍應采取全面的方法,包括投資人工智能基礎設施、促進公共和私營部門之間的合作、為人員提供持續的教育和培訓,以及制定強有力的網絡安全措施。此外,必須就人工智能在軍事后勤中的道德影響保持公開對話,并建立明確的指導方針和問責結構,以確保負責任地部署人工智能。

通過采取全面的方法,陸軍可以克服與人工智能集成相關的挑戰,釋放其變革潛力,并在日益復雜和快速發展的全球安全環境中保持競爭優勢。

付費5元查看完整內容

人工智能(或稱 AI)的應用正以各種方式影響著戰爭的性質和更廣泛的國際安全。在我們討論這些人工智能軍事應用的影響之前,先就如何思考它們的影響提出一些更具普遍性的想法:

通常情況下,人們會把人工智能這個詞賦予那些新穎的、能解決以往與人類智能相關問題的應用,賦予它神奇的光環。然而,當這種應用成為主流時,人工智能的標簽往往就會被摘掉。

在人類戰爭史上,影響戰爭方式的新技術層出不窮。從步槍到雷達,從刀劍到潛艇,從電報到戰斧:每一次新技術的出現都會激發烏托邦式的觀點,但當然也有烏托邦式的觀點,即特定的技術或武器系統將如何極大地影響戰爭的性質。我們的歷史證明了這一點:在萊特兄弟于 1903 年首飛之后,科幻小說家和軍事戰略家們紛紛宣稱空戰時代即將到來。最近,隨著網絡空間的出現,人們開始討論未來的戰爭是否會是網絡戰爭,觀察家們對網絡珍珠港的相關風險提出了警告。目前,學者、專業人士和普通人正在就人工智能對未來戰爭的影響展開激烈辯論,REAIM 會議當然也是一個證明。同樣,辯論也呈現出類似的模式,既有合理的擔憂,也有許多夸張的說法,還有未來戰爭將由機器而非人類自主發動的強大而可怕的畫面。

這次的不同之處在于,"一個人工智能系統 "并不存在。取而代之的是大量的算法應用,它們共同代表了一種萬能技術,一種在多個維度和整個 OODA 循環(軍事術語,即觀察-定向-決策-行動)中影響戰爭特征的萬能技術。這種技術既適用于戰場內外,也適用于戰爭與和平時期。

軍事史也表明,戰爭性質的真正變化往往是漸進的而不是點狀的,是進化的而不是革命的。變革不是通過某種新的銀彈或殺手級應用來實現的,而是通過軍事組織的艱苦工作來實現的,在這些工作中,軍事組織發展和完善作戰概念,將技術嵌入到新的作戰方式中,同時相應地調整組織結構。

有鑒于此,我們現在可以談談人工智能如何改變戰爭性質的問題。一些觀察家對變化的程度感到失望。他們將充滿機器人士兵的烏托邦式軍營與當前俄烏戰爭中充滿人類尸體的血腥戰壕這一同樣烏托邦式的現實相比較,發現戰爭仍然是 "To ánthrōpos,或者說是 "人類的事情"--這是有充分理由的。

盡管至少在可預見的未來,戰爭仍將是人類的事情,但很明顯,ANI(人工狹義智能)的突破與計算能力的爆炸性增長相結合,已經產生了大量的算法應用,國防組織在發動戰爭時可以加以利用。女士們、先生們,這并不是遙遠未來的某種烏托邦式現實,而是此時此地正在發生的算法戰爭現實的一部分。因此,人工智能應用正以各種方式影響著戰爭的性質,(目前)還不是通過人形終結者營,而是通過在整個 OODA 循環中將人工智能集成到現有應用中。

在戰場上,這已經產生了重大變化,通過更好的態勢感知和理解,以及通過所謂的 "戰斗云 "中壓縮殺傷鏈的分散式指揮網絡縮短決策周期,提高了武裝部隊的戰場效率。

沖突的加速為沿著 OODA 循環進一步整合算法提供了戰略依據,并標志著半人馬團隊的出現,人類仍處于循環中,但與人工智能應用近乎無縫整合。對 Sigint 的算法分析還提高了戰場透明度--無處可藏!- 并要求武裝部隊在有爭議和混亂的環境中開展分散行動。算法還用于無人駕駛飛機的導航和目標捕獲,包括進攻性的(通過閑逛彈藥)和防御性的(綜合防空和導彈防御)。

然而,算法的應用并不局限于戰場,它對核穩定也有相當大的影響。首先,徹底透明化將以各種方式改變核威懾的基本原則。例如,發射系統位置的曝光以及運載工具更高的精確度和機動性將影響威懾動態,并可能引發新的第一次和第二次打擊的不穩定性。此外,與技術變革相關的不確定性正促使人們擴大核武庫,并采用更靈活的核指揮與控制態勢--這些發展目前已在發揮作用。

算法也在開辟新的領域,沖突各方試圖在其中施加影響,包括通過我的同事弗蘭克-霍夫曼(Frank Hoffman)所說的 "認知戰爭"。現在有了經過實戰檢驗的劇本、現成的腳本,還有類似劍橋分析的服務可供雇傭。同樣,這不僅會影響戰爭的戰術層面,也會影響戰爭的戰略層面。想象一下,普京宣布發射核武器的 Deep Fake 會給戰略穩定帶來怎樣的影響,即使管理得當,也會造成怎樣的社會動蕩。重要的是要注意到,我們僅僅處于信息時代的黎明:5G、AR(增強現實)和 VR(虛擬現實)的出現以及 Metaverse 的出現將為沖突參與者帶來大量制造混亂的新機會。

總之,人工智能對戰爭性質和國際穩定的影響已經到來,它是真實存在的,并有望在未來幾年逐步實現。

這催化了倫理和法律領域的變革,并對如何限制和規范此類技術的生產、擴散和使用提出了多層次的重要挑戰。

付費5元查看完整內容

在過去的75年里,蘭德公司進行了支持美國國家安全的研究,目前為聯邦政府管理著四個聯邦資助的研究和發展中心(FFRDCs):一個為國土安全部(DHS),三個為國防部(DoD)。本文將重點評論國防部如何能夠最好地確保人工智能(AI)的進展有利于美國國家安全,而不是降低它。

在一系列廣泛的技術中,人工智能因其進展速度和應用范圍而脫穎而出。人工智能具有廣泛改變整個行業的潛力,包括對我們未來經濟競爭力和國家安全至關重要的行業。由于幾個原因,將人工智能納入我們的國家安全計劃帶來了特殊的挑戰:

  • 這些技術是由商業實體驅動的,而這些商業實體經常在國家安全框架之外。

  • 這些技術正在迅速發展,通常超過了政府內部的政策和組織改革。

  • 對這些技術的評估需要集中在私營部門的專業知識,而這些專業知識很少被用于國家安全。

  • 這些技術缺乏區分良性和惡意使用的常規情報特征。

美國目前是全球人工智能的領導者;然而,這種情況可能會改變,因為中國尋求在2030年前成為世界主要的人工智能創新中心--這是中國人工智能國家戰略的明確目標。此外,中國和俄羅斯都在追求軍事化的人工智能技術,加劇了挑戰。作為回應,將強調美國防部可以采取的四組行動:

1.確保美國防部的網絡安全戰略和網絡紅方活動跟蹤可能影響網絡防御和網絡進攻的人工智能的發展,如網絡武器的自動開發。

2.為防止不良行為者獲得先進的人工智能系統,(1)確保對領先的人工智能芯片和芯片制造設備進行強有力的出口控制,同時許可芯片的良性使用,如果需要的話,可以進行遠程節流;(2)利用國防生產法的授權,要求公司報告大型人工智能計算集群、訓練運行和訓練模型的開發或分發情況;(3) 在美國防部與云計算供應商簽訂的合同中,要求他們在訓練大型人工智能模型之前對所有客戶進行 "了解你的客戶 "篩選;(4) 在美國防部與人工智能開發商簽訂的合同中包括 "了解你的客戶 "篩選,以及強大的網絡安全要求,以防止大型人工智能模型被盜。

3.與情報界合作,大幅擴大收集和分析敵國參與人工智能的關鍵外國公共和私營部門行為者的信息,包括評估關鍵外國公共和私營實體;他們的基礎設施、投資和能力;以及他們的工具、材料和人才供應鏈。通過以下方式加強國防部開展此類活動的機構能力:(1)在美國和盟國政府機構、學術實驗室和工業公司之間建立新的伙伴關系和信息共享協議;(2)招募私營部門的人工智能專家以短期或兼職的方式為政府服務。

4.投資于人工智能安全的潛在計劃,包括(1)嵌入人工智能芯片的微電子控制,以防止開發沒有安全保障的大型人工智能模型,以及(2)在部署人工智能系統之前評估其安全性的通用方法。

付費5元查看完整內容

軍事網絡戰的前景正在發生變化,這是因為數據生成和可訪問性的發展、持續的技術進步及其(公共)可用性、技術和人類(相互)聯系的增加,以及參與其規劃、執行和評估階段的專家活力、需求、不同性質、觀點和技能。這種行動每天都在進行,最近被人工智能賦予了更多能力,以達到或保護他們的目標,并處理產生的意外影響。然而,這些行動受到不同的不確定性水平制約和包圍,例如,預期效果的預測,有效替代方案的考慮,以及對可能的(戰略)未來新層面的理解。因此,應確保這些行動的合法性和道德性;特別是在攻擊性軍事網絡戰(OMCO)中,參與其設計/部署的智能體應考慮、開發和提出適當的(智能)措施/方法。這種機制可以通過像數字孿生這樣的新型系統,在硬件、軟件和通信數據以及專家知識的基礎上嵌入智能技術。雖然數字孿生在軍事、網絡和人工智能的學術研究和討論中處于起步階段,但它們已經開始在不同的行業應用中展示其建模和仿真潛力以及有效的實時決策支持。然而,本研究旨在(i)理解數字孿生在OMCO背景下的意義,同時嵌入可解釋人工智能和負責任人工智能的觀點,以及(ii)捕捉其發展的挑戰和益處。因此,通過對相關領域的廣泛審查,考慮采取多學科的立場,將其包裝在一個設計框架中,以協助參與其開發和部署的智能體。

在攻擊性軍事網絡戰中定義數字孿生

盡管數字孿生被認為是在工業4.0的數字化轉型過程中引入的一項關鍵技術,但它們有二十年的歷史,甚至更早的基礎。其起源是Michael Grieves的鏡像空間模型,以及他與John Vickers在NASA宇航和航空航天領域項目中的進一步研究(Grieves & Vickers,2017),將數字孿生定義為 "物理產品的虛擬代表",融合了物理和虛擬世界的優勢,它包含三個組成部分:物理產品、物理產品的虛擬代表,以及從物理產品到虛擬代表的雙向數據連接,以及從虛擬代表到物理產品的信息和流程(Jones等人,2020)。

對數字孿生概念的理解有不同的角度和方式,其含義可以根據應用領域進行調整(Vielberth等人,2021)。考慮到與數字模型或數字影子等相關主題存在誤解和混淆,以及數字孿生不存在一致的定義(Hribernik等人,2021;Fuller等人,2020),為了確保其在攻擊性軍事網絡戰(OMCO)中的正確設計、開發和部署,采用了系統性觀點,并提出以下定義:

攻擊性軍事網絡戰(OMCO)中的數字孿生子 = 一個技術系統,在其現實環境中嵌入物理系統,及物理系統的網絡抽象、表示和鏡像,以及它們在OMCO中的相應數據和通信流

這個定義的要素是:

  • 技術系統:包含其物理、網絡以及數據和通信元素的整個實體。
  • 網絡抽象化、表示和鏡像:系統的網絡/虛擬/數字組件。
  • 物理系統:系統的物理元素包含和虛擬化。
  • 數據和通信流:網絡和物理組件之間傳輸的數據,以及它們相應的通信基礎設施。

換句話說,OMCO中的數字孿生是一個先進的(智能)系統,它嵌入了OMCO系統/實體的虛擬、物理以及數據和通信元素。鑒于此,在圖2中提出了以下對訓練、演習和實際行動有用的OMCO數字孿生架構,其中連續的箭頭描述了行動中目標階段之間的信息和結果交流,帶點的箭頭描述了集成部件和其他部件之間的信息和結果。該架構應該是模塊化和可配置的(Silvera等人,2020),并包含兩個組件:

  • 數字孿生層,即三個數字孿生模塊和一個集成模塊或四個獨立的數字孿生模塊,其中集成DT與其他三個獨立的數字孿生模塊通信并獲取結果。

  • 數字孿生層,即整個數字孿生或四個集成數字孿生的物理、數據和通信以及網絡組件。

此外,認識到系統將具有分析、預測或模擬功能,以支持不同的軍事網絡決策過程,軍事指揮官及其團隊有責任如何解釋和使用數字孿生所呈現的結果,因此,有必要從設計階段就將XAI和RAI方法嵌入其中。RAI必須尊重并納入社會道德規范和價值觀,XAI在整個過程中以及在呈現最終結果時,必須尊重軍事技術和社會法律道德要求、規范和價值觀(Arrieta等人,2009, 2020;Agarwal和Mishra,2021;Maathuis,2022a;Maathuis,2022b)。這些措施保證了負責任的OMCO發展和部署。

為了進行示范,OMCO的開發、部署和評估是在架構左側所示的階段進行的,其中集成DT的最終結果可以作為經驗教訓或對未來行動、網絡或其他行動的投入而進一步使用。例如,在設計和開發階段,選擇目標,確定其核心弱點,并進一步在智能網絡武器中建立一個漏洞,可以預測(非)預期效果的水平和概率,并對目標交戰進行負責任和可解釋的比例評估;此外,效果評估與定義的目標和依賴性有關。在這里,一個原型將通過定義和部署系統的多個實例來實現,這些實例將被匯總,同時考慮到要求以及與物理和網絡環境的相互作用(Grieves, M., & Vickers; Jones等人,2020)。

在攻擊性軍事網絡戰中建立數字孿生時面臨的挑戰和機遇

作為數字化轉型過程的一部分,并與若干數字和智能技術緊密相連,與其他類型的技術一樣,數字孿生帶來了挑戰和機遇。

挑戰

  • 考慮多利益相關者視角的標準化、管理和監管(Talkhestani等人,2019年;Singh等人,2021年;Flamigni等人,2021年):由于這些系統是在多利益相關者參與開發和部署的,在匹配所定義的目標和功能時應考慮適當的標準、管理和監管機制。

  • 數據和算法(Jones等人,2020;Qian等人,2022;Song等人,2022):這類系統對數據敏感,依賴于相關的高保真表示和數據添加到正確構建和部署的人工智能模型中,例如,相關數據應該被收集、分析、使用,并在系統的各個層面和層次之間共享。

  • 安全、安保、隱私和可靠性(Glaessgen & Stargel, 2012; Vielberth et al., 2021; Chockalingam & Maathuis, 2022)和可靠性問題:如果管理不當,并且通過其在數字孿生的設計階段就沒有整合到所有層面和層次,這些有可能通過改變系統的行為來打開意外和有意的網絡安全和安保事件的大門,產生大規模的影響。例如,這樣的行動可能無法區分軍事和民用目標,從而在民用方面產生大量的附帶損害,因此系統在行動中是不可靠的。

機遇

  • 認識和理解、決策支持和教育(Mendi, Erol & Dogan, 2021; Talkhestani et al., 2019):這些系統有利于理解系統的行為,支持具體的決策過程,并產生/增強不同的學習活動。例如,這些系統不僅可以對當前的行動產生情報,而且還可以通過對未來行動的評估產生情報。

  • 建模和仿真,例如現場生命周期測試、監測、優化(Steinmetz等人,2018;Jones等人,2020;Hribernik等人,2021):通過其性質,數字孿生對不同的系統和過程進行建模和仿真,例如,允許鏡像和測試雙重用途目標的行動執行,以避免預期產生的意外影響;或允許使用不同的優化技術對智能網絡武器實施的路徑和行動進行現場監測。

  • 可訪問性和成本降低(Barricelli, Casiraghi & Fogli, 2019;Jones等人,2020;Aheleroff等人,2021):通過其設計界面,此類系統可被用戶直接訪問,有利于普遍降低實施和部署的成本。

付費5元查看完整內容
北京阿比特科技有限公司