人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。
人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。
電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。
將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。
在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。
此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。
人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。
不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。
最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。
最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。
在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。
在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。
即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。
但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。
這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。
AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。
新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。
與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。
最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。
隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。
因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。
AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。
例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。
在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。
這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。
人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:
2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。
"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。
試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。
正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。
放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。
當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。
除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。
正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。
"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。
這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。
在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。
確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。
關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。
參考來源:International Committee of the Red Cross
在未來戰場上,人工合成的決策將出現在人類決策的內部和周圍。事實上,人工智能(AI)將改變人類生活的方方面面。戰爭以及人們對戰爭的看法也不例外。特別是,美國陸軍構想戰爭方式的框架和方法必須進行調整,以便將非情感智力的優勢與人類情感思維的洞察力結合起來。人工智能與人類行動者的組合有可能為軍事決策提供決定性的優勢,并代表了成功軍事行動的新型認知框架和方法。人工智能在軍事領域的應用已經開始擴散,隨之而來的作戰環境復雜性的增加已不可避免。
正如核武器結束了第二次世界大戰,并在二十世紀阻止了大國沖突的再次發生一樣,競爭者預計人工智能將在二十一世紀成為國家力量最重要的方面。這項工作的重點是美國陸軍的文化,但當然也適用于其他企業文化。如果要在未來有效地利用人工智能,而且必須這樣做才能應對競爭對手使用人工智能所帶來的幾乎必然的挑戰,那么成功地融入人工智能工具就需要對現有文化進行分析,并對未來的文化和技術發展進行可視化。美國將致力于在人工智能的軍事應用方面取得并保持主導地位。否則將承擔巨大風險,并將主動權拱手讓給積極尋求相對優勢地位的敵人。
合成有機團隊認知的兩大障礙是美陸軍領導的文化阻力和軍事決策的結構框架。首先,也是最重要的一點是,領導者必須持續觀察人工智能工具并與之互動,建立信心并接受其提高認知能力和改善決策的能力。在引入人工智能工具的同時,幾乎肯定會出現關于機器易犯錯誤或充滿敵意的說法,但必須通過展示人工智能的能力以及與人類團隊的比較,來消除和緩和對其潛在效力的懷疑。將人工智能工具視為靈丹妙藥的健康而合理的懷疑態度有可能會無益地壓倒創新和有效利用這些工具的意愿。克服這一問題需要高層領導的高度重視和下屬的最終認可。其次,這些工具的結構布局很可能會對它們如何快速體現自身價值產生重大影響。開始整合人工智能工具的一個看似自然的場所是在 CTC 環境中,以及在大型總部作戰演習的大型模擬中。最初的工具在營級以下可能用處不大,但如果納入迭代設計、軍事決策過程或聯合規劃過程,則幾乎肯定會增強營級及以上的軍事規劃。雖然在本作品中,對工具的描述主要集中在與指揮官的直接關系上,但在最初的介紹中,與參謀部的某些成員(包括執行軍官或參謀長、作戰軍官和情報軍官)建立直接關系可能會更有用。與所有軍事組織一樣,組織內個人的個性和能力必須推動系統和工具的調整,使其與需求保持平衡。
幾乎可以肯定的是,在將人工智能工具融入軍事組織的初期,一定會出現摩擦、不完善和懷疑。承認這種可能性和任務的挑戰性并不意味著沒有必要這樣做。人類歷史上幾乎所有的創新都面臨著同樣的障礙,尤其是在文化保守的大型官僚機構中進行創新時。面對國際敵對競爭對手的挑戰,美國陸軍目前正在文化和組織變革的許多戰線上奮力前行,在整合人工智能工具的斗爭中放棄陣地無異于在機械化戰爭之初加倍使用馬騎兵。在戰爭中,第二名沒有可取的獎賞,而人工智能在決策方面的潛在優勢,對那些沒有利用這一優勢的行為體來說,是一個重大優勢。現在是通過擁抱人工智能工具和改變戰爭節奏來更好地合作的時候了。
人類收集信息、了解情況、優化行動和邊執行邊學習的能力最近在游戲、模擬器、診斷和實時分析中受到了挑戰。這種發展會如何反映到未來的戰術戰斗決策中?機器會在戰斗中戰勝人類嗎?
"這不僅需要大量的資源投入,還需要一種開放的思想和探索性的方法,這與人們通常認為軍事組織是保守實體但有時被夸大的看法形成鮮明對比"。梅厄-芬克爾(芬克爾 2023 年)
"第五代戰爭將重點從物理維度的兵力轉移到影響信息維度,在人工智能、自動化和機器人等新興技術的推動下,敘事和認知占據了中心位置。" 丹尼爾-阿博特(阿博特,2010 年)
這篇文章回顧了人工智能領域最近取得的一些成就,介紹了作戰技術層面的功能,深入探討了壓力條件下的決策,并闡述了對未來狀態的可能展望。其目的是撼動歷史上保守的陸戰概念,考慮未來的可能性。
表 1 顯示了機器學習在各種戰略戰術游戲和競賽中的進步,從中可以看出,在桌上游戲、紙牌游戲、視頻游戲和創造力競賽中,機器正在追趕并超越人類。此外,在這些游戲中,快速學習通用算法正在擊敗專用算法。
表 1:機器學習在游戲和創造力方面應用的改進示例
年份 | 對抗 | 進步 |
---|---|---|
1997 | 國際象棋:DeepMind 對戰加里-卡斯帕羅夫 | IBM 花了 11 年的時間來制造和使用定制芯片來執行并行搜索。DeepMind 能夠每秒評估 2 億個位置。 |
2016 | 圍棋:AlphaGo對戰李世石 | 基于神經網絡的算法首先從對局數據中學習,然后與自己對弈,最后根據所犯的錯誤進行改進。AlphaGo 能夠在對局中創造出一種從未見過的棋步。 |
2017 | 國際象棋:AlphaZero對Stockfish(2016 年頂級國際象棋引擎) | 通用強化學習算法在與自己對弈 4 小時后學會了國際象棋。AlphaZero 能夠每秒評估 80 000 個局面。 |
2017 | 將棋:AlphaZero對艾莫(2017 年將棋引擎世界冠軍) | 算法在自己下棋 2 小時后就學會了棋局。AlphaZero 能夠在比國際象棋有更多選項的棋盤上每秒評估 40 000 個局面。 |
2017 | 圍棋:AlphaZero 對戰 AlphaGo Lee(高級圍棋引擎) | 采用 tabula rasa 強化學習算法的深度神經網絡。該算法在三天內學會了游戲,同時自己也在玩游戲。 |
2017 | 撲克:Liberatus 與四位撲克冠軍選手對決 | 該算法采用博弈論方法,在不完全信息環境中進行推理,同時與四名具有以下能力的人類玩家進行比賽:提前管理整個撲克比賽;在比賽期間解決每個游戲;在為期三周的比賽中每天結束后進行自我改進 |
2019 | Dota 2:開放式人工智能五人組對抗5名電競玩家組成的團隊 | 該算法采用近端策略優化。該算法使用 800 petaflops/s,在 10 個月內獲得了約 45 000 年的經驗。短期平均決策時間為 80 毫秒。 |
2020 | AlphaFold2 在 "結構預測關鍵評估 "中的得分比人類競爭對手高出一倍。 | 該算法根據復雜的規則預測三維結構,比人類更快、更全面。 |
2022 | 人工智能模型使用數十 TB 的地球系統數據,預測未來兩周天氣的速度和準確度是當代預測方法的數萬倍。 | 利用海量數據,ML 算法可以對非常復雜的現象進行預測。 |
總之,從理論上講,具備上述功能的機器可以
概率和機會是公認的作戰環境因素(克勞塞維茨,1984 年)(富勒,2012 年)(奧利維羅,2021 年)。戰術——技術層面的作戰能力是出其不意、機動、大規模、火力和節奏(僅列舉一些基本原則)的總和,通過與指揮和控制的各種組合來擾亂對手的社會--技術軍事系統并耗盡其戰斗力。(弗里德曼,2017 年)戰術原則正在轉型,以應對戰場上可預見的變化。首先,讓我們回顧一下陸戰中最可能發生的變化,其次,看看這些變化將對戰術要領提出哪些要求。
RUSI陸戰會議(RUSI 2023)提出了以下陸戰變化趨勢,這些趨勢將對當代戰術提出挑戰:
1.透明戰場
2.集中效應與防護
3.維持
4.態勢感知
5.無邊界的城市作戰空間
總之,下表 2 反映了上述傳統戰術原則的變化趨勢,并說明了對作戰技術和戰術可能產生的影響,以及因此而改變的戰術意識和決策。
表 2:陸戰中明顯的變化趨勢如何影響地面作戰的戰術原則?
原則/傾向 | 出其不意 | 機動 | 兵力集結 | 火力 | 節奏 |
---|---|---|---|---|---|
透明度 | 陸地上的出其不意可以通過其他領域和層面獲得。 | 由較小、不易察覺的平臺組成的蜂擁機動。 | 集中式具有殺傷力,但分布式是規則。 | 如果能實現態勢感知,則目標捕獲更具殺傷力。 | 在透明的戰場上更難獲得優勢。 |
效應 | 系統效應可出其不意,破壞兵力凝聚。 | 大型、移動、高溫和輻射平臺很容易成為攻擊目標。 | 需要大量靈活、小巧、機動的彈頭。 | 4IR 生產軟件定義的效應器。 | 分散的效應器會增加摩擦和不確定性。 |
維持 | N/A | 更高的機動性和更廣泛的分布掩蓋了后勤工作。 | 分散的部隊增加了后勤方面的挑戰。 | 智能彈頭需要軟件維護。 | 除了實彈補給,兵力還需要技術維護。 |
態勢感知 | 數字化 C2 帶來更多認知瓶頸。 | 成為分布式效應器蜂擁而至的核心因素和弱點。 | 成為核心因素和薄弱環節。 | 成為核心因素和薄弱環節。 | 成為核心因素和薄弱環節。 |
城市化 | 在物理維度上提供隱蔽性。 | 減慢機動速度,促進小型、自主和敏捷平臺的發展。 | 限制單位的集結,但更喜歡小型、蜂擁的效應器。 | 有利于防御,但制約進攻。 | 減慢單位速度,增加不確定性。 |
約翰-博伊德(John Boyd)定義的經典軍事決策框架簡化為觀察、定位、決策和行動(OODA)(Osinga,2007 年)。根據這一框架,圖 2 展示了感知與決策的概念。在這種情況下,感性決策由觀察和定向組成,用于解釋模棱兩可的數據。(馬蒂拉,2016 年)此外,決策是在預測結果、能力和制約因素之間尋找和選擇最優化的替代方案。(馬蒂拉,2016 年)這一概念有三種不同的態勢圖:每個領域的實時事件、組成的行動圖和預測的可能/預期態勢,這些態勢圖參考現有信息,最后在社會認知層面共享并達成一致。
圖 2:軍事戰術層面的 "觀察、定向和決策 "概念
上述指揮與控制(C2)概念的建立可以強調創造性領導或遵守政策。這些重點建立在兵力產生的文化基礎之上。例如,1871-1945 年間的德國文化提倡軍官在戰場上采取自主和積極的行動。(Mansoor and Murray 2019)相反,在布爾什維克政府的兵力操縱之后,俄羅斯文化培養出了服從命令的年輕軍官,并在作戰層面依賴經驗豐富、足智多謀的指揮官。(弗里德曼,2022 年)
成功的軍事指揮應該是遵守制度管理文化與創造性作戰藝術的結合。(Kuronen 2015)二戰前的德國文化將戰爭視為 "一種藝術,一種建立在科學原則基礎上的自由和創造性活動"。(Condell 和 Zabecki,2008 年)美國 FM 5-0 要求適應性領導"......不是線性思維,而是在尋求解決問題之前先了解問題的復雜性......"(Cojocar,2011 年)另一方面,北約用五項功績衡量標準來評估軍事成功,其中只有一項,即績效衡量標準(MoP),包含了一些個人領導特征。(CCRP 2002)其他四項則強制要求遵守條令和流程。(北約 RTO,2002 年)1/5 的期望比率并不表明北約軍官在戰術決策方面具有創新性。
在戰術承諾層面,所有努力都應著眼于贏得主動權,并最終戰勝對手(將對手戰斗力削弱 30% 以上)。(Oliviero 2021, 51)在現實中,并非所有軍官都能做到這一點:
研究(Henaker,2022 年)(Scott 和 Bruce,1995 年)(Loo,2000 年)得出的結論是,個人在做出重要決策時可分為五種不同的決策風格: 理性型、直覺型、依賴型、回避型和自發型。
本節將戰術戰斗的原則與可見的變化融合在一起,并嘗試在以人為中心和以機器為中心的決策中反映這些新情況,如前幾節所述。表 3 從兩位冠軍的角度說明了融合的結果:
表 3:快速變化的戰術作戰環境中的人機決策對比
戰術作戰原則的轉變帶來決策挑戰 | 人類 | 機器 |
---|---|---|
透明度增加了信息量,需要更強的計算能力來理解收集到的數據。在戰術上,更傾向于使用規模較小、高度分散、機動性強的效應器,這些效應器會蜂擁而至,并迅速撤退。 | 現有的數據和信息可能會使理解情況的認知能力不堪重負。 | 機器可以識別圖像,從大量數據中找出規律,并預測復雜、相互依存的行為。 |
效果需要系統理解,才能產生全系統影響。分散的效應器更難控制和協調。軟件定義的精確度要求更好的目標獲取和配置。 | 必須將對手視為多維行動者網絡(Inglis 和 Thorpe,2019 年)。分散的效應器需要協調更多細節。 | 機器可以繪制 COA 頻譜,為復雜、相互依存的系統建模,并優化小型效應器的行動。 |
分布式網絡物理平臺的維護需要更加靈活和專業的維護。 | 可用性或持續性關鍵路徑的復雜性不斷增加,可能會在壓力下壓垮認知能力。 | 通過數字孿生模型和基于場景的模擬,機器可以創建一個整體的后勤圖景,并優化維護工作。 |
將感性認識下放給較低的合作層次,或提高等級較高的指揮結構的信息管理能力,就能實現感性認識。 | 社會文化結構和信仰阻礙了最佳 C2 方法的應用。 | 社會文化結構并不限制機器的行動,即使在不完整的信息環境下,機器也能行動。 |
城市化增加了熵,減緩了戰術節奏,增加了傷亡,提高了對持續性的需求,并使環境和形勢變得更加難以理解。 | 城市環境增加了不確定性,需要更具創新性的決策。 | 即使只有部分信息,機器也能理解復雜的情況,更快地識別不穩定的行為,并優化努力和持續。 |
在未來戰場的戰術場景中,當一名人類指揮官與一名前機械人上尉相遇時,作戰雙方的決策能力可能會有所不同。在兵力相等、條令一致、戰場相當穩定的情況下,連長不可能戰勝前機械人。而富有創造力的人類指揮官則可能在更加混亂的條件下,通過創新戰術獲得優勢。我們的軍事院校在培養敏捷型軍官嗎?不過,在《Dota 2》戰略游戲中,較高的人機協作表現還是值得肯定的,但這還有待今后的文章進行研究。
圖 3:戰術決策中的人機對比
雷達和電子戰(EW)等軍事應用測試和測量系統的設計人員正在加緊使用人工智能(AI)解決方案,以便更好地測試認知功能。同時,現代數字架構的采用也推動了軍事測試需求的增長。
人工智能(AI)和機器學習(ML)工具正在進入國防系統的幾乎每一個領域,從制造、雷達系統開發、航空電子設備到軟件開發和測試測量系統。
NI 公司(德克薩斯州奧斯汀)航空航天、國防與政府研究與原型開發解決方案營銷經理 Jeremy Twaits 說:"人工智能不僅影響測試系統本身的能力,還影響我們的測試方式。"人工智能使系統更具適應性,其行為會根據訓練數據集發生變化。有了人工智能,工程師必須了解系統性能的界限,并使用測試方法來滿足系統部署時可能遇到的最關鍵和最可能的情況。
人工智能工具還能在電子戰系統中實現認知功能。羅德與施瓦茨公司(Rohde & Schwarz,馬里蘭州哥倫比亞市)航空航天與國防市場部雷達與 EW(電子戰)全球市場部門經理 Tim Fountain 說:"通過為客戶配備工具,提供高帶寬、長時間射頻記錄和回放系統,用于在操作相關的射頻環境中訓練認知系統,從而幫助客戶交付支持 AI/ML 的系統"。
他繼續說:"此外,認知系統還可用于提取和分類 ELINT(電子情報)接收器捕獲的寬帶數據中的新型發射器。我們的客戶一再告訴我們,他們面臨的一個挑戰是,他們并不缺少來自采集活動的數據,但對這些信號進行標記、分類、排序和地理定位仍然是一項人工任務,由于時間和預算壓力,分析人員往往會忽略這項任務"。
軍事用戶對數據量的要求只增不減,這給系統設計人員和系統測試人員帶來了更大的壓力。
Keysight 航空航天/國防和政府解決方案集團(加利福尼亞州圣克拉拉市)總經理 Greg Patschke 說:"隨著高速捕獲技術的發展,我們能夠收集的數據量正以指數級速度增長。這些大型數據集帶來了分析信息和得出結果的挑戰。目前,我們正在使用無監督機器學習工具來加快洞察之路。我們可以使用智能算法來識別感興趣的信號,對信息進行分類,并識別數據中的模式和異常。利用這項技術為我們打開了一扇通往全新數據分析世界的大門,而這在以前是不可行的"。
由于系統的復雜性,在定義測試場景的同時,通過人工智能系統實現適應性將至關重要。
Twaits指出:"幾乎不可能在每一種可能的情況下進行測試,但業界必須定義關鍵的測試場景和模型。"由于真正測試和信任人工智能系統的動態性和挑戰性,測試平臺必須具備適應性,以應對未來的測試場景和要求。例如,NI 的 COTS(現成商用)硬件可以與 MathWorks 的軟件工具(如深度學習工具箱)相連接。NI 和 MathWorks 合作展示了如何利用軟件定義無線電 (SDR) 對訓練有素的神經網絡進行空中測試和評估,以對雷達和 5G 新無線電信號進行分類。
人工智能在測試解決方案中的應用得益于在軟件中植入測試和測量系統功能的能力。
Patschke 說:"在測試和測量行業,不斷需要改進測量軟件的功能。EW 測試的專業性往往要求軟件具有一定程度的創新性和靈活性,而這在其他行業通常是看不到的。例如,與雷達/預警機有關的到達角(AOA)測試需要軟件和硬件的無縫配對,以適當應用實時運動學并準確計算 AOA 結果"。
他繼續說:"幾年前,[測試]軟件還不具備這種功能,但隨著客戶要求和需求的變化,像 Keysight 這樣的公司已經進行了調整,以滿足這些需求。客戶要求系統具有靈活性,以便在新的挑戰出現時滿足他們的需求。滿足這些需求的唯一方法就是不斷升級我們的軟件,盡可能增加新的功能,這樣就可以不斷地將硬件重新用于多種用途"。
對標準化和快速周轉的需求也需要更多的軟件功能。
Fountain 說:"客戶告訴 R&S 最緊迫的問題是,他們需要快速、可驗證和可重復的測量,而且通常是基于標準的測量。"客戶通常沒有時間或內部專業知識來開發特定的測量功能,因此可能會依賴供應商將該測量功能作為附加功能提供,或者在某些情況下使用事實上的行業工具集(如 Matlab 和/或 Simlink)來支持快速軟件/硬件功能,特別是隨著 FPGA(現場可編程門陣列)和 GPU(圖形處理器)在測量數據流中變得越來越普遍。(圖 1)。
[圖1 ? 羅德與施瓦茨公司提供集成記錄、分析和回放系統(IRAPS)。IRAPS可用于需要寬帶寬、長時間射頻記錄和回放的實驗室和靶場射頻記錄和回放應用,如雷達測試和靶場電子戰(EW)效果評估。]
NI 雷達/EW 業務開發經理 Haydn Nelson 說:"在軟件中定義測試系統是整個航空航天工業趨勢的體現,通常被稱為基于模型的系統工程。"推動系統級模型和要求的標準化使軟件成為定義自動測試系統不可或缺的一部分。
Nelson 繼續說:"對于雷達和電子戰來說,由于雷達的多任務性質和電子戰的保密性質,這具有挑戰性。定義、開發、評估和部署新方法和技術是一個復雜的過程。隨著威脅的不斷發展,用戶需要更快地獲得新系統,而測試和評估流程不能阻礙這一進程。軟件定義的測試系統對于在保持系統能力和性能敏感性的同時滿足速度要求至關重要。
對更多實驗室測試的需求也在推動軟件定義測試系統的發展。Nelson 說:"我們看到的一個具體要求是,能夠在實驗室中以現實的方式進行更多測試,而無需面對固定和鎖定測試系統的挑戰。在公開范圍測試之前,測試的次數越多,新方法或新技術獲得最終用戶信任的信心就越大。共享數據和證明能力與開發能力本身同樣重要。"
跨越多個領域的復雜對抗性威脅對雷達和預警系統的性能提出了更高的要求,從而給測試系統設計人員帶來了更大的壓力,要求他們提供準確、高效的解決方案。
"總體而言,趨勢是不斷提高測量精度和降低相位噪聲,"Fountain 說。"精度和相位噪聲直接關系到描述雷達性能的能力。在電子戰方面,我們看到,在擁擠和有爭議的作戰環境的推動下,高度復雜的電磁場景正朝著更高保真模擬的方向發展。"
雷達和預警系統的數字架構要求和現代化努力也要求測試系統具有多功能性。
NI 的 Twaits 說:"從高層次上講,測試和評估的要求是由采用現代數字架構驅動的,這些架構要求在單個系統中進行功能、參數和系統級測試,以及分割數字和射頻系統以進行獨立測試的方法。"此外,許多傳統雷達和預警系統正在進行現代化改造,而傳統的測試平臺靈活性太差,無法滿足新系統功能的測試要求。現代化不會帶來無限的測試預算。新系統和升級要不斷平衡預算和時間交付壓力所帶來的限制,而適應不斷變化的要求本身就是一種要求"。
帶寬需求也對測試系統提出了更高的要求。"從技術上講,在電磁頻譜戰(EMSO)領域,實戰系統正朝著更寬的帶寬、更高的頻率、更大的頻率靈活性和更強的抗威脅能力方向發展。因此,[測試和測量]設備必須能夠生成和分析具有適當規格的波形,快速調整,并創建逼真的場景,在接近真實的運行條件下對被測設備施加壓力。"
測試系統還能在系統部署前的設計過程中盡早發現缺陷,從而降低長期生命周期成本。
Twaits說:"按時、按預算交付的一個關鍵方面是制定測試策略,以便在設計過程中及早發現缺陷。露天靶場測試成本高昂,對于測試早期設計既不可行也不實際。例如,在雷達測試中,客戶正在尋找硬件在環系統,該系統可將真實目標注入到正在測試的雷達系統中。這使他們能夠盡早、頻繁地測試系統,盡早消除問題,并針對各種情況對雷達進行評估"。
NI 提供的雷達目標生成 (RTG) 軟件使客戶能夠將 PXI 射頻矢量信號收發器 (VST) 作為閉環實時雷達目標生成器來操作。它為工程師提供了一個單一模塊,既可作為標準雷達參數測量設備,也可作為 RTG,具有很強的能力和靈活性,適合最終用戶的調整。通過完全開放的列表模式,用戶可以定義多達 1000 萬個測試目標,以硬件速度進行排序,從而以在露天靶場上無法實現的方式刺激雷達。
電子戰系統的作用是對抗和探測復雜的敵對威脅,而測試系統的作用則是使作戰人員不僅能高效而且能安全地利用這些系統。
Patschke 指出:"EW 測試的核心是確保人員和設備都做好應對各種電磁威脅的準備,從而保證部隊的安全。隨著 EW 測試環境越來越先進,客戶需要生成盡可能逼真的模擬。要做到這一點,就必須生成能模擬現實條件的高保真動態場景。過去,這需要大量的設備,而這些設備在使用中往往缺乏通用性。現在,客戶不僅希望他們的設備具有更高水平的能力,如更寬的帶寬和更多的輸出端口,而且還希望它能以更緊湊的尺寸提供更大的靈活性。Keysight 推出了包括最新 M9484C 矢量信號發生器在內的可擴展、開放式架構 EW 測試和評估產品組合,滿足了客戶的這些期望。"(圖 2)
[圖2 ? Keysight 的 M9484C 矢量信號發生器是一個四端口信號源,還能產生脈沖對脈沖輸出。這種單一信號發生器能夠取代四個老式信號源]。
Fountain 對發展趨勢的最后評論是:"人們希望從露天靶場測試轉向封閉實驗室,這主要是由于露天測試的復雜性、成本以及測試產生的射頻輻射可能被不受歡迎的聽眾截獲"。
Fountain 說,在測試和測量層面,他并沒有看到這些計劃有多少活動。"測量系統在操作層面有一些利基應用,模塊化架構(如 MOSA[模塊化開放系統方法]和 SOSA[傳感器開放系統架構])的優勢和附加成本將適用于這些應用,但在大多數情況下,測試和測量設備是在實驗室中,需要一個可控的環境來提供高度的測量精度。"
Nelson說:"從許多方面來看,SOSA等標準架構在嵌入式設計中采用的理念與NI在模塊化PXI平臺測試和測量設計中采用的理念非常相似:制造模塊化、靈活和可互操作的系統。模塊化開放式架構的這三個目標是未來軍用嵌入式系統取得成功的關鍵,使系統能夠在今天設計,并在明天進行低成本升級。NI 的測試和測量方法與這一目標不謀而合。擁有模塊化、可擴展、靈活和可升級的嵌入式系統意味著測試系統也必須是模塊化、可擴展、靈活和可升級的,以適應不斷變化的要求、能力和接口。我們相信,與開放式架構計劃的模塊化方向一致的模塊化測試系統將有助于實現這一新嵌入式系統理念的承諾。"
Keysight 的 Patschke 說:"投資新產品的客戶希望確保其傳統設備和系統能夠與升級后的平臺協同運行。"這不僅是一項節約成本的措施,而且還能通過延長舊產品的使用壽命來減少浪費,同時使整個系統保持最新狀態。開放式架構平臺將可持續發展作為優先事項,同時又不犧牲升級能力。Keysight 在設計下一代系統時非常重視開放式架構的實施。"
人工智能和軟件定義的測試系統正在為現在以及未來的雷達和 EW 測試系統的更多能力鋪平道路,例如軟件定義雷達、頻譜共享、數字孿生等領域。
Patschke說:"未來美國國防部(DoD)客戶的系統測試可能發展的一個途徑就是數字孿生技術的進步。"這些系統利用基于模型的系統工程(MBSE)方法生成數字化的真實測試場景,這些場景通常會考慮到外部變量,而以前的虛擬測試方法無法做到這一點。理論上,'數字孿生'概念可以將大多數(如果不是全部)物理系統工程活動轉換為虛擬活動。在進行物理測試不切實際、真實世界的效果難以再現的情況下,"數字孿生 "有可能增加廣泛的價值。隨著客戶尋求更可靠、更具成本效益的測試手段,數字孿生選擇可能會變得更具吸引力。
Fountain 說,未來幾年有四個關鍵領域將推動測試和測量技術的發展:
雷達和預警系統對靈活性和多功能性的需求也成為測試和測量需求的一個特點。
"納爾遜說:"我們已經看到許多要求測試系統像瑞士軍刀一樣的需求:客戶希望測試設備能在單一系統中完成所有功能。
"我們經常收到這樣的請求:要求配置的系統在進行雷達目標生成等系統級測試的同時,還能進行參數測試,并能進行射頻記錄和回放。這些要求結合在一起,就很難在保持可接受的尺寸、重量和功率的同時,以具有成本效益的方式完成測試。只有采用模塊化系統,在封閉的特定功能與使用開放軟件擴展功能之間取得平衡,才能做到這一點。我們看到的趨勢是,現代測試系統必須像它們所測試的系統一樣具有多功能。
美國戰略家認為,人工智能(AI)有可能實現更好、更快的決策,這在未來的軍事沖突中是決定性的。機器學習應用將越來越多地影響政治和軍事領導人對戰略環境的看法,權衡風險和選擇,并判斷他們的對手。但是,將關鍵的人類決策過程暴露在人工智能系統的中會有什么風險?
要獲得人工智能在決策方面的優勢,首先需要了解其局限性和陷阱。人工智能系統根據數據模式進行預測。總是有一些意外行為或失敗的機會。現有的工具和技術試圖使人工智能對失敗更加穩健,往往會導致性能上的權衡,解決了一個問題,但可能會使另一個問題惡化。人們對人工智能的脆弱性和缺陷的認識不斷提高,但也需要在現實的部署背景下對技術故障的潛在后果進行更深入的分析。
本簡報研究了直接或間接影響決策的人工智能系統故障如何與戰略壓力和人為因素相互作用,從而引發危機或沖突的升級:
這些情景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,特別是當涉及到他們對戰場的認識,了解對手的意圖和能力,或了解他們自己抵御攻擊的能力。但通過依賴人工智能,他們在人工智能系統技術故障的可能性和后果方面引入了一個新的不確定性來源。
有效利用人工智能需要以一種有謹慎的和有風險的方式來平衡優勢與局限。沒有辦法保證概率性人工智能系統會完全按照預期行為,也沒有辦法保證它能給出正確的答案。然而,軍隊可以設計人工智能系統和依賴它們的決策過程,以減少人工智能失敗的可能性并控制其后果,包括通過:
美國應繼續帶頭制定負責任地開發和使用人工智能的全球標準,采取步驟展示某些可靠性,并盡可能地鼓勵其他國家采取類似的預防措施:
圖4. 人工智能對目標定位的增強:人工智能可以通過搜索目標并在發現后發出警報來增強動態目標定位周期。
開發和使用新的軍事技術是一個軍事專業人員工作的一部分。事實上,軍事歷史在很大程度上是一個技術革新的故事,士兵需要學習如何操作新系統。因此,關于整合人工智能的很多東西并不新鮮。就像坦克、飛機甚至弩一樣,隨著時間的推移,士兵們學會了使用和運用技術,工業界學會了以足夠的數量和質量生產技術,高級領導人學會了運用技術來實現戰略效果。如前所述,人工智能技術與它們的顛覆性“前輩”之間的區別在于,前者有能力改善廣泛的軍事武器、系統和應用。由于這種潛在的普遍性,幾乎所有的士兵都必須在某種程度上變得熟練,才能有效地和道德地運用AI技術。隨著這項技術在應用上的擴展,戰爭將像管理暴力一樣管理數據。
這種普遍性也提出了關于人類發展和人才管理的問題。盡管培訓計劃最終會培養出更多的知識型士兵,人事系統也會提高管理士兵的能力,但軍警人員能夠獲得知識和技能的限制仍然存在,特別是在作戰層面。盡管討論的目的不是要建立嚴格的指導方針,但討論確定了士兵需要獲得的許多知識。例如,士兵將需要知道如何策劃和培訓數據庫,而該數據庫對他們正在執行的任務有著重要作用。這樣做需要確保數據的準確、完整、一致和及時。使用這些數據需要熟練應用推薦模型卡中描述的條件,而熟練的操作有助于確保算法以有效和道德的方式執行。
當然,信任不能僅靠政策和程序來保證。指揮官、參謀員和操作員需要知道他們被信任做什么,以及他們信任系統做什么。指揮官、參謀員和操作員信任人工智能系統來識別合法目標,并避免識別非法目標。參與這一過程的人必須在使用這些信息時,既需要擊敗敵人,又必須避免友軍和非戰斗人員的傷亡。要找到這種平衡,就需要判斷人應該承擔多大的風險。
只要參與流程的人類能夠與系統進行有效的互動,由人工智能賦能的系統就能促進找到這種平衡。在將人類控制整合到機器流程中時,人們經常被迫在控制和速度之間做出選擇:強加的人類控制越多,系統的運行速度就越慢。但本研究發現這種兩難的局面是錯誤的。盡管在某些情況下,在人的控制和速度之間進行平衡可能是必要的,但如果系統要最佳地運作,人的輸入是必要的。
實現最佳性能首先要求指揮官確保參謀和操作人員了解模型能力,理解數據質量的重要性,以及洞悉模型在作戰環境中的表現。盡管它可能不會使系統更加精確或準確,但實現這些任務可使系統能夠更好地對輸出進行概率分配。第二,指揮官需要確定對任務、友軍戰斗人員和敵方非戰斗人員的風險有多大才合適。這一決定很復雜,其中關鍵任務可能是需要容忍更多的友軍和非戰斗人員傷亡。同樣,如果非戰斗人員的密度較低,即使任務不那么緊急,也可以容忍較高的風險。尋找這種平衡將是人類的工作。
但在前面描述的模糊邏輯控制器的幫助下,指揮官可以更好地確定什么時候可以信任一個人工智能系統在沒有人類監督的情況下執行一些目標定位步驟。此外,可以通過構建交互的邏輯,以找到多種不同的人機互動配置,確保系統的最佳使用,同時避免不必要的傷害。在LSCO期間,讓指揮官在需要時選擇智能和負責任地加快目標定位過程將是至關重要的,本報告中提出的設計實現了這一目標。這一成就在未來尤其重要,因為為了保護部隊并實現任務目標,指揮官將面臨大量時間敏感目標,及面臨承擔更多風險的操作條件。
在培養具有正確技能的足夠數量士兵以充分利用人工智能技術方面,仍有大量的工作。目前的人才管理計劃尚未達到管理這一挑戰的要求,盡管多個有前途的計劃準備最終滿足需求。然而,在大多數情況下,這些計劃都是為了滿足機構層面的要求,在機構層面上做出全軍采買人工智能和相關技術的決策。但是,這些技能將如何滲透到作戰陸軍,尚不清楚。
盡管人工智能在目標定位中的使用并不違反當前的戰爭法,但它確實引起了一些道德倫理問題。在所討論的目標定位系統背景下,這些倫理問題中最主要的是問責制差距和自動化偏見。第一個問題對于回答核心問題至關重要,“指揮官在什么基礎上可以信任人工智能系統,從而使指揮官可以對這些系統的使用負責?”自動化偏見和數據衛生與問責制差距有關,因為當這些問題存在時,它們會破壞指揮官可能希望實施的有意義的人類控制措施。指揮官可以通過以下方式縮小問責差距:首先,確保人員受到適當的教育、技能和培訓,以整理相關數據;其次,確保指揮官允許的風險,準確地反映完成任務與保護友軍士兵和非戰斗人員之間的平衡需求。指揮官還可以通過在機器需要更多監督時向參與該過程的人類發出信號來減少自動化偏見的機會及其潛在影響。
作為一個專業人員,不僅僅意味著要提供服務,還要在出問題時承擔責任。專業人員還必須了解各種利益相關者,包括公眾和政府及私營部門實體,如何與本行業互動和競爭。鑒于這些技術的潛力,軍事專業人員必須首先學會在技術及其應用的發展中管理預期。由于這種演變影響到專業工作的特點,軍事專業人員還必須注意專業以外的人如何重視、獎勵和支持這項工作。因此,隨著美軍繼續將人工智能和數據技術整合到各種行動中,對其專業性的考驗將在于擁有專業知識的能力,以及建立能夠繼續發展、維護和認證這種專業知識的機構,這些機構既能滿足美國人民的國防需求,又能反映他們的價值觀。
在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。
在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。
本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。
許多軍事人工智能的研究和開發資金是針對短期內可以實現的戰術級系統的改進。在這里,人工智能(AI)的潛在好處往往受到感官輸入質量和機器解釋能力的限制。然而,為了充分理解人工智能在戰爭中的影響,有必要設想它在未來戰場上的應用,傳感器和輸入被優化為機器解釋。我們還必須嘗試理解人工智能在質量上和數量上與我們的有什么不同。本文介紹了綜合作戰規劃過程中自動化和機器自主決策的潛力。它認為,人工智能最重要的潛力可能是在戰役和戰略層面,而不是戰術層面。然后探討了更多機器參與高級軍事決策的影響,強調了其潛力和一些風險。人工智能在這些情況下的應用發展應該被描述為一場我們輸不起的軍備競賽,但我們必須以最大的謹慎來進行。
目前,人工智能(AI)的民用發展大大超過了其在軍事方面的應用。盡管知道網絡將是一個重要的未來領域,但國防部門還沒有習慣于數字-物理混合世界,因此,國防部門與新的社會技術的顛覆性變化相對隔絕。在軍事上運用人工智能的努力往往集中在戰術應用上。然而,人工智能在這些領域的好處受到輸入傳感器的限制,它們被用來復制人類的行為,并在需要與物理環境互動的角色中使用。在作戰和戰略層面上,軍事總部的特點是信息的流入和流出。如今,這些產品無一例外都是完全數字化的。考慮到作戰計劃的過程,可以看出,即使在目前的技術水平下,其中有很大一部分可以可行地實現自動化。這種自動化的大部分并不構成可能被理解的最純粹意義上的人工智能,即 "擁有足夠的通用智能來全面替代人類的機器智力"。然而,軟件可以在特定任務中勝過人類的事實,再加上高級軍事決策過程被細分為此類特定任務的事實,使其成為比較人類和機器決策的優點、限制和能力的有用工具。這樣做,人類的能力似乎有可能被輕易取代。因此,追求軍事決策自動化的動機肯定是存在的。本文討論了部分自動化軍事決策的潛力和實用性,并想象了為這些目的無限制地發展人工智能可能帶來的一些風險和影響。
由于長期以來對 "黑盒"模型的擔憂,許多臨床醫生對機器學習仍然保持警惕。"黑盒"是模型的簡稱,它足夠復雜,人類無法直接解釋。預測模型缺乏可解釋性會破壞對這些模型的信任,特別是在醫療保健領域,因為許多決定都是生死攸關的。最近,可解釋機器學習領域的研究激增,旨在解決這些問題。可解釋機器學習的前景非常可觀,但對于可能在臨床決策支持工具或新的研究論文中遇到這些技術的心臟病專家來說,重要的是要對它們的優勢和局限性有一個重要的了解。本文回顧了可解釋機器學習領域的關鍵概念和技術,因為它們適用于心臟病學。回顧的關鍵概念包括可解釋性與可解釋性以及全局與局部解釋。所展示的技術包括排列組合重要性、智能體決策樹、局部可解釋的模型-診斷性解釋和部分依賴圖。我們討論了可解釋性技術的幾個局限性,重點是解釋作為近似的性質如何可能忽略了關于黑盒模型如何工作以及它們為什么做出某些預測的重要信息。最后,我們提出了一條經驗法則,即何時使用帶有解釋的黑盒模型。
盡管大多數食品和藥物管理局和加拿大衛生部批準的ML算法都集中在大腦、肺部或乳房,但截至本文撰寫時,至少有12種批準的算法應用于心臟病學。 然而,盡管如此,許多臨床醫生仍然對ML保持警惕,因為他們擔心許多ML模型的 "黑盒"性質,這可以追溯到20世紀90年代人工神經網絡在醫學上的一些早期應用。對黑盒算法的擔憂在著名醫學期刊的評論中經常被強調,現在許多ML科學家承認這是醫學中采用ML的主要障礙之一。
術語 "黑盒"是指那些足夠復雜的模型,它們不能被人類直接解釋。這與醫學研究中經常使用的模型形成對比,如線性和邏輯回歸,人類可以參考模型系數來解釋模型及其預測。雖然不是所有的ML算法都是不可解釋的(后面會有更多的介紹),但大多數產生最先進結果的ML算法(包括深度學習和集合模型)都有這個限制。
預測模型缺乏可解釋性會破壞對這些模型的信任,特別是在醫療保健領域,許多決定實際上是生與死的問題。沒有一個模型是完美的,所以臨床醫生對盲目相信一個無法提供任何關于其決定原因的模型的預測感到厭倦是完全合理的。隨著經驗性證據的積累,這些擔憂只會增加,因為ML可以對觀察性醫療數據集中發現的現有種族偏見進行編碼,從而通過黑盒自動化使系統性種族主義永久化。
黑盒也限制了模型預測的臨床可操作性,這進一步削弱了它們對臨床醫生的作用。ML在醫療保健中的一個常見應用是用于預測臨床惡化的早期預警系統。但如果這種系統只警告臨床醫生有惡化的風險,而不說明原因,不進一步評估就可能不清楚警報的原因,這在時間敏感的情況下會延誤治療,在假陽性的情況下會浪費臨床醫生的寶貴時間。
為了應對黑盒模型帶來的重大挑戰,近年來在可解釋ML領域的研究激增。這些研究的重點不是使黑盒模型具有內在的可解釋性,而是對模型如何工作以及它為什么做出特定的個別預測做出可理解的解釋(關于可解釋性與可解釋性之間的區別,下文有更多介紹)。這些解釋中的許多都集中在確定最能推動模型預測的變量,或將模型的工作原理轉化為更接近基于證據的臨床推理的透明設計(如決策樹)。這兩種方法都被證明對提高臨床醫生對ML模型的信心很重要。可解釋ML的承諾是相當大的:有機會從深度學習等技術的最先進的預測能力中獲益,而沒有黑盒子的缺點。然而,這種承諾也帶來了一些重要的限制。
本文回顧了可解釋ML領域的關鍵概念和技術,因為它們適用于心臟病學。我們的目標是為心臟病專家和心血管研究人員提供對可解釋ML技術的好處和局限性的重要理解,以便他們在遇到這些技術嵌入臨床決策支持工具或新的心臟病學研究結果時,可以成為知情的消費者。
機器學習是現代戰爭系統的關鍵組成部分。本文探討了人工智能的 7 個關鍵軍事應用。
機器學習已成為現代戰爭的重要組成部分,也是我(Nicholas Abell)作為陸軍退伍軍人和數據科學家的主要興趣點。與傳統系統相比,配備人工智能/機器學習的軍事系統能夠更有效地處理大量數據。此外,人工智能由于其固有的計算和決策能力,提高了作戰系統的自我控制、自我調節和自我驅動能力。
人工智能/機器學習幾乎被部署在所有軍事應用中,軍事研究機構增加研發資金有望進一步推動人工智能驅動系統在軍事領域的應用。
例如,美國國防部 (DoD) 的國防高級研究計劃局 (DARPA) 正在資助一種機器人潛艇系統的開發,該系統預計將用于從探測水下水雷到參與反潛行動的各種應用。此外,美國國防部在 2017 財年在人工智能、大數據和云計算方面的總體支出為 74 億美元。預計到 2025 年,軍事 ML 解決方案的市場規模將達到 190 億美元。
以下是機器學習將在未來幾年證明其重要性的七種主要軍事應用。
來自全球不同國家的國防軍隊正在將人工智能嵌入陸地、海軍、空中和太空平臺上使用的武器和其他系統中。
在基于這些平臺的系統中使用人工智能,可以開發出更少依賴人工輸入的高效作戰系統。它還增加了協同作用,提高了作戰系統的性能,同時需要更少的維護。人工智能還有望使自主和高速武器能夠進行協作攻擊。
軍事系統通常容易受到網絡攻擊,這可能導致機密軍事信息丟失和軍事系統損壞。然而,配備人工智能的系統可以自主保護網絡、計算機、程序和數據免受任何未經授權的訪問。
此外,支持人工智能的網絡安全系統可以記錄網絡攻擊的模式,并開發反擊工具來應對它們。
人工智能有望在軍事后勤和運輸中發揮關鍵作用。貨物、彈藥、武器和部隊的有效運輸是成功軍事行動的重要組成部分。
將人工智能與軍事運輸相結合可以降低運輸成本并減少人力工作負荷。它還使軍用艦隊能夠輕松檢測異常并快速預測組件故障。最近,美國陸軍與 IBM 合作,使用其 Watson 人工智能平臺來幫助預先識別 Stryker 戰車的維護問題。
正在開發人工智能技術以提高復雜戰斗環境中目標識別的準確性。這些技術使國防軍隊能夠通過分析報告、文檔、新聞提要和其他形式的非結構化信息來深入了解潛在的作戰領域。此外,目標識別系統中的人工智能提高了這些系統識別目標位置的能力。
支持人工智能的目標識別系統能力包括基于概率的敵人行為預測、天氣和環境條件匯總、潛在供應線瓶頸或漏洞的預測和標記、任務方法評估以及建議的緩解策略。機器學習還用于從獲得的數據中學習、跟蹤和發現目標。
例如,DARPA 的競爭環境中的目標識別和適應 (TRACE) 計劃使用機器學習技術在合成孔徑雷達 (SAR) 圖像的幫助下自動定位和識別目標。
在戰區,人工智能可以與機器人手術系統 (RSS) 和機器人地面平臺 (RGP) 集成,以提供遠程手術支持和疏散活動。美國尤其參與了 RSS、RGP 和其他各種用于戰場醫療保健的系統開發。在困難條件下,配備人工智能的系統可以挖掘士兵的病歷并協助進行復雜的診斷。
例如,IBM 的 Watson 研究團隊與美國退伍軍人管理局合作開發了一種稱為電子病歷分析器 (EMRA) 的臨床推理原型。這項初步技術旨在使用機器學習技術來處理患者的電子病歷,并自動識別和排列他們最嚴重的健康問題。
模擬與訓練是一個多學科領域,它將系統工程、軟件工程和計算機科學結合起來構建計算機模型,使士兵熟悉在軍事行動中部署的各種作戰系統。美國正在越來越多地投資于模擬和訓練應用。
美國海軍和陸軍都在進行戰爭分析,啟動了幾個傳感器模擬程序項目。美國海軍已經招募了 Leidos、SAIC、AECOM 和 Orbital ATK 等公司來支持他們的計劃,而美國陸軍的計劃得到了包括 SAIC、CACI、Torch Technologies 和 Millennium Engineering 在內的公司的支持。
威脅監控和態勢感知在很大程度上依賴于情報、監視和偵察 (ISR) 工作。ISR 行動用于獲取和處理信息以支持一系列軍事活動。
用于執行 ISR 任務的無人系統既可以遠程操作,也可以按照預先定義的路線發送。為這些系統配備人工智能有助于防御人員進行威脅監控,從而提高他們的態勢感知能力。
具有集成 AI 的無人駕駛飛行器 (UAV) - 也稱為無人機 - 可以巡邏邊境地區,識別潛在威脅,并將有關這些威脅的信息傳輸給響應團隊。因此,使用無人機可以加強軍事基地的安全,并提高軍事人員在戰斗中或偏遠地區的安全性和效率。
人工智能在軍事技術硬件和軟件的大規模采用,向我們展示了現代戰爭中令人難以置信和可怕的范式轉變。毫不奇怪,世界上最大的軍隊比其他任何事情都更加關注這項技術,而這場技術競賽的獲勝者可能會比美國在研制原子彈后擁有更多的全球影響力。 (作者:Nicholas Abell,美國陸軍退伍軍人)