最近,以色列國防軍(IDF)的高級軍官承認,作為以色列軍事武庫的一部分,人工智能工具的使用越來越多,這一趨勢在 2023-2024 年的以色列-加沙戰爭中也很明顯,在這場戰爭中,可以看到以色列國防軍如何部署基于人工智能的系統,以滿足防御需要、指揮和控制、收集、處理和管理數據,以及用于進攻目的。
一方面,可以說在軍事領域引入基于人工智能的工具在提高現有能力方面是有價值的。另一方面,引入不受國際法管制的新型工具會引發大量法律和倫理問題,并進一步加劇戰爭的復雜性--"不確定性的領域"。為了對越來越多的評估這兩方面以及介于這兩方面之間的問題的文獻做出貢獻,本文將把以色列的經驗作為一個測試案例,以思考前進的正確方向。
以色列在技術領域是一個精通技術的行為體,它利用自己的能力作為外交工具箱的一部分,以確立自己在國際技術治理設計中的領導地位。以色列對技術優勢的需求源于其面臨的局勢,這一點從針對以色列目標的網絡攻擊的增加,尤其是在 2023-2024 年以色列-哈馬斯戰爭期間可以明顯看出。
從以色列的經驗中可以了解到,人工智能在全球范圍內的廣泛融合,在生成式人工智能工具的推動下,已經深入到軍事領域。特別是,以色列國防軍在以下方面應用了人工智能: (1) 主動預測、威脅警報和防御系統;以及 (2) 情報分析、瞄準和彈藥。這一趨勢在 2023-2024 年以色列-哈馬斯戰爭期間有所加劇。
基于人工智能的工具可以檢測、預警,有時還能預先阻止災難性場景的發生,并有助于有效的危機管理。因此,就像北約一樣,以色列國防軍也利用人工智能技術來改善災難響應(例如,通過分析航空圖像來識別風險和受害者)。正在使用的一個值得注意的系統是 "煉金術師(Alchemist)系統",它似乎同時具備防御和進攻能力。該系統將數據整合到一個統一的平臺上,有能力識別目標,并及時向戰斗人員通報可疑動向等威脅。該系統已在2021 年的 "長城守護者行動 "中部署。
此外,"鐵穹"是以色列的一種導彈防御系統,以其保護重要基礎設施免受發射到以色列境內的火箭威脅的救生能力而聞名。在 2023-2024 年以哈馬斯戰爭中,盡管從加沙、黎巴嫩和其他地區(如敘利亞甚至也門)發射了火箭彈,但面對無人機和其他小型低空飛行物體等各種威脅,該系統仍能實現低傷亡。
Axon Vision 公司開發了另一種名為 "Edge 360"的防御系統。這種基于人工智能的系統安裝在目前在加沙作戰的裝甲車內,可從各個角度探測潛在威脅,并及時向車輛操作員發出警報。最后,以色列國防軍還將人工智能用于邊境管制。
要處理現代戰場上大量涌入的數據,必須整合基于人工智能的工具來分析大量數據。以色列國防軍使用的 DSS 之一是 "火力工廠",它可以分析大量數據集,包括以前授權打擊目標的歷史數據,從而計算所需彈藥數量,提出最佳時間表,并確定目標的優先順序和分配。在操作上,它是目標選擇周期第二階段(目標開發)和第三階段(能力分析)的綜合體。
另一個最近引起爭議的系統是 "福音 "系統,它能幫助以色列國防軍軍事情報部門改進建議并確定關鍵目標。早在 2021 年 "長城守護者 "行動期間,該系統就已生成了200 個軍事目標選項,供正在進行的軍事行動期間進行戰略交戰。該系統可在數秒內執行這一過程,而在以前,這項任務需要眾多分析人員花費數周的時間。
第三個值得注意的系統是“織火者”(Fire Weaver)系統,這是一家私營公司--拉斐爾公司開發的一種新穎工具。這種網絡化的 "傳感器-射手 "系統將情報收集傳感器與戰場部署的武器連接起來,促進了目標識別和交戰能力。Fire Weaver 系統側重于處理數據,并根據位置、視線、有效性和可用彈藥等因素為不同目標選擇最佳射手。該系統旨在提高與協同作戰的不同參與者同時工作的能力,以提高精確度,最大限度地減少附帶損害,并降低友軍誤傷的風險。
最后,據972+ 媒體最近報道,以色列國防軍部署了一個名為 "薰衣草 "的人工智能系統,據稱該系統在 2023-2024 年以哈馬斯沖突的早期階段發揮了重要作用。該系統旨在將哈馬斯和巴勒斯坦伊斯蘭圣戰組織軍事分支中可能的可疑分子標記為潛在目標。972+ 報告指出,在這種情況下,人工核查據稱僅限于辨別目標的性別,每個目標在攻擊前的平均持續時間為 20 秒,此外,報告還指出,該系統在大約 10% 的情況下會出錯。最近的一篇文章中指出,這種情況可能會在目標定位中移除人類,并繞過人類參與,從而引發對人類尊嚴的侵犯。
不過,應該指出的是,在創建和授權軍事目標的鏈條中,"972+"文章中提到的過程只是一個非常初步的過程。這是因為情報官員做出的決定隨后會傳達給目標室--在目標室中,法律顧問、行動顧問、工程師和更高級的情報官員會在批準(有時也會拒絕)之前對建議的目標進行修改。因此,"薰衣草 "的使用僅限于情報收集階段,在這之后,建議的洞察力仍需在目標室由法律顧問等進行核實,法律顧問將根據區別、相稱性和其他適用的國際人道主義法規則評估是否應攻擊目標。
聯合國大會最近對軍事領域新技術應用的出現表示關切,特別是與人工智能相關的應用,這些應用 "從人道主義、法律、安全、技術和倫理角度 "構成了嚴重挑戰。其中一個關鍵問題是決策過程(環內/環上/環外)所需或必要的適當人類參與程度。這一問題對以下三個關鍵目的具有重要意義:提高決策的準確性和精確性、增強合法性和確保問責制。這一點在人工智能系統(如 "薰衣草"、"福音"、"織火者 "和 "火力工廠")的目標定位中尤為重要。
目前看來,人工智能系統在完全沒有人類參與的情況下自主瞄準個人的情況沒有法律依據,因為國際人道主義法規定的門檻是合理的軍事指揮官(即人類指揮官,其評估標準不適用于基于計算機的人工智能系統)。因此,紅十字國際委員會指出,保持人類的控制和判斷力至關重要。根據以色列的做法,目前以色列國防軍指揮官在目標選擇方面擁有最終決策權。盡管如此,最近還是有人對 "福音 "和 "薰衣草 "等系統在目標選擇過程中人工參與的程度和效果提出了批評。
在這方面,值得注意的是習慣性預防原則。該原則規定,策劃攻擊者有積極義務'盡一切可能核實'個人或目標的軍事性質。這一原則還包含經常注意的義務,要求在進行軍事行動時,應經常注意不損害平民和民用物體。
事實上,人工智能系統生成目標的速度很快,加上指揮官進行全面審查的時間有限,令人擔憂這種情況可能達不到用盡一切 "可行 "手段避免對平民造成傷害的義務,也可能不符合持續關注的義務。Opinio Juris 最近發表的一篇博客指出,如果軍事人員無法 "深入目標",就很難看出這些系統如何有助于遵守預防原則和持續照管的義務。該博客還稱,一般來說,此類人工智能系統制造目標的速度和規模,再加上數據處理的復雜性,可能會使人類的判斷變得不可能或毫無意義。然而,應該記得以色列國防軍在這一問題上的正式立場似乎解決了這一關切。如前所述,以色列國防軍對 "福音 "和 "薰衣草 "等人工智能瞄準系統的使用僅限于情報收集階段,即目標 "生命周期 "的早期階段,從這個意義上說,后期階段包括對情報收集和評估階段的確證和監督,包括法律顧問的審查,這些審查核實所做的事實陳述,而且核實攻擊在區分、相稱性、預防措施和其他相關國際法規則方面是否適當。以色列國防軍澄清說,"福音"在選擇攻擊目標時還將經過其他幾個部門(作戰、法律和情報部門)的單獨審查和批準,這是為了確保在選擇目標的決策過程中有切實的人的參與。
另一個擔憂與可解釋性問題或 "黑盒"現象有關。基于人工智能的系統無法對其決策過程提供清晰和可理解的解釋,這是人工智能系統的一個普遍和固有的缺陷,可能會妨礙對軍事事件的調查,從而影響問責制,并抑制將重復性錯誤的風險降至最低的能力。在這方面,以色列國防軍澄清說,關于福音系統,它向情報研究人員提供了可獲取和可理解的信息,這些信息是提出建議的依據,使人能夠對情報資料進行獨立審查。與此相關的另一個值得注意的挑戰是被稱為 "自動化偏見"的現象。自動化偏見是指過度依賴或過度信任人工智能輸出的傾向。雖然以色列國防軍指揮官可以選擇無視“福音”的建議,但要避免自動化偏見仍具有挑戰性,尤其是在激烈的敵對行動期間,需要加快決策速度并不斷面臨行動壓力。
各國在武器和戰爭手段或方法的選擇上是有限的。為了核實新能力是否符合國際法,《日內瓦公約第一附加議定書》(AP I)第36 條要求各國在實際部署新武器、作戰手段或方法之前對其進行評估。與本文相關的是,"作戰手段"是一個寬泛的術語,包括用于促進軍事行動的軍事裝備、系統、平臺和其他相關裝置。為進攻行動部署的工具,如 "福音"、"火力工廠"、"火織者"和 "薰衣草",似乎構成了一種新的戰爭手段,應根據第 36 條進行法律審查。
雖然以色列不是《第一附加議定書》的締約國,而且對第 36 條的習慣地位也有討 論,但重要的是要回顧人權事務委員會第36 號一般性意見所采取的方法,即確保對生命權的保護需要采取預防性影響評估措施,包括對新武器和戰爭手段進行合法性審查。這種審查應分三個階段進行。
首先,必須確定條約或國際法是否禁止或限制使用特定戰爭手段。關于人工智能軍事工具,以色列國尚未批準一項條約,專門禁止在一般情況下或在軍事應用中使用人工智能技術。此外,除了國際人道主義法的一般原則(如區別對待)和具體規則(如保護受保護地點的規則)之外,目前似乎也沒有禁止在軍事背景下部署人工智能的常規性規定。
其次,需要確定使用該系統是否會違反國際法的一般禁令(如保護環境)。
第三,應根據 "馬頓斯條款 "考慮戰爭手段,該條款強調需要考慮 "人道原則 "或 "公共良知的要求"。在《以核武器進行威脅或使用核武器的合法性》一文中,國際法院肯定了馬頓斯條款作為 "解決軍事技術快速評估的有效手段 "的重要性。
在部署新的軍事能力時仍需謹慎。首先,通過影響評估措施--例如根據第 36 條至 API--來評估新技術的合法性至關重要。其次,設計者和操作者必須意識到內在風險,如缺乏可解釋性和偏見。這并不意味著我們建議將刑事責任歸咎于設計者,因為最終的決策者是軍事指揮官,但認為,設計者越是了解系統的局限性可能對其運行造成的影響,他們就越能預先處理好所擔心的問題,并有望減輕這些問題。對系統操作者和依賴者進行培訓也很關鍵,培訓必須包括技術、道德和法律方面。
在一個理想和價值觀日益分化的世界里,能否在前進的道路上找到共同點,不僅對未來的戰場至關重要,而且對維護國際和平與安全也至關重要。這是一個動蕩不安的時代,其中包括技術方面的飛躍,因此,超越狹隘的利益和考慮的必要性比以往任何時候都更加重要。
(網絡資源整理)
人工智能(AI)正在成為當前俄烏沖突中的一項重要資產。具體來說,人工智能已成為一種關鍵的數據分析工具,可幫助操作人員和作戰人員了解戰場上眾多系統、武器和士兵產生的日益增長的大量信息。隨著人工智能應用的不斷發展,其在當前烏克蘭戰場和未來戰場上的應用將轉化為對敵方部隊、行動和動作做出更精確、更有能力的反應。烏克蘭之所以能在戰斗中應用這一技術,離不開政府和私營部門的工作。總的來說,烏克蘭似乎從使用這種技術中獲得了更多益處,盡管現在預測這種技術優勢能否轉化為對俄羅斯固守陣地的重大優勢還為時尚早。迄今為止,烏克蘭在人工智能的使用上采用“人在環內”,由操作人員做出最終決定。
在這場戰爭中,烏克蘭從盟友和合作伙伴提供的人工智能技術和概念中獲益匪淺,這些技術和概念被用于多個關鍵領域。全球媒體公開討論了這一用途,凸顯了烏克蘭政府采用尖端做法以取得對俄軍優勢的意愿和能力。俄烏戰爭的一個重要方面是不同來源產生的大量數據,其數量遠遠超過人類快速準確分析的能力。因此,人工智能被用于數據分析,幫助烏克蘭做出決策。人工智能在烏克蘭服務中的一個關鍵作用是將目標和對象識別與衛星圖像相結合,這促使西方評論家指出,烏克蘭在地理空間智能方面具有優勢。人工智能被用于地理定位和分析社交媒體內容等開源數據,以識別俄羅斯士兵、武器、系統、單元或其動向。據公開資料顯示,神經網絡被用來將地面照片、來自眾多無人機和無人駕駛飛行器的視頻片段以及衛星圖像結合起來,以提供更快的情報分析和評估,從而產生戰略和戰術情報優勢。
事實上,全球重要的人工智能公司之一 Palantir 的首席執行官最近承認,他的企業負責烏克蘭的大部分目標瞄準工作,如坦克和大炮從衛星和社交媒體上獲取及時信息,以直觀顯示友軍和敵軍陣地,了解部隊動向,并進行戰場損害評估。Planet Labs、BlackSky Technology 和 Maxar Technologies 等西方公司也在制作沖突衛星圖像,與烏克蘭政府和軍方共享數據和分析。
俄烏沖突中首次有記錄地使用了作戰面部識別技術,烏克蘭軍方使用總部設在美國的 Clearview AI 公司識別死亡的俄羅斯士兵,并揭露俄羅斯襲擊者和打擊錯誤信息。公開報道還將人工智能置于盟軍電子戰、網絡戰和加密工作的中心。美國公司 Primer 已部署其人工智能來分析未加密的俄羅斯無線電通信,利用自然語言處理來了解俄羅斯士兵使用的特定通信方式。2022 年,總部位于美國的微軟公司報告稱,由于人工智能增強威脅情報的進步以及向云服務和其他計算機網絡快速分發保護軟件,烏克蘭的網絡防御取得了成功。
在戰線的另一端,關于俄羅斯軍方在戰爭中使用人工智能的證據和報道較少,甚至更少。與烏克蘭一樣,俄羅斯國防部(MOD)也希望人工智能能為作戰人員提供數據分析和決策能力,作為以操作員為中心或 "人在環內"的方法,更好、更快地確定戰場方向并做出決策。在俄羅斯軍事機構內部,將人工智能應用于自主、無人系統和機器人系統是該國高科技研究、開發、測試和評估工作中最引人注目的方面之一。這項技術被視為關鍵的任務倍增器,最終可在危險情況下取代人類戰斗機。例如,高級研究基金會(俄羅斯類似于 DARPA 的組織)副主任在 2020 年表示,人類戰斗機最終將被軍事機器人取代,后者比人類行動得更快、更準確、更有選擇性。
俄羅斯在這場戰爭中實際應用人工智能的例子很少,甚至沒有。俄國防部以關鍵部門和機構為中心的研發生態系統涉及技術視覺、模式識別、人工智能在機器人技術中的應用以及改進處理大型數據集的信息系統,這些都是在持續的敵對行動中引入此類技術的最實用方法。在實踐中,迄今很少有實例能讓人相信俄羅斯軍方在戰斗中使用人工智能的說法。2023 年 6 月,俄語 Telegram 頻道報道稱,"柳葉刀-3 "巡航彈藥正在使用卷積神經網絡收集、分類和分析該無人機在飛行過程中收集的圖像和視頻內容。利用這種神經網絡,"柳葉刀 "偵察無人機顯然可以探測到敵方目標,并將識別出的目標圖像傳輸給 "神風特攻隊",然后由后者實施打擊。雖然這在技術上聽起來可信,但 "柳葉刀 "的實際偵察工作通常是由 ZALA 或 Orlan-10 等其他俄羅斯無人機執行的。2022 年,"柳葉刀 "的配套無人機 "KUB-BLA "也引起了人們的關注,該無人機具有機載人工智能能力,可自主識別目標,但其使用次數相對較少,而且往往效果不佳,無法證實該無人機所謂的先進能力。這種說法往往缺乏確鑿證據,甚至得不到國防部或政府的公開承認,因此很難確定俄羅斯軍方是否真的以這種方式使用了人工智能。
俄羅斯的另一種說法涉及正在烏克蘭東部進行的 "標記 "戰斗無人地面車輛(UGV)測試。該 UGV 被移交給設在當地的一個志愿組織,用于在戰場條件下進行測試和評估。迄今為止,"標記 "仍是俄羅斯在計算機視覺、自然語言處理、導航、自主移動和群車控制方面的旗艦項目。雖然 2021 年進行的幾次測試據稱允許一組 "馬克 "自動穿越復雜地形,但目前還不清楚這種車輛是否真的能在烏克蘭發揮這種作用。更有可能的情況是,"標記 "是一個固定平臺,用于偵察系留無人機,而不是自主前往自行確定的目標地點的作戰平臺。俄羅斯軍方正尋求在信息戰中使用人工智能,但鮮有證據表明,俄國防部自己對這一問題的討論與針對烏克蘭軍民的實際效果之間存在差距。
這場戰爭的一個絕對關鍵的方面是作戰技術的快速發展以及雙方對關鍵戰術和概念的調整。如今,俄羅斯和烏克蘭軍隊及其志愿軍都在駕駛大量無人機執行偵察和作戰任務。其中許多無人機--如商用四旋翼飛行器和 FPV(第一人稱視角,"神風特攻隊 "無人機)--都是成組飛行,由一名或數名操作員駕駛。根據雙方的設想,這些戰術的自然演進將使實際的無人機群能夠在人工智能技術的支持下自主飛向目標,并分析和交換數據。烏克蘭政府官員公開表示,他們正在探索在空中無人機中使用人工智能,以提高任務效率。這種戰術甚至可能不僅僅出現在官方軍事研發機構中,還可能出現在協助雙方進行技術開發和采購的志愿者組織中。
這場戰爭的關鍵要求是建立共同的戰場作戰圖,以便迅速獲取并應對不斷變化的作戰條件。烏克蘭利用人工智能技術分析來自眾多源點的大量數據,滿足了這一需求,從而對俄軍的行動和戰術做出準確反應。俄羅斯軍方在入侵前就強調將人工智能作為決策和數據分析工具,這表明他們可能采用了類似的方法,盡管烏克蘭方面沒有公開的證據和討論。有證據表明,俄羅斯軍方正試圖集中采用人工智能作戰方法:2022 年 9 月,俄國防部成立了人工智能部,負責研究、開發和采購。俄羅斯國防部還公開表示,它將監控全球人工智能的發展,其中包括烏克蘭對這一技術的使用。
同時,必須認識到,烏克蘭在利用人工智能方面的成功離不開美國和西方的援助。事實上,上述公司正獲得前所未有的機會,在同級對手之間的常規沖突中實際應用人工智能作戰,而這在以前大多只能在模擬中實現。雖然烏克蘭的高科技部門即使在戰爭壓力下仍能開發出 Kropyva 等關鍵信息共享軟件,以及從衛星圖像中識別俄羅斯軍隊的 Reface 通知應用程序,但不清楚如果沒有這些援助,烏克蘭是否會取得同樣的成功。美國在民用和軍用人工智能技術方面的先進發展為全球如何在戰斗中利用人工智能技術開創了先河,烏克蘭也欣然采用人工智能技術,以更好地進行戰場管理。俄羅斯軍方也在密切關注美國的人工智能成就,并將美國的人工智能發展實踐(如上述中心)納入其中。烏克蘭和俄羅斯都向美國尋求應用此類技術的關鍵經驗,盡管莫斯科也向北京尋求高科技軍事合作。
與此同時,在這場沖突中,人工智能只是一個輔助工具,而不是槍尖上的解決方案,因為這場戰爭是由步兵和武器在地面上進行的,其方式更容易讓人聯想到第一次世界大戰或第二次世界大戰,領土的得失都是在緩慢而艱苦的戰斗中完成的。協助烏克蘭作戰的商業人工智能解決方案也很快被需要獨立思考的軍方所采用,而不需要漫長的采購周期或長達數年的測試和評估時間表。同時,也必須認識到,即使是先進的技術,如果由于對手適應作戰條件或愿意花費資源維持戰術現狀而無法在戰場上使用,也會有其局限性。目前,人工智能在烏克蘭的應用以人類活動為中心,操作人員在人工智能提供的分析幫助下,最終為單元、武器和系統做出最終決策。考慮到烏克蘭和俄羅斯軍隊對其中一些技術的升級速度之快,有必要考慮許多商業技術在現代作戰中的作用。烏克蘭戰爭可能會持續一段時間,雙方都在努力實現優勢互補,而人工智能將繼續在這場對抗中發揮越來越大的作用。
參考來源:Russia Matters
航空航天和國防領域正在經歷一場變革,其主要驅動力是將人工智能(AI)和機器學習(ML)技術集成到為軍事設計的傳感器、武器和信息系統中。在精確度、快速決策和穩健性至關重要的環境中,人工智能/機器學習已成為一項關鍵技術,可加快對態勢的理解和決策,提高作戰效率。這些技術使軍事行動更有可能克服 "戰爭迷霧",人工智能/機器學習基于無休止和持續的信號收集,而不是人眼可見的跡象,使感官和態勢理解更加敏銳。這些部門的獨特要求,如多域作戰、極端條件下的應變能力、高風險決策、互操作性和先進的安全措施,為人工智能發揮重大影響創造了條件。
航空航天和國防領域轉向人工智能有幾個關鍵因素:
1.快速準確的決策:軍事行動在時間和空間上都具有決定性意義。人工智能系統快速處理和分析海量數據的能力對于實時做出戰略和行動決策至關重要。挖掘來自不同來源和領域的信息并快速融合這些數據,可為決策者提供可在短周期內實施的行動情報,從而在分配的時間和空間內產生預期效果。
2.彈性和可靠性: 人工智能應用程序必須在各種具有挑戰性的環境中始終如一地運行;其建議和響應必須可信、可靠,并且不會出現商業大型語言模型(LLM)所遇到的 "幻覺"。信心和信任是軍事人工智能系統中最重要的因素,能讓用戶利用這些系統發揮最大價值。安全和信心不應是設計功能,而應是軍事人工智能系統基線基礎設施的一部分。此外,還應考慮物理安全和安保問題,采用分布式系統、邊緣處理以及強大而有彈性的網絡,使人工智能隨時隨地為作戰部隊提供支持。
3.道德和受控的自動化:無論是否有制衡機制來實現人類的信任,軍事系統的高風險都要求人工智能系統納入并遵守道德標準,并允許人類在不減慢整個流程的情況下進行監督。盡管 "道德標準 "是一個不固定的術語,取決于設計者和用戶的法律、文化、宗教和社會背景,但它為人工智能操作定義了 "游戲場地 "和邊界,就像戰爭法定義了作戰人員在戰時能做什么或不能做什么一樣。
4.先進的安全措施:鑒于國防行動的敏感性,人工智能系統必須具備無與倫比的網絡安全能力,消除系統訓練和操作過程中的不利和惡意行為。人工智能系統依賴于網絡、信息、數據饋送以及通過訓練嵌入的算法。在設計或訓練過程中篡改這些基礎,或在系統運行階段對其進行惡意操作,都可能會給用戶和依賴系統帶來巨大風險和意想不到的后果。因此,從早期設計階段就應考慮安全措施,包括風險檢測、規避和應對。
研究了數十家公司的產品,觀看了演示,并在展覽和會議上聽取了官員的介紹。通過研究,掃描了市場上專為軍事行動設計或能夠支持軍事用途的人工智能系統。使用現有最好的人工智能工具進行研究,但即使這樣也需要大量的人工分析才能提供符合標準的可用信息。在第一部分中,挑選了五個在軍事行動中表現出色的人工智能系統。
為何選擇:作為行業領導者,洛克希德-馬丁公司是將人工智能廣泛應用于國防領域的典范。他們的 AI Factory 計劃展示了他們在該領域推進 AI/ML 技術的承諾。它提供了一個安全的端到端模塊化生態系統,用于訓練、部署和維持可信賴的人工智能解決方案。其功能側重于從開發到部署和維護的自動化,應用 MLOps 解決方案(機器學習運營)來驗證、解釋、保護和監控所有機器學習生命周期階段,并創建可跨項目重復使用的參考架構和組件。
影響:從作戰飛機到太空探索,洛克希德-馬丁公司通過其人工智能驅動的解決方案影響著全球國防戰略,樹立了行業標準并為未來的技術進步鋪平了道路。
為何選擇: Palantir 在大數據分析領域舉足輕重,為情報收集和作戰計劃提供人工智能平臺。他們的 AIP 平臺為綜合解決方案奠定了基礎,通過向決策者提供相關信息、利用可用傳感器增強信息以及根據對信息、紅軍和藍軍戰術、技術和程序(TTP)的理解向決策者提供相關的、可操作的響應,從而增強軍事組織的能力并使其同步化。
影響: Palantir AIP 將大型語言模型和尖端人工智能的力量結合起來,激活數據和模型,以安全、合法和合乎道德的方式從最高度敏感的環境中獲取信息。他們的系統利用信息源的可追溯性和可信推理,在復雜的國防環境中實現數據驅動決策,說明人工智能在作戰計劃和情報行動中的重要性與日俱增。
為何選擇:Anduril Industries 站在將人工智能整合到自主系統和監控技術的前沿,改變傳統的防御戰略,采用可信賴的有人無人操作能力。
影響:他們的任務自主方法是從邊境安全和態勢感知發展而來的。他們的 Lattice AI 操作系統重新定義了防御方法,引入了分布式任務自主,采用由小型人類團隊操作的眾多無人系統。核心軟件提供傳感器融合、目標識別和跟蹤、智能網絡、指揮和控制。與其他解決方案不同的是,Anduril 的方法是通過添加可操作的使能因素,將其人工智能的覆蓋范圍擴展到 Lattice 核心之外--在安全領域,這些使能因素包括 Sentry 傳感器、Anvil 和 Roadrunner 反制措施。在進攻性打擊任務中,例如在美國陸軍的 "空中發射效應 "中,該系統通過Altius長續航時間傳感器、Fury Attritable飛機和Altius 700M效應器,將Anduril的移動自主概念發揮到極致。作為一個集成解決方案,它通過擴展覆蓋范圍、能力和態勢感知,使人類能夠使用自主系統,同時使作戰人員能夠更快地做出更好的決策。
為何選擇:C3.ai 的突出之處在于其將各種人工智能工具整合到 AI-Readiness 中的戰略,這是一個安全、統一的平臺,具有可信任、彈性和可互操作的可擴展系統,可在整個生命周期內連接和管理復雜且不同的資產。
影響: 通過提高決策和運營效率,C3.ai 的解決方案優化了資源管理和維護計劃,證明了人工智能在提高國防資產的可用性和使用壽命方面的作用,同時還能保持高安全標準。為支持引入人工智能驅動的解決方案,該公司提供了一個人工智能開發工作室,將技術評估加速到數天,并在數周或數月內完成應用開發和部署,而不是數年。
為何選擇:赫爾辛公司代表了新一輪專注于專業人工智能應用的國防初創企業,他們得到歐洲主要國防企業的支持,凸顯了赫爾辛公司在人工智能國防市場的潛力和影響力。
影響:赫爾辛公司在情報分析和決策支持方面的人工智能解決方案利用先進的目標識別和人工智能賦能的電子戰技術,與其他合作伙伴的解決方案一起,必將成為雄心勃勃的未來空戰系統(FCAS)這一任務系統的人工智能支柱的一部分。赫爾辛公司專為現代戰爭量身定制,將為未來提供獨一無二的人工智能國防和航空應用。自 2022 年以來,赫爾辛公司一直活躍在烏克蘭,為前線作戰提供能力和技術。
正如這些領先公司所展示的那樣,航空航天和國防領域正在走向以人工智能為中心的未來。市場格局多種多樣,發展迅速。每家公司都以獨特的方式塑造人工智能的市場、技術和未來,凸顯了人工智能對全球國防和航空航天戰略的變革性影響。這一趨勢增強了當前的能力,為軍事和太空行動開辟了新的可能性,標志著國防技術進入了一個新時代。
參考來源:DEFENSE UPDATE
人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。
通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。
政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。
政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:
理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。
議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。
保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。
實現以下目標對這一進程至關重要:
政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。
幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。
其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。
然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。
政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。
政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。
政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。
盡管人工智能作為宣傳工具的使用一直備受關注,但烏克蘭和以色列的熱點沖突正被證明是加速人工智能和其他信息技術工具在戰場上使用的活實驗室。特別是在烏克蘭,有報道稱,人工智能甚至被用于自主瞄準打擊目標。以色列國防軍(IDF)對人工智能的使用則更為隱秘,但它肯定被用作瞄準輔助工具,以擊敗來自加沙哈馬斯的鋪天蓋地的導彈攻擊。
烏克蘭在拒絕了其他 10 個國家的人工智能項目后,開發出了自己的人工智能,因為烏克蘭確信本國開發的人工智能會更有益處,而且可以規避向商業公司報告的任何要求。烏克蘭的人工智能主要集中在龐大的攝像頭和無人機網絡提供的計算機視覺數據上。例如,名稱和目標字符識別(OCR)可以快速識別伊朗制造的 "沙赫德 "神風無人機,而不是標準導彈。 人工智能還有助于烏克蘭自己的導彈瞄準。這些人工智能工作大多由烏克蘭的 IT 陸軍完成,據說他們有 25 萬人,其中許多人在創新的 "蝸牛車庫 "里工作,而他們的預算只有西方 IT 公司的一小部分。人工智能還被用于分析俄羅斯的無線電通信和清除地雷。與此同時,俄羅斯在軍事領域的人工智能應用似乎陷入了雄心壯志與實際用途之間的脫節,尤其是自主無人機,據說供不應求。
一些通訊社報道稱,無人化嚴重的烏克蘭已經更進一步,允許配備人工智能的無人機在某些情況下不受人類控制地識別和攻擊目標,從而引發了戰場上 "機器人殺手 "的幽靈。美國軍方已經啟動了一項為期兩年的 "復制者 "計劃,準備投入數千套價格相對低廉的自主系統,主要是為了應對大國在海軍艦艇等領域的數量優勢。澳大利亞一家名為 "Anduril "的公司(以《指環王》傳奇中的一把劍命名)正在向烏克蘭提供可發射彈藥、由人工智能驅動的 "幽靈鯊 "海上無人機。
雖然烏克蘭似乎正在使用自主人工智能來攻擊坦克等大型物體,但它幾乎可以指名道姓地攻擊單個士兵。據《時代》雜志報道,備受爭議的 Clearview 公司免費提供的面部識別系統已經識別出 23 萬多名參與烏克蘭戰爭的俄羅斯士兵和官員。Clearview 系統被用于偵測滲透者、識別親俄民兵和合作者,甚至烏克蘭稱被越過俄羅斯邊境綁架的兒童。Clearview 技術標志著 "戰斗識別系統 "的首次使用,該系統有可能被用于鎖定敵方關鍵人員。例如,一架攜帶彈藥的人工智能無人機可以在原地徘徊,直到發現一名反對派將軍。
與此同時,在立志成為 "人工智能超級大國 "的以色列,人工智能技術正在協助對加沙的哈馬斯目標進行快速定位空襲--該系統被稱為 "火力工廠",但其針對軍事目標的準確性目前尚不得而知。人工智能還幫助抵御來襲的導彈襲擊,這些導彈試圖以數量優勢壓倒以色列引以為傲的 "鐵穹 "導彈防御系統。以色列國防軍(IDF)越來越多地使用人工智能,并將其應用于移動平臺,如新型 "巴拉克 "超級坦克。巴拉克 "坦克的一個主要特點是配備了 "鐵視角 "頭盔,通過一系列外部傳感器和攝像頭,坦克乘員只需按下按鈕,就能 "看穿車輛的裝甲"。
主要得益于人工智能,坦克能夠在戰場上獨立學習、適應、導航和瞄準。以色列國防軍表示,一對 "巴拉克 "坦克將能夠執行以前需要一個坦克排才能完成的任務。
大多數分析家都認為,烏克蘭和以色列正被證明是在戰斗中加速使用人工智能的前所未有的試驗基地,而這一發展在和平時期通常需要更長的時間。現在,人工智能系統正在接受來自真實戰爭的真實數據的訓練,這意味著人工智能將在下一場武裝沖突中發揮更大的作用和效力,而下一場武裝沖突很可能包括人工智能自主作戰。
參考來源:techstrong.ai
隨著人工智能發展速度的加快,國防規劃人員開始重視人工智能技術為指揮和控制帶來的超匹配能力。大量的規劃、計劃和預算編制工作已經開始,這將提高未來戰場上的通信能力和生存能力。現在,部隊也在設計和原型開發現代系統,以幫助指揮官比以往任何時候都更全面地感知、觀察、定位、決策和行動。它們將穿透戰爭迷霧。
隨著武裝沖突時間的縮短,會產生哪些技術影響?過去可能耗時數年的戰爭可能在數月甚至數周內就能決定勝負。歷時數周的行動必須在數天或數小時內完成。而指揮官們在做出決定之前,在歷史上可能有充足的時間,但現在卻不得不在幾秒鐘內做出決定。每個指揮所的組織和運行將發生怎樣的變化?這些都是軍事領導人面臨的重大問題,因為他們正在規劃一條融合并充分利用自主性、機器學習、可信通信和邊緣計算優勢的前進道路。
場景設想
一只兔子正在咀嚼三葉草,咬到一半就僵住了,耳朵轉向左邊。透過樹林,它聽到了另一種生物向它走來的腳步聲。如果聲音的來源是捕食者,兔子就準備逃跑,它聽著不明動物的四只腳有節奏地小跑,看著它出現在空地邊緣。它飛快地躲開了這只越來越近的四足動物,因為它從未見過這樣的動物。這只像狗一樣的生物是當晚在該地區出現的 12 個自主機器人之一,它們在一個摩托化師準備建立的指揮所周圍的關鍵地形上各就各位。這是戰爭的開端,這些狗的任務是進行偵察。
幾分鐘后,隨著師長和參謀人員停下腳步并建立防御態勢,一陣低沉而穩定的裝甲踩踏聲從樹林中傳出。指揮所的自主防御部隊--軍犬--現在占據了安全位置。“軍犬”每三個一組。當其中一只正在進行四小時輪班時,另外兩只正在充電。
這些“軍犬”距離指揮所很近,可以將自己作為網狀網絡的節點進行通信和數據傳輸。在沖突的這一階段,“軍犬”只有一個簡單的交戰規則:如果有人類靠近,就向指揮所發出警報。如果探測到人類,它們就會使用傳感器記錄并向指揮所傳輸音頻、視頻和熱紅外數據。被指派保衛指揮所的連長將根據該人是友軍、敵軍還是非戰斗人員來決定采取何種行動。
在行動的這一階段,指揮所將在原地停留長達 48 小時,然后再移動。在這 172800 秒的時間里,“軍犬”每小時將以近乎穩定的速度傳輸 288 千字節。這是它們的指揮和控制數據傳輸速率,可以讓它們一遍又一遍地重復熟悉的模式--向左看、向前看、向右看、報告系統狀態、重復。這可以確保它們彼此保持聯系,并保持警惕。如果它們懷疑或探測到附近有人類,那么它們的數據傳輸速率就會膨脹到每小時 720 千兆字節,來自機載傳感器的態勢感知觀測數據。
在這種環境下,帶寬在功率、重量和冷卻方面都很昂貴。通信資源還有其他需求者。由于該師的每個成員及其設備都是一個傳感器,因此還有更多的情報、監視和偵察信息在網絡上爭奪優先權。后勤系統、語音通信、地理空間更新、指揮命令、醫療診斷數據和氣象數據都在試圖通過這些網絡進行傳輸。此外,還有計劃的網絡限制和從主要路徑到備用路徑的轉換,以混淆任何敵對系統對該師真實組成和身份的認識。
出于這些原因,"軍犬"機器人(或分艦上的其他傳感器)中的計算機視覺模型必須盡可能減少誤報。值得慶幸的是,軍犬"眼睛 "上的計算機視覺模型已經在高度多樣化的生物群落、一年四季、無數種天氣和光線條件下完成了近五萬小時的訓練。它們還消耗了關于現代軍事遮蔽物對視覺的影響、偽裝技術和模式以及人類和機器人軍事編隊的步態和身體姿勢差異的特殊訓練數據。盡管這種訓練數據機制聽起來令人印象深刻,但它不可能考慮到所有情況,這也是為什么該師的機器學習作戰部門準備根據部隊遇到的生物群落以及首戰中不可避免的敵方戰術、技術和程序變化,對軍犬和其他傳感器進行微調的原因。
重新訓練計算機視覺模型與所有其他統計分析一樣。簡單地說,需要有一個有代表性的樣本,以便用數學方法表達樣本關鍵變量之間的關系。在計算機視覺中,場景中的物體--天空、云層、地平線、有樹的山丘、無樹的山丘、單個建筑物、建筑物上的窗戶、透過窗戶看到的人臉等等--都是樣本。每只"軍犬"的傳感器都在收集周圍生物群落的無數樣本。在這些樣本中,有計算機視覺模型從未見過的新的異常值,因為它的制作者沒有一個能容納地球上所有多樣性的實驗室。
經過最初 8640 秒的夜間巡邏,"軍犬"誤報了一只熊,這只熊蹣跚地走到一棵樹下,然后用后腿站起來,試圖去夠一些橡子。當它這樣做時,其中一只"軍犬"發現了它,通過傳感器捕捉到了幾分鐘的畫面,并向指揮所安全人員發出警報。在早上的員工會議上,指揮所安全連連長問機器學習操作人員,他們能對這只讓他們夜不能寐的熊做些什么。
機器學習小組是整個聯合部隊的眾多小組之一。他們都在沖突的早期階段收集樣本。感知到的異常值以及所有觀察結果中的大量隨機樣本,都會根據其能力和隊列優先級流回戰區內外的計算集群。部分數據通過戰術網狀網絡傳輸。其他數據則由在單元間移動的各種后勤車輛被動收集,然后通過物理存儲設備傳輸移動。
數據科學家在處理整個視覺傳感器隊的誤報時,確定他們對當地熊類的觀察結果具有統計學意義,可以將所有觀察結果反饋給人工智能數據產品團隊,以完成一輪半監督負訓練,將其分類為非人類和非戰斗人員。團隊相信,新訓練的計算機視覺模型對熊的誤報率將減少約 70%。
早期樣本的另一個重要發現是發現了計算機視覺模型未檢測到的敵方戰術哨兵。這種誤報可能會對部隊保護造成不利影響。哨兵就像一只坐在樹枝上的鳥,但實際上它是一個離散的視聽傳感器包。通過將哨兵的多次觀察結果與互聯網上業余觀鳥者的視頻樣本進行比較,數據科學團隊能夠訓練出一個分類器,將哨兵與活鳥區分開來。
有了這個新的計算機視覺模型,團隊就可以準備軟件更新策略了。在接下來的 21600 秒內,整個聯合部隊將部署數百個計算機視覺更新。它們不可能也不應該一次性全部部署。在過去三年中,這些團隊已經數百次實踐了這種持續集成和持續交付(CI/CD)方法。與現代云計算提供商一樣,他們也有一套部署策略,通過一系列測試和小規模部署來確認功能是否正常。
除了這些現代軟件實踐外,機器學習操作人員還確保他們的計算機視覺模型部署到狗的樣本中,這些狗會重新觀察類似鳥類的對象,以及熊產生誤報最多的地方。由于新數據顯示誤報和誤報率大幅降低,團隊繼續在計算機視覺傳感器機群的其余部分進行部署。值得慶幸的是,更新計算機視覺模型可以有效利用帶寬。根據傳感器的不同,原始模型的大小在 40 到 60 兆之間。更新只需原始模型的 10%-20%,在這種情況下,更新只需五到十兆字節。所有這些微小的效率在戰術邊緣及其潛在的拒絕、斷開、間歇或受限條件下都非常重要。
在每個數據時代都必須進行的一系列更新就是新的戰斗演練。它們必須像士兵清除卡住的武器一樣熟悉和磨練。
必須展示哪些概念才能最終投入實戰?軍隊編制、人員和領導者必須如何采用和塑造這些新的數據作戰演習?美國陸軍已經開始了云計算、軟件定義網絡、算法戰爭、自主性和人機團隊的數字奧德賽。美國各軍種都在迅速啟用其采購、安全和信息技術干部,以提供這些技術和實踐。由此產生的軟件開發實踐不僅限于后臺職能部門。它們正通過傳統和替代性的采購途徑,在各個層級同時出現。久經考驗的研究、開發、測試和評估計劃,以及專門致力于成功實現數字化和人工智能能力的新組織,都在加速這些實踐。引領這些新努力的是一個擁有共同愿景和重新審慎承擔風險的領導者網絡。
走進任何一家新的軟件工廠或 Dev/Ops(開發/運營)軟件團隊,如 AFWERX、SOFWERX 等,就會看到了解自己使命和技能的專業人士。就像他們之前在航空、機械化作業和非機組人員系統領域的先驅一樣,他們知道自己所從事的工作的新穎性很容易被誤解或否定。然而,當他們考慮到烏克蘭和以色列正在進行的戰爭時,他們積極推動新能力的發展,以戰勝任何對手。
所有這些工作都有意義所在。要想讓它們結出碩果并最大限度地影響軍事效率,領導者必須積極努力,加快團隊的效果。為此,他們可以采取幾個關鍵步驟。
首先,消除開發團隊與最終用戶之間的距離。這對成功采用軟件和硬件至關重要。用戶和開發人員之間的接觸點是你應該衡量和投資的。如果用戶沒有破壞技術,而開發人員也沒有根據他們無法預料的用例迅速調整技術,那么你就會把這些不幸的發現推遲到第一場戰斗中。
第二,與官僚機構中的現狀偏見作斗爭。如果有人告訴你,生成式人工智能沒有需求,那么請提醒他們,在軍事史的其他拐點上,槍械、坦克、飛機、反簡易爆炸裝置和反無人機技術也沒有需求--直到技術和用例匯聚在一起,使需求變得非常明確。
第三,將人工智能項目分解成一個組合,在一般的開發、安全、機器學習、運營(DevSecMLOps)流水線與不同機器學習學科(如自然語言、計算機聽覺和計算機視覺)的獨特需求之間取得平衡,以滿足遙感、感知和自主等不同應用的需求。
第四,除了你的團隊正在構建的人類角色外,還必須為另一個用戶--新興力量結構中的機器角色--提供服務。部隊結構中每個支持機器學習的設備都需要一個人工智能就緒的數據產品戰略和數據網絡戰略,以便在各種沖突、生物群落和任務中對其進行再訓練。當人類繼續消耗豆子和子彈時,機器將消耗電池和字節。
第五,除了已經建立的物理和虛擬訓練環境,還需要一個設備農場、一個模型動物園和一個數字孿生家族。移動應用開發人員必須在各種設備制造商之間進行測試,以確保向前和向后的兼容性。設備農場可以幫助開發人員從這些異構設備群中快速獲得技術反饋。在下一個戰爭時代,這些設備可能是四足機器人、無人機群,也可能是載人履帶車。機器學習工程師建立并迭代了大量開源和專有模型。在對它們進行訓練和再訓練的過程中,工程師們將擁有越來越多的模型集合(動物園),這些模型將成為在新情況下進行快速微調的更好起點。數字孿生將有助于確保您擁有一個具有充分代表性的環境,以展示新的網絡-設備-數據-模型組合的預期效果。
第六,零信任運動。就像 Hedy Lamarr 和 George Antheil 發明的跳頻擴頻一樣,零信任系統不斷強制執行憑證和其他證書的連接、輪換和重新認證,以確保安全一致性,抵御外部和內部威脅。要做到這一點是一門復雜的藝術,但您應該在數據和系統訪問中要求具備這種能力。BYOD(自帶設備)是企業能夠以零信任方式運行的標志。當您可以信任員工帶去工作的異構敵對外國設備時,您將具備必要的組織和技術實力,與盟友和聯合部隊中的任務合作伙伴實現同樣的目標。
第七,組織需要每周部署到生產中,領導應參與 CI/CD 流程。現代云計算服務通過多種策略實現高可用性。其中最關鍵的是,在發生中斷事件時,開發人員與其領導之間通過軟件定義的連接。在純粹的形式下,DevOps 意味著構建軟件的同一個團隊也會部署軟件,如果部署失敗,他們會在半夜接到呼叫。這就加強了測試過程中對細節的關注。傳呼過程還可以與主要領導聯系起來。如果知道有一定的時間來解決軟件部署失敗的問題,并在經理被傳呼之前恢復正常服務,那么每個人都會在測試過程中更加關注細節。
第八,明確允許在哪些領域進行 "系統 1 "和 "系統 2 "機器思維實驗。丹尼爾-卡尼曼(Daniel Kahneman)在《思考,快與慢》(Thinking, Fast and Slow)一書中普及了現代人對人類思維能力的理解,即人類的思維能力是兩個系統的副產品。系統 1 自動做出快速反應,就像 "戰斗或逃跑 "反應一樣。你的視覺、聽覺或嗅覺幾乎不費吹灰之力就能處理房子著火的情況。卡尼曼將其與系統 2 區分開來,后者 "將注意力分配給費力的心理活動",并完成復雜計算等任務。通過它,我們對何時將精力分配給專注力有了更多的自主權和選擇權。人機協作的關鍵在于將系統 1 和系統 2 的任務分配給合適的隊友。
我們不希望有一天會經歷這種情況,但在未來的戰場上,兩支陸軍將在夜間發生沖突。清晨,雙方的幾個營可能只剩下殘兵敗將。哪一方能更快地執行重組戰斗演習,哪一方就能立即獲得優勢。從原屬組織脫離并加入新組織的任務命令需要幾個行政和控制步驟。指揮官應首先選擇新的領導和編隊,這是系統 2 的流程。不過,一旦命令下達,一系列系統 1 應用程序和信息應能使所有人員、醫療、后勤和其他支持數據迅速準確地傳送到新的指揮人員手中。如果我們把眼前的工作做好,新營應該能在 3600 秒內做好戰斗準備,而不是 28800 秒。分秒必爭。
參考來源:The Modern War Institute
在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。
在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。
即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。
但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。
這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。
AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。
新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。
與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。
最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。
隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。
因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。
AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。
例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。
在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。
這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。
人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:
2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。
"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。
試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。
正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。
放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。
當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。
除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。
正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。
"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。
這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。
在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。
確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。
關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。
參考來源:International Committee of the Red Cross
人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。
人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。
電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。
將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。
在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。
此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。
人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。
不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。
最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。
最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。
自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。
人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。
土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:
第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。
《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。
焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。
土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。
土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。
土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。
土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。
土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。
土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。
培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。
所謂的殺手機器人已經到來,由人工智能支持的自主武器將成為未來戰爭的一個突出特征。在國際競爭者開發這些系統的背景下,在國際和多國公司的關注下,國家安全委員會關于人工智能的最后報告判斷,這些類型的無人駕駛武器可以而且應該以符合國際人道主義法律的方式使用,適用人類授權的使用條件和適當的設計和測試。人工智能支持的自主性及其軍事應用帶來了這些技術的基本風險,它們在無人武器中的使用進一步挑戰了軍隊在國際人道主義法和正義戰爭理論框架內尋求合法使用。因此,倫理學提供了優越的概念載體,以任命和授權人類授權者和使用者,并從質量上確定什么是 "適當的 "設計和測試。國防部的 "人工智能準備部隊運動 "所確立的七個人工智能工作者原型中的每一個都應該應用與角色相關的、與人工智能有關的道德規范,以充分實現《最后報告》中所確立的條件,并保留和支持控制暴力壟斷所必需的人性。對道德教育的需求單獨和集體地滲透到每個原型中,美國防部必須認識到公共/私人伙伴關系的價值,以充分考慮這些條件。