無人自主技術的出現從根本上改變了現代戰爭,突破了常規和非正規軍事戰術的界限。這些技術與人工智能(AI)的融合擴大了其影響,提高了精確性、適應性和戰略洞察力。這種融合不僅重新定義了沖突,而且重塑了軍事理論,要求在交戰規則、監視和精確打擊方面采用新方法。在努力應對這些進步的同時,它們的影響遍及全球軍事領域,創造了機遇,也帶來了挑戰。
在過去二十年里,無人飛行器(UAV)、自主陸地戰車和無人海上系統已從實驗性概念過渡到戰爭的基本工具。它們的可負擔性、可獲取性和先進性促使國家和非國家行為者廣泛采用。這一演變反映了技術創新與戰場智慧交織的范式轉變,重新定義了作戰行動。
例如,在伊拉克和阿富汗,簡易爆炸裝置(IED)曾一度主導著非常規戰術。現在,價格低廉的商用無人機已經占據了中心位置,其在當前俄烏沖突中的廣泛應用就是例證。烏克蘭軍隊將這些設備重新用于偵察、精確打擊和直接交戰。2024 年 7 月,一名烏克蘭操作員成功地使用商用無人機摧毀了一架俄羅斯米-8 直升機,突顯了這些工具在非對稱戰爭中的快速發展。
無人機的普及帶來了更令人擔憂的可能性:綜合自主系統。這些系統將無人機、機器人技術和人工智能結合起來,執行復雜、協調的行動。ELECFREAKS 等公司生產的機器人套件可以相對容易地實現武器化,而英國公司則為烏克蘭提供了能夠偵察和探測誘殺裝置的機器狗。俄羅斯軍隊以及美國海軍陸戰隊已嘗試用狙擊步槍和火箭發射器武裝這些機器人。
各國在人工智能驅動的無人偵察機方面取得的進步進一步凸顯了這些系統的日益先進性。無人機可繞過傳統安全措施。這些工具可以支持非正規戰爭中的情報搜集或秘密行動。雖然在這些設備上安裝武器會引起道德方面的擔憂,但它們在不對稱沖突中的潛在作用是不可否認的。
在自主技術方面的快速進步凸顯了現代戰爭的一個重要方面——近距離競爭,而各國正在積極推進其全面的無人機現代化計劃。這場競爭正在重塑戰爭,其影響遠遠超出戰場。空中、地面和海上的自主飛行器提供了前所未有的速度和精度,并減少了對人類操作員的依賴。這種能力對傳統的防御戰略提出了挑戰,因此有必要重新評估軍事理論。
無人機群是現代戰爭中最重大的挑戰之一。這些人工智能制導系統可以壓垮防御系統,實施協同打擊,破壞重要基礎設施。它們在極少監督的情況下自主運行的潛力放大了其影響。2024 年,美國陸軍測試了針對多達 40 架無人機群的反制措施,這說明了開發有效防御系統的緊迫性。
這些創新預示著未來無人機將在空對海、地對空、海對陸等各個領域投送自主飛行器,模糊了科幻小說與戰場現實之間的界限。
無人駕駛和自主系統的興起帶來了復雜的倫理和戰術挑戰。雖然這些技術降低了人類的風險并提高了作戰效率,但它們的可獲取性使非國家行為者能夠利用它們造成破壞性影響。現成商業技術武器化的例子說明,可輕易獲取的工具可以被重新用于軍事用途。
此外,將人工智能整合到這些系統中還會引發對問責制和決策制定的擔憂。能夠在極少人為干預的情況下執行任務的自主網絡對傳統的指揮和控制概念提出了挑戰。這些發展需要嚴格的監督、國際監管和道德準則,以防止濫用和升級。
無人自主技術正在重塑現代戰爭,既帶來了無與倫比的優勢,也帶來了巨大的風險。俄烏沖突中的創新和國際人工智能驅動的進步說明了這些系統的變革潛力。然而,它們也凸顯了對反制措施、道德標準和戰略遠見的迫切需要。
隨著這些工具的發展,它們將繼續模糊常規戰爭和非常規戰爭之間的界限,迫使世界各地的軍隊迅速適應。如果不能應對這些挑戰,就可能開創一個新的沖突時代,人類與機器之間的界限將變得越來越模糊。通過促進國際合作與創新,可以駕馭這一危險的局面,確保技術進步與全球安全之間的平衡。
參考來源:smallwarsjournal
在快速發展的現代戰爭中,技術進步始終在塑造軍事戰略和能力方面發揮著舉足輕重的作用。在這些進步中,自主武器系統 (AWS) 脫穎而出,成為重新定義未來軍事行動的變革力量。這些系統在不同程度上無需人類干預,具有提高作戰效率、減少人員傷亡和革新作戰戰術的潛力。然而,將 AWS 納入軍事武庫也會引發重大的倫理、法律和戰略問題,需要認真加以解決。
過去幾十年來,自主武器系統有了長足的發展,從最基本的自動防御系統發展到能夠進行復雜決策的高精尖平臺。早期的自主武器系統包括自動炮塔和導彈防御系統,旨在攔截來襲威脅,而無需人類直接控制。這些系統依靠對特定刺激的預編程反應,讓人們看到了自主防御的潛力。
人工智能(AI)和機器學習的出現加速了 AWS 的發展,使這些系統能夠分析大量數據、從環境中學習并實時做出決策。現代的自主武器系統涵蓋多種平臺,包括無人機(UAV)、地面機器人和艦載無人機,每種平臺都配備了先進的傳感器、人工智能算法和通信網絡,使其能夠在各種作戰場景中獨立或協同作戰。
在軍事行動中部署自主武器系統會引發深遠的倫理和法律問題,必須加以解決,以確保負責任地使用。這些考慮因素圍繞著人類尊嚴、問責和遵守國際人道主義法等原則。
將自主武器系統納入軍事行動具有深遠的戰略意義,可影響全球安全動態、軍事條令和國防政策。
隨著技術的不斷進步,自主武器系統 (AWS) 的未來既充滿希望,又充滿不確定性。未來幾年,有幾種趨勢和發展可能會影響自主武器系統的演變。
人工智能和機器學習的進步
人工智能(AI)和機器學習的不斷進步有望顯著增強自主武器系統的能力。這些進步將使 AWS 能夠執行更復雜的任務,并在動態環境中有效運作。人工智能和機器學習將產生重大影響的一些關鍵領域包括:
人機協作
人機測試的概念,即人類和自主系統密切合作,作為一種利用人類和機器優勢的有前途的方法,正日益受到重視。這種合作模式旨在將人類的戰略監督和道德判斷與自主系統的精確性和效率結合起來。人機協作的主要方面包括:
隨著 AWS 的不斷改進,一些趨勢和挑戰將影響其未來的發展和部署:
自主武器是一項重大的技術進步,有可能徹底改變軍事行動。人工智能和機器學習的進步、人機協作的采用,以及國際監管和治理的建立,都將決定自動武器系統的未來。雖然 AWS 有許多好處,包括提高作戰效率、減少人員傷亡和部隊倍增,但它也提出了深刻的道德、法律和戰略挑戰。
要應對這些挑戰,就必須采取多方面的合作方式,在創新與責任之間取得平衡。通過發揮人類和機器的優勢,確保遵守道德和法律標準,并促進國際合作,未來的自主武器系統可以走向一條既能加強全球安全,又能堅持人道主義原則的道路。
參考來源:Hemanth Raj
技術進步給人類生活的各個領域帶來了前所未有的變化。軍事領域也不例外,世界各國軍隊越來越多地從技術發展中獲取戰場上的戰略和戰術優勢。在世界范圍內,海軍、空軍和陸軍都在研發可以自主操作的武器。完全自主的武器。被稱為 “自主”的武器系統正在迅速崛起。武器逐漸被設計成能自主運行,減少人類的作用。世界已經見證了這些武器在戰場上的部署。近年來,從土耳其在利比亞部署的自主攻擊無人機,到烏克蘭和俄羅斯的人工智能無人機,再到以色列在加扎使用的 “薰衣草 ”和 “福音 ”系統,致命武器已經出現在戰場上。戰場上出現的這種自主性引起了人們對其在戰爭中作用的擔憂。
“制止殺手機器人運動”發言人彼得-阿斯羅將自主武器定義為“任何能夠在沒有人類直接監督和人類直接參與致命決策的情況下瞄準目標并啟動使用潛在致命武力的系統”。人在環內武器是指只有在人類指揮下才能夠選擇目標和使用武力的機器。而 “人在環上”武器則是指能夠在人類操作員的控制下選擇目標和使用武力的機器,人類操作員可以控制機器的行動。這兩類武器被視為半自主武器系統。另一類是完全自主的武器,在這類武器中,人類不參與其中。值得注意的是,半自主武器具有自主功能,可以轉變為自主武器系統。
全球各國軍隊都在快速進步,并在爭奪包括自主武器在內的軍事技術的主導權。美國、俄羅斯等大國在這項技術上處于領先地位,其他國家如印度、土耳其和韓國也是如此。近年來,俄羅斯在軍事技術方面取得了長足進步,其重點也是提高武器系統和決策的自主化水平。俄羅斯在機器人系統的設計和應用方面投入了大量資金,其中也包括無人駕駛飛行器。據報道,在正在進行的戰爭中,俄羅斯和烏克蘭使用了人工智能驅動的無人機,這種無人機可以殺人于無形。
美國國防部的《無人系統路線圖:2007-2032年》顯示,美國正在尋求開發越來越多的自主武器系統。五角大樓最近宣布的 “復制者 ”計劃打算在未來幾年內在軍事領域開發和部署數千個致命性自主武器系統。美國海軍已經展示了一艘無人炮艇,在沒有人類操作員指揮的情況下,使用實彈火箭攻擊假冒的敵方目標。印度也加入了這場競賽。印度陸軍部隊正在引進蜂群無人機系統,據說這種系統與地面部隊協同作戰,可以在戰場和戰爭中提供顯著的攻防優勢。新德里還引進了 Drishti-10 中空長航時(MALE)無人機(UAV)。
配備人工智能的致命武器系統因其更高的精確度、最低的風險、成本效益和作戰靈活性,已成為許多國家安全戰略的核心。這些武器裝備以現代傳感器裝備和復雜的計算機算法為特色,可以獨立自主地運行。各國越來越多地參與將自主功能集成到武器系統中。特別是大國正在投資這些技術,開發自主系統。將致命性自主武器納入國家安全戰略及其在戰爭中的使用確實存在風險。它加快了戰爭的速度和節奏,這一過程被稱為 “戰場單一性”。它還會增加發射不穩定、誤報和操縱預警系統的可能性。使用致命武力的能力和自主性可以重新定義國際關系,并導致地緣政治的結構性轉變。由于其精確性和速度,它迫使各國在危機升級時預先授權以避免斬首行動,從而使核武器變得脆弱不堪。致命性自主武器的縱向和橫向擴散也難以控制,導致軍備競賽、戰略不穩定和技術差距。此外,致命性武器會帶來誤判、故障、事故和險情等風險,從而增加核戰爭的風險。
鑒于其風險性,聯合國已宣布其在政治上不可接受,在道德上令人厭惡,并呼吁制定一項具有法律約束力的文書,在禁止和限制核武器的同時,發展其和平應用。盡管各國呼吁禁止致命性自主武器并采取法律行動支持全球努力,但在包括人工智能和自主武器在內的各個領域搶占先機正在破壞這些努力。例如,印度對致命性自主武器的規范立場極具兩面性,一方面主張禁止和管制致命性自主武器,另一方面又大力投資于自主武器。美國的情況也是如此,致命自主武器是其當前國防戰略的核心。
未來,在沒有人類控制的情況下部署這些武器將面臨嚴重風險。未來十年,隨著自主武器分配更多資金,競爭將更加激烈。因此,致命性自主武器系統將在未來幾年對戰爭產生革命性影響。致命性自主武器的使用呈現出一種令人擔憂的趨勢,它可能會改變戰爭的方式,造成不穩定和緊張局勢。當務之急是啟動具有法律約束力的多邊文書,禁止和規范人工智能、無人機、殺手機器人等。在地緣政治緊張局勢加劇的情況下,這些法律的使用必須符合國際人道主義法。未來的條約應關注人類的作用。否則,“致命武器 ”的發展、部署和擴散將破壞國際安全。
參考來源:moderndiplomacy
人工智能(AI)和無人機技術正在推動全球軍事和民用領域的變革。隨著國家和企業在這方面的不斷投資,配備人工智能的無人機正朝著非常自主、高效和能夠執行非常復雜的任務的方向發展。在這一技術演進過程中,作業效率被推廣到多個領域。
然而,它也帶來了一些關于未來戰爭和監控的非常重要的倫理和監管問題。烏克蘭戰爭加速了人工智能和無人機戰爭軍事技術的發展。面對現代戰爭戰術和戰場的變革,烏克蘭別無選擇,只能將重點放在基于人工智能的無人機上,以保持作戰效率和相關性。這是一次大膽的技術變革,機遇與挑戰并存。
美國等全球大國正在對人工智能無人機技術進行巨額投資,試圖獲得戰略競爭優勢。根據 Skyborg 計劃,美國軍方旨在開發低成本、可與有人駕駛飛機協同飛行的自主無人機。以色列國防工業則率先在一些最創新的無人機技術中注入人工智能,以提高行動效率。這些投資表明了一個更廣泛的趨勢: 人工智能已成為軍事現代化的核心。
自 2022 年烏克蘭-俄羅斯戰爭爆發以來,烏克蘭涌現出數百家科技公司,致力于開發能增強無人機能力的人工智能系統。像斯沃默(Swarmer )這樣的公司走在了前列,他們研究的是無人機自主操作,可以讓無人機群在幾乎沒有人工投入的情況下獨立執行任務。這些都是先進的系統,利用地形測繪和視覺識別來識別目標,并利用復雜的算法來協調飛行,這反映了烏克蘭對利用尖端技術進行防御的戰略重視。
這些無人機可以進行自主導航,并在電子戰條件下運行--鑒于雙方一直在使用大量干擾技術,這種能力至關重要。這一戰略部署凸顯了人工智能在現代作戰中的作用,使烏克蘭軍隊能夠在先進的電子戰戰術下保持作戰效率。這在蜂群技術中得到了顯著發展。斯沃默公司的 “冥河”(Styx)系統允許數架無人機協同飛行,實時做出決策,并完成人類飛行員無法完成的復雜動作。這對于反擊俄羅斯的防御系統,使無人機行動發揮最大效果至關重要。蜂群技術在軍事戰略概念中具有巨大的進步意義,使應對戰場挑戰的措施更加高效、適應性更強。
此外,國際合作正在增強無人機的威力。從資助無人機技術開發到共享重要情報,烏克蘭正從西方盟國那里獲得各種支持。在這一領域的合作對烏克蘭非常重要,因為它將能夠保持與擁有更大工業和軍事資源基礎的俄羅斯軍隊相比的技術優勢。這種國際支持方式表明了聯盟在現代戰爭中的當代意義,在現代戰爭中,技術優勢可能是取勝的關鍵因素。
人工智能在無人機技術領域的快速發展既是機遇,也是挑戰。另一方面,人工智能無人機能力的增強可以顯著提高多個領域的效率和效力,在軍事行動中更是如此。但是,遠程精確打擊正顯示出這些技術創新所帶來的戰略優勢。
然而,無人機在沒有駕駛員的情況下,尤其是在軍事領域,會產生更深遠的影響。如果有一天,無人機在不受人類控制的情況下決定誰生誰死,那么國際人道法就可以考慮追究責任的問題。專家們強調,人類需要 “參與其中”,以減少戰斗情況下自動決策過程帶來的風險。
烏克蘭的案例凸顯了這一點的緊迫性,烏克蘭正在快速開發人工智能系統,計劃在沖突持續的背景下增強無人機能力。在這些方面,如果要部署配備人工智能的無人機,那么其使用必須符合國際法律制度中的幾個因素,包括訴諸戰爭權,這涉及何時使用武力是合法的,規定任何使用武力的行為都必須是必要和相稱的。國際人道主義法要求戰斗人員區分軍事目標和平民,并確保行動不會對平民造成過度傷害。日內瓦公約--國際公約確立了這一原則。
同時,《國際人權法》對生命權給予保護:只有在絕對必要時才須使用致命武力,因此又增加了一層遵守法律的要求。在這些法律框架內,人工智能無人機的合規性存在一些基本問題,特別是 誰對自主決策過程負責的問題含糊不清,因此很難對無人機襲擊追究法律和道德責任。也就是說,人工智能算法可能不太可能在復雜多變的環境中準確評估相稱性,從而造成平民傷亡人數不成比例的威脅。
自主系統也無法有效區分合法軍事目標和平民,尤其是在人口稠密地區。無人機在未經外國同意的情況下對其領土進行打擊,會受到強烈譴責,因為這侵犯了國家主權--國際法的核心原則--《聯合國憲章》第 2(1)條對此有明確規定。人工智能無人機的擴散可能會給國際和平與安全帶來一些威脅。它可能會破壞《聯合國憲章》禁止使用武力的規定,使訴諸武力變得更加容易。使用無人機進行跨境定點清除有可能加劇緊張局勢,增加國家間沖突升級的危險。隨著無人機價格越來越低廉,越來越容易獲得,恐怖實體或其他非國家行為者有可能獲得無人機,并將其轉用于不良目的。此外,人工智能驅動的無人機很容易受到黑客攻擊等網絡攻擊,影響操作的完整性和安全性。
隨著技術進步的迅猛發展和現代戰爭的迫切需求,人工智能無人機在未來將有廣闊的發展和變革空間。烏克蘭等國正在以超常規的速度發展這種能力,并有可能提高無人機行動的自主性。未來的無人機將具備先進的決策能力,能夠在無人干預的情況下執行復雜的任務。這在需要迅速和獨立的應急響應情況下具有巨大價值。相反,人工智能無人機需要強有力的監管發展。
隨著技術快速進入日常生活,亟需制定監管框架,規定其在軍事領域的應用。因此,專家塞繆爾-貝內特(Samuel Bennett)確實要求在決策過程中保持人為控制,以免在選擇目標時犯錯,違反國際人道法。歐洲議會 2020 年的一份研究報告指出,與部署自主武器相關的倫理問題非常嚴重,因為這種系統會違反國際人道法,降低參與武裝沖突的門檻。除了融入軍事領域,人工智能無人機正在進入更廣泛的領域:環境監測、救災和物流等。
公司正在開發新的人工智能應用,以借助無人機提高數據分析和運營效率,使其更加貼近人們的生活。以烏克蘭初創公司 Swarmer 為例,這家公司開發的軟件能讓無人機在相互交織的網絡中運行,只需極少的人工投入就能做出實時決策。Swarmer 的技術能夠處理來自數百架無人機的信息。這可能是人工智能從根本上改善戰場上無人機操作的潛力所在。
因此,為人工智能無人機制定明確界定和可執行的規則對國際社會提出了挑戰。要做到這一點,要么修改《日內瓦公約》等現有條約,要么通過談判達成新的國際協議,以應對自主武器系統的獨特挑戰。烏克蘭事件是進一步發展無人機在武裝沖突中的應用的案例研究,也是人工智能技術的發展及其在軍事中的應用的競賽,因此有必要對技術和武器領域的發展保持平衡的態度。
既然基于人工智能的無人機已成為軍事行動和作戰的重要組成部分,那么讓未來世界更加安全的現實之一就是嚴格遵守國際法,消除倫理問題。根據記錄,到 2023 年,無人機技術中的人工智能市場規模預計將達到 70 億美元。2023-2030 年間的復合年增長率為 28.5%。這一增長是由于各業務領域對各種操作準確性的需求不斷提高。隨著包括烏克蘭在內的越來越多的國家在當前的戰爭中采用人工智能技術,人工智能將如何迅速顛覆軍事應用,這是一個相當大的轉折。
由人工智能驅動的無人機的發展代表了各行各業數字化轉型的一股強大力量,但也引發了一些重要的倫理和監管問題。如果創新必須與負責任的治理相結合,那么無人機中的人工智能技術就必須在不損害安全和道德的前提下產生預期效益。烏克蘭的局勢已成為無人機戰爭和全球人工智能軍備競賽如何演變的重要案例研究。烏克蘭公司競相開發能提高無人機能力的人工智能系統--部分是通過測繪地形和識別目標,以減少遭受俄羅斯電子戰攻擊的可能性,并提高作戰效率。
國際社會須就裝備人工智能的無人機的隱蔽性達成應有的共識,實施一套明確的規則來避免這些問題。要做到這一點,既可以起草新的國際協定來解決自主武器系統的具體問題,也可以調整現有條約,包括《特定常規武器公約》。此外,還必須通過各國的國家法律和政策來遵守國際法,并采取措施和控制措施來防止濫用。因此,當人工智能驅動的無人機不可避免地成為軍事戰略的一部分時,要想維護全球安全與穩定,就必須確保遵守國際法和倫理關切等其他主要要求。
參考來源:CyberPeace
現代軍隊面臨著一個新的敵人和朋友:無人駕駛小型飛行器系統(sUAS)。這些小型飛行器在增強任務能力的同時,也對敵方構成了嚴重威脅。小型無人機群的存在要求轉向自主的、人工智能(AI)驅動的反制措施,以優化傳感器資源管理,實現智能實時決策和態勢感知。戰場傳感器資源管理可優化系統之間的通信,從而增強指揮、控制、通信、計算機、情報、監視和偵察(C4ISR);無人機系統和超小型無人機系統;定位、導航和定時(PNT);電子戰(EW)能力;以及與更大防御網絡的連接。
如今,軍事行動在許多技術領域都受到了影響,小型無人駕駛航空器系統(sUAS)已成為改變游戲規則的工具,重塑了戰術和戰略方法。在更長的電池壽命和強大的通信網絡支持下,它們自主執行任務的能力大大增加了其航程、續航時間和靈活性。然而,這些技術進步也為對手提供了更強的能力,使其能夠利用小型無人機系統收集情報、實施攻擊,甚至可能傳播化學、生物或放射性制劑,從而對作戰準備構成嚴重障礙。
一個特別令人生畏的威脅是無人機群的出現--大型、協調的無人機群通過持續不斷的攻擊,共同壓制或削弱目標。與單個或小型無人機群相比,這些無人機群具有明顯的優勢,包括易受攻擊、復原力更強和適應性高。當這些小型無人機系統中的一個或多個被擊落時,剩余的無人機系統可以共享信息,保持通信線路暢通,理論上還可以臨時重新分配任務目標,實時調整以適應不斷變化的戰場條件。
一直以來,反無人機系統都依賴于人工操作,為操作人員提供詳細的傳感器和武器數據--而且是大量的數據。這種信息過剩不僅使操作員的互動變得復雜,而且會降低準確決策的速度,尤其是在面對無人機群威脅時。
隨著自主無人機協調行動以實現目標,防御部隊必須利用更多的決策支持和自動化反無人機系統資源來保持優勢。傳感器管理必須根據相關數據和時機,與戰斗管理目標緊密結合。同時,作戰管理支持工具必須考慮傳感器控制與武器部署之間的復雜關系。
先進算法和人工智能(AI)的使用徹底改變了我們處理和分析 sUAS 蜂群海量數據的方式。通過先進的模式識別、異常檢測和預測建模,智能反無人機系統可以協調傳感器和武器,更好地探測、跟蹤、識別和攻擊威脅。這就為決策者提供了應對大型敵對無人機群時可操作的實時情報。
傳感器資源管理涉及分配傳感器,以優化探測、跟蹤和數據融合。
傳統的反無人機系統通常需要人工來管理傳感器任務分配,從而導致在攻擊期間響應速度減慢、響應時間延長。另一方面,自動傳感器管理可讓軟件處理詳細的傳感器任務,而人類操作員則專注于高層次的指導和監督,從而提高整個過程的效率。
自動傳感器資源管理有幾個優勢。首先,它能讓操作員騰出手來,專注于復雜場景中更高層次的規劃和戰術。它還能通過智能確定傳感器停留時間和目標重訪時間間隔,針對多種動態威脅做出快速決策。這種方法通過在遠離人員的無人機器人平臺上部署自動傳感資產,降低了部隊(可能在地面或空中執行任務)的風險。此外,它還能實現自動目標提示,當目標變得可見時,光學系統會根據雷達探測數據進行引導,所有這一切都無需人工干預。最后,自動傳感器資源管理支持低特征任務概念,即系統掃描威脅,只有在需要時才啟動雷達資源,從而降低對下方或上方人員的威脅,同時保持有效的反無人機系統行動。
在人工智能和協調算法的幫助下,自動傳感器資源管理提高了防御行動的準確性和適應性,確保傳感器資產和情報得到最佳利用。
在戰斗管理中,重要的是要有戰略性地決定在什么時間對什么目標使用什么武器。武器目標分配包括找出將不同武器系統分配給目標的最佳方式,以最大限度地對敵人造成傷害。在面臨多種威脅的情況下,人類必須在數秒至數分鐘內快速評估如何交戰,因此這種決策對人類來說是一個挑戰。
戰斗管理自動化使系統能夠評估所有可用資源,并根據任務目標確定行動的優先次序,而不僅僅是應對最明顯的威脅。它能利用組合優化和人工智能方面的尖端技術,實時、不斷地制定作戰計劃,為戰術決策提供支持。這些計劃是自適應的,隨著新情報的收集和威脅的識別而自動更新,并根據需要動態地重新分配傳感器和武器資源。該系統還通過整合傳感器模型、武器威脅幾何模型、彈道導彈軌跡模型和攔截器制導模型,利用每種資產的獨特能力實現最佳整體解決方案,從而增強武器目標分配。此外,這種自動化還能增強針對無人機系統對手的戰略推理能力,開發出能主動適應反制措施的無人機精密對策。
通過實現戰斗管理關鍵環節的自動化,指揮官可以加快作戰行動和演習的速度。決策速度有助于就打擊哪些目標以及何時提供火力支援做出最佳決策,隨著信息越來越豐富,戰爭的進行方式也在發生變化。(圖 1)。
[圖1 ? 戰斗管理關鍵環節的自動化可使指揮官在戰斗行動和演習中做出更好的決策。]
無人機群會產生大量信息,使操作人員被數據淹沒,沒有足夠的時間做出有效決策。通過實施協調傳感器和武器資源管理的解決方案,部隊可以將海量數據和大量選擇轉化為可操作的情報。
當傳感器資源管理與作戰管理目標相一致時,綜合能力就會超越各自單獨所能實現的目標。它們共同確保了在復雜、多威脅情況下的有效交戰和實時損失評估。它們還能最大限度地利用有限的傳感器和武器資源,調整應對措施,滿足任務需求,支持總體戰略目標。這種團隊合作通過將較簡單的任務自動化,減輕了操作員在快節奏環境中的負擔,同時還保持了人力控制方面的靈活性。使用人工智能和優化驅動的決策支持可幫助作戰管理人員做出更快、更明智的決策,并實時適應最有效的行動方案。
隨著無人機群的指數級增長和多重威脅場景的日益復雜,有必要從根本上重新評估反無人機系統的方法。傳統方法依賴人工流程和孤立的信息系統,無法有效應對同步、自主無人機編隊帶來的挑戰。
然而,通過使用人工智能、自動化和先進算法,現代反無人機系統可以無縫集成傳感器管理和戰斗管理,更有效地分配傳感器和武器,以實現共同目標。這種集成方法不僅能提高態勢感知能力和交戰能力,還能減輕操作員的心理負擔,在快節奏的環境中快速做出明智決策。
隨著戰場的不斷變化,采用人工智能和算法驅動的反無人機系統能力對于保持戰術優勢和保護部隊至關重要。通過智能自動化,軍隊可以有效應對無人機群帶來的威脅,確保在戰術邊緣保持關鍵優勢。
參考來源:military embedded system
開發技術解決方案以幫助軍隊決策的愿望并不新鮮。但最近,看到軍隊在決策過程中,包括在使用武力的決策中,采用了形式日益復雜的人工智能決策支持系統(AI DSS)。這一發展的新穎之處在于,這些AI DSS 的運作過程挑戰了人類在軍事決策過程中的判斷能力。這種對人類判斷力的潛在侵蝕帶來了一些法律、人道主義和倫理方面的挑戰和風險,特別是在對人的生命、尊嚴和社區有重大影響的軍事決策方面。有鑒于此,必須認真地討論如何使用這些系統及其對受武裝沖突影響的人們的影響。
本文推出了一個關于軍事決策中的人工智能(AI)的新系列。作為討論的開端,他們概述了使用AI DSS 在使用武力的法律決定中維護人類判斷力所面臨的一些挑戰、風險和潛力。他們還提出了一些有關在這些決策過程中設計和使用人工智能直接支持系統的措施和限制,這些措施和限制可以為當前和未來有關軍事人工智能治理的辯論提供參考,以確保遵守國際人道主義法(IHL),并支持減輕受這些決策影響的人受到傷害的風險。
創造能夠輔助人類決策的技術解決方案的沖動并不是最近才有的。然而,隨著 DSS 的發展,特別是通過整合強大的人工智能技術(如機器學習),目睹了各種技術先進的軍事強國如何開始在廣泛的任務和許多不同的指揮級別中追求和利用這種軍事能力:從軍事戰略建議到有關人員部署或武器運輸的后勤決策。
最近,以機器學習(ML)為基礎、支持使用武力決策的 DSS 正成為人工智能在軍事領域日益突出的應用。這些計算機化工具提供復雜的評估和細微的輸出(即分析、建議和預測),以幫助人類做出復雜的決策,如攻擊誰或攻擊什么以及攻擊的地點、時間和方式。利用預先確定的特征和自學模式,這些類型的AI DSS 可以在沒有人工干預的情況下突出某些數據點,并對特征進行優先排序和選擇。因此,它們很可能對使用武力的決定產生重大影響,包括做出此類決定的過程和可能產生的后果。
AI DSS 經常被軍方作為加快和增強決策周期的關鍵使能技術,被吹捧為能帶來重要的軍事利益。
然而,必須認真考慮這些AI DSS 如何運行、人類如何與其輸出互動以及它們適合執行哪些任務,因為采用這些技術的人力成本將在很大程度上受到這些因素的影響。重要的是,AI DSS 無法改進不符合國際人道主義法的目標選擇方法和政策。在此類框架內實施人工智能數據和分析系統可能只會加劇非法或有害的影響,更快、更廣泛地復制和部署這些影響。
根據國際人道主義法,武裝沖突各方--歸根結底是人--有責任遵守國際人道主義法,并必須對違反行為負責。因此,人類必須在法律判定中做出判斷,如攻擊是否合法。當然,這并不意味著負責規劃、決定或執行攻擊的人不能使用技術支持或計算機化分析,如AI DSS,為其使用武力的決定提供信息。例如,就像今天常見的那樣,軍方可能會考慮利用AI DSS 的輸出來支持對個人和目標的識別、武器選擇或附帶損害的估計。結果是:在法律規定的決策中--比如是否可以合法地瞄準某個目標或人員--這些系統的輸出可以為人類的判斷提供信息,但絕不能取代人類的判斷。
在武裝沖突中使用武力的軍事決策中納入人工智能,為非AI DSS 的現有挑戰增添了新的層面。
事實上,由于各種原因,應用AI DSS(特別是基于 ML 的 DSS)可能會對人類決策產生負面影響。有證據表明,使用這些系統會增加發生不可預見錯誤的可能性,并延續和傳播有問題的偏見,特別是針對特定年齡、性別或種族的個人或群體或殘疾人的偏見。當許多AI DSS 在單個流程中建立并促進軍事決策時,單個AI DSS 的錯誤會在整個規劃和決策流程中復雜化或連鎖化。
由于人類越來越難以理解系統如何以及為何會產生某種分析、建議或預測,因此使用基于 ML 的 DSS 也使人類用戶更難以識別錯誤的輸出。人類過度依賴AI DSS 輸出(所謂的自動化偏差)的傾向放大了這一趨勢,在高壓情況下尤為突出--例如關于使用武力的軍事決策--在這種情況下,決策者只有有限的時間來評估、交叉檢查或質疑AI DSS 輸出。軍事行動的節奏越來越快,使用AI DSS 加快決策速度的動力也助長了這一問題。這在現實世界中的影響可能是,有人根據人工智能決策支持系統的輸出結果來計劃、決定或發起攻擊,而不是實際評估攻擊的合法性--實質上充當了人類橡皮圖章的角色。
此外,人工智能決策支持系統的技術特點使其并不適用于所有任務和環境。當人工智能被賦予可轉化為數學問題的明確目標時,如決定部署何種類型的武器或在何處部署部隊和武器,人工智能就會表現出色。然而,國際人道主義法所要求的背景和定性評估不太可能為人工智能決策支持系統提供明確的目標,因為它們極其復雜,無法轉化為數學公式或數值。要確保人工智能決策支持系統使用的充分性和實用性,另一個不可或缺的因素是要有高質量和有代表性的訓練數據。然而,武裝沖突的特點是不確定性和不穩定性,再加上對手試圖相互欺騙,所有這些都使得具有代表性和可轉移性的數據難以獲取。
因此,使用AI DSS 有可能會妨礙武裝沖突中使用武力的軍事決策所涉及的人類判斷,從而引發新的人道主義、法律和倫理問題。這就是為什么為了確保AI DSS支持而不是阻礙軍事決策--并協助確保遵守國際人道主義法,沖突各方必須仔細評估其是否適合具體任務和背景。
一項關鍵措施是將AI DSS納入對包含AI DSS工具的武器系統的法律審查中,或者在此類工具是武器系統設計或預期使用方式的一部分的情況下。更廣泛地說,各國應考慮對構成在武裝沖突中使用武力的軍事決定的一部分的所有人工智能--裁軍和安全系統進行法律審查,至少作為一項政策或良好做法。在這樣做的時候,軍方必須考慮到AI DSS的技術特點、與之互動的人類用戶的傾向,以及軍事決策者在加快決策過程速度方面日益增長的壓力。
與此同時,謹慎和負責任地使用AI DSS可促進更快、更全面的信息分析,從而以加強國際人道主義法合規性和最大限度減少平民風險的方式支持決策。例如,使用人工智能數據和分析軟件可協助從網上公開來源資料庫中收集和綜合有關平民和民用物體存在情況的信息,或通過推薦最能避免或至少最大限度減少附帶平民傷害的攻擊手段和方法來支持武器設計。任何此類工具的效率都取決于能否獲得高質量的數據。然而,目前尚不清楚各國軍隊是否在建立和維護所需數據集方面進行了充分投資,特別是在基于 ML 的 DSS 方面。
但是,除了AI DSS作為目標選擇決策周期的一部分支持減輕對平民傷害的潛力之外,軍方還應考慮優先投資開發和使用AI DSS,專門用于加強對平民的保護--目前這在很大程度上是一個空白。這可能包括AI DSS支持專業工程師為軍事單位提供建議,不僅要繪制基礎設施的位置圖,還要繪制其連接圖,并識別表明保護狀態的獨特標志和信號,以減少攻擊可能對平民及其生計造成的潛在影響。歸根結底,這些措施對于加強遵守國際人道主義法的義務至關重要,即不斷注意保護平民,并在攻擊中采取一切可行的預防措施。
鑒于上述風險和挑戰,可能有必要對在軍事決策中使用 AI DSS 采取進一步的措施和限制,特別是在可能對人員造成傷害或死亡或對物體造成損害的情況下,以及更普遍的在決策受國際人道主義法管轄的情況下。
最近發表的報告(一份專家咨詢報告和一份紅十字國際委員會委托的顧問報告)提出了其中的一些措施和限制。值得注意的是,在武裝沖突中使用武力的軍事決策中維護人類的判斷力,可能需要采取新的方法來應對人類與 AI DSS 之間互動所產生的現有挑戰,以及與使用 AI DSS 有關的技術要求。有些方法可能有助于解決現有的技術挑戰(如可預測性、可理解性和偏差),而另一些方法可能有助于提高人類決策者批判性地參與和使用 AI DSS 輸出的能力(如減輕自動化偏差)。
例如,AI DSS 的設計和使用需要允許人類用戶理解和質疑系統的輸出。要做到這一點,可以讓人類用戶根據另一來源的數據對 AI DSS 的輸出結果進行交叉核對,并確保用戶保留足夠的時間和空間批判性地參與系統輸出,以維護人類在敵對行動決策中的判斷和深思熟慮。可能還需要某些限制,例如將 AI DSS 的使用限制在某些明確界定的任務和/或某些情況下。
此外,鑒于軍方對在 DSS 中集成 ML 的興趣與日俱增,在使用這些系統執行指令性任務(如建議行動方案)或進行預測(如預測某些個人或團體的行動所帶來的風險)時,需要特別謹慎。根據 AI DSS 輸出的訓練數據,在使用武力的軍事決策中使用此類建議或預測的合法性可能會受到質疑。
AI DSS 的某些用途也可能被完全排除。 一個明顯的例子是,絕不能將此類工具納入核武器指揮和控制系統。由于具有持續學習功能的 AI DSS 特別難以預測,限制其使用可能也是必要的。
希望這些建議和考慮能夠為國際和國家層面關于武裝沖突中人工智能軍事應用的國際法和政策的應用和可能的進一步發展的辯論提供參考。
近年來,多方利益相關者關于人工智能軍事應用國際治理的討論有了顯著發展,特別是在軍事領域負責任的人工智能(REAIM)峰會上(首屆會議于 2023 年 2 月在海牙舉行,第二屆會議即將于 2024 年 9 月在首爾舉行)。盡管如此,從十年前開始,《特定常規武器公約》致命性自主武器系統政府專家組和最近的聯合國大會(第 78/241 號決議)就已觸及人工智能和 ML 在武器系統中的應用。一些國家和軍隊最近制定了人工智能原則和政策,以規范軍事應用,包括美國的《關于負責任地在軍事上使用人工智能和自主權的政治宣言》、中國的《全球人工智能治理倡議》、法國國防部的《人工智能支持國防報告》、英國的《國防人工智能戰略》、日本防衛省的《促進使用人工智能的基本政策》以及北約的《人工智能戰略》。
所有這些以及未來的任何努力都應有助于確保 AI DSS(包括基于 ML 的 DSS)在軍事決策中始終是幫助和支持人類的手段,而不是阻礙或取代人類的手段。在對受武裝沖突影響者的生命和尊嚴構成風險的決策中保留人類的判斷力,對于維護道德價值觀和確保尊重適用法律(包括國際人道主義法)至關重要。
人工智能技術正在重新定義現代戰爭。這些沖突加速了人工智能驅動的軍事能力的發展,并凸顯了該領域在監管方面存在的巨大差距。與此同時,盡管人們一直擔心人工智能的不可預測性和道德影響,但人工智能與軍事應用的快速融合凸顯了它對各國軍隊的吸引力。
這種態勢推動了一場競爭激烈、利益豐厚、價值數十億美元的人工智能軍備競賽,吸引了全球科技巨頭和世界各國的興趣。由人工智能支持的自主武器曾經是實驗性的,現在正在積極部署,最初的作用是協助瞄準和提供后勤支持,然后迅速發展。
本文將深入探討自主武器的概念,探討其對戰場的影響,以及人工智能的進步如何重塑現代戰爭。
自主武器系統是專為獨立操作和決策而設計的尖端軍事技術。這些系統以復雜的學習算法為動力,可以在沒有持續人為監督的情況下選擇和攻擊目標,標志著現代戰爭的重大進步。
這些系統可對戰場上的動態情況做出迅速反應,通過最大限度地降低人員風險和提高作戰效率來增強軍事能力。
然而,它們的自主性也帶來了復雜的倫理問題。主要問題包括:需要有明確的問責結構,確保遵守國際人道法,以及降低沖突環境中意外后果的風險。
盡管具有潛力,但利益相關者和學者對人工智能自主武器的確切定義仍存在很大爭議。
與冷戰時期的半自動地面環境(SAGE)等系統相比,人工智能在國防領域已經有了長足的發展,尤其是在機器視覺方面。這種發展使自主系統能夠獨立識別地形和目標,減少對衛星通信的依賴,提高作戰效率。
最近,以色列和烏克蘭等國已有效利用人工智能加強其軍事戰略。在加沙等沖突地區,以色列利用人工智能提出實時目標選擇建議,提高了精確度,最大限度地減少了附帶損害。與此同時,烏克蘭利用人工智能軟件抵御俄羅斯的入侵。
美國中央司令部首席技術官斯凱勒-摩爾(Schuyler Moore)強調了人工智能驅動的計算機視覺對軍事行動的影響,即增強威脅識別能力。最近的成功案例包括在也門精確瞄準并消除火箭發射器和紅海水面艦艇等威脅,顯示了人工智能在防御和進攻場景中的有效性。
然而,在技術進步的同時,人工智能的自主性也帶來了與問責制、遵守國際人道法以及在沖突地區可能產生意外后果有關的挑戰。
人工智能武器是指結合人工智能的先進軍事技術,可在戰斗場景中自主或半自主地執行傳統上由人類執行的任務。這些武器利用人工智能算法提高作戰效率、決策能力和戰場精確瞄準。
近年來,人工智能武器有了長足的發展,利用機器學習和計算機視覺來識別和攻擊目標,在復雜的環境中航行,并適應不斷變化的作戰條件。
人們對融合人類和機器智能的作戰工具的需求日益增長,公司和政府機構因此獲得了大量資金。這些實體承諾將推進戰爭--在戰場上提供更智能、更具成本效益和更快的能力。
雖然無人機歷來具有不同程度的自主性,但目前的進步表明,人工智能驅動的技術具有前所未有的潛力。
例如,以色列國防公司埃爾比特系統公司(Elbit Systems)最近推出了一種基于人工智能的無人機巡航彈藥。這一創新系統的市場定位是高機動性和多功能性,專門為短程城市作戰而設計。
其突出特點之一是能夠自主偵察和繪制建筑物和興趣點地圖,以識別潛在威脅。該無人機與埃爾比特系統公司的 Legion-X 解決方案(一種用于無人異構蜂群的多域自主網絡作戰系統)集成后,可以在沒有用戶持續干預的情況下無縫運行。
埃爾比特系統公司聲稱,他們的人工智能無人機可以自主識別個人,區分可能構成威脅的武裝戰斗人員和手無寸鐵的平民。這一能力代表了自主瞄準技術的重大進步。
然而,批評者對自主系統在戰爭中的可靠性和道德影響表示擔憂。他們警告說,潛在的錯誤或錯誤識別可能導致傷害平民或違反國際人道法。
各國政府越來越多地為推進這些技術分配更多預算,尤其是在國防領域。僅美國軍方就在推動 800 多個與人工智能相關的項目,這凸顯了人工智能技術在現代國防戰略中日益增長的重要性,"Project Maven "就是一個突出的例子。
Maven 項目由五角大樓于 2017 年啟動,旨在加速國防部內部人工智能和機器學習(ML)的整合,最初側重于增強情報能力和支持打擊 "伊斯蘭國 "武裝分子的行動。
10 月 7 日哈馬斯襲擊以色列,促使美國在加沙的報復性軍事行動中部署其人工智能驅動的瞄準算法,加劇了地區緊張局勢,該項目因此而備受矚目。
Maven項目最初是美國防部情報局下設的算法戰爭跨職能小組,旨在評估來自不同供應商的各種物體識別工具。這些工具利用美國海豹突擊隊在索馬里行動期間獲得的無人機鏡頭進行了嚴格測試。
2018 年,五角大樓最初的合作伙伴之一谷歌面臨內部抗議,數千名工程師簽署了一封反對公司參與軍事技術的信件。
因此,谷歌選擇不再與 "Maven項目 "續約。同年晚些時候,五角大樓以其功能的敏感性和對國家安全的潛在風險為由,將 Maven 項目列為機密,以防止公開披露。
自成立以來,"Maven項目 "取得了長足的發展。如今,該平臺整合了先進雷達系統的數據,能夠穿透云層、黑暗和惡劣天氣條件。它還利用紅外傳感器探測熱信號,提高了識別發動機或武器工廠等物體的能力。
摩爾強調,"Maven"的人工智能能力用于識別潛在目標,但不能獨立驗證或部署針對這些目標的武器。她指出,最近涉及 Centcom 人工智能推薦引擎的演習顯示,在確定目標優先次序或選擇最佳武器方面,與人類決策相比存在不足。
她還指出,每一次人工智能參與的行動都要經過人類審查,并確認機器不會自主決策,也不會構成控制威脅。因此,人的監督仍然至關重要,操作人員要嚴格評估人工智能的目標選擇建議,以降低出錯風險。
與科幻小說中的場景相反,人工智能系統并不具備奪取控制權或獨立決策的自主能力。在涉及平民的場景中部署這些系統時,區分戰斗人員和非戰斗人員變得至關重要。在平民密集的環境中自主部署人工智能雖然有利于拆除武器設施或揭露工程項目,但也會帶來重大的倫理和操作挑戰。
將人工智能融入軍事行動標志著從實驗室實驗到實戰部署的關鍵過渡,為軍事領導人帶來了最復雜的挑戰之一。主張快速采用人工智能的人認為,未來作戰場景的發生速度將超出人類的理解能力。
然而,技術專家對美國軍事網絡和數據系統的準備情況表示擔憂。前線部隊對于是否依賴他們無法完全信任的軟件仍然猶豫不決,而倫理學家則對允許機器做出可能致命的決定所涉及的倫理問題提出了警告。
隨著美國和其他全球大國競相將人工智能融入其軍隊,競爭優勢將有利于那些在戰場感知和決策方面超越人類局限的國家。
由于擔心落后,美國開始了人工智能軍備競賽。然而,這種加速帶來了對網絡安全漏洞的擔憂,未來的操作員可能會面臨來自對手的威脅,對手可能會毒害或破壞他們的人工智能系統。機器人對機器人戰爭的前景凸顯了人工智能自主武器令人不安的現實及其深刻的倫理考慮。
大型科技公司越來越多地接受與國防相關的人工智能應用。自最初抗議Project Maven以來,谷歌的立場發生了變化,最近,員工因對軍事合同持有異議而遭到解雇。同樣,亞馬遜也因與以色列軍方的合作而面臨內部抗議,但并未改變其公司政策。這一轉變反映了科技公司不顧道德問題與國防利益結盟的大趨勢。
在過去的一年里,人們對自主武器和人工智能的關注與日俱增,這也燃起了法規倡導者的希望,即施加更大的政治壓力以制定國際條約。然而,歷史先例表明,國家安全利益往往凌駕于國際協議之上。隨著人工智能在未來戰爭中的作用引發有關道德、信任和全球穩定的關鍵問題,這場辯論仍在繼續。
參考來源:em360
人工智能(AI)正影響著人類生活的方方面面。過去十年中,人工智能的使用急劇增加,包括面部識別軟件、自動駕駛汽車、搜索引擎和翻譯軟件。人工智能在現代社會中的這些公認用途,也與人工智能在現代戰爭中的日益增多不謀而合。人工智能武器化的不斷升級與冷戰時期的核軍備競賽相似,核武器被自動化武器系統所取代。然而,國際社會、聯合國和國際法一直在努力適應和規范自動化武器的使用,自動化武器正在迅速改變現代戰爭的格局。
2012 年,國際社會開始注意到人工智能及其對現代戰爭的影響,一系列文件概述了自動化武器系統的使用,呼吁全面禁止自動化武器。
開發和使用能在沖突中承擔自主功能的武器正成為各國和科技公司關注的焦點。2017 年,由 126 位人工智能和機器人公司的首席執行官和創始人簽署的 "未來生命研究所"(Future Life Institute)致聯合國(UN)的一封公開信 "懇請 "各國防止自主武器系統(AWS)的軍備競賽。然而,目前還沒有一個國際法律監管框架來解決圍繞人工智能使用的這些問題,尤其是在沖突背景下。唯一存在的人工智能法律框架是由《公民權利和政治權利國際公約》第 26 條建立的,只將人工智能的使用與隱私權聯系起來。
盡管英國國防部(MoD)和美國國防部(DoD)已制定了兩個主要定義,但關于什么是自動武器系統的定義仍存在爭議。2011 年,英國國防部將 AWS 定義為 "能夠理解更高層次意圖和方向的系統,即能夠達到與人類相同的態勢理解水平,并能夠采取適當行動實現理想狀態"。同樣,美國國防部在 2023 年提出了一種不同的方法,并將 "預警系統 "定義為 "一旦啟動,能夠選擇和攻擊目標,而無需人類操作員的進一步干預"。2012 年人權觀察-國際人權委員會報告為國際社會提出了類似的定義,將 AWS 定義為 "完全自主的武器,可以在沒有人類干預的情況下選擇和攻擊目標"。北約聯合空中力量能力中心(JAPCC)也將自動化的概念延伸至 "意識和自決"。自動化武器的例子包括以色列 "鐵穹 "和德國 "MANTIS "等防御系統,以及瑞典 LEDS-150 等主動防護車。新的定義還需要包括在非沖突情況下使用的自動化武器,如韓國的超級 aEgis II,它在和平時期被用作南北韓邊境的監視設備。
然而,真正的問題在于未來對 AWS 的定義。定義不僅必須包括尚未考慮在內的系統,如 "超級 aEgis II",還必須預見到未來可能出現的 AWS。特別是,國際社會必須商定一個能夠涵蓋人工智能人類認知輸入算法的定義,這種算法具有類似人類的決策能力。
盡管有此需要,但國際社會尚未就 AWS 的法規達成一致。《聯合國常規武器公約》(CCW)有一項特別修正議定書(1986 年),由政府專家組(GGE)負責管理,專家組每年舉行一次會議,討論《常規武器公約》議定書的執行情況和相關武器問題。最近一次政府專家小組會議于 2023 年 5 月舉行,會議結束時,由于政府專家小組未就任何監管保障措施達成一致意見,特設工作組未取得任何實質性進展。他們的報告草案也未能推進法律框架。不過,該報告確實提出了以人類控制 AWS 的必要性為中心的禁令,以及以 AWS 開發為中心的法規。52 個國家發表了支持報告草案的聯合聲明,但他們也指出,該草案只是最低標準,并強調需要一個更加健全的法律框架。在 2023 年 5 月的會議上,政府專家小組決定在 2024 年 3 月和 8 月組織更長時間的討論,探討新出現的致命 AWS 技術。雖然政府專家小組最近的討論可能會取得更有意義的進展,但規范致命性氣霧劑開發和部署的法律框架尚未出現。
俄羅斯總統普京曾表示,在人工智能領域處于領先地位的國家 "將成為世界的統治者"。人工智能在現代戰爭中的進步將永遠改變美國、中國和俄羅斯等大國以及私營科技行業之間的關系。中國大力投入旨在成為人工智能技術的世界領導者,而俄羅斯在2021年至2023年的支出為1.81億美元,美國的支出為46億美元。2019 年,《簡氏》雜志稱,未來十年,全球將購買超過 8 萬架偵察無人機和近 2000 架攻擊無人機。英國運營著攜帶導彈的無人機,并計劃到 2024 年花費 4.15 億英鎊購買保護者無人機。沙特阿拉伯作為無人機市場的后起之秀也不容小覷,它在 2023 年的國防投資將達到 690 億美元,占其國家預算的 23%。此外,沙特阿拉伯還計劃設立一個 400 億美元的基金,用于投資人工智能,這將使其成為世界上最大的人工智能投資者。
隨著無人機和人工智能開發支出的快速增長,技術的進步最終可能會使無人機在沖突期間無需人類輸入就能即時做出決定。這可能會消除沖突中的和平談判,因為無人機的反應將純粹是報復性暴力。從 1999 年科索沃戰爭期間北約使用無人機識別隱藏的塞爾維亞戰略陣地,到 9 月 11 日恐怖襲擊后美國立即使用無人機,無人機技術已經取得了進步。在一架 ISR 無人機成功找到奧薩馬-本-拉登之后,美國軍方越來越多地使用無人機并為其配備致命有效載荷,從 2010 年到 2020 年,僅在阿富汗就進行了 14,000 次無人機襲擊。
美國、英國和以色列仍然是無人機的最大用戶,而且它們的武庫還在繼續擴大。美國和英國使用武器化無人機已有十多年,其中包括 "捕食者 "和 "收割者",這兩種無人機均由總部位于加利福尼亞的通用原子公司制造。據《無人機戰爭》報道,在2014年至2018年的四年敘利亞沖突中,英國在執行戰略任務時使用了2400多次 "收割者 "無人機,相當于每天使用兩架。五角大樓預計,到2035年,遙控飛機將占美國空軍的70%。與此同時,以色列也在研發自己的武器化無人機,并在加沙部署了無人機,用于監視、運送爆炸物等。
此外,無人機技術正在迅速向世界各地的軍隊傳播。現在,幾乎所有北約成員國都有能力在沖突中使用無人機。在過去五年中,土耳其和巴基斯坦也都建立了無人機制造項目。甚至非國家行為者也在使用無人機。真主黨曾使用伊朗制造的無人偵察機侵犯以色列領空,而哈馬斯自 2023 年 10 月以來一直在使用無人機對付以色列。
人工智能在戰爭中的應用也在迅速蔓延。有報道稱,烏克蘭為其遠程無人機配備了能自主識別地形和軍事目標的人工智能,并利用它們成功地對俄羅斯煉油廠發動了襲擊。以色列在加沙沖突中也使用了 "薰衣草 "人工智能系統,識別了 3.7 萬個哈馬斯目標。因此,目前以色列與哈馬斯之間的沖突被稱為第一場 "人工智能戰爭"。然而,目前還沒有證據表明在沖突中使用過 AWS(一種沒有大量人工控制的系統)。
隨著人們對所謂 "殺手機器人 "出現的憂慮與日俱增,在戰爭中使用人工智能引發了越來越突出的倫理和法律問題。特別是,無人機可能無法區分戰斗人員和平民。值得慶幸的是,許多人工智能技術仍處于開發階段。殺手機器人 "的比喻指的是可以自主操作的無人駕駛飛機;然而,目前大多數人工智能只能在人類操作員的輸入下,在狹窄的、預先確定的環境中發揮良好作用。
盡管如此,人工智能越來越多地融入無人機和其他亞博體育手機客戶端,造成了在沒有人類有效控制的情況下決定沖突的非常真實的危險。在沖突中使用暴力可能是由機器的本能決定的,而機器無法駕馭戰爭中模棱兩可的道德問題,也無法做出合乎道德的決定。我們無法預測法律將如何跟上甚至阻止這種技術進步,但目前的法律框架肯定缺乏清晰性和前瞻性。
由算法和機器驅動的沖突無需人工干預,圍繞這些沖突的倫理或道德問題能否得到解答尚不確定。自動無人機本身并不是武器,而是運送武器的平臺,國際法并未對無人機的使用做出具體規定。雖然無人機的使用與所有武器一樣受國際法原則的約束,即區分、相稱和禁止任意攻擊的規則,但由于缺乏任何具體的法律,監管難度極大。國際社會必須建立一個國際法律框架,確保人類始終保持對 AWS 的有效控制,確保系統不會在沖突中自主選擇軍事目標。
政府專家小組在 2023 年發布的最新報告中強調,必須制定法律措施,限制使用 "基于致命自主武器系統領域新興技術的武器系統,這些系統一旦啟動,就能夠識別、選擇、跟蹤并對目標使用武力,而無需人類進一步干預"。作為戰爭武器領域前所未有的創新,AWS 需要一個新的國際法律框架,它必須足夠強大和靈活,以跟上技術進步的飛速發展。因此,政府專家小組必須繼續推動聯合國通過新的國際法律框架,限制在現代戰爭中開發和使用 AWS。
克里斯蒂安-漢伯是倫敦格林威治大學法律與犯罪學學院國際法副教授。他在國際法領域發表了大量論文,主題包括人權、人工智能、隱私權、民粹主義、現代戰爭和國際關系。他還是上議院武器系統人工智能特設委員會(House of Lords Select Committee on Artificial Intelligence in Weapon Systems)的撰稿人。
在技術進步重塑戰爭格局的時代,將人工智能(AI)、機器學習(ML)和自主系統融入國防戰略已不再是未來的概念,而是現實的演變。這些技術在提高電子戰(EW)能力方面的意義怎么強調都不為過,因為它們在作戰速度、效率和復雜性方面具有顯著優勢。成本更低、規模更小、資產更豐富的戰爭即將來臨,對烏克蘭戰爭時經常這樣評論。
現代戰爭中潛在的變革性戰略之一是應用蜂群戰術,即使用多個自主單元執行協調任務。認知電子戰的蜂群資產,強調了這些戰術如何通過同時出現的一系列威脅來壓垮敵方系統。人工智能的集成使這些蜂群具有自主決策能力,從而大大提高了其有效性。這些系統可以根據實時戰場數據動態調整戰術,有效地適應反制措施并利用敵方防御的漏洞。
在繼續向完全自主系統轉變的過程中,一些討論強調了這些系統徹底改變戰爭的潛力。重點討論了在人工智能驅動的戰爭預警行動中使用無人機的問題。這些自主系統可以執行復雜的任務,處理大量的感知和信號數據,在瞬間做出有關干擾、欺騙或規避的決定。這些系統的獨立運行能力減輕了人類操作員的認知負擔,并允許采用更復雜、多層次的防御策略。無人機獨立運行是好事嗎?如何避免藍對藍?如何防止妥協或黑客攻擊?
將人工智能集成到關鍵軍事系統中會帶來一系列挑戰,尤其是在確保這些系統決策的可靠性和可信度方面。戰爭中的人工智能系統必須具有高度的可預測性,并通過模擬真實世界條件的模擬進行徹底審查。這不僅能確保作戰成功,還能防止因人工智能決策失誤而導致的災難性故障。我們如何進行這類培訓?我們是否擁有實時更新和更改這些系統的人員?
未來戰爭,將人工智能和自主系統融入電子戰戰略是一個充滿希望而又充滿挑戰的前沿領域。這些技術重新定義軍事行動的潛力。然而,先進技術的成功和安全取決于嚴格的測試、驗證和持續改進,以符合道德標準和戰略目標。
戰爭的演變不僅需要技術進步,還需要一個堅實的治理和監督框架,以確保負責任地有效使用這些強大的工具。關于這些更新的技術,已經有很多話題和討論,人們普遍感到興奮,但也看到了一些目前仍被忽視的重要問題。如何控制這些資產?誰來控制這些資產?是否已經決定將這些資產像彈藥一樣作為消耗品,還是仍然期望保留這些資產?
參考來源: JED
美陸軍深入探索了影響作戰環境的問題,特別是那些直接影響美陸軍在當代作戰空間中的行動問題。在過去的十多年里,國家和非國家行為者越來越多地將軍民兩用自動化技術武器化,使空中、陸地和海洋領域的作戰能力擴散化。 在空中領域,無人駕駛航空系統(UAS)最初提供的是情報、監視和偵察(ISR)能力,而無需運營有人駕駛平臺所需的相關成本和基礎設施。 最近,目睹了 ISR 和打擊能力在小型無人機系統(sUAS)中的融合,使較小的國家也有能力識別、接近和打擊目標--“降低了聯合作戰的‘入門費’”。
幾乎任何人都將 “能夠利用這些小型、廉價、可單獨消耗的平臺,幾乎不間斷地收集實時情報,并選擇時間和地點,通過龐大的數量壓垮對手的防御”--用美瘋狂科學家扎克里-泰森-布朗(Zachery Tyson Brown)雄辯的話來說,這就是 “喬米尼的復仇”(Jomini's Revenge): 大規模反擊!
以下是關于 sUAS 在當代帶來的真實威脅、從當前和最近的沖突中看到的趨勢,以及陸軍、聯合部隊和整個國家應如何應對的關鍵見解:
-** 俄羅斯/烏克蘭沖突是 sUAS 平臺發展的最新實驗室,尤其是第一人稱視角 (FPV) 無人機技術的發展--利用虛擬現實技術駕駛無人機精確打擊目標**。無人機系統技術的發展可以追溯到 2021 年的以色列/哈馬斯沖突、2020 年的納戈爾諾-卡拉巴赫沖突、2014 年最初的俄羅斯/烏克蘭沖突以及 2010 年的伊拉克沖突。
眾所周知,新興技術會影響各國開展軍事行動的方式。最近,全球在自主武器系統(AWS)的開發和部署、網絡空間的軍事用途等方面看到了顯著的創新。然而,在正在進行的沖突中觀察到重大飛躍的一個新興領域是具有軍事應用的非武器化人工智能 (AI)。
最近,幾位以色列國防軍 (IDF) 官員承認將基于人工智能的工具用于多種目的,包括目標支持、情報分析、主動預測以及簡化指揮和控制 (C2)。在這種背景下,當前的以色列-哈馬斯沖突使以色列部署此類系統成為人們關注的焦點,其中Habsora或“福音”,一種基于人工智能的系統,用于生成可能的軍事攻擊目標,吸引了最多的關注。
對沖突的報道表明,以色列國防軍使用人工智能作為“數據驅動的工廠”進行“大規模暗殺”。歸根結底,這種評論一方面取決于對軍隊如何運作的解釋,另一方面取決于人工智能工具實際上可以做什么和不能做什么。這種過于頻繁的評論促使人們對以色列國防軍在戰場上使用的系統有所了解。撇開夸張不談,目標是研究這些極具影響力的系統,并反思法律和道德方面的考慮。在此過程中,突出了在實踐中引入基于人工智能的新工具的愿望及其實際使用存在的法律限制。在這篇文章中,還詳細介紹了以色列國防軍在當前沖突之外使用人工智能系統的發展經驗。目標是加入關于將人工智能引入戰場的適當方式的新討論,無論是在以色列-哈馬斯沖突中還是在其他方面。
以色列是技術領域的主導者,它利用其能力作為其外交工具箱的一部分,將自己確立為國際技術治理設計的領導者。以色列在政府、安全部門和私營部門之間建立了牢固的伙伴關系,這使以色列能夠在軍事技術方面取得實質性進展。
與此同時,這種密切的伙伴關系可能成為適當監督技術發展及其在各個領域和情況下部署挑戰的根源,從純粹的軍事到執法再到情報行動。
雖然人工智能并不是一個新發展,但近年來,人工智能驅動的能力及其軍事應用取得了重大飛躍。因此,國家和超國家層面的立法者和監管機構正在覺醒,試圖趕上這一新的技術發展浪潮。全球人工智能炒作,由于免費提供的生成式人工智能工具而加劇,已經進入了軍事領域。隨著這些能力在武裝沖突中迅速成為現實,必須研究以色列國防軍在戰場上部署的一些基于人工智能的工具。
集成基于人工智能的工具來分析大量數據對于應對現代戰場上大量涌入的數據至關重要。情報、監視和偵察 (ISR) 技術的發展軌跡表明,未來的 ISR 能力將取決于人工智能驅動的決策支持系統 (DSS)。以色列國防軍對這一趨勢并不陌生,加沙持續的沖突和以前的升級都表明了這一點。
以色列國防軍使用的決策支持系統之一是“火力工廠”,它可以仔細分析廣泛的數據集,包括有關先前授權的打擊目標的歷史數據,從而能夠計算所需的彈藥數量,提出最佳時間表,以及目標的優先級和分配。在戰役上,它是目標定位周期的第二階段(目標開發)和第三階段(能力分析)的合并。從功能上講,它類似于美國 Prometheus 和 FIRESTORM 算法的混合體,就像在 “融合項目”-21 期間部署的那樣。
最近引起爭議的系統是“福音”,它幫助以色列國防軍軍事情報部門改進建議并確定關鍵目標。以色列國防軍使用人工智能進行目標開發對這場沖突并不陌生。2021 年,在“城墻守護者”行動期間,以色列信號情報小組 8200 部隊內的人工智能中心負責人透露,以色列國防軍有效地部署了一個人工智能系統,以識別加沙境內的哈馬斯導彈部隊領導人和反坦克特工。在正在進行的軍事行動“鐵劍”中,同一工具的戰斗使用產生了 200 個軍事目標選項,用于戰略交戰。系統在幾秒鐘內執行此過程,而以前需要眾多分析師在數周內完成這項任務。
在這方面,還值得注意的是,以色列國防軍透露了情報部門內發展部門 3060 部隊的存在。該單位負責推進作戰和視覺情報系統,該部隊的官方任務是通過整合用于作戰和視覺目的的人工智能系統來提高以色列國防軍的作戰效率。該單位產出的受益者包括該組織的指揮、師和旅級別。
最后,以色列國防軍部署人工智能來改進武器和彈藥本身。例如,以色列公司拉斐爾(Rafael)因其對以色列國防軍的重大貢獻而受到認可,該公司推出了一種名為“SPIKE LR II”的先進導彈系統,該系統結合了智能目標跟蹤功能、人工智能和其他功能,以在具有挑戰性的條件下維持目標鎖定,所需的人為干預最少。此外,基于人工智能的系統,如Elbit開發的Legion-X平臺,允許同時使用各種無人駕駛車輛的C2。
基于人工智能的工具還可以檢測、提醒和偶爾預防災難性情況,并有助于有效的危機管理。例如,北約在其救災演習中使用基于人工智能的系統來處理航空圖像并迅速識別受害者。同樣,以色列國防軍將人工智能技術用于類似目的。據以色列國防軍稱,在 2021 年“隔離墻守護者”行動期間,基于人工智能的系統成功地從大量潛在威脅人員中識別出哈馬斯在加沙的防空和導彈部隊的指揮官。
此外,“鐵穹”和“David’s Sling”是以色列的導彈防御系統,以其在保護關鍵基礎設施免受向以色列領土發射的火箭威脅方面的救生能力而聞名。人工智能在鐵穹中的一個重要應用是提高系統精度。特別是,人工智能驅動的算法分析雷達和其他傳感器數據,以跟蹤來襲導彈,并計算出更有效地攔截這些導彈并確定目標優先級的最佳時間。人工智能使系統更有效地應對更廣泛的威脅,如無人機和其他小型低空飛行物體。最后,使用人工智能將鐵穹的成功率提高到90%以上,并降低了作戰成本。這很重要,因為這些威脅正變得越來越普遍,并對傳統的防空系統構成挑戰,這在俄烏戰爭中很明顯。
以色列國防軍還利用人工智能為邊境管制服務,例如,為協助邊境觀察員而開發的人工智能系統,包括通過人工智能輔助的面部識別工具。邊境系統進行視頻分析,熟練識別個人、車輛、動物,甚至武裝人員或特定車型。該系統不僅包括實時視頻分析,還包含許多附加因素,例如特定地理區域的歷史數據。10 月 7 日的攻擊引發了有關該系統的幾個危險信號,但在進行官方調查之前,很難確定確切的故障。
另一個受 AI DSS 影響的領域是 C2 系統。在2022年的“破曉行動”期間,首次嘗試以這種新穎的方式使用人工智能,在此期間,計算機服務局、情報部門、南方司令部和北方司令部之間建立了聯系。主要職能是向指揮官介紹不同部隊在即將到來的軍事行動中的戰備狀態。事實證明,這個試點項目在當前的以色列-哈馬斯戰爭中是相關的,因為在這場沖突中,使用基于人工智能的系統成為以色列國防軍作案手法的一個組成部分。
在過去十年中,人工智能不斷融入軍事裝備所帶來的挑戰和機遇一直受到激烈的討論,而且往往是循環討論。然而,在《聯合國常規武器公約》主持下舉行的主要國際論壇——致命AWS政府專家組(LAWS)內部的國際監管辯論仍然局限于具有自主功能的武器系統。
以色列國防軍在福音和Legion-X方面的經驗以及媒體評論表明,軍事人工智能在這些公共論壇上是容易被誤解。首先,在本文提到的所有各種系統中,只有鐵穹和 David's Sling 可以歸類為 AWS;其他的根本不是武器,因此不在政府專家小組關于法律的職權范圍之內。其次,最有爭議的制度——福音——既不是武器,也不是決策制度。相反,對于可能選擇無視這些建議的指揮官來說,它是一種決策支持工具,因此,它應該被視為一種作戰手段,因為它形成了一個軍事系統或平臺,用于促進軍事行動。
然而,這并不意味著對此類系統的內部運作沒有擔憂。特別是,關于它所依賴的算法的可解釋性仍然存在有效的問題,尤其是在生成人類目標方面。與此相關的是,當系統出現錯誤時,人們可能會想知道可用的問責途徑。雖然這兩種擔憂都是有道理的,但值得注意的是,對戰場失誤的問責仍然概念化不足,幾乎不存在,無論它是否是使用先進技術的結果。然而,值得承認的是,人工智能系統無法闡明其操作流程,可能會影響對涉嫌違反國際人道法的行為進行調查的職責。
另一個關鍵問題是,在決策過程中(在/開/關循環)中需要或必要的適當程度的人類參與。這種關切提出了一個重要的問題,有三個關鍵目的:提高決策的準確性;增強合法性;并確保問責制。首先,人類的參與可以提高決策的準確性和質量,并且可以作為預防或減少錯誤的重要保障。與此同時,鑒于人類能力的限制,在基于人工智能的系統背景下做出決策的速度和數量確實構成了挑戰。
其次,正如實證研究表明的那樣,將人納入決策過程可以增強決策的合法性并增強公眾信任。以色列國防軍面臨著與合法性相關的挑戰,并一次又一次地面臨全球批評,在以色列-哈馬斯戰爭中使用人工智能的背景下,可以看到一些媒體指責以色列國防軍經營“大規模暗殺工廠”(與福音系統有關)。
第三,就問責制而言,人為因素的存在變得至關重要。截至今天,以色列國防軍指揮官在進攻行動方面擁有最終決策權。隨著關于如何解釋人類在現代戰斗中的作用的辯論仍在繼續,學術界和加沙正在進行的沖突都表明,美化人類屬性作為對機器的制衡與現實完全脫節。
另一個值得注意的挑戰,與人類在決策過程中的作用有關,是被稱為“自動化偏見”的現象。雖然如前所述,以色列國防軍指揮官可以選擇無視福音中的建議,并且每個目標都必須獲得以色列國防軍指揮官的授權,但避免自動化偏見具有挑戰性,尤其是在敵對行動加劇期間。自動化偏見是指過度依賴或過度信任 AI 輸出的傾向。雖然人工智能DSS是戰斗中的寶貴工具,可以加快決策步伐并獲得這種加速的相關優勢,但自動化偏差的風險可能很大,應該在可能使用人工智能工具的作戰部隊接受的訓練中加以考慮。
國際人道法的一個基本原則是,各國在選擇武器、作戰手段或方法時受到國際法規范的限制。以色列引入基于人工智能的工具引發了某種形式的合法性審查機制,例如《日內瓦公約第一附加議定書》(AP I)第36條規定的機制。根據該條,各國應在戰場部署新武器、作戰手段或方法之前對其進行評估。“武器”一詞被理解為包括在戰斗中使用的一系列能夠對物體造成損害或對人員造成傷害或死亡的攻擊能力。“作戰手段”是一個更廣泛的術語,延伸到用于促進軍事行動的軍事裝備、系統、平臺和其他相關設備。例如,如果監視系統可以收集有關潛在軍事目標的信息,則屬于這一類。相比之下,“戰爭方法”延伸到各種軍事戰略和實踐,以及軍事行動中使用的特定戰術。
雖然以色列不是《第一附加議定書》的締約國,而且第36條的習慣地位仍然值得懷疑,但人權事務委員會在其第36號一般性意見中采取的辦法是,確保保護生命權需要采取預防性影響評估措施,包括對新武器、作戰手段和方法進行合法性審查。然而,應當指出的是,一般性意見本身并不是強制性的,而是對《公民權利和政治權利國際公約》所依據的生命權提出的一種建議性解釋,這種解釋引起了一些爭議。
網絡空間已成為軍事行動的重要領域,網絡攻擊現在是武裝沖突現實中不可或缺的一部分。各國似乎準備將人工智能工具納入網絡行動。像福音和Legion-X這樣的工具確實構成了一種新的戰爭手段,應該受到法律審查。法律審查是新技術和能力組合中的一個關鍵方面,因為這些技術和能力對人道主義利益的影響和業績的可預測性缺乏科學確定性。
事實上,第36條并沒有規定進行審查的任何特定方式,而且各國所使用的實際機制在形式、方法、審查機構的任務等方面各不相同。然而,值得注意的是,根據紅十字國際委員會的說法,審查應盡可能采用多學科方法,特別是當存在幾種可能的影響時(例如,當對不同權利產生影響時,例如隱私權或健康權),或者當評估需要特定的專業知識時。
在部署新的基于人工智能的軍事工具時,有謹慎的余地,因為沒有基準可循。鑒于以色列的經驗,至少是公眾所知道的,可以提出一些初步的想法。
首先,一個重要的步驟是通過預防性影響評估措施來評估新技術的合法性的初步措施。這可以通過對發展的監管(類似第36條的機制)、貿易限制或隱私設計等程序來實現。實際上,今后的道路將包括不同階段(規劃、設計、部署和追溯審查)的各種工具,國內和國際系統應力求協調和互補。
其次,雖然依賴人工智能的趨勢是顯而易見的,但整個人工智能系統存在一些固有的風險,比如缺乏可解釋性,在某些情況下可能會引發有關個人問責制的問題。
第三,雖然私營部門在預防、教育、調查和歸因網絡行動方面至關重要,但應該避免過度私有化和權力和責任的分散。
最后,隨著世界在理想和價值觀上的分歧越來越大,在促進有效的國際反應方面存在困難。因此,除非實施額外的規范性措施以更好地應對這一挑戰,否則必須考慮現有規則如何適用于這一新的和不斷變化的現實。
參考來源:LIEBER INSTITUTE