亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人類文明史是人類在人文和科學領域的個人和集體發展與對權力明顯不滿足的追求交織在一起的復雜織錦。本文關注的是后者當代的一些方面。暴力--以及比對手更高效、更有效地行使暴力的能力--一直是這種權力競爭的標志。對于個人和小型社會單位來說,這可能和大型民族國家一樣真實。為了通過權力實現支配地位,人類一直致力于發明更加巧妙的方法來引起和控制暴力。使用機器來殺死或傷害對手,其歷史淵源很可能與人類本身的歷史相媲美。然而,最近自動化和人工智能的發展可能在有記錄的歷史上第一次將暴力的控制權從人類手中奪走,并將其置于機器手中。這種可能性導致在各種國家和國際論壇上就與這種機器的使用有關的倫理和道德進行了激烈的辯論。

本文的主要目的是讓普通讀者(而不是專家或從業人員)了解民族國家正在努力將人工智能(AI)與致命的自主武器系統(LAWS)結合起來,給全球社會帶來的法律風險。人類的國家間武裝沖突主要是通過國際人道主義法(IHL)來規范。然而,致命性自主武器系統對國際人道主義法構成了特別強大的挑戰,主要是因為前者能夠完全取代人類(作為暴力的管理者),從而使人們對 "人道主義 "這一基礎性形容詞的有效性產生懷疑,而國際人道主義法的大廈正是建立在這一基礎之上的。盡管如此,同樣重要的是要記住,致命性自主武器系統并不是人工智能對人類安全構成的危險的唯一表現形式。

定義致命性自主武器系統(LAWS)

與許多技術驅動的問題一樣,第一個法律挑戰是,目前還沒有一個國際公認的致命性自主武器系統的定義。在2017年在 "1980年聯合國《禁止或限制使用某些可能具有過分傷害力或濫殺濫傷作用的常規武器公約》"(《特定常規武器公約》)的總體框架下舉行的聯合國致命性自主武器系統政府專家組(GGE)的首次會議上,締約國審議了致命性自主武器系統的法律、倫理、軍事和技術方面。雖然沒有商定共同的定義,但至少有一些國家提出了關于致命性自主武器系統的工作定義和隨之而來的條例的建議。

缺乏普遍定義的法律挑戰并不是一個新問題。例如,盡管恐怖主義在全球蔓延到幾乎無處不在,但在國際法中也沒有一個法律定義。另一方面,國際法中也存在類似的缺陷,但這并不降低在界定致命性自主武器方面缺乏共識這一法律挑戰的嚴重性。然而,所有這些武器系統的特點是在獲取、跟蹤、選擇和攻擊目標的關鍵功能方面具有不同程度的自主性;以及在使用致命武力的決策過程中部分或完全沒有人的參與或 "人的中心思想活動",這是一個直觀(如果不是法律)的共識。

自主性 "反映了一定程度的獨立動態能力和活動。致命性自主武器可以根據自主程度被歸入兩個一般分類中的一個。第一類是所謂的 "半自主"(涉及機械化水平和遠程控制的人力投入);而第二類是 "自主"(包括在獲取、跟蹤、選擇和攻擊目標方面更高的自由度,不需要人力投入)。在每個類別中,不同程度的自主性可以用功能來衡量--觀察、定位、決定和行動(OODA)的能力,以及復制人類情景意識的能力。

在半自主類別中,通用原子公司的 "MQ-9死神 "提供了一個典型的例子。它是一種遠程控制的 "無人作戰飛行器"(UCAV),攜帶致命的有效載荷,具有復雜的情報、監視和偵察能力。然而,所有的瞄準行動都是由人類操作員手動執行的。自主性存在于它在沒有飛行員的情況下獲得和保持空中飛行的能力,以及通過基于GPS的自動化系統在飛行中導航的能力,包括起飛和降落。

幸運的是,第二類--完全自主的武器系統,具有致命的瞄準能力,但沒有任何人類輸入來控制什么、何時以及如何進行瞄準--到目前為止,還沒有人。然而,預兆是嚴峻的。例如,美國海軍的X-47B在起飛和降落方面具有自主能力,并在2015年完成了首次自主空中加油。作為一個戰斗系統,隨著時間的推移,它可以在執行關鍵功能方面獲得更多的自主權。

然而,機器人工程師、軍事人員和倫理學家往往對哪些設備僅僅是自動的,哪些是自主的意見不一。例如,"自動 "機器人可能在有組織的情況下,執行事先計劃好的一組活動。另一方面,"自主 "機器人將在程序的控制下運作,但將在開放或非結構化的環境中運作,并接收來自傳感器的信息以調整速度和方向。

武器化人工智能

也許,將自主武器系統(AWS)描述為一個具有傳感器、算法和效應器的武器系統就足夠了。這種系統可以包括固定和移動的機器人部件(例如,無人駕駛的空中、地面或海軍車輛),配備主動或被動的傳感器來導航和探測物體、運動或模式。這些傳感器可以包括電子光學、紅外、雷達或聲納探測器。

支持自主武器系統擴散的人提出了兩個基本論點: 第一條是基于此類系統所帶來的軍事優勢。這里強調的是AWS作為人類的力量倍增器的事實。也就是說,由于AWS的存在和可用性,完成一個成功的任務需要更少的人,而每個人的效率卻大大增強。此外,AWS可以擴大 "戰場,使戰斗力達到以前無法進入的地區",甚至在與人的通信和人與人之間的通信中斷的情況下,也能產生高的進攻節奏。此外,AWS可以被有利地部署到 "枯燥"(例如,長時間的飛行)、"骯臟"(例如,在被生物、化學或核制劑污染的地區執行任務)或 "危險 "任務(例如,爆炸物處理[EOD])。

第二條論據的核心是相信使用AWS比使用人類在倫理上更可取(在道德上更合理)。

支持者甚至認為,"未來的自主機器人將能夠在戰場上采取更'人性化'的行動,原因有很多,包括它們不需要被編程為具有自我保護的本能,有可能消除'先開槍,后問話'的態度。自主武器系統的判斷將不會被恐懼或歇斯底里等情緒所蒙蔽,而且這些系統將能夠處理比人類更多的傳入感官信息,而不會為適應先入為主的觀念而丟棄或扭曲這些信息....,在由人類和機器人士兵組成的團隊中,機器人可以比由人類組成的團隊更可靠地報告他們觀察到的道德違規行為。"

隨著人工智能的發展,它帶來了一個非常誘人的選擇,即完全不需要將指揮官與他們的部隊聯系在一起的脆弱的通信聯系。當然,殺手機器人還沒有成為常態;然而,有一些先兆清楚地表明了自主權擴大的模式。一個例子是以色列的 "哈比 "徘徊炸彈,它可以在空中磨蹭相當長的時間,尋找對手的雷達信號。當這些信號被識別時,它通過一個可控的自毀過程攻擊并摧毀敵人的雷達。

另一個例子是SGR-1,一種人工智能機器人 "步兵衛士",在本世紀初開發,并在十多年前(2006年)進行了成功試驗。它已被部署在朝鮮和韓國的邊界,并被吹捧為一個不眠不休的武裝哨兵,其注意力從不動搖。它配備了一支自動步槍和一個榴彈發射器,并能通過紅外線傳感器辨別人類,盡管它確實需要人類操作員給它開火的指令。

在可以將人類操作員插入回路的情況下,未來可能會繼續看到自主權只在技術領域而不是在實際決策過程中。這更有可能發生在航空航天和陸地領域,因為那里更容易建立通信。然而,在海洋領域,通信構成了更大的挑戰,甚至為決策部署人工智能的誘惑力也非常大。與陸地不同,廣闊的海洋沒有永久的基礎設施來接收和發送信息。因此,水面艦艇擁有廣泛的船上通信套件,使它們能夠相互交談,并與陸地上的當局交談。就像在陸地或空中一樣,這些水面戰斗人員也使用無線電波進行通信。這些無線電波在大氣層中傳播良好,但在水中卻不那么好。因此,水下艦艇,如潛水艇,甚至更難溝通。水面下的船只大多使用水下聲學系統進行通信,而聲學系統無法在空氣中傳播。空氣-水通信障礙是一個可怕的障礙,這使得地下領域成為部署人工智能的理想場所。作為一個術語,"無人水下航行器"(UUV)已經成為 "自主水下航行器"(AUV)的同義詞,這種飛行器已經被許多國家用于科學研究以及從收集情報、監視任務、偵察和反雷等目的。與海軍水下系統相關的保密性使得我們很難清楚地了解有多少國家擁有UUV的能力以及程度如何。然而,眾所周知,美國、俄羅斯、法國、德國、英國、中國、以色列和印度是擁有強大的UUV計劃的快速增長的國家之一,人工智能正越來越多地被整合到所有這些船只中。UUVs/AUVs在形狀和形式上差別很大,從微型船到非常大的船,每一種都有自己的優點和缺點。例如,美國已經訂購了四艘由波音公司為其海軍建造的 "超大型無人潛航器"(XLUUVs)。這些XLUUVs將在水下獨立運行數月,并在一個燃料循環中覆蓋多達6500海里。波音公司的 "Echo Voyager",也就是新的XLUUV的基礎,已被宣布為 "完全自主的UUV,可用于各種以前由于傳統UUV限制而不可能完成的任務"。就所有實際目的而言,這些船只是完全有能力的潛艇,盡管沒有人類操作員。美國海軍正在增加其無人船的數量和能力,包括在水面和水下。其建造海軍艦艇的長期計劃包括在未來五年(2021-2026)至少建造21艘中型和大型無人艇。中國也在2019年的年度閱兵中,展示了一艘大型無人潛艇。考慮到國防系統的發展在大多數情況下遠遠領先于宣布的能力,我們可以假設這些國家的致命性自主武器系統方案的發展,包括人工智能的使用,是相當先進的。

其他各種團體也在逐步利用21世紀的技術。隨著人工智能驅動的致命武器系統的擴散,超出了民族國家相對嚴格的問責規范,惡意的非國家行為者可能發展出大規模自動殺人的能力。2018年,沙特阿拉伯摧毀了兩艘遙控的、裝滿炸藥的船只,這些船只的目標是吉贊港。最近,在2020年8月,在也門作戰的沙特領導的聯盟在沙特阿拉伯的阿布哈國際機場上空攔截并摧毀了一架裝有爆炸物的無人機,據稱該無人機是由與伊朗有政治聯系的胡塞叛軍發射的。

以色列巨大的新海上天然氣基礎設施為其敵人提供了一個明顯而誘人的目標,使其海軍的力量分散。2012年,黎巴嫩什葉派激進組織真主黨派出一架無人機深入以色列,覆蓋了到達其中一些天然氣田所需的距離,綽綽有余。以色列國防部高級官員聲稱,真主黨在獲得額外的武器裝備后,現在有能力攻擊這些重要的海上設施。

很明顯,人工智能的擴散為恐怖組織提供了威脅實體安全的更新方式,使保護和監管的范圍更具挑戰性。盡管威脅相當明顯,但在這個技術和科學飛速發展的時代,人工智能的進一步武器化是不可避免的。令人擔憂的是,俄羅斯、以色列、美國和英國等國家都在熱衷于開發這種武器系統。

AWS與人權

2020年11月結束的亞美尼亞和阿塞拜疆之間的戰爭,是使用自主系統進行戰爭的一個典型例子。無人機攻擊,打擊了亞美尼亞和納戈爾諾-卡拉巴赫的士兵,摧毀了坦克、大炮和防空系統,為阿塞拜疆在44天的戰爭中取得了重大勝利。

然而,兩國軍事沖突的這一新特點使敵對行動從血腥的、赤手空拳的地面戰斗變成了一場致命但誘人的捉迷藏游戲,對手是一個耐心十足的--而且往往是看不見的--空中的非人類敵人。在不到兩周的時間里,有數百人死亡,該鎮120多座住宅和行政大樓也隨之受到廣泛破壞。無人機襲擊迫使約6000名居民撤離,大多數婦女和兒童在戶外尋求庇護。

任何人都不應被隨意剝奪生命,這是世界人權法的一個重要標準。這是國際人權法的一項安排,即使 "在威脅到國家生命的公共緊急情況下",也不能中止或勸阻。人身自由和安全的權利 "保證人們不受蓄意的身體或精神傷害,無論受害者是否被禁錮。例如,締約國當局無視人身安全權,無理地造成身體傷害。各國 "還應該防止和改變在執法過程中無端使用武力的情況,并確保其人民不受私人保安部隊的虐待,以及不受過度獲得槍支所帶來的危險。"

聯合國《執法人員行為守則》(UNCCLEO)規定了一個總體原則,即 "執法人員只有在嚴格必要的情況下才能使用武力,并以履行職責的需要為限"。因此,它規定了一個基本原則,即為達到軍事目的,不應使用超過必要的武力。

為了至少有選擇地以合法的方式執行警務和法律執行任務,AWS必須可行地評估死亡或嚴重傷害的威脅程度,有效地確定誰在造成危險,考慮武力對分散威脅是否重要,有選擇地認識和使用武力以外的手段,有能力建立各種通信方法和警務武器和設備,以考慮到逐步的反應,并有可獲得的后備手段和資產。為了增加這種復雜性,每一種情況都需要另一種獨特的反應,這將使所有這些被簡化為基于數學的算法和概率計算的進展變得非常困難。

盡管近年來出現了令人印象深刻且往往令人難以置信的技術進步,但如果沒有有意義且有效的人類控制和判斷,AWS似乎不可能遵守這些規定,特別是在不可預測且不斷發展的環境中。值得注意的是,當延伸到 "致命 "AWS(致命性武器)時,禁止AWS的論點甚至更有分量。但這絲毫不影響我們對和平與全球穩定所面臨的重大威脅表示關切,即使是對人類沒有直接致命或亞致命影響的AWS。一個重要的相關例子是利用 "蜂群智能 "技術,它可能使支持者有能力對可能無人居住的敵方基礎設施發動重大攻擊。

納戈爾諾-卡拉巴赫危機已經迫使國際社會質疑AWS的決策過程。這些武器系統由于其自主性質,缺乏區分武裝士兵和普通平民的人類技能。在馬爾圖尼鎮,無人機的空中襲擊造成五名平民死亡,另有十人受傷。居民們被迫用膠帶封住車燈,或在車上涂抹泥漿,以掩蓋任何可能使他們成為目標的標記。公眾集會被勸阻,人們被敦促不要在任何一個地方呆太久。這種攻擊的高平民化迫使一個12歲的孩子痛苦地表示:"我不再喜歡藍天了。事實上,我現在更喜歡灰色的天空。當天空是灰色的時候,無人機就不飛了"。無人機襲擊的不確定性和震驚導致平民對武裝無人機的部署產生了極大的仇恨。

這導致了與部署自主武器有關的另一個關鍵問題。國際人道主義法的應用和實施的一個基本特點是以個人為前提,逐步走向 "以人為本,而不是以國家為本 "的方法,如個人刑事責任和指揮責任等概念所示。這也延伸到了武器法的專門領域,包括人類參與致命性武器系統的設計、開發和使用。一些國際人道主義法條款反映了人類參與的必要性。所區分的合法問題包括:鑒于個人義務,國際人道主義法是否可以繼續適用于自主機器。在政府專家組會議上,各國普遍認為,不管是什么,不管如何定義,國際人道主義法的人類機構方面需要在致命性自主武器系統方面得到保持。各國和非政府組織都提到和/或支持 "有意義的人類控制"、"人類判斷"、"人類參與 "和 "人類監督 "等概念。 這些概念可以互換使用,一般沒有定義。

2017年由 "世界科學技術倫理委員會"(COMEST)和 "聯合國教科文組織倫理委員會 "聯合編制的一份報告審查了 "武裝軍事機器人系統(武裝無人機)"和 "自主武器 "的移動性、互動性、通信以及在沒有外部干預的情況下做出決定的自主能力。報告認為,法律規范和工程行為準則可能適用,認知型機器人將決策權委托給機器,設計師和制造商需要承擔責任,并適用預防原則。報告強調,作為一個法律問題,AWS的部署 "將違反國際人道主義法。在道德上,它們打破了機器不應該為人類做生死決定的指導原則。它繼續補充說,"就其技術能力而言,自主機器人武器缺乏確保遵守區別對待和相稱性原則所需的主要組成部分。雖然可以說將來有可能遵守,但在殺人機器面前,這種猜測是危險的,因為它們在特定情況下的行為是隨機的,因此本質上是不可預測的"。報告有效地粉碎了本文前面提到的AWS支持者提出的聰明但謬誤的 "道德 "論點,明確指出:"使用致命武力的權力不能合法地委托給機器--無論其效率如何--的道德論點包含在國際法中:殺人必須仍然是負責任的人的責任,有義務做出深思熟慮的決定"。報告強烈建議,"出于法律、道德和軍事行動的原因,必須保留人類對武器系統和武力使用的控制"。

結論

歸根結底,只有人類可以為奪取生命負責,而自主機器人無法遵守道德、法律和軍事規范。詹姆斯-卡梅隆的邪典電影《終結者》描述了一個烏托邦式的未來,其中天網,一個邪惡的人工智能(AI),發起了一場針對人類的核戰爭以確保自己的生存。這部電影于1984年上映,遠遠早于現代形式的人工智能的出現,但卻預示了一些擔憂,這些擔憂已經主導了關于智能計算機系統的辯論。當代世界上最著名的科學家之一,已故的斯蒂芬-霍金,將人工智能描述為對人類文明的唯一最大威脅。這并不僅僅是科學家的觀點。亨利-基辛格也曾警告說,人工智能將改變人類的思想和人類的價值觀。

《終結者》電影所描述的技術還沒有出現在我們身邊,根據大多數分析家的說法,一種被稱為 "通用人工智能 "的自我意識的人工智能形式還需要幾十年的時間。然而,人工智能可能會繼續被整合到武器系統中,并用于提高軍事力量使用的精確性、殺傷力和破壞性。同時,需要不斷關注圍繞人類強化的法律、倫理和戰略辯論--包括軍隊的身體和認知發展和演變,以及隨著武器化的人工智能越來越多地融入戰爭,心理和認知過程可能如何變化和演變。

這給我們留下了一些大問題。武器化是可取的嗎?國際社會是否應該尋求控制和阻止這些過程,以及這可能對人工智能的非軍事用途產生什么影響?在這方面,本作者認為,關于 "殺手機器人 "的充滿夸張色彩的辯論相當廣泛地忽略了這一點。人工智能已經被武器化,關于禁止完全自主的武器系統的辯論忽略了許多與人工智能有關的武器化進程,這些進程已經在如火如荼地進行。需要進一步思考的最后一點是人工智能在北約等多邊論壇中可能發揮的作用,以及在多邊安全任務中如何在派遣國之間分享和利用人工智能。為人工智能能力制定共同的操作標準、要求和道德準則,既是必要的也是具有挑戰性的。

我們還必須記住,自主系統本身并不一定是壞事。事實上,機器的自主性和人工智能已經使我們能夠到達并探索火星和我們星球上的海洋深處。即使在戰爭中,這樣的機器也可以提供一種方法,避免將人類置于可能使他們面臨生命危險的情況中。然后,辯論歸結為人類如何使用這種能力。盡管世界在認識到致命性自主武器系統的危險方面可能已經晚了,但我們可能仍有時間確保人工智能的發展朝著建設性而非破壞性的方向發展。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

為了應對《國防戰略》中概述的新出現的近似同級威脅,軍事領導人必須將其對戰爭演變的看法重新表述為一種新的思想,將感知到的威脅視為變革的主要驅動力。根據軍事生產和國際軍事使用動力之間新的雙因素博弈來模擬這種演變,可以為美國軍事力量的未來指明幾種戰略。

盡管間斷均衡、國際威脅分析和博弈論等概念仍是學術思想的主要內容,但它們尚未被整合成一個供軍事領導人應用于戰爭的單一框架。本文將以科學家測試和驗證假設的方式來構建這樣一個框架。因此,本文認為,戰爭與其他社會建構一樣,是在一個間斷平衡的生態系統中演變而來的,受制于國家對各種威脅的關注。隨著國家注意力的搖擺,國家利用技術并將其迅速付諸實踐的能力對于應對這些威脅仍然至關重要。此外,當前的技術格局呈現出無限的技術組合,使得戰略制定比以往任何時候都更加復雜。因此,由技術行動和技術實施組成的雙因素博弈,為利用技術應對所感知的國家威脅提供了方法論。在這個案例中,歷史和科學結合在一起,為一個包含七個獨立信條的新范式正名。以美國發展和使用空中力量為工具,對這些信條進行了衡量和研究,既約束了討論,又突出了歷史趨勢。

本文勾勒了對間斷均衡與國家威脅關注和博弈論之間關系的綜合理解,從而創建了一個框架,為當代軍事領導人構建和衡量未來戰爭戰略提供了新的范例。

付費5元查看完整內容

人工智能(或稱 AI)的應用正以各種方式影響著戰爭的性質和更廣泛的國際安全。在我們討論這些人工智能軍事應用的影響之前,先就如何思考它們的影響提出一些更具普遍性的想法:

通常情況下,人們會把人工智能這個詞賦予那些新穎的、能解決以往與人類智能相關問題的應用,賦予它神奇的光環。然而,當這種應用成為主流時,人工智能的標簽往往就會被摘掉。

在人類戰爭史上,影響戰爭方式的新技術層出不窮。從步槍到雷達,從刀劍到潛艇,從電報到戰斧:每一次新技術的出現都會激發烏托邦式的觀點,但當然也有烏托邦式的觀點,即特定的技術或武器系統將如何極大地影響戰爭的性質。我們的歷史證明了這一點:在萊特兄弟于 1903 年首飛之后,科幻小說家和軍事戰略家們紛紛宣稱空戰時代即將到來。最近,隨著網絡空間的出現,人們開始討論未來的戰爭是否會是網絡戰爭,觀察家們對網絡珍珠港的相關風險提出了警告。目前,學者、專業人士和普通人正在就人工智能對未來戰爭的影響展開激烈辯論,REAIM 會議當然也是一個證明。同樣,辯論也呈現出類似的模式,既有合理的擔憂,也有許多夸張的說法,還有未來戰爭將由機器而非人類自主發動的強大而可怕的畫面。

這次的不同之處在于,"一個人工智能系統 "并不存在。取而代之的是大量的算法應用,它們共同代表了一種萬能技術,一種在多個維度和整個 OODA 循環(軍事術語,即觀察-定向-決策-行動)中影響戰爭特征的萬能技術。這種技術既適用于戰場內外,也適用于戰爭與和平時期。

軍事史也表明,戰爭性質的真正變化往往是漸進的而不是點狀的,是進化的而不是革命的。變革不是通過某種新的銀彈或殺手級應用來實現的,而是通過軍事組織的艱苦工作來實現的,在這些工作中,軍事組織發展和完善作戰概念,將技術嵌入到新的作戰方式中,同時相應地調整組織結構。

有鑒于此,我們現在可以談談人工智能如何改變戰爭性質的問題。一些觀察家對變化的程度感到失望。他們將充滿機器人士兵的烏托邦式軍營與當前俄烏戰爭中充滿人類尸體的血腥戰壕這一同樣烏托邦式的現實相比較,發現戰爭仍然是 "To ánthrōpos,或者說是 "人類的事情"--這是有充分理由的。

盡管至少在可預見的未來,戰爭仍將是人類的事情,但很明顯,ANI(人工狹義智能)的突破與計算能力的爆炸性增長相結合,已經產生了大量的算法應用,國防組織在發動戰爭時可以加以利用。女士們、先生們,這并不是遙遠未來的某種烏托邦式現實,而是此時此地正在發生的算法戰爭現實的一部分。因此,人工智能應用正以各種方式影響著戰爭的性質,(目前)還不是通過人形終結者營,而是通過在整個 OODA 循環中將人工智能集成到現有應用中。

在戰場上,這已經產生了重大變化,通過更好的態勢感知和理解,以及通過所謂的 "戰斗云 "中壓縮殺傷鏈的分散式指揮網絡縮短決策周期,提高了武裝部隊的戰場效率。

沖突的加速為沿著 OODA 循環進一步整合算法提供了戰略依據,并標志著半人馬團隊的出現,人類仍處于循環中,但與人工智能應用近乎無縫整合。對 Sigint 的算法分析還提高了戰場透明度--無處可藏!- 并要求武裝部隊在有爭議和混亂的環境中開展分散行動。算法還用于無人駕駛飛機的導航和目標捕獲,包括進攻性的(通過閑逛彈藥)和防御性的(綜合防空和導彈防御)。

然而,算法的應用并不局限于戰場,它對核穩定也有相當大的影響。首先,徹底透明化將以各種方式改變核威懾的基本原則。例如,發射系統位置的曝光以及運載工具更高的精確度和機動性將影響威懾動態,并可能引發新的第一次和第二次打擊的不穩定性。此外,與技術變革相關的不確定性正促使人們擴大核武庫,并采用更靈活的核指揮與控制態勢--這些發展目前已在發揮作用。

算法也在開辟新的領域,沖突各方試圖在其中施加影響,包括通過我的同事弗蘭克-霍夫曼(Frank Hoffman)所說的 "認知戰爭"。現在有了經過實戰檢驗的劇本、現成的腳本,還有類似劍橋分析的服務可供雇傭。同樣,這不僅會影響戰爭的戰術層面,也會影響戰爭的戰略層面。想象一下,普京宣布發射核武器的 Deep Fake 會給戰略穩定帶來怎樣的影響,即使管理得當,也會造成怎樣的社會動蕩。重要的是要注意到,我們僅僅處于信息時代的黎明:5G、AR(增強現實)和 VR(虛擬現實)的出現以及 Metaverse 的出現將為沖突參與者帶來大量制造混亂的新機會。

總之,人工智能對戰爭性質和國際穩定的影響已經到來,它是真實存在的,并有望在未來幾年逐步實現。

這催化了倫理和法律領域的變革,并對如何限制和規范此類技術的生產、擴散和使用提出了多層次的重要挑戰。

付費5元查看完整內容

為什么軍事效力難以捉摸,甚至對擁有大量物質、制度或技術資源的國家來說也是如此?這個問題的答案對于軍事效力、國防和國家安全政策以及國際關系的學者和實踐者來說非常重要。長期以來,學者們利用系統和國家層面的變量來解釋為什么一些軍隊比其他軍隊更有效。因此,實踐者們制定的政策很少從預算、技術和外交政策措施以外的角度來加強軍隊的有效性。然而,盡管有這些解釋并在決策中使用,答案仍然不完全清楚。

本論文旨在通過跳出系統和國家層面來解釋軍事效力,使這個問題更加清晰。依靠組織文化理論,作者認為發展正確的組織文化的軍隊將獲得最高水平的軍事效力,并在其他情況下獲得軍事力量。為了確定軍隊的組織文化,作者分析了軍隊如何發展自己的作戰行動信念,以及這些信念如何形成特定類型的組織文化。然后,通過關注指揮和控制,作者分析了不同的組織文化是如何在二十世紀具有里程碑意義的常規陸戰中影響軍事效和軍事力量的。

為了檢驗論點,作者依靠一個使用多種研究技術的定性研究設計。首先,利用檔案研究,通過官方文件探索不同軍隊的信念。第二,對福克蘭群島戰爭的前戰斗人員進行了半結構化訪談,這些訪談是根據理論框架設計的。第三,進行了二手資料研究,以便在檔案研究不可行的情況下揭示軍隊的信念。利用這種研究設計,作者表明組織文化論點對所研究的戰役中所表現出的軍事效力和軍事力量提供了比其他現有理論更一致的解釋。

付費5元查看完整內容

這本書探討了人工智能(AI)如何改變賽博空間的國際沖突。

過去30年,賽博空間發展成為國際沖突的重要前沿和熱點。然而,關于人工智能與賽博空間沖突之間關系的學術研究是沿著某種嚴格的學科界限和更嚴格的社會技術鴻溝產生的,其中技術和社會學術很少被帶入對話。這是通過全面和跨學科的方法來解決這些主題的第一卷。目的是探討“通過人工智能在賽博空間的國際沖突中使用自動化會帶來什么風險?”,本卷的章節側重于三個廣泛的主題,即(1)技術和操作,(2)戰略和地緣政治,(3)規范和法律。這些也構成了本卷的章節組織的三個部分。

這本書適用于對賽博沖突、人工智能、安全研究和國際關系的讀者。

提綱

  • 1 人工智能與賽博空間的國際沖突
  • 第一部分 技術和操作挑戰
    • 2 不可知的沖突:追蹤AI、識別和(人類)循環的死亡
    • 3 混合戰和信息戰中的人工智能:一把雙刃劍
  • 第二部分 戰略和地緣政治挑戰
    • 4 算法的力量?人工智能在歐洲戰略自主中的作用
    • 5 中等強國的中間力量困境:在巴西、印度和新加坡,支持人工智能的服務是賽博沖突的場所
    • 6 人工智能與軍事優勢:“賽博-人工智能攻防軍備競賽”如何影響美國對完全一體化戰場的愿景
  • 第三部分 規范和法律挑戰
    • 7 國防領域人工智能的倫理原則
    • 8 震網是下一個天網嗎?作為致命自主武器系統的自主賽博能力
    • 9 選舉干預背景下的先進人工智能技術和不干涉原則:對強制“苛求”要素的挑戰?

人工智能與賽博空間的國際沖突

1.1 引言

在過去三十年中,賽博空間發展成為國際沖突的重要前沿和熱點。與最初對在賽博空間內或通過賽博空間爆發全面戰爭的恐懼預期相反,這場沖突越來越“遠離”傳統的戰爭與和平的范疇和門檻。正如盧卡斯·凱洛(Lucas Kello)所說,賽博空間既不是真正處于戰爭狀態,也不是真正處于和平狀態,而是一直處于“不和平”狀態。賽博空間的國際沖突主要發生在所謂的灰色地帶,通常涉及信息、數據及其操縱領域,最終以間諜、破壞和顛覆行為告終。經驗證據壓倒性地表明,賽博空間的對抗主要由低影響的黑客攻擊、間諜活動、虛假信息和監視組成。鑒于此,最近的學術工作質疑我們是否應該將賽博空間中的沖突視為“情報競爭”,而不是通過傳統戰爭的鏡頭。與此同時,這并不意味著我們應該將賽博空間視為互聯網早期賽博自由主義者所設想的和平、但不受管制和無法治理的綠洲——恰恰相反。各國傳統上將賽博空間視為國家安全問題,越來越多地通過賽博空間的防御戰略和進攻行動來維護和促進國家利益。

在數據和信息變得越來越重要的背景下,人工智能(AI)的發展和應用在有關賽博空間國際沖突的各種話語中獲得了動力,這并不奇怪。人工智能技術——如機器學習、自然語言處理、量子計算、神經網絡和深度學習——為軍事和情報機構提供了新的作戰解決方案,用于預測和應對威脅,以及在賽博空間開展進攻性行動。除了自動化生產有關賽博威脅的知識外,人工智能還可以自動化決策,這可能會“稀釋”(人類)政治機構作為賽博空間國際沖突因素的作用。關于致命自主武器系統(LAWS)的國際辯論的核心問題也將進入關于賽博沖突的辯論。此外,人工智能技術在賽博空間的作戰糾纏進一步模糊了已經存在爭議的賽博空間防御與進攻之間的界限,同時也挑戰了網絡沖突與信息作戰之間的界限。除了開辟新的作戰環境外,采用人工智能增強的網絡能力也代表了各國的一項重要戰略資產,因為正在進行的采用這些技術的全球競賽完全嵌入了更廣泛的地緣政治沖突、威懾、證券化戰略和技術民族主義敘事,例如關于數字主權的敘事。

人工智能技術與網絡沖突的糾纏引發了幾個問題,主要與人機交互、(大)數據在社會中的作用、大國競爭和監管有關。在創造科學和數據驅動安全的“幻覺”的同時,將安全功能委托給獨立的機器可能會使網絡暴露于由于自治和自動化而出現的各種新風險。數據機械處理中的潛在偏差可能導致誤判,并為人工智能聲稱要保護的系統創造更廣泛的“攻擊面”和漏洞。同樣,獲取這些技術的全球競賽也有可能進一步加劇和兩極分化賽博空間的國際沖突。由于這些原因,人工智能技術也作為一個規范問題在賽博空間中負責任的(國家)行為的道德和法律辯論中引起了人們的興趣——盡管關于自主性的辯論還沒有完全從軍事領域“適當”跨越到網絡沖突領域。正如本卷所示,可能需要特定的監管框架和立法來捕捉人工智能,將其視為對國家安全以及一些國家尋求維護的“開放和安全”賽博空間的潛在資產和威脅。

目的是探討“通過人工智能在賽博空間的國際沖突中使用自動化會帶來什么風險?”,本卷側重于三個主題,即:(1)技術和操作,(2)戰略和地緣政治,(3)規范和法律。這些也構成了這一卷的章節組織的三個部分。關于人工智能和賽博空間沖突之間關系的學術研究是沿著某種嚴格的學科界限和更嚴格的社會技術鴻溝產生的,其中技術和社會學術很少被帶入對話。本卷通過全面和跨學科的方法解決這些主題。從這個意義上說,組織在三個部分的體積不應該被認為是一個分析,甚至更少,學科劃分。本導論章的其余部分概述了本卷三部分的主要辯論,并提供了背景。

1.2 技術和操作方面的考慮

人工智能已經成為我們這個時代的決定性技術,似乎是每個人都想要的、每個人都關心的終極創新的縮影。“各國通常對新技術持技術樂觀態度,并積極看待通過自動化合理化和完善治理的前景,人工智能目前被應用于廣泛而多樣的治理領域和問題。”“人工智能”概念的吸引力可能最好地體現在這樣一個事實上:政府(以及政府之外)的許多應用仍然被更恰當地稱為“經典”自動化,而不是人工智能或在系統中引入自治。然而,人工智能的發展確實開始滲透到傳統治理中,通過擴大可實現有意義自動化的操作的范圍、規模和復雜性,包括與網絡安全相關的操作。然而,與其他治理分支相比,人工智能技術在網絡安全中的應用代表的創新較少。例如,早在20世紀90年代,機器學習和神經網絡就被應用于過濾和分類垃圾郵件。畢竟,自動化構成了互聯網技術和計算的固有特征。相對較新的,也是本卷主要感興趣的是賽博空間沖突的國際化和“滿足”,人工智能的潛力標志著通過自主進入一個新的操作階段。

從操作角度來看,人工智能技術有望為賽博空間國際沖突的核心動態之一做出貢獻:通過及時有效地解釋數據(無論是防御還是進攻)來識別漏洞。也就是說,人工智能有可能使賽博空間的沖突變得更加可知和可預測。當考慮到賽博空間國際沖突背景下的自動化和機器自治方面時,智能機器在不同程度的獨立下做出操作選擇的能力指向了誰是賽博空間國際沖突的實際執行者的問題。正如本卷第三部分將進一步討論的那樣,這個問題不僅是分析性的或技術性的。知道誰是賽博空間沖突的始作俑者也與責任問題密切相關。在代理似乎已經被賽博和社會技術組合稀釋的背景下,探索ai -網絡聯系的主要手段是探索人與機制的互動。

自主性和人工智能的問題提出了一個與人類在所謂的操作決策“循環”中的“位置”相關的操作疑問。這種困境在關于法律的辯論中已經被明確表達出來,其核心問題仍然是人類是否應該被置于這個循環之中,之上或之外。在本卷的第2章中,Andrew Dwyer通過分析深度強化學習(RL)算法的作用,直接解決了這個問題,質疑人工智能技術使賽博空間中的沖突更加可知的假設。它認為,通過識別、執行和改變賽博空間國際沖突的對象、地點和方式,人工智能不僅僅是一種改善運營的認知工具。從這個意義上講,本章還使關于可控制和道德上負責任的人工智能系統以及人類“在”循環中的位置的規范性考慮復雜化。

人工智能對賽博安全的核心技術承諾之一包括蒂姆·史蒂文斯(Tim Stevens)所定義的“從已知威脅到未知威脅的預測,再到預期狀態”的轉變,這在關鍵的安全文獻中受到了廣泛關注。在第三章中,Wesley Moy和Kacper Gradon探討了人工智能在虛假信息和錯誤信息傳播中的各種潛在應用,以及在混合和不對稱戰爭的背景下。通過分析兩種方法——即“生成對抗網絡”和“大型語言模型”——本章解釋了人工智能在理解鏈接如何形成、信息如何傳播以及信息如何影響社交網絡中的意見和行動方面的相關性。總而言之,本卷第一部分的貢獻表明,雖然提高了運營效率,但人工智能應用并不一定“使”國際沖突更加已知/可預測,網絡安全更加以人為中心。相反,自主性和自動化進一步助長了將賽博空間理解為主要是技術和操作問題或領域的問題。

1.3 戰略和地緣政治考慮

超越其技術可能性和操作困境,人工智能將成為數字時代經濟、政治和軍事力量的憲法組成部分。隨著大國競爭的回歸以及國家之間在賽博空間的不斷爭奪和對抗,人工智能正在經歷一個證券化的過程,將這種主要用于民用的雙重技術轉變為國家安全和主權問題。因此,人工智能已經完全成為有爭議的全球“數字軍備競賽”的一部分,引發了人們對將其用于攻擊目的的更廣泛風險的重大擔憂。這種演變并不令人驚訝。這與過去30年來賽博空間的更廣泛的證券化是一致的,這種證券化迅速(但并不總是正確)與國家話語中的軍事化聯系在一起。

自2010年以來,隨著越來越復雜和有針對性的國家支持的賽博攻擊的興起,賽博空間成為了證券化的必要條件,也是一個需要動用特殊手段的新作戰領域。鑒于這一領域面臨的復雜挑戰,例如犯罪組織對個人利益構成的威脅,既可能損害最終用戶的安全,也可能損害賽博空間本身的安全與穩定,將賽博空間主要視為對國家安全的威脅并非不言自明。其他可能占據上風的特征,如經濟風險、犯罪危險或對個人用戶隱私的威脅,越來越多地讓位于國家和國際安全問題。用互聯網治理學者米爾頓·穆勒(Milton Mueller)的話來說,“網絡安全正在吞噬互聯網治理”,并正在推出替代框架。安全框架已逐步擴展到包括人工智能在內的所有可能在數字戰爭背景下武器化的數字技術,并推動了數字技術的國際競爭。美國和中國在數字技術的生產、控制、使用和治理方面的激烈競爭體現了這種競爭,并日益影響著這種競爭。亞當·西格爾(Adam Segal)認為,在20世紀90年代和21世紀頭十年,中美經濟一體化被認為在政治和經濟上都是互利的,但政治決策者現在認為風險大于收益。在兩國的言論中,安全問題都是競爭的核心。值得注意的是,中國已經啟動了一項龐大的計劃,到2030年成為人工智能領域的世界領導者,擁有1500億美元的產業。也就是說,人才爭奪戰已經打響

少數國家在人工智能能力方面的領導地位也揭示了許多其他國家令人不安的戰略依賴。這在歐盟引發了一場辯論,討論與這些依賴相關的風險,以及確保數字主權的戰略自治的必要性。但推進人工智能技術似乎是解決這些問題的有限政策選擇。在第四章中,Simona Soare質疑人工智能在促進歐洲安全和防務領域戰略自主方面的作用。她認為,采用人工智能是一種“分心”,因為它在歐洲防務中引入了額外的復雜性,同時對歐洲的戰略自主沒有重大貢獻。一方面,由于歐盟在防務領域的內部運作,將人工智能整合到歐盟的決策過程和行動中是具有挑戰性的。另一方面,工業能力的缺乏和對其他大國的戰略依賴是真實存在的,可能很難克服。在第五章中,阿倫·莫漢·蘇庫馬爾同樣論證了依賴人工智能會帶來風險和戰略依賴,正如新興大國的例子所示。本章通過巴西、印度和新加坡衛生部門的例子,審查人工智能在公共服務發展中的作用。報告顯示,盡管各國被敦促提高數據透明度并為其人民開發數字服務,但它們面臨著新的風險,這些風險可能會在數年內阻礙各國關鍵任務系統的數字化進程。也就是說,他們面臨著進一步數字化和接受更多安全風險之間的權衡,這個例子表明,不僅要從技術/運營角度考慮人工智能與網絡的聯系,還要考慮更廣泛的戰略影響。

世界各地的武裝部隊也認識到人工智能網絡關系的戰略意義,并同樣參與了其行動的深刻數字化轉型。一方面,這大大增加了他們對數字技術和數據的依賴。另一方面,它也帶來了新的風險和脆弱性。士兵在新的數字環境中進化,深刻地改變了他們的操作方式,并創造了有時難以完全理解和管理的新挑戰。在這種環境下,人工智能提供了有希望的新能力,以提高情報質量、態勢感知、訓練條件、遠程操作能力、武器系統的精度和自主性,最重要的是,行動的速度和范圍。因此,對人工智能的競爭也是對軍事力量和優勢的競爭,并再次提出與作戰問題密切相關的戰略問題。這種表現與美國軍事文化中根深蒂固的觀點產生了共鳴,即技術可以提供軍事優勢。在第6章中,Jeppe Jacobsen和Tobias Liebetrau認為,這種愿景可以追溯到人工智能之前的很長一段時間,并且自20世紀70年代的第二次抵消戰略以來一直主導著美國的軍事話語。也就是說,人工智能代表的是一種運營創新,而不是戰略創新。

在進一步證明大國競爭將回歸的同時,軍事優勢戰略也助長了技術引發的恐懼,并推動了發展進攻而非防御,以保持對敵人的優勢。但是,考慮到網絡環境的高度動態性,人工智能支持的網絡能力也可能傳達出一種控制的想法,這種想法在賽博空間中即使不是虛幻的,也是困難的。它也沒有考慮到人工智能技術帶來的漏洞和相關風險。事實上,隨著社會和武裝部隊的數字化轉型,攻擊面不斷增加。雖然人工智能可以大大提高防守,但對進攻的強調可能是風險的來源。Jeppe Jacobsen和Tobias Liebetrau證明,網絡軍備競賽不僅是大國之間對人工智能網絡能力的競爭,而且是由人工智能驅動的進攻性和防御性網絡能力之間的具體軍備競賽。考慮到有關軍隊如何在賽博空間平衡攻防的討論的教訓,他們得出結論,人工智能增強的網絡進攻能力可能占據主導地位。然而,人工智能在很多方面可能適得其反。隨著我們的社會越來越依賴數字技術,人工智能技術的證券化可能對網絡(in)穩定性的整體水平產生重要的溢出效應。正在進行的數據競賽及其對戰略優勢的利用進一步模糊了軍事和民用行動之間的界限,給私營部門和民間社會帶來了不可避免的后果,提出了新的法律和規范挑戰。

1.4 規范和法律方面的考慮

基于上述技術/操作和戰略/地緣政治考慮,有必要規范人工智能技術在賽博空間的采用和使用。一方面,賽博能力的發展,另一方面,人工智能及其在賽博沖突中的可能應用,給國家和其他行為者帶來了兩難境地:他們對這些新技術感興趣——尤其是為了增強自己的作戰能力和戰略姿態——但同時,他們又擔心這些發展對國際和平與安全的潛在后果。這種困境是本卷最后第三部分的核心,它涉及人工智能在賽博空間應用所提出的規范和法律問題。為了理解這些,本節還介紹了這些規范和法律討論嵌入并與各國戰略考慮深深交織在一起的國際進程。

在國際網絡安全問題上,聯合國大會于1998年12月通過了第一項關于“國際安全背景下信息和電信領域的發展”的決議。自2004年以來,聯合國大會就這一主題連續設立了六屆政府專家組。第一屆和第五屆政府專家組未能通過協商一致的報告,據說是因為在討論國際法的具體分支方面存在分歧。2017年6月,第五屆政府專家組未能通過共識報告,導致各方對如何開展工作存在分歧。2018年,這導致通過了兩項同時通過的決議,并創建了兩個基本相同任務的平行進程。除第六屆政府專家組外,還設立了一個不限成員名額工作組。2020年,新的OEWG成立,將持續到2025年,而截至目前,還沒有新的GGE計劃。此外,自2020年以來,一些國家正在倡導就此主題開展新進程,即制定《行動綱領》,以促進賽博空間負責任的國家行為,該行動綱領于2022年11月受到聯合國大會原則上的歡迎。第二屆、第三屆、第四屆和第六屆政府專家組以及第一屆OEWG成功地通過了協商一致報告。這些報告特別肯定了國際法適用于賽博空間,并列舉了在這方面特別相關的具體國際法規則和原則。他們還列出了11項賽博空間負責任行為準則。這些報告合在一起構成了賽博空間負責任國家行為的框架,其中包括國際法和非約束性規范,以及能力建設和建立信任措施。有趣的是,在這本書的背景下,盡管在2019-2021輪談判中討論了人工智能應用的發展,但在GGE或OEWG的報告中從未提及人工智能應用的發展。雖然這個問題沒有被列入2021年的共識報告,但在OEWG進程的所謂主席總結中,它在其專門討論“威脅”的部分中占據了重要地位:“在ICT運營中追求越來越多的自動化和自主性,以及可能導致連接減少或中斷、意外升級或對第三方產生負面影響的行動,都被作為一個具體問題提出。”此外,無論是在聯合國談判的背景下,還是在談判之外,各國和其他行為體都開始對自動化和自主在網絡行動中的作用表示擔憂。

關于人工智能國際安全層面的討論一直側重于法律的制定。2013年,《禁止或限制使用某些常規武器公約》(CCW)締約方會議將這一事項列入議程。經過幾次非正式會議,這些討論走上了與國際網絡安全類似的道路,2016年成立了政府專家組,并于2019年通過了11項法律指導原則。通過這些原則,專家組確認了國際法,特別是國際人道主義法以及一系列道德和非約束性原則的適用性。令人驚訝的是,在第六項原則中,網絡安全只是作為“在開發或獲取基于致命自主武器系統領域新興技術的新武器系統時應考慮的適當的非物理保障措施”之一被簡單地提到。然而,沒有提到自主網絡能力。盡管網絡安全和人工智能之間的聯系是在經合組織和聯合國教科文組織關于人工智能倫理的建議中提出的,但這兩份文件都避開了國家和國際安全。因此,到目前為止,在聯合國第一委員會中,“網絡”和“人工智能”似乎是夜間經過的船只。

這種“缺席”是本卷第三部分的核心。在國際層面上利用這一真空。Taddeo、McNeish、Blanchard和Edgar在第7章中討論了定義道德框架的努力,以指導人工智能在國內國防領域的使用——通過英國的案例——并提出了一個可能的框架,圍繞五個原則闡述:合理和可推翻的使用;公正和透明的制度和程序;人類的道德責任;有意義的人為控制;最后是可靠的人工智能系統。這些倫理考慮的核心是技術自主和需要某種形式的人類控制、參與或推翻的問題:再一次,人類在“循環”中的位置?回到國際層面,在第8章中,路易斯·佩雷斯(Louis Perez)在討論如何將當前的法律方法應用于自主網絡行動之前,在聯合國網絡問題和法律問題上進行了不同的討論。在反思法律的定義時,本章討論了自主網絡能力是否可以被視為法律的關鍵問題,從而受到《常規武器公約》框架下有關國際法和道德的討論的關注。在第9章中,杰克·肯尼將重點放在國際法的一個具體原則上,即不干涉原則,這一原則已被GGE和OEWG廣泛討論。在這些討論的基礎上,以及現有的關于這一原則在賽博空間中的應用的學術研究,本章著眼于自動化對這一原則提出的具體挑戰,并特別關注其強制要求。通過回到前面討論的操作困境之一,本章通過分析與使用具有一定程度自主權的網絡手段干預選舉過程有關的不同例子來闡明這一規范性討論。

本卷的第三部分也是最后一部分表明,聯合國層面的辯論還需要一段時間才能有意義地解決人工智能技術與賽博空間沖突之間的交集。這有幾個原因,這與前面概述的技術/業務和戰略/地緣政治觀點有關。首先,大多數富裕和頂級(網絡)軍事國家往往不愿放棄可能改變游戲規則的新軍事可能性。美國、以色列和俄羅斯等積極發展法律的國家在GGE談判中拖拖拉拉。歷史并沒有提供太多證據證明武器在使用之前就被禁止了。此外,在政治上,一些主要談判方之間的信任水平目前處于低點。美國正日益與中國展開對抗性競爭——中國是“人工智能之冠”的主要競爭者之一——自從俄羅斯入侵烏克蘭以來,許多國家都在積極地試圖制裁和孤立俄羅斯聯邦。當涉及到新的軍事和網絡技術時,這不是討論約束作為治理機制的理想情況。最后,兩個聯合國進程之間的任務不匹配。聯合國法律專家組——顧名思義——明確關注與武器相關的特定技術(人工智能)。聯合國網絡安全專家組將國家行為作為其建議的焦點,通常旨在盡可能保持技術中立。如果要在這些過程之間架起一座橋梁,就必須建立在對技術如何影響或改變網絡沖突中的國家行為的合理推理之上。諸如“國家控制”是否僅在有意義的人為控制下存在,還是在“系統控制”的情況下也存在,以及自動化和/或自主網絡攻擊是否存在或可能存在歧視等問題可能是該問題的核心。換句話說,只有將人工智能與賽博空間沖突之間的關系理解為一種綜合現象,并嵌入更廣泛的地緣政治沖突中,國際社會才能真正推進有意義的監管。

付費5元查看完整內容

高超音速導彈和人工智能等技術創新代表了當代戰爭的動態變化,為政治和軍事決策者帶來新的挑戰。高超音速導彈前所未有的、不可預測的速度和彈道,以及與人工智能滲透有關的無數不確定性,反映了這些挑戰。在這些系統的背景下,一個納入有限學術研究的領域在威懾理論中是顯而易見的。這項研究旨在彌補高超音速導彈和人工智能如何挑戰瑞典的威懾力方面的知識匱乏,并確定瑞典目前的能力和可信度在應對這些威脅方面的有效性。為了實現這一目標,本研究采用了文本分析法,其中包括從瑞典的報告和政策文件中收集的經驗材料、文獻回顧以及與該領域具有充分知識的專家進行的半結構化訪談。本論文發現,盡管瑞典的國土面積相對較小,但在某種程度上已經成功開發了獨特的系統和技術,以應對高超音速導彈和人工智能威脅。

付費5元查看完整內容

這份混合型工作文件討論了太空領域如何在正在進行的烏克蘭戰爭中被使用并受到影響。可以說,空間領域在以前的任何沖突中都沒有以如此多變的方式被使用過,因此為西方國家提供了一個重要的學習機會。本文的重點是混合威脅、工具和行為者,它提供了對已實現和預測的影響的全面分析,包括空間領域和其他混合威脅領域之間的聯系。對空間基礎設施的攻擊和混合威脅可以產生非常廣泛的影響,因為現代社會嚴重依賴基于空間的能力。例如,針對衛星系統的系統性網絡攻擊可以阻止信息共享,并對能源和運輸部門造成干擾。有幾個經驗教訓:1)眾包態勢感知的力量已經在戰爭中得到證明。來自平民百姓的信息已被用于支持戰場上的行動。2)俄烏戰爭為基于衛星的技術鋪平了道路,使之成為軍隊和平民百姓都能輕易獲得的日常工具。這場戰爭已經證明,擁有空間能力并不像獲得它們那樣關鍵,正如對一些最重要的商業行為者的審查以及他們的服務在沖突中的使用情況所顯示的那樣。3) 商業空間資產在軍事行動中的使用正在模糊戰爭中軍事和民事行為者之間的界限。4) 衛星技術的發展及其使用也促進了可用于軍事目的的新能力組合。戰爭對空間環境和大量國際空間計劃造成的一個主要威脅是國家間合作精神的退化。這方面的一個明顯的后果是越來越多地通過每個國家自己的國家或區域活動來確保主權的工作。

俄羅斯自2022年2月24日以來對烏克蘭的戰爭被描述為第一場 "兩面空間戰爭"。空間領域已經以一種更加敏捷和靈活的方式被使用,并與其他混合威脅領域相聯系。特別是,商業和私人資源在利用空間領域方面的重要性得到了強調,而國際空間合作也因戰爭而經歷了重大挫折。俄羅斯正在發展反衛星能力以及電子和網絡武器,而西方國家正在重新評估其安全優先事項并制定空間戰略。不斷變化的空間威脅、新的空間現象、雙重用途的能力,以及天基能力對社會重要功能的日益關鍵性,塑造了空間領域的伙伴關系和協作。同時,目前的全球空間治理框架在管理空間活動和空間安全方面是不充分和無效的。這為混合行動留下了機會,并使在空間尋求一致的反措施變得復雜。

混合威脅可被定義為協調和同步的行動,這些行動故意針對民主國家或機構的系統脆弱性,以達到戰略目標并創造預期的效果。行動通常是在多個領域進行的,而且敵對行為者也可以以創造全新的脆弱性為目標。空間領域對敵對行為者來說是一個誘人的目標,因為西方社會對天基系統的依賴比以往任何時候都大。空間領域與空中領域相互連接,這很容易造成連帶效應。天基系統也可以通過地基系統受到干擾和破壞。

混合威脅被認為針對13個不同領域,即基礎設施、經濟、情報、信息、網絡、外交、政治、文化、社會/社會、法律、軍事/國防、空間和行政。影響空間領域的混合威脅工具包括,例如,針對基礎設施的實際行動、創造和利用基礎設施的依賴性、外國直接投資、工業間諜、網絡間諜、網絡行動和電子行動(例如,干擾和欺騙)。利用法律中的門檻、不歸屬、差距和不確定性也是可能的,還可以利用法律規則、程序、機構和論點。作為對混合威脅工具的回應,也可以利用空間領域來創造對混合威脅的復原力,并作為適當反措施的平臺。

這份混合型共同利益工作文件著重于以下研究問題:

1)在俄烏戰爭中,空間領域是如何被使用的?

  1. 空間領域是如何與其他混合威脅領域聯系起來的,以及使用了什么樣的工具?

  2. 哪些服務已經成為目標,產生了什么樣的影響?

  3. 誰是沖突中與空間領域有關的主要行為者?

  4. 哪些空間能力已經被用來對付混合威脅?

  5. 對混合型歐洲共同體的參與國有什么影響?

本文的結構如下。首先,作者介紹了天基服務以及它們如何在俄烏戰爭中使用。隨后討論了在戰爭中利用空間領域進行混合威脅活動,以及針對混合威脅的反措施。提供了使用空間領域的主要例子,并闡述了與其他混合威脅領域的聯系。還強調了選定的商業行為者和服務的作用。最后,提供了結論和建議。

俄烏戰爭期間使用的天基技術

衛星技術在現代社會中的應用很多,往往是看不見的。衛星是一個重要的基礎設施,使電信、交通、金融系統和能源網絡能夠可靠地運作。例如,衛星提供天氣數據,來自偏遠地區的新聞,以及開車或做運動時的定位服務。典型的衛星服務被分為四個主要領域,包括(1)定位、導航和定時(PNT)服務,(2)通信,(3)遙感,以及(4)科學和探索任務,通常旨在探索外層空間,與前三類相比,主要是為了支持地球上的生命。

軍事衛星服務包括衛星通信和PNT這樣的服務。監測能力用于以下服務:(1)導彈預警系統,(2)環境和天氣信息,以及(3)情報、監視和偵察(ISR)。軍事空間行動還包括將衛星發射到軌道上并操作它們,以及了解空間態勢。后者包括空間氣象服務,對衛星和其他空間物體運動的探測和建模,以了解對手能看到什么和做什么,以及探測對衛星的威脅(如空間碎片或導彈)的能力。空間技術是一項重要的輔助技術,通過提高部隊的機動性、協調性和行動的準確性,為提高部隊的表現提供了手段。因此,空間沖突被Szymanski定義為 "所有關于拒絕衛星對地球上的軍事力量或平民的支持--不是簡單地為了破壞而消除衛星系統"。

自俄烏戰爭開始以來,基于空間的服務在戰爭中發揮了不可或缺的作用。俄羅斯入侵烏克蘭的影響已經擴散到空間領域,影響了國際空間合作和空間服務的使用方式。所有上述能力都被積極利用,商業公司在支持軍事行動和民用需求方面發揮了越來越重要的作用。諸如HIMARS這樣的GPS制導武器已經被用來非常精確地打擊目標。基于衛星的監測已使戰場可能成為歷史上最透明的戰場。在戰爭中利用空間并不意味著你需要擁有自己的衛星。正如在俄烏戰爭中所證明的那樣,人們可以利用公共和商業衛星,以及盟友提供的服務。空間活動已經變得越來越商業化,今天90%以上的發射都是商業衛星。截至今天,所有軍隊都采用商業衛星服務作為其行動的一部分。烏克蘭部隊在其行動中使用了來自Starlink等公司的服務。衛星技術的一個重要用途是通過分享俄羅斯軍事車隊、建筑、飛機部署和其他關鍵事件的衛星圖像,在全球提高公眾對烏克蘭局勢的認識。這也突出了空間在情報和信息領域的重要性,無論是對于戰爭中的侵略者還是防御者。

空間領域的軍事存在和行動在未來可能最終擴展到摧毀天基基礎設施。俄羅斯已經展示了這種能力,在2021年11月的反衛星導彈試驗中拆毀了一顆衛星。可以說,最重要的太空目標將是直接向遠程軌道上的其他衛星轉發數據和指令的衛星,使它們成為關鍵太空系統的扼制點。對于沒有廣泛的世界性衛星地面控制站的國家來說,這一點尤其如此。然而,實際的太空戰將是最后的邊界,因為沒有人愿意摧毀或冒險使用太空資產的能力。這可能是不理想的后果,因為太空中的爆炸會產生大量的空間碎片,幾乎可以在任何地方危及空間安全和衛星服務。

空間和其他混合威脅領域之間的聯系

到目前為止,大多數可以針對空間領域的混合威脅工具利用了空間資產與其他領域的聯系。空間領域以前被視為與軍事/國防、經濟、基礎設施、信息和情報領域密切相關。然而,來自烏克蘭的證據揭示了與所有其他混合威脅領域的有意義的聯系。空間技術和空間環境容易受到混合威脅,特別是在網絡領域。

衛星系統有與平臺及其安全有關的網絡安全漏洞,地面基礎設施的接口,以及竊取和破壞數據,甚至關閉系統的可能性。與衛星系統有關的安全威脅,重點是衛星通信,最近已經被確認,有一些威脅涉及任何類型的衛星系統。干擾可以影響空間和地面資產。現代衛星的可編程性使得更新軌道上的衛星可以執行新的操作,這就為惡意的應用程序上傳到衛星上打開了大門。

與俄烏戰爭有關的一個例子是俄羅斯對Viasat衛星(KA-SAT)網絡的網絡攻擊,使烏克蘭的調制解調器無法運行,導致整個歐洲的組織出現了數千次中斷。該事件發生在入侵開始之前,大大影響了通信和共享態勢感知數據的能力。地面入侵者利用一個錯誤的配置進入衛星運營商的管理系統,然后指示大量的住宅衛星調制解調器從網絡中退出。該事件不僅顯示了衛星系統的脆弱性,而且還揭示了如果將具有安全弱點和漏洞的技術整合在一起,集成系統將具有更高的脆弱性。因此,在整合地面和衛星系統共同運作時,必須創建網絡原生設計,也就是說,從一開始就考慮到網絡問題。

俄烏戰爭已經廣泛表明,空間領域影響到其他混合威脅領域,既為惡意行為者提供工具,又為建立抵御威脅的能力提供資源。與所有混合威脅領域都有聯系。例如,大型衛星群可以作為一種替代性基礎設施,提供通信和PNT服務。在經濟領域,無法使用俄羅斯的發射能力在全球范圍內對商業衛星公司產生了影響,烏克蘭的航天工業在很大程度上被禁用。由于沖突期間對商業能力的使用增加,俄羅斯已經聲稱私人空間資產是戰爭中的合法目標,影響發生在法律領域。表1總結了空間和其他混合威脅領域之間的初步聯系。

表1. 俄烏戰爭中空間和其他混合威脅領域之間的聯系

混合威脅領域 與混合威脅和工具的聯系/影響 與應對混合威脅的聯系
基礎設施 衛星技術是能源、運輸和通信網絡等關鍵基礎設施的關鍵推動因素。 如果地面基礎設施被破壞,像Starlink這樣的大型衛星群可以提供一個替代的通信和PNT系統。
賽博 對衛星網絡(如Viasat)的網絡攻擊可以阻止烏克蘭的通信,并導致整個歐洲組織的服務中斷。俄羅斯正在積極干擾烏克蘭各地的GPS信號。已經有針對Starlink系統的黑客攻擊企圖。 空間公司和國家在實施空間系統和確保它們的網絡安全,以及培訓人們以安全的方式操作它們方面投入了更多努力。
經濟 烏克蘭的航天工業是喪失能力的。由于俄羅斯退出了合作,發射能力受到限制。經濟制裁可以被繞過: 俄羅斯通過盟友和黑市獲得了能力(例如,在無人機制造商大疆暫停在俄羅斯的業務后,俄羅斯仍然可以通過白俄羅斯和伊朗獲得無人機)。 私人空間部門通過雙重用途的空間資產找到新的市場。空間優先事項可能在國家和國際合作中被重新評估。人們必須意識到其他國家的投資對一個目標國家的空間基礎設施的影響。
軍事/國防 天基能力對于戰場上的情報、環境監測、導彈預警和指揮與控制是必不可少的。俄羅斯已經展示了新型武器的威脅,例如摧毀衛星。 衛星使我們有可能在危機出現之前就看到大規模的變化。歷史衛星數據可用于分析戰爭前的局勢,并幫助找到避免升級的方法。有必要調整戰略,制定應對新的空間武器和多樣化的空間威脅的方案。新的私營空間公司可以通過更深入的整合和伙伴關系被看作是傳統的軍事承包商。保護商業資產的需求在增長。
社會/社會性 天基能力可以在危機期間支持社會的重要功能,例如,Starlink確保了烏克蘭的互聯網可用性和通信。公民可以提供資產來支持行動,例如烏克蘭的 "dronations "運動,收集業余和商業用途的無人機;眾籌的ICEYE衛星;以及眾包的局勢意識。 眾籌資金用于購買新的衛星以支持行動。眾包促進了防御意愿和心理彈性: 生成軍事裝備的基層行動支持貢獻者的士氣,以及那些在前線的人。
(公共)行政管理 商業空間能力和信息對烏克蘭各部委很重要。國防部支持公開購買一顆ICEYE衛星。內政部將衛星圖像用于決策和與公民分享信息。 衛星提供了與公民聯系的手段,即使在地面基礎設施被破壞的情況下。
法律 俄羅斯聲稱私人空間資產是戰爭中的合法目標。俄羅斯指出,根據《外層空間條約》,將私人衛星用于軍事目的是挑釁性的,是有問題的。不樂意看到自己的設備被用于軍事目的的私人行為者也會使用法律論據(如無人機制造商大疆,它表示這種使用違反其原則,并有潛在的法律合規問題)。 天基能力可以支持歸屬問題,例如提供戰爭罪的證據。
情報 衛星使情報行動能夠在用其他手段工作非常具有挑戰性的地區進行。 衛星可以揭示陸地上的情報行動,探測例如設備和建筑區域。
外交 俄羅斯已經決定退出國際空間站的合作。在太空中,從俄羅斯延伸出來的國際緊張局勢日益嚴重。失去國際空間站作為一個外交工具和未來科學探索的平臺,對外交關系有重大影響。 促進可持續性和和平利用空間的準則、行動和措施應繼續下去,并鼓勵通過外交途徑擺脫危機。
政治 俄羅斯一直在努力將國際空間站政治化,到目前為止,它是一個純粹的科學合作平臺。其他國家和俄羅斯之間的國際合作被凍結了,預計在很長一段時間內都會如此。 俄烏戰爭表明了獲得衛星服務和區域主權的重要性。小國正在學習新的方法,以便在大國進攻時進行操作。例如,臺灣已經表示,如果中國對臺行動,它將建立一個基于衛星的互聯網。歐盟和北約之間的空間合作正在加深。
信息 俄羅斯已發表挑釁性聲明,稱商業和民用衛星資產成為戰時行動的合法目標。俄羅斯聯邦航天局曾試圖利用國際空間站進行親俄、反烏克蘭的宣傳。航天業有影響力的人,例如埃隆-馬斯克,已經對烏克蘭表示支持并給予指導。 衛星數據和高分辨率圖像有助于挑戰虛假信息。衛星被用來提供有關烏克蘭及其附近地區事件的最新信息。圖像在報紙和在線資源中與公眾分享。衛星使烏克蘭人民能夠接收國際信息。例如,遍布全國的Starlink終端提供可靠的信息來源,幫助減少俄羅斯宣傳的影響。
文化 由于俄羅斯的退出、日益緊張的局勢和對戰略自主權的日益追求,探索和發展空間的合作文化受到威脅。共同的價值觀可以促進區域內或志同道合的盟友之間的合作。 未來的空間合作可能會更加基于價值。空間的可持續利用是一個例子。在空間安全方面,尋求志同道合的伙伴進行合作。私人行為者可能必須在文化上對自己進行定位以進行合作。這種轉變可能會使全球空間治理框架的發展更加困難。

以空間能力對抗混合威脅

觀察戰爭期間的活動

如表1所示,空間技術也被積極用于應對混合威脅行動。例如,衛星實現了最新信息和新聞的共享,使烏克蘭的平民和軍事人員了解情況,而不顧地面渠道的信息操作。應對混合威脅的另一個重要因素是國家和領先的商業和公共組織之間的合作,如美國國家航空航天局和歐空局,空間行業有影響力的人一直在指明方向,也提高了人們對開發更好的空間系統的需求。這場戰爭通過政治對話和共同的信息傳遞加深了北約和歐盟之間的合作,為應對外國信息操縱和干擾等各種類型的威脅提供了更好的能力。這種戰略伙伴關系比以往任何時候都更加有力,支持烏克蘭自衛和保護其人民。歐盟的政治和安全委員會與北大西洋理事會之間定期舉行會議,各工作組之間也經常進行交叉匯報。合作的工作范圍包括,例如,在歐盟和北約防務規劃過程中,在需求重疊的地方作出努力。這場戰爭表明,擁有空間能力并不像獲得這些能力那樣關鍵。這一重要的認識可能會進一步推動國際空間合作和私營空間部門的崛起。為此,建立系統冗余和備用系統的重要性可能會被強調。總而言之,通過私有化和多樣化的空間威脅,能夠拒絕獲得空間能力的行為者群體將變得更加多面。

提高空間技術的復原力

這對于確保關鍵的空間技術在未來仍然有用是至關重要的。要回答的問題是如何提高空間技術的復原力并創建網絡防護系統。提高復原力的一個方法是納入冗余和使用幾個系統的可能性。這樣一來,單一系統的故障就不會妨礙通信能力,例如。最近的一個例子表明,行動不應該依賴單一的衛星通信系統,埃隆-馬斯克宣布Starlink衛星不能在克里米亞使用。這種限制對該地區的部隊行動有直接影響,因為如果不使用其他冗余系統,部隊和指揮部之間就無法有效建立聯系。

有多種網絡安全威脅,在過去設計 "舊空間 "系統時沒有得到適當考慮。必須從一開始就把新系統設計成網絡安全的系統,特別是確保地面部分的安全,防止地面的攻擊和漏洞。建議使用強大的認證和訪問控制程序,以增加系統的復原力。此外,有必要積極監測潛在的安全威脅,以便用適當的行動來減輕它們。這可以通過網絡安全操作中心(CSOC)來完成,它結合了監測和決策技術、人力資源管理人員和流程,以實現準確的網絡態勢感知,并積極應對檢測到的威脅。最好的CSOC是專門的設施,網絡安全分析師在那里持續工作,專注于防御戰略網絡上未經授權的活動。它們可以由民族國家或跨國公司建立和經營。在空間領域,歐空局正在資助開發,以確保歐洲層面的運作。然而,仍然需要為此開發更好的工具,培訓在空間領域工作的人,并開發動態頻譜管理機制,以更有效地保護系統免受干擾。

提高空間系統復原力和可持續性的手段包括空間安全和網絡安全,但也包括經濟和環境的角度。至關重要的是避免產生新的空間碎片,并改善空間碎片和威脅探測能力,以確保衛星服務將對未來幾代人保持有用。有必要開發更好的空間交通管理方法,衛星可以利用自動避免碰撞的程序,使它們能夠對威脅作出迅速反應。從俄烏戰爭中也可以看出,國家和空間領域行為者之間應加強進一步合作,并制定規則和措施,確保和平利用空間。

戰爭期間空間領域的主要行為者和合作形式

全球行為者

在空間領域有積極的全球行為者,如美國、歐盟、中國、俄羅斯和北約。美國有跨越ISR、GPS和連接的能力,而歐盟有自己的定位和地球觀測的旗艦計劃(伽利略和哥白尼)。歐盟還計劃建立自己的安全連接系統,稱為IRIS,作為一個新的旗艦和一個專門的衛星通信基礎設施。這是歐洲目前最重要的空間計劃,旨在支持關鍵用戶和普通公民。中國擁有北斗定位系統、反衛星(ASAT)導彈能力,即摧毀衛星的手段,以及包括月球車在內的深空任務。俄羅斯在發射器、人類和科學任務以及定位方面有長期經驗。最后,北約自2019年起將空間作為其行動領域,利用空間來支持通信、導航和情報等領域的行動和任務。通過使用衛星,北約及其成員國能夠以更快、更有效和更精確的方式應對危機。

國際合作和發射活動

由于戰爭,俄羅斯已經退出了國際空間合作,這對國際空間業務和發射活動產生了重大影響。俄羅斯已經拒絕為西方國家進一步發射任何衛星。聯盟號火箭在建造和供應國際空間站,以及通過定期助推使空間站保持在軌道上方面發揮了作用。目前正在尋找替代品,幸運的是,例如SpaceX已經展示了其向國際空間站發射宇航員的能力。然而,到目前為止,這些發射在很大程度上影響了商業運作,載人飛行也按計劃實施。盡管如此,戰爭的影響在各種形式的合作中是可見的。最近,俄羅斯宇航員和國際空間站指揮官奧列格-阿爾捷米耶夫在9月28日將空間站的指揮權移交給薩曼莎-克里斯托弗雷蒂時說,"戰爭將在各地結束",她是歐洲國際空間站的第一位女指揮官。戰爭也在催生新的合作形式。中國和俄羅斯宣布合作開發定位系統,將北斗和格洛納斯系統的準確性和可靠性提高到GPS的水平。兩國同意在對方的土地上建立衛星地面站,以提高系統的互操作性。然而,已經很明顯的是,戰爭已經影響了未來許多年內空間產業的基本合作精神。圖1展示了積極參與俄烏戰爭的不同空間行為者的情況概述。

圖1. 俄烏戰爭期間的商業和公共活動以及對國際合作的影響

衛星通信 無人機通信和實現無人機打擊;信息共享和反擊錯誤信息;指揮和控制:支持反擊和炮擊;網絡攻擊的目標
光學和SAR成像 近乎實時的情報和監測:對烏克蘭及周邊地區的大規模態勢感知;眾籌衛星支持軍事;媒體中顯示戰爭恐怖的公共信息;歸屬和指控的證據
國際合作 俄羅斯退出國際合作;衛星發射能力下降;合作精神減弱;重點轉向支持國家/地區主權的活動;中俄合作開發PNT系統

私人公司

私營公司的作用,以及他們提供的服務和設備,從戰爭開始就至關重要。私人行為者的作用可以通過一些關鍵行為者和他們對俄烏戰爭的影響來證明。

SpaceX公司提供了Starlink終端和衛星容量,以支持烏克蘭開展的行動。Starlink已被用于提供連接,以支持反擊或炮擊,并實現從任何地點的縮放通話。這種影響是巨大的,特別是在民用連接、指揮和控制以及情報和態勢感知領域。Starlink連接已被用于監測和協調無人駕駛飛行器,從無人機發送視頻流,并實現無人機的打擊。SpaceX在衛星發射業務中也是一個重要的商業參與者。俄羅斯過去曾發射過許多西方衛星,但由于戰爭,這種活動突然停止。這增加了SpaceX的主導地位,現在它甚至為Starlink在互聯網業務中的競爭對手,如OneWeb,提供發射服務。

Maxar公司正在運營分辨率非常高的衛星。戰爭期間,Maxar和其他商業運營商,如Planet Labs和Pléiades Neo,提供了覆蓋俄羅斯車隊、部隊和機場活動的高質量圖像,這些圖像被新聞界廣泛使用。這些信息在為軍事計劃和公眾對戰爭的看法提供信息方面發揮了關鍵作用。從戰爭一開始,所提供的情報就被用來獲取烏克蘭及其周邊地區的大規模態勢感知數據。圖像顯示了該國境內和附近地區的部隊和車輛的移動情況,并證實了飛機和基礎設施的損壞。使用該數據的一個例子是,首先揭示了6月20日在白俄羅斯靠近烏克蘭邊境的Zjabrovka機場的軍事裝備的堆積,隨后確認了8月10日爆炸對裝備造成的損害。

ICEYE允許烏克蘭武裝部隊以高重訪頻率接收關鍵地點的雷達衛星圖像。與Maxar光學數據不同,合成孔徑雷達(SAR)技術允許透過云層和在夜間成像,為獲得態勢感知數據提供了新的機會。一顆ICEYE衛星是由烏克蘭私人募集的資金購買的。最近有報道說,它在運行的頭兩天檢測到了60多個單位的敵方軍事裝備。因此,俄羅斯軍隊損失的裝甲車價值超過了整個眾籌衛星項目的成本。

烏克蘭的航天工業源遠流長,戰前處于活躍階段,建立了一個不斷增長的私營產業。然而,由于俄羅斯的入侵,它已經被拋入了懷疑之中。許多在初創企業工作的專業人士已經成為士兵。國家空間專業人員希望烏克蘭能夠重新評估空間優先事項,關注新空間時代的安全和技術,隨著私營公司的強勢崛起和小型衛星的使用,并拋棄蘇聯的殘余。然后,一個新的烏克蘭航天工業可以成為烏克蘭安全的基礎,從長遠來看,甚至支持其盟友的空間能力發展。烏克蘭太空專業人士表示,來自埃隆-馬斯克等大人物的公開支持,已經提振了烏克蘭的士氣,并通過指出前進的方向影響了許多組織和政府領導人。如果航天業的領導人與烏克蘭站在一起,這將為在經濟上孤立俄羅斯而努力。

無人機技術相關行為者

無人機在戰爭中發揮了明顯而重要的作用,比迄今為止的任何重大沖突都要大。雙方都使用了數千種不同的空中平臺,包括軍用無人機和小型現成的無人機。像土耳其的Bayraktar這樣的軍用無人機被用于情報行動,以確定敵人的目標,并引導炮火向他們開火。它們在擊沉 "莫斯科 "號軍艦中發揮了作用。小型、廉價的無人機被用來作為神風特攻隊的炸彈,但也被用來發現目標和引導攻擊。作為積極使用無人機的結果,反無人機技術,如用于跟蹤的雷達系統,以及使導航能力失效的定向電磁脈沖,也越來越多地被作為行動的一部分使用。

無人機的使用將許多行為者與戰爭聯系起來。據推測,在西方制裁之后,俄羅斯從伊朗和白俄羅斯以及通過黑市渠道獲得了無人機,而無人機制造商大疆也暫停了在俄羅斯和烏克蘭的商業活動。同時,烏克蘭部署了由普通公民捐贈的業余和商用無人機。

信息領域促進空間的行為者

在與空間有關的信息領域,有影響力的個人的作用是顯而易見的。SpaceX創始人Elon Musk發表了強烈的,甚至是挑釁性的聲明,以獲得對烏克蘭的支持,但也矛盾地強調了由于資金問題,衛星服務可能中斷。在光譜的另一端是時任俄羅斯航天局局長德米特里-羅戈津試圖進行親俄和反烏克蘭的宣傳,并威脅要退出國際空間站合作。法律和道德方面一直是俄羅斯信息活動的一部分(宣布商業衛星為戰爭目標,并指責烏克蘭和西方違反《外層空間條約》)。

信息運動的影響很難評估,但盡管俄羅斯有相反的意圖和嘗試,對信息領域的利用最終使烏克蘭的道路變得更加平坦,因為它使戰爭變得明顯,并使其處于公眾的視野中。烏克蘭從西方國家獲得了驚人的堅實支持。例如,歐盟和五角大樓已經考慮為烏克蘭的星聯衛星網絡提供資金。

討論與結論

自俄烏戰爭開始以來,空間一直發揮著重要作用,軍事力量有效地利用歐洲和美國服務供應商的商業能力來實現其行動。這場戰爭表明,空間領域在戰爭升級之前,即在門檻以下的階段,以及在戰爭期間,都是至關重要的。它在戰爭結束后也是必要的,例如,在評估地區的損害和安全以及為法律歸屬提供證據時。空間領域影響到其他混合威脅領域,既為惡意行為者提供工具,又為建立抵御威脅的復原力提供資源。空間技術和空間環境容易受到混合威脅的影響,特別是在網絡領域,對衛星通信系統的網絡攻擊不僅在烏克蘭而且在其他地區產生了重大影響。

戰爭中的空間領域已經影響到烏克蘭的軍事行動和平民社會的安全。另一方面,民間行為者在天基能力的幫助下,被賦予了支持戰爭的能力。信息領域已經利用天基能力來說明和敘述戰爭。這場戰爭在許多國家產生了巨大的影響,消除了軍事技術的污名。在戰爭之前,有大量的組織根本不想把自己與軍事領域聯系起來,而現在許多商業公司正自豪地介紹他們產品的雙重用途能力。這可能會導致歐盟和北約國家對軍事能力發展的支持增加,因為這些能力被認為可以更廣泛地增強社會的復原力。在戰略防御能力發展項目的工業合作中納入兩用技術的興趣可能會增加。這也將提出政府保護商業資產的意愿和能力問題。

從空間領域的角度來看,沖突的主要行為者包括全球行為者,如美國、俄羅斯、北約和歐盟,但也包括前所未有地增加的私營公司及其空間資產的作用。特別是SpaceX公司,作為通信技術和發射服務的提供者,其全球作用已經增加。在Starlink的幫助下,眾包態勢感知,以及眾籌作為資助空間能力的工具,已經表明個人作為安全行為者在現代社會中的作用越來越大。如果有效利用,這一發展將促進全面安全,并在未來建立復原力。然而,這種類型的授權可能是雙向的,這意味著個人在部署空間能力的惡意活動中的作用可能在未來增長,適當地改變和增加混合威脅的潛力。然而,盡管安全行為者的角色模糊不清,政府和當局的法律責任不會消失。個人可以為安全作出貢獻,但他們不能被視為對確保安全負責,因為只有當局擁有法律規定的管轄權。

戰爭將通過合作形式和環境的變化、空間能力的重新優先化、商業技術和服務的增加以及更多的用途,對空間領域的發展產生長期影響。同時,戰爭增加了區域對戰略自主的努力,例如歐洲實施自己的衛星通信星座的目標。

基于這項研究的初步影響可以歸納為四個關鍵的啟示:

1.眾包態勢感知的力量已經在戰爭中得到了體現。然而,部分不清楚如何驗證眾包數據并防止在決策中納入故意的惡意數據。空間技術在這里可以有相關的用途,例如,用衛星成像來驗證報告的事件。公民在支持行動中的作用越來越大,引起了關于當局的責任和作用的法律問題。

2.俄烏戰爭為基于衛星的技術鋪平了道路,使之成為軍隊和平民容易獲得的日常工具。這不僅可以促進對軍事領域的混合威脅的復原力,也可以促進心理上的復原力。在危機和戰爭情況下做出貢獻的能力,以及做一些具體和有形的事情,將促進和維持個人的心理復原力和防御意愿。復原力也可以通過信息領域得到支持:在危機中,人們會要求獲得關于局勢的最新信息。通過衛星檢索的數據將有助于滿足這一需求。它也可以有利于打擊混合威脅的信息運動,以及人們對信息領域的影響活動的復原力。

3.在軍事行動中使用商業空間資產正在模糊戰爭中軍事和民事行為者之間的界限。烏克蘭的人們已經集資購買了一顆衛星來支持行動,這顆衛星已經成功地用于軍事行動。商業行為者甚至不一定知道他們的技術是雙重用途的。因此,參與戰爭的決定無意中被外包給了使用商業行為體技術的人。這在道德上可能是有問題的,因為一些行為者希望不參與戰爭或選擇自己的一方,并拒絕敵對行為者獲得其資產。評估空間領域的威脅--即構成威脅的能力和行為者,以及評估潛在影響--變得越來越困難。

4.衛星技術的發展及其使用也促進了可用于軍事目的的新能力組合。無人機已經對烏克蘭的行動產生了重大影響,并將在未來其他地方的沖突中發揮突出作用。因此,各國應發展其在無人機和反無人機技術方面的能力。當無人機配備了衛星連接,它們可以在非常大的區域內有效使用,這一發展也得到了歐洲航天局的支持。顯然,空軍將需要為無人機行動做更多的準備。無人機的作用在門檻以下的階段也可能會增長。除了軍事方面,無人機可能對其他安全機構和社會的重要功能,如關鍵基礎設施,構成越來越嚴重的威脅。

付費5元查看完整內容

與"半人馬作戰(centaur warfighting)"概念以及自主武器系統將取代人類作戰人員的想法不同,本文提出,未來的有人-無人協同作戰更可能是“牛頭人”,即在人工智能控制、監督或指揮下的人類團隊。它研究了未來部隊的可能組成,并促使人們對牛頭人作戰引起的倫理問題進行必要的對話。

前言

人類將在未來的戰爭中扮演什么角色?對這個問題的一個有影響力的答案是,他們將與先進的機器合作,利用雙方的獨特能力。保羅-沙爾創造了 "半人馬作戰 "一詞來描述有人-無人組隊的使用,他認為相對于使用自主武器系統(AWS),它們擁有一些關鍵的優勢。通過讓人類控制、監督或指揮多個無人系統,人類的判斷力和認知的靈活性可以與機器的反應速度、傳感器、力量和功率相結合,從而勝過人類和機器單獨作戰。

半人馬是一種神話中的生物,其頭部和上身是人,下身是馬。當被用來描述有人-無人團隊時,半人馬的形象促進了人類將領導團隊的想法。我們概述了對有人-無人團隊性質的另一種看法,這種看法更有可能在未來戰爭的關鍵作戰領域實現。我們懷疑人工智能(AI)將指導多個人類的活動,而不是人類指揮多個機器人。未來的機器人士兵更有可能是牛頭人--一種具有人的身體和牛的頭的神話生物,而不是半人馬:他們將有一個可怕的頭而不是一個可怕的身體。

牛頭人是思考人類參與戰爭未來的一個更好的形象,其原因與技術動態和道德要求有關。可以說,人工智能在執行與戰爭最相關的認知任務方面的能力已經超過了機器人在執行與戰爭最相關的人體功能方面的能力。此外,人工智能應用方面的進展比機器人應用方面的進展出現得更快。因此,在可預見的未來,在許多領域,當人類扮演執行角色時,用機器代替人類將比人類扮演涉及操縱物體或在雜亂環境中移動的角色更有說服力。事實上,將人類置于機器的控制、監督或指揮之下往往是一種道德上的需要。隨著新技術的引入,軍事行動的節奏加快,將戰場指揮的一些功能轉移給人工智能,將有助于防止友軍交火事件,并提高人類作戰人員的生存能力。

鑒于人工智能的發展速度,迫切需要考慮牛頭人作戰的影響,這既是為了未來作戰部隊的有效性,也是為了將越來越多地在機器的指導下進行戰爭的人類。本文討論了推動我們走向由牛頭人作戰的未來因素,并開始了關于牛頭人作戰的倫理影響的對話。

半人馬作戰

沙爾在關于使用自主武器的影響和倫理的辯論中提出了半人馬作戰的想法。沙爾承認,完全自主的武器系統可能在未來的戰爭中發揮作用,但他認為,在大多數情況下,人類和機器的團隊在單獨運作時將勝過兩者。機器人和人工智能程序在整合大量數據、快速反應和實施精確打擊方面表現出色。但目前,在涉及到對作戰至關重要的其他角色時,它們的能力不如人類。特別是,他認為,人工智能仍然難以在復雜和意外的情況下做出正確的決定,特別是在解決戰爭中經常出現的道德困境方面,行使必要的道德判斷。由于這個原因,據沙爾說,在許多應用中,人類和機器人(或人工智能)組成的團隊一起工作,在戰斗和其他軍事行動中,將勝過自主系統和人類的單獨戰斗。

半人馬作戰的想法具有很大的影響力,這體現在人們對現有武器系統運作的理解上,也體現在如何設計和使用機器人和人工智能來進行未來的戰爭的模式上。

沙爾本人用半人馬的形象來分析美國反火箭、火炮和迫擊炮系統(C-RAM)的運作,該系統自2010年以來一直在運行。該系統由一門雷達和計算機控制的高速加特林炮組成。它是高度自動化的,能夠在沒有人類監督的情況下攻擊和摧毀目標。然而,目前的理論要求有一個人在回路中(意味著系統不能在沒有人類操作員輸入的情況下運行),以授權參與特定目標,以減少自相殘殺的風險。Scharre將這種安排作為半人馬作戰的典范,應盡可能地加以模仿。他還指出,類似的系統只包括人類的 "循環"(意味著人類主管可以選擇干預以改變系統的運作),并建議這種安排可能會變得越來越普遍,甚至是必要的,因為在更多的角色中使用自主系統而導致行動節奏加快。

重要的是,半人馬座作戰可以作為目前正在開發的使用機器人和自主系統的未來行動模式。美國國防部無人系統綜合路線圖2017-2042聲稱,"未來的軍事行動將需要無人系統和人類之間的協作",并強調了 "人機合作 "的重要性。人機協作(MUM-T)是美國陸軍無人機系統2010-2035年路線圖的一個關鍵目標,在美國海軍的無人機運動框架中也占有重要地位。雖然有人-無人團隊合作與團隊中的機器和人類之間的一系列關系兼容,但文件中提供的背景和例子清楚地表明,這些有人-無人團隊被想象成半人馬。此外,無人系統的旗艦例子包括美國陸軍的機器人戰車-輕型,美國海軍陸戰隊的遠程操作地面部隊的遠征(ROGUE)-消防平臺,美國空軍的SkyBorg項目,以及澳大利亞皇家空軍的Loyal Wingman項目(最近更名為MQ-28A Ghost Bat)。這些例子幾乎都被宣傳為提高人類作戰人員的效率--也就是說,促進半人馬作戰。

人類在負責?

半人馬的形象意味著,當人類與機器人或人工智能合作時,人類將負責團隊的工作。準確地說,他們將如何負責仍然是開放的。Scharre通過使用人類在循環中和在循環中的例子來介紹半人馬作戰的想法。Scharre似乎允許半人馬作戰與人類只發揮較遠的監督作用的情況兼容,盡管據推測,機器將需要保持在 "有意義的人類控制 "之下,以便在這種情況下談論人類監督。Scharre對 "有人-無人小組 "中人類負責的含義做了慷慨的解釋。即使在這種情況下,我們相信,與Scharre相反,許多人類和機器的合作將被更準確地描述為牛頭人(無人駕駛的團隊)而不是半人馬(有人駕駛的-無人駕駛的團隊),因為團隊中的機器將有效地負責。

關鍵技術動態

人工智能發展的最初時期的特點是認為關鍵的挑戰是創造出能夠完成認知任務的機器--例如下棋、完成數學運算和處理大型數據集--我們覺得很難,并認為是智力成就的巔峰。例如,臭名昭著的是,被廣泛認為是現代人工智能研究起點的達特茅斯夏季研討會的原始撥款申請提出:將嘗試尋找如何使機器使用語言,形成抽象和概念,解決現在留給人類的各種問題,并改進自己。我們認為,如果一個精心挑選的科學家小組在一個夏天共同研究這些問題,就可以在其中一個或多個問題上取得重大進展。

然而,很快就可以看出,真正的挑戰在于其他方面。我們認為很容易的任務(而且我們認為這些任務不需要智力,因為兒童和動物與成人一樣能很好地完成)對機器來說證明是困難的。現在,感知、運動和操縱被認為是人工智能和機器人學的難點。盡管過去十年來機器視覺取得了重大進展,但機器在非結構化環境中定位和識別物體的能力仍然有限,而靈巧的操縱仍然是一個關鍵的挑戰。現實世界操作條件下的魯棒性對機器人系統來說也是一個挑戰,能源要求也是如此。在當前,令人震驚的是,人工智能研究的進展比機器人研究快得多。一般來說,人工智能的腦袋仍然比機器人的身體好。正如計算機科學家唐納德-克努斯(Donald Knuth)所觀察到的,"到目前為止,人工智能基本上已經成功地完成了所有需要'思考'的事情,但卻未能完成人和動物'不需要思考'的大部分事情--這一點,不知為何,要難得多。" 鑒于體現在與物理世界的接觸中所涉及的挑戰程度,在可預見的未來,這種情況可能仍然存在。

人工智能和機器人技術的相對優勢在許多民事應用中是顯而易見的。今天,當人類和智能機器在工業領域的團隊中一起工作時,機器往往執行腦力勞動,而人類則從事體力勞動。

也許牛頭人最突出的民用例子是亞馬遜的履行中心。這些中心的工人是由機器指揮和監督的。復雜的算法決定了哪些貨物必須被運送,在哪里,以及如何運送,但人類必須收集和(有時)包裝它們。機器通過手持設備告訴工人要收集什么,從哪里收集。因為倉庫使用算法包裝系統,它存儲貨物以盡量減少收集貨物所需的時間,而不是在一個固定的位置,如果沒有機器,人類就無法找到他們被要求收集的產品。越來越多的機器人化的叉車、托盤或存儲單元將產品箱帶到桌子上,人類在那里提升和包裝貨物或將它們放入另一臺機器:人類因此淪為了機器的手。正如諾姆-謝伯在《紐約時報》上指出的,"[從工作中]不斷剝離人類的判斷力是自動化最普遍的后果之一--與其說是用機器人取代人,不如說是讓人變得像機器人"。

另一個平民牛頭人的例子是由長途卡車運輸的演變提供的。卡車司機越來越多地收集和運送物品,并遵循算法物流系統分配給他們的路線。將數據傳回給這些算法的傳感器監測司機的速度、路線和駕駛表現。司機甚至可能因為各種違規行為而被自動處罰。自主系統不是由人類選擇自主車輛行駛的目的地,而是指示人類何時、何地、如何行駛。這些人機團隊的發展和繁榮,主要是因為它們在技術上比其他選擇(如人類選擇路線或機器駕駛)更可行,但也因為它們減少了道路死亡。

在討論未來戰爭中的有人和無人合作時,人工智能和機器人的性能差異一直沒有被充分認識到,因為無人系統在軍事應用中的成功案例都是在空中領域操作(或攻擊目標)的機器。與感知、導航和運動有關的問題對無人駕駛航空器來說是相對容易解決的,而與操縱和靈巧操作有關的問題則不會出現。如果考慮到無人系統在陸地戰爭中的核心任務的表現,情況就會非常不同。

城市環境、森林、泥地、雪地、冰地和沙地對機器人來說都極具挑戰性。在戰時安全地通過這些地形需要不斷地判斷物體和表面如何相互作用,選擇最佳路線,其他友方和敵方單位的目標,以及其他代理的可用信息。雖然人類是憑直覺做出這些判斷,而且往往是無意識的,但這種身體和感知的知識很難在算法中呈現。物理環境的非結構化和難處理的性質給機器人帶來了深刻的挑戰,這一點在涉及到在陸戰中發揮關鍵作用的其他活動時更加明顯。例如,運輸和安放軍械、設置防御工事或清理建筑物都需要人類。不過,機器可以通過整合多種來源的信息(如無人機、衛星、安裝在武器或頭盔上的攝像機的視頻資料以及信號情報),越來越多地(近乎)實時識別敵方軍事目標和人員,這項任務可能超過人類的能力,但現在已經在機器的能力范圍之內。Scharre和其他人認為,機器可能很難考慮到對適用戰爭法很重要的背景線索,或作出確定適當目標所需的道德或戰略判斷。然而,在許多情況下,環境實際上會使機器作出這樣的決定是可行的。例如,在一個特定的地區或交戰中,所有的敵方潛艇、坦克或戰斗機都可能是合法的目標,而現有的人工智能有能力將這些系統與民用物體區分開來,這是可信的。

對于人工智能和機器人技術在海戰中的應用,也可以進行類似的觀察。許多對艦艇操作至關重要的任務將很難實現自動化或分配給機器人,因為它們依賴于人類在復雜環境中識別、移動和操縱一系列不同物體的能力。特別是,在可預見的未來,人類將需要裝載和維護武器以及維修發動機。然而,對海戰至關重要的認知任務(如確定船只的最佳路線、控制防空系統、識別目標并確定其優先次序)似乎完全在現有或未來的人工智能能力范圍之內。

將我們的注意力從天空轉移到陸戰和海戰,突出了物理環境對機器操作構成的挑戰,而我們離解決這些問題還很遠,而我們離創造能夠識別目標和為作戰人員確定優先次序的人工智能還很遠。

牛頭人作戰

牛頭人團隊在平民生活中的出現表明,牛頭人在未來的軍事行動中也將發揮一定的作用。至少,軍事倉庫和后勤可能會效仿民用模式,創建牛頭人團隊來執行關鍵職能。

談到作戰行動,牛頭人的合理用例比比皆是。

盡管最近在一些功能的自動化方面取得了進展,但拖曳或駕駛、放置和裝載軍械需要多個人類。不過,識別、跟蹤和確定目標的優先次序可以由機器完成。在所謂的以網絡為中心的戰爭時代,進入敵人的 "觀察-東方-決定-行動 "循環的最佳方式是讓計算機分配目標,甚至是瞄準和發射武器。事實上,據報道,在目前與俄羅斯的戰爭中,烏克蘭軍方已經朝著這個方向采取了重大步驟。當人類拖拽和裝載的武器被瞄準和發射到機器選擇的目標時,我們就有了牛頭人作戰。

新興技術也有可能將步兵小隊變成牛頭人。美國陸軍的綜合視覺增強系統將利用基于微軟HoloLens的混合現實頭盔為作戰人員提供戰術數據。美國陸軍最近的一份 "信息請求 "提供了線索,說明其開發者預計人工智能將如何被用來擴展該系統的能力。這份文件將 "人工智能目標檢測算法"、"機器輔助任務規劃"、"人工智能戰術預測 "和 "人工智能數字戰場助理 "列為感興趣的領域。雖然要求的措辭暗示人工智能將作為助理或顧問,但有充分的理由相信,人工智能不會長期局限于這些角色。

對人機交互(HCI)的研究表明,人們傾向于過度信任人工智能,尤其是當人工智能已經證明自己普遍可靠時--這種現象被稱為自動化偏見。如果目標檢測算法或戰場助手表明某個特定的物體或人是一種威脅,那么作戰人員不太可能否定人工智能,特別是考慮到綜合視覺增強系統的前提是它有助于減少戰爭的迷霧。此外,如果人工智能可以利用來自多個平臺和傳感器的信息來制定威脅評估或任務目標,考慮到機器更好的有利條件,違背其建議行事可能是錯誤的。一旦人工智能的性能達到一定水平,主張自己的判斷高于人工智能的判斷的作戰人員將把自己和周圍人的生命置于危險之中;他們還將減損團隊的作戰效率。最終,人工智能的建議將在心理上,甚至在規范和制度上具有命令的力量,參與小單位戰斗的作戰人員將把大部分時間用于實現人工智能為他們設定的目標。

正如托馬斯-亞當斯在20多年前所認為的那樣,隨著人工智能的影響加速了戰斗的節奏,減少了人類的有效決策時間,軍隊除了將許多決策外包給人工智能之外,可能沒有其他選擇。不過,在可預見的未來,戰爭的成功起訴將涉及人類處理目前機器處理不好的平凡的物理和物質挑戰。如果在未來,人工智能在一個有人-無人(或者更準確地說,無人-有人)的團隊中通過選擇目標和設定目標來完成認知工作,而人類在人工智能的指導下辛勤工作,我們將有一個牛頭人而不是半人馬。亞當斯確定的同樣的動態表明,牛頭人將在未來的戰斗中戰勝半人馬,為軍隊采用牛頭人作戰創造了強大的動力。

最終的牛頭人作戰部隊將由一隊人類和機器人組成,由相當于將軍的AI指揮。雖然還不可行,但從長遠來看,這個想法沒有表面上那么牽強。人工智能往往擅長游戲,包括戰爭游戲,因為人工智能可以從一個游戲的多次迭代的經驗中學習。如果戰爭只是在屏幕上移動單位或根據一套復雜的規則使分數最大化,機器在指揮軍事行動方面已經超過了人類。他們還沒有做到這一點的原因是,在軍事模擬中準確表現不同武器系統和軍事單位的能力,以及行動所處的地形(包括人類地形)的承受力方面存在著困難。如果軍事模擬的技術得到改進,使真實世界的行動能夠在戰爭游戲中得到準確體現,那么就會為開發復雜的戰爭算法打開大門。最終,對勝利的追求可能需要將指揮權交給機器,而勝利可能由哪支部隊擁有更好的人工智能決定。

同樣值得注意的是,自動化偏見表明,目前人們認為的一些高度自動化系統是半人馬,實際上是牛頭人。如果 "在圈內 "的人不太可能反駁機器,那么有人-無人團隊就是一個牛頭人,而不是半人馬。我們懷疑Phalanx近程武器系統和反火箭、火炮和迫擊炮系統可能就是這種情況。

最后,認識到即使是所謂的 "自主 "系統也要依靠人類來裝載、修理和維護它們,這表明許多自主武器系統應該被理解為牛頭人的頭,其人類支持團隊是身體。

倫理影響

至關重要的是,軍事政策制定者和更廣泛的社會現在開始就牛頭人作戰的倫理問題進行對話,以準備或塑造未來。

牛頭人作戰有強大的倫理論據。牛頭人作戰很可能是為了響應避免自相殘殺的道德要求而出現的。更具爭議性的是,民間社會對作戰人員的義務,以及指揮官對其部隊的義務,即避免將友軍暴露在不必要的風險中,也往往會成為支持牛頭人作戰的理由。通過迅速識別和確定目標的優先次序,牛頭人將減少敵人使用武器的機會。最后,牛頭人有可能在不遠的將來擊敗半人馬,這在倫理上是很突出的;如果我們為正義事業而戰,就有強烈的倫理理由讓我們派出盡可能強大的軍事力量。

然而,牛頭人作戰也有一些令人深為不安的方面。事實上,在賦予機器超越人類的力量,以至于將它們送上戰場被殺死的時候,牛頭人作戰預示著當代關于機器和人類之間關系的辯論中正在討論的倫理問題,更普遍。

一個擔心是,機器將不會充分關心,或以正確的方式關心,或者,也許根本不關心他們所指揮的人的生命。例如,人工智能將軍可能會把人類當作炮灰,為更強大的無人駕駛系統掃清道路。在這里,重要的是要區分對機器會不必要地拿人的生命冒險的擔憂和對它們拿人的生命冒險的擔憂。前者實際上是對軍事人工智能有效性的懷疑,最終應該由牛頭人贏得戰斗和減少(人類)作戰人員的風險的證據來緩解。

人的生命不應該在機器的決定中受到威脅,這種擔憂也出現在關于使用AWS的倫理的辯論中,可以用伊曼紐爾-康德的哲學來表達。康德堅持認為,人類應該始終被視為 "目的",而不是僅僅作為手段。與機器不同,人類有自由意志。康德認為,我們必須尊重對方的這種能力,避免將他人僅僅作為工具來推進我們的目的。我們很難看到機器如何表現出這樣的尊重,也很容易擔心牛頭人作戰會將人類淪為單純的手段。

這種反對意見還有一個共和派的版本。根據這一傳統,自由與法律是兼容的,而法律是追蹤公民利益的審議過程的結果。不過,如果個人只能在強權的支配下按自己的意愿行事,那么他們就會被支配,在這個程度上,就不是自由。公民的平等自由要求他們不受制于主權者或其他公民的任意權力。人們很容易認為,機器行使權力總是任意的,因為機器不能參與構成商議的推理實踐。

這兩種反對意見都是有道理的。然而,要以一種不會招致回答的方式來表述這些反對意見是很困難的,因為當人類命令其他人類上戰場時也存在類似的情況。當士兵入伍時,他們同意被用來為更大的目的服務,而且可以說,他們受制于上級的任意權力。雖然人們希望指揮官只以他們可以向下屬證明其利益的方式來對待他們手下的人,但軍事上的需要有時可能會有不同的要求。因此,機器指揮的倫理看起來與更普遍的指揮倫理沒有什么區別。

然而,很難避免一種感覺,即授予機器權力讓人類去送死是有問題的。人類的價值是機器無法比擬的。將人類置于機器的指揮之下,似乎表達了這樣一種想法:機器比人類更重要,或者至少比人類更好。不出所料,這種直覺也出現在關于使用自主武器系統的倫理的辯論中,它在其中發揮了重要作用。

另一個問題是自主武器系統和牛頭人都會出現的,它涉及到機器所做決定的責任歸屬問題。當父母得知他們的孩子在被機器送上戰場后被殺時,他們可能想知道應該責備誰。如果有一天,讓機器對 "它 "的行為承擔道德責任是合適的,這仍然是一個激烈的哲學辯論的話題。我們猜測,對于悲傷的父母的問題,如果不是道德問題,也將最終作為一個法律問題來解決,即把對人工智能的決定和牛頭人的行動的后果的責任分配給更高層次的人類。

這里指出的牛頭人作戰引起的倫理問題足以令人不安,而且隨著牛頭人隊伍的使用推廣,無疑會出現更多問題。然而,在軍事背景下,牛頭人的理由--他們將贏得戰斗并拯救友軍的生命--是非常強大的。出于這個原因,我們的分析表明,正如新技術通常的情況一樣,對牛頭人作戰進行全面考慮的倫理評估需要解決康德和后果主義直覺之間的沖突。

像我們用來理解世界的許多區別一樣,半人馬和牛頭人之間的對比無疑是過度的。在現實中,當人類和機器一起工作時,他們之間會有一系列的關系。即使在特定的團隊中,一些任務將更多地委托給人類,而另一些則委托給機器人或AI。然而,牛頭人的形象提醒我們,這種談判不會總是有利于人類。

同樣,就軍事是一個系統的系統而言,人類和機器之間的特定合作是半人馬還是牛頭人,將是分析水平的一個函數。如果我們以一種方式畫出團隊周圍的邊界,那么這個系統看起來就像一個牛頭人,如果我們以另一種方式畫出它,它就可能是一個半人馬。因此,如果人工智能戰場助手發展成為人工智能班長,人們希望人類官員能指揮他們。如果指揮國家軍隊的將軍是一個人工智能,人們就會認為國家的文職領導層會制定人工智能的戰爭目標。然而,認識到在某些分析層面上,機器將負責,有助于我們理解不同形式的有人-無人團隊合作的優勢和局限。正如我們所論證的,當人們承認一些人類實際上是在機器的指揮下,即使這些機器反過來是在人類的指揮下,倫理問題也會顯得非常不同。

思考

牛頭人作戰將在關鍵的作戰領域得到發展,因為無人駕駛團隊的表現將超過有人-無人駕駛團隊或單獨操作的人類或自主武器系統。在這種新興的有人-無人團隊作戰模式中,人類和機器之間的關系的性質提出了深刻的倫理問題。我們還預計,牛頭人作戰的發展對那些畢生都在磨練人類判斷能力的人來說,在個人和體制上都是一種挑戰,而這種能力目前在作戰中發揮著核心作用。盡管牛頭人帶來了倫理和制度上的挑戰,但那些負責贏得戰爭的人應該抵制牛頭人作戰的發展,這一點還不明確。

如果軍隊或社會確實決定將作戰人員置于機器的控制、監督或指揮之下是一個太遠的步驟,我們認為有三項任務--一項是技術,一項是倫理,一項是政治--需要作為緊急事項加以面對。

首先,必須投入大量的財政和智力資源來開發能夠在非結構化環境中長期有效運行的機器人。這項任務的一個挑戰是,在成功的同時,也要讓把戰爭中涉及的關鍵認知任務交給人工智能更有說服力。一個真正的危險是,機器人應對物理環境的不確定性和復雜性所需的軟件進步,只會進一步賦予人工智能戰略和對軍事力量行使作戰控制權。

其次,必須澄清和加強作為不將人類置于機器指揮之下的道德和政治承諾的基礎的直覺。這樣做也有可能意味著自主武器系統的開發和應用比許多軍事倫理學家和政策制定者所承認的問題更多。如果允許機器告訴人類該做什么在道德上是錯誤的,那么很難看到允許機器殺人在道德上是被允許的。

第三,國際社會必須考慮在國際法律上禁止在戰爭中或在戰爭的某些角色中使用牛頭人團隊是否可取,或者甚至是可行的。每個國家也需要考慮如果其他國家開始在戰爭中使用牛頭人團隊,它將如何應對。

這些挑戰是否能夠成功應對,或者是否應該嘗試,目前還不清楚。我們希望這次討論已經證明了直面這些問題的重要性。在人類戰士將戰場讓給牛頭人之前,我們需要知道,他們勝利的代價不會是我們的人性。

付費5元查看完整內容

在2020年代,戰略研究中的辯論越來越多地集中在新興技術對國防創新和未來戰爭特征的影響上。先進的新技術,如人工智能(AI)系統、機器人、增材制造(或3D打印)、量子計算、定向能源和其他 "顛覆性 "技術的融合,被定義在第四次工業革命(4IR)的商業保護傘下,有望為國防應用提供新的和潛在的重大機會,反過來,也有助于提高自己對潛在對手的軍事優勢。目前的許多辯論可以說是將 "下一個前沿 "技術描繪成戰爭性質和行為的 "不連續 "或 "破壞性 "軍事創新的同義詞--從 "工業時代 "走向 "信息時代的戰爭",現在越來越走向 "自動化時代的戰爭"(Raska, 2021)。例如,先進的傳感器技術,如高光譜圖像、計算攝影和緊湊型傳感器設計,旨在提高目標探測、識別和跟蹤能力,并克服傳統的視線干擾(Freitas等人,2018)。復合材料、陶瓷和具有適應性的納米材料等先進材料將使軍事裝備更輕,但對環境的抵抗力更強(Burnett等人,2018)。新興的光子技術,包括高功率激光器和光電設備,可能提供基于量子計算和量子密碼學的新水平的安全通信(IISS,2019)。

新興技術的融合--即機器人技術、人工智能和學習機、具有先進傳感器技術的模塊化平臺、新型材料和保護系統、網絡防御和模糊物理、網絡和生物領域之間界限的技術,被廣泛認為對未來戰爭的特征具有深遠影響。對于現代軍隊來說,將新型機器學習算法應用于各種問題,也有望在信息處理速度、有人/無人武器平臺和監視系統組合的自動化以及最終的指揮和控制(C2)決策方面提供前所未有的能力(Horowitz,2018;Cummings,2017)。

然而,盡管戰略背景各不相同,這些新興技術的擴散也在促使人們提出與過去40年類似的理論和政策規定性問題: 新興技術的傳播是否真的意味著戰爭的 "顛覆性 "轉變,還是僅僅是一種進化的變化?如果新興技術規定了戰爭的顛覆性變化,那么國防資源分配的必要性是什么,包括部隊結構和武器采購要求?軍事組織,包括空軍,如何利用新興技術來發揮其優勢?此外,新興技術在應對21世紀的安全威脅和挑戰方面的效果如何,這些威脅和挑戰的特點是波動性、不確定性、復雜性和模糊性?

四十年的顛覆性敘事

主要在信息技術飛躍的推動下,"顛覆性 "軍事創新敘事和辯論的軌跡被定義為信息技術驅動的軍事事務革命(IT-RMA),它至少經歷了五個階段: (1)20世紀80年代初蘇聯戰略思想家對軍事技術革命的最初概念發現,(2)20世紀90年代初美國戰略思想中的概念調整、修改和整合,(3)20世紀90年代中后期的親技術主義RMA辯論,(4)21世紀初轉向更廣泛的 "國防轉型 "及其部分經驗調查,以及(5)2005年起對顛覆性敘述的關鍵逆轉質疑(格雷,2006)。然而,自2010年代中期以來,隨著人工智能和自主系統等新技術的加速擴散,人們可以說,一個新的人工智能-RMA-或第六次RMA浪潮已經出現(Raska,2021)。

然而,回過頭來看,在過去的四十年里,IT-RMA的實施也可以說是遵循了一條明顯不具革命性或顛覆性的道路,包括對現有能力的漸進式、通常近乎連續的改進(Ross,2010)。雖然國防技術、組織和理論方面的重大、大規模和同步的軍事創新是一種罕見的現象,但軍事組織在很大程度上通過從小規模到大規模的軍事創新的持續進展,塑造了他們的戰爭行為(Goldman,1999)。雖然這個時代的許多軍事創新,如網絡中心戰的概念已經成熟,但 "顛覆性軍事變革 "即將到來的雄心勃勃的說法,幾乎總是超越了現有的技術、組織和預算能力。此外,不同的概念、技術、組織和操作創新主要集中在將數字信息技術整合到現有的常規平臺和系統中(Raska,2016)。

例如,在美國的戰略思想中,隨著伊拉克和阿富汗戰爭中的作戰挑戰和經驗,顛覆性軍事創新的說法從2005年開始逐漸減弱。更多的批評聲音指出,"顛覆性 "國防轉型的承諾沒有實現。幾乎每一項國防舉措或建議都以 "新的思維方式和新的戰斗方式 "為理由,這表明了迷失方向而不是明確的戰略(Freedman, 2006)。對國防轉型持懷疑態度的人還告誡說,通過技術解決復雜的戰略挑戰,而拋棄潛在敵人或對手的適應能力,這種邏輯是有缺陷的。簡而言之,即將到來的國防轉型的顛覆性敘述已經變成了一個模糊的想法,由預算要求和不現實的能力組合而不是實際的戰略和操作邏輯所推動(Reynolds, 2006)。

為什么AI浪潮與眾不同?

然而,新的 "AI驅動"國防創新浪潮在幾個方面與過去由信息技術主導的浪潮不同。首先,人工智能驅動的軍事創新的擴散速度要快得多,通過多個層面,特別是通過大國之間加速的地緣戰略競爭--美國、中國,以及在較小程度上俄羅斯。大國之間的戰略競爭并不新鮮;它們在歷史上根深蒂固--從公元前五世紀伯羅奔尼撒戰爭期間雅典人和斯巴達人的大戰略,到二十世紀下半葉冷戰的兩極分化。然而,新出現的戰略競爭的特點與以往戰略競爭的類比不同。在21世紀,戰略競爭的路徑和模式更加復雜多樣,反映了不同或重疊的規則下的多種競爭,其中長期的經濟相互依賴與核心戰略挑戰并存(Lee,2017)。然而,在爭奪未來霸權的競賽中,技術創新被描繪成國際影響力和國家力量的核心來源--產生經濟競爭力、政治合法性和軍事力量(Mahnken,2012)。具體來說,幾十年來,美國第一次面臨一個戰略上的同行競爭者--中國,能夠追求和實施自己的人工智能--RMA。因此,主要的問題不是AI-RMA浪潮是否會帶來戰爭的根本不連續,如果是的話,如何以及為什么?相反,它是美國的人工智能-RMA是否可以被相應的中國或俄羅斯的人工智能-RMA所抵消--或至少被削弱?換句話說,技術優勢的邊際實際上正在縮小,這實際上加速了將新技術作為軍事優勢來源的戰略必要性。

第二,與前幾十年不同的是,前幾十年是利用一些軍民兩用技術來開發主要的武器平臺和系統,而目前的人工智能浪潮在作為軍事創新來源的商業技術創新的規模和影響方面有所不同(Raska,2020)。大型軍工企業不再是技術創新的唯一驅動力;相反,具有雙重用途潛力的先進技術正在商業部門開發,然后被 "旋轉 "到軍事應用。在這種情況下,新興技術的傳播,包括增材制造(3D打印)、納米技術、空間和類似空間的能力、人工智能和無人機,并不僅僅局限于大國(Hammes,2016)。人工智能驅動的傳感器和自主武器系統的擴散也反映在一些先進的小國和中等國家的國防軌跡上,如新加坡、韓國、以色列和其他國家。這些國家現在有可能發展利基新興技術,以推進其國防能力和經濟競爭力、政治影響力以及在國際舞臺上的地位(Barsade和Horowitz,2018)。

第三,自主和人工智能支持的自主武器系統的擴散,加上新穎的作戰結構和部隊結構,對人類參與未來戰爭的方向和特點提出了挑戰--在這種情況下,算法可能會塑造人類的決策,未來的戰斗被設想為使用致命的自主武器系統(LAWS)。先進的軍隊,包括空軍,正在試驗不同的人機技術,在戰爭中依靠數據分析和自動化。這些技術正日益滲透到未來戰爭的實驗和能力發展計劃中(Jensen和Pashkewitz,2019)。例如,在美國,選定的優先研究和發展領域集中在發展人工智能系統和各種人機類型合作的自主武器--即人工智能支持的預警系統和指揮和控制網絡、空間和電子戰系統、網絡能力、致命的自主武器系統,以及其他。

這三個驅動因素--戰略競爭、雙重用途的新興技術創新以及戰爭中不斷變化的人機互動特征--的融合推動了一系列新的條件,定義了人工智能-RMA浪潮。它的擴散軌跡本質上也帶來了新的挑戰和問題,涉及戰略穩定、聯盟關系、軍備控制、道德和治理,以及最終的作戰行動(Stanley-Lockman,2021a)。例如,關于人工智能系統在使用武力方面的作用的國際規范性辯論,越來越多地關注致命性自主武器系統的擴散和國家遵守國際人道主義法原則的能力。隨著技術進步從科幻領域走向技術現實,各國對致命性自主武器系統的引入是否會違背或加強國際法律原則也有不同的看法。面對軍事人工智能應用在法律和道德方面的爭議,軍事機構越來越認識到需要解決與安全、道德和治理有關的問題,這對建立對新能力的信任、管理風險升級和振興軍備控制至關重要。然而,在國防部和軍隊將其道德努力狹隘地集中在致命性自主武器系統上,還是更廣泛地集中在人工智能系統上,這之間存在著矛盾。因此,軍事組織需要跟蹤關于人工智能和自主性的不斷變化的觀點,以及關于對2020年代及以后的戰略和作戰環境的影響的辯論(Stanley-Lockman,2021b)。

人工智能浪潮在空中力量中的應用

例如,在戰役層面,人工智能浪潮的應用可以在改變空中力量的概念中看到。現代空軍的目標是加速整合不同的人工智能相關系統和技術,如多域作戰云系統,它從各種來源收集大數據,創建一個實時的作戰畫面,基本上,自動化和加速指揮和控制(C2)過程(Robinson,2021)。例如,人工智能支持的戰斗云被設定為識別目標并將其分配給任何領域中最相關的 "射手",無論是空中、水面還是水下--一些空軍將其概念化為聯合全域指揮和控制(JADC2)。一些空軍部隊也在嘗試使用人工智能算法作為 "虛擬后座",它可以有效地控制飛機的傳感器和導航,尋找對手的目標,這樣做可以減少機組人員的工作量(Everstine,2020)。

在這種情況下,關鍵的論點是,人工智能系統的進步--廣義上是指能夠感知、推理、行動和適應的程序,包括機器學習(ML)系統--其性能隨著時間的推移不斷增加的數據交互而提高,以及深度學習(DL)系統--其中多層神經網絡從大量的數據中學習--有可能 "改變空戰行動以及構想和使用空中力量的方式" (Davis, 2021)。根據蘭德公司的一項研究(Lingel等人,2020年),目前有六類應用AI/ML的研究和開發對未來戰爭,包括空中力量有影響:

(1) 計算機視覺--圖像識別--對視覺世界中的物體進行檢測和分類,可用于處理多源情報和數據融合;

(2) 自然語言處理(NLP)--成功理解人類語音和文本識別模式的能力,包括翻譯,可用于從語音和文本中提取情報,也可用于監測友軍通信,并將相關信息引導到需要提醒的個人或單位;

(3) 專家系統或基于規則的系統--收集大量的數據,以推薦特定的行動,實現作戰和戰術目標;

(4) 規劃系統--利用數據解決調度和資源分配問題,可以協調選擇空中、太空和網絡資產來對付目標,并產生建議的分時段行動;

(5) 機器學習系統--從與環境的數據互動中獲取知識,可與其他類別的人工智能結合使用,即在沒有專家知識或最佳戰術、技術和程序(TTPs)未知時,使C2系統能夠學習如何執行任務;

(6) 機器人和自主系統--結合所有或選定的前述類別的人工智能/ML方法,使無人系統與他們的環境互動;

這些與人工智能相關的類別幾乎適用于空中力量的每一個方面,可能會形成新的自動化戰爭形式: 從C2決策支持和規劃,人工智能/ML可以在日益緊張的時間內提供建議的選項或建議;通過數據挖掘能力提供ISR支持;后勤和預測性維護,以確保部隊的安全和平臺和單位的可用性;培訓和模擬; 網絡空間行動,以探測和反擊先進的網絡攻擊;機器人和自主系統,如無人機,被用于各種任務,從ISR到尖端任務,如壓制敵人的防空和協作作戰,在空中和陸地打擊行動中整合不同的有人和無人平臺。換句話說,這里的論點是,人工智能系統將越來越有能力在約翰-博伊德的觀察-定向-決定-行動(OODA)循環的每一步中簡化C2和決策過程:收集、處理和將數據轉化為統一的態勢感知視圖,同時提供建議行動方案的選項,并最終幫助人類采取行動(Fawkes和Menzel,2018)。

從國防到軍事創新:持續的挑戰

然而,將人工智能系統整合到軍事平臺、系統和組織中,將計算機從工具轉變為解決問題的 "思考 "機器,將繼續提出一系列復雜的技術、組織和操作挑戰(Raska等人,2021)。這些可能包括開發算法,使這些系統能夠更好地適應環境的變化,從意料之外的戰術中學習并在戰場上應用。這也會要求為這些會思考的機器設計道德準則和保障措施。另一個挑戰是,技術進步,特別是軍事系統的技術進步,是一個持續的、動態的過程;突破總是在發生,它們對軍事效力和比較優勢的影響可能是巨大的,在其新生階段很難預測。此外,這種技術和由此產生的能力很少在地緣政治線上均勻地傳播。

然而,最重要的是,關鍵問題是我們能在多大程度上信任人工智能系統,特別是在安全關鍵系統領域?正如Missy Cummings所警告的那樣,"歷史上有很多類似的操作準備的承諾是如何以昂貴的系統失敗而告終的例子,這些案例應該作為一個警示故事"(Cummings,2021)。此外,一個不斷增長的研究領域集中在如何通過生成虛假數據來欺騙人工智能系統,使其做出錯誤的預測。國家和非國家行為者都可能利用這種所謂的對抗性機器學習來欺騙對方,用不正確的數據來產生錯誤的結論,并以此來改變決策過程。對抗性機器學習對國際安全的整體戰略影響可能比技術本身更具破壞性(Knight,2019;Danks,2020)。

從戰術和戰役的角度來看,許多復雜的人工智能系統也需要聯系在一起--不僅在技術上,而且在組織和行動上。對于許多軍隊來說,這是一個持續的挑戰--他們必須能夠有效地(實時地)將人工智能支持的傳感器到射手的循環和數據流在不同的服務和平臺之間進行整合。這意味著有效地連接不同的空軍、陸軍、海軍和網絡戰斗管理系統和數據;指揮和控制、通信和網絡;ISR;電子戰;定位、導航和計時;與精確彈藥。雖然選定的人工智能/ML系統可能會減輕一些挑戰,但同樣的系統會產生另一組與確保可信人工智能有關的新問題。因此,人們可以認為,人工智能在軍事事務中的軌跡的方向和特點將取決于相應的戰略、組織和行動的敏捷性,特別是這些技術如何與當前和新興的作戰結構和部隊結構互動。

展望未來,人類在未來戰爭中的參與程度、改變傳統部隊結構和招募模式的必要性以及在哪些領域使用武力,都是受到新技術挑戰的事項。現代軍隊正在為這些問題制定他們自己的、往往是多樣化的解決方案。與過去一樣,它們的有效性將取決于與戰略的持久原則相關的許多因素--將現有的國防資源 "轉化 "為新的軍事能力的目的、方式和手段,并在此過程中創造和保持作戰能力以應對廣泛的突發事件。成功實施的主要因素將不是技術創新本身,而是持續的資金、組織專長(即規模和有效的研發基地,包括軍事和商業)以及實施國防創新的機構靈活性的綜合效應(張,2021)。這意味著廣泛擁有能夠提供創新解決方案的人員、流程和系統,同時保持現有的核心能力,在日益復雜的戰略環境中提供可行的政策選擇。

付費5元查看完整內容

圖4. 人工智能對目標定位的增強:人工智能可以通過搜索目標并在發現后發出警報來增強動態目標定位周期。

開發和使用新的軍事技術是一個軍事專業人員工作的一部分。事實上,軍事歷史在很大程度上是一個技術革新的故事,士兵需要學習如何操作新系統。因此,關于整合人工智能的很多東西并不新鮮。就像坦克、飛機甚至弩一樣,隨著時間的推移,士兵們學會了使用和運用技術,工業界學會了以足夠的數量和質量生產技術,高級領導人學會了運用技術來實現戰略效果。如前所述,人工智能技術與它們的顛覆性“前輩”之間的區別在于,前者有能力改善廣泛的軍事武器、系統和應用。由于這種潛在的普遍性,幾乎所有的士兵都必須在某種程度上變得熟練,才能有效地和道德地運用AI技術。隨著這項技術在應用上的擴展,戰爭將像管理暴力一樣管理數據。

這種普遍性也提出了關于人類發展和人才管理的問題。盡管培訓計劃最終會培養出更多的知識型士兵,人事系統也會提高管理士兵的能力,但軍警人員能夠獲得知識和技能的限制仍然存在,特別是在作戰層面。盡管討論的目的不是要建立嚴格的指導方針,但討論確定了士兵需要獲得的許多知識。例如,士兵將需要知道如何策劃和培訓數據庫,而該數據庫對他們正在執行的任務有著重要作用。這樣做需要確保數據的準確、完整、一致和及時。使用這些數據需要熟練應用推薦模型卡中描述的條件,而熟練的操作有助于確保算法以有效和道德的方式執行。

當然,信任不能僅靠政策和程序來保證。指揮官、參謀員和操作員需要知道他們被信任做什么,以及他們信任系統做什么。指揮官、參謀員和操作員信任人工智能系統來識別合法目標,并避免識別非法目標。參與這一過程的人必須在使用這些信息時,既需要擊敗敵人,又必須避免友軍和非戰斗人員的傷亡。要找到這種平衡,就需要判斷人應該承擔多大的風險。

只要參與流程的人類能夠與系統進行有效的互動,由人工智能賦能的系統就能促進找到這種平衡。在將人類控制整合到機器流程中時,人們經常被迫在控制和速度之間做出選擇:強加的人類控制越多,系統的運行速度就越慢。但本研究發現這種兩難的局面是錯誤的。盡管在某些情況下,在人的控制和速度之間進行平衡可能是必要的,但如果系統要最佳地運作,人的輸入是必要的。

實現最佳性能首先要求指揮官確保參謀和操作人員了解模型能力,理解數據質量的重要性,以及洞悉模型在作戰環境中的表現。盡管它可能不會使系統更加精確或準確,但實現這些任務可使系統能夠更好地對輸出進行概率分配。第二,指揮官需要確定對任務、友軍戰斗人員和敵方非戰斗人員的風險有多大才合適。這一決定很復雜,其中關鍵任務可能是需要容忍更多的友軍和非戰斗人員傷亡。同樣,如果非戰斗人員的密度較低,即使任務不那么緊急,也可以容忍較高的風險。尋找這種平衡將是人類的工作。

但在前面描述的模糊邏輯控制器的幫助下,指揮官可以更好地確定什么時候可以信任一個人工智能系統在沒有人類監督的情況下執行一些目標定位步驟。此外,可以通過構建交互的邏輯,以找到多種不同的人機互動配置,確保系統的最佳使用,同時避免不必要的傷害。在LSCO期間,讓指揮官在需要時選擇智能和負責任地加快目標定位過程將是至關重要的,本報告中提出的設計實現了這一目標。這一成就在未來尤其重要,因為為了保護部隊并實現任務目標,指揮官將面臨大量時間敏感目標,及面臨承擔更多風險的操作條件。

在培養具有正確技能的足夠數量士兵以充分利用人工智能技術方面,仍有大量的工作。目前的人才管理計劃尚未達到管理這一挑戰的要求,盡管多個有前途的計劃準備最終滿足需求。然而,在大多數情況下,這些計劃都是為了滿足機構層面的要求,在機構層面上做出全軍采買人工智能和相關技術的決策。但是,這些技能將如何滲透到作戰陸軍,尚不清楚。

盡管人工智能在目標定位中的使用并不違反當前的戰爭法,但它確實引起了一些道德倫理問題。在所討論的目標定位系統背景下,這些倫理問題中最主要的是問責制差距和自動化偏見。第一個問題對于回答核心問題至關重要,“指揮官在什么基礎上可以信任人工智能系統,從而使指揮官可以對這些系統的使用負責?”自動化偏見和數據衛生與問責制差距有關,因為當這些問題存在時,它們會破壞指揮官可能希望實施的有意義的人類控制措施。指揮官可以通過以下方式縮小問責差距:首先,確保人員受到適當的教育、技能和培訓,以整理相關數據;其次,確保指揮官允許的風險,準確地反映完成任務與保護友軍士兵和非戰斗人員之間的平衡需求。指揮官還可以通過在機器需要更多監督時向參與該過程的人類發出信號來減少自動化偏見的機會及其潛在影響。

作為一個專業人員,不僅僅意味著要提供服務,還要在出問題時承擔責任。專業人員還必須了解各種利益相關者,包括公眾和政府及私營部門實體,如何與本行業互動和競爭。鑒于這些技術的潛力,軍事專業人員必須首先學會在技術及其應用的發展中管理預期。由于這種演變影響到專業工作的特點,軍事專業人員還必須注意專業以外的人如何重視、獎勵和支持這項工作。因此,隨著美軍繼續將人工智能和數據技術整合到各種行動中,對其專業性的考驗將在于擁有專業知識的能力,以及建立能夠繼續發展、維護和認證這種專業知識的機構,這些機構既能滿足美國人民的國防需求,又能反映他們的價值觀。

付費5元查看完整內容

在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。

在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。

本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。

付費5元查看完整內容
北京阿比特科技有限公司