亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

許多研究實驗室和政府機構對開發機器人系統集群的興趣日益濃厚,這些系統有能力協調它們的行動,為執行一個共同的目標而集體工作。作為一個團體,機器人群可以執行簡單和復雜的任務,這是單個機器人無法做到的。蜂群中的每個機器人單元都可以被視為一個自主成員,根據內部規則和環境狀態做出反應。然而,正是機器人的這種自主決策能力(單獨或作為一個群體),引起了國際社會的關注。

2014年,各國政府在《聯合國特定常規武器公約》(CCW)的主持下,開始就致命性自主武器系統(LAWS)領域的新興技術進行國際討論。在這種情況下,對蜂群進行了討論--盡管是小范圍的。各個國家和民間社會行動者都對蜂群作為(致命的自主)武器進行部署表示關切。在2017年《特定常規武器公約》締約國會議期間,民間社會行為者發布了一個虛構的視頻,說明他們對蜂群的擴散以及惡意行為者可能利用蜂群對個人進行大規模致命攻擊的擔憂。

雖然不清楚各國是否也有這種擔憂,但各國至少認識到,在未來的情況下,進攻性措施不太可能由一個單一的系統組成。相反,它們將由具有互補能力的此類系統群組成。機器人群尚未投入使用,而且技術相當脆弱,但機器人群的前景是非常真實的。蜂群可用于情報、監視和偵察行動;周邊監視和保護;分布式攻擊;壓倒敵人的防空設施;部隊保護;欺騙;搜索和救援行動;反擊蜂群;以及枯燥、骯臟和危險的任務。因此,國際社會正在努力解決關于如何--如果有的話--在未來的沖突中負責任地、合法地和安全地使用機器人群的問題。

與機器人群和致命性自主武器系統有關的一個關鍵問題是圍繞著 "人機互動 "和 "人類控制 "等概念的含義和運行。正如主席在2016年《特定常規武器公約》專家會議的總結中所述,在未來的情況下,"如果致命性自主武器系統群作為武力倍增器發揮作用,如何對武力的使用保持有意義的人類控制將是不清楚的"。隨著《特定常規武器公約》致命性武器系統政府專家組進入關鍵的兩年,除其他活動外,它將審查和制定致命性武器系統領域新興技術的規范和操作框架的各個方面,了解這一領域的研究和發展方向至關重要。

本研究報告通過研究蜂群機器人技術對人機互動的影響來支持和指導這些審議工作。本報告對人類控制蜂群的各種方法進行了分析:(1)通過指令進行人機互動;(2)通過設計和使用特定的控制架構,將人機和機機互動結合起來;以及(3)通過設計和使用特定的蜂群內合作方法,實現機機互動。此外,它將人類控制的概念放在軍事決策的背景下,從而引入了一個指揮和控制的框架,在這個框架內可以進一步討論、分析和發展諸如人機互動和人類控制等概念。這項研究的結果與各種各樣的關鍵利益相關者有關,包括政策制定者、軍事組織、外交界、技術界、學術界、私營部門和民間社會組織。

現有的蜂群--在民用和軍用領域--要么正在開發,要么仍處于測試和演示階段。過去和正在進行的項目主要表明,蜂群能夠執行特定的(狹窄的)任務(形成形狀、編隊飛行、前往和搜索或繪制一個區域、在周邊巡邏、保護一個邊界)。因此,蜂群可以被認為是一種新興技術,因此,可以作為一個有用的案例來討論人類控制的方法。

在軍事背景下操作蜂群的主要挑戰涉及到設計和實施適當的人機和機機互動。研究人員和開發人員已經采取了許多方法將人的參與注入蜂群中。在蜂群的背景下,人的參與或控制通常是指指揮、控制或協調:

指揮:人類發出什么命令?(與人機關系有關。)雖然機器人群被期望在大多數情況下自主運作,但它們不會在真空中或沒有指令的情況下運作。機器人群最終在人類決策者的指導下運作。這些指令可能以各種形式出現,包括預編程的行為集或高級或低級的指令。

控制:哪些控制架構決定了蜂群內的任務分配? 與機器-機器關系有關)在人類發出指令后,蜂群依靠算法進行編隊、監測、間隔、飛行路徑、任務分配、目標識別等。這些算法,或如它們也被稱為控制架構,決定了蜂群內的任務分配。例如,命令可以下達給作為中央控制器的一個機器人,但它們也可以下達給幾個小隊長或整個蜂群組合。

協調:蜂群如何執行這些任務?(與機器-機器的關系有關)在人類向蜂群(或蜂群中的特定單元)提供了命令,控制架構也確定了命令的分配方式后,蜂群必須協調其集體行為和分配的任務。蜂群如何行動這些分配的任務,部分取決于協調方法。例子包括領導者-追隨者(一個機器人單元是領導者,其他機器人作為追隨者),以及共識算法(單個機器人相互溝通,通過投票或基于拍賣的方法收斂于一個解決方案)。

目前缺乏研究調查人類如何有效地指揮、控制和協調蜂群,如何對蜂群進行有效和負責任的參與仍然是蜂群機器人技術的一個新興研究領域。關于人類控制致命性自主武器系統和蜂群的討論有許多相似之處。然而,由于兩個原因,蜂群可能使討論進一步復雜化。

首先,在致命性自主武器系統領域關于人機互動的辯論主要集中在人類操作員和一個(或至少是有限數量的)致命性自主武器系統之間的關系。當只有一個車輛(或有限數量的車輛)時,傳統的控制形式是可能的。然而,對于機器人群來說,直接控制單個機器人單元是不可能的,而且會適得其反。對于蜂群,有必要依靠算法來進行編隊、監測、間隔、飛行路徑、任務分配、目標識別等等。因此,為了使人類的參與保持有效,必須越來越多地轉移到蜂群整體上。

第二,除了人機互動,蜂群不可避免地要進行機-機互動。單個機器人與蜂群中的其他機器人互動以完成任務,在此過程中,可能出現集體行為。雖然本報告顯示,有不同的方法來設計指揮、控制架構和合作方法,以幫助減輕蜂群帶來的一些挑戰,但似乎沒有一般的方法來解釋個人規則和(期望的)群體行為之間的關系。有些人可能會爭辯說,蜂群中的機器-機器行為不可避免地意味著沒有人類控制。雖然在某些情況下這可能是真的,但這并不是蜂群技術的必然結果。

隨著國際社會在2020年和2021年繼續討論致命性自主武器系統,并將重點放在指導原則的進一步發展和運作上,人類決策的作用無疑仍將是核心問題之一。通過在審議人類控制和人機互動時利用蜂群等近期技術和相關的指揮和控制模式,國際社會可以著手對軍事實踐中如何行使或不行使控制權有一個更全面的了解--現在和未來的行動。

本報告結構

本研究報告的目的是支持目前關于致命性自主武器系統領域的新興技術和相關概念(如人機互動)的討論并為其提供信息。這項研究的結果與各種關鍵利益相關者有關,包括政策制定者、軍事組織、外交界、技術界、學術界、私營部門和民間社會組織。在此背景下,本報告研究了在蜂群機器人領域的指揮、控制和協調方法。

首先在第2章中闡述了包括蜂群在內的武器將被使用以及人類將行使控制權的背景。了解軍事決策中C2的這一背景框架與討論 "有意義的人類控制 "和 "人機互動 "等概念有關,這與致命性自主武器系統和蜂群有關。

第3章從技術角度介紹了蜂群的定義特征,而第4章解釋了在正在進行的蜂群研發中如何考慮和應用指揮、控制和協調。第5章介紹了不同類型的蜂群及其特征之間的權衡概念,其依據是一些技術屬性。

由于蜂群機器人技術仍然是一門相對年輕的學科,而且目前還沒有(軍事)蜂群投入使用,因此第6章闡述了潛在的軍事應用、蜂群投入使用的挑戰和脆弱性。第7章是本報告的結尾,提出了在目前政府專家組關于致命性自主武器系統討論的背景下,對未來發展的相關考慮。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

美國今天面臨的威脅不僅是不同的;它們比歷史上任何時候都發展得更快。同樣,世界各地的作戰人員可利用的技術比以往任何時候都要快,而且這種創新大多源自國防部門之外。這些是當今世界的基本屬性,海軍和海軍陸戰隊將把它們轉化為國家安全的優勢。將通過綜合無人系統、人工智能和自主性的交叉點來實現這一目標,使之成為一個由智能自主系統(IAS)促成的未來。

實現這一未來的主要挑戰不僅在于科學發現和技術發明,而且同樣涉及加速新興技術的開發、操作和采用,使之成為智能自主系統的作戰能力。

為了實現這個未來,授權海軍事業制定這個海軍IAS科技戰略,并在其后制定配套的IAS戰略執行計劃。該戰略設定了海軍IAS的愿景;提供了戰略投資框架;并指導一致性,以加速開發、運作和采用。執行計劃是一份活的文件,它提供了事業必須完成的可操作和可衡量的步驟,并為成功分配了責任、職責和衡量標準。

這兩份文件--戰略和執行計劃--旨在指導整個海軍事業: 政府、工業和學術界的軍人和平民。它們指導領導人做出資源投資和撤資的決定;指導開發和采購人員在他們的努力中尋求協調和杠桿作用;指導作戰人員設想通過在部隊結構中整合國際準則來實現未來海軍的影響。該戰略的成功需要領導層不斷致力于保持對執行的關注和重視。

如果要影響21世紀的方向,時間是至關重要的。海軍力量在本世紀將是最重要的,而IAS將成為未來海軍力量的一個基石。

9個戰略目標

九個戰略目標是由愿景綜合而成的。它們按能力、人員和流程以及伙伴關系進行分類。這些目標分別針對關鍵的長期挑戰,需要時間來實現。它們共同定義了全面的成果,一旦實現,將全面實現智能自主系統(IAS)的愿景。

IAS戰略執行計劃提供了實現每個戰略目標所需的可操作的執行線(LOE)。每一個戰略目標都有多個LOE,它們將按照優先順序在一段時間內被攻克。每個LOE都包含了短期和可衡量的目標,詳細說明了實現每個目標的方法,并包括責任和義務的分配。

1.在和平時期和戰時的行動中,利用進化的、破壞性的IAS創造優勢。

2.使用國際準則來更好地配置、裝備和訓練部隊。

3.利用IAS加快數字和物理環境之間的連接。

4.建立領導、管理和宣傳,以實現國際準則的愿景

5.招聘、教育、培訓和留住世界一流的勞動力,以便在IAS支持的未來中脫穎而出。

6.建立必要的物理、數字/數據和流程基礎設施,以加速持續集成和互操作性的成熟、測試和評估、能力完善和維持

7.調整采購方法和政策的使用,以及作戰概念的發展,以便以創新的速度實施和采用國際會計準則。

8.通過促進關鍵的伙伴關系,消除障礙,并在國防部、作戰人員社區、美國政府、工業界、學術界和盟國伙伴之間分享知識,最大限度地提高IAS的創新。

9.實現整個海軍事業的動態團隊合作,并實現與其他軍種和盟國伙伴的無縫IAS互操作性。

付費5元查看完整內容

人類文明史是人類在人文和科學領域的個人和集體發展與對權力明顯不滿足的追求交織在一起的復雜織錦。本文關注的是后者當代的一些方面。暴力--以及比對手更高效、更有效地行使暴力的能力--一直是這種權力競爭的標志。對于個人和小型社會單位來說,這可能和大型民族國家一樣真實。為了通過權力實現支配地位,人類一直致力于發明更加巧妙的方法來引起和控制暴力。使用機器來殺死或傷害對手,其歷史淵源很可能與人類本身的歷史相媲美。然而,最近自動化和人工智能的發展可能在有記錄的歷史上第一次將暴力的控制權從人類手中奪走,并將其置于機器手中。這種可能性導致在各種國家和國際論壇上就與這種機器的使用有關的倫理和道德進行了激烈的辯論。

本文的主要目的是讓普通讀者(而不是專家或從業人員)了解民族國家正在努力將人工智能(AI)與致命的自主武器系統(LAWS)結合起來,給全球社會帶來的法律風險。人類的國家間武裝沖突主要是通過國際人道主義法(IHL)來規范。然而,致命性自主武器系統對國際人道主義法構成了特別強大的挑戰,主要是因為前者能夠完全取代人類(作為暴力的管理者),從而使人們對 "人道主義 "這一基礎性形容詞的有效性產生懷疑,而國際人道主義法的大廈正是建立在這一基礎之上的。盡管如此,同樣重要的是要記住,致命性自主武器系統并不是人工智能對人類安全構成的危險的唯一表現形式。

定義致命性自主武器系統(LAWS)

與許多技術驅動的問題一樣,第一個法律挑戰是,目前還沒有一個國際公認的致命性自主武器系統的定義。在2017年在 "1980年聯合國《禁止或限制使用某些可能具有過分傷害力或濫殺濫傷作用的常規武器公約》"(《特定常規武器公約》)的總體框架下舉行的聯合國致命性自主武器系統政府專家組(GGE)的首次會議上,締約國審議了致命性自主武器系統的法律、倫理、軍事和技術方面。雖然沒有商定共同的定義,但至少有一些國家提出了關于致命性自主武器系統的工作定義和隨之而來的條例的建議。

缺乏普遍定義的法律挑戰并不是一個新問題。例如,盡管恐怖主義在全球蔓延到幾乎無處不在,但在國際法中也沒有一個法律定義。另一方面,國際法中也存在類似的缺陷,但這并不降低在界定致命性自主武器方面缺乏共識這一法律挑戰的嚴重性。然而,所有這些武器系統的特點是在獲取、跟蹤、選擇和攻擊目標的關鍵功能方面具有不同程度的自主性;以及在使用致命武力的決策過程中部分或完全沒有人的參與或 "人的中心思想活動",這是一個直觀(如果不是法律)的共識。

自主性 "反映了一定程度的獨立動態能力和活動。致命性自主武器可以根據自主程度被歸入兩個一般分類中的一個。第一類是所謂的 "半自主"(涉及機械化水平和遠程控制的人力投入);而第二類是 "自主"(包括在獲取、跟蹤、選擇和攻擊目標方面更高的自由度,不需要人力投入)。在每個類別中,不同程度的自主性可以用功能來衡量--觀察、定位、決定和行動(OODA)的能力,以及復制人類情景意識的能力。

在半自主類別中,通用原子公司的 "MQ-9死神 "提供了一個典型的例子。它是一種遠程控制的 "無人作戰飛行器"(UCAV),攜帶致命的有效載荷,具有復雜的情報、監視和偵察能力。然而,所有的瞄準行動都是由人類操作員手動執行的。自主性存在于它在沒有飛行員的情況下獲得和保持空中飛行的能力,以及通過基于GPS的自動化系統在飛行中導航的能力,包括起飛和降落。

幸運的是,第二類--完全自主的武器系統,具有致命的瞄準能力,但沒有任何人類輸入來控制什么、何時以及如何進行瞄準--到目前為止,還沒有人。然而,預兆是嚴峻的。例如,美國海軍的X-47B在起飛和降落方面具有自主能力,并在2015年完成了首次自主空中加油。作為一個戰斗系統,隨著時間的推移,它可以在執行關鍵功能方面獲得更多的自主權。

然而,機器人工程師、軍事人員和倫理學家往往對哪些設備僅僅是自動的,哪些是自主的意見不一。例如,"自動 "機器人可能在有組織的情況下,執行事先計劃好的一組活動。另一方面,"自主 "機器人將在程序的控制下運作,但將在開放或非結構化的環境中運作,并接收來自傳感器的信息以調整速度和方向。

武器化人工智能

也許,將自主武器系統(AWS)描述為一個具有傳感器、算法和效應器的武器系統就足夠了。這種系統可以包括固定和移動的機器人部件(例如,無人駕駛的空中、地面或海軍車輛),配備主動或被動的傳感器來導航和探測物體、運動或模式。這些傳感器可以包括電子光學、紅外、雷達或聲納探測器。

支持自主武器系統擴散的人提出了兩個基本論點: 第一條是基于此類系統所帶來的軍事優勢。這里強調的是AWS作為人類的力量倍增器的事實。也就是說,由于AWS的存在和可用性,完成一個成功的任務需要更少的人,而每個人的效率卻大大增強。此外,AWS可以擴大 "戰場,使戰斗力達到以前無法進入的地區",甚至在與人的通信和人與人之間的通信中斷的情況下,也能產生高的進攻節奏。此外,AWS可以被有利地部署到 "枯燥"(例如,長時間的飛行)、"骯臟"(例如,在被生物、化學或核制劑污染的地區執行任務)或 "危險 "任務(例如,爆炸物處理[EOD])。

第二條論據的核心是相信使用AWS比使用人類在倫理上更可取(在道德上更合理)。

支持者甚至認為,"未來的自主機器人將能夠在戰場上采取更'人性化'的行動,原因有很多,包括它們不需要被編程為具有自我保護的本能,有可能消除'先開槍,后問話'的態度。自主武器系統的判斷將不會被恐懼或歇斯底里等情緒所蒙蔽,而且這些系統將能夠處理比人類更多的傳入感官信息,而不會為適應先入為主的觀念而丟棄或扭曲這些信息....,在由人類和機器人士兵組成的團隊中,機器人可以比由人類組成的團隊更可靠地報告他們觀察到的道德違規行為。"

隨著人工智能的發展,它帶來了一個非常誘人的選擇,即完全不需要將指揮官與他們的部隊聯系在一起的脆弱的通信聯系。當然,殺手機器人還沒有成為常態;然而,有一些先兆清楚地表明了自主權擴大的模式。一個例子是以色列的 "哈比 "徘徊炸彈,它可以在空中磨蹭相當長的時間,尋找對手的雷達信號。當這些信號被識別時,它通過一個可控的自毀過程攻擊并摧毀敵人的雷達。

另一個例子是SGR-1,一種人工智能機器人 "步兵衛士",在本世紀初開發,并在十多年前(2006年)進行了成功試驗。它已被部署在朝鮮和韓國的邊界,并被吹捧為一個不眠不休的武裝哨兵,其注意力從不動搖。它配備了一支自動步槍和一個榴彈發射器,并能通過紅外線傳感器辨別人類,盡管它確實需要人類操作員給它開火的指令。

在可以將人類操作員插入回路的情況下,未來可能會繼續看到自主權只在技術領域而不是在實際決策過程中。這更有可能發生在航空航天和陸地領域,因為那里更容易建立通信。然而,在海洋領域,通信構成了更大的挑戰,甚至為決策部署人工智能的誘惑力也非常大。與陸地不同,廣闊的海洋沒有永久的基礎設施來接收和發送信息。因此,水面艦艇擁有廣泛的船上通信套件,使它們能夠相互交談,并與陸地上的當局交談。就像在陸地或空中一樣,這些水面戰斗人員也使用無線電波進行通信。這些無線電波在大氣層中傳播良好,但在水中卻不那么好。因此,水下艦艇,如潛水艇,甚至更難溝通。水面下的船只大多使用水下聲學系統進行通信,而聲學系統無法在空氣中傳播。空氣-水通信障礙是一個可怕的障礙,這使得地下領域成為部署人工智能的理想場所。作為一個術語,"無人水下航行器"(UUV)已經成為 "自主水下航行器"(AUV)的同義詞,這種飛行器已經被許多國家用于科學研究以及從收集情報、監視任務、偵察和反雷等目的。與海軍水下系統相關的保密性使得我們很難清楚地了解有多少國家擁有UUV的能力以及程度如何。然而,眾所周知,美國、俄羅斯、法國、德國、英國、中國、以色列和印度是擁有強大的UUV計劃的快速增長的國家之一,人工智能正越來越多地被整合到所有這些船只中。UUVs/AUVs在形狀和形式上差別很大,從微型船到非常大的船,每一種都有自己的優點和缺點。例如,美國已經訂購了四艘由波音公司為其海軍建造的 "超大型無人潛航器"(XLUUVs)。這些XLUUVs將在水下獨立運行數月,并在一個燃料循環中覆蓋多達6500海里。波音公司的 "Echo Voyager",也就是新的XLUUV的基礎,已被宣布為 "完全自主的UUV,可用于各種以前由于傳統UUV限制而不可能完成的任務"。就所有實際目的而言,這些船只是完全有能力的潛艇,盡管沒有人類操作員。美國海軍正在增加其無人船的數量和能力,包括在水面和水下。其建造海軍艦艇的長期計劃包括在未來五年(2021-2026)至少建造21艘中型和大型無人艇。中國也在2019年的年度閱兵中,展示了一艘大型無人潛艇。考慮到國防系統的發展在大多數情況下遠遠領先于宣布的能力,我們可以假設這些國家的致命性自主武器系統方案的發展,包括人工智能的使用,是相當先進的。

其他各種團體也在逐步利用21世紀的技術。隨著人工智能驅動的致命武器系統的擴散,超出了民族國家相對嚴格的問責規范,惡意的非國家行為者可能發展出大規模自動殺人的能力。2018年,沙特阿拉伯摧毀了兩艘遙控的、裝滿炸藥的船只,這些船只的目標是吉贊港。最近,在2020年8月,在也門作戰的沙特領導的聯盟在沙特阿拉伯的阿布哈國際機場上空攔截并摧毀了一架裝有爆炸物的無人機,據稱該無人機是由與伊朗有政治聯系的胡塞叛軍發射的。

以色列巨大的新海上天然氣基礎設施為其敵人提供了一個明顯而誘人的目標,使其海軍的力量分散。2012年,黎巴嫩什葉派激進組織真主黨派出一架無人機深入以色列,覆蓋了到達其中一些天然氣田所需的距離,綽綽有余。以色列國防部高級官員聲稱,真主黨在獲得額外的武器裝備后,現在有能力攻擊這些重要的海上設施。

很明顯,人工智能的擴散為恐怖組織提供了威脅實體安全的更新方式,使保護和監管的范圍更具挑戰性。盡管威脅相當明顯,但在這個技術和科學飛速發展的時代,人工智能的進一步武器化是不可避免的。令人擔憂的是,俄羅斯、以色列、美國和英國等國家都在熱衷于開發這種武器系統。

AWS與人權

2020年11月結束的亞美尼亞和阿塞拜疆之間的戰爭,是使用自主系統進行戰爭的一個典型例子。無人機攻擊,打擊了亞美尼亞和納戈爾諾-卡拉巴赫的士兵,摧毀了坦克、大炮和防空系統,為阿塞拜疆在44天的戰爭中取得了重大勝利。

然而,兩國軍事沖突的這一新特點使敵對行動從血腥的、赤手空拳的地面戰斗變成了一場致命但誘人的捉迷藏游戲,對手是一個耐心十足的--而且往往是看不見的--空中的非人類敵人。在不到兩周的時間里,有數百人死亡,該鎮120多座住宅和行政大樓也隨之受到廣泛破壞。無人機襲擊迫使約6000名居民撤離,大多數婦女和兒童在戶外尋求庇護。

任何人都不應被隨意剝奪生命,這是世界人權法的一個重要標準。這是國際人權法的一項安排,即使 "在威脅到國家生命的公共緊急情況下",也不能中止或勸阻。人身自由和安全的權利 "保證人們不受蓄意的身體或精神傷害,無論受害者是否被禁錮。例如,締約國當局無視人身安全權,無理地造成身體傷害。各國 "還應該防止和改變在執法過程中無端使用武力的情況,并確保其人民不受私人保安部隊的虐待,以及不受過度獲得槍支所帶來的危險。"

聯合國《執法人員行為守則》(UNCCLEO)規定了一個總體原則,即 "執法人員只有在嚴格必要的情況下才能使用武力,并以履行職責的需要為限"。因此,它規定了一個基本原則,即為達到軍事目的,不應使用超過必要的武力。

為了至少有選擇地以合法的方式執行警務和法律執行任務,AWS必須可行地評估死亡或嚴重傷害的威脅程度,有效地確定誰在造成危險,考慮武力對分散威脅是否重要,有選擇地認識和使用武力以外的手段,有能力建立各種通信方法和警務武器和設備,以考慮到逐步的反應,并有可獲得的后備手段和資產。為了增加這種復雜性,每一種情況都需要另一種獨特的反應,這將使所有這些被簡化為基于數學的算法和概率計算的進展變得非常困難。

盡管近年來出現了令人印象深刻且往往令人難以置信的技術進步,但如果沒有有意義且有效的人類控制和判斷,AWS似乎不可能遵守這些規定,特別是在不可預測且不斷發展的環境中。值得注意的是,當延伸到 "致命 "AWS(致命性武器)時,禁止AWS的論點甚至更有分量。但這絲毫不影響我們對和平與全球穩定所面臨的重大威脅表示關切,即使是對人類沒有直接致命或亞致命影響的AWS。一個重要的相關例子是利用 "蜂群智能 "技術,它可能使支持者有能力對可能無人居住的敵方基礎設施發動重大攻擊。

納戈爾諾-卡拉巴赫危機已經迫使國際社會質疑AWS的決策過程。這些武器系統由于其自主性質,缺乏區分武裝士兵和普通平民的人類技能。在馬爾圖尼鎮,無人機的空中襲擊造成五名平民死亡,另有十人受傷。居民們被迫用膠帶封住車燈,或在車上涂抹泥漿,以掩蓋任何可能使他們成為目標的標記。公眾集會被勸阻,人們被敦促不要在任何一個地方呆太久。這種攻擊的高平民化迫使一個12歲的孩子痛苦地表示:"我不再喜歡藍天了。事實上,我現在更喜歡灰色的天空。當天空是灰色的時候,無人機就不飛了"。無人機襲擊的不確定性和震驚導致平民對武裝無人機的部署產生了極大的仇恨。

這導致了與部署自主武器有關的另一個關鍵問題。國際人道主義法的應用和實施的一個基本特點是以個人為前提,逐步走向 "以人為本,而不是以國家為本 "的方法,如個人刑事責任和指揮責任等概念所示。這也延伸到了武器法的專門領域,包括人類參與致命性武器系統的設計、開發和使用。一些國際人道主義法條款反映了人類參與的必要性。所區分的合法問題包括:鑒于個人義務,國際人道主義法是否可以繼續適用于自主機器。在政府專家組會議上,各國普遍認為,不管是什么,不管如何定義,國際人道主義法的人類機構方面需要在致命性自主武器系統方面得到保持。各國和非政府組織都提到和/或支持 "有意義的人類控制"、"人類判斷"、"人類參與 "和 "人類監督 "等概念。 這些概念可以互換使用,一般沒有定義。

2017年由 "世界科學技術倫理委員會"(COMEST)和 "聯合國教科文組織倫理委員會 "聯合編制的一份報告審查了 "武裝軍事機器人系統(武裝無人機)"和 "自主武器 "的移動性、互動性、通信以及在沒有外部干預的情況下做出決定的自主能力。報告認為,法律規范和工程行為準則可能適用,認知型機器人將決策權委托給機器,設計師和制造商需要承擔責任,并適用預防原則。報告強調,作為一個法律問題,AWS的部署 "將違反國際人道主義法。在道德上,它們打破了機器不應該為人類做生死決定的指導原則。它繼續補充說,"就其技術能力而言,自主機器人武器缺乏確保遵守區別對待和相稱性原則所需的主要組成部分。雖然可以說將來有可能遵守,但在殺人機器面前,這種猜測是危險的,因為它們在特定情況下的行為是隨機的,因此本質上是不可預測的"。報告有效地粉碎了本文前面提到的AWS支持者提出的聰明但謬誤的 "道德 "論點,明確指出:"使用致命武力的權力不能合法地委托給機器--無論其效率如何--的道德論點包含在國際法中:殺人必須仍然是負責任的人的責任,有義務做出深思熟慮的決定"。報告強烈建議,"出于法律、道德和軍事行動的原因,必須保留人類對武器系統和武力使用的控制"。

結論

歸根結底,只有人類可以為奪取生命負責,而自主機器人無法遵守道德、法律和軍事規范。詹姆斯-卡梅隆的邪典電影《終結者》描述了一個烏托邦式的未來,其中天網,一個邪惡的人工智能(AI),發起了一場針對人類的核戰爭以確保自己的生存。這部電影于1984年上映,遠遠早于現代形式的人工智能的出現,但卻預示了一些擔憂,這些擔憂已經主導了關于智能計算機系統的辯論。當代世界上最著名的科學家之一,已故的斯蒂芬-霍金,將人工智能描述為對人類文明的唯一最大威脅。這并不僅僅是科學家的觀點。亨利-基辛格也曾警告說,人工智能將改變人類的思想和人類的價值觀。

《終結者》電影所描述的技術還沒有出現在我們身邊,根據大多數分析家的說法,一種被稱為 "通用人工智能 "的自我意識的人工智能形式還需要幾十年的時間。然而,人工智能可能會繼續被整合到武器系統中,并用于提高軍事力量使用的精確性、殺傷力和破壞性。同時,需要不斷關注圍繞人類強化的法律、倫理和戰略辯論--包括軍隊的身體和認知發展和演變,以及隨著武器化的人工智能越來越多地融入戰爭,心理和認知過程可能如何變化和演變。

這給我們留下了一些大問題。武器化是可取的嗎?國際社會是否應該尋求控制和阻止這些過程,以及這可能對人工智能的非軍事用途產生什么影響?在這方面,本作者認為,關于 "殺手機器人 "的充滿夸張色彩的辯論相當廣泛地忽略了這一點。人工智能已經被武器化,關于禁止完全自主的武器系統的辯論忽略了許多與人工智能有關的武器化進程,這些進程已經在如火如荼地進行。需要進一步思考的最后一點是人工智能在北約等多邊論壇中可能發揮的作用,以及在多邊安全任務中如何在派遣國之間分享和利用人工智能。為人工智能能力制定共同的操作標準、要求和道德準則,既是必要的也是具有挑戰性的。

我們還必須記住,自主系統本身并不一定是壞事。事實上,機器的自主性和人工智能已經使我們能夠到達并探索火星和我們星球上的海洋深處。即使在戰爭中,這樣的機器也可以提供一種方法,避免將人類置于可能使他們面臨生命危險的情況中。然后,辯論歸結為人類如何使用這種能力。盡管世界在認識到致命性自主武器系統的危險方面可能已經晚了,但我們可能仍有時間確保人工智能的發展朝著建設性而非破壞性的方向發展。

付費5元查看完整內容

本文試圖說明無人機戰爭在確保印度國家利益方面的效用。它首先確定了無人機擴散如何在印度的安全目標背景下成為一種威脅和機遇,并討論了無人機戰爭能力建設在應對印度面臨的安全威脅方面的重要性。然后,它強調了印度軍隊可以利用無人機戰爭來實現其目標的好處和行動領域,從ISR和 "枯燥、骯臟和危險 "的任務到反恐和后勤。它還談到了反無人機技術和與此相關的挑戰。然后,本文研究了印度的無人機和反無人機作戰能力的現狀。最后,它討論了在未來的無人機戰爭能力建設道路上必須解決的五個問題。本文認為,考慮到印度的地緣政治現實,印度必須采取行動,通過本土生產和國際采購來建設其無人機作戰能力。

引言

從開展精心設計的跨境反叛亂行動到有針對性的打擊,以及在印度洋地區的情報、監視和偵察(ISR)任務,印度軍隊正在戴上各種帽子,以應對該國在21世紀地緣政治環境中面臨的各種威脅(Bhardwaj,2021)。規劃、準備和化解這些威脅需要采取積極主動的方法來采用新的軍事技術,掌握使用這些技術的戰術知識,以及管理這些行動的安全影響的政治能力(Chopra,2022)。

無人機或無人駕駛飛行器(UAVs)就是這樣一種尖端的戰爭工具,它已經成為監視和懲罰行動的重要組成部分(Chopra, 2022)。無人機為十幾個國家所擁有,不再限于美國在巴基斯坦和阿富汗的反恐行動。無人機不僅在亞美尼亞和阿塞拜疆的武裝沖突中發揮了決定性作用,而且在最近的烏克蘭-俄羅斯沖突中雙方都在廣泛使用。

對印度來說,這種情況既帶來了細微的安全威脅,也帶來了機會。2021年6月對查謨IAF基地的恐怖襲擊證實了人們的懷疑,即非國家組織正在獲得能夠利用無人機進行恐怖活動的能力(MC,2021)。此外,中國通過水下無人機對印度海軍艦艇的監視表明,該技術也增強了傳統安全問題的破壞能力(Bajpai, 2022)。然而,另一方面,印度在2022年共和國日閱兵中展示了一支無人機艦隊--無人機可以有效地用于領導層斬首、信息收集、削弱敵人士氣和減少軍事傷亡。

因此,考慮到在無人機戰爭中落后的成本和使用這種技術能力的好處 效益,發展無人機作戰能力、 特別是本土化,對印度軍隊來說越來越重要。(Bajpai, 2022)。

研究目的/研究問題

強調無人機作戰能力建設在應對印度面臨的安全威脅方面的重要性。

解釋印度軍方可以利用無人機戰爭實現其目標的好處和行動領域。

研究印度無人機戰爭的現狀,并就該國如何進一步發展提出建議。

研究設計

本研究論文分為六個部分。第一節簡要介紹了無人機戰爭及其歷史。第二節討論了印度在21世紀的安全問題以及無人機在幫助印度解決這些問題方面所發揮的作用。這一節強調了印度資助發展無人機戰爭能力的必要性,并討論了無人機是一種機遇、一種威脅,也是印度實現自力更生的重要工具。第三節進一步深入探討了無人機在戰爭和反恐方面的優勢和用途。這一節的目的是解釋無人機目前在什么情況下被使用,并概述無人機戰爭對該國的潛力。第四節討論了反無人機技術的關鍵方面,以及印度反無人機系統的狀況,特別是針對非國家行為者。第五節將解釋無人機戰爭的局限性和批判性,以提供一個平衡的視角。最后,第六節在結論中解釋了印度無人機戰爭的現狀,并討論了為印度發展無人機和反無人機能力鋪平道路而必須解決的五個注意事項。

本文的范圍僅限于為印度的無人機戰爭能力建設提出理由,而不是探討無人機戰爭本身的各個方面。

付費5元查看完整內容

本研究報告分析了當前利益相關者對軍事自主系統的人為輸入或控制的想法。作者首先定義了關鍵術語,如 "機器學習"、"自主系統"、"人在回路中"以及軍事背景下的 "有意義的人為控制",然后討論了當代利益相關者的文獻對無人駕駛軍事系統的人的輸入/控制的說明。然后,報告討論了各利益攸關方是否對進攻性和防御性系統中所需要或期望的人類控制水平達成了共識,以及是否因系統具有致命性和非致命性能力或西方和非西方國家之間的意見不同而有所不同。報告最后從政策和操作的角度闡述了利益相關者的想法對加拿大國防部/空軍的可能影響。

主要研究結果

  • 在與自主系統有關的關鍵術語的定義方面存在著相當多的爭論。

  • 在國家對自主武器應采取何種監管手段的問題上,各利益攸關方一直存在分歧。

  • 參加這些討論的締約國已就自主武器的一系列指導原則達成共識,包括 "必須保留人類對使用武器系統決定的責任"。

  • 在近30個表示支持禁止致命性自主武器系統(LAWS)的國家中,沒有一個是主要的軍事大國或機器人開發商,主要的軍事大國似乎都在對沖自己的賭注。

  • 許多民主國家認為,他們打算保留人類對使用武力的控制/判斷,不需要禁止,因為現有的國際人道主義法律(IHL)足以解決圍繞自主武器的問題。

  • 加拿大擁有重要的人工智能(AI)能力,該能力被用于民用而非軍事用途。

  • 如果在國防領域不接受至少某種程度的(人工智能支持的)自主性,可能會降低與盟國的互操作性,給加拿大武裝部隊(CAF)的行動帶來風險,并且隨著時間的推移,使CAF對國際和平與安全的貢獻失去意義。

付費5元查看完整內容

無人機蜂群來了!美國、中國和俄羅斯處于無人機群開發和利用的最前沿。然而,無人機的低成本和易得性使非國家行為者能夠以富有想象力和創造力的方式利用無人機,包括蜂群。本專著的目的是要解決以下問題:無人機群為軍隊提供什么效用?無人機群提供了許多優勢,包括持續的情報、監視、偵察和目標定位;對軍事人員和組織的低風險和低成本,以及癱瘓個體和組織決策的潛力。相比之下,無人機群有其脆弱性和挑戰。脆弱性包括從對手的黑客攻擊到反蜂群武器的存在,而一些挑戰包括組織上的抵制和國際法。無人機群就在這里,而且很快就會出現在戰場上,現在是解決如何最好地運用它們的時候了。在概述了無人機群的潛在好處和局限性之后,該專著最后提出了四項建議:需要敘述、建立無人機群理論、了解人機界面以及為無人機群的使用進行組織過渡。

付費5元查看完整內容

研究問題

新興顛覆性技術(EDTs)對未來大規模毀滅性武器(WMD)戰爭的影響是什么?新興顛覆性技術如何提高大規模殺傷性武器在動能戰爭中的殺傷力和有效性??公民領袖和公務人員如何準備和減輕預計的威脅?

難題挑戰

在未來十年,國家和非國家對手將使用EDT來攻擊系統和人口,這可能會啟動和加速現有地緣政治沖突的升級。預計EDT將被用于最初的攻擊或升級,以及作為檢測和決策過程的一部分。由于EDT的速度、預期的混亂和普遍缺乏人力監督,攻擊也將被錯誤地歸因,這有能力將快速的地緣政治沖突升級為全球軍事沖突,并最終導致使用核大規模毀滅性武器。

在核大規模殺傷性武器的陰影下使用EDT,預計也會對可能的對手造成生存威脅,促使他們 "降低 "使用核大規模殺傷性武器的可接受性標準。EDT將使內部威脅,包括自愿的和不知情的,能夠在全球范圍內引發地緣政治沖突,并使其膽子更大。

此外,多個EDT組合在一起用于攻擊時,將對民眾和政府產生大規模殺傷性影響。此外,EDT將被對手用來攻擊和破壞關鍵的基礎設施系統,如食品、能源和交通等,這將對人口和政府產生更廣泛的影響。EDTs將使對手能夠實施長期攻擊,在很長一段時間內(如果有的話),攻擊的效果和歸屬可能不會被發現。

解決方案

為了對付這些未來的威脅,各組織將需要進行研究和情報收集,同時進行探索性的研究和開發,以更好地了解EDT的狀況及其潛在的影響。有了這些信息,各組織將需要進行協作性的 "兵棋推演"和規劃,以探索一系列可能的和潛在的EDT威脅。從所有這些活動中獲得的知識將為未來的培訓和最佳實踐提供信息,以準備和解決這些威脅。

各組織也將需要增加對EDT相關領域的投資,這就要求各國不僅要改變他們的作戰方式,而且要發展他們對威懾的思考。擴大的監管、政策制定和成員間的政治團結將發揮越來越重要和擴大的作用。將需要更廣泛的政府、軍事和民事合作,結合更廣泛的公眾意識來破壞和減輕其中一些未來威脅。所有這些行動都將對北約成員之間的合作和共同的復原力賦予更高的價值。

付費5元查看完整內容

所謂的殺手機器人已經到來,由人工智能支持的自主武器將成為未來戰爭的一個突出特征。在國際競爭者開發這些系統的背景下,在國際和多國公司的關注下,國家安全委員會關于人工智能的最后報告判斷,這些類型的無人駕駛武器可以而且應該以符合國際人道主義法律的方式使用,適用人類授權的使用條件和適當的設計和測試。人工智能支持的自主性及其軍事應用帶來了這些技術的基本風險,它們在無人武器中的使用進一步挑戰了軍隊在國際人道主義法和正義戰爭理論框架內尋求合法使用。因此,倫理學提供了優越的概念載體,以任命和授權人類授權者和使用者,并從質量上確定什么是 "適當的 "設計和測試。國防部的 "人工智能準備部隊運動 "所確立的七個人工智能工作者原型中的每一個都應該應用與角色相關的、與人工智能有關的道德規范,以充分實現《最后報告》中所確立的條件,并保留和支持控制暴力壟斷所必需的人性。對道德教育的需求單獨和集體地滲透到每個原型中,美國防部必須認識到公共/私人伙伴關系的價值,以充分考慮這些條件。

付費5元查看完整內容

自動化使系統能夠執行通常需要人類投入的任務。英國政府認為自動化對保持軍事優勢至關重要。本論文討論了當前和未來全球自動化的應用,以及它對軍事組織和沖突的影響。同時還研究了技術、法律和道德方面的挑戰。

關鍵要點

  • 在軍事行動中部署自動化技術可以提高有效性并減少人員的風險。
  • 在英國和國際上,自動化正被用于情報收集、數據分析和武器系統。
  • 英國政府正在開發自動化系統;技術挑戰包括數據管理、網絡安全以及系統測試和評估。
  • 軍事自動化的法律和道德影響受到高度爭議,特別是在武器系統和目標選擇方面。

背景

許多軍事系統都有自動化的特點,包括執行物理任務的機器人系統,以及完全基于軟件的系統,用于數據分析等任務。自動化可以提高某些現有軍事任務的效率和效力,并可以減輕人員的 "枯燥、骯臟和危險 "的活動。 許多專家認為,自動化和自主性是與系統的人類監督水平有關的,盡管對一些系統的定位存在爭議,而且對系統是否應被描述為 "自動化 "或 "自主 "可能存在分歧。英國防部在其 "自主性譜系框架 "中概述了5個廣泛的自主性水平,從 "人類操作 "到 "高度自主"。一個系統可能在不同的情況下有不同的操作模式,需要不同程度的人力投入,而且只有某些功能是自動化的。方框1概述了本公告中使用的定義。

方框1:該領域的術語并不一致,關鍵術語有時可以互換使用。

  • 自動化系統。自動系統是指在人類設定的參數范圍內,被指示自動執行一組特定的任務或一系列的任務。這可能包括基本或重復的任務。

  • 自主系統。國防科學與技術實驗室(Dstl)將自主系統定義為能夠表現出自主性的系統。自主性沒有公認的定義,但Dstl將其定義為 "系統利用人工智能通過自己的決定來決定自己的行動路線的特點"。自主系統可以對沒有預先編程的情況作出反應。

  • 無人駕駛車輛。朝著更高水平的自主性發展,使得 "無人駕駛 "的車輛得以開發,車上沒有飛行員或司機。有些是通過遠程控制進行操作,有些則包括不同程度的自主性。最成熟的無人駕駛軍事系統是無人駕駛航空器,或稱 "無人機",其用途十分廣泛。

  • 人工智能。人工智能沒有普遍認同的定義,但它通常是指一套廣泛的計算技術,可以執行通常需要人類智慧的任務(POSTnote 637)。人工智能是實現更高水平的自主性的一項技術。

  • 機器學習:(ML,POSTnote 633)是人工智能的一個分支,是具有自主能力的技術的最新進展的基礎。

英國政府已經認識到自主系統和人工智能(AI,方框1)的軍事優勢以及它們在未來國防中可能發揮的不可或缺的作用。在其2021年綜合審查和2020年綜合作戰概念中,它表示致力于擁抱新的和新興的技術,包括自主系統和人工智能。2022年6月,英國防部發布了《國防人工智能戰略》,提出了采用和利用人工智能的計劃:自動化將是一個關鍵應用。在全球范圍內,英國、美國、中國和以色列擁有一些最先進的自主和基于AI的軍事能力。方框2中給出了英國和全球活動的概述。

方框2:英國和全球活動

  • 英國 英國政府已表明其投資、開發和部署用于陸、海、空和網絡領域軍事應用的自主和人工智能系統的雄心。最近的投資項目包括NELSON項目,該項目旨在將數據科學整合到海軍行動中;以及未來戰斗航空系統,該系統將為皇家空軍提供一個有人員、無人員和自主系統的組合。在2021年綜合審查發表后,政府成立了國防人工智能中心(DAIC),以協調英國的人工智能國防技術的發展。這包括促進與學術界和工業界的合作,并在紐卡斯爾大學和埃克塞特大學以及艾倫-圖靈研究所建立研究中心。

  • 全球背景 對自主軍事技術的投資有一個全球性的趨勢:25個北約國家已經在其軍隊中使用一些人工智能和自主系統。有限的公開信息給評估軍隊的自主能力帶來了困難,但已知擁有先進系統的國家包括。

    • 美國。美國國防部2021年預算撥款17億美元用于自主研發,以及20億美元用于人工智能計劃。
    • 以色列。國有的以色列航空航天工業公司生產先進的自主系統,包括無人駕駛的空中和陸地車輛以及防空系統。
    • 中國。據估計,中國在國防人工智能方面的支出與美國類似。 分析師認為,這包括對情報分析和自主車輛的人工智能的投資。

俄羅斯和韓國也在大力投資于這些技術。在俄羅斯,機器人技術是最近成立的高級研究基金會的一個重點,該基金會2021年的預算為6300萬美元。

應用

自主系統可以被設計成具有多種能力,并可用于一系列的應用。本節概述了正在使用或開發的軍事應用系統,包括情報、監視和偵察、數據分析和武器系統。

情報、監視和偵察

自動化正越來越多地被應用于情報、監視和偵察(ISR),通常使用無人駕駛的車輛(方框1)。無人駕駛的陸上、空中和海上車輛配備了傳感器,可以獲得數據,如音頻、視頻、熱圖像和雷達信號,并將其反饋給人類操作員。一些系統可以自主導航,或自主識別和跟蹤潛在的攻擊目標。英國有幾架ISR無人機在服役,還有一些正在試用中。這些無人機的范圍從非常小的 "迷你 "無人機(其重量與智能手機相似)到可以飛行數千英里的大型固定翼系統。英國正在試用的一個系統是一個被稱為 "幽靈 "無人機的迷你直升機,它可以自主飛行,并使用圖像分析算法來識別和跟蹤目標。無人駕駛的水下航行器被用于包括地雷和潛艇探測的應用,使用船上的聲納進行自主導航。這些車輛還可能配備了一種技術,使其能夠解除地雷。

數據分析

許多軍事系統收集了大量的數據,這些數據需要分析以支持操作和決策。人工智能可用于分析非常大的數據集,并分辨出人類分析員可能無法觀察到的模式。這可能會越來越多地應用于實地,為戰術決策提供信息,例如,提供有關周圍環境的信息,識別目標,或預測敵人的行動。英國軍隊在2021年愛沙尼亞的 "春季風暴 "演習中部署了人工智能以提高態勢感知。美國的Maven項目旨在利用人工智能改善圖像和視頻片段的分析,英國也有一個類似的項目,利用人工智能支持衛星圖像分析。

武器系統

以自動化為特征的武器系統已被開發用于防御和進攻。這些系統包括從自動響應外部輸入的系統到更復雜的基于人工智能的系統。

  • 防御系統。自動防空系統可以識別和應對來襲的空中威脅,其反應時間比人類操作員更快。這種系統已經使用了20多年;一份報告估計有89個國家在使用這種系統。目前使用的系統可以從海上或陸地發射彈藥,用于應對來襲的導彈或飛機。英國使用Phalanx CIWS防空系統。雖然沒有在全球范圍內廣泛采用,但以色列將固定的無機組人員火炮系統用于邊境防御,并在韓國進行了試驗。這些系統能夠自動瞄準并向接近的人或車輛開火。

  • 導向導彈。正在使用的進攻性導彈能夠在飛行中改變其路徑,以達到目標,而不需要人類的輸入。英國的雙模式 "硫磺石"(DMB)導彈于2009年首次在阿富汗作戰中使用,它可以預先設定搜索特定區域,利用傳感器數據識別、跟蹤和打擊車輛。

  • 用于武器投送的無人平臺。為武器投送而設計的無人空中、海上和陸地運載工具可以以高度的自主性運行。這些系統可以自主地搜索、識別和跟蹤目標。大多數發展都是在空中領域。英國唯一能夠自主飛行的武裝無人機是MQ-9 "收割者",但有幾個正在開發中。英國防部還在開發 "蜂群 "無人機(方框3)。雖然存在技術能力,但無人駕駛的進攻性武器并不用于在沒有人類授權的情況下做出射擊決定;報告的例外情況很少,而且有爭議。 自主系統在識別目標和作出射擊決定方面的作用,是廣泛的倫理辯論的主題(見下文)。

方框3:無人機蜂群

無人機蜂群是指部署多個能夠相互溝通和協調的無人機和人員,以實現一個目標。在軍事環境中,蜂群可能被用來監視一個地區,傳遞信息,或攻擊目標。2020年,英國皇家空軍試驗了一個由一名操作員控制的20架無人機群,作為Dstl的 "許多無人機做輕活 "項目的一部分。蜂群技術還沒有廣泛部署。據報道,以色列國防軍于2021年首次在戰斗中使用無人機蜂群。

影響

自動化技術和人工智能的擴散將對英國軍隊產生各種影響,包括與成本和軍事人員的角色和技能要求有關的影響。對全球和平與穩定也可能有影響。

財務影響

一些專家表示,從長遠來看,軍事自動化系統和人工智能可能會通過提高效率和減少對人員的需求來降低成本。然而,估計成本影響是具有挑戰性的。開發成本可能很高,而且回報也不確定。提高自動化和人工智能方面的專業知識可能需要從提供高薪的行業中招聘。軍隊可能不得不提高工資以進行競爭,英國防部將此稱為 "人工智能工資溢價"。

軍事人員的作用和技能

自動化可能會減少從事危險或重復性任務的軍事人員數量。然而,一些軍事任務或流程,如高層戰略制定,不太適合自動化。在許多領域,自主系統預計將發揮對人類的支持功能,或在 "人機團隊 "中與人類合作。專家們強調,工作人員必須能夠信任與他們合作的系統。一些角色的性質也可能會受到自動化的影響,所需的技能也是如此。例如,對具有相關技術知識的自主系統開發者和操作者的需求可能會增加。英國防部已經強調需要提高整個軍隊對人工智能的理解,并承諾開發一個 "人工智能技能框架",以確定未來國防的技能要求。一些利益相關者對自動化對軍事人員福祉的影響表示擔憂,因為它可能會限制他們的個人自主權或破壞他們的身份和文化感。

人員對自動化的態度:

關于軍事人員對自動化的態度的研究是有限的。2019年對197名英國防部人員的研究發現,34%的人對武裝部隊使用可以使用ML做出自己的決定的機器人有普遍積極的看法,37%的人有普遍消極的態度。有報道稱,人們對某些自主武器系統缺乏信任,包括在2020年對澳大利亞軍事人員的調查中。在這項研究中,30%的受訪者說他們不愿意與 "潛在的致命機器人 "一起部署,這些機器人在沒有人類直接監督的情況下決定如何在預定的區域使用武力。安全和目標識別的準確性被認為是兩個最大的風險。有證據表明,信任程度取決于文化和熟悉程度。

升級和擴散

一些專家提出了這樣的擔憂:在武器系統中越來越多地使用自主權,有可能使沖突升級,因為它使人類離開了戰場,減少了使用武力的猶豫性。蘭德公司最近的一份戰爭游戲報告(上演了一個涉及美國、中國、日本、韓國和朝鮮的沖突場景)發現,廣泛的人工智能和自主系統可能導致無意中的沖突升級和危機不穩定。這部分是由于人工智能支持的決策速度提高了。升級也可能是由自動系統的非預期行為造成的。

還有人擔心,由于自動化和基于人工智能的技術變得更便宜和更豐富,非國家行為者更容易獲得這種技術。這些團體也可能獲得廉價的商業無人機,并使用開放源碼的人工智能對其進行改造,以創建 "自制 "武器系統。關于非國家行為者使用自主系統的報告是有限的和有爭議的。然而,非國家團體確實使用了武裝無人機,而且人們擔心人工智能會使這種系統更加有效。

技術挑戰

正在進行的包括機器人和人工智能在內的技術研究,主要是由商業驅動的,預計將增加自動化系統的應用范圍和采用程度。該領域的一些關鍵技術挑戰概述如下。一個更普遍的挑戰是,相對于數字技術的快速發展,軍事技術的發展速度緩慢,有可能在部署前或部署后不久組件就會過時。

數據傳輸

無人駕駛的車輛和機器人經常需要向人員傳輸數據或從人員那里接收數據。這可以讓人類監督和指導它們的運作或接收它們收集的數據。在某些情況下,系統也可能需要相互通信,如在無人機群中(方框3)。軍方通常使用無線電波在陸地上傳輸數據,其帶寬(頻率的可用性)可能有限。在傳輸大量數據,如高分辨率圖像時,這可能是個問題。5G技術(POSTbrief 32)可能會促進野外更有效的無線通信。系統之間的無線電通信可以被檢測到,提醒對手注意秘密行動。對手也可能試圖阻止或破壞系統的通信數據傳輸。目前正在研究如何最大限度地減少所需的數據傳輸和優化數據傳輸的方法。更多的 "板載 "或 "邊緣 "處理(POSTnote 631)可以減少傳輸數據的需要。然而,減少通信需要系統在沒有監控的情況下表現得像預期的那樣。

數據處理

具有更高水平的自主性的更復雜的系統通常在運行時在船上進行更多的數據處理和分析。這要求系統有足夠的計算能力。一般來說,一個系統能做多少嵌入式數據處理是有限制的,因為硬件會占用空間并需要額外的電力來運行。這可能會限制需要電池供電運行的系統的敏捷性和范圍。然而,人工智能的進步也可能使系統更有效地運行,減少計算要求。由于未來軟件、算法和計算機芯片技術的進步,計算機的處理能力也有望提高。

訓練數據

創建和整理與軍事應用相關的大型數據集,對生產可靠的人工智能自主系統非常重要。機器學習(ML,方框1)依賴于大型數據集來訓練其基礎算法,這些數據可以從現實世界中收集,或者在某些情況下,使用模擬生成。一般來說,用于訓練ML系統的數據越有代表性、越準確、越完整,它就越有可能按要求發揮作用。準備訓練數據(分類并確保其格式一致)通常需要手動完成,并且是資源密集型的。

數據隱私:

一些人工智能系統可能會在民用數據上進行訓練。人們普遍認為,如果使用與個人有關的數據,他們的隱私必須得到保護。這可以通過對個人數據進行匿名化處理或只分享經過訓練的人工智能系統來實現。

網絡安全

由計算機軟件支撐的系統數量的增加增加了網絡攻擊的機會。網絡攻擊者可能試圖控制一個系統,破壞其運作,或收集機密信息。基于人工智能的系統也可以通過篡改用于開發這些系統的數據而遭到破壞。英國防部在2016年成立了網絡安全行動中心,專注于網絡防御。在英國,2021年成立的國防人工智能中心,有助于促進行業伙伴或其他合作者對高度機密數據的訪問。

測試和評估

重要的是,軍事系統要可靠、安全地運行,并符合法律和法規的規定。人工智能和自動化給傳統軟件系統帶來了不同的測試和保證挑戰。 進一步的挑戰來自于ML的形式,它可能不可能完全理解輸出是如何產生的(POSTnote 633)。人工智能軟件可能還需要持續監測和維護。利益相關者已經強調缺乏適合的測試工具和流程,并正在開發新的工具和指南。英國政府的國防人工智能戰略致力于建立創新的測試、保證、認證和監管方法。

倫理、政策和立法

目前的準則和立法

目前還沒有專門針對將自動化或人工智能用于軍事應用的立法。雖然它們在戰爭中的使用受現有的國際人道主義法的約束,但這與新技術的關系是有爭議的。在國家和國際層面上有許多關于人工智能更普遍使用的準則,這些準則可以適用于自動化系統。然而,2021年數據倫理與創新中心(CDEI)的人工智能晴雨表研究發現,工業界很難將一般的法規適應于特定的環境。2022年,英國防部與CDEI合作發布了在國防中使用人工智能的道德原則。

責任感

一些利益相關者強調,如果自主系統的行為不合法或不符合預期,那么它的責任是不明確的。這可能導致系統及其決定與設計或操作它的人類之間出現 "責任差距",使法律和道德責任變得復雜。英國防部的原則說,在人工智能系統的整個設計和實施過程中,應該有明確的責任。國防人工智能戰略為供應商設定了類似的期望。

圍繞自主武器系統的辯論

這一領域的大部分法律和道德辯論都集中在武器系統上。然而,某些非武裝系統(例如,基于軟件的決策支持工具)可能在識別目標方面發揮關鍵作用,因此提出了許多與那些同時部署武器的系統相同的道德問題。

國際上對 "致命性自主武器系統"(LAWS)的使用存在著具體的爭論。這個術語沒有普遍認同的定義,它被用來指代具有不同自主能力的廣泛的武器。關于使用致命性自主武器系統的報告存在很大爭議,例如,由于系統使用模式的不確定性。 聯合國《特定常規武器公約》(CCW)自2014年以來一直在討論致命性自主武器系統的可能立法。它在2019年發布了指導原則,但這些原則沒有約束力,也沒有達成進一步的共識。雖然大多數參加《特定常規武器公約》的國家支持對致命性自主武器進行新的監管,但包括英國、美國和俄羅斯在內的其他國家認為,現有的國際人道主義法已經足夠。根據運動組織 "阻止殺手機器人"(SKR)的說法,83個國家支持關于自主武器系統的具有法律約束力的文書,12個國家不支持。

許多利益相關者認為,必須保持人類對武器和瞄準系統的某種形式的控制,才能在法律和道德上被接受。某些組織,如SKR,呼吁禁止不能由 "有意義的人類控制 "的自主武器系統,并禁止所有以人類為目標的系統。他們還呼吁制定法規,確保在實踐中保持足夠的人為控制。在其2022年國防人工智能戰略中,英國政府表示,識別、選擇和攻擊目標的武器必須有 "適當的人類參與"。作為回應,一些呼吁監管的非政府組織表示,需要更加明確如何評估或理解 "適當的人類參與"。包括英國政府在內的利益相關者建議的維持人類控制的潛在措施包括限制部署的時間和地理范圍。被認為會破壞人類控制的因素包括人類做出決定的有限時間和 "自動化偏見",即個人可能會過度依賴自動化系統,而不太可能考慮其他信息。

公眾對該技術的態度

大多數關于軍事自動化的公眾意見調查都集中在自主武器系統上。SKR委托對28個國家的19,000人進行了民意調查。62%的受訪者反對使用致命性武器系統;這一數字在英國是56%。關于公眾對人工智能、數據和更廣泛的自動化的態度的研究發現,公眾關注的主要問題包括數據安全、隱私和失業。然而,公眾的觀點會因系統的功能和使用環境的不同而有很大差異。

付費5元查看完整內容

本報告描述了北約STO RTG IST-149無人地面系統和C2內互操作性能力概念演示器的研究和實驗工作。無人地面車輛(UGVs)在現代戰斗空間中正變得越來越重要。這些系統可以攜帶大量的傳感器套件,從前線提供前所未有的數據流。另一方面,這些系統在大多數情況下仍然需要遠程操作。重要的是要認識到,如果沒有適當的方式在聯盟伙伴之間交換信息和/或將其納入C2系統,ISR數據在很大程度上將是無用的。該小組的主要目的是找到改善這種情況的方法,更具體地說,調查從操作員控制單元(OCU)控制UGV和接收數據的可能標準,并在現實世界的場景中測試它們。

該項目的努力有兩個方面。比利時的貢獻是在歐盟項目ICARUS中所做的工作。這個項目涉及一個用于搜索和救援的輔助性無人駕駛空中、地面和海上車輛團隊。互操作性在幾個不同的實驗中得到了驗證。ICARUS聯盟由幾個國際合作伙伴組成,其中比利時是這個小組的鏈接。第二項工作是該小組的聯合努力,在小組內進行實驗,展示UGV和OCU之間的互操作性。該小組于2018年在挪威的Rena進行了最后的演示。

這兩項工作都使用了無人系統聯合架構(JAUS)和互操作性配置文件(IOP),以成功實現系統間的互操作性。試驗表明,有可能相當容易地擴展系統,并在相對較短的時間內實現與部分標準的兼容。弗勞恩霍夫FKIE和TARDEC都開發了軟件,將信息從IOP域傳遞到機器人操作系統(ROS),并從該系統中獲取信息。ROS是一個廣泛使用的軟件,用于開發UGV和其他類型機器人的自主性,并被該小組的許多合作伙伴所使用。Fraunhofer FKIE和TARDEC提供的軟件對試驗的成功至關重要。

報告還討論了如何在采購前利用IOP標準來定義系統的要求。該標準本身定義了一套屬性,可以在采購新系統時作為要求來指定,可以是強制性要求,也可以是選擇性要求。這使得采購部門更容易定義要求,供應商也更容易符合要求,同時也明確了OCU在連接到系統時,在控制系統和可視化系統中的數據方面需要具備哪些能力。

該小組2018年在挪威瑞納的試驗重點是對UGV進行遠程操作,以及接收UGV的位置和視頻反饋。由于這是一次成功的試驗,下一步將是使用更高層次的控制輸入和反饋來測試互操作性,例如,向UGVs發送航點,并根據系統的感知接收系統周圍環境的地圖。

付費5元查看完整內容

《軍事中的人工智能和自主:北約成員國戰略和部署概述》報告以及相關文件《附錄A -國家概況》提供了人工智能和自主技術在北約盟國軍事中的作用的高層視圖。這是第一個專門針對北約國家軍事人工智能的學術研究。

該報告概述了每個北約國家在軍事人工智能方面的觀點和雄心,并概述了它們目前對人工智能技術的使用。在附錄A中,報告探討了每個國家在軍事和國防背景下與人工智能的接觸程度,審查了國家人工智能戰略和當前人工智能技術使用的公開來源。

本研究的策略含義如下:

鼓勵負責任的人工智能規范:作為一個基于共識的聯盟,北約在促進安全和軍事人工智能討論方面處于獨特地位,并有機會協調成員國之間的規范建設活動。

人工智能的采用:北約是一個有價值的機制,通過該機制,可以按需向成員國提供能力建設指導和更廣泛的援助。

協作增強抵御能力:加強聯盟合作可能使各國能夠利用能力建設努力,更好地應對與人工智能技術相關的安全挑戰。

維持集體防御:人工智能技術的能力差距不斷擴大,可能導致一些成員國在應對更快的沖突環境方面裝備相對不足,在這種環境中,對手越來越多地利用人工智能和自主系統。

關注未來的互操作性: 豎井式創新為聯盟提出了未來的互操作性挑戰,例如在跨國運營中共享數據和AI應用。

付費5元查看完整內容
北京阿比特科技有限公司