亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

軍事系統日益增強的自主能力提出了各種具有挑戰性的法律、倫理、政策、行動和技術問題。本卷的主要貢獻在于它對這些挑戰的多學科表述。在引言部分,沙瑞概述了自主性的基本概念,并反思了其對軍事行動的影響,如人機合作的機會。隨后,威廉姆斯對如何定義 "自主性 "進行了詳細分析。Scharre和Williams的章節提醒我們,真正的自主系統并不存在--也許只是在科幻故事的遙遠未來。相反,他們強調自主性是系統的一種能力,它存在于組織、政策、指導和人類控制的復雜安排中。

Roorda的這一章給出了一個具體的例子,說明自主系統的使用是如何被特定的政策過程所控制的,以及在部署任何系統之前,該過程的每個階段是如何納入對相關法律、道德和操作問題的必要的人類決策。

然而,當代的政策辯論--最近在《聯合國某些常規武器公約》中,顯示出自主系統仍然是一個有爭議的話題。雖然武裝沖突法和國際人權法并不禁止向自主系統下放軍事職能,但阿諾德和克羅托夫的章節擴大了視野,特別討論了國家的作用和責任,以及可能受到自主系統發展影響的各種國際法。然而,這種政策問題并不是軍事領域所獨有的。安德森和松村的章節強調了在民用領域引入 "無人駕駛 "汽車所面臨的法律和政策挑戰,軍事能力應該注意到這一點。

即使考慮到這些法律和政策結論,對自主系統仍有嚴重的倫理和實際保留。梅爾的章節為分析自主系統在軍事行動中的影響提出了一個倫理框架,并提出了一系列政策制定者的建議。Keeley提出了另一種解決方案,建議建立一種審計和追蹤系統內部算法的程序和能力,以便進行驗證和確認、測試和問責。然而,Theunissen和Suarez表明,對于許多任務來說,高水平的自主性不一定是可取的,最佳的解決方案是將自主控制和人類控制結合起來,發揮各自的優勢。

有了這個關于自主系統政策考慮的法律、定義和倫理框架,本書的最后一節介紹了關于能力發展各個方面的四個詳細章節。首先,Saariluoma提出了一個框架,為自主系統引入基于人類技術互動設計的思維,提醒我們,最終,這種系統是人類的工具,因此,人類互動和控制系統的方式應該是直觀的。

Sulzbachner、Zinner和Kadiofsky的章節強調,許多自主系統的要求是無源光學傳感器技術,用于在非結構化、非合作的環境中運動。他們提醒我們,正在進行的將無人駕駛和自主系統納入空域的各種監管舉措,例如,本質上依賴于建立性能標準,然而驗證光學和其他傳感器系統的標準化方法仍未完全建立。

Arbour、MacLeod和Bourdon對有人和無人的組隊概念進行了分析,并提出了一系列不同的選擇,即無人飛機如何與有人飛機協同使用,發揮各種新的作用。他們的建議是,鑒于無人系統的可靠性和自主性不斷提高,我們需要在能力發展的早期階段確定更多的潛在配置和組合,而不是局限于一對一的平臺替代。

托爾克在本卷的最后一章建議更多地使用基于代理的模擬方法來支持自主系統的設計、開發、測試和操作使用。原因是仿真中的軟件代理是自主機器人系統的虛擬對應物,在許多情況下,管理物理系統和軟件代理的基本算法可能是相同的。這導致了許多改善系統測試和評估的機會,而且通過在部署前對系統的任務進行模擬,還可以提供操作支持。

本卷的結尾是北約首席科學家Husniaux少將的前瞻性觀點,他為未來的能力發展推薦了一系列關鍵研究領域。他提醒我們,科學和技術的發展是必不可少的,但必須與操作者、政策、法律和理論觀點合作,共同發展。

我們正在擴大我們在這一關鍵領域國防能力的視野,然而創新需要外部的投入和新的觀點。實現這一目標的最佳方式是通過一個多樣化的專家網絡來分享想法。我知道,SACT總部領導的工作已經從這種接觸中受益匪淺,我希望聯盟的科學家、工程師、法律和政策工作人員以及軍事操作人員網絡也將同樣受益。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)系統很可能會改變軍事行動。本文探討了人工智能系統如何影響準備和進行軍事行動的主要工具,并受其影響。因此,本文在戰略、理論、計劃、交戰規則和命令的背景下分析和討論了人工智能,以確定機會、挑戰和開放性問題的位置,并提出總體意見。本文采取了一個廣泛的分析角度,能夠根據新的政策和技術發展以及對政治、軍事、法律和道德觀點的考慮,對這一問題進行總體審查。因此,本文提供了一些見解和途徑,以推動對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

付費5元查看完整內容

人工智能(AI)在國防領域的使用帶來了重大的倫理問題和風險。隨著人工智能系統的開發和部署,澳國防部將需要解決這些問題,以維護澳大利亞國防軍的聲譽,維護澳大利亞的國內和國際法律義務,并支持國際人工智能制度的發展。

這份報告《案例研究:國防中的倫理人工智能方法應用于戰術指揮和控制系統》是總理與內閣部(PM&C)、澳國防部和澳大利亞國立大學(ANU)3A研究所之間的科技(S&T)合作的產物。它使用《國防中的倫理人工智能方法》[1]來探討設想中的人工智能戰術指揮和控制(C2)系統的倫理風險,該系統整合了各種自主功能,以協助單個人類操作員同時管理多個無人駕駛車輛。

使用 "國防中的倫理人工智能方法 "對這一設想的C2系統進行分析,為三個利益相關者群體提供了關鍵的發現:澳國防部;人工智能技術開發者,以及那些尋求使用或迭代 "國防中的倫理人工智能方法 "的人。

對于澳國防部,該報告確定了關鍵的政策差距,并建議在以下方面采取行動。

  • 對人工智能所做的決定和使用人工智能所做的決定制定一個問責框架

  • 對操作員、指揮和系統開發人員的教育和培訓

  • 管理支撐許多人工智能應用的數據,包括其收集、轉換、存儲和使用。

如果不采取行動,這些差距使澳國防部容易受到重大的聲譽和業務損害。

對人工智能技術開發者的其他關鍵發現涉及到有效性、整合、授權途徑、信心和復原力等主題。總的來說,這些發現鼓勵開發者考慮最有效的系統或算法(例如,在速度或準確性方面),是否一定是為決策者提供幫助的最佳選擇。在某些情況下,與規范性決策更一致的效率較低的算法可能更合適。此外,顯然需要研究哪些信息是做出好的判斷所必需的(特別是在問題復雜、背景重要的情況下);以及應該如何快速傳達這些信息。通過考慮作為分析的一部分而開發的七種假設的道德風險情景,可以進一步探討這些關鍵的發現。

對于那些尋求應用或迭代《國防倫理人工智能方法》的人來說,報告建議開發更多的工具,以幫助從業者確定對其特定需求具有最大相關性和效用的領域;以及一套全面的定義,以幫助應用該方法。

付費5元查看完整內容

這篇短文分析了英國在最近兩份政策文件中提出的將人工智能(AI)用于軍事目的的方法。第一部分回顧并批評了英國防部于2022年6月發布的《國防人工智能戰略》,而第二部分則考慮了英國對 "負責任的"軍事人工智能能力的承諾,該承諾在與戰略文件同時發布的《雄心勃勃、安全、負責任》文件中提出。

建立自主武器系統所需的技術曾經是科幻小說的范疇,目前包括英國在內的許多國家都在開發。由于無人駕駛飛機技術的最新進展,第一批自主武器很可能是基于無人機的系統。

英國無人機戰爭組織認為,開發和部署具有人工智能功能的自主武器將產生一些嚴重的風險,主要是在戰場上喪失人的價值。賦予機器奪取生命的能力跨越了一個關鍵的道德和法律障礙。致命的自主無人機根本缺乏人類的判斷力和其他素質,而這些素質是在動態戰場上做出復雜的道德選擇、充分區分士兵和平民以及評估攻擊的相稱性所必需的。

在短期內,自主技術的軍事應用可能是在低風險領域,如物流和供應鏈,支持者認為這些領域有成本優勢,對戰斗情況的影響最小。這些系統可能會受到人類操作員的密切監督。從長遠來看,隨著技術的進步和人工智能變得更加復雜,自主技術越來越有可能成為武器,人類監督的程度可望下降。

真正的問題也許不是自主權的發展本身,而是人類控制和使用這一技術發展的里程碑的方式。自主性提出了與人類判斷、意圖和責任有關的廣泛的倫理、法律、道德和政治問題。這些問題在很大程度上仍未得到解決,因此,對于快速推進發展自主武器系統,人們應該深感不安。

盡管自主武器系統似乎不可避免,但有一系列的措施可以用來防止其發展,如建立國際條約和規范,制定建立信任措施,引入國際法律文書,以及采取單邊控制措施。英國無人機戰爭組織認為,英國應充分參與在國際舞臺上制定這些措施。

然而,在這個時候,政府似乎希望保持其選擇的開放性,經常爭辯說,它不希望創造可能阻礙人工智能和機器人技術的基本研究的障礙。盡管如此,大量受控技術,如加密,或在核、生物和化學科學領域,可用于民事或軍事目的,而且受控時不會扼殺基礎研究。

付費5元查看完整內容

亮點

  • 自主武器正在迅速擴散:在可及性、自主程度、國際開發者的范圍,以及它們在情報、偵察和致命打擊中的戰術作用。

  • 自主系統仍然非常容易出錯,顯示出較差的穩健性、可解釋性和對抗性。

  • 主要的軍事大國對條約提案投了棄權票,而其他國家和人道主義組織則迫切要求進行監管。

  • 國際和美國的政策仍然模糊不清,缺乏現實的問責和執行機制。

摘要

本文調查了全球社會在致命武器系統自主性擴散方面所面臨的關鍵技術、人道主義和政治挑戰。本文的討論涉及具有不同類型自主性的武器系統,特別是致命性自主武器系統(LAWS)。"這些武器系統包括武裝無人機、車輛、潛水器、哨兵炮塔、導彈系統和其他人工智能(AI)的動態應用。本報告旨在總結來自公共領域的主要發展,沒有秘密信息。

我們首先討論了致命性自主武器系統的狀況,包括總體趨勢、致命性自主武器系統的時間表、自主程度、致命性自主武器系統中使用的一些技術的雙重用途、國際政治立場,以及可獲得性、可解釋性、問責制和執行所帶來的挑戰。接下來,我們將討論致命性自主武器系統的自主能力和情報方面的最新文獻,然后從美國國內和國際的角度討論自主武器政策。

全球趨勢

近年來,硬件方面的技術進步,從電子光學、紅外和聲納系統到合成孔徑雷達,以及人工智能/機器人方面的技術進步,從更好的三維和視覺感知到運動預測和規劃,使得自主系統得以迅速發展[2]。技術進步推動了成本的降低、更多的可及性、更少的人為錯誤和更快的反應時間;這擴大了情報、監視和偵察(ISR)、導航、探測等方面的使用機會。人工智能設備為無人車提供了更大的速度和在不需要數據鏈接的環境中運行的能力,例如在水下或靠近對手的干擾裝置,增加了超越敵方系統的機會[3]。最近的趨勢是有更多的國家參與積極的致命性自主武器系統的開發,包括越來越多的進攻性應用,定位為城市沖突而不是戰場,以及蜂群能力。此外,無人駕駛飛行器(UAVs)的能力在其部署時間、行動的地理區域、可識別物體的范圍和相互協調的能力方面都在擴大[2]。

國際辯論也相應地加強。國家通過聯合國,以及公民個人通過國際倡導團體,施加越來越大的壓力,要求制定具有法律約束力的國際條約來規范此類武器;然而,包括美國在內的最大的軍事行為體卻一再回避任何此類承諾。因此,具有越來越多自主功能的各種致命性自主武器的技術進步和軍事采用繼續向前發展。

致命武器系統的時間軸和實例。幾十年來,致命性自主武器系統一直在不斷發展。在之前的幾十年里,半自動地面環境(SAGE)防空系統搜索敵機,軍艦采用近程武器系統(CIWS)來自動探測、跟蹤和消除來襲導彈[4, 5]。也許人類干預自動化戰爭的最著名的例子是1983年由自動目標探測引發的蘇聯核假警報事件。當預警衛星錯誤地將高空云層識別為來自美國的洲際彈道導彈時,蘇聯防空部隊中校Stanislov Petrov選擇不援引蘇聯的強制核反擊政策。

20世紀80年代,第三代反坦克制導武器(ATGWs)的制造和發展,這種武器被設計成向上發射到空中,并將利用紅外線獨立獲取目標。歐洲的PARS 3 LR[6]和以色列的Spike[7]ATGWs是這種類型的歸航導彈的例子。美國和其他國家在2022年送給烏克蘭軍隊的現代 "標槍 "反坦克武器,包含了一個稱為電子安全武裝和發射(ESAF)的控制系統,在發射后將導彈引向目標[8]。

美國在自主武器領域一直是一個突出的創新者,在1970年代首次生產了名為Phalanx CWIS的目標跟蹤和獲取裝置[9]。在21世紀初,美國愛國者導彈計算機在兩個不同的場合錯誤地識別了友軍戰機,這導致了友軍開火和死亡[10]。有缺陷的程序沒有適當考慮到自動化錯誤。在過去的十年中,韓國和以色列已經建造了能夠完全自主地識別并向人類開火的哨兵槍[10]。

近年來,俄羅斯和以色列也開發了具有自主導航和瞄準能力的無人水面飛行器(USV),中國也開發了一種自主直升機[5, 11]。致命的無人機系統和游蕩彈藥的出現也許是最危險的致命性武器系統,現在已經廣泛發展,而且相對便宜和容易獲得[11]。以前用于偵察,這些航空系統被設計為自主巡邏區域,搜索敵方雷達、飛機或人員,并對其進行攔截,通常帶有內置彈頭。眾多的例子見表一。

2021年3月8日,利比亞問題專家小組向聯合國安全理事會提交了聯合國信函[S/2021/229][12]。根據該報告,2020年3月27日,哈利法-哈夫塔爾的部隊至少受到了一枚卡爾古-2型致命性武器的攻擊,記錄了第一起可能完全自主的致命性自主武器的開火和遺忘的使用。由于難以確認像這樣的武器是否真的自主行動,可能還有類似的攻擊,但公眾并不知道。

俄羅斯在2022年入侵烏克蘭時,廣泛使用了TB2(表一)和標槍反坦克武器。目前還不清楚TB2的自主起飛和巡航功能是否對戰爭起到了作用,但標槍導彈的 "發射-遺忘 "能力使小型反擊部隊能夠快速打擊并遠距離撤退[13]。

兩用技術。參考文獻[14]描述了人工智能的 "兩用困境":同樣的技術既能提供關鍵的民用,也能提供軍事應用。自動駕駛汽車用來避開行人的同樣的視覺感知、人體識別和跟蹤工具,很容易被重新用于尋找和引爆軍事目標。

自主系統擴展了許多積極的好處,從清除地雷、供應有爭議的領土、識別和保護非戰斗人員,以及限制附帶損害。這些應用很少需要自動瞄準或發射。DART,動態分析和重新規劃工具,在沙漠風暴行動中使用人工智能來優化后勤和調度,據說已經抵消了之前30年DARPA對人工智能研究的所有資金支出[15]。再加上開放源碼的人工智能工具和技術越來越容易獲得,區分有害和有益的應用可能比核、化學或生物武器更具挑戰性。

付費5元查看完整內容

本文提供了廣泛社會中對人工智能和自動化決策的反應的初步草圖,同時將這些反應與武器系統中的自主性聯系起來。

九年多來,自主武器系統一直是各種論壇的國際討論主題,包括聯合國人權理事會、聯合國大會裁軍與國際安全第一委員會以及《特定常規武器公約》(CCW)致命自主武器系統領域新興技術政府專家組(GGE on LAWS)。 在這些討論中,各國、聯合國機構、國際組織和非政府組織強調了人工智能(AI)和自主武器系統的各種嚴重倫理、道德、人道主義和法律影響。 盡管大多數國家支持就法律文書進行談判,但2021年12月舉行的《化學武器公約》第六次審查大會未能就致力于制定任何形式監管的授權達成一致。

在編寫該報告時,確定了40個國家公開發布了關于國內人工智能發展和使用的具體政策文件或其他戰略。 該報告評估了眾多相關的國家人工智能戰略和立場、歐盟級別的報告和法規、國際準則和其他文件,以引出關于人工智能和自動化決策技術在民用領域的采用和使用的核心主題和關注。

關鍵信息

  • 許多國家和國際機構在民用領域認識到人工智能和自動化決策技術的使用帶來的嚴重風險和挑戰的程度,應被視為對軍事領域平行和相關關切的驗證。

  • 考慮到在軍事瞄準背景下自動處理所涉危害的性質和規模,以及在軍事領域應用民用監督機制的困難,與自主武器系統相關的挑戰尤為嚴峻。

  • 針對民用領域的人工智能和自動化決策制定以人權為重點的應對措施,應促使各國關注受影響者的權利,將其作為制定軍事領域必要規則的基本出發點。

  • 使用自主武器系統的問責制和責任的重要性影響到需要如何制定某些規則,以避免問責制的削弱,并確保保護和履行國際人道主義法規則和基本人權。

付費5元查看完整內容

這期雜志專門介紹了最近的多領域作戰研討會的成果。邀請了來自北約、學術界和工業界的專家來分享觀點,并建立一個共同的基礎,探討多域作戰對軍團總部的意義,特別是考慮到作為小型聯合行動(陸軍)的聯合特遣部隊總部的作用。戰爭正在快速變化,技術在戰場上的地位是我們可能沒有預料到的。研討會是磨練頭腦和避免意外的另一個步驟。必須努力確保我們的程序、戰法和產品能夠抓住進步帶來的機會。作為那些以指揮和控制為生的人,需要確保統一的意圖和任務,以及完成任務的效果,這些都是明確的,并且能夠有利于跨領域的協調工作。必須務實,集中精力解決需要解決的問題,并提醒自己,我們的行為很重要:這是合作的第一層,因為它確保我們都覺得是解決方案的一部分。

付費5元查看完整內容

科學和技術的進步越來越復雜和普遍。從智能手機到可穿戴健康監測器,再到用于游戲的虛擬現實頭盔,先進的技術正逐漸融入到日常生活中。但是,隨著科學技術越來越先進,我們在如何與新技術互動和使用這些技術在社會中如何發揮作用方面,也面臨著同樣復雜的倫理挑戰。無人駕駛汽車就是一個說明性的例子,它引發了一些倫理上的難題。例如,在無人駕駛汽車必須 "選擇 "撞上老人或小孩的情況下,哪種反應才是正確的?有沒有一個 "正確 "的反應?在這種情況下,人類司機會有正確的反應嗎?無人駕駛汽車是否應該轉彎以避免被駛來的卡車追尾,但這樣做會使一群過馬路的兒童面臨被卡車撞上的風險? 這些問題的答案本來就不簡單。此外,不同的技術在不同的情況和背景下會帶來不同的倫理問題;事實上,新興技術的軍事用途會帶來一些獨特的倫理挑戰。

美國國防部高級研究計劃局幾十年來一直在資助軍事科技研究和開發,僅2015年的年度預算就達29億美元。盡管科技正在快速發展,為軍事問題穩步提供新興技術解決方案,但我們的監管政策卻滯后,導致我們對在戰場上使用特定技術的倫理、社會和法律后果的認識存在差距,這是許多人指出的問題。對軍隊來說,一些最深刻的倫理問題是由新興的人體強化技術和自主或機器人系統引起的。例如,一個強化的士兵是否會被視為比人類更多或更少的東西,從而受到對手的非人待遇?在海外戰區從國內操作無人駕駛飛行器(UAV)的士兵是否被認為是戰斗人員,因此在本土是公平的軍事目標?與民用技術一樣,新興技術的軍事用途所引起的許多倫理問題沒有明確的答案。無論如何,在一項新興技術被廣泛使用--民用或軍用--之前,開發者、利益相關者和政策制定者意識到與之相關的潛在倫理問題是至關重要的,這樣就可以通過修改技術或規范其使用的政策來緩解這些倫理問題。

確保潛在的倫理問題得到承認的方法之一是建立一個全面的框架,以方便識別在使用任何感興趣的特定技術時可能出現的倫理問題。有幾個現有的工具指導對新興技術的倫理評估,其中包括相關問題和考慮因素的清單。例如,Elin Palm和Sven Hansson提出了一個九項檢查清單,包括:信息的傳播和使用;控制、影響和權力;對社會接觸模式的影響;隱私;可持續性;人類生殖;性別、少數民族和正義;國際關系;以及對人類價值的影響。David Wright提出了一個框架,包括一些原則,在這些原則下列出了一些價值或問題,以及在評估過程中需要回答的問題:尊重自主權(自由權);非惡意(避免傷害);善意;正義;隱私和數據保護。Federica Lucivero、Tsjalling Swierstra和Marianne Boenink建議,倫理學家在考慮一項技術的合理性時應避免過多的猜測,而在考慮該技術將如何被社會看待并在社會中發揮作用時應使用更多的想象力。為了促進這一點,他們提出了三類考慮因素:技術可行性、社會可用性和技術的可取性。雖然這些倫理評估框架對確定與平民使用的新興技術相關的倫理問題很有用,但它們對評估軍事倫理是不夠的,因為軍事倫理有一些獨特的特點。

雖然軍事和民用倫理之間有一些共同的價值觀(例如,隱私和健康問題),但在新興技術的軍事使用方面也有特殊的考慮。例如,軍事行動必須遵守《武裝沖突法》(LOAC),該法規定了戰爭手段并保護非戰斗人員和受沖突影響的平民。例如,加拿大武裝部隊(CAF)有一個《道德和價值觀準則》,其中規定了CAF成員必須遵守的價值觀,包括尊重加拿大法律和為加拿大服務高于自己,以及他們必須表現出的價值觀,如誠信和勇氣。

研究倫理原則對于確保包括士兵在內的人類研究對象在新技術的實驗測試階段得到道德對待至關重要。事實上,現代人類研究倫理原則是在軍事研究人員以研究名義進行的應受譴責的行為的歷史中產生的。當研究對象是軍人時,如果研究和軍事需要之間的界限變得模糊,就會出現挑戰,特別是在知情同意方面會出現復雜情況。但是,即使在設計和測試一項新技術時遵循了研究倫理原則,在使用該技術時仍可能出現倫理問題。有一些類似的倫理原則,如知情同意、隱私和保密性,在研究階段和隨后使用一項技術時都應考慮。

即使遵守了法律和法規,并考慮了其他倫理原則,如研究倫理原則,一項新技術仍不一定符合軍事用途的倫理,必須進一步考慮。例如,一項新技術是否會導致士兵之間的不平等,并導致部隊的凝聚力下降?如果一項新技術導致了意外的傷亡,誰來負責?一項技術是否會使士兵面臨被對手探測和攻擊的風險? 在確定一項技術是否有任何軍事倫理問題時,有許多嚴重的問題需要反思。此外,還有人從反面考慮新技術和軍事倫理之間的關系,認為應該修改指導士兵行為的軍事倫理,以實現某些新興技術的潛在倫理優勢。

鑒于全面評估一項技術所需的軍事倫理考慮的數量,以及任何違反倫理的行為對戰斗的潛在嚴重性,迫切需要一個軍事專用的倫理評估工具。其他團體已經將各種倫理原則改編為討論倫理和軍事技術的框架。然而,據我們所知,還沒有一個實用的倫理評估工具,可以用來指導對軍隊感興趣的新興技術進行系統的倫理評估。

為了填補這一空白,我們創建了一個名為 "軍事倫理評估框架"(框架)的綜合框架,將相關社會、法律、研究和軍事倫理領域的廣泛考慮納入其中,以幫助用戶和決策者確定在軍事上使用人體強化技術可能產生的潛在倫理問題。盡管該框架的設計足夠廣泛,可用于對許多不同類型的新興技術進行倫理評估,但我們對該框架的初步測試側重于新興的人類增強技術,因為這些技術對軍隊有很大的意義,而且它們引起了許多倫理問題。未來的研究將檢驗該框架在識別軍隊可能感興趣的其他新興技術(如人工智能技術)所引起的倫理問題方面的效用。 本文的目的是介紹該框架,并通過展示它如何幫助識別與軍隊感興趣的兩種不同的人體增強技術有關的潛在倫理問題來說明該工具的使用。

付費5元查看完整內容

1 引言

近年來,"蜂群 "和 "構建蜂群"是無機組系統界最普遍的流行語之一,不僅包括航空器,還包括陸地、海洋、水面以及水下的無人系統。然而,什么是蜂群,或者它需要擁有哪些基本能力,還沒有正式定義。北約的無機組飛行器社區最近開始為上述術語制定定義,以最終正式確定各自的術語供官方使用,但由于不同社區對什么是蜂群有不同的解釋和觀點,很快就陷入了困境。因此,以空中為中心的定義可能不太適合于其他領域。

本文旨在概述挑戰,并在討論未來 "蜂群 "的定義及其在無人飛行器背景下的相關術語提供思考素材。

2 定義的目的

每個術語的定義都需要滿足一個目的;否則,它就沒有意義,也不需要被定義。例如,遙控飛機(RPA)被定義為 "由經過培訓和認證的飛行員控制的無人駕駛飛機[......],其標準與有人駕駛飛機的飛行員相同。"因此,使用RPA一詞表明操作飛機需有一定程度的飛行員資格要求。以同樣的方式,需要同意該定義是為哪些條件和目的服務的,即在哪些情況下需要它。

定義 "蜂群 "所面臨的挑戰是,適用的用途差別很大,一種用途的定義參數可能與另一種用途不相關。為了概述這一挑戰,下面介紹了一些例子。

作業用途。使用蜂群來實現軍事效果是基于需要解決的軍事問題。只有當蜂群功能與其他解決方案相比能帶來軍事利益時才會被采用。所期望的效果在本質上將符合能力要求的定義,因此,需在采購者的法律框架內。實戰化蜂群技術并按照適用的國家和聯盟立法、交戰規則以及戰術、技術和程序進行操作,可能需要一個定義,該定義提供了關于軍事能力、遠程操作模式、指揮和控制手段以及人類互動程度的說明。

開發者用途。需要充分了解潛在的蜂群功能,以便從開發者的角度確定軍事使用的好處。開發蜂群技術和實現蜂群行為的正確執行可能需要復雜的自主性和人工智能應用水平,使人類能夠將蜂群作為一個整體進行操作,但不需要(甚至不允許)控制任何單獨的蜂群實體。因此,這種用途的定義可能集中在自主性水平、其在硬件和軟件中的技術實現以及蜂群功能在其系統中的適應性。

反蜂群用途。在觀察和防御蜂群時,自主性水平或指揮和控制手段并不那么重要。從這個角度來看,實體的數量、它們的觀察行為以及它們假定的蜂群能力是最相關的問題,因此也是決定性的因素,不管蜂群實體是人工控制還是自主操作。識別一個較大的實體群是否有資格成為蜂群的挑戰隨著展示的蜂群行為的復雜性而增加。

在其他情況下,"蜂群 "一詞的定義可能需要偏離或替代,以達到其目的。為了解決這個難題,有兩個選擇。首先,為每一種用途制定多個定義,其次,找到一個可以服務于所有(或至少是大多數)用途的共同標準。由于多種定義有可能在不同的用戶群體之間造成混淆和誤解,因此第二種選擇更受歡迎。每個用戶群體以后可以將其具體要求作為子類別術語附加到一般定義中,類似于RPA,它是 "非螺旋槳飛機 "這一總體定義下的一個子類別。

3 共同標準

這就給我們帶來了一個挑戰,即為總體的蜂群定義確定一個共同標準。通過觀察蜂群,特別是其行為,可以發現共同點,不管它是由空中、陸地還是海上的無人系統組成,也不管蜂群的行為是實際執行的還是只是被感知的。因此,一個總體的定義應該從蜂群的外部外觀和視覺感知開始,而不是關注其內部運作。后者可以用子類術語來涵蓋和區分。

4 蜂群行為

在開源研究中,有許多關于蜂群行為的定義,但它們主要描述的是同一個概念,通常將蜂群智能作為一個前提條件。例如:

  • "蜂群是大量個體組織成協調運動的現象。僅僅利用環境中他們所掌握的信息,他們就能聚集在一起,集體移動或向一個共同的方向遷移"。

  • "蜂群智能是對分散的、自組織的系統的研究,這些系統能夠以協調的方式快速移動"。

  • "在蜂群機器人學中,多個機器人通過形成類似于在自然系統中觀察到的有利結構和行為來集體解決問題,如蜜蜂群、鳥群或魚群"。

  • "蜂群智能源于動物的自然蜂群行為,可以定義為相同大小的動物表現出的集體行為,聚集在一起解決對其生存至關重要的問題。蜂群智能可以被定義為簡單代理群體的新興集體智能"。

上述所有定義的共同點是形成蜂群的個體的 "協調運動"。集體智能也被提到是實現這種行為的關鍵因素;然而,觀察者將無法確定蜂群的協調運動是基于集體智能還是通過其他控制手段。因此,在總體定義中,集體智能是一個需要考慮的次要屬性,需要由后續術語來涵蓋。值得注意的是,未來的技術,包括人工智能和機器學習應用,可能使觀察者能夠確定一大群實體是否擁有可能造成更大威脅的額外蜂群功能。因此,"集體智能"或類似的可識別的蜂群功能可能被納入定義中。

【值得注意的是,"多個蜂群元素 "原則上意味著,任何數量大于1的單位,如果從事蜂群行為以提高整體單位的集體能力,都可以被視為一個蜂群。由于沒有專門的系統,識別蜂群行為幾乎是不可能的,因此,除非另有證明,否則最好將看似一起行動的多個實體視為一個蜂群。更高的數量會放大蜂群行為的好處。另外,各個實體不需要完全相同,只需要兼容,作為蜂群的一部分解決軍事問題。】

5 單個蜂群元素的數量

根據上述定義推斷,蜂群的另一個關鍵要素是參與的實體數量,但沒有明確規定最低數量。是否有一個閾值需要跨越,以脫離傳統的分組方案,如中隊、航班,從而有資格成為蜂群?同樣,我們有幾個選擇:

1.將任何由兩個或更多元素組成的編隊都歸為蜂群。

2.將蜂群定義為超過特定數量的單個元素的群體,其數量高于上述傳統分組。

3.避免任何具體化,將這一細節再次留給后續的分類學層次。

為了避免限制性太強,并允許有子類別,建議采用最后一種方案。術語"多個蜂群實體"很好地表達了建議的 "非特定性",并將在文章后面為此而使用。

6 空間分布

上述可觀察到的特征,即 "協調運動 "和 "多個蜂群元素",并不意味著各個蜂群實體之間有最小或最大的距離。已經有了采用廣泛分布的無機組的飛行器來轉播無線電通信或向偏遠地區提供互聯網連接的概念。單個航空器之間的距離可能是數百公里,以提供大面積的覆蓋。即使在較小的規模上,蜂群實體也可以在僅幾百米的距離內以協調的方式運作,以觀察一個地區或攻擊具有多個影響點的較大目標。如果不能對群體(或蜂群)進行整體調查,那么這些實體是否遵循預先確定的和不協調的模式或執行協調行動,對觀察者來說可能仍然是隱蔽的。因此,蜂群的空間分布不是一個總體定義的限定因素,而且會不必要地限制其應用,盡管這些特征可能在反蜂群活動中發揮作用,并在隨后的術語中加以定義。

7 人與人之間的互動

在談論蜂群技術時,人們廣泛討論了不同的自主性水平和相應的人類互動水平。例如,自主性水平越高,在實際任務中對人類投入的要求就越低。顯示出一套完整的蜂群行為的蜂群很可能處于自主性等級的高端,將人類互動的必要性降到最低。也可以假設這種人類互動適用于整個蜂群,以控制總體的蜂群功能,而不是單個的蜂群實體。然而,在觀察由單個空中、陸地、地面或地下飛行器組成的蜂群時,很難確定其自主性和人類互動水平,因此對于總體 "蜂群 "的定義而言,這不是一個相關因素。為了不限制定義的適用性,這些特征應該用一個子術語來描述,如 "智能蜂群"、"自主蜂群 "或類似的措辭,因為它們肯定在研究和開發、蜂群就業方面具有適用性,而且可能用于法律目的。

8 蜂群的能力

人們通常認為,組成一個蜂群可以增強或產生單個系統無法實現的能力。蜂群可以被認為是一個系統簇,它可以執行預先設計的功能并提供一個或多個(軍事)效果。這些效果要么直接受益于蜂群行為,要么間接受益于單個系統能力的組成,作為一個組合的蜂群功能。這種好處需要從能力要求、作業和防御的角度清楚地理解,并且可以與其他軍事用途的定義聯系起來。一般來說,蜂群行為是任何蜂群能力的基礎。然而,蜂群能力可能因使用的系統類型而有很大的不同,而且與蜂群行為相比,不能觀察到,只能在執行前假設。因此,能力聲明被認為不適合作為總體定義,還應該由下屬術語涵蓋。

9 定義提議

一個定義取決于蜂群的預期用途。由于蜂群應用提供了各種用途,本文建議從一個總體定義開始,并在下屬術語中涵蓋各個使用屬性。

以下是一個總體定義建議,涵蓋并支持所有軍事領域及其各自的無機組人員系統,隨后對定義的每個術語進行了解釋。

形成。這應表明蜂群元素之間的空間相關性,同時有意不進一步描述其具體組織。這就為各個蜂群元素之間的各種距離和空間安排留出了分類的空間。

多個。蜂群可能由少數甚至數百個元素組成,但至少要超過一個。不具體的術語 "多個 "允許該定義適用于所有類型的蜂群,無論其參與元素如何。定義一個具體的數字對于任何下屬的術語來說也將是困難的。可以對小型蜂群中的 "可計算的數量 "和大型或大規模蜂群中的 "不可計算的數量 "進行區分,這可能有助于區分人類或技術系統被接近的實體所淹沒時的威脅。

實體。它包括所有類別的無人系統,包括空中、陸地、地面和地下系統。如果計算機程序或衛星系統的協調行動是北約未來的選擇,這個術語也可以適用于網絡和空間領域。可以考慮使用從屬的術語,例如,無人駕駛飛機系統群(UASSw)或無人駕駛地面車輛群(USVSw)。

顯示協調的行為。蜂群的內部運作和技術機制可能有所不同,對于某些用途,定義甚至可能不需要審查這些內部特征。本文所確定的共同點是蜂群的行為,包括可以觀察到的協調動作和行動。故意不說明這些協調行動是如何實現的。實現蜂群功能的技術手段可以用隨后的術語來表達,如 "自主蜂群 "或 "智能蜂群"。

朝著一個目標前進。這是為軍事背景服務的,因為可以假設蜂群總是指向一個目標,以實現其特定的任務目標,從簡單的現場調查、情報、監視和偵察,到打擊或自殺任務。這可能與軍事背景以外的情況無關,可以不提。

【蜂群是由多個實體組成的,它們朝著一個目標表現出協調一致的行為。】

10 結論

為 "蜂群 "找到一個一致的定義是一個困難的挑戰,因為在所有的軍事領域和民事應用中都有很多用途。要在北約內部實現對蜂群定義的廣泛接受,唯一的解決辦法是確定所有蜂群特征的共同點,將定義減少到最低限度,并將專門用途的具體細節留給下級術語。

作者

安德烈-海德爾,中校是一名炮兵軍官,在指揮與控制和作戰計劃方面有超過15年的經驗。他是JAPCC的無人駕駛飛機系統主題專家,已有十多年的經驗,并代表JAPCC參加北約聯合能力小組的無人駕駛飛機系統和北約反無人駕駛飛機系統工作組。他撰寫了關于無人機系統和C-UAS的操作和法律問題的多項研究、書籍和文章。

安德烈亞斯-施密特,中校于1993年加入德國空軍。在軍官學校學習后,他在慕尼黑的德國武裝部隊大學學習計算機科學。自1998年以來,他在地基防空方面建立了廣泛的背景,特別是愛國者武器系統。他開始擔任戰術控制官,隨后在不同的 "愛國者 "部隊中擔任偵察官、炮臺執行官和炮臺指揮官。此外,他曾兩次不連續地被派往德克薩斯州的布萊斯堡。在這之間,他曾在前空軍師擔任A3C的任務。目前,他是JAPCC的綜合防空和導彈防御/彈道導彈防御中小企業。

付費5元查看完整內容

引言

本文件是北約 IST-151 研究任務組 (RTG) 活動的最終報告,題為“軍事系統的網絡安全”。該 RTG 專注于研究軍事系統和平臺的網絡安全風險評估方法。 RTG 的目標如下:

? 協作評估軍事系統的網絡安全,并在 RTG 的北約成員國之間共享訪問權限;

? 在 RTG 的北約成員國之間共享風險評估方法和結果;

? 將 RTG 的北約成員國使用的評估方法整合到一個連貫的網絡安全風險評估方法中,以使北約國家受益。

軍事平臺比以往任何時候都更加計算機化、網絡化和受處理器驅動。他們大量使用數據總線,如 MIL-STD-1553A/B、CAN/MilCAN、RS-422/RS-485、AFDX 甚至普通以太網,以及戰術通信的舊標準,如 MIL-STD-188C 和 Link 16。此外,捕獲器、傳感器、執行器和許多嵌入式系統是擴展攻擊面的額外無人保護的潛在輸入。結果是增加了網絡攻擊的風險。然而,這些平臺的持續穩定運行對于軍事任務的成功和公共安全至關重要。

軍事系統和平臺是網絡攻擊的首選目標,不是因為它們像消費電子產品那樣普遍,而是因為它們潛在的戰略影響。一旦受到影響,就可以實現各種短期和長期影響,從拒絕能力到秘密降低其有效性或效率。因此,軍隊必須在各個層面解決網絡安全問題:戰略層面,同時獲取平臺和系統;作戰層面,同時規劃軍事任務和戰術。

北約國家擁有大量可能面臨網絡攻擊的軍事平臺和系統。因此,北約將受益于利用當前的流程和方法來設計更安全的系統并評估當前系統的網絡安全。

本報告介紹了針對軍事系統和平臺量身定制的網絡安全評估方法,該方法由 RTG 團隊成員合作開發,并建立在他們的經驗和專業知識之上。團隊成員已經使用的流程被共享、分析、集成和擴充,以產生本報告中描述的流程。本報告的目標受眾是愿意評估和減輕其軍事系統的網絡安全風險的決策者。

圖一:網絡安全評估過程的五個主要步驟。

報告結構

第 2 節介紹了 RTG 團隊在其存在的三年中用于開發流程的方法。第 3 節列出了可以應用該過程的系統的一些特征。最后,第 4 節描述了評估流程,而第 5 節總結本報告。

執行總結

軍事平臺比以往任何時候都更加計算機化、網絡化和受處理器驅動。這導致增加了網絡攻擊的風險。然而,這些平臺的持續穩定運行對于軍事任務和公共安全的成功至關重要。

絕對的網絡安全是不存在的。必須通過迭代風險評估持續管理網絡安全。傳統 IT 系統存在許多網絡安全風險管理框架和流程。然而,在軍事平臺和系統方面,情況遠非如此。本文檔介紹了針對軍事系統量身定制的網絡安全風險評估流程。該流程由北約 IST-151 研究任務組 (RTG) 活動的團隊成員開發,該活動名為“軍事系統的網絡安全”。該過程可以應用于傳統的 IT 和基于固件的嵌入式系統,這些系統在軍事平臺和系統中無處不在。

付費5元查看完整內容
北京阿比特科技有限公司