亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

無人機是革命性的嗎?讀到有關軍用無人駕駛飛行器(UAV)或 "無人機 "的報道,人們可能會認為無人機是一項革命性技術,將從根本上改變戰爭。無人機的快速擴散、與科幻小說的聯系以及無人機使用的保密性使許多人得出結論:"無人革命 "即將來臨。

本論文對無人機革命進行了研究。論文以 "軍事革命 "概念為基礎建立了一個框架,并將其應用于對三個國家的無人機使用及其融入軍隊情況的研究。論文進一步探討了 "革命 "這一稱號在美國、德國和英國的無人機融入和使用中發揮的作用。

研究表明無人機已在軍事行動中證明了自己的價值,并對這三個國家的經驗進行了比較。本論文詳細評估了不同國家如何采用無人機以及采用無人機所產生的影響,尤其是在德國和英國的案例研究方面,使其成為一部具有參考價值的著作。

本論文評估了五類變化--作戰、條令、戰略、組織、社會--認為軍用無人機帶來的最根本、也可能是革命性的變化是社會變化,即戰斗人員對戰爭的體驗發生了根本性變化。此外,論文還強調了各國的具體變化。

結論是,將無人機定為革命性武器在一個國家--德國--產生了重要影響,盡管影響的方式與最初的預期相反。也就是說,圍繞無人機的激烈辯論阻礙了無人機的采購和條令思考。在其他兩個國家,無人機革命的說法并不普遍,因此影響也較小。

隨著無人機在全球范圍內的擴散,本文對全世界的政策制定者、軍事決策者以及研究人員有所幫助。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

本文采用對稱視角研究軍事技術及其對城市關系的潛在影響,從而審視當代城市戰爭的空間化問題。雖然城市和建筑研究走在了解決此類緊迫問題的前沿,但占主導地位的批判方法在很大程度上仍然是社會建構主義和人類中心主義的。技術被視為權力的被動投射;它們既不分解也不進化,缺乏與用戶和環境相關的能動性。不接受解釋既有權力結構和社會體系的宏大敘事,而是強調有必要將城市戰爭的空間化作為一個過程來研究,這個過程可以在軍事技術的日常運作層面得到更好的解讀。在這個層面上,生存能力成為一個至關重要的問題,一個有爭議的問題。對生存能力的探索使我們能夠審視將士兵的身體與技術物品和城市景觀聯系在一起的世俗關系政治,在人類和非人類之間構建新的關系。

論文將軍用裝甲車作為動態和不斷發展的技術對象進行分析,并通過其功能和故障追蹤在城市戰爭的平凡層面上引發的生存性關系政治。值得注意的是,將這種關聯追溯到美國軍方在上世紀伊拉克和阿富汗戰爭期間為恢復生存能力和應對致命的爆炸威脅而尋求的 MRAP 型車輛。

分析表明了生存能力是如何成為一個有爭議的問題,一個令人擔憂的問題,成為軍方技術和條令發展的基礎。如果不考慮士兵、裝備和任務/系統的生存能力,就無法投射力量。這種生存能力是兩個相互依存的關鍵過程的結果:具體裝甲概念、材料和技術的技術發展;士兵與裝甲車輛之間的社會技術關聯。從實用專利中分析前者,這些專利記錄了在一系列不同發明中解決裝甲對抗的過程;從軍事出版物、政府政策文件和二手資料中分析后者,這些資料將人類和非人類的工作聯系在一起。實用專利可以幫助解釋實驗室中的技術改進和發展歷程,而軍事出版物和其他資料則可以幫助解釋戰車在戰場上的部署及其遇到的挑戰和故障,無論是與戰斗有關還是無關。此外,還分析了與裝甲車相關的建筑和城市特征,在這里,裝甲車被視為移動的加固圍墻,以一種多功能的關系方式將士兵的身體與不同的環境連接起來。

因此,本文對城市研究、建筑人文學科和 STS 的討論做出了三方面的貢獻:1)論文提出了生存能力與軍事技術物體的功能有著內在聯系這一認識論立場;2)論文擴展了建筑與城市作為一種連接方式的關系理論,裝甲車輛將建筑與城市研究的范圍擴展到了靜態建筑的形象之外;3)論文回答了一個方法論問題,即利用技術物體研究城市戰爭的空間化以及將景觀還原為地形的問題。這三篇文章都從實用主義的角度,通過人與非人之間的相互依存關系,探討了生存能力的關系政治。

付費5元查看完整內容

對大多數美國人來說,發動戰爭是美國在國內和國際上的行動和優先事項中最具決定性的方面之一,但對美國人來說,發動戰爭又是如何有效地淡出人們的視線的呢?本論文從人種學的角度探討了這一問題的一個方面,即美國當代戰爭的一種特殊模式,即在美國國內遙控部署無人機--大型高空飛行器。本論文基于 2010 年至 2015 年間在美國對參與空軍無人機行動部署、規劃或評估的社區進行的為期 14 個月的實地調查,其主要貢獻在于通過勞動和戰爭中的工作這一視角,重新聚焦有關無人機的批判性論述。通過研究正在進行的無人機戰爭中所涉及的勞動分工,可以對當代美國戰爭的性質以及不同類型的責任和正常化模式提出一系列更廣泛的問題和影響。

論文首先指出,作為無人機作戰特點的行動和控制權的分配既不明顯也不是必然的,而是在特定的歷史條件下才有可能形成的。這些條件使無人機行動被視為美國軍事介入的一種有效而理想的形式,并涉及二戰后軍事指揮與控制理論、數字數據、全球信息網絡的交織發展,以及對使國家暴力正當化的法律框架的依賴。論文還研究了 "無人駕駛 "和 "自主 "無人機的想象能力與當前構成和維護這些技術的實踐之間的差異,這些技術必須通過專業化的軍事話語和實踐不斷管理和構建為有效和合法的行為體。

論文的后半部分更加注重人種學研究,探討了無人機行動是如何與不斷變化的兵役觀念和軍民區別相聯系的。通過研究圍繞無人機飛行員產生的緊張關系和爭議,論文介紹了參與無人機行動的空軍飛行員和指揮官如何將無人機行動的價值構建和定位為有意義和光榮的軍事服務。分析表明,雖然軍官們將自己的工作價值定位為專業和利他主義服務,但同時也存在著不可調和的緊張關系,因為無人機行動的軍事勞動與其他形式的當代文職工作越來越相似,其特點是報酬、靈活性和內部/安全等語言。論文最后提出了 "戰區"(warzone)的概念,以此來涵蓋戰爭發生的所有地點、戰場上的戰爭后果,以及戰爭的執行地點和與持續進行的戰爭有關的人、地點和實踐。論文表明,越來越多地部署無人機行動是導致大多數美國人似乎看不到戰爭的一個因素。然而,這并不一定像大多數記者和學者所說的那樣,是因為戰爭是在遠距離進行的。相反,這是因為戰爭正在美國人的后院,就在美國的近處,以被掩蓋的方式進行著,有時甚至是真實地進行著。

付費5元查看完整內容

本文是研究指揮與控制(C2)未來表現形式的四篇系列論文中的第一篇。第一篇論文通過探討未來指揮與控制(C2)系統需要在其中運行的未來作戰環境,為后續研究設定了基線。具體來說,本文探討了復雜性的驅動因素、表現形式和影響,而此前的研究表明,復雜性很可能是這一環境的特征。為此,它討論了 C2 和復雜性等關鍵術語的定義;介紹了未來運行環境中復雜性的一些驅動因素,并討論了這些因素如何對 C2 系統和組織造成新的壓力;研究了分析和理解復雜性的可能方法;并概述了 2030 年代及以后可能產生的一些實際考慮因素。由于本文旨在為本系列的后續三篇論文提供資料,因此沒有全面涵蓋未來 C2 思考的所有方面,包括提出具體建議。

研究問題

  • 根據當前的全球社會和技術趨勢進行預測,國防和合作伙伴可能面臨的持續競爭和多領域作戰的作戰環境的性質是什么?
  • 基于這種對未來的預測,未來的 C2 系統和組織將面臨怎樣的復雜性;即復雜性的可能來源是什么?
  • 考慮到未來作戰環境的這一特點,未來的 C2 系統和組織需要具備哪些條件?
  • 未來的 C2 系統和組織需要什么樣的新能力和特性才能有效應對這些需求?

有爭議的定義

C2 沒有直截了當的定義,對于該術語在當代作戰環境中的范圍和相關性也存在爭議。對 C2 傳統定義的批判來自于對 21 世紀有效領導力構成要素的更廣泛質疑。在英國、美國和北約,最近出現了大量與 C2 相關的新術語,并將重點從聯合思維轉向多領域思維。我們的研究將 C2 定義為一個動態的、適應性強的社會技術系統,因此有必要考慮組織、技術和人力要素。

同樣,復雜性也沒有一個公認的定義。學術界對復雜性的研究日益增多,涉及多個科學學科,但缺乏統一的方法或理論框架。一個有用的出發點是區分簡單系統、復雜系統、復雜系統和復雜適應系統。文獻還描述了在這些條件下可能出現的所謂 "棘手"或 "超級棘手問題"。還可以對有限博弈和無限博弈進行重要區分--這是考慮作為復雜適應系統的國家間競爭時的一個有用視角。鑒于這些爭論,我們的研究避開了對復雜性的僵化定義,而是從其關鍵屬性的角度對這一現象進行了 DCDC 式的描述。

復雜性的預計驅動因素

未來作戰環境的特征--以及國防 C2 系統和組織預計將執行的任務類型--具有很大的不確定性,因此任何預測都必須謹慎。盡管如此,文獻指出了各種政治、經濟、社會、技術、法律、環境和軍事(PESTLE-M)趨勢,預計這些趨勢將影響國際體系的演變,進而影響 2030 年及以后的國防行動。這些趨勢包括以下宏觀趨勢

  • 日益增強的互聯性、多極化和全球競爭
  • 不斷變化的氣候的影響
  • 技術變革和數字化的影響
  • 傳統和新穎領域的模糊化
  • 國際準則和價值觀的轉變。

最重要的是,沒有一個單一或主要的趨勢推動著變化或復雜性;相反,最令人擔憂的是多種因素的融合及其不可預測的相互作用。這種認識為進一步研究這些趨勢影響國際體系復雜性水平和特征的具體機制提供了基礎,從而為在這一領域開展工作的 C2 帶來了新的挑戰。

復雜性的表現

上述 PESTLE-M 趨勢為未來組織應對 C2 帶來了一系列困境和壓力,包括但不限于

  • 不確定性
  • 模糊性
  • 多義性
  • 信息超載
  • 認知偏差
  • 面對瞬息萬變的事件,決策癱瘓或節奏不足
  • 難以確保決策(包括人工智能)或信任決策所依據的數據、邏輯和假設
  • 難以調動所有必要的權力杠桿,或協調參與制定和執行特定戰略或行動計劃的大量不同參與者(如跨政府合作伙伴、行業、國際盟友、公民)。

此外,無論是理論家還是實踐者,在處理包含非線性動態的問題時,都缺乏有力的措施來衡量所做決定或采取的行動的有效性。因此,很難確切地說未來作戰環境中的復雜性是否在客觀上不斷增加(而不是以不同的形式出現),但對軍隊應處理的復雜任務的政治期望與當前 C2 方法的執行能力之間顯然存在巨大差距。當前的學術理論為決定如何在復雜環境中配置 C2 提供了一個方法工具包的初步輪廓和一些指導原則,但并沒有提供靈丹妙藥。該理論強調審議分析方法,即讓不同利益相關者參與共同設計、借鑒多學科和知識體系的見解,并在分析和決策過程中建立靈活性,以便根據反饋意見不斷迭代和改進的方法。

未來 C2 的實際考慮因素

要應對復雜的自適應系統,就必須摒棄當前的線性 C2 流程和等級結構,盡管在處理非復雜任務和問題時,更傳統的方法可能仍然有用。在競爭激烈的世界中,英國既需要培養能夠對他人施加建設性影響的特性和能力(例如,將復雜性強加給對手的 C2),也需要培養能夠增強自身駕馭復雜性能力的特性和能力。

要影響敵對行動者的觀念、決策和行為,首先要深入了解其 C2 結構、流程和文化。根據這種了解,英國國防需要一套動能和非動能杠桿,對敵方的 C2 施加建設性影響,包括施加復雜性。除了敵對行動者,英國國防部還需要進一步了解如何對 PAG、盟友、合作伙伴、工業界、學術界、公民和對 C2 采取截然不同方法的其他人施加建設性影響。

在增強英國自身應對復雜性的能力方面,未來的 C2 系統和組織必須促進靈活性、復原力以及學習和適應能力等特性。整個決策周期都需要變革。例如,傳感器和通信技術的進步為獲取更多深度和廣度的數據提供了機會,包括有關復雜問題的數據。因此,提高認知能力對于理解所有這些數據至關重要,既要利用人類和機器的優勢,又要減少各自的缺點。要改變決策方法,還需要改變領導風格,以培養更善于駕馭復雜適應系統的決策者。在做出決策或計劃后,提高跨部門或跨層級的能力,在實施階段更好地整合活動或匯聚效應,對于抵消英國的局限性(如在質量方面)至關重要。

同樣,整合也不是萬全的;如果國防缺乏足夠深度的力量和能力,無法在充滿敵意的威脅環境中采取可信行動或維持高節奏行動,那么即使是最高效的指揮控制系統也無法在未來取得成功。此外,還需要采取防御措施以及恢復和失效模式,以阻止或減輕敵方破壞 C2 系統和組織的努力所造成的影響。鑒于所面臨的威脅,以及英國國防可能需要解決的不同形式的復雜問題,很可能會同時出現多種并行的 C2 模式,而不是單一的方法。應對復雜性意味著不斷學習、適應、創新和開放求變。因此,必須從一開始就將效果衡量標準、信號和變革機制納入計劃以及 C2 系統和組織,使其能夠隨著時間的推移不斷學習和調整,以應對各種情況。至關重要的是,未來 C2 系統和組織的設計只是挑戰的一部分--它們還必須得到更廣泛的國防企業緊急改革的支持,以確保獲得所需的使能因素(人員、技術等)。從 C2 的角度來看,這本身就是一個挑戰,因為改變這個企業--一個復雜的適應性系統--本身就是一個棘手的問題。

結論和下一步行動

學術理論家和政府、軍事或工業從業人員對復雜性或復雜適應系統的理解并不全面,而這正是未來 C2 運行環境的特點。雖然文獻提供了處理復雜性的有用方法和工具,以及未來 C2 的一些初步設計考慮,但英國 C2(本身就是一個社會技術系統)的現代化和轉型將是一項高度復雜的工作。這意味著要與不斷發展的作戰環境、不斷變化的威脅和技術環境共同適應,從而進行迭代和不斷學習。因此,最緊迫的挑戰或許是,考慮到 C2 系統在未來面對復雜性時取得成功所需的轉型(技術、結構、流程、文化、教育等)的程度和性質,了解如何在一段時間內最好地引導這一過程。

自相矛盾的是,要克服實現以應對復雜性為目標的 C2 系統所面臨的障礙,可能需要英國國防部已經表現出其所尋求建立的系統的許多特征。面對這樣的循環邏輯,英國國防部可能需要某種外部沖擊來迫使其進行創造性的破壞,或者利用(或不顧)更傳統、線性的 C2 方法來啟動自身的激進改革努力,并隨著時間的推移,隨著變化的到來而進行調整。

付費5元查看完整內容

美軍繼續利用外國伙伴部隊作為美國安全政策的戰略支柱,將采取謹慎、慎重的選擇方法來評估伙伴關系的可行性。歷史表明,須盡早選擇合適的伙伴部隊,以避免浪費時間、精力、資源,甚至生命在毫無結果的伙伴關系上。這一理念對未來同樣重要。

本論文基于這樣一個假設,即通過比較杠桿作用和目標一致性可以確定伙伴關系的可行性,運用了演繹分析法。本研究開發的模型對基礎扎實的委托代理關系理論進行了調整和擴展。該模型通過考察目標一致性和杠桿作用來評估預期伙伴關系的預期可行性,從而解決 "逆向選擇 "的風險問題。

從強化的理論和模型中,可以識別理想和不理想合作伙伴的特征。為了證明該模型的實用性,將其應用于歷史上和最近與各地區地方勢力建立的委托智能體伙伴關系的案例研究。這一演示表明,可以很容易地對合作伙伴部隊進行分類,并從可行性方面進行比較。

最后,研究建議將該模型作為八步驟方法的一部分加以實施,以補充評估和選擇伙伴部隊的現有程序。這樣,它就可以成為決策者的有用工具和更高組織級別的解釋輔助工具。

付費5元查看完整內容

本文所介紹的研究得到了德國聯邦國防軍裝備、信息技術和在役支持辦公室 (BAAINBw) 的支持。

有人無人編隊是提高民用和軍事行動效率的一個關鍵方面。本文概述了一個為期四年的項目,該項目旨在開發和評估有人-無人編隊飛行的方法。編隊飛行場景是針對執行近距離編隊飛行的有人和無人駕駛旋翼機量身定制的。本文介紹了使用案例和測試方法。開發了兩種編隊飛行算法,并對照基于航點的預編程基線進行了評估。評估是在由不同飛行員參與的模擬器活動和由一名評估飛行員參與的飛行測試活動中進行的。在最后的飛行測試活動中,首次實現了有人駕駛和無人駕駛直升機之間的耦合近距離編隊飛行。最后,本文包含了飛行測試和模擬器測試的結果。

人機編隊飛行

在德國航天中心 MUM-T 研究期間,對三種一般編隊策略進行了調查。

第一種方法在評估過程中被用作基線。這種方法被稱為航點模式,假定有人駕駛直升機的機組人員通過基于航點的界面指揮無人機的移動。這種基于航點的導航是無人直升機最先進的能力。由于耗時和可能的輸入錯誤,飛行任務需要大量的準備時間。由于缺乏靈活性,無人直升機被認為是編隊的領導者。因此,載人直升機跟隨無人機的飛行模式并保持編隊,同時監控空間間隔以避免碰撞。在這種模式下,載人直升機可以隨時離開編隊,但只要編隊還在,就必須監控兩架飛機之間的距離。通過引入最小距離或半徑(稱為安全半徑)來確保飛行安全。圖 1 給出了簡要概述。

請注意,編隊的領隊是確定飛行速度或方向等飛行參數的飛機。在 DLR MUM-T 飛行測試活動中,出于安全考慮,無人機始終位于載人直升機之前。

第二種基于相對導航的方法在下文中稱為 RelNav。在這種模式下,無人機使用控制器保持與載人直升機的相對位置。有關編隊飛行控制模式的詳細介紹,請參閱參考文獻[21]。[21]. 在該模式下,無人直升機與有人駕駛直升機直接耦合,無人機跟隨有人駕駛直升機飛行,不執行任何規定任務。在 RelNav 模式下,有人駕駛直升機指揮編隊,無人機保持相對位置。此外,還在有人駕駛直升機前方劃定了一個安全區域,從駕駛艙可以目視到無人直升機,以提高飛行安全性。在圖 2 中,該區域顯示為允許區域,而最小距離則表示為安全半徑。

第三種方法旨在將 RelNav 模式中任務期間改變飛行路線的靈活性與航點模式中載人直升機不直接耦合運動相結合。這種模式被命名為 "走廊模式",因為它的主要特征是 "走廊"。走廊是一種類似航點的任務,具有規定的速度和轉彎,但使用的不是規定的航點位置,而是允許的無障礙區域。在 "走廊 "模式下,無人飛行器會沿著走廊飛行,但如果違反了規定的邊界,則會發出額外的速度指令。這些邊界可以是最大或最小距離,也可以是相對于載人直升機的某個方向。在這種模式下,無人機能夠對載人直升機的行為做出反應,但對細微的航向或速度變化不太敏感。無人機在走廊模式下的行為可分為兩種不同情況。首先,在標稱行為中,無人機完全處于走廊的邊界內。因此,無人飛行器是按照規定的走廊飛行。邊界上有預定義的緩沖區,為防止違反邊界,會對無人飛行器發出速度指令。無人機在接近允許區域的邊界或允許走廊的邊界時會改變行為。在這兩種情況下,如果同時到達兩個邊界,就會產生一個速度指令,以防止違反邊界;詳細計算可參見參考文獻[21]。[21]。 如果違反了允許走廊的邊界,無人飛行器應切換到 RelNav 模式。或者,如果走廊和載人直升機的允許區域都被侵犯,無人機應切換到航點模式。圖 3 是走廊模式的示意圖。

為確保飛行安全,該項目還開發了另一種應急模式,該模式被命名為 "脫離模式"。在任何 MUMT 編隊飛行中,該子模式始終可用。如果違反了安全關鍵邊界或出現技術缺陷,就會啟用該模式。該模式將兩架飛機分離,并觸發無人機的預定義行為。載人直升機的脫離行為被定義為 90° 轉身離開無人機并爬升約 150 英尺。

引入的 MUM-T 模式具有不同的自動化程度。不過,要實現安全的 MUM-T 編隊飛行,必須執行幾項共同任務。它們是:

領導編隊:一架飛機(稱為領隊)確定編隊參數(如速度、高度或航跡)。

避免碰撞:這項任務要求監控飛機之間的距離,并對任何違反安全規定的情況做出反應。

保持編隊:監控編隊領隊位置并保持相對位置不變是保持編隊的任務。

付費5元查看完整內容

本報告重點討論與人工智能系統可能缺乏可預測性而導致的有關風險--被稱為可預測性問題--及其對國家安全領域人工智能系統治理的影響。人工智能系統的可預測性表明人們可以在多大程度上回答這個問題:人工智能系統會做什么?可預測性問題既可以指人工智能系統的正確結果,也可以指不正確的結果,因為問題不在于這些結果是否符合系統工作的邏輯,而是在部署時是否有可能預見到這些結果。

人們越來越擔心,使用不可預測的人工智能系統為高風險決策提供信息可能會導致災難性的后果,這將破壞公眾對部署這些系統的組織的信任,并可能侵蝕政府的聲譽。在國家安全領域,人工智能的使用引入了一個新的不確定性來源,可能會阻礙風險管理程序,并可能使責任鏈變得混亂。在這個領域,可預測性問題的影響可能導致關鍵基礎設施的安全風險、個人權利和福祉的風險、沖突升級或外交影響。

在本報告中,我們首先從技術和社會技術的角度分析了可預測性問題,然后集中討論了英國、歐盟和美國的相關政策,考慮它們是否以及如何解決這個問題。從技術角度來看,我們認為,鑒于人工智能系統的設計、開發和部署的多層面過程,不可能考慮到所有的錯誤來源或可能產生的新行為。此外,即使在理想的情況下,在設計或開發階段沒有錯誤可以假設或檢測,一旦部署了人工智能系統,仍然可能發展出形式上正確的(但不想要的)結果,這在部署時是無法預見的。

我們通過關注人機編隊(HMT-AI)來分析可預測性問題的社會技術影響。人機編隊代表了一種越來越普遍的人工智能系統部署模式。在HMT-AI中,人類咨詢、協調、依賴、發展并與人工智能代理交換任務。由于HMT-AI結合了人類和人工的自主性,它們通過增加人工和人類代理及其環境之間的互動的數量和類型而加劇了可預測性問題。在這種情況下,我們發現可預測性問題的三個主要來源:人機交互、人員培訓和(過度)信任。人機交互可能會助長不可預測的結果,因為它們可以掩蓋、扭曲或過分詳細地描述人工智能系統的工作原理,而培訓計劃可能沒有考慮到人工智能技術的學習能力和HMT-AI的長期慣例建設。同樣,在HMTAI中,人類代理人不加批判地接受AI系統的結果,這種過度信任的動態也可能導致無法預測的結果。

在確定了可預測性問題的一些根本原因之后,我們分析了英國、歐盟和美國的政策,以評估這些原因是否在相關的政策文件中被涵蓋,如果是的話,如何以及在何種程度上被涵蓋。我們確定了四個主要主題和一個缺口。它們是:控制、監督和價值調整;資源提升的方法;可信賴人工智能的發展;以及缺乏對風險管理措施的關注,以遏制可預測性問題的影響。

我們的政策分析包括八個建議,以減輕與可預測性問題有關的風險。關鍵的建議是將治理方法集中在HMTAI上,而不僅僅是AI系統,并將可預測性問題概念化為多維度的,解決方案集中在HMT-AI組成的共同標準和準則上。在這些標準和準則中,可信人工智能的要求是特別相關的,應該與評估人工智能系統的可預測性的標準和認證計劃以及審計HMT-AI的程序結合起來。支持在國家安全中使用HMT-AI的決定的成本效益分析和影響評估應該考慮到可預測性問題及其對人權、民主價值的潛在影響,以及意外后果的風險。為了確保在部署潛在的不可預測的人工智能系統時進行充分的風險管理,我們建議調整ALARP原則--在合理可行的情況下盡量降低--作為制定HMT-AI中可預測性問題的人工智能特定風險評估框架的基礎。

擬議的基于ALARP的框架將提供有用的實際指導,但僅僅是這樣還不足以識別和減輕可預測性問題所帶來的風險。需要額外的政策、指導和培訓來充分考慮人工智能可預測性問題帶來的風險。人工智能系統支持的決策的影響越大,設計、開發和使用該系統的人的謹慎責任就越大,可接受的風險門檻也越低。這些分析和建議應該被理解為可操作的見解和實用的建議,以支持相關的利益相關者在國家安全背景下促進社會可接受的和道德上合理的人工智能的使用。

建議

建議1. 政府應撥出研究經費,發展公私合作,對HMT-AI進行縱向研究。這項研究應側重于HMT-AI中的新舊決策模式,以評估編隊協議建設和培訓對績效和控制措施的影響。重點應放在為HMT-AI的具體動態定義新的培訓協議,以及加快風險管理標準和HMT-AI績效評估的發展。

建議2. 應該建立一個專門的HMT-AI認證計劃,以促進行業對為HMT-AI設計的AI系統的設計要求和評估的共識。任務之間的通用性、有效的溝通、性能的一致性以及對新隊友的適應性都應該包括在這樣一個認證計劃中。在開發不足的ISO標準的基礎上,這個認證計劃還應該擴展到過程的可追溯性和決策的問責制,以及評估HMT-AI信任程度的審計機制。這對于抑制HMT-AI中的過度信任和自滿態度是必要的,這種態度維持或擴大了可預測性問題。

建議3. 對國家安全領域的可預測性問題的政策反應應該側重于管理HMT-AI團隊,而不是單獨的AI系統。

建議4. 國家安全領域的HMT-AI的成本效益分析(CBA)應該包括對AI系統的可預測性以及技術和操作層面的相關道德風險的評估。為了促進各安全機構之間的一致評估,應該定義一個評估人工智能系統可預測性的標準量表,在這個量表上,使用(或不使用)人工智能的選擇應該根據上下文的CBA以及考慮公眾對風險和相關利益的態度來證明。這個尺度的定義應屬于獨立的第三方行為者的職權范圍,即與部署HMT-AI的公共機構不同。

建議5. 與其說是 "更多 "或 "更少 "的可預測性,政策建議應側重于可預測性的權衡,明確具體建議旨在解決可預測性問題的哪個方面,以何種方式解決,以及它們有可能加劇哪些方面,哪些緩解措施將被落實到位。政策應該認識到,可預測性是一個多維度的概念,在一個層面上可預測性的收益可能會以另一個層面的損失為代價。

建議6. 關于國家安全中人工智能可預測性問題的政策應該在正式和操作層面上解決可信度和不可預測性之間的聯系。例如,應該給人工智能系統一個可修正的可預測性分數,這應該包括在對系統的可信任度的評估中。人工智能系統的可信賴性應包括成本效益分析,以評估不想要的行為在不同部署背景下可能帶來的風險。

建議7. 應該為不可預測的人工智能建立風險閾值,這些閾值將圍繞不可預測行為的風險嚴重程度映射到其自身的可預測程度(例如,劃分為已知的已知因素、已知的未知因素等)。這些閾值反過來將為風險管理過程的發展提供信息,允許根據風險的可預測性及其影響對其進行優先排序。

建議8. 應該制定一個基于ALARP的框架,以評估不可預測的人工智能和HMT-AI的風險,并為任何給定的環境確定可接受的最大程度的不可預測性。這個框架應該包括:

  • 對特定人工智能系統和HMT-AI的可預測程度的定量評估;
  • 對導致部署人工智能系統的設計、開發和/或采購步驟的可追溯性的評估;
  • 對部署條件的評估,例如,HMT-AI、操作員(或HMT-AI成員)的培訓水平、交互的透明程度、人類對AI系統的控制水平;
  • 對部署該系統的潛在風險和預期收益進行成本效益分析(根據建議4);
  • 對假設情況的分析,以考慮風險暴露或緩解措施的有效性如何隨部署情況而變化;
  • 人為推翻系統的協議和補救機制。

付費5元查看完整內容

無人機蜂群來了!美國、中國和俄羅斯處于無人機群開發和利用的最前沿。然而,無人機的低成本和易得性使非國家行為者能夠以富有想象力和創造力的方式利用無人機,包括蜂群。本專著的目的是要解決以下問題:無人機群為軍隊提供什么效用?無人機群提供了許多優勢,包括持續的情報、監視、偵察和目標定位;對軍事人員和組織的低風險和低成本,以及癱瘓個體和組織決策的潛力。相比之下,無人機群有其脆弱性和挑戰。脆弱性包括從對手的黑客攻擊到反蜂群武器的存在,而一些挑戰包括組織上的抵制和國際法。無人機群就在這里,而且很快就會出現在戰場上,現在是解決如何最好地運用它們的時候了。在概述了無人機群的潛在好處和局限性之后,該專著最后提出了四項建議:需要敘述、建立無人機群理論、了解人機界面以及為無人機群的使用進行組織過渡。

付費5元查看完整內容

人工智能(AI)是一個快速發展的領域,世界各地的政府和軍隊越來越多地將其納入其技術,以創造新的能力。人工智能有可能最終超越人類的智力能力,獲得超級智能。這篇論文研究了超級人工智能(ASI)的影響以及美國的對手如何利用它來獲得不對稱的戰略優勢。本文發現,人工智能在中期和可能的近期對未來的行動構成了極大的風險,并就美國防部應如何思考并將人工智能的威脅納入戰略規劃提出了建議。

引言

人類最偉大的力量之一是我們利用工具的能力。縱觀歷史,工具使我們能夠提高執行任務的效率,使我們的知識專業化,并創造機會反復改進和創造更復雜的工具。機器的發明給了人類一套工具,可以完全取代人類的勞動,而不是放大它,并在勞動的速度和質量上遠遠超過人類。現在,人工智能(AI)的發展正在做同樣的思考。人工智能系統已經在前幾代人認為機器永遠無法完成的任務中超越了人類,例如:圖像和目標識別,復雜的棋類游戲,如國際象棋和明顯更復雜的圍棋,需要實時戰略思考的視頻游戲,讀唇語,甚至通過投資股票市場實現盈利。目前,人工智能的所有應用都是狹窄的,這意味著盡管它們在某項任務上可以超過人類的能力,但它們只能做它們被設計的那件特定的事情,而不是其他。然而,這種情況不會一直存在。

1993年,統計學家Vernor Vinge預測,人類將有能力創造出一種超人類的智能。他推測,這種創造將導致智能爆炸,因為超級智能在自身基礎上不斷改進,變得越來越聰明,將人類的能力遠遠甩在后面。這種能力將對人類生活的各個方面產生深遠的影響。正如人工智能和決策理論家Eliezer Yudkowsky所說的那樣。"沒有困難的問題,只有對某一智能水平來說是困難的問題。向上移動最小的一點[智力水平],一些問題會突然從'不可能'變成'明顯'。向上移動一個相當大的程度,所有的問題都會變得明顯。" 因此,超級智能將為世界舞臺上任何能夠開發和控制它的行為者提供不對稱的優勢。

自第二次世界大戰結束以來,美國一直是占主導地位的世界大國,能夠通過國家權力的四個工具:外交、信息、軍事和經濟來擴大其影響力和追求其利益。然而,歷史告訴我們,占主導地位的世界大國會因為軍事革命而非常意外和迅速地失去這種地位。西方歷史經歷了五次這樣的重大革命:現代民族國家的創建、大眾政治與戰爭的融合、工業革命、第一次世界大戰和核武器的出現。這些革命中的每一次都圍繞著為首先采用這些革命的人提供的不對稱優勢,這使得他們能夠獲得突出的地位,即使只是暫時的,直到其他人也出于需要而采用新的模式。超級智能的人工智能的出現有可能創造出下一次軍事革命,并使美國不再是世界上最大的國家。

默里和諾克斯指出,軍事革命就其性質而言是 "不可控的、不可預測的和不可預見的。"但這是一個觀點問題。納西姆-塔勒布將這些類型的事件稱為黑天鵝,并對其有三個標準:它們是罕見的,有極端的影響,并且是可追溯的。然而,他表明,某件事之所以成為黑天鵝,特別是因為沒有認真對待這種可能性,而不是沒有人想到它。舉例來說,如果有人在9-11事件之前就認為恐怖主義是一種合理的威脅,并要求在飛機艙門上加鎖,那么被劫持的飛機成為武器的黑天鵝事件就不會發生。推動這一變革的人甚至可能會因為他們的假設不正確而受到批評。如果沒有這個事件的發生,就沒有證據表明所實施的變革具有防止恐怖主義的預期效果。

對未來的正確預測在被認真對待時一般是不可能被驗證的,因為他們成功地防止了他們預測的結果。因此,被認為不值得適當考慮或規劃的想法成為決定性的。"看到一個事件的發生正是因為它不應該發生,這不是很奇怪嗎?" 如果美國希望在一個正在迅速發展并變得越來越復雜的世界舞臺上保持主導地位,它就必須對可能的和不可能的事情進行思考。正如參議院軍事委員會前參謀長克里斯蒂安-布羅斯在其《殺戮鏈》一書的結論中所說,"問題是想象力的失敗"。

問題陳述

技術正在以指數級的速度發展,并將在某一時刻導致下一次范式轉變和軍事革命。人工超級智能(ASI)有可能在國際行為者揮舞國家權力工具的能力方面創造不對稱優勢,并導致這樣一場軍事革命。從歷史上看,軍事革命的結果往往是,誰最先發揮新革命的不對稱優勢,誰就能推翻當時的世界霸主。下一次革命也會如此,美國可能會發現自己被剝奪了世界主導地位,除非它能預測并為即將到來的事情做好準備。僅僅為今天挑戰美國主導地位的差距尋求解決方案是不夠的,因為今天的問題在下一次范式轉變后將變得無關緊要。因此,如果下一次軍事革命以超級人工智能為中心,美國防部如何確定可能被利用的漏洞?

研究目的

美國防部在超級智能方面的文獻有一個明顯的空白。這次探索的目的是填補文獻空白,確定這種技術所帶來的風險程度,并確定對手可能利用ASI攻擊美國的潛在漏洞。這將為國防界的決策者提供關于該主題的相關觀點,并告知在規劃和預測中應考慮該技術的程度。通過額外的研究,如果對手率先獲得ASI,可以減輕已確定的漏洞以防止其被利用。最終,本研究的目的是防止ASI軍事革命的出現成為一個黑天鵝事件,使美國失去其世界主導地位。

研究問題

本論文試圖回答的主要研究問題是:對手如何利用ASI來取代美國作為世界主導力量的地位?為了回答這個問題并達到研究的目的,還需要回答幾個問題。 1.ASI有什么獨特的能力,使它能夠影響國家權力的信息和軍事要素? 2.對美國有敵意的行為者如何利用ASI的能力來實現作戰和戰略效果? 3.在信息和軍事領域有哪些弱點可以被擁有ASI的美國對手所利用?

假設

作為對一項理論技術如何在未來作戰環境中使用的探索,必須對該未來環境的狀態做出若干假設。因為本論文的目的是確定脆弱性和評估風險,所以對該環境的假設是那些被認為有可能造成最大風險的假設。這些關鍵的假設在文獻回顧中都有更深入的闡述。

1.通用人工智能(AGI)將在2035年之前初步開發,并在2040年之前推進到人工智能。

2.美國的一個對手將是第一個開發AGI/ASI的人,并且該技術不會在他們的控制范圍之外被分享或擴散。

3.一個發達的人工智能是可控的,不具備獨立于其控制者的驅動力和動機,并作為其控制者意志的延伸而發揮作用。

4.2040年的作戰環境將如國家情報委員會2040年報告中描述的競爭性共存情景,主要特點是美國和中國之間的競爭。

研究的意義

雖然近年來國防界的成員們在文獻中充斥著關于人工智能的著作,但從國防的角度來看,關于超級智能主題的文獻存在著明顯的空白。雖然人工智能本身有可能在軍事和民用領域產生變革,但本研究將開始填補有關人工智能的未來及其創造軍事革命的潛力的知識空白。此外,這項研究還試圖確定潛在的弱點,這些弱點可能被控制人工智能的對手所利用,以廢止或取代美國作為世界主導力量的地位。這項研究的結果將為預測未來部隊需求的戰略計劃者提供洞察力。識別弱點是緩解的第一步;然而,還需要更多的研究來為識別的弱點找到解決方案。矛盾的是,本研究的真正意義只有在其預測沒有實現的情況下才能實現;也許表明它在防止所設想的負面情況的發生方面發揮了作用。

付費5元查看完整內容

在過去的二十年里,人工智能(AI)獲得了大量的關注,并激發了許多科學領域的創新。美國軍事預測人員創造了許多以人工智能為核心特征的未來作戰環境的預測。本文報告了人工智能創新的歷史趨勢,導致了對真正的通用人工智能(AGI)出現的高預期時期。這些對持續創新的夸大期望超過了實際能力,導致幻想破滅。人工智能經歷了新的創新、過度期望和幻想破滅的周期,然后是適度的進步。人工智能創新的周期性遵循極端夸張的周期,在過去的周期中,這導致了資金的損失和未來創新的放緩。為了避免在夸張的周期中看到的未來的幻滅和進步的喪失,領導者需要對機器學習技術有一個現實的理解,以及它對未來的人工智能發展意味著什么。本文提出了一個理解人工智能與作戰環境互動的功能框架。

引言

語義學、技術樂觀主義、誤解和議程掩蓋了目前關于人工智能(AI)和智能的本質的辯論。關于人工智能的預測,從歇斯底里的天網啟示錄到人工智能驅動的烏托邦都有。人工智能和 "機器學習 "可能會走上幻滅之路。技術領域的知名專家警告說,人工智能將對人類的未來產生災難性影響。特斯拉和Space X的首席執行官(CEO)埃隆-馬斯克(Elon Musk)稱人工智能是一種生存威脅,并懇請政府對人工智能進行監管,"以免為時已晚"。已故著名物理學家史蒂芬-霍金認為,人工智能將是人類的末日。新聞媒體的標題是:"美國有可能在人工智能軍備競賽中輸給中國和俄羅斯"。還有人援引世界末日的觀點和對人工智能技術的情感反應。例如,《紐約時報》最近發表了一個標題:"五角大樓的'終結者難題'。可以自己殺人的機器人"。不幸的是,煽動恐懼的言論引起了公眾的共鳴,并建立在人工智能將是人類終結者的流行文化敘事上。

在歷史背景下觀察,目前對人工智能的看法遵循一個可衡量的趨勢,即Gartner公司的信息技術(IT)研究 "炒作周期 "的技術發展階段,見圖1。炒作周期以 "技術觸發點 "開始,一種只存在于原型的新概念化能力,吸引了媒體的注意。下一個狀態是 "期望值膨脹的高峰",早期采用者因其在實施該技術方面的成功而獲得宣傳。下一個階段是 "幻滅的低谷",技術固有的物理限制變得明顯,人工智能未能成熟,投資資金轉移到更有前途的企業。在幻滅的低谷之后,技術繼續成熟,盡管速度要慢得多。在這個緩慢的環境中,它被更好地理解,實施起來也有真正的成功。最后一個階段,即 "生產力的高原",是技術在被充分理解的條件下被廣泛實施的時候。然后,各行業創建標準和法規來管理技術的實施和互操作性。

圖 1. 技術發展的成熟度曲線。

人工智能發展的以往演變遵循夸張的周期,有幾個高峰和低谷,這里將概述一下。每次人工智能發展進入幻滅的低谷,美國政府和軍方支出停止資助;人工智能的發展都會停滯不前。美國政府和軍方一直是人工智能發展史上不可或缺的一部分,并將繼續在指導未來發展方面發揮重要作用。美國軍方不能有膨脹的期望,這將導致一段幻滅期,將主動權和技術優勢讓給美國的同行競爭者,俄羅斯和中國;他們正在追求武器化的AI。領導人和決策者需要對人工智能的發展有一個現實的技術理解,以指導他們將人工智能整合到軍隊企業中。過去的夸張周期提供了需要避免的陷阱的例子,但也提供了需要尋找有用的應用和未來創新的領域。

付費5元查看完整內容
北京阿比特科技有限公司