亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本文探討了人工智能(AI)如何可能使美國軍隊以更符合倫理的方式執行其作戰任務,從而更好地遵守國際人道主義法(IHL)的倫理意圖,并強調它可能帶來的挑戰。它將通過研究軍事目標選擇的兩個關鍵特征來完成這一任務:區分和相稱性。區分和相稱性是國際人道主義法承認的四項基本戰爭原則中的兩項,包括《海牙公約》、《日內瓦公約》及其附加議定書,以及紅十字會編纂的習慣法。 對這兩項原則的仔細研究突出了可預見性的概念在戰爭倫理中的作用。可預見性是正義戰爭理論中經常提到的與保護非戰斗人員有關的關鍵倫理考慮。邁克爾-沃爾澤的奠基之作《正義與非正義的戰爭》認為,在戰爭中,不可預見的邪惡可能是可以接受的,但從倫理上講,戰士們必須在戰爭中盡量減少所有可預見的邪惡。雖然可預見性沒有被標為基本原則,但它是一個經常被忽視的特征,對主要的四項原則的倫理決策產生了重大影響。

審查包括簡要回顧區分的倫理基礎,相稱性,以及兩者如何取決于可預見性。然后,它評估了當前的國際人道主義法,并確定了人工智能可以提供更多的合規性的潛在機會,以及潛在風險的特征。審查將主要集中在戰爭/戰斗期間的倫理決定和行動(戰時法),而不是可能導致戰爭的戰略決定(戰時法)。在執行對人工智能可能給軍事目標帶來的潛力和隱患的評估之前,關鍵是要正確定義人工智能,并審查其與國家安全的日益相關性。

人工智能是一個復雜的話題,既具有爭議性,又經常被誤解。著名物理學家斯蒂芬-霍金警告說,人工智能可能是 "我們文明史上最糟糕的事件",除非其發展得到適當控制。 甚至企業家埃隆-馬斯克,他自己的公司正在創新自動駕駛汽車,也警告說"......人工智能比核彈危險得多",必須受到監管。相反,麻省理工學院計算機科學和人工智能實驗室的創始主任羅德尼-布魯克斯、哈佛大學心理學教授史蒂芬-平克,甚至Facebook創始人馬克-扎克伯格都將這些觀點描述為危言聳聽。

當人工智能被引入到國家安全和軍事行動中時,其強度和審查都會大大增加。馬斯克和霍金都簽署了一封致聯合國的公開信,敦促禁止人工智能武器。 公眾對人工智能 "武器化 "的反彈的一個引人注目的例子發生在Maven項目上,原因是人們對倫理問題的看法。Maven項目是美國國防部(DOD)的一項舉措,旨在利用人工智能來評估來自遙控飛機的視頻,試圖更快、更準確地找到伊拉克和敘利亞的伊斯蘭國恐怖分子。國防部與包括谷歌在內的一些商業伙伴開始了這項努力。然而,在2018年,約有4000名谷歌員工認為該項目與谷歌的倫理規范相抵觸,這些倫理規范是基于 "不作惡 "的非官方格言。然后,這些員工簽署了一份請愿書,要求"......谷歌或其承包商將永遠不會建立戰爭技術"。 此后不久,谷歌退出了該項目。這些事件受到一些人的贊揚,也受到另一些人的批評,他們認為抗議是短視或幼稚的,因為不太倫理的美國競爭對手仍然會從谷歌的人工智能工作中受益。

曾在伊拉克和阿富汗服役的海軍陸戰隊員盧卡斯-昆斯(Lucas Kunce)為人工智能在軍事上的倫理應用提出了令人信服的愿景。他認為,對向軍隊提供先進技術的擔心是沒有根據的。他提供了一些小故事,描述了人工智能增強的工具如何阻止他的團隊殺死一個他們認為向他們投擲手榴彈的平民,而他只是拿著一只鞋。他還描述了在一次交戰中,他的一名海軍陸戰隊員射殺了一名坐在車里的年輕女孩,他的部隊認為這是一個車載簡易爆炸裝置。正是這種觀點準確地將軍隊描述為試圖完成其當選領導層賦予他們的任務的同胞。它還指出,職業軍人不是一群不分青紅皂白的殺手,如三十年戰爭期間蹂躪歐洲的掠奪者,甚至是越南時代助長美萊大屠殺的美國重兵。相反,他們是負責為國家管理暴力的專業人士。正是這種被進一步編入國際人道主義法的特點,應該能緩解人們對人工智能和軍隊的結合將導致未來出現天網、終結者和其他類型的殺人機器人的擔憂。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

GAO為什么要做這項研究

據美國防部稱,其競爭對手正在利用信息環境中的漏洞來推進他們的國家目標,并抵消美國作為卓越作戰力量的地位。美國防部在信息環境中的軍事行動在與對手交戰中發揮著關鍵作用。

眾議院第117-118號報告包括一項條款,要求美國政府問責局審查美國防部為領導人和軍人在競爭性信息環境中行動和決策做準備的培訓。在本報告中,美國政府問責局(1)描述了美國防部支持該部門教育和培訓工作的指南,以使領導人在有爭議的信息環境中做出決策;(2)評估了美國防部提供教育和培訓的程度,以使領導人為做出此類決策做好準備。

美國政府問責局審查了選定的美國防部戰略、政策和課程大綱;分析了與進行軍事演習有關的信息;并采訪了了解該部教育和培訓工作的官員。

GAO的建議

美國政府問責局建議美國防部(1)制定指導意見,說明在競爭性信息環境中的決策方面的教育和培訓中應納入哪些內容;(2)評估滿足相關教育和培訓需求的必要資源。美國防部基本同意GAO的建議。

GAO的發現

美國防部(DOD)關于在競爭性信息環境中行動的指南繼續發展,因為美國防部努力發展和準備領導人做出有效的決策。信息環境--即影響人類和自動化系統如何從信息中獲得意義、根據信息采取行動并受到信息影響的各種因素的總和--正面臨著來自任何地方的對手攻擊和爭奪它以破壞美國防部行動的風險。2017年,美國防部將 "信息"提升為一項聯合職能,并在2019年將信息環境下的全球一體化行動確定為教育的一個特別重點領域。由于對手越來越多地旨在歪曲或損害領導人所掌握的信息,因此關注領導人的決策方法變得更加重要,以盡量減少對軍事準備和成功執行軍事行動的負面影響(見圖)。美國防部繼續采取步驟--如建立一個理論、行動和技術框架--以改善其對日益激烈的信息環境的理解和有效運作。

作為為競爭性信息環境做準備的一部分,美國防部為其領導人提供教育和培訓。然而,美國防部各部門并不清楚在這種教育和培訓中應包括哪些信息環境方面的內容,因為指導意見并沒有規定應包括哪些內容。美國防部官員還報告說,他們的教育和培訓工作資源有限,并指出模擬、基礎設施和人員限制進一步阻礙了這些工作。官員們表示,這些限制阻礙了創造真實的環境,使領導人能夠練習決策技能。然而,美國防部還沒有評估或全面審查各部門對資源的評估。在美國防部制定指導意見和評估其資源之前,它將缺乏保證,無法教育和培訓領導人,使他們為在有爭議的信息環境中做出決策做好準備。

付費5元查看完整內容

過去幾年中,機器人技術的顯著發展導致了人工智能(AI)的新 "夏天"。值得注意的是,機器學習和深度學習改變了日常生活。人類越來越依賴 "外部 "智能而不自知。軍方也已經認識到人工智能的巨大潛力。例如,安全部隊采用AI工具進行信息分析和面部識別。然而,人們的興趣還不止于此。技術先進的國家,如美國、中國和俄羅斯,已經開始參與有關人工智能軍事應用的軍備競賽。目前正在進行重大的研究和開發項目,通常涉及國防部門、私營公司和學術界之間的合作。鑒于人工智能的顯著優勢,在安全事務方面有一種強烈的自主性增強的趨勢。這包括在對物體和人員使用武力方面的自主性不斷增強的趨勢。

各國和法律學者已經開始辯論人工智能的軍事應用是否以及如何與現有的國際法,特別是國際人道主義法(IHL--這里同義地稱為 "武裝沖突法 "或 "戰爭法")兼容。在聯合國大會的授權下,致命性自主武器領域的新興技術政府專家組自2016年以來在《特定常規武器公約》(CCW)的框架內對此進行了審議。在此背景下,一些國家強調了根據1949年《日內瓦公約》第一附加議定書第36條和國際習慣法對武器、作戰手段和方法進行法律審查的重要性。評估新武器合法性的法律審查程序將確保各國不會采用不符合國際人道主義法的人工智能系統。學者們的工作呼應了法律審查與武器系統相關的越來越多的自主權的相關性,并開始確定出現的挑戰。人們注意到,新技術 "在某些情況下會使進行第36條審查的過程變得非常困難",這 "可能需要重新修訂舊的法律概念或帶來新的風險,而這些風險本身可能需要新的風險評估方法。" 2019年12月,第33屆紅十字會和紅新月會國際會議也表示,"為了使法律審查有效,開發或獲取新武器技術的國家需要駕馭[其]復雜性"。

本文回應了這一進一步思考的呼吁,并對該問題進行了深入挖掘。它首先概述了新興的人工智能技術及其軍事應用,稱為 "戰爭算法"。因此,這種分析適用于任何類型的人工智能的作戰使用,屬于法律審查的義務,包括其在網絡行動中的使用,這必然導致對人工智能的使用與敵對行動的關系的關注。文章接著調查了各國在外交論壇上的辯論和現有的學術文獻,概述了關于自主系統背景下的法律審查的不同觀點。文章進一步詳細分析了國際人道主義法規定的對武器、作戰手段或方法進行法律審查的義務,以及與這種審查有關的國家實踐。文章認為,雖然法律審查對于防止部署不符合現有國際法的武器和系統至關重要,但現有做法并不完全適合審查人工智能系統的合法性。

文章認為,各國必須使其法律審查適應新興的人工智能技術。對于向人類操作者提供關鍵要素以作出目標決定的人工智能系統和自主作出相關決定的系統,法律審查必須評估是否符合額外的規則,特別是國際人道主義法規定的目標法。然而,人工智能的應用在其可預測性和可解釋性方面帶來了重大挑戰。這種可預測性問題首先是一個操作和技術上的挑戰,可以通過核查和驗證的技術過程來解決,這個過程通常在法律審查之前。本文認為,對于嵌入人工智能的軍事系統,隨著法律被轉化為技術規格,技術和法律評估最終會合二為一。因此,各國需要進行法律審查,作為技術驗證和核查過程的一部分。雖然這需要定義和評估有關可預測性的新參數,以及其他后果,但文章認為,國家和工業界正在出現的關于開發和使用人工智能的準則可以為制定人工智能驅動系統的法律審查的新指南提供要素。文章的結論是,法律審查對于人工智能技術變得比傳統武器更加重要。隨著人類對人工智能的依賴程度增加,法律審查是其法律運作的重要把關人。

付費5元查看完整內容

信息技術的進步和后現代主義哲學在混亂中茁壯成長,創造了這樣的條件:到目前為止,敘述的競爭是實現政治和軍事目標的主要方法。在未來的沖突中,更多具有行動和戰略意義的行動將發生在 "信息環境 "中,而不是其他地方。物理領域的事件將變得越來越具有戰術性,而以敘事形式描述這些事件將成為作戰藝術的主導形式。目前的多域作戰(MDO)和大規模作戰(LSCO)的概念過度強調了未來戰爭內在的戰術方面,而沒有涉及暫時占主導地位的作戰藝術形式,這種形式通過敘事的力量利用信息技術和后現代主義。美國軍方必須認識到互聯網和社交媒體所帶來的社會變革的意義,以及它對戰爭性質的影響。正如啟蒙運動帶來了 "大規模征兵",工業革命帶來了 "工業戰爭 "一樣,這場新的 "信息革命 "正在改變戰爭的特征,并將信息戰置于最重要地位。在當代戰爭中,信息不僅僅是一種能力,它是戰略和作戰藝術的本質。因此,指揮官和規劃者必須將 "信息 "本身視為任務,而不僅僅是戰術和作戰層面任務的推動者。

付費5元查看完整內容

所謂的殺手機器人已經到來,由人工智能支持的自主武器將成為未來戰爭的一個突出特征。在國際競爭者開發這些系統的背景下,在國際和多國公司的關注下,國家安全委員會關于人工智能的最后報告判斷,這些類型的無人駕駛武器可以而且應該以符合國際人道主義法律的方式使用,適用人類授權的使用條件和適當的設計和測試。人工智能支持的自主性及其軍事應用帶來了這些技術的基本風險,它們在無人武器中的使用進一步挑戰了軍隊在國際人道主義法和正義戰爭理論框架內尋求合法使用。因此,倫理學提供了優越的概念載體,以任命和授權人類授權者和使用者,并從質量上確定什么是 "適當的 "設計和測試。國防部的 "人工智能準備部隊運動 "所確立的七個人工智能工作者原型中的每一個都應該應用與角色相關的、與人工智能有關的道德規范,以充分實現《最后報告》中所確立的條件,并保留和支持控制暴力壟斷所必需的人性。對道德教育的需求單獨和集體地滲透到每個原型中,美國防部必須認識到公共/私人伙伴關系的價值,以充分考慮這些條件。

付費5元查看完整內容

在過去的二十年里,人工智能(AI)獲得了大量的關注,并激發了許多科學領域的創新。美國軍事預測人員創造了許多以人工智能為核心特征的未來作戰環境的預測。本文報告了人工智能創新的歷史趨勢,導致了對真正的通用人工智能(AGI)出現的高預期時期。這些對持續創新的夸大期望超過了實際能力,導致幻想破滅。人工智能經歷了新的創新、過度期望和幻想破滅的周期,然后是適度的進步。人工智能創新的周期性遵循極端夸張的周期,在過去的周期中,這導致了資金的損失和未來創新的放緩。為了避免在夸張的周期中看到的未來的幻滅和進步的喪失,領導者需要對機器學習技術有一個現實的理解,以及它對未來的人工智能發展意味著什么。本文提出了一個理解人工智能與作戰環境互動的功能框架。

引言

語義學、技術樂觀主義、誤解和議程掩蓋了目前關于人工智能(AI)和智能的本質的辯論。關于人工智能的預測,從歇斯底里的天網啟示錄到人工智能驅動的烏托邦都有。人工智能和 "機器學習 "可能會走上幻滅之路。技術領域的知名專家警告說,人工智能將對人類的未來產生災難性影響。特斯拉和Space X的首席執行官(CEO)埃隆-馬斯克(Elon Musk)稱人工智能是一種生存威脅,并懇請政府對人工智能進行監管,"以免為時已晚"。已故著名物理學家史蒂芬-霍金認為,人工智能將是人類的末日。新聞媒體的標題是:"美國有可能在人工智能軍備競賽中輸給中國和俄羅斯"。還有人援引世界末日的觀點和對人工智能技術的情感反應。例如,《紐約時報》最近發表了一個標題:"五角大樓的'終結者難題'。可以自己殺人的機器人"。不幸的是,煽動恐懼的言論引起了公眾的共鳴,并建立在人工智能將是人類終結者的流行文化敘事上。

在歷史背景下觀察,目前對人工智能的看法遵循一個可衡量的趨勢,即Gartner公司的信息技術(IT)研究 "炒作周期 "的技術發展階段,見圖1。炒作周期以 "技術觸發點 "開始,一種只存在于原型的新概念化能力,吸引了媒體的注意。下一個狀態是 "期望值膨脹的高峰",早期采用者因其在實施該技術方面的成功而獲得宣傳。下一個階段是 "幻滅的低谷",技術固有的物理限制變得明顯,人工智能未能成熟,投資資金轉移到更有前途的企業。在幻滅的低谷之后,技術繼續成熟,盡管速度要慢得多。在這個緩慢的環境中,它被更好地理解,實施起來也有真正的成功。最后一個階段,即 "生產力的高原",是技術在被充分理解的條件下被廣泛實施的時候。然后,各行業創建標準和法規來管理技術的實施和互操作性。

圖 1. 技術發展的成熟度曲線。

人工智能發展的以往演變遵循夸張的周期,有幾個高峰和低谷,這里將概述一下。每次人工智能發展進入幻滅的低谷,美國政府和軍方支出停止資助;人工智能的發展都會停滯不前。美國政府和軍方一直是人工智能發展史上不可或缺的一部分,并將繼續在指導未來發展方面發揮重要作用。美國軍方不能有膨脹的期望,這將導致一段幻滅期,將主動權和技術優勢讓給美國的同行競爭者,俄羅斯和中國;他們正在追求武器化的AI。領導人和決策者需要對人工智能的發展有一個現實的技術理解,以指導他們將人工智能整合到軍隊企業中。過去的夸張周期提供了需要避免的陷阱的例子,但也提供了需要尋找有用的應用和未來創新的領域。

付費5元查看完整內容

前言

美國陸軍未來與概念中心 未來戰爭部主任 克里斯-羅杰斯上校

歷史上的戰爭包含了大量改變戰爭性質的工具和技術的例子。自最初研究多域作戰(MDO)以來,美國陸軍發現人工智能是一種新興技術,有可能改變戰爭的特點,也許也會改變戰爭的性質。使用人工智能(AI)解決方案來緩解軍事問題是過去兩年未來戰爭研究、檢查和學習的一個反復出現的主題。作為2019年未來研究計劃的一部分,我們與陸軍、聯合、多國、學術和科技組織合作,探索和了解人工智能對多軍種的影響,并為未來的研究和發展制定一個操作框架。

多域作戰的人工智能運作最終報告提供了采用人工智能的組織框架,以幫助陸軍和聯合部隊更好地定義所需的能力以及相關的數據和網絡架構,以實現多域能力部隊。描述聯合部隊如何采用人工智能解決方案,為了解人工智能在時間和空間上對多域作戰的影響提供了一個操作說明。本報告確定并解決了與人工智能相關的好處、機會和挑戰,為進一步分析提供了基礎。諸如人工智能等新興技術使陸軍不僅可以改進當前的戰術、技術和程序,而且可以創造新的運用和融合能力的方法。

該報告支持美國陸軍人工智能任務組,該組織負責制定陸軍的人工智能戰略和政策。本文通過描述部隊如何在整個MDO框架內采用人工智能解決方案和相關技術,啟動了陸軍的人工智能運用工作。這份報告使概念發展團體能夠修改陸軍功能概念和戰場發展計劃。它為能力發展團體提供了作戰視角和部隊在確定所需能力時必須考慮的技術影響。此外,該報告還為作戰概念文件或基于能力的評估提供了開發情景或小插曲的基礎。該文件為科學和技術界提供了行動背景,以便為人工智能研究、開發、建模和模擬提供信息和指導。最后,它支持制定一個在未來使用人工智能的全面愿景,以告知陸軍現代化的努力,這將創造有能力的MDO部隊,準備好與任何對手作戰并取得勝利。

執行摘要

人工智能(AI)是未來聯合部隊實現多域作戰(MDO)全部潛力的基礎。人工智能系統提供了跨越領域、電磁頻譜和信息環境戰勝對手的能力。在競爭中使用這些系統使聯合部隊能夠近乎實時地了解作戰環境,從而更好地運用能力來擊敗旨在破壞區域穩定的威脅行動,阻止暴力升級,并將被拒絕的空間變成有爭議的空間。在從競爭到武裝沖突的過渡中,人工智能的機動、火力以及情報、監視和偵察能力為聯合部隊提供了拒絕敵人奪取優勢地位的能力。改進的維持能力與攻擊敵人的反介入/空中拒止網絡的能力相結合,為美國部隊提供了奪取作戰、戰略和戰術優勢位置的能力。通過由人工智能支持的多領域聯合行動圖(MDCOP)增加了解,使美國部隊有能力協調多領域的效果以創造優勢窗口。

制定人工智能的作戰概念使陸軍能夠更好地理解這些技術對戰爭的性質和特征的潛在影響。描述陸軍如何在未來的作戰環境中使用人工智能,有助于說明其對戰爭的暴力、互動和基本的政治性質的影響,以及戰爭不斷演變的特點。本文提供了一些小插曲(附錄A),說明了人工智能的組織運用,為美國陸軍RAS總體概念、作戰和組織概念、基于編隊的作戰概念以及系統或單個系統的運用概念的潛在發展提供信息。

人工智能的運作影響到未來部隊將如何運作,如何針對對手開展行動,以及指揮官如何利用軍事藝術和科學,運用部隊能力來實現預期效果和目標。在2019年未來研究計劃(FSP19)期間,人工智能工作線(LoE)確定了與實施人工智能支持的多領域解決方案有關的以下問題:

  • 數據管理--AI/ML應用程序依賴于對策劃的數據的訪問,以便發揮作用。陸軍必須培養一種以數據為中心的文化,以標準化的格式和協議有效地生成、存儲和訪問數據。人才管理的努力必須側重于發展、培訓和保留一支精通數據的員工隊伍。這可以通過以下方式實現:

    • 在整個部門培養一種以數據為中心的文化

    • 投資于整個員工隊伍的數據科學培訓

    • 簡化數據訪問

    • 設計和實施協議,以確保數據的可發現、可訪問、可共享和可互操作性

  • 功能分解--狹義的人工智能本質上是有限的,構建算法的數據科學家需要精確的問題定義,準確確定聯合部隊的要求。

  • 可解釋人工智能--人工智能支持的系統需要有能力解釋決策/建議和所采取的行動背后的邏輯。這種解釋 "為什么"的能力是人類對人工智能智能體的信任基礎。

  • 邊緣計算/人工智能--未來的作戰環境與有爭議的電磁頻譜預期要求有能力向前處理極其龐大的數據集,以及能夠自主行動的人工智能平臺。

  • 利用商業部門--美國防部實驗室繼續在人工智能/ML發展方面取得重大進展,特別是與聯邦資助的研究和發展中心合作。商業部門繼續探索和擴大可能適用于軍事應用的工作。

作為FSP19的一部分,人工智能LoE開發了五個小插曲和一個概念草圖(見附錄A),以協助人工智能和機器學習的運作。這些小插曲說明了聯合部隊如何利用人工智能/ML來解決多領域行動所需的關鍵能力。MDCOP概念將依靠幾個有限內存的人工智能來建立和維護描繪整個戰場的藍、紅、綠活動。一個反應式機器人工智能將為特定的指揮官和總部定制MDCOP。合作傳感、維持、攻擊和瞄準的小插曲依靠反應式機器人工智能來優化傳感器覆蓋、維持吞吐量、攻擊順序和射手選擇。

未來部隊需要人工智能來充分實現多領域作戰的潛力。人工智能支持的系統使未來部隊能夠進行信息收集和分析,以便在時間有限和信息競爭的環境中增加對形勢的了解。這種能力使快速、知情和合理的決策成為可能。人工智能的決策支持代理將減輕作戰人員的認知工作量并提高整體效率。由人工智能支持的無人系統將探測、識別和穿透高風險區域,以提高開展行動和保護部隊、人口和資源的能力。人工智能使MDO在與近似對手的沖突規模下實現了作戰速度的要求。

付費5元查看完整內容

這本書回答了你可能從未想過要問的問題,比如說:

  • 羅納德-里根和博比-肯尼迪有什么共同點?(他們都參加了最高機密的兵棋活動。)
  • 珍珠港在周日早上被空襲過幾次?(至少三次;第一次是在1932年,由美國海軍在一次實戰演習中進行,然后在1941年10月由日本帝國海軍在一次作戰規劃兵棋中進行,最后在1941年12月7日由 "日本帝國的海軍和空軍"進行。)
  • 文明和兵棋推演哪個先來? (一個詭異的問題:文明和兵棋推演似乎在同一時間和地點開始。)

這篇序言回答了關于本書的三個重要問題:為什么要閱讀它,為什么寫它,以及它是如何創建的。

1 為什么要閱讀本書?

如果你只是想讀一些既有娛樂性又能 "節省時間 "的書,那就有足夠的理由去讀這本書。一路上,你將了解到H.G.威爾斯最不準確(或者,我們希望是最不成熟)的預測。你會遇到軍事上的特立獨行者,并了解你可能認為自己已經知道的歷史事件的其余部分。

如果你在軍隊中服役,并希望以較低的時間和財富成本履行你的職責,你應該閱讀這本書。如果你是一名新兵,一名高級將領,或一名政治任命者,你會在這本書中找到與你的水平相關的見解。

如果你是一位家長,關注電子游戲中暴力程度和你的孩子所處的競爭日益激烈的世界,這本書是為你準備的。我描述了父母如何利用兵棋推演來幫助他們的孩子發展戰略思維和有效競爭的能力。

如果你是一名選民,希望對國防有更好的了解,這本書告訴你許多關鍵決定是如何做出的。

如果你的業務是商業,這本書描述了類似兵棋的技術在這個世界上越來越廣泛的使用。當企業不僅要與街邊的公司競爭,還要與遠在地球另一端的政府擁有的公司競爭時,商人們需要他們能得到的一切優勢。本書中描述的技術可以提供一個重要的優勢。

如果你有興趣幫助建立一個更繁榮、更和平的世界,你會在我的結論中發現一個論斷:雖然兵棋長期以來被用來使勝利更有可能,但它們也有可能幫助使和平更持久。

2 為什么寫本書?

我開始寫這本書是出于一個功利性的原因:1997年,我需要一本空軍指揮和參謀學院選修課的兵棋推演教材。出于不同的原因,我一直在寫這本書。隨著我對兵棋推演歷史的研究,我越來越相信,兵棋是一個非常強大的工具。兵棋對我們今天所處的世界形態產生了巨大的影響,有好有壞。不幸的是,那些對兵棋推演本身產生重大影響的人不僅不為大眾所知,而且在很大程度上也不為今天的軍隊所知。這讓我覺得既不公正又危險。我還觀察到,兵棋推演的藝術、科學和應用并不總是能傳給下一代。歷史似乎表明,當有效使用時,兵棋推演提供了強大的優勢,而關于棋的健忘癥則造成了更大的傷亡。

這導致了另一個認識——僅僅講述兵棋推演的故事是不夠的。即使這個故事說服了讀者進行兵棋推演,游戲本身也不能確保成功。從我的研究中可以看出,兵棋已經成為全球性的,我們的對手幾乎不可避免地也會進行兵棋推演。我需要寫一本書,幫助我方從兵棋推演中獲得比對手更多的價值。

在我努力完成這本書的過程中,我產生了一個最終的動機。我開始相信,兵棋——或者更廣泛地說,模擬游戲技術--可以成為實現其他目的的寶貴工具。類似兵棋技術可以幫助我們在經濟上更有效地競爭,使我們能夠承擔更有效的防御。最終,兵棋還可以幫助培養致力于一個更加和平和繁榮的世界的戰略家。

3 如何創建本書?

如果成功有一千個父親,這本書應該是非常成功的。1990年,我在 "起源 "兵棋推演會議上首次發表了關于兵棋推演歷史的演講。我經常從我的聽眾那里獲得線索。

此外,從1997年到2005年,我在空軍指揮和參謀學院教授兵棋推演選修課。我的教員、客座講師和學生提供了許多杰出的見解,這些見解塑造了我目前對兵棋推演潛力和一般游戲技術的想法。

然而,我從兵棋推演社區的年度聚會"聯結"的參與者那里得到了最寶貴的見解和鼓勵。自1993年以來,"聯結"將來自美國和世界各地的學術和娛樂性兵棋推演從業者以及各軍種的軍事人員聚集在一起。最后,我在美國和盟國軍隊中的同事,特別是美國空軍總部、空軍物資司令部和空軍研究實驗室,教會了我很多關于兵棋推演及其應用的知識。這本書確實是兵棋推演界的作品。

4 本書內容

導言以描述一個近期的兵棋開始,這個游戲塑造了我們今天所處的世界。接下來是對"兵棋推演101"描述,以便對原則和詞匯有一個基本了解。最后是基于案例總結了系統的使用歷史。

第一部分,"兵棋推演的歷史",占據了本書的大部分內容,是本書的核心。它追溯了兵棋推演對歷史的影響,從最早的文明到現在的寫作時間。介紹了對兵棋推演有影響的人,以及反過來影響歷史的兵棋推演

第二部分是收益,如何從兵棋推演中獲得最大價值。它解釋了為什么兵棋推演是有效的,以及領導者、實踐者和參與者如何能夠提高這種有效性。最后,它描述了人們,從父母到總統,如何使用兵棋推演來支持他們的特定需求

結論以簡短的回顧開始,然后問道:我們希望兵棋在未來如何發展?然后,提出了一種兵棋發展方式,即從幫助贏得戰爭的工具發展到幫助首先避免戰爭的工具。該書最后說明了兵棋推演的作為避免戰爭工具的用途,以幫助實現最高形式的勝利--公正和持久的和平

付費5元查看完整內容

美國缺乏一套專門的人工智能(AI)戰爭的理論。這導致了在戰爭的作戰層面上缺乏對人工智能影響的討論。人工智能的定義通常采用技術視角,不考慮對作戰藝術的影響。提議的作戰藝術的新要素 "抓手(Grip)"解釋了人工智能和人類在兩個方面的基本關系:自主性和角色交換。“抓手”為人工智能戰爭的理論奠定了基礎,除了揭示改變任務指揮理論的必要性外,還提出了作戰的假設。美國空軍陸戰隊的發展以及由此產生的戰爭作戰水平(和作戰藝術)在歷史上有類似的案例,說明關鍵假設如何影響戰場的可視化。去除“人在回路中”的人工智能戰爭的假設,揭示了需要一種新的作戰藝術元素來安排部隊的時間、空間和目的,此外,美國陸軍任務指揮理論需要調整,以使指揮官能夠在各種形式的控制之間移動。

簡介

“機器人和人工智能可以從根本上改變戰爭的性質......誰先到達那里,誰就能主宰戰場。”- 美國陸軍部長馬克-埃斯佩爾博士,2018年

預計人工智能(AI)將極大地改變21世紀的戰爭特征。人工智能的潛在應用只受到想象力和公共政策的限制。人工智能擁有縮短決策周期的潛力,超過了人類的理論極限。人工智能也有望執行人類、機器和混合編隊的指揮和控制功能。人工智能在自主武器系統(AWS)中的潛力同樣是無限的:分布式制造、蜂群和小型化的先進傳感器為未來的指揮官創造了大量的配置變化。與圍繞人工智能的技術、倫理和概念問題相關的無數問題,為如何將這項技術整合到戰爭的戰術層面上蒙上了陰影。現代軍隊幾個世紀以來一直在為正確整合進化(和革命)的技術進步而奮斗。美國內戰期間的鐵路技術對 "鐵路頭 "軍隊和格蘭特將軍在維克斯堡戰役中的勝利都有貢獻。25年后,法國人忽視了普魯士的鐵路試驗,給第三帝國帶來了危險,同時也沒能把握住小口徑步槍的優勢。卡爾-馮-克勞塞維茨在《論戰爭》中指出,每個時代都有自己的戰爭和先入為主的觀念。本專著將探討當前的先入為主的觀念和人工智能在戰爭的操作層面的出現。

對作戰層面的討論側重于作戰藝術,以及指揮官和他們的參謀人員如何通過整合目的、方式和手段,以及在時間、空間和目的上安排部隊來發展戰役。在作戰藝術中缺乏以人工智能為主題的討論,增加了不適當地部署裝備和以不充分的理論進行戰斗的風險;實質上是在邦聯的火車上與追兵作戰。美國的政策文件和技術路線圖主要集中在能力發展和道德影響上,而沒有描述一個有凝聚力的人工智能戰爭的理論。但美國和中國在自主行動方面的實驗趨于一致;這引起了沖突的可能性,其特點是越來越多的被授權的人工智能和AWS沒有得到實際理論框架的支持。這個問題導致了幾個問題。美國軍隊的人工智能戰爭理論是什么?大國競爭者的人工智能戰爭理論是什么?有哪些關于顛覆性技術的歷史案例?理論應該如何改變以解釋顛覆性技術?

本專著旨在回答上述問題。它還提出了兩個概念,以使指揮官能夠在戰場上可視化和運用人工智能;一個被暫時稱為 "抓手"的作戰藝術的新元素和一個任務指揮理論的延伸。該論點將分三個主要部分進行闡述。第一節(理論)將證明人工智能需要一個認知工具來在時間、空間和目的上安排部隊,方法是:綜合美國的人工智能戰爭理論,描述中國的人工智能戰爭理論,以及揭示當前文獻中的“抓手”理論。第二節(歷史)是對1973年為應對技術轉變而從主動防御演變而來的空地戰(ALB)的案例研究。第二節將重點討論戰場維度的思想、任務指揮理論的演變以及相關的作戰藝術的正式出現。第三節(新興理論)提出了作戰藝術的新要素,作為一種認知工具,幫助指揮官和參謀部將21世紀的戰場可視化。第三節將把以前的章節整合成一個有凝聚力的模型,讓指揮官和參謀部在時間、空間和目的方面可視化他們與AI和AWS的關系。第三節還將提供一個任務指揮理論的建議擴展,以說明人機互動的情況。

主要研究成果

人工智能的復雜性導致了正式的戰爭理論的缺乏;然而,在美國的政策和發展文件中存在著一個初步的美國人工智能戰爭理論。人工智能戰爭理論必須解釋人類和人工智能之間的關系,這樣才能完整。通過作戰藝術和任務指揮的視角來看待人工智能,揭示了自主性和角色互換的兩個頻譜,通過不同的組合創造了人工智能戰爭理論的維度。這些維度,或者說掌握的形式,代表了作戰藝術的一個新元素。同樣,需要將任務指揮理論擴展到一個過程-產出模型中,以實現掌握形式之間的移動。

方法論

綜合美國目前的人工智能政策和AWS的發展路線圖,提供了一幅戰略領導人如何看待人工智能的圖景,允許發展一個暫定的戰爭理論。由于缺乏關于武器化人工智能的歷史數據,政策和發展路線圖是必需的,因此本專著中提出的理論是由提煉出來的概念產生的。由于中國的工業和技術基礎的規模,中國被選為對抗模式,預計在10到15年內,中國將超越俄羅斯成為美國最大的戰略競爭對手。

圖文并茂的案例研究方法將被用來分析主動防御和空地戰之間的過渡。該案例研究將整合技術、政策和戰爭理論,以喚起人們對多域作戰(MDO)和人工智能在21世紀戰爭中作用的疑問。第二節的批判性分析側重于理論的發展,而不是其應用。第二節的詳細程度是有限制的,因為它仍然是一個更大(和有限)整體的一部分,因此重點應繼續揭示戰場可視化和認知輔助工具之間的聯系。第三節通過作戰藝術的新元素和任務指揮理論的調整來回答每一節中發現的問題,從而將前幾節連接起來。人工智能缺乏歷史,考慮到人們不能直接分析以前的沖突,以獲得教訓或原則。在這種情況下,任務指揮理論提供了一種間接的方法來理解使人類能夠集中式和分布式指揮和控制功能的機制,以及為什么人工智能缺乏相應的機制會抑制我們感知機會的能力。第三節將把美國現行政策和路線圖中的幾個抓手成分匯總到任務指揮理論提供的框架中。

范圍和限制

本專著存在于美國陸軍多域作戰概念的框架內,其理解是解決方案是聯合性質的,因為 "陸軍不能單獨解決問題,概念發展必須在整個聯合部隊中保持一致,清晰的語言很重要。"本專著不能被理解為對MDO中提出的問題的單一解決方案,而是一種幫助實現戰斗力聚合的方法。

關于人工智能的討論充滿了倫理、法律和道德方面的考慮,本專著不會涉及這些方面。本專論的假設是,人工智能的軍事用途在政治上仍然是可行的,而且 "戰略前提 "允許該技術的軍事應用走向成熟。由于運用的變化幾乎是無限的,人工智能的戰術實施將不會被詳細討論,而重點是在作戰層面上的概念整合。一般能力將被限制在與作戰藝術和作戰過程有關的具體趨勢上。

付費5元查看完整內容

美國人工智能國家安全委員會在2021年1月提交給國會的最終報告中建議國防部在2025年前做好人工智能準備。這一建議源于美國同行之間的人工智能軍備競賽,以及近年來在開發用于持續監視、指揮和控制以及武器化代碼的算法方面所取得的進展。雖然美國防部內有旨在利用各部門人工智能的戰略舉措,但戰術能力的發展和部署之間存在嚴重的脫節。作為美國防部的領導機構,聯合人工智能中心負責為美國防部的所有部門創造可行的解決方案,因此,如果所有單位都試圖在2025年之前做好人工智能準備,將不堪重負。本文強調了人工智能發展過程中的一個主要缺陷,并認為應將能力發展授權給空軍機群,并提供必要的資金和資源以真正將人工智能作為一種武器。此外,本文確定了通過基因操縱、智能灰塵納米技術和COVID-19機器學習過程發現成功的人工智能概念,以幫助戰術領導人了解人工智能革命如何幫助他們的特定任務領域,并激勵他們進行自我教育

當涉及到利用人工智能(AI)時,美國空軍還沒有準備好與同行對手作戰,而且美國處于一場未宣布的軍備競賽中,可能會看到對手在未來十年內占據領先地位,因此需要迅速采取行動以扭轉局勢。更令人不安的是,這一威脅并沒有被該領域的戰術專家完全理解,或者即使他們理解,他們也可能沒有意識到(或在官僚上沒有能力)提供競爭所需的能力。對手在人工智能的研究和開發工作中正在取得進展。情報界的專業人士可以做些什么來解決這個問題。本文將嘗試定義中隊可以解決的戰術相關問題,并確定高層行動的不足之處。

人工智能國家安全委員會在其最終報告中建議美國防部采取行動,以便各部門為十年后的競爭做好準備。委員會的核心建議是美國防部遵循兩條努力路線:在2025年前為廣泛的人工智能整合奠定基礎,在2025年前實現軍事人工智能的準備狀態。這些項目在委員會報告發表前幾年就已經在進行了,這表明了對我們為有效競爭而需要的未來現實的戰略理解和承諾。然而,如前所述,開發人工智能支持的能力需要多年時間。為了有廣泛的人工智能整合,各級領導人需要了解人工智能的基本復雜性,以及如何在他們的任務空間內納入人工智能能力,以便他們能夠在2025年之前迎來人工智能革命。所提到的三大舉措從戰略角度縮短了傳感器和射手之間的差距,但處于邊緣的元素如何為這些努力作出貢獻?此外,如何授權給前線,讓他們根據任務的具體需要進行必要的組織、訓練和裝備?本文的目的是介紹人工智能的基本概念,并闡明應采取的行動,以推動空軍進入由人工智能驅動的持久性監視狀態。以下段落將討論智能能力、經過驗證的分析概念,以及展示未來的需求

有幾個定義需要提到,以便在本文的其余部分提供背景,并幫助教育下級領導了解基礎概念。首先,人工智能需要三樣東西:數據集、算法和函數。數據集是一個數值表,算法是計算機用來解析數據的過程,而函數是 "從一組輸入值到一個或多個輸出值的確定性映射 "這些構成人工智能的基礎。總的來說,我們可以把人工智能看作是一類努力,它試圖采用計算機算法,并允許人類以合乎邏輯的方式解釋其結果。作為人工智能類別的一個子集,"機器學習(ML)涉及開發和評估使計算機能夠從數據集中提取(或學習)的算法。DL "專注于創建能夠做出準確的數據驅動決策的大型神經網絡模型",而DL的重點舉措是圍繞著從神經網絡的特定神經元中貢獻特定功能的想法。對DL的理解對指揮官使用人工智能的能力至關重要,因為科幻小說中的想象力會認為這是可能的。

從情報、監視和偵察(ISR)的角度來看,DL可以推動多種數據來源的綜合(例如,多情報融合和分析)。通俗地說,ML可以幫助將幾種情報功能以一種共同的形式結合起來。然而,鑒于適當的數據集、算法和功能(或指揮官的意圖),理論上DL有可能允許對收集的信息進行分析、理解、反駁為錯誤信息、接受為事實、重新分配任務進行額外的收集,或推動新的收集任務,就像人可以做的那樣,但在機器處理信息和得出關于可用數據的結論所需的幾秒鐘內,是自主的。雖然戰略和作戰指揮官正在努力實現一種反映類似于上述DL潛力的能力的最終狀態,但他們仍然必須考慮法律、道德和倫理困境,以及開發完整的人工智能基礎設施的安全性和可靠性。如果戰術領導人不與高級領導人同步利用這些機會,我們注定無法與當前的任務集進行任何形式的整合,并注定無法實現國家安全委員會對人工智能規定的 "到2025年人工智能就緒的軍隊 "的姿態。那么,我們的部隊如何才能變得更有人工智能效率?幸運的是,人工智能驅動的能力、分析技術以及政府和商業案例研究可供探索。

人類基因編輯曾經似乎是難以想象的事情,但通過使用機器學習,它正逐漸成為現實。有關規則間隔短回文重復群(CRISPR)的研究已經進行了多年。作為一種生物技術,人們可以推斷出CRISPR技術的意圖是讓科學家有能力 "改變基因或創造DNA以改變植物、動物或人類。"此外,很難像前國家情報局局長詹姆斯-克拉珀在2016年所做的那樣,將基因編輯作為一種強大的大規模殺傷性武器來爭論。由于基因編輯為裝備精良的對手提供了機會,情報專業人員應該了解有關基因操縱的指標如何通過機器學習表現出來,以達到與美國戰略利益相悖的目的,并幫助指揮官了解他們如何能夠迅速打擊這些威脅。這一現實離所需的科學并不遙遠,如果分析人員知道如何識別必要的因素,他們可以將其納入計算。

如果分析員不能通過DL技術獲得分析所需的數據,也有一些創造性的解決方案來獲得信息。一個提供巨大潛力的創新是被稱為微電子機械系統的微小無線網絡的出現,被親切地稱為智能灰塵。"智能灰塵的大小為立方毫米,包含電源、通信和計算。"這是整個傳感器網絡的一個單一節點。研究還表明,智能灰塵粒子將能夠達到微觀水平,能夠作為傳統醫療護理方法的替代品進行注射。比隱身的尺寸更令人敬畏的是這個設備子集預計能提供的能力。它們可以容納攝像頭、環境傳感器和通信機制,以傳輸數據,并進一步處理。與ML工作、與存儲設備甚至互聯網的連接相結合,人們可以設想出一種檢測概率很低的收集資產,一種維護需求很低的系統,如果計劃得當,這種系統能夠降低前沿部署資產的風險,并限制其進入目標收集區域。

到此為止,本文已經討論了分析師如何將人工智能視為一種威脅,如何將其視為一種收集資產,但分析的過程呢?不妨看看COVID-19大流行病。雖然2020年的大流行病充滿了不確定性,但在大約一年的時間里,病毒被相對快速地分析、追蹤和抗擊。醫學界與DL專家合作,開發了COVID篩查和診斷方法、藥物發現以及最終的疫苗創新。這需要大量的數據輸入,這些數據來自社交媒體、基于文本的數據、病人數據、被稱為omics的科學數據的集合,以及圖像和視頻數據。這個分析系統是一個里程碑,表明人類可以與機器合作,在一個非常有效的時間窗口內從獨特的數據集中創建一個解決方案。應用于多源數據融合和分析的標準情報實踐中,如果有資源,沒有理由相信分析師不能利用DL的能力來制定準確的評估。

正如人們所看到的,人工智能在多個國家安全問題上具有巨大的潛力,如果戰術分析員有能力的話,他們可以將其應用于自己的任務領域。美國防部在人工智能方面最重要的代理人是聯合人工智能中心(JAIC),該中心于2019年2月12日根據行政命令13859的要求啟動,作為國防部人工智能戰略的執行者。有一個組織負責確保人工智能的需求得到滿足是一個有價值的目標,但如果各部門要在2025年之前做好人工智能準備,他們就不可能處理整個國防部的能力發展需求量。各級指揮部需要有一個共同的承諾,以避免因優先事項不一致而錯過機會。就目前的人工智能能力發展進程而言,戰術解決方案是不可用的。

自身的官僚主義阻礙了快速、分散的能力發展。為了確保人工智能驅動的能力,人們必須證明有足夠大的需求需要使用人工智能(如僅用五名分析師對數百萬個數據點進行排序),并通過多層官僚機構提交所謂的 "緊急行動需求",以達到主要司令部的要求。一旦獲得批準,該請求將被轉發到JAIC進行裁決。一旦被裁定并在國防部的其他要求中被優先考慮,可能需要幾個月的時間才能找到一個開發者,并開始解決這個問題。在最好的情況下,這個過程可能會看到從需求提交到開發的6個月周轉期,這是不令人滿意的,如果服務要在2025年之前做好人工智能準備。這不是JAIC的錯,因為他們應該向國防部領導人和國會倡導人工智能,所以各部門有資金從外部尋求人工智能,同時學習如何在人工智能、ML和DL能力發展方面變得靈巧。筆者建議領導們認真考慮賦予機翼必要的預算、培訓要求,并與經批準的開發者名單(由全軍委員會批準)協調,以追求人工智能的努力。這項建議并沒有將JAIC完全從流程和能力發展中移除,因為該組織將繼續承擔正式的領導地位,制定政策并獲取最佳實踐,以便在整個國防部共享。

人工智能革命就在這里。本文確定了人工智能為部隊的每項任務提供的機會的縮影。人工智能、ML和DL為可能的事情打開了大門,并且應該讓ISR分析員以不同的方式思考問題及其解決方案。從基因突變到自動分析再到自主武器,可能性只限于可用的數據--或如何解釋可用數據。美國的對手已經具有威脅性,并且很可能在未來十年內增加。國家安全不僅需要提高對人工智能的認識,還需要開發和整合基于人工智能的武器系統。依靠簽約組織來開發機器算法,在未來是不可持續的。必須根據任務的需要調整任務算法,否則就會在一系列的能力中遭受失敗。

付費5元查看完整內容

摘要

為了能夠在一個日益脆弱的世界中捍衛自己的生活方式和價值觀,團結在北約框架內的西方民主國家必須有能力在必要時 "以機器速度作戰"。為此,國防領域的數字化不能只局限于后勤、維護、情報、監視和偵察,而必須同樣能夠實現負責任的武器交戰。以歐洲未來戰斗航空系統(FCAS)為重點,我們討論了基于人工智能的武器系統的道德統一系統工程的各個方面,這可能會在國際社會中找到更廣泛的同意[1]。在FCAS計劃中,這是自二戰以來歐洲最大的軍備努力,有人駕駛的噴氣式飛機是一個網絡系統的元素,無人駕駛的 "遠程載體 "保護飛行員并協助他們完成戰斗任務。鑒于正在進行的辯論,德國國防部長已經強調。"歐洲戰略自主的想法走得太遠了,如果它被認為意味著我們可以在沒有北約和美國的情況下保證歐洲的安全、穩定和繁榮。那是一種幻覺[2]"。在這個意義上,FCAS與北約的目標是一致的。

引言

"武器的殺傷力越大,影響越深遠,就越需要武器背后的人知道他們在做什么,"沃爾夫-馮-鮑迪辛將軍(1907-1993)說,他是1955年成立的二戰后德國聯邦國防軍的富有遠見的設計師(見圖1)。"如果沒有對道德領域的承諾,士兵就有可能成為一個單純的暴力功能者和管理者"。他深思熟慮地補充道。"如果僅僅從功能的角度來看,也就是說,如果要實現的目標在任何情況下都高于人,那么武裝部隊將成為一種危險[3]"。

弗朗西斯-培根(1561-1626)關于實現權力是所有知識的意義的聲明標志著現代項目的開始[4]。然而,自從人工智能(AI)在國防領域出現后,旨在造福人類的技術可能會反過來影響它。這種類型的工具性知識使現代危機像在聚光燈下一樣明顯。關于人的倫理知識,關于人的本質和目的,必須補充培根式的知識。有一種 "人的生態學",一位德國教皇提醒德國議員說。"他不制造自己;他要對自己和他人負責[5]"。因此,任何符合倫理的工程必須是以人類為中心的。這對于國防領域的人工智能來說是最迫切的。因此,數字倫理和相應的精神和道德是必不可少的技能,要與卓越的技術同時系統地建立起來。因此,領導哲學和個性發展計劃應鼓勵設計和使用基于人工智能的防御系統的道德能力。

北約STO的科技界如何在技術上支持負責任地使用我們從人工智能中收獲的巨大力量?為了更具體地論證,讓我們以德國聯邦國防軍的文件為指導,從它在20世紀50年代成立的時候,也就是人工智能這個詞真正被創造出來的時候,到最近的聲明。由于這些武裝部隊已經從暴政和以當時高科技為特征的 "全面戰爭 "中吸取了教訓,他們似乎在概念上已經為掌握數字挑戰做了準備。這一點更是如此,因為聯邦國防軍是一支載于《德國基本法》的議會軍隊,它完全按照聯邦議院的具體授權行事,即以德國人民的名義行事。

國防領域的人工智能旨在將軍事決策者從常規或大規模任務中解脫出來,并 "馴服 "復雜性,讓他們做只有個人才能做的事情,即智能地感知情況并負責任地采取行動。自動化對聯邦國防軍的重要性很早就被認識到了。馮-鮑迪辛在1957年提出:"然后,人類的智慧和人力將再次能夠被部署到適合人類的領域"[6]。從這個角度來看,武裝部隊作為基于人工智能的系統的使用者,并沒有面臨根本性的新挑戰,因為技術的發展一直在擴大感知和行動的范圍。

圖1:"最高度機械化的戰斗需要[......]讓士兵意識到他們的責任,讓他們體驗到他們的行為和不行為的后果。"沃爾夫-馮-鮑迪辛(1954)? 聯邦國防軍
付費5元查看完整內容
北京阿比特科技有限公司