與"半人馬作戰(centaur warfighting)"概念以及自主武器系統將取代人類作戰人員的想法不同,本文提出,未來的有人-無人協同作戰更可能是“牛頭人”,即在人工智能控制、監督或指揮下的人類團隊。它研究了未來部隊的可能組成,并促使人們對牛頭人作戰引起的倫理問題進行必要的對話。
人類將在未來的戰爭中扮演什么角色?對這個問題的一個有影響力的答案是,他們將與先進的機器合作,利用雙方的獨特能力。保羅-沙爾創造了 "半人馬作戰 "一詞來描述有人-無人組隊的使用,他認為相對于使用自主武器系統(AWS),它們擁有一些關鍵的優勢。通過讓人類控制、監督或指揮多個無人系統,人類的判斷力和認知的靈活性可以與機器的反應速度、傳感器、力量和功率相結合,從而勝過人類和機器單獨作戰。
半人馬是一種神話中的生物,其頭部和上身是人,下身是馬。當被用來描述有人-無人團隊時,半人馬的形象促進了人類將領導團隊的想法。我們概述了對有人-無人團隊性質的另一種看法,這種看法更有可能在未來戰爭的關鍵作戰領域實現。我們懷疑人工智能(AI)將指導多個人類的活動,而不是人類指揮多個機器人。未來的機器人士兵更有可能是牛頭人--一種具有人的身體和牛的頭的神話生物,而不是半人馬:他們將有一個可怕的頭而不是一個可怕的身體。
牛頭人是思考人類參與戰爭未來的一個更好的形象,其原因與技術動態和道德要求有關。可以說,人工智能在執行與戰爭最相關的認知任務方面的能力已經超過了機器人在執行與戰爭最相關的人體功能方面的能力。此外,人工智能應用方面的進展比機器人應用方面的進展出現得更快。因此,在可預見的未來,在許多領域,當人類扮演執行角色時,用機器代替人類將比人類扮演涉及操縱物體或在雜亂環境中移動的角色更有說服力。事實上,將人類置于機器的控制、監督或指揮之下往往是一種道德上的需要。隨著新技術的引入,軍事行動的節奏加快,將戰場指揮的一些功能轉移給人工智能,將有助于防止友軍交火事件,并提高人類作戰人員的生存能力。
鑒于人工智能的發展速度,迫切需要考慮牛頭人作戰的影響,這既是為了未來作戰部隊的有效性,也是為了將越來越多地在機器的指導下進行戰爭的人類。本文討論了推動我們走向由牛頭人作戰的未來因素,并開始了關于牛頭人作戰的倫理影響的對話。
沙爾在關于使用自主武器的影響和倫理的辯論中提出了半人馬作戰的想法。沙爾承認,完全自主的武器系統可能在未來的戰爭中發揮作用,但他認為,在大多數情況下,人類和機器的團隊在單獨運作時將勝過兩者。機器人和人工智能程序在整合大量數據、快速反應和實施精確打擊方面表現出色。但目前,在涉及到對作戰至關重要的其他角色時,它們的能力不如人類。特別是,他認為,人工智能仍然難以在復雜和意外的情況下做出正確的決定,特別是在解決戰爭中經常出現的道德困境方面,行使必要的道德判斷。由于這個原因,據沙爾說,在許多應用中,人類和機器人(或人工智能)組成的團隊一起工作,在戰斗和其他軍事行動中,將勝過自主系統和人類的單獨戰斗。
半人馬作戰的想法具有很大的影響力,這體現在人們對現有武器系統運作的理解上,也體現在如何設計和使用機器人和人工智能來進行未來的戰爭的模式上。
沙爾本人用半人馬的形象來分析美國反火箭、火炮和迫擊炮系統(C-RAM)的運作,該系統自2010年以來一直在運行。該系統由一門雷達和計算機控制的高速加特林炮組成。它是高度自動化的,能夠在沒有人類監督的情況下攻擊和摧毀目標。然而,目前的理論要求有一個人在回路中(意味著系統不能在沒有人類操作員輸入的情況下運行),以授權參與特定目標,以減少自相殘殺的風險。Scharre將這種安排作為半人馬作戰的典范,應盡可能地加以模仿。他還指出,類似的系統只包括人類的 "循環"(意味著人類主管可以選擇干預以改變系統的運作),并建議這種安排可能會變得越來越普遍,甚至是必要的,因為在更多的角色中使用自主系統而導致行動節奏加快。
重要的是,半人馬座作戰可以作為目前正在開發的使用機器人和自主系統的未來行動模式。美國國防部無人系統綜合路線圖2017-2042聲稱,"未來的軍事行動將需要無人系統和人類之間的協作",并強調了 "人機合作 "的重要性。人機協作(MUM-T)是美國陸軍無人機系統2010-2035年路線圖的一個關鍵目標,在美國海軍的無人機運動框架中也占有重要地位。雖然有人-無人團隊合作與團隊中的機器和人類之間的一系列關系兼容,但文件中提供的背景和例子清楚地表明,這些有人-無人團隊被想象成半人馬。此外,無人系統的旗艦例子包括美國陸軍的機器人戰車-輕型,美國海軍陸戰隊的遠程操作地面部隊的遠征(ROGUE)-消防平臺,美國空軍的SkyBorg項目,以及澳大利亞皇家空軍的Loyal Wingman項目(最近更名為MQ-28A Ghost Bat)。這些例子幾乎都被宣傳為提高人類作戰人員的效率--也就是說,促進半人馬作戰。
半人馬的形象意味著,當人類與機器人或人工智能合作時,人類將負責團隊的工作。準確地說,他們將如何負責仍然是開放的。Scharre通過使用人類在循環中和在循環中的例子來介紹半人馬作戰的想法。Scharre似乎允許半人馬作戰與人類只發揮較遠的監督作用的情況兼容,盡管據推測,機器將需要保持在 "有意義的人類控制 "之下,以便在這種情況下談論人類監督。Scharre對 "有人-無人小組 "中人類負責的含義做了慷慨的解釋。即使在這種情況下,我們相信,與Scharre相反,許多人類和機器的合作將被更準確地描述為牛頭人(無人駕駛的團隊)而不是半人馬(有人駕駛的-無人駕駛的團隊),因為團隊中的機器將有效地負責。
人工智能發展的最初時期的特點是認為關鍵的挑戰是創造出能夠完成認知任務的機器--例如下棋、完成數學運算和處理大型數據集--我們覺得很難,并認為是智力成就的巔峰。例如,臭名昭著的是,被廣泛認為是現代人工智能研究起點的達特茅斯夏季研討會的原始撥款申請提出:將嘗試尋找如何使機器使用語言,形成抽象和概念,解決現在留給人類的各種問題,并改進自己。我們認為,如果一個精心挑選的科學家小組在一個夏天共同研究這些問題,就可以在其中一個或多個問題上取得重大進展。
然而,很快就可以看出,真正的挑戰在于其他方面。我們認為很容易的任務(而且我們認為這些任務不需要智力,因為兒童和動物與成人一樣能很好地完成)對機器來說證明是困難的。現在,感知、運動和操縱被認為是人工智能和機器人學的難點。盡管過去十年來機器視覺取得了重大進展,但機器在非結構化環境中定位和識別物體的能力仍然有限,而靈巧的操縱仍然是一個關鍵的挑戰。現實世界操作條件下的魯棒性對機器人系統來說也是一個挑戰,能源要求也是如此。在當前,令人震驚的是,人工智能研究的進展比機器人研究快得多。一般來說,人工智能的腦袋仍然比機器人的身體好。正如計算機科學家唐納德-克努斯(Donald Knuth)所觀察到的,"到目前為止,人工智能基本上已經成功地完成了所有需要'思考'的事情,但卻未能完成人和動物'不需要思考'的大部分事情--這一點,不知為何,要難得多。" 鑒于體現在與物理世界的接觸中所涉及的挑戰程度,在可預見的未來,這種情況可能仍然存在。
人工智能和機器人技術的相對優勢在許多民事應用中是顯而易見的。今天,當人類和智能機器在工業領域的團隊中一起工作時,機器往往執行腦力勞動,而人類則從事體力勞動。
也許牛頭人最突出的民用例子是亞馬遜的履行中心。這些中心的工人是由機器指揮和監督的。復雜的算法決定了哪些貨物必須被運送,在哪里,以及如何運送,但人類必須收集和(有時)包裝它們。機器通過手持設備告訴工人要收集什么,從哪里收集。因為倉庫使用算法包裝系統,它存儲貨物以盡量減少收集貨物所需的時間,而不是在一個固定的位置,如果沒有機器,人類就無法找到他們被要求收集的產品。越來越多的機器人化的叉車、托盤或存儲單元將產品箱帶到桌子上,人類在那里提升和包裝貨物或將它們放入另一臺機器:人類因此淪為了機器的手。正如諾姆-謝伯在《紐約時報》上指出的,"[從工作中]不斷剝離人類的判斷力是自動化最普遍的后果之一--與其說是用機器人取代人,不如說是讓人變得像機器人"。
另一個平民牛頭人的例子是由長途卡車運輸的演變提供的。卡車司機越來越多地收集和運送物品,并遵循算法物流系統分配給他們的路線。將數據傳回給這些算法的傳感器監測司機的速度、路線和駕駛表現。司機甚至可能因為各種違規行為而被自動處罰。自主系統不是由人類選擇自主車輛行駛的目的地,而是指示人類何時、何地、如何行駛。這些人機團隊的發展和繁榮,主要是因為它們在技術上比其他選擇(如人類選擇路線或機器駕駛)更可行,但也因為它們減少了道路死亡。
在討論未來戰爭中的有人和無人合作時,人工智能和機器人的性能差異一直沒有被充分認識到,因為無人系統在軍事應用中的成功案例都是在空中領域操作(或攻擊目標)的機器。與感知、導航和運動有關的問題對無人駕駛航空器來說是相對容易解決的,而與操縱和靈巧操作有關的問題則不會出現。如果考慮到無人系統在陸地戰爭中的核心任務的表現,情況就會非常不同。
城市環境、森林、泥地、雪地、冰地和沙地對機器人來說都極具挑戰性。在戰時安全地通過這些地形需要不斷地判斷物體和表面如何相互作用,選擇最佳路線,其他友方和敵方單位的目標,以及其他代理的可用信息。雖然人類是憑直覺做出這些判斷,而且往往是無意識的,但這種身體和感知的知識很難在算法中呈現。物理環境的非結構化和難處理的性質給機器人帶來了深刻的挑戰,這一點在涉及到在陸戰中發揮關鍵作用的其他活動時更加明顯。例如,運輸和安放軍械、設置防御工事或清理建筑物都需要人類。不過,機器可以通過整合多種來源的信息(如無人機、衛星、安裝在武器或頭盔上的攝像機的視頻資料以及信號情報),越來越多地(近乎)實時識別敵方軍事目標和人員,這項任務可能超過人類的能力,但現在已經在機器的能力范圍之內。Scharre和其他人認為,機器可能很難考慮到對適用戰爭法很重要的背景線索,或作出確定適當目標所需的道德或戰略判斷。然而,在許多情況下,環境實際上會使機器作出這樣的決定是可行的。例如,在一個特定的地區或交戰中,所有的敵方潛艇、坦克或戰斗機都可能是合法的目標,而現有的人工智能有能力將這些系統與民用物體區分開來,這是可信的。
對于人工智能和機器人技術在海戰中的應用,也可以進行類似的觀察。許多對艦艇操作至關重要的任務將很難實現自動化或分配給機器人,因為它們依賴于人類在復雜環境中識別、移動和操縱一系列不同物體的能力。特別是,在可預見的未來,人類將需要裝載和維護武器以及維修發動機。然而,對海戰至關重要的認知任務(如確定船只的最佳路線、控制防空系統、識別目標并確定其優先次序)似乎完全在現有或未來的人工智能能力范圍之內。
將我們的注意力從天空轉移到陸戰和海戰,突出了物理環境對機器操作構成的挑戰,而我們離解決這些問題還很遠,而我們離創造能夠識別目標和為作戰人員確定優先次序的人工智能還很遠。
牛頭人團隊在平民生活中的出現表明,牛頭人在未來的軍事行動中也將發揮一定的作用。至少,軍事倉庫和后勤可能會效仿民用模式,創建牛頭人團隊來執行關鍵職能。
談到作戰行動,牛頭人的合理用例比比皆是。
盡管最近在一些功能的自動化方面取得了進展,但拖曳或駕駛、放置和裝載軍械需要多個人類。不過,識別、跟蹤和確定目標的優先次序可以由機器完成。在所謂的以網絡為中心的戰爭時代,進入敵人的 "觀察-東方-決定-行動 "循環的最佳方式是讓計算機分配目標,甚至是瞄準和發射武器。事實上,據報道,在目前與俄羅斯的戰爭中,烏克蘭軍方已經朝著這個方向采取了重大步驟。當人類拖拽和裝載的武器被瞄準和發射到機器選擇的目標時,我們就有了牛頭人作戰。
新興技術也有可能將步兵小隊變成牛頭人。美國陸軍的綜合視覺增強系統將利用基于微軟HoloLens的混合現實頭盔為作戰人員提供戰術數據。美國陸軍最近的一份 "信息請求 "提供了線索,說明其開發者預計人工智能將如何被用來擴展該系統的能力。這份文件將 "人工智能目標檢測算法"、"機器輔助任務規劃"、"人工智能戰術預測 "和 "人工智能數字戰場助理 "列為感興趣的領域。雖然要求的措辭暗示人工智能將作為助理或顧問,但有充分的理由相信,人工智能不會長期局限于這些角色。
對人機交互(HCI)的研究表明,人們傾向于過度信任人工智能,尤其是當人工智能已經證明自己普遍可靠時--這種現象被稱為自動化偏見。如果目標檢測算法或戰場助手表明某個特定的物體或人是一種威脅,那么作戰人員不太可能否定人工智能,特別是考慮到綜合視覺增強系統的前提是它有助于減少戰爭的迷霧。此外,如果人工智能可以利用來自多個平臺和傳感器的信息來制定威脅評估或任務目標,考慮到機器更好的有利條件,違背其建議行事可能是錯誤的。一旦人工智能的性能達到一定水平,主張自己的判斷高于人工智能的判斷的作戰人員將把自己和周圍人的生命置于危險之中;他們還將減損團隊的作戰效率。最終,人工智能的建議將在心理上,甚至在規范和制度上具有命令的力量,參與小單位戰斗的作戰人員將把大部分時間用于實現人工智能為他們設定的目標。
正如托馬斯-亞當斯在20多年前所認為的那樣,隨著人工智能的影響加速了戰斗的節奏,減少了人類的有效決策時間,軍隊除了將許多決策外包給人工智能之外,可能沒有其他選擇。不過,在可預見的未來,戰爭的成功起訴將涉及人類處理目前機器處理不好的平凡的物理和物質挑戰。如果在未來,人工智能在一個有人-無人(或者更準確地說,無人-有人)的團隊中通過選擇目標和設定目標來完成認知工作,而人類在人工智能的指導下辛勤工作,我們將有一個牛頭人而不是半人馬。亞當斯確定的同樣的動態表明,牛頭人將在未來的戰斗中戰勝半人馬,為軍隊采用牛頭人作戰創造了強大的動力。
最終的牛頭人作戰部隊將由一隊人類和機器人組成,由相當于將軍的AI指揮。雖然還不可行,但從長遠來看,這個想法沒有表面上那么牽強。人工智能往往擅長游戲,包括戰爭游戲,因為人工智能可以從一個游戲的多次迭代的經驗中學習。如果戰爭只是在屏幕上移動單位或根據一套復雜的規則使分數最大化,機器在指揮軍事行動方面已經超過了人類。他們還沒有做到這一點的原因是,在軍事模擬中準確表現不同武器系統和軍事單位的能力,以及行動所處的地形(包括人類地形)的承受力方面存在著困難。如果軍事模擬的技術得到改進,使真實世界的行動能夠在戰爭游戲中得到準確體現,那么就會為開發復雜的戰爭算法打開大門。最終,對勝利的追求可能需要將指揮權交給機器,而勝利可能由哪支部隊擁有更好的人工智能決定。
同樣值得注意的是,自動化偏見表明,目前人們認為的一些高度自動化系統是半人馬,實際上是牛頭人。如果 "在圈內 "的人不太可能反駁機器,那么有人-無人團隊就是一個牛頭人,而不是半人馬。我們懷疑Phalanx近程武器系統和反火箭、火炮和迫擊炮系統可能就是這種情況。
最后,認識到即使是所謂的 "自主 "系統也要依靠人類來裝載、修理和維護它們,這表明許多自主武器系統應該被理解為牛頭人的頭,其人類支持團隊是身體。
至關重要的是,軍事政策制定者和更廣泛的社會現在開始就牛頭人作戰的倫理問題進行對話,以準備或塑造未來。
牛頭人作戰有強大的倫理論據。牛頭人作戰很可能是為了響應避免自相殘殺的道德要求而出現的。更具爭議性的是,民間社會對作戰人員的義務,以及指揮官對其部隊的義務,即避免將友軍暴露在不必要的風險中,也往往會成為支持牛頭人作戰的理由。通過迅速識別和確定目標的優先次序,牛頭人將減少敵人使用武器的機會。最后,牛頭人有可能在不遠的將來擊敗半人馬,這在倫理上是很突出的;如果我們為正義事業而戰,就有強烈的倫理理由讓我們派出盡可能強大的軍事力量。
然而,牛頭人作戰也有一些令人深為不安的方面。事實上,在賦予機器超越人類的力量,以至于將它們送上戰場被殺死的時候,牛頭人作戰預示著當代關于機器和人類之間關系的辯論中正在討論的倫理問題,更普遍。
一個擔心是,機器將不會充分關心,或以正確的方式關心,或者,也許根本不關心他們所指揮的人的生命。例如,人工智能將軍可能會把人類當作炮灰,為更強大的無人駕駛系統掃清道路。在這里,重要的是要區分對機器會不必要地拿人的生命冒險的擔憂和對它們拿人的生命冒險的擔憂。前者實際上是對軍事人工智能有效性的懷疑,最終應該由牛頭人贏得戰斗和減少(人類)作戰人員的風險的證據來緩解。
人的生命不應該在機器的決定中受到威脅,這種擔憂也出現在關于使用AWS的倫理的辯論中,可以用伊曼紐爾-康德的哲學來表達。康德堅持認為,人類應該始終被視為 "目的",而不是僅僅作為手段。與機器不同,人類有自由意志。康德認為,我們必須尊重對方的這種能力,避免將他人僅僅作為工具來推進我們的目的。我們很難看到機器如何表現出這樣的尊重,也很容易擔心牛頭人作戰會將人類淪為單純的手段。
這種反對意見還有一個共和派的版本。根據這一傳統,自由與法律是兼容的,而法律是追蹤公民利益的審議過程的結果。不過,如果個人只能在強權的支配下按自己的意愿行事,那么他們就會被支配,在這個程度上,就不是自由。公民的平等自由要求他們不受制于主權者或其他公民的任意權力。人們很容易認為,機器行使權力總是任意的,因為機器不能參與構成商議的推理實踐。
這兩種反對意見都是有道理的。然而,要以一種不會招致回答的方式來表述這些反對意見是很困難的,因為當人類命令其他人類上戰場時也存在類似的情況。當士兵入伍時,他們同意被用來為更大的目的服務,而且可以說,他們受制于上級的任意權力。雖然人們希望指揮官只以他們可以向下屬證明其利益的方式來對待他們手下的人,但軍事上的需要有時可能會有不同的要求。因此,機器指揮的倫理看起來與更普遍的指揮倫理沒有什么區別。
然而,很難避免一種感覺,即授予機器權力讓人類去送死是有問題的。人類的價值是機器無法比擬的。將人類置于機器的指揮之下,似乎表達了這樣一種想法:機器比人類更重要,或者至少比人類更好。不出所料,這種直覺也出現在關于使用自主武器系統的倫理的辯論中,它在其中發揮了重要作用。
另一個問題是自主武器系統和牛頭人都會出現的,它涉及到機器所做決定的責任歸屬問題。當父母得知他們的孩子在被機器送上戰場后被殺時,他們可能想知道應該責備誰。如果有一天,讓機器對 "它 "的行為承擔道德責任是合適的,這仍然是一個激烈的哲學辯論的話題。我們猜測,對于悲傷的父母的問題,如果不是道德問題,也將最終作為一個法律問題來解決,即把對人工智能的決定和牛頭人的行動的后果的責任分配給更高層次的人類。
這里指出的牛頭人作戰引起的倫理問題足以令人不安,而且隨著牛頭人隊伍的使用推廣,無疑會出現更多問題。然而,在軍事背景下,牛頭人的理由--他們將贏得戰斗并拯救友軍的生命--是非常強大的。出于這個原因,我們的分析表明,正如新技術通常的情況一樣,對牛頭人作戰進行全面考慮的倫理評估需要解決康德和后果主義直覺之間的沖突。
像我們用來理解世界的許多區別一樣,半人馬和牛頭人之間的對比無疑是過度的。在現實中,當人類和機器一起工作時,他們之間會有一系列的關系。即使在特定的團隊中,一些任務將更多地委托給人類,而另一些則委托給機器人或AI。然而,牛頭人的形象提醒我們,這種談判不會總是有利于人類。
同樣,就軍事是一個系統的系統而言,人類和機器之間的特定合作是半人馬還是牛頭人,將是分析水平的一個函數。如果我們以一種方式畫出團隊周圍的邊界,那么這個系統看起來就像一個牛頭人,如果我們以另一種方式畫出它,它就可能是一個半人馬。因此,如果人工智能戰場助手發展成為人工智能班長,人們希望人類官員能指揮他們。如果指揮國家軍隊的將軍是一個人工智能,人們就會認為國家的文職領導層會制定人工智能的戰爭目標。然而,認識到在某些分析層面上,機器將負責,有助于我們理解不同形式的有人-無人團隊合作的優勢和局限。正如我們所論證的,當人們承認一些人類實際上是在機器的指揮下,即使這些機器反過來是在人類的指揮下,倫理問題也會顯得非常不同。
牛頭人作戰將在關鍵的作戰領域得到發展,因為無人駕駛團隊的表現將超過有人-無人駕駛團隊或單獨操作的人類或自主武器系統。在這種新興的有人-無人團隊作戰模式中,人類和機器之間的關系的性質提出了深刻的倫理問題。我們還預計,牛頭人作戰的發展對那些畢生都在磨練人類判斷能力的人來說,在個人和體制上都是一種挑戰,而這種能力目前在作戰中發揮著核心作用。盡管牛頭人帶來了倫理和制度上的挑戰,但那些負責贏得戰爭的人應該抵制牛頭人作戰的發展,這一點還不明確。
如果軍隊或社會確實決定將作戰人員置于機器的控制、監督或指揮之下是一個太遠的步驟,我們認為有三項任務--一項是技術,一項是倫理,一項是政治--需要作為緊急事項加以面對。
首先,必須投入大量的財政和智力資源來開發能夠在非結構化環境中長期有效運行的機器人。這項任務的一個挑戰是,在成功的同時,也要讓把戰爭中涉及的關鍵認知任務交給人工智能更有說服力。一個真正的危險是,機器人應對物理環境的不確定性和復雜性所需的軟件進步,只會進一步賦予人工智能戰略和對軍事力量行使作戰控制權。
其次,必須澄清和加強作為不將人類置于機器指揮之下的道德和政治承諾的基礎的直覺。這樣做也有可能意味著自主武器系統的開發和應用比許多軍事倫理學家和政策制定者所承認的問題更多。如果允許機器告訴人類該做什么在道德上是錯誤的,那么很難看到允許機器殺人在道德上是被允許的。
第三,國際社會必須考慮在國際法律上禁止在戰爭中或在戰爭的某些角色中使用牛頭人團隊是否可取,或者甚至是可行的。每個國家也需要考慮如果其他國家開始在戰爭中使用牛頭人團隊,它將如何應對。
這些挑戰是否能夠成功應對,或者是否應該嘗試,目前還不清楚。我們希望這次討論已經證明了直面這些問題的重要性。在人類戰士將戰場讓給牛頭人之前,我們需要知道,他們勝利的代價不會是我們的人性。
作戰信息中心(CIC)是大多數美國海軍艦艇的戰術指揮中心。由于CIC密集地整合了水手和復雜的系統,以完成它所支持的多個同時進行的任務,因此堅持人類系統工程和整合原則對其當前和未來的設計都是至關重要的。約翰霍普金斯大學應用物理實驗室(APL)正在努力設想通過獨立的研究和開發,強調作戰人員和APL工程師之間的合作,來實現CIC技術進步的可能性藝術。通過預測未來作戰人員的需求、技能和心理模型;預測未來的技術趨勢;以及創造靈活、快速的原型設計環境,APL希望將海軍CIC帶入未來,幫助保持水兵和國家的安全。
作為大多數海軍艦艇繁忙的戰術中心和任務作業的中心,作戰信息中心(CIC)是一個包含許多復雜系統和使用這些系統的水兵的空間。一個有效的CIC設計是由高度整合的人的因素所驅動的,需要不懈地堅持人的系統工程(HSE)原則。在這個只有偶爾的藍光和控制臺屏幕發出的光亮的房間里,水手們監視著雷達和傳感器數據,保護他們的船免受威脅,并在必要時采取進攻行動。CIC的風險很高,因為具有國家重要性的任務是在這個指揮中心執行的,而這些任務對海軍來說意味著生與死的區別。
當今的復雜系統,如CIC,正享受著終端用戶、利益相關者、設計者和工程師之間更緊密的結合,因為人們希望這種協調能夠減少一直存在的人為錯誤的風險。許多人不再認為人類系統集成(HSI)是一個具有不確定價值主張的小眾領域,而是認為它是系統工程過程中的一個必要部分,并有成熟的記錄。然而,盡管認識提高了,許多復雜的系統仍然表現出事故,其根源在于與HSI相關的缺陷。這些事故往往指向重大的設計失誤,這些失誤可以追溯到負責任的HSI項目中的具體差距,或者更糟糕的是,完全沒有。
多年來,許多系統,甚至更多的水手,已經在每個CIC循環,準備保衛他們的船,他們的艦隊和他們的國家。隨著威脅越來越復雜,越來越難以戰勝,隨著 "游戲一代 "的水手們坐在控制臺后面,有必要考慮的不僅僅是CIC在接下來的建設中會是什么樣子,還有未來的CIC應該是什么樣子。在研究這個領域的同時,APL人類系統工程師正在努力通過下船來增加艦隊的投入。在初步考察中,這些工程師詢問了水手們他們對未來的CIC的設想。在回答中,水手們經常提到電影,其中最受歡迎的是《少數派報告》。盡管科幻電影展示了耐人尋味的可能性,但HSI原則繼續引導采用更多以用戶為中心的設計方法來確定提高人類和系統性能的解決方案。為了實現這一目標,必須解決以下問題: 未來作戰人員在CIC中的需求是什么,如何將HSI的基本原理與不可預測的未來技術可能提供的承受力相融合?為了應對這一挑戰,必須首先了解這些系統所要適應的基本作戰環境。其次,必須考慮這個領域中持續存在的生物、技術和與過程相關的差距,以及可能被未來技術所塑造的人機關系。最后,重要的是不斷評估將影響人機關系的技術趨勢,重點是建立靈活的快速原型設計環境,以盡早和經常獲得用戶反饋。
圖1. 水手們在諾曼底號(CG 60)的CIC站崗。(美國海軍照片)
簡單地說,CIC是一個安全的空間,里面有大量的控制臺、顯示器、電纜和通信設備,以及操作它們的水手,如圖1所示。空間是有限的,說話的聲音保持在最低限度,房間里用特定的藍燈照明,以防止水手們失去夜視能力。目前正在使用的最新操作臺是通用顯示系統(CDS)。它配置了三個水平的、不可移動的觸摸屏顯示器、一個軌跡球、一個鍵盤和一把椅子。
圖2和圖3提供了一個CIC布局的例子;然而,CIC的大小和組織在很大程度上取決于它所處的船舶級別。在不同級別的艦艇上,控制臺的集群主要是按戰爭區域來組織的。例如,支持水面戰的水兵在物理距離上很近,參與其他戰區(即防空戰和電子戰)的水兵也是如此。當指揮官,即艦長不在時,戰術行動官負責CIC的運作。戰術行動官被安排在房間前面和中間的桌子上。無論具體布局如何,目前值班人員必須坐在CIC內的指定位置。由于這些控制臺的通用性,CDS最終將允許CIC的水手們登錄到CIC內的任何一個控制臺,如果其中一個系統出現故障,可以提供冗余,并可以根據每個任務靈活地定制CIC的觀察站組織。
圖2. CIC布局實例-DDG 51。CWIS,近程武器系統。
圖3. 圖2中所示的1a和1b站的照片。
在調查未來作戰人員需求的同時,APL的研究人員正在探索今天的CIC中發現的問題。艦艇訪問使人類系統工程師有機會在航行中直接觀察和采訪水手,這仍然是這項工作的重點。這些調查研究工作有助于縮小系統設計和系統使用之間的差距,所獲得的知識是非常寶貴的。在今天的CIC中發現的問題可以分為三個主要類別:技術、工藝和生物(即人)。
從純粹的技術角度來看,工業的發展速度遠遠超過了海軍CIC的發展。虛擬現實(VR)和替代性計算機輸入技術在許多商業產品中變得很普遍。每一代新的水手都習慣于在智能手機和現代游戲系統中發現的最新技術;然而,CIC技術卻停留在過去,幾十年的時間里經常被替換。那些被替換的系統往往是漸進式的更新,只有極少數的現代人機界面會進入CIC--這與消費行業的模式非常不同。這不僅影響到CIC的能力,也影響到水手的訓練。圖4說明了消費類技術和當今海軍艦艇上的技術之間的差異。
圖4. 今天的CIC的技術與目前工業界的技術相比。(上圖:美國海軍大眾傳播專家三等兵約書亞-M-托爾伯特/發布的照片)。
盡管CIC系統的設計過程似乎正在向好的方面發展,但變化是逐漸發生的。當需求、功能模型和最終的物理實現被定義和執行時,在設計系統的工程師和將要使用它們的水手之間仍然經常存在著巨大的差距。終端用戶的反饋往往在現有的流程中丟失;工程師和水手之間的直接交流不多;而且,從程序上來說,與HSI相關的工作往往被縮小范圍或取消,因為人們誤認為它們花費的錢比節省的錢多。
最后,CIC最復雜的方面之一是生物方面--人。為了優化CIC的設計,必須了解CIC中水手的優勢和局限。盡管在人工智能和機器學習方面取得了進展,但與計算系統相比,人腦仍具有更強的適應性和活力。然而,人腦的信息處理能力及其對反應時間的貢獻大多是固定的,而計算系統在這些方面繼續呈指數級增長。由于這些限制,人類有時會被從反應環路中移除,以支持計算速度。特別是,這種權衡對于CIC內的艦艇防御決策周期來說變得越來越必要。隨著這些任務的自動化,水手們對系統功能和輸出的不信任會導致人工變通,增加而不是減少他們的工作量。
雖然只列舉了幾個例子,但需要注意的是,還有很多問題存在。從對無障礙杯架的渴望到對更高效和有效的溝通和培訓技術的需求,都應該在未來的CIC中解決。解決這些問題中的任何一個都不足以產生一個優化的系統;必須考慮所有的方面,并不斷改善這個空間的技術、流程和人的綜合因素,以真正滿足未來水手的需求。接下來的章節將討論一些認為對實現這些改進至關重要的領域。
目前的人機關系通常可以被描述為靜態和不對稱的。例如,用戶傾向于扮演一個主動的角色,而機器則被動地執行用戶要求的功能。這樣一來,大多數當代的人機交互(HCI)是由僵硬的輪流結構或序列化的動作和反應的交互來定義的。因此,人類和計算機之間缺乏連續的對話,而這種對話應該更接近于智能自適應系統之間的互動。人類和計算機之間的信息流也是不對稱的。例如,用戶可以自由地查詢系統的運行狀態(如內存、退化和計算處理的使用情況),但計算機對人類的內部狀態和資源能力仍然視而不見。因此,盡管創建的許多系統有大量的子系統監控功能,但它們缺乏檢查整個系統中最容易出錯的部分--人的能力。這些系統無法確定人的心理狀態和認知資源,而這兩者一旦退化就會導致人的錯誤。當HSI從業人員為未來先進的、智能的和適應性強的系統的發展做出貢獻時,他們必須尋找機會來收集和整合有關人類的信息,作為整個系統的一個關鍵組成部分。
未來的人機交互可以用一個閉環的動態系統來表示,在這個系統中,人和計算機之間存在著持續的平行互動。一個閉環系統是一個組件為了實現一個共同的目標而不斷對話和調節彼此的狀態。例如,一個房間的溫度是由實際溫度測量和期望溫度之間的差異來調節的。這個差異,通常被稱為誤差,被反饋到系統中,以控制調解溫度的調節。因此,輸入到輸出路徑和誤差反饋路徑形成了一個閉環系統。在一個開環系統中,輸入是完全獨立于輸出系統的。例如,一個加熱元件,只要電源接通就會產生熱量,而不考慮所需的溫度,這就是一個開環系統。這種開環控制系統更具有當前人機關系的特點。為了實現人與計算機之間的閉環系統,該系統必須包括能夠分辨人的心理狀態的傳感器和將這些數據與任務信息相融合的算法,以應用動態緩解措施(系統調節),提高人與計算機之間實現其目標的能力。收集心理生理學數據的方法包括腦電圖帽、心電圖傳感器和用眼球追蹤器捕獲的眼部活動措施,僅舉幾例。隨著可穿戴式傳感器繼續滲透到日常生活中,認知狀態檢測算法也將作為閉環控制系統的潛在組成部分,可能被應用于未來的CIC。未來的閉環系統的效用將取決于所使用的緩解策略的有效性和實現這些策略的心理生理學傳感器的可靠性。
Fuchs等人開發了一個閉環系統的發展框架,可以在未來CIC系統的設計中加以利用。這種方法包括確定影響系統性能的心理結構的關鍵事件,如認知負荷、態勢感知、警惕性和疲勞。關鍵事件可以通過利用全面的任務分析來定義。例如,在一個受保護的區域內出現一個敵對的空中軌道將被視為一個關鍵事件,在此期間,計算系統將調查人類的心理狀態,以確保它在可管理的認知工作量約束下被關注。一旦定義了關鍵事件,該系統將識別與積極的或預期的人類反應和消極的或不利的人類反應有關的生物標志物特征。例如,可用的認知資源或 "可管理的工作負荷"將被視為有利的人類反應,而有限的認知備用能力將被視為不利的反應,需要緩解。一旦確定了關鍵事件和相關的生物標志物,就可以制定一個緩解管理框架,其中概述了應該緩解什么,什么時候應該應用緩解,以及應該如何執行緩解。例如,如果系統確定人類看錯了地方,沒有注意到新的敵對軌道,那么系統就可以提供警報,適當地引導人類的注意力。關于緩解措施發展框架的更詳細的討論,見參考文獻(Enhancing situation awareness with an augmented cognition system)。
除了預測(和創造)未來的計算環境之外,人類系統工程師還必須根據其對減少人類錯誤、改善決策、提高情景意識、認知狀態管理(參與、疲勞、無聊、警覺等)以及優化認知工作量的影響來考慮未來的技術。一項新技術對人的因素的貢獻并不總是立竿見影的,但應以科學理論和認知心理學及神經科學的確證研究為動力。這些考慮將確保采用的新型人機交互技術以最有用的方式實施。
VR/增強現實(AR)技術就是這樣一個可能普及的未來計算平臺的例子。就像許多革命性的平臺一樣,這項技術是由不同技術的進化改進而來,這些技術在準備整合成一種新能力方面達到了一個臨界點。在VR/AR的案例中,之前既定移動行業的改進影響了顯示質量和成本,而現代圖形處理單元的計算能力使頭戴式顯示器能夠緩解與不良顯示延遲有關的惡心感。因此,VR/AR技術在實現大幅降低單位成本的同時,也獲得了顯著的質量改進。
盡管VR/AR技術目前面向游戲和娛樂行業,但它有許多潛在的軍事應用。例如,操作人員和維護人員的培訓可以利用沉浸式虛擬環境進行熟悉訓練,為在昂貴的實戰或模擬資產上進行資格認證做準備。VR/AR還提供了一個環境,在這個環境中,物理分布的船員可以聚集在一起,在低成本的環境中執行船員協調任務。目前,APL正在創建一個三維環境(多用戶虛擬環境),以促進各種操作中心(如救災中心)的分散參與者之間的協作互動。這些多用戶虛擬指揮中心可以與VR或AR頭盔整合,以進一步加強分布式團隊的協調和合作。然而,VR/AR技術剩下的一個關鍵挑戰是使用適當的輸入技術,以促進自然的互動,與VR頭盔可以提供給用戶的存在感相匹配。
隨著新型計算平臺的出現,它們幾乎總是伴隨著圍繞新平臺的限制條件而設計的用戶輸入技術。例如,觸摸界面直到底層操作系統圍繞著這種輸入的限制而設計,才被廣泛接受。隨著設計師和工程師繼續開發新的計算環境,包括VR/AR頭盔,輸入技術中固有的約束必須與這些環境相匹配。這個挑戰的一個直接相關的例子是,美國海軍花了一大筆錢用CDS取代基于AN/UYQ-70的CIC控制臺。不幸的是,底層的圖形用戶界面環境并沒有更新,沒有針對觸摸輸入進行優化。圖標的大小以及圖標之間的距離是為軌跡球控制的光標而設計的,試圖執行最低限度的遷移到CDS觸摸輸入的嘗試導致了不可靠和容易出錯的用戶體驗。因此,一些程序選擇關閉一些屏幕的觸摸技術,恢復到以前使用的軌跡球輸入設備,圖形用戶界面就是為這種設備設計的。
VR/AR的輸入技術的設計和開發尤其具有挑戰性。事實上,目前的人機交互范式,作為一個整體,缺乏自然用戶界面(NUI)技術,使人類能夠像與現實世界一樣與虛擬表現進行互動。例如,計算機鼠標被用作指向和行動的代用品,使能夠與二維計算機屏幕互動。更加自然的互動包括使用基于手勢的輸入形式,直接伸出手去抓取感興趣的物體。VR/AR計算環境產生的體驗意味著對這種類型的互動的需要。此外,自然語言處理提供了直接與計算系統對話的能力,作為一種模仿人與人交流的輸入形式。這些界面在主要的平臺上已經變得很普遍(盡管很有限),包括諸如Google Now、蘋果的Siri和微軟的Cortana等技術。眼球追蹤技術也可以通過提供關于用戶如何分配其視覺注意力的信息來促進NUI。盡管制作自然的 "眼動 "應用程序所需的設計語言仍在開發中,但低成本的追蹤器最近已被更多的開發受眾所接受,這可能會導致VR/AR環境中這種輸入技術的通用工具和實踐。其他NUI組件,如先進的觸覺反饋和腦-計算機接口,已經得到了極大的關注,但要實現腦-計算機接口的操作,仍然需要技術上的突破。
鑒于促成VR/AR和NUI技術的基本發展,有機會既利用技術趨勢,又以滿足作戰人員需求的方式增強新能力。例如,由于許多可能推動新型人機交互的生理傳感器需要與用戶接觸,因此有機會將這些傳感器透明地整合到其他必須佩戴的技術中,如VR/AR頭盔。這為解決更廣泛的不對稱的人機關系差距提供了一個明確的機會,即通過整合最初為一個看似不同的目的而開發的技術--即VR頭盔所提供的存在感。如前所述,這類系統的成功將取決于通過使用心理生理學傳感器數據和數據對整個系統性能的影響而采用的緩解策略。為了正確設計這些由新技術提供的緩解策略,應繼續利用既定的HSE基本原理。具體來說,HSE從業人員應該到船上去,直接與作戰人員接觸,尋找機會收集和整合有關人類的信息,作為整個系統的一個關鍵組成部分。
目前,VR/AR頭盔沒有既定的輸入標準,但極有可能從前面提到的NUI技術中借鑒解決方案。隨著VR/AR技術的不斷成熟和普及,新的交互模式和關于如何在這些環境中進行交互的相關心理模型也將不斷出現。有遠見的復雜系統設計者在考慮未來的用戶如何在他們的日常生活中與計算機進行交互時,應該預見到這些心理模式。如果不考慮這些因素,培訓就會被那些要求用戶學習 "昨天的心理模型 "以熟練操作的系統所阻礙。一個組織得無懈可擊的HSI項目可以遵循很長的發展周期,但仍然無法成功實現其目標,因為無法預見的技術變化以及這些變化對目標用戶群產生的更廣泛影響。鑒于技術改進的速度很快,預測這些變數是一個重大的挑戰。為了緩解這個問題,重要的是在系統開發周期內整合一個靈活的快速原型環境,以評估可以提高未來作戰人員效率的新型計算環境。
隨著新型人機交互環境的出現和相關輸入技術的發展,有機會以未來CIC中的作戰人員所熟悉和熟悉的方式來預測和應用技術。為了實現這種應用,必須考慮以下幾個方面:
預測未來的計算環境--在整個預計的系統部署周期中,常用的用戶界面將是什么?
預測未來的心智模式--人工智能協作將如何塑造水手與日益自主的系統進行互動和獲取信息的方式?
預測未來的技能組合--不斷發展的信息檢索和數據分析工具將如何塑造未來水手的問題解決方式?
由于必須解決的問題的范圍,在CIC內創建一個新的復雜能力必須被認為是一個預見性和創造性的過程。當然,不可能完美地預測未來廣泛使用的技術的微不足道的細節及其所有的影響。然而,鼓勵復雜系統的設計者和開發者監測那些有可能對普通人和特定作戰人員需求產生廣泛影響的技術趨勢。
最后,在前進的過程中,必須保持對CIC中的生物、技術和流程的整體看法,以真正優化其性能。盡管想象一個類似于好萊塢科幻電影中的未來主義描寫的CIC設計可能是令人興奮的,但不能忽視所有設計決策背后的真正驅動力--未來水兵的需求。通過彌合工程師和作戰人員之間的差距,APL正在努力幫助美國海軍開發一個CIC,將海軍推向未來,并幫助水兵和國家保持安全。
無人駕駛航空系統和其他相關技術的發展,包括人工智能、數據和云網絡、自主控制系統和系統/武器/傳感器的小型化和網絡化,以及增加昂貴的載人平臺艦隊數量的需要,推動了許多武裝部隊和工業界積極嘗試有人無人機編隊(MUM-T)。除非任務目標或載人平臺的生存需要,否則在有人平臺之外部署無人駕駛、"低成本 "和 "可損耗 "但不 "可拋棄 "的戰斗飛行器,可以最大限度地發揮其作為力量倍增器的價值,在高度競爭的空域提高殺傷力和生存能力。盡管自主技術和人工智能的引入正在徹底改變全域作戰,但新的自主平臺和武器系統的交戰規則正在通過嚴格的倫理考慮和評估來發展,其中人在環路上繼續發揮重要作用。本文希望對MUM-T方案和活動做一個整體的、非詳盡的分析。
天堡(Skyborg)是美國空軍 "先鋒 "計劃中迅速投入使用的三個技術項目之一,它是一個架構套件,旨在為自主可損耗的機身設計,根據該服務,它將能夠以足夠的節奏進行姿態、生產和維持多任務飛行,以挫敗對手在有爭議和高度爭議的環境中采取快速、決定性行動的企圖。天堡自主核心系統或ACS于2019年首次曝光,由Leidos公司開發,已在2021年的多月測試活動中得到驗證,在此期間,它被成功整合到兩個不同的無人平臺上,即Kratos UTAP-22 Mako和通用原子-航空航天系統公司的MQ-20,證明了政府擁有的自主核心的可移植性,使其在未來整合到不同平臺上。一個關鍵的活動里程碑是參加了 "橙旗21-2 "演習,這是美國在2021年6月進行的首要的大型部隊多領域測試活動,其中Skyborg ACS被集成到一個MQ-20中,成為在這種復雜活動中自主操作的無人車的首次飛行測試。由空軍研究實驗室(AFRL)進行,根據服務文件,Skyborg被組織成三個主要的努力方向(LOE)。LOE 1開發、演示和原型化由天堡自主架構和軟件組成的ACS,實現機器-機器和有人-無人的合作,同時也確保天堡自主任務系統套件的開放性、模塊化和可擴展性。ACS LOE還開發、演示和試制所需的硬件組件和開放架構標準,以便在系統集成實驗室和平臺上將模塊化傳感器、通信和其他有效載荷集成到Skyborg自主性和車輛架構中。LOE 2開發、演示和原型化新的低成本可移動飛行器的概念和技術,用于遠征的大規模生成,包括架次生成就業概念。LOE 3對可追蹤的、自主的、無人駕駛系統的操作概念和就業概念進行分析和實驗,并評估傳感器和任務系統的開放性、模塊化能力和整合。2021年8月,克拉托斯公司和通用原子公司都獲得了一份合同,以進一步支持將Skyborg分別集成到XQ-58A "女武神 "和MQ-20 "復仇者 "無人平臺,同時在大部隊演習中進行系統實驗。這些額外合同的目的是在資金允許的情況下,在2023年將Skyborg過渡到一個記錄方案。根據USAFRL的計劃,ACS還將從2022年開始在波音公司的隱形空中力量合作系統UCAV(無人駕駛戰斗飛行器)上進行實驗,該系統正在為澳大利亞國防部開發,如后所述。有趣的是,今年3月,AFRL授予藍色力量技術公司一份合同,開發一種支持對手空中訓練任務的無人駕駛飛行器,該飛行器將納入通過Skyborg努力開創的先進技術。2021年12月,空軍部長弗蘭克-肯德爾宣布,該軍種正在研究無人平臺與諾斯羅普-格魯曼公司的B-21 "突襲者 "遠程攻擊轟炸機和主要是下一代空中優勢(NGAD)先進飛機之間的MUM-T新概念方案,但也有可能與洛克希德-馬丁公司的F-22 "猛禽 "和F-35 "閃電II "聯合攻擊戰斗機合作。
圖:在通用原子公司的MQ-20上成功進行了測試,天堡自主核心系統(ACS)由自主架構和軟件組成,實現了機器-機器和有人-無人的合作。
圖:2021年8月,克拉托斯公司和通用原子公司都收到了一份合同,以進一步支持將天堡系統分別集成到XQ-58A "女武神"(此處描述)和MQ-20 "復仇者 "無人平臺上,同時在大部隊演習中進行系統試驗。
圖:去年11月的 "橙旗 "演習涉及F-35A "閃電 "II等飛機和兩架通用原子公司的MQ-20 "復仇者 "無人機,它們攜帶 "天堡 "自主核心系統進行了持續數小時的飛行測試。
美國海軍正在推行不同的高性能無人平臺計劃,以便在航空母艦上服役。在包括無人作戰系統的MUM-T工作中,2020年初,波音公司宣布,海軍作戰發展司令部在海軍作戰發展司令部的年度艦隊實驗中,由第三架飛機成功進行了兩架自主控制的EA-18G "咆哮者 "的演示。該實驗涉及到咆哮者在第三架咆哮者的控制下作為無人系統行動,以證明F/A-18超級大黃蜂和EA-18G咆哮者空勤人員從駕駛艙遠程控制戰斗機和攻擊平臺的有效性。該演示涉及四個架次的21項任務,為波音公司和海軍提供了分析所收集的數據并決定在哪里進行未來技術投資的機會。美國海軍繼續加速開發下一代空中優勢(NGAD)系統家族(FoS),以提供先進的、基于航母的力量投射能力,擴大其航空母艦的航程。當F/A-18E/F Block II飛機在2030年代開始達到使用年限時,NGAD FoS將取代這些飛機,并利用載人無人機組隊(MUM-T)來提供更強的殺傷力和生存能力。F/A-XX是NGAD FoS的攻擊戰斗機組件,根據該部隊的說法,它將成為MUM-T概念的 "四分衛",在戰斗空間的前沿指揮多個戰術平臺。F/A-XX在2021財年開始了概念完善階段,并且仍然按計劃進行。
2021年5月,澳大利亞政府宣布將對 "忠誠僚機"--高級發展計劃追加投資4.54億澳元。自2017年以來,根據澳大利亞皇家空軍(RAAF)計劃,澳大利亞國防部投資超過1.5億澳元,以支持澳大利亞皇家空軍和波音防務澳大利亞公司領導的當地工業團隊的合資企業,該企業設計、開發和生產了Loyal Wingman無人駕駛戰斗飛行器(UCAV),最近被命名為MQ-28A Ghost Bat。據澳大利亞政府稱,在短短四年內,該合資企業已經成功地制造和飛行了50年來的第一架澳大利亞制造的軍用作戰飛機,這可以使該計劃成為關鍵出口市場的重要競爭者。MQ-28A飛機于2020年5月亮相,2021年2月進行了首次飛行,距離項目啟動僅兩年零三個月。第二架飛機已經加入了飛行測試計劃,第三架飛機正準備在2022年晚些時候進行飛行測試。每架飛機的70%以上是在澳大利亞采購、設計和制造的。這項投資將看到該計劃擴大到更多的本地公司,以及國際合作伙伴和盟友,并在布里斯班附近的圖文巴(Toowoomba)建立一個生產設施,以及在今年加速開展側重于傳感器和任務系統能力的活動。除了用于概念演示的三架原型機外,這項投資將增加七架MQ28A,總共十架飛機,并將快速跟蹤 "幽靈蝙蝠 "在2024-2025年的服役情況。制造商所稱的空中力量組隊系統提供了類似戰斗機的性能,其機身長度為11.7米,能夠飛行超過3700公里。該UCAV有一個模塊化和可互換的機頭部分,可以容納集成傳感器包,以支持不同類型的任務,包括情報、監視和偵察、通信中繼以及動能和非動能打擊能力。據RAAF稱,該計劃是整合自主權和人工智能的探路者。
圖:澳大利亞國防部投資支持RAAF和波音防務澳大利亞公司領導的當地工業團隊的合資企業,該團隊設計、開發和生產了 "忠誠僚機"戰斗無人駕駛飛行器,最近被命名為MQ-28A幽靈蝙蝠。
圖:除了用于概念演示的三架 "忠誠僚機"原型機外,澳大利亞政府去年5月宣布的投資將增加7架MQ-28A,共10架飛機,并將加快 "幽靈蝙蝠 "在2024-2025年投入使用的步伐。
蚊子項目于2019年7月首次由英國皇家空軍快速能力辦公室和國防科技實驗室披露,該項目旨在開發和證明一種技術演示器,作為更廣泛的輕量級廉價新型作戰飛機(LANCA)計劃的一部分,根據公告,。該計劃旨在提供額外的能力,將無人平臺與F-35、"臺風 "和下一代 "暴風雪 "等戰斗機部署在一起,為有人駕駛的飛機提供更多的保護、生存能力和信息,甚至可以在未來提供一個無人駕駛的作戰航空 "艦隊"。有趣的是,2021年7月,英國皇家空軍空軍總司令邁克-威格斯頓爵士在空天力量協會的全球空軍首長會議上談到廣泛的未來戰斗航空系統(FCAS)時說,"與意大利和瑞典等國際盟友合作,我們正在采取一種革命性的方法。我們正在研究改變游戲規則的蜂群式無人機和無機組人員作戰飛機的混合編隊,以及像 "暴風雪 "這樣的下一代駕駛飛機,"這為與上述國家和其他國際盟友開展無機組人員作戰飛機和無人機的潛在共同計劃開辟了道路。
圖:2021年1月,由Spirit AeroSystems公司領導的一個工業團隊獲得了一份3000萬英鎊的合同,以快速設計和制造英國第一個無機組人員的戰斗航空系統的技術演示器,該系統是在 "蚊子 "三年全尺寸飛行測試計劃下的。
圖:"蚊子"將從機場、空客A400M "母艦 "或航空母艦上發射,計劃到2023年底在英國領空飛行。"蚊子"UCAV和Alvina蜂群無人機將支持新一代的 "暴風 "作戰空中平臺。
作為 "蚊子 "項目第二階段的一部分,2021年1月,由英國Spirit AeroSystems公司作為主承包商和機身設計者領導的工業團隊與諾斯羅普-格魯曼英國公司(人工智能、網絡、人機界面)和Intrepid Minds公司(航空電子和動力)一起獲得了一份3000萬英鎊的合同,在為期三年的全尺寸飛行測試計劃中快速設計和制造英國首個無機組人員作戰航空系統(UCAS)的技術演示機,作為目前F-35、臺風和下一代 "暴風 "平臺的補充。無人駕駛作戰飛機主要是為了增加軍方作戰航空部隊的數量,它被設計為與戰斗機一起高速飛行,配備導彈、監視和電子戰技術,以瞄準和擊落敵方飛機,并能抵御地對空導彈。蚊子 "將從機場、空客A400M "母艦 "或航空母艦上發射,計劃在2023年底前在英國領空飛行,但沒有說明實際的首次飛行是否會提前在外國天空進行。2021年,當時的英國國防參謀長尼克-卡特爵士將軍在一次國際戰略研究所的虛擬活動中說,到2030年,今天由8架臺風戰斗機組成的皇家空軍(RAF)戰術編隊將由2架臺風戰斗機、10架蚊式無機組人員戰斗機和100架阿爾維娜蜂群無機組人員飛行器組成,"因為這是產生大量的方式,你可以看到這在陸地和海洋領域也會上演。" 未來的皇家空軍預計將由暴風雪、F-35、蚊子、阿爾維納和保護者組成,其中80%將是無人駕駛或遙控平臺。2021年,空軍總司令邁克-維格斯頓爵士宣布,皇家空軍無人機測試中隊 "已經毫無疑問地證明了我們的阿爾維娜計劃下蜂群無人機的顛覆性和創新性效用"。在英國Alvina計劃的前兩個階段之后,2019年1月授予了第三階段250萬英鎊的合同,用于綜合概念評估活動,以探索協作運行的無人機群的技術可行性和軍事效用,2021年1月成功測試了涉及英國20架蜂群無人機的最大的協作性軍事重點評估。據報道,與正在為皇家空軍開發的 "蚊子 "分開,皇家海軍正在推進其名為 "維克斯 "的忠誠僚機。
法國、德國和西班牙,未來戰斗航空系統/未來戰斗系統(FCAS/SCAF)的伙伴國,以及它們各自的產業,正在開發遠程載具(RC)元件,它與可選擇駕駛的新一代戰斗機(NGF)和聯網的戰斗云(CC)一起構成下一代武器系統(NGWS)。RCs的開發是由空中客車防務和空間公司作為主體,法國MBDA公司、德國MBDA公司和西班牙SATNUS技術公司組成的合資公司Sener Aeroespacial、GMV和Tecnobit-Grupo Oesia公司進行的。該工業團隊正在開發一個蜂群和網絡化的飛行器系列,其尺寸從數百公斤的消耗性飛行器到數噸的更復雜和可重復使用的忠誠僚機類型。根據空中客車公司和MBDA之間的合作協議,前者專注于開發可重復使用的遙控飛行器,而后者則致力于開發消耗性的。正在開發的關鍵技術包括人工智能支持的合作算法、穩健和故障安全的數據通信、小型化傳感器、新的驅動技術、獨立于GPS的導航、可擴展的行動手段、低觀測性解決方案和蜂群技術。如果達索航空公司和空中客車公司將很快簽署各國已經達成的協議,遙控飛機技術演示器可能在2027-2028年飛行,但這將取決于發展路徑和時間。遙控飛機的初始作戰能力可以在2030年代達到,以初步補充第四代戰斗機,但這將取決于國家要求和對平臺及其任務套件的修改。FCAS的MUM-T作戰概念(CONOPS)和相關要求,定義了對遙控飛機機體和控制系統能力的要求,正在調查作為發展路徑的一部分,直到技術演示飛行階段。正如在2019年布爾歇航展和隨后的活動中所展示的那樣,RCs被設想為支持載人平臺的空對空和空對地任務,包括海軍領域,以及情報、監視和偵察(ISR)以及電子戰斗序列的繪制,還有干擾/欺騙、壓制和摧毀敵人的防空。MBDA正在利用其所有的經驗和技術,開發更深入的打擊武器系統,如 "風暴之影 "和 "金牛座",以及基于國家計劃的新系列 "長矛"、"智能滑翔機 "和 "智能巡洋艦 "的智能連接武器,以進一步發展這些概念的RCs,其發展取決于MUM-T平臺的選定類型。迄今為止,MBDA已經在2019年公布了其RC100和RC200遠程運載工具的概念,但最終的RC可能會有所不同,并且可以設想更大的一攬子解決方案,包括已經公布的用于攔截針對受保護平臺發射的空對空導彈的短程導彈。空中客車公司正在開發的更大的RC,在2019年提出了早期模擬,需要由運輸機(如A400M)進行空中發射,或從跑道起飛。目前還沒有提供關于忠誠的僚機型UCAV的信息。
圖:法國、德國和西班牙,FCAS/SCAF的伙伴國,以及它們各自的工業界,正在開發遠程載具(RC)元素,這些元素與可選擇駕駛的新一代戰斗機(NGF)和聯網的戰斗云(CC)一起構成了下一代武器系統(NGWS)。
圖:根據空客防務與航天公司和MBDA之間的合作協議,后者專注于開發消耗性遠程運載工具,而空客DS則專注于可重復使用的運載工具。
土耳其Baykar技術公司在2021年7月公布了其UCAV設計。據制造商稱,該平臺最初以土耳其語縮寫MIUS(無人駕駛作戰飛機系統)聞名,2022年3月改名為Kizilelma(土耳其語中的紅蘋果),預計將于2023年飛行。Baykar技術公司公布的概念和模型顯示,單渦輪風扇發動機驅動的CUAV具有隱形設計,其特點是三角翼和鴨翼配置,機身能夠容納一個武器艙。雖然沒有提供關于平臺尺寸的官方數據,但制造商提供了關于主要能力的信息。Kizilelma最大起飛重量為6,000公斤,不僅能夠從短的陸地跑道上起飛和降落,而且還能從甲板上的海軍平臺,如土耳其海軍未來的旗艦LHD Anadolu上起飛和降落,據稱它具有全自動起飛和降落的功能,以及包括主動電子掃描陣列雷達、先進的光電攝像機和電子戰系統在內的任務套件,以及視線內和視線外通信套件。Kizilelma的最大有效載荷容量為1500公斤,據稱能夠達到0.6馬赫的巡航速度和11550米的工作高度,續航時間為5小時,任務半徑為926公里,但沒有公布任務有效載荷。
圖:土耳其Baykar技術公司的UCAV Kizilelma(土耳其語中的紅蘋果),據制造商稱,預計將于2023年飛行。
Baykar技術公司公布的Kizilelma UCAV的概念和模型顯示了一個以單渦輪風扇發動機為動力的平臺,其隱身設計的特點是三角翼和鴨翼配置,其機身能夠容納一個武器艙。
無人機系統(UAS)和其他相關技術(人工智能或AI、無線數據網絡、擊敗敵方電子戰的電子支援措施)已經發展到一個新的地步,無人機系統被認為原則上能夠執行目前由有人駕駛飛機執行的幾乎任何任務。
因此,許多武裝部隊正在積極試驗有人-無人編隊協作(不同的縮寫為MUM-T或MUMT)。通過將有人和無人資產作為一個單位而不是單獨部署,無人機最大限度地發揮了其作為力量倍增器的價值,提高了在高度競爭性空域的殺傷力和生存能力。無人機系統的直接控制權可由飛行中的有人單位或單獨的空中、地面或海上指揮中心掌握。隨著時間的推移,人工智能的進步將允許無機組人員的編隊元素自主地執行大部分任務。這最終可以將人類干預減少到最低,只保留任務目標的輸入、交戰規則的定義和武器釋放的授權。事實上,這種自主能力對于MUM-T概念來說是至關重要的,以防止人類飛行員被控制無人機的額外任務所淹沒。 無人機系統的主要應用包括:
在“武裝護衛”角色中,無人機系統可以在有人平臺執行任務之前壓制敵人的防空設施(SEAD角色),或者作為一個外部武器庫,使單一的有人駕駛飛機在每次任務中能夠攻擊大量的目標。
(重要內容譯文)
當空軍面對技術中斷的環境時,必須以必要的遠見來應對領導變革的適應性挑戰和必要性,以克服文化障礙。變革主要是人類的挑戰,而不是過程,應對適應性挑戰需要的不僅僅是關注技術問題。顛覆性思想家常常因為不符合特定的價值觀而被邊緣化,但顛覆者的歷史角色在創造強大而持久的影響方面一直至關重要。領導風格對于激勵和授權組織走向變革至關重要。變革型領導在空軍中發揮著至關重要的作用,可以釋放其人員的潛力,從而朝著新的工作方式發展。然而,推進變革和改造人員并不是一個線性過程,為了維持這一進程,空軍領導人需要能夠提供信心并建立互信。
上個世紀出現了巨大的技術飛躍,今天的無人駕駛飛行器(UAVs)和第五代及新興的第六代軍用飛機為空軍帶來了新的技術顛覆性環境。新興技術,如人工智能、大數據、量子技術、機器人、自主系統、新的先進材料、區塊鏈、高超音速武器系統和應用于人體強化的生物技術,僅舉幾例,將從根本上改變空軍必須組織和運作的方式。
認識到這一點,英國皇家空軍(RAF)在2020年推出了 "Astra",這是一項旨在建立一支適合未來的 "下一代 "空軍的運動。Astra涉及整個皇家空軍的漸進式變革,包括其指揮和領導方式(皇家空軍,2020)。負責推動RAFX--皇家空軍的創新中心--的Blythe Crawford大尉將轉型的挑戰概括為:皇家空軍以其傳統的方式,一直 "試圖用1990年代的流程和技術來管理一支第五代空軍"(皇家空軍,2022)。人為因素是軍事效力的核心,這不是最近才發現的。拿破侖-波拿巴強調了人的因素比物質數量和材料更重要的影響,他寫道:"在戰爭中,四分之三取決于個人性格和關系;人力和物資的平衡只占剩下的四分之一"(拿破侖,1808)。
本文將倡導人為因素的作用,從特立獨行、破壞者或離群索居者開始,如約翰-博伊德上校,"改變戰爭藝術的戰斗機飛行員"(Coram,2004)。在簡要討論了領導風格和結構之后,本文將探討適應性挑戰與技術性挑戰的概念(Heifetz, 1994; Heifetz, Linsky, and Grashow, 2019 and; Heifetz and Linsky, 2017)。最后,我們提供了一個由Kurt Lewin(1947年)設計并由John Kotter(1996年)演變而來的看似簡單的三步變革模型。這些概念模型的重點是如何通過改變人類行為來轉變心態或范式,并作為一種思考方式提供給空軍領導變革和轉型。
一項關鍵的領導任務是了解挑戰的性質,并能夠區分反映 "技術問題 "的挑戰和反映 "適應性問題 "的挑戰(Heifetz, 1994)。技術性問題是指有已知解決方案的問題,我們向權威機構求助,期望他們能解決這些問題。一個例子是一個壞掉的飛機引擎,需要一個工程師來修理它,解決方案是不言而喻的,而且引擎現在可以工作。適應性挑戰是不同的,因為沒有不言自明的解決方案,當局沒有能力解決這個問題,而且還沒有開發出適當的反應。
對空軍來說,適應性挑戰的例子可能涉及到在面對激進的螺旋式創新、現有的工作模式或流程的低效率時保持競爭優勢。問題并不容易被貼上技術性或適應性的標簽,許多問題都是兩者的混合體。領導層失敗的一個原因是,當局把適應性挑戰當作技術性挑戰來對待,這一點海菲茲提醒要注意(海菲茲和林斯基,2017)。空軍領導人必須能夠解開混亂的網絡,將技術問題委托給適當的當局,并通過 "適應性工作 "解決適應性挑戰。
適應性工作旨在創造涉及領導者和追隨者互動的條件和環境,可以使組織或受影響的社區在面對復雜問題時 "茁壯成長"。根據Heifetz的說法,解決適應性或技術性和適應性的混合挑戰需要六個領導者行為或原則(Heifetz, 1994; Heifetz, Grashow, and Linsky, 2009 and; Heifetz and Linsky, 2017)。這些 "領導力原則 "或 "領導適應性變革 "的原則不斷演變,但可以總結為:
1.站在“陽臺”上。領導者必須對 "舞池 "中的情況有一個詳細的感覺,但為了了解大局,獲得一個遙遠的視角,識別模式,減少決定的壓力,他們必須到“陽臺”上。重要的一課是要在舞池和陽臺之間移動,避免被困在一個角度。
2.識別適應性挑戰。領導者必須準備好識別適應性問題的殘酷事實和所需的適應性變化。
3.調控困境。領導者必須進行平衡,不能壓倒,但也要保持足夠的緊張,以保持緊迫性。必須提出問題,即使領導者不掌握答案,也必須對無益的規范提出挑戰。
4.保持嚴謹的注意力。領導者要識別干擾因素,并將注意力集中在棘手的問題上。除非保持注意力,否則人們往往會回到舊的行為和技術問題中去。
5.把工作交還給人們。權力機構沒有答案;通過鼓勵和支持,鼓勵其他人承擔起責任,成為變革的一部分,這一點至關重要。
6.保護來自下面的聲音。在鼓勵人們接受責任和提出想法之后,領導者必須保護而不是壓制想法和聲音,包括不同意見者。
這些領導力原則與軍事環境高度相關,結合前面討論的變革型領導力的構建,可以使空軍領導人更好地應對適應性挑戰。然而,空軍和軍事環境為領導者應對適應性挑戰,特別是領導變革帶來了獨特的挑戰。由于其封閉性、僵化的結構和等級制度、傳統和工作方式,包括指揮、權力和授權的概念,適應性解決方案所需的條件在軍事組織中并不容易找到。在軍事環境中,也許比其他任何環境都更需要領導者思考如何突破界限,挑戰人們和現有的思維模式,向新的文化范式轉變。
Lewin因管理變革的三階段概念模型在英國國防組織中得到了成功的應用。Kurt Lewin(1890-1947)作為麻省理工學院(MIT)的教授,開創了應用研究、行動研究和團體溝通的先河,開發了一個早期的三階段變革模型(Lewin, 1947)。在解釋他的三階段模型時,Lewin使用了一個冰塊的比喻。為了獲得一個新的形狀,冰塊必須首先被融化("解凍"),然后變成新的形狀("過渡"),最后凍結("凍結")。因此,第一階段與人有關,現有的 "心態 "通過 "解凍 "而被拆除。阻力被中和或繞過,關于現狀的現有慣性被克服。在第二階段,由于抵制變革的力量被推動變革的力量所壓倒,因此發生了過渡。在這里,一個混亂的時期可能會變得很明顯,因為舊的方式正在受到挑戰,而沒有清楚地了解它們被取代的情況。第三階段與結構被凍結在其變化的形式中有關。
為了幫助這個三階段模型的應用,Lewin提出了一個名為 "力場分析 "的工具,用來測量影響目標實現的因素("力"),或阻礙目標實現的因素("阻")(1951)。Lewin因的程序模型(1947年)在領導變革時可以作為一個扶手,并與科特更現代的八步驟模型(1996年)有效地結合起來。Lewin模型的精髓和邏輯基礎在Kotter模型的演變中仍然是不可或缺的,其中的每一步都可以被解釋為解決變革失敗原因的一個連續體。Kotter的八步驟模型經受住了時間和應用的考驗,但為了反映快速變化的世界所帶來的不確定性而進行了改進,這導致了對其過時的批評(Kotter等人,2021)。最初的八個 "步驟 "被描述為使戰略網絡發揮作用的過程中的 "加速器",如圖1.3所示。
技術上的顛覆性環境是由新興技術塑造的,如人工智能、大數據、量子技術、機器人、自主系統、新型先進材料、區塊鏈、高超音速武器系統和應用于人類增強的生物技術,僅舉幾例。這種新興環境將改變軍事能力、戰略和行動。為了成功地適應和改變,空軍領導人將被要求接受和支持顛覆性的思想家,并開發一個或多個系統,通過采用ODA循環等思想來解開對手,ODA循環是為了利用武器和行動來產生快速變化的環境,抑制對手能夠適應這些情況
有必要認識到,空軍轉型的挑戰不僅僅是技術上的,而是技術和適應性挑戰的混合。空軍領導人在對待適應性挑戰和領導變革時必須從政治上思考人的因素。變革的大部分問題在于組織的文化,做事的方式,以及共同的價值觀、符號、行為和假設。因此,它需要組織內的個人改變他們的做法。人們本身就是問題的一部分,而解決方案就在他們身上。為了有效地實現變革,我們必須了解變革被抵制的原因以及克服這些障礙的方法。
本討論中提出的概念模型并不遵循線性進展,現實情況可能是,前進一步會導致后退兩步。只有當空軍的變革領導者能夠 "解凍 "現有的思維模式,并且 "力場分析 "為支持變革的力量提供了比抵制變革的力量更大的權重時,推進變革和轉型才能成功。擁有理解問題并能部署變革進程的合適人員是至關重要的。變革的挑戰與人的轉變有關。變革型領導必須提供信心,并通過提供一個特定文化的模式來創造相互信任,從而使人們踏上變革的關鍵旅程。
人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。
人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。
作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。
人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。
在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。
目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。
鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。
如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。
如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。
人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。
C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。
圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。
圖1. 海上人工智能系統的擬議架構
首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。
第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。
第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。
這項工作是由Calian團隊為加拿大國防研究與發展部-多倫多研究中心(DRDC TRC)進行的任務5 "人機協作決策支持系統的初步要求",是大型人機交互(HAI)任務授權合同(TAC;合同號:W/001/TOR)的一部分。HAI TAC的目標是設計、開發、實施和評估士兵-機器人合作(SRT)的概念、方法和技術,以改善加拿大武裝部隊(CAF)的整體人機系統(HMS)性能。
在本技術說明中,報告了最近對傳感器技術的研究和發展以及未來在有人-無人系統(MUM-T)作業期間在小型無人系統上實現感知和規避(SAA)能力的文獻回顧。
在傳感器技術方面,我們研究了合作和非合作的傳感器,其中非合作的傳感器又分為主動和被動的。我們認為:(1)無源非合作傳感器在尺寸、重量和功率(SWAP)方面比其他傳感器有優勢。被動工作確保了無人平臺在敵對環境中的安全。為了補充單個傳感器能力的約束和限制,我們還認為,關于(2)傳感器和數據融合的趨勢和未來要求是有希望的,以實現動態、不確定環境中的連續和有彈性的測量。(3)此外,我們應關注無人系統領域正在開發的新型傳感器套件。
在檢測和規避方法方面,我們按照SAA流程進行了全面的研究,從檢測沖突、危險或潛在威脅,到跟蹤目標(物體)的運動;評價和評估風險和信心;根據評估的參數對沖突進行優先排序;然后宣布或確認沖突和沖突的程度;確定正確的沖突解決方式;然后是指揮,最后是執行。為了支持這一過程,對各種SAA算法進行了審查,包括探測算法、跟蹤算法和規避策略。我們認為,(4)基于學習的智能算法需要放在未來的SAA要求中,因為它們具有支持任務的適應能力。
最后,我們從各種使用案例中審查了支持MUM-T行動的SAA。我們認為,(5)與蜂群式小型UxV的人-系統接口提供了半自主的SAA能力,而人的參與程度有限。這種綜合的人-機器人互動提供了智能決策支持工具。該系統旨在使單個人類操作員能夠有效地指揮、監測和監督一個UxV系統。基于技術重點的趨勢,我們最終認為,(6)沒有士兵參與的完全自主在現階段的研究和開發進展方面是不成熟的,但我們將積極關注該領域的最新發展。
對于人工智能的軍事用途所帶來的接受挑戰,傳統的反應是堅持要求人類保持 "有意義的人類控制",作為一種產生信心和信任的方式。考慮到人工智能和相關基礎技術的普遍性和快速發展,這不再是一個適當的回應。人工智能將在整個軍事行動范圍內廣泛的指揮和控制(C2)活動中發揮重要的、日益增長的作用。雖然在公眾心目中,人工智能的威脅沒有 "殺手機器人 "那么直接,但在軍事決策中使用人工智能會帶來關鍵的挑戰,同時也有巨大的優勢。加強人類對技術本身的監督并不能防止無意的(更不用說有意的)濫用。
本文以各級(作戰操作員、指揮官、政治領導人和公眾)的信任對有效采用人工智能進行軍事決策至關重要這一前提為基礎,探討了關鍵的相關問題。對人工智能的信任究竟意味著什么?如何建立和維持它以支持軍事決策?人類操作員和人工智能體之間的共生關系對未來的指揮需要作出哪些改變?
當人類對人工智能的行為持有某些期望,而不考慮人工智能體的意圖或道德時,可以說存在對人工智能的信任。然而,與此同時,信任不僅僅是技術性能和可靠性的一個功能--它不能僅僅通過解決數據完整性和可解釋性問題來保證,盡管它們很重要。軍事人工智能中的信任建設還必須解決軍事組織和指揮結構、文化和領導力方面的必要變化。實現總體上適當的信任水平需要一個整體的方法。除了信任人工智能的使用目的之外,軍事指揮官和操作人員還需要充分信任--并且在如何信任--支撐任何特定人工智能模型的輸入、過程和輸出方面得到充分的培訓和具有豐富經驗。然而,最困難的,也可以說是最關鍵的層面是組織生態系統層面的信任。如果不改變軍事決策的體制因素,未來人工智能在C2中的使用將仍然是次優的,被限制在一個模擬框架內。有效引進任何新技術,更不用說像人工智能這樣的變革性技術,需要從根本上重新思考人類活動的組織方式。
優先考慮人和制度層面并不意味著對技術進行更多的控制;相反,它需要在不斷發展的人機認知系統中重新思考人的作用和貢獻。未來的指揮官將需要能夠在一個真正的 "整體部隊"中領導不同的團隊,整合來自軍事、政府和民事領域的貢獻。他們必須對他們的人工隊友有足夠的了解,以便能夠與他們合作并挑戰他們。這更類似于海鷗的雜音,而不是個別 "翠鳥"領導人的天才。為了發展新的指揮和領導概念,英國防部必須重新思考其方法,不僅是培訓和職業管理,還有決策結構和程序,包括未來總部的規模、位置和組成。
人工智能已經在改變戰爭,挑戰人類長期的習慣。通過在訓練和演習中接受更多的實驗,以及探索C2的替代模式,國防部可以更好地準備迎接未來不可避免的變化。
人工智能正在改變人類的思維和決策方式。未來,它將越來越多地影響人類如何確定各種認知過程的優先次序,調整他們的學習、行為和訓練,并更廣泛地改造他們的機構。這些變化在整個軍隊中仍不完全明顯。盡管有新的技術和戰爭迅速發展的特點,今天的武裝部隊在組織結構上與后拿破侖時代歐洲的職業軍隊并沒有很大的區別。太多的人仍然參與到軍事任務中,而這些任務技術可以做得更好更快,并且對于重新思考人類對人機團隊的認知貢獻也沒有給予足夠的重視,而這正是解決未來指揮和控制(C2)問題所需要的。
本文以QinetiQ公司早先的一份報告為基礎,該報告將信任視為軍事能力的基本組成部分和2020年代軍事適應性的基本要求。本文探討了在軍事決策中越來越多地使用人工智能的最新趨勢和想法。本文并不直接關注這一趨勢的倫理(或法律)問題,盡管這些問題很重要。相反,本文強調了信任作為人工智能時代軍事指揮的一個因素的重要性和意義。
人工智能對軍事決策和C2的潛在深遠影響很少引起專家團體以外的關注。大多數公眾關注的是技術的優勢和風險,而不是人類認知和制度構建的潛力和限制。20多年前,著名的社會生物學家E-O-威爾遜抓住了人類當前的挑戰。威爾遜說,真正的問題是,"我們有舊石器時代的情感;中世紀的制度;和神一樣的技術。"在過去的幾十年里,技術的發展速度遠遠超過了人類適應它的能力。強調人工智能的技術屬性,而忽略其日益增長使用中的人類和制度層面,只會使挑戰更加復雜。
在許多領域,人工智能的軍事經驗仍然有限,需要做更多的工作來了解人工智能在人類決策中作用日益增長的影響。本文旨在引發一場更廣泛的辯論,討論英國國防企業內部所需的文化和組織變革,包括指揮部和指揮官的作用,以確保人工智能在未來軍事決策中的最佳使用。
本文的見解來自與人工智能、人類認知、軍事決策和信任理論有關的更廣泛的文獻。這項研究在2021年9月至2022年2月期間進行,大大受益于與來自國防、學術界和工業界的廣泛專家和用戶的訪談。
前兩章提供了本文的理論背景。第一章探討了人工智能和信任的概念,第二章則分析了人類機構的作用以及人工智能對人類做出選擇和決定的認知能力的影響。第三章結合信任、人工智能和人類機構的概念,提出了一個在人工智能支持的軍事決策中發展信任的五維框架。第四章擴大了對C2的分析范圍,特別關注人工智能對傳統上支撐武裝部隊行使權力和指導的人和體制結構的影響。最后一章提出了對未來指揮、領導和 "全軍 "團隊的進一步研究領域。
對于人工智能或與人工智能有關的信任,并沒有標準的定義。這兩個概念都有不同的解釋,有時也會有激烈的爭論。本章沒有試圖綜合所有關于這兩個術語的文獻,而是建立了一個基準定義,為隨后討論關于人工智能應用于軍事C2的信任作用提供框架。
人工智能的概念起源于1950年著名的圖靈測試,該測試發生在這個詞被創造出來的幾年前。通過關注它做什么而不是它是什么,更容易將人工智能概念化。人工智能 "試圖讓計算機做人類思想能做的各種事情"。在最基本的方面,它可以被理解為追求特定任務的虛擬信息處理能力。正如 "智能"(或 "思想")有許多層面和不同的用途,人工智能也是如此。因此,人工智能從廣泛的學科中汲取不同的想法和技術,不僅包括數學和計算機工程,還包括哲學、經濟學、神經科學、心理學和語言學。
廣義上講,有三種不同層次的人工智能:人工狹義智能,通常被稱為 "狹義人工智能";人工通用智能,有時被稱為人類水平的人工智能;或者更強大的人工超級智能,超過人類的智能水平。在這一點上,有些人認為會出現一個奇點,在這個奇點中,人工智能要么變得有自我意識,要么達到持續改進的能力,使它的發展超出人類控制。后兩種水平被認為仍有一段距離,盡管距離有多遠還存在爭議。不過,就目前而言,狹義人工智能更先進應用的出現,如先進的機器人技術,加上計算能力的爆炸,才是目前關于人工智能的軍事用途辯論的主要動力。本文重點討論狹義人工智能的應用。
圖 1:AI 類型的簡化分類
在狹義的人工智能中,還有更多的類別,盡管這些技術并不完全是離散的,而且經常被結合使用。最常見的區別是符號人工智能和亞符號或非符號人工智能,前者通常被描述為基于邏輯,后者基于自適應或學習。符號人工智能依賴于順序指令和自上而下的控制,使其特別適合于確定的問題和基于規則的過程。非符號人工智能,其中神經網絡是一種常見的方法,涉及并行、自下而上的處理和近似推理;這與動態條件和數據不完整的情況最相關。符號人工智能提供了精確性和可解釋性,而涉及神經網絡的非符號人工智能則不那么脆弱(網絡中缺少一個節點并不會導致整個網絡無法運行),并且能夠在沒有明確規則或一致證據的情況下識別模式。
有三種常見的機器學習類型,根據有助于智能體學習過程的反饋類型進行區分:監督學習;無監督學習;以及強化學習。在監督學習中,系統被訓練來產生假設或采取具體行動,以追求基于特定輸入的目標值或輸出(被稱為標簽)(例如,圖像識別)。無監督學習沒有設定規格或標簽,也沒有明確的反饋;相反,系統通過尋找數據中的模式進行學習(例如,DNA序列聚類)。強化學習依賴于一個反饋回路,通過試錯或獎懲機制穩定地強化系統的學習行為(例如,先進的機器人技術或無人駕駛汽車)。與監督學習不同,強化學習中使用的輸入數據不是預先定義的,這允許更廣泛的探索,但與無監督學習不同,它有一個預期的應用或總體目標(與總體獎勵最大化相關)。
所有三種類型的機器學習,無論監督或自律的程度如何,都提出了重要的信任和值得信賴的問題。所需的信任程度和性質因使用人工智能的目的不同而不同。
信任描述了兩個或多個智能體之間的互動。信任的傳統定義是假設信任者對受托人的能力和善意(或動機)存在合理的信念。對許多人來說,道德誠信(或意圖)的問題是信任與其他概念(如信心)的區別。另一些人認為,信任的范圍和所指比信心更廣,后者被視為與具體事件相關的獨立判斷。大多數信任的定義趨于統一的是一種脆弱的感覺。沒有背叛的可能性,沒有風險的存在,就不可能有信任。
正是因為經典的信任概念中隱含著假定的道德因素,一些人質疑使用該術語來描述人類與人工智能體的關系。他們認為,在目前狹義人工智能的水平上,我們不能將意向性或道德機構歸于人工智能系統,因此使用 "信任 "一詞是不恰當的。另一些人采取了不那么純粹的觀點,并以反映日常使用的方式應用該術語,意味著對系統的可靠性有信心。
信任作為一個術語在計算機科學中被廣泛使用。更重要的是,信任仍然是公眾和用戶接受人工智能的一個基本方面。今天,關于人工智能的國家政策、法規和專家建議經常強調 "值得信賴的人工智能 "的必要性。例如,DARPA的空戰進化計劃正在探索方法,以模擬和客觀地衡量飛行員在斗狗時對人工智能的信任。認識到這些尚未解決的定義問題,作者選擇了略微調整 "信任 "一詞,使之與通常的做法一致。
作者調整后的信任概念需要對人工智能的表現有一定的預期,而不需要假設人工智能方面的特定動機。因此,對人工智能體行為的積極預期可能是信任存在的充分條件,而不考慮意圖。
在目前大多數關于人工智能的討論中,重點往往是人作為信任者,系統作為受托人,盡管任何認知智能體,包括自主機器人和智能機器,原則上也可以履行信任者的角色。這樣理解的話,信任就成了 "系統成員之間互動的促進者,無論這些成員是人類智能體、人工智能體還是兩者的組合(混合系統)"。事實上,在人工智能更成熟的應用案例中,受托人最有可能同時包括人工智能支持的系統(人工智能體)和該系統的提供者(人類智能體)。在目前的人工智能水平上,信任似乎是一種單向的關系,涉及人類 "信任 "人工智能的程度,而不是真正的雙向信任,即人工智能對人類表現的看法。
各種因素決定了(人類)對技術的信任,包括但不限于信任者的能力水平和信任傾向,以及整體環境或背景(包括更廣泛的文化和機構動態)。除了這些針對人類和環境的考慮,決定一個人或組織對人工智能的信任程度的是技術的性能、過程(它如何產生特定的輸出),以及重要的是目的。所有這三者都決定了人工智能系統的設計和部署。
除了技術的穩健性和安全性,隱私、公平、透明度和問責制是一些最常被提出的影響公眾對人工智能信任的問題。然而,主要是由于設計適當的算法、理解復雜軟件系統的內部結構以及為基于算法的決策賦予責任等方面的困難,所以在值得信賴的人工智能的關鍵屬性列表中總是會加入進一步的考慮:這被交替稱為人類機構、監督或有意義的控制。在某些情況下,保持人類對技術使用的監督可能是唯一的保護措施,以防止無意中出現有偏見的、不可捉摸的和/或監管不力的人工智能系統的風險。
控制通常被看作是信任的反面。當對智能體執行任務的能力有信任時,就不需要監督。然而,即使在人工智能更適合做決定的情況下,人類也會經常傾向于干預。信任不足可能和過度信任一樣有風險或適得其反。事實上,正如絕對的控制是罕見的,絕對的信任也是如此。在開發和使用人工智能的過程中,有必要在適當的信任水平和適當的控制水平之間取得謹慎的平衡。這是 "校準的信任 "或可適應/適應性自主性等概念的核心。信任是根據人工智能的能力來校準的,對人工智能能做什么或不能做什么的期望將影響信任的水平。同樣,在可適應的自主性的情況下,用戶定制自主性水平的能力可以支持更大的信任水平。這在國家安全決策中尤為關鍵,因為信任或不信任人工智能的影響可能是最大的。
對技術在人類事務中的作用的擔憂并不新鮮。許多人認為關于人工智能的辯論與之前關于技術的爭論沒有什么不同。根據這一論點,人工智能構成了一種進化,而不是對過去活動的徹底背離,即使人類有時可能在背離以前的自動化水平的情況下被從決策圈中移除。雖然信任仍然是一個挑戰,特別是在機構和社會層面,但穩步應用最初仍然有限的人工智能來支持軍事活動,隨著時間的推移,可以培養出熟悉和越來越多的信心。
其他人,通常是政府以外的人,質疑這種漸進式的方法。他們認為人工智能的崛起是一種范式的轉變,與以前的任何技術都有質的不同。以前的技術都沒有將人工智能的雙重用途特性、傳播的便利性和實質性的破壞潛力結合起來。在過去,最具破壞性的技術都在政府的控制之下,或者在軍事領域之外幾乎沒有應用。此外,雖然以前政府主導了大部分新技術的開發,但這種趨勢幾乎完全逆轉;現在大部分投資和創新來自于工業。鑒于軍事和民用界限的模糊,以及我們的對手和競爭者對人工智能的投資,認為我們可以控制人工智能發展和使用的速度和程度是不明智的。在反思算法技術的進步時,一些人甚至進一步聲稱技術和人類之間的角色發生了逆轉,人們正在成為 "人類的人工制品"和"(技術系統的)智能體"。
如果我們接受對人工智能系統在未來如何操作(和運行)進行完全控制的限制,關鍵問題是我們如何在算法超過目前的性能水平后長期確保適當的交互和人類判斷。反應時間是軍事競賽中的一個關鍵優勢;加快OODA(觀察--方向--決定--行動)循環的各個方面,通常會給那些先到者帶來領先優勢。而這樣做只要一方開始使用人工智能來加快他們的決策和反應時間,另一方就會受到壓力。
2020年12月,美國空軍首次使用人工智能副駕駛飛行了一架軍用飛機。這種被稱為ARTUμ的算法完全控制了傳感器的使用和戰術導航,而其人類隊友則駕駛著U2間諜飛機。這是首次出現人工智能控制軍事系統的情況。用美國空軍前首席采購官員威爾-羅珀的話說,ARTUμ "是任務指揮官,是人機團隊的最終決定者"。
甚至在ARTUμ演示之前,美國國防部已經開始了其全域聯合指揮控制(JADC2)計劃的工作。JADC2旨在打造連接五個軍種的傳感器,承諾對作戰環境進行快速分析,以便在幾小時或幾分鐘內做出決策。在未來的JADC2中,人工智能將允許快速處理數據,為目標識別提供信息,并推薦最佳的交戰武器(無論是動能還是非動能)。美國空軍的先進作戰管理系統、美國陸軍的 "聚合項目"(被稱為 "學習運動")和美國海軍的 "超配項目 "都在嘗試使用人工智能與自主性相結合的方式來支持JADC2。
其他國家,包括英國通過英國陸軍的 "Theia計劃"等項目,以及北約也已經開始嘗試使用人工智能來支持C2和決策。然而,這種試驗的規模和范圍仍然有限。與數據挖掘和語言翻譯等領域不同,人工智能在軍事決策中的應用仍處于起步階段。
美國國防部高級研究計劃局目前開展的工作提供了對未來的一瞥。作為其 "AI Next "項目的一部分,該機構的第三波人工智能投資尋求 "將計算機從工具轉變為解決問題的伙伴",并 "使人工智能系統能夠解釋其行動,并獲得常識性知識并進行推理"。
人工智能已經塑造或推動了我們的許多日常決策。在某些情況下,它已經改變了整個行業。在高度交易性的活動中尤其如此,如保險或零售部門。人類已經將關鍵活動的責任交給了人工智能,讓算法在沒有人類干預的情況下做出決定。今天,人工智能塑造了谷歌和Facebook等網絡平臺提供的內容,也決定了哪些內容被刪除或屏蔽。保留了人類因素的人工智能決策支持系統也在激增,被用于從醫療診斷到改善制造工藝的各個方面。
很少有地方像金融業那樣,人工智能從根本上改變了人與機器的關系。人工智能現在負責絕大多數的高頻交易。在幾毫秒內做出的數千項微觀決定有能力改變整個財富,有時會帶來毀滅性的后果,2010年的 "閃電風暴 "證明了這一點。人類的決定對于金融市場的效率不再是必要的,事實上,甚至可能會起到反作用。無形的算法似乎已經超越了無形的手。
至于社會的其他部分,人工智能的潛在軍事用途涵蓋了廣泛的應用范圍。這些可以有效地分為企業、任務支持和業務人工智能應用。人工智能的軍事應用,特別是與任務支持和作戰用途有關的應用,在一些基本方面與日常的民用活動不同。在平民生活中,人工智能有機會利用大量容易獲得的數據,不斷針對現實生活中的例子進行訓練和學習。對于軍隊來說,與對手的接觸是零星的,來自真實行動的教訓或 "數據 "在數量和頻率上都相對較低。除了軍事對抗的偶發性質,國家安全決策通常依賴于一套復雜得多的條件,涉及多個參數和利益相關者(更不用說對手的意圖),而今天的算法沒有能力再現這些條件。最后,也是最重要的一點,在國防和國家安全問題上,面臨風險的不僅僅是財富,還有生命。數學邏輯不足以為決策提供依據;在使用武力時,道德和倫理考慮比任何其他人類活動都要突出。當人類生命的完整性受到質疑時,我們為技術設定的標準將永遠高于我們為容易出錯的人類設定的標準。
除了美國、英國和北約等國的現行政策外,人們普遍認為人類將在決策中保留一個關鍵角色。美國國防部的人工智能戰略指示以 "以人為本的方式 "使用人工智能,有可能 "將人類的注意力轉移到更高層次的推理和判斷"。納入人工智能的武器系統設計應 "允許指揮官和操作人員對武力的使用進行適當的人類判斷",并確保 "清晰的人機交互"。提到人類總是 "在循環中 "和 "完全負責選項的開發、解決方案的選擇和執行"--這是以前對我們日益自動化的未來的評估中的常見說法--已經被一種更細微的觀點所取代。
所謂的有監督的自主系統是指人類坐在 "循環 "上。雖然人類在理論上保持監督,但一些批評者認為,在實踐中,他們可能無法真正控制自動決策,因為他們可能不熟悉為他們提供決策信息的環境和人工智能程序。在這些情況下,人類的干預能力,除了停止機器之外,被降到最低,沒有達到"有意義的人類控制 "的想法。只有在完全自主系統的情況下,人類的干預才會被完全消除。然而,最終,試圖定義自主性水平的做法可能會產生誤導,因為它們假定人類和機器之間的認知活動是簡單分離的。2012年美國國防科學委員會的一份報告描述了如何:
兩個領域的發展揭示了各國政府在國防和國家安全的關鍵決策中信任先進的自動化方面已經走了多遠。一個是導彈防御,另一個是網絡防御。兩者的有效性都取決于反應速度,這通常超過了最有經驗的人類操作員的能力。
大多數防御性武器系統,從短程點防御到反彈道導彈系統,都采用先進的自動化操作,使其能夠在沒有人類干預的情況下探測和摧毀來襲導彈。算法實際上是在發號施令。在這種系統中,人類被稱為 "循環",在事先經過嚴格的人類測試后,在有限的設計空間內運作,因此其控制范圍受到限制。雖然錯誤永遠不可能被完全消除,但在大多數情況下,不做出反應或反應遲緩的風險可能超過偶爾發生事故的風險。雖然事故促使人們對這些自主系統的操作進行審查,并可能導致引入一些進一步的人為檢查,但這種干預也帶來了進一步的復雜性。對越來越快的導彈,特別是高超音速導彈的防御將繼續推動人工智能在導彈防御中的應用。
網絡戰是人工智能相對于人類具有明顯優勢的另一個領域,而這往往需要人類保持置身事外。人類操作員缺乏算法快速檢測和應對網絡事件以及不斷調整系統防御的能力。所謂的認知電子戰(EW)系統應用人工智能技術來自動檢測對EW系統的威脅,而不是依賴人類操作員。
將決策過程中高度耗時、勞動密集型和需要低層次人類推理的部分自動化,有巨大的好處。軍事評估過程是軍事決策過程的一個關鍵部分,一直是參謀學院教授的標準作戰計劃過程。這種方法的一部分涉及收集和處理信息,為一個或多個行動方案提供信息。由于信息時代的決策需要更大的速度和敏捷性,達成決策的過程將需要加速。人工智能已經證明了它在基于明確定義的規則、輸入和假設快速執行理性過程中的效用。只要人類負責設定假設并定義產生替代方案和概率評估的輸入,人工智能就能增強整個決策過程。
可以理解的是,政府內部和外部都不愿意讓人工智能發揮超出決策支持和適當決策的作用。"指揮和控制"的概念在軍隊的心理和結構中根深蒂固,許多人無法接受一個在某種程度上不涉及人類控制軍事行動或指揮任務的未來。人被要求帶著他們對問題的創造性見解,像現代的亞歷山大一樣解開這個死結。沒有什么比對 "翠鳥時刻 "的信念更能體現這種對直覺型指揮官形象的依戀。這種技能,即指揮官藝術的精髓,只限于那些在最苛刻的情況下能夠憑直覺做出決定的少數人。人工智能提供并非基于人類邏輯或經驗的獨特見解的能力,對這種思維提出了深刻的挑戰,并可能在未來改變指揮官的形象。
許多人將人工智能稱為決策支持而不是決策工具,其推論是人類最終仍然是所有決策的仲裁者。這樣的區別造成了一種令人放心的錯覺,即人工智能只是協助實現一種效果。人類根據一套算法挖掘、篩選和解釋的數據做出的致命行動決定,是否比由智能機器完全執行的決定需要更多的人類機構?對 "行動 "的癡迷--更不用說致命行動--作為更廣泛的 "殺傷鏈 "的最后元素,掩蓋了人工智能在整個行動范圍內的一系列C2活動中日益增長的影響。
許多專家對人類是否有能力控制由人工智能促成或驅動的決策持懷疑態度。這種懷疑往往圍繞著所謂的黑盒問題:高級人工智能,如深度學習,在本質上是無法被人類理解的。這不僅僅是由于它的工作速度,也是由于算法網絡相互作用的方式,以及它們所操作的數據的規模和復雜性。我們不能簡單地詢問系統以了解其思維過程。我們可能知道一個模型的輸入和輸出,但卻無法理解這中間發生的事情。一個相關的、更微妙的論點是,算法對人類的認知攝入施加了 "權力"。人工智能可以決定人類處理哪些信息,而不向他們透露哪些信息被遺漏或拒絕。它還挑戰了這樣一個概念,即如果人類的行動受到數據呈現的內容和方式的制約,他們可以行使 "有意義的 "控制。這與人工智能的好處之一正好相反,即它能夠減少人類的認知負荷,使人類能夠集中精力思考和作出最高價值的活動。
對黑盒挑戰的典型解決方案是開發可解釋的人工智能(XAI)。盡管能夠自我解釋的人工智能可能有助于理解,但它并不必然會導致信任。XAI并不等同于可解釋的AI;解釋不是一個決定,而是一個關于決定的敘事。因此,即使是一個令人信服的解釋也不一定是真的。對于許多潛在的用例,我們還遠遠沒有能力開發出足夠的可解釋(Explainability)的人工智能,更不用說可因果解釋(Interpretability)的了。對更先進的人工智能系統進行嚴格的測試可能會證明它們的部署是足夠的,即使是在沒有人類能力遵循其推理過程的情況下。不過,從根本上說,我們對測試的傳統方法需要重新思考。沒有充分的測試和評估,對不可解釋/可解釋的人工智能的信任將是 "盲目的信任"。對于美國前國防部副部長鮑勃-沃克的問題,我們仍然缺乏一個令人滿意的答案:你如何對學習系統進行測試和評估?
當存在不確定性或缺乏知識時,人類會應用啟發式方法來近似解決復雜問題。啟發式方法是驅動直覺思維的因素;它依賴于經驗法則,通常是通過經驗和實驗來了解。因此,它可能存在偏見和盲點,但它也可以作為一種非常強大和有效的快速認知形式。機器缺乏類似人類的直覺,但它們確實依靠啟發式方法來解決問題。與人類推理的關鍵區別在于,機器不需要記憶或 "個人 "經驗就能進行 "直覺 "或推理。它們利用巨大的數據庫和卓越的概率能力為決策提供信息。強大的模擬與先進的計算能力相結合,提供了一個測試和 "訓練 "算法的機會,其重復程度是人類無法想象的。在宣布任務準備就緒之前,ARTUμ在短短一個多月內經歷了超過一百萬次的訓練模擬。
即使在XAI領域取得了重大進展,仍然會有謹慎的理由,特別是在需要復雜決策的情況下。人工智能通常不善于看到 "全局",也不善于根據相關的內容做出決定。像人類一樣,它也會把相關性或偶然事件誤認為因果關系。人類和機器在處理復雜問題時都會遇到 "正常的意外"。創造力是人類通常具有的特質,但一些先進的人工智能可以產生人類無法企及的驚人結果。簡而言之,許多通常被認為是人類特有的屬性,如創造力和直覺,也可以說適用于人工智能系統--盡管方式不同,速度超過人類能力。
目前機器所缺乏的是人類思維的靈活性和關聯感("框架 "的能力)。人類可以橫向思考,通過實用主義得出合理的結果(這一過程被稱為歸納推理),并反思自己的思維過程(這一能力被稱為元認知)。這些心理過程可以產生驚人的適應和創新的壯舉。
人工智能的出現意味著未來的軍事決策將幾乎肯定需要更強大的人機共生關系,就像在已經接受該技術的商業組織中看到的那樣。目前的討論大多是假設人類繼續控制,或尋求將人類的屬性應用于未來的機器。一些人提倡一種新的 "決策演習"概念,將 "人的指揮和機器的控制"結合起來。但更有可能的是,指揮和控制的責任將越來越多地由人類和人工智能系統分擔,其方式可能是目前難以設想的。人類與人工智能的合作提供了利用各自優勢和減少不足的最佳方式,特別是在戰爭方面(目前戰爭的性質仍然沒有改變)有四個連續性:政治層面;人類層面;不確定性的存在;以及戰爭是一場意志的較量。
信任是動態的;它隨時間而變化。它的最初形成是至關重要的,但它的持續發展也是如此。信任是隨著熟悉程度的提高而自然產生的,因此,假設經驗是積極的,即使是在對技術不完全了解的情況下,技術的使用也會擴大信任的范圍。反過來也是如此,不好的經驗會促進不信任。移動電話技術復雜性對大多數用戶來說是未知的,但人們的積極經驗給了他們使用的信心。這種信心導致了與手機使用所形成的決定相適應的信任感。然而,手機一般不會決定生死大事,盡管它們會將盲目聽從指示的不謹慎的司機置于危險之中。在軍事背景下,賭注更大,用戶和策略制定者非常清楚他們的決定的潛在后果--信任門檻很高。
軍隊作為應急組織,不需要定期交付其主要產出,這影響了可以獲得最直接相關經驗的速度。與金融服務業不同的是,在金融服務業中,交易為人工智能決策提供了頻繁的驗證,而國防部門的時間線往往更長,結果在一個單一的因果鏈中也沒有明確的聯系。做出決定和觀察其影響之間的時間間隔更長,并受制于多種干預變量。雖然模擬演習創造了獲得經驗的機會,但它們只是現實的近似值。
建立和維持信任涉及五個主要的 "Trust Points"--在這些點上,擁有適當水平的信任問題是至關重要的。這些點是:
總的來說,這些Trust Points定義了一個整體的信任水平,并且是乘法的:如果對其中一個的信任是 "零",那么整體就是 "零"。只要整體信任是正向的,每個人的信任水平都可以變化--在不同的時間。
部署信任
對在特定情況下使用人工智能的決定的信任是至關重要的。對于人工智能的軍事使用(以及許多民用應用),這在三個層面上運作:社會;組織;和個人。第一個層面考慮的是整個社會是否愿意允許人工智能的使用,這將決定策略制定者如何看待它的使用。組織本身也必須愿意認可這一點。最后,個人必須愿意在這個角色中與人工智能合作。所有這三個層次都需要接受使用人工智能的必要性或其可取性的必然性。可取性可能反映了人工智能在以超過人類操作員的速度或數量(或兩者)處理數據方面的優勢,或在承擔枯燥或危險的工作方面的優勢。而軍方可能會認為,人工智能既實用又要避免將優勢讓給對手,但社會似乎更傾向于將致命的使用視為一個倫理問題,在這個問題上,人類生命的神圣性要求道德行為者決定奪取人的生命。
社會對人工智能使用的接受程度在很大程度上取決于其經驗、有效的溝通和教育,這將有助于為人工智能的使用選擇提供依據。在許多情況下,社會的某些部分可能會比軍方更多地接觸、熟悉和信任人工智能,但致命自主權可能仍然存在問題。雖然沒有致命自主權那么直接的威脅,但在決策中使用人工智能會帶來自己的挑戰,其中最重要的是在一個算法越來越強大、人機協作越來越緊密的世界里,"有意義的人類控制 "究竟意味著什么。
在組織層面,存在關于如何部署作戰和任務支持人工智能的重要問題:是以集中的方式在更高的戰略層面運作,還是以更分散的方式在戰術層面運作。在后一種情況下,人工智能將進一步滲透到組織中,變得更加分散,并用于反應時間可能限制人類干預或驗證人工智能的范圍。組織需要明確決定是否使用人工智能的原則,以及管理其使用的方法(見下文 "過程信任")。關于使用人工智能的決定必須考慮如果系統失敗會發生什么。美國國家航空航天局(NASA)由于擔心系統故障的后果而沒有充分利用其早期火星車的自主能力,對火星車進行微觀管理,并通過大型人類工程師團隊減輕風險。外部組織,如商業技術供應商,的想法也很重要。例如,谷歌的員工迫使該公司在2018年退出一份軍事合同,因為他們擔心軍方對面部識別技術的使用。
個人對人工智能的熟悉程度也將是重要的。目前,從事軍事人工智能工作的人是其使用的倡導者,但隨著接觸人工智能的人群的增加,這種情況將發生變化。與前幾代人相比,接觸技術較多的年輕軍人可能更容易接受人工智能在軍事決策中的應用,但在基礎等級的聯邦結構中,人才幾乎完全來自內部,對其使用的阻力可能來自那些有權力的人;這可能造成機構接受問題。然而,在 "代際特征 "方面,存在著過度簡化的危險。雖然年輕人是在較新的技術中長大的,而且可能更信任它,但技術是可以學習的。代際假設不能成為不使用現代技術的借口。
部署信任是復雜的,因為大多數西方國家的大規模防務活動都是以聯盟行動為前提的,而不是每個盟友或伙伴都對什么是可接受的人工智能的軍事用途有共同的看法。國防部和政府需要更好地傳達他們在使用人工智能方面的方法、用途和保障措施,包括向盟友傳達,而不向對手透露太多信息,因為他們可以制定戰略來抵消(或更糟)人工智能功能的優勢。北約將通過其公共宣傳活動、與成員國在政治層面的聯系以及在不同技術發展階段的軍隊中建立規范,在這方面發揮關鍵作用。
數據信任
這涉及到對人工智能做出判斷的數據的信任程度,這些數據為人類決策提供了依據。雖然測試硬件和軟件相對容易,但測試數據,甚至是準備讓人工智能接受訓練的數據,則更加困難。數據對于人工智能的有效學習至關重要。一些數據將被控制,駐留在現有的國防系統內,或從可靠的外部來源進行驗證,盡管國防部在數據的分類(不一致或不準確)、存儲、訪問和共享方面存在困難,特別是在較高的分類級別。不受控制的數據,如開放源碼數據,是在沒有人類知識或理解的情況下通過聚合產生的,這更具挑戰性。此外,狡猾的對手會試圖注入虛假數據,以破壞決策過程,或用不相關或不準確的數據淹沒決策過程。
武裝部隊需要定義、構建、清理和分析數據的能力,以及開發和維護底層基礎設施(如連接、安全和存儲容量)的能力。這是一個多學科的團隊工作,需要能夠在數據科學生命周期的所有階段工作的 "全棧 "數據科學家。現代戰場將需要更加多樣化的技能,包括心理學家、律師和通信專家。鑒于商業世界對這些技能的需求,吸引和保留這些專家的數量將是困難的。這將需要更靈活的人力資源做法和/或對整個部隊更復雜的理解和使用,包括允許非軍事人員在軍事總部擔任有影響力的職位。
過程信任
過程信任指的是人工智能系統如何運作,包括數據如何處理(匯總、分析和解釋)。目前英國國防部的(狹義的)人工智能決策支持系統吸引了高信任度,因為算法相對簡單且可預測。它們也僅限于參與開發的一小群用戶,或者認識那些開發了人工智能系統的用戶,并且了解該技術。該技術受益于一種源自人們對人類的信任的過渡性信任。雖然不是人工智能,但法國陸軍引進的包裝降落傘的機器導致了降落傘團的信心喪失。堅持要求機器的主管用機器隨機選擇的降落傘打包跳傘,有助于恢復用戶的信心。讓開發人員更接近指揮系統的用戶會有所幫助。法國的采購程序允許某些單位直接與人工智能供應商接觸,以建立對開發商的了解和關系。開發商成為一個關鍵的信任點,如果不是軍隊,他們必須了解和熟悉軍隊的情況。這可能需要加大投資,讓商業伙伴了解軍隊的工作方式,并確保軍事人員了解其文職同事。
要求高水平的可解釋性和透明度并不是一個永久的解決方案,目前限制了英國防部對更強大的、非符號形式的人工智能的訪問。隨著機器學習使技術超越其最初編程的參數,將需要不同的方式來確保對可能看起來是黑盒的信任。隨著這種人工智能系統的使用激增,因了解設計者而產生的過渡性信任將減少,在這個過程中克服最初的信任不足或過度信任將更加困難。應避免過度依賴過程信任,并加強其他信任點,以開發適應能力越來越強的人工智能。
過程信任必須超越技術本身。它需要信任那些為技術提供能量、與技術一起工作并接受技術產出的人類過程。因此,必須同樣重視那些共同構成整體過程的其他活動。這包括培訓和人員的過程,以及如何組建團隊。
輸出信任
對人工智能產出的信任對決策者根據他們收到的信息采取行動至關重要。即使是人類提供的情報,如果原始信息指向不同的方向,指揮官要求新的情報來支持他們的先入之見(一種 "基于決策的證據制作")也不是沒有。而隨著數據的激增,不同的解釋將成為可能,合法的或符合先入為主的解釋。因此,出現了這樣的問題,即人工智能或事實上的人類分析能夠現實地提供什么答案,以及如何驗證輸出。在友軍的部署和對手的物理位置方面,人工智能有可能提供更快的態勢感知。然而,盡管可以從現有的數據中得出更好的推論,但對手的實際意圖是無法可靠地確定的。可預測性通常被視為信任的關鍵因素,但在不穩定的環境中,能夠適應不穩定環境的人工智能輸出會被解釋為不可預測。為了克服這個問題,Bonnie M Muir認為,人類操作員必須具備估計技術可預測性的能力。這種可預測性也會影響整個部署和過程信任點,但在輸出信任方面最為敏感,以反映軍事行動等流動性和不可預測的環境。在這些情況下,數據還必須反映軍事決策者所面臨的大多數情況的離散性和特定對手的獨特文化方式,這加劇了建立大量訓練數據的難度。即使在情況類似于過去的事件時,由于缺乏可比的歷史數據來說明廣泛的變量,使得概率推理變得困難。
用Patricia L McDermott和Ronna N ten Brink的話說,輸出的校準是至關重要的。這可以通過更多地使用企業人工智能和模擬來實現,它擴大了信任的邊界,可以幫助開發輸出信任。如果經驗是積極的,與技術互動并看到它的輸出將產生信任。在作戰環境中,當描述可以知道和檢查的東西時,驗證將是最容易的(例如,關于自己部隊的數據和潛在的對手部隊的布局)。要接近了解對手的意圖是比較困難的,因此需要更高水平的輸出信任。這將包括提高描述的準確性和對從大數據處理中得出的推論進行更多的測試。分享演習和行動的正面敘事,對于實現過渡性信任和緩解從相對不頻繁的行動中積累成功證據的緩慢速度至關重要。
組織系統的信任
生態系統的信任涉及調整更廣泛的組織系統以最大化人工智能的價值所需的信任。C2系統作為一個整體必須被配置為利用人工智能輔助決策的好處,并有適當的檢查和平衡,以在可接受的風險水平內運作。當人工智能的弱點或失敗是在主管的專業知識之外的領域,需要在組織的不同部分進行校準時,這一點尤其重要。如果不在生態系統和組織層面上進行變革,組織將只是將其人類系統數字化。
需要生態系統的信任,以確保結構--包括軍事總部的組織、指揮官的角色以及集中式與更分散或分布式的決策權的平衡--準備好利用人工智能的機會。如果沒有準備好,采用人工智能的漸進式方法往往會鼓勵對結構和整體生態系統的變化采取被動或消極的方法。相比之下,實現人工智能變革力量的專門戰略將迫使人們盡早重新思考支持這種戰略所需的組織。這需要重新思考傳統的軍事結構,但對于走多遠并沒有共識。一些人設想總部變得更扁平,并將非軍事人員納入高級職位,在決策過程中擁有權力。對另一些人來說,生態系統的變化更為深刻;它要求完全取消目前被視為工業時代遺留的工作人員組織系統。這樣做,他們打算消除扼殺理解的信息邊界,并挑戰決策金字塔尖上的獨當一面指揮官的想法。這種轉變需要整個組織生態系統的信任。對于像軍隊這樣的保守組織來說,這將是困難的,在指揮部的激進替代方案被接受之前,需要得到保證。實驗、戰爭游戲和模擬環境提供了低風險的選擇,以測試為特定類型的任務(例如,戰爭、和平行動和能力建設)配置的不同總部結構。
信任是根本,但為技術設定一個不可能高的標準也有風險。幾千年來,指揮官和決策者們一直信任易變的人類。當人工智能開始觀察到輸入數據分布的變化時,技術可以通過自我監測的方式提供幫助,提醒人類 "操作員",或以以前未曾見過的方式進行操作,這樣錯誤輸出的風險會更大。風險容忍度,無論是關于人類還是機器演員,最終都是信任的表達。國防組織需要對自己是否是快速采用者或快速或緩慢的追隨者持誠實態度:商業世界的人工智能發展速度使大多數武裝部隊極不可能成為人工智能決策的 "第一用戶"。漸進派和未來派都是人工智能的支持者,他們之間的差異主要是風險問題,以及針對不同信任點的可實現的信任水平。
通過熟悉產生信任是至關重要的,這可能涉及到將軍事人員嵌入到使用復雜人工智能的商業組織中,或將平民帶入國防。這種變化需要在足夠高的級別上進行,以促進生態系統的信任。模擬、實驗和演習是重要的工具,而且必須足夠廣泛,以便不局限于一小群狂熱者。英國電信公司用人工智能決策支持工具取代英國的電話網絡的項目,當服務時間最長、知識最豐富的工程師與人工智能和數據專家合作時,效果最好,他們可能會對人工智能產生懷疑。將企業人工智能引入改革業務流程,如財務和人力資源,是將熟悉程度擴大到目前直接參與人工智能開發和使用的少數干部之外的另一種方式。
一旦熟悉的東西,信任是人類的天性,但信任的習慣會帶來自身的風險。眾所周知,人類不善于設定正確的目標,當遇到 "專家意見"(無論是人為的還是其他的)時,他們更容易同意而不是懷疑。必須避免 "信任和忘記 "的動態。一個考慮因素是為人工智能系統制定一個 "持續可信性 "的概念,類似于航空平臺的持續適航性,以確保它們仍然適合使用。因此,建立對人工智能的信任(并避免過度信任)的努力必須解決所有的信任點,并包括整個人類-機器團隊,其中人類操作員是其數字對應方的有效合作者和建設性批評者。
人工智能對決策的知情、制定和實施方式的影響將是深遠的。通過以超越目前人類進程的速度處理大量的數據,人工智能可以提高對作戰環境的理解,并減少決策者的認知負擔。這不僅僅是今天工作方式的演變。僅僅加快當前C2系統的速度是不切實際的。一輛設計為以70英里/小時速度行駛的汽車是為以該速度運行而配置的。將發動機調整到每小時100英里的速度也許是可能的,但會給車輛系統和駕駛員帶來無法承受的壓力。由人工智能驅動的決策所代表的不連續性需要一種新的方法。正如多國能力發展運動(MCDC)所述。
無論我們未來的C2模型、系統和行為是什么樣子,它們都不能是線性的、確定的和靜態的。它們必須是靈活的、自主的、自適應的和自我調節的,并且至少與它們形成和運行的環境一樣具有偶然性和突發性。
軍隊必須為明天的C2進行重組,并以不同的方式培養他們的指揮官和工作人員。如果沒有這些變化,"生態系統信任"可能被證明是不可能實現的。
C2包含兩個不同的元素:指揮,通常與創造力、靈活性和領導力相關;以及控制,與規則、可預測性和標準化相關。人工智能將首先影響控制功能,目前,指揮仍主要是人類的活動。人工智能的數據處理能力將消除控制的大量負擔,例如,為指揮官提供對其部隊的更好理解(如部署、狀態、設備和供應水平),目前這需要消耗大量的注意力和時間。它還將改變向指揮官提供信息的方式。目前,這些數據大部分是在 "拉取"的基礎上提供的--根據總部的報告程序要求或零星地收集。然而,人工智能可以持續監測局勢,并通過強調相關變化的活文件將信息推送給指揮官--類似于24小時的新聞編輯部。然而,通過進一步進入控制領域,人工智能將不可避免地影響指揮權的行使,并形成指揮決策;這對上述指揮和控制之間過于整齊的區分提出了挑戰。在未來的C2系統中,可以想象人工智能可以限制指揮權的行使,就像防抱死制動系統、牽引力控制和電子穩定性允許人類駕駛員指揮車輛,直到失去控制,此時系統會接管,直到情況穩定下來。
人工智能給人類指揮帶來了一個悖論。它同時使更多的知識被集中掌握,使總部能夠看到并與 "前線 "發生的事情互動,并將知識擴散到整個指揮系統,使較低級別的編隊能夠獲得以前只有高級指揮官才有的信息。將更多的權力下放給地方指揮官可以提高反應能力,這在事件發展不可預測、需要快速反應的情況下非常重要。西方武裝部隊傾向于采用(或多或少)任務指揮的概念,即指揮官的意圖描述了預期的效果,并允許下級指揮官根據他們面臨的情況自由執行。軍隊的學習和發展系統以及演習嵌入了這種方法--指揮官將需要相信人工智能能夠在其操作中實施這一意圖。鑒于數據和獎勵功能的戰略復雜性和模糊性,人工智能在戰術和作戰層面的使用可能比在戰略層面的指揮更有效,盡管這些層面并不離散,在現實中也不容易被分割開來。人工智能和更大的網絡連接將提供一個結構、流程和技術網絡,連接多個小型、分散的前方總部和分布式(和加固的)后方功能,即使在更透明的戰斗空間,也更難發現和反擊。如果敵人以C2系統為目標,這將增強復原力。
在每個層面上處理更大數據量的能力必須被仔細引導。人們應該能夠獲得與他們的地位和相對能力有關的信息,以影響他們在環境中發展。W-羅斯-阿什比將此描述為 "必要的多樣性 "問題:一個可行的(生態)系統是一個能夠處理其環境變化的系統。行為者應該在適合其任務的抽象水平上運作。一個旅部不能處理也不需要關于單個士兵的詳細信息;它需要對其下屬單位的身體和道德狀況有一個良好的總體了解。在更多的戰術層面上,NCO指揮官應該對他們團隊中的個人狀態保持警惕。戰略和作戰指揮官可能需要放松控制,讓戰術指揮官在更接近戰斗的地方利用新出現的機會。雖然任務指揮已經允許這樣做,但隨著高級別的指揮官獲得關于戰術層面發生的信息的空前機會,"控制"的誘惑會更大。
人工智能也需要使用抽象、近似和校準的杠桿,以避免將總部淹沒在數據洪流中。這需要在使用這些抽象和近似時的 "過程信任"。總部也可能需要使用不同的人工智能系統,其能力更適合或不適合不同時間范圍內的不同場景。決策也可能包括確定在特定情況下信任哪種人工智能模型(部署和過程信任)的因素。
人機聯合系統的自動化將提高人類的表現,在某些情況下,改變任務本身的性質。無論在什么層面上部署,人工智能不僅會影響人類執行任務的方式,也會影響人類執行的任務。目前的方法通常從研究哪些人類過程可以自動化開始,即人類工作的數字化。有可能從使用人工智能的假設開始,只有在人類是必要(出于法律、政策或道德原因)或可取(更適合這項任務)時才將人類放入系統中--決定什么不應該,而不是什么可以被數字化。這種方法挑戰了目前關于總部的規模、組織、人員配置和運作的概念。
聯合概念說明(JCN)2/17指出,C2有可能在不同的戰爭層次(戰略、作戰和戰術)上發生變化,并對作戰環境的變化特征做出反應,因為作戰環境不再僅僅是物理環境。戰爭與和平的模糊性--強調了在 "行動 "和 "作戰 "之間的連續過程中有效的必要性--以及英國向能夠持續參與的部隊結構的轉變,將需要超越戰斗所需的方法。然而,可能沒有單一的總部原型;因此,為戰斗而配置的總部將與處理上游參與和能力建設的總部不同。雖然現在確定人工智能對軍事總部的影響還為時過早,但商業組織已經發現,與傳統的垂直層次結構相比,具有更多橫向信息共享的扁平結構更適合利用人工智能的優勢,因為在垂直層次結構中,每一層都要保證和授權數據才會被發布。因此,軍事總部--無論其具體形式如何--很可能會比現在更小、更扁平,能夠更快地沿著水平線工作。
探索替代的總部概念可以通過更多地使用實驗和模擬來實現。這應該對經典的J1-9參謀部提出挑戰,或許可以用新的分組來反映人工智能取代人類密集型數據處理和共享任務的能力。在J3/5區域尤其如此,這是計劃和行動之間的界限;由更快的決策帶來的更快節奏的沖突使這種界限變得過時。組織總部的替代方法可能包括那些注重結果的方法。JCN 2/17中描述的英國常設聯合部隊總部(SJFHQ)的結構是圍繞著四個職能來組織的:理解;設計;操作;和啟用。SJFHQ后來又恢復了傳統的J1-9人員分支。然而,"聯合保護者2021 "演習是一項復雜的亞門檻行動,其中使用了人工智能決策支持工具,揭示了J1-9架構的弱點。總部開始演習時是為高強度戰爭而配置的,但隨后調整為更適合與其他機構合作的配置。SJFHQ內部正在開展工作,應用2021年聯合保護者的經驗教訓,并確定這對總部結構意味著什么。然而,不太可能有一個完美的總部模式適用于所有行動類型。需要進一步的實驗,不限于SJFHQ。很能說明問題的是,自JCN 2/17發布以來的四年多時間里,在實施其中的一些建議方面幾乎沒有取得進展。即使英國國防部采用技術的速度相對緩慢,但這也超過了國防部探索改變結構的能力,超越了小規模的愛好者群體。"生態系統信任"是至關重要的,需要有機會在模擬或真實的環境中對各種任務類型的替代方法進行測試,并讓更多的人參與進來,這對有效采用新技術、結構和過程至關重要。
現有的程序需要改變以連接和優化新的結構。這可能需要改變構成武裝部隊規劃過程基礎的軍事評估。雖然它是一個復雜的、符合邏輯的規劃工具,但它是相當線性的、確定性的,并且嚴重依賴于指揮官,特別是在 "指揮官領導 "的英國方法中。在其他國家,參謀部在推動解決方案方面發揮了更大的作用,這可能更適合于人工智能的方法。人工智能為更多的迭代和協作過程提供了機會,它能更好地響應軍事和民防資源中心的要求,轉向更敏捷的模式。新的方法應該給指揮官帶來更少的壓力,要求提供信息(指揮官的關鍵信息要求)。人工智能還可以構建、分析和比較作戰行動方案,允許在做出大規模投入部隊的選擇之前對情景進行建模、測試和完善。
英國常設聯合總部(PJHQ)的情報評估過程自動化的思想實驗發現了取代大量工作人員的機會,加快了總部的戰斗節奏,并允許使用自動總結和自然語言處理來橫向共享信息。在一次作戰部署中測試了這一點,英國第20裝甲步兵旅戰斗隊將部分計劃過程縮短了10倍。然而,當人類仍在環路中時,決策環路的速度可能是有限的。在某些時候,人類決策者將無法跟上,成為決策監控者。如果仍然需要人類來做人工智能自己不能做的決定,這將是一個問題,而這可能是最困難的決定。
盡管有明顯的優勢,但總部不太可能在技術允許的范圍內減少。目前的總部通過規模和保證程序的冗余來補償人類的脆弱性,這對于減輕人工智能團隊成員的脆弱性可能仍然是正確的。此外,隨著戰斗節奏演變成連續的24小時規劃周期,節奏的加快可能會推動某些領域的需求上升。這些壓力可能并不局限于總部本身;它可能會推動前線單位的活動增加,他們必須處理數據并對所發出的指令作出反應。人類行為者仍然需要時間來休息,即使技術不需要。此外,與商業組織不同,軍隊需要冗余,以應對競爭對手蓄意破壞或擾亂他們的決策機構,并需要確保固定基礎設施的安全,以建立他們的網絡。簡而言之,對彈性和流動性的需求影響了軍事C2系統的穩健性和效率。因此,軍隊將需要保留不完全依賴人工智能進行有效操作的結構,并確保在人工智能失敗或故意削弱對人工智能信任的情況下,有恢復性程序可用。
傳統上,指揮官是垂直決策結構的頂點,是所有信息的匯集點。雖然不是所有的軍事文化都強調個人的天才,正如 "翠鳥時刻"的概念所體現的那樣,但指揮官獲得信息的特權被總部的低層人員所拒絕。人工智能使信息民主化的潛力將改變這種情況;指揮可能會成為一種更加合議和反復的活動,不僅涉及那些穿制服的人,而且包括情報機構和具有數據科學多方面專業知識的承包商在內的更加折衷的組合--一種 "全部隊"的貢獻。面對一個復雜和適應性強的戰斗空間,另一種鳥也許為未來的指揮提供了一個更好的比喻:椋鳥。它們集體的、高度適應性的雜音為英國的發展、概念和理論中心的C2概念提供了一個更好的形象,即 "為設計和執行聯合行動而配置的動態和適應性的社會技術系統"。
指揮官必須繼續能夠處理動態環境;"沒有計劃能在與敵人的接觸中幸存下來 "這句話仍然是正確的。鑒于技術能夠提高速度(減少反應時間)和復雜性(通過更透明的戰斗空間),處理復雜、快速演變的問題將尤為重要。軍事組織正在試驗人工智能將如何改變C2,包括北約卓越指揮與控制中心、美國JADC2和英國軍隊的數字準備實驗。早期的跡象表明,指揮官將不得不更多地關注問題的框架,并確保在更小、更扁平的結構中的更多不同團隊之間的理解和目標的統一。這表明需要一個不同類型的指揮官和不同類型的工作人員;他們能夠整合由不同學科的成員組成的不同團隊的工作,而且往往是來自軍隊以外的成員。
確保指揮官能夠正確地設定問題的框架是至關重要的。人工智能非常善于在框架內操作,但目前至少在 "閱讀字里行間 "或從定義不明確的數據集中推斷方面很差--這種脆弱性仍然依賴于有人類來設定框架。在確定了問題的框架后,指揮官必須能夠判斷產出在該框架內是否合理。這需要能夠看到大局的人,武裝部隊需要通過在總部的參謀經驗來培養未來的指揮官,使他們熟悉環境和流程,從而能夠在越來越高的級別上進行指揮。模擬可以促進對總部的接觸,同樣可以確保較小的總部仍然保留人們獲得經驗的作用,通過這些經驗可以獲得必要的指揮技能。
雖然指揮官需要知道如何與技術互動,但他們必須繼續關注人工智能所要服務的作戰要求,并對其持適當的懷疑態度,以便他們成為這一過程中的知情者,而不是算法輸出的被動接受者。指揮官需要類似于工業界的 "π型領導人",在軍事專業的同時具有數字和數據意識。他們不需要成為技術專家,但應該有足夠的知識來了解其局限性,能夠與團隊中的專家合作,并有足夠的滿意度來允許對數據、流程和產出的信任。
集體而言,總部團隊需要這些技能,各個團隊成員能夠相互交流和理解。這超出了情報分析員的范圍,包括來自武裝部隊內部和外部的廣泛的行動、技術和數據專家。它還包括對風險更復雜的理解和溝通能力。戰爭從根本上說是一個風險管理的問題,這需要以經驗的方式來理解和溝通風險。因此,了解概率和信心水平是一項關鍵的指揮技能,但諸如沖突中的一次性決定也需要長期的判斷。
軍事教育需要通過在職業生涯中更早地引入數據和技術意識來應對。此外,軍隊對不同能力的評價方式也需要改變。據傳聞,英國陸軍的職業管理流程往往將那些在計算能力上取得好成績的人引向采購等領域,而不是作戰,被選入參謀學院的專業人員往往在計算能力上處于較低的四分之一。這不僅僅是軍隊面臨的挑戰:有望成功競爭的國家需要國家教育系統認識到數據和技術素養技能的價值,并從小培養他們。作者并不主張將教育變成就業前培訓;雖然需要STEM技能(數量比現在多),但人文和社會科學仍然很重要,培養出的畢業生適應性強,能夠解決復雜的問題,并以影響力進行溝通。國家的成功取決于學術和其他形式的多樣性,培養人們在數字世界中茁壯成長,不僅需要技術能力,還需要(人文)特質,如創造力和情商。指揮官和工作人員在未來將需要這兩套技能,也許比今天更需要。
除了分析之外,直覺是信息處理中的一個補充部分。在指揮官需要行使的雙軌制決策方法中,它是人類認知的一個重要部分。有效的決策結合了直覺和分析的優勢。當數據和直覺一致時,決策者可以放心地采取行動。如果它們不一致,則需要在行動前進一步探索。1983年,俄羅斯中校Stanislav Petrov避免了潛在的核戰爭。他的導彈探測系統報告說美國發射了五枚洲際彈道導彈,但他沒有立即報告,而是決定等待,因為這個信息感覺不對。他的(下意識的)雙模式決策使他做出了正確的決定。人工智能更強的數據處理和分析能力可以增強決策過程中的分析要素,但它需要指揮官認識到直覺的價值和局限性。專業軍事教育需要反映出對數據和直覺這兩個組成部分的平衡方法。
未來的指揮官所指揮的團隊必然比今天更加多樣化,領導跨學科團隊為復雜問題帶來新的見解。人類有效構思和發展直覺的能力通過接觸不同的看世界的方式得到加強。這不僅僅是改善受保護特征方面的多樣性,盡管這很重要,還包括確保整個部隊團隊中教育、經驗和觀點的廣泛性。整個部隊的不同元素是這種多樣性的一部分。
越來越多的跨軍事領域的綜合活動要求整個部隊的各軍事部門有效合作。對于正規軍事人員,在 "聯合"方面已經取得了進展,但還需要做更多的工作。在軍事生涯的早期引入聯合訓練是實現這一目標的一種方式;這可能需要重新思考軍事人員何時接受專業軍事教育,目前在英國是在30歲左右。相比之下,澳大利亞國防軍為參加澳大利亞國防軍學院的人員提供了基本的聯合軍事課程,海軍、陸軍和空軍專家也接受了單一軍種培訓。這為未來的指揮官在軍事生涯早期的成長提供了一個跨學科的 "聯合 "模式。正規軍的進展需要擴展到后備軍的整合,因為未來可能會有更多的技術專家駐扎在這里。
事實證明,整合整個部隊的非軍事因素更為困難。Serco研究所的一份報告指出,"盡管在過去十年中,整個部隊的運作取得了進展,但在實現軍事和工業之間的無縫合作方面的努力卻停滯不前。雖然武裝部隊在將非軍事人員帶入其總部方面做得更好,但在場和被納入之間有很大區別。如2021年聯合保護者等演習,經常邀請國際合作伙伴和民間主題專家來幫助規劃過程,但他們往往在軍事規劃人員完成工作后才被邀請對計劃發表意見。許多總部的規劃周期缺乏靈活性,這意味著當規劃被提出來供審查時,可能已經來不及進行修改了。
這不僅僅是對軍隊的觀察;文職專家往往不熟悉軍事進程,等待被邀請做出貢獻,這削弱了他們的影響力。軍事人員沒有本能地理解他們的非軍事同事所能做出的全部貢獻,因此沒有將他們納入其中。人工智能將迫使人們從一開始就需要在規劃過程中建立整個部隊的多樣性,從而使計劃成為真正的合作。
有了人工智能的能力,技術將越來越多地成為整個部隊的一個成員。國際象棋大師加里-卡斯帕羅夫(Gary Kasparov)曾指出,好的技術和好的人類棋手的結合,往往比卓越的技術或更好的人類棋手單獨工作更成功。在某些情況下,人和機器可能在共享任務中緊密結合,以至于他們變得相互依賴,在這種情況下,任務交接的想法就變得不協調了。這在支持網絡感知的工作設計中已經很明顯了,在這種情況下,人類分析員與軟件智能體相結合,以近乎實時的方式理解、預測和回應正在發生的事件。
從這些人機一體的團隊中獲得最大利益,不僅僅是有效的任務分配。它涉及到找到支持和提高每個成員(人或機器)績效的方法,從而使集體產出大于單個部分的總和。正確的行為和創造包容性文化的能力對于從這樣的團隊中獲得最大收益至關重要。指揮官不應專注于試圖管理 "突發事件"--一個試圖描述簡單的事情如何在互動中導致復雜和不可預測的結果概念--或團隊成員的活動,而是需要在塑造團隊和培養團隊內部的關系方面投入更多。
雖然人工智能目前作為一種工具,但隨著技術的發展,它應該被視為團隊的真正成員,擁有影響人類隊友的權利和對他們的責任。然而,無論其最終地位如何,人工智能都可能改變團隊的動態和對人類團隊成員的期望。將人工智能引入一個團隊會改變團隊的動態,而它與人類團隊成員的不同會使團隊的形成更加困難。通過布魯斯-塔克曼(Bruce W Tuckman)的經典階段,即形成、沖刺、規范和執行,需要妥協和適應。人工智能目前不太能做到這一點,需要人類參與者有更大的靈活性,這使得建立人機團隊更加困難,也更難恢復已經失去的信任。
高級人工智能,如果可以說有動機或偏見的話,很可能是以邏輯和任務為導向的(用實力部署清單術語來說,就是綠色和紅色)。一個平衡的團隊將越來越需要能夠維持團隊關系的人類,無論是內部還是跨團隊。因此,人機團隊將是不同的,盡管他們可能與包括神經多樣性同事在內的純人類團隊有一些相似之處,因為對他們來說,感同身受或理解情感線索是困難的。與神經多樣性團隊一樣,人機團隊將受益于團隊成員的多樣性給整體帶來的價值,但也需要進行調整,以最大限度地提高團隊績效的機會。人工智能作為團隊成員的概念究竟會如何發展,目前還不清楚,但有人呼吁組織在更平等的基礎上考慮先進技術的需求。加強企業人工智能在業務支持活動中的使用,將為探索人機團隊如何最有效地合作提供機會,并有可能實現預期運行成本的降低,使人類在價值鏈上從事更有意義的工作。
需要的新的領導風格、新的技能和對技術、數據和風險的進一步理解也需要新的職業管理方法。軍隊的職業管理系統(過于)頻繁地調動人員,但要形成具有必要信任度的有效團隊需要時間。軍隊可能會放慢關鍵人員的流動,甚至可能放慢團隊的流動,從而使總部高級團隊作為一個集體實體而不是個人來管理。然而,目前的人力資源實踐使軍隊或工業界不太可能愿意無限期地保留人們的職位以期待未來的需求。用拉斐爾-帕斯卡爾和西蒙-鮑耶的話說,這就產生了 "混合團隊",即那些成員不固定的團隊,對他們來說,迅速建立團隊信任的能力至關重要。即使是常設總部也會受此影響,特別是當他們成為 "整體部隊 "時。對于'臨時團隊',例如為特定任務而設立的臨時總部,這個問題就更加突出。需要有機制來加速信任的發展,經驗表明,這可以通過早期的行為實踐來實現,包括展示 "技術能力、信息公開、支持互惠和決策中被認為的誠信"。
放慢總部高級職位人員的流動速度將有所幫助,但這還不夠。在無法保證預先建立的團隊在需要時隨時準備好執行任務的情況下,需要有一種方法來減少組建新的部隊團隊的時間。模擬提供了一種方法,通過壓縮任務演練的時間來準備新組建的團隊,并為整個部隊的不同組成部分提供共同工作的經驗。軍隊在這方面做得很好;軍隊的社會化進程創造了強大的紐帶,包括派人到合作伙伴那里進行培訓、演習和任務。對于整個部隊的其他部分來說,這種對跨文化理解的投資是缺乏的。建立對對方的了解,從而建立信任,對文職部門來說同樣重要。軍隊可以做得更多,為其工作人員提供與商業部門合作的經驗,包括與技術專家、數據專家和編碼人員合作,而文職人員也需要更好地了解軍隊、其語言、流程和價值觀。武裝部隊可以通過提供交流任命和模塊化和/或縮短其課程來協助這一進程,使文職人員有可能參加。冠狀病毒大流行引入了新的工作方式,并加速了軍事訓練和教育的變化,這可以為信任提供基礎,在此基礎上可以出現新的團隊和總部類型。
簡而言之,人工智能輔助決策不僅僅是一個技術問題;它需要改變指揮結構、流程和人員技能,才能發揮其潛力,成為武裝部隊在所有任務中運作的一場革命。然而,至關重要的是,在適應不斷變化的戰爭特征時,武裝部隊不能忽視戰爭的持久性:指揮官必須保持領導者和戰士的身份,能夠激勵普通人在最困難的情況下做出非凡的事情,而不僅僅是善于管理戰斗的人。在軍事方面,人工智能是一種工具,可以最大限度地提高武裝部隊在激烈競爭環境中的獲勝機會。
人工智能正迅速成為我們國家安全結構的一個核心部分。軍方和情報機構正在嘗試用算法來理解大量的數據,縮短處理時間,并加速和改善他們的決策。對人工智能越來越多的使用和熟悉可以促進對它的信任,但正如專家們的辯論所表明的那樣,要建立和維持對像人工智能這樣的變革性技術的信任,存在著嚴重挑戰。
本文重點討論了人工智能的作戰和任務支持應用,并探討了不斷發展的人與人工智能關系對未來軍事決策和指揮的重要性和影響。當軍事指揮官的角色從控制者轉變為團隊伙伴時,當我們不能再將輔助功能只賦予人工智能體時,那么我們就需要從根本上重新思考人類的角色和我們的機構結構。簡而言之,我們需要重新評估人機決策中信任的條件和意義。沒有這種信任,人工智能的有效采用將繼續比技術的發展更慢,而且重要的是,落后于我們一些對手采用人工智能的速度。
一個稍加修改的信任概念--一個不需要將意向性或道德性歸于人工智能體的概念--可以而且確實適用于AI。只要我們委托機器做可能對人類產生嚴重甚至致命后果的事情,我們就會讓自己變得脆弱。只要存在人工智能的表現達不到我們預期的風險,對它的任何使用基本上都是一種信任的行為。
除了最罕見的情況,對人工智能的信任永遠不會是完全的;在某些情況下,用戶可能有意識地同意較低的信任水平。這種信任需要考慮五個不同的元素,作者稱之為 "信任點"。我們不應該依賴任何一個單一的點來產生整體的信任。事實上,往往得到最多關注的領域--關于數據質量或人工智能輸出的可解釋性問題--從長遠來看,必然會提供不令人滿意的答案,并有可能對技術產生錯位的放心感。
最常被忽視的是在組織生態系統層面上對信任的需求。這需要重新思考武裝部隊的組織及其C2結構。如果說機器的作用越來越大曾經是官僚軍隊結構興起的關鍵驅動力,以集中管理手段,那么人工智能正在以根本的方式挑戰常備軍的這一特點。如果人工智能的使用不僅僅是模擬工作方式的數字化,國防部必須改變其在 "行動(operate)"和 "作戰(warfight)"方面的決策結構。它還需要與整體部隊的各個方面進行更密切的接觸和參與,包括其未被充分利用的后備部隊以及工業和更廣泛的政府。
領導力作為軍事職業的一個持久要素也需要重新考慮。人們傾向于將領導力視為軍事指揮的一種抽象或不可改變的品質。在人工智能時代,指揮任務或領導團隊既需要新的技能(如 "表達數字(speak digital)"的能力),也需要更多樣化的特質(例如,在數據和直覺發生沖突時,橫向思考的能力,構建問題的框架,并應用批判性的判斷)。與以往相比,人工智能更需要那些能夠理解復雜性、構建問題并根據情況提出正確問題的指揮官。這些 "故意的業余愛好者 "摒棄了早期狹隘的專業化,選擇了范圍和實驗思維;他們可以建立專家團隊,吸取專家的意見,使集體人才既廣泛又深入。這些全軍團隊將包括人類和機器,所有這些人都將根據他們在塑造和決策方面的專長作出貢獻。
在尋求回答信任如何影響軍事決策中不斷發展的人與人工智能關系時,本文提出了幾個需要進一步研究的關鍵問題:
如果我們不從根本上改變如何獲取、培訓和培養領導崗位的人員,以及如何改革他們所處的機構和團隊,我們就有可能在人機關系的信任平衡上出錯,并將無法利用人工智能的全部變革潛力。
克里斯蒂娜-巴利斯是QinetiQ公司的培訓和任務演練的全球活動總監。她在大西洋兩岸有20年的經驗,包括咨詢、工業和公共政策環境,特別關注國防、全球安全和跨大西洋關系。她曾是華盛頓特區戰略與國際研究中心歐洲項目的研究員,Serco公司負責戰略和企業發展的副總裁,以及巴黎Avascent公司的負責人和歐洲業務主管。她擁有華盛頓特區約翰霍普金斯大學高級國際研究學院和意大利博洛尼亞大學的國際關系碩士和博士學位,以及英國和德國的商業學位。
保羅-奧尼爾是RUSI的軍事科學部主任。他在戰略和人力資源方面有超過30年的經驗,他的研究興趣包括國家安全戰略和國防與安全的組織方面,特別是組織設計、人力資源、專業軍事教育和決策。他是CBE,英國特許人事與發展協會的會員,溫徹斯特大學的客座教授,英國后備部隊外部審查小組的成員。
這是一個顛覆性技術快速變革的時代,特別是在人工智能(AI)領域。雖然這項技術是由商業部門為商業開發的,但人工智能在軍事應用方面的明顯潛力,現在正促使世界各地的武裝部隊對人工智能防御雛形系統進行試驗,以確定這些系統如何能夠最好地用于作戰與和平時期的任務。
澳大利亞也不例外,在2020年國防戰略更新中分配了資金,開始將人工智能能力引入國防。這將涉及開發解決戰術級和戰略級軍事問題的人工智能應用程序,建立一個熟練的人工智能勞動力,并與澳大利亞合作伙伴和盟友合作,將倫理學納入人工智能應用程序,并進行人工智能實驗。今年在澳大利亞首都地區費爾伯恩設立的國防技術加速實驗室是這一計劃的具體行動體現。
彼得-雷頓(Peter Layton)的論文考慮了人工智能在未來海、陸、空作戰行動中的戰術和作戰層面上可能發揮的作用,為這一廣泛的活動做出了貢獻。這是一個很少被研究的領域,因為到目前為止,大部分的討論都集中在關鍵的技術問題上。這些審議表明,人工智能可能是未來戰爭中的一項重要技術,但仍有許多不確定因素。本文提供了一個起點,在此基礎上開始辯論,這將有助于解決其中一些不確定性。
本文認為,人工智能將滲透到大多數軍事機器中;然而,它的通用性意味著它很可能是在現有作戰層面結構中被使用。鑒于此,人工智能在中短期內的主要作戰用途是“尋找(find)和欺騙(fool)”。人工智能/機器學習尋找隱藏在高度混亂背景中的目標非常出色;在這個應用上,它比人類更好,而且速度更快。然而,人工智能可以通過各種手段被欺騙;其強大的尋找能力缺乏穩健性。這兩個關鍵特征在應用于當前海、陸、空作戰層面的思考時,可能會產生巨大的影響。
本文初步設計的作戰概念與沒有人工智能技術的作戰概念明顯不同。
所討論的概念旨在激發人們對人工智能戰場上人機協作作戰的思考。這樣的戰場在目前看來可能有些猜測,幾乎是科幻小說。即便如此,許多國家已經在規劃、研究和開發方面取得了很大進展。鑒于將軍事力量調整到新方向所需的漫長準備時間,這一旅程需要從現在開始。
人工智能(AI)技術突然變得對軍事力量很重要。美國國防部(US DoD)已將人工智能的投資從2016-17年約6億美元增加到2021-22年25億美元,橫跨600多個項目。中國已經通過了一項“下一代人工智能發展計劃”,旨在到2030年使中國成為人工智能領域的杰出國家,并使人民解放軍從“信息化戰爭”轉向“智能化戰爭”。更引人注目的是,俄羅斯總統普京宣布,“人工智能是未來......誰成為這個領域的領導者,誰就會成為世界的統治者”。這些高級別的倡議和聲明正在產生結果。
在美國,美國海軍(USN)的“海上獵人”號(USV)在沒有船員的情況下從加利福尼亞航行到夏威夷再返回,利用船上的傳感器、雷達和攝像機數據,通過人工智能進行導航。同時,在美國國防部高級研究計劃局(DARPA)的支持下,一架由人工智能驅動的F-16模擬戰斗機最近在多次模擬的近距離空戰中全面擊敗了由非常有經驗的人類飛行員控制的類似模擬。在一項研究陸戰的類似評估中,美國陸軍(US Army)已經確定,一支由人工智能驅動的部隊比一支非人工智能驅動的部隊擁有大約10倍的戰斗力。
中國目前正在應用人工智能,通過指揮和控制系統的自動化來提高其戰場決策的速度和準確性,制定預測性作戰計劃并解決情報、監視和偵察數據融合的挑戰。中國還開始試用人工智能USV,以備在南海使用,并開始試驗無人駕駛坦克,而一家中國私營公司公開展示了人工智能武裝的蜂群無人機。
俄羅斯落后于美國和中國,但現在正在實施一項國家人工智能戰略以迎頭趕上。在軍事領域,俄羅斯有幾項工作正在進行。一條主線是將人工智能應用于信息戰,在戰術上用于發動心理戰,在戰略上用于破壞對手國家的社會凝聚力。另一條線是通過開發無人駕駛地面車輛(UGVs)、遠程傳感器、戰術指揮和控制系統以及無人駕駛航空器(UAVs),使用人工智能來提高陸地作戰行動的有效性。另一個努力方向是國家防空網絡的指揮和控制系統的自動化。
初步跡象表明,人工智能可能是未來戰爭中一項非常重要的技術,但仍然存在不確定性。雖然人工智能在民用領域,特別是在消費類產品中,被廣泛使用,但在軍事環境中才剛剛接近實際部署。此外,它仍然沒有在真正的戰斗行動的惡劣試驗場上得到驗證。即便如此,人工智能已經成為軍事力量考慮其未來時不可忽視的技術。
重要的是,在可預見的未來,可用的人工智能技術是狹義的,而不是通用的。狹義人工智能等于或超過了人類在特定領域內特定任務的智能;其表現取決于應用環境。相比之下,通用人工智能等于人類在任何領域任何任務中的全部表現。何時能實現通用人工智能仍然值得商榷,但似乎還有幾十年的時間。近中期的全球軍事興趣在于如何在現代戰場上使用狹義的人工智能技術。
不足為奇的是,人工智能的定義往往與人類智能相提并論。例如,2018年美國國防部人工智能戰略將人工智能定義為“機器執行通常需要人類智能的任務......”。這種理解將技術擬人化,并無意中將對人工智能應用的思考限制在那些可以由人類執行的任務上。
在某些應用中,人工智能可能比人類做得更多或更少。人工智能和人類能力的維恩圖在某些領域可能會重疊,但認為它們重合是有點虛偽的。在提供解決問題的見解上,人工智能可能是智能的,但它是人工的,因此,它的思維方式是人類所沒有的。
因此,本文在考慮人工智能時,更多的是考慮這種技術能夠執行的廣泛功能,而不是考慮它與人類能力的關系。2019年澳大利亞國防創新委員會采取了這種方法,將人工智能定義為“用于執行以目標為導向的任務的各種信息處理技術,以及追求該任務的推理手段”。
初一看,這個定義似乎并不精確,沒有包括人工智能可能為軍事或民用目的實際執行任務。但這種模糊性是當代人工智能應用的一個關鍵屬性。人工智能可以以多種方式應用,可以被認為是一種普遍存在于社會中的通用技術。通用技術的一個早期例子是電力,現在它被廣泛使用,以至于它的持續存在和使用,就所有的意圖和目的而言,都是簡單的假設。電能使惰性機器活躍起來,人工智能也將以自己的方式,通過推理為它們提供完成任務的能力。人工智能似乎將注入許多軍事機器,因此未來的戰場將不可避免地以某種方式由人工智能支持。
為了取得對對手的作戰優勢,軍隊不斷尋求更大的戰斗力。傳統上,技術是以一種綜合的方式在戰場上使用的,它能最好地利用人類和機器的長處,同時盡量減少兩者弱點的影響。人工智能似乎也可能是類似的。可以預計,人工智能在與人類謹慎地合作時,而不是在某種獨立的模式下,會變得最有效。
這種考慮強調了新技術本身并不會突然間帶來戰場優勢,而是在于人類如何運用它。對早期技術創新的歷史分析指出,擁有指導如何使用這些新技術的合理概念是軍隊成功將其投入使用的關鍵。歷史學家威廉姆森-默里和艾倫-米萊指出:
在戰術層面,與戰爭現實的聯系是最緊密的。戰略規定了目標、總體方針和使用的力量,但在與聰明和適應性強的對手戰斗中處理這些力量的卻是戰術層面。雖然戰斗的成功可能不會導致戰略的成功,正如美國在越南的戰爭所說明的那樣,反之亦然。一個好的戰略在面對持續的戰術失敗時不可能成功。克勞塞維茨寫道:一切都取決于戰術結果......這就是為什么我們認為強調所有的戰略規劃都只依賴于戰術上的成功是有用的......這在任何情況下都是決策的實際基本依據。戰術通常被認為涉及友軍相互之間以及與敵人之間的分布和機動,以及在戰場上使用這些部隊。
本文旨在為在未來的人工智能戰場上使用人機團隊制定作戰概念。這樣的戰場,特別是當擴大到陸戰以外的空戰和海戰時,有一個混合的線性和深層的方面,具有消耗和機動的概念。設計這些作戰概念將為潛在的狹義人工智能系統如何在戰爭的戰術和作戰層面上使用提供一個廣闊的視野。
首先,本文討論了組成人工智能技術包的各種技術要素。這些要素包括先進的計算機處理和大數據,以及與云計算和物聯網(IoT)有關的具體方面。
第二章研究了利用人工智能發動戰爭的問題,并為防御和進攻制定了通用的作戰概念。這些概念位于作戰和戰術層面之間的模糊界面,涉及友軍相對于對手的分布和機動,以及友軍在戰場上的運用。
第三章、第四章和第五章分別將人工智能防御和進攻的兩個通用概念應用于海洋、陸地和空中領域。每個領域的戰斗在分配和操縱友軍以及與敵人交戰方面都有很大的不同,因此有必要提出單獨的人工智能作戰概念。沒有一個單一的概念能夠充分涵蓋所有三個領域,除非在很高的抽象水平上,但理解其含義可能會變得困難。提出這種具有前瞻性的概念似乎接近于投機性的小說。為了避免這種情況,每個概念都特意以當代作戰思維為基礎,并討論了當前和新興的人工智能支持的海、陸、空平臺和系統,以說明所提出的想法。
設計這些作戰概念的目的是激發思考,并啟動關于未來和如何備戰的辯論。本文提出的作戰概念旨在成為辯論其他人工智能戰場概念的實用性、可能性和有用性的基礎。只有通過對建議進行批判性分析,并不斷重構它們以進一步分析和演化,才能朝著最佳作戰概念取得進展。
本文所討論的概念在性質和范圍上都是有意限制的。就性質而言,海、陸、空的概念是:為了保持每個概念的重點,它們不是聯合或合并的。重要的是,這種狹隘性意味著一些領域并沒有包括在內,如俄羅斯在影響力戰爭中使用人工智能或中國在社會管理和內部防御中使用人工智能。出于類似的原因,每個概念都有一個狹窄的范圍,專注于戰爭,只有限地關注后勤,并避免關鍵領域,如教育、培訓、行政和指揮與控制。值得注意的是,除了與傳統的陸、海、空領域的戰術交戰的關系外,沒有討論網絡和空間這些新領域。
本文將人工智能這種新技術與戰爭的作戰方式和戰術使用選擇聯系起來。有了這樣一個重點,本文就與許多武裝部隊制定的眾多人工智能戰略和計劃不同。一般來說,這些戰略和計劃都是向內看的,目的是闡述人工智能作為一種技術將如何被研究、獲得并引入到他們的具體服務中。本文旨在補充這些人工智能技術戰略和計劃,將它們與更廣泛的作戰業務聯系起來,發揮作用。