利用人工智能已成為美國防部的優先事項。2018 年《美國國防戰略》呼吁美國防部通過投資人工智能應用,在一定程度上獲得軍事競爭優勢。依賴預測能力和數據豐富的職業領域被視為人工智能解決方案的主要候選者。本文將討論空軍承包界如何利用人工智能的現有能力,以增強人類決策者執行任務的能力。利用人工智能應用的能力不僅能加強業務決策,還能支持為空軍部節省可量化資金的舉措。為了充分利用這一優勢,該職業領域將需要一個人工智能總體戰略愿景、一支具有人工智能思維的員工隊伍,以及空軍各合同組織的共同工作。
鑒于空軍可以從以前的合同中獲取數據,并依靠分析為任務合作伙伴提供建議并支持業務決策,空軍合同部門應考慮擴大人工智能的使用范圍,以增強整個企業中人類決策者的能力。
利用人工智能已成為國防部的優先事項。2018 年《國防戰略》呼吁國防部通過投資人工智能應用,在一定程度上獲得軍事競爭優勢。依賴預測能力和數據豐富的職業領域被視為人工智能解決方案的主要候選者。
空軍承包職業領域利用數據做出業務決策,為政府實現最佳價值。人工智能提供了一種利用數據的方法,可以增強并潛在地提高人類的決策能力。機器學習和自然語言處理等技術提供了從現有合同數據中整合、分析和解釋意義的能力。雖然目前的人工智能工作已經實施,但職業領域仍有許多領域可以利用當前的技術。
結論:
空軍合同部門的定位是利用人工智能的現有能力,增強人類決策者執行任務的能力。利用人工智能應用的能力不僅能加強業務決策,還能支持為空軍部節省可量化資金的舉措。為了充分利用這一優勢,該職業領域將需要一個人工智能總體戰略愿景、一支具有人工智能意識的員工隊伍以及空軍各承包組織的共同努力。
美國空軍部對人工智能(AI)徹底改變作戰各個方面的潛力越來越感興趣。在這個項目中,美國空軍要求蘭德公司的 "空軍項目"(Project AIR FORCE)廣泛考慮人工智能無法做到的事情,以了解人工智能在作戰應用中的局限性。本報告討論了人工智能系統在執行兩種常見網絡安全任務(檢測網絡入侵和識別惡意軟件)中的應用,以及分布轉移對這些任務的影響,這種現象會極大地限制人工智能的有效性。當人工智能系統在部署后遇到的數據與經過訓練和測試的數據有明顯差異時,就會發生分布偏移。
本報告闡述了分布偏移的重要性,它如何并確實顯著限制了人工智能在檢測網絡入侵和識別惡意軟件方面的有效性,如何測試和量化其影響,以及如何減輕這些影響。這項工作主要針對大型組織,如總部設施,它們有足夠的帶寬和計算能力來實施人工智能網絡安全系統并定期更新系統。
本報告是五卷系列報告中的第二卷,論述了如何利用人工智能在網絡安全、預測性維護、兵棋推演和任務規劃四個不同領域為作戰人員提供幫助。本卷面向技術讀者;整個系列面向對作戰和人工智能應用感興趣的讀者。
在未來戰場上,人工合成的決策將出現在人類決策的內部和周圍。事實上,人工智能(AI)將改變人類生活的方方面面。戰爭以及人們對戰爭的看法也不例外。特別是,美國陸軍構想戰爭方式的框架和方法必須進行調整,以便將非情感智力的優勢與人類情感思維的洞察力結合起來。人工智能與人類行動者的組合有可能為軍事決策提供決定性的優勢,并代表了成功軍事行動的新型認知框架和方法。人工智能在軍事領域的應用已經開始擴散,隨之而來的作戰環境復雜性的增加已不可避免。
正如核武器結束了第二次世界大戰,并在二十世紀阻止了大國沖突的再次發生一樣,競爭者預計人工智能將在二十一世紀成為國家力量最重要的方面。這項工作的重點是美國陸軍的文化,但當然也適用于其他企業文化。如果要在未來有效地利用人工智能,而且必須這樣做才能應對競爭對手使用人工智能所帶來的幾乎必然的挑戰,那么成功地融入人工智能工具就需要對現有文化進行分析,并對未來的文化和技術發展進行可視化。美國將致力于在人工智能的軍事應用方面取得并保持主導地位。否則將承擔巨大風險,并將主動權拱手讓給積極尋求相對優勢地位的敵人。
合成有機團隊認知的兩大障礙是美陸軍領導的文化阻力和軍事決策的結構框架。首先,也是最重要的一點是,領導者必須持續觀察人工智能工具并與之互動,建立信心并接受其提高認知能力和改善決策的能力。在引入人工智能工具的同時,幾乎肯定會出現關于機器易犯錯誤或充滿敵意的說法,但必須通過展示人工智能的能力以及與人類團隊的比較,來消除和緩和對其潛在效力的懷疑。將人工智能工具視為靈丹妙藥的健康而合理的懷疑態度有可能會無益地壓倒創新和有效利用這些工具的意愿。克服這一問題需要高層領導的高度重視和下屬的最終認可。其次,這些工具的結構布局很可能會對它們如何快速體現自身價值產生重大影響。開始整合人工智能工具的一個看似自然的場所是在 CTC 環境中,以及在大型總部作戰演習的大型模擬中。最初的工具在營級以下可能用處不大,但如果納入迭代設計、軍事決策過程或聯合規劃過程,則幾乎肯定會增強營級及以上的軍事規劃。雖然在本作品中,對工具的描述主要集中在與指揮官的直接關系上,但在最初的介紹中,與參謀部的某些成員(包括執行軍官或參謀長、作戰軍官和情報軍官)建立直接關系可能會更有用。與所有軍事組織一樣,組織內個人的個性和能力必須推動系統和工具的調整,使其與需求保持平衡。
幾乎可以肯定的是,在將人工智能工具融入軍事組織的初期,一定會出現摩擦、不完善和懷疑。承認這種可能性和任務的挑戰性并不意味著沒有必要這樣做。人類歷史上幾乎所有的創新都面臨著同樣的障礙,尤其是在文化保守的大型官僚機構中進行創新時。面對國際敵對競爭對手的挑戰,美國陸軍目前正在文化和組織變革的許多戰線上奮力前行,在整合人工智能工具的斗爭中放棄陣地無異于在機械化戰爭之初加倍使用馬騎兵。在戰爭中,第二名沒有可取的獎賞,而人工智能在決策方面的潛在優勢,對那些沒有利用這一優勢的行為體來說,是一個重大優勢。現在是通過擁抱人工智能工具和改變戰爭節奏來更好地合作的時候了。
研究要求:
由于傳感器數量不斷增加,人工智能(AI)的應用也日益廣泛,未來作戰環境的特點將是信息量大、決策速度快。因此,陸軍指揮官及其參謀人員將需要更快地做出決策和篩選大量信息的能力。商用人工智能系統具有提供這種能力的潛力,但陸軍不能假設 "開箱即用 "的商用人工智能系統具有全部能力,因為這些系統需要針對美國陸軍的具體情況進行充分的訓練。此外,還需要開展研究,以了解目前人工智能在陸軍中的應用情況。總的來說,人工智能往往擅長于主要通過模式識別來解決的任務,以及可以通過任務數據進行預測的任務,如圖像識別、醫療診斷和轉錄。然而,人工智能能否用于提高美國陸軍的信息收集效率,目前還不得而知。因此,在當前的研究中,探討了以下問題: 人工智能能否用于提高美國陸軍任務式指揮流程中的信息收集效率?
方法:
為了回答研究問題,使用了一個商業人工智能應用系統,它反映了陸軍任務式指揮人工智能應用原型的首次開發工作。在這項研究工作中,比較了這一適合陸軍的人工智能系統和其他兩種信息收集方法在信息收集任務中的表現:一種是傳統的信息收集方法(搜索計算機文件夾中的 PDF 文件),另一種是非適合陸軍的人工智能系統。針對軍隊的系統使用軍隊相關知識來幫助搜索(例如,它知道 "MDMP "等同于 "軍事決策過程"),而非針對軍隊的系統則沒有。在以下方面對三種搜索方法進行了比較 1) 參與者找到準確搜索結果所需的時間;2) 參與者搜索結果的準確性;3) 參與者對搜索結果的信心程度;4) 參與者使用系統的工作量感知;5) 參與者對系統可用性的感知。
研究結果:
與使用傳統搜索方法相比,學員在使用人工智能系統進行搜索時既沒有更快,也沒有更準確。在使用人工智能系統時,參與者對搜索結果的信心也沒有傳統方法高。不過,在使用軍隊定制的人工智能系統而不是非軍隊定制的系統時,參與者的搜索速度更快,但準確性也更低。最后,不同搜索方法的參與者對工作量和可用性的感知沒有明顯差異。
利用和傳播研究結果:
這項研究是確定人工智能系統對信息收集效率影響的第一步。總體而言,研究結果表明,人工智能系統可能不會大幅提高美國陸軍任務式指揮流程的信息收集效率,至少不會立即提高。雖然這項研究的重點是在受控實驗室中執行一項無害的任務(即針對戰術情況尋找條令解決方案),但未來計劃中的用途不會像現在這樣無害,這表明未來的研究需要對假設進行檢驗。在對人工智能進行投資的同時,還應在培訓和研究方面進行投資,以充分發揮人工智能的優勢并降低風險。假定人工智能系統是靈丹妙藥并非明智之舉,事實上,這項研究表明,人工智能系統需要經過全面審查。
人們普遍認為,將機器學習融入軍事決策對于美國在 21 世紀保持軍事主導地位至關重要。機器學習的進步有可能通過提高整個國家安全企業級決策的速度、精確度和效率,極大地改變戰爭的特點。美國國防部的領導者們認識到了這一點,并正在做出大量努力,以在戰爭的戰術、作戰、戰略和機構層面有效整合機器學習工具。
本報告將探討機器學習的一種應用,其重點是在競爭和沖突的作戰層面實現軍事決策。展示了機器學習如何與人類合作,作為決策系統的一部分,用于提高軍事行動和活動的有效性。展示了這種方法如何通過分析原本無法獲取的數據源,為指揮官提供有關作戰環境的新見解。將重點放在從大量基于文本的數據(如報紙報道和情況報告)中獲得的洞察力上,這些數據無處不在,但卻很少以任何系統的方式整合到決策中。
在本報告中介紹的方法以人機協作系統的概念為基礎,并證明了現有的機器學習能力需要人在各個階段的參與,才能證明對操作層面的決策有用。因此,機器學習能力的發展與雷達自二戰以來的演變密切相關,而雷達是人機協作用于軍事目的的最早范例之一。如今,與不列顛之戰期間使用的預警系統同樣依賴雷達機器和人類觀察員一樣,機器學習仍然需要人類的參與,以指導這種新傳感器使用正確的數據,正確解釋其輸出結果,并評估其結果對作戰決策的影響。
通過一個基于真實世界數據和真實世界危機的示例研究,將讀者("您")置身于一名軍事指揮官的視角,就 2022 年俄羅斯全面入侵烏克蘭之前,美國如何支持烏克蘭兵力應對俄羅斯支持的烏克蘭東部叛亂,展示了這一系統方法的實際應用。在撰寫本案例研究時,把讀者您當成了這位指揮官,因為目標是強調您在未來與機器學習工具的合作中可能扮演的關鍵角色--無論是作為分析師、決策者,甚至是在現實世界的類似背景下應用這些工具的軍事指揮官。
值得注意的是,本案例研究是基于 2014-2020 年間的數據于 2020 年 12 月完成的,僅分析了這一時期與俄羅斯支持的烏克蘭東部叛亂有關的實地情況。本研究尚未更新,以反映自 2022 年 2 月俄羅斯入侵烏克蘭以來所獲得的任何見解。然而,從入侵前的視角來看,機器學習在后來發生的現實世界事件中用于作戰決策的優勢和局限性也就不言而喻了。
在整個案例研究中,將看到為本報告目的而進行的基于機器學習的實際評估結果,該評估分析了來自烏克蘭的 18,000 篇歷史新聞報道,內容涉及從 2014 年沖突起源到 2020 年末的沖突。利用機器學習工具從這些數據中提取相關見解,并與分析結果進行互動,就向烏克蘭兵力提供何種類型的支持以及在俄羅斯入侵前實現美國在該地區的目標做出名義上的決策。在此過程中,人機協作學習的優勢將逐漸顯現,將親眼目睹機器學習工具如何快速、系統地利用以前無法獲取的數據,為復雜問題提供新的見解。但這種方法的局限性也會顯現出來,將親眼目睹機器學習的好壞取決于支持它的可用數據,以及訓練機器學習工具和解釋其結果的人類分析師。
人機協作方法適用于軍事決策者在陸軍和美國防部作戰和機構層面面臨的各種問題集。因此,本研究以具體證據清晰地展示了在軍事決策中使用機器學習所涉及的權衡問題,為機器學習在軍事領域的廣泛應用做出了貢獻。本研究為美國陸軍提出了幾項重要發現和建議。
首先,分析展示了機器學習在軍事決策方面的巨大潛力,但只有在與對特定問題背后的背景有詳細了解的人類分析師配對時才能實現。在此提出的機器學習方法不會取代人類分析師。相反,它能使人類分析師更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。在案例研究中,通過使用機器學習獲得的大多數關鍵見解都需要人類分析師的額外干預。在某些情況下,這需要在模型結果的基礎上有選擇性地疊加額外的數據源。在其他情況下,則需要人工分析師手動審查機器學習工具認為相關和有趣的基礎數據。因此,美國陸軍現有的機器學習能力需要人類在各個階段的參與,才能充分發揮其潛力。
其次,分析表明,通過大幅提高執行重復性任務的效率,人機協作方法可以大規模分析人類分析師無法單獨完成的海量數據集,從而產生以前無法實現的有關作戰環境的新見解。案例研究表明,從分析人員處理大量數據的重復性分析任務所花費的時間來看,機器學習能顯著提高效率,使分析人員更高效、更嚴謹,并能更好地從以前未開發的數據源中提取洞察力。這表明,對于需要大量人工審核相關數據的問題,陸軍領導應優先考慮將機器學習作為一種解決方案。
最后,這項研究揭示了機器學習的系統方法能夠對作戰級總部已有的大量數據進行標準化、客觀和長期的分析,從而增強其支持有效決策的潛力。在許多情況下,這些數據是戰爭中作戰和機構層面決策的最佳信息來源,但如果沒有機器學習,這些數據就只能以臨時和主觀的方式進行分析。
首先,這項研究表明,陸軍應為各級指揮人員提供頻繁接觸機器學習的機會,讓他們熟悉人類如何利用這些能力作為軍事決策系統的一部分。
其次,本研究強調,陸軍應建立多樣化的機器學習團隊,以充分釋放這一能力的潛力。這些團隊應整合熟悉機器學習工具細節的作戰研究系統分析員、對特定作戰環境有第一手知識的操作員、了解可用數據以分析特定問題的分析員,以及能將機器分析轉化為對作戰決策有實際影響的指揮官。
人工智能和增強認知(AI;包含兩者)已經為美國空軍(USAF)的重要職能提供了指導。到 2030 年,人工智能將滲透到空軍的所有任務領域。正如美國空軍明確指出的,對美國空軍科學至關重要的是,"未來不會自己發明自己"。據此,本報告的目標是幫助設想和指導美國空軍發明未來的人工智能。因此,需要的是充分利用人工智能并推動其發展的研發工作,以及如何提升空軍在所有任務領域保護國家的能力。
美國空軍豐富的技術歷史可追溯到幾十年前(如 McCulloch & Pitts,1943 年;Rosenblatt,1958 年;Rummelhart 等人,1985 年;Hopfield,1988 年),但隨著計算能力的進步,許多技術已迅速發展(LeCun 等人,1998 年;Hassabis 等人,2017 年),它們已經或即將在作戰環境中無處不在。2030 年,它們很可能成為美國空軍武器裝備的核心。從自主無人機到人類可穿戴設備,智能機器及其與人類的接口正在接近徹底改變我國空軍兵力作戰環境的臨界點。我們將這一最新趨勢稱為 人工智能加速。
必須認識到的是,美國不一定在所有相關技術方面都處于領先地位。這是一個重大弱點,也是一個需要克服的差距。我們的對手和盟友都注意到了人工智能加速的趨勢。例如,俄羅斯總統弗拉基米爾-普京曾指出,"誰成為這一領域的領導者,誰就將成為世界的統治者"。(美國有線電視新聞網,2017 年 9 月 2 日)。法國總統埃馬紐埃爾-馬克龍(Emmanuel Macron)承諾法國將進行新的重大投資,"為......人工智能研究提供資金"(Rabesandratana,2018 年)。在中國,人工智能研發得到了精心培育,與此同時,中國對外國企業轉讓科學數據制定了逐步限制性措施(Ding,2018 年)。國家主席習近平說 "我們要加快把中國建設成為先進制造業強國,推動實體經濟同互聯網、大數據、人工智能等先進技術深度融合"。(路透社,2017 年 10 月 18 日)。
為了彌補這一差距,100 多位頂尖的學術界、工業界和政府科學家為這項研究做出了貢獻,強調了'人工智能加速'可能如何塑造 2030 年的美國空軍。這些專家在 2018 年第二季度以 "NSF Ideas Lab "的形式進行了在線討論,其中一部分專家(本報告的作者)還進行了面對面的討論,這種形式由 Knowinnovation(KI)促成,該組織在通過面對面和虛擬互動促進創新和跨學科科學進步方面擁有豐富的經驗。
本報告整合了這些跨學科互動中產生的想法,并以美國空軍及其作戰人員為背景,重點關注三個關鍵領域:機器、人機和人類。下面我們將對這些術語進行操作性定義,并在圖 1(第 16 頁)中加以說明。
圖 1:各層次人機交互示意圖(報告的概念性組織結構)
顯然,我們需要開發能夠自主運行、降低風險、與人類并肩作戰,并能在空中和太空極端環境中長期運行的機器和算法。機器將取代并在某些情況下改變現有的能力。為了應對快速發展、高度動態的賽博空間可能帶來的范式轉變破壞,美國空軍需要采取積極主動的姿態,包括在政府和私營部門研究投資的基礎上,不斷螺旋式發展新系統。專家們一致認為,變化不會沿著現有的趨勢線發生。賽博空間正在迅速發展,因此高度動態的環境和快速變化很可能會打破人們的預期。專家們一致認為,關鍵是要投資研究,開發適應性強、靈活、穩健、使用安全和不受威脅的系統,并評估哪些系統對于在美國采購至關重要。
在 2030 年的地平線上,美國空軍在人工智能加速組織結構突變的精心領導下,有可能實現人機協同的變革性增強,從而大幅提高作戰人員的認知和協作能力,包括但不限于態勢感知、決策速度、作戰和組織靈活性。這將包括盡早采用先進的人機和腦機接口;普遍集成可穿戴、微型和納米電子傳感器,用于生理、心理和神經監測、反饋和閉環實時干預,這些傳感器將與特定機器或更廣泛的指揮系統相連接,在極端環境中尤為寶貴; 人類與信息或機器人機器之間的團隊合作一體化;創建映射網絡空間的虛擬世界,允許人類以空間和信息直觀的方式進行部署;以及與專家數字助理、云連接信息系統的日常互動,這些系統具有自然語言處理能力,大大縮短了人類與他們業務所需信息之間的距離。在這些主題中,大家對人機協作的幾大主題達成了共識。
I) 人機融合提高個人績效:這一領域提出了提高人類績效的新興技術,包括認知、行為和健康。
II) 人機協同:這一領域指出了人機混合團隊協同工作的新興模式。
III) 對人機協作性能的全系統監控:這一領域強調了對這些新技術進行仔細、持續和動態監督的重要性。
專家組一致認為,人類特工是美國空軍所有任務領域取得成功不可或缺的組成部分。到 2030 年,在美國空軍的所有行動中,從后勤到維護或控制作戰機器,人類都將理所當然地與人工智能互動。此外,將有大量空軍兵力人員在神經技術進步帶來的增強認知模式下履行職責。人工智能的加速發展無疑將塑造未來的勞動力隊伍。鑒于作戰環境的快速演變,專家組重點關注的是,2030 年所需要的軍官屬性可能與 20 世紀所看重的屬性大不相同。
大家一致認為,必須建立對如何在開發和采用人工智能加速技術方面培訓和培養當前和下一代空軍兵力的認識。這需要系統層面的整合,以及現役人員與研發和采購界之間的互動。例如,通過讓現役人員參與人工智能系統的設計,可以在一定程度上實現有效采用。空軍人員應征入伍后,必須接受相關技能培訓,以應對未來美國兵力的挑戰。因此,了解如何在人工智能滲透的作戰環境中提高和保持人的性能,如耐力、巔峰認知、保持任務狀態等,對于為 2030 年的作戰做好準備至關重要。
該小組確定了許多貫穿各領域的關鍵問題。這些問題包括美國空軍面臨的戰略突襲、道德、法律、社會和能源挑戰。就戰略出其不意而言,本報告的挑戰范圍僅限于可以預見到對手會出現的人工智能技術進步。在倫理、法律和社會問題方面,人們明確認識到,美國空軍自愿采取的限制措施很可能不會成為其他國家的限制。最后,大家一致認為,能源供應和 "質量 "可能是人工智能進步的一個重大制約因素,特別是在美國空軍必須在動態和偏遠環境中工作的情況下。
美國空軍應與其他聯邦科學機構(如國家科學基金會)以及美國國防部和情報部門的其他部門協調其在人工智能加速領域的研發投資。
美國空軍應在全球范圍內掃描研發投資,以深入了解可能代表未來作戰挑戰的外國政府計劃和能力。
美國空軍應組織一個由來自學術界和工業界的頂尖研究人員組成的人工智能加速咨詢委員會,隨著科學基礎各學科的不斷進步,為美國空軍領導層提供信息和建議。
美國空軍應通過構建平臺技術、數據架構、算法和集成能力,為解決方案搭建支架,為人工智能應用奠定基礎。
美國空軍應設立執行數據架構師職位,以監督人工智能的整合,以及從設備到后勤和人力資產的集中信息資源的收集和安全化。
人工智能加速將塑造美國空軍(USAF)2030 年的戰備態勢。專家組達成的共識是,空軍應加快開發和采購計算與神經技術方面的系統系列,從而在整個相關作戰環境中實現指揮、控制、通信、計算機和情報(C4I)方面的巨大進步。這一系列系統分為三個方面: 1)追趕現有的商業技術(采用);2)對最相關的技術突破(如人工智能)進行核心投資;3)對填補前者突出所留下的空白的技術(如量子計算)進行外圍投資。
這樣的未來美國空軍將需要能夠卸載或放大人類性能的機器、人機和人機界面。這不僅包括意圖,還包括對來自傳感器流的反饋做出響應的能力,即使是在高級別作戰環境所產生的極端條件下。整個人工智能生態系統將需要為無人機和代理(包括蜂群)提供真正的自主操作,其操作領域既包括美國空軍熟悉的領域,也包括迄今為止美國空軍從未經歷過的領域。這不僅包括大氣層,還包括 "內部空間"(即網絡領域),更重要的是,甚至包括更高層次的大氣層以及低地軌道和深空。此外,還需要應對這些環境中隨之而來的能源限制。最后,這個系統之系統需要具備足夠的防御能力(也許是生物啟發),以抵御同行競爭對手的退化和攻擊。
美國空軍能否在 2030 年的軍事環境中取得成功,不僅取決于人工智能的加速,還取決于指揮和控制能否靈活應對戰略突襲。這種臨界點可能出現在空間技術領域(如太空電梯),也可能出現在人工智能領域的顛覆性發展。例如,"通用人工智能"(定義為能夠對任何智力任務進行人類水平認知的人工智能)的成功開發和實施掌握在國內同行競爭者手中,將使美國空軍處于明顯的劣勢。這種進步的軍事抵消將取決于美國空軍對技術前景的持續認識--不僅在航空航天領域,而且在認知與計算的交叉領域,因為它適用于人工智能。
在過去十年中,美國空軍發布的幾乎所有愿景、戰略和飛行計劃都將下一代無人駕駛飛機、自主性和人工智能作為確保在未來戰區獲得決定性戰斗優勢的關鍵技術。空軍目前正在開發新的作戰概念,將有人駕駛的戰斗機和轟炸機與自主無人駕駛飛行器(UAV)組成團隊--稱為有人-無人編隊(MUM-T)--以執行打擊、反空、電子戰和其他任務。鑒于作戰人員和工程師之間經常存在的脫節,開發這種能力具有挑戰性。
目前,作戰人員沒有充分理解無人機需要什么樣的自主權和多少自主權來實現預期行為。另一方面,工程師們往往不完全了解如何分解作戰人員的操作性能要求,以使他們能夠快速部署有效的系統。最重要的是,期望的作戰效果和實現這些效果的技術途徑之間的聯系并不明確。因此,與之相關的愿景、戰略、飛行計劃、作戰概念、計劃以及自主飛行器(ATA)的無數研究和開發工作都沒有以一種清晰和一致的方式結合起來。
一個代表作戰人員和工程師觀點的框架將為這兩個群體在創建自主系統時提供一個結構和共同理解。"作戰人員觀點 "代表了作戰人員如何在戰斗空間中組織思維任務,可以整合不同層次的自主性。然后,"工程師觀點 "可以利用這些任務來開發必要的具體算法、技術和系統,以提供滿足作戰人員需求和期望的自主團隊飛機。本文提出了一個框架,以幫助空軍作戰人員、戰略家和政策制定者更好地理解自主技術,并幫助指導企業走向未來人工智能賦能的美國行動。
圖1. 一個由兩部分組成的框架概述,以提高作戰人員對自主性的理解,并將他們的要求傳達給開發和采購部門。
擬議的自主性框架中的 "作戰人員觀點 "有三個主要類別,每個類別又被細分為五個自主性級別。核心類、任務類和團隊類反映了飛行員的認知任務,旨在為作戰人員提供直觀的信息,幫助他們表達對自主系統應如何執行的要求。核心自主性類別包括飛行控制輸入和導航功能,這是飛機在沒有人類直接控制的情況下飛行所必需的。任務類包括完成與任務有關的任務所必需的功能,如管理傳感器操作、向目標釋放武器和執行其他戰術。協作類包括自主無人機與其他飛機(包括有人和無人)進行協作行動所必需的功能和特點。這三大類中的每一類又被細分為五個自主等級。第1級代表在執行任務時幾乎沒有自動化,第5級包括無人機完全自主執行的行動。
該框架的第二部分是工程師觀點。工程師視圖代表了作戰人員視圖的功能分解,將定義的類別和級別分解為功能、技術和數據。這種清晰的重點使工程師能夠將他們的開發工作與所需的車輛屬性和行為進行映射和優先排序。作戰人員關注的是宏觀層面的任務執行、操作行為和人類在行動中的作用,而工程師關注的是建立一個滿足作戰人員需求的自主系統所必需的基本功能、硬件、軟件和數據。換句話說,工程師觀點使航空航天工程師和技術專家能夠將作戰人員的要求解構為基礎技術和基本的自主要素。
這兩種觀點共同充當了作戰人員和工程師之間的連接組織和翻譯。值得注意的是,這個框架并不打算成為一個規范或標準。這類似于SAE的自動駕駛框架,它說該框架的預期目標是 "描述性和信息性,而不是規范性"。本著這一精神,擬議的雙視角自動駕駛框架的主要目的是使作戰人員和航空航天工程師能夠以結構化和一致的方式明確溝通和交流自主無人駕駛飛機的想法和要求。
圖6.作戰人員觀點:自主性類別和等級在作戰人員視圖中一起使用,形成一個描述無人駕駛飛機的操作行為和屬性的評分標準。
圖8. 工程師視圖從作戰人員視圖中獲取每個自主性類別所需的自主性水平,并提供一種結構化的方式,將自主性能力分解為必要的功能、技術和數據。在這個例子中,作戰人員視圖為核心飛行和導航類別分配了4級自主權,同時為任務分配了2級,為團隊分配了1級。
本報告重點討論與人工智能系統可能缺乏可預測性而導致的有關風險--被稱為可預測性問題--及其對國家安全領域人工智能系統治理的影響。人工智能系統的可預測性表明人們可以在多大程度上回答這個問題:人工智能系統會做什么?可預測性問題既可以指人工智能系統的正確結果,也可以指不正確的結果,因為問題不在于這些結果是否符合系統工作的邏輯,而是在部署時是否有可能預見到這些結果。
人們越來越擔心,使用不可預測的人工智能系統為高風險決策提供信息可能會導致災難性的后果,這將破壞公眾對部署這些系統的組織的信任,并可能侵蝕政府的聲譽。在國家安全領域,人工智能的使用引入了一個新的不確定性來源,可能會阻礙風險管理程序,并可能使責任鏈變得混亂。在這個領域,可預測性問題的影響可能導致關鍵基礎設施的安全風險、個人權利和福祉的風險、沖突升級或外交影響。
在本報告中,我們首先從技術和社會技術的角度分析了可預測性問題,然后集中討論了英國、歐盟和美國的相關政策,考慮它們是否以及如何解決這個問題。從技術角度來看,我們認為,鑒于人工智能系統的設計、開發和部署的多層面過程,不可能考慮到所有的錯誤來源或可能產生的新行為。此外,即使在理想的情況下,在設計或開發階段沒有錯誤可以假設或檢測,一旦部署了人工智能系統,仍然可能發展出形式上正確的(但不想要的)結果,這在部署時是無法預見的。
我們通過關注人機編隊(HMT-AI)來分析可預測性問題的社會技術影響。人機編隊代表了一種越來越普遍的人工智能系統部署模式。在HMT-AI中,人類咨詢、協調、依賴、發展并與人工智能代理交換任務。由于HMT-AI結合了人類和人工的自主性,它們通過增加人工和人類代理及其環境之間的互動的數量和類型而加劇了可預測性問題。在這種情況下,我們發現可預測性問題的三個主要來源:人機交互、人員培訓和(過度)信任。人機交互可能會助長不可預測的結果,因為它們可以掩蓋、扭曲或過分詳細地描述人工智能系統的工作原理,而培訓計劃可能沒有考慮到人工智能技術的學習能力和HMT-AI的長期慣例建設。同樣,在HMTAI中,人類代理人不加批判地接受AI系統的結果,這種過度信任的動態也可能導致無法預測的結果。
在確定了可預測性問題的一些根本原因之后,我們分析了英國、歐盟和美國的政策,以評估這些原因是否在相關的政策文件中被涵蓋,如果是的話,如何以及在何種程度上被涵蓋。我們確定了四個主要主題和一個缺口。它們是:控制、監督和價值調整;資源提升的方法;可信賴人工智能的發展;以及缺乏對風險管理措施的關注,以遏制可預測性問題的影響。
我們的政策分析包括八個建議,以減輕與可預測性問題有關的風險。關鍵的建議是將治理方法集中在HMTAI上,而不僅僅是AI系統,并將可預測性問題概念化為多維度的,解決方案集中在HMT-AI組成的共同標準和準則上。在這些標準和準則中,可信人工智能的要求是特別相關的,應該與評估人工智能系統的可預測性的標準和認證計劃以及審計HMT-AI的程序結合起來。支持在國家安全中使用HMT-AI的決定的成本效益分析和影響評估應該考慮到可預測性問題及其對人權、民主價值的潛在影響,以及意外后果的風險。為了確保在部署潛在的不可預測的人工智能系統時進行充分的風險管理,我們建議調整ALARP原則--在合理可行的情況下盡量降低--作為制定HMT-AI中可預測性問題的人工智能特定風險評估框架的基礎。
擬議的基于ALARP的框架將提供有用的實際指導,但僅僅是這樣還不足以識別和減輕可預測性問題所帶來的風險。需要額外的政策、指導和培訓來充分考慮人工智能可預測性問題帶來的風險。人工智能系統支持的決策的影響越大,設計、開發和使用該系統的人的謹慎責任就越大,可接受的風險門檻也越低。這些分析和建議應該被理解為可操作的見解和實用的建議,以支持相關的利益相關者在國家安全背景下促進社會可接受的和道德上合理的人工智能的使用。
建議1. 政府應撥出研究經費,發展公私合作,對HMT-AI進行縱向研究。這項研究應側重于HMT-AI中的新舊決策模式,以評估編隊協議建設和培訓對績效和控制措施的影響。重點應放在為HMT-AI的具體動態定義新的培訓協議,以及加快風險管理標準和HMT-AI績效評估的發展。
建議2. 應該建立一個專門的HMT-AI認證計劃,以促進行業對為HMT-AI設計的AI系統的設計要求和評估的共識。任務之間的通用性、有效的溝通、性能的一致性以及對新隊友的適應性都應該包括在這樣一個認證計劃中。在開發不足的ISO標準的基礎上,這個認證計劃還應該擴展到過程的可追溯性和決策的問責制,以及評估HMT-AI信任程度的審計機制。這對于抑制HMT-AI中的過度信任和自滿態度是必要的,這種態度維持或擴大了可預測性問題。
建議3. 對國家安全領域的可預測性問題的政策反應應該側重于管理HMT-AI團隊,而不是單獨的AI系統。
建議4. 國家安全領域的HMT-AI的成本效益分析(CBA)應該包括對AI系統的可預測性以及技術和操作層面的相關道德風險的評估。為了促進各安全機構之間的一致評估,應該定義一個評估人工智能系統可預測性的標準量表,在這個量表上,使用(或不使用)人工智能的選擇應該根據上下文的CBA以及考慮公眾對風險和相關利益的態度來證明。這個尺度的定義應屬于獨立的第三方行為者的職權范圍,即與部署HMT-AI的公共機構不同。
建議5. 與其說是 "更多 "或 "更少 "的可預測性,政策建議應側重于可預測性的權衡,明確具體建議旨在解決可預測性問題的哪個方面,以何種方式解決,以及它們有可能加劇哪些方面,哪些緩解措施將被落實到位。政策應該認識到,可預測性是一個多維度的概念,在一個層面上可預測性的收益可能會以另一個層面的損失為代價。
建議6. 關于國家安全中人工智能可預測性問題的政策應該在正式和操作層面上解決可信度和不可預測性之間的聯系。例如,應該給人工智能系統一個可修正的可預測性分數,這應該包括在對系統的可信任度的評估中。人工智能系統的可信賴性應包括成本效益分析,以評估不想要的行為在不同部署背景下可能帶來的風險。
建議7. 應該為不可預測的人工智能建立風險閾值,這些閾值將圍繞不可預測行為的風險嚴重程度映射到其自身的可預測程度(例如,劃分為已知的已知因素、已知的未知因素等)。這些閾值反過來將為風險管理過程的發展提供信息,允許根據風險的可預測性及其影響對其進行優先排序。
建議8. 應該制定一個基于ALARP的框架,以評估不可預測的人工智能和HMT-AI的風險,并為任何給定的環境確定可接受的最大程度的不可預測性。這個框架應該包括:
"可預測性 "和 "可理解性 "被廣泛認為是人工智能系統的重要品質。簡單地說:這種系統應該做他們被期望做的事情,而且他們必須以可理解的理由這樣做。這一觀點代表了關于致命性自主武器系統(LAWS)和其他形式軍事人工智能領域新興技術辯論的許多不同方面的一個重要共同點。正如不受限制地使用一個完全不可預測的致命性自主武器系統,其行為方式完全無法理解,可能會被普遍認為是不謹慎的和非法的,而使用一個完全可預測和可理解的自主武器系統--如果存在這樣的系統--可能不會引起許多核心的監管問題,這些問題是目前辯論的基礎。
這表明,最終為解決致命性自主武器系統和其他形式的人工智能在軍事應用中的使用而采取的任何途徑,都必須考慮到有時被稱為人工智能的 "黑盒困境"。事實上,遵守現有的國際人道主義法(IHL),更不用說假設的新法律,甚至可能取決于具體的措施,以確保致命性自主武器系統和其他軍事人工智能系統做他們期望做的事情,并以可理解的理由這樣做。然而,在關于致命性自主武器系統和軍事人工智能的討論中,可預測性和可理解性尚未得到與如此重要和復雜的問題相稱的那種詳細介紹。這導致了對人工智能可預測性和可理解性的技術基礎的混淆,它們如何以及為什么重要,以及可能解決黑匣子困境的潛在途徑。
本報告試圖通過提供有關這一主題的共同知識基線來解決這些模糊不清的問題。第1節和第2節解釋了說一個智能系統是 "可預測的 "和 "可理解的"(或者相反,是 "不可預測的 "和 "不可理解的")的確切含義,并說明有各種類型的可理解性和可預測性,它們在重要方面有所不同。第3節描述了可預測性和可理解性將成為致命性自主武器系統和其他軍事人工智能在其開發、部署和使用后評估的每個階段的必要特征的具體實際原因。第4節列出了決定每個階段所需的適當水平和類型的可預測性和可理解性的因素。第5節討論了為實現和保證這些水平的可預測性和可理解性可能需要的措施--包括培訓、測試、標準和可解釋人工智能(XAI)技術。結論是為政策利益相關者、軍隊和技術界提出了進一步調查和行動的五個途徑。
人工智能的不可預測性有三種不同的意義:一個系統的技術性能與過去的性能一致或不一致的程度,任何人工智能或自主系統3的具體行動可以(和不能)被預期的程度,以及采用人工智能系統的效果可以被預期的程度。
可預測性是一個系統的技術特征、系統所處的環境和對手的類型以及用戶對它的理解程度的函數。
可理解性是基于一個系統內在的可解釋性以及人類主體的理解能力。一個智能系統可以通過多種方式被 "理解",并不是所有的方式都建立在系統的技術方面或人類的技術素養之上。
可預測性不是可理解性的絕對替代品,反之亦然。高可預測性和高可理解性的結合,可能是安全、謹慎和合規使用復雜的智能或自主軍事系統的唯一最佳條件。
可預測性和可理解性是自主武器和其他形式的軍事人工智能的必要品質,這在其整個開發、使用和評估過程中有著廣泛的原因。
這些系統中可預測性和可理解性的適當水平和類型將因一系列因素而大不相同,包括任務的類型和關鍵性、環境或輸入數據的種類,以及評估或操作系統的利益相關者的類型。
在軍事人工智能系統中實現并確保適當的可預測性和可理解性的潛在方法可能會涉及與培訓、測試和標準有關的工作。建立XAI的技術研究工作也提供了一些希望,但這仍然是一個新的領域。
人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。
人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。
作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。
人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。
在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。
目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。
鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。
如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。
如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。
人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。
C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。
圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。
圖1. 海上人工智能系統的擬議架構
首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。
第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。
第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。
由于傳感器數量和人工智能(AI)應用快速增多,未來的作戰環境將以豐富的信息和機器速度的決策為特征。因此,美國陸軍指揮官和他們參謀人員將需要有能力篩選大量的信息,更快地做出決策。商業人工智能系統有可能提供這種能力,但美國陸軍不能指望"開箱即用"的商業人工智能系統具有通用能力,因為這種系統需要針對美國陸軍的情況進行充分的訓練。此外,還需要進行研究,以了解軍隊中的人工智能目前可以做到什么和不可以做到什么。總的來說,人工智能往往擅長于主要通過模式識別來解決的任務,以及可以從任務數據中進行預測的任務,如圖像識別、醫療診斷和文本轉錄。然而,目前還不知道人工智能是否可以用于提高美國陸軍信息收集效率。因此,在目前的研究中,探討了以下問題:人工智能能否用于提高美國陸軍任務指揮過程中的信息收集效率?
為了回答研究問題,本文使用了一個商業人工智能應用系統,它反映了軍隊任務指揮部人工智能應用原型的首次開發工作。在這項研究工作中,比較了這個為軍隊量身定做的人工智能系統和其他兩種信息收集方法的參與者在信息收集任務中的表現:傳統的信息收集方法(在計算機文件夾中搜索PDF文件)和非軍隊量身定做的人工智能系統版本。軍隊定制的系統使用軍隊相關的知識來幫助搜索(例如,它知道 "MDMP "等同于 "軍事決策過程"),而非軍隊定制的系統則沒有。我們在以下方面比較了這三種搜索方法:1)參與者找到準確的搜索結果所需的時間,2)參與者搜索結果的準確性,3)參與者對其搜索結果的信任程度,4)參與者對使用該系統工作負荷的看法,5)參與者對該系統可用性的看法。
參與者在使用人工智能系統時比使用傳統搜索方法時既不快也不準確。當使用人工智能系統而不是傳統方法時,參與者對他們的搜索結果也沒有更多信任。然而,在使用軍隊定制的人工智能系統而不是非軍隊定制的系統時,參與者的搜索速度更快,但準確性也更低。最后,在不同的搜索方法之間,參與者對工作負荷和可用性的感知沒有明顯的差異。
這項研究是確定人工智能系統對信息收集效率影響的第一步。總的來說,我們的研究結果表明,人工智能系統可能不會大幅提高美國陸軍任務指揮過程中的信息收集效率,至少不會立即提高。雖然這項研究的重點是在受控實驗室中的無關要害任務(即尋找戰術情況下的理論解決方案),但未來計劃的使用將不會那么無害,這表明需要未來研究來測試假設。對人工智能的投資應該伴隨著對培訓和研究的投資,以獲得人工智能的全部優勢并減少風險。假設人工智能系統是銀彈是不審慎的,事實上,這項研究表明人工智能系統需要被充分審查。
戰爭正變得越來越復雜。陸軍指揮官需要考慮在地面、空中和海上的戰斗,以及在信息和網絡環境中的戰斗(美陸軍部,2017)。隨著社交媒體的出現和計算機的日益強大,在這些環境中的行動可能會導致地緣政治損失,而在過去,只有通過更傳統的行動,如地面攻擊、空中打擊和海上轟炸才能實現。此外,美陸軍指揮官不僅應該期待來自其他民族國家部隊的復雜和有影響的打擊,而且還應該期待看起來不復雜的對手,因為網上零售商使人們很容易購買到過去難以獲得的產品(包括合法的和非法的),如無人機、夜視鏡和槍支。在這一切之上,陸軍指揮官需要在一個前所未有的水平上做出準確和及時的決策,因為人工智能(AI)正在許多軍事職能和領域中實施,如網絡戰、航空和信息收集。這些因素加在一起,為陸軍指揮官創造了復雜的作戰環境。
為了在復雜的環境中有效運作,陸軍指揮官及其參謀人員需要有能力從不同的來源收集大量的數據,并迅速處理收集到的信息,以便及時對信息采取行動。例如,如果對手正在準備一次大規模的作戰行動,信息環境、網絡環境和物理環境中新的但微妙的多變量模式可能會出賣對手的意圖。然而,為了及時發現這些模式,陸軍指揮官和他們的參謀人員將需要有能力快速匯總和分析從各個環境傳來的數據。此外,為了根據這些數據迅速采取行動,陸軍指揮官及其參謀人員需要有能力迅速找到相關的陸軍和聯合理論,以實施戰術和戰略,并吸取經驗教訓,以利用曾面臨類似情況的指揮官經驗。對于這兩項任務--檢測模式和根據模式采取行動--人工智能可能被證明是一個非常有用的工具。
正如其名稱所暗示的那樣,人工智能是由機器而非人類或動物等非人工實體所展示的智能。在這種情況下,智能包括通常與人類相關的認知功能,如推理、計劃、學習和感知。因此,人工智能的主要目的是取代或增強人類的某些任務,如駕駛、飛行和圖像識別(例如,自動檢測和識別人群中的面孔)。例如,谷歌和優步等公司目前正在自動駕駛汽車中使用人工智能,人工智能充當了車輛的駕駛員,因此是使自動駕駛汽車自動化的實體。此外,美國陸軍目前正在探索將人工智能用于自動車輛識別。
人工智能主要通過兩種方式實現 "智能化"。一種方式是通過編程使人工智能的軟件接受某些輸入并根據輸入做出某些輸出。例如,視頻游戲中的人工智能競爭者可能被編程為在玩家向右移動(輸入)時向左移動(輸出),或者在玩家攻擊時進行阻擋。這種方法使用簡單的算法--人工智能要遵循的規則--除了最基本的任務外,其他都是低效的,因為人工智能的軟件程序員必須思考并手動編程每個規則。這樣做很快就會變得不方便,因為許多任務需要許多規則和嵌套的規則--其他規則中的規則(例如,如果接近一個讓行標志,如果有另一輛車出現,則要讓行,但只有當另一輛車在附近時)。此外,思考一項任務的每一個可能的規則很快就會變得困難,即使是人類認為很容易的任務(如駕駛)。
使人工智能智能化的更好方法是使用機器學習,這是一個從數據中創建統計模型的過程,以提高預測和決策的準確性。機器學習不是明確地告訴人工智能系統如何應對其環境中的某些事件,而是允許人工智能系統從其環境中的行動中學習。更簡單地說,機器學習允許人工智能系統從經驗中學習。例如,谷歌通過向人工智能系統提供組成游戲顯示屏的像素,并允許人工智能系統通過游戲控制器對這些像素進行操作,從而訓練人工智能系統成功地玩視頻游戲Atari Breakout(Leo Benedictus,2016)。人工智能系統的程序很簡單,就是通過游戲控制器的動作來最大化其游戲分數,并使用游戲分數來確定一個動作是否有益。起初,人工智能系統在游戲中做出看似隨機的行動,但一段時間后,它開始獲得得分點,并最終學會了一種人類玩家從未使用過的有用技巧。
機器學習讓人工智能在日常生活中變得非常普遍,以至于人工智能被一些人認為是 "新電"(Lynch, 2017)。人工智能傾向于擅長那些主要通過模式識別就能解決的任務。因此,人工智能擅長于圖像識別、醫療診斷和轉錄等任務。像駕駛這樣的任務給人工智能帶來了更大的難度,因為目前自動駕駛汽車上的傳感器無法檢測到標記模糊的道路上的模式(例如,被雪覆蓋的道路)。人工智能對于從數據中進行預測是異常有用的。例如,醫生可以使用人工智能來幫助醫療診斷,因為人工智能能夠處理病人的所有數據,將這些數據與已知的醫療條件進行比較,并從比較中產生醫療診斷。人工智能在視覺搜索方面也很有用。一家公司使用人工智能系統搜索航拍圖像,以尋找住宅區內水浪費的證據(Griggs, 2016)。該人工智能系統能夠通過使用游泳池的存在、灌木的數量和大小以及房屋周圍草地的綠色程度等因素,準確判斷一個家庭是否在浪費水。該人工智能系統能夠以每秒208張航空圖像的速度完成這項任務。
信息收集是人工智能具有潛力的另一項任務。信息收集是指從一個來源,如文件庫或互聯網上提取所需信息的過程。通過使用自然語言處理--人工智能的一個分支,用于處理自然語言數據--人工智能可以從非結構化數據中提取信息,而非結構化數據占世界數據的80%(High, 2012)。與結構化數據不同,結構化數據是以預先定義的方式組織的,包括電子表格和日志,非結構化數據不是以預先定義的方式組織的。非結構化數據包括文本文件、照片、視頻和音頻記錄。人工智能可以用來從非結構化數據中提取相關信息和意義,并以各種方式利用這些信息和意義。例如,美國陸軍和美國空軍正在探索使用人工智能,從車輛維護和車載系統日志中預測車輛故障(Osborn,2017;Vincent,2018)。此外,未來的人工智能任務指揮系統可能會不斷挖掘從眾多來源流入的數據,包括社交媒體、新聞頻道和衛星數據,并使用這些數據來預測戰略競爭對手的行動。這種方法將通過利用過去的非結構化數據(維護日志、社交媒體帖子等),并確定這些數據的哪些特征可以預測車輛故障和競爭者的行動。例如,人工智能系統可能會發現車輛運行溫度和車輛故障之間的關系,并利用這種關系來預測未來的故障。像這樣的關系將形成一個數學模型,當新的數據出現時,人工智能系統將持續更新。
通過使用自然語言處理,人工智能也可能有助于從陸軍條令和經驗教訓中提取所需信息。陸軍有許多條令出版物,指揮官和他們的工作人員經常需要在一個以上的出版物中尋找信息。例如,如果計劃進行一次接觸行動,指揮官可能不僅需要參考作戰條令,還需要參考與指揮官所在梯隊相關的條令;如果指揮官的部隊要通過一個人口中心,還需要參考民政條令;如果指揮官要使用網絡能力,還需要參考網絡戰條令。此外,指揮官可能還需要快速找到相關條令,特別是在面臨對手的意外行動時。在計劃一項行動時,指揮官也可能會查閱陸軍的經驗教訓集,以利用過去進行過類似行動的指揮官的經驗。
也許有可能使用人工智能來幫助指揮官及其參謀人員在條令和經驗教訓中找到所需的信息。要做到這一點,必須采取一些步驟。首先,必須為人工智能系統建立一個語料庫,將條令和經驗教訓的出版物加載到人工智能系統中。從這個語料庫中,人工智能系統可以學習相關的語言,包括術語,并使用自然語言處理建立一個詞庫。然后,人工智能系統可以通過建立索引和元數據對數據進行預處理,使其更有效地處理數據。最后,人類主題專家必須訓練人工智能系統,以使人工智能系統提供更精確的答案和識別模式。訓練可以通過向人工智能系統上傳問題和答案對形式的訓練數據來完成。這種訓練數據不會為人工智能系統提供每個可能問題的答案,但這些數據將幫助人工智能系統學習相關領域的語言模式。一旦人工智能系統被部署,該系統可以通過與用戶的持續互動進一步學習。
通過使用上述方法創建人工智能系統,指揮官及其參謀人員可能會比沒有人工智能系統可供使用時更快、更準確地從條令和經驗教訓中收集所需信息。如果沒有人工智能系統,指揮官將不得不通過手動搜索每個可能與所需信息有關的條令或經驗教訓出版物來尋找所需信息。這種手工搜索是一個耗時的過程,可能不會產生最佳的信息產品,特別是當進行搜索的人有時間壓力的時候。事實上,人類經常會搜索信息,直到達到一個可接受的閾值(例如,做出決定所需的最小信息量),以避免花費太多的認知資源和精力去尋找一個完美的結果(Simon, 1955; 1956; 1957)。然而,通過使用這種方法,人類可能會產生不那么充分的結果。此外,Simon還觀察到,這種方法不太可能產生一個最佳的結果,因為人類通常不會搜索足夠長的時間來找到這樣一個結果。然而,試圖找到最佳結果可能并不理想,因為這樣做需要時間,而當找到最佳結果時,結果可能已經不再有用。因此,如果指揮官試圖找到一個最佳的結果,指揮官可能無法進入對手的決策周期;指揮官需要平衡尋找結果的時間和結果的質量。另一方面,人工智能信息收集系統可能更有可能找到最佳結果,而且人工智能系統可能更有可能在比人類花費更少的時間內找到最佳結果。
盡管在人類信息處理能力有限的情況下,人工智能系統在尋找條令和經驗教訓中的所需信息方面可能比人類更有效率(Baddeley,1992),但這一結果是以人工智能系統經過充分訓練以識別條令和經驗教訓出版物中的語言模式為前提。如果人工智能系統沒有經過充分的訓練,那么人工智能系統的使用者可能會發現次優的結果,并因此對人工智能系統感到失望,最終使人工智能系統被廢棄。此外,人工智能系統只有在人工智能系統的人類用戶適當地校準他們對系統的信任時才會有用(Hancock等人,2011;de Visser, Pak, & Shaw, 2018)。許多人工智能系統由于各種原因,包括環境背景、用戶錯誤和不同背景下的訓練不一致,導致其性能不一致(Rovira, McGarry, Parasuraman, 2007)。例如,一個人工智能系統產生與火力作戰功能相關的準確結果,與機動作戰功能相比,可能產生不太準確的結果。如果人工智能系統的人類用戶完全信任該系統的結果,可能會出現性能下降(Hancock等人,2011)。訓練人類用戶了解人工智能系統何時可能準確,何時不可能準確是至關重要的(de Visser, Pak, & Shaw, 2018)。相反,如果人工智能系統的人類用戶對人工智能系統缺乏信任,那么該系統很可能會被廢棄。因此,人工智能系統不會提高指揮官尋找信息的效率,即使該系統本身在這方面表現出色(Hancock等人,2011)。
盡管人工智能往往擅長于主要用模式識別來解決的任務,以及可以從任務數據中進行預測的任務,如圖像識別、醫療診斷和轉錄,但目前還不知道人工智能是否可以用于提高美國陸軍背景下的信息收集效率,特別是在陸軍指揮官及其參謀人員需要在陸軍條令中尋找信息的背景下。因此,在目前的研究中,我們探討了以下問題:人工智能能否用于提高美國陸軍任務指揮過程中的信息收集效率?為了回答這個問題,我們使用了一個商業人工智能應用系統,這反映了陸軍任務指揮部人工智能應用原型的首次開發工作。在這項研究工作中,我們比較了這個為陸軍量身定做的人工智能系統和其他兩種信息收集方法的參與者在信息收集任務上的表現:一種傳統的信息收集方法(在計算機文件夾中搜索PDF文件),以及一種非陸軍量身定做的人工智能系統。