亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

自主性和人工智能將通過有限的應用逐步改變戰爭,因為完全自主瞄準面臨障礙,因此有必要就自主系統的規則進行細致的國際談判,而不是拒絕該技術。

自主(autonomy)和自治(autonomous)如今已成為熱門詞匯,被用來描述軍事(以及民用)領域對人工智能(AI)功能、流程和系統日益增長的利用。俄羅斯入侵烏克蘭以及隨之而來的高強度沖突為大量新技術和舊技術的創新使用提供了試驗平臺,從人工智能驅動的語音識別和態勢感知軟件到無處不在的商用無人機,再到商用衛星通信和圖像以及 3D 打印組件的大規模使用,不一而足。

高機動性、可攜帶爆炸物的第一人稱視角(FPV)無人機或利用計算機視覺鎖定目標并將其摧毀的徘徊彈藥的圖像已成為頭條新聞,并引發了對戰爭中自主革命黎明到來的焦慮,即殺手機器人將主宰戰場并顛覆國際秩序。

雖然沒有人能真正否認人工智能對戰爭及其未來演變的結構性影響,但當前關于自主性的辯論卻往往使人們對其實際軍事影響產生了扭曲和不準確的認識,這反過來又產生了一種不可調和的二元方法,其典型特征是要么完全拒絕、要么崇拜自主武器系統(AWS)。因此,任何有關為軍事目的使用和管理自主性的政策決定和機制都有可能對利用該技術和防止其濫用無效,甚至有害。

這種不一致做法背后的一個關鍵原因是缺乏對自主真正含義的理解,例如經常混淆自主武器系統和自動武器系統。自動武器系統具有不同程度的自動化,可對選定類別的目標執行特定和有序的功能,而且無論如何都不能偏離其預定目的。因此,它們的行為是確定的,或者簡單地說,是可預測的。例如,不同類型的地雷和裝有空爆近炸引信的炮彈一旦被激活,就會在沒有人為控制的情況下工作。

更廣泛地說,傳統的尋的彈藥就屬于這一類,并且已經服役多年。例如,烏克蘭使用的 AGM-88 型反輻射導彈就是通過被動雷達尋的器自動探測敵方無線電發射源(通常是雷達站或防空系統)并將其鎖定。重要的是,這些武器的設計目的是打擊非常具體和預先確定的目標,不能偏離其最初的指令序列。

相反,預警機的特點是能夠感知和適應作戰環境。這意味著它們可以根據計算機程序與外部環境交互產生的行為自主調整行動路線,為給定的輸入產生一系列不同的輸出。這種能力來源于車載人工智能計算和傳感器,可以達到不同的熟練程度,取決于算法的復雜程度、系統設計的權衡、任務的復雜程度和環境。

一般來說,有一些系統具有有限的自主能力,無需人工干預就能探測、跟蹤、提示和攻擊目標,不過它們的使用對象是特定的目標集,而且通常僅限于雜亂無章的環境,因此產生的行為在很大程度上是可預測的。此外,人類操作員可以修改武器的管理規則,或在出現潛在風險時激活/編碼任務中止選項。因此,在瞄準過程中,人類仍處于決策循環之中。防空系統、巡航導彈、閑逛彈藥或其他配備各種傳感器和機載數據處理能力的平臺就是最常見的例子。

然而,集成了更先進的機器學習功能后,自主系統可以自主學習和決策,包括選擇目標,并根據從環境中接收到的輸入不斷更新可用的輸出范圍。因此,它們的行為是非確定性的,可能無法預測。不過,目前還沒有證據表明戰場上使用了 "自我學習 "的完全自主武器系統。

以色列制造的 "哈比 "反輻射閑逛彈藥可在特定區域上空盤旋長達 9 個小時,以尋找雷達發射目標,并在無人監督的情況下自主攻擊這些目標。然而,雖然 "哈比 "的所有運作階段確實都是自動化的,但該系統無法學習和改變其任務規則和輸出,因為它只能選擇和攻擊由人類操作員預先選定的特定保持區域和無線電頻率范圍內的目標。因此,"哈比 "的行為在本質上仍然是可預測的,因為其任務參數和管理規則是由人類定義的,盡管仍然可能存在附帶損害的風險。

在最近關于致命預警系統的辯論中經常提到的另一個例子是土耳其的 "卡古-2 "戰術旋轉翼閑逛彈藥,根據聯合國的一份報告,在利比亞軍閥哈利法-哈夫塔爾于 2020 年圍攻的黎波里失敗期間,該彈藥可能被用于自主瞄準隸屬于他的部隊。然而,聯合國專家小組無法提供任何證據來證實自主模式的說法,而 "卡古 "的制造商土耳其 STM 公司后來明確指出,該系統使用人工智能計算機視覺來識別和跟蹤目標,但需要人類操作員與目標交戰。在最近的一次私下討論中,一位直接參與 "卡古 "研發的工程師向本文作者證實,該系統的程序設計并不能在沒有人類監督的情況下攻擊目標。

越來越多的武器系統--從無人機系統到巡航彈藥、防空系統到無人地面車輛和其他系統--使用機載計算機視覺和其他人工智能功能來自動化和加速流程,而人類的自然能力對于當前(和未來)軍事行動中不斷加快的決策節奏和激增的數據量來說,顯得過于緩慢或有限。然而,這些能力并不會使武器系統默認為完全自主。相反,它們優化了特定的子過程和任務(如導航、目標識別、態勢感知等),以解決人類疲勞問題,減輕人類操作員的認知負擔。除此以外,自主化通常還旨在通過限制參與行動的士兵和機組人員數量來降低人員風險。

瞄準和交戰循環是其中的一項任務,但它很可能仍將局限于為特定目標集或任務而設計的平臺,因為在這些平臺上有大量可靠的訓練數據,軍事目標和民用目標之間的區別比較簡單,附帶損害的風險有限。這些任務包括壓制敵方防空系統(SEAD)、空對空交戰、戰術射程內分層精確射擊或打擊敵方第二梯隊等。飛機系統(如無人機系統、閑散彈藥)是主要的自然候選者,但我們很可能會看到自主地面系統的瞄準任務,作為其在某些戰術交戰中火力支援作用的一部分。

與此同時,有些任務將發生重大的、結構性的自主化轉變。例如,通過高保真傳感器進行情報收集、監視和偵察、替身電子戰、誘餌、通信節點和補給。在這些領域,最有希望取得成果的還是使用具有蜂群能力的網絡化和多樣化的自主飛機,不過預計在海上和陸地領域也會取得進展。

因此,AWS 對戰爭的預期變革影響將比通常設想的要緩慢和零散,因為自主性主要是作為一種促進因素,其集成通常僅限于子系統或特定功能,而不是整個軍事企業。有幾個原因需要考慮。

首先,物理學仍然重要。AWS 依靠邊緣的大量計算能力和工作存儲器,通常需要更高的電池容量,特別是在長距離應用中。這就意味著要在尺寸、航程、速度、續航時間、有效載荷以及最終的成本之間進行明顯的權衡,在可預見的未來不可避免地會對作戰產生影響。例如,抗干擾超寬帶連接技術的使用可以降低能耗,但卻有固有的范圍限制。就機載系統而言,使用自主 "母艦 "從中間集結區釋放托盤化的彈群和空射效應,有助于擴大彈群和空射效應的作戰范圍,但這些大型母艦雖然前景廣闊,但仍容易遭到敵方攔截和反制,很難成為唯一的解決方案。

其次,即使技術已經成熟,但如果不將其適當融入強大的作戰概念(CONEMPs)和行動概念(CONOPs),AWS 也只能為作戰人員提供微不足道的優勢。然而,CONEMPs 和 CONOPs 的建立并非一朝一夕之事,在北約等多國環境中,由于互操作性問題、異質能力和培訓、人機界面挑戰以及國家層面對 AWS 的不同處理方法,CONEMPs 和 CONOPs 的建立變得更具挑戰性。此外,每個軍事部門都可能以自己的方式看待自主性,這就進一步增加了復雜性。

正如烏克蘭戰爭所表明的,新技術的有效整合與技術本身同樣重要。

第三,如果不仔細權衡意外升級的風險和可能帶來的災難性代價,就認為各國有意愿(和興趣)部署完全自主的武器系統(即自學平臺),至少可以說是草率的。

在此背景下,有必要提出一些警告。

顯然,上述對 AWS 的漸進和不定期采用并不能排除與這些平臺相關的危險,從道德和法律考慮到附帶損害問題。然而,似乎可以公平地說,它們可能被限制用于直接與目標交戰的目的,這在一定程度上減輕了這些風險,削弱了支持徹底禁止預警系統的一些論點。

遺憾的是,缺乏國際公認的自主定義是準確評估預警系統影響和規范其使用的一大障礙。人工智能發展的不穩定性,以及它對 "有意義的人類控制 "的概念和實用性的影響,進一步加劇了這一問題。如果 AWS 依賴于操作員可以獲得的相同信息、參數和嚴格的交戰規則,那么 "人類脫離環路 "本身并不一定是個問題,前提是它不能推翻這些信息、參數和規則。正如專家 Jovana Davidovic 所說,"任何道德上的差異都源于經驗事實,即什么方法(在安全和避免附帶損害方面)更有效,而不是操作員與最終決定的距離有多遠"。

在另一篇發人深省的文章中,學者 Andree-Anne Melancon 認為,"發展自動化武器的更根本問題不在于技術或人工智能。相反,問題源于選擇目標的方式"。或許,這場辯論首先應該討論的是自主系統編程的基本流程和規則(如目標識別等),而不是技術本身。

與此同時,關于在完美計劃和實施的行動中無縫使用和利用自主系統和人工智能的描述將被現實證明是錯誤的。人工智能可以幫助人們看穿戰爭迷霧,但不會徹底消除迷霧。例如,目前最好的物體檢測模型在最流行的基準測試中平均精度僅為 65%。雖然這些表述的首要目標是營銷,但由此產生的對人工智能優點的偏愛和對其局限性的忽視,都可能不利于就 AWS 問題展開建設性的、平衡的辯論。但是,基于可怕或不準確的觀點而對 AWS(或其他人工智能軍事應用)嗤之以鼻的評估也于事無補。

聯合國大會最近通過了有史以來第一份關于 AWS 的決議,這表明各國確實認為有必要采取行動規范 AWS,并應鼓勵人們對這項技術采取不那么軍國主義、但也更加清醒的態度。

作者:

費德里科-博薩里是歐洲政策分析中心(CEPA)跨大西洋防務與安全項目的萊昂納多研究員。他還是北約 2030全球研究員和歐洲對外關系委員會 (ECFR) 的訪問學者。他的主要研究興趣包括安全與國防動態、跨大西洋安全關系以及新技術對戰爭的影響。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

隨著人工智能的不斷進步,像 ChatGPT 這樣的大型語言模型有可能徹底改變國防采購和合同簽訂的方式。由于語言模型能夠生成類似人類的文本,因此可以自動完成采購中的許多重復而耗時的任務,如文件準備、研究和溝通。與任何新技術一樣,國防工業采用大型語言模型也存在相關風險。這些風險包括潛在的安全漏洞、決策偏差和意外后果。在本文中,我們將探討在國防采購和合同簽訂中使用 ChatGPT 等高級語言模型所帶來的機遇和風險。

ChatGPT 是一種人工智能語言模型,是一種根據用戶輸入生成文本的計算機程序。雖然有許多語言模型,但 ChatGPT 因其能夠準確生成類似人類的文本而在最近受到最多關注。ChatGPT 由 OpenAI 開發,OpenAI 是一家致力于創建和推廣友好人工智能的研究機構。OpenAI 使用一種名為 "從人類反饋中強化學習 "的人工智能技術對模型進行了訓練。訓練過程包括向計算機程序輸入大量數據,然后向程序提供反饋和調整,以提高其性能。據估計,ChatGPT 在超過 3000 億字的大量文本上進行了訓練。

ChatGPT 能夠理解并生成連貫、有意義的文本,這使它成為一款廣受歡迎的工具,在 2022 年 11 月發布后的短短一周內就吸引了 100 多萬用戶。據估計,到今年 1 月,它的月活躍用戶已達 1 億,成為歷史上增長最快的消費者應用程序。

大多數用戶通過網絡瀏覽器上簡單自由的文本提示訪問 ChatGPT,而微軟等公司已經開始將人工智能集成到其軟件服務中。微軟最近宣布對 OpenAI 進行為期多年、價值數十億美元的投資,并將在必應搜索引擎和 Microsoft Teams 等消費者和企業產品中部署 ChatGPT 模型。這項投資估計價值超過 100 億美元,凸顯了對高級語言模型日益增長的需求。

高級語言模型的工作原理

像 ChatGPT 這樣的高級語言模型是利用復雜的人工智能計算機編程技術開發出來的。開發人員將大量文本數據輸入計算機程序,由程序對信息進行分析和處理。數據來源多種多樣,如書籍、文章和網頁。計算機程序的輸出是另一種稱為語言模型的計算機程序,它能夠理解和生成人類文本。

然后,數據科學家和工程師團隊通過一個稱為訓練和微調的過程對模型進行調整。他們會調整數據和模型用于計算的參數,使其能夠對新的文本數據做出越來越準確的預測或決策。他們會重復這個過程數百萬次,直到它能高概率地準確預測下一個單詞。一旦模型經過訓練和微調,就可以用來執行各種語言任務。例如,它可用于生成連貫、逼真的文本,回答問題,以及總結大量文本。

機遇和用例

雖然 ChatGPT 目前在語言模型領域處于行業領先地位,但其他公司也在迎頭趕上。在不久的將來,我們將有更多機會接觸到這些語言模型,并與許多我們已經熟悉的軟件工具進行更多整合。隨著語言模型變得越來越先進,它們也將可以根據特定的風格、流派和領域(如國防部的采購)進行定制。有人猜測,語言模型將成為 "寫作的計算器"。他們預測,就像我們今天依靠計算器完成大部分數學計算一樣,未來我們也將依靠語言模型完成大部分寫作。

作者最近調查了一組采購官員,以收集他們對如何在國防采購中使用語言模型的看法。事實證明,他們的反饋很有參考價值,分享了一些值得注意的見解。例如,一些人表示有興趣將人工智能或 ChatGPT 整合到合同撰寫系統中,以幫助起草履約工作說明書或撰寫需求。還有人認為 ChatGPT 可以幫助進行市場調研,找出創新的解決方案來彌補能力上的差距。提到的另一個潛在應用是利用 ChatGPT 的分析能力來制定現實可行的要求和標準,以便選擇供應商。此外,一些人還建議使用 ChatGPT 來協助撰寫標準表格,包括單一采購管理計劃和測試評估總計劃,以及幫助外國供應商瀏覽 SAM.gov 和采購集成企業環境等系統。

值得注意的是,一些采購專業人員已經在利用 ChatGPT 來提高他們的工作效率,盡管不是出于官方目的。他們將其用于個人項目、研究和創意生成。一位官員使用 ChatGPT 查找了政府問責局最近的報告,并將技術語言簡化為更易于理解的術語。另一位官員使用 ChatGPT 為一個潛在的原型項目創建了一份概念性的目標聲明,他們發現這非常有用。一位官員的配偶甚至用 ChatGPT 撰寫了她的簡歷,結果比她的伴侶寫的還要好。最后,許多人對 ChatGPT 簡單高效、快速準確的回答表示贊賞。

作者就曾使用 ChatGPT 協助撰寫過類似這樣的文章、給員工的節日祝福、促銷演講、社交媒體文章、慰問卡、給妻子的情書,甚至是一本書。這為作者節省了數百個小時的時間,并帶來了比自己所能完成的更好的產品。作者的親身經歷和前面的評論都突出表明,ChatGPT 和類似的語言模型在改變國防知識獲取中的寫作本質方面具有巨大的潛力。

圖 變革現實:隨著人工智能的發展,像 ChatGPT 這樣的語言模型將通過自動化重復而耗時的任務,徹底改變國防采購和合同簽訂。(圖片由作者提供)

風險

盡管存在潛在的機遇和用例,但在國防采購和承包中采用大型語言模型也存在相關風險。第一個主要風險是機密或敏感信息的處理,因為語言模型不是為保護受控或機密數據而專門設計或測試的。這可能導致安全漏洞或傳播不準確的信息。

如果語言模型用于生成政府文件,那么審查有關記錄保留法的現行政策也很重要。這些政策規定了某些類型的記錄應保留多長時間。語言模型的使用可能會改變文檔的創建和存儲方式,從而可能影響對這些政策的遵守。

語言模型還可能生成包含偏見、不準確或其他錯誤的文本,從而損害政府的公信力或完整性。因此,語言模型生成的任何文本在使用前都必須經過仔細審查和驗證。因此,網絡安全政策通常會阻止對 ChatGPT 和類似語言模型的訪問,從而減緩了其在國防工業中的應用。不過,一些公司正在研究專門為政府團隊定制語言模型,利用大量政府相關數據對模型進行微調。盡管 ChatGPT 仍處于早期開發階段,但將其集成到 Office 365 和 Microsoft Teams 等微軟產品中很可能是許多政府用戶第一次接觸語言模型。

在政府辦公室之外,行業合作伙伴對語言模型的廣泛采用有望提高他們在項目管理和合同運作方面的效率。使用語言模型可以大大提高行政任務的速度和效率,如起草會議記錄和提交合同提案。信息收集和建議書撰寫的自動化有助于為小企業和非傳統承包商創造公平的競爭環境,因為他們可能不具備與大型承包商相同的資源。

語言模式可以使供應商更容易響應政府招標,從而增加投標數量,促進競爭。政府收到的招標數量增加,可能會使本來就人手不足的承包商隊伍不堪重負。因此,政府必須開始考慮如何有效管理可能涌入的大量提案,并確保評估過程保持公平和徹底。

報價人使用語言模型也會在合同簽訂過程中產生一些風險。報價人可以使用語言模型來優化對政府要求的回應,增加贏得合同的機會,從而使使用語言模型的供應商獲得優勢。這可能導致合同授予擁有最佳人工智能模型的報價人,而不是那些為政府提供最佳價值的報價人。

為了應對這些風險,我們的合同專業人員需要充分了解語言模型是如何編譯和呈現信息的。他們還需要使用相同的語言模型技術來協助市場調研、總結冗長的投標書或識別風險領域。隨著報價人在答復過程中變得更加高效,我們的合同專業人員將需要充分利用資源,以保持同等水平的效率。

結論

大型語言模型有可能提高包括政府部門在內的各行各業的效率和生產力。雖然這些模型在政府部門的廣泛應用可能會落后于商業部門,但行業合作伙伴很可能會首先采用該技術,并將其用于協助撰寫建議書和合同流程,從而使報價人更容易響應政府招標,并為小型企業和非傳統供應商創造公平的競爭環境。對于采購專業人員來說,重要的是要考慮其中的機遇和風險,并以負責任和安全的方式使用該技術。

參考來源:美國陸軍采辦支持中心

付費5元查看完整內容

人工智能的不斷進步使軍事系統具有更高水平的自主性。隨著機器智能作用的擴大,人類與自主系統之間的有效合作將成為未來軍事行動中越來越重要的一個方面。成功的人機協作(HAT)需要對機器智能建立適當的信任度,而信任度會隨著人機協作發生的環境而變化。有關信任和自動化的大量文獻,以及關注軍事系統自主性的最新研究成果,構成了本研究的基礎。本研究考察了機器智能應用的三個一般類別中信任的各個方面。這些應用包括數據集成與分析、所有領域的自主系統以及決策支持應用。在每個類別中,與適當調整信任度有關的問題各不相同,信任度調整不當的后果和潛在的緩解措施也不盡相同。

導言

縱觀歷史,技術在武裝沖突的演變中發揮了關鍵作用。技術加快了戰術交戰的節奏,拓寬了戰場的地理范圍,增加了指揮官與部隊溝通的手段,也改變了國家計劃和實施武裝沖突的方式。在二十一世紀,一組統稱為人工智能(AI)的技術似乎準備開創一個新時代,在這個時代,機器智能和自主性將為軍事行動的規劃和執行帶來全新的概念和程序。大量數據的不斷涌現激發了人們對信息的貪婪欲望,這就需要對信息進行快速、冷靜的分析,而人工智能恰恰能夠勝任這一角色。人工智能決策、改進的傳感器和敏捷的機器人技術的融合,將使新系統能夠獨立完成 "觀察-定向-決策-行動"(OODA)決策循環的所有階段。大量自主系統涌入戰場,基于算法的戰爭潛力將逐漸增強甚至取代人類在部分或全部步驟中的決策過程,其速度可能超過人類規劃者的認知戰能力。

目前,從通信設備、傳感器到防空系統,算法為一系列軍事系統做出了貢獻。在許多方面,現代軍事力量已經依賴于某些形式的人工智能。然而,機器智能的未來應用將帶來一種新的能力--一種非人類的協作伙伴,能夠在戰場環境不斷變化的背景下做出積極主動的 "決策"。這種能力的內在優勢只有在人類能夠自如地依賴人工智能的情況下才能實現--人工智能不僅是一種工具,而且是團隊中的一員。因此,本文將重點討論人機協作(HAT)的一個具體方面:建立對機器智能的適當信任度。已有大量學術文獻關注自動化或機器人技術在商業應用中的信任問題,但專門針對軍事應用的學術研究卻不多。本文將特別探討利用人工智能的自主系統是如何在不同的軍事環境中使用的,以及這些不同的環境是如何影響信任度的。

本文的基本論點有三個方面。首先,為軍事用途開發的人工智能技術分為三大類,貫穿戰爭的戰術、戰役和戰略層面:用于數據整合與分析的算法解決方案、利用機器智能的自主系統以及輔助人類決策的支持軟件。其次,認為人工智能在軍事行動中的普及必然會導致人類與智能機器之間更多的互動。軍事行動將越來越依賴于安全有效的人機協作,而這反過來又依賴于人類不斷評估并給予智能機器適當程度的信任--即信任校準。與適當的信任校準有關的問題在這三個類別中各不相同,信任失調的影響也各不相同。第三,因此,確保與人工智能的最佳人機合作將取決于識別每個類別中的潛在信任問題,并設計適當的技術或理論調整來解決這些問題。在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,探討了信任和信任校準的概念,然后分析了在三個類別中鼓勵適當信任度的陷阱和可能性。

人工智能的進步

幾十年來,人類一直醉心于為機器注入某種形式的人工智能的可能性。尼爾斯-尼爾森將人工智能定義為 "致力于使機器智能化的活動,而智能是指使實體在其環境中適當地、有預見性地發揮作用的品質"。在數字時代的初期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析特定的數據集。對于具有可預測規則的明確環境(如分析實驗室結果或下棋等應用),專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法質量。另一大類則采用自下而上的機器學習方法,仿效人類通過檢測數據中的模式進行學習的方式。神經網絡是一種受人腦啟發的機器學習方式,它能利用多層(因此是 "深層")人工神經元識別復雜模式,這種技術是 "深度學習 "方法的基礎。這種方法能夠發現數據集中的關系,因此也被稱為 "連接主義"。

自上而下、基于規則的符號系統與自下而上的機器學習聯結主義技術之間存在很大差異,尤其是在應用的潛在范圍和靈活性方面。深度學習方法的顯著特點是能夠將學習與訓練所依據的數據集分離開來,因此該方法可應用于其他類似問題。基于規則的算法在狹義的任務中表現極為出色,而深度學習方法則能夠迅速找到模式,并在專家系統計算方法效果較差的應用中“自學成才”。最近的一些人工智能進展表明,它們有能力模仿創造力,或產生新穎的解決問題的方法,而這些在人類看來可能是違反直覺的。例如,帶有人工智能導航控制的高空氣球發現了利用風型的最佳和意想不到的技術,或者利用人工智能開發出更有效的增材制造機器部件設計。

不過,一般來說,人工智能的范圍仍然很窄,或者說 "很脆弱",因為它們在特定的應用中運作良好,但在其他應用中仍然缺乏靈活性。與人類相比,由于機器的計算速度遠遠超過人腦,因此在對數據集應用邏輯規則時,機器智能要優越得多,但在嘗試歸納推理時,機器智能必須對數據集或環境進行一般性觀察,因此就顯得力不從心。大多數機器學習仍然需要大量的訓練數據,盡管包括自監督學習、生成模擬數據的技術(如使用生成式對抗網絡(GAN))和 "少樣本學習"(LO-shot learning)在內的新方法正在出現,這些方法需要非常小的數據集。圖像識別算法很容易混淆,無法像人類那樣立即或直觀地解釋環境背景。這種脆性還延伸到游戲等其他問題上。雖然人工智能在視頻游戲中經常表現出超人的能力,但它們往往無法將這種專長轉移到具有類似規則或游戲機制的新游戲中。

雖然人工智能技術在提高適應性方面不斷取得重大進展,但接近人類的人工通用智能仍然遙不可及。這部分是由于我們對人類處理信息時所涉及的生物學和化學--也就是通常所說的人類認知--的掌握令人驚訝地有限。神經科學家仍不完全了解大腦是如何運作的,這限制了以生物過程為基礎模擬數字過程的努力。因此,深度學習等人工智能技術與認知神經科學建立了共生互利的關系。人工智能技術的漸進式發展使評估人工智能的近期前景變得更加復雜。深度學習方法的成功在很大程度上助長了對人工智能的炒作,導致人們對該技術的未來抱有不切實際的期望,并將其巨大進步正常化。有人將此稱為 "人工智能效應"。一份報告指出:"人工智能將一項新技術帶入大眾,人們對這項技術習以為常,它不再被視為人工智能,而更新的技術出現了。" 一些人猜測,機器學習技術帶來的進步可能會趨于平緩,而另一些人則保持樂觀。一些人認為,將符號人工智能方法與各種形式的機器學習相結合的嘗試很有潛力。因此,近期前景仍不明朗。相關的技術進步,包括短期的計算機芯片設計和長期的量子計算,也可能影響人工智能進一步發展的步伐。

軍事行動中的人工智能

不過,對于許多軍事應用來說,狹義的人工智能應用已經綽綽有余。全球各國軍隊已在使用的許多算法解決方案都可被視為 "人工智能",而且不乏對人工智能用途的建議。人工智能可能帶來的軍事能力,是克里斯蒂安-布羅斯等分析家和羅伯特-沃克等前國防官員所設想的截然不同的未來作戰環境的一部分。如果這些關于人工智能影響的預測成真,它們將對行動的規劃和實施產生廣泛影響。現有和不久將來的應用可分為三類:數據整合與分析、自主系統和決策支持軟件。與大多數類型一樣,這些類別的邊緣并不完全清晰,有些應用跨越了多個標簽。但值得注意的是,從數據分析到自主系統,再到最終的決策支持應用,在軍事背景下利用人工智能的潛在后果--以及由此帶來的信任度不高的風險--都在增加。此外,在軍事力量結構中整合自主系統也會產生累積效應。信任人工智能來處理傳感器數據是允許自主系統與人類人員并肩作戰的必要步驟,而未來在戰役層面由人工智能支持的決策將需要更多一層的信任,這種信任關系建立在將自主系統投入實戰的軍事單元之間的人類-自主團隊合作所注入的信任關系之上。

數據整合與分析

在各種能力和平臺的運行中使用人工智能,普通用戶往往不會注意到,原因很簡單,因為人工智能在系統架構中發揮著綜合作用。這方面的例子包括民用衛星導航、互聯網搜索引擎或在線翻譯工具。軍事應用包括利用機器學習算法優化電磁頻譜使用的無線通信或雷達。對于無人駕駛或遙控飛機,機載算法允許傳感器獨立進行初步數據分析,從而減少帶寬需求。算法已經在一系列系統和平臺的傳感器數據分析中發揮了作用。

除了這些綜合應用外,有意識地積極使用人工智能進行數據分析還延伸到了情報、監視和偵察(ISR)工作中。正如詹姆斯-約翰遜(James Johnson)所指出的那樣,機器學習算法 "可以顯著改善現有的機器視覺和其他信號處理應用,從大量的信號和圖像數據集中識別模式,并增強自主性和傳感器融合應用"。美國空軍于2017年成立了算法跨職能小組,將人工智能應用于圖像分析,努力識別和跟蹤目標,并建立生活模式以提高態勢感知能力。在網絡空間,模式識別算法同樣可以確定網絡的正常運行模式,從而更容易識別可能預示著入侵者存在的偏差。利用人工智能進行公開來源情報(OSINT)分析可以識別個人,甚至對叛亂活動做出粗略的近期預測。全球信息主導實驗(GIDE)等實驗性人工智能應用軟件可從海量多源數據中篩選出模式和趨勢,從而對一系列未來事件做出預測。

自主系統

人工智能的第二類應用包括范圍廣泛的自主系統。自主是一個仍然難以準確或簡明定義的術語。聯合空中力量能力中心(JAPCC)在2016年的一份報告中對自動化與完全自主系統進行了區分,前者涉及機器執行人類設定的可預測、有界限的預定任務。作者將自主系統描述為:能夠決定自己的行動方針、不受預編程反應限制的深思熟慮的決策、具有學習和積累 "經驗 "的能力,因此其行動不再是完全可預測的。保羅-沙雷(Paul Scharre)和邁克爾-霍洛維茨(Michael Horowitz)在 2015 年的一篇論文中描述了自主性的三個維度: (a) 人機指揮和控制關系,通過確定人類是 "參與"、"開啟 "還是 "退出 "決策環路來簡化;(b) 機器或系統的復雜性和能力;以及 (c) 自動化功能的類型。

在人工智能方面,值得注意的是,自動化系統與自主系統之間的區別變得模糊。機器智能與實現自主系統的許多自動化功能高度相關,包括系統操作和自我診斷、自動駕駛儀、作戰軟件和目標跟蹤/識別以及自導武器。因此,"自主性 "描述的是一種獨立機器功能的滑動尺度,其中包含一系列變量,包括人機交互的程度、獨立感知和適應環境變化的能力、完成一系列預定目標的決策能力,以及不斷學習和改進這些決策的能力。

不那么嚴格的自主定義可能包括當前的軍事資產,如防空和導彈防御系統、反火箭或火炮系統、地面車輛主動防護系統、閑逛彈藥、先進巡航導彈和賽博能力。雖然目前大多數作戰領域都部署了自主系統,但下一代自主系統將利用人工智能實現更大程度的獨立,不受人類指揮的影響。目前正在開發的空間、海上、空中和地面平臺與系統,正如聯合咨詢理事會報告所概述的那樣,代表著一種質的演變,從戰術指揮官可利用的工具轉變為人類必須與之互動和合作的伙伴。

自主飛機不久將執行后勤任務,如運輸貨物或加油任務。俗稱 "忠誠僚機 "計劃的新作戰概念設想了與駕駛飛機并肩作戰的大型無人平臺,從而為傳感器聯網或增加彈藥提供了更多選擇,從而提高了戰術靈活性。自主艦艇將為海上指揮官提供類似的海上作戰能力,地面系統目前也在開發之中。新的制造工藝將降低生產成本,同時降低對可擴展人工智能軟件的尺寸、重量和功率要求。這將有可能部署大量的小型無人系統,這些系統將以蜂群編隊的形式進行控制和協調,并配備作戰管理和目標瞄準軟件,這些軟件可以快速上傳和更新,只需敲擊幾下鍵盤就能對系統進行有效的 "再訓練"。因此,自主系統有望增加戰場上平臺的總體數量。

決策支持和以決策為中心的戰爭

軍事指揮官在決策過程中已經依賴于機器智能,從算法推導的附帶損害估計,到防空和導彈防御系統的目標定位解決方案,不一而足。對于一系列系統而言,計算機生成的數據分析增強了對態勢的認識,并為作戰人員提供了選擇。未來的決策輔助工具可能會帶來進一步的發展。與目前耗時的作戰計劃模式相比,史蒂文-戴維斯認為,"當面對許多僅僅是合適、可行或完整的方案時,人工智能可以引導決策者找到最佳解決方案"。大量使用人工智能決策軟件的自主武器系統的引入可能會影響戰爭的作戰層面,特別是軍事行動的指揮與控制(C2)方面。

這個現在很常見的術語出現在 20 世紀 60 年代剛剛興起的信息技術時代,用來區分指揮的權力和責任,以及為指揮官控制行動的實施和執行創造必要條件的過程。雖然上級指揮官和政治領導人觀察特定戰術交戰已成為司空見慣的事,但如果部署了自主系統,作戰層面可能最適合由人類 "參與"。即使有了自動同步的水面艦艇或航空系統艦隊,仍需要以人為中心協調更廣泛的作戰行動。然而,在這種情況下,作戰計劃和協調可能需要人工智能的協助,以便保持有利和有效的戰斗節奏。

這就是所謂 "以決策為中心 "的作戰概念背后的動機。美國國防部高級研究計劃局(DARPA)提出的 "馬賽克戰爭"(Mosaic Warfare)概念,就是利用人工智能來協調分布式的部隊網絡。該概念提出了一種由人工指揮和機器控制的混合 C2 配置。指揮官根據人工智能對現有有人和無人部隊的概述,從人工智能生成的行動方案(COA)中選擇需要完成的任務。戴維斯概述的另一種方法是利用海上決策支持架構,中間層的人工智能基于保護、維持或火力等作戰功能。鑒于基于機器的快速決策所具有的明顯優勢,整合人工智能和自主系統的概念是一種合乎邏輯的進步,盡管這種進步雄心勃勃。當互聯的作戰空間允許不同但相互關聯的網絡進行數據融合時,這一點尤其適用。大量的可用信息可能會導致對機器智能的依賴,原因很簡單,因為需要機器認知來理解這些數據,并以有利的方式及時采取行動。

信任與機器智能

從傳感器數據到武器系統再到作戰決策支持,機器智能在軍事行動各個領域的預期作用表明,人們對人工智能的依賴程度越來越高。例如,北大西洋公約組織(NATO)倡議下的一份專家組報告建議,該軍事聯盟 "應鼓勵將人工智能納入戰略和行動規劃。它應利用人工智能驅動技術的力量,加強情景規劃演習和長期備戰。美國海軍最近發布的智能自主系統政策等官方聲明和出版物強調,信任是依賴的重要組成部分,其中包括人類應如何以及何時信任機器等問題。隨著機器智能越來越能勝任日益復雜的認知功能,并不斷磨練其獨立運作的能力,人類將需要把人工智能和自主系統視為合作伙伴,就像看待工具一樣。與任何伙伴關系類似,信任是人機有效合作的關鍵。

定義信任

信任是許多概念中的一個,最初看起來很直觀,但深入研究后會發現變得更加復雜。在過去的幾十年里,信任出現了多種定義和概念,這并不奇怪。一篇頗具影響力的文章的作者在回顧了為信任下定義的各種嘗試后得出結論:"這些定義凸顯了在信任是一種信念、態度、意圖還是行為方面存在的一些重要的不一致之處。這些區別具有重要的理論意義"。梅耶等人(1995 年)提出的一個流行定義認為,信任是 "一方基于對另一方將采取對信任者很重要的特定行動的預期,愿意受另一方行動的影響,而不管是否有能力監督或控制該方"。信任的最新簡化定義是 "在以不確定性和脆弱性為特征的情況下,認為智能體將幫助實現個人目標的態度"。脆弱性和風險的存在是信任的重要組成部分,因為它為錯誤的信任帶來了潛在的代價。

雖然人機協作的基本要素與人際關系不同,但許多基本要素具有可比性。Keng Siau 和 Weiyu Wang 指出,信任是動態的,通常是通過雙向互動逐步建立起來的,但也會受到最初印象的強烈影響。一些學者認為,信任的產生最初是通過對未來行為的可預測性,然后通過建立可依賴性的一貫行為反復確認,最后演變成一種類似于信仰的對可靠性的廣泛判斷。

對自動化的信任

影響自動化信任度的有三個類似因素。自動化過去和當前的表現,以及系統實際工作的信息,都與可預測性相似。有關自動化設計的細節,以及它是否能實現操作員設定的目標,可以揭示系統如何運行的相關有用信息,從而激發與可依賴性相同的動力。最后,自動化背后的目的或原理,以及自動化的使用是否符合設計者的意圖,具有類似于信仰的抽象傳遞性(相信設計者的意圖,因此相信自動化)。

在許多學者看來,在這一點上,人與人之間的關系和人類對機器的信任開始有所不同。人們通常會對陌生人持懷疑態度,并如上所述逐漸建立信任,而人類則通常會在最初基于信仰的基礎上期望機器能完美工作。當出現錯誤時,這種最初的信任會迅速消失,但信任最終會被可預測性和可靠性這些更持久的品質所取代。凱文-霍夫(Kevin Hoff)和馬蘇達-巴希爾(Masooda Bashir)在 2015 年對有關信任和自動化的學術文章進行了全面調查,并建立了一個由三部分組成的信任模型,該模型以對機器的初始信任(處置性信任)為起點,并加入了背景(情景信任)和經驗(習得性信任)。

他們認為,對自動化的傾向性信任是三者中最穩定的,受文化、年齡、性別和個性特征的影響最大。這些變量中的大多數都有明顯的影響,但傾向性并不明顯。文化(可定義為 "反映共同教育和生活經歷的一系列社會規范和期望")的作用是一個特別突出的因素。專業背景或技術培訓是影響個人如何對待自動化的一種文化差異。對權力和權威的態度,甚至是對個人或集體利益平衡的看法,也會產生影響。一項針對冰島、芬蘭和瑞典客戶對電子商務服務信任度的研究顯示,在傾向性信任方面存在顯著差異,芬蘭客戶的懷疑程度最高,而冰島客戶的信任程度最高。

除了性格信任的初始影響外,情境信任是該模型的第二個組成部分,在培養自動化信任方面發揮著重要作用。情境因素可能包括外部變量,如系統復雜性、影響自動化監控的操作員工作量、影響自動化風險和效益的環境因素或組織結構。被視為人類操作員 "內部 "的相關情景信任因素可能包括自信心、自動化領域的主題專業知識、操作員的專注能力(受壓力、睡眠、無聊、內部動機的影響),甚至是積極的情緒--這與自動化的初始信任水平較高有關。

該模型的第三個也是最后一個組成部分是 "習得信任",它包含與自動化信任相關的一系列變量。操作員通常對自動化已有一定的了解,無論是來自其他自動化系統的先前經驗,還是基于相關自動化的聲譽。甚至在操作員與系統互動之前,對自動化的期望和對其性能的二手了解就會影響信任度。最初的交互首先會受到自動化系統設計特點的影響:其外觀、易用性、通信模式和透明度。與人機界面有關的設計選擇,如顯示屏布局或語音命令類型,在激發信任方面可發揮重要作用。一旦通過先前的經驗或系統本身的設計特點建立了最初的信任度,操作員就會不斷動態地衡量自己的信任度。這可能取決于可靠性、可預測性、系統實用性以及錯誤發生的時間和方式(包括如何提醒操作員)等因素。

信任校準和錯位

人們一直致力于在人類與自動化系統之間建立信任,但過去的經驗表明,過度信任也會帶來問題。與自動化 "過度信任 "或濫用相關的最常見傾向包括自滿情緒和自動化偏見。操作員在監督基本可靠的自動化系統時往往會產生自滿情緒,從而降低對日常監控的警惕性,并認為系統運行正常--這一點不足為奇。與此相關的一個問題是自動化偏差,即人類操作員未能對自動化故障做出反應,或按照自動化建議做出錯誤決定。一項研究得出結論,使用計算機生成的除冰程序建議系統的飛行員,只要計算機提供的建議正確,其表現就會優于沒有該輔助系統的飛行員,但如果建議不正確,其表現就會更差。在另一項研究中,隨著自動化水平的提高,負責戰斧巡航導彈飛行中重新瞄準的操作員似乎更容易接受自動化建議,這表明存在自動化偏差。

自動化偏差似乎是造成一些商用飛機災難的原因,包括 2009 年法國航空 447 號航班的失事。資深記者威廉-蘭格維什(William Langewiesche)在 2014 年根據從飛機飛行記錄器中恢復的駕駛艙機組人員對話撰寫的一篇關于空難的詳細文章中,將自動化作為一個促成因素。Langewiesche 認為,飛行員已經習慣于依賴自動飛行輔助設備,而故障空速指示器的誤導信息造成了不確定性,使他們無法理解飛機的實際情況。這導致了一連串錯誤的決定,以及屢次未能做出適當--回想起來相對簡單--的調整,而這些調整本可以避免悲劇的發生。他簡明扼要地總結道:"自動化使得普通的航空公司飛行員越來越不可能在飛行中面臨原始的危機--但同時也使得他們越來越不可能在危機出現時能夠應對這種危機"。

開發人員通常不會專注于如何提高人類對自動化系統的信任度,而是努力激發與系統能力相關的校準信任度。信任校準簡單地描述了這樣一個過程:人類與機器自動化或機器智能的交互努力達到一種理想狀態,在這種狀態下,人類根據機器智能的優缺點對其給予適當的信任。以適當校準的信任度為目標,過度信任可以理解為超出系統能力的信任,而不信任則描述了與之相反的情況,即操作員對系統的信任程度低于其能力要求。實現適當的信任度調整聽起來很簡單,但往往會因人類的正常反應而變得復雜。如上所述,操作員在使用系統,尤其是機器智能系統時,通常對其性能有很高的期望。當錯誤發生時,人類操作員往往會過度修正自己的信任度,將期望值降低到低于系統能力的水平--從而直接從過度信任過渡到不信任。

自動系統與自主系統

過去幾十年來,對人機協作的大部分研究都集中在自動化系統上。一個幾乎沒有明確答案的基本問題是,自動化系統與自主系統在多大程度上存在差異。前面提到的區別是僵化的、預先確定的和可預測的自動化任務與不受約束的、動態的和不可預測的自主性之間的區別。最近一篇關于人類自主團隊的調查文章指出:"兩者之間的劃分是一個程度問題,差異是一個移動的目標......在哪一點上,自動化可能更適合描述為自主,這是一個開放的問題"。

因此,在實踐中,這種區分更多的是分級的,也許更好理解為一個連續體,一端是自動化功能,另一端是自主功能。即使是這種分級方法,其效用也是有限的。一旦我們對自主功能的性能和可靠性越來越滿意,就會逐漸將其視為更類似于自動化的功能。為了進一步細化,自主系統甚至可能具有自動化功能。由人工智能支持的自主網絡防御系統可以獨立行動,以不可預測和無腳本的方式處理威脅,但網絡防御系統本身可能被認為是自動化的。

希瑟-羅夫(Heather Roff)和戴維-丹克斯(David Danks)在一篇發人深省的文章中論述了自主武器系統中的信任問題,他們對類似的二元論態度提出質疑,將自主系統分為兩種:一種是工具,"在這種情況下,行為的可靠性和可預測性足以'信任'系統";另一種是 "具有價值觀和偏好的道德主體,在這種情況下,'信任'的門檻將大大提高"。同樣,托馬斯-奧尼爾(Thomas O'Neill)等人提出了基于計算機的 "自主智能體"(autonomous agents)概念,即 "代表團隊中獨特角色的獨特實體,否則這些角色就必須由人類來擔任"。雖然羅夫和丹克斯對道德代理與工具的二元概念并不認同,但這種區分在概念化信任自動化與信任自主性之間的差異方面還是有一定價值的。自主智能體并不是簡單地在特定情況下執行預先設定的行動,而是在更大程度上依賴于某種類似于判斷的東西。對這種判斷的信任,結合了與自動化系統性能有關的傾向性信任和情境信任,以及對過程和目的的更多關注,這就需要對智能體的價值觀和偏好有更深入的了解。

戰場上的人工智能與信任校準

只要人類操作員對所操作的系統有適當的信任度,機器智能提供新能力和提高現有能力的潛力就能成為軍事行動的一個重要因素。正如霍夫和巴希爾所言,"就像在人際關系中一樣,信任在決定人類是否愿意在不確定的情況下依賴自動化系統方面起著主導作用"。在聯盟或聯軍行動中,如果一些成員國在人機協作方面已經建立了良好的校準關系,而另一些成員國則沒有,那么就會出現互操作性問題。信任校準并不一定能傳遞給不同文化背景的人員。然而,即使在每個國家的軍隊內部,信任校準問題也可能因機器智能所執行的上述三類任務(數據整合與分析、自主武器系統和決策支持)而有所不同。

人工智能數據集成與分析的信任校準

對于許多軍事應用而言,機器智能所扮演的角色已經完全融入系統架構,甚至可能無法察覺。這些應用包括自動語言翻譯工具、由人工智能引導的通信設備頻率選擇、整合傳感器數據為平臺操作員創建戰場整體視圖,或由智能數字實體監控計算機網絡以發現入侵跡象。對于這些類型的功能,人工智能正在做出 "選擇 "并影響人類操作員對態勢的理解,這反過來又會對認知和人類決策產生影響。這種機器智能的使用更符合自動化系統的定義。因此,信任校準問題更為人所熟知,研究也更為深入。

一個直接而明顯的問題是,大多數操作人員可能會對這類系統給予高度的處置性信任或初始信任,甚至可能沒有意識到人工智能對信息環境的塑造程度。軍事應用中適當的信任校準可能涉及人機界面的設計特點,既能激發信任,又能提供足夠的透明度,特別是在機器智能據以得出結論的數據的穩健性方面。一項研究建議,智能體應具備評估自身自信心的能力,包括自身知識庫的不確定性、自身運行狀態的不確定性以及推理過程的不確定性。當然,這也會受到與決策過程本身相同的弱點的影響,但可以對人類的自動化偏差傾向進行有益的糾正。

人類操作員依賴機器智能進行態勢感知所面臨的另一個挑戰是時間性的。在未來的沖突中,可用于做出決策的時間可能會被嚴重壓縮,從而促使對機器認知的依賴。當被迫迅速采取行動時,人類可能會選擇不分析智能體的自信水平,或在做出時間緊迫的決策時嚴格評估人工智能生成的數據。在某些領域,其他傳感器可能會提供有用的輔助驗證來源,而人類在其他情況下可能會完全依賴機器智能提供的信息。網絡領域的人工智能工具是數據分析和自主系統之間的復雜混合體,因為機器智能可以監控網絡以防止潛在的入侵,并使進攻性網絡武器能夠分析和規避對手的智能防御。對這些工具進行獨立驗證以確保充分的態勢感知可能具有挑戰性,特別是考慮到作戰時間的限制。

自主系統的信任校準

與物理世界中的自主系統--無論是地面 "packbot "系統、無人駕駛加油機、自主水面艦艇還是自主武器系統--的交互涉及與上述算法實體相同的問題,但也涉及人類自主團隊合作的其他獨特和具有挑戰性的方面。這些系統更真實地體現了在團隊中扮演特定角色的智能體,通常從人際交互(HAI)的角度進行討論。因此,成功的人際團隊合作的特征具有更大的相關性,包括強有力的溝通、有關意圖和動機的共享心理模型,以及可預測和協作行動的能力。

在美國國防部自主研究試點計劃的支持下進行的一項研究考察了一個軍事單元與其自主 "packbot "小隊成員之間的互動,發現顯示機器人意圖和邏輯的數據加強了信任的一些基本基礎,如態勢感知和理解。隨著操作員對智能體的使用越來越熟練,經驗越來越豐富,這種透明度可以增強學習信任。有許多透明模式是可能的,包括交流智能體的意圖和目標結構,或其對任務的理解;側重于智能體內部運作和算法的分析模型;交流智能體對外部環境的理解;或強調團隊內部分工的團隊合作模式。

透明度是加強人類-自主團隊合作的一個潛在設計特征。與機器界面相關的工程細節可以在激發信任與鼓勵過度信任之間取得適當平衡。自然語言處理和合成語音技術已經取得了長足進步,實現了人類與機器人之間的對話交流,提高了透明度和信任度。將人類特征賦予智能體是一種自然的心理現象,可以加強合作,但擬人化也可能產生負面影響,包括對爆炸物處理機器人產生不幸的情感依戀,或因類似人類的語言模式而鼓勵對智能體的過度信任。

在人類與智能體的最初互動中,傾向性信任可能影響最大。例如,澳大利亞的一項研究認為,軍人對自主武器系統持有根深蒂固的懷疑態度。然而,隨著時間的推移,實現適當的信任校準可能主要取決于情景信任和學習信任。在高風險情況下,是依靠機器智能,還是將關鍵任務留給其他人,即使這一選擇并不理想,人類的判斷最終可能是高度個人化的。與人類團隊合作一樣,這種決定往往基于以往類似情況下的經驗,這表明與智能體一起進行綜合培訓練習可以成為信任校準的重要組成部分。與自主系統一起進行培訓被認為是鼓勵信任人類自主團隊合作的合理步驟,而且還能提供額外的人工智能培訓數據。Roff 和 Danks 提醒說,訓練的環境也可能會產生影響,并強調了基礎訓練等低風險環境與模擬戰場環境的更高級演習之間的差異。此外,他們還建議在每個單元內創建一個自主智能體 "聯絡官",與系統密切合作,了解其邏輯、動機和流程,從而利用信任的傳遞屬性。這樣,單元其余成員的信任校準可能會更容易通過聯絡官傳達,不過這種方法也有其局限性。

作戰決策支持系統的信任校準

上文討論的與有效的人類自主團隊合作有關的問題將對次戰術和戰術層面產生直接影響,但在戰場上部署自主系統可能也會帶來作戰層面的調整。更多獨立運行的自主平臺--以及以機器速度進行的戰術決策--將給人類認知帶來挑戰,并可能成為破壞對手決策循環的限制因素。考慮到對手可能在多個領域構成的威脅,以及充分、迅速地做出反應所需的信息量,一位美國軍事領導人得出結論說,如果沒有機器智能管理數據的幫助,"二十世紀的指揮官將無法在這種環境中生存"。機器智能在作戰層面的應用很可能是累積性的,它融合了前兩節討論的信任帶來的好處和風險,并增加了另一層復雜性。

在作戰層面利用機器智能提供決策支持,與戰術層面的數據分析有明顯的相似之處,特別是容易出現自動化偏差,以及容易忽視人工智能有時微妙的決策效果。此外,潛在的自主武器或平臺協調群(甚至可能是蜂群)的增加也給現有的 C2 程序(如聯合瞄準)帶來了新的挑戰,這些程序本身可能需要在節奏更快、動態性更強的環境中實現自動化。對于作戰規劃人員來說,人機信任因素成為評估作戰單元準備狀態和效能的又一因素。以決策為中心的戰爭概念將人工智能直接納入指揮與控制結構,可能是自主性最引人注目的應用。隨著持續新聞報道和社交媒體的出現,人們對戰術決策失誤可能產生的戰略影響的認識變得更加深刻。在軍事領域,人類自主團隊合作的一個重要部分是考慮自主智能體是否有能力在意識到沖突的戰略和政治背景的情況下,以及在國際武裝沖突法的法律框架內采取行動。隨著人工智能輔助的信息流和對自主平臺群的自主控制與自主代理在戰術層面的行動后果相結合,這種考慮在作戰層面變得大大放大。由于決策時間被壓縮、確認偏差以及機器學習的臨床成本效益獎勵制度,機器智能和自主系統可能導致沖突升級,因此這一點尤其值得關注。

信任是一種發生在不確定性和風險情況下的現象。機器智能有可能通過減少處于危險中的人員和改進信息處理以增強態勢感知來緩解作戰計劃和控制的這兩個方面。正如最近一篇文章所指出的,用于算法戰爭的人工智能必須保持靈活性并降低作戰復雜性,包括 "獨立制定和裁定行動方案 "的能力。信任機器智能體作為 "環路中 "的道德代理人來規劃和批準具體的作戰行動,這涉及到讓自主代理人適當評估戰術決策的充分舒適度,而這本身就涉及到某種基于機器的 "信任"。正如戴維斯所言,在作戰層面,基于人工智能的決策支持架構 "將充當一個受信任的智能體,濃縮指揮官負責的信息量"。現有研究表明,監督或管理自主智能體的操作人員應獲得盡可能多的態勢數據,特別是一些研究表明,隨著自主智能體數量的增加,態勢感知能力也會下降。對于作為 "環路 "上的人而管理智能體的指揮官來說,加強對態勢的了解已被證明比簡單地提供供操作員選擇的選項更有效。

另一個可能出現的與信任和機器智能有關的問題是信任和戰術優勢的矛盾性。現有研究表明,在類似情況下可預測的行為會產生信任,但如果對手擁有類似的數據分析工具并能預測算法模式,這種可預測性就可能成為戰場上的弱點。只需觀察幾次智能體的算法戰術和行為,就可能預測到它們的行動,從而予以反擊。當然,可以在智能體的行為中加入適應性,避免在空戰中重復相同的動作,但這種缺乏可預測性的情況將使人類與自主體之間的信任更具挑戰性,無論這種信任在戰術意義上如何有利。此外,對手可能會干擾自己的訓練數據或算法,這仍然是一個令人擔憂的問題,也是人們持懷疑態度的正當理由。

這些戰術和戰役層面的問題會造成一系列戰略困境。時間限制可能迫使人類操作員將決策過程的重要環節讓給智能體,以獲得對對手的優勢。在美國陸軍進行的虛擬實驗中,人類傾向于對其無人機群進行微觀管理,由于人類認知速度較慢,一直被人工智能控制的單元擊敗。這種態勢很可能會鼓勵操作人員為了權宜之計而放棄對智能體的可信度進行冷靜評估。人類在決策中的認知能力逐漸降低,可能會對各級威懾和升級控制產生不可預測的戰略影響,尤其是在涉及信任問題時。正如詹姆斯-約翰遜(James Johnson)所言,"人工智能對戰略穩定的威脅所造成的不確定性,可能是對手夸大了對其有效性的信任,也可能是(也許更令人擔憂的)錯誤地認為某種特定的人工智能能力在行動上是有效的,而實際上并非如此"。

結論

自主系統的軍事應用顯然將繼續擴大,因為對決策者的激勵似乎大于風險。機器智能代表了一套獨特的技術,它超越了武器系統在射程、速度或精度方面的漸進式改進。這三類中的每一類智能體都有可能以不可預測的方式改變戰場,這對正在尋找將人工智能技術融入現有和計劃中的部隊結構的最佳手段的軍事領導人來說,既是危險也是機遇。鑒于戰爭仍然是以人為本的事業,人類自主團隊的重要性可能會成為軍事行動中越來越重要的一個方面。

關于人類與自主團隊合作中的信任問題,基于研究的知識是廣泛而全面的,但大部分實證數據自然主要與從自動化到自主化的滑動尺度中自動化程度較高的過程有關。考慮到機器智能在軍事領域的預期功能,這項研究的大部分內容仍然具有很強的現實意義--尤其是與性格信任相關的文化差異方面或自動化偏差等常見現象。適當的信任校準所面臨的挑戰因應用的類型和類別而異,與用于 ISR 數據分析的集成機器學習軟件相比,激發人類對物理自主系統的充分信任可能更具挑戰性。歸根結底,實現適當和校準的信任水平對于最大限度地發揮人工智能的潛力仍然至關重要。

付費5元查看完整內容

如果海軍陸戰隊要與近似對手競爭,海軍陸戰隊必須將人工智能(AI)作為一種決策支持系統(DSS),以加快規劃-決策-執行(PDE)周期,從而在認知、時間和致命性方面取得優勢。

信息系統和監視技術正在改變戰爭的特點,使較小的部隊也能分布和影響較大的區域。但是,目前的指揮、控制、通信、計算機、情報、監視和偵察系統(C4ISR)以及機器人和自主系統(RAS)都是人力密集型系統,會產生大量數據,海軍陸戰隊必須迅速利用這些數據來提供可操作的情報。由于遠征高級基地行動(EABO)要求部隊規模小、分布廣、復原力強,必須迅速做出明智決策,才能在各種不斷發展和演變的威脅面前生存下來,因此這就存在問題。

使用數據分析和機器學習的人工智能處理、利用和傳播信息的速度比人類更快。配備了人工智能 DSS 的 EAB 指揮官將以比對手更快的速度做出更明智的決策。然而,在實現這一目標之前,目前還存在著巨大的障礙。海軍陸戰隊必須為 EABO 制定一個人工智能支持概念,并將其納入海軍作戰概念中,充分確定人工智能工作的優先次序和資源,并為企業數據管理提供資源,以最大限度地利用數據分析和機器學習來發現數據庫中的知識(KDD)。此外,海軍陸戰隊必須利用美國陸軍的人工智能實驗和概念開發來實現多域作戰(MDO)。最后,海軍陸戰隊應確定當前可通過狹義人工智能加以改進的技術和作戰領域。

引言

指揮、控制、通信、計算機、情報、監視和偵察(C4ISR)以及機器人和自主系統(RAS)技術的普及正在改變戰爭的特點,使較小的部隊能夠分布和影響更大的區域。然而,作戰期間收集的數據正在迅速超越人類的認知能力。早在 2013 年,美國國防部就指出:"ISR 收集和......收集的數據急劇增加。我們繼續發現,我們收集的數據往往超出了我們的處理、利用和傳播能力。我們還認識到,就戰術層面的分析人員數量而言,PED 的資源需求可能永遠都不夠"。

如果能迅速加以利用,C4ISR/RAS 數據將為指揮官提供戰勝敵人的信息優勢。但是,從這些來源獲取及時、可操作的情報需要大量人力,而且必須通過人工手段對數據進行快速處理、利用和傳播(PED)才能發揮作用。如果遠征軍要通過 C4ISR 與近鄰競爭并獲得競爭優勢,這對海軍陸戰隊來說是個問題。這些豐富的信息可以加快計劃-決策-執行(PDE)周期,但如果不加以管理,就會使領導者被信息淹沒,猶豫不決。必須采取相應措施,利用新技術實現數據自動化和管理。如果海軍陸戰隊要與近似對手競爭,海軍陸戰隊必須將人工智能(AI)作為決策支持系統(DSS),以加快 PDE 周期,從而在認知、時間和致命性方面取得優勢。

本文旨在證明,利用人工智能技術可加快指揮官在其環境中的觀察、定位、決策和行動能力。本文承認,但并不打算解決射頻通信、信息系統和組織變革中出現的技術問題的重大障礙。本文分為四個不同的部分。第一部分重點討論不斷變化的安全環境和新興技術帶來的挑戰,以及這些挑戰將如何影響指揮官。第二部分討論技術解決方案、決策模型,以及人工智能作為 DSS 如何為 EAB 指揮官創造認知、時間和致命優勢。第三部分將在未來沖突中,在 EAB 指揮官很可能面臨的假想作戰場景中說明這種系統的優勢。最后一部分重點討論了實施過程中遇到的障礙,并對今后的工作提出了建議。

第 I 部分:新的安全環境和新出現的挑戰

自 2001 年以來,海軍陸戰隊在 "持久自由行動"(OEF)、"伊拉克自由行動"(OIF)和最近的 "堅定決心行動"(OIR)中重點打擊暴力極端組織(VEO)和反叛亂戰爭。美國武裝部隊所處的是一個寬松的環境,有利于技術優勢、不受限制的通信線路和所有領域的行動自由。隨著 2018 年《國防戰略》(NDS)和海軍陸戰隊第 38 任司令官《司令官規劃指南》(CPG)的出臺,這種模式發生了變化,《司令官規劃指南》將大國競爭重新定為國家國防的首要任務,并將海軍陸戰隊重新定為支持艦隊行動的海軍遠征待命部隊。

為了支持這一新的戰略方向,海軍陸戰隊開發了 "先進遠征作戰"(EABO),作為在有爭議環境中的瀕海作戰(LOCE)和分布式海上作戰(DMO)的一種使能能力。EABO 為聯合部隊海上分隊指揮官或艦隊指揮官提供支持,在反介入區域拒止(A2/AD)環境中提供兩棲部隊,以獲取、維持和推進海軍利益,作為控制海洋的綜合海上縱深防御。然而,EABO 對部隊提出了一些必須考慮的具體挑戰。這些挑戰包括在所有領域與近似對手的競爭、對新興技術的依賴、人員與能力之間的權衡,以及地理距離和分布式行動帶來的復雜性。總的主題是如何通過在關鍵點上集成人工智能技術來克服這些挑戰,從而增強指揮官的 PDE 循環。

處理開發傳播 (PED) 問題

如果情報驅動軍事行動,那么海軍陸戰隊就會出現問題。如前所述,數據收集的速度超過了戰術層面的處理、利用和傳播(PED)過程。數據本身是無用的,必須經過組織和背景化處理才有價值。根據認知層次模型(圖 1),數據和信息對形成共同理解至關重要。聯合情報流程通過規劃和指導、收集、處理和利用、分析和制作、傳播和整合以及評估和反饋這六個階段來實現這一目標。C4ISR/RAS 的擴散擴大了收集范圍,但 PED 卻沒有相應增加。除非采取措施實現信息管理自動化,否則指揮官將面臨信息超載和決策癱瘓的風險。

信息超載是指由于一個人無法處理大量數據或信息而導致的決策困難。 羅伯特-S-巴倫(Robert S. Baron)1986 年關于 "分心-沖突理論"(Distraction-Conflict Theory)的開創性研究表明 執行復雜任務的決策者幾乎沒有多余的認知能力。由于中斷而縮小注意力,很可能會導致信息線索的丟失,其中一些可能與完成任務有關。在這種情況下,學習成績很可能會下降。隨著分心/干擾的數量或強度增加,決策者的認知能力會被超越,工作表現會更加惡化。除了減少可能關注的線索數量外,更嚴重的干擾/中斷還可能促使決策者使用啟發式方法、走捷徑或選擇滿足型決策,從而降低決策準確性。

鑒于 Baron 的結論,C4ISR/RAS 將降低而不是提高戰術指揮官的決策能力。筆者在擔任海軍陸戰隊作戰實驗室(MCWL)科技處地面戰斗部(GCE)處長期間進行的研究證實了這一結論。2013 年,海軍陸戰隊作戰實驗室 (MCWL) 開展了戰術網絡傳感器套件 (TNS2) 有限技術評估 (LTA)。一個海軍陸戰隊步槍連及其下屬排配備了空中和地面機器人、地面傳感器以及戰術機器人控制器(TRC)。戰術機器人控制器使一名操作員能夠在白天或黑夜,在視線范圍外同時控制多輛戰車進行 ISR。MCWL 將這種 ISR 形式命名為多維 ISR(圖 2)。LTA顯示,使用TNS2的排級指揮官在防御、進攻和巡邏時都能迅速發現威脅,但LTA也發現了兩個重大問題:1.在軟件和機器人能夠自主分析和關聯傳感器輸入之前,海軍陸戰隊員仍需收集和整理ISR數據;2.在中高作戰壓力下... 在中度到高度的作戰壓力下......操作人員會超負荷工作......無法探測和識別目標,并普遍喪失態勢感知能力。

海軍陸戰隊情報監視和偵察--企業(MCISR-E)正在通過海軍陸戰隊情報中心(MIC)、海軍陸戰隊情報活動(MCIA)與戰斗支援機構(CSA)和國家情報界(IC)連接,納入預測分析流程,以解決這些問題。通過海軍陸戰隊情報活動(MCIA),MCISRE 解決了全動態視頻(FMV)聯合 PED 支持問題,并于 2017 年成立了全動態視頻聯合 PED 小組,該小組具有全面運作能力,每周 7 天提供 12 小時支持,費用由 14 名分析員和 3 名特派團指揮官承擔。

雖然這是朝著正確方向邁出的一步,但由于人力需求量大,這可能證明是不夠的。EAB 指揮官必須依靠地理位置相隔遙遠的上級總部提供的、通過有爭議的電磁頻譜傳輸的情報成品。海軍陸戰隊司令部的 MIX 16(海軍陸戰隊空地特遣部隊綜合演習)實驗結果證實了這一結論: "未來戰爭將在具有挑戰性的電磁環境中進行,分布在各地的部隊......從上級總部 "伸手回來 "獲取日常情報援助的能力可能有限,而且無法依賴"。此外,在戰術和作戰層面增加更多的分析人員會導致循環報告,這只會加劇信息超載問題。

EABO/分布式作戰 (DO) 困境

根據《EABO 手冊》,EAB 必須 "產生大規模的優點,而沒有集中的弱點"。美國陸軍在 2016 年進行的實驗表明,較小的單位有可能分布并影響較大的區域(圖 3)。有人無人協同作戰概念(MUMT)認為,采用縱深傳感器、縱深效應和支援行動的部隊可實現戰斗力并擴大其影響范圍。

然而,DO 和 EABO 是零和博弈。C4ISR 和 RAS 技術可以讓部隊分布得更遠,但實驗表明,規模經濟會喪失。增加兵力將增加所有領域的需求。正如皮涅羅在 2017 年的一篇研究論文中總結的那樣:"當部隊分散時,就會失去指揮與控制、情報和火力等輔助功能的效率。"在后勤方面也是如此。這種 "DO 困境 "可以用以下經過修訂的 "三重約束范式 "來表示(圖 4)。隨著部隊的分散,一個領域的整合將削弱另一個領域的能力。如果 EAB 指揮官能在不增加 EAB 占地面積的情況下提高能力,就能重新獲得規模經濟效益。智能技術整合可以解決這一問題。

第II部分:融合技術、決策和概念

人工智能展示了解決 PED 問題和 EABO/DO 困境的最大潛力,同時為指揮官提供了對抗性超配。據審計總署稱,"人工智能可用于從多個地點收集大量數據和信息,描述系統正常運行的特征,并檢測異常情況,其速度比人類快得多"。由聯合規劃流程(JPP)提供信息的人工智能系統可以產生更快、更明智的 PDE 循環。如果海軍陸戰隊想要實現 EABO,就不能僅僅依靠人類。相反,未來的關鍵在于如何利用人工智能來增強人類的決策能力。

決策和決策支持系統

研究表明,人類的決策并不完美,在復雜和緊張的情況下會迅速退化。人類的決策在很大程度上是憑直覺做出的,并在進化過程中不斷優化,通過使用判斷啟發法(偏差)來防止認知超載。偏差是快速決策的捷徑,它根據以往的經驗和知識做出假設。36 偏差是一種快速決策的捷徑,它根據以往的經驗和知識做出假設。雖然這些決策已經過優化,但并沒有參考因啟發式方法而被否定的大量數據。由于這些決策都是基于以往的經驗和現有的知識,人們在面對混亂的新情況時可能毫無準備。如前文所述,這對 EAB 指揮官來說是個問題。決策支持系統可以提供幫助。

決策支持系統可以是一個人用來提高決策質量的任何方法。海軍陸戰隊營長利用其參謀人員和聯合規劃流程 (JPP) 提供專家判斷來提高決策質量,而商業部門也越來越依賴于決策支持系統和人工智能來處理大量數據。在本文中,決策支持系統被定義為 "幫助用戶進行判斷和選擇活動的基于計算機的交互式系統",也被稱為基于知識的系統,因為 "它們試圖將領域知識形式化,使其適合于機械化推理"。大多數 DSS 都采用西蒙的有限理性理論(Theory of Bounded Rationality)來建模,該理論承認人類在信息、時間和決策認知方面的局限性。西蒙提出了一個四步模型(圖 5),包括:1.觀察現實的智能;2.制定和衡量標準和備選方案的設計;3.評估備選方案和建議行動的選擇;以及 4.根據信息采取行動的實施。4. 執行,根據信息采取行動,最后反饋到第一步。

指揮官決策的兩個關鍵要素是選擇活動和推理。選擇活動,也稱為選項意識,是指在某種情況下對不同行動方案或備選方案的認識。選擇意識為指揮官提供了通往解決方案的不同途徑。能夠自主分析海量數據的 DSS 可能會揭示出以前不知道的選項。推理是一種邏輯思維能力。通過構建決策過程,數據支持系統可以不帶偏見和感情色彩地對數據得出結論。一些研究表明,在現實環境中,簡單的線性決策模型甚至優于該領域的專家。

DSS 有不同的類型,而類型決定了其性能和對人類增強的效用。智能決策支持系統(IDSS)是與作戰行動最相關的系統,因為它使用人工智能技術和計算機技術來模擬人類決策,以解決實時復雜環境中的一系列問題。在本文中,它將被稱為人工智能決策支持系統或 AI-DSS。它由一個數據庫管理系統(DBMS)、一個模型庫管理系統(MBMS)、一個知識庫和一個用戶界面組成,前者用于存儲檢索和分析數據,后者用于獲取結構化和非結構化數據的決策模型。人工智能-決策支持系統結合了人類構建問題結構的能力,以及通過統計分析和人工智能技術來支持復雜決策的系統,從而壓縮了 PED 流程(圖 6)。

人工智能輔助OODA循環

約翰-博伊德上校(美國空軍退役)被譽為機動作戰條令及其相應心理過程模型的主要作者之一。通過對實驗性戰斗機的研究,他認識到 "錯配有助于一個人的成功和生存,以及敏捷性和節奏之間的關系,以及如何利用它們使對手的感知現實與實際現實相背離"。為了解釋這些不匹配,他提出了一個 PDE 循環,后來被稱為 OODA(觀察、定向、決定和行動)循環(圖 7)。博伊德認為,誰能通過歸納或演繹推理更快地執行這一過程,誰就能獲勝。通過將人工智能融入 OODA 循環,EABO 指揮官可以獲得對敵決策優勢。正如伯杰司令在其規劃指南中所說:"在任何規模的沖突環境中,我們必須比對手更快地做出并執行有效的軍事決策。

更好的信息和選擇有助于做出更迅速、更明智的決策,同時減輕認知負擔。EAB 部隊將面臨超音速和潛在的高超音速武器,這將使他們幾乎沒有時間做出充分知情的決策。EAB 指揮官將被迫利用大量有人和無人傳感器平臺感知威脅,并迅速確定行動方案。

人工智能輔助 OODA 循環(圖 8)直觀地描述了 EAB 指揮官如何借助人工智能技術做出決策。它將博伊德的 OODA 循環作為指揮官 PDE 循環的基礎。這反映出指揮官是決策過程的中心,也是情報和決策支持的主要消費者。下一層是國家情報總監辦公室(ODNI)的六步情報循環,用于將數據處理成情報。下一層是西蒙的有界理性模型,用于描述 AIDSS 如何嵌套在 EAB 指揮官的決策框架中。最后,使用狹義人工智能增強的外部代理被疊加以代表物理工具(如 RAS、武器系統、AI-DSS 和圖形用戶界面 (GUI))。在關鍵點集成狹義人工智能,以實現傳感器操作和利用、數據和情報的 PED 以及武器使用的自動化,從而減少人力并壓縮 PDE 周期時間,為指揮官創造可利用的優勢窗口。

作戰概念

由于 EAB 指揮官將在一個簡樸、分散和資源有限的環境中工作,他必須重新獲得在這些方面失去的效率,以超越對手。AI-OODA 循環將按以下方式解決問題。在執行任務前,指揮官進行任務分析/人員規劃流程,以確定指揮官的關鍵信息需求(CCIR)(優先情報需求(PIR)/友軍情報需求(FFIR))以及與上級總部意圖相關的任務(作戰空間的情報準備(IPB)、行動區域、任務、約束/限制等)。

在步驟 1. 觀察階段,指揮官收集有關作戰環境、敵我態勢和友軍態勢的數據,以驗證 IPB 中的基準假設并更新態勢感知。為此,將利用國防部云服務和配備計算機視覺和機器學習技術的無人系統提供的多源情報,自主分析環境,查找 CCIR。這些系統在收集和識別 CCIR 時,可根據威脅程度和排放控制(EMCON)狀態采取兩種行動方案:1. 從云和/或邊緣 AI 平臺(AI-DSS)分發/縮減信息;2. 限制通信并返回基地進行開發。從這一過程中收集到的數據將反饋到第二階段--定向,以確定其意義和相關性。

在步驟 2. 在第 2 步 "定向"階段,指揮官要對收集到的大量數據進行意義分析,以便做出適當的決策。隨著數據池的不斷擴大,第一步的輸出結果必須由人工進行處理,這將耗費大量的時間和資源。如果處理不當,指揮官就有可能因信息過載而無法確定行動方案。研究表明,在面臨信息超載等人類認知極限時,人們會使用次優的應對策略,從而導致認知偏差。第二步是當前流程中的瓶頸,也是人工智能輔助決策支持系統(AI-DSS)緩解信息過載和縮短 PDE 周期的理想場所。

AI-DSS 的優勢在于它可以自主地以數字方式整合來自無限量來源的數據,包括多源情報、RAS、鄰近邊緣 AI 節點、開放源數據以及最終基于國防部云的服務,以生成決策輔助工具、預測性威脅預報或響應行動方案。通過監控這些來源,人工智能可利用 KDD 推斷出模式和意義,以探測敵方意圖,并在人工智能-OODA 循環的第 4 步中利用 F2T2EA(發現、修復、跟蹤、瞄準、交戰、評估)的殺傷鏈模型做出反應。與計算機網絡防御(CND)中使用的技術類似,EABO 部隊可以探測敵人的行動,將敵人的殺傷鏈指標與防御者的行動方針聯系起來,并識別出將敵人的個別行動與更廣泛的戰役聯系起來的模式,從而建立起陸基情報驅動的 SLOC(海上交通線)防御(IDSD),以控制當地海域。現在,他的情報系統已獲得最佳數據,并輔以人工智能生成的行動方案 (COA),為第 3 步 "決定 "做好準備。

在步驟 3. “決定”步驟中,指揮官現在可以決定采取何種行動方案來實現預期結果。AI-DSS 可以推薦 COA、確定成功概率并建議后續行動或對手行動。通過圖形用戶界面,她的決定可以在整個梯隊中傳達,并傳遞給 RAS 平臺,從而在分布式作戰空間中形成一個綜合的有人無人團隊。

在步驟 4.“ 行動”中,指揮官正在執行任務,并利用反饋機制為其下一個決策周期提供信息,該決策周期已通過綜合通信、火力和指揮控制網絡進行了溝通,以確定可用和適當的武器系統。人工智能 OODA 循環將循環往復地進行下去,直到指揮官達到預期的最終狀態或情況不再需要采取戰術行動。通過利用人工智能作為 DSS,指揮官實現了以下目標:

1.融合--在梯隊中快速、持續、準確地整合來自所有領域、電磁頻譜(EMS)和信息環境的內部和外部能力;

2.優化 - 在正確的時間,以最有效和最高效的方式,向正確的目標提供效果的能力;

3.同步--將態勢感知、火力(致命和非致命)和機動結合起來進行滲透和利用的能力;以及

4.感知和行動速度--在沖突的各個階段都能識別和直觀地看到導致領域優勢和/或挑戰的條件,并采取相應行動;

確信所有數據點都以不偏不倚的方式加權,且周期速度快于敵方。

第 III 部分:關于人工智能輔助 EABO 的小故事

本節將通過一個小故事來解釋人工智能-OODA 循環系統在未來沖突中如何運作,從而將前面討論的主題結合起來。本節旨在從概念上向讀者概述如何使用該系統、它能解決哪些挑戰以及它能創造哪些機遇。

第 IV 部分:障礙和建議

有幾個問題不是本文的主題,但卻是接受和開發 AI-DSS 的重大障礙。將精力和資源集中在這些領域將激發行業解決方案,并協助海軍陸戰隊制定必要的政策、程序和戰術,以實現這一概念,并使海軍陸戰隊與國防部的人工智能戰略保持一致。

第一個問題是 EABO 的人工智能支持概念。如果對問題沒有清晰的認識,海軍陸戰隊就無法在技術、培訓和實驗方面進行適當的投資。一個可以考慮的途徑是與美國陸軍合作。2019 年 8 月,陸軍未來司令部發布了《2019 年未來研究計劃--人工智能在多域作戰(MDO)中的應用》。MDO 是聯合部隊的一個概念,海軍陸戰隊可以輕松嵌套在遠征梯隊中。這項研究通過戰爭游戲得到加強,概述了在 A2/AD 環境中建立人工智能能力的要求、優勢/劣勢和作戰案例。

第二個問題是海軍陸戰隊人工智能的資源配置。國防部人工智能戰略的美國海軍陸戰隊附件在 MCWL 設立了人工智能利益共同體(COI)和人工智能處,以確定人工智能工作的優先順序和同步性,并制定海軍陸戰隊人工智能戰略。這是一個良好的開端,但還不足以滿足人工智能運作所需的資源。海軍陸戰隊必須利用美國陸軍在多域作戰中開展的人工智能工作的范圍和規模,加速技術成熟、實驗和部隊發展。軍事、戰爭和后勤部人工智能有限技術評估應重點關注人工智能-DSS 如何能夠實現、改進或完全修改與 ISR-Strike、C2、維持和部隊保護相關的任務執行。2020 年有機會與陸軍人工智能任務組 (A-AITF) 就其 20 財年人工智能操作化研究計劃開展合作。

第三個問題是企業數據管理。國防部在匯集數據并將其組合成可用的形式方面舉步維艱。為了解決這個問題,國防部數字化現代化戰略要求提供企業云數據服務,也稱為聯合企業防御基礎設施(JEDI)。司令還認識到海軍陸戰隊在數據收集、管理和利用方面的不足,以促進更好的決策。機器要進行 KDD,必須有大量可用的數據集。海軍陸戰隊必須以人工智能-DSS 和其他深度學習技術能夠利用的方式構建其數據,以獲得業務收益。

第四個問題是對人工智能技術的信任。根據美國政府問責局的說法,人工智能正在接近第三次浪潮,但并非沒有嚴重障礙: "第三波人工智能的一個重要部分將是開發不僅能夠適應新情況,而且能夠向用戶解釋這些決策背后原因的人工智能系統"。目前的深度學習方法具有強大的分析能力,但有時會產生不尋常的結果。要讓指揮官信任并在軍事行動中使用 AI-DSS,就必須具備解釋人工智能如何得出答案的能力。可解釋的人工智能是國防部和商業部門共同關注的問題,而商業部門正在牽頭研究可能的解決方案。53 可解釋的人工智能是國防部和商業部門都關注的問題,而商業部門正在引領可能的解決方案研究。了解為什么會做出好的或壞的決策,會讓人對技術產生信任,這對軍事行動至關重要。

第五個問題是邊緣計算,即 "將計算能力下推到數據源,而不是依賴集中式計算解決方案"。這是必要的,因為電磁頻譜將受到爭奪,機器將無法依賴一致的通信和基于云的計算。數據網絡架構將需要重組,以便變得更加分散,并可抵御災難性損失,每個邊緣設備都應能夠與相鄰節點進行網狀連接和通信。在實踐中,數據連接將根據威脅環境從完全連接到拒絕連接的滑動范圍進行。這樣,AI-DSS 就能對本地收集的數據進行快速、實時的 PED,為 EAB 指揮官的決策周期提供支持。此外,國防部必須在戰術邊緣提供基于云的服務,并采用 5G 數據傳輸速率,以機器速度和低延遲充分利用人工智能和 RAS。同樣,這也是與美國陸軍在多域作戰方面的合作領域。

第六個問題是,這在以前已經嘗試過。2002 年,美國國防部高級研究計劃局(DARPA)創建了 PAL(個性化學習助手)計劃,作為一種認知計算系統,它可以通過學習來協助用戶完成任務,從而做出更有效的軍事決策。其主要目標之一是減少對大量人員的需求,從而使決策更加分散,不易受到攻擊。PAL 的一些功能包括將多源數據融合為單一饋送,這些功能已過渡到蘋果 Siri 個人助理和美國陸軍的未來指揮所 (CPOF) 計劃。筆者無法獲得有關 PAL 計劃局限性的詳細信息,但陸軍認識到遠征決策支持系統的必要性,目前正在精簡 CPOF。指揮所計算環境(CPCE)將多個環境整合為一個單一的用戶界面,整體重量從 1200 磅減至 300 磅,主要用于移動作戰。這是朝著正確方向邁出的一步,也是陸軍和海軍陸戰隊的潛在合作領域。

最后,MCWL 應研究在 RAS、計算機視覺、機器學習和數據分析方面的狹窄人工智能領域,這些領域可立即應用于減少指揮官的認知負荷。

結論

當前的 C4ISR/RAS 是勞動密集型的,會產生大量數據,必須迅速加以利用,才能為海軍部隊提供可操作的情報。使用數據分析和機器學習的人工智能可以比人類更快地處理、利用和傳播信息。配備了人工智能信息系統的 EAB 指揮官將以比對手更快的速度做出更明智的決策。然而,在實現這一目標之前,目前還存在著巨大的障礙。展望未來,海軍陸戰隊必須制定一個與海軍作戰概念相匹配的海軍陸戰隊作戰概念,對人工智能工作進行充分的優先排序和資源配置,對企業數據管理進行資源配置,以最大限度地利用數據分析和機器學習來發現數據庫中的知識(KDD),并利用美國陸軍的人工智能實驗和概念開發來實現多域作戰(MDO)。此外,海軍陸戰隊應確定當前可通過狹義人工智能加以改進的技術和作戰領域。

海軍陸戰隊不能再依賴過時的決策支持系統和信息管理方法來進行戰術決策。隨著友軍和敵軍利用技術獲取戰術利益,指揮官的信息負荷將繼續增加。人工智能決策支持系統可以解決這個問題。軍事指揮與控制發展計劃》(MCDP 6)指出了這一點的必要性:"無論時代或技術如何發展,有效的指揮與控制都將歸結為人們利用信息做出明智的決定和行動....,衡量指揮與控制有效性的最終標準始終如一:它能否幫助我們比敵人更快、更有效地采取行動?

付費5元查看完整內容

在聯合國《特定常規武器公約》(CCW)組織的2016年專家會議上,有意義的人類控制(MHC)作為一個重要概念出現。雖然這個概念與自主武器有關,但它可以更普遍地適用于基于人工智能的軍事系統(包括物理和信息),作為保障此類系統的道德行為、問責制和有效作戰性能包絡的關鍵要求。

本次研討會的核心目標不是要重復國家和國際層面上正在進行的關于人機界面的法律和道德的努力。相反,它是為了從這些正在進行的討論中學習,運用一種完全植根于人類因素和認知科學理解的觀點來解決問題,從而提煉出一套實用的以人為本的準則,為北約在這個日益重要的領域的未來行動提供參考。鑒于MHC的多面性,本次研討會選擇了六個主題進行深入研究。每個與會者都被分配到這些主題中的一個,通過以主題為重點的小型分組會議進行探討。

這些主題是:

  1. 人的因素,組織,和MHC的操作考慮因素
  2. 實現MHC的人為因素啟發的設計準則
    3)驗證MHC的系統工程方法和衡量標準
    4)敵方對MHC的利用
  3. 復雜的社會-技術系統
    6)人類-人工智能團隊的道德責任

本次研討會的結果可以直接為高度集中的后續活動提供建議,這些活動可以讓北約了解如何在廣泛的人工智能應用中識別、實現、維護和重新獲得MHC。研討會的結果可以總結為一個 "五大 "清單,即反復提到的、可能需要進一步調查的問題:

1)信任:人機和人與人之間的信任都要跨越組織或系統的界限。雖然不精確,但 "信任 "確實抓住了關系、思維模式和考慮因素的核心,這對成功的人與人工智能團隊合作至關重要。在這個廣泛的主題內的考慮因素包括感知的性能(和影響它的因素),感知的效用和必要性,依賴的可取性,對人類和人工智能系統的優勢和劣勢的理解,進入依賴行為的更廣泛的社會組織動態,甚至遺傳和心理傾向。

2)人機團隊的認證:作為對機器系統的驗證和核實的替代或增強。

3)評估、方法和度量:能夠評估各種環境和系統中人機交互的存在、不存在以及最好是評估其程度,似乎是絕對的核心,大多數主題都有助于這一主題,或者需要這一主題的產出。

4)對不確定性的認識(行為的、背景的、結果的等):同樣,由于對系統設計的結果或指令行為的絕對了解可能永遠不可能,任何MHC測量或評估方法都必須處理不確定性。表述并向用戶傳達這一點似乎對MHC非常有用。

  1. 語義差距/表述不匹配:理解和表述(最好是識別和預測)組織中、個人之間,特別是人類和人工智能系統之間的語義差距困難的前景,看起來既是在可行性的邊界上,也將大大有助于減少誤解,因為誤解可能導致有效的人機交互的損失。
付費5元查看完整內容

"可預測性 "和 "可理解性 "被廣泛認為是人工智能系統的重要品質。簡單地說:這種系統應該做他們被期望做的事情,而且他們必須以可理解的理由這樣做。這一觀點代表了關于致命性自主武器系統(LAWS)和其他形式軍事人工智能領域新興技術辯論的許多不同方面的一個重要共同點。正如不受限制地使用一個完全不可預測的致命性自主武器系統,其行為方式完全無法理解,可能會被普遍認為是不謹慎的和非法的,而使用一個完全可預測和可理解的自主武器系統--如果存在這樣的系統--可能不會引起許多核心的監管問題,這些問題是目前辯論的基礎。

這表明,最終為解決致命性自主武器系統和其他形式的人工智能在軍事應用中的使用而采取的任何途徑,都必須考慮到有時被稱為人工智能的 "黑盒困境"。事實上,遵守現有的國際人道主義法(IHL),更不用說假設的新法律,甚至可能取決于具體的措施,以確保致命性自主武器系統和其他軍事人工智能系統做他們期望做的事情,并以可理解的理由這樣做。然而,在關于致命性自主武器系統和軍事人工智能的討論中,可預測性和可理解性尚未得到與如此重要和復雜的問題相稱的那種詳細介紹。這導致了對人工智能可預測性和可理解性的技術基礎的混淆,它們如何以及為什么重要,以及可能解決黑匣子困境的潛在途徑。

本報告試圖通過提供有關這一主題的共同知識基線來解決這些模糊不清的問題。第1節和第2節解釋了說一個智能系統是 "可預測的 "和 "可理解的"(或者相反,是 "不可預測的 "和 "不可理解的")的確切含義,并說明有各種類型的可理解性和可預測性,它們在重要方面有所不同。第3節描述了可預測性和可理解性將成為致命性自主武器系統和其他軍事人工智能在其開發、部署和使用后評估的每個階段的必要特征的具體實際原因。第4節列出了決定每個階段所需的適當水平和類型的可預測性和可理解性的因素。第5節討論了為實現和保證這些水平的可預測性和可理解性可能需要的措施--包括培訓、測試、標準和可解釋人工智能(XAI)技術。結論是為政策利益相關者、軍隊和技術界提出了進一步調查和行動的五個途徑。

本報告的主要要點

  • 人工智能的不可預測性有三種不同的意義:一個系統的技術性能與過去的性能一致或不一致的程度,任何人工智能或自主系統3的具體行動可以(和不能)被預期的程度,以及采用人工智能系統的效果可以被預期的程度。

  • 可預測性是一個系統的技術特征、系統所處的環境和對手的類型以及用戶對它的理解程度的函數。

  • 可理解性是基于一個系統內在的可解釋性以及人類主體的理解能力。一個智能系統可以通過多種方式被 "理解",并不是所有的方式都建立在系統的技術方面或人類的技術素養之上。

  • 可預測性不是可理解性的絕對替代品,反之亦然。高可預測性和高可理解性的結合,可能是安全、謹慎和合規使用復雜的智能或自主軍事系統的唯一最佳條件。

  • 可預測性和可理解性是自主武器和其他形式的軍事人工智能的必要品質,這在其整個開發、使用和評估過程中有著廣泛的原因。

  • 這些系統中可預測性和可理解性的適當水平和類型將因一系列因素而大不相同,包括任務的類型和關鍵性、環境或輸入數據的種類,以及評估或操作系統的利益相關者的類型。

  • 在軍事人工智能系統中實現并確保適當的可預測性和可理解性的潛在方法可能會涉及與培訓、測試和標準有關的工作。建立XAI的技術研究工作也提供了一些希望,但這仍然是一個新的領域。

付費5元查看完整內容

自主武器系統(AWS)是技術先進的武裝機器,在不同程度上能夠獨立于人類控制而運作。自主武器系統通常包括航行的無人機、船舶或帶有集成武器的地面車輛。利用技術,已經有一些機器能夠實現不同程度的自主,包括適航船舶和空中無人機。在機器人和人工智能領域,國家間的競爭和快速的商業發展是推動軍事利益相關者倡導AWS的眾多動機之一。他們認為當務之急是不要在機器人和人工智能發展中落后,并將AWS技術視為未來沖突中的優勢。另一個觀點是由人權運動者和國際組織推動的,因為他們表達了對AWS技術的擔憂。戰爭和沖突被認為對部署AWS技術來說過于混亂和含糊。事實上,他們認為AWS技術有可能降低沖突本身的障礙。使用因果分層分析,本文旨在解讀AWS的現象和圍繞該主題的兩種截然不同的世界觀。人工智能和AWS技術被軍事利益相關者看作是獲得比對手更高的地位的機會。然而,由于技術創新的挑戰性、生態性,獲得更高地位的想法可能是不可持續的。技術創新的特點可以說是雙向的(一個人開發飛機,另一個人開發防空武器)。 "殺手機器人"辯論的對立面認為,開發能夠對人類使用致命力量的自我思考和自我行動的機器是危險的。這種技術被認為從根本上說沒有能力,也不成熟,無法以符合戰爭法和道德的方式在戰爭中部署。如果未來AWS從 "工具 "過渡到 "智能體",這可能會短暫地滿足軍事利益相關者的更高想法。然而,AWS也可能被證明是一個不可靠的朋友,正如反對的觀點暗示的那樣。

付費5元查看完整內容

想象力和對物理原理不斷發展的理解是未來技術能力的唯一界限,當美國陸軍將自己轉變為一支能夠在多域作戰(MDO)中占主導地位的部隊時,技術在建立和保持對敵手的優勢方面的作用就會增加。美國的政府機構包含了一些組織,負責資助、研究、開發并在新技術增長時將其納入部隊。本專著描述了目前正在開發的能力,這些能力將作為下一代概念的基礎,目前只存在于科幻小說中,但現實中卻有可能實現。它概述了這些進展中的技術所提供的潛在機會,以及它們如何能夠融入所有領域的未來作戰環境。

引言

隨著美國國防部(DoD)從大規模戰斗行動概念向多域作戰(MDO)和聯合全域作戰過渡,對跨領域技術整合的重視程度繼續提高。公共和私營部門的研究和開發組織已經從關注具體的能力轉向提供基本概念的創新,正如陸軍優先研究領域中所概述的那樣(見圖1)。雖然這些優先事項是陸軍特有的,但國防部的其他部門也在為技術創新投入大量資源。

圖 1. 美陸軍優先研究領域。美國陸軍,“2019 年陸軍現代化戰略:投資未來”。

2019年正式成立的美國太空部隊(USSF),在其預算撥款中包括89億美元用于發展天基系統技術。 作為領導將新技術納入空間領域當前和未來擬議戰爭概念的軍事機構,USSF占據了一個不斷發展以滿足作戰環境變化的角色。在短期內,其余領域的更多能力將依賴于空間領域的資產,并推動對技術能力和效率的要求呈指數級增長。美國防部或整個美國政府的任何作戰組織都沒有智力或財政能力來單獨管理這一巨大的任務。與私營企業的緊密合作提供了美國所需的優勢,以保持對其對手的相對優勢。

民用技術的軍事應用和軍用技術的民用應用通過連接兩個平行的研究軌道和匯集關鍵資源如突破、設施和資金來加速發展進程。美國的幾家私營公司已經有專門的部門與政府合作,使雙方受益。作為洛克希德-馬丁公司的一部分,臭鼬工廠負責開發標志性的軍用飛機,如F-117夜鷹和SR-71黑鳥,而雷神技術實驗室創造了愛國者導彈,至今仍是國家防空計劃的基石。私營企業和軍方官員之間的持續合作也改善了技術預測,使規劃者有能力建立起納入仍在開發管道中的概念的途徑,甚至在它們準備投入使用之前。

在本專著中,對未來軍事規劃者來說,最后也是最關鍵的難題是如何在中期和長期將預測能力整合到作戰方法中。等到概念經歷了研究、開發、測試、原型設計和規模生產的完整周期后再考慮其效果,會使美國部隊落后于曲線,并處于持續的反應狀態,特別是在與俄羅斯和中國這樣的全球技術大國競爭時。未來的鑄造過程必須是連續的和迭代的。適應性強的計劃,具有圍繞發展中的突然延遲或進展進行調整的靈活性,比依賴線性進展的概念保持優勢。將 "鞭打 "事件的可能性傳達給高級領導人和政治家,以緩和期望,并減少那些不熟悉技術的細微差別的人的摩擦。

研究問題

美國國防機構如何利用并迅速整合技術進步,以在多域作戰框架內獲得并保持競爭優勢?

論題

負責開發下一代全域聯合作戰概念的戰地級規劃人員需要采用一個反復的、持續的規劃過程,考慮到理論上可能的、但目前還沒有的、與所有領域相互依賴的技術,以集中資源分配和從目前到未來作戰環境的未來預測路徑。

方法論

本專著包括四個不同的研究和思考階段,大致遵循軍隊設計方法學的概念。因此,第一部分試圖了解創新技術的現狀,從而了解軌道和軌道外競爭的技術作戰環境。發展存在于整個美國戰爭機器從概念到原型生產的連續過程中,一些進步來自非軍事應用,如通信、金融和體育產業。第二,研究哪些非保密技術有待于相對迫切的實施。即使在起步階段,新概念的簡單應用也會在多領域的戰場上帶來作戰優勢,而來自真實世界的反饋和數據支持進一步的完善。

在已知的物理學和應用科學的限制下,對現在和可能的空間進行了略微緩和但雄心勃勃的介紹,為未來三十年設定了目標桿。計算能力、材料科學和效率的線性增長阻礙了這些崇高目標的實現。然而,如果能力的增長保持過去幾十年的指數增長(見圖2),本專著中所探討的所有概念都是可以掌握的。最后,本研究以一個簡短的未來戰爭的虛構場景作為結束,該場景展示了戰略和作戰能力在戰術領域的整合,加強了它們與未來戰士在MDO的五個現有領域以及未來可能存在的地外領域的相關性。該方案提出了一個可能的理論終結狀態,以在10到15年的規劃范圍內建立一個作戰方法。然而,這很可能只是物理學和想象力極限競賽中的一個快照。

圖2. 隨著時間的推移,技術能力呈指數增長。

本專著主要關注軌道和軌道外的競爭,包括對所探討的能力有重大影響的地面節點和系統。最終的勝利或失敗,即使是在未來的沖突中,也將極大地影響地面人口,即交戰國的公民。他們將掙扎著在戰爭的附帶影響下生存,同時也會受到氣候變化、人口過剩、食物和水匱乏的日益嚴重的影響。

付費5元查看完整內容

人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。

引言

人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。

作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。

人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。

在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。

如何在海戰領域整合人工智能?

目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。

鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。

如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。

如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。

人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。

C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。

圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。

圖1. 海上人工智能系統的擬議架構

建議

首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。

第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。

第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。

付費5元查看完整內容

2018年國防部人工智能戰略將人工智能定義為機器執行通常需要人類智能的任務的能力。戰略和相關計劃包括了全面戰略的一些特點,但不是全部。例如,國防部的9個與人工智能相關的戰略和計劃并不包括與采用人工智能技術相關的資源、投資和風險的完整描述(見圖)。在未來與人工智能相關的戰略中,發布包括綜合戰略的所有特征的指導,可以幫助國防部更好地定位,幫助管理者確保對人工智能的問責和負責任的使用。

國防部已經開始識別并報告其人工智能活動,但其人工智能基線庫存存在局限性,如排除分類活動。國防部官員表示,這些限制將在AI庫存識別過程的后續階段得到解決。然而,國防部還沒有開發一個高層次的計劃或路線圖來捕獲所有的需求和里程碑。該計劃將為國防部提供一個高層次的、端到端對所有必要特征的視圖,以實現該計劃的目標,為國會和國防部決策者提供一個完整、準確的人工智能活動清單。

國防部組織在人工智能活動上進行合作,但可以更充分地納入領先的合作實踐。國防部使用了各種正式和非正式的合作機制,GAO之前的工作已經確定,如跨機構小組。國防部已經部分納入了領先的協作實踐,例如識別領導能力。然而,國防部官員告訴我們,他們正在制定指導方針和協議,明確定義參與人工智能活動的國防部組件的角色和職責。通過最終確定和發布這樣的指南,國防部可以幫助確保所有參與者對整個部門的AI工作的責任和決策達成一致。

付費5元查看完整內容

人工智能在與人類生活息息相關的場景中自主決策時,正逐漸面臨法律或倫理的問題或風險.可信機器學習是建立安全人工智能系統的核心技術,是人工智能領域的熱門研究方向,而公平性是可信機器學習的重要考量.公平性旨在研究機器學習算法決策對個人或群體不存在因其固有或后天屬性所引起的偏見或偏愛.本文從公平表征、公平建模和公平決策三個角度出發,以典型案例中不公平問題及其危害為驅動,分析數據和算法中造成不公平的潛在原因,建立機器學習中的公平性抽象定義及其分類體系,進一步研究用于消除不公平的機制.可信機器學習中的公平性研究在人工智能多個領域中處于起步階段,如計算機視覺、自然語言處理、推薦系統、多智能體系統和聯邦學習等.建立具備公平決策能力的人工智能算法,是加速推廣人工智能落地的必要條件,且極具理論意義和應用價值.

付費5元查看完整內容
北京阿比特科技有限公司