亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

摘要

記錄一個系統或集成系統內所有信息變化的出處,這提供了關于正在做出的決定和促使這些決定的重要信息。從取證的角度來看,這可以用來重新創建決策環境。然而,出處也可以為其他兩個重要功能服務。收集的數據可以支持組件的整合,而生成的圖形數據結構可以通過解釋、總結和告警來支持操作員進行態勢感知。混合戰爭將必然匯集不同決策支持能力,因為決策者必須在多個戰爭領域運作。自主代理將可能在計劃和執行過程中發揮作用,有時能夠在沒有人類干預的情況下做出決定,但人類決策者必須意識到這一點。事實證明,證據圖可以轉化為修辭結構圖(RSG),使代理能夠用自然語言甚至多模態交流,向人類解釋他們的行動。證據還被證明可以加強對計劃執行監控,并可用于向人類或自主代理提供通知,當計劃中使用的信息發生變化時,可能需要重新考慮計劃。隨著我們朝著智能機器在復雜環境中支持人類決策者團隊的方向發展,跟蹤決策及其輸入的需要變得至關重要。

引言

出處是關于實體、活動、代理以及這些概念之間關系的信息[1]。這些信息不僅僅解釋了發生了什么,它還回答了關于實體如何被操縱、何時發生以及誰參與了這個過程的問題。我們很可能熟悉關于追蹤藝術作品出處的新聞和虛構的故事。任何實體的創造、破壞或修改的出處都可以被追蹤。在本文中,我們將重點討論軍事系統內的信息。在指揮與控制(C2)內,信息出處對于記錄行動背后的決策過程是必要的,特別是當自主和人工智能(AI)代理深入參與時。參與某一過程的 "誰 "可能是人類或人工智能代理。

信息出處有幾個目的。在取證方面,出處追蹤提供了參與決策的人和代理,以及數據是如何演化為該決策的。美國公共政策委員會指出,數據出處是算法透明度和問責制的一個明確原則[2]。完整記錄的出處可以闡明數據的依賴性、責任流,并幫助解釋為什么采取某些行動。隨著人工智能和自主代理繼續自動化進程,它們在做出關鍵決策時已變得更加不可或缺[3]。

圖1 PROV-DM模型。
付費5元查看完整內容

相關內容

論文(Paper)是專知網站核心資料文檔,包括全球頂級期刊、頂級會議論文,及全球頂尖高校博士碩士學位論文。重點關注中國計算機學會推薦的國際學術會議和期刊,CCF-A、B、C三類。通過人機協作方式,匯編、挖掘后呈現于專知網站。

態勢感知(SA)是海上信息戰(MIW)的一個戰略要素。本研究調查了MIW和SA以及它們與水上戰爭(AWW)中SA的關系。本研究對MIW和SA及其與水上戰爭中的SA的關系進行了調查,并進行了廣泛的文獻審查(超過340個來源)。在差異中收集整理的共識的基礎上制定了MIW和SA的新定義,傾向于加拿大皇家海軍(RCN)和其他加拿大來源,并傾向于實際應用。對MIW的普遍看法進行了描述,讀者可以根據自己對MIW的看法進行批評或確認。此外,MIW是部隊發展(功能或能力)和部隊使用(這些功能或能力的作戰使用)的組成部分。在MIW中考慮了SA的含義、要素和步驟,并在MIW和AWW的SA之間進行了類比。研究發現,早期的SA項目傾向于反射性地遵循傳統的操作觀點,即使不打算這樣做,其中操作者被隱含地限制在一個具有有限的封閉任務集的人機界面中,僅僅是因為這種任務適合由人類因素工程師(HFE)進行任務分析。這里為SA開發了一個新的高級任務特征,它基于任務的關鍵性(從非關鍵任務到關鍵任務)和任務的封閉性(從HFE任務分析要求的封閉任務到開放的責任,其中選項生成本身就是任務的一部分,這違背了傳統分析)。這說明了SA必須作為MIW的戰略原則,打破SA的傳統。

關鍵詞:海上信息戰、信息戰、態勢感知、信息環境、信息戰區

付費5元查看完整內容

報告總結

近四十年來,美國國防部(DoD)首次制定了旨在對抗先進軍事對手--特別是中國和俄羅斯--的聯合作戰概念。上一次這樣的努力發生在20世紀70年代末和80年代初的冷戰高峰期,以應對蘇聯在歐洲中央戰線的常規優勢所帶來的戰略和行動挑戰。現在,正如2018年國防戰略(NDS)所強調的,聯合部隊必須 "優先考慮備戰",這包括為軍事優勢制定 "創新作戰概念"。由于作戰概念從根本上說是指導未來部隊設計和未來戰爭的愿景,聯合部隊首先必須回答它打算如何打未來戰爭的問題,然后再試圖回答它需要用什么打仗的問題。

然而,如果國防部要轉向 "聯合概念驅動的、洞察威脅的能力發展",它面臨著相當大的挑戰,因為它的聯合概念發展和實驗過程從根本上說是破裂的。 雖然后冷戰時代見證了發展聯合作戰概念的反復努力,但該過程未能產生創新的作戰方法來指導未來的部隊和能力發展。相反,這個過程產生的概念似乎是故意不推動重大變革的。這些概念并不是真正的 "聯合",而是由現有的服務概念組成的最低標準的組合,以服務的優先權為前提。任何能夠通過發展過程的創新的聯合概念都是如此的淡化和模糊,以至于它們不能引起變化(從而威脅到關鍵利益相關者的利益)。在這種環境下,單個服務概念勝過聯合概念,并驅動投資優先權。

然而,作戰概念和關鍵投資必須是聯合的,因為各軍種在作戰層面已經變得越來越相互依賴。此外,目前的戰爭演習和分析表明,這種作戰上的相互依賴將是未來與中國或俄羅斯等能力強大的同行對手發生沖突的一個關鍵方面--是作為一種優勢還是一種弱點,還有待觀察。我們可以預期,一個先進的、適應性強的對手會尋找美軍的任何差距和縫隙,并利用這些差距和縫隙來發揮其優勢。在這方面,目前的聯合部隊還不夠 "聯合",無法與一個已經發展出對抗美國關鍵的、長期的作戰優勢(如空中、海上和信息優勢)的對手進行高端戰爭。正如本文所討論的,在與同行對手的沖突中成功發動戰爭的規模和強度將需要全新的作戰方式,這反過來又需要一種強制功能,將單個服務能力整合到實際的 "聯合 "戰斗力中。最近發展以威脅為重點的聯合作戰概念--如果成功的話--代表了這種結果實際發生的最佳機會。

本文簡要討論了國防部過去在發展聯合概念方面的三種嘗試,包括空地戰、空海戰和最近的努力--先進能力和威懾小組(ACDP)。本報告利用這些例子來展示克服孤立和狹隘的軍種主導的努力所面臨的挑戰,并說明建立以軍種為中心的概念并給它們披上聯合的外衣的弊端。這些案例強調了聯合概念發展過程中持續存在的病癥是如何使冷戰后的聯合概念在鼓勵作戰創新或推動服務投資優先事項的變化方面毫無用處。

正在進行的開發新的聯合作戰概念工作為國防部提供了一個早該提供的機會,將其概念開發集中在具體的威脅和相應的作戰目標上。目前的努力是幾十年來國防部第一次圍繞應對具體的威脅來組織概念開發,而不是支持聯合部隊對模糊或未定義的對手群體進行作戰的理想化概念。然而,如果不對被廣泛認為是沒有促進思想競爭的共識過程做出重大改變,國防部就有可能重復它過去所犯的概念發展錯誤。此外,新的聯合概念必須通過實驗活動進行嚴格的測試和完善,以驗證其對未來部隊設計的可行性。目前還缺少實驗這一塊。

聯合參謀部正在努力重建其聯合概念開發能力,因為多年來它既沒有優先考慮這項工作,也沒有為其提供足夠的資源。產生真正的新的作戰方式,并有可能改變未來的部隊設計,將需要國防部長辦公室(OSD)、參謀長聯席會議主席和副主席(CJCS和VCJCS)的持續關注,以通過該系統推動新的聯合概念。國防部的高級領導層必須克服每個軍種推動共識產品的傾向,這些產品更多的是為了保護現有的優先事項和長期的特權,而不是產生創造性的想法。

該文件提出了以下建議,以改進聯合概念開發過程:

  • 將聯合概念開發的重點放在未來作戰環境中的優先挑戰上。
  • 賦予作戰指揮部推動聯合概念發展的權力。
  • 探討未來戰爭的其他設想,并通過廣泛的戰爭演習和實驗來驗證聯合概念,而不是通過共識。
  • 擴大實地和艦隊演習中的實驗。
  • 通過培養一種 "紅色思維 "的部門文化來加大思想碰撞。
  • 促進概念開發者和技術專家之間更緊密的結合。
  • 建立一個集中的、高水平的概念和能力發展組織。

修正流程是開發有用的聯合作戰概念的關鍵的第一步,但國防部還必須確保聯合概念開發從正確的角度出發,專注于正確的問題集,同時保持前瞻性。迄今為止,國防部對中國和俄羅斯的思考集中在保持或恢復聯合部隊在冷戰后 "單極時刻 "所擁有的作戰優勢水平上。然后,聯合參謀部提出的概念,如 "聯合愿景:2010",是以 "信息優勢 "的假設為前提的,這將有助于實現 "全譜系主導地位 "的既定目標。國防部的概念和能力發展應該側重于為中國和俄羅斯創造作戰困境,而不是追逐其現有業務方式的微不足道的邊際回報。

很明顯,國防部仍然被其傳統的作戰方式所束縛。參謀長聯席會議副主席約翰-海滕將軍說,在2020年底一系列兵棋推演的測試中,根據美軍過去30年的運作方式制定新的聯合作戰概念的初步努力證明是完全失敗的。

制定新的聯合作戰概念的最初嚴重地依賴傳統的作戰方式,盡管它打算對抗新的對手和新的作戰挑戰,這暴露了一個倉促的“產品”。一個成功的、以威脅為重點的作戰概念需要全面深入的分析--既要分析對手的能力和概念,也要分析聯合部隊在所設想的時間段內的能力和概念,并在深入研究概念的形成和完善之前需要時間來綜合各種投入。以前的聯合概念開發的趨勢是優先形成“產品”和達成共識,而不是更平凡但必要的深度分析工作,這對目前的努力來說不是好兆頭。

自《國家發展戰略》要求提出新的作戰概念以來,已經過去了三年多。國防部需要全新的作戰方式。如果美國軍隊繼續按照今天的方式運作,就不可能保持對同行對手的競爭力。如果這個過程陷入官方機構的爭論,或者在努力達成軍種共識的過程中只產生微小的變化,那將是一個不折不扣的悲劇。

最后,對作戰挑戰提出的概念性解決方案,無論多么合理,只有得到最高級別的文職和軍警領導人的認可和授權,才能推動計劃的改變。雖然該部門在冷戰后的記錄并不完全令人放心,但發展新的聯合作戰概念背后的政治和官方動力是相當大的,而且中國和俄羅斯構成的戰略和行動挑戰比來自伊朗、朝鮮或恐怖組織的挑戰要緊迫和嚴重得多。如果國防部能夠正確對待這一進程,并專注于為中國和俄羅斯創造困境,那么在聯合部隊的轉型方面的積極影響可能是深遠的。

新美國安全中心:

新美國安全中心(CNAS)的使命是制定強有力的、務實的和有原則的國家安全和國防政策。在其工作人員和顧問的專業知識和經驗的基礎上,CNAS通過創新的、基于事實的研究、想法和分析來吸引政策制定者、專家和公眾,以塑造和提升國家安全辯論。我們任務的一個關鍵部分是為今天和明天的國家安全領導人提供信息和準備。

CNAS位于華盛頓特區,由共同創始人Kurt M. Campbell和Michèle A. Flournoy于2007年2月成立。CNAS是一個501(c)3免稅的非營利組織。它的研究是獨立和無黨派的。

作為一個致力于組織、知識和個人誠信的最高標準的研究和政策機構,CNAS對其想法、項目、出版物、活動和其他研究活動保持嚴格的知識獨立性和唯一的編輯指導和控制。CNAS在政策問題上不采取機構立場,CNAS出版物的內容僅反映其作者的觀點。根據其使命和價值觀,CNAS不參與游說活動,并完全遵守所有適用的聯邦、州和地方法律。CNAS不會代表任何實體或利益從事任何代表活動或宣傳活動,如果中心接受來自非美國來源的資金,其活動將限于符合適用的聯邦法律的善意的學術、學術和研究相關活動。該中心每年在其網站上公開承認所有捐款的捐助者。

付費5元查看完整內容

摘要

混合行動由多個行動領域的協調攻擊完成,包括網絡戰和信息戰。檢測混合型威脅的一個關鍵挑戰是如何識別個別事件是對手(精心策劃的)措施的結果,并將所謂不相關的事件聯系起來。由于物理和網絡及信息領域的行動可能發生在不同的時間、不同的地點、不同的速度,作為短期或長期的活動,并且可能是低強度的,因此連接這些點的任務變得更加困難。為了確定與具體任務規劃和執行相關的信息,混合威脅的風險評估必須始終在具體任務的背景下進行,包括其任務目標、行動區域和任務時間范圍。

在本文中,我們描述了兩種情況,在這兩種情況下,對手可能在物理以及網絡和信息空間中進行攻擊,以干擾行動。接下來,我們描述了一個演示器的高級架構,顯示了不同類型的傳感器和信息源是如何連接在一起的。為了應對混合威脅并充分發揮對分析員和決策者的支持潛力,有必要在不同的細節水平上實現態勢感知--從原始數據到高度聚合的風險評估--在不同的領域中共享信息,并在聚合水平上融合它們。

引言

多域作戰(MDO)并不是一個新現象。在戰爭中,長期以來一直在多個領域開展行動。從陸、海、空行動開始,空間和網絡領域補充了對手的組合。為了對付這些,需要不同部門的深入合作。同樣,混合威脅這個詞也不是2020年的發明。一開始是混合戰爭,它與非對稱戰爭、非正規部隊和信息行動等概念混雜在一起。

在早期,重點是傳統的軍事沖突。戰場是傳統的地面,坦克、飛機和艦艇與人員一起是主要的行為者。通信是決定勝負的一個關鍵因素。數字化的開始提供了新的好處和選擇,但也給戰爭帶來了新的脆弱性。今天被稱為網絡和信息領域(CID)的使用在軍事能力方面是一個很大的推動。隨著社交媒體的出現,信息領域發生了巨大的變化,因為它使對手更容易影響公眾輿論和關鍵人物的意見。此外,隨著物聯網中相互連接的設備越來越多,網絡威脅的重要性也在增加。今天的關鍵基礎設施(用于能源、交通、衛生等)比過去更容易受到信息技術的威脅,它們是現代戰爭中的熱門目標。這為敵對勢力的攻擊打開了大門。他們的工具箱不再局限于經典的軍事資產。當然,新興的技術導致了反擊和反擊的措施,以及一場永恒的競爭。

在軍事和民用領域,對信息交流的使用和依賴日益增加,產生了新的攻擊載體,同時也產生了防御這些攻擊的新需求。在今天的沖突中,威脅影響到政治、軍事、經濟、社會、信息和基礎設施等領域。不同的威脅可能是由正規和非正規部隊造成的。這些可能是不利的國家,也可能是出于非政府考慮的團體。

一個關鍵的挑戰是如何在戰術層面上認識到個別事件是對手(精心策劃的)措施的結果,并將所謂不相關的事件聯系起來。在任務規劃或任務執行的風險評估中,這個問題的答案可能會導致對自己的措施無動于衷的決定,如使用通信渠道、部隊保護、路線規劃或反網絡行動。由于物理和網絡及信息領域的行動可能發生在不同的時間,以不同的速度,作為短期或長期的活動,并且可能是低強度的,因此連接這些點的任務變得更加困難。

付費5元查看完整內容

摘要

美國陸軍現代化戰略將人工智能(AI)確定為陸軍優先研究領域(PRA)之一[1]。作為美國陸軍作戰能力發展司令部(DEVCOM)科技事業的一部分,DEVCOM-大西洋前沿部隊今年發起了兩項新的人工智能倡議,以促進與外國學術界和工業界在該優先研究領域的合作機會。第一個倡議,即人工智能重點國際虛擬交流系列(AI FIVES)[2],是一個虛擬研討會,為國際組織提供一個平臺,向美國國防部主題專家和利益相關者介紹他們的人工智能研發活動和能力,促進討論和合作。在AI FIVES下促成的演講涉及的主題包括對抗性機器學習;強大和有彈性的人工智能;來自小數據的預測分析;可解釋和可信賴的人工智能;網絡和安全;用于改善態勢感知和決策的人工智能;以及有人和無人的互動和團隊合作。第二項倡議,xTechGlobal - AI挑戰賽[3],是陸軍助理部長(采購、后勤和技術)遠征技術(xTech)獎競賽項目[4]向國際參與者的首次擴展。xTechGlobal-人工智能挑戰賽從歐洲、非洲和中東的非傳統/小型企業技術開發商那里尋求創新的相關技術,以解決強大的人工智能能力問題,從而在嚴重的資源限制下,如計算能力和需求點的帶寬,管理、整合、處理并從不同的數據源中獲取信息,以便快速決策。在一次成功的競賽之后,有機會繼續并擴大xTechGlobal競賽,使之成為由大西洋、美洲和印度洋-太平洋地區不同地域的DEVCOM前沿要素贊助的其他優先挑戰主題。本文將討論這些舉措的起因、結果以及對陸軍更廣泛的人工智能研究活動的貢獻。

引言

美國陸軍作戰能力發展司令部(DEVCOM)是美國陸軍未來司令部的一個主要下屬司令部,是陸軍的科學和技術領導者[5]。DEVCOM由八個主要的下屬單位組成,包括 軍備中心;陸軍研究實驗室;航空和導彈中心;化學生物中心;指揮、控制、計算機、通信、網絡、情報、監視和偵察中心;數據和分析中心;地面車輛系統中心;和士兵中心。除了實驗室和七個中心外,DEVCOM還有三個國際前沿單位。DEVCOM-美洲、DEVCOM-大西洋和DEVCOM-印度太平洋。指揮部為陸軍的六個現代化優先項目提供基礎科學研究、技術開發、工程和分析支持,重點是提供支持多領域行動的能力。

大西洋發展司令部在英國、法國、德國和以色列的國際技術中心(ITCs)安排了科學家、工程師和軍官。國際技術中心的作用是發展與盟友和親密伙伴的關系;與外國政府、工業界和學術界進行技術搜索;通過學術界、工業界和政府的伙伴關系,與外國伙伴確定基礎和應用研究的機會,提供強有力的科學和技術支持[6]。DEVCOM-Atlantic還包括科學和技術的實地援助(FAST)顧問,他們作為作戰司令部的陸軍單位和研究實驗室之間的聯絡人,確定關鍵需求和實驗機會,以支持陸軍的任務。

從2020年開始,DEVCOM-Atlantic發起了兩項新的倡議,以促進其地理區域內以人工智能(AI)為中心的學術界和工業界的合作機會。第一項舉措,重點國際虛擬交流系列(FIVES)為國際組織提供了一個平臺,向美國國防部主題專家和利益相關者介紹他們的人工智能研發活動和能力,促進討論和合作。第二項舉措,xTechGlobal是陸軍助理部長(采購、后勤和技術)遠征技術(xTech)獎競賽項目[4]向國際參與者的試點擴展,其中包括一個人工智能問題聲明。

圖1:FIVES參與流程圖。
付費5元查看完整內容

摘要

在 2016 年人工智能促進協會 (AI) 發表的講話中,當時的協會主席呼吁 AI 為了魯棒性而犧牲一些最優性 [1]。對于 AI,魯棒性描述了系統在各種情況下保持其性能水平的能力 [5]。通過機器學習開發和驗證高質量模型面臨著特殊的挑戰。一般公認的大多數人工智能需要魯棒的原因包括:

? 訓練和運行數據的不確定性;

? 輸入來自不同訓練集,但在統計上或語義上與訓練群體一致;

? 訓練群體之外的輸入;

? 用有限的數據學習;

? 面對新穎的情況,需要不同于學習策略和分類器的開發方式;

? 對抗性行動。

此外,對于人類 AI 協作團隊,人類必須適當地信任 AI 系統;因此,透明度也可以被視為魯棒性問題。混合戰爭為人工智能的魯棒性帶來了額外的挑戰。決策的不同性質和必要的決策支持擴大了所需模型的范圍。在不同條件下開發的模型組合使用會影響可以對復合系統質量做出的統計聲明。

如果我們需要魯棒性,我們必須考慮它的度量。對與上述條件相關的魯棒性研究的調查,提供了一系列可能的措施。北約聯盟實施的混合戰爭需要了解所使用能力的魯棒性。在本文中,我們從當前文獻中調查了魯棒性度量的前景。在這樣做的過程中,我們有助于了解聯盟內部各種模型和軟件的組合。

1 引言

現代混合戰爭不僅包括傳統戰爭,還包括政治和網絡戰爭(以及其他),其越來越依賴人工智能 (AI) 在日益復雜的環境中執行任務。許多現代 AI 實現都是使用機器學習 (ML) 技術構建的,使用數據旨在來表示預期的情況。這意味著:

? 大多數當前的 AI 構建塊都是為特定目的而構建的,雖然旨在泛化以支持現實世界的輸入,但并不總是能夠處理不熟悉的情況(輸入)。它們是“黑盒”設計,可以實時或近乎實時地執行復雜的決策或環境解釋(分類),但通常只能為已知輸入產生可靠的答案。

? 如果提供以前從未見過的信息或通過人類可能察覺不到的攻擊,人工智能構建塊通常很容易被愚弄和混淆。

從本質上講,我們正在處理的是一個易受影響的問題:現代 ML 解決方案,實際上還有其他 AI 解決方案,本質上很容易被他們不熟悉的數據所欺騙 [2] [3]。例如,這使得依賴于它們的指揮和控制 (C2) 決策樹邏輯容易發生故障。當然,我們想知道如何通過確保利用人工智能的 C2 對故障具有魯棒性來保護自己免受此類漏洞的影響。

總結:

? 許多機器學習方法天生就容易受到環境變化和攻擊的影響;

? 因此,依賴機器學習(主要基于神經網絡(NN))的人工智能系統本質上是脆弱的;

? 因此,必須使依賴人工智能的混合戰爭變得強大。

1.1 魯棒性

ML 方法的訓練和運行都基于以下幾個方面:(1)輸入數據,(2)內部結構,以及(3)學習算法。機器學習的脆弱性可能是由許多因素造成的。出于本文的目的,我們假設網絡內部結構是靜態的、足夠強大且安全的,雖然還有許多其他因素,但我們考慮了兩個主要方面:(a) 訓練數據不佳,(b) 以前未使用的業務數據。因此,我們的重點是 ML 解決方案的輸入數據。

天真地,我們假設 ML 方法(尤其是 NN)是使用高質量(“好”)輸入數據訓練的:在運行期間可能期望 選擇性表示AI 處理的輸入范圍。這個想法是,在運行過程中,人工智能可以為運行數據產生“正確”的決策,這些決策與訓練它的數據相似。換句話說,人工智能必須能夠進行插值,并且在某種程度上還可以推斷其原理。

在最壞的情況下,糟糕的訓練數據會導致訓練出不符合目的的機器學習模型,或者在最好的情況下會導致生成“愚蠢”的模型;也就是說,只能做出具有高度不確定性的模糊決定。然而,在數據質量范圍的另一端也存在危險,因為雖然“好的”訓練數據可能會產生一個可以做出非常準確的決策的模型,但它可能只能使用窄范圍的輸入數據來做到這一點。當然,我們希望機器學習既能滿足其性能要求,又能適應它最初沒有訓練過的新環境;即能夠處理新穎事物場景。

因此,ML 的一個重要目標是構建一種泛化良好的能力。在狹窄的應用程序中,我們希望確保在環境樣本上訓練過的模型能夠像宣傳的那樣在整個環境中工作。最終,我們希望人工智能面向復雜環境的處理能力,可針對所有現實,或者至少是人類感知的所有現實。從某種意義上說,這完全涵蓋了所有情況,沒有新的情況。如果我們觀察牛頓宇宙并且擁有巨大內存量,那么所有情況都可以從當前數據中預測出來。但是,由于我們對宇宙建模的能力受到嚴重限制,因此可能會經常出現新穎情況。在不可能為復雜環境訓練模型的前提下,當這些模型被引入現實世界時,模型應該能應對各種突發情況。

因此,表征模型的魯棒性具有挑戰性,需要考慮模型的不同方面的魯棒性。雖然有許多可用的魯棒性定義,但應區分用于傳統軟件魯棒性的定義,例如 IEEE 24765[4] 的定義,以及與 AI 模型相關的定義。本文中使用 ISO CD22989 [5] 中提供的定義:

魯棒性是“系統在任何情況下保持其性能水平的能力。魯棒性屬性表明系統有能力(或無能力)在新數據上具有與訓練它的數據或典型運行數據相當的性能。”

1.1.1 魯棒性度量

在定義了術語“魯棒性”之后,由于本文的重點是魯棒性度量,我們現在將定義術語“度量”,應用于魯棒性。為了在編寫定義時為我們的思考過程提供信息,確定度量魯棒性可能具有的各種目的以及利益相關者可能是誰,是有用的。由于魯棒性度量的目的和要求將取決于 ML 模型的生命周期階段,因此我們分析了生命周期階段的目的。

盡管許多 ML 模型將基于 NN,但我們的分析擴展到涵蓋 ML 類型和架構的不同變體,并指出 ML 的主要變體是:NN、決策樹和強化學習。

在 ML 模型設計和開發階段,開發人員將試驗模型設計并調整模型的架構和參數,以優化模型的性能。在這個階段,魯棒性度量的目的既可以是提供一種在進行這些更改時度量魯棒性改進的方法,也可以描述模型如何表現魯棒性。此外,不同模型的開發人員之間商定的度量標準將允許在模型設計之間進行可靠的比較。

在系統設計階段,在選擇現成的ML模型納入整個系統時,度量魯棒性將通過提供一種方法來比較一個模型與另一個模型的魯棒性水平和性質,從而為系統設計者提供關于模型選擇的決策信息。

在部署之前,安全從業人員將使用魯棒性度量來為包含 ML 的系統的安全風險評估提供信息。具體來說,該度量將為 ML 模型的漏洞分析提供信息,若該模型具有低魯棒性,則表示攻擊者可以利用漏洞。

最后,在部署階段,從單個 ML 組件的魯棒性度量中得出的整體系統魯棒性度量,將支持最終用戶對系統輸出或行為的信任和信心。

鑒于上述使用范圍和相關利益者,出于本文的目的,我們將有意保留術語“度量”的寬泛定義。我們的定義超出了純粹的測量或量化行為,包括我們如何描述或表征 ML 在任何特定環境中的魯棒性。因此,我們將本文的其余部分基于以下定義:

魯棒性度量是 ML 模型在其生命周期中可能面臨的各種挑戰的魯棒性的度量或表征。特定度量的精確性質將取決于 ML 模型的類型、模型旨在完成的任務、以及模型所處生命周期的階段。

1.2 方法論和論文結構

在考慮魯棒性度量時,我們通過提出“面對……什么的魯棒性?”這個問題開始分析。這生成了一個 ML 模型可能面臨的情況列表,在這些情況下,它們的魯棒性可能會受到挑戰。我們稱這些為“面對”條件。

? 訓練和運行數據的不確定性;

? 不同于訓練集的輸入,但在統計上或語義上與訓練群體一致;

? 訓練群體之外的輸入;

? 用有限的數據學習;

? 新穎的情況,不同于學習策略和分類器的開發方式;

? 對抗性行動;

我們的文獻檢索提供了許多關于魯棒性的先前研究,對于每一項,我們都試圖確定它們適合哪些類別。雖然這并不總是顯而易見的,但它似乎代表了一種構建分析合乎邏輯的方式。因此,在以下段落中,我們嘗試以這種方式對文獻檢索中的單個研究進行分類。

對于每個類別,我們描述了每個魯棒性挑戰的性質和細節,然后是用于度量魯棒性的度量指標類型。盡管本文中對魯棒性的審查不包括混合戰爭示例,但所討論的內容適用于混合戰爭方法。

2 挑戰和度量方法

2.1 訓練和運行數據的不確定性

能夠處理訓練和運行數據中的不確定性對于 AI 來說至關重要,它代表了當前 ML 系統的關鍵組成部分,尤其是那些在軍事領域等危急情況下使用的系統。

2.1.1 挑戰

在 ML 中,目標是在給定的成本函數情況下,學習最適合訓練數據的模型參數。然后,部署該模型以獲取對新數據和未見過數據的預測。作為訓練過程的結果,任何學習模型都帶有不確定性,因為它的泛化能力必然基于歸納過程,即用數據生成過程的一般模型替換特定觀察[6]。盡管研究界做出了許多努力,但沒有任何現有的 ML 模型被證明是正確的,因為任何可能的實驗都嚴重依賴于假設,因此當受到以前未見的輸入數據影響時,每個當前的 ML 模型輸出仍然是不確定的。

不確定性在統計領域有著悠久的歷史,從一開始,它就經常被聯系起來并被視為一個類似于標準概率和概率預測的概念。然而,在最近,由于當前對 ML 的炒作以及如今基于此類解決方案的系統正在控制我們的日常生活,研究界對此類概念的興趣越來越大。這首先是出于安全要求,為此需要新的方法來應對。

在現有文獻中討論 ML 不確定性的不同方法中,可以根據所考慮的不確定性類型對它們進行聚類。當前的大多數作品都解決了偶然或認知不確定性。

2.1.1.1 偶然和認知不確定性

對 ML 中的不確定性進行建模的傳統方法是應用概率論。這種概率建模通常處理單個概率分布,因此忽略了區分偶然不確定性和認知不確定性的重要性 [7] [8]。

偶然不確定性:我們可以將其稱為統計不確定性,它源于實驗結果可變性的隨機性概念。簡而言之,當提到偶然不確定性時,我們隱含地指的是即使存在任何其他信息源也無法減少的不確定性。讓我們通過一個非常基本的例子來描述這一點:假設我們想要模擬拋硬幣的概率結果。我們可以定義一個概率模型,該模型能夠提供頭部或尾部的概率,但不能提供保證的結果。這種不確定性定義了總不確定性的不能復歸的部分。

認知不確定性:也稱為系統不確定性,這是由無知/缺乏知識決定的總不確定性的一部分。這種不確定性是由于機器學習系統的認知狀態造成的,并且可以通過附加信息來減少。例如,假設我們有一個 ML 模型學習一門新語言,并且給它一個新詞,它應該猜測它是指頭還是尾。智能體對正確答案的不確定性與預測拋硬幣時一樣不確定,但是通過在情況中包含額外信息(即提供同義詞或解釋單詞的正確含義),我們可以消除任何不確定性在答案中。因此應該很清楚,與偶然性相反,認知不確定性定義了總不確定性的可還原部分。

既然我們已經定義了偶然不確定性和認知不確定性,我們將考慮有監督的 ML 算法以及這兩種不同類型的不確定性如何在 ML 中表示。

在監督學習環境中,我們可以訪問由 n 個元組 (xi,yi) 組成的訓練集 D = {(x1,y1),…,(xn,yn)},其中 xi (屬于實例空間 X)是包含特征的第 i 個樣本 (即,測量值),而 yi 是來自可能結果集 Y 的相關目標變量。

在這種情況下,ML 算法具有三個不確定性來源:

? 偶然不確定性:通常,X 和 Y 之間的相關性不是確定性的。因此,對于給定的輸入 xi,我們可以有多個可能的結果。即使存在完整的信息,實際結果 yi 也存在不確定性。

? 模型不確定性:為解決給定問題而選擇的模型可能遠非最適合該任務的模型。這是由于模型的正確性和假設的正確性存在不確定性。

? 近似不確定性:通過優化過程學習的模型參數只是對真實假設的估計。這種估計是由于在學習過程中使用的數據缺乏保真度。

模型和近似不確定性都代表認知不確定性。

應該注意的是,對于 ML 算法,偶然不確定性和認知不確定性在很大程度上取決于環境。例如,通過允許學習過程改變最初定義的場景的可能性,可以減少偶然不確定性以支持認知不確定性;也就是說,原始環境中的偶然不確定性并沒有改變,而是通過改變環境而改變(類似于在擲硬幣的例子中加權硬幣的一側)。相反,如果我們考慮一個固定的初始場景,我們知道認知不確定性(即缺乏 ML 算法知識)取決于學習過程中使用的數據量(多少觀察)。由于訓練樣本的數量趨于無窮大,機器學習系統能夠完全降低逼近不確定性。

2.1.2 表示不確定性的機器學習方法

表示不確定性的不同 ML 方法具有不同的能力,可以根據以下內容進行聚類: (i) 表示不確定性的方式; (ii) 如果處理兩種類型的不確定性(偶然性和認知性)中的兩種或僅一種; (iii) 如果他們提供了任何可用于提供不確定性數量粗略估計的解決方案。

2.1.2.1 高斯過程

高斯過程 (GP) [9] 是一種用于監督學習的通用建模工具。它們可用于泛化多元隨機變量的貝葉斯推理和函數推理。在分類的情況下,GP 具有離散的結果,不確定性定義的困難在于知識的表示,然后將其識別為模型的認知不確定性,就像在貝葉斯方法中一樣。在回歸的情況下,可以將偶然不確定性(即誤差項的方差)與認知不確定性區分開來。

2.1.2.2 最大似然估計和Fisher信息數

在機器學習中,最大似然估計原理起著關鍵作用。事實上,如果一個模型可以“非常接近”似然函數的最大值,這意味著數據的微小變化可能對估計的影響有限。如果似然函數是平滑的,它可能是一個很好的指標,表明估計存在高度的不確定性,這可能是由于許多參數的配置具有相似的似然性。

在 ML 中,我們經常利用 Fisher 矩陣 [10] 來表示認知不確定性的數值 [11]。

2.1.2.3 生成模型

生成模型可用于量化認知不確定性。考慮到這些方法的概率性質,這些方法旨在模擬數據分布的密度,通過確定給定數據是否位于高密度或低密度區域,這些模型隱含地提供有關認知不確定性的信息。這一類別中最相關的工作是基于核密度估計或高斯混合,最近在深度自動編碼器方面取得了一些進展[12]。

密度估計是處理異常和異常值檢測方法的關鍵要素,后者只是一個分類問題,當樣本位于低密度區域時,它被認為是分布之外的問題。這樣的成果反而捕捉了偶然的不確定性。

一般來說,生成模型解決了一個非常具有挑戰性的問題,需要大量數據才能正常工作,并且通常具有很高的不確定性。

2.1.2.4 深度神經網絡

人工深度神經網絡 (DNN) 本質上是一個概率分類器,我們可以將訓練 DNN 的過程定義為執行最大似然推理。這導致模型能夠生成給定輸入數據的概率估計,但不能提供有關其概率置信度的詳細信息:捕獲了偶然的不確定性,而沒有捕獲認知。盡管如此,后者通常被稱為模型參數的不確定性。在文獻中,最近有一些作品 [13] [14] 試圖通過將貝葉斯擴展引入 DNN 來模擬這種認知不確定性。

2.1.2.5 模型集成

模型集成(Model Ensembles )模型類的常見示例是 bagging 或 boosting。這種方法非常受歡迎,因為它們可以通過產生一組預測而不是單個假設來顯著提高點預測的準確性[15]。可以包含在此類中的最相關的工作是隨機森林模型 [16]。此類別中的方法主要關注整體不確定性的任意部分。

2.1.2.6 Credal 集和分類器

Credal 集(Credal Sets)是一組概率分布,它是貝葉斯推理推廣的基礎,其中每個單一的先驗分布都被一個候選先驗的Credal 集所取代。作品 [17] [18] 研究如何定義Credal 集的不確定性以及相關表示,定義了存在于Credal 集中的兩種類型的不確定性:由于隨機性導致的“沖突”和“非特異性”。這些直接對應于任意和認知的不確定性;通常使用 Hartley 函數 [19] 作為標準不確定性度量; [20] 還定義了一種工具,可用于評估 ML 系統在面對訓練和操作數據的不確定性時的魯棒性。如果我們知道給定隨機變量的未知值在給定的有限集中,Hartley 函數可用于評估不確定性。此外,已經通過類似 Hartley [80] 和廣義 Hartley [81] 措施提出了對無限集的擴展。

2.2 與訓練集不同但在統計上或語義上與訓練群體一致的輸入

在運行期間,分類器為輸入數據的每個樣本分配一個類標簽。考慮到上述魯棒性的定義,類內可變性,即分配到同一類的所有樣本之間的可能變化,隱含地包含在用于學習分類器的訓練數據集中。

2.2.1 對語義數據變體的魯棒性

使用更具建設性的方法來定義魯棒性有助于更好地模擬用戶對分類器性能的期望。為此,如果分類器對于輸入數據的所有有意義的變體是不變的,我們將暫時稱其為魯棒分類器。顯然,所有有意義的變體的集合取決于應用場景,這通常很難描述。然而,對于許多分類問題,這種有意義的變體可以分為兩類:(i)物理修改(例如,噪聲添加、混合失真、裁剪、旋轉、縮放)和(ii) 輸入樣本的語義修改(例如發音的不同方式)。圖 1(1) 說明了手寫數字分類示例的這兩類可能變體。我們考慮書寫數字“9”的不同變體。而(如圖 1 所示)噪聲添加 (a) 和混雜失真 (b) 可被視為屬于第一類,第三類 (c) 在數字“9”上添加一個小弧線是有意義的(句法)變體,特別是不同國家的當地文化,它使符號(“九”)的語義保持不變。

圖 1 (1) 手寫數字 9 的可能數據變體,(2) 使用變分自動編碼器 (VAE) 重建的數字 3、8、9 的空間,該編碼器對來自 MNIST 語料庫的各個數字進行訓練,(3) 對應的潛在空間表示顏色編碼數字類型。

2.2.1.1 物理魯棒性

AI/ML 相對于第一類變體的魯棒性,尚未得到令人滿意的解決,但近年來已在相當程度上得到解決。在許多涉及對第一類變體的魯棒性的出版物中,基礎數據樣本被建模為歐幾里得向量空間中的向量。然后通過將范數有界向量添加到數據樣本來對失真進行建模。這里,通常使用 Lebesguetype 范數(lp norms)(特別是 l1、l2 和 l∞)。在一篇被廣泛引用的論文 [20] 中表明,這種 l2 范數有界的“對抗性攻擊”可用于在基于神經網絡的分類器中導致錯誤分類。隨后,在對抗性攻擊和相應的保護方法領域做了很多工作(本文稍后將進一步詳細討論)。結果表明,在許多情況下,攻擊很難檢測到,并且對于當時最先進的方法,可以繞過檢測 [21]。顯然,在這種情況下的魯棒性需要保護免受對抗性攻擊。在這種對抗性攻擊環境中定義魯棒性的許多方法可以在一個通用框架下捕獲,如 [22] 所示。

2.2.1.2 語義魯棒性

第二類,數據樣本的語義上有意義的變體,導致了迄今為止很大程度上尚未解決的重大挑戰。相應地,在[68]中,對所謂的感知擾動的魯棒性被稱為一個開放的研究問題。盡管現代基于 AI 的分類器,特別是深度神經網絡,在眾所周知的公共分類挑戰上取得了破紀錄的改進,但相比之下,它們的判別性自然不會導致分類結果的易解釋性。近年來,整個研究分支都集中在可解釋的 AI 上,即,研究通過給定分類器對映射到相同類別的樣本集進行形式化甚至語義化的方法。

理解分類器語義的一個重要方法是將成功的判別分類器與生成模型結合起來。生成方法的優點是可以使用這些模型生成來自原始(樣本)空間的示例。一種結合分類器和生成模型的成功方法是生成對抗網絡(GAN)[24]。

也可以適用于分類的生成模型是(變分)自動編碼器(VAE)[25]。自動編碼器的基本思想是通過訓練一個深度神經網絡來學習原始數據的緊湊表示,該網絡在兩端具有全維(相對于原始數據)層,中間有一個稀疏的“瓶頸”層。圖 1 (2) 和 (3) 說明了如何使用 VAE 來“理解”網絡學習的類別:(2) 顯示了一組具有代表性的重構,這些重構是由經過訓練的 VAE 的生成部分獲得的,用于對 MNIST 數據集的數字“3”、“8”和“9”進行分類。因此,在某種意義上,(2)總結了分類器準備識別的內容。在圖 1 的右側,(3)顯示了從 VAE 的分類器分支獲得的輸入樣本(即 MNIST 數字)的潛在空間表示。顏色對三個數字進行編碼。潛在空間點和重構樣本之間的對應關系如箭頭所示。在藍色中,繪制了將 9 的流形與其他數字分開的曲線,以指示學習的分類邊界。考慮到這個例子,我們注意到上述變體 (c) 在重建部分 (2) 中沒有很好地表示 - 考慮到語義庫受到北美書寫數字風格的偏見,這并不奇怪。因此,為了使分類器對變化 (c) 具有魯棒性,必須應用額外的措施,例如增加或添加到訓練數據中。

基于生成模型,Buzhinsky 等人[26] 提出了幾個指標來衡量分類器對“自然”對抗樣本的魯棒性。為此,他們提出了一組在潛在空間中工作的六個性能指標,并隨后顯示了上述經典對抗魯棒性和“潛在對抗魯棒性”之間的聯系,即對潛在空間擾動的魯棒性。后者的有趣之處在于,幾個示例的潛在空間擾動已被證明與原始樣本空間中語義上有意義的變體相對應。

我們注意到經典的對抗魯棒性已經可以用于獲得關于小范數有界擾動的人工智能分類器的“認證”魯棒性。然而,語義魯棒性更難以形式化,并且與正確理解和建模目標類密切相關。為此,生成模型是一個重要的工具。諸如投影信念網絡 (PBN) 等新概念,即基于前饋神經網絡結構的分層生成模型,具有易于處理的似然函數的優勢,在該領域非常有前景 [27]。

最近的一項工作 [75] 涉及一種稱為復雜事件處理的 ML 形式,其中融合了來自多個傳感器的具有空間和時間關系的多模態輸入,以允許深度學習模型推斷特定類型的事件,例如槍聲或爆炸。此類事件被稱為“復雜事件”。因此,魯棒性的概念并不適用于模型本身,而是適用于機器學習功能所包含的整個組件系統。該研究聲稱,(a)人類邏輯在基于模式和序列預定義復雜事件中與(b)來自單個傳感器的深度學習推斷相結合,提高了系統對錯誤分類的魯棒性。

2.3 訓練群體之外的輸入

在 [78]中,Ashmore 等人識別一組關于輸入域及其子集的定義:I 輸入域空間——模型可以接受的輸入集; O,運行域空間——模型在預期運行域中使用時可能預期接收的一組輸入; F,故障域空間——如果系統其他地方出現故障,模型可能接收到的一組輸入; A,對抗域空間——模型在被對手攻擊時可能收到的一組輸入;其中 O、F 和 A 都是 I 的子集。這些定義不僅在考慮訓練群體之外的輸入(可以從 O、F 或 A 中得出)時很有用,而且在推理模型的輸入時更普遍。

小的、像素空間的擾動,人類可能察覺不到,通常使用 lp 范數測量擾動幅度,是評估模型魯棒性的合理方法(將在 2.6 節后面討論);特別是在對抗性攻擊的可能性更高的混合戰爭領域。然而,在考慮評估模型的魯棒性時,這些小擾動不一定適用于 Ashmore 的攻擊域空間 (A) 之外。最近,獨立的工作 [79] [80] 已經開始研究擾動模型的輸入,使其遠離經常討論和研究的小擾動方法,而不是生成被認為與環境相關且人類可區分的擾動:這些擾動看起來會在輸入上引入純粹、模糊或朦朧等(這可以合理地代表來自 F 或 O 的輸入)。

此外,在 [80] 中,作者建議對語義相關的圖像引入有意義的擾動,但這些擾動可能尚未包含在模型訓練集中;例如,例如,將一群鵝引入一個場景,在這個場景中,模型正在識別停車場中的車輛數量。雖然最后一類有意義的擾動顯然是 Ashmore 的輸入域空間 (I) 的一部分,但可以說,如果訓練數據集不足,這些語義相關的擾動也可以被視為運行域空間 (O) 的一部分。有趣的是,[80] 還發現,當增加系統對小擾動的魯棒性時,模型在處理語義上有意義的擾動時可能變得不那么魯棒,因此考慮評估模型對這兩種擾動類型的魯棒性顯然很重要。

為了評估模型對這種語義上有意義或環境相關的擾動的魯棒程度,[80] 的作者提出了一種用于引入擾動的滴定方法,這樣可以逐步測量在模型的準確性變得可疑之前引入擾動(例如,通過其置信度或已知基礎事實的分類變化)。當考慮模型在預期的運行域空間中的應用時,這提供了一個進一步的度量標準來評估模型的魯棒性。

2.4 用有限的數據學習

眾所周知,使用深度學習需要大量數據來學習復雜的任務。如果訓練數據太小,模型會過擬合,泛化能力很差。不幸的是,獲取高質量的訓練數據既困難又昂貴,因為它通常需要人工標記。例如,細粒度的 Cityscapes 數據集平均需要 1.5 小時來標記每個樣本 [28]。此外,與為學術目的(概念驗證、評估、基準測試等)開發的數據集不同,軍事數據集還必須包含代表在現實世界可能發生但難以觀察甚至預測的大量邊緣情況的數據。如果沒有這樣的訓練數據,在可能最重要的時候,或者在條件因敵對行動而意外改變的時候,軍事模型的實際價值將是有限的。

軍事應用的數據采集挑戰是重大的,但也是必須解決的,以確保模型在現實世界中部署時是強大的。幸運的是,許多轉移學習技術[29][30][31]已經被提出,這些技術利用了深度神經網絡可以學習到可轉移的一般特征,因此,可以被其他類似的任務重新使用[32]。預訓練與微調相結合,通常用于利用少量/有限的數據進行學習,同時避免昂貴的大規模模型(如GPT-3)的再訓練,這些模型可能需要專門的硬件來學習。其主要思想是:

1.將預訓練的源模型的一部分復制到目標模型中;

2.向目標模型添加一個或多個隨機初始化的(未訓練的)層,使最后一層與目標的標簽空間相匹配;

3.使用標記的目標域數據訓練模型。

然而,這些技術不能用于軍事數據來自特殊傳感器(如激光雷達、紅外、合成孔徑雷達和高光譜)的情況,這些傳感器很少有預先訓練好的模型,或者過于敏感,甚至在盟友之間也不能共享。

無監督領域適應是另一種轉移學習技術,雖然它在淺層學習中已經被研究了幾十年,但最近在深度學習中也受到了很多關注[33]。使用這種技術,來自源域的標記訓練數據可以用來訓練一個使用目標域的無監督數據模型。該方法假設源域的標記數據成本低且容易獲得。

從軍事角度來看,這個想法很有吸引力,因為源數據有可能是合成的。也就是說,已經存在的模擬器或其他生成模型有可能被改編為不僅能生成完美標記的源數據,還能生成代表邊緣情況的數據,否則很難甚至不可能獲得這些數據。基于模擬的方法將完全消除人類的標記工作,否則可能會導致不正確、有偏見和不完整的數據集,這些數據集在訓練時也會轉移到模型中。使用無監督領域適應性來彌補 "模擬到真實"的差距(sim2real)正在積極進行[34][35],使用各種技術,其中許多依賴于使用對抗性方法,如領域損失函數[36][37]和生成性對抗網絡(GANs)[38][39]。

2.5 新情況,不同于學習策略和分類器的開發方式

為了在復雜環境中發揮作用,人工智能必須表現出對新事物的魯棒性。DeepMind[41]的演示表明,ML可以被用來開發策略,從而在僵硬的游戲中實現超人的發揮。圍棋“Go”這個游戲提供了一個復雜的環境,超過了我們對游戲可能狀態的存儲極限,因此提供了前面討論的關于我們對牛頓宇宙建模的極限的情況。然而,如果改變了游戲規則,生成的代理就會變得很脆弱或者完全失敗。在[42]中,這種類型的結果在一個更簡單的環境中被證明,實驗闡明不同的變化如何影響代理的魯棒性。

但新穎性不僅僅是數據點不包含在 ML 訓練集中的情況。為了將新穎性的研究結合起來,[43] 提出了一個描述新穎性的框架。圖 2 說明了人們如何以一種可以同時衡量新穎性和代理反應的方式看待新穎性。這種新穎性觀點的關鍵在于,可以將新穎性考慮到與世界有關的方面以及與代理人的經驗有關的方面。同樣,對代理任務有影響的新穎性,對魯棒性的影響不同于對任務沒有影響的新穎性。這也是 Chao [42] 中證明的一個發現。

圖 2. 考慮新穎性的框架。

2.5.1 DARPA SAIL-ON 計劃

DARPA SAIL-ON 計劃 [40] 中采用的一種基于游戲的新穎性實驗方法。 DARPA SAIL-ON 計劃假設智能體具有以下四個要素:

? 一種性能要素,它使用已知的專業知識通過感知、推理、規劃、控制機制來完成任務并實現目標(例如,尋找和收集具有所需特征的水下物體);

? 一個監控元素,將觀察結果與期望值進行比較,以檢測環境(例如,聲納不可靠、不熟悉的捕食者)和代理自身行為(例如,車輛向右轉向)中的異常情況;

? 一種診斷要素,可定位專業問題,生成有關原因(例如,非反射表面、橫流、未對準的螺旋槳)、評估備選方案并從中進行選擇;

? 修復被認為是造成性能問題的專業知識并糾正它們的維修要素(例如,更新的聲納方程、電流敏感控制器或新的螺旋槳模型)。

正如上文關于新穎性的介紹部分所述,這項研究的大部分開始于認識到 DeepMind 用于解決圍棋、國際象棋、將棋和星際爭霸游戲的方法對游戲規則的變化并不魯棒。一個例子是南加州大學 (USC) 開發并通過 GitHub 發布的 GNOME 框架。

NIWC Pacific 與 USC 合作開發了一個版本,英國 Dstl 使用 GNOME 框架開發了“Hunting of the Plark”游戲。這將允許對受過訓練以玩該游戲的代理的新穎性影響進行實驗,這是圖靈研究所研究小組的重點。計劃對使用 ML 開發的決策支持工具進行進一步實驗,我們不僅可以處理模擬情況,還可以與美國海軍進行現場實驗。

2.5.2 新穎性檢測

個體在不知道世界形勢發生變化的情況下對新穎事物有很強的抵抗能力。這很可能是由于新穎事物對正在執行的任務并不重要,或者至少是在敏感度較低的領域變化。然而,處理新穎事物的一個策略是至少檢測到一個代理處于一個新穎的情況,即使該代理不知道如何在新穎的環境中工作,除了退出或提醒其他人注意這種情況。

代理的基本問題是:環境是否發生了變化,或者正在分析的數據是否只是在以前分布的一個尾部?目前,對于大部分的ML來說,僅僅認識到數據不在樣本范圍內可能就足夠了。至少能認識到其自身局限性的ML在許多情況下是一個進步。在這方面,經典的對抗性例子演示經常被提起:在這些實驗中,代理往往對他們的錯誤答案非常自信[44]。

在規劃系統中,識別可能基于對任務進度的動態評估。如果規劃無效,一種可能是世界以一種模型未反映的方式發生了變化。早期檢測可能會防止災難性結果,但這并不能保證。事實上,人們可以設想無法恢復的情景(在黑洞的事件視界上轉彎是一個極端的例子)。

2.5.4對新穎性的魯棒響應

[45] 將提供魯棒響應的任務定義如下:

? 假定:使用專業知識在一類環境情況下運行的代理架構;

? 假定:支持此類環境中可接受的代理性能專業知識;

? 假定:在突然的、未通知的更改環境中,經驗有限會導致性能降低;

? 發現:當環境發生變化時,哪些修改后的專業知識將支持可接受的性能。

對新穎事物的響應類型與正在執行的任務類型有關。在分類器中,系統可能需要調整其模型,不僅允許改變其提供的答案,還允許解釋這種變化意味著什么。例如,想象一個感知代理,其可確定機器人是否存在障礙物。相機系統的改變,例如鏡頭上的蒼蠅附著可能會為系統創造一個新局面。如果系統能夠適應并確定不存在障礙,則需要對情況進行解釋以證明答案的合理性。

圖 3. SAIL-ON 新穎性指標假設。注意程序中的 TA2 代理是那些對環境中的新穎事物做出反應的代理。

對于規劃系統,新穎性可能表現為采用新的行動或發現行動的成本與以前不同;目標可能會發生巨大變化。規劃系統可能不得不調整他們的知識,重新計算以前的任務,利用經驗來改變他們的計算。上面圖 3 中的假設說明了測量環境。在環境中出現變化之前,學習和運行可能會進行一段時間。對特定變化還不夠魯棒的代理性能會下降,必須找到一種方法來檢測新事物的發生,確定發生了什么變化并在運行中對其進行解釋。

2.6 對抗性行動

在過去的幾十年里,已經證明基于深度學習技術的機器學習模型可以在各種任務中達到甚至超越人類水平的表現。另一方面,機器學習模型通常容易受到輸入擾動的影響,并且很容易被愚弄以產生不正確的輸出 [53] [54]。這些類型的操作被稱為對抗性攻擊,機器學習模型對抗這些攻擊的性能被測量為對抗魯棒性 [55]。在兩個不同方面研究了對抗魯棒性。第一個方面,研究人員試圖找到一種產生對抗性攻擊的方法,以最大程度地降低模型的魯棒性 [56] [57] [58] [59] [48]。第二方面,研究人員試圖找到更好的訓練或防御方法,使網絡架構對這種對抗性攻擊更加魯棒[60] [61] [62] [63] [64]。在本節中,我們調查了對抗性攻擊和防御方法,并從當前文獻中定義了對抗魯棒性的指標和測量方法。

2.6.1 對抗性攻擊

[54] 中針對機器學習系統 M 和輸入樣本 C(稱為干凈樣本)定義了對抗性攻擊,如下所示:

“假設樣本 C 被機器學習系統正確分類,即 M(C) = y。可以構建一個對抗性樣本 A,它在感知上與 C 無法區分,但分類錯誤,即 M(A) ≠ y。”

基于此定義,對抗性攻擊的目的是修改模型輸入以導致不正確的模型輸出,使其無法被人類觀察者區分。不可區分性標準對可應用于輸入的擾動有一些限制,這在文獻中稱為 lp 范數,即

其中 ? 是最大允許擾動。最常用的范數是 l2 和 l∞。

考慮到這一限制,提出了幾種方法來生成對抗性樣本 [65] [55] [48]。生成對抗樣本主要遵循兩種不同的方法,即黑盒和白盒。在黑盒方法中,用戶不了解模型,只能訪問給定輸入的預測概率或預測類別。另一方面,假設模型及其參數在白盒方法中是完全已知的[47]。

白盒攻擊在欺騙模型方面比黑盒攻擊更有效,并且在文獻 [56] [57] [58] [48] 中使用不同的方法進行了廣泛的研究。白盒攻擊主要是基于梯度的攻擊方法:它們通常構造一個損失函數,可以導致擾動攻擊能力的提高和擾動幅度的降低,然后通過梯度優化損失函數以生成對抗樣本[66]。使用損失函數的梯度來確定對抗性擾動,可以像快速梯度符號法(FGSM)[65]那樣在一個步驟中進行,用于快速生成對抗性樣本。為了提高效果并減少擾動,在基于迭代梯度的攻擊中,不是在梯度方向上采取單一步驟,而是采取多個較小的步驟[54][48]。

對抗性攻擊也可以作為訓練的一部分。最近的一些工作[46]背景是一個對等網絡,其中每個對等體都有一份神經網絡模型的副本,以創建一個分布式的學習環境,這并不依賴于中央協調節點的存在。這樣的機器學習架構非常適用于有多個伙伴的軍事聯盟場景。最初,每個對等體擁有總訓練數據集的一個子集,隨著模型訓練的進行,模型參數在每次訓練迭代時都在對等體之間共享。

本實驗基于 Fashion-MNIST 數據集,并非試圖提高點對點 ML 的魯棒性,而是測量和優化中毒技術在導致對等體錯誤分類方面的有效性。中毒效果的衡量標準是,就訓練迭代次數而言,惡意對等體能夠可靠地毒化良性對等體的速度有多快。然而,我們相信相同的指標可以用來推斷 ML 對這種中毒的魯棒性:實現錯誤分類所需的迭代次數越多,魯棒性就越高。

2.6.2 對抗性防御

已經提出了一些方法來保證在特定條件下對范數有界的對抗性攻擊的魯棒性。例如,Wong 和 Kolter [67] 使用對抗性多面體的概念為基于 ReLU 的分類器提出了可證明的防御措施。此外,[68] 中提出了一種有效且完整的分段線性神經網絡魯棒性驗證器。在該論文中,提出了一種算法,該算法基于最大 (l∞-) 范數在對抗性誤差上產生經過驗證的界限。

獲得強大的深度神經網絡的最成功的方法之一是通過對抗訓練。對抗性訓練的主要動機是將攻擊和防御都納入一個共同的理論框架,自然地封裝了大多數先前關于對抗性樣本的工作 [55]。在這種方法中,不是直接將原始數據集中的樣本輸入到訓練中,而是允許對抗性攻擊首先擾動輸入,然后將擾動的樣本輸入到訓練中。對抗性訓練以不同的方式得到增強,例如改變攻擊過程、損失函數或模型架構 [69] [50]。

對抗性訓練的性能很大程度上取決于生成增強訓練數據集時使用的損失函數和對抗性攻擊方法,并且由于需要生成對抗性樣本,與干凈訓練相比需要更長的時間。在 [73] 中,已經證明,使用具有早期停止的經典對抗訓練可以更容易地提高最先進的對抗訓練方法的性能。這表明我們對對抗性訓練的理解是有限的。在 [74] 中分析了對抗性訓練對魯棒性的影響,他們得出結論,在使用(隨機)梯度下降的干凈訓練過程中,神經網絡將在所有特征中積累一些與任何自然輸入,但極易受到(密集)對抗性擾動的影響。在對抗訓練期間,這種密集的混合物被“純化”以使模型更加魯棒。

2.6.2.1 訓練期間隨機噪聲的隱式生成建模提高了對抗魯棒性

最近開展的工作 [70] 專門研究了上述方法。事實上,這項工作旨在通過將隨機噪聲引入訓練輸入并使用隨機梯度下降 (SGD) 對其進行優化,同時最小化訓練數據的總體成本函數,從而使深度神經網絡對對抗性輸入更加魯棒。效果是在開始時隨機初始化的輸入噪聲在訓練過程中逐漸被學習。結果,噪聲近似地模擬了輸入分布,以有效地最大化給定輸入的類標簽的可能性。

作者 [70] 評估了他們在 MNIST、CIFAR10 和 CIFAR100 等分類任務上的方法,并表明以這種方式訓練的模型更具對抗性。發現噪聲和干凈圖像的組合方式對精度有重大影響,乘法比加法獲得更高的精度。魯棒性的直接度量沒有發展,而是隨著擾動水平的增加,魯棒性被量化為精度函數。

2.6.2.2 基于離散化的對抗性攻擊解決方案

繼對抗性訓練的主題之后,[72] 表明,圖像分類深度神經網絡對對抗性輸入的魯棒性可以通過輸入空間和模型參數空間的離散化來提高,同時精度損失最小。在使用 MNIST、CIFAR10、CIFAR100 和 ImageNet 數據集的實驗中,輸入空間的離散化涉及將像素強度的數量從 256 (28) 減少到 4 (22),參數空間的離散化涉及使用低精度權重訓練模型以及諸如二元神經網絡 (BNN) 之類的激活。此外,結合這兩種離散化技術極大地提高了模型的魯棒性。與更昂貴的對抗性訓練過程(即使用對抗性示例訓練模型)相比,這種組合方案可以被視為提高魯棒性的另一種方法。在每個實驗中,通過比較分類的準確性來衡量魯棒性,同時對抗性擾動 (ε) 逐漸增加。實際上,這項工作中魯棒性的度量似乎是在保持給定精度的同時可以容忍的擾動程度。

2.6.2.3 減輕神經網絡中的對抗性樣本

在最后一個示例中,進行了一項相對簡單的工作 [71]。對圖像分類器的輸入進行預處理是通過將輸入饋入高斯核來實現的,其效果相當于平滑低通濾波器,其中平滑程度取決于內核的標準偏差參數。該實驗是使用 MNIST 數據集進行的,并測量了平滑和各種對抗性噪聲水平的不同組合的準確度。結果表明,為了優化給定水平的對抗性噪聲的準確性,存在一個最佳的平滑水平。在這種情況下,用于魯棒性的度量是針對給定數量的對抗性噪聲的成功攻擊的百分比。該度量允許直接比較使用和不使用平滑的性能。

2.6.3 測量對抗魯棒性

對抗性魯棒性可以衡量為對抗性攻擊[47]擾動輸入的模型準確性。由于評估取決于應用的對抗性攻擊,因此很難衡量模型的實際對抗魯棒性。

文獻中的大多數作品通過使用在其訓練階段使用的相同或相似的對抗性攻擊方法和損失函數,來展示其方法的對抗性魯棒性。在[48]中已經表明,通過改變損失函數和生成對抗樣本的方法,可以實現比原始論文中報道的更低的對抗魯棒性。實際上,[48] 中指出,在 49 個案例中,有 13 個案例的魯棒性變化大于 10%,在 8 個案例中大于 30%。

在 [49] 中,通過將幾個深度神經網絡的性能與人類觀察者進行不同類型的操作進行比較,進行了類似的評估。在這項工作中,已經表明,只有在訓練階段知道所應用的操作時,深度神經網絡才能達到人類水平的性能。對于未知的操作,深度神經網絡的性能會急劇下降。此外,文獻中提出的許多防御策略都被更強大的對手打破了[48] [50]。因此,應仔細比較在不同方法下獲得的魯棒性,以確保評估盡可能有效[47]。

對抗魯棒性被報告為從擾動集中獲取的最壞情況輸入的模型精度。除了準確性之外,還可以測量兩種類型的性能指標來評估模型的魯棒性。第一個指標是對抗頻率,它衡量模型多久無法保持穩健[51]。第二個是對抗性嚴重性,用于衡量從原始輸入到對抗性樣本的預期最小距離 [51] [52],即模型被愚弄的難易程度。事實上,引用[51]:

“頻率和嚴重性捕獲了不同的魯棒性行為。神經網絡可能具有高對抗頻率但對抗嚴重程度低,這表明大多數對抗樣本距離原始點有非常小的距離。相反,神經網絡可能具有較低的對抗頻率但較高的對抗嚴重性,這表明它通常是魯棒的,但偶爾會嚴重不魯棒。頻率通常是更重要的指標,因為具有低對抗頻率的神經網絡在大多數情況下都是魯棒的。實際上,對抗性頻率對應于用于衡量魯棒性的對抗性樣本的準確性。嚴重性可用于區分具有相似對抗頻率的神經網絡。”

3 結束語

混合戰爭表明可能有許多系統和許多模型,因此如果假設人工智能將在混合戰爭系統的集合中使用,那么多種錯誤來源具有破壞人工智能在軍事領域應用的巨大潛力。

因此,上述當前技術的標準和調查都與了解將 AI 和 ML 應用于混合軍事領域的潛在弱點相關,因此在涉及與 AI 和 ML 的魯棒性有關的考慮時,顯然需要確保未來進行廣泛的評估。很明顯,有一個重要的考慮領域和可用的度量方法。然而,正如之前在第 2 節中提出的,這些度量方法適用于不同的利益相關者、不同的模型和潛在的不同任務。

因此,當前的問題是如何為特定模型確定和找到正確的度量方法,以獲得混合戰爭系統所需的置信度。 IST-169 打算推進這項初步調查來做到這一點。我們相信,開發各種類型的魯棒性及其適用于不同類型 AI 階段的圖形表示,將有助于全面了解 AI 魯棒性格局。這將加強并采取更嚴格的方法對人工智能應用進行開發。

付費5元查看完整內容

摘要

混合戰爭為沖突推波助瀾,以削弱對手的實力。相關的行動既發生在物理世界,也發生在媒體空間(通常被稱為 "信息空間")。防御混合戰爭需要全面的態勢感知,這需要在兩個領域,即物理和媒體領域的情報。為此,開源情報(OSInt)的任務是分析來自媒體空間的公開信息。由于媒體空間非常大且不斷增長,OSInt需要技術支持。在本文中,我們將描述對物理世界的事件以及媒體事件的自動檢測和提取。我們將討論不同類型的事件表征如何相互關聯,以及事件表征的網絡如何促進情景意識

引言

開源情報(OSInt)的任務是探索和分析可公開獲取的媒體空間,以收集有關(潛在)沖突的信息,以及其他主題。所謂 "媒體空間",我們指的是通過傳統媒體(如電視、廣播和報紙)以及社交媒體(包括各種網絡博客)傳播的非常龐大、快速且持續增長的多語種文本、圖像、視頻和音頻數據語料庫。社會媒體大多是平臺綁定的。平臺包括YouTube、Twitter、Facebook、Instagram和其他[1,2]。在很大程度上,媒體空間可以通過互聯網訪問。很多部分是對公眾開放的。然而,也存在一些半開放的區域,其中有潛在的有價值的信息,但并不打算讓所有人都能接觸到,例如Telegram和Facebook頁面。

媒體空間提供關于物理世界的信息:發生了什么?哪些事件目前正在進行?未來計劃或預測會發生什么?它對物理世界的事件反應非常快,也就是說,幾乎是立即提供信息[3]。因此,媒體空間似乎是物理世界中事件的一個有希望的 "傳感器"。然而,從鋪天蓋地的大量信息中檢索出特別相關的信息仍然是一個挑戰,因為到目前為止,所提供的大多數信息是完全不相關的,至少對軍隊來說是如此。此外,媒體空間并不一致--它包括真實和虛假信息,因此,事實核查是一個進一步的挑戰。

除了作為物理世界的傳感器,媒體空間還是意識形態、意見和價值觀的論壇。它是一個重要的空間,用于協商一個社會認為是允許的、規定的或禁止的東西,并用于表現情緒和偏見。因此,它已成為混合戰爭的戰場,即以 "通過暴力、控制、顛覆、操縱和傳播(錯誤的)信息"([4],第2頁)為目的進行的行動。(錯誤的)信息行動導致我們稱之為 "媒體事件"。媒體事件可以被觸發,以影響情緒、意識形態和公眾對物質世界的看法。

可能的圖表實例
付費5元查看完整內容

摘要

在當前復雜的多域作戰中,白圖是指揮官了解威脅及其對任務的影響的關鍵因素。建模和仿真(M&S)與數據科學(DS)可以支持 a)最新的白圖開發 b)SME的分析工作,估計任何指揮級別的軍事行動的相關風險。本文討論了北約實施的M&S和數據科學用例,以支持SACEUR的責任區(AOR)彈性風險表述。開源數據經過分析、結構化和操作,以自動方式和按需生成與彈性7基線要求(7BLR)相關的地理參考數據/信息,涵蓋政府的連續性、能源供應、人員流動、食品和水、大規模傷亡、通信系統和運輸系統在JFC的AOR。它作為預測 SACEUR運營風險的北約彈性模型的輸入。系統動力學范式被用來開發北約彈性模型,作為在戰略層面處理定性和定量輸入數據和抽象彈性語言的混合的理想方法。戰略沖擊會影響白圖狀態的當前和未來。實施機器學習技術來估計戰略沖擊參數。該原型已在最終用戶的實驗中使用,并且已確定驗證步驟。

付費5元查看完整內容

摘要

幾十年來,政治科學家和國家層面的軍方政策制定者一直在戰略層面使用博弈論,但對其在作戰層面的使用幾乎沒有評論。傳統上,三個主要挑戰阻礙了規劃人員和分析人員在作戰層面使用博弈論,即復雜的作戰環境、參與者的動態交互以及大多數陸軍參謀人員不具備使用復雜數學技能。

這本專著表明,這些挑戰是可以克服的,博弈論可以在規劃過程中提供新穎的見解。美陸軍參謀部規劃人員可以在作戰層面有效地使用基本博弈論和簡單的數學來了解作戰環境、了解行動者及其動機,并在軍事決策過程中比較行動方案。本專著展示了如何避免高級博弈論用于解決理論問題的繁瑣數學程序,而是專注于使用基本博弈論在規劃過程中提供價值。它通過回顧博弈論在戰略層面的應用、教授基本博弈論和涵蓋一些基本博弈概念來展示博弈論的實用性。然后,它考察了一場歷史性的行動,以展示博弈論的使用將如何達到另一個推薦行動方案和結果,也許會改變歷史進程。最后,它通過將博弈論應用于軍事決策過程、任務分析和行動制定過程的兩個步驟的練習,提供了使用博弈論的指南。

引言

幾十年來,戰略規劃者和政策制定者在戰略層面有效地應用了博弈論,但軍事從業者往往不在作戰層面使用它。當約翰·馮·諾依曼和奧斯卡·摩根斯坦在 1940 年代初在蘭德公司工作期間發展博弈論時,他們尋求一種數學方法來為沖突領域,特別是經濟沖突提供解決方案。他們于 1944 年發表了開創性的著作《博弈論與經濟行為》

博弈論允許通過將場景建模為簡化的博弈來分析決策。博弈論試圖定義參與者、策略——或可供他們選擇的選項——以及博弈結果的預期回報。它試圖澄清由于參與者的選擇而導致的不確定性。它的主要用途是它認識到結果是通過多個參與者的互動共同決定的,而不僅僅是一個人自己決定的結果,它允許分析對手可能會做什么。由于這些原因,政策制定者和戰略家使用博弈論來理解戰略問題,例如核對手、貿易慣例、內戰解決和裁軍以及缺乏國際合作,從而制定政策建議以幫助解決這些問題

作戰層面的規劃者是否可以有效地應用博弈論仍然是一個懸而未決的問題。在作戰層面使用博弈論的批評者強調了動態交互的復雜性。他們指出,培訓軍官了解博弈論的基本概念并將操作層面問題的復雜性提煉成基本博弈需要大量時間。

本專著認為博弈論提供了一個有價值的框架,最適用于在軍事決策過程的任務分析和行動發展步驟過程中理解環境中的參與者。博弈論旨在提供對情況的理解。這需要了解參與者及其潛在計劃或戰略動機。博弈論提供了一種理性的方法來研究行動者如何制定他們的策略和他們的動機基礎。由此,指揮官和參謀人員可以獲得理解,然后疊加其他因素,包括行動方案和潛在結果。它提供了一種合理而直接的方法來簡化復雜的問題。因此,博弈論為作戰規劃者提供了另一種工具,可用于了解作戰環境。

本專著重點介紹博弈論在戰略層面的歷史應用、當前的規劃過程學說和相關框架,以回答作戰規劃者能否在作戰層面有效地使用博弈論。這本專著主要通過囚徒困境分析博弈論在戰略層面的應用,將其應用于冷戰、國際貿易和價格戰期間的降價。 1777 年的新澤西戰役為應用博弈論和理解喬治華盛頓將軍和查爾斯康沃利斯將軍之間的競爭環境提供了一個歷史例子。最后,它演示了如何以及在何處將博弈論工具實施到美國陸軍當前使用的規劃過程中。所使用的博弈論是一種基本的應用方法,而不是過于復雜和無用的高級學術博弈論。簡單的博弈可以使復雜的操作情況變得清晰。該研究回顧了陸軍規劃學說,以專注于了解作戰環境和問題。任務分析旨在了解環境中的參與者以及他們之間沖突的根源。這 3 項研究的重點是深入了解對抗性和中立的參與者、激勵措施、潛在的行動方案和回報。該專著追溯了博弈論的戰略應用和作戰應用之間的差異,以了解哪些要素是一致的,同時說明了差異。最后,它將討論如何克服實施中的潛在挑戰

博弈論在軍事決策過程中的應用

規劃人員可以在軍事決策過程中使用博弈論工具,特別是在任務分析期間,以不同的視角理解作戰環境和行動發展過程,以檢查未發現的假設。博弈論工具不是替代軍事決策過程中現有的步驟和工具,而是對其進行補充。戰地手冊 6-0 解釋說,指揮官和參謀人員使用任務分析來更好地了解作戰環境和部隊面臨的問題。接下來,規劃人員使用任務分析來制定假設以填補知識空白。最后,考慮到博弈論理解競爭的本質,任務分析也有助于理解友軍和敵軍如何互動。行動方案制定過程提供了一種客觀的方式來看待多個潛在計劃。在上面的歷史例子中,華盛頓將軍和康沃利斯將軍需要了解他們的潛在行動以及他們認為 30 名敵方指揮官可能會做什么。在某種程度上,歷史例子中的將軍們可以在他們的行動發展過程中使用博弈論來檢查他們的假設。開發從敘述性或定性評估開始,然后轉向帶有每個計劃的加權分數的可量化評估。博弈論允許另一種觀點來評估潛在的計劃。以下思想實驗提供了一個示例,說明工作人員如何在任務規劃期間使用一些博弈論工具。

演習如下:美國討論在一個靠近對手的友好國家增加軍事存在,這旨在阻止對手入侵友好國家。軍團工作人員了解國家決策者關于在一個地區增加軍事存在的辯論。此外,他們知道如果國家領導層追求升級,軍團是升級的一個因素。工作人員致力于了解作戰環境并了解國家層面的優先事項和激勵措施,以便他們可以就選項提出更高的建議并為預期的行動方案做好準備。其次,他們努力了解敵人的動機和行動計劃。敵人還面臨著增加其在該地區的軍事存在或維持現狀的前景。兩國都擁有核武器,都不想進行全面戰爭。最后,兩個大國都可以遷移的地區的人口不希望被外國勢力占領。國家決策者面臨的戰略決策具有操作層面的影響。

如上所述,任務分析提供了對情況和問題的理解。在任務分析過程中,工作人員開始對行動者的動機和動機有所了解。戰場情報準備是任務分析的關鍵步驟。參謀人員對友軍和敵軍如何在環境中相互作用做出假設。由此,工作人員開發了每個參與者在即將到來的操作中可以使用的潛在選項。此外,情報準備步驟確定了指揮官和參謀人員的知識差距。這些差距導致了獲取信息的情報需求的發展。正如文獻回顧中所述,人們根據他們擁有的信息做出決策,并預測競爭對手的行為。這些步驟不會取代或否定軍事決策過程的任何步驟,它們只是關于如何以及在何處實施博弈論工具的建議。

鑒于這種情況,參謀人員開始制定敵人的行動方案。當應用于博弈矩陣時,這些行動方案成為敵人的策略。敵人可以用他們的一個師或軍將該地區軍事化,也可以選擇不軍事化。是否軍事化的選擇為敵人創造了兩種不同的戰略。第二步著眼于每個策略的結果。如果雙方都軍事化,那么他們將面臨戰爭。如果雙方都沒有軍事化,那么他們就維持現狀。如果一個國家軍事化而另一個國家不軍事化,那么軍事化的國家就會在沒有爭議的環境中這樣做。表11顯示了這種情況的結果。

表11:定性結果

第三步要求參謀人員查看敵人的動機,然后對他們的選擇進行定性分析。敵人想在美國不決定將該地區軍事化的情況下將該地區軍事化。這為他們創造了一個無可爭議的環境。其次,他們既不看重自己也不看重美國將該地區軍事化,這是現狀。第三個可取的結果是美國軍事化,而敵人沒有,這意味著美國擁有無可爭議的軍事化。最后,如果美國也進行軍事化,敵人不想升級為戰爭,也不想將該地區軍事化。工作人員現在可以根據偏好對敵人的行動路線進行排序。作戰和情報人員可以利用收集資產并制定收集計劃,以確定有關敵人計劃的任何指標,例如在該地區集結部隊。信息收集計劃有助于回答信息需求并協助進行有效規劃。

工作人員現在進入行動開發過程。生成選項步驟概述了指揮官和參謀人員可用的選項。工作人員制定了可以切實擊敗敵人行動方案的選項,然后確定它們的優先級。工作人員還產生了兩個廣泛的選項。他們可以軍事化,也可以不軍事化。由于每個參與者的策略,工作人員現在可以對他們的行動方案進行排序。指揮官和參謀更愿意維持現狀。如果美國采取行動將該地區軍事化,它可能會擾亂地方、國家政府和民眾。因此,美國對該地區的軍事化和一個不軍事化的敵人是次要的選擇。這種選擇意味著美國擁有無可爭議的軍事化,但正如所述,當地政府感到不安。第三,排名是美國不軍事化,但敵人軍事化,給了他們無可爭議的優勢。最后,美國不希望發生戰爭,如果美國和敵人都進行軍事化,就會發生戰爭。

接下來,工作人員將博弈發展為矩陣或戰略形式。首先,他們進行定性分析,說明每次交戰的可能結果,見表 12。然后參謀人員從每個指揮官的角度對結果進行排序,以生成定量分析和回報,如表 13 所示。該表顯示了回報敵方第一,美國第二。使用倒序排列,最低數字的收益表示排后的選項,數字越大,表示首選的選項。每個戰斗人員都是近鄰,因此參謀人員認為交戰將有利于主動一方。

表12 :定性分析

表13:定量結果

這兩種的價值在于員工進行分析以掌握對潛在未來結果的理解。它提供了一個簡潔的可交付產品,參謀計劃人員可以在一張紙上將其交給指揮官或參謀長,以供將來參考或思考,因為指揮官和參謀人員開始在軍事決策過程的未來步驟中權衡選項。這種分析為員工提供了一個思考他們正在做什么以及他們的計劃可能產生什么結果。這是舍恩所說的實踐中反思的一個例子。正如他所說,它允許人們在執行任務時思考他們正在做什么,然后塑造他們所做的事情。

下一步要求參謀人員將可用選項縮小到只有指揮官可用的可信選項。參謀部尋找指揮官永遠不會使用任何主導策略。敵方指揮官沒有任何主導策略,并且兩種策略都可供他使用。但美國永遠不會在博弈中選擇軍事化,因為無論敵人選擇什么,不軍事化都會主導博弈。表 14 以粗體突出顯示哪個選項在美國占主導地位。例如,如果敵人決定軍事化,如果它決定軍事化,美國將獲得 1 的回報,否則將獲得 2 的回報。因此,在這種情況下,美國會選擇不進行軍事化。同樣,如果敵人不軍事化,那么如果它軍事化,美國將獲得三倍的回報,如果它不軍事化,美國將獲得四倍的回報,美國將再次選擇不進行軍事化。因此,工作人員將其排除在外。

表14:以粗體突出顯示的美國的收益

既然參謀人員了解美國沒有軍事化的動機,它就可以看看敵人可能會采取什么行動作為回應。敵人知道美國不想軍事化,并尋求使其結果最大化。因此,敵人選擇軍事化,因為這比不軍事化帶來更好的回報。這達到了納什均衡,即敵人軍事化并獲得四分之二的回報,而美國不軍事化并獲得三分之二的回報。表 15 顯示了圈出的所得納什均衡。

表15:軍事化為主

但現實生活中的情況并不總是一致的。一方通常首先采取行動,迫使另一方做出決定。在上述情況下,美國正在努力應對將該地區軍事化的決定。然后他們的決定迫使敵人做出決定。下一步著眼于在順序移動游戲中情況如何展開,以及納什均衡在決策分析中是否發生變化。順序博弈見表 16。該表首先顯示了敵人的收益,其次是美國的收益。

表16:順序多次博弈

參與者對每個結果的選擇和回報保持不變。唯一的區別是美國先行動,敵人必須做出反應。工作人員必須使用子博弈分析來分析這個博弈及其結果。敵人有第二步,因此分析從他們的預期步驟開始。這兩個參與者都知道,如果美國選擇軍事化,敵人將選擇不軍事化,因為兩個人的回報比一個人要好。如果美國選擇不軍事化,敵人會想要軍事化,因為四比三好。鑒于美國的選擇,上面的表 16 通過圈出每個敵人的首選選擇來表明這種行為。既然美國知道敵人會根據美國的選擇做出哪些選擇,他們就會在兩者之間做出選擇。美國選擇軍事化,知道敵人不會軍事化,從而為美國帶來三倍的回報。美國軍事化總比不軍事化并獲得兩個回報要好,因為知道敵人會選擇軍事化。因此,納什均衡變成了美國軍事化和敵人不軍事化,敵方兩分,美國三分,見表 17。

表17:納什均衡

序列博弈導致的納什均衡與同步博弈不同,為什么?每場比賽都會導致一方軍事化,而另一方不軍事化。在同步博弈中,敵人通過軍事化獲得了最有利的回報,美國知道這一點,因此選擇不軍事化。然而,在順序博弈中,美國先決勝負。如果他們不軍事化,他們將獲得最高的回報,而敵人也選擇不軍事化。兩國都不會軍事化,因為如果美國不軍事化,敵人就有動機進行軍事化。美國意識到這一點,因此認為他們的下一個最佳選擇是軍事化,因為它知道敵人不會軍事化,因為這會迫使兩個參與者之間發生戰爭。這個游戲提供了一個先發優勢的例子。如果敵人先選擇,他們也會有軍事化的動機

序列多次博弈反映了更現實的情況。但是運行這兩種類型的博弈為工作人員了解動機和潛在行動提供了分析價值。工作人員可以看到排序操作如何改變結果。如上所述,使用這種方法的價值在于分析。工作人員可以按照矩陣形式對每個結果進行簡要說明。然后他們可以看到他們的選擇之一不是一個可行的選擇。然后,他們查看了定量評估并確定可以使用平衡結果。所進行的定性分析重申了 Thomas Schelling 的觀點,即博弈論的數學并不總能解決沖突,不應過度依賴數學。而是對問題的思考增加了價值。

結論

博弈論提供了一種分析工具來看待競爭情況。它使分析師能夠了解潛在的行動計劃、激勵措施以及回報或結果。此外,它可以突出信息差距和需要進一步理解的領域。在 20 世紀中葉,戰略層面的規劃者用它來更好地了解美國和蘇聯之間在使用核武器和原子戰方面的競爭。國防部以外的分析師使用它來了解競爭公司之間的貿易爭端和降價。

在作戰層面,博弈論允許對潛在計劃、激勵和結果進行相同類型的分析和理解。這本專著審視了博弈論的歷史并探索了基本的博弈論,確立了博弈論在分析沖突情況方面的有用性。文獻回顧揭示了博弈論的優勢和劣勢,這為如何最好地利用它以最大限度地發揮其潛力提供了信息。檢查諸如核局勢和國際貿易等戰略層面的決策為以前的努力如何有效地應用博弈論提供了背景。博弈論在特倫頓和普林斯頓的美國獨立戰爭中的應用與指揮官們所追求的不同,展示了使用博弈論如何提供獨特的見解,這對于像康沃利斯這樣經驗豐富的將軍來說并不明顯。最后,該專著展示了軍團級別的參謀人員如何使用博弈論來理解戰略級別的決策如何影響作戰級別的行動,比較了同步博弈和序列博弈的實用性。最后一部分提供了一個基本框架,工作人員可以通過將博弈論應用于任務分析和行動開發過程來解決操作問題。

博弈論的使用不僅限于軍事決策過程。博弈論非常適合國防部和美國陸軍目前使用的現有規劃流程。規劃人員可以在聯合作戰設計過程和陸軍設計方法中使用博弈論工具。具體來說,在聯合設計期間,博弈論工具最適合理解戰略指導和理解作戰環境。在軍隊設計期間,它最適合構建作戰環境和理解問題。博弈論是參謀人員或計劃團隊的工具包中的另一個有用工具。當通過軍事決策過程或設計過程應用時,博弈論分析與其他工具很好地結合在一起,可以更好地了解作戰環境。

付費5元查看完整內容

?

對于群體智能中的人類操作員來說,關鍵情況下的決策支持至關重要。自主系統共享的大量數據很容易使人類決策者不堪重負,因此需要支持以智能方式分析數據。為此,使用了用于評估情況和指示可疑行為或統計異常值的自主系統。這增強了他們的態勢感知能力并減少了工作量。因此,在這項工作中,強調為檢測監視任務中的異常而開發的數據融合服務,例如在海事領域,可以適應支持集群智能的運營商。此外,為了使人類操作員能夠理解群體的行為和數據融合服務的結果,引入了可解釋的人工智能 (XAI) 概念。通過為某些決策提供解釋,這使得自主系統的行為更容易被人類理解

作者解決了由于自主系統共享大量數據而導致的信息過載問題。為了緩解這個問題,他們建議通過兩種智能數據分析方式來幫助人類操作員。第一種方法是自動異常檢測,這可能會加強人類操作員的 態勢感知SA 并減少他們的工作量。第二種方法是可解釋的人工智能 (XAI) 概念;它們有可能使群體行為以及異常檢測結果更易于理解。

作者認為,控制一群無人機仍然具有挑戰性。一方面,(半自動化)群體代理“必須決定行動方案”;另一方面,人類操作員必須決定他們的行動,例如與群體互動。提出的建議力求改善人在循環中。考慮到海上監視的應用,使用非固定代理的動態方法具有幾個優點。首先,某些場景只能使用動態方法進行管理;其次,與固定監視傳感器相比,代理更便宜;第三,在多個地點靈活使用代理可以減少操作群體所需的人員數量。然而,情況評估仍然需要知情的操作員。

作者認為,在海洋領域用于船舶分析的異常檢測算法可能適用于引入以下場景的群體。“假設我們有一個群體來支持海上船只,這些船只不僅會收集它們自己的傳感器系統可用的數據,還會收集所有資產的數據。所有來源收集的信息都需要融合成一幅連貫的畫面。這不應僅限于 JDL 數據融合的第一級,而應包括更高級別的數據融合過程,以獲取有關附近所有對象的可用信息。” 數據驅動的方法能夠應對這種情況。文獻提供了三種檢測位置和運動異常的方法:統計解釋為與正常行為相比的異常值;聚類分析聚類相似的軌跡和確切的路線;用于建模正常移動模式的深度學習方法。為了應對更復雜的場景,包括船舶周圍環境(基礎設施、地理、天氣等)在內的算法是必要的。在某些復雜異常的情況下,區分正常和異常行為需要基于規則、基于模糊、多智能體或基于概率圖形模型的算法。對于所有提到的算法類別,作者都指出了大量的示例算法。

一些算法是黑盒模型,因此,它們的解釋對于人類操作員來說是復雜的。XAI 概念可以幫助緩解這個問題。XAI 概念旨在“提供道德、隱私、信心、信任和安全”,并努力在“它已經做了什么、現在正在做什么以及接下來會發生什么”中明確決策。,從而提高了人工操作員的 SA。考慮到 XAI 模型,模型特定方法(僅限于某些數學模型)可以與模型無關(適用于任何類型的模型)方法區分開來。

在目前的貢獻中,重點是與模型無關的方法。考慮到這些,局部解釋方法(解釋整個模型的單個預測結果)可以與全局解釋方法(解釋整個模型的行為,例如以規則列表的形式)區分開來。此外,作者使用特征屬性、路徑屬性和關聯規則挖掘來區分方法。通過特征屬性,“用戶將能夠了解他們的網絡依賴于哪些特征”;方法示例是提供全局和局部可解釋性的 Shapley Additive Explanations (SHAP) 和指示“模型在進行預測時考慮的輸入特征” 的局部可解釋模型無關解釋 (LIME)。路徑集成梯度(PIG,使用局部解釋)等路徑屬性提供了對模型預測貢獻最大的特征,從而深入了解導致決策的推理。關聯規則挖掘(ARM)是另一種使用全局解釋的方法,發現大型數據集中特征之間的相關性和共現。ARM 方法使用簡單的 if-then 規則,因此被認為是最可解釋的預測模型。可伸縮貝葉斯規則列表 (SBRL)、基尼正則化 (GiniReg) 和規則正則化 (RuleReg) 技術被認為適用于監視任務。

作者認為,使用這樣的 XAI 概念,人類操作員(決策者)可以更好地理解、更好地控制和更好地與一群自主代理進行通信,尤其是在具有挑戰性的環境中。總而言之,將異常檢測和 XAI 概念這兩種方法應用于人類在環、用戶對群體智能的理解和信任可能會得到改善。

付費5元查看完整內容
北京阿比特科技有限公司