我們比較了四種分布式機器人群聚類算法對來自群內惡意機器人的偽裝攻擊的抵御能力。這些聚類算法是 DBSCAN 和 k-Means 的分布式變體,經過修改后可用于只能進行本地通信和本地距離測量的分布式機器人群。我們讓 k-Means 和 DBSCAN 的這些分布式變體遭受惡意偽裝攻擊,并觀察聚類性能受到的影響。然后,我們對每個變體進行修改,使其包含一個分布式入侵檢測和響應系統(IDRS),以檢測惡意機器人,并在受到攻擊時保持群的完整性。我們在模擬和包含 25 個 Kilobot 機器人群的硬件測試平臺上對所有四種變體進行了評估。我們發現,將數據集中在蜂群內會使蜂群更容易受到惡意攻擊,而依賴本地消息傳遞的分布式 IDRS 能有效識別惡意機器人,并減少其對蜂群聚類性能的負面影響。
圖 1. 上:我們評估了分布式蜂群聚類算法對惡意偽裝攻擊的抵御能力(中間),并實施了保護蜂群的安全措施(右)。顏色疊加表示機器人集群,紅色圓圈勾勒出惡意機器人。右:k-Means(左)和 DBSCAN(右)算法的變體,經修改后可用于使用本地通信和定位的機器人群。左下:在由 25 個 Kilobots 組成的蜂群上進行的硬件實驗。
在空戰中,斗狗提出了錯綜復雜的挑戰,需要同時了解戰略機動和敏捷戰斗機的空中動態。在本文中,我們介紹了一種新穎的長短時間融合變換器 TempFuser,該變換器旨在學習空中斗狗中的戰術和敏捷飛行動作。我們的方法采用兩種不同的基于 LSTM 的輸入嵌入來編碼長期稀疏和短期密集狀態表征。通過變壓器編碼器對這些嵌入進行整合,我們的模型捕捉到了戰斗機的戰術和靈活性,使其能夠生成端到端的飛行指令,從而確保優勢位置并超越對手。在高保真飛行模擬器中與各種類型的對手飛機進行廣泛訓練后,我們的模型成功地學會了執行復雜的戰斗機機動動作,性能始終優于幾個基線模型。值得注意的是,我們的模型即使在面對具有超強規格的對手時,也能表現出類似人類的戰略機動能力,而這一切都無需依賴明確的先驗知識。此外,它還在極具挑戰性的超音速和低空環境中表現出強大的追擊性能。演示視頻請訪問 //sites.google.com/view/tempfuser。
圖 8:評估結果。(A): 針對對手的歸一化傷害率的學習曲線。(B): 與對手交戰的結果(左:F-15E,中:F-16,右:蘇-27)。圖中顯示了本機(藍色)和對手(紅色)從開始到獲勝時刻的三維飛行和水平投影軌跡。(C): 與高規格飛機(蘇-30)對抗時學習到的機外戰術機動的量化結果。(D): 與 F/A-18A 對手進行近音速對抗的量化結果。所有駕駛艙和外部視圖均由 Tacview [36] 可視化。
空對空作戰是操縱戰斗機智能體到達瞄準對手位置的戰術藝術。它也被稱為 "斗狗",因為在大多數情況下,每架戰斗機都會在短距離戰斗中追擊對方的機尾。
要想成功地進行斗狗,智能體需要從長期和短期角度出發,將態勢感知、戰略規劃和機動性能結合起來。
首先,智能體要通過了解對手的長期軌跡來規劃自己的戰術位置。天真地追逐對手的近期位置可能會帶來暫時的優勢,但最終會使自己在日后處于弱勢地位。因此,智能體應不斷評估對手的長期操縱,對其行動做出反應,并對自己進行戰略定位,以獲得對對手的優勢。
其次,智能體需要具備從短期動力學角度理解飛機敏捷機動性的能力。現代戰斗機具有很高的機動性,能夠迅速改變方向和速度,從而使交戰情況迅速發生變化。因此,為了在與對手的交戰中保持優勢地位,智能體應及時從動態角度把握對手的敏捷動作和自身的潛在機動。
長短期時態融合變換器(或稱 TempFuser)是一種網絡架構,專為空中激戰中的策略模型而設計。該架構使用基于 LSTM 的輸入嵌入和變換器編碼器。它處理兩種類型的狀態軌跡:代表機動級狀態轉換的長期時間軌跡和表示動態級狀態轉換的短期時間軌跡。每種軌跡都使用基于 LSTM 的管道進行嵌入,然后通過變換器編碼器進行整合。隨后,使用多層感知器(MLP)模塊和高斯策略架構將編碼器輸出轉換為飛行指令。
在數字戰斗模擬器(DCS)中使用深度強化學習(DRL)解決空中狗斗問題,DCS 被認為是最真實、最逼真的戰斗機模擬環境之一。DCS 提供了一個獨特的平臺,可以配置各種高質量的飛機和空中場景。我們將斗犬問題表述為一個強化學習框架,并設計了一個可以學習戰略性斗犬演習的獎勵函數。
我們用各種對手飛機(如 F-15E、F-16、F/A-18A 和 Su-27)對我們的網絡進行了廣泛的訓練和驗證。結果表明,TempFuser 能夠以端到端的方式學習具有挑戰性的飛行動作,并在性能上優于各種對手飛機,包括那些具有卓越規格的飛機。此外,它還在低空和 1 馬赫以上的高速飛行場景中表現出強大的追擊性能。
在tempfuser為基礎的空中斗狗在DCS模擬器的快照。
不同類型的飛機為對手:F- 15e, F/A-18A, F-16,蘇-30,蘇-27。
圖:與F-15E交戰
圖:飛行軌跡與水平投影
圖:與F-16交戰
圖:飛行軌跡與水平投影
圖:與蘇-27交戰
圖:飛行軌跡與水平投影
圖:對蘇-30對手的定量結果
圖:對F/A-18A對手的定量結果
加固網絡物理資產既重要又耗費人力。最近,機器學習(ML)和強化學習(RL)在自動化任務方面顯示出巨大的前景,否則這些任務將需要大量的人類洞察力/智能。在RL的情況下,智能體根據其觀察結果采取行動(進攻/紅方智能體或防御/藍方智能體)。這些行動導致狀態發生變化,智能體獲得獎勵(包括正獎勵和負獎勵)。這種方法需要一個訓練環境,在這個環境中,智能體通過試錯學習有希望的行動方案。在這項工作中,我們將微軟的CyberBattleSim作為我們的訓練環境,并增加了訓練藍方智能體的功能。報告描述了我們對CBS的擴展,并介紹了單獨或與紅方智能體聯合訓練藍方智能體時獲得的結果。我們的結果表明,訓練藍方智能體確實可以增強對攻擊的防御能力。特別是,將藍方智能體與紅方智能體聯合訓練可提高藍方智能體挫敗復雜紅方智能體的能力。
由于網絡威脅不斷演變,任何網絡安全解決方案都無法保證提供全面保護。因此,我們希望通過機器學習來幫助創建可擴展的解決方案。在強化學習的幫助下,我們可以開發出能夠分析和學習攻擊的解決方案,從而在未來防范類似威脅,而不是像商業網絡安全解決方案那樣簡單地識別威脅。
我們的項目名為MARLon,探索將多智能體強化學習(MARL)添加到名為CyberBattleSim的模擬抽象網絡環境中。這種多智能體強化學習將攻擊智能體和可學習防御智能體的擴展版本結合在一起進行訓練。
要在CyberBattleSim中添加MARL,有幾個先決條件。第一個先決條件是了解CyberBattleSim環境是如何運行的,并有能力模擬智能體在做什么。為了實現這一點,該項目的第一個目標是實現一個用戶界面,讓用戶看到環境在一個事件中的樣子。
第二個先決條件是為CyberBattleSim添加MARL算法。目前CyberBattleSim的表Q學習和深Q學習實現在結構上無法處理這個問題。這是因為CyberBattleSim實現的表Q學習和深Q學習不符合適當的OpenAI Gym標準。因此,需要添加新的強化學習算法。
當前的防御者沒有學習能力,這意味著要啟用多智能體學習,防御者需要添加以下功能:添加使用所有可用行動的能力,將這些行動收集到行動空間,實現新的觀察空間,并實現獎勵函數。
最后,為了增加MARL,新創建的攻擊者算法和新的可學習防御者必須在同一環境中組合。這樣,兩個智能體就可以在相互競爭的同時進行訓練。
在這項工作中,我們提出了貝葉斯優化算法,用于調整大規模光子庫計算機中的超參數。我們在以前報道的實驗系統上測試了這種方法,應用于計算機視覺中的一項具有挑戰性的任務,其中對來自標準圖像識別數據庫KTH和MNIST的視頻片段的圖像識別準確率分別為91.3%和99%,用于驗證所開發的光子遞歸神經網絡(RNN)的性能。我們還將其結果與非光子RNN計算(RC)界常用的光子RNN的網格搜索和貝葉斯優化進行了比較。我們報告了以下方面的改進:(1)分類性能,準確率提高了4%;(2)收斂到最佳超參數集的時間,大約減少了30%的時間(在準確率低于1.5%的情況下可以增加一倍)。考慮到我們的光子水庫計算機的精度接近于這項任務的最先進結果,以及以天為單位的實驗超參數優化時間,這些改進被證明是系統性能的寶貴提升。此外,用貝葉斯方法對超參數空間的廣泛探索為其基本結構和參數的相對重要性提供了寶貴的見解。考慮到貝葉斯優化算法提供的所有優勢,它可能很快成為光子庫計算中超參數優化的新標準方法。
圖2-基于光子學的系統說明,創建一個具有隨機拓撲結構的光子學遞歸神經網絡,用于自動分析視頻記錄中的人類行動。SLM:空間光調制器。Pol.:偏振器。改編自[Antonik2019]。
這項工作比較了有監督的機器學習方法,使用來自建設性模擬的可靠數據來估計空戰期間發射導彈的最有效時刻。我們采用了重采樣技術來改進預測模型,分析了準確性、精確性、召回率和f1-score。事實上,我們可以識別出基于決策樹的模型的顯著性能和其他算法對重采樣技術的顯著敏感性。具有最佳f1分數的模型在沒有重采樣技術和有重采樣技術的情況下,分別帶來了0.379和0.465的數值,這意味著增加了22.69%。因此,如果可取的話,重采樣技術可以提高模型的召回率和f1-score,而準確性和精確性則略有下降。因此,通過建設性模擬獲得的數據,有可能開發出基于機器學習模型的決策支持工具,這可能會改善BVR空戰中的飛行質量,提高攻擊性任務對特定目標的打擊效果。
具有高度自主性的軍事系統發展帶來了許多作戰優勢。這些系統通常是高度協作的,并允許優化對復雜問題的多效應對。人工智能,包括深度強化學習,有助于提高這些系統的效率。這項工作提出了一個與信任這些算法有關問題的綜合觀點,并提出了一些改善人機信任的準則。這項工作是在由歐盟資助的30個合作伙伴歐洲財團委托編寫的報告框架內完成的。
法國和英國在2010年啟動了一項計劃,評估和開發 "海上反水雷"(MMCM)能力,包括在與母艦安全距離外遠程操作的無人系統。通過持續化解靜態水下威脅,這些系統將提供戰略、行動和戰術上的機動自由,確保海上力量的安全投送,包括在海峽等高風險地區。
MMCM計劃的目標是提供一種新的敏捷的、可互操作的和強大的水雷戰能力。它將有助于在現有水雷戰艦退役時取代它們。這一雙邊計劃于2010年底根據法國和英國之間的《蘭開斯特宮條約》正式啟動。在2018年1月的法國/英國峰會上,法蘭西共和國總統和英國首相申明了他們打算迅速將該系統投入作戰服務[13]。
特別是,在2020年測試了四種作戰方案,分別采用了:一個水面無人機及其探測聲納、一個拖曳聲納、兩個水下無人機和一個水下滅雷機器人。前兩種情況主要是隨著任務的進行對威脅進行探測、分類和定位,其次是通過與前一次任務的數據進行比較來改變探測結果,最后是重新定位和識別幾枚地雷并解除其中一枚地雷。
該計劃的核心是在水下環境中自主發展的能力。這種自主性是通過使用人工智能算法,特別是DRL來實現的,以便自主地將無人機從母艦上移開[14]。盡管水下無人機必須能夠自主行動,但仍有許多人機互動:任務準備、驗證地雷分類和實時任務監測、授權投擲炸藥。這種人機互動是由MMI(人機界面)實現的,比如你會發現下面這個界面。
有一些項目旨在優化這些關系并建立信任關系:例如,泰雷茲國防任務系統公司DxLab的AR{iA}NE項目,旨在顯示操作者和人工智能之間可以有真正的互動[14]。人工智能在這里由控制臺的下半部分代表。它的突出顯示取決于性能指數:這就是人工智能以非常直觀的方式與操作者交流的方式。這個演示設備是為工業展覽準備的。它的設計經過特別考慮,給人以未來主義的印象,讓客戶感覺到他正在與人工智能進行交流。該控制臺集成了一個軟件分析界面,為聲納數據的利用提供了實質內容,因此非常適用于研究人機互動,更確切地說,是人機互動。
國防公司,如泰利斯、空客和MBDA,正在開發項目,旨在提供反無人機(UAV:無人機)解決方案。商用無人機的擴散化和相當便宜的價格引發了安全和保障問題。例如,在無人機和飛機之間發生了一些事件,還有一些情況,如跨越邊界和在監獄中走私貨物(武器、毒品),或向目標運送爆炸物。這些公司提出了智能解決方案,可以檢測無人機,但也可以通過高度的自主性和人類的環形控制來消除它們。這些系統可以對敵方目標進行探測、識別、定位和消滅。反無人機問題被概念化,并通過以下步驟得到部分解決[16]:
最新項目的目標是創建和展示一個完整的反無人機系統,能夠解決上述六個步驟,并整合兩個主要部分,一個地面部分和一個空中部分。地面部分可由一個作為指揮和控制站的地面控制站和一些地面傳感器組成,其數量和在空間的分布可根據需要和保護空間的配置進行調整。空中部分可以由盟軍無人機隊組成,這些無人機可以是相同的,具有類似的能力(同質蜂群),也可以具有不同的能力,每個都有一套獨特的專長(異質蜂群)。擁有一個空中段提供了兩個優勢。首先,在傳感方面,它使系統具有盯住目標的能力,可能為人類操作員提供實時視覺反饋,但也能對敵方無人機及其有效載荷進行更詳細和有效的分類和識別。第二,在消滅方面,它應該允許防御者部署更多的外科手術式的反措施,特別是避免過多的附帶損害或不想要的副作用。許多國防公司正在為中和部分開發智能DRL解決方案[17],以便在盟軍無人機群中做出自主決定。DRL算法也可用于指揮和控制站,以監測整體作戰情況。
未來戰斗航空系統(FCAS)是一個 "系統簇",它涉及到新一代戰斗機(NGF)、遠程航母(RC)和一個將所有參與者連接在一起的戰斗云系統: NGF、RC群、衛星、戰艦、地面系統等。
遠程運載器是用來做什么的?設想的應用是非常多樣的:通過幾十架飛機的飽和來穿透敵人的防御,誘騙敵機,執行電子戰任務(干擾),為其他飛機指定目標,執行偵察任務,甚至發射導彈而不是作戰飛機。這些新型機組成員為未來幾十年的空中行動開辟了一個巨大的可能性領域:用無人機代替戰斗機發射導彈,這樣就不會有飛行員的生命危險,騷擾敵人的防線,執行偵察任務,等等。這些設備也可以假裝成駕駛飛機,吸引敵人的巡邏隊,為作戰飛機打開缺口。在遠程載具的核心,制造商正在開發人工智能算法,特別是DRL[18],以控制每架無人機,但也控制無人機群。DRL算法出色的適應性在這里被用來管理高層和自主決策。
"系統簇"的非常高的互連性也要求建立一個抗網絡攻擊的戰斗云。這些攻擊確實可以破譯通信以獲取情報,甚至干擾或破壞通信,或者更糟糕的是,向半自主系統發出錯誤指令。DRL算法可用于應對正在進行的網絡攻擊。這些攻擊確實可以快如閃電,而人類沒有能力做出足夠快的反應。因此,必須使用智能自動系統來抵御攻擊。DRL似乎再次成為快速、自主和適應性行動的良好解決方案[19]。
正如我們所說,在自主系統中使用人工智能有很多問題:倫理、法律、政治等等。這就是為什么有必要在這場技術革命的不同參與者之間建立一種信任關系,從研究人員到用戶和工程師。
數學上的保證。為了確保我們提出的技術解決方案的可靠性,最好能在理論上和數學上保證算法的性能。然而,重要的是要記住,有關的保證在性質上是概率性的,因為大多數ML算法的性質是不確定的。因此,我們將試圖證明,例如,如果該算法有無限量的訓練數據可供支配,它就能夠完成提交給它的任務。或者,人們可能會試圖證明該算法收斂到一個解決方案,而且幾乎可以肯定它是以一個已知的和可控的速度收斂的。這種類型的結果保證存在于許多經典的ML算法中,用于解決某些簡單的問題,并受制于關于訓練和測試數據的某些假設。人工智能的整個研究領域都是關于知道什么是或不是可以通過ML學習的問題,以及什么精度:可能是近似正確的學習[20]。在RL方面還有很多工作要做,它仍然是一種年輕的技術,但理論上的保證越來越多[21]。然而,這些理論結果一般都是基于非常強的假設,這些假設往往是還原性的,并沒有考慮無人機在實踐中使用的非常真實的環境,這有時會使它們不那么相關。
可解釋人工智能。第二個軸心是要建立對人工智能所支配的自主系統的信任,即其行動的可解釋性。當我們可以理解導致人工智能獲得結果的原因時,一個算法被認為是可解釋的。一般來說,目前可解釋的ML算法(XAIs)能夠報告相對簡單的決定,例如指出圖像的哪些區域被用來確定它是一個蘋果。關于RL,為算法的可解釋性設想了幾條途徑。
讓我們細化前面的觀點,像一些作者那樣考慮人工智能算法的區別,這些算法不僅是可解釋的,而且是可解釋的。事實上,為了解釋它們的推理,已經建立了一些后驗算法,但它們并不能幫助理解初始算法的 "黑匣子"。出于這個原因,人們正在對可解釋的人工智能方面進行研究,這樣就可以說明導致輸出的不同推理步驟[24]。即使DRL算法的參數數量非常大,仍然是廣泛實施這種方法的技術障礙,但可以預期在這個領域會有明顯的進展。
對受DRL支配的自主系統有信心的第二個論據是測試期間的性能測量。事實上,即使目前關于人工智能可解釋性的知識狀況不允許完美地理解算法是如何達到其輸出的,但實踐中的結果是好的,表明有非常大的發展潛力。
對其他問題進行歸納的能力。首先,用戶對人工智能技術的信心可以建立在算法解決其他問題的良好能力上,或多或少有些類似。例如,眾所周知,Deepmind的AlphaFold 2 DRL算法在預測蛋白質結構方面特別出色[25]。這種優秀的聲譽源于該算法的大量已發表的測試研究,這讓該領域的大多數科學家對其給予了極大的肯定。雖然蛋白質結構預測與自主無人機的使用無關,但將蛋白質中單個原子的放置與無人機在協作作戰任務中的放置相提并論是很容易和有意義的。在前一種情況下使用DRL,以及所獲得的結果,也有可能使最終用戶對DRL應用于另一個領域的潛力充滿信心。
算法驗證。然而,與經典的ML算法不同,不可能在RL中實現我們在第一部分討論的驗證測試。這是因為所涉及的數據是隨時間變化的,而且所提出的問題也是不同的。要限定所識別的對象是否被正確預測是很容易的(是的,它是一個蘋果,或者不是,它是一個梨子)。另一方面,量化無人機和飛機之間合作的成功要微妙得多:許多標準必須被評估(無人機的定位、它們的速度、它們不同行動的時間)。因此,RL算法的性能測量是通過建立針對要解決的任務的指標來完成的。例如,對于負責訪問一個空間區域的無人機來說,比較正確識別目標的比例、任務完成時間或其他更精確的指標是相關的,這取決于情況和要解決的具體問題。
爭取在RL中實現更好的可重復性。最近還強調了RL算法的一個臭名昭著的問題,即當一些研究人員想要復制他們同事的結果時,一些算法的不穩定性[26]。實驗的可重復性是科學中的一個基本問題,因為它構成了被測試定律(例如,萬有引力定律)的有效性證明。在這里,算法性能的證明之一是可以讓它多次承受相同的情況,并在不同的迭代中獲得非常相似的結果。為了克服缺乏可重復性的問題,新的算法開發框架、新的測試程序和明確的指導方針已經到位,使科學和開發團隊對他們的結果有了更大的信心。
優化人機互動
人機協作是現代(協作)戰爭的核心,但人類和智能機器之間的成功協作主要取決于信任。然而,安全與新興技術中心對自主性和人工智能相關的研究[27]發現,在美國軍方的科技項目投資中,789個自主性相關項目中只有18個,287個人工智能相關項目中只有11個提到 "信任 "一詞。研究人員沒有直接研究信任,而是將開發更透明、可解釋和可靠的人工智能作為優先事項。這些努力對于培養人機團隊的信任是必要的,但技術驅動的解決方案并不總是考慮這個等式中的人類因素。
對高性能技術的不充分信任會導致人工智能系統的使用不足或廢棄,而對有限的或未經測試的系統的過度信任會導致對人工智能的過度依賴。這兩種情況在軍事背景下都有獨特的風險,包括事故、友軍交火、對平民的意外傷害和附帶損害。為了讓士兵對自主系統有信心,他們必須知道系統在遇到障礙物時將會做什么。從系統工程的角度來看,這意味著要指定和實施一些能力,如通過假設查詢和信息交流進行信息檢索,以便系統能夠以人類操作者容易理解的方式解釋其推理和行為。換句話說,"在系統中建立信任 "是一種以技術為中心的方法,通過改善與信任密切相關的系統特性和能力,如透明度、可解釋性和可靠性,來建立人機團隊的信任。
DARPA的Squad X計劃[28]將美國陸軍和海軍陸戰隊的步兵小隊與配備先進傳感設備的無人地面和空中飛行器配對,以提高敵對環境中作戰人員的態勢感知和決策。X小隊在2019年初進行的一系列實驗[29]的主要收獲之一是,將人工智能納入任務的規劃和演練階段非常重要。這樣做,士兵可以 "在如何信任人工智能方面進行搏斗"。最終,目標是讓人類作戰人員更好地了解這些自主系統在戰場上的表現,并對它們作為未來任務中的伙伴更有信心。
要怎樣才能讓人們信任技術?在使用先進系統時,一些個人或群體是否更有可能感到自信,而另一些人則更不情愿?人機團隊的部署環境如何影響信任?認知科學、神經科學、心理學、通信、社會科學以及其他研究人類對技術的態度和經驗的相關領域的見解為這些問題提供了寶貴的啟示[30]。
解決道德問題
"殺手機器人 "一直引起人們對潛在自主能力的恐懼[31]。法國國防倫理委員會在2021年批準在武器系統中引入一定程度的自主能力[32]。在法國,沒有辦法授權 "殺手機器人"。這一表述指的是LAWS(致命性自主武器系統)。這只是證實了法國幾年來在這個問題上的立場。但事情很復雜,倫理委員會認為不反對引入一定程度的自主權,因此不反對使用PAWLS(部分自主武器致命系統)。將LAWS與PAWLS區分開來的是 "性質上的差異,這與人類在某些關鍵功能中的地位有關"。致命武器系統的設計是為了演化出自己的操作規則,并自行重新定義其任務。它們不需要指揮部對情況的評估。PAWLS可以自主地被賦予某些任務的責任和執行,但只是暫時的,而且只用于識別、分類、攔截或接觸任務。道德委員會明確表示,它不能在沒有人類控制的情況下采取致命的舉措。即使在這個限制性框架內,也必須制定技術和組織保障措施,以防止任何過度行為。委員會認為,應繼續在與國防有關的人工智能和武器系統自動化領域進行研究。其目的是避免任何 "科學和技術上的放棄",防止對手開發致命性自主武器,并在對手使用這種武器時進行防御。
自主系統不應
G1. 為自主軍事系統上嵌入式人工智能的操作使用案例制定并提供一個法律框架。
G2. 確保在所有情況下都有人類的監督,有人類在環形系統。
G3. 保證在發生事故時的責任追溯。這種責任必須始終由人承擔,而不是由機器承擔。
G4. 開發符合人體工程學的人機界面,允許人與機器之間的對話和理解。
G5. 開發穩健、安全、準確、可重復和可靠的算法,以及評估這些標準的方法。
G6. 為與人工智能互動的軍事人員建立培訓計劃,讓他們了解這些算法的機制、能力和局限性。
G7. 通過對算法、數據和設計過程的評估,確保責任、問責和可審計性。
G8. 制定技術評估程序,以評估對上述準則的遵守情況。
G9. 加快歐洲在人工智能技術方面的培訓工作,特別是針對學術和工業環境的DRL。
G10. 加快歐洲在整合人工智能的國防系統方面的立法工作,以保持歐洲在這一法律方面的領先地位,并確認其在這一領域的領先形象。
G11. 發展國際合作,在自主系統領域進行立法。
G12. 促進研究人員、哲學家、律師、政治家和業務人員之間關于自主系統的對話。
G13. 在有關國防人工智能的研究和應用項目中始終包括信任的概念。
G14. 對協同作戰的未來利害關系有一個明確而具體的看法,以便將人和他們的利益置于系統的中心。
由于多種因素的影響,自動機器學習(AutoML)這些年一直在快速發展,數據科學家需要創建機器學習管道原型來決定如何進行解決,并為非專業人士提供解決方案。已經創建了一些AutoML框架,但它們受到能解決的問題類型、機器學習原語的數量、管道表示語言和嚴格數據描述的限制。這些限制大多是由相當大的工程量造成的。D3M項目旨在擴大AutoML的范圍,提供創建AutoML系統所需的工具,使其能夠解決超出大部分框架的問題類型,并為用戶提供工具,使機器學習工具不需要太多的專業知識。此外,該項目還致力于實現AutoML組件的標準化,以便對不同的框架進行公平的比較,并通過開源共享該項目期間創建的基礎設施來幫助研發界改善該領域。
本文在D3M上的工作主要集中在兩個方面:在D3M小組內創建標準化AutoML工具,以及創建具有不同目的的AutoML系統和框架。在這份報告中,將介紹對該項目的主要貢獻以及AutoML系統的演變。在該項目中,創建了評估AutoML系統的工具,開發了三個AutoML系統,開發了被多個系統廣泛使用的原型,設計了測試原型的自動化框架,并通過創建AutoKeras對AutoML研發界產生了巨大影響。
目前的測試和評估(T&E)方法包括以黑盒方式處理系統,即向系統提供樣本輸入,觀察相應的輸出,并將其與期望值進行比較。雖然這種方法對傳統的靜態系統很有效,但由于智能體的動態環境、單個智能體的適應性學習行為、智能體和操作環境之間的復雜互動、測試黑盒機器學習(ML)模型的困難,以及快速發展的ML模型和人工智能算法,自主智能系統的測試和評估提出了艱巨的挑戰[1, 2]。
這項研究的目的是開發設計測試和評估(T&E)計劃以及為基于學習的系統獲取數據/模型的方法。主要目標是了解增加政府對系統設計中使用的模型和學習代智能體(人工智能算法)的訪問可能會減少測試的需要和費用,并增加對結果的信心。在這個孵化器項目中研究的主要假設是,如果我們能夠獲得模型本身(數學或軟件),那么測試人工智能/ML模型達到可接受的可靠程度所需的樣本數量可以減少,如果我們也能獲得用于訓練模型的算法和數據,則可以進一步減少,如果我們也能獲得系統模型和數字工程過程的其他工件,則可以進一步減少。因此,如果T&E計劃是基于獲得人工智能/ML系統的技術數據/算法的成本和測試這些系統的成本之間的最佳平衡,那么采購的成本可以大大降低。
這個項目建立了理論和方法,以探索T&E要求如何能夠和應該作為測試團隊對人工智能系統的技術規格知識的功能而改變。項目開發了基于系統的理論,通過系統形態的概念來捕捉系統的變化和它所處的狀態空間。洋蔥模型描述了不同層次的系統知識和定義系統抽象的背景。該項目通過兩個試點場景進行實驗,以展示多個測試階段如何促進對人工智能系統的評估。最后,我們提出了貝葉斯的分析框架,用于結合多個測試階段的信息。這個分析框架也反映了不斷變化的系統配置和背景。總之,這項工作基本上構成了在未來階段調查現實系統的測試數據收集的成本效益的基石。
進行人工智能系統研究的一個主要挑戰是,在T&E研究中需要物理實現。未來的工作可以利用Silverfish測試平臺,該平臺是在SERC先前的任務下開發的,并將測試平臺擴展到物理實現。除了MBSE表示的物理實現,還可以在Silverfish測試平臺上直接執行一個T&E程序。未來的工作還應該包括有目的地改變系統知識(基于洋蔥模型),系統的復雜性和它的操作環境(形態的數量),并確定作為這些變量的函數的最小充分測試。
該項目側重于從博弈論分析中開發算法,以便在調查限制條件下成功識別攻擊者控制的基礎設施,并達到或優于傳統的實踐狀態。
在這個項目中,我們通過開發算法來應對尋找已經存在于網絡中的對手的挑戰,通過將威脅獵取建模為網絡偽裝游戲(CCG),一種在 "探測 "者(類似于威脅獵取者)和潛在的欺騙性 "目標"(類似于攻擊者)之間進行的數學游戲。
我們將在模擬環境中測試這些算法,并使用從CCG分析和威脅獵取領域得出的指標評估成功與否。云遙測數據將被用來開發和驗證獵殺算法,評估這些數據對威脅獵殺的充分性,并找出潛在的差距,反饋給供應商的要求和開放標準,使威脅獵殺在云原生環境中更加有效。
分類和回歸是監督機器學習處理的一些最重要的任務。過去已經針對這些任務提出了許多方法,例如前饋多層感知器、決策樹、支持向量機和極限學習機方法。最近,一種稱為子空間學習機/回歸器 (SLM/SLR) 的新方法已應用于低到中等維度的數據,并且顯示出優于其他類似方法的巨大優勢。本技術報告描述了 SLM/SLR 并追溯了其卓越性能背后的原因。
長期以來,基于特征的分類和回歸任務一直由基于深度學習(DL)的模型處理,如FF-MLP、DT、SVM和ELM。這類模型已被發現特別有效,但它們也存在缺乏可解釋性、模型復雜度高和計算成本高等問題。它們都以不同的方式處理特征空間劃分這一共同任務。
我們提出了一個新的面向分類的機器學習模型,名為子空間學習機(SLM)。它通過將輸入的特征空間以分層的方式劃分為多個判別子空間,在簡單性和有效性之間找到一個平衡點。SLM完全不改變特征空間。SLM中的概率投影只是用于特征空間的劃分,而不產生新的特征。每個樹節點的分割都對應著通過權重和偏置學習的超平面分割。因此,兩個半子空間都可以被保留下來。SLM以前饋和概率的方式學習分區參數,它是高效和透明的。
我們在下面的章節中解釋SLM和其他流行的分類方法之間的區別。
設計一個實用的MLP解決方案有兩種方法。
通過反向傳播,在每層對參數進行微調。MLP的結構包括Tabu搜索(一種解決組合優化問題的元啟發算法)和模擬退火。 在卷積神經網絡(CNNs)的變體MLP中,卷積層在不同的空間位置共享神經元權重和偏置。全連接層與傳統MLP中的保持一致。它也是轉化器模型中的構建模塊。
MLP層是逐層構建的。在一種優化方法中,新增加的隱藏層的參數沒有反向傳播。在一種使用CNN的方法中,卷積操作將輸入特征空間變為輸出特征空間,作為下一層的輸入。之后,神經元中的非線性激活對輸出特征空間進行分割。只選擇二分之一的子空間來解決由級聯卷積操作引起的符號混淆問題。
一個DT通過遞歸地一次選擇最具判別力的特征,將一個空間劃分為兩個子空間。在DT中選擇一個分區比較容易,因為它是在一個特征上進行的,但是它的判別能力很弱,所以它是一個弱分類器。對于高樹深,可以使用多個DT來避免對訓練數據的過度擬合。在這種情況下,它們中的每一個單獨都是一個弱的分類器,但它們的集合產生了一個強的分類器;例如,隨機森林(RF)分類器。
分類和回歸樹(CART)(以及類似的ID3)是經典的DT算法。它們是弱的分類器,但通過使用多個DT與自舉聚合和其他提升方法可以獲得更高的性能。它們仍然可能由于訓練和測試數據的分割不好以及訓練數據的過度擬合而失敗。與它們相比,一棵SLM樹(即SLM基線)可以利用通過概率投影獲得的判別特征,并在一個節點上實現多次分割。SLM一般會產生更寬更淺的樹。
一個RF由多個決策樹組成,其預測性能取決于:1)單個樹的強度;2)對它們的依賴性的衡量,應該是比較低的。RF訓練在建立樹的過程中只需要一部分訓練樣本和它們的特征。因此,它以每個DT的強度換取一般的集合性能,以實現更高的多樣性。為了實現不相關的個體樹,已經提出了幾種設計,如下所示。
套袋法通過在訓練集中隨機選擇并替換來建立每棵樹。
隨機分割選擇在最佳分割中隨機選擇一個節點的分割。
選擇一個隨機的特征子集來生長每棵樹。
RF使用分袋和特征隨機性,在森林中創建不相關的樹,它們的綜合預測比單個樹的預測更準確。相比之下,SLM森林構建過程使用所有訓練樣本和整個特征空間。它利用特征隨機性來實現每個SLM樹的多樣性(在第3.1節中描述)。在構建SLM森林時,單個SLM樹的有效多樣性和強度仍然不受影響。所以,SLM森林在樹的數量上實現了更好的預測性能和更快的收斂性。
SVM算法試圖在N維空間中找到一個超平面(N=特征的數量)。最佳的超平面具有最大的余量或與所有類別的數據點的距離。支持向量是更接近超平面的數據點,影響超平面的位置和方向。它們被用來最大化余量。
它將一個高維空間隨機投射到一個一維空間,以找到相關一維空間中的最佳分割點。隨機投影學習模型的理論及其特性(如插值和通用近似)已被研究。ELM在實踐中對于高特征維度來說并不高效,因為需要多次試驗才能找到好的投影。它采用了隨機權重來訓練前饋神經網絡。MLP可以通過添加具有隨機生成權重的新層來建立ELM。然而,由于需要較長的訓練時間和較大的搜索空間的模型大小,它在實踐中是低效的。
SLM Baseline確實考慮到了效率問題,它通過概率投影建立一個通用的DT,通過利用大多數具有幾個超參數的判別特征來減少搜索空間。我們使用 "概率投影 "而不是 "隨機投影 "來強調它們的區別。
梯度提升是另一種弱學習器的集合方法。它建立了一連串的弱預測模型。每個新的模型都試圖補償之前模型中留下的預測殘余。梯度提升決策樹(GBDT)方法包括:1)標準梯度提升;2)XGBoost。它在泰勒級數中擴展了一個一般的損失函數,并定義了一個增益來進行比標準DT更有效的節點分割。
SLM Boost模仿了XGBoost的提升過程,但用SLM樹代替了DT。與標準GBDT方法相比,SLM Boost實現了更快的收斂和更好的性能,因為SLM樹的性能更強。
使用軟件會暴露容易受到攻擊并造成嚴重后果的漏洞。雖然存在許多不同的漏洞,但其后果分為少數幾類。本文解釋了攻擊機器學習 (ML) 漏洞的后果如何歸入這些相同類別。然后將這些后果與特定于 ML 的攻擊、它們發生的上下文以及已建立的緩解它們的方法保持一致。這些防御性對策可以支持系統 ML 元素的安全性,并更大程度地保證使用 ML 的系統將按計劃運行。
本文提供了一種系統方法來解決使用 ML 的系統的攻擊、后果和緩解措施。它解釋了 ML 技術生命周期中的每一個問題,清楚地解釋了要擔心什么、何時擔心以及如何減輕它,同時假設對 ML 細節了解很少。
描述了軟件系統通常面臨的損害類型,并將它們與采用機器學習的系統所特有的公認后果類別聯系起來。然后,我們解釋導致這些后果的攻擊向量。然后,我們在最廣泛的類別中描述 ML 本身,包括從開始到部署和執行的生命周期。然后,我們確定生命周期中存在哪些漏洞,這些漏洞允許威脅對系統發起針對 ML 的攻擊。然后,我們通過不同的示例對 ML 漏洞、攻擊和緩解措施進行更深入的檢查。
了解 ML 系統的生命周期(其中漏洞存在于生命周期中)以及攻擊利用這些漏洞可能造成的損害,可以對采用 ML 所產生的風險進行明智的評估。我們對 ML 漏洞、攻擊和緩解措施的討論利用了 NISTIR 8269 文件中中開發的分類法。主要出發點在于將這些概念映射到我們在第 6 節中闡述的 ML 生命周期以及我們對 ML 安全性的系統方法的討論。