亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能是下一個競爭領域;第一個開發出人類水平人工智能的國家將產生類似于原子彈開發的影響。為了維護美國及其人民的安全,美國國防部資助了人工智能及其應用的發展研究。本研究使用強化學習和深度強化學習方法作為當前和未來AI智能體,并評估開發中的潛在問題。在兩個游戲和一次遠足中對智能體的表現進行了比較: 分別是貨物裝載、河內塔和背包問題。據觀察,深度強化學習智能體能處理更廣泛的問題,但表現不如專門的強化學習算法。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

技術進步所帶來的進攻技術為對手提供了威脅聯合部隊和盟軍作戰優勢的機會。要與這些新方法作斗爭,就必須不斷快速發展自己的 "改變游戲規則 "的技術。通過重點發展無人系統和自主性,空軍可以努力保持其技術優勢。此外,創建一個強大的框架,能夠測試和評估定義自主性的原則,從而探索未來的能力。本研究介紹了反應/慎思混合架構的發展情況,該架構將允許對任務、認知和同伴靈活性原則進行測試。具體來說,這項研究探索了多機器人系統中的同伴靈活性,以多機器人混合架構(HAMR)作為框架基礎,解決定位問題。為完成這一任務,結合車輛感知和導航工具對運行環境進行推斷。然后,這些推論被用于構建因子圖,而定位的核心算法就是在因子圖的基礎上實施 iSAM2,這是一種高性能的增量矩陣因式分解方法。統一行為框架(UBF)是該框架中單個車輛控制的一個關鍵組件,它是一種基于行為的控制架構,使用模塊化仲裁技術生成動作,從而實現執行器控制。此外,還通過使用容器對世界模型進行分隔,以盡量減少通信開銷并簡化狀態信息。該平臺的設計采用了多態方法,以實現模塊化和魯棒性,從而促進未來的發展。

付費5元查看完整內容

當前用于自動規劃的戰斗模擬軟件開發在其方法中沒有考慮到戰爭迷霧。這使得他們的輸出不太現實,因為在現實世界的規劃中不可能有精確的敵人位置。人工智能控制的部隊應該能夠在沒有信息的情況下運作,而這些信息在相同的情況下是人類無法獲得的。本文提出了一種AI智能體在給定典型情報的情況下預測和評估敵方兵力位置的方法。我們還提出了一種方法來匯總這些位置的風險影響。我們在一個戰斗模擬環境中展示了這些技術,并評估了它們在多個戰斗場景中的表現。結果顯示了戰斗模擬中不確定性的重要性,并說明我們的風險匯總方法是有效的。

在將人工智能(AI)技術與作戰模擬相結合時,重要的是要將戰爭迷霧的考慮因素包括在內并加以考慮。目前的自動規劃方法依賴于對敵方部隊位置的完美了解,使得人工智能控制的智能體行動不太現實。為了使智能體的行為更加自然,人工智能兵力應該接受與人類指揮官在類似情況下可用的相同類型和數量的信息并采取行動。這將要求人工智能依賴對其對手和環境條件的理解,就像人類一樣。

這篇論文著重討論了人工智能在模擬環境中處理戰爭迷霧的能力的兩個方面。第一個方面是人類對提交給人工智能的關于敵人和環境的知識的表述。這包括敵人的優先級和程序,以及環境因素,如能見度和視線。第二方面是當給定這些知識時,人工智能可以預測戰霧中可能的敵人位置,并評估可能的敵人編隊的風險影響。

關于第一個方面,我們審查了人工智能在模擬環境中跟蹤對手和戰術注釋的方法。我們發現有必要將戰斗地形離散為一個導航圖。這個導航圖將有支持實體運動的邊和可以被注釋的節點,為人工智能代理提供戰略信息。我們還確定了在戰斗模擬環境中對單位幾何的戰術評估技術。

然后,我們發現適用于檢查軍事決策過程(MDMP)中進行的分析,特別是由戰斗空間情報準備(IPB)產生的產品。IPB的輸出包括將已知的對手戰術分層到當前的作戰環境中,以產生一個預期的敵人行動路線(ECOA),如圖1所示的態勢模板。

節點的戰術注釋可以看作是圖1中所示的頂層敵人威脅模型。當這些注釋被應用于地形的導航圖(環境層)時,其結果是將ECOA編碼到模擬中。然后,我們可以評估潛在的敵人位置與編碼的ECOA有多大的一致性。

我們把這種評估稱為編隊評分函數。這個評分函數是讓人工智能預測和評估戰爭迷霧中風險的起點。該函數產生一個數字分數,它取決于一個給定的敵方編隊在保持理想的單位幾何形狀和火力掩護的同時瞄準目標優先事項的能力。分數越高,表明越符合編碼的ECOA的要求。我們把一個能使給定評分函數最大化的編隊稱為預測。

不幸的是,識別一個最大化的編隊并不是一項微不足道的任務,因為它涉及到多個實體平衡幾個競爭性因素以產生一個分數。我們采用的方法是將未被發現的實體隨機放置在地形上的可能位置,讓它們爬到對陣型得分貢獻最大化的位置。通過幾輪的隨機放置和爬坡,產生了候選陣型集,每個陣型都是評分函數的局部最大值。每個編隊由一組不同的敵人實體位置和導航圖中節點的相關威脅值組成。

然后,我們使用吉布的典型集合方程,將候選集合中的每個編隊視為實際敵方編隊可能處于的一種 "狀態"。這使我們能夠為候選集合中的每個編隊計算出一個概率值。然后,我們可以根據每個編隊的計算概率來匯總其節點威脅值。這使我們能夠將可能的敵方陣地的估計風險表示為一個單獨的圖,我們稱之為不確定性威脅圖。由于該圖僅由現有的情報產品和觀察結果產生,它不依賴于人類指揮官無法獲得的無關信息。

本論文介紹了我們在WOMBAT XXI(WXXI)中對這些方法的實施和評估,WXXI是一個用Unity 3D游戲引擎構建的輕型戰斗模擬環境(圖2)。

使用WXXI的單位模板和真實世界的地形表現,我們進行了60次模擬戰斗,跨越三個不同層次的敵軍陣地信息。這些戰斗模擬了攻擊一個藍軍排,對抗一個靜態的紅軍小隊。在第一種情況下,我們將藍方的知識限制在一組探測到的紅方防御者。在第二種情況下,我們使用檢測到的紅色防御者和一個陣型評分函數來產生一個不確定性威脅圖,以估計實際的紅色陣型。在最后一個場景中,藍色被賦予了關于紅色陣地的全部信息。在每場戰斗中,我們都收集了關于藍方和紅方的傷亡、零散交換率(FER)和任務完成情況的數據。我們發現,當藍方得到紅方陣地的估計時,他們的表現與得到實際陣地時相當。表1提供了在三個戰斗場景中收集到的定量數據。

論文中預測和不確定性建模的新方法在自動計劃和改善兵棋推演中人工智能控制的兵力方面有很大的應用潛力。論文還提供了運動到交戰行動的進一步測試實例,并提供了一種使用編隊評分功能的計劃識別方法。最后,我們為WXXI作戰模擬環境貢獻了附加功能。

付費5元查看完整內容

強化學習(RL)的成功,如《星際爭霸》和《DOTA 2》等視頻游戲達到了高于人類的性能水平,這就提出了關于該技術在軍事建設性模擬中的未來作用的問題。本研究的目的是使用卷積神經網絡(CNN)來開發人工智能(AI)Agent,能夠在具有多個單位和地形類型的簡單場景中學習最佳行為。這篇論文試圖納入一個可用于軍事建設性模擬領域的多Agent訓練方案。八個不同的場景,都有不同的復雜程度,被用來訓練能夠表現出多種類型戰斗行為的Agent。總的來說,結果表明,人工智能Agent可以學習在每個場景中實現最佳或接近最佳性能所需的強大戰術行為。研究結果還表明,對多Agent訓練有了更好的理解。最終,CNN與RL技術的結合被證明是一種高效可行的方法,可以在軍事建設性模擬中訓練智能Agent,其應用有可能在執行實戰演習和任務時節省人力資源。建議未來的工作應研究如何最好地將類似的深度RL方法納入現有的軍事記錄構建性模擬項目中。

引言

A. 戰斗建模和戰爭

正確預測對手在戰爭中的戰略或戰術行為的愿望與人類進行這些戰爭的能力一樣古老[1]。在中國古代,像魏黑和圍棋這樣的游戲最初被用作加強軍事和政治領導人的戰略思維能力的方法。后來,羅馬人利用沙盤在戰役或戰斗前討論自己和敵人的可能行動。然而,直到19世紀初,普魯士人用他們的兵棋推演(Kriegsspiel)才開始利用具有嚴格規則的游戲來預測軍事交戰的可能結果。雖然這些兵棋推演在接下來的幾十年里在世界各地的許多武裝部隊中越來越受歡迎,但進行必要計算的能力有限,總是限制了這些基于棋盤的兵棋推演所能達到的復雜程度。此外,棋盤游戲的物理限制限制了設計者簡化行為和游戲元素,而不是努力追求真實。然而,計算能力的提高和用戶友好的圖形界面使設計者在20世紀末能夠以更高的復雜性來模擬兵棋推演的規則和游戲中的組件數量。此外,計算機的使用允許實施基于計算機的對手,在基于硬編碼規則的人工智能軟件的基礎上成功地與人類玩家進行比賽。

今天,基于計算機的兵棋推演,也被稱為建設性模擬[2],已經成為整個國防部(DOD)的一個有用工具。它們使軍事領導人能夠進一步學習和發展他們在那些通常被認為成本太高或太危險而無法定期演練的領域的行動程序。領導人有能力在實際執行前針對多種紅色力量設計使用他們的部隊,使他們有機會在不承擔任何額外風險的情況下驗證他們的機動方案。在戰略層面上,大型單位的工作人員經常使用建設性的模擬作為訓練方法[3],領導人可以在模擬環境中進行投入,但他們不參與確定場景的結果[2]。

B. 范圍和問題陳述

在基于計算機的兵棋推演中用來表現對抗行為的方法,需要由場景設計者通過腳本直接編碼,或者使用真人玩家進行所有紅軍的決策。這兩種方法都能提供足夠的分辨率來表現對抗性行為,但每種方法都有其缺點[4]。對于低級別的場景來說,直接對特定行為進行編碼可能是可行的,但隨著場景的擴大,單位的數量和可能的行動對于腳本的控制來說變得太有挑戰性,往往會導致不現實的行為[4]。對于大型場景,使用人類玩家作為紅色力量可能會提供更真實的結果,但額外的人力資源會造成后勤方面的壓力,而且整體的生產力也受限于單個玩家的知識和能力。

解決這個問題的一個可能的方法可能在于利用人工神經網絡。在計算機游戲領域,這種方法最近已被證明是相當成功的。例如,對于實時戰略游戲《星際爭霸II》,一個人工神經網絡被開發出來,打敗了99.8%經常參加在線比賽的玩家[5]。雖然在計算機游戲領域,人工神經網絡的利用最近取得了巨大的進展,但在軍事用途的兵棋推演領域,研究才剛剛開始。在最近的研究中,Boron[6]和Sun等人[7].已經表明,人工神經網絡適合解決簡單軍事兵棋推演場景中的挑戰。基于以前的工作,特別是Boron[6]的工作,本論文旨在提高所使用的軍事場景的復雜性。雖然Boron使用了簡單的多層感知器(MLP)神經網絡,但在處理己方和敵方單位的動態起始位置以及敵人的動態行為時,這種結構被證明是不合適的。此外,所使用的場景被限制在戰場上最多五個單位[6]。在本論文中,將建立一個支持卷積神經網絡(CNN)架構的訓練模擬,包括多個單位和地形類型以克服這些限制。此外,將在一個確定的場景中應用多智能體訓練,以測試這種方法是否可以成功地用于軍事建設性模擬領域。

付費5元查看完整內容

深度神經網絡(DNN)在幾乎所有的學術和商業領域都產生了突破性的成果,并將作為未來人機團隊的主力,使美國防部(DOD)現代化。因此,領導人將需要信任和依賴這些網絡,這使得它們的安全成為最重要的問題。大量的研究表明,DNN仍然容易受到對抗性樣本的影響。雖然已經提出了許多防御方案來對付同樣多的攻擊載體,但沒有一個成功地使DNN免受這種脆弱性的影響。新穎的攻擊暴露了網絡防御的獨特盲點,表明需要一個強大的、可適應的攻擊,用來在開發階段早期暴露這些漏洞。我們提出了一種基于強化學習的新型攻擊,即對抗性強化學習智能體(ARLA),旨在學習DNN的漏洞,并產生對抗性樣本來利用這些漏洞。ARLA能夠顯著降低五個CIFAR-10 DNN的準確性,其中四個使用最先進的防御。我們將我們的方法與其他最先進的攻擊進行了比較,發現有證據表明ARLA是一種適應性攻擊,使其成為在國防部內部署DNN之前測試其可靠性的有用工具。

1.1 深度學習與美國防部

美國海軍(USN)和國防部(DOD)建立對對手的持久技術優勢[1],他們必將尖端的機器學習(ML)技術整合到當前的系統和流程中。ML,即系統從原始數據中提取意義和知識[2],已經將更廣泛的人工智能(AI)領域推向了似乎無止境的應用。人們很難找到一個領域,無論是學術、商業還是醫療領域,ML都沒有進行過革新。ML已經被用來幫助識別汽車保險欺詐[3],提供宮頸癌的早期檢測[4],以及檢測和描述飛機上冰的形成[5]。在這些情況下,ML模型的作用不是做決定,只是為人類操作員提供更好的信息。通過以類似的方式應用ML,國防部有一個路線圖,可以將系統和流程演變成遵守道德人工智能原則的人機團隊[6]。

雖然ML可以包含廣泛的用于預測的模型,但一個被稱為深度學習的子集是這個人工智能夏天的驅動力。與線性回歸建模和支持向量機等更簡單的ML技術不同,深度學習包含了利用深度神經網絡(DNNs)的ML模型,它使用許多隱藏的人工神經元層,通過數據學習復雜的概念[2]。盡管DNNs被用于許多目的,但本論文重點關注那些專門用于圖像識別的DNNs。

1.2 信任機器

美國防部要想成功過渡到人機團隊,軍事和文職領導人必須能夠信任和依賴基礎技術。這對高級領導人來說是一個不小的要求。與人類分析師不同,他們的思維過程可以通過對話來理解,但沒有明確的路徑來理解DNN如何完全基于數據做出決定。因此,信任必須建立在一個合理的信念上,即該系統能夠抵御攻擊,其結果是一致和可靠的。任何關于可信度和可靠性的擔憂都是合理的,因為一連串的研究已經證明,DNN在對抗性樣本面前始終是脆弱的。

對抗性樣本(AE)是一個良性的輸入樣本,通過添加擾動導致目標DNN返回不正確的輸出而被畸形化。AE的目的是在降低目標網絡的整體準確性的同時顯得非惡意的,這可能會產生嚴重的、威脅生命的后果。例如,考慮到自動駕駛以及汽車不混淆停車和讓行標志是多么關鍵。對于軍事指揮官來說,如果一個網絡對對抗性樣本不健全,那么對該系統的信任很容易就會下降,并且該系統會被忽略,而被用于更傳統和耗時的分析。想象一下一個系統,DNN正確地過濾掉90%的圖像,只留下10%的標簽供人類審查。如果該系統被成功攻擊,那么人機團隊就會失敗,分析員很快就會被新的工作量壓垮。

1.3 研究問題

對抗性攻擊算法的核心是函數,即給定一個良性的輸入??,就會產生一個對抗性的???。許多攻擊可能需要樣本的真實標簽(??),或目標網絡或它的一些近似值,但它們仍然只是函數。因此,在給定的一組輸入變量的情況下,某種攻擊總是會輸出相同的AE。深度學習不是攻擊本身的一部分,這意味著在創建對抗性樣本時沒有涉及ML。這種生成AE的算法方法使我們考慮到強化學習(RL)領域,其中一個DNN "智能體"學習在特定環境中的最佳行為,同時追求一個特定的目標[7]。來自RL研究小組DeepMind的大量成功案例表明,RL能夠在各種游戲中實現超人類的表現[8]-[11]。最簡單的說法是,RL智能體通過觀察環境的模式進行學習,采取獲得某種獎勵的行動,然后觀察隨后的狀態。智能體試圖使其獲得的總獎勵最大化,最終學會了最佳的行為策略。

考慮到RL和對抗性樣本對DNN構成的威脅,我們提出了第一個研究問題:

1)如果圖像是環境,像素變化是可玩的行動,強化學習智能體能否學會生成最小擾動的對抗性樣本?

在所有研究對抗性攻擊的學術文獻中,有同樣多的文獻涉及對抗性防御: 一個新的攻擊被提出來,之后的某個時候會有一個反擊它的防御,而這個循環會重復下去。雖然最先進的防御手段可以抵御所有當前的攻擊,但不能保證防御手段能夠抵御未知的攻擊。如果一種攻擊可以適應任何防御,它將幫助研究人員和開發人員領先于未知的攻擊。考慮到攻擊的適應性,我們提出了第二個研究問題:

2)基于強化學習的對抗性攻擊能否成為一種適應性攻擊?

通過解決這兩個問題,我們首次將對抗性研究和強化學習這兩個領域融合在一起。

1.4 對抗強化學習智能體(ARLA)

這項研究引入了第一個基于RL的對抗性攻擊。命名為對抗性強化學習智能體(ARLA),我們的攻擊使用良性樣本圖像作為學習環境來生成對抗性樣本,目標是找到與原始樣本的?2距離最短的對抗者。ARLA使用雙重深度Q-learning(DQL),在第2章中進行了解釋,并采用了改進的深度Q-網絡(DQN)智能體架構,在第2章和第3章中進行了詳細解釋。我們的結果提供了證據,證明ARLA是一種自適應的對抗性攻擊,對本論文中用于攻擊評估的所有五種模型都顯示出明顯的攻擊成功。雖然我們的結果很有希望,但還需要做更多的工作來穩定ARLA如何學習最佳行為政策。

我們研究的目的是為國防部提供一個有效的工具來評估武裝部門正在開發的DNN。與其他需要由技術專家對特定防御進行調整的適應性攻擊不同,基于RL的對抗性攻擊可能會以更大的難度和最少的培訓來利用。我們希望ARLA就是這樣一種攻擊,并成為在作為未來軍事系統一部分部署的人機團隊中建立機構信任的一個小而有價值的步驟。

付費5元查看完整內容

盡管人們對聯邦學習和貝葉斯神經網絡進行了研究,但對貝葉斯網絡的聯邦學習的實現卻很少。在本論文中,使用公共代碼庫Flower開發了一個貝葉斯神經網絡的聯邦學習訓練環境。隨之而來的是對最先進的架構、殘差網絡和貝葉斯版本的探索。然后用獨立同分布(IID)數據集和從Dirichlet分布得到的非IID數據集測試這些架構。結果顯示,貝葉斯神經網絡的MC Dropout版本可以通過聯邦學習對CIFAR10數據集的IID分區取得最先進的結果--91%的準確性。當分區為非IID時,通過概率權重的反方差聚合的聯邦學習與它的確定性對應物一樣好,大約有83%的準確性。這表明貝葉斯神經網絡也可以進行聯邦學習并取得最先進的結果。

美國海軍的考慮

使用FL是一個在邊緣采用人工智能的機會,并減少收集大量數據集的需要。這將極大地幫助海軍在艦隊中部署和訓練AI模型的工作。例如,通過傳統的人工智能管道,為海軍創建一個人工智能模型將需要每個指揮部合作創建一個全球數據集,無論是被動聲納還是網絡流量分析、維護或人力資源。這是一項非常昂貴和耗時的任務,隨著新數據的出現,在完成時可能已經過時了。然而,FL提供了一種方法,讓每個指揮部在他們本地的、當前的數據上訓練和部署一個模型,并將他們的模型與另一個指揮部的人工智能模型匯總。由于只傳遞模型的權重而不是整個數據集,所以通信成本也是最小的。雖然FL提出了一種在邊緣部署和訓練人工智能模型的方法,但貝葉斯網絡是一種不僅能提供預測,而且能對其評估的不確定性進行估計的模型。士兵在不確定的環境中工作,知道部署的人工智能模型何時對其預測不確定,可以防止人工智能和戰士的過度自信。這一特點可以極大地幫助人工智能-士兵團隊以更高的效率水平運作。將FL的分布式和持續學習特性以及貝葉斯NN的不確定性這兩個方面結合起來,將是海軍在各種應用中的巨大優勢,如網絡流量分析、合成孔徑雷達或無人機圖像分析,或無源聲納分析。

研究目標與貢獻

為了證明這一點,開發了一個FL框架來比較貝葉斯NN和它們的確定性對應物,并在本論文中分析了它們的結果。本論文的主要貢獻是在一個已知的數據集CIFAR10[2]上對這個框架進行了基準測試,以比較結果。該數據集在FL研究中被充分研究[3]-[6]。使用的人工智能模型架構是殘差網絡(ResNet)[7]。它是一個最先進的神經網絡架構,為CIFAR10數據集設定了一個基線。這使得貝葉斯ResNets可以在集中式和FL設置中與原始的最先進結果進行比較。本論文打算回答的主要問題有以下幾個:

  • 如何聚集貝葉斯NNs?
  • FL是如何影響貝葉斯NN的性能的?
  • FL能否提高NN的整體性能?
  • 在FL中,貝葉斯NN與確定性的NN相比有什么不同?

付費5元查看完整內容

一個持久的、精確的和適應性強的安全應用是有效的部隊保護條件(FPCON)的必要組成部分,因為美國的軍事設施已經成為恐怖主義和暴力行為的常見目標。目前的軍事安全應用需要一種更加自動化的方法,因為它們嚴重依賴有限的人力和有限的資源。目前的研究開發了一個由嵌入式硬件組成的離網部署的聯合微調網絡,并評估了嵌入式硬件系統和模型性能。聯合微調采用集中預訓練的模型,并在一個聯邦學習架構中對選定的模型層進行微調。聯合微調模型的CPU負載平均減少65.95%,電流平均減少56.18%。MobileNetV2模型在網絡上傳輸的全局模型參數減少了81.59%。集中預訓練的MNIST模型開始訓練時,比隨機初始化的模型的初始準確率提高了53.94%。集中預訓練的MobileNetV2模型在第0輪訓練時表現出90.75%的初始平均準確率,在75輪聯合訓練后,整體性能提高了3.14%。目前的研究結果表明,聯合微調可以提高系統性能和模型精度,同時提供更強的隱私性和安全性,以抵御聯邦學習攻擊。

付費5元查看完整內容

這項研究的目標是研究機器學習系統對對抗性數據的魯棒性和脆弱性的數學概念和定量措施,并開發能夠定量評估深度學習工具的魯棒性和脆弱性的計算方法,以應用于網絡安全環境。該項目的第一階段是文獻回顧。第二階段的研究主要是對基礎設施網絡安全的魯棒性分析。使用微電網電力系統模型和基于學習的故障檢測作為測試平臺,我們研究了神經網絡在受到噪聲或中毒數據時的魯棒性。最后,項目的第三階段,探討了分布式穩健性。神經網絡有時可能會在它們被訓練的環境之外使用。如果傳入數據的分布與訓練數據的分布明顯不同,可能會對神經網絡的性能產生負面影響。除了對魯棒性的定量分析外,該研究還揭示了魯棒性與訓練數據的動態行為之間的潛在關系。

付費5元查看完整內容

這項工作提出了一個支持決策過程的算法框架,其中終端用戶在領域專家的協助下解決一個問題。此外,終端用戶和領域專家之間的交流的特點是問題和答案的數量有限。開發的框架可以幫助領域專家向終端用戶精確定位少量的問題,以增加其見解正確的可能性。建議的框架是基于領域專家的知識,包括與領域專家和終端用戶的互動。領域專家的知識由知識圖譜表示,而終端用戶與問題相關的信息作為證據被輸入圖譜。這就觸發了圖中的推理算法,該算法向領域專家建議最終用戶的下一個問題。本文在醫學診斷領域提出了一個詳細的建議框架;然而,它也可以適應具有類似設置的其他領域。我們開發的軟件框架使決策過程以互動和可解釋的方式進行,這包括使用語義技術,因此是創新的。

簡介

近年來,"大數據 "世界獲得了巨大的發展動力,并不斷產生機遇和挑戰[1,2]。大數據的各種用途已經滲透到技術世界的幾乎每一個領域。我們對在處理決策過程的技術領域整合大數據的挑戰感興趣,以便利用這些過程。

這些過程可以在各種各樣的內容世界(醫學、商業、教育等)中找到,并且需要了解情況意識、數據建模以及提供智能見解的算法。然而,這些過程為不同的需求提供不同的答案;因此,有幾種類型的決策過程,每一種都有合適的設置[3,4]。

在這項工作中,我們專注于具有以下設置的決策過程:(a)該過程涉及兩個實體:一個最終用戶和一個領域專家,(b)最終用戶啟動該過程,(c)兩個實體之間存在互動,包括(領域專家的)問題和(最終用戶的)答案,(d)兩個實體之間的互動盡可能有限(在時間、問題數量、金錢等方面)。

鑒于上述情況,本報告的目的是提供一個基于語義技術的框架,該框架能夠整合大數據,在決策過程中協助領域專家,向他們建議一套針對最終用戶的問題(從數據中推斷出來的),這將減少問題和答案的循環。 考慮以下兩個領域的例子,其流程自然適合這樣的設置:醫療診斷[5]和家電維修[6](表1)。

如前所述,上述兩個領域包含了一個兩方面的有限互動。這種限制可以用時間、問題的數量等來表示。請注意,醫療和家電維修這兩個領域都是寬泛的領域,可以被專門化為特定的子領域。例如,家電維修領域可以被專業化為建筑服務、互聯網服務、家庭故障服務等。醫療領域也是如此。它也可以包含一些子域,如各領域的醫療咨詢(如心理學)、緊急醫療電話的處理等。

建議的框架包括兩個主要部分:(a) 使用語義技術對相關領域專家的知識進行正式表示,特別是知識圖譜,以及(b) 一套互動的算法,從一組初始領域值(即最終用戶的先驗知識)開始,然后,基于這些先驗知識和知識圖譜表示,它將向最終用戶提出具體問題。這些問題的答案將推動領域專家的決策過程,并成為下一次迭代的輸入。迭代將繼續進行,直到領域專家感到滿意并做出決定。

我們有動力通過知識圖譜來表示專家的知識,因為圖譜已經成為表示連接數據的一種自然方式[7]。在過去的十年中,人們努力將大量的數據組織成節點和邊的集合,特別是在推薦系統、搜索引擎優化和決策過程中[8,9,10]。由此產生的靈活結構,稱為知識圖譜,允許快速適應復雜的數據和通過關系的連接。它們固有的互連性使人們能夠使用圖算法來揭示隱藏的模式和推斷新的知識[11,12,13,14]。此外,知識圖譜在計算上是高效的,并且可以擴展到非常大的規模,社會圖譜分析就是一個例子[15,16]。

我們的框架受到了Musen和他的同事[17]的啟發,他們是生物醫學信息學領域的知名研究者,提出了關于協助臨床決策支持(CDS)的信息技術的看法。Musen等人[17]提出了提供CDS的系統的指導原則:他們的論述是關于交流而不是檢索信息,建議而不是產生報告,以及協助領域專家發展更多的知情判斷。分別來說,引導我們開發框架的概念是為領域專家提供從分析圖表示的相關數據中推斷出的建議,并使他能夠做出明智的決定。然而,另外一個領先的概念是以有限的迭代次數來進行。我們的框架可以擴展到其他領域。

在所提交的工作中,我們為一個交互式框架引入了一種新的方法,以支持以有限的交互次數為特征的決策過程。該框架通過使用圖數據模型、圖算法和語義技術,以通用的方式進行創新。我們在一個真實的數據集上運行我們的算法,并在一個可能的現實場景中展示框架的可行性。因此,我們為我們的框架提供了一個概念證明。

為了說明擬議的框架,我們首先回顧了知識圖譜和決策過程(第2節)。然后,我們定義了該框架的術語和算法(第3節)。隨后,我們在醫學診斷領域使用由疾病和病人癥狀組成的數據集來演示該框架(第4節)。最后,我們總結并考慮潛在的未來方向(第5節)。

框架與算法

這一節中介紹了所提出的框架,其中包括一個算法集合和它們之間的互動。

目標是基于互動的決策過程。互動是在領域專家和終端用戶之間進行的,結果是有限的迭代,由框架建議領域專家問終端用戶的問題組成。決策過程將根據終端用戶的回答而進行。

當分析這些類型的過程時,我們得出結論,它們可以被籠統地建模為一個癥狀和疾病的集合。最終,該過程的目標是協助領域專家決定診斷(即在分析現有數據的基礎上為一組給定的癥狀提供解釋)。Musen將診斷過程描述為決定要問哪些問題,要做哪些測試,或要執行哪些程序[7,17]。診斷過程中可能出現的問題有以下幾種類型。終端用戶是否有一個特定的癥狀?

上述術語(即癥狀、疾病、問題和診斷)產生的行話可以自然地用于醫學診斷領域,然而它也適用于其他領域,如家電維修:癥狀代表問題,疾病代表故障,診斷是一種故障識別,一個典型的問題可以是。終端用戶的電器有什么特別的問題嗎?

當在提議的框架中使用這個行話時,我們用假設一詞來代替診斷,因為該框架并不向領域專家提供診斷,而是提供可能的假設。每個假說實際上是一種潛在的疾病,它伴隨著一個問題,是表明疾病(假說)的癥狀。因此,我們在本文中用來描述框架及其各種算法的行話包括:癥狀、疾病、問題和假設。特別是,該框架推斷出假設及其相關的問題,并將它們提交給領域專家,后者決定是否使用(或不使用)這些問題來確認(或不確認)這些假設(疾病)。

在本節的其余部分,我們將描述該框架及其算法,首先是一般的,然后是詳細的。

一般來說,我們首先從原始數據建立一個知識圖譜,這將有助于探索疾病和癥狀之間的關系。在此之后,我們在KG上使用魯汶分層聚類法[21](算法1)來尋找社區(即具有類似癥狀的疾病群)。然后,給定最終用戶報告的癥狀(稱為證據癥狀),我們使用KG上的推理找到與證據癥狀相匹配的可能疾病(算法2)。在這一點上,我們推斷出最可能的社區,以包括最終用戶的疾病,并向領域專家建議一個表明這個社區的問題(癥狀)(算法3)。最后,我們找到最佳假設建議給領域專家(算法4),也就是說,我們向領域專家建議最終用戶可能有的疾病和癥狀,以解決診斷過程的改進。

整個框架分為兩個主要部分:第一部分,預處理部分,在框架啟動后進行;而第二部分,處理部分,在每次有新請求到達框架時進行。預處理部分包括兩個步驟和一個算法(算法1),而處理部分包括三個步驟和三個算法(算法2-4),正如我們在下面描述的那樣。

我們使用的數據結構包括代表KG的結構(默認是鄰接列表)和運行算法所需的額外結構。在下面描述算法的段落中,我們將詳細介紹這些結構和它們的用途。

預處理部分:

輸入:一個疾病及其癥狀的列表

第1步:構建一個疾病和癥狀的知識圖(KG)(見第3.1節)。

第2步:根據疾病的癥狀將其聚類為一組(稱為社區),即具有類似癥狀的疾病將在同一個社區中(算法1)。

輸出:(1)每一種疾病都與KG中的一個社區相關聯;(2)額外的數據結構,稱為癥狀社區矩陣(SCM),表示疾病組和各種癥狀之間的聯系 處理部分:

輸入:K證據癥狀

第一步:尋找最可能的疾病,即與證據癥狀相匹配的可能疾病(算法2)。

第2步:推斷并向領域專家建議(根據需要重復)一個問題(癥狀),表明最可能的社區包括最終用戶疾病(算法3)。

第3步:推斷并向領域專家建議一個假說(最終用戶可能患有的疾病)及其相關問題(癥狀)的列表,并按相關性排序(算法4)。

圖1顯示了整個建議框架的高級視圖。

付費5元查看完整內容

為了跟上美國防部(DOD)人工智能(Al)戰略的步伐,美國陸軍在2018年啟動了人工智能集成中心(Al2C)。他們的任務是--與美國各地的公司和大學的人工智能社區溝通,目的是通過人工智能的整合來改善和提高軍隊的能力。

這個頂點項目盡可能地分析了當前美陸軍部(DA)對人工智能的要求狀況,以及它們對人類系統集成(HSI)的包含。該小組審查了發布在獎勵管理系統(SAM)網站上的人工智能合同機會和適用的文件,包括績效工作聲明、工作聲明或目標聲明。第一步是確定這些合同機會中包含的要求是否符合人工智能的定義,即計算機系統有能力執行通常需要人類智慧的任務。如果需求符合人工智能的這一定義,那么分析工作就會繼續進行,并側重于納入HSI,以確保為人類(即操作員、士兵、用戶等)提供便利。研究小組還采訪了主題專家(SMEs),以深入了解軍隊開發和獲取人工智能需求的過程。

在2003年至2022年期間發布到SAM的機會中,只有16%(238個中的40個)在開發過程中足夠成熟,可以考慮進行評估。在這40個被認為足夠成熟的采購開發過程中,只有16個發布的信息包含了相關的文件,可以根據團隊既定的人工智能和HSI標準進行評估。從那里,只有6個帖子符合AL的定義,4個被寬泛地判斷為包括一些對HSI或人為因素的參考。該小組的綜合評估確定,陸軍的人工智能指導還處于起步階段,需要進一步發展和完善。評價還強調,盡管國防部和陸軍指導將HSI納入所有要求,但仍然缺乏對HSI的納入。

這個頂點項目建議,所提出的結果和結論應被用來進一步制定人工智能需求的采購指南,并特別注重納入HSI。我們還建議,未來的研究應納入機密需求以及由其他交易機構通過財團管理的需求。

付費5元查看完整內容

近年來,針對工業生態系統的高級持續性威脅(APT)的復雜性急劇增加。這使得開發超越傳統解決方案的高級安全服務成為必須,輿論動力學(Opinion Dynamics)就是其中之一。這種新穎的方法提出了一個多智能體協作框架,允許跟蹤APT的整個生命周期。在本文中,我們介紹了TI&TO,這是一個攻擊者和防御者之間的雙人博弈,代表了一個現實的場景,雙方都在爭奪現代工業結構中的資源控制權。通過使用博弈論來驗證這種技術,我們證明,在大多數情況下,輿論動力學包括有效的第一項措施,以阻止和減少APT對基礎設施的影響。為了實現這一目標,攻擊者和防御者的模型都被標準化,并應用了一個公平的評分系統,后者用不同的策略和網絡配置運行了幾個模擬測試案例。

引言

世界各地的公司面對的網絡安全攻擊數量明顯增長,導致了巨大的經濟損失[2]。當涉及到關鍵的基礎設施(即核電站、電網、運輸和制造系統)時,這種情況變得更加嚴重,其工業控制系統必須在所有條件下保持工作。在這里,我們處理的是SCADA(監督控制和數據采集)系統,幾十年來一直在與外部網絡隔離的情況下工作;反過來,如今它們正越來越多地整合新技術,如物聯網(IoT)或云計算,在削減成本的同時外包各種服務。因此,需要做出更大的努力來跟上這種進步,以應對這些系統可能帶來的最新的攻擊載體和可利用的漏洞。

近年來最關鍵的問題之一是高級持續性威脅(APTs),這是一種復雜的攻擊,特別是針對目標基礎設施,由一個資源豐富的組織實施。它們的特點是利用零日漏洞(零時差攻擊),采用隱蔽技術,使威脅在受害者網絡中長期無法被發現。Stuxnet是第一個報道的這種性質的威脅[6],但許多其他的威脅在之后被發現,通常是在攻擊完全執行后的幾個月[7]。在網絡安全方面,只是提出了一些機制來從整體上解決這個問題,超越了傳統的機制(如防火墻、入侵防御系統(IPS)、入侵檢測系統(IDS)、防病毒),這些機制只代表了在第一階段對APT的準時保護[21]。

在這些新穎的機制中,輿論動力學(Opinion Dynamics)[15]包括一個多智能體協作系統,通過分布式異常關聯,使攻擊的整個生命周期都可以被追蹤。在本文中,我們提出了一個理論但現實的方案,以證明該方法在不同類型的攻擊模式下的有效性,使用結構可控性領域[8]和博弈論[14]支持的概念。為了這個目標,我們開發了TI&TO,這是一個雙人博弈,攻擊者和防御者為控制現代工業結構中的資源而競爭。兩個玩家都有自己的動作和相關的分數,分別根據APT和基于Opinion Dynamics的檢測系統的行為。這個博弈最終在不同的模擬中運行,旨在展示算法的能力,同時也建議將該技術與其他防御方案結合起來進行最佳配置。因此,我們可以把我們的貢獻總結為:

  • 正式定義TI&TO博弈,指定游戲板、每個玩家的目標和得分規則。
  • 設計一個攻擊者模型,以一組階段的形式,靈活地表示APT的各個階段,以表示攻擊者的行動,這些行動受制于一個確定的分數。
  • 設計一個基于使用意見動態和響應技術(即本地檢測、冗余鏈接、蜜罐)的防御者模型,以減少APT在網絡中的影響,這也意味著博弈中的相關得分。
  • 進行的實驗驗證了該算法,并推薦了返回最佳結果的防御者的配置。

本文的其余部分組織如下。第2節介紹了 "輿論動力學"的概念,并強調了應用博弈論來檢測網絡攻擊的建議。在第3節中,定義了博弈,包括規則以及攻擊和防御模型。然后,進行了幾次模擬,并在第4節進行了討論。最后,在第5節中提出了結論和未來的工作。

付費5元查看完整內容
北京阿比特科技有限公司