亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

摘要

本文討論了在指揮和控制(C2)過程中確定人工智能(AI)和機器學習(ML)算法的潛在應用問題。至少三十年來,具有弱智能行為的軟件組件一直是C2的一部分。這不僅仍有很大的改進和加速空間,而且由于混合戰爭的特點,面對臨近檢測到的威脅必須更快、更靈活地做出反應。

為了挖掘人工智能解決方案在C2領域的潛力,在軍事領導人和人工智能專家之間達成更好的相互交流是不可避免的。這種相互交流的一個基本要求是將共同的詞匯標準化,并將不同的人工智能方法的基本思想傳達給軍事人員。這兩點可以通過使用合適的人工智能方法抽象來實現。

在這里,我們提出了一個軟件項目,以討論三個層次的抽象,區分人工智能軟件解決方案的不同顆粒度的信息交流。雖然最低級別的抽象過于復雜,無法創建一個標準化的詞匯表,但最高級別的抽象對于許多問題案例來說過于粗糙,無法設計一個合適的算法。然而,正如我們將展示的那樣,這種最高級別的抽象是很重要的,因為它是軍事操作人員和人工智能專家之間信息交流的最佳級別。最高級別的抽象是由一個平滑的人工智能模式表示的,稱為人工智能的周期表(PTA)。我們提出了一個基于PTA的新型指導性工作流程,以支持軍事人員和人工智能專家之間的交流,從而利用自動化工作的成果。我們將表明,PTA非常適合作為軍事操作人員和機器學習專家之間的交流手段。在未來的工作中,我們可以研究現有的PTA是否應該被改進,特別是在安全部隊的要求方面。

概述

一個系統開發者面臨著確定客戶實際需求的問題。這在復雜的C2軍事過程中尤其困難,特別是在混合戰爭這個廣泛的領域。在這里,我們必須考慮到 "算法決策 "或 "部署新應用 "的速度。混合戰爭產生了新的挑戰,比如我們在這里所說的 "基于推特的態勢感知",它可以被看作是 "基于新聞的態度感知 "的一個組成部分。

在經典的客戶產品管理工作流程中,確定用戶需求的必要性是通過收集利益相關者的關注來達到的。但這種方法在有關場景中過于粗糙。為了設定一個足夠寬的時間框架,使人類的決策不至于減速,有必要對實際戰術任務的確定步驟有一個清晰的了解,貫穿于軍事等級制度觸及的所有層面。人工智能專家不具備這種軍事專業知識,而軍事領導人在大多數情況下沒有接受過足夠的人工智能培訓,無法識別使用人工智能軟件組件的機會。

第一步(第2.0節),我們將介紹必要的定義,包括我們對人工智能這一技術術語的使用(第2.1節),對C2過程的描述(第2.2.2節),對PTA的描述(第2.2.3節)以及我們對混合戰爭的理解(第2.4節)。在下一步(第3.0節),我們將介紹一個軟件項目,目前是我們軟件開發部門產品組合的一部分,其中包含重要的人工智能組件,并從不同的抽象層次的角度描述這個軟件項目。然后(第4.0節),我們將介紹一項用戶研究,并得出結論(第5.0節):PTA是表達使用人工智能所帶來機遇的一種合適的方式。

圖1-1:北約定義的指揮和控制流程。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

摘要

由HAVELSAN公司開發的虛擬環境中的部隊(FIVE)模擬器軟件,利用各種虛擬戰爭設備(如武器、傳感器和通信工具等),以安全和具有成本效益的方式提供全面的戰術和行動訓練環境。目前,管理FIVE實體的行為模型高度依賴于由現場專家和系統工程師開發的基于規則的行為。然而,FIVE軟件的基于規則的操作需要密集的編程和現場專家的指導,因此是高度勞動密集型。此外,這項任務的復雜性和負擔隨著場景的復雜性而大大增加。此外,具有基于規則的行為的虛擬實體對其環境有標準和可預測的反應。因此,在這項研究中,我們通過強化學習技術和其他機器學習技術,即FIVE-ML項目,提出了從基于規則的行為到基于學習的自適應行為的過渡研究。為此,我們主要對空對空和空對地兩種情況下的六個虛擬實體進行了基于強化學習的行為模型訓練。據觀察,用強化學習訓練的虛擬實體主導了現有的基于規則的行為模型。在這些實驗中,我們還發現,在強化學習之前,利用監督學習作為起點,可以大大減少訓練時間,并創造出更真實的行為模型。

引言

今天,培訓將使用飛機的飛行員是最重要的。用真實的飛機訓練飛行員是相當困難的,原因包括空域法規、過高的成本和訓練中可能出現的風險,以及創造真實世界場景的復雜性,包括對手或盟友使用的真實防御和戰爭平臺。飛行員訓練中使用的飛行模擬經常與戰術環境模擬結合在一起工作。通過這些戰術環境模擬,飛行員通過控制高保真飛機模型在許多低保真實體的存在下完成場景的訓練。這些低保真資產由計算機創建和控制,通常被命名為計算機生成的部隊(CGF)[1],它們是代表空中、陸地或海上防御或攻擊系統的自主單位。

CGFs被用于人員部署的準備過程、戰術訓練或新戰略的開發。CGFs需要為每個應用(或每個場景)進行不同的編程。這些由傳統方法創造的力量會導致非適應性和不靈活的行為模式。這導致學生在靜態編程的資產面前接受模擬訓練,降低了訓練的質量。當需要新的場景時,需要專家來創建新的場景。此外,由于情景創建將使用經典的控制分支進行,在創建新情景的過程中,考慮所有的可能性往往是不可行的,即使是可能的,也是一項相當有挑戰性的任務。由于這些原因,人們越來越需要更真實的虛擬環境和新的場景來適應不斷變化的世界,以模擬飛行員候選人自己的任務和敵對部隊的當前能力和戰術。

在這項研究中,提出了向以人工智能為導向的行為建模過渡,而不是傳統的特定場景建模,以此來解決前面描述的問題。換句話說,虛擬實體將被轉化為能夠學習的動態虛擬實體。但這些虛擬實體在訓練過程中需要考慮許多情況。首先,他們必須學會對他們用傳感器感知到的環境因素作出適當的反應。然后,它必須識別他的隊友和敵人,并根據他們的等級信息和附加在他們身上的彈藥類型采取行動。它應該能夠與他的隊友合作,采取團隊行動。

為虛擬資產添加智能的機器學習的首選方法是強化學習(RL)[2],其根本原因是:實體將采取的行動有延遲的后果。近年來,與傳統的控制方法相比,RL被認為是解決復雜和不可預測的控制問題的新方法,并在許多領域得到利用,如機器人、計算機視覺、自動駕駛、廣告、醫學和保健、化學、游戲和自然語言處理[3]-[9]。自從將深度學習引入RL概念(即深度RL[10])后,文獻中的研究得到了提升,如許多具有挑戰性的計算機視覺和自然語言處理任務[11]-[15]。

為了這個目的,在這項研究中(即FIVE-ML),已經實現了從HAVELSAN FIVE軟件的基于規則的行為模型向基于RL的行為模型過渡的第一階段實驗。從這些實驗中可以看出,用RL算法訓練的智能虛擬實體在空對空和空對地的情況下都優于HAVELSAN現有的基于規則的實體。此外,模仿學習[16]、[17]和RL的聯合實施也取得了成功,這加快了FIVE軟件的完整過渡過程。

可以預見,通過學習飛行員候選人的選擇來開發新策略的模擬將把飛行員培訓帶到一個非常不同的點。當項目完成后,將設計一個新的系統,允許在其領域內培訓更多裝備和專業的戰斗機飛行員。一個現有的基于規則的場景系統將演變成一個可以自我更新的系統。因此,飛行員候選人將有機會針對智能實體發現的新策略來發展思路,而不是滿足于該領域的專家的知識和經驗。此外,從一個經過大量努力準備的場景機制,計算場景自動化機制將使整個過程自動化。

付費5元查看完整內容

摘要

今天的戰場正在經歷一場由建立在人工智能和機器學習等方法和手段上的智能系統(IS)帶來的軍事事務革命。這些技術有可能從根本上改變戰場的性質,為用戶提供更好的數據,使其能夠更好、更快地做出決定。雖然這些技術具有巨大的潛力,但它們在被作戰人員、軍事領導層和政策制定者廣泛采用方面面臨巨大障礙。

混合戰爭的戰場是一個危險的環境。基于信息系統的決策支持,提供計算機生成的預測或建議,必須與現實世界的巨大后果抗衡。不幸的是,智能系統所固有的復雜性和多維性往往使傳統的驗證和確認工作(如可追溯性分析)變得不可能。此外,由于智能系統的典型的不透明性,用戶經常面臨著可能有廣泛的道德和倫理問題的決策。戰士們可能不愿意將自己或他人的生命交到決策不透明的系統手中。將軍們可能會擔心為失敗承擔責任。政策制定者可能會擔心他們的政治前途。這些對信任和采用先進系統的挑戰,如果不直接理解和系統地克服,將可能使西方軍隊與那些對使用先進系統不那么擔心的對手相比處于非常不利的地位。

無數的研究工作提供了關于人們何時信任技術系統并采用它們的觀點。然而,這些觀點中很少有專門針對基于智能系統的技術的,更少的是針對軍事應用中的高風險環境和獨特需求,特別是混合戰爭的背景。

本文提供了一個關于信任和接受技術的混合模型概述,它將幫助開發者和設計者建立系統,以提高對軍事應用先進智能系統的信任和接受。具體來說,我們的方法借鑒了多個經驗證的計算行為科學信任模型,以及經驗證的技術接受框架。我們的混合模型旨在支持快速的現場測試,為提高先進軍事智能系統的信任度和接受度提供一個應用的、計算上有效的框架。

付費5元查看完整內容

摘要

戰術軍事陸地行動嚴重依賴地形,因此在軍事決策過程中始終需要考慮地形。地形相關(地理空間)戰術信息產品,例如最佳路線或近場途徑通常由情報單元中的地形分析師確定,但也可以自動生成。這些產品可用于決策支持工具,以支持規劃過程。當在這些決策支持工具中使用機器學習時,這些產品還有助于對軍事單位的行為進行建模,這是通過機器學習找到表現良好的行動方案所需的。這項工作概述了地理空間產品,并將它們分類為基于層的體系結構,其中產品基于底層的產品。我們進一步規范了創建機器學習所需的戰術地形模型和戰術任務模型的步驟。基于兩個實際示例,我們演示了如何在提出的架構中生成地理空間產品,這些產品如何用于機器學習以進行戰術規劃,以及如何將學習到的行動和情報產品提供給規劃者以支持決策。

付費5元查看完整內容

摘要

價值1750億美元的電子游戲生態系統龐大且不斷發展,為全球28億游戲玩家提供服務,包括與當前和未來軍事建模和仿真(M&S)直接相關的技術和工作方式。英國國防科學與技術實驗室(Dstl)的研究計劃委托進行了一項研究,分析游戲生態系統,以了解哪些新興或現有方法可以為軍事訓練和更廣泛的M&S提供顯著收益。重點是“建模和仿真即服務 (MSaaS)” ,以及為更復雜的多域操作培訓的成本效益可能出現“階梯式變化”。首先生成了游戲和軍事M&S功能的熱圖,以突出與軍事最相關的領域。通過與Dstl主題專家合作,確定了軍事M&S通過利用游戲行業內的技術和能力實現現代化的20個關鍵機會。它們是跨技術、人員和流程的速贏和長期機會的混合體。其中的關鍵是游戲引擎技術不斷增長的潛力;社區在游戲和游戲開發中的價值;以及廣泛的網絡訪問作為M&S發現、共享和創新的推動者的作用。

付費5元查看完整內容

摘要

由于軍事戰場日益復雜,國防部門正在尋找最先進的解決方案,為操作人員提供工具,以實現比對手更快和更有效的決策過程。這些工具通常被稱為決策支持系統(DSS),在過去幾十年里一直在使用。人工智能技術通常被應用在決策支持系統中,以確保與個人行為相比,錯誤率更低,決策更快。在決策支持系統中,這種實現的有效性在很大程度上取決于操作者對人工智能提供的建議的理解能力,以及由此產生的信任。可解釋的人工智能(XAI)允許用戶通過在DSS的用戶界面(UI)中可視化的過程來了解系統是如何得出關于某個決策的建議的。然而,這也帶來了一個固有的問題,即:在用戶超載、降低操作者的決策性能之前,應該向用戶展示多少過程?

在這項研究中,一個人工智能驅動的應用程序已經被開發出來,它可以幫助操作員規劃一個軍用直升機任務。在這個場景中,操作者需要為直升機上的士兵找到兩個合適的著陸區域(LZs),以便接近一個小城市地區的恐怖分子營地。DSS支持選擇合適的降落區域的過程,考慮到各個方面,例如到目標區域的距離、光斑大小、表面類型和坡度。為了評估達到信任和任務績效的最佳水平需要多少透明度,我們定義了四個可解釋性級別,每個級別都增加了信息透明度和控制級別。對于這四個關卡中的每一個,都需要在測試階段設計、開發和評估獨特的ui。結果表明,第三和第四UI設計的性能有所提高(決策制定的時間更少,LZ決策的正確百分比更高,提交的LZ反映了良好的人機交互,感知和實際得分之間的偏差較低),這比前兩層提供了更多的信息和更多的互動可能性。結果還表明,用戶更喜歡個性化他們的UI,以滿足他們的角色、體驗水平和個人偏好。

付費5元查看完整內容

摘要

人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。

引言

縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。

人工智能的進展

幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
 雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。

付費5元查看完整內容

?

對于群體智能中的人類操作員來說,關鍵情況下的決策支持至關重要。自主系統共享的大量數據很容易使人類決策者不堪重負,因此需要支持以智能方式分析數據。為此,使用了用于評估情況和指示可疑行為或統計異常值的自主系統。這增強了他們的態勢感知能力并減少了工作量。因此,在這項工作中,強調為檢測監視任務中的異常而開發的數據融合服務,例如在海事領域,可以適應支持集群智能的運營商。此外,為了使人類操作員能夠理解群體的行為和數據融合服務的結果,引入了可解釋的人工智能 (XAI) 概念。通過為某些決策提供解釋,這使得自主系統的行為更容易被人類理解

作者解決了由于自主系統共享大量數據而導致的信息過載問題。為了緩解這個問題,他們建議通過兩種智能數據分析方式來幫助人類操作員。第一種方法是自動異常檢測,這可能會加強人類操作員的 態勢感知SA 并減少他們的工作量。第二種方法是可解釋的人工智能 (XAI) 概念;它們有可能使群體行為以及異常檢測結果更易于理解。

作者認為,控制一群無人機仍然具有挑戰性。一方面,(半自動化)群體代理“必須決定行動方案”;另一方面,人類操作員必須決定他們的行動,例如與群體互動。提出的建議力求改善人在循環中。考慮到海上監視的應用,使用非固定代理的動態方法具有幾個優點。首先,某些場景只能使用動態方法進行管理;其次,與固定監視傳感器相比,代理更便宜;第三,在多個地點靈活使用代理可以減少操作群體所需的人員數量。然而,情況評估仍然需要知情的操作員。

作者認為,在海洋領域用于船舶分析的異常檢測算法可能適用于引入以下場景的群體。“假設我們有一個群體來支持海上船只,這些船只不僅會收集它們自己的傳感器系統可用的數據,還會收集所有資產的數據。所有來源收集的信息都需要融合成一幅連貫的畫面。這不應僅限于 JDL 數據融合的第一級,而應包括更高級別的數據融合過程,以獲取有關附近所有對象的可用信息。” 數據驅動的方法能夠應對這種情況。文獻提供了三種檢測位置和運動異常的方法:統計解釋為與正常行為相比的異常值;聚類分析聚類相似的軌跡和確切的路線;用于建模正常移動模式的深度學習方法。為了應對更復雜的場景,包括船舶周圍環境(基礎設施、地理、天氣等)在內的算法是必要的。在某些復雜異常的情況下,區分正常和異常行為需要基于規則、基于模糊、多智能體或基于概率圖形模型的算法。對于所有提到的算法類別,作者都指出了大量的示例算法。

一些算法是黑盒模型,因此,它們的解釋對于人類操作員來說是復雜的。XAI 概念可以幫助緩解這個問題。XAI 概念旨在“提供道德、隱私、信心、信任和安全”,并努力在“它已經做了什么、現在正在做什么以及接下來會發生什么”中明確決策。,從而提高了人工操作員的 SA。考慮到 XAI 模型,模型特定方法(僅限于某些數學模型)可以與模型無關(適用于任何類型的模型)方法區分開來。

在目前的貢獻中,重點是與模型無關的方法。考慮到這些,局部解釋方法(解釋整個模型的單個預測結果)可以與全局解釋方法(解釋整個模型的行為,例如以規則列表的形式)區分開來。此外,作者使用特征屬性、路徑屬性和關聯規則挖掘來區分方法。通過特征屬性,“用戶將能夠了解他們的網絡依賴于哪些特征”;方法示例是提供全局和局部可解釋性的 Shapley Additive Explanations (SHAP) 和指示“模型在進行預測時考慮的輸入特征” 的局部可解釋模型無關解釋 (LIME)。路徑集成梯度(PIG,使用局部解釋)等路徑屬性提供了對模型預測貢獻最大的特征,從而深入了解導致決策的推理。關聯規則挖掘(ARM)是另一種使用全局解釋的方法,發現大型數據集中特征之間的相關性和共現。ARM 方法使用簡單的 if-then 規則,因此被認為是最可解釋的預測模型。可伸縮貝葉斯規則列表 (SBRL)、基尼正則化 (GiniReg) 和規則正則化 (RuleReg) 技術被認為適用于監視任務。

作者認為,使用這樣的 XAI 概念,人類操作員(決策者)可以更好地理解、更好地控制和更好地與一群自主代理進行通信,尤其是在具有挑戰性的環境中。總而言之,將異常檢測和 XAI 概念這兩種方法應用于人類在環、用戶對群體智能的理解和信任可能會得到改善。

付費5元查看完整內容

當前軍事推演中合成角色的行為能力是有限的,因為它們通常是由基于規則和反應性計算模型生成的,具有最低限度的智能。這種計算模型不能適應反映角色的經驗,導致即使是通過昂貴和勞動密集型過程設計的最有效的行為模型也很脆弱。利用機器學習和合成實體的經驗并結合適當的先驗知識的、具備自適應能力的、基于觀察的行為模型,可以解決現有計算行為模型中的問題,從而在軍事訓練模擬中創造更好的訓練體驗。

南加州大學創新技術研究所介紹了一個框架,旨在創建自主的合成角色,這些角色能夠執行可信行為的連貫序列,同時在訓練模擬中了解人類受訓者及其需求。該框架匯集了三個相互補充的組成部分。第一個組件是基于Unity的仿真環境——快速集成和開發環境(RIDE)——支持One World Terraing(OWT)模型,能夠運行和支持機器學習實驗。第二個是Shiva,這是一個新穎的多智能體強化和模仿學習框架,可以與各種模擬環境接口,并且可以額外利用各種學習算法。最后一個組件是Sigma認知架構,它將通過符號和概率推理能力來增強行為模型。已經成功地創建了概念驗證行為模型,在現實中利用這一框架,作為將機器學習引入軍事模擬的重要一步。

論文全文:

//www.zhuanzhi.ai/paper/2902032e89eae24167b560a5e2e0de47

付費5元查看完整內容

Drone Wars UK 的最新簡報著眼于人工智能目前在軍事環境中的應用方式,并考慮了所帶來的法律和道德、作戰和戰略風險。

人工智能 (AI)、自動決策和自主技術已經在日常生活中變得普遍,并為顯著改善社會提供了巨大的機會。智能手機、互聯網搜索引擎、人工智能個人助理和自動駕駛汽車是依賴人工智能運行的眾多產品和服務之一。然而,與所有技術一樣,如果人們對人工智能了解甚少、不受監管或以不適當或危險的方式使用它,它也會帶來風險。

在當前的 AI 應用程序中,機器為特定目的執行特定任務。概括性術語“計算方法”可能是描述此類系統的更好方式,這些系統與人類智能相去甚遠,但比傳統軟件具有更廣泛的問題解決能力。假設,人工智能最終可能能夠執行一系列認知功能,響應各種各樣的輸入數據,并理解和解決人腦可以解決的任何問題。盡管這是一些人工智能研究計劃的目標,但它仍然是一個遙遠的前景。

AI 并非孤立運行,而是在更廣泛的系統中充當“骨干”,以幫助系統實現其目的。用戶不會“購買”人工智能本身;他們購買使用人工智能的產品和服務,或使用新的人工智能技術升級舊系統。自主系統是能夠在沒有人工輸入的情況下執行任務的機器,它們依靠人工智能計算系統來解釋來自傳感器的信息,然后向執行器(例如電機、泵或武器)發出信號,從而對機器周圍的環境造成影響.

人工智能被世界軍事大國視為變革戰爭和獲得戰勝敵人的優勢的一種方式。人工智能的軍事應用已經開始進入作戰使用,具有令人擔憂的特性的新系統正在迅速推出。與軍事和公共部門相比,商業和學術界已經引領并繼續引領人工智能的發展,因為它們更適合投資資金和獲取研究所需的資源。因此,未來人工智能的軍事應用很可能是對商業領域開發的技術的改編。目前,人工智能正在以下軍事應用中采用:

  • 情報、監視和偵察
  • 賽博戰
  • 電子戰
  • 指揮控制和決策支持
  • 無人機群
  • 自主武器系統

人工智能和英國軍事

綜合審查和其他政府聲明毫無疑問地表明,政府非常重視人工智能的軍事應用,并打算繼續推進人工智能的發展。然而,盡管已經發布了概述使用自動化系統的學說的出版物,但迄今為止,英國國防部 (MoD) 仍然對管理其人工智能和自主系統使用的倫理框架保持沉默,盡管已經做出了一些重大決定。軍事人工智能的未來用途。

英國國防部一再承諾發布其國防人工智能戰略,預計該戰略將制定一套高級倫理原則,以控制軍事人工智能系統的整個生命周期。該戰略是在與來自學術界和工業界的選定專家討論后制定的,盡管政府尚未就與人工智能的軍事用途相關的倫理和其他問題進行公開磋商。該戰略的主要目的之一是向行業和公眾保證,國防部是人工智能項目合作的負責任合作伙伴。

與此同時,在沒有任何道德指南的情況下,計劃和政策正在迅速推進,主要問題仍未得到解答。英國軍隊在什么情況下會采用人工智能技術?政府認為何種程度的人為控制是合適的?風險將如何解決?英國將如何向其盟友和對手證明英國打算采取有原則的方法來使用軍事人工智能技術?

軍事人工智能系統帶來的風險 上述人工智能的每一種不同的軍事應用都會帶來不同的風險因素。作為國防部總部后臺操作的一部分,對數據進行排序的算法會引發不同的問題和擔憂,并且需要與自主武器系統不同級別的審查。

盡管如此,目前正在開發的人工智能系統無疑會對生命、人權和福祉構成威脅。軍事人工智能系統帶來的風險可以分為三類:道德和法律、操作和戰略。

道德和法律風險

  • 遵守戰爭法: 目前尚不清楚機器人系統,特別是自主武器如何能夠滿足戰爭法制定的致命決定和保護非戰斗人員的標準。

-問責制:目前尚不清楚如果出現問題,誰來承擔責任:如果計算機運行不可預測并因此犯下戰爭罪行,懲罰它是沒有意義的。

  • 人權和隱私:人工智能系統對人權和個人隱私構成潛在威脅。

  • 不當使用:在戰斗環境中處于壓力之下的部隊可能會試圖修改技術以克服安全功能和控制。

作戰應用風險

  • 偏見的技術來源:人工智能系統的好壞取決于它們的訓練數據,少量損壞的訓練數據會對系統的性能產生很大影響。

  • 偏見的人為來源:當人類濫用系統或誤解其輸出時,可能會導致偏見。當作戰員不信任系統或系統非常復雜以至于其輸出無法解釋時,也會發生這種情況。

  • 惡意操縱:軍用 AI 系統與所有聯網系統一樣,容易受到惡意行為者的攻擊,這些行為者可能試圖干擾、黑客攻擊或欺騙系統。

戰略風險

  • 降低門檻:人工智能系統帶來了政治領導人在沖突中訴諸使用自主軍事系統而不是尋求非軍事選擇的風險。

  • 升級管理:涉及人工智能的軍事行動的執行速度降低了審議和談判的空間,可能導致快速意外升級并造成嚴重后果。

  • 軍備競賽和擴散:對軍事人工智能的追求似乎已經引發了軍備競賽,主要和地區大國競相發展其能力以保持領先于競爭對手。

  • 戰略穩定性:如果先進的人工智能系統發展到能夠預測敵人戰術或部隊部署的程度,這可能會產生高度不穩定的后果。

本簡報列出了為人工智能設想的各種軍事應用,并強調了它們造成傷害的可能性。它認為,減輕軍事人工智能系統帶來的風險的建議必須基于確保人工智能系統始終處于人類監督之下的原則。

迄今為止,公眾對人工智能和機器人技術進步所帶來的社會變化和風險似乎知之甚少。這份簡報的部分目的是為了敲響警鐘。人工智能可以而且應該用于改善工作場所的條件和對公眾的服務,而不是增加戰爭的殺傷力。

付費5元查看完整內容

美國國防部(DOD)報告稱,人工智能(AI)是一項革命性的技術,有望改變未來的戰場和美國面臨的威脅的速度。人工智能能力將使機器能夠執行通常需要人類智能的任務,如得出結論和做出預測此外,人工智能機器可以以人類操作員無法企及的速度操縱和改變戰術。由于AI具有廣泛用途的潛力,國防部將其指定為頂級現代化領域,并投入大量精力和資金開發和獲取AI工具和能力,以支持作戰人員。在2022財年,國防部為科學和技術項目申請了147億美元,以及8.74億美元用于直接支持其人工智能努力。根據國防部2018年的人工智能戰略,未能將人工智能能力納入武器系統可能會阻礙戰士保護我們的國家抵御近同行對手的能力其他國家正在這一領域進行大量投資,這可能會削弱美國的軍事技術和作戰優勢。

美國國防部(DOD)正在積極追求人工智能(AI)能力。人工智能指的是旨在復制一系列人類功能,并不斷在分配的任務上做得更好的計算機系統。GAO之前確定了三種AI類型,如下圖所示

國防部認識到開發和使用人工智能不同于傳統軟件。傳統軟件的編程是根據靜態指令執行任務,而人工智能的編程則是學習如何改進給定的任務。這需要大量的數據集、計算能力和持續監控,以確保功能按預期執行。支持國防部作戰任務的大部分人工智能能力仍在開發中。這些能力主要集中在分析情報,增強武器系統平臺,如不需要人工操作的飛機和艦船,并在戰場上提供建議(如將部隊轉移到哪里)。

當獲取依賴于復雜軟件的新能力時,國防部一直面臨著挑戰,例如長時間的獲取過程和熟練工人的短缺。GAO發現,它繼續面臨這些挑戰,同時還面臨人工智能特有的其他挑戰,包括有可用的數據來訓練人工智能。例如,人工智能探測對手的潛艇需要收集各種潛艇的圖像,并標記它們,這樣人工智能就可以學會自己識別。國防部還面臨著將訓練有素的人工智能集成到非為其設計的現有武器系統中的困難,以及在其人員中建立對人工智能的信任。國防部發起了一系列努力,如為人工智能和人工智能特定培訓建立一個跨服務的數字平臺,以應對這些挑戰,并支持其對人工智能的追求,但現在評估有效性還為時過早

付費5元查看完整內容
北京阿比特科技有限公司