亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

技術變革幾乎被一致視為當今國防面臨的最大壓力。隨著無人機、比人類反應更快的自主武器以及由低地球軌道衛星集群驅動的智能等尖端技術的引入,技術變革正在對戰爭產生重大影響。96% 的受訪者認為,人工智能和量子計算技術對未來作戰空間具有變革性意義,我們目前還無法想象其全部潛力。

數字創新正在擴大信息戰場的規模,同時也增加了灰色地帶攻擊的數量。這些因素的結合會帶來巨大的挑戰

更多的網絡攻擊,可能造成更大的破壞: 46%的受訪者表示,網絡武器化正在給本國國防技術戰略的發展增加壓力。然而,網絡戰術仍處于灰色地帶,國防部表示,國家可以通過網絡空間造成現實世界的破壞,同時可能不會受到歸因或報復。61%的國防專業人士認為,網絡活動的歸屬困難是灰色地帶最令人擔憂的因素。

數據過剩阻礙情報工作:54%的受訪者表示,改善戰備和決策的數據是有效利用國防技術的最重要因素。

然而,大量數據的產生意味著,一個領域產生的關鍵情報可能對另一個領域至關重要,但可能無法識別或共享數據。

數字柏林墻:94%的受訪者認為,行業、合作伙伴和盟友之間的合作與信息共享對未來戰場的成功至關重要,但信息戰場卻缺乏凝聚力。聯合國秘書長警告說,各國將在各自的金融、地緣政治和軍事觀點指導下,制定各自獨特的互聯網和人工智能戰略,從而形成 "鴻溝 "或 "數字柏林墻"。

本報告主要啟示

1、快速的技術變革正在重塑戰爭,包括擴大信息戰場的規模和灰色地帶的活動規模。這些變化正在模糊傳統領域之間的界限,要求通過協作來取得對抗對手的優勢。

2、多域集成鼓勵數據共享,并在各領域之間編織數字線程,使各國在與對手作戰時更具決策優勢。然而,盡管航空航天和國防領域的受訪者都認識到了多域集成的好處,但即使是最先進的國家,在多域集成方面也還處于起步階段。

3、采用多域集成的國家需要重點關注的領域很多。這些領域包括:實現跨領域協作、為多域集成計劃制定監管標準;以及支持技術集成。

4、人員、流程和技術解決方案需要安全開放,以促進協作。國防文化必須安全開放,以鼓勵各領域之間的合作;國防文化必須與工業界合作,以創建開放標準;國防部門必須建立促進多領域集成的技術。

參考來源:BAE Systems Digital Intelligence

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

隨著廉價、現成的自主平臺可靠性的提高,多智能體系統對軍事行動造成的風險也在增加。僅在當代俄烏戰爭背景下,我們就看到自主飛行器和水面艦艇被單獨或成批部署,為雙方帶來關鍵影響。雖然有大量文獻涉及戰術層面的通信和智能體之間的互動,但對支撐未來自主多智能體軍事行動的高層指揮與控制(C2)結構的探索卻是一個探索較少的研究領域。我們提出了一個定量博弈論框架,用于研究合作和競爭性多智能體蜂群場景中的有效 C2 結構。為了測試我們的框架,我們構建了一個虛擬環境,在這個環境中,兩個敵對蜂群展開競爭,以取得與真實世界場景相當的結果。我們在本文中提出的框架使我們能夠快速測試和詢問多智能體系統中的不同 C2 配置,以探索 C2 在處于兵力劣勢時作為兵力倍增器的作用。

圖 1:場景說明。實線表示 C2 的分級聯系,虛線表示對抗性互動。

1 引言

在 21 世紀的軍事沖突中,越來越多地使用低成本的自主平臺來提供顯著的不對稱效果[1-3]。在最近的俄烏沖突中,無人駕駛航空系統(UAS)的使用推動了自主能力的發展[1, 2]。雖然單個平臺所能產生的影響顯而易見,但表現出多智能體行為(如蜂群或成群)的平臺有可能帶來更大的軍事成果。

對新一代平臺至關重要的蜂群[6-9]和自同步[10-15]行為經常在許多不同的自然和網絡物理系統中觀察到。雖然對這類系統的研究在文獻中已經有了一定的基礎,但通常都是孤立地進行探討。與通常的分離相反,可以說集體行為的發生離不開同步。也就是說,智能體(無論是異質的還是同質的)之間的交流與協調構成了驅動此類系統的基本動態的一個關鍵方面。

奧爾法提-薩伯的早期研究認為,外部空間狀態與系統中智能體的內部同步動力學之間存在不耦合的相互作用。這一概念在 "swarmalator"[3, 4]中得到了進一步的探索,在 "swarmalator "中,系統中每個智能體的空間動態和同步動態都是耦合的。在這個模型中,智能體的內部決策狀態會導致集體同步,而集體同步又會驅動智能體的空間動態。Swarmalators 是一個活躍的研究領域,除應用于其他網絡物理系統外,還應用于蜂群機器人技術 [5, 6]。

隨后,McLennan-Smith 等人[6]通過引入兩個群體集來研究系統中新出現的對抗行為,將蜂群器的概念擴展到競爭模型中。兩個智能體子群觀察到的階段轉換被比作軍事演習,并通過軍事演習的視角進行分析。在擴展蜂群模型中觀察到的對抗行為適合研究一個種群如何采用一種策略來超越其對手。

與以往的研究不同,我們引入了博弈論的視角來研究蜂群的對抗行為。此外,我們還采用了分層指揮和控制(C2)結構,以探索在異質(人類和機器)團隊競爭的背景下,蜂群智能的出現。利用這一框架,我們探索了作為力量倍增器的 C2 以及每個群體為在其決策空間的限制內實現相互沖突的目標而采用的主導策略。

本文的貢獻如下:

1.將蜂群動力學與博弈論驅動力分層,以展示增強的決策動力學

2.開發具有分層 C2 的異構多智能體蜂群環境。

本文的其余部分安排如下。第 2 節和第 0 節詳細概述了 Swarmaltor 模型和我們的環境。隨后在第 0 節討論博弈論部分,最后得出結論。

圖 3:C2 游戲開始時藍方和紅方總部的 C2 結構和初始 OODA 狀態。

模型

我們模型的決策部分利用倉本動力學[7]來表示蜂群和自主系統的同步行為[8, 9, 10]。雖然存在許多不同的決策框架 [18-20],但我們利用的是博伊德觀察、定向、決策、行動(OODA)循環 [11] 的既定數學定義。也就是說,我們利用 OODA 循環將智能體的內部決策狀態(階段)投射到單元圓上,如圖 2 所示。我們的模型將 OODA 與 Kuramoto 動力學相結合,以捕捉指揮與控制的決策要素,這已在軍事背景下的人類決策中得到驗證 [22-25]。

我們將兩個參與者正式表示為一組決策智能體,分別標記為 "藍方 "和 "紅方"。這兩組被進一步分割,以表示我們模型中的分層 C2 組件。因此,我們得到四組智能體,分別用??1、??2 和??1、??2 表示藍方和紅方玩家的總部和蜂群子集,如圖 1 所示。

我們設?? 為系統中智能體的總數。在本文中,我們設定總部都包含 21 個智能體,藍方和紅方的蜂群分別包含 20 個和 25 個智能體,總計 ?? = 86 個智能體。因此,在沒有優勢決策的情況下,情景將有利于紅方。圖 3 展示了兩個參與者的精確網絡結構,其中包括兩個分級總部,它們在分級結構的最低等級相互影響。在這些總部中,最低等級的智能體之一被指定為 "總部蜂群控制器",負責向其集體蜂群發送影響整體決策狀態的指令。

付費5元查看完整內容

人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。

通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。

政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。

政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:

理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。

議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。

保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。

實現以下目標對這一進程至關重要:

政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。

幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。

其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。

然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。

政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。

政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。

政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。

付費5元查看完整內容

未來戰場上的傳感器和射手可能會帶來新的無人區。鑒于全域能力發展的趨勢,未來戰場上美國陸軍部隊應如何跨越 25 千米的致命距離?現在和未來十年內傳感器和射手能力的發展可能意味著超越局部戰術作戰空間的拒止空間。了解這種致命區域的性質對于塑造美國陸軍的未來發展至關重要。同時,通過應用相關軍事理論來闡明作戰概念和能力的意圖也同樣重要。綜合上述分析,有助于確定不對稱領域以及部隊現代化是否走在正確的軌道上。

羅伯特-萊昂哈德上校在其《機動的藝術:機動戰理論與空地作戰》一書中,將錯位作戰的失敗機制描述為:"友軍不必按照敵軍的條件與敵軍作戰或對抗,而是避免敵軍可以發揮其威力的任何戰斗"。此外,"錯位 "的應用是通過技術、戰術或兩者的結合來實現的。這項工作提出的假設是,陸軍部隊跨越未來致命距離的最佳方式是設計和協調全域能力,在功能上使任何對手的系統優勢變得無關緊要。

由于未來武裝沖突的地點和性質尚不可知,本專著描述了美國近鄰對手的作戰概念和能力發展。美國各軍種的全域概念和相關物資能力提供了一個比較點。利用約翰-博伊德(John Boyd)和羅伯特-萊昂哈德(Robert Leonhard)的軍事理論觀點,本著作得出了到 2030 年 25 公里致命距離內作戰性質的影響。針對這些影響,專著提出了領導者培養與教育、條令和物資領域的解決方案。

付費5元查看完整內容

壓縮的戰術決策周期將是未來快節奏的超級戰爭的支點。人工智能武器系統有望擴展和最大化人類的能力,成為武裝部隊在這種致命作戰環境中的生存能力和殺傷力的關鍵。人工智能不是武器;它是武器系統的組成部分或元素--最可能是一個軍事網絡或 "軍事物聯網",它將加速火力或效果應用的速度和決策。網絡化部隊將為整個企業的態勢感知和戰斗管理提供信息。部隊不太可能出動 "殺手機器人"--攜帶武器、不受人類指揮做出生死決定的單獨實體。相反,創建和使用自主武器系統(AWS)將需要一個定義明確的作戰環境,并獲得豐富、準確、超大的數據集,如GPS,由分布式傳感器提供,加上改進的機器學習算法和高性能處理器,將人工智能融合到殺傷鏈中。殺傷鏈過程結合了多光譜傳感器,以了解作戰環境,積極地識別、跟蹤和選擇目標,并以最適當的效果與他們交戰。(蘇聯將這一過程稱為 "偵察打擊綜合體",而在20世紀90年代,美國的約翰-博伊德推廣了 "OODA循環 "一詞,即武裝部隊在對手面前競相觀察、定位、決定和行動)。人工智能旨在促進這種適應性的、多領域的、高速的決策模式,在此過程中,它有望提供決定性的軍事優勢。本研究的第二部分敘述了美國武裝部隊在武裝沖突期間對人工智能的當前和潛在使用。

在第三部分,研究轉向適用于戰爭中使用人工智能的規則。所有的戰爭方法和手段,包括人工智能,都必須符合戰爭法,也稱為武裝沖突法(LOAC)或國際人道主義法律(IHL)。指揮官有責任確保他們所掌握和指揮的方法和手段,包括人工智能,符合武裝沖突法的原則,如區分、相稱性和攻擊中需要預防的規則。

第四部分探討了《特定常規武器公約》(CCW)成員國為制定有助于確保AWS遵守武裝沖突法的標準所做的努力。特定常規武器公約》召集了一個政府專家小組(GGE),考慮對AWS的人類判斷或控制水平進行標準化的定義,以確保人類對機器的行為負責。政府專家小組最關注的是確保在敵對行動中使用致命性武器(LAWS)符合武裝沖突法。這項工作旨在彌補致命性武器系統在法律上暴露的 "漏洞"。然而,無論這一過程中產生了什么標準,都不可能成為確保致命性武器系統的運作符合武裝沖突法的有效和可靠的指導。

此外,一些非政府組織和有關國家認為,讓指揮官對行為不可預測的自主武器系統負責是不公平的,但這正是軍隊運作的方式--賦予軍事指揮部對部隊的全權和責任。特定常規武器公約》政府專家小組的努力不太可能產生詳細的、被廣泛接受的規則,從而有意義地改進這種模式。作戰的軍事指揮官已經對他們在武裝沖突期間使用人工智能武器系統負責,這是第五部分的重點。

第五部分探討了體現在軍事指揮官身上的人類問責制。軍事指揮官對人工智能武器系統的使用以及在他或她的指導下支持戰爭行動的所有努力路線負責。直接的、個人的指揮責任是長期的、完整的。對所有軍事行動--包括武裝沖突中由人工智能發動的攻擊--的相應責任由指揮系統的最高層承擔。這種問責可能是以刑法的形式,但也包括一系列行政和非司法措施。直接問責涵蓋了武裝沖突期間發生的每一件事,包括那些國際刑事法院缺乏管轄權或證據不足的事件,因此它規范了指揮官的行為,即使他們沒有犯罪意圖,事實上,即使他們沒有直接 "過錯"。

第六部分的結論是,指揮官的直接和個人問責的好處是長期存在,被廣泛理解,并被一線軍官和軍事領導人直觀地理解;它是軍事文化的一部分。雖然它可以利用法律程序,包括軍事司法系統,但它并不完全受制于或依賴這些程序。雖然指揮官仍然要為戰爭罪受到刑事處罰,但軍事問責制也包括一系列非司法和行政制裁。指揮官對人工智能武器系統的問責尤其引人注目,因為與常規武器不同,如果出了問題,沒有額外的人(或更少的人)可以負責。

付費5元查看完整內容

美國戰略家認為,人工智能(AI)有可能實現更好、更快的決策,這在未來的軍事沖突中是決定性的。機器學習應用將越來越多地影響政治和軍事領導人對戰略環境的看法,權衡風險和選擇,并判斷他們的對手。但是,將關鍵的人類決策過程暴露在人工智能系統的中會有什么風險?

要獲得人工智能在決策方面的優勢,首先需要了解其局限性和陷阱。人工智能系統根據數據模式進行預測。總是有一些意外行為或失敗的機會。現有的工具和技術試圖使人工智能對失敗更加穩健,往往會導致性能上的權衡,解決了一個問題,但可能會使另一個問題惡化。人們對人工智能的脆弱性和缺陷的認識不斷提高,但也需要在現實的部署背景下對技術故障的潛在后果進行更深入的分析。

本簡報研究了直接或間接影響決策的人工智能系統故障如何與戰略壓力和人為因素相互作用,從而引發危機或沖突的升級:

  • 納入人工智能的進攻行動或干擾對手的人工智能系統可能導致不可預見的系統故障和連帶效應,引發意外的升級。
  • 不安全的、訓練不足的或應用于錯誤類型問題的人工智能系統可能為決策過程注入不良信息,導致意外升級。
  • 發現人工智能系統被破壞,可能會對關鍵能力的可靠性或生存能力產生不確定性,如果沖突似乎迫在眉睫,會促使決策者故意升級。

這些情景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,特別是當涉及到他們對戰場的認識,了解對手的意圖和能力,或了解他們自己抵御攻擊的能力。但通過依賴人工智能,他們在人工智能系統技術故障的可能性和后果方面引入了一個新的不確定性來源。

有效利用人工智能需要以一種有謹慎的和有風險的方式來平衡優勢與局限。沒有辦法保證概率性人工智能系統會完全按照預期行為,也沒有辦法保證它能給出正確的答案。然而,軍隊可以設計人工智能系統和依賴它們的決策過程,以減少人工智能失敗的可能性并控制其后果,包括通過:

  • 為決策環境中使用的人工智能系統定義一套特定的任務屬性、標準和要求,如信任度量和保障措施,以檢測妥協或突發屬性。
  • 規定人工智能在決策中的使用,將人工智能應用于非常適合的狹窄問題,同時保留人類判斷問題,如解釋對手的意圖;并考慮在某些領域完全排除人工智能。
  • 盡可能地讓高級決策者參與他們所依賴的系統的開發、測試和評估過程,并讓他們了解人工智能的優勢和缺陷,以便他們能夠識別系統的故障。

美國應繼續帶頭制定負責任地開發和使用人工智能的全球標準,采取步驟展示某些可靠性,并盡可能地鼓勵其他國家采取類似的預防措施:

  • 澄清為限制支持決策的人工智能系統的風險而實施的做法和保障措施。
  • 開展國際合作,制定互利的技術保障措施和最佳做法,以減少人工智能災難性故障的風險。
  • 承諾在使用包含人工智能能力的進攻性行動和針對人工智能系統的行動時保持克制,因為這些行動存在重大升級風險。
付費5元查看完整內容

下一場戰爭將在一個高科技戰場上進行。但哪些技術將產生真正的影響?美國將在哪里找到技術優勢?這份CSIS報告確定了在與近似對手的戰斗中可能產生差異的七種技術。其中三項是 "沖刺"技術,美國應以大量的資源和集中的承諾積極追求進步:量子傳感和計算、生物技術和安全、冗余的通信網絡。四個是 "后續 "技術,美國應該支持和引導私營部門正在進行的努力:高性能電池、人工智能/機器學習、天基傳感器和機器人技術

在這些技術中,任何一項失敗的后果都是巨大的——它們可能導致勝利和失敗的區別。本報告旨在將工作重點放在情報工作、混合戰爭、競爭和沖突等重要領域,以便為今天的競爭和未來的潛在沖突做好準備。

1 安全和冗余的通信

明天的戰斗將在很大程度上取決于通信。部隊的聯合,與盟友的行動,甚至分散的部隊之間的戰術協調,都取決于安全和隨時隨地的通信。遠距離交戰將使通信變得更加關鍵,從提供來襲火力的警告到與遠處的人員協調。高端傳感器套件和實時目標數據只有在用于將信息從傳感器傳輸到射手的通信網絡中才會有效。

2 量子技術

量子技術將徹底改變計算能力、加密和傳感技術。目前的加密技術構建得非常復雜,以至于現代計算機需要數千年的時間才能強行破解。量子計算機將能夠在幾分鐘內破解非對稱加密。同時,量子傳感器利用微小粒子的敏感性來測量環境中的微妙變化,包括旋轉、任何頻率的電磁信號和溫度。量子傳感器可以使一個導航系統即使在被GPS拒絕的環境中也能運行。

3 生物工程

在軌能力的巨大進步將在空間領域創造一個明確的優勢,包括在軌加油、在軌數據處理和彈性空間架構。安裝在小型衛星集群上的高光譜和日益敏感的傳感器,以及配備了傾斜和提示AI/ML算法的機載處理器,可以選擇最可能重要的數據,并迅速下傳到地面網。

4 天基技術

在軌能力的巨大進步將在空間領域創造一個明確的優勢,包括在軌加油、在軌數據處理和彈性空間結構。安裝在小型衛星集群上的高光譜和日益敏感的傳感器,以及配備了傾斜和提示AI/ML算法的機載處理器,可以選擇最可能重要的數據,并迅速下傳到地面網狀結構。

5 高性能電池

現代軍隊對燃料和電力有巨大的需求,從車輛到通信設備到運行背包式無人機和其他戰術監控的筆記本電腦。電力對情報工作也很關鍵--小型化的電池可以為隱藏在不尋常物品中的通信或收集裝置提供燃料。此外,向具有較長停留時間的無人駕駛系統的推進將需要持久的電池系統。

6 AI/ML

通過在國防部行動中的適當整合,人工智能/ML系統將加速--并使美國國家安全界的大多數核心功能復雜化。處理龐大的數據集和透過噪音關注信號的能力將幫助情報人員更有效地提供指示和警告,幫助政策制定者了解復雜的趨勢,并幫助作戰人員管理多層次的戰場,包括自主車輛和全域的戰爭。

7 機器人技術

機器人的進步,結合自主或半自主的能力,將有可能在戰場內外的危險情況下將人的生命風險降到最低,并執行對人來說不可能或危險的任務。

付費5元查看完整內容

在未來的空戰中,無人協同系統的整合將是一個潛在的巨大力量倍增器。其成功的關鍵因素將是編隊情報、協調任務規劃和跨平臺任務管理。因此,構思下一代機載武器系統的任務需要一個整體的系統方法,考慮不同的航空飛行器、其航空電子任務系統和針對未來威脅的整體作戰概念。為了盡早驗證可能的解決方案概念并評估其作戰性能,在過去幾年中,在空中客車防務與航天公司未來項目中開發了一個動態多智能體戰斗仿真。除了比實時更快的工程功能外,該仿真還可以進行實時人機對話實驗,以促進工程師、操作員和客戶之間的合作。本文介紹了動態任務仿真方法,以及在未來戰斗航空系統(FCAS)研究中應用此工具所得到的啟示,在此期間,我們清楚地認識到什么是未來應用的一個關鍵挑戰。實施一個強大的高層規劃算法,為復雜的空中行動生成臨時任務計劃,同時考慮反應性的低層智能體行為、人類操作員和在線用戶輸入。

1 引言

每一代新的戰斗機都可以通過一個或多個技術飛躍來定義,這些技術飛躍使其與上一代的設計有很大區別。毫無疑問,自從大約15年前第一架第五代戰斗機投入使用以來,幾乎所有的設計學科都有了顯著的進步。不同的飛機制造商,包括空客,已經宣布他們目前正在構思或研究第六代戰斗機[1] [3]。與目前最先進的飛機相比,這些項目很可能在各個領域都有改進,如飛行性能、全方面和全模式隱身、低概率攔截雷達和通信或武器裝備。但問題仍然存在:什么將是這一代的決定性因素,一個真正改變未來戰斗空間的因素?

一個常見的假設是,未來的戰斗空間將是 "高度網絡化 "的,即所有參與的實體都可以交換他們的態勢視圖,并以近乎實時的方式創建一個共享的戰術畫面。一方面,這使得多個平臺在空間和時間上可靠同步達到了以前不可能達到的程度。許多算法,特別是發射器定位或目標測距的算法,如果能從多個位置產生測量結果,會產生明顯更好的效果。另一方面,高質量數據的可靠交換通過分配以前由單一平臺執行的任務,使戰術更加靈活。對作戰飛機的主要應用可能是所謂的合作交戰概念(CEC),這已經是美國海軍針對反介入/區域拒止(A2/AD)環境的海軍綜合火控-反空(NIFC-CA)理論的一部分[4],但其他應用也是可能的,例如合作電子攻擊。所提到的概念主要適用于任務期間單一情況的短期范圍,例如偵察或攻擊薩母基地、空對空(A2A)作戰等。然而,就整個任務而言,還有一個方面需要提及。鑒于所有參與實體之間的可靠通信,規劃算法可以交換任務計劃變更的建議,并根據其目標和當前的戰術情況自動接受或拒絕。這在一個或多個不可預見的事件使原來的任務計劃無效的情況下特別有用,盡管所有預先計算的余量。與其估計一個替代計劃是否可行,并通過語音通信與所有其他實體保持一致(考慮到船員在某些任務階段的高工作負荷和參與實體的數量,這是一項具有挑戰性和耗時的任務),一個跨平臺的任務管理系統可以快速計算出當前任務計劃的替代方案,并評估是否仍然可以滿足諸如開放走廊等時間限制。然后,一組替代方案被提交給機組人員,以支持他們決定是否以及如何繼續執行任務。

將上述想法與現在可用的機載計算能力結合起來,由于最近在硬件和軟件方面的進步,可以得出結論,未來一代戰斗機將很有可能在強大的航空電子系統和快速可靠數據交換的基礎上,采用卓越的戰術概念進行作戰。然而,這還不是我們正在尋找的明確游戲改變者--甚至現有的第五代戰斗機已經應用了一些提到的概念,例如,在NIFC-CA背景下的F-35[4]。因此,下一步不僅要改進飛機的航電系統,而且要在完全網絡化環境的前提下連貫地優化航電、戰術和平臺設計。這種方法允許思考這樣的概念:如果得到網絡內互補實體的支持,并非每個平臺都需要擁有完整的傳感器套件和完整的決策能力。因此,不同的平臺可以針對其特殊任務進行高度優化,從而與 "單一平臺做所有事情 "的方法相比,減少了設計過程中需要的權衡數量。很明顯,一個專門的傳感器平臺不需要或只需要非常有限的武器裝備,因此現在可用的空間可以用來建造更好的傳感器或更大的燃料箱。這已經可以使該平臺專門從事的任務性能得到顯著提高,但有一樣東西可以去掉,它的影響最大:飛行員。在這一點上,必須明確指出,目前沒有任何算法或人工智能能夠接近受過訓練的機組人員態勢感知和決策能力。這就是為什么在不久的將來,人類飛行員在執行戰斗任務時將始終是必要的。然而,如果飛行員(或更準確地說,決策者)被提供了指揮無人駕駛同伴的所有必要信息,那么就不需要在同一個平臺上了。因此,我們提出了一個概念,即一個或多個載人平臺由多個無人駕駛和專門的戰斗飛行器(UAV)支持。在下文中,我們將把至少一個載人平臺和一個或多個由載人平臺指揮的專用無人機組成的小組稱為包。我們聲稱,由于以下原因,無人平臺將作為有人平臺的力量倍增器發揮作用:

  • 無人機是可擴展的,而空勤人員是不可擴展的。因此,無人機可以執行高風險的任務,并允許采用只用載人平臺無法接受的戰術。

  • 無人機更便宜(即使不考慮機組人員的價值),因為它們可以在性能相同的情況下比載人平臺建造得更小。這意味著,在相同的成本下,更多的平臺可以執行任務,更多的平臺會導致更高的任務成功率。首先,因為有更多的冗余,其次,如果有更多的資產參與其中,一些任務可以更好地完成,例如發射器的定位。

  • 不同的無人機和載人平臺可以任意組合。在任務開始前,可以根據需要組成包。在任務期間,在某些限制條件下,也可以重新組合軟件包,例如,如果交戰規則禁止不受控制的飛行,則指揮平臺之間的最大距離。這使得任務規劃和執行有了更大的靈活性,預計也能保持較低的運行成本和材料損耗("只使用你需要的東西")。

像往常一樣,沒有免費的午餐這回事。在我們的案例中,所有上述優勢對飛機設計師來說都是有代價的。不是按照一組技術要求優化單一設計的性能,而是必須設計多個平臺及其子系統,使其在各種任務和組合配置中最大限度地提高整個系統的性能。在本文的其余部分,我們將介紹FCAS原型實驗室(FPL),這是一個在FCAS背景下開發的模擬環境,用于解決這一高度復雜的問題。在第2章中概述了它在概念設計和跨學科技術原型開發中的作用后,我們將在第3章中介紹底層動態多智能體任務仿真的概念和架構。在第4章中,我們將介紹選定項目的結果,以概述該工具的多功能性。本文最后將介紹可能是未來最大的挑戰之一,不僅對模擬,而且對一般的無人系統的引進。實施一個強大的高層規劃算法,為復雜的空中行動生成臨時任務計劃,同時考慮反應性的低層智能體行為、人類操作員和在線用戶輸入。

FCAS原型實驗室(FPL):動態多智能體任務仿真

FPL的核心是一個動態多智能體任務仿真,可以在一臺計算機上運行,也可以分布在多臺機器上,并使用不同的附加硬件組件。為了方便兵棋推演的進行,對人機界面技術進行原型測試,或用于一般的演示目的,模擬中的所有載人機載資產都可以選擇由硬件駕駛艙控制。如果沒有人類操作員參與,模擬必須能夠比實時運行更快。這對于在可能需要數小時的大規模任務中進行有效的開發和權衡分析尤為必要。為了以客觀和公正的方式評估概念和技術,每個模擬任務的過程都是由預先定義的系統屬性、物理效應的模擬和可配置的智能體行為和合作演變而來。不存在任何腳本事件,每一次新的模擬運行的結果都是完全開放的。藍軍和紅軍是在相同的假設下,以可比的抽象水平進行模擬。以下各章概述了如何在FPL中動態地模擬當前和未來機載系統的任務。介紹了我們的仿真結構,在對這類系統進行建模時最重要的設計權衡,以及行為建模的高層次規劃/低層次控制方法。

架構

FPL的仿真架構由三個邏輯部分組成:應用、仿真控制和通信中間件。該架構的一個核心特征是,模擬被分割成幾個應用程序。每個應用程序運行不同的模型,例如,有一個應用程序用于模擬自己的(藍色)航空器、敵方(紅色)航空器、綜合防空系統(IADS)以及更多的模型,如下所示。所有的應用程序共享相同的標準化接口,并且可以任意組合。這種模塊化允許只運行某個任務或項目所需的部分模型。所有的應用程序都是獨立的可執行文件,可以在同一臺計算機上以并行進程運行,也可以分布在幾臺機器上。通過交換編譯后的二進制文件,來自不同公司的模型的整合是可能的,而不會暴露詳細的基本功能。一般來說,不同公司之間的快速和容易的合作是FPL架構的一個主要驅動力。為此,提供了一個基礎應用類,它提供了所有與仿真有關的功能,如仿真控制狀態機、通信中間件接口和通用庫,例如用于不同坐標系的地理空間計算。通過簡單地實現一個新的基礎應用實例,新的模型可以被添加到仿真框架中。所有應用程序的執行都由一個中央仿真控制實例控制。它提供了一個圖形化的用戶界面,可以根據需要啟動、停止和加速模擬。在執行過程中,所有應用程序的運行時間被監控,仿真時間被動態地調整到最慢的模型。這使得分布式的比實時更快的模擬具有自適應的模擬時間加速。應用程序之間的通信是通過數據分配服務(DDS)標準[2]實現的。它使用發布-訂閱模式在網絡中實現了可靠和可擴展的數據交換。兩個不同的分區用于廣播仿真數據(如實體狀態、仿真控制命令等)和多播命令和控制數據(如通過BUS系統或數據鏈路實際發送的數據)。DDS標準的開放源碼實施被用來進一步方便與外部伙伴的合作。

圖1提供了我們的模擬架構的概況,包括大多數任務所需的應用程序。如前所述,這個架構并不固定,幾乎任何應用都可以根據需要刪除或交換。如黑色虛線箭頭所示,通過DDS中間件在仿真控制處注冊一個基本的應用實現,可以集成新的模型。藍色/紅色背景的方框描述了己方/敵方系統,混合顏色的方框可供雙方使用。仿真基礎設施組件的顏色為灰色,用戶界面的顏色為橙色。黑色箭頭表示模擬過程中的通信,灰色箭頭代表模擬運行前后的數據交換。

對于兵棋推演環節,不同的應用程序分布在FPL的多個房間內運行,以模仿真實的空中作業程序。在設置好一個場景后,藍方和紅方的操作人員使用任務配置工具,在不同的房間里計劃他們的任務。空中行動指揮官留在這些房間里,而飛行員則分成兩個房間,每個房間有兩個駕駛艙來執行任務。藍方和紅方空軍應用的任何飛機都可以從駕駛艙中控制,因此飛行員可以接管不同的角色,并相互對抗或作為一個團隊對抗計算機控制的部隊。所有房間都配備了語音通信模擬。任務結束后,各小組在簡報室一起評估任務,可以從記錄的模擬數據中回放。一個額外的房間配備了多個連接到模擬網絡的PC,可以選擇用于特定項目的任務,例如硬件在環實驗。

建模

為FPL選擇正確的建模范式事實上并不簡單,因為它涵蓋了操作分析工具(通常是隨機的)以及工程模擬(通常是確定性的或混合的)的各個方面。這個決定的影響可以用一個例子來說明,即如何確定一架飛機是否被導彈擊中。在隨機模型中,這個決定是基于可配置的概率,例如,被擊中的概率(導彈)和回避動作成功的概率(飛機)以及一個隨機數。為了使最終的任務結果對單一的隨機數不那么敏感,在實踐中經常用不同的隨機種子進行多次模擬運行。按照確定性的方法,導彈的飛出是根據導彈的發射方向、制導規律和固定的性能參數如推力、最大加速度等來模擬的。飛機在規避機動過程中的軌跡也是基于其初始狀態、空氣動力學、反應時間等。例如,當彈頭引爆時,如果導彈和飛機之間的距離低于某個閾值,那么飛機就會被認為被殺死。在一個確定性的模型中,在導彈發射時已經知道飛機是否會被擊中。確定性模型中必要的簡化通常是通過引入固定參數來完成的,比如導彈例子中的距離閾值。混合模型允許使用隨機數進行這種簡化,例如,作為失誤距離的函數的殺傷概率。

為了有效地測試和分析大規模的空中作業,在單臺機器上有幾十種藍色和紅色資產運行的情況下,模擬運行的速度至少要比實時快10倍(平均)。這對所用算法的時間離散性和運行時的復雜性提出了重大限制。為了保持快速原型設計能力,為新項目設置仿真或開發/集成新組件所需的時間應保持在較低水平。太過復雜的模型會帶來更多的限制,而不是顯著提高結果的質量。在這些方面,(更多的)隨機模型在運行時間和開發時間上都有優勢,更快。然而,在我們的案例中,有兩個主要因素限制了隨機模型的使用,使之達到最低限度。首先,模擬只有在給出他們的戰術和演習成功與否的確切原因時才會被操作者接受。此外,隨機模型是由數據驅動的,但對于未來自己和/或敵人的系統來說,所需的數據往往無法獲得。對于已經服役多年并在測試或實際作戰中多次射中的導彈,有可能估計其殺傷概率。然而,僅僅為未來的導彈增加這一概率是非常危險的,特別是因為隨機模型對這些參數非常敏感。從我們的觀點來看,通過將所有系統建模為基于技術系統參數的通用物理模型,可以實現對未來系統更健全的推斷。第一步,通過模擬已知技術和性能參數的現有系統,對模型本身進行驗證。對于未來的系統,技術參數會根據預期的技術進步、領域專家知識和他們的工具進行推斷。堅持最初的例子,未來戰斗機的回避機動性能的推斷,例如,基于從CAD和流體動力學模型計算出的更高的升力系數,或基于更高的導彈接近警告器的分辨率和靈敏度。

客觀評價未來概念在模擬中的表現的一個關鍵方面是環境和威脅的建模。必須考慮到,系統的方法在紅方和藍方都是有優勢的。現代國際防空系統的危險來自于結合不同的系統,從非常短的距離到遠距離。所有這些系統都有它們的長處和短處,但它們被組織起來,使個別的短處被其他系統所補償,并使整個系統的性能最大化。因此,第一個困難是必須對大量的系統進行模擬,并且必須確定這些系統的個別優勢和劣勢。通用物理模型的方法可用于這兩個方面。在通用防空系統模型被開發和驗證后,它可以迅速將新的系統整合到模擬中。根據模擬的物理效果,可以估計敵方系統的作戰優勢和弱點或未來可能的威脅概念。另一方面,使用通用模型的困難在于,必須將真實系統的功能映射到通用模型中,以便保留所有重要的單個系統屬性。這不可避免地導致了相當復雜和詳細的通用模型。我們將以地基雷達組件為例,概述我們平衡復雜性和保真度的方法。如圖2所示,IADS模擬中的一個實體由不同的組件組成。這些組件可以任意組合,以快速配置新系統。從功能角度看,地面雷達組件由控制器、探測模型和目標跟蹤器組成。根據實體的當前任務,控制器選擇所需的雷達模式,例如,360°搜索的監視或戰斗搜索,如果一個特定的部門必須優先考慮。為了對付干擾或地面雜波,可以使用不同的波形。根據雷達的類型,如機械或電子轉向的一維或二維,控制器有不同的可能性來適應搜索模式。在為一個波束位置選擇了波形的類型和數量后,探測模型根據目標、地面雜波、地形陰影、大氣衰減和電子對抗措施等方面的雷達截面模型,產生測量結果。測量誤差是由取決于隨機模型的信噪比引起的。由此產生的測量結果然后由目標跟蹤器處理,它執行測量-跟蹤關聯和跟蹤過濾。

這種詳細模型產生的另一個困難是必須估計的參數總數。在這一點上也要注意,模擬中的所有數據都是不受限制的。這一方面是由于大多數項目的限制,但另一方面,它在日常工作中也有實際優勢。我們必須牢記,模擬是用于概念驗證,而不是用于詳細的系統設計,所以在這個早期階段使用機密的威脅數據會對基礎設施和開發過程造成重大限制,而不會給結果帶來重大價值。基于此,所有的威脅數據都必須根據公開的來源或來自內部項目和外部合作伙伴的非限制性數據進行估算。這再次導致了大量的數據,而這些數據的詳細程度往往是非常不同的,或者是不一致的,例如,由于對限制性數據的去分類。隨著我們模型的不斷發展和多年來獲得的工程專業知識,我們有可能為不同的當前和推斷的未來威脅系統估計出一致的參數。這主要是在一個自下而上的迭代過程中完成的。根據現有的技術和性能參數,對缺失的模型參數進行估計以適應組件的性能。然后對單一系統的不同組件之間的行為和相互作用進行調整,以達到理想的系統性能。最后,在不同的情況下測試IADS內這些系統的協調,以使整個系統的性能最大化。

付費5元查看完整內容

自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。

人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。

土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:

  • 第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。

  • 《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。

  • 焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。

土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。

土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。

土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。

土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。

土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。

土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。

培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。

付費5元查看完整內容

美國已經進入了一個大國競爭的新時期。俄羅斯和中國的崛起在全球權力結構中形成了復雜的三足鼎立局面。最近人工智能方面的技術進步使這種多變的國際動態進一步復雜化。學者、政治家和高級軍官已經意識到,人工智能的融入是軍事事務中一場新革命的起源,有能力改變權力的戰略平衡。美國在中東被二十年的反叛亂所困擾,并受到僅延伸至2025年的長期人工智能戰略的阻礙,沒有準備好進入這個 "第六代 "軍事能力,以確保其戰略利益。這種人工智能化的部隊將由半自主和自主系統定義,包括致命的自主武器系統。第一個開發和使用這些武器的國家行為者將在這個新時代獲得對其競爭對手的戰略優勢。雖然美國目前在人工智能方面擁有優勢,但由于缺乏前瞻性思維和重點投資政策,這種優勢正在迅速消失。這是一份旨在解決這一差距的政策文件。20世紀90年代中期的中國軍事現代化模式為美國未來的政策提供了一條潛在的途徑。雖然兩國政府結構存在差異,但其中的幾個基本原則可以在美國的制度框架內適用。因此,美國可以通過制定健全的投資政策、集中的技術發展計劃和新的行動概念來確保人工智能的首要地位,以便在新能力出現時將其最大化。

針對美國的政策建議與評估

大國競爭必須相對于其他大國的能力進行評估。因此,沒有一種能力可以被評估為產生可持續的絕對優勢。然而,在潛在的對手獲得同樣的能力之前,開發人工智能技術和應用為21世紀沖突設計的CONOPS的能力將在整個政治/軍事領域產生一個暫時的戰略優勢。美國目前的公共政策和戰略并沒有延伸到25年后。隨著中國準備在2030年成為占主導地位的人工智能大國,美國為了確保長期戰略利益,不能接受人工智能競賽的現狀。由于人工智能領域的技術發展速度很快,人工智能RMA的狀態和抓住初始優勢的能力正在接近一個拐點。建議美國采取側重于美國在人工智能競賽中的首要地位的政策,特別是在致命性自主武器系統的研究和開發方面。美國在這一領域保持優勢的能力對于國家安全和參與21世紀人工智能輔助和/或人工智能環境的準備工作是至關重要的。

由于致命性自主武器系統是一項仍在開發中的未來技術,因此不可能確定致命性自主武器系統對戰略環境的完整影響。本研究承認,對于評估一個未來武器系統的影響沒有預測性的措施,該系統在實現其全部潛力之前還將經過幾代技術的演變。然而,評估投資政策、技術和CONOPS演變的影響以及它如何影響軍事準備、政治資本和戰略環境的能力是有據可查的。

本文的建議將以1990年至今的中國軍事投資戰略為藍本。在此期間,中國國防開支的增加創造了一個前所未有的能力和軍事力量的增長,為美國未來的人工智能政策提供了一個框架。由于全球力量是以相對而非絕對的方式衡量的,美國至少必須在多極環境中與不斷增長的大國保持平等。雖然從美國的角度來看,中國戰略的某些方面,特別是盜竊知識產權的因素是不切實際的,但那些關于教育和貨幣投資的內容可以被納入美國未來的人工智能政策中。這項研究建議:

1.設立一個負責人工智能政策的助理國防部長的新職位,直接負責人工智能的發展和整合到美國防部。

2.指示ASDAI為美國軍隊制定一個關于第六代能力的預期最終狀態,每十年更新一次。

3.建立30年、15年和5年的人工智能目標,每五年更新一次,讓各個機構,如DARPA、JAIC、國防創新部門(DIU)和相關組織負責特定的發展水平。這將使美國政策制定者有能力根據ASDAI評估和更新的多變的戰略環境,為每個機構提供適當的資金。

4.成立一個委員會,負責發展和保留研究生水平的科學、技術、工程和數學(STEM)人才。

5.建立一個戰略規劃組織,負責研究和整合新的人工智能技術,因為它們出現在15年和5年的基準點上,以便在收購過程中納入其中。

對這些政策的評估必須對照美國對手在人工智能領域的成就和進步。建立在美國在人工智能領域的首要地位上的政策應該集中在教育和經濟投資,新的人工智能技術的初步發展,以及新的CONOPS的發展,以便在新的人工智能能力可用時充分和有效地進行。本研究報告的其余部分重點關注中國國防現代化計劃對美國未來人工智能政策和建議的調整。

付費5元查看完整內容

人工智能(AI)的進步為世界各地的軍隊帶來了巨大的機遇。隨著人工智能軍事系統日益增長的潛力,一些活動人士敲響了警鐘,呼吁限制或完全禁止一些人工智能武器系統相反,對人工智能武器控制持懷疑態度的人認為,人工智能作為一種在民用背景下開發的通用技術,將異常難以控制人工智能是一項具有無數非軍事應用的賦能技術;這一因素使它有別于其他許多軍事技術,如地雷或導彈由于人工智能的廣泛應用,絕對禁止人工智能的所有軍事應用可能是不可行的。然而,有可能禁止或規范特定的用例。國際社會有時在禁止或管制武器方面取得了不同程度的成功。在某些情況下,例如禁止永久致盲激光,武器控制迄今為止效果顯著。然而,在其他情況下,例如試圖限制無限制的潛艇戰或對城市的空中轟炸,國家未能在戰爭中實現持久的克制。各國控制或管制武器的動機各不相同。對于特別破壞政治或社會穩定、造成過多平民傷亡或對戰斗人員造成不人道傷害的武器,各國可設法限制其擴散。本文通過探索歷史上試圖進行軍備控制的案例,分析成功和失敗,研究了軍備控制在人工智能軍事應用中的潛力。論文的第一部分探討了現有的有關為什么一些軍備控制措施成功而另一些失敗的學術文獻。然后,本文提出了影響軍備控制成功的幾個標準最后,分析了人工智能武器控制的潛力,并為政策制定者提出了下一步措施。歷史上試圖進行軍備控制的詳細案例——從古代的禁令到現代的協議——可以在附錄a中找到。歷史告訴我們,政策制定者、學者和民間社會成員今天可以采取具體步驟,提高未來人工智能軍備控制成功的機會。這包括采取政策行動,塑造技術發展的方式,并在所有層面加強對話,以更好地理解人工智能應用可能如何在戰爭中使用。任何人工智能武器控制都將具有挑戰性。然而,在某些情況下,軍備控制在適當的條件下是可能實現的,今天的一些小步驟可以幫助為未來的成功奠定基礎。

付費5元查看完整內容
北京阿比特科技有限公司