亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

美國陸軍即將發布關于使用大型語言模型(LLM)和生成式人工智能(AI)的新政策指南。此舉正值五角大樓尋求利用人工智能的變革潛力,同時解決安全問題并確保該技術滿足美國防部(DoD)的獨特需求之際。隨著人工智能的不斷發展,陸軍旨在利用其能力來提高作戰效率、決策和整體任務成功率。

大型語言模型的崛起

大型語言模型,如 OpenAI 的 GPT-4 和谷歌的 Gemini,因其能夠根據提示和訓練數據生成類似人類的文本、音頻、代碼、圖像和視頻而備受關注。這些模型已在從內容創建到復雜問題解決等各種應用中展示出令人印象深刻的能力。然而,它們的廣泛應用也引發了有關數據安全、道德考量和潛在濫用的關鍵問題。

美陸軍對生成式人工智能的態度

認識到生成式人工智能的潛力和挑戰,陸軍將發布新的政策指南,以確保負責任地安全使用這些技術。據陸軍首席信息官(CIO)利奧-加西加(Leo Garciga)稱,即將發布的指令將為如何將 LLM 集成到陸軍行動中同時保護敏感信息提供明確的指導。這項政策預計將涉及幾個關鍵領域:

  • 安全問題: 使用市售 LLM 的主要顧慮之一是,敏感軍事數據有可能暴露給未經授權的個人。陸軍的政策將強調使用符合國防部嚴格安全標準的安全內部人工智能系統的重要性。這種方法旨在防止機密信息的無意泄漏,并防止潛在的敵方利用。
  • 量身定制的解決方案: 陸軍尋求可定制的人工智能解決方案,以滿足其特定的作戰需求。這包括開發可在陸軍安全環境下運行的人工智能模型,并應對軍事應用的獨特挑戰。通過與行業合作伙伴合作并利用內部專業知識,陸軍旨在創建既能提高任務效率又不影響安全性的人工智能工具。
  • 合乎道德和負責任的使用:陸軍致力于合乎道德地采用人工智能技術。新政策將納入負責任地使用人工智能的原則,確保人工智能系統透明、負責,并符合陸軍的價值觀和任務目標。這包括持續實驗、用戶反饋和不斷改進,以解決可能出現的任何道德問題。

生成式人工智能在陸軍中的應用

生成式人工智能在各種軍事應用中大有可為。一些潛在用例包括

  • 作戰規劃和決策:人工智能可協助指揮官分析海量數據、提出可行見解并做出明智決策。通過將常規任務自動化并提供實時分析,人工智能可以提高決策過程的速度和準確性。
  • 培訓與模擬:人工智能驅動的模擬可以創建逼真的訓練環境,讓士兵在可控的環境中練習和提高技能。這些模擬可以適應不同的場景,提供寶貴的經驗并提高戰備狀態。
  • 后勤和供應鏈管理:人工智能可以通過預測需求、管理庫存和簡化供應鏈流程來優化物流運營。這可以提高資源分配效率,降低運營成本。
  • 網絡安全:人工智能可以通過實時檢測和應對威脅來增強陸軍的網絡安全態勢。先進的人工智能算法可以識別模式和異常,從而實現對網絡攻擊的主動防御。

挑戰和考慮因素

雖然生成式人工智能的潛在效益巨大,但陸軍必須克服幾個挑戰,以確保成功實施:

  • 數據質量和集成:人工智能系統的有效性取決于其訓練數據的質量和準確性。陸軍必須確保其數據是干凈、相關和適當整合的,以最大限度地發揮人工智能工具的效用。
  • 人機協作:人工智能的有效使用需要人類操作員與人工智能系統之間的無縫協作。陸軍必須在培訓和教育方面進行投資,以確保人員能夠有效地與人工智能技術互動并加以利用。
  • 遵守法規:陸軍的人工智能計劃必須符合國防部和聯邦層面的現有法規和標準。這包括遵守有關數據隱私、安全和道德使用的準則。

結論

美陸軍即將發布的關于大型語言模型和生成式人工智能的政策指導,是利用人工智能的力量進行軍事應用的重要一步。通過解決安全問題、定制滿足作戰需求的解決方案以及促進道德使用,陸軍旨在利用人工智能提高任務成功率并保持技術優勢。

參考來源:Indigo Monser

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

將人工智能(AI)融入軍事應用面臨著復雜而多方面的挑戰,其中包括技術進步、政策框架、戰略考慮和倫理問題。為了跟上人工智能技術不斷改進和發展的快節奏,美國國防部(DoD)制定了一項統一的采用戰略,旨在改善組織環境,使國防部領導和作戰人員能夠通過專業地利用高質量數據、高級分析和人工智能做出快速、明智的決策,從而獲得持久的決策優勢。

在軍事和戰場應用中使用人工智能是一個相對較新的現象,但該技術的有限使用已經使作戰人員受益。在這一雛形中,人工智能主要用于信息收集和處理能力。例如,在篩選大量數據和圖像或監控信息源以獲取有意義的信息方面,人工智能要比人類高效得多。

目前比較重要的應用之一是威脅識別和識別,特別是在空戰中。這可以通過定位單個飛機或飛機類型發出的獨特無線電或雷達信號來實現。在過去,這是一項艱巨的任務,需要各種傳感器運行,并記錄來自許多不同來源和頻率范圍的信息。然后由專家對這些傳感器數據進行分析,以找到并識別與個別飛機或飛機類型相關的各種信號。如今,人工智能系統可以在幾毫秒到幾秒鐘內完成由許多人花費幾十或幾百個小時進行的識別工作。

為軍用人工智能提供動力的硬件

軍事人工智能應用中使用了幾種不同的硬件組件。

  • 高性能計算(HPC): 大多數軍事人工智能應用都需要強大的計算資源來實時處理大量數據和執行復雜計算。高性能計算系統(包括但當然不限于超級計算機和高端服務器集群)可提供必要的計算能力。

圍繞這些高性能計算資源的位置問題,已經進行了大量的討論和學術研究。有一種觀點認為,將高性能計算組件放置在遠離戰場的中心區域更為合適。另一種觀點則認為,所有計算都應推向邊緣。

在中心位置執行大部分密集型計算,可使設備和組件的數量和類型大大增加。不過,這也使得網絡或 "管道 "成為人工智能應用中更為關鍵的組成部分。

另外,與外部部署的硬件相比,現場部署的邊緣硬件在尺寸上更受限制。邊緣硬件受限于尺寸,而外部硬件則受限于管道的安全性和強度。

  • 圖形處理單元(GPU): 嚴格來說,GPU 并非必要,但通常用于加速人工智能計算,尤其是在使用機器學習和深度學習算法時。在依賴并行處理的應用中,GPU 大有裨益。軍用人工智能系統通常利用 GPU 完成圖像識別、物體檢測和自主導航等任務。

人工智能算法和用戶界面軟件

  • 人工智能算法和模型: 軍事人工智能應用依靠先進的算法和模型來執行圖像識別、自然語言處理、決策制定和預測分析等任務。

  • 具有大型數據集的模擬/訓練軟件: 為了訓練人工智能系統和模擬各種場景,需要使用專門的軟件平臺,這些平臺可以對軍事環境、戰術和裝備進行逼真的模擬。為了最好地訓練軍事人工智能,這些模擬需要應用海量數據集--數據越多越好。

  • 集成軟件: 軍事人工智能系統需要與現有基礎設施集成,并與其他系統進行無縫、直觀的交互。不能指望戰場上的士兵在軟件平臺中瀏覽具有挑戰性的用戶界面。

美國國防部人工智能政策

在過去幾年中,美國國防部(DoD)一直在通過各種政策和戰略文件戰略性地融入人工智能和機器學習(ML)技術。國防部發布的 "2018 年國防部人工智能戰略 "為發展集中式基礎設施、整合新技術以及在人工智能倫理和安全方面實現國際領先奠定了基礎。隨后的戰略,如 "2020 年國防部數據戰略 "和首席數字與人工智能辦公室(CDAO)的創建,進一步強調了以數據為中心的方法和優化整個國防部人工智能能力的重要性。

2023 年《國防部數據、分析和人工智能采用戰略》中概述的現行指導政策建立在以前政策文件的基礎上,主要側重于速度、敏捷性、學習和責任。該戰略強調權力下放,并在開發人員和最終用戶之間建立緊密的反饋回路,旨在加強國防部內部的決策過程。2023 戰略概述了人工智能的基礎性指導方法,而不是循序漸進的指南。

2023 戰略的關鍵組成部分包括人工智能需求層次(圖 1),該層次優先考慮高質量數據,將其作為具有洞察力的分析和負責任的人工智能開發的基礎。該戰略還推進了對用戶友好型基礎設施的需求,并不斷完善政策和流程,以確保負責任地實施人工智能。

[圖 1 ? 美國國防部人工智能需求等級制度優先考慮高質量數據。圖片由美國國防部提供]。

已部署的人工智能解決方案

目前有許多制造商和承包商正在將人工智能應用于軍事領域。這些制造商和承包商既有波音、通用動力、洛克希德-馬丁、雷神和諾斯羅普-格魯曼這樣的老牌大公司,也有 Anduril 這樣的后起之秀。

射手探測系統: 槍手探測系統雖然不是嚴格意義上的軍事應用,但它已發展出一種人工智能集成解決方案,使急救人員能夠準確定位槍聲的位置。該系統使用一系列聲學和紅外閃光探測傳感器,并集成到視頻、門禁和群發通知系統中。傳感器系統收集的數據通過 I/O 模塊直接輸入人工智能驅動的軟件平臺,該平臺可在 0.5 秒內確定是否發生槍聲、何時發生槍聲、確定槍聲的確切位置、通知當局并發送群發通知。

戰術智能瞄準接入節點(TITAN): 戰術情報目標訪問節點(TITAN)是一種可擴展的遠征情報地面站,將加快和簡化陸軍訪問和處理海量情報、監視和偵察(ISR)數據的能力。

從外形上看,TITAN(圖 2)是一個移動數據中心,集成了電力、加熱和冷卻、冗余通信和計算平臺,所有這些都建在一個大型卡車平臺上。車載遠征地面站將利用人工智能提供深度感知能力,從而實現現代戰場的遠程精確射擊。利用人工智能,TITAN 將使用人工智能和 ML 執行數據集成、融合、處理和分析功能,以實現自動化并協助陸軍縮短傳感器到射手的時間線。

[圖2 ? 展示的是TITAN ALPHA工作概念車。圖片來源:Palantir.]

Sealevel Relio R1 Rugged嵌入式計算機是TITAN系統的核心。Relio R1 Rugged 監控 TITAN 的整體健康和性能。這臺小巧的計算機可承載多個軟件應用程序,并解釋來自各種內部傳感器的數據。

未來的人工智能

將人工智能融入軍事應用是現代戰爭的一大進步,可增強信息處理、威脅識別和決策過程的能力。人工智能技術的發展與強大的技術基礎設施的發展息息相關,其指導原則是 CDAO 等組織制定的戰略舉措和政策框架。雖然人工智能在提高軍事效率方面具有巨大潛力,但它也提出了有關負責任的開發、部署以及自主系統在沖突場景中的影響等重要問題。制造商和開發人員、決策者和作戰人員之間的持續合作對于確保軍事人工智能應用提高作戰能力和負責任地促進全球安全至關重要。

參考來源:Military Embedded

付費5元查看完整內容

隨著各國和國防組織適應快速變化的安全和戰爭環境,生成式人工智能正在成為一種重塑戰略、能力和行動的變革性技術。

增強態勢感知和決策能力

生成式人工智能正在重塑國防情報界和軍事部門的工作方式,以及他們提供戰場態勢感知和決策的方式。由于人工智能算法能快速關聯來自不同傳感器系統的數據,如地面傳感器、衛星、無人機和其他可用的戰場信息源,因此能實時描繪作戰環境,從而增強在壓力最大、時間最緊迫的條件下作戰的指揮官的決策能力。從這個意義上說,生成式人工智能在作戰情報中的應用與美國國防部 2017 年宣布的 “Project Maven ”計劃有異曲同工之妙。

改變軍事訓練和模擬

生成式人工智能改變了國防軍事訓練和模擬。利用人工智能算法,軍事人員現在可以接觸到高度逼真的動態訓練模擬環境,幾乎可以適應無限多的作戰場景--所有這一切都具有成本效益且無風險。北約正在將人工智能融入其訓練計劃,讓這些模擬環境適應受訓人員的行動和反應。這表明人工智能有能力設計獨特的學習體驗,適應受訓者的需求,并優化他們的認知準備狀態。

推進自主系統

將生成式人工智能融入國防領域,對無人監視、偵察和作戰行動自主系統的研究和開發起到了重要作用。人工智能允許無人機和無人駕駛車輛在沒有人類直接控制的情況下執行任務,從而提高了速度、耐力和風險。以色列國防軍最近開始使用人工智能驅動的自主無人機在邊境合規場景中執行軍事監視和偵察任務,這證明了這些技術的作戰優勢和戰略價值。

網絡防御與安全

生成式人工智能在網絡安全領域也大有可為。它可以幫助識別、預防和應對網絡威脅--使用人工智能算法來識別可能預示著網絡攻擊的新穎和前所未見的模式。美國網絡司令部利用人工智能增強其網絡防御能力,其結果是為關鍵信息基礎設施提供更加積極主動的安全態勢,并改善運行的連續性。

印度在國防領域對新一代人工智能的戰略擁抱

印度在國防領域的生成式人工智能整合方面處于領先地位。印度政府已經認識到人工智能在戰區內外形成下一代能力支柱的潛力,如今已在國防部門啟動了多項宏偉的人工智能設計。根據一項名為 “AI for ALL ”的倡議,印度政府正在將人工智能融入其 “Mae in India ”和 “數字印度 ”的敘事中。在國防研究與發展實驗室(DRDO)內部,量子計算和人工智能正被用于生成用于指導無人駕駛航空器和水下航行器、網絡防御以及軍事平臺預測性維護的系統。

主要挑戰與機遇

計算是實現生成式人工智能的挑戰之一。GMLV 技術表明,先進的人工智能需要強大的計算能力,而這一直是部署下一代神經網絡所面臨的問題。因此,美國可能有更多機會在美國出口商、銀行業、保險業和醫療保健業的新興市場中發揮重要作用,并利用國家安全局開發的加密系統--這是對信息時代研發工程設計的重要性的另一種諷刺--所有這一切都源于印度對創生式人工智能的戰略擁抱,以及其預期的近乎無限的創造和組合,而這些都是事先無法預測的。

隨著生成式人工智能在國防工業中的應用持續升溫,我們肯定會看到在預測性維護、物流優化、下一代武器系統開發和其他領域出現更多技術。但是,正如所指出的,人工智能技術的快速發展也帶來了一些實質性的挑戰,尤其是在安全和道德領域。這些挑戰包括:自主武器擴散風險的蔓延;戰場上的潛在競爭;人工智能驅動的沖突升級動態;以及無數其他挑戰。要應對這些挑戰,就必須開展大量國際合作,并作出全球承諾,制定人工智能倫理準則和監管框架。

結論

生成式人工智能即將徹底改變國防工業,開啟全新的能力和效率世界。但是,我們利用這一強大技術的能力將承擔沉重的責任,并將成為全球安全計算中的一個重要考慮因素。

參考來源://www.linkedin.com/pulse/generative-ai-shaping-present-future-defense-lbcrf

付費5元查看完整內容

由人工智能(AI)支持的自主系統已經徹底改變了軍事行動和現代戰爭。無人系統非常適合執行危險和重復性的任務,在增強態勢感知和后勤能力的同時,也降低了對人類人員的風險。然而,它們日益重要的作用也引發了重大的安全問題:無人系統嚴重依賴機器學習(ML),容易受到網絡攻擊,從而危及任務、部隊和關鍵技術。雖然沒有系統是不可破解的,但系統架構對于確保設備盡可能抵御網絡攻擊至關重要,這不僅體現在初始部署,還體現在其產品生命周期的若干年內。因此,在整個開發和部署生命周期中都必須采取強有力的保障措施。安全設計原則、加密、訪問控制和安全通信可以強化這些系統,防止未經授權的訪問。

隨著自主系統在海洋、陸地和戰場上越來越普遍,包括軍隊、私營部門、學術界和政府在內的航空航天與國防(A&D)生態系統必須考慮大量因素。

從長矛、大炮到坦克,技術進步早已為軍隊帶來了戰術優勢。如今,人工智能(AI)已成為有望徹底改變戰爭的下一個前沿領域。能否實現這一愿景,取決于是否有能力防止這些 "會思考 "的機器被用來對付我們。

新的矛頭:無人機(UAV)和自主哨兵

無人機(UAV)和機器人哨兵 "狗 "等自主技術正在重新定義戰斗空間。這些設備擅長勘測地形、識別目標、探測威脅并解除威脅,而不會危及軍人的安全。它們的潛力巨大,但也存在漏洞。如果在設計中不采取嚴格的網絡安全措施,這些自主系統最終服務的可能是我們的對手,而不是我們的兵力。

軍用無人機和設備利用尖端的人工智能技術,只需極少的人工引導即可運行。計算機視覺算法使無人機能夠導航和探測目標,而自然語言處理技術則能分析語音和文本數據以提取洞察力。強化學習可優化復雜任務的決策,而深度神經網絡則可識別模式并從海量數據集中進行預測。

然而,增強無人系統的技術也帶來了新的網絡安全風險。人工智能支持的自主平臺在很大程度上依賴于數據和機器學習(ML)算法,這可能會使其面臨數據中毒、模型被盜以及旨在操縱其行為的惡意攻擊。

國防系統面臨的網絡威脅不斷增加

2015 年至 2021 年間,美國國防部(DoD)經歷了 12000 多起針對無人機和無人駕駛飛行器等無人系統的網絡事件--這個數字還會上升。攻擊者通過干擾通信、奪取飛行器控制權、竊取用于訓練人工智能模型的專有技術和敏感數據集等方式危害國家安全。這些最近的例子凸顯了網絡威脅日益增長的態勢。

此外,美國還面臨著來自戰略競爭對手的日益嚴重的網絡威脅,他們正在利用距離直接沖突不遠的灰色地帶,試圖破壞安全利益。這些漏洞的后果可能超出直接的安全風險: 黑客可能會偷取數據來降低人工智能模型的性能,或者竊取知識產權,如專有算法,從而削弱一個國家的競爭優勢。(圖 1)。

圖1 美國及其軍事利益面臨著來自戰略競爭對手的日益嚴重的網絡威脅,這些競爭對手試圖利用尚未發生沖突的灰色地帶破壞國家安全。

然而,預計到 2028 年,全球軍用人工智能市場規模將超過 130 億美元,這反映出越來越多的人開始采用這些非常適合執行危險任務和提高態勢感知能力的系統。在這種快速發展和暴露的環境中,技術進步與網絡安全復原力之間的微妙平衡已成為維護國家利益和保護每個人的當務之急。

用模塊化開放系統架構加強防御

為加強防御,無人系統開發人員應利用模塊化開放系統架構(MOSA)原則。模塊化開放系統架構通過開放標準和接口提供強大而靈活的網絡安全保障。

開發人員還可以將來自不同供應商的傳感器、處理器和功能作為人工智能操作系統的模塊組件進行集成。這種即插即用的方法更便于快速更換易受攻擊的部件,并針對快速發展的威脅定制防御措施。這也是沙箱或分離功能的關鍵策略,這樣任何損壞的應用程序都不會給其他應用程序帶來問題。

利用 MOSA,還可以利用最小特權原則(PoLP)(也稱為最小特權訪問模型)來保護系統架構免受破壞或攻擊。利用PoLP,內存等系統資源可以不可改變地分配給某些功能,開發人員可以確保應用程序只能訪問完成任務所需的最小系統功能集。

利用未來機載能力環境(FACE)和傳感器開放系統架構(SOSA)等通用開放式架構標準,可以安全地集成組件,并在不同平臺和不同技術世代之間實現互換。例如,一個供應商提供的模塊化計算板可以用另一個供應商提供的升級模塊替換,而無需徹底修改整個系統設計。

MOSA 還減少了對供應商的鎖定,從而使長期維護和升級更加經濟實惠。考慮到維持和維護成本通常占國防部系統生命周期成本的 70%,采用組件可互換的模塊化方法有望大大減少為適應新系統而重寫代碼的需要。

開發人員可以創建可重復使用、經認可的軟件和加密 IP 庫,從而簡化并加速新功能的集成,以適應不斷變化的威脅。通過迭代開發和測試,MOSA 等開放式架構方法可以更輕松地持續驗證、確認和認證是否符合安全標準。

從硬件的設計階段到軟件的開發階段,無人系統的每個層面都必須考慮到安全問題。為防止未經授權的訪問,開發人員應采用加密關鍵數據和通信、建立基于角色的訪問控制以及設計具有內置防篡改機制的硬件等策略。主動監控、頻繁打補丁和定期重新訓練 ML 模型將增強其在生命周期內的恢復能力。

軍事人工智能發展與網絡彈性之間的必要平衡

人工智能和自主技術正在改變現代戰爭:無人系統增強了軍事能力,同時降低了人類面臨的風險,并確保網絡安全始終是重中之重。如果不能在這些系統中建立強大的防御系統,我們的對手就可能獲得優勢。

隨著無人系統的普及,A&D 生態系統必須共同努力,應對人工智能帶來的獨特安全挑戰。為此,公共和私營部門應增加對安全人工智能研發的投資。學術機構可以加強網絡安全、ML 和機器人等領域的培訓。

隨著系統變得更加自主,政策制定者還必須使法規現代化,以促進安全性和問責制。采購準則應要求采用模塊化設計和開放式標準,使無人平臺面向未來。通過全企業范圍內的合作和警惕,無人駕駛系統實際上可以以負責任的方式部署,從而贏得信任。

人工智能的前景是廣闊的,但如果不對其力量加以控制,危險也會隨之而來。如果將嚴格的網絡安全保護措施融入系統架構中,人工智能操作系統就能加強國家安全,為作戰人員提供持久優勢,應對不斷變化的威脅。A&D 行業有義務以明智和合乎道德的方式開發和利用這些技術。通過將安全放在首位,行業和政府可以負責任地獲得人工智能的好處,同時保障生命和自由。

付費5元查看完整內容

印度洋-太平洋司令部參謀長表示,該司令部正在開發一種工具,利用人工智能加速 "漫長而艱巨 "的作戰規劃過程

這項名為 "風暴突破者"(Stormbreaker)的工作目前正在開發中,并致力于建立一個人工智能化的聯合作戰規劃工具包,以支持多領域、作戰層面行動方案制定的規劃、兵棋推演、分析和執行

美國陸軍少將、印度洋-太平洋司令部參謀長約書亞-陸克文(Joshua Rudd)在 3 月舉行的美國國防工業協會太平洋作戰科學與技術會議上發言時說,這一舉措將瞄準通常需要 "數小時、數天、數周、數年才能制定完成 "的流程。

他說,按照傳統的軍事決策程序,即使是日常行動也需要三到四個行動方案。

他說:想一想,是否有一種方法可以連續運行這些程序,并對其進行紅隊分析、戰爭博弈、反復模擬,這樣不僅可以產生你可能沒有考慮過的行動方案,還可以完善現有的行動方案。制定行動計劃需要 "很長時間",但更新計劃也是如此。在制定作戰規劃時,"許多事實和假設以及威脅都要追溯到......敵人現代化和提供能力的驚人速度"。

雖然陸克文沒有討論具體細節,但他表示,初步能力已開始交付,其核心是 "一些建模和模擬能力,這些能力利用現有數據--如威脅數據、友軍數據、作戰計劃--然后通過人工智能/機器學習透鏡進行評估,然后生成輸出"。

陸克文說,印度洋-太平洋司令部司令、海軍上將約翰-阿奎里諾將該計劃稱為 "把握主動權",是提供綜合威懾的一種方法。

陸克文說,其他三項計劃--聯合火力網、印太司令部任務網和太平洋多域訓練環境概念--都是相互促進的。

"聯合火力網"是一個作戰管理系統,可滿足對決策優勢的需求,即 "將海量信息提煉成可用[和]可顯示的信息 "的能力。但是,如何將海量數據從最高級別的機密信息到開放源代碼信息......匯集在一起,以了解敵人在做什么,了解友軍在做什么?

他說,要實時查看這些信息并做出決策,"人類很難做到"。"我們認為,人工智能和機器學習能力可以發揮輔助作用,使我們能夠以相關的速度做到這一點"。

如果陷入沖突,以速度和規模移動的能力 "以及對我們構成的真正威脅將是我們在近代史上從未見過的"。

他說:"我認為,我們非常擅長提供和封閉殺傷鏈。針對......單一目標的決策優勢。我們可以將這些知識和經驗應用于此。因此,"聯合火力網 "是我們的方法、設計和努力的方向,我們要將其結合起來,使我們擁有決策優勢,從而能夠關閉殺傷鏈。

陸克文將INDOPACOM任務網絡描述為 "將先前存在的網絡整合在一起的單層玻璃,在這些網絡中,我們歷來都是進行雙邊對話,我們需要能夠進行多邊對話"。

創建這一網絡面臨一些挑戰,例如在信息共享和加強與盟友和合作伙伴的合作方面存在政策和權力障礙。

但這也有技術方面的因素。當務之急是能夠抵御網絡攻擊和滲透。因此,我們正在將其與聯合火力網結合在一起。

最后,"太平洋多域訓練環境概念 "旨在將實戰、虛擬和建設性訓練環境結合在一起

陸克文說:重點是我們可以實時拼接虛擬、實戰和建設性的訓練活動,使我們能夠進行演練,整合盟友和合作伙伴,并反復進行。

他補充說,這一概念與INDOPACOM任務網絡的最終成熟有關,并得到了聯合火力網絡的支持。

"如果你同時實現了所有這些目標,那么你就會看到所有這些努力之間的內在聯系,如果你以我們建議的方式實現所有這些目標,我相信這將產生極其強大的威懾效果。"因此,加速、加速、加速"。

參考來源:NDIA

付費5元查看完整內容

包括機器人、人工智能和無人機在內的軍事技術進步正在改變戰爭。目前,人工智能可用于監視、預測分析和戰斗支援等。然而,由于這項技術在軍事領域的潛在利用和操縱,出現了道德問題。在這種情況下,人工智能的發展可能導致地緣政治緊張局勢和軍備競賽,從而增加不穩定。從這個角度來看,謹慎監管和遵守國際人道法對于負責任的部署至關重要。

引言

眾所周知,軍事技術在歷史上發生了重大變化,創新和進步改變了戰爭的方式。在此背景下,軍事技術繼續快速發展,機器人、人工智能、無人機等領域的不斷發展,塑造了戰爭的未來。

目前,人工智能(AI)有可能在提高士兵的戰斗能力方面發揮重要作用。據報道,自俄羅斯全面對烏行動以來,人工智能已被用于分析不同類型的數據,以加強決策和為目標提供信息,處理敵人的通信、面部識別技術和網絡防御,僅舉幾例。在這種情況下,人工智能在俄烏沖突中產生了一些影響,人工智能驅動的面部識別軟件還可以讓烏克蘭執法機構和記者識別俄羅斯士兵。

然而,重要的是要注意,雖然人工智能有可能徹底改變軍事行動,但它也引發了道德方面的考慮。因此,當今圍繞人工智能的最復雜的全球治理挑戰涉及其在國防和安全方面的應用。

目前,有聲音認為,人工智能在戰爭中的開發和使用應以謹慎監管和遵守國際人道法為指導,以確保負責任和負責任的部署。全球應努力建立強有力的規范,以促進人工智能和自主系統的負責任軍事使用。

人工智能的軍事應用

如今,人工智能正在顛覆軍事領域。據文獻報道,該技術可以通過多種方式部署在軍事行動中。在此上下文中,其中一些用途涉及以下問題:

-監視和偵察:人工智能驅動的無人機和衛星可以提供有關敵人行動的實時情報,使士兵能夠就自己的定位和戰略做出明智的決定。

  • 決策支持:人工智能算法還可以通過分析大量數據、考慮各種因素并生成可操作的見解來幫助指揮官快速做出決策。這可以大大增強態勢感知能力并實現更快的響應時間。

  • 戰斗支援:人工智能驅動的機器和機器人系統可以執行危險任務,例如爆炸物處理(EOD),從而降低人的生命風險。此外,這些系統還可以支持風險活動,例如在戰場上營救受傷的士兵。

  • 預測分析:人工智能可以分析大量數據,包括情報報告、監控錄像和社交媒體帖子,以預測潛在威脅并識別模式。這可以幫助軍事戰略家做出明智的決策并為各種情況做好準備。

  • 自主武器系統:人工智能可用于開發自主武器平臺,無需人工干預即可識別和打擊目標。這些系統可以大大提高軍事行動的有效性和效率。

  • 虛擬訓練和模擬:人工智能可用于創建逼真的虛擬訓練環境和模擬,以提高士兵的技能和戰備狀態。通過模擬各種戰場場景,士兵可以針對不同情況進行訓練,提高他們在壓力下的戰術能力和決策能力。

  • 后勤和供應鏈管理:人工智能驅動的后勤系統可以優化部隊、設備和物資的流動,確保高效部署并最大限度地減少停機時間。

  • 網絡安全和反情報:人工智能算法可以實時檢測和響應網絡威脅,增強軍事網絡和系統的網絡安全。此外,基于人工智能的反間諜方法還可以通過分析大量數據和檢測異常來幫助識別潛在的漏洞和滲透。

人工智能在軍事領域的影響

目前,在軍事領域使用人工智能有幾個后果。眾所周知,人工智能在戰爭中的影響是復雜的,需要持續的對話和國際合作,以確保負責任和負責任的使用。在這種情況下,其中一些后果如下:

  • 提高效率和準確性:人工智能可用于自動化各種軍事任務,從而提高決策、瞄準、戰略規劃和增強戰場能力的效率和準確性。這可能導致更快、更有效的軍事反應。

  • 倫理考慮:在戰爭中使用人工智能引發了倫理問題。配備人工智能的自主武器系統可能會在沒有人為控制的情況下執行行動。誰應對人工智能武器的行動負責的問題變得復雜,引發了關于問責制和潛在侵犯人權行為的辯論。

  • 不對稱性增加:先進的人工智能技術可能會擴大擁有人工智能能力的國家與無法獲得人工智能能力的國家之間的鴻溝。這可能導致力量失衡,可能加劇地緣政治緊張局勢和沖突。

  • 軍備競賽升級:人工智能在戰爭中的發展和部署可能導致各國軍備競賽加劇。每個國家都可能努力超越彼此的人工智能能力,這可能導致更高的沖突和不穩定風險。

  • 易受利用:用于戰爭的人工智能系統可能容易受到對手的利用、黑客攻擊或操縱。這可能會對國家安全構成風險,并導致不可預測的后果。

  • 潛在的意外后果:人工智能系統可以根據算法和模式做出決策,而這些算法和模式可能并不總是考慮倫理或道德影響。人工智能驅動的軍事行動可能導致意外的平民傷亡或附帶損害。

結論

隨著時間的推移,軍事技術有了顯著的發展,提高了軍事行動的有效性和效率,提高了士兵的戰斗能力。通過這種方式,機器人技術、人工智能和無人機的進步正在塑造戰爭的未來。目前,人工智能可以通過多種方式部署,包括監視和偵察、預測分析、自主武器系統、決策支持、戰斗支持、虛擬訓練和模擬、供應鏈管理、網絡安全和反情報等。

然而,由于自主武器系統可能在沒有人為控制的情況下執行行動,因此出現了倫理問題。擁有人工智能能力的國家之間日益不對稱可能導致地緣政治緊張局勢和沖突。此外,人工智能在戰爭中的發展和部署也可能導致軍備競賽,增加沖突和不穩定的風險。此外,人工智能系統可能容易受到利用、黑客攻擊或操縱,并且可能并不總是考慮倫理或道德影響,從而可能造成意外的平民傷亡或附帶損害。

從這個角度來看,謹慎監管和遵守國際人道法對于負責任和負責任地部署這項技術至關重要。

參考來源:The Future of Technology

付費5元查看完整內容

航空航天和國防領域正在經歷一場變革,其主要驅動力是將人工智能(AI)和機器學習(ML)技術集成到為軍事設計的傳感器、武器和信息系統中。在精確度、快速決策和穩健性至關重要的環境中,人工智能/機器學習已成為一項關鍵技術,可加快對態勢的理解和決策,提高作戰效率。這些技術使軍事行動更有可能克服 "戰爭迷霧",人工智能/機器學習基于無休止和持續的信號收集,而不是人眼可見的跡象,使感官和態勢理解更加敏銳。這些部門的獨特要求,如多域作戰、極端條件下的應變能力、高風險決策、互操作性和先進的安全措施,為人工智能發揮重大影響創造了條件。

市場驅動力和獨特需求

航空航天和國防領域轉向人工智能有幾個關鍵因素:

1.快速準確的決策:軍事行動在時間和空間上都具有決定性意義。人工智能系統快速處理和分析海量數據的能力對于實時做出戰略和行動決策至關重要。挖掘來自不同來源和領域的信息并快速融合這些數據,可為決策者提供可在短周期內實施的行動情報,從而在分配的時間和空間內產生預期效果。

2.彈性和可靠性: 人工智能應用程序必須在各種具有挑戰性的環境中始終如一地運行;其建議和響應必須可信、可靠,并且不會出現商業大型語言模型(LLM)所遇到的 "幻覺"。信心和信任是軍事人工智能系統中最重要的因素,能讓用戶利用這些系統發揮最大價值。安全和信心不應是設計功能,而應是軍事人工智能系統基線基礎設施的一部分。此外,還應考慮物理安全和安保問題,采用分布式系統、邊緣處理以及強大而有彈性的網絡,使人工智能隨時隨地為作戰部隊提供支持。

3.道德和受控的自動化:無論是否有制衡機制來實現人類的信任,軍事系統的高風險都要求人工智能系統納入并遵守道德標準,并允許人類在不減慢整個流程的情況下進行監督。盡管 "道德標準 "是一個不固定的術語,取決于設計者和用戶的法律、文化、宗教和社會背景,但它為人工智能操作定義了 "游戲場地 "和邊界,就像戰爭法定義了作戰人員在戰時能做什么或不能做什么一樣。

4.先進的安全措施:鑒于國防行動的敏感性,人工智能系統必須具備無與倫比的網絡安全能力,消除系統訓練和操作過程中的不利和惡意行為。人工智能系統依賴于網絡、信息、數據饋送以及通過訓練嵌入的算法。在設計或訓練過程中篡改這些基礎,或在系統運行階段對其進行惡意操作,都可能會給用戶和依賴系統帶來巨大風險和意想不到的后果。因此,從早期設計階段就應考慮安全措施,包括風險檢測、規避和應對。

領先企業及其影響

研究了數十家公司的產品,觀看了演示,并在展覽和會議上聽取了官員的介紹。通過研究,掃描了市場上專為軍事行動設計或能夠支持軍事用途的人工智能系統。使用現有最好的人工智能工具進行研究,但即使這樣也需要大量的人工分析才能提供符合標準的可用信息。在第一部分中,挑選了五個在軍事行動中表現出色的人工智能系統。

洛克希德-馬丁公司

為何選擇:作為行業領導者,洛克希德-馬丁公司是將人工智能廣泛應用于國防領域的典范。他們的 AI Factory 計劃展示了他們在該領域推進 AI/ML 技術的承諾。它提供了一個安全的端到端模塊化生態系統,用于訓練、部署和維持可信賴的人工智能解決方案。其功能側重于從開發到部署和維護的自動化,應用 MLOps 解決方案(機器學習運營)來驗證、解釋、保護和監控所有機器學習生命周期階段,并創建可跨項目重復使用的參考架構和組件。

影響:從作戰飛機到太空探索,洛克希德-馬丁公司通過其人工智能驅動的解決方案影響著全球國防戰略,樹立了行業標準并為未來的技術進步鋪平了道路。

Palantir科技公司

為何選擇: Palantir 在大數據分析領域舉足輕重,為情報收集和作戰計劃提供人工智能平臺。他們的 AIP 平臺為綜合解決方案奠定了基礎,通過向決策者提供相關信息、利用可用傳感器增強信息以及根據對信息、紅軍和藍軍戰術、技術和程序(TTP)的理解向決策者提供相關的、可操作的響應,從而增強軍事組織的能力并使其同步化。

影響: Palantir AIP 將大型語言模型和尖端人工智能的力量結合起來,激活數據和模型,以安全、合法和合乎道德的方式從最高度敏感的環境中獲取信息。他們的系統利用信息源的可追溯性和可信推理,在復雜的國防環境中實現數據驅動決策,說明人工智能在作戰計劃和情報行動中的重要性與日俱增。

安杜里爾工業公司

為何選擇:Anduril Industries 站在將人工智能整合到自主系統和監控技術的前沿,改變傳統的防御戰略,采用可信賴的有人無人操作能力。

影響:他們的任務自主方法是從邊境安全和態勢感知發展而來的。他們的 Lattice AI 操作系統重新定義了防御方法,引入了分布式任務自主,采用由小型人類團隊操作的眾多無人系統。核心軟件提供傳感器融合、目標識別和跟蹤、智能網絡、指揮和控制。與其他解決方案不同的是,Anduril 的方法是通過添加可操作的使能因素,將其人工智能的覆蓋范圍擴展到 Lattice 核心之外--在安全領域,這些使能因素包括 Sentry 傳感器、Anvil 和 Roadrunner 反制措施。在進攻性打擊任務中,例如在美國陸軍的 "空中發射效應 "中,該系統通過Altius長續航時間傳感器、Fury Attritable飛機和Altius 700M效應器,將Anduril的移動自主概念發揮到極致。作為一個集成解決方案,它通過擴展覆蓋范圍、能力和態勢感知,使人類能夠使用自主系統,同時使作戰人員能夠更快地做出更好的決策。

C3.ai公司

為何選擇:C3.ai 的突出之處在于其將各種人工智能工具整合到 AI-Readiness 中的戰略,這是一個安全、統一的平臺,具有可信任、彈性和可互操作的可擴展系統,可在整個生命周期內連接和管理復雜且不同的資產。

影響: 通過提高決策和運營效率,C3.ai 的解決方案優化了資源管理和維護計劃,證明了人工智能在提高國防資產的可用性和使用壽命方面的作用,同時還能保持高安全標準。為支持引入人工智能驅動的解決方案,該公司提供了一個人工智能開發工作室,將技術評估加速到數天,并在數周或數月內完成應用開發和部署,而不是數年。

赫爾辛公司

為何選擇:赫爾辛公司代表了新一輪專注于專業人工智能應用的國防初創企業,他們得到歐洲主要國防企業的支持,凸顯了赫爾辛公司在人工智能國防市場的潛力和影響力。

影響:赫爾辛公司在情報分析和決策支持方面的人工智能解決方案利用先進的目標識別和人工智能賦能的電子戰技術,與其他合作伙伴的解決方案一起,必將成為雄心勃勃的未來空戰系統(FCAS)這一任務系統的人工智能支柱的一部分。赫爾辛公司專為現代戰爭量身定制,將為未來提供獨一無二的人工智能國防和航空應用。自 2022 年以來,赫爾辛公司一直活躍在烏克蘭,為前線作戰提供能力和技術。

結論

正如這些領先公司所展示的那樣,航空航天和國防領域正在走向以人工智能為中心的未來。市場格局多種多樣,發展迅速。每家公司都以獨特的方式塑造人工智能的市場、技術和未來,凸顯了人工智能對全球國防和航空航天戰略的變革性影響。這一趨勢增強了當前的能力,為軍事和太空行動開辟了新的可能性,標志著國防技術進入了一個新時代。

參考來源:DEFENSE UPDATE

付費5元查看完整內容

盡管人工智能作為宣傳工具的使用一直備受關注,但烏克蘭和以色列的熱點沖突正被證明是加速人工智能和其他信息技術工具在戰場上使用的活實驗室。特別是在烏克蘭,有報道稱,人工智能甚至被用于自主瞄準打擊目標。以色列國防軍(IDF)對人工智能的使用則更為隱秘,但它肯定被用作瞄準輔助工具,以擊敗來自加沙哈馬斯的鋪天蓋地的導彈攻擊。

烏克蘭在拒絕了其他 10 個國家的人工智能項目后,開發出了自己的人工智能,因為烏克蘭確信本國開發的人工智能會更有益處,而且可以規避向商業公司報告的任何要求。烏克蘭的人工智能主要集中在龐大的攝像頭和無人機網絡提供的計算機視覺數據上。例如,名稱和目標字符識別(OCR)可以快速識別伊朗制造的 "沙赫德 "神風無人機,而不是標準導彈。 人工智能還有助于烏克蘭自己的導彈瞄準。這些人工智能工作大多由烏克蘭的 IT 陸軍完成,據說他們有 25 萬人,其中許多人在創新的 "蝸牛車庫 "里工作,而他們的預算只有西方 IT 公司的一小部分。人工智能還被用于分析俄羅斯的無線電通信和清除地雷。與此同時,俄羅斯在軍事領域的人工智能應用似乎陷入了雄心壯志與實際用途之間的脫節,尤其是自主無人機,據說供不應求。

一些通訊社報道稱,無人化嚴重的烏克蘭已經更進一步,允許配備人工智能的無人機在某些情況下不受人類控制地識別和攻擊目標,從而引發了戰場上 "機器人殺手 "的幽靈。美國軍方已經啟動了一項為期兩年的 "復制者 "計劃,準備投入數千套價格相對低廉的自主系統,主要是為了應對大國在海軍艦艇等領域的數量優勢。澳大利亞一家名為 "Anduril "的公司(以《指環王》傳奇中的一把劍命名)正在向烏克蘭提供可發射彈藥、由人工智能驅動的 "幽靈鯊 "海上無人機。

雖然烏克蘭似乎正在使用自主人工智能來攻擊坦克等大型物體,但它幾乎可以指名道姓地攻擊單個士兵。據《時代》雜志報道,備受爭議的 Clearview 公司免費提供的面部識別系統已經識別出 23 萬多名參與烏克蘭戰爭的俄羅斯士兵和官員。Clearview 系統被用于偵測滲透者、識別親俄民兵和合作者,甚至烏克蘭稱被越過俄羅斯邊境綁架的兒童。Clearview 技術標志著 "戰斗識別系統 "的首次使用,該系統有可能被用于鎖定敵方關鍵人員。例如,一架攜帶彈藥的人工智能無人機可以在原地徘徊,直到發現一名反對派將軍。

與此同時,在立志成為 "人工智能超級大國 "的以色列,人工智能技術正在協助對加沙的哈馬斯目標進行快速定位空襲--該系統被稱為 "火力工廠",但其針對軍事目標的準確性目前尚不得而知。人工智能還幫助抵御來襲的導彈襲擊,這些導彈試圖以數量優勢壓倒以色列引以為傲的 "鐵穹 "導彈防御系統。以色列國防軍(IDF)越來越多地使用人工智能,并將其應用于移動平臺,如新型 "巴拉克 "超級坦克。巴拉克 "坦克的一個主要特點是配備了 "鐵視角 "頭盔,通過一系列外部傳感器和攝像頭,坦克乘員只需按下按鈕,就能 "看穿車輛的裝甲"。

主要得益于人工智能,坦克能夠在戰場上獨立學習、適應、導航和瞄準。以色列國防軍表示,一對 "巴拉克 "坦克將能夠執行以前需要一個坦克排才能完成的任務。

大多數分析家都認為,烏克蘭和以色列正被證明是在戰斗中加速使用人工智能的前所未有的試驗基地,而這一發展在和平時期通常需要更長的時間。現在,人工智能系統正在接受來自真實戰爭的真實數據的訓練,這意味著人工智能將在下一場武裝沖突中發揮更大的作用和效力,而下一場武裝沖突很可能包括人工智能自主作戰。

參考來源:techstrong.ai

付費5元查看完整內容

無人機戰爭的下一階段已經到來。2023年9月6日,美國國防部副部長凱瑟琳-希克斯(Kathleen Hicks)吹噓五角大樓的 "復制者"(Replicator)計劃正在加速推進--該計劃旨在大幅擴大美國在戰場上使用人工智能的規模。她理所當然地稱這是國家安全領域 "改變游戲規則的轉變"。根據 "復制者 "計劃,美國軍方的目標是在未來18到24個月內在多個領域部署數千套自主武器系統。

然而,"復制者 "只是冰山一角。人工智能的飛速發展正在催生新一代致命自主武器系統(LAWS),它們可以在沒有人類干預的情況下識別、跟蹤和攻擊目標。具有自主能力的無人機和人工智能賦能的彈藥已經在戰場上使用,尤其是在俄烏戰爭中。從根據特定特征選擇目標的 "殺手算法 "到自主無人機群,戰爭的未來看起來越來越具有啟示性。

在 "戰爭機器人 "陸軍的陰影中,人們很容易忽略正在進行的人工智能革命。五角大樓稱之為 "以人為本 "或 "負責任的人工智能",旨在讓人類 "參與 "決策,以確保人工智能的使用 "合法、合乎道德、負責任和可問責"。但是,即使有人類的監督和對法律的嚴格遵守,人工智能的使用方式從根本上違反國際人道法(IHL)和國際人權法(IHRL)的風險也越來越大。

最直接的威脅不是 "人工智能啟示錄"--機器接管世界--而是人類利用人工智能建立新的暴力和相互支配的模式。

無人機戰爭2.0

俄烏戰爭被稱為 "第一場全面的無人機戰爭",標志著各國在日益網絡化的戰場上測試和部署致命性自主武器系統的拐點。據報道,自主無人機曾在利比亞和加沙使用過,而烏克蘭戰爭則標志著這種技術加速融入常規軍事行動,并可能帶來不可預測的災難性結果。交戰方由于缺乏技術能力或意愿,可能會在沒有最高級別保障措施的情況下部署無人機,因此這些風險更加明顯。

烏克蘭戰爭的教訓包括,價格相對低廉的無人機可以使對手喪失空中優勢,并在同級和近似同級沖突中以及在對付非國家行為體時提供決定性的軍事優勢。

美國和其他國家正在認真對待這些經驗教訓。規模和速度顯然將主導未來的無人機戰爭,因為美國正通過 "復制者 "計劃和其他舉措,努力發展部署大量廉價、可重復使用無人機的能力,以應對大國等對手的風險。針對非國家行為者的離散無人機打擊將越來越多地被人工智能賦能的無人機群所取代,這些無人機群可以相互通信并協同工作(以及與人類合作)摧毀關鍵基礎設施和其他目標。

與過去的無人機戰爭相比,這種新興技術給平民帶來的風險更大。與由人類操作員審查和控制的傳統無人機戰爭不同,新的無人機戰爭將更加自動化。從目標的選擇和識別到監視和攻擊,人機協作將滲透到目標定位周期的幾乎每一個階段。最大的轉變將是最不顯眼的,因為專有算法將篩選大量情報數據和無人機信息,編制目標清單供人類批準。

雖然人類可能會繼續簽字同意使用致命兵力,但人工智能將在決定誰生誰死、誰存誰亡的基本選擇方面發揮更普遍的作用。

隨著人工智能減少人類對殺戮的參與,無人機戰爭的可解釋性和透明度很可能會比現在更低。這不僅對公眾是如此--他們已經被蒙在鼓里--對負責實施和監督無人機項目的政府官員也是如此。

可解釋性問題,即人類無法完全理解或解釋人工智能產生的結果,是人工智能的一個更廣泛的問題,并不局限于無人機襲擊。依賴于人工智能的計算系統往往是不透明的,因為它們涉及專有信息,在學習新數據的過程中不斷演化,而且過于復雜,任何單一行為者都無法理解。

但在無人機戰爭中,可解釋性問題尤為突出。

在美國龐大的機構間進程中,軍事和情報機構依靠不同的信息流、技術和官僚程序來支持無人機項目。這些機構正在開發自己的人工智能工具,這些工具是高度機密的,并且基于不與關鍵決策者或公眾共享的算法和假設。再加上人工智能系統產生的結果無法被完全理解,政府官員將無法解釋為什么某個人被誤殺。

可解釋性的問題將導致未來的無人機戰爭缺乏責任感--而這種責任感已經非常缺乏了。當平民在人工智能賦能的無人機打擊中被誤殺時,五角大樓官員也將能夠把這些 "悲劇性錯誤 "歸咎于機器。無人機群的情況尤其如此,來自不同制造商的無人機可能無法正常通信,盡管五角大樓在這項技術上花費了數百萬美元。隨著無人機開始相互對話以及與人類對話,人類決定殺人與機器執行致命行動之間的責任和合法性差距可能會越來越大。

注意差距

這些挑戰是眾所周知的,五角大樓長期以來一直鼓吹 "負責任的人工智能 "政策,旨在通過迷宮般的法律法規來應對這些挑戰。這在紙面上聽起來不錯,但在對平民傷害的嚴重擔憂浮出水面之前,傳統的無人機項目也曾被宣傳為 "合法、合乎道德、明智"。如果過去的無人機戰爭能說明什么,那么真正負責任的人工智能無人機戰爭同樣可能難以實現,尤其是在管理人工智能使用的各種法律、倫理和政策框架出現保護空白的地方。

為此,一些國家和紅十字國際委員會(ICRC)提議禁止那些缺乏有意義的人為控制、過于復雜而難以理解或解釋的武器系統。在今年 7 月舉行的聯合國安理會關于人工智能的首次會議上,聯合國秘書長安東尼奧-古特雷斯建議各國在三年內通過一項 "具有法律約束力的文書,禁止在沒有人類控制或監督的情況下使用致命的自主武器系統,因為這種系統的使用不符合國際人道法"。

但是,即使各國原則上同意這樣的禁令,重大問題依然存在。必須對自主武器系統施加什么樣的法律限制才能確保其符合國際人道法?需要何種類型和程度的人為控制才能確保未來的無人機襲擊符合國際人道法的必要性、相稱性和區別對待以及預防原則?遵守國際人道主義法就足夠了,還是需要一項新條約?雖然許多國家呼吁制定這樣一項條約,但美國、俄羅斯和印度堅持認為,LAWS 應受現有國際人道主義法的管制。

隨著新的無人機戰爭變得越來越普遍,據說適用于戰爭的特殊規則--尤其是國際人道法所提供的較低水平的保護--有可能成為默認制度。從長遠來看,這種情況的實際影響是,禁止使用兵力的規定繼續受到侵蝕,對國際法的解釋越來越放任。這些事態發展的全部代價和后果仍在顯現,但現在開創的先例很可能會以有害且不可逆轉的方式損害個人權利。

為應對這一趨勢,各國至少應重申國際人權法在武裝沖突內外的適用性。戰爭的個人化和自動化促使人們轉向《國際人權法》所載的原則,如在某些條件下對必要性標準進行更嚴格的解釋,以及只有在旁觀者不太可能受到傷害的情況下才使用兵力的類似規定。然而,盡管國際人權法提供了國際人道主義法之外的額外保護,但國際人道主義法與國際人權法之間的確切互動關系卻存在爭議,而且因國家實踐而異。從根本上說,這些法律制度并不是為了規范非傳統沖突和使用致命兵力的非傳統手段而設計的,在即將到來的無人機戰爭中,法律保護方面的差距可能會越來越大。

這些空白促使紅十字國際委員會強調,"有必要根據人道倫理考慮澄清和加強法律保護"。在現有條約未涵蓋的情況下,《日內瓦公約第一附加議定書》第 1(2)條和《日內瓦公約第二附加議定書》序言(通常被稱為 "馬頓斯條款")規定,個人應受到習慣國際人道法以及 "人道原則和公眾良知的要求 "的保護。

但道德方面的考慮可能與法律有很大出入。道德與法律之間的關系是一個長期的學術爭論,不在本文討論范圍之內。簡而言之,法律的目的不同于道德,因為它必須考慮到公約對行為的影響、現實世界中認識論的不確定性程度以及國際體系中的無政府狀態。在這種情況下,用亨利-舒(Henry Shue)的話來說,道德上最優的法律可能只是那些 "能夠讓憤怒而恐懼的凡人在道德判斷上產生相對較少的錯誤--相對較少的錯誤--揮舞著威力巨大的武器 "的法律。

然而,人工智能不可預測和復雜的性質,使得事先辨別正確行動方針的工作變得更加復雜。即使人類遵循了所有的法律和政策準則,人類決策與機器行動之間的差距也意味著結果可能并不道德。遠非如此。

道德的東西未必合法或明智,反之亦然。

與此同時,政策指導并不能取代法律所提供的保護。例如,新制定的《美國總統政策備忘錄》(PPM)本應在戰爭法規定的直接行動(即無人機襲擊和特種作戰突襲)之外提供更多保護。但該政策指南不具有法律約束力,可以隨時秘密中止,包含大量集體和單位自衛的豁免條款,而且僅適用于美國無人機在 "現行敵對行動地區"(尤其是伊拉克和敘利亞)之外的一小部分打擊行動。

此外,該政策指南是針對常規無人機襲擊而制定的。當世界站在人工智能驅動的無人機戰爭新階段的懸崖邊時,是時候重新思考規則了。

懸崖勒馬

關于監管致命的自主武器系統,包括人工智能賦能的無人機,已經有很多建議。但是,如果過去的無人機戰爭能夠說明問題,那么這些法規很可能仍然不夠完善。人的監督以及對現有法律和標準的遵守至關重要,但還不夠。

為了在未來的無人機戰爭中更全面地保護平民,美國決策者應緊急采取以下措施:

1、制定美國政府范圍內關于在無人機戰爭中使用人工智能的政策。雖然國防部已經發布了許多關于人工智能和自主武器系統的指導方針,但這些指令并不一定適用于其他機構,比如美國情報界。鑒于這些其他機構可能在日常識別、審查和攻擊目標方面發揮關鍵作用,這種疏忽令人深感憂慮。

2、遵循 "兩人規則"。冷戰期間,兩人規則要求在維修、移動或使用核武器或核材料時,必須有兩名或兩名以上獲得授權的人員在場。這一規則旨在防止可能對人類生命構成重大危險的核事故或誤用。人工智能賦能的武器也有可能造成類似的災難性結果,因此所有無人機操作都應遵循同樣的規則。

3、縮小責任差距。無人機戰爭中不斷提高的自主性將使打擊更加不可預測,從而導致無法歸咎于任何特定個人的錯誤。為了降低這種風險,從人類批準對目標采取致命行動到無人機采取行動之間的時間間隔應盡量縮短到幾秒或幾分鐘,而不是幾天或幾個月。在任何情況下,都不應允許無人機獨立瞄準預先批準(人類批準)的 "殺戮名單 "上的個人。

4、開展并公布例行的人工智能健康審計。為了減少可解釋性問題,人類必須檢查人工智能,人工智能也必須檢查自己。"檢查人工智能 "可以成為道德審計的有力工具,幫助人類測試人工智能系統,找出算法中的缺陷或潛在偏見。人工智能健康檢查必須定期進行,檢查結果應向國會議員(如八國集團)通報,并向公眾提供經過編輯的版本。

潘多拉的盒子已經打開,但決策者仍可為無人機戰爭中的人工智能革命設置必要的防護欄。用馬丁-路德-金的話說,美國 "面臨著刻不容緩的緊迫性","有一種事情就是為時已晚"。

付費5元查看完整內容

美國陸軍作戰能力發展司令部陸軍研究實驗室正在研究行為,建立數據集,并開發異常分類和解釋的技術,其中自主智能體生成自然語言描述和對可能包含異常屬性的環境的解釋。這項技術將支持在不確定條件下的決策,以及士兵和機器人隊友在網絡限制的情況下,在未知或危險的環境中完成探索性的導航任務(例如,自然災害后的搜索和救援)的彈性自主機動。在本報告中詳細介紹了貢獻:借鑒視覺異常檢測的相關工作,設計了一個異常分類法;設計了兩個在虛擬環境中進行的實驗,這些環境被操縱以顯示基于分類法的異常屬性;為異常檢測和解釋任務收集了一個小型人類語音和人類-機器人對話的語料庫;最后,設計了一個新的注釋模式,并將其應用于語料庫的一個子集。

圖1. 帶有實例樣本的類的異常分類法。矩形框包含了類的類型(例如,實體的 "顏色"),橢圓是類屬性的實例或例子(例如,"粉色小貓")。

引言

美國陸軍作戰能力發展司令部(DEVCOM)陸軍研究實驗室(ARL),正在研究行為,建立數據集,并開發異常分類和解釋的技術,其中自主代理生成自然語言描述和對可能包含異常屬性的環境的解釋。這項技術將支持在不確定條件下的決策,以及士兵和機器人隊友在網絡受限的情況下,在未知或危險的環境中完成探索性的導航任務(例如,自然災害后的搜索和救援)的有彈性的自主操作。自動生成的自然語言解釋將促進在篩選大量低質量或重復的視覺數據時遇到的信息過載問題,迅速引起對非典型情況的注意。

將異常情況檢測的任務放在士兵由于可能對他們有危險的條件而無法穿越環境的場景中。此外,由于可用帶寬的限制和約束,接收環境的圖像或實時流可能是不可行的。因此,機器人隊友的作用就變成了在空間中導航,并通過簡潔和信息豐富的自然語言陳述或文本報告向士兵傳達信息。這種設想中的異常情況檢測技術的成功部署必須能夠:

  • 識別環境中與預期相矛盾的方面;
  • 詳細說明為什么這種方面是矛盾的,并提供預期狀態;
  • 推斷出至少一種可能導致偏差的合理可能性;以及
  • 推斷出至少一種合理的可能性,即由于偏差而可能發生的情況。

由ARL主持并通過國家安全創新網絡X-Force獎學金招募的兩名實習生組成的團隊花了10周時間探索這個問題的空間。在本報告中詳細介紹了貢獻:借鑒視覺異常檢測的相關工作,設計了一個異常分類法(第2和第3節);設計了兩個在虛擬環境中進行的實驗,根據分類法,這些實驗被操縱以表現出異常屬性(第4節);為異常檢測和解釋任務收集了一個人類語音和人類-機器人對話的小型語料庫(第5節);最后,設計了一個新的注釋模式,并將其應用于我們語料庫的一個子集(第6節)。

付費5元查看完整內容

2020年初,美國海軍發布《人工智能技術安全性》。該報告重點關注對此項技術帶來的安全性問題。美國海軍乃至整個國防部系統,都在嚴肅認真地對待軍事人工智能的發展。2019 年的 2、6、9 月,美國先后公布《國防部人工智能戰略》、《國家人工智能戰略》《空軍人工智能戰略》三大戰略,表明其在國家、軍隊、軍種三個層面的“智能化戰略”全面啟動。可看出美國人工智能在軍事領域的發展態勢日趨激烈

一、推出多項政令戰略規劃,聚力發展人工智能

人工智能作為驅動第四次工業革命的重要引擎,深刻影響著經濟產業和各技術學科的發展,為此美國以國家戰略地位提升對人工智能在社會發展各領域( 特別是國防領域) 的動能,以推動人工智能技術的研發。2019年10月,世界經濟論壇發布制定國家人工智能戰略的框架白皮書,創建了最低限度可行的人工智能國家戰略制定框架,指出國家人工智能戰略的制定應考量具有戰略意義的優先事項人口需求資源限制和地緣政治等因素,旨在指導尚未或正在制定人工智能國家戰略的政府。美國多措并舉,繼續把發展人工智能技術作為提升國力維護國家安全的重大戰略,從國家戰略層面強化人工智能技術布局。2019年2月,美國政府科技政策辦公室發布由美國總統特朗普簽發的《維持美國在人工智能領域的領導地位》行政令,提出了美國發展人工智能的政策和原則戰略目標和重點領域,啟動旨在推進美國在人工智能領域領導地位的美國人工智能倡議,指示聯邦政府整合資源,聚力發展人工智能。

同年2月,美國國防部公布《2018年國防部人工智能戰略》的摘要部分( 題為《利用人工智能促進安全與繁榮》) 。該戰略是美國國防部首個人工智能戰略,旨在落實美國政府《國家安全戰略》和《國防戰略》提出的人工智能重要事項,為美國國防部謀求軍事人工智能優勢發展軍事人工智能實戰化能力提供戰略指導。2019年7月,美國空軍推出數字空軍計劃,旨在改進其在數據管理信息技術架構和業務運營方面的不足,使美國空軍保持競爭力。2019年9月,美國能源部成立人工智能與技術辦公室,旨在為美國人工智能研究人員提供聯邦數據模型和高性能計算資源。2019年9月,美國空軍以美國《國防部人工智能戰略》附錄形式發布《2019空軍人工智能戰略》,詳細闡釋在數字時代如何有效管理引導和引領所必須的基本原則職能和目標。2020年初,美國海軍分析中心發布專題報告《人工智能技術安全性———對海軍的行動方案建議》。該報告從當前美國海軍推動軍事領域人工智能技術運用過程中引發的公眾關注進行介紹入手,提出了海軍乃至整個國防部系統在軍事領域接收采用新興技術手段的總體態度與思路。

二、多家軍事機構開展研發項目,探索人工智能技術的軍用新場景

作為軍事大國,美國對于人工智能軍事作戰賦能的目標非常清晰,強力推動美國頂尖人工智能研究走向新的技術突破,促進科學新成果的發現、增強經濟競爭力、鞏固國家安全。2019年3月,美國參議院軍事委員會舉行主題為國防部人工智能計劃的聽證會,美國國防預先研究計劃局 DARPA、國防創新小組( DIU) 、國防部聯合人工智能中心( JAIC)等機構主管分別發言,闡述所在部門的人工智能項目及運行機制等情況,鞏固并強化了人工智能技術及應用與軍方之間的聯系,保障美國的人工智能軍用化步伐進一步加快。以DARPA為例,DARPA正將投資和研發重點轉向第三代人工智能技術,用于創建能在特定語境下進行推理的機器。資助的主要項目包括終身學習機器( L2M,2017年啟動),可解釋人工智能( XAI,2018年啟動)和機器常識( MCS,2018年啟動)等,探索提高人工智能技術水平的方法,實現語境推理能力。DARPA認為,將這些技術集成到與軍事作戰人員合作的軍事系統中,將有助于在對空間敏感的復雜戰場環境中做出及時決策,了解不完整或者相互矛盾的海量信息,并使用無人系統安全自主地執行關鍵任務。2019年1月,DARPA啟動知識導向型人工智能推理模式( KAIROS)項目,旨在提升面向復雜戰場環境挖掘和理解海量信息中的復雜事件及其相互關系的能力。2019年1月,美國陸軍研究實驗室( ARL)啟動異構戰術環境中的分布處理( DPHTE)計劃,基于霧計算平臺在對抗性軍事環境中為作戰人員提供更多的態勢感知。2019年2月,美國空軍研究實驗室發布多域戰和目標定位支持信息分析項目,旨在開發基于算法戰和人工智能等技術,針對時敏有價值的敵對移動目標進行快速預判和打擊。2019年5月,DARPA啟動旨在將人工智能應用于空戰演變( ACE) 項目,人工智能空戰應用成熟后可替代飛行員完成部分空戰任務。2019年5月,麻省理工學院發布為美國空軍打造人工智能加速器項目,該項目研究領域包括救災和醫療準備、數據管理、維護物流、車輛安全以及網絡還原能力。2019年9月,美國國防部聯合人工智能中心宣布美國軍方網絡安全數據制定新框架,重點為未來人工智能網絡防御體系奠定基礎。2020年初,美國特朗普政府向國會提交2021財年預算申請,加速發展人工智能等技術。提議政府預算從2020財年1560億美元削減至1422億美元,下降138億美元,但預算申請仍強調優先發展“未來產業”,必須加速發展人工智能等技術。其中,500萬美元用于能源部新立“人工智能與技術辦公室”,加強人工智能的項目研發。

三、夯實人工智能實踐應用的道德準繩和安全邊界

隨著人工智能技術的發展,人權倫理、隱私保障、歧視偏見、安全問題等困境日益突出。美國亦在探索中多措并舉,確保人工智能在充分的監督和控制之下發展。特別是在2019年發布的國家級人工智能戰略和2020年初發布人工智能技術安全性報告中,將道德、隱私、安全等問題擺在突出位置,認為應在尊重道德、重視安全的前提下最大限度地發揮其社會效益。

(一)明確戰爭中使用人工智能技術的道德原則和標準

美國推動多項研究,闡明美國合法道德地使用人工智能的愿景和指導原則,引導負責任的人工智能應用和開發。2019年1月,美國國防部要求國防創新委員會制定在戰爭中使用人工智能的道德原則,用以指導軍方在戰爭中使用人工智能技術和武器,并向硅谷科技公司確認其人工智能產品將如何被使用。美國國防部這一舉措被認為旨在形成全球軍用人工智能規范的指導方針,并吸引硅谷科技公司參與防御工作;10月,人工智能原則: 國防部人工智能應用倫理的若干建議推出,被認為是美國對軍事人工智能應用所導致倫理問題的首次回應。2019年1月,美國著名智庫布魯金斯學會發布《自動化和人工智能:機器對人及地區的影響》報告,著重分析了過去近30年間的資助系統與人工智能對行業、就業、地理和人口的影響,并對當前至2030年的趨勢進行了預測。最后針對國家、州和地方的政策制定者提出一個綜合響應框架,為人們理解并規范自動化和人工智能的作用提供參考。

(二)人工智能對軍事領域尚屬新興技術,安全性不容忽視

人類歷史上,充斥著軍隊利用技術取得軍事優勢的實例。比如戰車。戰車,是出現在戰場上的第一種車輛裝備,由民間通用馬車提高速度和機動性改進而來,在軍事運用方面取得了顯著的優勢。戰車被描述為當時的“超級武器”。又比如火藥。火藥源起于一個偶然發現,它的出現,使得軍隊能夠駕馭化學反應能量來提高速度與威力,由此徹底改變了戰爭的形態和樣式。再比如內燃機。這種發動機繼承并發展了蒸汽機的優勢,改變了戰爭活動的速度與范圍。對內燃機的應用方案,包括為后勤物流(補給運輸卡車)提供動力以及為潛艇、飛機與導彈賦予持久的遠程監視及打擊能力。對大多數技術手段的接收和運用,一度都曾起到了改變了戰爭樣式的作用。而其中有幾項,更是徹底顛覆了以往戰爭活動的樣式和范圍,其中便包括火藥與核武器。人工智能技術,亦被認為位居此類。此項技術能夠應用于整個戰爭事業的方方面面,大幅提高了戰爭活動的效能與效率。各類人工智能技術,也因其各自獨有的特性而有所區別。首先應注意到,現實世界中人工智能技術應用方案,是用以解決特定領域問題的狹義人工智能技術,而非具備普遍通用性的通用人工智能技術應用方案。人工智能技術在軍事領域的應用,可以與美國軍隊對核武器的運用方式進行類比:安全方面的關鍵性技術領域知識,必須在很大程度上由軍隊文職機構掌握,在很大程度上亦屬技術范疇。

(三)給予人工智能技術安全性 “恰到好處”的信任

人工智能技術安全性,也與對其信任程度有關。美國軍方運用人工智能技術方面的一個關鍵問題是,軍方人員和美國政府高層領導能否相信這些系統確實有效且不會引發意外問題。2016年國防科學委員會對自主控制技術的研究報告指出:“決定在特定任務中部署運用某系統的個人,必須信任該系統。”在伊拉克和阿富汗的行動表明,負責實施特定行動的指揮官和戰斗/操作人員在不完全了解后果的情況下,不一定會使用某些系統。當某些系統被部署至戰場以滿足緊急需求時(如反簡易爆炸裝置系統或用于提供關鍵性情報的監視系統),一些部隊還是選用了他們已經熟悉的武器系統和情報監視偵察平臺,即便是老系統的功能指標比不上那些已經可以選用的新系統。對人工智能系統的信任度過低是一種危險,會阻止部隊運用他們所需的功能。而另一種危險,則是對某項能力的過度信任。人類傾向于過度信任機器,即便在有證據表明不能夠給予這種程度的信任情況下,也是如此。戰爭活動中的過度信任,也有具體案例。如,2003年,陸軍“愛國者”防空導彈系統曾擊落1架海軍F/A-18飛機,該系統將飛機誤判定為戰術彈道導彈,并向操作人員提出了建議,要求其發射導彈實施攔截。操作人員在沒有獨立核實可用信息的情況下,批準實施了這項建議。這表明,在實際作戰行動中,軍方需要對人工智能給予程度“恰到好處”的信任,不能過熱也不可太冷,避免滑向兩個極端。需要達成的目標,是程度恰當的信任,并且應該讓人來參與決策過程。而這種決策過程,則需要以各種相關能力及對系統功能所具備的經驗與知識為依托。

(四)軍事人工智能安全問題將寫入政策方針

軍方和政府的高層領導,還應通過政策方針層面的決策對相關軍事行動的性質施加影響,包括確定戰爭活動中應該使用哪些特定的技術手段。這些方針政策,可能會對監管程度構成影響。例如,國防部第3000.09號指令,就要求對某些類型的自主控制系統進行高級別審核。明確戰爭活動中允許使用的技術手段(例如,對白磷(彈藥)運用的限制和使用集束彈藥時相關設定要求以及對其它此類武器具體性能參數的限制要求),并且對某些特定類型作戰行動中的策略原則進行限制。例如,《2013版總統政策指導(Presidential Policy Guidance,PPG)》及《2017版總統政策指導》中,對某些反恐行動的批準與監管流程的總體原則框架進行了明確。這些政策方針原則,有助于確保相關軍事活動符合美國的原則、價值觀及利益。這些政策方針層級的決定,都有反映出對此類系統或作戰行動可靠性所應持有的信任程度的意味。值得注意的是,以上這些實例內容都涉及到了安全性原則問題,而《國防部第3000.09號指令》的目的,就在于避免“意外交戰(inadvertent engagements)”事件的出現(例如致使平民傷亡)。限制白磷彈藥和集束彈藥的目的,還在于減少使用這些武器時給平民帶來的危險。《2013版總統政策指導》中,直接將致使平民傷亡明確列為作戰行動批準程序中的否決條件(no-gocriterion)。因此可以預見,安全性問題,勢必將成為未來高層領導人對于將人工智能技術手段運用于戰爭活動方面所明確的相關指導與指令內容中的一部分。

(五)軍方須與業界協助解決安全問題

人工智能技術的巨大進步,也使美國政府產生了對業界新的依賴性。自第二次世界大戰以來,美國政府一直在很大程度上依賴于自身投入的研發資金。然而,人工智能技術方面的研發投資,越來越多地由私營機構所主導。其特征,是過去十年來科技行業的研發支出急劇增加。在圖1中,我們將整個美國政府在網絡和信息技術研發方面的支出與美國排名前五位的高科技公司(亞馬遜、谷歌/阿爾法控股、英特爾、微軟、蘋果)的研發投資進行了對比。如圖1所示,科技行業企業在研發方面的投入明顯更多,而且兩者間的差距正在擴大。2010年,科技行業企業的研發支出,已經是美國政府整體科技研發投資規模的6倍。8年后,企業在這方面的投入規模將激增至美國政府的15倍。總體而言,美國政府在尖端技術方面研究工作的投資面臨著迅速擴大的缺口。這種現狀,為美國政府營造出了一種處于不斷變化中的環境。在這種環境中,與業界的協作,對于美國政府實現其戰略目標必須保持的技術優勢而言至關重要。在這個意義上,人工智能技術安全性應該是業界關注的問題——正如谷歌等公司放棄了對美國政府軍事領域應用方案的支持,并開始運用倫理性審查程序對其內部工作流程進行監測所證明的那樣,美國政府必須與業界協作,依托其幫助解決此類問題。

圖1 美國政府與科技行業企業研發投資差距對比圖

四、美國軍事人工智能面向未來的發展趨向人工智能技術一般可分為弱人工智能、強人工智能、超人工智能 3 個等級,預計強人工智能技術可能在 2050 年前問世。未來美軍智能化建設發展可能經歷三個階段:

2025 年前,美軍重點是搭起智能化軍隊框架,總體水平處于弱人工智能階段。美軍建設主要圍繞構建“全球監視打擊體系”,以升級水下、網電、空天、全球快速打擊和導彈防御作戰系統為重點,突出發展無人化、隱身化、遠程化作戰平臺,提升“全球公域”介入能力,確保可信的“拒止”和“懲罰”威懾。這一階段,美軍無人系統在數量上將逐步超過有人系統,自主無人系統將成為美軍前沿作戰的重要力量,無形、無人、隱形、靈巧等力量將成為美軍事干預的主要手段。2035 年前,美國初步建成智能化作戰體系,總體水平進入強人工智能階段。美軍建設主要通過發展智能化作戰平臺、信息系統和決策支持系統,以及定向能、高超聲速、仿生、基因、納米等新型武器,對主要對手形成新的軍事“代差”。在這一階段,美軍無人系統的投資將超過有人系統,無人系統建設規模及作戰運用皆居于主導地位。2050 年前,美軍智能化作戰體系將更先進、更完善,總體水平達到超強人工智能階段。美軍在強人工智能、通用量子計算、可控核聚變、納米機器人、再生、創生、腦聯網等技術方面可能取得突破。作戰平臺、信息系統、指揮控制可能全面實現智能化、無人化,更多樣的仿生、基因、納米等新型武器走上戰場,作戰空間進一步向生物空間、納米空間、智能空間拓展,人類進入“機器人戰爭時代”。


付費5元查看完整內容
北京阿比特科技有限公司