亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

公眾對全球災難性風險(GCR)的討論中,軍事技術始終占據重要位置,這一點應該并不令人驚訝。1無節制的全球戰爭的前景一直是人們對全面社會災難最古老、也最普遍的設想之一。沖突始終能夠摧毀單個社會;在現代,科技和科學進步逐漸加大了國家軍隊以及可能的其他實體施加災難性暴力的能力。

擁有這種能力的技術有很多,人工智能(AI)在近年來變得更加引人注目。越來越多來自不同領域的專家開始關注AI技術在戰爭中的應用,考慮這些技術如何帶來風險,甚至新的GCR。盡管軍事AI的技術發展和對其影響的研究仍處于初級階段,但在過去的十年中,兩者都取得了顯著進展。最引人注目的是,致命自主武器(LAWS)的開發和使用引發了一場激烈的辯論,涉及學術和政治領域。

然而,實際上,AI技術在軍事中的應用遠遠超出了有爭議的“殺人機器人”——它有著多樣化的用途,從后勤到網絡戰,從通信到培訓。

預計這些應用可能會為社會帶來許多新的風險。在與國防相關的系統中應用AI的趨勢不斷增長,創造了新的技術失敗或操作錯誤的可能點;這可能導致在決策環境中產生未預期的大規模結構性變化,或可能負面影響到戰略穩定性的相互認知,加劇了全球性災難性影響升級的可能性。即便在不那么直接致命的角色中,比如情報收集或物流,人們仍然擔心使用AI系統可能間接導致全球災難性風險。最后,與未來更有能力的AI系統的發展相關,比如通用人工智能(AGI)存在可能的全球災難性風險;雖然這些最終的潛在風險并非本章直接關注的焦點,但應該注意,這些風險在軍事環境中可能特別重要,這需要謹慎而非自滿。

盡管全球正在進行的努力是為了在國家安全事業中利用更多的AI技術,目前對于識別和減輕來自軍事AI的風險的努力仍然處于萌芽階段。在技術層面,目前AI技術社區面臨的最緊迫的問題之一是任何AI系統都容易遭受一系列性能故障、設計缺陷、意外行為或對手攻擊。5同時,許多軍隊都在花費大量時間和資源將AI技術部署到一系列操作環境中。盡管如此,許多人在他們的采購和軍事AI的內部開發程序中仍然缺乏明確的倫理或安全標準。6大多數積極開發和部署此類系統的國家行為者也沒有同意限制在國防中使用AI的硬性界限,或參與與潛在對手建立信任措施。

顯然,軍事AI的發展可能會顯著影響到該領域全球災難性風險的潛力,使得探索這一技術進展及其可能的影響對全球災難性風險社區至關重要。現在,AI技術已經開始在軍隊中看到真實世界的應用,我們比以往任何時候都更需要詳細了解軍事AI系統如何可能被視為全球災難性風險,或它們如何可能成為軍事全球災難性風險的相關貢獻者。特別是從全球災難性風險的角度來看,需要更多的關注來研究AI與潛在破壞性與核武器一樣大的軍事技術交匯的實例,這可能會產生災難性的結果。為了使我們對這一日益復雜的風險格局有更加一致的理解,我們探討了已有的文獻,并提出了進一步的研究途徑。

我們的分析如下:在回顧過去的軍事全球災難性風險研究和軍事AI的最近相關進展之后,本章將大部分焦點都放在了致命自主武器和AI與核景觀之間的交集上,這兩者目前在現有的學術研究中都得到了最多的關注。首先,我們研究了致命自主武器,評估了它們是否可能構成全球災難性風險,并論證了盡管這些系統令人擔憂,但考慮到目前和預期的生產能力及相關成本,它們在短期內還不太可能成為全球災難性風險。然后,我們深入探討了軍事AI和核武器的交集,我們認為這有著更高的全球災難性風險潛力。我們研究了核戰爭的全球災難性風險潛力,簡要討論了何時、何地以及為什么它可能導致全球災難性風險。此外,在通過識別可能也獨立提高核戰爭風險的相關全球趨勢,為我們提供了最近的地緣政治背景之后,本章將其焦點轉向了在核武器和AI交匯處出現的特定風險的現有研究。我們概述了六個假設場景,其中使用AI系統在、周圍或反對核武器可能會增加核升級的可能性,并導致全球災難。最后,本章總結了未來研究方向的建議,并為可以更全面和多學科理解來自今天和未來軍事AI的潛在風險制定了研究議程。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。

在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。

即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。

但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。

這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。

AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。

將沖突中傷害平民的風險降至最低

新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。

與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。

系統局限性

最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。

隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。

因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。

人類與機器互動面臨的挑戰

AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。

例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。

在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。

這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。

節奏

人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:

  • 看到更多
  • 了解更多;以及
  • 制定更多選擇。 重要的是,在整個決策鏈中都是如此,而不僅僅是在最后的 "決策點"。因此,聲稱 AI-DSS 將加快最終決定是否 "扣動扳機 "的耗時步驟,從而實際上為戰術忍耐帶來更多時間的說法,有可能過度簡化當代沖突中的目標選擇和武力執行過程。

額外的時間讓你看到更多

2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。

"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。

試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。

正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。

額外的時間可以讓用戶理解更多

放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。

當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。

更多時間可讓用戶做出更多選擇

除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。

正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。

結論

"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。

這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。

在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。

確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。

關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。

參考來源:International Committee of the Red Cross

付費5元查看完整內容

人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。

人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。

電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。

將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。

在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。

此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。

人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。

不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。

最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。

最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。

付費5元查看完整內容

美國陸軍近年來提出了 "信息優勢 "的概念,即士兵有能力比對手更快地做出決策和采取行動。陸軍現在認為,人工智能是實現這一戰略的關鍵。

人工智能的普及程度和能力都有了爆炸式的增長,ChatGPT 等大型語言模型和其他人工智能系統也越來越容易為大眾所使用。在工業界和美國防部,許多人都在探索將該技術用于軍事應用的可能性,陸軍也不例外。

陸軍賽博司令部司令瑪麗亞-巴雷特(Maria Barrett)中將說,人工智能具有 "真正、真正推動變革的最大潛力......但它也給我們帶來了非常、非常現實的挑戰,以及整個信息維度的挑戰"。

負責政策的國防部副部長辦公室副首席信息作戰顧問、陸軍少將馬修-伊斯利(Matthew Easley)說,軍方正在經歷 "從傳統的信息作戰,即我們如何將不同的信息效果結合起來,為我們的行動創造我們想要的協同效應 "到新的信息優勢概念的轉變。

伊斯利在 6 月份美國陸軍協會的一次活動中說,這一概念的目標是確保陸軍在信息環境中掌握 "主動權","能夠看清自己、了解自己并更快地采取行動"。他說,信息優勢包括五大功能:輔助決策;保護士兵和軍隊信息;教育和告知國內受眾;告知和影響國外受眾;以及開展信息戰。

他補充說:"所有這五個領域都可以利用人工智能和機器學習取得一定效果"。

伊斯利在 2019 年幫助建立了陸軍人工智能兵力工作組。但他說,在他任職期間,該小組在全軍范圍內采用人工智能時遇到了兩個挑戰:遷移到混合云環境和移動設備。

陸軍將 "繼續擁有大量的傳統數據中心,但隨著我們需要激增,我們需要在全球范圍內移動--云環境使我們更容易開展全球業務,"他說。根據陸軍預算文件,陸軍正在為2024財年申請4.69億美元,用于向云過渡和數據環境投資。

巴雷特在 AUSA 會議上說: "沒有數據存儲庫,就無法實現人工智能和機器學習"。陸軍賽博司令部對其大數據平臺進行了大量投資,將 "進入我們平臺的數據流數量翻了一番,解析器翻了一番,我們現在存儲的數據存儲量也翻了一番,"她說。她說:"我們將繼續沿著這條軌跡前進,這意味著我們已經準備好開始利用 "人工智能能力"。

她說,對于指揮部來說,人工智能主要用于網絡防御,但在 "信息層面 "也有應用。"引入各種不同的信息源......并真正了解特定環境的信息基線,這意味著什么?所有這些都對我們大有幫助,而且我認為這只會不斷擴大"。

伊斯利說,移動設備的普及大大增加了潛在的饋送量,但也會擴大對手的潛在目標。這些設備 "有很多功能,也有很多漏洞。我們必須考慮并使用人工智能......既能保護我們自己,又能管理我們擁有的大量數據"。

陸軍參謀長詹姆斯-麥康維爾(James McConville)將軍在6月的一次媒體吹風會上說,在潛在沖突中,人工智能可以幫助士兵整理所有數據,并將正確的信息 "送到箭筒中"。

根據陸軍預算文件,陸軍正在為2024財年的人工智能和機器學習申請2.83億美元,其中包括用于增強自主實驗的研發資金,以及為集成視覺增強系統、可選載人戰車(最近被重新命名為XM30機械化步兵戰車)、遠程戰車、TITAN地面站和 "具有邊緣處理功能的更智能傳感器 "等系統的人工智能/機器學習項目活動提供資金。

"陸軍部長克里斯蒂娜-沃穆斯(Christine Wormuth)在簡報會上說:"我們當然在尋找如何利用人工智能使我們的能力(包括新能力和正在開發的能力)更加有效。她說,陸軍尤其在 "融合項目"(Project Convergence)演習中使用了人工智能目標定位程序。

融合項目是陸軍對國防部聯合全域指揮與控制概念的貢獻,該概念旨在通過網絡將傳感器和射手聯系起來。陸軍發布的一份新聞稿稱,在2022年底的上一次演習中,參演人員使用了陸軍的 "火風暴 "系統--"一種人工智能驅動的網絡,將傳感器與射手配對",向參加實驗的澳大利亞兵力發送情報。

麥康維爾說,軍方還將人工智能用于預測性后勤工作。他說:"我們正在使用人工智能來幫助我們預測所需的零部件,這對龐大的軍隊來說意義重大"。

除了簡單的維護之外,預測性后勤還涉及陸軍的不同供應類別,如燃料和彈藥,"以及我們如何看待消耗,如何預測在哪里可以將正確的供應品送到需要的地方",負責維持的陸軍副助理部長蒂莫西-戈德特(Timothy Goddette)說。

戈德特在國防工業協會戰術輪式車輛會議上說:"我們的目標是提前計劃這些物資需要運往何處或何時需要進行維護,而不是作出反應。

他說:"如果計劃的維護是正確的,但條件是錯誤的--如果你處于低[操作]節奏,我們如何改變計劃的維護?如果你處于炎熱、寒冷或腐蝕性環境中,你該如何改變維護計劃?這可能正是我們需要思考的地方。"

他補充說,在數字化世界中,陸軍必須 "學會如何使用數據和以不同的方式使用數據"。"我承認,我們還沒有完全弄懂[預測性后勤]。我們確實需要大家的幫助來思考這個問題。

McConville 和 Wormuth 說,人工智能未來的其他應用還包括人才管理和招聘。"Wormuth 說:"人工智能可能有辦法幫助我們以人類不擅長的方式識別優質線索或潛在客戶。

不過,McConville 強調,在使用人工智能時,"人在回路中 "非常重要。

他說:"實際做所有工作的可能不是人,但我們會看到人工智能幫助我們更好地完成工作。"但與此同時,我們也希望有人能說'發射這個武器系統',或者至少能考慮到這一點。"

巴雷特贊同麥康維爾的說法:"每個人都會把[人工智能]當成一臺機器。但是......你猜怎么著:每個玩過 ChatGPT 的人--是的,是人在喂養那臺機器。"

伊斯利說,隨著陸軍引入人工智能系統,士兵們可以做四件事來幫助技術正常成熟:收集和注釋數據;使用這些數據訓練人工智能模型;使用這些模型來檢驗它們是否有效;以及幫助改進模型。

他說,軍方在收集數據方面做得 "很好","但軍隊中仍有很多數據我們沒有完全捕捉到......我們可以利用這些數據來訓練我們自己的大型語言模型。"要使這些模型對我們的領域有效,我們必須在我們的數據上進行訓練。因此,我們必須研究:我們的人力資源數據是什么?我們的人力資源數據是什么?我們的醫療數據是什么?我們的業務數據是什么?我們的情報數據是什么?我們如何在受控環境下利用這些數據來建立更好的模型?

他說,這些模型必須根據軍隊的數據進行快速訓練和再訓練,以便不斷改進。他以自己手機上的餐廳推薦算法為例,"它之所以這么好,是因為它有10年的時間,我只告訴它我喜歡世界上哪些餐廳"。

伊斯利說,雖然他們將來可能會收到人工智能的推薦,但武器系統將始終由人類來管理,但 "其他系統,如果不是那么關鍵的話......[機器]可以做出決定"。不過,他補充說,人類將對人工智能進行培訓,使其在執行陸軍任務時可以信賴。"他說:"你不會質疑你的地圖算法告訴你在城市中往哪里走--你知道該算法比你掌握更好的信息。但是,"我們如何獲得數據背后的真實性,讓我們能夠相信模型的內容、模型是如何訓練的,以及我們是如何使用它的?我認為這都是......人類的努力"。

參考來源:NDIA網站;作者:Josh Luckenbaugh

付費5元查看完整內容

像俄羅斯等這樣的近鄰對手明白,他們無法與美國(US)競爭并贏得傳統沖突。為了使俄羅斯等能夠戰勝美國,他們通過技術進步開發了新的手段和能力,以便在戰場上取得勝利。正在開發的主要能力之一是低當量戰場核武器(LYBNWs),以便在未來的沖突中贏得對美國的勝利。美國的近鄰對手可能對美國的機動部隊發射LYBNW,以將其從戰場上消滅,不至于將沖突提升到全面核戰爭的門檻。

引言

自任何戰爭開始以來,人類就利用武器技術的進步來增加沖突中的勝利機會。新武器系統的演變在整個歷史上的爭端中是至關重要的。能夠在現有系統或平臺上實施新技術的領導人或國家將獲得勝利。歷史上的一個典型例子是步槍和大炮在戰場上的實施發展。在1805年和1806年,拿破侖利用這兩項技術進步與騎兵相結合,贏得了關鍵的勝利,奧斯特利茨戰役就是一個例子。世界各國都把步槍和大炮與演習的混合作為戰爭的突破口。在隨后的幾年里,歐洲和世界各國都在全力以赴地按照拿破侖在耶拿戰役和其他沖突之前的方式來建設和訓練自己的軍事力量。隨著時間的推移,武器技術的演變繼續增加。下一個改變未來戰爭執行方式的武器系統是空中力量。

第一架飛機于1902年飛行,其微小的進步將空中力量限制在偵察能力上,并限制了第一次世界大戰(WWI)的空中戰斗。當時的領導人設想,飛機是未來通過空中力量對抗沖突的手段。空中力量的進步在1945年第二次世界大戰(WWII)期間取得了成果。空中力量,加上陸軍,使美國對德國具有戰略優勢。美國了解空中力量給戰場帶來的能力,即沿著敵人的交通線和主要戰線攻擊敵人的目標。空中力量使地面部隊能夠在戰場上與敵人全面交戰,以消耗德國軍隊并贏得戰爭。空中力量對二戰勝利作出貢獻的另一個例子是在對日本的太平洋戰役中。空中力量能夠在跳島任務中轟炸敵方目標,并攻擊日本本土。最終,空軍投下了原子彈,迫使日本在二戰中投降。

歷史為那些利用技術進步在戰爭中取得勝利或阻止沖突的國家提供了一個準確的畫面。前國防部長馬克-埃斯珀理解技術進步的重要性,他說:"歷史告訴我們,那些率先利用一代人的技術的人往往在未來幾年里在戰場上具有決定性的優勢。" 下一個改變戰爭方式的技術將是什么?諸如俄羅斯等這樣的對手認為擊敗美國的下一個技術進步是低當量戰場核武器(LYBNWs)。俄羅斯等設想的情景是,美國的地面部隊在戰場上機動,但防空保護有限,地形將他們引入一個巨大的殺傷箱。然后,俄羅斯等將使用混合了戰術彈道導彈(TBM)的LYBNWs來攻擊美國地面部隊和關鍵地區,如濕隙交叉點、支持區和后勤線。

美國軍方的領導人已經關注了從遠程火力、戰術核、高超音速導彈、無人機群和空間能力等廣泛的技術進步。隨著如此多的新技術擠入戰斗空間,一種能力引起了軍事和民用部門的興趣,那就是人工智能(AI)。在陸軍中,人工智能是一個未被開發的武器系統,可以成為戰爭中的下一個技術進步。人工智能將使美國陸軍在戰場上擁有手段和優勢,就像大炮和空軍一樣。此外,人工智能將協助美國陸軍在大規模戰斗中檢測、分類和使LYBNW失效。

問題陳述

美國的近鄰顧問正在不斷地嘗試開發下一個武器系統,以使他們在戰場上獲得優勢,從而在戰爭中獲勝。俄羅斯正在開發高超音速武器;與此同時,中國利用遠程精確射擊來與敵人保持距離。然而,這兩種威脅都以LYBNW為中心努力在未來的沖突中摧毀美國的機動部隊。 目前,美國的防空平臺缺乏技術和能力來對抗大規模沖突中混有TBM的LYBNW的新威脅。

研究目的

本專著旨在提供將人工智能整合到陸軍防空系統中以擊敗LYBNWs的方案。首先,本專著將通過歷史的視角來說明發展技術進步并將其整合到現有系統中對在戰場上或戰爭中取得勝利是多么重要。用于研究的主要武器系統是大炮、空氣動力和核武器。通過歷史分析,讀者可以預見,美國必須繼續發展技術進步,特別是在人工智能方面,以便對未來的沖突產生積極影響。其次,該專著重點介紹了美國陸軍目前和未來的防空平臺,以備戰事。這部分調查讓讀者了解系統的能力和局限性,以了解防空作戰環境和導致需要綜合人工智能的不足之處。第三,該專著重點介紹了目前民用和軍用部門的算法和平臺的人工智能能力。這些算法提供了對機器學習能力的洞察力,以便在人工智能平臺上與當前的系統結合起來提出建議。最后,該論文集中討論了整合的建議和對自主人工智能系統的需求,以擊敗LYBNWs。

研究意義

這項研究對美國陸軍來說很重要,因為近似的建議開發了新的和增強的導彈平臺以贏得未來的沖突,特別是LYBNWs。這些武器系統的出現正在慢慢超過美國陸軍目前的防空系統。這項研究提供了一個行動方案,通過將人工智能與目前的平臺結合起來,提供增強的防空覆蓋,從而重新獲得優勢。同時,為自主武器系統的建立留出時間。在綜合防空導彈防御系統(IAMD)中利用人工智能能力可提供早期預警、交戰速度、瞄準威脅的距離,更重要的是,可提供威懾。防空系統一旦部署到一個行動區,就會對世界大國產生威懾力。人工智能的增強提高了美國威懾或擊敗侵略的能力,并保留了陸地部隊。

付費5元查看完整內容

在過去的二十年里,人工智能(AI)獲得了大量的關注,并激發了許多科學領域的創新。美國軍事預測人員創造了許多以人工智能為核心特征的未來作戰環境的預測。本文報告了人工智能創新的歷史趨勢,導致了對真正的通用人工智能(AGI)出現的高預期時期。這些對持續創新的夸大期望超過了實際能力,導致幻想破滅。人工智能經歷了新的創新、過度期望和幻想破滅的周期,然后是適度的進步。人工智能創新的周期性遵循極端夸張的周期,在過去的周期中,這導致了資金的損失和未來創新的放緩。為了避免在夸張的周期中看到的未來的幻滅和進步的喪失,領導者需要對機器學習技術有一個現實的理解,以及它對未來的人工智能發展意味著什么。本文提出了一個理解人工智能與作戰環境互動的功能框架。

引言

語義學、技術樂觀主義、誤解和議程掩蓋了目前關于人工智能(AI)和智能的本質的辯論。關于人工智能的預測,從歇斯底里的天網啟示錄到人工智能驅動的烏托邦都有。人工智能和 "機器學習 "可能會走上幻滅之路。技術領域的知名專家警告說,人工智能將對人類的未來產生災難性影響。特斯拉和Space X的首席執行官(CEO)埃隆-馬斯克(Elon Musk)稱人工智能是一種生存威脅,并懇請政府對人工智能進行監管,"以免為時已晚"。已故著名物理學家史蒂芬-霍金認為,人工智能將是人類的末日。新聞媒體的標題是:"美國有可能在人工智能軍備競賽中輸給中國和俄羅斯"。還有人援引世界末日的觀點和對人工智能技術的情感反應。例如,《紐約時報》最近發表了一個標題:"五角大樓的'終結者難題'。可以自己殺人的機器人"。不幸的是,煽動恐懼的言論引起了公眾的共鳴,并建立在人工智能將是人類終結者的流行文化敘事上。

在歷史背景下觀察,目前對人工智能的看法遵循一個可衡量的趨勢,即Gartner公司的信息技術(IT)研究 "炒作周期 "的技術發展階段,見圖1。炒作周期以 "技術觸發點 "開始,一種只存在于原型的新概念化能力,吸引了媒體的注意。下一個狀態是 "期望值膨脹的高峰",早期采用者因其在實施該技術方面的成功而獲得宣傳。下一個階段是 "幻滅的低谷",技術固有的物理限制變得明顯,人工智能未能成熟,投資資金轉移到更有前途的企業。在幻滅的低谷之后,技術繼續成熟,盡管速度要慢得多。在這個緩慢的環境中,它被更好地理解,實施起來也有真正的成功。最后一個階段,即 "生產力的高原",是技術在被充分理解的條件下被廣泛實施的時候。然后,各行業創建標準和法規來管理技術的實施和互操作性。

圖 1. 技術發展的成熟度曲線。

人工智能發展的以往演變遵循夸張的周期,有幾個高峰和低谷,這里將概述一下。每次人工智能發展進入幻滅的低谷,美國政府和軍方支出停止資助;人工智能的發展都會停滯不前。美國政府和軍方一直是人工智能發展史上不可或缺的一部分,并將繼續在指導未來發展方面發揮重要作用。美國軍方不能有膨脹的期望,這將導致一段幻滅期,將主動權和技術優勢讓給美國的同行競爭者,俄羅斯和中國;他們正在追求武器化的AI。領導人和決策者需要對人工智能的發展有一個現實的技術理解,以指導他們將人工智能整合到軍隊企業中。過去的夸張周期提供了需要避免的陷阱的例子,但也提供了需要尋找有用的應用和未來創新的領域。

付費5元查看完整內容

2022年9月7日,美國戰略與國際問題研究中心(CSIS)發布了《軟件定義戰爭:國防部構建向數字時代轉型的架構》報告,明確了國防部必須采用新的軟件設計和架構方法,以幫助美軍保持對全球對手的作戰優勢。本文針對報告的主要內容進行了編譯。

美軍是世界上裝備最精良、歷史最悠久、組織最龐大的武裝部隊,但也面臨許多問題:一是美軍裝備水平遠遠落后于行業先進軟件水平;二是美國國防部壟斷了國家的作戰職能,使得其無需面對通常形式的行業競爭;三是新興技術初創公司的崛起以及與競爭對手技術能力差距的縮小,使得美軍不得不進行定期“技術更新”。這些問題產生的根源在于國防部和其他美國聯邦機構從根本上是以硬件為中心的組織,使其向以軟件為中心、風險承受能力更高的組織過渡是非常困難的。因此,美國國防部未能采用新技術,未能改變其固有的工作規程,未能設計和試驗新的作戰概念。

美國國防部需要做出改變,其中關鍵是設計一種靈活、大規模、適應性、低成本的架構以提供關鍵服務,以改變人類在信息和決策環中的角色,并最終在決策環節影響作戰速度、準確性、規模和技術。因此設計這種作戰系統架構需要具備如下特性:一是更快的決策和執行速度;二是快速更新和優化系統;三是降低建立和部署系統的成本;四是改善交付新功能的成本和速度。目前網絡戰、馬賽克戰以及下一代作戰網絡都已引入上述概念,但尚不深入。下圖展示了國防部基于上述概念設計的大型自主通信網絡和武器系統的集成概念圖。

圖1 大型自主通信網絡和武器系統的集成概念圖

從發展的眼光看,軍事裝備架構的關鍵在于軟件,其正在顛覆和重組整個行業,尤其是依賴人工流程的零成本活動。若要想獲取足夠的競爭力,軟件就必須成為業界模式和作戰模式的核心

付費5元查看完整內容

1 簡介

戰斗機的時代已經過去。這話是埃隆-馬斯克在2020年空戰研討會上描述未來空戰時說的。這產生了巨大影響力。

馬斯克的立場似乎得到了美國國防部高級研究計劃局(DARPA)Alphadogfight(ADT)演示的支持。在ADT期間,幾個人工智能(AI)項目在一場斗狗比賽中相互對決。獲勝的人工智能隨后與人類戰斗機飛行員進行了面對面的較量。雖然DARPA聲稱比賽的目的是開發支持人類飛行員的人機共生的人工智能程序,但結果對飛行員本人來說不可能更糟。人類在與機器的每一次交戰中都輸了,而且比人工智能以前的機器對手輸得更快。

同樣值得考慮的是,在超視距情況下——在這種情況下,距離的計算、對飛機相對位置的了解、相對高度、速度和武器都必須在非常高的速度下完成——結果會如何。考慮到空對空戰術的復雜性以及欺騙和電子戰在其實施中的突出作用,結果可能會更加令人震驚。

盡管如此,許多飛機制造商仍在繼續開發有人駕駛的作戰飛機。即使是成本驅動的商業航空部門也不太可能取代人類飛行員。此外,盡管西方第五代戰斗機都是單座飛機,即使是出于訓練目的,雙座設計也回到了桌面上。最近,中國第五代殲-20戰斗機采用雙座配置,蘇霍伊公司正在考慮其蘇-75 "Checkmate"的雙座版本。回歸雙座設計背后的原因仍然不透明,但鑒于目前空中行動的復雜性和對更復雜的多域作戰(MDO)的預期,下一代戰斗機可能受益于武器系統官(WSO)。

另外,DARPA的空戰進化(ACE)計劃設想了一個中間地帶,人類飛行員信任人工智能來控制飛機,而他們需要人類來指揮任務,如決定交戰策略、選擇和優先考慮目標,以及確定最佳武器或效果。

未來幾乎肯定會包括馬斯克所宣稱的、DARPA所預期的人工智能優勢,但它們應該伴隨還是取代人類飛行員?許多挑戰依然存在。本文將強調最重要的挑戰。

2 挑戰和考慮因素

2.1 機器學習過程

支持人工智能的最常見的機器學習方法是強化學習(RL),它使計算機算法能夠從過去的事件中自我學習。機器使用一個獎勵系統來區分成功和不成功的動作,它可以在沒有指導的情況下快速進行,不需要人類的互動。同時,人類也可以指出錯誤,幫助強化未來的課程,讓機器尋求成功。

  • "未來的戰斗機......將急劇增加的飛行員工作量。人工智能必須在管理這種工作量方面發揮一些作用。"

獎勵函數設計是另一種機器學習技術,通過給交易分配相對價值來加速學習結果,從而補充RL。這個概念激勵人工智能通過利用它已經學到的關于其先前選擇的 "價值 "的東西,而進入到一個更高的獎勵狀態。這種評估使人工智能能夠在探索一系列行動以追求更高的獎勵時進行風險與獎勵計算。目標是在探索了所有可能的解決方案和獎勵之后,達到一個良好的平衡。

一個可能加速學習過程的額外優勢是,人工智能系統可以建立在其他人工智能系統的經驗上,使用額外的機器在所需的網絡內進行訓練,而無需人類參與,并將獲得的知識轉移到目標機器上。幾個模擬器,每個都應用不同的戰術,可以極大地加快學習過程。

然而,機器學習不應該被看作是萬能的。它仍然高度依賴于軟件設計、算法和數據選擇。納入機器學習技術內的不完整或有毒的信息會導致學習過程中出現重大缺陷或錯誤。因此,人工智能可能做出無效或危險的決策。

2.2 戰機的控制

盡管現在的趨勢是,只有在ACE計劃顯示人工智能飛得更好的情況下,人工智能才會幫助飛行員,但在真正的戰斗機上,這兩種選擇將如何合并?

一種選擇是,飛機由人類飛行員控制,只由人工智能提供建議,至少在機器識別出關鍵風險并評估出它能比人類更快或更好地做出反應之前。人類飛行員應該始終保留對這一決定的控制權,還是應該授權人工智能在沒有預先授權的情況下進行控制,以確保任務成功或飛機生存?同樣地,飛行員是否應該在知道他的反應時間意味著失去可能影響定位或射擊機會的關鍵秒數的情況下,采取所有武器使用行動?

此外,在飛機機動能力的極端情況下不會有失去意識的風險,這是人工智能相對于人類飛行員所具有的誘人優勢之一。雖然預計人工智能可以納入飛行員的健康狀況數據,但獲得對敵優勢的唯一方法可能是犧牲飛行員的意識。在飛行員沒有意識的情況下,人工智能應該自主地使用武器嗎?

此外,由于戰斗機傳統上是以雙機或四機編隊的形式運行,關于人類與人工智能控制的決定將影響到單個飛機和整個機隊。需要考慮人工智能控制的飛機如何與其他編隊的機組人員進行交流,以及是否通過數據鏈、語音或兩者進行。鑒于飛行中的一些(而不是所有)飛機有可能在人工智能的控制下--而且有可能是無意識的飛行員--整個編隊的控制權應該下放給人工智能,還是應該轉移給任何有意識的飛行員?

一個更直接的選擇是將人工智能限制在一個輔助角色,在準確的時刻提供適當的信息,以避免飽和,也許,在特殊情況下,如生存需要時,就像現有的線控系統在超過攻擊角限制或在某些失控的情況下對飛機進行指揮。

到今天為止,由于其相當復雜,最可能的演變是人工智能只是幫助飛行員。然而,隨著技術的快速發展,我們當然不應該回避人工智能的支持,尤其是知道潛在的對手會廣泛地使用它。

2.3 倫理學

許多作者都寫過關于機器人自主和人工智能控制的武器系統的道德和倫理問題,并探討了我們是否應該允許機器對人類做出生死決定。從倫理上評估的一個特殊案例是,人工智能凌駕于人類飛行員的控制之上。一些人認為,一個充分發展的人工智能將對其決定和后果負責,并承擔法律責任。相反,其他人認為至少有一個人必須保留責任和法律責任。如果人工智能控制的飛機出現錯誤,導致人類生命的損失,誰將負責?可以認為是人類飛行員,即使他可能沒有機會干預或取消行動,甚至是程序員,但最有可能的是,下令執行任務的指揮官將是負責的一方。

2.4 準確的情報和人工智能衍生的戰術

來自情報的數據將為人工智能的學習過程提供基礎。預計人工智能將處理飛機、其飛行成員以及可能更廣泛的云聯網系統的所有可用傳感器數據。在實時的情況下,這將支持單個飛機的決策優勢,并在測試和評估活動中提出和評估戰術的重要能力。然而,正如單靠數據不等于準確的情報,單靠數據也不會創造新的戰術。人類的判斷會解釋數據,推斷對手的能力和戰術,創造測試環境,并評估結果。這些人類選擇的準確性將不可避免地影響人工智能衍生的戰術,就像在傳統戰術開發中一樣。在這里,應該利用人工智能運行大量模擬集的能力來提供廣泛的潛在選擇,以應對不可預見的對手能力和戰術。

2.5 人工智能將位于何處?

當我們想到戰斗機中的人工智能與人類的共生關系時,不可避免地會想到R2D2、天行者盧克和《星球大戰》中的X-Wing戰斗機。然而,在真正的戰斗機中,人工智能將在哪里?它是在飛機上還是在云中?云端的人工智能會克服通信延遲,在斗狗中獲得對人類的優勢嗎?將人工智能或飛行員移位意味著應盡量減少風險,要知道通信方面的優勢永遠不是絕對的,也不是永久的。

為了設定預期,應該注意到ADT使用了一個計算機機架和服務器來處理由人類駕駛的戰斗機提供的實時數據。這樣的計算能力和啟用的數據優勢目前無法納入戰斗機中。

2.6 人工智能會有什么 "感覺"?

在ADT競賽中,人類飛行員使用高保真的虛擬現實系統來視覺追蹤人工智能駕駛的對手飛機。然而,由于比賽中使用的數字智能模型缺乏傳感器,人工智能收到的所有對手數據都是直接輸入的,減輕了感應和解釋等更復雜的任務。使用關于對手飛行參數的準確數據給機器帶來了巨大的優勢。在實際戰斗中,這種數據不容易獲得,而且即使收集到也不一定準確。人類飛行員必須推斷出對手的參數,使解釋和決策變得復雜。人工智能agent將不得不做同樣的事情。

為此,人工智能將需要的不僅僅是飛行員可用的信息(包括雷達、警告接收器、紅外傳感器和數據鏈),以 "感受"和保持對形勢的認識。人工智能將需要一套類似于自動駕駛汽車中的視覺傳感器,以實現與人類飛行員目前所完成的同等的視覺觀察。雖然預計人工智能在解釋適當集成的傳感器方面會更快--這本身就是一個不小的成就--但人工智能對需要 "感覺或直覺 "的非預期或異常情況的反應如何,還有待觀察。這將在ACE計劃的最后一步進行評估,即兩架戰斗機之間的真正交戰,一架由人類駕駛,另一架由人工智能駕駛。

3 結論

未來的戰斗機,特別是那些設想與人工智能駕駛的無人機/僚機一起使用并在MDO環境下運行的戰斗機,將經歷急劇增加飛行員工作量。人工智能必須在管理這種工作量方面發揮一些作用。

然而,考慮到各種可能性,很難想象人類作為人工智能駕駛的飛機上的乘客來管理空戰,而人工智能自主地操縱飛機進入射擊位置,然后將武器的控制權移交給飛行員或在沒有人類授權的情況下發射導彈。更容易設想的是,飛行員在人工智能的支持下駕駛飛機,以提高戰術信息的準確性和及時性,并提供威脅診斷、警告和可能的防御性機動,如使用反措施或其他戰術選擇。

雖然有理由認為,人工智能與人類的合作將不如對手使用不受約束的人工智能所能做到的,但人工智能是否能在未來的整個場景中取代人類飛行員,還有待觀察。盡管如此,預計人工智能與人類的合作將為未來的戰斗機提供一個更有彈性和有效的方法,但只有當優化的人工智能與人類的共生關系被優先考慮并實現時。

誠然,未來的戰斗機作戰行動將不斷發展,埃隆-馬斯克關于載人戰斗機時代結束的預言性警告與事實相去甚遠。

作者

拉斐爾-伊卡索,中校于1993年加入位于圣哈維爾的西班牙空軍學院。他于1997年完成了基礎飛行員培訓,并于1998年在第23聯隊完成了戰斗機武器課程。1998年至2007年,他在薩拉戈薩空軍基地第15戰斗機聯隊的151SQN中駕駛EF-18戰斗機。2007年被分配到巴達霍斯第23聯隊的戰斗機武器學校擔任教官飛行員。2009年回到第15聯隊,在152SQN和153改裝SQN擔任EF-18教官。2008年他被晉升為少校,2009年被分配到空軍學院的學術部門,擔任飛行教官以及國防大學的教師。2013年至2016年,他在北約總部空軍司令部拉姆施泰因的評估部門(TACEVAL)擔任飛行部隊項目官員和評估員。在馬德里的武裝部隊聯合參謀課程結束后,2017年他被提升為中校,并被派往托雷洪空軍基地的西班牙空戰司令部A7科(訓練、演習和評估)擔任參謀,之后被派往聯合空軍能力中心。在此期間,他參加了阿維亞諾空軍基地的幾次部署,在巴爾干半島上空飛行。他擁有聯合參謀課程和地緣政治和國際關系的碩士學位等。他已經在C-101、F-5和EF-18上飛行了2700多個小時。

付費5元查看完整內容

第1章 簡介

1.3 背景情況

1.人是任何防御系統的關鍵組成部分--對于無人駕駛飛機系統(UAS)來說也是如此,盡管有 "無人駕駛 "的說法,但為了達到預期的任務效果,還是需要很多人的參與。無人駕駛飛機領域顯然是航空業中一個新興的、高增長的部門。與任何新的創新領域一樣,無人駕駛航空領域最初的焦點集中在推進使能技術和開發其操作程序,以獲得競爭優勢。

2.在過去的十年中,隨著各種組織開發和使用越來越復雜的無人駕駛飛機,人們越來越理解無人駕駛飛機是復雜的、分布式的系統,而不是簡單的飛機--也就是說,意識到有問題的遠不止是飛機。這種認識正式體現在美國無人駕駛飛機系統發展和標準化指南(美國國防部[DoD],2012年,2016年),以及其他支持性文件。從整體系統的角度來看,我們應該認識到,無人機系統是由無人機、地面組件和其他架構元素組成的,每個元素都有自己的屬性,它們共同互動,表現出對各種系統利益相關者有價值的突發系統級屬性。

3.這一系統觀點中隱含的理解是,包括人類機組成員在內的地面控制站(GCS)在確定無人機系統的整體系統級屬性,包括系統安全方面起著重要作用。在這種系統觀點中,還承認無人機系統的發展需要通過系統工程過程來協調。然而,即使采用了系統工程的方法,其范圍也常常被限制在技術系統上。這種看法是一個重要的問題,因為與流行的觀點相反,無人機系統并沒有從系統中去除人的因素。相反,無人機系統提供了一種選擇,使人不再一定要與系統中的物理動態部件同處一地。同樣,高度自動化的系統允許修改而不是消除人的作用,例如通過減少必要的技能和能力或允許增加控制范圍。

4.與載人系統一樣,人在無人機系統中的基本作用是為系統提供上下文反應的指揮和控制(C2),并對情況進行總體了解。為了完成這些功能,人必須在系統運行的某個時刻與系統互動,并使用某種形式的人機接口(HMI)。因此,對于任務的有效性和安全性來說,從系統構思開始就將人完全融入到無人機系統中是至關重要的。這就要求在開發、獲取和操作無人機系統時,關注人類系統集成(HSI)的所有要素。圖1-1代表了一個綜合系統的HSI的主要元素:人、技術和工作環境。

圖1-1:一個集成系統的主要內容

5.值得在此明確定義什么是HSI,因為許多人把它狹隘地看作是人和機器的接口,是人因工程和傳統駕駛艙設計的同義詞。這種觀點實際上只包含了HSI的一個要素。廣義上講,HSI是基于這樣一種理解,即人是系統內的關鍵要素,采用以人為本和以交互為中心的設計(Hou等人,2014)的系統視角可以提高生產力和安全性,同時降低成本。根據美國國防部采購指南,HSI被定義為 "一個強有力的過程,通過它來設計和開發系統,有效且經濟地整合人類的能力和限制。HSI應該作為武器系統開發和采購的整體系統方法的一個組成部分....,整體系統不僅包括主要的任務設備,還包括操作、維護和支持該系統的人員;訓練和培訓設備;以及操作和支持基礎設施"。

6.HSI涉及識別和權衡可能嚴重影響系統性能的人類相關問題。為了確保所有的問題都得到考慮,這些與人相關的問題被分為五個主要領域,即人力/人事、培訓、人因工程(HFE)、安全和健康以及組織和社會特征。HSI的一個核心原則是那些開發、獲取和操作系統的人必須對這些領域保持一個整體的觀點。沒有一個領域應該被孤立地考慮,相反,它們需要相互關聯。其中一個領域的任何決定幾乎肯定會影響到另一個領域。

7.對于在世界范圍內的空域結構中以非隔離方式運行無人機系統的支持者,如北約聯合能力小組無人機系統(JCGUAS),一個重要的關注領域是系統安全。隨著對無人機系統事故調查和分析的日益重視,人為錯誤(即人的表現失敗)已被證明是導致無人機系統安全相關事件的重要因素。基于上文提出的HSI概念,任何解決UAS系統安全的努力都必須涉及對其他HSI領域的整體考慮,如人為因素工程、人力/人事和培訓。這一論斷并不新鮮,在傳統的載人航空中同樣適用。然而,在載人航空中,人員和培訓是由現有的法規和標準嚴格規定的,因此允許對人機界面的人因工程采取相對規范的方法,以達到預期的系統安全水平。相比之下,目前在人員和培訓方面存在明顯更大的可變性,因為它們適用于UAS,使得對GCS設計的規定性方法遠不可行。相反,人因工程的決策需要根據人因工程、人力/人事和培訓等領域之間存在的整體性能、安全和成本效益交易空間來考慮。因此,明確考慮到這種交易空間的GCS設計的可重復的過程解決方案是最好的,這樣潛在的理想創新就不會受到不必要的限制。

8.為了提供指導,改善對無人機系統中人的因素的考慮,減少與人的表現有關的事故和事件,提高安全性,從而促進無人機系統在非隔離空域的常規飛行,本標準建議(STANREC)由人因專家小組(HFST)為無人機系統在非隔離空域飛行(FINAS)工作組(WG)、JCGUAS編寫。它是FINAS第4685號研究的產物,從英國國防部標準00-250《系統設計者的人為因素》(2008)中提取了適用于設計和采購無人機系統的通用系統工程框架的高級過程相關要素。這份文件代表了HFST成員的辛勤工作和奉獻精神,他們的服務和努力使這項工作成為可能。這些人包括:

Patrick Le Blaye(法國),Daniel Hauret(法國),Piet Hoogeboom(荷蘭),Ming Hou(加拿大),Joe Geeseman(美國),Edgar Reuber(德國),Ian Ross(英國),Roland Runge(德國),Anja Schwab(德國),Anthony Tvaryanas(美國)和 Eric Vorm(美國)。

1.4 目的和范圍

1.本STANREC描述了

  • a. HSI對UAS在非隔離空域飛行的重要性。

  • b. 有助于確定人類對無人機系統性能和安全的關鍵貢獻可能發生在何處的活動。

  • c. 如何將HSI的投入融入到UAS的發展中;以及

  • d. 可用于應用HIS的技術。

2.STANREC中規定的過程既是基于目標也是基于風險。在每個UAS項目中必須滿足的總體HSI目標已經確定。只要這些目標得以實現,實現這些目標的手段就可以根據各個無人機系統項目的情況進行調整。因此,HSI活動的范圍和深度應根據與人類相關的考慮因素所帶來的項目風險程度進行調整。通過這種方式,該過程支持開發具有成本效益的無人機系統,使其更加安全,并提高任務的有效性和可靠性,從而滿足整合到非隔離空域的要求。

1.5 目標受眾

本STANREC針對的是需要解決無人機系統的設計、實施、采購、評估和運行中的人為問題/風險并為其提供資源的北約和工業界人員。本STANREC的主要用戶是由所有利益相關者組成的綜合項目組(IPT),包括設計、開發和/或采購UAS的項目經理、設計師和開發人員。本STANREC涉及與人有關的考慮和HSI活動,以使IPT成員了解它們與整個系統工程過程的相關性和重要性。盡管如此,參與無人機系統開發的所有各方,包括無人機系統的終端用戶,都應該發現本STANREC的相關性。

付費5元查看完整內容

機器學習是現代戰爭系統的關鍵組成部分。本文探討了人工智能的 7 個關鍵軍事應用。

機器學習已成為現代戰爭的重要組成部分,也是我(Nicholas Abell)作為陸軍退伍軍人和數據科學家的主要興趣點。與傳統系統相比,配備人工智能/機器學習的軍事系統能夠更有效地處理大量數據。此外,人工智能由于其固有的計算和決策能力,提高了作戰系統的自我控制、自我調節和自我驅動能力。

人工智能/機器學習幾乎被部署在所有軍事應用中,軍事研究機構增加研發資金有望進一步推動人工智能驅動系統在軍事領域的應用。

例如,美國國防部 (DoD) 的國防高級研究計劃局 (DARPA) 正在資助一種機器人潛艇系統的開發,該系統預計將用于從探測水下水雷到參與反潛行動的各種應用。此外,美國國防部在 2017 財年在人工智能、大數據和云計算方面的總體支出為 74 億美元。預計到 2025 年,軍事 ML 解決方案的市場規模將達到 190 億美元。

以下是機器學習將在未來幾年證明其重要性的七種主要軍事應用。

1. 作戰平臺

來自全球不同國家的國防軍隊正在將人工智能嵌入陸地、海軍、空中和太空平臺上使用的武器和其他系統中。

在基于這些平臺的系統中使用人工智能,可以開發出更少依賴人工輸入的高效作戰系統。它還增加了協同作用,提高了作戰系統的性能,同時需要更少的維護。人工智能還有望使自主和高速武器能夠進行協作攻擊。

2. 網絡安全

軍事系統通常容易受到網絡攻擊,這可能導致機密軍事信息丟失和軍事系統損壞。然而,配備人工智能的系統可以自主保護網絡、計算機、程序和數據免受任何未經授權的訪問。

此外,支持人工智能的網絡安全系統可以記錄網絡攻擊的模式,并開發反擊工具來應對它們。

3. 物流運輸

人工智能有望在軍事后勤和運輸中發揮關鍵作用。貨物、彈藥、武器和部隊的有效運輸是成功軍事行動的重要組成部分。

將人工智能與軍事運輸相結合可以降低運輸成本并減少人力工作負荷。它還使軍用艦隊能夠輕松檢測異常并快速預測組件故障。最近,美國陸軍與 IBM 合作,使用其 Watson 人工智能平臺來幫助預先識別 Stryker 戰車的維護問題。

4. 目標識別

正在開發人工智能技術以提高復雜戰斗環境中目標識別的準確性。這些技術使國防軍隊能夠通過分析報告、文檔、新聞提要和其他形式的非結構化信息來深入了解潛在的作戰領域。此外,目標識別系統中的人工智能提高了這些系統識別目標位置的能力。

支持人工智能的目標識別系統能力包括基于概率的敵人行為預測、天氣和環境條件匯總、潛在供應線瓶頸或漏洞的預測和標記、任務方法評估以及建議的緩解策略。機器學習還用于從獲得的數據中學習、跟蹤和發現目標。

例如,DARPA 的競爭環境中的目標識別和適應 (TRACE) 計劃使用機器學習技術在合成孔徑雷達 (SAR) 圖像的幫助下自動定位和識別目標。

5. 戰場醫療

在戰區,人工智能可以與機器人手術系統 (RSS) 和機器人地面平臺 (RGP) 集成,以提供遠程手術支持和疏散活動。美國尤其參與了 RSS、RGP 和其他各種用于戰場醫療保健的系統開發。在困難條件下,配備人工智能的系統可以挖掘士兵的病歷并協助進行復雜的診斷。

例如,IBM 的 Watson 研究團隊與美國退伍軍人管理局合作開發了一種稱為電子病歷分析器 (EMRA) 的臨床推理原型。這項初步技術旨在使用機器學習技術來處理患者的電子病歷,并自動識別和排列他們最嚴重的健康問題。

6. 戰斗模擬與訓練

模擬與訓練是一個多學科領域,它將系統工程、軟件工程和計算機科學結合起來構建計算機模型,使士兵熟悉在軍事行動中部署的各種作戰系統。美國正在越來越多地投資于模擬和訓練應用。

美國海軍和陸軍都在進行戰爭分析,啟動了幾個傳感器模擬程序項目。美國海軍已經招募了 Leidos、SAIC、AECOM 和 Orbital ATK 等公司來支持他們的計劃,而美國陸軍的計劃得到了包括 SAIC、CACI、Torch Technologies 和 Millennium Engineering 在內的公司的支持。

7. 威脅監控和態勢感知

威脅監控和態勢感知在很大程度上依賴于情報、監視和偵察 (ISR) 工作。ISR 行動用于獲取和處理信息以支持一系列軍事活動。

用于執行 ISR 任務的無人系統既可以遠程操作,也可以按照預先定義的路線發送。為這些系統配備人工智能有助于防御人員進行威脅監控,從而提高他們的態勢感知能力。

具有集成 AI 的無人駕駛飛行器 (UAV) - 也稱為無人機 - 可以巡邏邊境地區,識別潛在威脅,并將有關這些威脅的信息傳輸給響應團隊。因此,使用無人機可以加強軍事基地的安全,并提高軍事人員在戰斗中或偏遠地區的安全性和效率。

結論

人工智能在軍事技術硬件和軟件的大規模采用,向我們展示了現代戰爭中令人難以置信和可怕的范式轉變。毫不奇怪,世界上最大的軍隊比其他任何事情都更加關注這項技術,而這場技術競賽的獲勝者可能會比美國在研制原子彈后擁有更多的全球影響力。 (作者:Nicholas Abell,美國陸軍退伍軍人)

付費5元查看完整內容
北京阿比特科技有限公司