亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

從規劃到執行,人工智能(AI)在軍事行動中發揮著越來越重要的作用。隨著技術的進步,將人工智能融入國防戰略已成為各國保持競爭優勢、確保國民安全和安保的關鍵所在。人工智能在軍事行動中的潛在應用非常廣泛,從加強決策過程到提高軍事系統的效率和效力,不一而足。

人工智能在軍事行動中的主要應用方式之一是分析大量數據。在當今的信息時代,兵力從衛星圖像、信號情報和社交媒體等各種來源生成和收集海量數據。人工分析這些數據是一個耗時耗力的過程,可能會延誤關鍵決策。而人工智能算法則能以更快的速度處理和分析這些數據,使軍事指揮官能夠根據實時信息做出更明智的決策。

除數據分析外,人工智能還被用于加強軍事行動的規劃和執行。例如,人工智能驅動的系統可以通過模擬各種場景和預測不同戰略的結果,幫助軍事戰略家制定更有效、更高效的作戰計劃。這樣,指揮官就能根據最準確的最新信息選擇最佳行動方案。此外,人工智能還可用于優化人員和裝備等資源的分配,確保以最有效的方式部署兵力。

人工智能在軍事行動中的另一個重要應用是開發自主系統。無人駕駛飛行器(UAVs)又稱無人機,由于能夠在不危及人類生命的情況下執行監視和偵察任務,已成為現代戰爭的主要裝備。人工智能技術有可能進一步提升這些能力,使無人機能夠自主運行,根據周圍環境和任務目標做出決策,而無需人工干預。這不僅能降低人類操作員的風險,還能更高效、更有效地利用這些資產。

此外,人工智能正被集成到各種軍事系統中,以提高其性能和能力。例如,人工智能驅動的算法可用于提高導彈防御系統的精確度和瞄準能力,增強其攔截和消除來襲威脅的效力。同樣,人工智能也可用于提高軍事通信系統的性能,確保信息在不同單位和指揮中心之間快速、安全地傳輸。

盡管人工智能為軍事行動帶來了諸多好處,但也存在一些需要解決的問題和挑戰。其中一個主要問題是在戰爭中使用人工智能所涉及的倫理問題,特別是當涉及到可以在沒有人類干預的情況下做出生死攸關決定的自主系統時。確保這些系統遵守國際法和道德標準對于防止潛在的濫用和意外后果至關重要。

另一個挑戰是對手惡意利用人工智能技術的風險。隨著人工智能變得越來越先進,越來越容易獲取,人們越來越擔心敵對行為體可能會利用人工智能開發出新的、更復雜的網絡戰形式,甚至制造出難以防御的人工智能武器。

總之,將人工智能融入軍事行動有可能徹底改變戰爭的打法和勝負。從加強決策過程到提高軍事系統的效率和效力,人工智能提供了眾多好處,可以幫助各國在日益復雜和不可預測的全球安全環境中保持競爭優勢。然而,必須解決與戰爭中的人工智能相關的倫理問題和潛在風險,以確保負責任地使用這項技術,并為更大的利益服務。

參考來源:TS2 space,作者:Marcin Fr?ckiewicz

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能的不斷進步使軍事系統具有更高水平的自主性。隨著機器智能作用的擴大,人類與自主系統之間的有效合作將成為未來軍事行動中越來越重要的一個方面。成功的人機協作(HAT)需要對機器智能建立適當的信任度,而信任度會隨著人機協作發生的環境而變化。有關信任和自動化的大量文獻,以及關注軍事系統自主性的最新研究成果,構成了本研究的基礎。本研究考察了機器智能應用的三個一般類別中信任的各個方面。這些應用包括數據集成與分析、所有領域的自主系統以及決策支持應用。在每個類別中,與適當調整信任度有關的問題各不相同,信任度調整不當的后果和潛在的緩解措施也不盡相同。

導言

縱觀歷史,技術在武裝沖突的演變中發揮了關鍵作用。技術加快了戰術交戰的節奏,拓寬了戰場的地理范圍,增加了指揮官與部隊溝通的手段,也改變了國家計劃和實施武裝沖突的方式。在二十一世紀,一組統稱為人工智能(AI)的技術似乎準備開創一個新時代,在這個時代,機器智能和自主性將為軍事行動的規劃和執行帶來全新的概念和程序。大量數據的不斷涌現激發了人們對信息的貪婪欲望,這就需要對信息進行快速、冷靜的分析,而人工智能恰恰能夠勝任這一角色。人工智能決策、改進的傳感器和敏捷的機器人技術的融合,將使新系統能夠獨立完成 "觀察-定向-決策-行動"(OODA)決策循環的所有階段。大量自主系統涌入戰場,基于算法的戰爭潛力將逐漸增強甚至取代人類在部分或全部步驟中的決策過程,其速度可能超過人類規劃者的認知戰能力。

目前,從通信設備、傳感器到防空系統,算法為一系列軍事系統做出了貢獻。在許多方面,現代軍事力量已經依賴于某些形式的人工智能。然而,機器智能的未來應用將帶來一種新的能力--一種非人類的協作伙伴,能夠在戰場環境不斷變化的背景下做出積極主動的 "決策"。這種能力的內在優勢只有在人類能夠自如地依賴人工智能的情況下才能實現--人工智能不僅是一種工具,而且是團隊中的一員。因此,本文將重點討論人機協作(HAT)的一個具體方面:建立對機器智能的適當信任度。已有大量學術文獻關注自動化或機器人技術在商業應用中的信任問題,但專門針對軍事應用的學術研究卻不多。本文將特別探討利用人工智能的自主系統是如何在不同的軍事環境中使用的,以及這些不同的環境是如何影響信任度的。

本文的基本論點有三個方面。首先,為軍事用途開發的人工智能技術分為三大類,貫穿戰爭的戰術、戰役和戰略層面:用于數據整合與分析的算法解決方案、利用機器智能的自主系統以及輔助人類決策的支持軟件。其次,認為人工智能在軍事行動中的普及必然會導致人類與智能機器之間更多的互動。軍事行動將越來越依賴于安全有效的人機協作,而這反過來又依賴于人類不斷評估并給予智能機器適當程度的信任--即信任校準。與適當的信任校準有關的問題在這三個類別中各不相同,信任失調的影響也各不相同。第三,因此,確保與人工智能的最佳人機合作將取決于識別每個類別中的潛在信任問題,并設計適當的技術或理論調整來解決這些問題。在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,探討了信任和信任校準的概念,然后分析了在三個類別中鼓勵適當信任度的陷阱和可能性。

人工智能的進步

幾十年來,人類一直醉心于為機器注入某種形式的人工智能的可能性。尼爾斯-尼爾森將人工智能定義為 "致力于使機器智能化的活動,而智能是指使實體在其環境中適當地、有預見性地發揮作用的品質"。在數字時代的初期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析特定的數據集。對于具有可預測規則的明確環境(如分析實驗室結果或下棋等應用),專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法質量。另一大類則采用自下而上的機器學習方法,仿效人類通過檢測數據中的模式進行學習的方式。神經網絡是一種受人腦啟發的機器學習方式,它能利用多層(因此是 "深層")人工神經元識別復雜模式,這種技術是 "深度學習 "方法的基礎。這種方法能夠發現數據集中的關系,因此也被稱為 "連接主義"。

自上而下、基于規則的符號系統與自下而上的機器學習聯結主義技術之間存在很大差異,尤其是在應用的潛在范圍和靈活性方面。深度學習方法的顯著特點是能夠將學習與訓練所依據的數據集分離開來,因此該方法可應用于其他類似問題。基于規則的算法在狹義的任務中表現極為出色,而深度學習方法則能夠迅速找到模式,并在專家系統計算方法效果較差的應用中“自學成才”。最近的一些人工智能進展表明,它們有能力模仿創造力,或產生新穎的解決問題的方法,而這些在人類看來可能是違反直覺的。例如,帶有人工智能導航控制的高空氣球發現了利用風型的最佳和意想不到的技術,或者利用人工智能開發出更有效的增材制造機器部件設計。

不過,一般來說,人工智能的范圍仍然很窄,或者說 "很脆弱",因為它們在特定的應用中運作良好,但在其他應用中仍然缺乏靈活性。與人類相比,由于機器的計算速度遠遠超過人腦,因此在對數據集應用邏輯規則時,機器智能要優越得多,但在嘗試歸納推理時,機器智能必須對數據集或環境進行一般性觀察,因此就顯得力不從心。大多數機器學習仍然需要大量的訓練數據,盡管包括自監督學習、生成模擬數據的技術(如使用生成式對抗網絡(GAN))和 "少樣本學習"(LO-shot learning)在內的新方法正在出現,這些方法需要非常小的數據集。圖像識別算法很容易混淆,無法像人類那樣立即或直觀地解釋環境背景。這種脆性還延伸到游戲等其他問題上。雖然人工智能在視頻游戲中經常表現出超人的能力,但它們往往無法將這種專長轉移到具有類似規則或游戲機制的新游戲中。

雖然人工智能技術在提高適應性方面不斷取得重大進展,但接近人類的人工通用智能仍然遙不可及。這部分是由于我們對人類處理信息時所涉及的生物學和化學--也就是通常所說的人類認知--的掌握令人驚訝地有限。神經科學家仍不完全了解大腦是如何運作的,這限制了以生物過程為基礎模擬數字過程的努力。因此,深度學習等人工智能技術與認知神經科學建立了共生互利的關系。人工智能技術的漸進式發展使評估人工智能的近期前景變得更加復雜。深度學習方法的成功在很大程度上助長了對人工智能的炒作,導致人們對該技術的未來抱有不切實際的期望,并將其巨大進步正常化。有人將此稱為 "人工智能效應"。一份報告指出:"人工智能將一項新技術帶入大眾,人們對這項技術習以為常,它不再被視為人工智能,而更新的技術出現了。" 一些人猜測,機器學習技術帶來的進步可能會趨于平緩,而另一些人則保持樂觀。一些人認為,將符號人工智能方法與各種形式的機器學習相結合的嘗試很有潛力。因此,近期前景仍不明朗。相關的技術進步,包括短期的計算機芯片設計和長期的量子計算,也可能影響人工智能進一步發展的步伐。

軍事行動中的人工智能

不過,對于許多軍事應用來說,狹義的人工智能應用已經綽綽有余。全球各國軍隊已在使用的許多算法解決方案都可被視為 "人工智能",而且不乏對人工智能用途的建議。人工智能可能帶來的軍事能力,是克里斯蒂安-布羅斯等分析家和羅伯特-沃克等前國防官員所設想的截然不同的未來作戰環境的一部分。如果這些關于人工智能影響的預測成真,它們將對行動的規劃和實施產生廣泛影響。現有和不久將來的應用可分為三類:數據整合與分析、自主系統和決策支持軟件。與大多數類型一樣,這些類別的邊緣并不完全清晰,有些應用跨越了多個標簽。但值得注意的是,從數據分析到自主系統,再到最終的決策支持應用,在軍事背景下利用人工智能的潛在后果--以及由此帶來的信任度不高的風險--都在增加。此外,在軍事力量結構中整合自主系統也會產生累積效應。信任人工智能來處理傳感器數據是允許自主系統與人類人員并肩作戰的必要步驟,而未來在戰役層面由人工智能支持的決策將需要更多一層的信任,這種信任關系建立在將自主系統投入實戰的軍事單元之間的人類-自主團隊合作所注入的信任關系之上。

數據整合與分析

在各種能力和平臺的運行中使用人工智能,普通用戶往往不會注意到,原因很簡單,因為人工智能在系統架構中發揮著綜合作用。這方面的例子包括民用衛星導航、互聯網搜索引擎或在線翻譯工具。軍事應用包括利用機器學習算法優化電磁頻譜使用的無線通信或雷達。對于無人駕駛或遙控飛機,機載算法允許傳感器獨立進行初步數據分析,從而減少帶寬需求。算法已經在一系列系統和平臺的傳感器數據分析中發揮了作用。

除了這些綜合應用外,有意識地積極使用人工智能進行數據分析還延伸到了情報、監視和偵察(ISR)工作中。正如詹姆斯-約翰遜(James Johnson)所指出的那樣,機器學習算法 "可以顯著改善現有的機器視覺和其他信號處理應用,從大量的信號和圖像數據集中識別模式,并增強自主性和傳感器融合應用"。美國空軍于2017年成立了算法跨職能小組,將人工智能應用于圖像分析,努力識別和跟蹤目標,并建立生活模式以提高態勢感知能力。在網絡空間,模式識別算法同樣可以確定網絡的正常運行模式,從而更容易識別可能預示著入侵者存在的偏差。利用人工智能進行公開來源情報(OSINT)分析可以識別個人,甚至對叛亂活動做出粗略的近期預測。全球信息主導實驗(GIDE)等實驗性人工智能應用軟件可從海量多源數據中篩選出模式和趨勢,從而對一系列未來事件做出預測。

自主系統

人工智能的第二類應用包括范圍廣泛的自主系統。自主是一個仍然難以準確或簡明定義的術語。聯合空中力量能力中心(JAPCC)在2016年的一份報告中對自動化與完全自主系統進行了區分,前者涉及機器執行人類設定的可預測、有界限的預定任務。作者將自主系統描述為:能夠決定自己的行動方針、不受預編程反應限制的深思熟慮的決策、具有學習和積累 "經驗 "的能力,因此其行動不再是完全可預測的。保羅-沙雷(Paul Scharre)和邁克爾-霍洛維茨(Michael Horowitz)在 2015 年的一篇論文中描述了自主性的三個維度: (a) 人機指揮和控制關系,通過確定人類是 "參與"、"開啟 "還是 "退出 "決策環路來簡化;(b) 機器或系統的復雜性和能力;以及 (c) 自動化功能的類型。

在人工智能方面,值得注意的是,自動化系統與自主系統之間的區別變得模糊。機器智能與實現自主系統的許多自動化功能高度相關,包括系統操作和自我診斷、自動駕駛儀、作戰軟件和目標跟蹤/識別以及自導武器。因此,"自主性 "描述的是一種獨立機器功能的滑動尺度,其中包含一系列變量,包括人機交互的程度、獨立感知和適應環境變化的能力、完成一系列預定目標的決策能力,以及不斷學習和改進這些決策的能力。

不那么嚴格的自主定義可能包括當前的軍事資產,如防空和導彈防御系統、反火箭或火炮系統、地面車輛主動防護系統、閑逛彈藥、先進巡航導彈和賽博能力。雖然目前大多數作戰領域都部署了自主系統,但下一代自主系統將利用人工智能實現更大程度的獨立,不受人類指揮的影響。目前正在開發的空間、海上、空中和地面平臺與系統,正如聯合咨詢理事會報告所概述的那樣,代表著一種質的演變,從戰術指揮官可利用的工具轉變為人類必須與之互動和合作的伙伴。

自主飛機不久將執行后勤任務,如運輸貨物或加油任務。俗稱 "忠誠僚機 "計劃的新作戰概念設想了與駕駛飛機并肩作戰的大型無人平臺,從而為傳感器聯網或增加彈藥提供了更多選擇,從而提高了戰術靈活性。自主艦艇將為海上指揮官提供類似的海上作戰能力,地面系統目前也在開發之中。新的制造工藝將降低生產成本,同時降低對可擴展人工智能軟件的尺寸、重量和功率要求。這將有可能部署大量的小型無人系統,這些系統將以蜂群編隊的形式進行控制和協調,并配備作戰管理和目標瞄準軟件,這些軟件可以快速上傳和更新,只需敲擊幾下鍵盤就能對系統進行有效的 "再訓練"。因此,自主系統有望增加戰場上平臺的總體數量。

決策支持和以決策為中心的戰爭

軍事指揮官在決策過程中已經依賴于機器智能,從算法推導的附帶損害估計,到防空和導彈防御系統的目標定位解決方案,不一而足。對于一系列系統而言,計算機生成的數據分析增強了對態勢的認識,并為作戰人員提供了選擇。未來的決策輔助工具可能會帶來進一步的發展。與目前耗時的作戰計劃模式相比,史蒂文-戴維斯認為,"當面對許多僅僅是合適、可行或完整的方案時,人工智能可以引導決策者找到最佳解決方案"。大量使用人工智能決策軟件的自主武器系統的引入可能會影響戰爭的作戰層面,特別是軍事行動的指揮與控制(C2)方面。

這個現在很常見的術語出現在 20 世紀 60 年代剛剛興起的信息技術時代,用來區分指揮的權力和責任,以及為指揮官控制行動的實施和執行創造必要條件的過程。雖然上級指揮官和政治領導人觀察特定戰術交戰已成為司空見慣的事,但如果部署了自主系統,作戰層面可能最適合由人類 "參與"。即使有了自動同步的水面艦艇或航空系統艦隊,仍需要以人為中心協調更廣泛的作戰行動。然而,在這種情況下,作戰計劃和協調可能需要人工智能的協助,以便保持有利和有效的戰斗節奏。

這就是所謂 "以決策為中心 "的作戰概念背后的動機。美國國防部高級研究計劃局(DARPA)提出的 "馬賽克戰爭"(Mosaic Warfare)概念,就是利用人工智能來協調分布式的部隊網絡。該概念提出了一種由人工指揮和機器控制的混合 C2 配置。指揮官根據人工智能對現有有人和無人部隊的概述,從人工智能生成的行動方案(COA)中選擇需要完成的任務。戴維斯概述的另一種方法是利用海上決策支持架構,中間層的人工智能基于保護、維持或火力等作戰功能。鑒于基于機器的快速決策所具有的明顯優勢,整合人工智能和自主系統的概念是一種合乎邏輯的進步,盡管這種進步雄心勃勃。當互聯的作戰空間允許不同但相互關聯的網絡進行數據融合時,這一點尤其適用。大量的可用信息可能會導致對機器智能的依賴,原因很簡單,因為需要機器認知來理解這些數據,并以有利的方式及時采取行動。

信任與機器智能

從傳感器數據到武器系統再到作戰決策支持,機器智能在軍事行動各個領域的預期作用表明,人們對人工智能的依賴程度越來越高。例如,北大西洋公約組織(NATO)倡議下的一份專家組報告建議,該軍事聯盟 "應鼓勵將人工智能納入戰略和行動規劃。它應利用人工智能驅動技術的力量,加強情景規劃演習和長期備戰。美國海軍最近發布的智能自主系統政策等官方聲明和出版物強調,信任是依賴的重要組成部分,其中包括人類應如何以及何時信任機器等問題。隨著機器智能越來越能勝任日益復雜的認知功能,并不斷磨練其獨立運作的能力,人類將需要把人工智能和自主系統視為合作伙伴,就像看待工具一樣。與任何伙伴關系類似,信任是人機有效合作的關鍵。

定義信任

信任是許多概念中的一個,最初看起來很直觀,但深入研究后會發現變得更加復雜。在過去的幾十年里,信任出現了多種定義和概念,這并不奇怪。一篇頗具影響力的文章的作者在回顧了為信任下定義的各種嘗試后得出結論:"這些定義凸顯了在信任是一種信念、態度、意圖還是行為方面存在的一些重要的不一致之處。這些區別具有重要的理論意義"。梅耶等人(1995 年)提出的一個流行定義認為,信任是 "一方基于對另一方將采取對信任者很重要的特定行動的預期,愿意受另一方行動的影響,而不管是否有能力監督或控制該方"。信任的最新簡化定義是 "在以不確定性和脆弱性為特征的情況下,認為智能體將幫助實現個人目標的態度"。脆弱性和風險的存在是信任的重要組成部分,因為它為錯誤的信任帶來了潛在的代價。

雖然人機協作的基本要素與人際關系不同,但許多基本要素具有可比性。Keng Siau 和 Weiyu Wang 指出,信任是動態的,通常是通過雙向互動逐步建立起來的,但也會受到最初印象的強烈影響。一些學者認為,信任的產生最初是通過對未來行為的可預測性,然后通過建立可依賴性的一貫行為反復確認,最后演變成一種類似于信仰的對可靠性的廣泛判斷。

對自動化的信任

影響自動化信任度的有三個類似因素。自動化過去和當前的表現,以及系統實際工作的信息,都與可預測性相似。有關自動化設計的細節,以及它是否能實現操作員設定的目標,可以揭示系統如何運行的相關有用信息,從而激發與可依賴性相同的動力。最后,自動化背后的目的或原理,以及自動化的使用是否符合設計者的意圖,具有類似于信仰的抽象傳遞性(相信設計者的意圖,因此相信自動化)。

在許多學者看來,在這一點上,人與人之間的關系和人類對機器的信任開始有所不同。人們通常會對陌生人持懷疑態度,并如上所述逐漸建立信任,而人類則通常會在最初基于信仰的基礎上期望機器能完美工作。當出現錯誤時,這種最初的信任會迅速消失,但信任最終會被可預測性和可靠性這些更持久的品質所取代。凱文-霍夫(Kevin Hoff)和馬蘇達-巴希爾(Masooda Bashir)在 2015 年對有關信任和自動化的學術文章進行了全面調查,并建立了一個由三部分組成的信任模型,該模型以對機器的初始信任(處置性信任)為起點,并加入了背景(情景信任)和經驗(習得性信任)。

他們認為,對自動化的傾向性信任是三者中最穩定的,受文化、年齡、性別和個性特征的影響最大。這些變量中的大多數都有明顯的影響,但傾向性并不明顯。文化(可定義為 "反映共同教育和生活經歷的一系列社會規范和期望")的作用是一個特別突出的因素。專業背景或技術培訓是影響個人如何對待自動化的一種文化差異。對權力和權威的態度,甚至是對個人或集體利益平衡的看法,也會產生影響。一項針對冰島、芬蘭和瑞典客戶對電子商務服務信任度的研究顯示,在傾向性信任方面存在顯著差異,芬蘭客戶的懷疑程度最高,而冰島客戶的信任程度最高。

除了性格信任的初始影響外,情境信任是該模型的第二個組成部分,在培養自動化信任方面發揮著重要作用。情境因素可能包括外部變量,如系統復雜性、影響自動化監控的操作員工作量、影響自動化風險和效益的環境因素或組織結構。被視為人類操作員 "內部 "的相關情景信任因素可能包括自信心、自動化領域的主題專業知識、操作員的專注能力(受壓力、睡眠、無聊、內部動機的影響),甚至是積極的情緒--這與自動化的初始信任水平較高有關。

該模型的第三個也是最后一個組成部分是 "習得信任",它包含與自動化信任相關的一系列變量。操作員通常對自動化已有一定的了解,無論是來自其他自動化系統的先前經驗,還是基于相關自動化的聲譽。甚至在操作員與系統互動之前,對自動化的期望和對其性能的二手了解就會影響信任度。最初的交互首先會受到自動化系統設計特點的影響:其外觀、易用性、通信模式和透明度。與人機界面有關的設計選擇,如顯示屏布局或語音命令類型,在激發信任方面可發揮重要作用。一旦通過先前的經驗或系統本身的設計特點建立了最初的信任度,操作員就會不斷動態地衡量自己的信任度。這可能取決于可靠性、可預測性、系統實用性以及錯誤發生的時間和方式(包括如何提醒操作員)等因素。

信任校準和錯位

人們一直致力于在人類與自動化系統之間建立信任,但過去的經驗表明,過度信任也會帶來問題。與自動化 "過度信任 "或濫用相關的最常見傾向包括自滿情緒和自動化偏見。操作員在監督基本可靠的自動化系統時往往會產生自滿情緒,從而降低對日常監控的警惕性,并認為系統運行正常--這一點不足為奇。與此相關的一個問題是自動化偏差,即人類操作員未能對自動化故障做出反應,或按照自動化建議做出錯誤決定。一項研究得出結論,使用計算機生成的除冰程序建議系統的飛行員,只要計算機提供的建議正確,其表現就會優于沒有該輔助系統的飛行員,但如果建議不正確,其表現就會更差。在另一項研究中,隨著自動化水平的提高,負責戰斧巡航導彈飛行中重新瞄準的操作員似乎更容易接受自動化建議,這表明存在自動化偏差。

自動化偏差似乎是造成一些商用飛機災難的原因,包括 2009 年法國航空 447 號航班的失事。資深記者威廉-蘭格維什(William Langewiesche)在 2014 年根據從飛機飛行記錄器中恢復的駕駛艙機組人員對話撰寫的一篇關于空難的詳細文章中,將自動化作為一個促成因素。Langewiesche 認為,飛行員已經習慣于依賴自動飛行輔助設備,而故障空速指示器的誤導信息造成了不確定性,使他們無法理解飛機的實際情況。這導致了一連串錯誤的決定,以及屢次未能做出適當--回想起來相對簡單--的調整,而這些調整本可以避免悲劇的發生。他簡明扼要地總結道:"自動化使得普通的航空公司飛行員越來越不可能在飛行中面臨原始的危機--但同時也使得他們越來越不可能在危機出現時能夠應對這種危機"。

開發人員通常不會專注于如何提高人類對自動化系統的信任度,而是努力激發與系統能力相關的校準信任度。信任校準簡單地描述了這樣一個過程:人類與機器自動化或機器智能的交互努力達到一種理想狀態,在這種狀態下,人類根據機器智能的優缺點對其給予適當的信任。以適當校準的信任度為目標,過度信任可以理解為超出系統能力的信任,而不信任則描述了與之相反的情況,即操作員對系統的信任程度低于其能力要求。實現適當的信任度調整聽起來很簡單,但往往會因人類的正常反應而變得復雜。如上所述,操作員在使用系統,尤其是機器智能系統時,通常對其性能有很高的期望。當錯誤發生時,人類操作員往往會過度修正自己的信任度,將期望值降低到低于系統能力的水平--從而直接從過度信任過渡到不信任。

自動系統與自主系統

過去幾十年來,對人機協作的大部分研究都集中在自動化系統上。一個幾乎沒有明確答案的基本問題是,自動化系統與自主系統在多大程度上存在差異。前面提到的區別是僵化的、預先確定的和可預測的自動化任務與不受約束的、動態的和不可預測的自主性之間的區別。最近一篇關于人類自主團隊的調查文章指出:"兩者之間的劃分是一個程度問題,差異是一個移動的目標......在哪一點上,自動化可能更適合描述為自主,這是一個開放的問題"。

因此,在實踐中,這種區分更多的是分級的,也許更好理解為一個連續體,一端是自動化功能,另一端是自主功能。即使是這種分級方法,其效用也是有限的。一旦我們對自主功能的性能和可靠性越來越滿意,就會逐漸將其視為更類似于自動化的功能。為了進一步細化,自主系統甚至可能具有自動化功能。由人工智能支持的自主網絡防御系統可以獨立行動,以不可預測和無腳本的方式處理威脅,但網絡防御系統本身可能被認為是自動化的。

希瑟-羅夫(Heather Roff)和戴維-丹克斯(David Danks)在一篇發人深省的文章中論述了自主武器系統中的信任問題,他們對類似的二元論態度提出質疑,將自主系統分為兩種:一種是工具,"在這種情況下,行為的可靠性和可預測性足以'信任'系統";另一種是 "具有價值觀和偏好的道德主體,在這種情況下,'信任'的門檻將大大提高"。同樣,托馬斯-奧尼爾(Thomas O'Neill)等人提出了基于計算機的 "自主智能體"(autonomous agents)概念,即 "代表團隊中獨特角色的獨特實體,否則這些角色就必須由人類來擔任"。雖然羅夫和丹克斯對道德代理與工具的二元概念并不認同,但這種區分在概念化信任自動化與信任自主性之間的差異方面還是有一定價值的。自主智能體并不是簡單地在特定情況下執行預先設定的行動,而是在更大程度上依賴于某種類似于判斷的東西。對這種判斷的信任,結合了與自動化系統性能有關的傾向性信任和情境信任,以及對過程和目的的更多關注,這就需要對智能體的價值觀和偏好有更深入的了解。

戰場上的人工智能與信任校準

只要人類操作員對所操作的系統有適當的信任度,機器智能提供新能力和提高現有能力的潛力就能成為軍事行動的一個重要因素。正如霍夫和巴希爾所言,"就像在人際關系中一樣,信任在決定人類是否愿意在不確定的情況下依賴自動化系統方面起著主導作用"。在聯盟或聯軍行動中,如果一些成員國在人機協作方面已經建立了良好的校準關系,而另一些成員國則沒有,那么就會出現互操作性問題。信任校準并不一定能傳遞給不同文化背景的人員。然而,即使在每個國家的軍隊內部,信任校準問題也可能因機器智能所執行的上述三類任務(數據整合與分析、自主武器系統和決策支持)而有所不同。

人工智能數據集成與分析的信任校準

對于許多軍事應用而言,機器智能所扮演的角色已經完全融入系統架構,甚至可能無法察覺。這些應用包括自動語言翻譯工具、由人工智能引導的通信設備頻率選擇、整合傳感器數據為平臺操作員創建戰場整體視圖,或由智能數字實體監控計算機網絡以發現入侵跡象。對于這些類型的功能,人工智能正在做出 "選擇 "并影響人類操作員對態勢的理解,這反過來又會對認知和人類決策產生影響。這種機器智能的使用更符合自動化系統的定義。因此,信任校準問題更為人所熟知,研究也更為深入。

一個直接而明顯的問題是,大多數操作人員可能會對這類系統給予高度的處置性信任或初始信任,甚至可能沒有意識到人工智能對信息環境的塑造程度。軍事應用中適當的信任校準可能涉及人機界面的設計特點,既能激發信任,又能提供足夠的透明度,特別是在機器智能據以得出結論的數據的穩健性方面。一項研究建議,智能體應具備評估自身自信心的能力,包括自身知識庫的不確定性、自身運行狀態的不確定性以及推理過程的不確定性。當然,這也會受到與決策過程本身相同的弱點的影響,但可以對人類的自動化偏差傾向進行有益的糾正。

人類操作員依賴機器智能進行態勢感知所面臨的另一個挑戰是時間性的。在未來的沖突中,可用于做出決策的時間可能會被嚴重壓縮,從而促使對機器認知的依賴。當被迫迅速采取行動時,人類可能會選擇不分析智能體的自信水平,或在做出時間緊迫的決策時嚴格評估人工智能生成的數據。在某些領域,其他傳感器可能會提供有用的輔助驗證來源,而人類在其他情況下可能會完全依賴機器智能提供的信息。網絡領域的人工智能工具是數據分析和自主系統之間的復雜混合體,因為機器智能可以監控網絡以防止潛在的入侵,并使進攻性網絡武器能夠分析和規避對手的智能防御。對這些工具進行獨立驗證以確保充分的態勢感知可能具有挑戰性,特別是考慮到作戰時間的限制。

自主系統的信任校準

與物理世界中的自主系統--無論是地面 "packbot "系統、無人駕駛加油機、自主水面艦艇還是自主武器系統--的交互涉及與上述算法實體相同的問題,但也涉及人類自主團隊合作的其他獨特和具有挑戰性的方面。這些系統更真實地體現了在團隊中扮演特定角色的智能體,通常從人際交互(HAI)的角度進行討論。因此,成功的人際團隊合作的特征具有更大的相關性,包括強有力的溝通、有關意圖和動機的共享心理模型,以及可預測和協作行動的能力。

在美國國防部自主研究試點計劃的支持下進行的一項研究考察了一個軍事單元與其自主 "packbot "小隊成員之間的互動,發現顯示機器人意圖和邏輯的數據加強了信任的一些基本基礎,如態勢感知和理解。隨著操作員對智能體的使用越來越熟練,經驗越來越豐富,這種透明度可以增強學習信任。有許多透明模式是可能的,包括交流智能體的意圖和目標結構,或其對任務的理解;側重于智能體內部運作和算法的分析模型;交流智能體對外部環境的理解;或強調團隊內部分工的團隊合作模式。

透明度是加強人類-自主團隊合作的一個潛在設計特征。與機器界面相關的工程細節可以在激發信任與鼓勵過度信任之間取得適當平衡。自然語言處理和合成語音技術已經取得了長足進步,實現了人類與機器人之間的對話交流,提高了透明度和信任度。將人類特征賦予智能體是一種自然的心理現象,可以加強合作,但擬人化也可能產生負面影響,包括對爆炸物處理機器人產生不幸的情感依戀,或因類似人類的語言模式而鼓勵對智能體的過度信任。

在人類與智能體的最初互動中,傾向性信任可能影響最大。例如,澳大利亞的一項研究認為,軍人對自主武器系統持有根深蒂固的懷疑態度。然而,隨著時間的推移,實現適當的信任校準可能主要取決于情景信任和學習信任。在高風險情況下,是依靠機器智能,還是將關鍵任務留給其他人,即使這一選擇并不理想,人類的判斷最終可能是高度個人化的。與人類團隊合作一樣,這種決定往往基于以往類似情況下的經驗,這表明與智能體一起進行綜合培訓練習可以成為信任校準的重要組成部分。與自主系統一起進行培訓被認為是鼓勵信任人類自主團隊合作的合理步驟,而且還能提供額外的人工智能培訓數據。Roff 和 Danks 提醒說,訓練的環境也可能會產生影響,并強調了基礎訓練等低風險環境與模擬戰場環境的更高級演習之間的差異。此外,他們還建議在每個單元內創建一個自主智能體 "聯絡官",與系統密切合作,了解其邏輯、動機和流程,從而利用信任的傳遞屬性。這樣,單元其余成員的信任校準可能會更容易通過聯絡官傳達,不過這種方法也有其局限性。

作戰決策支持系統的信任校準

上文討論的與有效的人類自主團隊合作有關的問題將對次戰術和戰術層面產生直接影響,但在戰場上部署自主系統可能也會帶來作戰層面的調整。更多獨立運行的自主平臺--以及以機器速度進行的戰術決策--將給人類認知帶來挑戰,并可能成為破壞對手決策循環的限制因素。考慮到對手可能在多個領域構成的威脅,以及充分、迅速地做出反應所需的信息量,一位美國軍事領導人得出結論說,如果沒有機器智能管理數據的幫助,"二十世紀的指揮官將無法在這種環境中生存"。機器智能在作戰層面的應用很可能是累積性的,它融合了前兩節討論的信任帶來的好處和風險,并增加了另一層復雜性。

在作戰層面利用機器智能提供決策支持,與戰術層面的數據分析有明顯的相似之處,特別是容易出現自動化偏差,以及容易忽視人工智能有時微妙的決策效果。此外,潛在的自主武器或平臺協調群(甚至可能是蜂群)的增加也給現有的 C2 程序(如聯合瞄準)帶來了新的挑戰,這些程序本身可能需要在節奏更快、動態性更強的環境中實現自動化。對于作戰規劃人員來說,人機信任因素成為評估作戰單元準備狀態和效能的又一因素。以決策為中心的戰爭概念將人工智能直接納入指揮與控制結構,可能是自主性最引人注目的應用。隨著持續新聞報道和社交媒體的出現,人們對戰術決策失誤可能產生的戰略影響的認識變得更加深刻。在軍事領域,人類自主團隊合作的一個重要部分是考慮自主智能體是否有能力在意識到沖突的戰略和政治背景的情況下,以及在國際武裝沖突法的法律框架內采取行動。隨著人工智能輔助的信息流和對自主平臺群的自主控制與自主代理在戰術層面的行動后果相結合,這種考慮在作戰層面變得大大放大。由于決策時間被壓縮、確認偏差以及機器學習的臨床成本效益獎勵制度,機器智能和自主系統可能導致沖突升級,因此這一點尤其值得關注。

信任是一種發生在不確定性和風險情況下的現象。機器智能有可能通過減少處于危險中的人員和改進信息處理以增強態勢感知來緩解作戰計劃和控制的這兩個方面。正如最近一篇文章所指出的,用于算法戰爭的人工智能必須保持靈活性并降低作戰復雜性,包括 "獨立制定和裁定行動方案 "的能力。信任機器智能體作為 "環路中 "的道德代理人來規劃和批準具體的作戰行動,這涉及到讓自主代理人適當評估戰術決策的充分舒適度,而這本身就涉及到某種基于機器的 "信任"。正如戴維斯所言,在作戰層面,基于人工智能的決策支持架構 "將充當一個受信任的智能體,濃縮指揮官負責的信息量"。現有研究表明,監督或管理自主智能體的操作人員應獲得盡可能多的態勢數據,特別是一些研究表明,隨著自主智能體數量的增加,態勢感知能力也會下降。對于作為 "環路 "上的人而管理智能體的指揮官來說,加強對態勢的了解已被證明比簡單地提供供操作員選擇的選項更有效。

另一個可能出現的與信任和機器智能有關的問題是信任和戰術優勢的矛盾性。現有研究表明,在類似情況下可預測的行為會產生信任,但如果對手擁有類似的數據分析工具并能預測算法模式,這種可預測性就可能成為戰場上的弱點。只需觀察幾次智能體的算法戰術和行為,就可能預測到它們的行動,從而予以反擊。當然,可以在智能體的行為中加入適應性,避免在空戰中重復相同的動作,但這種缺乏可預測性的情況將使人類與自主體之間的信任更具挑戰性,無論這種信任在戰術意義上如何有利。此外,對手可能會干擾自己的訓練數據或算法,這仍然是一個令人擔憂的問題,也是人們持懷疑態度的正當理由。

這些戰術和戰役層面的問題會造成一系列戰略困境。時間限制可能迫使人類操作員將決策過程的重要環節讓給智能體,以獲得對對手的優勢。在美國陸軍進行的虛擬實驗中,人類傾向于對其無人機群進行微觀管理,由于人類認知速度較慢,一直被人工智能控制的單元擊敗。這種態勢很可能會鼓勵操作人員為了權宜之計而放棄對智能體的可信度進行冷靜評估。人類在決策中的認知能力逐漸降低,可能會對各級威懾和升級控制產生不可預測的戰略影響,尤其是在涉及信任問題時。正如詹姆斯-約翰遜(James Johnson)所言,"人工智能對戰略穩定的威脅所造成的不確定性,可能是對手夸大了對其有效性的信任,也可能是(也許更令人擔憂的)錯誤地認為某種特定的人工智能能力在行動上是有效的,而實際上并非如此"。

結論

自主系統的軍事應用顯然將繼續擴大,因為對決策者的激勵似乎大于風險。機器智能代表了一套獨特的技術,它超越了武器系統在射程、速度或精度方面的漸進式改進。這三類中的每一類智能體都有可能以不可預測的方式改變戰場,這對正在尋找將人工智能技術融入現有和計劃中的部隊結構的最佳手段的軍事領導人來說,既是危險也是機遇。鑒于戰爭仍然是以人為本的事業,人類自主團隊的重要性可能會成為軍事行動中越來越重要的一個方面。

關于人類與自主團隊合作中的信任問題,基于研究的知識是廣泛而全面的,但大部分實證數據自然主要與從自動化到自主化的滑動尺度中自動化程度較高的過程有關。考慮到機器智能在軍事領域的預期功能,這項研究的大部分內容仍然具有很強的現實意義--尤其是與性格信任相關的文化差異方面或自動化偏差等常見現象。適當的信任校準所面臨的挑戰因應用的類型和類別而異,與用于 ISR 數據分析的集成機器學習軟件相比,激發人類對物理自主系統的充分信任可能更具挑戰性。歸根結底,實現適當和校準的信任水平對于最大限度地發揮人工智能的潛力仍然至關重要。

付費5元查看完整內容

在未來戰場上,人工合成的決策將出現在人類決策的內部和周圍。事實上,人工智能(AI)將改變人類生活的方方面面。戰爭以及人們對戰爭的看法也不例外。特別是,美國陸軍構想戰爭方式的框架和方法必須進行調整,以便將非情感智力的優勢與人類情感思維的洞察力結合起來。人工智能與人類行動者的組合有可能為軍事決策提供決定性的優勢,并代表了成功軍事行動的新型認知框架和方法。人工智能在軍事領域的應用已經開始擴散,隨之而來的作戰環境復雜性的增加已不可避免。

正如核武器結束了第二次世界大戰,并在二十世紀阻止了大國沖突的再次發生一樣,競爭者預計人工智能將在二十一世紀成為國家力量最重要的方面。這項工作的重點是美國陸軍的文化,但當然也適用于其他企業文化。如果要在未來有效地利用人工智能,而且必須這樣做才能應對競爭對手使用人工智能所帶來的幾乎必然的挑戰,那么成功地融入人工智能工具就需要對現有文化進行分析,并對未來的文化和技術發展進行可視化。美國將致力于在人工智能的軍事應用方面取得并保持主導地位。否則將承擔巨大風險,并將主動權拱手讓給積極尋求相對優勢地位的敵人。

結論

合成有機團隊認知的兩大障礙是美陸軍領導的文化阻力和軍事決策的結構框架。首先,也是最重要的一點是,領導者必須持續觀察人工智能工具并與之互動,建立信心并接受其提高認知能力和改善決策的能力。在引入人工智能工具的同時,幾乎肯定會出現關于機器易犯錯誤或充滿敵意的說法,但必須通過展示人工智能的能力以及與人類團隊的比較,來消除和緩和對其潛在效力的懷疑。將人工智能工具視為靈丹妙藥的健康而合理的懷疑態度有可能會無益地壓倒創新和有效利用這些工具的意愿。克服這一問題需要高層領導的高度重視和下屬的最終認可。其次,這些工具的結構布局很可能會對它們如何快速體現自身價值產生重大影響。開始整合人工智能工具的一個看似自然的場所是在 CTC 環境中,以及在大型總部作戰演習的大型模擬中。最初的工具在營級以下可能用處不大,但如果納入迭代設計、軍事決策過程或聯合規劃過程,則幾乎肯定會增強營級及以上的軍事規劃。雖然在本作品中,對工具的描述主要集中在與指揮官的直接關系上,但在最初的介紹中,與參謀部的某些成員(包括執行軍官或參謀長、作戰軍官和情報軍官)建立直接關系可能會更有用。與所有軍事組織一樣,組織內個人的個性和能力必須推動系統和工具的調整,使其與需求保持平衡。

幾乎可以肯定的是,在將人工智能工具融入軍事組織的初期,一定會出現摩擦、不完善和懷疑。承認這種可能性和任務的挑戰性并不意味著沒有必要這樣做。人類歷史上幾乎所有的創新都面臨著同樣的障礙,尤其是在文化保守的大型官僚機構中進行創新時。面對國際敵對競爭對手的挑戰,美國陸軍目前正在文化和組織變革的許多戰線上奮力前行,在整合人工智能工具的斗爭中放棄陣地無異于在機械化戰爭之初加倍使用馬騎兵。在戰爭中,第二名沒有可取的獎賞,而人工智能在決策方面的潛在優勢,對那些沒有利用這一優勢的行為體來說,是一個重大優勢。現在是通過擁抱人工智能工具和改變戰爭節奏來更好地合作的時候了。

付費5元查看完整內容

人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。

人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。

電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。

將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。

在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。

此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。

人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。

不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。

最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。

最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。

付費5元查看完整內容

美國陸軍近年來提出了 "信息優勢 "的概念,即士兵有能力比對手更快地做出決策和采取行動。陸軍現在認為,人工智能是實現這一戰略的關鍵。

人工智能的普及程度和能力都有了爆炸式的增長,ChatGPT 等大型語言模型和其他人工智能系統也越來越容易為大眾所使用。在工業界和美國防部,許多人都在探索將該技術用于軍事應用的可能性,陸軍也不例外。

陸軍賽博司令部司令瑪麗亞-巴雷特(Maria Barrett)中將說,人工智能具有 "真正、真正推動變革的最大潛力......但它也給我們帶來了非常、非常現實的挑戰,以及整個信息維度的挑戰"。

負責政策的國防部副部長辦公室副首席信息作戰顧問、陸軍少將馬修-伊斯利(Matthew Easley)說,軍方正在經歷 "從傳統的信息作戰,即我們如何將不同的信息效果結合起來,為我們的行動創造我們想要的協同效應 "到新的信息優勢概念的轉變。

伊斯利在 6 月份美國陸軍協會的一次活動中說,這一概念的目標是確保陸軍在信息環境中掌握 "主動權","能夠看清自己、了解自己并更快地采取行動"。他說,信息優勢包括五大功能:輔助決策;保護士兵和軍隊信息;教育和告知國內受眾;告知和影響國外受眾;以及開展信息戰。

他補充說:"所有這五個領域都可以利用人工智能和機器學習取得一定效果"。

伊斯利在 2019 年幫助建立了陸軍人工智能兵力工作組。但他說,在他任職期間,該小組在全軍范圍內采用人工智能時遇到了兩個挑戰:遷移到混合云環境和移動設備。

陸軍將 "繼續擁有大量的傳統數據中心,但隨著我們需要激增,我們需要在全球范圍內移動--云環境使我們更容易開展全球業務,"他說。根據陸軍預算文件,陸軍正在為2024財年申請4.69億美元,用于向云過渡和數據環境投資。

巴雷特在 AUSA 會議上說: "沒有數據存儲庫,就無法實現人工智能和機器學習"。陸軍賽博司令部對其大數據平臺進行了大量投資,將 "進入我們平臺的數據流數量翻了一番,解析器翻了一番,我們現在存儲的數據存儲量也翻了一番,"她說。她說:"我們將繼續沿著這條軌跡前進,這意味著我們已經準備好開始利用 "人工智能能力"。

她說,對于指揮部來說,人工智能主要用于網絡防御,但在 "信息層面 "也有應用。"引入各種不同的信息源......并真正了解特定環境的信息基線,這意味著什么?所有這些都對我們大有幫助,而且我認為這只會不斷擴大"。

伊斯利說,移動設備的普及大大增加了潛在的饋送量,但也會擴大對手的潛在目標。這些設備 "有很多功能,也有很多漏洞。我們必須考慮并使用人工智能......既能保護我們自己,又能管理我們擁有的大量數據"。

陸軍參謀長詹姆斯-麥康維爾(James McConville)將軍在6月的一次媒體吹風會上說,在潛在沖突中,人工智能可以幫助士兵整理所有數據,并將正確的信息 "送到箭筒中"。

根據陸軍預算文件,陸軍正在為2024財年的人工智能和機器學習申請2.83億美元,其中包括用于增強自主實驗的研發資金,以及為集成視覺增強系統、可選載人戰車(最近被重新命名為XM30機械化步兵戰車)、遠程戰車、TITAN地面站和 "具有邊緣處理功能的更智能傳感器 "等系統的人工智能/機器學習項目活動提供資金。

"陸軍部長克里斯蒂娜-沃穆斯(Christine Wormuth)在簡報會上說:"我們當然在尋找如何利用人工智能使我們的能力(包括新能力和正在開發的能力)更加有效。她說,陸軍尤其在 "融合項目"(Project Convergence)演習中使用了人工智能目標定位程序。

融合項目是陸軍對國防部聯合全域指揮與控制概念的貢獻,該概念旨在通過網絡將傳感器和射手聯系起來。陸軍發布的一份新聞稿稱,在2022年底的上一次演習中,參演人員使用了陸軍的 "火風暴 "系統--"一種人工智能驅動的網絡,將傳感器與射手配對",向參加實驗的澳大利亞兵力發送情報。

麥康維爾說,軍方還將人工智能用于預測性后勤工作。他說:"我們正在使用人工智能來幫助我們預測所需的零部件,這對龐大的軍隊來說意義重大"。

除了簡單的維護之外,預測性后勤還涉及陸軍的不同供應類別,如燃料和彈藥,"以及我們如何看待消耗,如何預測在哪里可以將正確的供應品送到需要的地方",負責維持的陸軍副助理部長蒂莫西-戈德特(Timothy Goddette)說。

戈德特在國防工業協會戰術輪式車輛會議上說:"我們的目標是提前計劃這些物資需要運往何處或何時需要進行維護,而不是作出反應。

他說:"如果計劃的維護是正確的,但條件是錯誤的--如果你處于低[操作]節奏,我們如何改變計劃的維護?如果你處于炎熱、寒冷或腐蝕性環境中,你該如何改變維護計劃?這可能正是我們需要思考的地方。"

他補充說,在數字化世界中,陸軍必須 "學會如何使用數據和以不同的方式使用數據"。"我承認,我們還沒有完全弄懂[預測性后勤]。我們確實需要大家的幫助來思考這個問題。

McConville 和 Wormuth 說,人工智能未來的其他應用還包括人才管理和招聘。"Wormuth 說:"人工智能可能有辦法幫助我們以人類不擅長的方式識別優質線索或潛在客戶。

不過,McConville 強調,在使用人工智能時,"人在回路中 "非常重要。

他說:"實際做所有工作的可能不是人,但我們會看到人工智能幫助我們更好地完成工作。"但與此同時,我們也希望有人能說'發射這個武器系統',或者至少能考慮到這一點。"

巴雷特贊同麥康維爾的說法:"每個人都會把[人工智能]當成一臺機器。但是......你猜怎么著:每個玩過 ChatGPT 的人--是的,是人在喂養那臺機器。"

伊斯利說,隨著陸軍引入人工智能系統,士兵們可以做四件事來幫助技術正常成熟:收集和注釋數據;使用這些數據訓練人工智能模型;使用這些模型來檢驗它們是否有效;以及幫助改進模型。

他說,軍方在收集數據方面做得 "很好","但軍隊中仍有很多數據我們沒有完全捕捉到......我們可以利用這些數據來訓練我們自己的大型語言模型。"要使這些模型對我們的領域有效,我們必須在我們的數據上進行訓練。因此,我們必須研究:我們的人力資源數據是什么?我們的人力資源數據是什么?我們的醫療數據是什么?我們的業務數據是什么?我們的情報數據是什么?我們如何在受控環境下利用這些數據來建立更好的模型?

他說,這些模型必須根據軍隊的數據進行快速訓練和再訓練,以便不斷改進。他以自己手機上的餐廳推薦算法為例,"它之所以這么好,是因為它有10年的時間,我只告訴它我喜歡世界上哪些餐廳"。

伊斯利說,雖然他們將來可能會收到人工智能的推薦,但武器系統將始終由人類來管理,但 "其他系統,如果不是那么關鍵的話......[機器]可以做出決定"。不過,他補充說,人類將對人工智能進行培訓,使其在執行陸軍任務時可以信賴。"他說:"你不會質疑你的地圖算法告訴你在城市中往哪里走--你知道該算法比你掌握更好的信息。但是,"我們如何獲得數據背后的真實性,讓我們能夠相信模型的內容、模型是如何訓練的,以及我們是如何使用它的?我認為這都是......人類的努力"。

參考來源:NDIA網站;作者:Josh Luckenbaugh

付費5元查看完整內容

在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。

在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。

本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。

付費5元查看完整內容

數學推理是人類智能的一個基本方面,可應用于科學、工程、金融和日常生活等各個領域。能夠解決數學問題和證明定理的人工智能系統的發展引起了機器學習和自然語言處理領域的重大興趣。例如,數學是對強大的深度學習模型具有挑戰性的推理方面的測試平臺,推動新的算法和建模的進步。另一方面,大規模神經語言模型的最新進展為使用深度學習進行數學推理開辟了新的基準和機會。本文回顧了過去十年數學推理和深度學習交叉點的關鍵任務、數據集和方法。對現有的基準和方法進行了評估,并討論了該領域未來的研究方向。

1. 引言

數學推理是人類智能的一個關鍵方面,它使我們能夠根據數字數據和語言來理解和做出決定。它適用于科學、工程、金融和日常生活等各個領域,涵蓋了從模式識別和數值運算等基本技能到解決問題、邏輯推理和抽象思維等高級技能的一系列能力。能夠解決數學問題和證明定理的人工智能(AI)系統的發展一直是機器學習和自然語言處理(NLP)領域的一個長期研究重點,可以追溯到20世紀60年代(Feigenbaum et al., 1963;Bobrow, 1964)。近年來,人們對這一領域的興趣激增,如圖1所示。

深度學習在各種自然語言處理任務中表現出巨大的成功,如問答和機器翻譯(Sutskever等人,2014;Devlin等人,2018)。類似地,研究人員開發了各種用于數學推理的神經網絡方法,已被證明在解決數學應用題解決、定理證明和幾何問題解決等復雜任務方面是有效的。例如,基于深度學習的數學應用題解決者采用了一種帶有注意力機制的序列到序列框架來生成數學表達式作為中間步驟(Wang et al., 2018a;Chiang and Chen, 2019)。此外,通過大規模語料庫和Transformer模型(Vaswani et al., 2017),預訓練語言模型在各種數學任務上取得了有希望的結果。最近,像GPT-3 (Brown et al., 2020)這樣的大型語言模型(LLM)在復雜推理和上下文學習方面表現出了令人印象深刻的能力,進一步推進了數學推理領域。

最近在數學推理研究方面的進展令人印象深刻和鼓舞人心。本文綜述了深度學習在數學推理中的進展。本文討論了各種任務和數據集(第2節),并研究了神經網絡(第3節)和預訓練語言模型(第4節)在數學領域的進展。本文還探索了基于大型語言模型的上下文學習的快速進展(第5節),用于數學推理。進一步分析了現有的基準,發現對多模態和低資源設置的關注較少(第6.1節)。循證研究表明,當前的數值表示是不夠的,深度學習方法對于數學推理不一致(第6.2節)。從泛化和魯棒性、可信推理、從反饋中學習和多模態數學推理等方面改進當前的工作是有益的(第7節)。

2 任務和數據集

在本節中,我們將研究目前用于使用深度學習方法進行數學推理研究的各種任務和數據集。表2列出了該領域常用的數據集。

2.1 數學應用題解決

幾十年來,開發自動解決數學應用題(MWPs)的算法一直是NLP研究人員的興趣(Feigenbaum et al., 1963;Bobrow, 1964)。數學應用題(也稱為代數或算術應用題)描述了一個簡短的敘述,涉及字符、實體和數量。MWP的數學關系可以用一組方程來建模,這些方程的解揭示了問題的最終答案。一個典型的例子如表1所示。作題涉及加、減、乘、除四種基本算術運算,有一個或多個運算步驟。NLP系統中MWPs的挑戰在于對語言理解、語義解析和多種數學推理技能的需求。

2.2 定理證明

自動化定理證明是人工智能領域長期以來的挑戰(Newell等人,1957;Feigenbaum et al., 1963)。問題是要通過一系列邏輯論證(證明)來證明一個數學主張(定理)的真實性。定理證明測試了各種技能,例如選擇有效的多步策略,使用背景知識和執行符號操作(例如算術或推導)。

2.3 幾何解題

自動幾何問題求解(GPS)也是數學推理研究中一個長期存在的人工智能任務(Gelernter et al., 1960; Wen-Tsun, 1986; Chou et al., 1996; Ye et al., 2008),近年來備受關注。與數學應用題不同,幾何問題由自然語言的文本描述和幾何圖形組成。如圖2所示,多模態輸入描述了幾何元素的實體、屬性和關系,目標是找到未知變量的數值解。GPS對于深度學習方法來說是一項具有挑戰性的任務,因為它需要復雜的技能。它涉及到解析多模態信息、進行符號抽象、利用定理知識和進行定量推理的能力。

2.4 數學問答

數值推理是人類智能中的核心能力,在許多自然語言處理任務中發揮著重要作用。除了定理證明和年級數學應用題解決,還有廣泛的以數學推理為中心的問答(QA)基準。本文將這些任務稱為數學問答(MathQA)。近年來出現了大量的數據集。例如,QuaRel (Tafjord et al., 2019)是一個包含不同故事問題的數據集,涉及19種不同類型的數量。McTaco (Zhou et al., 2019)研究的是時間常識問題,而Fermi (Kalyan et al., 2021)研究的是費米問題,其答案只能近似估計。

3 用于數學推理的神經網絡

3.1 數學的Seq2Seq網絡

序列到序列(Seq2Seq) (Sutskever et al., 2014)神經網絡已成功應用于數學推理任務,如數學應用題解決(Wang et al., 2017)、定理證明(Yang and Deng, 2019)、幾何問題解決(Robaidek et al., 2018)和數學問答(Tafjord et al., 2019)。Seq2Seq模型使用編碼器-解碼器架構,通常將數學推理形式化為序列生成任務。這種方法背后的基本思想是將輸入序列(例如數學問題)映射到輸出序列(例如方程、程序和證明)。常見的編碼器和解碼器包括長短期記憶網絡(LSTM) (Hochreiter和Schmidhuber, 1997)、門控循環單元(GRU) (Cho等人,2014)以及它們的雙向變體:BiLSTM和BiGRU。DNS (Wang et al., 2017)是第一項使用Seq2Seq模型將應用題中的句子轉換為數學方程的工作。大量工作表明,Seq2Seq模型比之前的統計學習方法具有性能優勢(Ling et al., 2017; Wang et al., 2018a; Huang et al., 2018; Chiang and Chen, 2019; Wang et al., 2019; Li et al., 2019)。

3.2基于圖的數學網絡

Seq2Seq方法在生成數學表達式和不依賴手工特征方面表現出優勢。數學表達式可以被轉換成一種基于樹的結構,例如抽象語法樹(AST)和一種基于圖的結構,它描述了表達式中的結構化信息。然而,Seq2Seq方法沒有顯式地對這些重要信息進行建模。為了解決這個問題,基于圖的神經網絡被開發出來顯式地建模表達式中的結構。 序列到樹(Seq2Tree)模型在編碼輸出序列時顯式建模樹結構(Liu et al., 2019a; Xie and Sun, 2019; Wu et al., 2020; Zhang et al., 2020a; Zaporojets et al., 2021; Qin et al., 2021; Wu et al., 2021b; Lin et al., 2021; Hong et al., 2021a)。例如,(Liu et al., 2019a)設計了一個Seq2Tree模型,以更好地利用來自方程的AST的信息。相反,Seq2DAG (Cao et al., 2021),在生成方程時應用了序列圖(Seq2Graph)框架,因為圖解碼器能夠提取多個變量之間的復雜關系。在編碼輸入的數學序列時,也可以嵌入基于圖的信息(Zhang et al., 2020b; Shen and Jin, 2020; Li et al., 2020b; Wu et al., 2021a)。例如,ASTactic (Yang and Deng, 2019)在ast上應用TreeLSTM (Tai et al., 2015)來表示定理證明的輸入目標和前提。 3.3基于注意力的數學網絡

注意力機制已成功應用于自然語言處理(Bahdanau等人,2014)和計算機視覺問題(Xu等人,2015;Woo等人,2018),在解碼過程中考慮了輸入的隱藏向量。最近,研究人員一直在探索它在數學推理任務中的有用性,因為它可以用來識別數學概念之間最重要的關系。例如,Math-EN (Wang et al., 2018a)是一個數學應用題解決程序,受益于通過自注意力學習到的長距離依賴信息。基于注意力的方法也被應用于其他數學推理任務,如幾何問題求解(Robaidek等人,2018;Chen et al., 2021a)和定理證明(Yang and Deng, 2019)。人們對各種注意力機制進行了研究,以提取更好的表示,例如Group-ATT (Li et al., 2019),它使用不同的多頭注意力來提取各種類型的MWP特征,以及圖注意力,用于提取知識感知信息(Wu et al., 2020)。

4 預訓練的數學推理語言模型

預訓練語言模型(例如,Devlin等人(2018);Radford et al. (2020);Brown等人(2020))在廣泛的NLP任務上證明了顯著的性能提升(Qiu等人,2020)。通過在大型文本語料庫上進行預訓練,模型學習有價值的世界知識(Guu等人,2020),這些知識可應用于下游任務,如問題回答(Khashabi等人,2020)、文本分類(Minaee等人,2021)和對話生成(Zhang等人,2019;Qiu等,2022a,b)。類似的想法可以應用于與數學相關的問題,之前的工作表明,預先訓練的語言模型在回答數學應用題時表現良好(Kim et al., 2020; Shen et al., 2021; Yu et al., 2021b; Cobbe et al., 2021; Li et al., 2022b; Jie et al., 2022; Ni et al., 2022),協助定理證明(Polu and Sutskever, 2020; Han et al., 2022; Wu et al., 2022b; Jiang et al., 2022b; Welleck et al., 2022a),以及其他數學任務(Lu et al., 2021a; Chen et al., 2022a; Cao and Xiao, 2022; Clark et al., 2020; Chen et al., 2021c; Zhu et al., 2021; Hendrycks et al., 2021; Zhao et al., 2022; Nye et al., 2021; Charton, 2021)。

**然而,盡管大型語言模型在建模自然語言方面表現出色,但將其用于數學推理存在一些挑戰。**首先,預訓練語言模型沒有專門在數學數據上進行訓練。這可能導致與自然語言任務相比,他們對數學相關任務的熟練程度較低。與文本數據相比,用于大規模預訓練的數學或科學數據也較少。其次,預訓練模型的規模繼續增長,使得為特定的下游任務從頭訓練整個模型的成本很高。此外,下游任務可能處理不同的輸入格式或模態,如結構化表(Zhao et al., 2022; Chen et al., 2021c; Zhu et al., 2021)或圖表(Lu et al., 2021a; Chen et al., 2022a; Lu et al., 2021b)。為了應對這些挑戰,研究人員必須通過對下游任務進行微調或適應神經架構來調整預訓練模型。最后,盡管預訓練語言模型可以編碼大量的語言信息,但模型僅從語言建模目標中學習數值表示或高級推理技能可能是困難的(Lin et al., 2020;Kalyan等人,2021年)。考慮到這一點,最近有研究調研了從基礎課程開始注入數學相關技能(Geva et al., 2020; Feng et al., 2021; Wu et al., 2021d)。

5 .基于上下文的數學推理學習

大型語言模型(LLM),如GPT3 (Brown et al., 2020),最近徹底改變了自然語言處理(NLP)領域,特別是由于其強大的少樣本上下文學習能力(Brown et al., 2020)。上下文學習(ICL)使LLM能夠通過在推理時提供一些任務示例作為條件來執行目標任務,而無需更新模型參數(Radford et al., 2020; Brown et al., 2020)。ICL允許用戶快速為新用例構建模型,而無需擔心為每個任務進行微調和存儲大量新參數,因此現在被廣泛用于少樣本設置(Min等人,2022)。一個上下文中的例子通常包含一個輸入-輸出對和一些提示詞,例如,請從列表中選擇最大的數字。輸入:[2,4,1,5,8]。輸出:8,而few-shot通過給出多個示例來工作,然后是一個最終輸入示例,模型預計將預測輸出。然而,這種標準的少次提示(在測試時示例前給LLM提供輸入-輸出對的上下文示例)尚未被證明足以在數學推理等具有挑戰性的任務上取得高性能(Rae等人,2021)。

結論:

本文對數學推理的深度學習進行了全面的綜述。回顧了已經使用的各種任務和數據集,并討論了已經采取的各種方法,包括早期的神經網絡,后來的預訓練語言模型和最近的大型語言模型。還確定了現有數據集和方法中的幾個差距,包括對低資源設置的關注有限、計算能力表示不足和推理能力不一致。最后,對未來的研究方向進行了展望,并指出了該領域進一步探索的潛力。本文的目標是為對發展數學推理深度學習感興趣的讀者提供一個全面而有用的資源。為了幫助我們完成這項工作,我們創建了一個閱讀列表,并將在//github.com/lupantech/dl4math的GitHub存儲庫中不斷更新

付費5元查看完整內容

以語音為中心的機器學習系統徹底改變了許多領先領域,從交通和醫療保健到教育和國防,深刻改變了人們的生活、工作和相互互動的方式。然而,最近的研究表明,許多以語音為中心的機器學習系統可能需要被認為更值得信任,以便更廣泛地部署。具體來說,在機器學習研究領域,人們都發現了對隱私泄露、判別性能和對抗性攻擊脆弱性的擔憂。為了應對上述挑戰和風險,人們做出了大量努力,以確保這些機器學習系統是值得信任的,特別是隱私、安全和公平。本文首次對與隱私、安全和公平相關的、以語音為中心的可信機器學習主題進行了全面的調研。除了作為研究界的總結報告外,本文指出了幾個有希望的未來研究方向,以激勵希望在該領域進一步探索的研究人員。 引言

在過去的幾年中,機器學習(ML),特別是深度學習,在各種研究領域和應用中取得了巨大的突破,包括自然語言處理(Devlin等人,2018)、圖像分類(He等人,2016)、視頻推薦(Davidson等人,2010)、醫療保健分析(Miotto等人,2018),甚至掌握國際象棋游戲(Silver等人,2016)。深度學習模型通常由多個處理層組成,并結合了線性和非線性操作。盡管訓練具有多層架構的深度學習模型需要積累大型數據集和訪問強大的計算基礎設施(Bengio等人,2021),但與傳統的建模方法相比,訓練后的模型通常達到最先進的(SOTA)性能。深度學習的廣泛成功還允許更深入地了解人類狀況(狀態、特征、行為、交互)和革命性的技術,以支持和增強人類體驗。除了ML在上述領域取得的成功,以語音為中心的ML也取得了重大進展。 言語是人類之間一種自然而突出的交流形式。它存在于人類生活的幾乎每一個層面,無論是與朋友聊天、與同事討論,還是與家人遠程通話。以語音為中心的機器學習的進步使Siri、谷歌Voice和Alexa等智能助手的普遍使用成為可能。此外,以語音為中心的建模在人類行為理解、人機界面(HCI) (Clark等人,2019)和社交媒體分析方面創造了許多研究主題。例如,一些廣泛研究的語音建模領域包括自動語音識別(Malik et al., 2021)、語音情感識別(Ak?ay和O?uz, 2020)、自動說話人確認(Irum和Salman, 2019)和關鍵詞識別(Warden, 2018)。

盡管ML系統有在廣泛的以語音為中心的應用中廣泛部署的前景,但在大多數這些系統中,兩個交織在一起的挑戰仍然沒有解決:理解和闡明跨人和環境的豐富多樣性,同時創建可信的ML技術,在所有環境中適用于每個人。信任是人類生活的基礎,無論是信任朋友、同事、家庭成員,還是像人工智能服務這樣的人工制品。傳統上,機器學習從業者,如研究人員和決策者,使用系統性能(如F1分數)來評估機器學習系統。雖然大量的研究都集中在提高機器學習模型的系統性能上,但確保機器學習應用是可信的仍然是一個具有挑戰性的課題。在過去的幾年中,我們見證了大量針對可信人工智能和機器學習的研究工作,本文的目標是對相關研究活動進行全面的回顧,重點以語音為中心的機器學習。

**ML中的可信性在不同的文獻中有不同的定義。**例如,Huang等人(2020)基于涉及認證過程和解釋過程實施的行業生產實踐規范描述了術語可信性。認證過程包括測試和驗證模塊,以檢測輸入數據中潛在的偽造或干擾。解釋是解釋機器學習為什么根據輸入數據做出特定決策的能力。此外,歐盟發布的《可信人工智能倫理準則》(Smuha, 2019)承認,要被認為是可信的人工智能系統,必須遵守法律和法規,堅持道德原則,并強大地運行。最近,Liu等人(2022b)從安全性、公平性、可解釋性、隱私、可問責性和環境友好方面總結了可信人工智能。同樣,我們的審查認為,可信的核心設計元素是魯棒性、可靠性、安全性、安全性、包容性和公平性。基于這些標準,本文從隱私、安全和公平的角度綜述了關于以語音為中心的可信機器學習的文獻,如圖1.1所示:

**隱私: **以語音為中心的ML系統嚴重依賴于收集來自、關于和針對潛在敏感環境和上下文中的人的語音數據,例如家庭、工作場所、醫院和學校。語音數據的收集經常引起人們對侵犯用戶隱私的嚴重擔憂,例如泄露人們可能希望保密的敏感信息(Liu等人,2021)。至關重要的是,要確保由個人共享或由ML系統收集的語音數據受到保護,免受任何不合理和未經授權的使用。

安全性: 在過去幾年中,研究人員發現機器學習系統普遍容易受到對抗性攻擊,這些攻擊旨在利用模型預測函數中的漏洞進行惡意的目的(Goodfellow等人,2014)。例如,通過對語音數據引入足夠小的擾動,惡意行為者可以導致關鍵詞檢測模型對所需的輸入語音命令進行錯誤分類。因此,一個可信的機器學習系統必須對惡意攻擊者可能故意更改的相同輸入輸出一致。

**公平性:**最近人們知道機器學習系統的行為可能不公平。機器學習系統為什么會虐待人是多方面的(Mehrabi等人,2021)。一個因素是社會方面,由于訓練數據或整個機器學習開發過程中的假設/決策中的社會偏見,機器學習系統產生有偏的輸出。導致人工智能不公平的另一個原因是數據集特征的不平衡,某些群體的數據樣本有限。因此,模型需要考慮某些人群的需求。同樣重要的是要注意,部署不公平的機器學習系統可能會放大社會偏見和數據不平衡問題。為了評估以語音為中心的機器學習系統的可信性,機器學習從業者需要評估機器學習模型是否對個人或群體表現出區分性。

**本文的其余部分組織如下。**第2節簡要總結了流行的以語音為中心的任務、數據集和SOTA建模框架。第3節全面討論了以語音為中心的機器學習系統中的安全考慮。第4節討論了語音建模中的隱私風險和防御。第5節回顧了語音建模任務中出現的公平性問題。第6節闡述了以語音為中心的可信機器學習的潛在發展和未來的挑戰。最后,第7節總結了本文的主要觀點。

具體而言,我們的貢獻總結如下:

  1. 據我們所知,這是第一個對設計可信的、以語音為中心建模的機器學習進行全面回顧的綜述工作。我們調研了大部分已經發表和預印本的工作,包括自動語音識別、語音情感識別、關鍵詞識別和自動說話人驗證。

  2. 創建了分類法,以系統地審查與以語音為中心的機器學習系統可信性相關的設計支柱。我們進一步比較了關于每個關鍵因素的各種文獻。

3.本文討論了設計以語音為中心的機器學習系統面臨的突出挑戰,這些系統面臨著與隱私、安全和公平相關的可信性考慮。在文獻綜述的基礎上,討論了有待解決的挑戰,并提出了幾個有希望的未來方向。

付費5元查看完整內容

人工智能(AI)是一項具有廣泛用途的新興技術。《美國防戰略》強調了人工智能對軍事行動的重要性,以使美國保持對其近似競爭對手的優勢。為了充分實現這一優勢,不僅要在戰術層面,而且要在戰爭的作戰層面整合人工智能。人工智能可以最有效地融入作戰計劃的復雜任務,方法是將其細分為其組成部分的作戰功能,這些功能可以由狹義的人工智能來處理。這種組織方式將問題減少到可以由人工智能解析的規模,并保持人類對機器支持的決策的監督。

引言

人工智能是一套新興的、變革性的工具,有可能幫助軍事決策者。美國國家戰略將人工智能(AI)納入戰爭。《2020年國防授權法》11次提到了人工智能。國防戰略強調了利用人工智能和機器學習方面的商業突破的重要性。人工智能的軍事用途是保留國家安全的一個引人注目的方式。創造工具來支持戰術行動,如摧毀敵軍和從一個點導航到另一個點,具有顯著和可見的效果,使他們在資源有限的環境中在政治上可以接受。它們在訓練和測試方面的可重復性,使它們在采購過程中成為人工智能系統的快速贏家。然而,戰術行動的范圍和時間是有限的。僅在戰術層面上整合人工智能,忽視了在作戰層面上發生的決定性影響。

作戰,也就是實踐者將戰術行動轉化為戰略效果的層面,取決于領導者做出正確決策的能力。聯合部隊海事部分指揮官(JFMCC)的艱巨任務是制定計劃,將戰區戰略和聯合部隊指揮官(JFC)的目標結合起來,通過決定性的海軍交戰來塑造環境。在人工智能的快速認知能力的幫助下,JFMCC將能夠制定并更徹底地分析行動方案(COA)。這些品質對于未來的沖突是必要的。

人工智能必須在戰爭的各個層面進行整體集成,以充分實現其優勢。除了局部的、短期的戰斗,它還需要應用于主要的行動和戰役,涉及整個戰區的數月或數年。在戰爭的戰役(作戰)層面上的實施,放大了為實現戰略目標而進行的有序交戰和同步行動之間的協同作用。除了技術發展之外,行動上的整合將刺激政策和理論的建立,以使作戰人員有意愿使用人工智能。隨著使用人工智能的經驗的增加,其采用率也會增加。為協助海軍作戰計劃而實施的特定人工智能技術可能與那些用于計算射擊方案或在被拒絕的淺灘水域規劃路線的技術不同。然而,在作戰層面的接受度將推動戰術上的使用。

在JFMCC層面,人工智能系統網絡將為決策者提供決定性的優勢,將專注于作戰功能的獨立的人工狹義智能(ANI)單位統一起來將實現最顯著的好處。首先,人工智能解決方案比它們的通用人工智能(AGI)同行更適合于軍事問題的解決。其次,戰爭的性質促使有必要在作戰層面上整合人工智能。最后,雖然有許多方法可以整合,但沿著功能線這樣做會帶來最顯著的好處。不僅在技術意義上吸收人工智能,而且描述其在政策、理論和培訓中的使用,將使海軍能夠充分使用它,并在與我們的戰略競爭對手的競爭中獲得優勢。

如何在海戰領域整合人工智能?

目前人工智能在海上行動中的最佳應用是將復雜的海上行動問題分解成子問題,由人工智能來解決,并組合成COA建議。解決小問題的人工智能需要更少的訓練數據,有更直接的邏輯,并且可以連鎖起來解決更重要的問題。麻省理工學院人工智能實驗室前主任羅德尼-布魯克斯(Rodney Brooks)認為,創建動態環境的符號表示是困難的或不可能的。然而,特定任務的智能體可以利用足夠的傳感器數據智能地行動,更重要的是,可以連貫地互動。通過將簡單的活動連鎖起來,失敗的風險很低,更復雜的問題就可以得到解決。多個簡單的行動可以在低認知層平行運行,并將其輸出結合起來,為更高層次的復雜活動提供支持。這種結構的優點是允許軍事工程師開發和訓練人工智能,以首先解決可操作的問題。對人工智能開發者來說更具挑戰性的功能可以保留只由人類決定的方法,直到他們產生解決這些問題的專業知識。與其等待一個完整的系統,部分系統將提供一個臨時的邊際優勢。

鑒于人工智能可以通過將問題分解成更小的決策來最好地解決問題,問題仍然是如何劃分這些問題。重述作戰任務的一個模式是將它們分成作戰功能:指揮和控制(C2)、通信、情報、火力、運動和機動、保護和維持。這些作戰功能為開展有效行動提供了基礎。它們為一個行動提供了采用手段實現其目的的方法。因此,與決定如何實施這些功能以實現目標的決策者一起使用人工智能是很自然的。

如同應用于海上作戰戰爭,最低層的決策支持系統將由感知環境的活動組成:探測艦艇、飛機和潛艇;燃料水平;天氣;以及其他客觀的戰斗空間數據。通過將外部輸入限制在特定的、低層次的任務上,該系統將最大限度地減少對抗性例子或旨在消極操縱自動系統的數據的風險。中間層將把下層的輸出與作戰目標和因素結合起來,如時間、空間和力量的限制,以提供解決問題的方法和作戰功能。由于上層的對抗性數據注入的威脅較小,這些系統可以使用深度學習。深度學習是機器學習的一個子集,它不像其他形式那樣需要高度格式化的數據,但計算成本會更高,而且容易受到欺騙。深度學習將增加這一層的人類互動,并暴露出更復雜的關系。最高層將把C2流程應用于其他六個業務功能,以產生業務建議。中間層的每個功能人工智能將向其他功能人工智能和最高C2層提供建議。中間層的人工智能對復雜的數據和相鄰單位及C2功能的建議進行理解。

如果將中間層人工智能納入規劃和指導、收集、處理、分析和傳播的情報周期,將促進收集資產的更好分配。判斷對有限的收集資產的請求以滿足行動和戰術信息需求是JFMCC關注的一個問題。在收集計劃期間,人工智能可以使用已知的對手軌跡、地點、個人和組織來定義和優先考慮指定的利益區域(NAI)。在執行過程中,人工智能可以根據優先級驅動收集路線,就像企業用它來規劃送貨路線以減少勞動力、燃料和維護成本一樣。采集計劃者可以通過增加對手監視點的位置和范圍來減少反偵查的風險。在C2層面,指揮官和情報官員可以利用收集成果來證明更多的JFMCC收集資產和COA的修改。這種方法適用于其他功能。

人工智能可以在部隊部署不斷變化和對手存在不確定的環境中改善維持能力。相互沖突的要求使如何使用有限的后勤資產來滿足作戰人員的需求的決策變得復雜。后勤單位較低的生存能力促使人們決定是將它們帶入被對手防御系統拒絕的區域,還是將戰斗飛船引離目標。人工智能可以利用軍事和民用運輸的可用性、預先部署的庫存和供應商的響應能力來制定船舶和飛機需求的解決方案。企業利用人工智能準確預測需求,并分辨出影響運輸和倉儲的采購模式。維持型人工智能可以使用這個過程的一個變種,來計劃在高級后勤支持站點(ALSS)或前方后勤站點(FLS)的材料堆放。它可以決定如何以及何時使用穿梭船和站立船來運送到攻擊組。機器學習將使用燃料、食品和武器庫存、威脅環、戰備水平和維修時間來訓練維持人工智能。維持型人工智能可以提供比人類單獨完成的更有效的量化解決方案,并將其反饋給其他功能區和C2高層。

C2層將對來自下層的決定進行仲裁,并提供一個統一的建議。就像一個軍事組織的指揮官一樣,它將把其副手AI的建議合并起來。人工智能過程的早期階段使用傳感器數據和其他客觀信息來確定指揮官的方向;決定行動方案需要建立對戰斗空間的理解,這是一種更高層次的欣賞。戰斗空間的可變性和模糊性將使這一層的人工智能元素最難開發。最終,該系統將作為一個可信的智能體,壓縮指揮官負責的信息量。壓縮的信息減輕了時間有限的決策者工作時的疑慮負擔,使她能夠向下屬單位發出更及時的命令。

圖1說明了基于這些原則的系統的擬議架構。以對手預測為例,許多單一用途的ANI將在最低層結合原始傳感器和單位報告數據。它將評估敵方單位的最可能位置。公司分析評論、社交媒體和論壇發帖的情緒,以確定產品的滿意度。同樣地,這個系統將通過公開的言論和秘密的報告來確定對手的意圖。它將評估當前和歷史天氣模式,以評估氣候對敵人行動的影響。這三個輸入和其他信息將被功能情報ANI用來形成對敵方COA的評估。同樣,火力節點將使用敵人的組成、JFC的優先級和預測的彈藥可用性來產生目標指導。中間層節點將橫向傳遞他們的評估,以完善鄰近的建議,如部隊保護水平。獨立的功能建議也將直接反饋給C2層,以創建整體行動方案。

圖1. 海上人工智能系統的擬議架構

建議

首先,利用聯合人工智能資源的優勢,針對海軍的具體問題修改標準組件。擅長開發軍事人工智能系統的工程師的稀缺性將限制新系統的開發。美國防部的人工智能戰略具體規定了建立通用的工具、框架和標準,以便進行分散的開發和實驗。使用這些現成的組件,為人工智能決策網的所有子系統創建低級別的系統和標準接口。將海軍的資源集中于采購和實施用于海事具體決策的中層和高層系統。避免技術上令人著迷但無效的解決方案,并通過將職能領域的專家與設計團隊相結合來保持解決海事問題的目標。

第二,創建并維護可通過機器學習攝入的作戰數據數據庫,以訓練海軍人工智能。實施能夠在海上作戰中心(MOC)讀取和集中匯總基本作戰數據報告的技術和工藝,如燃料狀態、導彈裝載量。開發記錄和定性評分作戰決策結果的方法,如對手態勢的變化、傷亡修復率和公眾對行動的反應。將輸入與作戰決策和結果聯系起來的數據庫將加速開發符合現實世界標準的系統。

第三,將人工智能的使用納入政策和條令。條令應該編纂人工智能可以被整合到戰爭戰役層面決策中的領域。明確地說,關于情報、行動、火力、后勤、規劃和通信的海軍作戰出版物應說明人工智能在決策過程中產生優勢的地方和方式。描述海上聯合行動的聯合出版物應明確說明如何將JFC的要求解析為JFMCC的AI系統。如果國防部和海軍的政策對指揮官因整合人工智能的決策建議而產生的責任量進行了定性,那么他們在使用人工智能時就可以采取經過計算的風險。讓指揮官和作戰人員掌握使用人工智能的戰術、技術和程序將加速其在艦隊中的應用。

付費5元查看完整內容

及時掌握有關作戰情況的信息,對于開展各種規模的軍事行動和人員培訓都是至關重要的。現有軍事指揮和控制系統的復雜程度僅限于可視化,主要使用戰術符號。信息和計算機技術的現狀允許通過應用 "增強現實 "在感知水平上實現質的飛躍。對等的信息技術通過在實時圖像上增加額外的、有意義的圖形和文字信息來增強認知能力。高性能移動設備的飽和和無線數字網絡對軍事活動的有力進入,使得該技術的使用有可能達到戰場上單個戰士的水平。在這篇文章中,作者思考了在執行戰術任務中應用增強現實可視化的特殊性,確定了整合視覺和文本信息的適當方法,提供了一個與增強現實應用的信息交互模型。他們提出了一個專門的移動應用程序的軟件架構,并介紹了其實際實施的結果

【關鍵詞】增強現實,指揮與控制,移動應用

付費5元查看完整內容

機器學習是現代戰爭系統的關鍵組成部分。本文探討了人工智能的 7 個關鍵軍事應用。

機器學習已成為現代戰爭的重要組成部分,也是我(Nicholas Abell)作為陸軍退伍軍人和數據科學家的主要興趣點。與傳統系統相比,配備人工智能/機器學習的軍事系統能夠更有效地處理大量數據。此外,人工智能由于其固有的計算和決策能力,提高了作戰系統的自我控制、自我調節和自我驅動能力。

人工智能/機器學習幾乎被部署在所有軍事應用中,軍事研究機構增加研發資金有望進一步推動人工智能驅動系統在軍事領域的應用。

例如,美國國防部 (DoD) 的國防高級研究計劃局 (DARPA) 正在資助一種機器人潛艇系統的開發,該系統預計將用于從探測水下水雷到參與反潛行動的各種應用。此外,美國國防部在 2017 財年在人工智能、大數據和云計算方面的總體支出為 74 億美元。預計到 2025 年,軍事 ML 解決方案的市場規模將達到 190 億美元。

以下是機器學習將在未來幾年證明其重要性的七種主要軍事應用。

1. 作戰平臺

來自全球不同國家的國防軍隊正在將人工智能嵌入陸地、海軍、空中和太空平臺上使用的武器和其他系統中。

在基于這些平臺的系統中使用人工智能,可以開發出更少依賴人工輸入的高效作戰系統。它還增加了協同作用,提高了作戰系統的性能,同時需要更少的維護。人工智能還有望使自主和高速武器能夠進行協作攻擊。

2. 網絡安全

軍事系統通常容易受到網絡攻擊,這可能導致機密軍事信息丟失和軍事系統損壞。然而,配備人工智能的系統可以自主保護網絡、計算機、程序和數據免受任何未經授權的訪問。

此外,支持人工智能的網絡安全系統可以記錄網絡攻擊的模式,并開發反擊工具來應對它們。

3. 物流運輸

人工智能有望在軍事后勤和運輸中發揮關鍵作用。貨物、彈藥、武器和部隊的有效運輸是成功軍事行動的重要組成部分。

將人工智能與軍事運輸相結合可以降低運輸成本并減少人力工作負荷。它還使軍用艦隊能夠輕松檢測異常并快速預測組件故障。最近,美國陸軍與 IBM 合作,使用其 Watson 人工智能平臺來幫助預先識別 Stryker 戰車的維護問題。

4. 目標識別

正在開發人工智能技術以提高復雜戰斗環境中目標識別的準確性。這些技術使國防軍隊能夠通過分析報告、文檔、新聞提要和其他形式的非結構化信息來深入了解潛在的作戰領域。此外,目標識別系統中的人工智能提高了這些系統識別目標位置的能力。

支持人工智能的目標識別系統能力包括基于概率的敵人行為預測、天氣和環境條件匯總、潛在供應線瓶頸或漏洞的預測和標記、任務方法評估以及建議的緩解策略。機器學習還用于從獲得的數據中學習、跟蹤和發現目標。

例如,DARPA 的競爭環境中的目標識別和適應 (TRACE) 計劃使用機器學習技術在合成孔徑雷達 (SAR) 圖像的幫助下自動定位和識別目標。

5. 戰場醫療

在戰區,人工智能可以與機器人手術系統 (RSS) 和機器人地面平臺 (RGP) 集成,以提供遠程手術支持和疏散活動。美國尤其參與了 RSS、RGP 和其他各種用于戰場醫療保健的系統開發。在困難條件下,配備人工智能的系統可以挖掘士兵的病歷并協助進行復雜的診斷。

例如,IBM 的 Watson 研究團隊與美國退伍軍人管理局合作開發了一種稱為電子病歷分析器 (EMRA) 的臨床推理原型。這項初步技術旨在使用機器學習技術來處理患者的電子病歷,并自動識別和排列他們最嚴重的健康問題。

6. 戰斗模擬與訓練

模擬與訓練是一個多學科領域,它將系統工程、軟件工程和計算機科學結合起來構建計算機模型,使士兵熟悉在軍事行動中部署的各種作戰系統。美國正在越來越多地投資于模擬和訓練應用。

美國海軍和陸軍都在進行戰爭分析,啟動了幾個傳感器模擬程序項目。美國海軍已經招募了 Leidos、SAIC、AECOM 和 Orbital ATK 等公司來支持他們的計劃,而美國陸軍的計劃得到了包括 SAIC、CACI、Torch Technologies 和 Millennium Engineering 在內的公司的支持。

7. 威脅監控和態勢感知

威脅監控和態勢感知在很大程度上依賴于情報、監視和偵察 (ISR) 工作。ISR 行動用于獲取和處理信息以支持一系列軍事活動。

用于執行 ISR 任務的無人系統既可以遠程操作,也可以按照預先定義的路線發送。為這些系統配備人工智能有助于防御人員進行威脅監控,從而提高他們的態勢感知能力。

具有集成 AI 的無人駕駛飛行器 (UAV) - 也稱為無人機 - 可以巡邏邊境地區,識別潛在威脅,并將有關這些威脅的信息傳輸給響應團隊。因此,使用無人機可以加強軍事基地的安全,并提高軍事人員在戰斗中或偏遠地區的安全性和效率。

結論

人工智能在軍事技術硬件和軟件的大規模采用,向我們展示了現代戰爭中令人難以置信和可怕的范式轉變。毫不奇怪,世界上最大的軍隊比其他任何事情都更加關注這項技術,而這場技術競賽的獲勝者可能會比美國在研制原子彈后擁有更多的全球影響力。 (作者:Nicholas Abell,美國陸軍退伍軍人)

付費5元查看完整內容
北京阿比特科技有限公司