亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。

在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。

即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。

但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。

這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。

AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。

將沖突中傷害平民的風險降至最低

新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。

與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。

系統局限性

最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。

隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。

因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。

人類與機器互動面臨的挑戰

AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。

例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。

在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。

這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。

節奏

人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:

  • 看到更多
  • 了解更多;以及
  • 制定更多選擇。 重要的是,在整個決策鏈中都是如此,而不僅僅是在最后的 "決策點"。因此,聲稱 AI-DSS 將加快最終決定是否 "扣動扳機 "的耗時步驟,從而實際上為戰術忍耐帶來更多時間的說法,有可能過度簡化當代沖突中的目標選擇和武力執行過程。

額外的時間讓你看到更多

2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。

"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。

試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。

正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。

額外的時間可以讓用戶理解更多

放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。

當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。

更多時間可讓用戶做出更多選擇

除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。

正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。

結論

"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。

這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。

在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。

確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。

關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。

參考來源:International Committee of the Red Cross

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。

通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。

政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。

政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:

理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。

議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。

保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。

實現以下目標對這一進程至關重要:

政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。

幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。

其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。

然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。

政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。

政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。

政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。

付費5元查看完整內容

盡管人工智能作為宣傳工具的使用一直備受關注,但烏克蘭和以色列的熱點沖突正被證明是加速人工智能和其他信息技術工具在戰場上使用的活實驗室。特別是在烏克蘭,有報道稱,人工智能甚至被用于自主瞄準打擊目標。以色列國防軍(IDF)對人工智能的使用則更為隱秘,但它肯定被用作瞄準輔助工具,以擊敗來自加沙哈馬斯的鋪天蓋地的導彈攻擊。

烏克蘭在拒絕了其他 10 個國家的人工智能項目后,開發出了自己的人工智能,因為烏克蘭確信本國開發的人工智能會更有益處,而且可以規避向商業公司報告的任何要求。烏克蘭的人工智能主要集中在龐大的攝像頭和無人機網絡提供的計算機視覺數據上。例如,名稱和目標字符識別(OCR)可以快速識別伊朗制造的 "沙赫德 "神風無人機,而不是標準導彈。 人工智能還有助于烏克蘭自己的導彈瞄準。這些人工智能工作大多由烏克蘭的 IT 陸軍完成,據說他們有 25 萬人,其中許多人在創新的 "蝸牛車庫 "里工作,而他們的預算只有西方 IT 公司的一小部分。人工智能還被用于分析俄羅斯的無線電通信和清除地雷。與此同時,俄羅斯在軍事領域的人工智能應用似乎陷入了雄心壯志與實際用途之間的脫節,尤其是自主無人機,據說供不應求。

一些通訊社報道稱,無人化嚴重的烏克蘭已經更進一步,允許配備人工智能的無人機在某些情況下不受人類控制地識別和攻擊目標,從而引發了戰場上 "機器人殺手 "的幽靈。美國軍方已經啟動了一項為期兩年的 "復制者 "計劃,準備投入數千套價格相對低廉的自主系統,主要是為了應對大國在海軍艦艇等領域的數量優勢。澳大利亞一家名為 "Anduril "的公司(以《指環王》傳奇中的一把劍命名)正在向烏克蘭提供可發射彈藥、由人工智能驅動的 "幽靈鯊 "海上無人機。

雖然烏克蘭似乎正在使用自主人工智能來攻擊坦克等大型物體,但它幾乎可以指名道姓地攻擊單個士兵。據《時代》雜志報道,備受爭議的 Clearview 公司免費提供的面部識別系統已經識別出 23 萬多名參與烏克蘭戰爭的俄羅斯士兵和官員。Clearview 系統被用于偵測滲透者、識別親俄民兵和合作者,甚至烏克蘭稱被越過俄羅斯邊境綁架的兒童。Clearview 技術標志著 "戰斗識別系統 "的首次使用,該系統有可能被用于鎖定敵方關鍵人員。例如,一架攜帶彈藥的人工智能無人機可以在原地徘徊,直到發現一名反對派將軍。

與此同時,在立志成為 "人工智能超級大國 "的以色列,人工智能技術正在協助對加沙的哈馬斯目標進行快速定位空襲--該系統被稱為 "火力工廠",但其針對軍事目標的準確性目前尚不得而知。人工智能還幫助抵御來襲的導彈襲擊,這些導彈試圖以數量優勢壓倒以色列引以為傲的 "鐵穹 "導彈防御系統。以色列國防軍(IDF)越來越多地使用人工智能,并將其應用于移動平臺,如新型 "巴拉克 "超級坦克。巴拉克 "坦克的一個主要特點是配備了 "鐵視角 "頭盔,通過一系列外部傳感器和攝像頭,坦克乘員只需按下按鈕,就能 "看穿車輛的裝甲"。

主要得益于人工智能,坦克能夠在戰場上獨立學習、適應、導航和瞄準。以色列國防軍表示,一對 "巴拉克 "坦克將能夠執行以前需要一個坦克排才能完成的任務。

大多數分析家都認為,烏克蘭和以色列正被證明是在戰斗中加速使用人工智能的前所未有的試驗基地,而這一發展在和平時期通常需要更長的時間。現在,人工智能系統正在接受來自真實戰爭的真實數據的訓練,這意味著人工智能將在下一場武裝沖突中發揮更大的作用和效力,而下一場武裝沖突很可能包括人工智能自主作戰。

參考來源:techstrong.ai

付費5元查看完整內容

本文討論了在軍事領域決策過程中使用人工智能(AI)的好處和注意事項。文章側重于三個主要方面:提供更快、更準確信息的能力,掌握情況和減少人為錯誤,以及在使用這種技術時必須考慮的技術和倫理因素。人工智能可以大大改善軍事領域的決策;然而,重要的是要反思與使用人工智能相關的倫理和技術影響。

關鍵詞 人工智能、情境領域、減少人為錯誤、合成環境、顛覆性技術、知情決策。

1 簡介

人工智能(AI)已成為包括軍事在內的各個領域的重要工具。人工智能的定義是開發計算機系統,使其能夠執行通常需要人類典型的理性智能才能完成的任務,包括識別語音、做出決策和解決問題。在軍事領域,人工智能可以通過實時處理有價值的信息,幫助指揮官更快、更準確地做出決策。然而,人工智能在軍事領域的應用也帶來了倫理和技術方面的挑戰,例如在隱私和數據安全等方面對人類的影響。必須了解人工智能在軍事領域的優勢和挑戰,才能有效、負責任地實施人工智能。從這個意義上說,人工智能的應用可以優化指揮官在戰場上及時做出明智決策的能力。此外,對大量信息的即時處理使人們有可能對全景有更全面的了解,這為預測突然變化和可能出現的風險提供了依據,而這些都需要掌握態勢。這也有助于減少個人失誤,擺脫每個人的局限性。不過,有必要考慮在對這一顛覆性技術進行管理時所涉及的倫理問題。

2 人工智能在決策中提供快速準確的信息

在軍事領域使用人工智能并非新概念。然而,在很短的時間內,它已成為一種日益重要和有用的工具。它能夠高速、準確地處理大量數據,并分析模式和趨勢,提供重要信息,幫助指揮員在發生危機時執行措施,而危機需要快速、有效的反應,這在完成任務可能受到影響的情況下非常有用。

此外,人工智能還能識別人類可能忽略的模式和趨勢,從而更好地進行數據分析。這樣就能更全面、更清晰地了解任何情況,使軍方能夠做出更明智的決策。人工智能還能將數據收集和分析等乏味的重復性任務自動化,從而騰出時間實施更相關的行動。

從這個意義上說,人工智能提供信息的速度和質量對軍事決策過程有著積極的影響。指揮官可以擁有一種工具,使他們在行動發展過程中更容易選擇并永久保持認知優勢。所謂 "認知優勢",是指在戰場上以最有效的方式利用信息和知識的能力。這意味著,人工智能可用于規劃過程、開展行動,甚至在任務完成后提供反饋并鞏固認知優勢。

同樣,在軍事行動規劃中,人工智能可以分析數據、生成情報,并提供需要優先處理的局勢變化信息以及可用資源和其他重要因素。在戰爭實施過程中,人工智能可以提供有關設備變化、通信流量和其他關鍵因素的實時數據。這一優勢將使指揮官有能力在不斷變化的情況下做出快速有效的決策,并確保其部署的資產始終處于有利地位。例如,某國開發了一套自主車輛系統,用于收集戰場信息,其目的是對信息進行處理,以便為決策提供準確的要素;它甚至可以在結果評估方面提供幫助。

3 掌握情況和減少人為錯誤

據西點軍校現代戰爭研究所稱,人工智能的多任務特性使其可以通過與不同決策層的偵察、監視和情報集成手段的實時連接,用于收集和處理信息。人工智能能夠處理大量數據并從中學習,這意味著指揮官可以提高對態勢的掌控能力,減少危急情況下的人為錯誤。

一方面,人工智能可以實時處理信息,全面了解戰場態勢。此外,人工智能還能分析歷史數據和趨勢,在更短的時間內預測局勢并做出更準確的決策。同樣,如果與能夠以自身標準開展行動的自主手段銜接,就可以省去暫停行動的必要,從而有可能對對手保持持續的壓力。例如,人工智能可以分析敵人的行為模式并預測未來的動向,從而用于制定不確定性余地更小、細節更精確的應急計劃。

另一方面,在軍事決策過程中應用人工智能還能減少人為錯誤。從這個意義上說,由于軍事力量的應用所隱含的后果,指揮官的決策能力面臨著需要高度重視的情況。例如,法律方面的考慮,如尊重人權或保護自己的部隊,被證明是涉及道德的因素,最終會對指揮官產生壓力,并可能導致因疲勞、恐懼或缺乏經驗而做出錯誤的決定。在這種情況下,人工智能通過提供準確可靠的信息,有助于最大限度地減少這些錯誤。

此外,人工智能還可用于模擬合成環境中的情況,讓軍事人員在安全可控的環境中練習、積累經驗并提高技能。因此,美國陸軍正在利用人工智能的優勢培訓步兵單元指揮官,根據戰術形勢的變化--面對模擬對手--創建可變場景,對手的反饋和快速決策能力豐富了培訓經驗。這樣就能加強美國陸軍培訓的步兵指揮官的決策和掌握情況的能力。總之,在軍事決策過程中應用人工智能,可以讓負責任的指揮官提高對態勢的掌握能力,減少人為錯誤。

4 技術和倫理方面的考慮

人工智能這一技術正越來越多地應用于軍事領域,目的是提高軍事行動的效力和效率。然而,人工智能的使用也帶來了一些重要的技術和倫理問題,必須認真加以解決。從這個意義上說,不應無視這一現實,也不應無視在使用這些技術時因其顛覆性而涉及的考慮因素。

從技術角度看,在軍事決策過程中使用人工智能有可能提供更快、更準確的信息,提高對態勢的認識,并降低人為錯誤的風險。然而,人工智能的使用也帶來了必須妥善解決的重大挑戰。首先是人工智能所使用數據的質量問題,人工智能的正常運行依賴于準確、高質量的信息。如果不具備這些特征,人工智能除了在訓練中出現錯誤外,還可能做出不正確或不恰當的決定。因此,必須掌握準確的最新數據,以確保人工智能的效率。其次,必須有足夠的基礎設施供其使用。換句話說,人工智能需要大功率的計算基礎設施和可靠的通信網絡才能良好運行。因此,要想在軍事決策過程中充分發揮人工智能的潛力,就必須對基礎設施進行投資。

另一方面,從道德角度來看,使用人工智能會引發重要的思考,例如它對受武裝沖突影響的戰斗人員、非戰斗人員和平民的生活會產生什么影響。因此,必須制定明確和透明的政策,規范在軍事情況下使用人工智能。在這方面,為確保在軍事領域有效使用人工智能,有必要明確以下幾個方面: 首先,必須制定明確透明的人工智能使用政策,并確保所有專家、人工智能操作員都接受過使用、監督和控制該技術的培訓。其次,必須確保提供有效使用人工智能所需的計算和通信基礎設施。這包括購置適當的設備和技術,以及建立安全可靠的通信網絡。因此,要充分利用人工智能在軍事決策中的潛力,就必須對基礎設施進行投資。

結論

人工智能可提高收集信息的速度和準確性,并增強及時做出明智決策的能力,從而提高軍事行動的效力和效率。此外,使用人工智能還有助于減少人員傷亡和附帶損害,從而保護平民和限制軍事行動對非戰斗人員的負面影響。為了充分發揮人工智能在軍事領域的潛力,必須制定清晰透明的使用政策,優先培訓軍事人員使用人工智能,并與學術研究機構簽訂合作交流協議。這將有助于最大限度地降低在軍事行動中使用人工智能的風險,最大限度地提高其效益。在軍事領域的決策過程中使用人工智能的經驗,主要參與者是美國陸軍等,由于不斷競爭以加強其在世界上的存在,他們一直在加速發展這項技術。可以從中汲取重要的經驗教訓,以發展自己的人工智能,并闡明國防方面的需求,特別是在軍事決策過程中。總之,在決策過程中適當實施人工智能,可受益匪淺。這可以通過提供更快、更準確信息的自主系統來實現;也可以通過在模擬器中使用合成環境對指揮官進行決策培訓來實現;最后,還可以通過減少處理過程中的人為錯誤來實現。

參考來源:CEEEP

付費5元查看完整內容

隨著人工智能發展速度的加快,國防規劃人員開始重視人工智能技術為指揮和控制帶來的超匹配能力。大量的規劃、計劃和預算編制工作已經開始,這將提高未來戰場上的通信能力和生存能力。現在,部隊也在設計和原型開發現代系統,以幫助指揮官比以往任何時候都更全面地感知、觀察、定位、決策和行動。它們將穿透戰爭迷霧。

隨著武裝沖突時間的縮短,會產生哪些技術影響?過去可能耗時數年的戰爭可能在數月甚至數周內就能決定勝負。歷時數周的行動必須在數天或數小時內完成。而指揮官們在做出決定之前,在歷史上可能有充足的時間,但現在卻不得不在幾秒鐘內做出決定。每個指揮所的組織和運行將發生怎樣的變化?這些都是軍事領導人面臨的重大問題,因為他們正在規劃一條融合并充分利用自主性、機器學習、可信通信和邊緣計算優勢的前進道路。

未來戰場上的指揮所

場景設想

一只兔子正在咀嚼三葉草,咬到一半就僵住了,耳朵轉向左邊。透過樹林,它聽到了另一種生物向它走來的腳步聲。如果聲音的來源是捕食者,兔子就準備逃跑,它聽著不明動物的四只腳有節奏地小跑,看著它出現在空地邊緣。它飛快地躲開了這只越來越近的四足動物,因為它從未見過這樣的動物。這只像狗一樣的生物是當晚在該地區出現的 12 個自主機器人之一,它們在一個摩托化師準備建立的指揮所周圍的關鍵地形上各就各位。這是戰爭的開端,這些狗的任務是進行偵察。

幾分鐘后,隨著師長和參謀人員停下腳步并建立防御態勢,一陣低沉而穩定的裝甲踩踏聲從樹林中傳出。指揮所的自主防御部隊--軍犬--現在占據了安全位置。“軍犬”每三個一組。當其中一只正在進行四小時輪班時,另外兩只正在充電。

這些“軍犬”距離指揮所很近,可以將自己作為網狀網絡的節點進行通信和數據傳輸。在沖突的這一階段,“軍犬”只有一個簡單的交戰規則:如果有人類靠近,就向指揮所發出警報。如果探測到人類,它們就會使用傳感器記錄并向指揮所傳輸音頻、視頻和熱紅外數據。被指派保衛指揮所的連長將根據該人是友軍、敵軍還是非戰斗人員來決定采取何種行動。

在行動的這一階段,指揮所將在原地停留長達 48 小時,然后再移動。在這 172800 秒的時間里,“軍犬”每小時將以近乎穩定的速度傳輸 288 千字節。這是它們的指揮和控制數據傳輸速率,可以讓它們一遍又一遍地重復熟悉的模式--向左看、向前看、向右看、報告系統狀態、重復。這可以確保它們彼此保持聯系,并保持警惕。如果它們懷疑或探測到附近有人類,那么它們的數據傳輸速率就會膨脹到每小時 720 千兆字節,來自機載傳感器的態勢感知觀測數據。

在這種環境下,帶寬在功率、重量和冷卻方面都很昂貴。通信資源還有其他需求者。由于該師的每個成員及其設備都是一個傳感器,因此還有更多的情報、監視和偵察信息在網絡上爭奪優先權。后勤系統、語音通信、地理空間更新、指揮命令、醫療診斷數據和氣象數據都在試圖通過這些網絡進行傳輸。此外,還有計劃的網絡限制和從主要路徑到備用路徑的轉換,以混淆任何敵對系統對該師真實組成和身份的認識。

出于這些原因,"軍犬"機器人(或分艦上的其他傳感器)中的計算機視覺模型必須盡可能減少誤報。值得慶幸的是,軍犬"眼睛 "上的計算機視覺模型已經在高度多樣化的生物群落、一年四季、無數種天氣和光線條件下完成了近五萬小時的訓練。它們還消耗了關于現代軍事遮蔽物對視覺的影響、偽裝技術和模式以及人類和機器人軍事編隊的步態和身體姿勢差異的特殊訓練數據。盡管這種訓練數據機制聽起來令人印象深刻,但它不可能考慮到所有情況,這也是為什么該師的機器學習作戰部門準備根據部隊遇到的生物群落以及首戰中不可避免的敵方戰術、技術和程序變化,對軍犬和其他傳感器進行微調的原因。

重新訓練計算機視覺模型與所有其他統計分析一樣。簡單地說,需要有一個有代表性的樣本,以便用數學方法表達樣本關鍵變量之間的關系。在計算機視覺中,場景中的物體--天空、云層、地平線、有樹的山丘、無樹的山丘、單個建筑物、建筑物上的窗戶、透過窗戶看到的人臉等等--都是樣本。每只"軍犬"的傳感器都在收集周圍生物群落的無數樣本。在這些樣本中,有計算機視覺模型從未見過的新的異常值,因為它的制作者沒有一個能容納地球上所有多樣性的實驗室。

經過最初 8640 秒的夜間巡邏,"軍犬"誤報了一只熊,這只熊蹣跚地走到一棵樹下,然后用后腿站起來,試圖去夠一些橡子。當它這樣做時,其中一只"軍犬"發現了它,通過傳感器捕捉到了幾分鐘的畫面,并向指揮所安全人員發出警報。在早上的員工會議上,指揮所安全連連長問機器學習操作人員,他們能對這只讓他們夜不能寐的熊做些什么。

機器學習小組是整個聯合部隊的眾多小組之一。他們都在沖突的早期階段收集樣本。感知到的異常值以及所有觀察結果中的大量隨機樣本,都會根據其能力和隊列優先級流回戰區內外的計算集群。部分數據通過戰術網狀網絡傳輸。其他數據則由在單元間移動的各種后勤車輛被動收集,然后通過物理存儲設備傳輸移動。

數據科學家在處理整個視覺傳感器隊的誤報時,確定他們對當地熊類的觀察結果具有統計學意義,可以將所有觀察結果反饋給人工智能數據產品團隊,以完成一輪半監督負訓練,將其分類為非人類和非戰斗人員。團隊相信,新訓練的計算機視覺模型對熊的誤報率將減少約 70%。

早期樣本的另一個重要發現是發現了計算機視覺模型未檢測到的敵方戰術哨兵。這種誤報可能會對部隊保護造成不利影響。哨兵就像一只坐在樹枝上的鳥,但實際上它是一個離散的視聽傳感器包。通過將哨兵的多次觀察結果與互聯網上業余觀鳥者的視頻樣本進行比較,數據科學團隊能夠訓練出一個分類器,將哨兵與活鳥區分開來。

有了這個新的計算機視覺模型,團隊就可以準備軟件更新策略了。在接下來的 21600 秒內,整個聯合部隊將部署數百個計算機視覺更新。它們不可能也不應該一次性全部部署。在過去三年中,這些團隊已經數百次實踐了這種持續集成和持續交付(CI/CD)方法。與現代云計算提供商一樣,他們也有一套部署策略,通過一系列測試和小規模部署來確認功能是否正常。

除了這些現代軟件實踐外,機器學習操作人員還確保他們的計算機視覺模型部署到狗的樣本中,這些狗會重新觀察類似鳥類的對象,以及熊產生誤報最多的地方。由于新數據顯示誤報和誤報率大幅降低,團隊繼續在計算機視覺傳感器機群的其余部分進行部署。值得慶幸的是,更新計算機視覺模型可以有效利用帶寬。根據傳感器的不同,原始模型的大小在 40 到 60 兆之間。更新只需原始模型的 10%-20%,在這種情況下,更新只需五到十兆字節。所有這些微小的效率在戰術邊緣及其潛在的拒絕、斷開、間歇或受限條件下都非常重要。

數據時代、戰斗演練和 WERX

在每個數據時代都必須進行的一系列更新就是新的戰斗演練。它們必須像士兵清除卡住的武器一樣熟悉和磨練。

必須展示哪些概念才能最終投入實戰?軍隊編制、人員和領導者必須如何采用和塑造這些新的數據作戰演習?美國陸軍已經開始了云計算、軟件定義網絡、算法戰爭、自主性和人機團隊的數字奧德賽。美國各軍種都在迅速啟用其采購、安全和信息技術干部,以提供這些技術和實踐。由此產生的軟件開發實踐不僅限于后臺職能部門。它們正通過傳統和替代性的采購途徑,在各個層級同時出現。久經考驗的研究、開發、測試和評估計劃,以及專門致力于成功實現數字化和人工智能能力的新組織,都在加速這些實踐。引領這些新努力的是一個擁有共同愿景和重新審慎承擔風險的領導者網絡。

走進任何一家新的軟件工廠或 Dev/Ops(開發/運營)軟件團隊,如 AFWERX、SOFWERX 等,就會看到了解自己使命和技能的專業人士。就像他們之前在航空、機械化作業和非機組人員系統領域的先驅一樣,他們知道自己所從事的工作的新穎性很容易被誤解或否定。然而,當他們考慮到烏克蘭和以色列正在進行的戰爭時,他們積極推動新能力的發展,以戰勝任何對手。

人工智能加速路線圖

所有這些工作都有意義所在。要想讓它們結出碩果并最大限度地影響軍事效率,領導者必須積極努力,加快團隊的效果。為此,他們可以采取幾個關鍵步驟。

首先,消除開發團隊與最終用戶之間的距離。這對成功采用軟件和硬件至關重要。用戶和開發人員之間的接觸點是你應該衡量和投資的。如果用戶沒有破壞技術,而開發人員也沒有根據他們無法預料的用例迅速調整技術,那么你就會把這些不幸的發現推遲到第一場戰斗中。

第二,與官僚機構中的現狀偏見作斗爭。如果有人告訴你,生成式人工智能沒有需求,那么請提醒他們,在軍事史的其他拐點上,槍械、坦克、飛機、反簡易爆炸裝置和反無人機技術也沒有需求--直到技術和用例匯聚在一起,使需求變得非常明確。

第三,將人工智能項目分解成一個組合,在一般的開發、安全、機器學習、運營(DevSecMLOps)流水線與不同機器學習學科(如自然語言、計算機聽覺和計算機視覺)的獨特需求之間取得平衡,以滿足遙感、感知和自主等不同應用的需求。

第四,除了你的團隊正在構建的人類角色外,還必須為另一個用戶--新興力量結構中的機器角色--提供服務。部隊結構中每個支持機器學習的設備都需要一個人工智能就緒的數據產品戰略和數據網絡戰略,以便在各種沖突、生物群落和任務中對其進行再訓練。當人類繼續消耗豆子和子彈時,機器將消耗電池和字節。

第五,除了已經建立的物理和虛擬訓練環境,還需要一個設備農場、一個模型動物園和一個數字孿生家族。移動應用開發人員必須在各種設備制造商之間進行測試,以確保向前和向后的兼容性。設備農場可以幫助開發人員從這些異構設備群中快速獲得技術反饋。在下一個戰爭時代,這些設備可能是四足機器人、無人機群,也可能是載人履帶車。機器學習工程師建立并迭代了大量開源和專有模型。在對它們進行訓練和再訓練的過程中,工程師們將擁有越來越多的模型集合(動物園),這些模型將成為在新情況下進行快速微調的更好起點。數字孿生將有助于確保您擁有一個具有充分代表性的環境,以展示新的網絡-設備-數據-模型組合的預期效果。

第六,零信任運動。就像 Hedy Lamarr 和 George Antheil 發明的跳頻擴頻一樣,零信任系統不斷強制執行憑證和其他證書的連接、輪換和重新認證,以確保安全一致性,抵御外部和內部威脅。要做到這一點是一門復雜的藝術,但您應該在數據和系統訪問中要求具備這種能力。BYOD(自帶設備)是企業能夠以零信任方式運行的標志。當您可以信任員工帶去工作的異構敵對外國設備時,您將具備必要的組織和技術實力,與盟友和聯合部隊中的任務合作伙伴實現同樣的目標。

第七,組織需要每周部署到生產中,領導應參與 CI/CD 流程。現代云計算服務通過多種策略實現高可用性。其中最關鍵的是,在發生中斷事件時,開發人員與其領導之間通過軟件定義的連接。在純粹的形式下,DevOps 意味著構建軟件的同一個團隊也會部署軟件,如果部署失敗,他們會在半夜接到呼叫。這就加強了測試過程中對細節的關注。傳呼過程還可以與主要領導聯系起來。如果知道有一定的時間來解決軟件部署失敗的問題,并在經理被傳呼之前恢復正常服務,那么每個人都會在測試過程中更加關注細節。

第八,明確允許在哪些領域進行 "系統 1 "和 "系統 2 "機器思維實驗。丹尼爾-卡尼曼(Daniel Kahneman)在《思考,快與慢》(Thinking, Fast and Slow)一書中普及了現代人對人類思維能力的理解,即人類的思維能力是兩個系統的副產品。系統 1 自動做出快速反應,就像 "戰斗或逃跑 "反應一樣。你的視覺、聽覺或嗅覺幾乎不費吹灰之力就能處理房子著火的情況。卡尼曼將其與系統 2 區分開來,后者 "將注意力分配給費力的心理活動",并完成復雜計算等任務。通過它,我們對何時將精力分配給專注力有了更多的自主權和選擇權。人機協作的關鍵在于將系統 1 和系統 2 的任務分配給合適的隊友。

我們不希望有一天會經歷這種情況,但在未來的戰場上,兩支陸軍將在夜間發生沖突。清晨,雙方的幾個營可能只剩下殘兵敗將。哪一方能更快地執行重組戰斗演習,哪一方就能立即獲得優勢。從原屬組織脫離并加入新組織的任務命令需要幾個行政和控制步驟。指揮官應首先選擇新的領導和編隊,這是系統 2 的流程。不過,一旦命令下達,一系列系統 1 應用程序和信息應能使所有人員、醫療、后勤和其他支持數據迅速準確地傳送到新的指揮人員手中。如果我們把眼前的工作做好,新營應該能在 3600 秒內做好戰斗準備,而不是 28800 秒。分秒必爭。

參考來源:The Modern War Institute

付費5元查看完整內容

人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。

人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。

電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。

將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。

在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。

此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。

人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。

不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。

最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。

最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。

付費5元查看完整內容

隨著大數據、云計算、物聯網等一系列新興技術的大量涌現,人工智能技術不斷 取得突破性進展。深度強化學習技術作為人工智能的最新成果之一,正被逐漸引入軍事領域 中,促使軍事領域走向信息化和智能化。在未來戰爭作戰模式及軍隊發展建設中,網絡化、 信息化、智能化和無人化形成重要特征已經成為不可逆轉的趨勢。因此,本文在回顧了深度 強化學習基本原理和主要算法的基礎上,對當前深度強化學習在武器裝備、網絡安全、無人 機編隊、智能決策與博弈等方面的應用現狀進行了系統的梳理與總結。最后,針對實際推進 深度強化學習技術在軍事領域應用落地所面臨的一系列問題和挑戰,提供了未來進一步研究 的思路。

近年來,隨著大數據、云計算、物聯網等 一系列新興技術的大量涌現,人工智能技術不 斷取得突破性進展。作為 21 世紀的頂尖技術之 一,人工智能給各個領域的發展都帶來了前所 未有的機遇和挑戰,軍事領域也不例外。2016 年 6 月,由國防大學舉辦的“戰爭復雜性與信息化戰爭模擬”學術研討會,對大數據時代的軍事 信息體系與發展戰略進行了重點研究[1],軍事 智能化已不再是一個陌生的概念,正在全面影 響著軍隊建設和未來戰爭形態[2]。從應用角度 來看,軍事智能化主要體現在五個層次[3]:以 無人機、無人車等仿生智能為主的單裝智能;以人機融合、集群、協同等概念為核心的協同 智能;以智能感知、決策、打擊、防御等多要 素作戰力量綜合運用的體系智能;以通信、網 絡、電子、輿情等專業領域管控的專項智能;以作戰體系基于數據、模型、算法獲取涌現效 應為目標的進化智能。人工智能技術為這些應 用的落地提供了堅實的基礎。深度學習(deep learning,DL)和強化學 習(reinforcement learning,RL)作為實現人工 智能的先進技術,分別在信息感知和認知決策 領域有著出色的表現[4]-[5]。深度強化學習(Deep Reinforcement Learning,DRL)[6]則是近幾年 提出的新興概念,結合了 DL 與 RL 的優勢, 是人工智能的最新成果之一,在機器人控制、 計算機視覺、自然語言處理、博弈論等領域都 取得了重要研究成果。在軍事領域中,針對作 戰任務規劃、智能軍事決策與智能博弈對抗等 問題的解決,DRL 也有著巨大的應用潛力,引 起了研究人員的廣泛關注。

目前,關于 DRL 的研究已經取得了較大進 展,有一些關于 DRL 的綜述性文獻陸續發表 [6]-[7],但它們更加偏向于對 DRL 算法的總結。除此之外,也有一些關于 DRL 在領域應用中的 綜述,如無人機[8]、通信與網絡[9]、智能制造[10] 等領域,然而關于 DRL 在軍事領域中的應用, 并沒有專門的綜述性文獻對其進行深入梳理和 總結。基于此,本文首先回顧了 DRL 的理論發 展歷程;然后對 DRL 的基本算法及改進算法進 行了歸納總結;最后對前人研究中 DRL 在軍事 領域武器裝備、網絡安全、無人機編隊、智能 決策與博弈等問題的應用現狀進行了系統性的 總結,并展望了其發展方向和前景。

付費5元查看完整內容

在過去的二十年里,人工智能(AI)獲得了大量的關注,并激發了許多科學領域的創新。美國軍事預測人員創造了許多以人工智能為核心特征的未來作戰環境的預測。本文報告了人工智能創新的歷史趨勢,導致了對真正的通用人工智能(AGI)出現的高預期時期。這些對持續創新的夸大期望超過了實際能力,導致幻想破滅。人工智能經歷了新的創新、過度期望和幻想破滅的周期,然后是適度的進步。人工智能創新的周期性遵循極端夸張的周期,在過去的周期中,這導致了資金的損失和未來創新的放緩。為了避免在夸張的周期中看到的未來的幻滅和進步的喪失,領導者需要對機器學習技術有一個現實的理解,以及它對未來的人工智能發展意味著什么。本文提出了一個理解人工智能與作戰環境互動的功能框架。

引言

語義學、技術樂觀主義、誤解和議程掩蓋了目前關于人工智能(AI)和智能的本質的辯論。關于人工智能的預測,從歇斯底里的天網啟示錄到人工智能驅動的烏托邦都有。人工智能和 "機器學習 "可能會走上幻滅之路。技術領域的知名專家警告說,人工智能將對人類的未來產生災難性影響。特斯拉和Space X的首席執行官(CEO)埃隆-馬斯克(Elon Musk)稱人工智能是一種生存威脅,并懇請政府對人工智能進行監管,"以免為時已晚"。已故著名物理學家史蒂芬-霍金認為,人工智能將是人類的末日。新聞媒體的標題是:"美國有可能在人工智能軍備競賽中輸給中國和俄羅斯"。還有人援引世界末日的觀點和對人工智能技術的情感反應。例如,《紐約時報》最近發表了一個標題:"五角大樓的'終結者難題'。可以自己殺人的機器人"。不幸的是,煽動恐懼的言論引起了公眾的共鳴,并建立在人工智能將是人類終結者的流行文化敘事上。

在歷史背景下觀察,目前對人工智能的看法遵循一個可衡量的趨勢,即Gartner公司的信息技術(IT)研究 "炒作周期 "的技術發展階段,見圖1。炒作周期以 "技術觸發點 "開始,一種只存在于原型的新概念化能力,吸引了媒體的注意。下一個狀態是 "期望值膨脹的高峰",早期采用者因其在實施該技術方面的成功而獲得宣傳。下一個階段是 "幻滅的低谷",技術固有的物理限制變得明顯,人工智能未能成熟,投資資金轉移到更有前途的企業。在幻滅的低谷之后,技術繼續成熟,盡管速度要慢得多。在這個緩慢的環境中,它被更好地理解,實施起來也有真正的成功。最后一個階段,即 "生產力的高原",是技術在被充分理解的條件下被廣泛實施的時候。然后,各行業創建標準和法規來管理技術的實施和互操作性。

圖 1. 技術發展的成熟度曲線。

人工智能發展的以往演變遵循夸張的周期,有幾個高峰和低谷,這里將概述一下。每次人工智能發展進入幻滅的低谷,美國政府和軍方支出停止資助;人工智能的發展都會停滯不前。美國政府和軍方一直是人工智能發展史上不可或缺的一部分,并將繼續在指導未來發展方面發揮重要作用。美國軍方不能有膨脹的期望,這將導致一段幻滅期,將主動權和技術優勢讓給美國的同行競爭者,俄羅斯和中國;他們正在追求武器化的AI。領導人和決策者需要對人工智能的發展有一個現實的技術理解,以指導他們將人工智能整合到軍隊企業中。過去的夸張周期提供了需要避免的陷阱的例子,但也提供了需要尋找有用的應用和未來創新的領域。

付費5元查看完整內容

許多軍事人工智能的研究和開發資金是針對短期內可以實現的戰術級系統的改進。在這里,人工智能(AI)的潛在好處往往受到感官輸入質量和機器解釋能力的限制。然而,為了充分理解人工智能在戰爭中的影響,有必要設想它在未來戰場上的應用,傳感器和輸入被優化為機器解釋。我們還必須嘗試理解人工智能在質量上和數量上與我們的有什么不同。本文介紹了綜合作戰規劃過程中自動化和機器自主決策的潛力。它認為,人工智能最重要的潛力可能是在戰役和戰略層面,而不是戰術層面。然后探討了更多機器參與高級軍事決策的影響,強調了其潛力和一些風險。人工智能在這些情況下的應用發展應該被描述為一場我們輸不起的軍備競賽,但我們必須以最大的謹慎來進行。

1 引言

目前,人工智能(AI)的民用發展大大超過了其在軍事方面的應用。盡管知道網絡將是一個重要的未來領域,但國防部門還沒有習慣于數字-物理混合世界,因此,國防部門與新的社會技術的顛覆性變化相對隔絕。在軍事上運用人工智能的努力往往集中在戰術應用上。然而,人工智能在這些領域的好處受到輸入傳感器的限制,它們被用來復制人類的行為,并在需要與物理環境互動的角色中使用。在作戰和戰略層面上,軍事總部的特點是信息的流入和流出。如今,這些產品無一例外都是完全數字化的。考慮到作戰計劃的過程,可以看出,即使在目前的技術水平下,其中有很大一部分可以可行地實現自動化。這種自動化的大部分并不構成可能被理解的最純粹意義上的人工智能,即 "擁有足夠的通用智能來全面替代人類的機器智力"。然而,軟件可以在特定任務中勝過人類的事實,再加上高級軍事決策過程被細分為此類特定任務的事實,使其成為比較人類和機器決策的優點、限制和能力的有用工具。這樣做,人類的能力似乎有可能被輕易取代。因此,追求軍事決策自動化的動機肯定是存在的。本文討論了部分自動化軍事決策的潛力和實用性,并想象了為這些目的無限制地發展人工智能可能帶來的一些風險和影響。

付費5元查看完整內容

人工智能(AI)的進步為世界各地的軍隊帶來了巨大的機遇。隨著人工智能軍事系統日益增長的潛力,一些活動人士敲響了警鐘,呼吁限制或完全禁止一些人工智能武器系統相反,對人工智能武器控制持懷疑態度的人認為,人工智能作為一種在民用背景下開發的通用技術,將異常難以控制人工智能是一項具有無數非軍事應用的賦能技術;這一因素使它有別于其他許多軍事技術,如地雷或導彈由于人工智能的廣泛應用,絕對禁止人工智能的所有軍事應用可能是不可行的。然而,有可能禁止或規范特定的用例。國際社會有時在禁止或管制武器方面取得了不同程度的成功。在某些情況下,例如禁止永久致盲激光,武器控制迄今為止效果顯著。然而,在其他情況下,例如試圖限制無限制的潛艇戰或對城市的空中轟炸,國家未能在戰爭中實現持久的克制。各國控制或管制武器的動機各不相同。對于特別破壞政治或社會穩定、造成過多平民傷亡或對戰斗人員造成不人道傷害的武器,各國可設法限制其擴散。本文通過探索歷史上試圖進行軍備控制的案例,分析成功和失敗,研究了軍備控制在人工智能軍事應用中的潛力。論文的第一部分探討了現有的有關為什么一些軍備控制措施成功而另一些失敗的學術文獻。然后,本文提出了影響軍備控制成功的幾個標準最后,分析了人工智能武器控制的潛力,并為政策制定者提出了下一步措施。歷史上試圖進行軍備控制的詳細案例——從古代的禁令到現代的協議——可以在附錄a中找到。歷史告訴我們,政策制定者、學者和民間社會成員今天可以采取具體步驟,提高未來人工智能軍備控制成功的機會。這包括采取政策行動,塑造技術發展的方式,并在所有層面加強對話,以更好地理解人工智能應用可能如何在戰爭中使用。任何人工智能武器控制都將具有挑戰性。然而,在某些情況下,軍備控制在適當的條件下是可能實現的,今天的一些小步驟可以幫助為未來的成功奠定基礎。

付費5元查看完整內容

由于長期以來對 "黑盒"模型的擔憂,許多臨床醫生對機器學習仍然保持警惕。"黑盒"是模型的簡稱,它足夠復雜,人類無法直接解釋。預測模型缺乏可解釋性會破壞對這些模型的信任,特別是在醫療保健領域,因為許多決定都是生死攸關的。最近,可解釋機器學習領域的研究激增,旨在解決這些問題。可解釋機器學習的前景非常可觀,但對于可能在臨床決策支持工具或新的研究論文中遇到這些技術的心臟病專家來說,重要的是要對它們的優勢和局限性有一個重要的了解。本文回顧了可解釋機器學習領域的關鍵概念和技術,因為它們適用于心臟病學。回顧的關鍵概念包括可解釋性與可解釋性以及全局與局部解釋。所展示的技術包括排列組合重要性、智能體決策樹、局部可解釋的模型-診斷性解釋和部分依賴圖。我們討論了可解釋性技術的幾個局限性,重點是解釋作為近似的性質如何可能忽略了關于黑盒模型如何工作以及它們為什么做出某些預測的重要信息。最后,我們提出了一條經驗法則,即何時使用帶有解釋的黑盒模型

盡管大多數食品和藥物管理局和加拿大衛生部批準的ML算法都集中在大腦、肺部或乳房,但截至本文撰寫時,至少有12種批準的算法應用于心臟病學。 然而,盡管如此,許多臨床醫生仍然對ML保持警惕,因為他們擔心許多ML模型的 "黑盒"性質,這可以追溯到20世紀90年代人工神經網絡在醫學上的一些早期應用。對黑盒算法的擔憂在著名醫學期刊的評論中經常被強調,現在許多ML科學家承認這是醫學中采用ML的主要障礙之一。

術語 "黑盒"是指那些足夠復雜的模型,它們不能被人類直接解釋。這與醫學研究中經常使用的模型形成對比,如線性和邏輯回歸,人類可以參考模型系數來解釋模型及其預測。雖然不是所有的ML算法都是不可解釋的(后面會有更多的介紹),但大多數產生最先進結果的ML算法(包括深度學習和集合模型)都有這個限制。

預測模型缺乏可解釋性會破壞對這些模型的信任,特別是在醫療保健領域,許多決定實際上是生與死的問題。沒有一個模型是完美的,所以臨床醫生對盲目相信一個無法提供任何關于其決定原因的模型的預測感到厭倦是完全合理的。隨著經驗性證據的積累,這些擔憂只會增加,因為ML可以對觀察性醫療數據集中發現的現有種族偏見進行編碼,從而通過黑盒自動化使系統性種族主義永久化。

黑盒也限制了模型預測的臨床可操作性,這進一步削弱了它們對臨床醫生的作用。ML在醫療保健中的一個常見應用是用于預測臨床惡化的早期預警系統。但如果這種系統只警告臨床醫生有惡化的風險,而不說明原因,不進一步評估就可能不清楚警報的原因,這在時間敏感的情況下會延誤治療,在假陽性的情況下會浪費臨床醫生的寶貴時間。

為了應對黑盒模型帶來的重大挑戰,近年來在可解釋ML領域的研究激增。這些研究的重點不是使黑盒模型具有內在的可解釋性,而是對模型如何工作以及它為什么做出特定的個別預測做出可理解的解釋(關于可解釋性與可解釋性之間的區別,下文有更多介紹)。這些解釋中的許多都集中在確定最能推動模型預測的變量,或將模型的工作原理轉化為更接近基于證據的臨床推理的透明設計(如決策樹)。這兩種方法都被證明對提高臨床醫生對ML模型的信心很重要。可解釋ML的承諾是相當大的:有機會從深度學習等技術的最先進的預測能力中獲益,而沒有黑盒子的缺點。然而,這種承諾也帶來了一些重要的限制。

本文回顧了可解釋ML領域的關鍵概念和技術,因為它們適用于心臟病學。我們的目標是為心臟病專家和心血管研究人員提供對可解釋ML技術的好處和局限性的重要理解,以便他們在遇到這些技術嵌入臨床決策支持工具或新的心臟病學研究結果時,可以成為知情的消費者。

付費5元查看完整內容
北京阿比特科技有限公司