亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

無人機戰爭的下一階段已經到來。2023年9月6日,美國國防部副部長凱瑟琳-希克斯(Kathleen Hicks)吹噓五角大樓的 "復制者"(Replicator)計劃正在加速推進--該計劃旨在大幅擴大美國在戰場上使用人工智能的規模。她理所當然地稱這是國家安全領域 "改變游戲規則的轉變"。根據 "復制者 "計劃,美國軍方的目標是在未來18到24個月內在多個領域部署數千套自主武器系統。

然而,"復制者 "只是冰山一角。人工智能的飛速發展正在催生新一代致命自主武器系統(LAWS),它們可以在沒有人類干預的情況下識別、跟蹤和攻擊目標。具有自主能力的無人機和人工智能賦能的彈藥已經在戰場上使用,尤其是在俄烏戰爭中。從根據特定特征選擇目標的 "殺手算法 "到自主無人機群,戰爭的未來看起來越來越具有啟示性。

在 "戰爭機器人 "陸軍的陰影中,人們很容易忽略正在進行的人工智能革命。五角大樓稱之為 "以人為本 "或 "負責任的人工智能",旨在讓人類 "參與 "決策,以確保人工智能的使用 "合法、合乎道德、負責任和可問責"。但是,即使有人類的監督和對法律的嚴格遵守,人工智能的使用方式從根本上違反國際人道法(IHL)和國際人權法(IHRL)的風險也越來越大。

最直接的威脅不是 "人工智能啟示錄"--機器接管世界--而是人類利用人工智能建立新的暴力和相互支配的模式。

無人機戰爭2.0

俄烏戰爭被稱為 "第一場全面的無人機戰爭",標志著各國在日益網絡化的戰場上測試和部署致命性自主武器系統的拐點。據報道,自主無人機曾在利比亞和加沙使用過,而烏克蘭戰爭則標志著這種技術加速融入常規軍事行動,并可能帶來不可預測的災難性結果。交戰方由于缺乏技術能力或意愿,可能會在沒有最高級別保障措施的情況下部署無人機,因此這些風險更加明顯。

烏克蘭戰爭的教訓包括,價格相對低廉的無人機可以使對手喪失空中優勢,并在同級和近似同級沖突中以及在對付非國家行為體時提供決定性的軍事優勢。

美國和其他國家正在認真對待這些經驗教訓。規模和速度顯然將主導未來的無人機戰爭,因為美國正通過 "復制者 "計劃和其他舉措,努力發展部署大量廉價、可重復使用無人機的能力,以應對大國等對手的風險。針對非國家行為者的離散無人機打擊將越來越多地被人工智能賦能的無人機群所取代,這些無人機群可以相互通信并協同工作(以及與人類合作)摧毀關鍵基礎設施和其他目標。

與過去的無人機戰爭相比,這種新興技術給平民帶來的風險更大。與由人類操作員審查和控制的傳統無人機戰爭不同,新的無人機戰爭將更加自動化。從目標的選擇和識別到監視和攻擊,人機協作將滲透到目標定位周期的幾乎每一個階段。最大的轉變將是最不顯眼的,因為專有算法將篩選大量情報數據和無人機信息,編制目標清單供人類批準。

雖然人類可能會繼續簽字同意使用致命兵力,但人工智能將在決定誰生誰死、誰存誰亡的基本選擇方面發揮更普遍的作用。

隨著人工智能減少人類對殺戮的參與,無人機戰爭的可解釋性和透明度很可能會比現在更低。這不僅對公眾是如此--他們已經被蒙在鼓里--對負責實施和監督無人機項目的政府官員也是如此。

可解釋性問題,即人類無法完全理解或解釋人工智能產生的結果,是人工智能的一個更廣泛的問題,并不局限于無人機襲擊。依賴于人工智能的計算系統往往是不透明的,因為它們涉及專有信息,在學習新數據的過程中不斷演化,而且過于復雜,任何單一行為者都無法理解。

但在無人機戰爭中,可解釋性問題尤為突出。

在美國龐大的機構間進程中,軍事和情報機構依靠不同的信息流、技術和官僚程序來支持無人機項目。這些機構正在開發自己的人工智能工具,這些工具是高度機密的,并且基于不與關鍵決策者或公眾共享的算法和假設。再加上人工智能系統產生的結果無法被完全理解,政府官員將無法解釋為什么某個人被誤殺。

可解釋性的問題將導致未來的無人機戰爭缺乏責任感--而這種責任感已經非常缺乏了。當平民在人工智能賦能的無人機打擊中被誤殺時,五角大樓官員也將能夠把這些 "悲劇性錯誤 "歸咎于機器。無人機群的情況尤其如此,來自不同制造商的無人機可能無法正常通信,盡管五角大樓在這項技術上花費了數百萬美元。隨著無人機開始相互對話以及與人類對話,人類決定殺人與機器執行致命行動之間的責任和合法性差距可能會越來越大。

注意差距

這些挑戰是眾所周知的,五角大樓長期以來一直鼓吹 "負責任的人工智能 "政策,旨在通過迷宮般的法律法規來應對這些挑戰。這在紙面上聽起來不錯,但在對平民傷害的嚴重擔憂浮出水面之前,傳統的無人機項目也曾被宣傳為 "合法、合乎道德、明智"。如果過去的無人機戰爭能說明什么,那么真正負責任的人工智能無人機戰爭同樣可能難以實現,尤其是在管理人工智能使用的各種法律、倫理和政策框架出現保護空白的地方。

為此,一些國家和紅十字國際委員會(ICRC)提議禁止那些缺乏有意義的人為控制、過于復雜而難以理解或解釋的武器系統。在今年 7 月舉行的聯合國安理會關于人工智能的首次會議上,聯合國秘書長安東尼奧-古特雷斯建議各國在三年內通過一項 "具有法律約束力的文書,禁止在沒有人類控制或監督的情況下使用致命的自主武器系統,因為這種系統的使用不符合國際人道法"。

但是,即使各國原則上同意這樣的禁令,重大問題依然存在。必須對自主武器系統施加什么樣的法律限制才能確保其符合國際人道法?需要何種類型和程度的人為控制才能確保未來的無人機襲擊符合國際人道法的必要性、相稱性和區別對待以及預防原則?遵守國際人道主義法就足夠了,還是需要一項新條約?雖然許多國家呼吁制定這樣一項條約,但美國、俄羅斯和印度堅持認為,LAWS 應受現有國際人道主義法的管制。

隨著新的無人機戰爭變得越來越普遍,據說適用于戰爭的特殊規則--尤其是國際人道法所提供的較低水平的保護--有可能成為默認制度。從長遠來看,這種情況的實際影響是,禁止使用兵力的規定繼續受到侵蝕,對國際法的解釋越來越放任。這些事態發展的全部代價和后果仍在顯現,但現在開創的先例很可能會以有害且不可逆轉的方式損害個人權利。

為應對這一趨勢,各國至少應重申國際人權法在武裝沖突內外的適用性。戰爭的個人化和自動化促使人們轉向《國際人權法》所載的原則,如在某些條件下對必要性標準進行更嚴格的解釋,以及只有在旁觀者不太可能受到傷害的情況下才使用兵力的類似規定。然而,盡管國際人權法提供了國際人道主義法之外的額外保護,但國際人道主義法與國際人權法之間的確切互動關系卻存在爭議,而且因國家實踐而異。從根本上說,這些法律制度并不是為了規范非傳統沖突和使用致命兵力的非傳統手段而設計的,在即將到來的無人機戰爭中,法律保護方面的差距可能會越來越大。

這些空白促使紅十字國際委員會強調,"有必要根據人道倫理考慮澄清和加強法律保護"。在現有條約未涵蓋的情況下,《日內瓦公約第一附加議定書》第 1(2)條和《日內瓦公約第二附加議定書》序言(通常被稱為 "馬頓斯條款")規定,個人應受到習慣國際人道法以及 "人道原則和公眾良知的要求 "的保護。

但道德方面的考慮可能與法律有很大出入。道德與法律之間的關系是一個長期的學術爭論,不在本文討論范圍之內。簡而言之,法律的目的不同于道德,因為它必須考慮到公約對行為的影響、現實世界中認識論的不確定性程度以及國際體系中的無政府狀態。在這種情況下,用亨利-舒(Henry Shue)的話來說,道德上最優的法律可能只是那些 "能夠讓憤怒而恐懼的凡人在道德判斷上產生相對較少的錯誤--相對較少的錯誤--揮舞著威力巨大的武器 "的法律。

然而,人工智能不可預測和復雜的性質,使得事先辨別正確行動方針的工作變得更加復雜。即使人類遵循了所有的法律和政策準則,人類決策與機器行動之間的差距也意味著結果可能并不道德。遠非如此。

道德的東西未必合法或明智,反之亦然。

與此同時,政策指導并不能取代法律所提供的保護。例如,新制定的《美國總統政策備忘錄》(PPM)本應在戰爭法規定的直接行動(即無人機襲擊和特種作戰突襲)之外提供更多保護。但該政策指南不具有法律約束力,可以隨時秘密中止,包含大量集體和單位自衛的豁免條款,而且僅適用于美國無人機在 "現行敵對行動地區"(尤其是伊拉克和敘利亞)之外的一小部分打擊行動。

此外,該政策指南是針對常規無人機襲擊而制定的。當世界站在人工智能驅動的無人機戰爭新階段的懸崖邊時,是時候重新思考規則了。

懸崖勒馬

關于監管致命的自主武器系統,包括人工智能賦能的無人機,已經有很多建議。但是,如果過去的無人機戰爭能夠說明問題,那么這些法規很可能仍然不夠完善。人的監督以及對現有法律和標準的遵守至關重要,但還不夠。

為了在未來的無人機戰爭中更全面地保護平民,美國決策者應緊急采取以下措施:

1、制定美國政府范圍內關于在無人機戰爭中使用人工智能的政策。雖然國防部已經發布了許多關于人工智能和自主武器系統的指導方針,但這些指令并不一定適用于其他機構,比如美國情報界。鑒于這些其他機構可能在日常識別、審查和攻擊目標方面發揮關鍵作用,這種疏忽令人深感憂慮。

2、遵循 "兩人規則"。冷戰期間,兩人規則要求在維修、移動或使用核武器或核材料時,必須有兩名或兩名以上獲得授權的人員在場。這一規則旨在防止可能對人類生命構成重大危險的核事故或誤用。人工智能賦能的武器也有可能造成類似的災難性結果,因此所有無人機操作都應遵循同樣的規則。

3、縮小責任差距。無人機戰爭中不斷提高的自主性將使打擊更加不可預測,從而導致無法歸咎于任何特定個人的錯誤。為了降低這種風險,從人類批準對目標采取致命行動到無人機采取行動之間的時間間隔應盡量縮短到幾秒或幾分鐘,而不是幾天或幾個月。在任何情況下,都不應允許無人機獨立瞄準預先批準(人類批準)的 "殺戮名單 "上的個人。

4、開展并公布例行的人工智能健康審計。為了減少可解釋性問題,人類必須檢查人工智能,人工智能也必須檢查自己。"檢查人工智能 "可以成為道德審計的有力工具,幫助人類測試人工智能系統,找出算法中的缺陷或潛在偏見。人工智能健康檢查必須定期進行,檢查結果應向國會議員(如八國集團)通報,并向公眾提供經過編輯的版本。

潘多拉的盒子已經打開,但決策者仍可為無人機戰爭中的人工智能革命設置必要的防護欄。用馬丁-路德-金的話說,美國 "面臨著刻不容緩的緊迫性","有一種事情就是為時已晚"。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

俄羅斯正在進行的烏克蘭戰爭使自主和無人系統越來越多地融入戰爭的各個方面。對于北約及其成員來說,這種快速發展的技術不再是明天的問題,而是今天的問題。北約及其成員正在考慮如何應對這些系統帶來的挑戰和機遇。

雖然對什么是自主系統有不同的定義,但北約將其定義為:在規定的參數范圍內,根據已獲得的知識和不斷變化的態勢感知,按照最佳但可能無法預測的行動方案,決定并采取行動以實現預期目標的系統。系統的操作者確定其參數和目標,但系統通過人工智能(AI)進行自我指導。在無人駕駛航空系統中,自主無人機可以根據收集到的環境數據進行通信、調整路線并做出決策,從而無需人類持續操作。將自主性應用于無人機網絡還能實現無人機群,使無人機網絡能夠作為一個單一、集中的實體執行任務。

在烏克蘭加速規模化應用

自 20 世紀 60 年代起,無人機和其他機器人就開始以有限的自動化水平進行遠程操作。就像手機從純粹的通信設備發展到與互聯網連接的計算機一樣,無人駕駛系統也正變得越來越智能,能夠以不同程度的自主方式和網絡編隊進行操作。早期的無人駕駛航空飛行器將飛機的操作人員轉移到地面,降低了風險和成本,但仍需按照機組人員的要求執行任務。自主系統不再需要這樣做。同樣,自主系統正在徹底改變其他傳統領域,自主水面艦艇、潛艇和陸地車輛都在進行不同階段的測試、生產和部署。

在烏克蘭戰場上,自主和無人系統的使用已經激增。廉價、大規模生產的空中無人機,包括經過改裝的商用系統,已成為偵察和瞄準的關鍵。從美國提供的 "彈簧刀 "到俄羅斯的 "柳葉刀-3",雙方都使用了依靠計算機視覺來識別和攻擊目標的閑逛彈藥。10 月,烏克蘭軍隊在塞瓦斯托波爾港發動了一次大規模無人機襲擊,動用了多達 16 架無人駕駛飛行器和水面艦艇,損壞了多艘俄羅斯船只。雖然這次攻擊很可能有人類操作員參與,但它顯示了協調一致的無人機群有可能壓垮傳統防御系統。

俄羅斯烏克蘭戰爭的強度和規模正以前所未有的速度加速軍用無人機的發展,并為對抗和有效利用無人駕駛和自主系統帶來了挑戰和機遇。例如,借助新型衛星通信網絡,無人機可以成為網絡化自主系統中的智能節點(傳感器和/或效應器),即使單個單元出現故障或喪失功能(如被擊落),無人機也能集體協作解決任務,如對前線的整個地段進行實時偵察。

國防能力的重大差距

北約領導層以及美國和其他成員正在應對自主和無人駕駛系統對安全帶來的挑戰和機遇。北約正在利用其《2022 年自主實施計劃》和《2021 年人工智能戰略》,重點關注負責任地開發和使用自主系統、綠色自主系統,以及保護北約相對于競爭對手和對手的技術優勢。

美國政府正集中精力開展跨機構工作,使各部門和機構在涉及國家安全的新興技術方面保持一致。為此,美國國防部專注于在戰爭中使用自主系統,以及確保安全和有效性所需的決策階梯。

雖然目前正在努力使各個盟國在自主系統方面的工作與聯盟的目標相一致,特別是在研發方面,但這需要加快步伐。要應對對未來戰爭問題至關重要的自主系統和其他顛覆性技術的挑戰,速度至關重要。整個聯盟的政策和實施必須更加協調一致,以了解作戰人員的需求,并提供必要的防御措施,在戰場上與自主系統作戰。

應對圍繞自主和無人系統挑戰的五個關鍵考慮因素

在北約尋求回答與自主系統的開發和實施有關的戰略和戰術問題時,有五個關鍵考慮因素需要解決:

1 解決成本與先進性的問題。在俄羅斯的烏克蘭戰爭中,國際社會看到了自主技術前所未有的應用。問題依然存在: 北約成員國考慮如何應對這一技術日益擴大的使用規模,同時在技術復雜性與易用性和實施之間取得平衡?我們正處于一個了解當今和未來戰場的拐點,看到傳統、常規軍事戰略與快速發展的新技術的混合使用。由于伊朗或烏克蘭等行為體能以每單元不到 3 萬美元的價格制造軍用無人機,因此需要考慮基礎技術先進性與成本和復雜性之間的平衡。

2 加強商業/軍事合作,接受軍民兩用技術。在國防工業基地問題上,商業實體與軍方之間的合作與協作至關重要。建造大量更小、更便宜、更靈活的無人攻擊和防御系統的主導戰略需要巨大的規模經濟。只有利用雙重用途技術以及同時在國防和商業市場運營的公司,才能實現這種模式。

3 將自主系統納入綜合防御。正如《2022 年美國國防戰略》所強調的,綜合威懾應 "在不同作戰領域、戰區和沖突范圍內無縫運作"。北約有一個戰略威懾和防御概念,一個最近商定的從戰略到地區的系列計劃,以及一個新的 "部隊模式",以確保按規模和相關速度確定部隊,滿足其新防御計劃的要求。聯盟和盟國將確定自主和無人系統在聯盟防御計劃和概念中的作用。

4 為多領域使用自主和無人系統做好準備。北約及其成員考慮不僅在空中領域,而且在其他物理領域--海上、地面和太空--使用自主和無人駕駛系統。北約還必須考慮網絡能力如何支持自主和無機組人員系統、必須確保安全的軟件和硬件漏洞,以及如何利用對手系統的漏洞。

5 解決政府授權和采購流程問題。隨著商業部門與軍方之間的合作日益密切,許多與速度和流程相關的考慮因素也應運而生,但政府也必須考慮其采購流程如何影響技術開發、采購和投入戰場的速度。采購所需設備和平臺的 "及時"模式已不能滿足作戰人員的需求。聯盟和盟國決不能因為過時和繁瑣的政府程序而失去技術優勢。相反,盟國必須努力減少障礙,加快采購進程。

建議和結論

  • 重新定義沖突中的領域優勢

在大國競爭的時期,自主和無人系統的進步可能會對任何突發事件產生影響。在北約應對俄羅斯威脅之際,領域優勢至關重要。目前,在完全自主的情況下,幾個士兵就能在短時間內連續發射數十或數百架空中無人機,使防空系統達到飽和。這意味著盟國需要開發一種新的空中優勢模式,在傳統防空手段的基礎上增加新的、潛在的自主反無人機系統。在其他物理領域應對大規模無人駕駛系統的威脅時,也必須做出類似的考慮。

  • 了解軟件的決定性作用

組建和部署無人機系統網絡化編隊的能力取決于這些系統是否使用兼容的操作系統,以便在所有系統上同時部署相同的協調應用程序。雖然硬件特性仍然至關重要,并有助于區分不同的供應商,但運行專有和定制軟件會削弱聯網能力。要應對這一挑戰,就必須將對話轉向軟件定義的系統。

  • 政府采購所需的變革

自主系統需要采用軟件優先的采購方法,這意味著操作系統和軟件比無人機系統更重要。軟件不僅是單個系統性能的關鍵,決定著系統檢測威脅和做出決策的能力,也是系統通過協調和數據交換集成到更廣泛的系統網絡中的關鍵。自主系統將需要不斷更新其操作系統、人工智能模型和數據協議,以確保它們的安全性、能力和互操作性,并需要供應商的持續參與。未來,購買自主系統更像是購買 IT 設備,而不是傳統的國防資產。盟國的采購流程必須反映技術使用和實施的這種演變。

參考來源:CEPA

付費5元查看完整內容

ChatGPT作為人工智能發展新的里程碑,在語言表達、自我強化等方面表現突出,展現出生成式人工智能的廣泛運用前景,在多領域引起廣泛關注,以ChatGPT為代表的生成式人工智能將會可預期地改變國家安全態勢。在意識形態安全層面,對生成式人工智能的惡意運用使滲透方式更加多元,滲透效能更加顯著。在國際輿論層面,對生成式人工智能的大規模使用將進一步使輿論場復雜化。在國家實力發展層面,生成式人工智能將繼續拉大國家實力差距,國內公共權力與權威進一步分散。在軍事安全層面,生成式人工智能賦能戰場信息收集和戰場指揮,國家之間的認知戰對抗能力重要性日益提升。在法律規范層面,當前生成式人工智能的責任主體不明晰,現有法律法規難以約束基于該技術開展的犯罪行為。在社會穩定方面,生成式人工智能沖擊勞動力市場,重塑人才發展模式。面對新技術沖擊下急劇變化的新安全態勢,應建立更多元協同的創新和應用體系,在國際上共享發展成果,完善法律體系,推動該技術服務于國家利益發展與人類命運共同體的構建。

付費5元查看完整內容

在世人的記憶中,2022 年可能是生成式人工智能(AI)之年:在這一年里,大型語言模型(LLM)(如 OpenAI 的 GPT-3)和文本到圖像模型(如 Stable Diffusion)標志著社交媒體操縱潛力的巨大變化。針對對話進行了優化的 LLM(如 ChatGPT)可以大規模生成自然、人性化的文本內容,而開源的文本到圖像模型可以生成任何(真實或想象的)逼真圖像,并且可以大規模生成。利用現有技術,美國對手可以建立數字基礎設施來制造逼真但不真實(虛假)的內容,從而為類似的逼真但不真實的在線人類角色推波助瀾:Twitter、Reddit 或 Facebook 上的賬戶看似真實,實則是由人工智能生成的合成建構,并推進符合這些政府利益的敘事。

在本視角中,作者認為無處不在、功能強大的生成式人工智能的出現構成了潛在的國家安全威脅,即美國對手濫用的風險(尤其是用于操縱社交媒體),美國政府和更廣泛的技術和政策界現在就應積極應對。作者重點以中國作為潛在“威脅”的示例,但各種行為體都可能利用生成式人工智能操縱社交媒體,包括技術成熟的非國家行為體(國內和國外)。本視角中討論的能力和威脅很可能也與俄羅斯和伊朗等其他已經參與社交媒體操縱的行為體相關。

選擇社交媒體操縱策略和生成人工智能的潛在影響

付費5元查看完整內容

制定量化不確定性元數據的軍事標準是解決利用人工智能/機器學習(AI/ML)軍事優勢所固有的問題。通過提供元數據,美國防部可以繼續確定使用人工智能/機器學習的最佳策略,與能力發展同步進行。這種協調將防止在解決與在作戰系統中實施AI/ML有關的困難技術問題時出現延誤。不確定性量化可以使觀察、定向、決定和行動循環的實際數字實施成為可能,解決在戰爭中使用AI/ML的道德問題,并優化研究和開發的投資。

引言

從基礎上講,美國軍隊不需要人工智能/機器學習(AI/ML)。然而,軍隊需要能夠比對手更快、更好地觀察、定位、決定和行動(OODA),以實現軍事優勢。機器有能力以比人類更快的速度進行觀察、定位、決定和行動,從而實現這一優勢。然而,關于允許AI或ML模型 "決定 "最佳軍事行動方案是否合適的問題仍然沒有定論,因為該決定可能導致破壞和死亡。

利用AI/ML的軍事優勢的潛在隱患已經被不厭其煩地提出來。有三個問題仍然是最令人擔憂的:(1)解決賦予AI摧毀事物和人的權力的道德和倫理考慮;(2)平衡發展AI/ML能力的成本和軍事效用;以及(3)確保對機器的適當信任水平,以最佳地利用對能力發展的AI/ML部分的投資。然而,作為元數據納入軍事信息的不確定性量化(UQ)可以解決這三個隱患,同時遵守美國防部的人工智能倫理原則。

美國防部的人工智能戰略將AI/ML技術的成熟作為優先事項并加以激勵。其結果是,試圖快速實施能力的活動紛至沓來,而對能力增長的可持續性或AI/ML使用的高階影響規劃卻少之又少。正如一位國防研究人員所指出的,"當技術變革更多的是由傲慢和意識形態驅動,而不是由科學理解驅動時,傳統上調節這些力量的機構,如民主監督和法治,可能會在追求下一個虛假的黎明時被削弱。"

美國國防高級研究計劃局認為,目前的AI/ML系統 "缺乏必要的數學框架 "來提供使用保證,這阻礙了它們 "廣泛部署和采用關鍵的防御情況或能力。"保證需要信心,而信心需要最小的不確定性。使用AI/ML的系統的這種保證可以幫助解決道德方面的考慮,提供對開發成本與效用的洞察力,并允許其在戰爭中的使用責任由最低層的指揮官和操作員承擔。

通過在AI/ML系統中實施不確定性量化的軍事標準,美國防部可以確保對這些系統非常需要的信任。此外,如果美國防部將不確定性量化作為對開發者的要求,有可行的方法來應用現有的數學方法來確定和傳播不確定性。然而,當軍方將這一標準應用于信息時,它必須牢記不確定性量化的高階效應和挑戰。

AI/ML的不確定性量化

為了解決上述三個陷阱,任何軍事數字系統內部和都應該要求進行不確定性量化。不確定性量化是為系統中的不完美或未知信息分配一些數字的過程,它將允許機器實時表達它的不確定性,為建立對其使用的信任增加關鍵的透明度。美國防部應實施一項軍事標準,規定對數字系統中的每個數據或信息的元數據進行不確定性的量化標記。一旦可用,這些元數據可以通過功能關系傳播到更高層次的信息使用,為AI或ML模型提供所需的信息,以始終表達它對其輸出的信心如何。

理解作為元數據的UQ需要理解計量學的基礎概念--與測量不確定度有關的權重和計量科學。也就是說,一個測量有兩個組成部分: 1)一個數值,它是對被測量量的最佳估計,以及2)一個與該估計值相關的不確定性的測量。

值得注意的是,2008年國際標準化組織(ISO)的《測量不確定性表達指南》定義了測量不確定性和測量誤差之間的區別。這些術語不是同義的:"通常在被測物[被測量的量]的報告值后面的±(加或減)符號和這個符號后面的數字量,表示與特定被測物有關的不確定性,而不是誤差。誤差是指測量值與實際值或真實值之間的差異。不確定度是許多誤差的影響"。

在軍事術語中,"測量"是在OODA循環中收集和使用的任何信息。每條信息都是由某種傳感器測量的,并且會有一些不確定性與之相關。作為元數據的不確定性量化將至少采取兩種形式:根據經驗產生的測量不確定性(基于上文概述的計量標準)和統計學上假設的不確定性(通過一些手段確定,其中有很多)。

操作員在使用具有UQ功能的系統時,可以使用系統報告的不確定性來告知他們的戰術決策。指揮官可以利用這種系統在作戰甚至戰略層面上為各種類型的軍事行動設定所需的預定義信任水平,這可以幫助操作人員在使用AI或ML模型時了解他們的權限是什么。這也將有助于采購專業人員為AI/ML能力的發展做出適當的投資決定,因為它將量化效用的各個方面。此外,在使用AI/ML的系統中提供量化的最低限度的確定性要求,可以解決上面討論的三個隱患。

就使用AI的道德和倫理問題而言,對于 "讓AI或ML模型決定將導致破壞和死亡的軍事行動方案,是否符合道德或倫理?"這個問題沒有單一的正確答案。正如所有的道德和倫理辯論一樣,以絕對的方式處理是不可能的。

因此,美國防部應將軍事行動分為三個眾所周知的機器自主性相對程度之一:機器永遠不能自己做的事情,機器有時或部分可以自己做的事情,或機器總是可以自己做的事情。然后,美國防部可以為這些類別中的每一類定義一個最低的確定性水平作為邊界條件,并且/或者可以定義具體行動所需的最低確定性水平。決策或行動的關鍵性將推動UQ邊界的確定。使用不確定性量化包含了在處理使用AI/ML的系統的道德考慮方面的細微差別和模糊性。

當涉及到平衡人工智能/機器學習的成本與使用時,美國防部的受托責任是確保對人工智能/機器學習發展的投資與它的軍事效用成正比。如果人工智能/機器學習政策禁止美國軍隊允許人工智能決定摧毀某物或殺人,那么開發和采購一營完全自主的殺手機器人就沒有任何意義。因此,預先定義的最低不確定性界限將使采購專業人員能夠確定如何最好地使用有限的資源以獲得最大的投資回報。

在能力發展過程中優化對AI/ML的信任,將需要對AI/ML采購中普遍存在的經驗不足以及機器學習中不確定性量化科學的相對稚嫩進行保障。"不確定性是機器學習領域的基礎,但它是對初學者,特別是那些來自開發者背景的人造成最困難的方面之一。" 系統開發的所有方面都應該包括不確定性量化的元數據標簽,無論系統是否打算自主使用。

這些輸出可能會被卷進更高層次的數字能力中,然后需要UQ數據來計算不確定性的傳播。例如,F-16維護者的故障代碼閱讀器應該有不確定性量化元數據標記到每個故障讀數,在源頭提供這種量化。讀碼器本身并不打算納入人工智能或機器學習模型,而且該數據可能不會立即用于人工智能/ML應用,但故障數據可能會與整個艦隊的故障數據進行匯編,并提交給預測倉庫級維護趨勢的外部ML模型。元數據將跟隨這組數字信息通過任何級別的編譯或高階使用。

要求將不確定性量化元數據作為一項軍事標準,實現了美國防部長關于人工智能道德原則的意圖,其中包括五個主要領域:

  • 負責任: UQ為判斷提供依據,為開發、部署和使用人工智能能力提供經驗基礎。
  • 公平性: 人工智能中的偏見可以用與不確定性相同的方式來衡量,并且是基于許多相同的統計學原理。然后,偏見可以被解決和改善。
  • 可追溯性: 要求每個層次的不確定性元數據能夠保證可追溯性。機器的性能問題可以追溯到有問題的部件。
  • 可靠性: UQ允許開發人員檢查,并允許有針對性地改進最惡劣的輸入因素。
  • 可管理: UQ作為自主性信任等級的邊界條件,可以用來定義實現預期功能和避免意外后果的準則。

采用這些道德原則是為了確保美國防部繼續堅持最高的道德標準,同時接受人工智能這一顛覆性技術的整合。不確定性量化是實現這一目標的實用方法。

在AI/ML中建立信任

蘭德公司的一項研究發現,信任是與人工智能/ML的軍事用途有關的大多數擔憂的根本原因。國防部研究人員指出,"當涉及到組建人類和自主系統的有效團隊時,人類需要及時和準確地了解其機器伙伴的技能、經驗和可靠性,以便在動態環境中信任它們"。對于許多自主系統來說,它們 "缺乏對自身能力的認識,并且無法將其傳達給人類伙伴,從而降低了信任,破壞了團隊的有效性"。

AI/ML模型中的信任從根本上說是基于人類對信息的確定性,無論是簡單的傳感器輸出還是自主武器系統的整體能力。這一點得到了MITRE公司研究的支持: 人工智能采用者經常詢問如何增加對人工智能的信任。解決方案不是讓我們建立人們完全信任的系統,也不是讓用戶只接受從不犯錯的系統。相反,教訓指出了在證據和認知的基礎上形成良好的伙伴關系的重要性。良好的伙伴關系有助于人類理解人工智能的能力和意圖,相信人工智能會像預期的那樣工作,并在適當程度上依賴人工智能。然后,利益相關者可以校準他們的信任,并在授予人工智能適當的權力之前權衡人工智能決定的潛在后果。

通過將機器--數字或物理--視為合作伙伴,軍方可以將其與人類合作伙伴的信任建立技術進行類比。健全的伙伴關系需要有效的雙向溝通和加強合作的系統。"事實上,數字系統輸出中的不確定性措施是沒有用的,除非這種不確定性可以傳達給人類伙伴。一旦機器能夠量化不確定性,并且能夠傳達這種量化,它們也能夠對輸出進行評估并改進系統。

機器對其自身能力的認識的實時反饋,將通過提供每個循環中的不確定性的量化,增加機器的觀察、定位和決定功能的透明度。這種反饋提高了對該特定系統的信任,并通過不確定性的傳播實現了對系統中的系統的信任量化。例如,考慮遙控飛機(RPA)對一個潛在目標的視頻監控。如何確定RPA的傳感器是準確的和經過校準的,視頻流沒有被破壞,和/或操作者已經得到了關于首先將傳感器指向何處的健全的基線情報?

OODA環路的每一個組成部分都有一些相關的不確定性,這些不確定性可以而且應該被量化,從而可以用數學方法傳播到決策層面。在這種情況下,它將導致目標正確性的x%的傳播確定性,使任務指揮官對他們的態勢感知(觀察)充滿信心,并使他們能夠更好地確定方向,更快地決定是否參與。

通過量化不確定性,并將其與各類行動所需的預定信心水平結合起來使用,決策者可以圍繞那些幾乎沒有道德影響的軍事行動以及那些有嚴重道德影響的軍事行動創造邊界條件。國防部高級領導人還可以為開發和應用人工智能/ML能力的投資比例設定門檻,并可以確保投資將被用于實現最佳軍事優勢。這將通過 "量化-評估-改進-溝通 "的循環為使用人工智能/ML的系統提供保證。

不確定性量化允許設置如果-那么關系,以限制機器的可允許行動空間。在另一個簡略的例子中,一個空間領域意識任務可以使用紅外傳感器數據來識別空間飛行器。如果-那么關系可能看起來像這樣: 如果傳感器數據與目標的關聯模型的確定性大于95%,那么該目標識別信息可以在國家空間防御中心目錄中自動更新。如果傳感器數據與目標的關聯模型的確定性大于75%但小于95%,那么機器可以嘗試與確定性大于75%的信號情報(SIGINT)進行匹配,或者可以將信息發送給人類進行驗證。

因此,使用量化的不確定性使指揮官能夠將決策樹根植于人工智能/ML模型可使用的參數中,并指導如何使用這些人工智能/ML模型。在考慮機器自主性的三個相對程度時,指揮官可以預先定義每一類行動的輸入的不確定性水平,作為何時以及在何種情況下讓機器決定是有意義的指導方針,明確界定使用人工智能或ML模型的參與規則。

所有武器系統,無論是否打算納入自主性,都應在其計劃的用戶界面中提供不確定性元數據。了解所有輸入的不確定性對傳統武器系統的用戶和人工智能/ML的應用一樣有利。通過現在提供元數據,國防部高級領導人可以繼續確定使用AI/ML的最佳治理和政策,而不會放慢技術和工程發展。任何這樣的治理都可以在未來通過參考系統內組件級或輸出級的量化不確定性來實施。

數學實現

將不確定性量化和傳播應用于收緊OODA循環,假定功能關系可用于定義軍事情況。函數關系是這種應用的最佳數學方法,因為一般可以證明函數值和輸入變量之間存在因果關系,而不需要具體確定關系的確切數學形式。通過假設這些函數關系的存在,可以使用一個描述不確定性傳播的一般方程式。

一個帶有不確定性條款的通用函數關系看起來像:

其中y是輸出,u(y)是該輸出的不確定性,有n個輸入變量,其相關的不確定性影響該輸出。這表明y取決于n個輸入變量,并且按照 "不精確概率論者 "的風格,y的精確值在y+u(y)到y-u(y)的區間內。

這種旨在改善醫學實驗室研究的想法的直接應用也涉及到軍事決策。"與任何測量相關的不確定性及其通過定義的函數關系的傳播可以通過微分(部分微分)和應用不確定性傳播的一般方程來評估。"這些數學方法將捕捉到在一個非常復雜的系統中許多測量物變化時不確定性的變化。這個不確定性傳播方程可以用標準的統計程序得出,最重要的是,它與函數關系的確切形式無關。

請那些更精通統計學的人將這種方法提交給進一步的案例研究,并確定在需要包括許多輸入變量時,在非常大的系統層面計算傳播的不確定性的可行性。已經表明,"問題越復雜,獲得校準的不確定性估計的成本就越高"。這種方法通過作戰級別的人工智能/ML模型(即涉及一翼或一營的交戰)可能是可行的,但更高層次的戰略不確定性傳播(即包括政治經濟或核因素的戰役級模型)可能需要不可行的計算能力來實時計算。

作為輸入數據集的一部分,通過機器學習模型傳播測量的不確定性比使用統計方法來估計模型內的不確定性要少得多。數據科學家和人工智能研究人員將熟悉大量專注于假設機器學習模型內的不確定性的研究,但許多歷史工作并沒有采取調整認識上的不確定性--ML模型的訓練數據量不足--與訓練數據集中的測量不確定性的方法。

測量的不確定性可以被認為是數據中的噪聲和/或觀察中的變異性。在數字系統中實施不確定性量化時,需要對不確定性的其他方面進行量化,如領域覆蓋的完整性,也就是輸入數據集的代表性,以及軍事問題的不完善建模,這是模型開發過程中不正確的基線假設的結果,最終植根于人類判斷的不完善。

一個更現代的傳播方法,可能計算量較小,可能是使用機器學習來假設不確定性。來自其他學科使用神經網絡的證據顯示,納入已知的輸入數據不確定性,"與不使用它們的情況相比,對做出更好的預測是有利的"。這些研究人員還建議進一步調查在貝葉斯深度學習框架中使用已知的輸入數據不確定性 "作為要得出的不確定性的初始值",這將是一種與統計學得出的不確定性協同傳播經驗不確定性的方式。

使用數學方法來傳播不確定性,將納入并考慮到不確定性的影響--無法解釋的數據的固有隨機性--以及認識上的不確定性。擬議的軍事標準應將測量不確定性的要求與傳播到高階用途的要求結合起來,如機器學習或更抽象的建模和模擬。用軍事術語來說,通過這種方法使UQ標準化,不僅要考慮基線觀測數據的不確定性,還要考慮與方向和行動有關的數據不確定性。

軍事用途的數學問題

為了繼續與軍事戰略進行類比,功能關系描述了在OODA循環中如何獲得軍事優勢,以及不確定性如何在該過程中傳播。

在這個特意象征性的等式中,觀察和定位是恒定的活動,而決策和行動是時間上的離散事件。所期望的軍事效果的成功概率是基于循環中每個輸入變量的不確定性的傳播:操作者有多大把握(a)他們的觀察抓住了現實,(b)他們以預期的方式定向,(c)他們的決定以預期的方式執行,以及(d)他們的行動沒有被打亂。

這種方法的障礙在于它需要對不確定性的事先了解,這是目前無法獲得的元數據,因為在經驗情況下確定它的成本通常很高,而在統計情況下有許多可接受的方法來生成它。這就回到了建議的解決方案,即征收要求和標準,以提供與每個輸入變量相關的不確定性作為元數據。一旦提供,匯編觀測和定位數據的人工智能/ML系統可以使用元數據進行傳播,并向操作者或指揮官提供情況圖中的總體量化不確定性。當實時使用時,這種方法內在地捕捉了OODA循環的決策和行動步驟的各個方面。

高階效應和挑戰

一項分析表明,將不確定性信息傳達給無人駕駛車輛的操作員并使之可視化,有助于提高人類-AI團隊的績效。但其他人工智能研究人員也表明,"需要更多地研究如何以對用戶有意義的方式,最好地捕捉和呈現開發者的[不確定性量化]"。他們進一步指出,"讓用戶對他們不了解的方面有看似控制的感覺,有可能給人以清晰和知情控制的錯覺,造成額外的自動化偏差,或者干脆讓用戶選擇一個給他們想要的答案的選項。" 這一發現堅實地進入了決策理論和心理學的工作體系。有一些統計方法試圖用算法來定義判斷和決策,使用這些方法有風險。

一項單獨的分析提供了判斷和決策文獻中與決策中使用不確定性估計有關的結論。該研究的結論是,向利益相關者提供不確定性估計可以通過確保信任的形成來提高透明度: "即使是經過良好校準的不確定性估計值,人們也會有不準確的認識,因為(a)他們對概率和統計的理解程度不同,(b)人類對不確定性數量的認識往往受決策啟發式的影響。

作者進一步補充說,"非專業人士和專家都依賴心理捷徑或啟發式方法來解釋不確定性",這 "可能導致對不確定性的評估出現偏差,即使模型輸出是經過精心校準的"。不出所料,關于這個問題的主要啟示是,所選擇的UQ交流方法應首先與利益相關者進行測試,開發人員應滿足他們的UQ顯示和用戶界面的不同終端用戶類型。例如,向數據科學家介紹不確定性量化應該與向戰時決策的操作員介紹UQ不同。情報界在確定傳達與軍事信息相關的不確定性的最佳方法方面有著悠久的歷史,因此它對 "估計概率詞 "的約定可能是后一類終端用戶的合適出發點。

當考慮在作戰和戰略決策層面使用傳播的不確定性時,有可能使用傳播計算可能使UQ數字變得不相關和不可用,因為在非常復雜的系統中,不確定性接近100%的期望輸出。順便說一句,這是一個有趣的結論,可能指向 "戰爭迷霧 "的數學證明。進一步調查計算非常大的系統級別的傳播的不確定性可能會更好地闡明這個結論。

然而,這種高度傳播的不確定度的潛在缺陷并不足以反駁實施不確定度軍事標準的做法。包括每個級別的元數據標簽,使操作人員能夠檢查哪些因素造成了最大的不確定性,哪些因素是指揮官可以有高度信心的,這仍然是非常有用的信息。當操作員的帶寬在高壓力交戰之外可用時,這些元數據標簽允許操作員檢查功能關系中輸入變量之間的協方差和相關性。這些元數據還可以被采集專業人員用于評估和改進任務,通過識別系統性錯誤并將其消除,以及識別造成隨機錯誤的最嚴重的罪犯。

高度傳播的UQ可能是不相關的,這也強調了發展健全的軍事判斷的永久重要性。正如在任何不確定性非常高的軍事情況下,為實現軍事優勢,將需要具有敏銳性的操作員和指揮官。使用人工智能/ML來觀察、定位、決定和比對手更快地行動,只有在行動優越的情況下才會導致勝利。勝利理論的這一層面與要求、傳播和以標準化的方式交流UQ的論點不同。

最后,AI/ML要求輸入數據是感興趣領域的 "具有適當代表性的隨機觀察樣本"。重要的是,"在所有情況下,我們永遠不會有所有的觀察結果",而且在感興趣的領域內 "總會有一些未觀察到的情況"。盡管人工智能或ML算法是在一個不充分的數據集上訓練出來的,但試圖在數據抽樣中實現對該領域的全部觀察覆蓋也是不理想的。

當以較高的行動節奏將人工智能/ML應用于OODA循環時,提高領域的覆蓋率并不需要更多的抽樣,而應該通過抽樣中更多的隨機化來實現,重點是確定準確的測量不確定性。上述關于已知輸入數據的研究從理論上和經驗上證明,將數據的不確定性納入一系列機器學習模型的學習過程中,使模型對過擬合問題更有免疫力--當模型與訓練數據集擬合得過于緊密時,就會出現不可接受的ML行為,導致在負責評估未知數據時出現不準確的預測結果。

過度擬合的問題并不是機器學習所獨有的,從根本上說是由輸入數據集的缺陷造成的。"簡單地說,不確定性和相關的無序性可以通過創造一個更高更廣的更一般的概念來代表現實的直接假象來減弱"。這導致了對該領域的最大統計覆蓋,對被觀察系統的侵擾最小。它還最大限度地減少了數據和元數據集的大小,從而在高階使用中提高了UQ傳播方程的計算效率。

結論

實施量化不確定性元數據的軍事標準,并發展傳播、評估、改進和交流該信息的能力,將為繼續追求AI/ML的軍事用途能力提供最大的靈活性。使用人工智能/ML系統的不確定性量化,通過溝通、透明和參與共同經歷來發展這種信任,使人機團隊內部能夠相互信任和團結。使用AI/ML系統實現軍事目標的保證需要量化的不確定性。

與軍事戰略的概念相聯系,這種不確定性量化的整個框架有助于一個成功的組織。通過現在提供UQ元數據,國防部高級領導人可以繼續確定使用人工智能/ML的最佳治理和政策,而不耽誤技術和工程開發。隨著作戰人員使用UQ來發展對AI/ML伙伴的信任,軍隊的觀察、定位、決定和行動的能力將比對手更快,并確保軍事優勢。

付費5元查看完整內容

2022 年底,ChatGPT 憑借強大的信息收集和處理能力而爆火“出 圈”,社會上掀起了對人工智能技術發展和應用風險的熱烈討論。這 其中不乏對ChatGPT在軍事上對作戰行動影響的討論。2023年3月14日, 俄羅斯的一架蘇 -27 戰斗機與一架美軍地 MQ-9“死神”無人機發生 碰撞,美軍無人機受損并最終墜入黑海海域。該事件似乎驗證了關于 未來戰場有人和無人裝備將更加頻繁互動的觀點。這在一定程度上強 化了國際社會對自主武器和人工智能軍事化開展全球安全治理的關切 和推動意愿。有鑒于人工智能軍事化風險及其全球安全治理的討論已 成為一項熱點話題,本文將重點分析人工智能全球安全治理的發展趨 勢,并結合近期荷蘭主辦全球軍事領域負責任的人工智能峰會的主要觀點進行評論.

一、人工智能全球安全治理的演進與挑戰

隨著人們對以致命性自主武器為代表的無人裝備的安全擔憂日 甚,國際社會對管控相關技術的意愿愈發迫切。從當前的全球安全治 理主張來看,有一些人極力推崇達成一項全面禁止致命性自主武器的 國際協議;另一些人則認為應當確立武器研發、部署和使用的“良好實踐”。在全球安全治理路徑爭論不休的情況下,美歐等發達國家卻 把“軟規則”建構視作建立自身發展優勢的工具,利用其在治理機制 中的主導地位建構排華“小圈子”。與此同時,推動人工智能安全治 理的知識生產面臨著供給不均衡、不充足的挑戰。

(一)取向多元化:對致命性自主武器進行管控爭論不休 國際社會在如何管控致命性自主武器的議題上出現了“全面禁 止”和“有限發展”的尖銳分歧。一方面,較為激進的觀點主張全面 禁止致命性自主武器的研發、部署和應用。人權觀察組織、紅十字國 際委員會等國際組織不斷發布研究報告,期望在國際社會形成禁止致 命性自主武器的輿論壓力。b 它們呼吁能夠倡導達成一項具有約束力 的國際條約,盡早對致命性自主武器開啟嚴格的軍備控制。在 2022 年 7 月的《特定常規武器公約》政府專家會議上,阿根廷等十個人工 技術弱國堅定地反對在國際場合討論軍事無人化的好處,聯合發布了 禁止致命性自主武器的路線圖,這預示著中小國家將形成強化全面禁 武主張的核心陣營。它們強調要盡早采取的預防措施是禁止發展、交 易、部署和使用致命自主武器,從而徹底排除自主武器系統對人類造 成巨大傷害的可能性。

另一方面,美國拉攏盟友在 2022 年 7 月的《特定常規武器公約》 政府專家會議上發布《致命自主武器系統領域新興技術的原則和良 好實踐》,提出武器發展的全生命周期只要符合相關規制便是所謂的 “良好實踐”。發達國家聯盟強調“良好實踐”的原因是,它們認為完全自主的致命性自主武器還沒有出現,當前的致命性自主武器處在 “有意義的人類控制”之下,就算致命性自主武器還存在一些技術風 險,這些風險也會隨著科技的進步而得到緩解。d 上述針鋒相對的立 場呈現出國際社會對規制致命性自主武器不同的路徑和最終指向,而 這種分歧恐怕在短期內是難以化解的。

(二)機制集團化:全球安全治理結構正趨向西方主導的政治 “中心化”

經濟與合作發展組織、二十國集團以及人工智能全球伙伴組織是 具有一定代表性的人工智能安全治理多邊機制。從圖 1 可看出,七國 集團成員、澳大利亞、印度等等是這三個國際論壇的核心成員,中國 與俄羅斯兩個大國只是“二十國集團人工智能原則”的參與國。盡管“中心化”的國際治理結構更有利于反應某些國家的關切、凝聚中心 參與者的共識,但是這難免會讓其他成員的治理主張邊緣化。尤其是 處于核心地位的美國正利用其在國際平臺中的“核心地位”打造民主 / 威權集團對抗的治理結構,增加了不同成員推動人工智能全球安全 治理合作的困難。 一是把美國的價值觀嵌入“二十國集團人工智能原則”的文本 中。2019 年 5 月,經濟合作與發展組織公布了經多個國家和國際組織 研討后的人工智能原則建議。在該原則通過后,特朗普政府的白宮首 席技術官邁克爾·科雷特西奧斯(Michael Kratsios)指出,“歷史上第 一次,美國和世界上志同道合的民主國家將致力于共同的人工智能原 則,來反映我們共同的價值觀和優先事項。”e 從結果來看,經濟合作 與發展組織人工智能原則的最終文本基本與《美國人工智能倡議》行 政令的基調一致。f 該原則建議后被二十國集團正式采納為其人工智 能原則。 二是美國加強與北約就人工智能軍事應用的協調,逐步吸收新 興經濟體并完善五眼聯盟、四邊安全對話、“人工智能國防伙伴關系” 等機制,不斷將人工智能議題納入到遏華的亞太“小多邊”安全體系 中。這些行動的官方基調是西方需要共同捍衛芯片供應鏈安全,確保 標準制定權不落入中國手中,以及協調集體安全軍事安全行動。北約 人工智能戰略著力推動人工智能互操作性、技術標準對接、人力資本 發展等;五眼聯盟成員將制定解決人工智能應用和互操作性的方法, 包括與北約一起搭建測試和應用人工智能的平臺;四邊安全對話將在 美國、日本、印度、澳大利亞四方合作框架的基礎上深化人工智能合 作,并在印度 - 太平洋地區談判達成正式的人工智能合作協議。由此來看,美國正將人工智能治理議題安全化,將盟友推上新一輪軍事競 爭和規則制定權爭奪的軌道。

三是美國聚攏西方國家搞排斥中國的新制度,拉攏盟友力推“人 工智能全球合作伙伴”,肆意制造“中國濫用人工智能技術”的論調 和陣營對抗。七國集團在 2016 年 4 月的信息通信技術(ICT)部長會 議討論了人工智能技術及應用監管議題。從 2016 年到 2019 年,七國 集團(G7)以人工智能負責任應用及監管為核心的議題逐漸成熟。法 國和加拿大倡議組建工作小組,并希望在 2020 年初正式啟動人工智 能全球合作伙伴(GPAI)。g 白宮官員則對此方案持保留意見,強調 該計劃過度謹慎的監管規則會威脅和妨礙技術發展,并且認為經濟合 作與發展組織已經建立專家組并向成員國提供政策建議,所以人工智 能全球合作伙伴是在重復經濟合作與發展組織的工作。h 法國數字事 務部長塞德里克·奧(Cédric O) 試圖說服邁克爾·克拉西奧斯,表示, “如果你不希望西方國家采用中國模式,比如用人工智能來控制人口, 你就需要建立一些普遍的規則。但這只針對一個國家”。考慮到繼續 反對該計劃恐將讓美國在西方集團內失去人工智能治理的規則主導 權,而加入其中則可以借此扭曲中國的人工智能應用,美國最終決定 支持啟動人工智能全球合作伙伴。 (三)知識供給匱乏:人工智能安全治理知識供給不均衡、不充足 先進人工智能技術的創新和大規模應用集中于少數大國。全球人 工智能的研究在 2020-2021 年間共出版 17 萬本期刊論文和七萬部會議 論文,中國、美國、歐盟和英國的出版物占據了其中的絕大多數。縱觀全球軍用人工智能發展格局,有能力大規模研發、制造、部署和 使用先進軍用人工智能也只有大國。或許,從人工智能技術在俄烏沖 突中的應用、伊朗核科學家和蘇萊曼尼將軍被“定點清除”、無人機 助力阿塞拜疆取得“納卡沖突”制空權等戰例來看,相關武器的購買 成本不是高不可攀。但是,大國在開發和評估新武器系統方面有更強 大的能力,而弱國采購進行評估和創新的能力較弱。僅從目標識別環 節來看,軍用人工智能系統需要一個國家有強大的情報偵察能力以提 供規模大和質量好的數據。而擁有更多的研發資金、科研人力和實戰 化訓練的大國能夠比中小國家獲取更多、更好的戰場數據。因此,大 國可以開發出更加先進的算法和硬件。這意味著中小國家推動軍備智 能化升級和技術評估的天花板要低于大國,它們的人工智能安全治理 的知識積累要弱于強國。

付費5元查看完整內容

隨著技術的飛速發展和威脅環境變得更加復雜,今天的海軍行動經常面臨著具有挑戰性的決策空間。人工智能(AI)的進步為解決海軍行動中日益復雜的問題提供了潛在的解決方案。未來的人工智能系統提供了潛在的意義深遠的好處--提高對態勢的認識,增加對威脅和對手能力和意圖的了解,識別和評估可能的戰術行動方案,并提供方法來預測行動方案決定的結果和影響。人工智能系統將在支持未來海軍作戰人員和保持作戰和戰術任務優勢方面發揮關鍵作用。

人工智能系統為海戰提供了優勢,但前提是這些系統的設計和實施方式能夠支持有效的作戰人員-機器團隊,改善作戰情況的不確定性,并提出改善作戰和戰術結果的建議。實施人工智能系統,以滿足海軍應用的這些苛刻需求,給工程設計界帶來了挑戰。本文確定了四個挑戰,并描述了它們如何影響戰爭行動、工程界和海軍任務。本文提供了通過研究和工程倡議來解決這些挑戰的解決思路。

引言

人工智能是一個包括許多不同方法的領域,目的是創造具有智能的機器(Mitchell 2019)。自動化系統的運作只需要最小的人類輸入,并經常根據命令和規則執行重復性任務。人工智能系統是自動化機器,執行模仿人類智能的功能。它們將從過去的經驗中學習到的新信息融入其中,以做出決定并得出結論。

如表1所述,人工智能系統有兩種主要類型。第一種類型是明確編程的專家系統。Allen(2020,3)將專家系統描述為手工制作的知識系統,使用傳統的、基于規則的軟件,將人類專家的主題知識編入一長串編程的 "如果給定x輸入,則提供y輸出"的規則。這些系統使用傳統的編程語言。第二種類型是ML系統,從大型數據集中進行訓練。ML系統自動學習并從經驗中改進,而不需要明確地進行編程。一旦ML系統被 "訓練",它們就被用于操作,以產生新的操作數據輸入的結果。

表1. 兩類人工智能系統

人工智能系統--包括專家系統和學習系統--為海軍提供了巨大的潛力,在大多數任務領域有不同的應用。這些智能系統可以擴展海軍的能力,以了解復雜和不確定的情況,制定和權衡選擇,預測行動的成功,并評估后果。它們提供了支持戰略、作戰計劃和戰術領域的潛力。

本文確定了工程設計界必須解決的四個挑戰,以便為未來海戰任務實施人工智能系統。表2強調了這四個挑戰領域。這些挑戰包括:(1)復雜的海戰應用領域;(2)需要收集大量與作戰相關的數據來開發、訓練和驗證人工智能系統;(3)人工智能系統工程的一些新挑戰;(4)存在對手的人工智能進展,不斷變化和發展的威脅,以及不斷變化的人工智能系統的網絡弱點。本文側重于海軍戰爭的四個挑戰領域,但認識到這些挑戰可以很容易地被概括為整個軍隊在未來人工智能系統可能應用的所有戰爭領域中廣泛存在的挑戰。

表2. 為海軍實施人工智能系統的四個挑戰領域

挑戰一:戰爭復雜性

人工智能正被視為一種能力,可應用于廣泛的應用,如批準貸款、廣告、確定醫療、規劃航運路線、實現自動駕駛汽車和支持戰爭決策。每個不同的應用領域都提出了一系列的挑戰,人工智能系統必須與之抗衡,才能成為一種增加價值的可行能力。表3比較了一組領域應用的例子,從潛在的人工智能系統解決方案的角度說明了挑戰的領域。該表在最上面一行列出了一組10個因素,這些因素對一個特定的應用程序產生了復雜性。根據每個因素對作為實施人工智能的領域的整體復雜性的貢獻程度,對六個應用領域的特征進行了定性評估。顏色代表低貢獻(綠色)、中貢獻(黃色)和高貢獻(紅色)。

表3中最上面一行顯示的特征包括: (1)認識上的不確定性水平(情況知識的不確定性程度),(2)情況的動態性,(3)決策時間表(可用于決策的時間量),(4)人類用戶和人工智能系統之間的互動所涉及的錯綜復雜的問題、 (5)資源的復雜性(數量、類型、它們之間的距離以及它們的動態程度),(6)是否涉及多個任務,(7)所需訓練數據集的復雜性(大小、異質性、有效性、脆弱性、可獲得性等 8)對手的存在(競爭者、黑客或徹頭徹尾的敵人),(9)可允許的錯誤幅度(多少決策錯誤是可以接受的),以及(10)決策后果的嚴重程度。該表的定性比較旨在提供一個高層次的相對意義,即基于一組樣本的貢獻因素,不同應用領域的不同復雜程度。

表3. 影響應用復雜性的因素比較

對于所有的應用領域來說,人工智能系統的工程都是具有挑戰性的。人工智能系統在本質上依賴于具有領域代表性的數據。獲得具有領域代表性的數據會帶來基于數據大小、可用性、動態性和不確定性的挑戰。決策時間--由情況的時間動態決定--會給人工智能系統工程帶來重大挑戰--特別是當一個應用領域的事件零星發生和/或意外發生時;以及當決策是時間緊迫的時候。具有更多決策時間、充分訪問大型數據集、直接的用戶互動、完善的目標和非致命后果的應用,如貸款審批、廣告、醫療診斷(在某種程度上)面臨工程挑戰,但其復雜程度較低。確定最佳運輸路線和為自動駕駛汽車設計AI系統是更復雜的工作。這些應用是動態變化的,做決定的時間較短。航運路線將在可能的路線數量上具有復雜性--這可能會導致許多可能的選擇。然而,航運錯誤是有空間的,而且后果通常不會太嚴重。對于自動駕駛汽車來說,決策錯誤的空間非常小。在這種應用中,決策失誤會導致嚴重的事故。

影響開發支持海戰決策的人工智能系統的因素在表3所示的所有類別中都具有高度的復雜性。因此,戰術戰爭領域對工程和實施有效的人工智能系統作為解決方案提出了特別棘手的挑戰。表4強調了導致這種復雜性的海戰領域的特點。作為一個例子,海軍打擊力量的行動可以迅速從和平狀態轉變為巨大的危險狀態--需要對威脅保持警惕并采取適當的反應行動--所有這些都是在高度壓縮的決策時間內進行。戰術威脅可能來自水下、水面、空中、陸地、太空,甚至是網絡空間,導致需要處理多種時間緊迫的任務。由于海軍和國防資產在艦艇、潛艇、飛機、陸地和太空中,戰術決策空間必須解決這些分散和多樣化資源的最佳協作使用。制定有效的戰術行動方案也必須在高度動態的作戰環境中進行,并且只有部分和不確定的情況知識。決策空間還必須考慮到指揮權、交戰規則和戰術理論所帶來的限制。人類作為戰術決策者的角色增加了決策空間的復雜性--信息過載、操作錯誤、人機信任和人工智能的模糊性/可解釋性問題等挑戰。最后,對于戰術決策及其可能的后果來說,風險可能非常大。

表4. 導致戰術決策復雜性的因素

解決高度復雜的決策領域是對海軍的挑戰。人工智能為解決海軍作戰的復雜性提供了一個潛在的解決方案,即處理大量的數據,處理不確定性,理解復雜的情況,開發和評估決策選擇,以及理解風險水平和決策后果。Desclaux和Prestot(2020)提出了一個 "認知三角",其中人工智能和大數據被應用于支持作戰人員,以實現信息優勢、控制論信心和決策優勢。約翰遜(2019年)開發了一個工程框架和理論,用于解決高度復雜的問題空間,這些問題需要使用智能和分布式人工智能系統來獲得情況意識,并做出適應動態情況的協作行動方案決定。約翰遜(2020a)建立了一個復雜的戰術場景模型,以證明人工智能輔助決策對戰術指揮和控制(C2)決策的好處。約翰遜(2020b)開發了一個預測分析能力的概念設計,作為一個自動化的實時戰爭游戲系統來實施,探索不同的可能的戰術行動路線及其預測的效果和紅色部隊的反應。首先,人工智能支持的C2系統需要描述戰術行動期間的復雜程度,然后提供一個自適應的人機組合安排來做出戰術決策。這個概念包括根據對目前戰術情況的復雜程度最有效的方法來調整C2決策的自動化水平(人與機器的決策角色)。約翰遜(2021年)正在研究這些概念性工程方法在各種防御用例中的應用,包括空中和導彈防御、超視距打擊、船舶自衛、無人機操作和激光武器系統。

在海軍作戰中實施人工智能系統的一個額外挑戰是在戰術邊緣施加的限制。分散的海軍艦艇和飛機的作戰行動構成了戰術邊緣--在有限的數據和通信下作戰。"在未來,戰術邊緣遠離指揮中心,通信和計算資源有限,戰場形勢瞬息萬變,這就導致在嚴酷復雜的戰地環境中,網絡拓撲結構連接薄弱,變化迅速"(Yang et. al. 2021)。戰術邊緣網絡也容易斷開連接(Sridharan et. al. 2020)。相比之下,許多商業人工智能系統依賴于基于云的或企業內部的處理和存儲,而這些在海戰中是不存在的。在戰術邊緣實施未來的人工智能系統時,必須進行仔細的設計考慮,以了解哪些數據和處理能力可用。這可能會限制人工智能系統在邊緣所能提供的決策支持能力。

在軍事領域使用人工智能必須克服復雜性的挑戰障礙,在某些情況下,人工智能的加入可能會增加復雜性。辛普森等人(2021)認為,將人工智能用于軍事C2可能會導致脆弱性陷阱,在這種情況下,自動化功能增加了戰斗行動的速度,超出了人類的理解能力,最終導致 "災難性的戰略失敗"。Horowitz等人(2020)討論了通過事故、誤判、增加戰爭速度和升級以及更大的殺傷力來增加國際不穩定和沖突。Jensen等人(2020)指出,人工智能增強的軍事系統增加的復雜性將增加決策建議和產生的信息的范圍、重要性和意義的不確定性;如果人類決策者對產出缺乏信心和理解,他們可能會失去對人工智能系統的信任。

挑戰二:數據需求

實施人工智能系統的第二個挑戰是它們依賴并需要大量的相關和高質量的數據用于開發、訓練、評估和操作。在海戰領域滿足這些數據需求是一個挑戰。明確編程的專家系統在開發過程中需要數據進行評估和驗證。ML系統在開發過程中對數據的依賴性甚至更大。圖1說明了ML系統如何從代表作戰條件和事件的數據集中 "學習"。

ML系統的學習過程被稱為被訓練,開發階段使用的數據被稱為訓練數據集。有幾種類型的ML學習或訓練--它們是監督的、無監督的和強化的方法。監督學習依賴于地面真相或關于輸出值應該是什么的先驗知識。監督學習算法的訓練是為了學習一個最接近給定輸入和期望輸出之間關系的函數。無監督學習并不從地面真相或已知的輸出開始。無監督學習算法必須在輸入數據中推斷出一個自然結構或模式。強化學習是一種試錯法,允許代理或算法在獎勵所需行為和/或懲罰不需要的行為的基礎上學習。所有三種類型的ML學習都需要訓練數據集。在部署后或運行階段,ML系統繼續需要數據。

圖1顯示,在運行期間,ML系統或 "模型 "接收運行的實時數據,并通過用其 "訓練 "的算法處理運行數據來確定預測或決策結果。因此,在整個系統工程和采購生命周期中,ML系統與數據緊密相連。ML系統是從訓練數據集的學習過程中 "出現 "的。ML系統是數據的質量、充分性和代表性的產物。它們完全依賴于其訓練數據集。

圖1. 使用數據來訓練機器學習系統

美國海軍開始認識到對這些數據集的需求,因為許多領域(戰爭、供應鏈、安全、后勤等)的更多人工智能開發人員正在了解人工智能解決方案的潛在好處,并開始著手開發人工智能系統。在某些情況下,數據已經存在并準備好支持人工智能系統的開發。在其他情況下,數據存在但沒有被保存和儲存。最后,在其他情況下,數據并不存在,海軍需要制定一個計劃來獲得或模擬數據。

收集數據以滿足海軍領域(以及更廣泛的軍事領域)的未來人工智能/ML系統需求是一個挑戰。數據通常是保密的,在不同的項目和系統中被分隔開來,不容易從遺留系統中獲得,并且不能普遍代表現實世界行動的復雜性和多樣性。要從并非為數據收集而設計的遺留系統中獲得足夠的數據,可能非常昂貴和費時。數據收集可能需要從戰爭游戲、艦隊演習、系統測試、以及建模和模擬中收集。此外,和平時期收集的數據并不代表沖突和戰時的操作。海軍(和軍方)還必須教導人工智能系統在預計的戰時行動中發揮作用。這將涉及想象可能的(和可能的)戰時行動,并構建足夠的ML訓練數據。

數據收集的另一個挑戰是潛在的對抗性黑客攻擊。對于人工智能/ML系統來說,數據是一種珍貴的商品,并提出了一種新的網絡脆弱性形式。對手可以故意在開發過程中引入有偏見或腐敗的數據,目的是錯誤地訓練AI/ML算法。這種邪惡的網絡攻擊形式可能很難被發現。

海軍正在解決這一數據挑戰,開發一個數據基礎設施和組織來管理已經收集和正在收集的數據。海軍的Jupiter計劃是一個企業數據和分析平臺,正在管理數據以支持AI/ML的發展和其他類型的海軍應用,這些應用需要與任務相關的數據(Abeyta,2021)。Jupiter努力的核心是確定是否存在正確的數據類型來支持人工智能應用。為了生產出在行動中有用的人工智能/ML系統,海軍需要在游戲中保持領先,擁有能夠代表各種可能情況的數據集,這些情況跨越了競爭、沖突和危機期間的行動范圍。因此,數據集的開發和管理必須是一項持續的、不斷發展的努力。

挑戰三:工程化人工智能系統

第三個挑戰是,人工智能系統的工程需要改變傳統的系統工程(SE)。在傳統系統中,行為是設定的(確定性的),因此是可預測的:給定一個輸入和條件,系統將產生一個可預測的輸出。一些人工智能解決方案可能涉及到系統本身的復雜性--適應和學習--因此產生不可預見的輸出和行為。事實上,一些人工智能系統的意圖就是要做到這一點--通過承擔一些認知負荷和產生智能建議,與人類決策者合作。表5強調了傳統系統和人工智能系統之間的區別。需要有新的SE方法來設計智能學習系統,并確保它們對人類操作者來說是可解釋的、可信任的和安全的。

SE作為一個多學科領域,在海軍中被廣泛使用,以將技術整合到連貫而有用的系統中,從而完成任務需求(INCOSE 2015)。SE方法已經被開發出來用于傳統系統的工程設計,這些系統可能是高度復雜的,但也是確定性的(Calvano和John 2004)。如表5所述,傳統系統具有可預測的行為:對于一個給定的輸入和條件,它們會產生可預測的輸出。然而,許多海軍應用的人工智能系統在本質上將是復雜的、適應性的和非決定性的。Raz等人(2021年)解釋說,"SE及其方法的雛形基礎并不是為配備人工智能(即機器學習和深度學習)的最新進展、聯合的多樣化自主系統或多領域操作的工程系統而設想的。" 對于具有高風險后果的軍事系統來說,出錯的余地很小;因此,SE過程對于確保海軍中人工智能系統的安全和理想操作至關重要。

表5. 傳統系統和人工智能系統的比較

在整個系統生命周期中,將需要改變SE方法,以確保人工智能系統安全有效地運行、學習和適應,以滿足任務需求并避免不受歡迎的行為。傳統的SE過程的大部分都需要轉變,以解決人工智能系統的復雜和非確定性的特點。在人工智能系統的需求分析和架構開發階段需要新的方法,這些系統將隨著時間的推移而學習和變化。系統驗證和確認階段將必須解決人工智能系統演化出的突發行為的可能性,這些系統的行為不是完全可預測的,其內部參數和特征正在學習和變化。運營和維護將承擔重要的任務,即隨著人工智能系統的發展,在部署期間不斷確保安全和理想的行為。

SE界意識到,需要新的流程和實踐來設計人工智能系統。國際系統工程師理事會(INCOSE)最近的一項倡議正在探索開發人工智能系統所需的SE方法的變化。表6強調了作為該倡議一部分的五個SE重點領域。除了非決定性的和不斷變化的行為,人工智能系統可能會出現新類型的故障模式,這些故障模式是無法預料的,可能會突然發生,而且其根本原因可能難以辨別。穩健設計--或確保人工智能系統能夠處理和適應未來的情景--是另一個需要新方法的SE領域。最后,對于有更多的人機互動的人工智能系統,必須仔細注意設計系統,使它們值得信賴,可以解釋,并最終對人類決策者有用。

表6.人工智能系統工程中的挑戰(改編自:Robinson,2021)。

SE研究人員正在研究人工智能系統工程所涉及的挑戰,并開發新的SE方法和對現有SE方法的必要修改。Johnson(2019)開發了一個SE框架和方法,用于工程復雜的適應性系統(CASoS)解決方案,涉及分布式人工智能系統的智能協作。這種方法支持開發智能系統的系統,通過使用人工智能,可以協作產生所需的突發行為。Johnson(2021)研究了人工智能系統產生的潛在新故障模式,并提出了一套跨越SE生命周期的緩解和故障預防策略。她提出了元認知,作為人工智能系統自我識別內部錯誤和失敗的設計方案。Cruz等人(2021年)研究了人工智能在空中和導彈防御應用中使用人工智能輔助決策的安全性。他們為計劃使用人工智能系統的軍事項目編制了一份在SE開發和運行階段需要實施的策略和任務清單。Hui(2021年)研究了人類作戰人員與人工智能系統合作進行海軍戰術決策時的信任動態。他制定了工程人工智能系統的SE策略,促進人類和機器之間的 "校準 "信任,這是作為適當利用的最佳信任水平,避免過度信任和不信任,并在信任失敗后涉及信任修復行動。Johnson等人(2014)開發了一種SE方法,即協同設計,用于正式分析人機功能和行為的相互依賴性。研究人員正在使用協同設計方法來設計涉及復雜人機交互的穩健人工智能系統(Blickey等人,2021年,Sanchez 2021年,Tai 2021年)。

數據的作用對于人工智能系統的開發和運行來說是不可或缺的,因此需要在人工智能系統的SE生命周期中加入一個持續不斷的收集和準備數據的過程。Raz等人(2021)提出,SE需要成為人工智能系統的 "數據策劃者"。他們強調需要將數據策劃或轉化為可用的結構,用于開發、訓練和評估AI算法。French等人(2021)描述了需要適當的數據策劃來支持人工智能系統的發展,他們強調需要確保數據能夠代表人工智能系統將在其中運行的預期操作。他們強調需要安全訪問和保護數據,以及需要識別和消除數據中的固有偏見。

SE界正處于發展突破和進步的早期階段,這些突破和進步是在更復雜的應用中設計人工智能系統所需要的。這些進展需要與人工智能的進展同步進行。在復雜的海軍應用以及其他非海軍和非軍事應用中實施人工智能系統取決于是否有必要的工程實踐。SE實踐必須趕上AI的進步,以確保海軍持續的技術優勢。

挑戰四:對抗性

海軍在有效實施人工智能系統方面面臨的第四個挑戰是應對對手。海軍的工作必須始終考慮對手的作用及其影響。表7確定了在海軍實施人工智能系統時必須考慮的與對手有關的三個挑戰:(1)人工智能技術在許多領域迅速發展,海軍必須注意同行競爭國的軍事應用進展,以防止被超越,(2)在海軍應用中實施人工智能系統和自動化會增加網絡脆弱性,以及(3)海軍應用的人工智能系統需要發展和適應,以應對不斷變化的威脅環境。

表7. AI系統的對抗性挑戰

同行競爭國家之間發展人工智能能力的競賽,最終是為了進入對手的決策周期,以便比對手更快地做出決定和采取行動(Schmidt等人,2021年)。人工智能系統提供了提高決策質量和速度的潛力,因此對獲得決策優勢至關重要。隨著海軍對人工智能解決方案的探索,同行的競爭國家也在做同樣的事情。最終實現將人工智能應用于海軍的目標,不僅僅取決于人工智能研究。它需要適當的數據收集和管理,有效的SE方法,以及仔細考慮人類與AI系統的互動。海軍必須承認,并采取行動解決實施人工智能系統所涉及的挑戰,以贏得比賽。

網絡戰是海軍必須成功參與的另一場競賽,以保持在不斷沖擊的黑客企圖中的領先地位。網絡戰的特點是利用計算機和網絡來攻擊敵人的信息系統(Libicki, 2009)。海軍對人工智能系統的實施導致了更多的網絡攻擊漏洞。人工智能系統的使用在本質上依賴于訓練和操作數據,導致黑客有機會在開發階段和操作階段用腐敗的數據欺騙或毒害系統。如果一個對手獲得了對一個運行中的人工智能系統的控制,他們可能造成的傷害將取決于應用領域。對于支持武器控制決策的自動化,其后果可能是致命的。海軍必須注意人工智能系統開發過程中出現的特殊網絡漏洞。必須為每個新的人工智能系統實施仔細的網絡風險分析和網絡防御戰略。海軍必須小心翼翼地確保用于開發、訓練和操作人工智能系統的數據集在整個人工智能系統的生命周期中受到保護,免受網絡攻擊(French等人,2021)。

威脅環境的演變是海軍在開發AI系統時面臨的第三個對抗性挑戰。對手的威脅空間隨著時間的推移不斷變化,武器速度更快、殺傷力更大、監視資產更多、反制措施更先進、隱身性更強,這對海軍能夠預測和識別新威脅、應對戰斗空間的未知因素構成了挑戰。尤其是人工智能系統,必須能夠加強海軍感知、探測和識別新威脅的能力,以幫助它們從未知領域轉向已知領域的過程。他們必須適應新的威脅環境,并在行動中學習,以了解戰斗空間中的未知因素,并通過創新的行動方案快速應對新的威脅(Grooms 2019, Wood 2019, Jones et al 2020)。海軍可以利用人工智能系統,通過研究特定區域或領域的長期數據,識別生活模式的異常(Zhao等人,2016)。最后,海軍可以探索使用人工智能來確定新的和有效的行動方案,使用最佳的戰爭資源來解決棘手的威脅情況。

結論

人工智能系統為海軍戰術決策的優勢提供了相當大的進步潛力。然而,人工智能系統在海戰應用中的實施帶來了重大挑戰。人工智能系統與傳統系統不同--它們是非決定性的,可以學習和適應--特別是在用于更復雜的行動時,如高度動態的、時間關鍵的、不確定的戰術行動環境中,允許的誤差范圍極小。本文確定了為海戰行動實施人工智能系統的四個挑戰領域:(1)開發能夠解決戰爭復雜性的人工智能系統,(2)滿足人工智能系統開發和運行的數據需求,(3)設計這些新穎的非確定性系統,以及(4)面對對手帶來的挑戰。

海軍必須努力解決如何設計和部署這些新穎而復雜的人工智能系統,以滿足戰爭行動的需求。作者在這一工作中向海軍提出了三項建議。

1.第一個建議是了解人工智能系統與傳統系統之間的差異,以及伴隨著人工智能系統的開發和實施的新挑戰。

人工智能系統,尤其是那些旨在用于像海戰這樣的復雜行動的系統,其本身就很復雜。它們在應對動態戰爭環境時將會學習、適應和進化。它們將變得不那么容易理解,更加不可預測,并將出現新型的故障模式。海軍將需要了解傳統的SE方法何時以及如何在這些復雜系統及其復雜的人機交互工程中失效。海軍將需要了解數據對于開發人工智能系統的關鍵作用。

2.第二個建議是投資于人工智能系統的研究和開發,包括其數據需求、人機互動、SE方法、網絡保護和復雜行為。

研究和開發是為海戰行動開發AI系統解決方案的關鍵。除了開發復雜的戰術人工智能系統及其相關的人機協作方面,海軍必須投資研究新的SE方法來設計和評估這些適應性非決定性系統。海軍必須仔細研究哪些新類型的對抗性網絡攻擊是可能的,并且必須開發出解決這些問題的解決方案。海軍必須投資于收集、獲取和維護代表現實世界戰術行動的數據,用于人工智能系統開發,并確保數據的相關性、有效性和安全性。

3.第三個建議是承認挑戰,并在預測人工智能系統何時準備好用于戰爭行動方面采取現實態度。

盡管人工智能系統正在許多領域實施,但海軍要為復雜的戰術戰爭行動實施人工智能系統還需要克服一些挑戰。人工智能系統在較簡單應用中的成功并不能保證人工智能系統為更復雜的應用做好準備。海軍應該保持一種現實的認識,即在人工智能系統準備用于戰爭決策輔助工具之前,需要取得重大進展以克服本文所討論的挑戰。實現人工智能系統的途徑可以依靠建模和模擬、原型實驗、艦隊演習以及測試和評估。可以制定一個路線圖,彌合較簡單應用的人工智能和復雜應用的人工智能之間的差距--基于一個積木式的方法,在為逐漸復雜的任務開發和實施人工智能系統時吸取經驗教訓。

海軍將從未來用于戰術戰爭的人工智能系統中獲益。通過安全和有效地實施人工智能系統,戰術決策優勢的重大進步是可能的。此外,海軍必須跟上(或試圖超越)對手在人工智能方面的進展。本文描述了為在海戰中實施人工智能系統而必須解決的四個挑戰。通過對這些新穎而復雜的人工智能系統的深入了解,對研究和開發計劃的投資,以及對人工智能技術進步時限的現實預期,海軍可以在應對這些挑戰方面取得進展。

付費5元查看完整內容

美國仍然是世界上最突出的軍事和技術力量。在過去十年中,美國認識到人工智能作為力量倍增器的潛力,越來越多地將人工智能(AI)的熟練程度視為美國重要利益和保證美國軍事和經濟實力的機制。特別是,在過去十年中,人工智能已成為美國國防的一項關鍵能力,特別是考慮到2022年美國國防戰略對印度-太平洋地區的關注。

因此,美國國防部(DoD)(以及美國政府和國防機構總體上)對人工智能和相關新興技術表現出越來越大的熱情。然而,雖然美國目前在學術界和私營部門的人工智能研究和開發方面取得了巨大進展,但國防部尚未在廣泛范圍內成功地將商業人工智能的發展轉化為真正的軍事能力。

美國政府在利用國防人工智能和人工智能支持的系統方面通常處于有利地位。然而,在過去的幾年里,各種官僚主義、組織和程序上的障礙減緩了國防部在國防人工智能采用和基于技術的創新方面的進展。最關鍵的是,國防部遭受了復雜的收購過程和廣泛的數據、STEM和AI人才和培訓的短缺。從事人工智能和人工智能相關技術和項目的組織往往是孤立的,而且還存在必要的數據和其他資源相互分離。在美國防部內部存在一種傾向于可靠方法和系統的文化,有時趨向于勒德主義。所有這些因素都導致了人工智能采用的速度出奇的緩慢。美國家安全委員會2021年提交給國會的最終報告總結說,"盡管有令人興奮的實驗和一些小型的人工智能項目,但美國政府離人工智能就緒還有很長的路要走"。

因此,盡管人工智能有可能增強美國的國家安全并成為一個優勢領域,而且鑒于美國在軍事、創新和技術領導方面的長期傳統,人工智能有可能成為一個薄弱點,擴大 "美國已經進入的脆弱窗口"。 如果美國不加快創新步伐,達到負責任的速度,并奠定必要的制度基礎,以支持一支精通人工智能的軍隊,人工智能將繼續成為一個不安全點。

去年,美國防部在這些挑戰中的一些方面取得了進展,調整了國防人工智能的方法。2022年6月,美國防部發布了《負責任人工智能戰略和實施途徑》,將更有數據依據的、負責任的、可操作的人工智能工作列為優先事項,此后開始執行。最重要的是,美國防部已經啟動了對其人工智能組織結構的重大改革,創建了一個新的首席數字和人工智能辦公室(CDAO),以整合其不同的人工智能項目和利益相關者,并使其與該部門的數據流更好地協調。值得注意的是,美國國防部目前正在對其國防人工智能的整體方法進行重大變革和振興。然而,這些新的人工智能努力是否足以讓美國彌補失去的時間,還有待觀察。

付費5元查看完整內容

就在幾年前,美國空軍在競爭激烈的空域中使用人工智能(AI)操作無人駕駛飛行器(UAV)的想法在許多人看來還像是科幻小說。 美國軍隊在伊拉克和阿富汗的無競爭空域巧妙地使用無人機,徹底改變了高價值目標定位、近距離空中支援和其他任務,很少有人擔心對手會反擊。現在快進到2022年,空軍再次期待無人機來提高其戰斗力。中國,一個正在接近,或在某些情況下超過美國常規戰斗力水平的同行挑戰者。空軍領導人正在對下一代無人機技術——他們統稱為自主協作平臺(ACP)——下大賭注,以幫助恢復其對中國的常規作戰能力。

中國構成的戰略威脅、快速的技術進步以及越來越多的證據表明,ACP可以改善作戰結果,這些因素的結合使得美空軍、國防部(DoD)和工業界紛紛支持將ACP迅速推向戰斗空間。自冷戰結束以來,預算壓力迫使美空軍和其他軍種削減能力和戰備,以至于他們現在必須主要依靠數量較少的先進系統和不斷縮小的海外態勢。與此同時,中國正在接近與美國軍隊的常規力量對等,建立了一系列現代軍事技術和一支低成本導彈部隊,明確旨在讓美國和盟軍保持在可觸及的范圍。為了扭轉對中國的局面,美國空軍正在尋找低成本的方法來彌補其重大能力差距。空軍領導人打賭,他們可以利用快速的技術進步,特別是在人工智能和飛機設計與制造方面,計劃部署大量ACP作為解決其兵力結構缺陷的一部分。

本報告研究了ACP可能提供的角色、任務和能力,以提高空軍的戰斗力,以及其快速發展和部署使用所固有的機遇和挑戰。本報告重點關注ACP在穿透性打擊任務中的作用,因為它們對于滿足2022年國防戰略(2022 NDS)的要求至關重要,該戰略要求美國軍隊不給俄羅斯等快速奪取領土的機會。穿透性打擊涉及在對手空域深處使用先進的轟炸機,因此,在沖突的早期,在削弱和阻止對手的機動入侵部隊方面可以發揮關鍵作用。但這些任務需要一系列復雜的打擊、電子戰、制空和其他能力,所有這些都可能在大國沖突中給空軍帶來巨大壓力。通過與先進轟炸機協作來提供其中的一些能力,大量低成本ACP將會提高任務的有效性并降低作戰風險。

美空軍領導人認識到這一潛力,并將ACP與包括戰斗機、轟炸機、甚至機動部隊在內的有人駕駛飛機配對作為首要任務。當他們準備向國會申請大量資源以在2024財年開始采購ACP時,這些領導人必須向立法者、其他國防部(DoD)領導人、工業界和美國公眾準確傳達ACP將如何為美國的威懾和作戰能力做出貢獻,同時對未來的機遇和挑戰進行現實描述。米切爾研究所與來自空軍和國防工業的作戰員、科學家和工程師舉行了一次非保密的研討會,以研究這些問題。為了給分析打下基礎,要求研討會的專家確定ACP作戰概念和技術如何在阻止中國對臺的戰役中減輕先進轟炸機的風險并提高穿透性打擊任務的有效性,這是美國防部部隊規劃的節奏場景。

專家見解

在這個項目中形成的一個核心觀點是:大量低成本的ACP可以幫助彌補嚴重的部隊結構缺陷,這些缺陷現在威脅著空軍在大國競爭時代滿足作戰指揮官需求的能力。在研討會上,專家們提出了使用不同類型的ACP概念,以使對手的目標決策復雜化,迫使對手花費大量時間和資源來減少這種不確定性。專家們不認為ACP可以替代有人駕駛的隱形轟炸機和戰斗機的威懾和作戰能力。然而,他們得出的結論是,如果快速、低成本和大量部署ACP,可以幫助縮小空軍進行遠程穿透打擊以阻止大規模侵略的顯著能力差距。

美空軍和工業界專家對使用ACP來減少制空能力差距特別感興趣。制空是在高度競爭的環境中成功實施穿透性打擊任務的一個重要任務組合。他們還優先考慮將ACP用于情報、監視和偵察(ISR)。在這個角色中,他們可以騰出先進的轟炸機和攻擊戰斗機來專注于他們的主要任務——向目標投送武器。ACP在ISR角色中還可以減少隱形轟炸機傳感器的發射信號的需求;這一點很重要,因為轟炸機機組人員試圖避免在有競爭激烈的環境中發射信號,以減少被發現的概率。

與成本較低、能力適中的ACP相關的其他好處包括:在戰時產量激增潛力,以及對作戰損失的更高容忍度。為此,專家們傾向于ACP是可損耗的或可消耗的;空軍對其損失的容忍度相對較高,因為其實際成本相對較低,而且任務指揮官會認為其損失是值得的。最后,研討會的專家們傾向于選擇具有高度自主性的ACP。他們認為,自主性在以下方面具有優勢:在高度競爭的環境中盡量減少通信;創造機會部署更多的ACP,同時最大限度減少人類控制員的負擔;以及提高相對于對手的決策速度。

專家們對ACP能力和概念的偏好反映了2022年國家發展戰略(NDS)中概述的關鍵威懾方法,該戰略呼吁美國軍隊不僅要建設部隊以拒絕大規模侵略,而且要提高復原力并讓手付出代價。大量低成本的ACP可以為這三種方法做出貢獻,這表明ACP可以成為空軍支持2022年NDS目標的核心貢獻。

專家們還指出了將ACP引入空軍作戰單元有關的幾個挑戰。最關鍵的是,他們不確定支持ACP自主行動所需人工智能技術的成熟度,而且他們不確定“低成本”對ACP意味著什么。ACP的成本必須有多低才能提高戰士對戰斗損失的容忍度?鑒于空軍計劃在制造、飛機操作和維護方面采用創新方法以降低成本,傳統的飛機成本評估模式是否仍然適用?最后,專家們不確定美國防部是否有能力在危機中迅速擴大和多樣化ACP的生產基地,盡管他們認為這對于空軍在長期沖突中帶來足夠持久的戰斗力至關重要。

針對美空軍的建議

盡管確定了作戰、技術和預算方面的挑戰,但專家們普遍認為,迫切需要迅速部署ACP,以便向作戰指揮官提供一支有戰斗力的部隊。他們評估說,通過將ACP與先進的轟炸機組合在一起,可以大大降低穿透性打擊任務的風險,而且ACP特征,如低可觀察性和低成本傳感器也完全可以實現。然而,迅速投入使用這些飛機將需要立法者、國防部領導層和工業界的協調和形成一致的支持,因為將其納入作戰單元所需的變化規模很大。發起一場全面的ACP作戰實驗活動將為它們的實戰化奠定基礎,并向關鍵的利益者表明,空軍致力于這項工作。為此,米切爾研究所向空軍提出以下七項建議:

1.發布空軍飛行計劃,將ACP的發展與2022年國家發展戰略聯系起來,特別是與拒絕對手實現其戰役目標、提高兵力復原力和施加成本的目標聯系起來。空軍應公布一個ACP飛行計劃,以支持2024財年的預算請求,該計劃應:1)解釋為什么ACP是一個緊急優先事項;以及2)提供保持動態發展的基礎,可以根據技術和威脅環境的變化來調整ACP整合計劃。

2.發起一場全面的作戰試驗活動,以建立將原型機推向作戰單元所需的組織、流程、行業關系和文化。作戰試驗活動的直接目標應該是迅速加強美國的作戰能力和應對同行沖突的能力。換句話說,通過啟動一個新的項目,讓ACP盡快“上路”;然后繼續試驗,收集急需的數據,使技術適應作戰人員的需要。更長遠的目標應該是創造條件,使空軍組織、訓練和裝備部隊的方式發展到快速、持續和頻繁地將一代又一代的ACP投入作戰部隊的地步,這種努力需要跨越幾十年。

3.優先考慮模塊化,以實現學習、開發和生產的連續循環。空軍不應該“扔掉”那些沒有針對作戰需求進行優化的ACP,而是尋求通過人工智能軟件的更新來不斷提高其性能。這就需要模塊化:在機體上有一個標準的容器,可以隨著人工智能軟件的發展不斷接受新的人工智能系統和處理器。ACP的開發周期也應該利用在新的無人機等級中操作主導飛機所獲得的信息和經驗來改善后續機型。而且,隨著老式ACP的老化,可能會將它們用于不同的任務,如對手的空域,而不是將它們歸入廢品收購站。

4.用非保密的研討會和兵棋推演來補充正在進行的內部分析,以完善和展示ACP概念和技術。空軍應將兵棋推演和研討會作為更廣泛的美國防部社區、立法者及其工作人員和國防工業的場所,以提高他們對下一代無人機潛力的理解,以提高國防部在同行沖突中的作戰效率。

5.優先考慮大量部署具有適度能力的ACP;最初的機隊應包括具有制空能力的飛機。從米切爾研究所的研討會上收集到的信息表明,空軍應強調使用大量低成本ACP的作戰概念,特別是在進攻性和防御性制空任務中,以提高遠程穿透性打擊的殺傷力和生存能力。

6.確定適當的ACP成本評估方法。美國防部、空軍和工業界專家對如何評估ACP的成本并不一致。一些人認為,可以用傳統飛機的歷史成本數據來估計ACP的成本。其他人則認為,飛機設計和制造的新方法使這些數據變得不那么有用。空軍應該利用ACP的運行試驗工作來收集新的數據,以告知ACP成本評估的基本假設。

7.多樣化遠程穿透性打擊彈藥。空軍應在更廣泛的兵力設計背景下開發ACP,考慮新一代彈藥如何提高生存能力,增強有人和無人飛機的攻擊力。研討會的專家們指出,迫切需要可由隱身轟炸機內部大量攜帶的較小中程(40納米至150納米)彈藥,以及可增強對高度移動目標進行穿透性打擊的游蕩彈藥。

8.增加空軍的預算,以創建一個結合ACP和下一代有人駕駛作戰飛機的兵力設計,進行決定性的協作行動。幾十年來的預算不足造成了一支高風險的空軍,缺乏與中國發生重大沖突和其他國防戰略優先事項所需的兵力能力、現代化能力和戰備狀態。要扭轉這種下降趨勢,需要在十年或更長時間內將預算增加3-5%,以獲得足夠數量的下一代有人駕駛作戰飛機,如B-21、NGAD和F-35,并為有望為美國作戰人員帶來重大優勢的新的、附加的ACP項目提供資金。

總之,米切爾研究所的研究表明,空軍的ACP計劃可以為執行穿透性打擊的美軍提供重要的作戰優勢。發展一支ACP兵力將要求空軍利用各種機會并應對新的挑戰,以大規模地設計、生產、操作和維持這些飛機。這種兵力設計方法的風險很高:研討會的結果表明,ACP可以抵消兵力結構的不足,以確保空軍能夠提供決定性的戰斗力,使ACP成為空軍支持2022年NDS戰略的核心,即拒止、復原力和施加成本。

付費5元查看完整內容

2020年初,美國海軍發布《人工智能技術安全性》。該報告重點關注對此項技術帶來的安全性問題。美國海軍乃至整個國防部系統,都在嚴肅認真地對待軍事人工智能的發展。2019 年的 2、6、9 月,美國先后公布《國防部人工智能戰略》、《國家人工智能戰略》《空軍人工智能戰略》三大戰略,表明其在國家、軍隊、軍種三個層面的“智能化戰略”全面啟動。可看出美國人工智能在軍事領域的發展態勢日趨激烈

一、推出多項政令戰略規劃,聚力發展人工智能

人工智能作為驅動第四次工業革命的重要引擎,深刻影響著經濟產業和各技術學科的發展,為此美國以國家戰略地位提升對人工智能在社會發展各領域( 特別是國防領域) 的動能,以推動人工智能技術的研發。2019年10月,世界經濟論壇發布制定國家人工智能戰略的框架白皮書,創建了最低限度可行的人工智能國家戰略制定框架,指出國家人工智能戰略的制定應考量具有戰略意義的優先事項人口需求資源限制和地緣政治等因素,旨在指導尚未或正在制定人工智能國家戰略的政府。美國多措并舉,繼續把發展人工智能技術作為提升國力維護國家安全的重大戰略,從國家戰略層面強化人工智能技術布局。2019年2月,美國政府科技政策辦公室發布由美國總統特朗普簽發的《維持美國在人工智能領域的領導地位》行政令,提出了美國發展人工智能的政策和原則戰略目標和重點領域,啟動旨在推進美國在人工智能領域領導地位的美國人工智能倡議,指示聯邦政府整合資源,聚力發展人工智能。

同年2月,美國國防部公布《2018年國防部人工智能戰略》的摘要部分( 題為《利用人工智能促進安全與繁榮》) 。該戰略是美國國防部首個人工智能戰略,旨在落實美國政府《國家安全戰略》和《國防戰略》提出的人工智能重要事項,為美國國防部謀求軍事人工智能優勢發展軍事人工智能實戰化能力提供戰略指導。2019年7月,美國空軍推出數字空軍計劃,旨在改進其在數據管理信息技術架構和業務運營方面的不足,使美國空軍保持競爭力。2019年9月,美國能源部成立人工智能與技術辦公室,旨在為美國人工智能研究人員提供聯邦數據模型和高性能計算資源。2019年9月,美國空軍以美國《國防部人工智能戰略》附錄形式發布《2019空軍人工智能戰略》,詳細闡釋在數字時代如何有效管理引導和引領所必須的基本原則職能和目標。2020年初,美國海軍分析中心發布專題報告《人工智能技術安全性———對海軍的行動方案建議》。該報告從當前美國海軍推動軍事領域人工智能技術運用過程中引發的公眾關注進行介紹入手,提出了海軍乃至整個國防部系統在軍事領域接收采用新興技術手段的總體態度與思路。

二、多家軍事機構開展研發項目,探索人工智能技術的軍用新場景

作為軍事大國,美國對于人工智能軍事作戰賦能的目標非常清晰,強力推動美國頂尖人工智能研究走向新的技術突破,促進科學新成果的發現、增強經濟競爭力、鞏固國家安全。2019年3月,美國參議院軍事委員會舉行主題為國防部人工智能計劃的聽證會,美國國防預先研究計劃局 DARPA、國防創新小組( DIU) 、國防部聯合人工智能中心( JAIC)等機構主管分別發言,闡述所在部門的人工智能項目及運行機制等情況,鞏固并強化了人工智能技術及應用與軍方之間的聯系,保障美國的人工智能軍用化步伐進一步加快。以DARPA為例,DARPA正將投資和研發重點轉向第三代人工智能技術,用于創建能在特定語境下進行推理的機器。資助的主要項目包括終身學習機器( L2M,2017年啟動),可解釋人工智能( XAI,2018年啟動)和機器常識( MCS,2018年啟動)等,探索提高人工智能技術水平的方法,實現語境推理能力。DARPA認為,將這些技術集成到與軍事作戰人員合作的軍事系統中,將有助于在對空間敏感的復雜戰場環境中做出及時決策,了解不完整或者相互矛盾的海量信息,并使用無人系統安全自主地執行關鍵任務。2019年1月,DARPA啟動知識導向型人工智能推理模式( KAIROS)項目,旨在提升面向復雜戰場環境挖掘和理解海量信息中的復雜事件及其相互關系的能力。2019年1月,美國陸軍研究實驗室( ARL)啟動異構戰術環境中的分布處理( DPHTE)計劃,基于霧計算平臺在對抗性軍事環境中為作戰人員提供更多的態勢感知。2019年2月,美國空軍研究實驗室發布多域戰和目標定位支持信息分析項目,旨在開發基于算法戰和人工智能等技術,針對時敏有價值的敵對移動目標進行快速預判和打擊。2019年5月,DARPA啟動旨在將人工智能應用于空戰演變( ACE) 項目,人工智能空戰應用成熟后可替代飛行員完成部分空戰任務。2019年5月,麻省理工學院發布為美國空軍打造人工智能加速器項目,該項目研究領域包括救災和醫療準備、數據管理、維護物流、車輛安全以及網絡還原能力。2019年9月,美國國防部聯合人工智能中心宣布美國軍方網絡安全數據制定新框架,重點為未來人工智能網絡防御體系奠定基礎。2020年初,美國特朗普政府向國會提交2021財年預算申請,加速發展人工智能等技術。提議政府預算從2020財年1560億美元削減至1422億美元,下降138億美元,但預算申請仍強調優先發展“未來產業”,必須加速發展人工智能等技術。其中,500萬美元用于能源部新立“人工智能與技術辦公室”,加強人工智能的項目研發。

三、夯實人工智能實踐應用的道德準繩和安全邊界

隨著人工智能技術的發展,人權倫理、隱私保障、歧視偏見、安全問題等困境日益突出。美國亦在探索中多措并舉,確保人工智能在充分的監督和控制之下發展。特別是在2019年發布的國家級人工智能戰略和2020年初發布人工智能技術安全性報告中,將道德、隱私、安全等問題擺在突出位置,認為應在尊重道德、重視安全的前提下最大限度地發揮其社會效益。

(一)明確戰爭中使用人工智能技術的道德原則和標準

美國推動多項研究,闡明美國合法道德地使用人工智能的愿景和指導原則,引導負責任的人工智能應用和開發。2019年1月,美國國防部要求國防創新委員會制定在戰爭中使用人工智能的道德原則,用以指導軍方在戰爭中使用人工智能技術和武器,并向硅谷科技公司確認其人工智能產品將如何被使用。美國國防部這一舉措被認為旨在形成全球軍用人工智能規范的指導方針,并吸引硅谷科技公司參與防御工作;10月,人工智能原則: 國防部人工智能應用倫理的若干建議推出,被認為是美國對軍事人工智能應用所導致倫理問題的首次回應。2019年1月,美國著名智庫布魯金斯學會發布《自動化和人工智能:機器對人及地區的影響》報告,著重分析了過去近30年間的資助系統與人工智能對行業、就業、地理和人口的影響,并對當前至2030年的趨勢進行了預測。最后針對國家、州和地方的政策制定者提出一個綜合響應框架,為人們理解并規范自動化和人工智能的作用提供參考。

(二)人工智能對軍事領域尚屬新興技術,安全性不容忽視

人類歷史上,充斥著軍隊利用技術取得軍事優勢的實例。比如戰車。戰車,是出現在戰場上的第一種車輛裝備,由民間通用馬車提高速度和機動性改進而來,在軍事運用方面取得了顯著的優勢。戰車被描述為當時的“超級武器”。又比如火藥。火藥源起于一個偶然發現,它的出現,使得軍隊能夠駕馭化學反應能量來提高速度與威力,由此徹底改變了戰爭的形態和樣式。再比如內燃機。這種發動機繼承并發展了蒸汽機的優勢,改變了戰爭活動的速度與范圍。對內燃機的應用方案,包括為后勤物流(補給運輸卡車)提供動力以及為潛艇、飛機與導彈賦予持久的遠程監視及打擊能力。對大多數技術手段的接收和運用,一度都曾起到了改變了戰爭樣式的作用。而其中有幾項,更是徹底顛覆了以往戰爭活動的樣式和范圍,其中便包括火藥與核武器。人工智能技術,亦被認為位居此類。此項技術能夠應用于整個戰爭事業的方方面面,大幅提高了戰爭活動的效能與效率。各類人工智能技術,也因其各自獨有的特性而有所區別。首先應注意到,現實世界中人工智能技術應用方案,是用以解決特定領域問題的狹義人工智能技術,而非具備普遍通用性的通用人工智能技術應用方案。人工智能技術在軍事領域的應用,可以與美國軍隊對核武器的運用方式進行類比:安全方面的關鍵性技術領域知識,必須在很大程度上由軍隊文職機構掌握,在很大程度上亦屬技術范疇。

(三)給予人工智能技術安全性 “恰到好處”的信任

人工智能技術安全性,也與對其信任程度有關。美國軍方運用人工智能技術方面的一個關鍵問題是,軍方人員和美國政府高層領導能否相信這些系統確實有效且不會引發意外問題。2016年國防科學委員會對自主控制技術的研究報告指出:“決定在特定任務中部署運用某系統的個人,必須信任該系統。”在伊拉克和阿富汗的行動表明,負責實施特定行動的指揮官和戰斗/操作人員在不完全了解后果的情況下,不一定會使用某些系統。當某些系統被部署至戰場以滿足緊急需求時(如反簡易爆炸裝置系統或用于提供關鍵性情報的監視系統),一些部隊還是選用了他們已經熟悉的武器系統和情報監視偵察平臺,即便是老系統的功能指標比不上那些已經可以選用的新系統。對人工智能系統的信任度過低是一種危險,會阻止部隊運用他們所需的功能。而另一種危險,則是對某項能力的過度信任。人類傾向于過度信任機器,即便在有證據表明不能夠給予這種程度的信任情況下,也是如此。戰爭活動中的過度信任,也有具體案例。如,2003年,陸軍“愛國者”防空導彈系統曾擊落1架海軍F/A-18飛機,該系統將飛機誤判定為戰術彈道導彈,并向操作人員提出了建議,要求其發射導彈實施攔截。操作人員在沒有獨立核實可用信息的情況下,批準實施了這項建議。這表明,在實際作戰行動中,軍方需要對人工智能給予程度“恰到好處”的信任,不能過熱也不可太冷,避免滑向兩個極端。需要達成的目標,是程度恰當的信任,并且應該讓人來參與決策過程。而這種決策過程,則需要以各種相關能力及對系統功能所具備的經驗與知識為依托。

(四)軍事人工智能安全問題將寫入政策方針

軍方和政府的高層領導,還應通過政策方針層面的決策對相關軍事行動的性質施加影響,包括確定戰爭活動中應該使用哪些特定的技術手段。這些方針政策,可能會對監管程度構成影響。例如,國防部第3000.09號指令,就要求對某些類型的自主控制系統進行高級別審核。明確戰爭活動中允許使用的技術手段(例如,對白磷(彈藥)運用的限制和使用集束彈藥時相關設定要求以及對其它此類武器具體性能參數的限制要求),并且對某些特定類型作戰行動中的策略原則進行限制。例如,《2013版總統政策指導(Presidential Policy Guidance,PPG)》及《2017版總統政策指導》中,對某些反恐行動的批準與監管流程的總體原則框架進行了明確。這些政策方針原則,有助于確保相關軍事活動符合美國的原則、價值觀及利益。這些政策方針層級的決定,都有反映出對此類系統或作戰行動可靠性所應持有的信任程度的意味。值得注意的是,以上這些實例內容都涉及到了安全性原則問題,而《國防部第3000.09號指令》的目的,就在于避免“意外交戰(inadvertent engagements)”事件的出現(例如致使平民傷亡)。限制白磷彈藥和集束彈藥的目的,還在于減少使用這些武器時給平民帶來的危險。《2013版總統政策指導》中,直接將致使平民傷亡明確列為作戰行動批準程序中的否決條件(no-gocriterion)。因此可以預見,安全性問題,勢必將成為未來高層領導人對于將人工智能技術手段運用于戰爭活動方面所明確的相關指導與指令內容中的一部分。

(五)軍方須與業界協助解決安全問題

人工智能技術的巨大進步,也使美國政府產生了對業界新的依賴性。自第二次世界大戰以來,美國政府一直在很大程度上依賴于自身投入的研發資金。然而,人工智能技術方面的研發投資,越來越多地由私營機構所主導。其特征,是過去十年來科技行業的研發支出急劇增加。在圖1中,我們將整個美國政府在網絡和信息技術研發方面的支出與美國排名前五位的高科技公司(亞馬遜、谷歌/阿爾法控股、英特爾、微軟、蘋果)的研發投資進行了對比。如圖1所示,科技行業企業在研發方面的投入明顯更多,而且兩者間的差距正在擴大。2010年,科技行業企業的研發支出,已經是美國政府整體科技研發投資規模的6倍。8年后,企業在這方面的投入規模將激增至美國政府的15倍。總體而言,美國政府在尖端技術方面研究工作的投資面臨著迅速擴大的缺口。這種現狀,為美國政府營造出了一種處于不斷變化中的環境。在這種環境中,與業界的協作,對于美國政府實現其戰略目標必須保持的技術優勢而言至關重要。在這個意義上,人工智能技術安全性應該是業界關注的問題——正如谷歌等公司放棄了對美國政府軍事領域應用方案的支持,并開始運用倫理性審查程序對其內部工作流程進行監測所證明的那樣,美國政府必須與業界協作,依托其幫助解決此類問題。

圖1 美國政府與科技行業企業研發投資差距對比圖

四、美國軍事人工智能面向未來的發展趨向人工智能技術一般可分為弱人工智能、強人工智能、超人工智能 3 個等級,預計強人工智能技術可能在 2050 年前問世。未來美軍智能化建設發展可能經歷三個階段:

2025 年前,美軍重點是搭起智能化軍隊框架,總體水平處于弱人工智能階段。美軍建設主要圍繞構建“全球監視打擊體系”,以升級水下、網電、空天、全球快速打擊和導彈防御作戰系統為重點,突出發展無人化、隱身化、遠程化作戰平臺,提升“全球公域”介入能力,確保可信的“拒止”和“懲罰”威懾。這一階段,美軍無人系統在數量上將逐步超過有人系統,自主無人系統將成為美軍前沿作戰的重要力量,無形、無人、隱形、靈巧等力量將成為美軍事干預的主要手段。2035 年前,美國初步建成智能化作戰體系,總體水平進入強人工智能階段。美軍建設主要通過發展智能化作戰平臺、信息系統和決策支持系統,以及定向能、高超聲速、仿生、基因、納米等新型武器,對主要對手形成新的軍事“代差”。在這一階段,美軍無人系統的投資將超過有人系統,無人系統建設規模及作戰運用皆居于主導地位。2050 年前,美軍智能化作戰體系將更先進、更完善,總體水平達到超強人工智能階段。美軍在強人工智能、通用量子計算、可控核聚變、納米機器人、再生、創生、腦聯網等技術方面可能取得突破。作戰平臺、信息系統、指揮控制可能全面實現智能化、無人化,更多樣的仿生、基因、納米等新型武器走上戰場,作戰空間進一步向生物空間、納米空間、智能空間拓展,人類進入“機器人戰爭時代”。


付費5元查看完整內容

2018年國防部人工智能戰略將人工智能定義為機器執行通常需要人類智能的任務的能力。戰略和相關計劃包括了全面戰略的一些特點,但不是全部。例如,國防部的9個與人工智能相關的戰略和計劃并不包括與采用人工智能技術相關的資源、投資和風險的完整描述(見圖)。在未來與人工智能相關的戰略中,發布包括綜合戰略的所有特征的指導,可以幫助國防部更好地定位,幫助管理者確保對人工智能的問責和負責任的使用。

國防部已經開始識別并報告其人工智能活動,但其人工智能基線庫存存在局限性,如排除分類活動。國防部官員表示,這些限制將在AI庫存識別過程的后續階段得到解決。然而,國防部還沒有開發一個高層次的計劃或路線圖來捕獲所有的需求和里程碑。該計劃將為國防部提供一個高層次的、端到端對所有必要特征的視圖,以實現該計劃的目標,為國會和國防部決策者提供一個完整、準確的人工智能活動清單。

國防部組織在人工智能活動上進行合作,但可以更充分地納入領先的合作實踐。國防部使用了各種正式和非正式的合作機制,GAO之前的工作已經確定,如跨機構小組。國防部已經部分納入了領先的協作實踐,例如識別領導能力。然而,國防部官員告訴我們,他們正在制定指導方針和協議,明確定義參與人工智能活動的國防部組件的角色和職責。通過最終確定和發布這樣的指南,國防部可以幫助確保所有參與者對整個部門的AI工作的責任和決策達成一致。

付費5元查看完整內容
北京阿比特科技有限公司