亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

盡管人工智能作為宣傳工具的使用一直備受關注,但烏克蘭和以色列的熱點沖突正被證明是加速人工智能和其他信息技術工具在戰場上使用的活實驗室。特別是在烏克蘭,有報道稱,人工智能甚至被用于自主瞄準打擊目標。以色列國防軍(IDF)對人工智能的使用則更為隱秘,但它肯定被用作瞄準輔助工具,以擊敗來自加沙哈馬斯的鋪天蓋地的導彈攻擊。

烏克蘭在拒絕了其他 10 個國家的人工智能項目后,開發出了自己的人工智能,因為烏克蘭確信本國開發的人工智能會更有益處,而且可以規避向商業公司報告的任何要求。烏克蘭的人工智能主要集中在龐大的攝像頭和無人機網絡提供的計算機視覺數據上。例如,名稱和目標字符識別(OCR)可以快速識別伊朗制造的 "沙赫德 "神風無人機,而不是標準導彈。 人工智能還有助于烏克蘭自己的導彈瞄準。這些人工智能工作大多由烏克蘭的 IT 陸軍完成,據說他們有 25 萬人,其中許多人在創新的 "蝸牛車庫 "里工作,而他們的預算只有西方 IT 公司的一小部分。人工智能還被用于分析俄羅斯的無線電通信和清除地雷。與此同時,俄羅斯在軍事領域的人工智能應用似乎陷入了雄心壯志與實際用途之間的脫節,尤其是自主無人機,據說供不應求。

一些通訊社報道稱,無人化嚴重的烏克蘭已經更進一步,允許配備人工智能的無人機在某些情況下不受人類控制地識別和攻擊目標,從而引發了戰場上 "機器人殺手 "的幽靈。美國軍方已經啟動了一項為期兩年的 "復制者 "計劃,準備投入數千套價格相對低廉的自主系統,主要是為了應對大國在海軍艦艇等領域的數量優勢。澳大利亞一家名為 "Anduril "的公司(以《指環王》傳奇中的一把劍命名)正在向烏克蘭提供可發射彈藥、由人工智能驅動的 "幽靈鯊 "海上無人機。

雖然烏克蘭似乎正在使用自主人工智能來攻擊坦克等大型物體,但它幾乎可以指名道姓地攻擊單個士兵。據《時代》雜志報道,備受爭議的 Clearview 公司免費提供的面部識別系統已經識別出 23 萬多名參與烏克蘭戰爭的俄羅斯士兵和官員。Clearview 系統被用于偵測滲透者、識別親俄民兵和合作者,甚至烏克蘭稱被越過俄羅斯邊境綁架的兒童。Clearview 技術標志著 "戰斗識別系統 "的首次使用,該系統有可能被用于鎖定敵方關鍵人員。例如,一架攜帶彈藥的人工智能無人機可以在原地徘徊,直到發現一名反對派將軍。

與此同時,在立志成為 "人工智能超級大國 "的以色列,人工智能技術正在協助對加沙的哈馬斯目標進行快速定位空襲--該系統被稱為 "火力工廠",但其針對軍事目標的準確性目前尚不得而知。人工智能還幫助抵御來襲的導彈襲擊,這些導彈試圖以數量優勢壓倒以色列引以為傲的 "鐵穹 "導彈防御系統。以色列國防軍(IDF)越來越多地使用人工智能,并將其應用于移動平臺,如新型 "巴拉克 "超級坦克。巴拉克 "坦克的一個主要特點是配備了 "鐵視角 "頭盔,通過一系列外部傳感器和攝像頭,坦克乘員只需按下按鈕,就能 "看穿車輛的裝甲"。

主要得益于人工智能,坦克能夠在戰場上獨立學習、適應、導航和瞄準。以色列國防軍表示,一對 "巴拉克 "坦克將能夠執行以前需要一個坦克排才能完成的任務。

大多數分析家都認為,烏克蘭和以色列正被證明是在戰斗中加速使用人工智能的前所未有的試驗基地,而這一發展在和平時期通常需要更長的時間。現在,人工智能系統正在接受來自真實戰爭的真實數據的訓練,這意味著人工智能將在下一場武裝沖突中發揮更大的作用和效力,而下一場武裝沖突很可能包括人工智能自主作戰。

參考來源:techstrong.ai

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

航空航天和國防領域正在經歷一場變革,其主要驅動力是將人工智能(AI)和機器學習(ML)技術集成到為軍事設計的傳感器、武器和信息系統中。在精確度、快速決策和穩健性至關重要的環境中,人工智能/機器學習已成為一項關鍵技術,可加快對態勢的理解和決策,提高作戰效率。這些技術使軍事行動更有可能克服 "戰爭迷霧",人工智能/機器學習基于無休止和持續的信號收集,而不是人眼可見的跡象,使感官和態勢理解更加敏銳。這些部門的獨特要求,如多域作戰、極端條件下的應變能力、高風險決策、互操作性和先進的安全措施,為人工智能發揮重大影響創造了條件。

市場驅動力和獨特需求

航空航天和國防領域轉向人工智能有幾個關鍵因素:

1.快速準確的決策:軍事行動在時間和空間上都具有決定性意義。人工智能系統快速處理和分析海量數據的能力對于實時做出戰略和行動決策至關重要。挖掘來自不同來源和領域的信息并快速融合這些數據,可為決策者提供可在短周期內實施的行動情報,從而在分配的時間和空間內產生預期效果。

2.彈性和可靠性: 人工智能應用程序必須在各種具有挑戰性的環境中始終如一地運行;其建議和響應必須可信、可靠,并且不會出現商業大型語言模型(LLM)所遇到的 "幻覺"。信心和信任是軍事人工智能系統中最重要的因素,能讓用戶利用這些系統發揮最大價值。安全和信心不應是設計功能,而應是軍事人工智能系統基線基礎設施的一部分。此外,還應考慮物理安全和安保問題,采用分布式系統、邊緣處理以及強大而有彈性的網絡,使人工智能隨時隨地為作戰部隊提供支持。

3.道德和受控的自動化:無論是否有制衡機制來實現人類的信任,軍事系統的高風險都要求人工智能系統納入并遵守道德標準,并允許人類在不減慢整個流程的情況下進行監督。盡管 "道德標準 "是一個不固定的術語,取決于設計者和用戶的法律、文化、宗教和社會背景,但它為人工智能操作定義了 "游戲場地 "和邊界,就像戰爭法定義了作戰人員在戰時能做什么或不能做什么一樣。

4.先進的安全措施:鑒于國防行動的敏感性,人工智能系統必須具備無與倫比的網絡安全能力,消除系統訓練和操作過程中的不利和惡意行為。人工智能系統依賴于網絡、信息、數據饋送以及通過訓練嵌入的算法。在設計或訓練過程中篡改這些基礎,或在系統運行階段對其進行惡意操作,都可能會給用戶和依賴系統帶來巨大風險和意想不到的后果。因此,從早期設計階段就應考慮安全措施,包括風險檢測、規避和應對。

領先企業及其影響

研究了數十家公司的產品,觀看了演示,并在展覽和會議上聽取了官員的介紹。通過研究,掃描了市場上專為軍事行動設計或能夠支持軍事用途的人工智能系統。使用現有最好的人工智能工具進行研究,但即使這樣也需要大量的人工分析才能提供符合標準的可用信息。在第一部分中,挑選了五個在軍事行動中表現出色的人工智能系統。

洛克希德-馬丁公司

為何選擇:作為行業領導者,洛克希德-馬丁公司是將人工智能廣泛應用于國防領域的典范。他們的 AI Factory 計劃展示了他們在該領域推進 AI/ML 技術的承諾。它提供了一個安全的端到端模塊化生態系統,用于訓練、部署和維持可信賴的人工智能解決方案。其功能側重于從開發到部署和維護的自動化,應用 MLOps 解決方案(機器學習運營)來驗證、解釋、保護和監控所有機器學習生命周期階段,并創建可跨項目重復使用的參考架構和組件。

影響:從作戰飛機到太空探索,洛克希德-馬丁公司通過其人工智能驅動的解決方案影響著全球國防戰略,樹立了行業標準并為未來的技術進步鋪平了道路。

Palantir科技公司

為何選擇: Palantir 在大數據分析領域舉足輕重,為情報收集和作戰計劃提供人工智能平臺。他們的 AIP 平臺為綜合解決方案奠定了基礎,通過向決策者提供相關信息、利用可用傳感器增強信息以及根據對信息、紅軍和藍軍戰術、技術和程序(TTP)的理解向決策者提供相關的、可操作的響應,從而增強軍事組織的能力并使其同步化。

影響: Palantir AIP 將大型語言模型和尖端人工智能的力量結合起來,激活數據和模型,以安全、合法和合乎道德的方式從最高度敏感的環境中獲取信息。他們的系統利用信息源的可追溯性和可信推理,在復雜的國防環境中實現數據驅動決策,說明人工智能在作戰計劃和情報行動中的重要性與日俱增。

安杜里爾工業公司

為何選擇:Anduril Industries 站在將人工智能整合到自主系統和監控技術的前沿,改變傳統的防御戰略,采用可信賴的有人無人操作能力。

影響:他們的任務自主方法是從邊境安全和態勢感知發展而來的。他們的 Lattice AI 操作系統重新定義了防御方法,引入了分布式任務自主,采用由小型人類團隊操作的眾多無人系統。核心軟件提供傳感器融合、目標識別和跟蹤、智能網絡、指揮和控制。與其他解決方案不同的是,Anduril 的方法是通過添加可操作的使能因素,將其人工智能的覆蓋范圍擴展到 Lattice 核心之外--在安全領域,這些使能因素包括 Sentry 傳感器、Anvil 和 Roadrunner 反制措施。在進攻性打擊任務中,例如在美國陸軍的 "空中發射效應 "中,該系統通過Altius長續航時間傳感器、Fury Attritable飛機和Altius 700M效應器,將Anduril的移動自主概念發揮到極致。作為一個集成解決方案,它通過擴展覆蓋范圍、能力和態勢感知,使人類能夠使用自主系統,同時使作戰人員能夠更快地做出更好的決策。

C3.ai公司

為何選擇:C3.ai 的突出之處在于其將各種人工智能工具整合到 AI-Readiness 中的戰略,這是一個安全、統一的平臺,具有可信任、彈性和可互操作的可擴展系統,可在整個生命周期內連接和管理復雜且不同的資產。

影響: 通過提高決策和運營效率,C3.ai 的解決方案優化了資源管理和維護計劃,證明了人工智能在提高國防資產的可用性和使用壽命方面的作用,同時還能保持高安全標準。為支持引入人工智能驅動的解決方案,該公司提供了一個人工智能開發工作室,將技術評估加速到數天,并在數周或數月內完成應用開發和部署,而不是數年。

赫爾辛公司

為何選擇:赫爾辛公司代表了新一輪專注于專業人工智能應用的國防初創企業,他們得到歐洲主要國防企業的支持,凸顯了赫爾辛公司在人工智能國防市場的潛力和影響力。

影響:赫爾辛公司在情報分析和決策支持方面的人工智能解決方案利用先進的目標識別和人工智能賦能的電子戰技術,與其他合作伙伴的解決方案一起,必將成為雄心勃勃的未來空戰系統(FCAS)這一任務系統的人工智能支柱的一部分。赫爾辛公司專為現代戰爭量身定制,將為未來提供獨一無二的人工智能國防和航空應用。自 2022 年以來,赫爾辛公司一直活躍在烏克蘭,為前線作戰提供能力和技術。

結論

正如這些領先公司所展示的那樣,航空航天和國防領域正在走向以人工智能為中心的未來。市場格局多種多樣,發展迅速。每家公司都以獨特的方式塑造人工智能的市場、技術和未來,凸顯了人工智能對全球國防和航空航天戰略的變革性影響。這一趨勢增強了當前的能力,為軍事和太空行動開辟了新的可能性,標志著國防技術進入了一個新時代。

參考來源:DEFENSE UPDATE

付費5元查看完整內容

人工智能(AI)已經滲透到生活的許多領域,國防領域也不例外。從優化物流鏈到處理大量情報數據,人工智能在軍事領域都有應用。越來越多的人認為,人工智能將對未來戰爭產生重大影響,世界各地的部隊都在大力投資人工智能所帶來的能力。盡管取得了這些進步,但戰斗在很大程度上仍然是人類的活動。

通過使用人工智能支持的自主武器系統(AWS)將人工智能引入戰爭領域,可能會徹底改變國防技術,這也是當今最具爭議的人工智能用途之一。關于自主武器如何遵守出于人道主義目的而制定的武裝沖突規則和條例,一直存在著特別的爭論。

政府的目標是 "雄心勃勃、安全、負責任"。當然,我們原則上同意這一目標,但愿望與現實并不相符。因此,在本報告中提出建議,以確保政府以合乎道德和法律的方式在 AWS 中開發和使用人工智能,提供關鍵的戰略和戰場效益,同時實現公眾理解和認可。必須將 "雄心勃勃、安全負責 "轉化為實際執行。

政府必須尋求、建立并保持公眾對開發和使用人工智能的信心和民主認可,尤其是在 AWS 方面。從媒體對我們調查的報道中可以清楚地看出,人們對在預警系統中使用人工智能有著廣泛的興趣和關注。實現民主認可有幾個要素:

理解: 對自主武器的討論,以及在很大程度上對人工智能的討論,都受到追求議程和缺乏理解的困擾。我們的目標之一是為建設性辯論提供事實依據,政府的坦誠和透明將有助于這一進程。

議會的作用: 議會是開發和使用預警系統的決策中心。議會的監督能力取決于信息的可獲得性,取決于其預測問題而不是事后反應的能力,也取決于其追究部長責任的能力。政府必須在議會時間表中留出足夠的空間,并提供足夠的信息,以便議會(包括其專門委員會)有效地審查其人工智能政策。我們當然理解政策制定的內容可能高度敏感,但我們有既定的方法來處理此類信息。絕不能以保密為由逃避責任。

保持公眾信心: 對英國防部 "目前沒有開展監測或民意調查以了解公眾對使用自主武器系統的態度 "這一事實感到失望。政府必須確保在開發自動武器系統時適當征求公眾意見。它還必須確保道德規范處于其政策的中心位置,包括擴大英國防部人工智能道德咨詢委員會的作用。

實現以下目標對這一進程至關重要:

政府應以身作則,在國際上參與對 AWS 的監管。人工智能安全峰會是一個值得歡迎的舉措,但它并不包括國防。政府必須將人工智能納入 AWS,因為政府宣稱希望 "以包容的方式共同努力,確保以人為本、值得信賴和負責任的人工智能是安全的",并 "通過現有的國際論壇和其他相關倡議支持所有人的利益"。

幾年來,國際社會一直在辯論如何監管人工智能系統。這場辯論的結果可能是一項具有法律約束力的條約,也可能是澄清國際人道主義法應用的非約束性措施--每種方法都有其擁護者。盡管在形式上存在分歧,但關鍵目標是加快努力,達成一項有效的國際文書。

其中的一個關鍵因素將是禁止在核指揮、控制和通信中使用人工智能。一方面,人工智能的進步有可能提高核指揮、控制和通信的效率。例如,機器學習可以提高預警系統的探測能力,使人類分析人員更容易交叉分析情報、監視和偵察數據,并改善核指揮、控制和通信的防護,使其免受網絡攻擊。

然而,在核指揮、控制和通信中使用人工智能也有可能刺激軍備競賽,或增加各國在危機中有意或無意地升級使用核武器的可能性。使用人工智能時,決策時間被壓縮,可能會導致緊張局勢加劇、溝通不暢和誤解。此外,人工智能工具可能會被黑客攻擊,其訓練數據可能會中毒,其輸出結果可能會被解釋為事實,而實際上它們只是統計上的相關性,所有這些都可能導致災難性的結果。

政府應采用可操作的 AWS 定義。令人驚訝的是,政府目前還沒有這樣的定義。英國防部表示,它對采用這樣一個定義持謹慎態度,因為 "此類術語已具有超出其字面解釋的含義",并擔心 "在一個如此復雜和快速發展的領域,過于狹隘的定義可能很快過時,并可能無意中阻礙國際討論的進展"。然而,我們認為可以創建一個面向未來的定義。這樣做將有助于英國制定有意義的自主武器政策,并充分參與國際論壇的討論。

政府應確保在 AWS 生命周期的各個階段都有人類控制。人們對 AWS 的關注主要集中在由人工智能技術實現自主的系統上,由人工智能系統對從傳感器獲得的信息進行分析。但是,為了確保人類的道德代理權和法律合規性,對系統的部署進行人為控制是至關重要的。這必須以我們國家對國際人道法要求的絕對承諾為支撐。

政府應確保其采購程序是為人工智能世界而適當設計的。英國防部的采購工作缺乏問責制,過于官僚化。特別是,英國防部缺乏軟件和數據方面的能力,而這兩者都是人工智能發展的核心。這可能需要革命性的變革。如果需要,那就改變吧;但時間緊迫。

付費5元查看完整內容

去年 10 月,美國國會議員 Anna G. Eshoo 向國家安全顧問和科技政策辦公室(OSTP)發出一封公開信,敦促他們解決人工智能(AI)在民用和軍用領域的應用所帶來的生物安全風險。她寫道:"人工智能在生物技術、醫療保健和制藥領域有著重要的應用,然而,我們應該像對待分子或生物制品等物理資源一樣,對雙重用途應用對美國國家安全、經濟安全和公眾健康所代表的潛在危害保持警惕。" 在今年 7 月聯合國安理會就人工智能對和平與安全的影響召開的歷史性首次會議上,秘書長安東尼奧-古特雷斯也表達了同樣的擔憂,他指出:"人工智能與核武器、生物技術、神經技術和機器人技術之間的相互作用令人深感震驚。"

探討人工智能系統的雙重用途性質如何擴大其他技術--包括生物、化學、核和網絡技術--的雙重用途性質的領域被稱為 "融合"。政策思想領導者傳統上一直專注于孤立地研究不同技術的風險和益處,假設威脅領域之間的相互作用有限。然而,人工智能具有獨特的能力,能夠與其他技術相結合并放大其他技術的風險。這就要求重新評估標準的政策方法,并建立融合風險類型學,從廣義上講,融合風險可能源自兩個概念中的任何一個:技術融合或安全環境融合。

技術趨同。人工智能與其他技術領域的發展之間的直接互動會產生自身獨特的益處和風險。這類融合的例子包括人工智能與生物安全、化學武器、核武器、網絡安全和常規武器系統的互動。

人工智能與生物安全。在評估繪制人工智能與生物安全風險融合圖的風險評估框架的相對效用時,研究人員約翰-奧布萊恩(John T. O'Brien)和卡西迪-納爾遜(Cassidy Nelson)將融合定義為 "生命科學與人工智能之間的技術融合,從而使其相互作用的力量大于各自學科的總和"。他們的研究調查了各領域之間的潛在互動,這些互動可能會大大增加蓄意或意外的高后果生物事件的風險。例如,這包括在新型病原體的硅學(通過計算機模擬)設計中人工智能輔助識別毒力因子。隨后的工作強調了深度學習在基因組學中的應用,以及高風險生物數據存儲庫中的網絡脆弱性。原子科學家公報》最近發表的幾篇文章指出了人工智能發展可能加速生物風險的其他方式。

人工智能與化學武器。作為瑞士聯邦核生化保護研究所(NBC)融合計劃的一部分,一家計算毒理學公司被要求調查參與藥物發現的人工智能系統的潛在雙重用途風險。該倡議表明,這些系統可以生成數千種新型化學武器。由于其新穎性,這些新化合物及其關鍵前體大多未列入任何政府觀察清單。必須結合基于大型語言模型的人工智能體的出現來看待這一發展。這些智能體能夠理解如何以類似的方式改變開源藥物發現項目,如何向定制制造商發送電子郵件和付款,以及如何雇傭臨時工來完成物理世界中分門別類的任務。

人工智能與核武器。越來越多的研究和宣傳強調了人工智能融入核武器指揮、控制和通信(NC3)可能帶來的不穩定后果,未來生命研究所(Future of Life Institute)的影片《人工升級》(Artificial Escalation)對此進行了說明。六月份在軍備控制協會播出的一場由高級人工智能專家和政府官員參與的高級別討論,暴露了這種整合所帶來的許多安全問題。這些問題包括無法驗證和審查人工智能的決策、意外使用自主武器的風險更高,以及沖突升級的可能性增加。

人工智能與網絡安全。在網絡空間領域,有報道指出,人工智能系統可以使惡意行為者更容易開發出毒性更強、破壞性更大的惡意軟件。它們還能幫助對手通過新的零日漏洞(以前未被發現的漏洞)自動攻擊網絡空間,這些漏洞主要針對指揮和控制、網絡釣魚和勒索軟件。鑒于當前人工智能的發展軌跡,自主發起的黑客攻擊預計也將成為一種近期出現的能力。

常規武器系統中的人工智能。人工智能的一個主要特點是,它能使單個行為者以機器速度大規模地開展活動。有人認為,將這一模式應用于將人工智能集成到常規武器系統(如殺傷人員無人機和無人機群)中,會創造出一類具有大規模殺傷潛力的新武器。此外,美國的 "聯合全域指揮與控制 "計劃試圖將常規指揮與控制結構的所有方面整合到一個由人工智能驅動的單一網絡中,而這將帶來許多風險,包括意外升級的風險。

上述每個例子都探討了人工智能系統與特定技術之間的互動,但現實情況更為復雜。例如,人工智能、網絡安全和核武器指揮、控制與通信(NC3)之間如何互動?如何將上述因素與對關鍵基礎設施的威脅(如黑客攻擊和癱瘓電網或水處理設施)結合起來考慮?如何評估先進人工智能系統與傳統安全威脅和其他新興技術相結合帶來的風險?

安全環境的融合。除了這些直接互動的問題之外,還必須考慮在廣泛使用人工智能系統的環境中,錯誤信息和對技術的日益敬畏會如何影響大規模殺傷性武器(WMD)的開發和使用。安全環境的趨同包括技術發展改變整個安全環境的情況,從而產生間接影響,加劇整體風險。這方面的影響可能更難調查。不過,可以預見的例子比比皆是。

例如,我們可以想象,人工智能系統的發展使虛假信息和深度偽造變得更加容易,這可能會增加國際舞臺上的誤解。這將降低生物事件成功歸因的可能性。由于信息不對稱和信號失靈的增加,核風險可能會增加。兩國在人工智能發展方面的競爭態勢失控也可能促使一方考慮使用大規模殺傷性武器或對另一方進行常規攻擊。

除了類型學之外,另一個相關的宏觀問題依然存在:是從整體上研究融合風險,還是為融合的每個方面設計單獨的研究空間。例如,借鑒斯德哥爾摩國際和平研究所(SIPRI)設立的名為 "生物安全+X "的生物安全跨學科項目,可以設立一個名為 "人工智能+X "的大型研究領域,全面評估人工智能系統對其他技術和大規模毀滅性武器威脅的影響,調查共同的途徑和補救措施。與此同時,每種融合途徑(如人工智能和生物與人工智能和核)之間的差異也可能非常顯著,以至于在綜合研究這些風險時可能會忽略重要的細微差別。答案可能是兩者兼而有之,但其構成值得認真考慮。

關于融合的不同學派。從表面上看,關于融合的不同思想流派與關于技術進步的陣營劃分大致相同。技術樂觀主義者認為,人工智能系統將最大限度地發揮這些技術的優勢,并有助于最大限度地降低其風險。這些好處包括更強大的核指揮與控制、更快的疫苗開發和訓練有素的網絡軟件;樂觀主義者可以提出這樣的理由,即監管會延遲或阻礙這些好處的實現。

那些抱著安全心態的人可能會更重視本文所討論的問題,認為不受監管的人工智能發展很可能會導致國際和國家安全的凈下降。

第三個陣營則堅持維持現狀,他們會指出缺乏對融合的好處和壞處的實證研究,并對人工智能系統在任一方向上的變革力量普遍表示懷疑。

鑒于人工智能發展和部署的速度快、規模大、無處不在,專家們必須從安全的角度出發。所有這些技術都具有廣泛的雙重用途,加速發展既可能帶來好處,也可能帶來危害。評估每種技術的效益與風險之間的平衡已經是一個非常困難的經驗問題。這一問題因技術的趨同而變得更加復雜,并凸顯了進一步研究的必要性,以量化其利弊,并調查可適應這一復雜性的框架。

然而,研究表明,在許多高風險領域,防御性技術與進攻性技術相比往往處于劣勢。例如,致命性很強的病原體通常會比疫苗的開發更具競爭力。研究每種技術交叉點上的平衡至關重要,但新興防御性技術往往落后于新興進攻性技術,這就要求政策制定者在應對融合威脅時保持最大限度的謹慎。

防范融合風險的政策。除了進一步的研究,在政策領域也有許多工作可以做,以降低融合風險。

首先,政府必須向國家科學基金會等機構提供專項資金,以提高我們對融合風險的認識。這應包括探索特定領域的技術融合和安全環境融合,以及對獨立于技術領域的威脅融合動態進行更全面的調查。

其次,國會可以考慮公共領域已經出現的越來越多的政策建議,以減輕特定人工智能途徑帶來的風險。最近的一份報告是海倫娜組織 5 月份召開的人工智能與生物融合問題高級別專家會議的成果,其中提出了幾項建議。這些建議包括測試生物濫用的大語言模型、強制進行DNA合成篩查,以及擴大生物安全和生物安保指南的范圍,將人工智能生物技術納入其中。參議院的一項新法案以政策建議為基礎,防止將先進的人工智能整合到核武器指揮、控制和通信(NC3)系統中。人工智能國家安全委員會發布了關于降低武器系統中人工智能相關風險(如擴散和升級)的戰略指南。隨著人們對其他融合途徑的風險有了更好的了解,很可能會出現更多高價值的政策建議。

重要的是,通過普遍適用于先進人工智能系統的共同政策機制,這些融合途徑中的許多都有可能被縮小。例如,先進人工智能系統部署的全面審批程序,包括強制性獨立審計和紅隊制度,可以幫助防止濫用和意想不到的后果,不批準部署具有高融合危險風險的系統。讓人工智能開發者對其創造的系統所造成的危害負責的法律責任框架,也有望激勵主要實驗室在設計時充分測試和降低融合風險。最后,不同公司和國家之間加強協調與合作,為人工智能開發建立共同的保障措施,有可能緩解地緣政治緊張局勢,并阻止相關行為體將其人工智能技術用于軍事目的。

隨著所有這些技術的加速發展和核緊張局勢達到前所未有的高度,調查新舊威脅的融合對于維護和推進國家和國際安全至關重要。

參考來源:Bulletin of the Atomic Scientists,By Emilia Javorsky, Hamza Chaudhry

付費5元查看完整內容

專家們一致認為,未來戰爭的特點將是使用人工智能(AI)技術,特別是完全自主的武器系統。這些系統--如美國空軍的 "忠誠僚機 "無人機--能夠在無人監督的情況下識別、跟蹤和攻擊目標。最近在加沙、利比亞、納戈爾諾-卡拉巴赫和烏克蘭等地的沖突中使用這些致命的自主武器系統提出了重要的法律、倫理和道德問題。

盡管人工智能被廣泛應用,但目前仍不清楚人工智能增強型軍事技術會如何改變戰爭的性質和態勢。那些最擔心將人工智能用于軍事目的的人預見到了一個烏托邦式的未來或 "人工智能啟示錄",機器將成熟到足以主宰世界。一位政策分析師甚至預測,致命的自主武器系統 "將導致世界秩序的劇變,其程度將遠遠超過核武器問世時發生的變化"。其他觀察家則質疑,鑒于通過算法模擬生物智能的復雜性,人工智能系統能在多大程度上真正取代人類。假設人工智能的這種擴展是可能的,那么依賴人工智能的軍隊將承擔數據和判斷成本,這可以說 "使戰爭中人的因素變得更加重要,而不是更加不重要"。

這些觀點雖然有助于討論人工智能對全球政治的潛在影響,但卻無法解釋人工智能究竟會如何改變戰爭的進行,以及士兵們對這一問題的看法。為了解決這個問題,作者最近研究了人工智能增強型軍事技術--整合到不同決策層面和監督類型--如何影響美國軍官對這些系統的信任,從而影響他們對戰爭軌跡的理解。在人工智能領域,信任被定義為一種信念,即一項自主技術在追求共同目標的過程中將可靠地按照預期執行。

圖:XQ-58A Valkyrie "忠實僚機 "無人駕駛戰斗飛行器由人工智能驅動,可在無人監督的情況下識別、跟蹤和攻擊目標。(圖片:美國空軍。 設計:Fran?ois Diaz-Maurin/Erik English)

為了衡量軍方對致命自主武器系統的信任程度,本文作者研究了就讀于賓夕法尼亞州卡萊爾美國陸軍戰爭學院和羅德島州紐波特美國海軍戰爭學院的軍官的態度。軍隊未來的將軍和海軍上將都將來自這些軍官,他們負責管理未來沖突中新興能力的整合與使用。因此,他們的態度對于了解人工智能在多大程度上可能塑造一個由 "戰爭機器人 "陸軍作戰的新戰爭時代非常重要。

研究有三個重要發現。首先,軍官對人工智能增強型軍事技術的信任程度不同,這取決于整合這些技術的決策層以及對新能力的監督類型。其次,軍官可以批準或支持采用人工智能增強型軍事技術,但卻不信任它們,這表明他們的態度不一致,對軍事現代化產生了影響。第三,軍官對人工智能能力的態度還會受到其他因素的影響,包括他們的道德信念、對人工智能軍備競賽的擔憂以及教育水平。總之,這些發現首次提供了軍隊對戰爭中人工智能態度的實驗證據,對軍事現代化、自主武器的政策監督和專業軍事教育(包括核指揮與控制)都有影響。

四種類型的人工智能戰爭

不同國家采用人工智能增強型軍事技術的決策水平(戰術或戰略)和監督類型(人類或機器)各不相同。各國可以優化算法,在戰場上執行戰術行動,或進行戰略審議,以支持總體戰爭目標。在戰術上,此類技術可以快速分析從分布在戰場上的傳感器獲取的大量數據,比對手更快地生成目標選擇,從而提高戰地指揮官的殺傷力。正如網絡安全專家喬恩-林賽(Jon Lindsay)所說,"戰斗可以被模擬為一場游戲,通過摧毀更多的敵人同時保全更多的友軍來贏得勝利"。要做到這一點,就必須大大縮短 "從傳感器到射手 "的時間線,即從獲取目標到攻擊目標的時間間隔。美國國防部的 "利馬特遣部隊"(Task Force Lima)和 "Maven計劃"(Project Maven)都是此類人工智能應用的范例。

在戰略上,人工智能增強型軍事技術還能幫助政治和軍事領導人將關鍵目標(目的)與作戰方法(途徑)和有限資源(手段)(包括物資和人員)相結合,實現同步。在未來的軍事行動中,新的能力甚至可能出現并取代人類,包括制定戰略方向和國家級戰略。正如一位專家所言,人工智能已經顯示出 "參與復雜分析和戰略制定的潛力,可與發動戰爭所需的能力相媲美"。

與此同時,各國還可以調整對人工智能增強型軍事技術的監督或控制類型。這些技術在設計上可以允許更多的人為監督,從而增強決策的自主性。這類系統通常被稱為半自主系統,即仍受人類控制。這種監督模式是目前大多數人工智能增強武器系統(如通用原子公司的 MQ-9 "死神 "無人機)運行的特點。雖然 "死神 "可以自動駕駛,根據地形和天氣條件的變化調整飛行高度和速度,但人類仍然可以做出瞄準決定。

各國還可以設計人工智能增強型軍事技術,減少人工監督。這些系統通常被稱為 "殺手機器人",因為人類不在其中。在這些應用中,人類行使的監督即使有,也是有限的,甚至在目標選擇決策方面也是如此。決策水平和監督類型的差異表明,在采用人工智能增強型軍事技術后,全球可能出現四種類型的戰爭。

圖:人工智能戰爭的四種類型。(插圖:Fran?ois Diaz-Maurin)

首先,各國可以利用人工智能增強型軍事技術在人類監督下進行戰術決策。這就是保羅-沙雷(Paul Scharre)所說的 "半人馬作戰"。"半人馬 "是希臘神話中的一種生物,上半身像人,下半身和腿像馬,因此得名。半人馬作戰強調人類為戰場目的控制機器,例如摧毀敵方武器庫等目標。

其次,各國可以利用人工智能增強型軍事技術,在機器監督下進行戰術決策。這就從字面上顛覆了半人馬戰爭,讓人聯想到古希臘的另一種神話生物--牛頭人,它有牛的頭和尾巴,人的身體。"牛頭人戰爭 "的特點是在戰斗中機器控制人類和跨領域作戰,從地面上的士兵巡邏到海洋上的戰艦編隊,再到空中的戰斗機編隊,不一而足。

第三,戰略決策加上機器監督,構成了 "人工智能將軍 "或 "單兵 "類型的戰爭。這種方法為人工智能增強型軍事技術提供了非同尋常的空間,以塑造各國的作戰軌跡,但可能會對沖突期間國家間的攻防平衡產生嚴重影響。換言之,人工智能通用型作戰可使各國在時間和空間上獲得并保持對對手的優勢,從而影響戰爭的總體結果。

最后,"馬賽克戰 "保留了人類對人工智能增強型軍事技術的監督,但試圖利用算法來優化戰略決策,以強加和利用針對同行對手的弱點。美國海軍陸戰隊退役將軍約翰-艾倫(John Allen)將這種作戰模式稱為 "超戰爭",學者們通常將其稱為算法決策支持系統。這些任務包括通過 "實時威脅預測 "過程預測敵人可能采取的行動(這是美國防部新的機器輔助分析快速存儲系統或 MARS 的任務),確定最可行、最可接受和最合適的戰略(Palantir 和 Scale AI 等公司正在研究如何做到這一點),以及調整后勤等關鍵作戰功能,以幫助軍隊在印度洋-太平洋等補給線延伸的有爭議作戰環境中獲得并保持主動權。

美國軍官對人工智能戰爭的態度

為了解決軍官在決策水平和監督類型不同的情況下如何信任人工智能增強型軍事技術的問題,作者于 2023 年 10 月對分配到卡萊爾和紐波特戰爭學院的軍官進行了一次調查。調查涉及四個實驗組,這四個實驗組在決策(戰術或戰略)和監督(人類或機器)方面對人工智能增強型軍事技術的使用有所不同,還有一個基線組沒有操縱這些屬性。在閱讀了隨機分配的場景后,要求受訪者用 1 分(低)到 5 分(高)來評價他們對該能力的信任度和支持度。然后,使用統計方法對數據進行了分析。

雖然樣本不能代表美國軍隊(也不能代表其分支,如美國陸軍和海軍),但它是政治學家所說的便利樣本。這有助于得出極為罕見的見解,了解軍人如何信任人工智能增強型軍事技術,以及這種信任對戰爭性質的影響。

這個樣本也是對人工智能出現后未來戰爭可能發生的變化的理解的一個艱難考驗,因為抽取了過多的野戰軍級軍官,包括少校/中校、中校/指揮官和上校/上尉。他們接受過多年的訓練,是目標瞄準方面的專家,許多人都曾參加過戰斗部署,并對無人機做出過決策。他們也是新興的高級領導人,負責評估新技術對未來沖突的影響。這些特點意味著,樣本中的軍官可能比軍隊中的其他人員更不信任人工智能增強型軍事技術,尤其是那些常被稱為 "數字原住民 "的初級軍官。

這項調查揭示了幾個重要發現。首先,基于對這些新能力的決策水平和監督類型的不同,軍官對人工智能增強型軍事技術的信任程度也不同。雖然軍官們普遍不信任不同類型的人工智能增強型武器,但他們最不信任用于單兵作戰(由機器監督的戰略決策)的能力。另一方面,他們對馬賽克戰爭(人工智能優化戰略決策的人工監督)表現出更多的信任。這表明,軍官們始終傾向于由人類控制人工智能來識別敵方活動的細微模式、生成軍事方案以應對對手的多重困境,或者在長期沖突中幫助維持戰備狀態。

與基線組相比,軍官對人工智能軍事技術的信任度在單兵作戰(18.8%)方面的下降幅度要大于馬賽克作戰(10.5%)--見圖 1。雖然與基線組相比,兩種類型的人工智能增強型戰爭中軍官的平均信任度差異在統計上都很顯著,但用于單兵作戰的新軍事能力比用于馬賽克戰爭的更明顯。此外,軍官對兩類人工智能增強型戰爭的信任概率的平均變化(即人工智能增強型軍事技術對軍官信任的平均邊際效應)僅對單兵作戰具有統計意義。總體而言,這些結果表明,軍官對人工智能增強型軍事技術的不信任程度較低,因為這些技術是在人類監督下用于輔助高層決策的。

這些關于信任度的結果在很大程度上反映了軍官的支持態度。與基線組相比,軍官對用于單兵作戰的人工智能增強型軍事技術的支持程度較低,支持率為 18.3%,統計顯著性幾乎相同。不過,與基線組相比,軍官對牛頭人戰爭的支持程度也高于其他人工智能增強型戰爭模式,支持程度的變化約為 6.5%。這表明,雖然軍官們對用于較高層次決策和人工控制的人工智能增強型軍事技術的不信任程度較低,但他們更支持用于戰術級決策和機器監督的人工智能增強型軍事技術。總之,軍官們的態度似乎反映了國王學院教授肯尼斯-佩恩(Kenneth Payne)的論點:"戰爭機器人將成為令人難以置信的戰斗員,但卻是有限的戰略家"。

圖 1. 與基線組相比,四類人工智能戰爭的信任度和支持度。注:數值代表與基線組相比,各處理組對人工智能增強型軍事技術的支持度和信任度的變化。當支持度和信任度與基線組相比下降時,數值為負。(數據:Paul Lushenko;可視化:Fran?ois Diaz-Maurin)

軍官們對在戰術層面使用人工智能增強型軍事技術的支持度相對較高,這揭示了第二個關鍵發現。軍官們對人工智能增強型軍事技術的態度可能是支持比信任更明顯。這意味著一些學者所說的 "信任悖論"。軍官們似乎支持采用人工智能增強的新型戰場技術,即使他們并不一定信任這些技術。這種現象主要與 "牛頭人 "戰爭有關(使用人工智能進行戰術決策并由機器監督)。這表明,軍官們預計人工智能增強型軍事技術將壓縮對手的機動時間和空間,同時擴大美軍的機動時間和空間,而美軍的機動時間和空間是建立在縮短 "從傳感器到射手 "的時間線基礎上的,高級軍事領導人認為這是在未來沖突中擊敗近鄰對手的關鍵。

軍官對用于戰術層面決策和機器監督的人工智能增強型軍事技術的支持程度差異大于其信任度的變化(圖 2)。此外,結果表明,軍官在信任和支持態度上的差異在統計學上具有顯著性: 軍官對用于牛頭人戰爭的人工智能增強型軍事技術的支持程度要高于對它們的信任程度。軍官支持用于牛頭人戰爭的人工智能增強型軍事技術的平均概率變化也高于其他三種類型的人工智能增強型戰爭。

綜合來看,這些結果表明美國軍官對人工智能增強型軍事技術的支持和信任存在信念偏差。盡管軍官們支持采用此類技術來優化不同層次和不同程度的監督決策,但他們并不信任因新興的人工智能能力而導致的潛在戰爭類型。這一結果表明,美國軍官可能認為有義務接受與他們自己的偏好和態度相悖的預計戰爭形式,特別是作為美國陸軍和海軍新興作戰概念基礎的牛頭人戰爭。

圖 2. 對四類人工智能戰爭的信任和支持。注:數值代表各處理組對人工智能增強型軍事技術的支持和信任的平均水平。(數據:Paul Lushenko;可視化:Fran?ois Diaz-Maurin)

其他因素進一步解釋了軍官對人工智能增強型軍事技術信任度的差異。在作者的調查中,當控制了決策水平和監督類型的差異后,發現軍官對這些技術的態度也可能受到潛在的道德、工具和教育因素的影響。

認為美國有道義上的義務在國外使用人工智能增強型軍事技術的軍官,反映出他們對這些新戰場能力的信任程度較高,這與支持的態度也是一致的。這表明,軍官對在國外使用人工智能增強型軍事技術(如在人道主義援助和救災行動中)的潛在益處的道德信念,可能有助于克服他們對采用這些能力的固有不信任。

此外,重視人工智能增強型軍事技術的工具價值并對其抱有 "害怕錯過 "態度的軍官--即他們認為其他國家采用這些技術會迫使美國也采用這些技術,以免在潛在的人工智能軍備競賽中處于不利地位--也傾向于對這些新興能力抱有更大的信任。在考慮教育時,也觀察到了類似的信任態度。結果顯示,高等教育降低了軍官對人工智能增強型軍事技術的信任度,這意味著更多或更專業的知識會讓人對未來戰爭中人工智能的優點和局限性產生疑問。最后,在這些規范性和工具性考慮的交叉點上,作者發現那些認為軍事力量對于維護全球秩序是必要的軍官也更支持使用人工智能增強型軍事技術。這些結果共同加強了早先的研究,即軍官的世界觀決定了他們對戰場技術的態度,軍官在評估他們對在國外使用武力的信任和支持時可以整合不同的邏輯。

如何讓軍官更好地為人工智能戰爭做好準備

有關美國軍官對人工智能態度的第一手證據,描繪了一幅新興技術帶來的戰爭特征演變的復雜圖景,這比一些分析家所認為的要復雜得多。然而,這些態度對作戰現代化和政策以及軍官的專業軍事教育(包括核武器管理)都有影響。

首先,盡管一些美國軍事領導人聲稱 "我們正在目睹戰爭性質的巨大變化,而這主要又是由技術驅動的",但在沖突中出現的人工智能增強型軍事技術可能更多的是一種演變,而不是一場革命。雖然加沙戰爭和烏克蘭戰爭表明軍隊作戰方式發生了重要變化,但它們也反映了關鍵的連續性。軍隊傳統上一直尋求利用新技術來提高情報能力、保護部隊、擴大戰術和作戰火力范圍,這一切在戰場上產生了 "根本的不對稱"。最近,各國使用和限制無人機方式的變化也被證明影響了公眾對合法或非法使用武力的看法,這一結果與新興的完全自主軍事技術是一致的。

然而,這些能力和其他能力對戰爭中戰略結果的影響充其量只是個疑問。戰爭中的戰略成功仍然取決于各國是否愿意犧牲士兵的生命和納稅人的錢財來實現支持國家重大利益的政治和軍事目標。事實上,在研究中,軍官們可能最支持用于牛頭人戰爭的人工智能增強型軍事技術。但是,考慮到圍繞軍事創新的炒作--如果不是夸張和恐懼--,研究參與者對新戰場技術的總體信任和支持程度仍然遠遠低于預期。這些結果表明,對于人工智能對未來沖突的范式性影響,軍事領導人應該降低他們的預期。換句話說,應該 "做好被人工智能失望的準備"。美國陸軍中校邁克爾-弗格森(Michael Ferguson)認為,由于缺乏這種清晰的視角,"時髦的理論將戰爭變成了委婉語的歌舞伎",掩蓋了殘酷的戰斗現實。戰爭是意志的碰撞,充滿人性,并受政治目標的制約。

其次,軍官對人工智能增強型軍事技術的信任態度比本研究顯示的更為復雜。事實上,正如一位前美國空軍上校、現任聯合參謀部J-8局分析師所指出的,"操作人員很難高概率地預測系統在面對適應性對手時的實際表現,這可能會削弱對系統的信任"。在另一項正在進行的研究中,發現軍官對人工智能增強型軍事技術的信任會受到一系列復雜因素的影響。這些因素包括技術規格,即其非致命目的、更高的精確度和人類監督;在平民保護、部隊保護和任務完成方面的感知有效性;以及監督,包括國內監管,尤其是國際監管。事實上,本研究中的一名軍官指出,對人工智能增強型軍事技術的信任是建立在 "遵守國際法而非美國國內法 "的基礎上的。

這些結果表明,需要對新型能力進行更多的測試和實驗,使其使用符合軍人的期望。政策制定者和軍事領導人還必須明確應鼓勵開發人工智能增強型軍事技術的作戰概念;指導其在不同領域、不同層級和不同目的中整合的條令;以及規范其使用的政策。對于后一項任務,官員們必須解釋美國的政策如何與國際法律相吻合或背道而馳,以及哪些規范是使用人工智能增強型軍事技術的條件,至少要考慮到戰地級別的軍官期望如何使用這些能力。為了填補這一空白,白宮最近宣布了美國關于負責任地在軍事上使用人工智能和自主功能與系統的政策,國防部通過了一項指令,規范美軍自主武器的開發和使用,五角大樓還設立了首席數字與人工智能辦公室,以幫助執行這一指令,不過據報道,該辦公室受到預算和人事方面的挑戰。

最后,軍事領導人還應改革專業軍事教育,讓軍官了解人工智能的優點和局限性。他們應該探索人工智能在其他戰略環境中的應用,包括核指揮與控制。美國軍方的許多舉措已經反映了這一需求,尤其是考慮到軍官們在與人工智能能力合作時猶豫不決。

在作戰方面,由美國陸軍第 18 空降軍領導的 "里奇韋項目 "旨在將人工智能整合到瞄準過程中。與之相匹配的是 "阿米莉亞 "和 "忠誠僚機",它們是海軍和空軍旨在優化人員流程和作戰的項目。在體制上,除了預先存在的認證課程外,一些分析師鼓勵將數據素養評估納入基于人才的評估計劃,如美國陸軍的指揮官評估計劃。在教育方面,軍事院校和戰爭學院都有專門研究人工智能對未來戰爭影響的教師、研究中心和選修課。美國陸軍戰爭學院最近聘請了一名數據科學教授,美國海軍學院設有 "武器、機器人和控制工程 "研究集群,美國海軍戰爭學院開設了 "戰略領導人人工智能 "選修課。

圖:MQ-9 "死神 "發射了一枚空對地導彈-114 "地獄火 "導彈,它是一種無遙控駕駛飛機,可用于情報、偵察和打擊。(圖片:美國空軍。 設計:Fran?ois Diaz-Maurin)

與此同時,在美國海軍戰爭學院和其他地方進行的兵棋推演表明,網絡能力可以鼓勵自動化和將核指揮與控制權預先下放給戰術指揮層,并激勵積極的反擊戰略。但研究結果表明,一個令人費解的結果值得更多的檢驗。從表面上看,盡管結果可能與戰爭中使用核武器的結果相同,但這些結果提出了一個令人不安的問題: 正如研究結果所表明的那樣,即使軍官們不信任人工智能,不信任或不支持使用人工智能來管理反制戰略,他們是否真的愿意支持潛在的自動化以及將核指揮與控制權預先下放給戰術級人工智能?

俄羅斯威脅在烏克蘭使用核武器,這促使美國軍方重新審視在大國戰爭中有限使用核武器的可能性。盡管這種 "回到未來 "的情景令人恐懼,而且與冷戰期間戰術核武器的擴散不謀而合,但美國戰爭學院還是重振了教育工作,為參與大規模沖突的國家之間的戰術核交換做好作戰準備。

然而,這些舉措和其他舉措在多大程度上有效地對軍官進行了人工智能教育尚不清楚。問題的部分原因在于,這些舉措將相互競爭的教學方法對立起來。一些計劃以 "一英里寬、一英寸深 "的方式調查數據掃盲和人工智能,將一門課納入更廣泛課程的一門課程中。其他計劃則提供更多的發展機會,并采用 "更窄更深 "的方法,讓少數官員自愿選擇選修課,將其放在更廣泛的課程之上。還有一些項目,如美國陸軍戰爭學院的項目,嘗試采用 "金線 "方法,將數據素養和人工智能貫穿于課程中,從而構建出更廣泛的教學計劃。然而,后一種方法迫使管理者在內容和時間上做出重要權衡,并要求教師具備深入的專業知識。

展望未來,負責協調整個美國聯合部隊培訓和教育工作的聯合參謀部 J-7 應將專業軍事教育概念化,使其成為數據素養和人工智能教學方面長期持續、不斷豐富的連續體。服役院校的預備役學生或參加后備軍官培訓團的學生應接觸有關人工智能的基本概念。初級和中級軍官應在培訓、部署和參加中級教育(如美國陸軍指揮與總參謀學院)期間將這些見解融會貫通。在被選入戰爭學院后,軍官們應與有關在戰斗中使用人工智能的概念性、規范性和工具性考量因素進行斗爭,研究表明,這些考量因素可以塑造軍隊對新技術的態度。

當然,采用這種端對端的教育方法需要時間和資金。它還容易受到不同利益相關者的特權、軍種文化和軍種間競爭的影響。然而,通過將培訓和教育與明確可行的學習成果相結合,這種整體教學模式充分利用了現有的機會,確保美軍做好準備,愿意在和平時期和未來戰爭中采用人工智能增強型軍事技術,并使其使用方式符合國際法律和規范。

參考來源:Bulletin of the Atomic Scientists,Paul Lushenko

付費5元查看完整內容

在不到一年的時間里,Chat-GPT 已成為一個家喻戶曉的名字,反映了人工智能驅動的軟件工具,特別是生成式人工智能模型的驚人進步。伴隨著這些發展,人們頻頻預測人工智能將徹底改變戰爭。在人工智能發展的現階段,人們仍在探索可能的參數,但軍方對人工智能技術的反應是不可否認的。美國網絡安全和基礎設施安全局局長詹-伊斯特里警告說,人工智能可能是 "我們這個時代最強大的武器"。雖然自主武器系統在有關人工智能軍事應用的討論中往往占據主導地位,但人們較少關注在武裝沖突中支持人類決策的系統中使用人工智能的問題。

在這篇文章中,紅十字國際委員會軍事顧問魯本-斯圖爾特(Ruben Stewart)和法律顧問喬治婭-海因茲(Georgia Hinds)試圖批判性地審視人工智能用于支持戰爭中武裝人員決策時被吹噓的一些益處。其中特別討論了減輕對平民的傷害和節奏問題,尤其關注武裝沖突中對平民的影響。

即使在最近的炒作之前,人們可能已經以各種形式使用過人工智能,事實上,人們可能正在使用主要由人工智能驅動的設備閱讀這篇文章。如果您使用指紋或人臉打開過手機,參與過社交媒體,使用手機應用程序規劃過旅程,或者在網上購買過披薩和書籍等任何物品,那么這些都可能與人工智能有關。在很多方面,我們對人工智能已經習以為常,常常在不知不覺中將其應用到我們的日常生活中。

但如果人臉識別軟件被用來識別要攻擊的人呢?如果類似的軟件不是尋找最便宜的航班將你送往目的地,而是尋找飛機對目標實施空襲呢?或者,機器推薦的不是最好的披薩店或最近的出租車,而是攻擊計劃?這顯然是開發基于人工智能的國防決策平臺的公司 "即將到來 "的現實。

這類人工智能決策支持系統(AI-DSS)是一種計算機化工具,使用人工智能軟件顯示、綜合和/或分析數據,并在某些情況下提出建議,甚至預測,以幫助人類在戰爭中做出決策。

AI-DSS 的優勢往往體現在提高態勢感知能力和加快決策周期上。下文將根據人工智能系統和人類的局限性,并結合現代沖突的規劃過程,對這些說法進行解讀。

將沖突中傷害平民的風險降至最低

新技術在戰爭中的出現往往伴隨著這樣的說法,即新技術的整合將減少對平民的傷害(盡管在實踐中并不總是如此)。就 AI-DSS 而言,有人聲稱這種工具在某些情況下有助于更好地保護沖突中的平民。當然,國際人道主義法(IHL)規定,軍事指揮官和其他負責攻擊的人員有義務根據他們在相關時間所掌握的所有來源的信息做出決定。特別是在城市戰爭的背景下,紅十字國際委員會建議,有關平民和民用物體存在等因素的信息應包括互聯網等公開來源資料庫。此外,具體到人工智能和機器學習,紅十字國際委員會認為,只要人工智能-DSS工具能夠促進更快、更廣泛地收集和分析這類信息,就能使人類在沖突中做出更好的決策,從而最大限度地減少對平民的風險。

與此同時,任何 AI-DSS 的輸出都應在多個來源之間進行交叉核對,以防止信息有偏差或不準確。雖然這對沖突中的任何信息來源都是如此,但對AI-DSS 尤為重要;正如紅十字國際委員會先前所概述的那樣,由于系統的功能以及人類用戶與機器的交互方式,要核實輸出信息的準確性可能極其困難,有時甚至是不可能的。下文將進一步闡述這些方面。

系統局限性

最近關于人工智能發展的報道經常包括人工智能失敗的例子,有時是致命的。例如,軟件無法識別或錯誤識別膚色較深的人,推薦的旅行路線沒有考慮最新的路況,以及自動駕駛汽車造成死亡的例子。其中一些失誤是可以解釋的,但不可原諒,例如,因為其輸出所依據的數據有偏差、被破壞、中毒或根本不正確。這些系統仍然很容易被 "欺騙";可以使用一些技術來欺騙系統,使其對數據進行錯誤分類。例如,可以想象在沖突中使用對抗性技術來影響瞄準輔助系統的源代碼,使其將校車識別為敵方車輛,從而造成毀滅性后果。

隨著人工智能被用于執行更復雜的任務,特別是當多層分析(可能還有決策和判斷)不斷累積時,驗證最終輸出以及導致最終輸出的任何錯誤的來源就變得幾乎不可能。隨著系統越來越復雜,出現復合錯誤的可能性也越來越大--第一個算法建議中的一個微小不足會被反饋到第二個算法過程中并造成偏差,而第二個算法過程又會反饋到第三個算法過程中,依此類推。

因此,人工智能系統經常表現出用戶或開發者無法解釋的行為,即使經過大量的事后分析也是如此。一項針對備受矚目的大型語言模型 GPT-4 的研究發現,三個月后,該模型解決數學問題的能力從 83.6% 銳減至 35.2%,令人費解。不可預測的行為也可以通過強化學習產生,在強化學習中,機器已被證明能夠非常有效地采用和隱藏不可預見的行為,有時甚至是負面行為,從而戰勝或超越人類:無論是通過撒謊贏得談判,還是通過走捷徑擊敗電腦游戲。

人類與機器互動面臨的挑戰

AI-DSS 不會 "做出 "決定。不過,它們確實會直接影響人類的決策,而且往往影響很大,其中包括人類在與機器交互時的認知局限性和傾向性。

例如,"自動化偏差 "指的是人類傾向于不批判性地質疑系統的輸出,或搜索矛盾的信息--尤其是在時間緊迫的情況下。在醫療保健等其他領域已經觀察到了這種情況,經驗豐富的放射科醫生的診斷準確性受到了人工智能錯誤輸出的不利影響。

在醫療領域,不準確的診斷可能是致命的。同樣,在武裝沖突中,過度信任也會帶來致命后果。2003 年,美國的 "愛國者 "防御系統兩次向友軍聯軍飛機開火,原因是這些飛機被誤認為是攻擊導彈。在隨后的調查中,發現的主要缺陷之一是 "操作員接受了信任系統軟件的培訓"。

這些運作方式,再加上人機互動的這些特點,有可能增加結果偏離人類決策者意圖的可能性。在戰爭中,這可能導致意外升級,無論如何都會增加平民和受保護人員的風險。

節奏

人工智能在軍事上被吹捧的一個優勢是,它能讓用戶的決策節奏快于對手。節奏的加快往往會給平民帶來額外的風險,這就是為什么要采用 "戰術忍耐 "等降低節奏的技術來減少平民傷亡。放慢決策節奏,包括為決策提供信息的過程和評估,可以讓系統和用戶有額外的時間:

  • 看到更多
  • 了解更多;以及
  • 制定更多選擇。 重要的是,在整個決策鏈中都是如此,而不僅僅是在最后的 "決策點"。因此,聲稱 AI-DSS 將加快最終決定是否 "扣動扳機 "的耗時步驟,從而實際上為戰術忍耐帶來更多時間的說法,有可能過度簡化當代沖突中的目標選擇和武力執行過程。

額外的時間讓你看到更多

2021 年 8 月 29 日,在喀布爾大撤退期間,無人機對喀布爾進行了臭名昭著的空襲,造成 10 名平民死亡,中央司令部指揮官將這次空襲歸咎于 "我們沒有多余的時間來分析生活模式和做其他一些事情"。

"生活模式"分析是一些軍隊對平民和戰斗人員的存在和密度、他們的時間表、在考慮攻擊的地區內和周圍的移動模式等進行評估的描述。這是減少平民傷害的重要方法。然而,對生活模式的評估只能實時進行--平民創造這種模式需要時間--無法加快。

試圖根據歷史趨勢預測未來行為的做法無法顧及當前情況。在這個例子中,回顧舊的情報資料,特別是喀布爾的全動態視頻,并不能反映出由于塔利班接管和正在進行的疏散工作而發生的形勢和行為變化。

正如預防平民傷亡指南所解釋的那樣,"等待和觀察的時間越長,你就會對發生的事情了解得越多,也就能更好地做出使用致命或非致命手段的決定",或者正如拿破侖所說的那樣 "慢慢給我穿衣服,我趕時間"--有時,刻意為之才能達到最佳效果。

額外的時間可以讓用戶理解更多

放慢決策速度的另一個原因是,人的理解能力,尤其是對復雜和混亂情況的理解能力,需要時間來培養,也需要時間來斟酌適當的應對措施。時間越少,人理解局勢的能力就越弱。軍事規劃流程旨在讓指揮官和參謀人員有時間考慮作戰環境、對手、友軍和平民,以及所考慮的行動方案的利弊。正如德懷特-D-艾森豪威爾將軍所解釋的,"在準備戰斗的過程中,我總是發現計劃是無用的,但規劃是不可或缺的"。

當人類決策者考慮由 AI-DSS 生成或 "推薦 "的行動方案時,這一點就會產生影響,因為相對于對手而言,AI-DSS 加快行動節奏的能力可能是被利用的最主要原因。如果人類計劃人員沒有經歷或甚至完全不了解 AI-DSS 提出的計劃的制定過程,那么他對局勢、各種影響因素和相關人員的了解可能就會很有限。 事實上,人們已經注意到,使用自動輔助工具會降低人類用戶的警覺性,損害他們保持態勢感知的能力。這一點應從如何影響遵守國際人道主義法義務的角度加以考慮;盡一切可能核查目標的義務表明,需要最大限度地利用現有情報、監視和偵察資產,以獲得在當時情況下盡可能全面的態勢感知。

更多時間可讓用戶做出更多選擇

除了能讓指揮官看到和了解更多情況外,額外的時間還能讓指揮官制定戰術備選方案,包括決定不使用武力或緩和局勢。額外的時間可以讓其他單元和平臺脫離接觸、重新定位、重新補給、計劃和準備協助即將到來的行動。這為指揮官提供了更多選擇,包括可更好地減少平民傷害的替代計劃。額外的時間可能允許采取額外的緩解措施,如發布警告,從平民的角度來看,這也允許他們實施應對機制,如躲避、重新補給食物和水或撤離。

正如軍事規劃理論中的一個例子所解釋的那樣,"如果時間充裕,而且更快采取行動也沒有好處,那么就沒有什么借口不花時間進行充分規劃"。正如北約的《保護平民手冊》所回顧的那樣,"如果有時間按照國際人道主義法的原則對部隊或目標進行蓄意規劃、區分和精確瞄準,那么CIVCAS[平民傷亡]的可能性就會大大降低"。

結論

"戰爭是混亂的、致命的,從根本上說是人類的努力。它是人與人之間的意志沖突。所有戰爭本質上都是為了改變人類的行為,每一方都試圖通過武力改變另一方的行為"。"戰爭源于人類的分歧,在人類群體之間展開,由人類控制,由人類結束,而在戰爭結束后,人類又必須共存。最重要的是,沖突中的苦難由人類承擔。

這一現實,乃至國際人道主義法本身,都要求在武裝沖突中開發和使用人工智能時采取 "以人為本 "的方法--努力在本已不人道的活動中維護人性。這種方法至少有兩個關鍵方面:(1) 關注可能受影響的人;(2) 關注使用或下令使用人工智能的人的義務和責任。

在研究可能受影響的人時,不僅要考慮在使用 AI-DSS 獲取軍事優勢時減少對平民的風險,還要考慮專門為保護平民的目標設計和使用這類工具的可能性。在這方面已經提出的可能性包括識別、跟蹤和提醒部隊注意平民人口存在的工具,或識別在武裝沖突中表明受保護地位的特殊標志的工具(見這里和這里)。

確保人類能夠履行其在國際人道主義法下的義務意味著 AI-DSS 應為人類決策提供信息,但不能取代人類對武裝沖突中人們的生命和尊嚴構成風險的判斷。在自主武器系統方面,各國已廣泛認識到這一點(例如,見此處、此處和此處)。遵守國際人道主義法的責任在于個人及其指揮官,而非計算機。正如美國國防部《戰爭法手冊》所述:"戰爭法并不要求武器做出法律決定......相反,必須遵守戰爭法的是人。中國在《新一代人工智能倫理規范》中更普遍地強調了這一點,堅持 "人是最終的責任主體"。

關于 AI-DSS 必然會加強平民保護和遵守國際人道主義法的說法必須受到嚴格質疑,并根據這些考慮因素進行衡量,同時考慮到我們對系統局限性、人機互動以及行動節奏加快的影響的了解。

參考來源:International Committee of the Red Cross

付費5元查看完整內容

人工智能(AI)究竟是什么?它與電子戰(EW)的未來有什么關系?人工智能正在改變我們所做的一切嗎?如果忽視人工智能,那將是一個錯誤。眾所周知,特斯拉采用了人工智能算法,特別是卷積神經網絡、遞歸神經網絡和強化學習。從根本上說,這些算法可以匯編來自多個傳感器的數據,分析這些數據,然后做出決策或向最終用戶提供信息,從而以驚人的速度做出決策。這一過程以指數級的速度發生,超過了人腦的處理速度。因此,從根本上說,人工智能是機器像人類一樣執行認知功能的能力。

人工智能可以駕駛汽車、撰寫學期論文、以適當的語氣幫你創建電子郵件,因此,它在軍事領域的潛在應用也是理所當然的。具體來說,就是整合人工智能電子戰及其提供的潛在能力轉變。雖然 "電子戰 "一詞已經使用了相當長的一段時間,但將人工智能注入這一領域為提高速度和殺傷力和/或保護開辟了新的途徑。

電子戰包含一系列與控制電磁頻譜有關的活動,傳統上一直依賴人類的專業知識來探測、利用和防御電子信號。然而,現代戰爭的速度和復雜性已經超出了人類操作員的能力。這正是人工智能的優勢所在,它帶來的一系列優勢將徹底改變電子戰的格局。

將人工智能融入電子戰的首要好處之一是增強了實時處理和分析海量數據的能力。在數字時代,戰場上充斥著來自通信網絡、雷達系統和電子設備等各種來源的大量信息。人工智能算法可以迅速篩選這些數據,識別出人類操作員可能無法識別的模式、異常情況和潛在威脅。這種能力不僅能提高威脅檢測的準確性,還能大大縮短響應時間,使友軍在快速演變的局勢中獲得關鍵優勢。

在這種情況下,人工智能賦能的兵力倍增器就出現了,它能在面對復雜多變的局勢時做出更高效、更有效的決策。現代戰場會產生大量電子信號,需要快速準確地識別。人工智能驅動的算法擅長篩選這些數據、辨別模式,并識別在以往場景中可能被忽視的信息。這使兵力能夠迅速做出反應,以更快的速度做出關鍵決策。

此外,人工智能還具有適應和學習新信息的能力,這一特性在電子戰領域尤為有利。電子威脅和反制措施處于不斷演變的狀態,需要反應迅速和靈活的策略。人工智能驅動的系統可以根據不斷變化的情況迅速調整戰術,持續優化性能,而無需人工干預。這種適應性對于對抗復雜的電子攻擊和領先對手一步至關重要。

人工智能與電子戰的融合還為指揮官提供了更先進的決策工具,比歷史標準更詳細、更快速。人工智能算法可以分析各種場景,考慮地形、天氣以及友軍和敵軍兵力等因素。這種分析為指揮官提供了全面的戰場情況,使他們能夠在充分了解情況的基礎上做出決策,最大限度地提高任務成功的概率,最大限度地降低潛在風險。此外,人工智能驅動的模擬可以演繹不同的場景,使軍事規劃人員能夠完善戰略,評估不同行動方案的潛在結果。美國今年早些時候進行了一次以印度洋-太平洋地區為重點的演習,將大語言模型(LLM)作為規劃和決策過程的一部分。一位演習成員稱贊了系統 "學習 "的成功和速度,以及系統成為戰場上可行資源的速度。另一個例子是,利用已輸入人工智能系統的數據對目標清單進行優先排序,人工智能系統能夠考慮瞄準行動、網絡,從而比操作人員更快、更全面地了解戰區情況。

不過,必須承認,要完成人工智能整合,還存在一些潛在的障礙。首先,美國防部大多數實體無法直接獲得人工智能技術。大多數從事前沿人工智能工作的組織都是商業公司,它們必須與軍事系統合作或集成。這可能會受到美國現行預算和研發流程的阻礙。此外,美國的這些流程進展緩慢,人工智能技術很有可能無法融入美國兵力。還有潛在的道德和安全考慮。隨著人工智能系統在探測和應對威脅方面承擔更多責任,人類的監督和控制水平也會出現問題。為了與戰爭法則保持一致,需要有人工參與,而不是完全依賴人工智能來做出攻擊決策。任何時候,只要有可能造成人員傷亡、附帶損害或其他問題,就需要人類做出有意識的知情決策,而不能任由人工智能自生自滅。在人工智能自主決策和人工干預之間取得適當的平衡至關重要,以防止意外后果或機器在沒有適當問責的情況下做出生死攸關的選擇。

最后,人工智能的整合引發了對潛在網絡漏洞的擔憂。雖然人工智能可以提高電子戰的速度和準確性,但它也為試圖操縱或破壞人工智能系統的惡意行為者帶來了新的攻擊途徑。要保護這些系統免受網絡威脅,就必須采取強有力的整體網絡安全方法,同時考慮到人工智能驅動的電子戰的硬件和軟件層。

最后,不可否認,將人工智能融入戰爭預警的潛在戰略利益是巨大的。人工智能處理海量數據、適應不斷變化的條件和支持決策過程的能力有可能重塑現代戰爭的格局。隨著兵力越來越依賴技術來保持在數字化作戰空間中的優勢,負責任地開發和部署人工智能驅動的預警系統將是必要的。 如何在技術創新、人工監督和安全措施之間取得適當平衡,將決定能在多大程度上實現這些優勢,同時又不損害戰略目標或道德考量。美國采購系統面臨的挑戰也將在人工智能集成中發揮關鍵作用。人工智能在電子戰中的變革力量有可能改變游戲規則。問題是:它會嗎?人工智能將如何融入新型 EC-37B Compass Call 和 NexGen 干擾機等未來平臺?陸軍是否會將人工智能納入其推動營級決策的努力中?這些都是值得探討的問題,但有一點是肯定的:電磁作戰界必須繼續接受創新思維,因為我們知道未來的戰斗將在電磁頻譜中開始和結束。人工智能將在現代戰爭的新時代發揮關鍵作用。

付費5元查看完整內容

在過去的幾年里,人工智能(AI)系統的能力急劇增加,同時帶來了新的風險和潛在利益。在軍事方面,這些被討論為新一代 "自主"武器系統的助推器以及未來 "超戰爭 "的相關概念。特別是在德國,這些想法在社會和政治中面臨著有爭議的討論。由于人工智能在世界范圍內越來越多地應用于一些敏感領域,如國防領域,因此在這個問題上的國際禁令或具有法律約束力的文書是不現實的。

在決定具體政策之前,必須對這項技術的風險和好處有一個共同的理解,包括重申基本的道德和原則。致命力量的應用必須由人指揮和控制,因為只有人可以負責任。德國聯邦國防軍意識到需要應對這些發展,以便能夠履行其憲法規定的使命,即在未來的所有情況下保衛國家,并對抗采用這種系統的對手,按照其發展計劃行事。因此,迫切需要制定概念和具有法律約束力的法規,以便在獲得利益的同時控制風險。

本立場文件解釋了弗勞恩霍夫VVS對當前技術狀況的看法,探討了利益和風險,并提出了一個可解釋和可控制的人工智能的框架概念。確定并討論了實施所提出的概念所需的部分研究課題,概述了通往可信賴的人工智能和未來負責任地使用這些系統的途徑。遵循參考架構的概念和規定的實施是基于人工智能的武器系統可接受性的關鍵推動因素,是接受的前提條件。

付費5元查看完整內容

美國仍然是世界上最突出的軍事和技術力量。在過去十年中,美國認識到人工智能作為力量倍增器的潛力,越來越多地將人工智能(AI)的熟練程度視為美國重要利益和保證美國軍事和經濟實力的機制。特別是,在過去十年中,人工智能已成為美國國防的一項關鍵能力,特別是考慮到2022年美國國防戰略對印度-太平洋地區的關注。

因此,美國國防部(DoD)(以及美國政府和國防機構總體上)對人工智能和相關新興技術表現出越來越大的熱情。然而,雖然美國目前在學術界和私營部門的人工智能研究和開發方面取得了巨大進展,但國防部尚未在廣泛范圍內成功地將商業人工智能的發展轉化為真正的軍事能力。

美國政府在利用國防人工智能和人工智能支持的系統方面通常處于有利地位。然而,在過去的幾年里,各種官僚主義、組織和程序上的障礙減緩了國防部在國防人工智能采用和基于技術的創新方面的進展。最關鍵的是,國防部遭受了復雜的收購過程和廣泛的數據、STEM和AI人才和培訓的短缺。從事人工智能和人工智能相關技術和項目的組織往往是孤立的,而且還存在必要的數據和其他資源相互分離。在美國防部內部存在一種傾向于可靠方法和系統的文化,有時趨向于勒德主義。所有這些因素都導致了人工智能采用的速度出奇的緩慢。美國家安全委員會2021年提交給國會的最終報告總結說,"盡管有令人興奮的實驗和一些小型的人工智能項目,但美國政府離人工智能就緒還有很長的路要走"。

因此,盡管人工智能有可能增強美國的國家安全并成為一個優勢領域,而且鑒于美國在軍事、創新和技術領導方面的長期傳統,人工智能有可能成為一個薄弱點,擴大 "美國已經進入的脆弱窗口"。 如果美國不加快創新步伐,達到負責任的速度,并奠定必要的制度基礎,以支持一支精通人工智能的軍隊,人工智能將繼續成為一個不安全點。

去年,美國防部在這些挑戰中的一些方面取得了進展,調整了國防人工智能的方法。2022年6月,美國防部發布了《負責任人工智能戰略和實施途徑》,將更有數據依據的、負責任的、可操作的人工智能工作列為優先事項,此后開始執行。最重要的是,美國防部已經啟動了對其人工智能組織結構的重大改革,創建了一個新的首席數字和人工智能辦公室(CDAO),以整合其不同的人工智能項目和利益相關者,并使其與該部門的數據流更好地協調。值得注意的是,美國國防部目前正在對其國防人工智能的整體方法進行重大變革和振興。然而,這些新的人工智能努力是否足以讓美國彌補失去的時間,還有待觀察。

付費5元查看完整內容

自主系統將塑造戰爭的未來。因此,土耳其的國防人工智能(AI)發展主要側重于提高自主系統、傳感器和決策支持系統的能力。提高自主系統的情報收集和作戰能力,以及實現蜂群作戰,是發展國防人工智能的優先事項。雖然土耳其加強了自主系統的能力,但在可預見的未來,人類仍將是決策的關鍵。

人類參與決策過程提出了一個重要問題:如何有效確保人機互動?目前,自主系統的快速發展和部署使人機互動的問題更加惡化。正如土耳其國防工業代表所爭論的那樣,讓機器相互交談比較容易,但將人類加入其中卻非常困難,因為現有的結構并不適合有效的人機互動。此外,人們認為,人工智能對決策系統的增強將有助于人類做出更快的決定,并緩解人機互動。

土耳其發展人工智能的意圖和計劃可以從官方戰略文件以及研發焦點小組報告中找到。突出的文件包括以下內容:

  • 第11個發展計劃,其中規定了土耳其的經濟發展目標和關鍵技術投資。

  • 《2021-2025年國家人工智能戰略》,它為土耳其的人工智能發展制定了框架。

  • 焦點技術網絡(Odak Teknoloji A??,OTA?)報告,為特定的國防技術制定了技術路線圖。這些文件提供了關于土耳其如何對待人工智能、國防人工智能和相關技術的見解。

土耳其特別關注人工智能相關技術,如機器學習、計算機視覺和自然語言處理,其應用重點是自主車輛和機器人技術。自2011年以來,自主系統,主要是無人駕駛飛行器(UAV),仍然是土耳其人工智能發展的重點。此后,這已擴大到包括所有類型的無機組人員的車輛。同時,用人工智能來增強這些車輛的能力也越來越受到重視。人工智能和相關技術的交織發展構成了土耳其人工智能生態系統的核心。

土耳其的人工智能生態系統剛剛起步,但正在成長。截至2022年10月,有254家人工智能初創企業被列入土耳其人工智能倡議(TRAI)數據庫。土耳其旨在通過各種生態系統倡議在其國防和民用產業、學術機構和政府之間創造協同效應。由于許多組織都參與其中,這些倡議導致了重復和冗余。冗余也來自于人工智能技術本身的性質。由于人工智能是一種通用技術,可以應用于不同的環境,各種公司都有用于民用和國防部門的產品;因此相同的公司參與了不同的生態系統倡議。此外,民用公司與國防公司合作,在國防人工智能研究中合作,并提供產品,這是司空見慣的。

土耳其鼓勵國際人工智能在民用領域的合作,但不鼓勵在國防領域的合作。然而,由于技能是可轉移的,國防人工智能間接地從這種合作中受益。

土耳其非常關注自主系統發展中的互操作性問題,特別是那些具有群集能力的系統。除了蜂群,北約盟國的互操作性也是一個重要問題。因此,土耳其認為北約標準在發展自主系統和基礎技術方面至關重要。

土耳其目前對人工智能采取了分布式的組織方式。每個政府機構都設立了自己的人工智能組織,職責重疊。目前,盡管國防工業局(Savunma Sanayi Ba?kanl???,SSB)還沒有建立專門的人工智能組織,但SSB的研發部管理一些人工智能項目,而SSB的無人駕駛和智能系統部管理平臺級項目。目前,根據現有信息,還不清楚這些組織結構如何實現國防創新或組織改革。

土耳其尋求增加其在人工智能方面的研發支出,旨在增加就業和發展生態系統。SSB將在未來授予更多基于人工智能的項目,并愿意購買更多的自主系統,鼓勵研發支出的上升趨勢。然而,盡管土耳其希望增加支出,但金融危機可能會阻礙目前的努力。

培訓和管理一支熟練的勞動力對于建立土耳其正在尋找的本土人工智能開發能力至關重要。這包括兩個部分。首先是培養能夠開發和生產國防人工智能的人力資源。因此,土耳其正在投資于新的大學課程、研究人員培訓、開源平臺和就業,同時支持技術競賽。第二是培訓將使用國防人工智能的軍事人員。國防人工智能也正在慢慢成為土耳其武裝部隊(Türk Silahl? Kuvvetleri,TSK)培訓活動的一部分。目前,關于土耳其打算如何培訓軍事人員使用國防人工智能的公開信息非常少。

付費5元查看完整內容

人工智能(AI)的進步為世界各地的軍隊帶來了巨大的機遇。隨著人工智能軍事系統日益增長的潛力,一些活動人士敲響了警鐘,呼吁限制或完全禁止一些人工智能武器系統相反,對人工智能武器控制持懷疑態度的人認為,人工智能作為一種在民用背景下開發的通用技術,將異常難以控制人工智能是一項具有無數非軍事應用的賦能技術;這一因素使它有別于其他許多軍事技術,如地雷或導彈由于人工智能的廣泛應用,絕對禁止人工智能的所有軍事應用可能是不可行的。然而,有可能禁止或規范特定的用例。國際社會有時在禁止或管制武器方面取得了不同程度的成功。在某些情況下,例如禁止永久致盲激光,武器控制迄今為止效果顯著。然而,在其他情況下,例如試圖限制無限制的潛艇戰或對城市的空中轟炸,國家未能在戰爭中實現持久的克制。各國控制或管制武器的動機各不相同。對于特別破壞政治或社會穩定、造成過多平民傷亡或對戰斗人員造成不人道傷害的武器,各國可設法限制其擴散。本文通過探索歷史上試圖進行軍備控制的案例,分析成功和失敗,研究了軍備控制在人工智能軍事應用中的潛力。論文的第一部分探討了現有的有關為什么一些軍備控制措施成功而另一些失敗的學術文獻。然后,本文提出了影響軍備控制成功的幾個標準最后,分析了人工智能武器控制的潛力,并為政策制定者提出了下一步措施。歷史上試圖進行軍備控制的詳細案例——從古代的禁令到現代的協議——可以在附錄a中找到。歷史告訴我們,政策制定者、學者和民間社會成員今天可以采取具體步驟,提高未來人工智能軍備控制成功的機會。這包括采取政策行動,塑造技術發展的方式,并在所有層面加強對話,以更好地理解人工智能應用可能如何在戰爭中使用。任何人工智能武器控制都將具有挑戰性。然而,在某些情況下,軍備控制在適當的條件下是可能實現的,今天的一些小步驟可以幫助為未來的成功奠定基礎。

付費5元查看完整內容
北京阿比特科技有限公司