亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

2024年12月24日,聯合國大會通過《關于“軍事領域人工智能及其對國際和平與安全影響”的第A/RES/79/239號決議》。該決議成為多邊人工智能討論的關鍵節點,原因有二:(1)2024年早些時候通過的前兩項人工智能相關決議均未涵蓋軍事領域與國際安全議題;(2)國際和平與安全界首次受邀就人工智能在“致命性自主武器系統”(LAWS)以外的開發、部署及使用影響展開思考,此舉承認了這項強大技術在軍事應用中的廣泛潛力。

根據第A/RES/79/239號決議,并為向聯合國大會第八十屆會議提交報告,秘書長邀請會員國、觀察員國、國際與地區組織、紅十字國際委員會、民間社會、產業界及科學界提交關于“軍事領域人工智能應用對國際和平與安全帶來的機遇與挑戰”的意見,特別聚焦“致命性自主武器系統以外的領域”。

本情況說明旨在協助各國就這一重要議題形成國家立場,力求最終報告盡可能實現全面性、多樣性及地域代表性。說明文件包含軍事領域人工智能的背景信息、供各國參考的考量要點。

各國擬定國家立場時的考量要點

基于聯合國裁軍研究所(UNIDIR)研究成果,以下章節概述各國啟動立場擬定工作時應重點關注的若干事項:

a. 解構軍事領域范疇
 首要步驟是將"軍事領域"概念解構為不同維度,承認軍事力量運行環境的多樣性及其對應的差異化法律、倫理與規范框架。鑒于不同地區/次區域在安全環境本質差異下面臨的威脅類型各異,軍事力量部署方式與框架亦存區別,此解構尤為重要。各國應根據國情,在與其相關的各類軍事行動范疇內闡明立場。例如可區分:軍事力量在敵對行動(國際武裝沖突與非國際武裝沖突)中應用AI,與維和、應急響應、救災、國家安全及公共安全支持(協助執法、邊境安保、反海盜、關鍵基礎設施防護等)等其他行動中的AI應用。

b. 全面考量AI軍事應用譜系
 第A/RES/79/239號決議要求各國聚焦"致命性自主武器系統(LAWS)以外"的AI軍事應用。在a點所述廣泛作戰場景中,各國需系統審視AI的全譜系軍事應用。盡管尚無國際公認分類標準,建議參考UNIDIR報告《超越武器的AI:軍事領域人工智能應用與影響》提出的任務導向分類法。該方法通過四大核心軍事任務歸類武器系統之外的AI應用:

? 指揮控制(C2):涉及軍事行動的決策環節
? 信息管理:涵蓋軍事行動相關信息的采集、處理、利用與分發,例如情報監視偵察(ISR)支持
? 后勤保障:包括人員裝備的調動、補給與監控,如預測性維護
? 軍事訓練:涉及部隊人員的教學與備戰

如a點所述,此框架可映射涵蓋非戰斗行動在內的全譜系AI應用場景。LAWS范疇外其他潛在應用包括:支持網絡行動(含認知戰、電磁戰及影響力作戰)的AI技術。

c. 風險評估體系構建
盡管民用領域AI風險討論更為深入,但國際和平安全語境下的AI風險評估框架尚未形成共識。區域內外風險認知差異或為成因之一,但各國需建立系統性風險評估機制。建議聚焦兩類風險:技術本體風險擴散應用風險。UNIDIR的AI風險分類體系可作參考:

技術本體風險包括:
? 技術脆弱性導致的AI安全風險(含數據相關問題)
? AI系統引入新型網絡漏洞引發的安全風險
? 人機交互風險(如自動化偏見、信任校準偏差)

擴散應用風險則涉及:防擴散、誤判升級等風險。評估需結合具體應用場景,考量現有法律框架合規挑戰。

d. 發展機遇闡述
第A/RES/79/239號決議同時鼓勵各國闡述AI軍事應用帶來的潛在效益。這些具有國際/區域/國家/地方特質的機遇可涵蓋:
? 作戰層面:拓展數據采集、強化比例原則評估、落實預防措施
? 法律政策層面:全生命周期責任機制設計、軍民負責任AI實踐互鑒、兩用技術審慎管理、數據治理框架構建

e. 國家治理架構梳理
在評估軍事領域范疇與AI應用譜系時,各國需同步梳理國家層面現有/在建的AI軍事治理架構,包括:
? 制度文本:國家政策/戰略、民事/刑事立法、內部規章、行為準則、采購指南、軍事手冊、概念文件
? 機構設置:涉及AI開發部署的部委/政府機構(執法、情報部門等)、其他相關實體(AI專門機構、行業協會、司法法院)

此梳理有助于明晰國家治理能力現狀,為國際討論提供實證基礎。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

人工智能(AI)正迅速改變軍事領域并深刻影響國際和平與安全。"負責任軍事域人工智能峰會"(REAIM)及《負責任軍事應用人工智能與自主系統政治宣言》等倡議雖非普適性進程,但顯著提升了國際社會對軍事AI應用的關注度。這些倡議尤其推動討論超越致命性自主武器系統(LAWS),成功凸顯AI的多維影響,從而促成更廣泛的國際政策參與。基于這些倡議激發的政治動能,聯合國大會2024年12月通過的79/239號決議進一步拓展了圍繞軍事AI的國際對話,為成員國、國際和區域組織以及多利益攸關方社群提供了共商機遇與風險的平臺。聯合國裁軍研究所(UNIDIR)長年致力于引導相關討論:通過開展研究、推動多邊對話、提供政策洞見,深刻闡釋AI對國際和平安全的變革潛力。

國際社會當前可塑造AI在軍事領域的應用方式,將負責任AI原則置于核心。核心挑戰在于"軍事域"定義的復雜性——國家與地區依其獨特安全環境、現實條件及操作實踐存在不同解讀:部分國家將軍事職能擴展至國內安全任務(如治安、邊境管控、打擊有組織犯罪、關鍵基礎設施防護及災害人道救援);其他國家則采用嚴格定義,將軍事功能限于戰場交戰。這些差異非但不應成為障礙,反而為多邊討論提供重要背景。國際治理框架須保持靈活包容,承認并適應多樣化的國家與區域安全視角。

在軍事域的多元操作場景中,AI作為力量倍增器賦能多項軍事任務,涵蓋指揮控制(C2)、情報信息、高級自主系統、后勤保障、訓練模擬及組織支持功能。在C2領域,AI提升決策速度與質量,輔助指揮官快速分析戰場態勢;通過整合詳細相稱性原則等法律評估,增強國際人道法(IHL)遵循能力。AI驅動的情報工具高速分析海量數據,優化態勢感知與威脅探測。在后勤領域,AI優化供應鏈與預測性維護,提升戰備水平。AI還支持無人機、網絡安全、認知戰與信息行動中的高級自主性。訓練模擬通過AI創建個性化高擬真合成環境而獲益。簡言之,若負責任地開發部署使用,AI可提升作戰效能、降低風險與傷害。然而軍事AI融合亦帶來顯著風險與挑戰——涵蓋技術、安全、法律、政策及倫理維度。

技術層面,軍事AI系統面臨數據質量、可用性及固有偏見問題,可能導致不可預測且具潛在危害的后果(包括違反國際法)。AI系統的"黑箱"特性,加之其自適應能力與高度環境依賴性,使可信度評估復雜化,有時甚至阻礙對涉嫌違反IHL行為的有效調查。網絡安全漏洞也使AI系統易受對抗攻擊,需采取嚴格防護措施。

安全挑戰包括誤判與意外升級風險,尤其通過AI賦能的快速決策流程及自主系統,可能導致升級式響應。AI軍備競賽的可能性加劇國際與區域緊張,或引發類似歷史軍備競賽的破壞性后果。AI技術向非國家行為體擴散進一步復雜化威脅格局,亟需軍事AI系統的強健全生命周期管理。此外,AI生成虛假信息通過削弱信息可信度威脅社會穩定性,并直接影響軍事行動。

法律挑戰聚焦確保遵守國際法(尤指IHL與國際人權法)。關鍵辯論涉及AI驅動行動的責任歸屬問題(包括國家與個人責任),特別是致命決策領域。各國對現有法律框架是否充分或需制定專門新規存在分歧。超越國際法范疇,倫理考量強調在關鍵決策中保留人類判斷力,防止社會偏見滲入AI系統——后者要求增強AI開發的多元包容性。彌合政府、學界與私營部門間的鴻溝雖具挑戰性,但對有效治理至關重要。

應對這些挑戰需制定涵蓋多邊、區域及國家層級的綜合路線圖。多邊層面,建立聯合國主導的常設對話平臺至關重要,該平臺將系統探討軍事AI對國際和平安全的廣泛影響。其可基于現有國際AI原則框架(如聯合國教科文組織建議或《全球數字契約》中的安全可靠AI承諾),進一步細化軍事領域適用方案。此外,應借助聯合國平臺制定務實"建立信任措施"(CBMs),引領包容性多利益攸關方參與,實施通過透明度、合作與可預測性增強全球安全的能力建設項目。

區域層面,現有組織框架可用于制定契合本地安全語境的CBMs與指南。跨區域對話促進經驗互鑒,打破信息壁壘,納入多元視角以推動全球協調響應。國家層面,各國應制定詳述愿景、優先級與治理框架的綜合AI戰略,確保遵循國際規范與倫理標準。強健治理架構(如專屬AI指導委員會與倫理委員會)配合迭代式法律審查,將增強問責制與安全性。透明化溝通與明確定責規程進一步支持負責任AI實施。高標準數據治理、全生命周期管理方法、嚴格培訓計劃及更新的軍事操作指南共同構成國家層面措施,確保AI在軍事領域的負責任融合。

綜上所述,AI融入軍事領域為國際和平安全帶來重大機遇與復雜挑戰。通過前瞻性治理、包容對話及情景適配框架,各國可駕馭AI戰略優勢并管控風險。承認定義與操作語境的多樣性,協同多邊、區域與國家行動,將為負責任軍事AI治理奠定堅實基礎。

付費5元查看完整內容

近期沖突中自主武器技術的興起,彰顯人工智能日益加劇的軍事化趨勢。基于人工智能的目標鎖定系統和自主武器系統等新技術的迅猛發展,給國際社會帶來重大挑戰。一方面,人工智能軍事化存在潛在威脅;另一方面,算法決策與法律責任引發倫理困境。盡管過去十年間《特定常規武器公約》框架下的監管機制建設持續推進,少數抵制國家仍阻礙著進展進程。然而近期區域與國際會議表明,支持采用"雙軌路徑"締結國際條約的共識正日益增強——該路徑旨在全面禁止完全自主武器,同時規范武器系統中的自主功能。

在近期武裝沖突中,新一代武器系統引發國際社會高度關注。這些系統的核心特征在于作戰行動中不斷提升的自主運作能力。借助傳感器技術與強大算法的進步,敵對區域自主導航、監視偵察、情報收集及目標鎖定輔助等功能實現顯著升級。游蕩彈藥(俗稱自殺式或神風無人機)已成為此類武器系統最顯著的例證,相繼部署于納戈爾諾-卡拉巴赫、利比亞及烏克蘭戰場。其他代表性系統包括無人地面載具、自主艦艇,以及多國正在研發的新一代超大型潛艇。隨著這些系統在戰爭舞臺的加速部署,殺傷決策自動化程度提升與人類控制權逐步喪失的憂慮正被證實,尤其在"福音"(Gospel)和"薰衣草"(Lavender)等人工智能輔助瞄準系統應用中更為凸顯。2024年維也納自主武器系統會議的主題標語"人類處于十字路口",精準映射了當前局勢。過去數年人工智能應用的快速進化,正逐步取代軍事領域各環節的人類參與,這種趨勢在生死決策場景中尤為令人憂心。本文旨在探究人工智能軍事應用對國際安全的深度影響,同時審視建立國際公認法律框架以規范人工智能與自主武器系統關聯的可行性。

武器系統自主化的戰略優勢

通過區分有形部分(硬件)與無形部分(算法),可清晰辨識軍事裝備自主化持續發展的多重優勢。這種區分使我們能從功能視角解析人工智能的軍事應用。在硬件層面,尖端傳感器技術在惡劣環境與敵后區域的性能遠超人類能力,尤其在情報監視偵察(ISR)及情報監視目標獲取與偵察(ISTAR)任務中。自主武器系統不受身體或精神疲勞、睡眠不足、壓力及生理需求等因素影響,可實現超長時部署——這對可潛航數周、隱蔽性遠超載人潛艇的無人潛艇至關重要。軍用機器人(如無人地面載具)能在城市戰場或生化核污染區等高危環境作業;無人機可在士兵進入前完成戰場勘察。美國"盾牌AI"(Shield AI)與"尼姆巴斯實驗室"(NIMBUS Lab)等集群技術制造商正致力于該領域研發。在邊境管控中,韓國SGR-A1哨兵機器人的部署,大幅降低了朝韓非軍事區監控所需的人力資源需求。此外,憑借更高精度與更低人為失誤率,自主武器系統有望降低平民傷亡風險。人工智能在自主載具中的深度集成,使其環境適應性、自主決策力及動態響應能力顯著提升,甚至可實現實時殺傷判定。當人工智能融入決策系統,可實質性減少人力需求——諸如"福音"或"薰衣草"等瞄準系統中,人工智能基于傳感器輸入生成目標清單;在"算法戰跨職能小組"(即"梅文計劃")中,人工智能可解析無人機監視情報。

付費5元查看完整內容

本文探討了在軍事網絡安全方法中應用生成式人工智能(Generative AI)所帶來的倫理和對抗影響。生成式人工智能已在眾多民用應用中展示于威脅模擬和威脅防御領域。盡管如此,其在軍事應用中存在重要的倫理考量,原因在于生成式人工智能可能被濫用。針對軍事系統的網絡威脅正變得比以往更加復雜,我們希望為該領域的研究體系增添數據,以幫助彌合在理解軍事環境中生成式人工智能風險方面所識別的知識差距。目標: 本文旨在探討圍繞生成式人工智能軍事應用的倫理困境,包括責任歸屬、自主性和濫用問題。本文審查了與生成式人工智能相關的對抗性風險,包括敵對行為體的操縱或其他利用。目標是提出考量倫理困境的措施,同時改進防御能力。方法: 方法論將評估倫理風險,如與人工智能系統相關的自主性、武器化和偏見問題。它將通過建議采用對抗性訓練策略、混合人工智能系統以及針對被對抗性操縱的人工智能生成威脅的穩健防御機制來確定對抗性風險。它還將為軍事網絡安全提出倫理框架和責任模型。結果: 本文提供了在傳統網絡環境和智能網絡環境下軍事網絡安全系統的性能比較評估。重要研究結果證明,生成式人工智能有可能提高檢測準確性,尤其是響應時間。但它也引入了新的風險,如對抗性操縱。實驗結果說明了對抗性訓練如何增強模型的魯棒性、減少漏洞,并提供更強的針對對抗性威脅的防御能力。結論: 與傳統方法相比,生成式人工智能在軍事網絡安全中具有相當可觀的益處,特別是在提升檢測性能、響應時間和適應性方面。如圖所示,人工智能增強系統的優勢使惡意軟件檢測準確率提高了15%,從80%上升到95%,釣魚郵件檢測準確率也提升了15%,從78%上升到93%。對新威脅的快速反應能力也很關鍵,響應時間縮短了60%,從5分鐘減至2分鐘,這在軍事環境中至關重要,快速響應將能最大限度減少影響。此外,人工智能系統顯示出將誤報率從10%降低到4%(這非常優秀)以及將漏報率從18%降低到5%的能力(這也很優秀),這很大程度上基于人工智能系統識別真實威脅樣貌的能力以及識別真實威脅的能力。

在過去的幾年中,由于人工智能(AI)和機器學習技術的發展,網絡安全經歷了根本性的轉變。作為人工智能的一個子類別,生成式人工智能,包括生成對抗網絡(GANs)和變分自編碼器(VAEs),正被迅速用于生成網絡威脅模擬以提供更好的防御。盡管這些人工智能模型在民用網絡安全應用中所展現的巨大效用已得到證明,但它們在軍事環境中的使用會產生額外的困境和變數。鑒于軍事領域的風險高得多,甚至在實施生成式人工智能之前,對其能力和風險獲得更深入的理解至關重要。將生成式人工智能用于軍事網絡安全工具存在諸多優勢。最顯著的好處在于,生成式人工智能能夠針對當前系統的極限,提供逼真、復雜且先進的網絡攻擊模擬。盡管在軍事網絡領域提出了無數解決方案(如復雜的關鍵基礎設施和武器系統),軍事網絡仍必須應對日益復雜的網絡攻擊,包括高級持續性威脅(APTs)、零日漏洞利用和定制攻擊。生成式人工智能模型可以生成基于情景的自適應攻擊,包括多態惡意軟件、相關釣魚郵件和自適應入侵模式,這可以匯總應對惡意網絡事件的最佳實踐。生成式人工智能也將允許檢測和/或響應系統的測試。最后,這些用于模擬的先進能力本身也帶來了必須加以考慮的顯著倫理/對抗風險。

生成式人工智能的軍事應用存在著嚴峻的倫理挑戰。首先是自主性問題。監督和管理對于人工智能的能力及其相應的自主決策至關重要。在軍事行動中由自主人工智能系統做出的決策可能產生嚴重后果,無論是沖突升級還是未知的損害。這要求現有系統配備監督機制,以確保對人工智能決策的責任追究或自主性,其決策范圍涵蓋從軍事到民用領域。第二個倫理挑戰是武器化。隨著生成式人工智能模型的改進,對手最終也會利用生成式人工智能來武器化新的網絡攻擊或發動人工智能支持的進攻策略。因此,我們必須確保強大的工具在國際法管轄的范圍內以符合倫理的方式使用。此外,人工智能系統中的偏見不容忽視。包括使用生成式人工智能在內的機器學習模型,都可能易受訓練數據中存在的偏見影響。如果這些偏見未被識別,它們必然會影響或玷污決策過程,導致負面的、武斷的或歧視性的結果,尤其是在風險巨大的軍事應用中。存在偏見的AI系統可能導致基于含有偏見的數據錯誤識別威脅或未能識別威脅行為,這會危及軍事系統的安全。

在軍事網絡應用中,生成式人工智能的應用既帶來對抗性風險,也涉及倫理考量。雖然人工智能提高了對事件的檢測和響應速度,但對手可以利用人工智能中的缺陷。網絡攻擊者可以添加對抗樣本并篡改人工智能的訓練數據,導致人工智能錯誤分類威脅或根本未能識別惡意活動。這是一個嚴重問題,特別是在涉及人員生命且生命損失風險以軍事防御規模來衡量的情況下。對抗性人工智能模型甚至可能能夠通過發動一次產生幻影的攻擊來偽造網絡攻擊,使其響應系統不堪重負,或者操縱軍事網絡安全系統陷入另一種、有效的對抗性系統復雜化。本文針對在軍事網絡安全中使用生成式人工智能所涉及的倫理和對抗性問題進行了論述。最終,本文將在后文探討減輕這些擔憂的方法,例如通過對抗性訓練、混合人工智能系統和責任歸屬機制。這項工作的最終目的是確保在恪守倫理原則、公平性和安全性的前提下,軍事領域對生成式人工智能的利用能夠增強網絡安全態勢。本文還將考慮如何在現實世界軍事行動動態多變的背景下,持續研究和評估這些模型對新興網絡威脅的抵御能力。

付費5元查看完整內容

隨著人工智能(AI)在軍事領域的應用日益廣泛,民間社會、學術界和政策制定者對其監管的呼聲也越來越高。本文認為,盡管民間社會、學術界和公眾支持對軍事人工智能進行嚴格監管,但這種監管不太可能實現,尤其是通過北約等正式組織來實現。當前烏克蘭俄羅斯戰爭凸顯了三個關鍵原因:與民用領域的界限模糊、民用生活的武器化,以及在自主性方面取得的實質性進展。鑒于這些因素,本文認為,短期內最可行的可能是行為層面的措施。

引言

隨著人工智能(AI)在軍事領域不同應用中的使用日益增多,民間社會和政策制定者對其監管的呼聲也越來越高。正式的討論已在《特定常規武器公約》(CCW)框架內進行,而更非正式的討論則在重大外交會議(如軍事領域負責任人工智能峰會(REAIM))的框架內展開。民間社會則推動對軍事領域人工智能的使用進行監管或徹底禁止,特別是在完全自主武器系統方面。學術界認為,這種禁令是必要的,通常基于自主武器和故障系統可能引發核武器使用的災難性前景。從現有數據來看,公眾輿論也支持為自主武器系統制定監管機制。

在烏克蘭俄羅斯戰爭的背景下,人工智能對戰爭可能產生的影響已為許多人所認識。雖然這不是人工智能首次在戰場上使用,但這場沖突凸顯了人工智能可能應用的規模。烏克蘭戰爭還與北約內部對人工智能潛在益處的日益認識相重疊。2021年10月,北約通過了其人工智能戰略,啟動了北大西洋防御創新加速器(DIANA)——一項旨在支持創新的倡議——并成立了一個新興和顛覆性技術咨詢小組。與北約的活躍形成鮮明對比的是,大多數北約成員國在將人工智能納入其國家戰略和武裝力量方面僅采取了有限的步驟。對大多數北約成員國來說,人工智能仍然是一個遙遠的未來,甚至有些新奇。這導致一些學者認為,在軍事人工智能應用方面,歐洲國家可能成為規則的接受者而非制定者。例如,近幾個月來,幾乎所有歐洲國家都支持美國主導的《負責任軍事使用人工智能和自主性政治宣言》,但并非所有國家都支持類似的歐洲主導的倡議,如REAIM。

然而,北約喜歡將自己描繪成人工智能領域的“負責任”行為者。作為一個負責任的行為者,包括對軍事領域人工智能使用的潛在限制問題。然而,問題在于,是否以及在多大程度上正在考慮這一領域的潛在使用限制、監管甚至軍備控制。由于人工智能的監管和限制在民間社會、專家和公眾中廣受歡迎,是否可能將其轉化為北約的做法仍然是一個相關的問題。

烏克蘭戰爭的教訓是否會使北約國家更傾向于考慮對人工智能(AI)軍事應用進行國際監管(甚至軍備控制)?本文認為,盡管有許多關于監管(甚至禁止)軍事AI使用的呼聲,盡管北約喜歡將自己描繪為AI領域的“負責任”行為者,但這一可能性已經消失。盡管許多北約成員國在紙面上繼續倡導“負責任”地使用軍事AI,但“負責任使用AI”的概念目前過于模糊,無法成為真正的約束。事實上,烏克蘭戰爭的教訓表明,AI對北約來說過于重要,無論是從實際還是組織角度來看,都難以放棄。

雖然不太可能在不久的將來(甚至永遠)看到一個類似“天網”(Skynet)的機器人控制的軍事戰場,但與AI在軍事領域使用相關的許多問題仍然存在,尤其是致命性自主武器系統(LAWS)這一核心問題。基本論點是,對北約而言,烏克蘭戰爭表明,AI(包括自主性)是一種過于重要的工具,無法被限制。這一認識對未來試圖監管和限制AI軍事應用的嘗試具有重要意義。任何對“責任”的呼吁在很大程度上都是象征性的,甚至可能僅適用于將責任視為發展能力的義務。

本文的其余部分結構如下:第二部分概述了當前學術界關于AI軍備控制的可行性(和可取性)的一些思考;第三部分回顧了北約在AI問題上的立場演變、其作為負責任行為者的自我敘述,以及限制和軍備控制的潛在可能性;第四部分概述了烏克蘭戰爭關于AI軍事應用的三個教訓,以及它們對北約的影響,并強調監管和限制不太可能成為未來的方向;第五部分總結了如果傳統的基于條約的軍備控制無法實現,未來AI監管可能會是什么樣子。

北約與人工智能

近年來,北約制定了一系列人工智能(AI)治理框架。2021年10月,北約通過了其AI戰略,目標是“通過增強關鍵AI賦能因素和調整政策,加速AI的采用”。2022年4月,北約外長批準了“北大西洋防御創新加速器”(DIANA)倡議的章程,旨在“增強聯盟的技術優勢”。2022年10月,北約批準成立其數據與人工智能審查委員會,該委員會于2023年2月舉行了首次會議。2024年7月,北約發布了其AI戰略的修訂版,其中擴大了對生成式AI帶來的虛假信息風險的關注。

在采用這些框架時,北約對其大多數成員國來說是先行者。當北約通過其AI戰略時,大多數成員國還沒有任何具體的AI軍事戰略。盡管近年來成員國加速了對軍事領域AI的關注,北約仍在塑造其戰略,就像它在其他軍事活動領域所做的那樣。

正如北約經常強調的那樣,成為“負責任”的行為者是聯盟在AI領域方法的關鍵要素。北約的AI戰略在其對負責任使用原則的強調中明確了這一點:合法性;責任與問責;可解釋性與可追溯性;可靠性;可治理性;以及偏見緩解。重要的是,這些原則并未包括對AI開發和實施的討論或限制。這些文本中討論的唯一法律框架是國際人道法和人權法,以及2019年《特定常規武器公約》(CCW)締約方通過的相關指導原則。在2024年AI戰略修訂版中,北約最遠只承諾“增加對制定國防和安全領域負責任使用AI的規范和標準的貢獻”。同樣,2024年11月,北約議會大會通過了一項決議,指出“在AI領域的領導地位對于保持北約的技術優勢并確保AI在軍事領域的負責任使用至關重要”。

現有關于北約采用AI的學術研究大多討論了在整個北約企業中實施AI的組織、制度和技術障礙。現有研究并未詳細討論可能的限制。在我的非正式討論中,所有受訪者都強調,目前唯一的限制是由國際人道法和人權法提供的。

這顯然可能導致有問題的結果。一個例子是核武器領域,這些限制已被證明是不夠的。核威懾支持者經常聽到的一個論點是,在某些情況下,使用核武器可能是完全合法的。支持者引用的論點是1996年國際法院未宣布使用核武器為非法的裁決。有趣的是,美國當時向法院提出的情景是“在非城市地區對少數軍事目標進行少量精確的低當量武器攻擊”。至少,這種情況可能會排除美國所有的洲際彈道導彈和潛射彈道導彈,以及其戰略轟炸機部隊的很大一部分。然而,國際法學者的廣泛共識是,至少就美國目前的姿態而言,無法想象使用核武器符合國際人道法的情景。

在軍事領域AI開發中,可能會出現類似的問題,即開發的武器可能很難符合現有的國際(人道)法規則。主動監管或決定不開發此類武器可以防止這種情況的發生。

烏克蘭戰爭的教訓

北約在戰爭中應用人工智能的框架是在與俄羅斯的緊張關系加劇的背景下制定的,最終俄羅斯烏克蘭戰爭爆發。人們普遍認為,烏克蘭戰爭為未來戰爭提供了許多經驗教訓,盡管這些經驗教訓尚未完全具體化。談到人工智能的軍備控制,特別是北約在其中扮演的角色,本文指出了三個主要教訓,它們共同說明了為什么戰后出現未來人工智能軍備控制的可能性較小。

  • 與民事部門的邊界模糊不清

從烏克蘭戰爭中汲取的第一個--也可能是最主要的--教訓是,軍事部門和民用部門在一定程度上相互關聯,即使不是不可能,也很難進行實際區分。這種相互聯系源于人工智能是一種通用技術,而非獨立的軍事技術,它表現在三個方面。首先,在創新方面,民用部門往往處于主導地位,而軍方往往是消費者。這與軍事采購中的通常情況恰恰相反,在軍事采購中,軍方通常會事先確定其需求,而民用部門則生產與之相匹配的產品。其次,民用工具往往比軍事需求更加匹配,這就不需要特定的軍事發展計劃。第三,民用工具是現成的,隨時可以部署,因此從頭開始開發往往毫無意義。

這一教訓在烏克蘭戰爭中得到了充分體現。小型業余無人機被用于戰場觀察的故事只是新興技術領域總體趨勢的一個例證。不過,這種整合也適用于人工智能。烏克蘭陸軍利用 Palantir(一家民用公司)提供的 MetaConstellation 軟件等技術,監控俄羅斯軍隊的行動、補給和規劃。MetaConstellation 允許烏克蘭指揮部匯總來自民間商業供應商的數據,利用人工智能優化和更接近傳感器的方式為烏克蘭軍隊提供支持。數據由 Maxar、空中客車、ICEYE 和 Capella 等民用公司以及國家科研機構提供。這些公司經常提供衛星圖像,包括光學圖像、合成孔徑圖像和熱圖像,并支持瞄準周期。這些類型的圖像具有合法的民用功能,在許多情況下最初就是為民用目的開發的。例如,ICEYE 是一所大學的分立機構,在市場上主要從事備災工作。為監測云層覆蓋下的野生動物而開發的民用解決方案目前正被用于監測俄羅斯軍隊的動向。這些只是軍方如何利用商業技術獲得軍事優勢的眾多例子中的一部分。

人工智能幫助這些公司處理和分析海量輸入數據,烏克蘭士兵在戰場上可以通過平板電腦訪問這些數據。俄羅斯最近對一些幫助烏克蘭部署人工智能解決方案的私營公司進行了網絡攻擊,這進一步反映了這些技術的戰略重要性。

這些技術不僅無處不在,而且實際上可能更能滿足當前的軍事需求。例如,只有少數北約成員國的衛星能夠生成分辨率高于商業供應商現成圖像的圖像。民用部門也有對這些圖像進行分析的解決方案。因此,從北約成員國的角度來看,限制在軍事部門使用這些系統不僅不可行,也不可取。此外,控制這些系統可能不僅不可能,而且還會誤入歧途。冷戰的教訓表明,衛星的出現使各國不再擔心突然襲擊,從而改善了戰略穩定性。烏克蘭目前也存在類似的動態變化,出其不意的因素難以維持。從長遠來看,這可能會產生穩定作用。

然而,由于數據分析和處理的速度大大提高,人工智能系統(以及這種速度)被視為軍事決策的關鍵。因此,這些商業民用服務所提供的決策速度被視為生死攸關的問題,而避免使用則被視為不負責任。人工智能在規劃、后勤和維護方面的優勢尤其難以抵擋。正如英國戰略司令部司令霍肯霍爾將軍所言,在當前的烏克蘭戰爭中,我們'看到人工智能與商業應用軟件并用,提高了行動速度。它還提高了實用性"。

因此,從烏克蘭戰爭中得到的第一個教訓是,與人工智能相關的軍備控制既難以想象,又可能被視為適得其反。軍事部門與民用部門的相互關聯意味著這一領域的軍備控制前景依然暗淡。

  • 萬物武器化

近年來,人類生活各個方面的 “武器化 ”趨勢日益明顯。法雷爾和紐曼談到了相互依存的武器化,而加萊奧蒂則更進一步,談到了 “萬物武器化”。事實上,現代人類生存的幾乎所有方面都可以被用于軍事目的,這一點在烏克蘭戰爭中得到了充分證明。

一個很好的例子是,烏克蘭使用 Clearview AI 人臉識別軟件(該軟件根據從社交媒體上截取的照片進行訓練)來識別俄羅斯士兵(無論死活)并打擊錯誤信息。烏克蘭軟件公司 Primer 修改了其語音轉錄軟件,以處理截獲的俄羅斯士兵電話(他們通常使用普通電信網絡與家人和朋友聯系)。人工智能可以幫助即時處理、選擇和輸出對軍事有用的信息。烏克蘭軍方還開發了可供廣大公眾使用的應用程序,以提醒軍事指揮官俄羅斯軍隊的確切位置。標準化聊天機器人也用于類似目的。與民用傳感器網絡相結合,可以實現情報的眾包,并促進人工智能驅動的處理。不過,烏克蘭并非唯一依賴這些工具的國家;正如媒體報道所示,俄羅斯曾利用欺騙電話誘騙烏克蘭人給武裝部隊中的家庭成員打電話,隨后再將他們作為炮擊目標。

在歐洲,這些人工智能的某些用途是非法的。數據保護法規,尤其是歐盟的《通用數據保護條例》(GDPR),禁止上述某些措施,如從社交媒體上獲取照片和在沒有搜查令的情況下監控通話。但這并不意味著此類策略永遠不能在歐盟領土上使用,在這種情況下,如果歐洲軍隊要遵守《一般數據保護條例》,就會處于不利地位。以權利為導向、以人為本的監管模式遲早會與人工智能系統的 “萬物武器化 ”方法相沖突。

萬物武器化,以及任何手機都能成為輸入人工智能系統的傳感器這一事實,意味著對這些系統的監管即使不是不可能,也將是困難的。大量的數據將使通過人工智能處理這些數據的動力更加強勁。人們可能會認為,這些 “公民傳感器 ”收集的數據用處太大,不值得放棄。同樣,由于這些技術與實際致命行動仍有距離,而且信號情報并不新鮮,因此 “萬物 ”武器化的好處很可能會被認為過于誘人而被放棄。

從烏克蘭戰爭中汲取的前兩個教訓也凸顯出,要想在未來對人工智能采取重大軍備控制措施普遍存在困難。正如最近的理論文獻所指出的,如果民用和軍事應用難以區分,如果軍事企業和民用經濟融為一體,軍備控制的可能性就會降低。這兩種情況都適用于烏克蘭戰爭。這突出表明,不僅人工智能軍備控制總體上很困難,而且北約參與軍備控制的動力可能更加有限。

  • 實現完全自主性的步驟

烏克蘭戰爭帶來的第三個教訓與第一個教訓有關。如果利用民用部門的發展,通過壓縮時間提供決定性的決策優勢,這可能會削弱阻止完全自主武器系統(即能夠 “在沒有人類干預的情況下選擇并對目標使用武力 ”的系統)發展趨勢的呼聲。

目前,烏克蘭不僅將人工智能用于分析,還用于預測和處方,包括發現目標和確定優先次序。Kropyva 應用程序可幫助烏克蘭官員篩選數據,一旦選定目標,就會自動優化與之交戰的方式。其中許多步驟都是本著優化決策的精神采取的,目的是 “更快、更準 ”地瞄準敵人。在許多其他領域,結論似乎是,盡管數據質量可能并不完美,但性價比使人工智能的使用物有所值。

不過,烏克蘭防御者已經在嘗試使用人工智能驅動的無人機獵殺系統(如 Fortem 的 DroneHunter F700)來攔截和鎖定敵方派來攻擊烏克蘭能源設施的無人機。在一些行動中,烏克蘭還使用了自主艦艇、水下無人機和無人駕駛飛行器。多位觀察家指出,烏克蘭的軍事系統擁有部署完全自主武器系統所需的組件。在北約的一次軍事演習中,模擬了與烏克蘭類似的無人機攻擊,觀察員注意到 “在反無人機無人機部署之前,士兵就已經被殺死了”。

人工智能系統的速度顯然為進一步發展提供了誘人的動力。目前,這些系統都不是為了殺死人類而設計的,而這正是致命自主武器系統的關鍵定義要求。不過,在這些系統中加入這種能力目前肯定是可行的,而且這樣做的壓力可能會持續存在。人工智能解決方案的提供商都意識到其產品所帶來的優勢。Palantir 公司首席執行官亞歷克斯-卡普(Alex Karp)認為,“現在,先進算法戰爭系統的威力已經大到相當于擁有戰術核武器來對付只有常規武器的對手”。有趣的是,研究數據科學的軍事專家認為,這樣做的好處可能比人們通常認為的要多,而風險則被夸大了。

當然,這也提出了一個問題,即 “有意義的人為控制 ”這一概念究竟意味著什么?烏克蘭的局勢反映了人為控制與人為判斷之間的兩難選擇。根據新聞報道,發現敵人、決定與之交戰并實施打擊的整個過程只發生在短短幾分鐘內。導致做出此類決定的情報--例如從商用無人機或衛星圖像中獲取的情報--不一定總能得到證實。如上所述,許多此類系統在決定如何攻擊目標時往往是指令性的。這突出表明,雖然人類可能參與其中(從而滿足了人類控制的標準),但人類是否做出了判斷可能并不明確。

支持將人工智能用于軍事目的的人主要提出三類論點。首先,他們認為我們永遠不可能擁有完美的信息,而人工智能系統據以做出決策的信息往往比人類情報或其他更傳統的情報來源更好、更完整。第二個論點是,錯誤、失誤和 “附帶損害 ”在任何情況下都會經常發生。最后,他們認為,對人工智能的偏見正在發揮作用,因為機器的標準與人類不同。在某種程度上,這些論點與有關自動駕駛汽車的討論相似。在這項研究中,涉及死亡的事故(在使用自動駕駛時不可避免)也被證明對公眾輿論產生了強烈的負面影響。雖然有關致命性自主武器系統觀點的可比研究有限,但目前的數據表明,在所有條件相同的情況下,隨著武器系統自主性的提高,公眾對致命性自主武器系統的接受度會降低。

烏克蘭戰爭表明,各國軍隊正在采取越來越多的措施實現自主化。例如,旨在保護關鍵基礎設施的系統已經開始使用自主性。借用核軍備控制中的一個術語,我們目前正處于一種 “潛伏 ”狀態,即國家擁有制造武器所需的一切要素,但尚未研制成功。在核領域,“潛伏 ”指的是一個國家擁有研制核武器所需的一切條件,只要它愿意,因為它擁有大部分(如果不是全部)必要元素。在人工智能領域,“潛伏期 ”指的是一個階段,在這一階段,開發真正自主武器系統所需的全部(或幾乎全部)要素都已具備,盡管尚未做出這樣做的決定。

當然,潛伏期并不自動意味著達到潛伏期的國家會選擇獲取武器系統。然而,它確實意味著必須有一個決定不走這條路的積極過程,這個過程可能來自國內專家組,也可能來自國外的壓力。人們可能會問,在更大規模地部署自主權之前,這種壓力是否有可能及時出現。

結論

本文考慮了北約在有關人工智能軍事應用的討論中成為相關行為體的可能性,特別是考慮到烏克蘭戰爭。正如所論證的那樣,北約總是不太可能參與軍備控制--它是一個有強烈的制度和政治理由不參與此類討論的組織。然而,烏克蘭戰爭進一步降低了北約參與這些討論的可能性,原因有三:(i) 戰爭表明民用和軍事部門之間的界限非常狹窄;(ii) 戰爭導致 “萬物武器化”,包括民用生活的許多方面;(iii) 戰爭鼓勵了探索軍事系統自主性的步驟,在一定程度上表明自主性現在更多的是一種選擇而非手段。在當前的戰爭中,人工智能的使用是否為烏克蘭帶來了重大戰略優勢,只有未來的研究才能證明,這些使用清楚地表明,在軍事領域實施人工智能可以帶來切實的戰術軍事優勢。

因此,關于北約將成為人工智能領域 “負責任 ”的行為體的說法必須有所保留。北約不會成為一個推動軍備控制和監管的負責任的行為體,而那些主張限制人工智能在軍事領域應用的人卻傾向于這樣做。相反,北約及其成員正在成為一個將安全可靠地部署人工智能視為己任的行為體。從這個意義上說,北約內部的責任這一結論會讓那些希望北約國家采取更有力的人工智能監管措施的人感到失望,因為這可能需要北約本身的參與。

雖然有關公眾對人工智能武器看法的研究尚處于起步階段,但有關公眾對致命自主武器系統態度的新興研究表明,隨著自主程度的提高,公眾對使用武器持反感態度。同樣,公眾也可能認為使用自主程度較高的武器系統不道德。因此,公眾對人工智能武器的看法相對不那么樂觀。

如果聯盟(及其成員)不想認真考慮人工智能軍備控制問題,但公眾又認為這種措施是可取的,那么各國政府可能會更容易采取象征性調整政策。在核軍備控制領域,象征性調整早在 20 世紀 90 年代就已被描述為政府在不損害核心政策問題的前提下為滿足公眾要求而采取的措施。

其中一種象征性調整可能是采用行為方法進行軍備控制。行為方法最近在核軍備控制中得到了探索,以替代傳統的以條約為基礎的軍備控制,而傳統的軍備控制目前正處于緊張狀態。即使是軍備控制條約的堅定支持者,最近也主張以行為方式進行軍備控制。事實上,歐洲決策者提出行為軍控的想法已有一段時間。

行為軍控的一個關鍵要素是,它限制行為,但不要求核查。它依靠的不是核查,而是行為線索--重要的是政治壓力和權衡。行為軍控過去曾因缺乏執行機制而飽受批評,但現在學者們認識到,社會約束實際上可以提供重要的防護。

付費5元查看完整內容

隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。

然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。

高層也有同感:聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與 ”制定 “關于通過多邊進程設計、開發和使用人工智能軍事應用的規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。

  • 優先領域 1:建立知識庫

通過跨地區、跨學科和多方利益相關者的投入,在軍事領域建立一個共享的、堅實的人工智能知識庫。

  • 優先領域 2:建立信任

建立對技術和他人的信任

  • 優先領域 3:人的因素

解讀人工智能系統在軍事領域的開發、測試、部署和使用中的人的因素

  • 優先領域 4:數據實踐

了解和解讀軍事領域負責任人工智能的數據實踐

  • 優先領域 5:生命周期管理

了解人工智能系統的生命周期影響(包括生命周期的終結),在軍事領域推廣負責任的人工智能

  • 優先領域 6:不穩定

了解與人工智能有關的破壞穩定問題的驅動因素、手段、方法和應對措施,包括人工智能系統促成、誘發和倍增的破壞穩定問題

付費5元查看完整內容

2023 年 2 月,荷蘭主辦了首屆 “在軍事領域負責任地使用人工智能”(REAIM)全球峰會,最終有 32 個國家批準了 “關于負責任地在軍事領域使用人工智能和自主權的政治宣言”,此后批準國增至 54 個。該宣言由美國制定,不具約束力,旨在促進就人工智能(AI)的軍事部署規范達成共識。

本文支持加拿大領導的問責工作組,該工作組是為詳細闡述宣言原則遵守情況而成立的三個國際工作組之一。本文深入探討了圍繞武裝沖突中人工智能行動的問責問題展開的復雜法律討論,尤其側重于致命性自主武器系統(LAWS)和用于鎖定目標的決策支持系統。

第一部分概述了《政治宣言》的問責原則,強調要求指揮官在部署人工智能系統時 “適當謹慎”。政治宣言》認為,這一用語體現了指揮官和操作人員需要根據人工智能系統的功能、他們接受的系統培訓、他們對目標和環境的了解以及國際人道主義法的要求,有意識地根據具體情況對人工智能系統作出決定。

第二部分闡述了規范敵對行為的現有國際法律框架。該部分首先介紹了規范軍事行動的國際人道主義法核心原則,以及在使用人工智能作為決策支持工具或武器系統的一部分時,是否以及如何堅持這些原則的爭論。這一部分的結論是,現有文獻令人信服地證明,在戰場上使用人工智能時,至少可以像使用其他形式的現代技術一樣,遵守國際人道主義法的原則。

第三部分討論了人們對使用人工智能可能導致國際人道主義法和國際刑法(ICL)出現問責漏洞的擔憂,并認為現有的指揮和國家責任條令足以維持問責。

最后,在確定指揮和國家責任的條令對于維持武裝部隊使用人工智能的問責制至關重要之后,第四部分認為,真正的工作是界定軍事指揮官需要什么來依賴和部署他們承擔法律責任的人工智能系統。答案有三個方面:可預測性、培訓和紀律。為此,建議加拿大在發展和部署人工智能時,應重點發展或重新配置現有條令,以滿足這些要求。

付費5元查看完整內容

隨著人工智能(AI)領域的飛速發展,這些技術的變革潛力對國家和國際安全產生了深遠的影響。因此,全世界的政策制定者和監管者越來越認識到,迫切需要超越國界和個人利益的共同理解,尤其是在人工智能應用于安全和國防領域的情況下。

然而,國家和非國家行為者之間在人工智能、安全和防衛方面缺乏既定的全球合作框架,這構成了一項重大挑戰。這種共同治理的缺失導致技術進步不協調和各自為政,給國際和平與安全、穩定和繁榮帶來嚴重后果。然而,各國與非國家行為者合作的愿望日益強烈。各國認識到,這種參與至少可以為治理方法和解決方案提供信息,并確保其制定、采納和實施都有據可依。此外,它還可以確保行業、民間社會組織、研究、技術和科學界以及學術界的認識和支持。

聯合國秘書長在其《和平新議程》中強調,必須 “確保工業界、學術界、民間社會和其他部門的利益攸關方參與”,“通過多邊進程,圍繞人工智能軍事應用的設計、開發和使用制定規范、規則和原則”。因此,迫切需要建立、促進和支持一個獨立、中立和可信賴的平臺,該平臺將促成多方利益攸關方對話,并為軍事領域負責任地開發、獲取、部署、整合和使用人工智能技術孵化治理途徑和解決方案。

付費5元查看完整內容

人工智能(Al)有可能徹底改變全球軍事事務,就像原子彈在 20 世紀中期所做的那樣。當技術革命打破國際戰略平衡時,外交通常會介入其中。在這種情況下,歐洲聯盟(歐盟)如何定位自己?尤其是歐盟對致命性自主武器系統(LAWS)采取了什么態度?歐盟新的國防工業政策就是其中之一。

然而,歐盟似乎無意在這一領域推行限制性政策,至少目前是這樣。歐盟在這一問題上的雄心僅限于LAWSA,即便如此,這一領域的想法也是建立在非常模糊的概念基礎上,這些概念不應該在開發和工業生產方面產生任何實質性影響。

歐盟如何影響致命性自主武器系統(LAWS)

關于軍事人工智能和致命性自主武器,首先要說明的是,歐盟并不禁止開發或使用它們。事實上,在國際層面上,目前還沒有任何形式的治理框架或規則來處理這些系統。然而,無論是在聯合國(UN)和歐盟,還是在其他國際論壇上,要求部分禁用致命性自主武器的壓力都很大。

在聯合國日內瓦辦事處,自2014年以來,在1981年《特定常規武器公約》(ccW)的框架內,特別是在該公約設立的政府專家組(GGE)內,就這一議題展開了討論。在此背景下通過了 11 項原則。這些原則指出,致命性自主武器必須始終符合國際人道主義法,人類必須對使用這些系統的決定負責,各國必須審查這些新武器的合法性。歐盟通過其外交與安全事務高級代表承諾遵守這些原則,但這些原則仍然含糊不清,不具約束力。然而,安東尼奧-古特雷斯(António Guterres)更明確地談到了 "致命性自主武器"。2018 年,聯合國秘書長宣布此類武器應被視為政治上不可接受、"道德上令人厭惡 "的武器,并呼吁國際法禁止此類武器。隨后,他呼吁會員國在 2026 年之前就此問題通過一項條約。然而,各國就此問題的討論卻停滯不前。

在布魯塞爾,辯論也是如此。一方面,歐洲議會長期以來一直堅持歐盟應在國際層面推動通過一項法律文書來禁止致命性自主武器。另一方面,一些成員國(但不是所有成員國)似乎并不打算讓步。在這方面應該強 調的是,這一問題仍然是理事會和成員國的專屬權限,歐盟在這一領域可能采取的任何舉 措只能由它們一致提出。

然而,這并不意味著歐盟,包括歐盟委員會和歐洲議會(EP),不會對軍用人工智能系統和致命性自主武器系統的研究、開發和生產產生任何影響。相反,它們可能會間接影響人工智能的方式,主要通過以下三個因素:

1.歐盟將于 2023 年底通過的關于人工智能民用和商業應用的法規。

2.歐洲機構和歐洲議會內部關于是否有必要對軍事人工智能,特別是 "致命性自主武器系統 "進行監管的辯論。

3.歐盟管理其國防工業資助計劃的方式。

付費5元查看完整內容

2022年7月,喬治敦大學安全與新興技術中心(CSET)和斯坦福大學網絡政策中心的地緣政治、技術和治理項目召開了一次專家研討會,研究人工智能系統的漏洞與更傳統類型的軟件漏洞之間的關系。討論的主題包括:人工智能漏洞在多大程度上可以根據標準網絡安全程序進行處理,目前阻礙準確分享人工智能漏洞信息的障礙,與人工智能系統的對抗性攻擊有關的法律問題,以及政府支持可以改善人工智能漏洞管理和緩解的潛在領域。

參加研討會的人員包括擔任網絡安全和人工智能紅隊角色的行業代表;具有進行對抗性機器學習研究經驗的學者;網絡安全監管、人工智能責任和計算機相關刑法方面的法律專家;以及負有重要人工智能監督職責的政府代表。

本報告旨在完成兩件事。首先,它提供了一個關于人工智能漏洞的高層次討論,包括它們與其他類型的漏洞不相似的方式,以及關于人工智能漏洞的信息共享和法律監督的當前狀況。其次,它試圖闡明研討會上大多數與會者所認可的廣泛建議。這些建議分為四個高層次的主題,具體內容如下:

1.主題:為人工智能漏洞擴展傳統的網絡安全

1.1. 建議:構建或部署人工智能模型的組織應使用一個風險管理框架,解決整個人工智能系統生命周期的安全問題。

1.2. 建議:惡意機器學習研究人員、網絡安全從業人員和人工智能組織應積極嘗試擴展現有的網絡安全流程,以涵蓋人工智能漏洞。

1.3. 建議:對抗性機器學習領域的研究人員和從業人員應與處理人工智能偏見和穩健性的人員以及其他具有相關專業知識的社區進行磋商。

2.主題: 改善信息共享和組織安全心態

2.1. 建議:部署人工智能系統的組織應追求信息共享安排,以促進對威脅的理解。

2.2. 建議:人工智能部署者應強調建立一種安全文化,在產品生命周期的每個階段都嵌入人工智能開發中。

2.3. 建議:高風險人工智能系統的開發者和部署者必須將透明度放在首位。

3.主題:澄清人工智能漏洞的法律地位

3.1. 建議: 擁有網絡安全權力的美國政府機構應澄清基于人工智能的安全問題如何適應其監管結構。

3.2. 建議: 目前沒有必要修改反黑客法來專門解決攻擊人工智能系統的問題。

4.主題: 支持有效研究以提高人工智能安全

4.1. 建議: 攻擊性機器學習研究人員和網絡安全從業人員應尋求比過去更緊密的合作。

4.2. 建議: 促進人工智能研究的公共努力應更多地強調人工智能安全,包括通過資助可促進更安全的人工智能開發的開源工具。

4.3. 建議: 政府政策制定者應該超越標準的制定,提供測試平臺或促成審計以評估人工智能模型的安全性。

付費5元查看完整內容

本文提供了廣泛社會中對人工智能和自動化決策的反應的初步草圖,同時將這些反應與武器系統中的自主性聯系起來。

九年多來,自主武器系統一直是各種論壇的國際討論主題,包括聯合國人權理事會、聯合國大會裁軍與國際安全第一委員會以及《特定常規武器公約》(CCW)致命自主武器系統領域新興技術政府專家組(GGE on LAWS)。 在這些討論中,各國、聯合國機構、國際組織和非政府組織強調了人工智能(AI)和自主武器系統的各種嚴重倫理、道德、人道主義和法律影響。 盡管大多數國家支持就法律文書進行談判,但2021年12月舉行的《化學武器公約》第六次審查大會未能就致力于制定任何形式監管的授權達成一致。

在編寫該報告時,確定了40個國家公開發布了關于國內人工智能發展和使用的具體政策文件或其他戰略。 該報告評估了眾多相關的國家人工智能戰略和立場、歐盟級別的報告和法規、國際準則和其他文件,以引出關于人工智能和自動化決策技術在民用領域的采用和使用的核心主題和關注。

關鍵信息

  • 許多國家和國際機構在民用領域認識到人工智能和自動化決策技術的使用帶來的嚴重風險和挑戰的程度,應被視為對軍事領域平行和相關關切的驗證。

  • 考慮到在軍事瞄準背景下自動處理所涉危害的性質和規模,以及在軍事領域應用民用監督機制的困難,與自主武器系統相關的挑戰尤為嚴峻。

  • 針對民用領域的人工智能和自動化決策制定以人權為重點的應對措施,應促使各國關注受影響者的權利,將其作為制定軍事領域必要規則的基本出發點。

  • 使用自主武器系統的問責制和責任的重要性影響到需要如何制定某些規則,以避免問責制的削弱,并確保保護和履行國際人道主義法規則和基本人權。

付費5元查看完整內容
北京阿比特科技有限公司