亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

將人工智能技術應用于軍事系統引發重大風險,主要源于國際人道法遵約要求與戰場可靠性能考量。基于風險的監管路徑能依據系統類型特質的風險性質與嚴重度定制緩釋措施,避免過度阻礙技術發展與應用。本文提出五級風險分層框架,采用定性模型評估不同軍事系統風險,其參數體系反映核心關切維度;進而主張建立差異化風險緩釋機制,探討可納入的緩釋措施類型。該路徑還通過兩種方式促進AI軍事系統監管國際共識:首先將龐雜風險解構為簡明集合以聚焦討論;其次推動負責任國家通過自我監管確保可靠性能,為爭議問題建立共同基礎。

當前國際社會普遍認同:人工智能(AI)技術應用于各類系統的風險重大,須妥善應對。近年多邊機構在制定AI全球標準方面取得顯著進展,涵蓋技術標準與負責任AI的倫理政策維度(Kerry等,2021)。2018年七國集團(G7)同意建立"全球人工智能伙伴關系"(GPAI),該多邊倡議致力于探索AI發展的監管挑戰與機遇。公私機構亦涌現大量宣言與框架指導負責任AI發展,其中許多已從原則聲明演進為完整政策框架。軍事領域,2019年聯合國(UN)確立致命性自主武器系統(LAWS)新興技術使用指導原則(聯合國裁軍事務廳,2019);2020年2月美國防部通過《AI倫理原則》(美國防部,2020),然其未必專門針對軍事系統。值得注意的是,歐盟對AI應用監管已采用風險分級路徑。

原則雖是政策制定實施的起點,仍需細化機制指導落地。對軍事系統采用風險分級監管,有望成為從緩釋原則轉向政策實踐的有效路徑。因各類軍事系統風險差異顯著,統一緩釋策略將導致三重困境:對高風險系統失之過寬,對低風險系統矯枉過正,阻礙對人類有益的軍事技術發展。風險分級路徑則可規避這些缺陷。

本文首先剖析AI技術特性如何引致系統潛在問題,比較民用與軍事系統風險分級路徑的演化原則;聚焦軍事系統,探討其核心AI風險關切;主要貢獻在于提出"風險分級體系",勾勒軍事AI系統風險緩釋的實施框架。該體系通過精細化緩釋路徑促進軍事AI責任領域的國際外交:聚焦關鍵議題推動爭議問題早期共識。本文還論證:在AI軍事系統全生命周期實施風險緩釋措施并非零和博弈,純粹基于提升作戰效能的考量亦構成采納這些措施的充分理由。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

為破解軍事智能裝備預測性維護中智能化與網絡化程度低、物理模型構建困難等問題,本研究針對人工智能技術在軍事智能裝備中的應用框架、關鍵技術及保障決策方法展開探索。通過將預測性健康管理(PHM)系統架構融入軍事智能裝備健康管理體系,充分發揮人工智能全域通信、泛在感知與自主學習等核心能力,實現軍事智能裝備健康管理的數據驅動化、智能化和網絡化轉型。本研究成果可為復雜戰場環境下軍事智能裝備保障提供參考路徑,有效降低運維成本,持續提升保障效能。

本文重點研究人工智能技術(AIT)在機電控制系統(MECS)中的應用:首先闡釋AIT基礎理論與概念框架,繼而開發現代化AIT核心技術,結合我國現代企業機電控制系統現狀剖析現存瓶頸,最終探究AIT與機械系統的融合路徑,重點討論其在機械電子孔口子系統與電氣控制系統集成中的實踐應用。

"軍事智能裝備"泛指具備預測、感知、分析、推理、決策及控制能力的裝備體系。其在裝備數控化基礎上演進為更高級形態,可顯著提升生產效能與制造精度。其發展關鍵技術涵蓋缺陷檢測與健康維護技術(如高端數控機床、工業機器人),而故障預測與健康管理(PHM)技術正成為未來保障體系的核心方向。隨著軍事智能裝備復雜度提升,構建部件或系統的精確數學模型愈發困難。利用裝備全生命周期多節點歷史數據進行建模,相較物理分析模型更有利于實現PHM功能。鑒于軍事智能裝備向信息化、智能化、網絡化演進,其維護流程也需同步實現網絡協同與智能決策。本研究聚焦PHM與人工智能的融合應用,著力提升軍事裝備智能保障的決策水平、力量編成、方法革新及效能增益,為PHM智能化與網絡化維護模式的落地實施提供支撐。

未來智能化作戰形態演變

高端技術的廣泛運用正在深刻改變制勝機理。信息力已超越火力成為戰爭勝負的決定性要素,控制取代摧毀成為壓制對手的首選手段。作戰體系中集群單元的影響力超越傳統集中兵力效果,催生出三大新型作戰樣式:基于集群協同的"新型智能作戰"(亦稱分布式協同戰)、基于多域集群的"集群攻防戰"、以及創新理論體系衍生的"電磁全維戰",三者共同構成未來智能化戰爭的基本形態。

付費5元查看完整內容

人工智能在軍事教育與安全領域的融合既帶來機遇也伴隨挑戰。本研究結合場景矩陣與政策建議,為決策者和國防戰略家提供平衡人工智能發展與安全治理的見解,以促進軍事應用穩定性。該研究采用情景分析法評估四種模式——基于人工智能應用水平及治理力度的"樂觀采用"、"風險創新"、"可控進步"及"技術停滯"。研究表明:高強度人工智能應用配合強力監管可提升作戰效能與國際安全;缺乏監管的快速擴張則導致網絡安全漏洞與倫理困境。強力治理被確認為降低風險、確保人工智能負責任部署的核心要素。研究特別強調人工智能驅動的戰略模擬、網絡彈性防御及道德框架在國防戰略中的重要性。

人工智能正引發重大技術變革,深刻影響教育、安全及國防戰略等領域(Horowitz等,2018)。其在軍事應用中的整合及對全球安全的深遠影響,已引起政策制定者、研究者與國防分析專家的日益關注(Schmidt, 2022;Jensen, 2023)。當各國試圖利用人工智能增強戰略決策、情報行動和網絡安全時,必須同步應對倫理隱憂、地緣政治風險及現代戰爭形態演變等挑戰(Canton, 2020)。

人工智能在軍事備戰中的作用已超越傳統學習模式,涵蓋自適應訓練系統、自主決策支持工具及情景模擬推演(Jensen, 2023)。這些創新旨在為軍事人員提供數據驅動洞察力、預測建模能力及實時威脅分析,從而強化國家安全戰備水平(Horowitz等,2018)。然而在提升戰略運作效率、增強網絡防御的同時,人工智能整合亦引發算法偏見、人工智能賦能虛假信息威脅及對抗性人工智能操縱風險等復雜挑戰(Schmidt, 2022;Canton, 2020)。隨著各國日益依賴人工智能技術開展國防、情報及戰略行動,人工智能軍事化加劇了對其影響全球安全與戰爭形態的嚴重關切(Marwala, 2023)。

本文運用場景分析法探索人工智能在軍事教育與安全框架中潛在發展路徑。通過構建并評估"樂觀前景"、"風險創新"、"可控進步"和"技術停滯"四類場景,該研究建立結構化預測模型,剖析未來十年人工智能如何塑造全球安全格局(Jensen, 2023;Masakowski, 2020)。通過考察政策框架、技術進步及倫理考量等關鍵驅動因素,本研究致力揭示人工智能驅動教育體系與全球安全需求間的戰略契合點。最終,本文在人工智能治理框架、軍事領域負責任應用、以及人工智能教育與國家安全戰略交叉領域作出學術貢獻。通過情景分析方法論,該研究為軍事教育者、國防政策制定者及安全專家提供重要參照,闡明人工智能快速融入全球防務結構的機遇與風險。

付費5元查看完整內容

當前假新聞已成為全球性嚴峻挑戰,社交媒體快速傳播錯誤信息的能力加劇了這一問題。本文提出基于大語言模型(LLM)能力的新型特征計算流程構建方法,應對假新聞檢測的緊迫挑戰。核心目標在于優化可疑文本屬性轉化為分類適用數值向量的過程,從而填補系統整合語言線索與深度上下文嵌入的研究空白。在英語(FakeNewsNet)和烏克蘭語(真假新聞)數據集上的實驗表明:該方法以88.5%(英語)和86.7%(烏克蘭語)準確率超越四個基線模型。關鍵發現顯示:將復述比率、情感比率等數值指標與LLM嵌入結合,可提升欺詐文章檢測召回率,較標準技術平均提高2-3個百分點。這些結果表明所提特征計算流程在保持模型決策透明度的同時顯著提升檢測精度。研究最終強調:系統化設計的數值特征對LLM嵌入的補充至關重要,為構建更可靠、適應性強且可解釋的假新聞檢測系統指明路徑。

假新聞——偽裝成可信新聞的虛假或誤導性內容——在數字時代已發展為全球性重大威脅[1,2]。超過36億社交媒體用戶使未經核實信息突破傳統編輯監管快速傳播,加速虛假敘事擴散[2]。2016年美國總統大選[3]與2019年印度大選[4]等事件印證了錯誤信息影響輿論的速度。例如新冠疫情期間,關于病毒及疫苗的有害謠言在網絡蔓延,削弱公共衛生信息公信力。研究表明假新聞比真實新聞傳播更快更廣[5],可能加劇社會極化、侵蝕主流媒體信任[6]甚至煽動暴力[7,8]。過去十年研究者聚焦機器學習(ML)與自然語言處理(NLP)方法實現大規模虛假信息識別[9]。早期嘗試將假新聞檢測形式化為二分類問題——僅通過文本分析區分真假新聞[2]。傳統方法采用樸素貝葉斯、支持向量機(SVM)或隨機森林等算法,結合n元語法或專業詞典等特征工程,有時取得較好效果[10]。然而假新聞制造者適應偽裝能力意味著捕捉深層語義線索仍是開放挑戰[7,11,12]。

深度神經網絡(特別是卷積神經網絡CNN與長短期記憶網絡LSTM)被提出用于自動學習潛在文本表征。盡管LSTM在某些基準任務中準確率超99%[10],但綜合實驗證實:除非融入更豐富上下文理解,高度復雜或領域特定的假新聞仍能規避這些模型[7,8]。同時詞嵌入技術(如TF-IDF、Word2Vec和FastText)通過將單詞映射為稠密向量改進了詞袋模型[13]。盡管能捕獲語義關系,這些靜態嵌入仍難以應對多義詞與語境變化[1]。基于Transformer的模型開創了上下文嵌入新范式:雙向Transformer編碼器(BERT)[14]可捕捉微妙語言線索,尤其在領域特定任務微調后。研究證實BERT在包括虛假信息檢測的多個NLP任務中顯著超越傳統基線[15]。但在實際假新聞場景(尤其多語言環境)部署BERT仍受限于領域數據匱乏與資源開銷[16]。

大語言模型(LLM)如OpenAI的GPT-4[17]與Meta的LLaMA[18]的興起,為利用海量預訓練語料獲取高級文本表征提供機遇。初步研究表明LLM嵌入能識別小模型無法察覺的微妙虛假信息線索[19]。然而高計算需求與LLM決策解釋難題仍未解決[20,21]。對此可解釋人工智能(XAI)領域研究提出將深度學習預測能力與可解釋機制結合以闡明分類結果[22]。但多數文本分類XAI方法仍難將內在特征映射為終端用戶可理解的文本線索。基于這些挑戰,本研究引入新型特征計算流程構建方法,借鑒可解釋LLM流程的洞見:將檢測分解為合成可疑特征→數值化計算特征→構建魯棒模型→生成透明結論的鏈式任務。

本研究目標是通過整合LLM驅動的特征提取選擇框架與闡明特征重要性的可解釋策略,增強假新聞檢測能力。旨在證明該流程能提升多語言文本數據的準確性與可解釋性。主要貢獻如下:
? 受可解釋AI研究啟發,提出假新聞檢測特征計算流程構建方法
? 在傳統LLM對比(TF-IDF/Word2Vec/BERT)基礎上,新增使用大語言模型計算解釋特征的顯式步驟,彌合原始嵌入與透明決策的鴻溝
 ? 在雙數據集驗證LLM驅動特征實現最高精度(英語88.5%/烏克蘭語86.7%),并闡釋框架如何揭示文本被判定虛假的原因

本文結構如下:第2章精煉相關工作,闡明方法如何融合現有特征提取技術與可解釋性;第3章詳述新提出的任務分解架構、數據流及特征計算優化機制;第4章報告實驗結果(含現有方法定量對比);第5章探討優勢缺陷與開放性問題;第6章展望未來(聚焦數值結果、現存挑戰及研究方向)。

圖1:本方案整體工作流程
融合基于LLM的嵌入表示、數值化特征計算及最終專家結論模板。圖示闡明本方法的四大核心任務:
(i) 特征合成 → (ii) 特征計算流程構建 → (iii) 機器學習模型建立 → (iv) 專家結論模板生成
展示原始文本與衍生特征在各階段的流向。

付費5元查看完整內容

本文闡述圖像處理技術在軍事領域的應用方案。展示數字圖像分析在軍事安全防御中的多元應用場景,重點探討地球地圖與合成孔徑雷達(SAR)數據中的目標檢測、武器識別、關鍵軍事據點/物體/目標的偵測與分割技術。此外,基于數學離散算法自主開發專用軟件,實現SAR數據中物體、區域、地形區域乃至軍事目標的智能檢測。通過數學建模實現圖像分割,并完成計算機軟件自主開發實現圖像分割功能。該技術使軍事指揮員可分析可視化戰場態勢,評估圖像中具體目標的威脅等級。軍事管理部門可據此制定安防策略與防御戰術決策。

付費5元查看完整內容

人工智能(AI)融入軍事行動對國際和平產生重大影響,國際社會、學者及政策制定者亟需全面理解其含義。本研究探討現代戰爭中圍繞人工智能的倫理問題,重點關注問責機制——特別是在自主系統故障情形下。基于技術決定論理論。主題分析表明,戰爭中日益增加的人工智能應用引發了有關問責、人類尊嚴及沖突未來的深刻倫理質疑。研究建議建立全球框架以規范人工智能在軍事行動中的使用。

人工智能在軍事行動中的出現已引發關于其倫理影響的激烈爭論。隨著人工智能技術日益精進,其改變現代戰爭的潛力不斷增強,進而對問責機制、人類尊嚴及沖突未來提出關鍵性質疑。人工智能(AI)的迅猛發展具有巨大的潛在優勢(Rowe,2022年)。為避免人工智能在社會應用中引發不可預見的危害與風險,我們必須審視人工智能系統的所有倫理維度。與科幻小說緊密關聯的普遍誤解是:人工智能由能完全感知環境的仿人機器人構成(Osimen, Fulani, Chidozie & Dada, 2024年)。然而根據Copeland(2024年)的見解,其內涵遠不止于此——人工智能(AI)指計算機控制的機器或機器人執行需要與人類同等智能的任務的能力;它們被認為能夠思考、理解并從先驗經驗中學習(Osimen, Fulani, Chidozie & Dada, 2024年)。

無論學者持何種觀點,過去20年間人工智能始終以加速態勢發展。因此,人工智能技術已深刻影響美國及其他工業化國家人民生活的多個維度。人工智能正滲透至日常生活的諸多領域,包括智能手機、移動測繪導航系統、自然語言交互計算機、定向在線營銷及定制化社交媒體信息推送(Morgan, Boudreaux, Curriden & Klima, 2020年)。隨著自動駕駛汽車等自主機器人技術獲得社會認可與整合,此趨勢將持續強化(Morgan, Boudreaux, Curriden & Klima, 2020年)。人工智能已迅速成為日常生活的重要部分,深刻影響著醫療保健、教育、金融及娛樂等行業(Marwala, 2023年;Adom, Kportufe, Asare-Aboagye, & Kquofi, 2024年)。

艾倫·圖靈1950年的論文《計算機器與智能》被公認為人工智能的奠基性著作。在這篇論文中,著名數學家兼計算機科學先驅艾倫·圖靈設問:機器是否終能進行推理(Anyoha, 2017年)?縱觀歷史,追求技術進步常被合理化作為實現軍事優勢的手段。自塹壕戰遭棄用后,作戰焦點已從直接物理對抗轉向數字戰爭領域(Chukwudi, Osimen, Dele-Dada, Ahmed, 2024年)。技術最初用于制造更強大的武器系統,但迅速擴展至機械化作戰,從而開啟新時代(Military Africa, 2023年)。Parkin(2015年)指出:在涉及致命性武力的軍事技術與規劃中,以人工智能(AI)軟件替代人力的構想正日益普及。鑒于軍事沖突的危險性,推動參與者自動化的動力尤為強勁(Osimen等, 2024年)。例如,韓國采用基礎人工智能技術的自動炮塔已獲廣泛應用(Parkin, 2015年)。

然而,Alderman、Daniel與Ray(2018年)對軍隊在沖突期間乃至相對和平時期為加強安全而使用人工智能引發的倫理問題表示憂慮。最尖銳的批判聚焦于:機器人可能在未經人類操作員直接授權的情況下殺人,甚至可能在武器選擇錯誤目標時脫離人類監督或干預能力。此外,對人工智能其他應用也存在擔憂——例如決策支持系統可能建議采取更極端措施乃至先發制人的打擊,而指揮官無法審查其復雜運算邏輯;或公民因人臉識別系統及其他尖端人工智能計算被誤判為恐怖分子或罪犯,從而面臨監禁乃至處決(Alderman, Daniel, & Ray, 2018年)。

現代戰爭中人工智能(AI)的應用已引發嚴峻倫理困境與挑戰。隨著技術發展,人工智能在軍事行動中的使用正日益影響作戰效能、目標精確度及決策流程。然而,此進步亦伴隨隱憂:包括潛在的人權侵犯、人工智能決策失準、人類問責弱化,以及違反國際人道法(IHL)的風險。缺乏有力的道德標準與法律框架來規范人工智能在戰斗中的應用,加劇了這些問題,進而引發對創新與問責間張力、技術對平民的影響及自主性在殺戮決策中作用的擔憂。為確保人工智能在戰爭中的使用符合道德標準與國際規范,必須嚴格審視這些難題。

本研究旨在探究這些倫理問題,聚焦自主系統帶來的挑戰,強調建立全球監管框架的必要性,并應對現代戰爭中人工智能開發與應用引發的倫理議題。本定性研究采用二手數據分析法,援引來自在線資源、教科書、期刊論文、會議記錄和報紙的可信數據源,運用主題分析法識別并解析數據模式。

付費5元查看完整內容

隨著技術快速發展,空中交互模式日益復雜,智能空戰已成為多智能體系統領域前沿研究方向。在此背景下,大規模空戰場景的動態性與不確定性帶來顯著挑戰,包括可擴展性問題、計算復雜性及多智能體協同決策難題。為解決這些問題,我們提出一種基于圖結構與零階優化的多智能體強化學習(MADRL)新型自主空戰決策方法——GraphZeroPPO算法。該方法創新性地將GraphSAGE圖網絡與零階優化融入MADRL框架,通過圖結構適應多智能體系統高動態與高維特性,利用高效采樣策略實現導彈發射快速決策,同時借助零階優化有效探索全局最優解。最后,我們展示了在1v1與8v8空戰場景下的仿真實驗及對比結果。研究表明,該方法能有效適應大規模空戰環境,同時實現高勝率與快速決策性能。

付費5元查看完整內容

在當今安全格局中,未經授權無人機在禁航空域的擴散已成為重大威脅。這些無人機構成從潛在監視與間諜活動到物理攻擊等惡性行為的多樣化風險。因此,開發高效反無人機激光系統愈發重要。本研究聚焦三大目標:建立內部可靠性模型、識別關鍵組件、探究影響反無人機系統可靠性的因素。通過分析關鍵組件可靠性及系統參數對整體可靠性的影響,旨在提升反無人機激光系統的綜合性能與效能。為此,采用可靠性框圖(RBD)方法計算反無人機系統中激光子系統的可靠性。同時開展組件級可靠性全面評估,識別系統薄弱環節,從而實現針對性改進與優化。為捕捉系統失效行為的真實場景,采用不同分布模型計算系統可靠性,確保深入理解其多工況下的運行可靠性。最終獲取反無人機激光系統的能量值與命中概率,以有效應對環境挑戰。

無人機已迅速融入現代社會生活,在多個領域獲得廣泛應用。盡管最初主要與軍事行動相關,無人機當前在民用領域發揮關鍵作用。其應用場景涵蓋娛樂(航拍攝影)、地質學(地圖繪制、勘測)、交通(流量監測)、安防(搜救、人群監控、救災)、物流(包裹投遞)、農業(作物監測、噴灑)及通信(應急基礎設施)等多元化領域。這些創新應用標志著社會向更高自主性轉型的重要進程,無人機正深刻改變日常生活的各個方面。

在當今安全格局中,禁航空域內非法無人機活動構成的威脅與日俱增。此類無人機可被用于監視、間諜活動甚至物理攻擊等惡意行為。為有效應對此類威脅,開發強健的反無人機激光系統勢在必行。圖1展示了激光反無人機系統的典型配置。

反無人機激光系統作為關鍵安防技術,旨在檢測、追蹤并反制禁航空域內的非法無人機。通過先進檢測機制、精確追蹤能力與有效反制手段,此類系統致力于保護敏感區域免受惡意無人機的潛在威脅。激光武器憑借其光速響應、精準光束定位與單次打擊成本效益[19],正成為應對無人機威脅升級的有效解決方案。為分析激光對無人機引擎的打擊效能,文獻[16]研究了目標對激光的脆弱性綜合評估方法。Ball在文獻[24]中指出,評估目標對激光的脆弱性類似于評估非爆炸性穿透物撞擊目標時造成的損傷機制,盡管未明確闡述具體評估方法。

付費5元查看完整內容

先進人工智能(AI)與當代各部門和各行業的融合不僅僅是技術升級,更是一場具有深遠影響的變革。本文探討了與先進人工智能在社會、經濟和政治系統中的快速融合相關的結構性風險概念。這一框架挑戰了主要關注人工智能直接威脅(如事故和誤用)的傳統觀點,并提出這些更近似的風險是相互關聯的,并受到更大的社會技術系統的影響。通過分析技術進步與社會動態之間的復雜互動,本研究確定了結構性風險的三個主要類別:前因結構、前因人工智能系統和有害反饋回路。我們提出了一個全面的框架來理解驅動這些風險的因果鏈,強調了社會規模的結構性力量與誤用、系統故障和錯位系統擴散等更近似的風險之間的相互依存關系。本文闡述了不加控制的人工智能進步如何重塑權力動態、信任和激勵結構,從而導致深刻且往往不可預測的社會變革。介紹了繪制、模擬和推演這些動態的方法論研究議程,旨在讓政策制定者和國家安全專業人員做好準備,應對下一代人工智能技術帶來的挑戰。本文最后提出了政策建議,通過將對人工智能-社會技術關系的細致理解納入戰略規劃和國際治理,來降低這些風險。

結構性風險的定義和概念化

技術的開發和應用不是孤立的,而是與人類的需求、動機和環境緊密聯系在一起的。人工智能系統尤其如此--經過訓練的適應性學習技術,能夠與社會和物理世界融合互動。這種社會技術生態通過人機互動不斷發展,在改變社會結構(文化、經濟和政治)的同時推動技術加速發展(Valverde,2016 年)。因此,研究人員越來越多地從復雜系統的角度來評估人工智能,重點關注其結構、功能以及與平行系統的關系如何影響風險動態(Lazar & Nelson, 2023; Weidinger et al.) 越來越多的文獻研究了人工智能在技術、人類和系統層面的安全性,指出了反饋回路(Weidinger 等,2023 年;Anwar 等,2024 年)和社會適應(Bernardi 等,2024 年)的重要性。人工智能治理研究人員將這類風險稱為結構性風險:技術如何塑造或被更廣泛的環境塑造(Zwetsloot 等人,2019 年;Dafoe,2020 年)。盡管如此,對人工智能結構性風險動態的研究仍然有限,只有戰略武器和威懾(Avin & Amadae, 2019; Flournoy et al., 2020; Wong et al., 2020; Johnson et al., 2023)和快速社會變革(Ward, 2022)領域有明顯的例外。

圖 1. 人工智能風險格局。事故風險和誤用都與自我強化動態有著廣泛的重疊。誤用人工智能系統會讓技術安全問題顯現出來,而結構性力量(如經濟或地緣政治)會促使未經測試的系統過早發布,改變權力動態(改變攻防平衡),或降低進入門檻。

結構性風險可定義為在更廣泛的社會技術系統中開發和部署先進人工智能技術所產生的動態變化,包括互為因果的事件鏈、激勵結構和權力不對稱。對結構性風險的研究將分析重點從因果鏈末端的威脅--近因和事件,如無法控制的美國空軍人工智能無人機系統--轉移到潛在的結構性力量、它們之間的相互作用以及意想不到的后果。因此,雖然結構性風險有別于人工智能帶來的其他更直接的威脅(如目標錯位或網絡威脅),但它們是其特征和嚴重性的基礎。因此,大多數人工智能風險都具有間接因果途徑的結構性基礎(圖 1)。例如,過早部署一個功能強大、潛在不安全的系統可能會對事故產生直接影響,如系統故障,或部署錯位系統,或間接改變進攻-防御力量的對稱性(如增強進攻性網絡能力),導致國家間關系緊張,甚至沖突。事實上,新能力的提升會影響到更廣泛的社會和政治環境,同時也會受其影響。這種框架導致一些研究人員認為,大多數人工智能風險本質上都是結構性的(Krueger,2023 年;Clarke,2022 年)。

為了進一步闡明間接風險這一點,可以考慮采用化石燃料的歷史例子。雖然人類使用化石燃料已有數千年的歷史,但在 19 世紀,化石燃料的廣泛傳播造成了人口和工業的爆炸性增長,推動了工業革命的空前發展(Jianfen,2021;Wrigley,2013)。化石燃料使用的外部效應導致了廣泛的健康影響(如污染、工廠作業)、城市和國防工業基地的快速擴張以及大氣中二氧化碳的持續增加。因此,從第一批燃煤發電廠和鐵路到內燃機以及二戰前線軍事裝備的開發和運輸,都可以追溯到間接的因果聯系(布萊克,2017;達福,2020)。技術如何改變支撐發展和國際安全的結構性力量,推動社會組織和沖突的特征進入二十世紀。

權力動態和對對手的不信任會推動新技術快速融入全球軍事,導致以前無法想象的沖突形式,如一戰中的無限制潛艇戰、閃電戰戰術,以及二戰中第一顆原子彈的使用。雖然技術進步與沖突之間沒有直接的因果關系,但驚人的能力確實改變了可能的平衡,而權力不平衡、不信任和維持統治地位的動機又加劇了這種平衡。這些力量會形成危險的反饋循環,扭曲價值結構,加速競爭,增加事故和濫用的風險。在德國決定在一戰中實施無限制潛艇戰之前,各方都認為在戰爭中使用這種戰術是不可想象的(Gompert,2014);然而,首次使用引發了各方參與,導致美國卷入一戰。今天,關于完全自主武器系統的倫理和禁止問題也有類似的討論(Kallenborn, 2020)。然而,歷史的教訓表明,新的能力與正確的激勵措施相結合,可以從根本上改變可允許性的結構動態。

這些動態的一個當代例子是圍繞人工智能發展的經濟和地緣政治競賽動態,推動公司和國家加快部署時間表。另一個例子是社交媒體算法對人類社會組織和決策的影響,導致整個政治制度和個人傷害的轉變。此外,對武器系統(戰略、戰術或指揮控制系統)自主性的信任螺旋式上升,導致緊張局勢加劇和技術升級(Avin & Amadea, 2019)。隨著系統越來越強大,社會和技術世界變得越來越相互依存,結構性風險可能會出現新的表現形式。事實上,人工智能內容選擇算法對青少年自殺或投票行為的影響,在達到人工智能復雜性的特定門檻之前,并沒有人注意到。在一些尚未考慮的領域,情況可能也是如此。正如在 1945 年北卡羅來納州洛斯阿拉莫斯的特尼狄核彈試驗之前,核輻射的影響還相對遙遠一樣,人工智能的結構性風險也存在著一個巨大的、不確定的問題空間,目前還在視線之外。

付費5元查看完整內容

本文探討了無處不在的人工智能對戰斗本質的改變。將目光從人工智能取代專家轉向人機互補的方法。利用歷史和現代實例,展示了由人工智能操作員和人工智能/機器學習代理操作員組成的團隊如何有效管理自主武器系統。方法基于互補原則,為管理致命自主系統提供了一種靈活、動態的方法。最后,提出了實現機器加速戰斗綜合愿景的途徑,即由人工智能操作員操作戰場人工智能,觀察戰場內的行為模式,以評估致命自主系統的性能。與任何純粹的自主人工智能系統相比,這種方法能開發出更符合道德規范、以機器速度運行并能應對更廣泛動態戰場條件的作戰系統。

2022 年 11 月,ChatGPT 的發布標志著人工智能(AI)發展史上的一個關鍵時刻。幾十年來,人工智能一直是人們熱衷研究的課題,但對于普通人來說,它仍然是一個抽象的概念,更多的是科幻小說或技術演示,比如 IBM 的沃森贏得了《危險邊緣》(Jeopardy)。然而,有了 ChatGPT,人工智能走出了實驗室,人們可以用與朋友和同事交流的方式與人工智能對話。ChatGPT 將公眾對人工智能的看法從未來的可能性轉變為實實在在的現實。與此同時,在距離開發 ChatGPT 的辦公室千里之外,烏克蘭正在將人工智能融入戰場。面對俄羅斯大規模的射頻干擾,烏克蘭部署了人工智能增強型無人機,能夠在敵對條件下,在無人監督的情況下有效運行。人工智能的這一應用并不是要進行對話或模擬類似人類的互動,而是要在傳統系統失靈的情況下,增強對大型對手的作戰能力。ChatGPT 的認知能力與烏克蘭無人機對人工智能的功利性應用之間的對比,說明了人工智能在不同領域的多樣性和變革性。

這兩項人工智能應用促使美國國防部(Department of Defense,DoD)關于戰場人工智能的戰略思想發生了潛在轉變。最初的人工智能條令強調,對人工智能系統 "適當程度的人為判斷 "至關重要,"要有明確的程序來激活和關閉系統功能,并對系統狀態提供透明的反饋"[5]。對 "自主和半自主武器系統的人機界面"[5] 的要求意味著一定程度的人類直接互動,通常稱為 "人在回路中"(HITL)或 "人在回路中"(HOTL)。這種人類直接參與人工智能或監控錯誤的方式,證明了對關鍵流程自動化的謹慎態度。

之所以會出現這種轉變,是因為人們認識到,人工智能及其不可避免的技術普及,將不僅僅是補充,而是從根本上改變戰場上的行動和情報搜集,就像它已經開始改變社會上幾乎所有其他地方一樣。這種演變并非首次發生。就在上一代,互聯網的出現和智能手機的普及徹底改變了通信和信息獲取方式,以至于國防部別無選擇,只能適應。與這些創新一樣,人工智能也正走在一個類似的基本層面上。現在的挑戰不在于試圖支配人工智能的整合,而在于適應其不可避免的普遍性,在擔心數據偏差、計算 "幻覺 "的情況下確保軍事系統的可靠性和有效性,同時確保致命性自主武器系統的行為符合國際人道主義法(IHL)。本文件旨在探討這些挑戰,并提出緩解這些挑戰的途徑,同時認識到人工智能增強戰爭的進程不僅不可避免,而且已經開始。

討論

2022 年,人工智能達到了一個拐點。隨著電子戰的加劇,烏克蘭沖突迫使自主無人機快速發展。與此同時,像 ChatGPT 這樣的強大語言模型的發布吸引了全球觀眾,盡管它們的局限性也變得顯而易見。這些系統容易出現事實錯誤和赤裸裸的捏造,凸顯了將模式識別誤認為真正理解的風險。在人工智能顛覆整個行業的同時,我們也認識到,人工智能的流暢性往往掩蓋了根本無法分辨真假的缺陷。

人工智能在軍事上的應用提出了獨特而棘手的倫理問題。根據特定數據訓練的人工智能系統是實現其設計目的的強大工具。它們擅長模式識別和快速執行所學任務。但人工智能系統適應新情況的能力,尤其是在人命關天的情況下,仍然不太清楚。

雖然人工智能在數據處理和分析方面的能力毋庸置疑,但它在道德框架內指導行為的能力卻不那么確定。圖 1 展示了戰場自主人工智能的典型組織結構。作戰人員(橙色圓圈)直接操作一套武器系統(藍色圓圈),每套系統都通過一個人工智能模型進行調解,該模型經過訓練,可控制特定武器與敵人交戰。然而,如果敵人已經找到了欺騙人工智能模型的方法,作戰人員往往無法改變模型的行為。相反,作戰人員必須依靠其他可能風險更大的手段與敵人交戰。在戰爭中強調簡化、精簡的人工智能模型會帶來一種危險的脆性。當人工智能模型被愚弄時,它可能會使作戰人員面臨更大的風險,同時將關鍵優勢拱手讓給敵人。

在本文中,我們提出了 3.8 節中介紹的人工智能操作員或 "馬夫 "的角色。這種角色延伸了加里-卡斯帕羅夫(Garry Kasparov)在 "高級國際象棋 "中提出的 "半人馬"(centaur)概念,即人類與多個國際象棋程序合作,將人類的戰略洞察力與機器的計算能力相融合,以達到超高水平的競爭[21, 13]。這些相互促進或互補的領域已被證明優于任何一個單獨的組成部分[23]。互補的概念是將多個元素結合在一起,產生一個比任何一個部分都更有效的整體,這與更常見的替代做法有著本質區別,替代做法是單獨使用能力最強的部分--人類、自動化或人工智能。替代系統的實際結果是,它們的強大取決于最薄弱的部分。由作戰人員、戰場人工智能、遠程人類操作員及其本地人工智能代理組成的網絡可確保人類和人工智能的優勢得到最大程度的發揮(圖 2)。半人馬概念在軍事戰略中的演變說明,未來人類與人工智能的合作不僅有益,而且對于在高度動態和競爭激烈的環境中取得優勢至關重要。

要想讓人工智能系統在軍事環境中可靠運行,人類操作員必須了解人工智能的決策過程。這就意味著要對具有不同技能和背景的操作員進行培訓。就像棋手調整策略一樣,操作員應能根據需要切換人工智能模型。不能指望單一的人工智能模型在每一種戰場場景中都能完美發揮作用。情況是不可預測的;在一種情況下最好的模型在另一種情況下可能會失效。操作員必須了解每種人工智能模型的優缺點,以確保使用最有效的工具來完成手頭的任務。這種適應性是人工智能成功融入軍事行動的關鍵。

在軍事行動中,采用這種靈活的方法將人類與人工智能配對,可創建出比人工智能單獨運作的系統更靈活、適應性更強的系統。這種人類與人工智能的共生關系可以破壞對手的 "觀察、定位、決策、行動"(OODA)循環[18],有效地 "反客為主"。人工智能在人類直覺和經驗的充實下,引入了不可預測性和復雜性,純人工智能對手可能難以理解或實時處理這些不可預測性和復雜性。這可能會使天平向有利于人類-人工智能團隊的方向發生決定性的傾斜,使他們在關鍵時刻超越和思考純人工智能系統,從而獲得戰術優勢。

人類可以利用自己的創造力和創新力提出人工智能無法提出的新想法和解決方案。例如,將人類對已知危險和風險的了解融入自主系統,可以讓操作員確定并預測基于人工智能的控制器在遇到真實世界的風險因素時的行為[6]。我們還能理解人工智能忽略的細微差別和情境,這對決策至關重要。最后,人類在群體中表現最佳,每個人都能帶來不同的視角和技能,從而提供深度理解,而目前的人工智能似乎可以模仿,但卻無法復制。

付費5元查看完整內容

為了真實地再現軍事行動,嚴肅的戰斗模擬要求建模實體具有合理的戰術行為。因此,必須定義作戰戰術、條令、交戰規則和行動概念。事實證明,強化學習可以在相關實體的行為邊界內生成廣泛的戰術行動。在多智能體地面作戰場景中,本文展示了人工智能(AI)應用如何制定戰略并向附屬單元提供命令,同時相應地執行任務。我們提出了一種將人類知識和責任與人工智能系統相結合的方法。為了在共同層面上進行交流,人工智能以自然語言下達命令和行動。這樣,人類操作員就可以扮演 "人在回路中 "的角色,對人工智能的推理進行驗證和評估。本文展示了自然語言與強化學習過程的成功整合。

RELEGS:針對復雜作戰情況的強化學習

為了獲得模型架構的靈感,我們研究了 DeepMind 的 AlphaStar 架構,因為它被認為是復雜 RL 問題領域的最先進架構。通過我們的架構(如圖 2 所示),我們提出了一種靈活、可擴展的行動空間與深度神經網絡相結合的適應性新方法。觀察空間的設計基于如何準備戰場的軍事經驗。通常使用地圖和可用部隊表。因此,模擬觀測被分為標量數據(如可用坦克數量及其彈藥)。同時,基于地圖的輸入作為視覺輸入提供給空間編碼器。

標量數據用于向人工智能提供幾乎所有場景細節的建議。其中包括有關自身部隊及其平臺的數據,以及有關敵方部隊的部分信息。輸入并非以絕對數字給出,而是采用歸一化方法來提高訓練效果。編碼器可以很容易地寫成多層感知器(MLP);不過,使用多頭注意力網絡可以大大提高訓練后智能體的質量,因此應予以采用(Vaswani 等人,2017 年)。

為了理解地理地形、距離和海拔高度的含義,人工智能會被輸入一個帶有實體編碼的地圖視覺表示。顏色方案基于三通道圖像,這使我們能夠輕松地將數據可視化。雖然使用更多通道會給人類的圖形顯示帶來問題,但人工智能能夠理解更多通道。不同的字段類型和實體會用特殊的顏色進行編碼,以便始終能夠區分。這種所謂的空間編碼器由多個卷積層組成。最初,我們嘗試使用 ResNet-50 (He 和 Zhang,2016 年)和 MobileNetV3 (Howard 等,2019 年)等著名架構,甚至使用預先訓練的權重。然而,這并沒有帶來可接受的訓練性能。因此,我們用自己的架構縮小了卷積神經網絡(CNN)的規模。

為了測試和優化這一架構,我們使用了一個自動編碼器設置,并使用了模擬中的真實樣本。我們能夠將參數數量從大約 200 萬減少到大約 47000。此外,我們還生成了一個預訓練模型,該模型已與模擬的真實觀測數據相匹配。這一步極大地幫助我們加快了 RL 進程。

一個可選元素是添加語言輸入,為人工智能定義任務。雖然一般的戰略人工智能不使用這一元素,但計劃將其用于下屬智能體。這些智能體將以自然語言接收來自戰略人工智能的任務,并使用雙向門控遞歸單元(GRU)編碼器對其進行處理。

視覺數據、任務數據和標量數據的編碼值被合并并輸入核心網絡。根據 Hochreiter 和 Schmidhuber(1997 年)的介紹,核心主要是一個擁有 768 個單元的長短期記憶(LSTM)組件。在軍事場景中,指揮官必須了解高價值資產的長期戰略規劃。在本模擬中,人工智能可以請求戰斗支援要素,這些要素在影響戰場之前需要長達 15 分鐘的時間。因此,人工智能必須了解未來任務的時間安排和規劃。在 RL 中使用 LSTM 網絡相當困難,因為它需要大量的訓練時間,而且會導致上面各層的梯度消失。因此,我們決定在 LSTM 上添加一個跳過連接,以盡量減少新增層的負面影響。

動作頭由一個自然語言處理(NLP)模型組成。這是一個非常簡化的動作頭模型,包含一個小型 LSTM 和一個額外的密集層,共有約 340000 個參數。其結果是一個尺寸為 8 x 125 的多離散動作空間。

除主模型外,還有一個單獨的價值網絡部分。價值網絡使用核心 LSTM 的輸出,并將對手信息串聯起來傳遞給 MLP。然后,MLP 可以精確預測價值函數。通過對手信息,價值網絡對模擬有了一個上帝般的地面實況視圖。由于該網絡只與訓練相關,因此可以在不干擾訓練完整性的情況下進行。

付費5元查看完整內容
北京阿比特科技有限公司