亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在一個跨國威脅不斷增加、全球相互依存度空前提高、大國競爭重新抬頭的時代,美國正處于一個拐點。這是在技術革命的背景下發生的,技術革命加劇了面臨的挑戰,同時也提供了潛在的解決方案,在氣候、醫藥、通信、運輸、智能和許多其他領域提供了突破。其中許多突破將通過利用人工智能(AI)及其相關技術--其中主要是機器學習(ML)。這些進步可能會塑造國家之間的經濟和軍事力量平衡,以及國家內部的工作、財富和不平等的未來。

ML的創新有可能從根本上改變美國軍隊的戰斗方式,以及美國防部的運作方式。機器學習的應用可以提高人類在戰場上的決策速度和質量,使人機合作的性能最大化,并將士兵的風險降到最低,并極大地提高依賴非常大的數據集的分析的準確性和速度。ML還可以加強美國以機器速度防御網絡攻擊的能力,并有能力將勞動密集型企業功能的關鍵部分自動化,如預測性維護和人員管理。

然而,人工智能和機器學習的進步并不只是美國的專利。事實上,面對中國在該領域的挑戰,美國在人工智能領域的全球領導地位仍然受到懷疑。美國防部和學術界的許多報告反映了需要在人工智能研究和開發方面進行更多投資,培訓和招聘一支熟練的勞動力,并促進支持美國人工智能創新的國際環境--同時促進安全、安保、隱私和道德的發展和使用。然而,人們對信任問題,特別是對這些系統的測試、評估、驗證和確認(TEVV)的關注太少。建立一個強大的測試和評估生態系統是負責任地、可靠地和緊急地利用這一技術的一個關鍵組成部分。如果不這樣做,就意味著落后。

本報告將首先強調為人工智能系統調整美國防部現有的TEVV生態系統的技術和組織障礙,特別強調ML及其相關的深度學習(DL)技術,我們預測這對未來的威懾和作戰至關重要,同時在可解釋性、可治理性、可追溯性和信任方面帶來獨特的挑戰。其次,本報告將向國防部領導層提供具體的、可操作的建議,與情報界、國務院、國會、工業界和學術界合作,通過改革流程、政策和組織結構,同時投資于研究、基礎設施和人員,推進ML/DL的TEV系統。這些建議是基于作者幾十年來在美國政府從事國家安全工作的經驗,以及對從事ML/DL和測試與評估的政府、工業和學術界專家的數十次訪談。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

在過去的75年里,蘭德公司進行了支持美國國家安全的研究,目前為聯邦政府管理著四個聯邦資助的研究和發展中心(FFRDCs):一個為國土安全部(DHS),三個為國防部(DoD)。本文將重點評論國防部如何能夠最好地確保人工智能(AI)的進展有利于美國國家安全,而不是降低它。

在一系列廣泛的技術中,人工智能因其進展速度和應用范圍而脫穎而出。人工智能具有廣泛改變整個行業的潛力,包括對我們未來經濟競爭力和國家安全至關重要的行業。由于幾個原因,將人工智能納入我們的國家安全計劃帶來了特殊的挑戰:

  • 這些技術是由商業實體驅動的,而這些商業實體經常在國家安全框架之外。

  • 這些技術正在迅速發展,通常超過了政府內部的政策和組織改革。

  • 對這些技術的評估需要集中在私營部門的專業知識,而這些專業知識很少被用于國家安全。

  • 這些技術缺乏區分良性和惡意使用的常規情報特征。

美國目前是全球人工智能的領導者;然而,這種情況可能會改變,因為中國尋求在2030年前成為世界主要的人工智能創新中心--這是中國人工智能國家戰略的明確目標。此外,中國和俄羅斯都在追求軍事化的人工智能技術,加劇了挑戰。作為回應,將強調美國防部可以采取的四組行動:

1.確保美國防部的網絡安全戰略和網絡紅方活動跟蹤可能影響網絡防御和網絡進攻的人工智能的發展,如網絡武器的自動開發。

2.為防止不良行為者獲得先進的人工智能系統,(1)確保對領先的人工智能芯片和芯片制造設備進行強有力的出口控制,同時許可芯片的良性使用,如果需要的話,可以進行遠程節流;(2)利用國防生產法的授權,要求公司報告大型人工智能計算集群、訓練運行和訓練模型的開發或分發情況;(3) 在美國防部與云計算供應商簽訂的合同中,要求他們在訓練大型人工智能模型之前對所有客戶進行 "了解你的客戶 "篩選;(4) 在美國防部與人工智能開發商簽訂的合同中包括 "了解你的客戶 "篩選,以及強大的網絡安全要求,以防止大型人工智能模型被盜。

3.與情報界合作,大幅擴大收集和分析敵國參與人工智能的關鍵外國公共和私營部門行為者的信息,包括評估關鍵外國公共和私營實體;他們的基礎設施、投資和能力;以及他們的工具、材料和人才供應鏈。通過以下方式加強國防部開展此類活動的機構能力:(1)在美國和盟國政府機構、學術實驗室和工業公司之間建立新的伙伴關系和信息共享協議;(2)招募私營部門的人工智能專家以短期或兼職的方式為政府服務。

4.投資于人工智能安全的潛在計劃,包括(1)嵌入人工智能芯片的微電子控制,以防止開發沒有安全保障的大型人工智能模型,以及(2)在部署人工智能系統之前評估其安全性的通用方法。

付費5元查看完整內容

美國戰略家認為,人工智能(AI)有可能實現更好、更快的決策,這在未來的軍事沖突中是決定性的。機器學習應用將越來越多地影響政治和軍事領導人對戰略環境的看法,權衡風險和選擇,并判斷他們的對手。但是,將關鍵的人類決策過程暴露在人工智能系統的中會有什么風險?

要獲得人工智能在決策方面的優勢,首先需要了解其局限性和陷阱。人工智能系統根據數據模式進行預測。總是有一些意外行為或失敗的機會。現有的工具和技術試圖使人工智能對失敗更加穩健,往往會導致性能上的權衡,解決了一個問題,但可能會使另一個問題惡化。人們對人工智能的脆弱性和缺陷的認識不斷提高,但也需要在現實的部署背景下對技術故障的潛在后果進行更深入的分析。

本簡報研究了直接或間接影響決策的人工智能系統故障如何與戰略壓力和人為因素相互作用,從而引發危機或沖突的升級:

  • 納入人工智能的進攻行動或干擾對手的人工智能系統可能導致不可預見的系統故障和連帶效應,引發意外的升級。
  • 不安全的、訓練不足的或應用于錯誤類型問題的人工智能系統可能為決策過程注入不良信息,導致意外升級。
  • 發現人工智能系統被破壞,可能會對關鍵能力的可靠性或生存能力產生不確定性,如果沖突似乎迫在眉睫,會促使決策者故意升級。

這些情景揭示了一個核心困境:決策者希望使用人工智能來減少不確定性,特別是當涉及到他們對戰場的認識,了解對手的意圖和能力,或了解他們自己抵御攻擊的能力。但通過依賴人工智能,他們在人工智能系統技術故障的可能性和后果方面引入了一個新的不確定性來源。

有效利用人工智能需要以一種有謹慎的和有風險的方式來平衡優勢與局限。沒有辦法保證概率性人工智能系統會完全按照預期行為,也沒有辦法保證它能給出正確的答案。然而,軍隊可以設計人工智能系統和依賴它們的決策過程,以減少人工智能失敗的可能性并控制其后果,包括通過:

  • 為決策環境中使用的人工智能系統定義一套特定的任務屬性、標準和要求,如信任度量和保障措施,以檢測妥協或突發屬性。
  • 規定人工智能在決策中的使用,將人工智能應用于非常適合的狹窄問題,同時保留人類判斷問題,如解釋對手的意圖;并考慮在某些領域完全排除人工智能。
  • 盡可能地讓高級決策者參與他們所依賴的系統的開發、測試和評估過程,并讓他們了解人工智能的優勢和缺陷,以便他們能夠識別系統的故障。

美國應繼續帶頭制定負責任地開發和使用人工智能的全球標準,采取步驟展示某些可靠性,并盡可能地鼓勵其他國家采取類似的預防措施:

  • 澄清為限制支持決策的人工智能系統的風險而實施的做法和保障措施。
  • 開展國際合作,制定互利的技術保障措施和最佳做法,以減少人工智能災難性故障的風險。
  • 承諾在使用包含人工智能能力的進攻性行動和針對人工智能系統的行動時保持克制,因為這些行動存在重大升級風險。
付費5元查看完整內容

美國空軍研究實驗室(AFRL)在技術開發方面的主要目標之一是將技術轉移給 "客戶",以滿足能力需求。這種轉換可以是在AFRL內部,也可以是向工業界,向系統項目辦公室(SPO),或直接向作戰人員。每個 "客戶 "類別都描述了一個潛在的 "過渡伙伴"。技術開發可以發生在支持客戶要求的成熟期("技術拉動"),即客戶提出他們的需求("要求"),AFRL用為滿足該需求而定制的技術發展來回應。當AFRL開發新技術或根據其作為關鍵技術領域的科學和技術(S&T)領導者的角色為舊技術找到新用途時,技術發展也可以在沒有具體要求的情況下發生。這被稱為 "技術推動",當AFRL科學家進行的基礎和/或應用科學研究發現了以前未知的軍事能力的潛力時,就會發生這種情況。技術拉動 "和 "技術推動 "項目都可以改變AFRL其他項目、工業、SPO或作戰人員的可能性,創造出潛在的破壞性能力,如果沒有相應的科技研究活動,對手是很難對付的。任何轉型所面臨的挑戰是,技術的價值可能沒有被更廣泛的社會所理解,在新技術的情況下,也沒有被進行研究的科學家所理解。

科學家和潛在的過渡伙伴之間的討論往往不能準確地確定一項技術的成熟度、潛在的軍事用途,以及一項技術的合理和可靠的使用時間表。在 "技術拉動 "和 "技術推動 "的情況下,對技術成熟度的準確描述是必要的,以告知科技領導層和潛在過渡伙伴開發的進展。成熟度,通常被稱為技術準備水平(TRL),是一個時間快照,它描述了演示或測試環境的特點,在該環境下,一項特定的技術被成功地測試。美國國防部(DoD)對TRL有一個標準的定義,從1到9,范圍從基本原理到實際任務操作中證明的實際系統。 從歷史上看,官方的TRL評估只在正式的采購過程中被系統地分配,然而,在AFRL項目開發的各個層面,通常都會要求進行技術成熟度評估。

目前缺乏一種系統的方法來評估AFRL技術,也缺乏對任何評估的文件驗證。雖然這并不是轉型失敗的原因,但有條不紊、準確和可驗證的TRL評估過程有助于為其他多個過程奠定基礎;支持與其他科技專業人士、管理機構和潛在的轉型伙伴進行有意義的合作;并支持提高AFRL技術轉型的概率。這些其他過程包括技術成熟計劃(TMP)、推進難度(AD2)、制造準備水平(MRL)、集成準備水平(IRL)、系統準備評估和水平(SRA和SRL)、空軍未來(HAF/A57,正式的空軍作戰人員集成能力(AFWIC))。技術、任務、資源、組織(TMRO)方法,AFRL過渡指標(ATM)和項目管理審查(PMR)。

TRL可以通過各種方式得出,但通常是通過技術準備評估(TRA)來確定。技術準備評估是在對技術的形式、與系統其他部分的集成程度以及操作環境等方面的保真度逐步提高的基礎上確定TRL的。TRA是一個系統的、以證據為基礎的過程,評估關鍵技術要素(CTE)的成熟度,這些要素可以是硬件、軟件、過程或它們的組合。一個技術要素是 "關鍵 "的,如果被收購的系統依賴于這個技術要素來滿足操作要求(在可接受的成本和進度限制內),如果該技術要素或其應用是一項新技術,以一種新的方式使用舊的/更新的技術,或者該技術要素或其應用在詳細設計或演示期間被用于構成重大技術風險的領域。正式的TRA最常被用來支持一個采購項目的確定階段,如美國法典第10章第2366b條詳細規定的要求,即在里程碑B批準之前,一個項目必須在相關環境中進行演示;然而,非正式的,或 "知識建設TRA",也可以用來評估技術成熟度,為開發人員、項目經理、管理機構和潛在的過渡伙伴提供有用的信息,以更有效地成熟關鍵技術,確定一個技術的準備程度,管理和解決當前和未來的發展風險。

今天,國防戰略和空軍參謀長和空間業務主管要求加速技術發展,并使能力更快地進入作戰人員手中。 一個可靠的、可重復的技術成熟度評估是后續和同步進程和方法的關鍵,如TMPs、AD2、MRLs、IRLs、SRAs和SRLs、TMRO、ATM和PMRs,并為支持AFRL內部、工業、SPO或在技術被證明達到適當水平后直接向作戰人員的快速過渡活動建立了基礎。本研究提出了進行這些TRA的建議程序和工具。

研究目標

本研究的主要目的是確定和推薦一個嚴格的、標準化的、可重復的程序和支持工具,以進行TRA,從伙伴的角度增加現有技術解決方案的可信度,并支持增加成功技術的過渡概率。因此,本研究將:

  • 確定一個量身定做的、嚴格的、標準化的、可重復的TRA流程,以進行可靠的TRA,同時提供支持流程執行的工具。

  • 將評估何時進行TRA的過程系統化,如何處理結果,以及如何確定下一步。

  • 詳細說明識別CTE的系統方法

  • 制作一個可定制的TRA模板,包括對可信度和客觀性至關重要的特征

  • 確定支持技術成熟和TRL評估的RY能力

  • 將技術要素納入建模、模擬和分析(MS&A)的方法。

  • 確定數據工件和儲存庫,以證明所分配的TRL。

付費5元查看完整內容

在過去的幾年里,人工智能(AI)的采用非常迅速,其使用也很廣泛。公共和私人部門的組織正在將人工智能用于廣泛的應用。在國防部門,對人工智能對國家安全的潛在影響的認識正在通過對后勤、半自動和自主武器、ISR(情報、監視和偵察)、指揮和控制以及網絡和信息行動的大量投資得到加強。畢竟,人工智能將戰爭的性質從信息化的方式轉變為智能化的戰爭方式。像美國和中國這樣的國家已經在其現有的防御框架中實施了一些形式的智能化戰爭。印度現在正以其新興和顛覆性的技術進步,向強大的軍民融合過渡。這篇背景文章探討了可能通過人工智能及其應用進行的智能化戰爭的所有方面,以及人工智能為國防帶來的挑戰和機遇。

印度的人工智能實施及其路線圖

印度的人工智能在軍事領域的實施處于起步階段;然而,其商業化的建立正以其在醫療保健、農業、教育、智能城市和基礎設施以及智能移動和交通等各個領域的不同應用而發展壯大。NITI Aayog在2018年發布了關于人工智能的國家戰略,主要關注這些領域。2021年,它進一步提出了一份關于負責任的人工智能第一部分和第二部分的報告,其中討論了印度人工智能的發展、采用和人工智能生態系統的培育。它的重點是促進研究、勞動力的技能培訓和再培訓,促進采用人工智能解決方案和發展準則。該報告還提出了對負責任的人工智能管理的問責制、安全、隱私和數據安全的關注。Niti Aayog的人工智能卓越研究中心(COREs)將作為國際轉型人工智能中心(ICTAIs)的技術供給者,旨在為社會領域創造基于人工智能的應用。

  • 印度在國防方面的人工智能研究由國防研究與發展組織(DRDO)領導,由人工智能和機器人中心(CAIR)負責。它的主要重點領域是人工神經網絡、深度學習、計算機視覺和態勢感知,包括以網絡為中心的行動和在龐大的戰場數據知識庫上運作的AIenabled系統。2019年,印國防部成立了一個高級別的國防人工智能委員會(DAIC),負責為國防中的人工智能應用提供戰略方向。其職能是在政府和行業之間建立伙伴關系,以部署這種基于人工智能的創新。一個由政府、軍方、學術界、工業界專業人士和初創企業代表組成的多利益攸關方工作隊,從國家安全的角度和全球范圍內研究人工智能的戰略影響。該報告闡述了印度在國防需求方面的人工智能發展,并就航空、海軍、陸地、網絡、核戰爭和生物戰等領域的國防人工智能能力提出了建議。鑒于這些發展,DAIC和國防人工智能項目局(DAIPA)獲得了1000億盧比的年度預算,專門用于人工智能支持的項目。它將包括開發一個數據管理框架,擴大數據中心的現有能力,建立一個便利的測試床網絡,并在所有國防培訓中心組織人工智能培訓課程。此外,它將與政府機構和行業合作準備政策,對社會和技術的濫用形成威懾。國防部的人工智能路線圖包括國防公共部門企業(PSU)承擔61個國防專用項目。國家任務組已經確定了12個人工智能領域,包括在印度軍隊中采用人工智能進行C4ISR。印度軍方已經與工業界和新技術創業公司合作開展了人工智能項目。

印度的人工智能能力

印度正在帶頭進行人工智能開發和采購,以加強其軍事基礎設施。印度人工智能軍事能力的一些例子包括用于ISR行動的人工智能機器人RoboSen,用于后勤支持的小型化便攜式行走機器人,具有認知能力的機器人,用于維護和維修部件,像黑黃蜂這樣的微型無人機,智能輪椅,以及CAIR的網絡流量分析(NETRA)系統,用于實時監控互聯網流量。印度的無人機能力包括Botlab Dynamics公司的蜂群無人機,HAL和NRT公司的空中發射靈活資產蜂群(ALFA-S),蜂群無人機,DRDO的Rustom 1。 印度海軍還計劃在關鍵任務領域整合基于人工智能的技術,并將INS Valsura作為大數據領域的卓越中心和關于人工智能和大數據分析的最先進實驗室。最近,2022年7月10日,在UDAAN(數字化、自動化、人工智能和應用網絡單位)的支持下,IAF在新德里的空軍站啟動了人工智能(AI)卓越中心。該中心配備了大數據和人工智能平臺,用于處理分析的所有方面,包括機器學習、NLP、神經網絡和深度學習。IIT-Hyderabad已經建立了一個關于自主導航和數據采集系統(TiHAN)的技術創新中心。DRDO的移動自主機器人系統(MARS)UGV和基于Arjun MK 1A戰斗坦克的UGV是正在籌備中的無人駕駛地面車輛,它們將配備120毫米火炮和本土地理信息系統(INDIGIS)。 印度國防部最近在GenNext人工智能解決方案的活動中展示了在過去三年中采取的人工智能舉措。為了促進國防部門的增長和發展,展示了iDEX初創企業技術,今年開始了第六屆國防初創企業挑戰。

付費5元查看完整內容

美國已經進入了一個大國競爭的新時期。俄羅斯和中國的崛起在全球權力結構中形成了復雜的三足鼎立局面。最近人工智能方面的技術進步使這種多變的國際動態進一步復雜化。學者、政治家和高級軍官已經意識到,人工智能的融入是軍事事務中一場新革命的起源,有能力改變權力的戰略平衡。美國在中東被二十年的反叛亂所困擾,并受到僅延伸至2025年的長期人工智能戰略的阻礙,沒有準備好進入這個 "第六代 "軍事能力,以確保其戰略利益。這種人工智能化的部隊將由半自主和自主系統定義,包括致命的自主武器系統。第一個開發和使用這些武器的國家行為者將在這個新時代獲得對其競爭對手的戰略優勢。雖然美國目前在人工智能方面擁有優勢,但由于缺乏前瞻性思維和重點投資政策,這種優勢正在迅速消失。這是一份旨在解決這一差距的政策文件。20世紀90年代中期的中國軍事現代化模式為美國未來的政策提供了一條潛在的途徑。雖然兩國政府結構存在差異,但其中的幾個基本原則可以在美國的制度框架內適用。因此,美國可以通過制定健全的投資政策、集中的技術發展計劃和新的行動概念來確保人工智能的首要地位,以便在新能力出現時將其最大化。

針對美國的政策建議與評估

大國競爭必須相對于其他大國的能力進行評估。因此,沒有一種能力可以被評估為產生可持續的絕對優勢。然而,在潛在的對手獲得同樣的能力之前,開發人工智能技術和應用為21世紀沖突設計的CONOPS的能力將在整個政治/軍事領域產生一個暫時的戰略優勢。美國目前的公共政策和戰略并沒有延伸到25年后。隨著中國準備在2030年成為占主導地位的人工智能大國,美國為了確保長期戰略利益,不能接受人工智能競賽的現狀。由于人工智能領域的技術發展速度很快,人工智能RMA的狀態和抓住初始優勢的能力正在接近一個拐點。建議美國采取側重于美國在人工智能競賽中的首要地位的政策,特別是在致命性自主武器系統的研究和開發方面。美國在這一領域保持優勢的能力對于國家安全和參與21世紀人工智能輔助和/或人工智能環境的準備工作是至關重要的。

由于致命性自主武器系統是一項仍在開發中的未來技術,因此不可能確定致命性自主武器系統對戰略環境的完整影響。本研究承認,對于評估一個未來武器系統的影響沒有預測性的措施,該系統在實現其全部潛力之前還將經過幾代技術的演變。然而,評估投資政策、技術和CONOPS演變的影響以及它如何影響軍事準備、政治資本和戰略環境的能力是有據可查的。

本文的建議將以1990年至今的中國軍事投資戰略為藍本。在此期間,中國國防開支的增加創造了一個前所未有的能力和軍事力量的增長,為美國未來的人工智能政策提供了一個框架。由于全球力量是以相對而非絕對的方式衡量的,美國至少必須在多極環境中與不斷增長的大國保持平等。雖然從美國的角度來看,中國戰略的某些方面,特別是盜竊知識產權的因素是不切實際的,但那些關于教育和貨幣投資的內容可以被納入美國未來的人工智能政策中。這項研究建議:

1.設立一個負責人工智能政策的助理國防部長的新職位,直接負責人工智能的發展和整合到美國防部。

2.指示ASDAI為美國軍隊制定一個關于第六代能力的預期最終狀態,每十年更新一次。

3.建立30年、15年和5年的人工智能目標,每五年更新一次,讓各個機構,如DARPA、JAIC、國防創新部門(DIU)和相關組織負責特定的發展水平。這將使美國政策制定者有能力根據ASDAI評估和更新的多變的戰略環境,為每個機構提供適當的資金。

4.成立一個委員會,負責發展和保留研究生水平的科學、技術、工程和數學(STEM)人才。

5.建立一個戰略規劃組織,負責研究和整合新的人工智能技術,因為它們出現在15年和5年的基準點上,以便在收購過程中納入其中。

對這些政策的評估必須對照美國對手在人工智能領域的成就和進步。建立在美國在人工智能領域的首要地位上的政策應該集中在教育和經濟投資,新的人工智能技術的初步發展,以及新的CONOPS的發展,以便在新的人工智能能力可用時充分和有效地進行。本研究報告的其余部分重點關注中國國防現代化計劃對美國未來人工智能政策和建議的調整。

付費5元查看完整內容

本報告概述了中國的人工智能生態系統,強調了政策和治理,生態系統參與者和發展,優勢和挑戰,以及瑞典人工智能參與者的收獲。該報告由斯德哥爾摩經濟學院(Stockholm School of Economics)的斯德哥爾摩中國經濟研究所(Stockholm China Economic Research Institute)撰寫,研究工作得到了瑞典創新機構Vinnova的資助。本報告的目的是: * 描繪并加深對中國在人工智能方面的進步及其對瑞典人工智能生態系統成員的影響的了解


為此,本報告旨在:

從范圍和實施方面研究中國的人工智能政策框架 * 規劃投資范圍、區域人工智能中心、主要企業參與者、國家參與者以及人才和教育 * 確定中國人工智能生態系統的優勢和挑戰 * 討論瑞典AI生態系統成員的機遇和挑戰

為了實現這一宗旨和目標,報告首先詳細討論了中國的國家政策框架是如何演變的,并以2017年宣布的全面國家戰略規劃為開端。在這里,它還將深入了解如何實施這一計劃及其補充計劃,并觸及中國已開始形成的治理框架。轉到人工智能行業,該報告提供了人工智能領域的投資概述,然后研究了全國人工智能中心的發展,以及中國政府對建設國家人工智能團隊和企業部門的其他領先參與者的關注。其次是對政府活動和一些主要國家行動者的概述,然后是對研究、人才和教育的綜述。 在全面了解人工智能行業后,該報告接著研究了中國快速發展的人工智能生態系統中的一些優點,包括該國獨特的社會政治背景、相對寬松的監管框架以及對大量數據的獲取。然后闡述了中國人工智能生態系統在未來發展中面臨的一些挑戰。這些挑戰包括人工智能人才的供需差距、地緣政治緊張、缺乏國內開發的核心技術工具,以及中國在國際人工智能治理框架發展中發揮領導作用的挑戰。最后,該報告概述了外國人工智能參與者的機會,然后強調了這些參與者如果決定將其業務活動擴展到中國將面臨的一些挑戰。

關鍵發現:

中國已經制定了一個全面的人工智能發展政策框架,利用中央和地方政府、私營部門、學術界和研究機構 * 人工智能被視為國家優先事項,因此在各級得到了極大的關注和支持 * 治理框架正在發展,主要關注整體道德,但最近也在實施數據安全和個人信息保護的法律 * 人工智能領域的私人投資正在穩步增長,中國目前僅次于美國 * 三大人工智能中心已經發展起來:京津冀、長三角和珠江地區 * 中國政府正在支持一些領先的人工智能公司,即所謂的國家人工智能團隊,這些公司正在各自的領域開發開放平臺 * 其他國內人工智能公司也正在崛起,并成為重要的參與者 * 許多政府機構積極參與人工智能的發展,從中可以看出人工智能的優先級 * 中國在企業部門、高等教育、研究機構和行業組織中有幾個重要的國家聯盟和合作努力 * 中國在人工智能研究方面實力雄厚,在研究論文和專利申請方面已成為世界領先,盡管美國在高影響力研究方面仍處于領先地位。 * 政府已將人才短缺列為優先事項,該國的教育機構已迅速擴大了以人工智能為重點的畢業生數量 * 人工智能人才的供需差距,尤其是在頂尖人工智能人才方面 * 中國人工智能生態系統發展的主要優勢包括獨特的社會政治背景、以前寬松的監管框架以及對大量數據的訪問 * 中國面臨的一些挑戰包括人才短缺、地緣政治緊張局勢、缺乏國內開發的核心技術工具,以及在全球人工智能治理框架的發展中處于領先地位的困難 * 中國為國際人工智能參與者提供了充足的機會,尤其是由于其龐大的市場和世界領先的制造業和工業部門 * 挑戰包括激烈的市場競爭、中國企業獲得政府支持、中國和美國(及其盟友)之間日益緊張的地緣政治關系,以及持續的科技行業打壓和不斷變化的監管框架

付費5元查看完整內容

當前和未來的網絡威脅和攻擊促使美國防部需要一個超越傳統周邊防御方法的零信任方法。美國防部打算在27財年之前實施該戰略和相關路線圖中概述的獨特的零信任能力和活動。

該戰略設想的美國防部信息企業由一個全面實施的、整個部門的零信任網絡安全框架來保障,該框架將減少攻擊面,實現風險管理和伙伴關系環境中的有效數據共享,并迅速遏制和補救對手的活動。

該戰略概述了四個高層次的綜合戰略目標,確定了該部為實現其零信任愿景將采取的行動。

  • 零信任文化的采用--所有美國防部人員都意識到、理解、接受培訓,并致力于零信任的思維方式和文化,支持零信任的整合。
  • 美國防部信息系統的安全和防御--網絡安全實踐在新的和遺留系統中納入零信任,并將其付諸實施。
  • 技術加速--技術部署的速度等同于或超過行業的進步。
  • 零信任的實現 - 部門和組件級的流程、政策和資金與零信任原則和方法同步。

面對不斷變化的對手威脅和新技術,實施零信任將是一個持續的過程。隨著技術的變化和對手的發展,更多的 "零信任 "增強措施將在隨后幾年被納入。

付費5元查看完整內容

美國國防部和空軍領導人認為,人工智能(AI)是一種改變游戲規則的技術,將幫助空軍情報、監視和偵察(ISR)體系克服大國沖突所需的情報分析速度和規模方面的長期挑戰。傳感網格概念(最近更名為傳感器集成)被作為未來框架引入,以整合人工智能和認知建模工具融入空軍ISR,但對于對手的威脅和道德方面的考慮卻很少討論,而這些考慮應該貫穿于系統的設計和功能模塊。為了讓空軍內部的人力和組織做好準備,以整合高度自動化的人工智能情報分析系統,領導人必須倡導以人為本的設計,從歷史上人機協作的成功和失敗中吸取教訓。領導人還必須采取積極主動的方法來培訓空軍的ISR勞動力,以便與革命性的但不完善的人工智能技術進行有效協作。

問題陳述

根據美國空軍作戰集成能力(AFWIC)傳感跨職能小組的說法,空軍情報、監視和偵察(ISR)的現狀是高度專業化、專有化,并且過于依賴人力密集的回傳(reach-back)過程。當規劃人員展望未來的大國沖突時,他們評估目前的硬件和分析過程將不足以建立對同行對手的決策優勢,情報工作在勝利所需的速度和規模方面落后。空軍A2的 "下一代ISR主導地位飛行計劃"對目前的ISR體系也提出了類似的批評,主張擺脫今天的 "工業時代的單一領域方法",以追求 "架構和基礎設施,以實現機器智能,包括自動化、人機合作,以及最終的人工智能。"雖然為空軍人員提供更快更智能的工具來制作和分享評估是空軍高級領導人的優先事項,但引入更高水平的自動化和機器主導的感知為情報界帶來了一系列新問題。考慮到這些工具可能遇到的篡改和故意提供錯誤信息的威脅,依靠算法走捷徑是否安全?追求由自動化武器系統促成的戰爭到底是否合乎道德?如果是這樣,情報界采用自動化工具以更快的速度產生關鍵的情報評估會帶來什么風險?

人工智能(AI)一詞被美國防部聯合人工智能中心定義為 "機器執行通常需要人類智慧的任務能力--例如,識別模式、從經驗中學習、得出結論、進行預測或采取行動。"參議員們希望AI能夠很快為人類分析師用來進行評估的軟件套件提供動力,并使物理系統在更多的自主應用中發揮作用。機器學習(ML)被國防部高級研究計劃局(DARPA)定義為人工智能中的一個領域,"將統計和概率方法應用于大型數據集",并可以將衍生模型應用于未來的數據樣本。利用ML好處的一個流行方法是通過深度神經網絡(DNN),它可以使用歷史數據被訓練成執行一系列的分類和預測任務。雖然在AFWIC或A2的出版物中沒有特別提及,但在模擬人類思維過程的應用中使用AI、ML和DNN是計算機科學和心理學的一個混合領域,稱為認知建模。在AFWIC對未來空軍ISR體系的設想中,AI、ML、DNNs和認知建模概念是向數字化、以網絡為中心的情報方法轉變的關鍵部分。

為了給空軍ISR體系的現代化舉措提供一個框架,AFWIC建立了傳感網的概念,定義為 "傳感器、平臺、人員、設備、內容和服務的組合,為決策者提供整體、準確、預測和及時的作戰環境特征。"該概念的設計者設想了一個具有預測分析、自主傳感和響應、融合多個數據源和邊緣處理的系統,所有這些都是通過利用AI、ML、DNN、數據分析和其他認知建模方法來實現的。盡管沒有公布傳感網格的首次亮相日期,但大多數討論表明,優化的系統簇至少還有十年。同時,美國防部領導層非常迫切地要趕上中國和俄羅斯在軍事人工智能應用方面的投資,鼓勵快速原型設計和實驗,以找到解決方案。人工智能在國防論壇上經常被認為是使以數據為中心的情報任務更快、加快戰術決策的答案,但如果所涉及的系統處于工程的初級階段,并且在國家安全領域仍未得到證實,這僅僅是猜想。

雖然AFWIC和空軍A2專注于人工智能傳感器和工具的研發投資,但很少討論使傳感網格安全和有效所需的人機合作動態。為了使傳感網格成為一個有效的系統,為空軍執行ISR和分析的方式帶來價值和進步,領導人應該在技術中倡導以人為本的設計,培訓和準備一線分析員與新系統有效的協作,并根據人工智能的優勢和劣勢調整組織做法。空軍領導人必須承認將更多的分析任務分配給人工智能工具所固有的對抗性威脅和道德問題,這些問題必須告知感知網格的藍圖。這并不是說正在進行的系統軟件開發應該停滯不前,而是說在情報和物資領導人之間必須同時進行對話,討論人類分析員的作用,因為這對減輕越來越多地依賴人工智能的弊端至關重要。空軍領導人還必須推行一項深思熟慮的計劃,將傳感網格組件整合到當前的傳感、識別、歸屬和共享(SIAS)活動中,使一線分析員為 "更高級別的推理和判斷"任務做好準備,同時承認機器應該增強人類任務,而不是完全取代人類。

接下來本文將提供與人工智能系統相關的脆弱性和道德問題的文獻回顧,以深入了解建設和應用傳感網格可能面臨的挑戰。它還將包括討論在完成和應用這個改變游戲規則的系統之前,情報和物資領導人應該考慮哪些因素。本文最后將就如何為空軍ISR戰斗空間準備傳感網格提出進一步的建議,為空軍人員在數字時代的行動提供必要的場景設置。

文獻回顧

最近關于將人工智能應用于認知任務的相關弱點的研究大多強調了對抗性樣本的危險性,這些樣本修改了DNN的輸入,導致它們控制的系統以各種方式發生故障。對抗性輸入可以是物理的或非物理的,可以影響各種數據分類器分類媒體,包括圖像、音頻文件和文本。最常提到的物理欺騙樣本是一個實驗,工程師通過將停車標志調整成不同的角度來愚弄自動駕駛汽車上的光學傳感器,導致車輛錯過停車。物理欺騙在國防應用中不是一個新穎的計劃,但將邊緣處理和自動化納入像傳感網格這樣的系統可能排除了人類分析師第一手識別這些戰術。在非物理領域,訓練算法以類似于人腦的方式來識別模式是一項具有挑戰性的任務。計算機視覺(CV)算法對圖像的分類與人類分析人員非常不同,當只有幾個像素不合適時,很容易對物體進行錯誤分類。在不太直接的情況下,工程師無法解釋模型的錯誤,刺激了DARPA等組織對可解釋人工智能的倡議。 在最好的情況下,對抗性輸入被識別為異常值,并被具有強大訓練樣本的CV模型所忽略;在最壞的情況下,它們可能會破壞現實世界的輸入,并在人類分析師不知情的情況下從樣本中數字化地刪除物體或活動。如果對抗性輸入導致分析師錯過他們通常會在沒有協助的情況下捕捉到的重要活動,就會產生災難性的后果。

如果將AI、ML和DNN應用于情報數據集背后的目標是以更高的速度分析和傳播更多的信息,那么自然語言處理(NLP)也可能是感知網格架構的一部分。NLP模型今天被廣泛用于個人和商業用途,像Siri和亞馬遜Alexa這樣的工具使用語音提示來啟動其他應用程序。NLP模型也可用于大量文本或其他媒體的理解任務,使用衍生數據回答問題。這種技術在融合多種數據源的SIAS任務中可能非常有用,但也可能容易受到干擾。NLP中的對抗性輸入可以引入錯誤的句子或用文本文件中的反義詞替換關鍵詞,導致模型在沒有時間或能力進行人工審查的情況下錯誤描述數據集。

與任何分層模型的方案一樣,CV和NLP模型是否能像預測的那樣有效地協同工作還是個未知數,更不用說檢測像Deepfakes這樣在非保密領域進入DNN的偽造數據了。人類分析員離通常可以檢測錯誤信息的源數據流越遠,SIAS就越容易受到錯誤輸入的影響。盡管有這種擔憂,但空軍A2的指導意見表明,人們對分層模型利用非保密的公開信息(PAI)進行無縫傳感器提示寄予厚望,使ISR體系能夠更有效地找到相關目標。如果沒有一種強大的方法來檢測提示傳感器的PAI樣本中的偽造媒體,這個過程可能難以安全地實現。

技術的復雜性和自動化、人工智能系統對篡改的潛在脆弱性,引發了關于在軍事行動中應用這類技術是否符合道德的討論。雖然傳感網格的設計不是為了直接使用武器,但來自該系統的情報數據很可能為關于多個領域的關鍵決策提供信息。關于AI/ML的倫理學文獻通常對采用自主運作、人類干預窗口有限的系統持批評態度,其邏輯與反對地雷等傳統自動化武器的倫理學論點相似。雖然傳感網格及其前驅系統將具有比壓力板裝置高得多的認知行為屬性,但一些人認為,人類對黑盒系統的控制同樣很少,這些系統在向人類操作者提出選擇或結論之前,會執行層層的算法通信。

幸運的是,人工智能系統可能也能夠在人類容易出現道德失誤的情況下進行補償,因為機器不會經歷像恐懼或驚慌這樣的情緒,而這些情緒可能會引發危險的決定或違反LOAC。盡管利用人類與認知模型合作的這一潛在優勢是謹慎的,但美國防部的指導意見將速度作為人工智能最有用貢獻的具體價值,這引入了更多道德難題。對個人決策的測試表明,人類在復雜環境中的風險評估能力已經很差,而引入人工智能,使人類判斷的價值邊緣化,只會導致更快的、風險更高的結論。當人工智能帶來的錯誤評估或草率決定導致災難性錯誤時,問責也是美國防部領導人必須準備解決的混亂道德問題。

大多數文獻中隱含的減輕對手篡改和道德失誤威脅的解決方案,是在人類控制器和自主的人工智能系統之間進行最佳分工。不足為奇的是,對于這應該是什么樣子,以及它如何適用于像傳感網格這樣的系統,有許多觀點。一些人認為,在國際協議框架中沒有雇用自動武器系統的空間,并將其缺乏責任感與兒童兵相比較。其他人認為,如果像聯合目標定位這樣的程序以同樣的嚴格和參與規則進行,人工智能工具將不會導致不可接受的失控。雖然人們認為迫切需要通過購買現有的商業軟件向聯合情報界提供傳感網格的能力,但如果美國防部領導人希望減少前面討論的風險,工程師、需求所有者和分析師必須致力于仔細討論人工智能應用在ISR體系中最有幫助的地方以及它們有可能造成傷害的地方。

討論結果

當涉及到投資建設由人工智能和認知建模應用驅動的未來ISR體系的項目時,美國防部和空軍除了需要快速投資并與大學和國家實驗室合作外,提供的指導有限。除了系統 "事故風險較低;對黑客和對手的欺騙行為更有彈性和表現出較少的意外行為"之外,對該部門在人工智能投資方面所期望的指導也是有限的。缺乏特殊性可能是人工智能在國防部戰略中首次出現的癥狀,但自滿和滿足于為投資而投資的情況并沒有遠遠超過這種情況。使用該技術的社區有責任決定與認知模型建立哪種類型的協作關系將提供最大的利益,但戰略指導似乎將責任交給了實驗室和行業合作伙伴,責成外部人士確定人工智能將解決的問題和解決方案。如果空軍ISR領導人在討論如何最好地將人類分析員與人工智能工具協作方面不發揮積極作用,他們將如何評估開發人員是否在提供資金的情況下取得足夠的進展?美國防部如何相信由非業務伙伴開發的解決方案能夠充分解決安全和道德問題?在什么時候,人工智能會從一個脆弱的研究項目過渡到改善SIAS的速度和準確性的可行解決方案?

討論人工智能及其在情報工作中的預期功能的一個更有成效的方法是,不要把它當作一個神奇的子彈,因為它的定義太不明確,根本無法研究。雖然將認知模型應用于情報過程可能是新的,但在戰爭中實現自動化的技術已經存在了幾十年。領導人必須考慮現代戰爭中已經存在的人機合作結構,以獲得設計和整合傳感網格的經驗。對于空軍ISR來說,分析當前和歷史上人類分析員、機載傳感器和戰區決策者的團隊合作是一項有益的工作。機載ISR傳感器的性能衡量通常通過傳感器輸出的響應性和準確性等因素來評估,但了解傳感器數據引發的分析和決策過程也很重要。例如,光譜成像傳感器可以被用作異常檢測器,突出不尋常的物體或活動,供人類分析員審查和報告。報告可以傳播給行動領導人,然后他根據情報做出決定,命令對異常活動的來源進行空襲。如果這一連串的事件在行動過程中習慣性地發生,那么傳感器和人類在循環中的互動可能會開始改變,而傳感器被潛意識地重新歸類為威脅探測器。在這種情況下,傳感器的性能規格并沒有改變,但隨著時間的推移,團隊關系中的人類開始對傳感器的輸出應用不同的價值,這可能是外部激勵因素的影響。雖然大多數分析家都知道,假設所有的異常情況都是威脅是不正確的,也是危險的,但人機協作關系演變為扭曲人類判斷的微妙方式是值得關注的。為了確保人機協作以道德方式進行,領導者必須反思協作結構如何在無意中抑制組織的價值觀。對新作戰技術的準確性和穩健性的要求是合理的,但了解技術煽動的組織行為和習慣對有效和道德地使用是最重要的。

除了在ISR體系內應用現有的人機合作經驗外,人工智能感應網格的設計也應以人為本。雖然在建立一個由人類分析員使用的系統時,這似乎是顯而易見的,但在復雜的系統工程項目中,人因工程和人機協作的考慮往往是一個低優先級的問題。這部分是由于傳統的組織障礙,將軟件工程師和人因專家放在不同的部門,尤其是后者專門研究認知心理學、神經科學和機器人學等學科,這些學科在一些項目中可能發揮有限的作用。未能在復雜系統中適當整合人的因素的后果是可怕的,這在波音公司的737 Max飛機上可以看到,該飛機在2018年和2019年發生了兩起致命事故。兩份事故報告都提到高度自動化的機動特性增強系統(MCAS)軟件是導致飛機失事的一個重要因素。 雖然MCAS被設計為使用傳感器輸入來協助飛行安全,但糟糕的人為因素考慮使得該系統在觸發自動程序后,飛行員很難覆蓋。雖然培訓用戶與新系統合作是入職的自然部分,但由于缺乏人為因素工程而導致的陡峭學習曲線是一種風險,可以通過對人類和機器行為進行建模來減輕,因為它們與手頭的任務相關。 在這種情況下,建模將幫助系統架構師確定在特定的團隊合作關系中造成誤解的溝通差距,也許可以提供關于機器如何在緊急情況發生前向人類操作員充分披露其局限性的洞察力。

當我們推測如何最好地促進人機互動,充分解決與人工智能和自動化相關的安全和倫理問題時,尋求視覺分析專家的咨詢可以提供有價值的設計見解。"視覺分析是一個科學領域,它試圖通過交互式可視化增加人機對話來提高自動化、高容量數據處理的透明度。 為分析師提供一個團隊結構,讓他們選擇如何可視化數據集,可以在自動化、機器輔助的數據精簡和人類判斷之間取得有利的平衡。在傳感網格的可視化分析的最佳應用中,分析師將以高度的信心理解數據集的重要性,這得益于調整基礎分析過程的能力。 理想情況下,可視化分析使用戶能夠通過向系統提出關于數據的假設和問題來利用他們的學科專長,使他們能夠通過對話得出結論。視覺分析中的一種被稱為語義互動的方法也可能是有幫助的,創建的模型可以將分析師與視覺數據的對話轉化為模型的調整,推斷和學習人類伙伴執行常規任務的原因,如突出、復制等。考慮到前面詳述的學科有多新,建立明確的測試和評估標準將是準備將這些和其他團隊技術納入SIAS任務的重要步驟。

美國空軍研究實驗室(AFRL)內的各局無疑面臨著許多挑戰,在這個概念正式確定之前,他們一直致力于建立傳感網格的組成部分。將人工智能整合到智能架構和軟件中的工程師和開發人員主要在羅馬實驗室AFRL信息局(AFRL/RI)工作,分為多個核心技術能力(CTC)團隊。特別是處理和開發(PEX)CTC將深入參與開發實現傳感網的DNN,其任務是"為空軍、國防部和情報界提供快速感知,以提高對形勢的認識和對抗的洞察力"。在PEX CTC中,項目按功能分為特征化、極端計算、理解和預測項目,涵蓋了從數據提取到高級感知的一系列步驟。人因工程方面的專業知識來自位于兩個州外的萊特-帕特森空軍基地的飛行員系統(RH),一個跨學科局。下一步,PEX CTC的項目可能會與AFRL的其他部門(如傳感器(RY)或航空航天系統(RQ))的開發項目相結合,將RI的SIAS部分與新的機載收集傳感器和車輛聯系起來。目前,RI的工程師使用來自實際聯合和國家情報來源的樣本數據流,逐步解決在大量非結構化數據中進行分類的計算挑戰。尋找解決方案以保持物理系統的尺寸、重量和功率要求可控,也是一個持續關注的問題,特別是在像Agile Condor這樣尋求在機載系統上提供高水平邊緣處理的項目。

正如前面的文獻調查所示,在DNN中建立穩健性和安全性,以防止ML中的對抗性干擾,是任何網絡開發者都關心的問題,RI內部的團隊也不例外。DNN已經在實驗室環境中以意想不到的方式學習或失敗,引入與人類感知相矛盾的對抗性輸入,可能會使開發有用工具的進展受挫。如果系統繼續隨著新數據集的發展而發展,那么可能很難確定技術成熟度的基準,在這種情況下,AFRL將維持責任轉移給空軍生命周期管理中心(AFLCMC)是合適的。雖然這一點與建立人工智能傳感網格組件的測試和評估標準的重要性有關,但它也應該引發關于復雜系統在開發和維持組織之間的移交是否適合這種技術的討論。理想的情況是,在DNN上擁有最多專業知識的團隊建立模型,并在其整個生命周期內維護它們。一個更有可能和更少破壞性的行動方案是建立具有可升級底盤和外形尺寸的傳感網組件,允許在可用時用替換設備進行簡化升級。考慮到國家實驗室、DARPA、麻省理工學院、卡內基梅隆大學和其他機構的大量人工智能研究投資,空軍領導人應該考慮如何在研究結果公布后,整合部門的投資回報,以改善感知網的設計和功能。

對于美國防部和空軍領導人來說,為未來傳感網的整合創造條件,還有其他獨特的倫理挑戰需要協調。如果 "傳感網格"及其組件能夠提供該概念所承諾的快速和強大的傳感功能,那么期望所有使用該系統的一線分析員都能理解其工作原理是否合理?在發生災難性錯誤的情況下,初級分析員是否需要了解該技術,以便對涉嫌疏忽的錯誤負責?"將邊緣處理納入傳感網設計也是一個有道德爭議的話題。雖然自動數據處理可以節省SIAS的時間,但分析師如何知道邊緣計算程序是否出現故障,或者他們是否被對手欺騙?從傳感器的邊緣去除人類的認知勞動可以更快地提供數據,但結果的準確性可能會有所不同。那些認識到這些問題,但卻因為要比中國或俄羅斯更快地投入技術的壓力而推遲解決的領導人,應該仔細思考這一立場背后的原因。雖然中國和俄羅斯的政府形式與美國根本不同,但事實是,這兩個國家都有等級制度,對國防事務中的錯誤和不精確性的責任也很重視。以類似于核計劃的方式,美國政府應該領導國際社會與競爭對手分享安全、設計良好的人工智能算法的傳統技術,確保沒有國家因為糟糕的態勢感知工具而引發誤解導致的沖突。最好的國際人工智能軍備控制可能來自于對人工智能研究結果的盡可能透明,并倡導負責任地使用該技術。

建議

盡管完整形式的傳感網格還需要幾年時間才能實現,但最終系統的組成部分可能會在未來十年內逐步投入使用。在為下一代人機協作做好技術、人員和組織的準備方面,還有大量的工作要做。美國防部和空軍ISR領導人不應等到正式的系統首次亮相時才開始倡導在傳感網格技術中采用以人為本的設計,將人工智能的培訓目標納入對一線分析員的指導,并為組織接受該技術和與之合作做好準備。當涉及到設計和構建這個復雜的系統時,物資領導人在考慮采購商業的、現成的軟件以獲得更快的數據匯總解決方案時,應該謹慎行事。在沒有為傳感網格及其系統如何運作建立測試、評估和安全標準的情況下,過早地整合多用途商業軟件可能會給傳感網的人工智能互動帶來不確定性和風險

此外,找到更快解決方案的愿望不應該先于對人的因素的考慮,因為這對安全和富有成效的人機合作至關重要。美國防部領導人還應該認真審視在整個傳感網中整合邊緣處理的計劃,將其作為一個安全和道德問題,并應仔細思考在哪些地方將人類感知與傳感器輸出分離才是真正合適的。雖然培訓人類分析員是ISR體系可以采取的最明顯的措施之一,以減輕來自外部干預和道德失誤的威脅,但物資領導人也必須考慮他們在采購精心設計的、以人為本的技術方面的作用,作為一個同樣重要的保障。

正如美國國防創新委員會的AI原則。雖然年輕的分析員在快速學習數字應用和程序方面表現出很強的能力,但初級人員也傾向于以令人驚訝的方式信任技術。因此,這些分析員必須繼續接受情報分析基礎知識的培訓,使他們善于識別傳感網格中的算法錯誤和遺漏。空軍領導人在2018年為促進AI和ML素養邁出了務實的第一步,啟動了一項試點計劃,以確定具有計算機語言經驗的空軍人員,希望在各種舉措中利用那些具有編碼專長的人。雖然這項措施將有助于區分具有較高數字熟練度的分析員,但教導勞動力如何運作計算機模型可能是一個更有用的技能組合,以準備在傳感網中進行人機合作。"為傳感網就業準備一線分析員的最壞方法是依靠及時培訓來彌補勞動力對技術知識的差距,從而為SIAS活動引入更大的錯誤率。

為了讓組織準備好接收和整合傳感網格,美國防部和空軍領導人必須首先解決人力需求。盡管像傳感網格這樣的系統被設計成模仿人類的認知勞動,但分析人員的勞動對于質量控制和任務管理仍然是至關重要的,更不用說作為識別DNN內潛在篡改或系統故障的保障。現在還不是為預期的技術進步做出任何急劇的力量結構調整的時候,而這種技術進步離投入使用還有好幾年的時間。此外,到目前為止,關于傳感網將如何整合來自聯合部隊的數據,或者是否允許作戰司令部像今天一樣擁有自己獨特的數據戰略和情報資源的討論很少。如果傳感網由于來自一個服務部門或地理作戰司令部的人為縫隙而無法為分析人員提供更多的情報來源,那么該系統是否真正做到了其設計者所宣傳的?這些問題必須在聯合參謀部層面加以解決和調和。最后,利用來自傳感網的情報的組織必須認識到,當他們與機器合作時,他們很容易受到偏見和捷徑的影響。了解外部壓力和交戰規則如何導致對機器輸出的質疑失敗,對于改善人機伙伴關系,真正使SIAS更加有效至關重要。

結論

美國防部和空軍對人工智能在情報中的應用所進行的研究投資,對于確定部隊應如何準備與傳感網格進行人機合作是至關重要的。對領導人和一線分析人員進行培訓,讓他們了解在自動化、人工智能支持的SIAS中存在的道德難題和對手攻擊的可能性,這對保護組織不傳播錯誤信息至關重要。幸運的是,美國防部和空軍ISR領導人主張在傳感網格系統中采用以人為本的設計和培訓模式還為時不晚,因為AFRL的工程師們正在繼續努力為部隊提供一個安全、務實的解決方案。領導人必須認識到以速度換取精確性的組織傾向,并理解精心設計的系統分階段整合將是值得等待的。

付費5元查看完整內容

摘要

過去的決策是如何做出的,其驅動力、戰略和理由是什么?關于組織應該如何從過去的經驗中學習以幫助在未來做出更好的決策,這句老話是正確的。目前的第一階段研究著眼于美國防部(DOD)如何灌輸機構企業記憶。具體來說,該研究對如何開發一個透明的決策選項登記冊(DOR)綜合智能數據庫系統進行測試并提出建議,其中DOR有助于捕捉國防部(DOD)內部項目的所有歷史決策(假設、數據輸入、約束、限制、競爭目標和決策規則)。這個DOR中的信息將與元語義搜索和數據科學分析引擎兼容。DOR用于對未來的決策方案進行建模,以便在不確定的情況下做出決策,同時依靠過去的最佳實踐,使高級領導層能夠做出可辯護的、實用的決策。目前第一階段的研究使用程式化的數據和例子來說明推薦的方法。

這項研究采用先進的定量建模方法(隨機模擬、投資組合優化),加上人工智能(AI)和機器學習(ML)算法(數據搜刮、文本挖掘、情感分析)和企業風險管理(ERM)程序,實施行業最佳決策分析。DOR將部分基于使用風險登記冊的ERM方法,其中不同的風險元素被細分為不同的GOPAD組,或目標(軍事能力、成本節約、新技術、未來武器能力、公共安全、政府優先事項、指揮偏好,等等。 )、組織(空軍、陸軍、海軍、海軍陸戰隊)、計劃(采購、商業現貨、聯合產業、混合等)、活動(庫存、替換、新開發、研究和開發等)和領域(空中、海上、網絡等)類別。

多個相互競爭的利益相關者(例如,國防部長辦公室、海軍作戰部長辦公室、美國國會和平民)有其特定的目標(例如,能力、效率、成本效益、競爭力和殺傷力,以及替代方案和權衡)、約束(例如,時間、預算、進度和人力)和基于任務的領域需求(例如,平衡網絡安全、網絡反恐、反潛戰、反-飛機戰或導彈防御)。

這項研究采取了多學科的方法,來自先進分析、人工智能、計算機科學、決策分析、國防采購、經濟學、工程和物理學、金融學、期權理論、項目和計劃管理、隨機建模的模擬、應用數學和統計學的方法被應用。最終的目標是為決策者提供可操作的情報和對未來決策選項或靈活的真實選項的可見性,以及導致某些可比較決策的假設。

推薦的方法包括使用監督和無監督的AI/ML情感文本分析、AI/ML自然語言文本處理以及AI/ML邏輯分類和支持向量機(SVM)算法,再加上更傳統的高級分析和數據科學方法,如蒙特卡洛模擬、隨機組合優化和項目選擇、使用財務和經濟指標的資本預算,以及PROMETHEE和ELECTRE等詞匯學排名方法。

介紹了案例應用、代碼片段和模擬的DOR,并以典型的數據來說明其能力。目前的研究成果將為下一階段的多年研究提供基礎,將建立原型,實際數據可以通過規定的分析引擎運行。

1. 簡介

這項擬議研究的目的是生成一個透明的決策選項登記冊(DOR)綜合智能數據庫系統,該系統有助于捕捉所有未來的歷史決策,包括其假設、數據輸入、約束、限制、競爭目標和國防部(DOD)的決策規則。該DOR中的信息將與元語義搜索和數據科學分析引擎兼容。DOR用于對未來的決策選項進行建模,以實施和實現在不確定的情況下做出決策,同時依靠過去的最佳實踐,并允許高級領導層做出可辯護的和實用的決策。

DOR是基于私營企業的企業風險管理(ERM)實踐,通常會列出過去、現在和未來擬議項目的風險和經驗教訓。建立一個決策歷史的文件數據庫是至關重要的。如果沒有曲線,就沒有學習曲線,而沒有任何數據或信息就不可能有曲線。有了目前這項研究中推薦的DOR和相關方法,我們可以通過觀察新項目的特點,以歷史數據為參考,計算出新項目的成功和失敗的概率,從而預測結果。當然,有必要對成功與失敗進行操作和定義。僅僅因為一個項目低于預算,按時完成,幾乎不需要返工,達到了所有要求的規格和技術發布水平,這是否意味著它是成功的?我們還可以用什么其他的指標來確定明確的成功或明確的失敗,以及在這兩者之間的所有其他層次呢?我們需要確定可用的數據以及差距,以使我們有一個堅實的決策選項登記冊。我們在操作上定義的成功和失敗的一些統計學上的重要預測因素是什么?另一個問題是減輕風險和戰略靈活性。

這項研究將展示業界最佳的決策分析和企業風險管理(ERM)程序。DOR將部分基于使用風險登記冊的ERM方法,其中不同的風險元素被細分為不同的GOPAD組,或目標(軍事能力、成本節約、新技術、未來武器能力、公共安全、政府優先事項、指揮偏好,等等。 )、組織(空軍、陸軍、海軍、海軍陸戰隊)、計劃(采購、商業現成的、聯合產業、混合等)、活動(庫存、替換、新開發、研究和開發等)和領域(空中、海上、網絡等)類別。

多個相互競爭的利益相關者(如國防部長辦公室、海軍作戰部長辦公室、美國國會和平民)有其特定的目標(如能力、效率、成本效益、競爭力和殺傷力,以及替代方案和權衡)、限制(如。時間、預算、時間表和人力),以及基于任務的領域要求(例如,平衡網絡安全、網絡反恐、反潛戰、防空戰或導彈防御中的數字化轉型需求)。當需要考慮新的決定時,這些因素是至關重要的。一個保存機構知識和記憶的DOR數據庫將有助于這種努力,并為決策注入信任。

這項研究將采取多學科的方法,我們將應用先進的分析方法、人工智能、計算機科學、決策分析、國防采購、經濟學、工程和物理學、金融、期權理論、項目和項目管理、隨機建模的模擬、應用數學和統計學。最終的目標是為決策者提供可操作的情報,以及對未來決策選項或靈活的真實選項的可見性,并提供導致某些可比決策的假設。

1.1 研究當前的技術狀況

在法律糾紛中,法院在決定案件的結果時使用先例。先例的使用已經有200多年的歷史,通常是為了上訴或推翻以前的判決。然而,基于先例的決策是工業界和政府還沒有完全接受的東西。由于人力資本的波動和外流,以及雇員離開或被重新分配到其他地方時機構知識的流失,包括國防部在內的各組織往往記憶短暫。目前的研究旨在包括對基于先例的決策技術現狀的相關研究是如何進行的,什么可能被認為是技術現狀,以及其目前的局限性是什么。

1.2 研究方法

該研究應用了多種新穎的方法,以提高其在生成一個強大的、可搜索的DOR數據庫方面的成功率。建議將包括關鍵參數、假設、輸入數據、保存的模型和計算、做出的決定、領導的輸入和重寫、約束和限制、最終目標和其他相關信息,然后可以使用機器學習的情感分析,加上刮削算法和自定義詞匯集的文本挖掘來挖掘。該系統的用戶將能夠把基于先例的洞察力應用于他們當前和未來的項目。此外,在可能的情況下,預測值將由隨著時間推移捕獲的實際值來補充。這允許對以前的項目進行事后分析,并提供一路走來的經驗教訓。掌握關鍵決策的歷史將有助于高級領導層做出更可信和可辯護的決定,這可能最終導致國防部的法律和法規變化。

擬議的方法將允許收集可應用于各種領域的數據,包括但不限于綜合風險管理?方法,其中可以運行蒙特卡洛模擬、隨機組合優化等隨機分析,以及高級數據分析方法、人工智能和數據科學方法。隨著時間的推移,可以應用回溯分析來更新DOR,使其更接近國防部的需求。該系統應該能夠收集不同類型的經濟數據(總生命周期成本、總擁有成本、采購成本、成本遞延、以及進度和風險成本);后勤數據(例如。固有可用性、有效可用性、任務可靠性、操作可靠性、平均停機時間、平均維護時間、后勤延遲時間、實現可用性、操作可用性、任務可用性、實戰能力、創造性和新穎技術的李克特水平以及其他指標);定性的主題專家估計(戰略價值、對社會的價值、指揮部優先事項、法律和監管影響得分等);以及市場可比性,以操作國防部利益的各種要素。在適當的時間間隔內,可以采用非線性判別分析、神經網絡、分布式擬合、有限因變量、路徑依賴的偏最小二乘法等反擬合分析,以找出導致一個項目或采購中某些決策成功或失敗的關鍵成功因素。

1.3 研究應用

目前的研究是重要的,因為它將在國防部的決策過程中創造一個重大的差異。國防部一直在為決策分析、資本預算和投資組合優化尋找更好的、理論上合理的、定量上嚴格的分析方法。具體的興趣在于如何識別和量化每個項目對軍隊的價值,并優化選擇正確的項目、系統和能力組合,使一些軍事價值(戰略、作戰或經濟)最大化,同時受到預算、成本、進度和風險限制。這項研究應用了私營部門和行業的最佳實踐,再加上先進的分析方法和模型,以幫助創建這些方法來做到這一點。然而,國防部的獨特性要求我們做更多的工作,以確定對軍隊的價值概念,同時考慮競爭的利益相關者的需求。國防部在其投資回報中需要有可辯護的、量化的、強有力的軍事價值概念,以做出最佳的資金決策,如在哪里投資、投資多少、投資多長時間。在國防部的非經濟環境中進行替代方案分析和平衡成本效益權衡時,這些決策選擇(戰略順序復合實際選擇、最佳時機選擇、增長選擇和其他選擇,以擴大、收縮和放棄)是至關重要的。國防部將提供歷史上保存下來的關于假設的各種替代性未來、模擬的替代方案以及為什么做出某些決定的見解。

1.4 人工智能和數據科學

人工神經網絡(NN)是一個數據驅動的、無分布的非參數方法系列,可用于非線性模式識別、預測建模和預測。神經網絡經常被用來指代生物神經元的組合網絡電路。該術語的現代用法通常也指 "人工神經網絡",包括在軟件環境中重新創建的人工神經元,或節點。這種人工網絡試圖模仿人類大腦中的神經元或神經元節點的思維方式,識別模式,以及在我們的情況下,識別模式來預測時間序列數據。NN方法可用于行為良好的時間序列以及混亂的物理系統。當用于大數據(BD)并與機器學習(ML)方法結合使用時,它可以被視為半監督的人工智能(AI)系統的一個交叉點。NN仍然被認為是半監督的,因為神經網絡需要一個多層次的訓練過程作為激活函數的一部分。例如,一旦系統中的激活被觸發,神經節點的權重和交互式卷積就可以自主地運行。在多層神經元節點中,第一個節點層的結果將成為后續節點層的輸入。

本文提議增加一個內部優化過程,以迭代運行的方式不斷訓練節點,使其最小化一系列的誤差測量,如標準化的誤差平方和,同時平衡和約束Akaike信息準則、Bayes準則和Hannan-Quinn準則。此外,這里的建議是在組合中加入組合模糊邏輯方法,以產生盡可能好的預測。模糊邏輯一詞來自模糊集合理論,用于處理近似而非精確的推理。相對于脆性邏輯,二元集有二元邏輯,模糊邏輯變量可能有一個真值,范圍在0和1之間,不受經典命題邏輯的兩個真值的限制。這種模糊加權模式與組合方法一起使用,可以得到時間序列的預測結果。

Augur(2016)對數據科學的歷史做了一個很好的總結。根據他的研究,"數據科學 "一詞最早出現在1974年,當時Peter Naur發表了題為 "計算機方法簡明調查 "的文章,并將其定義為:"處理數據的科學,一旦它們被建立起來,而數據與它們所代表的關系被委托給其他領域和科學。" 這個詞花了一段時間才流行起來,直到2010年才完全融入白話。數據科學家 "一詞通常歸功于2008年Facebook和LinkedIn的Jeff Hammerbacher和D. J. Patil。在2011年和2012年之間,"數據科學家 "的職位列表增加了15,000%,重點是與大數據的工作。到2016年,數據科學開始在人工智能領域根深蒂固,特別是在機器學習和深度學習的子領域。

付費5元查看完整內容
北京阿比特科技有限公司