亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)領域的不斷進步以及在關鍵部門整合AI系統的工作正在逐步改變社會的各個方面,包括國防部門。盡管人工智能的進步為增強人類能力和改善各種決策提供了前所未有的機會,但它們也帶來了重大的法律、安全、安保和倫理問題。因此,為了確保人工智能系統的開發和使用是合法的、道德的、安全的、有保障的和負責任的,政府和政府間組織正在制定一系列規范性文書。這種方法被廣泛稱為 "負責任的人工智能",或道德的或值得信賴的人工智能。目前,負責任的人工智能最引人注目的方法是開發和運作負責任或道德的人工智能原則。

聯合國裁研所的 "在國防中實現負責任的人工智能 "項目首先尋求對負責任的人工智能系統的研究、設計、開發、部署和使用的關鍵方面建立共同的理解。然后,它將審查負責任的人工智能在國防部門的運作情況,包括確定和促進良好做法的交流。該項目有三個主要目標。首先,它旨在鼓勵各國采用和實施能夠在開發和使用人工智能系統中實現負責任行為的工具。它還試圖幫助提高透明度,促進國家和其他關鍵人工智能行為者之間的信任。最后,該項目旨在建立對負責任的人工智能關鍵要素的共同理解,以及如何將其付諸實施,這可以為制定國際公認的治理框架提供參考。

本研究簡報概述了該項目的目標。它還概述了項目第一階段的研究方法和初步結果:制定共同的原則分類法和對各國采用的人工智能原則進行比較分析。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

本報告重點討論與人工智能系統可能缺乏可預測性而導致的有關風險--被稱為可預測性問題--及其對國家安全領域人工智能系統治理的影響。人工智能系統的可預測性表明人們可以在多大程度上回答這個問題:人工智能系統會做什么?可預測性問題既可以指人工智能系統的正確結果,也可以指不正確的結果,因為問題不在于這些結果是否符合系統工作的邏輯,而是在部署時是否有可能預見到這些結果。

人們越來越擔心,使用不可預測的人工智能系統為高風險決策提供信息可能會導致災難性的后果,這將破壞公眾對部署這些系統的組織的信任,并可能侵蝕政府的聲譽。在國家安全領域,人工智能的使用引入了一個新的不確定性來源,可能會阻礙風險管理程序,并可能使責任鏈變得混亂。在這個領域,可預測性問題的影響可能導致關鍵基礎設施的安全風險、個人權利和福祉的風險、沖突升級或外交影響。

在本報告中,我們首先從技術和社會技術的角度分析了可預測性問題,然后集中討論了英國、歐盟和美國的相關政策,考慮它們是否以及如何解決這個問題。從技術角度來看,我們認為,鑒于人工智能系統的設計、開發和部署的多層面過程,不可能考慮到所有的錯誤來源或可能產生的新行為。此外,即使在理想的情況下,在設計或開發階段沒有錯誤可以假設或檢測,一旦部署了人工智能系統,仍然可能發展出形式上正確的(但不想要的)結果,這在部署時是無法預見的。

我們通過關注人機編隊(HMT-AI)來分析可預測性問題的社會技術影響。人機編隊代表了一種越來越普遍的人工智能系統部署模式。在HMT-AI中,人類咨詢、協調、依賴、發展并與人工智能代理交換任務。由于HMT-AI結合了人類和人工的自主性,它們通過增加人工和人類代理及其環境之間的互動的數量和類型而加劇了可預測性問題。在這種情況下,我們發現可預測性問題的三個主要來源:人機交互、人員培訓和(過度)信任。人機交互可能會助長不可預測的結果,因為它們可以掩蓋、扭曲或過分詳細地描述人工智能系統的工作原理,而培訓計劃可能沒有考慮到人工智能技術的學習能力和HMT-AI的長期慣例建設。同樣,在HMTAI中,人類代理人不加批判地接受AI系統的結果,這種過度信任的動態也可能導致無法預測的結果。

在確定了可預測性問題的一些根本原因之后,我們分析了英國、歐盟和美國的政策,以評估這些原因是否在相關的政策文件中被涵蓋,如果是的話,如何以及在何種程度上被涵蓋。我們確定了四個主要主題和一個缺口。它們是:控制、監督和價值調整;資源提升的方法;可信賴人工智能的發展;以及缺乏對風險管理措施的關注,以遏制可預測性問題的影響。

我們的政策分析包括八個建議,以減輕與可預測性問題有關的風險。關鍵的建議是將治理方法集中在HMTAI上,而不僅僅是AI系統,并將可預測性問題概念化為多維度的,解決方案集中在HMT-AI組成的共同標準和準則上。在這些標準和準則中,可信人工智能的要求是特別相關的,應該與評估人工智能系統的可預測性的標準和認證計劃以及審計HMT-AI的程序結合起來。支持在國家安全中使用HMT-AI的決定的成本效益分析和影響評估應該考慮到可預測性問題及其對人權、民主價值的潛在影響,以及意外后果的風險。為了確保在部署潛在的不可預測的人工智能系統時進行充分的風險管理,我們建議調整ALARP原則--在合理可行的情況下盡量降低--作為制定HMT-AI中可預測性問題的人工智能特定風險評估框架的基礎。

擬議的基于ALARP的框架將提供有用的實際指導,但僅僅是這樣還不足以識別和減輕可預測性問題所帶來的風險。需要額外的政策、指導和培訓來充分考慮人工智能可預測性問題帶來的風險。人工智能系統支持的決策的影響越大,設計、開發和使用該系統的人的謹慎責任就越大,可接受的風險門檻也越低。這些分析和建議應該被理解為可操作的見解和實用的建議,以支持相關的利益相關者在國家安全背景下促進社會可接受的和道德上合理的人工智能的使用。

建議

建議1. 政府應撥出研究經費,發展公私合作,對HMT-AI進行縱向研究。這項研究應側重于HMT-AI中的新舊決策模式,以評估編隊協議建設和培訓對績效和控制措施的影響。重點應放在為HMT-AI的具體動態定義新的培訓協議,以及加快風險管理標準和HMT-AI績效評估的發展。

建議2. 應該建立一個專門的HMT-AI認證計劃,以促進行業對為HMT-AI設計的AI系統的設計要求和評估的共識。任務之間的通用性、有效的溝通、性能的一致性以及對新隊友的適應性都應該包括在這樣一個認證計劃中。在開發不足的ISO標準的基礎上,這個認證計劃還應該擴展到過程的可追溯性和決策的問責制,以及評估HMT-AI信任程度的審計機制。這對于抑制HMT-AI中的過度信任和自滿態度是必要的,這種態度維持或擴大了可預測性問題。

建議3. 對國家安全領域的可預測性問題的政策反應應該側重于管理HMT-AI團隊,而不是單獨的AI系統。

建議4. 國家安全領域的HMT-AI的成本效益分析(CBA)應該包括對AI系統的可預測性以及技術和操作層面的相關道德風險的評估。為了促進各安全機構之間的一致評估,應該定義一個評估人工智能系統可預測性的標準量表,在這個量表上,使用(或不使用)人工智能的選擇應該根據上下文的CBA以及考慮公眾對風險和相關利益的態度來證明。這個尺度的定義應屬于獨立的第三方行為者的職權范圍,即與部署HMT-AI的公共機構不同。

建議5. 與其說是 "更多 "或 "更少 "的可預測性,政策建議應側重于可預測性的權衡,明確具體建議旨在解決可預測性問題的哪個方面,以何種方式解決,以及它們有可能加劇哪些方面,哪些緩解措施將被落實到位。政策應該認識到,可預測性是一個多維度的概念,在一個層面上可預測性的收益可能會以另一個層面的損失為代價。

建議6. 關于國家安全中人工智能可預測性問題的政策應該在正式和操作層面上解決可信度和不可預測性之間的聯系。例如,應該給人工智能系統一個可修正的可預測性分數,這應該包括在對系統的可信任度的評估中。人工智能系統的可信賴性應包括成本效益分析,以評估不想要的行為在不同部署背景下可能帶來的風險。

建議7. 應該為不可預測的人工智能建立風險閾值,這些閾值將圍繞不可預測行為的風險嚴重程度映射到其自身的可預測程度(例如,劃分為已知的已知因素、已知的未知因素等)。這些閾值反過來將為風險管理過程的發展提供信息,允許根據風險的可預測性及其影響對其進行優先排序。

建議8. 應該制定一個基于ALARP的框架,以評估不可預測的人工智能和HMT-AI的風險,并為任何給定的環境確定可接受的最大程度的不可預測性。這個框架應該包括:

  • 對特定人工智能系統和HMT-AI的可預測程度的定量評估;
  • 對導致部署人工智能系統的設計、開發和/或采購步驟的可追溯性的評估;
  • 對部署條件的評估,例如,HMT-AI、操作員(或HMT-AI成員)的培訓水平、交互的透明程度、人類對AI系統的控制水平;
  • 對部署該系統的潛在風險和預期收益進行成本效益分析(根據建議4);
  • 對假設情況的分析,以考慮風險暴露或緩解措施的有效性如何隨部署情況而變化;
  • 人為推翻系統的協議和補救機制。

付費5元查看完整內容

人工智能(AI)系統很可能會改變軍事行動。本文探討了人工智能系統如何影響準備和進行軍事行動的主要工具,并受其影響。因此,本文在戰略、理論、計劃、交戰規則和命令的背景下分析和討論了人工智能,以確定機會、挑戰和開放性問題的位置,并提出總體意見。本文采取了一個廣泛的分析角度,能夠根據新的政策和技術發展以及對政治、軍事、法律和道德觀點的考慮,對這一問題進行總體審查。因此,本文提供了一些見解和途徑,以推動對人工智能在軍事行動中的適當整合、管理和使用的進一步思考、研究和決策。

付費5元查看完整內容

人工智能(AI)在國防領域的使用帶來了重大的倫理問題和風險。隨著人工智能系統的開發和部署,澳國防部將需要解決這些問題,以維護澳大利亞國防軍的聲譽,維護澳大利亞的國內和國際法律義務,并支持國際人工智能制度的發展。

這份報告《案例研究:國防中的倫理人工智能方法應用于戰術指揮和控制系統》是總理與內閣部(PM&C)、澳國防部和澳大利亞國立大學(ANU)3A研究所之間的科技(S&T)合作的產物。它使用《國防中的倫理人工智能方法》[1]來探討設想中的人工智能戰術指揮和控制(C2)系統的倫理風險,該系統整合了各種自主功能,以協助單個人類操作員同時管理多個無人駕駛車輛。

使用 "國防中的倫理人工智能方法 "對這一設想的C2系統進行分析,為三個利益相關者群體提供了關鍵的發現:澳國防部;人工智能技術開發者,以及那些尋求使用或迭代 "國防中的倫理人工智能方法 "的人。

對于澳國防部,該報告確定了關鍵的政策差距,并建議在以下方面采取行動。

  • 對人工智能所做的決定和使用人工智能所做的決定制定一個問責框架

  • 對操作員、指揮和系統開發人員的教育和培訓

  • 管理支撐許多人工智能應用的數據,包括其收集、轉換、存儲和使用。

如果不采取行動,這些差距使澳國防部容易受到重大的聲譽和業務損害。

對人工智能技術開發者的其他關鍵發現涉及到有效性、整合、授權途徑、信心和復原力等主題。總的來說,這些發現鼓勵開發者考慮最有效的系統或算法(例如,在速度或準確性方面),是否一定是為決策者提供幫助的最佳選擇。在某些情況下,與規范性決策更一致的效率較低的算法可能更合適。此外,顯然需要研究哪些信息是做出好的判斷所必需的(特別是在問題復雜、背景重要的情況下);以及應該如何快速傳達這些信息。通過考慮作為分析的一部分而開發的七種假設的道德風險情景,可以進一步探討這些關鍵的發現。

對于那些尋求應用或迭代《國防倫理人工智能方法》的人來說,報告建議開發更多的工具,以幫助從業者確定對其特定需求具有最大相關性和效用的領域;以及一套全面的定義,以幫助應用該方法。

付費5元查看完整內容

提綱

  • 戰術無人機營--一個場景
  • 背景和框架
    • 未來戰斗行動的開展
    • 人工智能
    • 政治和法律框架
  • 目標
    • G1:提高日常工作的效率
    • G2: 提高行動能力
    • G3: 解決潛在的能力差距
  • 驅動力
    • DF1: 潛在對手的人工智能能力
    • DF2:作戰行動的動態性不斷增強
    • DF3: 更少的合格人員
    • DF4: 資源短缺
    • DF5: 信息的數量和密度
    • DF6:信息技術和人工智能發展的動態性
  • 陸軍發展的行動領域(FoA)
    • FoA1:現有系統的進一步發展
    • FoA2:新的武器系統和武器裝備
    • FoA3:人員/物資的人工智能能力管理
    • FoA4:在培訓中使用人工智能
  • 組織結構的行動領域
    • 招聘人工智能專家
    • 軍隊、研究和工業之間的合作
    • 國際合作
    • 使用測試和實驗結構
    • AI數據基礎設施和組織
  • 總結
  • 附件:德國陸軍概念和能力發展中的實施措施

在軍事上有許多行動領域使用人工智能。除了對正在使用的系統進行持續的進一步開發和人工智能鑒定,特別是具有新特性的未來系統將能夠從人工智能的應用中受益。日常工作中的人員和物資管理,以及培訓,也提供了主要的潛在行動領域。

一個精心定義的政治和法律框架是必不可少的,特別是對于軍事力量的使用。因此,目前和將來使用自動化和自主系統必須符合FMoD的政治和法律要求。除了政治和法律方面,從軍事角度來看,使用致命性自主武器系統也是一種不可取的、非預期的選擇。

人工智能是一種高技術,需要大量的專業知識和開發努力。為了實現這一目標,德國陸軍正在尋求與歐洲工業和研究的密切合作。在德國陸軍發展的背景下已經建立的技術與能力(TmC)模式正被用作進一步活動的起點。

為了能夠充分應對未來所有與人工智能相關的挑戰,德國陸軍必須擁有合格的人工智能人才。在這方面,聯邦國防軍面臨著來自民用部門的強烈競爭。為了滿足短期內的需求,軍隊正在依靠現有的OR/M&S人員。

目前所有的數據表明,利用人工智能的方法和程序可以大幅提高陸軍的效率和效力。為了能夠適當地應對即將到來的挑戰,必須采取與組織程序和結構有關的措施。因此,"陸軍中的人工智能 "立場文件建議為陸軍設立人工智能工作臺,為陸軍設立人工智能開發中心,為陸軍設立人工智能數據中心。只有這樣才能全面覆蓋人工智能領域的創新、人工智能系統的培訓和數據的提供。

下文將在附件中詳細介紹使早期實現成為可能所需的所有措施。

德國陸軍概念和能力發展中的實施措施

2018/2019年,在德國陸軍概念和能力發展中心開展了關于人工智能(AI)主題的 "技術與能力 "形式。在一系列研討會的過程中,根據北約綜合作戰計劃指令(COPD),確定了人工智能在陸軍所有能力領域以及武器和服務中的應用,并按行動路線進行分類。下面詳細列出了五個應用領域,每個領域都有不同的行動路線。

根據內容和發展的成熟度,這些措施和行動方針的實施是通過CD&E和R&T活動進行的,或者在CPM的范圍內通過適當的舉措進行。與聯邦國防軍的能力概況相匹配是至關重要的。陸軍概念和能力發展中心負責實施。

  • 1 圖像分析

這個領域匯集了基于人工智能的目標識別和分類系統領域的所有活動。這些項目正在逐步建立起一種功能,以模塊化的方式擴展陸軍的各種保護和效果組件,包括從ISR到基于效果的自動系統。一個重點是將現有的民用方法用于軍事目的。

  • 2 戰術無人機

這一領域匯集了與不同幾何形狀的小型無人機系統有關的所有活動。這些活動包括從偵察到障礙物,再到進攻性武器系統。不管是什么活動,重點都是在防御和部署自己的TaUAS的能力。一個重要的挑戰是,特別是創造出足夠堅硬和強大的TaUAS,使其能夠使用被動傳感器系統,在非常有限的通信和沒有GPS的情況下,在白天和晚上半自主地行動。

  • 3 下一代戰斗管理系統(NGBMS)

這一領域匯集了所有側重于指揮和控制的活動。它既包括實現單一的功能,在適用的情況下,也可以在已經進行的活動中進行改裝,也包括將可能用于超戰爭情況的系統和方法概念化。沒有任何跡象表明有任何明顯的雙重用途。挑戰在于對指揮和控制過程的相關部分進行建模,以創建超戰可行的指揮和控制組件。理想情況下,指揮和控制過程的一部分可以按照博弈論的思路被描述為一個游戲,這樣人工智能就可以在決策支持或指揮和控制的自動手段的意義上使用。MUM-T是這方面的一個關鍵挑戰。

  • 4 材料和基礎設施

這一領域匯集了后勤、維護和IT管理領域的所有活動。該行動路線包含了各種可以相對快速實施的措施,并有助于更好地應對當前在支持方面的挑戰。許多力爭實現的功能正在民用部門以非常類似的形式使用或開發。

  • 5 分析方法

這個領域匯集了各種單獨的解決方案,其中人工智能和大數據可以為有關數據分析和優化的經典問題提供支持。數字化和人工智能提供了一個新的質量機會,因為某些問題(識別,......)可以實時和提前解決(也適用于車輛)或技術設備(如防火墻)。

付費5元查看完整內容

當前和未來的網絡威脅和攻擊促使美國防部需要一個超越傳統周邊防御方法的零信任方法。美國防部打算在27財年之前實施該戰略和相關路線圖中概述的獨特的零信任能力和活動。

該戰略設想的美國防部信息企業由一個全面實施的、整個部門的零信任網絡安全框架來保障,該框架將減少攻擊面,實現風險管理和伙伴關系環境中的有效數據共享,并迅速遏制和補救對手的活動。

該戰略概述了四個高層次的綜合戰略目標,確定了該部為實現其零信任愿景將采取的行動。

  • 零信任文化的采用--所有美國防部人員都意識到、理解、接受培訓,并致力于零信任的思維方式和文化,支持零信任的整合。
  • 美國防部信息系統的安全和防御--網絡安全實踐在新的和遺留系統中納入零信任,并將其付諸實施。
  • 技術加速--技術部署的速度等同于或超過行業的進步。
  • 零信任的實現 - 部門和組件級的流程、政策和資金與零信任原則和方法同步。

面對不斷變化的對手威脅和新技術,實施零信任將是一個持續的過程。隨著技術的變化和對手的發展,更多的 "零信任 "增強措施將在隨后幾年被納入。

付費5元查看完整內容

小型無人駕駛飛機系統(sUAS)的指數式增長為美國防部帶來了新的風險。技術趨勢正極大地改變著小型無人機系統的合法應用,同時也使它們成為國家行為者、非國家行為者和犯罪分子手中日益強大的武器。如果被疏忽或魯莽的操作者控制,小型無人機系統也可能對美國防部在空中、陸地和海洋領域的行動構成危害。越來越多的 sUAS 將與美國防部飛機共享天空,此外美國對手可能在美國防部設施上空運行,在此環境下美國防部必須保護和保衛人員、設施和資產。

為了應對這一挑戰,美國防部最初強調部署和使用政府和商業建造的物資,以解決無人機系統帶來的直接風險;然而,這導致了許多非整合的、多余的解決方案。雖然最初的方法解決了近期的需求,但它也帶來了挑戰,使美國防部跟上不斷變化問題的能力變得復雜。為了應對這些挑戰,美國防部需要一個全局性的戰略來應對無人機系統的危害和威脅。

2019年11月,美國防部長指定陸軍部長(SECARMY)為國防部反小型無人機系統(C-sUAS,無人機1、2、3組)的執行機構(EA)。作為執行機構,SECARMY建立了C-sUAS聯合辦公室(JCO),該辦公室將領導、同步和指導C-sUAS活動,以促進整個部門的統一努力。

美國防部的C-sUAS戰略提供了一個框架,以解決國土、東道國和應急地點的sUAS從危險到威脅的全過程。國防部的利益相關者將合作實現三個戰略目標:(1)通過創新和合作加強聯合部隊,以保護國土、東道國和應急地點的國防部人員、資產和設施;(2)開發物資和非物資解決方案,以促進國防部任務的安全和可靠執行,并剝奪對手阻礙實現目標的能力;以及(3)建立和擴大美國與盟友和合作伙伴的關系,保護其在國內外的利益。

美國防部將通過重點關注三個方面的工作來實現這些目標:準備好部隊;保衛部隊;和建立團隊。為了準備好部隊,國防部將最大限度地提高現有的C-sUAS能力,并使用基于風險的方法來指導高效和快速地開發一套物質和非物質解決方案,以滿足新的需求。為了保衛部隊,國防部將協調以DOTMLPF-P考慮為基礎的聯合能力的交付,并同步發展作戰概念和理論。最后,作為全球首選的軍事伙伴,國防部將通過利用其現有的關系來建設團隊,建立新的伙伴關系,并擴大信息共享,以應對新的挑戰

通過實施這一戰略,美國防部將成功地應對在美國本土、東道國和應急地點出現的無人機系統威脅所帶來的挑戰。在這些不同操作環境中的指揮官將擁有他們需要的解決方案,以保護國防部人員、設施、資產和任務免受當前和未來的無人機系統威脅。

付費5元查看完整內容

澳大利亞是一個領先的人工智能國家,擁有強大的盟友和伙伴關系。澳大利亞已經優先發展機器人、人工智能和自主系統,以發展軍隊的主權能力。澳大利亞承諾對所有新的戰爭手段和方法進行第36條審查,以確保武器和武器系統在可接受的控制體系內運行。此外,澳大利亞已經對人工智能對人權和情報組織的風險進行了重大審查,并承諾在安全和國防領域制定道德準則和框架。澳大利亞致力于經合組織以價值觀為基礎的負責任的人工智能管理原則,并采用一套國家人工智能道德原則。雖然澳大利亞還沒有專門為澳大利亞國防組織(ADO)采用人工智能治理框架;國防科技集團(DSTG)已經發布了 "國防中的道德人工智能方法"(MEAID)技術報告,其中包括管理人工智能軍事應用的道德和法律風險的框架和務實的工具。澳大利亞可以發揮領導作用,將法律和倫理考慮納入其ADO人工智能能力獲取過程。這需要一個政策框架來定義其法律和道德要求,由國防工業的利益相關者提供信息,并提供一個實用的方法來將法律和道德風險緩解戰略納入采購過程。

付費5元查看完整內容

2022年6月美國防部副部長凱瑟琳-希克斯簽署了國防部負責任的人工智能戰略和實施途徑(RAI S&I Pathway),該途徑指導國防部(DoD)實現其可信人工智能(AI)生態系統的目標。美國防部必須將自己轉變為一個為人工智能做好準備的組織,將負責任的人工智能(RAI)作為一個突出的特征,以保持其競爭優勢。

負責任的人工智能方法意味著什么

RAI是一個信任之旅。它是一種設計、開發、部署和使用的方法,可以確保我們系統的安全,并合乎道德的使用RAI。RAI體現在道德準則、測試標準、問責檢查、使用指導、人類系統整合和安全考慮上。

正如美國防部長奧斯汀所說:"負責任的人工智能是尖端科技與永恒價值的結合點。我們不相信我們需要在它們之間做出選擇,我們也不相信這樣做會成功。我們對人工智能的使用必須加強我們的民主價值觀,保護我們的權利,確保我們的安全,并捍衛我們的隱私。"

RAI S&I路徑是DoD為確保建設一個可信人工智能生態系統,以發展和加速人工智能而采取的前進方向。國防部的人工智能任務是建立強大的、有彈性的和可靠的人工智能系統,同時在人工智能道德的全球對話中成為領導者和倡導者。該指南通過RAI管理、作戰人員信任、人工智能產品和采購生命周期、需求驗證和人工智能勞動力等RAI實施宗旨,灌輸并實施國防部人工智能道德原則。這種整體方法詳細說明了目標、關鍵的努力方向,以及加強每個領域的一套初步工具。

這一旅程始于2018年,美國防戰略呼吁 "以合法和道德的方式使用人工智能,以促進我們的價值觀",同時國會授權 "為該部制定適當的道德、法律和其他政策,管理人工智能的發展和使用"。國防部于2020年2月正式通過了《國防部人工智能倫理原則》--世界上第一個這樣做的軍隊。為了幫助將人工智能植入整個部門,聯合人工智能中心(JAIC)于2020年9月發布了國防部人工智能教育戰略。從那時起,RAI已經向國防部各級人員進行了教育和培訓。2021年5月26日,國防部重申了國防部對RAI的承諾,并指示根據其RAI實施宗旨,"國防部對RAI采取整體的、綜合的、有紀律的方法 "進行實施,而S&I路徑正是建立在這些宗旨之上的。

RAI S&I途徑促進了國防部在追求人工智能加速的過程中對負責任的行為、過程和結果的承諾。最終,它提供了國防部推進人工智能的戰略方法,同時促進了操作的靈活性,保障了能力部署,并支持可擴展性。鑒于這一成就和其他成就,國防部已經準備好穿越軍事現代化的漫長道路,同時確保美國公民和全球合作伙伴的信心。

RAI實施宗旨包括:(1)調整管理結構和流程,持續監督國防部人工智能使用;(2)系統操作員需達到標準水平的技術熟練程度,以創建可信的人工智能系統和人工智能賦能系統;(3)考慮人工智能采辦風險,并使人工智能開發速度滿足國防部需求;(4)使用需求驗證程序,確保人工智能能力與作戰需求保持一致,同時解決相關的人工智能風險;(5)通過國內和國際合作促進對設計、開發、部署和使用負責任人工智能的共同理解;(6)確保所有美國防部人工智能人員理解實施人工智能的技術、開發過程和操作方法。

報告前言

雖然人工智能(AI)并不新鮮,但過去十年的技術突破已經大大改變了國家安全格局。我們的對手和競爭者正在大量投資于人工智能和人工智能支持的能力,威脅到全球安全、和平和穩定。為了在一個數字競爭的世界中保持軍事優勢,美國國防部(DoD)必須接受人工智能技術,以跟上這些不斷變化的威脅。以合法、合乎道德、負責任的方式利用新技術是我們的核心精神。

為了確保我們的公民、作戰人員和領導人能夠信任美國防部人工智能能力的產出,國防部必須申明,在設計、開發、測試、采購、部署和使用人工智能時,我們的軍隊對合法和道德行為的堅定承諾。負責任的人工智能(RAI)戰略和實施(S&I)途徑通過定義和溝通我們利用人工智能的框架,照亮了我們的前進道路。它有助于消除不確定性和猶豫不決--并使我們能夠更快地前進。在我們與盟友和聯盟伙伴并肩工作以促進民主規范和國際標準的過程中,從立場上整合道德規范也使國防部有能力保持盟友和聯盟伙伴的信任。

RAI S&I路徑使我們的RAI政策易于實施。它指導了DoD實施道德原則的戰略方法,以及更廣泛地推進RAI--同時確保操作的靈活性,保持能力部署的速度,提供可擴展性,并優先考慮資源的有效分配。這份文件是我們在加速RAI的過程中邁出的關鍵一步,并進一步推動了國防部在追求人工智能技術過程中對負責任的行為、過程和結果的承諾。

美國防部常務副部長希克斯(Kathleen I I. llicks )

目錄

  • 1 執行總結
  • 2 RAI戰略
    • 2.1 背景
    • 2.2 國防中的RAI
    • 2.3 預期的最終狀態
    • 2.4 DoD關于RAI的基本原則
  • 3 RAI實施路徑
    • 3.1 概述
    • 3.2 實施方法
    • 3.3 實施路線
      • 原則1:RAI管理
      • 原則2: 作戰人員信任
      • 原則3: 人工智能產品和采購生命周期
      • 原則4:需求驗證
      • 原則5:負責任的人工智能生態系統
      • 原則6:人工智能勞動力
  • 4 結論
  • 5 附加資源

報告執行總結

人工智能的進步已經證明有能力改變現代社會的每個行業。這些影響擴展到商業、金融、生產和社會行為。美國防部對人工智能的投入,專注于采用符合美國的價值觀、共同的民主理想和軍隊對合法和道德行為的堅定承諾的方式利用這一技術。

2021年5月,美國防部副部長發布了一份備忘錄("RAI備忘錄"),確立并指導該部對RAI開發采取整體、綜合和有紀律的方法。這份RAI備忘錄提出了以下基本原則,作為指導整個部門實施RAI的優先領域:RAI管理、作戰人員信任、AI產品和采購生命周期、需求驗證、負責任的AI生態系統和勞動力。

由此產生的美國防部RAI S&I途徑是圍繞六個原則組織的,并確定了努力的方向:

  • 調整管理結構和流程,持續監督國防部人工智能使用,同時考慮到技術的使用環境。

  • 系統操作員需達到標準水平的技術熟練程度,以創建可信的人工智能系統和人工智能賦能系統。

  • 在人工智能產品和采購生命周期中保持適當的謹慎,以確保從人工智能項目一開始就考慮到潛在的人工智能風險,并努力減輕或改善這種風險,減少意外后果,同時以美國防部所需的速度扶持人工智能發展,以滿足國防戰略。

  • 利用需求驗證過程,確保利用人工智能的能力與業務需求相一致,同時解決相關的人工智能風險。

  • 通過國內和國際參與,促進對RAI設計、開發、部署和使用的共同理解。

  • 確保所有美國防部人工智能工作人員對技術、其開發過程和適用于實施人工智能的操作方法有適當的了解,與他們在2020年美國防部教育戰略中概述的原型角色的職責相稱。

通過在軍事道德和人工智能安全方面的領導,美國防部將贏得我們的服務成員、文職人員和公民的信任。我們也鼓勵RAI在全球范圍內的發展和使用,并加強我們與世界各地的盟友和合作伙伴解決現代國防挑戰。

付費5元查看完整內容

本報告描述了北約第一個多領域小組IST-173所取得的成果。與會者包括來自不同小組和團體的科學家,以及來自北約機構和軍事利益攸關方、學術界和工業界的科學家,這為AI和軍事決策大數據這一主題創造了第一個利益共同體。該團隊在實踐中證明了一種新的STO方法的可行性,即任務導向研究,以激發公開對話、自我形成的研究合作和跨小組活動。此外,該方法還有助于為人工智能和軍事決策大數據這兩個主要能力領域聯合開發北約首個科技路線圖,以應對北約在這些領域面臨的作戰挑戰。由于新的組織(軍事利益相關者積極參與的多領域團隊)和這種創新方法的應用,確定了一些經驗教訓,應該支持軍事決策AI和大數據的進一步操作。

付費5元查看完整內容

?以消費者和企業為中心的新技術的爆炸式增長已成為美國民眾體驗醫療保健和福祉的顛覆性力量。這些技術——統稱為“數字健康”——有可能改變個人、家庭和社區管理他們的醫療保健和福祉的方式。

美國機構和其他利益相關者正在對新工具進行大量投資;獲取、提供和使用數據的方法;以及提供衛生服務的創新方式。然而,對于指導眾多創新實現共同目標、協作工作和高優先級成果的國家優先事項集,并沒有達成一致意見。需要一個包括協作治理流程在內的戰略框架,以建立一個值得信賴、透明和公平的數字健康生態系統。

被統稱為“數字健康”的技術正在擾亂美國乃至世界各地的醫療保健和福祉現狀。在這方面,COVID-19大流行似乎是一個分水嶺。環境促使遠程保健的使用激增,在這一過程中產生了關于遠程保健的交付、影響、價值和可持續性方面的數據和潛在教訓。大流行可能產生對個人、家庭和社區產生積極影響的轉變。替代方案——在當前系統之上簡單地分層數字技術——將不僅僅維持現狀。這將使那些在連通性、數字素養和獲得護理方面已經落后的人的處境更加糟糕,并將進一步為濫用、欺詐和浪費打開大門。在一個如此富有和創新能力的國家,這樣的結果是不可接受的。國家需要采取戰略性行動,充分考慮數字衛生帶來的獨特挑戰和機遇。

該戰略為指導美國數字健康生態系統的發展提供了一個框架。該戰略包括六個目標,每個目標都有建議的行動。總的來說,這些目標旨在實現數字健康生態系統推動的改善國民健康和福祉的愿景。

  • 目標1。通過及時、安全的數據交換,形成互聯的健康生態系統。醫療數據的語義互操作性對于推進數字醫療服務至關重要。一個聯網的美國生態系統將在需要的時候安全可靠地將可操作的數據傳輸給需要的人,這將改善健康結果。能否成功實現這一愿景,將取決于患者身份識別、衛生數據和衛生架構的標準化格式,以及建立一個安全、可靠和有彈性的數字衛生生態系統。
  • 目標2。增強個人能力,使其能夠負責自己的健康和福祉。數字技術和工具應使個人能夠在任何地點、任何時間、無需特別努力地更好地管理自己的健康和獲取健康信息。實現這一目標的基礎是個人擁有個人健康數據,并輔之以部署資源加強數字掃盲。數字設備和系統必須為個人和提供者提供有意義和可共享的信息,并使個人能夠更多地參與到最大限度地提高他們的健康和福祉中。
  • 目標3。將人工智能(AI)打造為數字健康值得信賴的基石。人工智能可以以多種方式加強醫療保健的數字化交付。它可以提高護理服務的生產率和效率,允許醫療系統向更多的人提供更多更好的護理,改善醫療從業者的經驗,并增加接受者對其護理的信任。利用人工智能需要它的應用是值得信賴的,具有透明、公平、公平和可靠的特點。
  • 目標4。使快速共享公共衛生綜合數據制度化。公共衛生當局及其合作伙伴需要獲得完整、及時的數據,以支持決策。數字技術可以使信息在聯邦公共衛生生態系統中流動。至關重要的是匯集個人和提供者從初級保健和公共衛生領域生成的數據。采用一種綜合的和可互操作的系統方法來資助公共衛生可以維持這些變化。
  • 目標5。建設一支熟練應用數字衛生的勞動力隊伍。一支可持續的衛生人力隊伍將使用新技術提供以人為本的綜合優質護理。數字衛生技術將使個人能夠在醫療保健和社會服務部門獲得以家庭和社區為中心的協調和協作的衛生服務,并得到數字增強的勞動力隊伍的支持。
  • 目標6。擴大數字公平,以實現衛生公平。數字技術現在是獲得衛生服務、支持和信息的基礎。個人必須能夠獲得和采用負擔得起的寬帶技術,并充分熟悉數字系統,以滿足其個人和家庭的健康相關需求。

本文檔旨在為領導者提供實施變革的框架。其中涉及的變化范圍很廣——不僅是技術上的,還有政治、社會和文化上的。這里的想法的實施需要大量的時間、金錢、資源的投資,最重要的是領導能力。其他國家也在國家規劃的指導下進行這些投資。美國必須采取明智的行動,但不能拖延,以實現數字衛生生態系統的愿景。

戰略的最后一個組成部分是治理。我們需要對支離破碎且過時的治理結構進行廣泛改革。避免重復、協調努力并代表全國做法的戰略投資將受益于數字衛生。該策略詳細說明了所需治理結構的關鍵組成部分,并建議了實現有效治理機制的步驟。

付費5元查看完整內容
北京阿比特科技有限公司