亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

Drone Wars UK 的最新簡報著眼于人工智能目前在軍事環境中的應用方式,并考慮了所帶來的法律和道德、作戰和戰略風險。

人工智能 (AI)、自動決策和自主技術已經在日常生活中變得普遍,并為顯著改善社會提供了巨大的機會。智能手機、互聯網搜索引擎、人工智能個人助理和自動駕駛汽車是依賴人工智能運行的眾多產品和服務之一。然而,與所有技術一樣,如果人們對人工智能了解甚少、不受監管或以不適當或危險的方式使用它,它也會帶來風險。

在當前的 AI 應用程序中,機器為特定目的執行特定任務。概括性術語“計算方法”可能是描述此類系統的更好方式,這些系統與人類智能相去甚遠,但比傳統軟件具有更廣泛的問題解決能力。假設,人工智能最終可能能夠執行一系列認知功能,響應各種各樣的輸入數據,并理解和解決人腦可以解決的任何問題。盡管這是一些人工智能研究計劃的目標,但它仍然是一個遙遠的前景。

AI 并非孤立運行,而是在更廣泛的系統中充當“骨干”,以幫助系統實現其目的。用戶不會“購買”人工智能本身;他們購買使用人工智能的產品和服務,或使用新的人工智能技術升級舊系統。自主系統是能夠在沒有人工輸入的情況下執行任務的機器,它們依靠人工智能計算系統來解釋來自傳感器的信息,然后向執行器(例如電機、泵或武器)發出信號,從而對機器周圍的環境造成影響.

人工智能被世界軍事大國視為變革戰爭和獲得戰勝敵人的優勢的一種方式。人工智能的軍事應用已經開始進入作戰使用,具有令人擔憂的特性的新系統正在迅速推出。與軍事和公共部門相比,商業和學術界已經引領并繼續引領人工智能的發展,因為它們更適合投資資金和獲取研究所需的資源。因此,未來人工智能的軍事應用很可能是對商業領域開發的技術的改編。目前,人工智能正在以下軍事應用中采用:

  • 情報、監視和偵察
  • 賽博戰
  • 電子戰
  • 指揮控制和決策支持
  • 無人機群
  • 自主武器系統

人工智能和英國軍事

綜合審查和其他政府聲明毫無疑問地表明,政府非常重視人工智能的軍事應用,并打算繼續推進人工智能的發展。然而,盡管已經發布了概述使用自動化系統的學說的出版物,但迄今為止,英國國防部 (MoD) 仍然對管理其人工智能和自主系統使用的倫理框架保持沉默,盡管已經做出了一些重大決定。軍事人工智能的未來用途。

英國國防部一再承諾發布其國防人工智能戰略,預計該戰略將制定一套高級倫理原則,以控制軍事人工智能系統的整個生命周期。該戰略是在與來自學術界和工業界的選定專家討論后制定的,盡管政府尚未就與人工智能的軍事用途相關的倫理和其他問題進行公開磋商。該戰略的主要目的之一是向行業和公眾保證,國防部是人工智能項目合作的負責任合作伙伴。

與此同時,在沒有任何道德指南的情況下,計劃和政策正在迅速推進,主要問題仍未得到解答。英國軍隊在什么情況下會采用人工智能技術?政府認為何種程度的人為控制是合適的?風險將如何解決?英國將如何向其盟友和對手證明英國打算采取有原則的方法來使用軍事人工智能技術?

軍事人工智能系統帶來的風險 上述人工智能的每一種不同的軍事應用都會帶來不同的風險因素。作為國防部總部后臺操作的一部分,對數據進行排序的算法會引發不同的問題和擔憂,并且需要與自主武器系統不同級別的審查。

盡管如此,目前正在開發的人工智能系統無疑會對生命、人權和福祉構成威脅。軍事人工智能系統帶來的風險可以分為三類:道德和法律、操作和戰略。

道德和法律風險

  • 遵守戰爭法: 目前尚不清楚機器人系統,特別是自主武器如何能夠滿足戰爭法制定的致命決定和保護非戰斗人員的標準。

-問責制:目前尚不清楚如果出現問題,誰來承擔責任:如果計算機運行不可預測并因此犯下戰爭罪行,懲罰它是沒有意義的。

  • 人權和隱私:人工智能系統對人權和個人隱私構成潛在威脅。

  • 不當使用:在戰斗環境中處于壓力之下的部隊可能會試圖修改技術以克服安全功能和控制。

作戰應用風險

  • 偏見的技術來源:人工智能系統的好壞取決于它們的訓練數據,少量損壞的訓練數據會對系統的性能產生很大影響。

  • 偏見的人為來源:當人類濫用系統或誤解其輸出時,可能會導致偏見。當作戰員不信任系統或系統非常復雜以至于其輸出無法解釋時,也會發生這種情況。

  • 惡意操縱:軍用 AI 系統與所有聯網系統一樣,容易受到惡意行為者的攻擊,這些行為者可能試圖干擾、黑客攻擊或欺騙系統。

戰略風險

  • 降低門檻:人工智能系統帶來了政治領導人在沖突中訴諸使用自主軍事系統而不是尋求非軍事選擇的風險。

  • 升級管理:涉及人工智能的軍事行動的執行速度降低了審議和談判的空間,可能導致快速意外升級并造成嚴重后果。

  • 軍備競賽和擴散:對軍事人工智能的追求似乎已經引發了軍備競賽,主要和地區大國競相發展其能力以保持領先于競爭對手。

  • 戰略穩定性:如果先進的人工智能系統發展到能夠預測敵人戰術或部隊部署的程度,這可能會產生高度不穩定的后果。

本簡報列出了為人工智能設想的各種軍事應用,并強調了它們造成傷害的可能性。它認為,減輕軍事人工智能系統帶來的風險的建議必須基于確保人工智能系統始終處于人類監督之下的原則。

迄今為止,公眾對人工智能和機器人技術進步所帶來的社會變化和風險似乎知之甚少。這份簡報的部分目的是為了敲響警鐘。人工智能可以而且應該用于改善工作場所的條件和對公眾的服務,而不是增加戰爭的殺傷力。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

摘要

美國、她的盟國和對手正在為民用和軍事應用擁抱計算環境和技術(以下簡稱AI)的進步。我們的工作建議探討自主和半自主系統中的一個核心矛盾,即無人系統的部署長度(停留時間)與因不定期維護導致的單個系統故障和因對手行動導致的故障之間的基本權衡。本文的獨特之處在于,它將從政策的角度以及應用統計學的角度來探討這個問題,并為更廣泛的無人系統的采購和使用提供見解。

引言

信任一個無人系統意味著什么?這個看似無關緊要的問題是無人駕駛技術的各種民用和軍用應用中的一個核心問題。隨著世界變得越來越自動化,人類看護者的監督越來越少,自主系統將在有限的監控下長期忍受下去。雖然具有長時間續航能力的自主系統可以成為民用和軍用海上監測的寶貴資產,但自主系統群的衰落是一個不可避免的現實。但是,預期的衰減速度和實際速度之間的差異可以為無人系統星座的惡意干擾提供一個早期指標。

上述分析提出了一個重要的問題,那就是當檢測到沒有反應而假定某個系統被摧毀時的故障歸屬。如果無響應是系統失敗的唯一指標,它可能是由各種因素造成的,包括環境、機械故障或最令人擔憂的損耗,我們將其定義為旨在使無人駕駛系統喪失功能并加以摧毀的惡意敵方行動。使用這個定義,損耗與失敗是分開的,因為失敗是由不涉及有目的的敵方行動的情況造成的。對于軍事平臺來說,損耗是最嚴重的情況,因為這些平臺上可能攜帶著操作員不希望落入對手軍隊手中的機密傳感器和有效載荷。

同樣,了解自然退化模式可以使一個國家以一種難以區別于隨機故障的方式使對手的系統退化。這樣的方法可以使一個國家有能力參與進攻性行動,或者在紅方參與軍事行動之前限制藍方對跡象和警告(I&W)的探測。 我們在本說明中的貢獻是在一個統一的結構中考慮無人駕駛系統退化的可靠性和博弈方面。我們的論文結構如下。在第二節中,我們從應用數學和政策的角度回顧文獻。在第三節中,我們對可靠性和博弈論進行了初步的、數學上的統一闡述。在第四節中,我們探討了具體的方案,最后總結了結論并為未來的分析提供建議。

付費5元查看完整內容

摘要

任務指揮是一種分散指揮和控制的概念,它試圖將戰爭的克勞塞維茨的混亂性質作為一種優勢,通過允許下屬軍官在其指揮官的意圖范圍內行使主動權,并利用他們對其部署區域的更好的態勢感知,使采用它的一方獲得決策優勢。任務指揮,作為一種分散的軍事行動方法,被大多數西方武裝部隊作為一種理論并采用。然而,信息技術已經發展到這樣的程度,今天的指揮官們擁有先進的指揮和控制系統,與不遠的過去相比,這些系統使他們對局勢的認識和通信能力有了極大的提高。因此,克勞塞維茨的 "戰爭迷霧 "和 "摩擦 "概念受到了質疑,相應地,任務指揮也受到了質疑。

本文探討了在現代信息時代的戰爭環境中,任務指揮是否仍然是一個相關的指揮和控制概念。在此背景下,我不僅考察了該方法在戰爭中的有用性,從過去到今天,而且還考慮到了該舉措對培養有能力和有效力的軍事領導人的重要性。

本文表明,現代指揮和控制系統的能力使集中指揮不僅成為可能,而且更加有效。然而,戰爭仍然是一種混亂的現象。這類系統的冗余和彈性至關重要,在出現故障時,下屬指揮官必須有能力單獨行動。

引言

任務指揮(Auftragstaktik)被許多學者和軍官認為是德國軍事藝術在現代戰爭中的最重要貢獻。至少在理論上,任務指揮受到北約大多數武裝力量的贊揚和提倡,他們強調地方指揮官在戰場上行使分散控制和主動權的重要性,以戰勝戰爭的不確定性并取得軍事行動的成功。

同時,大眾媒體和社會媒體的發展大大增加了軍事行動對社會的影響,至少在民主國家。今天,由于信息的快速無序流動和社交媒體的影響,即使是小的戰術行動也會對公眾輿論產生不成比例的影響。因此,政治和軍事領導人試圖對軍事行動進行嚴格的集中控制,以避免發展出不必要的情況。在這種情況下,任務指揮作為一個概念很難被接受和實施,因為它需要將權力和責任交給他人。

此外,目前的信息時代技術導致了現代C2系統的急劇進步,它為高級指揮官提供了前所未有的實時通信和態勢感知能力,聲稱要擊敗過去主導戰場的不確定性。由于這些系統的存在,越來越多的人傾向于由高層總部集中控制行動。因此,任務指揮部很少被充分應用,尤其是在戰術層面以上。雖然它作為一種方法存在于理論中,但作戰命令往往越來越詳細,而各級指揮部之間不斷的實時溝通,更減少了下級指揮官的主動性空間。

我將在本文中研究的問題是,在現代作戰環境中是否還有任務指揮的空間,或者換一種說法。信息時代和C2系統的發展是否已經使任務指揮部過時了?使其如此有效的條件是否已經不復存在,其程度如何?

圖1:C2的示意圖
付費5元查看完整內容

2018年國防部人工智能戰略將人工智能定義為機器執行通常需要人類智能的任務的能力。戰略和相關計劃包括了全面戰略的一些特點,但不是全部。例如,國防部的9個與人工智能相關的戰略和計劃并不包括與采用人工智能技術相關的資源、投資和風險的完整描述(見圖)。在未來與人工智能相關的戰略中,發布包括綜合戰略的所有特征的指導,可以幫助國防部更好地定位,幫助管理者確保對人工智能的問責和負責任的使用。

國防部已經開始識別并報告其人工智能活動,但其人工智能基線庫存存在局限性,如排除分類活動。國防部官員表示,這些限制將在AI庫存識別過程的后續階段得到解決。然而,國防部還沒有開發一個高層次的計劃或路線圖來捕獲所有的需求和里程碑。該計劃將為國防部提供一個高層次的、端到端對所有必要特征的視圖,以實現該計劃的目標,為國會和國防部決策者提供一個完整、準確的人工智能活動清單。

國防部組織在人工智能活動上進行合作,但可以更充分地納入領先的合作實踐。國防部使用了各種正式和非正式的合作機制,GAO之前的工作已經確定,如跨機構小組。國防部已經部分納入了領先的協作實踐,例如識別領導能力。然而,國防部官員告訴我們,他們正在制定指導方針和協議,明確定義參與人工智能活動的國防部組件的角色和職責。通過最終確定和發布這樣的指南,國防部可以幫助確保所有參與者對整個部門的AI工作的責任和決策達成一致。

付費5元查看完整內容

概述

美政府問責局(GAO)日前發布報告《人工智能:國防部應改進策略和流程并加強協作指導》。該報告通過評估2018年《國防部人工智能戰略》,發現其存在片面性的一些特征,如九項人工智能相關戰略計劃“不包括與采用AI技術相關的資源、投資和風險的完整描述”等,呼吁國防部制定更全面的人工智能戰略,以使其更好地定位、問責和負責任地使用該技術。該報告還向國防部提出以下建議:發布含AI戰略所有特征的指南、建立定期審查國防部AI戰略的程序;開發含所有需求的高級計劃或路線圖;發布指南和協議,定義該機構在AI活動中的領導和參與者的責任等

背景

GAO的發現

2018 年國防部 (DOD) 人工智能 (AI) 戰略將 AI 定義為機器執行通常需要人類智能的任務的能力。戰略和相關計劃包括綜合戰略的一些(但不是全部)特征。 例如,國防部的九項人工智能相關戰略和計劃不包括對資源和投資以及與采用人工智能技術相關風險的完整描述(見圖)。發布指南以在未來與人工智能相關的戰略中包含綜合戰略的所有特征,可以幫助國防部更好地幫助管理人員確保問責制和負責任地使用人工智能。

國防部人工智能相關戰略和計劃的評估

國防部已開始識別和報告其 AI 活動,但其 AI 基線清單存在限制,例如排除機密活動。國防部官員表示,這些限制將在人工智能活動識別過程的后續階段得到解決。然而,國防部還沒有制定一個涵蓋所有需求和里程碑的高級計劃或路線圖。這樣的計劃將為國防部提供實現該計劃目標所需的所有功能的高級、端到端視圖,以向國會和國防部決策者提供完整和準確的人工智能活動清單。

國防部組織在人工智能活動上進行協作,但可以更充分地整合領先的協作實踐。國防部使用 GAO 先前工作已經確定的各種正式和非正式協作機制,例如跨部門小組。國防部已部分納入領先的協作實踐,例如識別領導力。然而,國防部官員告訴我們,他們正在制定指南和協議,明確定義參與人工智能活動的國防部組件的角色和職責。通過最終確定和發布此類指南,國防部可以幫助確保所有參與者就整個部門的人工智能工作的責任和決策達成一致。

為什么 GAO 做這項研究

國防部戰略指出,人工智能將改變戰爭的性質,不采用人工智能技術可能會阻礙作戰人員保衛我們國家的能力。國防部正在進行組織變革并投資數十億美元來整合人工智能技術,例如建立聯合人工智能中心以加速在整個國防部提供人工智能能力。

伴隨 2021 財年國防授權法案的眾議院報告 116-442,以及讓 GAO 評估國防部的資源、能力和人工智能技術計劃的規定。本報告評估了 (1) 國防部的人工智能戰略和相關計劃,包括綜合戰略的特征;(2) 國防部已確定并報告了整個部門的人工智能活動情況;(3) 國防部在其人工智能活動上的合作情況。GAO 審查了相關法律和國防部戰略,概述了整個部門管理人工智能的計劃和流程,采訪了官員,并進行了全部門調查。這是 GAO 于 2022 年 2 月發布的敏感報告的公開版本。國防部認為敏感的信息已被省略

付費5元查看完整內容

摘要

人工智能領域的進展繼續擴大這組技術的潛在軍事應用范圍。本文探討了信任在人機聯合作戰中的關鍵作用,以及依靠人工智能來補充人類認知的潛在影響。如果依靠人工智能來準確處理傳感器數據,操作自主系統和平臺,或通過擬議的作戰概念(如以決策為中心的戰爭)提供有利的決策支持,設想機器智能的中央指揮和控制作用,那么信任機器智能將是未來作戰中的一個關鍵組成部分。鑒于這些技術和理論的發展,信任的概念對于機器智能在戰術和作戰層面的軍事行動中的使用變得高度相關,正確校準的信任水平是安全和有效行動的基礎。在簡要回顧了機器智能的最新進展和對信任概念的探索之后,本文概述了人工智能在戰場上的當前和潛在應用,以及由不充分或不合理的高信任度帶來的挑戰。

引言

縱觀歷史,技術已經擴大了武裝沖突的領域,戰術交戰的節奏,戰場的地理范圍,以及指揮官與部隊溝通的手段。技術創新--包括軍事和民用--改變了軍隊的作戰方式以及國家計劃和進行這些沖突的方式。在21世紀,迄今為止,很少有進步能像統稱為人工智能(AI)的一組技術那樣獲得如此多的關注。人工智能正準備迎來一個新的時代,在這個時代,機器智能和自主性正在為軍事行動的規劃和執行產生明顯的新概念。算法戰爭可能會帶來一些獨特的東西:增強甚至取代人類決策過程的系統,其速度可能超過人類規劃者的認知能力。
新興技術的整合提出了任何數量的基本組織和倫理問題,值得關注。本文將采用定性的社會科學方法,重點討論人類-自治團隊(HAT)的一個重要方面:鼓勵對機器智能的適當信任程度。有大量的學術文獻關注自動化或機器人技術中的信任問題,但有關具體軍事應用的工作較少。當人工智能在聯合作戰中被實際部署時,在信任方面有哪些挑戰和機會?在簡要回顧人工智能和概述機器智能在戰場上的可能應用之后,本文在分析鼓勵適當信任水平的陷阱和潛在解決方案之前,探討了信任和信任校準的概念。

人工智能的進展

幾十年來,人類一直對賦予機器某種形式的人工智能的可能性著迷,Nils Nilsson將其定義為 "致力于使機器智能化的活動,而智能是使一個實體在其環境中適當運作并具有預見性的品質"。在數字時代的早期,出現了兩種廣泛的人工智能方法。自上而下的專家系統方法使用復雜的預編程規則和邏輯推理來分析一個特定的數據集。對于具有可預測規則的明確定義的環境--諸如分析實驗室結果或下棋等應用--專家系統或 "符號 "人工智能(基于符號邏輯)的性能主要取決于處理速度和算法的質量。另一大類使用自下而上的機器學習方法,模擬人類通過檢測數據中的模式進行學習的方式。神經網絡是一種以人腦為模型的機器學習形式,能夠通過使用多個(因此是 "深")人工神經元層來識別復雜的模式,是被稱為 "深度學習 "的技術的基礎。通過其在數據集中尋找關系的能力,這種技術也被稱為 "連接主義"。
自上而下、基于規則的符號系統和自下而上的機器學習連接主義技術之間的差異是很大的,特別是關于它們的潛在應用范圍和靈活性。深度學習方法的顯著特點是能夠將學習與它所訓練的數據集分開,因此可以應用于其他問題。基于規則的算法可以在狹義的任務中表現得非常好,而深度學習方法能夠迅速找到模式,并在 "蠻力 "專家系統計算方法無效的情況下有效地自學應用。最近的一些人工智能進展顯示了模仿創造力的能力,產生了有效的解決問題的方法,這些方法對人類來說可能是反直覺的。
然而,總的來說,人工智能仍然是狹窄的或 "脆弱的",即它們在特定的應用中功能良好,但在用于其他應用時仍然不靈活。與人類的認知相比,鑒于機器的計算速度遠遠超過人腦,機器智能在將邏輯規則應用于數據集時要優越得多,但在嘗試歸納推理時,它必須對數據集或環境進行一般性的觀察,這就顯得不足。大多數機器學習仍然需要大量的訓練數據集,盡管新的方法(包括生成對抗網絡(GAN)和 "小于一次 "或LO-shot學習)正在出現,需要非常小的數據集。圖像識別算法很容易被混淆,不能像人類那樣立即或直觀地理解情景背景。這種脆性也延伸到了其他問題,比如游戲。雖然人工智能在視頻游戲中經常表現出超人的能力,但他們往往不能將這種專業知識轉移到具有類似規則或玩法的新游戲中。
 雖然人工智能技術繼續在變得更加適應方面取得重大進展,但任何接近人類的人工通用智能仍然難以實現。評估人工智能的近期前景因該技術的漸進式進展而變得更加復雜。圍繞著人工智能的炒作--在很大程度上被深度學習方法的成功所推動--既導致了對該技術未來的不切實際的期望,也導致了對其非常大的進展的正常化。正如一份報告所指出的,"人工智能將一項新技術帶入普通人的視野,人們對這項技術習以為常,它不再被認為是人工智能,而出現了更新的技術"。盡管象征性的人工智能和各種形式的機器學習構成了該領域最近的大部分進展,也許除了融合這兩種方法的嘗試之外,未來仍然不確定。一些人猜測,機器學習技術帶來的進展可能會趨于平穩,而另一些人則保持樂觀。相關的技術進步,如短期內的計算機芯片設計和長期內的量子計算,可能會影響進一步進展的速度。

付費5元查看完整內容

人工智能 (AI) 在規劃和支持軍事行動方面發揮著越來越大的作用,并成為情報和分析敵人情報的關鍵工具。人工智能的另一個應用領域是自主武器系統和車輛的應用領域。預計人工智能的使用將對人機界面的軍事功能(機器學習、人機協作)產生更大的影響。人工智能有望克服大數據的“3V挑戰”(數量、多樣性和速度),也有望降低其他“2V”(準確性、價值)的風險,并使數據處理處于可控水平基于人工智能知識的決策。本文的目的是概述人工智能在軍事中的應用潛力,并強調需要確定和定義可衡量的指標,以評估有望改進的最先進技術和解決方案,評估的質量和性能側重于態勢感知和決策支持以及后勤和運營規劃以及建模和模擬 (M&S) 等關鍵領域

付費5元查看完整內容

美國國防部(DOD)報告稱,人工智能(AI)是一項革命性的技術,有望改變未來的戰場和美國面臨的威脅的速度。人工智能能力將使機器能夠執行通常需要人類智能的任務,如得出結論和做出預測此外,人工智能機器可以以人類操作員無法企及的速度操縱和改變戰術。由于AI具有廣泛用途的潛力,國防部將其指定為頂級現代化領域,并投入大量精力和資金開發和獲取AI工具和能力,以支持作戰人員。在2022財年,國防部為科學和技術項目申請了147億美元,以及8.74億美元用于直接支持其人工智能努力。根據國防部2018年的人工智能戰略,未能將人工智能能力納入武器系統可能會阻礙戰士保護我們的國家抵御近同行對手的能力其他國家正在這一領域進行大量投資,這可能會削弱美國的軍事技術和作戰優勢。

美國國防部(DOD)正在積極追求人工智能(AI)能力。人工智能指的是旨在復制一系列人類功能,并不斷在分配的任務上做得更好的計算機系統。GAO之前確定了三種AI類型,如下圖所示

國防部認識到開發和使用人工智能不同于傳統軟件。傳統軟件的編程是根據靜態指令執行任務,而人工智能的編程則是學習如何改進給定的任務。這需要大量的數據集、計算能力和持續監控,以確保功能按預期執行。支持國防部作戰任務的大部分人工智能能力仍在開發中。這些能力主要集中在分析情報,增強武器系統平臺,如不需要人工操作的飛機和艦船,并在戰場上提供建議(如將部隊轉移到哪里)。

當獲取依賴于復雜軟件的新能力時,國防部一直面臨著挑戰,例如長時間的獲取過程和熟練工人的短缺。GAO發現,它繼續面臨這些挑戰,同時還面臨人工智能特有的其他挑戰,包括有可用的數據來訓練人工智能。例如,人工智能探測對手的潛艇需要收集各種潛艇的圖像,并標記它們,這樣人工智能就可以學會自己識別。國防部還面臨著將訓練有素的人工智能集成到非為其設計的現有武器系統中的困難,以及在其人員中建立對人工智能的信任。國防部發起了一系列努力,如為人工智能和人工智能特定培訓建立一個跨服務的數字平臺,以應對這些挑戰,并支持其對人工智能的追求,但現在評估有效性還為時過早

付費5元查看完整內容
北京阿比特科技有限公司