亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

相關內容

這篇研究論文的目的是研究什么會影響人類的信任,因為它與人類-自主性協作有關。該研究是通過一個在線調查實驗進行的混合方法研究。該實驗分析了幾個自變量和一個因變量(對人工智能(AI)系統的信任)。自變量是個人的數字素養,人工智能系統的透明度,以及參與者對人工智能系統的能力/性能的經驗水平。用隨機的處理方法來測量自變量,參與者在其中扮演了一個與人工智能系統配對運營團隊中的首席規劃師角色。結果顯示,無論處理條件如何,對人工智能的基本信任水平的重要性。最后,該研究強調,人工智能系統增加信任的透明度可能比以前認為的更有限。

付費5元查看完整內容

2018年美國國防戰略強調,有效實施自主性對于未來的交戰至關重要。這種實施的關鍵是測試和評估執行自主任務的系統的能力。本手冊的目的是為測試人員提供工具、方法和見解,以自信地對待空中平臺的自主性測試。選擇空中領域是由于其對空軍任務的適用性,并有助于確定本手冊的重點范圍。本手冊的目的不是要成為測試和評估自主性的詳盡參考資料;相反,本手冊的目標是為更多的調查提供一個啟動點。

本手冊首先概述了目的、關鍵定義和基本假設,以幫助澄清空軍測試中心的 "自主性 "含義。在建立了這種基礎性的理解后,介紹了自主性的測試方法。在機載平臺上測試自主性帶來了獨特的挑戰,因此,要想測試成功,應該利用以下五個原則。早期用戶參與、持續和累積反饋、簡化流程和產品、試點培訓方法和人機互動考慮。總體的測試方法分為兩個范式:測試的三個階段和敏捷開發與運營(DevOps)。

第二種范式的特點是,從目前的測試實踐到結合敏捷和DevOps的原則,有了更大的轉變。敏捷哲學強調個人和互動而不是流程和工具,強調工作產品而不是全面的文件,強調客戶合作而不是合同談判,強調響應變化而不是遵循計劃。它在現代軟件開發中發揮了重要作用,并且隨著自主性的發展,肯定會在未來發揮作用。此外,DevOps是一個革命性的概念,它整合了企業的開發和運營功能。這個過程依靠持續集成、持續交付、持續監控和記錄、微服務以及跨職能的協作團隊來快速實施高質量的產品。隨著空軍開始采用更多的敏捷和DevOps原則,它將能夠實現國防部 "以相關速度交付"、"組織創新 "和 "簡化從開發到實戰的快速、迭代方法 "的目標。

圖 自主性測試執行的四個組件

引言

為了最大限度地提高作戰人員的殺傷力,必須將自主性納入系統,但首先必須對其進行開發、測試和實戰化。2018年美國國防戰略摘要(參考文獻1)和2019年國防授權法案(參考文獻2)已經明確表示,將包含自主性的系統投入使用對于美國保持其競爭優勢至關重要。此外,這兩份文件都呼吁改革國防部的采購程序,以便 "以相關的速度 "產生結果。2019年,空軍首席科學家發布了《自主性:前進的道路》(參考3),該文件為推進自主技術水平建立了一個路線圖和框架,同時支持其向現有系統過渡。為了響應這一更高層次的指導,美空軍測試中心(AFTC)已經制定了一個戰略目標,即 "塑造未來的測試和評估能力,以最大限度地提高作戰人員的致命性"。這一戰略目標的一個關鍵原則是建立一種測試具有自主性和機器學習算法的系統的能力。本手冊支持AFTC的戰略目標,并為機載平臺上的自主性測試所應考慮的因素和方法提供參考。

本手冊的組織結構如下:首先,定義了本手冊的具體目的、關鍵術語和基本假設。此外,第一節概述了本手冊的范圍。下一節制定了在機載平臺上測試自主性的測試方法。本節首先詳細介紹了目前的測試范式應如何適應測試自主性。然后,它討論了應如何利用敏捷和開發與運營(DevOps)原則實施新的測試范式,以最大限度地提高自主性的有效性。最后,總結了測試自主性的要點,并強調了前進的道路。此外,還包括了包括當前自主性測試細節的附錄,以及其他一些有用的參考資料。

1.1 目的

本手冊的目的是為測試人員提供工具、方法和見解,以自信地測試空中平臺的自主性。由于自主性測試所面臨的挑戰的廣泛性和現有測試能力的整體不成熟性,本手冊的內容沒有明確定義具體的最佳實踐。相反,本手冊概述了自主性測試的注意事項,這些注意事項需要在測試過程的每個階段進行,以確保安全、可靠、有效的測試。本手冊旨在成為一個指南針,而不是一張地圖。

本手冊假設讀者有一些飛行測試經驗和/或技術背景。自主性的測試和評估從根本上說是一個多學科的冒險;因此,本手冊涉及一些成功所需的不同觀點。本手冊的目的不是要成為測試和評估自主性的詳盡參考資料;相反,本手冊的目標是為更多的調查提供一個啟動點。在整個國防部有許多研究,以及大量的學術研究,本手冊利用并試圖在此基礎上發展。此外,本手冊承認不能在真空中考慮自主性測試;它提出了自主性系統的開發者和獲取者需要與測試社區進行最佳整合的概念和框架。自主性測試的最終成功取決于未來的項目辦公室是否注意到這本手冊,并在項目的早期對測試進行適當的規劃。

1.2 關鍵定義

自主性:一套基于智能的能力,可以對部署前沒有預先編程或預期的情況作出反應,如《自主性利益共同體(COI)測試與評估》(參考文獻4)所定義。自主性構成了一定程度的自給自足和自主行為(由人類代理決策),如《自主系統的七個致命神話》(參考文獻5)所定義。

自主引擎:平臺或系統上的硬件,承載著自主軟件。

復雜系統:按照《復雜系統動力學》(參考文獻6)的定義,理解各部分之間的相互作用與理解各部分的功能同樣重要的一個系統。

服務:一個獨立的、封裝好的功能單元,通過一個定義好的接口(主要針對軟件)接收輸入并給出輸出,如《面向服務的建模》(參考文獻7)所定義。

任務:由一個或多個服務組成,在一個離散的、確定的時間段內完成一個特定的目標或行動。

信任:按照《組織信任的綜合模型》(參考文獻8)的定義,一方愿意在另一方的行動面前表現得很脆弱,因為他期望另一方會執行對信任者來說很重要的特定行動,而不考慮監督或控制該方的能力。信任主要建立在令人滿意的可靠性和準確性的組合上。

1.3 基本假設

盡管在上一節中對自主性進行了定義,但為了本手冊的目的,進一步澄清 "自主性 "的實際含義是很重要的。以下四個基本假設主要來自2012年國防科學委員會關于 "自主性在國防部系統中的作用 "的研究(參考文獻9),有助于磨練 "自主性 "的含義。

1."自主性 "從根本上說是基于軟件的。

2."自主性 "被認為是相對于特定的任務,在一個離散的時間間隔內,而不是針對整個系統。

3."完全自主 "系統是一個錯誤的說法。所有的自主性都必須在某些時候與人互動,因此被認為是一個人機聯合認知系統。

4.確定和爭論 "自主性水平 "對測試和評估系統是無益的,而且會產生反作用。

1.4 手冊范圍

本手冊著重于測試和評估空域的自主性。之所以選擇空域,是因為它與空軍的任務相關,也因為它給測試和評估企業帶來了獨特的挑戰,而這些挑戰在其他領域并不適用。雖然所介紹的是機載自主性應用的例子,但本手冊所介紹的大部分框架和工具都普遍適用于其他領域。

在本手冊中,被視為被測系統(SUT)的自主性類型是那些在物理世界中的實時應用,通常被稱為 "運動中的自主性",如國防科學委員會。關于自主性的夏季研究(參考文獻10)。這與 "靜止狀態下的自主性 "應用相對立,后者對于建立一支更具殺傷力的部隊至關重要,并將在 "運動中的自主性 "系統的測試和實戰中發揮重要作用。運動中的自主性 "的例子可以在智能炸彈、無人駕駛航空系統(UAS)中找到,甚至可以作為載人平臺上的一個子組件(即F-16上的地面防撞系統)。確定一個系統是否構成 "運動中的自主性 "的一個有用的方法是用約翰-博伊德的 "OODA "循環來思考,該循環來自《輸贏論》(參考文獻11)。運動中的自主性必須:

  • 觀察其周圍的環境,以建立一個世界觀。

  • 在世界觀中確定自己的方向。

  • 決定一個適當的反應。

  • 根據該決定采取行動。

圖1給出了一個層次化的視角,說明了自主性對一個平臺的作用。平臺執行的任務是由各種任務組成的,這些任務建立在較低層次的服務之上。當本手冊中使用 "自主性 "一詞時,它指的是在任務或任務層面采取的行動,這些行動是由服務促成的。在大多數情況下,這些行動目前是由人類操作員執行的。傳統上,測試界并不測試或評估人類操作員,因此必須擴大測試范式,以納入類似人類操作員的自主任務或任務的評估標準。

為了更好地理解圖1,我們以壓制敵方空中防御(SEAD)任務為例。對于執行SEAD的戰斗機平臺來說,干擾敵人的雷達是主要任務之一。此外,像空域整合、空中加油和編隊飛行等任務可能都需要成功完成。而這些任務又需要大量的服務,負責操作各種有效載荷、飛機本身以及指揮和控制功能。

本手冊有意避免使用機器學習(ML)和人工智能(AI)的字眼。ML和AI是實現自主性的工具;本手冊中提出的策略適用于自主系統的測試,無論自主是如何產生的,也無論它如何運作。

付費5元查看完整內容

什么是多域作戰?

以下定義摘自美國陸軍訓練與條令司令部:

多域作戰(MDO)描述了美國陸軍作為聯合部隊[陸軍、海軍、空軍、海軍陸戰隊和太空部隊]的一部分,如何在競爭和武裝沖突中對抗和擊敗能夠在所有領域[空中、陸地、海上、太空和網絡空間]與美國抗衡的近鄰對手。該概念描述了美國地面部隊作為聯合和多國團隊的一部分,如何在2025-2050年的時間框架內威懾對手并擊敗能力強大的近鄰對手。

MDO為指揮官提供了許多選擇,以執行同時和連續的行動,利用出其不意以及快速和持續地整合所有領域的能力,給對手帶來多種困境,以獲得物質和心理上的優勢以及對作戰環境的影響和控制。

多域作戰的關鍵元素

  • 滲透敵方的反介入和區域拒止(A2/AD)系統(分層和綜合遠程精確打擊系統、沿岸反艦能力、防空系統、遠程火炮和火箭系統),使美軍能夠進行戰略和作戰機動。

  • 破壞--擾亂、降低或摧毀A2/AD系統,使美軍能夠進行作戰和戰術機動。

  • 利用由此產生的機動自由,通過擊敗所有領域的敵軍來實現作戰和戰略目標。

  • 重新競爭--鞏固各領域的成果,迫使其以對美國和盟國有利的條件恢復競爭。

需要什么樣的軍備解決方案?

  • 戰爭的速度和決策的速度可以說從來沒有像今天這樣快過,而且明天可能也會這樣。

  • 在陸、海、空、天,甚至網絡領域運作的資產的密切協調,以促進ISR活動和對敵對目標的殺傷鏈,需要精確性,以及在各種平臺上 "蓄勢殺傷 "的能力。

  • 系統的通用性可以減少后勤的負擔,簡化培訓和維護,并有助于確保各平臺的性能一致、可靠。

  • 基于成熟技術的解決方案能夠迅速投入使用,并為作戰人員增加更多的靈活性和選擇,是一種力量的倍增劑。

付費5元查看完整內容

目前,人工智能(AI)為改造許多軍事行動領域提供了巨大的機會,包括作戰、指揮與控制(C2)、后勤、安全和維護,以提高其整體作戰效率。空中和導彈防御(AMD)是一個特別復雜的任務領域,人工智能的應用至關重要。空中導彈防御任務指的是保衛國土、保護區、地面基地、地面部隊或艦艇免受敵對的空中或導彈威脅。AMD的威脅包括敵對的飛機、無人駕駛飛行器(UAV)或機載導彈。AMD行動的復雜性源于威脅的嚴重性、威脅的意外性、對形勢認識的不確定性以及事件的快速發展,因為作戰人員必須迅速評估形勢,制定適當的行動方案,并最好地利用他們的戰爭資產來應對。美國國防部(U.S. DOD)正在研究使用AI系統(或AI-enabled AMD[AI-AMD]系統)作為AMD作戰人員的自動決策輔助工具,以大大減少他們的認知負荷(Jones等人,2020),使AMD決策更快、更好。

人工智能的一個關鍵方面已經聚集了大量的研究興趣,那就是信任。信任是有效團隊的一個基本原則。它同時適用于人類和人機團隊。信任使團隊成員能夠很好地合作,是有效團隊表現的基礎(Lee and See 2004)。與人工智能系統的成功合作將需要人類對人工智能系統有一個校準的信任和依賴程度(泰勒等人,2016)。

隨著更先進和更快的空中和導彈威脅彈藥的發展和投入使用,操作人員更需要在AMD行動中迅速作出監測。不及時的決策和反應將導致災難性的后果。因此,人工智能是一個可能的解決方案,通過自動決策輔助工具加快和加強決策過程。這些AMD自動戰斗管理輔助工具可以幫助戰術操作人員應對更快的決策周期、大量的數據以及需要觀察的幾個系統或屏幕(Galdorisi 2019)。然而,為了有效地利用人工智能能力的潛力,需要操作員的高度信任。操作員對系統的信任程度低,可能會導致人工智能-AMD系統利用不足,受到不適當的監控,或者根本不使用(Floyd, Drinkwater, and Aha 2016)。這些問題中的任何一個都可能導致操作者的工作量不必要的增加,或者任務失敗的可能性。

論文對信任的定義、人機交互(HMI)的概念、信任因素以及包括AMD殺傷鏈模型、威脅場景、架構、模型和功能在內的概念模型進行了廣泛的回顧。有了這樣的認識,論文提出了人工智能-AMD系統的信任框架,對人機交互和人工智能-AMD系統信任因素的描述。論文最后提出了在人類操作者和AI-AMD系統之間實現校準信任的策略

信任框架始于對系統背景的分析。圖1顯示了AI-AMD指揮與控制(C2)系統(包括AI-AMD操作員和決策輔助工具)及其他與之互動的子系統的背景圖,這些子系統有助于操作員和AI-AMD決策輔助工具之間信任的發展。背景圖使我們能夠研究各系統之間的相互作用,以及它們對AI-AMD操作員和決策輔助工具之間信任動態的影響。

圖1. AI-AMD系統框架圖。

這篇論文將信任定義為操作者的態度,即AI-AMD決策輔助工具將有助于實現操作者的目標,即在一個以不確定性和脆弱性為特征的作戰環境中迅速摧毀來襲威脅的任務。這種信任的定義表明,它是對操作者相信或感知AI-AMD決策輔助工具的一種情感評估。為了積極地影響信任,操作者必須親自看到并感受到AI-AMD決策輔助行動的優勢。AI-AMD行動涉及很多不確定因素,以及天氣、電磁干擾和地形等環境因素以及不斷變化的威脅的性質所帶來的脆弱性。操作員將預期AI-AMD決策輔助系統按照 "合同 "執行,以處理這些不確定性和脆弱性。這些合同將是人工智能-AMD決策輔助工具應該執行的感知功能或任務,以及執行這些功能或任務的理想表現。

圖2說明了操作員和AI-AMD決策輔助工具之間的信任框架。y軸代表人類對AI-AMD決策輔助系統的信任程度,x軸代表AI-AMD決策輔助系統的能力。綠色的45°虛線表示最佳的信任水平或校準的信任線,其中的信任與AI-AMD的能力相對應,導致正確的利用(Lee and See 2004)。過度信任由最佳信任水平線以上的區域表示,此時的信任超過了系統能力,導致誤用。低于理想信任水平線的區域表示不信任,這時的信任沒有達到系統能力,導致濫用。假設存在一些默認的信任水平(如黃框所示),目標是制定一個策略,以提高AI-AMD輔助決策能力的信任。在使用該系統時,可能會發生違反信任的情況,從而降低操作員的信任。因此,信任修復行動必須被納入,以保持信任在最佳水平。

圖2. 人類操作員和AI-AMD決策輔助工具之間的信任。

基于功能分配的操作員和AI-AMD決策輔助工具之間的人機交互研究表明,操作員和AI-AMD決策輔助工具應該被設計成在大多數殺戮鏈功能中作為一個 "團隊"運作。這引導論文研究了單獨和集體考慮人類和決策輔助的信任因素。對操作員和人工智能-AMD決策之間的人機交互的研究還顯示,操作員的角色已經從手動控制器變成了監督控制器。因此,一個值得信賴的決策輔助工具是很重要的,因為操作者會期望系統的表現符合預期,以幫助操作者更好地履行他的角色。另外,為了進一步幫助減輕操作者的認知工作量,信息的外部表示、決策輔助工具的建議必須易于閱讀和理解。

關于信任因素,本論文提出了一個 "由外而內 "的框架,如圖3所示。論文首先考慮了與操作環境相關的因素,這些因素描述了AMD操作系統的背景。第二,它研究了與組織環境相關的因素,操作人員和人工智能-AMD系統得到了培訓和發展。第三,論文研究了操作人員和人工智能-AMD決策輔助工具之間的交互,以提出與操作人員、人工智能-AMD、單獨和集體相關的因素。

圖3. 建議的信任因素

圖4顯示了擬議的戰略銜接圖,以實現操作者和AI-AMD輔助決策之間的校準信任。對信任定義、人機界面和信任因素的審查表明,該戰略應關注三個關鍵領域:(1)人類對自動化技術和AI-AMD決策輔助系統的集體和個人感知;(2)增強操作員和AI-AMD決策輔助系統的團隊活力;(3)AI-AMD決策輔助系統的可信度,重點是系統開發。該戰略利用DOTMLPF-P框架提出了三個關鍵原則和五個支持原則。首先,軍事作戰人員需要被告知自動化技術的真正能力和局限性,特別是AI-AMD輔助決策。第二,操作員的培訓要求必須增加,以應對新的工作范圍和不斷變化的威脅。第三,必須在人工智能-AMD決策輔助系統的開發中加入新的要求,以提高系統的可感知的可信度。這三個關鍵原則得到了DOTMLPF-P框架其他方面的支持,如組織、領導、人員、設施和政策。

圖4. 實現操作員和人工智能-AMD決策輔助工具之間校準信任的戰略銜接圖

付費5元查看完整內容

信任是團隊有效性的基礎,它影響著各種團隊過程,包括信息共享、決策和團隊的整體成功。在那些在惡劣的、不確定的、高壓力的環境中工作的高績效團隊中,如軍事、急救、醫療、搜救和救災,在關鍵時刻不適當的信任水平(無論是過高還是過低)會導致隊友之間的次優互動,從而導致不安全的行為(De Jong和Elfring 2010;Costa等人2018)。例如,太過信任,或 "過度信任",會使操作人員陷入自滿狀態,導致代價高昂的錯誤,并有可能失去人命和昂貴的設備;相反,信任太少,或 "信任不足",會使團隊成員感到需要不斷監督對方,造成不平衡和不適當的工作負荷(de Visser等人,2020)。信任是通過作為一個聯系緊密的團體訓練,以及隨著時間推移的共同經驗而建立的(Fulmer和Gelfand 2012;Costa和Anderson 2017)。

隨著自主技術的不斷發展,未來的團隊結構很可能包括自主成員,他們的功能不僅是提供支持的工具,而且是成熟的隊友(Phillips等人,2011)。雖然人類表現文獻中有豐富的方法來評估個體(或對)的信任,但在理解如何衡量大型團隊的信任方面還存在差距(Feitosa等人,2020),以及哪些措施可能最適合由多個人類和多個自主系統組成的團隊的復雜性。使信任度量更加復雜的是,團隊信任是一種動態狀態,在團隊的生命周期中不斷波動,并進一步受到社會、任務和環境背景的影響(Schaefer等人,2018a;Schaefer等人,2019a)。然而,信任在這些更大的、異質的團隊中發展和傳播的過程仍然不清楚。因此,為了使這些技術能夠充分支持團隊運作,關鍵是要了解在人類自主團隊的背景下,信任是如何發展、維持和衡量的。因為信任是復雜的,所以需要一種多模式的測量方法。因此,在本報告中,我們描述了一個概念性的工具包,它的開發是為了更準確、更有力地理解人類自主性團隊中的信任

鑒于我們的未來社會將看到由多個人類和多個自主系統組成的異質團隊的興起,量化團隊不同成員之間的信任關系,以及了解信任對全球團隊動態的一系列影響非常重要。從這個方法來看,人與人之間的信任與人機合作關系,甚至機器與機器合作關系內部的信任是不一樣的。這些不同類型的互動有不同的優先因素和特點,以及這些互動如何影響整個團隊的信任傳播。考慮到所有這些因素,關鍵是要首先了解現有信任措施的能力和局限性,以便對其進行調整以滿足這些需求,或者在必要時,開發新的措施來支持團隊信任評估。為此,本報告探討了信任評估技術的現狀,包括那些新穎的、超出主觀評估范圍的技術。

第2節我們首先定義了人類自主性團隊,并概述了人類自主性團隊特有的團隊信任。

第3節確定并描述了不同類型的信任,這些信任在其發展過程中是不同的,特別是它們如何影響人類自主性團隊合作。

第4節分解了文獻中已被充分記錄的不同的信任度量方法,其中包括團隊信任的主觀、溝通、行為和生理指標,以及這些如何為在動態環境中運作的人類自主性團隊的有效信任校準提供多模式度量方法。在下文中,我們利用一個說明性的案例研究,詳細介紹了度量團隊信任的多步驟方法,并對模式和后續指標的選擇提出了建議,還指出了團隊信任度量中涉及的一些限制和注意事項。

付費5元查看完整內容
北京阿比特科技有限公司