亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

新興技術正在給戰爭的特點帶來重大變化。其中一項新興技術,即自主武器系統(AWS),被證明對美國保持其對對手的技術優勢越來越重要。然而,自主武器系統帶來了越來越復雜的挑戰,需要在法律、道德和操作方面加以考慮。這篇論文提出了一個與當前美國防部AWS政策直接相關的問題:在未來AWS的使用過程中,人類操作員如何應用適當的判斷?論文以權力、責任和問責為分析框架,建立在美國關于武器系統自主性的政策和戰略、國際法考慮以及AWS在作戰環境中的應用之上。論文利用1988年美國海軍文森號事件和2003年伊拉克自由行動中愛國者自相殘殺事件的案例研究,考察了人類判斷如何與武器系統中的自主功能一起執行,為AWS的研究、開發和實施提供了經驗教訓。這篇論文發現了一些關鍵的想法,即通過繼續參與具體的監督措施,使人類操作員不至于失去控制--允許在使用過程中進行適當的判斷。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

這篇文章重點討論了戰時法原則在指導自主武器系統使用方面的必要性。在分析之初,先說明必要性原則包含正義戰爭理論中的最低限度的武力要求,然后強調現有的關于自主武器系統的工作中缺乏這一原則。忽視這一原則意味著忽視了戰斗人員在戰爭時期對彼此的義務。本文認為,最低限度的武力要求是考慮道德使用武力的一個重要條件。特別是,區分了使用武力的致命性和非致命性目的,并介紹了非致命性AWS的前景,然后回顧了AWS在非致命性使用方面所帶來的一些挑戰。這些挑戰出現在AWS產生不可預測的結果,影響了戰斗人員為確保其行動符合最低武力要求所需的態勢感知。最后,呼吁進一步研究AWS的非致命性使用的倫理影響,作為對評估AWS的道德可允許性的必要貢獻。

付費5元查看完整內容

人工智能(AI)的最新進展預示著一個信息周期加速和技術擴散加劇的未來。隨著人工智能的應用變得越來越普遍和復雜,特種作戰部隊(SOF)面臨著辨別哪些工具能最有效地滿足作戰需要并在信息環境中產生優勢的挑戰。然而,SOF目前缺乏一個以終端用戶為中心的評估框架,它可以幫助信息從業者確定人工智能工具的操作價值。本論文提出了一個從業人員的評估框架(PEF),以解決SOF應該如何評估人工智能技術以在信息環境中開展行動(OIE)的問題。PEF通過信息從業者的角度來評估人工智能技術,他們熟悉任務、行動要求和OIE過程,但對人工智能的技術知識有限甚至沒有。PEF包括一個四階段的方法--準備、設計、執行、推薦--評估九個評價領域:任務的一致性;數據;系統/模型性能;用戶體驗;可持續性;可擴展性;可負擔性;道德、法律和政策考慮;以及供應商評估。通過一個更加結構化、方法化的方法來評估人工智能,PEF使SOF能夠識別、評估和優先考慮OIE的人工智能工具。

人工智能(AI)的最新進展預示著一個加速信息周期和加強技術傳播的未來。特種作戰部隊(SOF)目前缺乏一個以終端用戶為中心的評估框架,該框架可以幫助信息從業者確定人工智能工具的操作價值。這篇論文提出了一個從業人員的評估框架(PEF),以解決SOF應該如何評估人工智能技術以在信息環境中開展行動的問題(OIE)。

PEF通過信息從業者的角度來評估人工智能技術,他們熟悉任務、操作要求和OIE過程,但對人工智能的技術知識有限甚至沒有。該框架包括一個簡單的四階段方法--準備、設計、執行、建議--評估九個評價領域,如圖1所示。

根據現有文獻和對美國政府、工業界和學術界的人工智能和世界動物衛生組織專家的采訪,PEF是通過對四個主要研究領域的分析制定的。

1.OIE的潛在AI應用。論文發現,人工智能可以幫助從業者解決OIE中的四個傳統挑戰:分析信息環境,實現內部產品開發,提高信息傳播的及時性和規模,以及提高衡量有效性的能力。

2.人機合作(HMT)的主要原則和考慮。研究強調了 "合理的信任 "對有效的HMT的重要性。 由于OIE的認知性、以人為本的性質,信息部隊在HMT中面臨著額外的復雜性,這就需要人工智能系統進一步透明和可解釋。

3.技術接受和采用理論。理論分析揭示了相對優勢、兼容性和復雜性在技術采用中的突出作用。對技術的信任和用戶可用的時間也影響到人工智能在OIE的采用潛力。組織層面的因素,如準備情況、管理支持和政府政策也是重要的考慮因素。

4.正在進行的增加人工智能透明度的倡議。對現有框架的分析--國防創新股的負責任的人工智能(RAI)指南、模型卡、數據表、概況表和系統卡--揭示了考慮透明度和評估人工智能有效性的關鍵因素。這些要素包括對預期用途、數據出處、模型性能、模型的局限性和道德考慮有一個清晰的認識。

為了測試擬議框架的可行性,PEF被用來評估Pulse,這是一個目前由美國陸軍特種作戰內部的OIE單位使用的數據收集和參與平臺。評估發現,PEF使從業者在使用人工智能工具時,能夠劃分出優勢以及需要額外考慮的領域。特別是,對系統/模型性能和用戶體驗的評估突出了兩個關鍵點。首先,與系統相關的復雜程度需要重點了解誰是目標用戶。第二,為了正確地評估人工智能,模型的性能指標--這些指標在傳統上沒有被傳達給終端用戶--應該被從業者所接受并可以解釋。

這篇論文建議美國特種作戰部利用PEF作為從業人員對人工智能技術進行初步評估的準則。通過一個更加結構化、有條不紊的方法來評估人工智能,這個框架使SOF能夠識別、評估和優先考慮人工智能支持的工具,這些工具能夠有效地解決行動需求,并在信息環境中產生優勢。PEF還確保從業人員考慮納入美國防部RAI戰略的評價標準。

本論文包括六個主要部分(第二章至第七章)。第二章建立了基礎,首先解釋了人工智能和OIE的關鍵概念和定義。該章還討論了從業者在計劃、執行和評估OIE時面臨的挑戰,并確定了可以解決其中一些挑戰的人工智能技術。第三章闡述了信任在人機協作中的關鍵作用,它影響了人工智能在軍事行動中的有效使用。第四章深入研究了技術接受和采用理論,以確定影響OIE單位內人工智能技術采用性的重要因素。第五章評估了現有的框架,這些框架有助于提高人工智能系統的透明度,并可由SOF利用這些框架來評估技術。進行了定性分析,以確定通過開源研究發現的50個模型卡的共同主題。第四章和第五章的發現被用來建立第六章提出的從業人員評價框架(PEF)。在第七章中,該框架被用來評估Pulse--一個目前被OIE單位采用的人工智能工具。第八章最后提出了對未來研究的總體建議和意見。

付費5元查看完整內容

自主武器系統(AWS)是技術先進的武裝機器,在不同程度上能夠獨立于人類控制而運作。自主武器系統通常包括航行的無人機、船舶或帶有集成武器的地面車輛。利用技術,已經有一些機器能夠實現不同程度的自主,包括適航船舶和空中無人機。在機器人和人工智能領域,國家間的競爭和快速的商業發展是推動軍事利益相關者倡導AWS的眾多動機之一。他們認為當務之急是不要在機器人和人工智能發展中落后,并將AWS技術視為未來沖突中的優勢。另一個觀點是由人權運動者和國際組織推動的,因為他們表達了對AWS技術的擔憂。戰爭和沖突被認為對部署AWS技術來說過于混亂和含糊。事實上,他們認為AWS技術有可能降低沖突本身的障礙。使用因果分層分析,本文旨在解讀AWS的現象和圍繞該主題的兩種截然不同的世界觀。人工智能和AWS技術被軍事利益相關者看作是獲得比對手更高的地位的機會。然而,由于技術創新的挑戰性、生態性,獲得更高地位的想法可能是不可持續的。技術創新的特點可以說是雙向的(一個人開發飛機,另一個人開發防空武器)。 "殺手機器人"辯論的對立面認為,開發能夠對人類使用致命力量的自我思考和自我行動的機器是危險的。這種技術被認為從根本上說沒有能力,也不成熟,無法以符合戰爭法和道德的方式在戰爭中部署。如果未來AWS從 "工具 "過渡到 "智能體",這可能會短暫地滿足軍事利益相關者的更高想法。然而,AWS也可能被證明是一個不可靠的朋友,正如反對的觀點暗示的那樣。

付費5元查看完整內容

2022年2月24日俄羅斯入侵烏克蘭后,烏克蘭政府邀請外國公民加入其軍事力量。雖然這種邀請并非沒有先例,但基輔對外國戰斗人員的做法與最近的沖突中所看到的不同。本文研究了界定烏克蘭對外國戰斗人員態度的特點,并強調了這些戰斗人員所面臨的挑戰。它認為,烏克蘭的外國戰斗人員主要來自西方國家,主要起到外向型作用,使沖突國際化,并為了動搖西方輿論,同時提供相對有限的行動利益。后勤問題和經驗的缺乏,特別是與常規戰爭相關的經驗,共同導致了士氣低落,進一步困擾了使用外國志愿者的嘗試。

付費5元查看完整內容

這篇論文試圖研究能夠改善復雜軍事戰術環境中決策的人工智能(AI)技術。戰術環境在威脅、事件的節奏、突發或意外事件的因素、戰斗空間意識的限制以及潛在的致命后果方面可能變得非常復雜。這種類型的環境對戰術作戰人員來說是一個極具挑戰性的決策空間。戰術決策任務在識別決策選項、權衡眾多選項的相對價值、計算選項的預測成功率以及在極短的時間內執行這些任務方面迅速超越了人類的認知能力。海軍已經確定需要開發自動戰斗管理輔助工具(ABMA)來支持人類決策者。這個概念是讓ABMA處理大量的數據來發展戰斗空間知識和意識,并確定戰爭資源和行動方案的優先次序。人工智能方法的最新發展表明,它有望成為ABMAs支持戰術決策的重要推動者。本論文研究人工智能的方法,目的是確定在戰術決策領域的具體應用。

論文組織

本論文分為五章。第一章概述了本課題的背景,描述了本論文所探討的問題,本論文的目的,以及研究的方法和范圍。第二章對論文中討論的定義和概念進行了全面的背景回顧,包括自動戰斗管理輔助工具、決策復雜性和人工智能及自主系統的概念。第三章描述了用于協調數據采集和理解檢索數據要求的研究方法。第四章提供了分析的結果,并探討了從分析結果中得出的潛在好處和局限。本論文的最后一章包含最后的結論和對未來工作的建議。

付費5元查看完整內容

這篇短文分析了英國在最近兩份政策文件中提出的將人工智能(AI)用于軍事目的的方法。第一部分回顧并批評了英國防部于2022年6月發布的《國防人工智能戰略》,而第二部分則考慮了英國對 "負責任的"軍事人工智能能力的承諾,該承諾在與戰略文件同時發布的《雄心勃勃、安全、負責任》文件中提出。

建立自主武器系統所需的技術曾經是科幻小說的范疇,目前包括英國在內的許多國家都在開發。由于無人駕駛飛機技術的最新進展,第一批自主武器很可能是基于無人機的系統。

英國無人機戰爭組織認為,開發和部署具有人工智能功能的自主武器將產生一些嚴重的風險,主要是在戰場上喪失人的價值。賦予機器奪取生命的能力跨越了一個關鍵的道德和法律障礙。致命的自主無人機根本缺乏人類的判斷力和其他素質,而這些素質是在動態戰場上做出復雜的道德選擇、充分區分士兵和平民以及評估攻擊的相稱性所必需的。

在短期內,自主技術的軍事應用可能是在低風險領域,如物流和供應鏈,支持者認為這些領域有成本優勢,對戰斗情況的影響最小。這些系統可能會受到人類操作員的密切監督。從長遠來看,隨著技術的進步和人工智能變得更加復雜,自主技術越來越有可能成為武器,人類監督的程度可望下降。

真正的問題也許不是自主權的發展本身,而是人類控制和使用這一技術發展的里程碑的方式。自主性提出了與人類判斷、意圖和責任有關的廣泛的倫理、法律、道德和政治問題。這些問題在很大程度上仍未得到解決,因此,對于快速推進發展自主武器系統,人們應該深感不安。

盡管自主武器系統似乎不可避免,但有一系列的措施可以用來防止其發展,如建立國際條約和規范,制定建立信任措施,引入國際法律文書,以及采取單邊控制措施。英國無人機戰爭組織認為,英國應充分參與在國際舞臺上制定這些措施。

然而,在這個時候,政府似乎希望保持其選擇的開放性,經常爭辯說,它不希望創造可能阻礙人工智能和機器人技術的基本研究的障礙。盡管如此,大量受控技術,如加密,或在核、生物和化學科學領域,可用于民事或軍事目的,而且受控時不會扼殺基礎研究。

付費5元查看完整內容

美國已經進入了一個大國競爭的新時期。俄羅斯和中國的崛起在全球權力結構中形成了復雜的三足鼎立局面。最近人工智能方面的技術進步使這種多變的國際動態進一步復雜化。學者、政治家和高級軍官已經意識到,人工智能的融入是軍事事務中一場新革命的起源,有能力改變權力的戰略平衡。美國在中東被二十年的反叛亂所困擾,并受到僅延伸至2025年的長期人工智能戰略的阻礙,沒有準備好進入這個 "第六代 "軍事能力,以確保其戰略利益。這種人工智能化的部隊將由半自主和自主系統定義,包括致命的自主武器系統。第一個開發和使用這些武器的國家行為者將在這個新時代獲得對其競爭對手的戰略優勢。雖然美國目前在人工智能方面擁有優勢,但由于缺乏前瞻性思維和重點投資政策,這種優勢正在迅速消失。這是一份旨在解決這一差距的政策文件。20世紀90年代中期的中國軍事現代化模式為美國未來的政策提供了一條潛在的途徑。雖然兩國政府結構存在差異,但其中的幾個基本原則可以在美國的制度框架內適用。因此,美國可以通過制定健全的投資政策、集中的技術發展計劃和新的行動概念來確保人工智能的首要地位,以便在新能力出現時將其最大化。

針對美國的政策建議與評估

大國競爭必須相對于其他大國的能力進行評估。因此,沒有一種能力可以被評估為產生可持續的絕對優勢。然而,在潛在的對手獲得同樣的能力之前,開發人工智能技術和應用為21世紀沖突設計的CONOPS的能力將在整個政治/軍事領域產生一個暫時的戰略優勢。美國目前的公共政策和戰略并沒有延伸到25年后。隨著中國準備在2030年成為占主導地位的人工智能大國,美國為了確保長期戰略利益,不能接受人工智能競賽的現狀。由于人工智能領域的技術發展速度很快,人工智能RMA的狀態和抓住初始優勢的能力正在接近一個拐點。建議美國采取側重于美國在人工智能競賽中的首要地位的政策,特別是在致命性自主武器系統的研究和開發方面。美國在這一領域保持優勢的能力對于國家安全和參與21世紀人工智能輔助和/或人工智能環境的準備工作是至關重要的。

由于致命性自主武器系統是一項仍在開發中的未來技術,因此不可能確定致命性自主武器系統對戰略環境的完整影響。本研究承認,對于評估一個未來武器系統的影響沒有預測性的措施,該系統在實現其全部潛力之前還將經過幾代技術的演變。然而,評估投資政策、技術和CONOPS演變的影響以及它如何影響軍事準備、政治資本和戰略環境的能力是有據可查的。

本文的建議將以1990年至今的中國軍事投資戰略為藍本。在此期間,中國國防開支的增加創造了一個前所未有的能力和軍事力量的增長,為美國未來的人工智能政策提供了一個框架。由于全球力量是以相對而非絕對的方式衡量的,美國至少必須在多極環境中與不斷增長的大國保持平等。雖然從美國的角度來看,中國戰略的某些方面,特別是盜竊知識產權的因素是不切實際的,但那些關于教育和貨幣投資的內容可以被納入美國未來的人工智能政策中。這項研究建議:

1.設立一個負責人工智能政策的助理國防部長的新職位,直接負責人工智能的發展和整合到美國防部。

2.指示ASDAI為美國軍隊制定一個關于第六代能力的預期最終狀態,每十年更新一次。

3.建立30年、15年和5年的人工智能目標,每五年更新一次,讓各個機構,如DARPA、JAIC、國防創新部門(DIU)和相關組織負責特定的發展水平。這將使美國政策制定者有能力根據ASDAI評估和更新的多變的戰略環境,為每個機構提供適當的資金。

4.成立一個委員會,負責發展和保留研究生水平的科學、技術、工程和數學(STEM)人才。

5.建立一個戰略規劃組織,負責研究和整合新的人工智能技術,因為它們出現在15年和5年的基準點上,以便在收購過程中納入其中。

對這些政策的評估必須對照美國對手在人工智能領域的成就和進步。建立在美國在人工智能領域的首要地位上的政策應該集中在教育和經濟投資,新的人工智能技術的初步發展,以及新的CONOPS的發展,以便在新的人工智能能力可用時充分和有效地進行。本研究報告的其余部分重點關注中國國防現代化計劃對美國未來人工智能政策和建議的調整。

付費5元查看完整內容

為了跟上美國防部(DOD)人工智能(Al)戰略的步伐,美國陸軍在2018年啟動了人工智能集成中心(Al2C)。他們的任務是--與美國各地的公司和大學的人工智能社區溝通,目的是通過人工智能的整合來改善和提高軍隊的能力。

這個頂點項目盡可能地分析了當前美陸軍部(DA)對人工智能的要求狀況,以及它們對人類系統集成(HSI)的包含。該小組審查了發布在獎勵管理系統(SAM)網站上的人工智能合同機會和適用的文件,包括績效工作聲明、工作聲明或目標聲明。第一步是確定這些合同機會中包含的要求是否符合人工智能的定義,即計算機系統有能力執行通常需要人類智慧的任務。如果需求符合人工智能的這一定義,那么分析工作就會繼續進行,并側重于納入HSI,以確保為人類(即操作員、士兵、用戶等)提供便利。研究小組還采訪了主題專家(SMEs),以深入了解軍隊開發和獲取人工智能需求的過程。

在2003年至2022年期間發布到SAM的機會中,只有16%(238個中的40個)在開發過程中足夠成熟,可以考慮進行評估。在這40個被認為足夠成熟的采購開發過程中,只有16個發布的信息包含了相關的文件,可以根據團隊既定的人工智能和HSI標準進行評估。從那里,只有6個帖子符合AL的定義,4個被寬泛地判斷為包括一些對HSI或人為因素的參考。該小組的綜合評估確定,陸軍的人工智能指導還處于起步階段,需要進一步發展和完善。評價還強調,盡管國防部和陸軍指導將HSI納入所有要求,但仍然缺乏對HSI的納入。

這個頂點項目建議,所提出的結果和結論應被用來進一步制定人工智能需求的采購指南,并特別注重納入HSI。我們還建議,未來的研究應納入機密需求以及由其他交易機構通過財團管理的需求。

付費5元查看完整內容

亮點

  • 自主武器正在迅速擴散:在可及性、自主程度、國際開發者的范圍,以及它們在情報、偵察和致命打擊中的戰術作用。

  • 自主系統仍然非常容易出錯,顯示出較差的穩健性、可解釋性和對抗性。

  • 主要的軍事大國對條約提案投了棄權票,而其他國家和人道主義組織則迫切要求進行監管。

  • 國際和美國的政策仍然模糊不清,缺乏現實的問責和執行機制。

摘要

本文調查了全球社會在致命武器系統自主性擴散方面所面臨的關鍵技術、人道主義和政治挑戰。本文的討論涉及具有不同類型自主性的武器系統,特別是致命性自主武器系統(LAWS)。"這些武器系統包括武裝無人機、車輛、潛水器、哨兵炮塔、導彈系統和其他人工智能(AI)的動態應用。本報告旨在總結來自公共領域的主要發展,沒有秘密信息。

我們首先討論了致命性自主武器系統的狀況,包括總體趨勢、致命性自主武器系統的時間表、自主程度、致命性自主武器系統中使用的一些技術的雙重用途、國際政治立場,以及可獲得性、可解釋性、問責制和執行所帶來的挑戰。接下來,我們將討論致命性自主武器系統的自主能力和情報方面的最新文獻,然后從美國國內和國際的角度討論自主武器政策。

全球趨勢

近年來,硬件方面的技術進步,從電子光學、紅外和聲納系統到合成孔徑雷達,以及人工智能/機器人方面的技術進步,從更好的三維和視覺感知到運動預測和規劃,使得自主系統得以迅速發展[2]。技術進步推動了成本的降低、更多的可及性、更少的人為錯誤和更快的反應時間;這擴大了情報、監視和偵察(ISR)、導航、探測等方面的使用機會。人工智能設備為無人車提供了更大的速度和在不需要數據鏈接的環境中運行的能力,例如在水下或靠近對手的干擾裝置,增加了超越敵方系統的機會[3]。最近的趨勢是有更多的國家參與積極的致命性自主武器系統的開發,包括越來越多的進攻性應用,定位為城市沖突而不是戰場,以及蜂群能力。此外,無人駕駛飛行器(UAVs)的能力在其部署時間、行動的地理區域、可識別物體的范圍和相互協調的能力方面都在擴大[2]。

國際辯論也相應地加強。國家通過聯合國,以及公民個人通過國際倡導團體,施加越來越大的壓力,要求制定具有法律約束力的國際條約來規范此類武器;然而,包括美國在內的最大的軍事行為體卻一再回避任何此類承諾。因此,具有越來越多自主功能的各種致命性自主武器的技術進步和軍事采用繼續向前發展。

致命武器系統的時間軸和實例。幾十年來,致命性自主武器系統一直在不斷發展。在之前的幾十年里,半自動地面環境(SAGE)防空系統搜索敵機,軍艦采用近程武器系統(CIWS)來自動探測、跟蹤和消除來襲導彈[4, 5]。也許人類干預自動化戰爭的最著名的例子是1983年由自動目標探測引發的蘇聯核假警報事件。當預警衛星錯誤地將高空云層識別為來自美國的洲際彈道導彈時,蘇聯防空部隊中校Stanislov Petrov選擇不援引蘇聯的強制核反擊政策。

20世紀80年代,第三代反坦克制導武器(ATGWs)的制造和發展,這種武器被設計成向上發射到空中,并將利用紅外線獨立獲取目標。歐洲的PARS 3 LR[6]和以色列的Spike[7]ATGWs是這種類型的歸航導彈的例子。美國和其他國家在2022年送給烏克蘭軍隊的現代 "標槍 "反坦克武器,包含了一個稱為電子安全武裝和發射(ESAF)的控制系統,在發射后將導彈引向目標[8]。

美國在自主武器領域一直是一個突出的創新者,在1970年代首次生產了名為Phalanx CWIS的目標跟蹤和獲取裝置[9]。在21世紀初,美國愛國者導彈計算機在兩個不同的場合錯誤地識別了友軍戰機,這導致了友軍開火和死亡[10]。有缺陷的程序沒有適當考慮到自動化錯誤。在過去的十年中,韓國和以色列已經建造了能夠完全自主地識別并向人類開火的哨兵槍[10]。

近年來,俄羅斯和以色列也開發了具有自主導航和瞄準能力的無人水面飛行器(USV),中國也開發了一種自主直升機[5, 11]。致命的無人機系統和游蕩彈藥的出現也許是最危險的致命性武器系統,現在已經廣泛發展,而且相對便宜和容易獲得[11]。以前用于偵察,這些航空系統被設計為自主巡邏區域,搜索敵方雷達、飛機或人員,并對其進行攔截,通常帶有內置彈頭。眾多的例子見表一。

2021年3月8日,利比亞問題專家小組向聯合國安全理事會提交了聯合國信函[S/2021/229][12]。根據該報告,2020年3月27日,哈利法-哈夫塔爾的部隊至少受到了一枚卡爾古-2型致命性武器的攻擊,記錄了第一起可能完全自主的致命性自主武器的開火和遺忘的使用。由于難以確認像這樣的武器是否真的自主行動,可能還有類似的攻擊,但公眾并不知道。

俄羅斯在2022年入侵烏克蘭時,廣泛使用了TB2(表一)和標槍反坦克武器。目前還不清楚TB2的自主起飛和巡航功能是否對戰爭起到了作用,但標槍導彈的 "發射-遺忘 "能力使小型反擊部隊能夠快速打擊并遠距離撤退[13]。

兩用技術。參考文獻[14]描述了人工智能的 "兩用困境":同樣的技術既能提供關鍵的民用,也能提供軍事應用。自動駕駛汽車用來避開行人的同樣的視覺感知、人體識別和跟蹤工具,很容易被重新用于尋找和引爆軍事目標。

自主系統擴展了許多積極的好處,從清除地雷、供應有爭議的領土、識別和保護非戰斗人員,以及限制附帶損害。這些應用很少需要自動瞄準或發射。DART,動態分析和重新規劃工具,在沙漠風暴行動中使用人工智能來優化后勤和調度,據說已經抵消了之前30年DARPA對人工智能研究的所有資金支出[15]。再加上開放源碼的人工智能工具和技術越來越容易獲得,區分有害和有益的應用可能比核、化學或生物武器更具挑戰性。

付費5元查看完整內容

目前,人工智能(AI)為改造許多軍事行動領域提供了巨大的機會,包括作戰、指揮與控制(C2)、后勤、安全和維護,以提高其整體作戰效率。空中和導彈防御(AMD)是一個特別復雜的任務領域,人工智能的應用至關重要。空中導彈防御任務指的是保衛國土、保護區、地面基地、地面部隊或艦艇免受敵對的空中或導彈威脅。AMD的威脅包括敵對的飛機、無人駕駛飛行器(UAV)或機載導彈。AMD行動的復雜性源于威脅的嚴重性、威脅的意外性、對形勢認識的不確定性以及事件的快速發展,因為作戰人員必須迅速評估形勢,制定適當的行動方案,并最好地利用他們的戰爭資產來應對。美國國防部(U.S. DOD)正在研究使用AI系統(或AI-enabled AMD[AI-AMD]系統)作為AMD作戰人員的自動決策輔助工具,以大大減少他們的認知負荷(Jones等人,2020),使AMD決策更快、更好。

人工智能的一個關鍵方面已經聚集了大量的研究興趣,那就是信任。信任是有效團隊的一個基本原則。它同時適用于人類和人機團隊。信任使團隊成員能夠很好地合作,是有效團隊表現的基礎(Lee and See 2004)。與人工智能系統的成功合作將需要人類對人工智能系統有一個校準的信任和依賴程度(泰勒等人,2016)。

隨著更先進和更快的空中和導彈威脅彈藥的發展和投入使用,操作人員更需要在AMD行動中迅速作出監測。不及時的決策和反應將導致災難性的后果。因此,人工智能是一個可能的解決方案,通過自動決策輔助工具加快和加強決策過程。這些AMD自動戰斗管理輔助工具可以幫助戰術操作人員應對更快的決策周期、大量的數據以及需要觀察的幾個系統或屏幕(Galdorisi 2019)。然而,為了有效地利用人工智能能力的潛力,需要操作員的高度信任。操作員對系統的信任程度低,可能會導致人工智能-AMD系統利用不足,受到不適當的監控,或者根本不使用(Floyd, Drinkwater, and Aha 2016)。這些問題中的任何一個都可能導致操作者的工作量不必要的增加,或者任務失敗的可能性。

論文對信任的定義、人機交互(HMI)的概念、信任因素以及包括AMD殺傷鏈模型、威脅場景、架構、模型和功能在內的概念模型進行了廣泛的回顧。有了這樣的認識,論文提出了人工智能-AMD系統的信任框架,對人機交互和人工智能-AMD系統信任因素的描述。論文最后提出了在人類操作者和AI-AMD系統之間實現校準信任的策略

信任框架始于對系統背景的分析。圖1顯示了AI-AMD指揮與控制(C2)系統(包括AI-AMD操作員和決策輔助工具)及其他與之互動的子系統的背景圖,這些子系統有助于操作員和AI-AMD決策輔助工具之間信任的發展。背景圖使我們能夠研究各系統之間的相互作用,以及它們對AI-AMD操作員和決策輔助工具之間信任動態的影響。

圖1. AI-AMD系統框架圖。

這篇論文將信任定義為操作者的態度,即AI-AMD決策輔助工具將有助于實現操作者的目標,即在一個以不確定性和脆弱性為特征的作戰環境中迅速摧毀來襲威脅的任務。這種信任的定義表明,它是對操作者相信或感知AI-AMD決策輔助工具的一種情感評估。為了積極地影響信任,操作者必須親自看到并感受到AI-AMD決策輔助行動的優勢。AI-AMD行動涉及很多不確定因素,以及天氣、電磁干擾和地形等環境因素以及不斷變化的威脅的性質所帶來的脆弱性。操作員將預期AI-AMD決策輔助系統按照 "合同 "執行,以處理這些不確定性和脆弱性。這些合同將是人工智能-AMD決策輔助工具應該執行的感知功能或任務,以及執行這些功能或任務的理想表現。

圖2說明了操作員和AI-AMD決策輔助工具之間的信任框架。y軸代表人類對AI-AMD決策輔助系統的信任程度,x軸代表AI-AMD決策輔助系統的能力。綠色的45°虛線表示最佳的信任水平或校準的信任線,其中的信任與AI-AMD的能力相對應,導致正確的利用(Lee and See 2004)。過度信任由最佳信任水平線以上的區域表示,此時的信任超過了系統能力,導致誤用。低于理想信任水平線的區域表示不信任,這時的信任沒有達到系統能力,導致濫用。假設存在一些默認的信任水平(如黃框所示),目標是制定一個策略,以提高AI-AMD輔助決策能力的信任。在使用該系統時,可能會發生違反信任的情況,從而降低操作員的信任。因此,信任修復行動必須被納入,以保持信任在最佳水平。

圖2. 人類操作員和AI-AMD決策輔助工具之間的信任。

基于功能分配的操作員和AI-AMD決策輔助工具之間的人機交互研究表明,操作員和AI-AMD決策輔助工具應該被設計成在大多數殺戮鏈功能中作為一個 "團隊"運作。這引導論文研究了單獨和集體考慮人類和決策輔助的信任因素。對操作員和人工智能-AMD決策之間的人機交互的研究還顯示,操作員的角色已經從手動控制器變成了監督控制器。因此,一個值得信賴的決策輔助工具是很重要的,因為操作者會期望系統的表現符合預期,以幫助操作者更好地履行他的角色。另外,為了進一步幫助減輕操作者的認知工作量,信息的外部表示、決策輔助工具的建議必須易于閱讀和理解。

關于信任因素,本論文提出了一個 "由外而內 "的框架,如圖3所示。論文首先考慮了與操作環境相關的因素,這些因素描述了AMD操作系統的背景。第二,它研究了與組織環境相關的因素,操作人員和人工智能-AMD系統得到了培訓和發展。第三,論文研究了操作人員和人工智能-AMD決策輔助工具之間的交互,以提出與操作人員、人工智能-AMD、單獨和集體相關的因素。

圖3. 建議的信任因素

圖4顯示了擬議的戰略銜接圖,以實現操作者和AI-AMD輔助決策之間的校準信任。對信任定義、人機界面和信任因素的審查表明,該戰略應關注三個關鍵領域:(1)人類對自動化技術和AI-AMD決策輔助系統的集體和個人感知;(2)增強操作員和AI-AMD決策輔助系統的團隊活力;(3)AI-AMD決策輔助系統的可信度,重點是系統開發。該戰略利用DOTMLPF-P框架提出了三個關鍵原則和五個支持原則。首先,軍事作戰人員需要被告知自動化技術的真正能力和局限性,特別是AI-AMD輔助決策。第二,操作員的培訓要求必須增加,以應對新的工作范圍和不斷變化的威脅。第三,必須在人工智能-AMD決策輔助系統的開發中加入新的要求,以提高系統的可感知的可信度。這三個關鍵原則得到了DOTMLPF-P框架其他方面的支持,如組織、領導、人員、設施和政策。

圖4. 實現操作員和人工智能-AMD決策輔助工具之間校準信任的戰略銜接圖

付費5元查看完整內容
北京阿比特科技有限公司