亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

決策算法正在被用于重要的決策中,例如誰應該被納入醫療保健計劃和被雇用。盡管這些系統目前被部署在高風險的場景中,但許多系統無法解釋其決策。這種局限性促使了可解釋人工智能(XAI)計劃的提出,該計劃旨在使算法可以解釋,以符合法律要求,促進信任,并保持問責制。本文質疑可解釋性是否以及在多大程度上可以幫助解決自主人工智能系統帶來的責任問題。我們認為,提供事后解釋的XAI系統可以被看作是可問責的智能體,掩蓋了開發者在決策過程中的責任。此外,我們認為XAI可能會導致對脆弱的利益相關者的不正確責任歸屬,比如那些受到算法決策影響的人(即病人),因為他們被誤導地認為對可解釋的算法有控制。如果設計者選擇將算法和病人作為道德和法律上的“替罪羊”,這種可解釋性和責任感之間的沖突就會加劇。我們最后提出了一系列關于如何處理算法決策的社會技術過程中的這種緊張關系的建議,以及為防止設計者逃避責任而進行的硬性監管辯護。

引言

人工智能(AI)現在被廣泛用于各種情況,從娛樂等低風險的場景[90]到選擇誰應該優先獲得醫療幫助等高風險的生死決策[75]。廣泛的研究已經提出了算法決策是否會對社會產生負面影響。例如,研究發現,算法保釋決策有種族偏見[2],討論了用于招聘決策的人工智能系統如何嵌入偏見[8],并發現在線廣告對女性有歧視[27]。

大多數決策算法的一個主要問題是其不透明性。大多數算法都是黑盒的,不對其決策、建議或處理提供解釋[76]。這一局限性是開發可解釋人工智能(XAI)的核心動力,它提議通過 "使[其]功能清晰易懂 "來使算法變得可解釋[3]。在算法決策的背景下,XAI創建的模型的行為可以很容易理解(即那些透明的模型),或者可以在決策后解釋其行為(例如,通過提供事后的解釋)。對XAI的呼吁已經在工業界、學術界和政策制定中變得很普遍[48]。

XAI領域的目標是創建便于將責任歸于參與其開發和部署的人類智能體系統。由于責任差距的存在,分配算法決策的責任被廣泛認為是一項困難的任務[4, 69]。正如Robbins[81]所主張的,可解釋的系統將保持有意義的人類控制,允許將責任追溯到設計者、用戶和病人(即那些受算法決策影響的人)。這并不是說,XAI的提出只是為了處理責任問題。例如,解釋也可以用來遵守法律要求,促進對決策算法的信任,并評估其準確性[57]。

我們在本文中認為,XAI并不是解決自主決策算法所帶來的大量責任問題的萬能藥。我們將討論的重點放在那些被設計為做出后果性決定并能在事后提供解釋的人工智能系統上,也就是說,那些可以事后解釋的算法。雖然我們同意可解釋的系統對于負責任地部署算法決策是必要的,但我們表明XAI的事后解釋可能與公眾對AI系統的代理權和可問責性的理解不一致。此外,我們討論了那些受制于算法決策的人(即病人)如何可能被視為對XAI系統具有有意義的人類控制,并說明這種印象是錯誤的,不能轉化為對算法的真正授權。

考慮到問責是對代理人采取行動的原因的反應[86],事后可解釋的算法可能被視為可以解釋其決定背后原因的行為者,因此是可問責的。可解釋的人工智能系統也可能被視為比其不透明的同行更有能力和意圖,從而導致更高的問責水平[63, 64]。這種印象掩蓋了人類代理人在算法決策中的責任,并將普通人的道德判斷轉移到機器上,有可能影響政策制定者并阻礙有益的人工智能技術的采用[11, 19]。

出于對開發者可以為自主系統的部署洗白其代理權[82]并實施表面的道德措施以避免監管[38]的擔憂,我們展示了他們如何利用XAI為病人創造一種虛假的理解和控制感。我們用研究來說明這種誤導性的印象,研究表明,算法解釋往往是無意義的,讓個人無法真正控制[83]。XAI系統也可以被用來欺騙病人,甚至是那些在AI相關領域受過訓練的人[33],制造道德和法律上的替罪羊。

通過說明可解釋系統的責任是如何模糊的,我們以XAI領域的新穎和批判的視角分析了自主系統所帶來的責任差距,從而對文獻做出了貢獻。我們的結論是對可解釋系統的呼吁,這將強調開發者在整個決策算法的開發和部署過程中的責任。最后,我們討論了目前的監管方法如何未能解決可解釋性和責任之間的沖突,并提供了潛在的解決方案。

圖 1. 此圖中總結了要點。提供事后解釋的決策算法可以被視為應為自己的決策負責的應受指責的代理人;我們解釋了如何通過增加意向性和能力的歸因來解釋這種看法。可解釋的系統還可能導致將責任錯誤地歸因于受算法決策影響的人(即患者)。可解釋的系統給人以自信和授權的印象,暗示患者應該承擔一些責任。這個概念是不正確的,可能會被試圖逃避算法決策責任的設計師所利用。

付費5元查看完整內容

相關內容

這篇論文探討了美陸軍信息戰令人困惑的歷史,以了解為什么持久的信息條令被證明是如此難以捉摸。論文認為,陸軍信息條令的發展分為三個階段,每個階段都對應著一系列獨特的戰略、組織和技術挑戰。內部的組織動態,而不是外部的戰略一致性,是決定信息學說在歷史上任何特定時刻的成敗的主要因素。未來的信息條令,包括目前的ADP 3-13草案的未來迭代,必須以認可陸軍組織利益的復雜性方式來解決陸軍的核心戰略挑戰,而且必須通過一個概念來實現,其有效性是可見的、可衡量的和令人信服的。

研究意義

盡管學術界和政策文獻對信息戰爭,特別是對陸戰的重要性有越來越多的共識,但對美軍如何建立其與信息有關的作戰概念,或對這些概念何時、如何以及為什么會改變的研究卻很少。對于一個自誕生以來就幾乎不斷變化的領域來說,了解是什么推動了條令的變化尤為重要,信息作戰就是如此。本研究報告所包含的歷史將填補我們理解上的這一空白。重要的是,它將試圖區分條令變化的有效原因--例如為應對不斷發展的技術或合法的外部威脅而進行的轉變,以及任意的原因--例如那些源于內部組織政治或外部政治關切的原因。這樣一來,它將更好地使政策制定者對未來信息作戰概念的適當方向做出正確的決定。

這項研究還將產生第一部關于陸軍信息條令演變的權威性歷史。最近的公開評論表明,陸軍高級領導人并不了解他們所要塑造條令的歷史。這種對歷史的短視有可能鼓勵在舊的不充分的前提下,不斷產生實際上并不新的 "新 "術語和概念。如果說,本研究對信息條令歷史的探索揭示了陸軍最早的許多信息相關概念的先見之明--這本身就引出了一個問題:為什么這些概念未能獲得制度上的支持。因此,這項研究將對那些試圖在信息和網絡空間領域找到自己發展方向的決策者產生直接影響。

最后,本論文希望對以下問題提供一個答案:鑒于三十年的條令先例,信息戰的想法仍然在體制上被邊緣化,盡管高級領導人對信息戰的假設越來越感興趣,但卻無法更有力地宣稱自己是一種輔助功能。本論文認為,在不斷變化的戰略條件、相互競爭的組織利益和 "信息 "一詞固有的復雜性的共同作用下,長期以來缺乏理論上的一致性,導致該領域無法成為一個邊緣概念。

提綱

第一章介紹了美陸軍信息條令的歷史,為論文的其余部分提供了理解的基礎。本論文的主要研究問題是 "為什么陸軍一直在努力創建一個持久的信息作戰條令框架?" 其余各章將回答這個問題

第二章將介紹陸軍信息條令的歷史學。它將總結和描述關鍵文本,確定學說拐點的主要內容,并強調歷史趨勢。本章將專門關注書面條令的演變,而將相關組織、培訓途徑和人員實踐的變化保留在分析章節中。第三章將討論本文的研究方法。

第四章至第六章將分析第二章中概述的歷史的主要階段,重點解釋導致條令變化的具體決策點。第四章將探討從越南的 "電子戰場 "到1991年波斯灣戰爭的信息作戰的早期起源。第五章將研究隨后的信息行動時期,它從1991年的 "信息戰 "概念開始,在1996年過渡到 "信息行動",并以1990年代末在巴爾干地區的行動結束。第六章從9/11恐怖襲擊開始,描述了隨之而來的2000年代中后期向更注重認知的 "信息和影響 "理念的轉變。第七章是結論,在回顧研究的主要發現和討論其實際意義之前,將總結從2016年到2021年這五年的動蕩時期。

付費5元查看完整內容

軍事系統日益增強的自主能力提出了各種具有挑戰性的法律、倫理、政策、行動和技術問題。本卷的主要貢獻在于它對這些挑戰的多學科表述。在引言部分,沙瑞概述了自主性的基本概念,并反思了其對軍事行動的影響,如人機合作的機會。隨后,威廉姆斯對如何定義 "自主性 "進行了詳細分析。Scharre和Williams的章節提醒我們,真正的自主系統并不存在--也許只是在科幻故事的遙遠未來。相反,他們強調自主性是系統的一種能力,它存在于組織、政策、指導和人類控制的復雜安排中。

Roorda的這一章給出了一個具體的例子,說明自主系統的使用是如何被特定的政策過程所控制的,以及在部署任何系統之前,該過程的每個階段是如何納入對相關法律、道德和操作問題的必要的人類決策。

然而,當代的政策辯論--最近在《聯合國某些常規武器公約》中,顯示出自主系統仍然是一個有爭議的話題。雖然武裝沖突法和國際人權法并不禁止向自主系統下放軍事職能,但阿諾德和克羅托夫的章節擴大了視野,特別討論了國家的作用和責任,以及可能受到自主系統發展影響的各種國際法。然而,這種政策問題并不是軍事領域所獨有的。安德森和松村的章節強調了在民用領域引入 "無人駕駛 "汽車所面臨的法律和政策挑戰,軍事能力應該注意到這一點。

即使考慮到這些法律和政策結論,對自主系統仍有嚴重的倫理和實際保留。梅爾的章節為分析自主系統在軍事行動中的影響提出了一個倫理框架,并提出了一系列政策制定者的建議。Keeley提出了另一種解決方案,建議建立一種審計和追蹤系統內部算法的程序和能力,以便進行驗證和確認、測試和問責。然而,Theunissen和Suarez表明,對于許多任務來說,高水平的自主性不一定是可取的,最佳的解決方案是將自主控制和人類控制結合起來,發揮各自的優勢。

有了這個關于自主系統政策考慮的法律、定義和倫理框架,本書的最后一節介紹了關于能力發展各個方面的四個詳細章節。首先,Saariluoma提出了一個框架,為自主系統引入基于人類技術互動設計的思維,提醒我們,最終,這種系統是人類的工具,因此,人類互動和控制系統的方式應該是直觀的。

Sulzbachner、Zinner和Kadiofsky的章節強調,許多自主系統的要求是無源光學傳感器技術,用于在非結構化、非合作的環境中運動。他們提醒我們,正在進行的將無人駕駛和自主系統納入空域的各種監管舉措,例如,本質上依賴于建立性能標準,然而驗證光學和其他傳感器系統的標準化方法仍未完全建立。

Arbour、MacLeod和Bourdon對有人和無人的組隊概念進行了分析,并提出了一系列不同的選擇,即無人飛機如何與有人飛機協同使用,發揮各種新的作用。他們的建議是,鑒于無人系統的可靠性和自主性不斷提高,我們需要在能力發展的早期階段確定更多的潛在配置和組合,而不是局限于一對一的平臺替代。

托爾克在本卷的最后一章建議更多地使用基于代理的模擬方法來支持自主系統的設計、開發、測試和操作使用。原因是仿真中的軟件代理是自主機器人系統的虛擬對應物,在許多情況下,管理物理系統和軟件代理的基本算法可能是相同的。這導致了許多改善系統測試和評估的機會,而且通過在部署前對系統的任務進行模擬,還可以提供操作支持。

本卷的結尾是北約首席科學家Husniaux少將的前瞻性觀點,他為未來的能力發展推薦了一系列關鍵研究領域。他提醒我們,科學和技術的發展是必不可少的,但必須與操作者、政策、法律和理論觀點合作,共同發展。

我們正在擴大我們在這一關鍵領域國防能力的視野,然而創新需要外部的投入和新的觀點。實現這一目標的最佳方式是通過一個多樣化的專家網絡來分享想法。我知道,SACT總部領導的工作已經從這種接觸中受益匪淺,我希望聯盟的科學家、工程師、法律和政策工作人員以及軍事操作人員網絡也將同樣受益。

付費5元查看完整內容

目前,人工智能(AI)為改造許多軍事行動領域提供了巨大的機會,包括作戰、指揮與控制(C2)、后勤、安全和維護,以提高其整體作戰效率。空中和導彈防御(AMD)是一個特別復雜的任務領域,人工智能的應用至關重要。空中導彈防御任務指的是保衛國土、保護區、地面基地、地面部隊或艦艇免受敵對的空中或導彈威脅。AMD的威脅包括敵對的飛機、無人駕駛飛行器(UAV)或機載導彈。AMD行動的復雜性源于威脅的嚴重性、威脅的意外性、對形勢認識的不確定性以及事件的快速發展,因為作戰人員必須迅速評估形勢,制定適當的行動方案,并最好地利用他們的戰爭資產來應對。美國國防部(U.S. DOD)正在研究使用AI系統(或AI-enabled AMD[AI-AMD]系統)作為AMD作戰人員的自動決策輔助工具,以大大減少他們的認知負荷(Jones等人,2020),使AMD決策更快、更好。

人工智能的一個關鍵方面已經聚集了大量的研究興趣,那就是信任。信任是有效團隊的一個基本原則。它同時適用于人類和人機團隊。信任使團隊成員能夠很好地合作,是有效團隊表現的基礎(Lee and See 2004)。與人工智能系統的成功合作將需要人類對人工智能系統有一個校準的信任和依賴程度(泰勒等人,2016)。

隨著更先進和更快的空中和導彈威脅彈藥的發展和投入使用,操作人員更需要在AMD行動中迅速作出監測。不及時的決策和反應將導致災難性的后果。因此,人工智能是一個可能的解決方案,通過自動決策輔助工具加快和加強決策過程。這些AMD自動戰斗管理輔助工具可以幫助戰術操作人員應對更快的決策周期、大量的數據以及需要觀察的幾個系統或屏幕(Galdorisi 2019)。然而,為了有效地利用人工智能能力的潛力,需要操作員的高度信任。操作員對系統的信任程度低,可能會導致人工智能-AMD系統利用不足,受到不適當的監控,或者根本不使用(Floyd, Drinkwater, and Aha 2016)。這些問題中的任何一個都可能導致操作者的工作量不必要的增加,或者任務失敗的可能性。

論文對信任的定義、人機交互(HMI)的概念、信任因素以及包括AMD殺傷鏈模型、威脅場景、架構、模型和功能在內的概念模型進行了廣泛的回顧。有了這樣的認識,論文提出了人工智能-AMD系統的信任框架,對人機交互和人工智能-AMD系統信任因素的描述。論文最后提出了在人類操作者和AI-AMD系統之間實現校準信任的策略

信任框架始于對系統背景的分析。圖1顯示了AI-AMD指揮與控制(C2)系統(包括AI-AMD操作員和決策輔助工具)及其他與之互動的子系統的背景圖,這些子系統有助于操作員和AI-AMD決策輔助工具之間信任的發展。背景圖使我們能夠研究各系統之間的相互作用,以及它們對AI-AMD操作員和決策輔助工具之間信任動態的影響。

圖1. AI-AMD系統框架圖。

這篇論文將信任定義為操作者的態度,即AI-AMD決策輔助工具將有助于實現操作者的目標,即在一個以不確定性和脆弱性為特征的作戰環境中迅速摧毀來襲威脅的任務。這種信任的定義表明,它是對操作者相信或感知AI-AMD決策輔助工具的一種情感評估。為了積極地影響信任,操作者必須親自看到并感受到AI-AMD決策輔助行動的優勢。AI-AMD行動涉及很多不確定因素,以及天氣、電磁干擾和地形等環境因素以及不斷變化的威脅的性質所帶來的脆弱性。操作員將預期AI-AMD決策輔助系統按照 "合同 "執行,以處理這些不確定性和脆弱性。這些合同將是人工智能-AMD決策輔助工具應該執行的感知功能或任務,以及執行這些功能或任務的理想表現。

圖2說明了操作員和AI-AMD決策輔助工具之間的信任框架。y軸代表人類對AI-AMD決策輔助系統的信任程度,x軸代表AI-AMD決策輔助系統的能力。綠色的45°虛線表示最佳的信任水平或校準的信任線,其中的信任與AI-AMD的能力相對應,導致正確的利用(Lee and See 2004)。過度信任由最佳信任水平線以上的區域表示,此時的信任超過了系統能力,導致誤用。低于理想信任水平線的區域表示不信任,這時的信任沒有達到系統能力,導致濫用。假設存在一些默認的信任水平(如黃框所示),目標是制定一個策略,以提高AI-AMD輔助決策能力的信任。在使用該系統時,可能會發生違反信任的情況,從而降低操作員的信任。因此,信任修復行動必須被納入,以保持信任在最佳水平。

圖2. 人類操作員和AI-AMD決策輔助工具之間的信任。

基于功能分配的操作員和AI-AMD決策輔助工具之間的人機交互研究表明,操作員和AI-AMD決策輔助工具應該被設計成在大多數殺戮鏈功能中作為一個 "團隊"運作。這引導論文研究了單獨和集體考慮人類和決策輔助的信任因素。對操作員和人工智能-AMD決策之間的人機交互的研究還顯示,操作員的角色已經從手動控制器變成了監督控制器。因此,一個值得信賴的決策輔助工具是很重要的,因為操作者會期望系統的表現符合預期,以幫助操作者更好地履行他的角色。另外,為了進一步幫助減輕操作者的認知工作量,信息的外部表示、決策輔助工具的建議必須易于閱讀和理解。

關于信任因素,本論文提出了一個 "由外而內 "的框架,如圖3所示。論文首先考慮了與操作環境相關的因素,這些因素描述了AMD操作系統的背景。第二,它研究了與組織環境相關的因素,操作人員和人工智能-AMD系統得到了培訓和發展。第三,論文研究了操作人員和人工智能-AMD決策輔助工具之間的交互,以提出與操作人員、人工智能-AMD、單獨和集體相關的因素。

圖3. 建議的信任因素

圖4顯示了擬議的戰略銜接圖,以實現操作者和AI-AMD輔助決策之間的校準信任。對信任定義、人機界面和信任因素的審查表明,該戰略應關注三個關鍵領域:(1)人類對自動化技術和AI-AMD決策輔助系統的集體和個人感知;(2)增強操作員和AI-AMD決策輔助系統的團隊活力;(3)AI-AMD決策輔助系統的可信度,重點是系統開發。該戰略利用DOTMLPF-P框架提出了三個關鍵原則和五個支持原則。首先,軍事作戰人員需要被告知自動化技術的真正能力和局限性,特別是AI-AMD輔助決策。第二,操作員的培訓要求必須增加,以應對新的工作范圍和不斷變化的威脅。第三,必須在人工智能-AMD決策輔助系統的開發中加入新的要求,以提高系統的可感知的可信度。這三個關鍵原則得到了DOTMLPF-P框架其他方面的支持,如組織、領導、人員、設施和政策。

圖4. 實現操作員和人工智能-AMD決策輔助工具之間校準信任的戰略銜接圖

付費5元查看完整內容

摘要

今天的戰場正在經歷一場由建立在人工智能和機器學習等方法和手段上的智能系統(IS)帶來的軍事事務革命。這些技術有可能從根本上改變戰場的性質,為用戶提供更好的數據,使其能夠更好、更快地做出決定。雖然這些技術具有巨大的潛力,但它們在被作戰人員、軍事領導層和政策制定者廣泛采用方面面臨巨大障礙。

混合戰爭的戰場是一個危險的環境。基于信息系統的決策支持,提供計算機生成的預測或建議,必須與現實世界的巨大后果抗衡。不幸的是,智能系統所固有的復雜性和多維性往往使傳統的驗證和確認工作(如可追溯性分析)變得不可能。此外,由于智能系統的典型的不透明性,用戶經常面臨著可能有廣泛的道德和倫理問題的決策。戰士們可能不愿意將自己或他人的生命交到決策不透明的系統手中。將軍們可能會擔心為失敗承擔責任。政策制定者可能會擔心他們的政治前途。這些對信任和采用先進系統的挑戰,如果不直接理解和系統地克服,將可能使西方軍隊與那些對使用先進系統不那么擔心的對手相比處于非常不利的地位。

無數的研究工作提供了關于人們何時信任技術系統并采用它們的觀點。然而,這些觀點中很少有專門針對基于智能系統的技術的,更少的是針對軍事應用中的高風險環境和獨特需求,特別是混合戰爭的背景。

本文提供了一個關于信任和接受技術的混合模型概述,它將幫助開發者和設計者建立系統,以提高對軍事應用先進智能系統的信任和接受。具體來說,我們的方法借鑒了多個經驗證的計算行為科學信任模型,以及經驗證的技術接受框架。我們的混合模型旨在支持快速的現場測試,為提高先進軍事智能系統的信任度和接受度提供一個應用的、計算上有效的框架。

付費5元查看完整內容

摘要

可解釋的人工智能(XAI)提供了克服這一問題的手段,它基于有關深度學習(DL)算法結果的額外補充信息。雖然完全透明對于復雜的DL算法來說仍然是不可行的,但解釋有助于用戶在關鍵情況下對AI信息產品進行判斷。應該指出的是,XAI是透明度、因果關系、可信度、信心、公平、信心和隱私等方面的總稱。因此,基本的方法論是多方面的。一種已經流行的方法是局部可解釋模型-預知解釋(LIME)方法,因為它可以很好地應用于各種應用中的不同模型。在本文中,LIME算法是在戰略運營的決策建議背景下進行研究的。在簡單介紹了其概念后,介紹了文獻中的應用。然后,一個戰略博弈的場景被認為是軍事戰爭的替代環境。一個基于DL的國際象棋人工智能被做成 "可解釋的",以評估信息對人類決定者的價值。得出了與戰略混合行動有關的結論,這反映了所提出的方法的局限性。

引言

根據設想,未來戰略戰爭的決策將在很大程度上受到基于人工智能(AI)方法的信息產品的影響。特別是混合作戰,是在一個高維和變異的環境中進行的,在這種環境中,對潛在的威脅和機會的評估是人類操作者難以掌握的,戰略規劃必須納入異質的、多功能的和高容量的數據源。因此,基于人工智能方法的算法產生的分類、預測和建議在這種復雜的場景中變得越來越重要。在過去的幾年里,人工智能的方法已經獲得了巨大的發展,有大量的創新和令人尊敬的成果,可以從大型數據集中獲得更高層次的信息。然而,深度學習(DL)方法的一個主要缺點是其固有的黑箱屬性,即由于計算模型的復雜性,其結果是不透明的。例如,后者可能有數百個層和數百萬個參數,這些參數是在訓練階段通過算法發現和優化的。因此,即使結果是準確的,用戶也沒有機會理解它或掌握輸入數據的因果部分。這反過來又會影響到用戶對輔助設備的信任,在兩個方向上都是如此。這個問題在某些民事應用中起著次要的作用,例如語音識別,它經常被應用于與設備的互動,因為除了體面的失望之外沒有潛在的風險。對于其他非常具體的任務,如手寫字符識別,DL算法的性能超出了人類的平均水平,這意味著失敗的可能性很小,因此關于因果關系的問題可能成為附屬品。然而,在許多軍事應用中,當涉及到與人工智能的互動時,人類的信任是一個關鍵問題,因為錯誤的決定可能會產生嚴重的后果,而用戶始終要負責任。這實際上是兩方面的。一方面,操作者往往需要了解人工智能產品的背景,特別是如果這些產品與他或她自己的本能相悖。另一方面,不可理解的技術會對算法信息產品產生偏見,因為很難確定在哪些條件下它會失敗。因此,適當的信任程度可能很難計算。

可解釋的人工智能(XAI)是向黑盒人工智能模型的用戶提供 "透明度"、"可解釋性 "或 "可解釋性 "的方法的集合。這些術語幾乎沒有一個共同的定義,但許多出版物提到了:

  • 透明度是指人類跟蹤和理解模型創建過程的可能理解程度。這就是從數據中提取信息,轉化為推理參數的表現形式。DL前饋網絡由于其基于大數據集的迭代學習過程和錯誤向各層的遞歸傳播而缺乏這一特性。
  • 可解釋性是指對模型本身的理解程度,即從輸入數據到預測結果的信息流可以被理解。由于涉及的參數數量和層的層次結構,這對標準網絡來說是不可行的。
  • 可解釋性是指對特定預測結果進行解釋的可能性程度。也就是說,用戶可以看到與輸入數據的一致性,在某種程度上可以看到是否存在因果關系。

XAI不能完全 "解釋 "DL模型,然而,它為工程師或操作員提供了更好地理解特定AI產品背后的因果關系的手段。而且很多時候,這可以幫助看到,從合理的因果關系鏈暗示算法決策或預測的意義上來說,該模型是否是合理的(或不是)。因此,XAI可以成為人工智能模型工程的一個重要工具,用于安全方面的驗證,甚至用于認證過程,以及為操作員提供額外的信息,以支持明智的決策。

雖然關于XAI的大多數文獻都集中在圖像識別的方法上,但這些結果很難轉化為基于特定挑戰性競爭形勢的戰術和戰略決策領域。在本文中,我們研究了人工智能模型在棋盤評估中的可解釋性。對更復雜的軍事戰略模擬的一些影響進行了討論。

本文的結構如下。在下一節中,簡要介紹了選定的XAI方法。然后,這些方法之一(LIME)被應用于棋盤評估問題,以證明在支持信息方面的解釋的質量。在最后一節,得出了結論,并討論了對更復雜的戰爭博弈和模擬的概括。

付費5元查看完整內容

摘要

記錄一個系統或集成系統內所有信息變化的出處,這提供了關于正在做出的決定和促使這些決定的重要信息。從取證的角度來看,這可以用來重新創建決策環境。然而,出處也可以為其他兩個重要功能服務。收集的數據可以支持組件的整合,而生成的圖形數據結構可以通過解釋、總結和告警來支持操作員進行態勢感知。混合戰爭將必然匯集不同決策支持能力,因為決策者必須在多個戰爭領域運作。自主代理將可能在計劃和執行過程中發揮作用,有時能夠在沒有人類干預的情況下做出決定,但人類決策者必須意識到這一點。事實證明,證據圖可以轉化為修辭結構圖(RSG),使代理能夠用自然語言甚至多模態交流,向人類解釋他們的行動。證據還被證明可以加強對計劃執行監控,并可用于向人類或自主代理提供通知,當計劃中使用的信息發生變化時,可能需要重新考慮計劃。隨著我們朝著智能機器在復雜環境中支持人類決策者團隊的方向發展,跟蹤決策及其輸入的需要變得至關重要。

引言

出處是關于實體、活動、代理以及這些概念之間關系的信息[1]。這些信息不僅僅解釋了發生了什么,它還回答了關于實體如何被操縱、何時發生以及誰參與了這個過程的問題。我們很可能熟悉關于追蹤藝術作品出處的新聞和虛構的故事。任何實體的創造、破壞或修改的出處都可以被追蹤。在本文中,我們將重點討論軍事系統內的信息。在指揮與控制(C2)內,信息出處對于記錄行動背后的決策過程是必要的,特別是當自主和人工智能(AI)代理深入參與時。參與某一過程的 "誰 "可能是人類或人工智能代理。

信息出處有幾個目的。在取證方面,出處追蹤提供了參與決策的人和代理,以及數據是如何演化為該決策的。美國公共政策委員會指出,數據出處是算法透明度和問責制的一個明確原則[2]。完整記錄的出處可以闡明數據的依賴性、責任流,并幫助解釋為什么采取某些行動。隨著人工智能和自主代理繼續自動化進程,它們在做出關鍵決策時已變得更加不可或缺[3]。

圖1 PROV-DM模型。
付費5元查看完整內容

摘要

為了能夠在一個日益脆弱的世界中捍衛自己的生活方式和價值觀,團結在北約框架內的西方民主國家必須有能力在必要時 "以機器速度作戰"。為此,國防領域的數字化不能只局限于后勤、維護、情報、監視和偵察,而必須同樣能夠實現負責任的武器交戰。以歐洲未來戰斗航空系統(FCAS)為重點,我們討論了基于人工智能的武器系統的道德統一系統工程的各個方面,這可能會在國際社會中找到更廣泛的同意[1]。在FCAS計劃中,這是自二戰以來歐洲最大的軍備努力,有人駕駛的噴氣式飛機是一個網絡系統的元素,無人駕駛的 "遠程載體 "保護飛行員并協助他們完成戰斗任務。鑒于正在進行的辯論,德國國防部長已經強調。"歐洲戰略自主的想法走得太遠了,如果它被認為意味著我們可以在沒有北約和美國的情況下保證歐洲的安全、穩定和繁榮。那是一種幻覺[2]"。在這個意義上,FCAS與北約的目標是一致的。

引言

"武器的殺傷力越大,影響越深遠,就越需要武器背后的人知道他們在做什么,"沃爾夫-馮-鮑迪辛將軍(1907-1993)說,他是1955年成立的二戰后德國聯邦國防軍的富有遠見的設計師(見圖1)。"如果沒有對道德領域的承諾,士兵就有可能成為一個單純的暴力功能者和管理者"。他深思熟慮地補充道。"如果僅僅從功能的角度來看,也就是說,如果要實現的目標在任何情況下都高于人,那么武裝部隊將成為一種危險[3]"。

弗朗西斯-培根(1561-1626)關于實現權力是所有知識的意義的聲明標志著現代項目的開始[4]。然而,自從人工智能(AI)在國防領域出現后,旨在造福人類的技術可能會反過來影響它。這種類型的工具性知識使現代危機像在聚光燈下一樣明顯。關于人的倫理知識,關于人的本質和目的,必須補充培根式的知識。有一種 "人的生態學",一位德國教皇提醒德國議員說。"他不制造自己;他要對自己和他人負責[5]"。因此,任何符合倫理的工程必須是以人類為中心的。這對于國防領域的人工智能來說是最迫切的。因此,數字倫理和相應的精神和道德是必不可少的技能,要與卓越的技術同時系統地建立起來。因此,領導哲學和個性發展計劃應鼓勵設計和使用基于人工智能的防御系統的道德能力。

北約STO的科技界如何在技術上支持負責任地使用我們從人工智能中收獲的巨大力量?為了更具體地論證,讓我們以德國聯邦國防軍的文件為指導,從它在20世紀50年代成立的時候,也就是人工智能這個詞真正被創造出來的時候,到最近的聲明。由于這些武裝部隊已經從暴政和以當時高科技為特征的 "全面戰爭 "中吸取了教訓,他們似乎在概念上已經為掌握數字挑戰做了準備。這一點更是如此,因為聯邦國防軍是一支載于《德國基本法》的議會軍隊,它完全按照聯邦議院的具體授權行事,即以德國人民的名義行事。

國防領域的人工智能旨在將軍事決策者從常規或大規模任務中解脫出來,并 "馴服 "復雜性,讓他們做只有個人才能做的事情,即智能地感知情況并負責任地采取行動。自動化對聯邦國防軍的重要性很早就被認識到了。馮-鮑迪辛在1957年提出:"然后,人類的智慧和人力將再次能夠被部署到適合人類的領域"[6]。從這個角度來看,武裝部隊作為基于人工智能的系統的使用者,并沒有面臨根本性的新挑戰,因為技術的發展一直在擴大感知和行動的范圍。

圖1:"最高度機械化的戰斗需要[......]讓士兵意識到他們的責任,讓他們體驗到他們的行為和不行為的后果。"沃爾夫-馮-鮑迪辛(1954)? 聯邦國防軍
付費5元查看完整內容

摘要

由于軍事戰場日益復雜,國防部門正在尋找最先進的解決方案,為操作人員提供工具,以實現比對手更快和更有效的決策過程。這些工具通常被稱為決策支持系統(DSS),在過去幾十年里一直在使用。人工智能技術通常被應用在決策支持系統中,以確保與個人行為相比,錯誤率更低,決策更快。在決策支持系統中,這種實現的有效性在很大程度上取決于操作者對人工智能提供的建議的理解能力,以及由此產生的信任。可解釋的人工智能(XAI)允許用戶通過在DSS的用戶界面(UI)中可視化的過程來了解系統是如何得出關于某個決策的建議的。然而,這也帶來了一個固有的問題,即:在用戶超載、降低操作者的決策性能之前,應該向用戶展示多少過程?

在這項研究中,一個人工智能驅動的應用程序已經被開發出來,它可以幫助操作員規劃一個軍用直升機任務。在這個場景中,操作者需要為直升機上的士兵找到兩個合適的著陸區域(LZs),以便接近一個小城市地區的恐怖分子營地。DSS支持選擇合適的降落區域的過程,考慮到各個方面,例如到目標區域的距離、光斑大小、表面類型和坡度。為了評估達到信任和任務績效的最佳水平需要多少透明度,我們定義了四個可解釋性級別,每個級別都增加了信息透明度和控制級別。對于這四個關卡中的每一個,都需要在測試階段設計、開發和評估獨特的ui。結果表明,第三和第四UI設計的性能有所提高(決策制定的時間更少,LZ決策的正確百分比更高,提交的LZ反映了良好的人機交互,感知和實際得分之間的偏差較低),這比前兩層提供了更多的信息和更多的互動可能性。結果還表明,用戶更喜歡個性化他們的UI,以滿足他們的角色、體驗水平和個人偏好。

付費5元查看完整內容

人工智能(AI)在決定我們日常體驗方面扮演著越來越重要的角色。人工智能的應用越來越多地不再局限于搜索和推薦系統,如網絡搜索、電影和產品推薦,但人工智能也被用于對個人、企業和社會至關重要的決策和流程。在招聘、借貸、刑事司法、醫療保健和教育等領域,基于web的人工智能解決方案對個人和專業的影響是深遠的。

在人工智能系統的開發和部署中,有許多因素發揮著作用,它們可能會表現出不同的、有時是有害的行為。例如,訓練數據往往來自社會和現實世界,因此它可能反映了社會對少數民族和弱勢群體的偏見和歧視。例如,少數族裔與多數族裔在類似行為上面臨更高的逮捕率,所以在沒有補償的情況下構建一個人工智能系統可能只會加劇這種偏見。

上述問題凸顯出需要監管、最佳實踐和實用工具,以幫助數據科學家和ML開發人員構建安全、隱私保護、透明、可解釋、公平和負責的人工智能系統,以避免可能對個人、企業和社會有害的意外后果和合規挑戰。

在這些原則中,模型的透明度和可解釋性是在需要可靠性和安全性的高風險領域(如醫療保健和自動化運輸)建立信任和采用人工智能系統的先決條件,以及具有重大經濟影響的關鍵工業應用(如預測性維護、自然資源勘探和氣候變化建模)。除了可解釋性,越來越多的利益相關者質疑他們的人工智能系統的公平性,因為有很多例子可以說明不考慮公平性的后果,從人臉識別對白人男性的效果明顯優于有色女性,到歧視特定群體的自動招聘系統。通過整合工具來確保模型的透明度和公平性,可以讓數據科學家、工程師和模型用戶更容易調試模型,并實現確保AI系統的公平性、可靠性和安全性等重要目標。

最后,人工智能產品通常由ML模型驅動,這些模型根據敏感用戶數據進行訓練。給定足夠的復雜性——無論是從參數的數量[例如。或者用戶級個性化——,該模型可以對用戶的私人信息進行編碼。此外,通常需要在ML生命周期的不同階段確保用戶隱私,并保護不同類型的不良行為者和威脅場景,需要隱私保護AI方法。

在本教程中,我們將概述負責任的人工智能,強調人工智能中模型的可解釋性、公平性和隱私性,關鍵的法規/法律,以及提供關于基于web的人工智能/ML系統的理解的技術/工具。然后,我們將關注可解釋性、公平評估/不公平緩解和隱私技術在行業中的應用,其中我們提出了有效使用這些技術的實際挑戰/指導方針,以及從部署幾個web規模的機器學習和數據挖掘應用模型中獲得的經驗教訓。我們將介紹不同公司的案例研究,包括搜索和推薦系統、招聘、銷售、借貸和欺詐檢測等應用領域。我們將強調,與負責任的人工智能相關的主題是社會技術的,也就是說,它們是社會和技術交叉的主題。潛在的挑戰不能由技術人員單獨解決;我們需要與所有關鍵的利益相關者一起工作——比如技術的客戶、受技術影響的人,以及具有道德和相關學科背景的人——并在設計這些系統時考慮他們的輸入。最后,基于我們在行業中的經驗,我們將為數據挖掘/機器學習社區確定開放的問題和研究方向。

//sites.google.com/view/ResponsibleAITutorial

付費5元查看完整內容
北京阿比特科技有限公司