本研究探討了主動拒絕技術(ADT)這種非致命武器的應用及其對人群的影響。通過利用數學建模和模擬技術,本研究揭示了主動阻斷技術對人群行為的影響。本研究在基礎社會力模型的基礎上,加入了一種額外的力量來模擬 ADT 的排斥效果。作為對數學模型的補充,“完善人群敵意交戰規則工作臺”(WRENCH)是一個基于隨機智能體的模擬平臺,可深入了解各種理論 ADT 配置和人工交戰規則下的現實人群反應。通過模擬不同環境場景下的人群特征,這項研究評估了 ADT 的功效和局限性。結果表明,ADT 能有效阻止入侵者進入指定區域,并同時影響人群的整體行為。研究還揭示了 ADT 的有效性取決于各種復雜因素的相互作用,如 ADT 設備的配置、目標人群和環境條件。這項研究的結果有助于進一步了解非致命性武器及其在有效人群管理中的作用。
本手稿共分為六章,循序漸進地介紹了如何理解和分析 ADT 的使用。第 2 章概述了人群動力學、社會認同方法和社會力量模型。通過對這些概念的探討,我們可以深入了解個人身份和群體行為是如何影響整個人群動態的。社會力模型最為重要,因為它是我進行人群行為數學建模實驗和研究的基礎。第 3 章概述了主動阻斷技術,并介紹了主動阻斷系統 (ADS),這是一種非致命的定向能武器,通過對目標造成暫時的不適來控制人群。本章還介紹了利用主動阻斷技術研究其在不同場景下對人體有效性的實驗背景。ADT 計算人體效應終端超模型(CHEETEH)是之前開發的一個模型,旨在描述和模擬人體接觸 ADT 后的反應,本章也對其進行了討論。
第 4 章概述了本研究采用的方法和實驗設置。它詳細介紹了數學建模方法,討論了相關變量,并解釋了如何配置 WRENCH 以納入 ADT 互動。為了進一步分析行為反應,本章還介紹了 WRENCH(基于智能體的模型和仿真工具),它提供了在 ADT 影響下模擬人群行為的能力。WRENCH 用于協助本研究探索 ADT 如何影響人群行為,是數學建模和實際應用之間的紐帶。本章還解釋了實驗的設計,包括 ADT 部署的具體場景,以及如何測量人群行為。第 5 章介紹了 ADT 的有效性及其對人群行為的影響。本章還討論了研究過程中遇到的限制,如假設、限制以及模擬行為與實際行為之間的顯著差異。最后,第 6 章總結了主要發現及其對未來研究的影響。該章提出了未來工作的潛在方向,如完善和重新測試數學模型和模擬,并強調了持續研究的必要性,以更好地了解非致命武力下人群行為的細微差別。
本論文介紹了在 Atlatl 模擬環境中設計、實施和測試人工智能 STOMp(短期優化機動)的情況。通過四個系列實驗,STOMp 的有效性在與各種已有人工智能對手的較量中得到了檢驗。第一個實驗表明,STOMp 的性能比大多數人工智能對手都有持續的提高。STOMp 必須在瞄準對方部隊與確保地形之間做出關鍵選擇。第二個實驗對參數進行了優化,揭示了在不同場景下性能最穩定的算法參數。第三個實驗重點關注其機動能力,強調其比競爭人工智能更有效地穿越障礙的能力,并展示其在不同環境中的機動性。最后,第四項實驗檢驗了它在一個特別構建的場景中的決策過程,在這個場景中,需要在戰場的不同區域同時做出相反的決策,從而展示了它評估局部優勢和做出戰術決策的能力,從而提高了它的生存能力和戰斗力。結果強化了 STOMp 算法,并使人們深入了解了該算法的優勢和局限性。總之,研究結果驗證了 STOMp 是一種適用于軍事模擬的有能力的人工智能。這項研究有助于為軍事模擬開發有效的人工智能。
論文結構如下: 第 1 章簡要介紹了本研究的背景和基本原理。第 2 章探討了過去和當前的戰斗模擬研究。第 3 章深入探討 STOMp 的技術方面,包括其啟發式評估功能和本論文所做各項實驗的目標。第 4 章介紹了實驗結果和主要發現。最后,第 5 章對論文進行了總結,總結了研究成果,并提出了未來研究的潛在改進領域。
本文介紹了一種在美國海軍和國防部框架內提高可操作技術(OT)系統安全性和效率的新方法。這項研究由負責作戰能源的海軍副助理部長贊助,旨在解決 OT 系統中異常檢測方面的關鍵差距。本文引入了一個綜合傳感器系統和先進的機器學習(ML)模型,用于分析各種 OT 設備的實時功耗數據。通過從模擬的小規模 OT 環境中開發獨特的非侵入式負載監控(NILM)數據集,本研究率先將成本效益高、易于部署的傳感器陣列與支持向量機、長短期記憶和卷積神經網絡算法等 ML 技術集成在一起。這種集成旨在簡化異常檢測,減輕這些 OT 系統中多種背板協議集成所帶來的復雜性。通過異常表征和定制檢測方法的制定,本文在利用 ML 識別系統故障、設備故障和潛在網絡安全威脅的早期指標方面開創了新的先例。這項工作極大地促進了獨立 OT 系統的安全性和復原力,使其能夠抵御一系列異常現象,為未來對基礎設施至關重要的安全和復原力 OT 系統的發展奠定了基礎。
決策輔助系統是國防指揮與控制裝置的基礎,為各級決策過程提供信息。圍繞人工智能(AI)在決策輔助系統中的應用開展的現有研究認為,人工智能是此類系統性能和應用的關鍵驅動因素。然而,很少有研究探討時間因素和中間決策的存在對決策者對此類系統信任度的影響,或者當決策由另一個人輔助時,與由人工智能輔助時的影響有何不同。現有文獻認為,對人工智能的信任不同于其他信任對象。本論文通過探究信任的產生是否更多地取決于信任的對象或來源來探索這一假設。之前的一項實驗研究了當決策支持僅由人工智能系統提供時,時間和中間判斷對信任的影響。本論文對該實驗進行了擴展,同時操縱了決策輔助的來源,即人類,而不僅僅是人工智能。通過加入人與人之間信任的基礎案例,本研究可以就中間判斷和時間對決策輔助系統信任的相對影響進行比較分析。
決策輔助系統是美國防部(DOD)指揮與控制機構的基礎,為各級決策過程提供信息。團隊是美國軍隊組織和完成任務的主要要素。美國防部打算通過將人工智能嵌入戰術、組織和戰略層面的組織結構(團隊),更快地做出更好的決策,從而獲得優勢(國防部,2022、2023a、2023b)。圍繞人工智能(AI)在決策支持系統中應用的現有研究表明,信任是此類系統性能和采用的關鍵驅動因素。
問題在于,人們尚未充分認識到若干設計參數對信任和性能的影響,這可能會延遲或抵消人工智能決策支持系統的優勢(Ashoori & Weisz, 2019; Tangredi & Galdorisi, 2021)。由于這些系統將用于做出關鍵決策,或在動態、混亂的環境中為人類提供支持,因此這些系統必須值得信賴且性能良好(Babo?,2021;人工智能特設委員會,2023)。本研究的目的是,與人工智能(AI)相比,當人類的決策過程得到人類分析師的支持時,研究自變量(中間判斷和時機)對因變量(信任)的影響。這項研究旨在促進人機系統的整合,實現有效的機器/人工智能設計并更快地應用于軍事領域,加強這些機器的穩健性和復原力,并為設計有效的人機系統提供支持理論。
之前的一項調查試圖了解在僅與人工智能輔助決策系統互動時,信任是如何隨著時間的推移而演變的(Humr 等人,2023 年)。本調查比較了當決策支持來源是人類分析師和人工智能分析師時,信任度是如何演變的。通過操縱決策支持的來源,本調查旨在比較人類和人工智能群體的信任度和表現,并分析人類和人工智能群體本身的自變量的影響。
現有文獻的基本假設是,人類決策者對人工智能決策支持系統產生信任的過程不同于決策者對提供相同決策支持的另一個人類產生信任的過程。這一假設在人工智能研究中基本上沒有受到質疑。雖然人工智能系統中信任和性能的關鍵驅動因素須要并將繼續得到確定,但值得確定的是,它們與現有的以人類之間的信任為基本情況的信任模型相比有何不同。這種調查可能會挑戰現有的假設,即人類建立信任的過程因信任對象的不同而不同。按理說,無論是人類還是人工智能,信任決定都是由人類主體做出的,可能會也可能不會受到人類所信任的對象的影響。
現有文獻表明,人類建立信任的過程更多地取決于信任的對象(被信任的人或事物),而不是信任的來源(決定信任的人類)。鑒于人工智能系統的新穎性和細微差別,以及它們與人類的生物和社會稟賦的截然不同,當決策支持、信任對象是人工智能系統而非人類時,決策背景下的信任模型會有所不同這一假設通過了表面有效性的檢驗。然而,本次調查對現有文獻中這一近乎教條的假設提出了質疑,直接探討了人類對人工智能的信任是否與人類對其他人的信任有本質區別。畢竟,人類的信任過程已經發展了數千年,而機器和人工智能的存在不過是進化過程中的一眨眼。
這項研究試圖擴展之前的一項實驗(Humr 等人,2023 年),在這項實驗中,人工智能分析師為人類決策者提供意見。在該研究中,操縱的自變量是中間判斷形式的選擇和分配的時間。因變量是信任評價,其形式是詢問受試者在與決策支持體互動后,未來將某項任務委托給人工智能的可能性有多大。這項研究重復了之前的實驗,但用人類分析師代替了人工智能分析師。其他一切保持不變,以便在人類支持組和人工智能支持組之間進行比較。
這項研究發現,在由人類與人工智能系統支持決策的受試者之間,信任評價在統計學上沒有顯著差異。這些發現與人工智能信任研究領域的傳統假設相沖突,即人工智能信任是一種與一般信任根本不同的現象,因此需要獨立表達。
雖然這些發現并不能概括所有類型的信任、人工智能的使用案例或人類可能與之互動的人工智能類型,但它確實表明,與試圖重新發現人工智能或人工智能系統中可能使其值得信任的方面相比,更努力地識別人類之間信任的關鍵驅動因素對于設計可信任的人工智能可能更有價值。本研究建議未來的實驗探索信任的另一個關鍵驅動因素,即決策支持(人工智能或人類)的性能,并將其對信任的影響與本實驗中使用的自變量進行比較。此外,本研究還建議調查選擇和時機這兩個自變量如何影響決策者的整體決策表現。畢竟,信任是影響績效的一個中介變量,因此,通過直接觀察這些自變量對績效的影響,決策支持系統的設計者就能建立盡可能好的系統。
本論文以應用研究為基礎,研究了美國海軍當前的創新生態系統,旨在找出挑戰、障礙和可行的解決方案。評估涉及一項定性研究和一項定量研究,受訪者來自海軍各組織。定性訪談(研究 1)的結果用于揭示模式、概念和理論見解,為定量調查(研究 2)的設計提供依據。研究揭示了流程上的重大差距,包括組織間的溝通障礙和知識管理上的嚴重不足。此外,研究還強調了從業人員決策的不完善,對生態系統產生了負面影響。為了規劃前進的戰略路徑,我們整合了管理學、創新管理學和行為經濟學的相關理論。主要重點是促進生態系統內從業人員之間的緊密聯系,同時提高決策過程的整體質量。
圖:美海軍研究辦公室決策過程
本研究探討了政府和國防機構的情報搜索人員所面臨的數據超載問題。研究利用認知系統工程(CSE)文獻中的方法,對情報搜索工作領域進行深入分析。這些見解被應用于設計和評估專門用于情報搜索任務的人類-人工智能智能體團隊的支持概念和要求。領域分析揭示了 “價值結構 ”的動態性質,“價值結構 ”是一個術語,用于描述管理情報搜索過程的不斷變化的標準集。此外,領域洞察力還提供了搜索聚合和概念空間的詳細信息,可將價值結構有效地應用于情報搜索。利用這些發現的支持系統設計可以使情報搜索者在更抽象的層次上與數據互動并理解數據,從而提高任務效率。此外,新的系統設計還可以通過相關的系統提示,促進對大型數據域中未被選擇對象的 “環境感知”,從而為搜索者提供支持。通過支持概念和人工智能團隊實現的 “環境感知 ”有可能解決數據超載問題,同時提高搜索覆蓋范圍的廣度和深度。
圖 4. FAN 領域模型。為了強調整個 FAN 的抽象功能結構和目標互動,圖中模糊了流程塊的細節。詳細的智能搜索功能模型見補充材料圖 S1。
政府和國防機構的情報搜索人員面臨著越來越多的數據和文件,他們需要從中查找或 “發現 ”信息,以獲得支持明智決策的見解。這種情況被稱為數據超載問題,即個人在系統或其他代理的幫助下,難以選擇、組合或綜合所需的數據子集,以完成需要在更大的數據領域進行態勢評估的任務[1]。在這種情況下,情報搜索人員與同事一起利用搜索工具,協同努力從幾乎無限的可用于任務的文件中查找、收集和評估文件,以完成為情報目標提供信息的任務。具體地說,數據超載妨礙了搜索人員識別數據子集的能力,而這些數據子集能提供足夠的細節來滿足情報目標,這對行動任務的完成至關重要。
用于一般情報搜索任務的系統可能會導致數據超載癥狀。具體來說,情報搜索工具會表現出與 “鎖孔脆性”[2] 概念有關的缺陷。這里所說的 “鎖孔 ”是指縮小呈現數據的范圍,將剩余數據分配到更多的隱藏屏幕上。這種呈現方式要求研究人員手動瀏覽和綜合來自多個數據屏幕的信息,以了解搜索的效用。同時,這些現有工具的脆性與它們支持從情報搜索工作領域的數據中提取意義的潛力有關。因此,“脆性 ”產生于搜索工具對信息的狹隘表述。對于需要從大量數據中提取意義的復雜任務來說,這種局限性導致了效率的下降,而這些數據又超出了給定系統的表述范圍。此外,由于情報搜索工作和信息領域的結構復雜,無法充分捕捉和傳達,妨礙了對支持行動所需的信息的理解和管理。這就導致效率低下,搜索人員往往會錯過有價值的見解和與目標相關的數據,同時還要花費更多的時間瀏覽各個屏幕來完成任務。
情報工作領域的搜索所面臨的這些廣泛挑戰構成了本研究要探究的問題,圖 1 的頂部對此進行了總結。圖 1 中還列出了應對這些挑戰常用的術語和縮略語,作為本研究的路線圖。
本文是研究指揮與控制(C2)未來表現形式的四篇系列論文中的第一篇。第一篇論文通過探討未來指揮與控制(C2)系統需要在其中運行的未來作戰環境,為后續研究設定了基線。具體來說,本文探討了復雜性的驅動因素、表現形式和影響,而此前的研究表明,復雜性很可能是這一環境的特征。為此,它討論了 C2 和復雜性等關鍵術語的定義;介紹了未來運行環境中復雜性的一些驅動因素,并討論了這些因素如何對 C2 系統和組織造成新的壓力;研究了分析和理解復雜性的可能方法;并概述了 2030 年代及以后可能產生的一些實際考慮因素。由于本文旨在為本系列的后續三篇論文提供資料,因此沒有全面涵蓋未來 C2 思考的所有方面,包括提出具體建議。
C2 沒有直截了當的定義,對于該術語在當代作戰環境中的范圍和相關性也存在爭議。對 C2 傳統定義的批判來自于對 21 世紀有效領導力構成要素的更廣泛質疑。在英國、美國和北約,最近出現了大量與 C2 相關的新術語,并將重點從聯合思維轉向多領域思維。我們的研究將 C2 定義為一個動態的、適應性強的社會技術系統,因此有必要考慮組織、技術和人力要素。
同樣,復雜性也沒有一個公認的定義。學術界對復雜性的研究日益增多,涉及多個科學學科,但缺乏統一的方法或理論框架。一個有用的出發點是區分簡單系統、復雜系統、復雜系統和復雜適應系統。文獻還描述了在這些條件下可能出現的所謂 "棘手"或 "超級棘手問題"。還可以對有限博弈和無限博弈進行重要區分--這是考慮作為復雜適應系統的國家間競爭時的一個有用視角。鑒于這些爭論,我們的研究避開了對復雜性的僵化定義,而是從其關鍵屬性的角度對這一現象進行了 DCDC 式的描述。
未來作戰環境的特征--以及國防 C2 系統和組織預計將執行的任務類型--具有很大的不確定性,因此任何預測都必須謹慎。盡管如此,文獻指出了各種政治、經濟、社會、技術、法律、環境和軍事(PESTLE-M)趨勢,預計這些趨勢將影響國際體系的演變,進而影響 2030 年及以后的國防行動。這些趨勢包括以下宏觀趨勢
最重要的是,沒有一個單一或主要的趨勢推動著變化或復雜性;相反,最令人擔憂的是多種因素的融合及其不可預測的相互作用。這種認識為進一步研究這些趨勢影響國際體系復雜性水平和特征的具體機制提供了基礎,從而為在這一領域開展工作的 C2 帶來了新的挑戰。
上述 PESTLE-M 趨勢為未來組織應對 C2 帶來了一系列困境和壓力,包括但不限于
此外,無論是理論家還是實踐者,在處理包含非線性動態的問題時,都缺乏有力的措施來衡量所做決定或采取的行動的有效性。因此,很難確切地說未來作戰環境中的復雜性是否在客觀上不斷增加(而不是以不同的形式出現),但對軍隊應處理的復雜任務的政治期望與當前 C2 方法的執行能力之間顯然存在巨大差距。當前的學術理論為決定如何在復雜環境中配置 C2 提供了一個方法工具包的初步輪廓和一些指導原則,但并沒有提供靈丹妙藥。該理論強調審議分析方法,即讓不同利益相關者參與共同設計、借鑒多學科和知識體系的見解,并在分析和決策過程中建立靈活性,以便根據反饋意見不斷迭代和改進的方法。
要應對復雜的自適應系統,就必須摒棄當前的線性 C2 流程和等級結構,盡管在處理非復雜任務和問題時,更傳統的方法可能仍然有用。在競爭激烈的世界中,英國既需要培養能夠對他人施加建設性影響的特性和能力(例如,將復雜性強加給對手的 C2),也需要培養能夠增強自身駕馭復雜性能力的特性和能力。
要影響敵對行動者的觀念、決策和行為,首先要深入了解其 C2 結構、流程和文化。根據這種了解,英國國防需要一套動能和非動能杠桿,對敵方的 C2 施加建設性影響,包括施加復雜性。除了敵對行動者,英國國防部還需要進一步了解如何對 PAG、盟友、合作伙伴、工業界、學術界、公民和對 C2 采取截然不同方法的其他人施加建設性影響。
在增強英國自身應對復雜性的能力方面,未來的 C2 系統和組織必須促進靈活性、復原力以及學習和適應能力等特性。整個決策周期都需要變革。例如,傳感器和通信技術的進步為獲取更多深度和廣度的數據提供了機會,包括有關復雜問題的數據。因此,提高認知能力對于理解所有這些數據至關重要,既要利用人類和機器的優勢,又要減少各自的缺點。要改變決策方法,還需要改變領導風格,以培養更善于駕馭復雜適應系統的決策者。在做出決策或計劃后,提高跨部門或跨層級的能力,在實施階段更好地整合活動或匯聚效應,對于抵消英國的局限性(如在質量方面)至關重要。
同樣,整合也不是萬全的;如果國防缺乏足夠深度的力量和能力,無法在充滿敵意的威脅環境中采取可信行動或維持高節奏行動,那么即使是最高效的指揮控制系統也無法在未來取得成功。此外,還需要采取防御措施以及恢復和失效模式,以阻止或減輕敵方破壞 C2 系統和組織的努力所造成的影響。鑒于所面臨的威脅,以及英國國防可能需要解決的不同形式的復雜問題,很可能會同時出現多種并行的 C2 模式,而不是單一的方法。應對復雜性意味著不斷學習、適應、創新和開放求變。因此,必須從一開始就將效果衡量標準、信號和變革機制納入計劃以及 C2 系統和組織,使其能夠隨著時間的推移不斷學習和調整,以應對各種情況。至關重要的是,未來 C2 系統和組織的設計只是挑戰的一部分--它們還必須得到更廣泛的國防企業緊急改革的支持,以確保獲得所需的使能因素(人員、技術等)。從 C2 的角度來看,這本身就是一個挑戰,因為改變這個企業--一個復雜的適應性系統--本身就是一個棘手的問題。
學術理論家和政府、軍事或工業從業人員對復雜性或復雜適應系統的理解并不全面,而這正是未來 C2 運行環境的特點。雖然文獻提供了處理復雜性的有用方法和工具,以及未來 C2 的一些初步設計考慮,但英國 C2(本身就是一個社會技術系統)的現代化和轉型將是一項高度復雜的工作。這意味著要與不斷發展的作戰環境、不斷變化的威脅和技術環境共同適應,從而進行迭代和不斷學習。因此,最緊迫的挑戰或許是,考慮到 C2 系統在未來面對復雜性時取得成功所需的轉型(技術、結構、流程、文化、教育等)的程度和性質,了解如何在一段時間內最好地引導這一過程。
自相矛盾的是,要克服實現以應對復雜性為目標的 C2 系統所面臨的障礙,可能需要英國國防部已經表現出其所尋求建立的系統的許多特征。面對這樣的循環邏輯,英國國防部可能需要某種外部沖擊來迫使其進行創造性的破壞,或者利用(或不顧)更傳統、線性的 C2 方法來啟動自身的激進改革努力,并隨著時間的推移,隨著變化的到來而進行調整。
鑒于深度神經網絡(DNNs)的復雜性和不透明性,人們已經做出了廣泛努力,使這些系統更易于解釋或用易于理解的術語解釋它們的行為。與大多數專注于算法和以模型為中心的視角的綜述不同,本工作采取了“以數據為中心”的視角,考察了數據收集、處理和分析如何促進可解釋人工智能(XAI)。我們將現有工作分類為三個目的類別:深度模型的解釋,涉及特征歸因和將數據點與模型輸出相關聯的推理過程;訓練數據的影響,檢查訓練數據細微差別(如數據價值和樣本異常)對決策過程的影響;以及領域知識的洞察,從數據和模型中發現潛在模式,培養新知識,以推進社會價值和科學發現。具體來說,我們將XAI方法提煉為對訓練和測試數據的數據挖掘操作,這些數據跨越不同的模態,如圖像、文本和表格數據,以及對訓練日志、檢查點、模型和其他DNN行為描述符的操作。通過這種方式,我們的研究從數據挖掘方法和應用的角度,對XAI進行了全面的、以數據為中心的審視。
//www.zhuanzhi.ai/paper/6960f37082a968c932aec73e1160f875
**1 引言 **
隨著人工智能(AI)的發展,傳統的決策技術,如感知器[1]、基于規則的系統[2]、基于案例的推理[3]和專家系統[4],已讓位于更復雜的深度神經網絡(DNNs)[5]。這些早期技術是基于人類決策過程,從基于規則的推理[6]到基于委員會的預測[7]。存儲和計算能力的激增催化了向DNNs的演變,盡管它們在視覺識別和語言建模等任務上表現出色[5],但在可解釋性方面面臨挑戰[8]。
DNNs的“黑箱”本質以及其廣泛的參數化妨礙了自動駕駛和醫療等關鍵應用中所需的透明度,引發了人們對這些模型在高風險環境中可靠性的擔憂[9]、[10]、[11]。因此,可解釋人工智能(XAI)已成為一個關鍵領域,提出了諸如LIME[12]等解決方案來改善機器學習的可解釋性1,可能增加對AI系統的信任[13]。這些XAI技術不僅努力實現模型透明度,還為數據集增加了附加價值,幫助完成諸如調試[14]和定位誤標記樣本[15]等任務,豐富了對數據集及其各自領域的理解[16]、[11]。在這項研究中,我們通過對現有文獻的全面審查,通過我們的兩個獨特觀察、三個目的和四階段XAI技術數據處理的角度進行分組和分析。 我們的第一個觀察重點關注XAI技術演變和應用背后的驅動力。在對當前文獻進行廣泛審查后,我們將主要目的概括為三個核心類別:1)深度模型的解釋:盡管深度學習模型具有高度的預測能力,但它們的“黑箱”本質限制了可解釋性[12]、[17]。XAI旨在通過闡明這些模型在每個實例基礎上的預測理由,從而促進透明度和信任[8]、[18]。2)訓練數據的影響:機器學習模型的性能取決于訓練數據的分布和質量[19]、[20]。XAI技術可以準確地指出對模型輸出產生重大影響的數據點,促進改進的訓練過程和模型簡化[21]、[22]。3)領域知識的洞察:XAI還揭示了模型和數據中特定于領域的知識,提供了在這些領域內人類理解的潛在進步,并在醫療保健和金融等高風險應用中提供寶貴的洞察[23]、[24]。 如圖1所示,XAI作為人類理解和機器學習模型復雜性之間差距的橋梁,提高了AI應用的信心[25]、[26]。
我們還發現,XAI方法遵循類似于傳統數據挖掘的結構化過程[27]、[28]、[29],將數據、算法和以人為中心的分析整合起來。以下列出了四個關鍵步驟。 1)數據獲取與收集:XAI將數據收集擴展到超越數據集,涵蓋了深度學習的生命周期,如訓練數據集、訓練日志和檢查點、測試樣本等。 2)數據準備與轉換:從模型、數據和訓練日志中提取和轉換DNNs的行為描述符,包括顯著性地圖、訓練損失曲線和輸入/損失梯度向量(也請參見表1),以便后續解釋[30]、[31]、[15]。 3)數據建模與分析:挖掘DNN行為描述符以模擬DNN決策、訓練數據貢獻和數據集模式,從而導致三種類型的分析目的:解釋、影響和洞察[11]。 4)結果報告與可視化:XAI努力的高潮是通過適當的報告和可視化來呈現發現,這取決于數據模態,例如將顯著性地圖疊加在圖像上[32]、[33],突出顯示關鍵視覺特征。
通過這些步驟,XAI增強了AI框架中的可解釋性、信任,甚至是知識與理解,促進了人類與AI的更好協同。 我們的調查采用了以數據為中心的視角來審查XAI,通過結合三個目的和四階段數據挖掘過程來分類組織技術。這項研究的貢獻包括: ? 從數據挖掘的角度對XAI范式進行技術回顧,重點關注解釋過程中的數據相關實踐[34]。這項工作開創了對XAI進行新框架系統審查的先河。 ? 引入了一個新的分類系統,圍繞XAI的三重目的和數據挖掘的四個不同階段,對當前XAI方法進行分類和闡述。 ? 對XAI未來發展的前瞻性討論,強調其揭示數據內在深層洞察的能力,這對像AI驅動的科學和醫學等領域有重要意義。
將XAI研究納入這一分類提供了一個結構化的敘述,豐富了對XAI趨勢和潛力的精確理解。 關于XAI的新興研究已在幾項調查中得到審查,突出了解釋深度模型的挑戰和重要性。Doshi-Velez和Kim[8]強調了評估XAI技術的必要性,而Carvalho等人[9]提供了一項廣泛的可解釋性方法研究,涵蓋了模型不可知和模型特定的方法。Hammoudeh和Lowd[174]將重點轉移到了訓練數據的影響上。Mohseni等人提供了一項評估XAI系統的調查和框架[175]。Marcinkeviˇcs和Vogt[16]以及Notovich等人[176]對實用XAI方法進行了擴展,提供了應用示例和技術分類。Preuer等人[177]在藥物發現中探討了領域特定的應用,而Tjoa和Guan[30]則在醫學成像中進行了探討。
與上述工作相比,我們的調查(圖2中顯示的簡要結果)通過從數據挖掘的角度探索XAI的三重角色來彌補XAI文獻中的差距:(1)解釋模型的行為以理解其決策;(2)估算數據的影響,以評估和識別關鍵樣本;(3)從模型和數據中提煉洞察,以獲得推動社會價值和科學發現的新理解。
解釋:深度模型的特征歸因和推理過程
解釋深度模型包括使用特征歸因來評估每個輸入對模型輸出的影響,并檢查推理過程以理解模型內部的決策路徑。
影響:訓練樣本的數據價值和異常檢測
通過衡量訓練樣本對決策過程的影響來解釋深度模型對于理解和驗證這些模型的輸出至關重要。這一過程通常涉及多種技術,這些技術將單個訓練樣本與模型所做決策之間的相關性映射出來[221]、[174]。在本節中,我們將現有工作分類為以下三個方向。
洞察:從數據中發現模式和知識
XAI算法有助于提取人類可讀的洞察,部分原因是它們能夠識別和解釋復雜的多維或多模態數據中的模式、相關性和異常。已經做了兩組努力:一組關注社會價值,另一組專注于科學發現的進步。 結論
本文通過數據挖掘的視角,系統地回顧了可解釋人工智能(XAI)的作用,涵蓋了三個關鍵的主題領域: ? 解釋模型行為:本綜述強調了揭示深度神經網絡(DNNs)的決策過程的必要性,從特征歸因和推理邏輯的角度出發,旨在增加AI系統的透明度和信任。 ?** 評估數據影響**:本綜述關注單個數據樣本如何塑造模型的決策和泛化性能,強調對學習的重要貢獻者,并檢測可能導致結果偏斜的任何數據異常。 ? 提煉可行洞察:超越提供解釋,本綜述尋求發現與社會價值一致并促進科學創新的新洞察,將XAI技術的知識引向實際應用。
總之,本研究對上述三個目的的XAI方法進行了全面分析,突出了當前的能力、實際用途,并識別了需要改進的領域。這一分析為進一步的研究奠定了基礎,這些研究努力將XAI更深入地整合到數據挖掘實踐中,并培育一個更透明、可靠、以用戶為中心的人工智能環境。
本報告探討了 GHOSTS 框架的非玩家角色(NPC)客戶端生成的活動(包括軟件使用)與 GHOSTS 的默認行為和大型語言模型(LLM)生成的活動之間的比較。還探討了基本結果在復雜性和情感方面的比較。在研究中,利用了生成式人工智能(AI)系統的高級自然語言處理能力,特別是 LLMs(即 OpenAI 的 GPT-3.5 Turbo 和 GPT-4)來指導 GHOSTS 框架中的虛擬智能體(即 NPC),GHOSTS 框架是一種在計算機上模擬現實人類活動的工具。設計了一種配置,通過使用 LLM 使活動完全自動化,其中文本輸出成為可執行的智能體指令。初步研究結果表明,LLM 可以生成指令,從而在模擬環境中產生連貫、逼真的智能體行為。然而,某些任務的復雜性和指令到行動的轉換帶來了獨特的挑戰。這項研究對于提高模擬的逼真度和推動類人活動建模中的人工智能應用具有潛在的意義。建議開展進一步研究,以優化智能體對 LLM 指令的理解和響應。
網絡靶場是一個模擬環境,里面有各種登錄到計算機和網絡上的 NPC。這些 NPC 在組織內執行其角色所應執行的任務。現有的 GHOSTS 框架采用客戶機-服務器安裝方式,客戶機安裝在不同的操作系統(OS)上,執行所模擬角色的預期活動。服務器組件收集已執行活動的日志,并能根據一系列可用數據為每個智能體的新活動提供指導。
每個智能體在執行活動時都有各種考慮因素,包括智能體的特定參數、智能體過去的活動以及環境因素。固定參數包括姓名、身體特征、教育程度、工作經歷等。智能體還可能具有可變的特征,如偏好、信念、動機以及隨時間演變的過去活動歷史。
標準的 GHOSTS 配置提供了一套合理的默認值,可以充分隨機化這些考慮因素,以達到 T&E 的目的。團隊成員和其他人(如研究人員、培訓/練習用戶)都使用過這些隨機化策略;我們認為這種方法已經成熟,足以應對大多數情況。例如,模擬運營部門角色的智能體可能會在工作日每 20 分鐘創建一份文檔,同時交替使用互聯網瀏覽時間,以模擬文檔創建與必要的相關研究相結合的情況。
將 OpenAI 開發的不同 LLM 集成到 GHOSTS Animator [SEI 2023b]中,以便其他研究人員和網絡練習社區能夠繼續嘗試我們在本報告中討論的功能。每個 LLM 都充當了智能體的決策功能,生成文本輸出,我們將其轉化為智能體活動的指令。
為了實現這一整合,開發了一個系統,用于解釋 LLM 的輸出,并將其映射到 GHOSTS 框架中智能體可以執行的潛在行動上。該系統考慮到了語言解釋的可變性和智能體可用行動的限制。在將范圍廣泛的可能 LLM 輸出映射到更具體的智能體行動集時,我們面臨著獨特的挑戰。(我們將在下面的章節中描述這些挑戰。)這種集成方法能夠為我們的研究目的提供最廣泛的 LLM 響應,而不管它們與 GHOSTS 的執行是否相關。
為了在 GHOSTS NPC 中模擬更復雜的行為,將人類推理和行為的幾個方面整合到了智能體的決策過程中。這些方面都是在每次系統迭代或周期中執行的詢問過程中考慮的。在這種情況下,詢問是 LLM 分析智能體屬性和過去活動以決定下一步行動的機會。
每個 tick 或周期的持續時間是可配置的,可以是每個 CPU 周期所需的時間,也可以是更長的持續時間,如五分鐘。在每個 tick 期間,服務器會隨機選擇幾個智能體,并詢問它們以確定潛在的行動。這些行動可以包括學習新信息、與其他智能體建立聯系或執行一項活動。
這些詢問使用我們現有的隨機化策略。其中一些策略涉及純粹的隨機決策,而另一些則依賴于基于真實世界數據的預定義范圍或概率內的隨機化。目前實施的策略圍繞四個關鍵概念:
動機: 為了更準確地模擬智能體參與特定內容或執行特定操作的原因,我們需要了解他們的動機。在現實世界中,個人目的、目標和興趣往往是個人活動的驅動力。通過將動機納入模擬,我們可以模擬真實用戶的各種目標驅動行為。為此,我們采用了史蒂文-雷斯博士(Steven Reiss)設計的心理評估工具--雷斯動機檔案(Reiss Motivational Profile,RMP)[Reiss 2012]。RMP 根據人類的 16 種基本欲望來確定個人的核心價值觀和動機:權力、獨立、好奇、接受、秩序、節約、榮譽、理想主義、社會接觸、家庭、地位、復仇、浪漫、飲食、體育鍛煉和寧靜。通過模擬智能體對這些 RMP 欲望的獨特組合,我們模擬出了在整個演習過程中促使他們做出某些決定的內在動機。因此,這種理解揭示了智能體的行為傾向,有助于以更接近人類的方式指導其模擬行動。
關系: 人際關系對人類行為的影響是毋庸置疑的,它塑造了我們在社交圈中的學習、決策和互動方式。為了在模擬中更好地模擬這些關系的動態變化,我們在智能體的框架中加入了關系紐帶。這種方法包括在智能體之間建立聯系,考察它們之間關系的深度,以及研究它們對彼此的影響。這種方法使我們能夠模擬大量的社會互動,例如智能體向其信任的同伴尋求建議、與同事分享內容或參與各種話題的討論。這一特點不僅增強了智能體互動的真實性,還促進了智能體之間的知識獲取過程,這與人類在家庭、工作或公共場所從社交互動中學習的方式如出一轍。因此,在我們的模擬框架中引入關系可以增強智能體行為的真實性,更好地反映現實世界中人類互動的復雜性和細微差別。
知識: 人類用戶的一個顯著特點是他們在不同領域的知識廣度和深度。根據這一特點,我們為每個智能體配備了一個獨特的知識庫,以幫助塑造他們的模擬交互。這些知識庫為智能體如何尋求信息、分享專業知識或參與討論提供了信息,而所有這些都會受到他們對特定主題的理解的影響。智能體之間的動態知識獲取過程在我們的模擬中也發揮著至關重要的作用。知識獲取不僅增強了智能體互動的真實性,還通過潛在的內部威脅識別為模擬提供了額外的深度。例如,智能體知識庫中的異常變化可能表明其未經授權獲取了敏感信息,或者其關注點轉向了可能出于惡意目的而感興趣的主題。因此,將知識及其動態獲取納入智能體框架不僅能豐富模擬互動,還能增強內部威脅檢測和預防模擬的潛力。
信念: 個人持有的不同信念體系是其網絡行為的基礎,包括個人價值觀、觀點以及對爭議問題的立場。這些信念左右著互動和對話,往往會影響討論的動態。為了在智能體中模擬這種信念系統,我們將貝葉斯模型集成到智能體的推理過程中,使其能夠受到觀察到的支持某種信念的證據的影響。這種整合使智能體能夠就各種問題表達自己的立場,為自己的觀點辯護,甚至參與辯論,從而模擬現實世界中的人類行為。在社交媒體的背景下,對智能體的信念進行建模有助于表現分歧話題上的兩極分化觀點,使模擬更能代表真實世界的社會動態。
總之,通過將動機、關系、知識和信念整合到智能體推理框架中,我們成功地在 NPC 中創建了更全面、更真實的人類行為模擬。有了上述這么多組合的優勢,團隊就可以配置豐富的決策詢問,以確定任何智能體可能采取的行動方案。下一步是將這些詢問完全外包給 LLM,并比較結果,以便在大多數 T&E 場景中使用。
為了嚴格控制系統對 LLM 的訪問,我們設計了一種方法,即只有 GHOSTS 的服務器組件與人工智能進行交互。然后,服務器將人工智能生成的結果傳播給相關客戶端。這一過程的執行過程如下:
1.智能體(即 NPC)根據其默認配置,利用我們現有的隨機化方法啟動并執行一項任務,如文檔創建和網頁瀏覽。
2.智能體每隔幾分鐘向服務器報告其完成的活動。
3.同時,在這五步過程中,服務器作業每輪都會詢問一個隨機的智能體子集。至關重要的是,在每一輪開始時,步驟 2 中的活動歷史記錄都是可用的,并且可以作為代理下一步應該執行什么活動的決策因素。
4.服務器將新確定的活動傳達給客戶端,然后由客戶端執行。
5.該過程循環往復。如果智能體已經在運行,它只需尋找下一個要執行的活動。
在步驟 3 中,目標是將決定智能體活動的任務委托給 LLM,同時考慮 (A) 有關智能體的具體信息和 (B) 已執行活動的歷史記錄。考慮到 LLM 可能需要處理大量信息所帶來的成本影響,我們將 (A) 中的信息限制為最相關的細節,如個人數據、教育和組織歷史以及軟件賬戶。(B) 中的活動信息及其執行參數則用于提供智能體已完成任務的歷史記錄。
許多 LLM 應用程序編程接口(API)會根據系統或用戶直接輸入信息的不同來區分信息提示。我們使用系統級提示,以便對我們傳輸的信息和預期響應進行更嚴格的控制。這種方法使我們能夠以更精確、更可控的方式引導 LLM 的行為。
這篇綜述分析了人工智能應遵循的基本原則,以便模仿人類體驗情感做出決策的真實過程。本文考慮了兩種方法,一種基于量子理論,另一種則采用經典術語。這兩種方法有許多相似之處,主要都是概率論方法。研究闡明了內在噪聲下的量子測量與情感決策之間的類比關系。研究表明,認知過程的許多特征在形式上與量子測量相似。然而,這絕不意味著情感人工智能必須依賴量子系統的功能才能模仿人類決策。人類決策與量子測量之間的類比只是展示了它們在功能上的形式共性。從這個意義上說,我們必須理解人工智能的量子運行。理解量子測量與決策之間的共同特征有助于制定一種只使用經典概念的公理方法。采用這種方法的人工智能的運作方式與人類類似,都會考慮到所考慮的備選方案的效用及其情感吸引力。情感人工智能的運作考慮到了認知與情感的二元性,避免了傳統決策中的許多行為悖論。一個由智能體組成的社會,通過重復的多步驟信息交換進行互動,形成一個網絡,在效用評估的基礎上并受備選方案情感吸引力的影響,完成動態決策。所考慮的智能網絡既可以描述由情感決策者組成的人類社會的運作,也可以描述由神經元組成的大腦或典型的人工智能概率網絡的運作。
人工智能(Artificial Intelligence)被理解為機器表現出的智能,與包括人類在內的動物所表現出的自然智能相反。人工智能的主要教科書將這一領域定義為研究人工智能系統感知從環境中獲取的信息,并為實現目標做出決策和采取行動[1-6]。人工智能研究人員普遍認為,要稱得上智能,就必須能夠使用邏輯策略,并在不確定的情況下做出判斷。
擁有智能的系統被稱為智能體。該系統在評估可用信息后,能夠采取自主行動和決策,以實現預期目標,并可通過學習或利用獲得的知識提高自身性能[1-6]。通常,智能體一詞適用于具有人工智能的系統。然而,智能體范式與經濟學、認知科學、倫理學、哲學以及許多跨學科的社會認知建模和模擬中使用的智能體密切相關。一般來說,從技術或數學的角度來看,智能體的概念可以與真實智能或人工智能相關聯。智能體可以是任何能做出決策的東西,如人、公司、機器或軟件。
在這篇綜述中,我們將集中討論人工智能最困難和最重要的問題之一,即與人類決策過程類似的決策機制,因為人類的決策實際上總是伴隨著情感。實現人類水平的機器智能一直是人工智能工作一開始的主要目標[1-6]。本綜述的重點是描述如何將情感決策數學形式化,使其達到足以讓人工智能模仿人類決策過程(情感是其中不可避免的一部分)的水平。下面,在談到人工智能時,我們會想到情感人工智能。
為了制定情感人工智能的基本操作算法,有必要對人類情感決策進行數學描述。情感量化問題包括兩個方面。一方面是評估主體對外部事件(如聽到聲音或看到圖片)的反應所體驗到的情緒。產生的情緒包括快樂、憤怒、愉悅、厭惡、恐懼、悲傷、驚訝、痛苦等。這種情緒的嚴重程度或強度可以通過研究其在運動反應中的表現形式,如面部表情、啞劇和一般運動活動,以及通過測量生理反應,如自主神經系統交感和副交感神經部分的活動以及內分泌腺的活動來估計。通過研究皮膚電阻的變化、心臟收縮的頻率和強度、血壓、皮膚溫度、血液中的激素和化學成分等,可以發現情緒的植物表現。關于語音、面部表情和肢體動作中的情緒檢測和評估方法,已有大量文獻[7, 8]。能夠識別、解釋、處理和模擬人類情感的系統和設備的研究和開發被命名為情感計算 [9,10]。本綜述將不涉及這些問題。
故事的另一面是描述情緒如何影響決策的挑戰。要制定情感人工智能在決策過程中的運作原則,就必須能夠量化情感在這一過程中的作用。本綜述的中心正是這一目標。
這一目標面臨著如何定義和量化決策過程中產生的情感這一基本問題。要對情緒進行形式化的量化,以便在存在情緒的情況下,在決策的認知過程中選擇最佳的替代方案,這似乎太難了,如果有可能的話。對決策過程中的情緒影響進行數學描述是一個難題,至今尚未找到全面的解決方案[11]。
困難首先在于,與認知相比,情感究竟是什么,并沒有一個唯一的公認定義。關于情感是獨立于認知之外的主要情感[12,13],還是始終依賴于認知的次要情感[14,15],長期以來一直存在爭議,不過也有觀點認為,這種爭議主要是由不同定義引起的語義爭議[16]。
對大腦組織的研究通常支持這樣一種假設,即大腦存在著相當程度的功能特化,許多腦區可以被概念化為情感區或認知區。最常見的例子是情感領域的杏仁核和認知領域的外側前額葉皮層。然而,也有觀點認為[17,18],復雜的認知-情感行為是以腦區網絡的動態聯盟為基礎的,而這些腦區都不應被視為專門的情感或認知腦區。不同的腦區在調節腦區之間的信息流和信息整合方面表現出高度的連通性,這導致了認知與情感之間的強烈互動。通常情況下,"情緒 "只是一個占位符,指的是比狹義情緒更廣泛的東西,包括一般的情感過程[19]。有觀點認為,情緒、認知和相關現象的概念可以在功能性框架下進行更精確的定義,例如,從行為原則[20]、情緒分類學[21]、情緒調節[22]或研究情緒過程動態中的情緒評估[7, 23, 24]等方面進行定義。關于情緒的定義及其與認知的關系的更多參考資料可參見相關調查[25-27]。
功能框架牢記認知與情感在操作上的分離,認知與情感是與決策過程有關的概念,決策過程包括推理和情感兩個方面[11, 28]。推理是指制定明確規則的能力,從而做出規范性選擇。而情感方面則意味著做出選擇的可能性受到情感的影響,而情感并不總是允許做出明確的正式規定。決策中的理性-情感二分法通常被稱為理性-非理性二元對立 [29]。如上所述,嚴格來說,認知與情感、理性與非理性并不存在唯一定義且絕對分離的概念。然而,我們的目標并不是陷入語義學的爭論,而是描述一種考慮到決策兩個方面的方法,即允許對效用進行明確評估的規范性方法和似乎可以避免用規定的形式規則來描述的情感方法。情感的萬花筒可能相當復雜,無法進行明確的分類定義,因此被稱為[7,23,24]特異性和模糊性。這種模糊性是量化情緒對決策影響的主要障礙。
因此,標準編程機器人或計算機與人類智能的主要區別在于人類意識在決策過程中的認知-情感二元性。為了清楚起見,我們可以談論人類智能,盡管正如大量實證研究證明的那樣,幾乎所有有生命的生物都具有決策過程中的二重性。動物可能會感受到各種情緒,包括恐懼、快樂、幸福、羞恥、尷尬、怨恨、嫉妒、憤怒、生氣、愛、愉悅、同情、尊重、解脫、厭惡、悲傷、絕望和悲痛[30]。
人類在做決定時表現出的認知-情感二元性,將理性的有意識行動效用評估與非理性的潛意識情感結合在一起。后者在風險和不確定性決策中尤為明顯。當人的行為與預期效用理論相矛盾時,這種二元性就是經典決策中許多行為悖論的起因。因此,為了制定情感人工智能(Affective Artificial Intelligence)運作的明確算法,包括認知與情感的二元性,有必要發展一種適當的情感決策理論,以便在不確定情況下做出切合實際的預測。
認知-情感二元性在決策中的存在,暗示了借助量子理論技術對其進行描述的可能性,在量子理論中也存在二元性,即所謂的粒子-波二元性[31]。雖然這些概念在物理學和決策理論中的性質相當不同,但量子理論的數學技術很可能暗示了對這兩種現象的類似描述。玻爾[32, 33]是第一個認為人腦的功能可以用量子理論技術來描述的人。從那時起,就有許多出版物討論了直接應用量子技術描述人類決策過程的可能性。這些討論假設意識是量子的或類似量子的,并在許多綜述著作中進行了總結,例如[34-39],其中引用了大量關于應用量子技術描述意識的不同嘗試的參考文獻。
必須承認,許多研究人員對量子物理學與認知過程之間的平行關系持懷疑態度,原因如下:
功能框架牢記認知與情感在操作上的分離,認知與情感是與決策過程有關的概念,決策過程包括推理和情感兩個方面[11, 28]。推理是指制定明確規則的能力,從而做出規范性選擇。而情感方面則意味著做出選擇的可能性受到情感的影響,而情感并不總是允許做出明確的正式規定。決策中的理性-情感二分法通常被稱為理性-非理性二元對立 [29]。如上所述,嚴格來說,認知與情感、理性與非理性并不存在唯一定義且絕對分離的概念。然而,我們的目標并不是陷入語義學的爭論,而是描述一種考慮到決策兩個方面的方法,即允許對效用進行明確評估的規范性方法和似乎可以避免用規定的形式規則來描述的情感方法。情感的萬花筒可能相當復雜,無法進行明確的分類定義,因此被稱為[7,23,24]特異性和模糊性。這種模糊性是量化情緒對決策影響的主要障礙。
因此,標準編程機器人或計算機與人類智能的主要區別在于人類意識在決策過程中的認知-情感二元性。為了清楚起見,我們可以談論人類智能,盡管正如大量實證研究證明的那樣,幾乎所有有生命的生物都具有決策過程中的二重性。動物可能會感受到各種情緒,包括恐懼、快樂、幸福、羞恥、尷尬、怨恨、嫉妒、憤怒、生氣、愛、愉悅、同情、尊重、解脫、厭惡、悲傷、絕望和悲痛[30]。
人類在做決定時表現出的認知-情感二元性,將理性的有意識行動效用評估與非理性的潛意識情感結合在一起。后者在風險和不確定性決策中尤為明顯。當人的行為與預期效用理論相矛盾時,這種二元性就是經典決策中許多行為悖論的起因。因此,為了制定情感人工智能(Affective Artificial Intelligence)運作的明確算法,包括認知與情感的二元性,有必要發展一種適當的情感決策理論,以便在不確定情況下做出切合實際的預測。
認知-情感二元性在決策中的存在,暗示了借助量子理論技術對其進行描述的可能性,在量子理論中也存在二元性,即所謂的粒子-波二元性[31]。雖然這些概念在物理學和決策理論中的性質相當不同,但量子理論的數學技術很可能暗示了對這兩種現象的類似描述。玻爾[32, 33]是第一個認為人腦的功能可以用量子理論技術來描述的人。從那時起,就有許多出版物討論了直接應用量子技術描述人類決策過程的可能性。這些討論假設意識是量子的或類似量子的,并在許多綜述著作中進行了總結,例如[34-39],其中引用了大量關于應用量子技術描述意識的不同嘗試的參考文獻。
必須承認,許多研究人員對量子物理學與認知過程之間的平行關系持懷疑態度,原因如下:
(i) 首先,根據目前的神經生理學知識,大腦絕非量子系統,因此與量子意識無關。關于大腦神經元充當微型量子設備,因此大腦的功能類似于量子計算機的假設[40,41]已經受到了公正的批評[42],因為退相干效應不允許神經元充當量子對象。這并不排除大腦中確實存在某些量子過程,量子生物物理學對這些過程進行了研究[43, 44]。然而,整個大腦及其功能似乎與量子理論無關。
(ii) 對于上述反對意見,通常的說法是,用量子理論描述人類思維過程的可能性并不要求假設人腦是某種量子系統。相反,它認為,雖然大腦不是量子對象,但認知和人類思維過程可以用量子理論的語言進行數學形式化。這與微分方程理論所呈現的情況類似,微分方程理論最初是為了描述行星運動而發展起來的。但現在,微分方程理論已被廣泛應用,它只是一種高效的數學工具,與行星運動沒有必然聯系。同樣,量子理論可以為思維過程的數學描述提供一個方便的框架。然而,批評者堅持認為,這些類比是膚淺的,并沒有規定實用的方法,有時甚至在質量上與經驗數據相矛盾[45, 46]。
(iii) 此外,簡單的邏輯告訴我們,如果大腦是一個經典物體,那么它的功能就應該用經典方程來描述,因為正是它的屬性(包括功能)將一個物體劃分為經典或量子。如果一個物體的特性原則上不能用經典理論來描述,而只能用量子理論來描述,那么這個物體就是量子物體,這與我們目前對大腦的認識是矛盾的。
(iv) 直接使用量子理論來描述決策,會引入大量未知參數和模糊概念,而這些參數和概念無法在與決策相關的可觀測量層面上定性。例如,什么是心理過程中的哈密頓?如何定義和測量進入描述大腦狀態的波函數的大量系數?描述大腦特征的統計算子的演化方程是什么?還有很多其他定義模糊的概念[47]。
(v) 任何理論最重要的目標都是能夠預測可在實驗中驗證的定量結果。然而,沒有一個純量子決策變體能預測出一些數字數據。能做到的最大限度就是考慮特定情況,并為這些情況的假定解釋擬合參數。為了從推導出的量子關系中提取定量信息,有必要用一些與量子技術無關的假設對其進行補充。從這個意義上說,復雜的量子子結構變得過度了,這與解釋量子現象的非局部隱變量的過度性類似[48]。
(vi) 決策過程中的某些事件可以定性地解釋為量子過程所致,但這并不排除用經典語言進行其他解釋的可能性。根據 "奧卡姆剃刀原則"(Occam's razor principle),在相互競爭的理論中,最簡單的理論要優于較復雜的理論,因此應首先從已知量的角度來解釋未知現象。因此,基于量子公式的相當復雜的理論應不予考慮,而應選擇基于經典概念的簡單得多的解釋,只要這些解釋是存在的。實體不應超出必要的范圍。最簡單的理論就是最好的理論 [49]。
了解意識的運行是由量子規則還是經典規則來描述是非常重要的,因為根據所涉及的形式主義,人工智能的運行必須用同樣的語言來描述。通過對上述反對將量子技術用于決策形式化的觀點進行研究,我們可以得出以下結論: 首先,盡管目前量子效應對大腦功能的影響尚未得到令人信服的論證,但不能絕對排除這種影響。其次,即使量子效應在大腦運行中沒有實際作用,意識也不需要量子描述,但研究決策與量子過程之間的類比關系可以豐富二者的內涵,建議對二者進行更深刻的理解。量子現象的特殊性如果能得到更好的理解,就能為描述意識功能的方法提供提示。
本綜述所倡導的觀點可概括如下: 大腦是一個經典物體,因此它的基本屬性,即意識,顧名思義,必須是經典的。否則,說經典物體具有量子特性就毫無意義了。然而,在量子測量和決策的描述中存在著一些形式上的類比。這些類比需要仔細研究,原因有二:
(i) 雖然是形式上的類比,但不同現象之間的類比往往為描述這些現象提供了具體的實用方法。
(ii) 從兩種不同方法的名義類比中借鑒一些想法,有助于對這些方法進行比較,并選擇更有效、更簡單的理論。
馮-諾依曼(von Neumann)很早就注意到了量子現象與意識現象之間的形式類比,他提到量子測量理論可以解釋為決策理論[50]。其他研究人員也發展了這一概念,例如貝尼奧夫 [51,52]。因此,量子測量類似于決策,因此對可觀測物的測量類似于決策中對備選方案的選擇。接受了這些類比,我們可以更進一步。考慮到情緒是在決策過程中潛意識產生的,我們可以將情緒與測量設備在測量過程中產生的內在噪音聯系起來。這樣,可觀測-噪聲二元性就等同于認知-情感二元性。在物理測量中,信號的檢測可能會受到噪聲的阻礙,或者加入適量的噪聲會增強信號,從而促進信號的檢測[53, 54],同樣,在決策過程中,情緒可能會阻礙決策的做出,也可能會促進決策的做出。
在量子測量中,可能存在可觀測噪聲糾纏,這在決策中與模仿認知-情感糾纏的相關性相對應。如果固有噪聲呈現為幾種模式的疊加,那么就會出現噪聲干擾,從而產生情感干擾。這樣一來,量子測量和決策之間就有了不同的相似性。因此,即使意識并不完全按照與量子測量相同的規則運作,但無論如何,所發現的許多相似之處可以為決策程序的正規化運作,從而為人工智能的創造提供有用的提示。
最后,為了避免混淆,有必要強調一下本綜述的內容和目的。這決不是對應用于意識表征的量子技術的一般領域的調查,因此沒有討論關于此類應用的成千上萬篇文章,而只是引用了主要書籍,在這些書籍中可以找到大量參考文獻。在集中討論情感量化的思想和方法時,我們只引用了那些研究情感在決策中的作用,特別是討論情感描述的實用方法的著作,但我們并沒有陷入沒有觸及這些問題的論文海洋。在大多數討論量子理論在意識中的應用的著作中,既沒有考慮情感的作用,也根本沒有涉及情感的量化問題。
創造類人人工智能的首要條件是制定明確的數學運行規則。本文并不打算描述人工智能實際運作的所有技術階段,但目的是為類人人工智能在決策過程中的運作制定明確的數學算法。沒有對這些規則和算法的數學描述,就無法對任何設備進行建模。但是,為了用數學方法制定人工智能在類人決策中的選擇過程,就必須理解并用數學方法描述人類的選擇過程,而人工智能計劃模仿人類的行為。因此,本文的核心目標是分析以下問題的組合,這些問題的解決對于人工智能(無論是類人智能還是人類智能)決策的數學表述是必要的:
(1) 分析情感在決策中的作用,并調查相關文獻,無論是采用量子語言還是經典語言。這對于理解情感智能處理的基本定性原則是必要的
(2) 闡述決策過程中情緒量化的實用方法。這是形成情感人工智能的先決條件,而情感人工智能的運行需要有明確的量化算法。
(3) 比較量子和經典兩種方法,以制定情感決策的實用原則。這是選擇最合適的方法的必要條件,這種方法應是自洽的、簡單的,并能為其操作提供定量方法。
(4) 理解如何修改經典方法,以便提供與使用量子技術相同的實際效果。同樣,如果不對量子和經典兩種方法進行比較,就不可能理解這一點。否則,讀者會不斷發出這樣或那樣的感嘆:為什么會有這樣或那樣的假設?這個或那個公式從何而來?
本綜述實現了這些目標。綜述對討論情感在決策中的作用的文獻進行了詳盡的調查。在現有文獻的基礎上,介紹了情感量化的嘗試。從大量引文中可以看出,有大量文獻從經典角度討論了情緒的作用。文中詳細比較了量子技術和經典技術。結果表明,經典方法可以通過考慮情感因素進行修改,從而得出與量子決策理論相同的結果。例如,經典決策中的所有悖論都可以在不使用任何量子理論的情況下得到定量解釋。
然而,如果不對考慮情感因素的兩種不同方法進行比較,就不可能得出結論: 首先,不可能得出哪種方法更可取的結論;其次,不可能知道如何修改經典理論才能使其得出與量子方法相同的結果。因此,評論的所有部分都同等重要,如果分開就失去了意義。因此,如果不將其中一種方法與另一種方法進行比較,就無法證明其中一種方法的合理性。另一方面,在制定了不同的方法后,它們可以獨立使用,并比較其有效性。
綜述的結構如下。第 2 節介紹了存在本征噪聲的量子測量的一般理論。強調了與決策的類比。假設有噪聲量子測量的功能與情感決策的功能相似,則為后者提出了總體框架。對量子方法和修正的經典方法進行比較,不僅可以提供有趣的類比,還可以提出最簡單有效的情感決策理論。
當然,量子技術并非常識,會嚴重阻礙量子理論的實際應用。因此,如果同樣的現象既可以用量子語言描述,也可以用經典語言描述,那么采用較為簡單的經典方法是合理的,但不能用時髦的術語把問題復雜化。理論必須盡可能簡單,以便任何人,包括可能不懂量子技術的人,都能直接使用。這也與決策理論有關,決策理論可以作為量子理論的一個分支來發展,也可以重新表述為公理形式,一方面模仿某些量子運算和結構,另一方面又不需要量子術語知識。第 3 節實現了這一目標,表明情感決策理論可以用公理化的方式表述,而無需借助量子理論。由于情感決策理論是用數學術語表述的,因此可以用于人工智能的運行。第 4 節探討了決策過程中著名的行為悖論,并表明在情感決策理論的框架內,這些悖論在總體上不會出現。從這個意義上說,遵循該理論規則的人工智能將像典型的人類決策者一樣行事。第 5 節介紹了由智能體組成的網絡結構,這些智能體在情感的作用下做出決策。第 6 節為結論。
內聚力是團隊的一個重要屬性,它可以影響個人隊友和團隊成果。然而,在包括自主系統作為隊友的團隊中,內聚力是一個未被充分探索的話題。我們研究了關于人類團隊內聚力的現有文獻,然后在此基礎上推進對人類-自主系統團隊的內聚力的理解,包括相似性和差異性。我們描述了團隊的內聚力,各種定義、因素、維度以及相關的好處和壞處。我們討論了當團隊包括一個自主性的隊友時,該元素可能會受到怎樣的影響,并進行了逐一描述。最后,我們確定了可能與內聚力有關的人類-自主性互動的具體因素,然后闡述了對推進有效的人類-自主性團隊的科學至關重要的未來研究問題。