本文比較了幾種神經網絡架構,以逼近一些基本一維偏微分方程的解和求解算子。具體來說,研究了在物理信息機器學習中,殘差層是否比全連接層更有優勢,發現兩者在所考慮的問題上表現類似。還將流行的 DeepONet 和傅立葉神經算子方法與算子學習方法進行了比較,發現雖然兩者在線性問題上的精確度相當,但后者在存在簡單非線性的情況下能生成更精確的模型。
鑒于深度神經網絡(DNNs)的復雜性和不透明性,人們已經做出了廣泛努力,使這些系統更易于解釋或用易于理解的術語解釋它們的行為。與大多數專注于算法和以模型為中心的視角的綜述不同,本工作采取了“以數據為中心”的視角,考察了數據收集、處理和分析如何促進可解釋人工智能(XAI)。我們將現有工作分類為三個目的類別:深度模型的解釋,涉及特征歸因和將數據點與模型輸出相關聯的推理過程;訓練數據的影響,檢查訓練數據細微差別(如數據價值和樣本異常)對決策過程的影響;以及領域知識的洞察,從數據和模型中發現潛在模式,培養新知識,以推進社會價值和科學發現。具體來說,我們將XAI方法提煉為對訓練和測試數據的數據挖掘操作,這些數據跨越不同的模態,如圖像、文本和表格數據,以及對訓練日志、檢查點、模型和其他DNN行為描述符的操作。通過這種方式,我們的研究從數據挖掘方法和應用的角度,對XAI進行了全面的、以數據為中心的審視。
//www.zhuanzhi.ai/paper/6960f37082a968c932aec73e1160f875
**1 引言 **
隨著人工智能(AI)的發展,傳統的決策技術,如感知器[1]、基于規則的系統[2]、基于案例的推理[3]和專家系統[4],已讓位于更復雜的深度神經網絡(DNNs)[5]。這些早期技術是基于人類決策過程,從基于規則的推理[6]到基于委員會的預測[7]。存儲和計算能力的激增催化了向DNNs的演變,盡管它們在視覺識別和語言建模等任務上表現出色[5],但在可解釋性方面面臨挑戰[8]。
DNNs的“黑箱”本質以及其廣泛的參數化妨礙了自動駕駛和醫療等關鍵應用中所需的透明度,引發了人們對這些模型在高風險環境中可靠性的擔憂[9]、[10]、[11]。因此,可解釋人工智能(XAI)已成為一個關鍵領域,提出了諸如LIME[12]等解決方案來改善機器學習的可解釋性1,可能增加對AI系統的信任[13]。這些XAI技術不僅努力實現模型透明度,還為數據集增加了附加價值,幫助完成諸如調試[14]和定位誤標記樣本[15]等任務,豐富了對數據集及其各自領域的理解[16]、[11]。在這項研究中,我們通過對現有文獻的全面審查,通過我們的兩個獨特觀察、三個目的和四階段XAI技術數據處理的角度進行分組和分析。 我們的第一個觀察重點關注XAI技術演變和應用背后的驅動力。在對當前文獻進行廣泛審查后,我們將主要目的概括為三個核心類別:1)深度模型的解釋:盡管深度學習模型具有高度的預測能力,但它們的“黑箱”本質限制了可解釋性[12]、[17]。XAI旨在通過闡明這些模型在每個實例基礎上的預測理由,從而促進透明度和信任[8]、[18]。2)訓練數據的影響:機器學習模型的性能取決于訓練數據的分布和質量[19]、[20]。XAI技術可以準確地指出對模型輸出產生重大影響的數據點,促進改進的訓練過程和模型簡化[21]、[22]。3)領域知識的洞察:XAI還揭示了模型和數據中特定于領域的知識,提供了在這些領域內人類理解的潛在進步,并在醫療保健和金融等高風險應用中提供寶貴的洞察[23]、[24]。 如圖1所示,XAI作為人類理解和機器學習模型復雜性之間差距的橋梁,提高了AI應用的信心[25]、[26]。
我們還發現,XAI方法遵循類似于傳統數據挖掘的結構化過程[27]、[28]、[29],將數據、算法和以人為中心的分析整合起來。以下列出了四個關鍵步驟。 1)數據獲取與收集:XAI將數據收集擴展到超越數據集,涵蓋了深度學習的生命周期,如訓練數據集、訓練日志和檢查點、測試樣本等。 2)數據準備與轉換:從模型、數據和訓練日志中提取和轉換DNNs的行為描述符,包括顯著性地圖、訓練損失曲線和輸入/損失梯度向量(也請參見表1),以便后續解釋[30]、[31]、[15]。 3)數據建模與分析:挖掘DNN行為描述符以模擬DNN決策、訓練數據貢獻和數據集模式,從而導致三種類型的分析目的:解釋、影響和洞察[11]。 4)結果報告與可視化:XAI努力的高潮是通過適當的報告和可視化來呈現發現,這取決于數據模態,例如將顯著性地圖疊加在圖像上[32]、[33],突出顯示關鍵視覺特征。
通過這些步驟,XAI增強了AI框架中的可解釋性、信任,甚至是知識與理解,促進了人類與AI的更好協同。 我們的調查采用了以數據為中心的視角來審查XAI,通過結合三個目的和四階段數據挖掘過程來分類組織技術。這項研究的貢獻包括: ? 從數據挖掘的角度對XAI范式進行技術回顧,重點關注解釋過程中的數據相關實踐[34]。這項工作開創了對XAI進行新框架系統審查的先河。 ? 引入了一個新的分類系統,圍繞XAI的三重目的和數據挖掘的四個不同階段,對當前XAI方法進行分類和闡述。 ? 對XAI未來發展的前瞻性討論,強調其揭示數據內在深層洞察的能力,這對像AI驅動的科學和醫學等領域有重要意義。
將XAI研究納入這一分類提供了一個結構化的敘述,豐富了對XAI趨勢和潛力的精確理解。 關于XAI的新興研究已在幾項調查中得到審查,突出了解釋深度模型的挑戰和重要性。Doshi-Velez和Kim[8]強調了評估XAI技術的必要性,而Carvalho等人[9]提供了一項廣泛的可解釋性方法研究,涵蓋了模型不可知和模型特定的方法。Hammoudeh和Lowd[174]將重點轉移到了訓練數據的影響上。Mohseni等人提供了一項評估XAI系統的調查和框架[175]。Marcinkeviˇcs和Vogt[16]以及Notovich等人[176]對實用XAI方法進行了擴展,提供了應用示例和技術分類。Preuer等人[177]在藥物發現中探討了領域特定的應用,而Tjoa和Guan[30]則在醫學成像中進行了探討。
與上述工作相比,我們的調查(圖2中顯示的簡要結果)通過從數據挖掘的角度探索XAI的三重角色來彌補XAI文獻中的差距:(1)解釋模型的行為以理解其決策;(2)估算數據的影響,以評估和識別關鍵樣本;(3)從模型和數據中提煉洞察,以獲得推動社會價值和科學發現的新理解。
解釋:深度模型的特征歸因和推理過程
解釋深度模型包括使用特征歸因來評估每個輸入對模型輸出的影響,并檢查推理過程以理解模型內部的決策路徑。
影響:訓練樣本的數據價值和異常檢測
通過衡量訓練樣本對決策過程的影響來解釋深度模型對于理解和驗證這些模型的輸出至關重要。這一過程通常涉及多種技術,這些技術將單個訓練樣本與模型所做決策之間的相關性映射出來[221]、[174]。在本節中,我們將現有工作分類為以下三個方向。
洞察:從數據中發現模式和知識
XAI算法有助于提取人類可讀的洞察,部分原因是它們能夠識別和解釋復雜的多維或多模態數據中的模式、相關性和異常。已經做了兩組努力:一組關注社會價值,另一組專注于科學發現的進步。 結論
本文通過數據挖掘的視角,系統地回顧了可解釋人工智能(XAI)的作用,涵蓋了三個關鍵的主題領域: ? 解釋模型行為:本綜述強調了揭示深度神經網絡(DNNs)的決策過程的必要性,從特征歸因和推理邏輯的角度出發,旨在增加AI系統的透明度和信任。 ?** 評估數據影響**:本綜述關注單個數據樣本如何塑造模型的決策和泛化性能,強調對學習的重要貢獻者,并檢測可能導致結果偏斜的任何數據異常。 ? 提煉可行洞察:超越提供解釋,本綜述尋求發現與社會價值一致并促進科學創新的新洞察,將XAI技術的知識引向實際應用。
總之,本研究對上述三個目的的XAI方法進行了全面分析,突出了當前的能力、實際用途,并識別了需要改進的領域。這一分析為進一步的研究奠定了基礎,這些研究努力將XAI更深入地整合到數據挖掘實踐中,并培育一個更透明、可靠、以用戶為中心的人工智能環境。
本文介紹了一個案例研究,說明為汽車減震器開發可靠、穩健、準確的數字孿生系統所面臨的挑戰。具體來說,該數字孿生系統的作用是估計儲氣室中當前的氣體壓力,并將其與預期壓力進行比較。研究定量證明,傳感器和算法的設計選擇對系統的準確性有重大影響,而這種影響與數字孿生系統的硬件成本不成正比。經評估的傳感器套件成本很高,總成本從 297 澳元到 4292 澳元不等,成本相差 14 倍。研究表明,使用龐大而昂貴的傳感器套件并不一定會相應地提高系統的精確度。數字孿生結構中使用的算法和傳感器對系統精度有顯著影響,RMSE 從 3.83 Bar 到 0.85 Bar 不等,精度相差四倍。數字孿生方法在精確度方面有顯著優勢,僅使用最精確傳感器的方法的有效誤差值為 2.27,而全數字孿生方法的有效誤差值為 0.84。成本最低的系統最大限度地利用了貝葉斯方法和物理建模,產生的估計值僅次于最精確的系統,均方根誤差為 1.4 Bar,是最精確系統的 165%,這對任務仍然有效,但成本僅為后者的 7%。這表明,通過利用混合架構中的算法開發,可以顯著提高性能,并大大減少數據集的大小和神經網絡組件的訓練時間。
圖 1:測功機測試裝置和儀器圖 注:圖片中的減震器并非測試設備。
這篇綜述分析了人工智能應遵循的基本原則,以便模仿人類體驗情感做出決策的真實過程。本文考慮了兩種方法,一種基于量子理論,另一種則采用經典術語。這兩種方法有許多相似之處,主要都是概率論方法。研究闡明了內在噪聲下的量子測量與情感決策之間的類比關系。研究表明,認知過程的許多特征在形式上與量子測量相似。然而,這絕不意味著情感人工智能必須依賴量子系統的功能才能模仿人類決策。人類決策與量子測量之間的類比只是展示了它們在功能上的形式共性。從這個意義上說,我們必須理解人工智能的量子運行。理解量子測量與決策之間的共同特征有助于制定一種只使用經典概念的公理方法。采用這種方法的人工智能的運作方式與人類類似,都會考慮到所考慮的備選方案的效用及其情感吸引力。情感人工智能的運作考慮到了認知與情感的二元性,避免了傳統決策中的許多行為悖論。一個由智能體組成的社會,通過重復的多步驟信息交換進行互動,形成一個網絡,在效用評估的基礎上并受備選方案情感吸引力的影響,完成動態決策。所考慮的智能網絡既可以描述由情感決策者組成的人類社會的運作,也可以描述由神經元組成的大腦或典型的人工智能概率網絡的運作。
人工智能(Artificial Intelligence)被理解為機器表現出的智能,與包括人類在內的動物所表現出的自然智能相反。人工智能的主要教科書將這一領域定義為研究人工智能系統感知從環境中獲取的信息,并為實現目標做出決策和采取行動[1-6]。人工智能研究人員普遍認為,要稱得上智能,就必須能夠使用邏輯策略,并在不確定的情況下做出判斷。
擁有智能的系統被稱為智能體。該系統在評估可用信息后,能夠采取自主行動和決策,以實現預期目標,并可通過學習或利用獲得的知識提高自身性能[1-6]。通常,智能體一詞適用于具有人工智能的系統。然而,智能體范式與經濟學、認知科學、倫理學、哲學以及許多跨學科的社會認知建模和模擬中使用的智能體密切相關。一般來說,從技術或數學的角度來看,智能體的概念可以與真實智能或人工智能相關聯。智能體可以是任何能做出決策的東西,如人、公司、機器或軟件。
在這篇綜述中,我們將集中討論人工智能最困難和最重要的問題之一,即與人類決策過程類似的決策機制,因為人類的決策實際上總是伴隨著情感。實現人類水平的機器智能一直是人工智能工作一開始的主要目標[1-6]。本綜述的重點是描述如何將情感決策數學形式化,使其達到足以讓人工智能模仿人類決策過程(情感是其中不可避免的一部分)的水平。下面,在談到人工智能時,我們會想到情感人工智能。
為了制定情感人工智能的基本操作算法,有必要對人類情感決策進行數學描述。情感量化問題包括兩個方面。一方面是評估主體對外部事件(如聽到聲音或看到圖片)的反應所體驗到的情緒。產生的情緒包括快樂、憤怒、愉悅、厭惡、恐懼、悲傷、驚訝、痛苦等。這種情緒的嚴重程度或強度可以通過研究其在運動反應中的表現形式,如面部表情、啞劇和一般運動活動,以及通過測量生理反應,如自主神經系統交感和副交感神經部分的活動以及內分泌腺的活動來估計。通過研究皮膚電阻的變化、心臟收縮的頻率和強度、血壓、皮膚溫度、血液中的激素和化學成分等,可以發現情緒的植物表現。關于語音、面部表情和肢體動作中的情緒檢測和評估方法,已有大量文獻[7, 8]。能夠識別、解釋、處理和模擬人類情感的系統和設備的研究和開發被命名為情感計算 [9,10]。本綜述將不涉及這些問題。
故事的另一面是描述情緒如何影響決策的挑戰。要制定情感人工智能在決策過程中的運作原則,就必須能夠量化情感在這一過程中的作用。本綜述的中心正是這一目標。
這一目標面臨著如何定義和量化決策過程中產生的情感這一基本問題。要對情緒進行形式化的量化,以便在存在情緒的情況下,在決策的認知過程中選擇最佳的替代方案,這似乎太難了,如果有可能的話。對決策過程中的情緒影響進行數學描述是一個難題,至今尚未找到全面的解決方案[11]。
困難首先在于,與認知相比,情感究竟是什么,并沒有一個唯一的公認定義。關于情感是獨立于認知之外的主要情感[12,13],還是始終依賴于認知的次要情感[14,15],長期以來一直存在爭議,不過也有觀點認為,這種爭議主要是由不同定義引起的語義爭議[16]。
對大腦組織的研究通常支持這樣一種假設,即大腦存在著相當程度的功能特化,許多腦區可以被概念化為情感區或認知區。最常見的例子是情感領域的杏仁核和認知領域的外側前額葉皮層。然而,也有觀點認為[17,18],復雜的認知-情感行為是以腦區網絡的動態聯盟為基礎的,而這些腦區都不應被視為專門的情感或認知腦區。不同的腦區在調節腦區之間的信息流和信息整合方面表現出高度的連通性,這導致了認知與情感之間的強烈互動。通常情況下,"情緒 "只是一個占位符,指的是比狹義情緒更廣泛的東西,包括一般的情感過程[19]。有觀點認為,情緒、認知和相關現象的概念可以在功能性框架下進行更精確的定義,例如,從行為原則[20]、情緒分類學[21]、情緒調節[22]或研究情緒過程動態中的情緒評估[7, 23, 24]等方面進行定義。關于情緒的定義及其與認知的關系的更多參考資料可參見相關調查[25-27]。
功能框架牢記認知與情感在操作上的分離,認知與情感是與決策過程有關的概念,決策過程包括推理和情感兩個方面[11, 28]。推理是指制定明確規則的能力,從而做出規范性選擇。而情感方面則意味著做出選擇的可能性受到情感的影響,而情感并不總是允許做出明確的正式規定。決策中的理性-情感二分法通常被稱為理性-非理性二元對立 [29]。如上所述,嚴格來說,認知與情感、理性與非理性并不存在唯一定義且絕對分離的概念。然而,我們的目標并不是陷入語義學的爭論,而是描述一種考慮到決策兩個方面的方法,即允許對效用進行明確評估的規范性方法和似乎可以避免用規定的形式規則來描述的情感方法。情感的萬花筒可能相當復雜,無法進行明確的分類定義,因此被稱為[7,23,24]特異性和模糊性。這種模糊性是量化情緒對決策影響的主要障礙。
因此,標準編程機器人或計算機與人類智能的主要區別在于人類意識在決策過程中的認知-情感二元性。為了清楚起見,我們可以談論人類智能,盡管正如大量實證研究證明的那樣,幾乎所有有生命的生物都具有決策過程中的二重性。動物可能會感受到各種情緒,包括恐懼、快樂、幸福、羞恥、尷尬、怨恨、嫉妒、憤怒、生氣、愛、愉悅、同情、尊重、解脫、厭惡、悲傷、絕望和悲痛[30]。
人類在做決定時表現出的認知-情感二元性,將理性的有意識行動效用評估與非理性的潛意識情感結合在一起。后者在風險和不確定性決策中尤為明顯。當人的行為與預期效用理論相矛盾時,這種二元性就是經典決策中許多行為悖論的起因。因此,為了制定情感人工智能(Affective Artificial Intelligence)運作的明確算法,包括認知與情感的二元性,有必要發展一種適當的情感決策理論,以便在不確定情況下做出切合實際的預測。
認知-情感二元性在決策中的存在,暗示了借助量子理論技術對其進行描述的可能性,在量子理論中也存在二元性,即所謂的粒子-波二元性[31]。雖然這些概念在物理學和決策理論中的性質相當不同,但量子理論的數學技術很可能暗示了對這兩種現象的類似描述。玻爾[32, 33]是第一個認為人腦的功能可以用量子理論技術來描述的人。從那時起,就有許多出版物討論了直接應用量子技術描述人類決策過程的可能性。這些討論假設意識是量子的或類似量子的,并在許多綜述著作中進行了總結,例如[34-39],其中引用了大量關于應用量子技術描述意識的不同嘗試的參考文獻。
必須承認,許多研究人員對量子物理學與認知過程之間的平行關系持懷疑態度,原因如下:
功能框架牢記認知與情感在操作上的分離,認知與情感是與決策過程有關的概念,決策過程包括推理和情感兩個方面[11, 28]。推理是指制定明確規則的能力,從而做出規范性選擇。而情感方面則意味著做出選擇的可能性受到情感的影響,而情感并不總是允許做出明確的正式規定。決策中的理性-情感二分法通常被稱為理性-非理性二元對立 [29]。如上所述,嚴格來說,認知與情感、理性與非理性并不存在唯一定義且絕對分離的概念。然而,我們的目標并不是陷入語義學的爭論,而是描述一種考慮到決策兩個方面的方法,即允許對效用進行明確評估的規范性方法和似乎可以避免用規定的形式規則來描述的情感方法。情感的萬花筒可能相當復雜,無法進行明確的分類定義,因此被稱為[7,23,24]特異性和模糊性。這種模糊性是量化情緒對決策影響的主要障礙。
因此,標準編程機器人或計算機與人類智能的主要區別在于人類意識在決策過程中的認知-情感二元性。為了清楚起見,我們可以談論人類智能,盡管正如大量實證研究證明的那樣,幾乎所有有生命的生物都具有決策過程中的二重性。動物可能會感受到各種情緒,包括恐懼、快樂、幸福、羞恥、尷尬、怨恨、嫉妒、憤怒、生氣、愛、愉悅、同情、尊重、解脫、厭惡、悲傷、絕望和悲痛[30]。
人類在做決定時表現出的認知-情感二元性,將理性的有意識行動效用評估與非理性的潛意識情感結合在一起。后者在風險和不確定性決策中尤為明顯。當人的行為與預期效用理論相矛盾時,這種二元性就是經典決策中許多行為悖論的起因。因此,為了制定情感人工智能(Affective Artificial Intelligence)運作的明確算法,包括認知與情感的二元性,有必要發展一種適當的情感決策理論,以便在不確定情況下做出切合實際的預測。
認知-情感二元性在決策中的存在,暗示了借助量子理論技術對其進行描述的可能性,在量子理論中也存在二元性,即所謂的粒子-波二元性[31]。雖然這些概念在物理學和決策理論中的性質相當不同,但量子理論的數學技術很可能暗示了對這兩種現象的類似描述。玻爾[32, 33]是第一個認為人腦的功能可以用量子理論技術來描述的人。從那時起,就有許多出版物討論了直接應用量子技術描述人類決策過程的可能性。這些討論假設意識是量子的或類似量子的,并在許多綜述著作中進行了總結,例如[34-39],其中引用了大量關于應用量子技術描述意識的不同嘗試的參考文獻。
必須承認,許多研究人員對量子物理學與認知過程之間的平行關系持懷疑態度,原因如下:
(i) 首先,根據目前的神經生理學知識,大腦絕非量子系統,因此與量子意識無關。關于大腦神經元充當微型量子設備,因此大腦的功能類似于量子計算機的假設[40,41]已經受到了公正的批評[42],因為退相干效應不允許神經元充當量子對象。這并不排除大腦中確實存在某些量子過程,量子生物物理學對這些過程進行了研究[43, 44]。然而,整個大腦及其功能似乎與量子理論無關。
(ii) 對于上述反對意見,通常的說法是,用量子理論描述人類思維過程的可能性并不要求假設人腦是某種量子系統。相反,它認為,雖然大腦不是量子對象,但認知和人類思維過程可以用量子理論的語言進行數學形式化。這與微分方程理論所呈現的情況類似,微分方程理論最初是為了描述行星運動而發展起來的。但現在,微分方程理論已被廣泛應用,它只是一種高效的數學工具,與行星運動沒有必然聯系。同樣,量子理論可以為思維過程的數學描述提供一個方便的框架。然而,批評者堅持認為,這些類比是膚淺的,并沒有規定實用的方法,有時甚至在質量上與經驗數據相矛盾[45, 46]。
(iii) 此外,簡單的邏輯告訴我們,如果大腦是一個經典物體,那么它的功能就應該用經典方程來描述,因為正是它的屬性(包括功能)將一個物體劃分為經典或量子。如果一個物體的特性原則上不能用經典理論來描述,而只能用量子理論來描述,那么這個物體就是量子物體,這與我們目前對大腦的認識是矛盾的。
(iv) 直接使用量子理論來描述決策,會引入大量未知參數和模糊概念,而這些參數和概念無法在與決策相關的可觀測量層面上定性。例如,什么是心理過程中的哈密頓?如何定義和測量進入描述大腦狀態的波函數的大量系數?描述大腦特征的統計算子的演化方程是什么?還有很多其他定義模糊的概念[47]。
(v) 任何理論最重要的目標都是能夠預測可在實驗中驗證的定量結果。然而,沒有一個純量子決策變體能預測出一些數字數據。能做到的最大限度就是考慮特定情況,并為這些情況的假定解釋擬合參數。為了從推導出的量子關系中提取定量信息,有必要用一些與量子技術無關的假設對其進行補充。從這個意義上說,復雜的量子子結構變得過度了,這與解釋量子現象的非局部隱變量的過度性類似[48]。
(vi) 決策過程中的某些事件可以定性地解釋為量子過程所致,但這并不排除用經典語言進行其他解釋的可能性。根據 "奧卡姆剃刀原則"(Occam's razor principle),在相互競爭的理論中,最簡單的理論要優于較復雜的理論,因此應首先從已知量的角度來解釋未知現象。因此,基于量子公式的相當復雜的理論應不予考慮,而應選擇基于經典概念的簡單得多的解釋,只要這些解釋是存在的。實體不應超出必要的范圍。最簡單的理論就是最好的理論 [49]。
了解意識的運行是由量子規則還是經典規則來描述是非常重要的,因為根據所涉及的形式主義,人工智能的運行必須用同樣的語言來描述。通過對上述反對將量子技術用于決策形式化的觀點進行研究,我們可以得出以下結論: 首先,盡管目前量子效應對大腦功能的影響尚未得到令人信服的論證,但不能絕對排除這種影響。其次,即使量子效應在大腦運行中沒有實際作用,意識也不需要量子描述,但研究決策與量子過程之間的類比關系可以豐富二者的內涵,建議對二者進行更深刻的理解。量子現象的特殊性如果能得到更好的理解,就能為描述意識功能的方法提供提示。
本綜述所倡導的觀點可概括如下: 大腦是一個經典物體,因此它的基本屬性,即意識,顧名思義,必須是經典的。否則,說經典物體具有量子特性就毫無意義了。然而,在量子測量和決策的描述中存在著一些形式上的類比。這些類比需要仔細研究,原因有二:
(i) 雖然是形式上的類比,但不同現象之間的類比往往為描述這些現象提供了具體的實用方法。
(ii) 從兩種不同方法的名義類比中借鑒一些想法,有助于對這些方法進行比較,并選擇更有效、更簡單的理論。
馮-諾依曼(von Neumann)很早就注意到了量子現象與意識現象之間的形式類比,他提到量子測量理論可以解釋為決策理論[50]。其他研究人員也發展了這一概念,例如貝尼奧夫 [51,52]。因此,量子測量類似于決策,因此對可觀測物的測量類似于決策中對備選方案的選擇。接受了這些類比,我們可以更進一步。考慮到情緒是在決策過程中潛意識產生的,我們可以將情緒與測量設備在測量過程中產生的內在噪音聯系起來。這樣,可觀測-噪聲二元性就等同于認知-情感二元性。在物理測量中,信號的檢測可能會受到噪聲的阻礙,或者加入適量的噪聲會增強信號,從而促進信號的檢測[53, 54],同樣,在決策過程中,情緒可能會阻礙決策的做出,也可能會促進決策的做出。
在量子測量中,可能存在可觀測噪聲糾纏,這在決策中與模仿認知-情感糾纏的相關性相對應。如果固有噪聲呈現為幾種模式的疊加,那么就會出現噪聲干擾,從而產生情感干擾。這樣一來,量子測量和決策之間就有了不同的相似性。因此,即使意識并不完全按照與量子測量相同的規則運作,但無論如何,所發現的許多相似之處可以為決策程序的正規化運作,從而為人工智能的創造提供有用的提示。
最后,為了避免混淆,有必要強調一下本綜述的內容和目的。這決不是對應用于意識表征的量子技術的一般領域的調查,因此沒有討論關于此類應用的成千上萬篇文章,而只是引用了主要書籍,在這些書籍中可以找到大量參考文獻。在集中討論情感量化的思想和方法時,我們只引用了那些研究情感在決策中的作用,特別是討論情感描述的實用方法的著作,但我們并沒有陷入沒有觸及這些問題的論文海洋。在大多數討論量子理論在意識中的應用的著作中,既沒有考慮情感的作用,也根本沒有涉及情感的量化問題。
創造類人人工智能的首要條件是制定明確的數學運行規則。本文并不打算描述人工智能實際運作的所有技術階段,但目的是為類人人工智能在決策過程中的運作制定明確的數學算法。沒有對這些規則和算法的數學描述,就無法對任何設備進行建模。但是,為了用數學方法制定人工智能在類人決策中的選擇過程,就必須理解并用數學方法描述人類的選擇過程,而人工智能計劃模仿人類的行為。因此,本文的核心目標是分析以下問題的組合,這些問題的解決對于人工智能(無論是類人智能還是人類智能)決策的數學表述是必要的:
(1) 分析情感在決策中的作用,并調查相關文獻,無論是采用量子語言還是經典語言。這對于理解情感智能處理的基本定性原則是必要的
(2) 闡述決策過程中情緒量化的實用方法。這是形成情感人工智能的先決條件,而情感人工智能的運行需要有明確的量化算法。
(3) 比較量子和經典兩種方法,以制定情感決策的實用原則。這是選擇最合適的方法的必要條件,這種方法應是自洽的、簡單的,并能為其操作提供定量方法。
(4) 理解如何修改經典方法,以便提供與使用量子技術相同的實際效果。同樣,如果不對量子和經典兩種方法進行比較,就不可能理解這一點。否則,讀者會不斷發出這樣或那樣的感嘆:為什么會有這樣或那樣的假設?這個或那個公式從何而來?
本綜述實現了這些目標。綜述對討論情感在決策中的作用的文獻進行了詳盡的調查。在現有文獻的基礎上,介紹了情感量化的嘗試。從大量引文中可以看出,有大量文獻從經典角度討論了情緒的作用。文中詳細比較了量子技術和經典技術。結果表明,經典方法可以通過考慮情感因素進行修改,從而得出與量子決策理論相同的結果。例如,經典決策中的所有悖論都可以在不使用任何量子理論的情況下得到定量解釋。
然而,如果不對考慮情感因素的兩種不同方法進行比較,就不可能得出結論: 首先,不可能得出哪種方法更可取的結論;其次,不可能知道如何修改經典理論才能使其得出與量子方法相同的結果。因此,評論的所有部分都同等重要,如果分開就失去了意義。因此,如果不將其中一種方法與另一種方法進行比較,就無法證明其中一種方法的合理性。另一方面,在制定了不同的方法后,它們可以獨立使用,并比較其有效性。
綜述的結構如下。第 2 節介紹了存在本征噪聲的量子測量的一般理論。強調了與決策的類比。假設有噪聲量子測量的功能與情感決策的功能相似,則為后者提出了總體框架。對量子方法和修正的經典方法進行比較,不僅可以提供有趣的類比,還可以提出最簡單有效的情感決策理論。
當然,量子技術并非常識,會嚴重阻礙量子理論的實際應用。因此,如果同樣的現象既可以用量子語言描述,也可以用經典語言描述,那么采用較為簡單的經典方法是合理的,但不能用時髦的術語把問題復雜化。理論必須盡可能簡單,以便任何人,包括可能不懂量子技術的人,都能直接使用。這也與決策理論有關,決策理論可以作為量子理論的一個分支來發展,也可以重新表述為公理形式,一方面模仿某些量子運算和結構,另一方面又不需要量子術語知識。第 3 節實現了這一目標,表明情感決策理論可以用公理化的方式表述,而無需借助量子理論。由于情感決策理論是用數學術語表述的,因此可以用于人工智能的運行。第 4 節探討了決策過程中著名的行為悖論,并表明在情感決策理論的框架內,這些悖論在總體上不會出現。從這個意義上說,遵循該理論規則的人工智能將像典型的人類決策者一樣行事。第 5 節介紹了由智能體組成的網絡結構,這些智能體在情感的作用下做出決策。第 6 節為結論。
在本報告中,我們記錄了機器學習(ML)回歸在周期性、高度振蕩和??∞函數上的可擴展性和靈敏度。這項工作的動機是需要在潮汐傳播等周期性問題上使用 ML 回歸。在這項工作中,TensorFlow 被用來研究周期函數從一維到三維的機器可擴展性。針對一系列層、神經元和學習率,計算了每個維度的掛鐘時間,以進一步研究 ML 回歸對這些參數的敏感性。最后,比較了隨機梯度下降和 Adam 優化器的掛鐘時間和敏感性。
本論文旨在利用深度學習技術提高從二維目標圖像中估計目標姿態的能力。為此,我們采用了一種名為高分辨率網絡(High-Resolution Net)的尖端卷積神經網絡來訓練關鍵點檢測模型并評估其性能。實驗使用了兩個不同的數據集,包括 600,000 張合成圖像和 77,077 張高能激光束控制研究試驗臺(HBCRT)圖像。這些圖像來自六種不同的無人駕駛飛行器,用于訓練和評估目的,高分辨率網在 80% 的圖像上進行訓練,在其余 20% 的圖像上進行測試。運行高分辨率網絡時使用了 MMPose 框架,這是一個 Python 庫,其中包含多種卷積神經網絡選項。研究結果表明,High-Resolution Net 在姿勢估計方面表現良好,但由于目標形狀的對稱性,在左右反轉方面仍存在明顯差距。這項研究為今后利用高分辨率網絡進行目標姿態估計研究奠定了基礎。進一步的研究將集中式提高圖書館中左右分辨的準確性,以增強這些成果。
本論文分為五章。第一章是引言,介紹了本課題的概況及其相關性,以及如何進行實驗。第二章是文獻綜述,通過相關的學術和行業資料更詳細地介紹了這一研究領域。第三章是問題的提出和方法,介紹了將要解決的問題和解決問題的方法。第四章是模擬結果和深度學習性能評估,對結果進行評估,看是否取得了有意義的進展。第五章是結論,從更廣闊的視角看待結果,并討論未來工作的可能性。
盡管人們對聯邦學習和貝葉斯神經網絡進行了研究,但對貝葉斯網絡的聯邦學習的實現卻很少。在本論文中,使用公共代碼庫Flower開發了一個貝葉斯神經網絡的聯邦學習訓練環境。隨之而來的是對最先進的架構、殘差網絡和貝葉斯版本的探索。然后用獨立同分布(IID)數據集和從Dirichlet分布得到的非IID數據集測試這些架構。結果顯示,貝葉斯神經網絡的MC Dropout版本可以通過聯邦學習對CIFAR10數據集的IID分區取得最先進的結果--91%的準確性。當分區為非IID時,通過概率權重的反方差聚合的聯邦學習與它的確定性對應物一樣好,大約有83%的準確性。這表明貝葉斯神經網絡也可以進行聯邦學習并取得最先進的結果。
使用FL是一個在邊緣采用人工智能的機會,并減少收集大量數據集的需要。這將極大地幫助海軍在艦隊中部署和訓練AI模型的工作。例如,通過傳統的人工智能管道,為海軍創建一個人工智能模型將需要每個指揮部合作創建一個全球數據集,無論是被動聲納還是網絡流量分析、維護或人力資源。這是一項非常昂貴和耗時的任務,隨著新數據的出現,在完成時可能已經過時了。然而,FL提供了一種方法,讓每個指揮部在他們本地的、當前的數據上訓練和部署一個模型,并將他們的模型與另一個指揮部的人工智能模型匯總。由于只傳遞模型的權重而不是整個數據集,所以通信成本也是最小的。雖然FL提出了一種在邊緣部署和訓練人工智能模型的方法,但貝葉斯網絡是一種不僅能提供預測,而且能對其評估的不確定性進行估計的模型。士兵在不確定的環境中工作,知道部署的人工智能模型何時對其預測不確定,可以防止人工智能和戰士的過度自信。這一特點可以極大地幫助人工智能-士兵團隊以更高的效率水平運作。將FL的分布式和持續學習特性以及貝葉斯NN的不確定性這兩個方面結合起來,將是海軍在各種應用中的巨大優勢,如網絡流量分析、合成孔徑雷達或無人機圖像分析,或無源聲納分析。
為了證明這一點,開發了一個FL框架來比較貝葉斯NN和它們的確定性對應物,并在本論文中分析了它們的結果。本論文的主要貢獻是在一個已知的數據集CIFAR10[2]上對這個框架進行了基準測試,以比較結果。該數據集在FL研究中被充分研究[3]-[6]。使用的人工智能模型架構是殘差網絡(ResNet)[7]。它是一個最先進的神經網絡架構,為CIFAR10數據集設定了一個基線。這使得貝葉斯ResNets可以在集中式和FL設置中與原始的最先進結果進行比較。本論文打算回答的主要問題有以下幾個:
圖像壓縮算法是圖像處理領域中媒體傳輸和壓縮的基礎。在其誕生的幾十年后,諸如JPEG圖像編解碼器等算法仍然是行業標準。在壓縮領域,一個值得注意的研究課題是深度學習(DL)。本文探討了理想圖像壓縮和物體檢測(OD)應用的DL模型的優化。
要優化的DL模型是基于一個現有的壓縮框架,即CONNECT模型。這個框架將傳統的JPEG圖像編解碼器包裹在兩個卷積神經網絡(CNNs)中。第一個網絡,ComCNN,專注于將輸入的圖像壓縮成一個緊湊的表示,以輸入到圖像編解碼器。第二個網絡,RecCNN,著重于從編解碼器中重建輸出圖像,使之與原始圖像盡可能相似。為了提高CONNECT模型的性能,一個名為Optuna的優化軟件包裹了該框架。從每個CNN中選擇超參數,由Optuna進行評估和優化。一旦CONNECT模型產生了理想的結果,輸出的圖像就被應用于YOLOv5 OD網絡。
本文探討了DL超參數對圖像質量和壓縮指標的影響。此外,檢測網絡將為圖像壓縮對計算機視覺應用的影響提供背景。
這篇論文表明,通過神經符號模型的視角來看待智能系統比傳統的深度學習方法有幾個好處。神經符號模型包含符號程序性構造,如循環、條件和連續的神經成分。符號部分使模型具有可解釋性、泛化性和穩健性,而神經部分處理智能系統的復雜性。具體而言,本文提出了兩類神經符號模型——狀態機和神經符號transformers,并以基于強化學習的自主系統和多機器人系統為例對它們進行了評估。這些案例研究表明,學習的神經符號模型是人類可讀的,可以外推到看不見的場景,并可以處理規范中的穩健目標。為了有效地學習這些神經符號模型,我們引入了利用機器學習和程序合成的最新技術的神經符號學習算法。
//dspace.mit.edu/handle/1721.1/143249
人工神經網絡與其他學科領域聯系日益緊密,人們通過對人工神經網絡層結構的探索和改進來解決各個領域的問題。根據人工神經網絡相關文獻進行分析,綜述了人工神經網絡算法以及網絡模型結構的發展史,根據神經網絡的發展介紹了人工神經網絡相關概念,其中主要涉及到多層感知器、反向傳播神經網絡、卷積神經網絡以及遞歸神經網絡,描述了卷積神經網絡發展當中出現的部分卷積神經網絡模型和遞歸神經網絡中常用的相關網絡結構,分別綜述了各個人工神經網絡算法在相關領域的應用情況,總結了人工神經網絡的未來發展方向。
知識圖譜是關于實體及其關系的集合,是非常有用資源。然而,由于知識圖通常是不完備的,所以進行知識圖補全或鏈接預測是有用的,即預測一個不在知識圖譜中的關系是否可能是真的。本文綜述了用于知識圖譜完成的實體和關系嵌入模型,總結了在標準基準數據集上最新的實驗結果,并指出了未來可能的研究方向。