題目: Foundations of Explainable Knowledge-Enabled Systems
摘要:
自從人工智能時代以來,可解釋性就一直是重要的目標。 目前為止,已經有幾種產生解釋的方法被提出。 但是,這些方法中有許多都與當時的人工智能系統的能力緊密相關。 隨著有時在關鍵環境中啟用AI的系統的普及,有必要讓最終用戶和決策者對它們進行解釋。 我們將介紹可解釋的人工智能系統的歷史概況,重點是知識支持的系統,涵蓋專家系統,認知助手,語義應用和機器學習領域。 此外,借鑒過去的方法的優勢,并找出使解釋以用戶和上下文為中心所需要的空白,我們提出了新的解釋定義和可解釋的知識支持系統。
主題: Explainable Reinforcement Learning: A Survey
摘要: 可解釋的人工智能(XAI),即更透明和可解釋的AI模型的開發在過去幾年中獲得了越來越多的關注。這是由于這樣一個事實,即AI模型隨著其發展為功能強大且無處不在的工具而表現出一個有害的特征:性能與透明度之間的權衡。這說明了一個事實,即模型的內部工作越復雜,就越難以實現其預測或決策。但是,特別是考慮到系統像機器學習(ML)這樣的方法(強化學習(RL))在系統自動學習的情況下,顯然有必要了解其決策的根本原因。由于據我們所知,目前尚無人提供可解釋性強化學習(XRL)方法的概述的工作,因此本調查試圖解決這一差距。我們對問題進行了簡短的總結,重要術語的定義以及提議當前XRL方法的分類和評估。我們發現a)大多數XRL方法通過模仿和簡化一個復雜的模型而不是設計本質上簡單的模型來起作用,并且b)XRL(和XAI)方法通常忽略了方程的人為方面,而不考慮相關領域的研究像心理學或哲學。因此,需要跨學科的努力來使所生成的解釋適應(非專家)人類用戶,以便有效地在XRL和XAI領域中取得進步。
深度神經網絡(DNN)是實現人類在許多學習任務上的水平的不可缺少的機器學習工具。然而,由于其黑箱特性,很難理解輸入數據的哪些方面驅動了網絡的決策。在現實世界中,人類需要根據輸出的dna做出可操作的決定。這種決策支持系統可以在關鍵領域找到,如立法、執法等。重要的是,做出高層決策的人員能夠確保DNN決策是由數據特征的組合驅動的,這些數據特征在決策支持系統的部署上下文中是適當的,并且所做的決策在法律上或倫理上是可辯護的。由于DNN技術發展的驚人速度,解釋DNN決策過程的新方法和研究已經發展成為一個活躍的研究領域。在定義什么是能夠解釋深度學習系統的行為和評估系統的“解釋能力”時所存在的普遍困惑,進一步加劇了這種復雜性。為了緩解這一問題,本文提供了一個“領域指南”,為那些在該領域沒有經驗的人提供深度學習解釋能力指南: i)討論了研究人員在可解釋性研究中增強的深度學習系統的特征,ii)將可解釋性放在其他相關的深度學習研究領域的背景下,iii)介紹了定義基礎方法空間的三個簡單維度。
摘要
推薦系統是一種軟件應用程序,它可以幫助用戶在信息過載的情況下找到感興趣的主題。當前的研究通常假設一個一次性的交互范式,其中用戶偏好是根據過去歷史觀察到的行為來估計的,并且按照等級排序的推薦列表是用戶交互的主要的且是單向的形式。對話推薦系統(CRS)采用了一種不同的方法,支持更豐富的交互。例如,這些交互可以幫助改進偏好激發過程,或者允許用戶詢問關于推薦的問題并給出反饋。對CRS的興趣在過去幾年里顯著增加。這種發展主要是由于自然語言處理領域的重大進展,新的語音控制家庭助手的出現,以及聊天機器人技術的增加使用。在本文中,我們詳細介紹了現有的對話推薦方法。我們將這些方法按不同的維度進行分類,例如,根據支持的用戶意圖或用戶在后臺使用的知識。此外,我們還討論了技術方法,回顧了CRS的評估方法,并最終確定了一些在未來值得更多研究的差距。
介紹
推薦系統是人工智能在實踐中最明顯的成功案例之一。通常,這些系統的主要任務是為用戶指出感興趣的潛在主題,例如電子商務網站。因此,它們不僅可以在信息超載的情況下幫助用戶,還可以對服務提供商的業務做出重大貢獻。 在這些實際應用中,推薦是一個一次性的交互過程。通常,底層系統會隨著時間的推移監視其用戶的行為,然后在預定義的導航情況下(例如,當用戶登錄到服務時)提供一組定制的建議。盡管這種方法在各個領域都很常見,也很有用,但是它可能有一些潛在的限制。例如,在許多應用程序場景中,用戶首選項無法從其過去的交互中可靠地估計出來。對于高介入的產品(例如,當推薦一款智能手機時),我們甚至可能完全沒有過去的觀察結果。此外,在一組建議中包含哪些內容可能與上下文高度相關,而且可能很難自動確定用戶的當前情況或需求。最后,另一個假設通常是,當用戶登錄網站時,他們已經知道自己的偏好。然而,這未必是真的。例如,用戶可能只在決策過程中確定他們的首選項,例如,當他們意識到選項的空間時。在某些情況下,他們也可能只在與推薦者的交互過程中了解這塊內容和可用的選項。 對話推薦系統(CRS)是可以幫助解決這些的挑戰中的許多這樣的問題。一般來說,這種系統的總體思想是支持與用戶進行面向任務的多回合對話。例如,在這樣的對話中,系統可以引出用戶當前的詳細偏好,為主題推薦提供解釋,或者處理用戶對所提建議的反饋。 鑒于這類系統的巨大潛力,對CRS的研究已經有了一定的傳統。早在20世紀70年代末,Rich就設想了一個電腦化的圖書管理員,通過用自然語言互動地向用戶提問有關他們的個性和偏好的問題,向他們提出閱讀建議。除了基于自然語言處理(NLP)的接口外,近年來還提出了多種基于表單的用戶接口。CRS中較早的基于這些接口的交互方法之一稱為critiquing,它在1982年就被提出作為數據庫領域的查詢重新制定的一種方法。在critiquing方法中,用戶很快會在對話中看到一個建議,然后可以對這些建議應用預先定義的評論。 基于表單的方法通常很有吸引力,因為用戶可以使用的操作是預先定義的、明確的。然而,這樣的對話也可能出現非自然的,用戶可能在表達他們的偏好的方式上感到約束。另一方面,基于NLP的方法在很長一段時間內受到了現有的限制,例如在處理語音命令的上下文中。然而,近年來,語言技術取得了重大進展。因此,我們現在習慣于向智能手機和數字家庭助手發出語音命令,這些設備的識別精度已經達到了令人印象深刻的水平。與語音助手領域的這些發展相對應,我們注意到聊天機器人技術在最近幾年的快速發展。聊天機器人,無論是簡單的還是復雜的,通常也能處理自然語言,現在廣泛應用于各種應用領域,例如,處理客戶服務請求。 這些技術的進步導致在過去幾年中對CRS的興趣增加。然而,與以前的許多方法相比,我們注意到今天的技術建議更多地是基于機器學習技術,而不是遵循預先定義的對話路徑,用于確定要向用戶詢問的下一個問題。然而,通常在語音助手和聊天機器人的功能與支持真正的對話推薦場景(如系統是語音控制的)所需的功能之間仍然存在差距。 本文從不同的角度對對話推薦系統的文獻進行了綜述。具體地說,我們將討論(i)CRS的交互模式(第3節),(ii)CRS基于的知識和數據(第4節), 和(iii)CRS中典型的計算任務(第5節)。然后,我們討論CRS的評估方法(第6節),最后展望未來的發展方向。
對話系統的特征描述
關于什么是CRS,文獻中沒有一個公認的定義。在這項工作中,我們使用以下定義。 CRS是一個軟件系統,它支持用戶通過多回合的對話來實現推薦相關的目標。
CRS的概念架構:在過去的二十年中,人們提出了各種CRS模型的技術途徑。這些解決方案的技術體系結構的細節取決于系統的功能,例如,是否支持語音輸入。盡管如此,仍然可以確定此類體系結構的許多典型概念組件,如圖1所示。
CRS交互模式
最近對CRS的興趣是由NLP的發展和技術進步(如寬帶移動互聯網接入和智能手機和家庭助手等新設備)推動的。然而,我們對文獻的回顧表明,用戶和CRS之間的交互既不局限于自然語言輸入和輸出,也不局限于特定的設備。
知識和背景數據
根據所選擇的技術方法,CRS必須結合各種類型的知識和背景數據才能發揮作用。顯然,像任何推薦人一樣,必須有關于推薦項目的知識。同樣,推薦的生成要么基于明確的知識,例如推薦規則或約束,要么基于在一些背景數據上訓練的機器學習模型。然而,對話系統通常依賴于其他類型的知識,例如對話中的可能狀態,或者用于訓練機器學習模型的數據,如記錄和轉錄的自然語言推薦對話。
計算任務
在討論了推薦對話中可能的用戶意圖之后,我們現在將回顧CRS的常見的計算任務和技術方法。我們區分(i)主要任務,即那些與推薦過程更直接相關的,例如,計算推薦或確定下一個要問的問題,以及(ii)額外的支持任務。
介紹對話系統的評價
一般情況下,推薦系統可以通過不同的方法從不同的維度進行評價。首先,當系統在其使用上下文中進行評估時,即,當它被部署時,我們通常最感興趣的是通過A/B測試來衡量系統是否達到了設計目標的具體關鍵性能指標(KPI),例如,增加的銷售數字或用戶參與度。其次,用戶研究(實驗室實驗)通常調查與系統感知質量相關的問題。常見的質量維度是建議的適宜性、流程的可感知透明性或易用性。最后,計算性實驗不需要用戶參與評估,而是基于客觀指標來評估質量,例如,通過測量建議的多樣性或計算運行時間來預測測試集中的輔助評級的準確性。同樣的質量維度和研究方法也適用于CRS。然而,在比較面向算法的研究和對話系統的研究時,我們發現評估的主要焦點往往是不同的。由于CRS是高度交互的系統,因此與人機交互有關的問題更常用于這些系統的研究。此外,在測量方法方面,CRS評估不僅關注任務的完成,即,如果建議是合適的或最終被接受的,但也涉及到與談話本身的效率或質量有關的問題。
總結和未來工作
總的來說,我們的研究表明,CRS領域在過去幾年中出現了一定程度的復興,其中最新的方法依賴于機器學習技術,尤其是深度學習和基于自然語言的交互。考慮到語音控制系統(如智能音箱)最近的興起,以及聊天機器人系統的日益普及,我們預計在未來幾年將看到對CRS的更多研究。雖然在某些方面取得了重大進展,但仍有許多領域需要進行更多的研究。在接下來的文章中,我們將概述一些有待解決的問題以及該領域未來可能的發展方向。 第一個問題涉及模式的選擇。盡管近年來,“自然語言”越來越流行,但究竟哪種情況下“自然語言”才是最好的選擇,目前還不完全清楚。需要進行更多的研究來了解哪種模式適合當前給定的任務和情況,或者是否應該向用戶提供替代模式。一個有趣的研究方向還在于解釋用戶的非言語交際行為。此外,完全基于語音的CRS也有一定的局限性,例如,在一個交互周期中提供完整的推薦集合。在這種情況下,用戶可能希望對一組推薦進行總結,因為在大多數情況下,當CRS向用戶推薦過多(例如多于兩三個)選項時,這可能沒有意義。
【簡介】近些年來,可解釋的人工智能受到了越來越多的關注。隨著人工智能模型變得越來越復雜和不透明,可解釋性變得越來越重要。最近,研究人員一直在以用戶為中心研究和處理可解釋性,尋找可信任、可理解、明確的來源和上下文感知的可解釋性。在這篇論文中,我們通過調研人工智能和相關領域中有關可解釋性的文獻,并利用過去的相關研究生成了一系列的可解釋類型。我們定義每種類型,并提供一個示例問題,來闡述對這種解釋方式的需求。我們相信,這一系列的解釋類型將有助于未來的系統設計人員獲得可靠的需求和確定各種需求的優先級,并進一步幫助生成能夠更好地符合用戶和情景需求的解釋。
介紹
人工智能(AI)領域已經從單純的基于符號和邏輯的專家系統發展到使用統計和邏輯推理技術的混合系統。可解釋性人工智能的進展與人工智能方法的發展緊密相關,例如我們在早期的論文“可解釋的知識支持系統的基礎”中所涉及的類別,涵蓋了專家系統、語義web方法、認知助手和機器學習方法。我們注意到這些方法主要處理可解釋性的特定方面。例如,由專家系統產生的解釋主要用于提供推理所需的痕跡、來源和理由。這些由認知助理提供的模型能夠調整它們的形式以適應用戶的需求,并且在機器學習和專家系統領域,解釋為模型的功能提供了一種“直覺”。
主題: Directions for Explainable Knowledge-Enabled Systems
摘要: 數十年來,人們對可解釋人工智能領域的興趣不斷增長,并且近年來這種興趣正在加速增長。隨著人工智能模型變得更加復雜,并且通常更加不透明,并且隨著復雜的機器學習技術的結合,可解釋性變得越來越重要。最近,研究人員一直在研究和解決以用戶為中心的可解釋性,尋找解釋以考慮可信度,可理解性,顯性出處和上下文意識。在本章中,我們將利用對人工智能及其密切相關領域的解釋性文獻的調查,并利用過去的努力來生成一組解釋類型,我們認為這些類型反映了當今人工智能應用對解釋的擴展需求。我們定義每種類型,并提供一個示例問題,以激發對這種解釋方式的需求。我們認為,這組解釋類型將有助于未來的系統設計人員生成需求并確定其優先級,并進一步幫助生成更符合用戶和情況需求的解釋。
題目: A Survey on Knowledge Graph-Based Recommender Systems
摘要:
為了解決信息爆炸問題,提高用戶在各種在線應用中的體驗,人們開發了推薦系統來模擬用戶的偏好。盡管人們已經為更個性化的推薦做了很多努力,但是推薦系統仍然面臨著一些挑戰,如數據稀疏和冷啟動。近年來,以知識圖為輔助信息的推薦生成引起了人們的極大興趣。這種方法不僅可以緩解上述問題,使推薦更加準確,而且可以為推薦項目提供解釋。本文對基于知識圖的推薦系統進行了系統的研究。我們收集了最近在這一領域發表的論文,并從兩個角度對其進行了總結。一方面,我們通過研究論文如何利用知識圖進行精確和可解釋的推薦來研究所提出的算法。另一方面,我們介紹了這些工作中使用的數據集。最后,提出了該領域的幾個潛在研究方向。
可解釋推薦嘗試開發模型,不僅生成高質量的推薦,而且生成直觀的解釋。解釋可以是事后的,也可以直接來自可解釋的模型(在某些上下文中也稱為可解釋的或透明的模型)。可解釋推薦嘗試解決為什么的問題:通過向用戶或系統設計者提供解釋,它幫助人們理解為什么算法推薦某些項目,而人既可以是用戶,也可以是系統設計者。可解釋推薦有助于提高推薦系統的透明度、說服力、有效性、可信度和滿意度。
在這次調查中,我們回顧了在2019年或之前可解釋的建議的工作。我們首先通過將推薦問題劃分為5W來強調可解釋推薦在推薦系統研究中的地位。什么,什么時候,誰,在哪里,為什么。然后,我們從三個角度對可解釋推薦進行了全面的調查:1)我們提供了可解釋推薦的研究時間軸,包括早期的用戶研究方法和最近的基于模型的方法。2)我們提供了一個二維分類法來對現有的可解釋推薦研究進行分類:一個維度是解釋的信息源(或顯示樣式),另一個維度是生成可解釋推薦的算法機制。3)我們總結了可解釋推薦如何應用于不同的推薦任務,如產品推薦、社交推薦和POI推薦。我們還專門用一節來討論更廣泛的IR和AI/ML研究中的解釋視角。最后,我們討論了未來可解釋推薦研究領域的發展方向。