亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

麻省理工學院研究人員創建了一個數學框架來評估機器學習模型的解釋并量化人們對它們的理解程度。

背景

現代機器學習模型,例如神經網絡,通常被稱為“黑盒”,因為它們非常復雜,以至于即使是設計它們的研究人員也無法完全理解它們是如何做出預測的。

為了提供一些見解,研究人員使用試圖描述單個模型決策的解釋方法。例如,他們可能會在電影評論中突出顯示影響模型決定評論是正面的單詞。

但是,如果人類不能輕易理解,甚至誤解它們,這些解釋方法就沒有任何用處。因此,麻省理工學院的研究人員創建了一個數學框架來量化和評估機器學習模型解釋的可理解性。如果研究人員僅評估少數個別解釋以嘗試理解整個模型,這可以幫助查明有關模型行為的見解。

"有了這個框架,我們不僅可以從這些局部解釋中非常清楚地知道我們對模型的了解,更重要的是我們對模型的不了解,"計算機科學和人工智能實驗室(CSAIL)的電氣工程和計算機科學研究生Yilun Zhou說,他是本論文的主要作者。

Zhou的合著者包括微軟研究院高級研究員 Marco Tulio Ribeiro 和高級作者、航空航天學教授、CSAIL 交互式機器人組主任 Julie Shah。該研究將在計算語言學協會北美分會(NAACL2022)上發表。

了解局部解釋

理解機器學習模型的一種方法是找到另一個模仿其預測但使用透明推理模式的模型。然而,最近的神經網絡模型非常復雜,以至于這種技術通常會失敗。相反,研究人員求助于使用關注個體輸入的局部解釋。通常,這些解釋會突出顯示文本中的單詞,以表明它們對模型做出的一個預測的重要性。

然后,人們隱含地將這些局部解釋推廣到整體模型行為。有人可能會看到,當模型確定電影評論具有積極情緒時,局部解釋方法突出顯示積極詞(如“難忘”、“完美無瑕”或“迷人”)是最有影響力的。然后他們可能會假設所有積極的詞都會對模型的預測做出積極的貢獻,但情況可能并非總是如此,Zhou說。

研究人員開發了一個框架,稱為 ExSum(解釋摘要的縮寫),將這些類型的聲明形式化為可以使用可量化指標進行測試的規則。ExSum 評估整個數據集上的規則,而不僅僅是為其構造的單個實例。

使用圖形用戶界面,寫下規則,然后可以進行調整和評估。例如,當研究一個將電影評論分類為正面或負面的模型時,人們可能會寫一條規則說“否定詞具有負面顯著性”,這意味著諸如“不”和“無”之類的詞對電影評論的情緒產生負面影響。

使用 ExSum,用戶可以使用三個特定指標查看該規則是否成立:覆蓋率、有效性和清晰度。覆蓋率衡量規則在整個數據集中的適用范圍。有效性突出顯示符合規則的單個示例的百分比。清晰度描述了規則的精確程度;一個高度有效的規則可能非常通用,以至于對理解模型沒有用處。

擴展框架

在未來,Zhou希望通過將可理解性的概念擴展到其他標準和解釋形式,如反事實解釋(表明如何修改輸入以改變模型預測)來建立這項工作。目前,他們專注于特征歸因方法,這些方法描述了模型用于做出決策的各個特征(如電影評論中的文字)。

此外,他希望進一步增強框架和用戶交互,以便人們可以更快地創建規則。編寫規則可能需要數小時的人工參與——一定程度的人工參與至關重要,因為人類最終必須能夠掌握解釋——但人工智能的幫助可以簡化這一過程。

在思考 ExSum 的未來時,Zhou希望他們的工作強調需要改變研究人員對機器學習模型解釋的看法。

“在這項工作之前,如果你有一個正確的本地解釋,你就完成了。你已經完成了解釋你的模型。我們提出了這個額外的維度,以確保這些解釋是可以理解的。可理解性需要成為評估我們解釋的另一個指標,”Zhou說。

這項研究得到了美國國家科學基金會的部分支持。

論文

開發可解釋性方法以了解黑盒模型的工作機制,這對其負責任的部署至關重要。實現這一目標既需要這些方法產生的解釋是正確的,又需要人們可以輕松可靠地理解它們。雖然前者已在之前的工作中得到解決,但后者經常被忽視,導致從少數當地解釋得出的非正式模型理解。在本文中,我們介紹了解釋摘要(EXSUM),一個用于量化模型理解的數學框架,并提出了用于其質量評估的指標。在兩個領域,EXSUM 突出了當前實踐中的各種限制,幫助開發準確的模型理解,并揭示模型容易被忽視的屬性。我們還將可理解性與解釋的其他屬性聯系起來,例如人類對齊、魯棒性以及反事實的最小化和合理性

付費5元查看完整內容

相關內容

最近,高度成功但不透明的機器學習模型激增,這引發了對可解釋性的迫切需求。該畢業論文通過新穎的定義、方法和科學綜述解決了可解釋性問題,確保可解釋性在現實問題的背景下是有用的。我們首先定義什么是可解釋性,以及圍繞它的一些需求,強調語境的作用被低估。然后,我們深入研究解釋/改進神經網絡模型的新方法,專注于如何最好地評分、使用和提取交互。接下來,我們將從神經網絡轉向相對簡單的基于規則的模型,研究如何在維護極其簡潔的模型的同時提高預測性能。最后,我們總結了促進可解釋數據科學的開源軟件和數據的工作。在每個案例中,我們深入到一個特定的背景,這激發了所提出的方法論,從宇宙學到細胞生物學到醫學。所有代碼都可以在github.com/csinva上找到。

本論文工作

機器學習模型最近因其準確預測各種復雜現象的能力而受到相當大的關注。然而,人們越來越認識到,除了預測之外,這些模型還能夠產生關于數據中包含的領域關系的有用信息(即解釋)。更準確地說,可解釋機器學習可以定義為“從機器學習模型中提取有關數據中包含的關系或該模型學習到的關系的相關知識”186。解釋有其自身的用途,如醫學[153]、科學[13,278]和決策[37],以及審計預測本身,以應對監管壓力[97]和公平[74]等問題。在這些領域中,解釋已被證明有助于評估學習模型,提供修復模型的信息(如果需要),并與領域專家[47]建立信任。然而,隨著可解釋技術的爆炸式增長[186,193,291,273,90,11,300,100],可解釋方法在實踐中的使用引起了相當大的關注[4]。此外,我們還不清楚如何在現實環境中評估可解釋技術,以促進我們對特定問題的理解。

概述數據科學生命周期的不同階段,其中可解釋性很重要。 為此,我們首先回顧了2019年PNAS論文[186](與Jamie Murdoch、Reza Abbasi-Asl、Karl Kumbier和Bin Yu合著)之后對可解釋性的一些要求。然后我們討論了一些批判性評價解釋的方法。然后,我們闡述了新的方法,以解決機器學習模型的可解釋性的差距。至關重要的是,這種方法是在現實世界問題的背景下與領域專家一起開發和評估的。這項工作跨越了不同的層次,試圖從黑盒模型中提取洞察力,并盡可能用更簡單的模型替換它們。圖1.1顯示了本文的概述,旨在解決嚴格基于現實問題的可解釋性問題。第一部分從解釋神經網絡事后解釋的不同方法開始。這些方法使理解神經網絡中不同特征之間的相互作用成為可能,并以宇宙學參數預測為背景(第5章)。第二部分接著展示了如何使用這些解釋方法直接改善神經網絡。要么通過正則化(第6章),要么通過蒸餾(第7章)。這在分子伙伴預測(第8章)的背景下得到了展示。接下來,第三部分介紹了用于構建高度預測的基于規則的模型的改進方法,這些模型非常簡潔,基于臨床決策規則開發問題。最后,第四部分介紹了新的開源軟件和不可解讀建模數據。

第一部分: 事后神經網絡解釋

之前的大量工作集中于為單個特征分配重要性,如圖像中的像素或文檔中的單詞。對于不同的體系結構,有幾種方法產生了特征級的重要性。它們可以分為基于梯度的[255,264,240,18]、基于分解的[185,242,17]和其他的[59,83,218,303],方法之間有許多相似之處[10,159]。雖然已經開發了許多方法來將重要性歸因于模型輸入的單個特征,但用于理解關鍵特征之間的交互作用的工作相對較少。這些交互是解釋現代深度學習模型的關鍵部分,因為它們使結構化數據具有強大的預測性能。第一部分介紹了最近開發的兩種方法,用于提取(已經訓練過的)DNN已經學習到的特征之間的交互。第3章介紹了聚集上下文分解(ACD),它通過貪婪地打分和組合組級重要性來生成層次重要性。這使得簡單有效地可視化哪些特性對單個預測是重要的。第4章介紹了轉換重要性(TRIM),它允許計算模型輸入轉換交互的分數。這兩種方法都可以更好地理解宇宙參數預測(第5章),其中的可解釋性允許人們在將模型應用于真實天文數據時相信模型的預測。

第二部分: 利用解釋改進神經網絡

在第一部分中介紹了解釋交互和轉換的方法之后,第二部分介紹了使用這些屬性直接改進模型的兩種方法。在引入和評估解釋方法時,這是一個重要且經常被忽略的步驟,它有助于用直接的用例來建立解釋的效用。

第三部分: 基于規則的可解釋建模

本節將完全脫離深度學習,而將重點放在基于規則的建模上。只要有可能,首先擬合一個簡單的模型比擬合一個復雜的模型,然后用事后的解釋來檢查它更可取。一個足夠簡單的基于規則的模型可以被完全理解,并且很容易用手模擬、記憶和推理反事實。

第四部分:開源軟件與數據

在數據科學和機器學習領域,好的開源軟件和數據存儲庫與好的想法一樣有用(如果不是更有用的話)。這一部分涵蓋了上述研究中產生的兩個python包,以及一個為開源建模而策劃的數據存儲庫。

付費5元查看完整內容

結構化數據在網絡應用中很好地存在,如社交媒體中的社交網絡、學術網站中的引文網絡、在線論壇中的線程數據。由于拓撲結構的復雜性,這些數據中的豐富信息難以處理和利用。圖神經網絡(GNN)在結構化數據的學習表示方面顯示出極大的優勢。然而,深度學習模型的不透明性使得解釋GNN的預測變得非常重要。同時,GNN解釋的評價也是一個巨大的挑戰,因為在很多情況下,基準真相解釋是不可用的。在本文中,我們從因果推理理論中借鑒反事實和事實推理(CF^2)的觀點,來解決可解釋GNN中的學習和評價問題。為了生成解釋,我們提出了一個模型無關的框架,通過建立一個優化問題的基礎上,這兩個隨意的觀點。這將CF^2與之前只考慮其中一個的可解釋GNN區分開來。這項工作的另一個貢獻是對GNN解釋的評價。為了在不要求基本事實的情況下定量地評估生成的解釋,我們設計了基于反事實和事實推理的度量標準,以評估解釋的必要性和充分性。實驗表明,無論基準真相解釋是否可用,CF^2在真實數據集上都比以前的最先進的方法產生了更好的解釋。此外,統計分析證明了基準真相評估和我們提出的指標之間的相關性。

//www.zhuanzhi.ai/paper/3b2867aa0d96b5b6a4993c1affa0e534

付費5元查看完整內容

隨著機器學習模型越來越多地用于做出涉及人類的重大決策,重要的是,這些模型不能因為種族和性別等受保護的屬性而歧視。然而,模型持有人并不是受到歧視性模型傷害的首當其沖的人,因此模型持有人修復歧視性模型的自然動機很少。因此,如果其他實體也能發現或減輕這些模型中的不公平行為,將對社會有益。只需要對模型進行查詢訪問的黑盒方法非常適合這個目的,因為它們可以在不知道模型的全部細節的情況下執行。

在這篇論文中,我考慮了三種不同形式的不公平,并提出了解決它們的黑盒方法。第一個是代理使用,模型的某些組件是受保護屬性的代理。其次是個體公平性的缺乏,這使模型不應該做出任意決定的直覺觀念形式化。最后,模型的訓練集可能不具有代表性,這可能導致模型對不同的保護組表現出不同程度的準確性。對于這些行為中的每一個,我提出使用一個或多個方法來幫助檢測模型中的此類行為或確保缺乏此類行為。這些方法只需要對模型的黑箱訪問,即使模型持有者不合作,它們也能有效地使用。我對這些方法的理論和實驗分析證明了它們在這種情況下的有效性,表明它們是有用的技術工具,可以支持對歧視的有效回應。

付費5元查看完整內容

摘要

科學研究的一個基本目標是了解因果關系。然而,盡管因果關系在生命和社會科學中發揮著關鍵作用,但在自然語言處理(NLP)中卻沒有同等的重要性,后者傳統上更重視預測任務。隨著因果推理和語言處理融合的跨學科研究的興起,這種區別正開始消失。然而,關于NLP中因果關系的研究仍然分散在各個領域,沒有統一的定義、基準數據集和對剩余挑戰的清晰表述。在這項綜述中,我們鞏固了跨學術領域的研究,并將其置于更廣闊的NLP景觀中。我們介紹了估計因果效應的統計挑戰,包括文本作為結果、治療或解決混淆的手段的設置。此外,我們還探討了因果推理的潛在用途,以改善NLP模型的性能、魯棒性、公平性和可解釋性。因此,我們為計算語言學界提供了一個統一的因果推理概述。

引言

許多科學領域對將融入文本為數據越來越感興趣(例如,Roberts et al., 2014; Pryzant et al., 2017; Zhang et al., 2020a)。自然語言處理(NLP)研究人員可能不熟悉這些領域的一個關鍵特性,是強調因果推理,通常用于評估策略干預。例如,在推薦一種新的藥物治療之前,臨床醫生想知道這種藥物對疾病進展的因果關系。因果推理涉及到一個通過干預創造的反事實世界的問題:如果我們給病人用藥,他們的疾病進展會如何?正如我們下面所解釋的,在觀察數據中,因果關系并不等同于服用藥物的患者與其觀察到的疾病進展之間的相關性。現在有大量關于使用傳統(非文本)數據集進行有效推理的技術的文獻(例如,Morgan and Winship, 2015),但將這些技術應用于自然語言數據提出了新的和基本的挑戰。

相反,在經典的NLP應用中,目標只是做出準確的預測:任何統計相關性通常都被認為是可接受的,不管潛在的因果關系是什么。然而,隨著NLP系統越來越多地部署在具有挑戰性和高風險的場景中,我們不能依賴通常的假設,即訓練和測試數據是相同分布的,我們可能不會滿足于無法解釋的黑箱預測器。對于這兩個問題,因果關系提供了一條有希望的前進道路: 數據生成過程中因果結構的領域知識可以提示歸納偏差,導致更魯棒的預測器,而預測器本身的因果視圖可以提供關于其內部工作的新見解。

這篇調查論文的核心主張是,探究因果關系和NLP之間的聯系,有可能推進社會科學和NLP研究者的目標。我們將因果關系和自然語言處理的交集分為兩個不同的領域: 從文本中估計因果效應,以及使用因果形式主義使自然語言處理方法更可靠。我們將用兩個例子來說明這種區別。

NLP幫助因果關系。文本數據的因果推理涉及幾個不同于典型因果推理設置的挑戰:文本是高維的,需要復雜的建模來衡量語義上有意義的因素,如主題,并需要仔細思考,以形式化因果問題對應的干預。從主題模型到上下文嵌入,自然語言處理在建模語言方面的發展為從文本中提取所需信息以估計因果效應提供了有前景的方法。然而,我們需要新的假設,以確保使用NLP方法導致有效的因果推理。我們將在第3節討論從文本中估計因果效應的現有研究,并強調這些挑戰和機遇。

因果關系可以幫助NLP。為了解決NLP方法帶來的穩健性和可解釋性挑戰,我們需要新的標準來學習超越利用相關性的模型。例如,我們希望預測器對于我們對文本所做的某些更改是不變的,例如在保持ground truth標簽不變的情況下更改格式。利用因果關系來發展新的準則,為建立可靠的、可解釋的自然語言處理方法提供服務,這是相當有希望的。與文本因果推理的研究領域相比,因果關系和NLP研究的這一領域較少被理解,盡管最近的經驗成功很好地推動了這一領域的研究。在第4節中,我們涵蓋了現有的研究,并回顧了使用因果關系來改進自然語言處理的挑戰和機遇。

該論文調研了文本數據在因果推理中的作用(Egami et al., 2018; Keith et al., 2020)。在本文中,我們采取了一個更廣泛的視角,將因果關系和自然語言處理的交集分為兩個截然不同的研究線,即估計因果效應和因果驅動的自然語言處理方法。在閱讀了本文之后,我們設想讀者將對以下內容有一個廣泛的理解:

  • 使用文本數據和NLP方法所特有的統計和因果挑戰;
  • 在評估文本效果和應用因果關系來
  • 改進NLP方法方面的開放問題。
付費5元查看完整內容

機器學習在許多部署的決策系統中發揮著作用,其方式通常是人類利益相關者難以理解或不可能理解的。以一種人類可以理解的方式解釋機器學習模型的輸入和輸出之間的關系,對于開發可信的基于機器學習的系統是至關重要的。一個新興的研究機構試圖定義機器學習的目標和解釋方法。在本文中,我們試圖對反事實解釋的研究進行回顧和分類,這是一種特殊類型的解釋,它提供了在模型輸入以特定方式改變時可能發生的事情之間的聯系。機器學習中反事實可解釋性的現代方法與許多國家的既定法律原則相聯系,這使它們吸引了金融和醫療等高影響力領域的實地系統。因此,我們設計了一個具有反事實解釋算法理想性質的準則,并對目前提出的所有反事實解釋算法進行了綜合評價。我們的標題便于比較和理解不同方法的優缺點,并介紹了該領域的主要研究主題。我們也指出了在反事實解釋空間的差距和討論了有前途的研究方向。

機器學習作為一種在許多領域實現大規模自動化的有效工具,正日益被人們所接受。算法能夠從數據中學習,以發現模式并支持決策,而不是手工設計的規則。這些決定可以并確實直接或間接地影響人類;備受關注的案例包括信貸貸款[99]、人才資源[97]、假釋[102]和醫療[46]的申請。在機器學習社區中,新生的公平、責任、透明度和倫理(命運)已經成為一個多學科的研究人員和行業從業人員的團體,他們感興趣的是開發技術來檢測機器學習模型中的偏見,開發算法來抵消這種偏見,為機器決策生成人類可理解的解釋,讓組織為不公平的決策負責,等等。

對于機器決策,人類可以理解的解釋在幾個方面都有優勢。例如,關注一個申請貸款的申請人的用例,好處包括:

  • 對于生活受到該決定影響的申請人來說,解釋是有益的。例如,它幫助申請人理解他們的哪些因素是做出決定的關鍵因素。

  • 此外,如果申請人覺得受到了不公平待遇,例如,如果一個人的種族在決定結果時至關重要,它還可以幫助申請人對決定提出質疑。這對于組織檢查其算法中的偏見也很有用。

  • 在某些情況下,解釋為申請人提供了反饋,他們可以根據這些反饋采取行動,在未來的時間內獲得預期的結果。

  • 解釋可以幫助機器學習模型開發人員識別、檢測和修復錯誤和其他性能問題。

  • 解釋有助于遵守與機器生產決策相關的法律,如GDPR[10]。

機器學習中的可解釋性大體上是指使用固有的可解釋的透明模型或為不透明模型生成事后解釋。前者的例子包括線性/邏輯回歸、決策樹、規則集等。后者的例子包括隨機森林、支持向量機(SVMs)和神經網絡。

事后解釋方法既可以是模型特定的,也可以是模型不可知的。特征重要性解釋和模型簡化是兩種廣泛的特定于模型的方法。與模型無關的方法可以分為視覺解釋、局部解釋、特性重要性和模型簡化。

特征重要性(Feature importance)是指對模型的整體精度或某個特定決策最有影響的特征,例如SHAP[80]、QII[27]。模型簡化找到了一個可解釋的模型,該模型緊致地模仿了不透明模型。依存圖是一種常用的直觀解釋,如部分依存圖[51]、累積局部效應圖[14]、個體條件期望圖[53]。他們將模型預測的變化繪制成一個特征,或者多個特征被改變。局部解釋不同于其他解釋方法,因為它們只解釋一個預測。局部解釋可以進一步分為近似解釋和基于實例的解釋。近似方法在模型預測需要解釋的數據點附近抽取新的數據點(以下稱為explainee數據點),然后擬合線性模型(如LIME[92])或從中提取規則集(如錨[93])。基于實例的方法尋求在被解釋數據點附近找到數據點。它們要么以與被解釋數據點具有相同預測的數據點的形式提供解釋,要么以預測與被解釋數據點不同的數據點的形式提供解釋。請注意,后一種數據點仍然接近于被解釋的數據點,被稱為“反事實解釋”。

回想一下申請貸款的申請人的用例。對于貸款請求被拒絕的個人,反事實的解釋為他們提供反饋,幫助他們改變自己的特征,以過渡到決策邊界的理想一面,即獲得貸款。這樣的反饋被稱為可執行的。與其他幾種解釋技術不同,反事實解釋不能明確回答決策中的“為什么”部分;相反,他們提供建議以達到預期的結果。反事實解釋也適用于黑箱模型(只有模型的預測功能是可訪問的),因此不限制模型的復雜性,也不要求模型披露。它們也不一定能近似底層模型,從而產生準確的反饋。由于反事實解釋具有直覺性,因此也符合法律框架的規定(見附錄C)。

在這項工作中,我們收集、審查和分類了最近的39篇論文,提出了算法,以產生機器學習模型的反事實解釋。這些方法大多集中在表格或基于圖像的數據集上。我們在附錄b中描述了我們為這項調查收集論文的方法。我們描述了這個領域最近的研究主題,并將收集的論文按照有效的反事實解釋的固定需求進行分類(見表1)。

付費5元查看完整內容
北京阿比特科技有限公司