亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

知識圖譜以概念之間的關系表示世界上的事實知識,對于企業應用中的智能決策至關重要。通過將概念和關系編碼為低維特征向量表示,從知識圖譜中已有的事實中推斷出新的知識。這一任務最有效的表示方法稱為知識圖嵌入(KGE),是通過神經網絡體系結構學習的。由于其令人印象深刻的預測性能,它們越來越多地用于高影響力的領域,如醫療保健、金融和教育。然而,黑箱KGE模型在高風險領域的使用是否具有反魯棒性呢?本文認為,最先進的KGE模型容易受到數據中毒攻擊,即系統地對訓練知識圖進行擾動會降低其預測性能。為支持這一論點,提出了兩種新的數據中毒攻擊,在訓練時制造輸入的刪除或添加,以破壞學習模型在推理時的性能。這些攻擊的目標是使用知識圖譜嵌入預測知識圖譜中缺失的事實。

針對對抗缺失導致模型性能下降的問題,提出使用模型無關的實例歸因方法。這些方法用于識別對KGE模型對目標實例預測影響最大的訓練實例。有影響的三元組用作對抗性刪除。為了通過對抗性添加來毒害KGE模型,利用它們的歸納能力。KGE模型的歸納能力是通過知識圖中的對稱、反轉和組合等關系模式來獲取的。具體而言,為了降低模型對目標事實的預測置信度,本文提出提高模型對一組誘餌事實的預測置信度。因此,通過不同的關系推理模式,構建了可以提高模型對誘餌事實預測置信度的對抗性添加。對提出的對抗性攻擊的評估表明,它們在兩個公開可用的數據集的四個KGE模型上優于最先進的基線。在提出的方法中,更簡單的攻擊與計算成本高的攻擊競爭或優于它們。論文的貢獻不僅強調并提供了一個機會來修復KGE模型的安全漏洞,而且還有助于理解這些模型的黑箱預測行為。

假設有一個金融監管機構想要發現和預測洗錢活動,在這種活動中,惡意方通過一系列金融交易將其從非法活動中獲得的收入匯入合法的銀行賬戶。鑒于此類活動的復雜性和相互關聯的性質,分析來自孤立銀行賬戶的金融交易往往不足以在實踐中抓住詐騙犯。相反,利用不同金融實體之間的關系,跨不同的金融數據來源執行集成分析。為了實現這種集成分析,知識圖譜已經成為建模和集成來自不同來源的關于多個金融實體的事實知識的事實標準(Hogan等人,2021;Noy等人,2019)。像銀行賬戶這樣的實體、它們的所有者和資產被表示為知識圖譜的節點,這些實體之間的交互和交易被表示為圖的標記邊。由于數字金融交易的數量不斷增長,數據驅動的機器學習(ML)方法被用于挖掘這個相互關聯的交易圖中的模式。對圖表數據的學習和推斷驅動智能決策,如預測不同賬戶之間的可疑交易或賬戶所有者之間的隱藏從屬關系(Khalili等人,2020;張,2020;辛格森和索尼,2021年)。然而,有非法收入可洗黑錢的惡意方極有動機逃避這些系統的檢測。因此,這些參與者可能試圖通過操縱他們的個人信息和輸入知識圖譜中的交易來破壞數據驅動智能系統的預測。在這種對抗性環境中,機器學習模型對知識圖譜的預測是否可靠?

與金融領域的反洗錢應用一樣,知識圖譜是有關互聯實體及其之間關系的事實知識的普遍表示(Hogan等人,2021)。近年來,多個大規模知識圖譜被開發出來,用于支持搜索引擎、電子商務、社交網絡、生物醫藥、金融等領域的智能決策。谷歌和微軟等商業企業已經從網絡上的文本資源構建了網絡規模的知識圖譜,以支持谷歌搜索和必應。類似地,Facebook和LinkedIn依賴于用戶知識的圖表表示來了解用戶偏好并推薦潛在的聯系或工作機會。亞馬遜和eBay等在線供應商也使用企業知識圖譜來編碼用戶的購物行為和產品信息,以改進產品推薦。埃森哲(Accenture)、德勤(Deloitte)和彭博(Bloomberg)等其他公司也在金融服務領域部署了知識圖譜。這些財務圖表為企業搜索、財務數據分析、風險評估和欺詐檢測等應用提供了強大的支持(Hogan等人,2021年;Noy等人,2019)。

更一般地說,在自然語言處理(NLP)領域,注入以事實知識圖譜表示的背景知識,以支持知識感知的應用,如基于知識的問答或知識庫的可解釋事實檢查(Ji et al., 2022; Kotonya and Toni, 2020)。研究結構化知識表示與非結構化文本語言表示相結合的方法是該領域一個新興的研究方向。這些方法尋求利用事實和常識知識來提高NLP模型的上下文推理和理解能力(Malaviya et al., 2020; He et al., 2020; Zhang et al., 2022)。類似地,在計算機視覺(CV)領域,用于圖像分類、視覺問題回答和基于骨架的動作識別等任務的機器學習通過將場景或圖像中的對象之間的關系表示為知識圖來增強(見Ma和Tang, 2021年,第11章)。另一方面,知識圖譜在醫療保健和生物醫學研究方面也出現了一些新興應用。在這里,生物網絡被用來模擬不同蛋白質結構、藥物和疾病之間的聯系和相互作用。此外,將生物醫學知識與患者的電子健康記錄結合起來,可以對疾病共病進行綜合分析,從而實現個性化精準醫療(Rotmensch et al., 2017; Mohamed et al., 2020; Li et al., 2021; Bonner et al., 2022)。因此,知識圖譜是現代智能系統中學習和推理的支柱。

為了將圖數據合并到標準ML管道中,需要將符號圖結構表示為可微的特征向量。傳統算法啟發式和領域工程的手工藝品的特性基于統計圖或節點的拓撲結構,或內核方法(看到漢密爾頓,2020年,第2章)。缺乏靈活性的特征工程使得圖形方式表示學習算法,學習圖結構表示為低維連續特征向量,也稱為嵌入。為了學習實體的嵌入,這些算法旨在保留實體在圖域中鄰域的結構信息,作為嵌入域中的相似性度量。通過這種方式,對實體嵌入的代數操作反映了這些實體之間的圖結構交互,從而允許來自圖的拓撲信息用于不同的ML任務。基于深度學習的神經網絡架構用于優化知識圖中實體和關系的表示,以便學習到的表示最好地支持要在圖上執行的下游ML任務(Hamilton等人,2017b;由于其對不同下游任務的有效性,圖表示學習算法已成為使用知識圖進行學習和推理的最先進方法(Chen et al., 2020; Nickel et al., 2016a)。

基于深度學習的方法的成功歸功于它們能夠從大量輸入數據中提取豐富的統計模式。然而,由于是數據驅動的,學習到的模型是不可解釋的,預測的原因是未知的。由于這種黑盒預測行為,模型的失效模式也是未知的。已有研究表明,深度學習模型的預測可以通過操縱其輸入數據來操縱(Biggio和Roli, 2018;約瑟夫等人,2019)。這對于醫療保健、金融、教育或執法等高風險領域尤其令人擔憂,在這些領域,知識圖譜的表示學習算法越來越多地使用(Mohamed等人,2020;邦納等人,2022年)。在這些領域中,決策結果會影響人類的生活,模型失敗的風險非常高。另一方面,由于高風險,很可能會有動機敵對的參與者想要操縱模型預測。此外,知識圖譜通常從網絡上的文本來源自動提取,或從用戶生成的內容中策劃(Nickel等人,2016a;Ji et al., 2022)。這使得對手很容易向圖中注入精心制作的虛假數據。因此,在高風險的面向用戶領域部署圖表示學習模型,模型的良好預測性能是不夠的。確保模型的使用安全性和魯棒性是至關重要的。然而,建立對抗魯棒模型需要測量模型的對抗魯棒性的方法。換句話說,對抗魯棒圖表示學習模型的必要前提是識別現有模型的失效模式或安全漏洞的方法。

本文的研究是出于識別黑盒圖表示學習算法的對抗性漏洞的需要,將其作為將其負責任地集成到高風險用戶面對的應用程序的關鍵一步。

付費5元查看完整內容

相關內容

知識圖譜(Knowledge Graph),在圖書情報界稱為知識域可視化或知識領域映射地圖,是顯示知識發展進程與結構關系的一系列各種不同的圖形,用可視化技術描述知識資源及其載體,挖掘、分析、構建、繪制和顯示知識及它們之間的相互聯系。 知識圖譜是通過將應用數學、圖形學、信息可視化技術、信息科學等學科的理論與方法與計量學引文分析、共現分析等方法結合,并利用可視化的圖譜形象地展示學科的核心結構、發展歷史、前沿領域以及整體知識架構達到多學科融合目的的現代理論。它能為學科研究提供切實的、有價值的參考。

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

結構化數據在網絡應用中很好地存在,如社交媒體中的社交網絡、學術網站中的引文網絡、在線論壇中的線程數據。由于拓撲結構的復雜性,這些數據中的豐富信息難以處理和利用。圖神經網絡(GNN)在結構化數據的學習表示方面顯示出極大的優勢。然而,深度學習模型的不透明性使得解釋GNN的預測變得非常重要。同時,GNN解釋的評價也是一個巨大的挑戰,因為在很多情況下,基準真相解釋是不可用的。在本文中,我們從因果推理理論中借鑒反事實和事實推理(CF^2)的觀點,來解決可解釋GNN中的學習和評價問題。為了生成解釋,我們提出了一個模型無關的框架,通過建立一個優化問題的基礎上,這兩個隨意的觀點。這將CF^2與之前只考慮其中一個的可解釋GNN區分開來。這項工作的另一個貢獻是對GNN解釋的評價。為了在不要求基本事實的情況下定量地評估生成的解釋,我們設計了基于反事實和事實推理的度量標準,以評估解釋的必要性和充分性。實驗表明,無論基準真相解釋是否可用,CF^2在真實數據集上都比以前的最先進的方法產生了更好的解釋。此外,統計分析證明了基準真相評估和我們提出的指標之間的相關性。

//www.zhuanzhi.ai/paper/3b2867aa0d96b5b6a4993c1affa0e534

付費5元查看完整內容

面向知識圖譜的知識推理旨在通過已有的知識圖譜事實,去推斷新的事實,進而實現知識庫的補全。近年來,盡管基于分布式表示學習的方法在推理任務上取得了巨大的成功,但是他們的黑盒屬性使得模型無法為預測出的事實做出解釋。所以,如何設計用戶可理解、可信賴的推理模型成為了人們關注的問題。本文從可解釋性的基本概念出發,系統梳理了面向知識圖譜的可解釋知識推理的相關工作,具體介紹了事前可解釋推理模型和事后可解釋推理模型的研究進展;根據可解釋范圍的大小,本文將事前可解釋推理模型進一步細分為全局可解釋的推理和局部可解釋的推理;在事后解釋模型中,本文回顧了推理模型的代表方法,并詳細介紹提供事后解釋的兩類解釋方法。此外,本文還總結了可解釋知識推理在醫療、金融領域的應用。隨后,本文對可解釋知識推理的現狀進行概述,最后展望了可解釋知識推理的未來發展方向,以期進一步推動可解釋推理的發展和應用。

//www.jos.org.cn/jos/article/abstract/6522

知識圖譜(Knowledge Graph)本質是一種語義網絡,通常用 (頭實體,關系,尾實體)/ ( ,r, t) h 這樣 的三元組來表達事物屬性以及事物之間的語義關系。自谷歌提出知識圖譜概念以來,知識圖譜已經為智能 問答、對話生成、個性化推薦等多個 NLP 任務領域提供了有力支撐。雖然目前的知識圖譜中存在大量的實 體和事實數據,但是這樣大規模的數據仍然不完整,大量缺失的三元組嚴重限制了這些下游任務的性能。知識推理,這一旨在根據一定的推理機制去預測圖譜中缺失三元組的任務,也吸引了學術界越來越多的目光。

早在 2013 年,Li 等人[1] 提出利用表示學習的方法去做知識推理,通過將實體和關系映射到低維連續 的向量空間,將推理預測任務轉化為實體與關系所關聯的簡單的向量/矩陣操作。鑒于該方法的自由度高、 可計算性好、推理效率高等優點,該類方法在近幾年得到了廣泛關注和發展,并且廣泛的應用在推薦系統、 對話生成等互聯網場景。在這些場景下,研究者們更多的關注如何提高知識推理的性能,忽略知識推理發 生錯誤時的風險問題。即便推理模型在這些場景下產生錯誤推理時,通常來說,并不會招致非常嚴重的后果。然而,在當今人工智能技術應用的大趨勢下,知識推理不僅可以應用在上述互聯網場景,而且越來越 多的被應用在和人類的生產生活息息相關的一些領域(例如,智能醫療[98,99,100]、軍事[112] 、金融[90,111]、交 通運輸[113,114]),這些領域往往對模型的安全性能要求較高,風險高度敏感。例如,在醫療領域,推理的可 靠性會關系到人的生命安全。通常來說,在這些領域,僅僅獲得預測結果是不夠的,模型還必須解釋是怎 么獲得這個預測的,來建立用戶和推理模型之間的信任。

隨著深度學習的發展,知識推理方法的模型結構越來越復雜,僅僅一個網絡就可能包含幾百個神經元、 百萬個參數。盡管這些推理模型在速度、穩定性、可移植性、準確性等諸多方面優于人類,但由于用戶無 法對這類模型里的參數、結構、特征產生直觀理解,對于模型的決策過程和模型的推理依據知之甚少,對 于模型的決策過程知之甚少,不知道它何時會出現錯誤,在風險敏感的領域中,用戶仍然無法信任模型的 預測結果。因此,為了建立用戶和推理模型之間的信任,平衡模型準確率和可解釋性之間的矛盾,可解釋 性知識推理在近幾年的科研會議上成為關注熱點。

盡管有很多學者對知識推理領域進行了深入的研究,并從不同的角度(如分布式表示角度[120] 、圖神 經網絡角度[121] 、神經-符號角度[119] 等)對推理模型進行梳理和總結。然而,在推理模型的可解釋性方面 卻缺少深入的對比和總結。為了促進可解釋知識推理的研究與發展,本文對現有的可解釋推理模型進行了 系統梳理、總結和展望。本文首先闡述可解釋性的定義和可解釋性在推理任務中的必要性,并介紹常見的 可解釋模型劃分標準;然后,根據解釋產生的方式,對現有的可解釋知識推理模型進行總結和歸類,并討 論相關方法的局限性;接著,簡單介紹可解釋知識推理在金融領域和醫療領域的應用。最后,本文討論可 解釋知識推理面臨的挑戰以及可能的研究方向。

1 可解釋的知識推理

在詳細介紹現有的可解釋知識推理模型之前,首先介紹知識推理的基本概念,接著對什么是可解釋性 (Interpretability),以及為什么要在推理任務中注重可解釋性進行介紹,最后對本文的劃分標準做簡要說明。

1.1 知識推理的基本概念

2012 年,谷歌正式提出知識圖譜的概念,用于改善自身的搜索質量。知識圖譜通常用 ( ,r, t) h 這樣 的三元組表達實體及其實體之間的語義關系,其中 h 代表頭實體, r 代表實體之間的關系, t 代表尾實體。例如(詹姆斯·卡梅隆,執導,泰坦尼克號)即是一個三元組,其中頭實體和尾實體分別為“詹姆斯·卡梅隆” 和“泰坦尼克號”,“執導”是兩個實體之間的關系。代表性的知識圖譜,如 DBpedia[108] 、Freebase[53] 、 Wikidata[55] 、YAGO[107] 等,雖然包含數以億計的三元組,但是卻面臨非常嚴重的數據缺失問題。據 2014 年的統計,在 Freebase 知識庫中,有 75%的人沒有國籍信息,DBpedia 中 60% 的人缺少沒有出生地信息 [125] 。知識圖譜的不完整性嚴重制約了知識圖譜在下游任務中的效能發揮。因此,如何讓機器自動基于知 識圖譜中的已有知識進行推理,從而補全和完善知識圖譜,成為了工業界和學術界都亟待解決的問題。

總的來說,面向知識圖譜的知識推理實質上是指利用機器學習或深度學習的方法,根據知識圖譜中已 有的三元組去推理出缺失的三元組,從而對知識圖譜進行補充和完善。例如,已知(詹姆斯·卡梅隆,執導, 泰坦尼克號)和(萊昂納多·迪卡普里奧,出演,泰坦尼克號),可以得到(詹姆斯·卡梅隆,合作,萊昂納 多·迪卡普里奧)。知識推理主要包含知識圖譜去噪[12] 和知識圖譜補全(又稱之為鏈接預測)[1,27,94,95]兩個 任務[117] ,其中,知識圖譜去噪任務專注于知識圖譜內部已有三元組正確性的判斷;而知識圖譜補全專注 于擴充現有的圖譜。根據要推理元素的不同,知識圖譜補全任務可以進一步細分為實體預測和關系預測。其中,實體預測是指給定查詢 ( ,r,?) h ,利用已有事實的關系,推理出另一個實體并由此構成完整三元組, 同理,關系預測則是指給定查詢 ( ,?, t) h ,推理給定的頭尾實體之間的關系。由于知識圖譜中大多數三元組 都是正確的,知識圖譜去噪任務通常采用對已有三元組進行聯合建模并進一步判斷特定三元組是否成立的 方法。在這種情況下,知識圖譜補全任務可以轉化為知識圖譜去噪任務[123,124]。為此,在下面的內容里,本 文以知識圖譜補全任務為中心,對相關的可解釋性方法進行梳理和總結。

1.2 可解釋性及其在知識推理中的必要性

目前學術界和工業界對于可解釋性沒有明確的數學定義[62] ,不同的研究者解決問題的角度不同,為 可解釋性賦予的涵義也不同,所提出的可解釋性方法也各有側重。目前被廣泛接受的一種定義由 Miller (2017)[2,42]所提出,指可解釋性是人們能夠理解決策原因的程度。如果一個模型比另一個模型的決策過程 更簡單、明了、易于理解,那么它就比另一個模型具有更高的可解釋性。

在某些情況下,我們不必關心模型為什么做出這樣的預測,因為它們是在低風險的環境中使用的,這 意味著錯誤不會造成嚴重后果(例如,電影推薦系統),但是對于某些問題或任務,僅僅獲得預測結果是 不夠的。該模型還必須解釋是怎么獲得這個預測的,因為正確的預測只部分地解決了原始問題。通常來說, 以下三點原因推動了對可解釋性的需求:

1、高可靠性要求。盡管可解釋性對于一些系統來說并不是不可或缺的,但是,對于某些需要高度可靠 的預測系統來說很重要,因為錯誤可能會導致災難性的結果(例如,人的生命、重大的經濟損失)。可解釋性可以使潛在的錯誤更容易被檢測到,避免嚴重的后果。此外,它可以幫助工程師查明根 本原因并相應地提供修復。可解釋性不會使模型更可靠或其性能更好,但它是構建高度可靠系統 的重要組成部分。

2、道德和法律要求。第一個要求是檢測算法歧視。由于機器學習技術的性質,經過訓練的深度神經網 絡可能會繼承訓練集中的偏差,這有時很難被注意到。在我們的日常生活中使用 DNN 時存在公 平性問題,例如抵押資格、信用和保險風險評估。人們要求算法能夠解釋作出特定預測或判斷的 原因,希望模型的解釋能夠使“算法歧視”的受害者訴諸人權。此外,推理模型目前也被用于新 藥的發現和設計[124] 。在藥物設計領域,除了臨床測試結果以外,新藥還需要通常還需要支持結 果的生物學機制,需要具備可解釋性才能獲得監管機構的批準,例如國家藥品監督管理局 (NMPA)。

3、科學發現的要求。推理模型本身應該成為知識的來源,可解釋性使提取模型捕獲的這些額外知識成 為可能。當深度網絡達到比舊模型更好的性能時,它們一定發現了一些未知的“知識”。可解釋性 是揭示這些知識的一種方式。

1.3 本文的劃分標準

根據不同的劃分標準,知識推理模型可以被劃分成不同的類別。其中,根據解釋產生的方法,可以將 推理模型劃分為兩大類:事前可解釋和事后可解釋[41,62,96,97,102,118]。其中,事前可解釋模型主要指不需要額 外的解釋方法,解釋蘊含在自身架構之中的模型。事后可解釋性是指模型訓練后運用解釋方法進行推理過 程和推理結果的解釋,解釋方法自身是不包含在模型里面的。一種方法被看作能夠對黑盒模型進行解釋, 是指該方法可以:(1)通過可解釋和透明的模型(例如,淺決策樹、規則列表或者稀疏線性模型)對模型 的行為進行近似,可以為模型提供全局的可解釋;(2)能夠解釋模型在特定輸入樣例上進行預測的原因;(3)可以對模型進行內部檢查,了解模型的某些特定屬性,譬如模型敏感性或深度學習中神經元在某一特 定決策中起到的作用[41] 。值得注意的是,可以將事后解釋方法應用于事前可解釋的模型上,例如,可以 從敏感性分析的角度對事前模型進行剖析。此外,根據可解釋的范圍大小----是否解釋單個實例預測或整個 模型行為,可以將模型劃分為局部可解釋和全局可解釋兩大類[97,96];根據解釋方法是否特定于模型,可以 將模型劃分為特定于模型和模型無關兩種類別[96] 。在接下來的內容里,本文按照解釋產生的方式,對知 識推理模型進行總結和歸類。

付費5元查看完整內容

知識圖譜表示學習模型通過學習知識圖譜中實體和關系的表示,用于預測實體之間缺失的鏈接(關系),而這些模型的性能很大程度上受模型推斷不同關系模式能力的影響。目前常見的關系模式有對稱、非對稱、互逆、組合和傳遞等。盡管現有模型已經能夠對這些關系模式中的大部分進行建模,但當前模型還未能支持建模傳遞關系性這一常見的關系模式。

在本文中,我們首先從理論上證明了傳遞關系可以用一種通用的投影變換進行建模。然后我們提出了一種能夠將投影變換和關系的旋轉結合在一起的知識表示模型,Rot-Pro。我們證明了 Rot-Pro 可以推斷出上述所有關系模式。實驗結果表明,Rot-Pro 模型能夠有效地學習傳遞模式,并在包含傳遞關系的數據集中展現了良好的鏈接預測結果。

論文標題:

Rot-Pro: Modeling Transitivity by Projection in Knowledge Graph Embedding

論文鏈接:

//www.zhuanzhi.ai/paper/ec1f2f9f25bcd85136ad874e497ffd80

付費5元查看完整內容

本文回顧了機器學習中的隱私挑戰,并提供了相關研究文獻的關鍵概述。討論了可能的對抗性模型,討論了與敏感信息泄漏相關的廣泛攻擊,并突出了幾個開放的問題。

//ieeexplore.ieee.org/document/9433648

引言

像谷歌、微軟和亞馬遜這樣的供應商為客戶提供軟件接口,方便地將機器學習(ML)任務嵌入他們的應用程序。總的來說,機構可以使用ML-as-a-service (MLaaS)引擎來處理復雜的任務,例如訓練分類器、執行預測等。他們還可以讓其他人查詢根據他們的數據訓練的模型。當然,這種方法也可以用于其他環境,包括政府協作、公民科學項目和企業對企業的伙伴關系。不幸的是,如果惡意用戶恢復用于訓練這些模型的數據,由此產生的信息泄漏將產生嚴重的問題。同樣地,如果模型的參數是秘密的或被認為是專有的信息,那么對模型的訪問不應該讓對手知道這些參數。在這篇文章中,我們研究了這一領域的隱私挑戰,并對相關的研究文獻進行了系統的回顧。

我們討論的是可能的對抗性模型和設置,其中涵蓋了與私人和/或敏感信息泄漏相關的廣泛攻擊,并簡要調研了最近的結果,試圖防止此類攻擊。最后,我們提出了一個需要更多工作的開放式問題列表,包括需要更好的評估、有針對性的防御,以及研究與策略和數據保護工作的關系。

機器學習隱私

任何系統的安全性都是根據其設計用來防御的敵對目標和能力來衡量的;為此目的,現在討論了不同的威脅模型。然后,本文試圖在ML中提供隱私的定義,重點討論在“攻擊”一節中詳細討論的不同類型的攻擊。

總的來說,我們關注的是模型的隱私。(注意,對抗樣例和整體魯棒性問題超出了本文的范圍。)在本節中,將討論與提取有關模型或訓練數據的信息相關的對抗目標。

當模型本身代表知識產權時,例如在金融市場系統中,模型及其參數應保持私有。在其他情況下,必須保存訓練數據的隱私,例如在醫療應用中。無論目標是什么,攻擊和防御都與暴露或防止暴露模型和訓練數據有關。

攻擊者可能擁有的訪問類型可以是: ■ 白盒,其中對手有關于模型或其原始訓練數據的一些信息,如ML算法、模型參數或網絡結構;或者總結、部分或全部的培訓數據。 ■ 黑盒,對手對模型一無所知。相反,他/她可以通過提供一系列精心設計的輸入和觀察輸出來探索一個模型。

一個需要考慮的變量是攻擊可能發生的時候:

■ 訓練階段: 在這個階段,對手試圖學習模型,例如,訪問摘要、部分或全部訓練數據。他/她可能會創建一個替代模型(也稱為輔助模型)來對受害者的系統進行攻擊。

■ 推理階段: 在這個階段,對手通過觀察模型的推理來收集關于模型特征的證據。

最后,我們可以區分被動攻擊和主動攻擊:

■ 被動攻擊: 在這種類型的攻擊中,對手被動地觀察更新并執行推理,例如,不改變訓練過程中的任何東西。

■ 主動攻擊: 在這種類型的攻擊中,對手主動改變他/她的操作方式,例如,在聯邦學習的情況下,通過使用連接到最后一層的增強屬性分類器擴展他們的協作訓練模型的本地副本。

付費5元查看完整內容

知識圖譜補全的目的是預測知識圖譜中實體之間的缺失關系。雖然已經提出了許多不同的方法,但缺乏一個統一的框架產生SOTA的結果。在這里,我們開發了PathCon,這是一種知識圖譜補全方法,它利用四個新穎的見解來超越現有的方法。PathCon通過以下方法預測一對實體之間的關系: (1)通過捕獲實體附近的關系類型,并通過基于邊緣的消息傳遞模式建模,來考慮每個實體的關系上下文; (2)考慮獲取兩個實體之間所有路徑的關系路徑; (3)通過可學習的注意力機制,自適應地整合關系上下文和關系路徑。重要的是,與傳統的基于節點的表示不同,PathCon僅使用關系類型表示上下文和路徑,這使得它適用于歸納設置。在知識圖譜基準上的實驗結果以及我們新提出的數據集表明,PathCon在很大程度上優于最先進的知識圖譜補全方法。最后,PathCon能夠通過識別對給定的預測關系很重要的上下文和路徑關系來提供可解釋的說明。

付費5元查看完整內容
北京阿比特科技有限公司