亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

【導讀】前不久發表在 Nature Review Physics 雜志上的一篇綜述論文「Physics-informed machine learning」提出了「教機器學習物理知識以解決物理問題」的觀點。并引出“基于物理信息的機器學習”概念。近日,來自德國Fraunhofer機器學習中心發布了首篇引入先驗知識機器學習的綜述論文《知信機器學習》,非常值得關注!

摘要

盡管機器學習取得了巨大的成功,但在處理不足的訓練數據時也有其局限性。一個潛在的解決方案是將先驗知識額外集成到訓練過程中,這導致了知信機器學習(Informed Machine Learning )的概念。在本文中,我們提出了一個結構化的概述,各種方法在這一領域。我們為知信機器學習提供了一個定義并提出了一個概念,說明了其構建模塊,并將其與傳統機器學習區分開來。我們引入了一種分類法,作為知信機器學習方法的分類框架。它考慮了知識的來源,它的表示,以及它與機器學習管道的集成。基于這種分類法,我們綜述了相關的研究,并描述了不同的知識表示(如代數方程、邏輯規則或模擬結果)如何在學習系統中使用。在我們的分類基礎上對眾多論文進行評估,揭示了知信機器學習領域的關鍵方法。

//www.zhuanzhi.ai/paper/bcb3bf457735e5f7fe89e40e4a914cf6

引言

從計算機視覺[1]到語音識別[2],從文本理解[3]到游戲AI[4],機器學習在構建模式識別模型方面取得了巨大成功。除了這些經典領域,機器學習,特別是深度學習,在工程和科學領域越來越重要,越來越成功。這些成功的例子是建立在從大量樣本中學習的數據驅動方法。

然而,在許多情況下,純數據驅動的方法可能達到其極限或導致不令人滿意的結果。最明顯的情況是沒有足夠的數據來訓練性能良好和足夠一般化的模型。另一個重要的方面是,純數據驅動的模型可能不滿足自然法則或監管或安全準則等約束,而這些約束對于值得信賴的AI[8]很重要。隨著機器學習模型變得越來越復雜,對模型的可解釋性和可解釋性的需求也越來越大。

這些問題導致了更多關于如何通過在學習過程中加入先驗知識來改進機器學習模型的研究。雖然將知識集成到機器學習中很常見,例如通過標簽或特征工程,但我們注意到,人們對更多知識的集成越來越感興趣,特別是對進一步的正式知識表示。例如,邏輯規則[10]、[11]或代數方程[12]、[13]被添加為損失函數的約束。知識圖譜可以利用實例[14]之間的關系信息增強神經網絡,這在圖像分類[15],[16]中很有意義。此外,物理模擬已經被用來豐富訓練數據[17],[18],[19]。這種方法上的異質性導致了一些命名上的冗余; 例如,我們發現了一些術語,如基于物理信息的深度學習[20],物理引導的神經網絡[12],或基于語義的正則化[21]。最近研究活動的增長表明,數據和知識驅動方法的結合在越來越多的領域變得相關。然而,越來越多的研究論文在這一領域激發了一個系統的綜述。

最近的一項綜述將此作為理論指導的數據科學的新范式,并指出了在機器學習[22]中加強科學一致性的重要性。甚至對于支持向量機,也有一個關于將知識整合到這種形式的[23]中的綜述。符號化人工智能和連接主義人工智能的融合似乎越來越容易實現。在這方面,我們參考了最近一項關于圖神經網絡的綜述和一個研究方向,即關系歸納偏差[24]。通過提供集成到機器學習中的知識表示的系統分類,我們的工作補充了上述綜述。我們提供了一個結構化的概述,基于如何將額外的先驗知識集成到機器學習管道的大量研究論文的綜述。作為這類方法的總稱,我們今后將使用知信機器學習。

我們的貢獻有三個方面: 我們提出了一個關于知信機器學習的抽象概念,闡明了其構建模塊以及與傳統機器學習的關系。它指出,知信學習使用由數據和先驗知識組成的混合信息源,該信息源來自一個獨立的信息源,并由形式化表示給出。我們的主要貢獻是引入了一種分類知信機器學習方法的分類法,這是一種新穎的,也是同類中第一個。它包含了知識來源的維度,它的表示,以及它與機器學習管道的集成。我們特別強調對各種知識表示進行分類,因為這可能使從業者能夠將他們的領域知識整合到機器學習過程中。此外,我們給出了可用方法的描述,并解釋了不同的知識表示,例如代數方程、邏輯規則或模擬結果,如何可以用于知信機器學習。

圖2: 知信機器學習的分類結構。該分類法根據上述知識來源、知識表示和知識集成三個分析問題,作為知信機器學習的分類框架和結構方法。

付費5元查看完整內容

相關內容

由于神經網絡的日益普及,對神經網絡預測的信心變得越來越重要。然而,基本的神經網絡不會給出確定性估計,也不會受到信心過度或不足的影響。許多研究人員一直致力于理解和量化神經網絡預測中的不確定性。因此,不同類型和來源的不確定性已被識別,并提出了各種方法來測量和量化神經網絡中的不確定性。本工作對神經網絡中的不確定性估計進行了全面的概述,綜述了該領域的最新進展,突出了當前的挑戰,并確定了潛在的研究機會。它旨在給任何對神經網絡中的不確定性估計感興趣的人一個廣泛的概述和介紹,而不預設在這一領域有先驗知識。對不確定性的主要來源進行了全面的介紹,并將它們分為可約模型不確定性和不可約數據不確定性。本文介紹了基于確定性神經網絡、貝葉斯神經網絡、神經網絡集成和測試時間數據增強等方法對這些不確定性的建模,并討論了這些領域的不同分支和最新進展。對于實際應用,我們討論不確定性的不同措施,校準神經網絡的方法,并給出現有基線和實現的概述。來自不同領域廣泛挑戰的不同例子,提供了實際應用中有關不確定性的需求和挑戰的概念。此外,討論了當前用于任務和安全關鍵的現實世界應用的方法的實際限制,并展望了未來的步驟,以更廣泛地使用這些方法。

//www.zhuanzhi.ai/paper/9a9009dae03438c7a71e0bc1b54de0fa

付費5元查看完整內容

機器學習在許多部署的決策系統中發揮著作用,其方式通常是人類利益相關者難以理解或不可能理解的。以一種人類可以理解的方式解釋機器學習模型的輸入和輸出之間的關系,對于開發可信的基于機器學習的系統是至關重要的。一個新興的研究機構試圖定義機器學習的目標和解釋方法。在本文中,我們試圖對反事實解釋的研究進行回顧和分類,這是一種特殊類型的解釋,它提供了在模型輸入以特定方式改變時可能發生的事情之間的聯系。機器學習中反事實可解釋性的現代方法與許多國家的既定法律原則相聯系,這使它們吸引了金融和醫療等高影響力領域的實地系統。因此,我們設計了一個具有反事實解釋算法理想性質的準則,并對目前提出的所有反事實解釋算法進行了綜合評價。我們的標題便于比較和理解不同方法的優缺點,并介紹了該領域的主要研究主題。我們也指出了在反事實解釋空間的差距和討論了有前途的研究方向。

機器學習作為一種在許多領域實現大規模自動化的有效工具,正日益被人們所接受。算法能夠從數據中學習,以發現模式并支持決策,而不是手工設計的規則。這些決定可以并確實直接或間接地影響人類;備受關注的案例包括信貸貸款[99]、人才資源[97]、假釋[102]和醫療[46]的申請。在機器學習社區中,新生的公平、責任、透明度和倫理(命運)已經成為一個多學科的研究人員和行業從業人員的團體,他們感興趣的是開發技術來檢測機器學習模型中的偏見,開發算法來抵消這種偏見,為機器決策生成人類可理解的解釋,讓組織為不公平的決策負責,等等。

對于機器決策,人類可以理解的解釋在幾個方面都有優勢。例如,關注一個申請貸款的申請人的用例,好處包括:

  • 對于生活受到該決定影響的申請人來說,解釋是有益的。例如,它幫助申請人理解他們的哪些因素是做出決定的關鍵因素。

  • 此外,如果申請人覺得受到了不公平待遇,例如,如果一個人的種族在決定結果時至關重要,它還可以幫助申請人對決定提出質疑。這對于組織檢查其算法中的偏見也很有用。

  • 在某些情況下,解釋為申請人提供了反饋,他們可以根據這些反饋采取行動,在未來的時間內獲得預期的結果。

  • 解釋可以幫助機器學習模型開發人員識別、檢測和修復錯誤和其他性能問題。

  • 解釋有助于遵守與機器生產決策相關的法律,如GDPR[10]。

機器學習中的可解釋性大體上是指使用固有的可解釋的透明模型或為不透明模型生成事后解釋。前者的例子包括線性/邏輯回歸、決策樹、規則集等。后者的例子包括隨機森林、支持向量機(SVMs)和神經網絡。

事后解釋方法既可以是模型特定的,也可以是模型不可知的。特征重要性解釋和模型簡化是兩種廣泛的特定于模型的方法。與模型無關的方法可以分為視覺解釋、局部解釋、特性重要性和模型簡化。

特征重要性(Feature importance)是指對模型的整體精度或某個特定決策最有影響的特征,例如SHAP[80]、QII[27]。模型簡化找到了一個可解釋的模型,該模型緊致地模仿了不透明模型。依存圖是一種常用的直觀解釋,如部分依存圖[51]、累積局部效應圖[14]、個體條件期望圖[53]。他們將模型預測的變化繪制成一個特征,或者多個特征被改變。局部解釋不同于其他解釋方法,因為它們只解釋一個預測。局部解釋可以進一步分為近似解釋和基于實例的解釋。近似方法在模型預測需要解釋的數據點附近抽取新的數據點(以下稱為explainee數據點),然后擬合線性模型(如LIME[92])或從中提取規則集(如錨[93])。基于實例的方法尋求在被解釋數據點附近找到數據點。它們要么以與被解釋數據點具有相同預測的數據點的形式提供解釋,要么以預測與被解釋數據點不同的數據點的形式提供解釋。請注意,后一種數據點仍然接近于被解釋的數據點,被稱為“反事實解釋”。

回想一下申請貸款的申請人的用例。對于貸款請求被拒絕的個人,反事實的解釋為他們提供反饋,幫助他們改變自己的特征,以過渡到決策邊界的理想一面,即獲得貸款。這樣的反饋被稱為可執行的。與其他幾種解釋技術不同,反事實解釋不能明確回答決策中的“為什么”部分;相反,他們提供建議以達到預期的結果。反事實解釋也適用于黑箱模型(只有模型的預測功能是可訪問的),因此不限制模型的復雜性,也不要求模型披露。它們也不一定能近似底層模型,從而產生準確的反饋。由于反事實解釋具有直覺性,因此也符合法律框架的規定(見附錄C)。

在這項工作中,我們收集、審查和分類了最近的39篇論文,提出了算法,以產生機器學習模型的反事實解釋。這些方法大多集中在表格或基于圖像的數據集上。我們在附錄b中描述了我們為這項調查收集論文的方法。我們描述了這個領域最近的研究主題,并將收集的論文按照有效的反事實解釋的固定需求進行分類(見表1)。

付費5元查看完整內容

機器學習的視覺分析最近已經發展成為可視化領域中最令人興奮的領域之一。為了更好地確定哪些研究課題是有前景的,并學習如何在視覺分析中應用相關技術,我們系統地回顧了近十年來發表的259篇論文以及2010年之前的代表性作品。我們構建一個分類法,其中包括三個第一級類別:構建模型之前的技術、構建建模期間的技術和構建模型之后的技術。每個類別的進一步特征是具有代表性的分析任務,每個任務都以一組最近有影響的著作為例。我們也討論并強調研究的挑戰和對視覺分析研究人員有用的潛在未來研究機會。

最近人工智能應用的成功依賴于機器學習模型[1]的性能和能力。在過去的十年里,各種視覺分析方法被提出,使機器學習更加可解釋、可信和可靠。這些研究努力充分結合交互式可視化和機器學習技術的優勢,便于分析和理解學習過程中的主要組件,以提高性能。例如,用于解釋深度卷積神經網絡內部工作原理的可視化分析研究增加了深度學習模型的透明度,并在最近受到了越來越多的關注[1-4]。

用于機器學習的視覺分析技術的快速發展產生了對這一領域進行全面回顧的需求,以支持理解可視化技術是如何設計并應用于機器學習管道的。已有幾項初步努力從不同的觀點總結這一領域的進展。例如,Liu等人[5]總結了文本分析的可視化技術。Lu等人對預測模型的可視化分析技術進行了調查。最近,Liu等人[1]發表了一篇從視覺分析的角度分析機器學習模型的論文。Sacha等[7]分析了一組示例系統,提出了一種用于視覺分析輔助機器學習的本體。然而,現有的調研要么專注于機器學習的一個特定領域(例如,文本挖掘[5],預測模型[6],模型理解[1]),要么僅基于一組示例技術來勾畫本體[7]。

本文旨在對機器學習的視覺分析技術進行全面的綜述,重點介紹機器學習管道的各個階段。我們主要關注可視化社區中的工作。然而,人工智能社區也對深度學習模型中視覺解釋特征檢測器的研究做出了堅實的貢獻。例如,Selvaraju等人[8]試圖通過計算類激活映射來識別圖像中分類結果敏感的部分。讀者可以參考張、朱[9]和Hohman等人[3]的調查。通過系統的程序,我們在過去的十年中收集了259篇來自相關頂級場所的論文。基于機器學習流水線,我們將這篇文獻分為建模前、建模中、建模后三個階段。我們分析了可視化分析技術在這三個階段的功能,并抽象了典型任務,包括在建模前提高數據質量和特征質量,建模過程中的模型理解、診斷和轉向,以及建模后的數據理解。每個任務都由一組精心挑選的例子來說明。我們強調了機器學習視覺分析領域六個突出的研究方向和開放問題。我們希望這項調查能夠促進機器學習相關視覺分析技術的討論,并為希望開發機器學習的視覺分析工具的從業者和研究人員提供一個起點。

付費5元查看完整內容

人工智能(AI)為改善私人和公共生活提供了很多機會,以自動化的方式在大型數據中發現模式和結構是數據科學的核心組件,目前驅動著計算生物學、法律和金融等不同領域的應用發展。然而,這種高度積極的影響也伴隨著重大的挑戰:我們如何理解這些系統所建議的決策,以便我們能夠信任它們?在這個報告中,我們特別關注數據驅動的方法——特別是機器學習(ML)和模式識別模型——以便調查和提取結果和文獻觀察。通過注意到ML模型越來越多地部署在廣泛的業務中,可以特別理解本報告的目的。然而,隨著方法的日益普及和復雜性,業務涉眾對模型的缺陷、特定數據的偏差等越來越關注。類似地,數據科學從業者通常不知道來自學術文獻的方法,或者可能很難理解不同方法之間的差異,所以最終使用行業標準,比如SHAP。在這里,我們進行了一項調查,以幫助行業從業者(以及更廣泛的數據科學家)更好地理解可解釋機器學習領域,并應用正確的工具。我們后面的章節將圍繞一位公認的數據科學家展開敘述,并討論她如何通過提出正確的問題來解釋模型。

//arxiv.org/abs/2009.11698

付費5元查看完整內容

作為傳統DNNs對圖的推廣,GNN繼承了傳統DNNs的優點和缺點。與傳統的DNNs一樣,GNN在許多圖形相關的任務中被證明是有效的,比如節點聚類和圖聚焦任務。傳統的DNNs已被證明易受專門設計的對抗性攻擊(Goodfellow et al., 2014b;徐等,2019b)。在對抗性的攻擊下,受害樣本會受到干擾,不容易被發現,但會導致錯誤的結果。越來越明顯的是,GNNs也繼承了這個缺點。對手可以通過操縱圖的結構或節點特征來欺騙GNN模型,從而產生圖的對抗性擾動。GNN的這種局限性引起了人們對在諸如金融系統和風險管理等安全關鍵應用程序中采用它們的極大關注。例如,在一個信用評分系統中,欺詐者可以偽造與幾個高信用客戶的關系,以逃避欺詐者檢測模型;垃圾郵件發送者可以很容易地創建虛假關注者,以增加虛假新聞被推薦和傳播的機會。因此,圖形對抗性攻擊及其對策的研究越來越受到人們的關注。在這一章中,我們首先介紹了圖對抗攻擊的概念和定義,并詳細介紹了一些具有代表性的圖對抗攻擊方法。然后,我們討論了針對這些對抗性攻擊的典型防御技術。

//cse.msu.edu/~mayao4/dlg_book/

付費5元查看完整內容

基于協同過濾(CF)的潛在因素模型(LFM),如矩陣分解(MF)和深度CF方法,由于其良好的性能和推薦精度,在現代推薦系統(RS)中得到了廣泛的應用。盡管近年來取得了巨大的成功,但事實表明,這些方法易受對抗性例子的影響,即,這是一種微妙但非隨機的擾動,旨在迫使推薦模型產生錯誤的輸出。這種行為的主要原因是,用于LFM訓練的用戶交互數據可能會受到惡意活動或用戶誤操作的污染,從而導致不可預測的自然噪聲和危害推薦結果。另一方面,研究表明,這些最初設想用于攻擊機器學習應用程序的系統可以成功地用于增強它們對攻擊的魯棒性,以及訓練更精確的推薦引擎。在這方面,本調查的目標有兩方面:(i)介紹關于AML-RS的最新進展,以保障AML-RS的安全性。(ii)展示了AML在生成對抗網絡(GANs)中的另一個成功應用,生成對抗網絡(GANs)使用了AML學習的核心概念(即用于生成應用程序。在這項綜述中,我們提供了一個詳盡的文獻回顧60篇文章發表在主要的RS和ML雜志和會議。這篇綜述為RS社區提供了參考,研究RS和推薦模型的安全性,利用生成模型來提高它們的質量。

付費5元查看完整內容

隨著基于機器學習(ML)系統在醫學、軍事、汽車、基因組以及多媒體和社交網絡等多種應用中的廣泛應用,對抗式學習(AL)攻擊(adversarial learning attacks)有很大的潛在危害。此篇AL的綜述,針對統計分類器的攻擊的防御。在介紹了相關術語以及攻擊者和維護者的目標和可能的知識范圍后,我們回顧了最近在test-time evasion (TTE)、數據中毒(DP)和反向工程(RE)攻擊方面的工作,特別是針對這些攻擊的防御。在此過程中,我們將魯棒分類與異常檢測(AD)、無監督和基于統計假設的防御和無攻擊(no attack)假設的防御區分開來;我們識別了特定方法所需的超參數、其計算復雜性以及評估其性能的指標和質量。然后,我們深入挖掘,提供新的見解,挑戰傳統智慧,并針對尚未解決的問題,包括:1)穩健的分類與AD作為防御策略;2)認為攻擊的成功程度隨攻擊強度的增加而增加,這忽略了對AD的敏感性;3)test-time evasion (TTE)攻擊的小擾動:謬誤或需求?4)一般假設的有效性,即攻擊者知道要攻擊的示例的真實程度;5)黑、灰或白盒攻擊作為防御評估標準;6)基于查詢的RE對廣告防御的敏感性。 然后,我們給出了幾種針對TTE、RE和DP攻擊圖像的防御的基準比較。論文最后討論了持續的研究方向,包括檢測攻擊的最大挑戰,其目的不是改變分類決策,而是簡單地嵌入“假新聞”或其他虛假內容,而不被發現。

付費5元查看完整內容
北京阿比特科技有限公司