亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在過去的十年中,機器學習在許多具有挑戰性的基準上取得了驚人的成功。然而,我們的機器學習模型是否準備好離開這個實驗室環境,并安全地部署在高風險的現實世界應用程序中?本文通過開發和應用新的框架,使現代機器學習系統更魯棒,從而采取措施使這一愿景成為現實。特別是,我們在這類系統的兩種主要脆弱性模式:對抗性示例和后門數據中毒攻擊方面取得了進展。具體來說,在本文的第一部分中,構建了一種對抗樣本的防御方法,這是第一個在自適應對手面前提供非平凡的對抗魯棒性的方法。在第二部分中,開發了一個后門數據投毒攻擊框架,并展示了在自然假設下,我們的理論結果如何激勵算法標記和刪除經驗上成功的潛在投毒示例。最后,簡要探索了初步證據,表明該框架也可以應用于其他數據模態,如表格數據,以及其他機器學習模型,如決策樹的集成。近年來,機器學習,特別是深度學習,在具有挑戰性的人工智能基準上取得了巨大的進步,從計算機視覺[KSH12]到玩游戲[SHS+18],從自然語言處理[BMR+20]到機器人[ABC+20],再到自動駕駛汽車,都取得了令人印象深刻的結果。這些成功給我們帶來了希望,在未來,普適的ML系統將乏味的體力和腦力任務自動化,甚至增強和改善我們的健康、智能和社會。然而,這些令人印象深刻的研究成果和演示是否準備在一個混亂、異構、有時是對抗的世界中轉化為同樣令人印象深刻和有影響力的應用?雖然我們最先進的機器學習模型普遍在各個領域和模態中取得了偉大的結果,但它們在訓練數據中同樣普遍地易受變化的影響——無論是良性的還是對抗的。這篇論文是關于開發原則性的方法來防御特定類型的這種脆弱性。在以下部分中,我們給出了論文的路線圖和我們的主要貢獻。

付費5元查看完整內容

相關內容

 (Massachusetts Institute of Technology,MIT)是美國一所研究型私立大學,位于馬薩諸塞州(麻省)的劍橋市。麻省理工學院的自然及工程科學在世界上享有極佳的盛譽,該校的工程系曾連續七屆獲得美國工科研究生課程冠軍,其中以電子工程專業名氣最響,緊跟其后的是機械工程。其管理學、經濟學、哲學、政治學、語言學也同樣優秀。

機器學習算法已被廣泛應用于多種領域,人們對這些算法可能存在的偏見越來越關注。雖然已有許多解決算法預測偏見的方案,但在將預測轉化為合理決策的過程中仍存在空白。此外,即使一個公正且公平的決策也可能在決策產生反饋效應時導致不可預期的后果。盡管已經有許多方案提出實現一次性決策的公平性,但在研究連續算法決策的長期效果方面仍有空白。在這篇論文中,我們專注于在連續決策環境中研究算法的公平性。我們首先研究如何將模型預測轉化為公平的決策。具體而言,給定黑箱模型(機器學習模型或人類專家)的預測,我們基于經典的學習自專家方案提出了一個算法,將預測結合起來生成公平且準確的決策。我們的理論結果表明,可以在不犧牲太多遺憾的情況下實現近似等化的機會。我們還展示了這個算法在公平社區常用的真實數據集上的表現。

在論文的第二部分,我們研究在連續設定中強制執行靜態公平決策是否能在反饋循環下導致弱勢群體的長期平等和改善。特別地,我們使用具有一般過渡函數的馬爾可夫決策模型來模擬算法決策和基本分布之間的互動。我們提出了一個新的度量標準,通過衡量分布的中心、擴散和形狀的變化來衡量算法決策的分布影響。這個度量將影響劃分為群體內影響和群體間影響,其中群體內影響度量政策如何影響組內分布,群體間影響則度量政策如何對兩個人口群體的分布產生不同的影響。我們的結果顯示,閾值策略的效用和群體間影響之間通常存在權衡,常見的公平約束可能會導致“反作用效應”,即對各群體的影響可能存在差異。

付費5元查看完整內容

機器學習模型在面對分布變化時很脆弱,這使得它們在現實世界的部署中很難依賴。這促使開發方法,使我們能夠檢測和減輕這種模型的脆弱性,以及驗證我們的模型確實滿足期望的魯棒性保證。本文提出了一套工具,幫助我們檢測模型漏洞和偏差。該集合包括一套新的數據集,使我們能夠更細粒度地了解模型對背景的依賴。另一方面,它涉及3DB,一個利用逼真模擬的框架,以探測模型對更多樣化分布變化的脆弱性。除了識別這些漏洞外,還討論了可以使模型對分布變化更魯棒的干預措施,包括使用更多的訓練數據。正如所證明的,不加區分地使用更多的輔助數據并不總是有益的,因此提出了數據集投影,一種選擇要使用的"正確"輔助數據的方法。展示了如何有效和形式化地驗證所提出模型對研究最充分的分布漂移類型之一是魯棒的:逐像素對抗性擾動。

付費5元查看完整內容

本文解決了檢測和修復機器學習(ML)模型-模型調試中的錯誤的挑戰。當前的機器學習模型,特別是在眾包數據上訓練的過參數化深度神經網絡(DNN),很容易鎖定虛假信號,在小群體中表現不佳,并可能因訓練標簽中的錯誤而偏離正軌。因此,在部署之前檢測和修復模型錯誤的能力是至關重要的。可解釋的機器學習方法,特別是事后解釋,已經成為事實上的ML模型調試工具。目前存在大量的方法,但不清楚這些方法是否有效。在本文的第一部分中,我們介紹了一個框架,對標準監督學習流程中可能出現的模型錯誤進行分類。在分類的基礎上,評估了幾種事后模型解釋方法對檢測和修復框架中提出的缺陷類別是否有效。目前的方法很難檢測模型對虛假信號的依賴,無法識別具有錯誤標簽的訓練輸入,也沒有提供直接的方法來修復模型錯誤。此外,實踐者在實踐中很難使用這些工具來調試ML模型。針對現有方法的局限性,在論文的第二部分,我們提出了新的模型調試工具。本文提出一種稱為模型指導的方法,用一個審計集(一個由任務專家仔細注釋的小型數據集)來更新預訓練機器學習模型的參數。將更新表述為一個雙層優化問題,要求更新的模型匹配專家在審計集上的預測和特征注釋。模型引導可用于識別和糾正錯誤標記的示例。同樣,該方法還可以消除模型對虛假訓練信號的依賴。本文介紹的第二個調試工具使用估計器的影響函數來幫助識別訓練點,其標簽對ML模型的視差度量有很高的影響,如組校準。總之,本文在為機器學習模型提供更好的調試工具方面取得了進展。

付費5元查看完整內容

**本文的目標是提高實際環境中部署的機器學習(ML)系統的可靠性。當測試樣例與訓練樣例相似時,ML模型的表現非常好。然而,實際應用程序需要在任意分布的測試樣本上執行。例如,在醫療健康應用程序中,ML可以遇到任何分布的患者或醫院系統。當前的ML系統在分布變化的測試示例上可能會悄無聲息地失敗。為了提高協變量或域偏移導致的ML模型的可靠性,本文提出算法,使模型能夠: (a)泛化到更大的測試分布族,(b)評估分布偏移下的精度,(c)適應目標/測試分布。

本文研究了域偏移魯棒性受損的原因,并提出了訓練域魯棒模型的算法。模型脆性的一個關鍵來源是域過擬合,新的訓練算法抑制并鼓勵域通用假設。雖然我們提高了對某些問題設置的標準訓練方法的魯棒性,但ML系統的性能仍然可以隨著域的變化而發生巨大變化。對于開發人員和利益干系人來說,理解模型漏洞和輸入的操作范圍是至關重要的,這些可以在部署期間進行評估,盡管成本很高。本文主張在預先指定和可解釋的域變化的任何組合上主動估計精度表面,以進行性能預測。本文提出一種標簽有效的貝葉斯估計技術,以解決域偏移的組合空間上的估計問題。此外,當發現模型在目標域上的性能較差時,傳統方法會使用目標域的資源來調整模型。標準的自適應方法假設訪問足夠的計算和標記目標域資源,這對于已部署的模型可能是不切實際的。本文啟動了一項只使用未標記數據資源的輕量級自適應技術的研究,重點是語言應用。所提出方法從選定的未標記數據部分中注入上下文,以獲得更好的表示,而無需進行廣泛的參數調整。

  1. 引言

在過去的幾十年里,機器學習模型在各種認知任務上提供了顯著的改進,令人驚訝的是,有時甚至擊敗了人類。機器學習(ML)現在被譽為“新電力”,因為它正在大量的現實世界中被部署。ML的創新為鼓舞人心的應用提供了動力,如糖尿病視網膜病變導致失明的早期診斷、預測蛋白質折疊、發現新行星和探測引力波。此外,ML在改善醫療保健、個性化教育和自動化方面有巨大的潛力。ML的成功主要歸功于在大型數據集上進行端到端訓練的統計學習方法。盡管在標準基準測試和排行榜上取得了進展,但ML系統在部署時往往表現不佳。眾所周知,它們很脆弱,在不熟悉的輸入上可能會以莫名其妙的方式失敗[Szegedy et al., 2013, Qiu and Yuille, 2016, Zech et al., 2018, Gururangan et al., 2018, Beery et al., 2018, David et al., 2020, Bandi et al., 2018a]。標準的訓練和測試算法假設訓練和測試示例是從相同的底層分布中采樣的。然而,這種假設在野外經常被違背。因此,ML模型的真實性能可能會比同分布測試分割的預期差得多[Plank, 2016, Geirhos等人,2020]。由于訓練-測試分布不匹配而導致的不良性能被稱為數據轉移問題。

一些研究說明了ML在實踐中的數據遷移挑戰。**Qiu和Yuille[2016]發現,Faster-RCNN [Ren et al., 2015]在視點簡單變化的情況下,物體識別的平均準確率變化很大,如圖1.1所示。Awasthi等人[2021]發現,最先進的自動語音識別(ASR)系統的單詞錯誤率(WER)因口音類型而異(美國英語的錯誤率為4%,印度英語口音的錯誤率為11%至55%)。這些失敗可以歸因于訓練數據對某些角度或口音類型的偏差。

這種普遍缺乏通用性正在成為ML應用程序中的一個主要問題,特別是在嵌入式ML部署中,錯誤會被忽視。本文的主要動機是:我們如何提高實際部署的機器學習模型的可靠性?

部署在實際環境中的ML系統可能會遇到任何輸入。它們在輸入空間的一個小子集上進行訓練,該子集在未見過的輸入上具有未知的行為。訓練和評估在任何環境下工作的機器學習模型構成了可靠性的挑戰[Varshney, 2022]。本文將通過解決以下子問題來解決域遷移帶來的可靠性挑戰。

  • 域魯棒性訓練:用于訓練域魯棒模型的算法。
  • ML應用場景的評估方法:適用于任何領域性能查詢的技術。
  • 無標簽自適應:使用用戶提供的無標簽資源自適應模型的算法。

付費5元查看完整內容

機器學習(ML)的最新進展改變了世界。過去是人類主宰規則,現在是機器儲存數據并做出決定。雖然這一變化帶來了真正的好處,但它已經實現了大量基于人類的交互自動化,使其易于操作。研究已經確定,機器學習模型非常容易受到對抗性擾動,特別是對其輸入的更改,這些更改對人類來說是無法察覺的,但會迫使它們以意想不到的方式作業。在本文中,我們采取了一種相當非正統的方法來研究機器學習安全,并通過計算機安全的角度來研究機器學習的現狀。我們發現了大量潛伏在系統安全和機器學習交叉領域的新攻擊和問題。接下來,我們描述了文獻的現狀,強調了我們仍然缺少重要知識的地方,并描述了該領域的幾個新的貢獻。該領域的一些特征使當前的安全方法變得不太適用,使現代機器學習系統容易受到各種各樣的攻擊。我們的主要貢獻是對機器學習的可用性攻擊——針對推理或模型訓練延遲的攻擊。我們還解釋了攻擊者如何利用與模型環境的許多其他交集。一個重要的見解是,必須理解、承認機器學習模型的固有局限性,并通過在更大系統中使用組件來補償控制進行緩解。

機器學習(ML)徹底改變了現代計算機系統,因此,更多的任務現在是完全自動化和模型驅動的。盡管深度神經網絡的性能令人印象深刻,但人們很快發現,底層模型是極其敏感的,攻擊者可以找到微小的,有時甚至無法察覺的擾動,以控制底層模型的行為。圖1 - 1展示了這種對抗性示例的一個例子——一個輸入樣本,旨在迫使模型將鳥瞰圖視為一輛汽車。(每個像素顏色的微小擾動被放大,使它們在這些圖像中可見。)這一發現導致了對抗性機器學習領域的誕生,在那里我們研究如何攻擊和防御ML模型。起初,這主要是由對基礎數學的研究和構建不太敏感的函數(如對抗性訓練)驅動的。然而,令人驚訝的是,這對嵌入模型的大型系統的安全性影響甚微,因為相同的模型仍然容易受到其他攻擊者的攻擊,也容易受到減少效用的影響。在實踐中,使用不那么敏感的近似函數并不一定會提高或降低安全性。攻擊者很少受到擾動大小的限制,并且可能更喜歡獲得模型的控制權,而不是根據某些學術指標保持攻擊不可察覺。

//www.repository.cam.ac.uk/handle/1810/338197

這種認識導致了一個新領域的創建——機器學習的安全性——在這里,我們不是孤立地觀察ML,而是在其環境、依賴項和需求的上下文中分析它。我們在博士期間一直在做的工作對這一文獻做出了早期貢獻,特別是開創了三種新的攻擊和防御類型。

付費5元查看完整內容

在構建機器學習管道時,一些常見的假設是:(1)訓練數據足夠 "干凈",表現良好,因此很少或沒有離群值,或者數據的分布沒有長尾,(2)測試數據遵循與訓練數據相同的分布,以及(3)數據產生于或接近于一個已知的模型類,如線性模型或神經網絡。

然而,隨著計算機、互聯網和各種基于傳感器的技術更容易獲得,科學和工程的各個分支中出現的現代數據集不再是精心策劃的,往往是以分散的、分布式的方式收集。因此,它們受到異質性、對抗性操作和異常值等復雜因素的困擾。隨著我們進入這個臟的數據時代,上述的機器學習管道的假設越來越站不住腳。

對于機器學習的廣泛采用,我們認為任何模型都必須具備以下三個基本要素:

  • 穩健性。該模型即使在有噪音和損壞的數據下也能被訓練。

  • 可信賴。在訓練結束后,當在現實世界中部署時,該模型在分布的良性變化下不應該崩潰。

  • 有彈性。建模程序應該在模型錯誤指定的情況下工作,也就是說,即使建模假設崩潰,模型也應該找到可能的最佳解決方案。

在這篇論文中,我們的目標是修改最先進的ML技術并設計新的算法,使其即使在沒有上述假設的情況下也能工作,并且是穩健、可信和有彈性的。我們的貢獻如下。

在第二章中,我們提供了一類新的統計最優估計器,這些估計器對各種環境是穩健的,如任意污染和重尾數據等。

在第三章中,我們用一類新的計算效率高的穩健風險最小化估計器來補充我們的統計最優估計器。這些結果為一般的統計模型,如線性回歸、邏輯回歸等,提供了一些最早的可計算的、可證明的穩健估計器。

在第四章中,我們研究了在基礎分布中的一些樣本可能被任意破壞的情況下學習Ising模型的問題。

最后,在第五章,我們討論了我們的結果對現代機器學習的影響。

付費5元查看完整內容

摘要

圖深度學習 (Deep Graph Learning, DGL) 在商業和科學領域,包括金融、電子商務到藥物和先進材料發現等應用取得了顯著的進展。盡管取得了矚目進展,但將DGL應用到實際場景中仍面臨一系列的可靠性威脅,包括數據固有噪聲(inherent noise),分布偏移(distribution shift) 和對抗攻擊(adversarial attack)。具體來說,數據固有噪聲是指圖結構、節點屬性和節點/圖標簽中與生俱來的噪聲。分布偏移指的是訓練和測試數據分布之間的偏移和不一致,包括領域泛化和子群偏移。對抗攻擊是一種操縱性的人為手段,目的是造成模型的錯誤行為,典型例子包括對抗樣本和后門觸發器。本綜述旨在提供一個關于DGL的可靠性研究最新進展的全面回顧。與之前主要關注對抗攻擊和防御的相關綜述相比,我們的綜述涵蓋了DGL的更多可靠性相關方面,即數據固有噪聲和分布偏移。此外,我們還討論了上述各方面的關系,并指出了未來研究中需要探索的一些重要問題。

//www.zhuanzhi.ai/paper/c3f2da099c06fba725a9c78bac53ee4a

近年來,基于圖神經網絡(GNNs)的深度圖學習(DGL)在許多重要領域都取得了顯著進展,從金融等商業場景(如欺詐檢測和信用建模)[Dou et al., 2020; Yang et al., 2020]和電子商務(如推薦系統)[Wu et al., 2021a],到諸如藥物發現和先進材料發現等科學領域[Guo et al., 2021; Wu et al., 2017]。盡管取得了進步,但將各種DGL算法應用到實際應用中仍面臨一系列的可靠性威脅。在較高的層次上,我們將這些威脅分為三個方面,即固有噪聲、分布轉移和對抗性攻擊。具體來說,固有噪聲是指圖結構、節點屬性和節點/圖標簽中的不可約噪聲。分布轉移是指訓練分布和測試分布之間的轉移,包括域泛化和子種群轉移。對抗性攻擊是一種操縱性的人類行為,旨在通過精心設計的模式或對原始數據的擾動導致模型的不當行為。典型的例子包括對抗性樣本[Zugner¨et al., 2018]和后門觸發器[Xi et al., 2021]。

圖1顯示了在一個典型的深度圖學習流程中不同的威脅是如何發生的。作為對比,固有噪聲或分布偏移通常發生在數據生成過程中,這是由于采樣偏差或環境噪聲造成的,而非人為故意設計的,而對抗性攻擊則是在數據生成階段之后由惡意攻擊者故意設計的(更多差異見第5節)。

表1進一步給出了形式化描述對每種威脅進行分析,并總結出一些典型的相關工作。針對上述威脅,從優化策略設計、不確定性量化等不同角度提高DGL算法的可靠性出現了大量工作。在本綜述中,我們探討了這一研究方向的最新進展。具體而言,本次綜述的組織方式如下: 首先從固有噪聲、分布偏移和對抗性攻擊三個方面回顧了近年來的工作。對于每個方面,我們首先總結現有的威脅(例如,各種對抗性攻擊)。然后,我們介紹了用于DGL的典型可靠性增強技術,并討論了它們的局限性。最后,討論了上述三個方面的關系,并闡述了一些有待解決的重要開放研究問題。

付費5元查看完整內容

【導讀】牛津大學的博士生Oana-Maria Camburu撰寫了畢業論文《解釋神經網絡 (Explaining Deep Neural Networks)》,系統性介紹了深度神經網絡可解釋性方面的工作,值得關注。

作者介紹:

Oana-Maria Camburu,來自羅馬尼亞,目前是牛津大學的博士生,主修機器學習、人工智能等方向。

Explaining Deep Neural Networks

深度神經網絡在計算機視覺、自然語言處理和語音識別等不同領域取得了革命性的成功,因此越來越受歡迎。然而,這些模型的決策過程通常是無法向用戶解釋的。在各種領域,如醫療保健、金融或法律,了解人工智能系統所做決策背后的原因至關重要。因此,最近研究了幾個解釋神經模型的方向。

在這篇論文中,我研究了解釋深層神經網絡的兩個主要方向。第一個方向由基于特征的事后解釋方法組成,也就是說,這些方法旨在解釋一個已經訓練過的固定模型(事后解釋),并提供輸入特征方面的解釋,例如文本標記和圖像的超級像素(基于特征的)。第二個方向由生成自然語言解釋的自解釋神經模型組成,也就是說,模型有一個內置模塊,為模型的預測生成解釋。在這些方面的貢獻如下:

  • 首先,我揭示了僅使用輸入特征來解釋即使是微不足道的模型也存在一定的困難。我表明,盡管有明顯的隱含假設,即解釋方法應該尋找一種特定的基于真實值特征的解釋,但對于預測通常有不止一種這樣的解釋。我還展示了兩類流行的解釋方法,它們針對的是不同類型的事實基礎解釋,但沒有明確地提及它。此外,我還指出,有時這兩種解釋都不足以提供一個實例上決策過程的完整視圖。

  • 其次,我還介紹了一個框架,用于自動驗證基于特征的事后解釋方法對模型的決策過程的準確性。這個框架依賴于一種特定類型的模型的使用,這種模型有望提供對其決策過程的洞察。我分析了這種方法的潛在局限性,并介紹了減輕這些局限性的方法。引入的驗證框架是通用的,可以在不同的任務和域上實例化,以提供現成的完整性測試,這些測試可用于測試基于特性的后特殊解釋方法。我在一個情緒分析任務上實例化了這個框架,并提供了完備性測試s1,在此基礎上我展示了三種流行的解釋方法的性能。

  • 第三,為了探索為預測生成自然語言解釋的自解釋神經模型的發展方向,我在有影響力的斯坦福自然語言推斷(SNLI)數據集之上收集了一個巨大的數據集,數據集約為570K人類編寫的自然語言解釋。我把這個解釋擴充數據集稱為e-SNLI。我做了一系列的實驗來研究神經模型在測試時產生正確的自然語言解釋的能力,以及在訓練時提供自然語言解釋的好處。

  • 第四,我指出,目前那些為自己的預測生成自然語言解釋的自解釋模型,可能會產生不一致的解釋,比如“圖像中有一只狗。”以及“同一幅圖片中沒有狗”。不一致的解釋要么表明解釋沒有忠實地描述模型的決策過程,要么表明模型學習了一個有缺陷的決策過程。我將介紹一個簡單而有效的對抗性框架,用于在生成不一致的自然語言解釋時檢查模型的完整性。此外,作為框架的一部分,我解決了使用精確目標序列的對抗性攻擊的問題,這是一個以前在序列到序列攻擊中沒有解決的場景,它對于自然語言處理中的其他任務很有用。我將這個框架應用到e-SNLI上的一個最新的神經模型上,并表明這個模型會產生大量的不一致性。

這項工作為獲得更穩健的神經模型以及對預測的可靠解釋鋪平了道路。

地址: //arxiv.org/abs/2010.01496

付費5元查看完整內容
北京阿比特科技有限公司