亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

機器學習模型容易受到成員推斷攻擊,目的是推斷目標樣本是否屬于目標模型的訓練數據集。由于成員推理而引起的嚴重的隱私問題引發了對成員推理攻擊的多種防御,例如差分隱私和對抗性正則化。不幸的是,這些防御方法產生的機器學習模型的實用性低得令人無法接受,例如,分類準確性。我們提出了一種新的基于知識蒸餾的防御,稱為成員隱私蒸餾(DMP),以對抗成員推理攻擊,這種攻擊比先前的防御更有效地保留了生成模型的效用。我們提供了一個新的準則來調整DMP中用于知識遷移的數據,以調整所得模型的效用和隱私之間的權衡。我們的評估清楚地展示了最先進的會員隱私-效用折衷。

//people.cs.umass.edu/~vshejwalkar/dmp_aaai_slides.pdf

付費5元查看完整內容

相關內容

圖是一種普遍存在的數據結構,它可以表示不同實體之間豐富的關系信息。在社交網絡中建立友好關系,預測蛋白質與蛋白質的相互作用,學習分子指紋,以及分類疾病,這些都是通過通過圖表數據進行學習而成為可能的任務。在過去的幾年里,隨著圖深度學習模型——圖神經網絡(graph neural network, GNNs)的出現,圖機器學習研究發生了革命性的變化。圖神經網絡在各種下游任務的圖表示自動學習方面表現出了卓越的性能。然而,當圖形代表敏感互動或包含個人信息時,通過圖學習可能會引起隱私問題。先前關于保護隱私的機器學習的工作已經在處理歐幾里得數據(如圖像、音頻和文本)時提出了保護用戶隱私的有效解決方案,但由于圖節點之間存在連接性,在圖上應用深度學習算法涉及的隱私問題往往更具挑戰性。本講座旨在介紹圖神經網絡,以及在敏感圖上應用GNNs的潛在隱私風險。然后,將概述可能的隱私攻擊的GNN和建立隱私保護GNN的最新嘗試。

//sajadmanesh.com/talks/2020-12-09-IPCLab/

付費5元查看完整內容

我們研究了智能體在面臨一系列強化學習任務時的知識轉移問題。在馬爾可夫決策過程之間引入了一種新的度量方法,證明了封閉式多目標決策具有封閉式最優值函數。形式上,最優值函數是關于任務空間的Lipschitz連續函數。根據這些理論結果,我們提出了一種終身RL的值轉移方法,并利用該方法建立了一種收斂速度較好的PAC-MDP算法。我們在終身RL實驗中說明了該方法的好處。

付費5元查看完整內容

差分隱私(DP)是保護隱私的敏感數據,同時保持其實用性的一個最成功的提議。在這次演講中,我們將簡要介紹DP框架,然后提出一個新的機制來實現分布式DP。也就是說,在一個數據收集分布在不同組織中的場景中,這些組織不希望公開原始數據,而只希望公開它們經過脫敏的版本,并且仍然可以從合并來自不同來源的信息的優點中獲益。我們提出的機制特別適合于統計期望最大化方法的一種變體的應用,由于這種方法,原始數據的效用可以被檢索到一個近似的檢索度,而不影響原始數據所有者的隱私。

//sites.google.com/view/federatedlearning-workshop/schedule

付費5元查看完整內容

在大數據時代下,深度學習、強化學習以及分布式學習等理論和技術取得的突破性進展,為機器學習提供了數據和算法層面的強有力支撐,同時促進了機器學習的規模化和產業化發展.然而,盡管機器學習模型在現實應用中有著出色的表現,但其本身仍然面臨著諸多的安全威脅.機器學習在數據層、模型層以及應用層面臨的安全和隱私威脅呈現出多樣性、隱蔽性和動態演化的特點.機器學習的安全和隱私問題吸引了學術界和工業界的廣泛關注,一大批學者分別從攻擊和防御的角度對模型的安全和隱私問題進行了深入的研究,并且提出了一系列的攻防方法. 在本綜述中,我們回顧了機器學習的安全和隱私問題,并對現有的研究工作進行了系統的總結和科學的歸納,同時明確了當前研究的優勢和不足. 最后,我們探討了機器學習模型安全與隱私保護研究當前所面臨的挑戰以及未來潛在的研究方向,旨在為后續學者進一步推動機器學習模型安全與隱私保護研究的發展和應用提供指導.

//www.jos.org.cn/jos/ch/reader/view_abstract.aspx?file_no=6131&flag=1

付費5元查看完整內容

人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。

付費5元查看完整內容

數據孤島以及模型訓練和應用過程中的隱私泄露是當下阻礙人工智能技術發展的主要難題。聯邦學習作為一種高效的隱私保護手段應運而生。聯邦學習是一種分布式的機器學習方法,以在不直接獲取數據源的基礎上,通過參與方的本地訓練與參數傳遞,訓練出一個無損的學習模型。但聯邦學習中也存在較多的安全隱患。本文著重分析了聯邦學習中的投毒攻擊、對抗攻擊以及隱私泄露三種主要的安全威脅,針對性地總結了最新的防御措施,并提出了相應的解決思路。

付費5元查看完整內容

人類的視覺系統證明,用極少的樣本就可以學習新的類別;人類不需要一百萬個樣本就能學會區分野外的有毒蘑菇和可食用蘑菇。可以說,這種能力來自于看到了數百萬個其他類別,并將學習到的表現形式轉化為新的類別。本報告將正式介紹機器學習與熱力學之間的聯系,以描述遷移學習中學習表征的質量。我們將討論諸如速率、畸變和分類損失等信息理論泛函如何位于一個凸的,所謂的平衡曲面上。我們規定了在約束條件下穿越該表面的動態過程,例如,一個調制速率和失真以保持分類損失不變的等分類過程。我們將演示這些過程如何完全控制從源數據集到目標數據集的傳輸,并保證最終模型的性能。

付費5元查看完整內容

所有著名的機器學習算法包括監督學習和半監督學習,只有在一個共同的假設下才能很好地有效: 訓練和測試數據遵循相同的分布。當分布發生變化時,大多數統計模型必須從新收集的數據中重新構建,對于某些應用程序,這些數據可能是昂貴的或不可能獲得的。因此,有必要開發一種方法,通過利用相關領域的可用數據并在類似領域進一步使用它來減少獲取新標記樣本的需要和工作量。這催生了一種新的機器學習框架,稱為“遷移學習”(transfer learning):這是一種學習環境,其靈感來自于人類在不同任務間推斷知識以提高學習效率的能力。盡管有大量不同的遷移學習場景,本綜述的主要目的是提供一個特定的、可以說是最流行的遷移學習子領域——領域自適應——最新理論結果的概述。在這個子領域中,假設在訓練和測試數據之間的數據分布是變化的,而學習任務是不變的。我們提供了一個關于領域適應問題的現有結果的最新描述,它涵蓋了基于不同統計學習框架的學習范圍。

概述

遷移學習背后的思想是由人類的學習能力所激發的,這種學習能力是在很少或沒有監督的情況下根據先前獲得的知識進行的。毫不奇怪,這個概念并沒有在機器學習領域中被發明出來,因為“學習的轉移”這個概念在第一臺計算機出現之前就已經被使用了,并且在20世紀早期的心理學領域的論文中也有出現。從統計的角度來看,這種學習場景不同于監督學習,因為前者不假設訓練和測試數據必須來自相同的概率分布。有人認為,這種假設在實踐中往往過于嚴格,因為在許多現實世界的應用中,假設是在不同的環境中學習和部署的,并顯示出一個重要的轉變。在遷移移學習中經常使用的一個典型例子是考慮一個垃圾郵件過濾任務,其中垃圾郵件過濾器是使用給定用戶的公司郵箱的任意分類算法來學習的。在這種情況下,由算法分析的絕大多數電子郵件很可能是專業性質的,其中很少涉及被考慮的人的私人生活。再進一步設想這樣一種情況:同一用戶在個人計算機上安裝了郵箱軟件,并導入其公司郵箱的設置,希望它也能在其上正常工作。然而,這是不可能的,因為許多個人電子郵件可能看起來像垃圾郵件的算法學習純粹的專業通信,由于他們的內容和附件文件的差異,以及電子郵件地址的不一致性。另一個說明性的例子是海洋學研究中的物種分類,在這種分類中,人們依靠對某一海域的視頻覆蓋來識別海洋棲息地的物種。例如,在地中海和印度洋,可以在錄像中找到的魚類很可能屬于同一科,盡管由于不同的氣候和進化背景,它們的實際外觀可能非常不同。在這種情況下,如果沒有專家的專門調整,在地中海視頻覆蓋上訓練的學習算法很可能無法提供印度洋物種的正確分類。

在這種應用中,我們可能希望找到一種學習范式,這種學習范式能夠保持對不斷變化的環境的魯棒性,并通過類比和利用最初學習領域的知識來適應手邊的新問題。為了解決這個問題,對新的算法的探索,能夠在一個訓練樣本上學習,然后在一個測試樣本上有一個良好的表現,來自一個不同但相關的概率分布,從而產生了一個新的學習范式,稱為遷移學習。

表1: 本綜述中關于領域適應的學習范圍的貢獻總結。(任務)是指所考慮的學習問題;(框架)指定分析中使用的統計學習框架;(散度)是用來比較源分布和目標分布的度量;(Link)表示源誤差與散度項之間的依賴關系;(Non-estim)表示在界限中存在一個不可估計的項。

在本篇綜述中,我們對領域自適應問題的現有理論進行了概述,這種學習設置擴展了傳統的學習范式,使模型可以在來自不同但相關的概率分布的樣本上學習和部署。所引用的理論結果通常采取一種學習邊界的形式,其目標是將一個模型在訓練(也稱為源)域上的錯誤與測試(也稱為目標)域上的錯誤聯系起來。為此,我們注意到所提供的結果是非常直觀的,因為它們明確地引入了上述兩個錯誤之間的關系與它們的數據生成概率分布和相應的標記函數的相似性的依賴關系。因此,這種源域和目標域之間的雙向關聯,通過比較兩個域的邊緣分布和樣本的可能標記來描述這兩個域的無監督鄰近性,通過尋找一個相對于它們具有低誤差的良好模型。在這一主題的大多數已發表的結果中,以這樣或那樣的方式保留了這種普遍的權衡,因此可以被視為現代領域適應理論的基石。

付費5元查看完整內容
北京阿比特科技有限公司