亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

題目:* Certified Adversarial Robustness with Additive Noise

摘要:

對抗性數據實例的存在引起了深度學習社區的高度重視;相對于原始數據,這些數據似乎受到了最小程度的干擾,但從深度學習算法得到的結果卻非常不同。盡管已經考慮了開發防御模型的大量工作,但大多數此類模型都是啟發式的,并且常常容易受到自適應攻擊。人們對提供理論魯棒性保證的防御方法進行了深入的研究,但是當存在大規模模型和數據時,大多數方法都無法獲得非平凡的魯棒性。為了解決這些限制,我們引入了一個可伸縮的框架,并為構造對抗性示例提供了輸入操作規范的認證邊界。我們建立了對抗擾動的魯棒性與加性隨機噪聲之間的聯系,并提出了一種能顯著提高驗證界的訓練策略。我們對MNIST、CIFAR-10和ImageNet的評估表明,該方法可擴展到復雜的模型和大型數據集,同時對最先進的可證明防御方法具有競爭力的魯棒性。

作者簡介:

Changyou Chen是紐約州立大學布法羅分校計算機科學與工程系的助理教授,研究興趣包括貝葉斯機器學習、深度學習和深度強化學習。目前感興趣的是:大規模貝葉斯抽樣和推理、深度生成模型,如VAE和GAN、用貝葉斯方法進行深度強化學習。

付費5元查看完整內容

相關內容

題目: Smooth Adversarial Training

摘要:

人們通常認為,網絡不能兼具準確性和魯棒性,獲得魯棒性意味著失去準確性。還普遍認為,除非擴大網絡規模,否則網絡架構元素對提高對抗性的健壯性影響不大。本文通過對對抗訓練的仔細研究,提出了挑戰這些共同信念的證據。主要觀察結果是,廣泛使用的ReLU激活功能由于其不平滑的特性而大大削弱了對抗訓練。因此,提出了平滑對抗訓練(SAT),在其中我們用ReLU平滑近似代替了ReLU,以加強對抗訓練。SAT中平滑激活函數的目的是使它能夠找到更難的對抗示例,并在對抗訓練期間計算出更好的梯度更新。與標準的對抗訓練相比,SAT提高了“free”的對抗魯棒性,即準確性沒有降低,計算成本也沒有增加。例如,在不引入其他計算的情況下,SAT可將ResNet-50的魯棒性從33.0%提高到42.3%,同時還將ImageNet的準確性提高0.9%。SAT在較大的網絡上也能很好地工作:它可以幫助EfficientNet-L1在ImageNet上實現82.2%的準確性和58.6%的魯棒性,在準確性和魯棒性方面分別比以前的最新防御提高9.5%和11.6%。

付費5元查看完整內容

有噪聲矩陣補全的目的是估計一個低秩矩陣只給出部分和損壞的項。盡管在設計有效的估計算法方面取得了實質性的進展,但如何評估所獲得估計的不確定性以及如何對未知矩陣執行統計推斷(例如,為一個未見的條目構造一個有效的和短的置信區間)仍在很大程度上不清楚。這篇報告向有噪聲矩陣補全的推理和不確定性量化邁出了一步。我們開發了一個簡單的方法來補償廣泛使用的凸估計量和非凸估計量的偏差。所得到的去偏估計量承認了近乎精確的非漸近分布特征,這進而使得諸如缺失項和低秩因子的置信區間/區域的最優構造成為可能。我們的推理過程不依賴于樣本分裂,從而避免了數據效率的不必要損失。作為一個副產品,我們得到了對我們的去偏估計的估計精度的一個清晰的表征,據我們所知,這是第一個可證明實現完全統計效率(包括前置常數)的可控算法。本文的分析建立在凸和非凸優化之間的密切聯系上。

付費5元查看完整內容

題目: Algorithmic Decision Making with Conditional Fairness

摘要:

當前,公平問題已成為決策系統中備受關注的問題。人們提出了各種公平概念來衡量算法的不公平程度。在實踐中,經常存在一組我們稱為公平變量的變量,即用戶的選擇等決策前協變量。公平變量的影響與評價決策支持算法的公平性無關。因此,我們定義條件公平作為一個更健全的衡量公平的條件,對公平變量。鑒于對公平變量的不同先驗知識,我們證明了傳統的公平符號,如人口均等和均等概率,是我們的條件公平符號的特殊情況。此外,我們提出了一種可推導的條件公平性調節器(DCFR),該調節器可集成到任何決策模型中,以跟蹤算法決策精度與公平性之間的權衡。具體地說,我們在DCFR中提出了一個基于條件獨立性損失的對抗性表示來衡量不公平的程度。通過對三個真實數據集的廣泛實驗,我們證明了我們的條件公平性表示法和DCFR的優點。

付費5元查看完整內容

題目: Efficient and Scalable Bayesian Neural Nets with Rank-1 Factors

摘要:

貝葉斯神經網絡(BNNs)在提高現代深度學習的魯棒性和不確定性量化方面取得了成功。然而,它們通常在規模和參數效率上與欠擬合作斗爭。另一方面,深度集成已成為不確定性量化的替代方案,雖然在某些問題上表現優于BNNs,但也存在效率問題。目前還不清楚如何結合這兩種方法的優點并糾正它們的共同問題。為了解決這個問題,我們提出一個BNNs的秩-1參數化,其中每個權矩陣只涉及一個秩-1子空間上的分布。我們還重新使用混合近似后驗來捕獲多個模式,與典型的混合不同,這種方法允許的內存增加要小得多(例如,對于大小為10的ResNet-50混合,僅增加0.4%)。我們進行了一個系統的實證研究來改善訓練。對于ImageNet上的ResNet-50、CIFAR-10/100上的ResNet 28-10和MIMIC-III上的RNN, rank-1 BNNs在測試集和out- distribution變體上的對數似然、準確性和校準方面實現了最先進的性能。

付費5元查看完整內容

對抗攻擊的最新進展揭示了現代深層神經網絡的內在弱點。從那時起,人們就致力于通過專門的學習算法和損失函數來增強深度網絡的魯棒性。在這項工作中,我們從體系結構的角度研究了網絡體系結構的模式,這些模式對對抗攻擊具有彈性。為了獲得本研究所需的大量網絡,我們采用單次神經結構搜索,對一個大網絡進行一次訓練,然后對采樣的子網絡進行細化。采樣的結構及其實現的精度為我們的研究提供了豐富的基礎。我們的“健壯架構Odyssey”揭示了幾個有價值的觀察結果:1)緊密連接的模式提高了健壯性;2)在計算預算下,直接連接邊加入卷積運算是有效的;3)求解過程流(FSP)矩陣是網絡魯棒性的良好指標。基于這些觀察,我們發現了一系列健壯的體系結構(RobNets)。在各種數據集上,包括CIFAR、SVHN、Tiny-ImageNet和ImageNet,與其他廣泛使用的體系結構相比,RobNets具有更好的健壯性性能。值得注意的是,在白盒和黑箱攻擊下,即使參數數更少,RobNets也能顯著提高魯棒精度(~5%的絕對增益)。

付費5元查看完整內容

主題: Manifold Regularization for Adversarial Robustness

摘要: 流形正則化是一種在輸入數據的內在幾何上懲罰學習函數復雜性的技術。我們發展了一個與“局部穩定”學習函數的聯系,并提出了一個新的正則化項來訓練對一類局部擾動穩定的深度神經網絡。這些正則化器使我們能夠訓練一個網絡,使其在CIFAR-10上達到70%的最新魯棒精度,以對抗PGD敵手,使用大小為8/255的?∞擾動。此外,我們的技術不依賴于任何對抗性例子的構造,因此比對抗性訓練的標準算法運行速度快幾個數量級。

付費5元查看完整內容

題目

生成式對抗網絡先驗貝葉斯推斷,Bayesian Inference with Generative Adversarial Network Priors

關鍵字

生成對抗網絡,貝葉斯推斷,深度學習,人工智能,計算物理學,圖像處理

簡介

當兩者通過物理模型鏈接時,貝葉斯推斷被廣泛用于根據相關場的測量來推斷并量化感興趣場的不確定性。盡管有許多應用,貝葉斯推理在推斷具有大維離散表示和/或具有難以用數學表示的先驗分布的字段時仍面臨挑戰。在本手稿中,我們考慮使用對抗性生成網絡(GAN)來應對這些挑戰。 GAN是一種深層神經網絡,具有學習給定字段的多個樣本所隱含的分布的能力。一旦對這些樣本進行了訓練,GAN的生成器組件會將低維潛矢量的iid組件映射到目標場分布的近似值。在這項工作中,我們演示了如何將這種近似分布用作貝葉斯更新中的先驗,以及它如何解決與表征復雜的先驗分布和推斷字段的大范圍相關的挑戰。我們通過將其應用于熱噪聲問題中的熱傳導問題中的推斷和量化初始溫度場中的不確定性的問題,論證了該方法的有效性,該問題由稍后的溫度噪聲測量得出。

作者

Dhruv Patel, Assad A Oberai

付費5元查看完整內容

題目: Quantum Adversarial Machine Learning

摘要: 對抗性機器學習是一個新興的研究領域,主要研究機器學習方法在對抗性環境中的脆弱性,并開發相應的技術,使學習對對抗性操作具有魯棒性。它在各種機器學習應用中起著至關重要的作用,近年來引起了不同社區的極大關注。本文探討了量子機器學習中不同的對抗情境。我們發現,與基于經典神經網絡的傳統分類器類似,量子學習系統同樣容易受到精心設計的對抗性示例的攻擊,而與輸入數據是經典的還是量子的無關。特別是,我們發現,通過對原始合法樣本添加不可察覺的擾動而獲得的對抗性示例,可以最終欺騙達到接近最新精度的量子分類器。這在不同場景下的量子對抗學習中得到了明確的證明,包括對現實生活中的圖像(如數據集MNIST中的手寫數字圖像)進行分類,對物質的學習階段(如鐵磁/順磁有序和對稱保護拓撲相)進行分類,以及對量子數據進行分類。此外,我們還指出,根據手頭的對抗性例子的信息,可以設計出實用的防御策略來對抗多種不同的攻擊。我們的研究結果揭示了量子機器學習系統對各種擾動的顯著脆弱性,這不僅從理論上揭示了機器學習與量子物理學之間的聯系,而且為基于近期和未來量子技術的量子分類器的實際應用提供了有價值的指導。

付費5元查看完整內容

教程題目:Adversarial Machine Learning

教程簡介

近年來,機器學習在廣泛的行業和應用領域得到了顯著的普及。機器學習技術的許多應用本質上是對抗性的,因為其目標是將“壞的”實例與“好的”實例區分開來。事實上,對抗性的使用遠遠超出了這個簡單的分類示例:對惡意軟件的法醫分析,包括集群、異常檢測,甚至自動駕駛汽車上的視覺系統,都可能受到攻擊。針對這些問題,出現了一個關于對抗性機器學習的新興文獻,它涵蓋了對機器學習算法漏洞的分析,以及產生更健壯學習的算法技術。

本教程將從網絡安全和機器學習研究領域中廣泛調查這些問題和技術。特別考慮了對抗性分類器規避(攻擊者改變行為以避免被檢測到)和訓練數據本身已損壞的問題。還討論了逃避攻擊和中毒攻擊,首先討論了分類器,然后討論了其他學習范例和相關的防御技術。然后,我們考慮用于攻擊和防御神經網絡的專門技術,特別是專注于深度學習技術及其對逆向構建實例的脆弱性。

組織者:

Bo Li是伊利諾伊大學香檳分校計算機科學系的助理教授。她的研究興趣在于對抗性的深度學習、安全性、隱私和博弈論。她開發并分析了可伸縮的健壯學習框架,用于在對抗規避攻擊的環境中學習算法。她還分析了物理世界中對抗學習算法的行為。她是賽門鐵克研究實驗室研究生獎學金的獲得者。她于2016年獲得范德比爾特大學博士學位。

Dawn Song是加州大學伯克利分校電氣工程和計算機科學系的教授。她的研究興趣在于深度學習和安全性。她研究了計算機系統和網絡中的各種安全和隱私問題,包括從軟件安全、網絡安全、數據庫安全、分布式系統安全、應用密碼學到機器學習和安全的交叉領域。她是獲得各種獎項,包括麥克阿瑟獎學金,古根海姆獎學金,NSF事業獎,斯隆研究獎學金,麻省理工學院技術評論TR-35獎,喬治Tallman Ladd研究獎,小川基金會研究獎,李嘉誠基金會女性在科學卓越系列講座獎,教師從IBM研究獎,谷歌和其他主要科技公司,從上會議最佳論文獎。她在加州大學伯克利分校獲得了博士學位。在加入加州大學伯克利分校之前,她曾于2002年至2007年在卡內基梅隆大學(Carnegie Mellon University)擔任助理教授。

Yevgeniy Vorobeychik是圣路易斯華盛頓大學計算機科學與工程學院的副教授。此前,他是桑迪亞國家實驗室的首席研究科學家。2008年至2010年,他是賓夕法尼亞大學計算機與信息科學系的博士后研究員。他獲得了密歇根大學的計算機科學與工程博士學位(2008)和碩士學位(2004),以及西北大學的計算機工程學士學位。他的工作重點是安全與隱私的博弈論建模,對抗機器學習,算法和行為博弈論和激勵設計,優化,基于代理的建模,復雜系統,網絡科學,流行病控制。Vorobeychik博士在2017年獲得了美國國家科學基金會職業成就獎,并受邀發表了ijcai16早期職業聚焦演講。他被提名為2008年ACM博士學位論文獎,并獲得了2008年IFAAMAS杰出論文獎的榮譽獎。

教程ppt下載鏈接: 鏈接://pan.baidu.com/s/1YDWJ2lFhiLRtNDpH4YyZLg 提取碼:ccra

付費5元查看完整內容
北京阿比特科技有限公司