亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

近年來,機器學習迅速地發展,給人們帶來便利的同時,也帶來極大的安全隱患.機器學習的安全與隱私問題已經成為其發展的絆腳石.機器學習模型的訓練和預測均是基于大量的數據,而數據中可能包含敏感或隱私信息,隨著數據安全與隱私泄露事件頻發、泄露規模連年加劇,如何保證數據的安全與隱私引發科學界和工業界的廣泛關注. 首先,介紹了機器學習隱私保護中的敵手模型的概念; 其次總結機器學習在訓練和預測階段常見的安全及隱私威脅,如訓練數據的隱私泄露、投毒攻擊、對抗攻擊、隱私攻擊等.隨后介紹了常見的安全防御方法和隱私保護方法,重點介紹了同態加密技術、安全多方計算技術、差分隱私技術等,并比較了典型的方案及3種技術的適用場景.最后,展望機器學習隱私保護的未來發展趨勢和研究方向.

依托于云計算、物聯網、大數據技術的發展,以數據挖掘和深度學習為代表的人工智能技術正在改變人類社會生活,并成為先進科技應用的代表和社會關注的熱點.作為引領未來的戰略性技術,人工智能技術被世界各國紛紛提升為發展國家競爭力、維護國家安全的重大戰略.

機器學習是一種實現人工智能的方式,是近些年主要研究的領域.目前機器學習方案在很多領域都有著成熟的應用,如天氣預報、能源勘探、環境監測等,通過收集相關數據進行分析學習,可以提高這些工作的準確性;還有如在垃圾郵件檢測、個性化廣告推薦、信用卡欺詐檢測、自動駕駛、人臉識別、自然語言處理、語音識別、搜索引擎的優化等各個領域,機器學習都扮演著重要的角色.然而,蓬勃發展的機器學習技術使數據安全與隱私面臨更加嚴峻的挑戰,因為機器學習的更精準模型需要大量的訓練數據為支撐.

自2013年斯諾登的“棱鏡”事件以來,全球信息泄露規模連年加劇,引起社會的廣泛關注.2016年9月Yahoo被曝出曾被黑客盜取了至少5億個用戶賬號信息;2017年微軟Skype軟件服務遭受DDOS攻擊,導致用戶無法通過平臺進行通信;2018年3月美國《紐約時報》和英國《衛報》均報道:劍橋分析(Cambridge Analytica)數據分析公司在未經用戶許可的情況下,盜用了高達5千萬個Facebook的用戶個人資料[1].2019年美國網絡安全公司UpGuard發現上億條保存在亞馬遜AWS云計算服務器上的Facebook用戶信息記錄,可被任何人輕易地獲取;IBM在未經當事人許可的情況下,從網絡圖庫Flickr上獲得了接近100萬張照片,借此訓練人臉識別程序,并與外部研究人員分享[2].2020年4月《華盛頓郵報》報道視頻會議軟件Zoom存在的重大安全漏洞:數以萬計的私人Zoom視頻被上傳至公開網頁,任何人都可在線圍觀,很多視頻都包含個人可識別信息,甚至是在家里進行的私密談話[3].信息泄露的途徑主要分為內部人員或第三方合作伙伴泄露、信息系統無法杜絕的漏洞、機構本身的防護機制不健全、對數據的重要程度不敏感,以及對安全配置的疏忽大意等.可見,數據隱私的泄露已不單單是滿足某些外部人員好奇心所驅使,而是已成為一種重要的商業獲利而被廣泛關注,其中不乏內外勾結、合謀獲取用戶的隱私等行為.

//crad.ict.ac.cn/CN/10.7544/issn1000-1239.2020.20200426

付費5元查看完整內容

相關內容

“機器學習是近20多年興起的一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法復雜度理論等多門學科。機器學習理論主要是設計和分析一些讓 可以自動“ ”的算法。機器學習算法是一類從數據中自動分析獲得規律,并利用規律對未知數據進行預測的算法。因為學習算法中涉及了大量的統計學理論,機器學習與統計推斷學聯系尤為密切,也被稱為統計學習理論。算法設計方面,機器學習理論關注可以實現的,行之有效的學習算法。很多 問題屬于 ,所以部分的機器學習研究是開發容易處理的近似算法。” ——中文維基百科

知識薈萃

精品入門和進階教程、論文和代碼整理等

更多

查看相關VIP內容、論文、資訊等

隨著數據越來越多地存儲在不同的筒倉中,社會越來越關注數據隱私問題,傳統的人工智能(AI)模型集中訓練正面臨效率和隱私方面的挑戰。最近,聯邦學習(FL)作為一種替代解決方案出現,并在這種新的現實中繼續蓬勃發展。現有的FL協議設計已經被證明對系統內外的對抗是脆弱的,危及數據隱私和系統的魯棒性。除了訓練強大的全局模型外,最重要的是設計具有隱私保障和抵抗不同類型對手的FL系統。在本文中,我們對這一問題進行了第一次全面的綜述。通過對FL概念的簡明介紹,和一個獨特的分類涵蓋:1) 威脅模型; 2) 中毒攻擊與魯棒性防御; 3) 對隱私的推理攻擊和防御,我們提供了這一重要主題的可訪問的回顧。我們強調了各種攻擊和防御所采用的直覺、關鍵技術和基本假設。最后,我們對魯棒性和隱私保護聯合學習的未來研究方向進行了討論。

//www.zhuanzhi.ai/paper/678e6e386bbefa8076e699ebd9fd8c2a

引言

隨著計算設備變得越來越普遍,人們在日常使用中產生了大量的數據。將這樣的數據收集到集中的存儲設施中既昂貴又耗時。傳統的集中式機器學習(ML)方法不能支持這種普遍存在的部署和應用,這是由于基礎設施的缺點,如有限的通信帶寬、間歇性的網絡連接和嚴格的延遲約束[1]。另一個關鍵問題是數據隱私和用戶機密性,因為使用數據通常包含敏感信息[2]。面部圖像、基于位置的服務或健康信息等敏感數據可用于有針對性的社交廣告和推薦,造成即時或潛在的隱私風險。因此,私人數據不應該在沒有任何隱私考慮的情況下直接共享。隨著社會對隱私保護意識的增強,《通用數據保護條例》(GDPR)等法律限制正在出現,這使得數據聚合實踐變得不那么可行。

在這種情況下,聯邦學習(FL)(也被稱為協作學習)將模型訓練分發到數據來源的設備上,作為一種有前景的ML范式[4]出現了。FL使多個參與者能夠構建一個聯合ML模型,而不暴露他們的私人訓練數據[4],[5]。它還可以處理不平衡、非獨立和同分布(非i.i.d)數據,這些數據自然出現在真實的[6]世界中。近年來,FL獲得了廣泛的應用,如下一個單詞預測[6]、[7]、安全視覺目標檢測[8]、實體解析[9]等。

根據參與者之間數據特征和數據樣本的分布,聯邦學習一般可以分為水平聯邦學習(HFL)、垂直聯邦學習(VFL)和聯邦遷移學習(FTL)[10]。

具有同構體系結構的FL: 共享模型更新通常僅限于同構的FL體系結構,也就是說,相同的模型被所有參與者共享。參與者的目標是共同學習一個更準確的模型。具有異構架構的FL: 最近的努力擴展了FL,以協同訓練具有異構架構的模型[15],[16]。

FL提供了一個關注隱私的模型訓練的范式,它不需要數據共享,并且允許參與者自由地加入和離開聯盟。然而,最近的研究表明,FL可能并不總是提供足夠的隱私和健壯性保證。現有的FL協議設計容易受到以下攻擊: (1)惡意服務器試圖從個人更新中推斷敏感信息,篡改訓練過程或控制參與者對全局參數的看法;或者(2)一個敵對的參與者推斷其他參與者的敏感信息,篡改全局參數聚合或破壞全局模型。

在隱私泄露方面,在整個訓練過程中,通信模型的更新會泄露敏感信息[18]、[19],并導致深度泄露[20],無論是對第三方服務器還是中央服務器[7]、[21]。例如,如[22]所示,即使是很小一部分的梯度也可以揭示相當數量的有關本地數據的敏感信息。最近的研究表明,通過簡單地觀察梯度,惡意攻擊者可以在[20],[23]幾次迭代內竊取訓練數據。

在魯棒性方面,FL系統容易受到[24]、[25]和[26]、[27]、[28]、[29]的模型中毒攻擊。惡意參與者可以攻擊全局模型的收斂性,或者通過故意改變其本地數據(數據中毒)或梯度上傳(模型中毒)將后門觸發器植入全局模型。模型投毒攻擊可以進一步分為:(1)Byzantine 攻擊,攻擊者的目標是破壞全局模型[13]、[30]的收斂性和性能;(2)后門攻擊,對手的目標是在全局模型中植入一個后門觸發器,以欺騙模型不斷預測子任務上的敵對類,同時在主要任務[26],[27]上保持良好的性能。需要注意的是,后門模型投毒攻擊通常利用數據投毒來獲取有毒的參數更新[24]、[26]、[27]。

這些隱私和魯棒性攻擊對FL構成了重大威脅。在集中學習中,服務器控制參與者的隱私和模型魯棒性。然而,在FL中,任何參與者都可以攻擊服務器并監視其他參與者,有時甚至不涉及服務器。因此,理解這些隱私性和健壯性攻擊背后的原理是很重要的。

目前對FL的研究主要集中在系統/協議設計[10]、[31]、[32]。聯邦學習的隱私和穩健性威脅還沒有得到很好的探討。在本文中,我們調研了FL的隱私和魯棒性威脅及其防御方面的最新進展。特別地,我們關注由FL系統內部者發起的兩種特定威脅:1) 試圖阻止學習全局模型的中毒攻擊,或控制全局模型行為的植入觸發器;2) 試圖泄露其他參與者隱私信息的推理攻擊。表2總結了這些攻擊的特性。

付費5元查看完整內容

聯邦學習是一種新型的分布式學習框架,它允許在多個參與者之間共享訓練數據而不會泄露其數據隱私。但是這種新穎的學習機制仍然可能受到來自各種攻擊者的前所未有的安全和隱私威脅。本文主要探討聯邦學習在安全和隱私方面面臨的挑戰。首先,本文介紹了聯邦學習的基本概念和威脅模型,有助于理解其面臨的攻擊。其次,本文總結了由內部惡意實體發起的3種攻擊類型,同時分析了聯邦學習體系結構的安全漏洞和隱私漏洞。然后從差分隱私、同態密碼系統和安全多方聚合等方面研究了目前最先進的防御方案。最后通過對這些解決方案的總結和比較,進一步討論了該領域未來的發展方向。

//jnuaa.nuaa.edu.cn/ch/reader/create_pdf.aspx?file_no=202005001&flag=1&journal_id=njhkht&year_id=2020

付費5元查看完整內容

在大數據時代下,深度學習、強化學習以及分布式學習等理論和技術取得的突破性進展,為機器學習提供了數據和算法層面的強有力支撐,同時促進了機器學習的規模化和產業化發展.然而,盡管機器學習模型在現實應用中有著出色的表現,但其本身仍然面臨著諸多的安全威脅.機器學習在數據層、模型層以及應用層面臨的安全和隱私威脅呈現出多樣性、隱蔽性和動態演化的特點.機器學習的安全和隱私問題吸引了學術界和工業界的廣泛關注,一大批學者分別從攻擊和防御的角度對模型的安全和隱私問題進行了深入的研究,并且提出了一系列的攻防方法. 在本綜述中,我們回顧了機器學習的安全和隱私問題,并對現有的研究工作進行了系統的總結和科學的歸納,同時明確了當前研究的優勢和不足. 最后,我們探討了機器學習模型安全與隱私保護研究當前所面臨的挑戰以及未來潛在的研究方向,旨在為后續學者進一步推動機器學習模型安全與隱私保護研究的發展和應用提供指導.

//www.jos.org.cn/jos/ch/reader/view_abstract.aspx?file_no=6131&flag=1

付費5元查看完整內容

數據孤島以及模型訓練和應用過程中的隱私泄露是當下阻礙人工智能技術發展的主要難題。聯邦學習作為一種高效的隱私保護手段應運而生。聯邦學習是一種分布式的機器學習方法,以在不直接獲取數據源的基礎上,通過參與方的本地訓練與參數傳遞,訓練出一個無損的學習模型。但聯邦學習中也存在較多的安全隱患。本文著重分析了聯邦學習中的投毒攻擊、對抗攻擊以及隱私泄露三種主要的安全威脅,針對性地總結了最新的防御措施,并提出了相應的解決思路。

付費5元查看完整內容

最近,在自然語言處理(NLP)中構建通用語言模型(如谷歌的Bert和OpenAI的GPT-2)用于文本特征提取的新范式出現了。對于下游建模,已經出現并開始在各種下游NLP任務和現實世界系統(例如,谷歌的搜索引擎)中發現它的應用。為了獲得通用的文本嵌入,這些語言模型具有高度復雜的體系結構,具有數百萬個可學習的參數,通常在使用之前對數十億個句子進行預處理。眾所周知,這種做法確實提高了許多下游NLP任務的最新性能。但是,改進的實用程序不是免費的。我們發現,通用語言模型中的文本嵌入會從純文本中捕獲很多敏感信息。一旦被對手訪問,嵌入信息可以被反向設計,以披露受害者的敏感信息,以進行進一步的騷擾。盡管這樣的隱私風險可能會對這些有前途的NLP工具的未來影響造成真正的威脅,但是目前還沒有針對主流行業級語言模型的公開攻擊或系統評估。為了彌補這一差距,我們首次系統地研究了8種最先進的語言模型和4個不同的案例。通過構建兩個新的攻擊類,我們的研究表明上述隱私風險確實存在,并可能對通用語言模型在身份、基因組、醫療保健和位置等敏感數據上的應用造成實際威脅。例如,當我們從病人的醫療描述的Bert embeddings中推斷出精確的疾病位置時,我們向幾乎沒有先驗知識的對手展示了大約75%的準確性。作為可能的對策,我們提出了4種不同的防御(通過舍入、差異隱私、對抗性訓練和子空間投影)來混淆無保護的嵌入,以達到緩解的目的。在廣泛評估的基礎上,我們還對每一種防御所帶來的效用-隱私權衡進行了初步分析,希望能對未來的緩解研究有所幫助。

付費5元查看完整內容

題目: 機器學習的隱私保護研究綜述

簡介:

大規模數據收集大幅提升了機器學習算法的性能,實現了經濟效益和社會效益的共贏,但也令個人隱私保護面臨更大的風險與挑戰.機器學習的訓練模式主要分為集中學習和聯邦學習2類,前者在模型訓練前需統一收集各方數據,盡管易于部署,卻存在極大數據隱私與安全隱患;后者實現了將各方數據保留在本地的同時進行模型訓練,但該方式目前正處于研究的起步階段,無論在技術還是部署中仍面臨諸多問題與挑戰.現有的隱私保護技術研究大致分為2條主線,即以同態加密和安全多方計算為代表的加密方法和以差分隱私為代表的擾動方法,二者各有利弊.為綜述當前機器學習的隱私問題,并對現有隱私保護研究工作進行梳理和總結,首先分別針對傳統機器學習和深度學習2類情況,探討集中學習下差分隱私保護的算法設計;之后概述聯邦學習中存的隱私問題及保護方法;最后總結目前隱私保護中面臨的主要挑戰,并著重指出隱私保護與模型可解釋性研究、數據透明之間的問題與聯系.

付費5元查看完整內容

主題: Federated Learning: User Privacy, Data Security and Confidentiality in Machine Learning

摘要: 盡管人工智能(AI)目前取得了巨大的進步,但它在高質量大數據的獲取方面面臨著嚴峻的挑戰。在許多實際應用中,數據是以孤立島的形式存在的。整合數據的工作越來越困難,部分原因是對用戶隱私和數據安全的嚴重關切。本次演講將回顧這些挑戰,并描述解決這些挑戰的可能技術解決方案,并將概述遷移學習的最新進展,并展示它如何緩解數據短缺的問題。

邀請嘉賓: Qiang Yang,香港科技大學計算機科學與工程系的客座教授。他的研究興趣包括人工智能、機器學習,特別是遷移移學習。他是AAAI、ACM、IEEE、AAAS等的研究員,《智能系統與技術》(ACM-TIST)的創始主編,《大數據》(IEEE-TBD)的創始主編。1989年,他在馬里蘭大學帕克分校獲得博士學位,曾在滑鐵盧大學和西蒙·弗雷澤大學任教。他是IJCAI-2015的PC主席,并于2017年獲得ACM SIGKDD杰出服務獎。他是IJCAI現任總裁(2017-2019年)和AAAI執行委員會成員。

付費5元查看完整內容
北京阿比特科技有限公司