亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

使用軟件會暴露容易受到攻擊并造成嚴重后果的漏洞。雖然存在許多不同的漏洞,但其后果分為少數幾類。本文解釋了攻擊機器學習 (ML) 漏洞的后果如何歸入這些相同類別。然后將這些后果與特定于 ML 的攻擊、它們發生的上下文以及已建立的緩解它們的方法保持一致。這些防御性對策可以支持系統 ML 元素的安全性,并更大程度地保證使用 ML 的系統將按計劃運行。

本文提供了一種系統方法來解決使用 ML 的系統的攻擊、后果和緩解措施。它解釋了 ML 技術生命周期中的每一個問題,清楚地解釋了要擔心什么、何時擔心以及如何減輕它,同時假設對 ML 細節了解很少

描述了軟件系統通常面臨的損害類型,并將它們與采用機器學習的系統所特有的公認后果類別聯系起來。然后,我們解釋導致這些后果的攻擊向量。然后,我們在最廣泛的類別中描述 ML 本身,包括從開始到部署和執行的生命周期。然后,我們確定生命周期中存在哪些漏洞,這些漏洞允許威脅對系統發起針對 ML 的攻擊。然后,我們通過不同的示例對 ML 漏洞、攻擊和緩解措施進行更深入的檢查。

了解 ML 系統的生命周期(其中漏洞存在于生命周期中)以及攻擊利用這些漏洞可能造成的損害,可以對采用 ML 所產生的風險進行明智的評估。我們對 ML 漏洞、攻擊和緩解措施的討論利用了 NISTIR 8269 文件中中開發的分類法。主要出發點在于將這些概念映射到我們在第 6 節中闡述的 ML 生命周期以及我們對 ML 安全性的系統方法的討論。

付費5元查看完整內容

相關內容

概述

美政府問責局(GAO)日前發布報告《人工智能:國防部應改進策略和流程并加強協作指導》。該報告通過評估2018年《國防部人工智能戰略》,發現其存在片面性的一些特征,如九項人工智能相關戰略計劃“不包括與采用AI技術相關的資源、投資和風險的完整描述”等,呼吁國防部制定更全面的人工智能戰略,以使其更好地定位、問責和負責任地使用該技術。該報告還向國防部提出以下建議:發布含AI戰略所有特征的指南、建立定期審查國防部AI戰略的程序;開發含所有需求的高級計劃或路線圖;發布指南和協議,定義該機構在AI活動中的領導和參與者的責任等

背景

GAO的發現

2018 年國防部 (DOD) 人工智能 (AI) 戰略將 AI 定義為機器執行通常需要人類智能的任務的能力。戰略和相關計劃包括綜合戰略的一些(但不是全部)特征。 例如,國防部的九項人工智能相關戰略和計劃不包括對資源和投資以及與采用人工智能技術相關風險的完整描述(見圖)。發布指南以在未來與人工智能相關的戰略中包含綜合戰略的所有特征,可以幫助國防部更好地幫助管理人員確保問責制和負責任地使用人工智能。

國防部人工智能相關戰略和計劃的評估

國防部已開始識別和報告其 AI 活動,但其 AI 基線清單存在限制,例如排除機密活動。國防部官員表示,這些限制將在人工智能活動識別過程的后續階段得到解決。然而,國防部還沒有制定一個涵蓋所有需求和里程碑的高級計劃或路線圖。這樣的計劃將為國防部提供實現該計劃目標所需的所有功能的高級、端到端視圖,以向國會和國防部決策者提供完整和準確的人工智能活動清單。

國防部組織在人工智能活動上進行協作,但可以更充分地整合領先的協作實踐。國防部使用 GAO 先前工作已經確定的各種正式和非正式協作機制,例如跨部門小組。國防部已部分納入領先的協作實踐,例如識別領導力。然而,國防部官員告訴我們,他們正在制定指南和協議,明確定義參與人工智能活動的國防部組件的角色和職責。通過最終確定和發布此類指南,國防部可以幫助確保所有參與者就整個部門的人工智能工作的責任和決策達成一致。

為什么 GAO 做這項研究

國防部戰略指出,人工智能將改變戰爭的性質,不采用人工智能技術可能會阻礙作戰人員保衛我們國家的能力。國防部正在進行組織變革并投資數十億美元來整合人工智能技術,例如建立聯合人工智能中心以加速在整個國防部提供人工智能能力。

伴隨 2021 財年國防授權法案的眾議院報告 116-442,以及讓 GAO 評估國防部的資源、能力和人工智能技術計劃的規定。本報告評估了 (1) 國防部的人工智能戰略和相關計劃,包括綜合戰略的特征;(2) 國防部已確定并報告了整個部門的人工智能活動情況;(3) 國防部在其人工智能活動上的合作情況。GAO 審查了相關法律和國防部戰略,概述了整個部門管理人工智能的計劃和流程,采訪了官員,并進行了全部門調查。這是 GAO 于 2022 年 2 月發布的敏感報告的公開版本。國防部認為敏感的信息已被省略

付費5元查看完整內容

美國衛生與公眾服務部發布了其人工智能手冊,以提供有關可信賴人工智能的高級信息以及在其典型生命周期中部署人工智能的指導。

該手冊旨在指導HHS領導層圍繞TAI制定政策,并評估與AI投資相關的風險,同時也強調了項目和項目經理如何恰當地將其納入,在構建AI解決方案之前與團隊合作,監督項目的整個生命周期,并降低風險

該手冊沒有鞏固正式的政策或標準,而是為人工智能的采用描繪了一個大致的框架,以推廣白宮的人工智能原則,集中相關的聯邦和非聯邦資源,并為人工智能的整個生命周期和未來的使用設置一個智能采用的框架。

該手冊強調了應在“人工智能項目的所有階段”應用的六條原則,呼吁衛生與公眾服務部把握好人工智能公平、公正、透明、可解釋、負責任、健壯、可靠、安全、保護隱私。

從這些原則出發,該手冊著眼于整個人工智能生命周期,從啟動和概念到部署和運營維護,以強調如何將這些原則應用于人工智能采用的常見和關鍵步驟。

該手冊提供了生命周期各個階段的各種用例,以說明如何在設計解決方案和評估模型風險因素等步驟中應用這些原則。這些用例包括自動化醫療文檔處理、用于醫療賬單欺詐檢測的人工智能、用于客戶服務的聊天機器人等

有了該手冊,HHS 將在 2022 年專注于圍繞人工智能的進一步合作和對話。其中包括:

  • 培養 HHS AI 實踐社區
  • 為 HHS 人員舉辦進一步的 AI 午餐和學習課程
  • 成立 HHS AI 委員會以執行 HHS AI 戰略
  • 根據需要擴展劇本以促進道德和值得信賴的人工智能
  • 開發 AI 用例清單
付費5元查看完整內容

機器學習正在醫療健康等各種關鍵應用得到實施。為了能夠信任機器學習模型,并在它出現故障時修復它,能夠解釋它的決策是很重要的。例如,如果一個模型在特定的子群體(性別、種族等)上的表現很差,找出原因并解決它是很重要的。在本文中,我們研究了現有可解釋性方法的不足,并介紹了新的ML可解釋性算法,旨在解決一些不足。數據是訓練機器學習模型的材料。如果不返回最初訓練ML模型的數據,就不可能解釋ML模型的行為。一個基本的挑戰是如何量化每個數據源對模型性能的貢獻。例如,在醫療健康和消費市場,有人提出個人應因其產生的數據而得到補償,但對個人數據的公平估值尚不清楚。在本文中,我們討論了數據公平價值評估的原則框架; 也就是說,給定一個學習算法和一個性能度量來量化結果模型的性能,我們試圖找到單個數據的貢獻。本論文分為3個部分,機器學習的可解釋性和公平性,數據估值,以及用于醫療健康的機器學習——所有這些都被一個共同的目標聯系在一起,即使機器學習的使用對人類的福祉更負責。

//searchworks.stanford.edu/view/13874839

付費5元查看完整內容

本文回顧了機器學習中的隱私挑戰,并提供了相關研究文獻的關鍵概述。討論了可能的對抗性模型,討論了與敏感信息泄漏相關的廣泛攻擊,并突出了幾個開放的問題。

//ieeexplore.ieee.org/document/9433648

引言

像谷歌、微軟和亞馬遜這樣的供應商為客戶提供軟件接口,方便地將機器學習(ML)任務嵌入他們的應用程序。總的來說,機構可以使用ML-as-a-service (MLaaS)引擎來處理復雜的任務,例如訓練分類器、執行預測等。他們還可以讓其他人查詢根據他們的數據訓練的模型。當然,這種方法也可以用于其他環境,包括政府協作、公民科學項目和企業對企業的伙伴關系。不幸的是,如果惡意用戶恢復用于訓練這些模型的數據,由此產生的信息泄漏將產生嚴重的問題。同樣地,如果模型的參數是秘密的或被認為是專有的信息,那么對模型的訪問不應該讓對手知道這些參數。在這篇文章中,我們研究了這一領域的隱私挑戰,并對相關的研究文獻進行了系統的回顧。

我們討論的是可能的對抗性模型和設置,其中涵蓋了與私人和/或敏感信息泄漏相關的廣泛攻擊,并簡要調研了最近的結果,試圖防止此類攻擊。最后,我們提出了一個需要更多工作的開放式問題列表,包括需要更好的評估、有針對性的防御,以及研究與策略和數據保護工作的關系。

機器學習隱私

任何系統的安全性都是根據其設計用來防御的敵對目標和能力來衡量的;為此目的,現在討論了不同的威脅模型。然后,本文試圖在ML中提供隱私的定義,重點討論在“攻擊”一節中詳細討論的不同類型的攻擊。

總的來說,我們關注的是模型的隱私。(注意,對抗樣例和整體魯棒性問題超出了本文的范圍。)在本節中,將討論與提取有關模型或訓練數據的信息相關的對抗目標。

當模型本身代表知識產權時,例如在金融市場系統中,模型及其參數應保持私有。在其他情況下,必須保存訓練數據的隱私,例如在醫療應用中。無論目標是什么,攻擊和防御都與暴露或防止暴露模型和訓練數據有關。

攻擊者可能擁有的訪問類型可以是: ■ 白盒,其中對手有關于模型或其原始訓練數據的一些信息,如ML算法、模型參數或網絡結構;或者總結、部分或全部的培訓數據。 ■ 黑盒,對手對模型一無所知。相反,他/她可以通過提供一系列精心設計的輸入和觀察輸出來探索一個模型。

一個需要考慮的變量是攻擊可能發生的時候:

■ 訓練階段: 在這個階段,對手試圖學習模型,例如,訪問摘要、部分或全部訓練數據。他/她可能會創建一個替代模型(也稱為輔助模型)來對受害者的系統進行攻擊。

■ 推理階段: 在這個階段,對手通過觀察模型的推理來收集關于模型特征的證據。

最后,我們可以區分被動攻擊和主動攻擊:

■ 被動攻擊: 在這種類型的攻擊中,對手被動地觀察更新并執行推理,例如,不改變訓練過程中的任何東西。

■ 主動攻擊: 在這種類型的攻擊中,對手主動改變他/她的操作方式,例如,在聯邦學習的情況下,通過使用連接到最后一層的增強屬性分類器擴展他們的協作訓練模型的本地副本。

付費5元查看完整內容

摘要: 以深度學習為主要代表的人工智能技術正在悄然改變人們的生產生活方式,但深度學習模型的部署也帶來了一定的安全隱患.研究針對深度學習模型的攻防分析基礎理論與關鍵技術,對深刻理解模型內在脆弱性、全面保障智能系統安全性、廣泛部署人工智能應用具有重要意義. 擬從對抗的角度出發,探討針對深度學習模型的攻擊與防御技術進展和未來挑戰. 首先介紹了深度學習生命周期不同階段所面臨的安全威脅.然后從對抗性攻擊生成機理分析、對抗性攻擊生成、對抗攻擊的防御策略設計、對抗性攻擊與防御框架構建4個方面對現有工作進行系統的總結和歸納. 還討論了現有研究的局限性并提出了針對深度學習模型攻防的基本框架.最后討論了針對深度學習模型的對抗性攻擊與防御未來的研究方向和面臨的技術挑戰.

//crad.ict.ac.cn/CN/10.7544/issn1000-1239.2021.20200920

付費5元查看完整內容

隨著數據越來越多地存儲在不同的筒倉中,社會越來越關注數據隱私問題,傳統的人工智能(AI)模型集中訓練正面臨效率和隱私方面的挑戰。最近,聯邦學習(FL)作為一種替代解決方案出現,并在這種新的現實中繼續蓬勃發展。現有的FL協議設計已經被證明對系統內外的對抗是脆弱的,危及數據隱私和系統的魯棒性。除了訓練強大的全局模型外,最重要的是設計具有隱私保障和抵抗不同類型對手的FL系統。在本文中,我們對這一問題進行了第一次全面的綜述。通過對FL概念的簡明介紹,和一個獨特的分類涵蓋:1) 威脅模型; 2) 中毒攻擊與魯棒性防御; 3) 對隱私的推理攻擊和防御,我們提供了這一重要主題的可訪問的回顧。我們強調了各種攻擊和防御所采用的直覺、關鍵技術和基本假設。最后,我們對魯棒性和隱私保護聯合學習的未來研究方向進行了討論。

//www.zhuanzhi.ai/paper/678e6e386bbefa8076e699ebd9fd8c2a

引言

隨著計算設備變得越來越普遍,人們在日常使用中產生了大量的數據。將這樣的數據收集到集中的存儲設施中既昂貴又耗時。傳統的集中式機器學習(ML)方法不能支持這種普遍存在的部署和應用,這是由于基礎設施的缺點,如有限的通信帶寬、間歇性的網絡連接和嚴格的延遲約束[1]。另一個關鍵問題是數據隱私和用戶機密性,因為使用數據通常包含敏感信息[2]。面部圖像、基于位置的服務或健康信息等敏感數據可用于有針對性的社交廣告和推薦,造成即時或潛在的隱私風險。因此,私人數據不應該在沒有任何隱私考慮的情況下直接共享。隨著社會對隱私保護意識的增強,《通用數據保護條例》(GDPR)等法律限制正在出現,這使得數據聚合實踐變得不那么可行。

在這種情況下,聯邦學習(FL)(也被稱為協作學習)將模型訓練分發到數據來源的設備上,作為一種有前景的ML范式[4]出現了。FL使多個參與者能夠構建一個聯合ML模型,而不暴露他們的私人訓練數據[4],[5]。它還可以處理不平衡、非獨立和同分布(非i.i.d)數據,這些數據自然出現在真實的[6]世界中。近年來,FL獲得了廣泛的應用,如下一個單詞預測[6]、[7]、安全視覺目標檢測[8]、實體解析[9]等。

根據參與者之間數據特征和數據樣本的分布,聯邦學習一般可以分為水平聯邦學習(HFL)、垂直聯邦學習(VFL)和聯邦遷移學習(FTL)[10]。

具有同構體系結構的FL: 共享模型更新通常僅限于同構的FL體系結構,也就是說,相同的模型被所有參與者共享。參與者的目標是共同學習一個更準確的模型。具有異構架構的FL: 最近的努力擴展了FL,以協同訓練具有異構架構的模型[15],[16]。

FL提供了一個關注隱私的模型訓練的范式,它不需要數據共享,并且允許參與者自由地加入和離開聯盟。然而,最近的研究表明,FL可能并不總是提供足夠的隱私和健壯性保證。現有的FL協議設計容易受到以下攻擊: (1)惡意服務器試圖從個人更新中推斷敏感信息,篡改訓練過程或控制參與者對全局參數的看法;或者(2)一個敵對的參與者推斷其他參與者的敏感信息,篡改全局參數聚合或破壞全局模型。

在隱私泄露方面,在整個訓練過程中,通信模型的更新會泄露敏感信息[18]、[19],并導致深度泄露[20],無論是對第三方服務器還是中央服務器[7]、[21]。例如,如[22]所示,即使是很小一部分的梯度也可以揭示相當數量的有關本地數據的敏感信息。最近的研究表明,通過簡單地觀察梯度,惡意攻擊者可以在[20],[23]幾次迭代內竊取訓練數據。

在魯棒性方面,FL系統容易受到[24]、[25]和[26]、[27]、[28]、[29]的模型中毒攻擊。惡意參與者可以攻擊全局模型的收斂性,或者通過故意改變其本地數據(數據中毒)或梯度上傳(模型中毒)將后門觸發器植入全局模型。模型投毒攻擊可以進一步分為:(1)Byzantine 攻擊,攻擊者的目標是破壞全局模型[13]、[30]的收斂性和性能;(2)后門攻擊,對手的目標是在全局模型中植入一個后門觸發器,以欺騙模型不斷預測子任務上的敵對類,同時在主要任務[26],[27]上保持良好的性能。需要注意的是,后門模型投毒攻擊通常利用數據投毒來獲取有毒的參數更新[24]、[26]、[27]。

這些隱私和魯棒性攻擊對FL構成了重大威脅。在集中學習中,服務器控制參與者的隱私和模型魯棒性。然而,在FL中,任何參與者都可以攻擊服務器并監視其他參與者,有時甚至不涉及服務器。因此,理解這些隱私性和健壯性攻擊背后的原理是很重要的。

目前對FL的研究主要集中在系統/協議設計[10]、[31]、[32]。聯邦學習的隱私和穩健性威脅還沒有得到很好的探討。在本文中,我們調研了FL的隱私和魯棒性威脅及其防御方面的最新進展。特別地,我們關注由FL系統內部者發起的兩種特定威脅:1) 試圖阻止學習全局模型的中毒攻擊,或控制全局模型行為的植入觸發器;2) 試圖泄露其他參與者隱私信息的推理攻擊。表2總結了這些攻擊的特性。

付費5元查看完整內容

機器學習在許多部署的決策系統中發揮著作用,其方式通常是人類利益相關者難以理解或不可能理解的。以一種人類可以理解的方式解釋機器學習模型的輸入和輸出之間的關系,對于開發可信的基于機器學習的系統是至關重要的。一個新興的研究機構試圖定義機器學習的目標和解釋方法。在本文中,我們試圖對反事實解釋的研究進行回顧和分類,這是一種特殊類型的解釋,它提供了在模型輸入以特定方式改變時可能發生的事情之間的聯系。機器學習中反事實可解釋性的現代方法與許多國家的既定法律原則相聯系,這使它們吸引了金融和醫療等高影響力領域的實地系統。因此,我們設計了一個具有反事實解釋算法理想性質的準則,并對目前提出的所有反事實解釋算法進行了綜合評價。我們的標題便于比較和理解不同方法的優缺點,并介紹了該領域的主要研究主題。我們也指出了在反事實解釋空間的差距和討論了有前途的研究方向。

機器學習作為一種在許多領域實現大規模自動化的有效工具,正日益被人們所接受。算法能夠從數據中學習,以發現模式并支持決策,而不是手工設計的規則。這些決定可以并確實直接或間接地影響人類;備受關注的案例包括信貸貸款[99]、人才資源[97]、假釋[102]和醫療[46]的申請。在機器學習社區中,新生的公平、責任、透明度和倫理(命運)已經成為一個多學科的研究人員和行業從業人員的團體,他們感興趣的是開發技術來檢測機器學習模型中的偏見,開發算法來抵消這種偏見,為機器決策生成人類可理解的解釋,讓組織為不公平的決策負責,等等。

對于機器決策,人類可以理解的解釋在幾個方面都有優勢。例如,關注一個申請貸款的申請人的用例,好處包括:

  • 對于生活受到該決定影響的申請人來說,解釋是有益的。例如,它幫助申請人理解他們的哪些因素是做出決定的關鍵因素。

  • 此外,如果申請人覺得受到了不公平待遇,例如,如果一個人的種族在決定結果時至關重要,它還可以幫助申請人對決定提出質疑。這對于組織檢查其算法中的偏見也很有用。

  • 在某些情況下,解釋為申請人提供了反饋,他們可以根據這些反饋采取行動,在未來的時間內獲得預期的結果。

  • 解釋可以幫助機器學習模型開發人員識別、檢測和修復錯誤和其他性能問題。

  • 解釋有助于遵守與機器生產決策相關的法律,如GDPR[10]。

機器學習中的可解釋性大體上是指使用固有的可解釋的透明模型或為不透明模型生成事后解釋。前者的例子包括線性/邏輯回歸、決策樹、規則集等。后者的例子包括隨機森林、支持向量機(SVMs)和神經網絡。

事后解釋方法既可以是模型特定的,也可以是模型不可知的。特征重要性解釋和模型簡化是兩種廣泛的特定于模型的方法。與模型無關的方法可以分為視覺解釋、局部解釋、特性重要性和模型簡化。

特征重要性(Feature importance)是指對模型的整體精度或某個特定決策最有影響的特征,例如SHAP[80]、QII[27]。模型簡化找到了一個可解釋的模型,該模型緊致地模仿了不透明模型。依存圖是一種常用的直觀解釋,如部分依存圖[51]、累積局部效應圖[14]、個體條件期望圖[53]。他們將模型預測的變化繪制成一個特征,或者多個特征被改變。局部解釋不同于其他解釋方法,因為它們只解釋一個預測。局部解釋可以進一步分為近似解釋和基于實例的解釋。近似方法在模型預測需要解釋的數據點附近抽取新的數據點(以下稱為explainee數據點),然后擬合線性模型(如LIME[92])或從中提取規則集(如錨[93])。基于實例的方法尋求在被解釋數據點附近找到數據點。它們要么以與被解釋數據點具有相同預測的數據點的形式提供解釋,要么以預測與被解釋數據點不同的數據點的形式提供解釋。請注意,后一種數據點仍然接近于被解釋的數據點,被稱為“反事實解釋”。

回想一下申請貸款的申請人的用例。對于貸款請求被拒絕的個人,反事實的解釋為他們提供反饋,幫助他們改變自己的特征,以過渡到決策邊界的理想一面,即獲得貸款。這樣的反饋被稱為可執行的。與其他幾種解釋技術不同,反事實解釋不能明確回答決策中的“為什么”部分;相反,他們提供建議以達到預期的結果。反事實解釋也適用于黑箱模型(只有模型的預測功能是可訪問的),因此不限制模型的復雜性,也不要求模型披露。它們也不一定能近似底層模型,從而產生準確的反饋。由于反事實解釋具有直覺性,因此也符合法律框架的規定(見附錄C)。

在這項工作中,我們收集、審查和分類了最近的39篇論文,提出了算法,以產生機器學習模型的反事實解釋。這些方法大多集中在表格或基于圖像的數據集上。我們在附錄b中描述了我們為這項調查收集論文的方法。我們描述了這個領域最近的研究主題,并將收集的論文按照有效的反事實解釋的固定需求進行分類(見表1)。

付費5元查看完整內容

隨著高計算設備的發展,深度神經網絡(DNNs)近年來在人工智能(AI)領域得到了廣泛的應用。然而,之前的研究表明,DNN在經過策略性修改的樣本(稱為對抗性樣本)面前是脆弱的。這些樣本是由一些不易察覺的擾動產生的,但可以欺騙DNN做出錯誤的預測。受圖像DNNs中生成對抗性示例的流行啟發,近年來出現了針對文本應用的攻擊DNNs的研究工作。然而,現有的圖像擾動方法不能直接應用于文本,因為文本數據是離散的。在這篇文章中,我們回顧了針對這一差異的研究工作,并產生了關于DNN的電子對抗實例。我們對這些作品進行了全面的收集、選擇、總結、討論和分析,涵蓋了所有相關的信息,使文章自成一體。最后,在文獻回顧的基礎上,我們提出了進一步的討論和建議。

付費5元查看完整內容

異常檢測是一個在各個研究領域和應用領域內得到廣泛研究的重要問題。本研究的目的有兩個方面:首先,我們對基于深度學習的異常檢測的研究方法進行了系統全面的綜述。此外,我們還回顧了這些方法對不同應用領域異常的應用,并評估了它們的有效性。我們根據所采用的基本假設和方法,將最先進的研究技術分為不同的類別。在每一類中,我們概述了基本的異常檢測技術,以及它的變體,并給出了關鍵的假設,以區分正常行為和異常行為。對于我們介紹的每一類技術,我們還介紹了它們的優點和局限性,并討論了這些技術在實際應用領域中的計算復雜性。最后,我們概述了研究中的未決問題和采用這些技術時所面臨的挑戰。

付費5元查看完整內容
北京阿比特科技有限公司