亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本白皮書討論了魯棒和安全的AI系統:即使在面臨不確定性和危險或威脅時,AI系統也能在預期的性能水平上可靠地運行。

魯棒和安全的AI系統是指能夠在預期性能水平上可靠運行的AI系統,即使在面臨不確定性和危險或威脅時也是如此。這些系統具有內置的結構、機制或緩解措施,以防止、避免來自特定威脅模式的危險,或提供抵御能力。我們確定了三個具體的重點領域,以推進用于國防和國家安全的魯棒和安全的人工智能:

提高AI組件和系統的魯棒性 * 為現代人工智能系統的安全挑戰而設計 * 開發用于測試、評估和分析AI系統的流程和工具

對于每個領域,我們都有信心地確定在開發和部署AI系統方面正在進行的工作以及挑戰和機遇。

//resources.sei.cmu.edu/library/asset-view.cfm?assetid=735344

付費5元查看完整內容

相關內容

 是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。 人工智能是計算機科學的一個分支。

氣候變化是當今社會面臨的最大挑戰之一,需要全社會迅速采取行動。在本教程中,我們將介紹氣候變化,解決它意味著什么,以及機器學習如何發揮作用。從能源到農業到災害響應,我們將描述機器學習可以幫助的高影響問題,例如,通過提供決策相關信息、優化復雜系統和加速科學實驗。這些問題包含了方法創新和實際實施的激動人心的機會。我們還將介紹機器學習研究人員和從業者參與的途徑,以及負責任的開發和部署此類工作的關鍵考慮因素。雖然本教程將主要討論機器學習幫助應對氣候變化的機會,但值得注意的是,機器學習是一種通用技術,可以用于幫助和阻礙氣候行動的應用。此外,機器學習有自己的計算和硬件足跡。因此,我們將簡要介紹一個框架,以理解和情境化機器學習的整體氣候影響,并描述機器學習研究和實踐的相關考慮。通過本教程的課程,我們希望參與者能夠更深入地了解氣候變化和機器學習是如何相互交織的,以及他們如何能夠通過使用他們的技能來幫助解決氣候危機。

付費5元查看完整內容

無人機行業現在正處于黃金時期,它的增長有望呈指數級增長盡管人道主義救援人員已經使用這種技術10年了,但市場的擴大和技術的發展正在推動越來越多的組織裝備這種設備。無人駕駛飛機(Unmanned Aerial Vehicles,簡稱UAVs),也被稱為遠程駕駛飛機或“無人機”,是一種通過遠程控制或自主飛行的小型飛機。

這份報告關注的是非武裝民用無人機和無人機的使用情況。未來的報告可以探討無人水下航行器和地面無人機的影響和發展。2014年,人道主義協調廳在其人道主義應對政策文件中強調了無人機在人道主義行動中的不同用途,這表明無人機技術的使用越來越多。從理論上講,瑞士地雷行動基金會(Swiss Foundation for Mine action)在其報告《人道主義行動無人機(2016)4:測繪》中對無人機在人道主義行動中的應用進行了6類總結;向偏遠或難以到達的地點運送基本產品;搜索和救援(SAR);支持損害評估;提高態勢感知;監測變化(如城市和營地的增長、農業使用或道路或基礎設施的建設)。這份報告將揭示人工智能驅動的無人機是如何改進和修改這些用途的。

無人機的迅速采用可以通過現代無人機帶來的機遇和它們可以利用的日益增長的人工智能(AI)相關能力來解釋。一方面,它們的使用通過自治得到簡化和授權。另一方面,視覺分析性能的改進使得依賴于無人機圖像成為可能。這份報告旨在強調人工智能提高無人機能力的程度。

由于深度學習方法的普遍化,無人機可以進一步捕捉它們運行的環境,從而允許越來越復雜的任務。這項技術還可以顯著改善無人機的視覺識別和圖像分析。由于人工智能算法的使用需要較高的計算能力,因此它的應用往往發生在飛行后。這一表現將通過三個案例研究加以強調:

  • 用于北加州野火應急響應的無人機(2018年11月)

  • 聯合國兒童基金會在馬拉維使用無人機應對颶風“伊代”(2019年3月)

  • 報告還探討了無人機未來的潛在功能。

付費5元查看完整內容

使用軟件會暴露容易受到攻擊并造成嚴重后果的漏洞。雖然存在許多不同的漏洞,但其后果分為少數幾類。本文解釋了攻擊機器學習 (ML) 漏洞的后果如何歸入這些相同類別。然后將這些后果與特定于 ML 的攻擊、它們發生的上下文以及已建立的緩解它們的方法保持一致。這些防御性對策可以支持系統 ML 元素的安全性,并更大程度地保證使用 ML 的系統將按計劃運行。

本文提供了一種系統方法來解決使用 ML 的系統的攻擊、后果和緩解措施。它解釋了 ML 技術生命周期中的每一個問題,清楚地解釋了要擔心什么、何時擔心以及如何減輕它,同時假設對 ML 細節了解很少

描述了軟件系統通常面臨的損害類型,并將它們與采用機器學習的系統所特有的公認后果類別聯系起來。然后,我們解釋導致這些后果的攻擊向量。然后,我們在最廣泛的類別中描述 ML 本身,包括從開始到部署和執行的生命周期。然后,我們確定生命周期中存在哪些漏洞,這些漏洞允許威脅對系統發起針對 ML 的攻擊。然后,我們通過不同的示例對 ML 漏洞、攻擊和緩解措施進行更深入的檢查。

了解 ML 系統的生命周期(其中漏洞存在于生命周期中)以及攻擊利用這些漏洞可能造成的損害,可以對采用 ML 所產生的風險進行明智的評估。我們對 ML 漏洞、攻擊和緩解措施的討論利用了 NISTIR 8269 文件中中開發的分類法。主要出發點在于將這些概念映射到我們在第 6 節中闡述的 ML 生命周期以及我們對 ML 安全性的系統方法的討論。

付費5元查看完整內容

教育評估、信貸、就業、醫療保健和刑事司法等高風險應用的決策越來越受到數據驅動,并由機器學習模型支持。機器學習模型也使關鍵的信息物理系統,如自動駕駛汽車和機器人手術成為可能。在過去的幾年里,機器學習領域取得了驚人的進展。然而,即使這些技術越來越多地融入我們的生活,記者、活動家和學者仍發現了一些侵蝕這些系統可信度的特征。例如,據報道,一個支持法官審前拘留決定的機器學習模型對黑人被告存在偏見。同樣,據報道,一個支持在一家大型科技公司進行簡歷篩選的模型也對女性有偏見。研究表明,用于胸部x光片疾病計算機輔助診斷的機器學習模型更重視圖像中的標記,而不是患者的解剖細節。自動駕駛汽車的死亡事故發生在不同尋常的條件下,根本的機器學習算法沒有經過訓練。簡而言之,雖然每天都有機器學習算法在某些任務上取得超人成績的新故事,但這些驚人的結果只是在一般情況下。我們在所有情況下信任這些算法所需要的可靠性、安全性和透明度仍然是難以捉摸的。因此,越來越多的人希望在這些系統中擁有更多的公平性、健壯性、可解釋性和透明度。

//www.trustworthymachinelearning.com/

機器學習的當前狀態是什么,我們如何讓它更值得信任? 天然成分、衛生制劑和防篡改包裝的類似物是什么?機器學習的透明容器、工廠參觀和食品標簽是什么?機器學習在造福社會方面的作用是什么?

這本書的目的是回答這些問題,并提出一個可靠的機器學習的統一觀點。有幾本從不同角度介紹機器學習的優秀書籍。也開始出現一些關于值得信賴的機器學習的個別主題的優秀文本,如公平性和可解釋性然而,據我所知,沒有一個獨立的資源可以定義值得信賴的機器學習,并帶領讀者了解它所涉及的所有不同方面。如果我是一個在高風險領域工作的高級技術專家,不回避一些應用數學,我就會寫一本我想讀的書。其目標是傳授一種將安全性、開放性和包容性視為頭等大事的機器學習系統整合起來的思維方式。我們將開發一個概念性的基礎,會給你信心和起點,深入研究的話題。

第1部分的剩余部分討論了本書的局限性,并討論了幾個對理解可靠機器學習概念很重要的初步主題: 在實踐中開發機器學習系統的角色和生命周期,以及在不確定性方面量化安全概念。

第2部分是關于數據的討論,數據是進行機器學習的前提。除了提供不同數據模式和來源的簡短概述外,該部分還涉及與可信機器學習相關的三個主題: 偏見、同意和隱私。第3部分涉及到值得信賴的機器學習的第一個屬性: 基本性能。它描述了最優檢測理論和不同的有監督機器學習公式。它教授幾種不同的學習算法,如判別分析、na?ve貝葉斯、k-最近鄰、決策樹和森林、邏輯回歸、支持向量機和神經網絡。最后總結了因果發現和因果推理的方法。第四部分是值得信賴的機器學習的第二個屬性:可靠性。這個屬性通過三個特定的主題來討論: 分布偏移、公平性和對抗魯棒性。這些主題的描述不僅定義了問題,而且還提供了檢測和緩解問題的解決方案。

第5部分是關于第三個屬性:人類與機器學習系統在兩個方向上的交互——理解系統并給它指令。第一部分從模型的可解釋性和可解釋性開始。它轉向了測試和記錄機器學習算法各個方面的方法,然后可以通過公平性、問責制和透明度表(FAccTsheets)進行透明報告。本部分的最后一個主題是機器引出人們和社會的政策和價值觀來管理它的行為。第六部分討論了第四個屬性: 人們和社會的價值可能是什么。它首先討論了機器學習在虛假信息中的惡意使用,以及機器學習在創建過濾氣泡時不必要的含義。接下來,它描述了在機器學習和人工智能中編碼期望值和應用的不同專業指南。最后,本文討論了如何將具有不同生活經驗的機器學習系統創造者納入其中,從而擴大機器學習的價值、目標和應用,在某些情況下,通過技術追求社會公益。

付費5元查看完整內容

可擴展AI的定義是算法、數據、模型和基礎設施的能力,以執行任務所需的規模、速度和復雜性。

付費5元查看完整內容

機器學習模型和數據驅動系統正越來越多地用于幫助在金融服務、醫療保健、教育和人力資源等領域做出決策。機器學習應用程序提供了諸如提高準確性、提高生產率和節約成本等好處。這一趨勢是多種因素共同作用的結果,最顯著的是無處不在的連通性、使用云計算收集、聚合和處理大量細粒度數據的能力,以及對能夠分析這些數據的日益復雜的機器學習模型的更好訪問。

開發負責任的人工智能解決方案是一個過程,涉及在人工智能生命周期的所有階段與關鍵利益相關者(包括產品、政策、法律、工程和人工智能/ML團隊,以及最終用戶和社區)進行輸入和討論。在本文中,我們主要關注ML生命周期中用于偏見和可解釋性的技術工具。我們還提供了一個簡短的章節,介紹了AI公平性和可解釋性的限制和最佳實踐。

//pages.awscloud.com/rs/112-TZM-766/images/Amazon.AI.Fairness.and.Explainability.Whitepaper.pdf

付費5元查看完整內容

【導讀】人工智能正在影響我們的方方面面。如何與AI和諧相處,成為可信協作伙伴,是個要思考的問題。近日59位世界級學者共同撰寫一份構建可信賴人工智能的論文《邁向可信賴的人工智能:可驗證聲明的支持機制》,詳細闡述了Trustworthy AI涵蓋的機制,是相關從業者不可少的借鑒資料。

本文中文翻譯的通訊作者是謝旻希(Brian Tse)。在翻譯過程中,我們得到了肖文泉(Jenny W. Xiao)的寶貴幫助

人工智能技術的新發展使其在商業、科學與其他創新領域得到了廣泛的應用。隨著此波應用浪潮的涌現,人們越來越意識到人工智能系統所帶來的風險,并認識到現有法律與業界、學界規范仍不足以保證人工智能的可靠研發[1] [2][3]。

機器學習領域的研發人員和科技公司已經采取了一些措施來彌補這些規 范不足,其 舉措包括廣泛采用人工智能行業認可的道德準則。然而,道德準 則缺乏法律約束力,也往往難以轉化為實際行動。而且,外界人 員很難評估人工智能開發者到底有是否表里如一,也沒有辦法讓他們在違反道德原則的時候承擔責任。這就導致了很多人譴責人工智能開發者在談論道德問題時口惠而實不至[4]。人工智能開發者要想贏得系統用戶、客戶、政府、社會和其他利益相關方的信任,就不應該只談原則,而要集中精力建立合理的機制來保 證行為的負責性[5] 。作出可檢驗、能追責的承諾是朝這個方向邁出的重要一步。

如果能提供精準的聲明和充足的證據,人工智能開發人員就能更好地向監管機構、公眾和其他開發者證明其行為的負責。如果有關人工智能開發的聲明更容易被驗證,就能實現更有效的政府監管并且減少開發者為獲得競爭優勢而偷工減料的壓力[1]。相反地,如果沒有能力驗證開發人員的聲明,用戶或其他利益相關方就更有可能因模棱兩可、有誤導性或虛假的說法而利益受損。

本報告提出了諸多建議,意在使不同利益相關方能夠更容易地檢驗人工智能開發者的對外聲明,特別是有關其安全性、安保性、公平性和隱私性的聲明。保證可信任的人工智能發展是一個多方面的問題,我們認為,執行這些機制有助于促進該目標的達成。[1]本報告中提出的機制可以幫助我們處理不同利益相關方可能面對的問題:

  • 作為用戶,我能否在使用新的人工智能系統機器翻譯敏感文件時,檢驗其對隱私保護級別聲明的真實性?

  • 作為監管者,我能否追蹤無人駕駛汽車導致事故的過程,并且知道用哪種標準來評判汽車公司的安全聲明?

  • 作為學者,我能否在缺乏業界計算資源的條件下,對大型人工智能系統所帶來的影響進行客觀的研究?

  • 作為人工智能研發者,我能否確信我在某一領域的競爭對手遵循最佳實踐,而不是偷工減料以獲得 競爭優勢?

即使人工智能開發者有意愿或者需求使自己的產品聲明具體而可驗證,他們也可能缺乏達成這一目標的相 關機制。人工智能開發社群需要一系列有效的機制,為檢驗人工智能系統和開發過程的聲明提供支持。

從這個角度出發,本報告的作者于2019年4月舉行了一次研討會,旨在構思促進研發者提出聲明、驗證聲明的機制。[1]本報告以該研討會上的討論成果為基礎,提出的機制主要致力于達成以下兩個目標:

  • 增加溝通渠道,便利人工智能開發者對外驗證有關其系統屬性的聲明。

  • 加強應對能力,使利益相關方(如用戶、政府決策者和更廣大的社會)能夠對人工智能開發者提出特殊而多樣的要求。

針對妨礙人工智能聲明有效評估的具體問題,本報告提出了一一對應的一系列機制和建議。其中部分機制已經存在,但仍需完善,而另一部分則是前所未有的。本報告旨在為進一步增強人工智能研發聲明的可驗證性作出貢獻。

該報告提出的機制作用于制 度、軟件和硬 件三個層面。制度、軟件和硬件也是人工智能系統和開發過程中相互重疊、相互影響的三大關鍵要素。

  • 體制機制:這些機制改變或闡明開發者面臨的激勵機制,并且增強其行為的能見度,以保證其研發的系統具有安全性、可靠性、公平性和隱私保護。體制機制是有效驗證人工智能研發聲明的基礎,因為人類和人類行為將 終決定人工智能的發展方向。本報告在討論中提出,可以利用第 三方審核來替代自我評估聲明;利用紅隊測試練習 (red teaming exercises)以增 強開發人員的防范意識,減少系統被誤用或襲擊的可能性;利用誤 差和安全隱患偵查激勵制度 (bias and safety bounties) 以建立激勵機制,促進對人工智能系統缺陷的及時發現、及時報告;以及加強人工智能安全事故信 息共享,以增 進社會對人工智能系統的認識,理解到人工智能可能帶來意外或非理想的后果。

  • 軟件機制:這 些機制讓人工智能系統的屬性更易于理解和監督。具體措施包括審計 跟蹤 (audit trails),通 過收集有關開發和部署過程的關鍵信息來強化高利害人工智能系統的問責制;保 證可解 釋性以增 進對人工智能系統特征的理解和審查;以及 隱 私保護的機器學習 (privacy-preserving machine learning),使開 發人員對隱私保護的承諾更有魯棒性。

  • 硬件機制:與計算硬件有關的機制可以在多方面發揮關鍵作用,包括證實有關隱私和安全性的聲 明、提高組織如何使用資源的透明度、以及影響誰具有驗證不同聲明所必需的資源。探討的機制包 括機器學習的硬件安全設施以提高隱私和安全性聲明的可驗證性;高精度計算資源的測量,以提高 關于計算能力使用的聲明的價值和可比性;以及為學術界提供計算資源支持,以提高業界以外人士 評估有關大型人工智能系統的聲明的能力。

每種機制都提供額外的途徑來檢驗開發者的承諾,有潛力為建立可信賴的人工智能生態作出貢獻。下一頁 和報告末尾詳細地列舉了不同機制的相關建議,并且包含完整的列表。

建議

制度機制和建議

  1. 一個利益相關方的聯盟應組建工作小組,研究如何建立第三方人工智能審計機制并為該機制提供資 源。

  2. 人工智能研發機構應該參與紅隊測試 (red-teaming)的練習,從而發現系統潛在的風險,并分享相 關的最佳實踐和應對問題的工具。

  3. 人工智能開發者應試行誤差和安全隱患偵查激勵制度 (bias and safety bounties),以建立廣泛監 督人工智能系統的激勵機制和標準流程。

  4. 人工智能開發者應該通過不同的合作渠道,分享更多人工智能事故的信息。

軟件機制和建議

  1. 標準制定機構應該和學界、業界合作,要求對安全攸關的人工智能系統實行審計跟蹤 (audit trails) 。

  2. 人工智能研發和資助機構應該支持人工智能系統的可解釋性研究,并將重點放在風險評估和監察 上。

  3. 人工智能開發者應開發、共享并使用隱私保護的機器學習 (privacy-preserving machine learning)的工具與指南,并且其中必須包括衡量性能的標準。

硬件機制和建議

  1. 業界和學界應共同努力為人工智能加速器開發硬件安全功能,或者確立在機器學習環境中使用安全 區(包括商品硬件上的“安全飛地”)的最佳實踐。

  2. 一個或多個人工智能實驗室應該對單個項目進行高精度計算資源的測量,并報告其實踐能否被廣泛 采用。

  3. 政府資助機構應大幅增加對學界研究人員的計算能力資源的資助,以增強學術研究人員驗證商業人 工智能聲明的能力。

付費5元查看完整內容
北京阿比特科技有限公司