在當今的訴訟環境中,人工智能驅動的商業決策必須不僅僅是可解釋的、合乎道德的和負責任的;我們需要可審計的人工智能。
隨著主流商業世界從人工智能的理論使用轉向生產規模的決策,可審計的人工智能是必不可少的,因為它包含的不僅僅是負責任的人工智能(強大、可解釋、合乎道德和高效的人工智能)的原則。可審計的 AI 還提供通過監管審查所需的文件和記錄,其中可能包括以下問題:
需要注意的是,盡管“審計”一詞具有事后的含義,但可審計的 AI 強調在模型構建期間和模型投入生產之前制定(和使用)明確規定的工作記錄。
可審計人工智能通過在模型生產過程中創建公司記錄的開發治理標準的審計跟蹤,使負責任的人工智能成為現實。這可以避免在模型開發完成后進行隨意的事后探測。還有額外的好處;通過盡早準確地了解模型何時出偏差,以便快速補救,公司可為自己省去無盡的痛苦,避免當人工智能在數據科學實驗室之外出現問題時發生的聲譽損害和訴訟。
法律成本、聲譽受損和客戶不滿只是受到 AI 倡導團體審查的沉重成本中的一小部分,而可審計的 AI 可以幫助防止所有這些成本。采用可審計人工智能將通過在整個模型開發過程中記錄關鍵決策和結果來確保公司的人工智能標準得到遵循和執行。
盡管建立必須衡量、審查和批準的精確信息并非易事,但這樣做會給公司帶來兩個寶貴的優勢:
如果沒有嚴格的模型開發標準和指導方針,公司就很難出具始終如一地跟蹤合規性的審計報告,以及用于確保投入生產的模型公平、公正和安全的關鍵數據。
在某些情況下,模型治理的關鍵部分簡單而令人不安地沒有得到解決。從研究模式到生產模式的轉變需要數據科學家和公司有一個明確的標準。創新應該由 Highlander Principal 推動(“只能有一個”),因此您的組織在開發可審計的 AI 時需要提出以下問題:
誠然,有無數問題需要回答,實現可審計 AI 似乎令人生畏。但是已經有可以很容易采用的最佳實踐框架和方法,提供關鍵的構建模塊。如今,大多數組織都在將 AI 部署到一個充滿風險的空白中,因此真正迫切需要實施可審計的 AI。人工智能的未來,以及我們所知道的商業世界,都取決于這種強大的技術以同樣強大的方式進行管理和監控。
人工智能 (AI) 系統作為決策和控制系統的一部分在各種應用中發揮著越來越大的作用,其中包括移動、生物識別和醫學等安全和安全關鍵應用領域。與傳統 IT 技術相比,深度神經網絡等 AI 技術的使用提供了新的機會,例如卓越的性能。同時,它們在 IT 安全性、魯棒性和可信賴性等方面提出了新的挑戰。為了應對這些挑戰,需要一個普遍認可的人工智能系統審計框架。這應該包括評估策略、工具和標準,但這些要么正在開發中,要么尚未準備好投入實際使用。
本白皮書首先總結了 AI 系統的機遇和挑戰,然后介紹了 AI 系統可審計性的最新技術,重點關注 AI 生命周期、在線學習和存在漂移、對抗,毒化攻擊、后門的模型維護等,和針對這些攻擊的防御、驗證、安全關鍵型 AI 系統可審計,黑盒 AI 模型可解釋和 AI 標準化。
盡管所有這些方面都取得了實質性進展,但一個首要的開放問題是(通常是多方面的)系統所需特性之間的權衡,例如一方面是魯棒性、安全性和可審計性,另一方面是 AI 模型、ML 算法、數據和進一步邊界條件的特征。這些權衡限制了當前 AI 系統的可擴展性和通用性。
為了最終以安全、可靠、穩健和可信賴的方式利用人工智能技術的機會,應結合兩種策略: 1. 考慮到上述權衡,應為給定任務選擇有利的邊界條件; 2. 應通過對研發的大量投資來推進現有技術,以最終在復雜的邊界條件下允許安全的人工智能系統,從而提高可擴展性和普遍性。第一步,應該關注選定的安全關鍵用例。應利用可用的標準、指南和工具,并進一步促進研究人員和行業之間的跨學科交流,以找到可用標準和工具的最佳組合,為每個特定用例實現可審計、安全和強大的人工智能系統。然后,在第二步中,應該使用來自這些用例的見解來概括結果并構建一個模塊化工具箱,該工具箱隨后可以應用于其他用例。在此基礎上,首先應制定技術指南和隨后的標準。在理想情況下,結果將是一套普遍適用的標準和工具,使人工智能系統具有足夠的可審計性、安全性和可靠性。
人工智能 (AI) 技術已經在許多應用中普遍存在,它正日益成為我們世界不可或缺的一部分,因為它是決策或控制系統無數應用的基礎(圖 1)。人工智能系統可能由多個子系統組成,每個子系統都可能使用不同的技術。技術可分為經典 IT (cIT)、符號 AI (sAI) 和連接主義 AI (cAI)。在這里,重點放在(深度)神經網絡和機器學習(ML)形式的 cAI 系統上,因為 cAI 系統在質量上表現出新的漏洞,并且到目前為止,還不能通過 cIT 的可用工具進行充分審計。
圖 1:人工智能系統已經成為各種應用中決策和控制系統的一部分,例如自動駕駛汽車、醫療保健和生物識別技術。 Connectionist AI(cAI,例如神經網絡)、符號 AI(sAI,例如決策樹)和經典 IT (cIT) 模塊通過傳感器和執行器相互交互并與環境交互,從而導致整體系統行為。在這里,我們只關注單個 cAI 模塊(粗體字)。
人工智能用于計算機游戲和語音助手系統等應用程序,以及駕駛員輔助系統、入侵檢測系統和醫療診斷等安全關鍵應用程序 [1-4]。后一個用例表明,責任和義務從人類轉移到了安全和安保關鍵系統中的人工智能系統。因此,出現故障的人工智能系統可能會導致嚴重后果,導致經濟損失甚至影響人類健康。在極端情況下,這可能包括因不適當或缺少醫療而導致車禍或嚴重醫療狀況的死亡。在許多應用中,當前的人工智能系統在性能、用戶體驗和成本方面都大大優于 cIT 技術。盡管人工智能技術提供了這些和其他巨大的機會,但它的應用也帶來了一些挑戰 [5-9]:例如,神經網絡 (NN) 的內部工作原理由于其高度互連的非線性而很難被人類解釋。處理元素及其巨大的輸入和狀態空間。此外,它們的性能高度依賴于數據的數量和質量,因為它們的參數必須通過 ML 算法進行訓練。 NN 訓練不遵循明確定義的設計流程,NN 具有質量上的新漏洞,用戶經常缺乏信任,并且 NN 可能被攻擊者用作攻擊工具。
因此,為了應對 AI 的這些安全和安保挑戰,必須深入了解 AI 系統的運作方式、為什么它們在某些情況下表現良好但在其他情況下失敗,以及它們如何受到攻擊和保護免受攻擊。為了獲得用戶的信任,必須在實際定義的邊界條件下保證人工智能系統的正常運行。對于“經典”技術,法律要求在飛機控制軟件等多個領域提供此類保證,并且需要定期進行審計。一個自然的問題是如何將傳統 IT 領域的概念和方法轉移到 AI 領域,在這還不夠的情況下,如何用新的 AI 特定概念和方法來補充它們。如果在 100% 的情況下無法保證正確操作,則應討論是否可以接受 AI 系統至少比最先進的非 AI 系統或人類執行得更好。因此,應采用基于風險的方法,量化系統故障的風險,即故障成本乘以故障概率。這在惡意攻擊的情況下也應該成立。更好的平均性能可能還不夠,因為人工智能系統的平均性能可能更好,但在亞組上更差(例如,黑人的皮膚癌檢測,[10; 11])。如果 AI 系統出現故障,其失敗的原因必須是可以解釋的。由于目前尚無普遍接受的審計人工智能系統的標準、評估標準、方法和工具(但有關當前舉措,請參見第 2.7 節),因此出現以下問題:如何審計人工智能系統?哪些邊界條件是最優的,哪些是可以接受的?除了經典的 IT 系統審計或安全評估之外,還需要哪些方法、工具和其他資源?審計 AI 系統的限制是什么?工作量和審計質量之間的權衡是什么?應該如何在研發中最好地利用可用資源,以實現在各種條件下仍然有效的 AI 系統審計結果?
根據 2020 年 10 月 6 日在柏林/互聯網舉行的為期一天的研討會“審計 AI 系統:從基礎到應用”的演示和討論,我們試圖通過回顧當前的技術水平來回答這些問題,通過總結開放性問題并確定最迫切需要的未來工作和最有希望的方法來評估 AI 系統的可審計性。在此過程中,1. 將考慮 AI 系統的整個生命周期; 2. 將重點關注當前最重要的 AI 技術,即機器學習 (ML) 訓練的深度神經網絡 (DNN),而 DNN 將在 IT 安全性和魯棒性方面予以考慮。在可能的情況下,將給出具體的用例作為示例。
在本節中,首先給出廣義 cAI 生命周期的概述(圖 2A),然后總結 cAI 系統可審計性的一些最重要方面的最新技術,即通過 ML 訓練 AI 系統數據、攻擊和防御、驗證、確認、可解釋性和標準化。
研討會期間沒有深入討論其他方面,因此,僅就它們對 AI 安全的可能影響進行了簡短總結:
1.足夠的質量和數量的訓練和測試數據適用于AI性能和魯棒性,也適用于 AI 系統的安全性 [12]。
2.數據預處理(或特征選擇)一方面可以被視為 AI 系統模塊化的一步,由于每個 AI 模塊的功能減少,可能會導致更好的可解釋性,但另一方面,可以認為開辟了一個新的攻擊目標(參見例如[13; 14])。因此,根據具體情況,它可能有利于提高安全性,也可能無益。
3.正則化,例如通過誤差函數對大權重進行懲罰,可能有助于防止過度擬合,并且可能在某些邊界條件下直接導致更高的魯棒性并間接提高安全性和保障性[15]。
cAI 系統的復雜生命周期至少在很大程度上是其應用面臨新挑戰的原因,尤其是與 cIT 和 sAI 系統相比。因此,它將成為本白皮書的重點。在這里,它分為以下 5 個階段(參見圖 2A):規劃、數據、訓練、評估和運營。在實踐中,這些階段不是按順序排列的,而是開發人員以高度迭代和敏捷的方式使用這些階段,例如在開發過程中經常使用評估。此外,運營階段還包括模型維護的挑戰,包括調整模型的必要性,以防已經使用的 cAI 系統出現新數據或要求。與生物神經網絡類似,cAI 系統通常由大量簡單但高度互連的處理元素(或神經元)組成,這些處理元素(或神經元)分層組織。最先進的 cAI 系統,例如深度神經網絡(DNN,深度 = 多層)由數百萬個處理元素和它們之間的突觸(= 連接)組成。假設一個固定的神經架構,這意味著 cAI 系統通常有超過 1 億個參數,即突觸權重和單位偏差值,必須適當調整。因此,幾乎在所有情況下都無法手動設置這些參數。相反,機器學習技術用于根據訓練數據、誤差函數和學習規則自動調整系統參數。與在訓練期間學習的 cAI 模型內部參數相比,影響學習過程和模型架構的外部參數稱為超參數,必須在訓練之前固定并在驗證集上進行調整。自動化訓練管道設置和訓練本身的方法稱為自動機器學習或 AutoML [16]。雖然許多 cIT 和 sAI 模型(例如決策樹或規則集)中的參數通常也由自動方法設置,但原則上,與大多數 cAI 模型相比,它們仍然可以直觀地檢查。
圖 2:A) 連接主義 AI (cAI) 系統的廣義生命周期示意圖,強調了對 AI 系統進行徹底審計時必須考慮許多方面。在這里,生命周期是從 IT 安全角度來看的,包括漏洞(紅色)、防御(藍色)和解釋(綠色 + “?”)。有監督的再訓練或在線學習可以選擇性地與運營并行,并在運營期間連續運行,從而導致評估應該何時以及多久進行一次評估的問題。評估、驗證、確認和標準化應考慮整個生命周期。 B) 一個 cAI 生命周期 (cAILC) 可以是例如嵌入到功能安全生命周期中(fSLC,參見例如 [17; 18])。后者可能包含幾個與安全相關的系統,例如還包括 sAI 和 cIT 系統(參見圖 1),包括在開發階段和最終退役階段之前的廣泛分析階段。請注意,cAILC 和 fSLC 通常都是高度迭代的。
因此,開發人員的角色是通過使用神經網絡、訓練數據、機器學習算法和相關超參數初始化訓練過程來設置必要的邊界條件。隨后,開發人員監督訓練過程,調整超參數,測試中間結果,并在必要時重新開始訓練,直到達到 AI 系統的預期性能。這不是一個標準化的程序,而是開發人員的直覺和經驗決定了訓練過程。由于獲得足夠數量的高質量數據和從頭開始訓練 DNN 需要大量資源,開發人員經常走捷徑,利用預先訓練的模型和從各種來源獲得的外部數據。一旦滿足開發標準(例如性能、魯棒性),人工智能系統就可以投入運行:在嵌入特定的硬件和軟件環境后,神經網絡會收到預處理的輸入數據并輸出其決策。盡管缺乏明確定義的設計流程(見上文),但能夠訪問必要資源(數據、模型、計算能力)的經驗豐富的開發人員可以快速為許多明顯優于 cIT 系統的用例開發決策系統。
由于 DNN 通常具有巨大的參數和輸入空間以及它們在結構和功能之間的非直觀關系,人類幾乎不可能解釋它們的功能。允許這樣做的專業解釋方法是當前研究的主題(詳情參見第 2.6 節)。目前通過觀察一組選定測試的輸入輸出關系來測試人工智能系統。即使是測試所有可能輸入的一小部分,也需要大量資源,并且必須系統地進行處理(參見 [19])。只有在非常有限的邊界條件下的特定情況下才能進行形式驗證,例如它不能擴展到大型網絡和任意輸入(參見第 2.4 節)。 cAI 系統的進一步缺點是它們在性質上的新漏洞,即在運行期間的對抗性攻擊(參見第 2.3.1 節)和信息竊取攻擊(參見第 2.3 節),以及在訓練期間的后門中毒和 DoS 攻擊(參見第 2.3.2 節) ,除了經典的社交攻擊、操作系統和硬件攻擊外,攻擊者還可能利用這些攻擊進行有針對性和無針對性的攻擊(詳見下文)。為了保護數據驅動的 AI 系統和機器學習免受此類攻擊,除了經典的 IT 安全措施外,還提出了許多解決方案:對抗性訓練、梯度掩蔽和特征壓縮(參見第 2.3.3 節了解更多詳細信息)。不幸的是,到目前為止,沒有一種單一的防御方法,也沒有多種防御方法的組合能夠可靠地防止自適應攻擊。此外,根據設置,改進的攻擊預防和魯棒性可能以降低準確性為代價 [20]。
在實際用例中,例如在自動駕駛汽車中,cAI 生命周期通常嵌入到更廣泛的生命周期中,包括多個 IT 和 AI 模塊的開發和交互。這描述了功能安全生命周期(圖 2B 中的 fSLC),其中 cAI 模塊只是可能的組件。對于這些 cAI 模塊,可以確定(汽車)安全完整性等級 ((A)SIL) [17; 18]。功能安全生命周期強調人工智能生命周期規劃階段之前的分析階段,目的是量化此類系統的故障概率,并通過包括風險分析在內的系統方法確定這些概率的可接受性。 fSLC 分析階段還包括概念化以及安全要求的推導和分配。作為分析的結果,出于安全的原因,甚至可能完全禁止在安全關鍵應用程序中使用人工智能技術。相比之下,人工智能可以很容易地在沒有發生嚴重后果的情況下使用,這必須得到風險分析的支持。在這種情況下,不需要在系統中實施 SIL 要求,也不需要進行安全評估。方法論和用例特定的標準、規范和技術指南應在適用于整個生命周期的任何地方使用。例如,功能安全生命周期存在一個廣泛的標準 [17],但它不包括具有 cAI 特定漏洞和挑戰的 cAI 生命周期。在世界各地,多項舉措都在努力縮小這一差距(參見第 2.7 節)。
為了通過從數據中學習來解決問題,可以根據問題的復雜性和可用數據量使用不同的范式。例如,當有大量訓練數據可用時,深度學習技術通常用于解決復雜問題,而統計學中的經典方法只能解決不太復雜的問題,但需要的數據更少。獨立于范式,手頭問題的環境可能不會隨著時間的推移而保持不變。為了獲得魯棒的結果,必須考慮和解決此類環境變化。
對于大多數經典機器學習 (ML) 技術,可以在標準假設下從統計學習理論推導出強大的魯棒性保證 [21]。面對環境變化和有限的數據可用性,保持預測準確性的另一種方法是允許 ML 模型拒絕與已知數據點相距太遠且模型確定性較低的輸入 [22]。需要注意的是,識別此類輸入本身可能是一個難題。這種方法也可以用于在線學習[23]。
遷移學習是一種通用技術,允許將先前學習的父模型調整到新的但相關的任務 [24]。利用這兩個任務的相似性并基于父模型中包含的信息,可以使用比從頭開始訓練所需的更少的數據點來訓練新模型。遷移學習和更一般形式的小樣本學習是目前使用深度學習的標準方式。例如,特定圖像分類任務的模型建立在 VGG [25] 等預訓練模型之上。遷移學習可用于應對環境變化。然而,為了在不使用大量數據的情況下獲得模型準確性的理論保證,需要對可能發生的變化做出強有力的假設。這樣的假設在實際用例中可能是有效的,例如,使假肢的控制單元適應傳感器位置的輕微變化[26]。
另一種訓練 ML 模型的方法稱為在線學習。在這種范式中,模型不會從離散的數據批次中學習,而是使用數據流并不斷更新以將每個新數據點考慮在內。然后環境變化表現為數據漂移,這可能會影響真實模型本身或僅影響觀察到的數據分布。在這種情況下,挑戰在于確定哪些信息與在給定時間點和未來做出正確預測相關,哪些信息應該被丟棄。在這樣做時,還必須考慮數據中毒攻擊和丟失數據標簽。因此,模型面臨可塑性之間的兩難境地,即能夠整合新信息,又保持穩定性,保持以前的正確知識。已經證明,對于簡單模型,這兩個屬性可以有效地平衡,以在存在漂移的情況下實現高性能 [27-30]。這種模型的挑戰在于元參數成為模型參數,因為模型復雜性可能會發生變化。因此,非參數模型以及集成方法通常特別適合。然而,獲得數學保證需要非常強的假設。作為在實踐中處理漂移的一步,檢測和理解漂移的第一種技術提供了有趣的方法來判斷這種在線適應技術的效果[31,32]。
人工智能在設計上并不安全,過去幾年已經記錄了無數欺騙人工智能系統的例子(概述參見 [33])。在本白皮書中,我們重點關注 AI 系統在信息安全目標完整性方面的兩個最重要漏洞,該漏洞致力于在整個 AI 生命周期中維護可信賴和一致的數據。在這種情況下,已經確定了對 cAI 系統的兩個主要和質量上的新威脅:操作階段的對抗性或逃避攻擊(參見第 2.3.1 節)和訓練階段的后門中毒攻擊(參見第 2.3.2 節)。這些攻擊和可用的防御將在以下部分中詳細討論。
其他兩個主要信息安全目標的機密性和可用性方面存在更多漏洞,但不在本白皮書的重點:機密性可能會通過探索性模型竊取 [34]、模型反轉 [35] 和成員推斷攻擊 [36] 受到損害,其中用于訓練的 AI 模型和數據可以從查詢到可操作的 AI 系統進行重構(在“模型和數據竊取攻擊”下總結在圖 2 中)。這些攻擊是在規避攻擊的上下文中提到的(見下文)。可用性可能會受到 DoS 中毒攻擊 [37],與后門攻擊相比,它的目標是最小化模型的性能。
在規避攻擊中,攻擊者計劃通過對模型輸入的細微修改來改變人工智能系統在其推理(或運行)階段的決策。這些修改通常對人眼來說是不可疑的,也被稱為對抗性示例 [38; 39]。因此,標準的 cAI 系統非常脆弱,模型訓練數據不能很好地表示的輸入特別容易受到錯誤分類的影響。眾所周知的例子包括通過在交通標志上放置貼紙來攻擊交通標志分類系統 [40],通過向惡意軟件 [41-43] 添加適當功能所不需要的代碼來攻擊惡意軟件檢測器,以及通過為人類配備特別印制的眼鏡架 [44] 或帽子上的補丁 [45]。如果攻擊者能夠控制人工智能系統的決策,則該攻擊稱為有針對性的攻擊,否則,如果攻擊者只是以任意方式更改決策,則該攻擊稱為無目標攻擊。
為了規避攻擊,可以將其形式化為一個優化問題,其目標是修改輸入,以使 AI 系統至少跨越一個決策邊界,例如。在惡意軟件檢測器中從良性區域到惡意區域 [38; 46]。在這樣做時,必須考慮幾個附帶條件,例如保持修改盡可能小或不明顯的要求。
如果攻擊者完全了解模型、特征和數據,這種攻擊稱為白盒攻擊。此外,如果輸出函數是可微的,這是大多數當前使用的學習算法的情況,那么可以計算梯度作為優化過程的先決條件。但是,在攻擊者對目標模型、特征和數據的了解有限的情況下,稱為灰盒或黑盒設置,攻擊者可能會通過替代模型繞過旁路來制造有效的攻擊。替代模型可以通過模型竊取攻擊或通過新訓練的模型,例如使用來自成員推理攻擊的數據,該攻擊模仿目標模型的功能。 cAI 系統具有這樣的特性,即為一個模型開發的攻擊在許多情況下可以毫不費力地轉移到不同的 cAI 模型(可轉移性),因此,這些攻擊也稱為黑盒轉移攻擊。根據邊界條件,即使是黑盒查詢攻擊也可以成功。它們不需要替代模型,而是使用對目標模型的查詢與無梯度優化方法(如遺傳算法或貝葉斯優化)相結合。由于這些黑盒攻擊,僅對網絡參數保密以有效保護人工智能系統免受對抗性攻擊是不夠的。
但是為什么 cAI 系統容易受到對抗性攻擊呢? cAI 系統建立在訓練數據代表未來數據的假設之上,即輸入數據是獨立同分布 (IID)。除非任務空間非常有限,否則 IID 假設 [47] 遲早會被違反,這意味著模型缺乏魯棒性。因此,模型在隨機輸入數據損壞(含噪的輸入數據分布)和特制的對抗性示例方面缺乏魯棒性是同一潛在現象的兩種表現形式 [48]。模型越復雜,出現的漏洞就越多,攻擊者就越容易和更快地找到對抗樣本。直觀地說,這可以通過以下事實來解釋:系統的輸入和狀態空間維度越大,從合法輸入到惡意輸入區域的路徑越短,攻擊者可能會利用這些路徑。此外,為了使魯棒性訓練適用于復雜的 cAI 系統,它需要大量適當的訓練數據,即隨著 cAI 系統的大小,防御變得越來越資源密集。解決這個問題的一種策略是從風險角度考慮,對于每種類型的攻擊,它發生的可能性被認為是決定單獨應該分配多少資源來防御它。
DNN 等 AI 模型需要大量數據進行訓練和測試,才能獲得良好的性能。出于這個原因,通常的做法是從多個來源收集數據而不執行高質量標準。事實上,從業者普遍認為,低質量的數據可能沒有什么價值,但不會顯著影響模型的性能。然而,大量研究結果表明,這種假設是不正確的。由于當前的 AI 模型本質上是純相關提取器,因此數據集的問題會導致它們以意想不到的方式表現。
后門投毒攻擊和 DoS 投毒攻擊 [49; 50] 有針對性地損壞部分訓練數據。一方面,DoS 中毒攻擊旨在通過插入錯誤的數據點來改變其決策邊界 [49],從而降低模型的泛化能力。雖然這些攻擊在經典 ML 方法中構成了一個大問題,但它們不會以相同的規模影響 DNN,并且通常可以很容易地檢測到 [51]。另一方面,后門中毒攻擊只會降低某些輸入的模型準確性[50]。為此,攻擊者通過添加特殊的觸發模式小心地操縱部分訓練數據,使他們能夠在推理過程中完全控制這些輸入上的模型行為。就經典的 IT 安全目標而言,DoS 中毒攻擊影響模型的可用性,而后門中毒攻擊則針對其完整性。此類攻擊的基本思想在于植入虛假的相關性,然后模型將其用于決策。例如,這通常涉及在分類任務中更改標簽。然而,更微妙的、所謂的標簽似是而非的攻擊可以避免這些相當明顯的變化[52]。
之后很難檢測到對 DNN 的后門攻擊。這既是因為模型只做它們應該做的事情,即學習相關性,也因為它們表現出缺乏人類可解釋性。發現后門攻擊的方法依賴于對模型學習的異常值的檢測[53]。這不適用于數據集本身,而是必須使用內部模型表示 [50; 54; 55],可能與 XAI 方法結合使用(參見第 2.6 節)。然而,現有的緩解技術并不完美,也可能沒有自動解決方案,因為可能需要人類先驗知識來正確區分損壞和良性數據點 [56]。
除了有針對性的攻擊之外,數據集可能包含虛假的相關性,這可能會以類似的方式影響模型,盡管針對性較低。這些相關性可能源于數據選擇以及預處理和訓練管道中的偏差。例如,在醫學圖像識別的各種任務中已經發現了這些問題 [57]。
解決這些問題需要消除訓練數據中的虛假相關性。 XAI 方法可能有助于做到這一點,以及在訓練期間隨機化管道偽影的技術。除了 AI 級別的技術措施外,還需要更通用的緩解技術來解決意外的虛假相關性,尤其是阻止后門攻擊。特別是,這包括在模型的整個生命周期內保護模型的完整性,并在訓練階段使用技術和組織措施來改變環境條件,例如對開發人員進行安全檢查以及限制對數據存儲和開發機器的訪問,使其攻擊者更難成功 [58]。
在最近,為了保護深度神經網絡免受攻擊[59]或檢測此類攻擊[60],已經提出了大量的方法。然而,事實證明,檢測對抗性攻擊并可靠地防御它們是非常困難的,因為已經證明自適應攻擊者可以繞過大多數提出的防御,與僅應用最強防御的系統相比,即使是并行應用的多個防御也可能并不總能增加對抗性的魯棒性[61-63]。盡管如此,防御可以增加攻擊者發起成功攻擊的努力。此外,最近關于對抗性攻擊的可驗證檢測的工作很有希望,因為它保證了對某些自適應攻擊者的魯棒性[64]。
許多防御方法的一個重要缺點是它們會顯著影響模型在良性輸入上的性能。出于這個原因,評估防御方法的合適指標應該同時考慮模型對 a) 良性輸入和 b) 對抗性輸入的性能。
在防御對抗性攻擊時,總是需要考慮 AI 系統的環境條件。例如,如果攻擊者只能將攻擊應用于物理世界而不能應用于數字領域(例如,在攻擊計算機視覺系統時,攻擊需要在不同視角、旋轉或類似變換下具有魯棒性),成功的標準攻擊要高很多。此外,需要牢記的是,這樣一個系統的魯棒性不僅取決于其 AI 相關部分的魯棒性,還取決于其他組件,例如 cIT,這既可以增加也可以降低系統的魯棒性和也構成了額外的攻擊目標。例如,可以通過包含基于非 cAI 技術的冗余方法來提高系統的魯棒性,該方法充當完整性檢查,或者通過 cIT 查詢限制對 cAI 組件的限制來阻礙對抗性示例的制作。
對抗性攻擊最有希望的防御方法之一是對抗性訓練 [59],其中對抗性示例被包含在訓練階段,以增加這種系統的對抗性魯棒性。這種方法的一個缺點是它會顯著影響訓練運行時間,尤其是在包含使用強攻擊構造的示例時。對抗性訓練只會賦予訓練期間出現的攻擊魯棒性,因此,如果出于性能原因只考慮弱攻擊,系統將仍然容易受到更強攻擊。因此,有必要提高對抗訓練的效率,特別是通過在訓練期間創建強大的對抗樣本的過程,如共享對抗訓練 [65] 和元對抗訓練 [66] 以及訓練策略的其他擴展是有希望的(參見例如 [67])。
對抗性訓練的另一個缺點是它沒有對模型的魯棒性提供任何正式的保證。因此,不能正式證明不存在繞過這種防御的攻擊。這個問題可能會在威脅模型(例如對抗性補丁 [68])中通過經過認證的防御(例如[69] 和 [70],這可以證明補丁威脅模型對對抗性攻擊的魯棒性。然而,對于其他威脅模型,這種經過認證的防御將嚴重影響模型在良性輸入上的性能。此外,其中一些防御措施對模型的架構施加了限制。
針對對抗性攻擊的其他類別的防御通常容易被攻擊者規避,并且根據用例和邊界條件,可能會產生錯誤的安全感。這是例如梯度混淆[71]的情況,一種梯度掩蔽,應該使攻擊優化步驟更難。
在防御后門攻擊方面,主要問題源于 AI 模型沒有其目標領域的先驗知識,而是從(可能是惡意的)訓練數據中學習這些知識。防御此類攻擊的一種有前途的方法是通過查看使用該數據訓練的深度神經網絡的內部工作原理來檢測惡意數據 [54],并識別網絡行為與同一類別的其他數據樣本不同的樣本。這可能表明與正常數據樣本相比,網絡使用不同的特征來進行預測。到目前為止,這種方法只適用于部分情況。為了解決模型缺失先驗的問題,可能有必要通過人類專家知識在也使用 XAI 方法的交互式過程中包含此先驗。
人工智能系統的驗證領域涉及在存在一系列輸入擾動的情況下證明不存在意外的輸出行為,這可能是由于自然變化或攻擊者故意引起的。因此,驗證可用于推理 AI 系統的安全性。然而,嚴格的證明面臨著重大障礙。由于輸入空間很大,要考慮的擾動數量可能是無限的,這使得蠻力方法不可行。此外,用于檢查邏輯約束的標準求解器(例如 SMT,[72;73])由于其非線性而不能很好地擴展到 DNN,盡管它們在某種程度上可能有用。
解決這些問題的一個突出方法是基于抽象解釋技術,該技術已廣泛用于自動推理多年 [74]。它的主要思想是以有界的、有限的方式表示可能無限數量的狀態,這允許將其存儲在內存中并執行符號計算。
更準確地說,抽象解釋可以通過符號約束對所有可能的輸入擾動進行編碼來應用于 DNN,例如產生多面體。隨后,可以計算網絡層對該多面體的抽象影響。生成的形狀對與輸入集對應的所有可能輸出進行編碼,并可用于檢查要驗證的保證。在實踐中,為了使計算可行,編碼輸入的符號約束是真實數據流形的近似值(凸松弛)。因此,在近似精度和計算復雜度之間存在權衡。
迄今為止開發的驗證技術有幾個缺點,因此需要提出以下改進建議:
1.驗證主要針對輸入向量的每個元素在給定范圍內的隨機變化進行,直到最近才有幾何擾動(例如旋轉、平移)研究。這個范圍需要擴展到更多的語義擾動。
2.使用的松弛需要改進,以在精度和復雜性之間取得更好的平衡。在擴展擾動和任務集時,可能需要自定義松弛。
3.這些技術主要應用于前饋神經網絡的分類任務,需要泛化以涵蓋其他模型類型(例如 RNN)和其他任務(例如分割)。
4.最大的問題是方法的可擴展性。如果一個目標是提供 100% 的確定性保證,那么這些技術僅適用于中小型網絡(就 ReLU 單元的數量而言),與實踐中使用的大規模網絡相去甚遠。
為了從這些技術的全部潛力中受益,它們還可以用于事后驗證。特別是,一種稱為可認證訓練的方法 [75] 將它們與訓練相結合,以獲得可認證的防御。這也有助于解決該技術的可擴展性問題,因為新的網絡架構可以通過認證。
還表明,對抗性訓練有助于驗證,對抗性訓練和可認證訓練可以相關,并且主要在它們用于提高模型穩健性的信息上有所不同。最近的研究提出了一種將這兩種方法結合起來的方法 [76; 77]。
安全關鍵型人工智能系統是其決策受人工智能子系統影響的系統,其故障可能導致以下結果:人員死亡或嚴重傷害、設備或財產損失或嚴重損壞以及環境危害。例如,安全關鍵系統可以在航空、核能、汽車和鐵路、醫療和自主系統領域找到。對于這些系統,有必要證明它們滿足所需的要求,例如某些可預測的魯棒性和可靠性,并且它們的保證通常依賴于基于標準的證明。不幸的是,對于基于 ML 的系統,這是一個嚴重的問題:缺乏針對此類新技術的經過驗證的標準、政策和指導,例如諸如 IEC 61508 [17] 等安全規范性軟件標準并不完全適用于 AI 系統。
與無法應用現有方法的其他系統一樣,基于論證的方法(使用正式的結構化論證來證明某些特定聲明的正當性)可用作 AI 系統保證的結構化方式 [78; 79]。基于論證的方法的主要優點是在如何證明安全聲明方面具有相當大的靈活性。在確定未知領域的差距和挑戰時,這種靈活的方法是必要的。其中一種方法是 CAE(聲明、論證、證據)框架,它基于應用的自然語言演繹方法。 CAE 框架由三個部分組成:
聲明是為獲得普遍接受而提出的聲明(例如,關于系統安全/安全的聲明)。
將證據與主張聯系起來的論點。
作為索賠理由的證據。例如,證據的來源可以包括開發過程、先前的經驗、測試和正式的方法。
使用 CAE 框架,可以使用經典的和 AI 特定的方法以結構化的方式檢查給定的聲明。例如,經典的軟件分析方法對于分析實現 AI 系統的軟件代碼是必要的。另一方面,當涉及到與人工智能相關的定性方面時,例如對抗性攻擊,經典方法無法應用。通過使用反訴和確認理論 [78],CAE 可以進一步擴展到包括基于論證的方法的一個有希望的變體,可廢止推理 [80]。它通過提示評估人員反復詢問為什么某物可能不安全的問題而不是僅僅尋找支持證據來減少確認偏差的可能性。
對于某些 AI 系統關鍵屬性,例如系統的魯棒性,缺少明確的正式定義作為任何形式驗證的先決條件。 CAE 可能有助于澄清這個開放的研究問題并努力定義這些屬性。
可以以某種方式證明,人工智能系統最常見的形式屬性是逐點魯棒性。然而,這個屬性的一個主要限制源于它并不暗示系統魯棒性屬性:逐點魯棒性僅證明特定數據樣本的給定屬性,但為了顯示系統魯棒性,有必要證明這一點對于所有未來的輸入,這在大多數使用 AI 系統的實際應用中是不可行的 [72]。
因此,目前無法在形式驗證級別上對 AI 系統進行全面審計。然而,靜態分析工具可用于防止錯誤從訓練代碼傳播到 ML 算法中,并有助于為系統的安全性提供基線。現有的 AI 審計良好實踐包括 [81-84]。
復雜的 AI 模型,例如深度神經網絡 (DNN),通過在大型數據集上進行訓練來學習功能(參見第 2.1 節)。這些模型的內部工作原理以數學方式對學習的函數進行編碼,通常不適合人類解釋[85]。然而,出于多種原因,能夠解釋AI 模型的決策可能很重要。這些原因包括發現模型(以及實施它的硬件/軟件平臺)的錯誤、弱點和限制,這可能有助于提高其性能和對攻擊的魯棒性,以及滿足透明度要求,例如由歐盟通用數據保護條例,并從科學和經濟中的大型數據集中獲得新的見解。因此,需要新的方法來解釋復雜的人工智能模型,如神經網絡。相應的研究領域稱為 XAI(可解釋 AI)[86; 87]。
文獻中提出了各種解釋方法,以提供對 AI 模型不同方面的見解。一類方法旨在對模型進行全局解釋,例如,通過構建最大激活輸入 [88] 或通過研究單個神經元在深度神經網絡中的作用來分析編碼函數的極值點 [89]。雖然這些解釋確實提供了關于模型及其學習表示的有價值的信息,但它們對于理解個體預測幾乎沒有用處,即識別對模型決策產生積極或消極影響的輸入特征。本地 XAI 方法通過將相關性分數歸因于輸入特征來填補這一空白。存在不同的方法,大致可分為三類:
1.基于擾動的方法在對輸入數據應用擾動后評估模型輸出,并從發生的變化中得出解釋。這些擾動可以是無窮小的(例如,梯度)或相當粗糙的[90],此外,它們可以表示為優化問題[91]。盡管應用起來很簡單,但這些方法有幾個缺點,例如在計算方面的要求很高(梯度不是這種情況),因為必須對模型輸出進行大量評估,并且可靠性有限,因為結果是對應用的擾動高度敏感(例如,擾動輸入可能不在輸入流形或梯度破碎問題上[92])。
2.基于智能體的方法(例如 LIME,[93])查詢相關模型以獲取大量輸入,并通過本質上可解釋的更簡單模型對其進行近似。然后可以推斷出對原始模型行為的解釋。這種方法帶來的問題是,一方面,解釋對輸入查詢的采樣方式和更簡單模型的擬合方式的依賴性,另一方面,查詢原始模型的計算工作量次數。
3.基于結構的方法(例如 LRP,[94])使用網絡的內部結構來傳播從輸出到輸入數據的網絡層之間相關性的信息。這些方法的主要特定缺點是它們需要訪問模型的內部結構,因此與模型無關。然而,它們的計算強度遠低于其他方法,并且它們提供的解釋在一系列標準下得分更高(參見 [95])。
為了更全面地了解模型實施的預測策略,可以聚合或聚類多個局部解釋[96]。其他方法作用于潛在空間而不是輸入特征,從而提供更高級概念的解釋,例如顏色、形狀和物體部分 [97]。
其中一些解釋方法,例如LRP 已被用于發現大型圖像數據集中的意外偏差。例如,他們揭開了所謂的 Clever Hans 分類器 [98] 的面紗,即(看似)做出正確決策但出于錯誤原因的模型,基于版權標簽識別馬匹或基于存在的肺炎 X 射線“便攜”標簽。在更一般的情況下,這種方法可用于檢測數據中的偏差并提高模型的泛化能力。
最近,XAI 方法已應用于 DNN 之外的其他模型結構,也用于可視化之外的目的(例如網絡修剪)。然而,要充分利用 XAI 的全部潛力來幫助研究人員獲得魯棒且值得信賴的模型,仍然存在許多挑戰。限制 XAI 在許多應用程序中的優勢的一個因素是,如果輸入特征本身不容易被人類解釋,則會出現解釋差距。上述解釋方法的另一個懸而未決的問題是,它們并非專門設計用于揭示多個輸入區域之間可能存在的相互作用,例如回答圖像中多個區域中的哪些像素組合有助于特定決策。最后,還不清楚如何在沒有人工干預的情況下將 XAI 最佳地集成到模型訓練中(例如,集成到損失函數中)以改進模型。
標準是描述人工智能系統統一技術要求和支持法律框架實施的一種行之有效的方法。它們還促進了人工智能創新的市場準入,并為人工智能系統營銷人員提供了一個用于人工智能系統開發和運營的清晰框架。例如,在德國,DIN 和 DKE 是主要的標準化機構,在 CEN、CENELEC 和 ETSI 等標準化組織中代表歐盟層面的國家利益,在 ISO、IEC 和 ITU 等組織中代表國際層面的國家利益。
關于本白皮書中討論的測試和審計人工智能系統的主題,出現了哪些人工智能質量標準需要獨立測試以及需要為此類測試程序本身開發哪些標準的問題。為了解決這種缺乏標準的問題,例如,在德國,以“Normungsroadmap KI”[99] 的形式提出了對人工智能領域現狀以及對標準和規范的需求的綜合分析。應該通過標準化解決的最重要的質量維度如圖 3 所示。
圖 3:將 AI 質量標準的類別分類到合規性測試中
表 1:本白皮書涵蓋的選定主題的人工智能領域的新興標準。有關更完整的概述,請參閱[99] 和 [117]。
然而,很明顯,技術測試(“產品測試”)領域仍有相當大的發展需求,特別是在神經網絡的驗證、安全關鍵系統的可靠安全論據以及進行這些測試的工具。因此,廣泛的標準化活動將在未來幾年繼續進行。德國項目“KI-Absicherung”[118]代表了如何解決自動駕駛主題的這種需求的一個突出例子。它由一個由研究機構、汽車制造商、供應商、標準化組織和相關公共機構(如德國 BSI)組成的聯盟管理,并正在就高度自動化的基于 AI 模塊的安全性驗證策略制定行業共識。
預計未來一段時間內將通過更多類似的燈塔項目和試點,出現更多的技術測試程序,并解決相應的標準化需求。
至少對于與安全相關的 cAI 應用程序,需要實現足夠水平的穩魯棒、安全性和可審計性,并且需要制定相應的技術指南和標準。當回顧該領域的最新技術時(參見白皮書的前幾節),很明顯,一方面,許多懸而未決的問題仍然存在,但另一方面,存在許多有希望的方案和方法解決或減少這些問題的影響。此后,將根據對 cAI 生命周期的修改描述來總結未解決的問題和有希望的方法(參見圖 4):
圖 4:cAI 生命周期(參見圖 2),重點關注可審計性、IT 安全性背景下的開放性問題。
cAI 生命周期通常嵌入在整個系統生命周期中,根據具體的用例,包括多個 cIT 和 sAI 系統以及硬件設備,例如傳感器和執行器。從這個角度來看,在復雜且不斷變化的環境(漂移)中自主運行的機器永遠不會完全和最終確定,因此,不確定性和錯誤風險仍然存在。處理嵌入式 cAI 生命周期風險評估的第一種方法來自功能安全領域([119; 120],參見第 2.1 和 2.7 節)。為了定義分析、驗證人工智能系統的合適方法,首先有必要識別和理解它們的預期用途、任務和它們運行的??環境。每個特定用例都具有許多基本屬性,這些屬性用戶或監管機構期望作為系統的基本特征來實施,例如:魯棒性、安全性。在大多數情況下,任務和環境的正式定義和相關指標缺失或不完整。這有幾個不良后果,例如可接受的風險必須考慮受影響用戶的看法和意見。反過來,用戶和開發人員需要在相互之間的教育、培訓和溝通方面擁有堅實的基礎,以便在使用特定AI模型、ML算法、數據集和分析方法以及針對特定用例的進一步邊界條件方面做出明智的決定。
一個首要的開放問題是(通常是多方面的)系統所需特性之間的權衡,例如魯棒性、安全性和可審計性,一方面是人工智能模型、機器學習算法、數據和邊界條件的特征,例如模型復雜性、任務空間、可塑性、成本和性能。這些權衡限制了當前 AI 系統的可擴展性和通用性。舉個例子:1.增加模型復雜性,例如可能會對可解釋性和防御產生負面影響; 2. 增加任務空間大小會導致需要更大的訓練和測試數據集,這將使驗證變得復雜,并且更難滿足 IID 要求,而 IID 要求是訓練魯棒 AI 系統的重要先決條件; 3.加強防御往往會導致性能下降; 4. 在存在漂移的情況下保持 AI 系統的不變特性需要頻繁的重新訓練和測試,因此會增加成本; 5. 白盒模型和生命周期訪問以提高可審計性與知識產權利益的沖突; 6. 使用外部數據集和預訓練模型降低了成本,但會帶來新的漏洞,特別是對于難以檢測的后門攻擊。
研究已經提出了許多有前途的方法來解決多個層面的開放問題,例如。 1. 通過使用遷移和少樣本學習,重新訓練更加高效的系統,并且通過使用非參數和集成方法,考慮到調整元參數的需要。因此,至少對于低復雜度的模型,可塑性和穩定性可以很好地平衡; 2. 針對考慮自然和對抗性輸入性能的適當指標優化防御方法,有助于減少采用強防御方法時通常的性能下降; 3. 共享和元對抗訓練降低了處理普遍擾動的成本; 4. 盡管任務空間很大,但系統地使用合成和/或增強數據和模擬可以識別故障模式并強化人工智能系統; 5.在一定程度上抽象解釋和可證明訓練允許驗證具有更大任務空間的人工智能系統; 6. CAE 和可廢止推理等基于論證的方法允許在現有方法無法應用的情況下審計 AI 系統; 7. 利用人類先驗可以提高人工智能系統的可解釋性,并通過混合模型使人工智能系統更加健壯; 8. 通過使用解釋方法檢測數據集中的異常值、拒絕訓練期間的負面影響和相關方法(RONI,[121])或使用 bagging 集成 [122],通過數據清理來防御后門攻擊; 9. 如果白盒訪問不可行,替代模型和替代數據集至少在某些情況下可用于提高審計質量,例如產生高質量的攻擊情況下; 10. 加密方法和信任鏈可用于確保供應鏈中數據和模型的完整性。此外,可以使用這些方法的組合。
盡管有所有這些和其他有前途的方法,但必須牢記,未來任務、模型和數據集的復雜性很可能會增加,需要更強大的方法。
迄今為止,還沒有一套普遍適用的標準和工具可用于保護 AI 系統,從而可以通過嚴格的方式證明足夠低的錯誤概率。本白皮書認為,存在兩種通用策略來獲得可審計、安全和安全的 AI 系統(參見圖 5):
圖 5:在嘗試達到可接受的 IT 安全性、審計質量、魯棒性和可驗證性水平時必須考慮的多方面權衡。可實現的水平取決于多個邊界條件,例如任務復雜性和模型復雜性。對于給定的邊界條件,通過研發的技術進步可能允許例如實現更高的 IT 安全級別和/或改進的可審計性,但到目前為止,這僅在有限的范圍內起作用。
1.為給定任務創建有利的邊界條件:對開發人員和用戶進行適當的培訓以及雙方之間充分的信息交流,可以明確定義任務和可接受的邊界條件。如果將 AI 系統嵌入更大的 IT 和/或機器人系統,這構成了在 AI 系統的開發過程以及部署和操運行期間進行明智選擇的基礎。在極端情況下,開發人員或用戶可能會得出結論,必須針對特定用例完全禁止使用 AI 技術,例如:出于安全考慮。否則,根據用例,限制任務空間和限制 AI 模型的復雜性可能會帶來更好的可審計性和更安全的 AI 系統 [123]。此外,多種技術和組織措施的結合,以及根據知識產權考慮,在整個生命周期內對 cAI 模型和數據進行白盒訪問以進行評估,很可能會提高可審計性并有助于安全性。
2.投資研發以推進可用技術,最終在復雜的邊界條件下實現安全可靠的人工智能系統,從而提高可擴展性和通用性。示例包括:a) 在 AI 系統的所有安全相關方面制定適當的指標。它們有助于最大限度地減少權衡的影響,例如性能和防御強度之間的權衡; b) 結合魯棒的模型和檢測算法,在保持高性能的同時拒絕可能的惡意輸入; c)通過例如包含人類先驗混合模型以提高可解釋性; d) 高效生成大量高質量攻擊,作為開發對抗性訓練等有效防御方法的基礎; e) 生成大量高質量的真實合成數據,為 IID 數據集做出貢獻,作為訓練魯棒 AI 系統的基礎; f) 真實模擬與真實世界評估的結合,以及 g) 使用多個冗余但質量不同的系統,例如cAI、cIT 和 sAI 系統的組合。
應高度重視這兩種策略,同時在第一步中,重點關注選定的安全關鍵用例。應利用可用的標準、指南和工具(參見本白皮書的其余部分),并應進一步促進研究人員和行業之間的跨學科交流 [124] 以找到可用標準和工具的最佳組合,以實現可審計、安全和針對特定用例的強大人工智能系統。必須根據它們在各自用例中的實際利益和可行性來評估這些標準和工具。然后,在第二步中,應該使用來自這些用例的見解來概括結果并構建一個模塊化工具箱,該工具箱隨后可以應用于其他用例。在此基礎上,首先應制定技術指南和隨后的標準。在理想情況下,結果將是一套普遍適用的標準和工具,使人工智能系統具有足夠的可審計性、安全性和可靠性。
我們要感謝 Aleksander M?dry(麻省理工學院)的精彩演講以及整個研討會期間的重要評論和推動。我們還要感謝在研討會之前、期間和之后為討論做出貢獻的所有研討會參與者。我們還要感謝 VdTüV 的 Maria Sürig 和弗勞恩霍夫 HHI CINQ 中心的 Jennifer Chyla 為研討會的組織做出的重要貢獻。
工業人工智能(AI)是人工智能在工業應用中的應用,是第四次工業革命中價值創造的主要貢獻者。人工智能正被嵌入到廣泛的應用程序中,幫助組織實現重大利益,并使它們能夠轉變向市場傳遞價值的方式。本文檔為基于人工智能的工業物聯網系統的開發、訓練、文檔編制、通信、集成、部署和操作提供指導和幫助。它針對來自It和操作技術(OT)的決策者,來自多個學科的業務和技術人員,包括業務決策者、產品經理、系統工程師、用例設計師、系統架構師、組件架構師、開發人員、集成商和系統操作員。
該文檔是圍繞IIC的工業互聯網參考體系結構中的體系結構觀點構建的,即業務、使用、功能和實現觀點。該文件討論了推動人工智能采用的商業、商業和價值創造方面的考慮。它還詳細闡述了人工智能的使用引起的擔憂,工業中的用例,以及與之相關的倫理、隱私、偏見、安全、勞工影響和社會問題。在技術方面,該文檔描述了與AI相關的架構、功能和數據考慮因素,并討論了各種實現考慮因素,如性能、可靠性、數據屬性和安全性。人工智能的應用預計將在該行業加速。考慮到快速增長的計算能力、更廣泛的可用于訓練的數據以及日益復雜的算法,人工智能技術將繼續發展。當前的IT標準和最佳實踐必須不斷發展,以解決人工智能本身的獨特特點,以及與工業物聯網系統的安全性、可靠性和彈性相關的具體考慮。此外,組織在人工智能方面的日益成熟將幫助他們認識到它的利遠大于弊。人工智能標準生態系統也將繼續發展,例如ISO/IEC JTC 1/SC42正在進行的標準工作,為JTC 1、IEC和ISO委員會制定人工智能標準提供指導。基于這些趨勢,毫無疑問,人工智能將繼續推動最先進的技術和功能的可能性,因此,被認為是合理的事情也將不斷發展。對技術的態度和企業對其使用的期望也將繼續發展。在未來,我們可以預期人工智能技術的使用將成為規范,而不是例外,鑒于這種技術的社會效益,“不使用人工智能”最終可能成為不負責任的做法。
2022年3月,美國蘭德公司發布《開發嵌入人工智能應用的聯合全域指揮控制作戰概念》報告,論述了嵌入人工智能/機器學習(AI/ML)的聯合全域指揮控制(JADC2)的需求,說明了如何在JADC2中利用商業AI/ML系統和需要克服的障礙,并指出了發展路徑。報告認為,為實現嵌入人工智能應用的JADC2,需要投入人力和資源來超越如今的人力密集型指揮控制模式,用自動化和AI/ML技術改進當前的規劃過程。
報告核心觀點包括:
將人工智能(AI)和機器學習(ML)納入JADC2進行多域作戰(MDO)之前要完成一項艱巨的任務,即建立“信息基礎”。信息基礎中的數據帶有標記,能夠安全地存儲和傳輸,且易于訪問。建立信息基礎需要持續整理和保護軍方為開展指揮控制所需的跨領域、跨軍種和跨梯隊的所有信息。這些信息是AI和ML算法所需的輸入。如果沒有這樣一個信息基礎,將AI融入JADC2的工作就無法取得進展。 盡管最近AI/ML在游戲領域取得了令人鼓舞的成功,但考慮到信息不完整、數據質量差和對手行動等現實障礙,在某些指揮控制功能中使用類似的技術仍具有挑戰性。其他AI/ML技術,例如用于預測戰區內飛機狀態的應用,其成熟度更高。實現JADC2目標取決于確定核心軍事任務集的指揮控制需求,以及建立在近期和遠期都可以實現的軟件開發計劃。
現代戰爭已經超越了傳統的陸、空、海領域,軍事指揮官及其參謀人員計劃、指揮和控制部隊不能局限于這些傳統領域,還要擴展到太空、網絡和電磁頻譜領域。更復雜的是,跨領域的活動已經超出了傳統戰爭的范疇,**在還未采取公開敵對行動之前,大多數國家早已身處競爭環境。**軍隊必須能夠在戰爭和競爭中整合這些領域。今天的軍事行動已經需要靈活和安全的手段來跨梯隊、領域、組織和地理區域進行通信和共享數據。未來的全域戰爭和競爭將對獲取信息的規模和速度、對信息的理解和快速決策提出更高的要求,這些都是JADC2能力的關鍵要素。
但是,今天用于規劃、調度和執行監視軍事任務的既存系統和基礎設施不適用于現代全域作戰。鑒于多域作戰規劃日益復雜,期限縮短,而且數據要求增加,軍事規劃人員需要新的工具,包括AI/ML工具。 要想確定對AI/ML工具投入的優先級,就需要了解這些工具的能力、面臨的障礙以及它們滿足多域作戰下新興指揮控制需求的潛力。
圖1 機器學習的類型
近來,AI/ML系統在日益復雜的游戲中展現出人類所不能及的能力,再加上人們對未來高端沖突作戰需求日益加深的理解,使AI/ML變得極具吸引力。作為一種AL/ML系統,AlphaStar在即時戰略游戲《星際爭霸》中的成功**預示著監督學習和強化學習未來有可能應用于戰術級和戰役級指揮控制。**但是,將這些技術從游戲過渡到戰爭仍需要大量的研究。
隨著人工智能算法被開發用于現實、動態、多領域、大規模和快節奏的作戰,需要選擇、評估和監控重要的度量標準來衡量算法的性能、有效性和適用性。關鍵的算法度量標準包括:效率(計算所需的時間和內存)、可靠性(算法是否產生有效的結果)、最優性(算法是否為給定目標提供最佳結果)、穩健性(算法是否能夠在意外情況下平緩降級)、可解釋性(人是否能理解所產生結果的原因)和確定性(算法是否按預期運行)。
由于商業和學術AI/ML系統沒有直接應用于軍事任務,這些技術需要過渡到軍事環境才能帶來作戰優勢。為了決定采用哪些AI/ML技術,軍方**必須首先了解需要這些技術支持哪些作戰需求,如空中優勢、防空、加油機支持等。隨后作戰需求將決定****實現作戰任務所需的指揮控制過程,**如態勢感知、空域去沖突等。**了解AI/ML技術的局限性,**尤其是它們在不確定條件下進行推理時遇到的困難,也同樣重要。否則,這些技術可能會達不到預期。
圖2 AI/ML關系
實現AI/ML的軍事應用存在以下四個主要障礙。
(1)軍事文化與商業文化的差異
由于在戰爭中生命始終處于危險之中,軍事文化通常是規避風險的。但是在商業世界中,承擔大的風險可能獲得豐厚的經濟回報。這種文化差異在共享數據方面表現最為突出。軍方傾向于保護信息(只有那些“需要了解”的人才能獲取信息),而商業世界重視開放數據訪問(“廣泛共享”),以促進應用開發并獲得經濟利益。因此,將安全考慮納入軍事軟件開發和信息技術(IT)行動(稱為DevSecOps)非常重要,由此能夠挫敗試圖通過網絡手段削弱指揮控制的對手和危險份子。最大的挑戰可能是如何確保AI/ML算法適用于真實戰場。在戰場中,“戰爭迷霧”、不完整的信息和對手的行動與游戲環境截然不同。
(2)軍方內部數據不可訪問
軍方需要統一的數據管理政策和足夠先進的信息技術使指揮控制人員可以訪問大量數據,由此支持他們的人工智能輔助決策。換句話說,**必須有一個支持收集、標記、存儲、保護和共享數據的AI生態系統。**這個生態系統將依賴于通用數據標準、明確指定的權限、完整性檢查和入侵防護。**云計算和數據湖將是關鍵組成部分。**云數據湖可以用于分布式計算、冗余存儲和整個企業內的連接。考慮到現有的軍事政策、文化、權限、預算和獲取途徑,構建這樣一個環境以跨領域和跨安全級別的安全方式提供大量數據將對JADC2提出挑戰。
(3)需要重組軍事行動中心并培訓中心的人員
機器之間通信的增加和指揮控制過程的自動化,可能會帶來作戰中心硬件和人員的變化,這使人類作戰人員能夠聚焦認知任務,如評估和完善潛在的行動方案。采用AI/ML技術將創造出新的角色和職責。作戰人員需要接受培訓以便管理和運營AI生態系統,同時充當數據管理員,確保在該生態系統中捕獲和存儲的數據的質量和完整性。此外,雖然現在規劃人員和決策人員受到的培訓是要在一個領域內思考,但新的職責可能會出現,需要人們同時在多個領域內思考。
**(4)存在軍事亞文化 **
由于作戰人員之間亞文化的差異、規劃時間線的不同,以及為實現不同的作戰效果而采用的不同的權限分配方案,即使在一個軍種內,也很難跨越空中、太空和網絡領域集成AI能力。 盡管如此,對全域指揮控制的需求是急迫的,而且這種需求越來越普遍。為此,在JADC2中嵌入AI應用必須面對和克服以上所有障礙——軍事文化、網絡安全問題、用于知識質量較差的問題的算法、數據不可訪問、作戰中心重組和培訓以及軍事亞文化。
以上障礙讓現狀看起來很嚴峻,必須立即做出改變來響應快速向前推進的迫切需求。但是,如果將實現目標的步驟分解成一個個容易解決的問題,如果軍方清楚技術的可能性和局限性,就可以取得進展。**我們的目標不應該是指揮控制的完全自動化,而是指揮控制的高效人機組隊。**實現這一目標的步驟應該包括:第一,繼續開發JADC2作戰概念并確定其優先次序;第二,在指揮控制過程中確定采用AI/ML來增強能力的需求和機會。
與此同時,有必要為數據驅動的AI生態系統設置環境,這意味著要將武器系統和相關數據遷移至多域數據湖中,供有權限的人使用,同時應用“零信任”和其他安全原則來靈活且安全地管理這些數據。隨著AI軟件應用程序的開發,有必要在作戰測試環境中對這些應用程序進行實驗,將它們與指揮控制系統集成,然后將有限的能力部署到作戰中心,接著根據用戶反饋快速更新軟件應用程序。分析師和技術專家希望探索作戰概念來促進人機組隊,建立人們對AI智能算法的信任,并提高算法的可解釋性。商業需求較少的領域可能需要有針對性的軍事投資,例如用于數據稀缺領域的AI算法學習,或者用于防御針對這些算法的攻擊的AI算法。
當前的AI/ML技術需要學習用的數據。由于缺乏真實世界的數據(缺乏這類數據也是一件幸事)來為改進這些戰爭技術提供信息,軍方可以利用建模、模擬和演習來為AI/ML算法生成訓練數據。這類算法有助于武器-目標配對等。監督或強化學習算法可以支持這種指揮控制功能,類似于最近應用于商業游戲的學習算法。但是軍事算法也必須考慮到現實世界中的不確定性,這對人類和算法來說都是一個主要困難。
正如美國空軍參謀長查爾斯?布朗(Charles Brown)2020年8月所說:“要么加速變革,要么失敗。”對現代戰爭來說,及時向JADC2邁進是必要的,而且有必要“在競爭對手的防守期限內”完成。這一需求真實存在,但對AI/ML設定現實的預期很重要。現有的指揮控制流程在自動化方面還有改進的空間,在某些情況下,在AL/ML方面也有改進的空間。美國眾議院軍事委員會主席、華盛頓州民主黨眾議員亞當?史密斯(Adam Smith)于2021年9月談到JADC2時說:“目標是正確的,但不要低估實現這個目標的難度。”
來源:防務快訊
?
對于群體智能中的人類操作員來說,關鍵情況下的決策支持至關重要。自主系統共享的大量數據很容易使人類決策者不堪重負,因此需要支持以智能方式分析數據。為此,使用了用于評估情況和指示可疑行為或統計異常值的自主系統。這增強了他們的態勢感知能力并減少了工作量。因此,在這項工作中,強調為檢測監視任務中的異常而開發的數據融合服務,例如在海事領域,可以適應支持集群智能的運營商。此外,為了使人類操作員能夠理解群體的行為和數據融合服務的結果,引入了可解釋的人工智能 (XAI) 概念。通過為某些決策提供解釋,這使得自主系統的行為更容易被人類理解。
作者解決了由于自主系統共享大量數據而導致的信息過載問題。為了緩解這個問題,他們建議通過兩種智能數據分析方式來幫助人類操作員。第一種方法是自動異常檢測,這可能會加強人類操作員的 態勢感知SA 并減少他們的工作量。第二種方法是可解釋的人工智能 (XAI) 概念;它們有可能使群體行為以及異常檢測結果更易于理解。
作者認為,控制一群無人機仍然具有挑戰性。一方面,(半自動化)群體代理“必須決定行動方案”;另一方面,人類操作員必須決定他們的行動,例如與群體互動。提出的建議力求改善人在循環中。考慮到海上監視的應用,使用非固定代理的動態方法具有幾個優點。首先,某些場景只能使用動態方法進行管理;其次,與固定監視傳感器相比,代理更便宜;第三,在多個地點靈活使用代理可以減少操作群體所需的人員數量。然而,情況評估仍然需要知情的操作員。
作者認為,在海洋領域用于船舶分析的異常檢測算法可能適用于引入以下場景的群體。“假設我們有一個群體來支持海上船只,這些船只不僅會收集它們自己的傳感器系統可用的數據,還會收集所有資產的數據。所有來源收集的信息都需要融合成一幅連貫的畫面。這不應僅限于 JDL 數據融合的第一級,而應包括更高級別的數據融合過程,以獲取有關附近所有對象的可用信息。” 數據驅動的方法能夠應對這種情況。文獻提供了三種檢測位置和運動異常的方法:統計解釋為與正常行為相比的異常值;聚類分析聚類相似的軌跡和確切的路線;用于建模正常移動模式的深度學習方法。為了應對更復雜的場景,包括船舶周圍環境(基礎設施、地理、天氣等)在內的算法是必要的。在某些復雜異常的情況下,區分正常和異常行為需要基于規則、基于模糊、多智能體或基于概率圖形模型的算法。對于所有提到的算法類別,作者都指出了大量的示例算法。
一些算法是黑盒模型,因此,它們的解釋對于人類操作員來說是復雜的。XAI 概念可以幫助緩解這個問題。XAI 概念旨在“提供道德、隱私、信心、信任和安全”,并努力在“它已經做了什么、現在正在做什么以及接下來會發生什么”中明確決策。,從而提高了人工操作員的 SA。考慮到 XAI 模型,模型特定方法(僅限于某些數學模型)可以與模型無關(適用于任何類型的模型)方法區分開來。
在目前的貢獻中,重點是與模型無關的方法。考慮到這些,局部解釋方法(解釋整個模型的單個預測結果)可以與全局解釋方法(解釋整個模型的行為,例如以規則列表的形式)區分開來。此外,作者使用特征屬性、路徑屬性和關聯規則挖掘來區分方法。通過特征屬性,“用戶將能夠了解他們的網絡依賴于哪些特征”;方法示例是提供全局和局部可解釋性的 Shapley Additive Explanations (SHAP) 和指示“模型在進行預測時考慮的輸入特征” 的局部可解釋模型無關解釋 (LIME)。路徑集成梯度(PIG,使用局部解釋)等路徑屬性提供了對模型預測貢獻最大的特征,從而深入了解導致決策的推理。關聯規則挖掘(ARM)是另一種使用全局解釋的方法,發現大型數據集中特征之間的相關性和共現。ARM 方法使用簡單的 if-then 規則,因此被認為是最可解釋的預測模型。可伸縮貝葉斯規則列表 (SBRL)、基尼正則化 (GiniReg) 和規則正則化 (RuleReg) 技術被認為適用于監視任務。
作者認為,使用這樣的 XAI 概念,人類操作員(決策者)可以更好地理解、更好地控制和更好地與一群自主代理進行通信,尤其是在具有挑戰性的環境中。總而言之,將異常檢測和 XAI 概念這兩種方法應用于人類在環、用戶對群體智能的理解和信任可能會得到改善。
在過去十年中,自動駕駛在研發方面取得了重大的里程碑。人們有興趣在道路上部署自行操作車輛,這預示著交通系統將更加安全和生態友好。隨著計算能力強大的人工智能(AI)技術的興起,自動駕駛車輛可以高精度地感知環境,做出安全的實時決策,在沒有人為干預的情況下運行更加可靠。
然而,在目前的技術水平下,自動駕駛汽車中的智能決策通常不為人類所理解,這種缺陷阻礙了這項技術被社會接受。因此,除了做出安全的實時決策外,自動駕駛汽車的AI系統還需要解釋這些決策是如何構建的,以便在多個政府管轄區內符合監管要求。
該研究為開發自動駕駛車輛的可解釋人工智能(XAI)方法提供了全面的信息。首先,全面概述了目前最先進的自動駕駛汽車行業在可解釋方面存在的差距。然后,展示該領域中可解釋和可解釋受眾的分類。第三,提出了一個端到端自動駕駛系統體系結構的框架,并論證了XAI在調試和調控此類系統中的作用。最后,作為未來的研究方向,提供自主駕駛XAI方法的實地指南,提高操作安全性和透明度,公開獲得監管機構、制造商和所有密切參與者的批準。
9月25日,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》(以下簡稱《倫理規范》),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引。
《倫理規范》經過專題調研、集中起草、意見征詢等環節,充分考慮當前社會各界有關隱私、偏見、歧視、公平等倫理關切,包括總則、特定活動倫理規范和組織實施等內容。《倫理規范》提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等6項基本倫理要求。同時,提出人工智能管理、研發、供應、使用等特定活動的18項具體倫理要求。《倫理規范》全文如下:
新一代人工智能倫理規范為深入貫徹《新一代人工智能發展規劃》,細化落實《新一代人工智能治理原則》,增強全社會的人工智能倫理意識與行為自覺,積極引導負責任的人工智能研發與應用活動,促進人工智能健康發展,制定本規范。
第一章 總則
第一條 本規范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。
第二條 本規范適用于從事人工智能管理、研發、供應、使用等相關活動的自然人、法人和其他相關機構等。(一)管理活動主要指人工智能相關的戰略規劃、政策法規和技術標準制定實施,資源配置以及監督審查等。(二)研發活動主要指人工智能相關的科學研究、技術開發、產品研制等。(三)供應活動主要指人工智能產品與服務相關的生產、運營、銷售等。(四)使用活動主要指人工智能產品與服務相關的采購、消費、操作等。
第三條 人工智能各類活動應遵循以下基本倫理規范。(一)增進人類福祉。堅持以人為本,遵循人類共同價值觀,尊重人權和人類根本利益訴求,遵守國家或地區倫理道德。堅持公共利益優先,促進人機和諧友好,改善民生,增強獲得感幸福感,推動經濟、社會及生態可持續發展,共建人類命運共同體。(二)促進公平公正。堅持普惠性和包容性,切實保護各相關主體合法權益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。在提供人工智能產品和服務時,應充分尊重和幫助弱勢群體、特殊群體,并根據需要提供相應替代方案。(三)保護隱私安全。充分尊重個人信息知情、同意等權利,依照合法、正當、必要和誠信原則處理個人信息,保障個人隱私與數據安全,不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵害個人隱私權。(四)確保可控可信。保障人類擁有充分自主決策權,有權選擇是否接受人工智能提供的服務,有權隨時退出與人工智能的交互,有權隨時中止人工智能系統的運行,確保人工智能始終處于人類控制之下。(五)強化責任擔當。堅持人類是最終責任主體,明確利益相關者的責任,全面增強責任意識,在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任。(六)提升倫理素養。積極學習和普及人工智能倫理知識,客觀認識倫理問題,不低估不夸大倫理風險。主動開展或參與人工智能倫理問題討論,深入推動人工智能倫理治理實踐,提升應對能力。
第四條 人工智能特定活動應遵守的倫理規范包括管理規范、研發規范、供應規范和使用規范。
第二章 管理規范
第五條 推動敏捷治理。尊重人工智能發展規律,充分認識人工智能的潛力與局限,持續優化治理機制和方式,在戰略決策、制度建設、資源配置過程中,不脫離實際、不急功近利,有序推動人工智能健康和可持續發展。
第六條 積極實踐示范。遵守人工智能相關法規、政策和標準,主動將人工智能倫理道德融入管理全過程,率先成為人工智能倫理治理的實踐者和推動者,及時總結推廣人工智能治理經驗,積極回應社會對人工智能的倫理關切。
第七條 正確行權用權。明確人工智能相關管理活動的職責和權力邊界,規范權力運行條件和程序。充分尊重并保障相關主體的隱私、自由、尊嚴、安全等權利及其他合法權益,禁止權力不當行使對自然人、法人和其他組織合法權益造成侵害。
第八條 加強風險防范。增強底線思維和風險意識,加強人工智能發展的潛在風險研判,及時開展系統的風險監測和評估,建立有效的風險預警機制,提升人工智能倫理風險管控和處置能力。
第九條 促進包容開放。充分重視人工智能各利益相關主體的權益與訴求,鼓勵應用多樣化的人工智能技術解決經濟社會發展實際問題,鼓勵跨學科、跨領域、跨地區、跨國界的交流與合作,推動形成具有廣泛共識的人工智能治理框架和標準規范。
第三章 研發規范
第十條 強化自律意識。加強人工智能研發相關活動的自我約束,主動將人工智能倫理道德融入技術研發各環節,自覺開展自我審查,加強自我管理,不從事違背倫理道德的人工智能研發。
第十一條 提升數據質量。在數據收集、存儲、使用、加工、傳輸、提供、公開等環節,嚴格遵守數據相關法律、標準與規范,提升數據的完整性、及時性、一致性、規范性和準確性等。
第十二條 增強安全透明。在算法設計、實現、應用等環節,提升透明性、可解釋性、可理解性、可靠性、可控性,增強人工智能系統的韌性、自適應性和抗干擾能力,逐步實現可驗證、可審核、可監督、可追溯、可預測、可信賴。
第十三條 避免偏見歧視。在數據采集和算法開發中,加強倫理審查,充分考慮差異化訴求,避免可能存在的數據與算法偏見,努力實現人工智能系統的普惠性、公平性和非歧視性。
第四章 供應規范
第十四條 尊重市場規則。嚴格遵守市場準入、競爭、交易等活動的各種規章制度,積極維護市場秩序,營造有利于人工智能發展的市場環境,不得以數據壟斷、平臺壟斷等破壞市場有序競爭,禁止以任何手段侵犯其他主體的知識產權。
第十五條 加強質量管控。強化人工智能產品與服務的質量監測和使用評估,避免因設計和產品缺陷等問題導致的人身安全、財產安全、用戶隱私等侵害,不得經營、銷售或提供不符合質量標準的產品與服務。
第十六條 保障用戶權益。在產品與服務中使用人工智能技術應明確告知用戶,應標識人工智能產品與服務的功能與局限,保障用戶知情、同意等權利。為用戶選擇使用或退出人工智能模式提供簡便易懂的解決方案,不得為用戶平等使用人工智能設置障礙。
第十七條 強化應急保障。研究制定應急機制和損失補償方案或措施,及時監測人工智能系統,及時響應和處理用戶的反饋信息,及時防范系統性故障,隨時準備協助相關主體依法依規對人工智能系統進行干預,減少損失,規避風險。
第五章 使用規范
第十八條 提倡善意使用。加強人工智能產品與服務使用前的論證和評估,充分了解人工智能產品與服務帶來的益處,充分考慮各利益相關主體的合法權益,更好促進經濟繁榮、社會進步和可持續發展。
第十九條 避免誤用濫用。充分了解人工智能產品與服務的適用范圍和負面影響,切實尊重相關主體不使用人工智能產品或服務的權利,避免不當使用和濫用人工智能產品與服務,避免非故意造成對他人合法權益的損害。
第二十條 禁止違規惡用。禁止使用不符合法律法規、倫理道德和標準規范的人工智能產品與服務,禁止使用人工智能產品與服務從事不法活動,嚴禁危害國家安全、公共安全和生產安全,嚴禁損害社會公共利益等。
第二十一條 及時主動反饋。積極參與人工智能倫理治理實踐,對使用人工智能產品與服務過程中發現的技術安全漏洞、政策法規真空、監管滯后等問題,應及時向相關主體反饋,并協助解決。
第二十二條 提高使用能力。積極學習人工智能相關知識,主動掌握人工智能產品與服務的運營、維護、應急處置等各使用環節所需技能,確保人工智能產品與服務安全使用和高效利用。
第六章 組織實施
第二十三條 本規范由國家新一代人工智能治理專業委員會發布,并負責解釋和指導實施。
第二十四條 各級管理部門、企業、高校、科研院所、協會學會和其他相關機構可依據本規范,結合實際需求,制訂更為具體的倫理規范和相關措施。
第二十五條 本規范自公布之日起施行,并根據經濟社會發展需求和人工智能發展情況適時修訂。
國家新一代人工智能治理專業委員會
2021年9月25日
人工智能商業時代即將來臨。新冠大流行加速了許多公司對快速數字化和利用人工智能增強其業務流程的需求。但是,新技術也帶來了新的責任。
這項針對100位C級數據和分析高管的全球調查揭示了專注于人工智能的高管們正在考慮和解決的復雜問題,以幫助他們的組織能夠以道德的方式實現人工智能。
調查發現強調了人工智能道德問題的真實程度。專注于人工智能的高管們可能會更加關注人工智能道德方面的問題。但對于企業在使用人工智能時所應承擔的責任方面,目前還沒有達成共識。
報告還探討了企業在開發過程中如何有效地克服人工智能模型偏差。
很少有企業有這樣的“設計倫理”方法,可以確保他們糾正人工智能定期測試中的偏差。
報告建議那些希望確保企業負責任地使用人工智能的高管們:
了解與人工智能相關的風險
開發更好的實踐以確保合規性
更加重視持續的模型監控和維護
主要發現: 65%的公司無法解釋具體的 AI 模型決策或預測是如何實現的。只有 35% 的受訪者以透明的方式使用AI并真正負起責任。
22% 的受訪者表示,他們的企業設有 AI 道德委員會。78% 的企業無法確保正確考慮使用新 AI 系統的道德影響。
78% 的受訪者發現優先考慮負責人的AI實踐很難獲得高管的支持。這表明對不負責任的AI使用所帶來的風險缺乏認識。
77% 的受訪者認為 AutoML 技術可能會被濫用。
90% 的高管同意模型監控的低效流程是其企業采用 AI 的障礙。
人工智能(AI)在決定我們日常體驗方面扮演著越來越重要的角色。人工智能的應用越來越多地不再局限于搜索和推薦系統,如網絡搜索、電影和產品推薦,但人工智能也被用于對個人、企業和社會至關重要的決策和流程。在招聘、借貸、刑事司法、醫療保健和教育等領域,基于web的人工智能解決方案對個人和專業的影響是深遠的。
在人工智能系統的開發和部署中,有許多因素發揮著作用,它們可能會表現出不同的、有時是有害的行為。例如,訓練數據往往來自社會和現實世界,因此它可能反映了社會對少數民族和弱勢群體的偏見和歧視。例如,少數族裔與多數族裔在類似行為上面臨更高的逮捕率,所以在沒有補償的情況下構建一個人工智能系統可能只會加劇這種偏見。
上述問題凸顯出需要監管、最佳實踐和實用工具,以幫助數據科學家和ML開發人員構建安全、隱私保護、透明、可解釋、公平和負責的人工智能系統,以避免可能對個人、企業和社會有害的意外后果和合規挑戰。
在這些原則中,模型的透明度和可解釋性是在需要可靠性和安全性的高風險領域(如醫療保健和自動化運輸)建立信任和采用人工智能系統的先決條件,以及具有重大經濟影響的關鍵工業應用(如預測性維護、自然資源勘探和氣候變化建模)。除了可解釋性,越來越多的利益相關者質疑他們的人工智能系統的公平性,因為有很多例子可以說明不考慮公平性的后果,從人臉識別對白人男性的效果明顯優于有色女性,到歧視特定群體的自動招聘系統。通過整合工具來確保模型的透明度和公平性,可以讓數據科學家、工程師和模型用戶更容易調試模型,并實現確保AI系統的公平性、可靠性和安全性等重要目標。
最后,人工智能產品通常由ML模型驅動,這些模型根據敏感用戶數據進行訓練。給定足夠的復雜性——無論是從參數的數量[例如。或者用戶級個性化——,該模型可以對用戶的私人信息進行編碼。此外,通常需要在ML生命周期的不同階段確保用戶隱私,并保護不同類型的不良行為者和威脅場景,需要隱私保護AI方法。
在本教程中,我們將概述負責任的人工智能,強調人工智能中模型的可解釋性、公平性和隱私性,關鍵的法規/法律,以及提供關于基于web的人工智能/ML系統的理解的技術/工具。然后,我們將關注可解釋性、公平評估/不公平緩解和隱私技術在行業中的應用,其中我們提出了有效使用這些技術的實際挑戰/指導方針,以及從部署幾個web規模的機器學習和數據挖掘應用模型中獲得的經驗教訓。我們將介紹不同公司的案例研究,包括搜索和推薦系統、招聘、銷售、借貸和欺詐檢測等應用領域。我們將強調,與負責任的人工智能相關的主題是社會技術的,也就是說,它們是社會和技術交叉的主題。潛在的挑戰不能由技術人員單獨解決;我們需要與所有關鍵的利益相關者一起工作——比如技術的客戶、受技術影響的人,以及具有道德和相關學科背景的人——并在設計這些系統時考慮他們的輸入。最后,基于我們在行業中的經驗,我們將為數據挖掘/機器學習社區確定開放的問題和研究方向。
//sites.google.com/view/ResponsibleAITutorial