亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

人工智能(AI)通過提供決策建議和與問題相關的信息來協助人類決策者,具有改善人類決策的潛力。然而,要充分發揮人類與人工智能協作的潛力,仍然面臨著一些挑戰。首先,必須了解支持互補性的條件,即人類在人工智能輔助下的表現超過無輔助的人類或單獨的人工智能的情況。這項任務要求人類能夠識別出應該利用人工智能的情況,并開發出能夠學習補充人類決策者的新型人工智能系統。其次,需要準確評估人類對人工智能的心理模型,其中既包括對人工智能的期望,也包括依賴策略。第三,需要了解不同的人機交互設計選擇所產生的影響,包括人工智能輔助的時機以及應該向人類決策者展示的模型信息量,以避免認知超載和無效的依賴策略。針對這三大挑戰,將基于最新的經驗和理論研究成果提出跨學科觀點,并討論新的研究方向。

表 1: 本文研究的人工智能輔助決策的現實世界實例及相關挑戰

過去十年來,人工智能(AI)越來越多地被用于在各個領域協助人類。現在,簡單的任務都可以通過 Siri 和 Alexa 等數字人工智能助手實現自動化。人們依靠高級駕駛輔助系統(ADAS)來改善駕駛體驗。媒體平臺上的推薦系統提供個性化播放列表,其中既有用戶喜愛的內容,也有他們可能喜歡的新內容。將人工智能融入日常生活,有望節省人力,避免人類決策的盲點,并有可能挽救生命。然而,人類與人工智能的合作也面臨著許多挑戰。已部署的人工智能系統因傳播系統性偏見(Raji & Buolamwini, 2019; Gebru, 2020)、對訓練數據之外的示例概括能力差(Shen 等人,2021)以及以犧牲用戶福祉為代價優化用戶參與度等問題而受到公眾監督。這些問題源于這些人工智能系統與人類用戶的目標和價值觀不一致(Christian,2020;Gabriel,2020)。要創建符合人類價值觀和期望的人工智能,需要指定反映人類價值觀的效用函數,而這仍然是一個挑戰。就目前的形式而言,人工智能無法獨立做出對人類來說準確、可接受和公平的決策。因此,在做出決策時,除了人工智能的計算之外,還必須考慮人類決策者(DM)的專業知識和反饋。

本文將重點關注與人工智能輔助決策相關的一系列挑戰,即人工智能以預測和/或解釋的形式向做出最終決策的人類決策者提供幫助。例如,人工智能系統已被開發用于協助專家進行臨床診斷(Rajpurkar 等人,2020 年;Sayres 等人,2019 年)、金融(Bussmann 等人,2021 年)和司法(Grgic′-Hlacˇa 等人,2019 年)決策以及預測(Benjamin 等人,2023 年)。關于人工智能輔助決策的文獻越來越多,涉及多個學科和研究領域,包括人機交互(HCI)、人工智能和機器學習以及心理學(Lai 等人,2021 年)。

沒有對這些文獻進行系統性的回顧,而是綜合了已經出現的一些見解,并將重點完全放在人工智能輔助決策的性能相關方面。具體來說,研究了人工智能協助人類管理者完成獨立任務時影響決策準確性的三大挑戰。首先,討論了開發能夠補充人類管理者能力的人工智能的必要性。當熟練的人工智能助手融入決策過程時,人類必須充分了解人工智能的能力和制約因素。其次,強調人類對人工智能精確心智模型的重要性。只有當人知道如何利用這種支持來提高人類-人工智能團隊的績效時,人工智能輔助才能充分發揮其潛力。第三,討論了在人類與人工智能協同工作的不同工作流程中開發有效的人機交互方法所面臨的挑戰。這涉及確定何時提供人工智能協助和提供哪些信息,以及考慮人工智能系統適應人類認知局限性的需要。認為,認知建模有助于了解有效使用人工智能信息所面臨的障礙。表 1 結合現實世界中的例子討論了這三個挑戰,包括臨床決策支持、信用評估和高級駕駛輔助系統,在這些系統中,人工智能輔助決策正逐漸成為常態。

針對每項挑戰,都會深入探討在經驗和理論方面正在進行的跨學科研究。此外,還將提出有助于更有效地應對這些挑戰的未來研究方向。

挑戰 1:了解人類與人工智能互補性的決定因素

人類經常在兩個或更多人的小組中討論問題,并能取得比小組中任何一個人都高的成績(Kameda 等人,2022 年)。此前對人類協作工作的研究表明,績效的提高往往是由于小組成員之間的分工互補(Stasser & Abele, 2020)。將人工智能引入以前只有人類參與的工作流程,就是為了實現這一目標,即通過利用人類 DM 和人工智能的互補優勢來提高決策的準確性。至少,我們希望人工智能輔助下的人類能比無人輔助下的人類表現得更好(或至少不會更差)。許多研究之所以能夠達到這一基準,主要是因為這些研究涉及的情況是,人工智能向人類提供人工智能建議,而人工智能所表現出的準確性要高于僅靠人類的表現(Zhang 等人,2020 年;Vodrahalli 等人,2020 年)。在這種情況下,人類可以采用簡單的啟發式方法,即始終遵循人工智能的建議來提高性能。然而,這種情況提出了一個問題:在缺乏相關倫理和法律考慮的情況下,人類為什么要參與決策過程?當人工智能的輔助性能不僅超過了無輔助的人類性能,而且還超過了人工智能本身的性能時,就會出現一種更令人信服的情況。這種情況被稱為互補性(Bansal、Wu 等人,2021 年;Steyvers 等人,2022 年),表明人類與人工智能的表現優于人類或人工智能單獨的表現。盡管一些研究顯示,在人類與人工智能的綜合表現超過人工智能或人類單獨表現的情況下,結果很有希望(Bansal、Wu 等人,2021 年;Tejeda 等人,2022 年),但其他研究表明,人類 DM 對這種表現沒有貢獻,而人工智能單獨行動會帶來更好的表現。

要了解人工智能輔助決策在什么條件下會產生互補性,區分可能無法實現互補性的兩種不同原因是很有幫助的。首先,重要的是要了解人類 DM 和人工智能可以獨立貢獻哪些信息,以及這些信息能否(理論上)導致互補。例如,Steyvers 等人(2022 年)指出了分類領域互補性的一些一般條件。調查重點是成對的分類器:人類-人類、混合人類-人工智能和人工智能-人工智能(特別是兩種不同的機器分類器)對。研究結果表明,人類-人工智能混合對(將人類預測與不同程度的人工智能精確預測相結合)的性能可以超過人類-人類或人工智能-人工智能對。只要人類和人工智能預測的準確性差距保持在一個特定的閾值以下,就能實現這種優異的性能。這個閾值取決于潛在的相關性,即人類和人工智能預測之間的獨立程度。當人類和人工智能預測之間的相關性較低時,將高準確度人工智能的預測與準確度較低的人類的預測(或反之亦然)合并,仍然可以獲得比一對人類或一對人工智能更優越的性能。同樣,對人類群體決策的研究表明,當群體由認知不同的個體組成時,個體預測的統計組合可帶來準確的群體績效,從而產生不相關的預測。

在人工智能增強決策的情況下,最終預測不是通過統計手段得出的,而是人類 DM 內部認知過程的結果,人類 DM 必須將人工智能預測與自己的獨立信息相結合。理想的情況是,在人工智能比較準確的問題上,人類依靠人工智能,而在人工智能不太準確的情況下,人類依靠自己的判斷。為了確保適當的依賴,幫助人類正確識別人工智能能力互補的區域至關重要。這可以通過提供人工智能信心或解釋來實現,以幫助人類更好地理解人工智能的決策。當互補性的本質易于人類識別時,人類就能做出適當的依賴決策(Q. Zhang 等人,2022 年)。然而,目前還不完全清楚人類管理者能否更普遍地利用互補性的潛力。因此,互補性可能會失敗,因為盡管存在互補性的潛力,但由于次優的依賴決策,DM 無法實現互補性。

另一種情況是,互補性可能會失敗,因為從統計學的角度來看,互補性的潛力從未存在過(例如,人類和人工智能之間的性能差異可能足夠大,而且相關性過強),在這種情況下,即使人類 DM 做出了最佳的依賴決策,也不會產生互補性。確定互補性成功或失敗的方法之一,是觀察由人類 DM 做出最終決策的范例和將人類和人工智能的獨立決策統計合并為最終決策的范例中的性能差異。然而,在人類 DM 做出最終決策的情況下,依靠外部統計匯總器來識別和利用人工智能的互補性并不是一個可行的解決方案。正如我們在 “挑戰 2 ”中所討論的,重要的是要讓人類管理者有能力為其人工智能助手建立適當的心智模型,這樣他們就可以利用人工智能的互補能力。人類是否有效利用了人工智能提供的信息?

  • 提高人類與人工智能的互補性

必須開展更多的研究,以更好地了解促成人類-人工智能互補性的因素,并開發促進互補性的新方法。在人工智能研究方面,新開發的人工智能系統考慮到了人類是決策過程的一部分這一事實(Bansal、Nushi、Kamar、Horvitz 等人,2021 年;De 等人,2020 年;Wilder 等人,2021 年)。這些人工智能系統經過訓練,可在人類利用人工智能促進決策時優化預期的聯合表現。在心理學方面,有必要開展更多研究,以了解人工智能預測的獨立程度如何影響人類決策。在人類團隊中,團隊成員之間一定程度的認知多樣性對團隊績效有積極的促進作用,但研究人員假設,過度的認知多樣性可能會對團隊成員之間的交流產生負面影響,從而導致團隊績效不理想(Aggarwal 等人,2015 年)。同樣,雖然人類和人工智能預測之間的獨立性有助于互補,但與人類預測差異過大的人工智能預測可能不會被認為有用(Grgic′-Hlacˇa 等人,2022 年)。因此,有必要開展更多研究,以了解可能阻礙人類 DMs 有效利用人工智能預測的心理限制。

挑戰 2:了解人類對人工智能的心理模型

有效使用人工智能輔助工具的一個重要決定因素是相關人工智能的人類心智模型,其中包含一個人對人工智能的信念集合,以及對與人工智能互動效果的預期。一般來說,心智模型是人類構建的對世界的簡化表述,使他們能夠整合新信息并進行預測,同時只需花費很少的腦力(Craik,1952 年;Smyth 等人,1994 年)。因此,人工智能的心智模型越準確,人工智能就越有可能被正確使用(Bansal 等人,2019 年)。同樣,不完整和/或不正確的人工智能心智模型也可能導致人工智能的無效使用。這種不正確的心理模型可能會導致對人工智能不恰當的依賴或錯誤的信任。我們認為,深入了解人們對人工智能的心理模型有助于設計工作流程,幫助人類制定適當的依賴策略,從而提高團隊績效。

關于人們對人工智能的心智模型的研究表明,人們對人工智能有各種各樣的概念。為了組織和理解這些實證結果,我們區分了在人們實際體驗相關人工智能之前就已經形成的人工智能心智模型,這種心智模型主要是由先前的信念驅動的,以及這些模型與人類為其他人類建立的模型相比有何不同。我們還討論了人們的人工智能心智模型是如何通過與人工智能的互動體驗而形成的。

總體而言,這些實證結果表明,人們對人工智能的心智模型取決于他們對相關人工智能的熟悉程度,以及他們對其依賴決策結果的熟悉程度。如果人們對人工智能的表現比較熟悉,但對自己決定委托或依賴人工智能建議的后果并不熟悉,那么他們的心智模型可能是不完整的,可能不能準確地代表人工智能相對于自己的不同能力。也許他們對人工智能的心理評估在暴露于人工智能不可避免的錯誤之后(正確地)被降級了,但卻沒有正確地反映出這樣一個事實,即他們自己在試圖解決同樣的問題時可能并沒有表現得更好,事實上,他們在這種情況下可能表現得更差。然而,人們被告知其依賴決定的后果的研究結果表明,人們會建立更豐富的人工智能心智模型,從而在依賴自己的決定還是人工智能的決定方面具有靈活性。其他因素,如人工智能和當前決策任務的復雜性,也可能影響心智模型的忠實性。一些實驗室任務側重于相對簡單的行為任務,可能不需要大量的學習來開發有效的依賴策略。然而,在復雜的工業系統或與較高自動化水平相關的軍事應用中,DM 可能無法完全理解系統是如何工作的,因此可能會采用簡單化的策略,如不加區分地依賴人工智能(Cummings,2017)。

  • 改進心智模型評估

要了解人們對人工智能的心智模型,需要在幾個方向上開展新的研究。首先,目前人們對人工智能信念的長期變化知之甚少(Glikson & Woolley, 2020)。必須進行縱向研究,以了解人們的心智模型隨時間的變化。這些心智模型是否會隨著時間的推移而變得更加準確?此外,認知建模等方法可用于推斷人們心智模型的潛在內容,包括他們的決策策略和信念,而這些內容無法通過行為測量直接評估(如 Chong 等人,2022 年;Tejeda 等人,2022 年)。人類與人工智能交互的心智模型編碼了人類自身能力與人工智能能力之間的感知差異,利用心理學研究中關于元認知的見解來理解人們如何估計自己的自信心(Koriat 和 Levy-Sadot,1999 年)以及自己相對于他人的表現(Moore 和 Cain,2007 年)可能會有所幫助。此外,個人與人工智能的合作有可能是由直接的學習方法引導的,如無模型強化學習,而不是由對人工智能助手能力的明確心智化引導的。還需要進一步的研究來確定,在整合人工智能的建議時,個體是形成了對人工智能的明確表征,還是依賴于基本的啟發式方法。

挑戰 3:開發與人工智能互動的有效方法

為人工智能建立準確的心智模型是人類與人工智能高效協作的關鍵。因此,開發工作流程和系統以幫助人類管理者為其人工智能隊友構建準確的心理模型至關重要。具體來說,我們考慮了影響人類 DM 使用人工智能輔助的兩種主要設計選擇:選擇何時提供人工智能輔助和選擇提供哪些信息。此外,我們還討論了自適應方法,這些方法可以調整人工智能的輸出和人與人工智能的交互,從而將人類認知的局限性考慮在內。

  • 實現自適應和交互式人工智能輔助

總體而言,經驗證據表明,提供更多有關人工智能的信息并不總能提高性能。鑒于處理人工智能建議的認知資源可能有限,特別是在時間敏感(時間不足)的情況下,人工智能必須調整其輸出(例如,通過提供適當詳細程度的解釋)。過多的信息可能不利于決策(Poursabzi-Sangdeh 等人,2021 年;Schaffer 等人,2019 年)。因此,人工智能系統的設計必須適應人類 DM 的認知局限性(Cummings,2017 年)。應該向人類 DM 提供哪些信息、何時提供以及提供多少信息,這些問題突出表明,有必要制定理論框架,以推斷人工智能輔助工具對人類認知和所觀察到的表現的影響。在可解釋人工智能(Chen 等人,2022 年)的背景下,這樣的框架已經開始出現。此外,在與人工智能合作時,可以利用心理學理論和計算模型來更好地理解人類認知(Rastogi 等人,2022 年)。例如,在必須快速做出決策或需要不同程度的腦力勞動來處理人工智能輸出結果的情況下,可以利用合理資源分配理論(Lewis 等人,2014 年;Gershman 等人,2015 年;Lieder 等人,2018 年;Lieder & Griffiths,2020 年)來識別人們何時會無視人工智能的預測,如果所感知到的收益不能證明相關的時間和腦力成本是值得的。

心理學和行為經濟學的研究長期以來一直主張通過干預或 “暗示 ”來引導人們做出決策(Thaler & Sunstein, 2018)。推導計算理論的進步(Callaway 等人,2022a;Callaway 等人,2022b)使人們能夠識別最佳決策策略和有效反饋,以指導決策。Callaway 等人(2022a)證明,人工智能助手在獲得有關人們決策過程的反饋時,可以成功地促使人們采用最佳決策策略。與此類似,最佳游戲化可以重新設計環境的獎勵結構,使人們的長期目標與短期獎勵相一致。這種方法有助于人們克服近視決策傾向,在面對連續任務時表現得更有遠見(Consul 等人,2022 年;Lieder 等人,2019 年)。人工智能輔助推導是一種強大的自適應人工智能輔助范例,它可以根據人們的能力量身定制,并能減輕長期優化的認知負荷。

最后,另一個有前途的研究方向是讓人工智能輸出更具互動性。Lakkaraju 等人(2022 年)認為交互式人工智能系統非常重要,而不是以一次性輸出的形式提供解釋。在這些系統中,人類管理者可以使用自然語言對話來詢問模型做出決定的原因,從而通過一系列互動來澄清人工智能預測。此外,交互式人工智能助手已被證明能提高用戶的接受度和信任度。例如,病理學家報告說,當他們能夠在基于內容的圖像檢索(CBIR)系統中自定義搜索時,診斷效用提高了,信任度也提高了(Cai 等人,2019 年)。允許與人工智能助手進行交流和互動可以提高人們對系統的理解。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

現代沖突涉及信息武器化和操縱人類行為。人工智能(AI)及其與個人日常生活的融合有望增強、加速這些趨勢,但也會使其復雜化。兩個重要的轉變將幫助我們了解這場新興戰爭的真實面目:對人類本身的攻擊。

人工智能使信息戰變得更強大、更易獲取。生成式人工智能與數據捕捉相結合,提供了將虛假信息的進攻性使用產業化的新技術。此外,生成式人工智能與其他強大技術的結合使信息戰的潛力更加復雜。問題的關鍵在于兩用知識本身的武器化。在人工智能、神經、納米和生物技術等復雜的技術領域,生成式人工智能已經在學習如何使軍事和民用專業知識擴散化。這種能力將使國家和非國家行為者都能獲得與有影響力的技術相關的知識和指導。這種力量的擴散將改變信息戰和物理戰的性質,加劇沖突中威脅行為體之間雙重用途知識的不對稱。迫切需要為利用技術融合的濫用情景做好準備。新的融合風險將帶來集體安全挑戰,而這些挑戰在全球范圍內并沒有得到很好的理解或預期。

世界已進入復雜而危險的十年。隨著新舊威脅的交織和對多邊秩序的挑戰,戰爭、技術和網絡空間的交匯點正在發生最震撼人心的變化。現代沖突--無論是宣戰的、有爭議的還是在灰色地帶進行的--都因本質上具有雙重用途的技術革命而加劇。這些沖突融合了物理和數字戰線,入侵城市和工廠、家庭和日常設備,并隨之產生新的目標和受害者。和平與戰爭、進攻與防御、民用技術與軍用技術、國家力量與網絡代理人之間的界限正在消失。

現代沖突越來越多地涉及信息武器化以及對人類行為和觀念的操縱。人工智能(AI)的快速發展及其與個人日常生活和社會內部結構的融合,不僅有望增強和加速這些趨勢,而且還會使其復雜化。本文旨在展示兩個重要的轉變,這將有助于我們認識和理解這場新興戰爭的真面目:對人類本身的攻擊。

首先,人工智能作為一種催化劑,正在使信息戰變得更強大、更易獲取。生成式人工智能的發展與多種形式的數據采集相結合,為大幅改進、定制、擴大甚至產業化虛假信息的進攻性使用提供了新技術。例如,個性化人工智能助手和聊天機器人現在有能力與用戶進行看似真實的對話,并根據用戶的心理特征和偏好巧妙地注入操縱性內容。通過有說服力的敘述,復雜的機器人網絡可以深刻影響個人和群體的信仰。這些由算法推動的影響力爭奪戰,是為了控制人們的情感和態度,也是破壞社會凝聚力和信任的主要手段。在沖突時期,這些工具影響到平民保護和平民生存決策的關鍵要素,對民眾造成直接和間接傷害(聯合國大會,2022 年)。對于邊緣化人群和弱勢群體,如婦女和青年,這些工具可能會越來越多地制約和限制自決的概念,并可能會繼續影響后代。

其次,人工智能(包括生成式人工智能)與其他強大技術的融合是一個根本性的轉變,因為這種融合擴大并復雜化了信息戰的潛力。問題的關鍵在于軍民兩用知識本身的武器化,可能包括人類文明發展的所有形式的軍民兩用專業知識。

在人工智能、神經、納米和生物技術等復雜的技術領域,生成式人工智能已經在學習如何使戰略性軍事和民用專業知識和隱性知識擴散化。這種能力將為各種國家和非國家行為者提供獲取與有影響力的技術相關的敏感知識和指導的機會。這種力量的擴散不僅會改變信息戰和物理戰的規模,也會改變其性質,從而加劇沖突威脅方之間的雙重用途知識不對稱。迫切需要為敵方使用或濫用技術的情況做好準備,因為這些情況可能會利用原本主要是民用和有益技術的融合。這種新的風險匯合將帶來集體安全挑戰,而這些挑戰在全球范圍內并沒有得到很好的理解或預期。

利害關系重大。隨著人工智能和生成式人工智能系統重塑知識、專長和信息在沖突中以及在戰爭與和平之間的灰色地帶的使用和潛在操縱方式,現在是時候進行前瞻性思考并評估風險、脆弱性和復原形式了。雖然這對軍事力量和戰略思維會有具體影響,但預防和恢復能力將取決于全社會的反應。

本文的戰略目標有兩個方面。首先,通過深入分析人工智能與其他技術的融合如何能被用于擴大信息戰,本文旨在讓軍事當局和戰略思想家、政策制定者和法律專家、民間社會和多邊機構了解有可能威脅和削弱社會同時又逃避責任的新興戰略。其次,通過分析國際法如何適用于新出現的信息戰形式,本文旨在找出法律空白和模糊之處,以及支持國家和多邊層面治理和政策進程的潛在切入點。

本文開篇的框架部分界定了所關注的主題,并迅速回顧了近期的信息戰概念是如何與數字化轉型和不斷演變的沖突格局相關趨勢相結合的(見方框 1)。技術部分闡明了上述兩大轉變,展示了人工智能不僅如何使信息戰擴散化,還如何使其復雜化并擴大其影響。因此,技術部分將涵蓋人工智能在信息戰中的具體用途,包括心理戰;對軍隊和平民的影響;最近在現實世界中的一些表現;以及人工智能的未來潛力和與其他技術的融合。接下來是一個詳細的場景,展示了在曠日持久的武裝沖突中,以人工智能為主導的信息戰如何利用生物技術中的雙重用途知識和尖端技術來削弱公共當局,并從心理上破壞平民的穩定。法律部分回顧了國際法律框架提供的保護措施,以及可能阻礙有效保護和問責的法律空白和模糊之處。最后一節強調了軍民協同的必要性和全社會應對的要素,以加強預防和復原力。

付費5元查看完整內容

人類與智能體之間的互動無處不在,并滲透到有組織的團體和活動的概念邊界中。高績效的人類團隊通過實現共享認知的新興狀態來超越復雜領域的不確定性,在這種狀態下,知識被組織、呈現并分配給團隊成員,以便快速執行。然而,這需要個人發出可感知的特質,其他成員才能據此推斷出意圖。為了開展未來的人類和機器團隊研究,本研究為完全合作和半合作行動與項目團隊中的機器智能體提出了一種混合認知模型。混合認知模型統一了共享心智模型和交互式記憶系統的特點。由此產生的模型便于隨時在兩種認知表征中進行選擇,而計算復雜度僅為單一模型的一半。對混合認知模型的評估是在復雜程度和合作水平不斷提高的多智能體領域進行的。智能體的性能根據四個認知特征進行評估,這四個特征捕捉了項目和行動團隊中認知的性質和形式。研究采用混合方法對四個既定特征和衡量標準進行分析。結果表明,使用認知模型的智能體形成了編碼結構、感知和解釋認知形式的一致表征。此外,研究結果表明,采用混合認知模型的智能體可以在必要時在涌現的構成性和匯編性之間切換,以整合行為或知識。

第二章回顧了影響 HCM 形式化的團隊合作和共享認知方面的基礎課題,討論了因果關系建模、機器代理、多代理系統(MAS)、博弈論和強化學習(RL)方面的相關工作。第二章的結論部分介紹了為 HCM 的通用和專用算法形式所選擇的算法系列。第三章介紹了 HCM 的概念理論和形式化,介紹了其通用算法形式,并定義了實驗領域。第四章介紹了合作領域中的 HCM 實例,檢驗了假設 1 到假設 3,并強調了 HCM 在降低計算復雜性、最大限度減少無關通信以及保持對所研究領域的完全事實理解方面的功效。第五章詳細介紹了適用于非合作團隊的 HCM,并詳細介紹了測試假設 4 的混合方法研究。定性分析利用小故事對智能體的行為進行因果解釋,而定量分析則通過在重復游戲中獲得的累積分數來考量智能體的表現。第六章是本研究的結論,并提出了未來工作的方向和人機團隊的擴展。

付費5元查看完整內容

人工智能(AI)是公認的先進技術,可幫助決策過程實現高精度和高準確性。然而,由于依賴于復雜的推理機制,許多人工智能模型通常被評價為黑盒。 人類用戶往往無法理解這些人工智能模型是如何以及為何做出決策的,從而擔心其決策的可接受性。以往的研究表明,由于缺乏人類可理解的相關解釋,最終用戶無法接受這些決策。在此,可解釋人工智能(XAI)研究領域提供了一系列方法,其共同主題是研究人工智能模型如何做出決策或解釋決策。這些解釋方法旨在提高決策支持系統(DSS)的透明度,這在道路安全(RS)和空中交通流量管理(ATFM)等安全關鍵領域尤為重要。盡管決策支持系統在不斷發展,但在安全關鍵型應用中仍處于演變階段。在 XAI 的推動下,透明度的提高已成為使這些系統在實際應用中切實可行、解決可接受性和信任問題的關鍵因素。此外,根據歐盟委員會目前的 “解釋權 ”授權和全球各組織的類似指令,認證機構不太可能批準這些系統用于一般用途。這種將解釋滲透到現有系統中的沖動,為 XAI 與 DSS 相結合的研究鋪平了道路。

為此,本論文主要為 RS 和 ATFM 應用領域開發了可解釋模型。特別是,通過分類和回歸任務,開發了用于評估駕駛員車內心理工作量和駕駛行為的可解釋模型。此外,還提出了一種利用互信息(MI)從車輛和腦電圖(EEG)信號生成混合特征集的新方法。該特征集的使用成功地減少了復雜的腦電圖特征提取計算所需的工作量。互信息(MI)的概念被進一步用于生成人類可理解的心理工作量分類解釋。在 ATFM 領域,本論文開發并展示了一個可解釋的模型,用于從歷史飛行數據中預測航班起飛時間延誤。通過開發和評估這兩個領域的可解釋應用所獲得的啟示強調了進一步研究 XAI 方法的必要性。

在本博士論文的研究中,DSS 的可解釋應用是通過加法特征歸因(AFA)方法開發的,該方法是當前 XAI 研究中流行的一類 XAI 方法。盡管如此,仍有一些文獻斷言,特征歸因方法通常會產生不一致的結果,需要進行合理的評估。然而,關于評估技術的現有文獻仍不成熟,提出了許多建議方法,卻未就其在各種場景中的最佳應用達成標準化共識。為了解決這個問題,我們還根據 XAI 文獻的建議,為 AFA 方法制定了全面的評估標準。建議的評估流程考慮了數據的基本特征,并利用了基于案例推理的加法形式,即 AddCBR。本論文提出了 AddCBR,并將其作為評估流程的補充進行演示,以此作為比較 AFA 方法生成的特征歸因的基線。iXGB 生成決策規則和反事實,以支持 XGBoost 模型的輸出,從而提高其可解釋性。通過功能評估,iXGB 展示了用于解釋任意樹狀集合方法的潛力。

從本質上講,這篇博士論文最初有助于為兩個不同的安全關鍵領域開發經過理想評估的可解釋模型。其目的是提高相應 DSS 的透明度。此外,論文還引入了新穎的方法,以不同的形式生成更易于理解的解釋,超越了現有的方法。論文還展示了 XAI 方法的穩健評估方法。

圖 1.1: 研究課題、研究貢獻和收錄論文的一般映射。

付費5元查看完整內容

本論文介紹了在 Atlatl 模擬環境中設計、實施和測試人工智能 STOMp(短期優化機動)的情況。通過四個系列實驗,STOMp 的有效性在與各種已有人工智能對手的較量中得到了檢驗。第一個實驗表明,STOMp 的性能比大多數人工智能對手都有持續的提高。STOMp 必須在瞄準對方部隊與確保地形之間做出關鍵選擇。第二個實驗對參數進行了優化,揭示了在不同場景下性能最穩定的算法參數。第三個實驗重點關注其機動能力,強調其比競爭人工智能更有效地穿越障礙的能力,并展示其在不同環境中的機動性。最后,第四項實驗檢驗了它在一個特別構建的場景中的決策過程,在這個場景中,需要在戰場的不同區域同時做出相反的決策,從而展示了它評估局部優勢和做出戰術決策的能力,從而提高了它的生存能力和戰斗力。結果強化了 STOMp 算法,并使人們深入了解了該算法的優勢和局限性。總之,研究結果驗證了 STOMp 是一種適用于軍事模擬的有能力的人工智能。這項研究有助于為軍事模擬開發有效的人工智能。

論文結構如下: 第 1 章簡要介紹了本研究的背景和基本原理。第 2 章探討了過去和當前的戰斗模擬研究。第 3 章深入探討 STOMp 的技術方面,包括其啟發式評估功能和本論文所做各項實驗的目標。第 4 章介紹了實驗結果和主要發現。最后,第 5 章對論文進行了總結,總結了研究成果,并提出了未來研究的潛在改進領域。

付費5元查看完整內容

決策輔助系統是國防指揮與控制裝置的基礎,為各級決策過程提供信息。圍繞人工智能(AI)在決策輔助系統中的應用開展的現有研究認為,人工智能是此類系統性能和應用的關鍵驅動因素。然而,很少有研究探討時間因素和中間決策的存在對決策者對此類系統信任度的影響,或者當決策由另一個人輔助時,與由人工智能輔助時的影響有何不同。現有文獻認為,對人工智能的信任不同于其他信任對象。本論文通過探究信任的產生是否更多地取決于信任的對象或來源來探索這一假設。之前的一項實驗研究了當決策支持僅由人工智能系統提供時,時間和中間判斷對信任的影響。本論文對該實驗進行了擴展,同時操縱了決策輔助的來源,即人類,而不僅僅是人工智能。通過加入人與人之間信任的基礎案例,本研究可以就中間判斷和時間對決策輔助系統信任的相對影響進行比較分析。

決策輔助系統是美國防部(DOD)指揮與控制機構的基礎,為各級決策過程提供信息。團隊是美國軍隊組織和完成任務的主要要素。美國防部打算通過將人工智能嵌入戰術、組織和戰略層面的組織結構(團隊),更快地做出更好的決策,從而獲得優勢(國防部,2022、2023a、2023b)。圍繞人工智能(AI)在決策支持系統中應用的現有研究表明,信任是此類系統性能和采用的關鍵驅動因素。

問題在于,人們尚未充分認識到若干設計參數對信任和性能的影響,這可能會延遲或抵消人工智能決策支持系統的優勢(Ashoori & Weisz, 2019; Tangredi & Galdorisi, 2021)。由于這些系統將用于做出關鍵決策,或在動態、混亂的環境中為人類提供支持,因此這些系統必須值得信賴且性能良好(Babo?,2021;人工智能特設委員會,2023)。本研究的目的是,與人工智能(AI)相比,當人類的決策過程得到人類分析師的支持時,研究自變量(中間判斷和時機)對因變量(信任)的影響。這項研究旨在促進人機系統的整合,實現有效的機器/人工智能設計并更快地應用于軍事領域,加強這些機器的穩健性和復原力,并為設計有效的人機系統提供支持理論。

之前的一項調查試圖了解在僅與人工智能輔助決策系統互動時,信任是如何隨著時間的推移而演變的(Humr 等人,2023 年)。本調查比較了當決策支持來源是人類分析師和人工智能分析師時,信任度是如何演變的。通過操縱決策支持的來源,本調查旨在比較人類和人工智能群體的信任度和表現,并分析人類和人工智能群體本身的自變量的影響。

現有文獻的基本假設是,人類決策者對人工智能決策支持系統產生信任的過程不同于決策者對提供相同決策支持的另一個人類產生信任的過程。這一假設在人工智能研究中基本上沒有受到質疑。雖然人工智能系統中信任和性能的關鍵驅動因素須要并將繼續得到確定,但值得確定的是,它們與現有的以人類之間的信任為基本情況的信任模型相比有何不同。這種調查可能會挑戰現有的假設,即人類建立信任的過程因信任對象的不同而不同。按理說,無論是人類還是人工智能,信任決定都是由人類主體做出的,可能會也可能不會受到人類所信任的對象的影響。

現有文獻表明,人類建立信任的過程更多地取決于信任的對象(被信任的人或事物),而不是信任的來源(決定信任的人類)。鑒于人工智能系統的新穎性和細微差別,以及它們與人類的生物和社會稟賦的截然不同,當決策支持、信任對象是人工智能系統而非人類時,決策背景下的信任模型會有所不同這一假設通過了表面有效性的檢驗。然而,本次調查對現有文獻中這一近乎教條的假設提出了質疑,直接探討了人類對人工智能的信任是否與人類對其他人的信任有本質區別。畢竟,人類的信任過程已經發展了數千年,而機器和人工智能的存在不過是進化過程中的一眨眼。

這項研究試圖擴展之前的一項實驗(Humr 等人,2023 年),在這項實驗中,人工智能分析師為人類決策者提供意見。在該研究中,操縱的自變量是中間判斷形式的選擇和分配的時間。因變量是信任評價,其形式是詢問受試者在與決策支持體互動后,未來將某項任務委托給人工智能的可能性有多大。這項研究重復了之前的實驗,但用人類分析師代替了人工智能分析師。其他一切保持不變,以便在人類支持組和人工智能支持組之間進行比較。

這項研究發現,在由人類與人工智能系統支持決策的受試者之間,信任評價在統計學上沒有顯著差異。這些發現與人工智能信任研究領域的傳統假設相沖突,即人工智能信任是一種與一般信任根本不同的現象,因此需要獨立表達。

雖然這些發現并不能概括所有類型的信任、人工智能的使用案例或人類可能與之互動的人工智能類型,但它確實表明,與試圖重新發現人工智能或人工智能系統中可能使其值得信任的方面相比,更努力地識別人類之間信任的關鍵驅動因素對于設計可信任的人工智能可能更有價值。本研究建議未來的實驗探索信任的另一個關鍵驅動因素,即決策支持(人工智能或人類)的性能,并將其對信任的影響與本實驗中使用的自變量進行比較。此外,本研究還建議調查選擇和時機這兩個自變量如何影響決策者的整體決策表現。畢竟,信任是影響績效的一個中介變量,因此,通過直接觀察這些自變量對績效的影響,決策支持系統的設計者就能建立盡可能好的系統。

付費5元查看完整內容

將人工智能(AI)融入軍事作戰決策過程(MCDMP)已引起眾多國家和國際組織的關注。本論文探討了軍事決策的復雜領域,其特點往往是高風險情況和時間限制,這可能導致認知偏差和啟發式錯誤。在需要做出關鍵決策的流程中添加新技術,需要人類操作員做出某些調整和采取某些方法。鑒于所做決定的人道主義影響,人工智能的整合必須謹慎進行,解決潛在的阻礙因素,以確保負責任地使用這些技術。其中一些因素圍繞著人類與人工智能的合作,特別是對技術的接受程度,這可能會影響技術的使用和發展,正如文獻所指出的那樣。我們的研究將采用多方面的定性方法,結合學術文獻綜述、對具有人工智能知識的軍事科學專家的訪談以及對軍事人員的訪談,全面了解專家和軍事人員對人工智能作為決策支持系統(DSS)的印象。

這項研究提高了人們對認知結構在促進人類與人工智能合作中的重要性的認識,并揭示了軍事作戰決策者目前對使用人工智能技術輔助決策的看法。我們的目標是為正在進行的有關將人工智能作為決策支持系統整合到軍事行動中的挑戰和機遇的討論做出貢獻。我們將提供有助于在高風險環境中更明智、更有效地采用人工智能技術的見解。通過技術接受模型(TAM)和技術框架理論,我們揭示了感知、假設、期望和信任這些影響人工智能作為決策支持系統接受程度的因素。因此,通過負責任地使用人工智能工具,可以提高軍事作戰決策的有效性。

關鍵詞:軍事作戰決策過程(MCDMP)、人工智能(AI)、人-AI 合作、假設、期望、信任、認知、新技術接受、AI 應用中的挑戰、AI 在軍事中、AI 在決策中的應用

提綱

隨后的一章建立了理論框架,全面概述了將人工智能納入 MCDMP 的現狀,并討論了人工智能和軍事決策過程等相關概念。它還介紹了重要的技術接受模型、技術框架和TAM,并討論了與模型相關的概念:感知、假設、期望和信任。第三章詳細介紹了研究方法,包括定性方法、選擇標準以及數據收集和分析方法。其中包括半結構式訪談、數據分析技術、有效性和可靠性的衡量標準,以及倫理方面的考慮。第四章對收集到的數據進行分析和討論。我們將揭示和討論來自文獻和訪談的研究結果,從人工智能在 MCDMP 中的整合現狀入手,將研究結果分為以下幾類:(1)感知有用性;(2)感知易用性;(3)期望和假設;(4)信任和可信度。此外,我們還將回答研究問題。最后,第五章將對研究進行反思,總結主要發現、研究貢獻以及對進一步研究和行業行動的建議。

圖 3:軍事戰斗決策過程中人工智能整合程度的簡化模型

付費5元查看完整內容

在人工智能(AI)研究領域,制造人工通用智能(AGI)一直是一個難以實現的目標。AGI 將像人類一樣,有能力接觸新的問題領域,學習相關知識,然后使用推理過程做出決策。雖然人工智能技術已被廣泛應用于各種問題領域,但 AGI 要求人工智能能夠在編程和訓練之外進行推理。本文向制造 AGI 邁出了一小步。它描述了一種人工智能學習和開發推理路徑的機制,以便在先驗未知領域做出決策。它結合了一種經典的人工智能技術--專家系統和一種現代的改良技術--梯度下降訓練專家系統(GDTES),并利用生成式人工智能(GAI)為該系統創建網絡和訓練數據集。這些數據集可以從現有資源中創建,也可以借鑒 GAI 自己的預訓練模型中的知識。GDTES 中的學習過程用于優化人工智能的決策。雖然這種方法并不符合許多人對人工智能所定義的標準,但它提供了某種類似的能力,盡管在使用前需要一個學習過程。

自適應多域人工智能技術

本節介紹并描述 AMAIT 的設計,如圖 3 所示。首先,將提供一個概覽。然后,第 3.1 至 3.5 小節將更詳細地介紹 AMIT 系統的關鍵組成部分。

AMAIT 系統結合了 GAI、GDTES 和專家系統技術。為此,AMAIT 系統采用了 GDTES 形式的規則-事實專家系統,該系統利用小數/分數值(DFV)來表示規則。根據特定的應用領域和網絡設計,這些值可以代表部分成員資格、模糊性、置信度或其他類似內容。每種技術都發揮著關鍵作用。從根本上說,AMAIT 的長期目標是建立一個 DFV 專家系統,該系統可以對問題領域進行推理,除了設置所需的初始參數和幫助系統獲取相關數據外,無需人工干預。不過,可以在多個地方加入人工審核,以幫助學習過程并確保準確性和合規性。

系統首先要有一個 GAI 模型,能夠生成與問題領域相關的內容。這可以是一個預先訓練好的通用模型,也可以是一個為特定用途或應用領域創建的模型。該模型向翻譯/轉換器模塊提供內容,該模塊采用良好的數據格式、人類可讀的英語文本,并將其翻譯/轉換為專家系統網絡。

接下來,GAI 可用于以數據格式良好、人類可讀的英文文本形式創建訓練數據集。該數據集將提供給監督學習集創建者翻譯/轉換模塊,該模塊將為所有系統輸入生成輸入值,并為監督學習生成目標輸出。最初,該模塊用于優化應用于 GDTES 系統內規則的權重。

值得注意的是,如果有人工收集的數據,也可用于這一步驟。此外,也可以使用其他合成數據生成技術。

第三個主要步驟是利用 GAI 創建訓練數據集(同樣是格式化良好、人類可讀的英文文本),并將其提供給監督學習集創建翻譯器/轉換器模塊。在這種情況下,它被用來生成用于優化網絡本身的數據(如 [29] 中所述)。值得注意的是,在進行網絡優化后,應再次執行優化權重的過程,以最大限度地提高系統性能。為簡潔起見,圖中沒有單獨描述這一步驟。

如上所述,人工收集的數據或其他合成生成技術也可用于這一步驟。

最后,對 GDTES 模型進行測試,以確保其在投入使用前適合使用。首先,使用 GAI 提供的新數據(或人工收集的數據或以其他方式合成的數據)對其進行測試。然后,使用真實世界的數據(如果有的話)進行測試。如果適用于問題領域,還可在系統運行期間利用反饋機制對系統進行改進。

付費5元查看完整內容

人工智能(AI)通過提供決策建議和與問題相關的信息來協助人類決策者,具有改善人類決策的潛力。然而,要充分發揮人類與人工智能合作的潛力,仍然面臨著一些挑戰。首先,我們必須了解支持互補性的條件,即人類在人工智能輔助下的表現超過無輔助的人類或單獨的人工智能的情況。這項任務要求人類能夠識別在哪些情況下應該利用人工智能,以及開發新的人工智能系統,使其能夠學習如何與人類決策者互補。其次,我們需要準確評估人類對人工智能的心理模型,其中既包括對人工智能的期望,也包括依賴策略。第三,我們需要了解不同的人機交互設計選擇所產生的影響,包括人工智能輔助的時機以及應該向人類決策者展示的模型信息量,以避免認知超載和無效的依賴策略。針對這三大挑戰,我們將基于最新的經驗和理論研究成果提出跨學科觀點,并討論新的研究方向。

付費5元查看完整內容

本研究的主題是研究人工通用智能系統的挑戰--能夠獨立解決人類生活中不同領域問題的系統。本評論性專論研究的目的是探索當前人工狹義智能系統的性質、應用和風險,以及它們演變為具有通用智能的解決方案的可能性。

根據目的,將我們的工作指向以下任務:

1.分析人工智能領域的發展,描述其中的主要研究方法。

2.強調人工狹義智能系統的能力和領域。

3.對狹義智能的解決方案中實施的方法、原理和算法進行系統化。

4.概念化 "通用智能"的特征和具有這種特征的系統的挑戰。

5.將人工狹義智能系統的危害劃分為幾個關鍵點。

6.指導道德人工智能系統發展的監管工具和效果的系統化。

本文的主要研究論點是,盡管自二十世紀初以來,人工智能技術有了不可否認的進化發展,但人工通用智能系統的實現尚未被證明是可能的,應在長期的時間范圍內尋求。

本報告結論

人工狹義智能系統的發展在過去十年中取得了顯著的進步,并對人們、機構和文化產生了真正的影響。執行復雜的語言和圖像處理任務的可能性,即計算機程序在早期進化階段的主要問題,已經有了巨大的改善。目前,深度學習人工智能系統在解決視覺物體識別、機器翻譯、語音識別、語音合成、圖像合成、強化學習、社交媒體內容分析、藝術品識別、醫學圖像分析、移動廣告、金融欺詐檢測、軍事機器人訓練、評價建議等問題上應用最為廣泛。

盡管目前人工智能技術的現狀離在機器中重新創造完全的人類智能能力這一股的基礎愿望還很遠,但一些研究人員和開發人員正在努力將所取得的進展納入到具有生產、商業、運輸、醫療、教育、金融、軍事、實用和文化目的的應用中,面向社會。試圖提供更先進和規模化的服務,許多傳統和新興的人工智能系統制造商繼續投資于此類技術。

人工智能領域的理論和應用成功在該股作為一個獨立的科學分支建立后僅80年就達到了一個拐點。使用人工狹義智能系統的風險和挑戰引起了學術界和社會的嚴重關切。不斷增加的機器自動決策的智能可能性有其黑暗的一面:故意使用深度假象和不受控制的算法來推薦軍事攻擊,會導致誤導、歧視,甚至對人造成身體傷害。訓練有素的人工智能系統的偏見傾向,有助于加劇現有的社會不平等現象。

人工智能的研究已經超越了傳統的計算機和認知科學,也涵蓋了關于這些技術的社會影響問題。盡量減少人工智能系統對社會的負面影響需要創造可持續的技術解決方案。最終應用和具有普遍智能的機器的積極社會影響可以通過其創造者的道德承諾和地方、國家和國際層面的監管政策來實現。

在追求開發和使用人工通用智能系統的過程中,最重要的角色是政府,他們需要應對該股快速發展帶來的挑戰。國家監管部門對人工狹義智能系統的科學、經濟和管理重要性的認可,需要對時間和資源進行可持續的研究和開發投資,并建立一個知情和受教育的社會。

探索人工智能領域當前和未來發展的學術界和研究界在與公眾分享人工智能系統的正反兩方面趨勢和發現方面也發揮著關鍵作用。研究和評估機器學習算法對社會的影響,以實現更高的自主性,應以創造安全和與人類合作的解決方案為前提。人工智能系統必須被整合到社會福利系統中,以便在決策中明確區分人類和機器的特權。

這條線的最終成功將由人工智能系統如何幫助開展我們的日常活動來衡量,而不是它們如何有效地貶低了它們應該服務的人。目前,它們的發展仍受人類因素的制約,但沒有人知道出現什么樣的技術創新會使決策的結果有利于 "創造物 "而不是它們的 "創造者"。

付費5元查看完整內容

人工智能為我們提供了自動化任務的能力,從海量數據中提取信息,并合成幾乎與真實事物無異的媒體。然而,積極的工具也可以被用于消極的目的。特別是,網絡對手可以利用人工智能來加強他們的攻擊和擴大他們的活動。雖然攻擊性人工智能在過去已經被討論過,但有必要在組織的背景下分析和理解這種威脅。例如,一個具有人工智能能力的對手是如何影響網絡殺傷鏈的?人工智能是否比防御者更有利于攻擊者?今天組織面臨的最重要的人工智能威脅是什么,它們對未來的影響是什么?在這項研究中,我們探討了攻擊性人工智能對組織的威脅。首先,我們介紹了背景,并討論了人工智能如何改變對手的方法、策略、目標和整體攻擊模式。然后,通過文獻回顧,我們確定了32種攻擊性人工智能能力,對手可以利用這些能力來加強他們的攻擊。最后,通過橫跨工業界、政府和學術界的小組調查,我們對人工智能威脅進行了排名,并提供了對攻擊者的洞察力。

引言

幾十年來,包括政府機構、醫院和金融機構在內的組織一直是網絡攻擊的目標[1, 2, 3]。這些網絡攻擊都是由有經驗的黑客使用人工方法進行的。近年來,人工智能(AI)的發展蓬勃發展,這使得軟件工具的創造有助于實現預測、信息檢索和媒體合成等任務的自動化。在整個這一時期,學術界和工業界的成員在改善網絡防御[4, 5, 6]和威脅分析[7, 8, 9]的情況下利用了人工智能。然而,人工智能是一把雙刃劍,攻擊者可以利用它來改善他們的惡意活動。

因此,我們將攻擊性人工智能定義為:“使用或濫用人工智能來完成惡意的任務”。

對人工智能的攻擊性使用。敵人可以改進他們的戰術,發動以前不可能的攻擊。例如,通過深度學習,人們可以通過冒充其雇主的臉和聲音來進行高效的魚叉式網絡釣魚攻擊[10, 11]。還可以通過使攻擊在沒有人類監督和幫助的情況下進行(使其自動進行)來提高攻擊的隱蔽能力。例如,如果惡意軟件可以自行對網絡中的主機進行漸進式感染(又稱橫向移動),那么這將減少指揮和控制(C&C)通信[12, 13]。其他能力包括使用人工智能尋找軟件中的零日漏洞,自動進行逆向工程,有效地利用側面渠道,建立逼真的假人物,并進行更多的惡意活動,提高功效(更多的例子將在后面第3節中介紹)。

對人工智能的攻擊性濫用。對抗性機器學習是對人工智能的安全漏洞的研究。已經證明,對手可以通過制作訓練樣本來改變模型的功能,例如插入后門[14],通過操縱測試樣本(例如逃避檢測)來獲得所需的分類[15],甚至推斷出模型[16]或其訓練數據的機密信息[17]。由于組織使用人工智能來自動管理、維護、操作和防御他們的系統和服務,因此敵方可以通過在這些系統上使用機器學習來完成他們的惡意目標。 我們注意到,有些攻擊是可以不使用或濫用人工智能而實現的。然而,如果攻擊者使用人工智能使其自動或半自動運行,他們可以大大減少執行攻擊所需的工作。通過減少他們在創建有效策略方面的工作,攻擊者可以通過擴大攻擊的強度和數量來最大化他們的回報。此外,通過在攻擊鏈的幾個階段同時行動,攻擊者可以在攻擊的速度和力量上實現協同效應,變得更加危險。另一方面,一些攻擊已經被人工智能實現,例如在復雜的社會工程攻擊中克隆個人的聲音[18]。

1.1 研究綜述

在這項工作中,我們對企業安全背景下的攻擊性人工智能知識進行了研究。本文的目標是幫助行業界(1)更好地了解攻擊性人工智能對組織的當前影響,(2)優先研究和開發防御性解決方案,以及(3)確定在不久的將來可能出現的趨勢。這項工作并不是第一次提高對攻擊性人工智能的認識。在[19]中,作者警告行業界,人工智能可以被用于不道德的和犯罪的目的,并列舉了來自不同領域的例子。在[20]中,舉行了一個研討會,試圖確定人工智能在犯罪學中的潛在首要威脅。然而,這兩項工作都涉及到了人工智能對社會整體的威脅,而不是專門針對組織及其網絡。此外,盡管他們做出了大量工作并取得了初步成果,但這些先前的分析只提供了人工智能如何被用于攻擊的例子以及對其風險的可能排序,而我們的研究通過用于識別針對組織的潛在攻擊策略的標準方法,給出了攻擊性人工智能的結構化觀點,得出了與防御這些威脅有關的戰略見解。

為了實現這些目標,我們進行了一次文獻回顧,以確定具有人工智能能力的對手能力。然后我們進行了一項小組調查,以確定這些能力中哪些代表了實踐中最相關的威脅。有35名調查參與者:16名來自學術界,19名來自工業界。來自工業界的參與者來自廣泛的組織,如MITRE、IBM、微軟、谷歌、空中客車、博世、富士通、日立和華為。

從我們的文獻回顧中,我們發現了32種針對組織的攻擊性人工智能能力。我們的小組調查顯示,最重要的威脅是改善社會工程攻擊的能力(例如,使用深層假象來克隆員工的聲音)。我們還發現,行業成員最關心的是使攻擊者能夠竊取知識產權和檢測其軟件中的漏洞的攻擊。最后,我們還發現,現代攻擊性人工智能主要影響網絡殺傷鏈的初始步驟(偵查、資源開發和初始訪問)。這是因為人工智能技術還不夠成熟,無法創造出能夠在沒有人類監督和幫助下進行攻擊的智能體。我們的研究結果的完整清單可以在第5.1節找到。

1.2 本文貢獻

在這項研究中,我們做出了以下貢獻:

  • 概述了人工智能如何被用來攻擊組織及其對網絡殺傷鏈的影響(第2.3節)。
  • 根據文獻回顧和當前事件,列舉和描述了32種威脅組織的攻擊性人工智能能力(第3節)。這些能力可分為:(1)自動化,(2)活動彈性,(3)憑證盜竊,(4)漏洞開發,(5)信息收集,(6)社會工程,以及(7)隱身。
  • 根據對來自學術界、工業界和政府的成員進行的小組調查,對攻擊性人工智能如何影響組織提出了威脅排名和見解(第4節)。
  • 對人工智能威脅的預測以及由此產生的攻擊策略的轉變(第5節)。

1.3 文章結構

本文的結構如下:

  • 第2節為讀者提供了關于對理解文獻綜述很重要的主題入門知識。該部分介紹了關于人工智能、攻擊性人工智能的概念,以及攻擊性人工智能如何影響組織的安全。
  • 第3節提供了在組織安全背景下的攻擊性人工智能的文獻回顧。
  • 第4節介紹了一項小組調查的結果,以幫助確定攻擊性人工智能對組織的最小和最重要的威脅。
  • 第5節總結了研究發現,并提供了對問題的看法。

圖 1:文獻綜述中確定的 32 種進攻性 AI 能力 (OAC)。

付費5元查看完整內容
北京阿比特科技有限公司