亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本報告探討了 GHOSTS 框架的非玩家角色(NPC)客戶端生成的活動(包括軟件使用)與 GHOSTS 的默認行為和大型語言模型(LLM)生成的活動之間的比較。還探討了基本結果在復雜性和情感方面的比較。在研究中,利用了生成式人工智能(AI)系統的高級自然語言處理能力,特別是 LLMs(即 OpenAI 的 GPT-3.5 Turbo 和 GPT-4)來指導 GHOSTS 框架中的虛擬智能體(即 NPC),GHOSTS 框架是一種在計算機上模擬現實人類活動的工具。設計了一種配置,通過使用 LLM 使活動完全自動化,其中文本輸出成為可執行的智能體指令。初步研究結果表明,LLM 可以生成指令,從而在模擬環境中產生連貫、逼真的智能體行為。然而,某些任務的復雜性和指令到行動的轉換帶來了獨特的挑戰。這項研究對于提高模擬的逼真度和推動類人活動建模中的人工智能應用具有潛在的意義。建議開展進一步研究,以優化智能體對 LLM 指令的理解和響應。

方法

網絡靶場是一個模擬環境,里面有各種登錄到計算機和網絡上的 NPC。這些 NPC 在組織內執行其角色所應執行的任務。現有的 GHOSTS 框架采用客戶機-服務器安裝方式,客戶機安裝在不同的操作系統(OS)上,執行所模擬角色的預期活動。服務器組件收集已執行活動的日志,并能根據一系列可用數據為每個智能體的新活動提供指導。

每個智能體在執行活動時都有各種考慮因素,包括智能體的特定參數、智能體過去的活動以及環境因素。固定參數包括姓名、身體特征、教育程度、工作經歷等。智能體還可能具有可變的特征,如偏好、信念、動機以及隨時間演變的過去活動歷史。

標準的 GHOSTS 配置提供了一套合理的默認值,可以充分隨機化這些考慮因素,以達到 T&E 的目的。團隊成員和其他人(如研究人員、培訓/練習用戶)都使用過這些隨機化策略;我們認為這種方法已經成熟,足以應對大多數情況。例如,模擬運營部門角色的智能體可能會在工作日每 20 分鐘創建一份文檔,同時交替使用互聯網瀏覽時間,以模擬文檔創建與必要的相關研究相結合的情況。

將 OpenAI 開發的不同 LLM 集成到 GHOSTS Animator [SEI 2023b]中,以便其他研究人員和網絡練習社區能夠繼續嘗試我們在本報告中討論的功能。每個 LLM 都充當了智能體的決策功能,生成文本輸出,我們將其轉化為智能體活動的指令。

為了實現這一整合,開發了一個系統,用于解釋 LLM 的輸出,并將其映射到 GHOSTS 框架中智能體可以執行的潛在行動上。該系統考慮到了語言解釋的可變性和智能體可用行動的限制。在將范圍廣泛的可能 LLM 輸出映射到更具體的智能體行動集時,我們面臨著獨特的挑戰。(我們將在下面的章節中描述這些挑戰。)這種集成方法能夠為我們的研究目的提供最廣泛的 LLM 響應,而不管它們與 GHOSTS 的執行是否相關。

智能體決策的基礎

為了在 GHOSTS NPC 中模擬更復雜的行為,將人類推理和行為的幾個方面整合到了智能體的決策過程中。這些方面都是在每次系統迭代或周期中執行的詢問過程中考慮的。在這種情況下,詢問是 LLM 分析智能體屬性和過去活動以決定下一步行動的機會。

每個 tick 或周期的持續時間是可配置的,可以是每個 CPU 周期所需的時間,也可以是更長的持續時間,如五分鐘。在每個 tick 期間,服務器會隨機選擇幾個智能體,并詢問它們以確定潛在的行動。這些行動可以包括學習新信息、與其他智能體建立聯系或執行一項活動。

這些詢問使用我們現有的隨機化策略。其中一些策略涉及純粹的隨機決策,而另一些則依賴于基于真實世界數據的預定義范圍或概率內的隨機化。目前實施的策略圍繞四個關鍵概念:

  • 動機: 為了更準確地模擬智能體參與特定內容或執行特定操作的原因,我們需要了解他們的動機。在現實世界中,個人目的、目標和興趣往往是個人活動的驅動力。通過將動機納入模擬,我們可以模擬真實用戶的各種目標驅動行為。為此,我們采用了史蒂文-雷斯博士(Steven Reiss)設計的心理評估工具--雷斯動機檔案(Reiss Motivational Profile,RMP)[Reiss 2012]。RMP 根據人類的 16 種基本欲望來確定個人的核心價值觀和動機:權力、獨立、好奇、接受、秩序、節約、榮譽、理想主義、社會接觸、家庭、地位、復仇、浪漫、飲食、體育鍛煉和寧靜。通過模擬智能體對這些 RMP 欲望的獨特組合,我們模擬出了在整個演習過程中促使他們做出某些決定的內在動機。因此,這種理解揭示了智能體的行為傾向,有助于以更接近人類的方式指導其模擬行動。

  • 關系: 人際關系對人類行為的影響是毋庸置疑的,它塑造了我們在社交圈中的學習、決策和互動方式。為了在模擬中更好地模擬這些關系的動態變化,我們在智能體的框架中加入了關系紐帶。這種方法包括在智能體之間建立聯系,考察它們之間關系的深度,以及研究它們對彼此的影響。這種方法使我們能夠模擬大量的社會互動,例如智能體向其信任的同伴尋求建議、與同事分享內容或參與各種話題的討論。這一特點不僅增強了智能體互動的真實性,還促進了智能體之間的知識獲取過程,這與人類在家庭、工作或公共場所從社交互動中學習的方式如出一轍。因此,在我們的模擬框架中引入關系可以增強智能體行為的真實性,更好地反映現實世界中人類互動的復雜性和細微差別。

  • 知識: 人類用戶的一個顯著特點是他們在不同領域的知識廣度和深度。根據這一特點,我們為每個智能體配備了一個獨特的知識庫,以幫助塑造他們的模擬交互。這些知識庫為智能體如何尋求信息、分享專業知識或參與討論提供了信息,而所有這些都會受到他們對特定主題的理解的影響。智能體之間的動態知識獲取過程在我們的模擬中也發揮著至關重要的作用。知識獲取不僅增強了智能體互動的真實性,還通過潛在的內部威脅識別為模擬提供了額外的深度。例如,智能體知識庫中的異常變化可能表明其未經授權獲取了敏感信息,或者其關注點轉向了可能出于惡意目的而感興趣的主題。因此,將知識及其動態獲取納入智能體框架不僅能豐富模擬互動,還能增強內部威脅檢測和預防模擬的潛力。

  • 信念: 個人持有的不同信念體系是其網絡行為的基礎,包括個人價值觀、觀點以及對爭議問題的立場。這些信念左右著互動和對話,往往會影響討論的動態。為了在智能體中模擬這種信念系統,我們將貝葉斯模型集成到智能體的推理過程中,使其能夠受到觀察到的支持某種信念的證據的影響。這種整合使智能體能夠就各種問題表達自己的立場,為自己的觀點辯護,甚至參與辯論,從而模擬現實世界中的人類行為。在社交媒體的背景下,對智能體的信念進行建模有助于表現分歧話題上的兩極分化觀點,使模擬更能代表真實世界的社會動態。

總之,通過將動機、關系、知識和信念整合到智能體推理框架中,我們成功地在 NPC 中創建了更全面、更真實的人類行為模擬。有了上述這么多組合的優勢,團隊就可以配置豐富的決策詢問,以確定任何智能體可能采取的行動方案。下一步是將這些詢問完全外包給 LLM,并比較結果,以便在大多數 T&E 場景中使用。

將LLM引入過程

為了嚴格控制系統對 LLM 的訪問,我們設計了一種方法,即只有 GHOSTS 的服務器組件與人工智能進行交互。然后,服務器將人工智能生成的結果傳播給相關客戶端。這一過程的執行過程如下:

1.智能體(即 NPC)根據其默認配置,利用我們現有的隨機化方法啟動并執行一項任務,如文檔創建和網頁瀏覽。

2.智能體每隔幾分鐘向服務器報告其完成的活動。

3.同時,在這五步過程中,服務器作業每輪都會詢問一個隨機的智能體子集。至關重要的是,在每一輪開始時,步驟 2 中的活動歷史記錄都是可用的,并且可以作為代理下一步應該執行什么活動的決策因素。

4.服務器將新確定的活動傳達給客戶端,然后由客戶端執行。

5.該過程循環往復。如果智能體已經在運行,它只需尋找下一個要執行的活動。

在步驟 3 中,目標是將決定智能體活動的任務委托給 LLM,同時考慮 (A) 有關智能體的具體信息和 (B) 已執行活動的歷史記錄。考慮到 LLM 可能需要處理大量信息所帶來的成本影響,我們將 (A) 中的信息限制為最相關的細節,如個人數據、教育和組織歷史以及軟件賬戶。(B) 中的活動信息及其執行參數則用于提供智能體已完成任務的歷史記錄。

許多 LLM 應用程序編程接口(API)會根據系統或用戶直接輸入信息的不同來區分信息提示。我們使用系統級提示,以便對我們傳輸的信息和預期響應進行更嚴格的控制。這種方法使我們能夠以更精確、更可控的方式引導 LLM 的行為。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

這份國家標準與技術研究所(NIST)的可信賴與負責任人工智能報告,開發了一套對抗性機器學習(AML)領域概念的分類體系,并定義了相關術語。這個分類體系基于對AML文獻的綜述建立,按照概念層次排列,包括關鍵的機器學習方法類型、攻擊的生命周期階段、攻擊者的目標和目的、以及攻擊者對學習過程的能力和知識。報告還提供了相應的方法,以減輕和管理攻擊的后果,并指出了在人工智能系統生命周期中需要考慮的相關開放性挑戰。報告中使用的術語與AML文獻保持一致,并由一個詞匯表補充,該詞匯表定義了與人工智能系統安全性相關的關鍵術語,旨在幫助非專家讀者理解。綜合來看,這個分類體系和術語旨在為評估和管理人工智能系統的安全性的其他標準和未來的實踐指南提供信息,通過建立一個共同的語言和對迅速發展的AML領域的理解。

這份國家標準與技術研究所(NIST)的可信賴與負責任人工智能報告旨在向發展對抗性機器學習(AML)的分類體系和術語邁出一步,這反過來可能有助于保護人工智能(AI)應用免受AI系統的敵對操縱。大體上,AI系統有兩類:預測型和生成型。AI系統的組成部分至少包括數據、模型以及訓練、測試和部署機器學習(ML)模型的過程和使用它們所需的基礎設施。當適應特定領域和用例時,生成型AI系統也可能與企業文件和數據庫相連。ML的數據驅動方法在ML操作的不同階段引入了額外的安全和隱私挑戰,除了大多數運營系統面臨的傳統安全和隱私威脅。這些安全和隱私挑戰包括操縱訓練數據的敵對潛能、利用模型漏洞對AI系統性能產生負面影響的敵對開發、甚至通過與模型的惡意操縱、修改或僅僅交互來竊取有關數據中代表的人、模型本身或企業專有數據的敏感信息。在現實世界條件下,這類攻擊已被證實,其復雜性和潛在影響穩步增長。AML關注研究攻擊者的能力和目標,以及設計利用ML在開發、訓練和部署階段的漏洞的攻擊方法。AML還關注設計能夠承受這些安全和隱私挑戰的ML算法。當惡意發起攻擊時,ML的魯棒性指的是旨在管理此類攻擊后果的緩解措施。

這份報告從國家標準與技術研究所(NIST)的人工智能風險管理框架[226]中吸納了ML系統的安全性、彈性和魯棒性的概念。安全性、彈性和魯棒性是通過風險來衡量的,風險是衡量一個實體(例如,系統)受潛在情況或事件(例如,攻擊)威脅的程度以及如果發生此類事件將產生的嚴重性。然而,這份報告并沒有就風險容忍度(組織或社會可接受的風險水平)提出建議,因為這高度依賴于上下文和應用/用例的具體情況。這種風險的一般概念為評估和管理人工智能系統組件的安全性、彈性和魯棒性提供了一個有用的方法。量化這些可能性超出了本文檔的范圍。相應地,AML的分類體系是基于以下五個AML風險評估維度定義的:(i)人工智能系統類型(預測型或生成型),(ii)學習方法和攻擊發起時ML生命周期過程的階段,(iii)攻擊者的目標和目的,(iv)攻擊者的能力,(v)攻擊者對學習過程及其以外的知識

針對ML的有效攻擊范圍廣泛,迅速發展,涵蓋了ML生命周期的所有階段——從設計和實施到訓練、測試,最終到現實世界中的部署。這些攻擊的性質和力量各不相同,它們不僅可以利用ML模型的漏洞,還可以利用部署AI系統的基礎設施的弱點。雖然AI系統組件也可能受到各種非故意因素的負面影響,比如設計和實施缺陷、數據或算法偏見,但這些因素并非故意攻擊。即使這些因素可能被對手利用,它們也不在AML文獻或本報告的范圍內。

這份文檔定義了一套攻擊的分類體系,并在AML領域引入了術語。這個分類體系基于對AML文獻的綜述建立,按照概念層次排列,包括關鍵的ML方法類型和攻擊的生命周期階段、攻擊者的目標和目的、以及攻擊者對學習過程的能力和知識。報告還提供了相應的方法來減輕和管理攻擊的后果,并指出了在人工智能系統的生命周期中需要考慮的相關開放性挑戰。報告中使用的術語與AML文獻保持一致,并由一個詞匯表補充,該詞匯表定義了與人工智能系統安全性相關的關鍵術語,旨在幫助非專家讀者理解。綜合來看,這個分類體系和術語旨在為評估和管理人工智能系統的安全性的其他標準和未來的實踐指南提供信息,通過建立一個共同的語言和對迅速發展的AML領域的理解。與分類體系一樣,術語和定義并非旨在全面,而是為了幫助理解在AML文獻中出現的關鍵概念。

付費5元查看完整內容

鑒于深度神經網絡(DNNs)的復雜性和不透明性,人們已經做出了廣泛努力,使這些系統更易于解釋或用易于理解的術語解釋它們的行為。與大多數專注于算法和以模型為中心的視角的綜述不同,本工作采取了“以數據為中心”的視角,考察了數據收集、處理和分析如何促進可解釋人工智能(XAI)我們將現有工作分類為三個目的類別深度模型的解釋,涉及特征歸因和將數據點與模型輸出相關聯的推理過程;訓練數據的影響,檢查訓練數據細微差別(如數據價值和樣本異常)對決策過程的影響;以及領域知識的洞察,從數據和模型中發現潛在模式,培養新知識,以推進社會價值和科學發現。具體來說,我們將XAI方法提煉為對訓練和測試數據的數據挖掘操作,這些數據跨越不同的模態,如圖像、文本和表格數據,以及對訓練日志、檢查點、模型和其他DNN行為描述符的操作。通過這種方式,我們的研究從數據挖掘方法和應用的角度,對XAI進行了全面的、以數據為中心的審視。

//www.zhuanzhi.ai/paper/6960f37082a968c932aec73e1160f875

**1 引言 **

隨著人工智能(AI)的發展,傳統的決策技術,如感知器[1]、基于規則的系統[2]、基于案例的推理[3]和專家系統[4],已讓位于更復雜的深度神經網絡(DNNs)[5]。這些早期技術是基于人類決策過程,從基于規則的推理[6]到基于委員會的預測[7]。存儲和計算能力的激增催化了向DNNs的演變,盡管它們在視覺識別和語言建模等任務上表現出色[5],但在可解釋性方面面臨挑戰[8]。

DNNs的“黑箱”本質以及其廣泛的參數化妨礙了自動駕駛和醫療等關鍵應用中所需的透明度,引發了人們對這些模型在高風險環境中可靠性的擔憂[9]、[10]、[11]。因此,可解釋人工智能(XAI)已成為一個關鍵領域,提出了諸如LIME[12]等解決方案來改善機器學習的可解釋性1,可能增加對AI系統的信任[13]。這些XAI技術不僅努力實現模型透明度,還為數據集增加了附加價值,幫助完成諸如調試[14]和定位誤標記樣本[15]等任務,豐富了對數據集及其各自領域的理解[16]、[11]。在這項研究中,我們通過對現有文獻的全面審查,通過我們的兩個獨特觀察、三個目的和四階段XAI技術數據處理的角度進行分組和分析。 我們的第一個觀察重點關注XAI技術演變和應用背后的驅動力。在對當前文獻進行廣泛審查后,我們將主要目的概括為三個核心類別:1)深度模型的解釋:盡管深度學習模型具有高度的預測能力,但它們的“黑箱”本質限制了可解釋性[12]、[17]。XAI旨在通過闡明這些模型在每個實例基礎上的預測理由,從而促進透明度和信任[8]、[18]。2)訓練數據的影響:機器學習模型的性能取決于訓練數據的分布和質量[19]、[20]。XAI技術可以準確地指出對模型輸出產生重大影響的數據點,促進改進的訓練過程和模型簡化[21]、[22]。3)領域知識的洞察:XAI還揭示了模型和數據中特定于領域的知識,提供了在這些領域內人類理解的潛在進步,并在醫療保健和金融等高風險應用中提供寶貴的洞察[23]、[24]。 如圖1所示,XAI作為人類理解和機器學習模型復雜性之間差距的橋梁,提高了AI應用的信心[25]、[26]。

我們還發現,XAI方法遵循類似于傳統數據挖掘的結構化過程[27]、[28]、[29],將數據、算法和以人為中心的分析整合起來。以下列出了四個關鍵步驟。 1)數據獲取與收集:XAI將數據收集擴展到超越數據集,涵蓋了深度學習的生命周期,如訓練數據集、訓練日志和檢查點、測試樣本等。 2)數據準備與轉換:從模型、數據和訓練日志中提取和轉換DNNs的行為描述符,包括顯著性地圖、訓練損失曲線和輸入/損失梯度向量(也請參見表1),以便后續解釋[30]、[31]、[15]。 3)數據建模與分析:挖掘DNN行為描述符以模擬DNN決策、訓練數據貢獻和數據集模式,從而導致三種類型的分析目的:解釋、影響和洞察[11]。 4)結果報告與可視化:XAI努力的高潮是通過適當的報告和可視化來呈現發現,這取決于數據模態,例如將顯著性地圖疊加在圖像上[32]、[33],突出顯示關鍵視覺特征。

通過這些步驟,XAI增強了AI框架中的可解釋性、信任,甚至是知識與理解,促進了人類與AI的更好協同。 我們的調查采用了以數據為中心的視角來審查XAI,通過結合三個目的和四階段數據挖掘過程來分類組織技術。這項研究的貢獻包括: ? 從數據挖掘的角度對XAI范式進行技術回顧,重點關注解釋過程中的數據相關實踐[34]。這項工作開創了對XAI進行新框架系統審查的先河。 ? 引入了一個新的分類系統,圍繞XAI的三重目的和數據挖掘的四個不同階段,對當前XAI方法進行分類和闡述。 ? 對XAI未來發展的前瞻性討論,強調其揭示數據內在深層洞察的能力,這對像AI驅動的科學和醫學等領域有重要意義。

將XAI研究納入這一分類提供了一個結構化的敘述,豐富了對XAI趨勢和潛力的精確理解。 關于XAI的新興研究已在幾項調查中得到審查,突出了解釋深度模型的挑戰和重要性。Doshi-Velez和Kim[8]強調了評估XAI技術的必要性,而Carvalho等人[9]提供了一項廣泛的可解釋性方法研究,涵蓋了模型不可知和模型特定的方法。Hammoudeh和Lowd[174]將重點轉移到了訓練數據的影響上。Mohseni等人提供了一項評估XAI系統的調查和框架[175]。Marcinkeviˇcs和Vogt[16]以及Notovich等人[176]對實用XAI方法進行了擴展,提供了應用示例和技術分類。Preuer等人[177]在藥物發現中探討了領域特定的應用,而Tjoa和Guan[30]則在醫學成像中進行了探討。

與上述工作相比,我們的調查(圖2中顯示的簡要結果)通過從數據挖掘的角度探索XAI的三重角色來彌補XAI文獻中的差距:(1)解釋模型的行為以理解其決策;(2)估算數據的影響,以評估和識別關鍵樣本;(3)從模型和數據中提煉洞察,以獲得推動社會價值和科學發現的新理解。

解釋:深度模型的特征歸因和推理過程

解釋深度模型包括使用特征歸因來評估每個輸入對模型輸出的影響,并檢查推理過程以理解模型內部的決策路徑。

影響:訓練樣本的數據價值和異常檢測

通過衡量訓練樣本對決策過程的影響來解釋深度模型對于理解和驗證這些模型的輸出至關重要。這一過程通常涉及多種技術,這些技術將單個訓練樣本與模型所做決策之間的相關性映射出來[221]、[174]。在本節中,我們將現有工作分類為以下三個方向。

洞察:從數據中發現模式和知識

XAI算法有助于提取人類可讀的洞察,部分原因是它們能夠識別和解釋復雜的多維或多模態數據中的模式、相關性和異常。已經做了兩組努力:一組關注社會價值,另一組專注于科學發現的進步。 結論

本文通過數據挖掘的視角,系統地回顧了可解釋人工智能(XAI)的作用,涵蓋了三個關鍵的主題領域: ? 解釋模型行為:本綜述強調了揭示深度神經網絡(DNNs)的決策過程的必要性,從特征歸因和推理邏輯的角度出發,旨在增加AI系統的透明度和信任。 ?** 評估數據影響**:本綜述關注單個數據樣本如何塑造模型的決策和泛化性能,強調對學習的重要貢獻者,并檢測可能導致結果偏斜的任何數據異常。 ? 提煉可行洞察:超越提供解釋,本綜述尋求發現與社會價值一致并促進科學創新的新洞察,將XAI技術的知識引向實際應用。

總之,本研究對上述三個目的的XAI方法進行了全面分析,突出了當前的能力、實際用途,并識別了需要改進的領域。這一分析為進一步的研究奠定了基礎,這些研究努力將XAI更深入地整合到數據挖掘實踐中,并培育一個更透明、可靠、以用戶為中心的人工智能環境。

付費5元查看完整內容

該項目是為了支持美國國防部高級研究計劃局(DARPA)的 "開放世界新奇事物的人工智能與學習科學"(SAIL-ON)計劃。在第二階段基期工作中,我們推進了第一階段 TALONS 框架的理論和實施,并收集了智能體在新奇事物生成器生成的新奇事物上的基線性能的初步實證結果。在第二階段的選擇階段,我們將基礎階段的工作擴展到更廣泛的新奇事物生成和實施形式。

這項工作的主要成果包括:完成了新奇事物生成器的開發;對來自 3 個不同 SAIL-ON TA1 團隊的新奇事物進行了性能分析;開發了自動且可最大程度減少人為偏差的新奇事物生成與實施流程;將我們的新奇事物生成流程應用于 Monopoly、Vizdoom 和 Blocksworld 領域,從而證明我們的新奇事物生成器與領域無關;以及為 SAIL-ON 計劃提供支持。下面的項目總結和后續報告將更詳細地介紹這些成就。

項目總結

目前最先進的人工智能可以在已知已知甚至未知的情況下穩健運行。然而,人工智能仍無法可靠地檢測、描述和適應開放世界中的新奇事物。隨著研究界不斷努力實現先進的自主性,我們需要有科學依據的方法來評估人工智能體在開放世界環境中的表現。

PacMar Technologies(PMT)和 Parallax 高級研究公司開發了一套獨立于領域的理論、原則性技術和軟件工具,用于生成、描述和評估新穎性。這些理論和技術涵蓋了與領域無關的新穎性。在合同基期內,我們開發了一個測試平臺,用于評估智能體在自動駕駛汽車領域對新奇事物的反應性能,我們還在南加州大學 SAIL-ON 團隊提供的大富翁領域中實施了由我們的軟件工具自動生成的新奇事物。

我們的新奇事物生成器方法使用原則性技術自動生成新奇場景。這些場景被加載到模擬環境中,與給定的第三方人工智能體對接,以收集該智能體的性能數據。然后評估智能體在各種不同情況下處理各類新奇事物的能力。

我們將新奇定義為環境中的變化。簡而言之,變化可以是過渡函數的變化,也可以是狀態空間的變化。我們的方法有能力在過渡函數(包括行動和事件)、狀態空間定義和觀察函數中生成新穎性。精確生成新穎性的計算方法可分為兩種類型的轉換,其方式與創造性系統框架(Wiggins,2006 年)一致。我們方法的關鍵在于從八個維度對新穎性進行表征,從而支持將情景生成的重點放在可能挑戰智能體魯棒性的情況上。

我們的方法目標如下
 1.為新奇性的特征描述奠定科學基礎。 2.開發生成可用于評估智能體的新情景的技術。 3.確定這些技術的可行性及其在各領域的適用性。

本報告旨在清晰地描述我們的方法,包括新穎性生成、模擬和評估的方法。將我們的方法應用于 CARLA 的自動駕駛汽車領域、Monopoly、VizDoom 和海洋領域,有助于進一步發展理論和測試平臺軟件。最后,我們對本報告進行了總結,并提出了進一步研究的思考和啟示。

在第一階段的工作中,我們開發了一個基于新穎性多維表征的新穎情景生成框架。我們正式規定了這一多維表征、收集受測智能體數據的指標,以及評估智能體對不同類型新穎性的魯棒性的方法。在使用轉換生成新穎性的過程中,我們定義了 24 個函數簽名,并計算了應用這些簽名生成新穎性的上限復雜度。我們的研究表明,根據我們對新穎性的多維表征,使用這兩種類型的變換來改變場景生成,我們能夠顯著減少新穎場景的空間。為了支持新穎性的精確生成,我們構思了 TALONS 模擬器抽象語言(T-SAL)來描述環境和這些環境中的各個場景。我們利用這些概念來支持第三方智能體對新奇事物的魯棒性評估。

在第二階段基期工作中,我們推進了 TALONS 框架的理論和實施,并收集了智能體在新奇事物生成器生成的新奇事物上的基線性能的初步實證結果。我們制作了三個源代碼庫,詳見基礎階段最終報告,其中包含以下內容的實現:(1) TSAL 語言;(2) 新穎性生成器(實現 R 變換);(3) 使用 CARLA 自動駕駛汽車模擬器的評估框架。從理論角度來看,我們利用第一階段工作中開發的新穎性維度理論對新穎性進行了初步分析研究,并正式定義了 R 變換,然后利用這些定義正式定義了新穎性層次結構級別。

我們在第二階段選擇期內做出的獨特貢獻包括以下內容:

  • 提供更新的 TSAL 解釋器 - 基于 python 的庫,可將 TSAL 語言文檔轉換為 python 類實例。其功能包括讀取、寫入和修改 TSAL 語言文檔。在選擇期內,我們為 TSAL 問題文件文檔解析組件添加了目標表示。
  • 修訂了 T-SAL 規范定義。
  • 完成了新穎性生成器的開發--這是一個基于 python 的庫,使用 R 變換和 T 變換生成新的 TSAL 領域和問題文件。功能包括
    • 用戶可以選擇要考慮的 R 變換,從而集中搜索特定類型的新穎性。
    • 初始 T 變換包括生成隨機情景和從種子情景生成情景,種子情景具有可選規格,可防止某些謂詞類型在新情景中發生變化。
    • 我們實現了與領域無關的過濾功能,以確定新穎性是否相關--如果不處理新穎性,智能體將會看到性能降低。
  • R 變換的正式定義
  • T 變換的正式定義
  • 更新了大富翁領域的 TSAL 領域文件,并為 Vizdoom 領域、Blocksworld 領域和一個海事領域創建了 TSAL 領域文件。
  • 在 Monopoly、Vizdoom 和 Blocksworld 域中進行了評估,以完善新穎性生成器的操作,并證明它可用于多個域。
  • 為 Blocksworld 領域添加了 T 變換情景生成器示例
  • 使用我們的新穎性維度對來自 SAIL-ON TA1 團隊(WSU、UTD 和 ISI)的新穎性進行了分析。
  • 我們提供了嚴格定義的 SAIL-ON 創新水平邏輯定義。這些定義可用于檢驗新穎性是否屬于某一特定級別。
  • 正式定義了發現有價值新奇事物的三個條件,我們將這些條件稱為 "可學性條件",因為它們反映了智能體是否有望 "學會 "一個新奇事物:相關性、可注意性、可控性。
  • 我們創建了一個 "人在回路中 "的流程,開發人員可以使用我們的新奇事物生成器在其他模擬器中創建新奇事物,這些模擬器是在 TSAL 之外定義的,例如 Monopoly 和 Vizdoom。
  • 在整個執行期間出版了 4 份討論我們工作的出版物
  • 支持第 36 個月和第 42 個月的 SAIL-On 會議,包括在這兩次會議上介紹我們的工作。

付費5元查看完整內容

在本報告中,我們記錄了機器學習(ML)回歸在周期性、高度振蕩和??∞函數上的可擴展性和靈敏度。這項工作的動機是需要在潮汐傳播等周期性問題上使用 ML 回歸。在這項工作中,TensorFlow 被用來研究周期函數從一維到三維的機器可擴展性。針對一系列層、神經元和學習率,計算了每個維度的掛鐘時間,以進一步研究 ML 回歸對這些參數的敏感性。最后,比較了隨機梯度下降和 Adam 優化器的掛鐘時間和敏感性。

付費5元查看完整內容

本報告總結了 DiSPARITY 團隊開發的數字、物理和語義圖像取證與完整性方法,該團隊由南加州大學信息科學研究所領導,在 2016 年至 2020 年期間參與了 DARPA 的媒體取證計劃。DiSparity 團隊開發了各種先進的數字完整性方法(如 NoisePrint、GAN 指紋和 ManTra-Net)和物理完整性方法(如無分割光方向估計和入射光方向分析)。

在本報告中,我們介紹了針對數字完整性、物理完整性和語義完整性提出并實施的新方法。在數字完整性研究方面,我們開發了相機指紋建模和操縱檢測算法,包括

  • 基于深度學習的噪聲圖譜來表示相機特征,并通過訓練的連體網絡和分類器分別進行相機身份匹配和分類,結果達到了最先進水平。

  • 生成攝像頭噪聲藍圖的 GAN。

  • 采用多種算法和模型來執行基于圖像的操縱檢測、復制/移動定位、拼接定位和視頻面部操縱檢測,在 Medifor 評估參與者中取得了最佳性能。

  • 值得注意的算法是 ManTraNet:一種端到端可訓練的圖像操作檢測算法。

  • 用于隔離視頻中深度偽造的雙分支遞歸網絡。評估結果顯示,其性能優于所有現有方法。

對物理完整性的研究主要集中在兩個方面--(1) 入射光方向估計和 (2) 相機和成像過程指紋識別的新方法。我們開發的物理完整性算法包括

  • 設計了兩種光向估計方法(基于梯度和基于卷積網絡),評估結果表明,應用光向估計時,拼接檢測性能非常好。

  • 一些用于描述攝像機特征的指紋,如色彩指紋(濾色片靈敏度、攝像機白平衡和額外的攝像機內部非線性特性,如伽瑪校正)、JPEG 庫色度子采樣指紋和攝像機深度圖像計算指紋。在語義完整性方面,我們設計了一個端到端系統,用于索引大型圖像數據庫,并檢索給定探針圖像的出處圖像。評估結果表明,我們的系統在三個參與者中的出處過濾性能排名第二。

在一個百萬張圖像的世界集合中,我們的系統可以可靠地檢索出超過 80% 的來源圖像,而這些圖像都是排名靠前的候選圖像。這表明該系統在實際應用中大有可為。

圖 1:使用連體結構進行訓練。一個 CNN 的輸出為另一個孿生 CNN 提供所需的(相同模型和位置)或不需的(不同模型或位置)參考。

付費5元查看完整內容

本報告描述了Draper團隊作為DARPA能力感知機器學習(CAML)項目的一部分,根據HR0011-20-C-0032號合同所開展的研究。Draper與分包商UT Austin、ASU和CU Boulder合作,開發了ALPACA(能力感知的概率和抽象自主學習),這是一個能力感知自主智能體的一般框架,特別是那些基于強化學習(RL)的智能體。ALPACA提供了對RL智能體能力的洞察力,并使用戶能夠檢查和約束智能體行為,促進與人類隊友建立信任,并極大地提高現實世界應用的安全性。

一個支持ALPACA的自主智能體可以:

  • 用自然語言交流其任務策略和預期性能
  • 識別影響其行為的(可觀察和隱藏的)條件
  • 評估其在特定情況下的行為和任務結果
  • 量化其信心,包括對其任務表現和能力評估的信心
  • 當它的能力發生變化或可能突破能力界限時,更新用戶。
  • 調整其行為以更好地保持性能并符合用戶期望

ALPACA通過兩種方式進行能力交流:

1.一般能力聲明描述了以前觀察到的智能體的策略、性能和行為狀況。

2.具體的能力評估預測智能體在特定場景下的策略和表現,包括任務前和在線的情況。這些評估對用戶的興趣有反應,可以解決新的場景,并且可以在線更新。

為了實現DARPA CAML計劃的目標,Draper ALPACA團隊開發了以下關鍵技術進展:

  • 通過對程序生成的人類可理解的特征(包括直接觀察到的和隱藏的)進行決策樹學習,進行條件識別。實現了DARPA的覆蓋要求。
  • 基于在抽象和分割的軌跡數據上推斷的時間邏輯的結構化語言策略。達到DARPA的正確性要求。
  • 基于遞歸深度生成模型的概率世界模型(PWMs),能夠準確預測長時間范圍內的代理狀態,同時量化無誤差和認識性不確定性。實現了DARPA的保真度要求。
  • 事件觸發的在線結果評估,利用PWM來實時評估和重新評估智能體在特定場景中的能力。實現了DARPA的可靠性要求。

Draper ALPACA團隊在兩個基于模擬的RL應用系統上研究、演示和評估了這些進展:推土機機器人操縱任務和多變天氣下的無人機飛行任務。內部和第三方的核查和驗證表明,該團隊能夠實現DARPA為CAML項目制定的所有目標指標。

付費5元查看完整內容

由于多種因素的影響,自動機器學習(AutoML)這些年一直在快速發展,數據科學家需要創建機器學習管道原型來決定如何進行解決,并為非專業人士提供解決方案。已經創建了一些AutoML框架,但它們受到能解決的問題類型、機器學習原語的數量、管道表示語言和嚴格數據描述的限制。這些限制大多是由相當大的工程量造成的。D3M項目旨在擴大AutoML的范圍,提供創建AutoML系統所需的工具,使其能夠解決超出大部分框架的問題類型,并為用戶提供工具,使機器學習工具不需要太多的專業知識。此外,該項目還致力于實現AutoML組件的標準化,以便對不同的框架進行公平的比較,并通過開源共享該項目期間創建的基礎設施來幫助研發界改善該領域。

本文在D3M上的工作主要集中在兩個方面:在D3M小組內創建標準化AutoML工具,以及創建具有不同目的的AutoML系統和框架。在這份報告中,將介紹對該項目的主要貢獻以及AutoML系統的演變。在該項目中,創建了評估AutoML系統的工具,開發了三個AutoML系統,開發了被多個系統廣泛使用的原型,設計了測試原型的自動化框架,并通過創建AutoKeras對AutoML研發界產生了巨大影響。

付費5元查看完整內容

這項研究的主要目標是創建并嚴格評估一個純粹的神經計算機器人系統,該系統使用因果推斷來學習從人類演示中執行檢查和維護任務。我們的重點是制作一個能夠從單一示范中學習執行和概括任務的系統,就像人一樣。我們的目標系統是一個類似于CERIL的神經網絡實現,CERIL是一個因果推理系統,在機器人學習過程中為演示者的行為構建合理的解釋假設,我們以前使用傳統的符號人工智能軟件來實現。為了實現這一具有挑戰性的目標,我們的三個研究目標是:

1.創建一個神經虛擬機(NVM),一個純粹的神經計算平臺,用于實現認知層面的算法。

2.使用并加強NVM來實現一個目標導向的神經系統,用于基于因果關系知識和推理的機器人模仿學習。

3.比較人類受試者在學習與我們的機器人系統相同的程序時的表現,以獲得對模仿學習的更深理解。

付費5元查看完整內容

這本書提出和調研歸一化技術與深度分析訓練深度神經網絡。此外,作者還提供了針對特定任務設計新的規范化方法和網絡體系結構的技術細節。歸一化方法可以提高深度神經網絡(DNNs)的訓練穩定性、優化效率和泛化能力,已成為大多數先進DNN體系結構的基本組成部分。作者為闡述、理解和應用規范化方法提供了指導方針。這本書是理想的讀者致力于發展新的深度學習算法和/或其應用程序,以解決計算機視覺和機器學習任務中的實際問題。這本書也作為資源的研究人員,工程師,和學生誰是新的領域和需要了解和訓練DNN。

//link.springer.com/book/10.1007/978-3-031-14595-7

付費5元查看完整內容

近年來,針對工業生態系統的高級持續性威脅(APT)的復雜性急劇增加。這使得開發超越傳統解決方案的高級安全服務成為必須,輿論動力學(Opinion Dynamics)就是其中之一。這種新穎的方法提出了一個多智能體協作框架,允許跟蹤APT的整個生命周期。在本文中,我們介紹了TI&TO,這是一個攻擊者和防御者之間的雙人博弈,代表了一個現實的場景,雙方都在爭奪現代工業結構中的資源控制權。通過使用博弈論來驗證這種技術,我們證明,在大多數情況下,輿論動力學包括有效的第一項措施,以阻止和減少APT對基礎設施的影響。為了實現這一目標,攻擊者和防御者的模型都被標準化,并應用了一個公平的評分系統,后者用不同的策略和網絡配置運行了幾個模擬測試案例。

引言

世界各地的公司面對的網絡安全攻擊數量明顯增長,導致了巨大的經濟損失[2]。當涉及到關鍵的基礎設施(即核電站、電網、運輸和制造系統)時,這種情況變得更加嚴重,其工業控制系統必須在所有條件下保持工作。在這里,我們處理的是SCADA(監督控制和數據采集)系統,幾十年來一直在與外部網絡隔離的情況下工作;反過來,如今它們正越來越多地整合新技術,如物聯網(IoT)或云計算,在削減成本的同時外包各種服務。因此,需要做出更大的努力來跟上這種進步,以應對這些系統可能帶來的最新的攻擊載體和可利用的漏洞。

近年來最關鍵的問題之一是高級持續性威脅(APTs),這是一種復雜的攻擊,特別是針對目標基礎設施,由一個資源豐富的組織實施。它們的特點是利用零日漏洞(零時差攻擊),采用隱蔽技術,使威脅在受害者網絡中長期無法被發現。Stuxnet是第一個報道的這種性質的威脅[6],但許多其他的威脅在之后被發現,通常是在攻擊完全執行后的幾個月[7]。在網絡安全方面,只是提出了一些機制來從整體上解決這個問題,超越了傳統的機制(如防火墻、入侵防御系統(IPS)、入侵檢測系統(IDS)、防病毒),這些機制只代表了在第一階段對APT的準時保護[21]。

在這些新穎的機制中,輿論動力學(Opinion Dynamics)[15]包括一個多智能體協作系統,通過分布式異常關聯,使攻擊的整個生命周期都可以被追蹤。在本文中,我們提出了一個理論但現實的方案,以證明該方法在不同類型的攻擊模式下的有效性,使用結構可控性領域[8]和博弈論[14]支持的概念。為了這個目標,我們開發了TI&TO,這是一個雙人博弈,攻擊者和防御者為控制現代工業結構中的資源而競爭。兩個玩家都有自己的動作和相關的分數,分別根據APT和基于Opinion Dynamics的檢測系統的行為。這個博弈最終在不同的模擬中運行,旨在展示算法的能力,同時也建議將該技術與其他防御方案結合起來進行最佳配置。因此,我們可以把我們的貢獻總結為:

  • 正式定義TI&TO博弈,指定游戲板、每個玩家的目標和得分規則。
  • 設計一個攻擊者模型,以一組階段的形式,靈活地表示APT的各個階段,以表示攻擊者的行動,這些行動受制于一個確定的分數。
  • 設計一個基于使用意見動態和響應技術(即本地檢測、冗余鏈接、蜜罐)的防御者模型,以減少APT在網絡中的影響,這也意味著博弈中的相關得分。
  • 進行的實驗驗證了該算法,并推薦了返回最佳結果的防御者的配置。

本文的其余部分組織如下。第2節介紹了 "輿論動力學"的概念,并強調了應用博弈論來檢測網絡攻擊的建議。在第3節中,定義了博弈,包括規則以及攻擊和防御模型。然后,進行了幾次模擬,并在第4節進行了討論。最后,在第5節中提出了結論和未來的工作。

付費5元查看完整內容
北京阿比特科技有限公司