亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

本研究探討人工智能(AI)在決策過程中不斷演變的角色,聚焦AI賦能技術如何與人類決策者互動及其影響。AI系統正加速融入商業管理至信息系統等各行業,或輔助或替代人類判斷。現有文獻強調AI融入生活與工作帶來的變革潛力與挑戰:以ChatGPT為代表的大語言模型憑借數據驅動洞察、效率提升與決策一致性等優勢被廣泛應用,但研究亦揭示需深入理解的領域——AI復制或放大人類偏見的風險、自主決策的倫理影響、人機交互的復雜性。盡管AI輔助、增強或替代人類決策已獲廣泛關注,但通過提示工程與情境應用賦予AI的角色如何影響決策結果、行為模式與建議生成,學界仍缺乏深入探索。

本論文包含四項研究,探討角色定義與目標設定對AI決策行為的影響,揭示精確定義AI角色如何在不同情境中塑造決策結果與人類決策流程。

研究1 通過系統性文獻綜述,論證機器學習與AI工具(如ChatGPT)結合提升文獻分析效率與深度的有效性。研究識別AI整合關鍵領域,揭示研究空白,指出高影響力期刊與主題,為未來研究繪制路線圖。該研究強調跨學科方法對全面理解與發揮AI潛力、應對倫理復雜性的重要性。

研究2 采用"人在回路"(HITL)框架分析AI賦能招聘流程,通過某國際招聘公司18個月質性案例研究,揭示AI工具、招聘專員與尋源分析師協作塑造招聘結果的合作模式。研究表明:AI系統實施需平衡效率與倫理及人本考量,人類判斷、監督與適應力不可或缺;組織領導力、方案適應性與人類自主權是成功關鍵要素。

研究3 通過系列實驗探究AI系統(以ChatGPT為例)被賦予的角色如何影響信息系統(IS)語境下的決策結果。研究發現:當ChatGPT被賦予人類角色時,其決策行為高度復現人類偏見;而作為AI角色時則表現出更高一致性與客觀性。研究揭示提示工程對引導AI系統符合預期決策流程的重要性——無論是模擬人類判斷還是提升決策客觀效率。

研究4 探索AI系統中的"算法厭惡"現象,測試GPT類模型在不同版本與溫度參數下對人工建議與算法輸入的響應差異。研究發現:GPT模型表現出類似人類的算法厭惡傾向,更偏好人工建議,但其表現形式與人類存在差異。該研究將算法厭惡概念擴展至AI系統,強調理解AI如何處理人機建議對設計決策支持系統的重要性,確保AI既能獨立運作又能與人類協作。

總體貢獻

本研究在四方面深化對AI決策角色的理解:

  1. 方法論創新:引入結合AI工具與機器學習的計算文獻綜述方法,識別商業管理領域趨勢、空白與高影響力期刊;
  2. 人機協作洞見:通過招聘案例實證HITL原則,強調人類賦權、自主權與持續適應對有效協作的關鍵作用;
  3. 角色效應驗證:證明大語言模型角色設定顯著影響決策行為——模擬人類角色時復現偏見,AI角色時更趨理性;
  4. 理論邊界拓展:將算法厭惡延伸至AI系統,揭示AI對人機建議的差異化處理機制。

綜上,這些研究為理解AI與人類決策者動態互動提供洞見,強調情境與角色設定對優化AI決策貢獻的重要性,為未來探索AI融入更復雜重大決策場景奠定基礎。

表1.1 研究綜述

研究編號 研究重點 研究路徑、理論基礎與方法論 主要發現 理論貢獻 實踐貢獻
研究1 商業與管理學者如何應對AI在組織中的興起?研究熱點與空白領域為何? 采用結構化主題建模與機器學習方法進行系統性文獻綜述(CLR),結合ChatGPT輔助分析 - 識別44個AI研究熱點(如客戶營銷、AI倫理)
- 揭示體育、應急響應與智慧城市等領域的空白
提出"計算文獻綜述"方法論,結合AI工具提升文獻分析效率 指導研究者鎖定高影響力期刊,優化文獻檢索路徑
研究2 AI賦能的招聘決策中如何平衡效率與倫理?人在回路(HITL)原則如何應用? 對國際招聘機構開展18個月質性案例研究,基于社會技術系統理論與HITL框架 - 發現協作型HITL配置模式
- 揭示行政負擔加重、權力重構等挑戰
拓展HITL理論在AI招聘場景的應用 提出AI招聘實施指南:強效領導力、系統適應性與人本考量
研究3 ChatGPT在信息系統中多大程度能復現人類決策行為?角色設定如何影響決策輸出? 通過提示工程實驗,測試ChatGPT在不同角色設定(人類/AI)下的決策行為 - 人類角色設定下復現決策偏見
- AI角色設定下展現更高客觀性
提出"角色中心決策框架",揭示大語言模型角色工程對決策的影響機制 為提示工程提供設計準則,優化AI決策支持系統的角色配置策略
研究4 AI系統是否存在算法厭惡?GPT模型對人類建議與算法輸入的響應差異如何? 復現經典算法厭惡實驗范式,測試GPT不同版本(3.5/4.0)在多種溫度參數下對建議來源的偏好 - GPT表現出類人算法厭惡傾向
- 對人工建議的偏好強度與溫度參數呈負相關
首次將算法厭惡理論拓展至AI系統,建立"元算法厭惡"概念 為AI協同決策系統設計提供新視角,優化人機建議權重分配機制

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

傳統軟件框架實現的智能體"信念-愿望-意圖(BDI)模型"未涵蓋人機協作場景,其焦點局限于情境智能體的自主目標導向行為。然而基于BDI框架開發的智能體已在諸多挑戰性領域成功部署,包括航天飛機故障診斷、無人機控制、空中交通管制、制造自動化及大規模軍事仿真(Jarvis等,2013)。此類部署得益于商用級軟件框架的支持:早期PRS(過程推理系統)(Georgeff & Lansky 1986)、dMARS(分布式多智能體推理系統)(D'inverno等,2005)、JACK智能體(Agent Oriented軟件公司2012b)以及近年問世的GORITE(Jarvis等,2013;R?nnquist 2007)。BDI框架與Soar(Laird, Newell & Rosenbloom 1987)共同成為知識密集型智能體應用開發的主流選擇(Jones & Wray 2006)。

但BDI框架在需要智能體與人類協作達成目標的情境中應用有限。核心癥結在于:傳統BDI智能體內部雖使用目標導向機制,其表征卻非顯性化,導致人類難以直接干預智能體活動,反之亦然。隨著GORITE框架問世,此表征限制已被突破,BDI智能體現具備與人類協同實現目標的能力,為新一代智能決策支持系統開發鋪平道路。本論文提出擴展BDI智能體模型的協作行為概念框架,并通過為GORITE框架增配協作功能模塊、基于擴展框架開發概念驗證應用進行模型驗證。

全文結構如下:第二章文獻綜述涵蓋BDI模型、人機團隊協作、半自主決策支持系統(含智能體與非智能體方案)的相關應用,最終凝練研究命題;第三章解析GORITE BDI智能體框架;第四章闡述研究方法論;第五、六章分別論述所開發的概念模型及其驗證過程;第七章總結研究成果并展望未來工作。

付費5元查看完整內容

智能決策機制(IDM)作為人工智能(AI)的核心構成,旨在實現決策流程的自動化與能力增強。現代IDM技術范式通過整合先進框架,使智能體能夠制定高效且自適應的決策方案,并將復雜任務解構為可執行步驟——例如AI智能體架構與高級強化學習。基于多模態基礎模型的最新研究方法,正將視覺、語言與傳感數據等多樣化輸入模式統一為連貫的決策流程。

基礎模型(FMs)已成為科學界與產業界的關鍵支柱,深刻變革著決策能力與科研范式。其大規模多模態數據處理特性催生出極強的適應性,推動醫療健康、生命科學及教育等領域的跨學科突破。本綜述系統檢視IDM的技術演進路徑、FMs賦能的先進范式及其在多元化科學與產業領域的變革性影響,著重探討構建高效、自適應且符合倫理的決策體系所面臨的挑戰與發展機遇。

摘要

? 決策智能歷經從規則驅動向人工智能驅動的演進,實現具備情境感知能力的自適應決策。
? 基礎模型通過知識統一賦能醫療等領域的規模化自適應決策機制。
? 決策基礎模型的發展進程取決于安全防護、隱私保障及人機倫理框架的完善程度。

付費5元查看完整內容

在傳統由人類主導的決策領域,人工智能(AI)正逐步接管多項任務。對此,與AI系統交互的人類決策者可能難以對AI生成信息建立信任。當前決策被概念化為證據積累的建構過程,但此過程可能因交互設計差異呈現不同演化路徑。本研究旨在探究通過對AI建議進行中間判斷時信任的時間演化特征。在線實驗(N=192)發現信任隨時間呈現波動,且對AI建議的中間判斷具有信任強化效應。此外,研究發現參與者行為違背全概率定律,現有建模技術無法捕捉此類現象。因此,采用量子開放系統建模方法(將信任表示為單一概率分布的時間函數)相比傳統馬爾可夫方法,能更優地模擬對AI系統的信任演化。研究成果可優化AI系統行為,引導人類決策者趨向貝葉斯最優理性(在復雜任務環境的時效性決策中尤為重要)。

美國政府內外研究表明,AI信任是復雜概念,但美國防部(DOD)仍將其視為人本AI設計的核心認知過程。AI技術持續發展,在指揮控制(C2)等復雜環境中擴展能力。除功能增強外,AI可主動改變決策空間并實施信息干預(Strich等,2021年)。預測顯示人類將日益依賴AI輸出進行決策(Fuchs等,2023年)。

理解AI技術如何影響人類決策具有必要性。軍事機構正經歷AI驅動的技術與組織變革(Wrzosek,2022年)。多起先進技術事故揭示了自動化系統的潛在危害:伊拉克愛國者導彈誤擊事件(Hawley & Mares,2012年)、文森斯號擊落客機事件(Bisantz等,2000年;Hestad,2001年;Marsh & Dibben,2003年)、美軍黑鷹直升機誤擊事件(Snook,2011年),以及近期阿富汗平民誤殺事件(Denning & Arquilla,2022年),均表明誤解自動化系統信息的災難性后果。這些悲劇的共同點在于自動化技術對人類決策的影響。更令人擔憂的是,人類決策正被機器決策周期主導而非系統輔助(Blair等,2021年)。因此,理解AI對人類決策的影響機制是改進人機交互研究的必經之路。

當前,決策過程普遍被概念化為證據積累的建構性過程。然而,該建構過程可能因交互設計的不同而呈現差異化的演化路徑。本研究通過分析對AI建議的中間判斷,探究信任隨時間演變的特征。在線實驗(N=192)發現:信任度隨時間呈波動狀態,且對AI建議進行判斷會觸發信任強化效應;參與者行為存在現行建模技術無法捕捉的全概率定律違背現象。盡管多種定量與定性方法已部分揭示AI信任及其與系統效能的關系,但結合信任時間演化特征的生成性理論可深化對此的全面理解。因此,采用開放系統建模方法(將信任表征為單一概率分布的時間函數),較傳統馬爾可夫方法與量子技術更能優化AI系統的信任建模。

馬爾可夫動態與量子動態的相互作用為決策動態建模(尤其是人機協同決策)提供了新視角。若人類決策確遵循量子開放系統路徑,開發更優的人機交互策略可能產生突破性成果(Snow等,2022年)。研究成果可優化AI系統行為,引導人類決策偏好趨向貝葉斯最優理性(在復雜任務環境的時效性決策中尤為重要)。盡管研究前景廣闊,仍需深入探索技術細節并驗證其普適性邊界。

開發人在回路人工智能(HITL-AI)系統仍面臨重大挑戰。如何將人類融入AI增強的態勢感知與決策(或反向整合),將呈現多樣化形態。研究表明人機共享決策將持續存在(Blaha,2018年;van den Bosch & Bronkhorst,2018年),核心問題在于決策權的讓渡邊界及組織多重理性的協調機制。量子開放系統理論在HITL-AI設計中的應用,亦為重新評估既有研究開啟新路徑。

AI系統開發與應用始終涉及人類決策流程。任何形式的AI采用都將保留人類決策元素,但研究者與實踐者需明確界定適宜委托機器智能的范疇(Floridi & Cowls,2019年)。需清醒認知:AI無法超越訓練數據提供新功能(Kauffman & Roli,2022年),亦無法預判反事實結果(Pearl & Mackenzie,2018年)。此類局限不應阻礙AI提升決策的實踐,但需將HITL-AI視為需聯合優化的復雜社會技術系統(如構建結構理性決策框架)。因此,人類在HITL-AI系統中的角色響應機制將呈現多元化演進。應對這些挑戰,需確保概念演進與技術進步同步,持續監控以保證決策的結構理性與多方利益攸關者的共贏。

付費5元查看完整內容

人工智能(AI)中的知識推理與表征對推進威脅識別的預測性研究至關重要。大規模數據的快速增長催生了自動化解決方案的部署,但當前機器學習接口仍難以可靠預測異常行為——這限制了其在關鍵決策中的適用性。為應對此挑戰,圖神經網絡理論與動態系統現代庫普曼理論的最新進展,推動了結合知識圖譜構建的深度圖表示學習技術發展。該方法通過學習捕捉異常威脅評分的圖嵌入,提升威脅分類精度。通過預測生成圖與真實圖譜間的圖相似性度量進行迭代對比,進一步優化預測結果。利用庫普曼方法對新聞文章中的暴力事件信息進行降維處理。提出的"基于庫普曼學習演化的半監督預測自編碼器表征(SPARKLE)"方法,為動態情報構建提供可擴展、自適應的框架,最終在未來威脅監控系統中實現實時態勢感知。建議未來研究將此創新方法與多源權威數據整合,以推進AI驅動的現代威脅分析。

圖:俄烏沖突每周時間序列數據

數據量的持續激增常導致信息過載,這迫使人們采用自動化工具實現高效利用。然而,當前機器學習接口難以滿足威脅識別與分類所需的精準可靠預測,使其無法勝任關鍵決策流程。基于圖的方法與現代庫普曼理論的最新進展,增強了人工智能技術從復雜數據集中提煉關鍵信息的能力。快速制定明智決策的迫切需求,推動著威脅識別方法的改進。

傳感器及其能力在融入復雜互聯戰場環境后日益精密。空間、平流層氣球、浮標與山頂部署的系統,可在動態復雜網絡中同時充當數據生產者與消費者。聚合、格式化與綜合海量數據以提供預警、推斷意圖并列舉應對建議,需具備對作戰環境的深刻認知、復雜傳感器數據本體論,以及精細而全面的對抗行為模型。此外,傳感器數據產出效用與數據分析深度常受顯著制約。本研究通過多層次方法評估預測能力:(1)應用機器學習模型壓縮數據;(2)構建知識圖譜捕捉對抗行動與意圖的關聯線索,并借助海軍研究生院"哈明"高性能計算環境創新應用庫普曼算子實現圖譜動態演化;(4)通過檢索增強生成(RAG)最大化分析效用以優化結果。研究框架始于理論與領域概述,涵蓋知識圖譜、機器學習方法、生成式動態圖、庫普曼算子預測及RAG技術,最終通過"基于庫普曼學習演化的半監督預測自編碼器表征(SPARKLE)"展示威脅分類精度的顯著提升。研究結果表明,SPARKLE迭代框架的應用有效增強預測能力并改善威脅分類成效。

傳感器已遍布從海底到太空的全域。"新聞文章中的暴力事件信息(VIINA)"時間序列數據集用于評估多種方法的性能。全球部署的龐大傳感器網絡產生的觀測數據,已遠超人類未經自動化輔助處理信息與語境的能力。此環境為結合知識圖譜構建與機器學習塑造戰場空間感知提供了理想的實驗場。

A. 問題陳述

當前面臨的問題在于亟需對海量數據實施自動化預處理以提升威脅環境中的態勢感知能力。"數據豐富但信息貧乏(DRIP)"凸顯了現有缺陷——分析人員當前無法在目標監視要求時限內處理偵測信息以支撐識別任務。2022年成立的"全域異常現象解析辦公室(AARO)"需就限制空域與敏感空域內的"未識別異常現象(UAP)"活動向國會提交報告(AARO,2022年)。全球范圍內(包括AARO等機構)迫切需要通過改進異常檢測與威脅識別方法提升預測能力。問題核心在于:現有技術與有限專業分析人員難以有效識別未明現象,導致空天優勢喪失。需開發高效自動決策輔助系統實現異常檢測與威脅識別,分析目標威脅以制定明智交戰決策。當前威脅識別預測方法無法滿足實時高風險決策需求。

B. 研究目標

表征、推理與持續學習是智能人工系統的關鍵要素。本研究采用多路徑方法(聚焦圖技術),旨在通過不同數據表征與多種圖譜技術測試,探索知識表征與預測推理間的關系,以異常檢測支撐識別任務解決DRIP問題。核心目標是理解基于圖譜的自動化如何整合知識圖譜構建(KGC)與機器學習模型實現增量信息獲取,及其對推理預測效能的影響。

C. 研究問題與假設

引入基于圖譜的解決方案可提升自動化預測在人機協同中的作用。概率建模技術、圖神經網絡與聚類算法可應用于圖結構數據,此類系統可產生增強模式分析、異常檢測與威脅識別的新興特性。

? 研究問題1:當信息表征以知識圖譜形式構建時,機器學習模型能否實現可靠預測?
 ? 假設1:知識圖譜構建(KGC)能提升異常檢測的預測能力以支持威脅識別,通過捕捉強弱關聯提升預測精度。

? 研究問題2:圖結構數據集(知識圖譜)能否用于訓練機器學習模型,通過增量更新改進人機預測系統?
 ? 假設2:知識圖譜構建(KGC)可利用概率圖機器學習從數據中提取信息,創建實體與關系,作為訓練數據集對知識圖譜實施增量持續更新。

? 研究問題3:當庫普曼算子與圖技術結合機器學習模型時,能否有效檢測并精準預測威脅以支持識別任務?
? 假設3:生成式與基于圖的技術可彌補當前技術缺口,使預測結果更具可靠性。

D. 研究目的聲明

日益增長的圖譜分析與表征研究,或為決策者利用預測評估制定高置信度決策提供新路徑。海量作戰可用數據需自動化預處理,知識圖譜構建與實體抽取自動化至關重要。需理解機器如何利用圖譜表征實現知識圖譜實體的動態構建與關聯預測。本研究旨在證明:在數字化時代數據激增背景下,知識圖譜構建與圖譜表征支持學習模型持續更新,可有效處理大規模數據。

E. 普適性

有效利用海量數據需深刻理解作戰環境,包括識別威脅或目標的潛在可開發行為與異常活動。聯合目標選定學員指南將目標定義為"可能需實施打擊或其他行動的實體與對象"(美國防部[DoD],2017年)。其他考量因素包括機密情報收集需求、可用通信鏈路及數據處理能力以實現數據流動與運用。由于這些多樣化能力構成復雜互聯戰場環境的一部分,必須全面捕捉其二元關聯。圖論技術的應用為管理此能力網絡、從海量數據中提取有效信息以優化處理與融合提供了理論基礎。

F. 研究框架

本研究通過分析俄羅斯入侵烏克蘭相關新聞文章中的暴力事件文本預測潛在威脅。在決策者需及時獲取可操作預測信息的情境下,此類能力關乎生死存亡。支撐本研究的各要素模塊將在文獻綜述部分深入剖析。

方法論章節闡述SPARKLE迭代應用框架,展示知識圖譜在機器學習增量更新中的重要性,并描述流程輸出。后續分析通過模型對比與相似性分析開展預測精度比較評估,在討論環節提出復雜度測量方法以證明其在異常檢測中的表征能力超越傳統方案。

G. 研究意義與未來方向

當信息以知識圖譜形式結構化時,機器學習模型可實現更可靠預測。知識圖譜構建(KGC)通過捕捉強弱關聯提升預測精度。圖結構數據促進人機預測系統的增量更新,概率圖機器學習通過動態提取實體與關系實現持續學習,構建自適應演進的知識圖譜。庫普曼算子與圖譜技術的整合強化威脅識別能力,圖相似性度量與模型對比證明SPARKLE框架在復雜模式檢測中的預測提升。此概念可擴展至信號分類等其他領域(未來研究部分探討)。本研究核心貢獻在于提出AI驅動的現代威脅分析創新方法。

付費5元查看完整內容

本指南提供關于將生成式人工智能(Gen AI)工具融入學術環境的思路與案例研究。隨著基于Transformer的機器學習模型興起,AI應用已從計算機科學家的專屬領域擴展至普通職場人群。OpenAI的ChatGPT系列、Google的Gemini等商用模型使學生、從業者及各級領導者得以利用新能力提升效率。

本指南旨在匯集多元視角,探索如何將Gen AI能力融入學習環境,并提煉最佳實踐方案。非技術背景的教師可通過實用案例了解應用方法。這些案例雖具廣泛適用性,但更應作為教育者探索傳統課堂與在線繼續教育等場景的起點。

指南價值
 本研究探索Gen AI優化教學方法、提升學生參與度與簡化教育內容創作的潛力。指南涵蓋通用與應用場景的用例、課堂實施工具提示,同時提出倫理使用建議與規避偏見的方法,包括警示模型可能產生"幻覺"(即自信地陳述錯誤信息)的風險,以及如何避免從安全網絡向云端模型傳輸敏感數據。

應用潛力
 隨著Gen AI工具發展與普及,我們發現了提升師生教育體驗的機遇。研究表明,Gen AI可加速課程與練習生成,通過主動學習推動學生躍升至布魯姆分類法更高層級,甚至逆向工程化課程——從現有內容提取學習成果。此外,該技術助力概念生成與構思,優化課程審查,并在編程開發、數據分析等技術任務中發揮作用。

學生賦能
 除輔助開發教育產品外,允許學生在課堂使用Gen AI工具同樣有益,助其理解此類模型的優勢、風險與局限。我們通過設計引導式課堂討論(學生與模型互動)及創建學習指南、討論問題等教學活動,探索實踐路徑。

未來展望
 AI工具將持續融入人類社會。盡管其能力不斷演進,教育者始終需善用新工具提升教學成效,并培養學生對日常觀察與互動的批判性思維。

關鍵發現

  1. 以教學法為導向的整合:當教師將Gen AI用于支持高階學習目標(分析、綜合、評估而非簡單記憶)時,其潛力最大化。要求學生分析AI輸出、質疑假設、優化解題策略的結構化活動,可深化批判性思維并與布魯姆分類法等教學框架契合。

  2. 構建學生與AI的積極互動:鼓勵學生將AI作為輔助工具而非主要解決方案至關重要。例如對比AI生成方案與自主成果的活動,能增進對Gen AI能力邊界認知,強化評估、解讀與改進AI結果的能力。

  3. 復雜場景的實踐應用:Gen AI為軍事與國防領域現實場景的復雜問題解決提供支持。例如基于模型的系統工程、戰術模擬等案例,使學生通過實踐迭代應用AI,培養負責任使用AI的信心及高風險管理場景的可遷移技能。

  4. 倫理考量與數據完整性:負責任整合Gen AI需關注數據完整性、安全與倫理使用。教師應明確教導學生規避數據泄露、維護學術誠信,并通過結構化課程闡明Gen AI對信息安全與隱私的廣泛影響。

  5. 自適應學習與教師效率提升:Gen AI通過自動化教案制定、內容適配與形成性評估等常規任務提升教學效率,使教師能將更多時間投入以學生為中心的互動,提升整體教學質量。

  6. 面向技術驅動國防未來的準備:Gen AI工具整合培養學生對技術的務實適應思維,這對國防需求演變至關重要。結構化學習環境中的AI熟悉度,助力學生駕馭技術驅動決策場景并高效參與國防事務。

最佳實踐
? 融入批判性分析訓練:布置學生批判與優化AI輸出的任務,培養分析能力與工具使用判斷力。
? 引導倫理使用:制定AI使用倫理準則,鼓勵學生披露AI輔助、識別局限并維護數據隱私。
? 定位AI為輔助工具:強調AI是學習任務的增效器而非替代品,聚焦其促進深度學習的作用。
? 構建以學生為中心的學習:設計利用Gen AI支持高階認知任務(決策、現實問題解決、自適應學習)的作業。
? 推廣適應性教學實踐:利用Gen AI簡化教案制定與評估開發,使教師專注指導學生自主探究。

付費5元查看完整內容

對可解釋人工智能模型的需求日益增長,這促使大量研究致力于提升強化學習(Reinforcement Learning, RL)方法生成策略的可解釋性與透明度。該研究領域的一個重要方向是在強化學習解決方案中開發基于決策樹的模型,因其具有內在可解釋性。本研究開發基于隨機森林的強化學習算法,標志著這一學術探索的合理演進。通過OpenAI Gym的三個標準基準環境——CartPole、MountainCar和LunarLander——對這些算法進行評估,并與深度Q學習網絡(DQN)及雙DQN(DDQN)算法在性能、魯棒性、效率和可解釋性等指標進行對比。基于隨機森林的算法在三個環境中的兩個表現出優于兩種基于神經網絡的算法,同時提供易于解釋的決策樹策略。然而,該方法在解決LunarLander環境時面臨挑戰,表明其當前在擴展至更大規模環境方面存在局限性。

人工智能(AI)致力于在機器中復現人類智能,使其能夠執行包括問題解決與決策制定在內的復雜任務。近年來,AI取得顯著進展,通過提升全球互聯性與技術擴展推動社會變革,為即將到來的革命鋪平道路(Makridakis, 2017)。

2017至2022年間,采用AI的企業比例增長逾一倍,近年穩定在50%-60%區間,這些企業報告稱顯著降低了成本并實現收入增長。此外,AI指數對127個國家立法記錄的分析顯示,含有"人工智能"術語的法案通過數量從2016年的1項增至2022年的37項;自2016年以來,全球81個國家立法程序中對AI的提及量增長近6.5倍(Maslej et al., 2023)。這一變革的核心驅動力是機器學習(Machine Learning, ML)——AI的一個專門分支,使機器無需顯式編程即可直接從數據中學習。ML在AI中的廣泛應用催生出日益強大的模型,標志著第四次工業革命(工業4.0)的到來(Sarker, 2022)。因此,在ML的推動下,AI引領著文本挖掘、自然語言處理、案例推理、視覺分析、計算機視覺、模式識別、搜索優化及混合系統等領域的進步(Sarker, 2022)。

憑借其獨特能力,AI正被廣泛應用于傳統依賴人類決策的領域,此時機器決策驗證變得至關重要。Bastani等(2018)指出,自動駕駛汽車、機器人控制器與空中交通管制系統是驗證可解釋自動決策重要性的典型案例。盡管計算機引導的進步為這些領域帶來顯著優勢,但在關鍵場景中,人類監督的驗證不可或缺。然而,隨著高不可解釋性ML方法(如深度神經網絡DNN)的普及,驗證過程可能低效甚至無法實現(Bastani et al., 2018)。DNN作為ML建模的重要分支,其卓越性能支撐了廣泛應用(Schmidhuber, 2015),但其復雜結構使驗證過程面臨挑戰。

由于完全自主的高性能AI代理存在遵循不透明決策的風險,對可解釋AI的需求日益增長。缺乏透明度可能導致高精度模型對決策者失去價值,而更高透明度可使決策者更清晰理解AI生成的控制邏輯,簡化硬件部署流程,并促進復雜系統的適應性改進(Dhebar et al., 2022)。

強化學習(Reinforcement Learning, RL)作為AI的重要分支,采用獨特學習范式:通過環境交互與決策反饋實現自適應(Sutton & Barto, 2018)。RL旨在使AI代理理解狀態-動作對的后果,通過試錯機制掌握不同情境下的最優動作選擇。Q-learning是一種通過近似最優動作價值Q函數實現目標的RL算法(Watkins & Dayan, 1992),而策略梯度法則是另一類廣泛應用的基于梯度下降的RL技術(Sutton et al., 1999)。本研究聚焦離策略Q-learning方法。

傳統Q-learning通過ML方法近似貝爾曼方程,迭代優化狀態-動作對特征組合的價值評估及策略生成。深度強化學習(Deep Reinforcement Learning, DRL)將DNN作為RL算法中的價值函數近似機制(Arulkumaran et al., 2017)。過去十年間,DNN與Q-learning結合的深度Q學習(DQN)取得突破性進展,首個成功案例證明AI代理在雅達利游戲中的表現超越人類(Mnih et al., 2013),后續研究更訓練出連續五次擊敗圍棋世界冠軍的代理(Silver et al., 2016)。雖然深度學習與RL的結合展現出強大潛力,但DNN的不可解釋性限制了其可驗證性。

這種可解釋性缺失反映了AI/ML領域的普遍認知:高性能模型往往復雜度高且難以理解。與支持向量機(SVM)和DNN等黑箱方法不同,基于樹的建模技術屬于高可解釋性范疇(Martens et al., 2011)。圖1清晰展示了不同機器學習方法在可讀性與性能間的權衡。這種權衡對決策者理解RL代理邏輯至關重要——只有理解代理決策邏輯,決策者才能有效驗證或批判其行動建議(Puiutta & Veith, 2020),這也構成本研究的核心關注點。

圖 1. 性能與可讀性的權衡。性能與可讀性的權衡概括了機器學習中常見的一種現象,即實現更高性能的方法往往會犧牲用戶的可讀性和可解釋性。改編自 Martens 等人(2011 年)。

基于此,本研究對比了基于DNN與決策樹(DT)的Q-learning解決方案,旨在全面探索兩類方法在精度、效率、魯棒性與可解釋性方面的權衡。作為最復雜的RL方法之一與最具可解釋性的方法之間的對比,本研究以隨機森林(Random Forest, RF)為DT集成基礎。Breiman(2001)提出的RF通過構建多棵隨機生成的分類樹,利用有限信息的多樹協同揭示數據特征重要性。傳統ML中,集成方法通常優于單棵決策樹,提示其可能在RL中展現優勢。本研究的創新在于將RF應用于Q-learning,并與DQN進行對比。

傳統DT與RF并非專為OpenAI Gym的流數據、在線或RL環境設計(Brockman et al., 2016),限制其在信息積累中的適應性(Silva et al., 2020)。但通過算法改良,本研究實現隨機DT裝袋在RL中的應用。受在線Q-learning啟發(Watkins & Dayan, 1992),本研究采用類似DQN的批處理模式構建Q函數近似,理論支持源自Ernst等(2005)在Q-learning中應用DT方法確保序列收斂的研究。相較于KD-Tree、CART、Extra-Trees等DT方法,裝袋技術被證明在RL中最有效(Ernst et al., 2005)。本研究創新性地采用優化的CART算法生成隨機樹,并應用加權裝袋實現在線批處理的RF構建。

為從RL視角審視可解釋AI問題,本研究選用三個典型環境:CartPole、MountainCar與LunarLander。CartPole環境因動態簡單且研究基礎廣泛,成為初期評估的基準;MountainCar通過稀疏獎勵結構與動量學習需求,檢驗算法在高維狀態空間的效率;LunarLander則通過連續空間的精確控制需求,評估算法處理多目標復雜任務的能力。這些環境共同構成評估RL算法可解釋性、適應性、魯棒性與擴展性的綜合框架(Brockman et al., 2016)。

本論文結構如下:第二章綜述相關文獻,系統梳理領域關鍵貢獻;第三章詳述研究方法論,涵蓋研究設計、模型構建與分析技術;第四章呈現研究結果與分析;第五章總結結論并提出未來研究方向。

付費5元查看完整內容

本研究探討了主動拒絕技術(ADT)這種非致命武器的應用及其對人群的影響。通過利用數學建模和模擬技術,本研究揭示了主動阻斷技術對人群行為的影響。本研究在基礎社會力模型的基礎上,加入了一種額外的力量來模擬 ADT 的排斥效果。作為對數學模型的補充,“完善人群敵意交戰規則工作臺”(WRENCH)是一個基于隨機智能體的模擬平臺,可深入了解各種理論 ADT 配置和人工交戰規則下的現實人群反應。通過模擬不同環境場景下的人群特征,這項研究評估了 ADT 的功效和局限性。結果表明,ADT 能有效阻止入侵者進入指定區域,并同時影響人群的整體行為。研究還揭示了 ADT 的有效性取決于各種復雜因素的相互作用,如 ADT 設備的配置、目標人群和環境條件。這項研究的結果有助于進一步了解非致命性武器及其在有效人群管理中的作用。

本手稿共分為六章,循序漸進地介紹了如何理解和分析 ADT 的使用。第 2 章概述了人群動力學、社會認同方法和社會力量模型。通過對這些概念的探討,我們可以深入了解個人身份和群體行為是如何影響整個人群動態的。社會力模型最為重要,因為它是我進行人群行為數學建模實驗和研究的基礎。第 3 章概述了主動阻斷技術,并介紹了主動阻斷系統 (ADS),這是一種非致命的定向能武器,通過對目標造成暫時的不適來控制人群。本章還介紹了利用主動阻斷技術研究其在不同場景下對人體有效性的實驗背景。ADT 計算人體效應終端超模型(CHEETEH)是之前開發的一個模型,旨在描述和模擬人體接觸 ADT 后的反應,本章也對其進行了討論。

第 4 章概述了本研究采用的方法和實驗設置。它詳細介紹了數學建模方法,討論了相關變量,并解釋了如何配置 WRENCH 以納入 ADT 互動。為了進一步分析行為反應,本章還介紹了 WRENCH(基于智能體的模型和仿真工具),它提供了在 ADT 影響下模擬人群行為的能力。WRENCH 用于協助本研究探索 ADT 如何影響人群行為,是數學建模和實際應用之間的紐帶。本章還解釋了實驗的設計,包括 ADT 部署的具體場景,以及如何測量人群行為。第 5 章介紹了 ADT 的有效性及其對人群行為的影響。本章還討論了研究過程中遇到的限制,如假設、限制以及模擬行為與實際行為之間的顯著差異。最后,第 6 章總結了主要發現及其對未來研究的影響。該章提出了未來工作的潛在方向,如完善和重新測試數學模型和模擬,并強調了持續研究的必要性,以更好地了解非致命武力下人群行為的細微差別。

付費5元查看完整內容

隨著人類-智能體團隊(HAT)研究的不斷發展,模擬 HAT 行為和衡量 HAT 效果的計算方法也在不斷發展。其中一種正在興起的方法涉及使用人類數字孿生(HDT)來近似模擬人工智能驅動的智能體團隊成員的人類行為和社會情感認知反應(Barricelli & Fogli, 2024)。本文將探討與使用數字孿生為 HAT 建立信任模型相關的三個研究問題。首先,為了解決如何通過 HDT HAT 實驗對 HAT 信任進行適當建模和操作的問題,對團隊交流數據進行了因果分析,以了解移情、社會認知和情感建構對信任形成的影響。此外,還反思了HAT信任科學的現狀,討論了HAT信任必須通過HDT才能復制的特征,如信任傾向的個體差異(如信任傾向,Jessup等人,2019年)、新興信任模式(如信任侵犯和修復,Wildman等人,2024年)以及對這些特征的適當測量(如增長建模,Abramov等人,2020年)。其次,為了解決人類發展工具信任的測量方法在近似人類對 HATs 信任方面的有效性問題,討論了人類發展工具信任的特性:自我報告測量方法、基于互動的測量方法和遵從型行為測量方法。此外,還分享了初步模擬的結果,其中比較了用于生成 HDT 通信的不同 LLM 模型,并分析了它們復制類人信任動態的能力。第三,針對 HAT 實驗操作將如何擴展到人類數字孿生研究,分享了實驗設計,重點關注 HDT 的信任傾向與人工智能體的透明度和基于能力的信任。

將人工智能(AI)融入作戰環境在各個領域變得越來越重要,從根本上改變了人類與機器合作實現共同目標的方式。在過去十年中,人類與人工智能團隊(HAT)研究已成為一個重要領域,學者們運用認知科學原理來理解這些新型合作關系的復雜性。這一不斷增長的研究成果反映了了解人類和人工智能如何有效、安全、高效地合作的緊迫性。

隨著 HAT 文獻的擴展和人工智能能力的進步,出現了研究這些互動的創新方法。其中一種很有前景的方法是使用人類數字雙胞胎(HDTs)--旨在復制人類在 HAT 環境中的反應和行為的計算模型。這些 HDTs 可以進行配置,以模擬基于狀態的反應(如瞬時認知和情感反應)和基于特征的特性(包括性格上的個體差異),為傳統的人類受試者研究提供了一個多功能的替代方案[1, 2]。

人類發展工具在人類活動能力研究中的優勢是顯著的。除了解決人類受試者研究的實際限制(如成本和招募挑戰)外,HDT 還提供了前所未有的實驗變量控制和快速測試多種情景的能力。這種能力對于研究復雜的團隊現象尤為重要,而信任則是一個關鍵的重點領域。信任--愿意對另一個智能體的行動處于弱勢--是 HAT 有效性和成功的基本決定因素。

然而,使用人類發展工具來研究 HAT 中的信任動態是否有效,還需要仔細研究。

本文探討了在信任研究中實施 HDT 的三個關鍵問題

  • (1) 如何使用基于 HDT 的方法有效地模擬和測量 HAT 信任?
  • (2) HAT 信任的基本特征是什么,必須在 HDT 信任模型中加以操作化?
  • (3) 傳統 HAT 研究中的實驗操作如何轉化為基于 HDT 的研究?

通過研究這些問題,我們旨在建立一個框架,用于在 HAT 信任研究中驗證和實施 HDT,最終促進我們對人類與人工智能協作和信任發展的理解。

圖 1:移情建構如何影響 HAT 信任度的因果分析結果。

付費5元查看完整內容

決策輔助系統是國防指揮與控制裝置的基礎,為各級決策過程提供信息。圍繞人工智能(AI)在決策輔助系統中的應用開展的現有研究認為,人工智能是此類系統性能和應用的關鍵驅動因素。然而,很少有研究探討時間因素和中間決策的存在對決策者對此類系統信任度的影響,或者當決策由另一個人輔助時,與由人工智能輔助時的影響有何不同。現有文獻認為,對人工智能的信任不同于其他信任對象。本論文通過探究信任的產生是否更多地取決于信任的對象或來源來探索這一假設。之前的一項實驗研究了當決策支持僅由人工智能系統提供時,時間和中間判斷對信任的影響。本論文對該實驗進行了擴展,同時操縱了決策輔助的來源,即人類,而不僅僅是人工智能。通過加入人與人之間信任的基礎案例,本研究可以就中間判斷和時間對決策輔助系統信任的相對影響進行比較分析。

決策輔助系統是美國防部(DOD)指揮與控制機構的基礎,為各級決策過程提供信息。團隊是美國軍隊組織和完成任務的主要要素。美國防部打算通過將人工智能嵌入戰術、組織和戰略層面的組織結構(團隊),更快地做出更好的決策,從而獲得優勢(國防部,2022、2023a、2023b)。圍繞人工智能(AI)在決策支持系統中應用的現有研究表明,信任是此類系統性能和采用的關鍵驅動因素。

問題在于,人們尚未充分認識到若干設計參數對信任和性能的影響,這可能會延遲或抵消人工智能決策支持系統的優勢(Ashoori & Weisz, 2019; Tangredi & Galdorisi, 2021)。由于這些系統將用于做出關鍵決策,或在動態、混亂的環境中為人類提供支持,因此這些系統必須值得信賴且性能良好(Babo?,2021;人工智能特設委員會,2023)。本研究的目的是,與人工智能(AI)相比,當人類的決策過程得到人類分析師的支持時,研究自變量(中間判斷和時機)對因變量(信任)的影響。這項研究旨在促進人機系統的整合,實現有效的機器/人工智能設計并更快地應用于軍事領域,加強這些機器的穩健性和復原力,并為設計有效的人機系統提供支持理論。

之前的一項調查試圖了解在僅與人工智能輔助決策系統互動時,信任是如何隨著時間的推移而演變的(Humr 等人,2023 年)。本調查比較了當決策支持來源是人類分析師和人工智能分析師時,信任度是如何演變的。通過操縱決策支持的來源,本調查旨在比較人類和人工智能群體的信任度和表現,并分析人類和人工智能群體本身的自變量的影響。

現有文獻的基本假設是,人類決策者對人工智能決策支持系統產生信任的過程不同于決策者對提供相同決策支持的另一個人類產生信任的過程。這一假設在人工智能研究中基本上沒有受到質疑。雖然人工智能系統中信任和性能的關鍵驅動因素須要并將繼續得到確定,但值得確定的是,它們與現有的以人類之間的信任為基本情況的信任模型相比有何不同。這種調查可能會挑戰現有的假設,即人類建立信任的過程因信任對象的不同而不同。按理說,無論是人類還是人工智能,信任決定都是由人類主體做出的,可能會也可能不會受到人類所信任的對象的影響。

現有文獻表明,人類建立信任的過程更多地取決于信任的對象(被信任的人或事物),而不是信任的來源(決定信任的人類)。鑒于人工智能系統的新穎性和細微差別,以及它們與人類的生物和社會稟賦的截然不同,當決策支持、信任對象是人工智能系統而非人類時,決策背景下的信任模型會有所不同這一假設通過了表面有效性的檢驗。然而,本次調查對現有文獻中這一近乎教條的假設提出了質疑,直接探討了人類對人工智能的信任是否與人類對其他人的信任有本質區別。畢竟,人類的信任過程已經發展了數千年,而機器和人工智能的存在不過是進化過程中的一眨眼。

這項研究試圖擴展之前的一項實驗(Humr 等人,2023 年),在這項實驗中,人工智能分析師為人類決策者提供意見。在該研究中,操縱的自變量是中間判斷形式的選擇和分配的時間。因變量是信任評價,其形式是詢問受試者在與決策支持體互動后,未來將某項任務委托給人工智能的可能性有多大。這項研究重復了之前的實驗,但用人類分析師代替了人工智能分析師。其他一切保持不變,以便在人類支持組和人工智能支持組之間進行比較。

這項研究發現,在由人類與人工智能系統支持決策的受試者之間,信任評價在統計學上沒有顯著差異。這些發現與人工智能信任研究領域的傳統假設相沖突,即人工智能信任是一種與一般信任根本不同的現象,因此需要獨立表達。

雖然這些發現并不能概括所有類型的信任、人工智能的使用案例或人類可能與之互動的人工智能類型,但它確實表明,與試圖重新發現人工智能或人工智能系統中可能使其值得信任的方面相比,更努力地識別人類之間信任的關鍵驅動因素對于設計可信任的人工智能可能更有價值。本研究建議未來的實驗探索信任的另一個關鍵驅動因素,即決策支持(人工智能或人類)的性能,并將其對信任的影響與本實驗中使用的自變量進行比較。此外,本研究還建議調查選擇和時機這兩個自變量如何影響決策者的整體決策表現。畢竟,信任是影響績效的一個中介變量,因此,通過直接觀察這些自變量對績效的影響,決策支持系統的設計者就能建立盡可能好的系統。

付費5元查看完整內容

在人工智能(AI)研究領域,制造人工通用智能(AGI)一直是一個難以實現的目標。AGI 將像人類一樣,有能力接觸新的問題領域,學習相關知識,然后使用推理過程做出決策。雖然人工智能技術已被廣泛應用于各種問題領域,但 AGI 要求人工智能能夠在編程和訓練之外進行推理。本文向制造 AGI 邁出了一小步。它描述了一種人工智能學習和開發推理路徑的機制,以便在先驗未知領域做出決策。它結合了一種經典的人工智能技術--專家系統和一種現代的改良技術--梯度下降訓練專家系統(GDTES),并利用生成式人工智能(GAI)為該系統創建網絡和訓練數據集。這些數據集可以從現有資源中創建,也可以借鑒 GAI 自己的預訓練模型中的知識。GDTES 中的學習過程用于優化人工智能的決策。雖然這種方法并不符合許多人對人工智能所定義的標準,但它提供了某種類似的能力,盡管在使用前需要一個學習過程。

自適應多域人工智能技術

本節介紹并描述 AMAIT 的設計,如圖 3 所示。首先,將提供一個概覽。然后,第 3.1 至 3.5 小節將更詳細地介紹 AMIT 系統的關鍵組成部分。

AMAIT 系統結合了 GAI、GDTES 和專家系統技術。為此,AMAIT 系統采用了 GDTES 形式的規則-事實專家系統,該系統利用小數/分數值(DFV)來表示規則。根據特定的應用領域和網絡設計,這些值可以代表部分成員資格、模糊性、置信度或其他類似內容。每種技術都發揮著關鍵作用。從根本上說,AMAIT 的長期目標是建立一個 DFV 專家系統,該系統可以對問題領域進行推理,除了設置所需的初始參數和幫助系統獲取相關數據外,無需人工干預。不過,可以在多個地方加入人工審核,以幫助學習過程并確保準確性和合規性。

系統首先要有一個 GAI 模型,能夠生成與問題領域相關的內容。這可以是一個預先訓練好的通用模型,也可以是一個為特定用途或應用領域創建的模型。該模型向翻譯/轉換器模塊提供內容,該模塊采用良好的數據格式、人類可讀的英語文本,并將其翻譯/轉換為專家系統網絡。

接下來,GAI 可用于以數據格式良好、人類可讀的英文文本形式創建訓練數據集。該數據集將提供給監督學習集創建者翻譯/轉換模塊,該模塊將為所有系統輸入生成輸入值,并為監督學習生成目標輸出。最初,該模塊用于優化應用于 GDTES 系統內規則的權重。

值得注意的是,如果有人工收集的數據,也可用于這一步驟。此外,也可以使用其他合成數據生成技術。

第三個主要步驟是利用 GAI 創建訓練數據集(同樣是格式化良好、人類可讀的英文文本),并將其提供給監督學習集創建翻譯器/轉換器模塊。在這種情況下,它被用來生成用于優化網絡本身的數據(如 [29] 中所述)。值得注意的是,在進行網絡優化后,應再次執行優化權重的過程,以最大限度地提高系統性能。為簡潔起見,圖中沒有單獨描述這一步驟。

如上所述,人工收集的數據或其他合成生成技術也可用于這一步驟。

最后,對 GDTES 模型進行測試,以確保其在投入使用前適合使用。首先,使用 GAI 提供的新數據(或人工收集的數據或以其他方式合成的數據)對其進行測試。然后,使用真實世界的數據(如果有的話)進行測試。如果適用于問題領域,還可在系統運行期間利用反饋機制對系統進行改進。

付費5元查看完整內容
北京阿比特科技有限公司