亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

智能決策機制(IDM)作為人工智能(AI)的核心構成,旨在實現決策流程的自動化與能力增強。現代IDM技術范式通過整合先進框架,使智能體能夠制定高效且自適應的決策方案,并將復雜任務解構為可執行步驟——例如AI智能體架構與高級強化學習。基于多模態基礎模型的最新研究方法,正將視覺、語言與傳感數據等多樣化輸入模式統一為連貫的決策流程。

基礎模型(FMs)已成為科學界與產業界的關鍵支柱,深刻變革著決策能力與科研范式。其大規模多模態數據處理特性催生出極強的適應性,推動醫療健康、生命科學及教育等領域的跨學科突破。本綜述系統檢視IDM的技術演進路徑、FMs賦能的先進范式及其在多元化科學與產業領域的變革性影響,著重探討構建高效、自適應且符合倫理的決策體系所面臨的挑戰與發展機遇。

摘要

? 決策智能歷經從規則驅動向人工智能驅動的演進,實現具備情境感知能力的自適應決策。
? 基礎模型通過知識統一賦能醫療等領域的規模化自適應決策機制。
? 決策基礎模型的發展進程取決于安全防護、隱私保障及人機倫理框架的完善程度。

付費5元查看完整內容

相關內容

人工智能在軍事中可用于多項任務,例如目標識別、大數據處理、作戰系統、網絡安全、后勤運輸、戰爭醫療、威脅和安全監測以及戰斗模擬和訓練。

復雜工程系統的早期設計決策對系統全生命周期性能、成本及可行性具有決定性影響。隨著工程系統日益呈現信息物理化、多學科交叉與高度互聯特征,基于歷史數據與專家判斷的傳統決策方法常顯不足。為應對早期設計決策挑戰并優化決策質量,模型驅動決策支持系統(DSS)作為集成仿真、優化與數據驅動模型的工具應運而生。然而在復雜工程系統語境下,社會技術性挑戰仍制約DSS的有效實施。本論文通過文獻綜述與工業實證案例研究系統化識別六大核心障礙:

1.跨粒度異構仿真模型集成面臨技術方法論雙重挑戰

2.工程領域間DSS成熟度差異限制協同環境應用

3.非專家用戶因可訪問性差與界面不直觀導致可用性不足

4.實時反饋機制缺失削弱其作為"邊界對象"的功能

5.模型成熟度與可靠性評估指標缺位引發決策誤判風險

6.底層模型演進、可追溯性及可靠性的全生命周期管理缺失

??## 結構??

本論文由7章正文與4篇附錄論文構成,各章內容如下:

??第二章 研究方法論??

論證設計研究方法論(DRM)與參與式行動研究(PAR)對本研究的適配性,繪制研究論文與DRM階段映射關系,通過"關聯貢獻域"(ARC)圖示展現研究的理論框架。

??第三章 理論基礎??

闡述復雜工程系統早期設計決策、基于模型的系統工程、決策支持系統、權衡空間探索及體系仿真范式(含離散事件仿真DES、離散元法DEM與參數化仿真方法)等核心理論。

??第四章 附錄論文綜述??

解析4篇支撐論文的研究焦點(輪式裝載機工程裝備與郵輪艙室案例)、作者在仿真開發與模型驗證中的角色及其對本論文目標的貢獻路徑。

??第五章 綜合成果??

整合實證研究成果,通過工程裝備與船舶案例闡明仿真集成、可持續性指標與復雜工程決策的交互機制。

??第六章 討論與啟示??

評述所提方法的實踐相關性,批判性分析研究局限性與學術探索中的經驗教訓。

??第七章 結論與展望??

凝練研究問題的系統性解決方案,探討工業應用前景,并規劃未來研究方向。

付費5元查看完整內容

傳統軟件框架實現的智能體"信念-愿望-意圖(BDI)模型"未涵蓋人機協作場景,其焦點局限于情境智能體的自主目標導向行為。然而基于BDI框架開發的智能體已在諸多挑戰性領域成功部署,包括航天飛機故障診斷、無人機控制、空中交通管制、制造自動化及大規模軍事仿真(Jarvis等,2013)。此類部署得益于商用級軟件框架的支持:早期PRS(過程推理系統)(Georgeff & Lansky 1986)、dMARS(分布式多智能體推理系統)(D'inverno等,2005)、JACK智能體(Agent Oriented軟件公司2012b)以及近年問世的GORITE(Jarvis等,2013;R?nnquist 2007)。BDI框架與Soar(Laird, Newell & Rosenbloom 1987)共同成為知識密集型智能體應用開發的主流選擇(Jones & Wray 2006)。

但BDI框架在需要智能體與人類協作達成目標的情境中應用有限。核心癥結在于:傳統BDI智能體內部雖使用目標導向機制,其表征卻非顯性化,導致人類難以直接干預智能體活動,反之亦然。隨著GORITE框架問世,此表征限制已被突破,BDI智能體現具備與人類協同實現目標的能力,為新一代智能決策支持系統開發鋪平道路。本論文提出擴展BDI智能體模型的協作行為概念框架,并通過為GORITE框架增配協作功能模塊、基于擴展框架開發概念驗證應用進行模型驗證。

全文結構如下:第二章文獻綜述涵蓋BDI模型、人機團隊協作、半自主決策支持系統(含智能體與非智能體方案)的相關應用,最終凝練研究命題;第三章解析GORITE BDI智能體框架;第四章闡述研究方法論;第五、六章分別論述所開發的概念模型及其驗證過程;第七章總結研究成果并展望未來工作。

付費5元查看完整內容

本論文探討生成式人工智能(GENAI)——特別是大語言模型(LLMs)與小語言模型(SLMs)——對供應鏈管理(SCM)決策制定的革命性影響。傳統AI工具通常通過結構化預測分析支持SCM,而GENAI為構建更敏捷穩健的供應鏈(SC)引入了動態場景生成、實時優化及非結構化數據解析等新能力。本研究通過系統文獻綜述(SLR)識別GENAI在SCM整合中的當前應用、實施挑戰與研究缺口。一方面,SLMs在特定領域低資源需求任務中展現巨大潛力,尤其契合中小企業需求;另一方面,LLMs擅長需求預測與環境社會治理(ESG)合規等數據密集型戰略任務。為助力企業應用GENAI,本研究構建五步實施框架,支持不同數字化水平組織在SCM運營中部署GENAI。研究強調SLMs在SCM中的關鍵價值,揭示其作為促進全球供應鏈數字化轉型與可持續變革加速器的可能性。為確保技術進步與負責任創新同步,本研究深入剖析AI實施的社會、環境及倫理影響,致力于通過提供適配不同數字背景企業的定制化框架,為多元SCM場景的AI應用貢獻理論與實踐價值。

1.1 背景與動因

企業供應鏈(SC)是由采購、生產、物流與分銷等相互關聯活動構成的復雜系統。傳統運營依賴基于歷史數據的規則系統與確定性模型進行協調執行,確保貨物流與服務流從源頭至終端的效率。盡管近年數字化技術廣泛應用,現代供應鏈日趨復雜多變,多數企業仍固守僵化的傳統企業系統(Spanaki等,2025)。

人工智能在SCM中的應用日益廣泛,旨在提升預測精度、自動化常規任務及支持優化決策。然而傳統AI系統存在顯著局限——處理實時數據與非結構化信息能力不足。相較之下,涵蓋LLMs與SLMs的GENAI技術帶來全新能力:通過模擬現實場景、解析自然語言指令及整合多源數據,實現自主適應性決策(Dubey等,2024;Richey等,2023)。Jackson等(2024)指出,GENAI可跨多供應鏈領域提供主動決策支持,突破傳統AI僅限于預測性活動的局限。

全球供應鏈網絡對可持續性、敏捷性與韌性的迫切需求驅動本研究。地緣政治動蕩、供應短缺、需求波動及環境問題等中斷事件的頻發與加劇,持續挑戰現代供應鏈體系(Sunmola & Baryannis,2024)。企業亟需在提升運營效率的同時,具備風險預判與實時響應能力。這構成GENAI有望解決的核心命題:GENAI雖為增強供應鏈智能、提升響應能力及推動數據驅動決策創造重大機遇,但其在供應鏈場景的實施面臨嚴峻障礙(Dubey等,2024),包括高昂算力成本、強數字基建需求、隱私隱患、模型偏見及AI結果過度依賴風險(Jackson等,2024)。組織間(尤其大型企業與中小企業)數字成熟度差異進一步加劇技術可用性與可擴展性擔憂。本研究旨在識別GENAI整合入SCM的潛在效益,同時應對相關挑戰與風險,評估不同數字化階段企業如何有效利用GENAI技術增強決策能力,重點關注可持續性、可擴展性與運營效率。

1.2 問題陳述

盡管數字技術對SCM的重要性日益凸顯,當前供應鏈決策流程仍主要基于規則、分散化且被動響應。多數企業僅依賴電子表格、靜態企業資源規劃(ERP)系統及人力密集型工作流——這些工具在當今復雜多變的供應鏈環境中已被證實力不從心。因其無法納入非結構化數據與實時信號,此類方法難以應對預測、場景規劃及解決方案推薦等挑戰。本論文通過探討SCM運營如何從"人力主導"轉向"人機協同"決策模式填補關鍵研究空白——即人員與GENAI系統(特別是SLMs與LLMs)協作決策。相較于傳統工具,這些模型能生成新信息以模擬場景、綜合多源數據并主動支持戰略與運營決策(Zheng等,n.d.)。然而此類模型與SCM的整合面臨多重挑戰:供應鏈各環節存在數字成熟度差異、勞動力技能局限、數據基礎設施碎片化、倫理與環境風險及技術能力缺口。專家關注的模型可解釋性、互操作性及組織對GENAI輸出的信任問題,進一步加劇人機協同決策的實施難度。SLMs雖具輕量化與領域特異性優勢(Li等,2024),但其在供應鏈中的應用潛力尚未充分探索;而LLMs常需遠超中小企業承受能力的算力資源(Li等,2023)。這些動態機制引發關鍵問題:如何根據企業能力適配GENAI部署,在降低過度依賴風險、確保透明度及限制技術獲取不平等方面取得平衡。

1.3 研究目標

本研究核心目標是檢驗GENAI(特別是LLMs與SLMs)對SCM可持續性與決策制定的潛在影響。通過定向文獻綜述,闡釋這些AI模型如何影響關鍵SCM運營及增強決策能力;結合系統文獻綜述評估現有指南、框架或路線圖能否指導不同數字成熟度企業實施GENAI輔助供應鏈決策。

具體目標包括:
? 論證SLMs與LLMs如何優化采購、風險管理、物流及預測等核心供應鏈運營
? 剖析不同數字成熟度企業部署GENAI的主要風險與挑戰
? 設計可擴展實施框架,通過包容性部署與風險緩釋策略實現GENAI能力與企業數字準備度的匹配

本研究旨在探究GENAI(尤其是LLMs與SLMs)如何通過增強核心供應鏈任務決策來化解相關風險與局限。通過開發契合GENAI接受度與企業數字準備度的實用可擴展框架,彌合技術能力與戰略需求間的鴻溝。本論文通過界定LLMs與SLMs在多元供應鏈環境中支持負責任創新與公平獲取AI決策的路徑,深化GENAI在SCM中的理論認知,助力企業提升運營效率、數字適應力與可持續性,為學術研究與實踐應用提供雙重價值。

付費5元查看完整內容

人工智能(AI)中的知識推理與表征對推進威脅識別的預測性研究至關重要。大規模數據的快速增長催生了自動化解決方案的部署,但當前機器學習接口仍難以可靠預測異常行為——這限制了其在關鍵決策中的適用性。為應對此挑戰,圖神經網絡理論與動態系統現代庫普曼理論的最新進展,推動了結合知識圖譜構建的深度圖表示學習技術發展。該方法通過學習捕捉異常威脅評分的圖嵌入,提升威脅分類精度。通過預測生成圖與真實圖譜間的圖相似性度量進行迭代對比,進一步優化預測結果。利用庫普曼方法對新聞文章中的暴力事件信息進行降維處理。提出的"基于庫普曼學習演化的半監督預測自編碼器表征(SPARKLE)"方法,為動態情報構建提供可擴展、自適應的框架,最終在未來威脅監控系統中實現實時態勢感知。建議未來研究將此創新方法與多源權威數據整合,以推進AI驅動的現代威脅分析。

圖:俄烏沖突每周時間序列數據

數據量的持續激增常導致信息過載,這迫使人們采用自動化工具實現高效利用。然而,當前機器學習接口難以滿足威脅識別與分類所需的精準可靠預測,使其無法勝任關鍵決策流程。基于圖的方法與現代庫普曼理論的最新進展,增強了人工智能技術從復雜數據集中提煉關鍵信息的能力。快速制定明智決策的迫切需求,推動著威脅識別方法的改進。

傳感器及其能力在融入復雜互聯戰場環境后日益精密。空間、平流層氣球、浮標與山頂部署的系統,可在動態復雜網絡中同時充當數據生產者與消費者。聚合、格式化與綜合海量數據以提供預警、推斷意圖并列舉應對建議,需具備對作戰環境的深刻認知、復雜傳感器數據本體論,以及精細而全面的對抗行為模型。此外,傳感器數據產出效用與數據分析深度常受顯著制約。本研究通過多層次方法評估預測能力:(1)應用機器學習模型壓縮數據;(2)構建知識圖譜捕捉對抗行動與意圖的關聯線索,并借助海軍研究生院"哈明"高性能計算環境創新應用庫普曼算子實現圖譜動態演化;(4)通過檢索增強生成(RAG)最大化分析效用以優化結果。研究框架始于理論與領域概述,涵蓋知識圖譜、機器學習方法、生成式動態圖、庫普曼算子預測及RAG技術,最終通過"基于庫普曼學習演化的半監督預測自編碼器表征(SPARKLE)"展示威脅分類精度的顯著提升。研究結果表明,SPARKLE迭代框架的應用有效增強預測能力并改善威脅分類成效。

傳感器已遍布從海底到太空的全域。"新聞文章中的暴力事件信息(VIINA)"時間序列數據集用于評估多種方法的性能。全球部署的龐大傳感器網絡產生的觀測數據,已遠超人類未經自動化輔助處理信息與語境的能力。此環境為結合知識圖譜構建與機器學習塑造戰場空間感知提供了理想的實驗場。

A. 問題陳述

當前面臨的問題在于亟需對海量數據實施自動化預處理以提升威脅環境中的態勢感知能力。"數據豐富但信息貧乏(DRIP)"凸顯了現有缺陷——分析人員當前無法在目標監視要求時限內處理偵測信息以支撐識別任務。2022年成立的"全域異常現象解析辦公室(AARO)"需就限制空域與敏感空域內的"未識別異常現象(UAP)"活動向國會提交報告(AARO,2022年)。全球范圍內(包括AARO等機構)迫切需要通過改進異常檢測與威脅識別方法提升預測能力。問題核心在于:現有技術與有限專業分析人員難以有效識別未明現象,導致空天優勢喪失。需開發高效自動決策輔助系統實現異常檢測與威脅識別,分析目標威脅以制定明智交戰決策。當前威脅識別預測方法無法滿足實時高風險決策需求。

B. 研究目標

表征、推理與持續學習是智能人工系統的關鍵要素。本研究采用多路徑方法(聚焦圖技術),旨在通過不同數據表征與多種圖譜技術測試,探索知識表征與預測推理間的關系,以異常檢測支撐識別任務解決DRIP問題。核心目標是理解基于圖譜的自動化如何整合知識圖譜構建(KGC)與機器學習模型實現增量信息獲取,及其對推理預測效能的影響。

C. 研究問題與假設

引入基于圖譜的解決方案可提升自動化預測在人機協同中的作用。概率建模技術、圖神經網絡與聚類算法可應用于圖結構數據,此類系統可產生增強模式分析、異常檢測與威脅識別的新興特性。

? 研究問題1:當信息表征以知識圖譜形式構建時,機器學習模型能否實現可靠預測?
 ? 假設1:知識圖譜構建(KGC)能提升異常檢測的預測能力以支持威脅識別,通過捕捉強弱關聯提升預測精度。

? 研究問題2:圖結構數據集(知識圖譜)能否用于訓練機器學習模型,通過增量更新改進人機預測系統?
 ? 假設2:知識圖譜構建(KGC)可利用概率圖機器學習從數據中提取信息,創建實體與關系,作為訓練數據集對知識圖譜實施增量持續更新。

? 研究問題3:當庫普曼算子與圖技術結合機器學習模型時,能否有效檢測并精準預測威脅以支持識別任務?
? 假設3:生成式與基于圖的技術可彌補當前技術缺口,使預測結果更具可靠性。

D. 研究目的聲明

日益增長的圖譜分析與表征研究,或為決策者利用預測評估制定高置信度決策提供新路徑。海量作戰可用數據需自動化預處理,知識圖譜構建與實體抽取自動化至關重要。需理解機器如何利用圖譜表征實現知識圖譜實體的動態構建與關聯預測。本研究旨在證明:在數字化時代數據激增背景下,知識圖譜構建與圖譜表征支持學習模型持續更新,可有效處理大規模數據。

E. 普適性

有效利用海量數據需深刻理解作戰環境,包括識別威脅或目標的潛在可開發行為與異常活動。聯合目標選定學員指南將目標定義為"可能需實施打擊或其他行動的實體與對象"(美國防部[DoD],2017年)。其他考量因素包括機密情報收集需求、可用通信鏈路及數據處理能力以實現數據流動與運用。由于這些多樣化能力構成復雜互聯戰場環境的一部分,必須全面捕捉其二元關聯。圖論技術的應用為管理此能力網絡、從海量數據中提取有效信息以優化處理與融合提供了理論基礎。

F. 研究框架

本研究通過分析俄羅斯入侵烏克蘭相關新聞文章中的暴力事件文本預測潛在威脅。在決策者需及時獲取可操作預測信息的情境下,此類能力關乎生死存亡。支撐本研究的各要素模塊將在文獻綜述部分深入剖析。

方法論章節闡述SPARKLE迭代應用框架,展示知識圖譜在機器學習增量更新中的重要性,并描述流程輸出。后續分析通過模型對比與相似性分析開展預測精度比較評估,在討論環節提出復雜度測量方法以證明其在異常檢測中的表征能力超越傳統方案。

G. 研究意義與未來方向

當信息以知識圖譜形式結構化時,機器學習模型可實現更可靠預測。知識圖譜構建(KGC)通過捕捉強弱關聯提升預測精度。圖結構數據促進人機預測系統的增量更新,概率圖機器學習通過動態提取實體與關系實現持續學習,構建自適應演進的知識圖譜。庫普曼算子與圖譜技術的整合強化威脅識別能力,圖相似性度量與模型對比證明SPARKLE框架在復雜模式檢測中的預測提升。此概念可擴展至信號分類等其他領域(未來研究部分探討)。本研究核心貢獻在于提出AI驅動的現代威脅分析創新方法。

付費5元查看完整內容

本研究探討人工智能(AI)在決策過程中不斷演變的角色,聚焦AI賦能技術如何與人類決策者互動及其影響。AI系統正加速融入商業管理至信息系統等各行業,或輔助或替代人類判斷。現有文獻強調AI融入生活與工作帶來的變革潛力與挑戰:以ChatGPT為代表的大語言模型憑借數據驅動洞察、效率提升與決策一致性等優勢被廣泛應用,但研究亦揭示需深入理解的領域——AI復制或放大人類偏見的風險、自主決策的倫理影響、人機交互的復雜性。盡管AI輔助、增強或替代人類決策已獲廣泛關注,但通過提示工程與情境應用賦予AI的角色如何影響決策結果、行為模式與建議生成,學界仍缺乏深入探索。

本論文包含四項研究,探討角色定義與目標設定對AI決策行為的影響,揭示精確定義AI角色如何在不同情境中塑造決策結果與人類決策流程。

研究1 通過系統性文獻綜述,論證機器學習與AI工具(如ChatGPT)結合提升文獻分析效率與深度的有效性。研究識別AI整合關鍵領域,揭示研究空白,指出高影響力期刊與主題,為未來研究繪制路線圖。該研究強調跨學科方法對全面理解與發揮AI潛力、應對倫理復雜性的重要性。

研究2 采用"人在回路"(HITL)框架分析AI賦能招聘流程,通過某國際招聘公司18個月質性案例研究,揭示AI工具、招聘專員與尋源分析師協作塑造招聘結果的合作模式。研究表明:AI系統實施需平衡效率與倫理及人本考量,人類判斷、監督與適應力不可或缺;組織領導力、方案適應性與人類自主權是成功關鍵要素。

研究3 通過系列實驗探究AI系統(以ChatGPT為例)被賦予的角色如何影響信息系統(IS)語境下的決策結果。研究發現:當ChatGPT被賦予人類角色時,其決策行為高度復現人類偏見;而作為AI角色時則表現出更高一致性與客觀性。研究揭示提示工程對引導AI系統符合預期決策流程的重要性——無論是模擬人類判斷還是提升決策客觀效率。

研究4 探索AI系統中的"算法厭惡"現象,測試GPT類模型在不同版本與溫度參數下對人工建議與算法輸入的響應差異。研究發現:GPT模型表現出類似人類的算法厭惡傾向,更偏好人工建議,但其表現形式與人類存在差異。該研究將算法厭惡概念擴展至AI系統,強調理解AI如何處理人機建議對設計決策支持系統的重要性,確保AI既能獨立運作又能與人類協作。

總體貢獻

本研究在四方面深化對AI決策角色的理解:

  1. 方法論創新:引入結合AI工具與機器學習的計算文獻綜述方法,識別商業管理領域趨勢、空白與高影響力期刊;
  2. 人機協作洞見:通過招聘案例實證HITL原則,強調人類賦權、自主權與持續適應對有效協作的關鍵作用;
  3. 角色效應驗證:證明大語言模型角色設定顯著影響決策行為——模擬人類角色時復現偏見,AI角色時更趨理性;
  4. 理論邊界拓展:將算法厭惡延伸至AI系統,揭示AI對人機建議的差異化處理機制。

綜上,這些研究為理解AI與人類決策者動態互動提供洞見,強調情境與角色設定對優化AI決策貢獻的重要性,為未來探索AI融入更復雜重大決策場景奠定基礎。

表1.1 研究綜述

研究編號 研究重點 研究路徑、理論基礎與方法論 主要發現 理論貢獻 實踐貢獻
研究1 商業與管理學者如何應對AI在組織中的興起?研究熱點與空白領域為何? 采用結構化主題建模與機器學習方法進行系統性文獻綜述(CLR),結合ChatGPT輔助分析 - 識別44個AI研究熱點(如客戶營銷、AI倫理)
- 揭示體育、應急響應與智慧城市等領域的空白
提出"計算文獻綜述"方法論,結合AI工具提升文獻分析效率 指導研究者鎖定高影響力期刊,優化文獻檢索路徑
研究2 AI賦能的招聘決策中如何平衡效率與倫理?人在回路(HITL)原則如何應用? 對國際招聘機構開展18個月質性案例研究,基于社會技術系統理論與HITL框架 - 發現協作型HITL配置模式
- 揭示行政負擔加重、權力重構等挑戰
拓展HITL理論在AI招聘場景的應用 提出AI招聘實施指南:強效領導力、系統適應性與人本考量
研究3 ChatGPT在信息系統中多大程度能復現人類決策行為?角色設定如何影響決策輸出? 通過提示工程實驗,測試ChatGPT在不同角色設定(人類/AI)下的決策行為 - 人類角色設定下復現決策偏見
- AI角色設定下展現更高客觀性
提出"角色中心決策框架",揭示大語言模型角色工程對決策的影響機制 為提示工程提供設計準則,優化AI決策支持系統的角色配置策略
研究4 AI系統是否存在算法厭惡?GPT模型對人類建議與算法輸入的響應差異如何? 復現經典算法厭惡實驗范式,測試GPT不同版本(3.5/4.0)在多種溫度參數下對建議來源的偏好 - GPT表現出類人算法厭惡傾向
- 對人工建議的偏好強度與溫度參數呈負相關
首次將算法厭惡理論拓展至AI系統,建立"元算法厭惡"概念 為AI協同決策系統設計提供新視角,優化人機建議權重分配機制

付費5元查看完整內容

對可解釋人工智能模型的需求日益增長,這促使大量研究致力于提升強化學習(Reinforcement Learning, RL)方法生成策略的可解釋性與透明度。該研究領域的一個重要方向是在強化學習解決方案中開發基于決策樹的模型,因其具有內在可解釋性。本研究開發基于隨機森林的強化學習算法,標志著這一學術探索的合理演進。通過OpenAI Gym的三個標準基準環境——CartPole、MountainCar和LunarLander——對這些算法進行評估,并與深度Q學習網絡(DQN)及雙DQN(DDQN)算法在性能、魯棒性、效率和可解釋性等指標進行對比。基于隨機森林的算法在三個環境中的兩個表現出優于兩種基于神經網絡的算法,同時提供易于解釋的決策樹策略。然而,該方法在解決LunarLander環境時面臨挑戰,表明其當前在擴展至更大規模環境方面存在局限性。

人工智能(AI)致力于在機器中復現人類智能,使其能夠執行包括問題解決與決策制定在內的復雜任務。近年來,AI取得顯著進展,通過提升全球互聯性與技術擴展推動社會變革,為即將到來的革命鋪平道路(Makridakis, 2017)。

2017至2022年間,采用AI的企業比例增長逾一倍,近年穩定在50%-60%區間,這些企業報告稱顯著降低了成本并實現收入增長。此外,AI指數對127個國家立法記錄的分析顯示,含有"人工智能"術語的法案通過數量從2016年的1項增至2022年的37項;自2016年以來,全球81個國家立法程序中對AI的提及量增長近6.5倍(Maslej et al., 2023)。這一變革的核心驅動力是機器學習(Machine Learning, ML)——AI的一個專門分支,使機器無需顯式編程即可直接從數據中學習。ML在AI中的廣泛應用催生出日益強大的模型,標志著第四次工業革命(工業4.0)的到來(Sarker, 2022)。因此,在ML的推動下,AI引領著文本挖掘、自然語言處理、案例推理、視覺分析、計算機視覺、模式識別、搜索優化及混合系統等領域的進步(Sarker, 2022)。

憑借其獨特能力,AI正被廣泛應用于傳統依賴人類決策的領域,此時機器決策驗證變得至關重要。Bastani等(2018)指出,自動駕駛汽車、機器人控制器與空中交通管制系統是驗證可解釋自動決策重要性的典型案例。盡管計算機引導的進步為這些領域帶來顯著優勢,但在關鍵場景中,人類監督的驗證不可或缺。然而,隨著高不可解釋性ML方法(如深度神經網絡DNN)的普及,驗證過程可能低效甚至無法實現(Bastani et al., 2018)。DNN作為ML建模的重要分支,其卓越性能支撐了廣泛應用(Schmidhuber, 2015),但其復雜結構使驗證過程面臨挑戰。

由于完全自主的高性能AI代理存在遵循不透明決策的風險,對可解釋AI的需求日益增長。缺乏透明度可能導致高精度模型對決策者失去價值,而更高透明度可使決策者更清晰理解AI生成的控制邏輯,簡化硬件部署流程,并促進復雜系統的適應性改進(Dhebar et al., 2022)。

強化學習(Reinforcement Learning, RL)作為AI的重要分支,采用獨特學習范式:通過環境交互與決策反饋實現自適應(Sutton & Barto, 2018)。RL旨在使AI代理理解狀態-動作對的后果,通過試錯機制掌握不同情境下的最優動作選擇。Q-learning是一種通過近似最優動作價值Q函數實現目標的RL算法(Watkins & Dayan, 1992),而策略梯度法則是另一類廣泛應用的基于梯度下降的RL技術(Sutton et al., 1999)。本研究聚焦離策略Q-learning方法。

傳統Q-learning通過ML方法近似貝爾曼方程,迭代優化狀態-動作對特征組合的價值評估及策略生成。深度強化學習(Deep Reinforcement Learning, DRL)將DNN作為RL算法中的價值函數近似機制(Arulkumaran et al., 2017)。過去十年間,DNN與Q-learning結合的深度Q學習(DQN)取得突破性進展,首個成功案例證明AI代理在雅達利游戲中的表現超越人類(Mnih et al., 2013),后續研究更訓練出連續五次擊敗圍棋世界冠軍的代理(Silver et al., 2016)。雖然深度學習與RL的結合展現出強大潛力,但DNN的不可解釋性限制了其可驗證性。

這種可解釋性缺失反映了AI/ML領域的普遍認知:高性能模型往往復雜度高且難以理解。與支持向量機(SVM)和DNN等黑箱方法不同,基于樹的建模技術屬于高可解釋性范疇(Martens et al., 2011)。圖1清晰展示了不同機器學習方法在可讀性與性能間的權衡。這種權衡對決策者理解RL代理邏輯至關重要——只有理解代理決策邏輯,決策者才能有效驗證或批判其行動建議(Puiutta & Veith, 2020),這也構成本研究的核心關注點。

圖 1. 性能與可讀性的權衡。性能與可讀性的權衡概括了機器學習中常見的一種現象,即實現更高性能的方法往往會犧牲用戶的可讀性和可解釋性。改編自 Martens 等人(2011 年)。

基于此,本研究對比了基于DNN與決策樹(DT)的Q-learning解決方案,旨在全面探索兩類方法在精度、效率、魯棒性與可解釋性方面的權衡。作為最復雜的RL方法之一與最具可解釋性的方法之間的對比,本研究以隨機森林(Random Forest, RF)為DT集成基礎。Breiman(2001)提出的RF通過構建多棵隨機生成的分類樹,利用有限信息的多樹協同揭示數據特征重要性。傳統ML中,集成方法通常優于單棵決策樹,提示其可能在RL中展現優勢。本研究的創新在于將RF應用于Q-learning,并與DQN進行對比。

傳統DT與RF并非專為OpenAI Gym的流數據、在線或RL環境設計(Brockman et al., 2016),限制其在信息積累中的適應性(Silva et al., 2020)。但通過算法改良,本研究實現隨機DT裝袋在RL中的應用。受在線Q-learning啟發(Watkins & Dayan, 1992),本研究采用類似DQN的批處理模式構建Q函數近似,理論支持源自Ernst等(2005)在Q-learning中應用DT方法確保序列收斂的研究。相較于KD-Tree、CART、Extra-Trees等DT方法,裝袋技術被證明在RL中最有效(Ernst et al., 2005)。本研究創新性地采用優化的CART算法生成隨機樹,并應用加權裝袋實現在線批處理的RF構建。

為從RL視角審視可解釋AI問題,本研究選用三個典型環境:CartPole、MountainCar與LunarLander。CartPole環境因動態簡單且研究基礎廣泛,成為初期評估的基準;MountainCar通過稀疏獎勵結構與動量學習需求,檢驗算法在高維狀態空間的效率;LunarLander則通過連續空間的精確控制需求,評估算法處理多目標復雜任務的能力。這些環境共同構成評估RL算法可解釋性、適應性、魯棒性與擴展性的綜合框架(Brockman et al., 2016)。

本論文結構如下:第二章綜述相關文獻,系統梳理領域關鍵貢獻;第三章詳述研究方法論,涵蓋研究設計、模型構建與分析技術;第四章呈現研究結果與分析;第五章總結結論并提出未來研究方向。

付費5元查看完整內容

隨著人類-智能體團隊(HAT)研究的不斷發展,模擬 HAT 行為和衡量 HAT 效果的計算方法也在不斷發展。其中一種正在興起的方法涉及使用人類數字孿生(HDT)來近似模擬人工智能驅動的智能體團隊成員的人類行為和社會情感認知反應(Barricelli & Fogli, 2024)。本文將探討與使用數字孿生為 HAT 建立信任模型相關的三個研究問題。首先,為了解決如何通過 HDT HAT 實驗對 HAT 信任進行適當建模和操作的問題,對團隊交流數據進行了因果分析,以了解移情、社會認知和情感建構對信任形成的影響。此外,還反思了HAT信任科學的現狀,討論了HAT信任必須通過HDT才能復制的特征,如信任傾向的個體差異(如信任傾向,Jessup等人,2019年)、新興信任模式(如信任侵犯和修復,Wildman等人,2024年)以及對這些特征的適當測量(如增長建模,Abramov等人,2020年)。其次,為了解決人類發展工具信任的測量方法在近似人類對 HATs 信任方面的有效性問題,討論了人類發展工具信任的特性:自我報告測量方法、基于互動的測量方法和遵從型行為測量方法。此外,還分享了初步模擬的結果,其中比較了用于生成 HDT 通信的不同 LLM 模型,并分析了它們復制類人信任動態的能力。第三,針對 HAT 實驗操作將如何擴展到人類數字孿生研究,分享了實驗設計,重點關注 HDT 的信任傾向與人工智能體的透明度和基于能力的信任。

將人工智能(AI)融入作戰環境在各個領域變得越來越重要,從根本上改變了人類與機器合作實現共同目標的方式。在過去十年中,人類與人工智能團隊(HAT)研究已成為一個重要領域,學者們運用認知科學原理來理解這些新型合作關系的復雜性。這一不斷增長的研究成果反映了了解人類和人工智能如何有效、安全、高效地合作的緊迫性。

隨著 HAT 文獻的擴展和人工智能能力的進步,出現了研究這些互動的創新方法。其中一種很有前景的方法是使用人類數字雙胞胎(HDTs)--旨在復制人類在 HAT 環境中的反應和行為的計算模型。這些 HDTs 可以進行配置,以模擬基于狀態的反應(如瞬時認知和情感反應)和基于特征的特性(包括性格上的個體差異),為傳統的人類受試者研究提供了一個多功能的替代方案[1, 2]。

人類發展工具在人類活動能力研究中的優勢是顯著的。除了解決人類受試者研究的實際限制(如成本和招募挑戰)外,HDT 還提供了前所未有的實驗變量控制和快速測試多種情景的能力。這種能力對于研究復雜的團隊現象尤為重要,而信任則是一個關鍵的重點領域。信任--愿意對另一個智能體的行動處于弱勢--是 HAT 有效性和成功的基本決定因素。

然而,使用人類發展工具來研究 HAT 中的信任動態是否有效,還需要仔細研究。

本文探討了在信任研究中實施 HDT 的三個關鍵問題

  • (1) 如何使用基于 HDT 的方法有效地模擬和測量 HAT 信任?
  • (2) HAT 信任的基本特征是什么,必須在 HDT 信任模型中加以操作化?
  • (3) 傳統 HAT 研究中的實驗操作如何轉化為基于 HDT 的研究?

通過研究這些問題,我們旨在建立一個框架,用于在 HAT 信任研究中驗證和實施 HDT,最終促進我們對人類與人工智能協作和信任發展的理解。

圖 1:移情建構如何影響 HAT 信任度的因果分析結果。

付費5元查看完整內容

在人工智能(AI)研究領域,制造人工通用智能(AGI)一直是一個難以實現的目標。AGI 將像人類一樣,有能力接觸新的問題領域,學習相關知識,然后使用推理過程做出決策。雖然人工智能技術已被廣泛應用于各種問題領域,但 AGI 要求人工智能能夠在編程和訓練之外進行推理。本文向制造 AGI 邁出了一小步。它描述了一種人工智能學習和開發推理路徑的機制,以便在先驗未知領域做出決策。它結合了一種經典的人工智能技術--專家系統和一種現代的改良技術--梯度下降訓練專家系統(GDTES),并利用生成式人工智能(GAI)為該系統創建網絡和訓練數據集。這些數據集可以從現有資源中創建,也可以借鑒 GAI 自己的預訓練模型中的知識。GDTES 中的學習過程用于優化人工智能的決策。雖然這種方法并不符合許多人對人工智能所定義的標準,但它提供了某種類似的能力,盡管在使用前需要一個學習過程。

自適應多域人工智能技術

本節介紹并描述 AMAIT 的設計,如圖 3 所示。首先,將提供一個概覽。然后,第 3.1 至 3.5 小節將更詳細地介紹 AMIT 系統的關鍵組成部分。

AMAIT 系統結合了 GAI、GDTES 和專家系統技術。為此,AMAIT 系統采用了 GDTES 形式的規則-事實專家系統,該系統利用小數/分數值(DFV)來表示規則。根據特定的應用領域和網絡設計,這些值可以代表部分成員資格、模糊性、置信度或其他類似內容。每種技術都發揮著關鍵作用。從根本上說,AMAIT 的長期目標是建立一個 DFV 專家系統,該系統可以對問題領域進行推理,除了設置所需的初始參數和幫助系統獲取相關數據外,無需人工干預。不過,可以在多個地方加入人工審核,以幫助學習過程并確保準確性和合規性。

系統首先要有一個 GAI 模型,能夠生成與問題領域相關的內容。這可以是一個預先訓練好的通用模型,也可以是一個為特定用途或應用領域創建的模型。該模型向翻譯/轉換器模塊提供內容,該模塊采用良好的數據格式、人類可讀的英語文本,并將其翻譯/轉換為專家系統網絡。

接下來,GAI 可用于以數據格式良好、人類可讀的英文文本形式創建訓練數據集。該數據集將提供給監督學習集創建者翻譯/轉換模塊,該模塊將為所有系統輸入生成輸入值,并為監督學習生成目標輸出。最初,該模塊用于優化應用于 GDTES 系統內規則的權重。

值得注意的是,如果有人工收集的數據,也可用于這一步驟。此外,也可以使用其他合成數據生成技術。

第三個主要步驟是利用 GAI 創建訓練數據集(同樣是格式化良好、人類可讀的英文文本),并將其提供給監督學習集創建翻譯器/轉換器模塊。在這種情況下,它被用來生成用于優化網絡本身的數據(如 [29] 中所述)。值得注意的是,在進行網絡優化后,應再次執行優化權重的過程,以最大限度地提高系統性能。為簡潔起見,圖中沒有單獨描述這一步驟。

如上所述,人工收集的數據或其他合成生成技術也可用于這一步驟。

最后,對 GDTES 模型進行測試,以確保其在投入使用前適合使用。首先,使用 GAI 提供的新數據(或人工收集的數據或以其他方式合成的數據)對其進行測試。然后,使用真實世界的數據(如果有的話)進行測試。如果適用于問題領域,還可在系統運行期間利用反饋機制對系統進行改進。

付費5元查看完整內容

自然語言處理(NLP)是一個分場的人工智能、語言學、計算機科學和關心的一代,識別和理解人類的語言,口語和書面語。NLP系統檢查句子的語法結構以及單詞的特定含義,然后利用算法提取含義并產生結果。自然語言處理中的機器學習和深度學習旨在回顧當前NLP領域的神經網絡技術,特別是關于會話代理(聊天機器人)、文本到語音、非文字內容的管理——如情感,但也包括諷刺表達——以及在醫療保健領域的應用。NLP有潛力成為各種醫療保健領域的顛覆性技術,但到目前為止,很少有人關注這一目標。本書旨在提供一些NLP技術的例子,例如語言恢復、檢測帕金森氏癥或幫助心理治療師。這本書是為廣大讀者準備的。初學者會發現有用的章節提供了NLP技術的一般介紹,而經驗豐富的專業人士會喜歡關于高級情感管理、同理心和非文字內容的章節。

我們將章節組織成五個部分:I. 引言,II. 對話智能體概述,III. 情感和情緒,IV. 虛假新聞與諷刺,以及 V. 在醫療保健中的應用。在第一部分中,編輯介紹了機器學習(ML)、深度學習(DL)和自然語言處理(NLP)以及使用這些技術推進NLP應用的進步。第二部分提供了關于對話代理和聊天機器人的當前方法的概述。第2章專注于聊天機器人和對話代理(CAs)的應用,作者強調了各種AI技術如何幫助開發智能CAs,他們還比較了不同的最新NLP-based聊天機器人架構。第3章展示了一個為社交對話設計的開放域共情CA的架構,它分兩步訓練。代理學習對話的相關高級結構,利用無監督和有監督學習的混合,而在第二步中,代理通過有監督和增強學習進行精煉,學習通過選擇最合適的高級響應方面來引發用戶中的積極情感。第三部分關注情感和情緒檢測的方法,以及用情緒增強的對話代理輸出的生成。在第4章中,作者展示了EMOTRON,它是經過訓練的情感語音的有條件生成,結合了光譜圖回歸損失來加強合成,和情感分類風格損失來引導條件化。第四部分介紹了應對虛假新聞和諷刺文本的方法。第5章強調了如何訓練DL有效地區分諷刺內容和非諷刺。在第6章中,作者介紹了一個原型的開發,該原型旨在通過從新聞文章中檢索可能提供支持或反駁聲明的證據來幫助記者進行事實檢查。最后,第五部分展示了在醫療領域的CA的一些實現。第7章關注于VocalHUM的算法組件的結構和開發,這是一個旨在實時增強患者低聲細語的可懂度的智能系統,基于音頻來最小化為實現足夠的聲音清晰度所必需的肌肉和呼吸努力,以及為正常強度講話所需的物理移動。第8章識別了使用ML方法早期檢測帕金森病所需的特征,第9章解釋了CAs、NLP和ML如何在心理治療中提供幫助。

付費5元查看完整內容

深度強化學習(deep reinforcement learning, DRL)方法在經濟學中的普及度呈指數級增長。DRL通過從增強學習(RL)到深度學習(DL)的廣泛功能,為處理復雜的動態業務環境提供了巨大的機會。DRL的特點是可擴展性,有可能應用于高維問題,并結合經濟數據的噪聲和非線性模式。本文首先對DL、RL和深度RL方法在經濟學中不同應用的簡要回顧,提供了對現有技術的深入了解。此外,為了突出DRL的復雜性、魯棒性、準確性、性能、計算任務、風險約束和盈利能力,還研究了DRL在經濟應用中的體系結構。調查結果表明,與傳統算法相比,DRL在面臨風險參數和不確定性不斷增加的現實經濟問題時,可以提供更好的性能和更高的精度。

付費5元查看完整內容
北京阿比特科技有限公司