隨著機器人技術日益精進,亟需發展能與人類隊友及其他機器人交互協作的智能系統。本研究旨在探索多智能體(含人類與機器人)協同框架,聚焦智能體間交互層級與隊友信息推斷機制。首先在協同導航范疇內研究單人-單機器人協作,該場景需直接人機交互與隊友狀態推斷。考慮人機需穿越環境抵達共同目標的情境,提出兩種觸覺引導系統:通過力反饋向人類提供避障與路徑建議,各具計算效率與路徑最優性優勢。解析與實驗證明該方法能同步保障避障與目標引導功能。
首項工作解決雙智能體協作后,后續研究轉向多智能體協作——該場景下人機交互有限且隊友信息層級各異。針對異構多智能體團隊(各機器人具不同感知/資源能力),提出控制策略以實現復雜動態任務分配,使團隊能適應任務變化與成員變動。分布式架構支持大規模應用,分析表明策略可在動態環境中收斂至最優解,仿真與硬件實驗驗證其性能媲美基準算法。
第三章3.2節提出地面機器人協同遙操作觸覺引導算法,僅提供必要反饋。融合避障功能(障礙物排斥力)與路徑引導功能(建議路徑吸引力),建議路徑由非完整約束快速擴展隨機樹(RRT*)算法生成。突破傳統觸覺遙操作范式,首次提供避障安全性解析證明(用戶遵循力反饋時可規避碰撞)。
第三章3.3節將RRT采樣樹融入控制李雅普諾夫函數(CLF)框架,生成運動學可行路徑的觸覺建議。為保障安全,引入控制屏障函數(CBF)提供防撞指引而無需重采樣RRT樹。解析證明當用戶遵循力反饋時,CLF驅動力可引導機器人從環境任意點抵達共同目標。
第四章實現多機器人團隊持久自適應覆蓋控制,服務于動態異構任務需求(可泛化至各類資源補給算法)。通過解析證明區位成本最小化與需求輸入-狀態穩定性。為確保持久性,提出分布式補給算法——兼容異構團隊并利用需求與資源水平預測,顯著降低服務中斷率。
第五章構建多機器人響應離散異構事件框架:通過任務執行建立個體信譽度,據此生成加權維諾分區。采用核密度估計(KDE)動態更新事件密度函數以適應需求變化,證明維諾生成器收斂于加權區位成本臨界點。針對時限任務,提出蟻群系統(ACS)啟發的任務排序算法,證明其高概率收斂至最優解(該解在最小化機器人能耗同時,優先保障緊急時限任務)。
第二章闡述符號體系與數學基礎;第三章詳述兩種人機協同導航方法;第四章提出多資源分配覆蓋控制策略;第五章以智能體信譽度為核心構建時限/非時限任務服務機制;第六章總結并展望。附錄A收錄符號索引。
圖1·2:本論文研究協同自主性的三種實現形態。第四章與第五章探討多智能體協同團隊(上圖),第三章解析人機協同導航(下圖)。
分層多智能體系統(HMAS)通過層級化結構組織智能體集群,有效管理復雜性與規模擴展。此類層級架構雖能簡化協調流程,卻常伴隨隱性權衡。本文提出五維分類體系:控制層級、信息流、角色任務委派、時間分層及通信結構,其核心價值在于提供跨方案比較框架而非指定"最優"設計。該分類法關聯具體協調機制——從經典任務分配的合同網協議到新興分層強化學習研究,并以電網、油田作業等工業場景佐證框架實用性:生產層、維護層與供應層智能體通過協同實現油井故障診斷或能源需求平衡。案例表明層級結構可在保障局部自主性前提下達成全局效率,但平衡點極為微妙。文末提出開放挑戰:實現人類可解釋的層級決策、超大規模智能體集群擴展、以及大語言模型等學習型智能體安全融入分層框架的可行性評估。本論文首創融合結構、時間與通信維度的分層MAS統一設計框架,構建經典協調機制與現代強化學習及大語言模型智能體的理論橋梁。
人工智能的現代應用常需多智能體在復雜環境中協同作業。分層多智能體系統(HMAS)通過層級化組織架構協調大規模智能體集群,已成為高效的系統設計范式。在HMAS中,高層智能體(或智能體團隊)通常監管協調低層智能體,形成類人類組織層級的指揮鏈。該架構優勢體現在三方面:首先解決可擴展性問題——當智能體數量激增時,純扁平化(完全去中心化)結構易受通信開銷與全局一致性制約,而通過中間"領導者"智能體實施分治策略可有效管理復雜度。分層機制賦予特定智能體更高責任權重,實現任務需求靈活適配與大規模MAS高效管控。例如自動駕駛領域提出的"區域領導者"架構:頂層智能體優化路網全局目標,區域領導者協調局部交通流。其次支持差異化抽象層級與時間尺度的決策:高層智能體執行寬時間跨度的抽象規劃(如任務規劃),低層智能體實施精細動作控制(如運動控制),提升系統整體一致性。第三促進結構化協調與沖突消解:明確權責關系(指揮鏈)與通信路徑,規避完全平等型團隊常見的決策遲滯或振蕩現象。正如Malone與Crowston經典論述所指:協調本質是管理活動間依存關系——當存在結構化監督機制時該過程顯著簡化(Malone and Crowston, 1994)。
分布式AI與多智能體系統的早期研究已證實組織設計對性能的影響。學界通過分析層級、團隊、聯盟、全息及市場等組織范式權衡優劣,尤其揭示層級組織(常通過管理者-工作者模式或樹狀拓撲實現)能以部分魯棒性為代價提升全局效率;而完全去中心化的"團隊"組織雖最大化韌性平等性,卻在大規模群體中效率受限。最新研究凸顯混合架構的復興趨勢——融合分層與去中心化協調機制以兼取二者優勢。行業投資數據佐證該趨勢:2024年Q1多智能體系統領域通過超1100筆交易獲122億美元融資,彰顯醫療、交通、金融及國防等千億級市場對MAS變革潛力的持續信心(Aalpha, 2025)。Sun等人2025年的深度研究指出"分層與去中心機制的混合策略"是實現可擴展性與適應性平衡的關鍵路徑,印證本文分類方法的科學價值。事實上層級結構在自然界(如具工蜂-蜂后層級的昆蟲社會)與人類社會(企業組織架構)普遍存在,表明精心設計的層級可顯著增強多智能體AI系統的協調效能。
除結構優勢外,HMAS更契合人機交互需求。在能源運營、軍事指揮等任務關鍵型領域,人類監督員管理AI智能體、智能體再管控底層自動化流程的分層模式,既映射現實管理結構,又為人機協作提供意圖注入節點。通過明確定義人類操作員(戰略決策者)與自主智能體(戰術執行者)角色,層級架構促進人機高效協作。但該集成亦引發新挑戰——系統需向上提供可解釋性(確保人類理解智能體決策)并建立信任機制保障可靠委派。
面對多智能體應用規模與復雜度的持續增長(從含數百分布式能源的智能電網,到自動駕駛車隊,再到自適應供應鏈),亟需建立分層多智能體系統的系統性分類與設計指南。現有MAS分類法(如按團隊規模、通信拓撲、智能體異構性劃分)基礎上,本文提出聚焦層級組織模式及其協調機制的升級版分類體系。該研究融合經典框架(如Smith 1980年提出的任務分配合同網協議及MAS組織理論)與前沿成果(分層多智能體強化學習、大語言模型智能體),以多維視角勾勒HMAS設計空間,明晰系統架構師的抉擇與權衡。分類體系植根現實應用(尤以作者深耕的能源與運營領域為典型),通過油田監測分層MAS、微電網控制等工業案例實證設計范式的實用價值。文末指出現代AI能力與層級結構交叉衍生的研究議題:如何在深度分層系統中維持全局透明度?如何將大語言模型智能體的推理能力融入傳統層級架構?本成果貢獻了橫跨控制、信息流、角色/任務委派、時間分層、通信結構五維度的統一分類法,并顯式關聯協調機制與工業部署,為研究者與系統架構師提供超越既有綜述的實用設計透鏡。
態勢感知(SA)是通過感知、理解與預測環境要素的連續過程,構成復雜系統的重要組件。環境信息接收具有持續性與多模態特性,人工智能技術通過將SA目標拆解為數據融合、表征、分類及預測等任務,提供更高效穩健的支撐。本文系統綜述應用于各類環境與場景中構建、增強及評估SA的AI與多模態方法,重點聚焦感知完整性與持續性提升。研究表明人工智能與多模態方法的融合顯著增強了復雜系統的感知與理解能力,但在未來態勢預測與多模態信息有效融合方面仍存研究缺口。本文總結AI與多模態技術實現SA的應用案例與實踐經驗,并提出未來展望與挑戰,包括更全面的預測能力、更強的可解釋性及更先進的視覺信息處理技術。
圖1所示。基于人工智能和多模態技術的態勢感知系統概述。
本文開發了基于充分統計量的方法,用于設計二元分類任務中的人機協作決策機制。該方法允許AI預測用于全自動化決策,或選擇性輔助人類決策,同時兼容決策者的內生偏倚信念與努力擠出效應,無需構建人類決策的結構性模型。本方法經在線事實核查實驗驗證:人類對AI預測存在反應不足現象,且當AI呈現高置信度預測時會降低自身努力程度。這種不足反應主要源于人類對自身信號精度的過度自信,而非低估AI能力。最優策略為:AI高置信度時自動化處理,不確定性案例委托給人類并完整披露AI預測。自動化雖具價值,但利用AI預測輔助人類的額外收益微乎其微。
人工智能工具性能近年顯著提升,諸多預測工具已媲美甚至超越人類(Kleinberg等, 2017; Agrawal等, 2018; Lai等, 2021)。該進展引發兩大關注點:AI輔助如何影響人類表現(Brynjolfsson等, 2025);以及如何設計人機協作系統以確定案例應自動化處理,或交由人類決策(無論是否輔以AI預測)(Raghu等, 2019; Mozannar與Sontag, 2020)。
設計人機協作面臨的核心挑戰在于:可行方案空間龐大,且人類對設計方案的反應難以預測。人類可能對AI預測展現信念更新偏誤(Agarwal等, 2023),而AI預測可能擠出人類獲取或處理信息的努力——這種現象被稱為算法規避(Dietvorst等, 2015)、自動化偏倚(Skitka等, 1999)或“行車時打盹效應”(Dell’Acqua, 2022)。響應行為的復雜性疊加協作方案的高維特征,使通過實驗或結構建模尋求最優方案困難重重。
本文針對二元分類任務開發充分統計量方法,要求對多個案例輸出分類結果a ∈ {0, 1}。充分統計量V(x)定義為:當人類決策者觀測到經校準的AI評估值x∈[0,1](表示正確分類為1的概率)時,其正確分類案例的概率。該方法兼容任何基于自身評估選擇性自動化分類任務,或在披露(可能不完美的)評估信號同時委派任務給人類的AI系統。在V函數不隨信息披露策略改變的假設下,信息設計理論(Dworczak與Martini, 2019)證明:V函數可被用于求解該空間內的最優設計方案。這意味著——在給定V的條件下——最優設計獨立于人類信息處理、行為偏誤或努力響應等其他人機交互因素。V函數可直接利用向決策者完整披露AI評估值x時的決策準確率數據估算,此類數據可源自實驗(如本研究)或歷史觀測。
該充分統計量方法相較于兩種傳統方案具顯著優勢。方案一需估計人類行為與信念更新的完整結構模型并求解最優設計,此過程需更強行為假設且估計所需數據(不同AI評估值x下的準確率)與直接估計V函數所需數據相同。方案二需通過實驗測試大量設計尋找最優方案,但因設計空間巨大而不具實操性,且仍需理論論證所獲最優解是否全局最優。
我們在激勵性在線事實核查實驗中實施并驗證本方法。參與者需判斷陳述真偽,此場景對人機協作研究具典型價值:公共陳述真實性受高度關注,人類與AI核查員均被廣泛應用。盡管媒體、獨立機構與數字平臺長期依賴專業人類核查員(國際事實核查網絡, 2023),待核查陳述數量的激增促使各方關注公眾參與事實核查(Allen等, 2021; X社區筆記, 2025)及自動化核查(Guo等, 2022; 國際事實核查網絡, 2023)。完善人機協作系統對提升事實核查效能具有現實意義。
事實核查亦是理想的實驗場景:任務易于闡釋且可由未經訓練者執行;利用含基準真值標簽的陳述數據庫(如實驗采用的FEVEROUS庫(Aly等, 2021))可便捷測量準確率;該任務還表征了醫療診斷(Agarwal等, 2023)、司法保釋決定(Kleinberg等, 2017)、簡歷篩選(Li等, 2020)等典型二元分類場景。
實驗分兩階段推進:第一階段通過測量不同AI評估值下的分類準確率估計充分統計量V,求解最優及近似最優設計。因社會往往偏好人類保留最終決策權(事實核查可能屬此情形),我們同時考慮允許自動化和完全人類決策的設計。第二階段在參與者內實驗中實施五種基于第一階段估計的方案,通過比較兩階段預測準確率與實際結果檢驗充分統計量方法。
多機器人協同與協作是提升團隊能力并實現自主建造、農業及未知大區域持續作業等應用場景新型任務的關鍵行為。本研究以“多機器人資源分配問題”為背景探究此類行為,該問題要求將機器人分配至待服務區域。我們尤其關注適用于大規模多機器人團隊的“容錯性方法”。我們引入一種基于圖的建模框架用于多機器人資源分配問題,該框架在表征“區域間關系”與“獎勵模型”方面具有前所未有的豐富性。首先,針對“多智能體覆蓋控制問題”,通過圖神經網絡(GNN)引入“基于圖的計算方法”,其利用學習型智能體間通信策略,在性能與可擴展性上顯著提升。隨后,研究需要顯式協同的“復雜多任務場景下多機器人任務分配問題”,提出一種“基于網絡流的規劃方法”,可在數秒內為大規模問題生成高質量解。進一步將該方法擴展至在線場景,支持任務失敗與意外觀測時的動態重規劃。實證研究表明,這些建模方法與算法通過挖掘多機器人問題中的本質圖結構特征,實現了性能突破并推動領域技術前沿發展。
圖:任務圖(底部)展示任務間優先關系。高亮部分為任務子集,顯示“聯盟職能”(紅色)與“優先關系”(藍色)。例如,在執行“運輸建筑材料”任務前,機器人需在布滿碎片的工地“尋路或清障”。路徑質量直接影響團隊運輸效率;而運輸表現(如材料損毀情況)將決定后續“施工任務”的執行速度與質量。?
第一章將本研究置于“多機器人資源分配”領域框架內。首先,提出多機器人資源分配領域內的問題分類體系,沿著“任務表征抽象度”維度梳理問題模型及其對應研究方法。隨后,深入綜述與“多機器人覆蓋控制”及“多機器人任務分配”密切相關的文獻,這些成果為本研究提供了核心理論支撐。??
??第二章《基于圖神經網絡的多機器人系統覆蓋控制》提出一種創新方法,解決“感知半徑受限條件下的多機器人覆蓋控制”問題。相較于文獻常用基準控制器,該方法通過智能體間通信機制顯著提升控制器的性能與魯棒性。為實現這一目標,在機器人間通信網絡上部署圖神經網絡(GNN),訓練其預測集中式全知控制器的輸入指令,從而生成能夠通過智能體通信應對復雜覆蓋控制場景的控制器。實驗證明,該控制器性能顯著超越基準方法,且具備優異的可擴展性與泛化能力。首次構建基于全球城市真實興趣點特征的覆蓋控制問題數據集,并用于算法驗證。這是圖神經網絡學習型控制器在多機器人覆蓋控制領域的首次應用,展現出巨大潛力。??
??第三章《具有任務優先關系的多機器人協同與協作》針對“多機器人任務分配(MRTA)”問題提出新型建模框架與求解方法體系。首次將“優先級約束”與“多機器人任務”納入MRTA問題,構建名為“任務圖”的建模框架——以圖節點表示任務,邊表示任務間優先級關系。該框架包含的“獎勵模型”能通過豐富函數空間表征關聯任務性能間關系及任務分配聯盟規模與任務績效間關系。基于此模型,開發出利用網絡流優化的任務分配解決方案,其求解速度較現有方法提升數個量級,且計算復雜度與任務執行機器人數量無關,可擴展至無限規模團隊。實驗表明,該方法在保證解質量的同時實現計算效率突破,為任務分配建模框架作出根本性貢獻。?
在第四章中,拓展了多機器人任務分配(MRTA)方法,提出《在線環境下的多機器人優先關系協同與協作》。本章沿用相同“任務圖”模型與“基于流網絡的求解方法”,將其置于在線框架以提升系統魯棒性與性能,并通過高保真仿真器驗證方案有效性。核心在于,在原有MRTA問題中引入“不確定性”考量——任務可能隨機失敗或產生求解器未預期的隨機獎勵。依托流網絡方法的高速求解優勢,以迭代方式重構求解流程,使系統能夠基于已完成任務的獎勵觀測實時重規劃。該方法顯著提升了存在環境不確定性時的規劃性能,甚至因解空間擴展在零誤差條件下進一步優化結果。在高保真城市環境多智能體仿真器中驗證了該在線方法及離線流網絡方法,其中任務獎勵基于仿真器內物理現象量化。實驗表明,該建模方法能有效預測高不確定性復雜任務的性能表現,且相較文獻方法具有顯著優勢。在線框架為原有方案注入魯棒性,并將性能提升至接近最優水平,為任務分配領域持續研究提供了極具前景的框架。?
在技術飛速進步、市場波動加劇與全球性中斷頻發的時代,有效供應鏈管理需創新方法應對不確定性、復雜性與動態變化。本研究開發并應用一系列新型智能決策支持系統(IDSS),以解決中斷環境下的大規模隨機動態供應鏈網絡問題。通過電子商務、制造業、醫療健康與可持續性等多元領域案例驗證所提系統,具體提出四類彈性IDSS框架:集成先進優化算法、機器學習、強化學習與物流仿真技術,應對重大供應鏈中斷的現實挑戰。首個系統通過移動倉庫與眾包配送優化城市末端配送,顯著降低配送時間、成本與環境影響;第二系統開發多階段隨機動態規劃模型增強全球供應鏈彈性,優化不確定性下的物流運作;第三系統聚焦公平高效疫苗分配,采用數據驅動決策降低短缺風險;第四系統設計穩健可持續的口罩分發與回收網絡,平衡成本效益、環境影響與客戶服務。研究整合精確方法(如并行化隨機對偶動態整數規劃PSDDiP)、強化學習與混合優化策略,在保障可擴展性與計算效率前提下,提升大規模供應鏈實時彈性決策能力。既有IDSS多缺乏此類集成,或未考慮中斷場景,亦未經過大規模實時驗證。實證表明彈性IDSS在提升響應速度、時間管理與成本效益方面潛力顯著。中斷事件中數據可用性缺口與決策動態適應機制的研究,為政策制定者與實踐者提供新洞見。例如,所提在線強化驅動自適應優化(ORDAO)方法,相較交互式多智能體仿真(IMAS)可減少11%配送時間完成同等訂單量。
本論文通過開發整合數據驅動模型、優化算法、仿真與機器學習的IDSS,推動大規模供應鏈物流運營的彈性與可持續性。第二章提出基于隨機建模、行程時間仿真、眾包運力深度學習與強化學習的末端配送IDSS;第三章構建含風險對沖策略的多階段隨機制造供應鏈模型及并行SDDiP算法;第四章設計醫療領域實時需求預測與動態庫存疫苗分發系統;第六章開發閉環供應鏈內口罩可持續分發與回收的魯棒-隨機模型。第五章總結成果,闡明核心貢獻,討論模型局限并展望未來方向。整體研究為行業定制IDSS提供統一框架,增強不確定性下的適應與響應能力。
高效人類團隊通過智能通信與協調策略實現協同效用最大化。受此啟發,本研究致力于開發多機器人系統智能協作的計算方法,結合經典模型驅動控制規劃與數據驅動技術(如多智能體強化學習MARL、示范學習LfD),推動機器人群體涌現協同行為。
研究首先采用模型驅動方法解決多機器人系統在不確定性下的協調控制與規劃問題,重點探究環境模型在規劃決策中的高效整合機制。通過設計集中式與分布式協調框架(涵蓋控制輸入與高層規劃層級),構建基于環境模型的多機器人協同體系。創新性成果包括:開發安全關鍵場景下的人本化多機器人網絡協調控制算法,實現主動狀態估計支撐的協同覆蓋規劃與性能概率性保障;進一步擴展方法應對機器人異質性挑戰,構建分層協調框架,使感知型與操作型機器人組成的復合團隊能在空基森林滅火等復雜任務中高效協作。
模型驅動方法雖能提供性能與穩定性保障,但對模型精度與啟發式算法質量敏感。為此,研究引入數據驅動與機器學習方法,探索群體協作行為的涌現機制。設計基于圖結構的通信模型架構,實現異構機器人團隊的高效多樣化協同;受人類心智理論啟發,開發迭代式深度決策理性模型,優化去中心化協作中的行動選擇機制。
近年來,盡管MARL廣泛應用于多機器人任務優化,但強化學習仍存在獎勵函數設計困難與高樣本復雜度等局限。因此,精確建模人類策略行為愈發重要。同時,隨著多機器人系統普及,確保機器人行為價值與人類倫理對齊至關重要。本研究提出多智能體示范學習框架MixTURE,通過混合主動多智能體學徒學習,使機器人團隊能夠從人類示范中學習協作策略,同步實現端到端自主通信協調。該框架兼具示范學習優勢,顯著降低人類示范數據需求與時間成本,提升系統可用性量表(SUS)評分與團隊協作效能,為多機器人系統人機協同開辟新路徑。
本研究核心論點在于:通過賦能機器人團隊高效通信與行動規劃推理能力,可顯著提升群體協作效能。本論文通過以下創新成果驗證該主張:
? 無人機團隊人本化動態環境主動感知協調控制框架:基于卡爾曼不確定性殘差傳播與加權多智能體網絡控制,構建雙準則目標函數,實現無人機群主動推斷野火傳播參數并監測火勢演化[5]。
? 多機器人網絡通信容錯自適應控制架構:通過模型參考自適應控制架構,設計集中式協調控制框架,使多機器人團隊在通信網絡斷續環境下仍能達成協同共識[6]。
? 服務質量保障型多無人機動態區域協同覆蓋規劃:針對空基野火監測需求,提出概率性能保障的預測式協同覆蓋框架,支持無人機群推斷潛在火勢動態,實現高危環境下的長時程協調[7,8]。
? 異構機器人分層協調框架:基于多智能體部分可觀測半馬爾可夫決策過程(MA-POSMDP)構建MA-SARTSA算法,使智能體在動態目標數量未知環境中學習協同監控策略,支持宏動作驅動的異步多智能體決策[9]。
? 高效多樣化通信模型MARL框架:提出異構策略網絡(HetNet),使異質機器人通過二進制中間語言實現零基礎自發通信學習與協作[10]。
? 有限理性下決策優化MARL框架:受認知層級理論k級推理機制啟發,開發信息策略梯度(InfoPG)方法,支持有限理性多智能體進行迭代決策優化[11,12]。
? 人機協同策略學習MA-LfD框架:構建MixTURE混合主動學徒學習框架,使機器人團隊無需人工標注數據即可學習人類專家協作策略,同步實現端到端自主通信協調。
本論文結構如下:第2章系統梳理相關領域文獻;第3章闡述理論基礎與背景知識,重點介紹基于模型的節點級多機器人協調方法[5,6]及其在無人機動態區域覆蓋中的應用;第4章擴展至高危時效敏感場景,提出性能保障型模型預測方法[7,8]與數據驅動方案[9],解決資源受限異構無人機群的環境不確定性協調問題;第6章提出端到端多智能體協同通信策略學習方法[13,10];第7章通過新型MARL架構實現協作機器人團隊的迭代推理與決策理性化[12];第8章構建MA-LfD框架,實現人類領域知識高效遷移與協作策略直接學習。
人工智能(AI)通過提供決策建議和與問題相關的信息來協助人類決策者,具有改善人類決策的潛力。然而,要充分發揮人類與人工智能協作的潛力,仍然面臨著一些挑戰。首先,必須了解支持互補性的條件,即人類在人工智能輔助下的表現超過無輔助的人類或單獨的人工智能的情況。這項任務要求人類能夠識別出應該利用人工智能的情況,并開發出能夠學習補充人類決策者的新型人工智能系統。其次,需要準確評估人類對人工智能的心理模型,其中既包括對人工智能的期望,也包括依賴策略。第三,需要了解不同的人機交互設計選擇所產生的影響,包括人工智能輔助的時機以及應該向人類決策者展示的模型信息量,以避免認知超載和無效的依賴策略。針對這三大挑戰,將基于最新的經驗和理論研究成果提出跨學科觀點,并討論新的研究方向。
表 1: 本文研究的人工智能輔助決策的現實世界實例及相關挑戰
過去十年來,人工智能(AI)越來越多地被用于在各個領域協助人類。現在,簡單的任務都可以通過 Siri 和 Alexa 等數字人工智能助手實現自動化。人們依靠高級駕駛輔助系統(ADAS)來改善駕駛體驗。媒體平臺上的推薦系統提供個性化播放列表,其中既有用戶喜愛的內容,也有他們可能喜歡的新內容。將人工智能融入日常生活,有望節省人力,避免人類決策的盲點,并有可能挽救生命。然而,人類與人工智能的合作也面臨著許多挑戰。已部署的人工智能系統因傳播系統性偏見(Raji & Buolamwini, 2019; Gebru, 2020)、對訓練數據之外的示例概括能力差(Shen 等人,2021)以及以犧牲用戶福祉為代價優化用戶參與度等問題而受到公眾監督。這些問題源于這些人工智能系統與人類用戶的目標和價值觀不一致(Christian,2020;Gabriel,2020)。要創建符合人類價值觀和期望的人工智能,需要指定反映人類價值觀的效用函數,而這仍然是一個挑戰。就目前的形式而言,人工智能無法獨立做出對人類來說準確、可接受和公平的決策。因此,在做出決策時,除了人工智能的計算之外,還必須考慮人類決策者(DM)的專業知識和反饋。
本文將重點關注與人工智能輔助決策相關的一系列挑戰,即人工智能以預測和/或解釋的形式向做出最終決策的人類決策者提供幫助。例如,人工智能系統已被開發用于協助專家進行臨床診斷(Rajpurkar 等人,2020 年;Sayres 等人,2019 年)、金融(Bussmann 等人,2021 年)和司法(Grgic′-Hlacˇa 等人,2019 年)決策以及預測(Benjamin 等人,2023 年)。關于人工智能輔助決策的文獻越來越多,涉及多個學科和研究領域,包括人機交互(HCI)、人工智能和機器學習以及心理學(Lai 等人,2021 年)。
沒有對這些文獻進行系統性的回顧,而是綜合了已經出現的一些見解,并將重點完全放在人工智能輔助決策的性能相關方面。具體來說,研究了人工智能協助人類管理者完成獨立任務時影響決策準確性的三大挑戰。首先,討論了開發能夠補充人類管理者能力的人工智能的必要性。當熟練的人工智能助手融入決策過程時,人類必須充分了解人工智能的能力和制約因素。其次,強調人類對人工智能精確心智模型的重要性。只有當人知道如何利用這種支持來提高人類-人工智能團隊的績效時,人工智能輔助才能充分發揮其潛力。第三,討論了在人類與人工智能協同工作的不同工作流程中開發有效的人機交互方法所面臨的挑戰。這涉及確定何時提供人工智能協助和提供哪些信息,以及考慮人工智能系統適應人類認知局限性的需要。認為,認知建模有助于了解有效使用人工智能信息所面臨的障礙。表 1 結合現實世界中的例子討論了這三個挑戰,包括臨床決策支持、信用評估和高級駕駛輔助系統,在這些系統中,人工智能輔助決策正逐漸成為常態。
針對每項挑戰,都會深入探討在經驗和理論方面正在進行的跨學科研究。此外,還將提出有助于更有效地應對這些挑戰的未來研究方向。
人類經常在兩個或更多人的小組中討論問題,并能取得比小組中任何一個人都高的成績(Kameda 等人,2022 年)。此前對人類協作工作的研究表明,績效的提高往往是由于小組成員之間的分工互補(Stasser & Abele, 2020)。將人工智能引入以前只有人類參與的工作流程,就是為了實現這一目標,即通過利用人類 DM 和人工智能的互補優勢來提高決策的準確性。至少,我們希望人工智能輔助下的人類能比無人輔助下的人類表現得更好(或至少不會更差)。許多研究之所以能夠達到這一基準,主要是因為這些研究涉及的情況是,人工智能向人類提供人工智能建議,而人工智能所表現出的準確性要高于僅靠人類的表現(Zhang 等人,2020 年;Vodrahalli 等人,2020 年)。在這種情況下,人類可以采用簡單的啟發式方法,即始終遵循人工智能的建議來提高性能。然而,這種情況提出了一個問題:在缺乏相關倫理和法律考慮的情況下,人類為什么要參與決策過程?當人工智能的輔助性能不僅超過了無輔助的人類性能,而且還超過了人工智能本身的性能時,就會出現一種更令人信服的情況。這種情況被稱為互補性(Bansal、Wu 等人,2021 年;Steyvers 等人,2022 年),表明人類與人工智能的表現優于人類或人工智能單獨的表現。盡管一些研究顯示,在人類與人工智能的綜合表現超過人工智能或人類單獨表現的情況下,結果很有希望(Bansal、Wu 等人,2021 年;Tejeda 等人,2022 年),但其他研究表明,人類 DM 對這種表現沒有貢獻,而人工智能單獨行動會帶來更好的表現。
要了解人工智能輔助決策在什么條件下會產生互補性,區分可能無法實現互補性的兩種不同原因是很有幫助的。首先,重要的是要了解人類 DM 和人工智能可以獨立貢獻哪些信息,以及這些信息能否(理論上)導致互補。例如,Steyvers 等人(2022 年)指出了分類領域互補性的一些一般條件。調查重點是成對的分類器:人類-人類、混合人類-人工智能和人工智能-人工智能(特別是兩種不同的機器分類器)對。研究結果表明,人類-人工智能混合對(將人類預測與不同程度的人工智能精確預測相結合)的性能可以超過人類-人類或人工智能-人工智能對。只要人類和人工智能預測的準確性差距保持在一個特定的閾值以下,就能實現這種優異的性能。這個閾值取決于潛在的相關性,即人類和人工智能預測之間的獨立程度。當人類和人工智能預測之間的相關性較低時,將高準確度人工智能的預測與準確度較低的人類的預測(或反之亦然)合并,仍然可以獲得比一對人類或一對人工智能更優越的性能。同樣,對人類群體決策的研究表明,當群體由認知不同的個體組成時,個體預測的統計組合可帶來準確的群體績效,從而產生不相關的預測。
在人工智能增強決策的情況下,最終預測不是通過統計手段得出的,而是人類 DM 內部認知過程的結果,人類 DM 必須將人工智能預測與自己的獨立信息相結合。理想的情況是,在人工智能比較準確的問題上,人類依靠人工智能,而在人工智能不太準確的情況下,人類依靠自己的判斷。為了確保適當的依賴,幫助人類正確識別人工智能能力互補的區域至關重要。這可以通過提供人工智能信心或解釋來實現,以幫助人類更好地理解人工智能的決策。當互補性的本質易于人類識別時,人類就能做出適當的依賴決策(Q. Zhang 等人,2022 年)。然而,目前還不完全清楚人類管理者能否更普遍地利用互補性的潛力。因此,互補性可能會失敗,因為盡管存在互補性的潛力,但由于次優的依賴決策,DM 無法實現互補性。
另一種情況是,互補性可能會失敗,因為從統計學的角度來看,互補性的潛力從未存在過(例如,人類和人工智能之間的性能差異可能足夠大,而且相關性過強),在這種情況下,即使人類 DM 做出了最佳的依賴決策,也不會產生互補性。確定互補性成功或失敗的方法之一,是觀察由人類 DM 做出最終決策的范例和將人類和人工智能的獨立決策統計合并為最終決策的范例中的性能差異。然而,在人類 DM 做出最終決策的情況下,依靠外部統計匯總器來識別和利用人工智能的互補性并不是一個可行的解決方案。正如我們在 “挑戰 2 ”中所討論的,重要的是要讓人類管理者有能力為其人工智能助手建立適當的心智模型,這樣他們就可以利用人工智能的互補能力。人類是否有效利用了人工智能提供的信息?
必須開展更多的研究,以更好地了解促成人類-人工智能互補性的因素,并開發促進互補性的新方法。在人工智能研究方面,新開發的人工智能系統考慮到了人類是決策過程的一部分這一事實(Bansal、Nushi、Kamar、Horvitz 等人,2021 年;De 等人,2020 年;Wilder 等人,2021 年)。這些人工智能系統經過訓練,可在人類利用人工智能促進決策時優化預期的聯合表現。在心理學方面,有必要開展更多研究,以了解人工智能預測的獨立程度如何影響人類決策。在人類團隊中,團隊成員之間一定程度的認知多樣性對團隊績效有積極的促進作用,但研究人員假設,過度的認知多樣性可能會對團隊成員之間的交流產生負面影響,從而導致團隊績效不理想(Aggarwal 等人,2015 年)。同樣,雖然人類和人工智能預測之間的獨立性有助于互補,但與人類預測差異過大的人工智能預測可能不會被認為有用(Grgic′-Hlacˇa 等人,2022 年)。因此,有必要開展更多研究,以了解可能阻礙人類 DMs 有效利用人工智能預測的心理限制。
有效使用人工智能輔助工具的一個重要決定因素是相關人工智能的人類心智模型,其中包含一個人對人工智能的信念集合,以及對與人工智能互動效果的預期。一般來說,心智模型是人類構建的對世界的簡化表述,使他們能夠整合新信息并進行預測,同時只需花費很少的腦力(Craik,1952 年;Smyth 等人,1994 年)。因此,人工智能的心智模型越準確,人工智能就越有可能被正確使用(Bansal 等人,2019 年)。同樣,不完整和/或不正確的人工智能心智模型也可能導致人工智能的無效使用。這種不正確的心理模型可能會導致對人工智能不恰當的依賴或錯誤的信任。我們認為,深入了解人們對人工智能的心理模型有助于設計工作流程,幫助人類制定適當的依賴策略,從而提高團隊績效。
關于人們對人工智能的心智模型的研究表明,人們對人工智能有各種各樣的概念。為了組織和理解這些實證結果,我們區分了在人們實際體驗相關人工智能之前就已經形成的人工智能心智模型,這種心智模型主要是由先前的信念驅動的,以及這些模型與人類為其他人類建立的模型相比有何不同。我們還討論了人們的人工智能心智模型是如何通過與人工智能的互動體驗而形成的。
總體而言,這些實證結果表明,人們對人工智能的心智模型取決于他們對相關人工智能的熟悉程度,以及他們對其依賴決策結果的熟悉程度。如果人們對人工智能的表現比較熟悉,但對自己決定委托或依賴人工智能建議的后果并不熟悉,那么他們的心智模型可能是不完整的,可能不能準確地代表人工智能相對于自己的不同能力。也許他們對人工智能的心理評估在暴露于人工智能不可避免的錯誤之后(正確地)被降級了,但卻沒有正確地反映出這樣一個事實,即他們自己在試圖解決同樣的問題時可能并沒有表現得更好,事實上,他們在這種情況下可能表現得更差。然而,人們被告知其依賴決定的后果的研究結果表明,人們會建立更豐富的人工智能心智模型,從而在依賴自己的決定還是人工智能的決定方面具有靈活性。其他因素,如人工智能和當前決策任務的復雜性,也可能影響心智模型的忠實性。一些實驗室任務側重于相對簡單的行為任務,可能不需要大量的學習來開發有效的依賴策略。然而,在復雜的工業系統或與較高自動化水平相關的軍事應用中,DM 可能無法完全理解系統是如何工作的,因此可能會采用簡單化的策略,如不加區分地依賴人工智能(Cummings,2017)。
要了解人們對人工智能的心智模型,需要在幾個方向上開展新的研究。首先,目前人們對人工智能信念的長期變化知之甚少(Glikson & Woolley, 2020)。必須進行縱向研究,以了解人們的心智模型隨時間的變化。這些心智模型是否會隨著時間的推移而變得更加準確?此外,認知建模等方法可用于推斷人們心智模型的潛在內容,包括他們的決策策略和信念,而這些內容無法通過行為測量直接評估(如 Chong 等人,2022 年;Tejeda 等人,2022 年)。人類與人工智能交互的心智模型編碼了人類自身能力與人工智能能力之間的感知差異,利用心理學研究中關于元認知的見解來理解人們如何估計自己的自信心(Koriat 和 Levy-Sadot,1999 年)以及自己相對于他人的表現(Moore 和 Cain,2007 年)可能會有所幫助。此外,個人與人工智能的合作有可能是由直接的學習方法引導的,如無模型強化學習,而不是由對人工智能助手能力的明確心智化引導的。還需要進一步的研究來確定,在整合人工智能的建議時,個體是形成了對人工智能的明確表征,還是依賴于基本的啟發式方法。
為人工智能建立準確的心智模型是人類與人工智能高效協作的關鍵。因此,開發工作流程和系統以幫助人類管理者為其人工智能隊友構建準確的心理模型至關重要。具體來說,我們考慮了影響人類 DM 使用人工智能輔助的兩種主要設計選擇:選擇何時提供人工智能輔助和選擇提供哪些信息。此外,我們還討論了自適應方法,這些方法可以調整人工智能的輸出和人與人工智能的交互,從而將人類認知的局限性考慮在內。
總體而言,經驗證據表明,提供更多有關人工智能的信息并不總能提高性能。鑒于處理人工智能建議的認知資源可能有限,特別是在時間敏感(時間不足)的情況下,人工智能必須調整其輸出(例如,通過提供適當詳細程度的解釋)。過多的信息可能不利于決策(Poursabzi-Sangdeh 等人,2021 年;Schaffer 等人,2019 年)。因此,人工智能系統的設計必須適應人類 DM 的認知局限性(Cummings,2017 年)。應該向人類 DM 提供哪些信息、何時提供以及提供多少信息,這些問題突出表明,有必要制定理論框架,以推斷人工智能輔助工具對人類認知和所觀察到的表現的影響。在可解釋人工智能(Chen 等人,2022 年)的背景下,這樣的框架已經開始出現。此外,在與人工智能合作時,可以利用心理學理論和計算模型來更好地理解人類認知(Rastogi 等人,2022 年)。例如,在必須快速做出決策或需要不同程度的腦力勞動來處理人工智能輸出結果的情況下,可以利用合理資源分配理論(Lewis 等人,2014 年;Gershman 等人,2015 年;Lieder 等人,2018 年;Lieder & Griffiths,2020 年)來識別人們何時會無視人工智能的預測,如果所感知到的收益不能證明相關的時間和腦力成本是值得的。
心理學和行為經濟學的研究長期以來一直主張通過干預或 “暗示 ”來引導人們做出決策(Thaler & Sunstein, 2018)。推導計算理論的進步(Callaway 等人,2022a;Callaway 等人,2022b)使人們能夠識別最佳決策策略和有效反饋,以指導決策。Callaway 等人(2022a)證明,人工智能助手在獲得有關人們決策過程的反饋時,可以成功地促使人們采用最佳決策策略。與此類似,最佳游戲化可以重新設計環境的獎勵結構,使人們的長期目標與短期獎勵相一致。這種方法有助于人們克服近視決策傾向,在面對連續任務時表現得更有遠見(Consul 等人,2022 年;Lieder 等人,2019 年)。人工智能輔助推導是一種強大的自適應人工智能輔助范例,它可以根據人們的能力量身定制,并能減輕長期優化的認知負荷。
最后,另一個有前途的研究方向是讓人工智能輸出更具互動性。Lakkaraju 等人(2022 年)認為交互式人工智能系統非常重要,而不是以一次性輸出的形式提供解釋。在這些系統中,人類管理者可以使用自然語言對話來詢問模型做出決定的原因,從而通過一系列互動來澄清人工智能預測。此外,交互式人工智能助手已被證明能提高用戶的接受度和信任度。例如,病理學家報告說,當他們能夠在基于內容的圖像檢索(CBIR)系統中自定義搜索時,診斷效用提高了,信任度也提高了(Cai 等人,2019 年)。允許與人工智能助手進行交流和互動可以提高人們對系統的理解。
設計紅外系統可以幫助商業和軍事用戶實現大量應用。隨著寬帶紅外成像儀的尺寸、重量和功率(SWaP)的減小,其在航空飛行器上的實用性得到了開發。機載系統具有更大的機動性,可增強用戶獲取圖像的能力。本文介紹的研究采用輻射測量產生的理論模型,并將地面設計技術應用于空中。領航、瞄準、制圖和態勢感知都是紅外成像任務的例子,具有廣泛的設計歷史。本文的研究重點是設計空中系統。設計了一種基于導航的紅外系統,用于比較中波和長波紅外波段,以探測高壓電線,避免致命的撞車事故。一種新的瞄準系統采用了一種新穎的多攝像頭設計方法,該方法植根于瞄準任務性能(TTP)指標,以提高在無人機平臺上飛行時的大范圍性能。對可見光、近紅外、短波紅外和擴展短波紅外的校準圖像進行比較,以找出哪種圖像對繪圖任務的場景對比度最高。最后,設計了一個態勢感知系統,利用波長保持人員視線,同時實時繪制火災邊界以避免致命事故,從而確保森林消防員在極端野火條件下的安全。對于上述領航、瞄準、測繪和態勢感知系統設計,所產生的理論模型與實驗室和實地測量結果進行了比較。提出的校準分析提供了避免結果偏差和公平比較每個寬帶傳感器系統性能的技術。在每種情況下,理論和測量結果都證明了設計方法對創建航空傳感器系統是有效的。在每種情況下,傳感器的性能都能滿足設計要求,并可通過這些初步研究創建可部署的系統。
本文是研究指揮與控制(C2)未來表現形式的四篇系列論文中的第一篇。第一篇論文通過探討未來指揮與控制(C2)系統需要在其中運行的未來作戰環境,為后續研究設定了基線。具體來說,本文探討了復雜性的驅動因素、表現形式和影響,而此前的研究表明,復雜性很可能是這一環境的特征。為此,它討論了 C2 和復雜性等關鍵術語的定義;介紹了未來運行環境中復雜性的一些驅動因素,并討論了這些因素如何對 C2 系統和組織造成新的壓力;研究了分析和理解復雜性的可能方法;并概述了 2030 年代及以后可能產生的一些實際考慮因素。由于本文旨在為本系列的后續三篇論文提供資料,因此沒有全面涵蓋未來 C2 思考的所有方面,包括提出具體建議。
C2 沒有直截了當的定義,對于該術語在當代作戰環境中的范圍和相關性也存在爭議。對 C2 傳統定義的批判來自于對 21 世紀有效領導力構成要素的更廣泛質疑。在英國、美國和北約,最近出現了大量與 C2 相關的新術語,并將重點從聯合思維轉向多領域思維。我們的研究將 C2 定義為一個動態的、適應性強的社會技術系統,因此有必要考慮組織、技術和人力要素。
同樣,復雜性也沒有一個公認的定義。學術界對復雜性的研究日益增多,涉及多個科學學科,但缺乏統一的方法或理論框架。一個有用的出發點是區分簡單系統、復雜系統、復雜系統和復雜適應系統。文獻還描述了在這些條件下可能出現的所謂 "棘手"或 "超級棘手問題"。還可以對有限博弈和無限博弈進行重要區分--這是考慮作為復雜適應系統的國家間競爭時的一個有用視角。鑒于這些爭論,我們的研究避開了對復雜性的僵化定義,而是從其關鍵屬性的角度對這一現象進行了 DCDC 式的描述。
未來作戰環境的特征--以及國防 C2 系統和組織預計將執行的任務類型--具有很大的不確定性,因此任何預測都必須謹慎。盡管如此,文獻指出了各種政治、經濟、社會、技術、法律、環境和軍事(PESTLE-M)趨勢,預計這些趨勢將影響國際體系的演變,進而影響 2030 年及以后的國防行動。這些趨勢包括以下宏觀趨勢
最重要的是,沒有一個單一或主要的趨勢推動著變化或復雜性;相反,最令人擔憂的是多種因素的融合及其不可預測的相互作用。這種認識為進一步研究這些趨勢影響國際體系復雜性水平和特征的具體機制提供了基礎,從而為在這一領域開展工作的 C2 帶來了新的挑戰。
上述 PESTLE-M 趨勢為未來組織應對 C2 帶來了一系列困境和壓力,包括但不限于
此外,無論是理論家還是實踐者,在處理包含非線性動態的問題時,都缺乏有力的措施來衡量所做決定或采取的行動的有效性。因此,很難確切地說未來作戰環境中的復雜性是否在客觀上不斷增加(而不是以不同的形式出現),但對軍隊應處理的復雜任務的政治期望與當前 C2 方法的執行能力之間顯然存在巨大差距。當前的學術理論為決定如何在復雜環境中配置 C2 提供了一個方法工具包的初步輪廓和一些指導原則,但并沒有提供靈丹妙藥。該理論強調審議分析方法,即讓不同利益相關者參與共同設計、借鑒多學科和知識體系的見解,并在分析和決策過程中建立靈活性,以便根據反饋意見不斷迭代和改進的方法。
要應對復雜的自適應系統,就必須摒棄當前的線性 C2 流程和等級結構,盡管在處理非復雜任務和問題時,更傳統的方法可能仍然有用。在競爭激烈的世界中,英國既需要培養能夠對他人施加建設性影響的特性和能力(例如,將復雜性強加給對手的 C2),也需要培養能夠增強自身駕馭復雜性能力的特性和能力。
要影響敵對行動者的觀念、決策和行為,首先要深入了解其 C2 結構、流程和文化。根據這種了解,英國國防需要一套動能和非動能杠桿,對敵方的 C2 施加建設性影響,包括施加復雜性。除了敵對行動者,英國國防部還需要進一步了解如何對 PAG、盟友、合作伙伴、工業界、學術界、公民和對 C2 采取截然不同方法的其他人施加建設性影響。
在增強英國自身應對復雜性的能力方面,未來的 C2 系統和組織必須促進靈活性、復原力以及學習和適應能力等特性。整個決策周期都需要變革。例如,傳感器和通信技術的進步為獲取更多深度和廣度的數據提供了機會,包括有關復雜問題的數據。因此,提高認知能力對于理解所有這些數據至關重要,既要利用人類和機器的優勢,又要減少各自的缺點。要改變決策方法,還需要改變領導風格,以培養更善于駕馭復雜適應系統的決策者。在做出決策或計劃后,提高跨部門或跨層級的能力,在實施階段更好地整合活動或匯聚效應,對于抵消英國的局限性(如在質量方面)至關重要。
同樣,整合也不是萬全的;如果國防缺乏足夠深度的力量和能力,無法在充滿敵意的威脅環境中采取可信行動或維持高節奏行動,那么即使是最高效的指揮控制系統也無法在未來取得成功。此外,還需要采取防御措施以及恢復和失效模式,以阻止或減輕敵方破壞 C2 系統和組織的努力所造成的影響。鑒于所面臨的威脅,以及英國國防可能需要解決的不同形式的復雜問題,很可能會同時出現多種并行的 C2 模式,而不是單一的方法。應對復雜性意味著不斷學習、適應、創新和開放求變。因此,必須從一開始就將效果衡量標準、信號和變革機制納入計劃以及 C2 系統和組織,使其能夠隨著時間的推移不斷學習和調整,以應對各種情況。至關重要的是,未來 C2 系統和組織的設計只是挑戰的一部分--它們還必須得到更廣泛的國防企業緊急改革的支持,以確保獲得所需的使能因素(人員、技術等)。從 C2 的角度來看,這本身就是一個挑戰,因為改變這個企業--一個復雜的適應性系統--本身就是一個棘手的問題。
學術理論家和政府、軍事或工業從業人員對復雜性或復雜適應系統的理解并不全面,而這正是未來 C2 運行環境的特點。雖然文獻提供了處理復雜性的有用方法和工具,以及未來 C2 的一些初步設計考慮,但英國 C2(本身就是一個社會技術系統)的現代化和轉型將是一項高度復雜的工作。這意味著要與不斷發展的作戰環境、不斷變化的威脅和技術環境共同適應,從而進行迭代和不斷學習。因此,最緊迫的挑戰或許是,考慮到 C2 系統在未來面對復雜性時取得成功所需的轉型(技術、結構、流程、文化、教育等)的程度和性質,了解如何在一段時間內最好地引導這一過程。
自相矛盾的是,要克服實現以應對復雜性為目標的 C2 系統所面臨的障礙,可能需要英國國防部已經表現出其所尋求建立的系統的許多特征。面對這樣的循環邏輯,英國國防部可能需要某種外部沖擊來迫使其進行創造性的破壞,或者利用(或不顧)更傳統、線性的 C2 方法來啟動自身的激進改革努力,并隨著時間的推移,隨著變化的到來而進行調整。
本研究的主題是研究人工通用智能系統的挑戰--能夠獨立解決人類生活中不同領域問題的系統。本評論性專論研究的目的是探索當前人工狹義智能系統的性質、應用和風險,以及它們演變為具有通用智能的解決方案的可能性。
根據目的,將我們的工作指向以下任務:
1.分析人工智能領域的發展,描述其中的主要研究方法。
2.強調人工狹義智能系統的能力和領域。
3.對狹義智能的解決方案中實施的方法、原理和算法進行系統化。
4.概念化 "通用智能"的特征和具有這種特征的系統的挑戰。
5.將人工狹義智能系統的危害劃分為幾個關鍵點。
6.指導道德人工智能系統發展的監管工具和效果的系統化。
本文的主要研究論點是,盡管自二十世紀初以來,人工智能技術有了不可否認的進化發展,但人工通用智能系統的實現尚未被證明是可能的,應在長期的時間范圍內尋求。
人工狹義智能系統的發展在過去十年中取得了顯著的進步,并對人們、機構和文化產生了真正的影響。執行復雜的語言和圖像處理任務的可能性,即計算機程序在早期進化階段的主要問題,已經有了巨大的改善。目前,深度學習人工智能系統在解決視覺物體識別、機器翻譯、語音識別、語音合成、圖像合成、強化學習、社交媒體內容分析、藝術品識別、醫學圖像分析、移動廣告、金融欺詐檢測、軍事機器人訓練、評價建議等問題上應用最為廣泛。
盡管目前人工智能技術的現狀離在機器中重新創造完全的人類智能能力這一股的基礎愿望還很遠,但一些研究人員和開發人員正在努力將所取得的進展納入到具有生產、商業、運輸、醫療、教育、金融、軍事、實用和文化目的的應用中,面向社會。試圖提供更先進和規模化的服務,許多傳統和新興的人工智能系統制造商繼續投資于此類技術。
人工智能領域的理論和應用成功在該股作為一個獨立的科學分支建立后僅80年就達到了一個拐點。使用人工狹義智能系統的風險和挑戰引起了學術界和社會的嚴重關切。不斷增加的機器自動決策的智能可能性有其黑暗的一面:故意使用深度假象和不受控制的算法來推薦軍事攻擊,會導致誤導、歧視,甚至對人造成身體傷害。訓練有素的人工智能系統的偏見傾向,有助于加劇現有的社會不平等現象。
人工智能的研究已經超越了傳統的計算機和認知科學,也涵蓋了關于這些技術的社會影響問題。盡量減少人工智能系統對社會的負面影響需要創造可持續的技術解決方案。最終應用和具有普遍智能的機器的積極社會影響可以通過其創造者的道德承諾和地方、國家和國際層面的監管政策來實現。
在追求開發和使用人工通用智能系統的過程中,最重要的角色是政府,他們需要應對該股快速發展帶來的挑戰。國家監管部門對人工狹義智能系統的科學、經濟和管理重要性的認可,需要對時間和資源進行可持續的研究和開發投資,并建立一個知情和受教育的社會。
探索人工智能領域當前和未來發展的學術界和研究界在與公眾分享人工智能系統的正反兩方面趨勢和發現方面也發揮著關鍵作用。研究和評估機器學習算法對社會的影響,以實現更高的自主性,應以創造安全和與人類合作的解決方案為前提。人工智能系統必須被整合到社會福利系統中,以便在決策中明確區分人類和機器的特權。
這條線的最終成功將由人工智能系統如何幫助開展我們的日常活動來衡量,而不是它們如何有效地貶低了它們應該服務的人。目前,它們的發展仍受人類因素的制約,但沒有人知道出現什么樣的技術創新會使決策的結果有利于 "創造物 "而不是它們的 "創造者"。