亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

在設備上的大型語言模型(LLMs)指的是在邊緣設備上運行LLMs,由于其卓越的隱私保護、降低的延遲和節省帶寬而引起了極大的興趣。然而,與強大的云中心相比,邊緣設備的有限容量本質上限制了在設備上運行LLMs的能力。為彌補基于云和設備上的AI之間的差距,移動邊緣智能(MEI)通過在移動網絡邊緣提供AI能力,相對于云計算,改善了隱私和延遲,從而提供了一種可行的解決方案。MEI位于設備上AI和基于云的AI之間,具有無線通信和比終端設備更強大的計算資源。本文提供了一個關于利用MEI進行LLMs的當代調查。我們首先介紹LLMs的基礎知識,從LLMs和MEI開始,接著是資源高效的LLM技術。然后,我們通過幾個關鍵應用程序來展示在網絡邊緣部署LLMs的必要性,并提供MEI用于LLMs(MEI4LLM)的架構概述。隨后,我們深入探討了MEI4LLM的各個方面,廣泛覆蓋了邊緣LLM緩存和交付、邊緣LLM訓練和邊緣LLM推理。最后,我們確定了未來的研究機會。我們旨在激勵該領域的研究人員利用移動邊緣計算來促進LLMs在用戶近端的部署,從而釋放LLMs在各種隱私和延遲敏感應用中的潛力。

關鍵詞:大型語言模型,基礎模型,移動邊緣計算,邊緣智能,6G,分裂學習。

A. 背景

大型語言模型(LLMs)的最近出現標志著人工智能(AI)技術在實現通用智能方面的一個里程碑。LLMs在各個領域表現出色,不僅能生成文本響應,還能執行多模態內容分析、摘要和泛化等任務。例如,GPT-4多模態模型接受圖像和文本輸入,并在各種專業和學術基準上展示出人類水平的表現。除了這些有時被稱為基礎模型的通用模型外,LLMs還可以微調以適應特定行業和應用場景。例如,Google設計的醫療LLM Med-PaLM M [1],基于涵蓋文本、圖像、基因組學等豐富數據模態提供高質量的答案。Google DeepMind還開發了機器人轉換器2(RT-2)[2],這是一種用于控制機器人的視覺-語言-動作AI模型。廣泛的用例展示了LLMs對日常生活的深遠影響。

由于計算、存儲和內存成本相關,現有的LLMs大多局限于云數據中心提供服務。遺憾的是,基于云的LLM服務帶來了固有的缺陷,包括數據隱私泄露、高帶寬成本和長服務延遲。用戶必須上傳他們的數據以利用云中心的資源來訪問LLM服務,這通常會導致顯著的通信延遲。此外,上傳私人數據對用戶隱私構成嚴重風險,尤其是在隱私敏感的應用(如智能健康)中。鑒于這些問題,設備上LLM部署引起了越來越多的興趣,促使主要行業參與者之間的競爭加劇。例如,Google在Pixel 8 Pro智能手機上推出了分別具有18億和32.5億參數的Gemini Nano [3]。高通計劃在Snapdragon旗艦智能手機和個人電腦上推出Llama 2支持[4]。設備上LLM部署使得敏感個人數據(如端到端加密消息和健康數據)得以本地處理。這也為機器人規劃和自動駕駛等延遲敏感應用提供了低響應時間。這些顯著優勢推動了LLMs從云中心向移動設備的持續轉移。

B. 動機:從云LLMs到設備上LLMs再到MEI LLMS

盡管設備上LLM正在成為一個快速增長的領域,但設備上LLMs的廣泛部署面臨嚴峻限制。具體而言,邊緣設備上的計算、內存和存儲資源的稀缺大大限制了設備上LLM的規模。一方面,現有的工業努力集中于子10B(100億參數)LLMs,因為設備上部署需要大量資源。例如,依賴于4位模型并具有18億和32.5億參數的Google Gemini Nano,只能支持相對“基礎”的功能,如文本摘要、智能回復建議和語法檢查[3]。然而,隨著所需功能變得更加復雜,在設備上部署更大規模的LLMs變得必要,這會顯著增加設備上LLM推理的開銷。另一方面,設備上微調為個性化和上下文感知AI鋪平了道路,作為優越AI性能的基本構建塊。然而,由于訓練成本通常比AI推理更為密集,現有的設備上LLM產品不包含設備上訓練(微調)功能。 為解決上述困境,移動邊緣計算提供了一種有前景的解決方案。6G移動網絡旨在通過利用網絡賦能的計算能力(例如基站),為各種移動設備提供低延遲AI推理和訓練服務,這形成了一種被稱為“移動邊緣智能(MEI)”的范式。MEI位于設備上AI和基于云的AI之間,具有無線通信和適度規模的計算資源。換句話說,它比邊緣設備更強大,但不如云中心強大。由于邊緣設備和邊緣服務器之間的距離較短,可以支持大規模LLMs且服務延遲較低。同時,6G邊緣可以通過利用邊緣服務器上更強大的內存、能量和計算能力,在不斷演變的環境中持續微調LLMs。因此,6G移動邊緣預計將在推動LLMs到邊緣設備方面起到至關重要的作用。

C. 與先前調查的比較及我們的貢獻

LLMs的部署比傳統深度神經網絡(DNNs)如卷積神經網絡(CNNs)資源需求更高,這是將LLMs引入網絡邊緣的主要障礙。本調查論文旨在提供關于這一匯聚趨勢(即MEI和LLMs)的當代調查,主要從資源高效部署的角度,包括網絡邊緣的存儲效率、計算效率和通信效率。本論文不同于關于高效LLM訓練/微調和推理的先前調查論文,如[5],[7],[9],[11]-[15]。這些論文大多關注于提高計算效率,而忽略了通信對LLM訓練、推理和緩存交付的影響,這是移動邊緣網絡中的一個顯著瓶頸。本論文還不同于現有的關于LLM邊緣部署的調查/文章,如[6],[8],[10],[16]。這些論文探討了云邊協同的LLM賦能的AI服務提供,但沒有討論資源高效部署,如參數高效微調、分裂推理/學習和高效LLM緩存和交付及其與無線邊緣網絡的相互作用。最后,本調查論文與關于“用于網絡的LLMs”[17],[18]的論文有根本不同,這些論文的設計目標是利用LLMs優化邊緣網絡,而不是利用邊緣計算支持LLMs。與一些相關調查/論文的比較見表I。本論文的主要貢獻總結如下:

  • 我們展示了驅動LLMs在網絡邊緣部署的應用場景。雖然LLMs的用例在其他地方已被廣泛討論,但我們將強調基于服務要求在移動邊緣提供這些應用的必要性或好處。

  • 我們提供了第一份關于6G邊緣網絡如何促進LLM緩存和交付、訓練和推理的綜合調查,包括邊緣LLM緩存和交付、邊緣LLM訓練和邊緣LLM推理。我們將特別關注LLMs的資源高效部署,以提高LLMs在網絡邊緣的存儲、通信和計算效率。

  • 我們確定了LLMs與移動邊緣智能集成的幾個關鍵研究方向,包括綠色邊緣AI和LLMs的安全邊緣AI。

如圖1所示,調查的組織結構如下。第二節概述LLMs和MEI,第三節介紹最新的資源高效LLM技術。第四節展示了四個關鍵應用,證明在網絡邊緣部署LLMs的必要性。在第五節中,我們提出了支持LLMs在網絡邊緣部署的MEI4LLM框架。該框架包括AI原生架構、參數共享LLM緩存和交付、分布式LLM訓練/微調和分布式LLM推理。第六、七、八節分別探討了考慮存儲效率、計算效率和通信效率的高效邊緣LLM緩存和交付、邊緣LLM訓練和邊緣LLM推理技術。最后,我們在第九節概述未來研究機會,并在第十節給出結論。

II. 預備知識I:LLMs和MEI概述

**A. 大型語言模型

  1. Transformer:LLMs主要基于Transformer架構構建。Transformer [19]在自然語言處理(NLP)領域引發了顯著的范式轉變,在廣泛的語言任務中表現出色,包括文本分類[20]、機器翻譯[21]和問答系統[22]。例如,雙向編碼器表示(BERT)[23]在問答任務中取得了最先進的性能,展示了高效捕捉上下文信息的優越性。Transformer的突破不僅限于NLP,還在計算機視覺領域取得了巨大成功。Transformer模型及其變種已廣泛應用于各種圖像處理任務,如圖像識別[24]、目標檢測[25]和圖像分割[26]。例如,視覺Transformer(ViT)[24]將圖像分割為不重疊的塊,并利用Transformer編碼器提取特征,較傳統的卷積神經網絡(CNNs)具有更高的檢測準確性[27]。

Transformers的工作原理如下。與遞歸神經網絡(RNNs)中用于短期上下文和順序處理的遞歸連接不同,Transformers采用自注意力機制來全面捕捉序列元素之間復雜的依賴關系,從而學習長程關系。Transformer架構設計的核心在于編碼器-解碼器架構,由具有多頭自注意力機制的堆疊層組成。這些機制優先處理輸入序列中的不同元素,增強模型有效生成輸出令牌的能力。此外,每一層都包含前饋網絡(FFNs)和層歸一化。編碼器將輸入序列轉換為上下文豐富的表示,而解碼器利用這些表示生成輸出序列,同時考慮輸入和先前生成的令牌。

自注意力是Transformer的核心。Transformers內嵌的自注意力機制克服了RNNs固有的短期上下文限制,全面把握長程依賴關系,增強其捕捉序列中復雜關系的能力。雖然注意力模塊已廣泛用于前饋和遞歸網絡[28],[29],但Transformers完全依賴注意力機制,并采用獨特的實現方式(即多頭注意力(MHA))進行并行化優化,促進了高復雜度模型和大規模數據集的可擴展性。其他替代方法,如硬注意力[30],本質上是隨機的,這需要蒙特卡羅采樣來進行注意力位置采樣。此外,與卷積或遞歸網絡[31]-[33]相比,Transformer對問題結構的先驗知識要求最少。這一特性使其適合通過在大規模未標注數據集上的預訓練任務進行模型預訓練[19],[23],從而編碼出高度表達性和可泛化的表示。這些表示有效捕捉給定數據集中的實體關系,為后續下游任務的監督微調奠定基礎。2) LLMs:Transformer的可擴展性推動了LLMs的興起。各種LLMs基于Transformer架構構建和演變。目前,AI行業的主要參與者致力于打造他們的LLMs并將其應用于各個領域。例如,OpenAI開發了備受推崇的聊天LLM GPT-3 [34],在各種NLP任務中表現出色,如文本生成和機器翻譯。Google推出了醫療LLM Med-PaLM [35],能夠提供專家級的醫療指導和診斷。Facebook提出了創新的圖像分類LLM DEiT [36],結合自監督學習與Transformer架構,在有限標注數據下實現了種族級別的圖像分類性能。這些LLMs在互聯網上的廣泛和多樣的數據集上進行訓練[37]。

LLM架構可分為三類:僅編碼器LLMs、編碼器-解碼器LLMs和僅解碼器LLMs。僅編碼器LLMs,如ALBERT [38],僅由編碼器組件組成,通常基于高級架構如Transformer [19]。編碼器負責處理輸入序列,為每個令牌生成上下文化表示。盡管缺少用于生成輸出序列的解碼器,僅編碼器LLMs在各種NLP任務中仍表現出色,如文本分類、句子相似度計算和語言理解,因其高效的特征提取能力和可適應的表示。編碼器-解碼器LLMs,以T5模型為代表[39],在NLP領域代表了一項重要進展,在其架構中集成了編碼器和解碼器組件。編碼器處理輸入序列以生成上下文化表示,而解碼器利用這些表示生成輸出序列,通常以序列到序列的方式。編碼器-解碼器LLMs廣泛應用于機器翻譯、文本摘要和問答等任務,因其捕捉復雜語言結構和上下文依賴關系的能力。僅解碼器LLMs,以著名的GPT系列[34],[40]為代表,構成LLMs的一個重要分支。僅解碼器LLMs采用自回歸解碼,這在僅解碼器和編碼器-解碼器LLMs中廣泛使用,根據序列中的先前令牌生成輸出序列。這種架構設計使其特別適合于生成文本的任務,如語言生成、文本補全和對話響應生成。3) 多模態LLMs:由于傳統LLMs [41]-[43]主要應用于文本數據,對LLMs的單模態模型訓練限制了它們理解超越文本的其他數據類型的能力。例如,傳統的LLMs如GPT-3和BERT [23]僅依賴于文本輸入。然而,在許多現實場景中,語言理解不僅限于文本上下文,還包括視覺線索、聽覺信號和來自多種傳感器的上下文感知信息。 為解決上述問題,學術界和工業界廣泛研究了多模態LLMs的范式,如圖2所示,將文本、圖像和音頻等各種模態融合到一個統一的框架中,釋放處理多種數據類型的潛力。例如,GPT-4 [40]擅長同時處理圖像和文本輸入,在各種基準測試中展示了與人類相當的表現。在圖像描述任務中,GPT-4利用圖像和相關文本數據生成更精確和生動的描述,而在語音識別任務中,它將語音信號與文本信息結合以改進語音理解和轉換。多模態感知在追求通用AI中起著關鍵作用,因為處理復雜的現實數據需要能夠跨模態信息融合和交互學習的AI模型,從而提升多個感知領域的訓練性能。

多模態LLMs繼承了LLMs強大的學習能力,通過集成各種模態的基礎模型來賦能多樣而復雜的多模態任務。LLMs提供了強大的語言生成、零樣本遷移能力和上下文學習,而其他模態的基礎模型提供了其他數據類型的信息表示[45],[46]。由于各種模態的基礎模型分別進行預訓練,構建多模態LLMs的主要挑戰在于如何連接這些模型以實現高性能的協同訓練/推理。該領域的主要研究集中在通過多模態預訓練[47],[48]和多模態指令微調[49],[50]精煉模態對齊。多模態預訓練通過訓練模型以多模態數據集,如XText [51],學習跨模態的通用表示。在訓練過程中,模型通過優化預定義目標來關聯不同模態的信息,從而實現模態間的對齊。這種對齊增強了模型對跨模態任務的理解能力,帶來更好的性能。多模態指令微調是一種基于預訓練模型的微調方法,旨在提高模型在特定任務上的表現。它將模型與一個或多個與模態相關的任務結合,然后使用模態標注數據微調模型以提高其與模態特定任務的對齊。這使得模型能夠通過遵循新的指令來賦能未見過的任務,從而提高模型的零樣本性能和泛化能力。4) 生成性/交互性AI:LLMs的快速發展對各種應用,尤其是生成性AI(GAI)和交互性AI(IAI)產生了深遠影響。GAI專注于創建包括圖像、文本、音樂和視頻在內的廣泛內容[52],統稱為AI生成內容(AIGC)。通過利用在高質量數據集上訓練的多模態LLMs,GAI能夠根據輸入文本有效地創建優質AIGC[53]。另一方面,IAI可以視為GAI的下一個階段。IAI在聊天機器人和虛擬助手等應用中響應用戶查詢,同時通過用戶交互使AI代理能夠適應,從而不斷提高準確性[54],[55]。通過利用強大的LLMs和GAI的內容生成優勢,IAI使AI代理能夠模擬人類交互,并與用戶生成有意義和動態的對話[56],[57]。在這方面,LLMs也被視為IAI的基石,因為它們促進了復雜的交互對話。 為使AI代理能夠生成更準確和最新的響應,可以將檢索增強生成(RAG)集成到LLMs中以賦能IAI和GAI[58]。具體而言,LLMs在生成響應時使用輸入序列從外部知識源檢索相關數據,從而提高內容生成性能[59],[60]。例如,Google將RAG與Gemini結合,以增強LLMs在特定任務上生成更準確和上下文相關響應的能力[61]。將RAG集成到LLMs中的主要優勢有兩個。首先,通過連接到富含最新信息的知識源,RAG將LLMs建立在最真實、最準確和最新的內容上,減少了生成輸出中“幻覺”的可能性,并消除了頻繁適應LLMs的需要。其次,RAG使用戶能夠驗證模型響應的來源,提高了可信度[62]。5) LLMs的工業進展:LLMs在工業中取得了顯著進展,得益于深度學習算法的成熟[63]-[65]、計算能力的增加和大規模數據集的可用性。主要技術公司,包括OpenAI、Google、Microsoft和Meta,已在LLMs研究和開發方面進行了大量投資,導致了GPT系列[34],[40]和BERT [23]等著名模型的創建。這些模型在語言翻譯、文本生成、問答和情感分析等一系列NLP任務中表現出色。此外,多模態LLMs已超越其最初的NLP領域,在醫療保健、自動駕駛和智慧城市等多個行業中表現出色。例如,在醫療保健領域,Med-PaLM [35]被設計用于醫學圖像分析、臨床文檔處理和患者診斷,幫助醫療專業人員進行準確的診斷和治療決策。在自動駕駛領域,DriveMLM [66]彌合了語言決策和車輛控制命令之間的差距,使得在現實模擬器中實現閉環自動駕駛。可以看出,LLMs的普及為多個行業提供了巨大的價值。

最近在設備上LLMs的進展引起了業界的關注。例如,Meta提出了一種名為MobileLLM的設備上LLM,利用深而薄的架構、嵌入共享和分組查詢注意力機制[67]。Google引入了一種新的指令微調方法,用于構建以移動為中心的文本重寫LLM[68]。然而,與大型模型的強大LLMs相比,設備上LLMs往往表現不佳。例如,Google的Gemini Nano-1設計用于設備上部署,僅包含1.8億參數,采用4位格式,從較大的Gemini模型中提取[69]。由于其緊湊的尺寸,當這種小型LLM的能力不足以滿足邊緣設備的需求時,這些設備可能仍需要上傳數據以訪問大規模LLMs,即在邊緣服務器上。

**B. 移動邊緣智能

移動邊緣智能(MEI)作為一個將AI與移動邊緣計算相結合的有前景的范式,正在改變移動服務和應用的格局[70]-[73]。MEI的發展源于各種技術進步的融合,包括物聯網(IoT)設備的普及、移動網絡的部署和AI算法的成熟[70],[74]-[76]。這些發展使MEI能夠克服傳統云中心架構的限制,通過在網絡邊緣提供本地化的AI訓練/推理和數據處理能力。 通過集成AI和通信,MEI框架使移動網絡能夠提供超越通信的服務,為萬物智能奠定了堅實基礎。沿著這條線,“集成AI和通信”的使用案例已包含在6G的IMT框架建議中[77]。在標準化方面,電信標準化組織3GPP和ITU分別在其白皮書中描述了邊緣智能的前景。ITU-3172 [78]闡明了基于ML應用程序的延遲敏感性要求,將機器學習(ML)功能托管在網絡邊緣的必要性。在3GPP第18版5G標準化中,MEI旨在支持分布式學習算法、分裂AI/ML和高效的AI模型分發[79]。詳細信息如下。首先,邊緣學習(如聯邦學習)將在邊緣網絡中得到全面支持,這使得邊緣服務器能夠聚合來自多個分布式邊緣設備的模型更新和知識,從而提高AI/ML模型的性能。其次,通過5G邊緣網絡進行分裂AI/ML可以促進在設備上部署計算密集型、能源密集型、隱私敏感和延遲敏感的AI應用程序。例如,在邊緣分裂推理中,一個AI模型被劃分為子模型,計算密集型和能源密集型的子模型被卸載到5G邊緣服務器(例如基站)。邊緣服務器可以使用邊緣側子模型和來自邊緣設備的上傳中間數據執行推理。最后,高效的AI模型下載確保了當邊緣設備需要適應新的AI任務和環境時,AI模型可以低延遲地傳送到邊緣設備。例如,當駕駛環境發生變化時,自動駕駛車輛需要在1秒內從5G邊緣服務器下載新的AI模型。為了將基于網絡的AI算法集成到5G網絡中,MEI框架需要滿足邊緣服務器和邊緣設備之間高速和穩定數據鏈路的需求。這些鏈路可以為持續上傳中間數據/模型更新到邊緣服務器提供高且恒定的上行數據速率,并在邊緣設備需要及時下載AI模型時提供高下行數據速率。此外,MEI的核心在于利用數據源與邊緣計算設備(如智能手機、筆記本電腦和可穿戴設備)之間的接近性,在數據源附近實現智能決策。與傳統的集中式架構相比,這種分布式計算范式具有許多優勢,包括減少延遲、改善帶寬利用、保護數據隱私和增強對網絡故障的抵抗力。 在應用方面,MEI在智能醫療、自動駕駛和智慧城市等各個領域具有重要意義[80]。例如,在醫療保健領域,MEI支持實時監測患者健康數據,并在緊急情況下提供及時干預。同樣,在智慧城市中,MEI有助于智能交通管理、環境監測和能源優化,從而促進可持續發展并提高生活質量。邊緣智能還在工業中取得了顯著進展,特別是隨著邊緣計算技術的普及和5G網絡的出現。微軟、谷歌、亞馬遜和NVIDIA等領先企業開發了邊緣AI平臺,以支持實時AI服務。對于邊緣AI賦能的物聯網應用,微軟的“Azure IoT Edge”、谷歌的“Cloud IoT”、亞馬遜的“Web Services IoT”和NVIDIA的“EGX”提供了邊緣AI平臺,以在廣泛的應用中提供實時AI服務,從實時視頻分析[81]、智能家居[82]到工業物聯網[83]。

**C. MEI4LLM的經驗教訓

顯然,MEI4LLM只是MEI的一個特殊案例。然而,在邊緣訓練和部署大量LLMs的需求可以成為MEI發展的關鍵動力。一方面,下一代MEI的原則,包括推動AI和通信的全面集成,與邊緣LLMs的需求高度一致。另一方面,LLMs的極端資源需求推動了MEI的邊界。具體而言,MEI4LLM必須具備以下特征:1)原生支持模型分割和跨互聯邊緣節點的并行訓練/推理,以促進超大規模模型的部署;2)集成設計的無線網絡和資源高效的LLM訓練/推理技術,如參數高效微調和令牌(表示)縮減(將在第七節和第八節中介紹),以使LLMs的部署成本效益高。本質上,與傳統MEI相比,MEI4LLM主要關注資源管理和高效AI技術的集成設計,以在有限的通信-計算資源下支持LLMs,這將是本調查論文的重點,也是該領域的研究主題。

II. 預備知識II:資源高效LLM技術

毋庸置疑,由于LLMs的巨大規模和計算復雜性,在邊緣設備/服務器上部署LLMs進行訓練/推理面臨若干關鍵挑戰: * 過高的計算開銷:據報道,GPT-4每次前向傳遞生成一個令牌大約需要560萬億浮點運算[84]。然而,先進的A100 GPU每秒提供的計算能力僅為19.5萬億浮點運算[85]。這表明,使用單個A100 GPU進行一次前向傳遞生成一個令牌大約需要28秒。此外,反向傳播通常比前向傳遞需要更多的計算資源[86],這意味著在設備上進行訓練將更加具有挑戰性。 * 巨大的存儲/內存需求:一方面,在邊緣設備上緩存LLMs會消耗大量的存儲資源。專門設計用于設備上部署的LLMs甚至擁有數十億個參數,例如,Google的設備上Gemini Nano-2擁有32.5億個參數。另一方面,在訓練過程中使用常用的Adam優化器通常需要12倍于推理所需的內存資源[87],這對于內存有限的移動設備來說是不可接受的。這些因素表明,在邊緣設備上部署LLMs進行訓練和推理對邊緣設備的存儲和內存資源提出了嚴格要求。 * 高能耗:邊緣設備中有限的電池容量阻礙了LLMs在邊緣設備上的部署。例如,使用llama.cpp(最輕量級的設備上LLM引擎之一)在小米11智能手機上運行一個量化為INT4且具有130億參數的LLM,會導致約56焦耳/令牌的能耗[88]。這意味著如果在智能手機上部署LLM,電池容量為3000mAh且輸出電壓為3.7V的智能手機只能生成大約700個令牌。如果在邊緣設備上進行LLM訓練/微調,處理的數據量將更少。

為減輕上述挑戰,本節將回顧資源高效LLM部署的相關技術,這些技術總結如圖3所示。相關工作的比較見表II。值得注意的是,本節討論的方法可以降低在邊緣設備、邊緣服務器或設備-服務器協作中部署LLMs的復雜性。因此,這些關鍵技術構成了MEI4LLM及其后續各節的基礎。

V. MEI4LLM概述

將LLMs推向網絡邊緣是一種持續發展的趨勢,結合第四節中的關鍵應用和第三節中介紹的資源高效技術,通過在網絡邊緣部署LLMs,邊緣設備可以與邊緣服務器協作進行學習和推理,從而大大緩解邊緣設備資源的稀缺性。根據6G時代的“NET4AI”(網絡為AI服務)愿景[159],本節概述了支持LLMs部署的MEI框架,稱為MEI4LLM,如圖6所示。MEI4LLM包括以下基本組件。

**A. AI原生架構

下一代邊緣網絡將以端到端(E2E)的方式支持AI服務。6G的目標應該是在最小化通信、計算、存儲和能量需求的情況下,支持包括LLMs在內的AI,以實現卓越的性能。為此,6G常被設想為“任務導向”的架構。設計目標可以是通過在多種資源約束下實現最佳的分布式計算、特征提取和資源分配方案來最小化LLMs輸出令牌的交叉熵,而不是最大化吞吐量或最小化延遲。 要實現這一目標,網絡虛擬化對于提高資源利用率、靈活性和可管理性至關重要。遵循軟件定義網絡的設計原則,MEI4LLM特設一個中央控制器,協調網絡范圍內的計算資源和數據傳輸,實現控制和數據平面的解耦。通過收集全球網絡知識,如LLMs的準確性、各種量化級別、用戶對LLM服務的需求、信道條件、用戶電池狀態和計算資源可用性,控制器在分布式邊緣計算系統中劃分和協調模型訓練/推理和交付,跨越邊緣路由器和服務器交換中間粉碎數據(即中間激活和反向傳播梯度)、模型參數或用戶數據。 進一步,邊緣網絡將演變成“神經邊緣”[159],在此處,神經網絡層在邊緣節點之間分布進行協同計算。類似于云數據中心中的許多GPU支持大規模LLMs,MEI4LLM必須具有靈活和模型分割的特點,以便在分布式邊緣設備和服務器之間進行訓練和推理。空中接口和網絡設計應本地支持聯邦學習、分裂學習和分裂推理等AI模型,包括LLMs。由于模型訓練和推理對數據包錯誤具有魯棒性,任務導向的無線傳輸,例如在切割層的粉碎數據,可以通過適當的錯誤控制進行,以實現最佳的效率-可靠性權衡。大規模模型的最佳模型分割、放置和數據路由應在邊緣網絡上協同支持。 最后,可以實施信息中心網絡,以確保在邊緣網絡上無縫傳輸模型、特征和數據,從而實現LLMs的高效交付。在這方面,MEI4LLM應支持LLM參數塊命名和基于名稱的傳輸協議。通過為每個LLM參數塊分配名稱,MEI4LLM架構中的中央控制器可以將參數請求轉發到其緩存的位置,從而減少跨網絡和到最終用戶的大規模模型交付的延遲和帶寬消耗。

**B. 參數共享的LLM緩存和交付

考慮到邊緣設備的有限存儲容量和頻繁的模型微調,LLMs應在邊緣網絡內從其位置快速交付到需要的地方。此外,考慮到RAG,外部知識源也應緩存于網絡邊緣,以確保在需要LLM應用時及時獲取數據/知識。模型/數據交付可以通過有線回程或無線接入網絡進行。LLMs的緩存和交付必須利用參數塊可以在各種下游LLMs之間共享[112],[160],甚至在同一LLM內重用[38]的事實。這一獨特特性使得通過減少重復LLM參數塊的緩存和交付成本,實現高效的邊緣LLM緩存和低延遲LLM交付,正如我們將在第六節中展示的那樣。為了實現快速模型交付,MEI4LLM可以構建一個查找表,為LLM參數塊分配名稱以便于內容搜索和管理,遵循信息中心網絡的原則。通過這樣做,MEI4LLM范式將LLMs放置在適當的位置,從附近的邊緣服務器檢索所需的LLMs,并實現LLM參數塊到移動用戶的路由/多播。

**C. 分布式LLM訓練(微調)

可以預見,6G MEI系統可以高效地微調LLMs以適應本地環境。邊緣LLM微調可以在推理精度下降或當地環境變化后一段時間觸發。例如,LLM賦能的虛擬助手應定期進行微調,以更好地適應新聞媒體中的新趨勢、當地頂級餐館和熱門景點,從而改善決策和與用戶的互動。LLM賦能的移動健康應用應個性化,以提供更好的預測和健康或健身建議。 在下一代移動網絡中,邊緣LLM訓練必須回答兩個問題:1)如何保護用戶隱私和數據所有權,2)如何通過邊緣節點的協作支持大規模模型訓練。為了增強用戶數據隱私,聯邦學習(FL)和分裂學習(SL)是兩種在網絡邊緣實現的有前途的分布式學習框架。具體而言,FL允許邊緣設備在本地訓練模型,僅與邊緣服務器共享模型參數以進行聚合,從而在不共享個人數據的情況下利用集體智慧。或者,可以實施SL及其變體分裂聯邦學習(SFL),以啟用設備-服務器協同訓練而不共享本地原始數據,這特別適用于邊緣設備的大規模LLM微調[161],因為模型分割允許在不同的邊緣節點之間進行工作負載平衡。為了有效支持密集的訓練,可以將第III節中詳述的各種資源高效訓練技術與FL或SL結合。這些討論將在第七節中提供。

**D. 分布式LLM推理

為了適應資源密集型的LLMs,邊緣服務器和邊緣設備必須根據通信-計算工作負載和隱私需求協調一致地進行分布式推理。邊緣推理有不同的方式。服務器上的推理需要用戶上傳原始數據到服務器。這種方法消除了邊緣設備上的計算負擔,但可能會侵犯用戶的隱私需求。例如,多模態LLMs可能會在家庭環境中收集敏感的音頻和視頻數據,用戶通常不愿分享。相反,設備上的推理保護隱私并消除了通信成本,但對邊緣設備施加了密集的計算工作負荷。分裂推理是一種關鍵的AI推理框架,在3GPP 5G技術規范中[79]被廣泛應用,邊緣設備和服務器持有部分AI模型。分裂推理涉及從邊緣設備上傳特征到邊緣服務器進行共同推理。 為了促進LLM推理,MEI4LLM可以根據通信-計算資源狀態和隱私需求,通過適當選擇這些方案來定制消費者服務,如第八節詳細說明的那樣。

付費5元查看完整內容

相關內容

大語言模型(LLMs)展現了極其強大的能力。實現成功的一個關鍵因素是將LLM的輸出與人類偏好對齊。這一對齊過程通常只需要少量數據就可以有效提升LLM的性能。盡管效果顯著,但該領域的研究涉及多個領域,所采用的方法相對復雜且難以理解。不同方法之間的關系研究較少,這限制了偏好對齊的進一步發展。有鑒于此,我們將現有的流行對齊策略分解為不同的組成部分,并提供了一個統一的框架來研究當前的對齊策略,從而建立它們之間的聯系在本綜述中,我們將偏好學習中的所有策略分解為四個組成部分:模型、數據、反饋和算法。這個統一視角不僅能夠深入理解現有的對齊算法,還為不同策略的優勢協同提供了可能性。此外,我們還提供了詳細的現有算法工作示例,以幫助讀者全面理解。最后,基于我們的統一視角,我們探討了將大語言模型與人類偏好對齊所面臨的挑戰和未來的研究方向。

以ChatGPT為代表的大語言模型(LLMs)的崛起展示了令人印象深刻的語言能力和專業素養,能夠提供正確、禮貌且知識淵博的回答,這令人驚訝且值得欽佩。這種表現很大程度上要歸功于偏好對齊過程,這是LLM在公開部署前必須經歷的一個必要步驟,旨在防止其可能生成冒犯性、有害或誤導性的內容。盡管大語言模型(LLMs)在各個領域展現了卓越的能力 [19, 93, 115, 139],但它們在倫理 [54]、安全 [63, 106, 128] 和推理 [73, 123, 142] 方面仍面臨挑戰。為了應對這些問題,出現了許多與對齊相關的舉措 [28, 88, 94, 98],這也激發了本次綜述的興趣。雖然許多研究 [109, 124] 廣泛討論了對齊的概念,但偏好學習的各種算法之間的關系仍然支離破碎,缺乏統一的框架來將它們結合起來。為了彌補這一差距,我們旨在提供一個系統的偏好對齊框架,如圖1所示。通過將相關工作整合到這一框架中,我們希望為研究人員提供全面的理解,并為在特定領域的進一步探索奠定基礎。傳統的分類視角 [53, 109, 124] 通常將現有方法分為基于強化學習(RL)的方法,如RLHF [94],它需要獎勵模型用于在線RL;以及基于監督微調(SFT)的方法,如直接偏好優化(DPO)[98],它在離線環境中直接進行偏好優化。然而,這種分類無意中在兩類工作之間形成了一道障礙,不利于研究人員對偏好對齊核心內容的進一步理解。因此,我們致力于為這兩類方法建立統一的視角,并引入創新的分類框架。

這個新框架基于兩個關鍵見解:首先,在線策略(on-policy)與離線策略(off-policy)設置之間的區別,實質上取決于不同的數據來源,這可以與PPO或DPO等算法解耦。在線策略要求策略模型實時生成其數據,具體來說,被優化的LLM必須實時生成下一次訓練的迭代數據。而離線策略允許多種數據源,只要這些數據是提前收集的,而不需要策略模型同時生成。許多當前的工作采用特定算法在在線和離線設置之間的轉換 [39, 105]。因此,我們不使用在線或離線作為算法分類的標準。其次,受現有工作 [105] 的啟發,強化學習和監督微調方法的優化目標本質上非常相似。不同之處在于,基于強化學習的方法通常需要一個獎勵模型來計算進一步訓練的獎勵,而監督微調算法可以直接通過各種形式的偏好進行優化,如更好的對齊輸出、偏好關系中的成對或列表對比。有了統一的視角,我們可以將反饋定義為一系列能夠生成與人類判斷一致的偏好的工具,例如獎勵模型、人類標注者、更強大的模型(如GPT-4)以及各種規則。基于這些考慮,我們將偏好學習過程劃分為數據、反饋、偏好優化和評估。我們的分類框架如圖2所示。總之,我們的論文調查并整理了與LLM偏好學習相關的現有工作,提供了一個統一且新穎的視角。此外,基于這篇綜述的內容,我們總結了該領域的幾個未來研究方向,旨在為進一步的研究提供見解。

在本節中,我們首先為LLM的偏好學習提供定義:給定一般人類偏好分布P(??, ??),其中??是一個提示,??是LLM的相應輸出,LLM的偏好學習????是一種生成新的LLM ????′的范式,使其對齊于P(??, ??),即P(??, ????′(??)) > P(??, ????(??))。為了使LLMs學習人類偏好,這一過程通常涉及提供一個輸入??和相應的響應??的數據樣本,以及一個帶有人類偏好P(??, ??)的環境來對其進行反饋。與人類偏好一致的樣本會被賦予更高的獎勵,可能表現為正面標簽、在偏好排序中的較高位置,或較高的獎勵分數。在獲得數據后,策略模型????′通過特定算法進行優化。此外,根據這一定義,有必要解釋LLMs偏好學習與一些相關概念之間的關系。(1) 對齊:根據Kenton等人的研究 [58],對齊是指關注解決所謂的行為對齊問題的研究:我們如何創建一個能夠按照人類意愿行事的代理?基于這一定義,我們將LLMs的偏好學習視為旨在實現對齊的一類方法。本論文的范圍僅限于文本偏好對齊,不涉及其他廣為人知的對齊話題,如幻覺、多模態對齊和指令微調。(2) 從人類反饋中進行強化學習(RLHF):與RLHF不同,本論文的范圍不僅包括基于強化學習的方法,還涵蓋了傳統的基于監督微調(SFT)的方法。此外,我們采用了一個統一的視角來研究基于強化學習和監督學習的方法。

結論

在本綜述中,我們將偏好學習的策略分解為幾個模塊:模型、數據、反饋和算法。通過根據它們的變體區分不同的策略,我們構建了一個統一的偏好學習策略視角,并在它們之間建立了聯系。我們認為,盡管這些對齊算法的核心目標本質上是相似的,但它們的表現可能在不同的應用場景中有顯著差異。我們將探索哪種變體在特定背景下表現更好作為未來的研究工作。最后,我們希望本綜述能夠為研究人員提供對偏好學習的進一步理解,并激發該領域的更多研究。

付費5元查看完整內容

強化學習(RL)是一種強大的序列決策工具,在許多具有挑戰性的現實任務中取得了超越人類能力的表現。作為RL在多智能體系統領域的擴展,多智能體強化學習(MARL)不僅需要學習控制策略,還需要考慮與環境中其他所有智能體的交互、不同系統組件之間的相互影響以及計算資源的分配。這增加了算法設計的復雜性,并對計算資源提出了更高的要求。同時,模擬器對于獲取現實數據至關重要,這是RL的基礎。在本文中,我們首先提出了一系列模擬器的指標,并總結了現有基準測試的特征。其次,為了便于理解,我們回顧了基礎知識,并綜合了最近與MARL相關的自動駕駛和智能交通系統的研究進展。具體而言,我們考察了它們的環境建模、狀態表示、感知單元和算法設計。最后,我們討論了當前面臨的挑戰以及未來的前景和機會。我們希望本文能夠幫助研究人員整合MARL技術,并激發更多關于智能和自動駕駛的深刻見解。 關鍵詞——多智能體強化學習、自動駕駛、人工智能

大規模自動駕駛系統近年來吸引了大量關注,并獲得了來自工業界、學術界和政府的數百萬資金支持【1】【2】。開發此類系統的動機在于用自動化控制器取代人類駕駛員,這可以顯著減少駕駛時間和工作負擔,提升交通系統的效率與安全性,促進經濟發展。一般來說,為了檢測車輛狀態并生成可靠的控制策略,自動駕駛車輛(AVs)需要配備大量電子單元,如視覺傳感器,包括雷達、激光雷達(LiDAR)、RGB-深度(RGB-D)攝像頭、事件攝像頭、慣性測量單元(IMU)、全球定位系統(GPS)等【3】–【5】。該領域的一個突出挑戰是構建一個能夠處理海量信息并將其轉化為實時操作的穩健且高效的算法。早期的工作將這一大問題分為感知、規劃和控制問題,并獨立解決,這被稱為模塊化自動駕駛。 另一方面,作為一種強大的序列決策工具,強化學習(RL)可以通過獎勵信號優化智能體行為模型。隨著其發展,深度RL結合了RL和深度神經網絡的優勢,能夠抽象復雜的觀測并學習高效的特征表示【6】。在過去的代表性研究中,它在棋類游戲【7】【8】、電子游戲【9】【10】以及機器人控制【11】–【13】等領域表現出色,甚至在某些情況下超越了人類表現。對于自動駕駛而言,RL使端到端控制成為現實,即從車輛感知到車輛應該做什么的直接轉換,就像人類駕駛員一樣。盡管RL在自動駕駛車輛方面取得了許多顯著成就,大多數相關工作仍是從單個車輛的角度出發,這導致了以自我為中心并可能具有攻擊性的駕駛策略,可能會引發安全事故并降低交通系統的效率。

對于現實世界的交通系統,我們通常將其定義為多智能體系統(MAS),并旨在優化整個系統的效率,而不僅僅是最大化個體利益。在MAS中,所有智能體在共享的環境中做出決策并進行交互。這意味著每個智能體的狀態不僅取決于其自身的行為,還取決于其他智能體的行為,使得環境動態呈現非靜態和時間變化性。此外,根據任務設置,智能體可能相互合作或競爭。在如此復雜的場景中,手動編程預先行動幾乎是不可能的【15】。得益于多智能體強化學習(MARL)的重大進展,交通控制【16】【17】、能源分配【18】【19】、大規模機器人控制【20】【21】以及經濟建模與預測【22】【23】領域均取得了實質性突破。圖1展示了這些相關研究主題的出版物數量。使用Dimensions數據庫進行AI搜索【14】,我們搜索了包括多智能體強化學習、自動駕駛和智能交通在內的關鍵詞。統計結果表明,學術界對這些問題高度關注,相關研究領域正處于快速增長階段。為了加速進一步研究并幫助新研究人員快速入門,我們審閱了200多篇出版物、開源軟件和代碼庫,然后系統地總結了現有成就和最新進展。

在此,我們提及其他近期的綜述。在里程碑系列【25】–【27】中,作者簡要總結了從歷史到未來的藍圖,并簡要介紹了自動駕駛中具有影響力的算法。還有許多綜述【28】–【30】介紹了RL的基本理論和應用,并分析了其發表時最先進的(SoTA)自動駕駛算法,但它們主要關注單智能體學習。綜述【31】的作者首次定義了分層結構的自動駕駛系統,并將其研究范圍限定在局部運動規劃。他們說明了車輛的動力學,并展示了采樣和基于搜索的方法如何在數學上工作。然而,他們忽略了基于學習的方法的貢獻。在最近的運動規劃綜述【2】中,研究人員全面調查了管道和學習方法,包括深度學習、逆向RL和模仿學習以及MARL。同樣,詳細的概述涵蓋了軌跡預測中最新的分類法和方法論【32】。還有一些優秀的綜述總結了AVs的MARL方法【1】【33】【34】。盡管如此,近年來研究人員在理論和應用方面取得了顯著進展,并且在高級機器人模擬器中也取得了進展。作為在線RL訓練的關鍵組成部分,模擬器決定了從模擬到現實的差距,即智能體學習的策略是否可以輕松地轉移到物理機器人上。因此,為了使工程師和研究人員能夠捕捉最新的進展并加速技術進步,我們全面總結了該領域的技術、挑戰和前景。

總體而言,本文的主要貢獻可總結如下

  • 我們提出了一系列基準的標準,詳細分析和總結了先進模擬器、數據集和大規模自動駕駛競賽的特征。
  • 我們對最先進的MARL方法進行了分類,全面回顧了它們在該領域的技術改進、見解和未解決的挑戰。
  • 我們從相關領域捕捉了最新進展,并從多個角度深入探討了基于MARL的自動駕駛的未來方向。
  • 我們發布并維護了GitHub倉庫1,以持續報告和更新MARL-based自動駕駛、智能交通系統和其他相關領域的最新研究。

在圖2中,我們可視化了MARL的發展歷程、數據集、模擬器、硬件和軟件在自動駕駛及其他相關領域的發展。總體來說,隨著大規模數據集和深度學習的發展,自動駕駛已從分層控制邁向數據驅動時代。隨著先進模擬器的出現,基于RL的方法登上了舞臺,隨后新技術如大語言模型帶來了更多的機遇。我們將在后文詳細分析,本文的其余部分組織如下:在第二節中,我們首先描述了基準的指標。我們還分析了最先進的自動駕駛模擬器和數據集的特征。在第三節中,我們回顧了RL和MARL的基本概念、定義和開放問題。在第四節中,我們詳盡介紹了自動駕駛領域最先進的MARL算法。具體而言,我們分析了它們的狀態和動作設置、方法論見解和應用。在第五節中,我們指出了現有挑戰并給出了可能的解決方案。在第六節中,我們捕捉了最新的進展,并提出了朝向更安全和智能的自動駕駛的有前途的方向。

II. 自動駕駛基準

強化學習(RL)通常需要大量的數據。一般來說,它需要與環境進行持續交互,以獲得行為軌跡,從而幫助深度神經網絡進行更準確的價值估計【35】【36】。然而,由于不確定的探索過程可能造成的經濟損失,我們通常不會將RL策略直接部署在真實的機器人上。因此,在RL范式中,來自真實駕駛和高保真模擬器的數據被廣泛用于基于RL的自動駕駛開發。在本節中,我們將介紹用于自動駕駛和交通系統中的大規模多智能體強化學習(MARL)的各種數據源。

最先進的方法論

本節將介紹用于多車輛系統運動規劃和控制的最新多智能體強化學習(MARL)方法。我們無法涵蓋所有相關研究,但本綜述中選取的代表性技術均來源于發表在最具影響力的會議和期刊的報告。此外,我們鼓勵研究人員在我們的網站上報告更多相關工作。 A. 集中式多智能體強化學習

在集中式訓練與分散執行(CTDE)方案中,每輛車都有一個獨立的策略網絡,并設有一個核心計算機來合并和處理來自所有車輛的信息。首先,我們從所有車輛獲取合并的觀測,通過預定義的全局獎勵函數評估系統狀態,然后在完成信用分配后訓練獨立的策略。PRIMAL [154] 是路徑規劃集中式訓練的里程碑式工作,它為每個智能體分配了一個獨立且精心設計的參數共享的actor-critic網絡,并使用A3C [155]算法進行訓練。在這項工作中,研究人員說明了獨立策略可能導致自私行為,而帶有安全懲罰的手工設計獎勵函數是一個不錯的解決方案。此外,系統還提供了一個開關,使智能體可以從交互或專家示范中學習。強化學習與模仿學習的結合有助于快速學習,并緩解自私行為對整個系統的負面影響。在本文中,定義了一個離散網格世界,每個智能體的局部狀態設為10×10方塊的信息,并使用指向目標的單位向量來表示方向。為了驗證在現實世界中的可行性,作者還在工廠模型中實現了PRIMAL系統。 在MADDPG [24]中,作者提出了基于深度確定性策略梯度(DDPG)[156]的首個可泛化CTDE算法,并使用玩具多粒子環境作為測試平臺。它提供了一個基本平臺,具有簡單的車輛動力學,用于在設計無關的場景下學習連續觀測和動作空間中的連續駕駛策略,并吸引了許多杰出的后續研究者【21】【157】。同時,價值函數分解方法與CTDE方案的結合在智能體數量上的可擴展性方面表現更好,并減輕了策略訓練中的非靜態性影響,從而在大規模多智能體系統中提高了性能【116】【158】。這些方法已在Highway-Env [84][159]中無信號交叉路口等復雜場景中得到了驗證。此外,專家示范有助于降低收斂到次優策略的風險【159】。為了驗證在無地圖導航任務中部署CTDE方法的可行性,Global Dueling Q-learning (GDQ) [160] 在MPE [24] 中為每個turtlebot3設置了一個獨立的DDQN [161] 來訓練策略并估計價值。此外,他們引入了一個全局價值網絡,將每個智能體的價值網絡輸出組合起來以估計聯合狀態價值。事實證明,該方法比常規的價值分解方法更為有效。同時,研究人員還嘗試將單智能體RL中的基本算法(如PPO [65]或SAC [66])擴展到多智能體任務,并提供了許多重要的基線,如MAAC [162]和MAPPO [163]。特別是,MAPPO在大量基準測試中得到了全面驗證,并提供了系統的超參數選擇和訓練指南。為了克服從模擬到現實的差距并將MAPPO部署到實際機器人上,開發人員在Duckietown-Gym模擬器中訓練了一個用于跟隨地面航點的策略網絡。MAPPO策略網絡采用了循環神經網絡(RNN)[164],用于回憶前一狀態的知識,并為每輛車輸出高層次的目標線速度和角速度。與大多數室內導航任務類似,光學跟蹤系統捕獲車輛的位置和姿態。通過線性化逆動力學,可以在域適應后獲得車輛的低級執行命令。這項工作揭示了如何在實際機器人上部署CTDE方案,其工程經驗對于未來的研究具有重要價值。 B. 獨立策略優化

考慮到實際部署中的通信、帶寬和系統復雜性等挑戰,完全去中心化系統通過允許智能體獨立操作而無需持續協調,減少了通信開銷和帶寬需求。此外,它更容易在通信基礎設施有限或不可靠的環境中部署,降低了決策延遲,并簡化了每個智能體的本地計算。這些因素使得去中心化的MARL成為現實世界多智能體應用中更實用且更具適應性的方法。近年來,獨立策略優化(IPO)[165]獲得了越來越多的關注,并提出了大量相關方法。同時,這些研究中所涉及場景的復雜性和智能體的規模也同步增加,反映出去中心化學習更符合現實世界中大規模自動駕駛的需求。 為了在集中式方案中解決可擴展性問題,MAPPER [166]采用了基于A2C [155]算法的去中心化actor-critic方法。首先,占用地圖的局部觀測表示為包含靜態場景、動態障礙物和A規劃器[167]規劃軌跡信息的三通道圖像。這些三通道觀測通過卷積神經網絡(CNN)抽象為潛在向量,并與通過多層感知機(MLP)抽象的航點信息一起輸入共享的全連接層。隨后,兩個獨立的MLP分別輸出動作概率和價值估計。此外,MAPPER在優化過程中使用了額外的進化算法來消除不良策略。與PRIMAL [154]相比,MAPPER在大規模場景中可以更快地學習并更有效地處理動態障礙物。另一種提高可擴展性的方法是G2RL [168],這是一種適用于任意數量智能體的網格地圖導航方法。同樣,它利用A為每個智能體提供全局引導路徑。同時,本地占用地圖輸入到本地DDQN [161]規劃器中,以捕捉本地觀測并生成糾正指令以避免動態障礙物。由于智能體之間無需通信,該方法無需考慮通信延遲,可擴展至任何規模。 作為PRIMAL的繼任者,PRIMAL2 [169]保留了相同的分層結構,即由A規劃器生成全局路徑,并由A3C和模仿學習指導的智能體訓練。關鍵區別在于PRIMAL2采用了完全去中心化的訓練方法,增強了其處理結構化和高密度復雜場景的靈活性。與MAPPER類似,它采用了11×11的觀測范圍,并將觀測分為多通道圖像輸入。前四個通道包括靜態障礙物、智能體自身的目標點、其他智能體的位置和其他智能體的目標點。第五到第八通道提供了A規劃的本地路徑,以及在觀測范圍內其他智能體在未來三個時間步長的位置。最后三個通道提供了走廊出口的X和Y坐標偏移,以及一個布爾狀態,指示是否有其他智能體阻擋路徑。更細致的觀測輸入使PRIMAL2能夠有效解決高密度復雜占用網格中的智能體死鎖問題,并生成比前代方法更短的路徑。 上述方法是為具有離散動作空間的結構化占用網格開發的,適用于結構化倉庫和貨運終端中的自動地面車輛。盡管與真實交通系統存在差異,這些方法仍然為后續工作提供了靈感。其他去中心化學習研究在更先進的連續基準測試上進行【24】【63】【70】。例如,在PIPO [21]中,研究人員利用圖神經網絡的置換不變性開發了一種端到端的運動規劃方案。他們在MPE中定義了一個逐步擴大的連續場景,場景中有各種靜態障礙物。在訓練過程中,觀察到的其他智能體狀態的隨機置換增強了actor-critic網絡的特征表示。我們注意到還有許多優秀且具有代表性的去中心化訓練方案,但我們將在其他子主題中對它們進行分類,并在后續章節中詳細介紹。 C. 帶有社會偏好的學習

盡管獨立策略學習在許多任務中是可行的,但當多個智能體的利益發生沖突時,純粹的自我中心的獨立策略學習可能會失敗,導致每個智能體都以自我為中心【20】。因此,一個重要的問題是如何平衡智能體的自私與利他行為。在圖4中,我們給出了一個玩具示例,以說明社會偏好如何影響智能體的行為。如果智能體無法平衡其利他和自私行為,這兩個智能體可能會發生碰撞或互相阻礙。因此,在策略學習中應該考慮社會行為和偏好【170】。為了找到社會偏好的數學表示,在早期工作中,研究人員首先提出使用三角函數來表示這種偏好。 D. 安全性和可信學習

安全性是部署自動駕駛系統的核心要素,也是首要任務,因為它直接關系到自動駕駛車輛(AVs)的可靠性和人們的生命安全。近年來,強化學習(RL)研究人員投入了大量精力,確保所學策略在探索過程中以及部署后不會引發安全問題。具體來說,受【172】啟發,我們將現有的多智能體強化學習(MARL)安全標準和方法分為三類。 首先,軟安全保障涉及設計安全懲罰項,以減少危險行為的發生概率。通過精細調整的獎勵,學習算法可以在其他性能指標的同時優先考慮安全性。然而,盡管軟安全保障已被證明可以有效提高多智能體系統中的安全性能,但其局限性在于它依賴于獎勵函數能夠準確捕捉所有安全方面的假設,而這在復雜環境中往往具有挑戰性。 第二類是優化過程中發生的概率性保障。例如,一些最新的MARL算法在策略優化過程中利用拉格朗日約束【21】或安全閾值【173】【174】。本質上,這種方法改善了策略梯度,有助于避免危險的探索行為。然而,由于策略仍然表示為概率分布,因此我們無法為這種方法獲得明確、可解釋和穩定的安全邊界。同時,現實世界駕駛中的關鍵安全約束是瞬時的和確定性的【175】。例如,避碰是一個依賴于系統當前狀態的瞬時約束,而不是依賴于歷史軌跡或隨機變量。 E. 方法總結

如表II所示,我們收集了過去五年中關于戶外自動駕駛、交通系統控制和結構化場景運輸中多智能體強化學習(MARL)的代表性工作。同時,我們列出了它們的分類、最大智能體數量、使用的模擬器以及是否進行了現實世界的實驗。在此需要注意的是,即使使用相同的模擬類型,動作設置也可能完全不同。例如,在PRIMAL和PRIMAL2中,智能體的動作設置為(↑, →, ↓, ←, ?),代表二維網格地圖中在水平和垂直方向上的四種移動以及停留在原地。相比之下,MAPPER為智能體增加了四個額外的對角移動(↗, ↘, ↙, ↖)。 此外,我們發現許多研究采用預定義的高層次動作指令來簡化任務。策略網絡輸出離散值,這些值映射到相應的預設動作,然后低級控制器執行這些動作,生成命令并將其發送到執行器。兩個具體的例子是MFPG【182】和CPO-AD【183】。它們預設了低級單向控制映射,僅考慮自動駕駛車輛在一個方向上的移動。 我們從該領域過去的研究中總結出三大趨勢。首先,早期的研究由于算法多樣性和模擬器性能的限制,更側重于網格地圖中的集中式MARL。然而,近期研究探討了去中心化方法在更復雜的連續觀測中的潛力。其次,只有少數研究進行了現實世界的實驗,并且僅使用離散模擬器和少量智能體,這是未來工作可以改進的方面。第三,最新的研究采用了更復雜的設計,并整合了來自其他領域的更多方法,如數據壓縮和機器視覺。 在本節中,我們將介紹多智能體強化學習(MARL)中的主要挑戰。需要注意的是,集中式訓練與分散執行(CTDE)和分散式訓練與分散執行(DTDE)方案所面臨的問題是不同的。盡管已經提出了一些可行的解決方案來解決這些問題,但這些方案仍然不是唯一的,也不完美。我們希望讀者能夠提前認識到這些問題的存在及其特性,從而更好地理解后續先進方法的動機和技術創新。

付費5元查看完整內容

在過去的一年中,多模態大型語言模型(MLLMs)在視覺問答、視覺理解和推理等任務中表現出色。然而,龐大的模型規模和高昂的訓練與推理成本阻礙了MLLMs在學術界和工業界的廣泛應用。因此,研究高效且輕量級的MLLMs具有巨大的潛力,特別是在邊緣計算場景中。在這篇綜述中,我們對當前高效MLLMs的研究現狀進行了全面而系統的回顧。具體來說,我們總結了代表性高效MLLMs的時間線、高效結構和策略的研究現狀以及應用。最后,我們討論了當前高效MLLM研究的局限性和未來有前景的研究方向。更多詳情請參考我們的GitHub倉庫://github.com/lijiannuist/Efficient-Multimodal-LLMs-Survey。

大規模預訓練作為人工智能(AI)領域的一種領先方法,使得像大型語言模型和多模態模型這樣的通用模型在許多任務中超越了專門的深度學習模型。大型語言模型(LLM)的卓越能力激發了將它們與其他基于模態的模型結合起來以增強多模態能力的努力。這一概念得到了OpenAI的GPT-4V[1]和Google的Gemini[2]等專有模型顯著成功的進一步支持。因此,多模態大型語言模型(MLLMs)應運而生,包括mPLUG-Owl系列[3, 4]、InternVL[5]、EMU[6]、LLaVA[7]、InstructBLIP[8]、MiniGPT-v2[9]和MiniGPT-4[10]。這些模型通過有效利用每種模態的預訓練知識,繞過了從頭開始訓練的計算成本。MLLMs繼承了LLM的認知能力,展示了許多顯著特性,如強大的語言生成和遷移學習能力。此外,通過與其他基于模態的模型建立強大的表示連接和對齊,MLLMs能夠處理來自多種模態的輸入,顯著拓寬了它們的應用范圍。 MLLMs的成功主要歸因于規模定律:隨著數據、計算能力或模型規模等資源的增加,AI模型的性能會提高。然而,可擴展性伴隨著高資源需求,這阻礙了大型模型的發展和部署。例如,MiniGPT-v2的訓練需要基于NVIDIA A100 GPU計算出的總計超過800個GPU小時[9]。這對主要企業外的研究人員來說是一個巨大的費用負擔。除了訓練之外,推理也是MLLMs資源消耗的主要部分。考慮一個典型場景,模型輸入包括一個尺寸為336 × 336像素的圖像和一個長度為40個tokens的文本提示,使用LLaVA-1.5和Vicuna-13B LLM骨干進行推理需要18.2T的FLOPS和41.6G的內存使用量。大規模模型的資源密集型特性也引發了關于民主化和隱私保護的擔憂,因為當前主流的MLLMs,如GPT-4V和Gemini,由少數幾家主導企業控制,并在云端運行。如上述實驗所示,即使是開源的MLLMs,對計算資源的高要求也使得在邊緣設備上運行它們變得具有挑戰性。這進一步加劇了確保公平訪問和保護用戶隱私的挑戰。

鑒于這些挑戰,高效MLLMs的研究受到了越來越多的關注。這些努力的主要目標是減少MLLMs的資源消耗,擴大其適用性,同時盡量減少性能下降。高效MLLMs的研究始于用輕量級替代品替換大型語言模型,并進行典型的視覺指令微調。隨后,研究進一步通過以下方式增強了能力并擴展了用例:(1)引入更輕量的架構,注重效率,旨在減少參數數量或計算復雜度[25, 13, 18];(2)開發了更專業的組件,聚焦于高級架構的效率優化或賦予特定屬性,如局部性[19, 17, 12];(3)支持資源敏感任務,一些工作采用視覺token壓縮來提高效率,使MLLM的能力能夠轉移到資源密集型任務中,如高分辨率圖像和視頻理解[35, 39, 14, 40]。

在本綜述中,我們旨在呈現快速發展的高效MLLMs領域的最新進展,如圖2所示。我們將文獻組織成六個主要類別,涵蓋高效MLLMs的各個方面,包括架構、高效視覺、高效LLMs、訓練、數據和基準測試以及應用。Architecture 關注通過高效技術開發的MLLM框架,以降低計算成本。該架構由多個基于模態的基礎模型組成,具有不同于單模態模型的特征,從而促進了新技術的發展。

Efficient Vision 探討優化高效視覺特征提取策略,強調在保持準確性的同時提高效率的方法。它解決了集成高質量視覺數據以實現有效跨模態理解的問題。

Efficient LLMs 探索提高語言模型計算效率和可擴展性的策略。它研究了模型復雜性與性能之間的權衡,并提出了平衡這些競爭因素的有前景途徑。

Training 調查了對高效MLLMs開發至關重要的訓練方法的現狀。它解決了與預訓練階段、指令微調階段及整體訓練策略相關的挑戰,以實現最先進的結果。

Data and Benchmarks 評估用于多模態語言模型評估的數據集和基準測試的效率。它評估了數據集規模、復雜性和計算成本之間的權衡,同時倡導開發優先考慮效率和與現實世界應用相關性的基準測試。

Application 研究高效MLLMs在各個領域的實際影響,強調性能和計算成本之間的平衡。通過解決諸如高分辨率圖像理解和醫療問答等資源密集型任務,本節強調了高效MLLMs在拓寬其應用范圍和解決現實問題方面的潛力。

總之,這篇綜述深入探討了這些研究工作,探索了多種使MLLMs更具資源效率的策略。我們回顧了高效MLLMs的發展歷史,提供了高效MLLMs策略的分類法,并全面比較了現有高效MLLMs的性能。通過這一探索,我們希望提供對當前最先進技術的全面理解,從而揭示這一新興領域的復雜細微之處。此外,這篇綜述還充當了路線圖,突出了未來研究的潛在途徑,促進了對高效MLLMs領域挑戰和機遇的更深入理解。除了這篇綜述,我們還建立了一個GitHub倉庫,收錄了綜述中提到的論文,并按照相同的分類法進行整理,地址為:

按照標準的MLLM框架,高效MLLMs可以分為三個主要模塊:視覺編碼器g,負責接收和處理視覺輸入;預訓練語言模型,管理接收到的多模態信號并進行推理;視覺-語言投影器P,作為連接兩種模態的橋梁。為了提高通用MLLMs的效率,主要的優化在于處理高分辨率圖像、壓縮視覺令牌、實施高效結構以及使用緊湊的語言模型等策略。圖3展示了架構圖。表1概述了高效MLLMs的總結,包括基礎LLM、視覺編碼器、圖像分辨率和用于連接視覺和語言的投影器。這些高效MLLMs包括:MobileVLM[20]、LLaVA-Phi[21]、Imp-v1[22]、TinyLLaVA[23]、Bunny[24]、Gemini Nano-2[2]、MobileVLMv2[17]、MoE-LLaVA-3.6B[25]、Cobra[13]、Mini-Gemini[26]、Vary-toy[27]、TinyGPT-V[28]、SPHINX-Tiny[14]、ALLaVA[29]、MM1-3B[30]、LLaVA-Gemma[31]、Mipha-3B[32]、VLMamba[18]、MiniCPM-V2.0[70]、DeepSeek-VL[34]、KarmaVLM[71]、moondream2[72]。在本節中,我們將按順序全面概述這三個模塊以及其他高效組件。

Vision Transformer (ViT) [94] 架構在計算機視覺應用中獲得了顯著的關注并被廣泛使用。然而,隨著ViT模型規模的增長,可訓練參數和操作數量也隨之增加,影響了它們的部署和性能。此外,自注意力機制的計算和內存成本隨著圖像分辨率的增加呈二次增長。參考論文[95],本綜述旨在探索可用于高效MLLMs的最有效的視覺編碼方法。

付費5元查看完整內容

視覺變換器(Vision Transformers,ViTs)最近引起了相當大的關注,作為卷積神經網絡(CNNs)的有希望替代品,在幾個與視覺相關的應用中顯現出來。然而,它們龐大的模型尺寸以及高計算和內存需求阻礙了部署,特別是在資源受限的設備上。這強調了針對ViTs的算法-硬件協同設計的必要性,旨在通過定制算法結構和底層硬件加速器來優化它們的性能,以彼此的優勢為依托。模型量化通過將高精度數值轉換為低精度,減少了ViTs的計算需求和內存需求,允許創建專門為這些量化算法優化的硬件,提高效率。本文提供了ViTs量化及其硬件加速的全面綜述。我們首先深入探討ViTs的獨特架構屬性及其運行特性。隨后,我們檢查模型量化的基本原理,接著是對ViTs最先進量化技術的比較分析。此外,我們探索了量化ViTs的硬件加速,強調了硬件友好算法設計的重要性。最后,本文將討論持續的挑戰和未來研究方向。我們在

//github.com/DD-DuDa/awesome-vit-quantization-acceleration 上持續維護相關的開源材料。

在計算機視覺領域,卷積神經網絡(CNNs)歷來是基石,已在眾多任務中展示出顯著的效果。然而,隨著變換器(Transformer)架構的出現,情況開始發生變化。變換器在自然語言處理(NLP)中取得了巨大成功之后,被適配用于計算機視覺,形成了視覺變換器(Vision Transformers,ViTs)。ViTs的關鍵特性是自注意力(self-attention),它允許模型通過學習圖像標記序列中元素之間的復雜關系,從而在上下文中分析視覺數據。這種把握更廣泛上下文及圖像內部依賴關系的能力,推動了基于變換器的視覺模型的迅速發展,并隨后將它們確立為多種任務的新基礎,包括圖像分類、對象檢測、圖像生成、自動駕駛和視覺問題回答,展示了它們在計算機視覺中的多功能性和變革性影響。 盡管ViTs具備卓越的能力,但由于其本質上龐大的模型尺寸以及自注意力機制導致的計算和內存需求呈二次方增長,特別是在圖像分辨率提高時,這些因素顯著阻礙了其在計算和內存資源受限的設備上的部署,尤其是在如自動駕駛和虛擬現實等實時應用中,滿足低延遲需求和提供高質量用戶體驗至關重要。這強調了對模型壓縮技術如剪枝、量化、知識蒸餾和低秩分解等進步的迫切需要。此外,ViTs的迅速采用不僅歸功于算法創新和數據可用性,還歸功于處理器性能的提升。雖然CPU和GPU提供廣泛的計算多樣性,但它們固有的靈活性可能導致效率低下。鑒于ViTs的重復性但又獨特的操作特性,利用專門設計的硬件來優化數據重用,從而提高ViT部署的效率,存在明顯的機會。 量化是一種將高精度映射為低精度的技術,已成功地促進了輕量級和計算效率高的模型的創建,增強了算法與硬件的交互。在算法方面,有多種專門為ViTs設計的技術,旨在在數據壓縮至較低位寬后保持應用的準確性。其中一些技術被設計得更符合硬件友好,考慮到現有的架構,如GPU的INT8/FP8 Tensorcore。在硬件方面,高級量化算法的優化推動了更高效處理器的設計,可能包括更有效的數據重用模塊,用于并行處理低位數據。算法和硬件的共同設計是現代硬件加速器開發中的常見方法,顯著提高了它們的性能。 然而,近年來發布的大量相關工作使得初學者難以獲得全面的概述和清晰的比較結果。此外,一些在不考慮實際硬件的情況下模擬算法設計的方法,在部署時可能導致意外的精度低下。迫切需要一項全面的綜述,總結、分析并比較這些方法。本文力求填補這一空白,提供了關于ViTs量化及其硬件加速的廣泛回顧。具體而言,我們深入探討了ViTs量化的細微挑戰,從算法和硬件兩個角度出發,提供了不同量化方法的縱向比較,并在圖1中進行了說明。此外,我們展示了先進的硬件設計解決方案,并推測未來的趨勢和潛在機會。與近期的綜述相比——有些專注于各種高效技術但不考慮硬件,有些僅限于推理優化且算法細節有限,還有些提供了主要針對大型語言模型的模型壓縮的廣泛概覽——本文提供了詳細的描述和比較,以協同的方式處理算法與硬件的相互作用,從而提供了對ViTs量化領域更清晰、更有結構的洞見。 本文的組織結構如下所述。第二部分深入探討了視覺變換器的架構,介紹了其變體,并通過分析其運行特性和瓶頸進行了剖析。第三部分闡述了模型量化的基本原理。隨后,第四部分檢查了與ViTs量化相關的迫切挑戰,并提供了先前方法性能的比較回顧。第五部分探索了可用于硬件加速的方法范圍。最后,第六部分總結了本文,突出了潛在的機會和挑戰。

付費5元查看完整內容

大型語言模型(LLMs)在靜態、預先收集的通用數據集上的訓練取得的最近成功,已經引發了眾多研究方向和應用。其中一個方向解決了將預訓練的LLMs整合到動態數據分布、任務結構和用戶偏好中的非平凡挑戰。這個問題的主要挑戰在于平衡模型適應性和知識保存。為特定需求量身定制的預訓練LLMs經常在之前的知識領域經歷顯著的性能退化——這一現象被稱為“災難性遺忘”。雖然在持續學習(CL)社區進行了廣泛研究,但在LLMs領域呈現出新的表現形式。在這篇綜述中,我們提供了一個關于大型語言模型在持續學習背景下當前研究進展的全面概覽和詳細討論。除了介紹初步知識外,這篇綜述被分為四個主要部分:我們首先描述了持續學習LLMs的概覽,包括兩個連續性方向:垂直連續性(或垂直持續學習),即從一般到特定能力的持續適應;和水平連續性(或水平持續學習),即跨時間和領域的持續適應(第3節)。在垂直連續性之后,我們總結了在現代CL背景下學習LLMs的三個階段:持續預訓練(CPT)、領域適應性預訓練(DAP)和持續微調(CFT)(第4節)。然后我們提供了LLMs的持續學習評估協議的概覽,以及當前可用的數據來源(第5節)。最后,我們討論了有關LLMs持續學習的引人深思的問題(第6節)。這篇綜述揭示了持續預訓練、適應和微調大型語言模型這一相對未受到足夠研究的領域,表明需要社區更多的關注。需要立即關注的關鍵領域包括開發實用且易于訪問的評估基準,以及專門設計的方法論,以對抗遺忘和在不斷演變的LLM學習范式中啟用知識轉移。在這項綜述中檢查的完整論文列表可在//github.com/Wang-ML-Lab/llm-continual-learning-survey找到。

近期大型語言模型(LLMs)的進步顯示了實現人工普遍智能(AGI)的巨大潛力。研究人員觀察到,隨著參數規模的增加,多步驟推理、小樣本上下文學習和指令跟隨等復雜能力有所提高。LLMs的發展具有重大影響和革命性,促使機器學習從業者重新考慮傳統的計算范式,用于處理一些曾經具有挑戰性的人類水平任務,如問答、機器翻譯和對話系統。然而,LLMs通常在包含通用領域的靜態、預先收集的數據集上進行訓練,導致性能隨時間逐漸降低,并且在不同內容領域之間也會降低。此外,單一的預訓練大模型無法滿足每個用戶的需求,需要進一步的微調。盡管重新收集預訓練數據和根據額外的具體需求重新訓練模型是一種潛在的解決方案,但這種方法在現實世界場景中代價高昂且不切實際。為了有效地適應LLMs到下游任務,同時盡量減少對以前知識領域的性能退化,研究者采用了持續學習的方法,也稱為終身學習或增量學習。持續學習受到人類大腦中觀察到的增量學習模式的啟發,涉及按順序在一系列任務上訓練機器學習模型,期望在所有任務中保持性能。在訓練過程中,模型對以前的數據有限或無法訪問,這在保留過去知識時構成了一個挑戰,因為在當前任務學習時,來自未見過的以前數據的優化約束是不存在的。這一挑戰,被稱為災難性遺忘,自持續學習研究開始以來一直是研究的中心焦點。多年來,研究者探索了各種技術來減輕機器學習模型中的遺忘,這些技術包括基于重放的方法、參數規范化和模型架構擴展。這些技術共同顯著推進了在不同任務、模型架構和學習范式中實現零遺忘的持續學習目標。在順序訓練和適應LLMs的背景下,CL的重要性也正在發生自身的語義轉變。為了更好地突出這一持續的轉變,在這篇綜述中,我們提供了一個關于LLMs在CL背景下當前研究進展的全面概覽和詳細討論。對于持續學習LLMs的總體情況,我們將其分為兩個需要由從業者解決的連續性方向(第3節):

  • 垂直連續性(或垂直持續學習),指的是LLMs從大規模通用領域到小規模特定領域的持續適應,涉及學習目標和執行實體的轉變。例如,醫療機構可能開發專門為醫療領域定制的LLMs,同時保留其一般推理和問答能力,以服務用戶。
  • 水平連續性(或水平持續學習),指的是跨時間和領域的持續適應,通常涉及多個訓練階段和對災難性遺忘的增加脆弱性。例如,社交媒體平臺不斷更新LLMs以反映最近的趨勢,確保精確地定位下游服務如廣告和推薦,同時為現有用戶提供無縫的用戶體驗。

在圖1中,繼垂直連續性之后,我們勾畫了現代CL中LLM學習的三個關鍵階段:持續預訓練(CPT)、領域適應性預訓練(DAP)和持續微調(CFT)(第4節)。在CPT中,現有研究主要調查三種類型的分布式轉變:時間、內容層次和語言層次。每種都呈現出獨特的焦點和挑戰。在DAP中,雖然它主要被視為為下游任務準備LLMs的過程,但頻繁地使用CL評估和技術。然而,這些技術的多樣性明顯不足,考慮到傳統CL社區的成熟度。在CFT中,我們關注的是學習LLMs的新興領域,涵蓋持續指令調整(CIT)、持續模型精煉(CMR)、持續模型對齊(CMA)和持續多模態LLMs(CMLLMs)等主題。接下來,我們呈現了一系列公開可用的評估協議和基準(第5節)。我們總結我們的綜述,討論了LLMs持續學習的最新出現的特性,傳統增量學習類型和LLMs持續學習中的記憶約束的角色變化,以及這個主題的潛在研究方向(第6節)。總結而言,本文提供了一份詳盡的現有持續學習研究LLMs的綜述,顯著區別于相關主題的現有文獻。我們的綜述突出了持續開發LLMs的研究領域,特別是在持續預訓練(CPT)和領域適應性預訓練(DAP)領域的研究。我們強調需要社區更多的關注,迫切需要包括開發實用、易于訪問且廣為認可的評估基準。此外,需要定制方法來解決在新興的大型語言模型學習范式中的遺忘問題。我們希望這篇綜述能提供一個系統而新穎的持續學習視角,在迅速變化的LLMs領域中,幫助持續學習社區為開發更有效、可靠和可持續的LLMs做出貢獻。

組織結構

本文的其余部分安排如下。我們首先在第2節介紹大型語言模型和持續學習的背景和初步知識。然后我們在第3節展示了大型語言模型的現代持續學習概覽。從垂直角度來看,它可以大致分為三個階段的LLMs持續訓練,我們將在第4節逐一介紹每個階段。在4.3節中,將介紹持續微調LLMs的獨特方面,包括持續指令調整(4.3.3節)、持續模型精煉(4.3.4節)、持續模型對齊(4.3.5節)和持續多模態大型語言模型(4.3.6節)。在第5節中,我們提供了公開可用的LLMs持續學習評估協議和基準的全面介紹。最后,在第6節中,我們討論了在大型語言模型時代持續學習的角色,包括大規模持續LLMs的新興能力(6.1節)、三種類型的持續學習(6.2節)、LLMs持續學習中的記憶角色(6.3節)以及未來的研究方向(6.4節)。 持續學習與大型語言模型相遇:概覽****大型語言模型(LLMs)在多個維度上都非常龐大,包括模型參數的大小、預訓練數據集、計算資源、項目團隊和開發周期。LLMs的巨大規模為開發團隊帶來了顯著的挑戰,特別是在快速變化的環境中保持更新。舉例來說,2023年,用戶發布的新推文的平均每日流量超過5億,即使是在這么大量數據的“小”子集上進行訓練也是不可承受的。在考慮到它們對下游應用的連鎖影響時,有效且可靠地適應LLMs變得更為關鍵。下游用戶通常缺乏收集和存儲大規模數據、維護大規模硬件系統以及自行訓練LLMs的專業知識。《可回收調整》是首個明確概述現代LLM生產流水線供應商-消費者結構的先導研究。在供應商側,模型在一系列大規模未標記數據集上持續進行預訓練。每次預訓練模型發布后,消費者需要利用更新、更強大的上游模型以獲得更好的下游性能。為了提高下游消費者微調的效率,他們最初對持續預訓練的LLMs進行了幾項關鍵觀察,聚焦于模式連接性和功能相似性。此外,他們提出在上游預訓練LLM進行重大更新后,復用過時的微調組件。基于《可回收調整》引入的概念框架,我們在本綜述中提出了一個包含各種研究的現代生產流水線的全面框架,涉及持續LLM預訓練、適應和部署,如圖1所示。我們的框架與現有研究的不同之處在于融入了兩個連續性方向:垂直連續性和水平連續性。

結論

在這項工作中,我們提供了一份關于持續LLMs的綜述,從持續學習的角度總結了它們在訓練和部署方面的最新進展。我們根據它們在我們提出的現代分層持續學習LLMs的更廣框架內的位置,對問題和任務進行了分類。雖然這一領域在社區中的興趣廣泛且日益增長,但我們也注意到幾個缺失的基石,包括算法多樣性以及對大模型行為(如知識遺忘、轉移和獲取)的基本理解。通過全面而詳細的方法,我們希望這篇綜述能激勵更多從業者探索持續學習技術,最終有助于構建健壯和自我進化的人工智能系統。

付費5元查看完整內容

大型語言模型(LLMs)在廣泛的任務中取得了顯著的成功。由于LLMs令人印象深刻的規劃和推理能力,它們被用作自動執行許多任務的自主智能體。最近,基于將一個LLM作為單一規劃或決策智能體的發展,基于LLM的多智能體系統在復雜問題解決和世界模擬方面取得了相當的進展。為了向社區提供這一動態領域的概覽,我們呈現這篇綜述,以提供關于基于LLM的多智能體系統的基本方面及挑戰的深入討論。我們的目標是讓讀者對以下問題獲得實質性的見解:基于LLM的多智能體模擬哪些領域和環境?這些智能體如何被描述,它們如何通信?什么機制有助于智能體能力的增長?對于那些有興趣深入研究這一領域的人,我們還總結了常用的數據集或基準,以便他們方便地訪問。為了讓研究人員了解最新的研究,我們維護一個開源的GitHub倉庫,致力于概述基于LLM的多智能體系統的研究。

1 引言

最近,大型語言模型(LLMs)展現出了達到與人類相當的推理和規劃能力的顯著潛力。這種能力完全符合人類對能夠感知周圍環境、做出決策并作出響應的自主智能體的期待[Xi等,2023;Wooldridge和Jennings,1995;Russell和Norvig,2009;Guo等,2023;Liang等,2023]。因此,基于LLM的智能體已被研究和快速發展,以理解和生成類似人類的指令,促進在廣泛的上下文中進行復雜的互動和決策[Yao等,2023;Shinn等,2023;Li等,2023d]。及時的綜述文章系統地總結了基于LLM的智能體的進展,如在文獻[Xi等,2023;Wang等,2023b]中所見。

基于單個LLM智能體的啟發性能力,已提出基于LLM的多智能體,以利用多個智能體的集體智能和專業化輪廓及技能。與使用單一LLM驅動的智能體的系統相比,多智能體系統通過1) 將LLMs專業化為具有不同能力的各種不同智能體,以及2) 使這些多樣化的智能體之間進行互動,有效地模擬復雜的現實世界環境,提供了先進的能力。在這一背景下,多個自主智能體協作參與規劃、討論和決策,反映了人類團隊工作在解決問題任務中的合作本質。這種方法利用了LLMs的溝通能力,借助它們生成文本進行交流和對文本輸入的響應能力。此外,它利用了LLMs在各個領域的廣泛知識和專門化特定任務的潛力。最近的研究已經展示了使用基于LLM的多智能體解決各種任務的有希望的結果,如軟件開發[Hong等,2023; Qian等,2023]、多機器人系統[Mandi等,2023; Zhang等,2023c]、社會模擬[Park等,2023; Park等,2022]、政策模擬[Xiao等,2023; Hua等,2023]以及游戲模擬[Xu等,2023c; Wang等,2023c]。由于這個領域的跨學科研究性質,它吸引了來自社會科學、心理學和政策研究等不同背景的研究者,研究論文的數量正在迅速增加,如圖1所示(受[Gao等,2023b]設計的啟發),從而擴大了基于LLM的多智能體研究的影響。盡管如此,早期的工作是獨立進行的,導致缺乏系統回顧以總結它們,建立這個領域的全面藍圖,并檢查未來的研究挑戰。這強調了我們工作的重要性,并作為呈現這篇綜述論文的動機,致力于基于LLM的多智能體系統的研究。

我們期望我們的綜述能對LLMs的研究和開發以及利用LLMs進行的更廣泛的跨學科研究做出重大貢獻。讀者將獲得關于基于LLM的多智能體(LLM-MA)系統的全面概覽,把握基于LLMs建立多智能體系統所涉及的基本概念,并捕捉到這一動態領域中最新的研究趨勢和應用。我們認識到這個領域正處于初級階段,并且隨著新方法和應用的迅速發展。為了提供一種持續的資源來補充我們的綜述論文,我們維護了一個開源的GitHub倉庫。我們希望我們的綜述能激發進一步的探索和創新,以及在廣泛的研究領域中的應用。

為了幫助來自不同背景的個人理解LLM-MA技術,并補充現有的綜述通過解決未解決的問題,我們以以下方式組織了我們的綜述論文。在第2節中闡述背景知識后,我們提出了一個關鍵問題:LLM-MA系統如何與協作任務解決環境對齊?為了回答這個問題,我們在第3節提出了一個全面的框架,用于定位、區分和連接LLM-MA系統的各個方面。我們通過討論: 1)智能體-環境界面,詳細說明智能體如何與任務環境互動; 2)智能體輪廓,解釋一個智能體如何被LLM描述以以特定方式行為; 3)智能體通信,考察智能體如何交換信息和協作;以及 4)智能體能力獲取,探索智能體如何發展其解決問題的能力。

關于LLM-MA研究的另一個視角是它們的應用。在第4節,我們將當前應用分為兩個主要流:用于問題解決的多智能體和用于世界模擬的多智能體。為了指導個人識別合適的工具和資源,我們在第5節提出了用于研究LLM-MA的開源實現框架,以及可用的數據集和基準。基于前面的總結,我們在第6節開放了對未來研究挑戰和機會的討論。結論在第7節中總結。

解析LLM-MA系統:界面、輪廓、通信和能力

在本節中,我們深入探討LLM-MA系統的復雜性,其中多個自主智能體參與類似于人類群體動力學的協作活動,應對問題解決場景。我們要解決的一個關鍵問題是,這些LLM-MA系統如何與它們的操作環境以及它們旨在實現的集體目標對齊。為了闡明這一點,我們在圖2中展示了這些系統的通用架構。我們的分析解剖了這些系統的操作框架,重點關注四個關鍵方面:智能體-環境界面、智能體輪廓、智能體通信和智能體能力獲取。

應用

LLM-MA系統已在廣泛的應用中被使用。我們在表1中總結了兩類應用:問題解決世界模擬。我們將在下面詳細闡述這些應用。請注意,這是一個快速發展的研究領域,幾乎每天都有新應用出現。我們維護一個開源倉庫來報告最新的工作。

使用LLM-MA進行問題解決的主要動機是利用具有專門專業知識的智能體的集體能力。這些智能體,每個都作為個體行動,協作以有效地解決復雜問題,例如軟件開發、具體化智能體、科學實驗和科學辯論。 LLM-MA的另一個主流應用場景是世界模擬。這一領域的研究正在迅速增長,涵蓋了包括社會科學、游戲、心理學、經濟學、政策制定等在內的多種領域。在世界模擬中使用LLM-MA的關鍵原因在于它們出色的角色扮演能力,這對于現實地描繪模擬世界中的各種角色和觀點至關重要。世界模擬項目的環境通常被設計來反映被模擬的特定場景,智能體以各種輪廓設計以匹配這一背景。與專注于智能體合作的問題解決系統不同,世界模擬系統涉及多種智能體管理和通信方法,反映了現實世界交互的復雜性和多樣性。

結論

基于LLM的多智能體展現了激勵人心的集體智能,并迅速在研究者中獲得了越來越多的興趣。在這篇綜述中,我們首先系統回顧了LLM-MA系統的發展,通過從不同方面定位、區分和連接它們,涉及智能體-環境界面、LLMs對智能體的描述、管理智能體通信的策略以及能力獲取的范式。我們還總結了LLM-MA在問題解決和世界模擬中的應用。通過突出常用的數據集和基準,并討論挑戰和未來機會,我們希望這篇綜述能成為各個研究領域的研究者們的有用資源,激發未來的研究去探索基于LLM的多智能體的潛力。

付費5元查看完整內容

隨著大型語言模型(LLMs)在編寫類似人類的文本方面不斷進步,它們傾向于“幻覺”——生成看似事實卻無根據的內容的傾向仍然是一個關鍵挑戰。幻覺問題可以說是將這些強大的LLMs安全部署到影響人們生活的實際生產系統中的最大障礙。向LLMs在實際設置中廣泛采用的旅程嚴重依賴于解決和緩解幻覺。與專注于有限任務的傳統AI系統不同,LLMs在訓練期間已經接觸了大量的在線文本數據。雖然這使它們能夠展現出令人印象深刻的語言流利度,但這也意味著它們能夠從訓練數據中的偏見中推斷出信息,誤解模糊的提示,或修改信息以表面上與輸入對齊。當我們依賴語言生成能力進行敏感應用時,這變得極其令人擔憂,例如總結醫療記錄、客戶支持對話、財務分析報告和提供錯誤的法律建議。小錯誤可能導致傷害,揭示了LLMs盡管在自我學習方面取得了進步,但實際上缺乏真正的理解。本文提出了一項對超過三十二種旨在緩解LLMs中幻覺的技術的全面綜述。其中值得注意的是檢索增強生成(RAG)(Lewis et al., 2021)、知識檢索(Varshney et al., 2023)、CoNLI(Lei et al., 2023)和CoVe(Dhuliawala et al., 2023)。此外,我們引入了一種詳細的分類法,根據各種參數對這些方法進行分類,如數據集利用、常見任務、反饋機制和檢索器類型。這種分類有助于區分專門設計用于解決LLMs中幻覺問題的多種方法。此外,我們分析了這些技術固有的挑戰和限制,為未來在LLMs領域解決幻覺和相關現象的研究提供了堅實的基礎。

1 引言 大型語言模型(LLMs)中的幻覺涉及到在多個主題上創造事實上錯誤的信息。鑒于LLMs的廣泛領域覆蓋,它們的應用橫跨眾多學術和專業領域。這些包括但不限于學術研究、編程、創意寫作、技術咨詢以及技能獲取的促進。因此,LLMs已成為我們日常生活中不可或缺的組成部分,在提供準確可靠信息方面扮演著關鍵角色。然而,LLMs的一個根本問題是它們傾向于產生關于現實世界主題的錯誤或捏造細節。這種提供錯誤數據的傾向,通常被稱為幻覺,為該領域的研究人員提出了重大挑戰。這導致了像GPT-4等先進模型可能生成不準確或完全沒有根據的引用(Rawte et al., 2023)的情況。這一問題是由于訓練階段的模式生成技術和缺乏實時互聯網更新,從而導致信息輸出中的差異(Ray,2023)。 在當代計算語言學中,緩解幻覺是一個關鍵焦點。研究人員提出了各種策略,包括反饋機制、外部信息檢索和語言模型生成早期細化,來應對這一挑戰。本文通過整合和組織這些不同技術為一個全面的分類法而具有重要意義。本文對于LLMs幻覺領域的貢獻有三方面:

引入了一個系統的分類法,旨在對LLMs的幻覺緩解技術進行分類,包括視覺語言模型(VLMs)。

綜合了這些緩解技術的基本特征,從而指導該領域未來更有結構性的研究努力。

對這些技術固有的局限性和挑戰進行了討論,并提出了潛在的解決方案和未來研究的方向建議。

付費5元查看完整內容

以語音為中心的機器學習系統徹底改變了許多領先領域,從交通和醫療保健到教育和國防,深刻改變了人們的生活、工作和相互互動的方式。然而,最近的研究表明,許多以語音為中心的機器學習系統可能需要被認為更值得信任,以便更廣泛地部署。具體來說,在機器學習研究領域,人們都發現了對隱私泄露、判別性能和對抗性攻擊脆弱性的擔憂。為了應對上述挑戰和風險,人們做出了大量努力,以確保這些機器學習系統是值得信任的,特別是隱私、安全和公平。本文首次對與隱私、安全和公平相關的、以語音為中心的可信機器學習主題進行了全面的調研。除了作為研究界的總結報告外,本文指出了幾個有希望的未來研究方向,以激勵希望在該領域進一步探索的研究人員。 引言

在過去的幾年中,機器學習(ML),特別是深度學習,在各種研究領域和應用中取得了巨大的突破,包括自然語言處理(Devlin等人,2018)、圖像分類(He等人,2016)、視頻推薦(Davidson等人,2010)、醫療保健分析(Miotto等人,2018),甚至掌握國際象棋游戲(Silver等人,2016)。深度學習模型通常由多個處理層組成,并結合了線性和非線性操作。盡管訓練具有多層架構的深度學習模型需要積累大型數據集和訪問強大的計算基礎設施(Bengio等人,2021),但與傳統的建模方法相比,訓練后的模型通常達到最先進的(SOTA)性能。深度學習的廣泛成功還允許更深入地了解人類狀況(狀態、特征、行為、交互)和革命性的技術,以支持和增強人類體驗。除了ML在上述領域取得的成功,以語音為中心的ML也取得了重大進展。 言語是人類之間一種自然而突出的交流形式。它存在于人類生活的幾乎每一個層面,無論是與朋友聊天、與同事討論,還是與家人遠程通話。以語音為中心的機器學習的進步使Siri、谷歌Voice和Alexa等智能助手的普遍使用成為可能。此外,以語音為中心的建模在人類行為理解、人機界面(HCI) (Clark等人,2019)和社交媒體分析方面創造了許多研究主題。例如,一些廣泛研究的語音建模領域包括自動語音識別(Malik et al., 2021)、語音情感識別(Ak?ay和O?uz, 2020)、自動說話人確認(Irum和Salman, 2019)和關鍵詞識別(Warden, 2018)。

盡管ML系統有在廣泛的以語音為中心的應用中廣泛部署的前景,但在大多數這些系統中,兩個交織在一起的挑戰仍然沒有解決:理解和闡明跨人和環境的豐富多樣性,同時創建可信的ML技術,在所有環境中適用于每個人。信任是人類生活的基礎,無論是信任朋友、同事、家庭成員,還是像人工智能服務這樣的人工制品。傳統上,機器學習從業者,如研究人員和決策者,使用系統性能(如F1分數)來評估機器學習系統。雖然大量的研究都集中在提高機器學習模型的系統性能上,但確保機器學習應用是可信的仍然是一個具有挑戰性的課題。在過去的幾年中,我們見證了大量針對可信人工智能和機器學習的研究工作,本文的目標是對相關研究活動進行全面的回顧,重點以語音為中心的機器學習。

**ML中的可信性在不同的文獻中有不同的定義。**例如,Huang等人(2020)基于涉及認證過程和解釋過程實施的行業生產實踐規范描述了術語可信性。認證過程包括測試和驗證模塊,以檢測輸入數據中潛在的偽造或干擾。解釋是解釋機器學習為什么根據輸入數據做出特定決策的能力。此外,歐盟發布的《可信人工智能倫理準則》(Smuha, 2019)承認,要被認為是可信的人工智能系統,必須遵守法律和法規,堅持道德原則,并強大地運行。最近,Liu等人(2022b)從安全性、公平性、可解釋性、隱私、可問責性和環境友好方面總結了可信人工智能。同樣,我們的審查認為,可信的核心設計元素是魯棒性、可靠性、安全性、安全性、包容性和公平性。基于這些標準,本文從隱私、安全和公平的角度綜述了關于以語音為中心的可信機器學習的文獻,如圖1.1所示:

**隱私: **以語音為中心的ML系統嚴重依賴于收集來自、關于和針對潛在敏感環境和上下文中的人的語音數據,例如家庭、工作場所、醫院和學校。語音數據的收集經常引起人們對侵犯用戶隱私的嚴重擔憂,例如泄露人們可能希望保密的敏感信息(Liu等人,2021)。至關重要的是,要確保由個人共享或由ML系統收集的語音數據受到保護,免受任何不合理和未經授權的使用。

安全性: 在過去幾年中,研究人員發現機器學習系統普遍容易受到對抗性攻擊,這些攻擊旨在利用模型預測函數中的漏洞進行惡意的目的(Goodfellow等人,2014)。例如,通過對語音數據引入足夠小的擾動,惡意行為者可以導致關鍵詞檢測模型對所需的輸入語音命令進行錯誤分類。因此,一個可信的機器學習系統必須對惡意攻擊者可能故意更改的相同輸入輸出一致。

**公平性:**最近人們知道機器學習系統的行為可能不公平。機器學習系統為什么會虐待人是多方面的(Mehrabi等人,2021)。一個因素是社會方面,由于訓練數據或整個機器學習開發過程中的假設/決策中的社會偏見,機器學習系統產生有偏的輸出。導致人工智能不公平的另一個原因是數據集特征的不平衡,某些群體的數據樣本有限。因此,模型需要考慮某些人群的需求。同樣重要的是要注意,部署不公平的機器學習系統可能會放大社會偏見和數據不平衡問題。為了評估以語音為中心的機器學習系統的可信性,機器學習從業者需要評估機器學習模型是否對個人或群體表現出區分性。

**本文的其余部分組織如下。**第2節簡要總結了流行的以語音為中心的任務、數據集和SOTA建模框架。第3節全面討論了以語音為中心的機器學習系統中的安全考慮。第4節討論了語音建模中的隱私風險和防御。第5節回顧了語音建模任務中出現的公平性問題。第6節闡述了以語音為中心的可信機器學習的潛在發展和未來的挑戰。最后,第7節總結了本文的主要觀點。

具體而言,我們的貢獻總結如下:

  1. 據我們所知,這是第一個對設計可信的、以語音為中心建模的機器學習進行全面回顧的綜述工作。我們調研了大部分已經發表和預印本的工作,包括自動語音識別、語音情感識別、關鍵詞識別和自動說話人驗證。

  2. 創建了分類法,以系統地審查與以語音為中心的機器學習系統可信性相關的設計支柱。我們進一步比較了關于每個關鍵因素的各種文獻。

3.本文討論了設計以語音為中心的機器學習系統面臨的突出挑戰,這些系統面臨著與隱私、安全和公平相關的可信性考慮。在文獻綜述的基礎上,討論了有待解決的挑戰,并提出了幾個有希望的未來方向。

付費5元查看完整內容

邊緣計算通過將計算、通信和存儲資源分布在移動和物聯網(IoT)設備的地理鄰近范圍內,促進了網絡邊緣的低延遲服務。無人機(UAV)技術最近的進步為軍事行動、災難響應或傳統地面網絡有限或不可用的偏遠地區的邊緣計算提供了新的機會。在這種環境下,無人機可以作為空中邊緣服務器或中繼部署,以促進邊緣計算服務。這種形式的計算也被稱為無人機支持的邊緣計算(UEC),它提供了一些獨特的優點,如移動性、視線、靈活性、計算能力和成本效率。然而,在UEC環境下,無人機、邊緣服務器和物聯網設備上的資源通常非常有限。因此,有效的資源管理是UEC的一個關鍵研究挑戰。在本文中,我們從資源管理的角度對現有的UEC研究進行了綜述。我們確定了UEC資源管理的概念架構、不同類型的協作、無線通信模型、研究方向、關鍵技術和性能指標。我們還提出了UEC資源管理的分類。最后,我們確定并討論了一些開放的研究挑戰,這些挑戰可以激發UEC資源管理的未來研究方向。

最近物聯網(IoT)和無線通信技術的發展引入了許多需要高計算能力和低延遲的新應用[86]。這類服務的例子包括可穿戴認知輔助、增強現實(AR)、智能醫療、面部識別、交互式在線游戲以及實時交通和道路安全監測[163]。然而,物聯網設備通常具有有限的計算資源、存儲、網絡覆蓋和能源。因此,資源密集型物聯網應用在維持預期的服務質量(QoS)方面常常面臨重大挑戰[59,83]。物聯網應用通常利用云計算技術來維持預期的QoS[63]。云計算通過虛擬機(vm)、虛擬存儲(VS)、VPN(virtual private network)等多種形式在Internet上交付計算資源[8]。然而,云計算目前被認為不足以滿足資源密集型和延遲敏感的物聯網應用的低延遲需求[86]。原因有兩方面。首先,物聯網設備的數量每天都在增加,預計到2030年將達到約1250億。這些設備產生了大量的網絡流量,使回程網絡負擔沉重,并因網絡擁塞而嚴重影響其性能[135]。其次,云服務器通常被放置在遠離物聯網設備的地方。因此,云計算在服務發放中引入了相當大的延遲,這降低了延遲敏感的物聯網應用的整體QoS[71]。

邊緣計算是一種相對較新的范式,為延遲敏感和資源密集型的物聯網應用提供了另一種計算解決方案。邊緣計算將云計算技術擴展到網絡邊緣,更接近用戶和物聯網設備[63]。它允許資源受限的物聯網設備(又稱邊緣設備)完全或部分地將其數據或計算任務卸載到附近強大的邊緣服務器或其他邊緣設備[1]。它大大提高了物聯網應用的延遲和能源效率。這也將減少核心網的流量阻塞。邊緣服務器還可以作為數據緩存來存儲物聯網設備頻繁訪問的數據,以提高應用程序的QoS[163]。物聯網設備通常使用無線網絡連接到邊緣基礎設施[86]。然而,在一些最偏遠的地區(例如農村或山區),可能并不總是有良好的無線網絡基礎設施[50]。此外,無線網絡基礎設施很容易受到地震、洪水或風暴等自然災害的影響。在某些情況下,例如軍事行動或緊急救援任務,通常很難擁有可靠的無線網絡基礎設施[56]。最近無人機(UAV)技術的進步開辟了一個新的機會,在軍事行動、災害響應或農村地區使用無人機提供邊緣計算服務。這也被稱為無人機使能邊緣計算(UEC)[88]。無人機提供了廣泛的適應性,如機動性、靈活性和成本效率,這使得UEC成為一個有前途的解決方案。無人機通常在UEC環境[60]中作為空中邊緣服務器或中繼。物聯網設備將全部或部分計算任務卸載給附近的無人機。UAV要么在本地處理任務,要么將任務發送到附近的邊緣/云服務器進行遠程執行。

該文對UEC中資源管理的研究現狀進行了全面的綜述。本工作的主要貢獻如下:

  • 我們在第2節中介紹了一個三層的UEC體系結構,代表了UEC中管理資源的概念體系結構。該體系結構包含“事物”層、“邊緣”層和“云”層。然后,我們研究在提議的體系結構中發生的六種類型的協作。考慮的合作是a)物-無人機,b)無人機-邊緣,c)物-邊緣,d)物-無人機-云,e)無人機-邊緣-云,f)物-無人機-邊緣-云。我們還討論了UEC中使用的無線通信模型。

  • 我們發現了UEC背景下資源管理的關鍵研究問題。在第3節中,我們將研究問題分為以下三類:a)計算任務和數據卸載,b)資源分配,c)資源供應。

  • 第4節確定并全面回顧了UEC中用于資源管理的關鍵技術和性能指標。關鍵技術分為兩類:a)集中方法和b)分散方法。我們研究如何在現有的工作中評估這些方法。此外,討論了現有文獻中的關鍵性能指標,如能耗、延遲、吞吐量、成本、效用和資源利用率。

  • 我們在第5部分中確定了這項工作的主要發現,指出了UEC資源管理的主要研究挑戰和未來的研究方向。圖2展示了本次綜述的組織結構,為讀者提供了本文的簡要概述。

付費5元查看完整內容

邊緣計算在自動駕駛的環境感知和數據處理方面有著極其重要的應用。自動駕駛汽車可以通過從邊緣節點獲得環境信息來擴大自身的感知范圍,也可以向邊緣節點卸載計算任務以解決計算資源不足的問題。相比于云計算,邊緣計算避免了長距離數據傳輸所導致的高時延,能給自動駕駛車輛提供更快速的響應,并且降低了主干網絡的負載。基于此,首先介紹了基于邊緣計算的自動駕駛汽車協同感知和任務卸載技術及相關挑戰性問題,然后對協同感知和任務卸載技術的研究現狀進行了分析總結,最后討論了該領域有待進一步研究的問題。

付費5元查看完整內容
北京阿比特科技有限公司