亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

根據最近大語言模型(LLMs)的流行,已經有多次嘗試將其擴展到視覺領域。從擁有可以引導我們穿越陌生環境的視覺助手到僅使用高級文本描述生成圖像的生成模型,視覺-語言模型(VLM)的應用將極大地影響我們與技術的關系。然而,為了提高這些模型的可靠性,還有許多挑戰需要解決。雖然語言是離散的,但視覺在更高維的空間中演變,其中的概念并不總是容易離散化。為了更好地理解將視覺映射到語言的機制,我們介紹了這篇關于VLMs的綜述,希望能幫助任何希望進入該領域的人。首先,我們介紹了什么是VLMs,它們是如何工作的,以及如何訓練它們。然后,我們展示并討論了評估VLMs的方法。盡管這項工作主要關注將圖像映射到語言,但我們也討論了將VLMs擴展到視頻的可能性。

近年來,我們在語言建模方面看到了令人印象深刻的發展。許多大型語言模型(LLMs),如Llama或ChatGPT,現在能夠解決各種各樣的任務,其使用也越來越普及。這些模型主要局限于文本輸入,現在已經擴展到包含視覺輸入。將視覺與語言連接將開啟幾個在當前基于AI的技術革命中關鍵的應用。盡管已經有多項工作將大型語言模型擴展到視覺領域,但語言與視覺的連接并未完全解決。例如,大多數模型在沒有復雜的工程開銷和額外數據標注的情況下,難以理解空間關系或進行計數。許多視覺語言模型(VLMs)也缺乏對屬性和順序的理解。它們經常忽略輸入提示的一部分,導致需要進行大量的提示工程才能得到所需結果。其中一些還會產生幻覺,生成不必要或不相關的內容。因此,開發可靠的模型仍然是一個非常活躍的研究領域。 在這項工作中,我們介紹了視覺語言模型(VLMs)的入門知識。我們解釋了什么是VLMs,它們是如何訓練的,以及如何根據不同的研究目標有效評估VLMs。本工作不應被視為關于VLMs的綜述或完整指南。因此,我們并不打算引用VLM研究領域的每一項工作;也不涵蓋該領域的所有最佳實踐。相反,我們旨在提供一個清晰且易于理解的VLM研究介紹,并強調在該領域進行研究的有效實踐。該介紹特別適合希望進入該領域的學生或其他領域的研究人員。

我們首先介紹不同的VLM訓練范式。我們討論了對比方法如何改變了該領域。接著,我們介紹利用掩碼策略或生成組件的方法。最后,我們介紹使用預訓練骨干(如LLMs)的VLMs。將VLMs分類成不同的家族并不是一項容易的任務,因為它們中的大多數都有重疊的組件。然而,我們希望我們的分類能幫助新研究人員導航該領域,并揭示VLMs背后的內在機制。

接下來,我們介紹訓練VLMs的典型方法。例如,我們涵蓋了:根據不同的研究目標,哪些數據集是合適的?哪種數據策展策略?我們是否需要訓練一個文本編碼器,還是可以利用一個預訓練的LLM?對比損失對于理解視覺是否足夠,還是生成組件是關鍵?我們還介紹了用于提高模型性能以及更好地對齊和錨定的常見技術。 提供訓練模型的方法是更好地理解VLM需求的關鍵步驟,而提供對這些模型的穩健和可靠的評估同樣重要。許多用于評估VLMs的基準最近已經被引入。然而,其中一些基準有重要的局限性,研究人員應當注意。通過討論VLM基準的優缺點,我們希望揭示改善我們對VLMs理解的挑戰。我們首先討論評估VLMs視覺語言能力的基準,然后介紹如何衡量偏見。

下一代VLMs將能夠通過將視頻映射到語言來理解視頻。然而,視頻面臨的挑戰與圖像不同。計算成本當然更高,但也有其他關于如何通過文本映射時間維度的考慮。通過揭示當前從視頻中學習的方法,我們希望強調需要解決的當前研究挑戰。

通過降低進入VLM研究的門檻,我們希望為更負責任的發展VLMs提供基礎,同時推動視覺理解的邊界。

鑒于深度學習在計算機視覺和自然語言處理領域的顯著進展,已經有多項將這兩個領域橋接起來的倡議。在本文中,我們重點介紹基于Transformers [Vaswani et al., 2017] 的最新技術。我們將這些最新的技術分為四種不同的訓練范式(圖1)。

第一種是對比訓練,這是一個常用的策略,它利用正負樣本對。VLM通過訓練,使其能夠為正樣本對預測相似的表示,而為負樣本對預測不同的表示。

第二種是掩碼策略,通過給定一些未掩碼的文本來重建被掩碼的圖像塊。同樣,通過掩碼標題中的詞語,可以訓練VLM在給定未掩碼圖像的情況下重建這些詞語。

基于預訓練骨干的VLMs通常利用開源的LLMs,如Llama [Touvron et al., 2023],以學習圖像編碼器(也可以是預訓練的)和LLM之間的映射。與從頭訓練文本和圖像編碼器相比,學習預訓練模型之間的映射通常計算成本較低。

雖然大多數方法利用中間表示或部分重建,生成式VLMs則以能夠生成圖像或標題的方式進行訓練。鑒于這些模型的性質,它們往往是訓練成本最高的。 我們強調,這些范式并不是互斥的;許多方法依賴于對比、掩碼和生成標準的混合。對于每種范式,我們僅介紹一到兩個模型,以便讀者對這些模型的設計有一些高層次的見解。

VLM訓練指南

多項研究 [Henighan et al., 2020b,a] 強調了擴展深度神經網絡規模以提升其性能的重要性。受到這些擴展規律的啟發,最近的工作主要集中在增加計算能力和模型規模以學習更好的模型。這導致了諸如CLIP [Radford et al., 2021] 這樣的模型的出現,該模型使用了400M張圖像進行訓練,計算預算非常高。即使是相應的開源實現OpenCLIP [Ilharco et al., 2021] 也使用了256到600個GPU,訓練時間長達數天或數周,具體取決于模型規模。然而,最近的研究 [Sorscher et al., 2022] 表明,通過數據策展流水線,可以超越擴展定律。在本節中,我們首先討論訓練模型時數據的重要性,并介紹一些用于創建訓練VLMs數據集的方法。接著,我們討論從業者可能用來更高效地訓練VLMs的常用軟件、工具和技巧。由于訓練VLMs的方法不同,我們還討論了在特定情況下選擇哪種類型的模型。最后,我們介紹了一些提高錨定(正確將文本與視覺線索匹配)的技巧。我們還介紹了使用人類偏好改進對齊的方法。由于VLMs經常用于讀取和翻譯文本,我們也介紹了一些可以進一步提升VLMs OCR能力的技術。最后,我們討論了常見的微調方法。

負責的VLM評估方法

由于VLMs的主要能力是將文本與圖像進行映射,因此測量視覺-語言能力至關重要,以確保文字確實與視覺線索相匹配。早期用于評估VLMs的任務是圖像描述和視覺問答(VQA)[Antol et al., 2015]。在本節中,我們還討論了評估模型從圖像中理解和讀取文本能力的文本中心VQA任務。另一個由Radford等人 [2021] 引入的常見評估方法基于零樣本預測,例如ImageNet [Deng et al., 2009] 分類任務。這類分類任務對于評估VLM是否具備足夠的世界知識非常重要。更近期的基準如Winoground [Thrush et al., 2022] 測量視覺-語言組合推理。由于VLM模型已知會表現出偏見或幻覺,因此評估這兩個組成部分也很重要。

擴展VLMs至視頻

我們迄今為止的重點是訓練和評估基于靜態視覺數據(即圖像)的VLMs。然而,視頻數據為模型帶來了新的挑戰和潛在的新功能,例如理解物體的運動和動態,或在空間和時間中定位物體和動作。文本到視頻的檢索、視頻問答和生成迅速成為計算機視覺的基本任務 [Xu et al., 2015, Tapaswi et al., 2016, Brooks et al., 2024]。視頻的時間維度對存儲、GPU內存和訓練提出了新的挑戰,例如,24幀每秒的視頻需要24倍的存儲和處理,如果每幀都被視為圖像。這需要在視頻VLMs中進行權衡,例如使用壓縮形式的視頻(例如,H.264編碼)并在數據加載器中即時解碼視頻;從圖像編碼器初始化視頻編碼器;視頻編碼器具有空間/時間池化/掩碼機制 [Fan et al., 2021, Feichtenhofer et al., 2022];非端到端VLMs(離線提取視頻特征并訓練模型,這些模型采用視頻特征而不是長視頻的像素幀)。與圖像-文本模型類似,早期的視頻-文本模型從頭開始訓練視覺和文本組件,并采用自監督標準 [Alayrac et al., 2016]。但與圖像模型不同的是,對比視頻-文本模型并不是首選方法,視頻和文本的早期融合和時間對齊更受青睞 [Sun et al., 2019],因為與計算視頻的全局表示相比,表示中的時間粒度更為有趣。最近,視頻-語言模型中也出現了類似于圖像-語言模型的趨勢:預訓練的LLMs被用于與視頻編碼器對齊,增強LLMs的視頻理解能力。現代技術如視覺指令微調也被廣泛使用并適應于視頻。

結論

將視覺映射到語言仍然是一個活躍的研究領域。從對比方法到生成方法,有許多訓練VLMs的方法。然而,高計算和數據成本常常成為大多數研究人員的障礙。這主要激勵了使用預訓練的LLMs或圖像編碼器,僅學習模態之間的映射。無論訓練VLMs的方法是什么,都有一些普遍的考慮需要記住。大規模高質量的圖像和標題是提升模型性能的重要因素。改進模型的錨定能力和與人類偏好的對齊也是提高模型可靠性的重要步驟。 為了評估性能,已經引入了多個基準來測量視覺語言和推理能力;然而,其中許多基準有嚴重的局限性,如僅使用語言先驗就能解決。將圖像與文本綁定并不是VLMs的唯一目標;視頻也是一種可以用來學習表示的重要模態。然而,在學習良好的視頻表示之前,還有許多挑戰需要克服。VLMs的研究仍然非常活躍,因為要使這些模型更可靠,還需要很多缺失的組件。

付費5元查看完整內容

相關內容

視覺與語言導航(VLN)近年來受到越來越多的關注,許多方法已經涌現出來以推動其發展。基礎模型的顯著成就已經塑造了VLN研究的挑戰和提出的方法。在本綜述中,我們提供了一種自上而下的審視方法,采用了一種原則性框架進行具身規劃和推理,并強調了利用基礎模型應對VLN挑戰的當前方法和未來機會。我們希望通過深入的討論提供有價值的資源和見解:一方面,用以標記進展里程碑,探索基礎模型在該領域的機會和潛在作用;另一方面,為基礎模型研究者整理VLN中的各種挑戰和解決方案。

開發能夠與人類及其周圍環境互動的具身代理是人工智能(AI)的長期目標之一(Nguyen et al., 2021; Duan et al., 2022)。這些AI系統在實際應用中具有巨大的潛力,可以作為多功能助手在日常生活中發揮作用,如家庭機器人(Szot et al., 2021)、自動駕駛汽車(Hu et al., 2023)和個人助理(Chu et al., 2023)。一個推進這一研究方向的正式問題設置是視覺與語言導航(VLN)(Anderson et al., 2018),這是一項多模態和協作任務,要求代理根據人類指令探索三維環境,并在各種模糊情況下進行在場通信。多年來,VLN在仿真環境(Chang et al., 2017; Savva et al., 2019; Xia et al., 2018)和實際環境(Mirowski et al., 2018; Banerjee et al., 2021)中都進行了探索,產生了許多基準測試(Anderson et al., 2018; Ku et al., 2020; Krantz et al., 2020),每個基準測試都提出了稍有不同的問題表述。

近年來,基礎模型(Bommasani et al., 2021)從早期的預訓練模型如BERT(Kenton and Toutanova, 2019)到當代的大型語言模型(LLMs)和視覺語言模型(VLMs)(Achiam et al., 2023; Radford et al., 2021)展現出了在多模態理解、推理和跨領域泛化方面的非凡能力。這些模型在海量數據上進行了預訓練,如文本、圖像、音頻和視頻,并可以進一步適應廣泛的具體應用,包括具身AI任務(Xu et al., 2024)。將這些基礎模型整合到VLN任務中標志著具身AI研究的一個關鍵進展,表現出顯著的性能提升(Chen et al., 2021b; Wang et al., 2023f; Zhou et al., 2024a)。基礎模型還為VLN領域帶來了新的機會,例如從多模態注意力學習和策略政策學習擴展到預訓練通用的視覺和語言表征,從而實現任務規劃、常識推理以及泛化到現實環境。

盡管基礎模型對VLN研究產生了最近的影響,以往關于VLN的綜述(Gu et al., 2022; Park and Kim, 2023; Wu et al., 2024)來自基礎模型時代之前,主要關注VLN基準測試和傳統方法,即缺少利用基礎模型解決VLN挑戰的現有方法和機會的全面概述。特別是隨著LLMs的出現,據我們所知,尚未有綜述討論它們在VLN任務中的應用。此外,與以前將VLN任務視為孤立的下游任務的努力不同,本綜述的目標有兩個:首先,標記進展里程碑,探索基礎模型在該領域的機會和潛在作用;其次,在系統框架內為基礎模型研究者組織VLN中的不同挑戰和解決方案。為建立這種聯系,我們采用LAW框架(Hu and Shu, 2023),其中基礎模型作為世界模型和代理模型的骨干。該框架提供了基礎模型中推理和規劃的一般景觀,并與VLN的核心挑戰緊密相關。

具體而言,在每一步導航中,AI代理感知視覺環境,接收來自人類的語言指令,并基于其對世界和人類的表征進行推理,以規劃行動并高效完成導航任務。如圖1所示,世界模型是代理理解周圍外部環境以及其行動如何改變世界狀態的抽象(Ha and Schmidhuber, 2018; Koh et al., 2021)。該模型是一個更廣泛的代理模型的一部分,該代理模型還包含一個人類模型,該模型解釋其人類伙伴的指令,從而告知代理的目標(Andreas, 2022; Ma et al., 2023)。為了回顧VLN領域不斷增長的工作并理解所取得的里程碑,我們采用自上而下的方法進行綜述,重點關注從三個角度出發的基本挑戰:

  • 學習一個世界模型來表示視覺環境并泛化到未見過的環境。
  • 學習一個人類模型以有效地從基礎指令中解釋人類意圖。
  • 學習一個VLN代理,利用其世界和人類模型來實現語言的基礎、溝通、推理和規劃,使其能夠按指示導航環境。

我們在圖2中展示了一個分層和細粒度的分類法,基于基礎模型討論每個模型的挑戰、解決方案和未來方向。為了組織本綜述,我們首先簡要概述該領域的背景和相關研究工作以及可用的基準測試(第2節)。我們圍繞提出的方法如何解決上述三個關鍵挑戰進行結構化審查:世界模型(第3節)、人類模型(第4節)和VLN代理(第5節)。最后,我們討論了當前的挑戰和未來的研究機會,特別是在基礎模型興起的背景下(第6節)。

VLN任務定義

一個典型的視覺與語言導航(VLN)代理在指定位置接收來自人類指令者的(一系列)語言指令。代理使用以自我為中心的視覺視角在環境中導航。通過遵循指令,代理的任務是在一系列離散視圖或較低級別的動作和控制(例如,前進0.25米)上生成軌跡,以到達目的地。如果代理到達距離目的地指定距離(例如3米)以內的位置,則任務被認為成功。此外,代理可以在導航過程中與指令者交換信息,可以請求幫助或進行自由形式的語言交流。此外,人們對VLN代理集成額外任務(如操作任務(Shridhar et al., 2020)和物體檢測(Qi et al., 2020b))的期望也在不斷增加。

基準測試

如表1所示,現有的VLN基準測試可以根據幾個關鍵方面進行分類:(1)導航發生的世界,包括領域(室內或室外)和環境的具體情況。(2)涉及的人機交互類型,包括交互回合(單次或多次)、通信格式(自由對話、限制對話或多重指令)和語言粒度(動作導向或目標導向)。(3)VLN代理,包括其類型(如家庭機器人、自動駕駛車輛或自主飛行器)、動作空間(基于圖形、離散或連續)和額外任務(操作和物體檢測)。(4)數據集的收集,包括文本收集方法(人類生成或模板化)和路徑演示(人類執行或規劃生成)。有代表性的是,Anderson等人(2018)基于Matterport3D模擬器(Chang et al., 2017)創建了Room-to-Room(R2R)數據集,代理需要遵循精細的導航指令到達目標。Room-across-Room(RxR)(Ku et al., 2020)是一個多語言版本,包括英語、印地語和泰盧固語指令。它提供了更大的樣本量,并為虛擬姿態提供了時間對齊的指令,豐富了任務的語言和空間信息。Matterport3D允許VLN代理在離散環境中操作,并依賴預定義的連接圖進行導航,代理通過在相鄰節點之間的傳送在圖上移動,被稱為VLN-DE。為了使簡化的設置更現實,Krantz等人(2020)、Li等人(2022c)、Irshad等人(2021)通過將離散的R2R路徑轉移到連續空間(Savva等人,2019)提出了連續環境中的VLN(VLN-CE)。Robo-VLN(Irshad等人,2021)通過引入在機器人環境中更現實的連續動作空間的VLN,進一步縮小了模擬到現實的差距。最近的VLN基準測試經歷了幾次設計變更和期望,我們在第6節中討論這些變更。

評估指標

三種主要指標用于評估導航路徑規劃性能(Anderson等人,2018):(1)導航誤差(NE),代理最終位置與目標位置之間最短路徑距離的平均值;(2)成功率(SR),最終位置足夠接近目標位置的百分比;(3)成功率加權路徑長度(SPL),通過軌跡長度標準化成功率。一些其他指標用于衡量指令遵循的忠實度和預測軌跡與真實軌跡之間的一致性,例如:(4)按長度加權的覆蓋得分(CLS)(Jain等人,2019);(5)歸一化動態時間規整(nDTW)(Ilharco等人,2019),對偏離真實軌跡的情況進行懲罰;以及(6)按成功率加權的歸一化動態時間規整(sDTW)(Ilharco等人,2019),對偏離真實軌跡的情況進行懲罰,并考慮成功率。

付費5元查看完整內容

大型語言模型(LLMs)在各個領域展示了卓越的能力,吸引了學術界和工業界的廣泛關注。盡管它們表現出色,但LLMs的巨大規模和計算需求對實際部署帶來了相當大的挑戰,特別是在資源有限的環境中。壓縮語言模型同時保持其精度的努力已成為研究的重點。在各種方法中,知識蒸餾已成為一種有效的技術,可以在不大幅降低性能的情況下提高推理速度。本文從方法、評估和應用三個方面進行了詳細的調查,探討了專門為LLMs量身定制的知識蒸餾技術。具體來說,我們將方法分為白盒KD和黑盒KD,以更好地說明它們的差異。此外,我們還探討了不同蒸餾方法之間的評估任務和蒸餾效果,并提出了未來研究的方向。通過深入理解最新進展和實際應用,這項調查為研究人員提供了寶貴的資源,為該領域的持續進步鋪平了道路。

** 簡介**

大型語言模型(LLMs)[2, 17, 130, 146, 166] 的出現顯著提高了各種生成任務中的文本生成質量,成為人工智能領域一個關鍵且廣受討論的話題。與之前的模型相比,這些模型對未見數據的泛化能力更強。此外,它們還展示了小型模型所不具備的能力,如多步推理[47, 69, 83] 和指令執行[103, 144, 154]。LLMs的成功通常歸因于訓練數據的增加和模型參數數量的增加(例如,具有1750億參數的GPT-3[12])。然而,參數規模的擴展帶來了顯著的缺點,尤其是在高推理成本和大量內存需求方面,使得實際部署變得具有挑戰性。例如,GPT-3需要大約350GB的模型存儲(float16),并且推理至少需要5個每個80GB內存的A100 GPU,這對碳排放的影響顯著。為了解決這些挑戰,模型壓縮[30, 40] 已成為一種可行的解決方案。模型壓縮旨在將大型、資源密集型模型轉化為適合在受限移動設備上存儲的更緊湊版本。這一過程可能涉及優化以減少延遲以實現更快的執行,或在最小延遲和模型性能之間取得平衡。因此,在現實場景中應用這些高容量模型的一個關鍵目標是壓縮它們,減少參數數量,同時保持最大性能。

隨著減少計算資源需求的必要性日益重要,知識蒸餾(Knowledge Distillation, KD)[43] 作為一種有前景的技術出現。KD是一種機器學習方法,專注于通過從大型復雜模型向更小、更高效的模型傳遞知識來壓縮和加速模型。這種技術經常被用來將存儲在大型深度神經網絡模型中的知識濃縮到更小的模型中,從而減少計算資源需求并提高推理速度而不會大幅犧牲性能。從根本上講,知識蒸餾利用大型模型在大量數據集上獲得的廣泛知識來指導較小模型的訓練。這些知識通常包括輸出概率分布、中間層表示和大型模型的損失函數。在訓練過程中,較小的模型不僅要匹配原始數據標簽,還要模仿較大模型的行為。對于像GPT-4[2]這樣只能通過API訪問的高級模型,生成的指令和解釋可以幫助訓練學生模型[54]。隨著知識蒸餾的最新進展,許多研究綜合了各種蒸餾技術的最新進展。具體來說,Gou等[37] 對知識蒸餾進行了廣泛的綜述,涉及六個關鍵方面:知識類別、訓練方案、師生架構、蒸餾算法、性能比較和應用。同樣,Wang等[141] 詳細總結了與視覺任務相關的知識蒸餾技術的研究進展和技術細節。Alkhulaifi等[4] 介紹了一種創新的度量標準,稱為蒸餾度量標準,他們用它來評估不同的知識壓縮方法。此外,Hu等[48] 探討了跨多個蒸餾目標的各種師生架構,提出了不同的知識表示及其相應的優化目標,并系統地概述了師生架構,結合了代表性的學習算法和有效的蒸餾方案。

現有關于知識蒸餾的綜述為模型壓縮奠定了重要基礎并提供了寶貴的見解[13, 51, 64]。然而,LLMs的出現給KD帶來了若干新挑戰:1)大型語言模型設計并非僅用于單一任務如文本生成,而是廣泛應用于各種任務和未見數據,包括新興能力。因此,評估壓縮LLMs的泛化能力需要仔細和全面的評估。2)現有綜述僅是對現有工作的總結,未提供將KD技術應用于壓縮和部署LLMs的具體示例。這種案例研究可以幫助讀者為不同規模的LLMs選擇最佳的KD方案。

為應對這些挑戰,已經開發出各種專為LLMs設計的知識蒸餾算法。本文旨在提供這些方法的全面而有見地的指南。我們的調查的總體分類框架如圖1所示,從方法、評估和應用三個方面審視LLMs的蒸餾算法。為了清楚解釋這些方法,我們將其分為白盒KD和黑盒KD。白盒KD包括兩種不同類型:基于Logits的方法[43],在Logits層面傳遞知識,以及基于Hint的方法[109],通過中間特征傳遞知識。黑盒KD涉及一種基于API的方法,其中僅能訪問教師模型的輸出。此類別通常包括三種方法:上下文學習[52]、鏈式思維[69] 和指令執行[144]。此外,我們同時評估了上述兩種蒸餾算法在魯棒性基準上的有效性[94, 128, 138]。最后,我們討論了不同蒸餾方法之間的關系和應用場景,并提出了未來研究方向。

本文其余部分安排如下:第2節簡要回顧了知識蒸餾方法的定義。接下來,第3節深入探討了LLMs領域的蒸餾和評估方法。第4節展示了應用場景,第5節總結了知識蒸餾的挑戰并探討了未來研究方向。最后,第6節對本文進行了總結。

付費5元查看完整內容

隨著大語言模型(LLM)在各個領域的應用不斷擴大,它們適應數據、任務和用戶偏好的持續變化的能力變得至關重要。使用靜態數據集的傳統訓練方法不足以應對現實世界信息的動態特性。終身學習或持續學習通過使LLM能夠在其運行生命周期內持續學習和適應,整合新知識,同時保留先前學習的信息并防止災難性遺忘來解決這一問題。我們的綜述探討了終身學習的現狀,根據新知識的整合方式將策略分為兩類:內在知識,LLM通過完全或部分訓練將新知識吸收到其參數中;外部知識,通過將新知識作為外部資源(如維基百科或API)引入而不更新模型參數。我們的綜述的主要貢獻包括:(1)引入了一種新穎的分類法,將終身學習的大量文獻劃分為12種情景;(2)識別了所有終身學習情景中的常見技術,并將現有文獻分類到不同的技術組中;(3)強調了在LLM之前時代較少探索的模型擴展和數據選擇等新興技術。資源可在//github.com/qianlima-lab/awesome-lifelong-learningmethods-for-llm找到。

隨著大語言模型(LLM)在各個領域的應用不斷擴大,這些模型適應數據、任務和用戶偏好持續變化的能力變得至關重要。傳統的訓練方法依賴靜態數據集來訓練LLM,越來越無法應對現實世界信息的動態特性。終身學習(也稱為持續學習、增量學習),或LLM在其運行生命周期內持續和自適應學習的能力,解決了這一挑戰,通過整合新知識,同時保留先前學習的信息,從而防止災難性遺忘。圖1提供了終身學習的示意圖。 本綜述深入探討了終身學習的復雜領域,根據新知識的整合方式將策略分為兩大類:內在知識和外部知識。每個類別包含不同的方法,旨在增強LLM在各種情境下的適應性和有效性。圖2展示了LLM終身學習方法的分類。 內在知識類通過完全或部分訓練將新知識吸收到LLM的參數中,包括持續預訓練和持續微調等策略。例如,在工業應用中,常采用持續垂直領域預訓練,公司經常使用金融等領域的特定數據重新訓練其LLM。盡管這提高了特定領域的性能,但也有可能削弱模型的廣泛知識基礎,說明了在專業適應性和通用知識保留之間保持平衡的挑戰。持續微調涵蓋了特定情境的方法,如文本分類、命名實體識別、關系抽取和機器翻譯等,以及任務無關的方法,如指令微調、對齊和知識編輯。此外,在持續對齊中使用了人類反饋的強化學習,以確保LLM遵守人類價值觀,如安全和禮貌,突顯了所謂的“對齊稅”,即過于專注于特定價值觀可能會導致模型的通用能力下降。

外部知識類通過將新知識作為外部資源(如維基百科或API)引入,而不更新模型參數,包括基于檢索和工具的終身學習,利用外部數據源和計算工具來擴展模型的能力。基于檢索的策略,如檢索增強生成,通過提供上下文相關、準確和最新的外部數據庫(如維基百科)信息來增強文本生成,確保模型輸出隨時間保持相關性。同時,工具學習類借鑒人類工具使用的類比,模型學習使用外部計算工具,從而無需直接修改其核心知識庫,拓寬了其問題解決能力。

通過對這些組及其各自類別的詳細檢查,本文旨在強調將終身學習能力整合到LLM中,從而增強其在實際應用中的適應性、可靠性和整體性能。通過解決與終身學習相關的挑戰并探索該領域的創新,本綜述旨在為開發更強大和多功能的LLM做出貢獻,使其能夠在不斷變化的數字環境中蓬勃發展。

本綜述與現有綜述的差異。近年來,終身學習已成為一個越來越受歡迎的研究主題。大量綜述探討了神經網絡的終身學習。大多數現有綜述主要集中在卷積神經網絡(CNN)的終身學習,探討了CNN的各種終身學習情景,包括圖像分類、分割、目標檢測、自動系統、機器人和智慧城市。此外,一些綜述探討了圖神經網絡的終身學習。然而,只有少量文獻關注語言模型的終身學習。Biesialska等是關于自然語言處理(NLP)中終身學習的早期綜述,但他們只關注詞和句子表示、語言建模、問答、文本分類和機器翻譯。Ke等關注終身學習情景,包括情感分類、命名實體識別和摘要。他們還討論了知識轉移和任務間類分離的技術。Zhang等提供了關于將LLM與不斷變化的世界知識對齊的技術的全面回顧,包括持續預訓練、知識編輯和檢索增強生成。Wu等從持續預訓練、持續指令微調和持續對齊三個方面重新審視了終身學習。Shi等從垂直方向(或垂直持續學習)和水平方向(或水平持續學習)兩個方向研究了LLM的終身學習。Jovanovic等回顧了幾種實時學習范式,包括持續學習、元學習、參數高效學習和專家混合學習。雖然最近的綜述收集了終身學習的最新文獻,但它們沒有涵蓋持續文本分類、持續命名實體識別、持續關系抽取和持續機器翻譯等情景,并且對持續對齊、持續知識編輯、基于工具的終身學習和基于檢索的終身學習的討論較少。據我們所知,我們是第一個提供對LLM終身學習方法從12種情景進行徹底和系統檢查的綜述。

本綜述的貢獻。我們的綜述的主要貢獻包括

  • 新穎的分類法:我們引入了一個詳細且結構化的框架,將終身學習的廣泛文獻劃分為12種情景。

-** 常見技術**:我們在所有終身學習情景中識別了常見技術,并將現有文獻分類到每個情景內的各種技術組中。

  • 未來方向:我們強調了模型擴展和數據選擇等在LLM之前時代較少探索的新興技術。

本綜述的組織結構如下。第二節介紹問題的形成、評價指標、常見技術、基準和數據集。第三節、第四節和第五節檢查了持續預訓練、持續微調和基于外部知識的終身學習的現有技術。第六節討論了LLM終身學習的現有挑戰、當前趨勢和未來方向,并總結了本綜述。

付費5元查看完整內容

自動程序修復(APR)試圖修補軟件缺陷并減少手動調試的工作。最近,隨著大型語言模型(LLMs)的進步,提出了越來越多的APR技術,顯著地促進了軟件開發和維護,并展示了卓越的性能。然而,由于基于LLM的APR領域的持續探索,研究人員很難理解當前的成就、挑戰以及潛在的機會。本項工作提供了第一個系統的文獻綜述,總結了2020年至2024年間LLMs在APR中的應用。我們分析了127篇關于LLMs、APR及其整合視角的相關論文。首先,我們分類了現有的流行LLMs,這些模型被應用于支持APR,并概述了三種部署策略。此外,我們詳細描述了一些從LLMs受益的特定修復場景,例如,語義錯誤和安全漏洞。進一步地,我們討論了幾個將LLMs整合到APR研究中的關鍵方面,例如,輸入形式和開放科學。最后,我們強調了仍需研究的一系列挑戰和未來研究的潛在指南。總體而言,我們的論文為APR社區提供了一個系統的研究概覽,幫助研究者全面理解成就并推動未來的研究。我們的工具在GitHub倉庫公開可用://github.com/iSEngLab/AwesomeLLM4APR。

軟件缺陷被公認為不可避免且具有破壞性,為全球用戶帶來安全問題,并每年造成數十億美元的經濟損失【11, 156】。對開發者而言,手動修復檢測到的軟件缺陷既非小事也耗時【13】。自動程序修復(APR)在軟件開發和維護中扮演著至關重要的角色,旨在無需人工干預下修復軟件缺陷。自2009年基礎工作GenProg【80, 155】以來,過去幾十年中APR已被廣泛研究【43, 105】,研究者們提出了多種APR技術,包括基于啟發式的【64, 80, 98, 177】、基于約束的【31, 99, 169, 171】以及基于模式的【76, 91, 92】。最近,受到深度學習(DL)進步的啟發,越來越多基于學習的APR技術被提出,這些技術利用神經網絡模型自動學習修復缺陷的模式【18, 66, 84, 85, 96, 142, 174, 175, 199, 200】。得益于DL模型從大量代碼庫中學習隱藏修復模式的強大能力,基于學習的APR在過去幾年中取得了顯著的表現【182】,吸引了學術界和工業界的廣泛關注【69, 70, 73】。 最近,大型語言模型(LLMs)已成功應用于廣泛的源代碼相關任務【147, 184】,如代碼生成【82, 148, 150, 201】、代碼總結【132, 133, 146】和測試生成【4, 24, 57, 108, 128】。得益于龐大的模型參數和廣闊的訓練數據,LLMs展示了令人印象深刻的性能,并從根本上改變了軟件工程(SE)社區的研究范式。在APR領域,從先驅研究開始,例如TFix【7】、CIRCLE【176】和AlphaRepair【163】,社區已經見證了利用LLMs的修復研究的爆炸性增長,已經取得了相當的優勢,并進一步顯示了未來研究的重大潛力。然而,LLMs在APR中的整合是一個相當復雜的任務,使得有興趣的研究者難以理解現有工作。例如,現有基于LLM的APR研究涵蓋了不同的研究視角(例如,經驗性【162】、技術性【163】和基準研究【187】)、修復階段(例如,補丁生成【186】和正確性評估【183】)、修復場景(例如,靜態警告【69】和語法錯誤【70】)、模型架構(例如,僅編碼器【185】和僅解碼器【100】)以及模型使用范式(例如,微調【176】、少量樣本【108】和零樣本【186】)。盡管該領域的探索仍在進行中,目前的文獻中缺乏關于LLMs在APR中應用的詳盡和系統的綜述,這使得研究人員難以理解現有工作的多樣化設計選擇和進行后續研究。 本文。為了彌補這一差距,我們的工作提供了第一個系統的文獻綜述,關于迅速出現的基于LLM的APR研究的部署。基于此,社區可以全面了解現有基于LLM的APR技術的優勢、劣勢和空白。我們討論了在最先進的APR研究中廣泛采用的LLMs是哪些,以及它們如何被整合到修復工作流中。我們收集了127篇相關論文,并從LLMs、APR和整合視角進行了系統分析。通過我們的分析,我們揭示了當前的挑戰,并指出了基于LLM的APR研究可能的未來方向。總體來說,這項工作為LLM基于APR社區正在進行的進展提供了一個徹底的概覽,幫助研究者在這個迅速發展的領域中導航,并推動創新實踐。 貢獻。總結來說,本工作做出了以下貢獻: * 調查方法論。我們進行了第一個系統的文獻綜述,涵蓋了127篇高質量的APR論文,這些論文利用近期的LLMs應對2020年至2024年4月的修復挑戰。 * 趨勢分析。我們就發布趨勢、出版地點分布和貢獻類型對選定的APR研究進行了詳細分析。 * LLMs視角。我們總結了46種用于支持程序修復的LLMs,并提供了APR領域不同LLM類別的典型使用和趨勢的概述。 * APR視角。我們描述了LLMs應用的常見修復場景,涵蓋了18種錯誤類型,如安全漏洞和編程問題。 * 整合視角。我們討論了一些關鍵因素,包括數據集、輸入表現形式和開放科學,這些因素影響LLMs整合到APR中的性能。 * 挑戰與機遇。我們總結了在APR領域應用LLMs的一些關鍵挑戰,并指出了未來基于LLM的APR研究的一些潛在指南。

論文組織。第2節介紹了關于APR和LLMs的一些基本概念。然后,根據上述貢獻,第3節列出了我們的研究問題(RQs)和收集與我們工作相關論文的研究方法。第4節調查了基于LLM的APR研究的趨勢和分布。第5節總結了現有APR研究所使用的LLMs。第6節闡述了LLMs應用的主要修復場景,并對每項工作進行了簡要描述。第7節討論了LLMs與APR整合過程中的一些關鍵因素,包括數據集、輸入表現形式、補丁正確性和開放科學。第8節討論了一些挑戰和實用指南。第9節得出結論。 我們試圖通過總結相關研究并進一步提供后續研究的指南,提供近期LLMs在APR應用的全面概覽。為了實現這一點,這個系統的文獻綜述回答了以下研究問題(RQs): * RQ1:利用LLMs的APR研究的趨勢是什么

(1) LLMs在修復軟件缺陷方面顯示出蓬勃的發展趨勢,從2020年到2024年間共有127篇論文。 (2) 在APR中使用LLMs的會議論文數量顯著超過期刊論文,其中ICSE和TOSEM分別是最受歡迎的會議和期刊場所。 (3) 基于LLM的APR論文發表在不同的研究領域,包括軟件工程(SE)、人工智能(AI)和安全性。 (4) 有18種編程語言已被基于LLM的APR應用,其中Java、Python、C和C++是最常被目標的。 (5) LLMs已被應用于一些代表性較低的編程語言,如Verilog和Rust。 (6) 收集的大多數研究主要集中于引入新技術和進行實證研究,而有兩篇論文執行了用戶研究,以了解從業者對利用各種LLMs解決修復缺陷任務的態度和經驗。 * RQ2:哪些受歡迎的LLMs已被應用于支持APR

(1) 我們總結了46種不同的LLMs,這些模型已被用于修復缺陷,并且可以根據模型架構分為三類,即僅編碼器、編碼器-解碼器和僅解碼器。 (2) 僅解碼器的LLMs是最常使用的模型架構,其中四種最受歡迎的LLMs均為僅解碼器模型。 (3) ChatGPT、GPT-4、CodeT5和Codex是現有基于LLM的APR研究中最受歡迎的LLMs,分別被使用了37次、25次、23次和21次。 (4) 我們總結了三種典型的利用LLMs中封裝的廣泛知識來處理特定程序修復任務的方法,即微調、少量樣本和零樣本。 * RQ3:哪些修復場景已由LLMs促進

總體來看,我們觀察到LLMs已在文獻中的廣泛修復場景中得到應用,涉及18種錯誤類型。在一些由傳統APR主導的常見場景中,例如語義錯誤,研究者繼續投入大量努力研究LLMs的應用。此外,由于LLMs從所有可能的互聯網數據中學到的通用知識,基于LLM的APR已擴展到一些以前未探索的罕見場景,如硬件缺陷和Web UI。 * RQ4:哪些關鍵因素有助于LLMs在APR中的整合

(1) 我們總結了78種不同的數據集,這些數據集被用來基準測試LLMs在修復缺陷中的應用。 (2) 在基于LLM的APR中,Defects4J、QuixBugs、BFP、CVEfixes和Big-Vul是最常使用的。 (3) 我們將所有收集的論文中的輸入形式分類為五組:原始修復輸入、提示輸入、掩碼輸入、對話式輸入和結構感知輸入。 (4) 提示輸入是在應用LLMs進行程序修復時最常用的形式,這表明設計有效的提示對于利用LLMs的自然語言處理能力尤為重要。 (5) 我們總結了一些利用LLMs預測補丁正確性的研究。 (6) 所有收集的論文中有62.99%已經開源了其工具,而在頂級SE出版物中,這一比例增加到了86.84%。

付費5元查看完整內容

多語言大型語言模型利用強大的大型語言模型處理和響應多種語言的查詢,這在多語言自然語言處理任務中取得了顯著的成功。盡管取得了這些突破,但在這一領域仍缺乏一個全面的綜述來總結現有方法和最近的發展。為此,在本文中,我們提出了一個徹底的審查,并提供了一個統一的視角來總結多語言大型語言模型(MLLMs)文獻中的最新進展和新興趨勢。本文的貢獻可以總結如下:(1)第一份綜述:據我們所知,我們采取了第一步,在多語言對齊的基礎上對MLLMs研究領域進行了徹底的審查;(2)新分類法:我們提出了一個新的統一視角來總結MLLMs的當前進展;(3)新前沿:我們突出了幾個新興的前沿并討論了相應的挑戰;(4)豐富資源:我們收集了大量的開源資源,包括相關論文、數據語料庫和排行榜。我們希望我們的工作能為社區提供快速訪問并推動MLLMs的突破性研究。

近年來,大型語言模型(LLMs)在各種自然語言處理任務上取得了優異的表現(Brown et al., 2020; Touvron et al., 2023a; Bang et al., 2023; Zhao et al., 2023b; Pan et al., 2023; Nguyen et al., 2023a; Trivedi et al., 2023),并展示出了令人驚訝的突發能力,包括上下文學習(Min et al., 2022; Dong et al., 2022)、思維鏈推理(Wei et al., 2022; Huang et al., 2023a; Qin et al., 2023a)以及規劃(Driess et al., 2023; Hu et al., 2023b)。然而,大多數LLMs主要關注英語任務(Held et al., 2023; Zhang et al., 2023i),使其在多語言環境,尤其是低資源環境下表現不足。

實際上,全球有超過7000種語言。隨著全球化的加速,大型語言模型的成功應考慮服務于不同國家和語言。為此,多語言大型語言模型(MLLMs)具有全面處理多種語言的優勢,越來越受到關注。具體來說,現有的MLLMs可以根據不同階段大致分為兩組。第一系列工作(Xue et al., 2020; Workshop et al., 2022; Zhang et al., 2023g; Muennighoff et al., 2022)利用多語言數據調整參數以提升整體多語言性能。第二系列工作(Shi et al., 2022a; Qin et al., 2023b; Huang et al., 2023a)還采用先進的提示策略,在參數凍結推理階段挖掘MLLMs的更深層次多語言潛力。

盡管在MLLMs上取得了顯著成功,但仍缺乏對最近努力的全面回顧和分析,這阻礙了MLLMs的發展。為了彌補這一差距,我們首次嘗試對MLLMs進行全面而詳盡的分析。具體來說,我們首先介紹廣泛使用的數據資源(§3)。此外,由于跨語言對齊的關鍵挑戰,我們根據對齊策略引入了新的分類法(§4),旨在提供文獻中的統一視角,包括參數調整對齊和參數凍結對齊(如圖1所示)。具體來說,參數調整對齊需要在預訓練、監督微調、人類反饋學習和下游微調過程中調整模型參數以增強英語和目標語言之間的對齊。參數凍結對齊指的是通過跨語言提示實現的對齊,無需調整參數。最后,我們指出了一些潛在的前沿領域以及MLLMs面臨的相應挑戰,希望激發后續研究(§5)。

本工作的貢獻可以總結如下:(1)首次綜述:據我們所知,我們是第一個根據多語言對齊在MLLMs文獻中提出全面綜述的;(2)新分類法:我們引入了將MLLMs分類為參數凍結和參數調整兩種對齊類型的新分類法,為理解MLLMs文獻提供了統一視角;(3)新前沿:我們討論了一些新興的前沿,并突出了它們的挑戰和機遇,希望為未來研究的發展鋪路;(4)詳盡資源:我們首次嘗試組織MLLMs資源,包括開源軟件、多樣的語料庫和相關出版物的精選列表,可在//multilingual-llm.net訪問。 我們希望這項工作能成為研究者的寶貴資源,并激發未來研究的更多突破。

如圖4所示,我們引入了一種新的分類法,包括參數調整對齊(§4.1)和參數凍結對齊(§4.2),旨在為研究人員提供一個統一的視角,以理解MLLMs文獻。具體來說,參數調整對齊(PTA)包括一系列逐步進階的訓練和對齊策略,包括預訓練對齊、監督微調(SFT)對齊、人類反饋學習(RLHF)對齊,以及最終的下游微調對齊。這些階段的共同目標是系統地優化模型參數,以對齊多語言性能。相反,參數凍結對齊(PFA)側重于基于PTA的四種提示策略:直接提示、代碼切換提示、翻譯對齊提示和檢索增強對齊。這種方法保持原始模型參數,以實現預期結果。

付費5元查看完整內容

大模型在人工智能領域取得了革命性的突破,但它們也可能帶來潛在的擔憂。為了解決這些擔憂,引入了對齊技術,以使這些模型遵循人類的偏好和價值觀。盡管過去一年取得了相當大的進展,但在建立最佳對齊策略時仍然存在各種挑戰,例如數據成本和可擴展的監督,如何對齊仍然是一個懸而未決的問題。在這篇綜述文章中,我們全面調查了價值對齊方法。我們首先解析對齊的歷史背景,追溯到20世紀20年代(它來自哪里),然后深入探討對齊的數學本質(它是什么),揭示了固有的挑戰。在此基礎上,我們詳細檢查了現有的對齊方法,這些方法分為三類:強化學習、監督式微調和上下文內學習,并展示了它們之間的內在聯系、優勢和限制,幫助讀者更好地理解這一研究領域。此外,還討論了兩個新興主題:個人對齊和多模態對齊,作為該領域的新前沿。展望未來,我們討論了潛在的對齊范式以及它們如何處理剩余的挑戰,展望未來對齊的方向。

大模型,是指在大量數據上訓練并包含超過數十億參數的神經模型(Bommasani et al., 2021),通常包括大型語言模型(LLMs)和大型多模態模型(LMMs)。LLMs 通常是基于Transformer(Vaswani et al., 2017)的大規模語言模型,以自回歸方式訓練(Zhao et al., 2023a),如GPT-3(Brown et al., 2020)、PaLM(Narang and Chowdhery, 2022)、ChatGPT(Ouyang et al., 2022)、Bard(Aydin, 2023)和LLaMA(Touvron et al., 2023a)。LLMs 的卓越能力也促進了LMMs 的發展,LMMs 能夠處理圖像(視覺)和自然語言文本(語言)(Dirik and Paul, 2023),如PaLM-E(Driess et al., 2023)、LLaVA(Liu et al., 2023c)、DALL-E 3(Betker et al., 2023)和Gemini(Team et al., 2023)。與小模型(Cho et al., 2014;Devlin et al., 2018)不同,大模型展示了兩個獨特特征:規模化法則(Kaplan et al., 2020),闡明了模型規模增長與性能改進之間的一致關系,以及新興能力(Wei et al., 2022a)顯示,當模型規模超過某一閾值時,意外地出現了在小模型中未觀察到的新能力,如上下文內學習(Wang et al., 2023a)、指令跟隨和跨多種任務和領域的逐步推理(Wei et al., 2022b),革新了AI的角色。因此,語言模型(LMs)經歷了逐步的演化,從統計語言模型(SLMs)(Pauls and Klein, 2011)和神經語言模型(NLMs)(Cho et al., 2014)開始,進步到預訓練語言模型(PLMs)(Devlin et al., 2018;Radford et al., 2019),最終導致LLMs的復雜出現。沿著這樣的軌跡,LLMs 也通過整合大規模圖文對和精心設計的目標進行預訓練,建立這兩種模態之間的內在聯系(Dosovitskiy et al., 2020;Liu et al., 2021)。這些大模型已經演變成各種變體,如圖1所示,深刻影響了多個行業和領域,根本性地改變了我們解決實際問題的方式。 然而,每枚硬幣都有兩面。由于大模型通常是在從互聯網爬取的數據集上預訓練的,它們也可能內化風險信息并引發一些潛在的擔憂(Tamkin et al., 2021; Bender et al., 2021; Kaddour et al., 2023),包括產生社會偏見(Sheng et al., 2019)、有害語言和排斥(Gehman et al., 2020)、錯誤信息(Bommasani et al., 2021)和社會經濟傷害(Weidinger et al., 2022),對社會造成深遠的影響。此外,觀察到兩個風險特征,(1)逆規模化:某些風險可能不僅僅是保持不變,而且隨著模型規模的增加而惡化(McKenzie et al., 2023),(2)新興風險:未見的風險可能出現或顯著放大的現有風險隨著更大的模型而出現(Wei et al., 2022a),使得之前建立的特定風險方法難以處理迅速出現的潛在問題。對這些倫理和社會風險給予極高的重視是至關重要的。低估這些風險可能會導致嚴重的后果。例如,可能煽動仇恨或暴力的有害語言,可能導致財產損失的私人數據泄露,以及在敏感領域可能造成傷害的錯誤信息,例如不準確的法律或醫療建議(Weidinger et al., 2021)。

為了解決上述風險,研究人員開發了各種對齊方法,以使LLMs與人類指令、偏好和價值觀對齊(Ouyang et al., 2022; Liu et al., 2022; Rafailov et al., 2023)。在LMMs的背景下,"對齊"這一術語傳統上指的是不同模態之間的對齊,如視覺和語言(Jia et al., 2021; Radford et al., 2021)。然而,隨著LLMs中對齊技術的進步,現在它傾向于代表使LMMs對齊,以使它們遵循人類指令并完成多樣化的任務(Liu et al., 2023c; Zhu et al., 2023; Dai et al., 2023)。對齊的概念可以追溯到諾伯特·維納的表述,“我們最好確信放入機器中的目的是我們真正想要的目的”(Wiener, 1960),這被定義為“A試圖做H想要它做的事情”,其中A和H是現代AI研究中的兩個智能代理(Yudkowsky, 2016; Christiano, 2018)。隨后,對齊的研究在強化學習(RL)領域逐漸獲得重要性(Hadfield-Menell et al., 2016; Everitt and Hutter, 2018; Leike et al., 2018),并在大模型時代蓬勃發展(Kenton et al., 2021),培育了多樣化的生成模型和多模態模型,如圖1所示。良好對齊的AI代理,例如LLMs,不僅具有遵循用戶指令從而協助完成任務或回答問題的能力,還有避免生成攻擊性或歧視性內容的能力(Askell et al., 2021)。相反,未對齊的AI將會導致潛在風險,如真實性問題、錯誤信息、上癮和群體兩極分化(Zhuang and Hadfield-Menell, 2020; Pan et al., 2022),如前所述。

盡管近年來取得了顯著進展,但對大模型對齊的研究仍處于初級階段,理解這一主題仍存在許多模糊和困難。認識到對齊的重要性,本文致力于對現有對齊方法進行全面的綜述和分析,以促進人工智能與人類的共生未來。我們的范圍包括:i) 介紹對齊的歷史并詳述對齊的本質(第2節),ii) 回顧現有方法論并分析其優勢、劣勢和聯系(第3節),以及iii) 討論未來的挑戰和研究方向(第4節)。

對齊目標

在深入探討如何對齊之前,我們首先簡要介紹需要對齊的目標。對齊目標的討論源自于規范問題,即我們如何定義我們期望從人工智能中得到的目的?(Leike et al., 2018),這可以從兩個方面考慮(Gabriel, 2020):(1)規范方面:我們應該將什么目標編碼進人工智能中,以及(2)技術方面:我們如何形式化和建模這些目標。未能實現目標可能會導致人工智能尋找漏洞并以意料之外的方式實現目標,這被稱為規范游戲(Skalse et al., 2022)。從前者方面來看,對齊目標范圍從指令、意圖和偏好到利益、價值等(Gabriel, 2020)。另一個流行的目標是有益、誠實和無害(HHH)原則(Askell et al., 2021)。然而,大部分工作(Ouyang et al., 2022; Rafailov et al., 2023)強調對齊方法,而忽略了關于哪個目標最合適的分析。

良好對齊的模型能夠生成與這些確定的目標一致的內容。然而,由于評估者追求錯誤的目標、問題獎勵模型或策略(Casper et al., 2023),可能會出現錯位問題。錯位的模型可能會無意中導致意料之外或不希望的傷害和后果。例如,存在惡意使用的潛力,這些模型可能生成錯誤信息或歧視性和有害的內容(Brundage et al., 2018)。此外,即便是相當良好對齊的模型,也仍然可能展現出某些缺陷。它們可能產生幻覺(Ji et al., 2023),傳播偏見(Santurkar et al., 2023),并且容易受到如越獄(Li et al., 2023b)等對抗性攻擊的影響。

總體而言,實現對齊需要仔細考慮它們應該對齊的各種目標,解決潛在的錯位問題,并減輕這些模型可能具有的限制和脆弱性。

對齊方法

LLMs的對齊方法主要分為三種范式:基于強化學習的對齊(第3.1節)、基于監督式微調的對齊(第3.2節)和上下文內對齊(第3.3節)。在這一節中,我們將介紹和討論它們,以及個性化對齊(第3.5節)和LMM對齊(第3.4節),并建立它們與第2節中介紹的定義的聯系。所有類別的對齊方法都在附錄中的圖7中總結。

強化學習對齊

RLHF的理念最初在(Christiano et al., 2017)中被揭示,其中人類偏好是針對代理軌跡的片段表達的,用于深度強化學習,使得學習更復雜的行為成為可能。之后,Stiennon等人(2020)將RLHF技術應用于摘要任務中,并學習人類對不同摘要的偏好,從而顯著提高了質量。此外,Nakano等人(2021)提出了WebGPT,它在GPT-3上進行微調,并利用RLHF來提煉網頁導航和信息檢索的能力。這些早期使用RLHF的研究主要旨在提高模型性能,特別是在“有用性”或“誠實性”方面,可能忽略了“無害性”(HHH)(Askell et al., 2021)。這種失敗可能會導致LLMs與人類價值觀的錯位,導致模型輸出對用戶有害或不真實,如第1節所述。 為了減少這種傷害,InstructGPT(Ouyang et al., 2022)利用RLHF與用戶的意圖對齊,后者通過標記的模型響應來表示,以滿足HHH原則。RLHF技術直接催生了最成功的互動對話LLMs之一,ChatGPT,激發了對人工通用智能(AGI)的追求。

盡管RLHF的效果令人滿意,但它需要同時加載至少三個LLMs,即πθ、πSFT和R?,以及大量高質量的手動標記數據,D(x, yw, yl)。這帶來了無法承受的數據/訓練成本(RC3)。為了應對這一挑戰,提出了Constitutional AI(Bai et al., 2022b)以實現與人類標簽的對齊。這種方法類似于RLHF,但通過要求LLM生成并修正其響應來自動創建對(yw, yl)。這個框架促進了對齊的新方向,即基于AI反饋的強化學習(RLAIF)。隨后,開發了RLAIF的不同變體。Kim等人(2023)首先利用來自不同規模和提示的LLMs衍生的合成偏好數據來訓練獎勵模型。然后,他們自動生成高質量的示范用于SFT步驟,接著進行獎勵模型的RL調整。另一方面,為了提高RLHF的計算效率,Gulcehre等人(2023)提出了一種離線強化自訓練(ReST)方法。ReST從最新LLM策略中采樣多個響應以擴充訓練數據集(增長步驟),然后使用過濾后的數據通過離線RL目標對LLM策略進行微調(改進步驟)。

RLHF在實現相對良好的泛化方面已被證明是有效的,具有更好利用人類反饋信號的潛力。然而,它因訓練不穩定和高訓練/數據成本(RC3)而臭名昭著,這阻礙了RLHF進一步的適應性(RC2)和可擴展性(RC6)。此外,方程(7)中不同項之間的權衡是難以處理的(RC5),而RC4&7也仍未解決(Casper et al., 2023)。

考慮到SFT和RL的成本,以及大多數主流LLMs是黑盒的事實,基于微調的對齊方法變得越來越難以承擔或不可行。因此,另一種受歡迎的范式——基于上下文學習(ICL)的對齊——吸引了更多的注意。這種方法利用了LLMs在預訓練和指令調整階段獲得的龐大知識和遵循指令的能力。

多模態對齊

除了LLMs之外,大型多模態模型(LMMs)近年來也開啟了發展的新篇章,能夠同時處理多種模態,如圖像、視頻和文本,并學習從一種模態到另一種模態的映射(Liu et al., 2023c)。對LLMs的初步對齊成就表明了在多模態場景中進行對齊的潛力。具體來說,一系列工作整合了預訓練的視覺編碼器和LLM,并進行指令調整,以賦予LLM視覺問答(QA)能力,例如LLaVA(Liu et al., 2023c)、MiniGPT-4(Zhu et al., 2023)等(Li et al., 2023a;Gong et al., 2023;Dai et al., 2023)。LLaVA(Liu et al., 2023c)是將指令調整擴展到LLMs的第一步,它結合了CLIP的視覺編碼器和基于LLaMA的語言解碼器,并在GPT-4生成的多模態數據集上進行視覺指令調整。MiniGPT-4(Zhu et al., 2023)僅訓練單個投影層以將編碼的視覺特征與Vicuna語言模型對齊。經過在精選小數據集上的指令調整后,MiniGPT-4能生成更自然、更可靠的語言輸出。對于文本到圖像的任務,受LLMs中RLHF有效性的啟發,Lee等人(2023)提出了一種直接從人類反饋中學習的微調方法。該過程首先收集人類關于生成圖像是否與其輸入文本提示相對應的偏好數據,學習基于這些數據的獎勵模型,最后,使用獎勵加權似然最大化優化文本到圖像模型以實現對齊。為了與人類審美價值對齊,Wu等人(2023b)首先利用人類選擇的圖像微調CLIP模型作為偏好分類器。這個分類器用于為訓練數據集產生偽獎勵,進一步用于微調Stable Diffusion模型。訓練后的模型可以生成人類更偏好的更好審美質量的圖像。

多模態對齊目前處于其發展的非常初期階段,主要強調與人類指令的對齊,但忽略了如美德和社會規范等高層次和多樣化的人類價值。確保無害性提出了一個重大且不可忽視的挑戰。

個性化對齊

在心理學領域,個性指的是構成個體獨特性的獨特特征、特質以及思想、感覺和行為模式的模式。由于個性在塑造人類行為中扮演著重要角色,過去幾十年提出了大量理論和模型來解釋和分類個性的不同方面(McAdams and Pals, 2006; Roccas et al., 2002; Maslow, 1958; Freud, 1975; Bandura and Walters, 1977)。隨著大型語言模型在自然語言處理(NLP)中的革命性出現,研究發現,大型語言模型在特定提示配置下可以模擬出可靠和有效的個性(Safdari et al., 2023; Hagendorff, 2023; Jiang et al., 2023),而且對于更大和經過指令微調的模型,LLMs模擬的個性可能更強(Safdari et al., 2023),這為個性化大型語言模型提供了支持。

結論

在這項工作中,我們深入探討了對齊的起源和本質,系統地介紹了其發展、目標、形式化和評估。我們還回顧了現有的對齊研究,并分析了每個范式是如何從原始形式衍生出來的,并建立了它們的內在聯系。通過對對齊進行全面分析并識別未來的挑戰和研究方向,我們旨在為大模型的對齊方法的理解和進步做出貢獻,指導這些人工智能系統不僅避免造成傷害,而且還意圖做出善舉,最終實現一個人工智能與人類共生的未來社會。

付費5元查看完整內容

近年來,大型語言模型(LLMs)已取得了顯著的進展。這些進展,雖然引起了極大的關注,同時也引發了各種擔憂。這些模型的潛力無疑是巨大的;然而,它們可能會產生不準確、誤導性或甚至有害的文本。因此,采用對齊技術來確保這些模型表現出與人類價值觀一致的行為變得至關重要本調查旨在為大型語言模型的對齊方法提供廣泛的探討,結合現有的能力研究。通過AI對齊的視角,我們將現行的方法和新出現的大型語言模型的對齊提案分類為外部和內部對齊。我們還探討了一些顯著問題,包括模型的可解釋性和潛在的對抗攻擊的脆弱性。為了評估大型語言模型的對齊,我們提出了各種基準和評估方法。在討論了大型語言模型的對齊研究狀況之后,我們最終展望未來,思考了未來有前途的研究方向。 我們對本次調查的愿景不僅僅是激發在這一領域的研究興趣。我們還希望彌合AI對齊研究社群和致力于探索大型語言模型能力的研究人員之間的差距,為能力強大且安全的大型語言模型牽線搭橋。

1 引言

以OpenAI的ChatGPT(OpenAI,2022年)和GPT-4(OpenAI,2023a年)為例的大型語言模型(LLMs)已經迅速發展,重新點燃了對人工通用智能(AGI)的熱忱和期望。雖然LLMs作為通向AGI的路徑仍是一個討論的話題,但這些模型,憑借著擴展規律(Kaplan等,2020年;Hoffmann等,2022年),越來越展現出類似AGI的特征(Bubeck等,2023年)。在大量數據的訓練下,LLMs不僅展示出了強大的語言能力,而且在數學、推理、醫學、法律和編程等多個領域迅速接近人類水平的熟練度(Bubeck等,2023年)。 伴隨著LLMs在技術上的突破,人們越來越關注它們可能對人類構成的潛在威脅和倫理風險。有明確的倫理風險已被發現。研究表明,LLMs可能會無意中傳播它們訓練數據中的有害信息,例如偏見、歧視和有毒內容(Weidinger等,2021年)。它們可能會泄露訓練數據中的私人和敏感信息,或生成誤導性、虛假或低質量的信息。此外,部署LLMs也引入了社會和倫理挑戰,例如LLMs的潛在濫用和對嚴重依賴LLM代理的用戶的負面影響,以及對環境、信息傳播和就業的更廣泛影響(Bubeck等,2023年)。

對于長期影響,人們普遍擔憂未對齊的AGI構成存在風險。超越人類智力和知識的AI代理可能會發展出自己的目標,與人類設定的目標產生分歧。在追求其目標的過程中,這樣的代理可能會壟斷資源,確保其保存和自我增強。這一軌跡可能導致人類完全失權,不可避免地導致人類存在的災難性后果(Carlsmith,2022年)。

作為解決這些問題的技術解決方案,AI對齊,即確保AI系統產生與人類價值觀一致的輸出,越來越受到關注。在LLMs的背景下,對齊確保模型的響應不僅準確和連貫,而且從開發人員和用戶的角度來看是安全、道德和可取的。隨著語言代理越來越融入我們日常生活的各個方面,從內容創建到決策支持,任何未對齊都可能導致意想不到的后果。正確地將大型語言模型與人類價值觀對齊,確保了這些模型的巨大潛力得到可信賴和負責任的利用。

響應這一領域日益增長的興趣,最近有一些文章回顧了(或偶然討論了)LLMs的對齊方法(Pan等,2023年;Zhao等,2023b年;Fernandes等,2023年;Liu等,2023d年;Wang等,2023d年)。然而,一個值得注意的觀察是,這些評論主要集中在外部對齊上,常常忽略了AI對齊中的其他重要主題,如內部對齊和機械解釋性。雖然無可否認,外部對齊在LLM對齊中占據了關鍵地位,并且一直是深入和深刻研究的主題,但從更廣泛的AI對齊角度來看,它只是整個對齊景觀的一部分。

了彌補這一差距,我們從AI對齊的角度提供了LLM對齊的全面概述。我們認為,對齊的全面理解不僅應該包括廣泛研究的外部對齊,還應該深入探討目前還處于起步階段的領域。諸如內部對齊和機械解釋性這樣的主題,雖然目前還處于研究的初級階段,但卻擁有巨大的潛力。在這個階段,這些領域的許多提案仍然是理論性的,或者僅僅是思考實驗。然而,我們認為,它們對LLM對齊研究的未來軌跡是不可或缺的。通過揭示這些被忽視的領域,我們希望呈現出一個更為全面的對齊視角。因此,除了現有的LLM對齊方法,我們還將介紹幾個對齊主題,盡管這些主題尚未應用于LLMs,但顯示出前景,并可能在可預見的未來成為LLM對齊的組成部分。通過這樣做,我們致力于豐富AI對齊及其在大型語言模型領域的多方面應用的論述。

總結所有這些因素,我們在圖1中提出了一個LLM對齊的分類法。具體來說,本調查將首先討論LLM對齊研究的必要性(第2節)。為了提供AI/LLM對齊的歷史和鳥瞰視圖,我們介紹了AI對齊的起源和相關概念(第3節)。根據我們提出的分類法,將對齊LLMs的理論和技術方法分為外部對齊(第4節)、內部對齊(第5節)和機械解釋性(第6節),遵循AI對齊的哲學(Krakovna,2022年)。除了這些理論和實證方法外,我們還進一步討論了LLMs當前對齊方法的潛在副作用和脆弱性,包括對抗攻擊(第7節),以及LLM對齊評估的方法和基準(第8節)。最后,我們提出了我們對LLM對齊研究未來趨勢的有限觀點(第9節)。

為什么LLM對齊?

LLMs不僅在文本生成方面變得越來越有能力,還在許多其他任務中展現出能力,例如,文本到代碼生成(Poesia等,2022年),計劃(Huang等,2022年;Song等,2022年),工具學習(Qin等,2023年),推理(Mialon等,2023年)。然而,LLMs的訓練目標(Radford等,2019年;Devlin等,2019年),例如,下一個單詞預測(Radford等,2019年)或確定兩個句子在上下文中是否相關(Devlin等,2019年),并不一定符合人類價值觀。因此,LLMs可能會生成人類希望避免的不良內容或冒險行為。LLM風險通常可以從兩個方面來看:已建立的風險和預期的風險(Weidinger等,2021年)。前者主要是觀察到的社會和倫理風險(Weidinger等,2021年),而后者是與高級LLM相關的未來潛在風險(Hendrycks等,2023年)。 什么是LLM對齊?

為了深入理解大型語言模型(LLMs)中的技術對齊,我們需要討論更廣泛的概念,即AI對齊。盡管這是一個新興領域,但在LLMs出現之前就已經進行了研究。我們簡要介紹AI對齊的起源、研究格局和要點,以及與AI對齊相關的概念,這些都為LLM對齊及其最近出現的子領域提供了背景。

AI對齊的起源

AI對齊的起源可以追溯到激發AI革命的最初愿望:創建能夠像人類一樣思考和行動,甚至超越人類的機器。如果我們成功創建了這樣強大的機器,我們如何確保它們按照我們的最佳利益行事,而不是反對我們呢?這個未解之謎不僅引發了好奇心,而且強調了我們在塑造AI未來時所承擔的深遠責任。

賽博格學之父Norbert Wiener在一篇發表在《科學》雜志上的論文中提出了這樣的擔憂(Wiener, 1960): “如果我們為了實現我們的目的,使用了一個我們一旦啟動就無法有效干預其操作的機械機構,因為這個行動如此迅速和不可逆,以至于我們在行動完成之前沒有數據進行干預,那么我們最好確保放入機器的目的是我們真正的愿望,而不僅僅是它的多彩模仿。”

這個聲明強調了確保“機械機構”的目標與我們為它設定的真正目標一致的重要性,強調了機器和人類目標之間的對齊。

2014年,人工智能:一種現代的方法(Russell和Norvig,2010)的作者之一Stuart Russell在一次采訪中表示:要深入了解LLMs中的技術對齊,我們需要討論AI對齊這一更為廣泛的概念。即便這是一個新興領域,但AI對齊的研究在LLMs出現之前就已經開始。我們簡要介紹了AI對齊的起源、研究景觀和成分以及相關概念,為LLM對齊及其新興的子領域提供背景。

“正確的響應似乎應該是改變該領域本身的目標;我們需要構建的不是純粹的智能,而是可以證明與人類價值觀相一致的智能。由于實際原因,我們需要解決即便是在人類環境中操作的相對不那么智能的AI系統的價值對齊問題。如果我們理解這個問題是AI固有的一部分,就像容納是現代核聚變研究的固有部分一樣,那么我們有理由保持樂觀。世界不需要走向悲傷。” —— Stuart Russell, 2014。 他定義了“價值對齊問題”(VAP),強調了建造不僅聰明而且與人類價值觀一致的AI系統的需要。盡管AI對齊的概念在AI誕生之初就已經種下,但過去幾十年基本上沒有進行研究。長時間以來,AI在各種能力方面都沒有達到人類水平,甚至被嘲笑稱為“人工白癡”。

然而,最近的進展,尤其是大型語言模型的崛起,已經將AI能力推向了接近甚至超過人類在許多任務上的表現的水平。這種復蘇使得AI對齊的重要性和緊迫性浮出水面。從2012年開始,在相關論壇和arXiv上已經開始出現了關于AI對齊的討論和研究文章。到2017年,關于AI對齊的出版物已經爆炸性地增長,論文數量從每年不到20篇增加到了超過400篇(Kirchner等,2022),與Transformer(Vaswani等,2017)和GPT(Radford等,2018)的發明相吻合。

相較于其他AI研究領域,如自然語言處理,AI對齊還處于前范例階段(Kirchner等,2022)。這個新興領域中的許多關鍵概念和術語還沒有達成共識。術語如“對齊”,“AI對齊”,和“價值對齊”在討論中經常可以互換使用。在某些上下文中,“人機對齊”作為“AI對齊”的替代詞出現。而“對齊”一詞在AI對齊的上下文中是合適的,但在更廣泛的上下文中可能會產生歧義,可能與機器翻譯中的雙語對齊等其他對齊概念混淆。 此外,對AI對齊的定義還沒有達成共識。Paul Christiano將AI對齊定義為“如果A在嘗試做H希望它做的事,那么A就與H一致。”這個定義過于泛泛了然,因為幾乎所有的AI模型都在盡力做其創建者希望它們做的事。

在此調查中,我們從其內在的角度定義AI對齊:AI對齊確保AI代理的內外目標都與人類價值觀一致。外部目標是基于人類價值觀由AI設計師定義的,而內部目標則是AI代理內部優化的。這一定義雖然區分了AI代理的內外目標,但并未準確定義人類價值觀,因此略顯不精確。將AI系統的目標分類為外部目標和內部目標的原因在于AI對齊的技術性質(Hubinger等,2019c)。在這個定義中沒有指定人類價值觀,是因為AI對齊固有的社會和技術挑戰(Hendrycks等,2021)。

AI對齊的研究格局和成分

眾所周知,從廣泛的角度來看,AI對齊的關鍵研究議程包括外部對齊、內部對齊和可解釋性(Hubinger, 2020b; Ngo, 2022; Krakovna, 2022)。

外部對齊

這是選擇正確的損失函數或獎勵函數,并確保AI系統的訓練目標符合人類價值觀。換句話說,外部對齊試圖將指定的訓練目標與其設計者的目標對齊。至少出于以下原因,這在實踐中非常困難: ? 通常很難理解和定義人類價值觀或意圖。 ? 人類價值觀有很多不同的細粒度維度。我們需要將指定的目標與所有這些維度對齊嗎? ? 人類價值觀通常受社會和文化限制。我們需要將指定的目標與所有不同的文化和社會對齊,還是只對其中的一部分對齊?考慮到文化和社會的多樣性,我們如何確保價值對齊的公平性? ? 由于人類價值觀/意圖通常是定性的,而要優化的損失或獎勵必須是可衡量和可計算的,我們如何彌合它們之間的差距?這被稱為目標規范問題。 ? 外部對齊可能會遭受規范游戲的困擾,其中由于古德哈特定律,可能會出現無法預見的目標或后果。古德哈特定律起源于經濟學,其內容是“當一項衡量變成一個目標時,它就不再是一個好的衡量”。這與外部對齊有關,因為某個價值的代理是要被優化的目標,它可能不再是一個好的代理。

**內部對齊

這是為了確保AI系統實際上經過培訓以實現設計師設定的目標。一旦我們指定了培訓目標,我們需要確保AI系統的行為實際上符合這些規范。由于AI系統,尤其是深度學習模型,可以開發出難以從其訓練數據或目標中預測的行為,這是具有挑戰性的。例如,一個經過訓練來贏得游戲的AI系統可能會找到一個意想不到的漏洞或者逃避通道,這在技術上滿足了它的目標,但違反了游戲的精神。目標錯誤泛化問題(Shah等人,2022)是另一個例子,即使我們有正確的目標規范,由于在未見情況下的魯棒性失敗,仍然可能產生無意的目標。內部對齊確保AI的“內部”目標(它在學習過程中推導或優化的目標)符合設計師設定的“外部”目標。 外部和內部對齊對于構建安全可靠的AI至關重要。如果失敗,我們冒著創造的系統的行為與人類價值觀或意圖不一致的風險。隨著LLMs變得更加有能力,這些對齊問題的重要性增加,使得LLM對齊的研究與LLM能力的研究一樣關鍵。

**可解釋性

在AI對齊的背景下,可解釋性廣泛地指的是促使人們理解AI系統的內部運作、決定和行為的方法、模型和工具。它可以進一步分為: ? 透明性:這是通過追蹤AI系統的內部狀態來理解黑盒中的AI系統的內部運作,從而引導其行為和決定。透明性的一個新興而有趣的方法是機械可解釋性,它尋求將機器學習系統(特別是神經網絡)的輸出和行為逆向工程到其內部狀態、權重和組件(Nanda等人,2023)。由于LLMs中參數的巨大數量以及LLMs作為大型神經網絡的系統復雜性,逆向工程LLMs是非常困難的。當前的機械可解釋性通常在LLMs的小型和簡化模型上進行(例如,去除了FFN子層的兩個神經層)(Elhage等人,2021; 2022a)。然而,這是一個相當有前途的方向,為神經網絡的對齊提供了深刻的見解,并有望在未來取得突破。 ? 可解釋性:這涉及AI系統為其決定提供人類可理解的解釋的能力。在許多關鍵領域,例如醫療保健、金融和執法,AI做出的決定對許多方面都有深遠的影響。例如,考慮一個醫療診斷AI。如果這個系統預測一個患者患有特定的醫療病癥,僅僅輸出這樣的預測結果是不夠的。醫療專業人員、患者和其他利益相關者會想要知道這個預測是如何做出的。它是否考慮了患者的病史、最近的實驗室結果或特定的癥狀來做出全面的決定? 解釋通常被視為模型輸出的事后分析,該模型允許模型更多地了解其預測。透明度是查看模型內部以揭示模型的運作方式。盡管這種劃分不是絕對的(Lipton,2017),透明度更多地與對齊相關,因為透明度工具不僅使我們了解模型的內部結構,還提供了模型在培訓過程中變化的見解(Hubinger,2022a)。

**外部對齊、內部對齊和可解釋性之間的關系

外部和內部對齊共同確保模型的行為與人類的價值觀和意圖一致。外部對齊專注于從人類目標到模型的規范,而內部對齊深入研究模型的內部優化過程,以保證模型本質上試圖做設計師希望它做的事情。盡管存在這種差異,他們的二元和形式主義二分法并不建議,因為對齊失敗的分類有時是模糊的,構建安全和可信賴的系統時,整體對齊觀點是重要的。8雖然可解釋性不直接針對對齊,但其工具和技術可以幫助外部和內部對齊。通過了解模型如何演化和做出決定,我們可以更好地識別何時以及在哪里發生不對齊。例如,如果模型采取意想不到的捷徑來實現其目標,可解釋性可能會幫助我們了解這何時以及如何發生。此外,可解釋性可以向我們提供模型的內部推理過程的見解。

近年來,LLM(大型語言模型)的快速發展無疑揭開了新技術力量的新紀元。然而,隨著這一力量的出現,我們也承擔著確保這些模型在人類倫理和期望的范圍內運作的責任。本文提供了針對LLM的對齊方法的全面概述,強調了將能力研究與倫理考慮相結合的重要性。我們通過將對齊技術分類為外部對齊和內部對齊,揭示了研究社區目前所采用的多方面方法。同時,我們也討論了新興的主題,如模型的可解釋性和對抗性攻擊的脆弱性,突出了對齊過程中的復雜性。此外,本文不僅記錄了當前對齊研究的現狀,還展望了未來,確定了有望進一步完善和提高LLM對齊的潛在研究軌跡。我們真誠希望這份調查能作為催化劑,促進AI對齊社區與LLM研究人員之間的合作。這樣的合作方法是實現LLM全部潛力的必要條件,確保它們以道德合規和有益的方式服務于人類。總之,當我們繼續推動LLM的可能性邊界時,我們必須始終堅守對其負責任和有原則的部署的承諾。

付費5元查看完整內容

視覺語言模型(VLMs)最近已經展示出了強大的效能,作為可以解析關于視覺內容的自然查詢并生成類似人類輸出的視覺助手。在這項工作中,我們探討了這些模型基于感知信息展示人類式推理的能力。為了解決一個關鍵問題,即這些推理能力在多大程度上是完全一致和基于實際的,我們還測量了這些模型的推理一致性。我們通過提出基于思維鏈(CoT)的一致性度量來實現這一點。然而,這樣的評估需要一個包括高級推理和詳細推理鏈的基準,這是昂貴的。我們通過提出一個LLM-人在回路中的管道來解決這一挑戰,這顯著降低了成本,同時確保了高質量數據集的生成。基于這個管道和現有的粗粒度注釋數據集,我們構建了CURE基準,以測量VLMs的零樣本推理性能和一致性。我們評估了現有的最先進的VLMs,并發現即使在表現最佳的模型(BLIP-2)的情況下,也無法展示出強大的視覺推理能力和一致性,這表明需要大力努力,使VLMs能夠像人類一樣系統地和一致地進行視覺推理。作為早期步驟,我們提出了一個旨在提高VLMs的推理性能和一致性的兩階段培訓框架。第一階段涉及使用由LLMs自動生成的逐步推理樣本對VLMs進行監督微調。在第二階段中,我們進一步通過LLMs提供的反饋來增強訓練過程,以生成高度一致和基于實際的推理鏈。我們經驗性地突出了我們框架的有效性,并顯示了在推理性能和一致性方面的相對改進為4%。

//www.zhuanzhi.ai/paper/7973da2bc3cb888154e7d2c0ed548c64

付費5元查看完整內容

生成性任務,如文本生成和問答,在移動應用領域占據著關鍵地位。由于對隱私問題的敏感性,對它們在移動設備上直接執行的需求正在增長。目前,執行這些生成性任務在很大程度上依賴于大型語言模型(LLMs)。然而,這些設備的有限內存容量對這些模型的可擴展性構成了嚴峻挑戰。在我們的研究中,我們介紹了LLMCad,一種專門設計用于高效生成自然語言處理(NLP)任務的創新型設備內推理引擎。LLMCad的核心思想圍繞模型協作展開:一個位于內存中的緊湊型LLM負責生成最直接的標記,而一個高精度的LLM則負責驗證這些標記并糾正任何已識別的錯誤。LLMCad引入了三種新技術:(1)與按順序生成候選標記不同,LLMCad利用較小的LLM構建標記樹,包含更廣泛的可信標記路徑。隨后,較大的LLM可以高效地同時驗證所有這些路徑。(2)它采用了一種自動調整的回退策略,當較小的LLM生成錯誤的標記時,迅速啟動驗證過程。(3)為了確保標記的連續生成流,LLMCad在驗證過程中通過實施計算-IO流水線來猜測生成標記。通過一系列廣泛的實驗,LLMCad展示了印象深刻的標記生成速度,達到了比現有推理引擎快9.3倍的速度。

付費5元查看完整內容

雖然在許多領域生成并提供了大量未標記數據,但對自動理解可視化數據的需求比以往任何時候都要高。大多數現有的機器學習模型通常依賴于大量帶標簽的訓練數據來實現高性能。不幸的是,這樣的需求在真實的應用中無法滿足。標簽的數量是有限的,手動注釋數據是昂貴和耗時的。通常需要將知識從現有的標記領域遷移到新的領域。然而,模型性能會因為域之間的差異而降低(域移位或數據集偏差)。為了克服標注的負擔,領域適應(Domain Adaptation, DA)旨在緩解知識從一個領域轉移到另一個相似但不同的領域時的領域轉移問題。無監督DA (UDA)處理有標記的源域和無標記的目標域。UDA的主要目標是減少帶標簽源數據和未帶標簽目標數據之間的域差異,并在訓練過程中學習跨兩個域的域不變表示。本文首先定義了UDA問題。其次,我們從傳統方法和基于深度學習的方法兩方面概述了用于不同類別UDA的最新方法。最后,我們收集了常用的基準數據集,并報告了UDA在視覺識別問題上的最新方法的結果。

//www.zhuanzhi.ai/paper/a3132aabda946e6540ff6c1a9b745303

在這個大數據時代,產生了大量的文本、圖像、聲音和其他類型的數據。工業和研究團體對多媒體數據的自動分類、分割和回歸有很大的需求[1;2) 1。監督學習是機器學習中最普遍的一種,在不同的應用領域都取得了很大的成功。近年來,我們已經見證了深度神經網絡在一些標準基準如ImageNet[4]和CIFAR-10[5]上取得的巨大成功。然而,在現實世界中,我們經常遇到一個嚴重的問題,即缺乏用于訓練的標記數據。眾所周知,機器學習模型的訓練和更新依賴于數據注釋。此外,機器學習模型的高性能依賴于大量帶標簽的訓練數據的存在。不幸的是,在許多實際場景中,這樣的要求無法滿足,因為收集的數據有限制或沒有標簽。此外,一個主要的假設是訓練和測試數據具有相同的分布。如果背景、質量或形狀變形在不同的域之間是不同的,那么這樣的假設很容易被扭曲。此外,手動注釋數據通常非常耗時且昂貴。這給正確訓練和更新機器學習模型帶來了挑戰。因此,一些應用領域由于沒有足夠的標注數據進行訓練而沒有得到很好的發展。因此,常常需要將知識從一個已有的標簽領域轉移到一個相似但不同的、有限或沒有標簽的領域。

然而,由于數據偏置或區域移位的現象6,機器學習模型并不能很好地從一個現有的域推廣到一個新的無標記域。對于傳統的機器學習方法,我們通常假設訓練數據(源域)和測試數據(目標域)來自相同的分布,并從訓練數據中優化模型,直接應用到測試數據中進行預測。忽略訓練數據和測試數據之間的差異。然而,源域和目標域之間常常存在差異,如果存在域遷移問題,傳統方法的性能較低。因此,減輕領域遷移問題對提高模型跨不同領域的性能非常重要。

域適應(DA)是遷移學習(TL)的一種特殊設置,其目的是利用豐富的帶標簽源域的知識,為標簽有限或無標簽的目標域學習有效的預測器,同時緩解域遷移問題。近年來,DA在計算機視覺領域受到越來越多的關注,如圖1所示。每年與DA相關的論文越來越多,說明了DA應用的重要性。有三種類型的DA(有監督的、半監督的和無監督的DA),它們取決于目標域中的標簽數量。對于監督DA,所有的目標數據標簽都是可用的。對于半監督DA,部分目標數據標簽是可用的。對于無監督域適配(UDA),目標域沒有標簽。為了克服標注不足所帶來的限制,技術將有標記的源域和來自目標域的未標記樣本結合起來。此外,UDA中源域和目標域的類別數量相同,也稱為閉集域適應。

現有的域自適應方法假設源域和目標域的數據分布不同,但共享相同的標簽空間。傳統的DA方法高度依賴于從原始圖像中提取特征。隨著深度神經網絡的發展,研究人員正在利用更高性能的深度特征(如AlexNet [7], ResNet50 [8], Xception [9], InceptionResNetv2[10])來代替較低級別的SURF特征。然而,傳統方法的預測精度受到深度神經網絡[11]特征提取質量的影響。近年來,深度神經網絡方法在領域適應問題上取得了巨大的成功。特別是,對抗學習在嵌入深度神經網絡學習特征表示以最小化源域和目標域之間的差異方面表現出強大的能力[12;13)。但是,它只局限于將現有的解決方案從源域改進到目標域,而目標樣本的結構信息很難保存。此外,很難移除目標域中有噪聲的預測標簽。

本文主要研究了圖像識別中的域自適應問題。本次綜述的貢獻如下。(i)我們提出了一種基于傳統和深度學習的DA分類方法。(ii) 我們是第一個在特征選擇、分布適應和子空間學習三種不同背景下研究傳統技術的人。(iii)我們還討論了基于深度學習的方法,包括基于差異的方法、基于對抗的方法、基于偽標簽的方法、基于重構的方法、基于表征的方法和基于注意力的方法。(4)我們收集了幾個基準數據集,這些數據集在UDA中得到了廣泛的應用,并報告了最新方法的結果。本文的其余部分組織如下:在第2、3節中,我們介紹了DA問題的符號和泛化界。在第四部分,我們回顧了傳統的UDA方法。在第5節中,我們描述了用于圖像識別的深度DA方法。在第6節中,我們列出了DA的基準數據集,并報告了最新方法的準確性。

付費5元查看完整內容
北京阿比特科技有限公司