亚洲男人的天堂2018av,欧美草比,久久久久久免费视频精选,国色天香在线看免费,久久久久亚洲av成人片仓井空

文/李興明,胡慶擁

摘 要:

大語言模型在實際應用場景中經常面臨知識沖突的問題,主要包括上下文 - 記憶知識沖突、多源上下文知識沖突和記憶內知識沖突。本文首先從訓練數據的局限性、模型問題,以及外部信息缺陷三個方面深入分析知識沖突的成因;隨后進一步探討了知識沖突造成的影響,并全面回顧了知識沖突的解決方案,如領域事實增強、提示工程和模型結構層面的改進。最后對知識沖突領域未來研究方向進行了展望,包括建立可靠的評估框架、基于大模型的智能體研究,以及多模態背景下的知識沖突處理。 關鍵詞:

人工智能;大語言模型;知識沖突;智能體;多模態

0 引言

近年來,隨著深度學習、Transformer架構等關鍵技術的突破,預訓練大語言模型(large languagemodel,LLM)實現了飛躍式發展,成為人工智能領域最炙手可熱的研究方向之一。自2022年底ChatGPT系統面世以來,業界掀起了“大模型”研究熱潮,全球研究機構與科技巨頭紛紛布局,在大模型領域投入大量研發資源和力量。

大語言模型通過預訓練的方式,在海量非結構化數據上學習獲取通用知識和語義表征能力,可廣泛應用于自然語言理解、生成、推理、問答等諸多任務,被視為實現通用人工智能的關鍵基石;大語言模型卓越的泛化能力和強大的知識遷移特性,使其在智能對話、文本摘要、代碼生成、決策推理等多個應用場景展現出巨大潛力,有望推動通用人工智能的發展。

然而,隨著大模型規模和復雜性的不斷擴張,其內在存在的知識質量缺陷問題也日益凸顯,主要表現為三個方面。

(1)數據不平衡、噪聲較多導致模型吸收了大量低質量、不一致的知識;

(2)純序列建模難以很好地刻畫現實世界中的結構化知識,因為大模型傾向于編碼訓練數據中普遍存在的淺層模式,而非真正理解其中蘊含的底層知識;

(3)缺乏高效知識概念學習和推理機制。 上述問題最終會導致模型內知識與客觀事實存在明顯的語義沖突和矛盾,從而產生“知識沖突”的問題,影響大模型輸出的可信性,進而限制了其在實際應用中的廣泛落地。

**1 **大語言模型的知識沖突

1.1 參數化知識概述

“參數化知識”是指大語言模型在大規模無標注的文本語料數據庫上經過自監督預訓練得到的、存儲于其權重(參數)中的知識,代表模型對數據的理解和泛化能力。這種知識包括但不限于語言學知識、常識、算術知識和世界知識等。

不同于傳統模型依賴于顯式編碼的知識庫,參數化知識的特點在于其隱含性及動態性。這意味著知識不是以明顯的形式存在,而是通過模型參數的復雜交互而隱式地表現出來。大語言模型能夠利用這些內化的知識,理解復雜的查詢,生成信息豐富的回答,或者完成特定的文本任務。

參數化知識的一個關鍵優勢,是它使得模型具備了一定程度上的泛化能力。也就是說,即便是模型在訓練數據中未直接接觸過的信息或任務,只要這些新的查詢與模型通過預訓練內化的知識在某種程度上相關,模型仍有可能給出合理的輸出。這種能力歸功于大語言模型在訓練過程中,學習到的深層語言結構和豐富的世界知識;換言之,這種參數知識是大模型強大能力的基礎和源泉。

盡管參數化知識為大語言模型提供了強大的預測能力和靈活性,但其仍存在以下幾點局限性。

(1)知識不足或信息缺失。盡管模型的預訓練語料庫包含了豐富的信息,但不可能全面覆蓋所有領域的全部事實。如果特定的事實知識在訓練數據中未出現或出現頻次極低,模型可能缺乏相應的知識,導致在需要這些特定信息時生成錯誤或無關的答案。此外,模型難以保留訓練語料庫中的所有知識,尤其是對于不常見的信息。

(2)參數無法動態更新。隨著時間的推移和科技的發展,許多知識在不斷發生變化。例如,問題“美國總統是誰?”在2019年的答案可能是“唐納德·特朗普”,而現在的答案是“喬·拜登”。在實際使用過程中,需要不斷更新模型中的過時和錯誤知識。與傳統數據庫或知識圖譜不同,語言模型的知識存儲方式是分布式的,蘊含于整個網絡結構的參數中,這使得精確定位并更新模型中對應的舊知識成為一項挑戰。

(3)預訓練和微調成本高。隨著參數數量的增加,訓練和推理的計算成本也相應增加。這不僅需要更多的計算資源,還可能限制模型在資源受限的環境中的應用。

1.2 什么是知識沖突

在實際應用中,大語言模型除了依賴其內部參數化的知識外,還會持續接觸到外部的情境知識。這包括用戶輸入的提示、互動對話,以及通過工具或檢索增強提供外部信息作為大語言模型的新證據,例如ChatGPT外掛的插件及 New Bing。將這些動態獲取的新知識融合進模型,一方面可以彌補模型預訓練階段積累知識的滯后性,使其了解時事和新興領域;但另一方面,外部輸入的知識往往也會與大模型內部的參數知識產生分歧和矛盾,從而引發“知識沖突”問題。

所謂“知識沖突”,是指大語言模型內部固化的參數知識與來自上下文環境的外部獲取知識之間存在的差異、矛盾和沖突。這種知識沖突不僅影響大模型對問題的理解和判斷,還可能導致其生成的輸出存在事實錯誤、邏輯違背常識等嚴重缺陷,從而降低模型可靠性和可信性。

知識沖突可以進一步分為下述幾類,如圖1所示。

圖 1 知識沖突的分類

(1)上下文 - 記憶知識沖突。指大語言模型的參數知識與提供的上下文信息(如用戶提示、檢索文檔、歷史對話等)存在的不一致與沖突。

(2)多源上下文知識沖突。指大語言模型在利用第三方工具或采取檢索增強策略時,從不同知識源獲取的信息之間存在不一致,如不同文檔的時間戳不一致、部分檢索文本含有虛假信息等。

(3)記憶內知識沖突。指針對用戶同一個問題的不同表述,由于模型訓練數據的不一致,可能會導致模型給出不同甚至自相矛盾的回復。

1.3 知識沖突的影響

知識沖突問題不僅是大語言模型面臨的一個技術挑戰,更是實現其可靠應用和廣泛部署的關鍵瓶頸。深入研究并解決知識沖突問題,可以優化大語言模型的一致性、魯棒性和泛化能力,這對于工具增強和檢索增強技術在大模型部署中的成功應用至關重要。更為重要的是,有效處理知識沖突還能有助于預防惡意攻擊者濫用大模型強大的生成能力,如傳播虛假信息和進行網絡攻擊。例如,攻擊者可能通過劫持第三方工具,提供給模型欺騙性和誤導性文檔,若能妥善解決知識沖突問題,則可避免模型產生有害信息。盡管目前對知識沖突問題的研究尚處于初級階段,開展系統深入的理論研究和技術創新,對于大語言模型的持續發展和廣泛應用構建堅實的理論和實踐基礎也尤為重要。

2 知識沖突的成因分析

要分析大語言模型在知識沖突場景中的表現及解決方案,首先需要深入探討導致其產生知識沖突的根源。本節將從訓練數據、模型架構和上下文信息三個方面,深入探討導致大語言模型產生知識沖突的根因。

2.1 訓練數據

2.1.1 領域數據不足 盡管大語言模型因其海量知識壓縮和出色的泛化能力在知識密集型任務中表現出色,但在特定領域的專業知識處理上仍面臨挑戰。這主要源于訓練數據在覆蓋范圍和深度上的不足。若未能充分學習某領域的全面知識,模型在該領域的表現便可能出現缺陷,在回答相關專業問題時容易出現“上下文 -記憶知識沖突”,即模型的存儲知識與實際情境不匹配,從而產生錯誤或不準確的輸出。

2.1.2 訓練數據質量缺陷:錯誤信息與偏見 大語言模型主要通過在海量無標注的文本語料庫上自監督學習獲取知識。然而,這些語料庫常存在質量缺陷,可能包含大量低質量信息、錯誤知識和潛在的社會文化偏見。一方面,模型從包含錯誤知識的數據中學習后,這些錯誤會被內化并放大,導致參數中編碼了矛盾的知識,進而在特定場景下產生沖突;另一方面,訓練數據所反映的各種偏見也會被模型學習和放大,如性別、種族等,影響其判斷和決策過程,發知識系統中潛在的偏差和矛盾。

此外,大模型往往過度依賴訓練數據中的淺層模式和相關性,如詞語共現統計、位置接近性等,而未能真正理解知識的本質,這使得模型容易受訓練數據中的虛假相關性的影響,導致在不同語境下產生前后不一致的輸出,加劇了知識沖突的風險。

2.1.3 訓練數據時效性 大語言模型的參數化知識具有明顯的時間局限性。一旦完成訓練,這些知識就無法繼續更新,而是靜態固化于訓練數據的時間節點,以隨著時間推移自動更新和追蹤現實世界的變遷。隨著時間流逝,模型內部知識會逐漸過時失效,成為引發知識沖突的又一重要根源。

為彌補模型內部知識的滯后性,在實際應用場景中,用戶通常需提供動態的外部補充信息,如上下文對話歷史、相關文檔檢索等。然而,當模型嘗試將這些外部動態知識與自身內部的過時靜態知識融合時,兩者之間的矛盾和沖突往往難以避免,從而使模型陷入知識沖突的困境。

2.2 模型架構

2.2.1 解碼策略 大語言模型通過預測詞匯表中每個單詞出現的概率分布來生成輸出,解碼(decoding)環節對于將模型知識轉化為可解釋輸出至關重要。主流解碼策略包括確定性搜索 (如貪婪搜索(greedy search)和束搜索(beam search))和隨機采樣(如Top-k采樣(Top-ksampling)和Top-p 采樣(Top-p sampling))。

貪婪搜索通過選擇每一步概率最高的單詞生成輸出,而束搜索則維持多個高概率候選序列,力求在整體上找到最優輸出。相比之下,隨機采樣是當前大語言模型廣泛采用的主導解碼策略,它通過在概率分布中隨機抽樣,能夠產生更多樣化的輸出。然而,這種隨機性也為生成的內容引入了不確定性,可能導致模型在相同條件下輸出前后不一致的結果,從而引發由內部記憶機制導致的知識沖突。

另外,大模型通常按從左到右逐詞生成方式,可能引發“滾雪球效應”,即早期生成的單詞會對整個輸出產生重大影響。一旦早期出現偏差,后續難以糾正,加劇了輸出與事實的偏離,進而引發知識沖突。

2.2.2 預訓練和微調的不一致 大模型在預訓練和微調兩階段獲取的知識存在潛在不一致,這是導致模型輸出知識沖突的另一重要原因。

預訓練旨在大規模無標注語料庫上學習通用的語言表示能力,如文本中的底層模式、結構和語義知識。而微調則是在特定任務數據集上對模型參數進行進一步優化,以提高其在特定領域的性能表現。由于兩階段的訓練目標和數據來源的差異,模型可能從中習得了不盡相同的知識。

一方面,預訓練數據覆蓋面廣但深度有限,模型從中習得的是普遍的世界知識和語言模式;另一方面,微調階段引入了新的專業知識,這些知識可能無法從預訓練數據中學習,甚至可能與之存在矛盾。當用戶的查詢觸及此類知識時,模型難以準確把握哪些知識才是相關準確的,從而在生成輸出時產生混亂,引發知識沖突。

2.3 外部上下文信息

大語言模型在實際應用中存在參數知識滯后和情境理解不足的缺陷。為彌補這一缺陷,檢索增強生成技術(retrieval-augmented generation,RAG)被廣泛采用,通過檢索并融合外部補充信息,以增強模型的知識掌握能力。一些主流商業模型如ChatGPT、Perplexity.ai、Gemini、NewBing等在部分web界面上已開始使用帶RAG功能的版本。然而,所檢索的外部信息的準確性和時效性不足,可能成為導致大模型產生知識沖突的又一主要誘因。

2.3.1 外部信息的準確性缺陷 首先,信息檢索系統將原文本編碼為向量表示時,不可避免會發生一定信息損失,如可能遺漏或扭曲了原文細節和語義,影響檢索質量。其次,檢索系統返回結果并非全部與查詢高度相關。以“提升遙感影像目標檢測精度”為例,返回內容可能包含“紅外目標檢測”等偏題信息。模型整合這些無關或錯誤信息時,可能被誤導而接受并傳播了不當知識。

更為關鍵的是,檢索得到的外部信息可能與模型內部知識存在矛盾,不同檢索文檔間也可能出現差異和沖突。最新研究發現,檢索文檔的質量與模型對內部參數知識的依賴傾向之間存在反比關系:檢索到的證據越不相關,模型對內部參數知識的依賴性越強;同時,當外部證據部分與內部記憶一致時,大模型會過度信賴該部分,而忽視其他相沖突的外部信息。但這種復雜的證據權衡機制有待深入探究。此外,惡意攻擊者可能故意提供虛假外部信息,誘導模型生成有害或違法輸出,引發潛在安全隱患。

2.3.2 外部信息時效性缺陷 外部信息的時效性也是一大挑戰。在科技、政治等快速變化的領域,過時的信息可能會嚴重誤導模型和最終用戶。以政治人物相關查詢為例,若參考的是多年前的舊信息,結論就可能與當下情況嚴重偏離。即使采用私有知識庫作為檢索源,時效性問題也難以完全根除。若知識庫未及時維護和更新,同一文檔的新舊版本可能并存,導致時間上的矛盾和沖突。以法規修訂為例,用戶查詢時應當參考的是最新版本,但若模型同時檢索到舊版本,其生成的回復就可能出現嚴重錯誤。

3 知識沖突的解決方案

面對大語言模型中的知識沖突問題,國內外研究者已提出了多種策略緩解這一挑戰。下面將對這些解決方案進行全面的回顧,結合之前對于知識沖突成因的討論,我們將現有的策略分為如圖 2 所示的三大類:①領域事實增強,主要針對訓練數據層面的問題;②模型層面,旨在通過改進模型架構或其內部機制以應對知識沖突;③提示工程,側重于優化模型對于外部信息的處理。

圖 2 知識沖突解決方案

3.1 領域事實增強

3.1.1 持續預訓練 通過持續預訓練,模型能夠不斷補充和更新其知識庫,以適應不斷發展的知識領域。圖3示出了大模型的不同預訓練方式。首先是對預訓練數據質量的優化,包括刪除重復數據、剔除過時、錯誤及虛假信息,從根源上避免模型內化矛盾知識,鑒于現有的預訓練語料庫規模龐大,目前的研究主要采用簡單的啟發式。規則來選擇和過濾數據。其次,在通用語言模型的基礎上,引入特定領域的高質量語料對其進行微調,使模型逐步完善相關知識的表示,有效地獲取新領域的知識。例如,雖然持續預訓練可以幫助模型快速有效地學習領域事實知識,但其也存在嚴重缺陷,如模型易發生災難性遺忘,忘記已經學過的來自舊領域的知識,常用的解決方法是將領域數據與通用數據按一定比例混合后對模型進行預訓練。

圖 3 大模型的不同預訓練方式

3.1.2 持續 SFT 除持續預訓練外,持續微調也是增強模型領域事實知識以避免出現知識沖突的重要方法。研究人員通過設計不同的知識注入方式,如ERNIE、KnowBERT和K-BERT等,將專業領域知識注入到語言模型中,從而提升其在下游任務的性能;為了增強模型在特定任務背景下優先考慮上下文信息,而在與場景上下文無關時則更依賴內部參數知識的能力和魯棒性,知識感知微調方法 (knowledgeaware finetuning,KAFT)通過將反事實和不相關的上下文納入微調數據集,采取對抗訓練策略,增強模型分辨與任務相關知識的能力。此外,拒絕感知指令微調(refusal-aware instruction tuning,R-Tuning)通過識別參數知識和指令微調數據之間的知識差距,然后基于知識交集構建拒絕感知據,來微調大語言模型,使其避免回答超出能力范圍的問題。

3.1.3 外部知識 大語言模型雖展現出強大的理解、生成和泛化能力,但在實際應用中,仍面臨準確性、知識更新速度和答案透明度等方面的挑戰。引入外部知識可有效結合大語言模型的參數化知識和非參數化的外部知識,如數據庫、網站、非結構化文檔等,成為緩解知識沖突,加速大模型落地應用的關鍵手段。提升與外部知識的結合主要有兩種方式,一是檢索增強,通過在原有的檢索框架和策略上做進一步改進,以提供與情境上下文更加相關、細粒度的外部證據,避免返回無關或矛盾信息;二是工具增強,調用其他專業模型API,擴展大模型的能力邊界。

3.2 模型架構

3.2.1 解碼策略 在大語言模型中,優化解碼策略是用于減少模型在文本生成過程中可能存在的知識沖突的有效方法。這些策略通過調整模型生成文本的概率分布,直接影響輸出結果,從而提高模型的靈活性和輸出的可信度。盡管這些方法可能需要對模型進行額外的訓練或調整,或依賴于外部信息資源,但是它們在提高生成文本的一致性和可信度方面顯示出顯著優勢。下述是三種代表性的優化解碼策略。

(1) 上 下 文 感 知 解 碼(context-aware decoding,CAD)是一種基于對比的解碼策略,旨在減少生成文本中的知識沖突。該策略利用一個對比模型計算在考慮和不考慮輸入信息的情況下,輸出的概率分布差異;隨后,一個放大模型被用來增強這些差異,提升與輸入信息一致的輸出的概率,同時降低與輸入信息沖突的輸出的概率;最終,根據調整后的概率分布,生成模型輸出與輸入信息更為一致且可信的文本。

(2)對比層解碼。對比層解碼(decoding bycontrasting layers, DoLa)通過動態選擇并比較模型不同層次在詞匯空間中的對數概率差異。這種層間對比幫助生成模型依據調整后的概率分布生成文本,從而增強文本與事實知識的一致性和可信度。

(3)推理時干預(inference-time intervention,ITI)。在解碼過程中實施,通過激活與事實性知識更相關的注意力頭,促進這些信息在模型中的傳播。這種策略可以在使用較少數據集和訓練資源的情況下對模型進行微調,顯著提升模型在回答問題時的準確性和可靠性。

3.2.2 訓練判別器 通過對一個小型的大語言模型進行微調,將其作為判別器,并結合提示工程技術幫助模型區分信息是否可靠,從而使模型在面對可能存在虛假或誤導信息的上下文內容時,保持忠誠可靠的輸出。通過構建事實有效性預測模型,預測大語言模型學到知識中的事實信息能夠在多久的時間期限內保持有效,來決定在生成回復內容時是否接受該事實信息,同時利用事實有效性預測還可在生成過程中丟棄易發生變化的事實,給予提供的最新上下文信息更高的置信度。

3.2.3 知識編輯 在大語言模型(LLMs)的應用中,知識編輯技術旨在優化模型的信息準確性,通過有針對性地修改模型參數或引入外部插件來糾正嵌入其中的錯誤知識。這種方法避免了對整個模型進行全面微調,從而在提升模型實用性的同時,維持了其作為可靠知識庫的基本功能。主要的知識編輯方法有兩種。

(1)知識插件。該方法允許在保持模型原有結構不變的情況下,通過插入可訓練的參數模塊來引入新的知識。這種策略的優勢在于它避免了對預訓練模型權重的直接修改,從而保留了模型中已有的知識資產。這使得模型能夠在擴展新知識的同時,繼續利用已有的廣泛知識基礎,例如K-Adapter等。

(2)定位 - 編輯。基于對大語言模型中知識存儲機制的研究,定位 - 編輯方法專注于精確定位和編輯模型中的特定區域。這種策略識別并修改存儲錯誤信息的網絡部分,尤其是前饋神經網絡(FFN)中的相關神經元,以此來糾正或更新錯誤的知識。這種精確的編輯方法優化了模型的知識準確性,而不損害其整體性能。

3.3 提示工程

提示工程是緩解大語言模型知識沖突的一種重要策略,它通過精心設計的提示詞來完善模型的輸入信息及優化模型輸出內容。使用提示工程的緩解技術可以概述如下。

3.3.1 補充情境信息 通過檢索增強策略和工具增強,如FreshPrompt、ChatProtect等,將與任務相關的情境知識集成到提示中。這種方法不僅豐富了模型處理的上下文,而且提高了其對特定領域信息的敏感性和應答質量。

3.3.2 設計系統提示 使用系統提示明確告知大語言模型不要提供虛假或不可驗證的信息,或提示模型對潛在的虛假信息保持警惕,并在生成前與參數記憶知識進行核實,或要求模型進行自我反思,通過不斷迭代反饋及模型自我糾正錯誤,改善生成答案的事實性和一致性。

采用分治思想的提示策略,提示大語言模型將問題拆分成多個子問題,分別進行回答,再對生成的內容進行合并,這樣可以幫助模型更好地理解問題;同時采取該策略,某個子任務的解答不會過度依賴于其他子任務解答的正確性,增強了模型對于中間錯誤的魯棒性。類似地,采用思維鏈策略(如COT、TOT、GOT)要求模型對問題進行連貫且逐步深入的思考,從而提高輸出的邏輯性和深度。

最后,針對用戶可能給出模糊的指令這一情況,提示模型要求用戶對指令進行修改完善,對問題進一步澄清。

4 未來展望

在大語言模型知識沖突領域未來的研究方向上有下述思考。

(1)可靠的評估方法 現有研究多聚焦于大語言模型在特定任務場景下內部參數知識與外部情境知識產生沖突的情形,探討模型在面對知識沖突時對內部參數知識和外部信息的依賴程度及解決沖突的方法。然而,對于如何評估知識沖突,尤其是在不同下游任務背景下的評估方法,現有研究仍顯不足。如何對大語言模型在各種任務場景下處理知識沖突的性能進行評估,以及建立自動化的評估框架和標準指標仍有待進一步研究。通過建立可靠的評估方法,探索知識沖突對模型在不同下游任務下的影響,可以幫助研究者優化模型的設計和應用策略,開發更強大、更可靠的模型。

(2)基于大模型的智能體 目前,大語言模型在處理知識沖突的研究側重于提升模型訓練數據的質量、提供更準確的外部信息,以及設計更有效的提示詞等方面。這些方法雖然在一定程度上提高了模型輸出的準確性,但對于模型自主識別和解決知識沖突的能力仍然缺乏深入探討。未來對于大語言模型的研究更應關注其在處理復雜信息源中的自主決策能力,尤其是在面對可能引起知識沖突的場景時;研究基于大模型的智能體,使其能夠識別并管理知識沖突,是應對這一挑戰的有效途徑。

此類智能體首先需要能夠實現知識沖突檢測,即具備識別多樣化信息源中存在知識沖突的內容,以及決策出需要剔除或修正的知識點。同時,根據實際需求主動尋找并整合新知識,優化和更新現有背景知識,以提供更為準確和詳盡的回復。開發此類智能體不僅可提高模型在復雜信息環境中的適應性和實用性,還能增強其可靠性和用戶信任度。

(3)多模態背景下的知識沖突 現有研究多集中于單一文本模態,而多模態領域的知識沖突則相對較少探討。現實世界信息通常以視覺、聽覺和文本等多種形式表達,這些模態間可能存在不一致或矛盾。未來可探索不同模態間的知識表示、跨模態知識融合、跨模態推理,以及解決模態間知識沖突等方向。理解和解決多模態數據中的知識沖突,可極大提升模型對復雜現實情境的理解能力,提高其在決策支持、自動化內容生成和人機交互等領域的準確性和效率,既是提升大模型實用性和智能化水平的關鍵步驟,也是一個具有挑戰性的前沿研究領域。 (參考文獻略)

李興明

國防科技大學博士研究生。主要研究方向為大語言模型的檢索增強與知識沖突。

胡慶擁

軍事科學院助理研究員。主要研究方向為大規模三維點云語義理解等,谷歌學術引用5000余次,入選斯坦福大學2023年度全球前2%科學家榜單、中國科協青年人才托舉工程。

選自《中國人工智能學會通訊》 2024年第14卷第5期 青托專欄

付費5元查看完整內容

相關內容

摘要—多模態情感計算(MAC)由于其在人類行為和意圖分析中的廣泛應用,尤其是在以文本為主導的多模態情感計算領域中,受到了越來越多的關注。本綜述從自然語言處理(NLP)視角出發,介紹了多模態情感計算的最新趨勢,涵蓋四個熱門任務:多模態情感分析、多模態對話情感識別、多模態基于方面的情感分析以及多模態多標簽情感識別。本綜述的目標是探索當前多模態情感研究的現狀,識別發展趨勢,突出不同任務之間的相似性和差異性,并為多模態情感計算在NLP視角下的最新進展提供全面報告。本綜述涵蓋了任務的形式化,概述了相關研究工作,描述了基準數據集,并詳細介紹了每個任務的評估指標。此外,本文簡要討論了涉及面部表情、聲學信號、生理信號和情感原因的多模態情感計算研究。我們還討論了多模態情感計算中的技術方法、挑戰及未來發展方向。為了支持進一步的研究,我們發布了一個匯集了多模態情感計算相關工作的資源庫,提供了詳細的資源和參考文獻,供研究社區使用。

情感計算結合了計算機科學、心理學和認知科學的專業知識,其目標是賦予機器識別、解釋和模擬人類情感的能力【1】–【6】。當今世界充滿了各種模態——我們通過視覺感知物體,通過聽覺感受聲音,通過觸覺感受物體的質地,通過嗅覺聞到氣味,等等。模態是指體驗的感知或發生方式,通常與視覺或觸覺等感官模態相關,這些模態對交流和感知至關重要。在多個領域的多模態學習取得重大進展【7】【8】后,多模態情感計算的進展加速并受到越來越多的關注。

多模態情感計算旨在開發能夠在多種模態下解釋和推理情感或情緒狀態的模型。在其早期階段,情感計算的研究主要集中在單一模態任務上,分別研究基于文本、音頻和視覺的情感計算。例如,D-MILN【9】是一個文本情感分類模型,而工作【10】利用訓練在原始音頻上的雙向長短期記憶(BiLSTM)模型預測群體反應的平均情感。如今,情感分析已廣泛應用于各種模態中,用于市場研究、品牌監測、客戶服務分析和社交媒體監控等應用。多媒體技術的最新進展【11】–【14】拓寬了信息傳播的渠道,新聞、微博等社交媒體平臺以及視頻內容的涌現將文本(口語特征)、聲學(節奏、音高)和視覺(面部屬性)信息整合起來,用于全面分析人類情感。例如,Xu等人【15】將圖像模態數據引入傳統的基于文本的方面級情感分析,創建了多模態基于方面的情感分析新任務。同樣,Wang等人【16】將文本情感原因對提取擴展到多模態對話環境中,利用多模態信號(文本、音頻和視頻)增強模型理解情感及其原因的能力。

多模態情感計算任務與機器學習中的多個學習范式密切相關,包括遷移學習【17】–【19】、多模態學習【20】【21】、多任務學習【22】–【24】和語義理解【25】【26】。在遷移學習方面,它使得在一個領域訓練的情感分析模型能夠適應其他領域的有效表現。通過在目標領域有限的數據上微調預訓練模型,這些模型可以遷移到新領域,從而提升其在多模態情感計算任務中的表現。在多模態學習中,跨模態注意力動態對齊并聚焦于來自不同模態的相關信息,通過突出關鍵特征及其交互來增強模型捕捉情感的能力。在多任務學習中,跨情感計算任務和模態的共享表示通過從文本、音頻和視頻中捕捉共同的情感相關特征來提升表現。 最近,多模態學習的研究通過在大規模多模態數據集上預訓練多模態模型,進一步提升了下游任務的性能,如多模態情感分析【27】–【30】。隨著預訓練模型規模的擴大,參數高效的遷移學習方法如適配器【31】、提示【32】、指令微調【33】和上下文學習【34】【35】等不斷涌現。越來越多的多模態情感計算研究利用這些參數高效的遷移學習方法,將預訓練模型(如單模態預訓練模型或多模態預訓練模型)的知識遷移到下游情感任務中,通過進一步微調預訓練模型來提升模型性能。例如,Zou等人【36】設計了一個多模態提示Transformer(MPT)用于跨模態信息融合。UniMSE【37】提出了一種基于適配器的模態融合方法,它將聲學和視覺信號注入T5模型中,與多層次的文本信息進行融合。

多模態情感計算涵蓋了情感分析、觀點挖掘和情感識別等任務,使用的模態包括文本、音頻、圖像、視頻、生理信號和觸覺反饋。本綜述主要關注三種關鍵模態:自然語言、視覺信號和聲音信號。我們在本綜述中突出了四個主要任務:多模態情感分析(MSA)、多模態對話中的情感識別(MERC)、多模態基于方面的情感分析(MABSA)和多模態多標簽情感識別(MMER)。多模態情感計算領域已有大量研究,且已有多篇綜述【14】【38】–【40】發表。然而,這些綜述主要集中于特定的情感計算任務或單一模態,忽略了跨多任務的多模態情感計算的總體概況,以及這些任務之間的一致性和差異性。

本綜述的目標有兩點。首先,旨在為初學者提供多模態情感計算的全面概述,探索情感分析中的深度學習,詳細介紹任務、輸入、輸出及相關數據集。其次,為研究人員提供反思過去發展、探索未來趨勢的視角,并研究多模態情感分析和情感識別領域的技術方法、挑戰及研究方向。


綜述的結構

第III節概述了多模態情感任務的任務形式化及應用場景。第IV節介紹了特征提取方法和最近的多模態預訓練模型(如CLIP、BLIP、BLIP2)。第V節從多模態融合和多模態對齊兩個角度分析了多模態情感研究,并簡要總結了用于進一步微調預訓練模型的參數高效遷移方法。第VI節回顧了關于MSA、MERC、MABSA和MMER的文獻,重點討論了多任務學習、預訓練模型、增強知識和上下文信息。此外,第VII節總結了多模態數據集,第VIII節涵蓋了每個多模態情感計算任務的評估指標。在回顧多模態情感計算工作后,第IX節簡要回顧了基于面部表情、聲學信號、生理信號和情感原因的多模態情感計算工作,突出其一致性、差異性及其最新趨勢。第X節從三個方面展望了未來工作:多模態情感計算任務的統一、外部知識的引入以及較少研究的模態情感計算。最后,第XI節總結了本綜述及其對多模態情感計算社區的貢獻。

多模態情感計算中的多模態學習

多模態學習涉及從不同模態中學習表示。通常,多模態模型應首先基于語義對模態進行對齊,然后再融合多模態信號。在對齊后,模型將多個模態組合成一個表示向量。

A. 初步概述

隨著預訓練模型規模的擴大,出現了諸如適配器【31】、提示【32】、指令微調【33】和上下文學習【34】【35】等參數高效的遷移學習方法。在這種范式下,預訓練的語言模型(LMs)不再通過目標工程適應下游任務,而是通過提示、指令微調和上下文學習,將下游任務重新格式化,使其更像原始LM訓練期間解決的任務。例如,在視覺語言模型(VLMs)中,像GPT-4V【65】和Flamingo【67】的提示使用,使模型能夠基于視覺和文本輸入的結合來解釋和生成輸出。與提示不同,指令微調屬于提示學習范式。此外,像InstructBLIP【70】和FLAN【72】這樣的模型表明,指令微調不僅提高了模型對指令的遵循性,還增強了其跨任務的泛化能力。在多模態情感計算領域,研究人員可以利用這些參數高效的遷移學習方法(例如適配器、提示和指令微調),將預訓練模型(例如單模態預訓練模型或多模態預訓練模型)的知識遷移到下游情感任務中,并通過情感數據集進一步微調預訓練模型。鑒于多模態情感計算涉及多模態學習,因此我們從多模態融合和多模態對齊的角度分析多模態情感計算的相關工作,如圖1所示。

B. 多模態融合

多模態信號是異質的,來源于各種信息源,因此將多模態信號整合為一個表示至關重要。Tasi等人【74】根據融合階段將多模態融合總結為早期融合、晚期融合和中間融合。早期融合在模型處理之前,將來自不同模態的特征在輸入級別進行組合。晚期融合則通過單獨的子網絡分別處理來自不同模態的特征,并在做出最終決策之前的晚期階段將這些子網絡的輸出進行組合。晚期融合使用單模態的決策值,并通過如平均【121】、投票方案【122】、基于通道噪聲的加權【123】和信號方差【124】等機制將它們結合起來,或者通過學習模型【6】【125】進行融合。這兩種融合策略面臨一些問題。例如,特征級別的早期融合在融合操作后可能低估模態內的動態,而決策級別的晚期融合在融合操作之前可能難以捕捉模態間的動態。不同于前兩種方法的地方在于,中間融合是在模型學習器的中間層結合來自不同模態的特征,允許模態在不同的處理階段進行更多的交互,從而可能產生更豐富的表示【37】【126】【127】。基于這些融合策略,我們從三個方面回顧了多模態融合:跨模態學習、模態一致性與差異性、多階段模態融合。圖2展示了模態融合的三個方面。

**1) 跨模態學習

跨模態學習關注的是通過引入模態間的依賴關系和交互來實現更好的模態融合。早期的多模態融合工作【73】主要在特征空間中進行幾何操作,以融合多種模態。最近,跨模態學習的常見方式是引入基于注意力的學習方法來建模模態間和模態內的交互。例如,MuLT【74】提出了多模態Transformer,用于學習模態間的交互。Chen等人【75】通過三模態協同交互增強了模態內和模態間的特征,并統一了三種模態的特性(跨模態)。楊等人【76】提出了跨模態BERT(CM-BERT),旨在基于預訓練的BERT模型對文本和音頻模態的交互進行建模。Lin等人【77】探討了模態內和模態間表示的復雜關系,用于情感提取。最近,Tang等人【78】提出了多模態動態增強模塊,用于捕捉模態內的情感上下文,減少輔助模態的模態內冗余。Huang等人【79】提出了一個基于跨模態注意力的文本中心融合網絡(TeFNA),這個多模態融合網絡利用跨模態注意力建模未對齊的多模態時間信息。

在情感識別領域,CMCF-SRNet【80】是一個跨模態上下文融合和語義精煉網絡,包含一個跨模態局部約束Transformer和基于圖的語義精煉Transformer,旨在探索話語間的多模態交互和依賴關系。Shi等人【81】提出了一個基于注意力的相關性感知多模態融合框架MultiEMO,該框架基于雙向多頭跨注意力層捕捉文本、音頻和視覺模態間的映射關系。總之,跨模態學習主要關注模態間關系的建模。

**2) 模態一致性與差異性

模態一致性是指對于同一樣本,不同模態之間共享的特征空間,而模態差異性則突出每種模態提供的獨特信息。大多數多模態融合方法將表示分為模態不變(一致性)和模態特定(差異性)兩個組成部分。模態一致性有助于處理缺失模態,而模態差異性則利用每個模態的互補信息來改進整體數據理解。例如,幾項研究【86】【87】通過對比學習探索了模態一致性與差異性的學習。Han等人【85】通過最大化模態間及模態內的互信息來探索模態一致性。另一項研究【86】提出了一個混合對比學習框架,該框架同時進行模態內/模態間對比學習和半對比學習,建模跨模態交互,保持類間關系,并減少模態差距。此外,Zheng等人【87】將模態對之間的互信息最大化與輸入數據和相應特征之間的互信息最小化相結合。該方法旨在提取模態不變且任務相關的信息。模態一致性也可以被視為將多種模態投射到共同潛在空間(模態不變表示)的過程,而模態差異性則指將模態投射到模態特定的表示空間。例如,Hazarika等人【88】提出了一種方法,將每種模態投射到模態不變和模態特定的空間中。他們實現了一個解碼器,通過模態不變和模態特定特征來重建原始模態表示。AMuSE【84】提出了一個多模態注意力網絡,通過聯合學習模式特定的外周和中央網絡,捕捉不同層次空間抽象下的跨模態交互。對于細粒度的情感分析,Xiao等人【89】提出了CoolNet,以提高視覺語言模型在無縫整合視覺和語言信息方面的性能。Zhang等人【90】通過探索模態一致性,提出了一個基于融合判別注意力網絡的方面級情感分類模型。

**3) 多階段模態融合

多階段多模態融合【128】【129】指的是將從多個階段或多個尺度提取的模態信息結合起來,以融合模態表示。Li等人【94】設計了一個兩階段對比學習任務,學習相同情感類別數據的相似特征,并為不同情感類別的數據學習可區分的特征。HFFN【95】將多模態融合過程分為分解、征服和組合三個部分,在每個局部塊學習局部交互,并通過跨局部交互傳遞信息來探索全局交互。與HFFN的工作不同,Li等人【96】對齊并融合了文本和圖像的token級特征,設計了基于標簽的對比學習和基于數據的對比學習,以捕捉多模態數據中與情感相關的共同特征。一些工作【97】將融合過程分解為多個階段,每個階段專注于部分多模態信號,以實現更專門和有效的融合。此外,CTFN【130】提出了一種新的特征融合策略,按照層次化的方式進行,首先兩兩融合模態,然后再融合三種模態。此外,在多個層次的模態融合方面也取得了進展,例如,Li等人【99】提出了一種基于多層次相關性挖掘和自監督多任務學習的多模態情感分析方法,Peng等人【100】提出了一種細粒度模態標簽的多階段網絡(FmlMSN),利用來自文本、音頻、圖像及其組合的七種情感標簽,在不同粒度上進行信息整合。研究人員通常專注于模型決策前的尺度級模態對齊和模態融合。Sharafi等人【93】提出了一種新的融合方法,利用不同的尺度進行多模態情感識別。

C. 多模態對齊

多模態對齊涉及在融合多模態數據之前對模態語義進行同步。一個關鍵挑戰是處理缺失模態的情況,例如由于攝像頭關閉、用戶沉默或設備故障導致語音和文本同時缺失。由于始終擁有所有模態的假設在現實中通常不切實際,因此多模態對齊必須解決這些缺失。此外,它還涉及通過語義對齊來對齊圖像、文本和音頻中的對象。因此,我們從處理缺失模態和實現語義對齊的角度討論多模態對齊。圖3展示了多模態對齊的示意圖。

**1) 缺失模態的對齊

在實際場景中,數據收集有時會由于不可預見的事件同時丟失某些模態。雖然多模態情感計算通常假設所有模態都可用,但這一假設在實踐中經常失敗,這可能會導致在缺少某些模態時,模態融合和對齊模型出現問題。我們將現有的處理缺失模態的方法分為四類。第一類是數據增強方法,通過隨機刪除輸入來模擬缺失模態的情況。Parthasarathy等人【107】提出了一種策略,在訓練過程中隨機刪除視頻輸入的剪輯或幀,模擬現實世界場景。Wang等人【108】通過訓練情感識別模型,迭代性地進行數據增強,處理話語級模態缺失問題。第二類基于生成方法,直接預測給定可用模態的缺失模態【131】。例如,Zhao等人【106】提出了缺失模態想象網絡(MMIN),在不同缺失模態條件下,根據可用模態預測任何缺失模態的表示,以應對不確定的缺失模態問題。Zeng等人【109】提出了基于集成的缺失模態重建(EMMR)網絡,以檢測并恢復關鍵缺失模態的語義特征。Yuan等人【110】提出了一種基于Transformer的特征重建網絡(TFR-Net),該網絡通過增強模型在非對齊模態序列中隨機缺失的魯棒性。Luo等人【111】提出了多模態重建與對齊網絡(MRAN),專門處理缺失模態問題,尤其是緩解文本模態缺失帶來的性能下降。

第三類旨在學習聯合多模態表示,這些表示能夠包含基于組合的視覺和文本輸入的相關信息。例如,Ma等人【133】提出了一個統一的深度學習框架,通過相關分析有效處理音視頻情感識別中的缺失標簽和缺失模態問題。Zeng等人【113】提出了一個標簽輔助Transformer編碼器網絡(TATE),用于處理不確定的缺失模態問題,該網絡設計了一個標簽編碼模塊,以覆蓋單模態和多模態缺失的情況,從而引導網絡對缺失模態的關注。Zuo等人【114】提出使用不變特征的缺失模態想象網絡(IF-MMIN),該網絡包含不變特征學習策略和基于不變特征的想象模塊(IF-IM)。通過這兩種策略,IF-MMIN能夠在預測缺失模態時緩解模態差距,從而提高多模態聯合表示的魯棒性。Zhou等人【116】在缺失一種或多種模態的情況下,提出了一種新穎的腦腫瘤分割網絡。該網絡由三個子網絡組成:一個特征增強生成器、一個相關性約束模塊和一個分割網絡。 最后一類是基于翻譯的方法。Tang等人【98】提出了耦合翻譯融合網絡(CTFN),通過耦合學習建模雙向交互,確保在缺失模態情況下的魯棒性。Liu等人【115】提出了一種基于模態翻譯的多模態情感分析模型(MTMSA),該模型對不確定的缺失模態具有魯棒性。總而言之,關于缺失模態對齊的研究集中在基于現有模態信息的缺失模態重建和學習。

**2) 跨模態語義對齊

語義對齊旨在找到同一樣本中多種模態之間的連接,指的是通過一種模態信息搜索另一種模態信息,反之亦然。在多模態情感分析領域,Tsai等人【74】利用跨模態和多尺度模態對齊,分別在語義層面實現模態一致性。ScaleVLAD【200】提出了一種融合模型,通過共享的局部聚合描述符向量,從文本、視頻和音頻中聚集多尺度表示,以改進未對齊的多模態情感分析。Yang等人【104】將未對齊的多模態序列數據轉換為一個具有異質節點和邊的圖,捕捉模態間和時間上的豐富交互。Lee等人【201】將音頻和基礎文本信號按相同步長分段,使得順序信號的相同時間步覆蓋信號的相同時間跨度。Zong等人【202】利用多次雙向翻譯,與傳統的翻譯方法相比,產生了雙倍的多模態融合嵌入。Wang等人【203】提出了一種基于Transformer的多模態編碼–解碼翻譯網絡,并采用了以文本為主要信息、聲音和圖像為次要信息的聯合編碼–解碼方法。Zhang等人【120】提出了一種新穎的多級對齊方法,用于彌合聲學和詞匯模態之間的差距,該方法可以有效對比實例級和原型級的關系,在潛在空間中分離多模態特征。Yu等人【204】提出了一種無監督方法,通過最小化兩種模態之間的Wasserstein距離,強迫兩種編碼器產生更合適的表示,以便最終對文本和圖像進行對齊。 Lai等人【119】提出了一種基于協方差矩陣的深度模態共享信息學習模塊,用于捕捉模態之間的共享信息。此外,我們使用了一個基于自監督學習策略的標簽生成模塊,以捕捉模態的私有信息。我們的模塊在多模態任務中是即插即用的,并且通過改變參數化,它可以調整模式之間的信息交換關系,學習特定模式之間的私有或共享信息。我們還采用了多任務學習策略,幫助模型專注于模態差異的訓練數據。為了增強模型的魯棒性,Robust-MSA【118】提出了一個交互式平臺,可視化模態噪聲的影響,以幫助研究人員提高模型能力。

多模態情感計算中的模型

在多模態情感計算領域,相關工作在技術路線發展上表現出顯著的一致性。為了更清晰地展示,我們根據多任務學習、預訓練模型、增強知識、上下文信息這四個方面對這些工作進行了分類。同時,我們簡要總結了在多模態情感分析(MSA)、多模態對話情感識別(MERC)、多模態基于方面的情感分析(MABSA)和多模態多標簽情感識別(MMER)任務中的進展。圖4總結了在這些方面的典型多模態情感計算工作,表II展示了多模態情感計算的分類。

A. 多任務學習

多任務學習是在多個相關任務上同時訓練模型,通過共享信息來提升性能。損失函數結合了所有任務的損失,通過梯度下降來更新模型參數。在多模態情感計算中,多任務學習有助于區分模態不變和模態特定特征,并將與情感相關的子任務整合到統一框架中。圖5展示了多模態情感學習任務中多任務學習的范式。

**1) 多模態情感分析

在多模態情感分析領域,Self-MM【134】為單一模態生成偽標簽【205】–【207】,然后基于生成的和原始標簽共同訓練單模態和多模態表示。此外,還使用了一種模態間的翻譯框架ARGF,作為輔助任務將一種模態翻譯到另一種模態,從而規范多模態表示學習【135】。Akhtar等人【136】利用情感和情緒任務的相互依賴性來提高模型在這兩個任務上的性能。Chen等人【137】提出了一個基于視頻的跨模態輔助網絡(VCAN),該網絡由一個音頻特征映射模塊和一個跨模態選擇模塊組成,以利用輔助信息。Zheng等人【138】提出了帶有松弛重建的解耦翻譯網絡(DTN),用于捕捉期望的信息屬性,獲取統一的特征分布,并減少冗余。Zheng等人【87】結合了模態對之間的互信息最大化(MMMIE)與輸入數據和相應特征之間的互信息最小化,在單一架構中共同提取模態不變和任務相關的信息。

**2) 多模態對話情感識別

在多模態情感識別社區中,Zheng等人【24】提出了一個名為面部表情感知多模態多任務學習的兩階段框架(FacialMMT),該框架在統一架構中共同訓練多模態面部識別、無監督面部聚類和面部匹配,以利用幀級別的面部情感分布來幫助改進基于多任務學習的話語級情感識別。Zhang等人【208】設計了兩種多任務學習解碼器,即單級解碼器和多級解碼器,以探索其潛力。更具體地說,單級解碼器的核心是掩蔽的外模態自注意機制。Sun等人【139】設計了兩個輔助任務,以緩解模態間融合不足的問題,并引導網絡捕捉和對齊與情感相關的特征。Zhao等人【140】提出了基于Transformer的深度融合網絡(TDFNet)用于多模態情感識別,解決了上述問題。TDFNet中的多模態嵌入(ME)模塊通過使用大量無標簽數據為模型提供多模態信息的先驗知識,來緩解數據稀缺問題。Ren等人【141】提出了一種新穎的多模態對抗學習網絡(MALN),該網絡首先從上下文序列中挖掘說話者的特征,然后將其與單模態特征結合起來。Liu等人【142】提出了LGCCT,一種輕量級的門控和交叉互補Transformer,用于多模態語音情感識別。

**3) 多模態基于方面的情感分析

Yang等人【144】提出了一個名為跨模態多任務Transformer(CMMT)的多任務學習框架,該框架包含兩個輔助任務,用于學習方面/情感感知的模態內表示,并引入了一個文本引導的跨模態交互模塊,以動態控制視覺信息對每個詞的模態間交互表示的貢獻。Jain等人【145】提出了一個分層多模態生成方法(AbCoRD),用于基于方面的投訴和理由檢測,將多任務問題重新表述為多模態文本生成任務。Ju等人【146】是第一個聯合執行多模態ATE(MATE)和多模態ASC(MASC)的人,并提出了一個聯合框架JML,用于基于多模態方面級情感分析(MALSA)的輔助跨模態關系檢測,以控制視覺信息的適當利用。Zou等人【36】設計了一個多模態提示Transformer(MPT)進行跨模態信息融合。同時,該工作使用了混合對比學習(HCL)策略,以優化模型處理少量標簽樣本的能力。Chen等人【82】設計了音頻模塊應比文本模塊更具表現力,并將單一模態情感表示動態融合到多模態情感表示中,提出了相應的基于規則的多模態多任務網絡(MMRBN),用于限制表示學習。

**4) 多模態多標簽情感識別

對于多模態多標簽情感識別,Ge等人【92】設計了對抗性時間掩蔽策略和對抗性參數擾動策略,以分別增強其他模態的編碼和模型的泛化能力。MER-MULTI【147】是一種標簽分布自適應方法,適應了訓練集和測試集之間的標簽分布,以消除與測試集特征不匹配的訓練樣本。Akhtar等人【209】提出了一個深度多任務學習框架,該框架聯合執行情感和情緒分析,利用兩個相關任務(即情感和情緒)的相互依賴性來提高它們各自的性能。

B. 預訓練模型

近年來,大語言模型(LLM)【56】【210】和多模態預訓練模型【21】【26】【211】【212】取得了顯著進展【25】【210】【213】。與非預訓練模型相比,預訓練模型包含大量轉移知識【27】【31】,可以引入到多模態表示學習中,以探索更豐富的信息。圖6展示了預訓練模型在多模態情感學習任務中的使用。

**1) 多模態情感分析

在多模態情感分析領域,Rahman等人【21】提出了一種附加到預訓練模型BERT和XLNet上的多模態適應門(MAG),該適應門允許BERT和XLNet通過生成一個基于視覺和聲學模態的偏移來接受多模態的非語言數據。UniMSE【37】是基于T5模型【57】的統一情感共享框架,該框架將非語言信號注入預訓練的Transformer模型中,以探索LLM中存儲的知識。AOBERT【148】引入了一種單流Transformer結構,將所有模態整合到一個BERT模型中。Qian等人【149】在詞級別嵌入情感信息到預訓練的多模態表示中,以便在有限的標注數據上進行進一步學習。TEASAL【150】是一個基于Transformer的語音前綴語言模型,它利用一個傳統的預訓練語言模型作為跨模態Transformer編碼器。Yu等人【151】研究了面向目標的多模態情感分類(TMSC),并提出了一個多模態BERT架構,用于多模態情感分析任務。Cheng等人【152】設置了分層參數共享和分解的共同注意機制,以便在跨注意力塊之間共享參數,從而允許多模態信號在每一層進行交互。ALMT【153】結合了一個自適應超模態學習(AHL)模塊,用于在語言特征的指導下從視覺和音頻特征中學習無關性/沖突抑制的表示。

**2) 多模態對話情感識別

在多模態對話情感識別領域,FacialMMT【24】是一個兩階段框架,使用RoBERTa【214】和Swin Transformer作為表示學習的主干。Qiu等人【215】采用VATT【30】分別編碼視覺、文本和音頻,并使學到的模態表示進行對齊。QAP【19】是一個量子啟發的自適應優先學習模型,采用ALBERT作為文本編碼器,并引入了量子理論(QT)以自適應地學習模態優先級。UniMSE【37】提出了一種基于預訓練模型T5的多模態融合方法,旨在通過預訓練的知識融合模態信息。GraphSmile【154】采用RoBERTa【214】逐層跟蹤多模態對話中的復雜情感線索,逐層吸收模態內和模態間的情感依賴關系,充分捕捉跨模態線索,同時有效避免融合沖突。

**3) 多模態基于方面的情感分析

在多模態基于方面的情感分析研究中,Xu等人【47】首次提出了多模態基于方面的情感分析任務,并提出了一種新穎的多交互記憶網絡(MIMN),該網絡包含兩個交互記憶網絡,分別用于監督文本和視覺信息與給定方面的關聯,并學習跨模態數據之間的交互影響以及單模態數據中的自我影響。Yang等人【17】提出了一種新穎的生成多模態提示(GMP)模型,用于MABSA,該模型包含多模態編碼器模塊和N流解碼器模塊,并通過少量標注的多模態樣本執行三項MABSA相關任務。Liu等人【155】提出了一種基于視覺提示的實體相關無監督預訓練,用于MABSA。Ling等人【156】提出了一個任務特定的視覺-語言預訓練框架(VLPMABSA),這是一個統一的多模態編碼器-解碼器架構,適用于所有的預訓練和下游任務。Zhang等人【157】構建了一個動態重加權的BERT(DR-BERT),設計用于學習基于BERT的動態方面導向語義。

**4) 多模態多標簽情感識別

一些關于多模態多標簽情感識別的工作利用了預訓練模型來提高模型性能。據我們所知,TAILOR【91】是一個新穎的多模態學習框架,用于多標簽情感識別,它對多個模態之間的共性和差異進行了對抗性描繪。TAILOR通過對抗性地提取私有和共性模態表示來執行這些任務。

C. 增強知識

在機器學習和人工智能中,外部知識是指來自訓練數據集之外的信息,包括知識庫、文本語料庫、知識圖譜、預訓練模型和專家見解。整合這些知識可以提高模型的性能、泛化能力、可解釋性以及對噪聲或有限數據的魯棒性。圖7展示了在多模態情感學習任務中整合外部知識的常見方法。

**1) 多模態情感分析

在多模態情感分析研究領域,Rahmani等人【18】通過層次劃分用戶構建了自適應樹,并利用基于注意力的融合來在樹內轉移認知導向的知識。TETFN【163】是一種新穎的方法,名為文本增強Transformer融合網絡,它學習面向文本的成對跨模態映射,以獲得有效的統一多模態表示。Zhu等人【164】提出了情感知識增強的注意力融合網絡(SKEAFN),這是一個新穎的端到端融合網絡,通過整合來自外部知識庫的附加情感知識表示來增強多模態融合。

**2) 多模態對話情感識別

在多模態對話情感識別領域的研究中,Fu等人【166】將上下文建模、知識豐富和多模態(文本和音頻)學習集成到基于GCN的架構中。Li等人【167】提出了一種解耦的多模態蒸餾(DMD)方法,旨在通過靈活和自適應的跨模態知識蒸餾來增強每種模態的判別特征。Sun等人【168】研究了一種基于粗集理論的多模態融合Transformer網絡,通過粗集跨注意力促進了多模態信息的交互和特征引導。

**3) 多模態基于方面的情感分析

在多模態基于方面的情感分析研究中,Xu等人【172】引入了外部知識,包括文本語法和跨模態關聯知識,通過知識誘導矩陣切斷文本或跨模態模態之間的無關連接。Yang等人【173】提煉了視覺情感線索,并將其與文本內容對齊,以選擇性地與文本模態中的目標方面匹配和融合。CoolNet【174】是一個跨模態的細粒度對齊和融合網絡,旨在提高視覺-語言模型在無縫整合視覺和語言信息方面的表現。

**4) 多模態多標簽情感識別

在多模態多標簽情感識別研究領域,Zheng等人【176】提出通過使用效價-喚醒(VA)空間來表示每個情感類別,以捕捉情感類別之間的相關性,并設計了一種基于VA的對比學習算法。CARAT【177】提出了基于對比的特征重建和聚合機制,用于MMER任務。具體而言,CARAT設計了一種基于重建的融合機制,通過對比學習模態分離和標簽特定特征,來更好地建模細粒度的模態與標簽之間的依賴關系。

D. 上下文信息

上下文是指圍繞某個詞或短語的單詞、句子或段落,這些信息為該詞或短語賦予了特定的含義。理解上下文對于對話系統或情感分析等任務至關重要。在對話中,上下文包括之前話語的歷史,而對于新聞來說,它指的是整篇文章提供的總體描述。總的來說,上下文信息幫助機器做出更準確的預測。圖8展示了上下文信息在多模態情感學習任務中的重要性。

**1) 多模態情感分析

在多模態情感分析領域,Chauhan等人【180】采用了一個上下文感知的注意力模塊,通過編碼器-解碼器結構學習參與模態之間的模態內交互。Poria等人【181】提出了一個帶有多級多重注意的遞歸模型,以捕捉話語之間的上下文信息,并設計了一個遞歸模型來捕捉話語之間的上下文信息,引入了基于注意力的網絡,以提高上下文學習和動態特征融合的效果。

**2) 多模態對話情感識別

在多模態對話情感識別研究領域,Hu等人【185】有效利用了多模態依賴關系,并利用說話者信息來建模說話者之間和說話者內部的依賴關系。Zhang等人【80】提出了一個跨模態上下文融合和語義精煉網絡(CMCF-SRNet),解決了話語之間語義關系信息不足的局限性。Zhang等人【187】構建了多個特定模態的圖,以建模多模態上下文的異質性。Chen等人【188】提出了一個基于GNN的模型,該模型探索了多變量關系,并通過評估多頻信號的情感差異和共性的不同重要性來捕捉這些關系。

**3) 多模態基于方面的情感分析

在多模態基于方面的情感分析研究中,Yu等人【158】提出了一種無監督的方法,該方法最小化了兩個模態之間的Wasserstein距離,強制兩個編碼器生成更適合最終提取的表示。Xu等人【192】設計并構建了一個多模態中文產品評論數據集(MCPR),以支持MABSA的研究。

**4) 多模態多標簽情感識別

MMS2S【197】是一種多模態序列到集合的模型,用于有效建模標簽依賴和模態依賴。MESGN【198】首次提出了這一任務,該模型同時建模模態到標簽和標簽到標簽的依賴關系。Zhao等人【199】提出了一個通用的多模態對話感知交互框架(MDI),用于建模對話上下文對情感識別的影響。 結論

多模態情感計算(MAC)已成為人工智能領域中的一個重要研究方向,并在理解和解釋情感方面取得了顯著進展。本文綜述了與多模態情感計算相關的多種任務,涵蓋了其研究背景、定義、相關工作、技術方法、基準數據集和評估指標。我們將多模態情感計算中的任務劃分為四類:多任務學習、預訓練模型、增強知識和上下文信息,涉及多模態情感分析(MSA)、多模態對話情感識別(MERC)、多模態基于方面的情感分析(MABSA)和多模態多標簽情感識別(MMER)。此外,我們總結了不同情感計算任務之間的一致性和差異性,并報告了多模態情感分析中固有的挑戰,探索了未來研究和發展的潛在方向。

付費5元查看完整內容

摘要——大型語言模型(LLMs)的快速進展有潛力革新各個領域,但其迅猛發展在監督、倫理開發和建立用戶信任方面帶來了顯著挑戰。本綜述全面調研了LLMs中的關鍵信任問題,重點關注意外傷害、缺乏透明性、易受攻擊、人類價值觀對齊和環境影響等問題。我們強調了可能破壞用戶信任的諸多障礙,包括社會偏見、決策過程中的不透明性、潛在的濫用以及技術快速演變帶來的挑戰。隨著LLMs在金融、醫療、教育和政策等敏感領域的普及,解決這些信任差距至關重要。 為了解決這些問題,我們建議采用綜合方法,包括倫理監督、行業問責、監管和公眾參與。我們主張重塑AI開發規范、對齊激勵措施,并在整個機器學習過程中整合倫理考量,這需要技術、倫理、法律和政策等不同領域專業人士的密切合作。我們的綜述通過提供一個評估LLMs信任的強大框架和對復雜信任動態的深入分析,為該領域作出了貢獻。我們提供了上下文化的指南和標準,旨在負責任地開發和部署這些強大的AI系統。 本綜述識別了在開發可信AI過程中面臨的關鍵限制和挑戰。通過應對這些問題,我們的目標是創建一個透明、負責的AI生態系統,在帶來社會利益的同時將風險降至最低。我們的研究成果為研究人員、政策制定者和行業領導者提供了寶貴的指導,幫助他們在各類應用中建立對LLMs的信任,并確保其負責任地使用造福社會。 關鍵詞——AI治理、算法偏見、可解釋的AI、大型語言模型、可信的AI。

人工智能(AI)的發展顯著受到了作出基礎性貢獻的關鍵人物的影響。AI的創始人約翰·麥卡錫提出了“人工智能”一詞,并倡導使用數學邏輯來表示知識,開創了知識表示領域。他還開發了LISP,這是一種對AI進展至關重要的編程語言[1]。麻省理工學院計算機科學與人工智能實驗室的聯合創始人馬文·明斯基通過理論AI研究推動了對機器智能和推理的理解[2]。由麥卡錫、明斯基、內森尼爾·羅切斯特和克勞德·香農提出的1956年達特茅斯會議是AI歷史上的一個關鍵時刻,將該領域從理論概念轉向實際應用[3]。這一時期見證了啟發式搜索技術和早期機器學習模型的進步,展示了AI向實際應用的轉變。

1970年代后期,AI進展放緩,被稱為“第一次AI寒冬”。這是由于未能達到預期和計算能力有限導致資金和興趣的減少。1980年代見證了向實際AI應用的轉變,如專家系統和自然語言處理,為大型語言模型(LLMs)奠定了基礎,推進了AI對語言理解和生成的能力。盡管在AI寒冬期間面臨挑戰,早期的專家系統在AI商業化方面起到了關鍵作用[4]。

最近的AI進展歸因于廣泛的數據集和日益增加的計算能力,特別是GPU的使用。這些因素在推動深度學習技術的發展中起到了關鍵作用,顯著影響了計算機視覺和語音識別[5],[6]。另一個重要的里程碑是語言模型的創建,這些模型能夠處理和生成類人文本,從而擴展了AI的能力。深度神經網絡(DNNs)和LLMs的有效性導致了AI在醫療、金融、交通和零售等各個行業的廣泛采用,提高了效率和數據處理能力[8]-[10]。神經網絡(NNs)用于分析大量數據集并識別模式,而LLMs則用于為自動化客戶服務的聊天機器人提供動力[11]-[14]。這些技術革新了不同領域的技術互動,凸顯了深度學習和語言模型對AI進展的重大影響[9]。 DNN架構,包括LLMs,導致了“黑箱”問題,使得理解其工作原理及其結果變得困難[15]。雖然像決策樹這樣的簡單AI模型是透明的,但LLMs缺乏透明性,這在用于決策時引發了倫理問題。挑戰在于使這些系統更透明和可理解,同時考慮到潛在的偏見和錯誤。解決這些問題的努力包括開發使算法過程更透明的方法,但這在AI倫理和治理中仍然是一個重大挑戰[16]。要更好地理解這一點,請參見圖1,它展示了AI的演變和信任挑戰。

時間軸展示了AI在醫療、金融、交通、零售和電子商務領域的日益擴大影響。LLMs在利用先進的語言生成技術變革內容創建方面處于領先地位。時間軸強調了AI中的信任和監督挑戰以及建立信任策略的重要性[17],[18]。它揭示了AI進展與政策和治理發展之間的差距。

LLMs的最新進展改善了其語言生成能力,但其復雜性阻礙了我們對其決策過程的理解。黃和王在2023年的調查[19]強調了解釋性對LLMs的重要性,特別是在需要透明度和信任的關鍵行業。主要發現包括:a)用于基于神經網絡的NLP模型的事后解釋工具如InSeq工具包;b)模型校準和不確定性估計技術;c)用于擴展和推理的指令微調LLMs研究,問題回答中的元推理;d)LLMs的數學推理能力,語義解析魯棒性研究,減少LLM使用危害的舉措,Aug-imodels等框架[19]用于高效和可解釋的模型,評估代碼訓練的LLMs,以及e)改進LLM推理性能的Chain-of-Thought樞紐措施。他們的研究強調了解釋性對LLMs的倫理和實際重要性。在LLMs被集成到多種應用中時,提供可理解和可解釋的響應是重要的。增強模型設計和交互、提高魯棒性和效率、指導訓練技術都是理解LLM操作的好處。他們的調查是揭開LLM復雜性的一個重要貢獻,為在醫療、金融和法律領域透明和倫理部署LLM奠定了基礎。它為未來研究奠定了基礎,以彌合原始LLM輸出與人類可理解解釋之間的差距。持續開發LLM解釋性對推進AI技術的可信性和可及性至關重要。

A. 構建大型語言模型的信任

黃和王的調查工作[19]及更廣泛的解決“黑箱”問題的努力指明了清晰的前進方向。然而,我們需要一種綜合方法,考慮倫理、技術和政策,以構建AI系統的信任,尤其是像LLMs這樣復雜的模型。 1)LLMs的倫理問題:LLMs在醫療、金融、政策制定和法律系統等領域的日益使用引發了關于隱私、偏見、公平和問責的倫理問題,原因是它們具有先進的自然語言能力。 LLMs可能會因為訓練文本數據中包含敏感信息而損害隱私。這可能導致隱私泄露,例如暴露醫療保健中的機密患者數據或在數據分析中泄露敏感的客戶記錄。為減少這些風險,有必要避免將個人可識別信息納入模型,并評估其隱私影響。確保LLM系統中的透明性和用戶對其數據的控制至關重要。明確的數據隱私指南和法規對于與用戶建立信任至關重要[20]-[30]。 偏見是LLMs的另一個倫理問題。它指的是LLMs在訓練數據中反映和延續的偏見,這可能導致偏見輸出或決策,損害邊緣化群體。性別、種族或文化偏見可能影響LLM模型,導致不公平或刻板印象的輸出和歧視性決策。例如,一個以人力資源為重點的LLM助手可能會對某些群體不利。為解決這一問題,公司應建立多元化的審查委員會,并定期使用偏見檢測工具審核LLM輸出[31]-[33]。 LLMs的另一個倫理問題是公平性,指的是公正待遇。LLM系統必須避免偏見并確保公平,通過公正對待每個人來實現。不公平的LLM模型可能會加劇不平等并造成傷害。例如,在公共政策中使用LLMs評估貸款或抵押申請可能會加劇經濟不平等。實現LLMs的公平性需要防止數據和算法中的偏見,使用對抗性去偏技術,并使用明確定義的指標持續評估公平性[34]-[37]。 問責在LLM系統中至關重要[38]-[40]。由于其復雜的推理過程,LLMs在醫療、司法和就業等影響人們生活的領域中尤其難以追究責任。用戶和利益相關者應知道誰對開發、部署和維護負責。他們應有錯誤、偏見或傷害的申訴機制。組織應建立明確的責任制和透明的治理,包括AI倫理委員會、模型性能的詳細記錄和跟蹤,以及關于LLM系統開發和部署的全面報告。 訓練和運行如GPT-3之類的LLMs需要大量的計算資源,導致高能耗和碳排放[41]。例如,GPT-3的訓練消耗了大約1287 MWh的電力,產生了502公噸的CO2排放,相當于112輛燃油車一年的排放。推理過程可能比訓練消耗更多的能量,估計約60%的AI能量用于推理,40%用于訓練[42]。一次ChatGPT請求的能耗可能是一次谷歌搜索的100倍。盡管LLMs目前對整個ICT行業的排放貢獻不到0.5%,對全球總排放的貢獻不到0.01%,但其影響正在迅速增加[43],[44]。為了促進AI的可持續性,行業應優先透明測量能耗和排放,利用可再生能源數據中心,開發更高效的AI硬件和算法,啟用排放跟蹤功能,并考慮轉向較小的專用模型而非大型通用LLMs。盡管LLMs目前對全球排放的貢獻很小,但其日益廣泛的使用需要積極努力減輕其環境影響,確保AI發展惠及世界而不加劇氣候變化。AI社區、政府和科技公司之間的合作對于實現更可持續的AI未來至關重要[45],[46]。

2)信任基礎上的LLMs技術進步:LLM系統需要解決技術挑戰以建立信任,例如解釋性。解釋性指的是理解和解釋LLM系統的決策過程。透明性通過使用戶理解系統的推理并識別潛在的偏見或錯誤來建立信任。可解釋的LLM系統可以幫助識別倫理問題并提供決策見解[20],[47],[48]。 可解釋AI(XAI)技術對于理解LLMs及建立其復雜系統的信任至關重要。注意力機制提供了對模型預測的見解[49],但其解釋可能存在爭議[50]。更可靠的方法如綜合梯度[51]和代理模型[52]提供了特征相關性的量化指標,增強了我們對模型決策的理解。最新進展應用電路分析[53]來分解復雜的黑箱LLMs為可解釋的元素,提供了模型操作的詳細見解。使用提示技術生成的模型解釋允許全面的因果敘述[54]。然而,重要的是嚴格評估這些解釋的準確性和有用性[55]。使用各種XAI方法對于LLM的負責任使用至關重要。清晰的解釋通過描述模型的能力、局限性和風險來幫助建立終端用戶的信任[56]。它們對于調試[57]、識別偏見[58]和促進倫理使用至關重要。隨著LLMs的進步,開發可解釋的LLMs至關重要。這在技術上具有挑戰性,但在倫理和研究上必不可少。定制的XAI技術需要在各個層次提供解釋,反映模型的邏輯以增強用戶信心、確保安全并指導AI的倫理使用。

另一個技術挑戰是數據偏見。數據偏見指的是LLM訓練數據中的不公平偏向或歧視。它可能導致有偏見的結果并延續社會不平等。解決數據偏見需要采取措施,如數據審計、預處理以減輕偏見以及多樣化訓練數據集以實現代表性和包容性。明確定義的指標可以幫助評估LLM系統的公平性、準確性、可靠性和透明性,提供其倫理表現的量化指標[20],[37],[47],[48]。

最新研究探索了通過解決幻覺和缺乏可解釋性等問題來提高LLMs可信度的技術[59]。他們提出了一種稱為圖上的推理(RoG)的方法,通過知識圖譜與LLMs協同進行真實和可解釋的推理。在其檢索-推理優化方法中,RoG使用知識圖譜檢索推理路徑,以便LLMs生成答案。RoG中的推理模塊使LLMs能夠識別重要的推理路徑并提供可解釋的解釋,增強了AI系統的可信度。通過專注于知識圖譜中的推理過程并提供透明的解釋,像RoG這樣的方法展示了建立LLMs信任的有希望的方向[59]。

具有可靠日志記錄的可解釋系統增強了透明性、審計和問責制[60]。文檔和日志記錄提供了對決策過程的見解,支持錯誤解決,并確保遵守倫理和法規標準,從而建立用戶信任。這些機制使技術和非技術利益相關者能夠理解AI系統的內部運作,并確定影響其輸出的因素。

3)用戶信任的心理因素:用戶對LLMs的信任在很大程度上取決于心理因素,而不僅僅是技術的可靠性[61]-[65]。用戶必須對LLM系統的可靠性、準確性和可信度有信心。通過有效的溝通和透明性可以實現這一點。組織應清楚地傳達LLM系統的能力和局限性,提供有關系統工作原理和決策方式的信息。此外,組織應對其數據收集和使用實踐保持透明,讓用戶了解他們的數據如何被使用和保護。

4)信任基礎上的LLMs政策與治理:有效的治理對于管理部署LLM系統相關的倫理、技術和問責問題至關重要[36],[40],[47],[61],[66]-[69]。應建立結構和流程,以確保LLM系統的倫理和負責任開發、部署和監控。涉及關鍵利益相關者,如AI倫理委員會、監管機構和行業專家,可以提供指導和監督。為了確保公平和無偏見的決策,必須包括用戶反饋和多樣化的觀點。為了建立對LLMs的信任,我們必須解決解釋性和數據偏見等技術問題,同時建立強有力的治理框架。

5)社會經濟影響:必須評估LLMs的社會經濟影響,以了解其對勞動力和社會的影響。LLMs可能會取代人類工人,導致失業和社會動蕩。需要投資于技能發展,以幫助工人適應變化。再培訓計劃和其他培訓可以使工人能夠與LLMs協同工作或從事新角色。應實施優先考慮工作保障和社會支持的政策,以減輕影響。探索LLMs的潛在社會福利,如增加信息獲取,可以促進更包容的社會。在設計和實施LLMs時,倫理考量和負責任的部署至關重要。應建立促進透明、問責和公平的政策和法規。對LLMs影響的仔細考慮、技能發展的投資和負責任的部署對于對社會產生積極影響至關重要[70]-[72]。

B. 本綜述的主要貢獻

本綜述對AI系統的信任進行了全面分析,重點關注LLMs。通過審查倫理、技術和社會因素,我們為負責任的AI開發討論作出了貢獻。我們的綜述提供了應對構建AI系統信任挑戰的見解和建議,特別是LLMs。主要貢獻如下所述。

? 綜合評估框架:本綜述提供了一個用于分析高級AI系統,特別是LLMs中的算法偏見和漏洞的分類法。該框架由八個視角組成,涵蓋透明性、魯棒性、人類價值對齊和環境影響等方面。此方法使得能夠對LLMs的信任進行徹底評估,解決其開發和部署中的問題。通過整合多種視角,該框架提供了LLM可信度的全貌,對負責任的AI作出了重要貢獻。 ?** 綜合信任動態分析**:本綜述審查了影響用戶對AI系統信任的因素,包括心理、倫理、技術和政策方面。通過分析AI能力、法規和社會接受度的交叉點,識別了實現可信AI的障礙。此研究揭示了信任動態,為從事負責任的AI開發和實施的研究人員、政策制定者和行業專業人士提供了指導。 ? 針對LLMs的上下文化指南和標準:本綜述審查了現代AI系統,特別是不透明模型如LLMs的倫理指南和政策標準的應用。倫理指南在確保AI使用的責任方面發揮重要作用。然而,LLMs由于其類人文本生成和缺乏透明性,面臨獨特的挑戰,這使得理解和解釋其行為變得困難。本綜述探討了在實際LLM部署中實施倫理原則的實際意義,考慮了技術限制、社會影響和潛在風險。它識別了局限性并提供了解釋和操作化LLM開發和部署倫理指南的見解。目標是通過突出差距并倡導完善LLM特定指南來促進AI治理,促進AI使用的透明性、公平性和問責制。

C. 本綜述的局限性

本綜述對AI信任進行了全面審查,特別關注LLMs。然而,重要的是要承認我們研究的局限性。我們的分析基于現有的AI倫理和信任領域的文獻和研究,包括專門針對LLMs的相關工作。因此,本綜述可能無法完全捕捉這些快速發展的領域中最新的想法或進展。

我們的分析范圍限于學術出版物和行業報告,這限制了所考慮的觀點范圍。對于LLMs,這尤為相關,因為本綜述可能未包括未出版的研究或不太知名的觀點,這些觀點可能提供寶貴的見解。此外,鑒于AI技術發展和LLMs倫理考慮不斷演變的速度,本綜述中提出的一些討論和結論可能會隨著時間的推移而變得不再相關。盡管我們的綜述旨在涵蓋AI,包括LLMs,越來越多部署在高風險領域中的情況,但它并未詳盡地解決所有與LLMs相關的信任方面或行業特定挑戰。本綜述中提出的解釋和分析基于撰寫時可獲得的最佳數據和研究。讀者在評估這些發現和建議時應考慮這些局限性。

需要強調的是,本綜述的目標是對AI和LLMs的信任進行全面審查,同時保持對分析范圍的透明度。我們旨在通過探索現有的指南和框架、討論構建LLMs信任的方法和挑戰以及提出未來研究方向,為AI信任和倫理的持續對話作出貢獻。我們鼓勵在可能探索較少或快速發展的領域進行進一步研究和對話,因為這些討論對于AI系統負責任的開發和部署至關重要。在本綜述中,我們創建了一個敘述,捕捉了AI信任的當前狀態及其領域中的潛在發展。然而,AI倫理和信任的領域是復雜和多面的,我們的綜述可能未涵蓋每一個細微差別或觀點。盡管如此,我們希望這項工作能為研究人員、政策制定者和從業人員在應對與AI和LLMs信任相關的挑戰和機遇時,提供有價值的資源。

付費5元查看完整內容

理解大規模語言模型(LLMs)中的知識機制對于邁向可信的通用人工智能(AGI)至關重要。本文從一個新的分類法角度回顧了知識機制的分析,包括知識利用和進化。知識利用探討了記憶、理解與應用及創造的機制。知識進化則關注個體和群體LLMs中知識的動態發展。此外,我們討論了LLMs所學到的知識、參數化知識脆弱的原因以及潛在的黑暗知識(假設)所帶來的挑戰。我們希望這項工作能幫助理解LLMs中的知識,并為未來的研究提供見解。

知識是智慧的基石和文明延續的基礎,為我們提供了導航復雜問題和應對新興挑戰的基本原則和指導(Davis et al., 1993; Choi, 2022)。在漫長的進化歷史中,我們致力于利用已獲得的知識和探索未知知識的前沿,以培養更高級的智慧(McGraw and Harbison-Briggs, 1990; Han et al., 2021)。 眾所周知,大規模語言模型(LLMs)也因其涵蓋了廣泛的參數化知識而聞名(Roberts et al., 2020; Sung et al., 2021; Cao et al., 2021; Zhong et al., 2021; Kandpal et al., 2023; Heinzerling and Inui, 2020; Petroni et al., 2019; Qiao et al., 2023; Kritharoula et al., 2023; He et al., 2024a),在應用上取得了前所未有的進展。然而,LLMs在學習、存儲、利用和進化方面的知識機制仍然是一個謎(Gould et al., 2023a)。大量研究試圖通過知識神經元(Dai et al., 2022; Chen et al., 2024a)和電路(Elhage et al., 2021; Yao et al., 2024; Zou et al., 2024)來揭示LLMs中各種類型的知識,但這些努力分散在各個任務中,尚待全面的回顧和分析。 如圖1所示,本文開創性地回顧了整個知識生命周期中的機制。我們還提出了一種新的LLMs知識機制分類法,如圖2所示,涵蓋了特定時間的知識利用和整個LLMs期間的知識進化。具體來說,我們首先介紹了該領域的基本知識(§2)并從新的角度回顧了知識利用機制(§3)。然后,我們深入探討了知識進化的基本原則(§4),討論了知識利用的挑戰,并提出了一些有前景的假設來探索開發強大且可信模型的潛在途徑(§5)。最后,我們還提供了一些未來方向(§6)和知識機制分析工具(§C)。我們的貢獻如下: * 據我們所知,我們是首個回顧LLMs中知識機制并提供整個生命周期內的新分類法的。 * 我們提出了一種新的視角,從記憶、理解與應用及創造三個層次分析知識利用機制。 * 我們討論了個體和群體LLMs中的知識進化,并分析了這一過程中固有的沖突和整合。 * 我們懷疑普遍的Transformer架構可能阻礙創造力,數據分布和數量可能導致參數化知識的脆弱性,引發幻覺和知識沖突。此外,黑暗知識將長期存在。

與現有綜述的比較以往的可解釋性綜述通常旨在從全局和局部分類法角度研究解釋LLMs中不同組件作用的各種方法(Ferrando et al., 2024; Zhao et al., 2024a; Luo and Specia, 2024; Murdoch et al., 2019; Bereska and Gavves, 2024; Vilas et al., 2024; Singh et al., 2024)。相比之下,本文側重于LLMs中的知識。因此,我們的分類法以LLMs中的目標知識為導向,回顧了知識的獲取、存儲、利用及后續進化。此外,以前的分類法大多探討推理階段(一個特定時期)的可解釋性,而忽略了預訓練階段的知識獲取和后訓練階段的進化(R?uker et al., 2023; Luo et al., 2024b; Apidianaki, 2023; Jiao et al., 2023; R?uker et al., 2023; Rai et al., 2024)。我們的分類法旨在探索從幼稚到成熟的各個階段的動態進化,無論是個體還是群體LLMs。 與最相似的綜述(Cao et al., 2024a)引入的知識生命周期相比,我們的工作重點是每個階段的底層機制。總體而言,本文可能有助于我們探索和操作LLMs中的高級知識,通過知識進化的歷史檢查當前的局限性,并為未來模型的更高效和可信的架構和學習策略提供靈感。請注意,本文中的大多數假設源自基于Transformer的LLMs。我們還驗證了這些假設在其他架構模型中的普適性,然后在§B中提出普遍智能。

付費5元查看完整內容

隨著大語言模型的廣泛應用,針對大語言模型的評估工作變得至關重要。除了大語言模型在下游任務上的表現情況需要評估外,其存在的一些潛在風險更需要評估,例如大語言模型可能違背人類的價值觀并且被惡意輸入誘導引發安全問題等。本文通過分析傳統軟件、深度學習模型與大模型的共性與差異,借鑒傳統軟件測評和深度學習模型評估的指標體系,從大語言模型功能評估、性能評估、對齊評估和安全性評估幾個維度對現有工作進行總結,并對大模型的評測基準進行介紹。最后依據現有研究與潛在的機遇和挑戰,對大語言模型評估技術方向和發展前景進行了展望。

付費5元查看完整內容

摘要 —— 隨著ChatGPT的興起,大型模型的使用顯著增加,迅速在整個行業中脫穎而出,并在互聯網上廣泛傳播。本文是對大型模型微調方法的全面綜述。本文研究了最新的技術進展以及在諸如任務適應性微調、領域適應性微調、小樣本學習、知識蒸餾、多任務學習、高效參數微調和動態微調等方面應用先進方法。 索引術語 —— 大型語言模型(LLMs)、任務適應性微調、領域適應性微調、小樣本學習、知識蒸餾、多任務學習、高效參數微調、動態微調 I. 引言 變換器(Transformer)模型的出現標志著自然語言處理(NLP)領域的一個重要里程碑。變換器架構最初是為了解決循環神經網絡(RNNs [143])和卷積神經網絡(CNNs [55])在處理長距離依賴關系中的局限而設計的,該架構由Vaswani等人在2017年引入[126],徹底改變了我們處理語言理解和生成任務的方式。 變換器架構背景:變換器模型源于對比傳統模型更有效處理序列數據的需求。其獨特的架構,不依賴遞歸和卷積,利用注意力機制來抽取輸入與輸出之間的全局依賴關系,顯著提高了處理效率和模型性能。 編碼器[19]、解碼器[95] [96] [13]以及編解碼器[100]架構:變換器架構主要由其編碼器和解碼器組成。編碼器處理輸入序列,創建每個詞的豐富上下文表征。相比之下,解碼器通常在語言翻譯任務中生成輸出序列,使用編碼信息。 兩者的區別在于它們的角色:編碼器是輸入的上下文感知處理器,而解碼器基于編碼輸入生成預測。編解碼器架構常用于序列到序列的任務,結合這兩個組件,便于處理復雜任務,如機器翻譯,編碼器處理源語言,解碼器生成目標語言。 大型模型中的微調興起:微調大型語言模型的概念源于將這些模型從訓練于龐大、多樣的數據集適應到特定任務或領域的挑戰。微調調整模型的權重,針對特定任務,增強其從廣泛語言模式到特定應用需求的泛化能力。隨著模型規模和復雜性的增長,這種方法變得越來越重要,需要更精細的適應技術來充分發揮其潛力。 本文的結構旨在提供關于微調大型語言模型的方法論和進展的全面概覽。后續部分的組織如下: 文獻回顧:審視語言模型的發展,突出變換器架構的關鍵發展和基礎概念。 理論基礎:深入探討變換器模型的理論基礎,包括注意力機制、編碼器和解碼器的機制。 微調策略:討論各種微調方法,如任務特定、領域特定的適應和高級技術,如小樣本學習和動態微調。 挑戰與未來方向:識別微調方法中的當前挑戰,并探索這一迅速發展領域的潛在未來研究方向。 本文介紹了基于變換器架構的大型語言模型的范式,并提供了常用的大模型微調方法的詳細概述。文章以一個比較實驗結束,聚焦于六個文本分類數據集上的模型大小和LoRA微調范式。實驗代碼已在GitHub上提供。

付費5元查看完整內容

文 / 秦兵,吳迪,趙妍妍

摘 要:

本文以大語言模型價值觀對齊研究為主題,介紹大語言模型價值觀相關概念、價值觀對齊研究發展歷程和價值觀體系,旨在探索如何使大語言模型的價值觀與人類社會價值觀保持一致。從共同價值觀、群體價值觀和個體價值觀三種層次,討論了實現價值觀對齊的多種方法和所面臨的挑戰。文中強調了大語言模型發展中價值觀對齊的重要性,并展望了大語言模型價值觀對齊研究的發展方向。 關鍵詞:

大語言模型;價值觀對齊;共同價值觀;群體價值觀;個體價值觀

0 引言

自2022年11月30日OpenAI發布ChatGPT這一生成式大語言模型以來,人工智能領域迎來新的浪潮。大語言模型將各種自然語言處理任務整合成文本生成任務模式,使用戶與模型的互動變得更加便捷。用戶通過輸入文本指令,在生成文本、回答問題、情感分析、翻譯語言、摘要文章等任務上,均可以用統一的模型來獲取自然、高效的響應。這種整合為用戶提供了一個多功能、高度可定制的工具,有望推動自然語言處理技術在多個領域的應用邁上新臺階。憑借其強大的遷移能力,大語言模型在多領域展現出廣泛適應性,甚至在某些任務上具備超越人類專家的潛力。

大語言模型的性能受其不同來源預訓練語料庫影響,在學習知識的過程中不可避免地也會學習到包含各種人類觀念的內容,其中不乏與社會價值觀相悖的信息,從而在與用戶互動時存在激活這些不良內容的風險。因此,防止大語言模型在與用戶互動中產生違反人類價值觀的信息,從而更緊密遵循人類價值觀,已成為一個亟需研究的問題。

本文的目的是介紹大語言模型的價值觀相關概念、價值觀對齊研究發展歷程和價值觀體系;具體而言,將探討目前的價值觀分類方法和現有的價值觀對齊技術,以及這些技術未來的發展趨勢和在實際應用過程中可能面臨的挑戰。本文旨在通過對上述內容的介紹與討論,推動大語言模型的安全發展,確保其與人類價值觀有效的對齊;同時也將進一步探討與大語言模型價值觀對齊相關的新方法和新策略,以進一步應對大語言模型應用過程中在倫理和社會相關層面上可能遇到的挑戰。

1 價值觀相關概念

價值觀是對事物的價值或行為的重要性的衡量,它可以幫助確定最合適的行為、最恰當的生活方式,或者判斷不同行為的意義。在群體層面,共享的價值觀構成了文化和道德的基礎。在此基礎上,適用于全人類的價值觀一般稱為共同價值觀。而由某個群體形成的一系列規范,由這個群體共同遵守、為集體行為提供指導的價值觀,可視為群體價值觀。在個人層面,個人價值觀則體現了個人的偏好,因背景、經歷和信仰而異。

在人工智能領域,對齊技術旨在引導人工智能系統的行為符合設計者的利益和預期目標。對大語言模型而言,價值觀對齊是將人類的價值觀理念嵌入到語言模型中,使其生成內容能符合人類價值觀。

2 大語言模型價值觀對齊研究現狀

人工智能與人類價值觀對齊的概念最早由諾伯特 ? 維納在 1960 年提出。早期的相關研究主要側重于探索模型的輸出是否在特定情境下與人類價值觀保持一致,尤其是關于機器學習領域中的種族、性別、文化偏見和公平性問題的研究。例如,研究人員發現預訓練模型BERT等在類別預測時表現出性別和種族的刻板印象,于是提出了像StereoSet這樣的檢測數據集或設計了減少偏見的策略。然而,這些研究多集中于特定場景的自然語言理解任務,隨著大語言模型如ChatGPT在更開放和多樣的場景中得到了廣泛應用,亟需更深入的研究和細化的方法,以應對模型在不同場景中可能出現的倫理、社會和文化等挑戰,確保模型在各種不確定和不斷變化的情境中盡可能與人類價值觀保持一致。

在大語言模型價值觀對齊研究中,關鍵問題是如何進行價值觀的分類和對齊。價值觀分類主要用于識別語言表達背后的價值觀屬性,從而判斷模型是否與特定價值觀及其類型相符。這種分類不僅適用于用戶語言的檢測,而且對于評估大模型生成的語言也至關重要,以確保用戶及模型的行為符合社交媒體、新聞媒體和其他環境的道德和法律規范。價值觀對齊則側重于保證大語言模型的輸出內容與人類價值觀保持一致,通過預訓練、指令微調、人類反饋及后處理等手段實現。此外,還需要在共同價值觀基礎上,調整模型以反映不同群體的多元價值觀,從而適應多樣化的應用場景。這種方法不僅增強了模型的普適性也有助于更全面地滿足各類用戶的需求。

大語言模型的價值觀研究仍處于起步階段,但已經吸引了社會廣泛的關注。《時代》雜志評選2023年三大人工智能創新,其中之一便是大語言模型對齊技術。同時多家企業和研究機構已開始對這一領域進行重點布局,例如,OpenAI成立了SuperAlignment團隊,目標是在未來五年內解決大語言模型價值觀安全問題;加州大學伯克利分校等高等教育機構也已創建了Center for AI Safety組織,專注于AI安全研究,同時為研究者提供培訓和計算資源。在國內,諸如哈爾濱工業大學、清華大學、中國科學技術大學和天津大學等學術機構,以及微軟、騰訊等公司也在積極開展相關研究。大語言模型價值觀對齊的研究將成為未來工業界和學術界的重要研究領域。我們堅信,通過這些努力,大語言模型將更好地與人類價值觀保持一致,推動科技向善,為人工智能技術的安全發展打下堅實基礎。

3 大語言模型價值觀體系

本文將價值觀體系分為共同價值觀、群體價值觀和個體價值觀三個層次,如圖 1 所示。共同價值觀構成價值觀體系的基礎,代表著那些人類普遍認同的價值觀。這些價值觀為模型行為提供基本準則,其應用不受特定場景或人群差異的影響。群體價值觀考慮到大模型服務于不同的群體,大模型應當融入各個群體的價值觀,確保其能夠遵循各個群體的道德規范。隨著模型越來越多地融入個人日常生活,大模型的應用場景更加靈活,與個體價值觀的對齊也變得至關重要。為了使模型能夠提供個性化的服務,模型不僅需要遵循共同價值觀和群體價值觀,還需要根據個人的需求、性格和價值觀進行定制化調整。

圖 1 價值觀體系

3.1 大語言模型的共同價值觀

在哲學意義上,共同價值觀是超越民族、種族、國界和信仰,是全人類共同擁有的價值觀。對于多樣化應用的大語言模型而言,同樣存在所有應用領域通用的價值觀。因此,研究人員需要為大語言模型制定一套共同的價值觀體系,將其作為模型行為的基本規范。例如,Anthropic團隊提出的由有益性、誠實性和無害性規范組成的體系,體現了這一理念。

目前為止,廣泛認可的大語言模型共同價值觀標準尚未形成,研究人員正在積極探索各種價值觀體系的設計,以構建一個既能反映人類共同價值觀,又能確保各價值觀間和諧相容的體系。在此探索過程中,計算反思均衡(computational reflective equilibrium)的方法可以用于優化共同價值觀的設計,該方法提倡讓模型在具體實例或案例中應用共同價值觀并進行測試,如果在特定情境下發現模型的共同價值觀存在沖突,可能需要修改或調整模型的價值觀以解決沖突,從而逐漸找到更合適的共同價值觀設計。這一過程可以不斷完善和優化模型的共同價值觀,確保其適用性和有效性。在這個框架下,哈爾濱工業大學以社會主義核心價值觀為基礎,構建了模型價值觀的指導原則。這些原則涵蓋“言語侵犯”“暴力恐怖”“反動言論”等10個關鍵方面,以確保模型在處理文本內容時能夠避免產生令人不悅或危險的內容,更好地滿足廣泛的社會期望和要求,從而提高模型的社會適應性和倫理性。

3.2 大語言模型的群體價值觀

群體價值觀多體現為道德規范。在社會活動中,有許多依據群體價值觀制定的規范逐漸被社會所接受成為道德規范,所有社會參與者的行為受這些規范約束。為了語言模型的生成內容能夠符合道德規范,研究人員建立了如SOCAIL-CHEM101和Moral Integrity Corpus等語料庫,這些語料包含了大量的道德場景和簡化的道德規范。除了直接從具體場景和規范進行學習外,還有研究者采用規范倫理學的理論,如正義和美德來引導模型的道德學習。這些理論用于分析收集到的場景,進而訓練語言模型在特定情境中進行基于這些理論的道德判斷。有研究者也探討了利用故事人物作為學習先驗的方法。以“Goofus & Gallant”為例,該故事中的角色行為被用作模型的先驗學習對象,其中正面角色的行為是模型學習的依據。這種方法旨在指導模型學習并吸收相應的道德規范。通過詳細的故事情境展現和角色行為示范,模型能夠在具體的故事背景下,理解并模仿正面角色的行為。

目前大多數為語言模型構建的語料庫主要基于英文文本,這一偏向很可能導致大語言模型的輸出更傾向于體現西方的道德規范。然而,世界各地的道德規范因國家、地區和文化而異,遵循特定道德規范的語言模型可能無法有效服務于遵循不同道德規范的人群。因此,大語言模型價值觀研究不僅應關注模型如何遵循道德規范,而且需考慮模型對多元道德規范的適應性。研究工作應從將普遍認可的共同價值觀整合入模型開始,通過外部機制為模型引入多元價值觀,使之能夠依據具體情境做出適當調整。這將引導我們朝著開發能夠適應多元價值觀的大語言模型這一長期目標邁進,為更廣泛的社會群體提供普惠且包容的人工智能服務。

此外,針對特定領域,如司法和醫療,也存在普遍認可的專業道德規范。開發針對這些垂直領域的模型時,需要從該領域的基本道德規范出發進行對齊。基于此,大模型不僅遵循共同價值觀,還能在特定應用領域中展現出更加專業的倫理判斷。

3.3 大語言模型的個體價值觀

隨著語言模型應用變得更加深入和廣泛,它們將服務于更多樣化的用戶群體,并在日常生活中扮演重要角色,如私人助手等。因此,從個人層面來看,研究者需要讓語言模型的價值觀能夠根據服務對象進行靈活調整,以便提供不同的個性化服務。舉例來說,在教育領域,可以根據學生的不同偏好和不同性格進行個性化教學;在心理健康領域,可以針對患者價值觀設計治療方案,取得更好的治療效果;在論辯任務上,模型能夠根據受眾的價值觀偏好進行有針對性的論辯,取得更好的說服效果。

心理學領域對人類內在價值觀、性格及其相關心理活動的研究提供了重要的洞見,也為支持大語言模型的個性化服務打下了基礎。其中施瓦茨的人類基本價值觀理論是一個廣泛認可的框架。該理論認為,人類的價值觀是驅動行為和評判善惡的根本。基于此,施瓦茨定義了10種核心的價值觀動機。借鑒心理學中的理論,有學者們開發了ValueNet價值觀驅動型對話語言模型,以及能夠識別目標群體的道德價值觀的Moral Debater模型。這些模型的開發是心理學理論應用于人工智能的創新嘗試,旨在使語言模型能更準確地反映和適應目標人群的價值觀。

3.4 社會科學中的價值觀研究

為了深入理解和設計不同層次、適合不同群體的目標價值觀,并確保大語言模型與這些目標價值觀的有效對齊,研究者需要綜合倫理學、心理學、社會科學等多個學科領域的研究成果。這些領域在過去數十年中對人類價值觀進行了廣泛探索,為大語言模型價值觀的體系構建和對齊提供了堅實的理論基礎。跨學科的合作和綜合研究有助于更全面地理解價值觀的復雜性,從而可以為大語言模型的價值觀對齊提供更加科學和精準的指導。

在心理學領域,對人類內在價值觀及其心理活動的深入研究構成了豐富的理論基礎。特別是施瓦茨提出的人類基本價值觀理論,以及喬納森 ? 海特的道德基礎理論,均為探討群體道德價值觀提供了重要視角,其中海特強調了情感直覺在道德形成中的重要性,并將道德分為五個基本維度,涵蓋了關愛、公平、忠誠、權威和純潔等方面。借助這些理論框架,研究者能夠根據特定場景設計有針對性的價值觀和對齊策略。這些理論不僅指導了大語言模型價值觀對齊的研究方向,也為模型的進一步安全發展提供了理論基礎。例如,應用海特理論促進了道德場景數據集和社交媒體言論數據集的發展,為構建、理解和對齊目標價值觀體系提供了關鍵支持。

4 大語言模型的價值觀分類

價值觀分類的目標是辨識文本背后的價值觀屬性,并判斷其與既定目標價值觀的一致性。這個過程不僅適用于分析用戶語言,也關鍵于確保大型語言模型生成的內容符合目標價值觀標準。

4.1 大語言模型生成內容的價值觀分類

早期的文本價值觀分類研究主要集中在識別特定內容,例如文本中的暴力或偏見表達。隨著研究的進展,關注點逐漸轉向更廣泛的領域,不限于識別偏見或不當內容,而是探究語言模型在多元場景中的道德判斷與人類的一致性,以及其對惡意攻擊等情境的響應是否符合社會規范,或者借鑒心理學的方法來評估模型的價值觀特性。

在我們的日常生活中,經常會面臨需要在多種道德規范之間做出選擇的情況,即所謂的道德決策。探索大語言模型如何在這些復雜情境下評估和確定不同道德規范的相對優先級變得至關重要。這些道德決策反映了決策者內在價值觀的強度,以及不同價值觀之間的相對重要性。相關數據集如SCRUPLES 和 MoralExceptQA提供了復雜情境和評估任務,幫助我們分析模型的道德決策是否與人類決策一致,并揭示了大語言模型在靈活應用道德規范方面與人類的差異。這些研究有助于更深入地理解和提高大語言模型在復雜道德情境下的決策能力。

盡管大語言模型展現出在理解和遵循道德價值觀等規范方面的強大能力,我們仍需確保其在處理不同請求時始終堅持這些價值觀,防止產生違反價值觀的內容。為了全面評估大語言模型在價值觀對齊方面的能力,研究人員不僅分析了模型對常規請求的響應,還深入探索了其對惡意請求的響應。這包括設計特定的攻擊性提示,以測試模型在可能引發不當回復的情境下的表現。通過分析這些測試樣例的響應內容,研究人員能夠更準確地評估大語言模型在價值觀對齊方面的表現。例如,Anthropic團隊發布了一個旨在測試大語言模型價值觀的基準。該基準包括在紅隊行動中收集的有害和無害測試樣例,以及人工設計的測試信息,涵蓋攻擊性言論和不道德請求等內容。這些方法為評估和提升大語言模型的價值觀對齊能力提供了重要的工具。通過綜合運用以上的方式,不僅評估了模型在常規情景下的表現,也評估了其在處理具有惡意誘導的輸入時的表現,為模型在價值觀對齊方面提供了更深入的評估方法。

在心理學領域,問卷調查是評估人類價值觀的重要手段之一。近期,研究團隊將這種方法用于大語言模型,專注于研究模型在不同提示下生成內容的變化。實驗表明,盡管提示并未直接涉及特定價值觀,僅起到引導作用,但大語言模型的生成內容在不同提示下仍然會發生變化。這些研究為深入理解大語言模型的價值觀提供了新的視角。

盡管上述方法在某種程度上有助于評估模型的價值觀對齊,但這一領域仍面臨挑戰,因為目前缺乏直接測量大語言模型價值觀的有效方法。這一問題與心理學領域的類似挑戰相似,人類內在心理狀態同樣難以直接測量。然而,根據心理學的特質理論,可以通過觀察與之相關的外在行為來間接推測這些內在特質。因此,研究人員可以借鑒心理學領域的方法,嘗試評估和測量大語言模型的價值觀特性,但需要確保評估方法能夠準確測量模型的特定概念和特征,以保證評估結果的準確性和可靠性。

4.2 大語言模型在自主決策中的價值觀分類

價值觀分類不僅是針對模型的生成內容。模型自主決策的過程也涉及到價值觀的分類。對模型自主決策的價值觀分類方法不依賴于人工撰寫的誘導性文本,而是利用模型在不同決策場景下的偏好選項。例如,加州大學伯克利分校的研究人員開發了名為 MACHIAVELLI 的測試基準。研究人員在 100多本故事的基礎上構建了大量決策場景,并為每個選項設定了評估指標(如不公平行為、物理傷害行為、偷竊行為和權力欲望等)的變化值。模型在故事中做出各種決策,以推動劇情發展。在模型完成任務后,報告模型在不同價值維度上的得分。除此之外,還有如Jiminy Cricket等的測試基準,基于文本環境構建測試場景。這些方法為模型自主決策過程中的價值觀分類提供了有效手段。

5** 大語言模型的價值觀對齊技術**

價值觀對齊技術指通過預訓練或上下文提示等手段,確保語言模型生成的內容或決策符合目標價值觀。價值觀評估、分類與對齊過程相結合,可以實現使得大語言模型在各種情境下提供符合目標價值觀的服務的目的。

隨著大語言模型在多個領域的深入應用,為了確保這些模型與人類的價值觀保持一致,各種價值觀對齊技術逐漸發展和完善。目前,這些技術主要分為兩類,第一類是基于上下文的對齊學習方法,這種方法不需要對模型參數進行微調,而是依賴于模型本身強大的上下文理解能力和對指令的遵循能力;第二類是一系列通過訓練來調整模型行為的方法。如圖2所示,這些方法包括基于具體安全示例的監督微調(SFT)、基于人類偏好的人類偏好反饋強化學習 (RLHF),以及在人類偏好反饋強化學習基礎上加入明確規則的基于規范的獎勵模型(RBRM)等。上述不同技術都有其適用的場景和固有的優缺點。這些技術的發展不僅關系到模型的有效性,還涉及到如何確保人工智能技術在符合倫理和道德標準的同時,更好地服務于人類社會。

5.1 基于上下文學習的對齊

大語言模型在大規模語料庫上進行預訓練,并根據指令進行微調,已經獲得了大量的知識和能力。因此,上下文學習目前成為了一種有效的調整大語言模型輸出表現的方法,其具體做法是通過在提示中顯式要求模型避免有害回復來調整大語言模型的行為。例如,圖2左側所示,通過在提示中加入“不能違法”這一提示,大語言模型可以在輸出中避免給出教唆犯罪的內容。此方法的優點在于不需修改模型的參數,且不會影響模型的基本功能,但是其效果高度依賴于模型自身的糾錯能力,對于那些基礎性能較弱的模型表現不佳。

圖 2 大語言模型價值觀對齊方法

**

**

5.2 人在回路的對齊

人在回路的對齊具體是指在模型算法層面的各個階段,均可通過加入人工價值觀反饋來改進模型算法,常見的方法包括基于示例的監督微調對齊和基于人類偏好反饋的強化學習對齊等。

5.2.1 基于示例的監督微調對齊

與上下文學習不同,監督學習微調方法需要微調模型參數。如圖2所示,使用人工構建的符合價值觀的(輸入,輸出)數據對作為示例,以監督學習的方式訓練模型。在大語言模型ChatGPT出現之前,許多價值觀對齊的工作都采用這樣的訓練方式,例如ProsocialDialog、Moral Stories。此外還有研究人員設計了多種策略,通過提示大語言模型自動生成符合人類道德價值觀的指令數據,例如SelfInstruct和SELFALIGN。監督學習微調是一種在訓練穩定性和快速收斂方面表現出色的方法。然而,它也存在兩個主要限制,一是泛化到新樣例的能力較弱;二是缺乏對負面反饋的學習。這意味著雖然該方法在訓練集上表現良好,但可能在處理訓練集之外的新輸入時表現不佳,且在糾正不恰當輸出方面存在局限性。

5.2.2 基于人類偏好反饋的強化學習對齊

為了解決上述問題,大語言模型在微調階段引入了強化學習。人類反饋的強化學習是最具代表性的算法,共分為三個階段。首先,它使用監督微調訓練具有良好指令跟隨能力的模型。其次,收集并對各種質量的模型生成內容進行排名,以訓練一個獎勵模型。最后,通過PPO(proximal policy optimization)算法在微調大語言模型時應用獎勵模型,對模型的正確輸出進行獎勵和對負面輸出進行懲罰。如圖2所示,該過程對于回復1和2進行排名,對排名高的回復進行獎勵,鼓勵模型生成更好的回復。為了減少對手工反饋的依賴,許多研究使用大語言模型生成數據,例如 Constitutional AI。由于強化學習訓練成本高、資源需求大,且訓練過程不穩定和對超參數敏感,該方法仍需進一步探索。

此外也可采用基于規則的獎勵模型,為獎勵模型預先定義一些規則,獎勵模型根據規則而非從訓練數據學習到的偏好進行評分,如圖 2 所示。其中需要注意獎勵攻擊(reward hacking)問題,即生成模型可能通過學習到獎勵模型的某些特殊偏好來最大化其獎勵,這導致生成的內容可以被獎勵模型給出較高的評分但并不與人類的偏好完全對齊。受到PPO中訓練不穩定性的啟示,研究者探索了不依賴明確獎勵模型或強化學習的方法。DPO(direct preference optimization)采用了一種新策略,直接優化期望與不期望響應之間的相對對數概率。與此同時,RAFT方法則通過獎勵模型篩選高質量樣本進行模型的微調。有研究者提出RRHF方法,從各種基線模型、人類數據和目標模型等不同來源收集響應,并通過排名損失學習使它們與人類偏好保持一致。上述這些方法的共同特點是它們都能保留人類的偏好信號,同時規避了強化學習中常見的超參數敏感性問題。

5.3 多智能體協作的對齊

一些研究者還嘗試了通過多智能體協作對模型的價值觀進行對齊。例如 Stable Alignment方法使用了如Text-Davinci-003、ChatGPT等多種模型,并為它們設定了多種角色提示,從而構建了一個模擬社交互動的“沙盒”環境。在這個“沙盒”中,待對齊的模型會根據輸入指令生成多個回復,而這些回復會被“沙盒”中其他模型扮演的角色進行評分。這一機制旨在鼓勵模型傾向于生成得分更高的回復。多智能體構建的“沙盒”在這里起到了類似于獎勵模型的功能。這種對齊方式類似于模型蒸餾,依賴于扮演不同角色的大語言模型的價值觀對齊程度。

**6 **展望

隨著大語言模型技術的快速發展,其在社會各領域的影響也日益明顯。但同時,大模型與人類價值觀之間的對齊問題越來越受到公眾、研究者和政策制定者的關注。未來的大語言模型價值觀對齊研究有五個發展趨勢。

(1)多學科交叉驅動的大模型價值觀對齊。大語言模型的價值觀對齊問題亟需跨學科合作,涵蓋領域包括社會學、心理學等,這些學科可以為價值觀對齊研究提供重要的理論支持,同時可以協助研究人員建立更全面的價值觀指導原則和法規框架,以應對模型在不同領域和文化中的應用挑戰。基于此,多學科交叉可以從數據層面、算法動機層面、評測層面等多個層面為大模型價值觀對齊的研究提供支持,促進價值觀對齊策略和方法的高效發展。

(2)價值觀數據的多樣化和全面化。未來我們需要更加多樣和全面的數據集來捕捉和表示人類價值觀。這些數據集不僅應該包括各種文化、地域和社會背景的情境,還應該囊括不同哲學和道德觀念,確保大語言模型可以更好地為全世界不同用戶服務。實現價值觀數據的多樣性和全面性不僅需要跨足各個文化、地域和社會背景,還需要交叉學科的思維和貢獻。這些交叉學科相關的研究者們可以提供寶貴的思路和數據資源,有助于更好地理解和捕捉人類的多樣化價值觀。

(3)在大模型基礎能力之上持續增強價值觀對齊能力。研究表明,當大模型的價值觀對齊能力增強之后,很有可能會影響大模型的其他能力,因此,如何在不斷變化的環境中有效平衡價值觀對齊與模型的核心功能,成為了一個關鍵的研究問題。未來的工作應致力于開發成本更低、效率更高且廣泛適用的對齊策略,確保模型在處理復雜或惡意情境時,仍能做出與人類價值觀一致的決策。

(4)價值觀對齊模型的可解釋性。為了增進用戶對大語言模型決策過程的理解和信任,未來的研究需要更加關注模型的可解釋性。這包括探索如何使模型的決策過程更加透明,了解模型行為背后的原因,以及如何表示模型在提供服務時依賴的道德和價值觀標準。通過提高模型的可解釋性,研究者和用戶可以更好地理解模型行為背后的動機和邏輯。

(5)檢測評估手段的多樣性。目前大語言模型價值觀的不同評估手段有各自的局限性,也存在不同提示模版下大語言模型表現出的道德價值觀不同的情況,因此,檢測大語言模型內在價值觀是需要深入探索和分析的問題。研究者可借鑒心理學和認知科學等領域的評估方法,并探索適用于不同價值觀體系的分類評估方法。

大語言模型的價值觀對齊涉及哲學、倫理、心理學和社會學等多個領域。未來,更多的跨學科合作將成為必然趨勢。隨著大語言模型在各個領域的廣泛應用,政府和行業組織可能會出臺相關的政策和規范,確保技術的發展符合社會的整體利益。

7 結束語

大語言模型的價值觀問題既復雜又具有深遠的研究意義。雖然目前面臨眾多挑戰,但同時也蘊藏著巨大的機遇。盡管目前還存在許多挑戰,但大語言模型提供了前所未有的機遇。通過與人類價值觀的深入對齊,模型不僅可以提供更為智能和高效的服務,還可以更好地理解道德觀念和價值觀,推動人類社會的更為和諧發展。全社會需要充分認識到這一問題的重要性,并采取有效的對策,確保未來的大語言模型能為人類帶來更多的福祉和機遇。

(參考文獻略)

秦兵

哈爾濱工業大學社會計算與信息檢索研究中心主任、教授。主要研究方向為自然語言處理、知識圖譜、情感計算、文本生成。

吳迪

哈爾濱工業大學博士研究生。主要研究方向為價值對齊、社會計算和模型安全。

選自《中國人工智能學會通訊》 2024年第14卷第1期 人工智能倫理治理新挑戰專題

付費5元查看完整內容

? 作者|李依凡 機構|中國人民大學研究方向|自然語言處理 多模態大模型能夠根據圖片內容與用戶展開對話,完成復雜任務,但可能對圖像中的物體產生幻覺。本文探討并評估了目前多模態大模型的幻覺問題。實驗發現目前的多模態大模型存在較嚴重的幻覺問題,并且該問題可能受多模態指令數據集中物體分布的影響。本文還介紹了一種更穩定、靈活的物體幻覺評測方式POPE。

論文題目:Evaluating Object Hallucination in Large Vision-Language Models 論文鏈接://arxiv.org/abs/2305.10355 論文代碼:

引言

大型語言模型在自然語言處理領域取得了革命性的進展,其成功也推動了多模態領域的發展。最近,諸如MiniGPT-4, LLaVA等多模態大模型 (Large Vision-Laguage Models, LVLMs) 向我們展示了令人印象深刻的多模態對話能力。給定一張圖片,這些模型可以回答用戶提出的關于圖片的各種問題。從較為基本的物體識別或者圖片描述,到更具挑戰性的根據圖片寫廣告,作詩,LVLMs的回答都像模像樣。然而我們發現,LVLMs雖然在較為復雜的圖像問答問題上表現出色,卻難以正確回答一些看似更簡單的問題,例如判斷圖像中是否存在某物體。在 image captioning 領域,這種模型生成了圖像中不存在的物體的現象被稱為物體幻覺 (Object Hallucination)。

本文通過定量實驗測評了已有LVLMs的物體幻覺程度,并分析了其指令數據集的分布對幻覺的影響。此外我們還發現傳統的物體幻覺評測方法在評測LVLMs時存在一定的局限性,并提出了一種基于輪詢的物體探測評測方法 (Polling-based Object Probing Evaluation, POPE)。實驗結果表明 POPE 具有更好的穩定性,并且能夠擴展到未標注數據集上。

基于指令的評測

我們首先使用CHAIR指標在MSCOCO數據集上測試了最近的一些LVLMs。

評測設置

評測指標

CHAIR (Caption Hallucination Assessment with Image Relevance ) (Rohrbach et al., 2018) 是一種用于評估 image captioning 任務中物體幻覺的常用指標。給定圖像中的真實物體,CHAIR計算出出現在模型生成的圖像描述中但不在圖像中的物體的比例。其兩個變體和分別在對象實例級別和句子級別評估幻覺程度。具體計算公式為:

數據集

我們從MSCOCO數據集的驗證集中隨機選取了的2000張圖像和人工標注的圖像描述作為我們的評估數據集。在計算CHAIR指標時,我們遵循原論文的設置,僅考慮MSCOCO分割挑戰中出現的80個物體。我們還使用了同義詞列表,將生成的圖像描述中的同義詞映射到MSCOCO物體,避免將它們誤判為幻覺物體。

模型

我們評估了5個最近提出的LVLMs,即MiniGPT-4,LLaVA,Mulimodal-GPT,mPLUG-Owl以及InstructBLIP。下表展示并比較了這些模型的結構和訓練策略。

我們使用了如下指令來讓模型生成對圖像的描述:

  • Instruction 1: Generate a short caption of the image.
  • Instruction 2: Provide a brief description of the given image.

另外,我們還引用了一些較小的視覺-語言預訓練模型 (VLPMs) 在MSCOCO上的物體幻覺結果,包括 OSCAR,VinVL,BLIP和OFA。

評測結果

評測結果如上表所示。結果顯示大部分 LVLMs 的物體幻覺問題反而比規模更小的 VLPMs 更嚴重。其中 InstructBLIP 的幻覺問題最輕微,這可能是由于其多模態指令從已有的數據集中收集,并且長度較短有關。而其他 LVLMs 大多借助 LLMs 來生成多模態指令,通過這種方式生成的指令往往包含更豐富的信息并且更長,但可能本身就含有幻覺信息。 此外,我們還發現這種基于指令的評測方式在評測 LVLMs 時存在一定的局限性。首先是穩定性問題,雖然我們設計的兩條指令具有相近的語義,但模型根據這兩條指令生成的圖像描述的幻覺嚴重程度確存在很大差異。另外在不同指令下,模型的性能排名也可能發生改變(例如LLaVA和Multimodal-GPT的在 上的結果)。最后,CHAIR 在計算結果時需要判斷圖像描述中的物體是否出現在物體中,而圖像的生成結果并不會局限于 MSCOCO 中的80種物體,因此需要人工設計同義詞的映射規則,可能導致對幻覺的遺漏或者誤判。

指令數據集對幻覺的影響

LVLMs 和 VLPMs 在訓練過程上的主要區別在于 LVLMs 經歷了多模態指令微調。鑒于 VLPMs 的物體幻覺問題明顯好于 LVLMs,我們猜測多模態指令微調這個步驟可能是影響幻覺嚴重程度的主要原因。通過實驗,我們發現 LVLMs 確實更容易對在多模態指令數據集中頻繁出現/共現的物體產生幻覺。

頻繁出現物體的影響

由于大部分多模態指令數據是在 MSCOCO 的基礎上構造的,它們也可能繼承了其中不平衡的物體分布,即部分物體頻繁在數據中出現。因此在這些數據上微調后,LVLMs也可能傾向于生成這些物體。為了驗證這一猜想,我們首先繪制了物體出現頻率和幻覺頻率的柱狀圖,如下圖(a)所示。該圖的橫軸上的物體是在 MSCOCO 中出現頻率最高的物體,并且頻率從左到右依次降低。我們收集了MiniGPT-4, LLaVA, Multimodal-GPT和mPLUG-Owl在這些物體上的幻覺頻率。從圖中可以看出,幻覺頻率基本從左到右依次降低,和物體出現頻率的變化較為一致。因此 LVLMs 確實容易在頻繁出現的物體上產生幻覺。

為了進一步定量分析這種現象,我們計算了頻繁出現物體和所有幻覺物體之間的 Hit ratio@k ,以衡量它們間的一致性,其公式為: 其中是所有圖像的總數,Hallucinated()表示在第張圖中幻覺物體的個數,是幻覺物體中屬于 MSCOCO 出現頻率前k個的物體個數,從而能夠反映頻繁出現的物體占幻覺物體的比例。結果如下表左欄所示,幾乎所有的 LVLMs 都在0.5左右,因此多模態指令數據集中高頻出現的物體確實更容易出現幻覺。

頻繁共現物體的影響

除了頻繁出現的物體,數據集中一些頻繁共現的物體組也可能影響幻覺問題(例如電腦,鼠標,鍵盤)。當圖像中存在這些組中的某個物體時,模型可能會在組內其他物體上產生幻覺。我們使用了相似的實驗驗證該猜想,分析了和'dining table'頻繁共現物體的幻覺情況。前圖(b)中,物體的共現頻率和幻覺頻率也有較一致的變化規律。定量分析方面,我們定義 其中是共現的參考物體(即本次實驗中的'dining table'),是幻覺物體中前個和高頻共現的物體個數。結果展示在上表右欄中,可以發現大部分 LVLMs 的該項指標依然較高。因此頻繁共現的物體組也會影響 LVLMs 的幻覺。

POPE

鑒于目前對 LVLMs 的物體幻覺評測方法存在諸多局限性,我們提出了POPE。

概述

如上圖所示,POPE 將幻覺評估轉換為讓模型回答一系列關于物體是否存在于圖像中的判斷題(例如'Is there a car in the image?')。具體而言,給定一個圖像數據集和每張圖像包含的物體標注,POPE將構造一系列由圖像,問題和回答組成的三元組,可形式化表示為: 其中 表示圖像,是待測試的物體,既可以是圖像中真實存在的物體,也可以是自定義的不存在于圖像中的物體,是測試物體 的問題, 是對該問題的回答('Yes' 或 'No')。 實驗細節方面,我們將圖像中真實存在的物體和不存在的物體之間的比例設置為1:1,并且使用二分類任務常用的 Accuracy, Recall, Precision 和 F1 Score 作為評測指標。此外為了更好的分析模型行為,我們還記錄了模型回答 'Yes' 的比例。 關于圖像中未出現物體的選擇,我們受此前關于多模態指令數據對幻覺影響的分析啟發設計了三種采樣策略:

  • Random sampling:隨機選取不在圖像中的物體
  • Popular sampling: 優先選取出現頻率較高的物體
  • Adversarial sampling: 優先選取和圖像中物體頻繁共現的物體

評測結果

實驗結果如上圖所示,各模型的表現和此前的 CHAIR 指標基本一致,即 InstructBLIP 表現較好,而 mPLUG-Owl, LLaVA 和 Multimodal-GPT 幻覺較嚴重。可以注意到根據 F1-Score 判斷,三種采樣方式下的 POPE 的難度有所不同,體現為 Adversarial > Popular > Random,這也進一步驗證了我們此前的分析,即多模態指令數據集中的頻繁出現/共現物體更容易產生幻覺。此外我們還觀察到部分 LVLMs 傾向于對所有的問題都回答 'Yes'。

為了測試 POPE 的穩定性,我們還設計了另外3中問題模板,并在InstructBLIP上進行了測試,同時計算了其均值和標準差,結果如上表所示。可以看出 POPE 在使用不同問題模板的情況下各項指標變化幅度不大,較為穩定。

無標注數據集評測

通過和 SEEM 等自動分割工具結合,POPE 也可以被拓展到無標注的圖像數據集上用于測試。為了驗證 POPE 在無標注數據集上的性能,我們用 SEEM 標注了 MSCOCO, A-OKVQA 和 GQA 三個數據集中的各500張圖片,并沿用此前的方法構造了三種 POPE。我們測試了 LLaVA,MiniGPT-4 和 InstructBLIP 的表現,并且還測試了幻覺較輕的 BLIP 作為參照。MSCOCO 上的實驗結果如下表所示。

實驗結果顯示使用 SEEM 構建的 POPE 依然具有相同的難度趨勢 (Adversarial > Popular > Random),在大部分指標上也和使用人工標注構建的 POPE較為一致。我們也注意到部分指標上二者存在一定差異,例如 MiniGPT-4 在 Adversarial 采樣下的 F1 Score。我們認為這是由于 SEEM 的分割結果相較于 MSCOCO 中的人工標注粒度更細,模型做出判斷的難度更大,導致結果相對較低。

幻覺與VQA性能的關系

為了進一步研究幻覺問題和 LVLMs 性能之間的關系,我們在 A-OKVQA 和 GQA 上測試了部分 LVLMs 的性能。由于 LVLMs 的回答大都屬于較長的開放式回答,我們難以繼續使用傳統的 VQA 評測方法。為此我們借助了 ChatGPT 來輔助測評,我們提供給 ChatGPT 的 prompt 如下:

  • “You are an examiner who can judge whether a student’s answer matches the correct answers. Next, I will provide you with the correct answer and a student’s answer. Please judge whether the student’s answer matches the correct answers.”

測評結果如下表所示。InstructBLIP 在幻覺和 VQA 任務中都取得了最好的表現,而 MiniGPT-4 和 LLaVA 在二者上的結果趨勢并不一致。我們認為這些差異和 LVLMs 的使用的指令形式有關,例如 MiniGPT-4 的指令是較簡單的圖像描述任務,而 LLaVA 的指令包含更多較復雜的對話或推理任務,使其更擅長處理 VQA 任務。總之,上述結果說明在評估現有 LVLMs 的性能時,幻覺和 VQA 性能都需要被考慮。

總結

我們測試了多個LVLMs在物體幻覺問題上的表現。我們通過實驗發現,視覺指令數據集中的物體分布會影響LVLMs的物體幻覺。此外,我們還發現現有的幻覺評估方法可能受到輸入指令影響,從而導致評估結果不夠可靠。為此我們提出了一種基于輪詢的物體探測評估方法,稱為POPE。實驗結果表明,我們提出的POPE方法在評估LVLMs的對象幻覺問題上更為有效。

付費5元查看完整內容

摘要: 近年來,預訓練語言模型發展迅速,將自然語言處理推到了一個全新的發展階段。文中的綜述旨在幫助研究人員了解強大的預訓練語言模型在何處以及如何應用于自然語言處理。具體來講,首先簡要回顧了典型的預訓練模型,包括單語言預訓練模型、多語言預訓練模型以及中文預訓練模型;然后討論了這些預訓練模型對5個不同的自然語言處理任務的貢獻,即信息提取、情感分析、問答系統、文本摘要和機器翻譯;最后討論了預訓練模型的應用所面臨的一些挑戰。

//www.jsjkx.com/CN/10.11896/jsjkx.220800223

在早期的自然語言 處 理(NaturalLanguageProcessing, NLP)任務中,人們通常利用各種深度神經網絡[1],使用低維 密集向量來表示語言的句法或語義特征.然而,由于深度神 經網絡參數量大,并且是在有限的數據集上進行訓練的,往往 會導致過度擬合.因此,Vaswanid等[2]提出了深度學習模型 Transformer,用于解決循環神經網絡(RecurrentNeuralNetG work,RNN)訓 練 緩 慢、效 率 低 下 和 過 度 擬 合 的 問 題[3].同 時,將 Transformer與自我注意力機制相結合,實現了快速并 行的 效 果. 從 此,預 訓 練 語 言 模 型 (Pretrained Language Model,PLM)進入了蓬勃發展的階段.各種大規模的單語言 PLM(如 BERT [4]和 GPT [5])在各種 NLP任務中獲得了巨大 成功,并催生了許多不同的改進模型和多語言 PLM. 近兩年來,PLM 在 NLP 領 域 應 用 得 非 常 廣 泛,原 因 是 PLM 可以將各種困難復雜的 NLP任務簡化為簡單的微調問 題.PLM 通過自我監督學習在大規模文本語料庫上進行預 訓練,預訓練過程包括從大型語料庫中學習常識(與特定的下 游 NLP任務無關),以防止模型在小數據上過度擬合[6].在 預訓練之后,PLM 需要針對具體的下游任務進行微調. 由于 PLM 對 NLP至關重要,為了幫助研究人員快速掌 握 PLM 的應用現狀,本文綜述了 PLM 在 NLP 領域5個最 熱門的任務中的應用:信息提取(InformationExtraction,IE)、 情感分析(SentimentAnalysis,SA)、文本摘要(TextSummaGrization,TS)、問題回答(QuestionAnswering,QA)和機器翻 譯(MachineTranslation,MT).此 外,我 們 還 討 論 了 當 前 PLM 應用中的重要挑戰. 其他研究人員也綜述了 PLM,但本文的綜述與他們的不 同.2020年,Qiu等[7]對 PLM 在 NLP領域的應用進行了調 查,但只進行了簡單的概述.2020年,Zaib等[8]對 PLM 的對 話式人工智能做了一個簡短的綜述,但未涉及 PLM 在其他 領域的應用.2021年,Luo等[9]調查了 PLM 在跨語言SA 中 的應用.2021年,Kalyan等[10]回顧了基于轉換的生物醫學 PLM.然而,他們的 PLM 只涉及生物醫學領域,這些綜述都 沒有包含最新的進展,且所做的綜述單一或者不夠詳盡.本 文不僅討論了 PLM 在 NLP領域的最新應用,而且詳細地介 紹了這個主題,涵蓋了信息提取、情感分析、自動問答、文本摘 要和機器翻譯5個 NLP熱門領域. 本文第2節簡要介紹了一些典型的 PLM,包括國內外的 單語和多語 PLM;第3節總結了一些基于 PLM 的信息提取 方法;第4節回顧了一些基于 PLM 的情感分析技術;第5節 考察了用于問答系統的 PLM 模型;第6節討論了基于 PLM 的文本摘要方法;第7節評論了一些關于PLM 的機器翻譯的 研究;第8節討論了未來工作的挑戰;最后總結全文.

付費5元查看完整內容

摘要:隨著自然語言處理(NLP)領域中預訓練技術的快速發展,將外部知識引入到預訓練語言模型的知識驅動方法在NLP任務中表現優異,知識表示學習和預訓練技術為知識融合的預訓練方法提供了理論依據。概述目前經典預訓練方法的相關研究成果,分析在新興預訓練技術支持下具有代表性的知識感知的預訓練語言模型,分別介紹引入不同外部知識的預訓練語言模型,并結合相關實驗數據評估知識感知的預訓練語言模型在NLP各個下游任務中的性能表現。在此基礎上,分析當前預訓練語言模型發展過程中所面臨的問題和挑戰,并對領域發展前景進行展望。

//www.ecice06.com/CN/10.19678/j.issn.1000-3428.0060823

付費5元查看完整內容
北京阿比特科技有限公司